Alan Smithee. Alan Smithee steht als Pseudonym für einen fiktiven Regisseur, der Filme verantwortet, bei denen der eigentliche Regisseur seinen Namen nicht mit dem Werk in Verbindung gebracht haben möchte. Von 1968 bis 2000 wurde es von der Directors Guild of America (DGA) für solche Situationen empfohlen, seither ist es Thomas Lee. "Alan Smithee" ist jedoch weiterhin in Gebrauch. Alternative Schreibweisen sind unter anderem die Ursprungsvariante "Allen Smithee" sowie "Alan Smythee" und "Adam Smithee". Auch zwei teilweise asiatisch anmutende Schreibweisen "Alan Smi Thee" und "Sumishii Aran" gehören – so die Internet Movie Database – dazu. Entstehung. Das Pseudonym entstand 1968 infolge der Arbeiten am Western-Film "Death of a Gunfighter" (deutscher Titel "Frank Patch – Deine Stunden sind gezählt"). Regisseur Robert Totten und Hauptdarsteller Richard Widmark gerieten in einen Streit, woraufhin Don Siegel als neuer Regisseur eingesetzt wurde. Der Film trug nach Abschluss der Arbeiten noch deutlich Tottens Handschrift, der auch mehr Drehtage als Siegel daran gearbeitet hatte, weshalb dieser die Nennung seines Namens als Regisseur ablehnte. Totten selbst lehnte aber ebenfalls ab. Als Lösung wurde "Allen Smithee" als ein möglichst einzigartiger Name gewählt (bei der späteren Variante "Alan Smithee" war das Anagramm "The Alias Men" vermutlich kein Entstehungsgrund). Aufdeckung und Abkehr. 1997 kam die Parodie "An Alan Smithee Film: Burn Hollywood Burn" (deutscher Titel "Fahr zur Hölle Hollywood") in die Kinos, was das Pseudonym einem größeren Publikum bekannt machte, nicht zuletzt weil Arthur Hiller, der eigentliche Regisseur des Films selbst seinen Namen zurückzog und analog zum Filmtitel das Pseudonym "Alan Smithee" benutzte. Der Film gilt als einer der schlechtesten Filme der 1990er Jahre und gewann fünf Goldene Himbeeren. Der Film "Supernova" ist der erste Post-Smithee-Film, dort führte ein gewisser "Thomas Lee" alias Walter Hill die Regie. Verwendung. Die Verwendung dieses oder eines anderen Pseudonyms ist für Mitglieder der DGA streng reglementiert. Ein Regisseur, der für einen von ihm gedrehten Film seinen Namen nicht hergeben möchte, hat nach Sichtung des fertigen Films drei Tage Zeit, anzuzeigen, dass er ein Pseudonym verwenden möchte. Der Rat der DGA entscheidet binnen zwei Tagen über das Anliegen. Erhebt die Produktionsfirma Einspruch, entscheidet ein Komitee aus Mitgliedern der DGA und der Vereinigung der Film- und Fernsehproduzenten, ob der Regisseur ein Pseudonym angeben darf. Über die Beantragung muss der Regisseur Stillschweigen halten, ebenso darf er den fertigen Film nicht öffentlich kritisieren, wenn die DGA ihm die Verwendung eines Pseudonyms zugesteht. Ein Antrag des Regisseurs auf Pseudonymisierung kann abgelehnt werden, so durfte Tony Kaye den Namen Smithee bei dem Film "American History X" nicht einsetzen, obwohl er den Antrag stellte. Auch bei nicht-US-amerikanischen Produktionen wird der Name verwendet, wie etwa beim Pilotfilm der Fernsehserie "Schulmädchen". 2007 sendete die ARD am 8. und 9. August den zweiteiligen TV-Film "Paparazzo". Auch in diesem Werk erscheint anstatt des eigentlichen Regisseurs Stephan Wagner Alan Smithee im Abspann. Der Pilotfilm der Serie "MacGyver" und die fünfte Folge der ersten Staffel führen einen Alan Smithee als Regisseur. Auf der TV-Serien-Seite TV Rage wird Jerrold Freedman als Regisseur des Pilotfilms angegeben. Der Regisseur der fünften Folge ist unbekannt. 2014 produzierte die New Yorker Performance-Kompanie Big Dance Theater "Alan Smithee Directed this Play", das im August des Jahres auch in Berlin bei Tanz im August aufgeführt wurde. Referenzen. Smithee, Alan Actinium. Actinium (latinisiert von "aktína" ‚Strahl‘) ist ein radioaktives chemisches Element mit dem Elementsymbol Ac und der Ordnungszahl 89. Im Periodensystem der Elemente steht es in der 3. IUPAC-Gruppe, der Scandiumgruppe. Das Element ist ein Metall und gehört zur 7. Periode, d-Block. Es ist der Namensgeber der Gruppe der Actinoide, der ihm folgenden 14 Elemente. Geschichte. Actinium wurde im Jahr 1899 von dem französischen Chemiker André-Louis Debierne entdeckt, der es aus Pechblende isolierte und ihm zunächst Ähnlichkeiten mit dem Titan oder dem Thorium zuschrieb. Friedrich Giesel entdeckte Actinium unabhängig davon im Jahr 1902 und beschrieb eine Ähnlichkeit zum Lanthan; im Jahr 1904 benannte er es „Emanium“. Nach einem Vergleich der Substanzen im Jahr 1904 wurde Debiernes Namensgebung der Vorzug gegeben, da er es zuerst entdeckt hatte. Die Geschichte der Entdeckung wurde in Publikationen von 1971 und später im Jahr 2000 immer noch als fraglich beschrieben. Sie zeigen, dass die Publikationen von 1904 einerseits und die von 1899 und 1900 andererseits Widersprüche aufweisen. Gewinnung und Darstellung. Da in Uranerzen nur wenig Actinium vorhanden ist, spielt diese Quelle keine Rolle für die Gewinnung. Technisch wird das Isotop 227Ac durch Bestrahlung von 226Ra mit Neutronen in Kernreaktoren hergestellt. Durch den schnellen Zerfall des Actiniums waren stets nur geringe Mengen verfügbar. Die erste künstliche Herstellung von Actinium wurde im Argonne National Laboratory in Chicago durchgeführt. Physikalische Eigenschaften. Das Metall ist silberweiß glänzend und relativ weich. Aufgrund seiner starken Radioaktivität leuchtet Actinium im Dunkeln in einem hellblauen Licht. Actinium ist das namensgebende Element der Actinoiden, ähnlich wie Lanthan für die Lanthanoiden. Die Gruppe der Elemente zeigt deutlichere Unterschiede als die Lanthanoide; daher dauerte es bis 1945, bis Glenn T. Seaborg die wichtigsten Änderungen zum Periodensystem von Mendelejew vorschlagen konnte: die Einführung der Actinoide. Chemische Eigenschaften. Es ist sehr reaktionsfähig und wird von Luft und Wasser angegriffen, überzieht sich aber mit einer Schicht von Actiniumoxid, wodurch es vor weiterer Oxidation geschützt ist. Das Ac3+-Ion ist farblos. Das chemische Verhalten von Actinium ähnelt sehr dem Lanthan. Actinium ist in allen zehn bekannten Verbindungen dreiwertig. Isotope. Bekannt sind 26 Isotope, wovon nur zwei natürlich vorkommen. Das langlebigste Isotop 227Ac (Halbwertszeit 21,8 Jahre) ist ein Alpha- und Beta-Strahler. Es ist ein Zerfallsprodukt des Uranisotops 235U und kommt zu einem kleinen Teil in Uranerzen vor. Daraus lassen sich wägbare Mengen 227Ac gewinnen, die somit ein verhältnismäßig einfaches Studium dieses Elementes ermöglichen. Da sich unter den radioaktiven Zerfallsprodukten einige Gammastrahler befinden, sind aber aufwändige Strahlenschutzvorkehrungen nötig. Verwendung. Actinium wird zur Erzeugung von Neutronen eingesetzt, die bei Aktivierungsanalysen eine Rolle spielen. Außerdem wird es für die thermoionische Energieumwandlung genutzt. Der Zerfall des 227Ac ist dual: Während der größte Teil unter Emission von Beta-Teilchen in das Thoriumisotop 227Th übergeht, zerfällt ca. 1 % durch Alpha-Emission zu 223Fr. Eine Lösung von 227Ac ist daher als Quelle für das kurzlebige Franciumisotop 223Fr verwendbar. Letzteres kann dann regelmäßig abgetrennt und untersucht werden. Sicherheitshinweise. Einstufungen nach der Gefahrstoffverordnung liegen nicht vor, weil diese nur die chemische Gefährlichkeit umfassen und eine völlig untergeordnete Rolle gegenüber den auf der Radioaktivität beruhenden Gefahren spielen. Auch Letzteres gilt nur, wenn es sich um eine dafür relevante Stoffmenge handelt. Verbindungen. Nur eine geringe Anzahl von Actiniumverbindungen ist bekannt. Mit Ausnahme von AcPO4 sind sie alle den entsprechenden Lanthanverbindungen ähnlich und enthalten Actinium in der Oxidationsstufe +3. Insbesondere unterscheiden sich die Gitterkonstanten der jeweiligen Lanthan- und Actinium-Verbindungen nur in wenigen Prozent. Oxide. Actinium(III)-oxid (Ac2O3) kann durch Erhitzen des Hydroxids bei 500 °C oder des Oxalats bei 1100 °C im Vakuum erhalten werden. Das Kristallgitter ist isotyp mit den Oxiden der meisten dreiwertigen Seltenerdmetalle. Halogenide. Actinium(III)-fluorid (AcF3) kann entweder in Lösung oder durch Feststoffreaktion dargestellt werden. Im ersten Fall gibt man bei Raumtemperatur Flusssäure zu einer Ac3+-Lösung und fällt das Produkt aus. im anderen Fall wird Actinium-Metall mit Fluorwasserstoff bei 700 °C in einer Platinapparatur behandelt. Actinium(III)-chlorid (AcCl3) wird durch Umsetzung von Actiniumhydroxid oder -oxalat mit Tetrachlormethan bei Temperaturen oberhalb von 960 °C erhalten. Die Reaktion von Aluminiumbromid und Actinium(III)-oxid führt zum Actinium(III)-bromid (AcBr3) und Behandlung mit feuchtem Ammoniak bei 500 °C führt zum Oxibromid AcOBr. Weitere Verbindungen. Gibt man Natriumdihydrogenphosphat (NaH2PO4) zu einer Lösung von Actinium in Salzsäure, erhält man weiß gefärbtes Actiniumphosphat (AcPO4 · 0,5 H2O); ein Erhitzen von Actinium(III)-oxalat mit Schwefelwasserstoff bei 1400 °C für ein paar Minuten führt zu schwarzem Actinium(III)-sulfid (Ac2S3). Ang Lee. Ang Lee (; * 23. Oktober 1954 in Pingtung, Taiwan) ist ein US-amerikanisch-taiwanischer Filmregisseur, Drehbuchautor und Produzent. Er ist als vielfach ausgezeichneter Regisseur bekannt für so unterschiedliche Filme wie "Eat Drink Man Woman", die Jane-Austen-Adaption "Sinn und Sinnlichkeit", den Martial Arts-Film "Tiger and Dragon" sowie "Brokeback Mountain", für den er 2006 den Regie-Oscar erhielt. Einen weiteren Oscar erhielt er 2013 für seine Regiearbeit an '. Leben. Ang Lee wurde 1954 in Taiwan geboren. Seine Eltern, Emigranten aus China, lernten sich in Taiwan kennen, Lee ist ihr ältester Sohn. Die Großeltern väterlicher- und mütterlicherseits sind im Zuge der kommunistischen Revolution in China ums Leben gekommen. Da sein Vater als Lehrer häufiger die Arbeitsstelle wechselte, wuchs Ang Lee in verschiedenen Städten Taiwans auf. Entgegen den Wünschen seiner Eltern, wie sein Vater eine klassische akademische Laufbahn einzuschlagen, interessierte sich Lee für das Schauspiel und absolvierte mit ihrem Einverständnis zunächst ein Theater- und Filmstudium in Taipeh. Im Anschluss daran ging er 1978 in die USA, um an der Universität von Illinois in Urbana-Champaign Theaterwissenschaft und -regie zu studieren. Nach dem Erwerb seines B.A. in Illinois verlegte er sich ganz auf das Studium der Film- und Theaterproduktion an der Universität von New York, das er 1985 mit einem Master abschloss. Danach entschloss er sich, mit seiner ebenfalls aus Taiwan stammenden Ehefrau zusammen in den USA zu bleiben. Sein Interesse verschob sich trotz erster Erfahrungen mit dem Super-8-Film in Taiwan erst spät ganz auf Filmregie und -produktion – auch weil Lee seinen Berufswunsch seiner Familie und insbesondere seinem Vater gegenüber lange Zeit nicht eingestehen wollte. Nach dem Studium konnte er zunächst keine eigenen Projekte umsetzen. Erst ab 1992, als er seinen ersten Langfilm fertigstellte, zeichnete sich eine kontinuierliche Karriere als Regisseur ab. Als seine bisher größte Erfolge – sowohl beim Publikum als auch bei der Kritik – gelten das Martial Arts-Drama "Tiger and Dragon" mit einer pan-asiatischen Starbesetzung und der Post-Western-Liebesfilm Brokeback Mountain mit Heath Ledger und Jake Gyllenhaal. Für letzteren bekam Lee 2006 als erster asiatisch-stämmiger und nicht-weißer Regisseur den Oscar für die beste Regie. Außerdem wurden Lees Filme, neben vielen weiteren Preisen, mit mittlerweile zwei Goldenen Bären der Berlinale und zwei Goldenen Löwen der Filmfestspiele von Venedig ausgezeichnet. Lee ist seit 1983 mit der Mikrobiologin Jane Lin verheiratet. Mit ihren Söhnen Haan (* 1984) und Mason (* 1990) leben die beiden in White Plains, Westchester County, im Bundesstaat New York. Ang Lee besitzt die US-amerikanische Staatsbürgerschaft. Filmisches Werk. Nach seinen ersten Filmerfahrungen in Taiwan setzte sich Lee erst wieder während seines Studiums in den USA ernsthaft mit dem Filmemachen auseinander. Im Rahmen seines Studiums in New York drehte er einige Kurzfilme und wirkte unter anderem beim Abschlussdreh seines Studienkollegen Spike Lee als Regieassistent mit. Sein eigener Abschlussfilm "Fine Line" gewann 1985 zwei Preise beim renommierten Filmfest seiner Universität. Erst 1992 gelang es ihm, nach dem Gewinn eines hochdotierten Drehbuchwettbewerbs in Taiwan, den ersten einer Reihe von drei Filmen zu drehen, die west-östliche Konflikte taiwanischer Familien zum Thema haben. 1992–1994: Die „Father-Knows-Best“-Trilogie. Diese ersten drei Langfilme, die Lee realisieren konnte, werden im Allgemeinen unter dem Begriff "Father Knows Best" gefasst. Diese Bezeichnung geht auf die wiederkehrende Figur des chinesischen Familienoberhaupts, gespielt jeweils vom taiwanischen Schauspieler Sihung Lung, zurück. Die drei Filme thematisieren, wie später noch öfter bei Ang Lee, familiäre Probleme, die aus dem Konflikt zwischen Selbstbestimmung und Tradition, zwischen Innen und Außen, zwischen Ost und West sowie zwischen den Generationen herrühren. Die Filme sind allesamt US-amerikanisch-taiwanische Koproduktionen. Anders als bei allen bislang folgenden Projekten handelt es sich bei den ersten Filmen Lees nicht um Adaptionen, sondern um Filme nach von ihm selbst geschriebenen Originaldrehbüchern. Der erste Film, "Schiebende Hände" (1992), handelt vom Einzug eines chinesischen Vaters bei seinem erwachsenen Sohn und der US-amerikanischen Schwiegertochter in New York und den interkulturellen Problemen, die in der neuen Wohngemeinschaft entstehen. Dies war die erste Zusammenarbeit zwischen Lee und dem Drehbuchautor und Produzenten James Schamus – seitdem bildeten die beiden bei jedem Film Lees eine enge Arbeitsgemeinschaft. Wie in den beiden folgenden Filmen schrieben sie auch gemeinsam das Drehbuch. In allen weiteren Filmen Lees (mit Ausnahme des Kurzfilms ') hat Schamus seither entscheidende Funktionen ausgeübt. Auch die regelmäßige Zusammenarbeit mit dem Cutter Tim Squyres nahm in Lees Erstling ihren Anfang. Mit Ausnahme des Erfolgsfilms "Brokeback Mountain" von 2005 hat Squires jeden Film, den Ang Lee gedreht hat, geschnitten. Nach dem Erfolg seines Erstlings konnte Lee als Nächstes "Das Hochzeitsbankett" (1993) drehen, eine Komödie über die fingierte Eheschließung eines homosexuellen Exil-Taiwaners in den USA. Erneut taucht hier die Figur des strengen, aber weisen Familienoberhaupts auf. Hatte "Schiebende Hände" zunächst vor allem in Taiwan für Aufmerksamkeit (und Preise) gesorgt, wurde mit dem zweiten Langfilm Lees auch Europa auf den aufstrebenden Regisseur aufmerksam: Der Film erhielt bei der Berlinale 1993 den "Goldenen Bären" als "Bester fremdsprachiger Film" und war zudem für einen Oscar nominiert. Er gilt darüber hinaus als einer der profitabelsten Low-Budget-Filme des Jahres 1993. Mit nur einer Million US-Dollar Produktionskosten erzielte er ein Einspielergebnis von über 23 Millionen US-Dollar. Sihung Lung ist auch im letzten Teil der Trilogie, "Eat Drink Man Woman" (1994), die "kongeniale Verkörperung des chinesischen Familienoberhaupts", das "Zentrum dieser Maskeraden, in denen es darum geht, ein altes Gesicht zu wahren und dann zu lernen, es zu verlieren, um ein neues, lebenstauglicheres zu gewinnen." Dieses Mal ist er der verwitwete Vater dreier Töchter, die ihr Leben und ihre Lieben auf unterschiedliche Art angehen und dabei ebenfalls innerfamiliäre Konflikte klären müssen. "Eat Drink Man Woman" wurde, anders als seine Vorgänger, in Taipeh gedreht. Im Mittelpunkt des Films stehen (der Titel deutet es an) die Liebe und das Essen. Ang Lee, privat ein passionierter Koch, legte hierbei besonders großen Wert auf die kulinarische Komponente als Stilmittel und konzipierte die Hauptfigur des älteren Witwers als berühmten Koch. 1995–1999: Dreimal anglo-amerikanische Geschichte. Mit dem Angebot der Produzentin Lindsay Doran, die von der britischen Schauspielerin Emma Thompson verfasste Adaption des Romans "Verstand und Gefühl" von Jane Austen in Großbritannien zu drehen, eröffnete sich Lee eine lange ersehnte neue Perspektive jenseits asiatisch geprägter Stoffe. 2000–heute: Pendeln zwischen West und Ost. "Tiger and Dragon" sowie "Hulk" sind sehr unterschiedliche Action-Filme. Mit "Tiger and Dragon" gewann Lee zwei Golden Globes. Das Werk wurde außerdem mit vier Academy Awards (Oscars) prämiert, darunter der Trophäe für den besten fremdsprachigen Film. Für diesen Film wurde er 2001 auch mit einem Chlotrudis Award ausgezeichnet, seinen zweiten Chlotrudis erhielt er 2006 für "Brokeback Mountain". Für "Brokeback Mountain" wurde Lee mit einer Vielzahl von Filmpreisen geehrt, darunter der Oscar für die beste Regie, der Goldene Löwe der Filmfestspiele von Venedig sowie die Auszeichnung der Hollywood Foreign Press Association als bester Regisseur des Jahres. 2007 verfilmte er mit "Gefahr und Begierde" eine Kurzgeschichte von Eileen Chang. Der Thriller spielt zur Zeit des Zweiten Weltkriegs in Shanghai und handelt von einer jungen chinesischen Agentin (gespielt von Tang Wei), die beauftragt wird, einen hochrangigen Verräter (Tony Leung Chiu Wai) zu liquidieren. Lees erste chinesischsprachige Spielfilmproduktion seit "Tiger and Dragon" war 2007 im offiziellen Wettbewerb der 64. Filmfestspiele von Venedig vertreten und brachte ihm erneut den Goldenen Löwen ein. Im selben Jahr wurde "Gefahr und Begierde" als offizieller taiwanischer Beitrag für die Nominierung um den besten fremdsprachigen Film bei der Oscar-Verleihung 2008 ausgewählt, später aber auf Empfehlung der Academy of Motion Picture Arts and Sciences wieder zurückgezogen und durch Chen Huai-Ens "Lian xi qu" ersetzt. Ende Februar 2009 wurde bekannt gegeben, dass Lee die Jury der 66. Filmfestspiele von Venedig leiten werde. Zwei Monate später erhielt er für seine Komödie "Taking Woodstock" eine Einladung in den Wettbewerb der 62. Internationalen Filmfestspiele von Cannes. 2013 wurde er in die Wettbewerbsjury des 66. Filmfestivals von Cannes berufen. Stil. Ang Lee ist ein international anerkannter und erfolgreicher Regisseur und gilt als einer der vielseitigsten Filmemacher der letzten Jahre. Häufig behandelt Lee in seinen Filmen das Thema Familie auf eine Art und Weise, die autobiographische Züge seines eigenen Lebens trägt. Er lässt seine Umgebung ganz bewusst auf sich einwirken und bringt diese in seine Filme ein. Kennzeichnend für die meisten seiner Filme sind eine wenig geradlinige Erzählstruktur, die die Charaktere und die Geschichte aus verschiedenen Blickwinkeln darstellt. Er verknüpft die Konflikte des menschlichen Lebens mit traditionellen und innovativen Stilelementen. Anschluss (Soziologie). Anschluss ist in der Soziologie ein Fachbegriff aus der Systemtheorie von Niklas Luhmann und bezeichnet die in einer sozialen Begegnung auf eine Selektion der anderen Seite folgende, selbst gewählte Selektion. Diese Selektionen beziehen sich aufeinander. Die Anschlussfähigkeit ist die Kapazität von Systemen zu gewährleisten, dass sich an die Selektionen eines Systems weitere anschließen können. Alle sozialen Systeme reproduzieren sich über Kommunikation (z. B. Wirtschaftssystem oder Politik) oder Handlungen (Medizin und Erziehungssystem). Dies gelingt nur, wenn die einzelnen Einheiten aneinander anschlussfähig sind, was durch einen systemspezifischen Code geleistet wird, der als zentrale Logik (Leitunterscheidung) aller Kommunikation zugrunde liegt und sie als systemzugehörig erkennbar macht. Im Wirtschaftssystem beispielsweise sorgt der Code "Zahlen/nicht Zahlen" dafür, dass die Kommunikationen sich auf sich selbst beziehen und sich selbst reproduzieren kann, also dass auf jede Zahlung eine neue erfolgt. Dies funktioniert über das generalisierte Kommunikationsmedium Geld, das die letzte Zahlung mit der jetzigen verknüpft. Würde das Geld nicht mehr akzeptiert, folgt der Zahlung keine weitere Zahlung mehr und das System hätte seine Anschlussfähigkeit verloren. Die Anschlussfähigkeit innerhalb eines Systems wird als Selbstreferenz bezeichnet, im Gegensatz zum fremdreferentiellen Bezug auf die Umwelt (Welt, andere Systeme). Den Begriff hat Luhmann auf eine Anregung eines Bielefelder Kollegen, des Philosophen Jürgen Frese entwickelt. Frese zeigte in einem Sektionsreferat des Achten Deutschen Kongresses für Philosophie in Heidelberg (1966, gedruckt 1967) mit dem Titel „Sprechen als Metapher für Handeln“, dass es fruchtbar ist, von den dominanten Handlungsmodellen Arbeit und Konsum abzurücken und ergänzend Sprechen als Modell für Handeln zu nutzen. Frese schreibt: „Die wichtigste Errungenschaft, die die Sprachmetapher für die Aufhellung des nicht-sprachlichen Handelns einbringt, ist ihre Leistung, Reihenbildung erklärbar zu machen. Fassen wir Satz und Handlung zum neutralen und an andere Philosopheme anschließbaren Begriff des Aktes zusammen, so können wir... sagen: Der Sinn eines Aktes ist das als eine bestimmte Situation gegebene Ensemble der Möglichkeiten, an diesen Akt weitere Akte anzuschließen; d. h. der Sinn eines Aktes ist die Mannigfaltigkeit der Anschließbarkeiten, die er eröffnet.“ Diese Idee wurde von Luhmann aufgegriffen und im Rahmen seiner Systemtheorie weiterentwickelt. Frese selbst baute sie im Rahmen seiner Lehre von den Formularen weiter aus. Aussagenlogik. Die Aussagenlogik ist ein Teilgebiet der Logik, das sich mit Aussagen und deren Verknüpfung durch Junktoren befasst, ausgehend von strukturlosen Elementaraussagen (Atomen), denen ein Wahrheitswert zugeordnet wird. In der "klassischen Aussagenlogik" wird jeder Aussage genau einer der zwei Wahrheitswerte „wahr“ und „falsch“ zugeordnet. Der Wahrheitswert einer zusammengesetzten Aussage lässt sich ohne zusätzliche Informationen aus den Wahrheitswerten ihrer Teilaussagen bestimmen. Geschichte. Historisch geht die Aussagenlogik zurück bis zu Aristoteles, der erstmals aussagenlogische Grundsätze diskutierte, nämlich in seiner Metaphysik den Satz vom Widerspruch und den Satz vom ausgeschlossenen Dritten, und der in seiner ersten Analytik den indirekten Beweis thematisierte. Die zweiwertige aussagenlogische Semantik entwickelten etwas später die megarischen Philosophen Diodoros Kronos und Philon. Die Aussagensemantik und -axiomatik kombinierte der Stoiker Chrysippos von Soli, der den ersten aussagenlogischen Kalkül formulierte. Die Weiterentwicklung der Aussagenlogik der Stoa durch das Mittelalter wird oft übersehen. Eine erste vollständige und entscheidbare Formalisierung für aussagenlogische Tautologien – allerdings noch nicht für das aussagenlogische Schließen – schuf George Boole 1847 mit seinem algebraischen Logikkalkül. Den ersten aussagenlogischen Kalkül mit Schlussregeln formulierte Gottlob Frege im Rahmen seiner Begriffsschrift 1879. Er war die Vorlage für den Aussagenkalkül von Bertrand Russell 1910, der sich später durchsetzte (s. u.). Zur Abgrenzung der klassischen Aussagenlogik. Das Prinzip der Zweiwertigkeit wird oft mit dem Satz vom ausgeschlossenen Dritten verwechselt. Die "klassische Aussagenlogik" ist jenes Gebiet der klassischen Logik, das die innere Struktur von Sätzen (Aussagen) daraufhin untersucht, aus welchen anderen Sätzen (Teilsätzen) sie zusammengesetzt sind und wie diese Teilsätze miteinander verknüpft sind. Die innere Struktur von Sätzen, die ihrerseits nicht in weitere Teilsätze zerlegt werden können, wird von der Aussagenlogik nicht betrachtet. Ein Beispiel: Die Aussage „Alle Katzen sind Hunde, und die Erde ist eine Scheibe“ ist mit dem Bindewort „und“ aus den beiden kürzeren Aussagen „Alle Katzen sind Hunde“ und „Die Erde ist eine Scheibe“ zusammengesetzt. Diese beiden Aussagen lassen sich ihrerseits nicht mehr in weitere Aussagen zerlegen, sind aus aussagenlogischer Sicht also elementar oder atomar. Andere, auf die Aussagenlogik aufbauende logische Systeme betrachten die innere Struktur solcher atomaren Aussagen; ein wichtiges Beispiel ist die Prädikatenlogik. In Abgrenzung zur klassischen Logik entstehen "nichtklassische Logiksysteme", wenn man das Prinzip der Zweiwertigkeit, das Prinzip der Extensionalität oder sogar beide Prinzipien aufhebt. Nichtklassische Logiken, die durch die Aufhebung des Prinzips der Zweiwertigkeit entstehen, heißen mehrwertige Logik. Die Zahl der Wahrheitswerte (in diesem Falle üblicher: Pseudowahrheitswerte) kann dabei endlich sein (z. B. dreiwertige Logik), ist aber oft auch unendlich (z. B. Fuzzy-Logik). Hingegen verwenden Logiken, die durch die Aufhebung der Extensionalität entstehen, Junktoren (Konnektive), bei denen sich der Wahrheitswert des zusammengesetzten Satzes nicht mehr eindeutig aus dem Wahrheitswert seiner Teile bestimmen lässt. Ein Beispiel für nichtextensionale Logik ist die Modallogik, die die einstelligen nichtextensionalen Operatoren „es ist notwendig, dass“ und „es ist möglich, dass“ einführt. Logische Systeme stehen innerhalb der Logik nicht in einem Konkurrenzverhältnis um Wahrheit oder Richtigkeit. Die Frage, welches logische System für einen bestimmten Zweck genutzt werden soll, ist eher eine pragmatische. Oft werden logische Systeme und logische Fragestellungen mit außerlogischen Fragen verwechselt oder vermischt, z. B. mit der metaphysischen Frage, welches logische System „richtig“ sei, d. h. die Wirklichkeit beschreibe. Zu dieser Frage gibt es unterschiedliche Standpunkte einschließlich des positivistischen Standpunkts, dass diese Frage sinnlos sei. Diese Fragen fallen aber in andere Gebiete, z. B. Philosophie, Wissenschaftstheorie und Sprachwissenschaft. Wenn in diesem Artikel die klassische Aussagenlogik behandelt wird, so ist das also nicht als metaphysische Festlegung zu verstehen oder gar als Behauptung, dass „alle Aussagen wahr oder falsch sind“. Es ist lediglich so, dass die klassische Aussagenlogik einfach nur solche Aussagen behandelt, die wahr oder falsch sind. Das ist eine große formale Vereinfachung, die dieses System relativ leicht erlernbar sein lässt. Braucht man aus metaphysischen oder pragmatischen Gründen mehr als zwei Wahrheitswerte, kann die klassische Aussagenlogik als Ausgangspunkt dienen, um ein geeignetes logisches System aufzustellen. Einfache Aussage (Elementaraussage). "siehe Hauptartikel: Aussage (Logik)" Eine Aussage A ist ein Satz, der entweder wahr (w, wahr, true, 1) oder nicht wahr (f, falsch, false, 0) ist. Das gilt sowohl für einfache als auch für verknüpfte Aussagen. „Halbwahrheiten“ gibt es nicht. Eine Aussage kann sowohl der gewöhnlichen Sprache entstammen als auch der Sprache der Mathematik. Eine Elementaraussage ist eine Aussage, die keine aussagenlogischen Verknüpfungen ("nicht, und, oder, wenn … dann, genau dann wenn") enthält. formula_2 ist offensichtlich wahr, formula_4 dagegen ist falsch. formula_1 muss man zunächst prüfen, bevor man entscheiden kann, ob formula_1 wahr oder falsch ist. Ob formula_3 wahr ist, kann man derzeit nicht entscheiden. Das wird sich erst am Ende der nächsten Fußballsaison In der klassischen Aussagenlogik ist eine Aussage entweder wahr oder nicht wahr, auch wenn man den Wahrheitsgehalt nicht kennt. Das ist zum Beispiel bei den ungelösten mathematischen Problemen der Fall. "Anmerkung:" formula_4 ist eine All-Aussage; die Struktur solcher Aussagen ist Gegenstand der Prädikatenlogik. Im Sinne der Aussagenlogik ist es eine Elementaraussage. Verneinte Aussage – Negation. Die "Verneinung" bzw. "Negation" (auch: "Satzverneinung", "äußere Verneinung", "kontradiktorisches Gegenteil") einer Aussage A ist diejenige Aussage ¬A, die genau dann wahr ist, wenn A falsch ist, und die genau dann falsch ist, wenn A wahr ist. Einfacher: Die Verneinung einer Aussage A dreht den Wahrheitswert von A in sein Gegenteil um. Man erhält die Verneinung einer Aussage A immer dadurch, dass man ihr die Formulierung „Es ist nicht der Fall, dass“ voranstellt. Zwar lässt sich ein natürlichsprachlicher Satz auch verneinen, indem man das Wort „nicht“ oder eine andere negative Formulierung an geeigneter Stelle einfügt – es ist aber nicht immer ganz einfach, zu erkennen, welche Formulierung zu verwenden und an welcher Stelle einzufügen ist. Formal schreibt man für „nicht A“ in der gebräuchlichsten Notation (Schreibweise) ¬A, auf Englisch und in der Schaltalgebra auch „NOT A“, gelegentlich auch „~A“. Und-verknüpfte Aussagen – Konjunktion. "siehe Hauptartikel: Konjunktion (Logik)" Eine "Konjunktion" ist eine aus zwei Aussagen zusammengesetzte Aussage, die die Wahrheit all ihrer Teilaussagen behauptet. Umgangssprachlich verbindet man zwei Aussagen A und B durch das Bindewort „und“ zu einer Konjunktion „A und B“, in der logischen Sprache verwendet man meist das Zeichen formula_24 (Schreibweise: formula_25), gelegentlich auch das kaufmännische Und, den Ampersand (&). Die Aussage formula_25 ist immer dann wahr, wenn sowohl A als auch B jeweils wahr sind. Andernfalls ist formula_25 falsch, nämlich dann, wenn entweder A oder B oder beide Aussagen falsch sind. A: 9 ist durch 3 teilbar B: 9 ist eine Quadratzahl Nur formula_37 ist wahr, weil formula_11 wahr ist und auch formula_30 wahr ist. formula_40 ist falsch, weil formula_12 falsch ist. formula_42 ist falsch, weil formula_43 falsch ist. formula_44 ist falsch, weil sowohl formula_12 als auch formula_43 falsch Nichtausschließendes Oder – Disjunktion. Eine "Disjunktion" ist eine zusammengesetzte Aussage, die behauptet, dass mindestens eine ihrer Teilaussagen wahr ist. Die Disjunktion in diesem Sinn wird auch "nichtausschließendes Oder" genannt. (Aber Achtung: Die Bezeichnung „Disjunktion“ wurde und wird oft auch für das ausschließende Oder, „entweder … oder“, verwendet – man denke an das Konzept der disjunkten Mengen. Einige Autoren verwenden daher für das Nichtausschließende Oder den Begriff "Adjunktion".) Das Formelzeichen „formula_47“ stammt von dem lateinischen Wort „vel“, was auf deutsch „oder“ bedeutet. Die Aussage formula_48 ist immer dann wahr, wenn mindestens eine der Teilaussagen A oder B wahr ist, bzw. wenn beide Teilaussagen wahr sind. Andernfalls ist formula_48 falsch, nämlich dann, wenn sowohl A als auch B falsch sind. formula_59 ist wahr, weil sowohl formula_11 als auch formula_30 wahr sind. formula_62 ist wahr, weil formula_30 wahr ist. formula_64 ist wahr, weil formula_11 wahr ist. Nur formula_66 ist falsch, weil sowohl formula_12 als auch formula_43 falsch sind. Materiale Implikation. Die "materiale Implikation", auch "Konditional" oder "Subjunktion" genannt, drückt die "hinreichende Bedingung" aus: Sie sagt, dass die Wahrheit des einen Satzes eine hinreichende Bedingung für die Wahrheit des anderen Satzes ist. Man schreibt In einem Konditional nennt man A das "Antezedens", B das "Konsequens" oder "Sukzedens". Die Lesart „wenn … dann“ ist insofern problematisch, als mit dem natürlichsprachlichen „wenn … dann“ vor allem inhaltliche Zusammenhänge wie Kausalität oder zeitliche Nähe ausgedrückt werden. All das macht die materiale Implikation nicht, sie nennt nur den formalen Zusammenhang: „Dass es regnet, ist eine hinreichende Bedingung dafür, dass die Straße nass ist“. Zur Frage, "warum" das eine hinreichende Bedingung ist – ob auf Grund eines kausalen Zusammenhangs oder auch nur rein zufällig –, nimmt die materiale Implikation nicht Stellung. Umgangssprachlich lässt man sich gelegentlich zu weiteren – "falschen" – Aussagen Das bedeutet: Wenn die Folgerung formula_69 wahr ist, dann erhält man aus der Aussage ¬A keine Aussage über B; B kann wahr oder falsch sein. („Ex falso sequitur quodlibet“ – „Aus Falschem folgt Beliebiges“) Die Implikation ist ein wichtiges Mittel in der Mathematik. Die meisten mathematischen Beweise verwenden das Konzept der Implikation. Bikonditional. Auch beim Bikonditional wird eine rein formale Aussage getroffen, die nichts über einen allfälligen inhaltlichen Zusammenhang von A und B aussagt. Statt formula_78 zu sagen, kann man auch sagen, dass A eine hinreichende Bedingung für B und dass B eine hinreichende Bedingung für A ist, also formula_80. Tatsächlich sind diese beiden Aussagen logisch äquivalent. Das Bikonditional als zusammengesetzte Aussage innerhalb der logischen Sprache (siehe Objektsprache) wird oft mit dem Konzept der logischen Äquivalenz verwechselt oder vermischt. Die logische Äquivalenz ist eine metasprachliche, meist natürlichsprachlich formulierte Eigenschaft zweier Aussagen der logischen Sprache. Ein Zusammenhang zwischen logischer Äquivalenz und Bikonditional besteht nur insofern, als das Metatheorem gilt, dass ein Bikonditional formula_78 genau dann eine Tautologie ist, wenn die beiden Aussagen A und B logisch äquivalent sind. Ausschließendes Oder. Das ausschließende Oder (Kontravalenz oder Antivalenz), „entweder A oder B“, besagt, dass genau eine der beiden von ihm verknüpften Aussagen wahr ist. Entsprechend ist ein ausschließendes Oder nicht nur dann falsch, wenn sowohl A als auch B falsch sind, sondern auch, wenn "beide" wahr sind. (Einige Autoren verwenden für das Ausschließende Oder den Begriff "Alternative".) Obwohl das ausschließende Oder ein Konzept ist, mit dem man in der natürlichen Sprache immer wieder zu tun hat, wird es in den meisten logischen Sprachen nicht als eigenständiger Junktor eingeführt. Stattdessen wird das ausschließende Oder zum Beispiel als verneintes Bikonditional ausgedrückt, also als formula_87. Große Bedeutung genießt das ausschließende Oder hingegen in der Schaltalgebra, wo es meist als XOR "(eXclusive OR)" aufgeschrieben wird. Verneinung einer verknüpften Aussage (De Morgansche Gesetze). "siehe Hauptartikel: De Morgansche Gesetze" Verneinung einer Konjunktion. Die Verneinung der Konjunktion „A und B“ (in der logischen Schreibweise: formula_25) lautet „Es ist nicht der Fall, dass A und B zutreffen“ (in der logischen Schreibweise: formula_90). Diese ist logisch äquivalent mit der Aussage „A ist nicht der Fall, oder B ist nicht der Fall (oder beides)“ (in logischer Schreibweise: formula_91). verneinen möchte, dann kann man entweder sagen In der Schaltalgebra wird sehr oft der Junktor NAND verwendet, wobei „A NAND B“ denselben Wahrheitswertverlauf hat wie der Ausdruck formula_90. Verneinung einer Disjunktion. Die Verneinung der Disjunktion „A oder B (oder beides)“ (in der logischen Schreibweise: formula_96) lautet „Es ist nicht der Fall, dass A oder B zutrifft“ (in logischer Schreibweise: formula_97). Diese ist logisch äquivalent mit der Aussage „A ist nicht der Fall, und B ist nicht der Fall“ (in logischer Schreibweise: formula_98). In der Schaltalgebra wird das Konnektiv NOR verwendet, das denselben Wahrheitswertverlauf hat wie die Aussage formula_97. Hinreichende und notwendige Bedingung. Dieser Abschnitt soll den zunächst oft als kontraintuitiv empfundenen Zusammenhang zwischen hinreichender und notwendiger Bedingung, wie er im Abschnitt über die materiale Implikation angesprochen wurde, wiederaufgreifen und näher ausführen. Betrachten wir einmal mehr die materiale Implikation formula_103. Man sagt: A ist "hinreichend" für B: Schon wenn A der Fall ist, ist auch B der Fall. Umgekehrt kann man aber auch sagen: B ist "notwendig" für A. Ohne B kann A nicht erfüllt sein. Wir wissen, dass die Wahrheit von A die Wahrheit von B nach sich zieht, denn A ist ja hinreichende Bedingung für B. Somit ist es einfach nicht möglich, dass A eintritt, ohne dass B damit ebenfalls eintreten würde: B ist also gezwungenermaßen der Fall, wenn A der Fall ist. B ist „notwendig“ für A. Dieser Zusammenhang ist in Wahrheit also ziemlich einfach; Hauptgrund dafür, dass er anfangs oft als kontraintuitiv empfunden wird, ist wahrscheinlich die Schwierigkeit, zwischen den vielen Bedeutungen des umgangssprachlichen „wenn … dann“ einerseits und der rein formalen hinreichenden und notwendigen Bedingung andererseits strikt zu trennen. Mit dem umgangssprachlichen „wenn … dann“ möchte man fast immer einen inhaltlichen (kausalen und/oder temporalen) Zusammenhang zwischen Antecedens und Konsequens ausdrücken: „Regen verursacht Straßennässe“, „Zuerst fällt der Regen, erst nachher wird die Straße nass“. Wenn man die hinreichende Bedingung in diesem Sinn missversteht, dann ist es klar, dass die in umgekehrter Reihenfolge formulierte notwendige Bedingung „Nur wenn die Straße nass ist, regnet es“ seltsam aussieht: „Regen verursacht doch Straßennässe, wie kann daraus je gefolgert werden, dass Straßennässe Regen verursacht?“ All dies sagt die materiale Implikation aber nicht aus. „A ist eine hinreichende Bedingung für B“ meint schlicht, dass wenn die Aussage A wahr ist, auch die Aussage B wahr ist – zeitlos und zusammenhanglos, nicht etwa „später“ oder „weil“. Analog sagt die notwendige Bedingung, „B ist eine notwendige Bedingung für A“, lediglich das aus, dass B wahr ist, sofern A es ist. Genau das ist aber die Definition des Konditionals A → B. Einleitung. wird der selbstbewusste Laie verlangen, dass ihm erklärt wird, was das soll. Die Antwort des Logikers: Es soll versucht werden, Sicherheit in die Regeln des logischen Schließens zu bringen. Seit den Sophisten ist dem Abendland klar, dass scheinbar zwingende Schlüsse zu offensichtlich absurden Ergebnissen führen können. Immer wieder wurden Paradoxien formuliert und von großen Denkern als Herausforderung empfunden. Logiker versuchen deshalb, die Regeln des Argumentierens so streng wie möglich zu fassen. Das einleitende Beispiel macht klar, dass dazu eine "Trennung der Sprachebenen" unerlässlich ist: Die formale Aussage A∧B soll dadurch erklärt werden, dass auf einer metasprachlichen Ebene über die Aussage A wie auch über die Aussage B geredet wird. "Ein" Versuch dies durchzuführen, besteht darin, die Aussagenlogik als formales System, konkret als Kalkül (eine bestimmte Art eines formalen Systems) zu definieren. Die Begriffe „wahr“ und „falsch“ kommen in diesem System zunächst überhaupt nicht vor. Stattdessen werden Axiome gesetzt, die einfach als Zeichenketten angesehen werden, aus denen weitere ableitbare Zeichenketten aufgrund von bestimmten Schlussregeln hergeleitet werden. Natürlich ist das Ziel dabei, dass in einem formalen System nur Zeichenketten (Sätze) hergeleitet werden können, die bei einer plausiblen Interpretation auch wahr sind. Andererseits sollen alle Sätze, die als „wahr“ interpretierbar sind, auch hergeleitet werden können. Das erste ist die Forderung nach "Korrektheit", das zweite die nach "Vollständigkeit" des formalen Systems; beide Eigenschaften sind unter beschrieben. Für die klassische Aussagenlogik, mit der wir es hier zu tun haben, gibt es Kalküle (formale Systeme), die sowohl korrekt als auch vollständig sind. Für komplexere logische Systeme (z. B. Mengenlehre) ist es aber "unmöglich", einen vollständigen Kalkül aufzustellen, der auch korrekt ist – diese Erkenntnis wurde 1931 von Kurt Gödel bewiesen (Gödelscher Unvollständigkeitssatz). Syntax. Es gibt viele verschiedene Möglichkeiten, die Syntax („Grammatik“) einer logischen Sprache formal zu definieren; meist geschieht das im Rahmen eines Kalküls. Die folgende Definition ist daher nur als Beispiel dafür zu verstehen, wie ein Kalkül für die klassische Aussagenlogik aussehen kann. Weitere Beispiele für konkrete Kalküle finden sich unter Baumkalkül, Begriffsschrift, Systeme natürlichen Schließens, Sequenzenkalkül oder Resolutionskalkül. Ein weiterer axiomatischer Kalkül ist als Beispiel im Artikel Hilbert-Kalkül angegeben, ein graphischer Kalkül im Artikel Existential Graphs. Bausteine der aussagenlogischen Sprache. Als "Bausteine" der aussagenlogischen Sprache sollen "Satzbuchstaben" („atomare Formeln“, Satzkonstanten), "Junktoren" und "Gliederungszeichen" verwendet werden. Satzbuchstaben sollen die Zeichen P0, P1, P2, … sein. Junktoren sollen die Zeichen ¬, ∧, ∨, → und ↔ sein. Als Gliederungszeichen sollen die runden Klammern dienen. Das "Alphabet" der logischen Sprache sei die Menge V ∪ J, also die Vereinigungsmenge von atomaren Formeln, Junktoren und Gliederungszeichen. Formationsregeln. Die "Formationsregeln" legen fest, wie man aus den Bausteinen der aussagenlogischen Sprache Sätze (Formeln) bilden kann. Schlussregeln. "Schlussregeln" sind allgemein Transformationsregeln (Umformungsregeln), die auf bestehende Formeln angewandt werden und aus ihnen neue Formeln erzeugen. Wenn man einen Kalkül für ein logisches System aufstellt, dann wählt man die Transformationsregeln so, dass sie aus bestehenden Formeln solche Formeln erzeugen, die aus den Ausgangsformeln semantisch "folgen" – deshalb die Bezeichnung „Schlussregel“ ("eine Schlussfolgerung ziehen"). Innerhalb der Syntax sind die Schlussregeln allerdings rein formale Transformationsregeln, denen für sich keinerlei inhaltliche Bedeutung zukommt. An konkreten Schlussregeln sollen hier nur zwei angegeben werden: Der Modus ponendo ponens und die Substitutionsregel. Axiome. "Axiome" sind ausgezeichnete (im Sinn von: hervorgehobene) Formeln der aussagenlogischen Sprache. Die Auszeichnung besteht darin, dass sie innerhalb eines Beweises oder einer Herleitung (siehe unten) ohne weitere Rechtfertigung verwendet werden. Pragmatisch wählt man solche Formeln als Axiome, die semantisch gesehen Tautologien sind, also immer zutreffen, und die dabei helfen, Beweise zu verkürzen. Innerhalb der Syntax sind die Axiome allerdings rein formale Objekte, denen keinerlei inhaltliche Bedeutung oder Rechtfertigung zukommt. Axiome sind im Allgemeinen optional, d. h. ein Kalkül kann auch ganz ohne Axiome auskommen, wenn er ausreichend viele bzw. mächtige Schlussregeln hat. Axiomfreie Kalküle sind zum Beispiel die Systeme natürlichen Schließens oder Baumkalküle. Alternativ zu – wie hier – konkreten Axiomen kann man auch "Axiomenschemata" angeben, in welchem Fall man auch ohne Substitutionsregel auskommt. Interpretiert man die obigen Axiome als Axiomenschemata, dann stünde z. B. das erste Axiomenschema, formula_115, für unendlich viele Axiome, nämlich alle Ersetzungsinstanzen dieses Schemas. Herleitung und Beweis. "siehe Hauptartikel: Ableitung (Logik)" Eine Herleitung ist eine Liste von aufsteigend nummerierten Sätzen, die mit einer oder mehreren Annahmen (den Prämissen der Herleitung) oder Axiomen beginnt. Alle auf diese folgenden Sätze sind entweder ebenfalls Axiome (bei manchen Kalkülen sind auch weitere Annahmen zulässig) oder sind aus einer oder mehreren der vorangehenden Zeilen durch Anwendung von Schlussregeln entstanden. Der letzte Satz in der Liste ist die Konklusion der Herleitung. Eine Herleitung ohne Prämissen heißt "Beweis". Oft werden aber die Wörter „Herleitung“ und „Beweis“ synonym gebraucht. Wenn es gelingt, aus einer Menge von Annahmen (Prämissen) Δ eine Konklusion P herzuleiten, dann schreibt man auch formula_123. Gelingt es, einen Satz P ohne die Verwendung von Annahmen herzuleiten (zu beweisen), dann schreibt man auch: formula_124. In diesem Fall wird P "Theorem" genannt. Das Zeichen formula_125 geht auf die Begriffsschrift zurück, jenes Werk, in dem Gottlob Frege 1879 die erste Formalisierung der Prädikatenlogik angegeben hat. In der klassischen Aussagenlogik wählt man die Schlussregeln so, dass sich mit ihrer Hilfe "alle" gültigen Argumente (und "nur" gültige Argumente) herleiten lassen; die Frage der Gültigkeit wird im folgenden Abschnitt, „Semantik“, behandelt. Semantik. Außerhalb der Logik bezeichnet Semantik ein Forschungsgebiet, das sich mit der Bedeutung von Sprache und deren Teilen befasst. Oft wird auch das Wort "Semantik" gleichbedeutend mit dem Wort "Bedeutung" verwendet. Auch innerhalb der Logik geht es bei Semantik um Bedeutung: Darum nämlich, den Ausdrücken einer formalen Sprache – zum Beispiel der hier behandelten Sprache der Aussagenlogik – eine Bedeutung zuzuordnen. In der Logik wird auch das meist sehr formal unternommen. Im Zentrum der (formalen) Semantik steht eine Auswertungsfunktion (andere Bezeichnungen lauten Bewertungsfunktion, Denotationsfunktion, Wahrheitswertefunktion), die den Formeln der logischen Sprache eine Bedeutung zuordnet. Formal gesprochen ist die Auswertungsfunktion eine Abbildung von der Menge der Formeln der Sprache in die Menge der Wahrheitswerte. Oft wird die Auswertungsfunktion mit dem Großbuchstaben V bezeichnet. In der klassischen Aussagenlogik ist die Auswertungsfunktion sehr einfach: Das Prinzip der Zweiwertigkeit fordert, dass sie für jede zu bewertende Formel genau einen von genau zwei Wahrheitswerten liefern muss; und das Prinzip der Extensionalität fordert, dass die Bewertungsfunktion beim Bewerten eines komplexen Satzes nur die Bewertung von dessen Teilsätzen berücksichtigen muss. Jedem Atom, also jedem Satzbuchstaben (Atom) wird durch Festsetzung ein Wahrheitswert zugeordnet. Man sagt: Die Atome werden interpretiert. Es wird also z. B. festgelegt dass P0 wahr ist, dass P1 falsch ist und dass P2 ebenfalls falsch ist. Damit ist der Bewertung der Bausteine der logischen Sprache Genüge getan. Formal ist eine solche Bewertung – "Interpretation" genannt und oft mit dem Kleinbuchstaben v bezeichnet – eine Funktion im mathematischen Sinn, d. h. eine Abbildung von der Menge der Atome in die Menge der Wahrheitswerte. Wenn die Auswertungsfunktion V auf ein Atom angewandt wird, d. h. wenn sie ein Atom bewerten soll, liefert sie die Interpretation dieses Atoms im Sinn des obigen Absatzes. Mit anderen Worten, sie liefert den Wert, den die Bewertung v dem Atom zuordnet. Um die zusammengesetzten Formeln bewerten zu können, muss für jeden Junktor definiert werden, welchen Wahrheitswert die Bewertungsfunktion für die unterschiedlichen Wahrheitswertkombinationen liefert, den seine Argumente annehmen können. In der klassischen Aussagenlogik geschieht das meist mittels Wahrheitstabellen, weil es nur überschaubar wenige Möglichkeiten gibt. Allgemein gibt es für die klassische Aussagenlogik vier einstellige und sechzehn zweistellige Junktoren. Die hier behandelte logische Sprache beschränkt sich nur deshalb auf die Junktoren ¬, ∧, ∨, → und ↔, weil diese am gebräuchlichsten sind und weil sie auch inhaltlich noch am ehesten aus der Alltagssprache bekannt sind. Aus formaler Sicht ist die einzige Bedingung, die man bei der Wahl von Junktoren erfüllen möchte, die, dass sich mit den gewählten Junktoren auch alle anderen theoretisch möglichen Junktoren ausdrücken lassen; man sagt: Dass die Menge der gewählten Junktoren funktional vollständig ist. Diese Anforderung ist bei der hier getroffenen Wahl erfüllt. Näheres zur Frage, wie viele und welche Junktoren es gibt und wie viele Junktoren man benötigt, um funktionale Vollständigkeit zu erreichen, ist im Kapitel Junktor beschrieben. Semantische Gültigkeit, Tautologien. "Semantische Gültigkeit" ist eine Eigenschaft von Formeln oder von Argumenten. (Ein Argument ist die Behauptung, dass aus einigen Aussagen – den Prämissen – eine bestimmte Aussage – die Konklusion – folgt.) Ein "Argument" heißt genau dann semantisch gültig, wenn unter der Voraussetzung, dass alle Prämissen wahr sind, auch die Konklusion wahr ist. In der Formulierung von Gottfried Wilhelm Leibniz: "Aus Wahrem folgt nur Wahres." Diese Definition muss natürlich ebenfalls formal gefasst werden, und das geschieht wie folgt: Ein Argument ist genau dann semantisch gültig, wenn alle Zuordnungen von Wahrheitswerten zu den in Prämissen und Konklusion vorkommenden Atomen, unter denen die Bewertungsfunktion für alle Prämissen den Wert "wahr" liefert, auch für die Konklusion den Wert "wahr" liefert. Beachte die graphische Ähnlichkeit und die inhaltliche Verschiedenheit zwischen formula_123 (Kapitel „Herleitung und Beweis“) und formula_130: Die erste Formulierung – formula_123 – drückt die "syntaktische" Gültigkeit des Arguments aus, sagt also, dass aus den Formeln in formula_128 mit den Schlussregeln des gewählten Kalküls die Formel formula_126 "hergeleitet" werden kann. formula_130 hingegen behauptet die "semantische" Gültigkeit, die in der klassischen Aussagenlogik wie in den vorangegangenen Absätzen als das Leibniz’sche "Aus Wahrem folgt nur Wahres" definiert ist. Wichtige semantische Eigenschaften: Erfüllbarkeit, Widerlegbarkeit und Unerfüllbarkeit. Neben der Eigenschaft der Gültigkeit (Allgemeingültigkeit) gibt es einige andere wichtige Eigenschaften: Erfüllbarkeit, Widerlegbarkeit und Unerfüllbarkeit. Im Gegensatz zur Gültigkeit, die Eigenschaft von Formeln oder von Argumenten sein kann, sind Erfüllbarkeit, Widerlegbarkeit und Unerfüllbarkeit Eigenschaften von Sätzen oder von Satzmengen. Die Frage, ob eine Formel (oder eine Formelmenge) eine der genannten Eigenschaften hat, ist ebenso wie die Frage, ob eine Formel allgemeingültig, d. h. eine Tautologie ist, für allgemeine Formeln nicht effizient lösbar: Zwar ist die Wahrheitstafel ein Entscheidungsverfahren für jede dieser Fragen, doch umfasst eine Wahrheitstafel für eine Aussage bzw. eine Aussagemenge in n Atomen formula_137 Zeilen; das Wahrheitstafelverfahren ist nichts anderes als ein Brute-Force-Verfahren. Die Frage, ob eine Aussage erfüllbar ist, wird Erfüllbarkeitsproblem oder "SAT-Problem" (nach dem englischen Wort für Erfüllbarkeit, "satisfiability") genannt. Das SAT-Problem spielt eine wichtige Rolle in der theoretischen Informatik und Komplexitätstheorie. Das Erfüllbarkeitsproblem für allgemeine (beliebige) Formeln ist NP-vollständig, d. h. (unter der Voraussetzung, dass P ungleich NP) nicht in polynomialer Laufzeit lösbar. Für bestimmte echte Teilmengen der Formeln der aussagenlogischen Sprache ist das SAT-Problem dennoch schneller, d. h. in polynomial beschränkter Rechenzeit lösbar. Eine solche Teilmenge sind die Horn-Formeln, das sind Konjunktionen von Disjunktionen, deren Disjunkte verneinte oder unverneinte Atome sind, wobei innerhalb einer solchen Disjunktion allerdings höchstens ein Atom unverneint sein darf. Algebraische Sicht. Wenn man die Semantik betrachtet, die hier für die klassische Aussagenlogik aufgestellt wurde, dann erkennt man gewisse Gesetzmäßigkeiten. Wird z. B. die Auswertungsfunktion auf eine Aussage der Form X ∧ W angewendet, wobei W eine beliebige wahre Aussage sein soll, dann stellt man fest, dass die Auswertungsfunktion für X ∧ W immer den Wahrheitswert "wahr" liefert, wenn V(X)=wahr ist (das heißt V(X∧W)=V(X)). Von der Struktur her gleichwertige Gesetzmäßigkeiten gelten auch in anderen Semantiken, auch in solchen, die für ganz andere, nichtlogische Systeme aufgestellt werden. Für die Arithmetik gilt z. B., dass die dortige Bewertungsfunktion (hier VArithmetik genannt) für einen Ausdruck der Form X + Y immer den Wert von X liefert, sofern der Wert von Y null ist: VArithmetik(X+Y)=VArithmetik(X), wenn VArithmetik(Y) = null ist. Eine formale Wissenschaft, die solche strukturellen Gesetzmäßigkeiten untersucht, ist die abstrakte Algebra (meist Teilgebiet der Mathematik, aber auch der Informatik). In der abstrakten Algebra wird zum Beispiel untersucht, für welche Verknüpfungen es ein neutrales Element gibt, d. h. ein Element "N", das für eine Verknüpfung "op" dazu führt, dass (für beliebiges X) gilt: X "op" "N" = X. So würde man aus algebraischer Sicht sagen, dass es für die klassische aussagenlogische Konjunktion genau ein neutrales Element gibt, nämlich "wahr", und dass es für die Addition in der Arithmetik ebenfalls genau ein neutrales Element gibt, nämlich die Zahl Null. Nur am Rande sei erwähnt, dass es auch für andere Junktoren neutrale Elemente gibt; das neutrale Element für die Disjunktion ist "falsch": V(X ∨ F) = V(X), wenn V(F)=falsch ist. Die formale Algebra betrachtet formale Semantiken rein nach ihren strukturellen Eigenschaften. Sind diese identisch, dann besteht zwischen ihnen aus algebraischer Sicht kein Unterschied. Aus algebraischer Sicht, genauer: Aus Sicht der formalen Algebra ist die Semantik für die klassische Aussagenlogik eine zweiwertige Boolesche Algebra. Andere formale Systeme, deren Semantiken jeweils eine Boolesche Algebra bilden, sind die Schaltalgebra und die elementare Mengenlehre. Aus algebraischer Sicht besteht daher zwischen diesen Disziplinen kein Unterschied. Normalformen. Jede aussagenlogische Formel lässt sich in eine äquivalente Formel in konjunktiver Normalform und eine äquivalente Formel in disjunktiver Normalform umformen. Metatheorie. In der Metatheorie werden die Eigenschaften von logischen Systemen untersucht: Das logische System ist in der Metatheorie der Untersuchungsgegenstand. Eine metatheoretische Fragestellung ist zum Beispiel die, ob in einem Kalkül ein Widerspruch hergeleitet werden kann. Der vorliegende Abschnitt soll einige wichtige metatheoretische Fragestellungen aus dem Blickwinkel der Aussagenlogik betrachten. Ein metatheoretisches Resultat ist zum Beispiel die Feststellung, dass alle korrekten Kalküle auch konsistent sind. Ein anderes metatheoretisches Resultat ist die Feststellung, dass ein konsistenter Kalkül nicht automatisch korrekt sein muss: Es ist ohne weiteres möglich, einen Kalkül aufzustellen, in dem zwar kein Widerspruch hergeleitet werden kann, in dem aber z. B. die nicht allgemeingültige Aussage der Form „A ∨ B“ hergeleitet werden kann. Ein solcher Kalkül wäre aus ersterem Grund konsistent, aus letzterem Grund aber nicht korrekt. Ein weiteres, sehr einfaches Resultat ist die Feststellung, dass ein vollständiger Kalkül nicht automatisch auch korrekt oder nur konsistent sein muss. Das einfachste Beispiel wäre ein Kalkül, in dem "jede" Formel der aussagenlogischen Sprache herleitbar ist. Da jede Formel herleitbar ist, sind alle Tautologien herleitbar, die ja Formeln sind: Das macht den Kalkül vollständig. Da aber jede Formel herleitbar ist, ist insbesondere auch die Formel P0 ∧ ¬ P0 und die Formel A ∨ B herleitbar: Ersteres macht den Kalkül inkonsistent, letzteres inkorrekt. Das Ideal, das ein Kalkül erfüllen sollte, ist Korrektheit und Vollständigkeit: Wenn das der Fall ist, dann ist er der ideale Kalkül für ein logisches System, weil er alle semantisch gültigen Sätze (und nur diese) herleiten kann. So sind die beiden Fragen, ob ein konkreter Kalkül korrekt und/oder vollständig ist und ob es für ein bestimmtes logisches System überhaupt möglich ist, einen korrekten und vollständigen Kalkül anzugeben, zwei besonders wichtige metatheoretische Fragestellungen. Abgrenzung und Philosophie. Die klassische Aussagenlogik, wie sie hier ausgeführt wurde, ist ein formales logisches System. Als solches ist sie eines unter vielen, die aus formaler Sicht gleichwertig nebeneinander stehen und die ganz bestimmte Eigenschaften haben: Die meisten sind konsistent, die meisten sind korrekt, etliche sind vollständig, und einige sind sogar entscheidbar. Aus formaler Sicht stehen die logischen Systeme in keinem Konkurrenzverhalten hinsichtlich Wahrheit oder Richtigkeit. Von formalen, innerlogischen Fragen klar unterschieden sind außerlogische Fragen: Solche nach der Nützlichkeit (Anwendbarkeit) einzelner Systeme für einen bestimmten Zweck und solche nach dem philosophischen, speziell metaphysischen Status einzelner Systeme. Die Nützlichkeitserwägung ist die einfachere, bezüglich deren Meinungsunterschiede weniger tiefgehend bzw. weniger schwerwiegend sind. Klassische Aussagenlogik zum Beispiel bewährt sich in der Beschreibung elektronischer Schaltungen (Schaltalgebra) oder zur Formulierung und Vereinfachung logischer Ausdrücke in Programmiersprachen. Prädikatenlogik wird gerne angewandt, wenn es darum geht, Faktenwissen zu formalisieren und automatisiert Schlüsse daraus zu ziehen, wie das unter anderem im Rahmen der Programmiersprache Prolog geschieht. Fuzzy-Logiken, nonmonotone, mehrwertige und auch parakonsistente Logiken sind hochwillkommen, wenn es darum geht, mit Wissensbeständen umzugehen, in denen Aussagen mit unterschiedlich starkem Gewissheitsgrad oder gar einander widersprechende Aussagen abgelegt werden sollen und dennoch sinnvolle Schlüsse aus dem Gesamtbestand gezogen werden sollen. Auch wenn es je nach Anwendungsfall sehr große Meinungsunterschiede geben kann, welches logisches System besser geeignet ist, ist die Natur des Problems für alle Beteiligten unmittelbar und in gleicher Weise greifbar. Einzelwissenschaftliche Überlegungen und Fragestellungen spielen sich überwiegend in diesem Bereich ab. (Noch) kontroverser als solche pragmatischen Überlegungen sind Fragestellungen philosophischer und metaphysischer Natur. Geradezu paradigmatisch ist die Frage, „welches logische System richtig ist“, wobei „richtig“ hier gemeint ist als: Welches logische System nicht nur einen Teilaspekt der Wirklichkeit modellhaft vereinfacht, sondern die Wirklichkeit, das Sein als Ganzes adäquat beschreibt. Zu dieser Fragestellung gibt es viele unterschiedliche Meinungen einschließlich der vom philosophischen Positivismus eingeführten Meinung, dass die Fragestellung als Ganzes sinnlos ist. In den Bereich metaphysischer Fragestellungen fällt auch die Frage, ob es so etwas wie ein "metaphysisches" Prinzip der Zweiwertigkeit gebe, ob also Aussagen über die Wirklichkeit durchgehend ins Schema wahr/falsch passen oder nicht. Diese Frage ist unabhängig von der Frage, ob die Beschäftigung mit zwei- oder mehrwertigen Logiken praktisch sinnvoll ist: Selbst wenn ein metaphysisches Prinzip der Zweiwertigkeit herrscht, könnte man anwendungspraktisch mehrwertige Logiken nützen, etwa dazu, epistemische Sachverhalte zu fassen, zum Beispiel aus Aussagen zu schließen, die zwar metaphysisch wahr oder falsch sind, von denen aber nicht oder noch nicht bekannt ist, welches von beidem der Fall ist. Umgekehrt kann man auch dann, wenn ein solches metaphysisches Prinzip nicht gilt, zweiwertige Logik wegen ihrer Einfachheit für solche Anwendungen bevorzugen, bei denen nur mit solchen Sätzen umgegangen werden muss, die tatsächlich wahr oder falsch sind. Die Frage nach einem metaphysischen Prinzip der Zweiwertigkeit ist wie die meisten metaphysischen Fragen nicht endgültig zufriedenstellend beantwortet. Ein früher Einwand gegen ein solches Prinzip, den Aristoteles zur Diskussion stellte, war das Thema der Aussagen über zukünftige Sachverhalte („Morgen wird es regnen“). Wenn Aussagen über Zukünftiges schon heute wahr oder falsch wären, so wird argumentiert, dann müsse die Zukunft bis ins letzte Detail vorbestimmt sein. Ein anderer Einwand, der vorgebracht wird, ist, dass es Aussagen gibt, deren Wahrheit praktisch oder theoretisch nicht festgestellt werden kann – zum Beispiel lässt sich die Wahrheit von „Der Rasen vor dem Weißen Haus bestand am 1. Februar 1870 aus genau 6.120.375,4 Grashalmen“ einfach nicht feststellen. Befürworter eines metaphysischen Zweiwertigkeitsprinzips berufen sich oft auf das Verhalten von Metatheoretikern, also von Mathematikern oder Logikern, die Aussagen "über" formale Systeme treffen: Egal wie mehrwertig oder nichtklassisch das untersuchte System ist, die dabei getroffenen Metavermutungen, Metabehauptungen und Metafeststellungen sind immer zweiwertig: Ein Kalkül, auch ein parakonsistenter oder nonmonotoner, wird immer als "entweder" konsistent "oder" inkonsistent betrachtet, und ein logisches System ist immer "entweder" korrekt oder inkorrekt, vollständig oder nicht vollständig, entscheidbar oder unentscheidbar, niemals „ein bisschen“ von beidem. Befürworter deuten das als Hinweis darauf, dass es in der Wirklichkeit tatsächlich eine strenge Unterscheidung nach wahr und falsch gebe oder dass es zumindest sinnvoll ist, eine solche anzunehmen. Eine andere philosophische Fragestellung ist die nach dem metaphysischen Status des Untersuchungsgegenstands der Logik, also danach, was logische Systeme, Kalküle, Wahrheitswerte eigentlich „sind“. Der platonische Standpunkt besteht darin, dass die in der Logik verwendeten Zeichen und Konstrukte eine außerlogische Bedeutung haben, dass sie Namen für real existierende (wenn auch natürlich nicht-physikalische) Gegenstände sind. In diesem Sinn gäbe es so etwas wie "das Wahre" und "das Falsche", abstrakte Gegenstände, die von den Zeichen „wahr“ und „falsch“ benannt werden. Der Gegenpol zum Platonismus wäre der Nominalismus, der Existenz nur den Zeichen zuspricht, die in der Logik manipuliert werden. Gegenstand der Logik sind Zeichen, und die Tätigkeit der Logiker ist die Manipulation von Zeichen. Die Zeichen bezeichnen aber nichts, so etwas wie das Wahre oder das Falsche gibt es also nicht. Im Grundlagenstreit der Mathematik entspräche der nominalistischen Position die formalistische Richtung. Eine Mittelstellung nähme der philosophische Konstruktivismus ein, demzufolge die Zeichen zwar keine unabhängig existierenden Gegenstände bezeichnen, durch den Umgang mit den Zeichen aber Gegenstände konstruiert werden. Liste von Autoren/A. __NOTOC__ Liste von Autoren/H. __NOTOC__ Liste von Autoren/C. __NOTOC__ Liste von Autoren/I. __NOTOC__ Liste von Autoren/K. __NOTOC__ Liste von Autoren/J. __NOTOC__ Liste von Autoren/V. __NOTOC__ Liste von Autoren/G. __NOTOC__ Liste von Autoren/W. __NOTOC__ Liste von Autoren/B. __NOTOC__ Liste von Autoren/D. __NOTOC__ Liste von Autoren/S. __NOTOC__ Liste von Autoren/T. __NOTOC__ Liste von Autoren/M. __NOTOC__ Liste von Autoren/O. __NOTOC__ Liste von Autoren/F. __NOTOC__ Liste von Autoren/E. __NOTOC__ Liste von Autoren/L. __NOTOC__ Liste von Autoren/N. __NOTOC__ Liste von Autoren/P. __NOTOC__ Liste von Autoren/Q. __NOTOC__ Liste von Autoren/R. __NOTOC__ Liste von Autoren/U. __NOTOC__ Liste von Autoren/Y. __NOTOC__ Liste von Autoren/Z. __NOTOC__ Anthony Minghella. Anthony Minghella, CBE (* 6. Januar 1954 auf der Isle of Wight, Großbritannien; † 18. März 2008 in London) war ein britischer Filmregisseur, Filmproduzent, Drehbuchautor, Dramatiker, Hörspiel-Autor, Theater- und Opern-Regisseur. Leben. Minghella war der Sohn italienisch-schottischer Eltern, die auf der Isle of Wight eine Fabrik für Eiscreme betrieben. Nach seinem Schulabschluss studierte er an der Universität Hull, wo er eine Zeit lang als Dozent tätig war. 1978 drehte er einen ersten Kurzfilm. Seit 1981 war er als Autor und Story Editor tätig. Er wurde mit Theaterstücken, Rundfunkhörspielen, der Fernsehserie "Inspector Morse" und vielen Drehbüchern für Film und Fernsehen bekannt. Er entwickelte die Drehbücher für die 1988 erfolgreich ausgestrahlte Fernsehserie The Storyteller von Muppets-Erfinder Jim Henson. Auch als Produzent war er erfolgreich, darunter für die Filme "Der stille Amerikaner", "Die Dolmetscherin" und "Der Vorleser", für den er 2008 posthum für den Oscar (Kategorie „Bester Film“) nominiert wurde. Gemeinsam mit seinem Freund und Kollegen Sydney Pollack gründete er die Produktionsfirma Mirage Enterprises. Der Regisseur Minghella galt als ein guter Schauspielerführer: Unter seiner Regie brachten es zahlreiche Darsteller zu Oscar-Nominierungen, zwei Schauspielerinnen erhielten die Auszeichnung als „Beste Nebendarstellerin“: Juliette Binoche ("Der englische Patient") und Renée Zellweger ("Unterwegs nach Cold Mountain"). Gegen Ende seines Lebens kehrte Minghella zu seinen Anfängen im Radio und auf der Bühne zurück: 2006 wurde sein Hörspiel "Eyes Down Looking" mit Jude Law zu Ehren von Samuel Beckett auf BBC Radio 3 ausgestrahlt, ein Jahr zuvor hatte seine Inszenierung der Puccini-Oper Madame Butterfly in der English National Opera in London Premiere und wurde auch in der Nationaloper von Vilnius und in der Metropolitan Opera in New York gezeigt. Am Ende des Films "Abbitte" von Joe Wright (2007) hat er einen Kurzauftritt als Talkshow-Moderator neben Vanessa Redgrave. Seine letzte Arbeit als Drehbuchautor war das Skript für den Musical-Film "Nine" (gemeinsam mit Michael Tolkin). Zu seinen letzten Regiearbeiten zählt der Pilotfilm zur Krimiserie "Eine Detektivin für Botswana" (Originaltitel:), den die BBC fünf Tage nach seinem Tod erstmals ausstrahlte. Minghella war mit der aus Hongkong stammenden Choreographin, Produzentin und Schauspielerin Carolyn Choa ("Wie verrückt und aus tiefstem Herzen") verheiratet. Der Ehe entstammen zwei Kinder, die in der Filmbranche tätig sind: Tochter Hannah Minghella in der Produktion und Sohn Max Minghella als Schauspieler ("Agora – Die Säulen des Himmels"). Die Tante Edana Minghella und der Onkel Dominic Minghella (u.a. für die deutsche Fernsehserie "Doktor Martin") sind Drehbuchautoren. Minghella starb im Alter von 54 Jahren in einem Londoner Krankenhaus an inneren Blutungen infolge der Operation eines Tonsillenkarzinoms und eines Karzinoms im Nacken. Auszeichnungen. 1984 erhielt Minghella den Londoner Kritikerpreis als meistversprechender junger Dramatiker, 1986 den Kritikerpreis für sein Stück "Made in Bangkok" als bestes Stück der Saison. 1997 erhielt er für "Der englische Patient" den Oscar in der Rubrik "Beste Regie", 1999 eine Oscar-Nominierung in der Kategorie „Bestes adaptiertes Drehbuch“ für "Der talentierte Mr. Ripley", bei dem er auch Regie führte. 2001 wurde Minghella zum Commander of the British Empire (CBE) ernannt. Von 2003 bis 2007 war er Präsident des British Film Institute. Seit 1997 trägt das Anthony Minghella Theatre auf der Isle of Wight seinen Namen. US-amerikanischer Film. Die Geschichte des US-amerikanischen Films ist ein Kapitel der Filmgeschichte, das gerade wegen der hervorgehobenen Stellung der USA als Filmnation sowohl für die Filmkunst als auch für die Ökonomie des Films relevant ist. Weltbekannt ist die Filmstadt Hollywood als Zentrum der US-amerikanischen Filmindustrie, weshalb der Name oft auch als Synonym für die gesamte amerikanische Film-Branche steht. Synonym für Hollywoods Filmindustrie wird wiederum der Begriff "Traumfabrik" (englisch "Dreamfactory") verwendet. Internationale Entwicklung. Bis 1912 konzentrierten sich die US-amerikanischen Filmunternehmen auf den inneramerikanischen Filmwettbewerb. Erst danach stieg ihr Einfluss auf dem Weltmarkt. Und zwar so rapide, dass sie bereits 1914, zu Beginn des Ersten Weltkriegs, die Hälfte der Welt-Filmproduktion stellten. Der harte Wettkampf zwischen dem Edison Trust und den von Carl Laemmle angeführten „Independents“ hatte wirksame Instrumente geschaffen, die, am nationalen Konkurrenten erprobt und verfeinert, nun mit zunehmender Härte die internationalen Mitbewerber trafen. Dennoch war die Vormachtstellung Hollywoods längst nicht unangreifbar, erst eine politische Entwicklung verschaffte ihr die nötige Ruhe zur Restrukturierung: Der Krieg in Europa. Die französische Filmproduktion, Hauptkonkurrent der US-Amerikaner, kam mit dem Ausbruch des Krieges sofort und vollständig zum Erliegen, denn Pathé wandelte seine Rohfilm-Fabrik in eine Munitionsfabrik um und seine Studios in Kasernen. Ähnlich, und doch weniger extrem, brach die italienische Produktion beim Kriegseintritt des Landes 1916 ein. Nachdem absehbar war, dass der Krieg sehr lange dauern konnte, bemühten sich die Franzosen, wieder ins Geschäft zu kommen. Die Position, die sie vor Ausbruch des Krieges innehatten, erreichten sie nicht mehr. Zudem beschloss das Deutsche Reich 1916 das generelle Filmeinfuhrverbot, was die europäischen Filmnationen ihres wichtigsten Absatzmarktes beraubte. Auch der Export nach Übersee gestaltete sich zunehmend schwierig, denn die Militärs beanspruchten viele Transportkapazitäten für sich. Außerdem führten deutsche U-Boote und kleinere Kreuzer einen Handelskrieg gegen die Entente-Mächte, wobei auch zivile Frachter versenkt wurden, da man die Entente verdächtigte, sie für Waffenlieferungen zu missbrauchen (z. B. die Versenkung der RMS Lusitania). Nationale Entwicklung. Die Macht der Motion Picture Patents Company (MPPC) war 1914 bereits weitgehend gebrochen, die später folgenden Gerichtsurteile waren nur noch Formalitäten. Sowohl die nationale als auch die internationale Konkurrenz der Independents waren also ausgeschaltet. Die US-Filmwirtschaft verlor zwar einen Teil des europäischen Absatzmarktes, doch der Bedarf an frischen Filmen innerhalb der USA war höher als in ganz Europa zusammen, so gab es beispielsweise 1916 bereits ca. 28.000 Kinos in ganz Amerika. Auch in der übrigen Welt nahmen die Hollywood-Unternehmen eine dominierende Stellung ein, sie stellten zum Beispiel einen Großteil der in Australien und Südamerika gezeigten Filme, die ab ca. 1916 direkt vertrieben wurden (früher war es üblich, an lokale Zwischenhändler zu verkaufen). Das Oligopol der MPPC. Der erste Versuch, den freien Wettbewerb zu zerstören und ein Oligopol zu bilden, wurde mittels der Patente betrieben. MPPC versuchte, den Zugang fremder Unternehmen zu behindern, indem sie diesen durch Lizenzgebühren den Wettbewerb erschwerte. Um das System durchzusetzen, sollte zudem eine hohe Marktdurchdringung erfolgen. Auf ihrem Höhepunkt kontrollierte die MPPC via Lizenz den Großteil der Kinos. Auch der Zugang zu Filmmaterial war nicht ohne Lizenz möglich, da Eastman Kodak einen Exklusivvertrag mit der MPPC geschlossen hatte. Der Edison-Trust attackierte also vor allem die Punkte 2-4. Das System scheiterte endgültig mit der Annullierung der Edison-Patente durch den Obersten Gerichtshof der Vereinigten Staaten, sein Niedergang jedoch hatte schon wesentlich früher begonnen. Reaktionen der „Independents“. Den freien Zugang zum Filmmaterial erlangten die Independents durch den Bau eigener Kameras und durch die Aufhebung des Patents auf Rohfilme 1912. Und um mit dem Trust konkurrieren zu können, begannen sie, ihre Filme von denen der MPPC unterscheidbar zu machen. Hierbei entstanden der Feature Film und das „Starsystem“. Die MPPC war zwar nicht blind gegenüber diesen Neuerungen, auch sie drehte Feature Films, durch ihre Struktur und vor allem durch ihre Kundenstruktur, war sie dennoch nicht in der Lage, mit diesen neuen Instrumenten zu experimentieren. Der Trust wollte Massenware verkaufen um eine bestimmte Marge zu erwirtschaften. Teure Stars hätten nur die Kosten hochgetrieben, und Feature Films bargen ein nicht zu unterschätzendes Risiko, für das die Kunden des Trusts nicht aufkommen wollten. So konnten die „Independents“ den ersten Punkt des freien Wettbewerbs unterhöhlen und einzigartige Filmerlebnisse statt austauschbarer Produkte bieten, was dem Publikumsinteresse deutlich entgegenkam und vor allem finanzkräftigere Mittelschichten erschloss. Der Feature Film kommt ca. 1909 auf und wird nur von den Independents ernsthaft weiterentwickelt, beispielsweise von Famous Players, die später nur noch Features produzieren. Famous Players sind auch die erste Gesellschaft, die das Starsystem konsequent nutzt, nach früheren Versuchen, z. B. von I.M.P. Distribution. Durch die oben genannten Schritte schaffen es die Independents, sich eine Position im Markt zu sichern und immer weiter auszubauen. Für nationales und internationales Wachstum fehlen ihnen effiziente Strukturen, zum Beispiel in der Distribution. Noch bis in die Mitte der 1910er Jahre hält sich das alte States-Rights-System, in dem der Produzent lokale Franchise-Rechte seines Films an einen Distributor verkauft, der diese dann innerhalb seines festgelegten Gebiets an Kinos weiter verleiht. Diese Situation ändert sich erstmals 1914 mit der Fusion von elf regionalen Distributoren zu Paramount, die als erste landesweite Rechte handelt. Durch ihre schiere Größe kann das Unternehmen wesentlich kosteneffizienter arbeiten als die Mitbewerber, ganz abgesehen davon, dass dieses System auch für die Produktionsgesellschaft erhebliche Vorteile mit sich bringt. Das alte System kommt bis 1918 zum Erliegen. Vertikale Integration. Kurz nach ihrer Gründung schließt Paramount Fünfjahresverträge mit Famous Players, Lasky und Bosworth ab, die später auf 25 Jahre verlängert werden. Hier zeichnet sich ein Trend ab, der 1914 zunehmend an Bedeutung gewinnt: Die Verflechtung der bisher getrennten Bereiche Distribution, Produktion und Vorführung, ein Phänomen, das in der Fachliteratur als Vertikale Integration bezeichnet wird. Die Bindung durch die Fünfjahresverträge ist vorteilhaft für alle Beteiligten: Jeder profitiert vom Erfolg des anderen. Wenn das Lasky-Programm sehr gut ist, wird das Paramount-Sortiment von mehr Kinos gekauft, wovon auch Famous Players und Bosworth profitieren, da ihr Programm so auch eine größere Verbreitung findet. Die Kooperation führt dann auch, zwei Jahre später, zur Fusion der genannten und noch einiger weiterer Unternehmen. Doch es lassen sich durchaus auch frühere Beispiele für vertikale Integration finden. So sind 1912 unter dem Namen Universal erstmals alle drei Bereiche des Filmbusiness vereint. Es fehlte allerdings eine große First-Run-Kinokette. Dennoch schien der Branche die Fusion so bedrohlich, dass die Gründung von Mutual eine direkte Gegenmaßnahme darstellen sollte. Auch hier fanden sich viele Unternehmen unter einem Dach zusammen, denen es explizit nur um Distribution und Produktion ging. Auch William Fox besitzt 1913 ein Distributions- und ein Produktionsunternehmen, die allerdings erst später zusammengeführt werden. Von Seiten der Kinokettenbesitzer ist zunächst wenig zu hören, erst 1915 schließen sich drei große Ketten, Rowland, Clarke und Mayer, zur Metro Pictures Corporation zusammen, einer Produktionsgesellschaft. Komplette Vertikale Integration. Die wirklich große Reaktion der Kinobesitzer kam erst 1917. Zu diesem Zeitpunkt war die fusionierte Paramount zur dominanten Gesellschaft geworden, die ihre Filme mittels Block-Booking vertrieb. Das hieß, um einen Film mit einem Star vom Kaliber einer Mary Pickford zu bekommen, musste man ein komplettes Paket erwerben, dessen große Mehrheit bestenfalls als durchschnittlich zu bezeichnen war. Andererseits konnte man dem Kauf der Pakete schlecht entgehen, wenn man nicht sein Publikum an ein anderes Kino verlieren wollte, das ebendiesen Mary-Pickford-Film zeigte. Um dieses System zu durchbrechen, schlossen sich 26 der größten nationalen First-Run-Kinokettenbesitzer zum First National Exhibitors Circuit zusammen. Mit ihrer erheblichen Kaufkraft wollten sie gemeinsame Einkäufe tätigen und auch distribuieren. Zuerst war es das Ziel, Stars zu kaufen, ihre Filme zu finanzieren und im Gegenzug das Aufführungsrecht zu erwerben sowie das Recht, die entstandenen Filme regional weiter zu verleihen. Sehr bald kam auch eine eigene Produktion dazu. Zwischen 1917 und 1918 nahm First National Charlie Chaplin und Mary Pickford für jeweils eine Million Dollars unter Vertrag. Beide erhielten vollständige künstlerische Freiheit. First National kontrollierte zu diesem Zeitpunkt bereits ca. 600 Kinos, 200 davon First-Run-Häuser. Aus den First-Run-Kinos stammten bis zu 50 Prozent der Einnahmen der Produzenten, außerdem waren Kinos die verlässlichsten Geldverdiener im recht unsteten Filmgeschäft, da das Betreiberrisiko viel geringer war als beispielsweise in der Produktion. Darüber hinaus entschied der Erfolg in den First-Runs über eine lukrative Distribution. Wenn Paramount also seine Abnehmer und sein Publikum nicht verlieren wollte, musste ein Gegenschlag erfolgen. Also stieg die Gesellschaft, mit finanzieller Unterstützung des Bankhauses Kuhn, Loeb & Co., ins Geschäft mit den Kinos ein, anfangs mit einer Summe von 10 Millionen Dollars. Somit wurde Paramount der erste vollintegrierte, oder komplett vertikal integrierte Filmkonzern. Das zweite Oligopol. So wurden aus den alten Independents die Inhaber des zweiten Oligopols. Am Ende der 1910er Jahre war der erste Punkt des freien Wettbewerbs durch das Starsystem und Feature-Filme außer Kraft gesetzt, der zweite Punkt durch die schiere Größe der Unternehmen: Weniger als zehn Unternehmen kontrollierten über 50 Prozent des Marktes. Durch die Vereinigung der Distribution und durch den beginnenden Kampf um die Kinos waren auch die letzten beiden Bedingungen für einen funktionierenden Wettbewerb ausgehebelt. Ein neues Unternehmen konnte weder einen genügenden Zugang zu den Kinos noch Zugriff auf die Stars, also auf die essentiellen Ressourcen der Filmproduktion erhalten. Auch waren die Produktionskosten stark gestiegen. Zwischen 50.000 und 100.000 $ pro Film waren normal, nach oben gab es keine Beschränkungen. Ein Großteil dieses Geldes floss in die Taschen der Stars, der Rest wurde in bessere Ausstattung investiert, eine weitere Hürde für Neueinsteiger. Um dem Trend zu höheren Gagen entgegenzuwirken, und um, wie später in einer Anhörung des Obersten Gerichtshofs bekannt wurde, ein Monopol zu errichten, planten First National und Paramount eine Fusion im Wert von 40 Millionen Dollar. Es war geplant, mit jedem bedeutenden Kinobesitzer der USA einen Fünf-Jahres-Vertrag abzuschließen. Die Stars hätten dann keine Grundlage mehr für irgendwelche Forderungen gehabt. United Artists. Die Pläne zu diesem Merger wurden von einem Privatdetektiv aufgedeckt, der im Auftrag von Charlie Chaplin, Mary Pickford, Douglas Fairbanks und D. W. Griffith herausfinden sollte, warum weder First National noch Paramount ihre Verträge verlängerte. Natürlich waren sie entsetzt über solche Aussichten und beschlossen, dem entgegenzuwirken, indem sie ihr eigenes Unternehmen gründeten. 1919 entstand United Artists als Gesellschaft für den Filmvertrieb. Finanziert wurde das Unternehmen durch die Morgan-Gruppe sowie durch eine Einlage von 100.000 $ für Vorzugs-Anteilscheine durch die Eigentümer. Daneben existierten auch normale Anteilscheine, bei deren Weiterverkauf United Artists ein Vorkaufsrecht hatte. Die Gesellschaft hatte keine eigenen Studios, sondern nutzte die Studios seiner Mitglieder. Sie war errichtet worden als reine Dienstleistungsgesellschaft, die nicht auf Rendite arbeiten sollte, sondern den Besitzern größtmögliche Autonomie und Profite aus dem Geschäft mit ihren Filmen einräumte. Es gab kein Block-Booking, jeder Film wurde individuell vertrieben und musste allein durch seine künstlerischen Qualitäten überzeugen. Die Verleihgebühren der United Artists lagen deutlich unter denen von First National und Paramount, stellten also eine erhebliche Bedrohung für die marktbeherrschende Stellung der beiden dar. Der Kampf um die Kinos. Die Fusion der beiden Giganten war auch gescheitert, weil ihr wichtigstes Kapital, die Stars, sich auf und davon gemacht hatte. First National war also immer noch Konkurrent Paramounts, und die United Artists mit ihren qualitativ sehr hochwertigen Filmen und ihrer enormen Beliebtheit brachten das Unternehmen weiter in Bedrängnis. Also versuchte Paramount das, was man heute eine feindliche Übernahme nennen würde: Stück für Stück wurden die in der First National zusammengeschlossenen Kinoketten aufgekauft. Auch andere Unternehmen versuchten nun, Kontrolle über die First-Run-Häuser zu erlangen, sogar United Artists sah sich später, 1924, mangels Abnehmern gezwungen, eine eigene Kette zu gründen. Wie auch schon in der Vergangenheit, wurden die Kämpfe um die Kinos mit harten Bandagen ausgetragen, vor allem Paramounts „dynamite gang“, auch "wrecking crew" genannt, wurde ihrem Ruf gerecht. Eine weit verbreitete Methode, Kinos an sich zu binden, war das Blocksystem. Dominanz des Weltmarktes. Seit 1917 begannen US-amerikanische Unternehmen, ihre Gewinne auf der Basis von in- und ausländischen Verkäufen zu schätzen. Aus dieser Gewinnschätzung ergab sich das Budget der Produktion, das dadurch erhöht wurde, was für die ausländische Konkurrenz doppelt schlecht war. Die Produktionskosten eines Filmes wurden in den USA amortisiert, und später wurden die Filme billig im Ausland angeboten, wodurch die internationale Konkurrenz nicht mehr mithalten konnte. US-Amerikanische Filme galten als qualitativ besser und waren im Erwerb trotzdem günstiger als z.B. deutsche Produktionen. Auch waren die Infrastruktur und die Rationalisierung der Produktionsabläufe nirgends so weit gediehen wie in Hollywood, ein Resultat auch des wachsenden Einflusses der Banken. Als der Erste Weltkrieg vorbei war, und die Menschen in den bislang abgeschnittenen Ländern wie Deutschland oder Österreich erstmals wieder Hollywood-Produktionen zu sehen bekamen, erlebten sie einen wahren Quantensprung in der Qualität. Die führenden europäischen Filmproduktionsländer, deren isolierte Filmindustrien fünf Jahre lang unter dem Ersten Weltkrieg gelitten hatten, und zudem mit viel geringeren Budgets zu kämpfen hatten, konnten der Konkurrenz aus den USA nur noch wenig entgegensetzen. Bis 1927 erhöhte sich der Anteil der amerikanischen Filmproduktion an der Weltfilmproduktion auf nahezu 90 %, was zu Beginn der 1920er Jahre die Filmwirtschaft in England, Frankreich, Italien, Deutschland und Österreich schwer in Bedrängnis brachte und die dortige Filmproduktion stark zurückgehen ließ. Zahlreiche europäische Filmproduktionsgesellschaften mussten schließen. 1925 wurden alleine nach Österreich 1200 US-Produktionen exportiert, obwohl der Bedarf der dortigen Kinos auf lediglich rund 350 geschätzt wurde. In vielen Ländern wurden Filmkontingente eingeführt, die die erlaubte Anzahl an Filmimporten aus den Vereinigten Staaten regelten. Da rund 45 % der Gewinne zu dieser Zeit aus Europa kamen, wurden die Restriktionen in Europa von den amerikanischen Filmmagnaten mit Argwohn betrachtet. Zumeist erfolglos wurde gegen Einfuhrbeschränkungen Lobbying betrieben. In Ungarn jedoch wurden die geplanten Einfuhrbeschränkungen nicht eingeführt, nachdem die US-amerikanische Filmindustrie den ungarischen Behörden damit gedroht hatte, keine Filme mehr in Ungarn zu zeigen. Filmwirtschaftliche Situation. 1927 waren nach Zahlen des US-Handelsdepartements beim amerikanischen Film 350.000 Personen beschäftigt. Zur Filmproduktion wurden rund 500.000 Kilometer Filmband verbraucht, wofür mehr Silber benötigt wurde, als der Umlauf an Silbermünzen in den USA ausmachte. Es wurden Filme im Ausmaß von 75.000 Kilometer Filmband und einem damaligen Wert von rund 320 Millionen Mark exportiert. Ende des Jahres 1927 zählten die USA 21.642 Kinos, die in jenem Jahr insgesamt 3 Milliarden Mal besucht wurden, was wiederum einen Erlös aus dem Eintrittsgeld von rund 2,5 Milliarden Dollar ergab. Während Amerika den weltweiten Filmmarkt fast ohne nennenswerte Konkurrenz dominierte, hatten ausländische Produktionen am US-Markt kaum eine Chance. Spielten in manchen Ländern jährlich bis zu 1000 oder mehr US-Filmproduktionen in den Kinos, liefen in den gesamten USA im Jahr 1927 nur 65 ausländische Filme, davon 38 aus Deutschland, neun aus England, sechs aus Frankreich, vier aus Russland, je zwei aus Österreich und Italien und je einer aus China und Polen. Selbst diese Filme waren zumeist nur wenig verbreitet und liefen fast ausschließlich auf so genannten Filmkunstbühnen. Frühe Tonfilmära bis Ende des Zweiten Weltkriegs. Ab 1933, verstärkt jedoch ab Beginn des Zweiten Weltkriegs und der Ausbreitung des Deutschen Reichs auf immer weitere Teile Europas, setzte eine Emigrationswelle von zumeist jüdischen Filmschaffenden aus Europa ein. Waren deren Auswanderungsziele zu Beginn noch häufig europäische Städte mit Filmindustrie wie Wien, Paris oder London, kristallisierte sich bald die aufstrebende Filmindustrie Hollywoods als begehrtestes und vielversprechendstes Ziel der Emigranten heraus – verstärkt durch gezieltes Anwerben europäischer Filmgrößen durch Hollywood-Studiobosse. Von den etwa 2.000 jüdischen Filmschaffenden, die im Deutschen Reich keine Arbeit mehr fanden und auswandern mussten, fanden sich letztendlich rund 800 in Hollywood wieder – darunter fast die gesamte Elite des deutschsprachigen Filmschaffens dieser Zeit. Vielen gelang dort eine ruhmvolle Karriere, viele, vor allem jene, die 1938 und noch später ohne Arbeitsangebot in Hollywood ankamen, konnten nicht mehr an ihre bisherige Karriere anschließen und kamen nur in schlecht bezahlten und unbedeutenden Positionen unter oder mussten nach einer Weile gar das Filmgeschäft aufgeben. Statt der bisher aus Berlin und Wien gewohnten Kaffeehäuser, wo man sich einst regelmäßig traf, wurden nun große Appartements und Villen von in Hollywood erfolgreichen Emigranten neue Treffpunkte. Beliebte Treffpunkte der Film- und Theaterschaffenden waren die Adressen von Henry Koster, Paul Henreid, Ernst Deutsch-Dryden, Paul Kohner und später auch von Sam Spiegel. Die literarische Emigration, inklusive Drehbuchautoren, traf sich häufig bei Salka Viertel und bei Brecht. Einzelnachweise. !Us Vorsätze für Maßeinheiten. Vorsätze für Maßeinheiten, auch Einheitenvorsätze, "Einheitenpräfixe" oder kurz "Präfixe" oder "Vorsätze" genannt, dienen dazu, Vielfache oder Teile von Maßeinheiten zu bilden, um Zahlen mit vielen Stellen zu vermeiden. SI-Präfixe. SI-Präfixe sind die für die Verwendung im Internationalen Einheitensystem (SI) definierte Dezimal-Präfixe. Sie basieren auf Zehnerpotenzen mit ganzzahligen Exponenten. Man unterscheidet zwischen dem Namen des Präfix und seinem Symbol. Die Symbole sind international einheitlich. Die Namen unterscheiden sich je nach Sprache. Die Zeichen für Teile einer Einheit werden als Kleinbuchstaben geschrieben, während die meisten Zeichen für Vielfache einer Einheit als Großbuchstaben geschrieben werden. Ausnahmen von dieser Systematik sind aus historischen Gründen die Zeichen für Deka (da), Hekto (h) und Kilo (k). Typographie. Das Mikro-Zeichen „µ“ stammt als einziges Präfix-Symbol aus der griechischen Schrift, was beim Maschinenschreiben und Drucken in der Praxis Schwierigkeiten bereitet hat. In der elektrotechnischen Literatur wurde deshalb ersatzweise häufig ein „u“ verwendet. Das wurde in der Internationalen Norm ISO 2955 von 1983, die 2001 zurückgezogen wurde, auch so empfohlen. Für Deutschland gelten weiterhin die Empfehlungen der DIN-Norm DIN 66030 „Informationstechnik – Darstellung von Einheitennamen in Systemen mit beschränktem Schriftzeichenvorrat“ vom Mai 2002. In Österreich sieht das Maß- und Eichgesetz „μ“ vor. Beim Austausch medizinischer Daten gemäß dem HL7-Standard ist das „u“ anstelle von „µ“ zugelassen. Die Einheitenvorsatzzeichen werden wie die Einheitenzeichen in aufrechter (nicht kursiver) Schrift geschrieben, unabhängig von der Schriftart des umgebenden Textes. Zwischen Einheitenvorsatzzeichen und Einheitenzeichen wird kein Zwischenraum geschrieben. Sprachliches. Der Name eines Einheitenvorsatzes bildet mit dem zugehörigen Einheitennamen ein zusammengesetztes Wort. Beispiele sind „Nanometer“, oder „Milligramm“. Wenn aus dem Zusammenhang klar ist, welche Einheit gemeint ist, wird dieses zusammengesetzte Wort in der Umgangssprache häufig auf den Vorsatz verkürzt. So ist von „Kilo“ die Rede, wenn „Kilogramm“ (kg) gemeint ist. Im technischen Bereich wird der Mikrometer (µm) kurz als „Mü“ bezeichnet; im Englischen ist die Bezeichnung „micron“ für Mikrometer üblich. Im Österreichischen wird die Abkürzung „Deka“ für die Masseeinheit „Dekagramm“ (dag) verwendet, unter Handwerkern auch „Zenti“ für Zentimeter (cm). Historische Präfixe. Bis 1960 waren in Frankreich die Vorsätze „Myria“ (gr. = zehntausend) mit dem Zeichen ma für das 10+4-fache und „dimi“ mit Zeichen dm für das 10−4-fache genormt. Statt „myria“ wurde Anfang des 19. Jahrhunderts auf einen Vorschlag von Thomas Young hin z. T. auch „myrio“ geschrieben. Bis um 1900 wurde in Österreich „Centimeter“ mit C geschrieben. Früher waren in Deutschland auch das Symbol D und in Großbritannien dk für „Deka“ üblich, in Österreich war das Zeichen dk bis Mitte der 1950er Jahre gesetzlich vorgeschrieben. In DIN 1301 Teil 1 vom Dezember 1993 wurde der SI-Vorsatz für 10−24 „Yocto“ geschrieben; diese Schreibweise wurde in der Ausgabe vom Oktober 2002 zu „Yokto“ korrigiert. Präfixe für Werte von elektrischen Bauteilen. Bis 1950 wurden die elektrische Kapazität von Kondensatoren, aber auch die Selbstinduktion von Spulen in cm (Centimeter) des CGS-Einheitensystems angegeben, dann wurde pF (Piko-Farad) auch als µµF geschrieben. Der besseren Lesbarkeit wegen findet sich auf oft kleinen Bauteilen statt µF gelegentlich MF (oder MFD. im Englischen) oder KV statt kV für Spannung und MEGOHM statt MΩ für Widerstand. Umgangssprachliche Verwendung. Im Sprachgebrauch von Internetbenutzern wird zunehmend das SI-Präfix k verwendet, in Kontexten, wo das sonst kaum üblich ist, z. B. bei Zeit- und Stückzahlangaben. Vergleiche auch den besonders speziellen Fall der Bezeichnung Y2K für das Jahr-2000-Problem oder W2K für Windows 2000. Im kaufmännisch-technischen Umfeld wird das Präfix k außerdem häufig mit Währungseinheiten verwendet, etwa als k€. Die dort ebenfalls verwendete Kombination T€ stammt nicht aus diesem SI, sondern bedeutet „Tausend Euro“. Einheitenvorsätze für binäre Vielfache. In der Datenverarbeitung werden SI-Präfixe auch für Datenmengen (Bits und Bytes) verwendet, allerdings oft in der Bedeutung als Binärpräfix (Vielfache von 1024, z. B. 210, 220, 230 usw.). Bis heute werden bei Datenmengen je nach Kontext, unter Umständen je nach betrachtetem Speichermedium, die SI-Präfixe als Dezimalpräfixe oder Binärpräfixe verwendet, was insbesondere bei höheren Werten zu erheblichen Abweichungen führt. Das binäre Präfixsymbol entsteht durch das Anhängen von -i an das entsprechende dezimale Präfixsymbol. Ki wird dabei im Gegensatz zu k groß geschrieben. Das binäre Präfix selbst entsteht durch das Anhängen von -bi an die ersten beiden Buchstaben des entsprechenden dezimalen Präfixes. Beispiel für die Verwendung: Ein Kibibyte wird geschrieben als 1 KiB = 210 B = 1024 B, wobei B für Byte steht. Einzelnachweise. Masseinheiten, Vorsatze Masseinheiten, Vorsatze Abkürzungen/Gesetze und Recht. Viele, aber nicht alle, Fachautoren kürzen ohne Punkt und Leerzeichen ab: So wird die Abbreviatur für "in der Regel", normalerweise "i. d. R.", mit "idR" abbreviert. Ungeachtet dessen werden Akronyme, wie sonst auch, ohne Punkte gebildet. Folgende Liste von Abkürzungen aus der Rechtssprache versucht nur sprachlich korrekte Abbreviaturen, also mit Punkt und Leerzeichen, aufzuführen, sofern nicht die geraffte Schreibweise in den Alltag Einzug gefunden hat und dort dominiert (z. B. "eG", "GbR" oder "MdB") oder die Abbreviatur nur in juristischen Schriften und dort auch nur zusammengeschrieben auftaucht. Einzelnachweise. Gesetze und Recht Liste von Abkürzungen (Computer). Dies ist eine Liste technischer Abkürzungen, die im IT-Bereich verwendet werden. Weblinks. Abkurzungen (Computer) Computer Liste von Unternehmen mit Namensherkunftserklärungen. Dies ist eine Liste von Firmen (Namen der Unternehmen) sowie ihrer Herkunft (Etymologie). Häufig sind die Firmen Abkürzungen oder Akronyme der Namen der Gründer, voriger Gesellschaften oder des Unternehmensziels. Weblinks. Unternehmensnamen, Etymologie ISO 4217. ISO 4217 ist die von der Internationalen Organisation für Normung publizierte Norm für Währungs-Abkürzungen, die im internationalen Zahlungsverkehr zur eindeutigen Identifizierung benutzt werden sollen. Am 1. August 2015 wurde die neue Version ISO 4217:2015 veröffentlicht. Diese 8. Version ersetzt den Vorgänger aus dem Jahr 2008. Alphabetische Codes. Die Abkürzungen umfassen jeweils drei Buchstaben. Die ersten beiden sind üblicherweise die Landeskennung nach ISO 3166-1 ALPHA-2 (beispielsweise "AU" für Australien), der letzte Buchstabe ist in der Regel der Anfangsbuchstabe des Währungsnamens, so beispielsweise "D" für "Dollar". Gemeinsam ergibt dies "AUD" als genormte Abkürzung für den Australischen Dollar. Währungen, die nicht von einem Einzelstaat herausgegeben werden, haben als ersten Buchstaben ein "X"; die beiden folgenden Buchstaben geben den Namen der Währung an. Dies ist sowohl bei den meisten Währungsunionen der Fall (z. B. der Ostkaribische Dollar ("XCD")), als auch bei den IWF-Sonderziehungsrechten ("XDR"). Auch für nicht-geldliche Wertaufbewahrungs- und Transaktionsmittel gibt es Kodierungen. So wird eine Feinunze Gold (= 31,1034768 Gramm) beispielsweise mit "XAU" abgekürzt (zusammengesetzt aus X und dem chemischen Symbol für Gold: "Au"), Silber entsprechend mit "XAG". Transaktionen, in denen keine Währung verwendet wird, werden mit "XXX" gekennzeichnet. Numerische Codes. Neben der Buchstabenkodierung werden auch dreistellige Zifferncodes verwendet. Dabei bedeuten die Zahlenbereiche Teilweise wird bei Änderung der Währung und des Buchstaben-Codes die bisherige numerische Kodierung beibehalten, insbesondere wenn sich lediglich der Name des Zahlungsmittels geändert hat. Auch wenn eine direkte Währungsumstellung erfolgt, bleibt meist der numerische Code unverändert. Diese Codes sind deshalb ohne Kenntnis des Zeitpunkts nicht immer so eindeutig einer bestimmten Währung des betreffenden Landes zuzuordnen, wie das mit den Buchstaben-Codes möglich ist. Allerdings sind sie für konkrete finanzielle Transaktionen vorgesehen, so dass die Angabe bei mehreren Möglichkeiten eigentlich nur bedeutet: „In der am Tag der Wertstellung gültigen Landeswährung“. Achsensprung (Film). Ein Achsensprung ist ein Filmschnitt, mit dem die Beziehungssachse der Figuren oder Gruppen übersprungen wird. Blickachsen oder Beziehungsachsen zwischen den Akteuren untereinander oder dem Point of Interest des Protagonisten bilden eine gedachte Linie. Auf die Leinwand projiziert, stellt diese Linie eine "links-rechts-" und "oben-unten-Beziehung" zwischen den Akteuren dar. Unter Achsensprung bezeichnen wir einen Schnitt, bei dem sich dieses Verhältnis umkehrt. Es wird zwischen Seitenachsensprung und dem Höhenachsensprung unterschieden. Letzterer wird als weniger desorientierend vom Zuschauer empfunden, da die Leinwand weniger hoch als breit ist. Ein Achsensprung kann beim Zuschauer Desorientierung verursachen, da die Anordnung und Blickrichtung der Akteure im Frame sich relativ zum Zuschauer zu verändern scheint. ist die gedachte Linie, in deren Richtung sich die Handlung oder das Inertialsystem der Filmwelt bewegt. Bei einer Autofahrt zum Beispiel ist die Aktionsachse so stark, dass die Beziehungsachsen an Bedeutung verlieren. Die Orientierung bleibt trotz eventuellem Achsensprung bewahrt. Wenn man aus der Fahrerseite filmt, bewegt sich die Landschaft scheinbar von rechts nach links; filmt man aus der Beifahrerseite, bewegt sie sich scheinbar von links nach rechts. Diese Änderung der Bewegungsrichtung ist aber nicht irritierend. Analog werden zwei Autos, die bei einer Parallelmontage in die gleiche Richtung fahren (oft von links nach rechts, weil das unserer Leserichtung entspricht), als einander verfolgend wahrgenommen; wenn eines jedoch von links nach rechts und das andere von rechts nach links fährt, erwartet der Zuschauer einen Zusammenstoß. Im Continuity Editing des klassischen Hollywoodkinos wird der Achsensprung als Fehler betrachtet und dementsprechend vermieden. Der Grundsatz, Achsensprünge zu vermeiden, wird "180-Grad-Regel" genannt. Bewusster Achsensprung. In manchen Fällen kann ein bewusster Achsensprung auch Stilmittel sein, um beispielsweise Verwirrung oder einen Kippmoment zu symbolisieren; Stanley Kubrick wird in diesem Zusammenhang häufig genannt. In Werbespots werden Achsensprünge oft verwendet, um einen rasanten Effekt zu bewirken. Bekannt ist auch eine Szene aus "Herr der Ringe", in welcher Sméagol mit sich selbst spricht. Da er mit den Schnitten wechselnd von der einen zur anderen Seite spricht (Achsensprung), entsteht der Eindruck zweier gleich aussehender Personen, womit der gespaltene Charakter der Figur unterstrichen wird. Achsenwechsel. Im Gegensatz zum Achsensprung handelt es sich hierbei um eine Bewegung der Kamera (Steadicam oder einer Dollyfahrt) über die Achse oder um eine Änderung der Bewegungsachse bzw. der Blickrichtung der Figuren, wodurch eine neue Achse definiert wird. Der Achsenwechsel wird vom Zuschauer nicht als störend wahrgenommen, weil sich die Bewegung fließend vollzieht. Diese Bewegung wird mitunter auch als Crab bezeichnet. Außerdem kann ein Zwischenschnitt in eine Totale eine Achsenüberschreitung möglich machen, da so die räumliche Anordnung der Akteure für den Zuschauer deutlich wird, oder der Zwischenschnitt auf einen Closeup, da sich der Betrachter danach wieder neu räumlich orientiert. Alfred Hitchcock. Sir Alfred Joseph Hitchcock KBE (* 13. August 1899 in Leytonstone, England; † 29. April 1980 in Los Angeles, Kalifornien) war ein britischer Filmregisseur und Filmproduzent. Er siedelte 1939 in die USA über und nahm am 20. April 1955 zusätzlich die amerikanische Staatsbürgerschaft an. Hitchcock gilt hinsichtlich des Stils als einer der einflussreichsten Filmregisseure und er etablierte die Begriffe Suspense und MacGuffin. Sein Genre war der Thriller, charakteristisch seine Verbindung von Spannung mit Humor. Die wiederkehrenden Motive seiner Filme waren Angst, Schuld und Identitätsverlust. Mehrfach variierte er das Thema des unschuldig Verfolgten. Hitchcock legte großen Wert auf die künstlerische Kontrolle über das Werk des Autors. Sein Gesamtwerk umfasst 53 Spielfilme und gehört gemessen am Publikumserfolg sowie der Rezeption durch Kritik und Wissenschaft zu den bedeutendsten der Filmgeschichte. Auch dank seiner bewussten Selbstvermarktung zählt Hitchcock heute zu den bekanntesten zeitgeschichtlichen Persönlichkeiten. Er ist dem Autorenfilm zuzurechnen. Am 3. Januar 1980 wurde er von Königin Elisabeth II. zum Knight Commander des Order of the British Empire ernannt. Kindheit, Jugend und Ausbildung. Alfred Hitchcock wurde am 13. August 1899 als jüngster Sohn des Gemüsehändlers William Hitchcock (1862–1914) und dessen Ehefrau Emma Jane Whelan (1863–1942) in Leytonstone bei London geboren. Durch den Altersunterschied von sieben beziehungsweise neun Jahren zu seinen Geschwistern, durch seine römisch-katholische Erziehung in einem von der anglikanischen Kirche geprägten Land und nicht zuletzt durch sein Äußeres – er war klein und schon als Kind korpulent – hatte er eine einsame Kindheit. Zwischen 1910 und 1913 war er Schüler des St.-Ignatius-College, einer Londoner Jesuiten-Schule. Er verließ das College mit knapp 14 Jahren und besuchte stattdessen Abendkurse auf der Londoner Universität, diverse Handwerkskurse und später wenige Monate lang die "School of Engineering and Navigation". Zudem belegte er Kurse in Technischem Zeichnen sowie in Kunstgeschichte an der Londoner Kunstakademie. Seine Freizeit verbrachte er großteils mit dem Lesen von Fahrplänen und dem Studium von Stadtplänen und Landkarten. Mit fortschreitendem Alter flüchtete er sich in Romane, besuchte Theatervorstellungen und ging oft ins Kino. Außerdem verfolgte er Mordprozesse im Gerichtshof Old Bailey und besuchte gerne das Black Museum von Scotland Yard. Der Tod des Vaters Ende 1914, zu dem er kein enges Verhältnis hatte, band Hitchcock noch enger an seine Mutter. 1915 nahm er eine Stelle als technischer Angestellter bei der "W.T. Henley Telegraph Company" an, die elektrische Leitungen herstellte. Wegen seines zeichnerischen Talents wurde er bald in die Werbeabteilung versetzt. Unter seinem bis zuletzt gebrauchten Spitznamen „Hitch“ veröffentlichte er in der Betriebszeitschrift seine ersten gruseligen Kurzgeschichten. Anstellung beim Film. Im Frühjahr 1920 hörte Hitchcock von der Neugründung eines Studios der amerikanischen Produktionsgesellschaft Paramount Famous Players-Lasky im Londoner Stadtbezirk Islington. Er bewarb sich mit einer Mappe mit Illustrationen und wurde als Zeichner von Zwischentiteln angestellt. In den Jahren 1921 und 1922 zeichnete er die Titel für mindestens zwölf Filme. Nebenbei entwarf er Kostüme, Dekorationen und Szenenbilder. Auch durch Überarbeitungen von Drehbüchern machte er auf sich aufmerksam. Bei zwei Filmen arbeitete er mit George Fitzmaurice zusammen, dessen genaue Produktionsplanung ihn sehr beeinflusste. 1922 bekam Hitchcock Gelegenheit, sich als Regisseur zu versuchen. Mit dem Autor Seymour Hicks stellte er die letzten Filmszenen von "Always Tell Your Wife" fertig, nachdem der ursprüngliche Regisseur gefeuert worden war. Bald darauf konnte er einen eigenen Film drehen, "Number 13" (in einigen Quellen "Mrs. Peabody)", der jedoch unvollendet blieb, da "Famous Players-Lasky" im Laufe der Dreharbeiten das Studio wegen finanzieller Schwierigkeiten schließen musste. Das leerstehende Gelände wurde an unabhängige Produzenten vermietet, darunter auch an Michael Balcon, der das Studio 1924 schließlich erwarb. Er stellte Hitchcock als Regieassistent ein sowie (auf dessen Empfehlung) die Cutterin Alma Reville. Die beiden kannten sich seit 1921, seitdem sie gelegentlich an denselben Filmen gearbeitet hatten. Bis 1925 entstanden fünf Filme, bei denen Hitchcock dem Regisseur Graham Cutts assistierte und zu Cutts’ wachsendem Unmut mehr und mehr künstlerischen Einfluss gewann. Neben dem Drehbuch kümmerte er sich auch um die Bauten, das Szenenbild, die Besetzung, die Kostüme sowie die Ausstattung und nahm so mit der Zeit die Aufgaben eines Produktionsleiters wahr. Hitchcocks letzte Zusammenarbeit mit Graham Cutts führte ihn 1924/25 nach Deutschland. Der unter der Beteiligung der deutschen UFA produzierte Film "Die Prinzessin und der Geiger" entstand in den Babelsberger Filmstudios – damals den modernsten der Welt. Dabei hatte Hitchcock die Möglichkeit, Friedrich Wilhelm Murnau bei den Arbeiten an "Der letzte Mann" zu beobachten; von diesem beeindruckt übernahm er einige Techniken Murnaus für die Szenenbilder seiner aktuellen Produktion. Durch diesen und weitere Besuche konnte Hitchcock fließend Deutsch sprechen; später sprach er zum Beispiel einige Trailer seiner Filme selbst. Zurück in England übertrug ihm Michael Balcon 1925 die Regie für einen eigenen Film. Das Projekt führte den jungen Hitchcock wieder nach Deutschland. Nur die Münchner Lichtspielkunst (Emelka) fand sich bereit, den Film des unbekannten Regie-Debütanten mitzuproduzieren. Für das Melodram "Irrgarten der Leidenschaft" (1925) verpflichtete Balcon kostspielige Stars aus Hollywood. Alma Reville, mittlerweile Hitchcocks Verlobte, war als Regieassistentin und Cutterin Mitglied des sehr kleinen Filmteams. Balcon war mit Hitchcocks ambitionierter Arbeit zufrieden und vertraute ihm eine weitere deutsch-englische Koproduktion an: "Der Bergadler" wurde noch im selben Jahr, diesmal in Tirol, gedreht. Doch beide Filme, die 1925 beziehungsweise 1926 in Deutschland in den Kinos anliefen, wurden in England zunächst nicht veröffentlicht. Der englische Verleiher und Geldgeber C. M. Woolf war, im Gegensatz zu Balcon, nicht von Hitchcocks betont expressionistischem Stil überzeugt. Leben und Arbeit in England. Mit dem 1926 gedrehten Film "Der Mieter" um einen einzelgängerischen Pensionsgast, der verdächtigt wird, ein Serienmörder zu sein, hatte Hitchcock sein Thema gefunden. Doch nicht zuletzt wegen dessen expressionistischer Bildgestaltung lehnte es Woolf abermals ab, den Film zu veröffentlichen. Balcon zog daraufhin den jungen Ivor Montagu hinzu, der Erfahrung mit Filmüberarbeitungen hatte; mit Hitchcock zusammen wurden einige Änderungen vorgenommen. Der überragende Erfolg bei einer Pressevorführung ebnete dann den Weg zur Veröffentlichung seiner ersten beiden Filme. "Der Mieter" kam 1927 in kurzer Abfolge mit "Irrgarten der Leidenschaft" und "Der Bergadler" in die Kinos und bedeutete für Hitchcock den Durchbruch als Regisseur. Für Balcons Gainsborough Pictures drehte Hitchcock 1927 noch die zwei Melodramen "Abwärts" und "Easy Virtue". Beiden Filmen war kein Erfolg beschieden. Bereits zuvor hatte er beschlossen, bei deutlich höherem Gehalt zu der neu gegründeten Firma British International Pictures (BIP) des Produzenten John Maxwell zu wechseln. Dort entstand mit dem Boxerdrama "Der Weltmeister" sein erster Film nach einem Originaldrehbuch. Die Presse reagierte äußerst positiv. Obwohl die drei folgenden Stummfilme "The Farmer’s Wife," "Champagne" und "Der Mann von der Insel Man" abgesehen von einzelnen Szenen als Fingerübungen gelten, hatte sich Hitchcock in Großbritannien innerhalb kurzer Zeit einen Namen gemacht: Die junge britische Filmindustrie, sehr darauf bedacht, sich von der amerikanischen abzuheben, war nur allzu gerne bereit, ihn als kommenden Regiestar zu feiern. Im Dezember 1926 heirateten Alfred Hitchcock und Alma Reville, die für die Hochzeit zum katholischen Glauben konvertierte. 1928 wurde ihre gemeinsame Tochter Patricia geboren. Beruflich blieb Alma bis zum Schluss seine engste Mitarbeiterin und Beraterin. Das Aufkommen des Tonfilms hielten viele Regisseure für das Ende ihrer Kunstform. Hitchcock hingegen nutzte das Potential der neuen Technik. "Erpressung" (1929) wurde ursprünglich als Stummfilm produziert. Die Produzenten erlaubten Hitchcock jedoch, eine Filmrolle mit Tonmaterial nachzudrehen. Er versah daraufhin einzelne Schlüsselszenen mit wirkungsvollen Toneffekten und gesprochenem Dialog, wobei die tschechische Schauspielerin Anny Ondra, die ihre Rolle stumm spielen musste, von der englischen Schauspielerin Joan Barry simultan synchronisiert wurde. "Erpressung" war der erste britische Tonfilm und wurde ein großer Erfolg. Hitchcock nutzte seine gewonnene Popularität und gründete mit der "Hitchcock Baker Productions Ltd." eine Gesellschaft zur Vermarktung seiner Person. Auf Geheiß seines Studios drehte er "Juno and the Paycock" (1930) sowie einige Szenen für die Musikrevue "Elstree Calling". Mit "Mord – Sir John greift ein!" fand er wieder zu seinem Thema und auch nach Deutschland zurück: In Berlin stellte er die deutsche Sprachversion des Films unter dem Titel "Mary" her. Es folgten drei Filme, von denen Hitchcock nur die Komödie "Endlich sind wir reich" wirklich interessierte: In dem zusammen mit seiner Frau und Val Valentine verfassten Drehbuch verarbeitete er unter anderem die Erfahrungen seiner noch jungen Ehe. Den ihm aufgezwungenen Thriller "Nummer siebzehn" beschloss Hitchcock aus Protest zu sabotieren und zu einer wirren, albernen Parodie zu machen. Die turbulente Verbindung zwischen Humor und Spannung lässt "Nummer siebzehn" aus heutiger Sicht als einen Vorläufer späterer Klassiker des Genres erscheinen. Hitchcocks Vertrag mit der "British International Pictures" endete nach sechs Jahren mit einem Einsatz als Produzent "(Lord Camber’s Ladies)". Die Zusammenarbeit hatte zunehmend unter dem Konflikt zwischen Hitchcocks Streben nach künstlerischer Kontrolle und den Vorschriften des Studios gelitten. Doch auch den folgenden Film "Waltzes from Vienna", ein „Musical ohne Musik“ (Hitchcock) für den unabhängigen Produzenten Tom Arnold, drehte er betont lustlos: „Ich hasse dieses Zeug. Melodrama ist das einzige, was ich wirklich kann.“ Englische Meisterwerke. Unmittelbar nach "Waltzes from Vienna" nahm er die fruchtbare Zusammenarbeit mit dem Produzenten Michael Balcon wieder auf. Als erster Film für die "Gaumont British" entstand der Thriller "Der Mann, der zuviel wußte" (1934). Das Drehbuch erarbeitete Hitchcock im Wesentlichen mit seiner Frau Alma und dem Drehbuchautor Charles Bennett. Der Film wurde sowohl von der Kritik als auch vom Publikum enthusiastisch aufgenommen. Der humorvolle Spionagethriller "Die 39 Stufen" (1935, Drehbuch: Charles Bennett) gilt als Blaupause späterer Verfolgungsthriller. Eine turbulente Szene folgt auf die nächste, es gibt keine Übergänge und kaum Zeit für den Zuschauer, über die manches Mal fehlende Logik nachzudenken. Hitchcock ordnete nach eigenem Bekunden alles dem Tempo unter. Der überragende Erfolg des Films sollte ihm recht geben. Es folgten "Geheimagent" (1936) und "Sabotage" (1936), die insbesondere in Hitchcocks eigener späterer Bewertung gegenüber den beiden Vorgängerfilmen abfielen. Doch die psychologisch vielschichtige Behandlung des Themas „Schuld“ weist bereits auf spätere Werke hin. Nach "Sabotage" endete abrupt die zweite erfolgreiche Phase der Zusammenarbeit mit Michael Balcon, als die Produktionsfirma Gaumont British von deren Besitzern geschlossen und Balcon entlassen wurde. Die beiden folgenden Filme drehte Hitchcock daher wieder für die Gainsborough Pictures – diesmal allerdings ohne seinen ehemaligen Förderer. "Jung und unschuldig" (1937) war eine weitere, unbeschwerte Variation der Geschichte vom unschuldig Verfolgten. Der gefeierte Thriller "Eine Dame verschwindet" (1938) spielt überwiegend in einem fahrenden Zug. Die Dreharbeiten fanden jedoch ausschließlich in einem kleinen Londoner Studio statt, was dank technisch anspruchsvoller Rückprojektionen möglich wurde. Hitchcock festigte mit diesen sechs Filmen seine Ausnahmestellung innerhalb des britischen Kinos. Ende der 1930er Jahre beauftragte er die "Selznick-Joyce-Agentur", deren Mitinhaber Myron Selznick, der ältere Bruder des Hollywood-Moguls David O. Selznick, war, seine Interessen wahrzunehmen. Hitchcock, dessen Ruf mittlerweile bis nach Hollywood gelangt war, unterzeichnete schließlich 1938 einen Vertrag für die Produktionsgesellschaft von David O. Selznick, der damals gerade mit der Vorproduktion zu "Vom Winde verweht" beschäftigt war. In Gedanken bereits in Hollywood, drehte Hitchcock in England noch einen letzten Film für die Produktionsfirma des nach England emigrierten deutschen Produzenten Erich Pommer. Doch der Kostümfilm "Riff-Piraten" wurde von der Presse durchweg verrissen. Hollywood und der Zweite Weltkrieg. In seinen ersten Jahren in Hollywood stieß Hitchcock auf unerwartete Schwierigkeiten. David O. Selznick übte starke Kontrolle über die Filme seines Studios aus und achtete darauf, dass sich der freiheitsliebende Hitchcock möglichst eng an die literarische Vorlage seines ersten Hollywoodfilmes hielt. Trotz dieser Spannungen wurde "Rebecca" für den britischen Regisseur ein erfolgreicher Einstand in Hollywood: Das psychologisch dichte und düster-romantische Melodram war 1940 elfmal für den Oscar nominiert und gewann schließlich zwei der Trophäen (Kamera und Produktion). In den nächsten Jahren machte Selznick sein Geld mit Hitchcock, indem er ihn für beträchtliche Summen an andere Studios auslieh. Der Krieg in Europa weitete sich aus, als der unabhängige Produzent Walter Wanger Hitchcock für ein aktuelles Kriegsdrama engagierte. "Der Auslandskorrespondent" blieb Hitchcocks Naturell entsprechend jedoch ein weitgehend unpolitischer Spionagethriller. Nur der nachgedrehte Schlussmonolog, gerichtet an die noch neutralen USA, wirkte aufrüttelnd. Kurz nach Fertigstellung des Films wurde England von Deutschland bombardiert. Der rechtzeitig ausgewanderte Hitchcock musste sich daraufhin scharfe Kritik von ehemaligen britischen Kollegen, allen voran Michael Balcon, gefallen lassen. Mit "Verdacht" (1941, RKO), der ersten Zusammenarbeit mit Cary Grant, und "Saboteure" (1942, Universal) blieb Hitchcock bei seinen klassischen Themen. Zwischen diesen Produktionen drehte er, für ihn und andere ungewohnt, seine einzige Screwball-Komödie. Obwohl damals durchaus positiv aufgenommen, zeigte er sich mit "Mr. und Mrs. Smith" (1941, RKO) nicht zufrieden. Weit mehr am Herzen lag ihm die Arbeit an dem Drama "Im Schatten des Zweifels" (1943, Universal). Hitchcocks Filme gelten allgemein als stark von seinem Charakter geprägt. Dieses Familienmelodram wird als einer seiner persönlichsten Filme bezeichnet: In allen Hauptfiguren spiegeln sich demnach Eigenschaften und Ängste Hitchcocks. Als während der Dreharbeiten Hitchcocks Mutter in London starb, verstärkte dies die autobiografischen Tendenzen. Wie viele britische Regisseure leistete Hitchcock seine Beiträge für die Kriegspropaganda und drehte unter anderem Kurzfilme zur Unterstützung der französischen Résistance. Auch in seine nächste Hollywood-Produktion arbeitete er stark propagandistische Töne ein, doch sein stets bewusst irritierender Umgang mit Klischees sorgte diesmal für Kontroversen: In einem kleinen Rettungsboot sehen sich englische und amerikanische Schiffbrüchige einem intellektuell überlegenen Nazi gegenüber. Dennoch wurde der formalistisch strenge Psychothriller "Das Rettungsboot" (1943, 20th Century Fox) dreimal für den Oscar nominiert (Drehbuch, Kamera und Regie). Psychologie, wichtige Komponente seines Werks, stand im Mittelpunkt von "Ich kämpfe um dich" (1945), der nach langer Zeit wieder für Selznick entstand. Dieser war vom Thema Psychoanalyse schnell begeistert und ließ Hitchcock ungewohnt viel freie Hand, doch kürzte er den Film nach der ersten Probevorführung um rund zwanzig Minuten. Die erfolgreiche Zusammenarbeit mit Ingrid Bergman in der Hauptrolle wurde in der folgenden Produktion "Berüchtigt" (1946) fortgesetzt, die Selznick allerdings wieder an RKO verkaufte. Die Geschichte um eine Spionin (Bergman), die aus Pflichtgefühl von ihrem Liebhaber (Cary Grant) gedrängt wird, mit dem Feind zu schlafen, bot für Hitchcocks Obsessionen eine breite Projektionsfläche. Mit dem Gerichtsdrama "Der Fall Paradin" (1947) lief der Vertrag Hitchcocks mit Selznick aus. Selznick behielt, bei der Stoffauswahl angefangen, bei dieser relativ chaotisch verlaufenden Produktion die Oberhand. Dass Hitchcock währenddessen Vorbereitungen für seine eigene Produktionsfirma traf, verstärkte die Spannungen zwischen den machtbewussten Männern. Dennoch bot Selznick Hitchcock – erfolglos – eine Vertragsverlängerung an. Unabhängigkeit. Bereits im April 1946, rund zwei Jahre bevor der Vertrag mit Selznick auslaufen sollte, gründete Hitchcock mit dem befreundeten Kinokettenbesitzer Sidney Bernstein die Produktionsfirma Transatlantic Pictures, für die er seinen ersten Farbfilm inszenierte, "Cocktail für eine Leiche" (1948) mit James Stewart in einer der Hauptrollen. Der Film blieb jedoch vor allem wegen eines anderen Hitchcock-Experiments in Erinnerung; jede Einstellung des kammerspielartigen Films dauert so lange, wie es das Filmmaterial in der Kamera erlaubte, also rund zehn Minuten. Durch geschickte Übergänge sollte so der Eindruck entstehen, dass sich die Geschichte in Echtzeit und von nur einer Kamera gefilmt ereignete. "Sklavin des Herzens" (1949), ein für Hitchcock untypischer, melodramatischer Kostümfilm, war vor allem ein Vehikel für Ingrid Bergman. Trotz der Starbesetzung und der technischen Raffinessen wurde er kommerziell ein ähnlicher Misserfolg wie "Cocktail für eine Leiche" - Transatlantic ging daraufhin in Konkurs. Nachdem sein Berater und Agent Myron Selznick 1944 gestorben war, wurden Hitchcocks Interessen von mehreren anderen Personen wahrgenommen, bevor er 1948 mit Lew Wasserman zusammentraf. Wasserman war seit 1946 Präsident der weltgrößten Künstleragentur Music Corporation of America (MCA), der sich Hitchcock 1948 anschloss. Es begann eine enge wie äußerst lohnende Zusammenarbeit. Warner Brothers. Hitchcock schloss mit Warner Bros. einen lukrativen Vertrag über vier Filme ab, bei denen er als Regisseur und Produzent, angefangen bei der Stoffauswahl, völlig freie Hand hatte. Der erste dieser Filme war der Thriller "Die rote Lola" (1950) mit Marlene Dietrich, der im Londoner Theatermilieu spielte. Eines seiner Lieblingsmotive stellte er auf den Kopf; am Ende entpuppt sich der „unschuldig Verfolgte“ als der wahre Mörder. Hitchcock drehte in seiner Heimat, spürte allerdings wieder die alten Ressentiments, die nach seiner Auswanderung entstanden waren. Der Film selbst war nicht sonderlich erfolgreich. Im April 1950 begann Hitchcock, regelmäßige Kolloquien an den Universitäten von Kalifornien und Südkalifornien abzuhalten, in denen unter anderem Previews seiner aktuellen Filme gezeigt wurden. Diese Tradition sollte er die kommenden 20 Jahre beibehalten. "Der Fremde im Zug" (1951, nach einem Roman von Patricia Highsmith) brachte schließlich nach fünf Jahren Flaute wieder einen überragenden Erfolg. Mit diesem Film begann die dreizehnjährige Zusammenarbeit mit dem Kameramann Robert Burks. Wie schon in "Die rote Lola" spielte Hitchcocks Tochter Patricia eine Nebenrolle. 1952 folgte mit "Ich beichte" der eindeutigste filmische Bezug auf Hitchcocks starke katholische Prägung. Obwohl von der Kritik geschätzt, floppte der Film an den Kinokassen, was Hitchcock vor allem der Humorlosigkeit des Publikums anlastete. Als Anfang der 1950er Jahre das Fernsehen Einzug in die Wohnzimmer hielt, versuchte die Kinoindustrie, mit neuen technischen Verfahren wie dem Breitbildformat Cinemascope oder dem 3D-Verfahren den Zuschauerschwund aufzuhalten. So drängte Warner Bros. Hitchcock, seinen nächsten Film in 3D zu drehen. Über diese Entscheidung, die zur Einschränkung der Bewegungsfreiheit der Kamera führte, war Hitchcock nicht glücklich; er setzte auch nur wenige explizite 3-D-Effekte ein. "Bei Anruf Mord" (1954) ist die Verfilmung eines damals sehr populären Theaterstücks von Frederick Knott, der auch das Drehbuch schrieb. Mit Hauptdarstellerin Grace Kelly drehte Hitchcock im Anschluss noch zwei weitere Filme, ehe sie sich aus dem Filmgeschäft zurückzog. Paramount. Die Erfahrung mit dem aufgezwungenen 3D-Verfahren zeigte Hitchcock die Grenzen bei Warner Brothers. Er schloss daher 1953 einen Vertrag mit Paramount ab, der ihm völlige künstlerische Freiheit garantierte. 1954 begann die für Hitchcock erfolgreichste Zeit mit "Das Fenster zum Hof". Neben Grace Kelly ist ein weiteres Mal James Stewart zu sehen. Die Hauptfigur sitzt während des gesamten Films im Rollstuhl und beobachtet durch ein Teleobjektiv das Geschehen in den gegenüberliegenden Wohnungen – sozusagen stellvertretend für den Zuschauer, aber auch stellvertretend für Hitchcock selbst, der in diesem Film den voyeuristischen Aspekt des Filmemachens aufzeigt. "Über den Dächern von Nizza" (1955) ist ein leichter, romantischer Thriller, in dem neben Grace Kelly – nach zwei Jahren Filmpause – wieder Cary Grant spielte. Wohl um dem Glamour dieses an der Côte d’Azur angesiedelten Films etwas entgegenzusetzen, drehte Hitchcock noch im selben Jahr die kostengünstig produzierte schwarze Komödie "Immer Ärger mit Harry," in der Shirley MacLaine neben John Forsythe ihren ersten Filmauftritt hatte. Edmund Gwenn, der bereits in früheren Hitchcock-Filmen mitgewirkt hatte, spielte fast achtzigjährig eine seiner wenigen Hauptrollen. Obwohl Hitchcock in vielen seiner Filme schwarzen Humor untergebracht hat, ist es eine der wenigen echten Komödien von ihm. 1955 nahm Hitchcock – rund fünf Jahre nach seiner Frau – die amerikanische Staatsbürgerschaft an. Im selben Jahr begann er mit Doris Day und James Stewart die Dreharbeiten zu "Der Mann, der zuviel wußte" (1956), dem einzigen Remake eines seiner Filme in seiner Karriere. Ebenfalls 1955 startete die wöchentliche Fernsehserie "Alfred Hitchcock Presents" (ab 1962 "The Alfred Hitchcock Hour)". Hitchcock war Produzent, trat in vielen Folgen als Moderator auf und inszenierte insgesamt 18 Folgen. Auch für die Fernsehserien "Suspicion" und "Startime" nahm er für je eine Folge im Regiestuhl Platz. Nach zehn Jahren beendete er seine Fernseharbeit, an der er zunehmend das Interesse verloren hatte. Hinzu kam, dass die Produktion den Auftraggebern zu teuer wurde und die Zeit von Serien mit jeweils abgeschlossenen Folgen, sogenannten „Anthologies“, zu Ende ging. Mit "Der falsche Mann" wurde er 1956 einem seiner Grundprinzipien, der strikten Trennung von Leben und Fiktion, untreu. In dem Schwarzweißfilm mit Henry Fonda und Vera Miles wird an authentischen Schauplätzen die auf Tatsachen beruhende Geschichte eines zu unrecht Verurteilten erzählt. Der Film entstand noch einmal für Warner Bros., da Hitchcock dem Studio bei seinem Ausscheiden noch einen Film ohne Regiegage zugesagt hatte. Allerdings war "Der falsche Mann", der viele Stilelemente des Film noir und ein trostloses Ende aufweist, kommerziell ein Flop. Höhepunkt und Wende. 1957 drehte Hitchcock seinen letzten Film für Paramount: "Vertigo – Aus dem Reich der Toten" (1958). Das Drehbuch entstand in gemeinsamer intensiver Arbeit von Hitchcock und Samuel A. Taylor, und in wenige seiner Filmfiguren projizierte Hitchcock so viel von seiner eigenen Persönlichkeit wie in den von James Stewart verkörperten Scottie Ferguson, der versucht, eine Frau nach seiner Vorstellung umzuformen. Zu seiner Entstehungszeit nicht besonders erfolgreich, zählt der Film inzwischen – ähnlich wie der folgende "Der unsichtbare Dritte" – zu den bedeutendsten Werken Hitchcocks. Hitchcock und sein Drehbuchautor Ernest Lehman konzipierten "Der unsichtbare Dritte" (1959, MGM) als eine Abfolge von Abenteuern, in der ein Unschuldiger (Cary Grant in seinem letzten Hitchcock-Film) um seine Reputation und sein Leben kämpft. Die elegante Leichtigkeit der Erzählung beeinflusste viele nachfolgende Abenteuer- und Agentenfilme, was sich u. a. in den James-Bond-Filmen der darauf folgenden Jahre zeigt. Für Hitchcock selbst blieb es für lange Zeit der letzte vorwiegend heitere Film. Das im Anschluss vorbereitete Projekt mit Audrey Hepburn in der Hauptrolle wurde durch Hitchcock gestoppt, als Hepburn wegen einer geplanten Vergewaltigungsszene absagte. Mit seiner bewusst kostengünstigen Produktion "Psycho" (1960) folgte Hitchcocks wohl bekanntester Film: Die in einer Woche Dreharbeit entstandene „Duschszene“ zählt heute zu seinen meistanalysierten Filmszenen. Ungewöhnlich war auch der Tod einer Hauptfigur nach nur einem Drittel des Films. Die zeitgenössischen Kritiken fielen unerwartet barsch aus, doch das Publikum machte "Psycho" zu Hitchcocks größtem kommerziellen Erfolg. Nachdem zwei angedachte Projekte scheiterten – unter anderem, weil Walt Disney dem "Psycho"-Regisseur die Dreherlaubnis in Disneyland verweigerte – nahm Hitchcock erst Mitte 1961 seinen nächsten Film in Angriff: "Die Vögel" (1963), ein weiterer Horrorfilm, der nicht zuletzt durch seine Dramaturgie und die eingesetzte Tricktechnik - etwa dem Sodium Vapor Process - stilbildend wirkte. So setzt der deutsche Komponist Oskar Sala statt Filmmusik elektronisch erzeugte Geräusche ein. Hitchcock entdeckte die Hauptdarstellerin Tippi Hedren im Werbefernsehen. Obwohl sie keine Filmerfahrung besaß, nahm er sie für die nächsten sieben Jahre unter Vertrag. "Die Vögel" entstand für Universal, die kurz zuvor teilweise von MCA übernommen worden waren und für die Hitchcock von nun an alle Filme drehen sollte. Lew Wasserman, bis zu diesem Zeitpunkt Agent Hitchcocks, wurde Präsident von Universal und gab seine Agententätigkeit auf. Hitchcock selbst trat seine Rechte an "Psycho" und seiner Fernsehserie ab und wurde im Gegenzug MCAs drittgrößter Aktionär. Nach "Die Vögel" gibt es in Hitchcocks Werk einen Bruch. Die folgenden drei Filme der 1960er Jahre blieben künstlerisch und kommerziell hinter den vorangegangenen Erfolgen zurück. Konflikte mit seiner Hauptdarstellerin Tippi Hedren prägten die Dreharbeiten soweit, dass er das Gelingen seines nächsten Films "Marnie" (1964) bewusst zu sabotieren schien. Das Psychogramm einer verstörten, traumatisierten Frau bedient sich psychologischer Erklärungsmodelle, die überholt und undifferenziert wirken, und enthält für Hitchcock untypisch viele handwerkliche Fehler. Dieser erste künstlerische und kommerzielle Misserfolg seit rund fünfzehn Jahren war in mehrfacher Hinsicht ein Wendepunkt in Hitchcocks Karriere. Tippi Hedren war die letzte typische „Hitchcock-Blondine“, "Marnie" der letzte Film, den Hitchcocks langjähriger Kameramann Robert Burks drehte. Kurz nach Abschluss der Dreharbeiten verstarb zudem Hitchcocks Cutter George Tomasini, mit dem er zehn Jahre lang zusammengearbeitet hatte. Erfolge und eine Rückkehr in die Heimat. Filmproduktionen wurden immer aufwändiger, der Erfolg an der Kinokasse immer wichtiger. Diverse Projekte, die Hitchcock reizten und die er mehr oder weniger intensiv plante, kamen so aus Angst der Produzenten nicht zustande – etwa "Mary Rose", die geplante Verfilmung eines skurrilen Theaterstücks. Mit "R.R.R.R.", einem Film mit vielen Verwicklungen über eine italienische Ganoven-Familie in New York, wollte er Jahre nach "Der unsichtbare Dritte" wieder einen komischen Thriller drehen und damit alle Nachahmer "(Charade", "Topkapi" und andere) übertreffen. Das weit fortgeschrittene Projekt scheiterte schließlich an unüberbrückbaren sprachlichen und kulturellen Problemen mit den italienischen Mitarbeitern. Am 7. März 1965 erhielt Hitchcock für seinen „historischen Beitrag zum amerikanischen Kino“ den "Milestone Award" der "Producers Guild Of America" – die erste von vielen Ehrungen für sein Lebenswerk. Mit "Der zerrissene Vorhang" (1966) kehrte Hitchcock schließlich zum Genre des Spionagefilms zurück, in dem er bereits in den 1930er Jahren in England große Erfolge gefeiert hatte. Die Premiere dieses 50. Hitchcock-Filmes sollte mit einer groß angelegten Marketingkampagne begleitet werden. Nicht nur aus diesem Grund setzte Universal die aktuellen Stars Paul Newman und Julie Andrews gegen Hitchcocks Widerstand als Hauptdarsteller durch. Überdies kam es zum Bruch mit dem Komponisten Bernard Herrmann, als dieser nicht die von Universal gewünschte, auch für den Schallplattenverkauf geeignete Unterhaltungsmusik vorlegte. Auch an anderen wichtigen Positionen seines Stabes musste Hitchcock auf vertraute Mitarbeiter verzichten. "Der zerrissene Vorhang" fällt handwerklich und dramaturgisch gegenüber Hitchcocks letzten Filmen (einschließlich "Marnie)" deutlich ab und wurde von der Kritik durchweg verrissen. Universal forderte von ihm zeitgemäßere Themen ein. Als das von ihm und Howard Fast detailliert ausgearbeitete Drehbuch über einen homosexuellen Frauenmörder abgelehnt wurde, zog er sich für ein Jahr ins Privatleben zurück. Anfang 1968 entschloss er sich unter dem Druck der langen Pause seit dem letzten Film und der noch längeren Zeitspanne seit dem letzten Erfolg, den Spionageroman "Topas" von Leon Uris zu verfilmen, dessen Rechte Universal kurz zuvor erworben hatte. "Topas" wurde dann fast ausschließlich mit europäischen Schauspielern besetzt und völlig ohne Hollywood-Stars. Die für amerikanische Zuschauer bekanntesten Gesichter waren der Fernsehschauspieler John Forsythe und der aus Kanada stammende John Vernon. Das endgültige Drehbuch wurde erst während der laufenden Dreharbeiten geschrieben, der Schluss nach einer katastrophalen Preview improvisiert. Publikum und Kritik reagierten mit Ablehnung auf Hitchcocks bis dahin teuersten Film, doch er zeigte sich zuversichtlich: „Ich habe meinen letzten Film noch nicht gedreht. "Topas" ist mein 51. Film, aber wann ich meinen letzten Film drehen werde, ist von mir, meinen Finanziers und Gott noch nicht entschieden worden.“ Im Spätsommer 1970 nahm Hitchcock sein nächstes Projekt in Angriff und reiste dafür wieder in seine Heimat, wo er diesmal begeistert empfangen wurde. "Frenzy" (1972) spielt in London, dem Hitchcock eine liebevolle Hommage erweist, und ist in seinen Worten „… die Geschichte eines Mannes, der impotent ist, und sich deshalb durch Mord ausdrückt“. Zunächst verliefen die Drehbucharbeit und auch die Dreharbeiten, die Hitchcock so ernst nahm wie lange nicht mehr, weitgehend reibungsfrei. Doch als seine Frau Alma einen Herzinfarkt erlitten hatte, wurde Hitchcock müde und untätig; die Crew war, ähnlich wie bei den drei vorangegangenen Filmen, wieder weitgehend auf sich alleine gestellt. Dennoch wurde "Frenzy" ein brutaler, zum Teil bitterer und mit tiefschwarzem britischen Humor durchzogener Film und ein großer Erfolg. Nur in England war man enttäuscht und bemängelte vor allem die anachronistisch wirkende Darstellung von London und des britischen Lebens. Der letzte Film. Im Frühjahr 1973 entschloss sich Hitchcock, den Roman "The Rainbird Pattern" von Victor Canning zu verfilmen. Doch die Arbeit am Drehbuch mit Ernest Lehman "(Der unsichtbare Dritte)" ging diesmal nicht mehr so reibungslos vonstatten: Hitchcock war merklich müde geworden, seine körperlichen Schmerzen betäubte er zunehmend mit Alkohol. Zwei Jahre benötigte die Fertigstellung des Drehbuchs, so lange wie nie zuvor in seiner Karriere. Mit "Familiengrab," wie der Film schließlich hieß, kehrte Hitchcock zum scheinbar heiteren, diesmal jedoch morbid akzentuierten Unterhaltungsthriller zurück. Wie stets legte er Wert auf eine ausgeklügelte Bildsprache, die erneut mit Hilfe von Storyboards erarbeitet wurde. Die Dreharbeiten gestalteten sich reibungslos und in einer entspannten Atmosphäre. Hitchcock, der sich im Rahmen seiner gesundheitlichen Möglichkeiten mit einem lange nicht gezeigten Elan in die Dreharbeiten einbrachte, zeigte sich zu Neuerungen bereit: Er war offen für Improvisationen seiner Schauspieler und nahm noch während der Dreharbeiten Änderungen am Ablauf vor. Die Überwachung der Schnittarbeiten musste er weitgehend seinen Mitarbeiterinnen Peggy Robertson und Suzanne Gauthier überlassen, da sich sein Gesundheitszustand deutlich verschlechterte. Zudem erlitt Alma einen zweiten Schlaganfall. "Familiengrab" wurde nach seiner Premiere im Frühjahr 1976 überwiegend freundlich aufgenommen, und Hitchcock schöpfte aus der Sympathie, die ihm entgegenschlug, für kurze Zeit Kraft, neue Filmideen aufzugreifen. Sein erst Anfang 1978 in Angriff genommenes Projekt, die Verfilmung des Romans "The Short Night" von Ronald Kirkbride, wurde aufgrund seines sich weiter verschlechternden Gesundheitszustands jedoch etwa ein Jahr später von Universal gestoppt. Im März 1979 wurde er vom American Film Institute für sein Lebenswerk geehrt. Zwei Monate später schloss er sein Büro auf dem Gelände der "Universal"-Studios. Am 3. Januar 1980 wurde Hitchcock in den britischen Adelsstand erhoben. Am Morgen des 29. April 1980 starb Alfred Hitchcock in seinem Haus in Los Angeles an Nierenversagen. Sein Körper wurde eingeäschert, die Asche an einem unbekannten Ort verstreut. Inhalte und Formen. In rund fünfzig Jahren hat Alfred Hitchcock dreiundfünfzig Spielfilme als Regisseur begonnen und beendet. Die weitaus größte Zahl dieser Filme gehört dem Genre des Thrillers an und weist ähnliche Erzählmuster und Motive auf, wiederkehrende Elemente, visuelle Stilmittel und Effekte, die sich wie ein roter Faden durch sein Gesamtwerk ziehen. Motive. Das Grundmotiv in Hitchcocks Filmen bildet meist die Angst vor Vernichtung der Existenz vor dem Hintergrund bürgerlicher Werte. Dabei bezieht sich diese Angst nicht nur auf Mörder, Gangster oder Spione, welche die bürgerliche Ordnung angreifen: Die Hauptfiguren befinden sich sogar häufig in der Situation, auch von Vertretern des Gesetzes bedroht zu werden. Zu diesem Motiv der Angst kommt – Hitchcocks katholischer Prägung entsprechend – jenes von Schuld und Sühne hinzu. Der unschuldig Verfolgte in seinen Filmen ist „unschuldig, aber nur in Bezug auf das, was man ihm vorwirft.“ Das heißt, die Figur wird durch das, was ihr im Laufe des Filmes widerfährt, im übertragenen Sinne für andere Defizite oder Vergehen bestraft: In "Bei Anruf Mord" etwa wird die Hauptfigur des Mordes verdächtigt; tatsächlich musste sie aus Notwehr töten. Das folgende Unheil kann jedoch als Strafe für ihren begangenen Ehebruch angesehen werden. Eine Variation dieses Themas ist die Übertragung der Schuld auf eine andere Person. Unschuldige werden zu (Mit-)Schuldigen an Verbrechen anderer, da sie aus persönlichen Gründen nicht zur Aufklärung beitragen können. Zentral sind hierbei die beiden Filme "Ich beichte" und "Der Fremde im Zug", in denen die jeweiligen Protagonisten von Morden, die andere begangen haben, profitieren und, nachdem sie selbst unter Verdacht geraten, keine Möglichkeit haben, sich zu entlasten. In "Vertigo" macht der wahre Mörder die Hauptfigur durch ein Komplott zunächst scheinbar zum Schuldigen am Tod der ihr anvertrauten Person. Später macht sich das Opfer der Intrige tatsächlich am Tod der Frau schuldig, die er liebt. Falsche Verdächtigungen, aber auch ausgeprägte Schuldkomplexe, gehen bei Hitchcocks Filmen mit der Bedrohung der Identität einher. Seine traumatisierten oder verfolgten Figuren nehmen selbst falsche Namen an oder werden – aus unbekannten Gründen – für jemand anderen gehalten. Das Motiv des Identitätsverlusts spielt Hitchcock, angefangen von seinem ersten bis zu seinem letzten Film, in unterschiedlichsten Varianten durch, besonders einprägsam in "Vertigo": Die weibliche Hauptfigur wird zunächst im Rahmen eines Mordkomplotts in eine andere Person (die anschließend ermordet wird) verwandelt und nimmt daraufhin wieder ihre eigentliche Identität an, nur um anschließend wieder in die andere Person zurückverwandelt zu werden. Oft stehen Schuld und Bedrohung in Zusammenhang mit sexuellen Aspekten. In "Der Fall Paradin" genügt bereits der Gedanke an Ehebruch, um das Leben des Protagonisten zu gefährden. In "Berüchtigt" ist der Zusammenhang zwischen Sex, Schuld und Bedrohung zentrales Thema. Hitchcocks Verbindung von Sex und Gewalt wird in Mordszenen deutlich, die er oft wie Vergewaltigungen inszeniert, etwa der Schlusskampf zwischen Onkel und Nichte Charlie in "Im Schatten des Zweifels", die Scherenszene in "Bei Anruf Mord" und die Duschszene in "Psycho". Darüber hinaus spielt Sexualität gerade in abnorm empfundenen Erscheinungsformen eine große Rolle in seinem Werk. Aufgrund der Auflagen der Zensur werden jedoch Homosexualität, die in Verbindung mit Schuld und Verderben regelmäßig vorkommt, oder Nekrophilie (in "Vertigo)" nur in einzelnen Gesten oder Schlüsselszenen angedeutet. Auch Fetischismus "(Erpressung", "Vertigo", "Psycho)" und Voyeurismus "(Das Fenster zum Hof", "Psycho)" spielen in seinen Filmen eine gewisse Rolle. In mehreren Filmen wird zudem ein erotischer Bezug der männlichen Hauptfiguren zu ihren Müttern angedeutet, etwa in "Psycho" und "Die Vögel". Zentral in diesem Zusammenhang ist "Berüchtigt". Hier verhalten sich Claude Rains und Leopoldine Konstantin in manchen Schlüsselszenen wie ein Ehepaar. Dieser Eindruck wird durch den geringen Altersunterschied der Schauspieler von nur vier Jahren verstärkt. Unter den in Hitchcocks Bildsprache verwendeten Symbolen finden sich Vögel als Vorboten des Unglücks (etwa in "Erpressung", später als vorherrschendes Thema in "Die Vögel)", Treppen, die Verlust oder Freiheit bedeuten können "(Berüchtigt", "Psycho", "Vertigo" und andere), sowie Handschellen und andere Fesseln, um Abhängigkeit und Ausgeliefertsein auszudrücken, meist im sexuellen Kontext (Beispiel: "Der Mieter)". Auch Spiegel tauchen bei Hitchcock regelmäßig auf – in Zusammenhang mit dem Verlust oder der Erkenntnis der eigenen Persönlichkeit oder als allgemeines Symbol für Täuschungen (einprägende Beispiele: "Vertigo" und "Psycho"). Figuren. Die meisten Protagonisten in Hitchcocks Thrillern sind Normalbürger, die zu Beginn der Geschichte in der Regel nichts mit kriminellen Machenschaften zu tun haben. Meist werden sie durch Zufall oder unbekannte Umstände in geheimnisvolle und bedrohliche Vorgänge gezogen. Dem Zuschauer wird so das beunruhigende Gefühl vermittelt, dass auch er jederzeit in derartige Situationen geraten könnte. Professionelle Agenten oder Spione findet man dagegen nur selten unter den Hauptfiguren, obwohl Hitchcock viele Filme drehte, die im Agentenmilieu spielen. Hitchcock drehte bis auf eine Ausnahme ("Erpressung", 1929) auch nie einen Film, in dem die Arbeit der Polizei im Mittelpunkt steht; aktive Polizisten tauchen ansonsten nur als Nebenfiguren und üblicherweise als Hindernis auf. Männliche Antihelden. Der Prototyp des Antihelden bei Hitchcock sind die von James Stewart gespielten Figuren: In "Cocktail für eine Leiche" muss der von Stewart dargestellte Lehrer erkennen, dass zwei seiner Studenten eine seiner Theorien zum Anlass nahmen, einen Mord zu verüben und diesen mit seinen Thesen zu rechtfertigen; am Ende steht er hilflos vor diesem menschlichen Abgrund, in den er nicht nur hineingezogen wurde, sondern den er sogar mit heraufbeschworen hat. In "Das Fenster zum Hof" stellt Stewart eine Figur dar, die bindungsscheu sowie körperlich beeinträchtigt und voyeuristisch veranlagt ist und dadurch in Schwierigkeiten kommt. Es gibt nur wenige positive, ungebrochene Helden bei Hitchcock. Ein Schauspieler, der diesen seltenen Rollentypus verkörperte, war Cary Grant in "Über den Dächern von Nizza" und in "Der unsichtbare Dritte". Diese Figuren meistern die Herausforderungen zwar mit Charme und Leichtigkeit, doch stehen sie in Verdacht, kriminell zu sein beziehungsweise verlieren sie zeitweise die Kontrolle, womit selbst sie keine gänzlich unantastbaren Helden sein können. Aber sogar Cary Grant spielt in zwei seiner Hitchcock-Filme Figuren, deren Schattenseiten sich zeitweise vor deren positive Merkmale schieben. Im Laufe der Karriere Hitchcocks gewinnen ambivalente oder gar negativ gezeichnete Hauptfiguren immer stärker an Gewicht. Diese "Antihelden" weisen physische oder psychische Probleme auf, sind Verlierertypen oder unsympathisch. Durch ihr obsessives Fehlverhalten wirken sie schwach und können Schaden anrichten. Diese Figuren dienen zwar kaum als Vorbild, doch soll deren ambivalente Persönlichkeit dazu beitragen, dass sich der Zuschauer in ihnen wiederfinden kann. Starke Frauen. In vielen Filmen bedient Hitchcock auf den ersten Blick das klassische Motiv der schwachen, zu beschützenden Frau. Doch während das Klischee verlangt, dass der strahlende Held sie rettet, ist sie bei Hitchcock oft auf sich alleine gestellt. In einigen Fällen ist der vermeintliche Beschützer schwach oder zu sehr mit sich selbst beschäftigt, als dass er der bedrohten Frau helfen könnte, wie zum Beispiel Ingrid Bergman und Cary Grant in "Berüchtigt". In anderen Fällen geht von der männlichen Hauptfigur (in der Regel dem Ehemann) sogar ein tatsächliches oder vermeintliches Bedrohungspotential aus. Klassische Beispiele: Joan Fontaine und Cary Grant in "Verdacht" sowie Grace Kelly und Ray Milland in "Bei Anruf Mord". Die Rollenverteilung zwischen Mann und Frau kehrt Hitchcock in einigen Filmen gänzlich um: Die Frau ist dem Mann, der zunehmend passiver wird, überlegen und wendet das Geschehen zum Guten. Beispiele sind "Jung und unschuldig" (die Tochter des Polizeichefs verhilft einem Verdächtigen zur Flucht und löst letztendlich den Fall), "Ich kämpfe um dich" (eine Psychologin dringt in das Unterbewusste des Mordverdächtigen ein und rettet ihn vor der sicheren Verurteilung) sowie "Der Mann, der zuviel wußte" (die Ehefrau verhindert zuerst einen geplanten Mord und rettet dann das eigene Kind vor den Verbrechern). Der Typ, der sich dabei im Laufe der Zeit herauskristallisierte, ist jener der jungen, schönen, kühlen, hintergründigen und undurchsichtigen Blondine. Die oberflächliche Kühle der Hitchcock-Blondine verbirgt jedoch eine stark entwickelte Sexualität. Besonders deutlich wird dies in "Der unsichtbare Dritte", wenn Eva Marie Saint zunächst gegenüber Cary Grant zweideutige Bemerkungen macht, dann plötzlich den völlig überraschten Fremden küsst und ihn ohne Zögern in ihrem Schlafwagenabteil unterbringt. Nicht der Mann, sondern die (blonde) Frau spielt hier den aktiven Part und zeigt damit die Fragilität des männlichen, bürgerlichen Weltbildes. Sympathische Schurken. Hitchcock legt durch seine Gestaltung von Figuren und Dramaturgie dem Zuschauer eine Identifikation mit dem Schurken nahe. Seine Antagonisten wirken zuweilen auffällig sympathisch und übertreffen mitunter die Ausstrahlung der Hauptfiguren. Oft konkurrieren Held und Bösewicht um dieselbe Frau; die Liebe des Gegenspielers erscheint dabei tiefer und aufrichtiger als die des Helden. Besonders auffällig ist dies in "Berüchtigt" (Claude Rains gegenüber Cary Grant) und in "Der unsichtbare Dritte" (James Mason wiederum gegenüber Cary Grant). Selbst ein ausgesprochen heimtückischer Schurke wie Ray Milland in "Bei Anruf Mord" wirkt in einzelnen Momenten gegenüber dem unbeholfenen Robert Cummings sympathischer, in jedem Fall jedoch gegenüber der Polizei vertrauenserweckender. Oft sind sie die eigentlichen Hauptfiguren, wie Joseph Cotten als charmanter Witwenmörder in "Im Schatten des Zweifels" oder Anthony Perkins als linkischer, von seiner Mutter gepeinigter Mörder in "Psycho". Dominante Mütter. In vielen seiner Filme – ab Mitte der 1940er Jahre regelmäßig – tauchen dominante Mütter auf, die einen beunruhigenden Einfluss auf ihre meist erwachsenen Kinder ausüben und zum Teil Auslöser oder Ursache dramatischer Ereignisse sind. Erstmals uneingeschränkt bösartig erscheint die Mutter in "Berüchtigt" (1946), die ihren Sohn zum Mord an der Frau, die er liebt, antreibt. In "Die Vögel" (1963) erträgt es die Mutter von Mitch (Jessica Tandy) nicht, dass ihr erwachsener Sohn (Rod Taylor) sich für eine andere Frau interessiert. In "Marnie" (1964) wird das Leben der Tochter durch einen von der Mutter übertragenen Schuldkomplex beinahe zerstört. In zwei Filmen variiert Hitchcock dieses Rollenmuster: In "Rebecca" und "Sklavin des Herzens" übernehmen Haushälterinnen die Funktion der dämonischen Mutter. Zwielichtige oder leichtgläubige Beamte. Üblicherweise positiv besetzte Figuren wie Polizisten, Richter oder andere Vertreter des Staates erscheinen oft zwiespältig: Sie sind nicht in der Lage, die Helden zu beschützen, oder stellen sogar eine Bedrohung für diese dar. Polizisten verdrehen das Recht, sie handeln aus persönlichen Motiven, sie glauben dem ersten Anschein und schützen den tatsächlich Schuldigen aufgrund dessen vordergründig tadellosen Erscheinens, sie sind tollpatschig oder arbeiten schlampig. Dieses Rollenmuster durchzieht Hitchcocks gesamtes Werk, von "Der Mieter" (1927) bis "Frenzy" (1972). Darüber hinaus finden sich vereinzelt Geheimdienstmitarbeiter unter den Nebenfiguren, die sich als Gegner (das Ehepaar Drayton in "Der Mann, der zuviel wußte" (1956)) oder als Helfer offenbaren, wobei auch letztere Schwierigkeiten bringen können – beispielsweise der „General“ (Peter Lorre) in "Geheimagent" oder Leo G. Carroll als CIA-Mitarbeiter in "Der unsichtbare Dritte". Indem die feste Trennlinie zwischen Gut und Böse verschwimmt, soll beim Zuschauer das Gefühl der Verunsicherung gesteigert werden. Dramaturgie. Hitchcocks Credo lautete: „For me, the cinema is not a slice of life, but a piece of cake.“ („Für mich ist das Kino keine Scheibe vom Leben, sondern ein Stück vom Kuchen.“) Film war für ihn eine artifizielle Kunstform. Nur einmal – in "Der falsche Mann" – wich er von diesem Grundsatz ab. Aber auch hier liegt der Akzent auf jenen Elementen, die nicht dokumentarisch sind – etwa der subjektiven Perspektive des unschuldig Verdächtigten und seiner hilflosen Frau. Einigen seiner weiteren Filme liegen zwar auch reale Ereignisse zugrunde ("Der zerrissene Vorhang", "Das Fenster zum Hof", "Der Auslandskorrespondent" oder "Cocktail für eine Leiche"), doch werden diese soweit fiktionalisiert, dass außer dem Grundmotiv kein Bezug zu der ursprünglichen Geschichte übrig bleibt. Eine nicht verwirklichte Idee für "Der unsichtbare Dritte", die Hitchcock im Interview mit Truffaut erwähnt, verdeutlicht Hitchcocks Vorstellungen davon, die Realität zu transzendieren: Er wollte zeigen, wie unter den Augen Cary Grants auf einem Fließband ein Auto zusammengebaut wird und anschließend aus dem fertiggestellten Auto eine Leiche fällt – nach realistischen Maßstäben unmöglich. Doch Hitchcocks Begründung für das Verwerfen der Idee zeigt, dass er sich in solchen Fragen nicht an der Wahrscheinlichkeit orientierte: „Wir haben die Idee in der Geschichte nicht richtig unterbringen können, und selbst eine willkürliche Szene kann man nicht ohne Motiv ausführen.“ Den Vorwurf, Gesetze der Plausibilität zu missachten, nahm er bewusst in Kauf: „Wenn man alles analysieren wollte und alles nach Erwägungen der Glaubwürdigkeit und Wahrscheinlichkeit konstruieren, dann würde keine Spielfilmhandlung dieser Analyse standhalten, und es bliebe einem nur noch eines übrig: Dokumentarfilme zu drehen.“ Hitchcock vertraute darauf, dass die Zuschauer unwahrscheinliche Details akzeptieren würden, da er diese nur verwendete, um die Handlung zu dramatisieren, voranzutreiben oder zu straffen. Für bewusste Irritation sorgte auch Hitchcocks Spiel mit filmtypischen Klischees. So vermied er es insbesondere bei den Nebenrollen, Schauspieler nach festgelegtem Typ zu besetzen. Zu früheren Zeiten war es außerdem üblich, dass Schurken Schnurrbärte trugen. Auch bei der Wahl seiner Spielorte entzog sich Hitchcock den Genre-Gesetzen. So ließ er Verbrechen und bedrohliche Szenen häufig nicht in unheimlichen, dunklen Räumen stattfinden, sondern bei hellem Tageslicht und an scheinbar harmlosen Orten wie einem mit Menschen übersäten Marktplatz "(Der Mann, der zuviel wußte" (1956) und "Der Auslandskorrespondent)", in einer menschenleeren Landschaft, auf einer öffentlichen Versteigerung und in einer Hotelhalle "(Der unsichtbare Dritte)", auf einer idyllischen Bergstraße "(Über den Dächern von Nizza)", auf einer Party ("Berüchtigt" und "Jung und unschuldig") in einer voll besetzten Konzerthalle (beide "Der Mann, der zuviel wußte") oder in einem mit lauter freundlichen Menschen besetzten Eisenbahnzug "(Eine Dame verschwindet)". Suspense. Die klassische, auf das Überraschungsmoment aufbauende Form des Kriminalfilms ist der Whodunit. Bis auf nur wenige Ausnahmen bediente sich Hitchcock jedoch einer anderen Form des Spannungsaufbaus, dem sogenannten Suspense: Dem Zuschauer sind ab einem gewissen Zeitpunkt Informationen oder Umstände bekannt, von denen die handelnden Personen nichts wissen. Er fiebert in besonderer Weise mit den Helden, er sieht Ereignisse kommen, möchte den Figuren helfen, kann es aber nicht. In einigen Filmen wird das klassische Suspense dahingehend variiert, dass handelnde Personen die Rolle des Zuschauers übernehmen. Ein Beispiel von vielen: In "Das Fenster zum Hof" dringt Lisa in die Wohnung des verdächtigen Nachbarn ein, um nach Beweisen für einen möglichen Mord zu suchen. Ihr Partner Jeff beobachtet das Geschehen von der gegenüber liegenden Wohnung aus und sieht dabei den Nachbarn vorzeitig zurückkommen. Er vermutet sie in Lebensgefahr, kann ihr aber nicht helfen. Für einige markante Szenen baute Hitchcock zudem bewusst eine Suspense-Situation auf, um den Zuschauer mit einem umso gewaltigeren Überraschungseffekt schockieren zu können. Ein berühmtes Beispiel findet sich in "Psycho": Zum einen ist Marion Crane mit verschiedenen Insignien einer typischen Hauptfigur eines Hitchcockfilms ausgestattet, so dass kaum jemand erwartet, dass sie bereits in der ersten Hälfte des Films stirbt. Zum anderen schaltet Hitchcock der Duschszene selbst einen Suspense-Moment vor. Norman Bates beobachtet Marion Crane durch ein Loch in der Wand beim Entkleiden. Sie geht unter die Dusche. Der Zuschauer wird nun eben keinen Mord, sondern schlimmstenfalls eine Vergewaltigung durch Norman befürchten. Der bestialische Mord ist somit völlig überraschend und damit ein Grund für die Berühmtheit der Szene. MacGuffin. Ein von Hitchcock in seinen Thrillern sehr häufig verwendetes Mittel war der sogenannte MacGuffin: ein Element, das die Handlung vorantreibt oder sogar initiiert, obwohl es für die Entwicklung der Figuren und für den Zuschauer inhaltlich völlig bedeutungslos, geradezu austauschbar ist. Der MacGuffin in "Der unsichtbare Dritte" sind schlicht „Regierungsgeheimnisse“, über die der Held oder der Zuschauer nie mehr erfährt. In "Psycho" benutzt Hitchcock unterschlagenes Geld, das die Sekretärin zur Flucht treibt und so in „Bates Motel“ führt, um das Publikum anfangs gezielt in die Irre zu führen und für einen Kriminalfall zu interessieren, der mit der eigentlichen Handlung nur am Rande zu tun hat. Die mysteriösen „39 Stufen“ im gleichnamigen Film sind eine Geheimorganisation, über die bis kurz vor Ende des Films überhaupt nichts bekannt ist, außer, dass sie gefährlich ist. Ein besonders außergewöhnlicher MacGuffin ist die als Volksliedmelodie getarnte Geheimdienstinformation aus Eine Dame verschwindet. Filmische Mittel. Beeinflusst vom Stummfilm beruhte Hitchcocks Filmverständnis auf dem Anspruch, alles Wichtige in seinen Filmen visuell und so wenig wie möglich durch Dialoge auszudrücken. Seine typischen Kameraeinstellungen geben im Bild genau das wieder, was für das Verständnis der Szene wesentlich ist – auch um dem Zuschauer nicht die Möglichkeit zu geben, sich durch unwesentliche Details ablenken zu lassen. So wirken beispielsweise Kussszenen bei Hitchcock immer sehr intim, da er gewöhnlich mit der Kamera sehr nahe an die beiden sich Küssenden heranfuhr und den Zuschauer sozusagen zum dritten Umarmenden zu machen. Zu den berühmtesten Beispielen dieser visuellen Erzählweise zählen die Duschszene aus "Psycho", der Flugzeugangriff auf Cary Grant und die Jagd auf Mount Rushmore in "Der unsichtbare Dritte", die Versammlung der Vögel auf dem Klettergerüst in "Die Vögel" oder die zehnminütige Konzertszene in der Royal Albert Hall in "Der Mann, der zuviel wußte" von 1956. Hitchcocks visueller Arbeitsstil drückt sich unter anderem in den Expositionen vieler seiner Filme aus. Er bringt den Zuschauern die handelnden Figuren und die Umstände der folgenden Handlung ohne die Verwendung von Dialogen nahe. Die Länge dieser Einführungen variierte zwischen wenigen Sekunden und mehreren Minuten. Erstmals verfolgte er diese Technik 1929 in seinem ersten Tonfilm "Erpressung". Zudem tauchen in Hitchcocks Filmen immer wieder ungewöhnliche filmische Operationen auf, um die Stimmung und Spannung bewusst zu verstärken, beispielsweise eine gegenläufige Zoom-Fahrtbewegung in "Vertigo" (später auch als "Vertigo-Effekt" bezeichnet), lange Kamerafahrten wie die aus einer Totale eines großen Raums bis in die Naheinstellung eines Schlüssels in einer Hand (in "Berüchtigt") oder auf ein zuckendes Auge (in "Jung und unschuldig") sowie die aus ungefähr siebzig Einstellungen bestehende fünfundvierzig Sekunden lange Mordszene unter der Dusche in "Psycho", unmittelbar gefolgt von einer etwa einminütigen Kamerafahrt ohne einen einzigen Schnitt. Der Production Designer Robert Boyle, mit dem Hitchcock bei fünf Filmen zusammenarbeitete, meinte: „Keiner der Regisseure, mit denen ich je zusammengearbeitet habe, wusste soviel über Film wie er. Viele der Regisseure, mit denen ich gearbeitet habe, wussten eine ganze Menge, aber sie besaßen nicht die technischen Fähigkeiten, die er hatte. Er suchte immer nur den visuellen Ausdruck, und so etwas wie eine zufällige Einstellung gab es bei ihm nicht.“ Nur einmal griff Hitchcock aus Experimentierfreude auf einen filmtechnischen Kniff zurück, der sich nicht unmittelbar aus der Dramaturgie ergab. In "Cocktail für eine Leiche" (1948) drehte er bis zu zehn Minuten lange Einstellungen, die er zum großen Teil sogar über unsichtbare Schnitte ineinander übergehen ließ. Er wollte damit bei dieser Theaterverfilmung die Einheit von Zeit und Raum dokumentieren. Später gab er zu, dass es ein Fehler war, damit gleichzeitig den Schnitt als wesentliches gestaltendes Instrument der Dramaturgie aus der Hand zu geben. Licht und Farben. Inspiriert von amerikanischen und deutschen Filmemachern, setzte Hitchcock schon bei seinen ersten Filmen Licht- beziehungsweise Schatteneffekte ein. Typisch für Hitchcock sind Linien und Streifen in Form von Schatten (durch Gitter, Jalousien oder ähnliches verursacht), die vor allem auf Gesichter fallen und die unheilvolle Atmosphäre verstärken sollen. Darüber hinaus verwendet er in einzelnen Szenen sehr starke, zum Teil unnatürlich wirkende Kontraste, um einen äußeren oder inneren Gut-Böse-Gegensatz zu visualisieren. Dieses Hell-Dunkel-Spiel unterstützte er durch die Kostüme der Figuren. So ließ er Ingrid Bergman am Anfang von "Berüchtigt" gestreifte Kleidung tragen, um ihre Zerrissenheit zu unterstreichen. In "Der Mieter" trug Ivor Novello zu Beginn Schwarz, später, um seine Unschuld auch nach außen hin deutlich zu machen, Weiß. Die Methode, durch die Farbgebung der Kostüme den emotionalen Zustand der Figuren zu unterstreichen, behielt Hitchcock auch für die Farbfilme bei. In "Bei Anruf Mord" wurden die Kostüme von Grace Kelly mit der Dauer des Films immer trister und grauer, entsprechend ihrer inneren Gemütsverfassung. Zu Hitchcocks Farbwahl von Grace Kellys Kleidern in "Das Fenster zum Hof" sagte die Kostümbildnerin Edith Head: „Für jede Farbe und jeden Stil gab es einen Grund; er war sich seiner ganzen Entscheidung absolut sicher. In einer Szene sah er sie in blassem Grün, in einer anderen in weißem Chiffon, in einer weiteren in Gold. Er stellte im Studio tatsächlich einen Traum zusammen.“ In seinen späteren Filmen, allen voran "Marnie" und "Vertigo", gab es eine ausgefeilte, die Kostüme, die Dekors und die Beleuchtung umfassende Farbdramaturgie. Tricktechnik. Nach Hitchcocks Filmverständnis schafft sich der Film seine eigene Realität und soll oder darf kein Abbild des wahren Lebens sein. Die Nutzung sämtlicher Möglichkeiten, genau das wiederzugeben, was der Regisseur sich vorstellt, ist nach diesem Verständnis nicht nur legitim, sondern erforderlich. Hitchcock hat die Entwicklung der Tricktechnik aufmerksam beobachtet und schon sehr früh – gelegentlich zum Missfallen seiner Produzenten – neue Trickverfahren eingesetzt, zum Beispiel das Schüfftan-Verfahren (bei "Erpressung") oder das Matte Painting. In seinen englischen Thrillern, vor allem in "Nummer siebzehn" und "Jung und unschuldig", arbeitete Hitchcock bei Verfolgungsjagden oft und erkennbar mit Modellen. In "Eine Dame verschwindet" sind die Rückprojektionen während der Zugfahrt aber bereits so ausgereift, dass sie noch Jahrzehnte später überzeugen. Ähnliches gilt für die Schlussszene von "Der Fremde im Zug", in der zwei Männer auf einem sich immer schneller drehenden Karussell kämpfen – in einer virtuosen Kombination von Realeinstellungen, Modellen und Rückprojektionen. "Die Vögel" (1963) beinhaltet rund vierhundert Trickeinstellungen, für die Hitchcock auf sämtliche damals verfügbaren Tricktechniken zurückgriff, unter anderem auch auf das ansonsten für Animationsfilme verwendete Rotoskopieverfahren. Ton und Musik. Hitchcock hat seit dem Aufkommen des Tonfilms Musik und Toneffekte eingesetzt, um die Dramaturgie bewusst zu unterstützen. Den Umgang Hitchcocks mit dem Medium Ton beschrieb die Schauspielerin Teresa Wright "(Im Schatten des Zweifels)" folgendermaßen: „Wenn ein Schauspieler mit den Fingern trommelte, war das nicht ein zweckloses Trommeln, es hatte einen Rhythmus, ein musikalisches Muster – es war wie ein Geräusch-Refrain. Ob jemand nun ging oder mit Papier raschelte oder einen Umschlag zerriss oder vor sich hin pfiff, ob das Flattern von Vögeln oder ein Geräusch von draußen war, alles wurde sorgfältig von ihm orchestriert. Er komponierte die Toneffekte wie ein Musiker Instrumentenstimmen.“ Gegenüber Truffaut erwähnte Hitchcock, dass er nach dem Endschnitt eines Films seiner Sekretärin ein „Tondrehbuch“ diktiert, das alle von ihm gewünschten Geräusche enthält. In "Mord – Sir John greift ein!" (1930) hat er, da ein nachträgliches Bearbeiten der Tonspur zu diesem Zeitpunkt technisch noch nicht möglich war, ein komplettes Orchester hinter den Kulissen versteckt, um die entsprechenden Stellen musikalisch zu untermalen. Weitere klassische Beispiele für Hitchcocks dramaturgischen Musikeinsatz sind "Geheimagent" (1936, der Dauerakkord des toten Organisten in der Kirche), "Eine Dame verschwindet" (1938, die Melodie mit dem Geheimcode und der „Volkstanz“), "Im Schatten des Zweifels" (1943, der „Merry-Widow“-Walzer), "Der Fremde im Zug" (1951, die Szenen auf dem Rummelplatz) und "Das Fenster zum Hof" (1954, die im Laufe des Films entstehende Komposition des Klavierspielers). In "Der Mann, der zuviel wußte" (1956) schließlich wird Musik, sowohl orchestral wie auch gesungen, aktiv inszeniert und dramaturgisch eingebunden: Sie spielt eine wesentliche Rolle in der Gesamtdramaturgie des Films. Die Musik der Filme aus den späten 1950er und frühen 1960er Jahren, der Zeit als Hitchcock mit dem Komponisten Bernard Herrmann zusammenarbeitete, ist tragendes Element der jeweiligen Filme. Kritiker bescheinigen der Musik der Filme "Vertigo", "Der unsichtbare Dritte" und "Psycho" sowie den Toneffekten von Oskar Sala zu "Die Vögel" wesentlich zum jeweiligen Gesamteindruck des Films beizutragen. Vorbilder. Hitchcock war beeindruckt von den Filmen, die er in seiner Jugend und in seinen frühen Jahren im Filmgeschäft sah, etwa jene von D. W. Griffith, Charlie Chaplin, Buster Keaton und Douglas Fairbanks senior. Als Stummfilmregisseur in England übernahm er vom US-Film unter anderem die Technik, mit Hilfe von Beleuchtungseffekten Tiefe zu schaffen und den Vorder- vom Hintergrund abzusetzen, was bis in die 1930er Jahre im britischen Film unüblich war. Angetan war er auch von den deutschen Stummfilmregisseuren wie Fritz Lang und Ernst Lubitsch. F. W. Murnaus "Der letzte Mann", dessen Dreharbeiten Hitchcock 1922 in München beobachtete, bezeichnete er später als den fast perfekten Film: „Er erzählte seine Geschichte ohne Titel; Von Anfang bis Ende vertraute er ganz auf seine Bilder. Das hatte damals einen ungeheueren Einfluss auf meine Arbeit.“ Einfluss auf Hitchcocks Arbeit hatte auch "Das Cabinet des Dr. Caligari", den Robert Wiene 1919 drehte. Die Betonung des Visuellen im deutschen Expressionismus prägte seinen eigenen Umgang mit filmischen Mitteln. Abgesehen von diesen stilistischen Einflüssen vermied es Hitchcock jedoch, Szenen oder Einstellungen bekannter Filme zu zitieren. Als Ausnahme kann "Panzerkreuzer Potemkin" (1925) des sowjetischen Regisseurs Eisenstein angesehen werden. In "Die 39 Stufen", "Über den Dächern von Nizza" und einigen weiteren Filmen erinnern die vor Entsetzen schreienden Frauen an Einstellungen aus der berühmten und oft zitierten Szene an der Hafentreppe in Odessa. Es gibt außerdem in Hitchcocks Werk aus den 1940er und 1950er Jahren einige motivische und visuelle Überschneidungen mit der Gattung des Film noir, die den amerikanischen Kriminalfilm in jener Zeit bestimmte, etwa in "Im Schatten des Zweifels" und "Berüchtigt", und besonders in "Der falsche Mann", wo das Motiv der allgegenwärtigen Bedrohung der Hauptfiguren eine Rolle spielt. Darüber hinaus bediente er sich gerne einer ähnlichen, kontrastreichen Bildgestaltung, die er sich in den Grundzügen allerdings bereits in den 1920er Jahren angeeignet hatte. Auch "Vertigo" erinnert in der Grundkonstellation und der alptraumhaften Zwanghaftigkeit der Geschehnisse an einige Filme des Genres, wie zum Beispiel "Frau ohne Gewissen", hebt sich jedoch formal und stilistisch deutlich vom Film noir ab. Als typischer Vertreter des Genres kann Hitchcock jedenfalls nicht angesehen werden. Obsessionen. Seine Vorliebe für Blondinen erklärte Hitchcock gegenüber Truffaut wie folgt: „Ich finde, die englischen Frauen, die Schwedinnen, die Norddeutschen und die Skandinavierinnen sind interessanter als die romanischen, die Italienerinnen und die Französinnen. Der Sex darf nicht gleich ins Auge stechen. Eine junge Engländerin mag daherkommen wie eine Lehrerin, aber wenn Sie mit ihr in ein Taxi steigen, überrascht sie Sie damit, dass sie Ihnen in den Hosenschlitz greift.“ Ähnlich äußerte er sich 1969 gegenüber "Look" über die Truffaut-Schauspielerin Claude Jade, die bei ihm in "Topaz" gespielt hatte: „Claude Jade ist eine eher ruhige junge Dame, doch für ihr Benehmen auf dem Rücksitz eines Taxis würde ich keine Garantie übernehmen“ Dass Hitchcock zu seinen jungen blonden Schauspielerinnen ein besonderes Verhältnis hatte und ihnen mehr Aufmerksamkeit widmete als allen anderen, war schon früh bekannt. Die Sorgfalt, mit der Hitchcock bereits in den 1930er und 1940er Jahren Madeleine Carroll, Carole Lombard und insbesondere Ingrid Bergman in Szene setzte, entwickelte sich mit der Zeit zu einer sich steigernden Verquickung privater und beruflicher Interessen, die sich zu einer Obsession ausweitete. Mit Vera Miles probte er die Nervenzusammenbrüche, welche sie in "Der falsche Mann" darstellen sollte, wochenlang jeweils mehrere Stunden täglich. Für sie wie für Kim Novak ließ er von der Kostümbildnerin eine komplette Garderobe schneidern, die für ihr privates Leben gedacht war. Tippi Hedren ("Die Vögel") ließ er sogar von zwei Crew-Mitgliedern beschatten und begann, ihr Vorschriften für ihr Verhalten im Privatleben zu machen. Diese Vereinnahmung hatte ihren Höhepunkt in sich über Tage hinziehenden Aufnahmen von auf sie einstürzenden, echten Vögeln. Nach einem eindeutigen, erfolglosen Annäherungsversuch während der Arbeiten zu "Marnie" kam es schließlich zum Bruch. Die zuvor offen bekundete Zuneigung schlug ins Gegenteil um, und Hitchcock ließ keine Gelegenheit aus, Tippi Hedren bei anderen herabzusetzen. Sie blieb die letzte typische „Hitchcock-Blondine“. Zwar hielt sich Hitchcock darüber stets äußerst bedeckt, doch es gilt als gesichert, dass der Regisseur sich von diesen Schwierigkeiten lange nicht erholen konnte und in seiner kreativen Schaffenskraft beeinträchtigt war. Ebenso gelten Filme wie "Vertigo" und "Berüchtigt", aber auch "Marnie" oder "Im Schatten des Zweifels", die von neurotischen Männern handeln, die Frauen manipulieren, als stark autobiografisch. Auch die Verbindung zwischen Sex und Gewalt faszinierte Hitchcock, was vor allem in seinen späteren Werken immer deutlicher zutage tritt. Mehrfach inszenierte er vollendete oder versuchte Vergewaltigungen (schon früh in "Erpressung", später dann in "Marnie" und "Frenzy"). In drei nicht realisierten Projekten sollten Vergewaltiger oder Vergewaltigungen eine zentrale Rolle spielen. Morde inszenierte er einige Male als Vergewaltigungen, mit dem Messer als Phallus-Symbol. Doch auch der Tod durch Erwürgen oder Strangulieren übte eine gewisse Faszination auf ihn aus. Einige Würgeszenen gehören zu den bemerkenswertesten Mordszenen seiner Karriere, etwa in "Cocktail für eine Leiche", "Bei Anruf Mord", "Der zerrissene Vorhang" und "Frenzy". Sich selbst ließ er oft in „Würgerposen“ ablichten. Ähnlich offen kokettierte Hitchcock zeit seines Lebens mit seiner panischen Angst vor der Polizei. Hitchcock erzählte gerne, dass er mit fünf Jahren, nachdem er etwas angestellt hatte, von seinem Vater mit einem Zettel auf das nahegelegene Polizeirevier geschickt worden sei. Der Polizist las den Zettel und sperrte Alfred für fünf oder zehn Minuten in eine Zelle mit dem Kommentar, dies würde die Polizei mit ungezogenen Jungen so machen. In seinen Filmen geht von Polizisten stets eine latente Gefahr aus. Zu der Frage, inwieweit das von Hitchcock in seinen Filmen transportierte Bild der besitzergreifenden Mütter von der eigenen Mutter geprägt ist, gab es von ihm selbst keinerlei Aussagen. Das wenige, was man aus seiner Kindheit weiß, legt jedoch autobiographische Ursprünge nahe. Hitchcocks Mutter starb nach langer Krankheit im August 1942 – während der Dreharbeiten zu "Im Schatten des Zweifels". Dieser bereits von vornherein stark autobiographisch geprägte Film nimmt eindeutig Bezug auf Hitchcocks Verhältnis zu ihr: Der Name Emma scheint nicht die einzige Gemeinsamkeit zwischen ihr und der dominanten Mutter-Figur im Film zu sein. Zudem ist im Film noch von einer anderen gebieterischen, jedoch kranken Mutter die Rede – jener des Krimi-Besessenen Herb Hawkins, der wiederum als Selbstprojektion Hitchcocks gilt. Auffallend oft sind Toiletten in Hitchcocks Filmen zu sehen oder zu hören, in denen konspirative Dinge irgendwelcher Art stattfinden. Laut seinem Biographen Donald Spoto hatte er eine „pubertäre Fixierung“, die in seiner viktorianischen Erziehung begründet lag. Hitchcock äußerte sich zwar oft und gerne über menschliche Körperfunktionen, wollte aber den Eindruck erwecken, er selbst habe mit solchen Dingen nichts zu tun. Bezugnehmend auf seine Körperfülle, deutete Hitchcock hingegen mehrfach an, dass für ihn Essen eine Art Ersatzbefriedigung sei. So gibt es in einigen Hitchcockfilmen eine symbolische Verbindung von Essen, Sex und Tod. Zensur. In den USA galt zwischen 1934 und 1967 der "Hays Code", auch "Production Code" genannt, eine Sammlung von Richtlinien über die Einhaltung der gängigen Moralvorstellungen und über die Zulässigkeit der Darstellung von Kriminalität, Gewalt und Sexualität im Film. So musste Hitchcock zum Beispiel das geplante Ende für "Verdacht" fallen lassen, weil es Anfang der 1940er Jahre nicht möglich war, den Selbstmord einer schwangeren Frau zu zeigen. Noch bis kurz vor Schluss der Dreharbeiten hatte er kein passendes Ende für den Film gefunden. In "Berüchtigt" musste Hitchcock einen Dialog streichen, in dem sich ein Vertreter der US-Regierung positiv über die Möglichkeit einer Ehescheidung äußerte. Bei "Saboteure" drehte er politisch heikle Textstellen zur Sicherheit alternativ in entschärften Versionen. Doch in vielen Fällen gelang es ihm, die Beschränkungen durch die Zensur kreativ zu umgehen. So war es damals unter anderem nicht erlaubt, eine Toilette zu zeigen. Daher verzerrte Hitchcock in "Mr. und Mrs. Smith" die eindeutigen Geräusche einer Toilette so, dass man sie für eine Dampfheizung halten konnte. In "Psycho" zeigte er eine Toilette, in der ein Papierzettel hinuntergespült wurde. Indem er das Bild der Toilette mit einer dramaturgischen Funktion versah – das Verschwinden eines Beweisstücks musste erklärt werden – verhinderte er, dass die Szene geschnitten wurde. Niemals wurde eine Toilette zu Zeiten des Hays Code expliziter gezeigt. Da auch die Länge von Küssen im Film damals auf drei Sekunden begrenzt war, inszenierte Hitchcock den Kuss zwischen Ingrid Bergman und Cary Grant in "Berüchtigt" als Folge von einzelnen, durch kurze Dialogsätze unterbrochenen Küssen. Hitchcocks größter Sieg gegen die Zensur war die Schlussszene von "Der unsichtbare Dritte". Cary Grant und Eva Marie Saint befinden sich in einem Schlafwagen. Er zieht sie zu sich nach oben in das obere Bett, und sie küssen sich. Es erfolgt ein Umschnitt, und man sieht einen Zug in einen Tunnel rasen – eine der explizitesten Andeutungen des Sexualakts in einem US-Film zu Zeiten des "Production Code". Arbeitsweise. Einer der wichtigsten Aspekte der Arbeitsweise Alfred Hitchcocks war, dass er im Idealfall von der Stoffauswahl bis zum Endschnitt nichts dem Zufall überließ, sondern die völlige Kontrolle über die Herstellung des Films beanspruchte. Wenn Hitchcock existierende Vorlagen benutzte, etwa Romane oder Bühnenstücke, übernahm er nur einzelne Grundmotive der Handlung und entwickelte daraus zusammen mit dem jeweiligen Drehbuchautor oft eine völlig neue Geschichte. Hochwertige, komplexe Literatur sperrte sich gegen diesen Umgang und Hitchcock scheute daher deren Verfilmung – auch aus Respekt vor dem Werk. Hitchcock war meist an der Drehbucherstellung beteiligt, wurde aber nach 1932 bei keinem seiner Filme offiziell als Autor in Vor- oder Abspann erwähnt: „Ich will nie einen Titel als Produzent oder Autor. Ich habe das Design des Films geschrieben. Mit anderen Worten, ich setze mich mit dem Autor zusammen und entwerfe den ganzen Film vom Anfang bis zum Ende.“ Der Autor Samuel A. Taylor: „Mit ihm zu arbeiten, bedeutete auch mit ihm zu schreiben, was auf die wenigsten Regisseure zutrifft. Hitchcock behauptete nie, selbst ein Schriftsteller zu sein, aber in Wahrheit schrieb er doch seine eigenen Drehbücher, denn er sah bereits jede Szene deutlich in seinem Kopf vor sich und hatte eine sehr genaue Vorstellung davon, wie sie ablaufen sollte. Ich merkte, dass ich nur noch die Figuren persönlicher und menschlicher zu gestalten brauchte und sie weiter entwickeln musste.“ Gelegentlich veränderte Hitchcock im Nachhinein noch die Dialoge ganzer Szenen, etwa um die Spannungs-Dramaturgie zu verbessern (Beispiel: "Das Rettungsboot") oder um autobiographische Bezüge einzubauen (Beispiel: "Ich beichte"). Auch wenn ihm geschliffene Dialoge wichtig waren, legte Hitchcock sein Hauptaugenmerk stets auf die Ausdruckskraft der Bilder. So wurde im Idealfall jede einzelne Einstellung des Films vor Drehbeginn in Storyboards festgelegt. Seit Beginn seiner Regisseurtätigkeit verfolgte er das Ziel, jegliche Improvisation so weit es geht zu vermeiden. Gegenüber Truffaut erklärte er: „Ich habe Angst davor gehabt, im Atelier zu improvisieren, weil, selbst wenn man im Augenblick Ideen hat, bestimmt keine Zeit bleibt nachzuprüfen, was sie taugen. [… Andere Regisseure] lassen ein ganzes Team warten und setzen sich hin, um zu überlegen. Nein, das könnte ich nicht.“ Nach eigenen Aussagen bereitete Hitchcock die Planung eines Projekts mehr Freude als die eigentlichen Dreharbeiten: Durch zu viele Einflüsse – Produzenten, Technik, Schauspieler, Zeitdruck – sah er die angestrebte Kontrolle über sein Werk bedroht. Außerdem sah er im Idealfall die kreative Arbeit am Film mit Beginn der Dreharbeiten als abgeschlossen an: „Ich drehe einen vorgeschnittenen Film. Mit anderen Worten, jedes Stück Film ist entworfen, um eine Funktion zu erfüllen.“ Diese Grundsätze waren jedoch eher eine Idealvorstellung Hitchcocks. Tatsächlich wurde es ihm spätestens ab 1948 zur Gewohnheit, beim Drehen Alternativen auszuprobieren. Doch auch hier bemühte er sich um möglichst exakte Vorausplanung: Ein Beispiel hierfür ist die Belagerung des Hauses durch die Vögel in "Die Vögel". Gegenüber Truffaut beschrieb Hitchcock, wie er die ursprünglich geplante Szene noch unmittelbar am Drehort umschrieb und bis ins kleinste Detail skizzierte, so dass sie kurz darauf entsprechend diesen neuen Entwürfen gedreht werden konnte. Darüber hinaus wurde Hitchcock im Laufe seiner Karriere immer freier, auch kurzfristig vom festgelegten Drehbuch abzuweichen. Entgegen seinen Gewohnheiten ließ er sogar Improvisationen der Schauspieler zu, wenn auch nur bei eher unwichtigen Szenen. Bill Krohn ging 1999 in "Hitchcock at Work" ausführlich auf Hitchcocks Arbeitsweise ein. Er rekonstruierte auf Basis von Originalunterlagen wie Drehbuchversionen, Skripte, Storyboards, Memos, Produktionsnotizen etc. und mit Hilfe von Beteiligten die Produktionsgeschichte diverser Filme (darunter Hitchcocks berühmteste) und widerlegt Hitchcocks Bekenntnis zum „vorgeschnittenen Films“: So kam es bei vielen Filmen vor, dass Hitchcock entscheidende Schlüsselszenen in verschiedenen Varianten drehte und meist erst im Schneideraum über die endgültige Form einzelner Szenen entschied. Mitarbeiter. Im Laufe der Jahre entwickelte sich mit verschiedenen Autoren eine besonders kreative Zusammenarbeit. Hervorzuheben sind Eliot Stannard, Angus McPhail, Charles Bennett, Ben Hecht und John Michael Hayes. Obwohl Samuel A. Taylor "(Vertigo)" und auch Ernest Lehman "(Der unsichtbare Dritte)" nur je zwei Drehbücher zu tatsächlich realisierten Filmen schrieben, gehörten sie zu den wenigen Mitarbeitern, die mit ihm in den letzten Jahren seiner Karriere regelmäßig zusammenarbeiteten und bis kurz vor seinem Tod Kontakt hatten. Doch auch mit namhaften Theater- oder Romanautoren arbeitete Hitchcock mehrfach bei der Drehbucherstellung zusammen, reibungslos mit Thornton Wilder und George Tabori, konfliktbeladen mit John Steinbeck, Raymond Chandler und Leon Uris. Der Kult, den Hitchcock gern um seine Person betrieb, und sein manchmal diktatorischer Stil, führte auch zu Konflikten mit befreundeten Autoren. John Michael Hayes, der im Streit von Hitchcock schied: „Ich tat für ihn, was jeder andere Autor für ihn tat – ich schrieb! Wenn man aber Hitchcocks Interviews liest, kann man den Eindruck bekommen, er habe das Drehbuch geschrieben, die Charaktere entwickelt, die Motivation beigesteuert.“ Wenn Hitchcock mit der Arbeit eines Autors nicht zufrieden war, oder wenn er seine Autorität angegriffen fühlte, dann ersetzte er Autoren kurzerhand durch andere. Cary Grant und James Stewart wurden innerhalb der jeweils vier Filme, die sie für Hitchcock drehten, zu Hitchcocks Alter Ego. Grant wurde zu dem, „was Hitchcock gerne gewesen wäre“, wie es Hitchcocks Biograph Donald Spoto formulierte, während Stewart vieles wäre, „von dem Hitchcock dachte, er sei es selbst“. Mit einigen seiner Schauspieler verband Hitchcock zudem eine langjährige persönliche Freundschaft, allen voran mit Grace Kelly. Darüber hinaus sind die als neurotisch zu bezeichnenden Beziehungen zu seinen blonden Hauptdarstellerinnen – insbesondere mit Tippi Hedren – bekannt. Am Anfang von Hitchcocks Karriere galt Film in England als Unterhaltung für die Unterschicht. Aus dieser Zeit stammt Hitchcocks oft zitierter Ausspruch „Alle Schauspieler sind Vieh“, der sich auf diejenigen Theaterschauspieler bezog, die nur mit Widerwillen und des Geldes wegen nebenher als Filmschauspieler arbeiteten. Die Aussage verselbständigte sich später und wurde oft als genereller Ausdruck der Geringschätzung Hitchcocks Schauspielern gegenüber angesehen. Tatsächlich hatte er auch später oft Probleme mit Schauspielern, die eigene Vorstellungen durchsetzen wollten, anstatt sich in die vorgefertigte Planung des Regisseurs einzufügen. Anhänger des Method Actings wie Montgomery Clift und Paul Newman waren Hitchcock daher genauso lästig wie Exzentriker oder Egomanen. Große Achtung hatte Hitchcock hingegen vor Schauspielern, die sein Filmverständnis teilten oder sich zumindest seiner Arbeitsweise anpassten, und gewährte etwa Joseph Cotten und Marlene Dietrich große künstlerische Freiheiten. Oft waren es jedoch die Produzenten, die über die Besetzung der Hauptrollen entschieden. Umso mehr nutzte Hitchcock seine größere Freiheit bei den zu besetzenden Nebenrollen, wobei er gerne auf Theaterschauspieler zurückgriff, die er noch aus seiner Zeit in London in bester Erinnerung hatte, zum Beispiel Leo G. Carroll in insgesamt sechs Filmen oder Cedric Hardwicke in "Verdacht" und "Cocktail für eine Leiche". Die bekannte Kostümbildnerin Edith Head, mit der er ab "Das Fenster zum Hof" bei fast allen Filmen zusammenarbeitete, meinte: „Loyalität war Hitchcock besonders wichtig. Er war Mitarbeitern gegenüber so loyal, wie er es von ihnen erwartete.“ Bei fünf Filmen war Robert F. Boyle für das "Production Design" verantwortlich; er gehörte bis zu Hitchcocks Tod zu dessen engsten Mitarbeitern. Außerdem griff er im Laufe seiner Karriere gern auf Albert Whitlock als Szenenbildner zurück. Äußerst zufrieden war Hitchcock, dem die Ausdruckskraft der Bilder stets wichtig war, auch mit dem Art Director Henry Bumstead. Der Titeldesigner Saul Bass entwarf nicht nur einige Filmtitel für die Vorspanne sowie Plakate, sondern war bereits bei den Arbeiten an vielen Storyboards maßgeblich beteiligt. Wichtigster Kameramann in seinen frühen Jahren bei den British International Pictures war John J. Cox. Über Hitchcock sagte Kameramann Robert Burks, der mit Ausnahme von "Psycho" an allen Filmen zwischen 1951 und 1964 beteiligt war: „Man hatte nie Ärger mit ihm, solange man etwas von seiner Arbeit verstand und sie ausführte. Hitchcock bestand auf Perfektion.“ Mit Leonard J. South, ehemaliger Assistent Burks’, arbeitete Hitchcock über einen Zeitraum von insgesamt 35 Jahren zusammen. Von den Komponisten der Filmmusiken ist Louis Levy hervorzuheben, der die Soundtracks für die frühen englischen Filme von "Der Mann, der zuviel wußte" bis "Eine Dame verschwindet" beisteuerte. Als der Hitchcock-Komponist schlechthin gilt Bernard Herrmann, der ab "Immer Ärger mit Harry" bis einschließlich "Marnie" (1964) alle Filmmusiken für Hitchcock komponierte. Der Cutter George Tomasini war bis zu seinem Tod 1964 ein Jahrzehnt lang enger Mitarbeiter Hitchcocks. Zu Beginn seiner Karriere wirkte seine Frau Alma als Cutterin bei seinen Filmen mit; sie blieb bis zuletzt eine der einflussreichsten Mitarbeiterinnen. Selbstvermarktung. Schon zu Beginn seiner Karriere war Hitchcock die Bedeutung der Vermarktung der eigenen Person bewusst: Viele seiner späteren Tätigkeiten sind Teil einer Strategie, sich und seinen Namen als Marke zu etablieren. Bereits 1927 führte Hitchcock ein stilisiertes Selbstporträt als Logo, das bis heute bekannt ist. Anfang der 1930er Jahre, als er mit dem Erfolg seiner Filme in England populär wurde, gründete er mit der Hitchcock Baker Productions Ltd. eine Gesellschaft, die bis zu seiner Übersiedlung nach Amerika ausschließlich dafür zuständig war, für ihn und mit seiner Person Öffentlichkeitsarbeit zu betreiben. Anschließend wurden diese Aufgaben von der Künstleragentur Selznick-Joyce, danach von der Music Corporation of America (MCA) wahrgenommen, wobei der Präsident der MCA, Lew Wasserman, zu seinem persönlichen Agenten wurde. 1962 wurde unter Herman Citron eine neue Gesellschaft gegründet, die Hitchcocks Interessen vertrat und seinen Namen vermarktete. Diese Selbstvermarktung diente auch dazu, eine Machtposition im Produktionsprozess seiner Filme zu erlangen, und war somit Teil seines Kampfes um künstlerische Unabhängigkeit. Cameo-Auftritte. Aus Mangel an Statisten in seinen ersten britischen Filmen sah man Hitchcock immer wieder im Hintergrund auftauchen. Daraus entwickelte er eines seiner bekanntesten Markenzeichen: Hitchcocks obligatorischer Cameo-Auftritt. Da das Publikum mit der Zeit immer weniger auf die Handlung achtete als vielmehr auf Hitchcock lauerte, legte er in späteren Filmen diesen Running Gag möglichst weit an den Filmanfang. In drei Filmen hatte Hitchcock keinen eigentlichen Cameo-Auftritt. In zwei von diesen Filmen trat er auf Fotos in Erscheinung: "Das Rettungsboot" spielt ausschließlich in einem kleinen Rettungsboot auf dem Meer. Er ist daher in einer zufällig im Boot liegenden Zeitung in einer Werbeanzeige für eine Diät auf einem „Vorher-Nachher-Foto“ zu sehen. Auch in "Bei Anruf Mord" war kein Auftritt möglich. Stattdessen taucht Hitchcock auf einem an der Wand hängenden Foto einer Wiedersehensfeier von College-Absolventen auf. In "Der falsche Mann" schließlich tritt er am Anfang des Films persönlich auf und spricht den Prolog. Dies ist gleichzeitig seine einzige Sprechrolle in einem seiner Kinofilme. Trailer. Während von den Filmgesellschaften üblicherweise für die Vermarktung eigene Abteilungen oder externe Agenturen beauftragt werden, trugen bei Hitchcocks Filmen die Werbekampagnen deutlich die Handschrift des Regisseurs. Seine Kino-Trailer waren häufig nicht nur Zusammenschnitte des angekündigten Films: Mit steigendem Wiedererkennungswert seiner Person stellte Hitchcock in der Rolle eines „Master of Ceremony“ seine eigenen Filme vor und führte den Zuschauer humorvoll durch die Kulissen. Fernsehen. Auf den Rat seines Agenten Lew Wasserman hin stieg Hitchcock 1955 in das Fernsehgeschäft ein. Hitchcock gründete die Fernsehproduktionsfirma "Shamley Productions" und produzierte bis 1965 seine eigene wöchentliche Fernsehserie. Am Anfang vieler Folgen begrüßte Hitchcock das Publikum, indem er mit ungerührter Miene makabre Ansagetexte sprach. Die Moderationen, die ihn zu einer nationalen Berühmtheit machten, wurden von dem Bühnenautor James D. Allardice verfasst, der fortan bis zu seinem Tod 1966 für Hitchcock auch als Redenschreiber arbeitete. Als Titelmusik für die Serie "Alfred Hitchcock Presents" verwendete Hitchcock das Hauptthema von Charles Gounods "Marche funèbre d’une marionette" (Trauermarsch einer Marionette), das sich im Weiteren zu einer Erkennungsmelodie für Hitchcocks Öffentlichkeitsarbeit entwickelte. Bücher und Zeitschriften. 1956 schloss Hitchcock einen Lizenzvertrag mit HSD Publications ab, der die Überlassung seines Namens für das Krimi-Magazin "Alfred Hitchcock’s Mystery Magazine" zum Inhalt hatte. Die Zeitschrift enthält Mystery- und Kriminalgeschichten, Buchrezensionen und Rätsel und erscheint noch heute. Einführungen und Vorworte, die mit seinem Namen unterschrieben waren, wurden stets von Ghostwritern verfasst. Seit 1964 erschien in den USA die Jugend-Krimi-Reihe "The Three Investigators"," auf Deutsch seit 1968 als "Die drei ???". Der Journalist und Autor Robert Arthur kannte Alfred Hitchcock persönlich und bat ihn, seinen Namen zur Vermarktung dieser geplanten Buchreihe verwenden zu dürfen. Schließlich baute er die Figur „Alfred Hitchcock“ in die Handlung ein. Anders als in Europa hielt sich der Erfolg der Bücher in den USA in Grenzen. In Deutschland, wo die Bücher besonders populär waren, entstand eine sehr erfolgreiche Hörspielreihe, durch die der Name Hitchcock auch bei vielen bekannt wurde, die mit seinem filmischen Schaffen nicht vertraut sind. Wirkung. Viele Elemente aus seinem Werk sind inzwischen in das Standardrepertoire des Kinos eingegangen, ohne dass sie noch bewusst oder direkt mit Hitchcock in Verbindung gebracht werden, insbesondere der Einsatz von Suspense als spannungserzeugendem Mittel oder die Verwendung von MacGuffins als handlungsvorantreibendes Element. Darüber hinaus gibt es seit den 1940er Jahren unzählige Beispiele für Thriller oder Dramen, teils von sehr namhaften Regisseuren, in denen typische Motive Hitchcocks oder seine Stilelemente bewusst kopiert oder variiert werden. Manche dieser Filme sind als Hommage des jeweiligen Regisseurs an Hitchcock zu verstehen, in anderen Fällen wurde Hitchcocks Stil übernommen, da er sich als erfolgreich und wirksam erwiesen hat. USA. Insbesondere seine Erfolgsfilme aus den 1950er bis Anfang der 1960er Jahre inspirierten in den Folgejahren Hollywood-Produktionen, die inhaltlich oder stilistisch oft mit Hitchcock in Verbindung gebracht werden. Zu den vielen Hollywood-Regisseuren, die Alfred Hitchcock mehr oder weniger direkt geprägt hat, zählt Brian De Palma, der mit vielen Verweisen und Zitaten auf Hitchcocks Werk arbeitet. Überdies übernahm er in einigen Filmen Grundstrukturen aus dessen Filmen. So entwickelt er in "Dressed to Kill" (1980) das Grundmotiv aus "Psycho" weiter und zitiert aus weiteren Hitchcock-Filmen. 1976 lehnte sich "Schwarzer Engel" stark an "Vertigo" an. 1984 spielt de Palma in "Der Tod kommt zweimal" mit eindeutigen Bezügen auf "Das Fenster zum Hof" und "Vertigo". Auch wenn Steven Spielberg selten direkt stilistische Motive kopiert oder adaptiert oder nur wenige seiner Filme thematische Parallelen aufzeigen, erinnert "Der weiße Hai" (1975) in Spannungsaufbau und Dramaturgie an "Die Vögel" und ist die "Indiana-Jones-Filmreihe" (1981–1989) stark von "Der unsichtbare Dritte" (1959) beeinflusst. Auch ein Film wie "Schindlers Liste" (1993) wäre in dieser Form ohne den Einfluss Hitchcocks nicht möglich gewesen. Der von Hitchcocks Kameramann Irmin Roberts entwickelte Vertigo-Effekt wird bisweilen auch als „Jaws Effect“ bezeichnet, da Spielberg diese relativ schwierig umzusetzende Kameraeinstellung im "Weißen Hai" (Originaltitel: "Jaws") als einer der ersten prominenten Regisseure 16 Jahre nach "Vertigo" einsetzte. Inzwischen gehört dieser emotional sehr wirkungsvolle Kameratrick zum Standardrepertoire des Hollywood-Kinos. Weitere Beispiele für zeitgenössische amerikanische Regisseure, die erkennbar von Hitchcock beeinflusst wurden oder sich auf dessen Werk berufen, sind John Carpenter, David Fincher, David Mamet, Quentin Tarantino, Martin Scorsese, David Lynch und M. Night Shyamalan. Frankreich. Bereits seit Mitte der 1950er Jahre war Hitchcock insbesondere in Frankreich bei den Vertretern der Nouvelle Vague hoch angesehen. 1957 veröffentlichen die damaligen Filmkritiker und späteren Regisseure Éric Rohmer und Claude Chabrol das erste Buch über ihn. 1956 erschien ein Sonderheft der "Cahiers du cinéma," das maßgeblich zu Hitchcocks Popularität in Frankreich beitrug. Als er im Mai 1960 zu einem Filmfestival reiste, das die Cinémathèque française ihm zu Ehren in Paris abhielt, wurde er von Dutzenden jungen Filmemachern frenetisch gefeiert. Die internationale Ausgabe der "Herald Tribune" schrieb, dass Hitchcock in dieser Woche „das Idol der französischen Avantgarde geworden“ sei. Im August 1962 gab Hitchcock dem damals dreißigjährigen französischen Filmkritiker und Regisseur François Truffaut ein fünfzigstündiges Interview. Truffaut befragte Hitchcock chronologisch zu dessen bisherigen achtundvierzig Filmen. Das Interview erschien 1966 als "Mr. Hitchcock, wie haben Sie das gemacht?" in Buchform und gilt als Standardwerk der Filmliteratur. Einzelne Filme Truffauts zeigen den Einfluss Hitchcocks deutlich, etwa "Die Braut trug schwarz" (1968) oder "Das Geheimnis der falschen Braut" (1969), die Geschichte eines Mannes, der einer Betrügerin und Mörderin verfällt und auch nicht von ihr lassen kann, als sie ihn zu töten versucht. Der Film ist stark von verschiedenen inhaltlichen und stilistischen Motiven aus "Vertigo", "Marnie" und "Verdacht" beeinflusst. Sein letzter Film "Auf Liebe und Tod" (1983), in dem ein unschuldiger Mann eines Mordes beschuldigt wird, ist voll von hitchcockschen Motiven und Anspielungen auf dessen Werk. Weitere Filme, die Truffaut selbst in der Tradition Hitchcocks sah, waren "Die süße Haut" und "Fahrenheit 451". 1968/69 besetzte Hitchcock die bevorzugte Schauspielerin Truffauts, Claude Jade, für seinen Film "Topas". In vielen Filmen von Claude Chabrol wird eine scheinbar heile bürgerliche Welt angegriffen und durcheinander gebracht. Die hitchcockschen Hauptmotive der Schuldübertragung sowie der doppelten oder der gespaltenen Persönlichkeit tauchen bei Chabrol immer wieder auf. Einige Beispiele sind "Schrei, wenn du kannst" (1959), "Das Auge des Bösen" (1961), "Der Schlachter" (1970) und "Masken" (1987). Neben Chabrol und Truffaut haben sich in Frankreich unter anderen auch Henri-Georges Clouzot und René Clément des hitchcockschen Repertoires bedient. Übriges Europa. Außerhalb Frankreichs war in Europa der unmittelbare Einfluss Hitchcocks auf andere Filmemacher deutlich geringer. Einige europäische oder europäischstämmige Regisseure haben jedoch einzelne Filme gedreht, denen eine Stilverwandtschaft anzuerkennen ist oder die unmittelbar als Hommage an Hitchcock gedacht sind, zum Beispiel "Ministerium der Angst" von Fritz Lang (1943), "Der dritte Mann" von Carol Reed (1949), "Zeugin der Anklage" von Billy Wilder (1957), "Frantic" von Roman Polański (1988) und "Schatten der Vergangenheit" von Kenneth Branagh (1991). 1925–1939. "bis einschließlich Nr. 9 Stummfilme, ab Nr. 10 Tonfilme; alle Filme in Schwarzweiß" 1940–1947. In diese Phase fällt auch Hitchcocks einzige Mitarbeit an einem längeren Dokumentarfilm "(German Concentration Camps Factual Survey)" im Mai — Juli 1945 in London. Er hat dies später im Interview als seinen Beitrag zum Krieg bezeichnet. Der Film wurde aus anderen Gründen nicht fertiggestellt. 1948–1957. "Filme Nr. 36, 37, 38 und 44 in Schwarzweiß, alle anderen in Farbe" Außerdem trat er zwischen 1955 und 1965 in insgesamt 360 Folgen der Fernsehserien "Alfred Hitchcock Presents" und "The Alfred Hitchcock Hour" in der Rolle des Gastgebers auf. 1958–1964. "Film Nr. 47 in Schwarzweiß, alle anderen in Farbe" Auszeichnungen. Hitchcock wurde sechsmal für den Oscar nominiert: fünfmal für die Beste Regie, einmal für den Besten Film (als Produzent). Alle sechs Mal ging er leer aus, was ihn zu dem Kommentar veranlasste: „Immer nur Brautjungfer, nie die Braut“. Dennoch blieb er nicht oscarlos, denn 1968 gewann er den Irving G. Thalberg Memorial Award als Spezialoscar für besonders kreative Filmproduzenten. Er wurde mit zwei Sternen auf dem Hollywood Walk of Fame geehrt. Den einen in der Kategorie Film findet man bei der Adresse 6506 Hollywood Blvd, den anderen in der Kategorie Fernsehen am 7013 Hollywood Blvd. Biografische Spielfilme über Hitchcock. Regie: Julian Jarrold; Besetzung: Toby Jones (Alfred Hitchcock), Sienna Miller (Tippi Hedren), Imelda Staunton (Alma Reville Hitchcock), Conrad Kemp (Evan Hunter), Penelope Wilton (Peggy Robertson) Regie: Sacha Gervasi; Besetzung: Anthony Hopkins (Alfred Hitchcock), Helen Mirren (Alma Reville Hitchcock), Scarlett Johansson (Janet Leigh), Danny Huston (Whitfield Cook), Toni Collette (Peggy Robertson), Michael Stuhlbarg (Lew Wasserman), Michael Wincott (Ed Gein), Jessica Biel (Vera Miles), James D’Arcy (Anthony Perkins) Werkschauen. Sortiert in der chronologischen Reihenfolge der jeweiligen Originalausgabe. Fußnoten/Einzelnachweise. Hauptquellen sind die beiden Biografien von Taylor und Spoto sowie die Bücher von Truffaut und Krohn. Auteur-Theorie. Die Auteur-Theorie (von frz. „Auteur“ = Autor) ist eine Filmtheorie und die theoretische Grundlage für den Autorenfilm – insbesondere den französischen – in den 1950er Jahren, der sich vom „Produzenten-Kino“ abgrenzte. Auch heute noch wird die Definition des "Auteur"-Begriffs ständig weiterentwickelt. Im Zentrum des Films steht für die Auteur-Theorie der Regisseur oder Filmemacher als geistiger Urheber und zentraler Gestalter des Kunstwerks. Geschichte der Auteur-Theorie. Ende der 1940er Jahre wurde eine erste Auteur-Theorie von dem französischen Filmkritiker Alexandre Astruc formuliert, indem er die Frage nach dem geistigen Besitz eines Films aufwarf. Im traditionellen Schaffensprozess lassen sich die Anteile von Drehbuchautor, Kameramann und Filmregisseur am Gesamtwerk nur schwer zuordnen. Durch die Zuteilung der Teilaufgaben als Honorartätigkeit durch die Filmgesellschaften leide die Kreativität, so die These. Im Umkehrschluss fordert diese Theorie die Zusammenführung der Tätigkeiten zu einer kreativen Einheit. Er formulierte seinen Entwurf in dem Aufsatz „"La caméra-stylo"“. Die Kamera sollte wie ein Stift verwendet werden. Er war sich sicher, dass bedeutende Schriften in Zukunft nicht mehr als Text, sondern mit der „Kamera geschrieben“ würden. Doch durchgesetzt haben sich solche und ähnliche Ideen der Auteur-Theorie erst in den 1950er Jahren. Deren gängiger Begriff als Wegbereiter für die heutige Auteur-Theorie lautete zunächst "politique des auteurs" (Autoren-Politik), was erst im Laufe der Zeit zur "Theorie" umgeformt wurde. Das Wort "politique" bzw. Politik stand hier also eher für Parteilichkeit, welche für filmwissenschaftliche Diskussionen eher hinderlich ist (siehe unten). Die "politique des auteurs" wurde zu dieser Zeit von einer Gruppe von jungen Filmkritikern um André Bazin entwickelt, die für die Filmzeitschrift "Cahiers du cinéma" schrieben. Eine wesentliche Rolle spielte dabei François Truffaut: Im Januar 1954 veröffentlichte er seinen Aufsehen erregenden Aufsatz "Eine gewisse Tendenz im französischen Film" ("Une certaine tendance du cinéma français"), in dem er sich mit scharfer Polemik gegen den etablierten französischen „Qualitätsfilm“ wandte. Bei diesem trat der Regisseur gegenüber dem Drehbuchautor und dem Autor der literarischen Vorlage oft in den Hintergrund. Truffaut plädierte dagegen für einen Film, bei dem Form und Inhalt vollständig vom Regisseur selbst als dem eigentlichen „auteur“ des Films bestimmt werden. Er fand das bei traditionell als Autoren ihrer Filme betrachteten europäischen Regisseuren wie Luis Buñuel, Jean Renoir und Roberto Rossellini, außerdem aber auch und vor allem bei Regisseuren wie Alfred Hitchcock, Howard Hawks, Fritz Lang und Vincente Minnelli, die (zum großen Teil als Vertragsregisseure) im Studiosystem Hollywoods arbeiteten, deren Filme aber trotzdem einen persönlichen Stil aufweisen. Das Konzept des Regisseurs als "auteur" seiner Filme wurde für die Filmkritik der "Cahiers du cinéma" bestimmend, und damit für die Regisseure der Nouvelle Vague, die daraus hervorgingen, neben Truffaut etwa Jean-Luc Godard, Jacques Rivette oder Claude Chabrol – Filmemacher, die sich zur Umsetzung ihrer künstlerischen Ziele einer jeweils ganz eigenen filmischen Form bedienten. 1968 veröffentlichte Roland Barthes, einer der Auteur-Theoretiker, den Aufsatz "La mort de l'auteur" ("Der Tod des Autors"). Barthes ersetzte den „Auteur-Dieu“ („Autoren-Gott“) durch den „écrivain“ (den Schriftsteller) und führte damit eine Kritik fort, die bereits 1967 durch Julia Kristeva in ihrem Aufsatz "Bakhtine, le mot, le dialogue et le roman" aufgebracht wurde. Bis in die 1970er blieb die Auteur-Theorie aber noch prägend für den europäischen Film. Danach setzte auch hier eine Abkehr von der „verhängnisvollen Macht der Regisseure“ (Günter Rohrbach) ein. Wirtschaftlicher Druck zwang zur Rückkehr zu einer arbeitsteiligen Produktionsweise, wie sie für den Produzenten-Film charakteristisch ist. Damit einher ging notwendigerweise auch wieder die Einigung aller Beteiligten auf einen kleinsten gemeinsamen Nenner und somit auch häufig eine gewisse Banalisierung der Filminhalte, die umso stärker zu Tage tritt, je weniger der Produzent als Projektverantwortlicher in den eigentlichen schöpferischen Prozess eingebunden ist. In der Filmwissenschaft wurden auch immer neue Autorschaften von Teammitgliedern entdeckt. In der Realität ist Film Teamarbeit und es ist dem Film nicht anzusehen, ob zum Beispiel die Idee für eine Einstellung nun vom Regisseur oder vom Kameramann stammt. Im Dogma-Film ist der Kameramann nicht weisungsgebunden. Die „Polnische Schule“ bindet den Kameramann bereits in den Prozess des Drehbuchschreibens ein. Unerfahrene Regisseure sind meist sehr auf die Kreativität des Kameramanns oder der Kamerafrau und anderer Teammitglieder angewiesen. Durch das Aufkommen digitaler Aufnahmetechniken wie Digital Video seit Ende der 1990er Jahre sehen viele Filmemacher, wie etwa Wim Wenders, wieder günstigere Bedingungen für individuelle, subjektive Produktionen gegeben. Kritik und Diskussion. Die von François Truffaut und Jean-Luc Godard proklamierte „politique des auteurs“ (Autorenpolitik) der fünfziger Jahre war ursprünglich ein Versuch, bestimmte Regisseure wie Alfred Hitchcock als Künstler anzuerkennen, die ihre völlig eigene Bildsprache entwickelten oder, wie Truffaut selber, sämtliche Aspekte ihrer Filme selbst bestimmten. Ein Autorenfilmer ist demnach ein Regisseur, der einen Film – möglichst ohne Kompromisse – so gestaltet, wie er ihn selbst haben möchte. Die „politique des auteurs“ geriet schnell in die Kritik. Kritiker wie Andrew Sarris und Peter Wollen wiesen auf ein empirisches Problem hin: Niemand kann beweisen, wie viel Einfluss der Regisseur wirklich auf seine Filme hatte bzw. welchen Einfluss Form und Inhalt wirklich auf das haben, was wir als Autorschaft wahrnehmen. Als Beispiel hierfür gilt der Vorspann von "Vertigo – Aus dem Reich der Toten" (1958), den Alfred Hitchcock nicht selbst angefertigt hat, oder die Tatsache, dass viele seiner Filme auf einer Buchvorlage fremder Autoren basieren und selbst die Drehbücher selten von ihm selbst stammten. Gerade Hitchcock aber ist eine zentrale Figur in der „politique des auteurs“. Wie der Name „politique des auteurs“ sagt, handelte es sich um eine Politik, einen gezielten polemischen Eingriff. Der Village-Voice-Kritiker Andrew Sarris übersetzte „politique des auteurs“ jedoch 1962 mit „auteur theory“, wobei unklar blieb, in welchem Sinne es sich hier tatsächlich um eine "Theorie" handelt. Sarris popularisierte diese „Theorie“ im englischen Sprachraum und benutzte sie vor allem, um die absolute Überlegenheit des Hollywood-Kinos darzulegen, war er doch davon überzeugt, es sei „the only cinema in the world worth exploring in depth beneath the frosting of a few great directors at the top“. Nun war die Frage: Wo ist die Grenze? "Wen" oder vielmehr "was" nehmen wir als Autor wahr? Soziologisch gesehen war die Autorentheorie eine Distinktionsstrategie junger Kritiker, die auf sich aufmerksam machen wollten. Godard hat dies später offen zugegeben: „Wir sagten von Preminger und den anderen Regisseuren, die für Studios arbeiteten, wie man heute fürs Fernsehen arbeitet: ‚Sie sind Lohnempfänger, aber gleichzeitig mehr als das, denn sie haben Talent, einige sogar Genie …‘, aber das war total falsch. Wir haben das gesagt, weil wir es glaubten, aber in Wirklichkeit steckt dahinter, dass wir auf uns aufmerksam machen wollten, weil niemand auf uns hörte. Die Türen waren zu. Deshalb mussten wir sagen: Hitchcock ist ein größeres Genie als Chateaubriand.“ In den siebziger Jahren folgte dann die stärkste Kritik an der „politique des auteurs“. Roland Barthes proklamierte bereits 1968 vor einem poststrukturalistischen Hintergrund den „Tod des Autors“. Der Autor wurde nun aufgrund des empirischen Dilemmas der Beweisbarkeit von Autorschaften als Image-Figur erkannt, die sich aus ihrer Umwelt formt und in die Werke einschreibt. Auch von feministischer Seite wurde die „politique des auteurs“ scharf angegriffen, diene sie doch dazu, den kollektiven Charakter des Filmemachens zu verdecken und in der Tradition patriarchaler Heldenverehrung Männer zu Superstars zu stilisieren. Claire Johnston verteidigte den Ansatz insofern, als dieser einer zu monolithischen Sicht des Hollywood-Kinos entgegenwirke. In den neunziger Jahren schließlich ging die Tendenz zu der Annahme, dass Autorschaften zum Großteil (z. T. kommerziell) konstruiert sind. Timothy Corrigan nennt dies den „commercial auteur“. Es wird damit gerechnet, dass das Publikum den Film eines als Autor bekannten Regisseurs als z. B. „Der neue Woody Allen!“ wahrnimmt, ohne wirklich zu wissen, wie viel Einfluss Woody Allen tatsächlich auf den Film hatte. Dana Polan verfolgte einen weiteren interessanten Ansatz: Er sieht den „auteurist“ als Hauptverantwortlichen für konstruierte Autorenbilder. Das sind Kritiker, die den Autor als höchste Instanz suchen und damit – wie François Truffaut – auf einen Filmemacher als Künstler hinweisen wollen und nebenbei ihre eigene Erkenntniskraft zelebrieren. Der Begriff dafür lautet „Auteur Desire“. Dieser Ansatz zeigt noch einmal den größten Vorwurf gegenüber der „politique des auteurs“ auf. Doch trotzdem ist die Nennung eines Regisseurs parallel zu – beispielsweise – einem Buchautor als Schöpfergeist auch unter reflektierenden Filmkritikern und -wissenschaftlern weiterhin außerordentlich beliebt. Steckt also doch mehr dahinter? Ein neuerer Ansatz, die kontextorientierte Werkanalyse von Jan Distelmeyer, versucht diese Frage zu klären. Als Grundlage dienen Publikums- und Kritikerrezeption auf der einen Seite und die Konstruktion des Autors aus Biografie, Filmindustrie und kulturellem Umfeld auf der anderen Seite. Diese zweiseitige Annäherung erkennt das empirische Dilemma der Definition von „auteur“ an und maßt sich auch keine Bestimmung dessen an, was jetzt eigentlich das Werk von Autor XYZ ist. Viele andere Filmtheoretiker verfolgen heutzutage ähnliche Konzepte. Doch auch eine solch freie Handhabung kann das Problem nicht vollständig lösen, da die wichtigsten Elemente variabel sind und sich so einer eindeutigen Aussage verschließen. Der Schwerpunkt kritischer Tendenzen liegt also zum Großteil in der Empirie. Einen Filmemacher als „auteur“ anzuerkennen fordert uneingeschränktes Vertrauen in seine Aussagen, wie viel Einfluss er auf seine eigenen Filme hatte. Da dies in Zeiten einer sehr starken Vermarktung aller möglichen mehr oder weniger (un)abhängigen Regisseure seitens von Filmindustrie und Verleih ein fast aussichtsloses Unterfangen ist, ist ein Restzweifel und das stete Hinterfragen der „auteur“-Definition angebracht. Aki Kaurismäki. Aki Olavi Kaurismäki (* 4. April 1957 in Orimattila) ist ein vielfach preisgekrönter finnischer Filmregisseur. Leben und Werk. Aki Kaurismäki studierte an der Universität Tampere Literatur- und Kommunikationswissenschaften. Neben diversen Aushilfsjobs, etwa als Briefträger oder in der Gastronomie, war er Herausgeber eines universitären Filmmagazins. Darüber hinaus schrieb er von 1979 bis 1984 Filmkritiken für das Magazin "Filmihullu". Das erste Drehbuch folgte 1980 für den mittellangen Film "Der Lügner (Valehtelija)", bei dem sein Bruder Mika Regie führte. Kaurismäkis Filme thematisieren häufig Schicksale von gesellschaftlichen Außenseitern in städtischen Zentren wie Helsinki. Sie sind nicht nur für ihre sparsamen Dialoge, sondern auch für einen skurril-lakonischen Humor bekannt. Kaurismäki arbeitet regelmäßig mit einem festen Stamm befreundeter Schauspieler und Musiker, die seine Filme auch stilistisch prägen bzw. prägten: Matti Pellonpää, Kati Outinen, Kari Väänänen und Sakke Järvenpää. Als Reminiszenz an Alfred Hitchcock hat er in seinen Filmen gelegentlich Cameo-Auftritte, wie sie auch Hitchcock pflegte. In Deutschland wurden seine Filme zum ersten Mal 1986 auf dem Filmfestival "Grenzland-Filmtage" in Selb gezeigt. Aki Kaurismäki führte dabei die Filme "Der Lügner", "Calamari Union" und "Schuld und Sühne" persönlich vor. Während des Festivals schrieb er das Drehbuch für seinen Film "Schatten im Paradies," den er 1988 erneut persönlich bei den Grenzland-Filmtagen in Selb präsentierte. Dieser Film brachte ihm den internationalen Durchbruch. Ein Großteil der Filmmusik kam von der Band "Nardis" aus Erlangen, die Kaurismäki 1986 auf den Grenzland-Filmtagen kennengelernt hatte. Dem breiten deutschen Publikum bekannt wurde der finnische Regisseur durch seine Teilnahme an der Berlinale 1988. Für großes Aufsehen sorgte Kaurismäki im Herbst 2006, als er sich weigerte, seinen Film "Lichter der Vorstadt" als offiziellen finnischen Beitrag für eine Oscar-Nominierung in der Kategorie Bester fremdsprachiger Film zuzulassen, obwohl das Drama von der finnischen Filmkammer einstimmig ausgewählt worden war. Kaurismäki begründete seine Ablehnung mit seiner seit Jahren vertretenen kritischen Haltung gegen den Irak-Krieg der USA. Zusammen mit seinem Bruder Mika Kaurismäki gründete er das Midnight Sun Film Festival im lappischen Sodankylä sowie die Verleihfirma Villealfa. Dieser Name geht zurück auf die Figur Ville Alfa, den Protagonisten im Film "Der Lügner". Gleichzeitig handelt es sich um ein Anagramm von "Alphaville", einem Film von Jean-Luc Godard. Im Jahr 1989 emigrierte Kaurismäki zusammen mit seiner Frau nach Portugal, weil „es in ganz Helsinki keinen Platz mehr gebe, wo er seine Kamera noch postieren könne“. Als persönliche Leitbilder sehe Kaurismäki Bresson, Ozu und Godard. Der Ausbildung an den Filmhochschulen seines Landes konnte er dagegen nicht viel Positives abgewinnen. Bei "Pandora" sind Ende 2006 als „Aki Kaurismäki DVD-Collection“ 14 Spielfilme und fünf Kurzfilme (mit digital restaurierten Bildern) in vier Boxen erschienen. 2011 stellte Kaurismäki nach fünf Jahren mit "Le Havre" wieder einen Spielfilm fertig, der ihm eine Einladung in den Wettbewerb der 64. Internationalen Filmfestspiele von Cannes einbrachte. Der in Frankreich gedrehte Film handelt von einem Schuhputzer aus der gleichnamigen Hafenstadt, der sich eines illegalen Flüchtlingskindes aus Afrika annimmt. "Le Havre" gewann in Cannes den FIPRESCI-Preis. Anime. Anime (jap., im Deutschen häufig) ist eine Verkürzung des japanischen Lehnwortes "animēshon" (, von) und bezeichnet in Japan produzierte Zeichentrickfilme. In Japan selbst steht "Anime" für alle Arten von Animationsfilmen, für die im eigenen Land produzierten ebenso wie für importierte. Er bildet das Pendant zum Manga, dem japanischen Comic. Stile und Genres. Animes decken ein breitgefächertes Themenspektrum für alle Altersstufen ab. Von Literaturverfilmungen (z. B. "Das Tagebuch der Anne Frank") über Horror bis hin zu Science Fiction werden nahezu alle Bereiche und Altersklassen abgedeckt. Auch gibt es Genres bei Anime, die ausschließlich in diesen und Mangas vorkommen (z. B. Mecha-Serien über überdimensional große Roboter). Auch Produktionen für Kinder können ernsthafte Themen haben oder realistischere Gewaltdarstellungen enthalten, als das in westlichen Produktionen der Fall ist. Aber auch sexuelle Anspielungen, bei denen sich die Charaktere zuweilen sehr freizügig geben, werden geduldet. Dies führt dazu, dass einige dieser Serien in anderen Ländern vor der Ausstrahlung nachbearbeitet werden. Pornographische Animes, sogenannte Hentai, machen nur einen kleinen Teil des japanischen Kaufvideo-Marktes aus; im Fernsehen und im Kino werden diese in Japan überhaupt nicht gezeigt. Viele Animes beinhalten jedoch erotische Ansätze, ohne dem Hentai-Genre zugeordnet werden zu können, insbesondere die des Genres Etchi. Anime in Japan. Anime – dort auch unter den veraltenden Bezeichnungen "dōga" (, „bewegte Bilder“) und "manga eiga" (, „Manga-Film“) bekannt – sind ein fester Bestandteil des japanischen Kulturgutes. Zu den erfolgreichsten Kinofilmen in Japan zählen viele Animes, so "Prinzessin Mononoke", ' und "Chihiros Reise ins Zauberland". Zudem ist die Unterhaltungsindustrie in Japan, die Animes wie Mangas produziert, mit 80 Milliarden Euro Umsatz im Jahr wirtschaftlich bedeutend. Pro Jahr kommen bis zu 200 neue Serien auf den Markt. Veröffentlichungsarten. Neben Fernsehserien und Kinofilmen werden Animes als Original Video Animation, kurz "OVA", für den Kaufvideo- und DVD-Markt produziert. Die Zielgruppe sind meist junge Erwachsene, daher sind die Inhalte in der Regel mit viel Fanservice versehen. Fernsehen. Anime-Fernsehserien haben für gewöhnlich 12–13, 24–26, sowie seltener 52 oder mehr Folgen, so dass bei wöchentlicher Ausstrahlung eine Laufzeit von einem viertel, halben oder ganzen Jahr erreicht wird. Ein solches Vierteljahresintervall wird als "cours" (, "kūru") bezeichnet. Die "cours" sind dabei saisonhaft, d. h. es gibt Winter-, Frühlings-, Sommer- und Herbst-Cours, die im Januar, April, Juli bzw. Oktober beginnen. Die meisten Anime-Serien sind nicht als Endlosserien ausgelegt, obwohl insbesondere Verfilmungen langer Manga-Serien auf weit mehr als 100 Folgen kommen können. Im Jahr 2000 wurden im japanischen Fernsehen 124 Anime-Serien gesendet. Der Höhepunkt wurde im Jahr 2006 mit 306 Serien erreicht, 2008 wurden 288 Serien gesendet. Bei der im April startenden Frühlingssaison 2006 wurden 60 neue Titel und im Frühjahr 2009 30 neue Titel ausgestrahlt. Der ursprüngliche Anstieg der Anime-Anzahl ist darauf zurückzuführen, dass seit den späten 90er Jahren die Mitternachtsprogrammplätze für Anime verwendet werden; aber auch, dass durch den großen Erfolg von "Neon Genesis Evangelion" immer mehr Studios, Videounternehmen und Verlage Werke produzieren ließen. Diese schließen sich dann oft mit Merchandising-Partnern zu Produktionskomitees (, "seisaku iinkai") zusammen und kaufen einen Mitternachtsprogrammplatz – daher auch als Mitternachts-Animes (, "shin’ya anime") bezeichnet – bei mehreren Sendern, üblicherweise für ein bis zwei "cours". Der größte Teil dieser Programmierungen geschieht auf Regionalsendern, die keinem der großen Networks angeschlossen sind. Da diese auf UHF-Band ausstrahlen, werden derartige Anime auch UHF-Anime (UHF) genannt. Mitternachtsanimes erreichen durchschnittliche Einschaltquoten von etwa 2 %, während 4 bis 5 % schon außergewöhnlich hoch sind. Einschaltquoten spielen bei Mitternachtsanimes und damit den meisten Animes kaum eine Rolle, sondern die Ausstrahlung dient dabei der Werbung für die DVD- oder Blu-Ray-Veröffentlichungen, mit denen und den Merchandise-Artikeln der Gewinn gemacht wird. Abhängig von deren Verkaufszahlen entscheidet sich dann, ob weitere Staffeln produziert werden. Viele dieser Anime, die ein bestehendes Werk adaptieren, dienen letztendlich aber auch der Bewerbung der Vorlage, so dass für das auftraggebende Produktionsunternehmen auch die Animeverkäufe zweitrangig sein können, sofern die Vorlagenverkäufe anziehen, was sich daran äußert das teilweise auch nur wenig erfolgreiche Anime Fortsetzungen bekommen können. Anders sieht dies bei am Tage ausgestrahlten Animes aus, die sich zudem auch meistens an ein jüngeres oder Familienpublikum richten. Die höchsten Einschaltsquoten um die 10 % erreichen regelmäßig langlaufende Serien wie "Sazae-san", "Chibi Maruko Chan", "Crayon Shin-Chan", "Doraemon", "Detektiv Conan" und "One Piece". Durch die sich erholende Wirtschaft während der 90er und die starke Berichterstattung über die steigende Beliebtheit von Animes im Ausland und dem „Moe-Boom“ investierten aber auch branchenfremde Unternehmen wie Finanz- und neue IT-Unternehmen in diesen früheren Nischenmarkt. Der Rückgang seit 2006 wird auf die sinkenden Geburtenraten und die wirtschaftliche Rezession zurückgeführt. Japanische Fernsehsender gehen aber auch dazu über, den ausländischen Markt direkt zu beliefern. In den USA wird der Rückgang der Marktgröße für Animes von 4,8 Mrd. Dollar im Jahr 2003 auf 2,8 Mrd. Dollar für 2007 hauptsächlich mit der Fansubbing-Szene in Zusammenhang gesetzt, die Serien bereits kurz nach deren Erstausstrahlung im japanischen Fernsehen untertitelt über Filesharing verbreitet. Im Januar 2009 begann TV Tokyo als erster größerer Fernsehsender, seine Animes nur Stunden nach deren Ausstrahlung im japanischen Fernsehen englisch untertitelt auf einer abopflichtigen Website zu veröffentlichen. Heute wird ein großer Teil der Neuerscheinungen gleichzeitig zur japanischen Ausstrahlung (Simulcast) auf Websites mit englischen (Funimation und Crunchyroll), aber auch deutschen (siehe Abschnitt Anime auf Videoportalen) Untertiteln gestreamt. Zusammenarbeit mit anderen Medien. Viele Animes beruhen auf erfolgreichen Mangas, sowie, vor allem in jüngerer Zeit, auf Light Novels. Es wird aber auch aufgrund eines erfolgreichen Animes ein entsprechender Manga gezeichnet. Vergleichsweise selten sind „Anime-Comics” bei denen der Manga nicht neu gezeichnet, sondern aus Einzelbildern des Anime und eingefügten Sprechblasen zusammengesetzt wird. Oft ist auch die Computerspiel-Industrie an der Anime-Produktion beteiligt, die auf Grundlage der Animes Computer- und Konsolenspiele produziert. Da den Produktionskomitees Unternehmen unterschiedlicher Branchen angehören können, neben Buch-, Spieleverlagen, Studios, auch Lebensmittelfirmen, die Kapital einbringen und sich die Rechte am Werk aufteilen, können zum Anime zeitgleich auch Manga, Romane und weitere Artikel erscheinen. Teilweise werden diese Franchises dann gezielt zur Werbung für ein Produkt oder einer Produktgruppe eingesetzt. Musik. Wie in Kinofilmen wird im Anime die Musik als wichtiges künstlerisches Mittel benutzt. Mit Anime-Soundtracks wird in Japan sehr viel Geld gemacht, da diese sich häufig ebenso gut verkaufen wie Chartstürmer-Alben. Aus diesem Grund wird Animemusik häufig von erstklassigen Musikern komponiert und aufgeführt. Fähige Komponisten für die Hintergrundmusik sind bei den Fans hochangesehen. Zu den bekannteren Komponisten zählen z. B. Joe Hisaishi, Yuki Kajiura, Yōko Kanno und Kenji Kawai. Am häufigsten wird Musik in Animes genutzt, um als Hintergrundmusik die Stimmung einer Szene wiederzugeben, oder als Thema für einen Charakter. Serien haben ein Vorspannlied als Einleitung. Dieses Thema passt für gewöhnlich zum Gesamtton der Sendung und dient dazu, den Zuschauer für das anschließende Programm zu begeistern. Zwischen- und Abspannlieder kommentieren oft die Handlung oder die Sendung als Ganzes und dienen häufig dazu, eine besondere wichtige Szene hervorzuheben. Diese Lieder werden häufig von bekannten Musikern oder japanischen Idolen gesungen, aber auch von den Synchronsprechern (Seiyū), die dadurch wiederum zu Idolen werden. Somit sind sie ein sehr wichtiger Bestandteil des Programms. Zusätzlich zu diesen Musikthemen veröffentlichen die Sprecher eines bestimmten Animes auch CDs für ihren Charakter, "Image Album" genannt. Trotz dem Wort "image" beinhalten sie nur Musik und/oder Textpassagen, in denen der Sprecher zu dem Zuhörer oder über sich singt bzw. redet, wodurch der Zuhörer glaubt, dass der Charakter selber singt oder redet. Eine weitere Variante von Anime-CD-Veröffentlichungen sind "Drama-CDs": Hörspiele, in denen die Sprecher eine Geschichte erzählen, die häufig im Anime nicht vorkommt. Bekannte Anime-Studios. Eines der bekanntesten japanischen Anime-Studios ist Studio Ghibli, das seit 1985 unter der Leitung von Hayao Miyazaki Filme produziert, z. B. "Prinzessin Mononoke" 1997, "Chihiros Reise ins Zauberland" 2001, "Das wandelnde Schloss" 2004. Seinen bisher größten weltweiten Erfolg hatte Studio Ghibli mit "Chihiros Reise ins Zauberland". Der Film erhielt neben zahlreichen internationalen Zuschauer- und Kritikerpreisen im Jahr 2002 den Goldenen Bären auf der Berlinale und im Jahr 2003 den Oscar als bester Animationsfilm, was ihn zum meistausgezeichneten Zeichentrickfilm aller Zeiten macht. Arbeitsbedingungen japanischer Anime-Zeichner. Laut einer im Jahr 2005 durchgeführten Studie arbeiten japanische Anime-Zeichner im Durchschnitt 10,2 Stunden pro Arbeitstag bzw. 250 Stunden pro Monat. Zwei Drittel aller Zeichner verdienen weniger als 3 Millionen Yen (ca. 21.700 Euro) pro Jahr, 27 % geben sogar einen Jahresverdienst von weniger als 1 Million Yen (ca. 7.200 Euro) an. 73 % aller Zeichner arbeiten nach einem festen Bezahlungsschema, bei dem sie pro Einzelbild im Durchschnitt 186,9 Yen (ca. 1,35 Euro) erhalten. Anime im deutschen Kino. Als erster Anime in Deutschland wurde ab dem 16. März 1961 der Film "Der Zauberer und die Banditen" (jap. "Shōnen sarutobi sasuke") von Toei Animation aus dem Jahr 1959 in den Kinos gezeigt. Seither sind im deutschen Kino mehr als 30 Anime-Filme gezeigt worden, darunter "Akira" (1991), "Ghost in the Shell" (1997), "Perfect Blue" (2000) und einige Produktionen von Studio Ghibli wie "Prinzessin Mononoke" (2001) und "Chihiros Reise ins Zauberland" (2003). Die bisher höchsten Zuschauerzahlen hatten die drei im Kino gezeigten Filme zur "Pokémon"-Serie. Anime im deutschen Fernsehen. Die erste Anime-Serie im deutschen Fernsehen war "Speed Racer" (Tatsunoko Productions, 1967), von der von November 1971 bis Dezember 1971 in der ARD aber nur drei von ursprünglich acht geplanten Folgen gezeigt wurden. Wegen Protesten von Eltern, Pädagogen und Medien wurde die bereits angekündigte vierte Folge kurzfristig gestrichen. Im Frühjahr 1973 wurden zwei weitere Folgen ohne Vorankündigung als Ersatz für ausgefallene Asterix-Sendungen ins Programm genommen, danach wurde die Serie nach erneuten Protesten vollständig abgesetzt. Mit Ausnahme von "Captain Future", gegen das es ebenfalls zahlreiche Proteste von Eltern gab und vor dem in den 1980er-Jahren sogar in einigen Schulbüchern gewarnt wurde, umfassten Animes im deutschen Fernsehen lange Zeit nur Serien für Kindergarten- und Grundschulkinder. Diese waren teilweise Koproduktionen des ZDF, wie "Wickie und die starken Männer" und "Die Biene Maja". Dabei wurde von Seiten des ZDF darauf geachtet, dass die Serien im zeichnerischen Stil wie in der Handlung dem westlichen Empfinden und gesellschaftlichen Vorstellungen entsprachen. Die Programme waren dennoch Gegenstand teils heftiger Kritik, die Sendungen würden den Geschmack des jungen Publikums verderben und der Verantwortliche beim ZDF wurde nach Erstausstrahlung der "Biene Maja" als „Insekten-Jupp“ oder gar kriminell genannt.. Dass es sich bei diesen Zeichentrickserien um japanische Produktionen handelte, ist selbst heute teilweise noch nicht bekannt. In anderen Europäischen Ländern wie in Spanien, Frankreich und Italien wurden in den 80er und frühen 90er Jahren bereits Serien wie "Saint Seiya", "Lupin III""," "Hokuto no Ken" und "Grendizer" ausgestrahlt. Wie in Deutschland gab es Kritik zu den jeweiligen Serien, speziell in Frankreich. Frankreich hat die Serie "Dragonball" geschnitten synchronisiert, so schießen die Gegner mit Gummigeschossen statt mit scharfer Munition und „schlüpfrige“ Witze werden nicht als solche übersetzt. Diese Version war dann Vorlage in ganz Europa. Am 11. Januar 1988 ging aus dem Musikvideosender "musicbox" der Privatsender "Tele 5" hervor. In seinem Nachmittagsprogramm "Bim Bam Bino" wurden ab 1989 zum ersten Mal in Deutschland auch Anime für ältere Kinder und Jugendliche ausgestrahlt. Serien wie "Miyuki", "Mila Superstar", "Die Königin der tausend Jahre" und "Saber Rider und die Starsheriffs" führten zur Gründung von ersten Anime-Fanclubs in Deutschland, die sich aber oft auf die jeweilige Serie beschränkten. Nach der Umwandlung von Tele 5 in das Deutsche Sportfernsehen (DSF) am 1. Januar 1993 wurden nur einige dieser Anime von anderen Privatsendern übernommen. Einen entscheidenden Schub erlebte die deutsche Anime-Fanszene durch die fünf Staffeln bzw. 200 Folgen lange Serie "Sailor Moon". Die erste Fernsehstaffel lief von Oktober 1995 bis September 1996 im ZDF, wurde allerdings wegen ihrer Sendezeit inmitten eines Zeichentrick-Programmblocks von den meisten Fernseh-Zeitschriften nicht gesondert erwähnt. Erst durch die erneute Ausstrahlung ab Mai 1997 im Nachmittagsprogramm bei RTL 2 wurde "Sailor Moon", dessen primäre Zielgruppe in Japan eigentlich Mädchen in der Pubertät waren, zum Kultfaktor einer neuen Fanbewegung. Dieser Trend setzte sich auf RTL2 durch weitere Serien wie etwa "Dragonball", "Pokemon" oder "Yu-Gi-Oh!" fort. Mit "Dragon Ball Z" im Vorabend um 19:00 und Serien wie "Detektiv Conan", "Inu Yasha" und "One Piece", peilte RTL2 ältere Kinder und Jugendliche an. Jedoch wurde ab 2004 mit Pokito das Programm wieder auf 3-13 Jährige gerichtet und sendete ein gemischtes Programm mit japanischen wie westlichen Produktionen. Die Musiksender MTV und VIVA sendeten von 2001 bis 2004 Anime für ein älteres Publikum wie "Cowboy Bebop" und "Hellsing". Dieses konnte sich jedoch im Gegensatz zum RTL2 Programm aber nie etablieren. Bis heute spielen Animes in deutschen Fernsehen eine untergeordnete Rolle. Weitere Sender sind der Pay-TV-Animesender Animax (seit 2008), GIGA, VOX, ProSieben Maxx (seit 2013), sowie in unregelmäßigen Abständen Kabel 1 im Kindermorgenprogramm. Bei den VOX gezeigten Animes stammten die nicht vom Sender selbst, sondernwurden den an dctp verkauften Programmblöcken von Fremdanbietern zur Verfügung gestellt. Anime auf deutschen Kaufmedien. Die ersten deutschen Kauf-Animes gab es im Jahr 1975 auf sogenannten TED-Bildplatten (Abkürzung von '), analogen Vinyl-Bildplatten, die eine Spieldauer von ca. 10 Minuten pro Seite hatten und nur von einem einzigen Abspielgerät der Firma Telefunken gelesen werden konnten. Sie verschwanden bereits im folgenden Jahr wieder vom Markt. Bei den darauf angebotenen Anime handelte es sich um einzelne Folgen der Serien ', "Hotte Hummel", ' und "Calimero" (eine japanisch-italienische Koproduktion). Der erste Anime-Spielfilm, den es in Deutschland zu kaufen gab, war der Film "Perix der Kater und die 3 Mausketiere" (jap. ') von Toei Animation aus dem Jahr 1969, der Ende der 1970er-Jahre von der Firma "piccolo film" stark gekürzt auf Super-8-mm-Film angeboten wurde. In der DDR lief er als "Der gestiefelte Kater" im Fernsehen und Kino. In den 1980er-Jahren erschienen zahlreiche Animes auf VHS-Kassetten, wobei es sich meistens um Kinderserien handelte und nicht auf die Herkunft der Serien oder Filme verwiesen wurde. Beispielsweise erschien der Film "Das Schloss des Cagliostro" in einer aus Frankreich stammenden, stark geschnittenen Version unter dem Titel "Hardyman räumt auf". Damals wurde mit "Angel, das Blumenmädchen" auch die erste Magical-Girl-Serie in Deutschland auf VHS veröffentlicht. Die ersten VHS-Kassetten, mit denen gezielt Fans japanischer Animationen angesprochen werden sollten und bei denen ausdrücklich Japan als Produktionsland genannt wurde, stammten aus dem Jahr 1986. Damals wurden unter dem Label „“ einzelne Folgen der Serien "Die Abenteuer der Honigbiene Hutch", "Demetan der Froschjunge" und "Macross" veröffentlicht, wobei darauf geachtet wurde, das Originalmaterial möglichst unverändert zu lassen – der japanische Vor- und Abspann blieben erhalten, und vorkommende Songs wurden japanisch belassen. „“ verschwand jedoch bereits 1987 wieder vom Markt. Der nächste Versuch eines eigenen deutschen Anime-Labels begann 1995 mit dem Film ', der in einer offiziellen Auflage von 2500 VHS-Kassetten erschien und zugleich der erste deutsche Kauf-Anime im japanischen Original mit deutschen Untertiteln war. In der Folgezeit wurden immer mehr Anime-Kaufvideos veröffentlicht (z.  B. ', ', '). Das dabei auftretende Problem, dass die Fans Originalfassungen mit Untertiteln bevorzugten, während für den Massenmarkt eher synchronisierte Fassungen erforderlich waren, löste sich mit dem Aufkommen der DVD, auf der beide Formate gleichzeitig angeboten werden konnten. Auch auf dem Medium wurden Animes veröffentlicht. Der Klassiker (Filmjahr 1995, Discjahr 1999) sowie (Filmjahr 1996, Discjahr 1998) und (Filmjahr 1996, Discjahr 1998) erschienen in der deutschen Synchronfassung. Anime auf Videoportalen. Im September 2007 startete das Video-on-Demand-Portal "Anime-on-Demand". Seit dem Jahr 2011 bietet das Video-Portal Myvideo auch offiziell Anime-Serien an. Das Angebot umfasst überwiegend ältere Titel sowie kürzlich bei ProSieben Maxx ausgestrahlte TV-Folgen. Im April 2013 startete der Anime-Publisher Peppermint auf der Videoplattform Vimeo den Kanal Peppermint TV, auf dem die Serie "Valvrave The Librator" als deutscher Simulcast angeboten wurde, d.h. die Folgen direkt nach ihrer Erstausstrahlung in Japan mit deutschen Untertiteln angeboten wurde. Das US-Portal Crunchyroll kündigte im April 2013 ebenfalls an deutsche Untertitel anzubieten und begann im Dezember 2013 mit deutschen Simulcasts für mehrere Serien. Von April 2013 bis Juni 2015 bot auch RTL II Animes im Internet an. Das Angebot sollte als Ersatz zum eingestellten Programmblock im TV dienen. Auch andere TV-Sender haben Animes nach Ausstrahlung zeitlich befristet auf ihren Homepages angeboten. Im Juli 2013 begann der Publisher Kazé mit "Space Dandy" auf Anime-on-Demand mit Simulcasts, sowie Nipponart mit "Chaika, die Sargprinzessin" auf Clipfish. Letztere Website richtete im selben Zeitraum einen separaten Animebereich ein. Das von japanischen Animationsstudios und Publishern betriebene Portal Daisuki.net, bot im Dezember 2013 den Fernsehfilm als deutschen Simulcaststream an. Beim deutschen Netflix-Start zum September 2014 war neben anderen Animeserien auch "Knights of Sidonia" im Katalog das als „Netflix-Original“ beworben wird, da die Website die exklusiven Vertriebsrechte in all ihren Territorien besitzt und mit dem sie im Dezember 2013 in den USA ihr Anime-Angebot startete. Viewster begann im Dezember 2014 mit regulären deutschen Simulcasts von Anime der aktuellen Saison. Deutschsprachige Anime-Magazine. Das einzige derzeitige professionelle deutschsprachige Anime-Fachmagazin ist die "AnimaniA", die seit September 1994 erscheint. Dazu kommen Jugendmagazine mit eigenen Anime-Bereichen, wie "Mega Hiro", "Koneko" und "Kids Zone". Von August 1995 bis Dezember 1996 erschien das Magazin "A.M.I." (die Erstausgabe noch unter dem Namen "Project A-nime") im Schaefers-Verlag. Das Magazin wurde nach fünf Ausgaben eingestellt. Von Januar 2001 bis September 2007 erschien außerdem auch das Magazin "MangasZene" und der Verein Anime no Tomodachi gibt die Zeitschrift "Funime" heraus. Fankultur. Japanische Animationsfilme haben weltweit eine Fangemeinde, die sich in großen Teilen mit der von Mangas überschneidet. Viele Veranstaltungen widmen sich daher beiden Medien. Eine Fanszene entwickelte sich zunächst in Japan und ab den 1980er Jahren nur in kleinerem Maße in den USA und Frankreich. Mit zunehmender Verbreitung und Popularität von Animes wie auch Mangas nach der Veröffentlichung von "Akira" im Westen und umso mehr nach dem Erfolg von Fernsehserien, darunter "Sailor Moon" und "Dragon Ball", entwickelte sich in Nordamerika und Europa eine größere Fangemeinde. Als die deutsche Fanszene um das Jahr 2000 herum wuchs, war sie noch sehr jung. Einer Umfrage von Sozioland aus dem Jahr 2005 sowie einer Untersuchung des französischen Centre d'Études et de Recherches Internationales zufolge waren die meisten zwischen 14 und 25 Jahren alt. Nur wenige waren über 25, spielten jedoch in der Fanszene eine wichtige Rolle, gründeten die ersten Magazine und Veranstaltungen. 70 bis 85 Prozent der Befragten waren weiblich. Bedeutende Veranstaltungen, auf denen sich Fans vorrangig treffen, sind Anime- und Manga-Conventions. Diese Conventions bieten Verkaufsstände, Workshops, Autogrammstunden, Konzerte oder Videoabende, Fans verkleiden sich oft als Figur aus einem Anime (Cosplay). Eine der weltweit größten Conventions ist die Japan Expo in Frankreich mit über 230.000 Besuchern. Darüber hinaus finden viele weitere in Europa und Nordamerika statt. In Deutschland war lange Zeit die AnimagiC die von der Besucherzahl größte Anime-Convention. Im Jahre 2011 wurde sie von der Connichi mit fast 25.000 Besuchern abgelöst. Daneben ist Anime auch bei Veranstaltungen zu Japan, Animationsfilm oder Comic ein Thema, so finden sich in Deutschland beim Japantag oder der Frankfurter Buchmesse Veranstaltungen zum japanischen Animationsfilm. Actionfilm. Der Actionfilm (von engl. "action": Tat, Handlung, Bewegung) ist ein Filmgenre des Unterhaltungskinos, in welchem der Fortgang der äußeren Handlung von zumeist spektakulär inszenierten Kampf- und Gewaltszenen vorangetrieben und illustriert wird. Es geht eher um stimulierende Aktionen als um inhaltliche Zusammenhänge, empathisches Miterleben der Gefühlswelt der Protagonisten oder künstlerisch-ästhetische Bildwelten. Hauptbestandteile von Actionfilmen sind daher meist aufwendig gedrehte Stunts, Schlägereien, Schießereien, Explosionen und Verfolgungsjagden. Geschichte. Der Actionfilm ist seit den 1960er-Jahren ein eigenständiges Filmgenre, doch seine Konventionen sind bereits seit dem Beginn der Filmgeschichte bekannt. Künstler aus dem Vaudeville wie Buster Keaton ließen ihr Können in artistischer Bewegung in Verbindung mit Tricktechnik in ihr Filmschaffen einfließen. Der Actionfilm als eigenes Genre hat seinen Ursprung im Kriminalfilm, in dem in den 1950er-Jahren Aktion und explizite Darstellung von physischer Gewalt zunehmend an Bedeutung gewann, etwa in Stanley Kubricks "Die Rechnung ging nicht auf" (1956). Alfred Hitchcock präsentierte in "Der unsichtbare Dritte" (1959) erstmals eine geschlossene filmische Welt, die ausschließlich als Herausforderung für die physische Aktion der Hauptfigur dient. Dieses Konzept der geschlossenen Actionwelt, die rein zum Ausleben von Körperakrobatik und zur Demonstration spektakulärer Gewaltanwendungstechniken existiert, fand seine Fortsetzung in den Filmen der James-Bond-Reihe und in Fernsehserien wie "Kobra, übernehmen Sie". Dieser von realistischer Darstellung und moralischer Wertung weit entfernten Illusionstendenz stehen die Regisseure der Bewegung des New Hollywood gegenüber, die in offener Form Aktion und Gewaltanwendung inszenierten. Sie reagierten auf gesellschaftliche und politische Entwicklungen wie die Protestbewegung und den Vietnamkrieg und suchten den Kontext der Darstellung zu Fragen der Moral, etwa zu den Folgen von Gewaltanwendung auf den menschlichen Körper. Beispiele für diese realistischere und ernüchternde Herangehensweise sind Arthur Penns "Bonnie und Clyde" (1967) und Sam Peckinpahs "The Wild Bunch – Sie kannten kein Gesetz" (1969). Mit den Bruce-Lee-Filmen fand eine Ära der Überbetonung physischer Kräfte und des Körperkultes im Actionfilm ihren Anfang. Stilmittel wie Zeitlupe und Tonverfremdungen führten zur Entwicklung und Definition des Subgenres des Martial-Arts-Films. In den 1980er Jahren beherrschte der Actionfilm das Mainstreamkino mit Stars wie Arnold Schwarzenegger und Sylvester Stallone, die durch Bodybuilding den Körperkult auf einen Höhepunkt führten. Reaktionäre Themen wie Rachephantasien und das stereotype Aufbauen von Feindbildern beherrschten das Actionkino. In den 1990er Jahren wurde das Genre zunehmend ironisiert und spiegelte sich selbst, etwa in Filmen wie "Last Action Hero" (John McTiernan, 1993) und "True Lies" (James Cameron, 1994). McTiernans "Stirb-langsam"-Reihe (1988 bis 2013) brach ebenfalls ironisch mit dem Heldenbild des Actionfilms und ließ ihren Protagonisten, dargestellt von Bruce Willis, entmystifiziert als leidensfähigen Jedermann gegen das Böse siegen. Stars wie Jackie Chan vereinnahmten den Stunt als Teil der künstlerischen Darstellung und zogen einen Teil ihrer Popularität aus der Tatsache, auch gefährliche Action grundsätzlich selbst zu bewerkstelligen. Motive und Darstellungsformen. Die Bewegung, Grundmotiv des Films, dient im Actionfilm in erster Linie Schauzwecken und hat weniger erzählerische Funktionen. Oft werden im Actionfilm in der Art einer Nummernrevue geschlossene Sequenzeinheiten aneinandergereiht, die der Zurschaustellung unterschiedlichster bewegungsgetriebener Konflikt- oder Duellsituationen dienen, etwa Shootouts, Verfolgungsjagden, Körperkämpfe oder Explosionen. Subjekte der Aktion sind speziell im US-amerikanischen Actionfilm häufig sich verfolgende Fahrzeuge, etwa in "Brennpunkt Brooklyn" (William Friedkin, 1971), "Bullitt" (Peter Yates, 1968) oder "Dirty Harry" (Don Siegel, 1971). Der dargestellten Gewalt wird häufig in wirklichkeitsfremder Weise der Realitätsbezug genommen. Filmische Mittel wie Konvergenzmontage und Parallelmontage strukturieren diese Nummern, etwa um einen Spannungsbogen in einer Last Minute Rescue aufzulösen. In den Plots geht es meist um den Kampf zwischen Gut und Böse, die Identifikationsfigur ist häufig ein physisch starker männlicher Held (oder eine weibliche Heldin, siehe beispielsweise "Lara Croft"), der/die in der Regel eindeutige moralische Prinzipien vertritt, die den ethischen und weltanschaulichen Grundlagen der westlichen Kultur entsprechen (Gut gegen Böse, Beschützen der Schwachen, Gerechtigkeit, Sühne für erlittenes Unrecht, Verteidigung und Bewahrung der vertrauten Lebensweise usw.). Häufig fließen erzählerische Elemente aus verwandten Genres in den Actionfilm ein, unter anderem aus dem Abenteuerfilm, dem Kriegsfilm, dem Kriminalfilm, dem Psychothriller, dem Horrorfilm und dem Science-Fiction-Film. Al Pacino. Alfredo James „Al“ Pacino (* 25. April 1940 in New York City, New York) ist ein US-amerikanischer Schauspieler, Filmregisseur, -produzent und Oscar-Preisträger. Er gilt als einer der herausragenden Charakterdarsteller des zeitgenössischen US-amerikanischen Films und Theaters. Kindheit und Jugend. Al Pacino, geboren in Manhattan, ist der Sohn von Salvatore Pacino, geboren in der sizilianischen Stadt Corleone, und von Rose Gerard, der Tochter eines italienischen Einwanderers und einer italienisch-amerikanischen Mutter, die in New York geboren wurde. Seine Eltern ließen sich scheiden, als er zwei Jahre alt war. Nach der Scheidung zogen Al und seine Mutter in die Bronx, und Pacino wuchs bei seinen sizilianischen Großeltern, die aus der Heimatstadt seines Vaters eingewandert waren, in der New Yorker South Bronx auf. Sein Vater Salvatore zog nach Covina, Kalifornien, und arbeitete als Versicherungsagent und besaß ein Restaurant mit dem Namen „Pacino’s Lounge“. Das "Pacino’s" wurde später in wirtschaftlich schweren Zeiten in den frühen 90er Jahren geschlossen, heute trägt es den Namen "Citrus Grill". Salvatore Pacino starb am 1. Januar 2005 im Alter von 82 Jahren. Al Pacino ist der Stiefsohn der Schauspielerin und Maskenbildnerin Katherin Kovin-Pacino und hat vier Schwestern: Josette, eine Lehrerin, die Zwillinge Roberta und Paula sowie Desiree, die Pacinos Vater in seiner vierten Ehe adoptiert hatte. Mit 17 Jahren wurde Pacino der Schule verwiesen und ging fortan auf die "Manhattan School of Performing Arts". Nebenher arbeitete er als Platzanweiser und Kartenabreißer an kleineren Theatern. Nachdem er seinen Abschluss an dem renommierten Lee Strasberg Theatre and Film Institute bei dem angesehenen Schauspiellehrer Herbert Berghof gemacht hatte, begann er seine Schauspielkarriere. Schauspielkarriere. Pacino war schon als Kind an der Schauspielerei interessiert und baute sein Talent schließlich in den Studios Herbert Berghoff und dem Actors Studio, zwei renommierten Schauspielschulen in New York, aus. Dort spielte er in mehreren erfolgreichen Theaterstücken wie in seinem Debütstück "The Connection" und in "The Indian Wants the Bronx", für das er mit dem Obie-Award ausgezeichnet wurde. Filmschauspieler. 1969 wirkte er in seiner ersten Hollywood-Produktion "Ich, Natalie" mit. 1971 erhielt er eine Rolle neben Kitty Winn in dem Film "Panik im Needle Park", die ihm den Weg für die Rolle des Michael Corleone in Francis Ford Coppolas "Der Pate" (1972) ebnete und ihm 1973 seine erste Oscar-Nominierung einbrachte. Nach "Hundstage" wurde es stiller um Pacino, erst in den 1980er Jahren brachte er sich durch Filme wie Brian De Palmas "Scarface" (1983) und "Sea of Love – Melodie des Todes" (1989) wieder ins Gespräch. Nach einer erneuten Zusammenarbeit mit Coppola in "Der Pate III" (1990) folgte der Thriller "Heat" (1995) mit Schauspielkollege Robert De Niro. Die männliche Hauptrolle in dem Film "Pretty Woman" lehnte er dagegen ab. Seine Darstellung des AIDS-kranken Schwulenhassers Roy Cohn in der Miniserie "Engel in Amerika" (2003) brachte ihm zahlreiche Preise ein und wurde von der Kritik hoch gelobt. Pacino ist dafür bekannt, seine Rollen bis zum Extrem auszufüllen. Während sein Spiel in den 1970er Jahren - insbesondere in der "Der Pate" - dabei zumeist minimalistisch war, änderte es sich mit seinem Comeback in den 1980er Jahren radikal. Pacinos exaltierte Darstellungen in Filmen wie "Scarface", "Im Auftrag des Teufels", "An jedem verdammten Sonntag" oder auch "Der Duft der Frauen" wurden von Kritikern oftmals als Overacting bezeichnet. Für einen Großteil des Filmpublikums zeichnet ihn allerdings genau diese Art und Weise als einen der größten Charakterdarsteller der Gegenwart aus. Viele seiner Filme, wie auch der an den Kinokassen gefloppte "Glengarry Glen Ross", zählen heute zu den Besten ihres Genres. Theaterarbeit. Neben seiner Karriere als Filmschauspieler arbeitet er weiterhin regelmäßig an verschiedenen Theatern – sowohl als Darsteller wie auch als Regisseur und Produzent. Für seine Rollen in den Bühneninszenierungen von "The Basic Training Of Pavlo Hummel" von David Rabe und "Does A Tiger Wear A Necktie?" von Don Petersen erhielt er jeweils einen Tony Award. Als langjähriges Mitglied von David Wheelers "Experimental Theatre Company" in Boston stand er unter anderem in "Richard III." und Bertolt Brechts "Der aufhaltsame Aufstieg des Arturo Ui" auf der Bühne. In New York und London spielte Pacino in David Mamets "American Buffalo", in New York war er der Titelheld in "Richard III." und spielte den Mark Anton in "Julius Cäsar". Außerdem stand er im "Square Theatre" in New York in Oscar Wildes "Salome" auf der Bühne und wirkte in der Uraufführung von Ira Levins Theaterstück "Chinese Coffee" mit. In der Theatersaison 2010–2011 spielte Pacino in der "Shakespeare in the Park"-Produktion "Der Kaufmann von Venedig" den "Shylock". Mit der Inszenierung gewann Heather Lind, die als Shylocks Tochter "Jessica" auftrat, einen Theatre World Award für ein herausragendes Broadway-Debüt. Eigene Projekte. Pacinos erstes eigenständiges Projekt war 1996 "Looking for Richard", eine dokumentarische und künstlerische Film-Studie über den Charakter von Shakespeares "Richard III.", bei dem er Regie führte, produzierte, das Drehbuch schrieb und die Hauptrolle spielte. Pacino war auch Produzent, Hauptdarsteller und Co-Autor des Independent-Kurzfilms "The Local Stigmatic", einer Verfilmung des gleichnamigen Theaterstücks von Heathcote Williams, das sowohl im New Yorker Museum Of Modern Art als auch im "Public Theatre" aufgeführt wurde. Privatleben. Al Pacino war nie verheiratet. Er hat drei Kinder, eine Tochter mit Jan Tarrant und Zwillinge (Tochter und Sohn, geboren 2001) mit Beverly D’Angelo. Synchronstimme. In der deutschen Synchronisation wurde Pacino seinem Alter entsprechend von verschiedenen Sprechern synchronisiert, so in "Der Pate I und II" von Lutz Mackensy und in "Der Pate III" von Gottfried Kramer. Frank Glaubrecht, der auch u. a. Pierce Brosnan und Kevin Costner seine Stimme lieh, synchronisierte Al Pacino u. a. in dem Thriller "Sea of Love – Melodie des Todes" und gilt als seine Standardstimme. In "Der Duft der Frauen" und in "Carlitos Way" war Klaus Kindler seine Synchronstimme. Alkohole. Der HOC-Bindungswinkel in einem Alkohol. Alkohole (, oder: das Allerfeinste, reine Substanz, eigentlich: feines Antimonpulver) sind chemische Verbindungen, die eine oder mehrere an aliphatische Kohlenstoffatome gebundene Hydroxygruppen (–O–H) haben. Alkohole, die sich von den Alkanen ableiten, werden Alkanole genannt. Um eine klare Abgrenzung der Alkohole von Halbacetalen oder Carbonsäuren sicherzustellen, kann man ergänzen, dass das Kohlenstoffatom (sp3-hybridisiert, siehe auch Enole) mit der Hydroxygruppe nur noch mit Kohlenstoff- oder Wasserstoffatomen gebunden sein darf. Ist die Hydroxygruppe an ein Kohlenstoffatom gebunden, das Teil eines aromatischen Ringes ist, so werden die Verbindungen als Phenole bezeichnet. Sie zählen nicht zu den Alkoholen, da diese Hydroxygruppen analog einer Carboxygruppe sauer regieren. Nomenklatur und Einteilung. Der Name einfacher Alkohole ergibt sich als Zusammensetzung aus dem Namen des ursprünglichen Alkans und der Endung. Zusätzlich wird die Position der OH-Gruppe durch eine vorangestellte Zahl verdeutlicht, zum Beispiel. Eine veraltete, bis 1957 gültige Bezeichnung für Alkohole ist – nach einem Vorschlag von Hermann Kolbe – "Carbinole". Die Gruppe wird nach verschiedenen Kriterien (Zahl der Nichtwasserstoffnachbarn, Wertigkeit, Vorhandensein von Doppel-/Dreifachbindungen und Kettenlänge) eingeteilt. Zahl der Nichtwasserstoffnachbarn. Man unterscheidet Alkohole nach der Zahl der Nichtwasserstoffnachbarn des Kohlenstoffatoms, an welchem sich die Hydroxygruppe befindet. Bei primären Alkoholen trägt es zwei, bei sekundären ein und bei tertiären kein Wasserstoffatom. Ein Sonderfall ist das Methanol, das neben der Hydroxygruppe drei Wasserstoffatome am Kohlenstoffatom trägt. Wertigkeit der Alkohole. Ist mehr als eine Hydroxygruppe in einem Alkoholmolekül vorhanden, wird deren Anzahl durch Einfügen einer der Anzahl der Hydroxygruppen entsprechenden griechischen Silbe (-di-, -tri- usw.) vor der Endung angegeben und man spricht von mehrwertigen Alkoholen. Ein ist das (Trivialname Ethylenglycol), ein das (Trivialname Glycerin). Die Zahl vor der Endung gibt die Position der funktionellen Gruppe(n) an. Dies gilt auch für einwertige Alkohole, zum Beispiel (Trivialname Isopropanol). Doppel- bzw. Dreifachbindungen. In Bezug auf das Vorhandensein von Doppel- bzw. Dreifachbindungen unterscheidet man Alkanole, Alkenole und Alkinole sowie den Spezialfall der meist instabilen Enole. Kettenlänge. Über die Kettenlänge werden Alkohole ebenfalls unterschieden. Die Bezeichnung "Fettalkohole" verwendet man für Alkohole mit endständiger primärer mit gerader Kette und einer Länge von sechs (Hexanol) bis hin zu 22 (Behenylalkohol) Kohlenstoffatomen. Sie werden meist durch Reduktion der aus Fettsäuren gewonnen. Die höheren primären Alkohole mit 24 bis 36 Kohlenstoffatome bezeichnet man als Wachsalkohole. Orbitalstruktur. In allen aliphatischen Alkoholen ist die Hydroxygruppe an ein sp3-hybridisiertes Kohlenstoffatom (C-Atom mit 4 Substituenten) gebunden. Ein Spezialfall sind die meist instabilen Enole, bei denen die Hydroxygruppe an ein sp2-hybridisiertes Kohlenstoffatom gebunden ist. Physikalische Eigenschaften. Niedrigmolekulare Alkohole sind Flüssigkeiten, die einen charakteristischen Geruch und einen brennenden Geschmack besitzen. Höhere Alkohole sind meist feste Verbindungen mit nur schwach ausgeprägtem Geruch. Aufgrund von intermolekularen Wasserstoffbrückenbindungen besitzen die Alkohole im Vergleich zu Kohlenwasserstoffen gleicher Molekülmasse relativ hohe Schmelz- und Siedepunkte. Wichtigstes gemeinsames Merkmal der Alkohole ist die Hydrophilie. Diese Eigenschaft nimmt mit zunehmender Länge des Alkylrestes ab und mit der Anzahl der Hydroxygruppen zu. Besonders die kurzkettigen Alkohole werden aufgrund ihres amphiphilen Charakters oft als Lösungsmittel verwendet. Hohe Siedepunkte. Abhängigkeit des Siedepunktes von der Anzahl der OH-Gruppen Sauerstoff ist elektronegativer als Wasserstoff und Kohlenstoff, d. h. er zieht Elektronen stärker an als diese. Das führt zu einer unsymmetrischen Verteilung der Elektronen entlang der, man spricht von einer polaren Bindung, es bildet sich ein molekularer Dipol aus. Diese Dipole können untereinander Wasserstoffbrückenbindungen ausbilden, die die Anziehung der einzelnen Moleküle untereinander drastisch verstärken. Dies führt für Alkohole zu relativ hohen Siedepunkten gegenüber den um eine Methyleneinheit verlängerten Homologen ihrer Stammverbindung, die eine annähernd gleiche molarer Masse besitzen. So hat beispielsweise das unpolare Ethan (C2H6) (M = 30) einen Siedepunkt von −89 °C, während Methanol (CH3OH) (M = 32) diesen erst bei 65 °C erreicht. Hydrophilie. Die OH-Gruppe ist ebenfalls in der Lage, Wasserstoffbrückenbindungen mit Wasser einzugehen. Sie erhöht damit die Hydrophilie, die Wasserlöslichkeit, der Verbindung. Organische Alkylreste selbst sind nicht wasserlöslich, also hydrophob. Die Wasserlöslichkeit sinkt daher mit der Größe des organischen Anteils und steigt mit der Zahl der Hydroxygruppen. Die Propanole und "tert."-Butanol sind bei Raumtemperatur noch in jedem Verhältnis mit Wasser mischbar, alle langkettigeren Alkohole lösen sich nur noch in zunehmend kleinen Mengen. Größere Mengen gelöster anorganischer Salze können auch bei den kurzkettigen Alkoholen eine Phasentrennung bewirken („Salzfracht“). Acidität. Der pKs-Wert (Säurestärke) von Alkoholen liegt bei etwa 15. Sie reagieren somit in wässriger Lösung näherungsweise neutral. Es ist möglich, sie mit einer starken Base zu deprotonieren. Die deprotonierte Form eines Alkohols heißt "Alkoholat". Die Acidität von Alkoholen nimmt in der Reihe von Methanol über primäre, sekundäre und tertiäre Spektroskopie. Im IR-Spektrum von Alkoholen ist deutlich die breite Bande der O–H-Valenzschwingung im Bereich von 3200–3650 cm−1 zu erkennen. Die Breite des Peaks wird durch Wasserstoffbrückenbindungen mit Wassermolekülen verursacht und ist in Spektren von wasserfreien Alkoholen in einem engeren Bereich von 3620–3650 cm−1 zu finden. Reaktion mit konzentrierter Schwefelsäure. Unterhalb von 140 °C bildet sich der Ester der Schwefelsäure. Bei etwa 140 °C findet die Kondensationsreaktion zu einem Ether statt. Oberhalb von 170 °C werden primäre Alkohole zu Alkenen dehydratisiert. (Eliminierung) Selenoxid-Eliminierung. Die Selenoxid-Eliminierung ist eine milde Variante der Eliminierung. Veresterung. Mit Carbonsäuren reagieren Alkohole unter Wasserabgabe zu Estern, diese Reaktion wird auch Veresterung genannt. Diese Reaktion wird durch Säuren katalysiert. Oxidation. Primäre Alkohole lassen sich zu Aldehyden und Carbonsäuren, sekundäre Alkohole zu Ketonen oxidieren. Tertiäre Alkohole lassen sich nicht weiter oxidieren, es sei denn unter Zerstörung des Kohlenstoffgerüsts. Zur Oxidation von primären Alkoholen zur Carbonsäure können Chrom(VI)-haltige Oxidationsmittel eingesetzt werden, wie sie z. B. bei der Jones-Oxidation Anwendung finden. Als chromfreies, weniger giftiges Reagenz steht wässriges Rutheniumtetroxid zur Verfügung. Die Oxidation eines primären Alkohols kann unter Verwendung bestimmter Chrom(VI)-Verbindungen wie dem Collins-Reagenz auch nur bis zur Stufe des Aldehyds erfolgen. Entscheidend ist, dass wasserfreie Lösungsmittel eingesetzt werden. Ist kein Wasser anwesend, kann keine Hydratisierung zum geminalen Diol des Aldehyds (Aldehydhydrate) stattfinden. Da lösliche Chromate sehr giftig sind, sowie karzinogene und mutagene Eigenschaften besitzen, wurden alternative Methoden zur Oxidation von Alkoholen entwickelt. Eine häufig zur Anwendung kommende Methode ist die Swern-Oxidation mit aktiviertem Dimethylsulfoxid. Fast alle Methoden eignen sich ebenfalls für die Oxidation sekundärer Alkohole zu Ketonen. Die folgende Aufzählung liefert eine Übersicht der wichtigsten Methoden. Acetalbildung. Mit Aldehyden reagieren Alkohole in Gegenwart saurer Katalysatoren zu Halbacetalen bzw. Acetalen. Verwendung. Viele Alkohole sind wichtige Lösungsmittel, die sowohl in der Industrie, als auch im Haushalt eingesetzt werden; die mengenmäßig wichtigsten sind Methanol, Ethanol, 2-Propanol und n-Butanol. Im Jahr 2011 wurden weltweit etwa 6,4 Mio. Tonnen dieser alkoholischen Lösungsmittel nachgefragt. Umsetzung mit metallischem Natrium. Wenn man zu einer flüssigen Alkoholprobe Natrium hinzufügt, so entsteht Wasserstoff, welches man mit der Knallgasprobe nachweisen kann. Diese Methode gilt zwar als Alkoholnachweis, ist jedoch nicht eindeutig, da alle ausreichend protischen Substanzen, zum Beispiel Carbonsäuren, anorganische Säuren oder Wasser, die gleiche Reaktion eingehen. Alcotest. Das Nachweisprinzip beruht auf dem Farbumschlag von gelb-orange (saure Dichromatlösung) nach grün (Chrom(III)-Ionen) und kann spektralphotometrisch gemessen werden. Certest. Eine weitere Möglichkeit besteht in der Umsetzung mit Cer(IV)-ammoniumnitrat. Hierbei wird eine konzentrierte Lösung von Cer(IV)-ammoniumnitrat mit einer verdünnten Lösung der unbekannten Substanz versetzt. Enthält die unbekannte Substanz Alkohol-Gruppen, färbt sich das Gemisch rot (manchmal auch grün). Enthält die Substanz Phenole, fällt ein brauner Niederschlag aus. Der Grund für diese Farbreaktion ist eine Komplexbildung, genauer gesagt eine Ligandensubstitution, bei der ein Alkohol/Phenol mit dem Sauerstoffatom am Cer(IV) koordiniert. Durch die Veränderung der Ligandensphäre verändert sich die Farbe des Cer(IV) von hellgelb zu rot/grün/braun. Leicht oxidierbare Alkohole/Phenole können einen negativen Nachweis ergeben, indem sie das Cer(IV) zu Cer(III) reduzieren. Lucas-Probe. Der Nachweis des Substitutionsgrades eines Alkohols, also ob es sich dabei um einen primären, sekundären oder tertiären Alkohol handelt, erfolgt über nucleophile Substitution der OH-Gruppe gegen Chlorid durch die Lucas-Probe. Die Substitution hat zur Folge, dass sich die entstehende Substanz nicht mehr in Wasser löst und damit eine eigene Phase ausbildet. Voraussetzung für diesen Test ist, dass sich der ursprüngliche Alkohol in Wasser löst. Auch darf keine andere unter den Reaktionsbedingungen substituierbare Gruppe vorliegen. Spektroskopie und Derivatisierung. Die eindeutige Identifizierung eines unbekannten Alkohols erfolgt entweder spektroskopisch oder durch Synthese eines charakteristischen Derivates, das einen Schmelzpunkt hat, der von den Schmelzpunkten gleicher Derivate ähnlicher Alkohole gut zu unterscheiden ist. Oftmals werden sie über Ester der oder der identifiziert. Hierzu wird die zu analysierende Substanz in Gegenwart geringer Mengen Schwefelsäure umgesetzt. Die Schmelzpunkte dieser Derivate sind in der Regel scharf. Die Derivate der besitzen in der Regel höhere Schmelzpunkte als die der. Sie werden dann bevorzugt gewählt, wenn der Schmelzpunkt mit der zu niedrig ist und keine genaue Bestimmung mehr möglich wird. Liste wichtiger Alkohole mit Schmelz- und Siedepunkten. Liste wichtiger Alkohole mit Schmelz- und Siedepunkten Bei einzelnen Werten kann es in der Literatur zu Abweichungen kommen. The Visitors. The Visitors ist das achte und letzte Album der Popgruppe ABBA. Es wurde erstmals am 30. November 1981 in Schweden veröffentlicht. Die Aufnahmen im Plattenstudio dauerten von März bis November 1981. Das Album beinhaltet die zwei internationalen Singleauskopplungen "One of Us" und "Head over Heels", wobei erstere den letzten, wenn auch mäßigen, Charterfolg der Gruppe darstellte. Im Vergleich zu den Vorgängeralben von ABBA weist dieses einige musikalische Eigenheiten auf, die zuvor in den Produktionen der Gruppe kaum Anwendung fanden. So wird kein einziges Stück auf der gesamten LP von den beiden ABBA-Sängerinnen Agnetha Fältskog und Anni-Frid Lyngstad durchgehend gemeinsam gesungen. Die Lead Vocals wurden in jedem der neun Lieder auf eine der beiden aufgeteilt. Zudem wurden viele Elemente, die bis dato charakteristisch für die Musik der Gruppe gewesen war, durch neue ersetzt. So handeln die Texte von Trennung, Abschiedschmerz und Kriegsangst. "The Visitors" war zudem die erste veröffentlichte Audio Compact Disc der Musikgeschichte und wurde als CD am 17. August 1982 vorgestellt. Entstehung und Album-Cover. Die Aufnahmen begannen im März 1981 mit "Slipping Through My Fingers", "When All Is Said And Done" und "Two For The Price Of One". Im Mai widmete man sich lediglich "Like An Angel Passing Through My Room". Im September waren "I Let The Music Speak" und "Head over Heels" an der Reihe, bevor im Oktober und im November die letzten Aufnahmen zu "Soldiers, One of Us" und das für das Album namensgebende Lied "The Visitors" stattfanden. Die auf der späteren CD enthaltenen Bonustitel "The Day Before You Came, Cassandra und Under Attack" wurden erst im August 1982 aufgenommen. Der Bonustitel "Should I Laugh Or Cry?" war bereits 1981 als B-Seite der Single "One Of Us" erschienen. "Under Attack" wurde im Dezember 1982 als letzte Single der Gruppe veröffentlicht. Das Album-Cover wurde von Rune Söderqvist zusammen mit dem Fotografen Lasse Larsson entworfen. Söderqvist stellte die Gruppe im kalten, ungeheizten Atelier des Malers Julius Kronberg im Freilichtmuseum Skansen, Stockholm, in einer düsteren Stimmung dar. Im Hintergrund hing ein großes Gemälde von Julius Kronberg, auf dem ein Engel dargestellt war. Das Cover zeigte die Gruppe zum ersten Mal nicht mehr als Gemeinschaft, sondern jedes Mitglied für sich allein. Diese düstere Stimmung innerhalb der Gruppe spiegelte sich sowohl in den Melodien als auch in den Texten vieler Songs wider. Das Cover ist laut "The Making of The Visitors" auch das Resultat einer gewissen Erschöpfung aufgrund des jahrelangen Zusammenseins als Gruppe. Aluminium. Aluminium ist ein chemisches Element mit dem Elementsymbol "Al" und der Ordnungszahl 13. Im Periodensystem gehört Aluminium zur dritten Hauptgruppe und zur 13. IUPAC-Gruppe, der Borgruppe, die früher auch als "Gruppe der Erdmetalle" bezeichnet wurde. Aluminium ist ein silbrig-weißes Leichtmetall. In der Erdhülle ist es, auf den Massenanteil (ppmw) bezogen, nach Sauerstoff und Silizium das dritthäufigste Element und in der Erdkruste das häufigste Metall. Weltweit wurden 2010 insgesamt 41 Mio. Tonnen Primäraluminium hergestellt (2014 in Deutschland: 531.000 Tonnen Primär- und 600.000 Tonnen Recyclingaluminium). Das Metall ist sehr unedel und reagiert an frisch angeschnittenen Stellen bei Raumtemperatur mit Luft und Wasser zu Aluminiumoxid. Dies bildet aber sofort eine dünne, für Luft und Wasser undurchlässige Schicht (Passivierung) und schützt so das Aluminium vor Korrosion. Geschichte. Friedrich Wöhler verwendete 1827 die gleiche Methode, verwendete zur Reduktion jedoch metallisches Kalium und erhielt damit ein reineres Aluminium. Zu jener Zeit kostete Aluminium mehr als Gold. Henri Étienne Sainte-Claire Deville verfeinerte den Wöhler-Prozess im Jahr 1846 und publizierte ihn 1859 in einem Buch. Durch den verbesserten Prozess stieg die Ausbeute bei der Aluminiumgewinnung, was dazu führte, dass der Aluminiumpreis innerhalb von zehn Jahren auf ein Zehntel fiel. 1886 wurde unabhängig voneinander durch Charles Martin Hall und Paul Héroult das jetzt nach ihnen benannte Elektrolyseverfahren zur Herstellung von Aluminium entwickelt: der Hall-Héroult-Prozess. 1889 entwickelte Carl Josef Bayer das nach ihm benannte Bayer-Verfahren zur Aluminiumherstellung. Aluminium wird noch heute nach diesem Prinzip großtechnisch hergestellt. Am Ende des 19. Jahrhunderts stand das Metall in solchem Ansehen, dass man daraus gefertigte Metallschiffe auf den Namen Aluminia taufte. Namensgebung. Der Elementname leitet sich vom lateinischen Wort für Alaun ab. Zwei Namen für das Element sind in Gebrauch: "Aluminium" und "Aluminum". Weltweit dominiert das erstere, während in den Vereinigten Staaten und im kanadischen Englisch der zweite Name geläufiger ist. Die International Union of Pure and Applied Chemistry (IUPAC) beschloss im Jahr 1990, dass der Elementname "Aluminium" laute, akzeptierte 3 Jahre später aber auch "Aluminum" als mögliche Variante. Vorkommen. Aluminium ist mit einem Anteil von 7,57 Gewichtsprozent nach Sauerstoff und Silicium das dritthäufigste Element der Erdkruste und damit das häufigste Metall. Allerdings kommt es aufgrund seines unedlen Charakters praktisch ausschließlich in gebundener Form vor. Die größte Menge befindet sich chemisch gebunden in Form von Alumosilicaten, in denen es in der Kristallstruktur die Position von Silicium in Sauerstoff-Tetraedern einnimmt. Diese Silicate sind zum Beispiel Bestandteil von Ton, Gneis und Granit. Seltener wird Aluminiumoxid in Form des Minerals Korund und seiner Varietäten Rubin (rot) und Saphir (farblos, verschiedenfarbig) gefunden. Die Farben dieser Kristalle beruhen auf Beimengungen anderer Metalloxide. Korund hat mit fast 53 Prozent den höchsten Aluminiumanteil einer Verbindung. Einen ähnlich hohen Aluminiumanteil haben die noch selteneren Minerale Akdalait (etwa 51 Prozent) und Diaoyudaoit (etwa 50 Prozent). Insgesamt sind bisher (Stand: 2010) 1156 aluminiumhaltige Minerale bekannt. Das einzige wirtschaftlich wichtige Ausgangsmaterial für die Aluminiumproduktion ist Bauxit. Vorkommen befinden sich in Südfrankreich (Les Baux), Guinea, Bosnien und Herzegowina, Ungarn, Russland, Indien, Jamaika, Australien, Brasilien und den Vereinigten Staaten. Bauxit enthält ungefähr 60 Prozent Aluminiumhydroxid (Al(OH)3 und AlO(OH)), etwa 30 Prozent Eisenoxid (Fe2O3) und Siliciumdioxid (SiO2). Bei der Herstellung unterscheidet man "Primäraluminium", auch "Hüttenaluminium" genannt, das aus Bauxit gewonnen wird, und "Sekundäraluminium" aus Aluminiumschrott. Die Wiederverwertung benötigt nur etwa 5 Prozent der Energie der Primärgewinnung. Infolge der Passivierung kommt Aluminium in der Natur auch sehr selten elementar (gediegen) vor, meist in Form von körnigen bis massigen Aggregaten, kann in seltenen Fällen aber auch tafelige Kristalle bis etwa einen Zentimeter Größe entwickeln. Von der International Mineralogical Association (IMA) ist es daher in der Mineralsystematik nach Strunz unter der System-Nummer 1.AA.05 beziehungsweise veraltet unter A.03-05 als Mineral anerkannt. Gediegenes Aluminium konnte bisher (Stand: 2010) an rund 20 Fundorten nachgewiesen werden: In Aserbaidschan, Bulgarien, der Volksrepublik China (Guangdong, Guizhou und Tibet), Italien, Russland (Ostsibirien, Ural) und in Usbekistan. Auch auf dem Mond ist gediegenes Aluminium gefunden worden. Aufgrund der extremen Seltenheit hat gediegenes Aluminium keine Bedeutung als Rohstoffquelle. Primäraluminium (Herstellung aus Mineralien). Zeitliche Entwicklung der weltweiten Primäraluminiumproduktion Da Aluminium aus den Alumosilicaten aufgrund der Bindungsverhältnisse praktisch nicht isoliert werden kann, ist eine wirtschaftliche großtechnische Gewinnung von metallischem Aluminium nur aus Bauxit möglich. Das in diesem Erz enthaltene Aluminiumoxid/-hydroxid-Gemisch wird zunächst mit Natronlauge aufgeschlossen (Bayer-Verfahren, Rohrreaktor- oder Autoklaven-Aufschluss), um es von Fremdbestandteilen wie Eisen- und Siliciumoxid zu befreien und wird dann überwiegend in Wirbelschichtanlagen (aber auch in Drehrohröfen) zu Aluminiumoxid (Al2O3) gebrannt. Der sogenannte trockene Aufschluss (Deville-Verfahren) hat dagegen keine Bedeutung mehr. Dabei wurde feinstgemahlenes, ungereinigtes Bauxit zusammen mit Soda und Koks in Drehrohröfen bei rund 1200 °C kalziniert und das entstehende Natriumaluminat anschließend mit Natronlauge gelöst. Die Herstellung von Aluminium erfolgt ausschließlich durch Schmelzflusselektrolyse von Aluminiumoxid nach dem Kryolith-Tonerde-Verfahren (Hall-Héroult-Prozess). Zur Herabsetzung des Schmelzpunktes wird das Aluminiumoxid zusammen mit Kryolith geschmolzen (Eutektikum bei 963 °C). Bei der Elektrolyse entsteht an der den Boden des Gefäßes bildenden Kathode Aluminium und an der Anode Sauerstoff, der mit dem Graphit (Kohlenstoff) der Anode zu Kohlenstoffdioxid und Kohlenstoffmonoxid reagiert. Die Graphitblöcke, welche die Anode bilden, brennen so langsam ab und werden von Zeit zu Zeit ersetzt. Die Graphitkathode (Gefäßboden) ist gegenüber Aluminium inert. Das sich am Boden sammelnde flüssige Aluminium wird mit einem Saugrohr abgesaugt. Aufgrund der hohen Bindungsenergie durch die Dreiwertigkeit des Aluminiums ist der Prozess recht energieaufwändig. Pro produziertem Kilogramm Rohaluminium müssen 12,9 bis 17,7 Kilowattstunden an elektrischer Energie eingesetzt werden. Eine Reduzierung des Strombedarfs ist nur noch in geringem Ausmaß möglich, weil die Potentiale für energetische Optimierungen weitgehend erschlossen sind. Aluminiumherstellung ist daher nur in der Nähe preiswert zur Verfügung stehender Elektroenergie wirtschaftlich z. B. neben Wasserkraftwerken, wie in Rheinfelden. Die nachfolgende Tabelle zeigt die Aluminiumproduktion und die maximal mögliche Produktionsleistung der Hüttenwerke nach Ländern. Sekundäraluminium (Herstellung durch Aluminium-Recycling). Um Aluminium zu recyceln, werden Aluminiumschrotte und „Krätzen“ in Trommelöfen eingeschmolzen. „Krätze“ ist ein Abfallprodukt bei der Verarbeitung von Aluminium und bei der Herstellung von Sekundäraluminium. Krätze ist ein Gemisch aus Aluminiummetall und feinkörnigen Oxidpartikeln und wird beim Schmelzen von Aluminium bei 800 °C aus dem Aluminiumoxid der normalen Aluminiumkorrosion und als Oxidationsprodukt (Oxidhaut) beim Kontakt von flüssigem Aluminium mit Luftsauerstoff gebildet. Damit beim Aluminiumgießen keine Aluminiumoxidpartikel in das Gußteil gelangen wird die Krätze durch "Kratz"vorrichtungen von der Oberfläche des Metallbads abgeschöpft. Um die Bildung von Krätze zu verhindern, wird die Oberfläche der Schmelze mit Halogenid­salzen (rund zwei Drittel NaCl, ein Drittel KCl und geringe Mengen Calciumfluorid CaF2) abgedeckt (siehe dazu Aluminiumrecycling). Dabei entsteht als Nebenprodukt Salzschlacke, die noch ca. 10 Prozent Aluminium enthält, die, entsprechend aufbereitet, als Rohstoff für mineralische Glasfasern dient. Allerdings steht das Sekundäraluminium im Ruf, dass beim Recycling pro Tonne jeweils 300 bis 500 Kilogramm Salzschlacke, verunreinigt mit Dioxinen und Metallen, entsteht, deren mögliche Wiederverwertung aber Stand der Technik ist. Physikalische Eigenschaften. Aluminium ist ein relativ weiches und zähes Metall, die Zugfestigkeit von absolut reinem Aluminium liegt bei 45 N/mm², die Streckgrenze bei 17 N/mm² und die Bruchdehnung bei 60 %, während bei handelsüblich reinem Aluminium die Zugfestigkeit bei 90 N/mm² liegt, die Streckgrenze bei 34 N/mm² und die Bruchdehnung bei 45 %. Die Zugfestigkeit seiner Legierungen liegt dagegen bei bis zu 710 N/mm² (Legierung 7068). Sein Elastizitätsmodul liegt bei etwa 70.000 MPa. Der Schmelzpunkt liegt bei 660,4 °C und der Siedepunkt bei 2470 °C. Die Schmelztemperatur ist deutlich niedriger als die von Kupfer (1084,6 °C), Gusseisen (1147 °C) und Eisen (1538 °C). Mit einer Dichte von 2,70 g/cm³ (etwa ein Drittel von Stahl) ist Aluminium ein typisches Leichtmetall. Aluminium besitzt mit 237 W/(m·K) eine hohe Wärmeleitfähigkeit, als Metalle liegen nur Silber mit 429 W/(m·K), Kupfer mit 401 W/(m·K) und Gold mit 314 W/(m·K) darüber. Der Wärmeausdehnungskoeffizient ist durch den recht niedrigen Schmelzpunkt mit 23,1 μm·m−1·K−1 recht hoch. Bei einer Sprungtemperatur von 1,2 K wird reines Aluminium supraleitend. Chemische Eigenschaften. Geätzte Oberfläche eines hochreinen (99,9998 %) Aluminium-Barrens, Größe 55 mm × 37 mm Hochreines Aluminium (99,99 %), makrogeätzt Das reine Leichtmetall Aluminium hat aufgrund einer sich sehr schnell an der Luft bildenden dünnen Oxidschicht ein stumpfes, silbergraues Aussehen. Diese passivierende Oxidschicht macht reines Aluminium bei pH-Werten von 4 bis 9 sehr korrosionsbeständig, sie erreicht eine Dicke von etwa 0,05 µm. Diese Oxidschicht schützt auch vor weiterer Oxidation, ist aber bei der elektrischen Kontaktierung und beim Löten hinderlich. Sie kann durch elektrische Oxidation (Eloxieren) oder auf chemischem Weg verstärkt werden. Liegen in der Lösung Ionen edlerer Metalle vor, so werden sie reduziert und am Aluminium abgeschieden. Auf diesem Prinzip beruht die Reduktion von Silberionen, die auf der Oberfläche von angelaufenem Silber als Silbersulfid vorliegen, hin zu Silber. Aluminium reagiert heftig mit wässriger Natriumhydroxidlösung (NaOH) unter Bildung von Wasserstoff. Diese Reaktion wird in chemischen Rohrreinigungsmitteln ausgenutzt. Die Reaktion von Aluminium mit NaOH läuft in zwei Schritten ab: der Reaktion mit Wasser und die Komplexierung des Hydroxids zu Natriumaluminat. Dies passiert jedoch nicht bei der Reaktion von Aluminium in wässriger Natronlauge. Durch die Komplexierung wird das gallertartige Hydroxid wasserlöslich und kann von der Metalloberfläche abtransportiert werden. Dadurch ist die Aluminiumoberfläche nicht mehr vor dem weiteren Angriff des Wassers geschützt und Schritt 1 läuft wieder ab. Mit dieser Methode lassen sich – ebenso wie bei der Reaktion von Aluminium mit Säuren – pro zwei Mol Aluminium drei Mol Wasserstoffgas herstellen. Mit Brom reagiert Aluminium bei Zimmertemperatur unter Flammenerscheinung. Hierbei ist zu beachten, dass das entstehende Aluminiumbromid mit Wasser unter Bildung von Aluminiumhydroxid und Bromwasserstoffsäure reagiert. Mit Quecksilber bildet Aluminium ein Amalgam. Wenn Quecksilber direkt mit Aluminium zusammenkommt, d. h., wenn die Aluminiumoxidschicht an dieser Stelle mechanisch zerstört wird, frisst Quecksilber Löcher in das Aluminium; unter Wasser wächst dann darüber Aluminiumoxid in Gestalt eines kleinen Blumenkohls. Daher wird Quecksilber in der Luftfahrt als Gefahrgut und „ätzende Flüssigkeit“ gegenüber Aluminiumwerkstoffen eingestuft. Auch mit Salzsäure reagiert Aluminium sehr heftig unter Wasserstoffentwicklung, von Schwefelsäure wird es langsam aufgelöst. In Salpetersäure wird es passiviert. In Pulverform (Partikelgröße kleiner 500 µm) ist Aluminium vor allem dann, wenn es nicht phlegmatisiert ist, aufgrund seiner großen Oberfläche sehr reaktiv. Aluminium reagiert dann mit Wasser unter Abgabe von Wasserstoff zu Aluminiumhydroxid. Feinstes, nicht phlegmatisiertes Aluminiumpulver wird auch als Pyroschliff bezeichnet. Nicht phlegmatisierter Aluminiumstaub ist sehr gefährlich und entzündet sich bei Luftkontakt explosionsartig von selbst. Aluminiumlegierungen. Aluminium kann im schmelzflüssigen Zustand mit Kupfer, Magnesium, Mangan, Silicium, Eisen, Titan, Beryllium, Lithium, Chrom, Zink, Zirconium und Molybdän legiert werden, um bestimmte Eigenschaften zu fördern oder andere, ungewünschte Eigenschaften zu unterdrücken. Es geht mit einigen Elementen intermetallische Phasen ein, insbesondere NiAl, Ni3Al und TiAl. Bei den meisten Legierungen ist jedoch die Bildung der schützenden Oxidschicht (Passivierung) stark gestört, wodurch die daraus gefertigten Bauteile teils hochgradig korrosionsgefährdet sind. Nahezu alle hochfesten Aluminiumlegierungen sind von dem Problem betroffen. Es gibt Aluminiumknetlegierungen (AW,), zum Beispiel AlMgMn, und Aluminiumgusslegierungen (AC,). Aluminiumgusslegierungen werden zum Beispiel für Leichtmetallfelgen verwendet. Verwendung. Der Aluminiumpreis im Vergleich zum Kupferpreis Der Aluminiumpreis bewegte sich am Weltmarkt seit 1980 um den Wert von 2000 Dollar pro Tonne (Reinheit von 99,7 %). Seit 2006 ist der Preis auf 6000 bis 9000 Dollar pro Tonne gestiegen. Konstruktionswerkstoff. Typisches Druckguss-Teil aus einer Aluminiumlegierung (Teil eines Staubsaugergebläses) Aluminium weist eine hohe spezifische Festigkeit auf. Verglichen mit Stahl sind Bauteile aus Aluminium bei gleicher Festigkeit etwa halb so schwer, weisen jedoch ein größeres Volumen auf. Deshalb wird es gern dort verwendet, wo es auf geringe Masse ankommt, die zum Beispiel bei Transportmitteln zum geringeren Treibstoffverbrauch beiträgt, vor allem in der Luft- und Raumfahrt. Auch im Fahrzeugbau gewann es aus diesem Grund an Bedeutung; hier standen früher der hohe Materialpreis, die schlechtere Schweißbarkeit sowie die problematische Dauerbruchfestigkeit und die Verformungseigenschaften bei Unfällen (geringes Energieaufnahmevermögen in der sogenannten Knautschzone) im Wege. Die Haube des Washington-Denkmals, ein 3 kg schweres Gussstück, galt bis 1884 als eines der größten Aluminiumwerkstücke. In den 1930er Jahren verwendete ein amerikanisches Unternehmen Aluminium, um ein militärisches Amphibienfahrzeug leichter zu machen. Beim Bau von kleinen und mittleren Yachten wird die Korrosionsbeständigkeit von speziell legiertem Aluminium gegenüber Salzwasser geschätzt, die sich nach Bildung einer dünnen, schützenden Oxidschicht an der Oberfläche ergibt. Der Fahrzeugbau machte 2010 mit ca. 35 Prozent den größten Anteil an der Verwendung von Aluminium aus. In Legierungen mit Magnesium, Silicium und anderen Metallen werden Festigkeiten erreicht, die denen von Stahl nur wenig nachstehen. Daher ist die Verwendung von Aluminium zur Gewichtsreduzierung überall dort angebracht, wo Materialkosten eine untergeordnete Rolle spielen. Insbesondere im Flugzeugbau und in der Weltraumtechnik sind Aluminium und Duraluminium weit verbreitet. Der größte Teil der Struktur heutiger Verkehrsflugzeuge wird aus Aluminiumblechen verschiedener Stärken und Legierungen genietet. Bei den neusten Modellen (Boeing 787, Airbus A350) wird Aluminium größtenteils durch den noch leichteren kohlenstofffaserverstärkten Kunststoff (CFK) verdrängt. Ganz ähnliche Entwicklungen – zeitlich und hin zu leichteren Ausführungen – von Holz über Stahl zu Alu und weiter zu Kohlenstoff- oder Glasfaserverbund sind an Rahmen und Felgen des Fahrrads, sowie an Zeltstangen und Stöcken etwa zum Schifahren zu beobachten. In einigen Anwendungsfällen etablieren sich Aluminiumwerkstoffe als dominierend: Fahrradfelgen aus Strangprofil, Motorrad- und modisch gestaltete Autofelgen aus Aluguss, biegsames gefädeltes Gestänge von Kuppelzelten, teleskopierbare Stöcke zum Schitourengehen, beides aus Rohr, Kamerastativbeine jedoch daneben auch aus Profil. Elektrische Leitungen. a>s. Die Aluminium-Käfigstäbe verlaufen im Inneren. An den Stirnseiten sind zusätzlich Lüfterflügel mitgegossen. Obere Wicklung und Lagerschalen des Motors sind entfernt. Aluminium ist ein guter elektrischer Leiter. Es weist nach Silber, Kupfer und Gold die vierthöchste elektrische Leitfähigkeit aller Metalle auf. Ein Leiter aus Aluminium hat bei gegebenem elektrischen Widerstand eine kleinere Masse, aber ein größeres Volumen als ein Leiter aus Kupfer. Daher wird meistens dann Kupfer als elektrischer Leiter verwendet, wenn das Volumen eine dominante Rolle spielt, wie beispielsweise bei den Wicklungen in Transformatoren. Aluminium hat dann als elektrischer Leiter Vorteile, wenn das Gewicht eine wesentliche Rolle spielt, beispielsweise bei den Leiterseilen von Freileitungen. Aus dem Grund der Gewichtsreduktion werden auch in Flugzeugen wie dem Airbus A380 Aluminiumkabel verwendet. Aluminium wird unter anderem auch zu Stromschienen in Umspannwerken und zu stromführenden Gussteilen verarbeitet. Für Elektroinstallationen gibt es kupferkaschierte Aluminiumkabel, der Kupferüberzug ist zur Verbesserung der Kontaktgabe. In diesem Anwendungsbereichen sind primär Rohstoffpreise entscheidend, da Aluminium preisgünstiger als Kupfer ist. Für Oberleitungen bei elektrischen Bahnen ist es dagegen aufgrund seiner schlechten Kontakt- und Gleiteigenschaften ungeeignet, in diesem Bereich wird trotz des höheren Gewichts primär Kupfer eingesetzt. Beim Kontaktieren unter Druck ist Aluminium problematisch, da es zum Kriechen neigt. Außerdem überzieht es sich an Luft mit einer Oxidschicht. Nach längerer Lagerung oder Kontakt mit Wasser ist diese isolierende Schicht so dick, dass sie vor der Kontaktierung beseitigt werden muss. Bei ungeeigneten Kontaktierungen in Klemmen kann es bei Aluminiumleitern in Folge zu Ausfällen und Kabelbränden aufgrund sich lösender Kontakte kommen. Crimpverbindungen mit passenden Hülsen und Werkzeugen sind jedoch sicher. Als Zwischenlage zwischen Kupfer und Aluminium können Verbindungsstücke aus Cupal die Kontaktprobleme vermeiden. Hervorzuheben ist das geringe Absinken der spezifischen elektrischen Leitfähigkeit von Aluminium bei Zusatz von Legierungsbestandteilen, wohingegen Kupfer bei Verunreinigungen eine deutliche Verringerung der Leitfähigkeit zeigt. Elektronik. Die Elektronikindustrie setzt Aluminium aufgrund der guten Verarbeitbarkeit und der guten elektrischen und Wärme-Leitfähigkeit ein. In integrierten Schaltkreisen wurde bis in die 2000er Jahre ausschließlich Aluminium als Leiterbahnmaterial eingesetzt. Bis in die 1980er-Jahre wurde es auch als Material für die Steuerelektrode (Gate) von Feldeffekttransistoren mit Metall-Isolator-Halbleiter-Struktur (MOSFET bzw. MOS-FET) verwendet. Neben dem geringen spezifischen Widerstand sind für die Verwendung die gute Haftung auf und geringe Diffusion in Siliciumoxiden (Isolationsmaterial zwischen den Leiterbahnen) sowie die einfache Strukturierbarkeit mithilfe von Trockenätzen ausschlaggebend. Seit Anfang der 2000er-Jahre wird Aluminium jedoch zunehmend durch Kupfer als Leiterbahnmaterial ersetzt, auch wenn dafür aufwendigere Strukturierungsverfahren (vgl. Damascene- und Dual-Damascene-Prozess) und Diffusionsbarrieren notwendig sind. Der höheren Fertigungsaufwand wird durch den geringeren spezifischen Widerstand, der im Fall von kleinen Strukturen bei Aluminium viel früher signifikant ansteigt und anderen Eigenschaften (z. B. Elektromigrationverhalten) überwogen und die Aluminium-Prozesse konnte die gestiegenen Anforderungen (Taktfrequenz, Verlustleistung, etc.) in mit hohen Frequenzen arbeitenden Schaltkreisen nicht mehr genügen (siehe auch RC-Glied). Aluminium wird jedoch weiterhin auch in mikroelektronischen Produkten verwendet, so wird wegen seiner guten Kontaktierbarkeit durch andere Metalle in den letzten Leiterbahnebenen eingesetzt, um den elektrischen Kontakt zu den bei der Flip-Chip-Montage eingesetzten Lotkügelchen herzustellen. Ähnlich verhält es sich bei Leistungshalbleitern, bei denen in der Regel alle Leiterbahnebenen aus Aluminium bestehen. Allgemein und insbesondere bei Leistungshalbleitern wird das Material für Bonddrähte (Verbindungsdrähte zwischen Chip und Gehäuseanschluss) verwendet. Mit der Einführung der High-k+Metal-Gate-Technik hat Aluminium nach gut 25 Jahren Abstinenz auch im Bereich des Gates an Bedeutung gewonnen und wird neben anderen als Material zur Einstellung der Austrittsarbeit eingesetzt. Weitere Anwendungsbereiche. Wegen seiner hohen Wärmeleitfähigkeit wird Aluminium als Werkstoff für stranggepresste Kühlkörper und wärmeableitende Grundplatten verwendet. Aluminium-Elektrolytkondensatoren verbauen Aluminium als Elektrodenmaterial und Gehäusewerkstoff, weiters wird es zur Herstellung von Antennen und Hohlleitern verwendet. Verpackung und Behälter. In der Verpackungsindustrie wird Aluminium zu Getränke- und Konservendosen sowie zu Aluminiumfolie verarbeitet. Dabei macht man sich die Eigenschaft der absoluten Barrierewirkung gegenüber Sauerstoff, Licht und anderen Umwelteinflüssen bei gleichzeitig relativ geringem Gewicht zunutze, um Lebensmittel zu schützen. Dünne Folien werden in Stärken von 6 Mikrometer hergestellt und dann zumeist in Verbundsystemen eingesetzt, beispielsweise in Tetra Paks. Kunststofffolien können durch Bedampfen mit Aluminium mit einer dünnen Schicht versehen werden, welche dann eine hohe (aber nicht vollständige) Barrierefunktion aufweist. Grund dieser Barrierewirkung ist nicht das reine Aluminium, sondern die Passivschicht aus Böhmit. Wird diese verletzt, so kann Gas ungehindert durch den Werkstoff Aluminium strömen. Aus Aluminium werden auch Kochtöpfe und andere Küchengeräte, wie die klassische italienische Espressokanne, sowie Reise- und Militär-Geschirr hergestellt. Die Aufbewahrung und Zubereitung von säurehaltigen Lebensmitteln in Aluminiumbehältern beziehungsweise -folie ist problematisch, da es dabei lösliche Aluminiumsalze bildet, die mit der Nahrung aufgenommen werden. Aluminiumschichten in Verpackungsmitteln werden daher häufig durch eine Kunststoffschicht geschützt. Aluminium wird für eine Vielzahl von Behältern und Gehäusen verarbeitet, da es sich gut durch Umformen bearbeiten lässt. Gegenstände aus Aluminium werden häufig durch eine Eloxalschicht vor Oxidation und Abrieb geschützt. Optik und Lichttechnik. Reflexionsgrad von Aluminium (blau, Al) im Vergleich zu Gold (rot, Au) und Silber (grau, Ag) Aluminium wird aufgrund seines hohen Reflexionsgrades als Spiegelbeschichtung von Oberflächenspiegeln, unter anderem in Scannern, Kraftfahrzeug-Scheinwerfern und Spiegelreflexkameras aber auch in der Infrarotmesstechnik eingesetzt. Es reflektiert im Gegensatz zu Silber auch Ultraviolettstrahlung. Aluminium-Spiegelschichten werden meist durch eine Schutzschicht vor Korrosion und Kratzern geschützt. Bauingenieurwesen. Aluminiumpulver und Aluminiumpasten werden zur Herstellung von Porenbeton eingesetzt. Man verwendet Verbindungen wie Aluminiumhydroxysulfat, Aluminiumdihydroxyformiat oder amorphes Aluminiumhydroxid als alkalifreie Spritzbetonbeschleuniger. Weitere Anwendungen. In der Raketentechnik besteht der Treibstoff von Feststoffraketen zu maximal 30 Prozent aus Aluminiumpulver, das bei seiner Verbrennung viel Energie freisetzt. Aluminium wird in Feuerwerken (s. a. Pyrotechnik) verwendet, wo es je nach Körnung und Mischung für farbige Effekte sorgt. Auch in Knallsätzen findet es oft Verwendung. Ebenso ist es neben Eisen(III)-oxid Bestandteil der stark exothermen (bis zu 2500 °C) Thermitreaktion beim aluminothermischen Schweißen. Aluminium dient als Pigment für Farben (Silber- oder Goldbronze). Farbig eloxiert ist es Bestandteil vieler Dekorationsmaterialien wie Flitter, Geschenkbänder und Lametta. Zur Beschichtung von Oberflächen wird es beim Aluminieren verwendet. Mit Aluminium werden Heizelemente von Bügeleisen und Kaffeemaschinen umpresst. Bevor es gelang, Zinkblech durch Titanzusatz als so genanntes Titanzink verarbeitbar zu machen, wurde Aluminiumblech für Fassaden- und Dachelemente (siehe Leichtdach) sowie Dachrinnen eingesetzt. Gießen. Aluminium gehört aufgrund seines vergleichsweise geringen Schmelzpunktes von 660 °C (Gusseisen etwa 1150 °C, Stahl 1400 °C bis 1500 °C) und seines guten Fließvermögens zu den häufig in der Gießerei verwendeten Werkstoffen. Spezielle Gusslegierungen mit Silicium haben sogar Schmelzpunkte um 577 °C. Aus dem niedrigen Schmelzpunkt folgt ein geringer Energieeinsatz beim Schmelzvorgang sowie eine geringere Temperaturbelastung der Formen. Aluminium eignet sich grundsätzlich für alle Gussverfahren, insbesondere für Druckguss bzw. Aluminiumdruckguss, mit denen auch kompliziert geformte Teile gefertigt werden können. Umformende Verfahren. Etwa 74 Prozent des Aluminiums wird durch Umformen bearbeitet. Aluminium lässt sich durch Strangpressen in komplizierte Konstruktionsprofile formen, hierin liegt ein großer Vorteil bei der Fertigung von Hohlprofilen (Automatisierungstechnik, Messebau), Kühlkörperprofilen oder in der Antennentechnik. Die Herstellung von Halbzeug oder Bauteilen geschieht aus Vormaterial wie etwa Walzbarren, Blech oder Zylindern durch Umformen. Mittels Walzen lassen sich sehr dünne Folien herstellen und mit dem Tiefziehen Hohlkörper wie etwa Getränkedosen. Ein Mischverfahren aus gießen und schmieden ist Cobapress, welches speziell für Aluminium ausgelegt ist und häufig in der Automobilbranche genutzt wird. Rein- und Reinstaluminium lässt sich wegen der niedrigen Festigkeit gut umformen und verfestigt sich bei Kaltumformung, wobei große Formänderungen möglich sind. Die Verfestigung lässt sich durch Rekristallisationsglühen beseitigen. Knetlegierungen mit AlMg und AlMn erreichen ihre höhere Festigkeit durch die Legierungselemente und durch Kaltverformung. Die aushärtbaren Legierungen AlMgSi, AlZnMg, AlCuMg und AlZnMgCu scheiden bei Umformung festigkeitssteigernde Phasen aus; sie lassen sich relativ schwierig umformen. Spanende Verfahren. Aluminiumwerkstoffe sind gut spanbar. Ihre genauen Eigenschaften hängen jedoch von der Legierung und Gefügezustand ab. Zu beachten ist, dass die bei der Bearbeitung auftretenden Temperaturen schnell im Bereich des Schmelzpunktes liegen können. Bei gleichen Schnittparametern wie bei Stahl resultiert bei Aluminium allerdings eine geringere mechanische und thermische Belastung. Als Schneidstoff wird oft Hartmetall für untereutektische oder Diamant für die stark abrasiven übereutektischen Legierungen verwendet. Insbesondere die Bearbeitung von eloxierten Werkstücken erfordert harte Werkzeuge, um Verschleiß durch die harte Eloxalschicht zu vermeiden. Schweißen und Löten. Grundsätzlich sind alle Aluminium-Werkstoffe zum Schweißen geeignet, wobei jedoch reines Aluminium zu Poren in der Schweißnaht neigt. Außerdem neigt die Aluminiumschmelze zu Reaktionen mit der Atmosphäre, weshalb fast immer unter Schutzgas geschweißt wird. Gut geeignet sind das MIG- und Plasmaschweißen sowie das WIG-Schweißen. Bei letzterem wird bei Nutzung von Wechselstrom Argon als Schutzgas verwendet und bei Gleichstrom Helium. Für das Laserschweißen eignen sich sowohl Kohlendioxid- als auch Festkörperlaser allerdings nicht für alle Legierungen. Wegen der hohen Wärmeleitfähigkeit erstarrt die Schmelze sehr schnell, sodass die Schweißnaht zu Poren und Rissen neigt. Das Widerstandspunktschweißen erfordert verglichen mit Stahl, höhere Ströme und kürzere Schweißzeiten sowie teilweise spezielle Geräte, da die handelsüblichen nicht geeignet sind. Für das Elektronenstrahlschweißen eignen sich alle Legierungen, jedoch neigen Magnesium und Zinn zum Verdampfen während des Schweißvorgangs. Lichtbogenhandschweißen wird nur noch selten verwendet, meist zur Gussnachbesserung. Löten gestaltet sich wegen der sich bildenden Oxidschicht an Luft schwierig. Genutzt werden sowohl Hart- als auch Weichlöten mit speziellen Flussmittel. Alternativ kann Aluminium auch ohne Flussmittel mit Ultraschall gelötet werden, dabei wird die Oxidschicht mechanisch während des Lötvorganges aufgebrochen. Aluminium im menschlichen Körper. Aluminium ist kein essenzielles Spurenelement und gilt für die menschliche Ernährung als entbehrlich. Im menschlichen Körper befinden sich durchschnittlich etwa 50 bis 150 Milligramm Aluminium. Diese verteilen sich zu ungefähr 50 Prozent auf das Lungengewebe, zu 25 Prozent auf die Weichteile und zu weiteren 25 Prozent auf die Knochen. Aluminium ist damit ein natürlicher Bestandteil des menschlichen Körpers. 99 bis 99,9 Prozent der üblicherweise in Lebensmitteln pro Tag aufgenommenen Menge von Aluminium (10 bis 40 mg) werden unresorbiert über den Kot wieder ausgeschieden. Chelatbildner "(Komplexbildner)" wie Citronensäure können die Resorption auf 2 bis 3 Prozent steigern. Auch die Aufnahme von Aluminiumsalzen über den Magen-Darm-Trakt ist gering; sie variiert aber in Abhängigkeit von der chemischen Verbindung und ihrer Löslichkeit, dem pH-Wert und der Anwesenheit von Komplexbildnern. Die Eliminierung von in den Organismus gelangten wasserlöslichen Aluminiumsalzen erfolgt vorwiegend über den Urin, weniger über den Kot. Bei Dialyse­patienten mit einer eingeschränkten Nierenfunktion besteht daher ein erhöhtes Risiko einer Akkumulation im Körper mit toxischen Effekten, etwa Knochenerweichungen und Schäden des Zentralnervensystems; zusätzlich sind Dialysepatienten aufgrund für sie notwendiger pharmazeutischer Produkte (Phosphatbinder) einer höheren Aluminiumzufuhr ausgesetzt. Bindungsformen. Im Blut ist Al3+ überwiegend (zu etwa 80 %) an Transferrin gebunden. 16 Prozent liegen als [Al(PO4)(OH)]−, 1,9 Prozent als Citrat-Komplex, 0,8 Prozent als Al(OH)3 und 0,6 Prozent als [Al(OH)4]− vor. Pflanzen. Aluminium in Form verschiedener Salze (Phosphate, Silikate) ist Bestandteil vieler Pflanzen und Früchte, denn gelöste Al-Verbindungen werden durch Regen aus den Böden von den Pflanzen aufgenommen, bei Säurebelastung der Böden infolge sauren Regens ist dies vermehrt der Fall (siehe dazu auch Waldschäden). Ein großer Teil des Bodens auf der Welt ist chemisch sauer. Liegt der pH-Wert unter 5,0, werden Al3+-Ionen von den Wurzeln der Pflanzen aufgenommen. Dies ist bei der Hälfte des bebaubaren Lands auf der Welt der Fall. Die Ionen schädigen insbesondere das Wurzelwachstum der Feinwurzeln. Die Pflanze, wenn sie nicht Aluminium-tolerant ist, steht dann unter Stress. Zahlreiche Enzyme und signalübertragende Proteine sind betroffen; die Folgen der Vergiftung sind noch nicht vollständig bekannt. In sauren metallhaltigen Böden ist Al3+ das Ion mit dem größten Potenzial zur Schädigung. Von der Modellpflanze "Arabidopsis" sind Transgene bekannt, die deren Aluminium-Toleranz heraufsetzen und auch bei Kulturpflanzen sind tolerante Sorten bekannt. Der saure Regen hat beispielsweise in Schweden in den Sechzigerjahren des letzten Jahrhunderts die Seen übersäuert, wodurch mehr Al3+-Ionen in Lösung gingen und empfindliche Fische verendeten. Bindungsformen. Bei pH-Werten über 5,0 ist Aluminium als polymeres Hydroxykation an der Oberfläche von Silicaten gebunden. Bei pH-Werten von 4,2 bis 5 steigt Anteil von mobilen Kationen. In Lebensmitteln. Die meisten Lebensmittel enthalten in Spurenmengen auch Aluminium. Unverarbeitete pflanzliche Lebensmittel enthalten durchschnittlich weniger als 5 mg/kg in der Frischmasse. Dabei streuen die Werte aufgrund unterschiedlicher Sorten, Anbaubedingungen und Herkunft in erheblichem Maße. So weisen beispielsweise Salat und Kakao deutlich höhere Durchschnittswerte auf. Schwarzer Tee kann Gehalte von bis zu 1042 mg/kg in der Trockenmasse aufweisen. Beim Kochen oder Aufbewahren in Aluminiumgeschirr oder in Alufolie kann es (außer bei sauren Lebensmitteln) nach einer Schätzung zu einer maximalen zusätzlichen Aufnahme von 3,5 mg/Tag/Person kommen. Bei sauren Lebensmitteln wie Sauerkraut oder auch Tomaten können aufgrund der Säurelöslichkeit wesentlich höhere Werte erreicht werden. Trink- und Mineralwässer weisen mit durchschnittlich 0,2–0,4 mg/l im Gegensatz zur Nahrung geringe Gehalte auf und stellen somit nur einen kleinen Beitrag zur täglichen Aluminium-Aufnahme. Die Trinkwasserverordnung legt einen Grenzwert von 0,2 mg/l fest. Trinkwasser darf in Deutschland, Österreich und der Schweiz keine höheren Werte aufweisen. Nach einer Schätzung nimmt der erwachsene Europäer im Durchschnitt zwischen 1,6 und 13 mg Aluminium pro Tag über die Nahrung auf. Dies entspricht einer wöchentlichen Aufnahme von 0,2 bis 1,5 mg Aluminium pro kg Körpergewicht bei einem 60 kg schweren Erwachsenen. Die großen Unsicherheiten beruhen auf den unterschiedlichen Ernährungsgewohnheiten und der variablen Gehalte an Aluminium in den Lebensmitteln. Die Europäische Behörde für Lebensmittelsicherheit (Efsa) legt eine tolerierbare wöchentliche Aufnahme (TWI) von 1 mg Aluminium pro kg Körpergewicht fest. Aluminium ist als Lebensmittelzusatzstoff unter der Bezeichnung E 173 ausschließlich als Farbstoff für Überzüge von Zuckerwaren und als Dekoration von Kuchen und Keksen erlaubt. Weiterhin ist Aluminium zum Färben von Arzneimitteln und Kosmetika zugelassen. Bei der Untersuchung von Laugengebäck (Brezeln, Stangen, Brötchen) aus Bäckereien wurde Aluminium nachgewiesen, das in das Lebensmittel gelangt, wenn bei der Herstellung von Laugengebäck Aluminiumbleche verwendet werden. Während Bier in Aluminiumfässern transportiert wird, hat sich für den Wein­transport der Werkstoff Aluminium nicht durchgesetzt. Ein kurzfristiger Kontakt schadet nicht, doch können nach längerem Kontakt Weinfehler in Geruch und Geschmack oder als Trübung auftreten, vor allem beim offenen Stehen an der Luft. Toxizität. Bei eingeschränkter Nierenfunktion und bei Dialyse-Patienten führt die Aufnahme von Aluminium zu progressiver Enzephalopathie (Gedächtnis- und Sprachstörungen, Antriebslosigkeit und Aggressivität) durch Untergang von Hirnzellen und zu fortschreitender Demenz, zu Osteoporose (Arthritis) mit Knochenbrüchen und zu Anämie (weil Aluminium dieselben Speichereiweiße wie Eisen besetzt). Speziell im Hinblick auf die Verwendung in Deodorants und Lebensmittel-Zusatzstoffen werden die gesundheitlichen Auswirkungen von Aluminium kontrovers diskutiert. So wurde Aluminium mehrfach kontrovers als Faktor im Zusammenhang mit der Alzheimer-Krankheit in Verbindung gebracht. Laut einer Studie des Bundesinstituts für Risikobewertung (BfR) vom Juli 2007 wurde im allgemeinen Fall zum Zeitpunkt der Erstellung der Studie aufgrund der vergleichsweise geringen Menge kein Alzheimer-Risiko durch Aluminium aus Bedarfsgegenständen erkannt; jedoch sollten vorsorglich keine sauren Speisen in Kontakt mit Aluminiumtöpfen oder -folie aufbewahrt werden. Eine Neubewertung erfuhr im Februar 2014 die Verwendung von aluminiumhaltigen Deodorants und Kosmetikartikel durch das Bundesinstitut für Risikobewertung: Aluminiumsalze aus solchen Produkten können durch die Haut aufgenommen werden, und die regelmäßige Benutzung über Jahrzehnte hinweg könnte möglicherweise zu gesundheitlichen Beeinträchtigungen beitragen. Die britische Alzheimer-Gesellschaft mit Sitz in London vertritt den Standpunkt, dass die bis 2008 erstellten Studien einen kausalen Zusammenhang zwischen Aluminium und der Alzheimer-Krankheit nicht überzeugend nachgewiesen haben. Dennoch gibt es einige Studien, wie z. B. die PAQUID-Kohortenstudie in Frankreich, mit einer Gesundheitsdatenauswertung von 3777 Personen im Alter ab 65 Jahren seit 1988 bis zur Gegenwart, in welchen eine Aluminium-Exposition als Risikofaktor für die Alzheimer-Krankheit angegeben wird. Demnach wurden viele senile Plaques mit erhöhten Aluminium-Werten in Gehirnen von Alzheimer-Patienten gefunden. Es ist jedoch unklar, ob die Aluminium-Akkumulation eine Folge der Alzheimer-Krankheit ist, oder ob Aluminium in ursächlichem Zusammenhang mit der Alzheimer-Krankheit zu sehen ist. Aspekte der Ökobilanz. Die Herstellung von Aluminium ist sehr energieaufwendig. Allein für die Schmelzflusselektrolyse zur Gewinnung eines Kilogramms Aluminium werden je nach Errichtungsdatum und Modernität der Anlage zwischen 12,9 und 17,7 kWh elektrische Energie benötigt. Bei der Stromerzeugung für die Produktion von einem Kilogramm Aluminium werden im deutschen Kraftwerkspark 8,4 kg CO2 freigesetzt, im weltweiten Durchschnitt etwa 10 kg. Es ist aber auch zu bedenken, dass aufgrund des Kostenfaktors Energie die Elektrolyse verstärkt an Orten erfolgt, an denen auf billige, CO2-emissionsarme Wasserkraft zurückgegriffen werden kann, wie etwa in Brasilien, Kanada, Venezuela oder Island. Allerdings ist auch bei Verwendung von Elektrizität aus vollständig regenerativen Energien die Produktion von Aluminium nicht CO2-frei, da der bei der Schmelzflusselektrolyse entstehende Sauerstoff mit dem Kohlenstoff der Elektroden zu CO2 reagiert. Die Verbrauchswerte für Roh-Aluminium erhöhen sich durch Transport- und Verarbeitungsanteile für das Wiederaufschmelzen, Gießen, Schleifen, Bohren, Polieren etc. auf ca. 16,5 kg CO2 pro kg Aluminium-Konsumgut. Die europaweite Recyclingrate von Aluminium liegt bei 67 Prozent. In Österreich gelangen (laut einer Studie aus dem Jahr 2000) 16.000 Tonnen Aluminium pro Jahr "über Verpackungen" in den Konsum, ebenso gelangen 16.000 Tonnen Aluminium ohne Wiederverwertung in den Hausmüll (dabei sind unter anderem auch die Aluminiumhaushaltsfolien eingerechnet, die nicht als „Verpackung“ gelten). 66 Prozent der Verpackungen im Restmüll sind Aluminiumgetränkedosen. Diese liegen nach der Müllverbrennung in der Asche noch metallisch vor und machen in Europa durchschnittlich 2,3 Prozent der Asche aus. In der EU werden durchschnittlich 70 Prozent des in der Bodenasche enthaltenen Aluminiums zurückgewonnen. Durch den Abbau des Erzes Bauxit werden große Flächen in Anspruch genommen, die erst nach einer Rekultivierung wieder nutzbar werden. Um eine Tonne Aluminium herzustellen, werden vier Tonnen Bauxit benötigt. Dies erzeugt zehn Tonnen Abraum. Zudem entstehen bei der Herstellung des Aluminiumoxids nach dem Bayer-Verfahren ca. drei Tonnen von eisenreichem alkalischen Rotschlamm, der kaum wiederverwertet wird und dessen Deponierung oder sonstige „Entsorgung“ große Umweltprobleme aufwirft (siehe dort und dort). Positiv ist hingegen die gute Wiederverwendbarkeit von Aluminium hervorzuheben, wobei die Reststoffe streng getrennt erfasst und gereinigt werden müssen (Aluminiumrecycling, Recycling-Code-41 (ALU)). Aluminium ist dabei besser rezyklierbar als Kunststoffe, wegen Downcycling bei nicht sortenreiner Erfassung jedoch etwas schlechter wiederverwertbar als Stahl. Beim Aluminiumrecycling wird nur 5 Prozent der Energiemenge der Primärproduktion benötigt. Durch Leichtbau mit Aluminiumwerkstoffen (beispielsweise Aluminiumschaum, Strangpressprofile) wird Masse von beweglichen Teilen und Fahrzeugen gespart, was zur Einsparung von Treibstoff führen kann. Aluminium ist durch seine Selbstpassivierung korrosionsbeständiger als Eisen und erfordert daher weniger Korrosionsschutzmaßnahmen. Nachweis. Aluminiumsalze weist man durch Glühen mit verdünnter Kobaltnitratlösung auf der Magnesia-Rinne nach. Dabei entsteht das Pigment Thénards Blau (auch Kobaltblau oder Cobaltblau, Dumonts Blau, Coelestinblau, Leithners Blau, Cobaltaluminat). Es ist ein Cobaltaluminiumspinell mit der Formel CoAl2O4. Diese Nachweisreaktion wurde 1795 von Leithner durch Glühen von Aluminiumsulfat und Cobalt(II)-nitrat (Co(NO3)2) entdeckt. Nachweis mittels Kryolithprobe. Die Probelösung wird alkalisch gemacht, um Aluminium als Aluminiumhydroxid Al(OH)3 zu fällen. Der Niederschlag wird abfiltriert und mit einigen Tropfen Phenolphthalein versetzt, dann gewaschen, bis keine Rotfärbung durch Phenolphthalein mehr vorhanden ist. Anschließend festes Natriumfluorid (NaF) auf den Niederschlag streuen: Es bildet sich eine Rotfärbung durch Phenolphthalein, verursacht von freigesetzten Hydroxidionen bei der Bildung von Kryolith Na3[AlF6]. Nachweis als fluoreszierender Morinfarblack. Die Probe wird mit Salzsäure (HCl) versetzt und eventuell vorhandenes Aluminium somit gelöst. Anschließend wird die Probelösung mit Kaliumhydroxid (KOH) stark alkalisch gemacht. Gibt man nun einige Tropfen der Probelösung zusammen mit der gleichen Menge Morin-Lösung auf eine Tüpfelplatte und säuert anschließend mit konzentrierter Essigsäure ("Eisessig", CH3COOH) an, so ist unter UV-Strahlung (λ = 366 nm) eine grüne Fluoreszenz beobachtbar. Der Nachweis ist dann sicher, wenn diese Fluoreszenz bei Zugabe von Salzsäure wieder verschwindet. Grund hierfür ist, dass Al(III) in neutralen sowie essigsauren Lösungen in Verbindung mit Morin eine fluoreszierende kolloidale Suspension bildet. Verbindungen. Unter besonderen Bedingungen tritt Aluminium auch einwertig auf. Diese Verbindungen werden zur Gewinnung von hochreinem Aluminium genutzt (Subhalogeniddestillation). Antimon. Antimon (von lateinisch "Antimonium", vermutlich von arabisch) ist ein chemisches Element mit dem Elementsymbol Sb (von lat. Stibium „(Grau-)Spießglanz“) und der Ordnungszahl 51. Im Periodensystem steht es in der 5. Periode und der 5. Hauptgruppe, bzw. 15. IUPAC-Gruppe oder Stickstoffgruppe. In der stabilen Modifikation ist es ein silberglänzendes und sprödes Halbmetall. Geschichte. Als Typlokalität für gediegen Antimon gilt die Silbermine in der schwedischen Gemeinde Sala im Västmanland. Allerdings war metallisches Antimon schon den Chinesen und Babyloniern bekannt. Einige seiner Verbindungen wurden schon in der Bronzezeit als Zuschlag zu Kupfer verwendet, um Bronze herzustellen (Funde von Velem-St. Vid in Ungarn). Im 17. Jahrhundert ging der Name Antimon als Bezeichnung auf das Metall über. Die koptische Bezeichnung für das Schminkpuder Antimonsulfid ging über das Griechische in das Lateinische "stibium" über. Die von Jöns Jakob Berzelius benutzte Abkürzung Sb wird noch heute als Elementsymbol genutzt. Ganz sicher ist diese Herleitung nicht. Es gibt auch andere Vermutungen über die Herkunft der Elementbezeichnung. Der ungewöhnliche Name gehe auf das spätgriechische "anthemon" (deutsch: „Blüte“) zurück. Damit sollen die stängelartigen Kristalle, die büschelförmig angeordnet sind und wie eine Blüte aussehen, beschrieben werden. Eine andere Theorie, welche von Samuel Johnson in seinem Wörterbuch verewigt wurde, besagt, dass der deutsche Mönch Basilius Valentinus, nachdem er die Beobachtung machte, dass Schweine durch den Genuss des Antimons schnell fett wurden, dies auch an seinen Ordensbrüdern ausprobierte, woraufhin diese allerdings starben, sodass der Begriff „antimoine“ (antimönchisch) geprägt wurde, aus dem später „Antimon“ entstand. Vorkommen. Gediegen Antimon mit gut entwickelten, glänzenden Kristallflächen und Spaltrissen Antimon ist ein selten vorkommendes Element und, da es in der Natur auch gediegen (das heißt in elementarer Form) gefunden werden kann, von der International Mineralogical Association (IMA) unter der System-Nr. 1.CA.05 als Mineral anerkannt. Weltweit konnte gediegenes Antimon bisher (Stand: 2011) an rund 300 Fundorten nachgewiesen werden. So unter anderem in mehreren Regionen von Australien; in den bolivianischen Departements La Paz und Potosí; Minas Gerais in Brasilien; Schwarzwald, Fichtelgebirge, Oberpfälzer Wald, Odenwald und im Harz in Deutschland; Seinäjoki in Finnland; mehreren Regionen von Frankreich; Lombardei, Piemont, Sardinien und Trentino-Südtirol in Italien; einigen Regionen von Kanada; einigen Regionen von Österreich; Ost- und Westsibirien und Ural in Russland; neben Västmanland noch Dalarna, Gästrikland, Närke, Södermanland, Värmland und Västerbotten in Schweden; in einigen Regionen der Slowakei; Böhmen und Mähren in Tschechien sowie in vielen Regionen der USA. Eine der weltweit bedeutendsten Lagerstätte für gediegen Antimon und Antimonerze ist der "Murchison greenstone belt" in der Murchison Range von Südafrika. Bisher sind 264 Antimon-Minerale bekannt (Stand: 2010). Industriell genutzt wird überwiegend das Sulfid-Mineral Stibnit Sb2S3 (Grauspießglanz) mit einem Gehalt von max. 71,7 % Sb. Das Mineral mit dem höchsten Sb-Gehalt in einer chemischen Verbindung ist die natürliche Antimon-Arsen-Legierung Paradocrasit (max. 92 %). Allerdings kommt sie mit nur drei Fundorten, im Gegensatz zum Stibnit (rund 2500 Fundorte), sehr viel seltener vor. Weitere Quellen für Antimon sind die Minerale Valentinit Sb2O3 (Weißspießglanz), Breithauptit NiSb (Antimonnickel, Nickelantimonid), Kermesit Sb2S2O (Rotspießglanz) und Sb2S5 (Goldschwefel). Gewinnung und Darstellung. Zeitliche Entwicklung der weltweiten Antimonförderung Weltweit wurden zu Beginn des 21. Jahrhunderts zwischen 110.000 und 160.000 Tonnen pro Jahr an Antimon gefördert. Seit 1900 hat sich damit die Fördermenge mehr als verzehnfacht. 87 % der Antimonproduktion findet in China statt (Stand: 2015). Modifikationen. Antimon kann in drei verschiedenen Modifikationen auftreten, wobei metallisches bzw. "graues" Antimon die beständigste Modifikation ist. Durch Abschrecken von Antimondampf an kalten Flächen entsteht amorphes, "schwarzes" und sehr reaktives Antimon, welches sich durch Erhitzen wieder in metallisches Antimon umwandelt. Durch elektrolytische Herstellung entsteht "explosives" Antimon, das beim Ritzen explosionsartig aufglühend und funkensprühend in metallisches Antimon übergeht. "Gelbes" Antimon ist dagegen keine eigenständige Modifikation, sondern eine hochpolymere chemische Verbindung mit Wasserstoff. Unter Normalbedingungen kristallisiert Antimon trigonal in rhomboedrischer Aufstellung in der nach der Hermann-Mauguin-Symbolik beschriebenen Raumgruppe  mit den Gitterparametern "a" = 431 pm und "c" = 1127 pm sowie sechs Formeleinheiten pro Elementarzelle. Physikalische Eigenschaften. Metallisches Antimon ist silberweiß, stark glänzend, blättrig-grobkristallin. Es lässt sich aufgrund seiner Sprödigkeit leicht zerkleinern. Die elektrische und thermische Leitfähigkeit ist gering. Flüssiges Antimon expandiert als einer von wenigen Stoffen beim Erstarren (Dichteanomalie). Zum Siedepunkt existieren in der Literatur mit 1325 °C, 1587 °C, 1635 °C und 1750 °C unterschiedliche Angaben. Chemische Eigenschaften. Mit naszierendem Wasserstoff reagiert Antimon zum instabilen Antimonhydrid SbH3. Von Luft und Wasser wird Antimon bei Raumtemperatur nicht angegriffen. Oberhalb des Schmelzpunkts verbrennt es in Luft mit bläulich-weißer Flamme zu Antimon(III)-oxid. In heißen konzentrierten Mineralsäuren löst es sich auf. Mit den Halogenen reagiert es schon bei Raumtemperatur heftig zu den entsprechenden Halogeniden. In Verbindungen liegt Antimon überwiegend in den Oxidationsstufen +3 und +5 vor. In Metallantimoniden wie Kaliumantimonid K3Sb bildet es Sb3−-Ionen. Isotope. Es existieren zwei stabile Antimon-Isotope: 121Sb und 123Sb. Medizinische Bedeutung. Brechweinstein wurde lange als brechreizerregendes Mittel verwendet, heute wird es noch manchmal verwendet, um den Mageninhalt von Vögeln zu untersuchen. Sowohl Schistosomiasis als auch Trypanosomen wurden beginnend Anfang des 19. Jahrhunderts mit Brechweinstein bekämpft. Inzwischen kommen effektivere und verträglichere Medikamente zur Anwendung. Antimonpräparate werden meist als weniger toxische pentavalente Formen zur medikamentösen Therapie der Leishmaniose und Schistosomiasis eingesetzt, allerdings in entwickelten Ländern nicht mehr als Mittel der ersten Wahl. Hierbei hemmt Antimon das Enzym Phosphofructokinase, das den geschwindigkeitsbestimmenden Schritt der Glykolyse darstellt. Medizinische Wirkung. Antimon kann bereits bei Ingestion von 200 bis 1200 mg tödlich sein. In der Toxikologie sind drei Antimon-Formen bekannt, von denen das gasförmige Antimonhydrid (Stiban, SbH3) die gefährlichste Form ist, die eine massive Hämolyse induziert. Nach der Toxizität folgt Brechweinstein mit dreiwertigem Antimon, während fünfwertiges Antimon am wenigsten toxisch ist. Das trivalente Antimon wird innerhalb der ersten zwei Stunden zu 95 % in rote Blutkörperchen aufgenommen und damit vorwiegend in stark durchbluteten Organen angereichert. Die Exkretion erfolgt vorwiegend durch Bindung an Glutathion über die Galle mit entsprechend hohem enterohepatischen Kreislauf, und nur ein geringer Teil wird über die Nieren ausgeschieden. Kaliumantimonyltartrat wird zu 90 % innerhalb des ersten Tages nach Aufnahme ausgeschieden, die übrigen 10 % aufgrund einer langsameren Eliminationskinetik über 16 Tage. Es wird vermutet, dass Antimon ähnlich wie Arsen den Pyruvatdehydrogenase-Komplex inhibiert und somit zu einem Mangel des intrazellulären Energieträgers Adenosintriphosphat (ATP) führt. Dabei kommt es zur Bildung von Chelatkomplexen zwischen dem Antimon und Thiol-Gruppen der entsprechenden Enzyme. Im Körper wirkt es an zahlreichen Organen toxisch, so im Verdauungstrakt, in der Leber, in den Nieren, im Herz und im Zentralnervensystem. Die höchste Konzentration erreicht Antimon in der Leber, wo es zu einer Hepatitis bis hin zum Leberversagen kommen kann. Am Herzen kommt es zu EKG-Veränderungen mit Inversion und Verminderung der T-Welle und verlängertem QT-Intervall. Ein akutes Nierenversagen kann zur temporären oder permanenten Hämodialyse führen. Therapeutisch erfolgt bei einer Antimon-Vergiftung neben supportiven Maßnahmen wie Infusionstherapie (sowohl zum Ausgleich des Flüssigkeitsverlustes durch das Erbrechen als auch zum Schutz der Nieren), und engmaschiger Überwachung der Vitalfunktionen und des EKGs die Gabe von Aktivkohle, N-Acetylcystein als Vorläufer des Glutathions zur vermehrten Sekretion und eines Chelatbildners, z. B. Dimercaprol. Sicherheitshinweise und Grenzwerte. Von den Antimonverbindungen sind seitens der EU Antimonfluorid als giftig (T) und die Chloride als ätzend (C) eingestuft, außerdem als umweltgefährlich (N); alle anderen Antimonverbindungen als gesundheitsschädlich (Xn) und umweltgefährlich (N). Antimon selbst ist dort nicht aufgeführt, laut Sicherheitsdatenblatt ist es als "reizend" gekennzeichnet. Die Internationale Agentur für Krebsforschung (IARC) stuft Antimon(III)-oxid als "möglicherweise krebserzeugende Substanz" ein. Ergebnisse aus Untersuchungen deuten darauf hin, dass Antimonverbindungen Haut und Schleimhäute reizen. Diese Verbindungen lösen sich vermutlich aus Kunststoff und Textilien. In der EU gilt für Trinkwasser ein Grenzwert von 5 µg/l. Untersuchungen von in PET-Flaschen abgefüllten Fruchtsäften (für die keine Richtlinien existieren) ergaben Antimonkonzentrationen bis zu 44,7 µg/l in unverdünnten Saftkonzentraten. Nachweis. Flammenfärbung: Flamme fahlblau, wenig charakteristische Phosphorsalzperle: Farblos (gestört durch alle Elemente, die eine farbige Perle erzeugen) Reduktion durch unedle Metalle, zum Beispiel Eisen, Zink oder Zinn. Die auf Antimon zu prüfende Substanz wird in salzsaure Lösung gegeben und mit Eisenpulver versetzt. Es entsteht ein schwarzer, flockiger Niederschlag aus metallischem Antimon in der Lösung oder direkt am Eisen. Auch der Nachweis an einem Eisennagel ist möglich. Dabei ist eine schwarze Ablagerung am Nagel ein Nachweis für Antimon, welches sich hier elementar niedergeschlagen hat. Die Marshsche Probe gestattet einen eindeutigen Nachweis von Antimon. Wenn die pyrolytisch abgeschiedene Substanz (dunkel glänzender Spiegel) sich nicht in ammoniakalischem Wasserstoffperoxid löst, sind Arsen und Germanium als mögliche Alternativen ausgeschlossen. Die hochempfindliche Bestimmung winziger Antimonspuren erfolgt durch die Hydridtechnik der Atomspektrometrie. Hierbei wird im Prinzip die Marshsche Probe mit der Atomabsorptionsspektrometrie gekoppelt. Die Matrixeffekte der Probelösung lassen sich dadurch sehr wirksam unterdrücken. Argon. Argon ist ein chemisches Element mit dem Symbol Ar (bis 1957 nur A) und der Ordnungszahl 18. Im Periodensystem steht es in der 8. Hauptgruppe bzw. der 18. IUPAC-Gruppe und zählt daher zu den Edelgasen. Wie die anderen Edelgase ist es ein farbloses, äußerst reaktionsträges, einatomiges Gas. In vielen Eigenschaften wie Schmelz- und Siedepunkt oder Dichte steht es zwischen dem leichteren Neon und dem schwereren Krypton. Argon ist das häufigste auf der Erde vorkommende Edelgas, der Anteil an der Atmosphäre beträgt etwa 0,934 %. Damit ist Argon der dritthäufigste Bestandteil der Erdatmosphäre, nach Stickstoff und Sauerstoff. Dies ist großteils auf den Zerfall des Kaliumisotops 40K zurückzuführen, bei dem 40Ar entsteht. Argon war das erste Edelgas, das als Stoff entdeckt und dargestellt wurde; Helium wurde vorher lediglich spektroskopisch im Sonnenlicht sowie in irdischen Proben nachgewiesen. Argon wurde 1894 von Lord Rayleigh und William Ramsay durch fraktionierte Destillation von flüssiger Luft gefunden. Als preiswertestes Edelgas wird Argon in großen Mengen als Schutzgas etwa beim Schweißen und in der Produktion von manchen Metallen, aber auch als Füllgas von Glühlampen verwendet. Geschichte. Einen ersten Hinweis auf das später entdeckte Argon fand Henry Cavendish, der 1783 die Reaktivität der Luft erforschte. Er erzeugte elektrische Entladungen in einer bestimmten Menge Luft, die mit Sauerstoff im Verhältnis von 5:3 angereichert war. Stickstoff und Sauerstoff reagierten miteinander und die entstandenen Stickoxide konnten ausgewaschen werden. Dabei blieb stets ein kleiner Rest nicht-reagierten Gases zurück. Cavendish erkannte jedoch nicht, dass es sich dabei um ein anderes Element handelte und setzte seine Experimente nicht fort. Nachdem John William Strutt, 3. Baron Rayleigh 1892 die Dichte von aus Luft isoliertem Stickstoff bestimmt hatte, fiel ihm auf, dass aus Ammoniak gewonnener Stickstoff eine niedrigere Dichte aufwies. Es gab verschiedene Spekulationen zu diesem Befund; so meinte James Dewar, es müsse sich um ein N3, also ein Stickstoff-Analogon zu Ozon handeln. Rayleigh wiederholte Cavendishs Experimente, indem er in einer luftgefüllten Glaskugel elektrische Funken erzeugte und so Stickstoff und Sauerstoff zur Reaktion brachte. Nach Bestätigung von Cavendishs Ergebnis eines unreaktiven Rückstandes untersuchte William Ramsay diesen ab 1894 durch Überleitung über heißes Magnesium genauer. Da Magnesium mit Stickstoff zum Nitrid reagiert, konnte er dem Gemisch weiteren Stickstoff entziehen. Dabei stellte er eine Erhöhung der Dichte fest und fand schließlich ein bislang unbekanntes, reaktionsträges Gas. Am 31. Januar 1895 gaben Ramsay und Rayleigh schließlich die Entdeckung des neuen Elements bekannt, das sie nach dem altgriechischen "argos", „träge“, "Argon" nannten. Als William Ramsay ab 1898 das aus der Luft isolierte Argon weiter untersuchte, entdeckte er darin drei weitere Elemente, die Edelgase Neon, Krypton und Xenon. Erste technische Anwendungen fand das Gas in der Elektroindustrie: Es wurden unter anderem Gleichrichter auf der Basis der Glimmentladung in Argon hergestellt, die sogenannten "Tungar-Röhren." Vorkommen. Argon zählt im Universum zu den häufigeren Elementen, in seiner Häufigkeit ist es vergleichbar mit derjenigen von Schwefel und Aluminium. Es ist im Universum nach Helium und Neon das dritthäufigste Edelgas. Dabei besteht das primordiale Argon, das etwa in der Sonne oder Gasplaneten wie Jupiter gefunden wird, nur aus den Isotopen 36Ar und 38Ar, während das dritte stabile Isotop, 40Ar, dort nicht vorkommt. Das Verhältnis von 36Ar zu 38Ar beträgt etwa 5,7. Auf der Erde ist Argon dagegen das häufigste Edelgas. Es macht 0,934 % des Volumens der Atmosphäre (ohne Wasserdampf) aus und ist damit nach Stickstoff und Sauerstoff der dritthäufigste Atmosphärenbestandteil. Die Zusammensetzung des terrestrischen Argons unterscheidet sich erheblich von derjenigen des primordialen Argons im Weltall. Es besteht zu über 99 % aus dem Isotop 40Ar, das durch Zerfall des Kaliumisotops 40K entstanden ist. Die primordialen Isotope sind dagegen nur in geringen Mengen vorhanden. Da das Argon durch den Kaliumzerfall in der Erdkruste entsteht, findet man es auch in Gesteinen. Beim Schmelzen von Gesteinen im Erdmantel gast das Argon, aber auch das bei anderen Zerfällen entstehende Helium aus. Es reichert sich daher vorwiegend in den Basalten der ozeanischen Erdkruste an. Aus den Gesteinen wird das Argon an das Grundwasser abgegeben. Daher ist in Quellwasser, vor allem wenn es aus größerer Tiefe kommt, Argon gelöst. Gewinnung und Darstellung. Die Gewinnung des reinen Argons erfolgt ausschließlich aus der Luft, in der Regel im Rahmen der Luftverflüssigung im Linde-Verfahren. Das Argon wird dabei nicht in der Haupt-Rektifikationskolonne des Verfahrens von den Hauptluftbestandteilen getrennt, sondern in einer eigenen Argon-Kolonne. In dieser wird durch Rektifikation zunächst Rohargon hergestellt, das noch etwa 3–5 % Sauerstoff und 1 % Stickstoff enthält. Anschließend wird das Rohargon in weiteren Stufen gereinigt. Das Gasgemisch wird zunächst auf Raumtemperatur erwärmt und auf 4–6 bar verdichtet. Um den restlichen Sauerstoff zu entfernen, wird danach Wasserstoff eingespritzt, der an Edelmetall-Katalysatoren mit dem Sauerstoff zu Wasser reagiert. Nachdem dieses entfernt wurde, wird in einer weiteren Kolonne das Argon, das sich am unteren Ende der Kolonne anreichert, vom restlichen Stickstoff getrennt, so dass Argon mit einer Reinheit von 99,9999 % (Argon 6.0) produziert werden kann. Weitere Quellen für die Gewinnung von Argon sind die Produktion von Ammoniak im Haber-Bosch-Verfahren sowie die Synthesegasherstellung, etwa zur Methanolproduktion. Bei diesen Verfahren, die Luft als Ausgangsstoff nutzen, reichern sich Argon und andere Edelgase im Produktionsprozess an und können aus dem Gasgemisch isoliert werden. Wie beim Linde-Verfahren werden auch hier die verschiedenen Gase durch Adsorption oder Rektifikation voneinander getrennt und so reines Argon gewonnen. Physikalische Eigenschaften. Argon ist auch im festen und flüssigen Zustand farblos. kubisch-dichteste Kugelpackung von festem Argon, "a" = 526 pm Argon ist bei Normalbedingungen ein einatomiges, farbloses und geruchloses Gas, das bei 87,15 K (−186 °C) kondensiert und bei 83,8 K (−189,3 °C) erstarrt. Wie die anderen Edelgase außer dem Helium kristallisiert Argon in einer kubisch dichtesten Kugelpackung mit dem Gitterparameter "a" = 526 pm bei 4 K. Wie alle Edelgase besitzt Argon nur abgeschlossene Schalen (Edelgaskonfiguration). Dadurch lässt sich erklären, dass das Gas stets einatomig vorliegt und die Reaktivität gering ist. Mit einer Dichte von 1,784 kg/m3 bei 0 °C und 1013 hPa ist Argon schwerer als Luft, es sinkt also ab. Im Phasendiagramm liegt der Tripelpunkt bei 83,8 K und 689 hPa, der kritische Punkt bei 150,86 K, 4896 kPa sowie einer kritischen Dichte von 0,536 g/cm3. In Wasser ist Argon etwas löslich. In einem Liter Wasser können sich bei 0 °C und Normaldruck maximal 5,6 g Argon lösen. Chemische Eigenschaften. Als Edelgas reagiert Argon fast nicht mit anderen Elementen oder Verbindungen. Bislang ist nur das experimentell dargestellte Argonfluorohydrid HArF bekannt, das durch Photolyse von Fluorwasserstoff in einer Argonmatrix bei 7,5 K gewonnen wird und anhand neuer Linien im Infrarotspektrum identifiziert wurde. Oberhalb von 27 K zersetzt es sich. Nach Berechnungen sollten weitere Verbindungen des Argons metastabil sein und sich verhältnismäßig schwer zersetzen; diese konnten jedoch experimentell bislang nicht dargestellt werden. Beispiele hierfür sind das Chloranalogon des Argonfluorohydrides HArCl, aber auch um Verbindungen, bei denen das Proton durch andere Gruppen ersetzt ist, etwa FArCCH als organische Argonverbindung und FArSiF3 mit einer Argon-Silicium-Bindung. Argon bildet einige Clathrate, in denen es physikalisch in Hohlräume eines umgebenden Kristalls eingeschlossen ist. Bei −183 °C ist ein Argon-Hydrat stabil, jedoch ist die Geschwindigkeit der Bildung sehr langsam, da eine Umkristallisierung stattfinden muss. Ist das Eis mit Chloroform gemischt, bildet sich das Clathrat schon bei −78 °C. Stabil ist auch ein Clathrat von Argon in Hydrochinon. Isotope. Insgesamt sind 23 Isotope sowie ein weiteres Kernisomer von Argon bekannt. Von diesen sind drei, nämlich die Isotope 36Ar, 38Ar und 40Ar, stabil und kommen in der Natur vor. Dabei überwiegt bei weitem 40Ar mit einem Anteil von 99,6 % am natürlichen irdischen Isotopengemisch. 36Ar und 38Ar sind mit einem Anteil von 0,34 % beziehungsweise 0,06 % selten. Von den instabilen Isotopen besitzen 39Ar mit 269 Jahren und 42Ar mit 32,9 Jahren die längsten Halbwertszeiten. Alle anderen Isotope besitzen kurze Halbwertszeiten im Bereich von 20 ns bei 30Ar bis 35,04 Tagen bei 37Ar. 40Ar wird für die Altersbestimmung von Gesteinen genutzt (Kalium-Argon-Datierung). Dabei wird ausgenutzt, dass instabiles 40K, das in diesen enthalten ist, langsam zu 40Ar zerfällt. Je mehr Kalium zu Argon zerfallen ist, desto älter ist das Gestein. Das kurzlebige Isotop 41Ar kann zur Überprüfung von Gasleitungen verwendet werden. Durch das Durchleiten von 41Ar kann die Leistungsfähigkeit einer Belüftung oder Dichtigkeit einer Leitung festgestellt werden. "→ Liste der Argon-Isotope" Biologische Bedeutung. Wie die anderen Edelgase hat Argon auf Grund der Reaktionsträgheit keine biologische Bedeutung und ist auch nicht toxisch. In höheren Konzentrationen wirkt es durch Verdrängung des Sauerstoffs erstickend. Bei Drücken von mehr als 24 bar wirkt es narkotisierend. Verwendung. Als günstigstes und in großen Mengen verfügbares Edelgas wird Argon in vielen Bereichen verwendet. Die Produktion betrug 1998 weltweit etwa 2 Milliarden m³ bzw. 2 km³. Der größte Teil des Argons wird als Schutzgas verwendet. Es wird immer dann genutzt, wenn der billigere Stickstoff nicht anwendbar ist. Dazu zählen vor allem Schweißverfahren für Metalle, die mit Stickstoff bei hohen Temperaturen reagieren, etwa Titan, Tantal und Wolfram. Auch beim Metallinertgasschweißen und Wolfram-Inertgasschweißen, die etwa beim Schweißen von Aluminiumlegierungen oder hoch legierten Stählen angewendet werden, dient Argon als Inertgas. Weiterhin wird es in der Metallurgie als Schutzgas, etwa für die Produktion von Titan, hochreinem Silicium oder der Schmelzraffination sowie zum Entgasen von Metallschmelzen genutzt. Argon ist ein Lebensmittelzusatzstoff (E 938) und dient als Treib- und Schutzgas bei der Verpackung von Lebensmitteln und der Weinherstellung. Argon wird als gasförmiges Löschmittel vorwiegend für den Objektschutz, vor allem bei elektrischen und EDV-Anlagen eingesetzt und wirkt dabei durch Sauerstoffverdrängung. Für diesen Zweck wird reines Argon oder ein Gasgemisch zusammen mit Stickstoff verwendet. In der Analytik wird Argon als Träger- und Schutzgas für die Gaschromatographie und das induktiv gekoppelte Plasma (ICP-MS, ICP-OES) verwendet. Glühlampen werden häufig mit Argon-Stickstoff-Gemischen gefüllt, weil eine Gasfüllung die Sublimation des Glühfadens vermindert. Argon hat dabei eine geringere Wärmeleitfähigkeit als leichtere Gase, ist aber preiswerter als andere schwerere und damit noch geringer wärmeleitende Gase wie Krypton oder Xenon. Ein Vorteil der geringeren Wärmeleitfähigkeit ist eine höhere mögliche Glühtemperatur und damit höhere Lichtausbeute. Ebenfalls wegen der geringen Wärmeleitfähigkeit wird es als Füllgas für Isolierglasscheiben verwendet. Auch in Gasentladungslampen dient Argon als Leuchtgas mit einer typischen violetten Farbe. Wird etwas Quecksilber dazugegeben, ändert sich die Farbe ins Blaue. Weiterhin ist Argon das Lasermedium in Argon-Ionen-Lasern. Im Bereich der Stahlerzeugung kommt Argon eine besonders wichtige Rolle im Bereich der Sekundärmetallurgie zu. Mit der Argon-Spülung kann die Stahllegierung entgast und gleichzeitig homogenisiert werden, speziell wird dabei der unerwünschte, gelöste Stickstoff aus der Schmelze entfernt. Beim Tauchen wird Argon – insbesondere bei der Nutzung des Helium­haltigen Trimix als Atemgas – dazu verwendet, um Trockentauchanzüge zu füllen bzw. damit zu tarieren. Hierbei wird ebenfalls die geringe Wärmeleitfähigkeit des Gases genutzt, um das Auskühlen des Anzugträgers zu verzögern. Seit Mai 2014 ist Argon auf der Dopingliste der Welt-Anti-Doping-Agentur (WADA). Durch den bei der Inhalation von Argon entstehenden Sauerstoffmangel wird offensichtlich die Bildung von körpereigenem Erythropoetin (EPO) aktiviert. Aus demselben Grund ist auch Xenon auf der Dopingliste. Arsen. Arsen ist ein chemisches Element mit dem Elementsymbol As und der Ordnungszahl 33. Im Periodensystem der Elemente steht es in der 4. Periode und der 5. Hauptgruppe, bzw. 15. IUPAC-Gruppe oder Stickstoffgruppe. Arsen kommt selten gediegen vor, meistens in Form von Sulfiden. Es gehört zu den Halbmetallen, da es je nach Modifikation metallische oder nichtmetallische Eigenschaften zeigt. Umgangssprachlich wird auch das als Mordgift bekannte Arsenik meist einfach „Arsen“ genannt. Arsenverbindungen kennt man schon seit dem Altertum. Als mutagenes Klastogen können Arsenverbindungen als Gift wirken, welches Chromosomenaberrationen hervorrufen kann und somit kanzerogene Wirkung besitzen kann. Trotz ihrer Giftigkeit werden sie als Bestandteil einzelner Arzneimittel verwendet. Arsen wird zur Dotierung von Halbleitern und als Bestandteil von III-V-Halbleitern wie Galliumarsenid genutzt. Geschichte. a> gilt als erster Hersteller reinen Arsens Der Name Arsen geht unmittelbar auf zurück, der Bezeichnung des Arsenminerals Auripigment. Sie findet sich schon bei Dioskurides im 1. Jahrhundert. Die griechische Bezeichnung scheint ihrerseits ihren Ursprung im Mittelpersischen "al-zarnik" (goldfarben) zu haben und gelangte wohl durch semitische Vermittlung ins Griechische. Volksetymologisch wurde der Name fälschlicherweise vom griechischen Wort "arsenikós" abgeleitet, das sich etwa mit männlich/stark übersetzen lässt. Erst seit dem 19. Jahrhundert ist die Bezeichnung Arsen gebräuchlich. Das Elementsymbol wurde 1814 von Jöns Jakob Berzelius vorgeschlagen. Der erste Kontakt von Menschen mit Arsen lässt sich aus dem 3. Jahrtausend v. Chr. nachweisen: In den Haaren der im Gletschereis erhaltenen Mumie des volkstümlich Ötzi genannten Alpenbewohners ließen sich größere Mengen Arsen nachweisen, was archäologisch als Hinweis darauf gedeutet wird, dass der betroffene Mann in der Kupferverarbeitung tätig war – Kupfererze sind oft mit Arsen verunreinigt. Im klassischen Altertum war Arsen in Form der Arsen-Sulfide Auripigment (As2S3) und Realgar (As4S4) bekannt, die etwa von dem Griechen Theophrastos, dem Nachfolger Aristoteles, beschrieben wurden. Auch der griechische Philosoph Demokrit hatte im 2. Jahrhundert v. Chr. nachweislich Kenntnisse über Arsenverbindungen. Der Leidener Papyrus X aus dem 3. Jahrhundert nach Chr. lässt darauf schließen, dass sie benutzt wurden, um Silber goldartig und Kupfer weiß zu färben. Der römische Kaiser Caligula hatte angeblich bereits im 1. Jahrhundert nach Chr. ein Projekt zur Herstellung von Gold aus dem (goldgelben) Auripigment in Auftrag gegeben. Die Alchimisten, die Arsen-Verbindungen nachweislich der Erwähnung im antiken Standardwerk "Physica et Mystica" kannten, vermuteten eine Verwandtschaft mit Schwefel und Quecksilber. Arsen(III)-sulfid kam als Malerfarbe und Enthaarungsmittel zum Einsatz sowie zur äußerlichen als auch inneren Behandlung von Lungenkrankheiten. Im Mittelalter wurde Arsenik (Arsen(III)-oxid) im Hüttenrauch (staubbeladenes Abgas metallurgischer Öfen) gefunden. Albertus Magnus beschrieb um 1250 erstmals die Herstellung von Arsen durch Reduktion von Arsenik mit Kohle. Er gilt daher als Entdecker des Elements, auch wenn es Hinweise darauf gibt, dass das elementare Metall schon früher hergestellt wurde. Paracelsus führte es im 16. Jahrhundert in die Heilkunde ein. Etwa zur gleichen Zeit wurden Arsenpräparate in der chinesischen Enzyklopädie "Pen-ts'ao Kang-mu" des Apothekers Li Shi-zhen beschrieben. Dieser Autor hebt insbesondere die Anwendung als Pestizid in Reisfeldern hervor. Im 17. Jahrhundert wurde das gelbe Auripigment bei holländischen Malern als "Königsgelb" populär. Da sich das Pigment über längere Zeiträume hinweg in Arsen(III)-oxid umwandelt und von der Leinwand bröckelt, entstehen Schwierigkeiten bei der Restaurierung. Ab 1740 wurden Arsenpräparate in Europa mit Erfolg als Beizmittel im Pflanzenschutz eingesetzt. Diese Nutzung verbot man jedoch 1808 wegen ihrer hohen Giftigkeit wieder. Der Einsatz von Arsenzusätzen für den Bleiguss beruht auf der größeren Härte solcher Bleilegierungen, typische Anwendung sind Schrotkugeln. Obwohl die Giftigkeit und die Verwendung als Mordgift bekannt war, ist Arsen im beginnenden 19. Jahrhundert eines der bedeutendsten Asthmamittel. Grundlage sind anscheinend Berichte, in denen den Chinesen nachgesagt wurde, sie würden Arsen in Kombination mit Tabak rauchen, um Lungen zu bekommen, die stark wie Blasebälge seien. Es wurde in Form von Kupferarsenaten in Farbmitteln wie dem Pariser Grün eingesetzt, um Tapeten zu bedrucken. Bei hoher Feuchtigkeit wurden diese Pigmente durch Schimmelpilzbefall in giftige flüchtige Arsenverbindungen umgewandelt, die nicht selten zu chronischen Arsenvergiftungen führten. Doch auch in Kriegen fand Arsen Verwendung: Im Ersten Weltkrieg wurden Arsenverbindungen in chemischen Kampfstoffen (Blaukreuz) oder Lewisit eingesetzt. Bei den Opfern bewirkten sie durch Angriff auf Haut und Lungen grausame Schmerzen und schwerste körperliche Schädigungen. Vorkommen. Arsen kommt in geringen Konzentrationen von bis zu 10 ppm praktisch überall im Boden vor. Es ist in der Erdkruste ungefähr so häufig wie Uran oder Germanium. In der kontinentalen Erdkruste kommt Arsen mit durchschnittlich 1,7 ppm vor, wobei es durch seinen lithophilen Charakter (= Silikat liebend) in der oberen Kruste angereichert ist (2 ppm gegenüber 1,3 ppm in der unteren Kruste); damit liegt Arsen in der Tabelle der häufigsten Elemente an 53. Stelle. Arsen ("Scherbenkobalt") kommt in der Natur gediegen, das heißt in elementarer Form, vor und ist daher von der International Mineralogical Association (IMA) als eigenständiges Mineral anerkannt. Gemäß der Systematik der Minerale nach Strunz (9. Auflage) wird Arsen unter der System-Nr. 1.CA.05 (Elemente – Halbmetalle (Metalloide) und Nichtmetalle – Arsengruppen-Elemente) (8. Auflage: "I/B.01-10") eingeordnet. Die im englischsprachigen Raum ebenfalls geläufige Systematik der Minerale nach Dana führt das Element-Mineral unter der System-Nr. 01.03.01.01. Weltweit sind zurzeit (Stand: 2011) rund 330 Fundorte für gediegenes Arsen bekannt. In Deutschland wurde es an mehreren Fundstätten im Schwarzwald (Baden-Württemberg), im bayerischen Spessart und Oberpfälzer Wald, im hessischen Odenwald, in den Silberlagerstätten des Westerzgebirges (Sachsen), am Hunsrück (Rheinland-Pfalz) sowie im Thüringer Wald gefunden. In Österreich trat Arsen an mehreren Fundstätten in Kärnten, Salzburg und der Steiermark zutage. In der Schweiz fand sich gediegen Arsen in den Kantonen Aargau und Wallis. Weitere Fundorte sind in Australien, Belgien, Bolivien, Bulgarien, Chile, China, Finnland, Frankreich, Griechenland, Irland, Italien, Japan, Kanada, Kasachstan, Kirgisistan, Madagaskar, Malaysia, Marokko, Mexiko, Mongolei, Neuseeland, Norwegen, Österreich, Peru, Polen, Rumänien, Russland, Schweden, Slowakei, Spanien, Tschechien, Ukraine, Ungarn, im Vereinigten Königreich (Großbritannien) und in den Vereinigten Staaten (USA) bekannt. Weit häufiger kommt das Element allerdings in verschiedenen intermetallischen Verbindungen mit Antimon (Allemontit) und Kupfer (Whitneyit) sowie in verschiedenen Mineralen vor, die überwiegend der Klasse der Sulfide und Sulfosalze angehören. Insgesamt sind bisher (Stand: 2011) 565 Arsenminerale bekannt. Die höchsten Konzentrationen an Arsen enthalten dabei unter anderem die Minerale Duranusit (ca. 90 %), Skutterudit und Arsenolith (jeweils ca. 76 %), die allerdings selten zu finden sind. Weit verbreitet sind dagegen Arsenopyrit ("Arsenkies"), Löllingit, Realgar ("Rauschrot") und Auripigment ("Orpiment", "Rauschgelb"). Weitere bekannte Minerale sind Cobaltit ("Kobaltglanz"), Domeykit ("Arsenkupfer"), Enargit, Gersdorffit ("Nickelarsenkies"), Proustit ("Lichtes Rotgültigerz", "Rubinblende"), Rammelsbergit sowie Safflorit und Sperrylith. Arsenate finden sich häufig in phosphathaltigen Gesteinen, da sie eine vergleichbare Löslichkeit aufweisen und das häufigste Sulfidmineral Pyrit kann bis zu einigen Massenprozent Arsen einbauen. Arsen wird heutzutage als Nebenprodukt der Verhüttung von Gold-, Silber-, Zinn-, Kupfer-, Cobalt- und weiteren Buntmetallerzen sowie bei der Verarbeitung von Phosphatrohstoffen gewonnen. Die größten Produzenten im Jahr 2009 waren China, Chile, Marokko und Peru. Arsen ist nur schwer wasserlöslich und findet sich daher nur in geringen Spuren, etwa 1,6 ppb (Milliardstel Massenanteilen) in Meeren und Ozeanen. In der Luft findet man Arsen in Form von partikulärem Arsen(III)-oxid. Als natürliche Ursache dafür hat man Vulkanausbrüche identifiziert, die insgesamt jährlich geschätzte 3000 Tonnen in die Erdatmosphäre eintragen. Bakterien setzen weitere 20.000 Tonnen in Form organischer Arsenverbindungen wie Trimethylarsin frei. Ein großer Teil am freigesetzten Arsen entstammt der Verbrennung fossiler Brennstoffe wie Kohle oder Erdöl. Die geschätzten Emissionen, verursacht durch den Straßenverkehr und stationäre Quellen, betrugen 1990 in der Bundesrepublik Deutschland 120 Tonnen (20 Tonnen in den alten, 100 Tonnen in den neuen Bundesländern). Die Außenluftkonzentration von Arsen liegt zwischen 0,5 bis 15 Nanogramm pro Kubikmeter. Gewinnung und Darstellung. Arsen fällt in größeren Mengen als Nebenprodukt bei der Gewinnung von Kupfer, Blei, Cobalt und Gold an. Dies ist die Hauptquelle für die kommerzielle Nutzung des Elements. Es kann durch thermische Reduktion von Arsen(III)-oxid mit Koks oder Eisen und durch Erhitzen von Arsenkies (FeAsS) oder Arsenikalkies (FeAs2) unter Luftabschluss in liegenden Tonröhren gewonnen werden. Dabei sublimiert elementares Arsen, das an kalten Oberflächen wieder in den festen Aggregatzustand zurückkehrt. Früher wurde es auch durch Sublimation aus Lösungen in flüssigem Blei erzeugt. Dabei wird der Schwefel der Arsen-Erze durch das Blei in Form von Blei(II)-sulfid gebunden. Die hierbei erzielten Reinheiten von über 99,999 Prozent waren für Halbleiteranwendungen nicht ausreichend. Eine andere Möglichkeit besteht im Auskristallisieren bei hohen Temperaturen aus geschmolzenem Arsen oder in der Umwandlung in Monoarsan, einer anschließenden Reinigung sowie der Zersetzung bei 600 °C in Arsen und Wasserstoff. Eigenschaften. Arsenionen in chemischen Komplexen (R bezeichnet die Liganden) Arsen bildet mit Stickstoff, Phosphor, Antimon und Bismut die 5. Hauptgruppe des Periodensystems und nimmt wegen seiner physikalischen und chemischen Eigenschaften den Mittelplatz in dieser Elementgruppe ein. Arsen hat eine relative Atommasse von 74,92159. Der Radius des Arsen-Atoms beträgt 124,5 Pikometer. In kovalent gebundenem Zustand ist er etwas kleiner (121 Pikometer). Aufgrund der Abgabe der äußeren Elektronen (Valenzelektronen) bei der Ionisierung reduziert sich der Radius beträchtlich auf 34 Pikometer (As5+; das äußerste p- und das äußerste s-Atomorbital bleiben unbesetzt) beziehungsweise 58 Pikometer (As3+; nur das p-Orbital ist unbesetzt). In chemischen Komplexverbindungen ist das As5+-Kation von vier Bindungspartnern (Liganden), As3+ von sechs umgeben. Arsen tritt allerdings nur sehr selten in eindeutig ionischer Form auf. Der Wert für die Elektronegativität liegt nach Pauling auf der von 0 (Metalle) bis 4 (Nichtmetall) reichenden Skala bei 2,18 und ist damit mit dem Wert des Gruppennachbarn Phosphor vergleichbar. Der Halbmetall-Charakter des Arsens zeigt sich zudem darin, dass die benötigte Dissoziationsenergie von 302,7 kJ/mol, also die Energie, die aufgebracht werden muss, um ein einzelnes Arsen-Atom aus einem Arsen-Festkörper herauszulösen, zwischen der des Nichtmetalls Stickstoff (473,02 kJ/mol; kovalente Bindung) und des Metalls Bismut (207,2 kJ/mol; metallische Bindung) liegt. Unter Normaldruck sublimiert Arsen bei einer Temperatur von 616 °C, geht also aus dem festen Aggregatzustand direkt in die Gasphase über. Arsendampf ist zitronengelb und setzt sich bis ungefähr 800 °C aus As4-Molekülen zusammen. Oberhalb von 1700 °C liegen As2-Moleküle vor. Arsen zeigt je nach Verbindungspartner Oxidationsstufen zwischen −3 und +5. Mit elektropositiven Elementen wie Wasserstoff oder Metallen bildet es Verbindungen, in denen es eine Oxidationsstufe von −3 einnimmt. Beispiele dafür sind Monoarsan (AsH3) und Arsenkupfer (Cu3As). In Verbindungen mit elektronegativen Elementen wie den Nichtmetallen Sauerstoff, Schwefel und Chlor besitzt es die Oxidationsstufe +3 oder +5; erstere ist dabei gegenüber den in derselben Hauptgruppe stehenden Elementen Stickstoff und Phosphor tendenziell bevorzugt. Modifikationen. Arsen kommt wie andere Elemente der Stickstoffgruppe in verschiedenen allotropen Modifikationen vor. Anders als beim Stickstoff, der in Form zweiatomiger Moleküle mit kovalenter Dreifachbindung vorkommt, sind die entsprechenden As2-Moleküle instabil und Arsen bildet stattdessen kovalente Netzwerke aus. Graues Arsen. Graues oder metallisches Arsen ist die stabilste Form. Es hat eine Dichte von 5,72 g/cm3. Seine Kristalle sind stahlgrau, metallisch glänzend und leiten den elektrischen Strom. Betrachtet man den strukturellen Aufbau des grauen Arsens, dann erkennt man Schichten aus gewellten Arsen-Sechsringen, welche die Sesselkonformation einnehmen. Darin bilden die Arsen-Atome eine Doppelschicht, wenn man sich den Aufbau der Schicht im Querschnitt ansieht. Die Übereinanderlagerung dieser Doppelschichten ist sehr kompakt. Bestimmte Atome der nächsten darüberliegenden oder darunterliegenden Schicht sind von einem Bezugsatom fast ähnlich weit entfernt wie innerhalb der betrachteten Doppelschicht. Dieser Aufbau bewirkt, dass die graue Arsen-Modifikation wie die homologen Elemente Antimon und Bismut sehr spröde ist. Deswegen werden diese drei Elemente häufig auch als Sprödmetalle bezeichnet. Gelbes Arsen. Wird Arsen-Dampf, in dem Arsen gewöhnlich als As4-Tetraeder vorliegt, schnell abgekühlt, so bildet sich das metastabile gelbe Arsen mit einer Dichte von 1,97 g/cm3. Es besteht ebenfalls aus tetraedrischen As4-Molekülen. Gelbes Arsen ist ein Nichtmetall und leitet infolgedessen den elektrischen Strom nicht. Es kristallisiert aus Schwefelkohlenstoff und bildet kubische, stark lichtbrechende Kristalle, die nach Knoblauch riechen. Bei Raumtemperatur und besonders schnell unter Lichteinwirkung wandelt sich gelbes Arsen in graues Arsen um. Schwarzes Arsen. Schwarzes Arsen selbst kann seinerseits in zwei verschiedenen Formen vorkommen. "Amorphes schwarzes Arsen" entsteht durch Abkühlung von Arsen-Dampf an 100 bis 200 °C warmen Oberflächen. Es besitzt keine geordnete Struktur, sondern liegt in einer amorphen, glasartigen Form vor, analog zum roten Phosphor. Die Dichte beträgt 4,7 bis 5,1 g/cm3. Oberhalb 270 °C wandelt sich das schwarze Arsen in die graue Modifikation um. Wird glasartiges, amorphes schwarzes Arsen bei Anwesenheit von metallischem Quecksilber auf 100 bis 175 °C erhitzt, so entsteht das metastabile "orthorhombische schwarze Arsen", das mit dem schwarzen Phosphor vergleichbar ist. Natürlich gebildetes orthorhombisches schwarzes Arsen ist in der Natur als seltenes Mineral Arsenolamprit bekannt. Braunes Arsen. Bei der Reduktion von Arsenverbindungen in wässriger Lösung entstehen ähnlich wie beim Phosphor Mischpolymerisate. Bei diesen bindet ein Teil der freien Valenzen des Arsens Hydroxygruppen (–OH). Man nennt diese Form des Arsens "braunes Arsen". Reaktionen. Arsen reagiert heftig mit Oxidationsmitteln und Halogenen. So verbrennt Arsen an der Luft mit bläulicher Flamme zu einem weißen Rauch von giftigem Arsen(III)-oxid. Ohne äußere Wärmezufuhr findet die Reaktion mit Chlor unter Feuererscheinung zu Arsen(III)-chlorid statt. Eine weitere Oxidation ist möglich. Analoge Reaktionsgleichungen gelten für die entsprechenden Reaktionen mit Fluor. Stark oxidierende Säuren, wie konzentrierte Salpetersäure oder Königswasser, wandeln Arsen in Arsensäure um. Ist die Oxidationsstärke weniger groß – etwa bei Verwendung von verdünnter Salpetersäure oder Schwefelsäure – entsteht Arsenige Säure. Unter sauren Bedingungen und bei Anwesenheit von Metallen beziehungsweise Leichtmetallen, zum Beispiel Zink, reagiert Arsen mit dem gebildeten Wasserstoff zu Monoarsan. Mit basischem Natriumhydroxid bildet sich das entsprechende Arsenitsalz. Isotope. Vom Arsen sind künstlich hergestellte, radioaktive Isotope mit Massenzahlen zwischen 65 und 87 bekannt. Die Halbwertszeiten liegen zwischen 96 Millisekunden (66As) und 80,3 Tagen (73As). Natürlich vorkommendes Arsen besteht zu 100 Prozent aus dem Isotop 75As, es ist daher ein anisotopes Element. Der entsprechende Arsen-Kern besteht also aus genau 33 Protonen und 42 Neutronen. Physikalisch zählt man ihn daher zu den ug-Kernen (u steht hier für ungerade, g für gerade). Sein Kernspin beträgt 3/2. Verwendung. Arsen wird Bleilegierungen zugesetzt, um ihre Festigkeit zu verbessern und das Blei gießbar zu machen. Vor allem die fein strukturierten Platten von Akkumulatoren könnten ohne Arsen nicht gegossen werden. Historisch war Arsen eine wichtige Zutat von Kupferlegierungen, die dadurch besser verarbeitbar wurden. Metallisches Arsen wurde früher gelegentlich zur Erzeugung mattgrauer Oberflächen auf Metallteilen verwendet, um eine Alterung vorzutäuschen. In der Elektronik spielt es als mindestens 99,9999 Prozent reines Element für Gallium-Arsenid-Halbleiter, so genannte III-V-Halbleiter (aufgrund der Kombination von Elementen aus der 3. und 5. Hauptgruppe des Periodensystems), sowie für Epitaxieschichten auf Wafern in Form von Indiumarsenidphosphid und Galliumarsenidphosphid eine wesentliche Rolle in der Herstellung von Hochfrequenzbauelementen wie Integrierten Schaltkreisen (ICs), Leuchtdioden (LEDs) beziehungsweise Laserdioden (LDs). Es gibt Anfang 2004 weltweit nur drei Hersteller von hochreinem Arsen, zwei in Deutschland und einen in Japan. Arsen wird in Form seiner Verbindungen in einigen Ländern als Schädlingsbekämpfungsmittel im Weinbau, als Fungizid (Antipilzmittel) in der Holzwirtschaft, als Holzschutzmittel, als Rattengift und als Entfärbungsmittel in der Glasherstellung verwendet. Der Einsatz ist umstritten, da die eingesetzten Arsenverbindungen (hauptsächlich Arsen(III)-oxid) hochtoxisch sind. Arsen in Arzneimitteln. Die Verwendung arsenhaltiger Mineralien als Heilmittel ist bereits in der Antike durch Hippokrates und Plinius bezeugt. Sie wurden als Fiebermittel, als Stärkungsmittel und zur Therapie von Migräne, Rheumatismus, Malaria, Tuberkulose und Diabetes eingesetzt. Im 18. Jahrhundert wurde eine Mischung aus Kaliumarsenit und Lavendelwasser als Fowler'sche Lösung bekannt, die lange als medizinisches Wundermittel galt und als Fiebersenker, Heilwasser und sogar als Aphrodisiakum Anwendung fand. Kaliumarsenit war als Bestandteil der Fowler'schen Lösung bis in die 1960er Jahre in Deutschland als Mittel zur Behandlung der Psoriasis im Einsatz. Constantinus Africanus (1017−1087) empfahl eine Arsenapplikation zur Bekämpfung von Zahnschmerzen. Bereits um 2700 vor Christus soll die Anwendung von Arsen zur Behandlung eines schmerzenden Zahnes in der chinesischen Heilkunst beschrieben worden sein. In dem Mitte des 10. Jahrhunderts erschienenen Werk „"Liber Regius"“ empfahl der arabische Arzt Haly Abbas (ʿAli ibn al-ʿAbbās, † 944) ebenfalls den Einsatz von Arsenik zur Devitalisation der Pulpa. Arsen(III)-oxid wurde bis in die Neuzeit zur Devitalisation der Zahnpulpa verwendet und verschwand in den 1970er Jahren wegen der krebserregenden Wirkung, Entzündungen des Zahnhalteapparates, des Verlustes eines oder mehrerer Zähne einschließlich Nekrosen des umliegenden Alveolarknochens, Allergien und Vergiftungserscheinungen aus dem Therapiespektrum. Einen Aufschwung erlebten arsenhaltige Arzneimittel zu Beginn des 20. Jahrhunderts. Harold Wolferstan Thomas und Anton Breinl konnten 1905 beobachten, dass das arsenhaltige Präparat Atoxyl Trypanosomen, zu denen die Erreger der Schlafkrankheit gehören, abtötet. 1920 wurde eine Weiterentwicklung, das Tryparsamid, in der Zeit von 1922 bis 1970 im tropischen Afrika zur Therapie der Schlafkrankheit eingesetzt. Es war bedeutsam für die Eingrenzung dieser Epidemie in der ersten Hälfte des vorigen Jahrhunderts, konnte jedoch zur Erblindung führen. Das in den 1950er Jahren entwickelte Melarsoprol war über mehrere Jahrzehnte das Mittel der Wahl zur Behandlung der Schlafkrankheit und wird heute noch eingesetzt, da keine effektiven Nachfolgepräparate zur Verfügung stehen. Ebenfalls angeregt durch die Trypanosomen-toxische Wirkung von Atoxyl entwickelte Paul Ehrlich das arsenhaltige Arsphenamin (Salvarsan®). Das 1910 in die Therapie der Syphilis eingeführte Mittel stellte das erste auf theoretischen Vorüberlegungen beruhende, systematisch entwickelte, spezifisch wirkende Chemotherapeutikum dar und war Vorbild für die Entwicklung der bis heute verwendeten Sulfonamide. Es wurde lange Zeit auch bei der Behandlung von Dysenterie eingesetzt. Im Jahr 2000 wurde ein arsenikhaltiges Präparat unter dem Namen "Trisenox" in den USA zur Behandlung der promyelozytären Leukämie (APL) zugelassen. Seit 2002 besteht für "Trisenox" in Europa eine Zulassung zur Behandlung der APL, (Vertrieb in EU und USA: Cephalon). Seine Wirksamkeit bei der Krebstherapie wird auch auf die antiangioneogenetische Wirkung zurückgeführt. Die verschiedenen Arsensulfide sind Bestandteil von Arzneimitteln der Chinesischen Medizin. "Arsenicum album" spielt in der Homöopathie eine wichtige Rolle, es ist eines der sogenannten Polychreste (häufig verordnete Arzneimittel). Arsenik als Insektizid bei der Taxidermie. Aufgrund der toxischen Eigenschaften von Arsenverbindungen wurde früher überwiegend Arsenik zur Haltbarmachung von Wirbeltieren ("Taxidermie") als Insektizid verwendet. Viele andere Stoffe, wie auch Lindan, wurden zum selben Zweck verwendet, wie es die Fachliteratur der Präparatoren aus der Zeit von 1868 bis 1996 beschreibt. Solche Stoffe sind jedoch auch für Menschen giftig und stellen heute an Präparatoren besondere Anforderungen, da diese auch in Kontakt mit derart kontaminierten Präparaten kommen. Biologische Bedeutung. Die biologische Bedeutung des Arsens für den Menschen ist nicht vollständig geklärt. Es gilt als Spurenelement im Menschen, Mangelerscheinungen wurden bisher aber nur an Tieren nachgewiesen. Der notwendige Bedarf liegt, falls er bestehen sollte, zwischen 5 und 50 µg pro Tag. Eine tägliche Arsenaufnahme von – je nach Wahl der Nahrungsmittel – bis zu einem Milligramm gilt als harmlos. In einer neuen Studie konnte eine erhöhte Arsenbelastung durch hohe Arsengehalte im Grundwasser von Reisanbaugebieten mit der Entstehung von Krebserkrankungen in Verbindung gebracht werden. Die Förderung der Krebsentwicklung ist jedoch dosisabhängig und nur bei Verzehr von belastetem Reis als täglichem Grundnahrungsmittel gegeben. Es gibt bei regelmäßigem Verzehr von Arsenverbindungen, speziell Arsentrioxid eine Gewöhnung, die beim Absetzen der Dosis sogar mit Entzugserscheinungen begleitet werden. Menschen, die eine solche Gewöhnung erworben haben, werden Arsenikesser genannt. Meerestiere wie Muscheln oder Garnelen enthalten besonders viel Arsen, letztere bis zu 175 ppm. Vermutlich agiert es durch die Bindung an freie Thiolgruppen in Enzymen als Inhibitor, verhindert also deren Wirkung. Für viele Tiere ist Arsen ein essentielles Spurenelement. So zeigen Hühner oder Ratten bei arsenfreier Ernährung deutliche Wachstumsstörungen; dies hängt wahrscheinlich mit dem Einfluss des Elements auf die Verstoffwechslung der Aminosäure Arginin zusammen. Zahlreiche Algen und Krebstiere enthalten organische Arsen-Verbindungen wie das schon erwähnte Arsenobetain. Arsen führt zur verstärkten Bildung der sauerstofftransportierenden roten Blutkörperchen. Aus diesem Grund wurde es früher dem Futter von Geflügel und Schweinen zugesetzt, um eine schnellere Mästung zu ermöglichen. Trainer von Rennpferden benutzten es zum illegalen Doping ihrer Tiere – heute kann der Zusatz von Arsen zur Nahrung allerdings leicht im Urin nachgewiesen werden. Lösliche Arsenverbindungen werden leicht über den Magen-Darm-Trakt aufgenommen und rasch innerhalb von 24 Stunden im Körper verteilt. Man findet den größten Teil des aufgenommenen Arsens in den Muskeln, Knochen, Nieren und Lungen. Im Menschen wurde es zusammen mit Thallium in fast jedem Organ nachgewiesen. Blut enthält bis zu 8 ppb Arsen, in den anderen Organen des Körpers wie etwa den Knochen hat es einen Anteil von zwischen 0,1 und 1,5 ppm, in Haaren liegt der Anteil mit 1 ppm etwas niedriger. Der Gesamtgehalt von Arsen im Körper eines Erwachsenen liegt im Durchschnitt bei etwa 7 Milligramm. Organische Arsenverbindungen wie die aus Fischen und Meeresfrüchten stammende Dimethylarsinsäure, Trimethylarsenoxid, Trimethylarsin sowie Arsenobetain verlassen den menschlichen Körper fast unverändert innerhalb von zwei bis drei Tagen über die Nieren. Anorganische Arsenverbindungen werden in der Leber zu Monomethylarsonsäure (MMAA) und Dimethylarsinsäure (DMAA) umgewandelt und anschließend ebenso über die Nieren ausgeschieden. Bei Pflanzen erhöht das Element den Kohlenhydrat-Umsatz. Der Gebänderte Saumfarn "(Pteris vittata)" nimmt das Halbmetall bevorzugt aus dem Boden auf und kann bis zu fünf Prozent seines Trockengewichts an Arsen aufnehmen. Aus diesem Grund wird die schnellwachsende Pflanze zur biologischen Säuberung arsenkontaminierter Böden eingesetzt. Die stimulierende Wirkung des Arsens ist vermutlich auch Ursache des früher in einigen Alpengegenden verbreiteten Arsenikessens. Im 17. Jahrhundert verzehrten manche der dortigen Bewohner lebenslang zweimal wöchentlich bis zu 250 Milligramm Arsen – bei Männern, weil es bei der Arbeit in den Höhenlagen half, bei Frauen, da es angeblich zu einer kräftigen Gesichtsfarbe beitrug. In der Wissenschaft lange als Märchen abgetan, nahm ein Bauer aus den Steirischen Alpen 1875 vor der in Graz versammelten deutschen Fachwelt eine Dosis von 400 Milligramm Arsentrioxid zu sich, die sich später auch in seinem Urin nachweisen ließ. Die Dosis lag weit über dem Doppelten der für normale Menschen tödlichen Arsenmenge, zeigte aber keinerlei negative Auswirkungen auf den Bauern. Ähnliches wird von Bewohnern einer Siedlung in der hochgelegenen chilenischen Atacamawüste berichtet, deren Trinkwasser hochgradig mit Arsen belastet ist, die jedoch keinerlei Vergiftungssymptome zeigen. Heute geht man davon aus, dass eine langsame Gewöhnung an das Gift mit sukzessive steigenden Dosen physiologisch möglich ist. Über den Bakterienstamm GFAJ-1 wurde 2010 berichtet, dass er unter bestimmten Bedingungen in arsenathaltigen Nährmedien in der Lage sei, Arsenat anstatt Phosphat in Biomoleküle wie die DNA einzubauen, ohne dabei abzusterben, was bisher eher als unmöglich galt. Der Befund scheint jedoch auf unsauberen Arbeitsmethoden zu basieren, die Befunde konnten nicht repliziert werden. Toxizität. Dreiwertige lösliche Verbindungen des Arsens sind hoch toxisch, weil sie biochemische Prozesse wie die DNA-Reparatur, den zellulären Energiestoffwechsel, rezeptorvermittelte Transportvorgänge und die Signaltransduktion stören. Dabei kommt es mutmaßlich nicht zu einer direkten Einwirkung auf die DNA, sondern zu einer Verdrängung des Zink-Ions aus seiner Bindung zu Metallothioneinen und damit zur Inaktivierung von Tumor-Repressor-Proteinen (siehe auch Zinkfingerprotein). Arsen(III)- und Zink(II)-Ionen haben vergleichbare Ionenradien und damit ähnliche Affinität zu diesen Zink-Finger-Proteinen, allerdings führt Arsen dann nicht zur Aktivierung der Tumor-Repressor-Proteine. Eine akute Arsenvergiftung führt zu Krämpfen, Übelkeit, Erbrechen, inneren Blutungen, Durchfall und Koliken, bis hin zu Nieren- und Kreislaufversagen. Bei schweren Vergiftungen fühlt sich die Haut feucht und kalt an und der Betroffene kann in ein Koma fallen. Die Einnahme von 60 bis 170 Milligramm Arsenik gilt für Menschen als tödliche Dosis (LD50 = 1,4 mg/kg Körpergewicht); meist tritt der Tod innerhalb von mehreren Stunden bis wenigen Tagen durch Nieren- und Herz-Kreislauf-Versagen ein. Eine chronische Arsenbelastung kann Krankheiten der Haut und Schäden an den Blutgefäßen hervorrufen, was zum Absterben der betroffenen Regionen (Black Foot Disease) sowie zu bösartigen Tumoren der Haut, Lunge, Leber und Harnblase führt. Diese Symptome wurden auch als Reichensteiner Krankheit bezeichnet, nach einem Ort in Schlesien, dessen Trinkwasser durch den Arsenik-Abbau bis zu 0,6 mg Arsen pro Liter enthielt. Die chronische Arsen-Vergiftung führt über die Bindung an Sulfhydryl-Gruppen von Enzymen der Blutbildung (zum Beispiel Delta-Amino-Laevulin-Säure-Synthetase) zu einem initialen Abfall des Hämoglobins im Blut, was zu einer reaktiven Polyglobulie führt. Des Weiteren kommt es bei chronischer Einnahme von Arsen zur Substitution der Phosphor-Atome im Adenosin-Triphosphat (ATP) und damit zu einer Entkopplung der Atmungskette, was zu einer weiteren reaktiven Polyglobulie führt. Klinisch finden sich hier nach Jahren der As-Exposition Trommelschlägelfinger, Uhrglasnägel, Mees-Nagelbänder und Akrozyanose (Raynaud-Syndrom), mit Folge der "Black Foot Disease". Metallisches Arsen dagegen zeigt wegen seiner Unlöslichkeit nur eine geringe Giftigkeit, da es vom Körper kaum aufgenommen wird (LD50 = 763 mg/kg Ratte, oral). Es sollte aber, da es sich an der Luft leicht mit seinen sehr giftigen Oxiden wie dem Arsenik überzieht, stets mit größter Vorsicht behandelt werden. Anders verhält es sich mit Arsenik, das in früheren Zeiten als Stimulans von Arsenikessern benutzt wurde, um einer Arsenvergiftung vorzubeugen. Der Mechanismus dieser Immunisierung gegen Arsen ist nicht bekannt. Grenzwerte. Anionisches Arsen tritt als Arsenit ([AsO3]3−) und Arsenat ([AsO4]3−) in vielen Ländern im Grundwasser in hohen Konzentrationen auf. Durch Auswaschungen aus arsenhaltigen Erzen in Form von drei- und fünfwertigen Ionen trinken weltweit über 100 Millionen Menschen belastetes Wasser. Besonders in Indien, Bangladesh und Thailand, wo im 20. Jahrhundert mit internationaler Unterstützung zahlreiche Brunnen gegraben wurden, um von mit Krankheitserregern kontaminiertem Oberflächenwasser auf Grundwasser ausweichen zu können, führte diese unerkannte Belastung des Trinkwassers zu chronischer Arsenvergiftung bei weiten Teilen der betroffenen Bevölkerung. Das Problem kann, wo es bekannt wird, chemisch durch Oxidation der Arsenverbindungen und nachfolgende Ausfällung mit Eisenionen behoben werden. Von der Rice University wurde eine kostengünstige Filtermöglichkeit mit Nano-Magnetit entwickelt Die Weltgesundheitsorganisation (WHO) empfiehlt seit 1992 einen Grenzwert für Arsen im Trinkwasser von 10 Mikrogramm pro Liter. Der Wert wird in vielen Staaten Europas und in den USA immer noch überschritten. In Deutschland wird er dagegen seit 1996 eingehalten. Eine Richtlinie der Europäischen Union (EU) von 1999 schreibt einen Höchstwert von 10 Mikrogramm pro Liter Trinkwasser EU-weit vor. Die USA haben sich im Jahre 2001 verpflichtet, diesen Grenzwert ab 2006 einzuhalten. Das im Grundwasser vorkommende Arsen reichert sich in Reis zehnmal so stark an wie in anderen Getreidearten; auf dem Weltmarkt angebotene Sorten enthalten zwischen 20 und 900 Mikrogramm Arsen pro Kilogramm. Im Jahr 2005 senkte die chinesische Regierung den zulässigen Gehalt anorganischer Arsenverbindungen von 700 auf 150 Mikrogramm pro Kilogramm Lebensmittel, im Juli 2014 beschloss die Codex Alimentarius-Kommission erstmals einen Höchstwert vom 200 Mikrogramm für polierten Reis. Die für Lebensmittelsicherheit zuständige EU-Kommission diskutiert für Erzeugnisse aus Puffreis einen um 15 Prozent höheren Grenzwert und für spezielle Produkte für Kleinkinder einen nur halb so hohen (d.h. 100 Mikrogramm pro kg). Für andere belastete Lebensmittel wie Bier oder Fruchtsäfte gibt es noch keine Grenzwerte, obwohl sie mehr Arsen enthalten können als für Trinkwasser zulässig ist. Verbraucherorganisationen fordern für Apfelsaft einen Grenzwert von 3, höchstens aber 4,4 ppb (entspricht Mikrogramm pro kg). Fische und Meeresfrüchte weisen zwar hohe Gehalte an Arsen auf, jedoch nahezu ausschließlich in der als unbedenklich geltenden organisch gebundenen Form. Grenzwerte wie z.B. für Quecksilber oder Cadmium gibt es nicht. Das neue Chemikaliengesetz der EU umgesetzt in der Gefahrstoffverordnung Deutschlands von 2005 verbietet im Anhang 4 die „gewerbliche“ (nicht private) Verarbeitung von arsenhaltigen Mitteln und Zubereitungen, die mehr als 0,3 Gewichtsprozent an Arsen aufweisen. Derartige Grenzwertregelungen sind gegeben da Arsen – genau wie Cadmium – in den Verzinkereien der Galvanikindustrie weltweit der Zinkschmelze zugesetzt wird, um die Haftungseigenschaften des Zinks an der Eisenoberfläche des zu verzinkenden Metallstückes zu verbessern. Auf Grund der Temperatur im Zink-Schmelzbad von 460 °C bis 480 °C kommt es zum Verdampfen von Arsen, Cadmium und anderen leicht flüchtigen Metallen und deren Anreicherung in der Luft des Arbeitsplatzes. So können jedoch zulässige Grenzwerte kurzfristig um das tausendfache überschritten werden, mit der Folge der aerogen-alveolaren Aufnahme in den Körper. Messungen ergaben, dass Arsen (und Cadmium) im hochreinen Zink (99,995 Reinheitsgrad, DIN 1179-Reinheitsgrad) mit weniger als 0,0004 Gewichts-% ausgewiesen waren und nach Zugabe von 450 Gramm dieses hochreinen Zinks in die Zinkschmelze zu einem Anstieg der Cd-/As-Konzentration von 3 bis 7 µg/m³ Luft auf über 3000 µg/m³ Luft führten. Für Arsen wurde diese Tatsache überraschend in einer Verzinkerei durch Messung der Arsen-Konzentration in Zinkschmelze, Blut und Urin festgestellt (unveröffentlicht). Bei Galvanik-Arbeitern wird die Urin-Arsen-Konzentration mit 25 bis 68 Mikrogramm/Liter Urin gemessen, im Vergleich zu unbelasteter Bevölkerung mit 0,1 Mikrogramm Arsen/Liter Urin. Abreicherung. Für die Entfernung von ionischem Arsen aus dem Trinkwasser gibt es Verfahren, die auf Adsorption an Aktivkohle, aktiviertem Aluminiumoxid oder Eisenhydroxid-Granulat beruhen. Daneben werden Ionenaustauscher verwendet. Es ist möglich, Arsen mittels gentechnisch veränderten Pflanzen aus dem Boden zu entfernen, die es in Blättern speichern. Zur Phytosanierung von Trinkwasser bietet sich die Dickstielige Wasserhyazinthe an, die Arsen insbesondere in ihr Wurzelgewebe einlagert und so eine Abreicherung des kontaminierten Wassers bewirkt. Organische Arsenverbindungen in belasteten Böden können enzymatisch mit Hilfe von Pilzen abgebaut werden. In Bangladesh wird nach einem Verfahren der schweizerischen Forschungseinrichtung EAWAG versucht, Arsen mit Hilfe von transparenten PET-Flaschen und Zitronensaft abzureichern. Bei dieser SORAS "(Solar Oxidation and Removal of Arsenic)" genannten Methode oxidiert Sonnenlicht das Arsen; die Inhaltsstoffe des Zitronensafts helfen bei der Ausfällung. Mit dieser kostengünstigen Methode lässt sich der Arsengehalt um 75 bis 90 Prozent senken. In Gewässern des Yellowstone-Nationalparks, die sich aus Geysiren und anderen Thermalquellen vulkanischen Ursprungs speisen, wurden eukaryontische Algen der Gattung "Cyanidioschyzon" gefunden, die die hohen Arsenkonzentrationen der Gewässer tolerieren und sie zu biologisch weniger verfügbaren organischen Verbindungen oxidieren können. An einer Nutzung zur Abreicherung in Trinkwasser wird gearbeitet. Antidote. Als Antidote bei akuten Arsenvergiftungen stehen die schwefelhaltigen Komplexbildner Dimercaptopropansulfonsäure (=DMPS), Unithiol und Succimer zur Verfügung. Sie sind noch bei starken Arsendosen effektiv, wenn die Vergiftung rechtzeitig diagnostiziert wird. Ihr Stellenwert bei der Behandlung chronischer Arsenvergiftungen ist hingegen umstritten. Aktivkohle ein bis mehrere Stunden nach der Einnahme kann das Metall ebenfalls binden und zur Ausscheidung bringen. Prophylaxe. Indische Forscher haben im Tierversuch herausgefunden, dass die Einnahme von Knoblauch zur Senkung der Arsengehalte im Blut und der Erhöhung der Arsengehalte im Urin führen kann. Erklärt wird dies über eine Ausfällung des Arsen bei Reaktion mit schwefelhaltigen Substanzen wie etwa Allicin, das Bestandteil des Knoblauchs ist. Zur Prophylaxe werden zwei bis drei Knoblauchzehen täglich empfohlen. Anorganische Nachweisreaktionen. Arsenverbindungen zeigen beim Verbrennen eine wenig charakteristische fahlblaue Flammenfärbung. Bei der Glühröhrchenprobe erhitzt man Arsenverbindungen, welche teilweise sublimieren und sich an kalten Oberflächen in Form von schwarzem Arsen, weißem Arsen(III)-oxid oder gelbem Arsentrisulfid wieder niederschlagen. Atomabsorptionsspektrometrie (AAS). Bei der Flammen-AAS werden die Arsenverbindungen in einer reduzierenden Luft-Acetylen-Flamme ionisiert. Anschließend wird eine Atomabsorptionsmessung bei 189,0 nm beziehungsweise 193,8 nm durchgeführt. Nachweisgrenzen bis zu 1 µg/ml wurden beschrieben. Häufig wird das Arsen auch mit Hilfe von NaBH4 in das gasförmige Arsin (AsH3) überführt (Hydridtechnik). In der Quarzrohrtechnik wird AsH3 zuerst bei rund 1000 °C in einem elektrisch beheizten Quarzröhrchen thermisch in seine atomaren Bestandteile zersetzt, um anschließend die Absorption bei o.g. Wellenlängen zu bestimmen. Die Nachweisgrenze bei dieser Technik liegt bei 0,01 µg/l. Eine weitere Methode ist die sog. Graphitrohrtechnik, bei der das Arsen einer festen Probe bei 1700 °C und höher verflüchtigt und anschließend die Extinktion bei 193,8 nm gemessen wird. Atomemissionsspektrometrie. Die Kopplung von Hydridtechnik mit dem induktiv gekoppelten Plasma/ laserinduzierter Fluoreszenzmessung ist eine sehr nachweisstarke Methode zur Bestimmung von Arsen. Mittels Hydriderzeugung freigesetztes AsH3 wird dabei im Plasma atomisiert und mit einem Laser zur Emission angeregt. Mit dieser Methode wurden Nachweisgrenzen von 0,04 ng/mL erreicht. Massenspektrometrie (MS). Bei der Massenspektrometrie wird die Arsenspezies zunächst durch ein induktiv gekoppeltes Argonplasma (ICP-MS) thermisch ionisiert. Anschließend wird das Plasma in das Massenspektrometer geleitet. Eine Nachweisgrenze von 0,2 µg/l wurde für Arsenit beschrieben. Photometrie. Weitverbreitet ist die photometrische Erfassung von As als Arsenomolybdänblau. As(V) reagiert zunächst mit (NH4)2MoO4. Danach folgt eine Reduktion mit SnCl2 oder Hydrazin zu einem blauen Komplex. Die Photometrie erfolgt bei 730 nm und ist somit nahezu störungsfrei. Die Nachweisgrenzen können durch Verwendung von basischen Farbstoffen als Komplexbildner verbessert werden. Neutronenaktivierungsanalyse. Eine sehr empfindliche Arsenbestimmung im ppm-Bereich ist mittels Neutronenaktivierungsanalyse möglich. Sie kommt insbesondere dann zur Anwendung, wenn die Probe eine komplexe Zusammensetzung aufweist oder schwierig aufzuschließen ist. Allerdings gibt diese Methode keinen Hinweis auf die chemische Verbindung, in der das Arsen vorliegt. Bei der Wechselwirkung von Neutronen mit der Probe, die das natürliche Isotop Arsen-75 enthält, wird das schwerere Isotop Arsen-76 gebildet, das jedoch instabil ist und sich unter einem β-Zerfall in Selen-76 umwandelt. Gemessen werden dabei die β-Strahlen, über die ein Rückschluss auf die Menge des Arsens möglich ist. Biosensoren. Bei Biosensoren wird die Biolumineszenz bei Kontakt von in Wasser gelöstem Arsen mit genetisch modifizierten Bakterien (z.B. "Escherichia coli" K12) und eines Lichtmessgeräts (Luminometer) detektiert. Die vorhandene Arsenkonzentration korreliert dabei direkt mit der emittierten Lichtmenge. Arsenwasserstoffe. Chemische Verbindungen von Arsen und Wasserstoff (→ Arsane) sind im Vergleich zu den entsprechenden Verbindungen der Hauptgruppennachbarn Stickstoff und Phosphor nicht sehr zahlreich und sehr instabil. Es sind zurzeit drei Arsane bekannt. Halogenverbindungen. Arsen bildet mit Halogenen binäre Verbindungen vom Typ AsX3, AsX5 und As2X4 (X bezeichnet das entsprechende Halogen). Sauerstoffverbindungen. Die wichtigste Sauerstoffverbindung ist Arsen(III)-oxid (Arsenik oder Weißarsenik, As2O3), das in der Gasphase in Form von Doppelmolekülen mit der Formel As4O6 vorliegt. Es ist amphoter und weist damit auf den Halbmetallcharakter des Arsens hin. Ein historisch wichtiges Färbe- und Pflanzenschutzmittel ist ein Kupfer-Arsen-Oxid mit dem Trivialnamen Schweinfurter Grün (Cu(AsO2)2·Cu(CH3COO)2). Schwefelverbindungen. Es bestehen zwei wichtige Arsensulfide, die beide als Minerale in der Natur vorkommen. Arsen-Metall-Verbindungen. Wichtige Verbindungen von Arsen mit Metallen sind Organische Verbindungen. In Analogie zu den Aminen und Phosphinen findet man entsprechende Verbindungen mit Arsen anstelle von Stickstoff oder Phosphor. Sie werden als Arsine bezeichnet. Zu den Arsoranen, Verbindungen vom Typ R5As, wobei R5 für fünf – möglicherweise unterschiedliche – organische Gruppen steht, zählt man etwa Pentaphenylarsen oder Pentamethylarsen. Fehlt eine der fünf Gruppen, bleibt ein einfach positiv geladenes Ion zurück (R steht wiederum für – möglicherweise verschiedene – organische Gruppen), das man als Arsoniumion (AsR4)+ bezeichnet. Zudem sind Heteroaromaten mit Arsen als Heteroatom bekannt, wie Arsabenzol, das aus einem Benzolring besteht, in dem ein Kohlenstoffatom durch Arsen ersetzt ist und das somit analog zu Pyridin aufgebaut ist. Auszug der Struktur von Polyarsin Auch homocyclische Arsenverbindungen existieren. Beispiele sind deren Moleküle einen Fünf- beziehungsweise Sechsring aus Arsenatomen als Rückgrat aufweisen, an den nach außen hin je eine Methylgruppe pro Arsenatom gebunden ist. Eine polycyclische Variante bildet das nebenstehende Molekül, dessen Rückgrat sich aus einem Sechs- und zwei angehefteten Fünfringen zusammensetzt. (R steht für jeweils eine tert.-Butylgruppe.) Schließlich lassen sich Arsenpolymere darstellen, lange Kettenmoleküle, die als Polyarsine bezeichnet werden. Sie bestehen aus einer zentralen „Strickleiter“ der Arsenatome, an die außen auf jeder Seite je „Sprosse“ eine Methylgruppe angeheftet ist, so dass sich die chemische Formel (AsCH3)2n ergibt, wobei die natürliche Zahl "n" weit über 100 liegen kann. Polyarsine zeigen deutliche Halbleitereigenschaften. Bioorganische Verbindungen. In der Bioorganik spielen Arsenolipide, Arsenosaccharide und arsenhaltige Glycolipide eine bedeutende Rolle. Wichtige Vertreter dieser Stoffklassen sind zum Beispiel Arsenobetain, Arsenocholin und unterschiedlich substituierte Arsenoribosen. Sie treten vor allem kumuliert in maritimen Lebewesen auf und können auf diesem Weg in die menschliche Nahrungskette gelangen. Arsenhaltige Biomoleküle konnten in Algen, Meeresschwämmen und in Fischgewebe nach erfolgter Extraktion mittels HPLC-ICP-MS nachgewiesen werden. Die Analytik von Organo-Arsenverbindungen (einschließlich ihrer Speziation) ist sehr aufwändig. Arsen in Kriminalgeschichte, Literatur und Film. Das Element Arsen erreichte zweifelhafte Berühmtheit als Mordgift, belegt durch geschichtliche Aufzeichnungen sowie die Instrumentalisierung in Literatur und Film. Es handelte sich bei dem Mordgift allerdings nie um elementares Arsen, sondern um dessen Verbindungen. In Italien und Frankreich starben Herzöge, Könige und Päpste an vorsätzlich herbeigeführten Arsenvergiftungen. Im Frankreich des 17. Jahrhunderts steht die Marquise de Brinvilliers, die ihren Vater und zwei Brüder mit einer Arsenikmischung vergiftete, im Mittelpunkt eines Giftskandals. In Deutschland brachte die Serienmörderin Gesche Gottfried aus Bremen 15 Menschen zu Tode. Aufsehen erregte auch der Fall der Serienmörderin Anna Margaretha Zwanziger zu Beginn des 19. Jahrhunderts. Die Urheber der Morde blieben jedoch meist unerkannt, da Arsen bis 1836 in kleinen Mengen nicht nachgewiesen werden konnte. Erst die durch James Marsh entwickelte und nach ihm benannte Marshsche Probe machte es möglich Spuren des Elementes zu identifizieren und somit eine unnatürliche Todesursache nachzuweisen. Im 19. und 20. Jahrhundert fanden weiter vorsätzliche Vergiftungen mit arsenhaltigen Mitteln statt – zum einen, weil sie leicht als Herbizide verfügbar waren, zum anderen ließ sich bei chronischer Gabe kleiner Dosen ein krankheitsbedingter Tod vortäuschen. Im September 1840 fiel im Prozess gegen Marie Lafarge das erste Urteil, das alleine auf den Ergebnissen der Marshschen Probe beruhte. Im Fall der Marie Besnard, die angeblich zwischen 1927 und 1949 für mehrere Todesfälle in ihrem Umfeld in Loudun verantwortlich sein sollte, konnte ein eindeutiger Beweis nicht erbracht werden, weil Untersuchungsergebnisse widersprüchlich waren, und sie musste 1954 letztendlich freigesprochen werden. Für Napoléon I. Bonaparte wird der Tod durch Arsenvergiftung vermutet Jahrelang glaubte die Fachwelt, dass der Tod des ehemaligen französischen Kaisers Napoléon Bonaparte mit 51 Jahren auf der Insel St. Helena einem Giftanschlag mit Arsen zugeschrieben werden muss. Zumindest hatte man in seinen Haaren hochkonzentrierte Spuren des Giftes entdeckt. Heute existieren verschiedene andere Thesen zur Erklärung des Faktenbefunds. Eine Möglichkeit besteht darin, dass das Arsen "nach" seinem Tod den Haaren beigegeben wurde, um diese zu konservieren, eine damals durchaus übliche Methode. Möglich ist ein Übermaß der Benutzung der arsenhaltigen Fowlersche Lösung, die zu seiner Zeit bei vielen seiner Zeitgenossen als medizinisches Wundermittel galt. Die dritte und heute als wahrscheinlichste angesehene Möglichkeit ist, dass sich Napoleon durch organische Arsenverbindungen vergiftete, die Schimmelpilze beständig aus seinen mit grünen Arsenpigmenten gefertigten Tapeten freisetzten. Deren hoher Arsengehalt ist durch eine 1980 in einem Notizbuch aufgefundene Materialprobe schlüssig belegt. Der berühmte Philosoph René Descartes starb 1650 wenige Monate nach seiner Ankunft am Hofe der schwedischen Königin Christine. Der Verdacht, er sei von einem der Jesuiten, die sich am Hofe der protestantischen Königin aufhielten, aus religionspolitischen Gründen mit Arsen vergiftet worden, verstärkte sich, als Christine später tatsächlich zum Katholizismus konvertierte, konnte aber nicht erhärtet werden, so dass die offizielle Todesursache, Lungenentzündung, sich in den Biographien etablierte. Erst kürzlich wurde anhand von neu aufgefundenen und neu interpretierten Dokumenten der alte Verdacht erhärtet und behauptet, dass der „Giftmord an Descartes in sehr hohem Maße wahrscheinlich, um nicht zu sagen, fast sicher“ erscheint. Im Jahre 1900 kam es im britischen Manchester zu einer Massenvergiftung, von der mehrere Tausend Menschen betroffen waren. Wie sich herausstellte, hatten alle Bier derselben Brauerei getrunken. In Vorstufen der Bierproduktion wurde anscheinend Schwefelsäure eingesetzt, die ihrerseits aus Schwefel hergestellt wurde, der aus mit Arsenopyrit kontaminierten Sulfidmineralen stammte. Etwa 70 Menschen erlagen ihren Vergiftungen. In den Jahren 2010 und 2011 starben in Österreich zwei Männer an einer Arsenvergiftung. Am 11. April 2013 wurde am Landesgericht Krems eine 52-jährige Polin des Mordes an den beiden für schuldig befunden und von dem Geschworenengericht nicht rechtskräftig zu lebenslanger Haft verurteilt. Noch in den 1950er Jahren auf dem Höhepunkt des Kalten Krieges erkrankte die US-amerikanische Botschafterin, Clare Booth Luce, in Rom durch eine Vergiftung mit dem aus Tapeten freigesetzten Arsen. Die Tatsache, dass die Krankheit auf die schimmelpilzbefallenen Tapeten und nicht auf gegnerische Geheimagenten zurückgeführt werden konnte, trug in diesem Fall nicht nur zur Genesung der Botschafterin, sondern auch zum Erhalt des Friedens bei. In Friedrich Schillers bürgerlichem Trauerspiel „Kabale und Liebe“ vergiftet der junge Major Ferdinand von Walter erst seine Geliebte Luise Millerin und dann sich selbst. Allerdings tritt in „Kabale und Liebe“ der Tod unrealistischerweise binnen Minuten ein. Die Protagonistin des berühmten Romans "Madame Bovary" von Gustave Flaubert, die unglücklich verheiratete Landarztgattin Emma Bovary, stirbt am Ende des Romans durch Suizid mit Arsen in Form eines weißen Pulvers. Der Spross einer Arztfamilie Flaubert beschreibt die Vergiftungssymptome und den äußerst qualvollen Tod der Bovary sehr detailliert. Die schriftstellerische Tätigkeit der britischen Kriminalautorin Agatha Christie geht auf das Arsen zurück. Während des Ersten Weltkrieges half sie in einer Apotheke eines örtlichen Hospitals aus. Eines Tages verschwand eine beträchtliche Menge Arsen aus dem verschlossenen Giftschrank und tauchte nicht wieder auf. Dies inspirierte sie zu ihrem ersten Kriminalroman "The Mysterious Affair at Styles" („Das fehlende Glied in der Kette“), der drei Jahre später veröffentlicht wurde und ihren Weltruhm begründete. Im Roman „Starkes Gift“ („Strong Poison“) von Dorothy L. Sayers ist das Opfer mit Arsen vergiftet worden. Die Verdächtige, Krimi-Schriftstellerin Harriet Vane, hat sich zur fraglichen Zeit intensiv mit Arsenmorden beschäftigt und sich dazu sogar vom Apotheker beraten lassen. Der berühmte Detektiv „Kalle Blomquist“ aus dem gleichnamigen Kinderbuch von Astrid Lindgren wendete die Marshsche Probe an, um ein mit Arsen vergiftetes Stück Schokolade zu überprüfen. In dem Theaterstück von Joseph Kesselring "Arsen und Spitzenhäubchen" (englisch: "Arsenic and Old Lace)" vergiften zwei alte Damen in gutmeinender Absicht ältere einsame Herren mit einer Arsen-, Strychnin- und Zyankali-Mischung. Bekannt wurde das Stück durch die gleichnamige Verfilmung von Frank Capra mit Cary Grant, Peter Lorre und Priscilla Lane in den Hauptrollen. Astat. Astat (von griech. άστατος: „unbeständig, wacklig“) ist ein radioaktives chemisches Element mit dem Elementsymbol At und der Ordnungszahl 85. Im Periodensystem steht es in der 7. Hauptgruppe, bzw. der 17. IUPAC-Gruppe und zählt damit zu den Halogenen. Astat entsteht beim natürlichen Zerfall von Uran. Abgesehen von den superschweren Elementen ist Astat das seltenste Element auf der Erde, sodass es bei Bedarf künstlich erzeugt wird. Geschichte. Als Dmitri Mendelejew 1869 sein Periodensystem festlegte, sagte er die Existenz einiger zu dieser Zeit noch nicht entdeckter Elemente voraus, darunter eines, das den Platz unter Iod einnehmen würde. In der Folge versuchten einige Wissenschaftler dieses Element, das als „Eka-Iod“ bezeichnet wurde, zu finden. Im Jahre 1931 behauptete Fred Allison, er und seine Mitarbeiter am Alabama Polytechnic Institute (heute Auburn University) hätten das fehlende Element entdeckt und gaben ihm die Bezeichnung "Alabamine" (Ab). Ihre Entdeckung konnte jedoch nicht bestätigt werden und wurde später als falsch erkannt. Ebenfalls auf der Suche nach einem Mitglied der Familie des radioaktiven Thoriums fand der Chemiker De Rajendralal Mitra im Jahre 1937 in Dhaka, Bangladesch (damals Britisch-Indien), zwei neue Elemente. Das erste nannte er "Dakin" (Eka-Iod), wohl nach der englischen Bezeichnung für Dhaka (Dacca), das andere "Gourium". Beide Entdeckungen konnten jedoch nicht bestätigt werden. Der Name "Helvetium" wurde wiederum von dem Schweizer Chemiker Walter Minder vorgeschlagen, als er die Entdeckung des Elements 85 im Jahr 1940 ankündigte. Er änderte im Jahr 1942 jedoch seinen Vorschlag in "Anglohelvetium". Bestätigt werden konnte die Entdeckung des Astat (altgriechisch ἀστατέω = „unbeständig sein“, aufgrund des radioaktiven Zerfalls) erstmals im Jahre 1940 durch die Wissenschaftler Dale Corson, Kenneth MacKenzie und Emilio Gino Segrè, die es in der University of California künstlich durch Beschuss von Bismut mit Alphateilchen herstellten. Drei Jahre später konnte das kurzlebige Element von Berta Karlik und Traude Bernert auch als Produkt des natürlichen Zerfallsprozesses von Uran gefunden werden. Gewinnung und Darstellung. Astat wird durch Beschuss von Bismut mit Alphateilchen im Energiebereich von 26 bis 29 MeV hergestellt. Man erhält dabei die relativ langlebigen Isotope 209At bis 211At, die dann im Stickstoffstrom bei 450 bis 600 °C sublimiert und an einer gekühlten Platinscheibe abgetrennt werden. Eigenschaften. Bei diesem radioaktiven Element wurde mit Hilfe von Massenspektrometrie nachgewiesen, dass es sich chemisch wie die anderen Halogene, besonders wie Iod verhält (es sammelt sich wie dieses in der Schilddrüse an). Astat ist stärker metallisch als Iod. Forscher am Brookhaven National Laboratory haben Experimente zur Identifikation und Messung von elementaren chemischen Reaktionen durchgeführt, die Astat beinhalten. Mit dem On-line-Isotopen-Massenseparator (ISOLDE) am CERN wurde 2013 das Ionisationspotenzial von Astat mit 9,31751(8) Elektronenvolt bestimmt. Isotope. Astat hat etwa 20 bekannte Isotope, die alle radioaktiv sind; das langlebigste ist 210At mit einer Halbwertszeit von 8,3 Stunden. Verwendung. Organische Astatverbindungen dienen in der Nuklearmedizin zur Bestrahlung bösartiger Tumore. Astat-Isotope eignen sich aufgrund der kurzen Halbwertszeiten innerlich eingenommen als radioaktive Präparate zum Markieren der Schilddrüse. Das Element wird in der Schilddrüse angereichert und in der Leber gespeichert. Verbindungen. Die chemischen Eigenschaften von Astat konnten aufgrund der geringen Mengen bisher nur mit Tracerexperimenten festgestellt werden. Sie ähneln stark denjenigen des Iod, wobei es aber ein schwächeres Oxidationsmittel ist. Bisher konnten diverse Astatide, Interhalogenverbindungen und organische Verbindungen nachgewiesen werden. Auch die Anionen der entsprechenden Sauerstoffsäuren sind bekannt. Wegen des im Vergleich zu anderen Halogenen elektropositiveren Charakters wird es von Silber nur unvollständig ausgefällt. Dafür existiert das komplexstabilisierte Kation At(Py)2 (Py=Pyridin), wodurch Astat auch kathodisch abgeschieden werden kann. Nachgewiesen wurde auch das Hydrid, Astatwasserstoff HAt. Es spielt in der technischen Chemie jedoch keine Rolle. Sicherheitshinweise. Einstufungen nach der Gefahrstoffverordnung liegen nicht vor, weil diese nur die chemische Gefährlichkeit umfassen und eine völlig untergeordnete Rolle gegenüber den auf der Radioaktivität beruhenden Gefahren spielen. Auch Letzteres gilt nur, wenn es sich um eine dafür relevante Stoffmenge handelt. Alkalimetalle. Als Alkalimetalle werden die chemischen Elemente Lithium, Natrium, Kalium, Rubidium, Caesium und Francium aus der 1. Hauptgruppe des Periodensystems bezeichnet. Sie sind silbrig glänzende, reaktive Metalle, die in ihrer Valenzschale ein einzelnes Elektron besitzen. Obwohl Wasserstoff in den meisten Darstellungen des Periodensystems in der ersten Hauptgruppe steht und zum Teil ähnliche chemische Eigenschaften wie die Alkalimetalle aufweist, kann er nicht zu diesen gezählt werden, da er unter Standardbedingungen weder fest ist noch metallische Eigenschaften aufweist. Erklärung des Namens. Der Name der Alkalimetalle leitet sich von dem arabischen Wort für „Pottasche“ ab, die alte Bezeichnung für aus Pflanzenaschen gewonnenes Kaliumcarbonat. Humphry Davy stellte im Jahre 1807 erstmals das Element Kalium durch eine Schmelzflusselektrolyse aus Kaliumhydroxid dar. Letzteres gewann er aus Kaliumcarbonat. In einigen Sprachen spiegelt sich dies im Namen wider. So heißt Kalium beispielsweise im Englischen und Französischen "potassium" und im Italienischen "potassio". Eigenschaften. Alkalimetalle sind metallisch glänzende, silbrig-weiße (Ausnahme: Caesium hat bei geringster Verunreinigung einen Goldton), weiche Leichtmetalle. Sie sind mit dem Messer schneidbar. Alkalimetalle haben eine geringe Dichte. Sie reagieren mit vielen Stoffen, so beispielsweise mit Wasser, Luft oder Halogenen teilweise äußerst heftig unter starker Wärmeentwicklung. Insbesondere die schwereren Alkalimetalle können sich an der Luft selbst entzünden. Daher werden sie unter Schutzflüssigkeiten, wie Paraffin oder Petroleum (Lithium, Natrium und Kalium), bzw. unter Luftabschluss in Ampullen (Rubidium und Caesium) aufbewahrt. Als Elemente der ersten Gruppe des Periodensystems besitzen sie nur ein schwach gebundenes s-Elektron, das sie leicht abgeben. Ihre ersten Ionisierungsenergien und ihre Elektronegativitäten sind entsprechend klein. In Verbindungen kommen sie alle fast ausschließlich als einwertige Kationen vor, wenngleich sogar Verbindungen bekannt sind, in denen diese Metalle anionisch vorliegen (z. B. Natride, komplexiert mit sogenannten Kryptanden). Aufgrund dieser Flammenfärbung werden Alkalimetallverbindungen für Feuerwerke benutzt. In der Atomphysik werden Alkalimetalle eingesetzt, da sie sich aufgrund ihrer besonders einfachen elektronischen Struktur besonders einfach mit Lasern kühlen lassen. Alle Alkalimetalle kristallisieren in der kubisch-raumzentrierten Struktur. Lediglich Lithium und Natrium kristallisieren in der hexagonal-dichtesten Packung, wenn tiefe Temperaturen vorherrschen. Reaktionsverhalten und Verbindungen. Die thermische Beständigkeit der Hydride nimmt vom Lithiumhydrid (LiH) zum Caesiumhydrid (CsH) ab. Alkalihydride werden u. a. als Reduktions- oder Trockenmittel eingesetzt. Vom Lithium zum Caesium steigt die Reaktivität stark an; ab dem Kalium erfolgt Selbstentzündung. Hochgeschwindigkeitsaufnahmen der Reaktion von Alkalimetallen mit Wasser legen eine Coulomb-Explosion nahe. Die Alkalimetallhydroxide sind farblose Feststoffe, die sich in Wasser unter starker Erwärmung leicht lösen und dabei stark basisch reagieren. Die Hydroxide und ihre Lösungen wirken stark ätzend. Die Reaktivität steigt vom Lithium zum Caesium und sinkt vom Fluor zum Iod. So reagiert Natrium mit Iod kaum und mit Brom sehr langsam, während die Reaktion von Kalium mit Brom und Iod explosionsartig erfolgt. Alkalimetalle ergeben mit flüssigem Ammoniak intensiv blau gefärbte Lösungen. Diese Lösungen, die aus positiven Alkalimetall-Ionen und solvatisierten Elektronen besteht, sind ein sehr starkes Reduktionsmittel und werden beispielsweise für die Birch-Reduktion eingesetzt. Wird diesen Lösungen ein geeigneter Komplexbildner zugesetzt, können sich entsprechende Salze mit Alkalimetall-Anionen, die sogenannten Alkalide, bilden. Wasserstoff. Wasserstoff, das erste Element der 1. Hauptgruppe, ist unter Normalbedingungen ein Nichtmetall. Er wird deshalb nicht zu den Alkalimetallen gezählt, teilt jedoch mit ihnen einige Eigenschaften. Wasserstoff tritt wie die Alkalimetalle stets einwertig auf und wandelt sich unter extrem hohem Druck in eine metallische Hochdruckmodifikation um, den metallischen Wasserstoff. Umgekehrt haben auch einige Alkalimetalle unter bestimmten Bedingungen Eigenschaften wie Wasserstoff, z. B. besteht Lithium als Gas zu 1 % aus zweiatomigen Molekülen. Actinoide. Actinoide („Actiniumähnliche“; griech.: Endung "-οειδής" ("-oeides") „ähnlich“) ist eine Gruppenbezeichnung bestimmter ähnlicher Elemente. Zugerechnet werden ihr das Actinium und die 14 im Periodensystem folgenden Elemente: Thorium, Protactinium, Uran und die Transurane Neptunium, Plutonium, Americium, Curium, Berkelium, Californium, Einsteinium, Fermium, Mendelevium, Nobelium und Lawrencium. Im Sinne des Begriffs gehört Actinium nicht zu den Actiniumähnlichen. Hier folgt die Nomenklatur der IUPAC aber dem praktischen Gebrauch. Die frühere Bezeichnung Actinide entspricht nicht dem Vorschlag der Nomenklaturkommission, da nach diesem die Endung „-id“ für binäre Verbindungen wie z. B. Chloride reserviert ist; die Bezeichnung ist aber weiterhin erlaubt. Alle Actinoide sind Metalle und werden auch als "Elemente der Actiniumreihe" bezeichnet. Physikalische Eigenschaften. Alle Actinoide sind radioaktiv und gehören zu den Metallen. Einige sind in feinverteiltem Zustand pyrophor. Die Actinoide gehören wie die Lanthanoide zu den "inneren Übergangselementen" oder "f-Block-Elementen", da in diesen Reihen die f-Unterschalen mit Elektronen aufgefüllt werden. Chemische Eigenschaften. Alle Actinoide bilden dreifach geladene Ionen, sie werden wie das Actinium als Untergruppe der 3. Nebengruppe aufgefasst. Die „leichteren“ Actinoide (Thorium bis Americium) kommen in einer größeren Anzahl von Oxidationszahlen vor als die entsprechenden Lanthanoide. Oxide. Die vierwertigen Oxide der Actinoide kristallisieren im kubischen Kristallsystem; der Strukturtyp ist der CaF2-Typ (Fluorit) mit der und den Koordinationszahlen "An"[8], O[4]. Halogenide. Die dreiwertigen Chloride der Actinoide kristallisieren im hexagonalen Kristallsystem. Die Struktur des Uran(III)-chlorids ist die Leitstruktur für eine Reihe weiterer Verbindungen. In dieser werden die Metallatome von je neun Chloratomen umgeben. Als Koordinationspolyeder ergibt sich dabei ein dreifach überkapptes, trigonales Prisma, wie es auch bei den späteren Actinoiden und den Lanthanoiden häufig anzutreffen ist. Es kristallisiert im hexagonalen Kristallsystem in der und zwei Formeleinheiten pro Elementarzelle. Americium. Americium ist ein chemisches Element mit dem Elementsymbol Am und der Ordnungszahl 95. Im Periodensystem steht es in der Gruppe der Actinoide (7. Periode, f-Block) und zählt auch zu den Transuranen. Americium ist neben Europium das einzige nach einem Erdteil benannte Element. Es ist ein leicht verformbares radioaktives Metall silbrig-weißen Aussehens. Von Americium gibt es kein stabiles Isotop. Auf der Erde kommt es ausschließlich in künstlich erzeugter Form vor. Das Element wurde erstmals im Spätherbst 1944 erzeugt, die Entdeckung jedoch zunächst nicht veröffentlicht. Kurioserweise wurde dessen Existenz in einer amerikanischen Radiosendung für Kinder durch den Entdecker Glenn T. Seaborg, den Gast der Sendung, der Öffentlichkeit preisgegeben. Americium wird in Kernreaktoren gebildet, eine Tonne abgebrannten Kernbrennstoffs enthält durchschnittlich etwa 100 g des Elements. Es wird als Quelle ionisierender Strahlung eingesetzt, z. B. in der Fluoreszenzspektroskopie und in Ionisationsrauchmeldern. Das Americiumisotop 241Am wurde wegen seiner gegenüber Plutonium (238Pu) wesentlich längeren Halbwertszeit von 432,2 Jahren zur Befüllung von Radionuklidbatterien (RTG) für Raumsonden vorgeschlagen, welche dann hunderte Jahre lang elektrische Energie zum Betrieb bereitstellen würden. Geschichte. Americium wurde im Spätherbst 1944 von Glenn T. Seaborg, Ralph A. James, Leon O. Morgan und Albert Ghiorso im 60-Inch-Cyclotron an der Universität von Kalifornien in Berkeley sowie am metallurgischen Laboratorium der Universität von Chicago (heute: Argonne National Laboratory) erzeugt. Nach Neptunium und Plutonium war Americium das vierte Transuran, das seit dem Jahr 1940 entdeckt wurde; das um eine Ordnungszahl höhere Curium wurde als drittes schon im Sommer 1944 erzeugt. Der Name für das Element wurde in Anlehnung zum Erdteil Amerika gewählt – in Analogie zu Europium, dem Seltene-Erden-Metall, das im Periodensystem genau über Americium steht: "The name americium (after the Americas) and the symbol Am are suggested for the element on the basis of its position as the sixth member of the actinide rare-earth series, analogous to europium, Eu, of the lanthanide series." Zur Erzeugung des neuen Elements wurden in der Regel die Oxide der Ausgangselemente verwendet. Dazu wurde zunächst Plutoniumnitratlösung (mit dem Isotop 239Pu) auf eine Platinfolie von etwa 0,5 cm2 aufgetragen; die Lösung danach eingedampft und der Rückstand dann zum Oxid (PuO2) geglüht. Nach dem Beschuss im Cyclotron wurde die Beschichtung mittels Salpetersäure gelöst, anschließend wieder mit einer konzentrierten wässrigen Ammoniaklösung als Hydroxid ausgefällt; der Rückstand wurde in Perchlorsäure gelöst. Die weitere Trennung erfolgte mit Ionenaustauschern. In ihren Versuchsreihen wurden der Reihe nach vier verschiedene Isotope erzeugt: 241Am, 242Am, 239Am und 238Am. Als erstes Isotop isolierten sie 241Am aus einer Plutonium-Probe, die mit Neutronen bestrahlt wurde. Es zerfällt durch Aussendung eines α-Teilchens in 237Np. Die Halbwertszeit dieses α-Zerfalls wurde zunächst auf 510 ± 20 Jahre bestimmt; der heute allgemein akzeptierte Wert ist 432,2 a. Als zweites Isotop wurde 242Am durch erneuten Neutronenbeschuss des zuvor erzeugten 241Am gefunden. Durch nachfolgenden raschen β-Zerfall entsteht dabei 242Cm, das zuvor schon entdeckte Curium. Die Halbwertszeit dieses β-Zerfalls wurde zunächst auf 17 Stunden bestimmt, der heute als gültig ermittelte Wert beträgt 16,02 h. Erstmals öffentlich bekannt gemacht wurde die Entdeckung des Elements in der amerikanischen Radiosendung "Quiz Kids" am 11. November 1945 durch Glenn T. Seaborg, noch vor der eigentlichen Bekanntmachung bei einem Symposium der American Chemical Society: Einer der jungen Zuhörer fragte den Gast der Sendung, Seaborg, ob während des Zweiten Weltkrieges im Zuge der Erforschung von Nuklearwaffen neue Elemente entdeckt wurden. Seaborg bejahte die Frage und enthüllte dabei auch gleichzeitig die Entdeckung des nächsthöheren Elements, Curium. Americium (241Am und 242Am) und seine Produktion wurde später unter dem Namen "„Element 95 and method of producing said element“" patentiert, wobei als Erfinder nur Glenn T. Seaborg angegeben wurde. In elementarer Form wurde es erstmals im Jahr 1951 durch Reduktion von Americium(III)-fluorid mit Barium dargestellt. Vorkommen. Americiumisotope entstehen im r-Prozess in Supernovae und kommen auf der Erde wegen ihrer im Vergleich zum Alter der Erde zu geringen Halbwertszeit nicht natürlich vor. Heutzutage wird jedoch Americium als Nebenprodukt in Kernkraftwerken erbrütet; das Americiumisotop 241Am entsteht als Zerfallsprodukt (u. a. in abgebrannten Brennstäben) aus dem Plutoniumisotop 241Pu. Eine Tonne abgebrannten Kernbrennstoffs enthält durchschnittlich etwa 100 g verschiedener Americiumisotope. Es handelt sich dabei hauptsächlich um die α-Strahler 241Am und 243Am, die aufgrund ihrer relativ langen Halbwertszeiten in der Endlagerung unerwünscht sind und deshalb zum Transuranabfall zählen. Eine Verminderung der Langzeitradiotoxizität in nuklearen Endlagern wäre durch Abtrennung langlebiger Isotope aus abgebrannten Kernbrennstoffen möglich. Zur Beseitigung des Americiums wird derzeit die Partitioning & Transmutation-Strategie untersucht. Gewinnung von Americiumisotopen. Americium fällt in geringen Mengen in Kernreaktoren an. Es steht heute in Mengen von wenigen Kilogramm zur Verfügung. Durch die aufwändige Gewinnung aus abgebrannten Brennstäben hat es einen sehr hohen Preis. Seit der Markteinführung 1962 soll der Preis für Americium(IV)-oxid mit dem Isotop 241Am bei etwa 1500 US-Dollar pro Gramm liegen. Das Americiumisotop 243Am entsteht in geringeren Mengen im Reaktor aus 241Am und ist deshalb mit 160 US-Dollar pro Milligramm 243Am noch wesentlich teurer. Americium wird über das Plutoniumisotop 239Pu in Kernreaktoren mit hohem 238U-Anteil zwangsläufig erbrütet, da es aus diesem durch Neutroneneinfang und zwei anschließende β-Zerfälle (über 239U und 239Np) entsteht. Danach wird, wenn es nicht zur Kernspaltung kommt, aus dem 239Pu, neben anderen Nukliden, durch stufenweisen Neutroneneinfang (n,γ) und anschließenden β-Zerfall 241Am oder 243Am erbrütet. Das Plutonium, welches aus abgebrannten Brennstäben von Leistungsreaktoren gewonnen werden kann, besteht zu etwa 12 % aus dem Isotop 241Pu. Deshalb erreichen erst 70 Jahre, nachdem der Brutprozess beendet wurde, die abgebrannten Brennstäbe ihren Maximalgehalt von 241Am; danach nimmt der Gehalt wieder (langsamer als der Anstieg) ab. zu 79 %: formula_6 zu 10 %: formula_7 Darstellung elementaren Americiums. Metallisches Americium kann durch Reduktion aus seinen Verbindungen erhalten werden. Zuerst wurde Americium(III)-fluorid zur Reduktion verwendet. Dieses wird hierzu in wasser- und sauerstofffreier Umgebung in Reaktionsapparaturen aus Tantal und Wolfram mit elementarem Barium zur Reaktion gebracht. Auch die Reduktion von Americium(IV)-oxid mittels Lanthan oder Thorium ergibt metallisches Americium. Eigenschaften. Im Periodensystem steht das Americium mit der Ordnungszahl 95 in der Reihe der Actinoide, sein Vorgänger ist das Plutonium, das nachfolgende Element ist das Curium. Sein Analogon in der Reihe der Lanthanoiden ist das Europium. Physikalische Eigenschaften. Americium ist ein künstliches, radioaktives Element. Frisch hergestelltes Americium ist ein silberweißes Metall, welches jedoch bei Raumtemperatur langsam matt wird. Es ist leicht verformbar. Sein Schmelzpunkt beträgt 1176 °C, der Siedepunkt liegt bei 2607 °C. Die Dichte beträgt 13,67 g·cm−3. Es tritt in zwei Modifikationen auf. Die bei Standardbedingungen stabile Modifikation α-Am kristallisiert im hexagonalen Kristallsystem in der mit den Gitterparametern "a" = 346,8 pm und "c" = 1124 pm sowie vier Formeleinheiten pro Elementarzelle. Die Kristallstruktur besteht aus einer doppelt-hexagonal dichtesten Kugelpackung (d.h.c.p.) mit der Schichtfolge ABAC und ist damit isotyp zur Struktur von α-La. Bei hohem Druck geht α-Am in β-Am über. Die β-Modifikation kristallisiert im kubischen Kristallsystem in der Raumgruppe  mit dem Gitterparameter "a" = 489 pm, was einem kubisch flächenzentrierten Gitter (f.c.c.) beziehungsweise einer kubisch dichtesten Kugelpackung mit der Stapelfolge ABC entspricht. Die Lösungsenthalpie von Americium-Metall in Salzsäure bei Standardbedingungen beträgt −620,6 ± 1,3 kJ·mol−1. Ausgehend von diesem Wert erfolgte die erstmalige Berechnung der Standardbildungsenthalpie (Δf"H"0) von Am3+(aq) auf −621,2 ± 2,0 kJ·mol−1 und des Standardpotentials Am3+ / Am0 auf −2,08 ± 0,01 V. Chemische Eigenschaften. Americium ist ein sehr reaktionsfähiges Element, das schon mit Luftsauerstoff reagiert und sich gut in Säuren löst. Gegenüber Alkalien ist es stabil. Die stabilste Oxidationsstufe für Americium ist +3, die Am(III)-Verbindungen sind gegen Oxidation und Reduktion sehr stabil. Mit dem Americium liegt der erste Vertreter der Actinoiden vor, der in seinem Verhalten eher den Lanthanoiden ähnelt als den d-Block-Elementen. Es ist auch in den Oxidationsstufen +2 sowie +4, +5, +6 und +7 zu finden. Je nach Oxidationszahl variiert die Farbe von Americium in wässriger Lösung ebenso wie in festen Verbindungen:Am3+ (gelbrosa), Am4+ (gelbrot), AmVO2+ (gelb), AmVIO22+ (zitronengelb), AmVIIO65− (dunkelgrün). Im Gegensatz zum homologen Europium – Americium hat eine zu Europium analoge Elektronenkonfiguration – kann Am3+ in wässriger Lösung nicht zu Am2+ reduziert werden. Verbindungen mit Americium ab Oxidationszahl +4 aufwärts sind starke Oxidationsmittel, vergleichbar dem Permanganat-Ion (MnO4−) in saurer Lösung. Die in wässriger Lösung nicht beständigen Am4+-Ionen lassen sich nur noch mit starken Oxidationsmitteln aus Am(III) darstellen. In fester Form sind zwei Verbindungen des Americiums in der Oxidationsstufe +4 bekannt: Americium(IV)-oxid (AmO2) und Americium(IV)-fluorid (AmF4). Etwas beständiger als Am(IV) und Am(V) sind die Americium(VI)-Verbindungen. Sie lassen sich aus Am(III) durch Oxidation mit Ammoniumperoxodisulfat in verdünnter Salpetersäure herstellen. Der typische rosafarbene Ton verschwindet in Richtung zu einer starken Gelbfärbung. Zudem kann die Oxidation mit Silber(I)-oxid in Perchlorsäure quantitativ erreicht werden. In Natriumcarbonat- oder Natriumhydrogencarbonat-Lösungen ist eine Oxidation mit Ozon oder Natriumperoxodisulfat gleichfalls möglich. Biologische Aspekte. Eine biologische Funktion des Americiums ist nicht bekannt. Vorgeschlagen wurde der Einsatz immobilisierter Bakterienzellen zur Entfernung von Americium und anderen Schwermetallen aus Fließgewässern. So können Enterobakterien der Gattung "Citrobacter" durch die Phosphataseaktivität in ihrer Zellwand bestimmte Americiumnuklide aus wässriger Lösung ausfällen und als Metall-Phosphat-Komplex binden. Ferner wurden die Faktoren untersucht, die die Biosorption und Bioakkumulation des Americiums durch Bakterien und Pilze beeinflussen. Spaltbarkeit. Das Isotop 242"m"1Am hat mit rund 5700 barn den höchsten bisher (10/2008) gemessenen thermischen Spaltquerschnitt. Damit geht eine kleine kritische Masse einher, weswegen 242"m"1Am als Spaltmaterial vorgeschlagen wurde, um beispielsweise Raumschiffe mit Kernenergieantrieb anzutreiben. Dieses Isotop eignet sich prinzipiell auch zum Bau von Kernwaffen. Die kritische Masse einer reinen 242"m"1Am-Kugel beträgt etwa 9–14 kg. Die Unsicherheiten der verfügbaren Wirkungsquerschnitte lassen derzeit keine genauere Aussage zu. Mit Reflektor beträgt die kritische Masse noch etwa 3–5 kg. In wässriger Lösung wird sie nochmals stark herabgesetzt. Auf diese Weise ließen sich sehr kompakte Sprengköpfe bauen. Nach öffentlichem Kenntnisstand wurden bisher keine Kernwaffen aus 242"m"1Am gebaut, was mit der geringen Verfügbarkeit und dem hohen Preis begründet werden kann. Aus denselben Gründen wird 242"m"1Am auch nicht als Kernbrennstoff in Kernreaktoren eingesetzt, obwohl es dazu prinzipiell sowohl in thermischen als auch in schnellen Reaktoren geeignet wäre. Auch die beiden anderen häufiger verfügbaren Isotope, 241Am und 243Am können in einem schnellen Reaktor eine Kettenreaktion aufrechterhalten. Die kritischen Massen sind hier jedoch sehr hoch. Sie betragen unreflektiert 57,6–75,6 kg bei 241Am und 209 kg bei 243Am, so dass sich durch die Verwendung keine Vorteile gegenüber herkömmlichen Spaltstoffen ergeben. Entsprechend ist Americium rechtlich nach dem deutschen Atomgesetz nicht den Kernbrennstoffen zugeordnet. Es existieren jedoch Vorschläge, sehr kompakte Reaktoren mit einem Americium-Inventar von lediglich knapp 20 g zu konstruieren, die in Krankenhäusern als Neutronenquelle für die Neutroneneinfangtherapie verwendet werden können. Isotope. Von Americium sind 16 Isotope und 11 Kernisomere mit Halbwertszeiten zwischen Bruchteilen von Mikrosekunden und 7370 Jahren bekannt. Es gibt zwei langlebige α-strahlende Isotope 241Am mit 432,2 und 243Am mit 7370 Jahren Halbwertszeit. Außerdem hat das Kernisomer 242"m"1Am mit 141 Jahren eine lange Halbwertszeit. Die restlichen Kernisomere und Isotope haben mit 0,64 µs bei 245"m"1Am bis 50,8 Stunden bei 240Am kurze Halbwertszeiten. 241Am ist das am häufigsten erbrütete Americiumisotop und liegt auf der Neptunium-Reihe. Es zerfällt mit einer Halbwertszeit von 432,2 Jahren mit einem α-Zerfall zu 237Np. 241Am gibt nur mit einer Wahrscheinlichkeit von 0,35 % die gesamte Zerfallsenergie mit dem α-Teilchen ab, sondern emittiert meistens noch ein oder mehrere Gammaquanten. 242Am ist kurzlebig und zerfällt mit einer Halbwertszeit von 16,02 h zu 82,7 % durch β-Zerfall zu 242Cm und zu 17,3 % durch Elektroneneinfang zu 242Pu. Das 242Cm zerfällt zu 238Pu und dieses weiter zu 234U, das auf der Uran-Radium-Reihe liegt. Das 242Pu zerfällt über die gleiche Zerfallskette wie 238Pu. Während jedoch 238Pu als Seitenarm beim 234U auf die Zerfallskette kommt, steht 242Pu noch vor dem 238U. 242Pu zerfällt durch α-Zerfall in 238U, den Beginn der natürlichen Uran-Radium-Reihe. 242"m"1Am zerfällt mit einer Halbwertszeit von 141 Jahren zu 99,541 % durch Innere Konversion zu 242Am und zu 0,459 % durch α-Zerfall zu 238Np. Dieses zerfällt zu 238Pu und dann weiter zu 234U, das auf der Uran-Radium-Reihe liegt. 243Am ist mit einer Halbwertszeit von 7370 Jahren das langlebigste Americiumisotop. Es geht zunächst durch α-Strahlung in 239Np über, das durch β-Zerfall weiter zu 239Pu zerfällt. Das 239Pu zerfällt durch α-Strahlung zu Uran 235U, dem offiziellen Anfang der Uran-Actinium-Reihe. Die Americiumisotope mit ungerader Neutronenzahl, also gerader Massenzahl, sind gut durch thermische Neutronen spaltbar. "→ Liste der Americiumisotope" Verwendung. Für die Verwendung von Americium sind vor allem die beiden langlebigsten Isotope 241Am und 243Am von Interesse. In der Regel wird es in Form des Oxids (AmO2) verwendet. Americium 241 in einem Rauchmelder Ionisationsrauchmelder. Die α-Strahlung des 241Am wird in Ionisationsrauchmeldern genutzt. Es wird gegenüber 226Ra bevorzugt, da es vergleichsweise wenig γ-Strahlung emittiert. Dafür muss aber die Aktivität gegenüber Radium ca. das Fünffache betragen. Die Zerfallsreihe von 241Am „endet“ für den Verwendungszeitraum quasi direkt nach dessen α-Zerfall bei 237Np, das eine Halbwertszeit von rund 2,144 Millionen Jahren besitzt. Radionuklidbatterien. 241Am wurde wegen seiner gegenüber 238Pu wesentlich längeren Halbwertszeit zur Befüllung von Radionuklidbatterien (RTG) von Raumsonden vorgeschlagen. Dank seiner Halbwertszeit von 432,2 Jahren könnte ein RTG mit 241Am-Füllung hunderte Jahre lang – anstatt nur einige Jahrzehnte (wie mit einer 238Pu-Füllung) – elektrische Energie zum Betrieb einer Raumsonde bereitstellen. Es soll voraussichtlich in den Radionuklidbatterien zum Einsatz kommen, deren Entwicklung die ESA erwägt und deren Entwicklung in den 2020er-Jahren abgeschlossen werden könnte. Neutronenquellen. Derartige Neutronenquellen kommen beispielsweise in der Neutronenradiographie und -tomographie zum Einsatz. Herstellung anderer Elemente. Americium ist Ausgangsmaterial zur Erzeugung höherer Transurane und auch der Transactinoide. Aus 242Am entsteht zu 82,7 % Curium (242Cm) und zu 17,3 % Plutonium (242Pu). Im Kernreaktor wird zwangsläufig in geringen Mengen durch Neutroneneinfang aus 243Am das 244Am erbrütet, das durch β-Zerfall zum Curiumisotop 244Cm zerfällt. In Teilchenbeschleunigern führt zum Beispiel der Beschuss von 241Am mit Kohlenstoffkernen (12C) beziehungsweise Neonkernen (22Ne) zu den Elementen Einsteinium 247Es beziehungsweise Dubnium 260Db. Spektrometer. Mit seiner intensiven Gammastrahlungs-Spektrallinie bei 60 keV eignet sich 241Am gut als Strahlenquelle für die Röntgen-Fluoreszenzspektroskopie. Dies wird auch zur Kalibrierung von Gammaspektrometern im niederenergetischen Bereich verwendet, da die benachbarten Linien vergleichsweise schwach sind und so ein einzeln stehender Peak entsteht. Zudem wird der Peak nur vernachlässigbar durch das Compton-Kontinuum höherenergetischer Linien gestört, da diese ebenfalls höchstens mit einer um mindestens drei Größenordnungen geringeren Intensität auftreten. Sicherheitshinweise und Gefahren. Einstufungen nach der Gefahrstoffverordnung liegen nicht vor, weil diese nur die chemische Gefährlichkeit umfassen, welche eine völlig untergeordnete Rolle gegenüber den auf der Radioaktivität beruhenden Gefahren spielt. Eine chemische Gefahr liegt überhaupt nur dann vor, wenn es sich um eine dafür relevante Stoffmenge handelt. Da von Americium nur radioaktive Isotope existieren, darf es selbst sowie seine Verbindungen nur in geeigneten Laboratorien unter speziellen Vorkehrungen gehandhabt werden. Die meisten gängigen Americiumisotope sind α-Strahler, weshalb eine Inkorporation unbedingt vermieden werden muss. Das breite Spektrum der hieraus resultierenden meist ebenfalls radioaktiven Tochternuklide stellt ein weiteres Risiko dar, das bei der Wahl der Sicherheitsvorkehrungen berücksichtigt werden muss. 241Am gibt beim radioaktiven Zerfall große Mengen relativ weicher Gammastrahlung ab, die sich gut abschirmen lässt. Nach Untersuchungen des Forschers Arnulf Seidel vom Institut für Strahlenbiologie des Kernforschungszentrum Karlsruhe erzeugt Americium (wie Plutonium), bei Aufnahme in den Körper, mehr Knochentumore als dieselbe Dosis Radium. Die biologische Halbwertszeit von 241Am beträgt in den Knochen 50 Jahre und in der Leber 20 Jahre. In den Gonaden verbleibt es dagegen offensichtlich dauerhaft. Oxide. Von Americium existieren Oxide der Oxidationsstufen +3 (Am2O3) und +4 (AmO2). Americium(III)-oxid (Am2O3) ist ein rotbrauner Feststoff und hat einen Schmelzpunkt von 2205 °C. Americium(IV)-oxid (AmO2) ist die wichtigste Verbindung dieses Elements. Nahezu alle Anwendungen dieses Elements basieren auf dieser Verbindung. Sie entsteht unter anderem implizit in Kernreaktoren beim Bestrahlen von Urandioxid (UO2) bzw. Plutoniumdioxid (PuO2) mit Neutronen. Es ist ein schwarzer Feststoff und kristallisiert – wie die anderen Actinoiden(IV)-oxide – im kubischen Kristallsystem in der Fluorit-Struktur. Halogenide. Halogenide sind für die Oxidationsstufen +2, +3 und +4 bekannt. Die stabilste Stufe +3 ist für sämtliche Verbindungen von Fluor bis Iod bekannt und in wässriger Lösung stabil. In der wässrigen Phase wurde das vierwertige Americium auch beobachtet. Americium(III)-chlorid (AmCl3) bildet rosafarbene hexagonale Kristalle. Seine Kristallstruktur ist isotyp mit Uran(III)-chlorid. Der Schmelzpunkt der Verbindung liegt bei 715 °C. Das Hexahydrat (AmCl3·6 H2O) weist eine monokline Kristallstruktur auf. Durch Reduktion mit Na-Amalgam aus Am(III)-Verbindungen sind Am(II)-Salze zugänglich: die schwarzen Halogenide AmCl2, AmBr2 und AmI2. Sie sind sehr sauerstoffempfindlich, und oxidieren in Wasser unter Freisetzung von Wasserstoff zu Am(III)-Verbindungen. Chalkogenide und Pentelide. Von den Chalkogeniden sind bekannt: das Sulfid (AmS2), zwei Selenide (AmSe2 und Am3Se4) und zwei Telluride (Am2Te3 und AmTe2). Die Pentelide des Americiums (243Am) des Typs AmX sind für die Elemente Phosphor, Arsen, Antimon und Bismut dargestellt worden. Sie kristallisieren im NaCl-Gitter. Silicide und Boride. Americiummonosilicid (AmSi) und Americium„disilicid“ (AmSix mit: 1,87 Americium(III)-fluorid mit elementaren Silicium im Vakuum bei 1050 °C (AmSi) und 1150–1200 °C (AmSix) dargestellt. AmSi ist eine schwarze Masse, isomorph mit LaSi. AmSix ist eine hellsilbrige Verbindung mit einem tetragonalen Kristallgitter. Boride der Zusammensetzungen AmB4 und AmB6 sind gleichfalls bekannt. Metallorganische Verbindungen. Analog zu Uranocen, einer Organometallverbindung in der Uran von zwei Cyclooctatetraen-Liganden komplexiert ist, wurden die entsprechenden Komplexe von Thorium, Protactinium, Neptunium, Plutonium und auch des Americiums, (η8-C8H8)2Am, dargestellt. Atom. Atome (von "átomos"‚ unteilbar) sind die Bausteine, aus denen alle festen, flüssigen oder gasförmigen Stoffe bestehen. Alle Materialeigenschaften dieser Stoffe sowie ihr Verhalten in chemischen Reaktionen werden durch die Eigenschaften und die räumliche Anordnung der Atome, aus denen sie aufgebaut sind, festgelegt. Jedes Atom gehört zu einem bestimmten chemischen Element und bildet dessen kleinste Einheit. Zurzeit sind 118 Elemente bekannt, von denen etwa 90 auf der Erde natürlich vorkommen. Atome verschiedener Elemente unterscheiden sich in ihrer Größe und Masse und vor allem in ihrer Fähigkeit, mit anderen Atomen chemisch zu reagieren und sich zu Molekülen oder festen Körpern zu verbinden. Die Durchmesser von Atomen liegen im Bereich von 3 · 10−11 m bis 2 · 10−10 m, ihre Massen in einem Bereich von 10−27 bis 10−25 kg. Atome sind nicht unteilbar, wie zum Zeitpunkt der Namensgebung angenommen, sondern zeigen einen wohlbestimmten Aufbau aus noch kleineren Teilchen. Sie bestehen aus einem Atomkern und einer Atomhülle. Der Atomkern hat einen Durchmesser von etwa einem Zehntausendstel des gesamten Atomdurchmessers, enthält jedoch über 99,9 % der Atommasse. Er besteht aus positiv geladenen Protonen und einer Anzahl von etwa gleich schweren, elektrisch neutralen Neutronen. Diese Nukleonen sind durch die starke Wechselwirkung aneinander gebunden. Die Hülle besteht aus negativ geladenen Elektronen. Sie enthält weniger als 0,1 % der Masse, bestimmt jedoch die Größe des Atoms. Der positive Kern und die negative Hülle sind durch elektrostatische Anziehung aneinander gebunden. In der elektrisch neutralen Grundform des Atoms ist die Anzahl der Elektronen in der Hülle gleich der Anzahl der Protonen im Kern. Diese Zahl legt den genauen Aufbau der Hülle und damit auch das chemische Verhalten des Atoms fest und wird deshalb als "chemische Ordnungszahl" bezeichnet. Alle Atome desselben Elements haben die gleiche chemische Ordnungszahl. Sind zusätzliche Elektronen vorhanden oder fehlen welche, ist das Atom negativ bzw. positiv geladen und wird als Ion bezeichnet. Die Vorstellung vom atomaren Aufbau der Materie existierte bereits in der Antike, war jedoch bis in die Neuzeit umstritten. Der endgültige Nachweis konnte erst Anfang des 20. Jahrhunderts erbracht werden und gilt als eine der bedeutendsten Entdeckungen in Physik und Chemie. Einzelne Atome sind selbst mit den stärksten Lichtmikroskopen nicht zu erkennen. Eine direkte Beobachtung einzelner Atome ist erst seit Mitte des 20. Jahrhunderts mit Feldionenmikroskopen möglich, seit einigen Jahren auch mit Rastertunnelmikroskopen und hochauflösenden Elektronenmikroskopen. Die Atomphysik, die neben dem Aufbau der Atome auch die Vorgänge in ihrem Inneren und ihre Wechselwirkungen mit anderen Atomen erforscht, hat entscheidend zur Entwicklung der modernen Physik und insbesondere der Quantenmechanik beigetragen. Erforschungsgeschichte. Die Vorstellung vom atomaren Aufbau der Materie existierte bereits in der Antike. Aufgrund ihrer extrem geringen Größe sind einzelne Atome selbst mit den stärksten Lichtmikroskopen nicht zu erkennen, noch Anfang des 20. Jahrhunderts war ihre Existenz umstritten. Der endgültige Nachweis gilt als eine der bedeutendsten Entdeckungen in Physik und Chemie. Einen entscheidenden Beitrag lieferte Albert Einstein 1905, indem er die bereits seit langem bekannte, im Mikroskop direkt sichtbare Brownsche Bewegung kleiner Körnchen durch zufällige Stöße von Atomen oder Molekülen in deren Umgebung erklärte. Erst seit wenigen Jahrzehnten erlauben Feldionenmikroskope und Rastertunnelmikroskope, seit einigen Jahren zudem auch Elektronenmikroskope, einzelne Atome direkt zu beobachten. Philosophische Überlegungen. Das Konzept des Atomismus, nämlich dass Materie aus Grundeinheiten aufgebaut ist – „kleinsten Teilchen“, die nicht immer weiter in kleinere Stücke zerteilt werden können – existiert seit Jahrtausenden, genauso wie das Gegenkonzept, Materie sei ein beliebig teilbares Kontinuum. Doch diese Ideen beruhten zunächst ausschließlich auf philosophischen Überlegungen und nicht auf empirischer experimenteller Untersuchung. Dabei wurden den Atomen verschiedene Eigenschaften zugeschrieben, und zwar je nach Zeitalter, Kultur und philosophischer Schule sehr unterschiedliche. Experimentell arbeitende Naturwissenschaftler machten sich Ende des 18. Jahrhunderts die Hypothese vom Atom zu eigen, weil diese Hypothese im Rahmen eines Teilchenmodells der Materie eine elegante Erklärung für neue Entdeckungen in der Chemie bot. Doch wurde gleichzeitig die gegenteilige Vorstellung, Materie sei ein Kontinuum, von Philosophen und auch unter Naturwissenschaftlern noch bis ins 20. Jahrhundert hinein aufrechterhalten. Eine frühe Erwähnung des Atomkonzepts in der Philosophie ist aus Indien bekannt. Die Nyaya- und Vaisheshika-Schulen entwickelten ausgearbeitete Theorien, wie sich Atome zu komplexeren Gebilden zusammenschlössen (erst in Paaren, dann je drei Paare). In der griechischen Philosophie ist die Atomvorstellung erstmals im 5. Jahrhundert v. Chr. bei Leukipp überliefert. Sein Schüler Demokrit systematisierte sie und führte den Begriff "átomos" ein, was etwa „das Unzerschneidbare“ bedeutet, also ein nicht weiter zerteilbares Objekt. Diese Bezeichnung wurde Ende des 18. Jahrhunderts für die damals hypothetischen kleinsten Einheiten der chemischen Elemente der beginnenden modernen Chemie übernommen, denn mit chemischen Methoden lassen sich Atome in der Tat nicht „zerschneiden“. Naturwissenschaftliche Erforschung. Im Rahmen der wissenschaftlichen Erforschung konnte die Existenz von Atomen bestätigt werden. Es wurden viele verschiedene Atommodelle entwickelt, um ihren Aufbau zu beschreiben. Insbesondere das Wasserstoffatom als das einfachste aller Atome war dabei wichtig. Einige der Modelle werden heute nicht mehr verwendet und sind nur von wissenschaftsgeschichtlichem Interesse. Andere gelten je nach Anwendungsbereich als Näherung noch heute. In der Regel wird das einfachste Modell genommen, welches im gegebenen Zusammenhang noch ausreicht, um die auftretenden Fragen zu klären. Bestätigung der Atomhypothese. Robert Boyle vertrat 1661 in seinem Werk "The Sceptical Chymist" die Meinung, die Materie sei aus diversen Kombinationen verschiedener "corpuscules" aufgebaut und nicht aus den vier Elementen der Alchemie: Wasser, Erde, Feuer, Luft. Damit bereitete er die Überwindung der Alchemie durch den Element- und Atombegriff der modernen Chemie vor. Daniel Bernoulli zeigte 1740, dass der gleichmäßige Druck von Gasen auf die Behälterwände und insbesondere das Gesetz von Boyle und Mariotte sich durch zahllose Stöße kleinster Teilchen erklären lässt. Damit wurde seine Forschung zum Vorläufer der kinetischen Gastheorie und statistischen Mechanik. Ab Ende des 18. Jahrhunderts wurde die Vorstellung von Atomen genutzt, um die wohlbestimmten Winkel an den Kanten und Ecken der Edelsteine auf die verschiedenen möglichen Schichtungen von harten Kugeln zurückzuführen. Nachdem Antoine Lavoisier 1789 den heutigen Begriff des chemischen Elements geprägt und die ersten Elemente richtig identifiziert hatte, benutzte 1803 John Dalton das Atomkonzept, um zu erklären, wieso Elemente immer in Mengenverhältnissen kleiner ganzer Zahlen miteinander reagieren (Gesetz der multiplen Proportionen). Er nahm an, dass jedes Element aus gleichartigen Atomen besteht, die sich nach festen Regeln miteinander verbinden können und so Stoffe mit anderen Materialeigenschaften bilden. Außerdem ging er davon aus, dass alle Atome eines Elements die gleiche Masse hätten, und begründete den Begriff Atomgewicht. Die Beobachtungen zum chemischen und physikalischen Verhalten von Gasen konnte Amedeo Avogadro 1811 dahingehend zusammenfassen, dass zwei näherungsweise ideale Gase bei gleichen Werten von Volumen, Druck und Temperatur des Gases immer aus gleich vielen identischen Teilchen („Molekülen“) bestehen. Die Moleküle bestehen bei elementaren Gasen wie Wasserstoff, Sauerstoff oder Stickstoff immer aus zwei Atomen des Elements (Avogadrosches Gesetz). 1866 konnte Johann Loschmidt die Größe der Luftmoleküle bestimmen, indem er mit der von James C. Maxwell aus der kinetischen Gastheorie gewonnenen Formel die von George Stokes gemessenen Werte für die innere Reibung in Luft auswertete. Damit konnte er das Gewicht eines Luftmoleküls bestimmen. Außerdem erhielt er die nach ihm benannte Loschmidtsche Zahl als Anzahl der Luftmoleküle pro Kubikzentimeter. Infolge der Arbeiten von Avogadro und Stanislao Cannizzaro wurde angenommen, dass Atome nicht als einzelne Teilchen auftreten, sondern nur als Bestandteile von Molekülen aus mindestens zwei Atomen. Doch 1876 gelang August Kundt und Emil Warburg der erste Nachweis eines einatomigen Gases. Sie bestimmten den Adiabatenexponenten von Quecksilber-Dampf bei hoher Temperatur und erhielten einen Wert, wie er nach der kinetischen Gastheorie nur für Teilchen in Gestalt echter Massepunkte auftreten kann. Ab 1895 kamen entsprechende Beobachtungen an den neu entdeckten Edelgasen hinzu. Nach Erscheinen seiner Dissertation über die Bestimmung von Moleküldimensionen schlug Albert Einstein im selben Jahr 1905 ein Experiment vor, um die Hypothese von der Existenz der Atome anhand der Zitterbewegung kleiner Partikel in Wasser quantitativ zu prüfen. Nach seiner Theorie müssten die Partikel aufgrund der Unregelmäßigkeit der Stöße durch die Wassermoleküle kleine, aber immerhin unter dem Mikroskop sichtbare Bewegungen ausführen. Es war Einstein dabei zunächst nicht bekannt, dass er damit die seit 1827 bekannte Brownsche Bewegung von Pollen quantitativ erklärt hatte, für deren Ursache schon 1863 Christian Wiener erstmals Molekularstöße angenommen hatte. Der französische Physiker Jean Perrin bestimmte auf der Grundlage von Einsteins Theorie die Masse und Größe von Molekülen experimentell und fand ähnliche Ergebnisse wie Loschmidt. Diese Arbeiten trugen entscheidend zur allgemeinen Anerkennung der bis dahin so genannten „Atomhypothese“ bei. Teilbarkeit und Aufbau der Atome. Joseph John Thomson entdeckte 1897, dass die Kathodenstrahlen aus Teilchen bestimmter Ladung und Masse bestehen; deren Masse ist kleiner als ein Tausendstel der Atommasse. Diese Teilchen wurden als "Elektronen" bezeichnet und erwiesen sich als ein Bestandteil aller Materie, was dem Konzept des Atoms als unzerteilbarer Einheit widersprach. Thomson glaubte, dass die Elektronen dem Atom seine Masse verliehen und dass sie im Atom in einem masselosen, positiv geladenen Medium verteilt seien wie „Rosinen in einem Kuchen“ (Thomsonsches Atommodell). Die kurz zuvor entdeckte Radioaktivität wurde 1903 von Ernest Rutherford und Frederick Soddy mit Umwandlungen verschiedener Atomsorten ineinander in Verbindung gebracht. Sie konnten 1908 nachweisen, dass α-Teilchen, die bei Alphastrahlung ausgesandt werden, Helium-Atome bilden. Zusammen mit seiner Forschergruppe beschoss Ernest Rutherford 1909 eine Goldfolie mit α-Teilchen. Er stellte fest, dass die meisten der Teilchen die Folie fast ungehindert durchdrangen, einige wenige aber um sehr viel größere Winkel abgelenkt wurden, als nach Thomsons Modell möglich. Rutherford schloss daraus, dass fast die ganze Masse des Atoms in einem sehr viel kleineren, geladenen Atomkern in der Mitte des Atoms konzentriert sei (Rutherfordsches Atommodell). Die stark abgelenkten α-Teilchen waren diejenigen, die einem Kern zufällig näher als etwa ein Hundertstel des Atomradius gekommen waren. Die Ladungszahl des Atomkerns entpuppte sich als die chemische Ordnungszahl des betreffenden Elements, und α-Teilchen erwiesen sich als die Atomkerne des Heliums. Schematische Darstellung eines einfachen Massenspektrometers Der Chemiker Frederick Soddy stellte 1911 fest, dass manche der natürlichen radioaktiven Elemente aus Atomen mit unterschiedlichen Massen und unterschiedlicher Radioaktivität bestehen mussten. Der Begriff Isotop für physikalisch verschiedene Atome desselben chemischen Elements wurde 1913 von Margaret Todd vorgeschlagen. Da die Isotope desselben Elements an ihrem chemischen Verhalten nicht zu unterscheiden waren, entwickelte der Physiker J.J. Thomson ein erstes Massenspektrometer zu ihrer physikalischen Trennung. Damit konnte er 1913 am Beispiel von Neon nachweisen, dass es auch stabile Elemente mit mehreren Isotopen gibt. 1918 fand Francis William Aston mit einem Massenspektrometer von erheblich größerer Genauigkeit heraus, dass fast alle Elemente Gemische aus mehreren Isotopen sind, wobei die Massen der einzelnen Isotope immer (nahezu) ganzzahlige Vielfache der Masse des Wasserstoffatoms sind. Rutherford wies 1919 in der ersten beobachteten Kernreaktion nach, dass durch Beschuss mit α-Teilchen aus den Kernen von Stickstoffatomen die Kerne von Wasserstoffatomen herausgeschossen werden können. Diesen gab er den Namen Proton und entwickelte ein Atommodell, in dem die Atome nur aus Protonen und Elektronen bestehen, wobei die Protonen und ein Teil der Elektronen den kleinen, schweren Atomkern bilden, die übrigen Elektronen die große, leichte Atomhülle. Die Vorstellung von Elektronen im Atomkern stellte sich jedoch als falsch heraus und wurde fallengelassen, nachdem 1932 von James Chadwick das Neutron als ein neutraler Kernbaustein mit etwa gleicher Masse wie das Proton nachgewiesen wurde. Damit entstand das heutige Atommodell: Der Atomkern ist zusammengesetzt aus so vielen Protonen wie die Ordnungszahl angibt, und zusätzlich so vielen Neutronen, dass die betreffende Isotopenmasse erreicht wird. Die Atomhülle des neutralen Atoms besteht aus so vielen Elektronen wie es im Kern Protonen gibt. Quantenmechanische Atommodelle. a> mit einer bestimmten Frequenz f abstrahlt. 1913 konnte Niels Bohr, aufbauend auf Rutherfords Atommodell aus Kern und Hülle, erstmals erklären, wie es in den optischen Spektren reiner Elemente zu den Spektrallinien kommt, die für das jeweilige Element absolut charakteristisch sind (Spektralanalyse nach Robert Wilhelm Bunsen und Gustav Robert Kirchhoff 1859). Bohr nahm an, dass die Elektronen sich nur auf bestimmten quantisierten Umlaufbahnen (Schalen) aufhalten und von einer zur anderen „springen“, sich jedoch nicht dazwischen aufhalten können. Beim Quantensprung von einer äußeren zu einer weiter innen liegenden Bahn muss das Elektron eine bestimmte Menge an Energie abgeben, die als Lichtquant bestimmter Wellenlänge erscheint. Im Franck-Hertz-Versuch konnte die quantisierte Energieaufnahme und -abgabe an Quecksilberatomen experimentell bestätigt werden. Das Bohrsche Atommodell ergab zwar nur für Systeme mit lediglich einem Elektron (Wasserstoff und ionisiertes Helium) quantitativ richtige Resultate. Jedoch bildete es im Laufe des folgenden Jahrzehnts das Fundament für eine Reihe von Verfeinerungen, die zu einem qualitativen Verständnis des Aufbaus der Elektronenhüllen aller Elemente führten. Damit wurde das Bohrsche Atommodell zur Grundlage des populären Bildes vom Atom als einem kleinen Planetensystem. 1916 versuchte Gilbert Newton Lewis, im Rahmen des Bohrschen Atommodells die chemische Bindung durch Wechselwirkung der Elektronen eines Atoms mit einem anderen Atom zu erklären. Walther Kossel ging 1916 erstmals von abgeschlossenen „Elektronenschalen“ bei den Edelgasen aus, um zu erklären, dass die chemischen Eigenschaften der Elemente grob periodisch mit der Ordnungszahl variieren, wobei sich benachbarte Elemente durch ein oder zwei zusätzliche oder fehlende Elektronen unterscheiden. Dies wurde bis 1921 von Niels Bohr zum „Aufbauprinzip“ weiterentwickelt, wonach mit zunehmender Kernladungszahl jedes weitere Elektron in die jeweils energetisch niedrigste Elektronenschale der Atomhülle, die noch Plätze frei hat, aufgenommen wird, ohne dass die schon vorhandenen Elektronen sich wesentlich umordnen. Aufbauend auf dem von Louis de Broglie 1924 postulierten Welle-Teilchen-Dualismus entwickelte Erwin Schrödinger 1926 die Wellenmechanik. Sie beschreibt die Elektronen nicht als Massenpunkte auf bestimmten Bahnen, sondern als dreidimensionale "Materiewellen". Als Folge dieser Beschreibung ist es unter anderem unzulässig, einem Elektron gleichzeitig genaue Werte für Ort und Impuls zuzuschreiben. Dieser Sachverhalt wurde 1926 von Werner Heisenberg in der Unschärferelation formuliert. Demnach können statt der Bewegung auf bestimmten Bahnen nur "Wahrscheinlichkeitsverteilungen" für Wertebereiche von Ort und Impuls angegeben werden, eine Vorstellung, die nur schwer zu veranschaulichen ist. Den quantisierten Umlaufbahnen des Bohrschen Modells entsprechen hier stehende Materiewellen oder „Atomorbitale“. Sie geben unter anderem an, wie sich in der Nähe des Atomkerns die Aufenthaltswahrscheinlichkeit der Elektronen konzentriert, und bestimmen damit die wirkliche Größe des Atoms. Die Beschreibung der Eigenschaften der Atome gelang mit diesem ersten vollständig quantenmechanischen Atommodell sehr viel besser als mit den Vorläufermodellen. Insbesondere ließen sich auch bei Atomen mit mehreren Elektronen die Spektrallinien und die Struktur der Atomhülle in räumlicher und energetischer Hinsicht darstellen, einschließlich der genauen Möglichkeiten, mit den Atomhüllen anderer Atome gebundene Zustände zu bilden, also stabile Moleküle. Daher wurde das Bohrsche Atommodell zugunsten des quantenmechanischen Orbitalmodells des Atoms verworfen. Das Orbitalmodell ist bis heute Grundlage und Ausgangspunkt genauer quantenmechanischer Berechnungen fast aller Eigenschaften der Atome. Das gilt insbesondere für ihre Fähigkeit, sich mit anderen Atomen zu einzelnen Molekülen oder zu ausgedehnten Festkörpern zu verbinden. Bei Atomen mit mehreren Elektronen muss dafür außer dem Pauli-Prinzip auch die elektrostatische Wechselwirkung jedes Elektrons mit allen anderen berücksichtigt werden. Diese hängt u. a. von der Form der besetzten Orbitale ab. Andererseits wirkt sich umgekehrt die Wechselwirkung auf die Form und Energie der Orbitale aus. Es ergibt sich das Problem, die Orbitale in selbstkonsistenter Weise so zu bestimmen, dass sich ein stabiles System ergibt. Die Hartree-Fock-Methode geht von Orbitalen einer bestimmten Form aus und variiert diese systematisch, bis die Rechnung eine minimale Gesamtenergie ergibt. Wenn man die Orbitale nach der Dichtefunktionaltheorie bestimmen will, geht man von einer ortsabhängigen Gesamtdichte der Elektronen aus und bildet daraus eine Schrödingergleichung zur Bestimmung der Orbitale der einzelnen Elektronen. Hier wird die anfänglich angenommene Gesamtdichte variiert, bis sie mit der Gesamtdichte, die aus den besetzten Orbitalen zu berechnen ist, gut übereinstimmt. Das Orbitalmodell bei einem Atom mit mehr als einem Elektron ist physikalisch als eine Näherung zu bezeichnen, nämlich als eine 1-Teilchen-Näherung. Sie besteht darin, dass jedem einzelnen Elektron ein bestimmtes Orbital zugeschrieben wird. Ein so gebildeter Zustand gehört zu der einfachsten Art von Mehrteilchenzuständen und wird hier als Konfiguration des Atoms bezeichnet. Genauere Modelle berücksichtigen, dass nach den Regeln der Quantenmechanik die Hülle auch in einem Zustand sein kann, der durch Superposition verschiedener Konfigurationen entsteht, wo also mit verschiedenen Wahrscheinlichkeitsamplituden gleichzeitig verschiedene Elektronenkonfigurationen vorliegen (eine sogenannte Konfigurationsmischung). Hiermit werden die genauesten Berechnungen von Energieniveaus und Wechselwirkungen der Atome möglich. Wegen des dazu nötigen mathematischen Aufwands werden jedoch, wo es möglich ist, auch weiterhin einfachere Atommodelle genutzt. Zu nennen ist hier das Thomas-Fermi-Modell, in dem die Elektronenhülle pauschal wie ein im Potentialtopf gebundenes ideales Elektronengas, das Fermigas, behandelt wird, dessen Dichte wiederum die Form des Potentialtopfs bestimmt. Erklärung grundlegender Atomeigenschaften. Die Elektronen der Atomhülle sind aufgrund ihrer negativen Ladung durch elektrostatische Anziehung an den positiven Atomkern gebunden. Anschaulich gesprochen bilden sie eine Art Elektronenwolke mit unscharfem Rand. Bei neutralen Atomen besteht die Hülle aus der gleichen Anzahl Elektronen wie die Anzahl Protonen im Kern, während die Anzahl der Neutronen für die Eigenschaften der Hülle praktisch keine Rolle spielt. Die Hülle ist etwa 10.000 bis 100.000 Mal größer als der Kern. Zur Atommasse trägt sie nur maximal 0,05 % bei und sie ist für energiereiche freie Teilchen (z. B. bei Energien ab ca. einigen hundert Elektronenvolt (eV) für Photonen der Röntgenstrahlung oder Elektronen und Alphateilchen der radioaktiven Strahlung) weitgehend durchlässig. Daher wird das Atom zuweilen als „weitgehend leer“ beschrieben. Für Teilchenstrahlen geringer Energie, etwa Elektronenstrahlen im Bereich bis zu einigen 10 eV, ist die Hülle aber praktisch undurchdringlich. In diesem Bereich liegen auch die kinetische Energie und die Bindungsenergie der Elektronen im äußeren Teil der Hülle. Daher erfahren zwei Atome immer eine starke Abstoßungskraft, wenn sie sich so weit annähern, dass sich ihre Hüllen merklich überschneiden würden. Der Bereich der kinetischen Energien ganzer Atome und Moleküle, wie sie unter normalen Bedingungen auf der Erde vorkommen, liegt noch deutlich darunter. Z. B. beträgt die thermische Energie formula_1 (formula_2 Boltzmannkonstante, formula_3 absolute Temperatur), die für die Größenordnung dieses Energiebereichs typisch ist, bei Raumtemperatur nur ungefähr 0,025 eV. Unter diesen Bedingungen ist die Atomhülle daher erstens stabil, weil ihr keine Elektronen entrissen werden, und zweitens undurchdringlich, weil sie sich nicht merklich mit den Hüllen anderer Atome überschneidet. Damit wird das Atom zum universellen Baustein der alltäglichen makroskopischen Materie. Seine, wenn auch nicht ganz scharf definierte, Größe verdankt es der gegenseitigen Undurchdringlichkeit der Hüllen. Wenn sich die Hüllen zweier Atome aber nur geringfügig mit ihren äußeren Randbereichen überschneiden, kann zwischen ihnen eine anziehende Kraft entstehen. Sie ist die Ursache für die Entstehung von stabilen Molekülen, also den kleinsten Teilchen einer chemischen Verbindung. Bedingung ist, dass insgesamt ein Gewinn an Bindungsenergie damit einhergeht, dass ein oder zwei Elektronen von einer Hülle ganz oder mit gewisser Wahrscheinlichkeit zu der anderen Hülle überwechseln oder an beiden Hüllen beteiligt sind. Das ist nur bei genau passendem Aufbau beider Hüllen gegeben. Daher treten chemische Bindungen nur bei entsprechend geeigneten Kombinationen von Atomen auf. Bei größeren Abständen, etwa bei einigen Atomdurchmessern, ziehen sich hingegen Atome aller Arten gegenseitig schwach an, unabhängig von der Möglichkeit, eine chemische Bindung einzugehen. Diese Van-der-Waals-Kräfte bewirken, dass jedes Gas bei genügend niedriger Temperatur zu einer Flüssigkeit oder einem Feststoff kondensiert. Sie sind also für den Wechsel der Aggregatzustände verantwortlich und wirken zwischen den neutralen Atomen bzw. Molekülen, sind aber auch elektrischen Ursprungs. Sie werden dadurch erklärt, dass sich zwei Atome durch leichte räumliche Verschiebung ihrer Elektronenwolken gegenseitig elektrische Dipolmomente induzieren, die einander elektrostatisch anziehen. Weitere Entdeckungen. Der Chemiker Otto Hahn, ein Schüler Rutherfords, versuchte im Jahr 1938, durch Einfang von Neutronen an Urankernen Atome mit größerer Masse (Transurane) herzustellen, wie das bei leichteren Elementen seit Jahren gelungen war. Fritz Straßmann wies jedoch überraschenderweise nach, dass dabei das viel leichtere Barium entstanden war. Die Physiker Lise Meitner und Otto Frisch konnten den Vorgang als Kernspaltung identifizieren, indem sie mittels einer Ionisationskammer mehrere radioaktive Spaltprodukte nachwiesen. Ab den 1950er Jahren konnten Atome durch die Entwicklung verbesserter Teilchenbeschleuniger und Teilchendetektoren beim Beschuss mit Teilchen sehr hoher Energie untersucht werden. Ende der 1960er Jahre zeigte sich in der „tiefinelastischen Streuung“ von Elektronen an Atomkernen, dass auch Neutronen und Protonen keine unteilbaren Einheiten sind, sondern aus Quarks zusammengesetzt sind. 1951 entwickelte Erwin Müller das Feldionenmikroskop und konnte damit von einer Nadelspitze erstmals ein Abbild erzeugen, das auf direkte Weise so stark vergrößert war, dass einzelne Atome darin sichtbar wurden (wenn auch nur als verschwommene Flecken). 1953 entwickelte Wolfgang Paul die magnetische Ionenfalle (Paulfalle), in der einzelne Ionen gespeichert und mit immer höherer Genauigkeit untersucht werden konnten. 1985 entwickelte eine Arbeitsgruppe um Steven Chu die Laserkühlung, ein Verfahren, die Temperatur einer Ansammlung von Atomen mittels Laser­strahlung stark zu verringern. Im selben Jahr gelang es einer Gruppe um William D. Phillips, neutrale Natriumatome in einer magneto-optischen Falle einzuschließen. Durch Kombination dieser Verfahren mit einer Methode, die den Dopplereffekt nutzt, gelang es einer Arbeitsgruppe um Claude Cohen-Tannoudji, geringe Mengen von Atomen auf Temperaturen von einigen Mikrokelvin zu kühlen. Mit diesem Verfahren können Atome mit höchster Genauigkeit untersucht werden; außerdem ermöglichte es auch die experimentelle Realisierung der Bose-Einstein-Kondensation. Anfang der 1980er Jahre wurde von Gerd Binnig und Heinrich Rohrer das Rastertunnelmikroskop entwickelt, in dem eine Nadelspitze eine Oberfläche mittels des Tunneleffekts so fein abtastet, dass einzelne Atome sichtbar werden. Damit wurde es auch möglich, Atome einzeln an bestimmte Plätze zu setzen. In den 1990er Jahren konnten Serge Haroche und David Wineland in Experimenten die Wechselwirkung eines einzelnen Atoms mit einem einzelnen Photon erfolgreich untersuchen. In den 2000er Jahren wurde die Handhabbarkeit einzelner Atome unter anderem genutzt, um einen Transistor aus nur einem Metallatom mit organischen Liganden herzustellen. Viele dieser Entdeckungen wurden mit dem Nobelpreis (Physik oder Chemie) ausgezeichnet. Elemente, Isotope, Nuklide. Die Unterscheidung und Bezeichnung verschiedener Atomsorten geht zunächst vom Aufbau des Atomkerns aus, während der Zustand der Hülle gegebenenfalls durch zusätzliche Symbole angegeben wird. Kennzahlen sind die Protonenzahl (Ordnungszahl, Kernladungszahl) "Z", die Neutronenzahl "N" des Kerns, und die daraus gebildete Massenzahl "A=Z+N". Abhängig von der Protonenzahl gehören die Atome zu einem der 118 bekannten chemischen Elemente, von Wasserstoff mit "Z"=1 bis Ununoctium mit "Z"=118. Davon sind 91 in natürlichen Vorkommen entdeckt worden, 27 nur nach künstlicher Herstellung durch Kernreaktionen. Die Ordnung der Elemente wird im Periodensystem – wichtig für die Chemie – graphisch veranschaulicht. Darin werden die Elemente mit aufsteigender Ordnungszahl in Form einer Tabelle angeordnet. Jede Zeile wird als Periode des Periodensystems bezeichnet und endet, wenn das Orbital mit Elektronen voll besetzt ist (Edelgas). In den nächsten Zeilen wiederholt sich aufgrund der schrittweisen Elektronenbesetzung der nächsten Orbitale der chemische Charakter der Elemente. So stehen Elemente mit ähnlichen chemischen Eigenschaften in einer Spalte untereinander, sie bilden eine Gruppe des Periodensystems. Atome eines Elements, die sich in der Neutronenzahl unterscheiden, gehören zu verschiedenen Isotopen des Elements. Insgesamt bestehen die 118 Elemente aus etwa 2800 Isotopen, wovon 2500 künstlich erzeugt wurden. Isotope werden – bis auf die Ausnahmen der Wasserstoffisotope Deuterium und Tritium – nach dem chemischen Element und der Massenzahl bezeichnet. Das Symbol für ein bestimmtes Isotop des Elements X hat die Form formula_4, formula_5 oder X-"A" (Beispiele: formula_6, formula_7, Pb-208). Die explizite Angabe der Protonen- und Neutronenzahl "Z" und "N" ist überflüssig, denn "Z" ergibt sich schon durch die Ordnungszahl des Elements und "N" aus der Differenz von "Z" zur Massenzahl "A". Der Begriff Nuklid wird häufig als Sammelbezeichnung für Isotope verschiedener Elemente gleichzeitig verwendet, aber auch, wenn von Atomen mit einem Kern in einem bestimmten angeregten Zustand die Rede ist. Die Nuklidkarte oder Isotopenkarte – wichtig für die Kernphysik und ihre Anwendungen – ist eine Tabelle, in der jedes Isotop einen eigenen Platz erhält. Dazu wird auf einer Achse die Anzahl der Protonen, auf der anderen die der Neutronen aufgetragen. Verschiedene Nuklide desselben Isotops teilen sich einen Platz. Häufig wird die Stabilität der Isotope und bei instabilen Isotopen auch die Art der Umwandlung oder die Größenordnung der Halbwertszeit durch bestimmte Farben dargestellt. Stabile und instabile (radioaktive) Atome. Der Atomkern eines Nuklids formula_8 kann im energetischen Grundzustand und in verschiedenen Anregungszuständen vorliegen. Wenn darunter relativ langlebige, sogenannte metastabile Zustände sind, werden diese als Isomere bezeichnet und als eigene Nuklide gezählt (Symbol formula_9, formula_10 o.ä.). Nach dieser Definition sind mit dem Stand von 2003 insgesamt etwa 3200 Nuklide bekannt. In der Kernphysik werden Nuklide mit unterschiedlichen Protonenzahlen, aber gleicher Massenzahl formula_11 als Isobare bezeichnet. Seltener werden unter dem Namen Isotone Nuklide mit verschiedenen Protonenzahlen, aber gleicher Neutronenzahl zusammengefasst. Nur etwa 250 Isotope von 80 Elementen haben einen stabilen Kern. Alle anderen Atome sind instabil und wandeln sich über kurz oder lang in Atome eines stabilen Isotops um. Da sie dabei im Allgemeinen ionisierende Strahlung aussenden, heißen sie auch Radioisotope oder Radionuklide. Auf der Erde wurden in den natürlichen Vorkommen neben allen 250 stabilen Isotopen 30 Radioisotope gefunden, die sich auf 10 radioaktive Elemente verteilen und die natürliche Radioaktivität verursachen. Viele weitere kurzlebige Isotope existieren im Inneren von Sternen, insbesondere während der Supernova-Phase. Seltene und theoretische Formen. Als Rydberg-Atom wird ein Atom bezeichnet, in dem ein Elektron in einem so hohen Energiezustand angeregt ist, dass es den Atomkern, teilweise auch den gesamten Atomrumpf, bestehend aus dem Atomkern und den restlichen Elektronen, in weitem Abstand umkreist und sein Verhalten damit dem eines klassischen Teilchens ähnelt. Rydberg-Atome können über 100.000 mal größer sein als nicht angeregte Atome. Da sie extrem empfindlich auf äußere Felder reagieren, kann man mit ihnen z. B. die Wechselwirkung mit einem einzelnen Photon im Detail untersuchen. Sind zwei oder mehr Elektronen in solchen Zuständen angeregt, spricht man von planetarischen Atomen. Im teils übertragenen Sinn werden als exotische Atome auch solche Systeme bezeichnet, die in physikalischer Hinsicht gewisse Ähnlichkeiten zu den gewöhnlichen Atomen aufweisen. In ihnen kann z. B. eines der Protonen, Neutronen oder Elektronen durch ein anderes Teilchen derselben Ladung ersetzt worden sein. Wird etwa ein Elektron durch ein schwereres Myon ersetzt, bildet sich ein myonisches Atom. Als Positronium wird ein exotisches Atom bezeichnet, in dem ein Elektron statt an ein Proton an ein Positron, das ist das positiv geladene Antiteilchen des Elektrons, gebunden ist. Auch Atome, die gänzlich aus Antiteilchen zur normalen Materie aufgebaut sind, sind möglich. So wurden erstmals 1996 am CERN in Genf Antiwasserstoffatome künstlich hergestellt und nachgewiesen. An solchen exotischen Atomen lassen sich unter anderem fundamentale physikalische Theorien überprüfen. Des Weiteren wird der Name Atom manchmal auch für 2-Teilchen-Systeme verwendet, die nicht durch elektromagnetische Wechselwirkung zusammengehalten werden, sondern durch die starke Wechselwirkung. Bei einem solchen Quarkonium handelt es sich um ein kurzlebiges Elementarteilchen vom Typ Meson, das aus einem Quark und seinem Antiteilchen aufgebaut ist. Ein Quarkonium-Atom lässt sich in seinen verschiedenen metastabilen Zuständen so durch Quantenzahlen klassifizieren wie das Wasserstoffatom. Entstehung. Etwa eine Sekunde nach dem Urknall kamen die ständigen Umwandlungen zwischen den Elementarteilchen zur Ruhe, übrig blieben Elektronen, Protonen und Neutronen. In den darauf folgenden drei Minuten verbanden sich in der primordialen Nukleosynthese die vorhandenen Neutronen mit Protonen zu den einfachsten Kernen: Deuterium, Helium, in geringerem Umfang auch Lithium und möglicherweise in noch kleineren Mengen Beryllium und Bor. Die übrigen Protonen (86 %) blieben erhalten. Die ersten neutralen Atome mit dauerhaft gebundenen Elektronen wurden erst 380.000 Jahre nach dem Urknall in der Rekombinationsphase gebildet, als das Universum durch Expansion so weit abgekühlt war, dass die Atome nicht sogleich wieder ionisiert wurden. Die Kerne aller schwereren Atome wurden und werden durch verschiedene Prozesse der Kernfusion erzeugt. Am wichtigsten ist die stellare Nukleosynthese, durch die in Sternen zunächst Helium, anschließend auch die schwereren Elemente bis zum Eisen gebildet werden. Elemente mit höheren Kernladungszahlen als Eisen entstehen in explosionsartigen Vorgängen wie im r-Prozess in Supernovae und im s-Prozess in AGB-Sternen, die kurz vor dem Ende ihrer Lebensdauer sind. Kleine Mengen verschiedener Elemente und Isotope werden auch dadurch gebildet, dass schwere Kerne wieder geteilt werden. Das geschieht durch radioaktive Zerfälle (siehe Zerfallsreihe), die u. a. für einen Teil des Vorkommens von Helium und Blei verantwortlich sind, und Spallationen, die für die Entstehung von Lithium, Beryllium und Bor wichtig sind. Vorkommen und Verteilung. Im beobachtbaren Universum liegen die Atome mit einer mittleren Dichte von 0,25 Atome/m³ vor. Nach dem Urknallmodell (Lambda-CDM-Modell) bilden sie etwa 4,9 % der gesamten Energiedichte. Der Rest, dessen Natur noch weitgehend unklar ist, setzt sich aus etwa 27 % dunkler Materie und 68 % dunkler Energie zusammen, sowie kleinen Beiträgen von Neutrinos und elektromagnetischer Strahlung. Im Inneren einer Galaxie wie etwa der Milchstraße ist im interstellaren Medium (ISM) die Dichte der Atome wesentlich höher und liegt zwischen 104 und 1011 Atome/m3. Die Sonne befindet sich in der weitgehend staubfreien lokalen Blase, daher ist die Dichte in der Umgebung des Sonnensystems nur etwa 103 Atome/m3. In festen Himmelskörpern wie der Erde beträgt die Atomdichte etwa 1029 Atome/m3. In der Verteilung der unterschiedlichen Elemente dominiert im Universum Wasserstoff mit rund 75 % der Masse, danach folgt Helium mit etwa 25 %. Alle schwereren Elemente sind viel seltener und machen nur einen kleinen Teil der im Universum vorhandenen Atome aus. Ihre Häufigkeiten werden von den verschiedenen Mechanismen der Nukleosynthese bestimmt. Im Sonnensystem sind Wasserstoff und Helium vorwiegend in der Sonne und den Gasplaneten enthalten. Dagegen überwiegen auf der Erde die schweren Elemente. Die häufigsten Elemente sind hier Sauerstoff, Eisen, Silicium und Magnesium. Der Erdkern besteht vorwiegend aus Eisen, während in der Erdkruste Sauerstoff und Silicium vorherrschen. Bestandteile des Atoms. Die beiden Hauptbestandteile eines Atoms sind der Atomkern und die Atomhülle. Die Hülle besteht aus Elektronen. Sie trägt weniger als 0,05 % zur Masse des Atoms bei, bestimmt aber seine Größe und sein Verhalten gegenüber anderen Atomen, wenn sie einander nahe kommen. Der Kern besteht aus Protonen und Neutronen, ist im Durchmesser zehn- bis hunderttausendmal kleiner als die Hülle, enthält aber mehr als 99,95 % der Masse des Atoms. Aufbau. a>, die pro Nukleon aufgebracht werden muss, um den Kern vollständig in Nukleonen zu zerlegen, für die auf der Erde natürlich vorkommenden Kerne. Die in einem Atom vorhandenen Protonen und Neutronen, zusammen auch als Nukleonen bezeichnet, sind aneinander gebundenen und bilden den Atomkern. Die Nukleonen zählen zu den Hadronen. Das Proton ist positiv geladen, das Neutron ist elektrisch neutral. Proton und Neutron haben einen Durchmesser von etwa 1,6 fm (Femtometer) und sind selber keine Elementarteilchen, sondern nach dem Standardmodell der Elementarteilchenphysik aus den punktförmigen Quarks aufgebaut. Jeweils drei Quarks binden sich durch die starke Wechselwirkung, die durch Gluonen vermittelt wird, zu einem Nukleon. Die starke Wechselwirkung ist darüber hinaus für den Zusammenhalt der Nukleonen im Atomkern verantwortlich, insbesondere ist die Anziehung bis zu etwa 2,5 fm Abstand deutlich stärker als die gegenseitige elektrische Abstoßung der Protonen. Unterhalb von etwa 1,6 fm wird die starke Wechselwirkung der Hadronen jedoch stark abstoßend. Anschaulich gesprochen verhalten sich die Nukleonen im Kern also etwa wie harte Kugeln, die aneinander haften. Daher steigt das Volumen des Kerns proportional zur Nukleonenzahl (Massenzahl) formula_11. Sein Radius beträgt etwa formula_13 fm. Der leichteste Atomkern besteht aus nur einem Proton. Mehrere Protonen stoßen sich zwar gemäß der Elektrostatik ab, können zusammen mit einer geeigneten Anzahl von Neutronen aber ein stabiles System bilden. Doch schon bei kleinen Abweichungen von dem energetisch günstigsten Zahlenverhältnis ist der Kern instabil und wandelt sich spontan um, indem aus einem Neutron ein Proton wird oder umgekehrt und die frei werdende Energie und Ladung als Betastrahlung abgegeben wird. Kerne mit bis zu etwa 20 Protonen sind nur bei annähernd gleich großer Neutronenzahl stabil. Darüber steigt in den stabilen Atomkernen das Verhältnis von Neutronen zu Protonen von 1:1 bis auf etwa 1,5:1, weil bei größeren Protonenzahlen wegen ihrer elektrostatischen Abstoßung die Anzahl der Neutronen schneller anwachsen muss als die der Protonen (Details siehe Tröpfchenmodell). Die Bindungsenergie liegt in stabilen Kernen (abgesehen von den leichtesten) oberhalb von 7 MeV pro Nukleon (siehe Abbildung) und übertrifft damit die Bindungsenergie der äußeren Elektronen der Atomhülle oder die chemische Bindungsenergie in stabilen Molekülen um das ca. 106-fache. Kerne mit bestimmten Nukleonenzahlen, die als Magische Zahl bezeichnet werden, beispielsweise Helium-4, Sauerstoff-16 oder Blei-208, sind besonders stabil, was mit dem Schalenmodell des Atomkerns erklärt werden kann. Oberhalb einer Zahl von 82 Protonen (also jenseits von Blei) sind alle Kerne instabil. Sie wandeln sich durch Ausstoßen eines Kerns He-4 in leichtere Kerne um (Alphastrahlung). Dies wiederholt sich, zusammen mit Betastrahlung, so lange, bis ein stabiler Kern erreicht ist; mehrere Zerfallsstufen bilden eine Zerfallsreihe. Auch zu den Protonenzahlen 43 (Technetium) und 61 (Promethium) existiert kein stabiler Kern. Daher kann es insgesamt nur 80 verschiedene stabile chemische Elemente geben, alle weiteren sind radioaktiv. Sie kommen auf der Erde nur dann natürlich vor, wenn sie selber oder eine ihrer Muttersubstanzen eine genügend lange Halbwertzeit haben. Masse. Da der Großteil der Atommasse von den Neutronen und Protonen stammt und diese etwa gleich schwer sind, wird die Gesamtzahl dieser Teilchen in einem Atom als Massenzahl bezeichnet. Die genaue Masse eines Atoms wird oft in der atomaren Masseneinheit u angegeben; ihr Zahlenwert ist dann etwa gleich der Massenzahl. Kleinere Abweichungen entstehen durch den Massendefekt in Atomkernen. Die atomare Masseneinheit ist so definiert, dass ein Atom des Kohlenstoffisotops 12C genau die Masse 12 u besitzt. Genähert gilt 1 u = 1,66 · 10−27 kg. Ein Atom des leichtesten Wasserstoffisotops hat eine Masse von 1,007825 u. Das schwerste stabile Nuklid ist das Bleiisotop 208Pb mit einer Masse von 207,9766521 u. Da makroskopische Stoffmengen so viele Atome enthalten, dass die Angabe ihrer Anzahl als natürliche Zahl unhandlich wäre, erhielt die Stoffmenge eine eigene Einheit, das Mol. Ein Mol sind etwa 6,022 · 1023 Atome (oder auch Moleküle oder andere Teilchen; die betrachtete Teilchenart muss immer mitgenannt werden). Die Masse von 1 Mol Atomen der Atommasse X u ist daher genau X g. Daher ist es in der Chemie üblich, Atommassen statt in u auch indirekt in g/mol anzugeben. Bildung und Zerfall. In welcher Art ein instabiler Atomkern zerfällt, ist für das jeweilige Radionuklid typisch. Bei manchen Nukliden können die (untereinander völlig gleichen) Kerne auch auf verschiedene Arten zerfallen, so dass mehrere Zerfallskanäle mit bestimmten Anteilen beteiligt sind. Die wichtigsten radioaktiven Zerfälle sind Die Energien der Strahlungen sind für das jeweilige Nuklid charakteristisch, ebenso wie die Halbwertszeit, die angibt, wie lange es dauert, bis die Hälfte einer Probe des Nuklids zerfallen ist. Durch Anlagerung eines Neutrons kann sich ein Kern in das nächstschwerere Isotop desselben Elements verwandeln. Durch den Beschuss mit Neutronen oder anderen Atomkernen kann ein großer Atomkern in mehrere kleinere Kerne gespalten werden. Einige schwere Nuklide können sich auch ohne äußere Einwirkung spontan spalten. Größere Atomkerne können aus kleineren Kernen gebildet werden. Dieser Vorgang wird Kernfusion genannt. Für eine Fusion müssen sich Atomkerne sehr nahe kommen. Diesem Annähern steht die elektrostatische Abstoßung beider Kerne, der sogenannte Coulombwall, entgegen. Aus diesem Grund ist eine Kernfusion (außer in bestimmten Experimenten) nur unter sehr hohen Temperaturen von mehreren Millionen Grad und hohen Drücken, wie sie im Inneren von Sternen herrschen, möglich. Die Kernfusion ist bei Nukliden bis zum Nickel-62 eine exotherme Reaktion, so dass sie im Großen selbsterhaltend ablaufen kann. Sie ist die Energiequelle der Sterne. Bei Atomkernen jenseits des Nickels nimmt die Bindungsenergie pro Nukleon ab; die Fusion schwererer Atomkerne ist daher endotherm und damit kein selbsterhaltender Prozess. Die Kernfusion in Sternen kommt daher zum Erliegen, wenn die leichten Atomkerne aufgebraucht sind. Aufbau und Bindungsenergie. Die Atomhülle besteht aus Elektronen, die aufgrund ihrer negativen Ladung an den positiven Atomkern gebunden sind. Sie wird oft auch als Elektronenhülle bezeichnet. Bei einem neutralen Atom beträgt die durchschnittliche Bindungsenergie der formula_14 Elektronen der Hülle etwa formula_15. Sie nimmt daher mit steigender Teilchenzahl erheblich zu, im Gegensatz zur durchschnittlichen Bindungsenergie pro Nukleon im Kern. Zur Erklärung wird angeführt, dass zwischen Nukleonen nur Bindungskräfte kurzer Reichweite wirken, die kaum über die benachbarten Teilchen hinausreichen, während die Hülle durch die elektrostatische Anziehungskraft gebunden ist, die als langreichweitige Wechselwirkung mit größerem Abstand vom Kern vergleichsweise schwach abnimmt. Abgesehen von der Masse, die zu über 99,95 % im Atomkern konzentriert ist, ist die Atomhülle für praktisch alle äußeren Eigenschaften des Atoms verantwortlich. Der Begriff Atommodell bezieht sich daher im engeren Sinn meist nur auf die Hülle (siehe Liste der Atommodelle). Ein einfaches Atommodell ist das Schalenmodell, nach dem die Elektronen sich in bestimmten Schalen um den Kern anordnen, in denen jeweils für eine bestimmte Anzahl Elektronen Platz ist. Allerdings haben diese Schalen weder einen bestimmten Radius noch eine bestimmte Dicke, sondern überlappen und durchdringen einander teilweise. Wesentliche Eigenschaften der Hülle sind oben unter Quantenmechanische Atommodelle und Erklärung grundlegender Atomeigenschaften dargestellt. In den nachfolgenden Abschnitten folgen weitere Details. Interpretation grundlegender Atomeigenschaften im Rahmen des Schalenmodells. Die Atomhülle bestimmt die Stärke und Abstandsabhängigkeit der Kräfte zwischen zwei Atomen. Im Abstandsbereich mehrerer Atomdurchmesser polarisieren sich die gesamten Atomhüllen wechselseitig, sodass durch elektrostatische Anziehung anziehende Kräfte, die Van-der-Waals-Kräfte, entstehen. Sie bewirken vor allem die Kondensation der Gase zu Flüssigkeiten, also einen Wechsel der Aggregatzustände. Die (näherungsweise) Inkompressibilität der Flüssigkeiten und Festkörper hingegen beruht darauf, dass alle Atome bei starker Annäherung einander stark abstoßen, sobald sich ihre Hüllen im Raum merklich überschneiden und daher verformen müssen. Außer im Fall zweier Wasserstoff­atome, die jeweils nur ein Elektron in der Hülle haben, spielt die elektrostatische Abstoßung der beiden Atomkerne dabei nur eine geringe Rolle. In einem mittleren Abstandsbereich zwischen dem Vorherrschen der schwach anziehenden Van-der-Waals-Kräfte und der starken Abstoßung kommt es zwischen zwei oder mehr zueinander passenden Atomhüllen zu einer besonders starken Anziehung, der chemischen Bindung. Bei Atomen bestimmter Elemente kann diese Anziehung zu einem stabilen Molekül führen, das aus Atomen in zahlenmäßig genau festgelegter Beteiligung und räumlicher Anordnung aufgebaut ist. Die Moleküle sind die kleinsten Stoffeinheiten der chemischen Verbindungen, also der homogenen Materialien in all ihrer Vielfalt. Vermittelt über die Hüllen ihrer Atome ziehen auch Moleküle einander an. Ein fester Körper entsteht, wenn viele Moleküle sich aneinander binden und dabei, weil es energetisch günstig ist, eine feste Anordnung einhalten. Ist diese Anordnung regelmäßig, bildet sich ein Kristallgitter. Infolge dieser Bindung ist der feste Körper nicht nur weitgehend inkompressibel wie eine Flüssigkeit, sondern im Unterschied zu dieser auch auf Zug belastbar und deutlich weniger leicht verformbar. Verbinden sich Atome metallischer Elemente miteinander, ist ihre Anzahl nicht festgelegt und es können sich nach Größe und Gestalt beliebige Körper bilden. Vor allem chemisch reine Metalle zeigen dann meist auch eine große Verformbarkeit. Verbindungen verschiedener Metalle werden Legierung genannt. Die Art der Bindung von Metallatomen erklärt, warum Elektronen sich fast frei durch das Kristallgitter bewegen können, was die große elektrische Leitfähigkeit und Wärmeleitfähigkeit der Metalle verursacht. Zusammengefasst ergeben sich aus der Wechselwirkung der Atomhüllen miteinander die mechanische Stabilität und viele weitere Eigenschaften der makroskopischen Materialien. Aufgrund des unscharfen Randes der Atomhülle liegt die Größe der Atome nicht eindeutig fest. Die als Atomradien tabellierten Werte sind aus der Bindungslänge gewonnen, das ist der energetisch günstigste Abstand zwischen den Atomkernen in einer chemischen Bindung. Insgesamt zeigt sich mit steigender Ordnungszahl eine in etwa periodische Variation der Atomgröße, die mit der periodischen Variation des chemischen Verhaltens gut übereinstimmt. Im Periodensystem der Elemente gilt allgemein, dass innerhalb einer Periode, also einer Zeile des Systems, eine bestimmte Schale aufgefüllt wird. Von links nach rechts nimmt die Größe der Atome dabei ab, weil die Kernladung anwächst und daher alle Schalen stärker angezogen werden. Wenn eine bestimmte Schale mit den stark gebundenen Elektronen gefüllt ist, gehört das Atom zu den Edelgasen. Mit dem nächsten Elektron beginnt die Besetzung der Schale mit nächstgrößerer Energie, was mit einem größeren Radius verbunden ist. Innerhalb einer Gruppe, also einer Spalte des Periodensystems, nimmt die Größe daher von oben nach unten zu. Dementsprechend ist das kleinste Atom das Heliumatom am Ende der ersten Periode mit einem Radius von 32 pm, während eines der größten Atome das Caesium­atom ist, das erste Atom der 5. Periode. Es hat einen Radius von 225 pm. Erklärung der Atomeigenschaften im Rahmen des Orbitalmodells. Die dem Schalenmodell zugrundeliegenden Elektronenschalen ergeben sich durch die Quantisierung der Elektronenenergien im Kraftfeld des Atomkerns nach den Regeln der Quantenmechanik. Um den Kern herum bilden sich verschiedene Atomorbitale, das sind unscharf begrenzte Wahrscheinlichkeitsverteilungen für "mögliche" räumliche Zustände der Elektronen. Jedes Orbital kann aufgrund des Pauli-Prinzips mit maximal zwei Elektronen besetzt werden, dem Elektronenpaar. Die Orbitale, die unter Vernachlässigung der gegenseitigen Abstoßung der Elektronen und der Feinstruktur theoretisch die gleiche Energie hätten, bilden eine Schale. Die Schalen werden mit der Hauptquantenzahl durchnummeriert oder fortlaufend mit den Buchstaben "K, L, M,"… bezeichnet. Genauere Messungen zeigen, dass ab der zweiten Schale nicht alle Elektronen einer Schale die gleiche Energie besitzen. Falls erforderlich, wird durch die Nebenquantenzahl oder Drehimpulsquantenzahl eine bestimmte Unterschale identifiziert. Sind die Orbitale, angefangen vom energetisch niedrigsten, so weit mit Elektronen besetzt, dass die gesamte Elektronenzahl gleich der Protonenzahl des Kerns ist, ist das Atom neutral und befindet sich im Grundzustand. Werden in einem Atom ein oder mehrere Elektronen in energetisch höherliegende Orbitale versetzt, ist das Atom in einem angeregten Zustand. Die Energien der angeregten Zustände haben für jedes Atom wohlbestimmte Werte, die sein Termschema bilden. Ein angeregtes Atom kann seine Überschussenergie abgeben durch Stöße mit anderen Atomen, durch Emission eines der Elektronen (Auger-Effekt) oder durch Emission eines Photons, also durch Erzeugung von Licht oder Röntgenstrahlung. Bei sehr hoher Temperatur oder in Gasentladungen können die Atome durch Stöße Elektronen verlieren (siehe Ionisationsenergie), es entsteht ein Plasma, so z. B. in einer heißen Flamme oder in einem Stern. Absorptionslinien im Spektrum der Sonne. Aus dem eingestrahlten Licht, das ein kontinuierliches Spektrum aufweist, wird bei bestimmten Wellenlängen Strahlung absorbiert, was die schwarzen Linien hervorruft. Da die Energien der Quanten der emittierten Strahlung je nach Atom bzw. Molekül und den beteiligten Zuständen verschieden sind, lässt sich durch Spektroskopie dieser Strahlung die Quelle im Allgemeinen eindeutig identifizieren. Beispielsweise zeigen die einzelnen Atome ihr elementspezifisches optisches Linienspektrum. Bekannt ist etwa die Natrium-D-Linie, eine Doppellinie im gelben Spektralbereich bei 588,99 nm und 589,59 nm, die auch in nebenstehender Abbildung mit D-1 bezeichnet wird. Ihr Aufleuchten zeigt die Anwesenheit von angeregten Natrium-Atomen an, sei es auf der Sonne oder über der Herdflamme bei Anwesenheit von Natrium oder seinen Salzen. Da diese Strahlung einem Atom auch durch Absorption dieselbe Energie zuführen kann, lassen sich die Spektrallinien der Elemente sowohl in Absorptions- als auch in Emissionsspektren beobachten. Diese Spektrallinien lassen sich auch verwenden, um Frequenzen sehr präzise zu vermessen, beispielsweise für Atomuhren. Obwohl Elektronen sich untereinander elektrostatisch abstoßen, können zusätzlich bis zu zwei weitere Elektronen gebunden werden, wenn es bei der höchsten vorkommenden Elektronenenergie noch Orbitale mit weiteren freien Plätzen gibt (siehe Elektronenaffinität). Chemische Reaktionen, d. h. die Verbindung mehrerer Atome zu einem Molekül oder sehr vieler Atome zu einem Festkörper, werden dadurch erklärt, dass ein oder zwei Elektronen aus einem der äußeren Orbitale eines Atoms (Valenzelektronen) unter Energiegewinn auf einen freien Platz in einem Orbital eines benachbarten Atoms ganz hinüberwechseln (Ionenbindung) oder sich mit einer gewissen Wahrscheinlichkeit dort aufhalten (kovalente Bindung durch ein bindendes Elektronenpaar). Dabei bestimmt die Elektronegativität der Elemente, bei welchem Atom sich die Elektronen wahrscheinlicher aufhalten. In der Regel werden chemische Bindungen so gebildet, dass die Atome die Elektronenkonfiguration eines Edelgases erhalten (Edelgasregel). Für das chemische Verhalten des Atoms sind also Form und Besetzung seiner Orbitale entscheidend. Da diese allein von der Protonenzahl bestimmt werden, zeigen alle Atome mit gleicher Protonenzahl, also die Isotope eines Elements, nahezu das gleiche chemische Verhalten. Nähern sich zwei Atome über die chemische Bindung hinaus noch stärker an, müssen die Elektronen eines Atoms wegen des Pauli-Prinzips auf freie, aber energetisch ungünstige Orbitale des anderen Atoms ausweichen, was einen erhöhten Energiebedarf und damit eine abstoßende Kraft nach sich zieht. Wechselwirkung zwischen Kern und Hülle. Mit großer Genauigkeit wird die Wechselwirkung zwischen Kern und Hülle schon durch den einfachen Ansatz beschrieben, in dem der Kern eine punktförmige Quelle eines elektrostatischen Felds nach dem Coulomb-Gesetz darstellt. Alle genannten Atommodelle beruhen hierauf. Aufgrund zusätzlicher Effekte, die in erweiterten Modellen behandelt werden, sind nur extrem kleine Korrekturen nötig, die unter dem Namen Hyperfeinstruktur zusammengefasst werden. Zu berücksichtigen sind hier drei Effekte: erstens die endliche Ausdehnung, die jeder Kern besitzt, zweitens eine magnetische Dipolwechselwirkung, wenn sowohl Kern als auch Hülle eine Drehimpulsquantenzahl von mindestens 1/2 haben, und drittens eine elektrische Quadrupolwechselwirkung, wenn beide Drehimpulsquantenzahlen mindestens 1 sind. Die endliche Ausdehnung des Kerns – verglichen mit einer theoretischen Punktladung – bewirkt eine schwächere Anziehung derjenigen Elektronen, deren Aufenthaltswahrscheinlichkeit bis in den Kern hineinreicht. Betroffen sind nur "s"-Orbitale (Bahndrehimpuls Null). Bei Atomen mittlerer Ordnungszahl liegt die Korrektur in der Größenordnung von 1 %. Die magnetischen Dipol- bzw. elektrischen Quadrupol-Momente von Hülle und Kern bewirken eine Kopplung mit der Folge, dass die Gesamtenergie eines freien Atoms je nach Quantenzahl seines Gesamtdrehimpulses äußerst geringfügig aufgespalten ist. Im H-Atom beträgt die Aufspaltung etwa 10−6 der Bindungsenergie des Elektrons (siehe 21-cm-Linie). Anschaulich gesprochen hängt die Energie davon ab, in welchem Winkel die Achsen des magnetischen Dipolmoments bzw. elektrischen Quadrupolmoments von Kern und Hülle zueinander stehen. Auch bei Atomen in Flüssigkeiten und Festkörpern treten diese Wechselwirkungen in entsprechend modifizierter Form auf. Trotz der Kleinheit der dadurch verursachten Effekte haben sie eine große Rolle in der Atom- und Kernforschung gespielt und sind in besonderen Fällen auch bei modernen Anwendungen wichtig. Indirekte Beobachtung. Indirekte Möglichkeiten, Atome zu erkennen, beruhen auf der Beobachtung der von ihnen ausgehenden Strahlung. So kann aus Atomspektren beispielsweise die Elementzusammensetzung entfernter Sterne bestimmt werden. Die verschiedenen Elemente lassen sich durch charakteristische Spektrallinien identifizieren, die auf Emission oder Absorption durch Atome des entsprechenden Elements in der Sternatmosphäre zurückgehen. Gasentladungslampen, die dasselbe Element enthalten, zeigen diese Linien als Emissionslinien. Auf diese Weise wurde z. B. 1868 Helium im Spektrum der Sonne nachgewiesen – über 10 Jahre bevor es auf der Erde entdeckt wurde. Ein Atom kann ionisiert werden, indem eines seiner Elektronen entfernt wird. Die elektrische Ladung sorgt dafür, dass die Flugbahn eines Ions von einem Magnetfeld abgelenkt wird. Dabei werden leichte Ionen stärker abgelenkt als schwere. Das Massenspektrometer nutzt dieses Prinzip, um das Masse-zu-Ladung-Verhältnis von Ionen und damit die Atommassen zu bestimmen. Die Elektronenenergieverlustspektroskopie misst den Energieverlust eines Elektronenstrahls bei der Wechselwirkung mit einer Probe in einem Transmissionselektronenmikroskop. Beobachtung einzelner Atome. Eine direkte Abbildung, die einzelne Atome erkennen lässt, wurde erstmals 1951 mit dem Feldionenmikroskop (oder Feldemissionsmikroskop) erzielt, das heute auch im Physikunterricht in der Schule gezeigt werden kann. Auf einem kugelförmigen Bildschirm, in dessen Mittelpunkt sich eine extrem feine Nadelspitze befindet, erscheint ein etwa millionenfach vergrößertes Bild, in dem die einzelnen Atome in der Spitze nebeneinander als Lichtpunkte zu erkennen sind. Das Bild entsteht in Echtzeit und erlaubt z. B. die Betrachtung der Wärmebewegung einzelner Fremdatome auf der Spitze. Auch das Rastertunnelmikroskop ist ein Gerät, das einzelne Atome an der Oberfläche eines Körpers sichtbar macht. Es verwendet den Tunneleffekt, der es Teilchen erlaubt, eine Energiebarriere zu passieren, die sie nach klassischer Physik nicht überwinden könnten. Bei diesem Gerät tunneln Elektronen zwischen einer elektrisch leitenden Spitze und der elektrisch leitenden Probe. Bei Seitwärtsbewegungen zur Abrasterung der Probe wird die Höhe der Spitze so nachgeregelt, dass immer derselbe Strom fließt. Die Bewegung der Spitze bildet die Topographie und Elektronenstruktur der Probenoberfläche ab. Da der Tunnelstrom sehr stark vom Abstand abhängt, ist die laterale Auflösung viel feiner als der Radius der Spitze, manchmal atomar. Eine tomographische Atomsonde erstellt ein dreidimensionales Bild mit einer Auflösung unterhalb eines Nanometers und kann einzelne Atome ihrem chemischen Element zuordnen. Arzt. Ein Arzt beschäftigt sich mit der Vorbeugung (Prävention), Erkennung (Diagnose), Behandlung (Therapie) und Nachsorge von Krankheiten und Verletzungen (Patientenversorgung). Die Vielfalt der Krankheiten und Behandlungsmöglichkeiten hat in der Humanmedizin zu einer großen Anzahl von Fachgebieten und weiteren Differenzierungen geführt (→ Liste medizinischer Fachgebiete). Die Zahnmedizin nimmt eine Sonderstellung ein. Bezeichnungen. Die Bezeichnung "Arzt" (mittelhochdeutsch "arzât", neuniederländisch "arts") zog während des Mittelalters aus der lateinischen Gelehrtensprache ins Deutsche ein, und zwar über die latinisierte Variante "archiater" des griechischen ' ("archiatros"; klassische Aussprache) „Oberarzt, Leibarzt“, einer Zusammensetzung aus ' ("arche"; kl. Ausspr.) „Herrschaft, Kommando“ und ' ("iatros"; kl. Ausspr.) „Arzt“. In vielen fachsprachlichen Komposita tritt das ursprüngliche griechische Wort ' bzw. die latinisierte Form "-iater" als Wortbestandteil auf: "iatrogen" „durch ärztliches Handeln verursacht“; "Psychiater" „Seelenarzt“ usw. Über deutsche Vermittlung gelang das Wort in andere Sprachen, so lettisch "ārsts", estnisch "arst". Die germanische Bezeichnung für den Heilberuf (althochdeutsch "lâchi") ist beispielsweise im dänischen "læge", im schwedischen "läkare", im englischen "leech" („Blutegel“) oder im deutschen Familiennamen "Lachmann" erhalten und hat sich in andere Sprachen verbreitet, z. B. finnisch "lääkäri", gälisch "dochtúir leighis". Im polnischen "lekarz" und tschechischen "lékař" ist die germanische Wurzel mit einem slawischen Suffix ("-arz", "-ař") verbunden. Die lateinische Bezeichnung "medicus" „Arzt, Wundarzt“ oder eine davon abgeleitete Form findet sich vor allem in den romanischen Sprachen, etwa italienisch "medico", spanisch/portugiesisch "médico", rumänisch "medic", französisch "médecin", aber unter romanischem Einfluss auch in anderen Sprachen: baskisch "mediku", englisch "medic". In vielen Sprachen wird der Arzt umgangssprachlich nach seinem zumeist geführten akademischen Grad "Doktor" genannt. Geschichte. Die Funktion des Arztes ist eine der ältesten der Menschheit. Medizingeschichtlich gesehen entstand der Arztberuf aus dem Stand der Heilkundigen, die schon bei den Priestern des Altertums zu finden waren. Gesundheit und Krankheitsverhalten. Während die körperliche Gesundheit von männlichen Ärzten mit derjenigen der allgemeinen männlichen Bevölkerung vergleichbar zu sein scheint, scheint die körperliche Gesundheit von Ärztinnen besser zu sein als die der allgemeinen weiblichen Bevölkerung. Hinsichtlich der psychischen Gesundheit fällt auf, dass Depressionen und Suchterkrankungen bei Ärzten häufiger vorkommen als in der restlichen Bevölkerung. Ein weiteres bei Medizinern häufig auftretendes Krankheitsbild ist das Burnout-Syndrom, das bereits bei Medizinstudenten in einer erhöhten Rate nachgewiesen werden kann. Mehrere Studien zeigten eine gegenüber der allgemeinen Bevölkerung erhöhte Suizidrate unter Ärzten. Das gegenüber der Normalbevölkerung erhöhte relative Risiko, einen Suizid zu begehen, lag für Ärzte zwischen 1,1–3,4 und für Ärztinnen zwischen 2,5–3,7. Da in den Studien meist nur eine kleine Zahl von Suiziden untersucht wurde, waren die Vertrauensbereiche des wahren Wertes der Risikoerhöhung weit. Es wird vermutet, dass eine beträchtliche Anzahl von Selbstmorden nicht erfasst werden, da diese fälschlicherweise als Vergiftungen oder Unfälle deklariert werden. Von den verschiedenen beruflichen Spezialisierungen sind insbesondere Psychiater, Anästhesisten und Allgemeinmediziner von einer erhöhten Suizidrate betroffen. Als Ursachen des erhöhten Suizidrisikos werden verschiedene Faktoren diskutiert. Ein Persönlichkeitsprofil mit zwanghaften Zügen kann infolge der beruflichen Anforderungen zu einer depressiven Störung führen. Die Schwierigkeiten, Familie und Karrierewunsch miteinander zu vereinbaren, können insbesondere bei Ärztinnen zu Erschöpfung und Depression führen. Suchterkrankungen (wie beispielsweise Alkohol-, Drogen- und Medikamentenabhängigkeit), die bei Ärzten häufiger auftreten, gehen ihrerseits häufiger mit Depressionen und einer erhöhten Suizidrate einher. Dieses für Ärzte und Ärztinnen festgestellte Risikoprofil ist berufsunabhängig und trifft für die meisten Suizidenten zu. Psychische Probleme korrelieren häufig mit Zeitdruck und mangelnder Autonomie am Arbeitsplatz sowie belastenden Patient-Arzt-Beziehungen. Ärzte werden seltener krankgeschrieben und zeigen eine mangelhafte Inanspruchnahme medizinischer Versorgungsleistungen. Häufig behandeln sich Ärzte selbst. Die eigenständige Behandlung eigener psychischer Störungen ist jedoch häufig ineffektiv. Schutzpatron. Die Heiligen Zwillingsbrüder Cosmas und Damian gelten wegen ihres Arztberufs unter anderem auch als Schutzpatrone der Ärzte. Ein weiterer Schutzpatron ist der heilige Pantaleon, einer der Vierzehn Nothelfer. Rechtliche Einordnung des Berufes. Der Arzt gehört in Deutschland zu den Freien Berufen und ist ein klassischer Kammerberuf. Ärzte unterliegen einer staatlichen Überwachung der Zulassung (Approbation in Deutschland, s. u. in anderen EU-Ländern) und unter anderem dem Arztwerberecht, welches weitgehende Einschränkungen in der Publikation und Veröffentlichungen bedeutet. Ärzte haften ihren Patienten zwar nicht auf Erfolg ihres Handelns, können ihnen aber unter dem Gesichtspunkt der Arzthaftung zum Schadenersatz verpflichtet sein. Die freie Ausübung der Heilkunde ist in Deutschland nur approbierten Ärzten erlaubt, mit festgelegten Einschränkungen dürfen auch Heilpraktiker Kranke behandeln, wobei die klar festgelegten Grenzen einzuhalten sind. Ausnahmsweise werden spezielle Bereiche der Diagnostik und Therapie auch (meist auf Veranlassung von Ärzten) von Angehörigen der Gesundheitsfachberufe durchgeführt. Ab dem Zeitpunkt der ärztlichen Approbation darf der Arzt die gesetzlich geschützte Bezeichnung „Arzt“ führen und erhält mit ihr die staatliche Erlaubnis zur eigenverantwortlichen und selbstständigen ärztlichen Tätigkeit. Die bundesweit einheitliche Approbationsordnung regelt das zuvor erfolgreich abzuleistende mindestens sechsjährige Medizinstudium bezüglich der Dauer und der Inhalte der Ausbildung in den einzelnen Fächern, sowie der Prüfungen. Das Studium der Medizin umfasst u.a. drei Staatsexamina sowie 1 Jahr praktische Tätigkeit (sog. Praktisches Jahr). Von Oktober 1988 bis Oktober 2004 war zur Erlangung der Vollapprobation zusätzlich eine 18-monatige Tätigkeit als „Arzt im Praktikum“ unter Aufsicht eines approbierten Arztes notwendig. Meist arbeitet ein approbierter Arzt für mehrere Jahre als Assistenzarzt an einer von der Landesärztekammer anerkannten Weiterbildungsstätte (z. B. Klinik oder Praxis), um sich auf einem oder mehreren Spezialgebieten der Medizin weiterzubilden und evtl. nach zusätzlich mindestens 5-jähriger Weiterbildungszeit einen Facharzttitel zu erwerben. Einzelheiten dazu sind in den Weiterbildungsordnungen der Landesärztekammern geregelt. Niedergelassene Ärzte arbeiten in freier Praxis, gegebenenfalls auch mit mehreren Ärzten in einer Berufsausübungsgemeinschaft (früher: Gemeinschaftspraxis) oder Praxisgemeinschaft (s. a. Vertragsarztrechtsänderungsgesetz). Honorarärzte arbeiten auf Honorarbasis für verschiedene niedergelassene Ärzte oder Kliniken. Jeder Arzt ist Pflichtmitglied der Ärztekammer (Landesärztekammer), in deren Gebiet er seine ärztliche Tätigkeit ausübt. Im Jahr 2012 waren in Deutschland bei den Landesärztekammern 459.021 Ärzte gemeldet. Zur Behandlung von Versicherten der Gesetzlichen Krankenversicherungen benötigt der Arzt eine Zulassung (Arzt in eigener Praxis) oder Ermächtigung (als Arzt in einem Krankenhaus oder ähnlicher Institution) und ist dann auch Pflichtmitglied der Kassenärztlichen Vereinigung seines Niederlassungsbezirks. Die Kassenärztliche Zulassung besitzen 135.388 Ärzte (Stand 31. Dezember 2008): 58.095 Hausärzte und 77.293 Fachärzte. In den Kliniken sind 146.300 Ärzte beschäftigt. Ende 2013 arbeiteten 35.893 ausländische Ärzte in Deutschland. 2013 betrug die Zahl der berufstätigen Ärzte in Deutschland 357.252. Strafrechtlich sind ärztliche Eingriffe der Körperverletzung gleichgesetzt. Diese ist nicht strafbar, wenn die Einwilligung der behandelten Person nach einer Aufklärung vorliegt und die Handlung auf dem Stand des aktuellen medizinischen Wissens vorgenommen wird (§§ 223 ff StGB). Ausnahmen bestehen, wenn der Patient aufgrund seines Zustandes (z. B. Bewusstlosigkeit) nicht in der Lage ist, seine Entscheidung mitzuteilen, und durch die Unterlassung des Eingriffs die Gefahr von negativen gesundheitlichen Folgen oder sogar dem Tod des Patienten besteht. Zudem können eingeschränkt- oder nichteinwilligungsfähige Personen, wie z. B. Kinder oder in bestimmten Fällen seelisch Erkrankte, auch gegen ihren Willen behandelt werden. Hierfür existieren strenge rechtliche Regelungen und Verfahrenswege, bei welchen neben dem Arzt auch andere Institutionen, z. B. Amtsgericht oder gesetzlicher Betreuer, an der Entscheidung mitwirken. Aus Sicht des Bundesgerichtshofs (BGH) zählen Kassenärzte nicht als Beauftragte einer Krankenkasse oder als Amtsträger. Sie machen sich daher nicht im Sinne des Bestechungsparagraphs 299 des Strafgesetzbuches strafbar, wenn sie Geschenke von Pharmaunternehmen bzw. -vertretern annehmen. Zu diesem Urteil ist der BGH im März 2012 gekommen. Kompetenzen und Pflichten. Die Verordnung von rezeptpflichtigen Arzneimitteln und die meisten invasiven Maßnahmen sind in Deutschland ausnahmslos dem approbierten Arzt vorbehalten. Hierbei ist er persönlich zur Einhaltung des anerkannten wissenschaftlichen Standes und ethischer Vorgaben verpflichtet. Weiter unterliegen Ärzte speziellen Regelungen, wie dem Berufs- und Standesrecht, welches auch an die Genfer Konvention anknüpft. Insbesondere ist auch im Strafrecht die Einhaltung der ärztlichen Schweigepflicht nach § 203 StGB festgehalten. Behandlungszeit. Laut einer Studie des Instituts für Qualität und Wirtschaftlichkeit im Gesundheitswesen haben deutsche Ärzte trotz längerer Arbeitszeiten je Patient die kürzeste Sprechzeit in Europa. Sie liegt 30 % niedriger als der europäische Durchschnitt. Einkommen. Die Einkommen von Ärzten in Deutschland variieren stark, da das Spektrum medizinischer Tätigkeiten sehr breit gefächert ist. Auch finden sich unter Ärzten erhebliche Unterschiede bei der Arbeitszeit, insbesondere zwischen klinisch tätigen (bspw. 24 Std.-Schichten sowie eine hohe Anzahl an Überstunden) und niedergelassenen (hoher Anteil „nicht-medizinischer“-Tätigkeit aufgrund der Selbständigkeit). Nach Schätzungen des GKV-Spitzenverbandes wird das Durchschnittseinkommen der niedergelassenen Ärzte 2010 auf 164.000 Euro brutto steigen. Um einem Mangel an Landärzten entgegenzuwirken, will die Bundesregierung in einem neuen „Versorgungsgesetz“ das Einkommen von Landärzten erhöhen. Außendarstellung und Werbung. Neben den strengen rechtlichen Vorgaben zur Ausübung seines Berufs ist der Arzt auch bei der Außendarstellung bzw. Werbung zu seinen Leistungen und seiner Praxis mit umfangreichen Verordnungen und Gesetzen konfrontiert. Im Unterschied zu anderen Branchen ist Ärzten anpreisende oder vergleichende Werbung absolut verboten. Seit dem 105. Deutschen Ärztetag sind sachliche, berufsbezogene Informationen über ihre Tätigkeit gestattet. Hauptkriterium ist dabei das schützenswerte Interesse des mündigen Patienten. Statistiken. Ende 2006 waren in Deutschland ca. 407.000 Ärzte gemeldet, davon sind 95.700 ohne ärztliche Tätigkeit (siehe Abb.). Die Kassenärztliche Zulassung besitzen 59.000 Hausärzte und 60.600 Fachärzte. In den Kliniken sind 148.300 Ärzte beschäftigt. Im Jahr 2011 wurden in Deutschland rund 342.100 berufstätige Ärzte und rund 107.300 Ärzte ohne ärztliche Tätigkeit gezählt. Auf durchschnittlich 239 Einwohner kam ein berufstätiger Arzt. Die chronologische Entwicklung kann aus der folgenden Tabelle und der Abbildung abgelesen werden. Entwicklung der Ärzteschaft in der BRD 1996–2006 Österreich. In Österreich ist man mit der Sponsion zunächst "Doktor der gesamten Heilkunde" (Doctor medicinae universae/Dr. med. univ.). Mittlerweile handelt es sich entgegen der Bezeichnung nicht um einen Doktorgrad, sondern um einen Diplomgrad ähnlich dem Magister oder dem Diplomingenieur. Vor dem Wintersemester 2002/03 war das Medizinstudium in Österreich ein Doktoratsstudium, welches auch Übergangsregelungen kannte. Der eigentliche Doktorgrad der Medizin ("Doctor scientae medicinae" bzw. "Dr. scient. med.") kann im Anschluss an das Diplomstudium in einem dreijährigen Doktoratsstudium erworben werden. Selbständig als Arzt tätig werden darf man nur, wenn für drei Jahre im Rahmen des „Turnus“ verschiedene (definierte) Disziplinen durchlaufen wurden und die Arbeit vom jeweiligen Abteilungsvorstand positiv bewertet wurde. Danach ist eine weiter abschließende Prüfung abzulegen. Damit hat man das „jus practicandi“ erworben, also die Berechtigung zur selbständigen Berufsausübung als Arzt für Allgemeinmedizin. Alternativ kann sofort nach der Sponsion die (meist sechsjährige) Ausbildung zu einem Facharzt erfolgen, nach der wiederum eine Prüfung abzulegen ist. Viele Fachärzte absolvieren den Turnus vor Beginn der Ausbildung ganz oder teilweise. Es hat sich in Österreich eingebürgert, die Ausbildung zum Allgemeinmediziner zuvor abzuleisten. Viele Krankenhäuser nehmen nur Assistenzärzte mit abgeschlossener Turnusausbildung in Dienst, da diese einen Nacht- oder Wochenenddienst alleine ableisten dürfen. Ärzte aus anderen EU-Staaten können um Anerkennung als "approbierte Ärzte" ansuchen. Am 14. Dezember 2010 hat die EU-Kommission in ihrem Amtsblatt C377/10 eine Änderungsmitteilung für die EU-Richtlinie 2005/36, Anhang 5.1.1. veröffentlicht, wonach ab diesem zeitpunkt sämtliche Absolventen des österreichischen Medizinstudiums bereits mit der Promotion ihr Grunddiplom abgeschlossen haben und somit innerhalb des gesamten EU- und EWR-Raumes sowie der Schweiz und Liechtenstein eine selbständige Tätigkeit bzw. Ausbildung zum Facharzt unter denselben Voraussetzungen wie einheimische Mediziner aufnehmen dürfen. Bis dahin hatten Mediziner aus Österreich erst mit dem Abschließen der Ausbildung zum Allgemeinmediziner bzw. Facharzt ein Anrecht auf automatische Anrechnung ihres Diploms in den übrigen Mitgliedsstaaten. Der (niedergelassene) Arzt gehört in Österreich zu den Freien Berufen (Berufe von öffentlicher Bedeutung). Schweiz. In der Schweiz ist man nach dem mit dem Staatsexamen abgeschlossenen sechsjährigen Studium zunächst eidgenössisch diplomierter Arzt und als solcher zur Arbeit als Assistenzarzt in Krankenhäusern und Arztpraxen befugt. Die Weiterbildung zum zur selbständigen Berufsausübung befugten Facharzt dauert je nach Fach zwischen drei („praktischer Arzt“) und 8 Jahren nach dem Studienabschluss. Für einen Facharzttitel muss zudem eine Facharztprüfung abgelegt werden. Danach darf sich der Arzt „Facharzt für FMH“ nennen. Die Erlaubnis zur Praxiseröffnung ist kantonal geregelt, die Zulassung zur Berufsausübung zulasten der Krankenkassen wird vom Krankenkassenzentralverband Santésuisse erteilt, ist aber nur eine Formalität. Aktuell besteht aber ein Praxiseröffnungs-Stopp, welcher die Berufsausübung zulasten der Krankenkassen einschränkt. Lediglich bei Bedarfsnachweis, z.B. bei einer Praxisübernahme, ist eine Zulassung möglich. Die jeweilige Fachgesellschaft prüft, ob jeder Facharzt seiner Fortbildungspflicht (je nach Fachgebiet 60–100 Stunden pro Jahr) nachkommt. Seit dem 1. Januar 2005 gilt für die Assistenzärzte und Oberärzte eine durch das landesweit gültige Arbeitszeitgesetz begründete maximale Wochenarbeitszeit von 50 Stunden. Bis dahin waren Verträge mit der Formulierung „Die Arbeitszeit richtet sich nach den Bedürfnissen des Spitals“ üblich, wodurch Arbeitszeiten oft über 60 und 70 Stunden pro Woche, ohne finanziellen Ausgleich zu leisten waren. Die Entgelte der Assistenzärzte liegen deswegen auf dem Niveau der Pflegenden im oberen Kader (Pflegedienstleitungen). Die Leitenden Ärzte und Chefärzte sind finanziell in der Gesamtvergütung deutlich höher gestellt. Sie sind aus dem Arbeitszeitgesetz ausgegliedert. Anthropologie. Anthropologie („Mensch“, und "-logie:" Menschenkunde) ist die Wissenschaft vom Menschen. Sie wird im deutschen Sprachraum und in vielen europäischen Ländern vor allem als Naturwissenschaft verstanden. Die "naturwissenschaftliche" oder "physische Anthropologie" betrachtet den Menschen im Anschluss an die Evolutionstheorie von Charles Darwin als biologisches Wesen. Dieser naturalistischen Betrachtung des Menschen stehen verschiedene andere Ansätze gegenüber, beispielsweise die philosophische Anthropologie. Hier wird der Mensch nicht nur als Objekt, sondern auch als Subjekt wissenschaftlich untersucht. Dabei geht es unter anderem um qualitative Eigenschaften wie die Personalität, die Entscheidungsfreiheit und die Möglichkeit zur Selbstbestimmung. Die Bezeichnung "Anthropologie" geht zurück auf den deutschen Philosophen, Arzt und Theologen Magnus Hundt (1449–1519). In der deutschen Wissenschaftspolitik ist die Anthropologie als Kleines Fach eingestuft. Biologische Anthropologie. Die biologische Anthropologie ist mit ihren Teilgebieten Primatologie, Evolutionstheorie, Paläoanthropologie, Bevölkerungsbiologie, Industrieanthropologie, Genetik, Sportanthropologie, Wachstum (Auxologie), Konstitution und Forensik ein Fachbereich der Humanbiologie. Ihr Ziel ist die Beschreibung, Ursachenanalyse und evolutionsbiologische Interpretation der Verschiedenheit biologischer Merkmale der Hominiden (Familie der Ordnung Primaten, die fossile und rezente Menschen einschließt). Ihre Methoden sind sowohl beschreibend als auch analytisch. Institutionen im deutschsprachigen Raum gibt es an Universitäten und an Museen in Tübingen, Kiel, Hamburg, Berlin, Göttingen, Jena, Gießen, Mainz, Ulm, Freiburg im Breisgau, München, Zürich und Wien. Meist ist dort die Bezeichnung nur „Anthropologie“, Zusätze wie „biologisch“ wurden in jüngerer Zeit notwendig, weil der konkurrierende US-amerikanische Begriff der "anthropology" auch hier bekannt ist. Forensische Anthropologie. Die forensische Anthropologie ist eine der drei gerichtlichen Wissenschaften vom Menschen, neben der Rechtsmedizin und der forensischen Odontologie. Die forensische Anthropologie dient mit den Mitteln der Anthropologie bei der Aufklärung von Verbrechen. Forensische Anthropologen haben vor allem mit der Identifikation von Bankräubern, Schnellfahrern etc. zu tun, dann auch häufig mit stark verwesten oder vollständig skelettierten Leichen. Nicht selten sind sie die letzte Hoffnung zur Aufklärung eines Verbrechens. In Deutschland gibt es eine starke institutionelle Dominanz der Rechtsmedizin, aber gerade das verhindert manchmal den Zugang zu der eigenständigen Kompetenz der Anthropologie. Sozialanthropologie. Die Sozialanthropologie gilt als Wissenschaft der kulturellen und sozialen Vielfalt – oder allgemeiner als „Wissenschaft vom Menschen in der Gesellschaft“. Sie analysiert die soziale Organisation des Menschen. Im deutschen Sprachraum war der Begriff „Sozialanthropologie“ eine seit den 1960er Jahren gebrauchte Bezeichnung für die britische "social anthropology" oder die französische "anthropologie sociale", wurde dann aber zugunsten der Fachbezeichnung „Ethnosoziologie“ aufgegeben (Fachbereich der Ethnologie). In den letzten Jahren ist jedoch eine Renaissance des Anthropologie-Begriffs zu beobachten, die einer durch Transnationalisierungs- und Globalisierungs­prozesse veränderten Forschungslandschaft Rechnung tragen möchte. Kulturanthropologie. Die Kulturanthropologie ist eine empirisch gestützte Wissenschaft von der Kultur (im Sinne von „menschliche Kultur“). Sie entwickelte sich im 20. Jahrhundert aus der Volkskunde, hat ihren Schwerpunkt im Gegensatz zu dieser aber in interkulturellen, ethnologischen und soziologischen Themen und Modellen. Unter den anthropologischen Fachrichtungen nimmt die Kulturanthropologie eine Mittelposition zwischen den biologisch und den philosophisch orientierten Richtungen ein; sie ist in ihrem Themenspektrum am weitesten gefasst. Im deutschen Sprachraum hat sich bisher keine genauere Definition des Forschungsgegenstandes durchgesetzt. In den USA dagegen bezeichnet "cultural anthropology" die Ethnologie (Völkerkunde). Rechtsanthropologie. Die Rechtsanthropologie bildet eine eigenständige Unterform der Kulturanthropologie. Sie untersucht Inhalt und Funktionsweisen rechtlicher Strukturen des Menschen unterschiedlicher kultureller Traditionen von Stämmen und Völkern (siehe auch Rechtsethnologie). Zudem bezeichnet dieser Begriff eine rechtswissenschaftliche Forschungsrichtung, die sich den naturalen Grundkonstanten von Gesetzgebung und Rechtsprechung verschrieben hat. Dabei beschäftigt sich die Rechtsanthropologie vorwiegend mit dem (westlich-demokratischen) „Menschenbild der Verfassung“, das demgegenüber vom im Willen freien und eigenverantwortlich handelnden Menschen ausgeht. Dafür wählt sie zumeist einen pragmatisch-dualen Ansatz. Der Begriff Kultur, gelegentlich auch der politischere Begriff der Zivilisation, beschreibt dann die sozial-reale Welt, in der der Mensch beide Sichtweisen vereint. Philosophische Anthropologie. Die philosophische Anthropologie ist die Disziplin der Philosophie, die sich mit dem Wesen des Menschen befasst. Die moderne philosophische Anthropologie ist eine sehr junge philosophische Fachrichtung, die erst im frühen 20. Jahrhundert als Reaktion auf den Verlust von Weltorientierung entstand. Historische Anthropologie. Historische Anthropologie bezeichnet einerseits die anthropologische Forschung in der Geschichtswissenschaft, andererseits eine transdisziplinäre Forschungsrichtung, die die historische Veränderlichkeit von Grundphänomenen des menschlichen Daseins untersucht. Dabei bezieht sie die Geschichtlichkeit ihrer Blickrichtungen und methodischen Herangehensweisen sowie die Geschichtlichkeit ihres Gegenstandes, also das Erscheinungsbild des Menschen in den unterschiedenen Epochen, aufeinander. Theologische Anthropologie. Die theologische Anthropologie als Teilbereich der Systematischen Theologie deutet den Menschen aus christlich-theologischer Sicht. Dabei beschäftigt sie sich besonders mit dem Wesen des Menschen und der Bestimmung des Menschen vor Gott. Im Unterschied dazu untersucht die Religionsethnologie als Fachgebiet der Ethnologie (Völkerkunde) die Religionen bei den weltweit rund 1300 ethnischen Gruppen und indigenen Völkern, in Abgrenzung zur Religionssoziologie vor allem bei (ehemals) schriftlosen Kulturen. Industrieanthropologie. Die Industrieanthropologie als Disziplin der Anthropologie untersucht die Gebrauchstauglichkeit ("Usability") und Benutzerfreundlichkeit von Arbeitsplätzen, von Bedienelementen sowie von Produkten. Anthropologie in den Sozialwissenschaften. In den Sozialwissenschaften weit verbreitet ist die Vorstellung, dass der Mensch seinem Wesen nach in seinen Antrieben und Bedürfnissen unbestimmt ist, weshalb erst in Vergesellschaftungsprozessen eine Orientierung und Stabilisierung des Verhaltens und Antriebslebens entstehen kann. Dieses Menschenbild bildet die allgemeine anthropologische Voraussetzung für die Analyse von sozialen Prozessen, so etwa bei Karl Marx, Max Weber, George Herbert Mead oder Talcott Parsons. Darüber hinaus gibt es in den Sozialwissenschaften zwei klassische Menschenbilder, die als analytische und idealtypische Modelle fungieren: der homo oeconomicus der Wirtschaftswissenschaften und der homo sociologicus der Soziologie. Eine „realistische“ Variante des individualistischen "homo oeconomicus" ist das RREEMM-Modell des Menschen, allerdings wird in der sozialwissenschaftlichen Theoriebildung wegen Operationalisierungsproblemen auch weiterhin überwiegend auf die einfacheren Modelle zurückgegriffen. Das Konzept der reflexiven Anthropologie, das Gesa Lindemann im Anschluss an die historisch-reflexive Anthropologie Helmuth Plessners entwickelt hat, sieht ein neuartiges Verhältnis von Anthropologie und Soziologie vor. Anthropologie bzw. anthropologische Annahmen werden nicht als sozialtheoretisches Fundament begriffen, sondern zum Gegenstand der Beobachtung gemacht. Bei diesem Ansatz geht es um die Bearbeitung der Frage, wie in Gesellschaften der Kreis sozialer Personen begrenzt wird und welche Funktion der Anthropologie in der Moderne zukommt. Psychologische Anthropologie. In dem verwendeten Schema kann die Psychologie des Menschen nicht gut untergebracht werden, denn die Psychologie vereint geisteswissenschaftliche, biologische, verhaltens- und sozialwissenschaftliche Konzepte und Methoden. Als Wissenschaft vom Erleben und Verhalten des Menschen einschließlich der biologischen bzw. neurowissenschaftlichen Grundlagen ist die Psychologie von vornherein interdisziplinär ausgerichtet. Wegen dieses umfassenden Blicks auf den Menschen kann die empirische Psychologie in ein besonderes Spannungsverhältnis zur Philosophischen Anthropologie geraten, die ebenfalls einen umfassenden theoretischen Ansatz hat, jedoch die empirischen Humanwissenschaften kaum noch zu integrieren vermag. Wichtige Themen der Psychologischen Anthropologie sind u. a. das Menschenbild, die Persönlichkeitstheorien, die Grundlagen von Motiven, Emotionen in der Neurobiologie und Psychophysiologie, die Beiträge der Kognitionswissenschaft, Sozialpsychologie und Kulturpsychologie, alle Bereiche der Angewandten Psychologie und so weiter. Pädagogische Anthropologie. Die pädagogische Anthropologie ist der Teilbereich der Pädagogik, der sich mit dem Ertrag anthropologischer Fragen, den Zugangsweisen und den Ergebnissen innerhalb der Pädagogik befasst. Grob lassen sich hier zwei Richtungen unterscheiden: Die "Realanthropologie" widmet sich der empirischen Betrachtung der Wirklichkeit des Menschen unter dem Fokus, der sich aus der Pädagogik ergibt. Die "Sinnanthropologie" fragt nach dem Sinn und den Zielen menschlichen Handelns, die in den pädagogischen Kontext eingearbeitet werden. Die Sinnanthropologie weist so besondere Bezüge zur Bildungstheorie auf, indem sie aus einem je spezifischen Menschenbild Bildungsansprüche ableitet. Sie weist innerhalb der verschiedenen Anthropologien eine besondere Nähe zur philosophischen und theologischen Anthropologie auf. Die Realanthropologie steht besonders der biologischen, daneben auch der philosophischen Anthropologie nahe. Die Einteilung setzt sich fort in der Unterscheidung zwischen integrativen und philosophischen Ansätzen. Die "integrativen" Ansätze versuchen vor allem, anthropologische Erkenntnisse verschiedener Teildisziplinen (insbesondere der Biologie, der Soziobiologie und so weiter) für pädagogische Fragen nutzbar zu machen. Vertreter dieses Ansatzes sind unter anderem Heinrich Roth und Annette Scheunpflug. Der "philosophische" Ansatz hat sich in verschiedenen Richtungen ausdifferenziert. So besteht Otto Friedrich Bollnows Ansatz darin, anthropologische Fragen (beispielsweise nach dem Wesen des Menschen und seiner Bestimmung) für pädagogische Zusammenhänge nutzbar zu machen. Ähnlich wie andere Autoren orientierte er sich in seinen Arbeiten aber auch an der Phänomenologie. Er versuchte also nicht, aus der Philosophie (oder etwa der Biologie) ein Menschenbild zu gewinnen und es pädagogisch auszuwerten, sondern widmete sich dem pädagogischen Handeln und darin auftretenden Phänomenen wie Krise oder Begegnung unmittelbar, um sie als Bestimmungsgrößen des Menschen zu reflektieren. Der Mensch kommt bei diesen Untersuchungen im Hinblick auf Erziehung in drei Rollen vor: als Erziehender, als Zögling und als Erzieher. In der neueren pädagogischen Anthropologie wird zum einen der integrative Ansatz fortgeführt (beispielsweise auch in der Betrachtung neuerer humanmedizinischer Ergebnisse für Pädagogik). Die philosophische Anthropologie wird heute verstärkt als historische pädagogische Anthropologie fortgesetzt, indem reflektiert wird, dass anthropologische Kenntnisse sowohl auf bestimmte Menschen in bestimmten Epochen bezogen als auch aus einer je spezifischen historischen Position heraus gewonnen werden und deshalb keine überzeitlich allgemeine Gültigkeit beanspruchen können. Kybernetische Anthropologie. Kybernetische Anthropologie bezeichnet den Versuch der begrifflichen Kopplung von Anthropologie und Kybernetik mit dem Vorhaben, den Gegensatz zwischen Natur- und Geisteswissenschaften zu überwinden. Die Cyberanthropologie ist ein neueres Fachgebiet der Ethnologie (Völkerkunde) oder Sozialanthropologie und untersucht transnational zusammengesetzte Online-Gemeinschaften unter Berücksichtigung kybernetischer Perspektiven. Anthropologie als Oberbegriff und Dachwissenschaft. Manchmal wird „Anthropologie“ als Oberbegriff für mehrere der oben genannten Einzel- und Humanwissenschaften aufgefasst. Insbesondere in den USA gibt es dementsprechende Bestrebungen, biologische Anthropologie, Kulturanthropologie, Ethnolinguistik und Archäologie unter einem Dach zu vereinen (Interdisziplinarität). Die "Systematische Anthropologie", ein 1977 veröffentlichtes Werk der deutschen Ethnologen Wolfgang Rudolph und Peter Tschohl, bringt anthropologisch grundlegende Erkenntnisse in einen integrierten Zusammenhang. Mit Hilfe eines eigenen Begriffssystems wird ein gesamtanthropologisches Modell entwickelt, das die Grenzen und Überschneidungen von Disziplinen wie Ethnologie, Biologie, Humangenetik, Psychologie, Soziologie, Philosophie, Geschichte theoretisch auflöst. „Ziel der Untersuchung ist eine wissenschaftliche Theorie, die dasjenige abdeckt, was systematisch sinnvoll zu einem ’Mensch’ genannten Untersuchungsgegenstand gerechnet werden kann, und die damit nicht von einer einzelnen Fachrichtung beherrscht wird.“ Die Untersuchung erschließt ausgehend von allgemeinen Bedingungen der Gesamtwirklichkeit die besonderen Bedingungen des biotischen und humanen Bereichs. Dafür wurde eine global orientierte Auswahl an Studien ausgewertet und die daraus entwickelte interdisziplinäre Systematik theoretisch konsequent ausformuliert. So lautet ein zentrales Untersuchungsergebnis in Kurzform: „Anthropologie ist zu explizieren als Theorie der Klassenexistenz ‚Menschliche Existenz‘ ME. Sie hat damit den vorverständlichen Gegenstandsbereich Mensch als Existenzklasse M aufzufassen und systematisch darzulegen.“ Gegenstand ist die menschliche Existenz als empirisch beschreibbare Tatsache. Die Theorie transportiert einen damals fortschrittlichen, humanen und weit gefassten Kulturbegriff. Wegen technokratisch anmutender Formulierung wurde sie aber nur in der ethnologisch und soziologisch orientierten Fachwelt rezipiert. Gerüst und Inhalt der Theorie müssten heute aktualisiert werden, bieten jedoch „eine Basis für Einzeluntersuchungen von beliebigen Ausschnitten des Gegenstandsbereichs Mensch“. Dem tabellarischen Orientierungsrahmen aus Grundfragen und Bezugsebenen lassen sich alle anthropologischen Fragestellungen (siehe PDF-Übersichtstabelle, Absatz A), ihre Ergebnisse (siehe Tabelle, Absatz B) und Spezialgebiete zuordnen (siehe Tabelle, Absatz C); er ist Grundlage für eine Strukturierung der Ergebnisse. Mit Hilfe der Basistheorie kann die anthropologische Forschung in Theorie und Empirie vorangetrieben und fundiertes sowie spekulatives Wissen besser auseinandergehalten werden (betrifft z. B. den Schulenstreit in der Psychotherapie). Einzelnachweise. ! Alexander der Große. Alexander der Große (griechisch "Aléxandros ho Mégas") bzw. "Alexander III. von Makedonien" (* 20. Juli 356 v. Chr. in Pella; † 10. Juni 323 v. Chr. in Babylon) war von 336 v. Chr. bis zu seinem Tod König von Makedonien und Hegemon des Korinthischen Bundes. Alexander dehnte die Grenzen des Reiches, das sein Vater Philipp II. aus dem vormals eher unbedeutenden Kleinstaat Makedonien sowie mehreren griechischen Poleis errichtet hatte, durch den sogenannten Alexanderzug und die Eroberung des Achämenidenreichs bis an den indischen Subkontinent aus. Nach seinem Einmarsch in Ägypten wurde er dort als Pharao begrüßt. Nicht zuletzt aufgrund seiner großen militärischen Erfolge wurde das Leben Alexanders ein beliebtes Motiv in Literatur und Kunst, während Alexanders Beurteilung in der modernen Forschung, wie auch schon in der Antike, zwiespältig ausfällt. Mit seinem Regierungsantritt begann das Zeitalter des Hellenismus, in dem sich die griechische Kultur über weite Teile der damals bekannten Welt ausbreitete. Die kulturellen Prägungen durch die Hellenisierung überstanden den politischen Zusammenbruch des Alexanderreichs und seiner Nachfolgestaaten und wirkten noch jahrhundertelang in Rom und Byzanz fort. Die frühen Jahre (356–336 v. Chr.). Alexander wurde im Jahre 356 v. Chr. als Sohn König Philipps II. von Makedonien und der Königin Olympias geboren. Viele Einzelheiten seiner Biografie, vor allem aus der Kindheit, wurden später legendenhaft ausgeschmückt oder frei erfunden. So berichtet der Geschichtsschreiber Plutarch, dass Alexander ohne Zweifel seinen Stammbaum väterlicherseits auf Herakles und Karanos, den ersten König der Makedonen, zurückverfolgen konnte, wodurch Plutarch gleichzeitig auch die Abstammung Alexanders vom Göttervater Zeus implizit hervorhebt. Abgesehen von den Legenden ist wenig über Alexanders Kindheit bekannt. Makedonien war ein Land, das im Norden des Kulturraums des antiken Griechenlands lag. Es wurde von vielen Griechen als „barbarisch“ (unzivilisiert) angesehen, obwohl das Königsgeschlecht als griechisch anerkannt wurde. In der Antike gab es ohnehin keinen einheitlichen Staat Griechenland, sondern eine durch gemeinsame Kultur, Religion und Sprache verbundene Gemeinschaft der griechischen Klein- und Stadtstaaten. Im frühen 5. Jahrhundert v. Chr. wurden erstmals Makedonen zu den Olympischen Spielen zugelassen, nachdem König Alexander I. eine Abstammung aus dem griechischen Argos in Anspruch genommen hatte. Noch heute birgt die Diskussion um die ethnische Zugehörigkeit politischen Konfliktstoff. Aus den verfügbaren Quellen ist ersichtlich, dass das Makedonische, von dem nur wenige Wörter überliefert sind, für die Griechen wie eine fremde Sprache klang. Ob das Makedonische ein griechischer Dialekt oder eine mit dem Griechischen verwandte eigenständige Sprache war, ist immer noch umstritten. Kulturell und gesellschaftlich unterschieden sich die Makedonen recht deutlich von den Griechen: keine städtische Kultur, als Binnenreich kaum Kontakte zum mediterranen Kulturraum, Königtum, was in Griechenland nicht die Regel war. Auf viele Griechen wird die makedonische Gesellschaft archaisch gewirkt haben. Erst im 6. Jahrhundert v. Chr. verstärkte sich der griechische kulturelle Einfluss in der makedonischen Oberschicht. Makedonien zum Zeitpunkt von Philipps Tod Alexanders Vater Philipp II. hatte das bisher eher unbedeutende Makedonien, das vor ihm Streitobjekt der Adelsfamilien des Hoch- und des Tieflands gewesen war, zur stärksten Militärmacht der damaligen Zeit gemacht. Er hatte Thessalien und Thrakien erobert und alle griechischen Stadtstaaten mit Ausnahme Spartas in ein Bündnis unter seiner Führung gezwungen (Korinthischer Bund). Schon an diesen Kriegszügen war Alexander beteiligt, etwa in der Schlacht von Chaironeia (338 v. Chr.), in der die griechischen Städte unter Führung Athens unterworfen wurden. Die makedonische Phalanx erwies sich dabei als ein wichtiges Element für den militärischen Erfolg, zentral war jedoch die Rolle der Hetairenreiterei. Alexanders spätere Erfolge gehen zweifellos zu einem bedeutenden Teil auf die Militärreformen seines Vaters zurück. Philipp umgab sich außerdem mit sehr fähigen Offizieren, wie etwa Parmenion, die auch einen großen Anteil an Alexanders späteren Siegen hatten. Philipp holte den griechischen Philosophen Aristoteles in die makedonische Hauptstadt Pella und beauftragte ihn, Alexander in Philosophie, Kunst und Mathematik zu unterrichten. Der Einfluss des Aristoteles sollte wohl nicht zu hoch veranschlagt werden, doch sicher war Alexander sehr gebildet; seine Abschrift der "Ilias" hütete er wie einen Schatz, und er brachte der griechischen Kultur große Bewunderung entgegen. Alexander befürchtete nun offenbar, von der Thronfolge ausgeschlossen zu werden. Schließlich floh er mit seiner Mutter über Epeiros nach Illyrien. Nach einem halben Jahr kehrte er nach Pella zurück, doch seine Thronfolge blieb weiterhin unsicher. Philipp wurde im Sommer 336 v. Chr. in der alten Hauptstadt Aigai (auch bekannt als Vergina) während der Hochzeit seiner Tochter Kleopatra mit dem König Alexander von Epeiros von dem Leibgardisten Pausanias ermordet. Das Motiv des Täters scheint offensichtlich: Pausanias war ein Vertrauter Philipps gewesen und war von Attalos beleidigt worden; dabei fühlte er sich von Philipp ungerecht behandelt. Es gab aber bald darauf Gerüchte, wonach Alexander an der Tat beteiligt gewesen war. Die Mutmaßungen über die Hintergründe des Mordes und über eine Verwicklung von Olympias und Alexander sind weitgehend spekulativ, auch wenn eine Mitwisserschaft nicht ausgeschlossen werden kann. Regierungsübernahme und Sicherung der Macht (336–335 v. Chr.). Alexander der Große; hellenistisch, 2. bis 1. Jahrhundert v. Chr., griechischer Marmor Im Jahre 336 v. Chr. folgte der zwanzigjährige Alexander seinem Vater auf den Thron. Dass es keinen nennenswerten Widerstand gab, ist offenbar Antipater zu verdanken, der das Heer dazu bewog, Alexander als König anzuerkennen. Schon in den ersten Tagen ließ er Mitglieder des Hofstaats exekutieren, die das Gerücht gestreut hatten, Alexander habe etwas mit der Ermordung seines Vaters zu tun gehabt. Als Nächstes wandte er sich seinem Erzfeind Attalos zu, der sich auf der Flucht befand, jedoch von seinem Verwandten (Stiefvater) Parmenion getötet wurde. Sowohl Antipater als auch Parmenion standen deswegen lange in Alexanders besonderer Gunst und profitierten nicht unerheblich davon: Antipater blieb während des Asienfeldzugs als Reichsverweser in Makedonien, während Parmenion sich seine Unterstützung mit großem Einfluss im Heer vergelten ließ. Noch 336 ließ sich Alexander in Korinth die Gefolgschaft der griechischen Städte versichern. Die Völker in Thrakien und Illyrien versuchten jedoch, die Situation zu nutzen und die makedonische Herrschaft abzuwerfen. Alexander zog im Frühjahr 335 v. Chr. mit 15.000 Mann nach Norden ins heutige Bulgarien und Rumänien, überquerte die Donau und warf die thrakische Revolte nieder. Anschließend verfuhr er ebenso mit den Illyrern. Siehe auch Balkanfeldzug Alexanders des Großen. Während Alexander im Norden kämpfte, beschlossen die Griechen im Süden, dass dies der Zeitpunkt sei, sich von Makedonien zu befreien. Ihr Wortführer war Demosthenes, der die Griechen davon zu überzeugen versuchte, dass Alexander in Illyrien gefallen und Makedonien herrscherlos sei. Als erste erhoben sich die Einwohner Thebens und vertrieben die makedonischen Besatzungssoldaten aus der Stadt. Alexander reagierte augenblicklich und marschierte direkt von seinem Illyrienfeldzug südwärts nach Theben. Die Phalanx seines Generals Perdikkas eroberte die Stadt, wo Alexander zur Bestrafung sämtliche Gebäude mit Ausnahme der Tempel und des Wohnhauses des Dichters Pindar zerstören ließ. Sechstausend Einwohner wurden getötet, die übrigen 30.000 wurden in die Sklaverei verkauft. Die Stadt Theben existierte nicht mehr und sollte erst zwanzig Jahre später wieder aufgebaut werden, aber nie mehr zur alten Bedeutung zurückfinden. Abgeschreckt von Alexanders Strafgericht brachen die anderen Städte Griechenlands ihre Revolte ab und ergaben sich. Von den Korinthern ließ sich Alexander von neuem die Gefolgschaft versichern und verschonte sie daraufhin, da er sie als Verbündete in seinem Persienfeldzug brauchte. Beginn des Persienfeldzugs (334–333 v. Chr.). Das Perserreich war zu Alexanders Zeit die größte Territorialmacht der Erde. Die Perserkönige hatten in den zurückliegenden Jahrhunderten Palästina, Mesopotamien, Ägypten und Kleinasien erobert und zwischen 492 und 479 v. Chr. mehrere Versuche unternommen, auch Griechenland zu unterwerfen (siehe Perserkriege). Aus Sicht von Griechen wie Isokrates ebenso wie der älteren Forschung war das Reich aber um 340 v. Chr. geschwächt und hatte seinen Zenith überschritten. In der neueren Forschung wird dies allerdings bestritten; so war den Persern wenige Jahre vor dem Alexanderzug die Rückeroberung des zwischenzeitlich abgefallenen Ägypten gelungen. Ob Persien für die Makedonen eine leichte Beute war, ist daher umstritten. Als sich Alexander 334 v. Chr. dem Perserreich zuwandte, wurde dies von Dareios III. aus dem Haus der Achämeniden beherrscht. Schon Alexanders Vater Philipp hatte Pläne für einen Angriff auf die Perser geschmiedet, angeblich, um Rache für die Invasion Griechenlands rund 150 Jahre zuvor zu nehmen, wobei es sich dabei eher um Propaganda handelte und machtpolitische Gründe den Ausschlag gegeben haben dürften. Eine Armee unter Parmenion, einem der fähigsten makedonischen Generäle, war bereits über den Hellespont nach Asien gegangen, wurde von den Persern aber zurückgeschlagen. Alexander überschritt den Hellespont im Mai 334 mit einer Armee aus etwa 35.000 Makedonen und Griechen, um in die Kämpfe einzugreifen, während rund 12.000 Makedonen unter Antipater Makedonien und Griechenland sichern sollten. In der Schlacht am Granikos kam es zur ersten Begegnung mit den persischen Streitkräften unter der Führung eines Kriegsrates der Satrapen. Der für die Perser kämpfende Grieche Memnon von Rhodos führte 20.000 griechische Söldner, doch konnte er sich im Kriegsrat mit einer defensiven Taktik nicht durchsetzen. Alexander errang auch aufgrund einer ungünstigen Aufstellung der Perser einen deutlichen Sieg. Memnon konnte mit einem Teil der Söldner entkommen. Dadurch war die Befreiung der Städte Ioniens möglich geworden, die Alexander als Motiv für seinen Feldzug genannt hatte. Nach dem Sieg ernannte Alexander eigene Statthalter für die bisherigen Satrapien und übernahm damit die politischen und wirtschaftlichen Strukturen der persischen Verwaltung Kleinasiens. In Lydien zog Alexander kampflos in Sardes ein. Er weihte den örtlichen Tempel dem Zeus und nutzte die Reichtümer der Stadt, um seine Männer zu bezahlen. Dann zog er weiter nach Ephesos. Dort war kurz zuvor Memnon mit den Resten der Söldner vom Granikos hindurchgezogen und hatte Unruhen unter den städtischen Parteien entfacht. Alexander ließ die alten Institutionen wiederherstellen und regelte die Befugnisse des Tempels der Artemis. Nach einer Ruhe- und Planungspause brach der König mit dem Gros des Heeres nach Milet auf, der größten Stadt an der Westküste Kleinasiens. Der dortige Satrap kapitulierte als Einziger nicht, da ihm die Ankunft einer persischen Hilfsflotte von 400 Schiffen versprochen worden war. Da auch Alexander von dieser Flotte gehört hatte, wies er Nikanor, einen Bruder Parmenions, an, mit 160 Schiffen die Einfahrt zur Bucht von Milet zu versperren. Anschließend gelang ihm die Einnahme der Stadt (→ Belagerung von Milet). Die Perser, die immer noch unter dem Befehl Memnons standen (allerdings hatten Unstimmigkeiten im persischen Oberkommando einen effektiven Widerstand erschwert), sammelten sich nun in Halikarnassos, der Hauptstadt Kariens, und bereiteten die Stadt auf eine Belagerung vor. Die Kämpfe waren für Alexander sehr verlustreich. Zwischenzeitlich handelte er einen Waffenstillstand aus, um die makedonischen Gefallenen zu bergen – etwas, was er nie zuvor getan hatte und nie wieder tun sollte. Als er letztlich die Mauern durchbrach, entkam Memnon mit dem Großteil seiner Soldaten auf Schiffen aus der fallenden Stadt (→ Belagerung von Halikarnassos). Indem Alexander der karischen Satrapentochter Ada die Herrschaft über Halikarnassos versprach, sicherte er sich das Bündnis mit dem Volk Kariens. Manche Quellen sprechen davon, dass Ada Alexander adoptierte. Hier zeigte Alexander erstmals seine Taktik, Großzügigkeit gegenüber besiegten Völkern walten zu lassen, um sie nicht gegen die Makedonen aufzubringen. Das ursprüngliche Ziel des Persienfeldzugs, die Eroberung der Westküste Kleinasiens, war hiermit erreicht. Dennoch beschloss Alexander, die Expedition fortzusetzen. Entlang der Küsten Lykiens und Pamphyliens traf die makedonisch-griechische Streitmacht auf keinerlei nennenswerten Widerstand. Eine Stadt nach der anderen ergab sich kampflos. Alexander ernannte seinen Freund Nearchos zum Statthalter von Lykien und Pamphylien. Im Winter 334/333 v. Chr. eroberte Alexander das anatolische Binnenland. Er stieß vom Süden vor, sein General Parmenion von Sardes im Westen. Die beiden Armeen trafen sich in Gordion, der Hauptstadt der persischen Satrapie Phrygien. Hier soll Alexander der Große der Legende nach den Gordischen Knoten mit seinem Schwert durchschlagen haben, über den ein Orakel prophezeit hatte, nur derjenige, der diesen Knoten löse, könne die Herrschaft über Asien erringen. Es gibt aber auch die Version, dass Alexander mit der Breitseite des Schwertes auf die Wagendeichsel schlug, so dass der Druck den Knoten auseinanderriss. Die Makedonen blieben einige Zeit in Gordion, um Nachschub an Männern und die Einfuhr der Ernte abzuwarten. Während dieser Zeit starb Memnon, der Befehlshaber der persischen Armee, im August 333 v. Chr. an einer Krankheit. Zu seinem Nachfolger wurde Pharnabazos ernannt, und da sich die Perser bereits wieder formierten, brach Alexander erneut auf. In Gordion ließ er seinen General Antigonos als Statthalter Phrygiens zurück und übertrug ihm die Aufgabe, den Norden Anatoliens zu unterwerfen und die Nachschubwege zu sichern. Durch Kappadokien marschierte Alexanders Heer nach Kilikien. Dort nahm er nach einem kurzen Gefecht die Hauptstadt Tarsos ein, wo er bis zum Oktober blieb. Die Schlacht bei Issos (333 v. Chr.). In Tarsos erfuhr Alexander, dass Dareios III. die Bedrohung endlich ernst genug nahm, um selbst ein Heer aus dem persischen Kernland nach Westen zu führen. Plutarch zufolge war dieses persische Heer 600.000 Mann stark – eine Angabe, die sicherlich maßlos übertrieben ist: Der berühmte Althistoriker Karl Julius Beloch, der den Quellen immer sehr skeptisch gegenüberstand, schätzte die tatsächliche Zahl der Perser auf höchstens 100.000, die Stärke des makedonischen Heeres dagegen auf ca. 25 – 30.000 Mann. Dareios gelang es, Alexanders Armee im Norden zu umgehen und Issos zu besetzen, wodurch er die Nachschubwege blockierte. Auch ließ Dareios die in Issos zurückgebliebenen Verwundeten töten. In der Schlacht bei Issos trafen die Armeen im Kampf aufeinander, bis Dareios aufgrund der großen Verluste der Perser vom Schlachtfeld floh. Die Makedonen beklagten 450 Tote und 4000 Verwundete. Unbekannt sind die persischen Verluste, sie dürften aber weit höher gewesen sein. Insgesamt hatte die persische Führung während der Schlacht mehrere Fehler begangen, angefangen bei der Aufstellung – man hatte auf die Umgruppierungen Alexanders nicht reagiert. Auch als Symbol kam der Schlacht große Bedeutung zu: Dareios hatte sich seinem Gegner als nicht gewachsen gezeigt. Zur Sicherung des Lagers der Perser sandte Alexander seinen General Parmenion nach Damaskus. Neben dem reichen Kriegsschatz befanden sich hier auch mehrere Mitglieder der königlichen Familie. Zu den Gefangenen, die in die Hände der Makedonen fielen, gehörten die Mutter des Dareios, seine Frau Stateira, ein fünfjähriger Sohn und zwei Töchter. Alexander behandelte sie mit Respekt. Außerdem wurde Barsine gefangen genommen, die Witwe des Memnon. Es kam zu einer Liebesaffäre zwischen Alexander und Barsine, aus der später ein Sohn hervorgehen sollte, der Herakles genannt wurde. Schon bald bat Dareios Alexander um den Abschluss eines Freundschaftsvertrags und die Freilassung seiner Familie. Alexander antwortete, Dareios solle zu ihm kommen und Alexander als „König von Asien“ anerkennen, dann würde seine Bitte erfüllt; andernfalls solle er sich auf den Kampf vorbereiten. Nach der Schlacht gründete Alexander die erste Stadt in Asien, die er nach sich benannte: Alexandretta, das heutige İskenderun. Hier siedelte er die 4000 Verwundeten der Schlacht an. Die Lage nach der Schlacht von Issos. Der Ausgang der Schlacht überraschte die antike Welt. Die Erwartungen der Herrscher von Karthago, in Italien, Sizilien, von Sparta bis Zypern, die Kalkulationen der Handelsherren im westlichen Mittelmeerraum, in Athen, auf Delos und in Phönizien erfüllten sich nicht: „… statt der erwarteten Siegesnachricht aus Kilikien kam die von der gänzlichen Niederlage des Großkönigs, von der völligen Vernichtung des Perserheeres.“ Auch die Delegationen aus Athen, Sparta und Theben, die im Hauptquartier des Großkönigs in Damaskus den Verlauf der Feldzüge verfolgten, wurden von Alexanders Feldherrn Parmenion gefangen gesetzt. Alexander selbst widerstand der Versuchung, den Krieg durch einen Marsch nach Babylon rasch zu entscheiden, doch hatte er es nicht einfach, seine Befehlshaber und Gefährten von einer Defensivstrategie zu überzeugen. Nach wie vor beherrschte die persische Flotte das östliche Mittelmeer – sie verfügte zwar über keine Häfen mehr in Kleinasien, jedoch nach wie vor in Phönizien: durch die Münzgeldtribute hier waren die finanziellen Mittel der Perser noch wenig eingeschränkt, und auch Ägypten stand ihnen noch als logistische und militärische Basis zur Verfügung. Die kommenden Winterstürme ließen zwar keine Flottenunternehmungen mehr erwarten und damit auch keine Gefahr einer raschen Erhebung der Griechen gegen Makedonien – insbesondere des Spartanerkönigs Agis IV. –, doch kam es nun auch auf das Verhalten der phönizischen Geschwader an, die einen Großteil der persischen Flotte stellten. Zwar verblieben sie in dieser Jahreszeit noch in der Fremde, doch nahm Alexander an, dass er diese Kontingente durch eine sofortige Besetzung ihrer Heimatstädte zumindest neutralisieren könne. „Auch die kyprischen Könige glaubten, für ihre Insel fürchten zu müssen, sobald die phönikische Küste in Alexanders Gewalt war.“ Nach einer Besetzung Phöniziens und Ägyptens könne dann ein Feldzug nach Asien von einer gesicherten Basis aus geführt werden, obwohl die Perser natürlich auch Zeit für neue Rüstungen gewannen. Die Versammlung stimmte Alexanders Plan zu. Entgegen den Erwartungen wurde das makedonische Heer nicht vernichtet, und Alexander besaß mit der persischen Kriegskasse in Damaskus die Mittel zur Fortführung des Feldzuges. Eine Entscheidung des Krieges war dadurch nicht bewirkt worden. Eingezogen wurden in Damaskus „2600 Talente in Münzgeld und 500 Pfund Silber“, die „(ausreichten), alle Soldschulden der Armee und Sold für etwa sechs weitere Monate zu bezahlen …“ Die Belagerung von Tyros und das zweite Angebot des Dareios (332 v. Chr.). Während die Städte in der nördlichen Hälfte Phöniziens – Marathos, Byblos, Arados, Tripolis und Sidon – sich dem Makedonen bereitwillig ergaben, war die dominierende Handelsmetropole Tyros allenfalls zu einem Vergleich bereit. Sie baute dabei auf ihre Insellage knapp vor der Küste, auf ihre vor Ort verfügbare eigene Flotte und die Unterstützung ihrer mächtigen Tochterstadt Karthago. Nachdem Alexander der Zutritt zur Stadt verwehrt worden war – sein Prüfstein war das Verlangen nach einem Opfer im Tempel des Stadtgottes Melkart, des tyrischen Herakles –, brach der König die Verhandlungen ab. Er beschloss, Tyros um jeden Preis einzunehmen, denn er plante schon den Vorstoß nach Ägypten und wollte eine feindliche Stadt, die sowohl mit den Persern als auch mit rebellischen Kräften in Griechenland kooperieren würde, nicht unbezwungen in seinem Rücken lassen. Eine von Arrian überlieferte angebliche Rede Alexanders vor seinen Offizieren, in der die strategischen Überlegungen erläutert werden, ist allerdings eine literarische Fiktion, die auf der Kenntnis des späteren Verlaufs des Feldzugs beruht. Vor dem Beginn der Belagerung bot Alexander den Tyrern Schonung an, falls sie kapitulierten. Sie töteten jedoch seine Unterhändler und warfen die Leichen von den Stadtmauern. Damit war der Weg zu einer Einigung endgültig versperrt. Ohne Flotte blieb nur die Möglichkeit eines Dammbaues durch das zumeist seichte Gewässer, das die vorgelagerte Inselstadt von der Küste trennte, und der Versuch, mit Belagerungsmaschinen Teile der Mauern zu zerstören. Die Finanzierung dieser aufwendigen Methode, die eine entwickelte Technik und die dafür entsprechenden Materialien und Fachkräfte erforderte, konnte Alexander durch die Beute aus dem persischen Hauptquartier in Damaskus bewerkstelligen. Ein erster Dammbau wurde von den Tyrern erfolgreich bekämpft, es gelang ihnen bei stürmischem Wetter mit einem Brander die zwei Belagerungstürme an der Spitze des Dammes zu entzünden und durch Begleitschiffe mit Geschützen jeden Löschversuch zu vereiteln. Der Sturm riss zudem den vorderen Teil des Dammes weg. Der Vorfall löste im makedonischen Heer Entmutigung aus, zumal wieder Gesandte des Dareios eintrafen und ein neues Friedensangebot des Großkönigs überbrachten, das Alexander „den Besitz des Landes diesseits des Euphrat“, 10.000 Talente Lösegeld für seine gefangene Gemahlin und die Hand seiner Tochter anbot. In diese Zeit fiel auch die – vermutlich von Kallisthenes übermittelte – Reaktion des Befehlshabers Parmenion: Wäre er Alexander, so würde er akzeptieren. Alexander entgegnete, das würde er auch tun, wenn er Parmenion wäre. Alexander ließ Dareios mitteilen, er, Alexander, werde sich nehmen, was er wolle; wenn Dareios etwas von ihm erbitten wolle, solle er zu ihm kommen. Der Damm wurde in größerer Breite wiederhergestellt und neue Türme gebaut. In der Zwischenzeit – nach den Winterstürmen – trafen auch die phönizischen Flottenkontingente und die Geschwader der Könige von Zypern in ihren Heimathäfen ein und standen nun Alexander zur Verfügung; insgesamt 250 Schiffe, darunter auch Vier- und Fünfruderer. Diese Bundesgenossenschaft lag auch in der Feindschaft der kleineren Städte Phöniziens gegen Tyros begründet: Die Metropole hatte zwanzig Jahre zuvor zwar einen Aufstand unter Führung von Sidon gegen die Perser befürwortet und Hilfe zusagt, dann jedoch den Verlauf der Auseinandersetzungen abgewartet und war von den Persern für diese Haltung belohnt worden. Nach der Niederschlagung der Erhebung und der Zerstörung von Sidon errang Tyros die Vorherrschaft unter den phönizischen Handelsstädten. Während die neu gewonnene Flotte ausgerüstet wurde, unternahm Alexander eine Expedition durch das küstennahe Gebirge des Antilibanon, um die Festungen von Gebirgsstämmen zu bezwingen, den Nachschub (Holz für den Maschinenbau) und die Verbindung nach Damaskus zu sichern. Die Karthager konnten den Tyrern nicht helfen, da sie sich im Krieg mit Syrakus befanden. Nach weiteren wechselvollen Kämpfen um die Stadtmauern und zur See, die die Tyrer immer mehr Schiffe kosteten, war die Zeit zum Sturmangriff reif. Alexander beschloss einen kombinierten Land- und Seeangriff. Auf der durch den Damm erreichbaren Seite gelang es, Breschen in die Mauern zu schlagen und ein Landeunternehmen durchzuführen, die phönizischen Schiffe sprengten die Sperrketten im Südhafen und bohrten die dort liegenden Schiffe in den Grund, die zyprische Flotte verfuhr ebenso im Nordhafen – dort gelang es den Truppen, zusätzlich in die Stadt einzudringen. Die überlieferte Zahl von 8000 Gefallenen der Stadt soll sich auf die gesamte Belagerungszeit beziehen. Ob die anschließende angebliche Kreuzigung von 2000 Kämpfern den Tatsachen entspricht, ist umstritten. Im Vorfeld des letzten Angriffes ließ Alexander Schiffe der Karthager und seiner verbündeten Phönizier zur Evakuierung der Bevölkerung passieren. In Heiligtümer oder Tempel Geflüchtete wurden verschont. Zahlreiche Einwohner – die überlieferte Zahl von 30.000 gilt allerdings als stark übertrieben – wurden in die Sklaverei verkauft. Das war in der Antike eine gängige Praxis, um die Kriegskassen aufzufüllen. Alexander soll allerdings sehr selten zu diesem Mittel gegriffen haben, da er die Bevölkerung für sich gewinnen wollte, denn er konnte sich eine ständige Bedrohung durch Aufständische in seinem kaum durchgängig besetzbaren Hinterland nicht leisten. Tyros wurde wieder aufgebaut und neu besiedelt, um unter makedonischer Hoheit die beherrschende Position in Phönizien zu sichern. Die Nachricht von diesem mit modernster Kriegstechnik errungenen Sieg – die Belagerungstürme sollen eine Höhe von 45 Metern erreicht haben – machte in der antiken Welt weit über die betroffene Region hinaus einen starken Eindruck. Die Eroberung von Gaza. Alexander, der während der Belagerung auch die Verwaltung und Logistik in den neu gewonnenen Gebieten ordnete, „brach mit etwa Anfang September 332 von Tyros auf.“ Die Städte und Stämme im südlichen Syrien ergaben sich bis auf die Hafenstadt Gaza. Die Stadt war seit Jahrhunderten der Hauptumschlagplatz des Gewürzhandels. Mit einer Eroberung der Stadt konnte Alexander einen der lukrativsten Handelsbereiche zwischen Ost und West unter seine Kontrolle bringen, doch standen den Makedonen damit nicht nur Perser, sondern auch arabische Söldnertruppen gegenüber. Mit entsprechender Härte wurde der Kampf geführt. Einen unmittelbaren Gewinn konnte sich Alexander von einer Eroberung nicht versprechen, denn die Gewürzhandelsgeschäfte des Jahres waren abgeschlossen, da „die Route nur einmal im Jahr befahren wurde.“ Wetterverhältnisse und „Orientierungsschwächen beschränkten die Aktivitäten mediterraner Seefahrt auf das halbe Jahr zwischen Mai und Oktober, in dem das Wetter in der Regel verläßlich gut war. […] Faktisch lag der Zeitpunkt Mitte August (Hesiod, 700 v. Chr.), denn es stand auch noch die Rückreise an.“ Organisiert war diese Fahrt bis in die Spätantike als riesiges „Kauffahrtgeschwader“ zuerst entlang den östlichen Küsten – vor allem Kornfrachter, Sklaven- und Baumaterial-Transporten sowie Postschiffen und anderen, die dann übers Meer von Kriegsschiffen begleitet wurden. Durch die Belagerung von Tyros waren die Handelsunternehmen 332 v. Chr. schon stark beeinträchtigt worden. Alexander nahm sofort den Hafen von Gaza zum Antransport der zerlegten Belagerungsmaschinen in Beschlag. Die Stadt selbst lag nahe dem Meer auf einem flachen Hügel. Gaza war auch der letzte freie Ankerplatz für die persische Flotte in Syrien und somit auch an der kompletten östlichen Mittelmeerküste. Die Flotte war mittlerweile in Auflösung begriffen, da die griechischen Kontingente nun ebenfalls – klimabedingt – im Herbst in ihre Heimathäfen zurück segelten. Mit erneut hohem Aufwand schütteten die Makedonen einen Damm zur Südseite der Stadt auf, der danach mit weiteren, konzentrisch angelegten Dämmen ergänzt wurde. Die Kämpfe – vor allem mit den arabischen Söldnern – wurden als „wild“ bezeichnet, Alexander wurde zweimal verwundet; durch einen Messerstich und – gefährlicher – mit einem Katapultpfeil, der durch den Panzer in die Schulter drang. Nach zwei Monaten und dem vierten Ansturm fiel die Stadt, um die 10.000 Verteidiger sollen umgekommen sein, Frauen und Kinder wurden als Sklaven verkauft. Dass der Kommandant Batis wie Hektor durch Achilles vor Troja um die Stadt geschleift worden sein soll, wird angezweifelt. „Alexander zog die Bevölkerung der umliegenden philistäischen und arabischen Ortschaften in die Stadt; eine dauernde Besatzung machte sie zu einem Waffenplatz, der für Syrien und für Ägypten gleich wichtig war.“ Es wird davon ausgegangen, dass der Gewürztransport nach Gaza danach in der „Felsenstadt“ Petra, – der davor liegenden Station der Weihrauchstrasse – angehalten wurde. Petra war „zentrales Weihrauchlager“, da die Stadt in einem Talkessel gewaltige Lagerhallen (Höhlen) besaß. „In Petra saßen die Ökonomen, die kontrollierten, was sie zu welchem Preis an die mediterranen Küsten bringen wollten.“ Für 332 war das Geschäft allerdings schon gelaufen. Den jahreszeitlichen Bedingungen zufolge kehrten im Herbst auch die Kauffahrtsflotten zurück und trafen in Phönizien überall in Häfen ein, die von den Makedonen kontrolliert wurden. Die Auflösung der persischen Kriegsflotte im Herbst war ebenfalls eine Routineangelegenheit, doch war es allen Beteiligten klar, dass die Kontingente auf Grund der makedonischen Besetzung sämtlicher Festlandshäfen im östlichen Mittelmeer im nächsten Frühjahr nicht wieder unter persischem Kommando zusammengeführt werden würden. Der Seekrieg 332 v. Chr.. Während Alexander mit dem Heer 332 v. Chr. den größten Teil des Jahres mit Belagerungen zur Vervollständigung seiner Blockade der persischen Seemacht verbrachte – und dabei die phönizischen Hafenstädte und ihren Handel unter seine Kontrolle nahm –, war die Flotte der Perser durch den bereits im Frühjahr erfolgten Abzug der phönikischen und kyprischen Kontingente geschwächt und verhielt sich defensiv. Die Admirale Pharnabazos und Autophradates versuchten – meist mit Hilfe begünstigter oder eingesetzter Machthaber – die wichtigsten Inseln unter ihrer Kontrolle zu behalten. In Griechenland, das Alexanders Statthalter Antipater bis auf die Peloponnes fest im Griff hatte, rührte sich kein Widerstand. Lediglich der Spartanerkönig Agis III. setzte noch auf die persische Karte und hatte Kreta durch seinen Bruder und Mitregenten Agesilaos besetzen lassen. Doch schon im Vorjahr, noch während des Aufenthalts in Gordion 333 v. Chr. hatte Alexander „Amphoteros, den Bruder des Orestiden Krateros“ beauftragt, „‚in Übereinstimmung mit den Abmachungen des Bündnisses‘ eine neue griechische Flotte auszurüsten.“ Dank „der erbeuteten Schätze aus Sardis“ gelangen die Anfänge dazu und nach dem Sieg bei Issos und dem darauf folgenden Winter, der keine Flottenunternehmungen zuließ, stand Alexanders neue Flotte im Frühjahr 332 bereit. Nun konnten die makedonischen Nauarchen Hegelochos und Amphoteros ihrerseits systematisch die Inseln besetzten – von Tenedos und Chios (wo der persische Admiral Pharnabazos mit der Besatzung von 15 Trieren in Gefangenschaft geriet) – bis nach Kos und schließlich Lesbos. Dort handelte der athenische Söldnerführer Chares mit zweitausend Mann freien Abzug aus und begab sich nach Tainaron, dem Hafen und Söldnermarkt südlich von Sparta. Amphoteros unterwarf zuletzt noch die kretischen Stützpunkte während Hegelochos bereits nach Ägypten steuerte, „um selbst die Meldung vom Ausgang des Kampfes gegen die persische Seemacht zu überbringen, zugleich die Gefangenen abzuliefern […] So war mit dem Ausgang des Jahres 332 der letzte Rest einer persischen Seemacht, die das makedonische Heer im Rücken zu gefährden und dessen Bewegungen zu hindern vermocht hätte, vernichtet.“ Die Besetzung Ägyptens (332–331 v. Chr.). Nach der Eroberung von Gaza machte sich Alexander mit einem Teil seines Heeres auf den Weg nach Ägypten. Ägypten war in den vorangegangenen sieben Jahrzehnten mehrfach von den Persern angegriffen und besetzt worden und ging ihnen regelmäßig durch Aufstände wieder verloren. Erst seit drei Jahren war es wieder in der Hand des Großkönigs, doch „Ägypten war von Truppen entblößt, weil der Satrap Sabakes mit einem großen Aufgebot nach Issos gekommen und selbst dort gefallen war. […] Mazakes, vom Großkönig [..] zum (neuen) Satrapen ernannt, konnte nicht an Widerstand denken.“ Er übergab unter Auslieferung von 800 Talenten für freies Geleit die Grenzfestung Pelusion. Ein Teil der makedonischen Flotte segelte nun den Nil aufwärts zur Hauptstadt Memphis während sich Alexander mit den Truppen auf dem Landmarsch über Heliopolis dorthin begab. In Memphis opferte Alexander dem ägyptischen Gott Apis anstatt ihn zu verachten, wie der persische Großkönig Artaxerxes III., der den heiligen Stier des Gottes töten ließ. „Als Gegengabe scheint Alexander als Pharao des Oberen und Unteren Ägyptens gekrönt worden zu sein, wenngleich diese Ehrung nur in dem frei erfundenen "Alexander-Roman" erwähnt wird.“ Alexander zog am Nil entlang nordwärts und gründete im Januar 331 v. Chr. an der Mittelmeerküste ein weiteres Alexandria, die bedeutendste all seiner Stadtgründungen. Im März zog Alexander 400 km westwärts durch die Wüste zum Orakel von Siwa, einem dem Gott Amun geweihten Tempel. Was er dort an Botschaften empfing, ist unbekannt. Antike Quellen berichten, Alexander habe dort erfahren, dass er der Sohn des Zeus sei; so soll ihn der oberste Priester als „Sohn des Zeus“ begrüßt haben. In Wahrheit allerdings hatte Alexander sich schon vorher als Sohn des Zeus bezeichnet. Auf seiner Reise zum Amun-Tempel soll Alexander auch die Stadt Paraetonium gegründet haben. Von Siwa kehrte Alexander nach Memphis zurück, verweilte dort einige Wochen und führte seine Truppen dann zurück nach Palästina. Die Eroberung des persischen Kernlands (331–330 v. Chr.). Im Mai 331 kehrte Alexander nach Tyros zurück. Er befahl hier den Wiederaufbau der Stadt, die er mit befreundeten Phöniziern wieder besiedeln ließ. 15.000 zusätzliche Soldaten waren im Frühling aus Makedonien entsandt worden, und bei Tyros trafen sie im Juli mit Alexander zusammen. Seine Armee bestand nun aus 40.000 Fußsoldaten und 7000 Reitern. Alexander zog ostwärts durch Syrien und überquerte den Euphrat. Sein Plan mag gewesen sein, von hier aus südwärts nach Babylon zu ziehen, doch eine Armee unter dem persischen Satrapen Mazaeus verstellte den Weg. Alexander vermied die Schlacht, die ihn viele Männer gekostet hätte, und zog stattdessen nordwärts. Derweil zog Dareios selbst eine neue große Streitmacht in Assyrien zusammen, und dieses Heer war es, das Alexander treffen wollte. Im September 331 v. Chr. überquerte das Heer den Tigris. Am 20. September, unmittelbar vor der Schlacht, kam es zu einer Mondfinsternis, die die Perser verunsicherte und von ihnen als schlechtes Omen gedeutet wurde. Das Heer Alexanders lagerte 11 km von der persischen Armee entfernt bei einem Dorf namens Gaugamela, weshalb die folgende Schlacht als Schlacht von Gaugamela bekannt wurde. Am 1. Oktober kam es zum Kampf. Wenngleich das Heer des Dareios auch diesmal den Truppen Alexanders zahlenmäßig weit überlegen war, siegte abermals Alexander. Er vermochte aber nicht, Dareios selbst zu töten oder gefangen zu nehmen. Obwohl dieser damit erneut entkommen war, war seine Armee praktisch vernichtet. Alexander dagegen hatte nun die Herrschaft über die Satrapie Babylonien gewonnen und konnte ungehindert ins reiche Babylon einziehen. Mazaeus, der sich nach der Schlacht von Gaugamela nach Babylon zurückgezogen hatte, übergab die Stadt an Alexander, der sie durch das Ischtar-Tor betrat und sich zum „König von Asien“ ausrufen ließ. Während die Griechen die Völker Asiens zuvor als Barbaren verachtet hatten, sah Alexander sie mit anderen Augen. Fasziniert von der Pracht Babylons befahl er die Schonung aller Bauwerke. Alexander verzieh dem persischen Satrapen Mazaeus und ernannte ihn zu seinem Statthalter in Babylon. Nach fünfwöchigem Aufenthalt zog Alexander weiter ostwärts, um die großen persischen Städte im Kernland anzugreifen. Susa ergab sich kampflos. Im Januar 330 v. Chr. erreichten die Makedonen die persische Hauptstadt Persepolis. Zahlreiche Einwohner begingen vor seinem Einzug Selbstmord oder flohen. Die ältere Meinung, Alexander habe die Stadt plündern und den Königspalast niederbrennen lassen, ist inzwischen von der jüngeren Quellenkritik relativiert worden. Archäologische Funde bestätigen, dass lediglich die Gebäude, die Xerxes I. errichtet hatte, brannten, was die Darstellung Arrians wahrscheinlicher macht. Verfolgung und Tod des Dareios (330 v. Chr.). Der vom Schlachtfeld fliehende Dareios(Detail aus dem „Alexanderschlacht-Mosaik“) Zwar war Persien nun in Alexanders Hand, doch König Dareios III. war noch immer am Leben und auf der Flucht. Da Alexander mitgeteilt worden war, dass Dareios sich in Medien aufhalte, folgte er seiner Spur im Juni nach Nordwesten nach Ekbatana. Doch auch Dareios’ Anhängerschaft hatte jetzt keine Hoffnung mehr, Persien zurückzugewinnen. Die Vollkommenheit der Niederlage ließ nur die Möglichkeit zu, sich zu ergeben oder zeitlebens zusammen mit Dareios zu fliehen. Bisthanes, ein Mitglied der Königsfamilie, entschied sich, in Ekbatana zu bleiben, wo er Alexander empfing und ihm die Stadt übergab. Alexander zeigte sich wiederum großzügig und ernannte einen Perser zu seinem Statthalter in Medien. In Ekbatana entließ Alexander auch die griechischen Verbündeten und die thessalischen Reiter, was als Zeichen zu verstehen war, dass der vom Korinthischen Bund beschlossene „Rachefeldzug“ damit beendet war. Teile des Bundesheeres wurden jedoch von Alexander als Söldner angeworben. Dareios setzte inzwischen seine Flucht fort. Er hoffte, Zuflucht in Baktrien zu erhalten, wo ein Verwandter namens Bessos Satrap war. Bessos aber setzte Dareios gefangen und schickte einen Unterhändler zu Alexander. Er bot ihm an, Dareios an die Makedonen zu übergeben, wenn im Gegenzug Baktrien frei bliebe. Alexander ging nicht auf die Verhandlungen ein und setzte die Verfolgung fort. Bessos tötete seine Geisel im Juli und floh seinerseits. Die Leiche des Dareios wurde von Alexander nach Persepolis gebracht und dort feierlich beigesetzt. Die Verfolgung des Bessos (330–329 v. Chr.). In der Zwischenzeit hatte Alexander erkannt, dass er zur Sicherung der Herrschaft über das Perserreich die Unterstützung der persischen Adligen brauchte. Er nutzte Dareios’ Ermordung daher, die Perser zu einem Rachezug gegen Bessos aufzurufen, der sich nun den Namen Artaxerxes gegeben hatte und sich Großkönig von Persien nannte. Die Soldaten waren wenig begeistert davon, dass sie den Tod ihres Erzfeindes vergelten und zudem gemeinsam mit Persern kämpfen sollten. Außerdem war ihnen das Land im Nordosten vollkommen unbekannt. Die dortigen Provinzen Baktrien und Sogdien lagen in etwa auf den Territorien der heutigen Staaten Afghanistan, Usbekistan und Turkmenistan. Im August 330 v. Chr. brach Alexander zu einem neuen Feldzug auf und eroberte zunächst Hyrkanien, die persische Satrapie an der Südküste des Kaspischen Meeres. Unter jenen, die mit Alexander kämpften, war Oxyartes, ein Bruder des Dareios. Statt von Hyrkanien den direkten Weg nach Baktrien zu wählen, ging Alexander über Aria, dessen Satrap Satibarzanes an Dareios’ Gefangennahme beteiligt gewesen war. Alexander eroberte die Hauptstadt Artacoana, verkaufte die Einwohner in die Sklaverei und benannte die Stadt in Alexandreia um; der heutige Name der Stadt ist Herat. Auf seinem weiteren Weg kam es zu einem Zwischenfall, als Philotas, der Sohn des Parmenion, beschuldigt wurde, einen Anschlag auf Alexanders Leben unternommen zu haben. Ob dieser Versuch wirklich unternommen worden war, ist unklar. Vielleicht diente die Affäre Alexander bloß als Vorwand, sich Parmenions zu entledigen, der zum Wortführer seiner Kritiker avanciert war. Sie missbilligten Alexanders Neigung, die Perser zu ehren und ihre Gewänder zu tragen, und sahen dies als Anbiederung an ein barbarisches Volk an. Philotas wurde an Ort und Stelle mit einem Speer getötet. Ein Kurier wurde dann zu den Adjutanten des in Ekbatana gebliebenen Parmenion gesandt. Sie töteten Parmenion auf Alexanders Befehl. Nach beschwerlicher Reise entlang des Flusses Tarnak erreichte Alexander im April 329 das Zentrum des heutigen Afghanistan und gründete Alexandria am Hindukusch (heute Chârikâr). Von hier aus wollte Alexander das Gebirge überschreiten und auf diesem Wege in Baktrien einfallen. Einer Legende zufolge fand man hier den Berg, an den der Titan Prometheus gekettet worden war. Als die Nachricht nach Baktrien gelangte, dass Alexander dabei war, den Hindukusch zu übersteigen, fürchteten die Einwohner von Baktra (heute Balch) die Bestrafung ihrer Stadt und vertrieben Bessos. Die beschwerliche Überquerung des Gebirges hatte die Soldaten indessen gezwungen, manche ihrer Lasttiere zu schlachten. Als sie erschöpft in Baktrien ankamen, wurde das Land ihnen kampflos übergeben. Alexander ernannte seinen persischen Vertrauten Artabazos, den Vater der Barsine, zum Satrapen. Alexander hielt sich nicht lange in Baktra auf und folgte weiterhin Bessos, der nordwärts zum Oxus (Amudarja) geflohen war. Der 75 km lange Marsch durch wasserlose Wüste wurde vielen zum Verhängnis. Bessos hatte inzwischen alle Schiffe zerstören lassen, mit denen man den Amudarja hätte überqueren können. Die Makedonen brauchten fünf Tage, um genügend Flöße für die Überquerung des Flusses anzufertigen. Dann setzten sie über in die Satrapie Sogdien im heutigen Turkmenistan. Die Begleiter des Bessos wollten nun nicht länger fliehen. Sie meuterten gegen ihn, nahmen ihn gefangen und händigten ihn an Alexander aus. Dieser zeigte sich gnadenlos und ließ Bessos die Nase und die Ohren abschneiden. Anschließend übergab Alexander den Verstümmelten an Dareios' Bruder Oxyartes, damit er ihn nach Medien an den Ort brächte, wo Dareios ermordet worden war. Dort wurde Bessos gekreuzigt. Alexander ging indessen weiter nach Norden und erreichte die sogdische Hauptstadt Marakanda (heute Samarkand). Alle Satrapien des Perserreichs unterstanden nun Alexander, und niemand außer ihm selbst erhob mehr Anspruch auf den Königstitel über Persien. Alexander in Sogdien (329–327 v. Chr.). a>, römische Kopie eines Originals von etwa 330 v. Chr. Nach der Einnahme von Marakanda zog Alexander noch weiter bis zum Syrdarja und gründete dort im Mai 329 v. Chr. die Stadt Alexandria Eschatê („das entfernteste Alexandria“), das heutige Chudschand in Tadschikistan. Etwa gleichzeitig erhob sich die Bevölkerung Sogdiens gegen ihn. Anführer der Rebellion war ein Mann namens Spitamenes, der zuvor Bessos verraten und an Alexander übergeben hatte. Die Sogdier, die Alexander zunächst begrüßt hatten, nun jedoch sahen, dass eine Fremdherrschaft durch eine andere ersetzt wurde, machten die makedonischen Besatzungen nieder. Alexander zog Truppen zusammen und marschierte von einer rebellischen Stadt zur anderen, belagerte sieben von ihnen und tötete anschließend sämtliche männlichen Einwohner, wohl um ein abschreckendes Exempel zu statuieren. In der Zwischenzeit eroberte Spitamenes Marakanda zurück, doch Alexander erkämpfte sich die Stadt erneut. Spitamenes entkam. Da das Heer geschwächt und stark reduziert war, musste Alexander von der Verfolgung ablassen. Im Zorn brannte er Dörfer und Felder jener Bauern nieder, die die sogdische Revolte unterstützt hatten. Für den Winter 329/328 v. Chr. zog er sich nach Baktra zurück und erwartete neue Truppen, die bald darauf aus dem Westen eintrafen und bitter benötigt wurden. Im Frühling 328 v. Chr. kehrte Alexander nach Sogdien zurück. Den Quellen zufolge gründete er am Amudarja ein weiteres Alexandria, das vielleicht mit der heutigen Siedlung Ai Khanoum identisch ist. Der Kampf gegen die sogdischen Rebellen dauerte das ganze Jahr. Erst Monate später zeigte sich, dass die Anhänger des Spitamenes ihren Befehlshaber zu verlassen begannen. Das Haupt des Rebellenführers wurde Alexander schließlich im Dezember 328 überbracht. Während der Sieg gefeiert wurde, kam es zu einem Streit zwischen Alexander und seinem General Kleitos. Kleitos, der altmakedonisch gesinnt war, sollte demnächst nach Baktrien aufbrechen. Grund war vermutlich sein Alter, aber Kleitos sah dies als Herabsetzung an. Es ist auch möglich, dass Kleitos bei dieser Gelegenheit Kritik an der Proskynese, einem von Alexander übernommenen persischen Hofritual, geübt hat. Die Streitenden waren zu diesem Zeitpunkt betrunken, und Kleitos hatte Alexanders Vater Philipp zu loben begonnen. Hierdurch fühlte sich Alexander so beleidigt, dass es zum Streit kam, in dessen Verlauf Alexander vergeblich nach seinen Waffen suchte, da sie vorsichtshalber von einem Leibwächter beiseitegelegt worden waren. Alexander, der möglicherweise Verrat befürchtete, rief in höchster Erregung auf Makedonisch nach einer Lanze, entriss einer Wache eine und tötete mit ihr Kleitos, seinen Lebensretter am Granikos. Als Alexander wieder bei Besinnung war, bereute er diese Tat zutiefst: Es heißt, er solle geklagt und geweint und versucht haben, sich das Leben zu nehmen. Er sah diese Tat jedenfalls als einen seiner schwersten Fehler an. Alexanders Neigung zu übermäßigem Alkoholgenuss – er trank allerdings fast ausschließlich in Gesellschaft – blieb eine Schwäche, bei der er häufig die Selbstkontrolle verlor. Das gemeinsame Trinken der Männer selbst gehörte fest zum gesellschaftlichen Leben in der griechischen Welt (siehe Symposion). Im folgenden Jahr 327 v. Chr. eroberte Alexander noch zwei sogdische Bergfestungen. Dann war niemand mehr übrig, der ihm Widerstand hätte leisten können. Zwei Jahre hatten die Sogdier sich gegen Alexander erhoben und ihn in immer neue Scharmützel verwickelt. Nach dieser Zeit waren die meisten von ihnen tot oder versklavt. Bevor Alexander nach Baktrien zurückkehrte, ließ er 11.000 Mann Besatzung in den eroberten Gebieten Sogdiens zurück. Alexander in Baktrien (327 v. Chr.). Zurück in Baktra gab Alexander eine Reihe von Befehlen, die seine makedonische Generalität weiter von ihm entfremdete. Da sich baktrische Reiter bei den Feldzügen in Sogdien als hilfreich erwiesen hatten, befahl Alexander seinen Generälen, 30.000 junge Perser und Baktrier zu Phalanx-Soldaten auszubilden. Auch in die Kavallerie wurden Einheimische integriert. Die Soldaten akzeptierten die Auflagen widerstrebend, denn noch immer trauten sie den Persern nicht. Alexander heiratete in Baktra die sogdische Prinzessin Roxane, Tochter eines Mannes namens Oxyartes (nicht identisch mit dem gleichnamigen Bruder des Dareios). Durch diese politische Heirat gedachte er zur Befriedung Sogdiens beizutragen. Dafür schickte Alexander seine langjährige Geliebte Barsine und den gemeinsamen unehelichen Sohn Herakles fort. Die Heirat war auch eine Beleidigung für Alexanders Verbündeten Artabazos, den Vater der Barsine, seinen Statthalter in Baktrien. Außerdem versuchte Alexander, das persische Hofritual der Proskynese einzuführen: Jeder, der vor den König treten wollte, musste sich vor ihm verbeugen und das Gesicht auf den Boden pressen. Freie Makedonen und Griechen unterzogen sich einer solchen Unterwerfungsgeste allerdings nur vor den Göttern. Es heißt, dass mehrere von Alexanders Generälen sich weigerten, sich derart vor ihm zu erniedrigen. Fortan galt sie nur noch für Perser. Alexanders Anordnungen wurden als so befremdlich empfunden, dass es diesmal zur offenen Revolte unter den griechischen Soldaten zu kommen drohte. Im Rahmen der sogenannten Pagenverschwörung ließ Alexander auch eine Reihe von einstigen Gefolgsleuten hinrichten, darunter seinen Hofbiografen Kallisthenes. Wirtschaftspolitik. Alexander ließ den persischen königlichen Schatz ausmünzen und warf damit das Vermögen der Achämeniden in das Austauschsystem des Nahen Ostens, womit ein steiler Anstieg im Volumen der Markttransaktionen im Mittelmeergebiet finanziert wurde. Dass der attische Münzfuß nunmehr bis auf das ptolemäischen Ägypten, allgemein in der hellenistischen Welt galt, erleichterte den internationalen Handel und die Schifffahrt. Der Indienfeldzug (326 v. Chr.). Alexander mit Elefantenskalp, Symbol seiner indischen Eroberungen Nach der Eroberung des gesamten Perserreichs fasste Alexander den Beschluss, sein Imperium weiter nach Osten auszudehnen. Indien war für die Griechen ein halblegendäres Land, über das sie kaum etwas wussten. Das Land, das damals Indien genannt wurde, ist nicht identisch mit dem heutigen Staat Indien. Es begann dort, wo Persien endete, im Osten Afghanistans, und umfasste Pakistan und das heutige Indien. Eine definierte Ostgrenze gab es nicht, da kein Reisender jemals weit nach Indien vorgedrungen war. Die westlichsten Teile jenes Indiens hatten zu Zeiten Dareios’ I. zu Persien gehört, wobei Indien selbst kein geeinter Staat war, sondern aus einer Vielzahl wenig bekannter Kleinstaaten bestand. Für den Indienfeldzug gab es keinerlei militärische Notwendigkeit. Die Gründe werden auch heute noch in der Forschung diskutiert, ohne dass bisher eine Einigung erzielt worden wäre. Möglicherweise waren es Alexanders Neugier und Kriegslust, eine Art irrationales Streben und Sehnsucht nach Erfolgen "(pothos)"; aber auch Thesen wie die von dem Bestreben, seine Autorität durch immer neue militärische Siege zu festigen, werden angeführt. Jedenfalls sollte sich der Indienfeldzug als schwere Belastungsprobe erweisen. Anfang des Jahres 326 v. Chr. stieß Alexander mit zwei Heeren ins Tal des Flusses Kabul vor, das damals ein Teil Indiens war. Der Vorstoß war von besonderer Grausamkeit gekennzeichnet. Immer seltener ließ Alexander gegenüber eroberten Regionen Großmut walten. Städte und Dörfer wurden zerstört und ihre Bevölkerung ermordet. Die zwei Armeen trafen einander am Indus. Alexander machte das Land zwischen Kabul und Indus zur Provinz Gandhara und ernannte seinen Gefolgsmann Nikanor zu deren Statthalter. Am anderen Ufer des Indus wurden Alexanders Truppen von Omphis empfangen, dem König von Taxila, das etwa 30 km vom heutigen Islamabad entfernt lag. Hier traf Alexander einen Mann namens Kalanos, den er aufforderte, ihn auf seinen weiteren Feldzügen zu begleiten. Kalanos stimmte zu und wurde Alexanders Ratgeber; offensichtlich war er bei den kommenden Verhandlungen mit indischen Führern sehr von Nutzen. Vom Hof des Omphis aus rief Alexander die anderen Staaten des Punjab auf, sich ihm zu unterwerfen und ihn als Gott anzuerkennen. Dies verweigerte Poros, der König von Pauravas, das von Taxila durch den Fluss Hydaspes (heute Jhelam) getrennt war. Im Mai überquerte Alexander während eines Platzregens den Hydaspes und besiegte eine berittene Einheit unter dem Sohn des Poros. Die Griechen und Perser zogen weiter ostwärts. Zahlenmäßig waren sie dem kleinen Heer des Poros, das sie erwartete, überlegen, doch kamen sie in dem üppig bewaldeten Land mit seinen ständigen Regenfällen schwer zurecht. Außerdem waren Berichte zu ihnen gedrungen, dass Poros eine Einheit von Kriegselefanten unterhielt, mit denen sich die Griechen nie zuvor gemessen hatten. In der Schlacht am Hydaspes wurden die Inder besiegt. In dieser Schlacht soll Alexanders Pferd Bukephalos zu Tode gekommen sein, obwohl andere Quellen sagen, es sei schon vor der Schlacht an Altersschwäche eingegangen. Seinem langjährigen Reittier zu Ehren gründete Alexander die Stadt Bukephala (heute wahrscheinlich Jhelam in Pakistan). Poros wurde begnadigt und zu Alexanders Statthalter in Pauravas ernannt. Weiter im Osten am Ganges lag das Königreich Magadha, das selbst den Menschen des Punjab kaum bekannt war. Alexander wollte auch dieses Land erobern. Bei heftigem Monsunregen quälte sich die weitgehend demoralisierte Armee ostwärts und hatte einen Hochwasser führenden Fluss nach dem anderen zu überqueren. Ende Juli stand die Überquerung des Hyphasis (heute Beas) an, und von Magadha waren die Soldaten noch weit entfernt. Hier meuterten die Männer und weigerten sich weiterzugehen; ihr einziges Bestreben war die Heimkehr. Alexander war außer sich, wurde aber letztlich zur Umkehr gezwungen. Am Ufer des Hyphasis gründete er ein weiteres Alexandreia und siedelte hier viele Veteranen an, die damit wenig Hoffnung hegen durften, jemals wieder nach Griechenland zurückzukehren. Rückkehr nach Persien (326–325 v. Chr.). Der beschwerliche Rückweg zum Hydaspes dauerte bis zum September. In Bukephala war mit dem Bau von 800 Schiffen begonnen worden, die den Fluss abwärts zum Indischen Ozean segeln sollten. Dies waren jedoch nicht genug, um Alexanders gesamte Armee zu transportieren, so dass Fußsoldaten die Schiffe am Ufer begleiten mussten. Im November brachen sie von Bukephala auf, doch nach zehn Tagen trafen sie am Zusammenfluss des Hydaspes mit dem Acesines (heute Chanab) auf Stromschnellen, in denen mehrere Schiffe kenterten und viele Griechen ihr Leben verloren. Der weitere Weg führte durch indische Staaten, die Alexander nicht unterworfen hatte. Immer wieder wurde das Heer angegriffen, und die Perser und Griechen zerstörten Städte und Dörfer, wo sie ihnen in den Weg kamen. Im Kampf gegen die Maller wurde Alexander bei der Erstürmung einer Stadt (vielleicht Multan) durch einen Pfeil schwer verletzt. Das Geschoss drang in seine Lunge; obwohl Alexander überlebte, sollte er den Rest seines Lebens unter den Folgen dieser Verwundung leiden. Vom Krankenlager aus befahl er, dass am Zusammenfluss von Acesines und Indus ein weiteres Alexandreia (nahe dem heutigen Uch) gegründet und Roxanes Vater Oxyartes zum Statthalter der neuen Provinz ernannt werden solle. Als Nächstes griff Alexander die Staaten von Sindh an, um seiner Armee den Weg nach Süden freizukämpfen. Die Könige Musicanos, Oxicanos und Sambos wurden unterworfen. Musicanos, der später eine Rebellion anzettelte, wurde letztlich gekreuzigt. Erst als der Monsun wieder einsetzte, erreichte das Heer 325 v. Chr. die Indusmündung und den Indischen Ozean. Alexander gründete hier die Stadt Xylinepolis (heute Bahmanabad) und machte die Flotte gefechtsbereit. Während etwa ein Viertel der Armee so auf dem Seeweg die Rückkehr antreten sollte, musste der Großteil über den Landweg nach Persien zurückkehren. Im August 325 v. Chr. machte sich das Landheer unter Alexanders Führung auf den Weg. Die Flotte unter dem Befehl des Nearchos brach einen Monat später überstürzt auf, da sich die Einheimischen zu erheben begonnen hatten. Praktisch unmittelbar nach dem Abzug des Heeres fielen die gerade eroberten Kleinstaaten Indiens ab und erhoben sich gegen die in den neuen Städten zurückgebliebenen Veteranen, über deren weiteres Schicksal in den wenigsten Fällen etwas bekannt ist. Das heutige Belutschistan war damals als Gedrosien bekannt. Obwohl die Perser vor der Durchquerung der gedrosischen Wüste warnten, ging Alexander dieses Risiko ein, wahrscheinlich weil dieser Weg der kürzeste war. Die Hintergründe sind in der Forschung jedoch umstritten. Ob er wirklich die sagenhafte Königin Semiramis übertreffen wollte, ist wenigstens fraglich; wenn, dann ging es Alexander wohl darum, die Rückschläge des Indienfeldzugs durch dieses Unternehmen zu relativieren. Auch die Stärke seines Heeres zu diesem Zeitpunkt ist ungewiss, von wohl sicher übertriebenen 100.000 Mann bis zu wahrscheinlich realistischeren 30.000. Die sechzigtägigen Strapazen ließen zahllose Soldaten durch Erschöpfung, Hitzschlag oder Verdursten ums Leben kommen; dabei spielte auch der Umstand eine Rolle, dass Alexanders Führer offenbar recht unfähig waren. Im Dezember erreichten die Soldaten Pura (heute Bampur), einen der östlichsten Vorposten Persiens, und waren damit in Sicherheit. Die Massenhochzeit von Susa, die Revolte in Opis und der Tod Hephaistions (324 v. Chr.). Hephaistion bei Issos, Detail vom sogenannten „Alexandersarkophag“ Alexander gründete im Januar 324 v. Chr. ein weiteres Alexandreia; heute "Golashkerd". Auf dem Weg westwärts stieß er in Susa auf Nearchos und seine Männer, die den Seeweg weitgehend unversehrt überstanden hatten. Neue Feiern wurden genutzt, um 10.000 persische Frauen mit Soldaten zu verheiraten – die Massenhochzeit von Susa. Die Ehen wurden von Alexander als Notwendigkeit gesehen, um das Zusammenwachsen von Persern und Makedonen/Griechen weiter voranzutreiben. Er selbst heiratete zwei Frauen, nämlich Stateira, eine Tochter des Dareios, und Parysatis. Er war somit nun mit drei Frauen verheiratet. Die Hochzeiten wurden nach persischem Ritual begangen. Schon Alexanders Vater hatte die Ehe mit mehreren Frauen als diplomatisches Mittel zur Stabilisierung und Ausweitung seines Machtbereiches eingesetzt. In der Forschung wurde dies als Versuch interpretiert, eine Art „Verschmelzungspolitik“ zu betreiben (Johann Gustav Droysen). Der britische Historiker Tarn sah darin gar den Versuch einer „Vereinigung der Menschheit“; viele andere moderne Historiker wie Badian oder Bosworth lehnen dies jedoch ab. Um weitere Attribute eines persischen Staates zu übernehmen, ernannte Alexander seinen langjährigen Freund Hephaistion (und nach dessen Tod Perdikkas) zum "Chiliarchen" (Wesir) und seinen General Ptolemaios zum Vorkoster. Beide Titel waren im Westen unbekannt. Außerdem wurden gegen mehrere Statthalter, die sich bereichert hatten oder ihren Aufgaben nicht sachgerecht nachgekommen waren, Prozesse eröffnet. Harpalos, ein Jugendfreund Alexanders und sein Schatzmeister, befürchtete aufgrund seines Verhaltens einen solchen Prozess. Er setzte sich mit 6000 Söldnern und 5000 Talenten Silber nach Griechenland ab, wurde jedoch bald darauf auf Kreta ermordet. Die Neuerungen Alexanders vergrößerten die Kluft zwischen ihm und seiner makedonischen Generalität. Da die Zahl der Soldaten iranischer Herkunft im Heer die der Makedonen zu übertreffen begann, fürchteten sie, bald gänzlich bedeutungslos zu sein. Perser durften nun auch höhere Ränge in der Armee bekleiden, was die Makedonen als unerhört ansahen. Als die Armee die Stadt Opis am Tigris erreichte, erlaubte Alexander vielen Makedonen die Rückkehr nach Hause. Was sie vorher ersehnt hatten, sahen sie nun als Affront, da dies das erste Zeichen ihrer Ersetzung durch Orientalen zu sein schien. Quellen berichten, dass manche der Soldaten Alexander wüste Beleidigungen entgegen geschrien hätten. Alexander reagierte, indem er sie ihrer Stellungen enthob und drohte, die persischen Soldaten gegen sie zu schicken. Die Soldaten entschuldigten sich, und ihnen wurde verziehen. 11.500 griechische Soldaten wurden in den Folgetagen nach Hause geschickt. Im Herbst des Jahres 324 v. Chr. ging Alexander nach Ekbatana, wo Hephaistion nach einem von vielen Trinkgelagen erkrankte und starb. Alexander, der wohl lange Jahre Hephaistions Geliebter gewesen war (zumindest bis zum Feldzug im Iran), war außer sich vor Trauer. Er ließ laut Plutarch den Arzt seines Freundes kreuzigen, die Haare von Pferden und Maultieren abrasieren und opfern, fastete mehrere Tage und richtete dann ein monumentales Begräbnis aus. Danach ließ er sämtliche Kossaier umbringen. Die Beziehung zwischen Alexander und Hephaistion wird oft mit der zwischen Achilleus und Patroklos gleichgesetzt. Denn da sich das Geschlecht von Alexanders Mutter Olympias auf den Helden aus dem Trojanischen Krieg zurückführte, verglich Alexander selbst sich mit Achilles und seinen Freund mit Patroklos. Die Behauptung, Alexander sei homosexuell gewesen, ist nach wie vor sehr umstritten: Sicher ist, dass Alexander, so wie auch sein Vater Philipp und viele andere Makedonen bzw. Griechen seiner Zeit, Beziehungen sowohl zu Frauen – er hatte mehrere, deren bekannteste und wohl ernsthafteste die zu Roxane war – als auch zu Männern hatte, wobei diese teils auch sexueller Natur waren. Gleichgeschlechtliche Beziehungen wurden zu jener Zeit nicht geächtet, es kam aber sehr wohl auf den sozialen Status der Partner an. Alexanders letztes Jahr und sein Tod in Babylon (323 v. Chr.). Der Leichenzug gemäß der Beschreibung bei Diodor(Rekonstruktionsversuch des 19. Jahrhunderts) Bei den Olympischen Spielen des Jahres 324 v. Chr. ließ Alexander das so genannte Verbanntendekret verkünden, mit dem er den griechischen Poleis befahl, die jeweils aus politischen Gründen ins Exil getriebenen Bürger wieder aufzunehmen. Dies stellte einen massiven Eingriff in die Autonomie der Städte dar, führte zu heftigen Konflikten in den Gemeinwesen und war letztlich der Anlass dafür, dass sich Athen und mehrere andere Städte nach dem Tod des Königs im Lamischen Krieg gegen die makedonische Herrschaft erhoben. Im Februar 323 v. Chr. kehrte Alexander nach Babylon zurück. Hier bereitete er neue Feldzüge vor, die zur Einnahme der Arabischen Halbinsel führen sollten. Ob er überdies, wie Diodor berichtet, auch plante, anschließend den westlichen Mittelmeerraum mit Karthago zu erobern, ist seit langer Zeit umstritten. In der neueren Forschung geht man zumeist davon aus, dass Alexander in der Tat eine solche Expedition vorbereiten ließ, da den Makedonen im Jahr 322 während des Lamischen Krieges eine sehr große Flotte zur Verfügung stand, die mutmaßlich ursprünglich für das Unternehmen gegen Karthago gebaut worden war. Im Mai, kurz vor dem geplanten Aufbruch des Heeres gen Arabien, verkündete Alexander, dass sein toter Freund Hephaistion fortan als Halbgott zu verehren sei, nachdem ein Bote aus der Oase Siwa eingetroffen war, wo Alexander wegen einer Vergöttlichung Hephaistions angefragt hatte. Aus diesem Anlass veranstaltete er Feiern, bei denen er sich wieder dem unmäßigen Trunk hingab. Am nächsten Tag erkrankte er an einem Fieber, und am 10. Juni starb er schließlich. Hinsichtlich der Todesursache wurden seither mehrere Thesen diskutiert, darunter eine, nach der Alexander am West-Nil-Fieber erkrankte. Auch eine Alkoholvergiftung wird immer wieder in Erwägung gezogen. Nach einer in der Antike verbreiteten Überlieferung ist er hingegen vergiftet worden (angeblich mit dem giftigen Wasser des Styx). Wahrscheinlicher ist, dass seine körperliche Schwächung durch zahlreiche Kampfverletzungen und übermäßigen Weinkonsum zu einer Krankheit geführt hat. Da die Ärzte damals auf die reinigende Wirkung von herbeigeführtem Erbrechen und Durchfall vertrauten, war es üblich, Weißen Germer in geringen Dosen zu verabreichen. Die überlieferten Symptome Alexanders sind typisch für eine Vergiftung durch Weißen Germer. Möglicherweise verschlechterten die Ärzte seinen Zustand daher durch wiederholte Gaben des Mittels. Der Leichnam Alexanders soll zur Konservierung in Honig gelegt worden sein. Entgegen dem Wunsch des Verstorbenen, im Ammonium von Siwa begraben zu werden, wurde er in Alexandria beigesetzt. "Dem Besten." Des Weiteren äußerte Alexander eine dunkle Prophezeiung: Er glaube, "dass seine Freunde große Begräbnisspiele für ihn veranstalten werden". Seinen Siegelring übergab er Perdikkas, der nach Hephaistions Tod sein engster Vertrauter gewesen war. Das Alexandergrab. Der ägyptische König Ptolemaios I. und seine Gemahlin Berenike I. Alexander hatte eine Beisetzung im Ammonheiligtum der Oase Siwa gewünscht. Erst nach zweijährigen Vorbereitungen setzte sich der Leichenzug in Babylon in Bewegung. Er wurde in Syrien von Ptolemaios, dem künftigen König Ptolemaios I., in Empfang genommen und nach Ägypten geleitet. Dort wurde der Leichnam aber nicht in die Oase gebracht, sondern zunächst in Memphis bestattet. Später (wohl noch in der Regierungszeit Ptolemaios’ I., spätestens einige Jahre nach seinem Tod) wurde er nach Alexandria verlegt, nachdem dort eine prächtige Grabstätte für ihn errichtet worden war. Sie wurde unter König Ptolemaios IV. durch ein neues Mausoleum ersetzt, das dann auch als Grabstätte der Ptolemäer diente, die sich wie alle Diadochen auf Alexanders Vorbild beriefen. Die mumifizierte Leiche befand sich in einem goldenen Sarkophag, der aber im 1. Jahrhundert v. Chr. von König Ptolemaios X. durch einen gläsernen ersetzt wurde, der den Blick auf den einbalsamierten Leichnam freigab. Dieser Schritt Ptolemaios' X., der später irrtümlich als Grabschändung gedeutet wurde, sollte den Alexanderkult fördern. Für Caesar, Augustus, Septimius Severus und Caracalla sind Besuche am Grab bezeugt. Möglicherweise wurde es während der Stadtunruhen in der Spätantike oder bei einer Naturkatastrophe zerstört. In den Wirren der Spätantike ging die Kenntnis über den Ort der Grabstätte verloren (zumindest die Leiche soll laut Libanios noch Ende des 4. Jahrhunderts zu sehen gewesen sein). Der Kirchenvater Johannes Chrysostomos († 407) stellte in einer Predigt die rhetorische Frage nach dem Ort des Alexandergrabs, um die Vergänglichkeit des Irdischen zu illustrieren; er konnte also mit Sicherheit davon ausgehen, dass keiner seiner Hörer wusste, wo sich das berühmte Bauwerk befunden hatte. Die Erinnerung daran blieb aber noch in islamischer Zeit erhalten; im 10. Jahrhundert wurde eine angebliche Grabstätte gezeigt. Im 15. und 16. Jahrhundert berichteten europäische Reisende von einem kleinen Gebäude in Alexandria, das als Alexandergrab ausgegeben wurde. Seit dem 18. Jahrhundert sind viele Lokalisierungsversuche unternommen worden, die bisher alle fehlgeschlagen sind. Geschichtlicher Ausblick. Nach Alexanders Tod erwies sich die Loyalität zu seiner Familie, die keinen herrschaftsfähigen Nachfolger stellen konnte, als sehr begrenzt. Zwar wurde zunächst der Erbanspruch seines geistesschwachen Halbbruders und auch der seines postum geborenen Sohnes anerkannt, doch hatte diese Regelung keinen Bestand. Seine Mutter Olympias von Epirus, seine Frau Roxane, sein Sohn Alexander IV., sein illegitimer Sohn Herakles, seine Schwester Kleopatra, seine Halbschwester Kynane, deren Tochter Eurydike und sein Halbbruder Philipp III. Arrhidaios fanden einen gewaltsamen Tod. Statt der Angehörigen des bisherigen makedonischen Königsgeschlechts übernahmen Alexanders Feldherren als seine Nachfolger (Diadochen) die Macht. Da keiner von ihnen stark genug war, sich als Alleinherrscher durchzusetzen, kam es zu einer langen Reihe von Bürgerkriegen, in denen man in wechselnden Koalitionen um die Macht rang. Im Verlauf der Diadochenkriege wurde das riesige Reich in Diadochenreiche aufgeteilt. Drei dieser Reiche erwiesen sich als dauerhaft: das der Antigoniden in Makedonien (bis 148 v. Chr.), das der Seleukiden in Vorderasien (bis 64 v. Chr.) und das der Ptolemäer in Ägypten (bis 30 v. Chr.). Alexander hinterließ zahlreiche neu gegründete Städte, von denen viele seinen Namen trugen; die bedeutendste war Alexandreia in Ägypten. Quellen. Alexander wurde schon zu Lebzeiten eine mythische Gestalt, wozu sein Anspruch auf Gottessohnschaft beitrug. Die zeitgenössischen erzählenden Quellen sind nicht oder nur in Fragmenten erhalten. Dabei handelte es sich, neben den Fragmenten der angeblichen Kanzleidokumente Alexanders "(Ephemeriden)", größtenteils um Berichte von Teilnehmern des Alexanderzugs. Der Hofhistoriker Kallisthenes begleitete Alexander, um die Taten des Königs aufzuzeichnen und zu verherrlichen. Sein Werk „Die Taten Alexanders“ reichte vielleicht nur bis 331 v. Chr., hatte jedoch einen enormen Einfluss auf die späteren Alexanderhistoriker. Weitere Verfasser von Alexandergeschichten waren König Ptolemaios I. von Ägypten, der als Offizier und Hofbeamter in der Nähe Alexanders gelebt hatte, Aristobulos, der für Alexander Unvorteilhaftes leugnete oder abschwächte, sowie Alexanders Flottenbefehlshaber Nearchos und dessen Steuermann Onesikritos. Die stärkste Nachwirkung unter diesen frühen Alexanderhistorikern erzielte Kleitarchos, der zwar ein Zeitgenosse, aber selbst kein Feldzugsteilnehmer war, sondern in Babylon Informationen von Offizieren und Soldaten Alexanders zusammentrug und zu einer rhetorisch ausgeschmückten Darstellung verband, wobei er auch sagenhafte Elemente einbezog. Zu diesen frühen Legenden gehörte beispielsweise die falsche Behauptung, Alexander und Dareios seien einander wiederholt im Nahkampf begegnet. Im 2. Jahrhundert n. Chr. schrieb der römische Senator Arrian auf der Grundlage der älteren Quellen, unter denen er Ptolemaios und Aristobulos bevorzugte, seine "Anabasis", die verlässlichste antike Alexanderquelle. Wahrscheinlich behandelte auch Strabon in seinen nicht erhaltenen "Historika Hypomnemata" („Historische Denkwürdigkeiten“) das Leben Alexanders; seine erhaltene "Geographie" enthält Informationen aus verlorenen Werken der frühen Alexanderhistoriker. Weitere Nachrichten finden sich im 17. Buch der Universalgeschichte Diodors, der sich auf Kleitarchos stützte. Plutarch verfasste eine Lebensbeschreibung Alexanders, wobei es ihm mehr auf das Verständnis des Charakters unter moralischem Gesichtspunkt als auf den historischen Ablauf ankam. Quintus Curtius Rufus schrieb eine in der Antike wenig beachtete Alexandergeschichte. Justin wählte für seine Darstellung aus seiner (verlorenen) Vorlage, der Universalgeschichte des Pompeius Trogus, vor allem Begebenheiten aus, die geeignet waren, seine Leserschaft zu unterhalten. Die Berichte von Curtius, Diodor und Pompeius Trogus hängen von einer gemeinsamen Quelle ab; das Nachrichtenmaterial, das sie übereinstimmend überliefern, stammt wohl von Kleitarchos. Diese Tradition "(Vulgata)" bietet teils wertvolle Informationen; Curtius wird in der französischen Forschung leicht gegenüber Arrian favorisiert. Zusätzliches Material ist bei Athenaios sowie in der Metzer Epitome und dem Itinerarium Alexandri überliefert. Nur wenige Fragmente sind von den Werken des Chares von Mytilene und des Ephippos von Olynth erhalten. Legende. Als Quelle für den historischen Alexander von relativ geringem Wert, aber literarisch von außerordentlicher Bedeutung ist der „Alexanderroman“. Mit diesem Begriff bezeichnet man eine Vielzahl von antiken und mittelalterlichen Biografien Alexanders, welche seine Taten roman- und märchenhaft schildern und verherrlichen. Im Lauf der Jahrhunderte wurde der Stoff fortlaufend literarisch bearbeitet und ausgeschmückt. Die griechische Urfassung in drei Büchern, die den Ausgangspunkt für alle späteren Versionen und Übersetzungen in viele Sprachen bildet, ist wahrscheinlich im späten 3. Jahrhundert in Ägypten entstanden. Ihr unbekannter Autor, der wohl ein Bürger von Alexandria war, wird als Pseudo-Kallisthenes bezeichnet, weil ein Teil der handschriftlichen Überlieferung das Werk irrtümlich dem Alexanderhistoriker Kallisthenes von Olynth zuschreibt. Diesem Werk lagen ältere, nicht erhaltene romanhafte Quellen, fiktive Briefe Alexanders und kleinere Erzählungen zugrunde. Der bekannteste unter den Briefen ist ein angeblich von Alexander an Aristoteles gerichtetes Schreiben über die Wunder Indiens, das in verkürzter Fassung in den Roman eingebaut wurde und auch separat überliefert ist. Die Bezeichnung „Roman“ ist gängig, irreführend, da der Verfasser und seine antike und mittelalterliche Leserschaft an dem Anspruch festhielten, der Inhalt sei Geschichtsschreibung und nicht literarische Erfindung. Die Idee des historischen Alexander, er sei ein Sohn des ägyptischen Gottes Ammon (Amun), verfremdet der Romanautor, indem er aus Alexander ein uneheliches Kind macht. Alexanders Vater ist im Roman der aus Ägypten nach Makedonien geflohene König und Zauberer Nektanebos, der als Ammon auftritt (gemeint ist der Pharao Nektanebos II.). Nektanebos verführt die Königin Olympias während der Abwesenheit ihres Gemahls Philipp. Später tötet Alexander, der als Sohn Philipps aufwächst, seinen leiblichen Vater; erst dann erfährt er seine wahre Abstammung. So macht der ägyptische Autor Alexander zum Ägypter. Eine weitere wesentliche Neuerung des Pseudo-Kallisthenes ist die Einführung eines nicht historischen Italienzugs Alexanders, auf dem der Makedone nach Rom kommt. Rom unterstellt sich ihm ebenso wie alle anderen Reiche des Westens kampflos. Dann unterwirft er in schweren Kämpfen die Völker des Nordens, bevor er gegen das Perserreich zieht. Hier zeigt sich das literarische Bedürfnis, den Helden auch den Westen und Norden erobern zu lassen, damit seine Weltherrschaft vollendet wird. Roxane ist im Roman eine Tochter des Perserkönigs Dareios, die dieser sterbend Alexander zur Frau gibt. Das letzte der drei Bücher, das den Indienfeldzug und den Tod des Helden behandelt, ist besonders stark von Wundern und phantastischen Elementen geprägt. Es schildert auch Alexanders angeblichen Besuch bei der Königin Kandake von Meroe, wobei der König in Verkleidung auftritt, aber enttarnt wird (eine Episode, der spätere Bearbeiter des Stoffs eine ursprünglich völlig fehlende erotische Komponente verleihen). Schließlich wird Alexander vergiftet. Im frühen 4. Jahrhundert fertigte Iulius Valerius eine freie lateinische Übersetzung des Alexanderromans an "(Res gestae Alexandri Magni)". Dabei nahm er Hunderte von Erweiterungen, Änderungen und Auslassungen vor. Er beseitigte Ungereimtheiten und Formulierungen, die den Makedonenkönig in ein ungünstiges Licht rücken konnten, und fügte für Alexander vorteilhafte Details ein. Sein Alexander ist eine mit allen Herrschertugenden ausgestattete Idealgestalt; er begeht zwar Fehler, lernt aber daraus. Ein weiterer Bestandteil der antiken Alexandersage sind fiktive Dialoge des Königs mit den indischen Brahmanen sowie Briefe, die angeblich zwischen ihnen ausgetauscht wurden. Dabei versuchen die Inder, die Überlegenheit östlicher Weisheit und einer einfachen, naturnahen Lebensweise gegenüber der griechischen Zivilisation und dem Machtstreben Alexanders aufzuzeigen. Auch dieses Schrifttum war sowohl griechisch als auch lateinisch verbreitet. Da es um grundsätzliche Fragen der Lebensführung und um Askese ging, war die Wirkung in christlicher Zeit beträchtlich. Kult und Vorbildfunktion. Die Herrscher, die nach Alexanders Tod in den verschiedenen Teilen seines Reichs an die Macht kamen, waren nicht mit ihm blutsverwandt, und soweit in Makedonien Loyalität zur herkömmlichen Ordnung vorhanden war, galt sie dem Herrscherhaus insgesamt, wobei es nicht speziell auf die verwandtschaftliche Nähe zu Alexander ankam. Daher gab es in den Diadochenreichen wenig Anlass für einen offiziellen staatlichen Alexanderkult; dieser blieb den einzelnen Städten überlassen. Erst in hoch- und späthellenistischer Zeit wurde der politische Rückgriff auf Alexander zu einem wichtigen propagandistischen Mittel. Einen Sonderfall bildete jedoch Ägypten, dessen neue Hauptstadt Alexandria eine Gründung Alexanders und der Ort seines Grabes war. Die dort regierenden Ptolemäer förderten von Anfang an den Alexanderkult im Rahmen ihrer Propaganda. Er bildete aber zunächst keinen zentralen Bestandteil ihrer Herrschaftslegitimation und wurde erst von Ptolemaios X., der den Doppelnamen „Ptolemaios Alexandros“ führte, intensiv politisch instrumentalisiert. Ein prominenter Gegner der Römer, König Mithridates VI. von Pontos († 63 v. Chr.), fiel durch seine mit Nachdruck betriebene Alexander-Imitation auf. Er bekleidete sich mit dem Mantel Alexanders, den er von den Ptolemäern erbeutet hatte, und illustrierte so seinen Anspruch, Vorkämpfer des Griechentums und Retter der hellenistischen Monarchie vor den Römern zu sein. Später erbeutete der römische Feldherr Gnaeus Pompeius Magnus, der Mithridates besiegte, diesen Mantel und trug ihn bei seinem Triumphzug. Mit Pompeius, dessen Beiname „der Große“ an Alexander erinnerte, begann die offenkundige römische Alexander-Imitation, zunächst als Reaktion auf die Propaganda des Mithridates. Mehrere römische Feldherren und Kaiser stellten sich propagandistisch in Alexanders Nachfolge; sie verglichen sich mit ihm und versuchten, seine Erfolge im Osten zu wiederholen. Dabei steigerte sich die Verehrung Alexanders in manchen Fällen zu einer demonstrativen Nachahmung von Äußerlichkeiten. Zu den Verehrern und Nachahmern Alexanders zählten unter den Kaisern insbesondere Trajan, Caracalla und (mit Vorbehalten) Julian. Augustus trug zeitweilig auf seinem Siegelring ein Bildnis Alexanders, Caligula legte sich den aus Alexandria geholten angeblichen Panzer Alexanders an, Nero stellte für einen geplanten Kaukasusfeldzug eine neue Legion auf, die er „Phalanx Alexanders des Großen“ nannte, Trajan setzte sich einen Helm auf, den Alexander getragen haben soll. Kaiser Severus Alexander, der ursprünglich Alexianus hieß, änderte seinen Namen in Anknüpfung an den Makedonen. Urteile. Einen sehr tiefen und dauerhaften Eindruck hinterließ in Griechenland die Zerstörung Thebens. Sie wurde nicht nur von den Zeitgenossen, sondern jahrhundertelang (noch in der römischen Kaiserzeit) als unerhörte Grausamkeit empfunden, die man Alexander zur Last legte, und als historisches Musterbeispiel einer entsetzlichen Katastrophe zitiert. Besonders die antiken Redner kamen mit Vorliebe darauf zu sprechen und nutzten diese Gelegenheit, bei ihrem Publikum starke Emotionen zu wecken. Es hieß, Alexander habe wie ein wildes Tier und als Unmensch "(apánthrōpos)" gehandelt. Noch in byzantinischer Zeit wurde diese Deutungstradition rezipiert. Aus philosophischer Sicht wurde Alexander meist negativ beurteilt, da seine Lebensweise einen Kontrast zu den philosophischen Idealen der Mäßigung, Selbstbeherrschung und Seelenruhe bildete. Insbesondere die Stoiker kritisierten ihn heftig und warfen ihm Hochmut vor; ihre Kritik richtete sich auch gegen Aristoteles (den Gründer einer rivalisierenden Philosophenschule), der als Erzieher Alexanders versagt habe. Auch die Kyniker pflegten Alexander abschätzig zu beurteilen, wobei die Anekdote von der Begegnung des Königs mit dem berühmten kynischen Philosophen Diogenes von Sinope den Ansatzpunkt bildete. Ihr zufolge hatte Diogenes Alexander, der ihm einen Wunsch freistellte, nur gebeten: „Geh mir aus der Sonne“, und Alexander soll gesagt haben: „Wenn ich nicht Alexander wäre, wollte ich Diogenes sein.“ In der von Aristoteles gegründeten Philosophenschule der Peripatetiker war die Ablehnung Alexanders ebenfalls ausgeprägt, wenn auch nicht durchgängig. Ihr Anlass waren anscheinend ursprünglich Spannungen zwischen Aristoteles und Alexander, die noch in der römischen Kaiserzeit ein spätes Echo in einem haltlosen Gerücht fanden, wonach Aristoteles ein Gift zubereitet hatte, mit dem Alexander ermordet wurde. Das negative Alexander-Bild der Philosophen teilte auch Cicero. Er überliefert die berühmte Anekdote von dem gefangenen Seeräuber, der von Alexander wegen seiner Übeltaten zur Rede gestellt wurde, worauf der Pirat erwiderte, er handle in kleinem Maßstab aus demselben Antrieb, aus dem der König weltweit dasselbe tue. Besonders drastisch drückte Seneca die stoische Sichtweise aus. Er bezeichnete Alexander als wahnsinnigen Burschen, zum Bersten aufgeblasenes Tier, Räuber und Plage der Völker. Ähnlich äußerte sich Senecas Neffe, der Dichter Lucan. Der philosophisch orientierte Kaiser Julian, der Alexander als Feldherrn bewunderte, kritisierte ihn zugleich scharf wegen Maßlosigkeit und unphilosophischer Lebensführung. Unter den philosophisch orientierten Autoren gab es auch eine kleine Minderheit, die Alexander Lob spendete. Dazu gehörte Plutarch, der in seinen zwei Deklamationen „Über das Glück oder die Tugend Alexanders des Großen“ aus dem König einen Philosophenherrscher machte, dessen Eroberungen barbarischen Völkern Recht und Frieden brachten und die Unterworfenen so humanisierten. Bei diesen Jugendwerken Plutarchs handelte es sich allerdings um rhetorische Stilübungen, die nicht notwendigerweise seine wirkliche Auffassung spiegeln. In seiner Lebensbeschreibung Alexanders äußerte sich Plutarch weit kritischer, bemühte sich aber auch um eine Rechtfertigung Alexanders. Dion von Prusa, der den an Alexander anknüpfenden Kaiser Trajan bewunderte, würdigte die heldenhafte Gesinnung des Makedonenkönigs. Bei den Römern war ein beliebtes Thema die hypothetische Frage, wie ein militärischer Konflikt zwischen dem Römischen Reich und Alexander verlaufen wäre. Der Historiker Livius befasste sich eingehend damit und kam zum Ergebnis, dass die römischen Heerführer dem Makedonenkönig überlegen waren. Alexander habe seine Siege der militärischen Untüchtigkeit seiner Gegner verdankt. Diese Einschätzung verband Livius mit einem vernichtenden Urteil über Alexanders Charakter, der durch die Erfolge des Königs verdorben worden sei. Ähnlich urteilte Curtius Rufus, der die Siege des Makedonen mehr auf Glück als auf Tüchtigkeit zurückführte und meinte, die Herausbildung tyrannischer Züge in Alexanders Charakter sei ein Ergebnis übermäßigen Erfolgs gewesen. Aus jüdischer Sicht fiel das Urteil über Alexander sehr vorteilhaft aus. Der jüdische Geschichtsschreiber Flavius Josephus beschreibt Gunstbezeugungen des Makedonen für die Juden und behauptet, Alexander habe sich, als er nach Jerusalem kam, vor dem Gott, den die Juden verehrten, niedergeworfen. Dabei handelt es sich um eine jüdische Abwandlung einer griechischen Erzählung. Im 4. Jahrhundert wurden im Osten des Reichs Bronzemünzen Alexanders wie Amulette getragen. Unter den Kirchenvätern hebt sich Orosius als radikalster Kritiker Alexanders ab. In seiner auf Justin fußenden "Historia adversus paganos" („Geschichte gegen die Heiden“) schildert er ihn als blutdürstigen, grausamen Unmenschen und großen Zerstörer. Mittelalter. Die mittelalterliche Alexander-Rezeption war außerordentlich intensiv und vielfältig. Dabei stand das Sagengut im Vordergrund. Die antike Gestalt wurde mittelalterlichen Vorstellungen angepasst; beispielsweise erhält der König eine Ritterpromotion (Schwertleite). Besonders Dichter regte der Stoff im Westen ebenso wie im Orient zur Bearbeitung an; es entstanden über 80 Dichtungen in 35 Sprachen. Quellen. Die grundlegenden antiken Quellen, die im Mittelalter in West- und Mitteleuropa zur Verfügung standen, waren neben Pseudo-Kallisthenes der eifrig rezipierte Curtius Rufus, der nur als Nebenquelle dienende Justin und der viel beachtete Orosius, dessen negative Bewertung Alexanders allerdings wenig Beachtung fand. Besonders die märchenhaften Elemente des Alexanderromans machten Eindruck und regten die Phantasie der Bearbeiter zu weiteren Ausformungen an. Der Roman wurde in zahlreiche europäische Sprachen übersetzt, wobei lateinische Fassungen die Grundlage bildeten; hinzu kamen die teils stark abweichenden Versionen in orientalischen Sprachen (Armenisch, Altsyrisch, Hebräisch, Arabisch, Persisch, Türkisch, Äthiopisch, Koptisch). Eine wesentliche Rolle spielte ferner die Prophetie im biblischen Buch Daniel über den Untergang der aufeinanderfolgenden Weltreiche; in diesem Licht erschien Alexander, der nach mittelalterlicher Deutung das zweite der vier Weltreiche vernichtete und das dritte gründete, als Werkzeug Gottes. Auch dem ersten Kapitel des ersten Makkabäerbuchs war eine knappe Zusammenfassung von Alexanders Lebensgeschichte zu entnehmen; dort las man, dass er bis ans Ende der Welt gelangte und „die Welt vor ihm verstummte“. Dieser biblische Hintergrund verlieh ihm zusätzliche Bedeutung. Heldenkatalog. Im Spätmittelalter zählte man Alexander zum Kreis der Neun Guten Helden, einem in der volkssprachlichen Literatur beliebten Heldenkatalog, der für die Zeit des Alten Testaments, die griechisch-römische Antike und die christliche Zeit jeweils die drei größten Helden benannte; für die Antike waren es Hektor, Alexander und Caesar. Noch breiter als in der Literatur wurde diese Heldenreihe in der Bildenden Kunst (Skulptur, Malerei, Textilkunst) rezipiert. Mittellateinische Literatur. Das Alexanderbild in der lateinischsprachigen Welt des Mittelalters war großenteils vom lateinischen Alexanderroman geprägt. Im Frühmittelalter ging die Hauptwirkung nicht von der ursprünglichen Fassung der von Iulius Valerius stammenden Übersetzung aus, von der nur drei vollständige Handschriften überliefert waren; weit bekannter war ein in mehr als 60 Handschriften erhaltener, spätestens im 9. Jahrhundert entstandener Auszug "(Epitome)" aus diesem Werk. Um 968/969 fertigte der Archipresbyter Leo von Neapel eine neue lateinische Übersetzung des Pseudo-Kallisthenes aus dem Griechischen an, die "Nativitas et victoria Alexandri Magni" („Geburt und Sieg Alexanders des Großen“), die mehrfach – zuletzt noch im 13. Jahrhundert – überarbeitet und erweitert wurde; die überarbeiteten Fassungen sind unter dem Titel "Historia de preliis Alexandri Magni" („Geschichte von den Schlachten Alexanders des Großen“) bekannt. Der Dichter Quilichinus von Spoleto schrieb 1237/1238 eine Versfassung der "Historia de preliis" in elegischen Distichen, die im Spätmittelalter populär wurde. Noch weit einflussreicher war aber die schon zwischen 1178 und 1182 verfasste "Alexandreis" Walters von Châtillon, ein Epos in zehn Büchern auf der Grundlage der Darstellung des Curtius Rufus, das zur Schullektüre wurde und im 13. Jahrhundert als Schulbuch Vergils Aeneis an Beliebtheit übertraf. Walter verzichtete fast gänzlich auf die Auswertung des im Alexanderroman vorliegenden Materials. Für ihn war Alexander der stets siegreiche Held, der sich selbst ebenso wie alle Feinde überwand und so unsterblichen Ruhm erlangte. Das Verhältnis dieser Autoren und ihres Publikums zu Alexander war vor allem von Bewunderung für außerordentliche Heldentaten und von Staunen über das Märchenhafte und Exotische geprägt. Besondere Beachtung fand Alexanders Tod; er bot Anlass zu unzähligen religiös-erbaulichen Betrachtungen, die auf die Endlichkeit und Nichtigkeit aller menschlichen Größe angesichts des Todes abzielten. Auf diesen Aspekt wiesen unter anderem viele Kleindichtungen hin, darunter insbesondere fingierte Grabschriften Alexanders. Besonders fasziniert waren mittelalterliche Leser von einer Erzählung von Alexanders Himmelsflug und Tauchexpedition, die Leo von Neapel nach dem griechischen Roman wiedergab. Dieser Sage zufolge wollte der König nicht nur auf der Erdoberfläche die äußersten Grenzen erreichen, sondern auch den Himmel und die Tiefe des Ozeans erkunden. Zu diesem Zweck ersann und baute er mit seinen Freunden ein von Greifen gezogenes Luftfahrzeug und ein von Ketten gehaltenes gläsernes Tauchfahrzeug. Der Himmelsflug wurde von mittelalterlichen Künstlern häufig abgebildet. Aus dem 12. Jahrhundert stammt das "Iter ad Paradisum" („Paradiesfahrt“), die lateinische Version einer jüdischen Sage über Alexanders Versuch, das irdische Paradies zu finden, den in der Genesis beschriebenen Garten Eden. Neben der Heldenverehrung kamen vereinzelt auch extrem negative Deutungen der Persönlichkeit Alexanders vor. So setzten ihn im 12. Jahrhundert die prominenten Theologen Hugo von Sankt Viktor und Gottfried von Admont mit dem Teufel gleich. Erzählungen aus dem Alexanderroman wurden in Weltchroniken und Enzyklopädien aufgenommen, was ihre Rezeption zusätzlich erweiterte. Die lateinische Überlieferung bildete die Grundlage für die volkssprachliche Rezeption. In den volkssprachlichen Literaturen entstanden zahlreiche Prosawerke und Dichtungen über Stoffe der Alexandersage, wobei vor allem die verschiedenen lateinischen Fassungen des Pseudo-Kallisthenes, die "Historia Alexandri" des Curtius Rufus und die "Alexandreis" Walters von Châtillon verarbeitet wurden. Romanische Literaturen. Alberich von Bisinzo (Albéric de Pisançon), der im frühen 12. Jahrhundert die älteste volkssprachliche Alexander-Biografie verfasste, ein nur teilweise erhaltenes Gedicht in frankoprovenzalischem Dialekt, verwarf nachdrücklich die Legende von Alexanders unehelicher Geburt und hob seine hochadlige Abstammung von väterlicher und mütterlicher Seite hervor. Er betonte auch die hervorragende Bildung des Herrschers, die – einem mittelalterlichen Bildungsideal entsprechend – neben dem Griechischen (das der Makedone wie eine Fremdsprache lernen musste) auch Latein- und Hebräischkenntnisse umfasst habe. Nach der Mitte des 12. Jahrhunderts entstanden weitere französische Gedichte, die einzelne Episoden aus Alexanders Leben (Belagerung von Tyros, Indienfeldzug, Lebensende) behandelten. Sie wurden im späten 12. Jahrhundert zur „Standardversion“ des altfranzösischen "Roman d’Alexandre" (auch: "Roman d’Alixandre") zusammengefügt, die von allen im romanischen Sprachraum verbreiteten volkssprachlichen Bearbeitungen des Stoffs die stärkste Wirkung erzielte. Dieses Epos besteht aus über 20 000 Versen, Zwölf- und Dreizehnsilbern; vom "Roman d’Alexandre" erhielt dieses Versmaß später die Bezeichnung Alexandriner. Der Roman schildert Alexanders Leben durch Verknüpfung von vier Gedichten unterschiedlichen Ursprungs. Dabei kommt zum Altbestand der Alexanderlegende noch eine Reihe von frei erfundenen Personen und Begebenheiten hinzu. Der Autor stellt Alexander im Stil der Chanson de geste wie einen sehr standesbewussten, ritterlichen Lehnsherrn des Mittelalters dar. Er hebt dabei besonders die Großzügigkeit seines Helden hervor und präsentiert das Ideal eines harmonischen Verhältnisses zwischen König und Vasallen. Neben epischen Partien, besonders in den Kampfschilderungen, finden sich auch stärker romanhafte und vom Phantastischen geprägte. Mehrere Dichter fügten später Ergänzungen hinzu, insbesondere die einem Publikumsbedürfnis entsprechende Darstellung der Rache für den Giftmord an Alexander. In England schrieb Thomas von Kent im späten 12. Jahrhundert einen Alexanderroman in Alexandrinern in anglonormannischer Sprache mit dem Titel "Le roman de toute chevalerie". Er akzeptierte im Gegensatz zu allen älteren romanhaften Bearbeitungen des Stoffs problemlos die Vorstellung, dass Alexander aus einem Ehebruch seiner Mutter hervorging, was für die früheren Autoren ein nicht akzeptabler Makel gewesen war. Im 15. Jahrhundert entstanden Prosafassungen des "Roman d’Alexandre". Der altfranzösische Prosa-Alexanderroman fand weite Verbreitung. Einen Höhepunkt erreichte die Alexander-Bewunderung im Herzogtum Burgund am Hof Herzog Philipps des Guten († 1467) und seines Nachfolgers, Karls des Kühnen. Die bedeutendste spanische Bearbeitung des Stoffs ist "El libro de Alexandre". Dieses Epos umfasst über 10 000 Verse (Alexandriner) und ist damit die umfangreichste epische Dichtung Spaniens aus dem 13. Jahrhundert. Der unbekannte Verfasser, ein vorzüglich gebildeter Geistlicher, verfolgt ein moralisches Ziel; er will dem Leser anhand der erzählten Begebenheiten die vorbildliche Tugendhaftigkeit des Helden vor Augen stellen. In Italien entstand eine Reihe von volkssprachlichen Werken über Alexanders Lebens in Prosa und in Versen, deren Grundlage meist die lateinische "Historia de preliis" war. Die älteste vollständig erhaltene italienische Alexanderdichtung ist die "Istoria Alexandri regis" von Domenico Scolari aus der ersten Hälfte des 14. Jahrhunderts. Scolari christianisiert seinen Helden weitgehend; Alexander ist ein frommer, geradezu heiliger Wundertäter. Als Universalmonarch beglückt er die Welt durch Recht und Frieden. Im 15. Jahrhundert erreichte das Interesse an der Alexandersage in Italien seinen Höhepunkt. Deutsche Literatur. Die deutschsprachige Alexandersage und Alexanderdichtung setzte um die Mitte des 12. Jahrhunderts mit dem Alexanderlied des Pfaffen Lamprecht ein, der sich eng an Alberichs Versroman hielt. Die drei erhaltenen, später bearbeiteten Fassungen von Lamprechts Gedicht, der „Vorauer Alexander“, der „Straßburger Alexander“ und der „Basler Alexander“, setzten jedoch in der Bewertung Alexanders unterschiedliche Akzente. Im „Vorauer Alexander“ wird deutliche Kritik am König geübt. Alexander handelt zwar nach dem Willen Gottes, wird aber als hochmütig und herrschsüchtig dargestellt; die Zerstörung von Tyros wird als schweres Unrecht verurteilt, da die Tyrer als treue Untertanen des Perserkönigs nur ihre Pflicht erfüllten. Überdies erscheint er als mitleidlos, da er nicht über den Tod der vielen Gefallenen trauert. Andererseits verfügt er aber über Umsicht, die ihn seine Neigung zu jähzorniger Unbeherrschtheit überwinden lässt, womit er ein Beispiel gibt und sich von dem sehr negativ gezeichneten Dareios abhebt. Alexander wird bewusst als zwiespältige Persönlichkeit gezeichnet. Ein einfacheres Alexanderbild entwirft ein aus ritterlich-aristokratischer Sicht wertender Autor im „Straßburger Alexander“; hier wird der König als vorbildlicher Kämpfer, Feldherr und Herrscher idealisiert. Als solcher handelt er nicht eigenmächtig, sondern sucht den Rat seiner Vasallen. Er ist klug, gerecht und gütig, und seine schon in der Antike negativ bewertete Neigung zum Jähzorn wird als einigermaßen berechtigt dargestellt. Allerdings ist er nicht frei von Hochmut; zum vollkommenen Herrscher fehlt ihm die Mäßigung, die er aber in seiner letzten Lebensphase doch noch erlangt, womit er das Ideal restlos verwirklicht. Im „Basler Alexander“ dominiert ein anderes, in der mittelalterlichen Alexander-Rezeption ebenfalls zentrales Element, die Freude am Wunderbaren, Seltsamen und Exotischen. Diese Behandlung des Stoffs zielt auf das Unterhaltungsbedürfnis eines breiten, nicht mehr primär an ritterlichen Idealen orientierten spätmittelalterlichen Publikums. Im 13. Jahrhundert verfasst der Dichter Rudolf von Ems das (allerdings unfertig gebliebene) Epos "Alexander". Er schildert den König als vorbildlich tugendhaften Helden und ritterlichen Fürsten, der sich durch seine moralischen Qualitäten als Herrscher legitimiert. Alexander vollzieht als Werkzeug Gottes dessen Willen. Durch ihn werden die Perser, die mit ihrem Verhalten den Zorn des Allmächtigen hervorgerufen haben, gezüchtigt. Sein Handeln ist Teil der Heilsgeschichte, er kann christlichen Herrschern als Vorbild dienen. Ulrich von Etzenbach beschreibt in seinem zwischen 1271 und 1282 entstandenen Gedicht "Alexander" (28.000 Verse) den König nicht nur als edlen Ritter, sondern auch als überaus frommen Mann Gottes, der seine Siege seinem gottgefälligen Verhalten und Gottvertrauen verdankt; die ihm zugeschriebenen Tugenden stammen aus der Heiligendarstellung. Ulrich missbilligt allerdings einzelne Taten wie die Ermordung Parmenions; darin unterscheidet er sich von Rudolf, bei dem Alexander makellos ist und Parmenion sein Schicksal selbst verschuldet. 1352 vollendet der nur aus seinem einzigen Werk bekannte Dichter Seifrit seine Alexanderdichtung, in der er besonders die Rolle Alexanders als Weltherrscher betont und sich bemüht, von seinem Helden den gängigen Vorwurf des Hochmuts fernzuhalten. Im 14. und im 15. Jahrhundert war der Alexanderstoff in neuen Prosabearbeitungen weit verbreitet; die eine befindet sich im "Großen Seelentrost" (Mitte des 14. Jahrhunderts), die andere ist Johann Hartliebs "Histori von dem grossen Alexander", die nach der Mitte des 15. Jahrhunderts entstand. Beide dienten einem moralischen Zweck, doch ihre Verfasser gingen dabei auf völlig entgegengesetzte Weise bewertend vor. Im Großen Seelentrost bietet Alexander das abschreckende Lehrbeispiel eines durch und durch gierigen Menschen, den seine Neugier, Besitzgier und Machtgier letztlich ins Verderben führt, denn er versucht die dem Menschen gesetzten Grenzen zu überschreiten. Bei Hartlieb hingegen ist er ein Vorbild an Mannes- und Fürstentugend und überdies von einem wissenschaftlichen Erkenntnisstreben beseelt. Für mittelalterliche Verhältnisse auffallend ist die positive Wertung der Wissbegierde, eines auf die Natur gerichteten Forscherdrangs, der Alexander zugeschrieben wird. Im 15. Jahrhundert wurden auch Alexanderdramen geschaffen und aufgeführt, doch sind ihre Texte nicht erhalten. Während die mit literarischem Anspruch gestalteten Werke Alexander in der Regel verherrlichen oder zumindest in überwiegend positivem Licht erscheinen lassen, werden im religiös-erbaulichen und moralisch belehrenden Prosaschrifttum oft negative Züge des Makedonenkönigs betont; dort wird er als abschreckendes Beispiel für Maßlosigkeit und Grausamkeit angeführt. Sein Himmelsflug dient Geistlichen wie Berthold von Regensburg als Symbol für frevelhaften Übermut. Andererseits heben bedeutende Dichter wie Walther von der Vogelweide und Hartmann von Aue Alexanders vorbildliche "milte" (Freigebigkeit) hervor. Englische Literatur. Trotz des traditionell großen Interesses am Alexanderstoff in England gab es erst im Spätmittelalter einen Alexanderroman in englischer Sprache, die mittelenglische Dichtung "Kyng Alisaunder", die wohl aus dem frühen 14. Jahrhundert stammt. Sie schildert den König als Helden und hebt seine Großmut hervor, verschweigt aber auch nicht seine Maßlosigkeit und Unbesonnenheit. Eine Reihe von weiteren Schilderungen von Alexanders Leben fußte auf der "Historia de preliis Alexandri Magni", die im mittelalterlichen England beliebt war. Byzanz und slawische Länder. Auch für die volkstümliche byzantinische Alexander-Rezeption bildete der Roman des Pseudo-Kallisthenes den Ausgangspunkt. Er lag zunächst in einer mittelgriechischen Prosabearbeitung aus dem 7. Jahrhundert vor. In spätbyzantinischer Zeit entstanden mehrere Neufassungen. Hier hat Alexander die Gestalt eines byzantinischen Kaisers angenommen; er ist von Gott gesandt und mit allen Ritter- und Herrschertugenden ausgestattet, wird aber nicht zum Christen gemacht, sondern dem Bereich des Alten Testaments zugeordnet. Er ist mit dem Propheten Jeremia befreundet und wird von ihm beschützt. 1388 entstand das byzantinische Alexandergedicht. Die beliebteste Szene aus der Alexandersage war in Byzanz der Himmelsflug, der in der Bildenden Kunst oft dargestellt wurde. In den süd- und ostslawischen Literaturen wurde der Alexanderstoff stark rezipiert, wobei der Weg des Überlieferungsguts vom griechischen Alexanderroman über kirchenslawische Bearbeitungen in die Volkssprachen führte. Eine altbulgarische Fassung des Romans "(Aleksandria)" wurde zum Ausgangspunkt der Rezeption in russischen Chroniken. In Russland war der Alexanderroman im Hochmittelalter in mehreren Versionen verbreitet. Im 14. Jahrhundert begann eine neue Version zu dominieren, die vom byzantinischen Volksroman ausging und sich durch stark ausgeprägte Merkmale des mittelalterlichen Ritterromans auszeichnete. Besonders beliebt war die serbische Fassung („serbischer Alexander“ oder „serbische Alexandreis“), die auch in Russland Verbreitung fand und Vorlage für die spätmittelalterliche georgische Prosaübersetzung war. In Russland, der Ukraine, Bulgarien und Rumänien setzte sich dieser Typus der Alexanderlegende durch. Arabische Literatur. In der mittelalterlichen arabischsprachigen Literatur war Alexander unter dem Namen „al-Iskandar“ bekannt, da der Anfang seines Namens mit dem arabischen Artikel "al" verwechselt wurde. Er wurde schon in der vorislamischen Dichtung erwähnt. Folgenreich war seine Identifizierung mit der koranischen Figur des Dhū l-Qarnain („der Zweihörnige“), von dem in Sure 18 erwähnt wird, dass er einen Damm gegen Gog und Magog errichtete (Verse 83–98). Diese Identifizierung wurde von den muslimischen Gelehrten mehrheitlich, aber nicht einhellig akzeptiert. Nach heutigem Forschungsstand ist die Ableitung der Figur Dhū l-Qarnains von Alexander sowie die Herkunft des Motivs aus der altsyrischen christlichen Alexanderlegende eine gesicherte Tatsache. Die im Orient verbreitete Bezeichnung Alexanders als „zweihörnig“ taucht schon in einer spätantiken Alexanderlegende in altsyrischer Sprache auf, wo Alexander ein christlicher Herrscher ist, dem Gott zwei Hörner auf dem Kopf wachsen ließ, womit er ihm die Macht verlieh, die Königreiche der Welt zu erobern. Den ursprünglichen Anlass zur Bezeichnung „der Zweihörnige“ bot die antike bildliche Darstellung Alexanders mit Widderhörnern, die auf seine Vergöttlichung deutete. Der Gott Zeus Ammon (Amun), als dessen Sohn Alexander sich betrachtete, wurde als Widder oder widderköpfig dargestellt. Im Koran wird die Geschichte des Zweihörnigen dem Propheten geoffenbart, denn er soll sie mitteilen, wenn er danach gefragt wird. Alexander erscheint darin als frommer Diener Gottes, dem die Macht auf der Erde gegeben war und „ein Weg zu allem“. Er gelangte bis zum äußersten Westen der Welt, wo die Sonne „in einer verschlammten Quelle untergeht“, und erlangte die Herrschaft über das dort lebende Volk (hier ist ein Nachhall von Pseudo-Kallisthenes zu erkennen, der Alexander nach Italien kommen und den gesamten Westen einnehmen ließ). Dann schlug der Zweihörnige den Weg zum äußersten Osten ein und gelangte an den Ort, wo die Sonne aufgeht (daher deuteten die mittelalterlichen Koranausleger die Zweihörnigkeit meist als Zeichen für die Herrschaft über Westen und Osten). Schließlich begab er sich in eine andere Richtung und kam in eine Gegend, wo Menschen lebten, die von Angriffen zweier Völker, der Yāǧūǧ und Māǧūǧ (biblisch Gog und Magog), bedroht waren und ihn um Hilfe baten. Zum Schutz der Bedrohten baute er, ohne einen Lohn zu verlangen, zwischen zwei Berghängen einen gigantischen Wall aus Eisen, den die Angreifer nicht übersteigen oder durchbrechen konnten. Dieser Schutzwall wird bis zum Ende der Welt bestehen. – Eine altsyrische Version der Sage von Alexanders Aussperrung von Gog und Magog (in den "Revelationes" des Pseudo-Methodius) wurde ins Griechische und ins Lateinische übersetzt und fand in Europa viel Beachtung. Auch die voranstehende Passage der 18. Sure (Verse 59–81) scheint von der Alexanderlegende beeinflusst zu sein, obwohl in der Version des Korans Mose statt Alexander der Protagonist ist. Ein dort erzähltes Wunder (Wiederbelebung eines getrockneten Fisches) stammt anscheinend aus dem Alexanderroman; es kommt auch in einer spätantiken altsyrischen Version der Legende vor. Es ist davon auszugehen, dass der Stoff des Alexanderromans zur Entstehungszeit des Korans bereits in arabischer Übersetzung verbreitet war. Die islamische Wertschätzung für Alexander, die sich aus seiner Schilderung im Koran ergab, führte dazu, dass einige Autoren ihn zu den Propheten zählten. Die mittelalterlichen arabischsprachigen Historiker behandelten die Regierung Alexanders eher knapp. Im Gegensatz zu den europäischen christlichen Chronisten gingen bedeutende muslimische Geschichtsschreiber wie Ṭabarī, Masʿūdī, Ibn al-Aṯīr und Ibn Chaldūn auf die Alexandersage nicht oder nur nebenbei ein; sie hielten sich primär an die Überlieferung über den historischen Alexander. Ṭabarī betrachtete seine Quellen kritisch; er stützte sich insbesondere auf die Darstellung des bedeutenden Gelehrten Ibn al-Kalbi († 819/821) und stellte die Vernichtung des Perserreichs als notwendig und berechtigt dar, da Dareios tyrannisch regiert habe. Die Auseinandersetzung mit dem Legendenstoff war kein Thema der Geschichtsschreiber, sondern ein Anliegen der Theologen, die sich mit der Koranauslegung befassten. Reichhaltiges Legendenmaterial über Alexander war im muslimischen Spanien (Al-Andalus) verbreitet; dort hieß es, er habe die Iberische Halbinsel als König beherrscht und in Mérida residiert. Außerdem kommt Alexander auch in der arabischen Weisheitsliteratur vor, wo er als Gelehrter und Musikliebhaber beschrieben wird. Sehr oft taucht sein Name in Spruchsammlungen auf, wobei die Sprüche teils ihm zugeschrieben werden, teils von ihm handeln. Persische und türkische Literatur. Alexander in einer persischen Handschrift des 14. Jahrhunderts Im Persischen wurde Alexander "Iskandar", "Sikandar" oder "Eskandar" genannt. In der Spätantike war im persischen Sassanidenreich eine Legende verbreitet, wonach er der persischen Religion, dem Zoroastrismus, einen schweren Schlag versetzte, indem er religiöse Schriften vernichten ließ. Daher war Alexander bei den Anhängern dieser Religion verhasst und wurde als teuflisches Wesen betrachtet. Nach der Islamisierung wirkte sich diese Sage aber im gegenteiligen Sinne aus, denn nun machte man aus Alexander einen Vorkämpfer des Monotheismus gegen heidnische Götzendiener. Der berühmte persische Dichter Firdausī († 1020) baute eine Version der Alexanderlegende in das iranische Nationalepos "Šāhnāmeh" ein, wobei er in manchen Einzelheiten von Pseudo-Kallisthenes abwich. Für ihn war Alexander ein „römischer Kaiser“ und Christ, der unter dem Kreuzeszeichen kämpfte; offenbar dachte er dabei an die byzantinischen Kaiser. Außerdem machte er – wie schon Ṭabarī, der persischer Abstammung war – Alexander zu einem Halbbruder des Dareios, womit er ihn für das Persertum vereinnahmte; aus der Vernichtung des Perserreichs wurde ein Bruderzwist innerhalb der iranischen Herrscherfamilie. 1191 schuf der persische Dichter Nezāmi das "Eskandar-Nāme" („Alexander-Buch“). Sein Alexander ist völlig islamisiert; er ist ein monotheistischer Held, der den Zoroastrismus der Perser mit Feuer und Schwert ausrottet und dafür den Beifall des Dichters erhält. Er unterwirft nicht nur Indien, sondern auch China und gelangt im Westen bis nach Spanien. Wie schon bei Firdausī sucht Alexander auch Mekka auf und reinigt dort die Kaaba. Außerdem ist er auch Philosoph und ein großer Förderer der Wissenschaft; er befiehlt den Gelehrten, das Wissen aller Völker zusammenzutragen. Das "Eskandar-Nāme" wurde zum Vorbild für einige spätere Dichtungen ähnlicher Art. Die Handschriften der persischen Alexander-Bücher wurden trotz des islamischen Bilderverbots ab dem 14. Jahrhundert mit Buchmalerei geschmückt. In Nordindien sorgten die Mogul-Kaiser des 16. Jahrhunderts für die Bebilderung solcher Bücher. Im Jahr 1390 verfasste der türkische Dichter Tāǧ ed-Dīn Ibrāhīm Aḥmedī das türkische Alexanderepos "Iskendernāme", die erste türkische Bearbeitung des Alexanderstoffs. Dafür bildete Nezāmis „Alexanderbuch“ die Grundlage, doch verfügte Aḥmedī auch über andere Quellen, aus denen er zusätzliches Sagenmaterial bezog. Sein Werk war im Osmanischen Reich lange berühmt und gelangte auch nach Iran und Afghanistan. Hebräische Literatur. Die jüdische Alexanderrezeption war von dem Umstand geprägt, dass der Makedone schon in der Antike als Freund des jüdischen Volkes und Diener Gottes betrachtet wurde. In der mittelalterlichen hebräischen Alexanderliteratur floss Material aus unterschiedlichen Traditionen zusammen. Einerseits handelte es sich um Stoff aus dem griechischen Alexanderroman bzw. der "Historia de preliis", andererseits um einzelne Sagen jüdischer Herkunft (Verhalten Alexanders in Jerusalem, seine Schutzmaßnahme gegen Gog und Magog, sein Aufenthalt im irdischen Paradies und weitere Geschichten). Die hebräische Überlieferung wurde nicht nur von der griechischen und lateinischen beeinflusst, sondern wirkte auch ihrerseits auf die westeuropäische Alexandersage ein. Weit verbreitet war in der lateinischsprachigen Welt eine von Petrus Comestor eingeführte Variante der Erzählung von Gog und Magog, wonach Alexander nicht die wilden Völker Gog und Magog, sondern die zehn jüdischen Stämme aussperrte, um sie für ihre Abwendung vom wahren Gott zu bestrafen. Äthiopische Alexanderlegende. Ins christliche Äthiopien gelangte der Alexanderroman auf dem Umweg über eine arabische Fassung. Der Stoff wurde für die Bedürfnisse eines geistlich orientierten Publikums stark umgestaltet. Alexander wird zu einem christlichen König, der den christlichen Glauben predigt. Er lebt keusch und ist ein Vorbild der Tugendhaftigkeit. Er stirbt wie ein Einsiedler, nachdem er sein Vermögen an die Armen verteilt hat. Durch diese besonders weitreichende Umarbeitung des Romans wird er zu einem Erbauungsbuch. Humanismus und Frühe Neuzeit. Petrarca behandelte in seinem Werk „Über berühmte Männer“ auch Alexander, wobei er sich an Curtius Rufus hielt, dessen negative Äußerungen er herausgriff; Positives verschwieg er. Die außerordentliche Bekanntheit der Legendengestalt Alexander hielt auch in der Frühen Neuzeit an. So schrieb der Chronist Johannes Aventinus († 1534), es sei „kein Herr, kein Fürst unseren Leuten, auch dem gemeinen ungelehrten Mann, so bekannt“ wie Alexander. Andererseits drangen aber in der Renaissance die Humanisten zum historischen Alexander vor und taten die Alexandersage als Märchen ab. Die Wiederentdeckung griechischer Quellen (insbesondere Arrians), die im Mittelalter unbekannt waren, ermöglichte einen neuen Zugang zur Epoche Alexanders. Schon der Portugiese Vasco da Lucena, der 1468 am Hof Karls des Kühnen von Burgund die erste französische Übersetzung der Alexanderbiografie des Curtius Rufus anfertigte, übte scharfe Kritik an der Legende, in deren Übertreibungen und Wunderglauben er eine Verdunkelung der wahren historischen Leistung Alexanders sah. 1528/29 schuf der Maler Albrecht Altdorfer sein berühmtes Gemälde Die Alexanderschlacht. Charles Le Brun malte ab den frühen sechziger Jahren des 17. Jahrhunderts eine Reihe von Szenen aus Alexanders Leben für König Ludwig XIV. Auf Dichter und Romanautoren übte die Gestalt Alexanders weiterhin eine starke Faszination aus. Ab dem 17. Jahrhundert handelt es sich allerdings großenteils um Werke, deren Handlung sich – ganz im Gegensatz zur traditionellen Alexandersage – um frei erfundene erotische Verwicklungen dreht und nur noch geringe Ähnlichkeit mit dem ursprünglichen Legendenstoff aufweist. Hans Sachs schrieb 1558 eine "Tragedia von Alexandro Magno", die in sieben Akten die ganze Geschichte Alexanders darstellt. In Frankreich verfasste Jacques de la Taille 1562 die Tragödien "La Mort de Daire" und "La Mort d'Alexandre", und Alexandre Hardy wählte dieselben Titel für zwei seiner Tragödien ("La Mort d'Alexandre", 1621, und "La Mort de Daire", 1626). Im weiteren Verlauf des 17. Jahrhunderts folgten zahlreiche Tragödien und Tragikomödien, darunter Racines "Alexandre le Grand" (Uraufführung 1665). Noch intensiver war die Rezeption in italienischer Sprache. Antonio Cesti komponierte die Oper "Alessandro vincitor di se stesso" (Uraufführung Venedig 1651), Francesco Lucio ein „dramma musicale“ "Gl'amori di Alessandro Magno e di Rossane" (Libretto von Giacinto Andrea Cicognini, 1651); zahlreiche Dramen, Melodramen, Opern und Ballette folgten. Unter den Opern waren besonders erfolgreich "Alessandro Magno in Sidone" von Marc’Antonio Ziani (1679, Libretto von Aurelio Aureli), die „tragicommedia per musica“ "Alessandro in Sidone" von Francesco Bartolomeo Conti (1721, Libretto: Apostolo Zeno) und "Alessandro nell’Indie" von Leonardo Vinci (1729, Libretto: Pietro Metastasio) sowie vor allem "Alessandro" von Händel (Uraufführung in London 1726, Libretto von Paolo Antonio Rolli). Gluck verwertete Elemente des Alexanderstoffs sowohl in seiner Oper "Poro (Alessandro nell’India)" (Uraufführung: Turin 1744, Libretto von Metastasio) als auch in dem Ballett "Alessandro". Zu Beginn des 17. Jahrhunderts schrieb in Spanien der Dichter Lope de Vega die Tragikomödie "Las grandezas de Alejandro". Der englische Schriftsteller John Lyly schrieb die Komödie "Campaspe" (Uraufführung 1584), die auch unter dem Titel "Alexander and Campaspe" bekannt ist und von einem Aufenthalt Alexanders in Athen handelt. John Dryden dichtete 1692 die Ode "Alexander’s Feast", welche die Basis für das Libretto des 1736 vollendeten und uraufgeführten gleichnamigen Oratoriums von Georg Friedrich Händel (HWV 75) bildete. In Griechenland wurde von 1529 bis ins frühe 20. Jahrhundert die Alexanderlegende in gedruckten Volksbüchern verbreitet, zunächst vorwiegend in Versform ("Rimada", 14 Drucke von 1529 bis 1805), ab dem 18. Jahrhundert meist in Prosa "(Phyllada)". Von insgesamt 43 Drucken der "Phyllada" aus dem Zeitraum von ca. 1680 bis 1926 erschienen 20 in der zweiten Hälfte des 19. Jahrhunderts. Rezeption in der Republik Mazedonien. Das 2011 errichtete Alexander-Denkmal in Skopje, Republik Mazedonien Seit der Unabhängigkeitserklärung der früheren jugoslawischen Teilrepublik Mazedonien, der heutigen Republik Mazedonien, im Jahr 1991 knüpft der neue souveräne Staat demonstrativ an die Tradition des antiken Reichs Makedonien an und betrachtet dies als einen wesentlichen Aspekt seiner nationalen Identität. Von offizieller mazedonischer Seite wird behauptet, es gebe eine ethnische und kulturelle Kontinuität vom antiken Makedonien zum heutigen Mazedonien. Im Rahmen solcher Traditionspflege fördern mazedonische Behörden auch auf kommunaler Ebene die Verehrung Alexanders des Großen, was sich unter anderem in der Errichtung von Alexander-Denkmälern und in der Benennung von Straßen äußert. Im Dezember 2006 wurde der Flughafen von Skopje, der Hauptstadt Mazedoniens, nach Alexander benannt "(Aerodrom Skopje "Aleksandar Veliki")"; dort wurde eine große Alexander-Büste aufgestellt. 2009 wurde die Errichtung einer zwölf Meter hohen Reiterstatue Alexanders auf einem zehn Meter hohen Sockel im Zentrum von Skopje beschlossen. Im Juni 2011 wurde dieser Beschluss, der in Griechenland Irritation auslöste, umgesetzt. In dem seit 1991 ausgetragenen Streit um den Namen Mazedonien zwischen Griechenland und der Republik Mazedonien spielt auch die mazedonische Alexander-Rezeption eine Rolle. Von griechischer Seite wird die Behauptung einer kulturellen Kontinuität zwischen den antiken Makedonen und den heutigen Staatsbürgern der Republik Mazedonien nachdrücklich zurückgewiesen. Daher erscheint auch die mazedonische Alexander-Rezeption aus griechischer Sicht als Provokation, da die gesamte Alexander-Tradition ausschließlich ein Teil des griechischen kulturellen Erbes sei. Moderne Belletristik. In der Moderne hat sich die Belletristik stärker als früher um Nähe zum historischen Alexander bemüht. Zu den bekannteren historischen Romanen aus der ersten Hälfte des 20. Jahrhunderts gehören "Alexander in Babylon" von Jakob Wassermann (1905), "Alexander. Roman der Utopie" von Klaus Mann (1929), der Alexander als gescheiterten Utopisten darstellt, und "Iskander" von Paul Gurk (1944). Weitere belletristische Darstellungen von Alexanders Leben stammen von Mary Renault, Roger Peyrefitte, Gisbert Haefs und Valerio Massimo Manfredi. Arno Schmidt lässt in seiner Erzählung "Alexander oder Was ist Wahrheit" (2005) den Ich-Erzähler Lampon eine Wandlung vom Verehrer zum Gegner Alexanders durchmachen. Beurteilung in der modernen Forschung. Den Ausgangspunkt der modernen wissenschaftlichen Auseinandersetzung mit Alexander bildete die 1833 erschienene „Geschichte Alexanders des Großen“ von Johann Gustav Droysen. Droysen betonte die aus seiner Sicht positiven kulturellen Folgen von Alexanders Politik einer „Völkervermischung“ statt einer bloßen makedonischen Herrschaft über unterworfene Barbaren. Er lobte die Wirtschaftspolitik, die Städtegründungen und die Förderung der Infrastruktur und meinte, auf religiösem Gebiet habe Alexanders Politik die Entstehung einer Weltreligion vorbereitet. Dieser Sichtweise war eine starke Nachwirkung beschieden. Im englischen Sprachraum war ihr Hauptvertreter im 20. Jahrhundert William W. Tarn, dessen 1948 erschienene Alexander-Biografie den Eroberer als Idealisten beschreibt, der eine zivilisatorische Mission erfüllen wollte. Dieser Einschätzung, deren Grundidee schon bei Plutarch auftaucht, steht eine dezidiert negative Wertung gegenüber, welche Kernpunkte der antiken Alexanderkritik aufgreift. Die Vertreter dieser Richtung (siehe bereits die negative Charakterisierung durch Karl Julius Beloch sowie später Ernst Badian und ähnlich Fritz Schachermeyr, daran anschließend Albert B. Bosworth, Ian Worthington, Wolfgang Will) unterscheiden sich hinsichtlich der Gewichtung verschiedener Einzelaspekte. Grundsätzlich aber sehen sie in dem Eroberer Alexander primär einen Zerstörer, dessen Fähigkeiten sich auf Militärisches beschränkten. Politisch sei er an seinen Fehlern gescheitert. Er habe impulsive, irrationale Entscheidungen getroffen und sich mit den Säuberungen unter seinen Vertrauten und Offizieren schließlich in die Isolation manövriert, da er niemandem mehr vertrauen konnte. Die militärischen Leistungen Alexanders, die früher einhellige Anerkennung fanden, werden von den modernen Kritikern relativiert; so charakterisiert Badian den Rückmarsch aus Indien als eine von Alexander verschuldete militärische Katastrophe. Waldemar Heckel hingegen hob in jüngerer Zeit Alexanders strategische Fähigkeiten hervor und wandte sich gleichzeitig gegen ein romantisierendes Alexanderbild. Vor einer überzogenen Kritik, wodurch sozusagen das Pendel von der Heldenverehrung Alexanders in das andere Extrem umzuschlagen droht, warnte etwa Frank L. Holt, der diesen Trend als „new orthodoxy“ bezeichnete. Neben diesen stark wertenden Darstellungen stehen Untersuchungen vor allem aus neuerer und neuester Zeit, deren Autoren von vornherein darauf verzichten, die Persönlichkeit Alexanders zu erfassen, ein Werturteil über sie abzugeben und seine verborgenen Motive zu erkunden (was aufgrund der Quellenlage sehr schwierig ist, worauf u. a. Gerhard Wirth hingewiesen hat). Diese Forscher untersuchen vielmehr Alexanders Selbstdarstellung, deren Wandel und die sich daraus ergebenden politischen Folgen. Antike. Antike (von „alt, altertümlich, altehrwürdig“) bezeichnet eine Epoche im Mittelmeerraum, die etwa von 800 v. Chr. bis ca. 600 n. Chr. reicht, wobei der Beginn teilweise noch deutlich früher angesetzt wird. Die Antike unterscheidet sich von vorhergehenden und nachfolgenden Epochen durch gemeinsame und durchgängige kulturelle Traditionen. Sie umfasst die Geschichte des antiken Griechenlands, des Hellenismus und des Römischen Reichs. Insbesondere das Römische Reich vereinte den Mittelmeerraum seit dem 1. Jahrhundert n. Chr. politisch und kulturell. In einem erweiterten Sinne umfasst die Antike auch die Geschichte der altorientalischen nahöstlichen Hochkulturen Ägyptens, Mesopotamiens, Assyriens, Persiens und Kleinasiens, die etwa mit dem Beginn der Schriftlichkeit um 3500 v. Chr. einsetzt. Der größere Zeitraum von etwa 3500 v. Chr. bis zum Ende der Antike wird bevorzugt als Altertum bezeichnet. Zeitliche und begriffliche Abgrenzungen. Im Sinne der klassischen Altertumswissenschaften bezeichnet der historische Begriff "Antike" meist die Zeit von der allmählichen Herausbildung der griechischen Staatenwelt bis zum Ende des weströmischen Reichs im Jahr 476 bzw. bis zum Tod des oströmischen Kaisers Justinian 565. Seit den Arbeiten des belgischen Historikers Henri Pirenne wird oft auch das Jahr 632, also der Tod Mohammeds und die darauf folgende islamische Expansion, als Datum für das Ende der Antike vorgeschlagen. Der Anfang der antiken griechisch-römischen Kultur im klassischen Sinne wird im Allgemeinen mit der Entstehungszeit der Homerischen Epen und dem Beginn der griechischen Kolonisation des Mittelmeerraums im 8. Jahrhundert v. Chr. angesetzt. Die Griechen verbreiteten ihre Kultur in den folgenden Jahrhunderten im gesamten Mittelmeerraum und an den Küsten seiner Nebenmeere und seit Alexander dem Großen auch im Orient und nach Zentralasien hinein. Die Römer brachten die antike Zivilisation bis nach Mittel- und Nordwesteuropa, wo sie sich seit dem frühen Mittelalter zur christlich-abendländischen Kultur wandelte. Je nach Forschungsrichtung werden aber auch die minoische und mykenische Kultur von etwa 1900 bis 1100 v. Chr. sowie die so genannten „Dunklen Jahrhunderte“ 1200 bis 750 v. Chr. zur Antike gerechnet. In der neueren Forschung wird meistens ein später Zeitpunkt favorisiert (565 bzw. die Zeit um 600 n. Chr.). Generell erscheint es ohnehin sinnvoll, von einem Übergangszeitraum ab ca. 500 bis ca. 600 n. Chr. auszugehen, anstatt feste Daten zu wählen. Der Begriff Antike wurde lange Zeit räumlich mit der griechischen, hellenistischen und später römischen Welt gleichgesetzt. Über diese Definition, die durch die Klassische Altertumswissenschaft geprägt wurde, geht der universalhistorische Antike-Begriff hinaus, der unter anderem von dem Historiker Eduard Meyer im 19. Jahrhundert gefordert wurde. In jüngerer Zeit wurde er von dem deutschen Althistoriker Josef Wiesehöfer wieder aufgegriffen. Die Mehrheit der heutigen Forscher ordnet jedoch den Alten Orient und das alte Ägypten zwar dem „Altertum“, nicht aber der „Antike“ zu. Ursprünge der antiken Kultur. Die Ursprünge der europäischen Antike liegen im Dunkeln. Ihre Vorgeschichte ist etwa in der Zeit von ca. 2000 bis ca. 1600 v. Chr. im Mittelhelladikum anzusiedeln. Zu Beginn dieses Zeitabschnitts – teils auch schon im letzten Abschnitt des Frühhelladikums FH III ca. 2200–2000 v. Chr. – wanderten wahrscheinlich indogermanische Stämme, von Norden kommend, in Griechenland ein. Offenbar unter dem Einfluss der minoischen Kultur auf Kreta, der ersten Hochkultur Europas, die ihre Blüte von ca. 1900 bis 1450 v. Chr. hatte, entwickelte sich auf dem Festland aus der Kultur des Mittelhelladikums die mykenische Kultur (ca. 1600 bis 1050/00 v. Chr.). Sie hatte ihren Ausgangspunkt vermutlich in der Argolis und erscheint unvermittelt mit reichen Schachtgräbern ab ca. 1600 v. Chr. Unter anderem übernahm die mykenische Kultur von der minoischen die Schrift. Die auf Kreta (unter anderem) verwendete sog. Linearschrift A des 17. bis 15. Jahrhunderts v. Chr. wurde zur sog. Linearschrift B (15. bis 12. Jahrhundert v. Chr.) weiterentwickelt. Dieser begegnet man auf zahlreichen Tontäfelchen unter anderem der Paläste in Pylos, Theben, Mykene auf dem griechischen Festland und in den zu jener Zeit mittlerweile mykenisch beherrschten Zentren Kydonia und Knossos auf Kreta. Bekannt sind die prächtigen Zentren der mykenischen Kultur. Zu den bedeutenden Fundorten gehören Mykene, Pylos (s. auch Palast des Nestor) und Tiryns auf der Halbinsel Peloponnes, Orchomenos und Gla in Boiotien (letzteres kein Palastzentrum) sowie das stark mykenisch geprägte Milet in Westkleinasien. Die Zentren hatten Oberstädte (Akropolen), Burgen genannt, die im 13. Jahrhundert v. Chr. in einigen Fällen stark befestigt bzw. deren Befestigungen stark ausgebaut wurden (Mykene, Tiryns, Athen). Reiche Kuppelgräber, feine, teils reich bemalte Keramik, kunstvolle Gold-, Silber- und Fayence-Arbeiten usf. zeugen vom Reichtum und von der Spezialisierung des Wirtschaftssystems, das zentral gesteuert wurde. Intensive Handelskontakte wurden mit dem Nahen Osten, Assyrien und Ägypten gepflegt. Mykenische Keramik war in weiten Teilen des Mittelmeergebiets beliebt; möglicherweise ließen sich in Süditalien sogar Handwerker nieder. Etwa für den Zeitraum 1200 bis 750 v. Chr. setzt man traditionell das "Dunkle Zeitalter" an, aus dem vergleichsweise wenig überliefert ist. Zu Beginn dieser Phase wurden viele der Burgen des griechischen Festlands zerstört, womit die Grundlage der Palastkultur unterging. Die mykenische Tradition bestand jedoch noch etwa 150 Jahre weiter, bevor der Übergang in die sogenannte Protogeometrische Periode (ca. 1050/00–900 v. Chr.) erfolgte. Der Überlieferung nach setzte ca. 1050 v. Chr. die sehr umstrittene "Ionische Wanderung" ein, in deren Verlauf die Einwohner des griechischen Festlandes die Inseln der Ägäis und die Westküste Kleinasiens kolonisierten. Auf dem griechischen Festland bietet sich ein diffuses Bild: Wenige Siedlungen wurden bisher entdeckt und die meisten machen einen – im Vergleich zur mykenischen Zeit – ärmlichen Eindruck. Ganz anders hingegen Lefkandi auf Euböa: dort wurden neben einer Siedlung mit einem großen Gebäude des Fürsten von Lefkandi Gräber gefunden, die sehr reich ausgestattet waren. Das Dunkle Zeitalter hellt sich in den letzten Jahrzehnten – dank vieler neuer Funde, vor allem, aber nicht nur, aus der mykenischen Spätphase des 12./11. Jahrhunderts v. Chr. – immer mehr auf. Nach Annahme der Homer-Forschung spiegeln unterschiedliche Passagen der Ilias die Verhältnisse dieser Zeit wider. Sie war offenbar auch für die Entwicklung der griechischen Gesellschaft zur Polis hin wichtig. Ab dem 8. Jahrhundert waren die Kontakte zum Vorderen Orient wieder sehr intensiv, und es entstanden Handelsstationen auf Zypern (Kition) und in Syrien (Al Mina). Vermutlich bereits im späten 9. Jahrhundert v. Chr. hat man von den Phöniziern das Alphabet vermittelt bekommen. Anfänge des klassischen Griechenland. Mit dem so genannten archaischen Zeitalter begann im frühen 8. Jahrhundert v. Chr. die eigentliche Antike. Seit dem Jahr 776 v. Chr. ist die Siegerliste der Olympischen Spiele überliefert. Von etwa 770 bis 540 v. Chr. breiteten sich die Griechen während der Großen Kolonisation im westlichen Mittelmeer (vor allem Sizilien und Unteritalien, siehe auch Magna Graecia, und bis Marseille), an der nördlichen Ägäis und am Schwarzen Meer aus. In Kleinasien waren Griechen bereits vorher ansässig. In dieser Zeit (etwa zwischen 750 und 650 v. Chr.) wurden vermutlich auch die Homerischen Epen ("Ilias" und "Odyssee") schriftlich fixiert, die ältesten Literaturdenkmäler des Abendlands. Die ältesten tatsächlich erhaltenen Papyrusfragmente dieser Texte stammen aus dem 3. Jahrhundert v. Chr., die ältesten Codices mit längeren Textpassagen tauchen im Mittelalter (ca. 10. Jahrhundert n. Chr.) auf, wie generell der Großteil der erhaltenen antiken Literatur vor allem in mittelalterlichen Handschriften überliefert ist. Hesiod wirkte ebenfalls etwa in der Zeit um 700 v. Chr. Entstehung der Polis. Zugleich bildete sich das System der griechischen Stadtstaaten, der Poleis, heraus, wobei diese in der Mehrzahl nur eine sehr kleine Bevölkerung umfassten. Der werdende Militärstaat Sparta im Süden der Peloponnes unterwarf zwischen 720 und 600 v. Chr. Messenien und kontrollierte damit den gesamten südwestlichen Teil der Halbinsel. Die Stadt mit ihrer oligarchischen Verfassung kann als das erste Beispiel für die fortan herrschende Polis-Struktur gelten. Auch in vielen anderen griechischen Stadtstaaten regelten Verfassungen das Zusammenleben der Bürger, aber auch die Tyrannis, wie sie um 650 v. Chr. beispielsweise in Korinth und Megara bestand, war keine Seltenheit. In Athen bildete sich unter wechselnden Voraussetzungen schließlich ein demokratisches System heraus. Nach den Gesetzgebungen Drakons (621 v. Chr.) und Solons (594/593 v. Chr.) gelang es Peisistratos und seinen Söhnen etwa zwischen 561 und 510 v. Chr. zwar noch einmal, eine Tyrannis zu errichten. Bis 501 v. Chr. brachten die Reformen des Kleisthenes von Athen aber den Durchbruch für die Attische Demokratie. Blütezeit Athens. Mit Athens Unterstützung der kleinasiatischen Griechenstädte im Ionischen Aufstand um 500 v. Chr. begann ein annähernd zweihundertjähriger Konflikt mit dem Perserreich, zunächst in Gestalt der drei Perserkriege, die der Historiker Herodot, der „Vater der Geschichtsschreibung“ (mit ihm lässt man traditionell die griechische Geschichtsschreibung beginnen, vgl. "Liste der griechischsprachigen Geschichtsschreiber der Antike"), in seinen "Historien" geschildert hat, wenngleich nicht immer zuverlässig. Als die Perser zu einer Strafexpedition in Griechenland einfielen, wurden sie 490 v. Chr. von den Athenern in der Schlacht bei Marathon besiegt. Zehn Jahre später unterlag der persische Großkönig Xerxes I. der athenischen Flotte unter Themistokles in der Schlacht von Salamis und 479 v. Chr. den vereinigten Heeren der griechischen Poleis in der Schlacht von Plataiai. Die Perser waren vorerst zurückgedrängt, die griechischen Stadtstaaten in Kleinasien aus der Abhängigkeit befreit. Nach der erfolgreichen Verteidigung der Stadt und mit der Gründung des Attischen Seebunds 477 v. Chr. unter der navalistischen Vorherrschaft Athens setzte eine etwa 50-jährige Blütezeit der Stadt (die Pentekontaetie) ein, die bis zum Ausbruch des Peloponnesischen Krieges 431 v. Chr. (bzw. bis zum Tod des leitenden Staatsmannes Perikles im Jahr 429 v. Chr.) reichte. Die Akropolis mit dem Parthenon­tempel wurde damals unter der Regie des Phidias zum glanzvoll-repräsentativen Zentrum der Seemacht Athen ausgebaut. Die klassischen Tragödien von Aischylos, Sophokles und Euripides kamen – meist im Rahmen festlicher Dichterwettbewerbe – im Theater zur Aufführung. Kaufleute und Gewerbetreibende, Künstler und Gelehrte zog die Metropole an. Auf der Agora wirkte neben den Sophisten der Philosoph Sokrates auf seine Mitbürger ein, dessen Lehren Platon später zu einem Werk von herausragender philosophie­geschichtlicher Bedeutung verarbeitete. Athen mit seinen zu gleichberechtigter politischer Mitwirkung gelangten (männlichen) Vollbürgern beanspruchte nunmehr, die „Schule von Hellas“, zu sein. Seine durchaus auch aggressive äußere Machtentfaltung in und mit dem Attischen Seebund führte allerdings schon während der Pentekontaetie zu Spannungen, vor allem gegenüber der konkurrierenden griechischen Großmacht Sparta. Kampf um die Hegemonie. Die zunehmende Rivalität zwischen der Seemacht Athen und der Landmacht Sparta mündete 431 v. Chr. in den fast 30 Jahre währenden Peloponnesischen Krieg, den die zeitgenössischen Historiker Thukydides und (im Anschluss an Thukydides) Xenophon eindringlich beschrieben haben. Der sehr wechselhaft verlaufende Konflikt endete, auch auf Grund der Unterstützung Spartas durch das Perserreich, 404 v. Chr. mit der vollständigen Niederlage Athens und mit der Errichtung einer zeitweiligen spartanischen Hegemonie über Griechenland. In der ersten Hälfte des 4. Jahrhunderts v. Chr. führten die griechischen Städte einen fast permanenten Krieg gegeneinander und in wechselnden Koalitionen, auch unter fortwährender Einmischung der Perserkönige. Die Sehnsucht nach einem Allgemeinen Frieden wurde auch zu propagandistischen Zwecken eingesetzt (Königsfrieden von 386 v. Chr.). 371 v. Chr. löst Theben unter Epaminondas nach der Schlacht bei Leuktra Sparta als Hegemon ab. Doch auch Thebens Vorherrschaft bestand nur bis rund 362 v. Chr. und endete mit dem Tod Epaminondas. Insgesamt schwächte der Peloponnesische Krieg die griechischen Polis so stark, dass Philipp II. von Makedonien dem andauernden Machtkampf ein Ende setzen konnte, indem er Griechenland gewaltsam einigte. Der von Athenern wie Demosthenes als nicht-griechischer Barbar betrachtete König errang mit seinem geschulten Heer in der Schlacht von Chaironeia 338 v. Chr. die Hegemonie über Hellas, die im Jahr darauf im Korinthischen Bund bekräftigt wurde. Auf Sizilien behauptete sich derweil das mächtige Syrakus gegenüber der Handelsrepublik Karthago, welche mit den griechischen Poleis "(Westgriechen)" seit dem frühen 5. Jahrhundert v. Chr. im Konflikt lag. Auf Sizilien hielt sich zudem, im Gegensatz zum Mutterland, in vielen Städten die Tyrannis als Regierungsform (Dionysios I. von Syrakus, Agathokles von Syrakus und andere). Die hellenistische Zeit (336 bis 30 v. Chr.). Nach der Ermordung Philipps 336 v. Chr. führte sein Sohn Alexander der Große ein griechisch-makedonisches Heer nach Asien und eroberte in wenigen Jahren mit dem Perserreich ein Weltreich. Der Alexanderzug bahnte der griechischen Kultur im ganzen damals bekannten Orient den Weg, von Ägypten über Mesopotamien und Persien bis zu den Grenzen Indiens und Turkestans. Nach Alexanders Tod 323 v. Chr. in Babylon teilten seine Nachfolger, die Diadochen, in lange währenden Kriegen das Reich unter sich auf. In allen Teilreichen bildete der Hellenismus in den folgenden Jahrhunderten die prägende Kultur. Das Zeitalter des Hellenismus kennzeichnet ein nahezu ständiger Kampf der drei Großmächte (Ptolemäer, Seleukiden und Antigoniden) um die Vorherrschaft. Dennoch wuchs die Bevölkerung im gesamten Mittelmeerraum stetig und ermöglichte so das Wachstum größerer Städte und Metropolen mit Einwohnern über 100.000 Menschen. Auch breitete sich in dieser Zeit der Fernhandel (bis hin nach China) und die Güterproduktion für große städtische Märkte aus. Verschiedene Wissenschaften blühten auf, bspw. in Alexandria. Zu Beginn des 2. Jahrhunderts v. Chr. tauchte erstmals Rom als bedeutende Macht in Griechenland auf und dehnte nach und nach seinen Einfluss aus. 146 v. Chr. unterstellte das Römische Reich die Mitglieder des unterlegenen Achaiischen Bundes der Provinz Macedonia; Korinth als führende Polis wurde zerstört. Doch blieben viele Poleis wie Athen und Sparta zumindest vorerst formell unabhängig. Bald darauf folgte der Erwerb Pergamons durch Rom und 64/63 v. Chr. die Beseitigung der Überreste des Seleukidenreiches. Als letzter Nachfolgestaat des Alexanderreichs wurde im Jahre 30 v. Chr. das ptolemäische Ägypten, dessen letzte Herrscherin Kleopatra VII. war, ins Römische Reich eingegliedert. Damit war die hellenistische Staatenwelt als machtpolitischer Faktor ausgelöscht. Die griechische Kultur lebte jedoch im Römischen Reich sowie später im Byzantinischen Reich fort. Römisches Reich. Nach den Griechen wurden die Römer zu den zweiten Trägern und Vermittlern der antiken Kultur und prägten diese für mehrere hundert Jahre. Je weiter sie als Eroberer in außeritalische Länder vordrangen, desto stärker ließen sie sich von deren Kultur inspirieren und beeinflussen. Sie adaptierten teilweise lokale Gebräuche. Literatur, Philosophie, Kunst, Architektur und Alltagskultur der Griechen und der Länder der Levante, Waffentechniken der Gallier oder Germanen und religiöse Einflüsse aus Ägypten wurden von den Römern aufgenommen. Nicht zuletzt durch die kulturelle Ausstrahlung und Heterogenität der Stadt Rom, die sich in der römischen Kaiserzeit zur Millionenstadt entwickelte, wurden solche Einflüsse im Imperium verbreitet. Ursprünge Roms. Rom, der Legende nach 753 v. Chr. gegründet, entstand neueren Forschungen zufolge erst gegen Ende des 7. Jahrhunderts v. Chr. aus dem Zusammenschluss mehrerer dörflicher Siedlungen an einer Furt am Unterlauf des Tibers. Politisch und kulturell stand Rom lange unter etruskischem Einfluss. Die Etrusker wiederum unterhielten schon früh Kontakt mit griechischen Kolonisten. Die Römische Republik (ca. 500 bis 27 v. Chr.). Um 500 v. Chr. befreiten sich die Römer vom etruskischen Stadtkönigtum und bildeten wohl um 475 v. Chr. eine republikanische Regierungsform aus. In den Zwölftafelgesetzen, die um 450 v. Chr. entstanden, wurden die ersten zivil-, straf- und prozessrechtlichen Normen des römischen Rechts festgehalten. Die Verfassung sah von da an ein Zusammenwirken der drei Institutionen Senat, Magistratur und Volksversammlung vor, die sich in ihrer Macht theoretisch gegenseitig beschränkten. Die offizielle Bezeichnung der Republik lautete "S.P.Q.R." für "Senatus Populusque Romanus" (dt.: Senat und Volk von Rom). Machtpolitisch dominierte der Senat, der sich aus Angehörigen der adligen Familien, der Patrizier zusammensetzte und später der plebejischen Patrizier. Aus ihm gingen auch die Konsuln hervor, die beiden auf ein Jahr gewählten obersten Magistrate der Republik. Das (zunächst) höchste den nichtadeligen Plebejern zugängliche Amt war das des Volkstribunen, der ein Veto­recht gegen Senatsbeschlüsse besaß. Mit der Legion entwickelten die Römer eine effektive Streitmacht. Bis zum Jahr 272 v. Chr. unterwarfen sie ganz Italien südlich der Poebene. Mit den Punischen Kriegen gegen die Seemacht Karthago im 3. und 2. Jahrhundert v. Chr. begann der Aufstieg Roms zur antiken Weltmacht, die für die folgenden Jahrhunderte die gesamte Mittelmeer­welt beherrschen sollte. Nach 200 v. Chr. nahm Rom zunehmend Einfluss auf die Politik der hellenistischen Großmächte und wurde zur Protektoratsmacht im östlichen Mittelmeerraum. 148 v. Chr. wurde das Makedonien der Antigoniden, 63 v. Chr. das Reich der Seleukiden, und schließlich 30 v. Chr. das Ägypten der Ptolemäer römische Provinz. Die Römische Republik ermöglichte durch die Herstellung von innerem Frieden ein weiteres, kontinuierliches Bevölkerungswachstum, auch durch die ständige Neugründung von Kolonien in eroberten Ländern. Durch die Ansiedlung von Veteranen aus den Legionen vorheriger Kriege konnte die Republik zudem einen verlässlichen Einfluss in diesen Ländern gewinnen und gleichzeitig mit einem stetigen Bevölkerungszuwachs neue Gebiete kultivieren. Handel und Verkehr konnten auch dank der Römerstraßen zunehmen, welche zunächst häufig aus militärischen Gründen angelegt wurden und die wachsenden Reichsstädte und Kolonien miteinander verbanden. Entlang der Straßen entwickelten sich Streckenposten und Marktflecken zu Städten. Mit diesen infrastrukturellen Neuerungen ging im Reich ein Wachstum der wirtschaftlichen Produktion und somit auch der verfügbaren Steuermittel einher. Mit dem Wachstum der Republik an Größe, Macht und Wohlstand kam es jedoch im Inneren zu einer Reihe von Krisen, in denen sich der Kampf der an den überkommenen sozioökonomischen Strukturen festhaltenden Optimaten gegen die auf Reformen drängenden Popularen spiegelte. In der Epoche der Bürgerkriege erreichte die Krise der späten Römischen Republik ihren Höhepunkt und es zeichnete sich ab, dass die Republik als inhaltlich gelebte Staatsform die Erfolge nicht mehr meistern konnte, die sie gezeitigt hatte: So wurde der Prinzipat möglich, also die Umwandlung der Republik in eine Monarchie mit republikanischer Fassade. Bereits Gaius Iulius Caesar hatte als Diktator auf Lebenszeit "(dictator perpetuus)" eine quasi-monarchische Stellung erlangt. Als erster römischer Kaiser gilt jedoch sein Großneffe und Erbe Augustus, dem es gelang, mit dem Prinzipat eine dauerhafte monarchische Staatsordnung an die Stelle der zerrütteten Republik zu setzen (wobei jedoch die entmachteten Staatsorgane der Republik, z. B. der Senat, formal noch lange fortbestanden). Der Prinzipat (27 v. Chr. bis 284 n. Chr.). a>, heute in den Vatikanischen Museen Das von Augustus errichtete Kaisertum (Prinzipat) wurde von ihm und seinem Nachfolger Tiberius für rund 60 Jahre sicher geführt. Augustus bewahrte noch bewusst eine republikanische Fassade, während unter Tiberius das Kaisertum zur Normalität wurde. Unter Caligula, Claudius und Nero traten jedoch zeitweilig Zerfallserscheinungen auf. Nach dem Krisenjahr 68/69 (Vierkaiserjahr) traten die Flavier (Vespasian, Titus, Domitian) die Regierung an, die sowohl außen- als auch innenpolitisch insgesamt recht erfolgreich herrschten. Nach der Ermordung Domitians, der 96 einer Verschwörung zum Opfer fiel, folgte eine weitere kurze Krise des Herrschaftssystems, die jedoch unter den so genannten Adoptivkaisern weitgehend behoben werden konnte. Das Imperium erlebte seine größte Blüte und Ausdehnung dann auch unter ebendiesen „Adoptivkaisern“ (das Kaisertum war auch weiterhin formal nicht erblich) in der ersten Hälfte des 2. Jahrhunderts: Einer Expansion unter Trajan (vor allem im Balkanraum und im Osten gegen das Partherreich) folgte eine Rücknahme und Sicherung der Grenzen unter Hadrian. Bald nach der Mitte des 2. Jahrhunderts n. Chr. wuchs jedoch der Druck auf die ausgedehnten Reichsgrenzen. Im Norden und Nordosten bedrängten die Germanen, im Osten die Parther (die sich trotz mancher Niederlage behaupten konnten) das Reich. Mark Aurel, der „Philosophenkaiser“ im Geiste der Stoa, sah sich bald nach Übernahme der Herrschaft nahezu ständig zur kriegerischen Verteidigung der Reichsgrenzen genötigt. Mit seinem Tod endete 180 n. Chr. ein als Blütezeit betrachtetes Zeitalter des Imperiums. Nach dem schwachen Commodus, der 192 ermordet wurde, stabilisierten die Kaiser aus dem Hause der Severer, hervorzuheben ist besonders Septimius Severus, die Grenzen wenigstens teilweise. Kaiser Caracalla gewährte 212 mit der Constitutio Antoniniana allen freien Reichsbürgern das Bürgerrecht. Nach der Ermordung des Severus Alexander 235 kam es jedoch unter den so genannten Soldatenkaisern zur Reichskrise des 3. Jahrhunderts, die aber erst um 260 ihren Höhepunkt erreichte. Dieser Zeitraum war geprägt von raschen Regierungswechseln, zeitweiligen und regional unterschiedlichen ökonomischen Problemen, zentrifugalen Tendenzen im Inneren (zeitweilige Abspaltung des "Imperium Galliarum"; Verlust mehrerer Provinzen an Palmyra) und dem stetig wachsenden Druck auf die Grenzen. Neben den verschiedenen Germanenstämmen (wie den Alamannen und Goten), übte nun vor allem das Sassanidenreich im Osten einen enormen Druck aus: Nach dem Sturz des letzten Parther­königs im Jahr 224 (bzw. 226), erneuerten die Sassaniden das Perserreich und erwiesen sich in der Regel als den Römern gleichwertige Gegner, wenngleich auch sie mit einer gefährdeten Grenze konfrontiert waren (im Nordosten, siehe Iranische Hunnen). Die Zeit der Soldatenkaiser wird allerdings in der neueren Forschung keineswegs mehr als eine reine Krisenzeit begriffen, sondern vielmehr als eine (wenngleich teils von Krisensymptomen begleiteten) Transformationsphase. Die Spätantike (284 bis 565/632 n. Chr.). Mit der Einführung der Tetrarchie (293) und zahlreichen inneren Reformen gelang es Kaiser Diokletian (seit 284 Kaiser) gegen Ende des 3. Jahrhunderts noch einmal, das Reich zu stabilisieren. Diese Zeit der beginnenden Spätantike ist gekennzeichnet von Umbrüchen, die zum Teil eine Abkehr von bis dahin wesentlichen Bestandteilen der antiken Kultur darstellten. Dazu gehört vor allem die von Kaiser Konstantin I. initiierte Anerkennung und Privilegierung des Christentums, das unter Diokletian noch verfolgt worden war. Die Hinwendung zu dem neuen Glauben ging schließlich mit der Ablehnung des religiösen Pluralismus der Antike einher. Ein letzter Versuch, die alten Kulte durch die Verbindung mit neuplatonischem Gedankengut wieder zu beleben, scheiterte mit dem Tod Kaiser Julians im Jahr 363; alle nachfolgenden Kaiser waren Christen. Teilweise stießen auch bestimmte Formen der Philosophie auf Ablehnung, wenngleich das Christentum nun selbst stark von der griechischen Philosophie geprägt wurde und zwischen 300 und 600 eine massive Transformation durchlief, bspw. mit dem Ersten Konzil von Nicäa. Die Platonische Akademie in Athen, oft als „Hort des Heidentums“ bezeichnet, wurde 529 geschlossen, während die bereits christianisierte Schule von Alexandria noch bis zum Beginn des 7. Jahrhunderts bestehen blieb. Kaiser Valentinian I. festigte den Westen des Reiches, doch kam es 378 unter seinem Bruder Valens zur Niederlage von Adrianopel und zu einer neuen Krise. Kaiser Theodosius I. wiederum konnte den Osten des Reiches stabilisieren und war zugleich der letzte Kaiser, der "de facto" über das gesamte "Imperium Romanum" herrschte. Er erklärte das Christentum schließlich 392 zur Staatsreligion und verbot alle heidnischen Kulte wie die Olympischen Spiele. Allerdings lassen sich noch bis mindestens in das 6. Jahrhundert hinein bedeutende heidnische Minderheiten auf dem Boden des Imperiums nachweisen. Justinian, Mosaikbild aus San Vitale in Ravenna. Der Kaiser gilt als einer der bedeutendsten Herrscher der Spätantike. Nach der faktisch endgültigen Teilung des Reiches unter den beiden Söhnen des Theodosius 395 erwies sich letztlich nur das von Konstantinopel, dem früheren Byzantion, aus regierte Oströmische Reich auf die Dauer eines weiteren Jahrtausends als lebensfähig. Es bewahrte viele antike Traditionen; unter anderem blieb das Lateinische in dem überwiegend griechischsprachigen Reich noch bis ins 7. Jahrhundert Amtssprache. Das so genannte Weströmische Reich hingegen zerbrach aufgrund endloser innerer Kriege, gepaart mit äußerem Druck (siehe Völkerwanderung). Germanische Kriegerverbände traten an die Stelle der kollabierenden Reichsregierung und ergriffen, zunächst als "foederati", seit dem 5. Jahrhundert direkt Besitz von weströmischen Provinzen. Ihre Anführer traten hier oft an die Stelle der römischen Autoritäten. Rom selbst wurde 410 von den Westgoten und 455 von den Vandalen geplündert, von der Millionenstadt der hohen Kaiserzeit schrumpfte sie auf schätzungsweise 200.000 Einwohner zum Ende des 5. Jahrhunderts. Die Spätantike sah auch das langsame Verschwinden der klassisch-antiken Stadt ("polis" bzw. "civitas"). In der Forschung ist umstritten, ob es sich hierbei um einen Niedergang oder eher um einen Wandel handelt – diese Frage stellt sich auch für viele andere Aspekte der Epoche (z. B. im wirtschaftlichen Bereich, wobei viele Provinzen weiterhin aufblühten). Im Westen (das Ostreich war davon nicht betroffen und durchlief erst im 7. Jahrhundert eine Krisenzeit, siehe unten) lösten sich im 5. Jahrhundert zunehmend die politischen Strukturen auf, während das reguläre Heer (zumindest nach Ansicht der älteren Forschung) immer stärker „barbarisiert“ wurde und die Bedeutung der nichtrömischen "foederati" besonders im Westen immer mehr zunahm. Die geringer werdenden Steuereinnahmen durch den Verlust von Provinzen und Steuermitteln führten dazu, dass die Regierung in Ravenna immer hilfloser wurde; die kaiserliche Autorität schwand dahin, während die eigentliche Macht nun meist bei hohen Militärs wie Aetius oder Ricimer lag, die gegeneinander oft blutige Bürgerkriege führten und das Westreich so weiter schwächten. 476 setzte der General Odoaker, der Kommandeur der föderierten Truppen in Italien, dann den letzten Westkaiser Romulus Augustulus ab, da dieser überflüssig geworden sei, und unterstellte sich der nominellen Oberherrschaft des oströmischen Kaisers. Die Geschichtswissenschaft sah in diesem von den Zeitgenossen nur wenig beachteten Akt früher oft das Ende der Antike. Heute wird dagegen auch das 6. Jahrhundert noch zur Antike gezählt, da vor allem im Osten römisch-antike Strukturen fortbestanden und dem oströmischen Kaiser Justinian (527–565) für kurze Zeit noch einmal eine Rückeroberung großer Teile des Westreiches gelang. Dass diese letztlich dennoch scheiterte, hatte auch mit dem Druck zu tun, den die Sassaniden seit 540 erneut auf die Ostgrenze des Reiches ausübten (siehe auch Römisch-Persische Kriege und Herakleios). Im Oströmischen Reich lebten antike Kultur und Geisteswelt zwar noch bis weit ins Mittelalter fort. Die islamische Expansion des 7. Jahrhunderts führte allerdings auch hier zu erheblichen Veränderungen und gilt als der entscheidende Einschnitt, der das Ostrom der Spätantike vom Byzantinischen Reich des Mittelalters trennt. Bedeutung und Nachwirken der Antike. Antike Traditionen hatten starke und prägende Auswirkungen auf den weiteren Verlauf der Weltgeschichte, insbesondere auf die Entwicklung der westlichen Welt, die in der Antike ihre Wurzeln hat. Neuzeitliche Aufklärer, Philosophen, Staatstheoretiker, Wissenschaftler, Künstler und andere knüpften immer wieder an die Ionische Naturphilosophie, die attische Demokratie, das römische Recht, den religiösen Pluralismus, das antike Schönheitsideal und andere Hinterlassenschaften der Antike an. Antike Traditionen gerieten auch im Mittelalter nie völlig in Vergessenheit. In den Klöstern des Abendlandes wurde umfangreiches antikes Schriftgut bewahrt. Auch die Romidee blieb im Heiligen Römischen Reich lebendig. Im 8. Jahrhundert kam es zur ersten, sogenannten Karolingischen Renaissance. Auch byzantinische und arabische Gelehrte stützten sich auf antikes Wissen und gaben es indirekt an das mittelalterliche Europa weiter. Als man im Italien des 15. Jahrhunderts die – meist römischen – Überreste der Antike neu zu schätzen lernte und in der Kunst nachahmte, bezeichnete man dies als "Renaissance". Die "Wiedergeburt" der Antike und des antiken Geistes setzte der jahrhundertelangen Dominanz religiösen Denkens in Europa ein Ende und mündete schließlich in das Zeitalter der europäischen Aufklärung und in die Moderne. Fast alle Ideen der neuzeitlichen Aufklärung haben antike Vorläufer. Ohne griechische Wissenschaft und Philosophie, ohne die damals entstandenen politischen Ideen, ohne das römische Recht, ohne Architektur und Kunst der Griechen und Römer ist die westliche Kultur der Neuzeit nicht denkbar. So trat infolge der Arbeiten von Johann Joachim Winckelmann seit dem 18. Jahrhundert die „klassische“ griechische Kunst – oder vielmehr das, was man idealisierend für diese hielt – zunehmend ins Zentrum des Interesses. Im 19. Jahrhundert sprach man im Zusammenhang mit den Arbeiten von Architekten und Künstlern wie Karl Friedrich Schinkel, Leo von Klenze und Bertel Thorvaldsen von einer Renaissance der griechischen Antike, heute vom Neuhumanismus. Erst nach dem Zweiten Weltkrieg verlor die griechisch-römische Zivilisation zunehmend die Vorbildfunktion, die man ihr in Europa und Nordamerika jahrhundertelang zugesprochen hatte. Ein entscheidender Einschnitt war hier das Verschwinden des griechischen und stark auch des lateinischen Unterrichtsfaches von den Sekundarschulen. Ein weiterer Aspekt war, dass in der ersten Hälfte des 20. Jahrhunderts Elemente der antiken Tradition von Anhängern totalitärer Ideologien willkürlich aufgegriffen und so zweckentfremdet wurden. Der Führerkult des faschistischen Regimes in Italien griff direkt auf das antike Rom zurück und knüpfte (nach dem Verständnis des Regimes) an den Caesarenkult an, wobei bereits der Terminus "fascismo" vom lateinischen Begriff "fasces" abgeleitet ist. Benito Mussolini wurde als Nachfolger des Augustus in eine Reihe mit den römischen Caesaren gestellt, und es wurde eine „Wiedererrichtung“ des antiken Römischen Reiches angestrebt. Auch das NS-Regime in Deutschland orientierte sich teils an antiken Vorbildern, so etwa im Zusammenhang mit der ideologisch begründeten Lobpreisung Spartas. Der Bedeutungsverlust nach dem Ende des Zweiten Weltkrieges hat für die Altertumswissenschaften allerdings immerhin den Vorteil, dass nun ein unverstellterer, neutraler Blick auf die Antike leichter möglich ist. Bis heute erhaltene Zeugnisse der Antike sind – neben überlieferten Texten philosophischer, literarischer oder historischer Natur – zahlreiche Objekte der griechischen und römischen Kunst: von großen Skulpturen bis zur Kleinkunst, Töpferei, Münzen etc. Wichtige Antikensammlungen befinden sich in Rom, Athen, Neapel, Paris, London, München, Sankt Petersburg, Wien und Berlin. Für die Kenntnis des antiken Alltags sind vor allem archäologische Ausgrabungen wie die in Pompeji, Olympia, Delphi oder Pergamon von Bedeutung. Quellenlage. Der Großteil der antiken Literatur (und damit auch der Geschichtsschreibung) ist nicht erhalten, sodass unser Wissen über die Antike durch die Überlieferungslage beeinflusst wird (siehe auch Antike Geschichtsschreibung und hinsichtlich der griechischen Geschichtsschreibung die Liste der griechischsprachigen Geschichtsschreiber der Antike). Es wurde geschätzt, dass uns kaum 10 % der griechischen Literatur überliefert ist. Andere Forscher sind noch weit pessimistischer und gehen eher von einer Verlustrate um 99 % aus. In Teilen sieht es besonders trostlos aus (Archaik, Hellenismus), in anderen Bereichen etwas besser (klassische Zeit Griechenlands sowie Spätantike). Insgesamt ist die Quellenlage jedoch problematisch; man muss in allen Bereichen davon ausgehen, dass vieles spurlos verloren ist und sich auch viele Ereignisse und Zusammenhänge unserer Kenntnis entziehen. Neben den erzählenden Quellen müssen daher natürlich auch Inschriften und Papyri sowie archäologische und numismatische Quellen etc. herangezogen werden. Eine Zusammenfassung mit ausführlichen Angaben bieten die jeweiligen Artikel (Geschichtsschreibung u. ä.) in den entsprechenden Lexika (siehe unten). Siehe auch die online verfügbaren Quellensammlungen wie LacusCurtius oder das Perseus Project. Literatur. Allgemein: Das zentrale bibliographische Nachschlagewerk der Altertumswissenschaft stellt immer noch die "L’Année philologique" dar (L’Année Philologique. Bibliographie critique et analytique de l’Antiquité greco-latine, hrsg. von J. Marouzeau und J. Ernst, Paris 1923ff.). Kostenlos nutzbar ist zudem die umfangreiche. Ausführliche Angaben sind außerdem entweder den Bibliographien der unten genannten Werke (besonders sei dabei auf The Cambridge Ancient History und Oldenbourg Grundriss der Geschichte hingewiesen) zu entnehmen oder den Bibliographien, die in der HU-Linkliste aufgeführt sind (siehe beispielsweise). Anthony Hope. Anthony Hope war das Pseudonym von Sir Anthony Hope Hawkins (* 9. Februar 1863 in London; † 8. Juli 1933), einem britischen Rechtsanwalt und Schriftsteller. Anthony Hope war ein Sohn von Reverend Edward Connerford Hawkins, einem anglikanischen Geistlichen, und Jane Isabella Grahame. Er verließ die Universität Oxford 1885 mit einem first-class degree und wurde Anwalt in London. Er heiratete 1903, hatte zwei Söhne und eine Tochter. Während des Ersten Weltkrieges arbeitete er im Ministry of Information. 1918 wurde er für seine Verdienste während des Krieges zum Ritter geschlagen. Sein erstes Buch war "A Man of Mark" (1890), später schrieb er "The Dolly Dialogues" (1894). Den größten Erfolg hatte er mit "The Prisoner of Zenda" (dt. „Der Gefangene von Zenda“). Anschließend verfasste er "Rupert of Henzau" (1898) und viele weitere Bücher. Ångström (Einheit). Das Ångström ist eine nach dem schwedischen Physiker Anders Jonas Ångström benannte Einheit der Länge. Das Einheitenzeichen ist Å (A mit Ring). Das Ångström ist keine SI-Einheit. Da sie nicht in der Einheitenrichtlinie aufgeführt wird, ist sie auch keine gesetzliche Einheit in der EU, nach der schweizerischen Einheitenverordnung auch nicht in der Schweiz. In DIN 1301-3 ist sie ausdrücklich als nicht mehr zugelassene Einheit aufgelistet. Sie wird aber in manchen Bereichen benutzt, um mit „einfachen“ Zahlenwerten arbeiten zu können. Insbesondere in der Kristallographie und der Chemie ist das Ångström weit verbreitet. So ist 1 Å die typische Größenordnung für Atomradien, Abstände von Atomen in Kristallstrukturen und Bindungslängen in Molekülen, der Radius isolierter neutraler Atome beträgt zwischen 0,3 und 3 Å. Aus diesem Grund wird das Ångström oft als Einheit für Abstände in atomaren Größenordnungen verwendet, z. B. sehr dünne Schichtdicken, sowie für die Angabe der verwendeten Wellenlänge der Röntgenstrahlung bei ihrer Ermittlung in Röntgenbeugungsexperimenten wie der Kristallstrukturanalyse. Auch in der Optik und der Astronomie wird es zur Angabe einer Wellenlänge genutzt (allerdings weniger in deutschsprachigen, sondern eher in englischsprachigen Fachpublikationen). Einen ähnlichen Versuch, zu einfach handhabbaren Zahlenwerten zu kommen, unternahm 1925 Manne Siegbahn mit der Definition der X-Einheit, die etwa 10−13 m entsprach. Das Ångström setzte sich aber durch. Ampere. Das Ampere mit Einheitenzeichen A, benannt nach dem französischen Physiker André-Marie Ampère, ist die SI-Basiseinheit der elektrischen Stromstärke und zugleich SI-Einheit der abgeleiteten Größe „magnetische Durchflutung“. Obwohl man den Nachnamen des Namensgebers „Ampère“ mit accent grave schreibt, wird die SI-Einheit im deutschen und englischen Sprachraum üblicherweise ohne Akzent, also „Ampere“, geschrieben. Mit der Definition des Ampere im SI-Einheitensystem ist zugleich der Wert der magnetische Feldkonstante μ0 festgelegt. Historisches. Bevor das Ampere als internationale Einheit der Stromstärke festgelegt wurde, gab es eine Reihe von unterschiedlichen Einheiten und Definitionen. In Deutschland und einigen anderen Ländern war die „Webersche Einheit“ der Stromstärke in Gebrauch, dabei war 1 Weber-Einheit = 0,1 Ampere. In Großbritannien wurde eine zehnmal so große Einheit unter demselben Namen verwendet, die in etwa dem heutigen Ampere entspricht. Noch verwickelter wurde es dadurch, dass der Name Weber auch für die Einheit der elektrischen Ladung benutzt wurde, so dass dann die Stromstärke gleich „Weber-Einheit/Sekunde“ war, zeitweise gab man der Weber-Einheit auch den Namen „Farad“, womit später die Einheit der elektrischen Kapazität benannt wurde. Stromstärke als Basiseinheit. Würde man die Stromstärke mit einer abgeleiteten Einheit messen, wie das etwa beim CGS-Einheitensystem geschieht, so ließen sich die elektrischen Größen durch die Basiseinheiten nur mit nicht ganzzahligen Exponenten ausdrücken. Um das zu vermeiden, wurde schon 1939 die Einheit der Stromstärke als weitere Basiseinheit vorgeschlagen. Historische Ampere-Definition. 1898 wurde 1 Ampere im „Gesetz, betreffend die elektrischen Maßeinheiten“ des Deutschen Kaiserreichs als die Stärke desjenigen Stromes definiert, der aus einer wässrigen Silbernitrat-Lösung mittels Elektrolyse in einer Sekunde 1,118 mg Silber abscheidet. Das so definierte Ampere ist später als internationales Ampere bezeichnet worden; das mit den restlichen Basiseinheiten kompatible dagegen als absolutes Ampere. Aktuelle Definition. Veranschaulichung der Ampere-Definition. Die blau eingezeichneten Kräfte haben jeweils den Betrag 2·10−7 N. Dies bedeutet einen Durchsatz von 6,24151·1018 (etwa 6 Trillionen) Elektronen pro Sekunde. Vorschläge zur zukünftigen Definition. a> (~6,242 · 1018 Elementarladungen), das in einer Sekunde durch den Leiterquerschnitt fließt. Im Oktober 2005 beschloss das Internationale Komitee für Maß und Gewicht (CIPM) die Vorbereitungen für eine Neudefinition der Einheiten Kilogramm, Ampere, Kelvin und Mol zu treffen, basierend auf Naturkonstanten, um diese auf der nächsten Generalkonferenz im Jahr 2011 beschließen zu können. Daraufhin wurde im Jahr 2006 ein Vorschlag zur Umsetzung veröffentlicht. Gemäß diesem Vorschlag wäre das Ampere definiert durch den Fluss einer bestimmten Menge von Partikeln mit der Elementarladung pro Zeit. Acre. Acre (Plural deutsch "Acre" oder "Acres;" Plural "acres") ist eine von den Britischen Inseln stammende angloamerikanische Maßeinheit zur Flächenbestimmung von Grundstücken und entspricht grob 4047 m²; abgekürzt wird die Einheit "a" oder meist "ac". Neben dem Acre wird im heutigen angloamerikanischen Flächenmaßsystem zur Land- und Grundvermessung praktisch nur noch die Flächeneinheit Square Foot verwendet; in den Vereinigten Staaten wird die Größe von Grundstücken allein mit diesen beiden Flächeneinheiten angegeben. Weit verbreitet sind diese Einheiten auch in Großbritannien, Kanada, Indien, Australien und anderen Commonwealth-Staaten, obwohl dort heute ein metrisches Hauptmaßsystem besteht. Begriff und Definition. Die Einheit "acre," von altenglisch "æcer"»Acker, Feld«, bezeichnete ursprünglich den Landstreifen, der mit einem Ochsengespann in einem Tag gepflügt werden konnte. Unter König Eduard I. sowie erneut unter Eduard III. und Heinrich VIII. wurde der Acre gesetzlich als ein Stück Land mit der Länge von 40 Rods (oder Perches; = 1 Furlong oder 660 Feet) und der Breite von 4 Rods (oder Perches; = 66 Feet) beziehungsweise dessen Entsprechung bei welcher Grundstücksform auch immer definiert. Mit seiner Größe von grob 40 Ar ist der Acre typologisch vergleichbar mit dem Morgen, dem Tagewerk (oder "Tagwan"), dem Joch (oder Juchart) und dem Mannwerk. Angloamerikanische Maßreform 1959. Die weltweit unterschiedlichen angloamerikanischen Längeneinheiten wurden 1959 vereinheitlicht. In den Vereinigten Staaten ergab dies für die bis dahin verwendeten Längenmaße gegenüber den neuen»internationalen«Längenmaßen eine Vergrößerung um den Faktor 1,000002. Bei der Landvermessung hätte dies bei großen Entfernungen zu spürbaren Differenzen geführt. Bei einer Streckenlänge von beispielsweise 1000 km wäre der Unterschied 2 m. Um die bestehenden Werte nicht ändern zu müssen, wurde deshalb in den Vereinigten Staaten das alte Maßsystem – nur für den Zweck der Landvermessung – beibehalten und das bisher verwendete Längenmaß "Foot" erhielt die Bezeichnung "Survey Foot". In den Vereinigten Staaten basiert die Flächeneinheit Acre auf dem "Survey Foot" (der Zusatz "Survey" wird in der Regel weggelassen), sonst ist das "International Foot" die Grundlage. Der auf den "U.S. Survey Foot" basierende "Acre" ist um etwa 162 cm² geringfügig größer. Praktische Verwendung. Der Acre ist das Hauptmaß für Grundstücksflächen. In der Regel werden nicht mehr als zwei Nachkommastellen angegeben, womit eine Genauigkeit von ±20 m² vorliegt. Sobald genauere Angaben erforderlich sind, beispielsweise bei Bauland, wird die Flächeneinheit Square Foot verwendet. Bei landwirtschaftlich genutzten Grundstücken werden die Flächen in "Workable Acre" und "Non Workable Acre" unterteilt. Damit ist gemeint die tatsächlich nutzbare Fläche und die für landwirtschaftliche Zwecke nicht nutzbare Fläche, wie beispielsweise Ödland. Auch sehr große Grundflächen werden in Acre angegeben. Beispielsweise 87.000 ac. (≈ 350 km²). Eine Umrechnung in Quadratmeilen erfolgt in der Regel nicht. Historische Einheiten. Obgleich auf den Britischen Inseln die Größe des Acres seit dem Hochmittelalter mit 160 Square Rods definiert war, war dessen Fläche je nach Ort und Zeit uneinheitlich, da die Längeneinheit Rod oder Perch verschiedenen Fuß-Äquivalenten entsprach. Erst mit der Neudefinition der "Imperial Units" durch den "Weights and Measures Act" von 1824 wurde ein für das gesamte Britische Weltreich einheitlicher Acre geschaffen. Der schottische Acre hielt sich lokal teilweise bis ins 20. Jahrhundert, so in abgelegenen Gebieten Irlands. Apostilb. Apostilb ist eine veraltete Einheit der Leuchtdichte selbstleuchtender Körper und gilt seit 1978 nicht mehr als offizielle Einheit. Es ist eine Untereinheit des Stilb. Als alternativer Namen für diese Einheit wurde 1942 das Blondel vorgeschlagen. 1 asb = 1/π · formula_1 sb 3,14 asb = 1 cd/m² Die entsprechende SI-Einheit ist cd/m². Ar (Einheit). Das oder der Ar, in der Schweiz die Are'", ist eine Maßeinheit der Fläche, Einheitenzeichen: a (nicht zu verwechseln mit dem Einheitenzeichen a für Jahr oder dem Formelzeichen der Fläche: "A") von 100 m2 = 0,01 ha  und ist damit gleich einem "Quadratdekameter" (dam2). Ein Quadrat mit diesem Flächeninhalt hat eine Kantenlänge von zehn Metern. Das Ar ist keine SI-Einheit; im Gegensatz zum Hektar ist sie aus Sicht des Internationalen Einheitensystems nicht einmal zum Gebrauch mit dem SI zugelassen. In der EU und der Schweiz ist der Ar bzw. die Are gesetzliche Einheit für die Angabe der Fläche von Grund- und Flurstücken. Geschichte. Im Jahr 1793 wurde in Frankreich das Meter als der 10-millionste Teil des Erdquadranten auf dem Meridian von Paris festgelegt. Zugleich wurde die Einheit "are" in Anlehnung an das lateinische Wort "ārea" (Fläche, freier Platz) für die Fläche von 100 m2 neu geschaffen. Sie war anfangs die einzige gebräuchliche metrische Flächeneinheit, samt ihrer Teile und Vielfachen Zentiar (1 ca = 1 m2) und Hektar (1 ha = 100 a). Im Jahr 1868 wurde die Maßeinheit unter der Bezeichnung Ar auch in Deutschland amtlich eingeführt. Vielfache und Teile. Außer Ar und Hektar sind diese Vielfachen und Teile im deutschen Sprachraum ungebräuchlich und nur noch von historischem Interesse. Das Dekar wird als Flächenmaß in der bulgarischen Landwirtschaft, in Griechenland (Stremma), in der Türkei und einigen Staaten des Nahen Ostens (metrisches Dunam) verwendet. Arbeit (Sozialwissenschaften). Arbeit ist eine zielbewusste und sozial durch Institutionen (Bräuche) abgestützte besondere Form der Tätigkeit, mit der Menschen seit ihrer Menschwerdung in ihrer Umwelt zu überleben versuchen. Zur Anthropologie der „Arbeit“. Es ist bereits strittig, ob man zielgerichtete körperliche Anstrengung von Tieren (zum Beispiel den instinktiven Nestbau oder das andressierte Ziehen eines Pfluges) als „Arbeit“ bezeichnen kann. Die „Philosophische Anthropologie“ geht zumeist davon aus, dass „Arbeit“ erst im Tier-Mensch-Übergangsfeld erscheint (vgl. zum Beispiel Friedrich Engels’ "Anteil der Arbeit an der Menschwerdung des Affen", MEW 20). Dabei wird meist angenommen, dass die Resultate menschlicher Arbeit (als „Gegenstände“) wie in einem Spiegel dem Menschen sich selbst zeigen, so dass er angesichts ihrer des Selbstbewusstseins mächtig wird. Das könnten aber auch andere menschliche Tätigkeiten bewirken, so dass „Arbeit“ gerade in ihren ursprünglichen Formen schwer von anderen menschlichen Überlebensstrategien wie Spiel oder Kunst zu trennen ist. Seit der Urgeschichte ist (so Karl Bücher) ein Basiszusammenhang von Arbeit und Rhythmus anzunehmen (vgl. das Arbeitslied). Wortgeschichte. Das Wort "Arbeit" ist gemeingermanischen Ursprungs ("*arbējiðiz", got. "arbaiþs"); die Etymologie ist unsicher; evtl. verwandt mit indoeurop. "*orbh-" „verwaist“, „Waise“, „ein zu schwerer körperlicher Tätigkeit verdungenes Kind“ (vgl. Erbe); evtl. auch verwandt mit aslaw. "robota" („Knechtschaft“, „Sklaverei“, vgl. Roboter). Im Alt- und Mittelhochdeutschen überwiegt die Wortbedeutung „Mühsal“, „Strapaze“, „Not“; redensartlich noch heute "Mühe und Arbeit" (vgl. Psalm 90, lateinisch "labor et dolor"). Das französische Wort "travail" hat eine ähnliche, sogar noch extremere Wortgeschichte hinter sich: es leitet sich von einem frühmittelalterlichen Folterinstrument ab. Das italienische "lavoro" und englische "labour" (amerikanisch "labor") gehen auf das lateinische "labor" zurück, das ebenfalls primär „Mühe“ bedeutet. Viele Redensarten sind mit ihr verbunden. So wurde harte körperliche Arbeit früher als "Kärrnerarbeit" bezeichnet, und eine "Schweinearbeit" bedeutet unangenehm viel Arbeit: "Wer die Arbeit kennt und sich nicht drückt, | der ist verrückt." Geschichtsschreibung. Die Geschichtsschreibung der Arbeit begann erst im 20. Jahrhundert (zuerst in Frankreich, England und den USA) zu entstehen. Eine frühe Ausnahme innerhalb der deutschen Historiker war Karl Lamprecht (1856–1915). Ein neueres Buch stammt von Arne Eggebrecht und anderen. Antike. Aristokratische Autoren wie Xenophon, Platon, Aristoteles und Cicero würdigten den Großteil der täglichen Arbeit (Handwerker, Bauern, Kaufleute) herab. Sie galt ihnen (insbesondere körperliche) Arbeit als Zeichen der Unfreiheit. Sklaven ("dúloi") und Handwerker ("bánausoi") waren „der Notwendigkeit untertan“ und konnten nur durch diese als „unfrei“ verstandene Arbeit ihre Lebensbedürfnisse befriedigen. Geistige Arbeit blieb der "scholé" (gespr. "s|cholé") vorbehalten, was etwa „schöpferische Muße“ beschrieb, wovon das deutsche Wort Schule herrührt. Mittelalter. In Europa blieben – vor allem in der Landwirtschaft – Formen unfreier Arbeit von Männern und Frauen, auch Kindern und Alten, lange erhalten (Fron, Lasswirtschaft), am stärksten im Russischen Reich; im Deutschen Reich wurden deren letztes Überbleibsel (die Schollengebundenheit in den beiden Mecklenburgs) erst durch die Novemberrevolution 1918 beseitigt. Noch heute existieren in großen Teilen der Welt unterschiedliche Erscheinungsformen unfreier Arbeit, von der Arbeitspflicht bis hin zur Arbeitsversklavung und Zwangsarbeit. Eine positive Bewertung von Arbeit als „produktiver Betätigung zur Befriedigung eigener oder fremder Bedürfnisse“ war im Rittertum und in der Mystik angelegt. Durch Reformation und Aufklärung rückte sie in den Vordergrund: Eine neue Sicht der Arbeit als sittlicher Wert und Beruf (als Berufung verstanden) des Menschen in der Welt wurde von Martin Luther mit seiner Lehre vom allgemeinen Priestertum ausgeprägt. Schärfer noch wurde im Calvinismus die Nicht-Arbeit überhaupt verworfen "(siehe auch: Protestantische Ethik)". Neuzeit. In der Frühphase der Aufklärung wurde Arbeit zum Naturrecht des Menschen erklärt (Jean-Jacques Rousseau). Damit wurde das feudalistische Prinzip der Legitimation kritisiert. Eigentum entsteht "einzig" durch Arbeit, niemand hat ein von Gott gegebenes Anrecht auf Eigentum. Güter, die nicht durch menschliche Arbeit entstanden sind, sind Gemeinbesitz. Adam Smith unterscheidet produktive und unproduktive Arbeit. "Produktive" Arbeit nennt er die Arbeit, deren Resultat ein verkäufliches Produkt ist. Dazu wird nicht nur der eigentliche Wertschöpfungsprozess (beim Schmied: der Vorgang des Schmiedens selbst) gerechnet, sondern auch alle Arbeiten, die indirekt zur Vervollkommnung des Gutes beitragen (beim Schmied: das Erhalten der Glut, das Pflegen von Hammer und Amboss). "Unproduktiv" ist hingegen die Arbeit, die nicht in einem verkäuflichen Produkt resultiert (zum Beispiel die mütterliche Hausarbeit). Andere Arbeiten sind von diesem Standpunkt aus nicht unnütz, da sie notwendig sind, um produktive Arbeit leisten zu können, und werden heute zum Beispiel als "reproduktiv" bezeichnet (beispielsweise Beamte, Verwalter, Soldaten). Der Frühsozialist Charles Fourier proklamierte 1808 ein "Recht auf Arbeit." In der deutschen Philosophie (Immanuel Kant, Johann Gottfried Herder, Georg Wilhelm Friedrich Hegel, Johann Gottlieb Fichte) wird die Arbeit zur Existenzbedingung und sittlichen Pflicht erklärt. Kant räumte in seiner "Anthropologie in pragmatischer Hinsicht" (1798, §87) jedoch ein, dass Faulheit eine Schutzfunktion habe: „"Denn die Natur hat auch den Abscheu für anhaltende Arbeit manchem Subjekt weislich in seinen für ihn sowohl als andere heilsamen Instinkt gelegt: weil dieses etwa keinen langen oder oft wiederholenden Kräfteaufwand ohne Erschöpfung vertrug, sondern gewisser Pausen der Erholung bedurfte."“ Nach Karl Marx' Werttheorie ist die „menschliche Arbeitskraft“ als alleinige Kraft fähig, das Kapital (als eine Ansammlung geronnener Arbeit) zu vergrößern (Mehrwert zu akkumulieren). Sie tut dies im Kapitalismus unausweichlich. Praktisch spiegelt dies wider, dass in der Phase der Industrialisierung freie Arbeit augenfällig zur Ware wurde und vorwiegend die düsteren Züge der damaligen Lohnarbeit annahm. So zum Beispiel in Gestalt der Kinderarbeit, des Arbeiterelends (der „Verelendung“), der Arbeitsunfälle und –krankheiten, der drückenden Akkordarbeit – alles dies sind Merkmale der allgemein so empfundenen „Sozialen Frage“ Deren Folgen wurden schon seit Hegel als „Entfremdung“ charakterisiert: Der Arbeiter hat zu seinem eigenen Arbeitsprodukt, aber auch zu dem Unternehmen, für das er arbeitet, nur noch das bare Lohnverhältnis und kann dem gemäß nicht mehr stolz auf sie sein – in diesem 'Spiegel' erkennt er sich selbst jedenfalls nicht mehr wieder. Für Ernst Jünger war Arbeit nicht Tätigkeit schlechthin, sondern der Ausdruck eines „besonderen Seins, das seinen Raum, seine Zeit, seine Gesetzmäßigkeit zu erfüllen sucht“ („"Der Arbeiter"“). Daher kenne Arbeit auch keinen Gegensatz außer sich selbst. Das Gegenteil von Arbeit sei nicht Ruhe oder Muße, da es keinen Zustand gebe, der nicht als Arbeit begriffen werden könne. Neben der „produktiven“ Eigenschaft der Arbeit wird neuerdings (Lars Clausen) ihre „destruktive“ Seite hervorgehoben: am auffälligsten als (harte, lebensgefährliche) Arbeit der Soldaten, aber auch bei selbst-, mitmenschen- oder umweltzerstörerischer Arbeit ist Destruktives seit je Wesensbestandteil aller Arbeit. (Anders die „vernichtende Tätigkeit“, die alltags als Vandalismus auftreten kann und einen organisatorischen Höhepunkt im KZ hatte.) Arbeit und Fortschritt der Technik. Der Soziologe Rudi Dutschke und der Politologe Bernd Rabehl meinten 1967 in einem Gespräch mit Hans Magnus Enzensberger, der technische Fortschritt könne die Erwerbsarbeit in Zukunft erheblich reduzieren: „"Dabei muß man bedenken, dass wir fähig sein werden, den Arbeitstag auf fünf Stunden zu reduzieren durch moderne Produktionsanlagen, dadurch dass die überflüssige Bürokratie wegfällt. Der Betrieb wird zum Zentrum der politischen Selbstbestimmung, der Selbstbestimmung über das eigene Leben. Man wird also im Betrieb täglich debattieren, es wird langsam ein Kollektiv entstehen, ein Kollektiv ohne Anonymität, begrenzt auf zwei- bis dreitausend Leute, die also immer noch eine direkte Beziehung zueinander haben."“ In der Zeit der 1950er und 1960er Jahre gab der technische Fortschritt sogar in der calvinistisch geprägten nordamerikanischen Gesellschaft tatsächlich wieder dem Gedanken Raum, dass Fortschritt zu mehr Freizeit führen könne. Zeugnisse für die Hoffnungen gaben die Schöpfungen einer bunten Pop-Kultur mit ihren Science-Fiction-Träumen wie beispielsweise der Zeichentrickserie „Die Jetsons“, in der technikgestütztes Faulenzen ohne moralische Bedenken als Ideal dargestellt werden konnte. Angesichts global unterschiedlicher Entwicklungen zeigte sich jedoch, dass ein Ausruhen auf erreichtem Wohlstand in einer Region als Gelegenheit zum wirtschaftlichen Aufholen in anderen Regionen verstanden wurde. In jenem Zeitraum wurde besonders in "Japan" technischer Fortschritt in erster Linie als Weg begriffen, große wirtschaftliche Fortschritte zu erzielen. Bis heute begrenzt somit ein Wettbewerb, in dem der verliert, der zuerst bremst, die Möglichkeit, aus technischem und technologischem Fortschritt mehr selbstbestimmte freie Zeit zu gewinnen. Zudem prägte Robert Solow in der Wirtschaft bereits 1956 mit seinem Wachstumsmodell die Auffassung, dass technologische Innovation in erster Linie als ein Multiplikator des Faktors Arbeit aufträte, womit er in der Dogmengeschichte der Wirtschaft einen Ankerpunkt schuf, der bis heute den Raum des Denkbaren gegenüber möglichen Alternativen wirkungsvoll abgrenzt. So schafft in der heutigen Arbeitswelt technischer Fortschritt dort, wo er Freiräume erweitert, vorwiegend und sogar mit zunehmender Geschwindigkeit immer neue Arbeit. Dort, wo Technik schon vor Beginn des Industriezeitalters die Menschen von Arbeit befreite, wurden sie oft nicht freier, sondern arbeitslose Geächtete. In Deutschland nahm zwischen 1960 und 2010 das Arbeitsvolumen pro Kopf kontinuierlich um 30 Prozent ab. Arbeit heute. In den wohlhabenden Staaten der Welt (zu denen auch Deutschland zählt), wird die Erwerbsarbeit knapp. Es findet eine zunehmende Flexibilisierung, Virtualisierung, Automatisierung und Subjektivierung der Arbeit statt, prekäre Arbeitsverhältnisse nehmen zu. Inhaltlich verschiebt sich die Arbeit immer mehr in den tertiären Sektor (Dienstleistungen) und in „Niedriglohnländer“ (Offshoring), zumal da die Jugend- und Langzeit-Arbeitslosigkeit die „Arbeit“ trotz ihres zentral wichtigen Charakters als Überlebenstätigkeit aus dem Feld der Erfahrung Vieler rücken. In ärmeren Ländern herrschen zugleich – zum Teil – Verhältnisse, die mit denen in der Industrialisierungsphase Europas vergleichbar sind: Kinderarbeit, Billiglohnarbeit und fehlende soziale Absicherung sind dort häufig anzutreffende Bestandteile der Arbeitswelt. Systematik der Arbeitsverhältnisse. Dort, wo Arbeit für andere verrichtet wird, ist nach wie vor der Unterschied bedeutsam Ein Wandel einer Tätigkeit von der unentgeltlichen zur entgeltlichen Form wird auch als Kommerzialisierung bezeichnet. Unentgeltliche Arbeit. Die unentgeltliche Arbeit umfasst also historisch "sehr viele" Formen, die auch heute vorkommen, aber nicht immer als „Arbeit“ betrachtet werden. Beispiele sind Erwerbsarbeit. Unter Erwerbsarbeit versteht man eine Arbeitsleistung gegen Entgelt (Arbeitslohn) im Gegensatz zu unentgeltlicher Arbeit (wie Subsistenzarbeit, Sklavenarbeit, weiblicher Hausarbeit oder ehrenamtlicher Arbeit). Erwerbsarbeit wird in einem Beschäftigungsverhältnis (Lohnarbeit) oder in selbständiger und neuerdings auch in scheinselbständiger Form geleistet. Das deutsche Privatrecht unterscheidet hier analog zwischen Werkvertrag (der Erfolg wird geschuldet) und Dienstvertrag (der Dienst wird geschuldet). Mischformen. Hierzu gehören zahlreiche freiwillige oder gesetzlich vorgesehene Arbeiten, die gering entgolten werden. Teils sind die Arbeitenden zur Verrichtung der betreffenden Tätigkeiten rechtlich verpflichtet, teils fühlen sie sich ethisch hierzu verpflichtet. Zu den Mischformen gehören auch solche ehrenamtlichen Tätigkeiten, für die eine Aufwandsentschädigung gezahlt wird, die über den tatsächlichen Aufwand hinausgeht. Kritik der Arbeit. Was die zentrale Stellung der Arbeit in kollektiven Wertsystemen angeht, sagen Kritiker der Arbeit, unterscheiden sich Staatsformen und Herrschaftsmodelle erstaunlich wenig. Die radikalen Kritiker der Arbeit lehnen den Arbeitszwang ab – für Reiche wie für Arme. Damit unterscheiden sie sich von Sozialisten, die sich über den Müßiggang der Reichen empören und fordern, dass alle arbeiten müssen. Hintergrund der Ablehnung des Arbeitszwangs ist die reale Möglichkeit der Aufhebung der Arbeit. Schon Lafargue meinte, dass 3 Stunden Arbeit ausreichen müssten. "Aufhebung der Arbeit" bedeutet jedoch nicht nur Verringerung der Arbeitszeit durch Automation und Abschaffung der Produktion von Gütern, die nur um des Profits willen hergestellt werden. Unter kapitalistischen Bedingungen sind Arbeitslose wie abhängig Beschäftigte und auch diejenigen, die auf das sogenannte Berufsleben vorbereitet werden, gleichermaßen dem System der Lohnarbeit unterworfen. Auch wer freie Zeit hat, kann diese nicht frei nutzen, sei es weil andere, mit denen man etwas zusammen tun möchte, arbeiten müssen, sei es weil die gesamte Umwelt von kommerziellen Zwängen geprägt ist. Aufhebung der Arbeit bedeutet, dass auch weiterhin notwendige Tätigkeiten wie zum Beispiel die Pflege gebrechlicher Menschen, einen anderen Charakter annehmen, wenn sie in einem anderen nicht-hierarchischen Kontext ausgeübt werden. Dass die Menschen ohne den Zwang zu Arbeit einfach nichts tun und verhungern würden, ist nach Ansicht der Kritiker der Arbeit nicht zu erwarten, da sie ja bereits unter kapitalistischen Bedingungen freiwillig konstruktiv zusammenarbeiten. Die Tradition der Ablehnung der Arbeit wurde nach dem Zweiten Weltkrieg von einer Gruppe junger Menschen in Paris wiederbelebt. Unter ihnen war Guy Debord. Der Slogan „Ne travaillez jamais“ (‚Arbeitet niemals‘) kehrte dann im Pariser Mai 1968 wieder. Die Ablehnung der Arbeit spielte auch in Italien in den Kämpfen der 1960er und 1970er Jahre eine zentrale Rolle. Der Postanarchist Bob Black rief 1985 die Proletarier dieser Welt auf, sich zu entspannen, da niemand jemals arbeiten solle. Bob Black versteht sich als Antimarxist und postleftistischer (Individual-)Anarchist. Er ruft dazu auf, alle Arbeitsplätze so umzugestalten, dass sie wie ein Spiel sind. Er findet es merkwürdig, dass die einen sich auf dem Feld abrackern, während andere in ihrer Freizeit, welche nur das ebenfalls fremdbestimmte und durchorganisierte Gegenstück zur Arbeit sei, bei der Gärtnerei entspannen. Zentral in seiner Kritik ist neben diesem Punkt(en) auch der Charakter der Fremdbestimmtheit der Arbeit, ob nun im Staatssozialismus oder im Kapitalismus. Im Anschluss an Michel Foucault kritisiert er Disziplinierung und die Disziplinargesellschaft, und betont die zentrale Rolle der Arbeit bei der Disziplinierung: Gefängnisse und Fabriken seien zur selben Zeit entstanden, die Schulen seien dafür da, Leistungsgedanken und -bereitschaft und Gehorsam einzuüben und es gebe „mehr Freiheit in jeder einigermaßen entstalinisierten Diktatur als an einem gewöhnlichen amerikanischen Arbeitsplatz“. Eine ähnliche Kritik hatte allerdings auch schon Gustav Landauer vorgetragen. Auch er wollte den Arbeitstag ähnlich neu gestalten. Von einer deutschen Tradition der Arbeitskritik kann man dennoch kaum reden. Seit den 1990er Jahren bemüht sich allerdings die wertkritische Gruppe "Krisis" um eine Erneuerung der Kritik der Arbeit. Sie veröffentlichte ein "Manifest gegen die Arbeit". Die Argumentation ähnelt der oben von Bob Black vorgestellten, jedoch versteht sich die Krisis als postmarxistisch. Aktuell in der Kritik der Arbeit ist die Kritik der Identifikation mit der Arbeit als zentralem Element männlicher Identität. Reportagen, Feldforschung und Darstellung der Arbeit in der Literatur. Im Bereich der Feldforschung wurde eine Studie der Österreichischen Wirtschaftspsychologischen Forschungsstelle berühmt. Sie hieß "Die Arbeitslosen von Marienthal" (1933) und beschäftigt sich mit den Folgen plötzlich eintretender Arbeitslosigkeit für eine Dorfgemeinschaft. Darstellungen und Schilderungen der täglichen Arbeit am unteren Rand der Gesellschaft finden sich innerhalb der Belletristik etwa bei den österreichischen Autoren Franz Innerhofer und Gernot Wolfgruber, dem Deutschen Hans Dieter Baroth und bei George Orwell ("Erledigt in Paris und London"). Atomare Masseneinheit. Die atomare Masseneinheit (Einheitenzeichen: u für "u'"nified atomic mass unit," veraltet amu für "atomic mass u'"nit") ist eine Maßeinheit der Masse. Sie wird bei der Angabe von Atom- und Molekülmassen verwendet. Ihr Wert ist auf der Masse eines Atoms des Kohlenstoff-Isotops 12C festgelegt. Eine Masse von 1 u entspricht ungefähr der Masse eines Protons oder Neutrons. Deshalb entspricht der Zahlenwert der Atommasse in u annähernd der Massenzahl oder Nukleonenzahl, also der Zahl der schweren Kernbausteine (Protonen und Neutronen) des Atoms. Die atomare Masseneinheit ist zum Gebrauch mit dem Internationalen Einheitensystem (SI) zugelassen und eine gesetzliche Maßeinheit. In der Biochemie, in den USA auch in der organischen Chemie, wird die atomare Masseneinheit auch als Dalton bezeichnet (Einheitenzeichen: Da), benannt nach dem englischen Naturforscher John Dalton. In der deutschen Übersetzung der Broschüre des Internationalen Büros für Maß und Gewicht werden das Dalton und die (vereinheitlichte) atomare Masseneinheit synonym genannt. In den gesetzlichen Regelungen der EWG für die Staaten der EU und im Bundesgesetz über das Messwesen in der Schweiz kommt der Ausdruck „Dalton“ aber nicht vor. Auch wenn das Dalton als besonderer Name für die atomare Masseneinheit betrachtet werden kann, ist die Bezeichnung Dalton also weder gesetzlich noch DIN-normgerecht. Heutiger Wert (seit 1961). 1 u entspricht der Masse eines isolierten Atoms des Kohlenstoff-Isotops 12C im Grundzustand, also Da der Kern des 12C-Atoms 12 Nukleonen enthält, ist die Einheit u annähernd gleich der Masse eines Nukleons. Wert bis einschließlich 1960. Eine atomare Masseneinheit entsprach der Masse eines Sauerstoff-Atoms. Die Differenz zwischen der „chemischen“ Definition (bezogen auf das natürliche Isotopengemisch Sauerstoff) und der „physikalischen“ Definition (bezogen auf das Isotop 16O) war der Anlass, die heutige, vereinheitlichte Definition einzuführen. Zwischen dem neuen und den alten Werten der Einheit gilt die Beziehung Die Differenz zwischen der alten physikalischen und der heutigen Definition ist auf den Massendefekt zurückzuführen, der bei 16O höher ist als bei 12C. Vielfache und Teile. Sowohl für die atomare Masseneinheit als auch für das Dalton ist die Verwendung von Vorsätzen für dezimale Vielfache und Teile zulässig. Gebräuchlich sind das Kilodalton, 1 kDa = 1000 Da, sowie das Megadalton, 1 MDa = 1 000 000 Da. Beziehung zur molaren Masse. mit der Avogadro-Konstante formula_12. Daher hat ein Mol Teilchen mit der Masse in u den gleichen Zahlenwert für die molare Masse in formula_13. Dies führt gelegentlich dazu, dass Molekülmasse und molare Masse synonym verwendet werden. Beispiele. Auch bei der Analyse von Proteingemischen durch SDS-PAGE, bei welcher SDS-denaturierte Proteine in einem elektrischen Feld durch ein Gel mit Poren definierten Durchmessers wandern, wird kDa als Maßeinheit verwendet. Dies ist nicht ganz unproblematisch, da kDa eine Masseeinheit und keine Gewichtseinheit ist. Man versucht, dieses Problem zu umgehen, indem man den Begriff formula_14 (relative molecular mass; relative Molekülmasse) eingeführt hat, der aber immer noch häufig und fälschlich als "molecular weight" ("Molekulargewicht") auch in Publikationen oder bei SDS-PAGE-Standardproteinen ("Molecular Weight Markers") zu finden ist. Anglizismus. Als Anglizismus bezeichnet man eine Ausdrucksweise oder eine Bedeutung aus der englischen Sprache, die in eine andere Sprache eingeflossen ist. Betroffen davon sind alle Bereiche eines Sprachsystems, von der Lautung über die Formenlehre, Syntax, Semantik bis zum Wortschatz, sowie die Bereiche Sprachgebrauch und Sprachebene (Fachsprache, Alltagssprache, Slang und anderes). Findet die Übernahme Akzeptanz von Seiten der Sprachgemeinschaft, werden die Ausdrücke als Fremd- und Lehnwort bzw. als neue Bedeutung eines deutschen Wortes oder als neue Satzkonstruktion übernommen. Werden die englischen Einflüsse nicht allgemein akzeptiert, etwa weil sie auf einen Jargon oder die Jugendsprache beschränkt sind, spricht man von Neudeutsch oder abwertend von Denglisch. Im Laufe des Generationenwechsels kann sich sowohl diese Wertung als auch der Gebrauch von Anglizismen ändern. Insbesondere in der Jugendsprache verschwinden viele Ausdrücke mit der nächsten Generation wieder, da sie nicht mehr als neu und der Jugend vorbehalten empfunden werden. Der Begriff Anglizismus umfasst alle englischen Sprachvarietäten; Einflüsse speziell aus dem britischen Englisch werden auch "Britizismen" und solche aus dem amerikanischen Englisch "Amerikanismen" genannt. Anzahl und Häufigkeit. Sprachwissenschaftliche Untersuchungen der Universität Bamberg stellen anhand von Material aus der Zeitung Die Welt eine Zunahme von Anglizismen in der deutschen Sprache fest. So hat sich von 1994 bis 2004 die Verwendung von Anglizismen Entgegen der allgemeinen Annahme, dass es beim Sprachkontakt vorwiegend zur Übernahme von Substantiven komme, wurden im untersuchten Zeitraum insgesamt etwa gleich viele Wörter aus jeder dieser drei Wortarten vom Englischen ins Deutsche entlehnt, allerdings bleiben die Substantive durchschnittlich länger im Gebrauch erhalten. Die Anzahl der Anglizismen hat zugenommen; ebenso die Häufigkeit, mit der diese verwendet werden. Klassifiziert man die Anglizismen nach Bereichen, lässt sich feststellen, dass der Bereich „Wirtschaft“ am stärksten gewachsen ist, vor allem im Marketing und Vertrieb (siehe Geml/Lauer, 2008). Einzige Ausnahme bildet der Bereich „Wissenschaft und Technik“, in welchem eine Abnahme um den Faktor 1,6 zu verzeichnen ist. Insgesamt lässt sich festhalten, dass der Gebrauch von Anglizismen in zehn Jahren um den Faktor 1,7 zugenommen hat. Hingegen hat die Entlehnungshäufigkeit im Vergleich zum Zeitraum 1954–1964 abgenommen. Das heißt, es werden mehr Anglizismen verwendet, die Geschwindigkeit der Übernahme hat aber abgenommen. Der Grund hierfür könnte ein Sättigungsprozess sein. In einer weiteren Untersuchung wurde ein großes Textkorpus der Gegenwart (1995–2004) mit insgesamt 381191 Lemmata ausgewertet; darunter wurden 13301 = 3,5 % Anglizismen festgestellt. Das Textkorpus hat einen Umfang von rund 10.3 Millionen Token (= einzelne Wortformen), darunter 52647 = 0,5 % Anglizismen. Von den 13301 Anglizismen sind 12726 (95,68 %) (48190 Token = 91,53 %) Substantive, 307 (2,30 %) (1654 Token = 3,14 %) Adjektive, 255 (1,92 %) (2371 Token = 4,50 %) Verben und 13 (0,10 %) (432 Token = 0,82 %) Adverbien. Entwicklung der Anglizismen im Deutschen. Angaben dazu, wann welcher Anglizismus ins Deutsche gelangt ist, kann man vor allem aus Herkunftswörterbüchern (= etymologischen Wörterbüchern) gewinnen. Sie haben den Nachteil, dass sie nur einen Kernbestand des Wortschatzes enthalten, und zwar vor allem den Teil, der etymologisch besonders interessant ist. Es stellt sich also die Frage, ob der Trend der Entlehnungen, der in einem solchen Wörterbuch nachweisbar ist, auch für die Gesamtsprache repräsentativ ist. Dies muss man sich bewusst machen; mangels anderer Möglichkeiten bleibt aber nichts anderes übrig, wenn man sich eine Vorstellung von dem Verlauf der Entlehnungen machen will. Das Wörterbuch enthält 16781 datierbare Stichwörter, darunter 5244 Entlehnungen (Lehnwörter und Fremdwörter). Unter den Entlehnungen sind 519 datierbare Anglizismen. Man sieht, dass diese Entlehnungen aus dem Englischen erst recht spät einsetzen und dann aber eine erhebliche Dynamik entwickeln. Im 20. Jahrhundert erreichen die Anglizismen 3,1 % des gesamten erhobenen Wortschatzes beziehungsweise 9,9 % der Entlehnungen. Anpassung an deutsche Sprachgewohnheiten. Besonders schon vor längerer Zeit entlehnte Wörter haben eine Anpassung der Schreibweise erfahren, etwa "Keks" gegenüber älterem "Cakes". Bei vor allem über den schriftlichen Verkehr übernommenen Anglizismen kann sich die Aussprache bei gleichbleibendem Schriftbild nach deutschen Aussprachegewohnheiten richten; so wird "Jute" heute im Deutschen gewöhnlich ausgesprochen, während ältere Wörterbucher noch die Aussprache verzeichnen. Kritik und Kontroversen. Eine repräsentative Umfrage über die Verständlichkeit von zwölf gebräuchlichen englischen Werbeslogans für deutsche Kunden ergab im Jahr 2003, dass einige der Slogans von weniger als 10 % der Befragten verstanden wurden. Acht der zwölf untersuchten Unternehmen hätten ihre Werbeslogans seitdem geändert. 2008 störten sich in einer Umfrage der Gesellschaft für deutsche Sprache 39 % der Befragten an Lehnwörtern aus dem Englischen. Die Ablehnung war in den Bevölkerungsgruppen am größten, die Englisch weder sprechen noch verstehen konnten (58 % Ablehnung bei der Gruppe der über 59-Jährigen, 46 % Ablehnung bei ostdeutschen Umfrageteilnehmern). Die Entwicklung des Englischen zur lingua franca im 20. Jahrhundert beeinflusst die meisten Sprachen der Welt. Mitunter werden Worte ersetzt oder bei Neuerscheinungen ohne eigene Übersetzung übernommen. Diese Entwicklung wird vor allem dann skeptisch betrachtet, wenn es genügend Synonyme in der Landessprache gibt. Kritiker merken auch an, es handle sich häufig (beispielsweise bei "Handy" im Deutschen) um Scheinanglizismen. Mitunter wird auch eine unzureichende Kenntnis der englischen Sprache für die Vermischung und den Ersatz bestehender Worte durch Scheinanglizismen verantwortlich gemacht. So sprechen einer Studie der GfK zufolge nur 2,1 Prozent der deutschen Arbeitnehmer verhandlungssicher Englisch. In der Gruppe der Unter-30-Jährigen bewerten jedoch über 54 Prozent ihre Englischkenntnisse als gut bis exzellent. Für bessere Sprachkenntnisse könne demzufolge effizienterer Englischunterricht beitragen, und statt der Ton-Synchronisation von Filmen und Serien solle eine Untertitelung der englischsprachigen Originale mit deutschem Text erfolgen. Dies würde zugleich zu einer besseren Abgrenzung zwischen den Sprachen und einer Wahrung deutscher Sprachqualität beitragen. Im Dezember 2014 forderte der Europapolitiker Alexander Graf Lambsdorff, neben Deutsch die englische Sprache als Verwaltungs- und später als Amtssprache in Deutschland zuzulassen, um die Bedingungen für qualifizierte Zuwanderer zu verbessern, den Fachkräftemangel abzuwenden und Investitionen zu erleichtern. Einer repräsentativen YouGov-Umfrage zufolge würden es 59 Prozent der Deutschen begrüßen, wenn die englische Sprache in der gesamten Europäischen Union den Status einer Amtssprache erlangen würde. Ähnliche Kritik wie gegenüber den Anglizismen traf bereits ab Ende des 19. Jahrhunderts die aus dem Französischen, Lateinischen oder Griechischen stammenden Begriffe. Vereine wie der Allgemeine Deutsche Sprachverein versuchten im Rahmen des deutschen Sprachpurismus, diese Begriffe durch deutsche zu ersetzen. So sind französische, lateinische oder griechische Fremdwörter durch deutsche Wortschöpfungen ersetzt worden, z. B. "Fahrkarte" für "Billet", "Abteil" für "Coupé" und "Bahnsteig" für "Perron". Im Postwesen wurden auf Geheiß Bismarcks vom Generalpostmeister Stephan über 700 französischsprachige Begriffe durch deutsche Neuschöpfungen ersetzt. Zwar war die damalige Öffentlichkeit empört und man verhöhnte ihn als»Generalsprachmeister«, trotzdem sind Begriffe wie "eingeschrieben", "postlagernd" und "Empfangsschein" heute in den allgemeinen Sprachgebrauch übergegangen und ersetzen die Fremdwörter "rekommandiert", "poste restante" und "Rezepisse". Viele Unternehmen setzen Anglizismen in Stellenangeboten bzw. -beschreibungen ein. Kritiker vermuten, dass weniger attraktive Stellen dadurch aufgewertet werden sollen. Häufig verwendete Begriffe sind "Area-Manager" (weniger als der klassische Abteilungsleiter), Facility-Manager (Hausmeister), "Key Account Manager" (Betreuer wichtiger Kunden) oder "Case Manager" (ein Fallbearbeiter, siehe Fallmanagement). Um diese Entwicklung zu karikieren, wird gelegentlich der Euphemismus "WC-Manager" (Klomann/-frau) genannt. In Frankreich stoßen Lehnwörter und Anglizismen noch stärker auf Kritik und sollen auch durch gesetzgeberische Maßnahmen wie die Loi Toubon eingedämmt werden. Eine aktive Sprachpolitik, wie sie unter anderem in Frankreich und Island betrieben wird, um eine Anreicherung der Sprache mit Anglizismen zu unterbinden, findet in Deutschland seit Mitte des 20. Jahrhunderts nicht mehr statt. Der Sprachwissenschaftler Rudolf Hoberg sah 2013 keine Bedrohung durch Anglizismen. Die deutsche Sprache habe schon immer englische Ausdrücke aufgenommen: „Nach der letzten Duden-Ausgabe haben wir etwa 3,5 Prozent Anglizismen, aber 20 Prozent andere Fremdwörter, über die sich die Leute meistens gar nicht aufregen“. Ebenso lehnt er gesetzliche Regelungen wie Sprachquoten in Frankreich oder Verfassungsänderungen wie in Österreich ab, die keine Erfolge zeigten. Der Germanist Karl-Heinz Göttert nannte die Aufregung über Anglizismen „komisch“: „Sie machen weniger als zwei Prozent des deutschen Wörterschatzes aus. Da gab und gibt es ganz andere Fremdwortschwemmen. Das Englische selbst hat im Mittelalter ein Drittel aus dem Französischen entlehnt. Und die japanische Sprache hat aus dem Chinesischen 50 Prozent übernommen.“ Sie seien „ein Beweis dafür, dass Nehmersprachen kreativ und nicht knechtisch mit dem Einfluss der Gebersprachen umgehen.“ Er wandte sich gegen eine „Leitkultur“ und kritisierte den Sprachpurismus mit den Worten: „Schon Jakob Grimm hat sich deshalb gegen den ärgerlichen Purismus gewendet. Es wäre besser, der Verein Deutsche Sprache würde sich auf die Grimm'sche Tradition besinnen, statt einen Grimm-Preis für Verdienste beim Anglizismen-Kampf zu vergeben.“ Auch rechtsextreme Organisationen wie die NPD stören sich oft an Anglizismen und versuchen beispielsweise das nicht allgemein anerkannte Wort „Weltnetz“ statt „Internet“ zu etablieren. Astronom. Historische Darstellung eines Astronomen bei der Arbeit a>, einer der Väter der modernen Astronomie (hier durch häufige Sonnenbeobachtung schon fast erblindet). Porträt J.Sustermans 1636 a> (Vatikan-Sternwarte) im Labor bei der Analyse eines Meteoriten, 2014 Ein Astronom ("ástron" ‚Stern‘, ‚Gestirn‘ und νόμος "nómos" ‚Brauch‘, ‚Gesetz‘) ist eine (im Regelfall akademisch gebildete) Person, die sich wissenschaftlich mit der Astronomie beschäftigt. Haupttätigkeit der Astronomen. Der Beruf des Fachastronomen setzt im Regelfall ein Hochschulstudium der Astronomie oder verwandter Naturwissenschaften voraus, etwa ein Diplom der Physik oder Astronomie (nur in Österreich), manchmal auch Studienabschlüsse aus Mathematik, Geodäsie, Aeronautik und anderen. Das Verfassen einer Dissertation schließt sich in den meisten Fällen an, denn die abgeschlossene Promotion gilt oft als Einstellungsvoraussetzung. Gewandeltes Berufsbild. Das Berufsbild des Astronomen hat sich in den letzten Jahrzehnten stark gewandelt. In der Vergangenheit beobachteten Astronomen überwiegend den Himmel mittels optischer Teleskope an Sternwarten. Heute arbeiten die meisten Astronomen an sehr spezialisierten Fragestellungen und verwenden elektromagnetische Signale aus allen Wellenlängenbereichen, von der kurzwelligen Gammastrahlung bis zu den längsten Radiowellen. Viele Messdaten werden auch über das Internet verbreitet – insbesondere bei regelmäßigen internationalen Messkampagnen wie im IVS – beziehungsweise vom Netz übernommen. Daher arbeiten Astronomen heute kaum mehr am Fernrohr selbst, sondern nur einen vergleichsweise kurzen Teil ihrer Arbeitszeit in den Kontrollräumen der Sternwarten. Die dort gewonnenen Daten werden meist außerhalb der Nachtdienste ausgewertet und aufbereitet. Immer mehr gewinnt das so genannte „service mode observing“ (Beobachtung auf Abruf) an Bedeutung, bei dem nur Beobachtungsziel und -art angegeben werden, die Beobachtungen werden an den Teleskopen beziehungsweise von Erdsatelliten unabhängig oder sogar automatisiert durchgeführt. Fach- und Amateurastronomen. Da viele Studenten des Faches später auf anderen Gebieten arbeiten, hängt es von ihrem Selbstverständnis ab, ob sie sich auch weiterhin als Astronom bezeichnen. Inwieweit wissenschaftlich tätige Amateurastronomen als Astronomen im eigentlichen Sinn zu nennen sind, ist ebenfalls offen. Besonders in früheren Jahrhunderten ist eine Trennung zwischen Fachastronom und Amateur wenig zweckmäßig, wie etwa das Beispiel von Wilhelm Olbers zeigt. Da die Astronomie nach wie vor eine Wissenschaft ist, die auch im professionellen Bereich von einzelnen und kleinen Forschungsgruppen geprägt ist, haben auch Amateure mit der entsprechenden Begabung und Ausrüstung die Möglichkeit, mitzuwirken. Amateure sind oft dort erfolgreich, wo eine kontinuierliche Beobachtung notwendig ist, aber wegen der Kosten durch Großteleskope kaum professionell machbar ist, etwa die Asteroiden- und Kometenüberwachung oder auf dem Gebiet veränderlicher Sterne sowie der Astrometrie. Dienstzeit. Da Astronomen naturgemäß – wenn auch durch die moderne Beobachtungs- und Informationstechnik nicht mehr so ausgeprägt wie früher – ihre Tätigkeit in der Nacht ausüben, erfordert die Arbeit eines Berufsastronomen klare Regelungen zur Dienstzeit. Die Zeiten des „astronomischen Schlafmangels“, über die auch berühmte Astronomen manchmal in ihren Briefen oder Berichten geklagt haben, sind allerdings größtenteils vorüber. Moderne Sternwarten sind meistens mit Technologien ausgerüstet, die ein gewisses Maß an Fernbedienung erlauben oder sogar international anbieten, wie z. B. einige Observatorien auf Hawaii oder ESO-Sternwarten wie in Chile. Da visuelle Messungen oder Kontrollen nur mehr selten erforderlich sind und elektro-optische Sensoren grundsätzlich auch eine Funktionskontrolle über EDV oder über das Internet erlauben, werden durchgehend nächtliche Arbeitszeiten zunehmend seltener. Alan Turing. a> während des Zweiten Weltkriegs er maßgeblich beteiligt war. Alan Mathison Turing OBE, FRS (* 23. Juni 1912 in London; †  7. Juni 1954 in Wilmslow, Cheshire) war ein britischer Logiker, Mathematiker, Kryptoanalytiker und Informatiker. Er gilt heute als einer der einflussreichsten Theoretiker der frühen Computerentwicklung und Informatik. Turing schuf einen großen Teil der theoretischen Grundlagen für die moderne Informations- und Computertechnologie. Als richtungsweisend erwiesen sich auch seine Beiträge zur theoretischen Biologie. Das von ihm entwickelte Berechenbarkeitsmodell der Turingmaschine bildet eines der Fundamente der theoretischen Informatik. Während des Zweiten Weltkrieges war er maßgeblich an der Entzifferung der mit der Enigma verschlüsselten deutschen Funksprüche beteiligt. Der Großteil seiner Arbeiten blieb auch nach Kriegsende unter Verschluss. Turing entwickelte 1953 eines der ersten Schachprogramme, dessen Berechnungen er mangels Hardware selbst durchführte. Nach ihm benannt sind der Turing Award, die bedeutendste Auszeichnung in der Informatik, sowie der Turing-Test zum Überprüfen des Vorhandenseins von künstlicher Intelligenz. Im März 1952 wurde Turing wegen seiner Homosexualität, die damals noch als Straftat verfolgt wurde, zur chemischen Kastration verurteilt. Turing erkrankte in Folge der Hormonbehandlung an einer Depression und beging etwa zwei Jahre später Suizid. Im Jahr 2009 sprach der damalige britische Premierminister Gordon Brown eine offizielle Entschuldigung im Namen der Regierung für die „entsetzliche Behandlung“ Turings aus und würdigte dessen „außerordentliche Verdienste“ während des Krieges; eine Begnadigung wurde aber auch 2011 noch trotz einer Petition abgelehnt. Zum 24. Dezember 2013 sprach Königin Elisabeth II. posthum ein „Royal Pardon“ (Königliche Begnadigung) aus. Kindheit und Jugend. Alan mit 16 Jahren (1927) Turings Vater Julius Mathison Turing war britischer Beamter beim Indian Civil Service. Er und seine Frau Ethel Sara (geborene Stoney) wünschten, dass ihre Kinder in Großbritannien aufwüchsen. Deshalb kehrte die Familie vor Alans Geburt aus Chatrapur, damals Britisch-Indien, nach London-Paddington zurück, wo Alan Turing am 23. Juni 1912 zur Welt kam. Da der Staatsdienst seines Vaters noch nicht beendet war, reiste dieser im Frühjahr 1913 erneut nach Indien, wohin ihm seine Frau im Herbst folgte. Turing und sein älterer Bruder John wurden nach St. Leonards-on-the-Sea, Hastings, in die Familie eines pensionierten Obersts und dessen Frau in Pflege gegeben. In der Folgezeit pendelten die Eltern zwischen England und Indien, bis sich Turings Mutter 1916 entschied, längere Zeit in England zu bleiben, und die Söhne wieder zu sich nahm. Schon in frühester Kindheit zeigte sich die hohe Begabung und Intelligenz Turings. Es wird berichtet, dass er sich innerhalb von drei Wochen selbst das Lesen beibrachte und sich schon früh zu Zahlen und Rätseln hingezogen fühlte. Im Alter von sechs Jahren wurde Turing auf die private Tagesschule St. Michael’s in St. Leonards-on-the-Sea geschickt, wo die Schulleiterin frühzeitig seine Begabung bemerkte. 1926, im Alter von 14 Jahren, wechselte er auf die Sherborne School in Dorset. Sein erster Schultag in Dorset fiel auf einen Generalstreik in England. Turing war jedoch so motiviert, dass er die 100 Kilometer von Southampton zur Schule allein auf dem Fahrrad zurücklegte und dabei nur einmal in der Nacht an einer Gaststätte Halt machte; so berichtete jedenfalls die Lokalpresse. Turings Drang zur Naturwissenschaft traf bei seinen Lehrern in Sherborne auf wenig Gegenliebe; sie setzten eher auf Geisteswissenschaften als auf Naturwissenschaften. Trotzdem zeigte Turing auch weiterhin bemerkenswerte Fähigkeiten in den von ihm geliebten Bereichen. So löste er für sein Alter fortgeschrittene Aufgabenstellungen, ohne zuvor irgendwelche Kenntnisse der elementaren Infinitesimalrechnung erworben zu haben. Im Jahr 1928 stieß Turing auf die Arbeiten Albert Einsteins. Er verstand sie nicht nur, sondern entnahm einem Text selbständig Einsteins Bewegungsgesetz, obwohl dieses nicht explizit erwähnt wurde. Collegezeit und theoretische Arbeiten. Turings Widerstreben, für Geisteswissenschaften genauso hart wie für Naturwissenschaften zu arbeiten, hatte zur Folge, dass er einige Male durch die Prüfungen fiel. Weil dies seinen Notendurchschnitt verschlechterte, musste er 1931 auf ein College zweiter Wahl gehen, das King’s College, Cambridge, entgegen seinem Wunsch, am Trinity College zu studieren. Turing studierte von 1931 bis 1934 unter Godfrey Harold Hardy (1877–1947), einem respektierten Mathematiker, der den Sadleirian Chair in Cambridge innehatte, das zu der Zeit ein Zentrum der mathematischen Forschung war. In seiner für diesen Zweig der Mathematik grundlegenden Arbeit "On Computable Numbers, with an Application to the “Entscheidungsproblem”" (28. Mai 1936) formulierte Turing die Ergebnisse Kurt Gödels von 1931 neu. Er ersetzte dabei Gödels universelle, arithmetisch-basierte formale Sprache durch einfache, formale Geräte, die heute unter dem Namen Turingmaschine bekannt sind. („Entscheidungsproblem“ verweist auf eine Problemstellung, die David Hilbert in seinen „Problemen“ formuliert hatte.) Turing bewies, dass solch ein Gerät in der Lage ist, "„jedes vorstellbare mathematische Problem zu lösen, sofern dieses auch durch einen Algorithmus gelöst werden kann“". Turingmaschinen sind bis zum heutigen Tag Schwerpunkt der theoretischen Informatik. Mit Hilfe der Turingmaschine gelang Turing der Beweis, dass es keine Lösung für das Entscheidungsproblem gibt. Er zeigte also, dass die Mathematik nicht nur unvollständig ist, sondern auch, dass es allgemein keine Möglichkeit gibt festzustellen, ob eine bestimmte Aussage beweisbar ist. Dazu bewies er, dass das Halteproblem für Turingmaschinen nicht lösbar ist, d. h., dass es nicht möglich ist, algorithmisch zu entscheiden, ob eine Turingmaschine jemals zum Stillstand kommen wird. Turings Beweis wurde (erst) nach dem von Alonzo Church (1903–1995) mit Hilfe des Lambda-Kalküls geführten Beweis veröffentlicht; unabhängig davon ist Turings Arbeit beträchtlich populärer, da einfacher und intuitiv zugänglich. Auch war der Begriff der „Universellen (Turing-) Maschine“ neu, einer Maschine, welche jede beliebige andere Turing-Maschine imitieren kann. 1938 und 1939 verbrachte Turing zumeist an der Princeton University und studierte dort unter Alonzo Church. 1938 erwarb Turing den Doktortitel in Princeton. Seine Doktorarbeit führte den Begriff der „Hypercomputation“ ein, bei der Turingmaschinen zu sogenannten Orakel-Maschinen erweitert werden. So wurde das Studium von nicht-algorithmisch lösbaren Problemen ermöglicht. Nach seiner Rückkehr nach Cambridge im Jahr 1939 besuchte Turing Vorlesungen des österreichisch-britischen Philosophen Ludwig Wittgenstein (1889–1951) über die Grundlagen der Mathematik. Die beiden diskutierten und stritten vehement: Turing verteidigte den mathematischen Formalismus, während Wittgenstein der Meinung war, dass Mathematik überbewertet sei und keine absolute Wahrheit zutage bringen könne. Kryptoanalyse. Während des Zweiten Weltkriegs war Turing einer der herausragenden Wissenschaftler bei den erfolgreichen Versuchen in Bletchley Park, verschlüsselte deutsche Funksprüche zu entziffern. Er steuerte einige mathematische Modelle bei, um sowohl die Enigma- als auch Fish-Verschlüsselungen zu dechiffrieren. Die Einblicke, die Turing bei den Fish-Verschlüsselungen gewann, halfen später bei der Entwicklung des ersten digitalen, programmierbaren elektronischen Röhrencomputers ENIAC. Konstruiert von Max Newman und seinem Team und gebaut in der Post Office Research Station in Dollis Hill von einem von Thomas Flowers angeführten Team im Jahr 1943, entzifferte Colossus die Fish-Chiffren. Auch half Turing, die sogenannten "Bomben" zu konstruieren. Diese Rechenmaschinen wurden wegen ihres Tickens so genannt und waren eine weiterentwickelte Version der von dem Polen Marian Rejewski konstruierten "Bomba"-Maschinen zur Suche nach den Schlüsseln für Enigma-Nachrichten. Dabei handelte es sich um elektromechanische Geräte, die mehrere nachgebaute Enigma-Maschinen verbanden und so in der Lage waren, viele mögliche Schlüsseleinstellungen der Enigma-Nachrichten durchzutesten und gegebenenfalls zu eliminieren. Turings Mitwirkung als einer der wichtigsten Codeknacker bei der Entzifferung der Enigma war bis in die 1970er Jahre geheim; nicht einmal seine engsten Freunde wussten davon. Die Entzifferung geheimer deutscher Funksprüche war eine kriegsentscheidende Komponente für den Sieg der Alliierten im U-Boot-Krieg und im Afrikafeldzug. Arbeit an frühen Computern – Der Turing-Test. Lochkarten für die Automatic Computing Engine des National Physical Laboratory aus dem Jahr 1950. Von 1945 bis 1948 war Turing im National Physical Laboratory in Teddington tätig, wo er am Design der ACE (Automatic Computing Engine) arbeitete. Der Name der Maschine ist abgeleitet von der Analytical Engine des Mathematikers Charles Babbage, dessen Werk Turing zeitlebens bewunderte. Ab 1948 lehrte Turing an der Universität Manchester und wurde im Jahr 1949 stellvertretender Direktor der Computerabteilung. Hier arbeitete er an der Software für einen der ersten echten Computer, den Manchester Mark I und gleichzeitig weiterhin verschiedenen theoretischen Arbeiten. In „Computing machinery and intelligence“ (Mind, Oktober 1950) griff Turing die Problematik der künstlichen Intelligenz auf und schlug den Turing-Test als Kriterium vor, ob eine Maschine mit dem Menschen vergleichbar denkfähig ist. Er beeinflusste durch die Veröffentlichung die Entwicklung der Künstlichen Intelligenz maßgeblich. 1952 schrieb er ein Schachprogramm. Da es keine Computer mit ausreichender Leistung gab, um es auszuführen, übernahm Turing dessen Funktion und berechnete jeden Zug selbst. Dies dauerte bis zu 30 Minuten pro Zug. Das einzige schriftlich dokumentierte Spiel verlor er gegen einen Kollegen. Arbeit an mathematischen Problemen der Biologie. Von 1952 bis zu seinem Tod 1954 arbeitete Turing an mathematischen Problemen der theoretischen Biologie. Er veröffentlichte 1952 eine Arbeit zum Thema "The Chemical Basis of Morphogenesis". In diesem Artikel wurde erstmals ein Mechanismus beschrieben, wie Reaktions-Diffusions-Systeme spontan Strukturen entwickeln können. Dieser als Turing-Mechanismus bekannte Prozess steht noch heute im Mittelpunkt vieler chemisch-biologischer Strukturbildungstheorien. Turings weiteres Interesse galt dem Vorkommen der Fibonacci-Zahlen in der Struktur von Pflanzen. Spätere Arbeiten blieben bis zur Veröffentlichung seiner gesammelten Werke 1992 unveröffentlicht. Verfolgung wegen Homosexualität und Turings Tod. a> 2012, der am 100. Geburtstag Turings stattfand, warb die britische Botschaft mit Turing als Codeknacker. 60 Jahre zuvor begann die staatliche Verfolgung, die wahrscheinlich Auslöser seines Suizids war. 1952 half der 19-jährige Arnold Murray, zu dem Turing eine gleichgeschlechtliche Beziehung hatte, einem Komplizen dabei, in Turings Haus einzubrechen. Turing meldete daraufhin einen Diebstahl bei der Polizei, die ihm als Folge der Ermittlungen eine sexuelle Beziehung zu Murray vorwarf. Da homosexuelle Handlungen zu dieser Zeit – wie in den meisten anderen Ländern – in England strafbar waren, wurde Turing wegen „grober Unzucht und sexueller Perversion“ angeklagt. Turing sah keinen Anlass, sich wegen dieser Vorwürfe zu rechtfertigen. Nach seiner Verurteilung zu einer Gefängnisstrafe wurde er vor die Wahl gestellt, die Haftstrafe anzutreten oder, da zu seiner Zeit Homosexualität von weiten Teilen der Psychiatrie als Krankheit angesehen wurde, sich behandeln zu lassen. Er entschied sich für die ärztliche Behandlung, zu der auch eine medikamentöse Behandlung mit dem Hormon Östrogen gehörte. Östrogen wurde eine triebhemmende Wirkung zugeschrieben. Diese dauerte ein Jahr und führte zu Nebenwirkungen wie der Vergrößerung der Brustdrüse. Auch wenn er seine körperlichen Veränderungen mit Humor kommentierte, muss die Verweiblichung seiner Konturen den sportlichen Läufer und Tennisspieler schwer getroffen haben. Turing erkrankte an einer Depression. Im Herbst 1952 begann Turing seine Therapie bei dem aus Berlin stammenden und seit 1939 in Manchester lebenden Psychoanalytiker Franz Greenbaum. Greenbaum war ein Anhänger C.G. Jungs und war ihm von Freunden als für seinen Fall verständnisvoll empfohlen worden. Turing entwickelte auch ein freundschaftliches Verhältnis zur Familie Greenbaum, die er auch privat besuchte. 1954 starb Turing, wahrscheinlich entsprechend der offiziellen Feststellung durch Suizid, an einer Cyanidvergiftung, dem Anschein nach von einem vergifteten Apfel herrührend, den man halb aufgegessen neben ihm auffand. Die Ermittler versäumten es jedoch, den Apfel auf Gift untersuchen zu lassen. Es wird berichtet, dass Turing seit 1938, nachdem er den Film „Schneewittchen und die sieben Zwerge“ gesehen hatte, immer wieder die Verse “Dip the apple in the brew / Let the sleeping death seep through”' („Tauch den Apfel tief hinein / bis das Gift wird in ihm sein“) sang. Der These, dass Turings Tod ein Unfall im Zusammenhang mit einem chemischen Versuch war, wird von Andrew Hodges, einem seiner Biographen, entschieden widersprochen. Unter seinen Biographen ist die Annahme verbreitet, die Auswirkungen der Hormonbehandlung seien die Hauptursache für den Suizid gewesen. Offizielle Entschuldigung, Danksagung und Rehabilitierung. Ab etwa den späten 2000er Jahren unternahmen britische Bürger eine Reihe von öffentlichkeitswirksamen Aktivitäten, um das von Turing erlittene Unrecht bekannt zu machen und seine formale Rehabilitierung zu erreichen, also einen Widerruf oder eine Aufhebung des damaligen Urteils. Dies führte im Jahr 2013 zum Erfolg. Da die Strafverfolgung seiner sexuellen Ausrichtung damals gesetzeskonform war, wurde eine nachträgliche Aufhebung der Verurteilung Turings zunächst von offizieller Seite als unmöglich dargestellt. Noch 2012 weigerte sich die Regierung von Browns Nachfolger David Cameron, 49.000 Homosexuelle, die nach dem "Criminal Law Amendment Act" von 1885 verurteilt worden waren, postum zu rehabilitieren. Im Jahr 2013 wurde bekannt, dass die britische Regierung die Absicht hat, Turing zu rehabilitieren. Das Oberhausmitglied John Sharkey, Baron Sharkey beantragte dies. Das konservative Mitglied des Oberhauses Tariq Mahmood Ahmad, Baron Ahmad of Wimbledon, kündigte die Zustimmung der Regierung an. Der Liberaldemokrat Sharkey hatte in den 1960er Jahren in Manchester Mathematik bei Turings einzigem Doktoranden Robin Gandy studiert. Eine dritte Lesung des Antrags beraumte die Regierung für Ende Oktober an. Am 24. Dezember 2013 wurde Turing dann durch ein allein dem Monarchen zustehendes besonderes Gnadenrecht durch ein sogenanntes "Royal Pardon" begnadigt. Justizminister Chris Grayling hatte diese Begnadigung bei Elisabeth II. beantragt. Alan Turing gilt damit auch als offiziell rehabilitiert. Erbe. Anfang 2015 verlangten Mitglieder der Familie Alan Turings unter weiterer, teils prominenter Unterstützung (Stephen Fry, Turing-Darsteller Benedict Cumberbatch) in einer Petition an das britische Parlament die Rehabilitation auch aller anderen der in England unter den Homosexuellen-Gesetzen Verurteilten. Die Petition wurde von ca. 500.000 Personen unterschrieben und soll von Turings Großneffen Nevil Hunt und der Großnichte Rachel Barns überreicht werden. Postume Ehrungen == . Am 2. März 1999 wurde der Asteroid (10204) Turing nach ihm benannt. Eine Turing-Statue wurde am 23. Juni 2001 in Manchester enthüllt. Sie steht im Sackville Park, zwischen den wissenschaftlichen Gebäuden der Universität Manchester und dem bei Homosexuellen beliebten Viertel der Canal Street. An seinem 50. Todestag, dem 7. Juni 2004, wurde zum Gedenken an Turings frühzeitigen Tod eine Tafel an seinem früheren Haus „Hollymeade“ in Wilmslow enthüllt. Der Turing Award wird jährlich von der Association for Computing Machinery an Personen verliehen, die große Arbeit im Informatikbereich geleistet haben. Er wird weithin als Nobelpreis der Informatik angesehen. Der Bletchley Park Trust hat am 19. Juni 2007 eine Statue Turings in Bletchley Park enthüllt. Die Skulptur wurde von Stephen Kettle gestaltet, der als Material für sein Kunstwerk walisischen Schiefer verwendete. Im „Turing-Jahr 2012“ fanden zu Alan Turings hundertstem Geburtstag weltweit Veranstaltungen zur Würdigung seiner Leistungen und zum Gedenken daran statt. Im Jahr 2014 wurde er in die Hall of Honor (Ehrenhalle) der NSA ("National Security Agency") aufgenommen. Archäologie. Fundobjekte müssen ausgewertet und klassifiziert werden Die Archäologie (gr. "archaios", ‚alt‘ und "lógos" ‚Lehre‘; wörtlich also ‚Altertümerkunde‘) ist eine Wissenschaft, die mit naturwissenschaftlichen und geisteswissenschaftlichen Methoden die kulturelle Entwicklung der Menschheit erforscht. Sie hat sich weltweit zu einem Verbund unterschiedlichster theoretischer und praktischer Fachrichtungen entwickelt. Die Archäologie interessiert sich ausschließlich für den Menschen und seine materiellen Hinterlassenschaften, wie etwa Gebäude, Werkzeuge und Kunstwerke. Sie umfasst einen Zeitraum von den ersten Steinwerkzeugen vor etwa 2,5 Millionen Jahren bis in die nähere Gegenwart. Materielle Hinterlassenschaften der jüngsten Geschichte (beispielsweise Konzentrationslager und Bunkerlinien aus dem Zweiten Weltkrieg) werden heute ebenfalls mit archäologischen Methoden ausgewertet, auch wenn dieser Ansatz einer „zeitgeschichtlichen“ Archäologie fachintern umstritten ist. Obwohl die Archäologie eine verhältnismäßig junge Wissenschaft ist, ist es kaum mehr möglich, alle Zeiträume zu überblicken, so dass sich verschiedene Fachrichtungen herausbildeten. Dabei können die Epochen regional unterschiedlich datiert sein, teilweise sind sie nicht überall dokumentierbar. Neben der Orientierung an Epochen (z. B. Mittelalterarchäologie) oder Regionen (z. B. Vorderasiatische Archäologie) gibt es auch die Spezialisierung auf bestimmte Themengebiete (z. B. Christliche Archäologie, Rechtsarchäologie). Obwohl die Methodik sich großteils ähnelt, können die Quellen unterschiedlich sein. In der Vor- und Frühgeschichte hat man es hauptsächlich mit materieller Kultur zu tun, in der Frühgeschichte kann dabei teils auf Schriftquellen zurückgegriffen werden. Diese stehen für Archäologen im Gegensatz zu Wissenschaftlern anderer Teildisziplinen der Geschichtswissenschaft aber nicht im Mittelpunkt. Erkenntnisse zu Umwelt, Klima, Ernährung oder zum Alter von Funden tragen zur Rekonstruktion vergangener Kulturen bei. Anfänge der Altertumsforschung in Europa. In Europa entwickelte sich die Archäologie um 1450, weil man Zeugnisse für die in den Quellen der Antike geschilderten Ereignisse finden wollte. Cyriacus von Ancona (* um 1391; † um 1455), ein italienischer Kaufmann und Humanist, gilt als einer der Gründungsväter der modernen klassischen Archäologie. Die in der Renaissance einsetzende Wiedergeburt klassisch-antiker Gelehrsamkeit führt im 15. und 16. Jahrhundert zu einem gesteigerten Interesse an griechischen und römischen Altertümern und zu einer Welle der Sammelleidenschaft antiker Kunstgegenstände. Doch auch weniger reisefreudige Gelehrte beginnen sich für die vorhandenen Zeugnisse vergangener Zeiten zu interessieren. Ab Mitte des 16. Jahrhunderts tritt an die Stelle der Sammelleidenschaft die akribische Erfassung der Denkmäler. In dieser Zeit werden zahlreiche Enzyklopädien und Kataloge veröffentlicht, welche im späten 16. Jahrhundert vielfach mit Kupferstichen und Holzschnitten illustriert werden. In England veröffentlicht William Camden (1551–1632) im Jahre 1586 seine "Britannia", einen Katalog der sichtbaren Altertümer. Bemerkenswert ist, dass er bereits Bewuchsmerkmale in Kornfeldern bemerkt und als solche interpretiert. Michele Mercati (1541–1593) gilt als der erste europäische Gelehrte, der Steinwerkzeuge als solche einstufte; sein Werk wird jedoch erst 1717 veröffentlicht. Trotz großer Popularität hat die Archäologie als Wissenschaft noch keinen Stellenwert, denn es herrscht die Ansicht vor, dass ausschließlich historische Quellen und die Bibel zur Interpretation der Vergangenheit geeignet seien. So gilt es noch lange als ein Faktum, dass – wie James Ussher aus der Bibel ableitete – die Menschheit im Oktober 4004 v. Chr. entstand. 1655 wagt es Isaac de La Peyrère, die sogenannten Donnerkeile (Steinzeitartefakte) menschlichen Aktivitäten zuzuordnen, welche vor Adam lebten (Präadamiten-Hypothese). Nach einer Intervention der Inquisition widerruft er seine Theorie. Steinkiste von Södra Härene auf dem Gräberfeld Jättakullen, Schweden In Skandinavien werden Bodendenkmäler schon früh beachtet. Bereits 1588 gräbt man einen Dolmen bei Roskilde aus. Im Jahre 1662 erhält Uppsala einen Lehrstuhl für Altertumskunde. 1685 wird in Houlbec-Cocherel in Nordfrankreich eine neolithische Grabkammer ausgegraben. Sie gilt als die älteste archäologische Grabung, weil hier 1722 der erste erhaltene Grabungsbericht erstellt wurde. Der Kieler Professor Johann Daniel Major führt um 1690 umfangreiche Ausgrabungen in Jütland durch und lässt zahlreiche Hügelgräber öffnen. Sein Ziel ist es, die Herkunft der Einwohner der Halbinsel mit archäologischen Methoden zu klären. Bernard de Montfaucons "L'Antiquité expliquée" erscheint ab 1719. In zehn Bänden stellt er Kunstgegenstände aus dem Mittelmeerraum dar. Montfaucons Werk bleibt für lange Zeit das Standardwerk. Mitte des 18. bis Mitte des 19. Jahrhunderts. Archäologische Forschungsmethoden setzten sich nun sukzessiv durch. Oftmals trafen einzelne Gelehrte schon früh bahnbrechende Schlussfolgerungen, welche aber oft – da noch nicht zeitgemäß – unbeachtet blieben. Einer der Bahnbrecher war der französische Amateurarchäologe Jacques Boucher de Perthes, der als Erster prähistorische Artefakte richtig zuordnete, wofür ihm aber erst mehr als 20 Jahre später, durch die Bestätigung Charles Lyells (1797–1875), Anerkennung zuteilwurde. Eine wichtige Erkenntnis war die Entdeckung des stratigraphischen Prinzips. Bereits lange vorher war die Zusammengehörigkeit und somit Gleichaltrigkeit von Funden, welche sich in einer Schicht befanden (beispielsweise ein Steinartefakt im Fundzusammenhang mit einer ausgestorbenen Tierart), immer wieder diskutiert worden, wurde aber nicht allgemein akzeptiert. Ein Modell, das in seinen Grundzügen noch heute gilt, wurde von 1836 von Christian Jürgensen Thomsen veröffentlicht. Er war Kurator in Kopenhagen und erfand das „Dreiperiodensystem“, das die Vorgeschichte der Menschheit in drei Phasen einteilt, nämlich die Steinzeit, die Bronzezeit und die Eisenzeit. Etwa 30 Jahre später, um 1865, unterschied J. Lubbock die Steinzeit noch in die des geschlagenen und die des geschliffenen Steins. Die Begriffe „Paläolithikum“ (Altsteinzeit) und „Neolithikum“ („Neusteinzeit“/Jungsteinzeit) waren geboren. Die Epochen sind in sich vielfach untergliedert, aber die damals gefundene Unterteilung gilt – mit Einschränkungen – bis heute. Pompeji und der Vesuv um 1900 Die ersten großen Ausgrabungen fanden in den antiken Städten Pompeji und Herculaneum statt. Beide waren am 24. August 79 n. Chr. durch den Ausbruch des Vesuvs ausgelöscht worden. Pompeji wurde Ende des 16. Jahrhunderts beim Bau einer Wasserleitung wiederentdeckt. 1748 begannen die Grabungen. In Herculaneum wurde erstmals 1709 gegraben, 1738 ließ Karl III. von Neapel die Stadt gezielt ausgraben. 1768 konnte das Theater, die Basilika und die Villa dei Papiri freigelegt werden. Mit seinem "Sendschreiben von den Herculanischen Entdeckungen", der ersten archäologischen Publikation, begründete Johann Joachim Winckelmann 1762 die neue Wissenschaft der Archäologie und gilt seither als "Vater der (klassischen) Archäologie". Winckelmann ist auch der Erste, der eine Periodisierung und geschichtliche Einordnung der griechischen Kunst versucht. Seine Entwicklungsstufen (alter Stil – hoher Stil – schöner Stil – Stil der Nachahmer – Verfall der Kunst) sind durch die enthaltene Wertung jedoch überholt. Für die Verbreitung seiner Forschung und deren Rezeption in der zeitgenössischen Literatur und Kunst war der Göttinger Professor Christian Gottlob Heyne entscheidend, der mit Winckelmann korrespondierte, seine Schriften rezensierte und bekanntmachte und in seinen Vorlesungen verwendete. 1802 wurde an der Christian-Albrechts-Universität zu Kiel der erste Lehrstuhl für klassische Archäologie eingerichtet. Die ägyptischen Baudenkmäler, allen voran die Pyramiden, waren bereits im Altertum beliebte Reiseziele (siehe Weltwunder). Im 17. Jahrhundert hatte sich die Erkenntnis durchgesetzt, dass es sich hierbei um Königsgräber handelt. Die Ägyptologie nahm mit Napoléon Bonapartes Ägypten-Feldzug 1798 ihren Anfang. In Begleitung des Heeres befanden sich auch Wissenschaftler. Von besonderer Bedeutung ist der Fund des Steins von Rosetta, welcher 1822 Jean-François Champollion die Entzifferung der Hieroglyphen ermöglichte. Von besonderer Bedeutung für die ägyptische Archäologie ist Auguste Mariette (1821–1881), welcher ab 1858 als Direktor des ägyptischen Altertümerdienstes mehr als dreißig Fundstätten ausgrub. Seine Methoden waren brachial (beispielsweise Sprengladungen). Die Feststellung der Fundumstände und wissenschaftliche Auswertungen waren damals noch nicht festgelegt, aber er beendete die Ära der reinen Schatzsucher (so Giovanni Battista Belzoni, 1778–1823), welche zuvor zahllose Funde nach Europa geschafft hatten. Mariette selbst hat seit 1850 rund 7000 Objekte nach Paris (Louvre) gebracht. Nun setzte er sich jedoch vehement dafür ein, dass Ägyptens Altertümer nicht mehr außer Landes verschleppt wurden. Zur Aufbewahrung der Funde gründete Mariette den Vorläufer des Ägyptischen Nationalmuseums in Kairo. Karl Richard Lepsius (1810–1884) erstellte zwischen 1842 und 1845 eine umfassende Aufnahme ägyptischer und nubischer Denkmäler. 1859 wurde das Ergebnis in den zwölf Bänden der "Denkmaeler aus Aegypten und Aethiopien" veröffentlicht, welche allein 894 Farbtafeln enthalten. Um die archäologische Erforschung Griechenlands machte sich um 1840 besonders Ludwig Ross verdient, der als erster systematische Ausgrabungen auf der Akropolis von Athen durchführte. Ab Mitte des 19. Jahrhunderts. Mitte des 19. Jahrhunderts entwickelt sich die Archäologie zunehmend zur Wissenschaft. Unterscheiden sich die Ausgräber bisher nur unwesentlich von Schatzsuchern und Grabräubern, werden nun die Grabungstechniken verfeinert, eine gute Dokumentation und exakte Einordnung der Funde immer wichtiger. Antoine Ives Goguet (1716–1758) hat bereits 1738 die Auffassung vertreten, es müsse drei Stufen prähistorischer Technologie (Steinzeit, Bronzezeit, Eisenzeit) gegeben haben. Durchsetzen konnte sich das Dreiperiodensystem jedoch erst mit dem Dänen Christian Jürgensen Thomsen (1788–1865), welcher erstmals ein Museum (1819) nach diesem Prinzip ordnet. Sir John Lubbock (1834–1913) führt 1865 eine weitere Unterteilung der Steinzeit in Paläolithikum (Altsteinzeit) und Neolithikum (Jungsteinzeit) ein. Erst ab 1859 wird das hohe Alter der Menschheit allgemein anerkannt. Im selben Jahr erscheint Darwins "Entstehung der Arten". Der bereits 1856 entdeckte Fund des Neandertalers, welcher von Johann Carl Fuhlrott und Hermann Schaaffhausen vergeblich als eiszeitlich eingestuft wurde, kann sich als solcher in Deutschland erst ab 1902 durchsetzen, als Rudolf Virchow stirbt, der als pathologische Autorität jede weiterführende Diskussion unterbunden hatte. In Schweden entwickelt Oscar Montelius (1843–1921) ein System der differenzierten Typologie zur Einordnung (Periodisierung) von Fundstücken und schafft die Grundlage einer relativen Chronologie. 1853/54 werden aufgrund eines ungewöhnlich niedrigen Wasserstandes bei Obermeilen am Zürichsee hölzerne Pfeiler, Steinbeile und Keramik entdeckt. Die Siedlung wird von Ferdinand Keller untersucht. Lange Zeit glaubt man, bei diesen Feuchtbodensiedlungen habe es sich um Pfahlbauten im Wasser gehandelt. Ab den 1920er Jahren entspann sich eine heftige Diskussion um die Lage der Pfahlbauten. Es konkurrierten Ufer- und Wasserpfahlbauten. Heute weiß man, dass es Land- und Wasserpfahlbauten gab. Die neuen Untersuchungen in Hornstaad am Bodensee belegen Pfahlbauten im Wasser, bis zu 5 Meter vom Seeboden abgehoben. Rekonstruktionen (beispielsweise in Unteruhldingen am Bodensee) zeigen nicht nur die verschiedenen Lösungsvorschläge der Archäologie, sondern auch den aktuellen Forschungsstand nach den Befunden der Unterwasserarchäologie (Pfahlbaumuseum Unteruhldingen). 1846 beginnen die Ausgrabungen in Hallstatt. Die archäologische Erforschung der Kelten beginnt 1858, als Oberst Schwab die ersten Ausgrabungen in La Tène am Neuenburgersee (Schweiz) durchführt. 1872 wird die Eisenzeit Europas erstmals in eine ältere Phase (Hallstattzeit) und einer jüngeren (Latènezeit) unterteilt. Édouard Lartet (1801–1871) untersucht 1860 eine Fundstätte in den Pyrenäen (Massat) und findet dabei auch eine Geweihspitze mit eingraviertem Bärenkopf, der erste Fund jungpaläolithischer Kunst. Später gräbt er mehrere französische Höhlenfundplätze (Gorge d'Enfer, Laugerie Haute, La Madeleine und Le Moustier) aus. Besondere Aufmerksamkeit erlangen die großartigen Höhlenmalereien, welche 1879 in der Höhle von Altamira entdeckt werden. Die Entwicklung der Klassischen Archäologie in der zweiten Hälfte des 19. Jahrhunderts wird von Heinrich Schliemann (1822–1890) dominiert. Der Geschäftsmann und „Hobbyarchäologe“ Schliemann gilt als Begründer der Vorgeschichtsarchäologie Griechenlands und des ägäischen Raumes. 1869 gräbt er auf Ithaka und 1871 beginnt er in Hissarlik zu graben. Dort vermutet er das Troja Homers und wird recht behalten, obwohl er sich in der Bauperiode selbst täuschte. Seine Ausgrabungsmethoden waren sehr umstritten, so mancher Fachmann hält von Schliemanns Fähigkeiten nichts. Sein Ruhm stützt sich vor allem auf die wertvollen Funde (beispielsweise „Schatz des Priamos“). Seine Entdeckung prähistorischer (vorhomerischer) Kulturen und Siedlungen löst zahlreiche weitere Grabungen im ägäischen Raum aus. Lange unterschätzt wurden die durch ihn bewirkten methodischen Fortschritte, wie die Betonung der Stratigraphie oder der Einsatz der Fotografie als Mittel der archäologischen Dokumentation. 1892 erhielt der Gründer des Instituts für Ur- und Frühgeschichte an der Universität Wien, Moritz Hoernes, die erste das Gesamtgebiet der Prähistorischen Archäologie umfassende Lehrbefugnis Europas. Im 20. Jahrhundert. 1913 erscheint der erste Band des "Handbuchs der Archäologie", Herausgeber ist Heinrich Bulle (1867–1945). Als vorbildliche Grabung dieser Zeit gilt die 1922 begonnene Ausgrabung des Gräberfeldes von Assini (Argolis), welche von schwedischen Archäologen vorgenommen wird. Der gesamte Aushub wird gesiebt und eine erstklassige Grabungsdokumentation erstellt. Der berühmteste archäologische Fund des 20. Jahrhunderts gelingt Howard Carter (1873–1939) im selben Jahr. Er findet nach sechsjähriger Suche das Grab des Tut-anch-Amun. Pionier der Luftbildarchäologie war nach dem Ersten Weltkrieg der britische Pilot Osbert G. S. Crawford, er fotografiert vom Flugzeug aus archäologische Fundstätten in England. Gustaf Kossinna (1858–1931) stellt 1920 seine siedlungsarchäologischen Methoden vor. Seine Interpretationen, welche den Germanen eine überragende kulturelle Bedeutung zuschreiben, dienen dem Nationalsozialismus als Beweis für die Überlegenheit der Germanen und der arischen Rasse. Die Diskreditierung in der Nachkriegszeit führte dazu, dass auf Jahrzehnte eine Anbindung archäologischer Funde an ethnische Gruppen obsolet war. Die erste ordentliche Professur wurde 1927 in Marburg geschaffen und im folgenden Jahr mit Gero Merhart von Bernegg aus Bregenz besetzt. Er hatte sich 1924 mit "Die Bronzezeit am Jenissei" habilitiert. Bei ihm promovierten bis zu seiner Zwangspensionierung durch die Nationalsozialisten im Jahr 1942 29 Studenten, nach dem Krieg kamen fünf weitere hinzu. Ab 1950 dominierte in Deutschland die "Marburger Schule", die diese Akademiker bildeten. Gero von Merhart, wie er meist genannt wird, legte das Fach auf strenge Erfassung, Systematisierung und Katalogisierung fest und mied weitgehend die kulturgeschichtliche Deutung. Thor Heyerdahl fuhr 1947 mit einem Floß von Südamerika nach Polynesien und kann als einer der Begründer der Experimentellen Archäologie betrachtet werden. Im 20. Jahrhundert greift die Archäologie vermehrt auf Techniken anderer Wissenschaften zurück. Als Beispiele seien die 1949 entwickelte 14C-Datierung zur Datierung von organischen Stoffen und die Strontiumisotopenanalyse zur Erforschung der Wanderbewegungen der ur- und frühzeitlichen Menschen genannt. Die Archäologie hat sich zur Verbundwissenschaft entwickelt. Die Erforschung der 1991 in den Ötztaler Alpen gefundenen vorgeschichtlichen Leiche (Ötzi) ist hierfür beispielhaft. Mit Hilfe der DNA-Analyse konnten weltweit erstmals die Verwandtschaftsbeziehungen von 40 Individuen aus einer bronzezeitlichen Begräbnisstätte in der Lichtensteinhöhle rekonstruiert werden. Fachgebiete. Archäologie ist ein Sammelbegriff vieler archäologischer Disziplinen, welche meist bestimmte Zeitabschnitte oder Regionen bezeichnen. Die einzelnen Disziplinen unterscheiden sich nicht nur im behandelten Forschungsgegenstand, sondern auch in den verwendeten Methoden, z. B. bei der Unterwasserarchäologie. Daneben bilden archäologische Methoden einen Teilaspekt einer eigenständigen Wissenschaft, beispielsweise in der Forensik. In Fächern wie der Altamerikanistik oder auch der Klassischen Archäologie können die inhaltlichen Schwerpunkte nicht-archäologischer Natur sein. Nach Epochen und Regionen. Die Disziplinen der Archäologie unterscheiden sich thematisch, zeitlich und räumlich. Dementsprechend unterschiedlich sind die Quellen derer sie sich bedienen. Während in der Prähistorischen Archäologie keine oder sehr spärlich schriftliche Quellen vorliegen und man sich vorwiegend auf die materiellen Hinterlassenschaften dieses Zeitabschnitts beruft, können andere archäologische Fachrichtungen zusätzlich Schriftquellen auswerten. Forschungsmethoden. Archäologische Forschungsmethoden gliedern sich in solche der Quellenerschließung und solche der Interpretation. In der Öffentlichkeit wird meist nur die Erschließung der Quellen zur Kenntnis genommen. Zur Quellenerschließung zählt auch die typologische und chronologische Auswertung. Erst nach der Quellenerschließung und Aufbereitung folgt die historische Interpretation. Quellenerschließung. Die Ausgrabung ist zwar die bekannteste Forschungsmethode, jedoch nur ein kleiner Teilbereich der archäologischen Arbeit. Die Dokumentation, Auswertung, Konservierung und Archivierung der Funde stellt den weitaus größten Teil der archäologischen Tätigkeit dar. Außerdem muss die Grabung sorgfältig vorbereitet werden. Prospektion und Voruntersuchungen. Die Prospektion umfasst zerstörungsfreie Methoden, mit deren Hilfe eine Untersuchung potenzieller oder bekannter Fundplätze ermöglicht wird. Dazu gehören die Geländebegehung (Survey), die Luftbildarchäologie und geophysikalische Methoden (Geoelektrik, elektromagnetische Induktion, geomagnetische Kartierung sowie Bodenradar). Ebenfalls prospektiv einsetzen lässt sich die Phosphatanalyse. Eingeleitet wird eine Ausgrabung durch archäologische Voruntersuchungen. Zum Einsatz kommen hier Suchgräben, magnetische Sondierung, Bodenwiderstandsmessung, Luftbilder und andere Methoden der Bodenforschung. Die Voruntersuchungen dienen dazu, sich ein Bild der potenziellen Grabungsstelle zu machen, um die eigentliche Grabung besser planen zu können. Ausgrabung. Beispiel eines archäologischen Profils (Augsburg, Inneres Pfaffengässchen) Die meisten Fundplätze werden heute durch Baumaßnahmen entdeckt. Über Notgrabungen, auch Rettungsgrabungen genannt, versucht die archäologische Denkmalpflege diese Befunde vor ihrer endgültigen Zerstörung auszuwerten. Seltener sind Forschungsgrabungen, bei denen unter primär wissenschaftlichen Interessen Fundplätze zur Grabung ausgewählt und ohne äußeren Zeitdruck untersucht werden können. Bei der Grabung werden verschiedene Grabungstechniken angewandt. Eine moderne Grabung ist befundorientiert, d. h. die Funde werden in ihrer räumlichen und zeitlichen Einbettung auf Befunde bezogen. Da jede Ausgrabung zur Zerstörung eines Befundes führt, soll eine exakte Dokumentation den Fundplatz, zumindest auf dem Papier, auch später bis ins Detail rekonstruierbar machen. Die wichtigsten Arbeitsmittel der Ausgrabung sind deshalb, neben der Kelle, „Papier und Buntstift“. Bauforschung. Die Bauforschung ist ein wesentlicher Teil sowohl der klassischen Archäologie als auch der Archäologie des Mittelalters; wohingegen sie in der Ur- und Frühgeschichte mangels aufgehend erhaltener Bauwerke nur eine untergeordnete Rolle spielt. Eine der Dokumentationsmethoden ist die Photogrammetrie. Auswertung. Gerade am sehr populären Beispiel der Gletschermumie Ötzi ist zu erkennen, dass die Ausgrabung nur einen Bruchteil der archäologischen Arbeit darstellt. Der 1991 entdeckte Fund wird bis heute wissenschaftlich untersucht. Typologie. Die Typologie oder besser Typographie ist die Klassifikation von Objekten nach Kriterien von Form und Material. Sie ist grundlegend für die Einordnung des Fundmaterials, da sie Vergleiche mit Fundsituationen an anderen Fundplätzen ermöglicht und zur Grundlage von Kombinationsanalysen (zur relativchronologischen Datierung wie zur sozioökonomischen Einordnung) und Verbreitungsanalysen wird. Materialbestimmungen. Wie bei der Prospektion und der Altersbestimmung werden auch für Materialbestimmungen moderne naturwissenschaftliche Techniken eingesetzt (siehe Archäometrie). Zur Identifikation und Detailuntersuchung von Artefakten dienen u. a. die Mikroskopie, Infrarot- und Ultraschallaufnahmen, Röntgen, chemische Analysen, Spektralanalysen und Laserscans. Altersbestimmung. Ein Schwerpunkt der Fundanalyse ist die Datierung der Befunde (z. B. Grab) anhand der Funde (z. B. Grabbeigabe). Bei der Altersbestimmung wird zwischen absoluter Chronologie und relativer Chronologie unterschieden. Die relative Chronologie setzt einen Fund dabei in Bezug zu einem anderen. Ist er jünger, älter oder gar gleichzeitig? J.J. Winckelmanns „vergleichendes Sehen“ ist eine der ersten Methoden zur relativen Chronologie. Bei der absoluten Chronologie wird ein Fund ein absolutes Datum (Jahr, Jahrhundert) zugeordnet Interpretation. Die Methoden der Interpretation sind in der Regel eher geisteswissenschaftlich. Für die "prähistorische" Archäologie ist der Analogieschluss die wesentliche Möglichkeit der Interpretation. In der "historischen" Archäologie (z. B. Klassische Archäologie oder Archäologie des Mittelalters) ist es der Vergleich mit Informationen aus anderen Quellen, wie schriftlicher oder bildlicher Überlieferung. Archäologie in Deutschland. In Deutschland gehört die Archäologie zu den Aufgaben der Bundesländer (Landesarchäologe), meist als Bereich des Denkmalamtes als Bodendenkmalpflege organisiert. Größere Städte haben oft eine eigene Stadtarchäologie. Mehrere Institutionen fördern Forscher und Projekte durch Archäologiepreise. Deutsche Grabungen im Ausland werden hingegen im Rahmen von Forschungsprojekten der Universitäten, des Deutschen Archäologischen Instituts oder des Römisch-Germanischen Zentralmuseums durchgeführt. Archäologie in Amerika. Die Archäologie gehört in Amerika zur Anthropologie (Völkerkunde) und hat aus diesem Grund eine völlig andere Ausrichtung als die europäische Forschung. Dies folgt vor allem aus dem Umstand, dass zum Zeitpunkt der Besiedlung der neuen Welt zuerst ethnographische Untersuchungen an noch existierenden Ureinwohnern stattfanden. Die eher spärlichen präkolumbischen Funde sind ein weiterer Grund für den in der Erforschung kultureller Prozesse liegenden Schwerpunkt amerikanischer Archäologie. Als Pionier der amerikanischen Archäologie gilt Thomas Jefferson (1743–1826), welcher ab 1784 einige Grabhügel untersucht, um ihr Alter zu bestimmen. Jefferson setzt dabei erstmals eine Methode ein, die als Vorläufer der Dendrochronologie angesehen werden kann: er zählt die Jahresringe der auf den Grabhügeln stehenden Bäume. Die ersten großen Ausgrabungen in Mittelamerika werden Ende des 19. Jahrhunderts im Mayazentrum Copán durchgeführt. 1911 entdeckt Hiram Bingham die Inkastadt Machu Picchu. Im Jahre 1990 fanden Archäologen in der Nähe von Mexiko-Stadt über 10.000 Artefakte aus der Zeit der spanischen Eroberung des Landes. Man fand nicht nur menschliche Knochen, sondern auch Waffen, Kleidung, Haushaltsgeräte und Gegenstände aus dem persönlichen Besitz von Hernán Cortés. Die Fundstelle wurde als Weltkulturerbe vorgeschlagen. Archäologie in Indien und China. 1863 wird in Indien die Archaeological Survey of India gegründet. 1921/1922 entdeckt man eine der ältesten Hochkulturen der Menschheit, die Indus-Kultur. Ausgegraben werden u. a. die Städte Harappa und Mohenjo-Daro. Archäologie in China beginnt mit dem schwedischen Geologen J. Gunnar Andersson (1874–1960), der 1921 bei Yang Shao Tsun in Honan eine neolithische Wohnhöhle entdeckt und damit beweist, dass China in vorgeschichtlicher Zeit bewohnt war. 1928 wird Anyang ausgegraben, die Hauptstadt der Shang-Dynastie des 2. Jahrtausends v. Chr. 1974 wird die Terrakottaarmee rund um das Grab des chinesischen Kaisers Qin Shihuangdi bei Xi’an entdeckt. Archäologie in Afrika. Afrika ist nicht nur in paläoanthropologischer Hinsicht die Wiege der Menschheit, sondern auch die unserer Kultur. Nur in Afrika kommen Steingeräte vor, die 2,5 Millionen Jahre alt sind und deren Herstellung mit den ersten Homo-Arten unserer Spezies in Verbindung gebracht wird. Die betreffenden Werkzeuge – einfache Geröllgeräte (Oldowan), später die Faustkeile, um die Leitformen zu nennen – kommen auch in anderen Teilen der Welt vor, nur sind sie dort deutlich jünger. In Europa datieren die ältesten Stellen auf eine Million Jahre. Bereits seit dem 17. Jahrhundert ist der Nordosten Afrikas Gegenstand intensiver Forschungen durch die Ägyptologie und Koptologie. Diese Region des Kontinents ist auch im internationalen Vergleich hervorragend dokumentiert. Da jedoch die ältesten Schriftquellen im subsaharischen Afrika nicht weiter als 600 Jahre zurückreichen, kommt der Archäologie gerade hier eine besondere Bedeutung zu. Aufgrund der kurzen Forschungstradition im Vergleich zu Mitteleuropa steht man hier allerdings noch vielfach am Anfang. American Standard Code for Information Interchange. Der American Standard Code for Information Interchange (ASCII, alternativ US-ASCII, oft ausgesprochen) ist eine 7-Bit-Zeichenkodierung; sie entspricht der US-Variante von ISO 646 und dient als Grundlage für spätere, auf mehr Bits basierende Kodierungen für Zeichensätze. Die druckbaren Zeichen umfassen das lateinische Alphabet in Groß- und Kleinschreibung, die zehn arabischen Ziffern sowie einige Satzzeichen. Der Zeichenvorrat entspricht weitgehend dem einer Tastatur oder Schreibmaschine für die englische Sprache. In Computern und anderen elektronischen Geräten, die Text darstellen, wird dieser in der Regel gemäß ASCII oder abwärtskompatibel (ISO 8859, Unicode) dazu gespeichert. Die nicht druckbaren Steuerzeichen enthalten Ausgabezeichen wie Zeilenvorschub oder Tabulator, Protokollzeichen wie Übertragungsende oder Bestätigung und Trennzeichen wie Datensatztrennzeichen. Kodierung. Jedem Zeichen wird ein Bitmuster aus 7 Bit zugeordnet. Da jedes Bit zwei Werte annehmen kann, gibt es 27 = 128 verschiedene Bitmuster, die auch als die ganzen Zahlen 0–127 (hexadezimal 00–7F) interpretiert werden können. In nicht-englischen Sprachen verwendete Sonderzeichen – beispielsweise die deutschen Umlaute – sind im ASCII-Zeichensatz nicht enthalten. Das für ASCII nicht benutzte achte Bit kann auch für Fehlerkorrekturzwecke (Paritätsbit) auf den Kommunikationsleitungen oder für andere Steuerungsaufgaben verwendet werden. Heute wird es aber fast immer zur Erweiterung von ASCII auf einen 8-Bit-Code verwendet. Diese Erweiterungen sind mit dem ursprünglichen ASCII weitgehend kompatibel, so dass alle im ASCII definierten Zeichen auch in den verschiedenen Erweiterungen durch die gleichen Bitmuster kodiert werden. Die einfachsten Erweiterungen sind Kodierungen mit sprachspezifischen Zeichen, die nicht im lateinischen Grundalphabet enthalten sind. Zusammensetzung. Die ersten 32 ASCII-Zeichencodes (von 0x00 bis 0x1F) sind für Steuerzeichen "(control character)" reserviert; siehe dort für die Erklärung der Abkürzungen in obiger Tabelle. Das sind Zeichen, die keine Schriftzeichen darstellen, sondern die zur Steuerung von solchen Geräten dienen (oder dienten), die den ASCII verwenden (etwa Drucker). Steuerzeichen sind beispielsweise der Wagenrücklauf für den Zeilenumbruch oder "Bell" (die Glocke); ihre Definition ist historisch begründet. Code 0x20 "(SP)" ist das Leerzeichen (engl. "space" oder "blank"), das in einem Text als Leer- und Trennzeichen zwischen Wörtern verwendet und auf der Tastatur durch die Leertaste erzeugt wird. Die Codes 0x21 bis 0x7E stehen für druckbare Zeichen, die Buchstaben, Ziffern und Satzzeichen umfassen. Code 0x7F (alle sieben Bits auf eins gesetzt) ist ein Sonderzeichen, das auch als "Löschzeichen" bezeichnet wird "(DEL)". Dieser Code wurde früher wie ein Steuerzeichen verwendet, um auf Lochstreifen oder Lochkarten ein bereits gelochtes Zeichen nachträglich durch das Setzen aller Bits, das heißt durch Auslochen aller sieben Markierungen, löschen zu können – einmal vorhandene Löcher kann man schließlich nicht mehr rückgängig machen. Bereiche ohne Löcher (also mit dem Code 0x00) fanden sich vor allem am Anfang und Ende eines Lochstreifens "(NUL)". Aus diesem Grund gehörten zum eigentlichen ASCII nur 126 Zeichen, denn den Bitmustern 0 (0000000) und 127 (1111111) entsprachen keine Zeichencodes. Der Code 0 wurde später in der Programmiersprache C als „Ende der Zeichenkette“ interpretiert; dem Zeichen 127 wurden verschiedene grafische Symbole zugeordnet. Geschichte. Eine frühe Form der Zeichenkodierung war der Morsecode. Er wurde mit der Einführung von Fernschreibern aus den Telegrafennetzen verdrängt und durch den Baudot-Code und Murray-Code ersetzt. Vom 5-Bit-Murray-Code zum 7-Bit-ASCII war es dann nur noch ein kleiner Schritt – auch ASCII wurde zuerst für bestimmte amerikanische Fernschreibermodelle, wie den Teletype ASR33, eingesetzt. In den Anfängen des Computerzeitalters entwickelte sich ASCII zum Standard-Code für Schriftzeichen. Zum Beispiel wurden viele Terminals (VT100) und Drucker nur mit ASCII angesteuert. ASCII diente ursprünglich der Darstellung von Schriftzeichen der englischen Sprache. Die erste Version, noch ohne Kleinbuchstaben und mit kleinen Abweichungen vom heutigen ASCII, entstand im Jahr 1963. 1968 wurde dann der bis heute gültige ASCII festgelegt. Um später auch Sonderzeichen anderer Sprachen darstellen zu können (beispielsweise die deutschen Umlaute), ersetzte man wenig benutzte Zeichen (siehe DIN 66003, ISO 646). Oder man nahm ASCII für neue Kodierungen mit acht Bit pro Zeichen (z.B. DIN 66303, ISO 8859) als kompatible Grundlage. Allerdings boten auch 8-Bit-Codes, in denen ein Byte für ein Zeichen stand, zu wenig Platz, um alle Zeichen der menschlichen Schriftkultur gleichzeitig unterzubringen. Dadurch wurden mehrere verschiedene spezialisierte Erweiterungen notwendig. Daneben existieren vor allem für den ostasiatischen Raum einige ASCII-kompatible Kodierungen, die entweder zwischen verschiedenen Codetabellen umschalten oder mehr als ein Byte für jedes Nicht-ASCII-Zeichen benötigen. Keine dieser 8-Bit-Erweiterungen ist aber „ASCII“, denn das bezeichnet nur den einheitlichen 7-Bit-Code. Für die Kodierung lateinischer Zeichen wird fast nur noch im Großrechnerbereich eine zu ASCII inkompatible Kodierung verwendet (EBCDIC). Der wenig verbreitete "ROT47"-Algorithmus wendet das von ROT13 bekannte Verschlüsselungsverfahren auf alle ASCII-Zeichen zwischen 33 („!“) und 126 („~“) an. Erweiterungen. ASCII enthält keine diakritischen Zeichen, die in fast allen Sprachen auf der Basis des lateinischen Alphabets verwendet werden. Der internationale Standard ISO 646 (1972) war der erste Versuch, dieses Problem anzugehen, was allerdings zu Kompatibilitätsproblemen führte. Er ist immer noch ein Sieben-Bit-Code, und weil keine anderen Codes verfügbar waren, wurden einige Codes in neuen Varianten verwendet. So ist etwa die ASCII-Position 93 für die rechte eckige Klammer (]) in der deutschen Zeichensatzvariante ISO 646-DE durch das große U mit Umlautpunkten (Ü) und in der dänischen Variante ISO 646-DK durch das große A mit Ring (Kroužek) (Å) ersetzt. Bei der Programmierung mussten dann die in vielen Programmiersprachen benutzten eckigen Klammern durch die entsprechenden nationalen Sonderzeichen ersetzt werden. Das verringerte die Lesbarkeit des Programmtextes und führte oft zu ungewollt komischen Ergebnissen, indem etwa die Einschaltmeldung des Apple II von „APPLE][“ zu „APPLE ÜÄ“ mutierte. Verschiedene Hersteller entwickelten eigene Acht-Bit-Codes. Der Codepage 437 genannte Code war lange Zeit der am weitesten verbreitete, er kam auf dem IBM-PC unter englischen MS-DOS, und kommt heute noch im DOS-Fenster von englischen Microsoft Windows zur Anwendung. In deren deutschen Installationen ist seit MS-DOS 3.3 die westeuropäische Codepage 850 der Standard. Auch bei späteren Standards wie ISO 8859 wurden acht Bits verwendet. Dabei existieren mehrere Varianten, zum Beispiel "ISO 8859-1" für die westeuropäischen Sprachen. Deutschsprachige Versionen von Windows (außer DOS-Fenster) verwenden die auf ISO 8859-1 aufbauende Kodierung Windows-1252 – daher sehen zum Beispiel die deutschen Umlaute falsch aus, wenn Textdateien unter DOS erstellt wurden und unter Windows betrachtet werden. Viele ältere Programme, die das achte Bit für eigene Zwecke verwendeten, konnten damit nicht umgehen. Sie wurden im Lauf der Zeit oft den neuen Erfordernissen angepasst. Um den Anforderungen der verschiedenen Sprachen gerecht zu werden, wurde der Unicode (in seinem Zeichenvorrat identisch mit "ISO 10646") entwickelt. Er verwendet bis zu 32 Bit pro Zeichen und könnte somit über vier Milliarden verschiedene Zeichen unterscheiden, wird jedoch auf etwa eine Million erlaubte Codepoints eingeschränkt. Damit können alle bislang von Menschen verwendeten Schriftzeichen dargestellt werden, sofern sie in den Unicode-Standard aufgenommen wurden. UTF-8 ist eine 8-Bit-Kodierung von Unicode, die zu ASCII abwärtskompatibel ist. Ein Zeichen kann dabei ein bis vier 8-Bit-Wörter einnehmen. Sieben-Bit-Varianten müssen nicht mehr verwendet werden, dennoch kann Unicode auch mit Hilfe von UTF-7 in sieben Bit kodiert werden. UTF-8 entwickelt sich (2011) zum einheitlichen Standard unter den meisten Betriebssystemen. So nutzen unter anderem Apples Mac OS X sowie einige Linux-Distributionen standardmäßig UTF-8, und immer mehr Webseiten werden in UTF-8 erstellt. ASCII enthält nur wenige Zeichen, die allgemeinverbindlich zur Formatierung oder Strukturierung von Text verwendet werden; diese gingen aus den Steuerbefehlen der Fernschreiber hervor. Dazu zählen insbesondere der Zeilenvorschub (Linefeed), der Wagenrücklauf (Carriage Return), der horizontale Tabulator, der Seitenvorschub (Form Feed) und der vertikale Tabulator. In typischen ASCII-Textdateien findet sich neben den druckbaren Zeichen meist nur noch der Wagenrücklauf oder der Zeilenvorschub, um das Zeilenende zu markieren; dabei werden in DOS- und Windows-Systemen üblicherweise beide nacheinander verwendet, bei älteren Apple- und Commodore-Rechnern (ohne Amiga) nur der Wagenrücklauf und auf Unix-artigen sowie Amiga-Systemen nur der Zeilenvorschub. Die Verwendung weiterer Zeichen zur Textformatierung wird unterschiedlich gehandhabt. Zur Formatierung von Text werden inzwischen eher Markup-Sprachen wie zum Beispiel HTML verwendet. Kompatible Zeichenkodierungen. Die meisten Zeichenkodierungen sind so entworfen, dass sie für Zeichen im Bereich 0 … 127 den gleichen Code verwenden wie ASCII und den Bereich über 127 für weitere Zeichen benutzen. Außenbandruptur des oberen Sprunggelenkes. Fuß mit angeschwollenem Knöchel und Hämatom nach einem Bänderriss Die äußeren Bänder des Sprunggelenks Das Außenband des oberen Sprunggelenkes setzt sich zusammen aus drei Bändern (der „laterale Bandapparat“): "Ligamentum fibulotalare anterius" und "posterius" sowie "Ligamentum fibulocalcaneare". Beim Umknicken nach außen (Supinationstrauma) kommt es meist zur Zerrung oder Riss (Ruptur) des "Lig. fibulotalare anterius" oder/und des Lig. calcaneofibulare, seltener ist die komplette Ruptur aller drei Bänder. Diagnostik. Bei einer Verletzung der Außenbänder des oberen Sprunggelenks ist wegen der Wahl der richtigen Therapie vor allem die Frage wichtig, ob es sich um eine Bänderdehnung oder einen Bänderriss handelt. Geübten Untersuchern gelingt diese Unterscheidung nach Expertenmeinung in 90 % der Fälle alleine mit dem Schubladentest, also ohne die Anfertigung von Röntgen-Bildern oder den Einsatz anderer gerätemedizinischer Untersuchungsmethoden: Der Patient liegt dafür in Rückenlage. Der Untersucher umgreift mit einer Hand von unten die Ferse, mit der anderen Hand wird gefühlvoll von oben gegen das Schienbein gedrückt. Liegt lediglich eine Zerrung des vorderen Außenbandes vor, ist keine Schubladenbewegung möglich. Dagegen kann der Fuß bei einem Riss deutlich gegenüber dem Schien- und Wadenbein nach vorne (bei liegendem Patienten nach oben) aus dem Gelenk geschoben werden. Da sich die normale Schubladenbewegung im oberen Sprunggelenk im gesunden Zustand von Mensch zu Mensch stark unterscheidet, ist es wichtig, die Untersuchung zuvor am gesunden Sprunggelenk des anderen Beins durchzuführen. Auf diese Weise lässt sich herausfinden, welches Ausmaß der Schubladenbewegung beim betroffenen Menschen noch als nicht gerissen anzusehen ist. Zusätzlich können bildgebende Verfahren wie Röntgen sinnvoll sein, um einen Bruch (Fraktur) der angrenzenden Knochen auszuschließen. In seltenen Fällen kann zudem eine Magnetresonanztomographie sinnvoll sein. Sehr in die Kritik geraten sind bei der Diagnosestellung die bis vor einiger Zeit üblichen sogenannten „gehaltenen Röntgen-Aufnahmen“. Dabei wird auf einem Röntgenbild festgehalten, wie weit sich das Gelenk mit einer fest definierten Kraft aufklappen lässt. Aus dem Aufklappwinkel, der im Röntgenbild eingezeichnet werden kann, wurde dann auf den Verletzungsgrad geschlossen. Der Grund für die Kritik ist, dass sich mit solchen gehaltenen Aufnahmen vor allem das mittlere Außenband überprüfen lässt, das allerdings nur sehr selten isoliert reißt, sondern fast immer nur in Kombination mit dem vorderen Außenband. Da für die Auswahl der Therapie vor allem die Frage wichtig ist, ob es sich um einen Riss oder eine Zerrung handelt, nicht aber ob ein oder zwei Bänder gerissen sind, reicht der Schubladentest, der das vordere Außenband überprüft, in den meisten Fällen als alleinige Untersuchung aus. Behandlung. Während noch vor einigen Jahren die Außenbandruptur regelhaft genäht wurde, ist heute bei gleich guten Behandlungsergebnissen die konservative Behandlung durch Schienung des Sprunggelenkes über sechs Wochen Standard. Nur bei kompletter Zerreißung aller drei Bänder und Operationswunsch (z. B. Profisportler) wird noch eine operative Behandlung empfohlen. Es wird teils auch für die ersten ca. 8 Tage ein Spaltgips in regelrechter Stellung verordnet, bis die Schwellung etwas abgeklungen ist. Liegt am Gelenk keine Schwellung (mehr) vor, werden oft Orthesen (z. B. Aircast-Schiene) eingesetzt. Diese erfüllen zwei Funktionen: das Gelenk wird so gesichert, dass die gerissenen Bänder nicht belastet werden können; die Beweglichkeit des Gelenks in horizontaler Richtung („rauf/runter“ = Flexion/Extension) wird aber kaum eingeschränkt. Damit sind zum Beispiel Spazieren oder Radfahren weiter möglich. Die Bänder wachsen eher belastungsgerecht zusammen, Probleme mit einem versteiften Gelenk wie bei kompletter Fixierung treten nicht auf. Als besonders günstig haben sich hierbei sogenannte modulare Orthesen erwiesen, die eine Anpassung der Bewegungsfähigkeit mit Orthese an den Heilungsverlauf ermöglichen. Alphabet. Ein Alphabet (kirchenlateinisch ', von "alphábētos"), ist die Gesamtheit der Buchstaben einer Sprache oder mehrerer Sprachen in einer festgelegten Reihenfolge. Die Buchstaben können über orthographische Regeln zu Wörtern verknüpft werden und damit die Sprache schriftlich darstellen. Die im Alphabet festgelegte Reihenfolge der Buchstaben erlaubt die alphabetische Sortierung von Wörtern und Namen beispielsweise in Wörterbüchern. Nach einigen Definitionen ist mit "Alphabet" nicht der Buchstabenbestand in seiner festgelegten Reihenfolge gemeint, sondern die Reihenfolge selbst. Die Bezeichnung "Alphabet" geht auf die ersten beiden Buchstaben des griechischen Alphabets zurück (Alpha – α, Beta – β). Ausgehend von den ersten drei Buchstaben des deutschen Alphabets (bzw. des lateinischen Alphabets) sagt man auch Abc (die Schreibweise Abece verdeutlicht die Aussprache, wird aber selten verwendet). Alphabetschriften gehören wie Silbenschriften zu den phonographischen Schriften und stehen damit im Gegensatz zu piktografischen oder logografischen Systemen, bei denen die Zeichen für Begriffe stehen (z. B. "Rind, Sonnenaufgang, Freundschaft"). Im Unterschied zu Silbenschriften bezeichnen alphabetische Buchstaben in der Regel jeweils nur "einen" Laut (Phonem). Eine Zwischenform aus Alphabetschrift und Silbenschrift stellen die sogenannten Abugidas dar, zu denen die indischen Schriften gehören (siehe auch Schrifttypen). Das deutsche Alphabet. Im deutschen Alphabet kommen dazu noch die drei Umlaute (Ä/ä, Ö/ö, Ü/ü) sowie das Eszett (ß). Die verschiedenen Alphabete (Auswahl). Übersicht der weltweit verwendeten Alphabete Funktionsweise. Die Buchstaben eines Alphabetes sind schriftliche Symbole für die kleinsten "bedeutungsunterscheidenden" lautlichen Einheiten der Sprache, die Phoneme; zum Beispiel unterscheiden und in und die Bedeutung der Wörter (siehe auch Minimalpaar und Allophon). Darüber hinaus geht die einmal festgelegte Korrespondenz von Phonem und Graphem auch durch den Sprachwandel verloren (vergleiche englisch und gegenüber lateinisch). Fehlen in einem Schriftsystem Zeichen für Phoneme, können sprachliche (inhaltliche) Unterschiede eventuell nicht schriftlich wiedergegeben werden. So bestanden einige Alphabete ursprünglich nur aus Konsonanten (Konsonantenschrift). Später wurden sie mit Zeichen für Vokale ergänzt, die als kleine Zusätze (z. B. Punkte, Striche) zu den Konsonanten gesetzt werden konnten (z. B. arabisches und hebräisches Alphabet). Sind hingegen in einem Schriftsystem Zeichen für Phoneme im Übermaß vorhanden, können semantische (inhaltliche) Unterschiede selbst bei gleicher Lautung schriftlich ausgedrückt werden. Zum Beispiel im Deutschen und. Die Schriftsysteme für die meisten europäischen Sprachen nutzen Varianten des lateinischen Alphabets. Dabei wurden den Zeichen für lateinische Laute ähnliche Laute der jeweiligen Sprache zugeordnet. Dieselben Zeichen standen in den verschiedenen Sprachen für teilweise unterschiedliche Laute. Zudem ist es im Zuge der Sprachentwicklung zu weiteren Veränderungen der Aussprache gekommen (vgl. im Deutschen und Englischen). Da die Zahl und Art der Phoneme in den verschiedenen Sprachen unterschiedlich ist, genügte der Zeichenvorrat des lateinischen Alphabetes oft nicht. Deshalb wurden zur Darstellung der betreffenden Phoneme Buchstabenkombinationen (z. B.,) und diakritische Zeichen eingeführt (z. B. auf,). Daneben wurden Varianten der ursprünglichen lateinischen Zeichen (>, >) und Ligaturen (>, / >, / >) zu eigenständigen Zeichen weiterentwickelt und gelegentlich auch Buchstaben aus anderen Alphabeten übernommen (). Lautschrift. Ein absolut "phonetisches" Alphabet wäre in der Praxis unbrauchbar, weil es aufgrund der unzähligen Nuancen einer Sprache unzählig viele Zeichen hätte. Ein in Bezug auf die phonetische Wiedergabe optimiertes Alphabet ist das IPA, welches möglichst vielen Lautnuancen ein grafisches Zeichen zuordnet. Eine "phonemische" Schreibweise behandelt unterschiedliche Aussprachen desselben Phonems gleich. So wird beispielsweise in der deutschen Orthografie die regional unterschiedliche (phonetische) Aussprache des Phonems in als norddeutsch und hochdeutsch nicht berücksichtigt. Daneben sorgen morphemische Schreibungen für ein konstanteres Schriftbild bei der Flexion, z. B. schreibt man wegen des Plurals nicht *, sondern, und bei der Derivation, z. B. statt. Buchstabieren. Wenn Menschen einander sprachlich die korrekte Schreibweise eines Wortes mitteilen, indem sie nacheinander alle Buchstaben jenes Wortes nennen, so bezeichnet man diesen Vorgang als Buchstabieren (Verb: buchstabieren). Beim Buchstabieren werden Buchstaben meist mittels deren Buchstabennamen ausgesprochen (Ah [aː], Beh [beː], Ceh [tseː]…). Bei schwierigen Wörtern und/oder Klangverhältnissen, wie beispielsweise in Funk- oder Telefongesprächen, kann dies auch mithilfe eines Buchstabieralphabets (Anton, Berta, Cäsar,…) geschehen, wodurch der vom Sprecher beabsichtigte Buchstabe mit sehr viel höherer Wahrscheinlichkeit korrekt vom Hörer erkannt werden soll. Entstehung und Entwicklung. Aus den in Vorderasien gebräuchlichen Keilschriften entwickelten Händler in Ugarit um 1400 v. Chr. die erste alphabetische Schrift, die sogenannte Ugaritische Schrift. Aus ihm heraus hat sich um 1000 v. Chr. unter anderem das Alphabet der Phönizier entwickelt, das wiederum Ausgangspunkt für die heute gebräuchlichen Alphabete ist. Sie bedienten sich dabei Elementen der vorhandenen Bilderschriften. Die Zeichen lösten sie dabei vollständig von ihrer bildlichen Bedeutung und wiesen ihnen klare Lautwerte zu. Die phönizische Schrift verlief von rechts nach links. Trotz dieser Unterschiede lassen sich die Zeichen der Phönizier jeweils mit Zeichen der Ugaritischen Schrift in Verbindung bringen. Die phönizische Schrift war eine reine Konsonantenschrift. Dies entsprach der Struktur der semitischen Sprachen. Die hebräische und die arabische Schrift, die daraus entstanden, verzichten bis heute (weitgehend) auf Vokale. Als die Griechen etwa im 10. oder 9. Jh. v. Chr. die phönizische Schrift übernahmen, benutzen sie Zeichen für bestimmte Konsonanten, die zwar in semitischen, aber nicht in europäischen Sprachen vorkommen, zur Bezeichnung von Vokalen, z. B. wurde aus dem Zeichen für „H“ das Eta = „Ē“. Einige Zeichen für Konsonanten, die die phönizische Sprache nicht kannte, wurden neu geschaffen, z. B. das Psi. Im Jahre 403 v. Chr. wurde in Athen das Alphabet normiert. Es wurde so zum Schriftsystem für ganz Griechenland. Anfang des 4. Jh. v. Chr. brachten griechische Siedler das Alphabet nach Italien, wo die Etrusker (in der heutigen Toskana) es im Laufe des 4. Jahrhunderts übernahmen. Im 3. Jh. v. Chr. orientierten sich die Römer an der griechisch-etruskischen Schrift und überlieferten sie im 1. Jh. v. Chr. nach Mitteleuropa. Historische Bedeutung. Durch das Alphabet entstand ein System mit vergleichsweise wenigen Zeichen. Um die Aufzeichnungen der alten Ägypter verstehen zu können, musste man Hunderte, später sogar Tausende Hieroglyphen lernen. Nun genügten zwei Dutzend Zeichen, um sämtliche Gedanken, die überhaupt formulierbar sind, zu notieren. Die Einfachheit dieses Systems begünstigte dessen Verbreitung über die halbe Welt. „Die menschlichen Sprechwerkzeuge können zwar eine riesige Zahl von Lauten erzeugen, doch beruhen fast alle Sprachen auf dem formalen Wiedererkennen von nur ungefähr vierzig dieser Laute durch die Mitglieder einer Gesellschaft.“ (Jack Goody). Die Reihenfolge des griechischen und lateinischen Alphabets folgt global (mit wenigen Ausnahmen) der Reihenfolge des phönizischen Alphabets, da die Zeichen auch mit einem Zahlwert gekoppelt waren. Alphabete im weiteren Sinn. Diese Zeichensysteme kodieren eigentlich Buchstaben – und nur indirekt Laute. Zudem enthalten sie auch Zeichen für Ziffern und teilweise weitere Zeichen (Satzzeichen, Steuerzeichen, Zeichen für Wörter). In der Informatik werden die Begriffe "Alphabet" und "Buchstabe" in einem verallgemeinerten Sinn verwendet. Ein „Buchstabe“ kann hier auch eine Ziffer oder ein sonstiges Symbol sein – „Alphabete“ und „Wörter“ können solche beliebigen Symbole enthalten. Siehe hierzu Alphabet (Informatik) und formale Sprache. Arthur Harris. Luftmarschall Sir Arthur T. Harris im April 1944 Sir Arthur Travers Harris, 1. Baronet GCB OBE AFC, genannt "Bomber-Harris", (* 13. April 1892 in Cheltenham; † 5. April 1984 in Goring-on-Thames) war ein hochrangiger Offizier der Royal Air Force, zuletzt im Rang eines Marshal of the Royal Air Force. Während des Zweiten Weltkriegs war er ab Februar 1942 Oberbefehlshaber des RAF Bomber Command und gehört wegen der von ihm angeordneten Flächenbombardements deutscher Städte zu den umstrittensten Personen des Luftkriegs im Zweiten Weltkrieg. Leben. Arthur Travers Harris wurde im englischen Cheltenham während eines Urlaubs seiner Eltern geboren. Der Vater war Angehöriger der englischen Beamtenschaft in Indien (Indian Civil Service (ICS)). Nach der Schulzeit in Dorset stand laut Biographie von Norman Longmate für Harris im Alter von 16 Jahren eine Entscheidung zwischen der Armee und den Kolonien an. Harris entschied sich 1908 für die Kolonien, wo er in Rhodesien nach eigener Auskunft mit Goldwäsche, Kutschfahrten und Landwirtschaft beschäftigt war. Erster Weltkrieg. 1914 trat er als Trompeter in das 1st Rhodesian Regiment der Britischen Armee ein. Er diente für die Südafrikanische Union im Krieg in Deutsch-Südwestafrika (heute Namibia), bevor er 1915 nach England zurückkehrte und in das neu aufgestellte Royal Flying Corps eintrat. Harris war in Frankreich und England im Einsatz und errang auf den Doppeldeckern Sopwith 1½ Strutter und Sopwith Camel fünf Luftsiege, worauf ihm das Air Force Cross (AFC) verliehen wurde. Bei Kriegsende hatte er den Rang eines Majors. Zwischenkriegszeit. 1919 verblieb er bei der neu gegründeten Royal Air Force und wurde im April 1920 Staffelführer und Kommandant des Fliegerhorstes Digby und der No. 3 Flying Training School. Später diente er unter anderem in Britisch-Indien, in Mesopotamien und in Persien. In Mesopotamien kommandierte er ein Transportgeschwader Vickers Vernon. Von 1930 an war er im Luftstab für den Nahen Osten tätig, wo er an der Niederschlagung verschiedener Aufstände der dortigen Bevölkerung gegen die britische Kolonialherrschaft beteiligt war. Er begründete dies damit, dass seiner Ansicht nach Araber nur eine „Politik der harten Hand“ verstünden („The only thing the Arab understands is the heavy hand“). Zweiter Weltkrieg. Am 14. Februar 1942 erfolgte die Anweisung „Area Bombing Directive“ des britischen Luftfahrtministeriums. Harris wurde im Februar 1942 zum Oberkommandierenden des Bomber Command der RAF ernannt. Basierend auf Vorlagen von Frederick Lindemann, einem engen Berater Churchills, von dem die Wortschöpfung "Flächenbombardements" (Carpet Bombing) stammt, war Harris der Ansicht, allein durch die Flächenbombardierungen der Städte das Deutsche Reich zur Kapitulation zu zwingen. Harris unterstützte maßgeblich die Entwicklung eines geplanten Feuersturms (Zitat A. Harris bei den Planungen des Luftangriffs auf Lübeck am 29. März 1942: „Historischer Stadtkern brennt gut“). In der ersten Welle wurden große Luftminen (Blockbuster – „Wohnblockknacker“) abgeworfen, die die Dächer abdeckten und Fenster zerstörten, um den Kamineffekt zu verstärken. In einer zweiten Welle wurden Brandbomben abgeworfen, die in kürzester Zeit einen Flächenbrand entstehen ließen. Dies gelang jedoch aufgrund meteorologischer und städtebaulicher Faktoren nicht immer. Um die deutsche Flugabwehr und die nach dem sog. „Himmelbett-Verfahren“ arbeitende Nachtjagd, z. B. entlang der Kammhuber-Linie durch lokale Überlastung zu überrumpeln, entwickelte er die Methode der Bomberströme, bei der möglichst viele Bomber auf demselben Kurs einfliegend in kurzer Zeit ein Ziel angriffen, statt einzeln und in breiter Front einzufliegen. Zur Demonstration der Wirksamkeit seines Konzeptes zog Harris im Frühjahr 1942 für die Operation Millennium alle verfügbaren Bomber zusammen, um Ende Mai mit 1047 Maschinen auf Köln den ersten „Tausend-Bomber-Angriff“ durchzuführen. Dieser Angriff war entscheidend, um die zahllosen britischen Skeptiker von der Wirksamkeit von Luftangriffen zu überzeugen und die betriebene Auflösung des Bomber Command zu verhindern. Die technischen Voraussetzungen für präzise Schläge gegen strategische Punkte wie Fabriken für Flugzeuge, Panzer und anderes Rüstungsmaterial befanden sich in der Mitte des Krieges noch in der Entwicklung. Die schweren Verluste der 8. USAAF bei ihren Angriffen 1943 und Anfang 1944 bestätigten sein Festhalten am Nachtangriff vorerst bis zum Einsatz von neuen amerikanischen Langstreckenbegleitjägern, wobei die Nachtangriffe der RAF durch die Schaffung der 24-Stunden-Bedrohung auch für den Erfolg der amerikanischen Tagesangriffe auf strategische Punktziele weiterhin bedeutend blieben. Unter seiner Führung wurden von der RAF zahlreiche deutsche Städte schwer zerstört, so bei der Operation Gomorrha gegen Hamburg im Juli/August 1943, Kassel (22. Oktober 1943), Frankfurt am Main (22. März 1944), Braunschweig (15. Oktober 1944), Magdeburg (16. Januar 1945), 14. Februar 1945 sowie Pforzheim (23. Februar 1945), Mainz (27. Februar 1945), Würzburg (16. März 1945), Hanau (19. März 1945) und Hildesheim (22. März 1945). Bei den Flächenbombardements wurden – neben den im Stadtgebiet befindlichen Industrieanlagen – die Zivilbevölkerung und die Infrastruktur der Stadt primäres Ziel der Angriffe. Seiner Meinung nach sollten ganz bewusst zivile Ziele angegriffen werden, um die Moral und den Widerstandswillen der deutschen Bevölkerung zu brechen (so genanntes "Moral Bombing"). Zu Beginn der Bombardierungen äußerte Harris zu seiner Motivation: „"Die Nazis starteten (‚entered‘) den Krieg mit der ziemlich kindischen Wahnvorstellung, dass sie jeden anderen nach Belieben bombardieren könnten und niemand würde zurückbomben. In Rotterdam, London, Warschau und an beinahe einem halben Hundert anderer Stätten führten sie ihre ziemlich naive Theorie aus. Sie säten Wind und jetzt ernten sie Sturm“". In seinen Memoiren schrieb er später: „"Trotz all dem, was in Hamburg geschehen ist, bleibt das Bomben eine relativ humane Methode"“. Neben den Bombenangriffen auf Deutschland wurden insbesondere in Italien mehrere Großstädte bombardiert, was etwa in Mailand, Neapel und Palermo beträchtliche Schäden auch in Wohngebieten verursachte. Denkmal für Arthur Harris in London Nach dem Krieg. Am 15. September 1945 schied Harris im Streit mit dem neuen Premierminister Clement Attlee aus der Royal Air Force aus und zog sich verbittert nach Südafrika zurück. Seine Ehrungen durch die Ernennung zum Baronet 1953 (eine Erhebung zum Peer hatte er abgelehnt) sowie die Enthüllung eines von Veteranen finanzierten Denkmals 1992 vor der Kirche St Clement Danes in London durch die Königinmutter Elizabeth waren in der britischen Bevölkerung stark umstritten. Innerhalb von 24 Stunden wurde das Denkmal mit roter Farbe überschüttet und später noch mehrfach beschädigt, woraufhin es für mehrere Monate unter Bewachung stand. In diesem Zusammenhang ist auch von Bedeutung, dass seine Luftkriegs-Strategie für die Besatzungen der Flugzeuge verlustreich war. Jeder Zweite kehrte nicht heim, insgesamt kamen 55.000 Flieger bei den Angriffen auf Deutschland um. Auch deswegen wurde Harris oft „Butcher“ (engl. für Metzger oder Schlächter) genannt. Militärhistorische Wertung. Die historische wie rechtliche Qualifizierung der alliierten Luftkriegsstrategie und damit der Position Harris’ bleibt umstritten. Nach sachlichen oder militärischen Kriterien war die gezielte Zerstörung von Wohngebieten und Innenstädten umstritten. Zwar waren militärisch gesehen die strategischen Folgen des Luftkriegs allgemein erheblich, da angesichts der Angriffe die deutsche Rüstungsproduktion zu umfangreichen produktionsbehindernden Verlagerungen gezwungen wurde – laut Albert Speer führten die alliierten Luftangriffe bei den Luftfahrzeugen zu einer Halbierung der möglichen Produktion. Über eine Million Soldaten wurden bei der Flakartillerie eingesetzt und fehlten dadurch an den Fronten, zusätzlich wurde eine halbe Million Behelfspersonal herangezogen, darunter viele Jugendliche als Flakhelfer. All dies war aber in erster Linie auf die gegen die Rüstungsindustrie geführten Tagangriffe der USAAF und nicht auf die gegen die Zivilbevölkerung gerichteten und von Arthur Harris verantworteten Nachtangriffe der Royal Air Force zurückzuführen. Die bekanntesten Einsätze des Bomber Command außerhalb von Harris’ Strategie waren: Die Angriffe auf die Talsperren (Operation Chastise), die Versenkung des Schlachtschiffs "Tirpitz" (November 1944), die Bombardierung von U-Boot-Bunkern der Kriegsmarine an der französischen Atlantikküste und die Zerstörung von Anlagen des deutschen V-Waffen-Programms (Operation Hydra, Éperlecques, Mimoyecques) sowie die direkte taktische Unterstützung während der Landung alliierter Truppen in der Normandie (Operation Overlord). Harris hat seinen Standpunkt insbesondere in seinem Buch "Bomber Offensive" dargestellt, das seinen Lebensweg beschreibt. Er argumentiert, das nationalsozialistische Deutsche Reich habe damit begonnen, die Zivilbevölkerung zum Objekt von Terrorangriffen zu machen (Guernica, Coventry, Rotterdam, Warschau, London). Aufgabe der britischen Verantwortlichen sei es gewesen, für ein schnelleres Ende des Krieges zu sorgen und eigene Opfer zu vermeiden, die etwa ein Landkrieg oder Stellungskrieg wie im Ersten Weltkrieg mit sich gebracht hätte. Vor dem Eintritt der Vereinigten Staaten in den Krieg (Dezember 1941) beziehungsweise vor dem D-Day, der alliierten Landung in der Normandie am 6. Juni 1944, hätte angesichts der Insellage Großbritanniens einzig die Offensivstrategie des Bomber Commands der Royal Air Force die Sicherheit des Vereinigten Königreichs garantieren können. Des Weiteren unterstreicht Harris die Bedeutung der Luftunterstützung für einen erfolgreichen Einsatz von Landtruppen. Er verweist zum Vergleich auf die deutsche Blitzkriegstrategie zu Beginn des Krieges, bei der das schnelle Vordringen des Heeres, insbesondere der Panzer, nur aufgrund massiver und rasch abrufbarer Luftunterstützung (Bomber und Jagdflieger) möglich gewesen sei. Die Tatsache, dass die deutsche Luftwaffe gegen Ende des Krieges zum großen Teil zerstört oder durch die Verteidigung des eigenen Territoriums gegen die alliierten Bomber gebunden waren, habe dazu geführt, dass dem deutschen Heer die notwendige Unterstützung durch die Luftwaffe fehlte. Die alliierte Luftüberlegenheit habe den britischen und US-amerikanischen Truppen sowie der Roten Armee entscheidend geholfen, die Wehrmacht zurückzudrängen. Sonstiges. In dem 1954 gedrehten britischen Spielfilm "Mai '43 – Die Zerstörung der Talsperren" ("The Dam Busters") von Michael Anderson wird Arthur T. Harris von Basil Sydney dargestellt. Arthur Wellesley, 1. Duke of Wellington. Arthur Wellesley, 1. Duke of Wellington Arthur Wellesley, 1. Duke of Wellington (* vermutlich 1. Mai 1769 in Dublin, Irland; † 14. September 1852 in Walmer Castle bei Deal, Kent), war Feldmarschall und der herausragende britische Militärführer der napoleonischen Zeit sowie britischer Außen- und zweimal Premierminister. Er siegte über Napoleon in der Schlacht bei Waterloo. 2002 wurde er in einer Umfrage der BBC auf Platz 15 der 100 größten Briten gewählt. Arthur war außerdem Ritter des Hosenbandordens (Knight of the Order of the Garter), Großkreuzritter des Order of the Bath, Großkreuzritter des Guelphen-Orden, Mitglied des Privy Council und Mitglied der Royal Society. Die HMS Duke of Wellington, ein 131-Kanonen-Schiff der britischen Royal Navy, wurde 1852 nach ihm benannt. Sie war das Flaggschiff von Sir Charles Napier, damals Konteradmiral der Blauen Flagge. Auch die HMS Iron Duke, das Flaggschiff der Grand Fleet im Ersten Weltkrieg war nach Ihm benannt. Herkunft und Kindheit. Wellesley stammte aus verarmtem englisch-irischen Adel und war der dritte überlebende Sohn von Garret Wesley, 1. Earl of Mornington und Anne, der Tochter von Arthur Hill-Trevor, Viscount Dungannon. Der Tag seiner Geburt ist nicht sicher bekannt. Vermutlich wurde er in "Mornington House", "24 Upper Merrion Street" in Dublin geboren. Sein älterer Bruder Richard Colley Wesley (20. Juni 1760 bis 26. September 1842) folgte dem Vater als Earl of Mornington (1781 bis 1799) bevor er 1799 zum Marquis erhoben wurde. Er wählte den Titel Marquess Wellesley, so dass sein Bruder Arthur bei seiner Erhebung zum Herzog auf den Familiennamen verzichten musste und den Titel eines Herzogs von Wellington wählte. Als Kind kränklich und wenig ehrgeizig, aber musikalisch begabt (er spielte gerne und oft Violine), stand er ganz im Schatten seiner beiden älteren Brüder. Nach dem Besuch des Eton College von 1781 bis 1785, wo er sich wenig hervortat, sandten ihn seine Eltern zunächst zum 73. Infanterie-Regiment der British Army, in das er am 7. März 1787 eintrat, damit „wenigstens“ ein „passabler“ Soldat aus ihm würde. Danach besuchte er die Militärakademie in Angers (Frankreich). Zur gleichen Zeit studierte ein anderer, im selben Jahr geborener Kadett an der Militärakademie in Brienne: Napoleon Bonaparte. Militärische Karriere. Im Jahre 1788 wurde Wellesley zum Leutnant befördert. Nach verschiedenen Zwischenstationen bei der Kavallerie und den 12. und 18. leichten Dragonern wurde er 1793 Oberstleutnant des "33rd Foot", ein schneller Aufstieg, der durch das damals übliche Kaufsystem ermöglicht wurde. Während der ganzen Zeit war er Adjutant des Vizekönigs von Irland und nebenbei (1790–1797) Abgeordneter von "Trim" (seinem Familiensitz) im irischen Parlament ("Irish House of Commons" in Dublin, das 1800 aufgelöst wurde, als Irland unter Kriegsrecht gestellt wurde). Seine aktive militärische Karriere begann 1794, als er im Ersten Koalitionskrieg mit dem Duke of York nach Flandern ging und dort am erfolglosen Feldzug gegen die Franzosen teilnahm. Er kommandierte beim Rückzug die Nachhut. 1796 wurde Wellesley zum Oberst befördert und ging mit seinem Regiment nach Indien, wo im Jahr darauf sein älterer Bruder Richard Generalgouverneur werden sollte. Als 1799 der Vierte Mysore-Krieg gegen den Sultan von Mysore, Tipu Sultan, ausbrach, kommandierte er seine erste Division. Er führte einen sehr erfolgreichen Feldzug im Zweiten Marathenkrieg und konnte dabei seine militärischen Fähigkeiten erheblich ausbauen. Er wurde Oberbefehlshaber der britischen Streitkräfte in Indien und zwang ganz Südindien unter britische Herrschaft. Am 11. August 1803 nahm er die Festung Ahmednagar und besiegte eine überlegene Streitmacht der Marathen in der Schlacht von Assaye. In den nächsten Wochen gelang es seinen Truppen Burhanpur und die Festung Asirgarh einzunehmen. Er stiess auf Hyderabad vor, siegte am 29. November in der Schlacht von Argaon und stürmte die Festung Gawilgarh. 1805 kehrte er als dekorierter und zum Ritter geschlagener (1804) "Major General Sir Arthur Wellesley" nach Großbritannien zurück, gemeinsam mit Richard, dessen Amtszeit als Generalgouverneur ebenfalls abgelaufen war. 1807 nahm Wellesley als Lieutenant General an einer Expedition nach Dänemark teil. Anfang August 1808 landete er mit 13.000 Mann in Portugal und besiegte zwei Wochen darauf die französischen Truppen in der Schlacht bei Vimeiro. Wellesleys Vorgesetzte Burrard und Dalrymple, die erst nach dem Ende der Schlacht in Portugal eingetroffen waren, schlossen Ende August die Konvention von Cintra ab, welche den Franzosen nicht nur den freien Abzug gewährte, sondern ihnen auch den Erhalt der Kriegsbeute und den Rücktransport auf britischen Schiffen garantierte. Diese Bedingungen, welche von der britischen Öffentlichkeit als Sieg für Frankreich empfunden wurden, führten dazu, dass Wellesley, gemeinsam mit Burrard und Dalrymple, nach Großbritannien zurückbefohlen wurde. Dort hatten sie sich einer Anhörung vor einem Militärgericht zu stellen. Wellesley wurde jedoch entlastet und wurde im Gegensatz zu den beiden anderen Beteiligten, rehabilitiert. Im Frühjahr 1809 versuchten die Franzosen ein zweites Mal, Portugal zu erobern. Wellesley kehrte nach Portugal zurück und übernahm den Oberbefehl der dortigen britisch-portugiesischen Truppen. Am 12. Mai 1809 schlug er Marschall Nicolas Soult in der Zweiten Schlacht bei Oporto. Durch den Sieg in der Schlacht bei Talavera de la Reina am 28. Juli beendete Wellesley die französischen Ambitionen. Wellesley gab zum Schutze Portugals am 20. Oktober 1809 beim britischen Ingenieur Richard Fletcher die Befestigung der Linien von Torres Vedras in Auftrag, unter dessen Leitung sie von portugiesischen Militäreinheiten und Arbeitern errichtet wurden. Der Vormarsch der Franzosen unter Marschall Masséna hatte am 27. September 1810 in der Schlacht von Buçaco einen empfindlichen Rückschlag erhalten, jedoch blieb die Hauptstadt Lissabon weiterhin bedroht. Am 3. April 1811 scheiterte mit der Schlacht von Sabugal der letzte Versuch Frankreichs, Portugal zu erobern. Durch diese Erfolge schwenkte die Stimmung in Spanien auf die britische Seite um, und Wellesley wurde auch Oberkommandierender der spanischen Streitkräfte. Lord Beresford erhielt den Oberbefehl über die reorganisierte portugiesische Truppenmacht. Nachdem bekannt wurde, dass die französischen Truppen im Westen Spaniens reduziert wurden, marschierte Wellington nach Ciudad Rodrigo und nahm diese Stadt nach kurzer Belagerung am 19. Januar 1812 ein, wofür er durch den Prinzregenten Georg zum Earl of Wellington erhoben wurde. Ab 27. März 1812 begannen die Verbündeten die dritte Belagerung von Badajoz, Wellington nahm die Stadt nach drei Wochen unter Verlust von etwa 4.000 Mann auf britischer Seite am 7. April ein. Die Eroberung erlaubte es den Briten eigene Operationen im zentralen Spanien einzuleiten. Während sich ein britisches Korps unter General Hill zwischen den französischen Armeen Marmont und Soult gegen den Tajo vorschob, wandte sich die britische Hauptmacht nach Leon. Am 21. Juli erwarteten die Franzosen den Gegner am Tormes und in Stellungen auf den Arapilen und am 22. Juli schlug Wellington den Gegner in der Schlacht von Salamanca. Wellington konnte infolge dieser Kämpfe am 12. August Madrid besetzen, wurde aber kurz darauf wieder aus der Stadt vertrieben und musste die geplante Belagerung von Burgos aufgeben. Nach der Niederlage Napoleons in Russland und dem Beginn der Kämpfe in Deutschland erhielten die französischen Truppen in Spanien keine Verstärkung mehr. Wellington verbrachte den Winter damit, seine Armee zu reorganisieren und plante für das Frühjahr 1813 die Iberische Halbinsel gänzlich freizukämpfen. Im Mai 1813 begann Wellingtons abschließende Offensive von Portugal aus zwischen dem Duero und Tajo, in der er zunächst die nördlichen Provinzen Spaniens eroberte und sein Hauptquartier von Lissabon nach Santander verlegte. Wellingtons Truppen marschierten durch das kastilische Hochland in Richtung auf Kantabrien, um die französische Hauptmacht durch Abschneidung der Verbindungswege zum Rückzug aus Zentralspanien zu zwingen. Er griff die französische Hauptmacht unter Joseph Bonaparte am 21. Juni 1813 in der entscheidenden Schlacht von Vitoria mit drei Kolonnen an. Die Schlacht beendete Napoleons Herrschaft in Spanien. Am 7. Juli begann Wellington die Belagerung von San Sebastian. Im Herbst 1813 rang er, inzwischen zum Feldmarschall befördert, mit den Truppen des neuen französischen Oberbefehlshabers Soult auf breiter Front um die Übergänge in den Pyrenäen. In Südfrankreich eindringend, lieferte er sich mit Soult noch am 10. April 1814 die blutige Schlacht bei Toulouse, dann folgte mit der Abdankung Napoleons, das Kriegsende. Wellesley wurde am 11. Mai 1814 von Prinzregenten in Vertretung dessen Vaters Georg III., zum (ersten) Duke of Wellington ernannt. Der Herzog nahm im Frühjahr 1815 unter Lord Castlereagh auch an mehreren Sitzungen des Wiener Kongress teil. Im Februar wurde Wellington nach dessen Abberufung nach England, Hauptbevollmächtigter in Wien, bevor er März 1815 nach der Rückkehr Napoleons aus Elba den Oberbefehl im neuen Krieg gegen Frankreich erhielt. Im Raum Brüssel sammelte Wellington das verbündete Heer gegen Napoleon, darunter nur etwa 35.000 Briten und wartete die geplante Vereinigung mit den Preussen ab. Am 18. Juni in der Schlacht von Waterloo (auch „Schlacht von Belle-Alliance“) von Napoleon angegriffen, hielten Wellingtons Truppen den französischen Angriffen solange erfolgreich stand, bis die Ankunft der Preußen den Sieg der Alliierten entschied. Das bekannte Zitat „Ich wollte, es wäre Nacht, oder die Preußen kämen“ wird Wellesley beim Warten auf die Ankunft Blüchers zugeschrieben, ist aber nicht verbürgt. Die Schlacht ging mit der Hilfe Blüchers zu Wellesleys Gunsten aus, Napoleon zog sich geschlagen zurück, für ihn bedeutete diese Schlacht das Ende seiner militärischen Karriere. Wellington hingegen wurde von den Briten als Held gefeiert, unter den Militärstrategen galt er fortan als Meister der Defensive. 1827/28 und noch einmal von 1842 bis zu seinem Tod war Wellesley Oberbefehlshaber der britischen Armee. Ab 1829 hatte er auch das Amt des Lord Warden of the Cinque Ports inne. Nach seinem Tod wurde er am 18. November 1852 in einem Staatsbegräbnis in der Krypta der St Paul’s Cathedral beigesetzt. Im Hauptschiff der Kathedrale wurde ihm ein monumentales Grabdenkmal gesetzt. Politisches Leben. Im Jahr 1806 zog er als Abgeordneter für den Wahlkreis Rye in Sussex ins britische House of Commons ein. 1807 wurde er Chief Secretary for Ireland, dieses Amt gab er jedoch noch im gleichen Jahr zugunsten seiner militärischen Karriere wieder auf. Nach dem Wiener Kongress wandte er sich wieder einer politischen Laufbahn zu und erhielt 1818 ein Amt in der Tory-Regierung unter Lord Liverpool. Am 17. August 1827 wurde er Oberkommandierender der britischen Armee, doch übernahm er 1828 nach dem Tod von Canning und dem Sturz von Lord Goderich widerstrebend das Amt des Premierministers. Er führte eine erzkonservative Regierung und eine isolationistische Politik. So beendete er trotz des Siegs in der Schlacht von Navarino die Unterstützung des griechischen Freiheitskampfes. Infolge dieser Politik lehnte Prinz Leopold die ihm angebotene griechische Krone ab. Innenpolitisch setzte Wellington gegen große innerparteiliche Widerstände 1829 das Wahlrecht für Katholiken durch. Gleichzeitig versuchte er eine weitere Wahlrechtsreform zu verhindern, weswegen er bei weiten Teilen der Bevölkerung höchst unpopulär wurde. Die Verzögerung der Wahlrechtsreform und seine Unbeliebtheit weiteten sich zu Unruhen aus. Dennoch erklärte er in völliger Verkennung der Lage bei der Parlamentseröffnung nach dem Tod Georgs IV., dass er eine Wahlrechtsreform weiter ablehne. Diese Erklärung führte zum Sturz seiner Regierung am 22. November 1830. Sein Nachfolger als Premierminister Earl Grey nahm sofort eine Wahlrechtsreform in Angriff nahm und brachte den Reform Act am 1. März 1831 gegen den Widerstand Wellingtons ins Unterhaus ein. Nachdem das Gesetz das House of Commons passiert hatte, verweigerte das House of Lords am 8. Oktober 1831 seine Zustimmung. Trotz der Gefahr eines drohenden revolutionären Umsturzes blockierte das Oberhaus das Gesetz weiter. Am 9. Mai 1832 wurde Wellington erneut zum Regierungschef ernannt. Wilhelm IV. bewog ihn, ein gemäßigtes Kabinett zu bilden. Da zahlreiche Sparer aus Protest ihre Einlagen aus der Bank of England abzogen, drohte eine Finanzkrise, so dass Wellington schon am 15. Mai wieder aufgab. Sein Nachfolger wurde wieder Earl Grey, unter dem am 4. Juni 1832 die Wahlrechtsreform vom Oberhaus verabschiedet wurde. Die nächsten beiden Jahre verbrachte Wellington in der Opposition. Bei der Trauerfeier für Lord Althorp im Oberhaus entließ Wilhelm IV. unerwartet das Whig-Kabinett und beauftragte Wellington am 17. November 1834 mit der Bildung einer Minderheitsregierung. Dieser schlug schließlich Robert Peel, seinen langjährigen politischen Weggefährten, als Premierminister vor, während er das Amt des Außenministers übernahm. Dies war die letzte britische Regierung, die ein Monarch ohne Mehrheit im Unterhaus ernannte, und scheiterte schon im April 1835. Peel wurde im September 1841 erneut zum Premierminister ernannt, und Wellington wurde in dieser Regierung als Oberkommandierender der Armee Minister ohne Geschäftsbereich sowie "Leader" des House of Lords. Als Peel 1846 zurücktrat, legte auch Wellington am 27. Juni sein Amt als Leader nieder und zog sich aus der Öffentlichkeit zurück. Das Amt des Oberbefehlshabers der Armee behielt er allerdings bis zu seinem Tod. Daguerreotypie des Duke of Wellington von Antoine Claudet 1844 Privatleben. Kittys Bruder Ned war in Spanien einer von Wellingtons wichtigsten Generälen. Wellington war seit dem 7. Dezember 1790 ein Mitglied im Bund der Freimaurer ("Trim No. 494") und gehörte dem renommierten Londoner Travellers Club an. Einzelnachweise. W1 Astronomie. Die Astronomie (griechisch "astronomía" „Beobachtung der Sterne“, von "ástron" „Stern“ und "nómos" „Gesetz“) ist die Wissenschaft von den Gestirnen. Sie untersucht mit naturwissenschaftlichen Mitteln die Eigenschaften der Objekte im Universum, also Himmelskörper (Planeten, Monde, Asteroiden, Sterne einschließlich der Sonne, Sternenhaufen, Galaxien und Galaxienhaufen), der interstellaren Materie und der im Weltall auftretenden Strahlung. Darüber hinaus strebt sie nach einem Verständnis des Universums als Ganzes, seiner Entstehung und seinem Aufbau. Obwohl sie nur an wenigen Schulen Unterrichtsfach ist, finden die Astronomie und ihre Forschungsergebnisse in der Öffentlichkeit viel Interesse; als Amateurastronomie ist sie ein weit verbreitetes Hobby. Dies hängt einerseits mit dem „erhebenden“ Eindruck zusammen, den der Sternhimmel auch bei freisichtiger Beobachtung macht, andererseits mit ihrer thematischen Vielfalt, der Berührung philosophischer Fragen und der Verbindung zur Raumfahrt. Im Gegensatz zu früheren Zeiten wird die Astronomie als Naturwissenschaft heute streng abgegrenzt von der Astrologie, die aus Stellung und Lauf der Gestirne auf irdische Geschehnisse schließen will. Das Studienfach Astronomie wird in der deutschen Hochschulpolitik gemeinsam mit der Astrophysik als Kleines Fach eingestuft. Geschichte der Astronomie. Die Astronomie gilt als eine der ältesten Wissenschaften. Die Anfänge der Astronomie liegen wahrscheinlich in der kultischen Verehrung der Himmelskörper und im Erarbeiten eines Kalenders. In einem jahrtausendelangen Prozess – besonders gut erkennbar in der Himmelskunde Mesopotamiens und Griechenlands – trennten sich zunächst Astronomie und Naturreligion, später Astronomie, Meteorologie und Kalenderrechnung, in der Frühmoderne dann Astronomie und Astrologie. Wesentliche Meilensteine für unser Wissen über das Weltall waren die Erfindung des Fernrohrs vor etwa 400 Jahren, das die kopernikanische Wende vollendete, sowie später im 19. Jahrhundert die Einführung der Fotografie und Spektroskopie. Seit der Mitte des 20. Jahrhunderts haben Astronomen mit der unbemannten und bemannten Raumfahrt die Möglichkeit, die Erdatmosphäre zu überwinden und ohne ihre Einschränkungen zu beobachten, also in allen Bereichen des elektromagnetischen Spektrums. Dazu kommt erstmals die Möglichkeit, die untersuchten Objekte direkt zu besuchen und dort andere als nur rein beobachtende Messungen durchzuführen. Parallel dazu werden immer größere Teleskope für bodengebundene Beobachtungen gebaut. Fachgebiete der Astronomie. Die astronomische Wissenschaft unterteilt sich allgemein nach den untersuchten Objekten, sowie danach, ob die Forschung theoretischer oder beobachtender Natur ist. Wichtige grundlegende Fachgebiete sind die "beobachtende Astronomie", die "Astrophysik", die "Astrometrie" und die "Himmelsmechanik", während die theoretische Astronomie analytische und numerisch-physikalische Modelle der Himmelskörper und Phänomene entwickelt. Die wichtigsten Untersuchungsgebiete der Himmelskunde sind die Physik des Sonnensystems, insbesondere die "Planetologie", die "Galaktische Astronomie", die die Milchstraße und ihr Zentrum erforscht, die "Extragalaktische Astronomie", die den Aufbau anderer Galaxien und ihrer aktiven Kerne, oder Gammablitze als die energiereichsten Vorgänge im Universum untersucht, sowie die "relativistische Astrophysik", die sich etwa mit Schwarzen Löchern beschäftigt. Die "Stellarastronomie" untersucht Geburt, Entwicklung und Tod der Sterne. Die "Kosmologie" hat die Geschichte und die Entstehung des Universums zum Gegenstand, während die "Kosmogonie" die Geschichte unseres eigenen Sonnensystems beschreibt. Die Integration vieler Methoden bringt es mit sich, dass man die "Beobachtende Astronomie" immer weniger nach benutzten Wellenlängenbereichen einteilt ("Radioastronomie", "Infrarotastronomie", "Visuelle Astronomie", "Ultraviolettastronomie", "Röntgenastronomie" und "Gammaastronomie"), weil die Forschergruppen und (im Idealfall) auch der einzelne Wissenschaftler Informationen aus allen diesen Quellen heranziehen kann. Das derzeit neueste Fachgebiet ist die "Exoplanetologie". Die engeren Methoden der "klassischen Astronomie" sind als "Positionsastronomie" mittels der Astrometrie und der Himmelsmechanik den Aufbau des Weltalls zu erklären und die Himmelskörper zu katalogisieren ("Sternkatalog", "Ephemeriden"), und in der "Astrophysik" die Physik des Weltalls und der Objekte darin zu erforschen. Daneben kann die "Raumfahrt" als "experimentelle Astronomie" angesehen werden, und die Kosmologie als theoretische Disziplin. Astronomie und andere Wissenschaften. Mit der Astronomie sehr eng verbunden sind die Physik und die Mathematik; die Fachgebiete haben sich vielfach befruchtet und sind auch im Astronomie-Studium als Einheit zu sehen. Das Universum erweist sich in vielen Fällen als Laboratorium der Physik, viele ihrer Theorien können nur in seinen Weiten und an heißen, energiereichen Objekten getestet werden. Nicht zuletzt waren die aufwändigen Berechnungen der Astronomie Triebfeder der modernen numerischen Mathematik und der Datenverarbeitung. Traditionell ist die Zusammenarbeit der Astronomie mit der Geodäsie ("Astrogeodäsie", Orts- und Zeitbestimmung, Bezugsysteme, Navigation), mit der Zeit- und Kalenderrechnung ("Astronomische Chronologie") sowie mit der Optik (Entwicklung "astronomischer Instrumente und Sensoren"). Instrumentell und methodisch sind auch starke Bezüge zur Technik, Raumfahrt und Mathematik gegeben (Messgeräte, Satellitentechnik, Modellierung von Bahnen und Himmelskörpern). Geodätische Methoden werden auch zur Bestimmung des Gravitationsfeldes sowie der Figur anderer Himmelskörper angewandt. In den letzten Jahrzehnten ist auch die Zusammenarbeit der Astronomie mit der modernen Geologie und der Geophysik immer wichtiger geworden, da sich das Arbeitsgebiet der Geowissenschaften mit Teilen der "Planetologie" deckt. Die Mineralogie analysiert die Gesteine der Erde mit ähnlichen Methoden wie jene anderer Himmelskörper. Die "Kosmochemie" als Teil der Chemie untersucht die Entstehung und Verteilung der chemischen Elemente und Verbindungen im Universum und die chemische Evolution, die "Astrobiologie" die Umstände von Entstehung, Ursprung und Existenz von Leben im Universum. Die Astronomiegeschichte als Teil der Geschichtswissenschaften untersucht die "Geschichte der Astronomie". Bauten und Funde aus vor- und frühgeschichtlicher Zeit werden vermehrt in astronomischem Zusammenhang interpretiert ("Archäoastronomie"). Da sich die Astronomie außerdem im Rahmen der "Kosmologie" mit den Fragen nach der Entstehung, der Entwicklung und dem Ende des Universums beschäftigt, gibt es darüber hinaus Schnittpunkte zu Theologie und Philosophie. Periodika. "Siehe auch: Abschnitt Literatur unter Amateurastronomie" Angelina Jolie. Angelina Jolie Pitt, DCMG (* 4. Juni 1975 als "Angelina Jolie Voight" in Los Angeles) ist eine US-amerikanische Schauspielerin, Filmregisseurin, Drehbuchautorin und Filmproduzentin. Sie wurde mit der Darstellung der Videospielheldin Lara Croft in ' (2001) international bekannt. Weitere kommerzielle Erfolge hatte sie mit den Filmen "Mr. & Mrs. Smith" (2005), "Wanted" (2008), "Salt" (2010) und "Maleficent – Die dunkle Fee" (2014). Für ihre schauspielerischen Leistungen erhielt Jolie drei Golden Globes, zwei Screen Actors Guild Awards und für ihre Rolle einer psychisch Kranken in dem Film "Durchgeknallt" (1999) einen Oscar als beste Nebendarstellerin. Mit dem Kriegsdrama "In the Land of Blood and Honey" gab Jolie 2011 ihr Debüt als Spielfilmregisseurin und Drehbuchautorin. Sie ist zudem Sondergesandte des UN-Flüchtlingshochkommissars António Guterres und ehemalige Sonderbotschafterin für das UNO-Hochkommissariat für Flüchtlinge. Frühe Jahre. Angelina Jolie ist die Tochter der Schauspieler Jon Voight und Marcheline Bertrand. Sie ist die jüngere Schwester des Schauspielers James Haven und die Nichte des Songwriters Chip Taylor. Ihre Taufpaten sind die Schauspieler Jacqueline Bisset und Maximilian Schell. Jolie hat deutsche und slowakische Vorfahren väterlicherseits sowie kanadische, niederländische, deutsche und angeblich irokesische Vorfahren mütterlicherseits. Letzteres wurde von Jon Voight in einem Interview allerdings bestritten. Die irokesische Abstammung Bertrands sei erfunden worden, um ihr aus Karrieregründen ein exotisches Image zu verleihen. Ein Urgroßelternpaar Jolies stammt aus Büren in Westfalen, ein anderes aus Košice in der Slowakei. Jolies Eltern, die am 12. Dezember 1971 geheiratet hatten, trennten sich 1976. Bertrand reichte 1978 die Scheidung ein, die am 14. April 1980 rechtskräftig wurde. Nach der Trennung ihrer Eltern wuchs Jolie zusammen mit ihrem Bruder bei ihrer Mutter auf, die ihre eigenen Schauspielambitionen aufgab und mit den Kindern und ihrem neuen Lebensgefährten Bill Day nach Palisades in den US-Bundesstaat New York zog, wo Jolie im Nachbarort Tappan die William O. Schaefer Elementary School besuchte. Zeit mit ihrem Vater verbrachte Jolie daraufhin meist nur während der Schulferien oder wenn er sie und ihren Bruder zu Dreharbeiten mitnahm. Jolie erklärte später, dass aber nicht ihr berühmter Vater, der 1979 für seine Rolle in dem Film "Coming Home – Sie kehren heim" (1978) den Oscar als bester Hauptdarsteller gewonnen hatte, ihr Interesse an der Schauspielerei geweckt habe, sondern die regelmäßigen Kino- und Theaterbesuche mit ihrer Mutter und ihrem Bruder während ihrer Kindheit. Als Jolie elf Jahre alt war, zog die Familie zurück nach Los Angeles. Dort besuchte sie bis 1989 die El Rodeo Elementary School im Stadtteil Beverly Hills. In ihrer Zeit an der Beverly Hills High School fühlte sie sich oftmals isoliert unter ihren Mitschülern, die größtenteils aus wohlhabenden Familien stammten, während ihre Mutter mit einem bescheidenen Einkommen auskommen musste. Jolie trug Kleidung aus Secondhand-Läden und wurde von anderen Schülern auf Grund ihrer ausgeprägten Gesichtszüge und äußerst schlanken Erscheinung geneckt. Mit wachsender Unzufriedenheit durchlebte sie in ihrer Jugend eine Phase autoaggressiven Verhaltens; sie beschrieb dies später mit den Worten: „Ich sammelte Messer und hatte immer bestimmte Dinge um mich. Aus irgendeinem Grund war das Ritual, mich selbst zu schneiden und die Schmerzen zu spüren, vielleicht sich lebendig zu fühlen und ein Gefühl der Befreiung zu verspüren, irgendwie therapeutisch für mich.“ Heute blickt Jolie auf diese Phase ihres Lebens mit der Bemerkung zurück: „Im Herzen bin ich noch immer nur ein Punk-Kid mit Tattoos.“ Neben der Schule nahm Jolie Schauspielunterricht am Lee Strasberg Theatre and Film Institute, an dem sie zwei Jahre lang das Method Acting erlernte und in mehreren Bühnenproduktionen auftrat. Mit 14 Jahren erhielt sie einen Vertrag als Fotomodell bei der Agentur Finesse Model Management; ihre Versuche, in diesem Geschäft Fuß zu fassen, blieben jedoch ohne nennenswerten Erfolg. Mit 16 Jahren machte Jolie im Rahmen eines eigenverantwortlichen Lernprogramms vorzeitig ihren Schulabschluss und mietete sich ein eigenes Apartment in der Nähe der Wohnung ihrer Mutter. Sie dachte einige Zeit darüber nach, Bestattungsunternehmerin zu werden, nachdem ihr Großvater gestorben war, aber sie entschied sich letztendlich doch für die Schauspielerei. Karrierebeginn (1980 bis 1997). In "Zwei in der Tinte" stand Jolie gemeinsam mit ihren Eltern zum ersten Mal für einen Film vor der Kamera. Während ihr Vater in der Komödie an der Seite von Ann-Margret die männliche Hauptrolle spielte, waren Jolie und ihre Mutter in kleineren Nebenrollen zu sehen. Voight beschrieb das Verhalten seiner damals fünfjährigen Tochter während der Dreharbeiten im Jahr 1980 als „gelangweilt“. „Sie war nicht gerade begeistert, mitzuwirken. Aber sie hat uns die Schau gestohlen, weil sie so ehrlich und echt war.“ Ihre ersten professionellen Engagements als Schauspielerin erhielt Jolie in den Musikvideos zu Lenny Kravitz’ "Stand by My Woman", Antonello Vendittis "Alta Marea" (beide 1991), The Lemonheads’ "It’s About Time" und Meat Loafs "Rock and Roll Dreams Come Through" (beide 1993). Außerdem stand sie für fünf Studentenfilme ihres Bruders vor der Kamera, als dieser die USC School of Cinematic Arts in Los Angeles besuchte. Sie spielte auch in den Kurzfilmen "Angela & Viril" sowie "Alice & Viril" (beide 1993) von Regisseur Steven Shainberg mit. In dem darauf folgenden Low-Budget-Film "Cyborg 2" (1993) verkörperte sie einen menschenähnlichen Roboter, der darauf programmiert ist, sich mit Verführungskünsten den Weg ins Hauptquartier des Feindes zu bahnen und dort zu explodieren. Jolie über den Film: „Nachdem ich ihn gesehen hatte, ging ich nach Hause und musste mich übergeben.“ Die New York Times schrieb jedoch über ihre Darstellung: „Auch wenn sich ihr Schauspiel in "Cyborg 2" noch in seiner Versuch und Irrtum-Phase befand, enthielt es bereits die Saat ihrer heutigen Darstellungsweise. Bereits als Teenager […] wusste Jolie, die Leinwand mit ihrer Präsenz auszufüllen.“ Nach einer Rolle in dem Thriller "Without Evidence" (1995) spielte Jolie an der Seite von Jonny Lee Miller und Matthew Lillard die Hackerin Kate „Acid Burn“ Libby in dem Spielfilm "Hackers – Im Netz des FBI" (1995). Die New York Times schrieb: „Kate (Angelina Jolie) fällt auf. Sie zieht ein noch mürrischeres Gesicht als die übrigen Darsteller und sie ist diese seltene Hackerin, die bewusst in einem durchsichtigen Top an ihrer Tastatur sitzt. Trotz ihres verdrießlichen Auftretens, und das ist alles, was die Rolle erfordert, hat Frau Jolie das süße engelhafte Aussehen ihres Vaters Jon Voight geerbt.“ Der Film spielte keinen Gewinn ein, entwickelte sich aber zu einem Kulthit, nachdem er auf Video erschienen war. In der Komödie "Liebe und andere …" (1996), einer modernen Adaption von Romeo und Julia unter zwei rivalisierenden italienischen Restauranteigentümern in der New Yorker Bronx, trat sie in der Rolle der Gina Malacici vor die Kamera. Im Roadmovie "Nichts als Trouble mit den Frauen" (1996) spielte sie den Teenager Eleanor Rigby, der sich in Danny Aiellos Filmfigur verliebt, während dieser versucht, ihre Mutter (Anne Archer) zu erobern. Im Jahr 1996 erschien sie außerdem in dem Film "Foxfire" als Margret „Legs“ Sadovsky, eines von fünf Mädchen, die einen ungewöhnlichen Bund eingehen, nachdem sie einen Lehrer zusammengeschlagen haben, der sie sexuell belästigt hatte. Die Los Angeles Times schrieb über Jolies Leistung: „Es bedurfte einer Menge, diese Figur zu entwickeln, aber Jolie, Jon Voights umwerfende Tochter, hat die Präsenz, das Stereotyp zu überwinden. Obwohl die Geschichte von Maddy erzählt wird, ist Legs das Thema und der Katalysator.“ 1997 spielte Jolie zusammen mit David Duchovny in dem Thriller "Playing God". Der Film erzählt die Geschichte eines Chirurgen, der seine Approbation verliert und tief in die kriminelle Unterwelt hineingezogen wird, wo er Jolies Figur Claire trifft. Der Film fand bei den Kritikern wenig Beifall, sodass Roger Ebert zu erklären versuchte: „Angelina Jolie findet eine gewisse Wärme in einer Rolle, die normalerweise hart und aggressiv ist; sie erscheint zu nett, um die Freundin eines Verbrechers zu sein, und vielleicht ist sie es auch.“ Danach wirkte sie in dem Fernsehfilm "True Women" (1997) mit, einem historisch-romantischen Drama im Wilden Westen, basierend auf dem gleichnamigen Roman von Janice Woods Windle. Im selben Jahr spielte sie außerdem eine Stripperin in dem Musikvideo der Rolling Stones zu "Anybody Seen My Baby?" Schauspielerischer Durchbruch (1998–2000). Jolies Karriere erhielt Auftrieb, als sie 1998 für ihre Rolle in der Filmbiografie "Wallace" mit dem Golden Globe als Beste Nebendarstellerin in einem Fernsehfilm ausgezeichnet wurde und eine Nominierung für den Emmy erhielt. Unter der Regie von John Frankenheimer sowie an der Seite von Gary Sinise und Mare Winningham verkörperte Jolie in dem Film Cornelia Wallace, die zweite Ehefrau von George Wallace, seinerzeit Gouverneur von Alabama und Anhänger der Rassentrennung, der angeschossen und querschnittsgelähmt wurde, als er für die US-amerikanische Präsidentschaft kandidierte. 1998 spielte Jolie im HBO-Projekt "Gia – Preis der Schönheit", einem Fernsehfilm über das Leben des lesbischen Supermodels Gia Carangi mit. Der Film beschreibt eine Welt von Sex und Drogen sowie Carangis emotionalen Niedergang und ihren Tod durch AIDS. Vanessa Vance von Reel.com schrieb: „Angelina Jolie erntete große Anerkennung für ihre Rolle als Gia, und es ist leicht zu verstehen warum. Jolie ist ergreifend in ihrer Darstellung, die den Film mit Nerv, Charme und Verzweiflung füllt, und ihre Rolle ist möglicherweise das schönste Wrack, das jemals gefilmt wurde.“ Jolie gewann ihren zweiten Golden Globe und erhielt erneut eine Nominierung für den Emmy, außerdem ihren ersten Screen Actors Guild Award. Jolie zog es in ihren Anfangsjahren häufig vor, entsprechend Lee Strasbergs Method Acting auch in Drehpausen vollkommen in ihrer Rolle zu bleiben. Während der Dreharbeiten zu "Gia" erklärte sie ihrem damaligen Ehemann Jonny Lee Miller, sie sei nicht in der Lage, ihn anzurufen. „Ich sagte ihm: ‚Ich bin allein; ich sterbe; ich bin lesbisch; ich werde dich in den nächsten Wochen nicht sehen.‘“ Nach "Gia" zog Jolie kurzzeitig nach New York, da sie das Gefühl hatte, sie habe „nichts mehr zu geben.“ Sie schrieb sich an der New York University ein, um Film zu studieren, und besuchte Kurse für Drehbuchautoren. Später beschrieb sie diese Zeit als „einfach gut, um mich selbst zu finden.“ 1998 kehrte sie als Gloria McNeary in dem Gangsterfilm "Hell’s Kitchen – Vorhof zur Hölle" auf die Leinwand zurück und trat im selben Jahr auch als junge Partygängerin Joan in dem Episodenfilm "Leben und lieben in L.A." auf. Das Ensemble umfasste unter anderem Sean Connery, Gillian Anderson, Ryan Phillippe und Jon Stewart. Der Film erhielt überwiegend positive Kritiken und Jolie erntete besonderes Lob. Der San Francisco Chronicle schrieb: „Jolie, die sich durch ein überzogenes Skript kämpft, ist eine Sensation als die verzweifelte Klubgängerin, die lernen muss, was sie bereit ist, aufs Spiel zu setzen.“ Das amerikanische National Board of Review zeichnete sie als beste Nachwuchsdarstellerin aus. 1999 erschien sie neben John Cusack, Billy Bob Thornton und Cate Blanchett in Mike Newells Komödiendrama "Turbulenzen – und andere Katastrophen", ein Film über die Rivalität zweier Fluglotsen. Sie spielte Thorntons verführerische Ehefrau Mary Bell, und im darauffolgenden Jahr heiratete sie Thornton auch im echten Leben. Der Film hinterließ gemischte Reaktionen, Jolies Figur wurde besonders kritisiert. Die Washington Post schrieb: „Mary (Angelina Jolie) ist eine völlig lächerliche Autorenkreation; eine Frau, die über sterbende Hibiskuspflanzen weint, eine Menge türkiser Ringe trägt und furchtbar einsam wird, wenn ihr Mann nachts nicht nach Hause kommt.“ Dann arbeitete sie mit Denzel Washington zusammen in "Der Knochenjäger" (1999), einer Adaption des gleichnamigen Romans von Jeffery Deaver. Sie spielte Amelia Donaghy, eine Polizeibeamtin, die vom Suizid ihres Vaters gequält wird und nur widerwillig zustimmt, dem ehemaligen Detective Rhyme zu helfen, einen Serienmörder zu jagen. Der Film spielte weltweit 151 Mio. US-Dollar ein, wurde jedoch überwiegend negativ besprochen. Die Detroit Free Press schrieb: „Jolie, auch wenn sie immer köstlich anzusehen ist, ist schlicht und einfach fehlbesetzt.“ Danach nahm Jolie die Nebenrolle Lisa Rowe in "Durchgeknallt" (1999) an. Der Film erzählt die Geschichte der Psychiatriepatientin Susanna Kaysen und basiert auf Kaysens Memoiren "Girl, Interrupted". Das Psychodrama war ursprünglich als Comeback für die Hauptdarstellerin Winona Ryder konzipiert, wurde stattdessen aber zu Jolies endgültiger Etablierung in Hollywood. Sie gewann ihren dritten Golden Globe, ihren zweiten Screen Actors Guild Award und den Oscar als beste Nebendarstellerin. Variety schrieb, „Jolie ist ausgezeichnet als das extravagante, unverantwortliche Mädchen, das sich letztendlich als viel entscheidender für Susannas Rehabilitation erweist als die Ärzte“ und Roger Ebert urteilte über ihre Leistung: „Jolie entwickelt sich zu einem der großen Freigeister gegenwärtiger Filme, eine lose Kanone, die dennoch tödlich ins Ziel trifft.“ Im Sommer 2000 spielte Jolie in ihrem ersten Blockbuster, "Nur noch 60 Sekunden" die Rolle der Sarah „Sway“ Wayland, die Ex-Freundin eines Autodiebs, der von Nicolas Cage verkörpert wird. Die Rolle war verhältnismäßig klein und die Washington Post kritisierte: „Alles was sie in diesem Film tut, ist herumstehen, sich abkühlen und ihre fleischigen, pulsierenden Muskelröhren zur Schau stellen, die so provozierend um ihre Zähne herum nisten.“ Sie erklärte später, der Film sei für sie nach der anstrengenden Rolle in "Durchgeknallt" eine willkommene Abwechslung gewesen – und es wurde zunächst ihr kommerziell erfolgreichster Film mit einem internationalen Einspielergebnis von 237 Mio. US-Dollar. Internationaler Erfolg (seit 2001). Obwohl sie nach dem Oscargewinn für ihre schauspielerischen Fähigkeiten bekannt war, hatten ihre Filme bis dahin selten ein breites Publikum erreicht, doch ' (2001) machte sie zu einem internationalen Superstar. Die Titelrolle des bekannten Videospiels verlangte von Jolie einen britischen Akzent und ein umfassendes Martial-Arts-Training. Sie erhielt große Anerkennung für ihre Darbietung, der Film wurde jedoch allgemein negativ aufgenommen. Das Slant Magazine schrieb: „Angelina Jolie wurde geboren, um Lara Croft zu spielen, aber Regisseur Simon West erlaubt ihr nur einen Ausflug in ein billiges Computerspiel.“ Der Film wurde trotzdem zu einem großen internationalen Erfolg, er spielte weltweit 275 Millionen US-Dollar ein und begründete Jolies Reputation als weiblicher Action-Star. Anschließend erschien Jolie als Katalogbraut Julia Russell neben Antonio Banderas in "Original Sin" (2001), einem auf Cornell Woolrichs Roman "Waltz into Darkness" basierenden Thriller. Der Film fiel bei der Kritik weitgehend durch und die "New York Times" bemerkte: „Die Geschichte sinkt steiler in sich zusammen als Frau Jolies gewagtes Dekolleté.“ 2002 spielte sie Lanie Kerrigan in "Leben oder so ähnlich", einem Film über eine ehrgeizige Fernsehreporterin, der prophezeit wird, binnen einer Woche zu sterben. Der Film erhielt negative Kritiken, auch wenn Jolies Spiel häufig positiv hervorgehoben wurde. Paul Clinton von CNN urteilte: „Jolie ist ausgezeichnet in ihrer Rolle. Trotz eines teilweise lächerlichen Plots in der Mitte des Films ist die Oscar-gekrönte Schauspielerin äußerst glaubhaft in ihrer Selbstfindung um die wahre Bedeutung vom erfüllten Leben.“ Jolie kehrte 2003 in ihrer Rolle als Lara Croft in ' zurück. Die Fortsetzung erwies sich als weniger erfolgreich als der erste Teil, spielte aber dennoch 157 Mio. US-Dollar an den internationalen Kinokassen ein. Im selben Jahr trat sie außerdem in "Jenseits aller Grenzen" auf, einem Film über humanitäre Hilfe in Afrika. Der Film fiel bei Kritikern und Publikum durch und Jolie wurde für die Goldene Himbeere als schlechteste Schauspielerin nominiert. Die Los Angeles Times schrieb: „Jolie kann Lebhaftigkeit und Glaubwürdigkeit in Figuren bringen, die eine für sie nachvollziehbare Realität haben, wie sie es in ihrer Oscar-Rolle in ‚Durchgeknallt‘ bewies. Sie kann auch bekannte Cartoons spielen, was sie in den Lara-Croft-Filmen zeigte. Aber der Limbo eines gespaltenen Charakters, einer schlecht geschriebenen Figur in einer von Fliegen befallenen und mit Blut und Eingeweiden übersäten Welt, besiegt sie völlig.“ Weiterhin war sie im Musikvideo zu "Did My Time" der Band Korn zu sehen. 2004 war Jolie zusammen mit Ethan Hawke und Kiefer Sutherland in dem Thriller "Taking Lives" auf der Leinwand zu sehen. Sie spielte Illeana Scott, eine FBI-Profilerin, die die Polizei in Montreal dabei unterstützen soll, einen Serienmörder zu überführen. Der Film stieß auf gemischte Reaktionen und brachte ihr eine zweite Himbeeren-Nominierung ein. Der Hollywood Reporter schrieb: „Angelina Jolie spielt eine Rolle, die sich wie etwas anfühlt, das sie schon einmal getan hat, aber sie fügt einen unverkennbaren Schuss von Aufregung und Glamour hinzu.“ Jolie lieferte die Stimme für Lola, einem Fisch im DreamWorks SKG Animationsfilm "Große Haie – Kleine Fische" (2004); weitere Rollen wurden von Will Smith, Martin Scorsese, Renée Zellweger, Jack Black und Robert De Niro gesprochen. Jolie übernahm 2004 auch einen kurzen Gastauftritt als Franky in "Sky Captain and the World of Tomorrow" neben Jude Law, einem Science-Fiction-Film, der komplett vor einem Bluescreen gedreht wurde und bei dem fast alle Sets und Requisiten in der Nachbearbeitung computergeneriert eingefügt wurden. Jolie spielte außerdem Olympias in "Alexander" (2004), Oliver Stones Filmbiographie über das Leben von Alexander dem Großen. Der Film fiel in den Vereinigten Staaten durch, was Stone mit der Darstellung von Alexander als homosexuell in Verbindung brachte, außerhalb Nordamerikas spielte er jedoch 133 Mio. US-Dollar ein. Newsday schrieb über Jolies Leistung: „Jolie ist die Einzige im gesamten Film, die Spaß mit ihrer Rolle zu haben scheint, und man vermisst sie jedes Mal, wenn sie nicht auf der Leinwand zu sehen ist.“ Jolies einziger Film aus dem Jahr 2005, Doug Limans Actionkomödie "Mr. & Mrs. Smith", wurde ihr größter kommerzieller Erfolg. Der Film erzählt eine Geschichte von gelangweilten Eheleuten, die herausfinden, dass sie beide ein Doppelleben als Profikiller führen. Jolie spielte die Agentin Jane Smith neben Brad Pitt. Der Film wurde überwiegend positiv aufgenommen und besonders die gute Chemie zwischen den beiden Hauptdarstellern hervorgehoben. Die "Star Tribune" erklärte: „Während die Geschichte willkürlich erscheint, lebt der Film von seinem geselligen Charme, der galoppierenden Energie und der thermonuklearen Chemie zwischen den beiden Stars.“ Der Film spielte weltweit über 478 Mio. US-Dollar ein und wurde zu einem der größten Erfolge des Kinojahres. In dem folgenden Jahr übernahm Jolie neben Matt Damon eine Nebenrolle in Robert De Niros "Der gute Hirte", einem Film über die frühe Geschichte der CIA, erzählt aus der Sicht von Edward Wilson. Jolie trat als Margaret Russell auf, Wilsons vernachlässigte Ehefrau, die zunehmend unter den Auswirkungen der Arbeit ihres Ehemanns leidet. Die "Chicago Tribune" kommentierte: „Jolie altert überzeugend im Laufe des Films und ist erfreulich unbesorgt, wie ihre spröde Figur beim Publikum ankommen könnte.“ Jolie spielte außerdem Mariane Pearl in Michael Winterbottoms Dokumentardrama "Ein mutiger Weg" (2007) über die Entführung und Ermordung des Wall-Street-Journal-Reporters Daniel Pearl in Pakistan. Der Film basiert auf Mariane Pearls Memoiren "Ein mutiges Herz: Leben und Tod des Journalisten Daniel Pearl" und hatte seine Uraufführung bei den Filmfestspielen in Cannes. Der Hollywood Reporter beschrieb Jolies Darstellung als „akkurat und bewegend, respektvoll gespielt und den schwierigen Akzent dabei fest im Griff.“ Sie erhielt für die Rolle ihre vierte Golden-Globe- und die dritte Screen-Actors-Guild-Award-Nominierung. Daneben trat sie als Grendels Mutter in einer Nebenrolle in Robert Zemeckis’ animiertem Epos "Die Legende von Beowulf" (2007) auf, der mit Hilfe der Motion-Capture-Technik gefilmt wurde. Im Sommer 2008 war sie in dem Actionfilm "Wanted", einer Adaption der gleichnamigen Graphic Novel von Mark Millar zu sehen sowie in dem Animationsfilm "Kung Fu Panda" (DreamWorks SKG) als Stimme der Tigerin zu hören. "Wanted", der in Deutschland keine Jugendfreigabe erhielt, löste eine Diskussion um die Darstellung von Gewalt im Kino aus, war jedoch mit einem Einspielergebnis von 343 Mio. US-Dollar weltweit erfolgreich. Clint Eastwood wählte sie als Hauptdarstellerin für seinen Thriller "Der fremde Sohn". Dieser Film erhielt sehr gute Kritiken und wurde 2008 bei den Filmfestspielen von Cannes gezeigt. Jolie wurde für ihre Darstellung der um ihren Sohn kämpfenden Christine Collins erstmals für den Oscar als Beste Hauptdarstellerin nominiert. 2009 begann sie mit den Dreharbeiten zu dem Action-Thriller "Salt", in dem sie die Agentin Evelyn Salt spielt, die der Spionage bezichtigt wird und daraufhin eine neue Identität annehmen muss. "Salt" kam im Sommer 2010 in die deutschen Kinos. Im Februar 2010 begannen die Dreharbeiten zu dem Film "The Tourist", bei dem Florian Henckel von Donnersmarck Regie führte und Jolie an der Seite von Johnny Depp die Hauptrolle spielte. Der Film feierte seine Weltpremiere am 7. Dezember 2010 in New York und spielte weltweit über 278 Mio. US-Dollar an den Kinokassen ein. Sowohl Depp als auch Jolie wurden für ihre schauspielerischen Leistungen in dem Thriller für den Golden Globe Award nominiert, gingen aber bei der Verleihung am 16. Januar 2011 leer aus. Bei den Teen Choice Awards 2011 wurde Jolie für ihre Darbietung in "The Tourist" als beste Action-Schauspielerin ausgezeichnet. Am 18. Juni 2012 begannen die Dreharbeiten zu "Maleficent – Die dunkle Fee", in dem Jolie die titelgebende Hauptrolle spielt. "Maleficent" ist eine auf dem Disney-Zeichentrickklassiker "Dornröschen" (1959) basierende Realverfilmung, deren Weltpremiere am 7. Mai 2014 in London stattfand. In mehreren Interviews betonte Jolie, dass sie selbst Maleficent schon als Kind bewundert habe. Regie. Mit dem Dokumentarfilm "A Place in Time" gab Jolie 2007 ihr Regiedebüt. Der Film beschreibt das Geschehen an 27 verschiedenen Orten der Welt innerhalb einer Woche. An dem Projekt, das vor allem zur Vorführung an Schulen gedacht ist, wirkten unter anderen ihre Schauspielkollegen Jude Law, Hilary Swank, Colin Farrell und ihr Ex-Mann Jonny Lee Miller mit. Im Herbst 2010 fanden die Dreharbeiten zu "In the Land of Blood and Honey" statt. Das Kriegsdrama, bei dem Jolie Regie führte und für das sie das Drehbuch schrieb, erzählt eine Liebesgeschichte während des Bosnienkrieges von 1992 bis 1995. Jolie besetzte die Rollen ausschließlich mit bosnischen, serbischen und kroatischen Schauspielern wie Zana Marjanović, Nikola Djuricko und Rade Šerbedžija, die den Krieg selbst miterlebt hatten. „[Sie] waren außergewöhnlich. Ich fühlte mich privilegiert und geehrt, mit ihnen arbeiten zu dürfen und freue mich sehr darauf, dass alle bald deren unglaubliches Talent sehen können“, sagte Jolie der Branchenzeitschrift "The Hollywood Reporter". Nachdem Gerüchte über die Filmhandlung in Umlauf gebracht worden waren, wonach der Film die Liebe einer bosnischen Frau zu ihrem serbischen Vergewaltiger thematisieren würde, rief dies scharfe Kritik und Proteste u. a. von der bosnischen Vereinigung "Women Victims of War" hervor. Bosniens Kulturminister Gavrilo Grahovac entzog Jolie daraufhin vorübergehend die Drehgenehmigung für die Hauptstadt Sarajevo, weshalb große Teile des Films in Budapest gedreht wurden. Die Gerüchte sollten sich später als falsch erweisen. Der Film lief am 23. Dezember 2011 in den amerikanischen Kinos an. Er wurde als bester fremdsprachiger Film bei den Golden Globe Awards 2012 nominiert und gewann bei der Cinema for Peace-Gala den Preis für den wichtigsten Film des Jahres. Im Oktober 2013 begann Jolie in Australien unter dem Titel "Unbroken" mit der Verfilmung der Lebensgeschichte von Louis Zamperini. Der Film, für den Ethan und Joel Coen das Drehbuch schrieben, basiert auf Laura Hillenbrands Buch ' aus dem Jahr 2010. Von August bis November 2014 fanden auf Malta die Dreharbeiten des Filmdramas "By the Sea" statt, für das sie das Drehbuch geschrieben hatte und bei dem sie die Regie und die Hauptrolle an der Seite von Brad Pitt übernahm. Humanitäres Engagement. Bei den Dreharbeiten zu "Lara Croft: Tomb Raider" im zu großen Teilen verminten Kambodscha kam Jolie zum ersten Mal persönlich mit konkreten humanitären Problemen in Kontakt. Sie wandte sich an das UN-Flüchtlingshilfswerk UNHCR, um weitere Informationen über internationale Krisenherde zu erhalten und stimmte in den darauf folgenden Monaten zu, verschiedene Flüchtlingslager zu besuchen. Im Februar 2001 brach sie zu ihrer ersten Reise auf, einer achtzehntägigen Mission durch Sierra Leone und Tansania; sie berichtete später, wie schockiert sie von den Bedingungen war, die sie dort vorfand. Sie kehrte für zwei Wochen nach Kambodscha zurück und besuchte danach afghanische Flüchtlinge in Pakistan, für die sie im Rahmen eines internationalen UNHCR-Dringlichkeitsappells eine Million US-Dollar spendete. Sie bestand darauf, alle im Zusammenhang ihrer Reisen entstandenen Kosten selbst zu übernehmen, und teilte bei ihren Besuchen die spärlichen Arbeitsbedingungen und Unterbringungen mit den Helfern vor Ort. UNHCR zeigte sich von Jolies Interesse für Flüchtlinge beeindruckt und ernannte sie am 27. August 2001 im Genfer Hauptquartier zur UNHCR-Sonderbotschafterin. In einer Pressekonferenz erklärte sie ihre Beweggründe, der Flüchtlingsorganisation beizutreten: „Wir können uns nicht vor Informationen verschließen und die Tatsache ignorieren, dass es Millionen von Menschen auf der Welt gibt, die leiden. Ich möchte helfen. Ich glaube nicht, dass ich mich dabei von anderen Menschen unterscheide. Ich denke, wir wünschen uns alle Gerechtigkeit und Gleichheit, eine Chance für ein Leben mit Bedeutung. Wir alle würden gerne daran glauben, dass uns jemand beistünde, sollten wir einmal in eine schlechte Situation geraten.“ Während ihrer ersten drei Jahre als Sonderbotschafterin konzentrierte Jolie ihre Bemühungen auf Reisen und besuchte Flüchtlinge in verschiedenen Teilen der Welt. Auf die Frage, was sie zu erreichen erhoffe, antwortete sie: „Mehr Bewusstsein über die Lage dieser Menschen zu schaffen. Ich denke, sie sollten dafür gelobt werden, was sie überlebt haben und nicht auf sie herab gesehen werden.“ 2002 besuchte Jolie das "Tham Hin"-Flüchtlingslager in Thailand und kolumbianische Flüchtlinge in Ecuador. Sie reiste außerdem zu UNHCR-Einrichtungen im Kosovo und stattete dem Kakuma-Flüchtlingslager in Kenia, das Vertriebene aus dem Sudan aufnahm, einen Besuch ab. Während der Dreharbeiten zu "Jenseits aller Grenzen" besuchte sie außerdem angolanische Flüchtlinge in Namibia. 2003 unternahm Jolie eine sechstägige Mission nach Tansania, wo sie Lager für kongolesische Flüchtlinge in der westlichen Grenzregion besuchte, und sie reiste für eine Woche nach Sri Lanka. Sie begab sich außerdem auf eine viertägige Mission in den Nordkaukasus in Russland und veröffentlichte zum Kinostart von "Jenseits aller Grenzen" im Oktober 2003 das Buch "Tagebuch einer Reise – Begegnungen mit Flüchtlingen in Afrika, Kambodscha, Pakistan und Ecuador", eine Zusammenstellung von Notizen ihrer frühen Reisen (2001–2002). Bei einem privaten Aufenthalt in Jordanien im Dezember 2003 besuchte sie irakische Flüchtlinge in der jordanischen Wüste und sudanesische Flüchtlinge in Ägypten. Angelina Jolie und Brad Pitt unterstützen die SOS-Kinderdörfer bereits seit Längerem mit größeren finanziellen Beiträgen. Dabei sorgen sie insbesondere für Darfur und Haiti. Angelina Jolie hat sich schon im Jahr 2003 ein persönliches Bild von der Situation vor Ort verschafft und die Kinder im Katastrophengebiet in Haiti, genauer gesagt im SOS-Kinderdorf Santo bei Port-au-Prince, besucht. Auf ihrer ersten UNO-Reise innerhalb der USA begab sich Jolie im Jahr 2004 nach Arizona, wo sie Asylbewerber in drei Einrichtungen besuchte, und sie besichtigte in Phoenix Unterbringungen für Kinder und Jugendliche ohne Begleitung oder rechtlichen Beistand. Als Reaktion auf die sich durch den Darfur-Konflikt verschlechternde humanitäre Situation im Westen Sudans flog sie im Juni 2004 nach Tschad und inspizierte Flüchtlingslager im Grenzgebiet zu Darfur. Vier Monate später kehrte sie in die Region zurück und begab sich direkt nach West-Darfur. Jolie besuchte 2004 auch afghanische Flüchtlinge in Thailand und stattete während eines privaten Aufenthalts im Libanon zur Weihnachtszeit dem regionalen UNHCR-Büro in Beirut einen Besuch ab und traf sich dort mit jungen Flüchtlingen und Krebspatienten. Jolie besuchte im Mai 2005 afghanische Flüchtlinge in Pakistan und traf sich mit Pakistans Präsidenten Pervez Musharraf und Premierminister Shaukat Aziz. Sie kehrte im November zusammen mit Brad Pitt nach Pakistan zurück, um die Folgen des Erdbebens in Kaschmir zu sehen. 2006 besuchten Jolie und Pitt eine vom Hip-Hop-Musiker Wyclef Jean und seiner Wohltätigkeitsorganisation Yéle Haïti unterstützte Schule in Haiti und statteten im November während der Dreharbeiten zu "Ein mutiger Weg" in Indien afghanischen und birmanischen Flüchtlingen in Neu-Delhi einen Besuch ab. Jolie verbrachte den ersten Weihnachtstag 2006 mit kolumbianischen Flüchtlingen in San José, Costa Rica, wo sie Geschenke verteilte und sich mit Regierungsbeamten traf. Im Februar 2007 kehrte Jolie für eine zweitägige Mission nach Tschad zurück, um sich ein Bild von der sich verschlechternden Sicherheitslage für Flüchtlinge aus Darfur zu machen; Jolie und Pitt spendeten daraufhin eine Million US-Dollar an drei Hilfsorganisationen in Tschad und Darfur. Im August 2007 unternahm Jolie ihre erste Reise nach Syrien und in den Irak, wo sie neben irakischen Flüchtlingen auch US-Truppen traf. Sechs Monate später kehrte sie in den Irak zurück. Dabei reiste sie in die Grüne Zone nach Bagdad und traf sich unter anderem mit dem irakischen Ministerpräsidenten Dschawad al-Maliki und dem US-Oberbefehlshaber in der Region, General David Petraeus. Mit zunehmender Erfahrung begann Jolie humanitäre Probleme auch auf einer politischen Ebene zu thematisieren. Sie nimmt regelmäßig an den Feierlichkeiten zum Weltflüchtlingstag in Washington, D.C. teil und war 2005 und 2006 Gastrednerin auf dem Weltwirtschaftsforum in Davos. Daneben versucht sie, Einfluss auf die Gesetzgebung in Washington zu nehmen. Sie traf sich seit 2003 mindestens zwanzig Mal mit Kongressabgeordneten und Senatoren. Sie erklärte: „Auch wenn ich es vorziehen würde, nie nach Washington kommen zu müssen, ist das der Ort, um etwas zu bewegen.“ Jolie unterstützte unter anderem ein Gesetz zum Schutz von minderjährigen Asylbewerbern und sie war im März 2005 an der Gründung einer nationalen Organisation beteiligt, die minderjährige Asylbewerber, die ohne Eltern oder Verwandte in die USA einreisen, kostenlos vor Gericht vertritt; Jolie finanzierte die Einrichtung mit einer Spende von 500.000 US-Dollar für die ersten zwei Jahre. Daneben unterstützte sie verschiedene Gesetzesvorhaben des US-Kongresses, die Entwicklungshilfe für Kinder in der Dritten Welt zu verbessern. Neben ihren politischen Aktivitäten begann Jolie, das öffentliche Interesse an ihrer Person darauf zu verwenden, humanitäre Probleme in den Massenmedien zu platzieren. Im Mai 2005 filmte sie die MTV-Sendung, "The Diary Of Angelina Jolie & Dr. Jeffrey Sachs in Africa", eine Dokumentation, die sie und den bekannten Wirtschaftswissenschaftler Jeffrey Sachs auf einer Reise nach Sauri, einer entlegenen Gruppe von Dörfern im westlichen Kenia, begleitete. Dort arbeitet Sachs’ Team des UN-Millennium-Projekts mit Einheimischen zusammen, um Armut, Hunger und Krankheiten zu beenden. Im September 2006 verkündete Jolie die Schaffung der Jolie/Pitt Foundation; die Stiftung tätigte zur Gründung zwei Spenden von jeweils einer Million US-Dollar an Global Action for Children und Ärzte ohne Grenzen. Jolie erntete breite Anerkennung für ihre humanitäre Arbeit. 2003 war sie die erste Preisträgerin des neu geschaffenen "Citizen of the World Award" des Verbandes der UNO-Korrespondenten und 2005 erhielt Jolie den "Global Humanitarian Award" von der UNA-USA, einer amerikanischen Einrichtung zur Unterstützung der UNO. Kambodschas König Norodom Sihamoni verlieh Jolie am 12. August 2005 die kambodschanische Staatsbürgerschaft als Dank für ihre Arbeit zur Erhaltung der Umwelt in seinem Land; sie sicherte fünf Millionen US-Dollar zu, um die Tierwelt innerhalb eines Nationalparks in der nordwestlichen Provinz Battambang zu erhalten, in der sie ein Haus besitzt. 2007 wurde Jolie Mitglied des Council on Foreign Relations und mit dem "Freedom Award" des International Rescue Committee ausgezeichnet. Im Jahr 2010 unterstützte die Schauspielerin die Initiative Ein Logo für Menschenrechte. Im April 2012 wurde Jolie zur Ehrenbürgerin Sarajevos ernannt. In der Begründung hieß es, sie habe mit ihrem Regiedebüt "In the Land of Blood and Honey" dazu beigetragen, ein Stück Geschichte zu wahren und „die Prinzipien der Menschlichkeit, Demokratie, ebenso wie die Toleranz und die Solidarität von Menschen unterschiedlicher ethnischer Herkunft, Religion und kulturellem Hintergrund zu schützen.“ Am 16. November 2013 wurde Angelina Jolie bei den Governors Awards in Los Angeles mit dem Jean Hersholt Humanitarian Award („Ehrenoscar“) für ihr humanitäres Engagement u. a. als Sondergesandte des UN-Flüchtlingshochkommissariats ausgezeichnet. Nach dem Erscheinen ihres Films "In the Land of Blood and Honey" führte Jolie zusammen mit dem britischen Außenminister William Hague eine zweijährige Kampagne gegen Vergewaltigung als Kriegstaktik, die im Juni 2014 mit einer Gipfelkonferenz in London abgeschlossen wurde. Ziel der Kampagne war es, die Verdrängung und Banalisierung des Themas zu beenden und die Weltgemeinschaft zum Engagement gegen sexuelle Gewalt in Konflikten aufzurufen. Aufgrund ihres Engagements wurde Angelina Jolie 2014 von Königin Elizabeth II. mit dem Ordenszeichen Honorary Dame Commander des Most Distinguished Order of St. Michael and St. George geehrt. Privatleben. Am 28. März 1996 heiratete Jolie den britischen Schauspieler Jonny Lee Miller, den sie während der Dreharbeiten zu "Hackers – Im Netz des FBI" kennengelernt hatte. Jolie und Miller trennten sich nur ein Jahr später und wurden schließlich am 3. Februar 1999 formell geschieden. Die beiden blieben jedoch befreundet, und Jolie erklärte später: „Es kommt auf das richtige Timing an. Ich denke, er ist der beste Ehemann, den sich ein Mädchen wünschen kann. Ich werde ihn immer lieben – wir waren einfach zu jung.“ Während der Dreharbeiten zu "Foxfire" (1996) ging Jolie eine sexuelle Beziehung mit ihrer Filmpartnerin Jenny Shimizu ein. Als sie in einem Interview mit Barbara Walters im Jahr 2003 gefragt wurde, ob sie bisexuell sei, antwortete Jolie: „Natürlich. Wenn ich mich morgen in eine Frau verlieben würde, fände ich es in Ordnung, sie küssen und berühren zu wollen. Wenn ich mich in sie verliebte? Absolut, ja!“ Am 5. Mai 2000 heiratete Jolie den 20 Jahre älteren Schauspieler Billy Bob Thornton, ihren Filmpartner aus "Turbulenzen – und andere Katastrophen". Am 10. März 2002 adoptierte Jolie einen kambodschanischen Jungen (* 5. August 2001) aus einem Waisenhaus in Phnom Penh und gab ihm den Namen Maddox Chivan. Nach der Scheidung von Thornton am 27. Mai 2003 erhielt Jolie das alleinige Sorgerecht. Über das plötzliche Ende ihrer Ehe befragt, antwortete sie: „Es hat mich selbst überrascht, fast über Nacht änderten wir uns völlig. Ich denke, irgendwann hatten wir einfach nichts mehr gemeinsam. Es ist unheimlich, aber … ich denke, dass es geschehen kann, wenn man sich aufeinander einlässt und sich selbst noch nicht kennt.“ Im Juli 2002 reichte Jolie einen Antrag auf Namensänderung ein, um Voight als Familiennamen zu streichen und ihren bürgerlichen Namen in Angelina Jolie zu ändern; die Änderung wurde am 12. September 2002 offiziell bestätigt. Im August desselben Jahres sagte Jon Voight im US-amerikanischen Fernsehen, seine Tochter habe „ernste emotionale Schwierigkeiten“. Jolie erklärte 2004, sie sei nicht länger an einer Beziehung zu ihrem Vater interessiert, und sagte: „Mein Vater und ich sprechen nicht miteinander. Ich ärgere mich nicht über ihn. Ich glaube nicht daran, dass man als Familie blutsverwandt sein muss, denn mein Sohn ist adoptiert, und eine Familie muss man sich verdienen.“ Sie gab an, dass sie die genauen Gründe für die Entfremdung von ihrem Vater nicht öffentlich machen wolle, aber sie glaube, es sei schädlich für sie, sich weiterhin mit ihrem Vater einzulassen, da sie gerade ihren Sohn adoptiert habe. Im Frühjahr 2005 geriet Jolie ins Visier der Boulevardpresse. Sie sei der Trennungsgrund des Schauspielerehepaares Brad Pitt und Jennifer Aniston. Die Boulevardmedien spekulierten, ob sie und Pitt während der Dreharbeiten von "Mr. & Mrs. Smith" eine Affäre begonnen hätten. Jolie bestritt dies in verschiedenen Interviews. 2005 erklärte sie: „Mit einem verheirateten Mann intim zu sein, obwohl mein eigener Vater meine Mutter betrogen hat, könnte ich nicht verzeihen. Ich könnte danach morgens nicht mehr in den Spiegel sehen. Ich fände keinen Mann attraktiv, der seine Frau betrügt.“ Am 6. Juli 2005 adoptierte Jolie einen Säugling aus einem Waisenhaus in Addis Abeba und gab dem äthiopischen Mädchen (* 8. Januar 2005) den Namen Zahara Marley. Nach einem Jahr intensiver Berichterstattung der Boulevardmedien, in dem sich beide – auch nach der Scheidung Pitts von Aniston im Oktober 2005 – nie zum Wesen ihrer Beziehung geäußert hatten, offenbarte Jolie am 11. Januar 2006 gegenüber "People", dass sie von Pitt ein Kind erwarte, und bestätigte damit zum ersten Mal in der Öffentlichkeit indirekt ihre Beziehung. Kurz darauf wurde die von Pitt beantragte Adoption von Jolies Adoptivkindern rechtsgültig. Die erste leibliche Tochter des Paares wurde am 27. Mai 2006 in Namibia geboren. Für die Erlaubnis zur Veröffentlichung der ersten Fotos von Shiloh Nouvel Jolie-Pitt zahlte die Zeitschrift "People" dem Paar 4,1 Mio. US-Dollar – den bis dahin höchsten Preis für sogenannte „Celebrity-Fotos“. Am 15. März 2007 adoptierte Jolie – wegen des vietnamesischen Adoptionsrechts zunächst allein – einen Jungen (* 29. November 2003) aus einem Waisenhaus in Ho-Chi-Minh-Stadt. Ein Jahr später wurde auch Pitts Adoption von Pax Thien rechtskräftig. Beim Filmfestival von Cannes im Mai 2008 bestätigte Jolie ihre Schwangerschaft mit Zwillingen. Knox Léon und Vivienne Marcheline Jolie-Pitt wurden am 12. Juli 2008 in Nizza geboren. Die Rechte an den ersten öffentlichen Fotos der Zwillinge gingen für 14 Millionen US-Dollar erneut an das People Magazine, womit sie ihren eigenen Rekord der teuersten „Celebrity-Fotos“ von 2006 überboten. Am 14. Mai 2013 veröffentlichte Jolie im Op-Ed der "New York Times" einen Debattenbeitrag mit dem Titel "My Medical Choice", in dem sie davon berichtete, dass sie sich einer beidseitigen prophylaktischen Mastektomie unterzogen habe, um ihr hohes individuelles Brustkrebsrisiko zu minimieren. Ohne Operation habe ihr Risiko, an Brustkrebs zu erkranken, aufgrund einer Mutation im BRCA1-Gen 87 % betragen. Ihr Risiko eines Eierstockkrebses sei auf 50 % geschätzt worden. Die Berichterstattung bewirkte, dass sich Frauen weltweit vermehrt für Brust-Diagnostik und genetische Beratung interessierten ("Jolie-Effekt"). Am 24. März 2015 veröffentlichte Jolie unter dem Titel "Diary of a Surgery" einen weiteren Gastbeitrag in der "New York Times", in dem sie mitteilte, dass sie sich inzwischen auch einer prophylaktischen Entfernung beider Eierstöcke und der Eileiter unterzogen habe. Nachdem die Managerin von Pitt im April 2012 bereits die Verlobung des Paares bekannt gegeben hatte, heirateten Jolie und Pitt am 23. August 2014 auf ihrem Weingut Château Miraval an der Côte d’Azur im Beisein von Familie und Freunden. Jolies bürgerlicher Name lautet seit der Eheschließung "Angelina Jolie Pitt". Angelina Jolie hat mehrere Tätowierungen auf ihrem Körper, darunter seit Frühjahr 2003 auch ein traditionelles Khmer-Tattoo, das Unglück und Unfälle abwenden soll. Medienpräsenz. Jolie ist heute eine der bekanntesten Persönlichkeiten weltweit. Laut Q-Score-Index von Marketing Evaluations Inc. kannten Jolie nach ihrem Oscargewinn 31 % der Befragten in den Vereinigten Staaten im Jahr 2000, 2006 war sie bereits für 81 % aller Amerikaner ein Begriff. In einer globalen Studie auf 42 internationalen Märkten von ACNielsen aus dem Jahr 2006 wurde Jolie zusammen mit Brad Pitt zur weltweit bevorzugten Werbeträgerin für Marken und Produkte ermittelt. Daneben wurde Jolie 2006 und 2008 von Time in deren jährliche Liste der 100 einflussreichsten Personen der Welt aufgenommen. Vom US-amerikanischen Wirtschaftsmagazin Forbes wurde Jolie auf der sogenannten „Celebrity 100“, einer Rangliste der einflussreichsten Prominenten, 2006 auf Position 35 und 2007 auf Rang 14 geführt. Im Februar 2007 wurde sie im Rahmen der britischen Fernsehshow "The 100 Greatest Sex Symbols" vor Elvis Presley und Marilyn Monroe zum größten Sexsymbol aller Zeiten gewählt. 2008 wählten die Leser der deutschen FHM Jolie auf einer Liste der 100 schönsten Frauen auf Platz 12. 2008 zählte Jolie laut Forbes Magazine zu den am besten verdienenden Schauspielerinnen in Hollywood. Zwischen Juni 2007 und Juni 2008 erhielt sie Gagen in Höhe von 14 Mio. US-Dollar. 2011 hatte sie in einem neuerlichen Forbes-Ranking die Spitzenposition durch ihr Mitwirken in "Salt" und "The Tourist" (30 Mio. US-Dollar) gemeinsam mit Sarah Jessica Parker inne. Das Ausmaß der Berichterstattung über Angelina Jolie wird auch daran deutlich, dass die Schauspielerin zwischen Mai 2011 und Mai 2012 auf den Titelblättern von mindestens 78 Zeitschriften zu sehen war. Filmografie. Die deutsche Synchronstimme von Jolie ist seit dem Jahr 2000 bis auf wenige Ausnahmen Claudia Urbschat-Mingues. Auszeichnungen für ihre Leistungen als Schauspielerin. Academy Award of Merit („Oscar“) British Academy Film Award Golden Globe Award Nickelodeon Kids’ Choice Awards National Board of Review Award Screen Actors Guild Award Negativpreise Archimedes. Archimedes (griechisch Ἀρχιμήδης) von Syrakus (* um 287 v. Chr. vermutlich in Syrakus auf Sizilien; † 212 v. Chr. ebenda) war ein griechischer Mathematiker, Physiker und Ingenieur. Er gilt als einer der bedeutendsten Mathematiker der Antike. Seine Werke waren auch noch im 16. und 17. Jahrhundert bei der Entwicklung der höheren Analysis von Bedeutung. Leben. Über das Leben des Archimedes ist wenig bekannt und vieles gilt als Legende. Archimedes, geboren ca. 287 v. Chr. in der Hafenstadt Syrakus, war der Sohn des Pheidias, eines Astronomen am Hof Hierons II. von Syrakus. Mit diesem und dessen Sohn und Mitregenten Gelon II. war er befreundet und möglicherweise verwandt. Bei einem längeren Aufenthalt in Alexandria lernte Archimedes die dortigen Mathematiker Konon, Dositheos und Eratosthenes kennen, mit denen er später weiter korrespondierte. Nach Syrakus zurückgekehrt, betrieb er Mathematik und praktische Physik (Mechanik). Seine Wurfmaschinen wurden bei der Verteidigung von Syrakus gegen die römische Belagerung im Zweiten Punischen Krieg eingesetzt. Bei der Eroberung von Syrakus 212 v. Chr. nach dreijähriger Belagerung durch den römischen Feldherrn M. Claudius Marcellus wurde er sehr zum Bedauern von Marcellus, der ihn lebend gefangensetzen wollte, von einem römischen Soldaten getötet. Über die Umstände referiert Plutarch in seiner Biographie des Marcellus mehrere überlieferte Versionen, nach einer war er mit einem mathematischen Beweis beschäftigt und forderte einen beim Plündern der Stadt eindringenden Soldaten auf, ihn nicht zu stören, worauf der ihn erschlug. Sprichwörtlich wurden die Worte "Noli turbare circulos meos" (lateinisch für: „Störe meine Kreise nicht“), die Archimedes dabei gesprochen haben soll. Nach Plutarch (Marcellus 17,12) hatte Archimedes sich testamentarisch ein Grab mit der Darstellung von Kugel und Zylinder gewünscht, da er offensichtlich auf seine Abhandlung "perì sphaíras kaì kylíndrou" („Über Kugel und Zylinder“) besonders stolz war. Cicero berichtet in den Tuskulanischen Gesprächen, dass er in seiner Zeit als Quästor in Sizilien (75. v. Chr.) nach dem Grab suchte und es von Gestrüpp zugewuchert fand. Eine von seinem Freund Heracleides geschriebene Biographie ist nicht erhalten. Die Schriften des Archimedes. Die hier angegebene Reihenfolge der Hauptschriften bis zur "Sandrechnung" entspricht der chronologischen Reihenfolge, wie sie von Thomas Heath angegeben wurde, wobei die "Quadratur der Parabel" zwischen den Büchern 1 und 2 von "Gleichgewicht ebener Flächen" eingeordnet wurde und "Über die Methode" zwischen "Gleichgewicht ebener Flächen", Buch 2, und "Über Kugel und Zylinder". An der Chronologie gab es aber auch Kritik. In der "Quadratur der Parabel" wird der kürzliche Tod seines Freundes Konon erwähnt, so dass sich diese Schrift um 240 v. Chr. datieren lässt. Nach der erwähnten relativen Datierung sind die meisten Werke des Archimedes erst danach entstanden. Das Buch über Spiralen wurde nach Archimedes Angaben viele Jahre nach dem Tod des Konon geschrieben, so dass es nach Ivo Schneider etwa 230 v. Chr. zu datieren ist. Schneider ordnet die Methodenlehre Ende der 220er Jahre ein und die "Schwimmenden Körper" als letztes Werk in die letzten acht Lebensjahre, aber wohl vor 216 v. Chr. wegen der nachfolgenden Kriegsereignisse. Es gibt Hinweise auf einige heute verloren gegangene Schriften, zum Beispiel über Polyeder und über Hebel (von Pappos erwähnt), über die Darstellung von Zahlen (von Archimedes in seinem "Sandrechner" erwähnt) und über Spiegel ("Catoptrica", von Theon von Alexandria erwähnt). Aus der Unvollständigkeit der "mechanischen Schriften" des Archimedes ("Gleichgewicht ebener Flächen", "Quadratur der Parabel") und mehrerer Hinweise bei Archimedes (und zum Beispiel bei Heron von Alexandria) wurde auf die Existenz verloren gegangener Teile seiner Mechanik geschlossen, die A. G. Drachmann zu rekonstruieren versuchte. Diese teilweise rekonstruierten mechanischen Schriften stehen chronologisch am Anfang der Werke des Archimedes. Es gibt einige Hinweise auf verloren gegangene Schriften des Archimedes in arabischer Übersetzung, so ein Buch über das Parallelenpostulat, das im Bücherkatalog von Ibn al-Nadim aufgeführt ist und möglicherweise die Behandlung des Themas bei Thabit Ibn Qurra beeinflusste. Von Thabit Ibn Qurra stammt auch die Übersetzung einer Abhandlung von Archimedes über die Konstruktion des regulären Heptagons, die erhalten ist. Die Konstruktion darin ist unvollständig, wurde aber von Abu Sahl al-Quhi vervollständigt. Werk. Archimedes war sowohl in der Mathematik als auch im Bereich der heutigen Physik gleichermaßen schöpferisch tätig. Physik. Es wurden ihm auch die Erfindung und Kombination verschiedener Maschinenelemente (wie Schrauben, Seilzüge mit Wellrädern, Flaschenzüge und Zahnräder) zugeschrieben, die er auch praktisch demonstrierte. Nach Plutarch bevorzugte er abstraktes Denken und sah auf praktische Anwendungen und die Arbeiten eines Ingenieurs, obwohl er sich ihnen im Auftrag seines Königs Hieron widmete, mit Verachtung herab. Aus diesem Grund hinterließ er auch keine Abhandlung über praktische Erfindungen. Seine Schriften zur Mechanik und Hydrostatik sind nach dem Vorbild der Geometrie streng axiomatisch aufgebaut. Hebelgesetz. Archimedes formulierte die Hebelgesetze (in seiner Schrift "Über das Gleichgewicht ebener Flächen") und schuf dadurch die theoretische Grundlage für die spätere Entwicklung der Mechanik. Er selbst entwickelte aus dem Hebelgesetz bereits die wissenschaftlichen Grundlagen der Statik für statisch bestimmte Systeme. Die Beschreibung des Hebels selbst findet sich schon in älteren griechischen Schriften aus der Schule des Aristoteles. Er soll (wie Pappos und andere überlieferten) gesagt haben: „Gebt mir einen festen Punkt, und ich hebe die Welt aus den Angeln“. Darauf gründet sich der Begriff des archimedischen Punktes. Als er sich einmal gegenüber Hieron so äußerte, verlangte dieser nach Plutarch einen praktischen Beweis und Archimedes bewerkstelligte unter anderem mit Flaschenzügen (Plutarch) und Seilwinden die Bewegung eines großen voll beladenen Schiffs durch einen einzigen Mann. Archimedisches Prinzip. Nach Vitruv sollte Archimedes den Gold-Gehalt einer vom Herrscher Hieron II. den Göttern geweihten Krone prüfen, ohne sie jedoch zu beschädigen. Der König verdächtigte den Goldschmied, ihn betrogen zu haben. Um die gestellte Aufgabe zu lösen, tauchte er einmal die Krone und dann einen Goldbarren (sowie einen Silberbarren), der genauso viel wog wie die Krone, in einen vollen Wasserbehälter und maß die Menge des überlaufenden Wassers. Die Krone verdrängte mehr Wasser als der Goldbarren. Dadurch war bewiesen, dass die Krone ein kleineres spezifisches Gewicht hatte und daher nicht ganz aus Gold gefertigt war. Archimedes soll der Legende nach das Archimedische Prinzip beim Baden entdeckt haben. Aus dem randvollen Wasserbehälter sei jene Wassermenge ausgelaufen, die er beim Hineinsteigen ins Bad mit seinem Körpervolumen verdrängte. Glücklich über seine Entdeckung soll er mit dem Ausruf „Heureka!“ (altgriechisch:, „Ich hab’s gefunden!“) nackt auf die Straße gelaufen sein. Die Anekdote der Überprüfung des Goldgehalts der Krone Hierons durch Wasserverdrängung ist aber kritisiert worden – es wäre mit den Mitteln der damaligen Zeit schwer durchzuführen gewesen und wahrscheinlich eine Legende. Schon Galileo Galilei vermutete deshalb 1586, Archimedes hätte stattdessen eine Waage benutzt zur Messung der Gewichte unter Auftrieb. Das Archimedische Prinzip kann bei jedem schwimmenden Körper Anwendung finden. Es stellt beim Schiffbau eine zwingend zu berücksichtigende Tatsache dar. Bei seinen hydrostatischen Experimenten entdeckte er das Prinzip der kommunizierenden Gefäße. Flächenberechnungen. Archimedes bewies, dass sich der Umfang eines Kreises zu seinem Durchmesser genauso verhält wie die Fläche des Kreises zum Quadrat des Radius. Er nannte dieses (heute als Pi oder Kreiszahl bezeichnete) Verhältnis noch nicht π (Pi), gab aber eine Anleitung, wie man sich dem Verhältnis bis zu einer beliebig hohen Genauigkeit nähern kann, vermutlich das älteste numerische Verfahren der Geschichte. Mit seinen Überlegungen zur Flächen- und Volumenberechnung (u. a. mit einer exakten Quadratur der Parabel) nahm Archimedes Ideen der Integralrechnung viel später folgender Denker vorweg. Er ging dabei über die Eudoxos von Knidos zugeschriebene Exhaustionsmethode (Ausschöpfungsmethode) hinaus, beispielsweise wandte er bereits eine Form des Prinzips von Cavalieri an. 1906 fand Johan Ludvig Heiberg (1854–1928), ein dänischer Philologe und Professor an der Universität Kopenhagen, in Istanbul ein auf das 10. Jahrhundert datiertes Manuskript, das unter anderem eine Abschrift von Archimedes’ Schrift "Die Methode" enthielt. Darin gibt er eine mechanische Methode preis, mit denen er viele seiner Resultate erzielt hatte, bevor er sie in geometrisch strenger Weise bewies. Die Methode entspricht einem "Wiegen" der zu vergleichenden Volumina bzw. Flächenstücke, allerdings in geometrischer Form. Bei seiner Beschreibung erwähnt Archimedes auch ein älteres Verfahren von Demokrit, bei dem es sich möglicherweise um das Wiegen von Modellen handelt. Stellenwertbasiertes Zahlensystem. Außerdem entwickelte Archimedes ein stellenwertbasiertes Zahlensystem mit der Basis 108. Er benutzte es, um astronomisch große Zahlen (bis zur Größe von 1064) mathematisch fassen zu können – dies in einer Zeit, in der seine Mitwelt eine Myriade (lit. 10.000) bereits mit „unendlich“ gleichsetzte. Anlass dafür war die Abhandlung "Über schwimmende Körper und die Sandzahl", auch kurz "Sandrechner" genannt, die er dem Sohn von Hieron II, Gelon, widmete. Darin heißt es: "„Es gibt Leute, König Geleon, die der Meinung sind, die Zahl des Sandes sei unendlich groß […] Andere glauben zwar nicht, dass die Zahl unendlich sei, aber doch, dass noch keine Zahl genannt worden sei, die seine Menge übertreffen könnte.“ " Da Gelon als König angesprochen wird, entstand die Schrift nach 240 v. Chr., als er Mitregent wurde (und vor Gelons Tod 216 v. Chr.). Er widerlegte diese Vorstellungen, indem er in der Abhandlung die Anzahl der Sandkörner, die alle Strände der Erde bedeckten, abschätzte und "benannte". Er ging sogar noch weiter und berechnete die Anzahl der Sandkörner, die man benötigte, um das ganze Universum mit Sand anzufüllen. Damals stellte man sich das Universum allerdings noch wesentlich kleiner vor – nämlich als Kugel von etwa der Größe unseres Sonnensystems. Archimedes’ Rechnung besagt demnach, dass in eine gedachte Kugel von der Größe unseres Sonnensystems etwa 1064 Sandkörner hineinpassen würden. Archimedisches Axiom. Obwohl nach ihm benannt, stammt das archimedische Axiom nicht von Archimedes, sondern geht auf Eudoxos von Knidos zurück, der dieses Prinzip im Rahmen seiner Größenlehre einführte. Sonstiges. Nach Pappos stammen die Archimedischen Körper von ihm. Technik. Archimedes hat die Technik seiner Zeit und die spätere Entwicklung der Technik, insbesondere der Mechanik, maßgeblich beeinflusst. Er selbst konstruierte allerlei mechanische Geräte, nicht zuletzt auch Kriegsmaschinen. Archimedische Schraube. Archimedes wird die Erfindung der sogenannten "archimedischen Schraube" zugeschrieben, zu der er angeregt wurde, nachdem er bei seinem Studienaufenthalt in Ägypten die dortigen einfachen Vorrichtungen zur Feldbewässerung gesehen hatte. Das Prinzip der archimedischen Schraube kommt heutzutage in modernen Förderanlagen, sogenannten Schneckenförderern zum Einsatz. Ein Gemälde der "Kralle von Archimedes" Möglicherweise wurde sie von Archimedes als Lenzpumpe für Schiffe entwickelt, denn nach Athenäus von Naukratis beauftragte König Hieron Archimedes mit dem Bau des größten Schiffs der damaligen Zeit, der Syracusia. Kriegsmaschinen bei der Belagerung von Syrakus. Archimedes soll nach Plutarch die Römer bei ihrer langwierigen Belagerung mit den von ihm entwickelten Kriegsmaschinen aufgehalten haben: So entwickelte er beispielsweise Wurfmaschinen und Katapulte oder auch Seilwinden, welche ein komplettes Schiff, voll beladen und mit gesamter Besatzung, durch Ziehen an einem einzigen Seil bewegten. Auch mächtige Greifarme, die feindliche Boote packten und angeblich in Stücke rissen, gehörten dazu. Die "Kralle von Archimedes" soll eine Waffe gegen angreifende Flotten gewesen sein, die in der Stadtmauer von Syrakus eingebaut war und bei dessen Belagerung gegen die Römische Flotte eingesetzt wurde. Die genaue Funktion dieser Waffe ist allerdings unklar. In alten Schriften wird die Waffe als ein Hebel mit einem großen Eisenhaken dargestellt. a>. Die Darstellung zeigt, wie Archimedes römische Schiffe mit Hilfe von Parabolspiegeln in Brand gesetzt haben soll. Brennspiegel. Außerdem soll Archimedes die Schiffe der Römer sogar über große Entfernung mit Hilfe von Spiegeln, die das Sonnenlicht umlenkten und fokussierten, in Brand gesteckt haben. Das wird von Lukian von Samosata und später von Anthemios von Tralleis berichtet. Dazu gibt es eine über 300 Jahre währende, heftige Kontroverse. Historisch sprechen die Quellenlage, Übersetzungsfragen ("pyreia" wurde oft mit Brennspiegel übersetzt, obwohl es nur „Entzündung“ heißt und auch Brandpfeile umfasst) und das erst Jahrhunderte spätere Auftauchen der Legende dagegen. Physikalische Gegenargumente sind die notwendige Mindestgröße und Brennweite eines solchen Spiegels, die zu erreichende Mindesttemperatur zur Entzündung von Holz (etwa 300 Grad Celsius) und die Zeit, die das zu entzündende Holzstück konstant beleuchtet bleiben muss. Technische Gegenargumente diskutieren die Herstellbarkeit solcher Spiegel zur damaligen Zeit, die Montage eines Spiegels oder Spiegelsystems und die Bedienbarkeit. Ein moderner Kritiker der Legende war der Pyrotechniker Dennis L. Simms. Zur Machbarkeit wurden mehrfach Experimente durchgeführt. Studenten des Massachusetts Institute of Technology und der University of Arizona haben 2005 erfolgreich mit 127 kleinen Spiegeln ein 30 Meter entferntes Modell einer Schiffswand entzündet, nachdem der Versuch zuvor mit zwei Spiegeln misslungen war. Allerdings musste der Himmel wolkenlos sein und das Schiff für rund 10 Minuten konstant bestrahlt werden. Ein unter Beteiligung der MIT Studenten im Hafen von San Francisco an einem Fischerboot wiederholter Versuch in der Fernsehsendung MythBusters mit 500 Freiwilligen (gesendet im Januar 2006), der zu ähnlichen Ergebnissen kam, wurde deshalb als Fehlschlag eingestuft. Zusätzlich wurde angemerkt, dass das Meer in Syrakus im Osten liegt, die römische Flotte also am Morgen hätte angreifen müssen, und dass Wurfgeschosse und Brandpfeile effektiver gewesen wären. Möglicherweise entstand die Geschichte als Rückschluss aus der verlorenen Schrift von Archimedes "Katóptrika" ("Optik"). Weitere Erfindungen. Nach Cicero (De re publica) brachte Marcellus zwei von Archimedes entwickelte mechanische Planetarien zurück nach Rom. Ähnliche Geräte wurden nach Cicero schon von Eudoxos von Knidos und Thales von Milet gebaut und archäologische Beweise für solche Instrumente fanden sich später im Antikythera-Mechanismus. Möglicherweise handelt die verloren gegangene, von Pappos erwähnte Schrift des Archimedes "Über die Herstellung von Sphären" vom Bau von Planetarien. Ihm wird auch die Erfindung eines Odometers zugeschrieben. Ein entsprechendes Odometer mit einem Zählmechanismus mit Bällen wurde von Vitruv beschrieben. Vitruv verrät den Erfinder nicht (nur, dass er von den "Alten" überliefert wurde), doch wurde auch hier Archimedes als Erfinder vermutet. Auch ein Wasseruhr-Mechanismus, der Bälle als Zähl-Hilfsmittel freigibt, beschrieben in einem arabischen Manuskript, wurde ihm zugeschrieben. Leonardo da Vinci und Petrarca (der sich auf eine Cicero Handschrift berief) schrieben Archimedes die Erfindung einer Dampfkanone zu. Leonardo fertigte auch Rekonstruktionsskizzen für die von ihm Architronito genannte Maschine an. Es gab später Versuche von Nachbauten, wie von dem Griechen Ioannis Sakas 1981 und dem italienischen Ingenieur Cesare Rossi von der Universität Neapel 2010. Rossi gab dort auch den Brennspiegeln eine neue Interpretation – sie hätten demnach die Hitze für die Dampferzeugung geliefert. In den überlieferten antiken Schriften von und über Archimedes finden sich dafür aber keine Hinweise und Experten wie Serafina Cuomo sehen darin nur einen weiteren Beweis für den legendären Ruf von Archimedes, dem man alle möglichen Erfindungen zuschrieb. Prinzipiell war den Griechen die Dampfkraft bekannt (Heronsball, 1. Jahrhundert n. Chr.). Überlieferung. Die Kenntnis der Werke des Archimedes war trotz seiner von Legenden gespeisten Bekanntheit in der Antike nicht sehr verbreitet, im Gegensatz etwa zu Euklid, der sein Buch im damaligen wissenschaftlichen Zentrum Alexandria zusammenstellte. Allerdings wird er von den Mathematikern Heron, Pappos und Theon in Alexandria häufig erwähnt. Die Schriften wurden zwischen dem 6. und 10. Jahrhundert in Byzanz systematisch gesammelt und kommentiert. Bekannt ist der Kommentar des Eutokios (der von Ende des 5. Jahrhunderts bis Anfang des 6. Jahrhunderts lebte) zu den wichtigsten Archimedes-Schriften (Über Kugel und Zylinder, Kreismessung, Gleichgewicht ebener Flächen), der auch im Mittelalter in Westeuropa viel zur Kenntnis der Werke beitrug und anregend wirkte. Bei der ersten Zusammenstellung der Schriften in Byzanz spielten die Architekten der Hagia Sophia Isidor von Milet und Anthemios von Tralleis eine wichtige Rolle. Weitere Schriften kamen hinzu, bis im 9. Jahrhundert Leon von Thessaloniki die als Kodex A (Heiberg) bekannte Sammlung fast aller überlieferten Archimedischen Schriften (außer Stomachion, Rinderproblem, Über die Methode und Über schwimmende Körper) herausbrachte. Das war eine der beiden Quellen für die lateinischen Übersetzungen von Wilhelm von Moerbeke (abgeschlossen 1269). Das andere ihm zur Verfügung stehende griechische Manuskript des Archimedes enthielt Gleichgewicht ebener Flächen, Quadratur der Parabel, Über schwimmende Körper, vielleicht auch Über Spiralen und wurde von Heiberg Kodex B genannt. Das 1906 von Heiberg entdeckte Archimedes Palimpsest (Kodex C, das vorher in Jerusalem war, es enthielt Über die Methode, Stomachion und Über Schwimmende Körper) war den Übersetzern in Mittelalter und Renaissance unbekannt. Die Kodices A und B kamen aus dem Besitz der normannischen Könige in Sizilien in den Vatikan, wo Moerbeke sie für seine Übersetzung benutzte. Während Moerbekes Übersetzungs-Manuskript im Vatikan erhalten ist, ist Kodex B verloren. Von Kodex A sind dagegen mehrere Abschriften erhalten (neun sind bekannt), die zum Beispiel im Besitz von Kardinal Bessarion (heute in der Biblioteca Marciana) und Giorgio Valla waren. Das Original von Kodex A ist ebenfalls verschwunden. Die Übersetzungen Wilhelms von Moerbeke regten insbesondere die Gelehrten der Pariser Schule an (Nicole Oresme, Johannes de Muris). Es gibt auch eine arabische Textüberlieferung. Archimedes' wichtigste Werke "Über Kugel und Zylinder" und "Über Kreismessung" wurden schon im 9. Jahrhundert ins Arabische übersetzt und mindestens bis ins 13. Jahrhundert immer wieder neu herausgegeben. Sie wirkten auch ab dem 12. Jahrhundert im Westen. Insbesondere eine Übersetzung der Kreismessung aus dem Arabischen ins Lateinische, die wahrscheinlich von Gerhard von Cremona (12. Jahrhundert) stammt, war im Mittelalter einflussreich. Von ihm stammt auch eine lateinische Übersetzung eines Traktats der Banū Mūsā Brüder, das weitere Ergebnisse von Archimedes enthielt: neben Kreismessung und Satz des Heron (den die Araber häufig Archimedes zuschrieben) Teile aus "Über Kugel und Zylinder". Dieses als "Verba filiorum" bekannte Manuskript regte zum Beispiel auch Leonardo Fibonacci und Jordanus Nemorarius an. Beide wirkten als Mathematiker vor der Zeit, in der Moerbekes Übersetzung entstand. Um 1460 ließ Papst Nikolaus V. von Jakob von Cremona eine neue Übersetzung ins Lateinische anfertigen, basierend auf Kodex A. Sie enthielt auch die von Moerbeke noch nicht übersetzten Teile des Werks (Sandrechner und Kommentar des Eutokios zur Kreismessung). Da ihm Kodex B nicht zur Verfügung stand, enthält die Ausgabe nicht "Über schwimmende Körper". Diese Übersetzung wurde unter anderem von Nikolaus von Kues benutzt. Die erste gedruckte Ausgabe (von Auszügen abgesehen, die Giorgio Valla 1501 druckte) waren die lateinischen Übersetzungen von Kreismessung und Quadratur der Parabel von Luca Gaurico in Venedig 1503 (nach einem Manuskript aus Madrid). Sie wurden 1543 von Nicolo Tartaglia wieder veröffentlicht zusammen mit Moerbekes Übersetzungen von "Gleichgewicht ebener Flächen" und "Über schwimmende Körper". Die erste Ausgabe des griechischen Textes erschien 1544 in Basel (herausgegeben von Thomas Venatorius, deutsch Gechauff) zusammen mit einer lateinischen Übersetzung von Jakob von Cremona (korrigiert von Regiomontanus). Die Ausgabe enthielt auch die Kommentare von Eutokios. Für den lateinischen Text benutzte er eine von Regiomontanus um 1468 nach Deutschland gebrachte Abschrift der Übersetzung von Jakob von Cremona (bearbeitet von Regiomontanus) sowie für den griechischen Text eine von Willibald Pirckheimer aus Rom nach Nürnberg gebrachte Handschrift. Sie war eine Abschrift von Kodex A, weshalb in dieser "Editio Princeps"-Ausgabe auch "Über Schwimmende Körper" fehlt. 1558 erschien eine lateinische Übersetzung einiger Hauptschriften von Federicus Commandinus in Venedig. Wichtige weitere Ausgaben vor der Heiberg-Ausgabe waren von D´Rivault (Paris 1615), der nur die Propositionen auf Griechisch bringt und die Beweise in Latein, und von Giuseppe Torelli (Oxford 1794). Sonstiges. Ein Bildnis von Archimedes ist auf der höchsten Mathematikerauszeichnung, der Fields-Medaille, eingraviert. Ihm zu Ehren wurde auf dem Mare Imbrium ein Mondkrater "Archimedes" genannt; siehe Archimedes (Mondkrater). Aristoteles. Aristoteles (altgriechisch: Ἀριστοτέλης "Aristotélēs", Betonung lateinisch und deutsch: Aristóteles; * 384 v. Chr. in Stageira; † 322 v. Chr. in Chalkis) gehört zu den bekanntesten und einflussreichsten Philosophen der Geschichte. Sein Lehrer war Platon, doch hat Aristoteles zahlreiche Disziplinen entweder selbst begründet oder maßgeblich beeinflusst, darunter Wissenschaftstheorie, Logik, Biologie, Physik, Ethik, Staatstheorie und Dichtungstheorie. Aus seinem Gedankengut entwickelte sich der Aristotelismus. Porträt des Aristoteles, römische Kopie, geschaffen nach dem Original von Lysippos, Paris, Louvre Ma 80bis __TOC__ Leben. Mit 17 Jahren trat Aristoteles 367 v. Chr. in Platons Akademie in Athen ein. Dort beteiligte er sich an Forschung und Lehre. Nach Platons Tod verließ er 347 Athen. 343/342 wurde er Lehrer des makedonischen Thronfolgers, Alexander des Großen. 335/334 kehrte er nach Athen zurück. Er gehörte nun nicht mehr der Akademie an, sondern lehrte und forschte selbständig mit seinen Schülern im Lykeion. 323/322 musste er wegen politischer Spannungen Athen erneut verlassen und begab sich nach Chalkis, wo er bald darauf verstarb. Werk. In den logischen Schriften arbeitet Aristoteles auf der Grundlage von Diskussionspraktiken in der Akademie eine Argumentationstheorie (Dialektik) aus und begründet mit der Syllogistik die formale Logik. Auf der Basis seiner Syllogistik erarbeitet er eine Wissenschaftstheorie und liefert unter anderem bedeutende Beiträge zur Definitionstheorie und Bedeutungstheorie. Die Rhetorik beschreibt er als die Kunst, Aussagen als plausibel zu erweisen, und rückt sie damit in die Nähe der Logik. Vermögen der Seele nach der Nikomachischen Ethik Aristoteles’ Naturphilosophie thematisiert die Grundlagen jeder Naturbetrachtung: die Arten und Prinzipien der Veränderung. Der damals aktuellen Frage, wie Entstehen und Vergehen möglich ist, begegnet er mit Hilfe seiner bekannten Unterscheidung von Form und Materie: Dieselbe Materie kann unterschiedliche Formen annehmen. In seinen naturwissenschaftlichen Werken untersucht er auch die Teile und die Verhaltensweisen der Tiere sowie des Menschen und ihre Funktionen. In seiner Seelenlehre – in der „beseelt sein“ „lebendig sein“ bedeutet – argumentiert er, dass die Seele, die die verschiedenen vitalen Funktionen von Lebewesen ausmache, dem Körper als seine Form zukomme. Er forscht aber auch empirisch und liefert bedeutende Beiträge zur zoologischen Biologie. In seiner Metaphysik argumentiert Aristoteles (gegen Platons Annahme von abstrakten Entitäten) zunächst dafür, dass die konkreten Einzeldinge (wie Sokrates) die Substanzen, d. h. das Grundlegende aller Wirklichkeit sind. Dies ergänzt er um seine spätere Lehre, wonach die Substanz konkreter Einzeldinge ihre Form ist. Das Ziel des menschlichen Lebens, so Aristoteles in seiner Ethik, ist das gute Leben, das Glück. Für ein glückliches Leben muss man Verstandestugenden und (durch Erziehung und Gewöhnung) Charaktertugenden ausbilden, wozu ein entsprechender Umgang mit Begierden und Emotionen gehört. Seine politische Philosophie schließt an die Ethik an. Demnach ist der Staat als Gemeinschaftsform eine Voraussetzung für das menschliche Glück. Aristoteles fragt nach den Bedingungen des Glücks und vergleicht zu diesem Zweck unterschiedliche Verfassungen. Die Staatsformenlehre, die er entwickelt hat, genoss über viele Jahrhunderte unangefochtene Autorität. In seiner Theorie der Dichtung behandelt Aristoteles insbesondere die Tragödie, deren Funktion aus seiner Sicht darin besteht, Furcht und Mitleid zu erregen, um beim Zuschauer eine Reinigung von diesen Emotionen zu bewirken "(katharsis)." Nachwirkung. Das naturwissenschaftliche Forschungsprogramm des Aristoteles wurde nach seinem Tod von seinem Mitarbeiter Theophrastos fortgesetzt, der auch die aristotelische Schule, den Peripatos, im juristischen Sinne gründete. Die Aristoteles-Kommentierung setzte erst im 1. Jahrhundert v. Chr. ein und wurde insbesondere von Platonikern betrieben. Durch die Vermittlung von Porphyrios und Boethius wurde die aristotelische Logik für das lateinischsprachige Mittelalter wegweisend. Seit dem 12./13. Jahrhundert lagen alle grundlegenden Werke des Aristoteles in lateinischer Übersetzung vor. Sie waren für den Wissenschaftsbetrieb der Scholastik bis in die Frühe Neuzeit maßgeblich. Die Auseinandersetzung mit der aristotelischen Naturlehre prägte die Naturwissenschaft des Spätmittelalters und der Renaissance. Im arabischsprachigen Raum war Aristoteles im Mittelalter der am intensivsten rezipierte antike Autor. Sein Werk hat auf vielfältige Weise die Geistesgeschichte geprägt; wichtige Unterscheidungen und Begriffe wie „Substanz“, „Akzidenz“, „Materie“, „Form“, „Energie“, „Potenz“, „Kategorie“, „Theorie“ und „Praxis“ gehen auf Aristoteles zurück. Leben. Aristoteles wurde 384 v. Chr. in Stageira, einer damals selbständigen ionischen Kleinstadt an der Ostküste der Chalkidike, geboren. Daher wird er mitunter „der Stagirit“ genannt. Sein Vater Nikomachos war Leibarzt des Königs Amyntas III. von Makedonien, seine Mutter Phaestis stammte aus einer Arztfamilie von Chalkis auf Euboia. Nikomachos starb, bevor Aristoteles volljährig wurde. Proxenos aus Atarneus wurde zum Vormund bestimmt. 367 v. Chr. kam Aristoteles als Siebzehnjähriger nach Athen und trat in Platons Akademie ein. Dort beschäftigte er sich zunächst mit den mathematischen und dialektischen Themen, die den Anfang der Studien in der Akademie bildeten. Schon früh begann er Werke zu verfassen, darunter Dialoge nach dem Vorbild derjenigen Platons. Er setzte sich auch mit der zeitgenössischen Rhetorik auseinander, insbesondere mit dem Unterricht des Redners Isokrates. Gegen das auf unmittelbaren Nutzen abzielende pädagogische Konzept des Isokrates verteidigte er das platonische Erziehungsideal der philosophischen Schulung des Denkens. Er nahm eine Lehrtätigkeit an der Akademie auf. In diesem Zusammenhang entstanden als Vorlesungsmanuskripte die ältesten seiner überlieferten Lehrschriften, darunter die logischen Schriften, die später unter der Bezeichnung "Organon" („Werkzeug“) zusammengefasst wurden. Einige Textstellen lassen erkennen, dass der Hörsaal mit Gemälden geschmückt war, die Szenen aus dem Leben von Platons Lehrer Sokrates zeigten. Nach Platons Tod verließ Aristoteles 347 v. Chr. Athen. Möglicherweise war er nicht damit einverstanden, dass Platons Neffe Speusippos die Leitung der Akademie übernahm; außerdem war er in politische Schwierigkeiten geraten. Im Jahr 348 v. Chr. hatte König Philipp II. von Makedonien die Chalkidike erobert, Olynthos zerstört und auch Aristoteles’ Heimatstadt Stageira eingenommen. Dieser Feldzug wurde von der antimakedonischen Partei in Athen als schwere Bedrohung der Unabhängigkeit Athens erkannt. Wegen der traditionellen Verbundenheit der Familie des Aristoteles mit dem makedonischen Hof richtete sich die antimakedonische Stimmung auch gegen ihn. Da er kein Athener Bürger, sondern nur ein Metöke von zweifelhafter Loyalität war, war seine Stellung in der Stadt relativ schwach. Er folgte einer Einladung des Hermias, der die Städte Assos und Atarneus an der kleinasiatischen Küste gegenüber der Insel Lesbos beherrschte. Zur Sicherung seines Machtbereichs gegen die Perser war Hermias mit Makedonien verbündet. In Assos fanden auch andere Philosophen Zuflucht. Der sehr umstrittene Hermias wird von der ihm freundlichen Überlieferung als weiser und heldenhafter Philosoph, von der gegnerischen als Tyrann beschrieben. Aristoteles, der mit Hermias befreundet war, blieb zunächst in Assos, aber 345/344 v. Chr. übersiedelte er nach Mytilene auf Lesbos. Dort arbeitete er mit seinem aus Lesbos stammenden Schüler Theophrastos zusammen, der sein Interesse für Biologie teilte. Später begaben sich die beiden nach Stageira. 343/342 v. Chr. ging Aristoteles auf Einladung von Philipp II. nach Mieza, um dessen damals dreizehnjährigen Sohn Alexander (später „der Große“ genannt) zu unterrichten. Der Unterricht endete spätestens 340/339 v. Chr., als Alexander für seinen abwesenden Vater die Regentschaft übernahm. Aristoteles ließ für Alexander eine Abschrift der Ilias anfertigen, die der König als Verehrer des Achilleus später auf seinen Eroberungszügen mit sich führte. Das Verhältnis zwischen Lehrer und Schüler ist nicht näher bekannt; es hat zu Legendenbildung und vielen Spekulationen Anlass gegeben. Sicher ist, dass ihre politischen Überzeugungen grundverschieden waren; ein Einfluss des Aristoteles auf Alexander ist nicht erkennbar. Aristoteles soll am makedonischen Hof den Wiederaufbau seiner zerstörten Heimatstadt Stageira erreicht haben; die Glaubwürdigkeit dieser Nachricht ist aber zweifelhaft. Die Hinrichtung des Hermias durch die Perser 341/340 berührte Aristoteles tief, wie ein dem Andenken des Freundes gewidmetes Gedicht zeigt. Als nach dem Tode des Speusippos 339/338 v. Chr. in der Akademie das Amt des Scholarchen (Schulleiters) frei wurde, konnte Aristoteles nur wegen seiner Abwesenheit an der Wahl des Nachfolgers nicht teilnehmen; er galt somit weiterhin als Akademiemitglied. Später ging er mit seinem Großneffen, dem Geschichtsschreiber Kallisthenes, nach Delphi, um im Auftrag der dortigen Amphiktyonen eine Siegerliste der Pythischen Spiele anzufertigen. Mit der Zerstörung der rebellischen Stadt Theben 335 v. Chr. brach der offene Widerstand gegen die Makedonen in Griechenland zusammen, und auch in Athen arrangierte man sich mit den Machtverhältnissen. Daher konnte Aristoteles 335/334 v. Chr. nach Athen zurückkehren. Er begann dort wieder zu forschen und zu lehren, war aber nun nicht mehr an der Akademie tätig, sondern in einem öffentlichen Gymnasium, dem Lykeion. Dort schuf er eine eigene Schule, deren Leitung nach seinem Tod Theophrastos übernahm. Neue Grabungen haben möglicherweise die Identifizierung des Gebäudekomplexes ermöglicht. Im juristischen Sinne hat aber erst Theophrastos die Schule gegründet und das Grundstück erworben, und die später üblichen Bezeichnungen Peripatos und Peripatetiker speziell für diese Schule sind für die Zeit des Theophrastos noch nicht bezeugt. Die Fülle des Materials, das Aristoteles sammelte (etwa zu den 158 Verfassungen der griechischen Stadtstaaten), lässt darauf schließen, dass er über zahlreiche Mitarbeiter verfügte, die auch außerhalb von Athen recherchierten. Er war wohlhabend und besaß eine große Bibliothek. Sein Verhältnis zu dem makedonischen Statthalter Antipatros war freundschaftlich. Rückzug aus Athen, Tod und Nachkommen Nach dem Tod Alexanders des Großen 323 v. Chr. setzten sich in Athen und anderen griechischen Städten zunächst antimakedonische Kräfte durch. Delphi widerrief ein Aristoteles verliehenes Ehrendekret. In Athen kam es zu Anfeindungen, die ihm ein ruhiges Weiterarbeiten unmöglich machten. Daher verließ er 323/322 v. Chr. Athen. Angeblich äußerte er bei diesem Anlass, dass er nicht wollte, dass die Athener sich ein zweites Mal gegen die Philosophie vergingen (nachdem sie bereits Sokrates zum Tode verurteilt hatten). Er zog sich nach Chalkis auf Euboia in das Haus seiner Mutter zurück. Dort starb er im Oktober 322 v. Chr. Aristoteles war mit Pythias, einer Verwandten seines Freundes Hermias, verheiratet. Von ihr hatte er eine Tochter, die ebenfalls Pythias hieß. Nach dem Tod seiner Gattin wurde Herpyllis, die niedriger Herkunft war, seine Lebensgefährtin; sie war möglicherweise die Mutter seines Sohnes Nikomachos. In seinem Testament, dessen Vollstreckung er Antipatros anvertraute, regelte Aristoteles unter anderem die künftige Verheiratung seiner noch minderjährigen Tochter und traf Vorkehrungen zur materiellen Absicherung von Herpyllis. Werk. "Hinweis: Belege aus Werken des Aristoteles sind folgendermaßen angegeben: Titelangabe (Abkürzungen werden an der ersten Stelle im Kapitel per Link aufgelöst) und gegebenenfalls Buch- und Kapitelangabe sowie Bekker-Zahl. Die Bekker-Zahl gibt eine genaue Stelle im Corpus an. Sie ist in guten modernen Ausgaben vermerkt." Aufgrund von Brüchen und Inkonsequenzen im Werk des Aristoteles ist die Forschung von der früher verbreiteten Vorstellung abgekommen, das überlieferte Werk bildet ein abgeschlossenes, durchkomponiertes System. Diese Brüche gehen vermutlich auf Entwicklungen, Perspektivwechsel und unterschiedliche Akzentuierungen in verschiedenen Kontexten zurück. Da eine sichere chronologische Reihenfolge seiner Schriften nicht bestimmt werden kann, bleiben Aussagen über Aristoteles’ tatsächliche Entwicklung Vermutungen. Zwar bildet sein Werk "de facto" kein fertiges System, doch besitzt seine Philosophie Eigenschaften eines "potentiellen" Systems. Überlieferung und Charakter der Schriften. Verschiedene antike Verzeichnisse schreiben Aristoteles fast 200 Titel zu. Sofern die Angabe des Diogenes Laertios stimmt, hat Aristoteles ein Lebenswerk von über 445.270 Zeilen hinterlassen (wobei in dieser Zahl zwei der umfangreichsten Schriften – die "Metaphysik" und die "Nikomachische Ethik" – vermutlich noch nicht berücksichtigt sind). Nur etwa ein Viertel davon ist überliefert. In der Forschung werden zwei Gruppen unterschieden: "exoterische" Schriften (die für ein breiteres Publikum veröffentlicht worden sind) und "esoterische" (die zum internen Gebrauch der Schule dienten). Alle exoterischen Schriften sind nicht oder nur in Fragmenten vorhanden, die meisten esoterischen überliefert. Die Schrift "Die Verfassung der Athener" galt als verloren und wurde erst Ende des 19. Jahrhunderts in Papyrusform gefunden. Die exoterischen Schriften bestanden vor allem aus Dialogen in der Tradition Platons, z. B. der "Protreptikos" – eine Werbeschrift für die Philosophie –, Untersuchungen wie "Über die Ideen," aber auch propädeutische Sammlungen. Cicero lobt ihren „goldenen Fluss der Rede“. Die auch Pragmatien genannten esoterischen Schriften sind vielfach als Vorlesungsmanuskripte bezeichnet worden; gesichert ist dies nicht und für einige Schriften oder Abschnitte auch unwahrscheinlich. Weitgehend herrscht die Auffassung, dass sie aus der Lehrtätigkeit erwachsen sind. Weite Teile der Pragmatien weisen einen eigentümlichen Stil voller Auslassungen, Andeutungen, Gedankensprünge und Dubletten auf. Daneben finden sich jedoch auch stilistisch ausgefeilte Passagen, die (neben den Dubletten) deutlich machen, dass Aristoteles wiederholt an seinen Texten gearbeitet hat, und die Möglichkeit nahelegen, dass er an die Veröffentlichung mindestens einiger der Pragmatien gedacht hat. Aristoteles setzt bei seinen Adressaten große Vorkenntnisse fremder Texte und Theorien voraus. Verweise auf die exoterischen Schriften zeigen, dass deren Kenntnis ebenfalls vorausgesetzt wird. Nach dem Tod des Aristoteles blieben seine Manuskripte zunächst im Besitz seiner Schüler. Als sein Schüler und Nachfolger Theophrast starb, soll dessen Schüler Neleus die Bibliothek des Aristoteles erhalten und mit dieser – aus Ärger darüber, nicht zum Nachfolger gewählt worden zu sein – mit einigen Anhängern Athen Richtung Skepsis in der Nähe Trojas in Kleinasien verlassen haben. Die antiken Berichte erwähnen eine abenteuerliche und zweifelhafte Geschichte, nach der die Erben des Neleus die Manuskripte zur Sicherung vor fremdem Zugriff im Keller vergruben, wo sie dann aber verschollen blieben. Weitgehend gesichert ist, dass im ersten Jahrhundert v. Chr. Apellikon von Teos die beschädigten Manuskripte erworben und nach Athen gebracht hat und dass sie nach der Eroberung von Athen durch Sulla im Jahr 86 v. Chr. nach Rom gelangt sind. Dessen Sohn beauftragte Mitte des Jahrhunderts Tyrannion, die Manuskripte zu sichten und durch weiteres Material zu ergänzen. Auch wenn mit der Bibliothek des Aristoteles seine Manuskripte jahrhundertelang verschollen waren, ist es unbestritten, dass seine Lehre im Hellenismus mindestens teilweise bekannt war, vor allem durch die exoterischen Schriften und indirekt wohl auch durch Theophrasts Wirken. Daneben müssen einige Pragmatien bekannt gewesen sein, von denen es möglicherweise Abschriften in der Bibliothek des Peripatos gab. Andronikos von Rhodos. Die erste Ausgabe Auf der Grundlage der Arbeit Tyrannions besorgte dessen Schüler Andronikos von Rhodos in der zweiten Hälfte des ersten Jahrhunderts v. Chr. die erste Ausgabe der aristotelischen Pragmatien, die wohl nur zum Teil auf den Manuskripten des Aristoteles beruhte. Die Schriften dieser Edition bilden das Corpus Aristotelicum. Vermutlich gehen einige Zusammenstellungen von zuvor ungeordneten Büchern sowie einige Titel auf diese Ausgabe zurück. Möglicherweise hat Andronikos auch darüber hinaus Eingriffe in den Text – wie etwa Querverweise – vorgenommen. Im Fall der zahlreichen Dubletten hat er möglicherweise verschiedene Texte zum selben Thema hintereinander angeordnet. Die heutige Anordnung der Schriften entspricht weitgehend dieser Ausgabe. Die zu seiner Zeit noch vorliegenden exoterischen Schriften berücksichtigte Andronikos nicht. Sie gingen in der Folgezeit verloren. Heutige Ausgaben beruhen auf Abschriften, die auf die Andronikos-Ausgabe zurückgehen. Mit über 1000 Handschriften ist Aristoteles unter den nichtchristlichen griechischsprachigen Autoren derjenige mit der weitesten Verbreitung. Die ältesten Handschriften stammen aus dem 9. Jahrhundert. Das Corpus Aristotelicum ist wegen seines Umfangs nie vollständig in einem einzigen Codex enthalten. Nach der Erfindung des Buchdrucks erschien 1495–1498 die erste Druckausgabe von Aldus Manutius. Die von Immanuel Bekker 1831 besorgte Gesamtausgabe der Berliner Akademie ist die Grundlage der modernen Aristotelesforschung. Sie beruht auf Kollationen der besten damals zugänglichen Handschriften. Nach ihrer Seiten-, Spalten- und Zeilenzählung (Bekker-Zählung) wird Aristoteles heute noch überall zitiert. Für einige wenige Werke bietet sie noch immer den maßgeblichen Text; die meisten liegen jedoch heute in neuen Einzelausgaben vor. Einteilung der Wissenschaften und Grundlegendes. Einteilung der Wissenschaft bei Aristoteles nach Otfried Höffe Das theoretische Wissen wird um seiner selbst willen gesucht. Praktisches und poietisches Wissen hat einen weiteren Zweck, die (gute) Handlung oder ein (schönes oder nützliches) Werk. Nach der Art der Gegenstände untergliedert er das theoretische Wissen weiter: (i) Die Erste Philosophie („Metaphysik“) behandelt (mit der Substanztheorie, der Prinzipientheorie und der Theologie) Selbstständiges und Unveränderliches, (ii) die Naturwissenschaft Selbstständiges und Veränderliches und (iii) die Mathematik behandelt Unselbständiges und Unveränderliches (Met. VI 1). Eine Sonderstellung scheinen die in dieser Einteilung nicht vorkommenden Schriften zu haben, die erst nach dem Tod des Aristoteles im sogenannten "Organon" zusammengestellt worden sind. Mit dieser Einteilung der Wissenschaften geht für Aristoteles die Einsicht einher, dass jede Wissenschaft aufgrund ihrer eigentümlichen Objekte auch eigene Prinzipien besitzt. So kann es in der praktischen Wissenschaft – dem Bereich der Handlungen – nicht dieselbe Genauigkeit geben wie im Bereich der theoretischen Wissenschaften. Es ist zwar eine Wissenschaft der Ethik möglich, aber ihre Sätze gelten nur in der Regel. Auch kann diese Wissenschaft nicht für alle möglichen Situationen die richtige Handlungsweise vorgeben. Vielmehr vermag die Ethik nur ein nicht-exaktes Wissen im Grundriss zu liefern, das zudem allein noch nicht zu einer erfolgreichen Lebensführung befähigt, sondern hierfür an Erfahrungen und bestehende Haltungen anschließen muss. (EN I 1 1094b12-23) Aristoteles war davon überzeugt, dass die „Menschen für das Wahre von Natur aus hinlänglich begabt sind“ (Rhet. I 1, 1355a15-17). Daher geht er typischerweise zunächst (allgemein oder bei Vorgängern) anerkannte Meinungen "(endoxa)" durch und diskutiert deren wichtigsten Probleme "(aporiai)," um einen möglichen wahren Kern dieser Meinungen zu analysieren (EN VII 2). Auffällig ist seine Vorliebe, in einer Allaussage zu Beginn einer Schrift die Grundlage für die Argumentation zu legen und den spezifischen Gegenstand abzustecken. Sprache, Logik und Wissen. Der Themenbereich Sprache, Logik und Wissen ist vor allem in den Schriften behandelt, die traditionell unter dem Titel "Organon" (griech. Werkzeug, Methode) zusammengestellt sind. Diese Zusammenstellung und ihr Titel stammen nicht von Aristoteles, und die Reihenfolge ist nicht chronologisch. Die Schrift "Rhetorik" gehört dem "Organon" nicht an, steht ihm aber inhaltlich wegen ihrer Art der Behandlung des Gegenstands sehr nahe. Eine Berechtigung für die Zusammenstellung besteht in dem gemeinsamen methodologisch-propädeutischen Charakter. Bedeutungstheorie. Gesprochene und geschriebene Worte sind demnach bei den Menschen verschieden; geschriebene Worte symbolisieren gesprochene Worte. Seelische Widerfahrnisse und die Dinge sind bei allen Menschen gleich; seelische Widerfahrnisse bilden die Dinge ab. Demnach ist die Beziehung von Rede und Schrift zu den Dingen durch Übereinkunft festgelegt, die Beziehung der mentalen Eindrücke zu den Dingen hingegen naturgegeben. Wahrheit und Falschheit kommt erst der Verbindung und Trennung von "mehreren" Vorstellungen zu. Auch die einzelnen Wörter stellen noch keine Verbindung her und können daher je allein nicht wahr oder falsch sein. Wahr oder falsch kann somit erst der ganze Aussage"satz" "(logos apophantikos)" sein. Prädikate und Eigenschaften. Einige sprachlich-logische Feststellungen sind für Aristoteles’ Philosophie fundamental und spielen auch außerhalb der (im weiteren Sinne) logischen Schriften eine bedeutende Rolle. Hierbei geht es insbesondere um das Verhältnis von Prädikaten und (wesentlichen) Eigenschaften. Unter einer Definition versteht Aristoteles primär keine Nominaldefinition (die er auch kennt; siehe An. Post. II, 8–10), sondern eine Realdefinition. Eine Nominaldefinition gibt nur Meinungen an, welche sich mit einem Namen verbinden. Was diesen Meinungen in der Welt zugrunde liegt, gibt die Realdefinition an: eine Definition von X gibt notwendige Eigenschaften von X an und was es heißt, ein X zu sein: das Wesen. Möglicher Gegenstand einer Definition ist damit (nur) das, was ein (universales) Wesen aufweist, insbesondere Arten wie "Mensch." Eine Art wird definiert durch die Angabe einer (logischen) Gattung und der artbildenden Differenz. So lässt sich "Mensch" definieren als "vernunftbegabtes" (Differenz) "Lebewesen" (Gattung). Individuen lassen sich mithin nicht durch Definition erfassen, sondern nur ihrer jeweiligen Art zuweisen. Aristoteles lehrt, dass es zehn nicht aufeinander zurückführbare Aussageweisen gibt, die auf die Fragen "Was ist X?," "Wie beschaffen ist X?," "Wo ist X?" etc. antworten (→ die vollständige Liste). Die Kategorien haben sowohl eine sprachlich-logische als auch eine ontologische Funktion, denn von einem zugrunde liegenden Subjekt "(hypokeimenon)" (z. B. Sokrates) werden einerseits Prädikate ausgesagt, und ihm kommen andererseits Eigenschaften zu (z. B.: weiß, Mensch). Entsprechend stellen die Kategorien die allgemeinsten Klassen sowohl von Prädikaten als auch des Seienden dar. Dabei hebt Aristoteles die Kategorie der Substanz, die notwendig zukommende, wesentliche Prädikate enthält, von den anderen ab, die akzidentelle Prädikate enthalten. Wenn man von Sokrates "Mensch" prädiziert (aussagt), so handelt es sich um eine wesentliche Aussage, die vom Subjekt (Sokrates) angibt, "was" er ist, also die Substanz benennt. Dies unterscheidet sich offensichtlich von einer Aussage wie "Sokrates ist auf dem Marktplatz," mit der man etwas Akzidentelles angibt, nämlich "wo" Sokrates ist (also den Ort benennt). Deduktion und Induktion: Argumenttypen und Erkenntnismittel. Aristoteles unterscheidet zwei Typen von Argumenten oder Erkenntnismitteln: Deduktion "(syllogismos)" und Induktion "(epagôgê)." Die Übereinstimmung mit den modernen Begriffen Deduktion und Induktion ist dabei weitgehend, aber nicht vollständig. Deduktionen und Induktionen spielen in den verschiedenen Bereichen der aristotelischen Argumentationstheorie und Logik zentrale Rollen. Beide stammen ursprünglich aus der Dialektik. Deduktion. Nach Aristoteles besteht eine Deduktion aus Prämissen und einer von diesen verschiedenen Konklusion. Die Konklusion folgt mit Notwendigkeit aus den Prämissen. Sie kann nicht falsch sein, wenn die Prämissen wahr sind. Die Definition der Deduktion "(syllogismos)" ist also weiter als die der (unten behandelten) – traditionell Syllogismus genannten – Deduktion, die aus zwei Prämissen und drei Termen besteht. Aristoteles unterscheidet dialektische, eristische, rhetorische und demonstrative Deduktionen. Diese Formen unterscheiden sich vor allem nach der Art ihrer Prämissen. Induktion. Der Deduktion stellt Aristoteles explizit die Induktion gegenüber; deren Bestimmung und Funktion ist allerdings nicht so klar wie die der Deduktion. Er nennt sie Aristoteles ist klar, dass ein derartiges Übergehen von singulären zu allgemeinen Sätzen ohne weitere Bedingungen nicht logisch gültig ist (An. Post. II 5, 91b34f.). Entsprechende Bedingungen werden beispielsweise in dem ursprünglichen, argumentationslogischen Kontext der Dialektik erfüllt, da der Kontrahent einen durch Induktion eingeführten Allgemeinsatz akzeptieren muss, wenn er kein Gegenbeispiel nennen kann. Vor allem aber hat die Induktion die Funktion, in anderen, nicht folgernden Kontexten durch das Anführen von Einzelfällen das Allgemeine "deutlich" zu machen – sei es als didaktisches, sei es als heuristisches Verfahren. Eine derartige Induktion stellt plausible Gründe dafür bereit, einen allgemeinen Satz für wahr zu halten. Aristoteles rechtfertigt aber nirgends ohne weitere Bedingungen induktiv die Wahrheit eines solchen Satzes. Dialektik: Theorie der Argumentation . Die Dialektik hat demnach keinen bestimmten Gegenstandsbereich, sondern kann universal angewendet werden. Aristoteles bestimmt die Dialektik durch die Art der Prämissen dieser Deduktion. Ihre Prämissen sind anerkannte Meinungen "(endoxa)," das heißt Für dialektische Prämissen ist es unerheblich, ob sie wahr sind oder nicht. Weshalb aber "anerkannte" Meinungen? In ihrer Grundform findet Dialektik in einem argumentativen Wettstreit zwischen zwei Gegnern statt mit genau zugewiesenen Rollen. Auf ein vorgelegtes Problem der Form ‚Ist S P oder nicht?‘ muss der Antwortende sich auf eine der beiden Möglichkeiten als These festlegen. Das dialektische Gespräch besteht nun darin, dass ein Fragender dem Antwortenden Aussagen vorlegt, die dieser entweder bejahen oder verneinen muss. Die beantworteten Fragen gelten als Prämissen. Das Ziel des Fragenden besteht nun darin, mithilfe der bejahten oder verneinten Aussagen eine Deduktion zu bilden, so dass die Konklusion die Ausgangsthese widerlegt oder aus den Prämissen etwas Absurdes oder ein Widerspruch folgt. Für 2. bieten die verschiedenen Typen (a)–(ciii) "anerkannter" Meinungen dem Fragenden Anhaltspunkte dafür, welche Fragen der jeweilige Antwortende bejahen wird, das heißt, welche Prämissen er verwenden kann. Aristoteles fordert dazu auf, Listen solcher anerkannter Meinungen anzulegen (Top. I 14). Vermutlich meint er nach den Gruppen (a)–(ciii) getrennte Listen; diese werden wiederum nach Gesichtspunkten geordnet. Für 1. hilft dem Dialektiker in seinem Argumentationsaufbau das Instrument der Topen. Ein Topos ist eine Konstruktionsanleitung für dialektische Argumente, das heißt zur Auffindung geeigneter Prämissen für eine gegebene Konklusion. Aristoteles listet in der "Topik" etwa 300 dieser Topen auf. Der Dialektiker kennt diese Topen auswendig, die sich aufgrund ihrer Eigenschaften ordnen lassen. Die Basis dieser Ordnung stellt das System der Prädikabilien dar. Nach Aristoteles ist die Dialektik für dreierlei nützlich: (1) als Übung, (2) für die Begegnung mit der Menge und (3) für die Philosophie. Neben (1) der Grundform des argumentativen Wettstreits (bei der es eine Jury und Regeln gibt und die wahrscheinlich auf Praktiken in der Akademie zurückgeht) gibt es mit (2) auch Anwendungsweisen, die zwar dialogisch, aber nicht als regelbasierter Wettstreit angelegt sind, sowie mit (3) solche, die nicht dialogisch sind, sondern in denen der Dialektiker im Gedankenexperiment (a) Schwierigkeiten nach beiden Seiten hin durchgeht "(diaporêsai)" oder auch (b) Prinzipien untersucht (Top. I 4). Für ihn ist die Dialektik aber nicht wie bei Platon "die" Methode der Philosophie oder eine Fundamentalwissenschaft. Rhetorik: Theorie der Überzeugung. Aristoteles definiert Rhetorik als „Fähigkeit, bei jeder Sache das möglicherweise Überzeugende "(pithanon)" zu betrachten“ (Rhetorik I 2, 1355b26f.). Er nennt sie ein Gegenstück "(antistrophos)" zur Dialektik. Denn ebenso wie die Dialektik ist die Rhetorik ohne abgegrenzten Gegenstandsbereich, und sie verwendet dieselben Elemente (wie Topen, anerkannte Meinungen und insbesondere Deduktionen), und dem dialektischen Schließen entspricht das auf rhetorischen Deduktionen basierende Überzeugen. Der Rhetorik kam im demokratischen Athen des vierten Jahrhunderts eine herausragende Bedeutung zu, insbesondere in der Volksversammlung und den Gerichten, die mit durch Los bestimmten Laienrichtern besetzt waren. Es gab zahlreiche Rhetoriklehrer, und Rhetorikhandbücher kamen auf. Das Argument hält er für das wichtigste Mittel. Wenn der Redner mit diesem Definitionswissen den Zuhörern deutlich machen kann, dass der entsprechende Sachverhalt vorliegt und sie sich im entsprechenden Zustand befinden, empfinden sie die entsprechende Emotion. Sofern der Redner mit dieser Methode bestehende Sachverhalte eines Falles hervorhebt, lenkt er damit nicht – wie bei den kritisierten Vorgängern – von der Sache ab, sondern fördert nur dem Fall angemessene Emotionen und verhindert somit unangemessene. Schließlich soll der Charakter des Redners "aufgrund seiner Rede" für die Zuhörer glaubwürdig, das heißt tugendhaft, klug und wohlwollend erscheinen (Rhet. I 2, 1356a5-11; II 1, 1378a6-16) Die sprachliche Form dient ebenfalls einer argumentativ-sachorientierten Rhetorik. Aristoteles definiert nämlich die optimale Form "(aretê)" dadurch, dass sie primär klar, dabei aber weder banal noch zu erhaben ist (Rhet. III 2, 1404b1-4). Durch solche Ausgewogenheit fördert sie das Interesse, die Aufmerksamkeit und das Verständnis und wirkt angenehm. Unter den Stilmitteln erfüllt insbesondere die Metapher diese Bedingungen. Syllogistische Logik. Besteht Aristoteles' dialektische Logik in einer Methode des konsistenten Argumentierens, so besteht seine syllogistische in einer Theorie des Beweisens selbst. In der von ihm begründeten Syllogistik zeigt Aristoteles, welche Schlüsse gültig sind. Hierfür verwendet er eine Form, die in der Tradition wegen der Bedeutung dieser Logik schlicht "Syllogismus" (die lateinische Übersetzung von "syllogismos") genannt wird. Jeder Syllogismus ist eine (besondere Form der) Deduktion ("syllogismos)," aber nicht jede Deduktion ist ein Syllogismus (und zwar weil Aristoteles' sehr allgemeine Definition der Deduktion viele möglichen Argumenttypen beschreibt). Aristoteles verwendet selbst auch keinen eigenen Begriff, um den Syllogismus von anderen Deduktionen abzugrenzen. Ein Prädikat (P) (z. B. 'sterblich') kann einem Subjekt (S) (z. B. 'Grieche') entweder zu- oder abgesprochen werden. Dies kann in partikulärer oder in allgemeiner Form geschehen. Somit gibt es vier Formen, in denen S und P miteinander verbunden werden können, wie die folgende Tabelle zeigt (nach "De interpretatione" 7; die Vokale werden seit dem Mittelalter für den jeweiligen Aussagetypus und auch in der Syllogistik verwendet). Aristoteles untersucht folgende Frage: Welche der 192 möglichen Kombinationen sind logisch gültige Deduktionen? Bei welchen Syllogismen ist es nicht möglich, dass, wenn die Prämissen wahr sind, die Konklusion falsch ist? Er unterscheidet vollkommene Syllogismen, die unmittelbar einsichtig sind, von unvollkommenen. Die unvollkommenen Syllogismen führt er mittels Konversionsregeln auf die vollkommenen zurück (dieses Verfahren nennt er "analysis") oder beweist sie indirekt. Ein vollkommener Syllogismus ist der – seit dem Mittelalter so genannte – "Barbara:" "Weitere gültige Syllogismen und deren Beweise finden sich im Artikel Syllogismus." Die in den "Analytica Priora" ausgearbeitete Syllogistik wendet Aristoteles in seiner Wissenschaftstheorie, den "Analytica Posteriora" an. Damit lässt sich der Indeterminismus, den Aristoteles vertritt, als der Zustand charakterisieren, der kontingent ist. Kanonische Sätze. Diese „kanonischen Sätze“ gehören zum Fundament der traditionellen Logik und werden unter anderem bei einfacher bzw. eingeschränkter Konversion angewandt. Wissen und Wissenschaft. Mit dieser Stufung beschreibt Aristoteles auch, wie Wissen entsteht: Aus Wahrnehmung entsteht Erinnerung und aus Erinnerung durch Bündelung von Erinnerungsinhalten Erfahrung. Erfahrung besteht in einer Kenntnis einer Mehrzahl konkreter Einzelfälle und gibt nur das "Dass" an, ist bloße Faktenkenntnis. Wissen hingegen (oder Wissenschaft; "epistêmê" umfasst beides) unterscheidet sich von Erfahrung dadurch, dass es In diesem Erkenntnisprozess schreiten wir nach Aristoteles von dem, was "für uns" bekannter und näher an der sinnlichen Wahrnehmung ist, zu dem vor, was "an sich" oder "von Natur aus" bekannter ist, zu den Prinzipien und Ursachen der Dinge. Dass Wissen an oberster Stelle steht und überlegen ist, bedeutet aber nicht, dass es im konkreten Fall die anderen Stufen in dem Sinne enthält, dass es sie ersetzte. Im Handeln ist zudem die Erfahrung als Wissen vom Einzelnen den Wissensformen, die aufs Allgemeine gehen, mitunter überlegen (Met. 981a12-25). Unter einer Ursache "(aitia)" versteht Aristoteles in der Regel nicht ein von einem verursachten Ereignis B verschiedenes Ereignis A. Die Untersuchung von Ursachen dient nicht dazu, Wirkungen vorherzusagen, sondern Sachverhalte zu erklären. Eine aristotelische Ursache gibt einen Grund als Antwort auf bestimmte Warum-Fragen an. (Aristoteles unterscheidet vier Ursachentypen, die genauer hier im Abschnitt Naturphilosophie behandelt werden.) Aristoteles spricht davon, dass die Prämissen einiger Demonstrationen Prinzipien ("archē;" wörtl. Anfang, Ursprung) sind, erste wahre Sätze, die selbst nicht demonstrativ bewiesen werden können. Neben den Prinzipien können auch die Existenz und die Eigenschaften der behandelten Gegenstände einer Wissenschaft sowie bestimmte, allen Wissenschaften gemeinsame Axiome nach Aristoteles nicht durch Demonstrationen bewiesen werden, wie beispielsweise der Satz vom Widerspruch. Vom Satz des Widerspruchs zeigt Aristoteles, dass er nicht geleugnet werden kann. Er lautet: X kann Y nicht zugleich in derselben Hinsicht zukommen und nicht zukommen (Met. IV 3, 1005b19f.). Aristoteles argumentiert, dass, wer dies leugnet, etwas und somit etwas Bestimmtes sagen muss. Wenn er z. B. ‚Mensch‘ sagt, bezeichnet er damit Menschen und nicht Nicht-Menschen. Mit dieser Festlegung auf etwas Bestimmtes setze er aber den Satz vom Widerspruch voraus. Dies gelte sogar für Handlungen, insofern eine Person etwa um einen Brunnen herumgeht und nicht in ihn hinein fällt. Dass diese Sätze und auch Prinzipien nicht demonstriert werden können, liegt an Aristoteles’ Lösung eines Begründungsproblems: Wenn Wissen Rechtfertigung enthält, dann führt dies in einem konkreten Fall von Wissen entweder (a) zu einem Regress, (b) einem Zirkel oder (c) zu fundamentalen Sätzen, die nicht begründet werden können. Prinzipien in einer aristotelischen demonstrativen Wissenschaft sind solche Sätze, die nicht demonstriert, sondern auf andere Weise gewusst werden (An. Post. I 3). Das Verhältnis von Definition, Ursache und Demonstration Der Mond weist zum Zeitpunkt t eine Finsternis auf, weil (i) immer, wenn etwas im Sonnenschatten der Erde ist, es eine Finsternis aufweist und (ii) der Mond zum Zeitpunkt t im Sonnenschatten der Erde liegt. "Mittelterm:" Verdecken der Sonne durch die Erde. "Ursache:" Verdecken der Sonne durch die Erde kommt dem Mond zum Zeitpunkt t zu. Die Definition wäre hier etwa: "Mondfinsternis ist der Fall, in dem die Erde die Sonne verdeckt." Sie erklärt nicht das Wort ‚Mondfinsternis‘. Vielmehr gibt sie an, "was" eine Mondfinsternis ist. Indem man die Ursache angibt, schreitet man von einem Faktum zu seinem Grund fort. Das Verfahren der Analyse besteht darin, bottom-up zu einem bekannten Sachverhalt die nächste Ursache zu suchen, bis eine letzte Ursache erreicht ist. Status der Prinzipien und Funktion der Demonstration Das aristotelische Wissenschaftsmodell wurde in der Neuzeit und bis ins 20. Jahrhundert als ein Top-down-Beweisverfahren verstanden. Die unbeweisbaren Prinzipien seien notwendig wahr und würden durch Induktion und Intuition "(nous)" erlangt. Alle Sätze einer Wissenschaft würden – in einer axiomatischen Struktur – aus ihren Prinzipien folgen. Wissenschaft beruht demnach auf zwei Schritten: Zunächst würden die Prinzipien intuitiv erfasst, dann würde top-down aus ihnen Wissen demonstriert. Gegner dieser Top-down-Interpretation stellen vor allem infrage, dass für Aristoteles Eine Interpretationsrichtung behauptet, die Demonstration habe didaktische Funktion. Da Aristoteles in den naturwissenschaftlichen Schriften seine Wissenschaftstheorie nicht befolge, lege diese nicht dar, wie Forschung "durchgeführt," sondern wie sie didaktisch "präsentiert" werden soll. Eine andere Auslegung weist auch die didaktische Interpretation zurück, da sich sehr wohl Anwendungen des wissenschaftstheoretischen Modells in den naturwissenschaftlichen Schriften finden ließen. Vor allem aber kritisiert sie die erste Lesart dahingehend, dass sie nicht zwischen Wissens"ideal" und Wissens"kultur" unterscheide; denn Aristoteles halte Prinzipien für fallibel und die Funktion der Demonstration für heuristisch. Sie liest die Demonstration bottom-up: Zu bekannten Sachverhalten würden mithilfe der Demonstration deren Ursachen gesucht. Die wissenschaftliche Forschung gehe von den für uns bekannteren empirischen (meist universalen) Sätzen aus. Zu einer solchen Konklusion werden Prämissen gesucht, die für den entsprechenden Sachverhalt Ursachen angeben. Der wissenschaftliche Forschungsprozess besteht nun darin, beispielsweise die Verknüpfung von Schwere und Statue oder Mond und Finsternis in der Weise genauer zu analysieren, dass man Mittelterme sucht, die sie als Ursachen miteinander verknüpfen. Im einfachsten Fall gibt es dabei nur einen Mittelterm, in anderen mehrere. Top-down wird dann das Wissen von den erklärenden Prämissen zu den erklärten universalen empirischen Sätzen präsentiert. Dabei geben die Prämissen den Grund für den in der Konklusion beschriebenen Sachverhalt an. Das Ziel jeder Disziplin besteht in einer derartigen demonstrativen Darstellung des Wissens, in der die nicht demonstrierbaren Prinzipien dieser Wissenschaft Prämissen sind. Wie die Prinzipien nach Aristoteles erfasst werden, bleibt undeutlich und ist umstritten. Vermutlich werden sie durch Allgemeinbegriffe gebildet, die durch einen induktiven Vorgang entstehen, einen Aufstieg innerhalb der oben beschriebenen Wissensstufen: Wahrnehmung wird Erinnerung, wiederholte Wahrnehmung verdichtet sich zu Erfahrung, und aus Erfahrung bilden wir Allgemeinbegriffe. Mit dieser auf der Wahrnehmung basierenden Konzeption der Bildung von Allgemeinbegriffen weist Aristoteles sowohl Konzeptionen zurück, die die Allgemeinbegriffe aus einem höheren Wissen ableiten, als auch diejenigen, die behaupten, Allgemeinbegriffe seien angeboren. Vermutlich auf Grundlage dieser Allgemeinbegriffe werden die Prinzipien, Definitionen gebildet. Die Dialektik, die Fragen in der Form ‚Trifft P auf S zu oder nicht?‘ behandelt, ist vermutlich ein Mittel, Prinzipien zu prüfen. Das Vermögen, das diese grundlegenden Allgemeinbegriffe und Definitionen erfasst, ist der Geist, die Einsicht "(nous)." Naturphilosophie. Schematische Darstellung der aristotelischen Vier-Elemente-Lehre In Aristoteles’ Naturphilosophie bedeutet Natur "(physis)" zweierlei: Zum einen besteht der primäre Gegenstandsbereich aus den von Natur aus bestehenden Dingen (Menschen, Tiere, Pflanzen, die Elemente), die sich von Artefakten unterscheiden. Zum anderen bilden die Bewegung "(kínēsis)" und Ruhe "(stasis)" den Ursprung, beziehungsweise das Grundprinzip "(archē)" aller Natur (Phys. II 1, 192b14). Bewegung bedeutet wiederum Veränderung ("metabolē") (Phys. II 1,193a30). So ist beispielsweise die Ortsbewegung eine Form der Veränderung. Ebenso stellen die „Eigenbewegungen“ des Körpers, wenn dieser (zum Beispiel durch Nahrungsaufnahme) wächst oder abnimmt, eine Veränderung dar. Beide Begriffe, kínēsis und metabolē, sind für Aristoteles folglich nicht trennbar. Gemeinsam bilden sie das Grundprinzip und den Anfang aller Naturdinge. Bei Artefakten kommt das Prinzip jeder Veränderung von außen (Phys. II 1, 192b8-22). Die Wissenschaft der Natur hängt in der Folge von den Arten der Veränderung ab. Definition, Prinzipien und Arten der Veränderung Ein Veränderungsprozess von X ist gegeben, wenn X, das (i) der Wirklichkeit nach die Eigenschaft F und (ii) der Möglichkeit nach G aufweist, die Eigenschaft G verwirklicht. Bei Bronze (X), die der Wirklichkeit nach ein Klumpen ist (F) und der Möglichkeit nach eine Statue (G), liegt Veränderung dann vor, wenn die Bronze "der Wirklichkeit" nach die Form einer Statue (G) "wird;" der Prozess ist abgeschlossen, wenn die Bronze diese Form "besitzt." Oder wenn der ungebildete Sokrates gebildet wird, so verwirklicht sich ein Zustand, welcher der Möglichkeit nach schon vorlag. Der Veränderungsprozess ist also durch seinen Übergangsstatus gekennzeichnet und setzt voraus, dass etwas, das der Möglichkeit nach vorliegt, verwirklicht werden kann (Phys. III 1, 201a10-201b5). Wird der ungebildete Sokrates gebildet, so ist er dabei an jedem Punkt der Veränderung Sokrates. Entsprechend bleibt die Bronze Bronze. Das Substrat der Veränderung, an dem diese sich vollzieht, bleibt dabei mit sich selbst identisch. Den Ausgangszustand der Veränderung fasst Aristoteles dabei als einen Zustand, dem die entsprechende Eigenschaft des Zielzustands ermangelt (Privation) (Phys. I 7). Bei jeder Veränderung – so Aristoteles – gibt es ein zugrunde liegendes, numerisch identisches Substrat (Physik I 7, 191a13-15). Im Falle qualitativer, quantitativer und örtlicher Veränderung ist dies ein konkretes Einzelding, das seine Eigenschaften, seine Größe oder seine Position verändert. Wie verhält sich dies aber beim Entstehen/Vergehen konkreter Einzeldinge? Die Eleaten hatten die einflussreiche These vertreten, Entstehen sei nicht möglich, da sie es für widersprüchlich hielten, wenn Seiendes aus Nicht-Seiendem hervorginge (bei Entstehen aus Seiendem sahen sie ein ähnliches Problem). Die Lösung der Atomisten, Entstehen sei ein Prozess, in dem durch Mischung und Trennung unvergänglicher und unveränderlicher Atome aus alten neue Einzeldinge hervorgehen, führt nach Aristoteles’ Ansicht Entstehen illegitimerweise auf qualitative Veränderung zurück (Gen. Corr. 317a20ff.). Aristoteles’ Analyse von Entstehen/Vergehen basiert auf der innovativen Unterscheidung von Form und Materie (Hylemorphismus). Er akzeptiert, dass kein konkretes Einzelding aus Nichtseiendem entstehe, analysiert den Fall "Entstehen" jedoch folgendermaßen. Ein konkretes Einzelding des Typs F entsteht nicht aus einem nicht-seienden F, sondern aus einem zugrunde liegenden Substrat, das nicht die Form F aufweist: der Materie. Ein Ding entsteht, indem Materie eine neu hinzukommende Form annimmt. So entsteht eine Bronzestatue, indem eine Bronzemasse eine entsprechende Form annimmt. Die fertige Statue besteht "aus" Bronze, die Bronze liegt der Statue als Materie zugrunde. Die Antwort auf die Eleaten lautet, dass einer nicht-seienden Statue die Bronze als Materie entspricht, die durch Hinzukommen einer Form zur Statue wird. Der Entstehungsprozess ist dabei von verschiedenen Seinsgraden gekennzeichnet. Die tatsächliche, aktuale, geformte Statue entsteht aus etwas, das potentiell eine Statue ist, nämlich Bronze als Materie (Phys. I 8, 191b10-34). Materie und Form sind Aspekte eines konkreten Einzeldings und treten nicht selbständig auf. Materie ist immer Stoff eines bestimmten Dings, das schon eine Form aufweist. Sie ist ein relativer Abstraktionsbegriff zu Form. Indem eine derartige Materie in einer neuen Weise strukturiert wird, entsteht ein neues Einzelding. Ein Haus setzt sich aus Form (dem Bauplan) und Materie (Holz und Ziegel) zusammen. Die Ziegel als Materie des Hauses sind durch einen bestimmten Prozess auf eine bestimmte Weise geformter, konfigurierter Lehm. Unter Form versteht Aristoteles seltener die äußere Gestalt (dies nur bei Artefakten), in der Regel die innere Struktur oder Natur, dasjenige, was durch eine Definition erfasst wird. Die Form eines Gegenstandes eines bestimmten Typs beschreibt dabei Voraussetzungen, welche Materie für diesen geeignet ist und welche nicht. Bewegungen erfolgen nach Aristoteles entweder naturgemäß oder naturwidrig (gewaltsam). Nur Lebewesen bewegen sich aus eigenem Antrieb, alles andere wird entweder von etwas bewegt oder es strebt möglichst geradlinig seinem natürlichen Ort entgegen und kommt dort zum Stillstand. Der natürliche Ort eines Körpers hängt von der in ihm vorherrschenden Materieart ab. Wenn Wasser oder Erde vorherrscht, bewegt sich der Körper zum Mittelpunkt der Erde, dem Zentrum der Welt, wenn Feuer oder Luft dominiert, strebt er nach oben. Erde ist ausschließlich schwer, Feuer absolut leicht, Wasser relativ schwer, Luft relativ leicht. Der natürliche Ort des Feuers ist oberhalb der Luft und unterhalb der Mondsphäre. Leichtigkeit und Schwere sind Eigenschaften von Körpern, die mit deren Dichte nichts zu tun haben. Mit der Einführung der Vorstellung einer absoluten Schwere und absoluten Leichtigkeit (Schwerelosigkeit des Feuers) verwirft Aristoteles die Auffassung Platons und der Atomisten, die alle Objekte für schwer hielten und das Gewicht als relative Größe auffassten. Das fünfte Element, der Äther des Himmels, ist masselos und bewegt sich kreisförmig und ewig. Der Äther füllt den Raum oberhalb der Mondsphäre; er ist keinerlei Veränderung außer der Ortsbewegung unterworfen. Die Annahme, auf der Erde und am Himmel gälten verschiedene Gesetze, ist für Aristoteles nötig, weil die Bewegung der Planeten und Fixsterne nicht zur Ruhe kommt. Aristoteles nimmt an, dass für jede Ortsbewegung ein Medium, das entweder als bewegende Kraft wirkt oder der Bewegung Widerstand leistet, erforderlich ist; eine kontinuierliche Bewegung im Vakuum ist prinzipiell unmöglich. Aristoteles schließt sogar die Existenz eines Vakuums aus. Die Bewegungslehre des Aristoteles war bis zur Entwicklung eines neuen Trägheitsbegriffs durch Galilei und Newton einflussreich. Der aristotelische Ursachenbegriff unterscheidet sich weitgehend vom modernen. In der Regel treffen zur Erklärung desselben Sachverhaltes oder Gegenstandes verschiedene Ursachen zugleich zu. Die Formursache fällt oft mit der Bewegungsursache und der Finalursache zusammen. Die Ursache eines Hauses sind so Ziegel und Holz, der Bauplan, der Architekt und der Schutz vor Unwetter. Letztere drei fallen oft zusammen, insofern beispielsweise der Zweck "Schutz vor Unwetter" den Bauplan (im Geist) des Architekten bestimmt. Die Finalursache ist vom Standpunkt der neuzeitlichen mechanistischen Physik aus kritisiert worden. Von einer insgesamt teleologisch ausgerichteten Natur wie bei Platon setzt sich Aristoteles jedoch weitgehend ab. Finale Ursachen treten für ihn in der Natur vor allem in der Biologie auf, und zwar beim funktionellen Aufbau von Lebewesen und der Artenreproduktion. Metaphysik. Aristoteles gebraucht den Ausdruck „Metaphysik“ nicht. Gleichwohl trägt eines seiner wichtigsten Werke traditionell diesen Titel. Die "Metaphysik" ist eine von einem späteren Herausgeber zusammengestellte Sammlung von Einzeluntersuchungen, die ein mehr oder weniger zusammenhängendes Themenspektrum abdecken, indem sie nach den Prinzipien und Ursachen des Seienden und nach der dafür zuständigen Wissenschaft fragen. Ob der Titel ("ta meta ta physika:" die nach der Physik) einen bloß bibliografischen oder einen sachbezogenen Hintergrund hat, ist unklar. Ob oder inwieweit diese drei Projekte zusammenhängende Aspekte derselben Wissenschaft oder voneinander unabhängige Einzelprojekte sind, ist kontrovers. Aristoteles behandelt später metaphysisch genannte Themen auch in anderen Schriften. Ontologie. Im Corpus Aristotelicum finden sich in zwei Werken, den frühen "Kategorien" und der späten "Metaphysik," unterschiedliche Theorien des Seienden. Die "Kategorien," die die erste Schrift im "Organon" bilden, sind vermutlich das einflussreichste Werk des Aristoteles und der Philosophiegeschichte überhaupt. Die frühe Ontologie der "Kategorien" befasst sich mit den Fragen ‚Was ist das eigentlich Seiende?‘ und ‚Wie ist das Seiende geordnet?‘ und ist als Kritik an der Position Platons zu verstehen. Der mutmaßliche Gedankengang lässt sich folgendermaßen skizzieren. Unterschieden werden Eigenschaften, die Einzeldingen zukommen (P kommt S zu). Dafür liegen zwei Deutungsmöglichkeiten nahe: Das eigentlich Seiende, die Substanz "(ousia)" sind Aristoteles selbst berichtet (Met. I 6), Platon habe gelehrt, man müsse von den wahrnehmbaren Einzeldingen getrennte, nicht sinnlich wahrnehmbare, unveränderliche, ewige Urbilder unterscheiden. Platon nahm an, dass es Definitionen (und damit aus seiner Sicht auch Wissen) von den Einzeldingen, die sich beständig ändern, nicht geben kann. Gegenstand der Definition und des Wissens sind für ihn die Urbilder (Ideen) als das für die Ordnungsstruktur des Seienden Ursächliche. Verdeutlichen lässt sich dies an einer von allen Menschen getrennten, einzelnen und numerisch identischen Idee des Menschen, die für das jeweilige Menschsein ursächlich ist und die Erkenntnisgegenstand ist für die Frage ‚Was ist ein Mensch?‘. Aristoteles’ Einteilung des Seienden in den "Kategorien" scheint sich von der skizzierten Position Platons abzugrenzen. Er orientiert sich dabei an der sprachlichen Struktur einfacher Sätze der Form ‚S ist P‘ und der sprachlichen Praxis, wobei er die sprachliche und die ontologische Ebene nicht explizit voneinander scheidet. Einige Ausdrücke – wie ‚Sokrates‘ – können nur die Subjektposition S in dieser sprachlichen Struktur einnehmen, alles andere wird von ihnen prädiziert. Die Dinge, die in diese Kategorie der Substanz fallen und die er "Erste Substanz" nennt, sind ontologisch selbständig; sie bedürfen keines anderen Dinges, um zu existieren. Daher sind sie ontologisch primär, denn alles andere ist von ihnen abhängig und nichts würde ohne sie existieren. Diese abhängigen Eigenschaften bedürfen eines Einzeldings, einer ersten Substanz als eines Trägers, "an" der sie vorkommen. Derartige Eigenschaften (z. B. weiß, sitzend) können einem Einzelding (etwa Sokrates) jeweils zukommen oder auch nicht zukommen und sind daher akzidentelle Eigenschaften. Dies betrifft alles außerhalb der Kategorie der Substanz. Für einige Eigenschaften (z. B. ‚Mensch‘) gilt nun, dass sie in der Weise von einem Einzelding (z. B. Sokrates) ausgesagt werden können, dass ihre Definition (vernünftiges Lebewesen) auch von diesem Einzelding gilt. Sie kommen ihm daher "notwendig" zu. Dies sind die Art und die Gattung. Aufgrund dieses engen Bezugs, in dem die Art und die Gattung angeben, "was" eine erste Substanz jeweils ist (etwa in der Antwort auf die Frage ‚Was ist Sokrates?‘: ‚ein Mensch‘), nennt Aristoteles sie zweite Substanz. Dabei hängt auch eine zweite Substanz von einer ersten Substanz ontologisch ab. Für Platon ergibt sich als Konsequenz aus seiner Auffassung von den Ideen die Annahme, dass im eigentlichen, unabhängigen Sinne allein die unveränderlichen Ideen existieren; die Einzeldinge existieren nur in Abhängigkeit von den Ideen. Diese ontologische Konsequenz kritisiert Aristoteles eingehend in der "Metaphysik." Er hält es für widersprüchlich, dass die Anhänger der Ideenlehre einerseits die Ideen dadurch von den Sinnesobjekten abgrenzen, dass sie ihnen das Merkmal der Allgemeinheit und damit Undifferenziertheit zuweisen, und andererseits zugleich für jede einzelne Idee eine separate Existenz annehmen; dadurch würden die Ideen selbst Einzeldinge, was mit ihrem Definitionsmerkmal Allgemeinheit unvereinbar sei (Met. XIII 9, 1086a32-34). In der "Metaphysik" vertritt Aristoteles im Rahmen seines Vorhabens, das Seiende als Seiendes zu untersuchen, die Auffassung, dass alles Seiende entweder eine Substanz ist oder auf eine bezogen ist ("Metaphysik" IV 2). In den "Kategorien" hatte er ein Kriterium für Substanzen formuliert und Beispiele (Sokrates) für diese gegeben. In der "Metaphysik" thematisiert er nun abermals die Substanz, um nach den Prinzipien und Ursachen einer Substanz, eines konkreten Einzeldings zu suchen. Hier fragt er nun: Was macht etwa Sokrates zu einer Substanz? Substanz ist hier also ein zweistelliges Prädikat "(Substanz von X)," so dass man die Frage so formulieren kann: "Was ist die Substanz-X einer Substanz?" Dabei spielt die Form-Materie-Unterscheidung, die in den "Kategorien" nicht präsent ist, eine entscheidende Rolle. Das Kriterium (ii) wird genauer erfüllt, indem Aristoteles das "Wesen" als Substanz-X bestimmt. Mit Wesen meint er dabei, was ontologisch einer Definition entspricht (Met. VII 4; 5, 1031a12; VIII 1, 1042a17). Das Wesen beschreibt die notwendigen Eigenschaften, ohne die ein Einzelding aufhören würde, ein und dieselbe Sache zu sein. Fragt man: "Was ist die Ursache dafür, dass diese Materieportion Sokrates ist?," so ist Aristoteles’ Antwort: "Das Wesen von Sokrates, welches weder ein weiterer Bestandteil "neben" den materiellen Bestandteilen" ist (dann bedürfte es eines weiteren Strukturprinzips, um zu erklären, wie es mit den materiellen Bestandteilen vereint ist) "noch etwas "aus" materiellen Bestandteilen" (dann müsste man erklären, wie das Wesen selbst zusammengesetzt ist). Aristoteles ermittelt die Form "(eidos)" eines Einzeldings als sein Wesen und somit als Substanz-X. Mit Form meint er weniger die äußere Gestalt als vielmehr die Struktur: Die Form Dass die Form als Substanz-X auch das genannte Kriterium (ii), selbständig zu sein, erfüllen muss, und dies teilweise als Kriterium für etwas Individuelles aufgefasst wird, ist einer von vielen Aspekten in folgender zentralen interpretatorischen Kontroverse: Fasst Aristoteles die Form (A) als etwas Allgemeines oder (B) als etwas (dem jeweiligen Einzelding) Individuelles auf? Als Problem formuliert: Wie kann die Form, das "eidos," zugleich Form eines Einzeldings und Gegenstand des Wissens sein? Für (A) spricht insbesondere, dass Aristoteles an mehreren Stellen davon ausgeht, dass die Substanz-X und somit die Form definierbar ist (Met. VII 13) und dies für ihn (wie für Platon) nur auf Allgemeines zutrifft (VII 11, 1036a; VII 15, 1039b31-1040a2). Für (B) hingegen spricht vor allem, dass Aristoteles kategorisch die unplatonische Position zu vertreten scheint: Kein Allgemeines kann Substanz-X sein (Met. VII 13). Nach (B) besitzen Sokrates und Kallias zwei auch qualitativ verschiedene Formen. Definierbar müssten dann zu separierende, überindividuelle Aspekte dieser beiden Formen sein. Die Interpretation (A) hingegen löst das Dilemma etwa, indem sie die Aussage "Kein Allgemeines ist Substanz-X" als "Nichts allgemein Prädizierbares ist Substanz-X" interpretiert und so entschärft. Die Form werde nicht auf herkömmliche Weise (wie die Art ‚Mensch‘ von ‚Sokrates‘ in den "Kategorien") prädiziert und sei daher nicht im problematischen Sinne allgemein. Vielmehr werde die Form von der unbestimmten Materie in einer Weise ‚prädiziert‘, die einen Einzelgegenstand erst konstituiere. Die für die Ontologie wichtige Beziehung zwischen Form und Materie wird durch ein weiteres Begriffspaar genauer erläutert: Akt "(energeia, entelecheia)" und Potenz "(dynamis)." Für die Form-Materie-Unterscheidung ist die später ontologisch genannte Bedeutung von Potenz oder Vermögen wichtig. Potentialität ist hier ein Zustand, dem ein anderer Zustand – Aktualität – gegenübersteht, indem ein Gegenstand der Wirklichkeit nach F oder dem Vermögen, der Möglichkeit nach F ist. So ist ein Junge der Möglichkeit nach ein Mann, ein ungebildeter Mensch der Möglichkeit nach ein gebildeter (Met. IX 6). Dieses (hier diachron beschriebene) Verhältnis von Aktualität und Potentialität bildet die Grundlage für das (auch synchron zu verstehende) Verhältnis von Form und Materie, denn Form und Materie sind Aspekte eines Einzeldings, nicht dessen Teile. Sie sind im Verhältnis von Aktualität und Potentialität miteinander verbunden und konstituieren so (erst) das Einzelding. Die Materie eines Einzeldings ist demnach genau das "potentiell," was die Form des Einzeldings und das Einzelding selbst "aktual" sind (Met. VIII 1, 1042a27f.; VIII 6, 1045a23-33; b17-19). Zum einen ist zwar (diachron betrachtet) eine bestimmte Portion Bronze potentiell eine Kugel wie auch eine Statue. Zum anderen aber ist (synchron als konstituierender Aspekt) die Bronze an einer Statue potentiell genau das, was die Statue und deren Form aktual sind. Die Bronze der Statue ist ein Konstituens der Statue, ist aber nicht mit ihr identisch. Und so sind auch Fleisch und Knochen potentiell das, was Sokrates oder seine Form (die für einen Menschen typische Konfiguration und Fähigkeiten seiner materiellen Bestandteile,→ Psychologie) aktual sind. So wie die Form gegenüber der Materie ist für Aristoteles auch die Aktualität gegenüber der Potentialität primär (Met. IX 8, 1049b4-5). Unter anderem ist sie der Erkenntnis nach primär. Man kann nur dann ein Vermögen angeben, wenn man Bezug auf die Wirklichkeit nimmt, zu der es ein Vermögen ist. Das Sehvermögen etwa lässt sich nur bestimmen, indem man auf die Tätigkeit ‚Sehen‘ Bezug nimmt (Met. IX 8, 1049b12-17). Des Weiteren ist die Aktualität im entscheidenden Sinne auch zeitlich früher als die Potentialität, denn ein Mensch entsteht durch einen Menschen, der aktual Mensch ist (Met. IX 8, 1049b17-27). Theologie. Aristoteles unterscheidet im Vorfeld seiner Theologie drei mögliche Substanzen: (i) sinnlich wahrnehmbare vergängliche, (ii) sinnlich wahrnehmbare ewige und (iii) nicht sinnlich wahrnehmbare ewige und unveränderliche (Met. XII 1, 1069a30-1069b2). (i) sind die konkreten Einzeldinge (der sublunaren Sphäre), (ii) die ewigen, bewegten Himmelskörper, (iii) erweist sich als der selbst unbewegte Ursprung aller Bewegung. Aristoteles argumentiert für einen göttlichen Beweger, indem er feststellt, dass, wenn alle Substanzen vergänglich wären, alles vergänglich sein müsste, die Zeit und die Veränderung selbst jedoch notwendig unvergänglich sind (Phys. VIII 1, 251a8-252b6; Met. XII 6, 1071b6-10). Aristoteles zufolge ist die einzige Veränderung, die ewig existieren kann, die Kreisbewegung (Phys. VIII 8–10; Met. XII 6,1071b11). Die entsprechende beobachtbare kreisförmige Bewegung der Fixsterne muss daher als Ursache eine ewige und immaterielle Substanz haben (Met. XII 8, 1073b17-32). Enthielte das Wesen dieser Substanz Potentialität, könnte die Bewegung unterbrochen werden. Daher muss sie reine Aktualität, Tätigkeit sein (Met. XII, 1071b12-22). Als letztes Prinzip muss dieser Beweger selbst unbewegt sein. Nach Aristoteles bewegt der unbewegte Beweger „wie ein Geliebtes“, nämlich als Ziel (Met. XII 7, 1072b3), denn das Begehrte, das Gedachte und insbesondere das Geliebte kann bewegen, ohne bewegt zu sein (Met. XII 7, 1072a26). Seine Tätigkeit ist die lustvollste und schönste. Da er immaterielle Vernunft "(nous)" ist und seine Tätigkeit im Denken des besten Gegenstandes besteht, denkt er sich selbst: das „Denken des Denkens“ "(noêsis noêseôs)" (Met. XII 9, 1074b34f.). Da nur Lebendiges denken kann, muss er zudem lebendig sein. Den unbewegten Beweger identifiziert Aristoteles mit Gott (Met. XII 7, 1072b23ff.). Der unbewegte Beweger bewegt die gesamte Natur. Die Fixsternsphäre bewegt sich, da sie mit der Kreisbewegung die Vollkommenheit nachahmt. Die anderen Himmelskörper werden vermittelt über die Fixsternsphäre bewegt. Die Lebewesen haben Anteil an der Ewigkeit, indem sie mittels der Fortpflanzung ewig bestehen (GA II 1, 731b31-732a1). Biologie. Nicht nur in der Philosophiegeschichte, sondern auch in der Geschichte der Naturwissenschaften nimmt Aristoteles einen bedeutenden Platz ein. Ein großer Teil seiner überlieferten Schriften ist naturwissenschaftlich, von denen die bei weitem bedeutendsten und umfangreichsten die biologischen Schriften sind, die fast ein Drittel des überlieferten Gesamtwerks umfassen. Vermutlich in Arbeitsteilung wurde die Botanik von seinem engsten Mitarbeiter Theophrast, die Medizin von seinem Schüler Menon bearbeitet. Aristoteles vergleicht das Studium unvergänglicher Substanzen (Gott und Himmelskörper) und vergänglicher Substanzen (der Lebewesen). Beide Forschungsgebiete haben ihren Reiz. Die unvergänglichen Substanzen, die höchsten Erkenntnisgegenstände zu untersuchen, bereiten zwar die größte Freude, aber das Wissen über Lebewesen ist leichter zu erlangen, da sie uns näher stehen. Er betont den Wert der Erforschung auch niederer Tiere und weist darauf hin, dass auch diese etwas Natürliches und Schönes zeigen, das sich nicht in ihren zerlegten Bestandteilen erschöpft, sondern erst durch die Tätigkeiten und das Zusammenwirken der Teile hervortritt (PA I 5, 645a21-645b1). Aristoteles hat selbst empirische Forschung betrieben, jedoch vermutlich nicht Experimente im – erst in der neuzeitlichen Naturwissenschaft eingeführten – Sinne einer methodischen Versuchsanordnung angestellt. Sicher ist, dass er selbst Sezierungen vornahm. Einem Experiment am nächsten kommt die in festgelegten zeitlichen Abständen wiederholte Untersuchung von befruchteten Hühnereiern, mit dem Ziel zu beobachten, in welcher Reihenfolge die Organe entstehen (GA VI 3, 561a6-562a20). Experimente sind jedoch in seiner eigentlichen Domäne – der deskriptiven Zoologie – auch nicht das wesentliche Instrument der Forschung. Neben eigenen Beobachtungen und einigen wenigen Textquellen stützte er sich hier auch auf Informationen von einschlägig Berufstätigen wie Fischern, Bienenzüchtern, Jägern und Hirten. Er ließ die Inhalte seiner Textquellen teilweise empirisch überprüfen, übernahm aber auch unkritisch fremde Irrtümer. Ein verlorenes Werk bestand vermutlich großenteils aus Zeichnungen und Diagrammen von Tieren. Methodologie der Biologie: Trennung von Fakten und Ursachen. Aufgrund des lange vorherrschenden Interpretationsmodells der Wissenschaftstheorie des Aristoteles und der Vernachlässigung der biologischen Schriften, ging man früher davon aus, dass er diese Theorie nicht auf die Biologie angewendet hat. Demgegenüber wird heute durchaus angenommen, dass seine Vorgehensweise in der Biologie von seiner Wissenschaftstheorie beeinflusst war, wenngleich Umfang und Grad umstritten sind. Von Aristoteles ist keine Beschreibung seines naturwissenschaftlichen Vorgehens überliefert. Erhalten sind neben der allgemeinen Wissenschaftstheorie nur Texte, die ein Endprodukt der wissenschaftlichen Forschung darstellen. Die biologischen Schriften sind in einer bestimmten Reihenfolge angeordnet, die der Vorgehensweise entspricht. Die erste Schrift "(Historia animalium)" beschreibt die verschiedenen Tierarten und ihre spezifischen Differenzen. Sie bietet die Sammlung des Faktenmaterials wie z. B., dass alle Lebewesen mit Lungen Luftröhren aufweisen. Dabei wird nicht erörtert, ob etwas notwendig oder unmöglich so sei. In der Faktensammlung ordnet Aristoteles die Lebewesen nach verschiedenen Einteilungsmerkmalen wie blutführend, lebendgebärend usw. Nach Merkmalen geordnet stellt er allgemeine Relationen zwischen verschiedenen Aspekten der Beschaffenheit fest. So bemerkt er beispielsweise: Alle Vierfüßler, die lebendgebärend sind, weisen Lungen und Luftröhren auf (HA II 15, 505b32f.). Erst die an dieses Werk anschließenden und darauf aufbauenden Schriften "De generatione animalium" (Über die Entstehung der Tiere) und "De partibus animalium" (Über die Teile der Tiere) befassen sich mit den Ursachen, welche die Fakten erklären. Die Faktensammlung ist die Voraussetzung dafür, Wissen auf der Grundlage von Ursachenkenntnis zu erreichen. Zentral für die Biologie sind dabei finale Ursachen, die den Zweck der Bestandteile des Körpers angeben. Die Ursache für die Existenz einer Luftröhre bei allen Lebewesen, die eine Lunge besitzen, besteht für Aristoteles in der Funktionsweise der Lunge. Die Lunge kann – anders als der Magen – nicht unmittelbar an den Mund anschließen, da sie eines zweigeteilten Kanals bedarf, so dass Einatmen und Ausatmen auf optimale Weise möglich ist. Da dieser Kanal eine gewisse Länge aufweisen muss, haben alle Lebewesen mit Lunge einen Hals. Fische haben daher keinen Hals, weil sie keine Luftröhre benötigen, da sie mit Kiemen atmen (PA III 3, 664a14–34). Die Verwendung finaler Erklärungen in der Biologie (und auch anderen Forschungsgebieten des Aristoteles) ist insbesondere in der Frühen Neuzeit und bis ins 20. Jahrhundert vielfach kritisiert worden. Unter finalen Erklärungen oder Ursachen versteht Aristoteles hier allerdings in der Regel keine übergreifenden Zwecke, die etwa eine bestimmte Spezies hätte. Ihm geht es vielmehr um eine interne Funktionsbestimmung der Organismen und ihrer Teile. Inhalte der Zoologie. Aristoteles hat über 500 Spezies untersucht. Seine Schriften behandeln systematisch die inneren und äußeren Teile der einzelnen Tiere, Bestandteile wie Blut und Knochen, Arten der Fortpflanzung, die Nahrung, den Lebensraum und das Verhalten. Er beschreibt das Verhalten von Haustieren, exotischen Raubtieren wie dem Krokodil, Vögeln, Insekten und Meerestieren. Zu diesem Zweck ordnet er die Lebewesen. Vermutlich war es nicht Aristoteles’ Absicht, eine vollständige Taxonomie zu schaffen. Das System einer Taxonomie ist für ihn auch kein Hauptgegenstand. Ziel seiner Untersuchungen war eher eine Morphologie, eine Klassifikation der Lebewesen anhand charakteristischer Merkmale. So hat er die Gattungen zwischen den genannten sowie Untergattungen nicht terminologisch fixiert. Aristoteles und die Erkenntnisse der modernen Biologie In vielen Fällen hat sich Aristoteles als Biologe geirrt. Einige seiner Irrtümer erscheinen reichlich kurios, wie die Beschreibung des Bisons, das sich „durch Ausschlagen und Ausstoßen seines Kots, welchen es bis siebeneinhalb Meter weit von sich schleudern kann, verteidigt“ (HA IX 45, 630b8f.). Offenbar war seine Informationsquelle über dieses exotische Tier nicht sehr verlässlich. Weitere bekannte Irrtümer sind unter anderem die Behauptung, der Mann habe mehr Zähne als die Frau (HA II 3, 501b19), das Gehirn sei ein Kühlorgan und das Denken geschehe in der Herzgegend (PA II 7, 652b21-25; III 3, 514a16-22) sowie das Konzept der Telegonie, wonach eine vorangegangene Trächtigkeit den Phänotyp von Nachkommen aus späteren Trächtigkeiten beeinflussen könne. Aristoteles hat aber auch auf der Grundlage seiner Beobachtungen Einsichten gewonnen, die nicht nur zutreffen, sondern die erst in der Moderne wiederentdeckt oder bestätigt worden sind. Beispielsweise erwähnt er bei der Beschreibung des angeführten Kraken, dass die Paarung durch einen Fangarm des Männchens geschieht, der gegabelt ist – die so genannte Hektokotylisation –, und beschreibt diesen Fortpflanzungsvorgang (HA V 5, 541b9-15; V 12, 544a12; GA V 15, 720b33). Dieses Phänomen war bis ins 19. Jahrhundert nur durch Aristoteles bekannt; die genaue Art der Fortpflanzung wurde erst 1959 vollständig verifiziert. Bedeutender noch ist seine Hypothese, nach der die Teile eines Organismus in einer hierarchischen Ordnung ausgebildet werden und nicht – wie die (bereits von Anaxagoras vertretene) Präformationslehre annimmt – vorgebildet sind (GA 734a28-35). Diese Auffassung von der embryonalen Entwicklung ist in der Neuzeit unter der von Aristoteles noch nicht verwendeten Bezeichnung Epigenesis bekannt geworden. Ihre empirische Grundlage waren für Aristoteles seine Sezierungen. In der Neuzeit war aber die Präformationslehre vom 17. bis in das 19. Jahrhundert hinein die allgemein akzeptierte Theorie, und Vertreter der Epigenesis wie William Harvey (1651) und Caspar Friedrich Wolff (1759) fanden mit ihren embryologischen Untersuchungen, die klar zeigten, dass die Embryonen sich aus ganz undifferenzierter Materie entwickeln, wenig Beachtung. Diese Einsicht setzte sich erst im frühen 19. Jahrhundert durch und verdrängte schließlich die präformistischen Spekulationen. Endgültig wurde erst im 20. Jahrhundert in der Experimentalbiologie durch Hans Driesch und Hans Spemann bestätigt, dass die embryonale Entwicklung eine Kette von Neubildungen, ein epigenetischer Prozess ist. Ferner gibt es eine Analogie zwischen der aristotelischen zielhaften Epigenesis und der Genetik. Seelenlehre: Theorie des Lebendigseins. Lebewesen unterscheiden sich von anderen natürlichen und künstlichen Objekten dadurch, dass sie lebendig sind. Bei Homer ist die Seele "(psychê)" das, was einen Leichnam verlässt. Im Laufe des 6. und 5. Jahrhundert v. Chr. findet der Begriff zunehmend eine deutliche Ausweitung: beseelt "(empsychos)" zu sein bedeutet lebendig zu sein und das Konzept Seele weist nun auch kognitive und emotionale Aspekte auf. Aristoteles nimmt diesen Sprachgebrauch auf. In seiner Seelentheorie ist er mit zwei Positionen konfrontiert: zum einen mit dem Materialismus vorsokratischer Naturphilosophen, die behaupten, die Seele bestehe aus einer besonderen Art Materie, zum anderen mit der dualistischen Position Platons, für den die Seele unsterblich, immateriell und ihrer Natur nach eher etwas Intelligibles ist. Hinsichtlich der Streitfrage zwischen Materialismus und Dualismus, ob Körper und Seele miteinander identisch sind oder nicht, ist Aristoteles der Auffassung, dass die Frage falsch gestellt ist. Dies erläutert er mit einem Vergleich: Die Frage "Sind Körper und Seele identisch?" ist ebenso unsinnig wie die Frage "Sind Wachs und seine Form identisch?" (An. II 1, 412b6-9). Zustände der Seele sind zwar immer auch Zustände des Körpers, aber eine Identität von Körper und Seele verneint Aristoteles ebenso wie die Unsterblichkeit der Seele. Was die Seele ist, bestimmt Aristoteles mittels seiner Unterscheidung von Form und Materie. Die Seele verhält sich zum Körper wie die Form zur Materie, das heißt wie eine Statuenform zur Bronze. Form und Materie eines Einzeldings sind aber nicht zwei verschiedene "Objekte," nicht dessen Teile, sondern Aspekte ebendieses Einzeldings. Die Seele definiert Aristoteles als „erste Wirklichkeit "(entelecheia)" eines natürlichen organischen Körpers“ (An. II 1, 412b5f.). Eine Wirklichkeit oder Aktualität ist die Seele, weil sie als Form den Aspekt des Lebendigen an der potentiell belebten Materie (nämlich der organischen) darstellt. Eine "erste" Wirklichkeit ist sie, insofern das Lebewesen auch dann lebendig ist, wenn es nur schläft und keine weiteren Tätigkeiten ausübt (die ebenfalls Aspekte des Seelischen sind). (An. II 1, 412a19-27). Ernährungs- und Fortpflanzungsvermögen kommen – als grundlegendes Vermögen alles Lebendigen – auch den Pflanzen zu, Wahrnehmungsvermögen (und Fortbewegungsfähigkeit) weisen nur die Tiere (einschließlich des Menschen) auf. Das Denken besitzt allein der Mensch. Wahrnehmung "(aisthesis)" fasst Aristoteles allgemein als ein Erleiden oder eine qualitative Veränderung (An. II 5, 416b33f.). Das, was die Sinne wahrnehmen, ist dabei jeweils durch ein kontinuierliches Gegensatzpaar bestimmt: Sehen durch hell und dunkel, Hören durch hoch und tief, Riechen und Schmecken durch bitter und süß; Tasten weist verschiedene Gegensatzpaare auf: hart und weich, heiß und kalt, feucht und trocken. Aristoteles behauptet, dass beim Wahrnehmungsvorgang das jeweilige Organ "wie" das Wahrgenommene wird (An. 418a 3–6). Des Weiteren sagt er, dass das Organ die Form „ohne die Materie“ aufnimmt, so „wie das Wachs das Siegel des Ringes ohne Eisen und ohne Gold aufnimmt“ (An. II 12, 424a18f.). Dies ist von manchen Kommentatoren, darunter Thomas von Aquin, so interpretiert worden, dass das Organ keine natürliche Veränderung "(mutatio naturalis)," sondern eine geistige "(mutatio spiritualis)" erfahre. Andere Interpreten meinen, dass „ohne Materie“ schlicht bedeutet, dass zwar keine Partikel in das Organ gelangen, dieses sich aber tatsächlich dem Wahrnehmungsobjekt entsprechend verändert. Den Tastsinn besitzen alle Lebewesen, welche Wahrnehmung besitzen. Der Tastsinn ist ein Kontaktsinn, das heißt zwischen Wahrnehmungsorgan und Wahrgenommenem befindet sich kein Medium (An. II 11, 423a13f.). Der Geschmacksinn ist eine Art Tastsinn (An. II 10, 422a8f.). Die drei Distanzsinne Riechen, Hören und Sehen hingegen benötigen ein Medium, das den Eindruck vom Wahrgenommenen zum Organ transportiert. Die Vernunft oder das Denkvermögen "(nous)" ist spezifisch für den Menschen. Aristoteles definiert sie als „das, womit die Seele denkt und Annahmen macht“ (An. III 4, 429a22f.). Die Vernunft ist unkörperlich, da sie anderenfalls in ihren möglichen Denkgegenständen eingeschränkt wäre, was aber nicht der Fall sein darf (An. III 4, 429a17-22). Allerdings ist sie körpergebunden, da sie auf Vorstellungen "(phantasmata)" angewiesen ist. Vorstellungen bilden das Material der Denkakte, sie sind konservierte Sinneswahrnehmungen. Das entsprechende Vorstellungsvermögen ("phantasia;" weder interpretierend noch produktiv im Sinne von Phantasie) ist auf Sinneseindrücke angewiesen, wenngleich Sinneseindruck und Vorstellung qualitativ mitunter stark voneinander abweichen können, etwa bei Halluzinationen. Das Vorstellungsvermögen ist den Wahrnehmungsvermögen zugeordnet (An. III 8, 428b10-18). Insofern die Vernunft also in ihrer Tätigkeit an Vorstellungen gebunden ist, ist sie auch an einen Körper gebunden. Ethik. Glück "(eudaimonia)" und Tugend oder Bestzustand "(aretê)" sind die in Aristoteles’ Ethik zentralen Begriffe. Aristoteles vertritt die These, dass das Ziel aller absichtlichen Handlungen das im „guten Leben“ verwirklichte Glück ist. Die Ausbildung von Tugenden ist nach seiner Ansicht wesentlich dafür, dieses Ziel zu erreichen (→ Tugendethik). Glück als das Ziel des guten Lebens. In ihren (absichtlichen) Handlungen streben alle Menschen nach etwas, das ihnen gut erscheint. Einige dieser erstrebten Güter werden nur als Mittel erstrebt, um andere Güter zu erreichen, andere sind sowohl Mittel als auch selbst ein Gut. Da das Streben nicht unendlich sein kann, muss es ein oberstes Gut und letztes Strebensziel geben. Dieses wird nur um seiner selbst willen erstrebt. Es wird offenbar allgemein „Glück“ "(eudaimonia)" genannt (EN I 1). Definition des Glücks als des obersten Guts Um umrisshaft zu bestimmen, worin das Glück als oberstes Gut für den Menschen besteht, fragt Aristoteles: Worin besteht die spezifische Funktion "(telos)" oder Aufgabe "(ergon)" des Menschen? Sie besteht im Vermögen der Vernunft "(logos)," das ihn von anderen Lebewesen unterscheidet. Der für den Menschen spezifische Seelenteil verfügt über dieses Vermögen der Vernunft; der andere Seelenteil, der sich aus Emotionen und Begierden zusammensetzt, ist zwar selbst nicht vernünftig, kann sich aber durch die Vernunft leiten lassen. Um das Glück zu erlangen, muss das Individuum das Vermögen Vernunft gebrauchen, nicht bloß besitzen, und zwar auf Dauer und in einem Bestzustand "(aretê)." Demgemäß ist „das Gut für den Menschen“, das Glück, eine Tugenden. Um den Zustand der Vortrefflichkeit zu erreichen, muss man den beiden Seelenteilen entsprechend (a) Verstandestugenden und (b) Charaktertugenden ausbilden. Tugenden sind für Aristoteles Haltungen, zu denen jeder Mensch die Anlage besitzt, die sich jedoch durch Erziehung und Gewöhnung erst ausbilden müssen. Unter den Verstandestugenden beziehen sich einige auf das Wissen von Unveränderlichem oder die Herstellung von Gegenständen. Allein die Klugheit "(phronêsis)" ist mit dem Handeln verknüpft, und zwar als Tugend mit dem Ziel eines guten Lebens. Sie ist – neben den Charaktertugenden – notwendig, um in konkreten Entscheidungssituationen im Hinblick auf das gute Leben handeln zu können. Im Bereich menschlicher Handlungen gibt es – anders als in den Wissenschaften – keine Beweise, und um klug zu sein, bedarf es dabei auch der Erfahrung. Die Funktion der Klugheit besteht darin, die Mitte "(mesotês)" zu wählen. Charaktertugenden sind Haltungen "(hexeis)," für die kennzeichnend ist, dass man sie loben und tadeln kann. Sie werden durch Erziehung und Gewöhnung ausgeprägt, wobei dies nicht als eine Konditionierung zu verstehen ist. Zwar hängt von Kindheit an sehr viel von der Gewöhnung ab (EN II 1, 1103b24), Charaktertugenden liegen jedoch erst vor, wenn jemand sich wissentlich für die entsprechenden Handlungen entscheidet, und zwar nicht wegen möglicher Sanktionen, sondern um der tugendhaften Handlungen selbst willen, und wenn er dabei auch nicht ins Wanken gerät (EN II 3, 1105a26-33). Auch unterscheidet sich der Tugendhafte vom Selbstbeherrschten (der dieselben Handlungen ausführen mag, sich aber dazu zwingen muss) dadurch, dass er an der Tugend Freude empfindet (EN II 2, 1104b3ff.). Durch Gewöhnung ausgeprägt werden die Charaktertugenden, indem Übermaß und Mangel vermieden werden. Das Instrument der Mitte bestimmt die Charaktertugenden genauer. So ist beispielsweise die Tugend der Tapferkeit eine Mitte zwischen den Lastern Tollkühnheit und Feigheit. Grundlage für die Tugenden sind dabei sowohl die Handlungen als auch die Emotionen und Begierden. Nicht tapfer sondern tollkühn ist jemand, der entweder in einer bestimmten Situation völlig furchtlos ist, obwohl die Situation bedrohlich ist, oder der in einer ernsten Bedrohungssituation seine Furcht ignoriert. Die Mitte besteht also – hier wie bei den anderen Charaktertugenden – darin, angemessene Emotionen zu haben und demgemäß angemessen zu handeln. Dabei ist diese Lehre von der Mitte vermutlich nicht in konkreten Situationen als normativ handlungsleitend, sondern nur als Beschreibungsinstrument der Charaktertugenden aufzufassen. Sie ist auch "keine arithmetische" Mitte, sondern eine Mitte "für uns" "(pros hêmas)," die die jeweilige Emotion, die Person sowie die Situation berücksichtigt. Aristoteles definiert die Charaktertugend dementsprechend als Lebensformen und Lust. Das Genussleben im Sinne einer bloßen Befriedigung der Begierden hält Aristoteles für sklavisch und verwirft es. Gelderwerb und Reichtum als Ziel hält er nicht für eine Lebensform, da Geld immer nur Mittel zu einem Zweck, aber nie selbst Ziel ist. Er plädiert für das theoretische Leben als beste Lebensform. Die beste Tätigkeit, die in der Glücksdefinition gesucht wird, ist diejenige des Theoretikers, der Erste Philosophie, Mathematik usw. betrachtet, denn sie bedeutet Muße, dient keinem anderen Zweck, betätigt mit den Verstandestugenden das Beste im Menschen und weist die besten Erkenntnisgegenstände auf (EN X 7, 1177a18-35). Obwohl er das theoretische Leben für das bestmögliche hält, weist er darauf hin, dass die Betrachtung als Lebensform den Menschen als Menschen übersteigt und eher etwas Göttliches ist (EN X 7, 1177b26-31). Das zweitbeste Leben ist das politische. Es besteht in der Betätigung der Charaktertugenden, die den Umgang mit anderen Menschen sowie mit unseren Emotionen bestimmen. Da Charaktertugenden und Verstandestugenden einander nicht ausschließen, meint Aristoteles möglicherweise, dass selbst der Theoretiker, insofern er ein soziales und mit Emotionen ausgestattetes Wesen ist, sich im Sinne des zweitbesten Lebens betätigen muss. Aristoteles fasst die Betätigung der Verstandestugenden (zumindest der Klugheit) und der Charaktertugenden als wesentliche Elemente des Glücks auf. Aber auch äußere oder körperliche Güter und auch die Lust hält er für Bedingungen, die hilfreich oder sogar notwendig sind, um glücklich zu werden. Güter wie Reichtum, Freunde und Macht verwenden wir als Mittel. Fehlen einige Güter, wird das Glück getrübt, wie bei körperlicher Verunstaltung, Einsamkeit oder missratenen Kindern (EN I 9, 1099a31-1099b6). Aristoteles meint, das Genussleben führe nicht zum Glück. Er hält die Lust nicht für das oberste Gut. Gegenüber lustfeindlichen Positionen macht er jedoch geltend, dass das gute Leben Lust einschließen müsse und bezeichnet die Lust als ein Gut (EN VII 14). Auch meint er, man könne einen Tugendhaften, der „auf das Rad geflochten“ sei, nicht als glücklich bezeichnen (EN VII 14, 1153b18-20). Gegen Platons Auffassung, Lüste seien Prozesse "(kinêsis)," die einen Mangel beseitigen (wie Lust beim Durstlöschen), und somit sei das Vollenden des Prozesses besser als dieser selbst, argumentiert Aristoteles dafür, dass Lüste Tätigkeiten "(energeia)" sind, die kein Ziel außer sich aufweisen. Paradigmatische Fälle sind Wahrnehmen und Denken. Mit diesem Lustkonzept, das Lust als „unbehinderte Tätigkeit“ oder „Vervollkommnung der Tätigkeit“ definiert (EN VII 13, 1153a14f.; X 4, 1174b33), macht er geltend, dass die Betätigung der Verstandestugenden und der Charaktertugenden lustvoll sein kann. Ob Lüste gut oder schlecht sind, hängt davon ab, ob die entsprechenden Tätigkeiten gut oder schlecht sind. Bei körperlichen Lüsten ist Letzteres etwa der Fall, wenn sie im Übermaß auftreten oder wenn sie gute Handlungen verhindern und so dem Glück abträglich sind. Politische Philosophie. Die politische Philosophie des Aristoteles schließt an seine Ethik an. Als umfassende Form aller Gemeinschaften besteht der Staat "(polis)" um des höchsten Gutes willen, des Glücks (EN I 1, 1094a26-b11; Pol. I 1, 1252a1-7). Die politische Philosophie fragt also nach den Bedingungen des Glücks hinsichtlich des Lebens im Staat. Hierfür analysiert er die Bestandteile jeder menschlichen Gemeinschaft und jedes Staates und untersucht, welche Verfassung "(politeia)" die beste ist und für welche besonderen Bedingungen welche Verfassung die richtige ist. Entstehung, Bestandteile und Zweck des Staates. Aus der Sicht von Aristoteles besteht der Staat von Natur aus (Pol. I 2, 1253a1). Betrachtet man die Teile des Staates, so liegen zunächst zwei grundlegende Beziehungen vor: die zwischen Mann und Frau, deren Zweck die Fortpflanzung ist, und die von Herr und Sklave mit dem Zweck, den Lebensunterhalt zu sichern. Beide gemeinsam ergeben die kleinste Gemeinschaft: den Haushalt. Aristoteles rechtfertigt die Sklaverei. Er vertritt die These, dass es Sklaven gibt, die von Natur aus zu nichts anderem bestimmt sind als zur Sklaverei. Das begründet er damit, dass solche „Sklaven von Natur“ nur in geringem Maße Anteil an der Vernunft hätten; daher sei es nicht nur gerechtfertigt, sondern sogar für sie selbst vorteilhaft, dass sie ihr Leben als Sklaven verbringen müssen (Pol. I 5, 1254b20-23; 1255a1f.). Allerdings ist sein Konzept unklar und widersprüchlich, da er die Freilassung von Sklaven grundsätzlich billigt und für die Unterscheidung zwischen akzidentellen Sklaven (etwa durch Kriegsgefangenschaft) und Sklaven von Natur keine klaren Kriterien nennt. Sein Rat, Sklaven als Lohn die Freiheit zu versprechen (Pol. VII 10, 1330a20f.), widerspricht der Vorstellung eines „Sklaven von Natur“. Entsprechend argumentiert er auch für eine Unterordnung der Frau (Pol. VII 10, 1330a20f.). Es sei für sie besser, vom Mann beherrscht zu werden, da ihre Urteilskraft schwächer sei als die männliche (Pol. I 5, 1254b10-15; I 13, 1259a12). Mehrere Haushalte ergeben ein Dorf, in dem Arbeitsteilung bessere Versorgung ermöglicht, und mehrere Dörfer einen Staat. Dieser ist autark in dem Sinne, dass er die Bedingungen für ein gutes Leben bereitstellen kann. Aristoteles unterscheidet den Grund der Entstehung des Staates von seinem Zweck. Der Staat entsteht zum Zweck des Überlebens, des Lebens an sich, sein Zweck aber ist das "gute" Leben: εὖ ζῆν = eu zēn = gut leben (Pol. I 2, 1252a25-1253a1). Nach Aristoteles gehört es zur Natur des Menschen, in Gemeinschaft zu leben, denn er ist ein "„zôon politikon“", ein Lebewesen in der Polisgemeinschaft (Pol. I 2, 1253a3). Nur im Staat kann der Mensch das gute Leben verwirklichen. Wer des Staates nicht bedürfe, sei „entweder ein Tier oder ein Gott“ (Pol. I 2, 1253a29). Bürger und Verfassung eines Staates. Eine Polis (ein Staat) besteht aus den freien Bürgern. Der Zweck des Staates ist immer das gute Leben. Militär- oder Handelsbündnisse, also Verträge, machen noch keinen Staat aus. Kennzeichnendes Merkmal eines bestimmten Staates ist seine Verfassung. Bürger sind die mit dem Bürgerrecht ausgestatteten Einwohner, die sich aktiv am politischen Geschehen (am Richten und Regieren) beteiligen (Pol. III 1, 1275a22). Den Bürger bestimmt Aristoteles also primär nicht über die Herkunft oder den Wohnort, sondern über die Partizipation an den politischen Institutionen des Staates. Entsprechend den damaligen Verhältnissen in Athen betrachtet Aristoteles Frauen, Kinder, Sklaven und Fremde nicht als Bürger. Ein Bürger darf auch nicht für seinen Lebensunterhalt arbeiten müssen. Lohnarbeiter und Handwerker können somit keine Bürger sein (Pol. III 5, 1278a11). Die jeweilige Verfassung eines Staates bestimmt genauer, wer Bürger ist und wer nicht. Die verschiedenen Verfassungen wenden auf unterschiedliche Weise die distributive Gerechtigkeit an (Pol. III 9, 1280a7-22). Distributive Gerechtigkeit bestimmt er als die Verteilung proportional zur Leistung oder Würde (EN V 6). Schema zur Verfassungslehre des Aristoteles Unter den schlechten, nicht am Gemeinwohl orientierten Verfassungen hält er die Tyrannis für die schlechteste, denn in ihr herrscht der Tyrann über den Staat im Sinne einer despotischen Alleinherrschaft wie der Herr über den Sklaven (Pol. III 8, 1279b16). Für etwas weniger schlecht erachtet er die durch die Herrschaft der Reichen gekennzeichnete Oligarchie, die ebenso wie die Tyrannis sehr instabil ist (Pol. V 12). Für den Grundirrtum der Oligarchie hält Aristoteles die Auffassung, dass die, die in "einer" Hinsicht (Besitz) ungleich sind, in "allen" Hinsichten ungleich seien. Entsprechend besteht der Grundirrtum der Demokratie in der Ansicht, dass die, die in "einigen" Hinsichten gleich sind, dies in "allen" seien (Pol. V 1, 1301a25-36). Die Demokratie hält Aristoteles für weniger schlecht als die Tyrannis und Oligarchie. Sie ist neben Gleichheit durch Freiheit gekennzeichnet. Freiheit bedeutet dabei, so zu leben wie man will, Gleichheit, dass das Regieren und Regiertwerden reihum geht (1317b2-12). Die absolute Freiheit, so zu leben wie man will, hält Aristoteles insofern für problematisch, als sie mit der Herrschaft der Verfassung in Konflikt steht (Pol. V 9, 1310a30-35). Gleichheit kritisiert er, wenn sie als totale arithmetische interpretiert wird, die dazu führe, dass die Herrschaft der Unvermögenden die Besitzenden enteignet. Dafür, dass Aristoteles die Beteiligung des „einfachen Volkes“ an der Herrschaft durchaus nicht rundweg abgelehnt hat, spricht ferner seine so genannte „Summierungsthese“ (Pol. III 11, 1281 a38-b9) und eine differenzierte Untersuchung der Formen der Volksherrschaft im Rahmen seiner zweiten Staatsformenlehre. Unter den guten Verfassungen ist die Monarchie (unter der Aristoteles nicht zwingend ein Königtum, sondern nur eine dem Gemeinwohl dienende Alleinherrschaft versteht) am wenigsten gut. Insofern sie nicht gesetzgebunden ist, ist sie eine bloße Herrschaftsform, teilweise kaum eine Verfassung, und insofern problematisch, als nur das Gesetz unbeeinflusst von Emotionen herrschen kann. Unter einer Aristokratie versteht er eine Herrschaft der Guten, das heißt derjenigen, die am meisten Anteil an der Tugend "(aretê)" haben, was nicht unbedingt Herrschaft eines Geburtsadels bedeuten muss. Da das Ziel des Staates, das gute Leben, in einer Aristokratie im höchsten Maße verwirklicht wird, hält Aristoteles sie (neben einer bestimmten Form der Monarchie, nämlich der Königsherrschaft) für die beste Verfassung (Pol. IV 2, 1289a30-32). Aristoteles diskutiert Verfassungstheorie allerdings nicht ohne Realitätsbezug. Oft ist aus seiner Sicht eine absolut beste Verfassung in einem bestimmten Staat nicht möglich. Was am besten für einen konkreten Staat ist, muss immer relativ zu den Umständen bestimmt werden (Pol. IV 1, 1288b21-33). Solche Überlegungen durchziehen die ganze Verfassungstheorie. Sie zeigen sich insbesondere im Modell der Politie, die Aristoteles als die bestmögliche für die meisten zeitgenössischen Staaten ansieht (Pol. IV 11, 1295a25). Sie ist eine Mischverfassung, die Elemente der Demokratie und der Oligarchie enthält. Dabei wird für die Bestrebungen nach Gleichheit auf der einen und nach Reichtum auf der anderen Seite ein Ausgleich geschaffen. Dieser Ausgleich wird unter anderem durch Ämterzuteilung nach Klassenzugehörigkeit erreicht (Pol. V 8, 1308b26). Auf diese Weise wird nach seiner Auffassung die Stabilität erhöht und sozialen Unruhen vorgebeugt (die in griechischen Staaten häufig waren). Besondere Stabilität verleiht dem Staat ein breiter Mittelstand (Pol. IV 11, 1295b25-38). Theorie der Dichtung. Der zentrale Begriff der aristotelischen Theorie der Dichtung, die er in seiner zu Lebzeiten nicht veröffentlichten "Poetik" "(poiêtikê)" ausarbeitet, ist die "mimêsis," das heißt die „Nachahmung“ oder „Darstellung“. Neben der Dichtung im engeren Sinne (Epik, Tragödie, Komödie und Dithyrambendichtung) zählen auch Teile der Musik und der Tanz für Aristoteles zu den mimetischen Künsten (Poet. 1, 1447a). Abbildende Künste wie Malerei und Plastik behandelt Aristoteles nicht weiter, sondern erwähnt nur, dass sie ebenfalls nach dem Prinzip der Nachahmung arbeiten (Poet. 1, 1447a19f.). Gemeinsam ist allen mimetischen Künsten die zeitliche Sukzession. Insofern lässt sich "mimêsis" als ästhetisches Handeln auffassen. In der Lust an der "mimêsis" sieht Aristoteles eine anthropologische, allen Menschen gemeinsame Grundgegebenheit. Denn die Freude an ihr sowie an ihren Produkten ist den Menschen angeboren, da sie gerne lernen (Poet. 4, 1448b5-15). Im Gegensatz zu den anderen mimetischen Künsten ist für die Dichtung die Verwendung von Sprache spezifisch. Alle Dichtung ist zudem Darstellung von Handlungen; allerdings nicht von tatsächlich Geschehenem, sondern von dem, „was geschehen könnte, das heißt das nach den Regeln der Wahrscheinlichkeit oder Notwendigkeit Mögliche“ (Poet. 9, 1451a37f.). Dargestellt werden Handlungen, die etwas über den Menschen im Allgemeinen aussagen, nicht über zufällige und beliebige Verhältnisse. Ziel ist nicht die Nachahmung von Menschen; nicht auf Figuren oder Charaktere, sondern auf Handlungen kommt es an; Erstere sind nur Mittel (Poet. 6, 1450a26-23). Aristoteles klassifiziert vier Formen der existierenden Dichtung nach zwei Kriterien: (i) der Art der Darstellung von Handlung und (ii) der Art der dargestellten Figuren. Dramatische Darstellung ist dadurch gekennzeichnet, dass die jeweilige Figur selbst die Handlung darstellt, berichtende dadurch, dass über die Handlung berichtet wird. Mit „besser“ und „schlechter“ sind die Figuren und ihre Handlungen gemeint. Bessere Figuren oder Charaktere sind etwas besser als wir selbst, schlechtere schlechter; beides aber nie so weit, dass wir uns nicht mehr mit ihnen identifizieren können (Poet. 5, 1449a31-1449b13). Aristoteles vertritt dabei die Hypothese, dass die Tragödie aus dem Epos und die Komödie aus dem Spottlied entstanden ist (Poet. 4, 1449a2-7). Eine Untersuchung der Komödie kündigt Aristoteles an. Sie ist aber – wie auch eine des Spottliedes – nicht überliefert. Das Epos behandelt er recht kurz. Seine überlieferte Dichtungstheorie ist daher primär eine Tragödientheorie. Aristoteles definiert die Tragödie als eine Dieser kurze Satz ist eine der meistdiskutierten Passagen im gesamten Werk des Aristoteles. (3) nennt das dramatisch-darstellende Element. (1) nennt (neben oben schon genannten Aspekten) die (später so genannte) Einheit der Handlung. Die Einheit des Ortes und der Zeit wurde in der Renaissance der aristotelischen Tragödientheorie zugeschrieben, er vertrat sie aber selbst so nicht. (2) bezieht sich darauf, dass die Sprache der Tragödie Melodie und Rhythmus aufweist. Die weitaus meiste Aufmerksamkeit hat (4) erhalten, insbesondere (4b). In (4) beschreibt Aristoteles die Funktion der Tragödie, das was sie leisten soll. Weitgehend unumstritten ist nur (4a): Beim Zuschauer sollen durch die dargestellte Handlung die Emotionen Mitleid und Furcht erregt werden. Unklar ist allerdings, ob "eleos" und "phobos" tatsächlich mit „Mitleid“ und „Furcht“ oder mit „Elementareffekten“ „Jammer“ und „Schauder“ wiederzugeben sind. Dass die Handlung selbst und nicht die Aufführung die entscheidende Rolle bei der Emotionserregung spielt, ist daraus ersichtlich, dass Aristoteles auch die gelesene Tragödie durch seine Theorie berücksichtigt sieht. Mitleid wird erregt, wenn die Protagonisten unverdient Unglück erleiden, Furcht, wenn sie dabei dem Zuschauer (oder Leser) ähnlich sind. (4b) ist höchst kontrovers, da die Funktionsweise nicht weiter erläutert ist. Das Wort "Katharsis," das als Metapher (wie „Reinigung“ im Deutschen) einen Sinnüberschuss aufweist, hat zu den verschiedensten Deutungen Anlass gegeben, insbesondere weil es schon vor Aristoteles verwendet wurde, nämlich unter anderem in der Medizin (Reinigung durch Brech- und Abführmittel) und in religiösen Kulten (Reinigung von unreinen Personen durch religiöse Praktiken). Die grammatikalische Konstruktion "Reinigung der Emotionen" lässt dabei verschiedene Deutungen zu, worin die Reinigung besteht. Vermutlich sollen die Emotionen "selbst" (durch eine Emotionserregung) gereinigt werden; die Aussage ist aber auch als Reinigung "von" den Emotionen verstanden worden. Aristoteles’ Tragödientheorie weist zwei Typen von Aussagen auf. Zum einen untersucht er die Grundlagen der Dichtung, unterscheidet verschiedene Arten von ihr und nennt Teile einer Tragödie und deren Funktionsweise. Zum anderen spricht er aber auch davon, was eine "gute" Tragödie ist und was der Dichter entsprechend machen "soll." So äußert er etwa, dass in einer guten Tragödie ein Protagonist weder aufgrund seines guten noch seines schlechten Charakters vom Glück ins Unglück gerät, sondern aufgrund eines Fehlers "(hamartia)," beispielsweise wie Ödipus aufgrund von Unwissenheit. Nur eine schlechte Tragödie würde zeigen, wie ein guter Charakter vom Glück ins Unglück oder ein schlechter vom Unglück ins Glück gerät. Der Grund hierfür ist die Funktion der Tragödie, das Bewirken von Mitleid und Furcht. In schlechten Tragödien würden Mitleid und Furcht nicht erregt werden, in guten ist dies aufgrund der Beschaffenheit des Protagonisten und des Fehlers als Ursache des Unglücks der Fall (Poet. 13, 1452b28-1453a12). Hymnos. Von Aristoteles ist zudem ein Hymnos an Aretê überliefert, den er in Erinnerung an seinen Freund Hermias verfasst hat. Antike. Gustav Adolph Spangenberg, "Die Schule des Aristoteles," Fresko 1883–1888 Die Lehre des Aristoteles hat auf seine Schule, den Peripatos, nach seinem Tode weit weniger Einfluss ausgeübt als Platons Lehre auf dessen Akademie. Aristoteles wurde keine Verehrung zuteil, die mit derjenigen Platons bei den Platonikern vergleichbar wäre. Dies bedeutete einerseits Offenheit und Flexibilität, andererseits Mangel an inhaltlich begründetem Zusammenhalt. Die Peripatetiker widmeten sich vor allem empirischer Naturforschung und befassten sich unter anderem auch mit Ethik, Seelenlehre und Staatstheorie. Dabei kamen Aristoteles’ Schüler Theophrastos, sein Nachfolger als Leiter der Schule, und dessen Nachfolger Straton zu teilweise anderen Ergebnissen als der Schulgründer. Nach Stratons Tod (270/268 v. Chr.) begann eine Periode des Niedergangs. Das Studium und die Kommentierung der Schriften des Aristoteles wurde damals im Peripatos anscheinend vernachlässigt, jedenfalls weit weniger eifrig betrieben als das Platonstudium in der konkurrierenden Akademie. Erst im ersten Jahrhundert v. Chr. sorgte Andronikos von Rhodos für eine Zusammenstellung der Lehrschriften (Pragmatien) des Aristoteles, und auch bei deren Auslegung durch die Peripatetiker kam es zu einem Aufschwung. Die für die Öffentlichkeit bestimmten „exoterischen“ Schriften, insbesondere die Dialoge, waren lange populär, gingen aber in der römischen Kaiserzeit verloren. Cicero hat sie noch gekannt. Die Peripatetiker betrachteten die Lehrschriften als speziell für ihren internen Unterrichtsgebrauch bestimmt. In der römischen Kaiserzeit war der einflussreichste Repräsentant des Aristotelismus Alexander von Aphrodisias, der gegen die Platoniker die Sterblichkeit der Seele vertrat. Obwohl Aristoteles großen Wert auf die Widerlegung von Kernbestandteilen des Platonismus gelegt hatte, waren es gerade die Neuplatoniker, die in der Spätantike einen maßgeblichen Beitrag zur Erhaltung und Verbreitung seiner Hinterlassenschaft leisteten, indem sie seine Logik übernahmen, kommentierten und in ihr System integrierten. Eine besonders wichtige Rolle spielten dabei im 3. Jahrhundert n. Chr. Porphyrios, im 5. Jahrhundert Proklos, Ammonios Hermeiou (der in Alexandria die Tradition der Aristoteles-Kommentierung begründete) und im 6. Jahrhundert Simplikios, der bedeutende Aristoteleskommentare verfasste. Im 4. Jahrhundert schrieb Themistios Paraphrasen zu Werken des Aristoteles, die eine starke Nachwirkung erzielten. Er war unter den spätantiken Kommentatoren der einzige (wenn auch neuplatonisch beeinflusste) Aristoteliker; die anderen befassten sich mit dem Aristotelismus aus neuplatonischer Perspektive und strebten eine Synthese platonischer und aristotelischer Auffassungen an, wobei oft ein Übergewicht der platonischen erkennbar ist. Noch zu Beginn des 7. Jahrhunderts kommentierte der angesehene, in Konstantinopel lehrende christliche Philosoph Stephanos von Alexandria Werke des Aristoteles. Bei den prominenten antiken Kirchenvätern war Aristoteles wenig bekannt und unbeliebt, manche verachteten und verspotteten seine Dialektik. Sie verübelten ihm, dass er das Weltall für ungeschaffen und unvergänglich hielt und die Unsterblichkeit der Seele bezweifelte (oder nach ihrem Verständnis bestritt). Ein positiveres Verhältnis zu Aristoteles hatten hingegen manche christliche Gnostiker und andere häretische Christen: Arianer (Aëtios, Eunomius), Monophysiten, Pelagianer und Nestorianer – ein Umstand, der den Philosophen für die kirchlichen Autoren erst recht suspekt machte. Syrer – monophysitische wie nestorianische – übersetzten das "Organon" in ihre Sprache und setzten sich intensiv damit auseinander. Im 6. Jahrhundert schrieb Johannes Philoponos Aristoteles-Kommentare, übte aber auch scharfe Kritik an der aristotelischen Kosmologie und Physik. Er war mit seiner Impetustheorie ein Vorläufer spätmittelalterlicher und frühneuzeitlicher Kritik an der aristotelischen Bewegungslehre. Mittelalter. Im Byzantinischen Reich des Frühmittelalters wurde Aristoteles wenig beachtet. Sein Einfluss machte sich vorwiegend indirekt geltend, nämlich über die meist neuplatonisch gesinnten spätantiken Autoren, die Teile seiner Lehre übernommen hatten. Daher war Vermischung mit neuplatonischem Gedankengut von vornherein gegeben. Bei Johannes von Damaskus tritt die aristotelische Komponente deutlich hervor. Im 11. und 12. Jahrhundert kam es zu einer Wiederbelebung des Interesses an aristotelischer Philosophie: Michael Psellos, Johannes Italos und dessen Schüler Eustratios von Nikaia (beide wegen Häresie verurteilt) sowie der primär philologisch orientierte Michael von Ephesos schrieben Kommentare. Die Kaisertochter Anna Komnena förderte diese Bestrebungen. Im islamischen Raum setzte die Wirkung der Werke des Aristoteles früh ein und war breiter und tiefer als in der Spätantike und im europäischen Früh- und Hochmittelalter. Der Aristotelismus dominierte qualitativ und quantitativ gegenüber der übrigen antiken Tradition. Schon im 9. Jahrhundert waren die meisten Werke des Aristoteles, häufig durch vorangehende Übersetzung ins Syrische vermittelt, in arabischer Sprache verfügbar, ebenso antike Kommentare. Hinzu kam ein reichhaltiges unechtes (pseudo-aristotelisches) Schrifttum teilweise neuplatonischen Inhalts, darunter Schriften wie die "Theologie des Aristoteles" und der "Kalam fi mahd al-khair" "(Liber de causis)." Die aristotelischen Ideen waren von Anfang an mit neuplatonischen vermischt, und man glaubte an eine Übereinstimmung der Lehren Platons und des Aristoteles. In diesem Sinne deuteten al-Kindi (9. Jahrhundert) und al-Farabi (10. Jahrhundert) und die ihnen folgende spätere Tradition den Aristotelismus; bei ibn Sina (Avicenna) trat das neuplatonische Element stärker in den Vordergrund. Einen relativ reinen Aristotelismus vertrat hingegen im 12. Jahrhundert ibn Rušd (Averroes), der zahlreiche Kommentare schrieb und die aristotelische Philosophie gegen al-Ghazali verteidigte. Im lateinischen Mittelalter war zunächst bis ins 12. Jahrhundert nur ein kleiner Teil des Gesamtwerks des Aristoteles verbreitet, nämlich zwei der logischen Schriften ("Kategorien" und "De interpretatione"), die Boethius im frühen 6. Jahrhundert übersetzt und kommentiert hatte, zusammen mit der Einleitung des Porphyrios zur Kategorienlehre. Dieses Schrifttum, später als "Logica vetus" bezeichnet, bildete die Grundlage des Logikunterrichts. Mit der großen Übersetzungsbewegung des 12. und 13. Jahrhunderts änderte sich diese enge Begrenzung. Im 12. Jahrhundert wurden die bisher fehlenden logischen Schriften ("Analytica priora" und "posteriora," "Topik," "Sophistische Widerlegungen") in lateinischer Sprache verfügbar; sie machten die "Logica nova" aus. Dann wurden eines nach dem anderen fast alle restlichen Werke zugänglich (teils erst im 13. Jahrhundert). Die meisten Schriften wurden mehrmals ins Lateinische übertragen (entweder aus dem Arabischen oder aus dem Griechischen). Michael Scotus übersetzte Aristoteleskommentare des Averroes aus dem Arabischen. Sie wurden eifrig benutzt, was in der zweiten Hälfte des 13. Jahrhunderts zur Entstehung des lateinischen Averroismus führte, der ein für damalige Verhältnisse relativ konsequenter Aristotelismus war. Im Lauf des 13. Jahrhunderts wurden die Schriften des Aristoteles als Standardlehrbücher zur Grundlage der an den Universitäten (in der Fakultät der Freien Künste) betriebenen scholastischen Wissenschaft; 1255 wurden seine Logik, Naturphilosophie und Ethik an dieser Fakultät der Pariser Universität als Lehrstoff vorgeschrieben. Die Führungsrolle kam der Pariser und der Oxforder Universität zu. Wegweisend waren die Aristoteleskommentare des Albertus Magnus. Das Verfassen von Aristoteleskommentaren wurde eine Hauptbeschäftigung der Magister, und viele von ihnen hielten die kommentierten Lehrbücher für irrtumsfrei. Besonders intensiv studierte man neben der aristotelischen Methodik die Wissenschaftstheorie, um sie als Basis für ein hierarchisch geordnetes System der Wissenschaften zu verwenden. Widerstand erhob sich allerdings von theologischer Seite gegen einzelne Lehren, vor allem gegen die Thesen von der Ewigkeit der Welt und der absoluten Gültigkeit der Naturgesetze (Ausschluss von Wundern), sowie gegen den Averroismus. Daher kam es 1210, 1215, 1231, 1245, 1270 und 1277 zu kirchlichen Verurteilungen von Lehrsätzen und zu Aristotelesverboten. Sie richteten sich aber nur gegen die naturphilosophischen Schriften oder gegen einzelne Thesen und konnten den Siegeszug des Aristotelismus nur vorübergehend hemmen. Diese Verbote betrafen nur Frankreich (vor allem Paris), in Oxford galten sie nicht. Aristoteles wurde „der Philosoph“ schlechthin: mit "Philosophus" (ohne Zusatz) war immer nur er gemeint, mit "Commentator" Averroes. Gegenpositionen (vor allem in der Erkenntnistheorie und Anthropologie) vertraten Anhänger der platonisch beeinflussten Lehren des Augustinus, besonders Franziskaner („Franziskanerschule“). Ein prominenter Kritiker des Aristotelismus war der Franziskaner Bonaventura. Ein anderer Franziskaner, Petrus Johannis Olivi, stellte um 1280 missbilligend fest: „Man glaubt ihm (Aristoteles) ohne Grund – wie einem Gott dieser Zeit.“ Schließlich setzte sich das von dem Dominikaner Thomas von Aquin abgewandelte und weiterentwickelte aristotelische Lehrsystem (Thomismus) durch, zunächst in seinem Orden und später in der gesamten Kirche. Allerdings schrieb man weiterhin neuplatonische Schriften zu Unrecht dem Aristoteles zu, wodurch das Gesamtbild seiner Philosophie verfälscht wurde. Dante würdigte in seiner "Göttlichen Komödie" Bedeutung und Ansehen des Aristoteles, indem er ihn als „Meister“ darstellte, der von den anderen antiken Philosophen bewundert und geehrt wird; jedoch verwarf Dante manche aristotelische Lehren. Die "Politik" des Aristoteles wurde erst um 1260 von Wilhelm von Moerbeke ins Lateinische übersetzt und dann von Thomas von Aquin und anderen Scholastikern kommentiert und zitiert. Besonders die Rechtfertigung der Sklaverei bzw. Knechtschaft stieß bei den Gelehrten auf Interesse und grundsätzliche Zustimmung. Die "Politik" regte Kommentatoren und Verfasser politischer Traktate zu Erörterungen über Vor- und Nachteile von Erb- bzw. Wahlmonarchie sowie von absoluter bzw. ans Gesetz gebundener Herrschaft an. In der Epoche des Übergangs vom Spätmittelalter zur Frühen Neuzeit setzte sich Nikolaus von Kues kritisch mit Aristoteles auseinander. Er stellte sich Aristoteles als fiktiven Gesprächspartner vor, dem man die Berechtigung der cusanischen Lehre von der Coincidentia oppositorum einsichtig machen könnte, obwohl Aristoteles sie nach seinem Satz vom Widerspruch hätte verwerfen müssen. Neuzeit. Statue des Aristoteles im Aristoteles Park von Stagira Chalkidiki, Griechenland In der Renaissance fertigten Humanisten neue, viel leichter lesbare Aristotelesübersetzungen ins Lateinische an, weshalb man weniger auf die Kommentare angewiesen war. Bedeutend sind u. a. die Übersetzungen der "Nikomachischen Ethik" und der "Politik" durch Leonardo Bruni. Man begann aber auch, die griechischen Originaltexte zu lesen. Es kam zu heftigem Streit zwischen Platonikern und Aristotelikern, wobei die beteiligten Humanisten mehrheitlich zu Platon neigten. Es gab in der Renaissance aber auch bedeutende Aristoteliker wie Pietro Pomponazzi (1462–1525) und Jacopo Zabarella (1533–1589), und es entstanden damals im Abendland mehr Aristoteleskommentare als während des gesamten Mittelalters. Wie im Mittelalter herrschte auch noch bei vielen Renaissance-Gelehrten das Bestreben vor, platonische und aristotelische Standpunkte untereinander und mit der katholischen Theologie und Anthropologie zu versöhnen. Seit dem 15. Jahrhundert war es aber möglich, dank des besseren Zugangs zu den Quellen das Ausmaß der fundamentalen Gegensätze zwischen Platonismus, Aristotelismus und Katholizismus besser zu verstehen. Bei der Vermittlung dieser Erkenntnisse spielte der byzantinische Philosoph Georgios Gemistos Plethon eine wichtige Rolle. Unabhängig davon herrschte der (neu)scholastische Aristotelismus, der die mittelalterliche Tradition fortsetzte, mit seiner Methode und Terminologie an Schulen und Universitäten noch bis tief in die Neuzeit, auch in den lutherischen Gebieten, obwohl Luther den Aristotelismus ablehnte. Im sechzehnten Jahrhundert unternahmen Bernardino Telesio und Giordano Bruno Frontalangriffe auf den Aristotelismus, und Petrus Ramus trat für eine nichtaristotelische Logik ein (Ramismus). Bereits Giovanni Battista Benedetti (1530–1590) widerlegte 1554 in seinem Werk "Demonstratio proportionum motuum localium contra Aristotilem et omnes philosophos" in einem simplen Gedankenexperiment die aristotelische Annahme, dass Körper im freien Fall umso schneller fallen, je schwerer sie sind: Zwei gleiche Kugeln, die durch eine (masselose) Stange fest verbunden werden, fallen mit derselben Geschwindigkeit wie jede der beiden Kugeln allein. Aber erst seit dem 17. Jahrhundert verdrängte ein neues Wissenschaftsverständnis die aristotelisch-scholastische Tradition. Den Umschwung in der Physik leitete Galileo Galilei ein. 1647 konnte die von Aristoteles aufgestellte Hypothese eines Horror Vacui von Blaise Pascal mit dem Versuch Leere in der Leere widerlegt werden. Erst in der 1687 veröffentlichten Schrift "Philosophiae Naturalis Principia Mathematica" von Isaac Newton wurde mit dem Trägheitsprinzip ein Fundament der neuen klassischen Mechanik errichtet, das die aristotelischen Annahmen ersetzte. In der Biologie konnten sich aristotelische Auffassungen bis ins 18. Jahrhundert halten. Sie erwiesen sich teilweise als fruchtbar. So ging William Harvey bei der Entdeckung des Blutkreislaufs von dem Prinzip des Aristoteles aus, dass die Natur nichts Unnötiges hervorbringt, und wendete es auf die Beschaffenheit der Blutgefäße und Herzkammern an. Charles Darwin bezeichnete 1879 Aristoteles als „einen der größten Beobachter (wenn nicht den größten), die jemals gelebt haben“. Sehr stark und anhaltend war die Nachwirkung von Aristoteles’ "Poetik", insbesondere seiner Tragödientheorie (→ Regeldrama). Sie prägte Theorie und Praxis des Theaters während der gesamten Frühen Neuzeit, abgesehen von manchen gewichtigen Ausnahmen besonders in Spanien und England (Shakespeare). Die "Poetik" lag seit 1278 in lateinischer Übersetzung vor, 1498 und 1536 erschienen humanistische Übersetzungen. Auf ihr fußte die "Poetik" des Julius Caesar Scaliger (1561), die Dichtungslehre von Martin Opitz (1624), die französische Theaterlehre des 17. Jahrhunderts "(doctrine classique)" und schließlich die von Johann Christoph Gottsched geforderte Regelkunst ("Critische Dichtkunst," 1730). Im 19. Jahrhundert setzte insbesondere in Deutschland die intensive philologische Auseinandersetzung mit dem Werk des Aristoteles ein. 1831 erschien die von der Preußischen Akademie der Wissenschaften in Auftrag gegebene und durch Immanuel Bekker besorgte Gesamtausgabe. Hermann Bonitz verfasste zahlreiche Übersetzungen und den noch heute maßgeblichen "Index Aristotelicus." Ende des 19. Jahrhunderts wurde unter der Leitung von Hermann Diels ebenfalls in der in Berlin ansässigen Akademie die 15000 Seiten umfassende Ausgabe der antiken griechischen Aristoteles-Kommentare "(Commentaria in Aristotelem Graeca)" veröffentlicht. Infolge der intensiven philologischen Auseinandersetzung wurde Anfang des 20. Jahrhunderts das lange vorherrschende Bild, das Corpus Aristotelicum sei ein als Ganzes komponiertes philosophisches System, vor allem von Werner Jaeger revidiert. Die moderne Aristotelesforschung wurde in der ersten Hälfte des 20. Jahrhunderts neben Jaeger vor allem von W. D. Ross in Oxford bestimmt; zahlreiche Schüler sorgten für eine zunehmende Beschäftigung mit Aristoteles nicht nur in den philologischen, sondern auch den philosophischen Abteilungen angelsächsischer Universitäten, die bis heute anhält. Heideggers Seinsanalyse der Fundamentalontologie geschah in intensiver Auseinandersetzung mit Aristoteles, was auch für Schüler wie Hans Georg Gadamer gilt. Den größten Einfluss hatte Aristoteles im 20. Jahrhundert in der Ethik (Tugendethik) und der politischen Philosophie (in Deutschland insbesondere in der Schule um Joachim Ritter, im angelsächsischen Raum im Kommunitarismus). In der zweiten Hälfte des 20. Jahrhunderts griff die zuvor metaphysikkritische analytische Philosophie Aristoteles’ Substanztheorie explizit (etwa David Wiggins: "Sameness and Substance", die Vier-Kategorien-Ontologie von Jonathan Lowe oder die Ontologie von Barry Smith) oder seinen Essentialismus implizit auf (z. B. Kripke). Nach ihm ist der Mondkrater Aristoteles benannt. Abraham Lincoln. Abraham Lincoln (* 12. Februar 1809 bei Hodgenville, Hardin County, heute: LaRue County, Kentucky; † 15. April 1865 in Washington, D.C.) amtierte von 1861 bis 1865 als 16. Präsident der Vereinigten Staaten von Amerika. Er war der erste aus den Reihen der Republikanischen Partei und der erste, der einem Attentat zum Opfer fiel. 1860 gewählt, gelang ihm 1864 die Wiederwahl. Seine Präsidentschaft gilt als eine der bedeutendsten in der Geschichte der Vereinigten Staaten: Die Wahl des Sklavereigegners veranlasste zunächst sieben, später weitere vier der sklavenhaltenden Südstaaten, aus der Union auszutreten und einen eigenen Staatenbund, die Konföderierten Staaten von Amerika, zu bilden. Lincoln führte die verbliebenen Nordstaaten durch den daraus entstandenen Sezessionskrieg. Er setzte die Wiederherstellung der Union durch und betrieb erfolgreich die Abschaffung der Sklaverei in den USA. Unter seiner Regierung schlug das Land den Weg zum zentral regierten, modernen Industriestaat ein und schuf so die Basis für seinen Aufstieg zur Weltmacht im 20. Jahrhundert. Kindheit und Jugend. Abraham Lincoln wurde in einer Blockhütte auf der Sinking Spring Farm nahe dem Dorf Hodgenville in Kentucky geboren. Seine Eltern waren der Farmer Thomas Lincoln und dessen Frau Nancy, die beide aus Virginia stammten. Thomas Lincolns Vorfahren waren einige Generationen zuvor aus der ostenglischen Grafschaft Norfolk nach Amerika ausgewandert. Zu seiner Familie gehörten noch Abrahams ältere Schwester Sarah sowie ein jüngerer Bruder Thomas jr., der aber schon kurz nach der Geburt starb. Als frommer Baptist lehnte Lincolns Vater die in Kentucky erlaubte Sklaverei ab, obwohl einige seiner Verwandten Sklavenhalter waren. Ende 1816 zog er mit seiner Familie nach Little Pigeon Creek im Südwesten des sklavenfreien Staats Indiana. Zwei Jahre später starb seine Frau Nancy an der so genannten „Milchkrankheit“. 1819 heiratete Thomas Lincoln die Witwe Sarah Bush Johnston, die drei eigene Kinder in die Ehe mitbrachte. Abraham Lincoln pflegte zu seiner Stiefmutter zeitlebens eine warmherzige Beziehung – auch, weil sie, anders als sein Vater, sein Streben nach Bildung unterstützte. Die Bildungsmöglichkeiten an der Frontier, der Siedlungsgrenze zur Wildnis, waren äußerst begrenzt. Auch in der Region von Indiana, in der die Lincolns damals lebten, gab es nur sporadisch betriebene Einraum-Schulen in Blockhütten, in denen die Kinder aller Jahrgänge gemeinsam unterrichtet wurden. Viel mehr als die Grundkenntnisse im Lesen, Schreiben und Rechnen wurde dort nicht vermittelt. Die Schüler lernten ihre Lektionen meist durch gemeinsames Rezitieren. Selbst diese Art des Unterrichts hat Lincoln nur sehr unstet genossen. Von 1816 bis 1827 hat er zwar verschiedene Schulen in und um das heutige Cannelton besucht, zwischen seinem 11. und seinem 15. Lebensjahr aber nicht länger als insgesamt ein Jahr. Seine umfassende Bildung hat er sich vor allem als Autodidakt angeeignet. Der junge Lincoln war lesehungrig und verschlang jedes Buch, dessen er habhaft werden konnte. Neben der King-James-Bibel beeinflussten ihn vor allem die Dramen William Shakespeares sowie Werke von Homer, Vergil, John Dryden, John Milton und Daniel Defoe. Seine Belesenheit und seine Gewandtheit im Ausdruck wurden bald im näheren Umkreis bekannt, so dass Nachbarn ihn schon als Jugendlichen baten, Briefe für sie aufzusetzen. Im Wesentlichen aber bestand Lincolns Leben damals aus der harten und ungeliebten Farmarbeit mit seinem Vater. Thomas Lincoln lieh seinen Sohn gegen Bezahlung auch an Nachbarn aus, wenn diese Unterstützung benötigten. Bis zu seinem 19. Lebensjahr teilte Abraham Lincoln das Pionierdasein seiner Familie in Indiana. 1830 zogen die Lincolns erneut weiter nach Westen, ins Macon County in Illinois. Kurz darauf verließ Abraham das Elternhaus und ließ sich im Präriestädtchen New Salem, Illinois, nieder, wo er eine Stelle als Kaufmannsgehilfe erhielt. In den nächsten Jahren war er dort auch als Landvermesser und Posthalter tätig. Das städtische Amerika lernte er erstmals im Jahr 1831 kennen, in dem er als Flößer auf dem Ohio und dem Mississippi flussabwärts bis nach New Orleans fuhr. Lincolns Aufstieg. Im Jahr 1832 nahm Lincoln als Freiwilliger am Kriegszug gegen die Sauk-Indianer unter Häuptling Black Hawk teil, ohne aber in Kämpfe verwickelt zu werden. Seine Kameraden wählten ihn bei dieser Gelegenheit zum Captain. Dies und die Tatsache, dass er sich in einem Debattierclub in New Salem als guter Redner erwiesen hatte, ermutigten ihn, noch im selben Jahr für das Repräsentantenhaus von Illinois zu kandidieren. Als Parteigänger der Whigs trat er im Wahlkampf für den Ausbau der Verkehrswege und eine Verbesserung des Schulwesens ein. Im ersten Anlauf scheiterte Lincoln, aber 1834 errang er das Mandat, das er über vier Legislaturperioden bis 1842 behalten sollte. Parlamentarier und Anwalt in Illinois. Das Staatsparlament von Illinois hatte bis 1839 seinen Sitz in der ersten Landeshauptstadt Vandalia. Als "Honest Abe" – ehrlicher Abe –, ein Spitzname, der ihm bleiben sollte, erwarb sich Abraham Lincoln dort rasch so viel Vertrauen, dass er zum Sprecher des Finanzausschusses und bereits mit 27 Jahren zum Parteiführer der oppositionellen Whigs gewählt wurde. Aus dem Jahr 1837 datiert seine erste öffentliche Stellungnahme gegen die Sklaverei. In einer Parlamentsdebatte stellte er fest, „dass die Institution der Sklaverei auf Ungerechtigkeit und schlechte Politik zurückzuführen ist“. In den ersten Jahren seiner politischen Tätigkeit absolvierte Lincoln ein diszipliniertes Selbststudium der Rechtswissenschaften; 1836 wurde er zur Anwaltskammer von Illinois zugelassen. Im folgenden Jahr gründete er mit dem Rechtsanwalt John T. Stuart eine gemeinsame Kanzlei in der neuen Hauptstadt von Illinois, Springfield. Doch auch als Anwalt lebte Lincoln noch lange in äußerst bescheidenen Verhältnissen. Während seiner Zeit in Springfield näherte sich Lincoln den Freimaurern an, die damals hohes Ansehen genossen. Obwohl er der Vereinigung wohlwollend gegenüberstand, wurde er jedoch nie – wie später irrtümlich behauptet – ihr Mitglied. Kurz vor seiner Wahl zum Präsidenten zog er ein Gesuch um Aufnahme in die "Tyrian Lodge No. 333" in Springfield zurück, weil er diesen Schritt nicht als Wahlkampftaktik missverstanden sehen wollte. Familiengründung. Im Jahr 1842 heiratete Abraham Lincoln Mary Todd, die einer reichen Familie von Pflanzern und Sklavenhaltern aus Kentucky entstammte. Bei dieser stieß die Heirat wegen Lincolns geringen Vermögens, seiner Herkunft und seiner politischen Ansichten auf erheblichen Widerstand. Ein Verwandter Mary Lincolns, ihr Schwager Benjamin Hardin Helm, war im Sezessionskrieg sogar General der konföderierten Armee und fiel in der Schlacht am Chickamauga. Zwei Kinder starben also bereits zu Lincolns Lebzeiten, und nur Robert erreichte das Erwachsenenalter. Wie sein Vater schlug er eine Karriere als Anwalt und Politiker ein und war von 1881 bis 1885 US-Kriegsminister. Der letzte direkte Nachfahre Abraham Lincolns, Robert Todd Lincoln Beckwith, ein Urenkel, starb 1985 im Alter von 81 Jahren. Abgeordneter im Repräsentantenhaus. Im Jahr seiner Heirat schied Lincoln aus dem Staatsparlament von Illinois aus, um sich verstärkt seiner Anwaltstätigkeit zu widmen. Er erwarb sich einen Ruf als Spezialist für Eisenbahnrecht und kam allmählich zu bescheidenem Wohlstand. Als einer der führenden Köpfe der Whigs in dem jungen Bundesstaat wurde er 1846 in das US-Repräsentantenhaus gewählt. In Washington trat er als Gegner von Präsident James K. Polk und seiner Kriegspolitik gegen Mexiko auf. So forderte er Polk, der den Krieg als Akt der Selbstverteidigung darstellte, in mehreren Resolutionen dazu auf, den genauen Punkt (englisch: "spot") zu benennen, an dem die mexikanische Armee in US-Territorium eingedrungen sei. Diese von Polk ignorierten Anträge wurden als "Spot Resolutions" bekannt, während Lincoln selbst wegen seiner Kriegsgegnerschaft von der Mehrheit der Presse angegriffen und als "spotty Lincoln" verhöhnt wurde. Er ging jedoch nicht so weit, der Streichung der Geldmittel für die Armee zuzustimmen. Im Januar 1849 brachte er eine Resolution zur Beschränkung der Sklaverei im District of Columbia ein. Ansonsten machte er bei seinem ersten Auftreten in der Bundespolitik kaum von sich reden. Da er in Washington ohne seine Familie lebte, reizte ihn eine Karriere in der Bundeshauptstadt wenig. Der 1849 ins Amt gelangte Präsident Zachary Taylor bot ihm an, Gouverneur des neuen Territoriums Oregon zu werden, das die heutigen Staaten Oregon, Washington und Idaho sowie Teile Montanas und Wyomings einschloss. Aber auch dies schlug er aus und kehrte 1849 nach Springfield zurück. Für die nächsten fünf Jahre verabschiedete sich Abraham Lincoln aus der Politik. Erst die Zuspitzung der Sklavenfrage brachte ihn auf die politische Bühne zurück. Weg zur Präsidentschaft. Um zu verstehen, wie Abraham Lincoln von einer kaum über Illinois hinaus bekannten Parteigröße zu einem in ganz Amerika beachteten Politiker und schließlich zum Präsidentschaftskandidaten der neuen Republikanischen Partei werden konnte, muss man die Entwicklung der Sklavenfrage und Lincolns Haltung dazu betrachten. Zuspitzung der Sklavenfrage. Gesellschaftlich, kulturell und wirtschaftlich hatten sich der Norden und der Süden der USA von jeher unterschieden. Trotz seiner geringeren Bevölkerungszahl nahm der Süden mit seiner reichen Pflanzeraristokratie bis zum Bürgerkrieg die gesellschaftlich führende Rolle ein. So kamen zum Beispiel die meisten Präsidenten aus den Sklavenhalterstaaten. Zudem wog die Stimme eines weißen Südstaatlers bei Wahlen ungleich schwerer als die eines Nordstaatlers. Wie viele Abgeordnete ein Staat ins Repräsentantenhaus entsenden durfte, hing von seiner Einwohnerstärke ab. Jedem der Südstaaten aber wurde die Zahl der dort lebenden afroamerikanischen Sklaven zu drei Fünfteln angerechnet, obwohl diesen selbst das Wahlrecht verwehrt war. Seit Beginn des 19. Jahrhunderts jedoch schritten Industrialisierung und Bevölkerungswachstum im Norden rasch voran und verschoben das wirtschaftliche Gewicht immer mehr zu seinen Gunsten. Karte von Kansas und Nebraska aus dem Jahr 1855 Die Interessen der beiden völlig gegensätzlichen Wirtschaftssysteme ließen sich immer schwerer miteinander vereinbaren. Der Süden, als Agrarland auf die Ausfuhr von Baumwolle, Tabak und anderen Plantagenprodukten angewiesen, verfocht eine Freihandelspolitik, worin er von Großbritannien unterstützt wurde. Der Norden, der seine noch junge Industrie vor der Einfuhr von Massenprodukten aus England schützen wollte, trat für möglichst hohe Schutzzölle ein. Die im Süden traditionell starke Demokratische Partei war für eine weitgehende Autonomie der Einzelstaaten, was auch das Recht neuer Staaten einschloss, auf ihrem Territorium die Sklaverei zu gestatten. Lincolns Partei dagegen, die Whigs (wie später auch die Republikaner), trat für eine starke Zentralmacht in Washington sowie für das Prinzip der freien Arbeit in den neu zu besiedelnden Gebieten des Westens ein. Freie und Sklavenstaaten waren zunehmend darauf bedacht, gegenüber der jeweils anderen Seite im Senat nicht in die Minderheit zu geraten. Dieses Problem stellte sich jedes Mal neu, wenn ein weiterer Staat in die Union aufgenommen werden sollte. Eine erste Zuspitzung des Konflikts konnte 1820 durch den Missouri-Kompromiss entschärft werden. Er sah vor, dass die Sklaverei nördlich der Mason-Dixon-Linie, die auf etwa 36° 30′ nördlicher Breite verlief, in allen neuen Staaten mit Ausnahme Missouris verboten sein solle. Infolge der großen Landgewinne, die die USA 1848 im Mexikanisch-Amerikanischen Krieg südlich dieser Linie gemacht hatten, drohte sich das Gleichgewicht erneut zugunsten des Südens zu verschieben. Das sogenannte Wilmot Proviso, nach dem die Sklaverei in den eroberten Gebieten verboten werden sollte, erlangte nie Gesetzeskraft. Mit dem Kompromiss von 1850 aber, der unter anderem vorsah, Kalifornien als freien Staat in die Union aufzunehmen, gelang es dem Kongress ein letztes Mal, die Gegensätze auszugleichen. Am 30. Mai 1854 jedoch verabschiedete der Kongress auf Antrag des demokratischen Senators Stephen A. Douglas, eines späteren politischen Gegners Lincolns, den Kansas-Nebraska Act. Dieses Gesetz stellte es den beiden Territorien – obwohl nördlich der Mason-Dixon-Linie gelegen – frei, in ihren künftigen Staatsverfassungen selbst festzulegen, ob sie die Sklaverei gestatten oder nicht. In "Bleeding Kansas", dem blutenden Kansas, brach daraufhin ein „Bürgerkrieg vor dem Bürgerkrieg“ aus. In ihm bekämpften sich Sklavereibefürworter und Anhänger der Free-Soil-Bewegung, die für das Prinzip der freien Arbeit auf freiem Land eintraten. Die faktische Aufhebung des Missouri-Kompromisses löste einen Sturm der Entrüstung im ganzen Norden aus. Lincoln als gemäßigter Gegner der Sklaverei. Im Streit über das neue Gesetz zerbrach die Partei der Whigs. Wie Lincoln schloss sich der größte Teil ihrer Mitglieder noch im Laufe des Jahres 1854 mit gemäßigten Sklavereigegnern aus den Reihen der Demokraten, mit radikalen Abolitionisten, die das sofortige Verbot der Sklaverei forderten, und mit einigen anderen Gruppierungen zur neuen Republikanischen Partei zusammen. Zu dieser Zeit war Lincoln kein bedingungsloser Gegner der Sklaverei. Er verabscheute sie zwar moralisch, vertrat gegenüber den Südstaaten damals aber einen streng am geltenden Recht und Gesetz orientierten Standpunkt. So war er der Ansicht, dass die Gründerväter der Vereinigten Staaten die Sklaverei grundsätzlich als Übel angesehen, sie aber aus pragmatischen Gründen weiterhin in jenen Staaten geduldet hätten, in denen sie zur Zeit der Unabhängigkeitserklärung von 1776 und zum Zeitpunkt der Verabschiedung der US-Verfassung von 1787 bereits bestand. Eine Ausdehnung der Sklaverei auf weitere Staaten und Territorien widerspreche aber dem Geist der Verfassung und den freiheitlichen Prinzipien der Amerikanischen Revolution. In den frühen Jahren der Republik hatten sogar viele Politiker aus den Südstaaten diesen Standpunkt geteilt, die – wie George Washington oder Thomas Jefferson – selbst Sklavenhalter waren. Sie dachten an eine allmähliche Abschaffung der Sklaverei. Die Erfindung der Cotton Gin jedoch, einer Maschine, die die Fasern der Baumwolle von ihren Samenkapseln trennt, machte um 1800 den Baumwollanbau im großen Stil – und damit auch den Einsatz von Sklaven – profitabler denn je. Seither mehrten sich im Süden die Stimmen, die nicht nur für die Beibehaltung der Sklavenwirtschaft, sondern sogar für ihre Ausdehnung auf andere Staaten eintraten. Gingen den Verfechtern der Sklaverei die Kompromisse von 1820 und 1850 nicht weit genug, sahen viele Sklavereigegner des Nordens in ihnen ein viel zu großes Entgegenkommen gegenüber dem Süden. Mit dem Kansas-Nebraska Act schienen die Sklavereibefürworter endgültig in die Offensive zu gehen. Daher bewog seine Verabschiedung Lincoln, in die Politik zurückzukehren. Die Senatswahl verlor Lincoln zwar erneut, aber er hatte sich nun als gemäßigter Gegner der Sklaverei im ganzen Land einen Namen gemacht und galt als möglicher Kandidat der Republikaner für die nächsten Präsidentschaftswahlen. Präsidentschaftswahl von 1860. Ergebnis der Wahl von 1860 Lincoln hatte bis zu diesem Zeitpunkt nie ein hohes Staatsamt bekleidet und seine Erfahrungen in Washington beschränkten sich auf die wenigen Jahre als Kongressabgeordneter. Zwar unternahm er 1859 Vortragsreisen durch die Nordstaaten, um sich der Bevölkerung und seinen Parteifreunden vorzustellen und weiter für seinen gemäßigten Standpunkt zu werben. Aber trotz seiner wachsenden Bekanntheit galt er noch zu Beginn des Nominierungsparteitags der Republikaner, der im Mai 1860 in Chicago stattfand, als Außenseiter im Rennen um die Präsidentschaftskandidatur. Hoher Favorit war der Senator und frühere Gouverneur von New York, William H. Seward. Auch den Kandidaten Salmon P. Chase aus Ohio und Edward Bates aus Missouri wurden allgemein größere Chancen eingeräumt als Lincoln. Auf der Convention in Chicago konnte er sich uneingeschränkt nur auf die Delegation seines Heimatstaats Illinois verlassen. Deren Mitglieder aber überzeugten zahlreiche Delegierte anderer Staaten davon, für Lincoln als Kompromisskandidaten zu stimmen, falls sich ihr erster Favorit nicht durchsetzen ließe. Da sich die Vertreter der als radikal geltenden Sklavereigegner Seward und Chase und die eher konservativen Gruppierungen um Bates bei den Abstimmungen gegenseitig blockierten, bestimmten die Republikaner am 18. Mai 1860 schließlich Abraham Lincoln zu ihrem Spitzenkandidaten für den Kampf ums Weiße Haus. Seine Gegner nahm er später alle in sein Kabinett auf. Damit zwang er die Führer der verschiedenen innerparteilichen Gruppierungen, zusammen statt gegeneinander zu arbeiten. Während des Wahlkampfs kam Lincoln seine hohe rhetorische Begabung zustatten. Er galt als einer der größten Redner seiner Zeit und viele der von ihm geprägten Aussprüche und Aphorismen gehören in den USA bis heute zum allgemeinen Bildungsgut. Vor allem verstand er es, komplizierte Fragen mit einfachen Worten auf den Punkt zu bringen. Sätze wie „Nichts ist geregelt, was nicht gerecht geregelt ist“, „Die Wahlversprechen von heute sind die Steuern von morgen“ oder „Wer anderen die Freiheit verweigert, verdient sie nicht für sich selbst“ überzeugten viele Wähler. Das Wahlkampflied, das sein Programm prägnant zusammenfasste, war der noch heute populäre Song "Lincoln and Liberty". Die Präsidentschaftswahl fand im Herbst statt. Eine Grundlage für seinen Sieg hatte Lincoln schon zwei Jahre zuvor in den Debatten mit Stephen A. Douglas gelegt. Er hatte damals seinen Gegner, der die Präsidentschaftskandidatur der Demokraten anstrebte, zu Äußerungen über die Sklaverei gedrängt, die ihn für die Demokraten des Südens unwählbar machten. Wie die Whigs sechs Jahre zuvor, so hatte sich nun auch die Demokratische Partei gespalten. Die Nord-Demokraten nominierten Douglas, die Süd-Demokraten den eindeutigen Sklavereibefürworter John C. Breckinridge aus Kentucky, zu diesem Zeitpunkt noch amtierender Vizepräsident. Beide zusammen gewannen 2,2 Millionen Wähler, John Bell aus Tennessee, der für die von den Whigs abgespaltene Constitutional Union Party antrat, weitere 0,6 Millionen; Lincoln aber wurde mit fast 1,9 Millionen Stimmen der stärkste Einzelkandidat. Er siegte in keinem einzigen der Wahlbezirke des Südens – in den meisten stand er nicht einmal auf dem Stimmzettel –, erhielt aber fast alle Wahlmännerstimmen des Nordens (180) und damit eine klare Mehrheit: Mit 40 % der Wählerstimmen gewannen er und sein Vizepräsidentschaftskandidat Hannibal Hamlin 59 % aller Wahlmänner. Am 6. November 1860 wurde Abraham Lincoln gewählt; am 4. März 1861 sollte er den Amtseid ablegen. In diesen vier Monaten aber wurden Tatsachen geschaffen, die Lincolns gesamte Regierungszeit bestimmen sollten. Lincoln als Präsident. Während seiner gesamten Amtszeit als US-Präsident sah sich Abraham Lincoln gezwungen, einen Bürgerkrieg zur Wiederherstellung der Union zu führen. Dabei stand er im Wesentlichen vor vier großen Aufgaben: Er musste den Krieg militärisch gewinnen, bei der Bevölkerung des Nordens die Kampfbereitschaft aufrechterhalten, die Einmischung europäischer Mächte zugunsten der Konföderierten verhindern und schließlich die Abschaffung der Sklaverei betreiben, um die Ursache des Konflikts ein für alle Mal zu beseitigen. Amtsantritt und Kriegsbeginn. Die Wahl Abraham Lincolns war nicht die Ursache, aber der Anlass der Sezession. Bereits seit etwa 1850 hatten sich in den Südstaaten die Stimmen gemehrt, die für einen Austritt aus der Union eintraten. Die im Norden geübte Kritik an der Sklaverei wurde als Bedrohung der eigenen Lebensart und Kultur betrachtet und jeder Versuch, sie zu beschränken, als Eingriff in die Rechte der Einzelstaaten und in das Eigentumsrecht ihrer Bürger. Aufgrund dieser Sichtweise machten die Verfechter der Sezession keinen Unterschied zwischen der kompromissbereiten Haltung Lincolns und den Zielen der Abolitionisten. Die Aussicht, Lincoln ins Weiße Haus einziehen zu sehen, gab den Extremisten im Süden den letzten entscheidenden Auftrieb. Noch bevor der neue Präsident sein Amt antreten konnte, gab South Carolina am 20. Dezember 1860 als erster Staat seinen Austritt aus der Union bekannt. Innerhalb weniger Wochen folgten alle Staaten des tiefen Südens: Mississippi, Florida, Alabama, Georgia, Louisiana und am 2. März 1861 Texas. In Montgomery, der Hauptstadt Alabamas, hatte sich am 4. Februar 1861 ein Provisorischer Kongress aus Vertretern der bis dahin ausgetretenen Staaten konstituiert. Dieser wählte am 9. Februar den Senator von Mississippi und früheren Kriegsminister Jefferson Davis, der wie Lincoln aus Kentucky stammte, zum provisorischen Präsidenten der Konföderierten Staaten von Amerika. Der scheidende US-Präsident James Buchanan bestritt den Einzelstaaten zwar das Recht, die Union zu verlassen, tat in seinen letzten Wochen im Amt aber nichts, um die Sezession zu verhindern. Lincolns Gegenspieler Jefferson Davis, Präsident der Konföderierten Staaten von Amerika Der Beginn der Kampfhandlungen bewog Virginia und drei weitere Staaten des oberen Südens – North Carolina, Tennessee und Arkansas – die Union nun ebenfalls zu verlassen. Die Konföderierten verlegten daraufhin ihre Hauptstadt nach Richmond, Virginia. Von diesem Staat wiederum trennten sich die westlichen Landesteile ab, die in der Union bleiben wollten. Sie bildeten später den neuen Bundesstaat West Virginia. Um die Hauptstadt Washington halten zu können, war es für den Norden von entscheidender Bedeutung, die sklavenhaltenden Grenzstaaten Delaware, Maryland, Kentucky und Missouri zum Verbleib in der Union zu bewegen. Zu diesem Problem ist der Ausspruch Lincolns überliefert: „In diesem Krieg hoffe ich Gott auf meiner Seite zu haben. Kentucky aber muss ich auf meiner Seite haben.“ Alle vier Staaten blieben schließlich loyal – teils freiwillig, teils unter militärischem Druck. Lincolns Politik im Krieg. a> bei einem Truppenbesuch kurz nach der Schlacht von Antietam 1862 Tote auf dem Schlachtfeld von Gettysburg Die US-Armee zählte zu Kriegsbeginn nur etwas mehr als 16.000 Soldaten, die zudem überwiegend in den Indianergebieten des Westens stationiert waren. Am 15. April, einen Tag nach dem Fall von Fort Sumter, berief Lincoln daher 75.000 auf 90 Tage verpflichtete Milizsoldaten ein, um der Rebellion, wie die Abspaltung der Südstaaten im Norden genannt wurde, nunmehr militärisch ein Ende zu bereiten. Als weitere Sofortmaßnahme verfügte er eine Seeblockade aller konföderierten Häfen und vergrößerte die US-Streitkräfte bis zum Frühsommer durch weitere Anwerbungen auf rund 174.000 Soldaten und Matrosen. Da der Kongress erst im Juli wieder tagen sollte, geschahen diese Truppenaushebungen ohne dessen Ermächtigung. Dasselbe traf auf die Einschränkung einiger Grundrechte, etwa der Pressefreiheit oder des Habeas-Corpus-Gesetzes, zu. So ließ Lincoln Personen, die der Spionage für die Südstaaten verdächtigt wurden, ohne gesetzliche Grundlage verhaften. All dies brachte ihm bei Sympathisanten des Südens – zum Teil bis heute – den Ruf eines Diktators ein. Als aber im Juli die Vertreter der in der Union verbliebenen Staaten zum Kongress zusammentraten, stimmten sie allen Notstandsmaßnahmen des Präsidenten nachträglich zu. Aus ihrer Sicht verfuhr Lincoln mit den Unterstützern der Konföderierten nicht anders, als es mit Angehörigen einer fremden, mit den USA im Krieg befindlichen Macht üblich war – und genau dies beanspruchte die Konföderation ja zu sein. Doch selbst die angegebenen energischen Maßnahmen Lincolns reichten nicht aus. Die erste Niederlage der Unionstruppen in der Schlacht am Bull Run am 21. Juli 1861 machte deutlich, dass der Konflikt militärisch nicht schnell zu lösen war. Die Union musste sich auf einen langwierigen Eroberungskrieg einstellen. Dies war mit einer kleinen Berufsarmee und einer dreimonatigen Dienstpflicht nicht zu erreichen. Auch die Verlängerung auf neun Monate reichte nicht aus. Schließlich führte Lincolns Regierung erstmals in der Geschichte der USA die allgemeine Wehrpflicht ein, eine Maßnahme, die Anfang Juli 1863 zu bürgerkriegsähnlichen Unruhen in New York führte, den sogenannten Einberufungskrawallen. In der Stadt gab es zeitweilig sogar Bestrebungen, sich ebenfalls von der Union loszusagen und einen souveränen Staat zu bilden. Der Bürgerkrieg zog sich auch deshalb in die Länge, weil Lincoln lange Zeit keinen geeigneten Oberbefehlshaber für die Potomac-Armee fand, die die Hauptlast der Kämpfe im Grenzgebiet von Virginia, zwischen Washington, D.C. und Richmond, zu tragen hatte. General George B. McClellan erwies sich zwar als hervorragender Organisator, aber als zögerlicher Heerführer. Er vergab – etwa im Halbinsel-Feldzug vom Frühjahr 1862 – gleich mehrere Chancen, dem Krieg durch schon greifbare Siege ein frühes Ende zu bereiten. Andere Befehlshaber wie Ambrose E. Burnside und Joseph Hooker erlitten katastrophale Niederlagen gegen die zahlenmäßig unterlegene Nord-Virginia-Armee des konföderierten Generals Robert E. Lee. Abraham Lincoln, der zwischen seiner Funktion als Kompaniechef im Indianerkrieg und der als Oberbefehlshaber der US-Streitkräfte nie mehr einen soldatischen Rang bekleidet hatte, unterzog sich nun auch einem Selbststudium in Militärfragen und wurde bald zum Experten. Mit den auf dem westlichen Kriegsschauplatz siegreichen Generalen Ulysses S. Grant und William T. Sherman fand er schließlich zwei Kommandeure, die mit ihren Truppen – der eine von Norden, der andere von Westen – die Konföderierten in langen, blutigen Kämpfen niederrangen. Kriegsziele und Kriegsgründe. Der Sklaverei-Gegner Horace Greeley übte als Verleger erheblichen Einfluss auf die öffentliche Meinung im Norden aus In der Tat ging es im Bürgerkrieg vordergründig um den nationalen Zusammenhalt der Vereinigten Staaten. Die Frage, an der sich der Kampf entzündet hatte, lautete: Hat ein einzelner Bundesstaat der USA das Recht, jederzeit aus der gemeinsamen Union auszutreten? Der Süden bejahte dies, mit dem Argument, man sei dem Bund schließlich freiwillig beigetreten. Die Konföderierten kämpften also nach eigenem Selbstverständnis für die Rechte der Einzelstaaten. Der Norden wies dagegen darauf hin, dass keines der Einzelstaatenrechte bis dahin verletzt worden und dass nach der Unabhängigkeitserklärung von 1776 eine Revolution nur nach fortgesetzten schweren Rechtsverletzungen gerechtfertigt sei. Den tieferen Grund des Konflikts aber berührte Abraham Lincoln in der Gettysburg Address von 1863. In dieser Rede, seiner berühmtesten, sagte er, der Krieg werde um die Frage geführt, ob ein Staat, der sich auf Demokratie und individuelle Freiheit gründe, überhaupt auf Dauer bestehen könne. Diese Frage stellte sich mit umso größerer Berechtigung in einer Zeit, als eine „Regierung des Volkes, durch das Volk und für das Volk“ – wie Lincoln es in der Rede formulierte – international noch die große Ausnahme darstellte. Lincoln gab damit seiner Überzeugung Ausdruck, dass eine Demokratie zerbrechen müsse, wenn eine Minderheit (wie die Südstaatler) eine demokratische Entscheidung der Mehrheit (wie Lincolns Wahl zum Präsidenten) jederzeit verwerfen oder sogar mit Gewalt beantworten dürfe. Hinter der Frage der Einzelstaatenrechte stand aber immer unübersehbar die Sklavenfrage. An ihr – und nur an ihr – hatte sich der Streit um diese Rechte überhaupt erst entzündet. Ohne sie hätte sich das Problem der Einzelstaatenrechte nie in dieser Schärfe gestellt. So erwähnt beispielsweise die Erklärung zum Sezessionsbeschluss des Staates Texas vom 2. Februar 1861 den Dissens in der Frage der Sklaverei 21-mal, die Frage der Einzelstaatenrechte aber nur sechsmal. Lincoln verneinte aus wahltaktischen Gründen lange, dass die Abschaffung der Sklaverei zu seinen Kriegszielen gehörte. Denn zu Beginn des Konfliktes bildeten die Abolitionisten auch im Norden noch immer eine Minderheit, und kaum jemand wäre bereit gewesen, für die Befreiung der Sklaven in den Kampf zu ziehen. Doch ebendiese hatte Lincoln bereits in die Wege geleitet, als er den zitierten Brief an Greeley schrieb. Sklavenbefreiung. Lincoln mit seinem Kabinett bei der Unterzeichnung der Proklamation zur Sklavenbefreiung In der Tat war Lincoln nie radikaler Abolitionist und wurde es auch im Krieg nicht. In dem berühmten Brief an Greeley unterschied er zwischen seinem persönlichen Wunsch, nach dem alle Menschen frei sein sollten, und seiner Pflicht als Amtsträger, nach Recht und Gesetz zu handeln. Laut Gesetz aber war die Sklaverei im Süden erlaubt. Nach Lincolns Vorstellung sollte sie in einem allmählichen Prozess abgeschafft und die Sklavenhalter für den Verlust ihres „Besitzes“ entschädigt werden. Diesen Standpunkt vertrat er noch bis in die Anfangsphase des Bürgerkriegs hinein. So widerrief er beispielsweise die Anordnungen des Generalmajors John Charles Frémont, der die Sklaven von Plantagenbesitzern, die gegen die Union kämpften, für frei erklärt hatte. Auf gar keinen Fall war Lincoln vor 1861 bereit, die Sklavenfrage durch einen Krieg zu entscheiden. Indem sie aber von sich aus zur Gewalt gegriffen hatten, waren die Südstaaten nach Lincolns Auffassung selbst vom Weg des Rechtes und der Verfassung abgekommen. Je länger der Krieg dauerte, je mehr Opfer er forderte und je mehr Widerhall die Proteste der Abolitionisten fanden, desto stärker wurde Lincolns Überzeugung, dass die Sklaverei als Quelle allen Übels endgültig abgeschafft werden müsse. Dazu kam, dass er die Sklavenbefreiung mehr und mehr als Mittel begriff, den Süden wirtschaftlich und militärisch zu treffen. Kongress und Senat hatten bereits 1861 und 1862 sogenannte "Confiscation Acts" verabschiedet, durch die unter anderem die Sklaven konföderierter Soldaten für frei erklärt wurden. Dies sollte das Militär der Südstaaten schwächen. Am 22. Juli 1862 informierte Lincoln sein Kabinett über die geplante Proklamation zur Sklavenbefreiung. Da auch sie als Kriegsmaßnahme gedacht war, gab Außenminister Seward zu bedenken, dass die Erklärung nach der Reihe schwerer Niederlagen, die die Union bis dahin erlitten hatte, als Zeichen der Schwäche missdeutet werden könne. Daher gab Lincoln die Proklamation erst im September bekannt, nach dem Unionssieg in der Schlacht am Antietam. Die Proklamation galt also vorerst nur für die Gebiete der Konföderierten, um die loyal gebliebenen Sklavenstaaten nicht zu verprellen. Aber die Befreiung der Sklaven war nun ein offizielles Kriegsziel der Union. Dessen moralisches Gewicht machte es England und Frankreich, die aus wirtschaftlichen und machtpolitischen Gründen die Sache der Konföderation unterstützten, unmöglich, aktiv auf deren Seite in den Krieg einzugreifen. Vollständig abgeschafft wurde die Sklaverei 1865. Indianerpolitik. Als Befürworter der Free-Soil-Bewegung unterzeichnete Lincoln 1862 den "Homestead Act", der 1863 in Kraft trat. Dieses Gesetz erlaubte es jedem Erwachsenen, sich auf unbesiedeltem Land niederzulassen und sich ein 160 Acre (etwa 64 ha) großes Areal anzueignen. Nach fünfjähriger Bewirtschaftung – oder bei Zahlung von 200 Dollar bereits nach einem halben Jahr – wurde er automatisch zum Eigentümer. Einerseits schuf dieses Gesetz, das bereits bestehende einzelstaatliche Regelungen ergänzte und vereinheitlichte, Rechtssicherheit für die Siedler. Andererseits ermöglichte es die Enteignung der Indianergebiete, indem es unterstellte, diese würden nicht bewirtschaftet. Vor allem nomadisch lebende Gruppen wurden nun verstärkt in Reservate abgedrängt. Das Heimstätten-Gesetz leistete dem Betrug Vorschub und führte zu zahllosen Konflikten zwischen Indianern und Siedlern, in denen die Gerichte meist zugunsten der letzteren entschieden. Im Sommer 1862, noch vor Inkrafttreten des "Homestead Act" und dreißig Jahre nach seiner Teilnahme am Krieg gegen die Sauk, sah sich Lincoln erneut einem Konflikt mit Indianern gegenüber. Nachdem vertraglich zugesicherte, staatliche Geldzahlungen an die Santee-Sioux in Minnesota ausgeblieben waren, gingen hungernde Mitglieder des Stammes gewaltsam gegen die örtliche Indianerbehörde und weiße Siedler vor. Kriegsminister Stanton beauftragte im September Generalmajor John Pope mit der Niederschlagung des Sioux-Aufstands. Pope, der für die kurz zuvor erlittene Niederlage der Unionstruppen in der 2. Schlacht am Bull Run verantwortlich gemacht wurde, hatte sich für den Einsatz freiwillig gemeldet, um seiner Absetzung als Befehlshaber der Virginia-Armee zuvorzukommen. In einem Befehl an den Kommandeur der Expedition, Oberst H. H. Sibley, schrieb er: „Es ist meine Absicht, die Sioux vollständig auszurotten. […] Sie müssen behandelt werden wie Wahnsinnige oder wilde Tiere und auf keinen Fall wie Menschen, mit denen man Verträge oder Kompromisse schließen kann.“ Nach der Niederschlagung des Aufstands wurden mehrere Hundert Sioux vor Militärgerichte gestellt und in Verfahren, die im Schnitt 10 bis 15 Minuten dauerten, zum Tode verurteilt. Pope wollte schließlich 303 Verurteilte hinrichten lassen, doch Lincolns Regierung fürchtete den ungünstigen Eindruck einer solchen Massenexekution auf die europäischen Regierungen, deren Einmischung in den Sezessionskrieg sie fürchtete. Andererseits forderten zahlreiche Siedler in Minnesota die Hinrichtung. 200 von ihnen griffen sogar das Gefangenenlager in Mankato an. Dennoch reduzierten Anwälte im Auftrag Lincolns die Zahl der Todesurteile drastisch. So wurden schließlich „nur“ 38 Männer gehängt, einer davon, Chaska, trotz seiner Begnadigung. Dies war die größte Massenhinrichtung in der amerikanischen Geschichte. Im Gegenzug sagte Lincoln, der sich massiven politischen Drucks zu erwehren hatte, die spätere Vertreibung der Indianer aus dem Bundesstaat zu sowie zwei Millionen Dollar Schadensersatz. Lincoln begründete die Hinrichtung damit, dass er nicht durch zu große Gnade einen weiteren Aufstand provozieren, aber auch nicht grausam sein wollte. In Minnesota wurde die hohe Anzahl der Begnadigungen eher schlecht aufgenommen: Bei der Präsidentschaftswahl 1864 gewann Lincoln zwar eine Mehrheit im Staat, doch fiel diese deutlich geringer aus als 1860. Darauf angesprochen, dass eine härtere Gangart dies hätte verhindern können, sagte Lincoln: „Ich konnte es mir nicht erlauben, Männer für Stimmen aufzuhängen.“ In Lincolns Amtszeit fiel auch das Sand-Creek-Massaker im Osten des damaligen Territoriums Colorado. Dabei töteten Soldaten unter dem Kommando von Oberst John Chivington am 29. November 1864 273 friedliche Cheyenne und Arapaho. Wesentlich beigetragen zur indianerfeindlichen Stimmung in dem Territorium hatte dessen Gouverneur John Evans, ein Mitbegründer der Republikanischen Partei und persönlicher Freund Lincolns. Evans, der Chivington für seine Tat ausgezeichnet und die wahren Umstände des Massakers verschleiert hatte, sah sich bald massiver Kritik ausgesetzt. Lincoln, der Evans eingesetzt hatte, stärkte ihm noch bis Anfang 1865 den Rücken, erst sein Nachfolger als Präsident, Andrew Johnson, enthob den Gouverneur im Sommer 1865 seines Amtes. Wiederwahl 1864. Nach ihrer Niederlage in der Schlacht von Gettysburg vom 1. bis 3. Juli 1863 waren die Konföderierten nicht mehr in der Lage, den Krieg aus eigener Kraft zu gewinnen. Ihre einzige Chance bestand darin, den Krieg so lange und für den Norden so verlustreich weiterzuführen, dass Abraham Lincoln die Präsidentschaftswahlen von 1864 verlieren und durch einen neuen, verhandlungsbereiten Präsidenten ersetzt würde. Diese Chance war durchaus real. Der unerwartet lange und blutige Stellungskrieg, den General Grant seit dem Frühjahr 1864 im Norden Virginias führte, kostete die Regierung Lincoln weitgehend das Vertrauen der Bevölkerung. Der Präsident war im Sommer des Wahljahrs so unpopulär, dass er selbst mit einer Niederlage rechnete. In einem Memorandum vom 23. August 1864 schrieb er: „Die Wiederwahl dieser Regierung erscheint heute, wie seit einigen Tagen, als überaus unwahrscheinlich.“ Sein Gegenkandidat von den Demokraten war sein früherer Oberbefehlshaber McClellan, der grundsätzlich zu einem Verhandlungsfrieden mit dem Süden und zur Anerkennung seiner Unabhängigkeit bereit war. Erst in den letzten Wochen vor der Wahl wendete sich das Blatt, als die Ergebnisse des für den Norden äußerst erfolgreichen Atlanta-Feldzuges bekannt wurden: Die Truppen General Shermans hatten am 2. September 1864 Atlanta, die Hauptstadt des Rebellenstaates Georgia, erobert. Zwischen ihnen und Virginia standen nur noch schwache Kräfte des Südens. Zudem besiegte Generalmajor Philip Sheridan am 19. Oktober im Shenandoah-Tal ein konföderiertes Korps, das zeitweilig sogar Washington bedroht hatte. Das Kriegsende schien jetzt nur noch eine Frage der Zeit zu sein. Die Republikaner setzten im Wahlkampf auf den von Lincoln geprägten Slogan „Mitten im Fluss soll man nicht die Pferde wechseln“ und bezeichneten die Positionen der Demokraten als landesverräterisch. Als Kandidat für die Vizepräsidentschaft ersetzte Lincoln den bisherigen Amtsinhaber, den weitgehend einflusslosen Nordstaatler Hannibal Hamlin, durch Andrew Johnson. Dieser gehörte der Demokratischen Partei an, stammte aus dem Konföderiertenstaat North Carolina und war 1857 von Tennessee in den Senat entsandt worden, hatte sich aber für die Union ausgesprochen. Seine Kandidatur sollte den Südstaatlern die Bereitschaft des Nordens signalisieren, sie nach dem Krieg gleichberechtigt in die wiederhergestellte Union zu integrieren. Gemeinsam mit Johnson kandidierte Lincoln im Rahmen der National Union Party, einer Wahlplattform aus Republikanern und einem Teil der Demokraten. Am 8. November gewann Lincoln die Wahl mit einem Erdrutschsieg: 55 Prozent der Wähler stimmten für ihn, und er erhielt sogar 212 von 233 Wahlmännerstimmen. Als erster Präsident seit 32 Jahren war er für eine zweite Amtszeit bestätigt worden. Seine Wähler entstammten vor allem der Bauern- und Arbeiterschaft sowie den städtischen Mittelschichten. Ihre geografischen Hochburgen waren Neuengland und die Staaten mit einem starken Anteil deutscher Einwanderer wie Wisconsin oder Illinois. Für den Präsidenten war es besonders bedeutsam, dass auch die Soldaten der Unionsarmee zu mehr als zwei Dritteln für ihn gestimmt hatten, obwohl sie sich von einem Sieg McClellans ein rascheres Ende der Kampfhandlungen erhoffen konnten. Vor der Wahl hatte Lincoln geäußert, es sei ihm lieber, mit der Mehrheit der Soldatenstimmen besiegt als ohne diese Mehrheit Präsident zu werden. In der Zeit bis zu seinem zweiten Amtsantritt setzte sich Lincoln energisch für die Verabschiedung des 13. Zusatzartikels zur US-Verfassung ein, der die Sklaverei auf dem Territorium der USA ein für alle Mal verbieten sollte. Nach dem Senat konnte er – nach einem vergeblichen Anlauf – am 31. Januar 1865 auch die nötige Zweidrittelmehrheit des Repräsentantenhauses zur Zustimmung bewegen. Um dem Sklavereiverbot endgültig Verfassungsrang zu verleihen, musste es jetzt nur noch von den Einzelstaaten ratifiziert werden. Ein weiteres, drängendes Problem war die Wiedereingliederung der Südstaaten in die Union. Am 4. März 1865 – anlässlich seiner zweiten Vereidigung als Präsident – versprach Lincoln, „Groll gegen niemanden“ und „Nächstenliebe gegen alle“ walten zu lassen. Er fasste bereits die Nachkriegsordnung ins Auge und hatte vor, den Südstaatlern milde Friedensbedingungen zu stellen. Die Rückkehr in die Union sollte ihnen so leicht wie möglich fallen. Gegen Widerstände aus der eigenen Partei setzte Lincoln den Grundsatz durch, dass ein abtrünniger Staat wieder gleichberechtigt in die Union aufgenommen werden sollte, sobald ein Zehntel seiner Bürger ihr den Treueid geleistet hätten. Sieg und Tod. Der Krieg ging nun einem raschen Ende entgegen. Am 3. April eroberten Grants Truppen die Konföderiertenhauptstadt Richmond, und Lincoln besichtigte zwei Tage später das Amtszimmer seines Kontrahenten Jefferson Davis. Am 9. April 1865 kapitulierten die Reste von Lees Armee vor General Grant bei Appomattox Court House, Virginia. Die konföderierten Truppen unter General Joseph E. Johnston ergaben sich am 26. April General Sherman bei Durham, North Carolina. Den endgültigen Sieg hat Abraham Lincoln jedoch nicht mehr erlebt: Am Abend des Karfreitags 1865 besuchte er mit seiner Frau Mary und einem befreundeten Ehepaar eine Komödie im Ford’s Theatre in Washington, D.C. Während der Vorstellung verschaffte sich der Schauspieler John Wilkes Booth, ein fanatischer Sympathisant der Südstaaten, Zutritt zur Loge des Präsidenten und schoss ihm aus nächster Distanz mit einer Pistole von hinten in den Kopf. Ärzte aus dem Publikum waren sofort zur Stelle, aber die Kugel ließ sich nicht entfernen. Da der Präsident nicht transportfähig war, wurde er in das Petersen House gebracht, ein Privathaus direkt gegenüber dem Theater. Dort starb Lincoln am folgenden Tag, dem 15. April, um 7.22 Uhr morgens, ohne das Bewusstsein noch einmal wiedererlangt zu haben. Andrew Johnson, seit März Lincolns Vizepräsident, legte noch am selben Tag den Amtseid als sein Nachfolger ab. Das Attentat war Teil einer größeren Verschwörung: Eine Gruppe von Südstaaten-Anhängern um Booth hatte geplant, neben Lincoln weitere Regierungsmitglieder zu ermorden. So verletzte Lewis Powell bei einem Mordanschlag Außenminister Seward schwer, ebenso dessen Sohn und weitere Mitglieder seines Haushalts. Der deutschstämmige George Atzerodt, der auf Vizepräsident Andrew Johnson angesetzt war, schreckte im letzten Moment vor dem Mord zurück. Booth, der sich nach dem Mord beim Sprung aus der Präsidentenloge das Bein verletzt hatte, gelang mit Hilfe eines weiteren Komplizen, David Herold, die Flucht nach Virginia. Dort wurde er am 26. April auf einer abgelegenen Farm gestellt und bei einem Schusswechsel getötet. Ein Militärgericht verurteilte Ende Juni Powell, Atzerodt, Herold und Booths Zimmerwirtin Mary Surratt, die der Mitwisserschaft verdächtigt wurde, zum Tode. Sie wurden am 7. Juli 1865 im Fort Lesley J. McNair in Washington durch Hängen hingerichtet. Lincolns Sarg wurde mit der Eisenbahn auf demselben Weg nach Springfield überführt, auf dem der neugewählte Präsident 1860 nach Washington gereist war. In allen größeren Städten wie New York und Chicago fanden Trauerprozessionen und -gottesdienste mit dem aufgebahrten Leichnam statt. Am 5. Mai 1865 wurde Abraham Lincoln auf dem Friedhof Oak Ridge Cemetery in seiner Heimatstadt Springfield beigesetzt. Am 23. Juni kapitulierten bei Fort Towson im Indianer-Territorium die letzten Truppen der Konföderation. Lincolns Vermächtnis, der 13. Verfassungszusatz, trat nach der Ratifizierung durch sämtliche Bundesstaaten am 18. Dezember 1865 in Kraft. Nachleben. a> geschaffene Statue des Präsidenten im Lincoln Memorial in Washington, D.C. US-Briefmarke mit dem Porträt Lincolns Als der Dichter Walt Whitman von Lincolns Tod erfuhr, widmete er ihm das Gedicht "O Captain! My Captain!" Es spricht von einem Kapitän, der sein Schiff durch große Gefahren sicher in den Hafen steuert, das Ziel aber selbst nicht lebend erreicht. Später verglich Whitman den Präsidenten, der an einem Karfreitag tödlich verwundet worden war, mit Jesus Christus. Dies sind nur zwei von vielen Beispielen für die bis zur Verklärung reichende Verehrung, die Abraham Lincoln bereits unmittelbar nach seiner Ermordung zuteilwurde. Mehr als die nüchterne Beurteilung seiner Präsidentschaft trugen dazu die Art seines Todes und der Vergleich mit den eher glanzlosen Regierungszeiten seiner ersten Amtsnachfolger bei. Zunächst nur in den Nordstaaten, mit wachsendem zeitlichem Abstand zum Bürgerkrieg aber in den ganzen USA, setzte sich das Bild von Lincoln als einem der bedeutendsten Präsidenten der US-Geschichte durch. Heute wird der Mitbegründer der Republikanischen Partei von Angehörigen aller ethnischen Gruppen verehrt, von Konservativen und Liberalen ebenso wie von Linken. In Umfragen unter Historikern und der US-Bevölkerung wird er gemeinsam mit George Washington und Franklin D. Roosevelt stets als einer der drei besten US-Präsidenten bewertet. Die Freiwilligenverbände aus den USA, die im Spanischen Bürgerkrieg auf Seiten der Republik gegen die Putschisten unter General Franco kämpften, nannten sich Abraham-Lincoln-Brigade. Zahlreiche Orte in den USA wurden nach dem Präsidenten benannt, von kleinen wie Fort Abraham Lincoln in North Dakota bis zu großen wie der Hauptstadt Nebraskas. Die US Navy taufte mehrere Schiffe auf den Namen des Präsidenten, u. a. den Flugzeugträger USS "Abraham Lincoln" und das strategische Atom-U-Boot SSBN "Abraham Lincoln". Auch die Automarke "Lincoln" wurde 1917 von deren Begründer Henry M. Leland nach ihm benannt. Als Forschungsstätte wurde 1889 in Springfield die "Illinois State Historical Library" ins Leben gerufen, die – um ein Museum und weitere Einrichtungen erweitert – am 16. April 2005 als "The Abraham Lincoln Presidential Library and Museum" neu eröffnet wurde. Das Wohnhaus von Abraham Lincoln im historischen Zentrum Springfields steht unter der Obhut des U.S. National Park Service und ist heute ebenso ein Museum wie Lincolns Geburtsstätte in Kentucky, der Ort des Attentats – Ford’s Theatre – und das dem Theater gegenüberliegende Sterbehaus in Washington. Lincolns Bild ziert den 5-Dollar-Schein sowie die 1-Cent-Münze. In 10 US-Bundesstaaten wird Lincolns Geburtstag als offizieller Feiertag begangen. Zu seinen und George Washingtons Ehren wurde der nationale Feiertag „Presidents Day“ eingeführt. Und neben den Köpfen George Washingtons, Thomas Jeffersons und Theodore Roosevelts wurde auch der Lincolns in die Felsen von Mount Rushmore in South Dakota gemeißelt. Der Komponist Aaron Copland schrieb 1942 das Tongedicht "Lincoln Portrait" mit einem gesprochenen Begleittext zu Ehren des 16. US-Präsidenten. Bereits 1922 war am Ufer des Potomac in Washington das Lincoln Memorial eingeweiht worden. Der klassizistische Tempelbau und das Kapitol markieren die beiden Enden der National Mall, der zentralen Achse der amerikanischen Hauptstadt. Die Gedenkstätte birgt eine Kolossalstatue Abraham Lincolns, die der Zeusstatue von Olympia nachempfunden ist. In ihre Südwand ist der Text der "Gettysburg Address", in die Nordwand Lincolns zweite Amtsantrittsrede eingemeißelt. Seit ihrer Entstehung ist sie Schauplatz vieler großer Bürgerrechtsdemonstrationen gewesen. Martin Luther King hielt 1963 seine berühmte Rede "I Have a Dream" von den Stufen des Lincoln Memorials herab. In Lincolns 200. Geburtsjahr trat der erste afroamerikanische Präsident der USA sein Amt an. Barack Obama hatte seine Bewerbung als Präsidentschaftskandidat am 10. Februar 2007 vor dem alten Parlamentsgebäude in Springfield bekannt gegeben, in dem Lincoln 1858 seine bis heute nachwirkende "House Divided Speech" gehalten hatte. Sowohl bei seiner ersten als auch bei seiner zweiten Amtseinführung in den Jahren 2009 und 2013 legte der 44. Präsident der Vereinigten Staaten seinen Eid auf Lincolns Bibel ab. Verfilmungen. Seit 1911 ist Abraham Lincoln in fast 350 Filmen und Fernsehsendungen von Schauspielern dargestellt worden, unter anderem von Henry Fonda, Raymond Massey, Hal Holbrook, Daniel Day-Lewis und besonders häufig – zehn Mal – von Frank McGlynn senior. Day-Lewis erhielt für seine Hauptrolle in Steven Spielbergs Film "Lincoln" einen Oscar. Altweibersommer. Altweibersommer ist in deutschsprachigen Ländern die Bezeichnung für eine meteorologische Singularität. Es handelt sich um eine Phase gleichmäßiger Witterung im Spätjahr, oft im September, die durch ein stabiles Hochdruckgebiet und ein warmes Ausklingen des Sommers gekennzeichnet ist. Das kurzzeitig trockenere Wetter erlaubt eine gute Fernsicht, intensiviert den Laubfall und die Laubverfärbung. Ähnliche Phänomene werden auch in anderen Ländern beobachtet. Wortherkunft. Die Herkunft des Wortes ist nicht sicher, zumal neben dem Begriff "Altweibersommer" auch zahlreiche weitere wie "Ähnlsummer, Frauensommer, Mädchensommer, Mettensommer, Mettkensommer, Metjensommer, Nachsommer, Witwensommer, Michaelssommer, Martinssommer, Allerheiligensommer" und "fliegender Sommer" vorkommen, was die sprachgeschichtliche Deutung erschwert. Nach der einen Erklärung leitet sich der Name von Spinnfäden her, mit denen junge Baldachinspinnen im Herbst durch die Luft segeln. Der Flugfaden, den die Spinnen produzieren und auf dem sie durch die Luft schweben, erinnert die Menschen an das graue Haar alter Frauen. Mit „weiben“ wurde im Althochdeutschen das Knüpfen der Spinnweben bezeichnet. Nach der anderen Erklärung, in der von Kluge/Seebold die „vielleicht“ ursprüngliche, von Pfeifer hingegen „wahrscheinlicher“ eine sekundäre Bedeutung gesehen wird, liegt dem Wort das Motiv der zweiten Jugend bei Frauen, die als unzeitig und nur kurze Zeit dauernd angesehen wird, zugrunde. An diese letztere Deutung können das schweizerische "Witwesömmerli" und der bairische "Ähnlsummer" (‚Großvatersommer‘) angeschlossen werden, vielleicht liegt aber auch das Bild des alten, schwachen Sommers vor. Andere Begriffe für das Phänomen der milden Herbsttage kann man einfacher deuten, sind jedoch zum Teil lediglich weitere sekundäre Interpretationen der – unsicheren – Urbedeutung. So nennt man in norddeutschen Dialekten den Altweibersommer "Mettkensommer" und ähnlich, die Altweibersommerfäden "Metten, Mettken" oder "Mettjen". Dabei liegt eine Verkleinerungsform von "Made" vor, das heißt, man hielt sie für Raupengespinste. Wegen der lautlichen Ähnlichkeit wurde dieser Begriff wohl volksetymologisch zu "Mädchen" umgedeutet. Auf bestimmte Tage wiederum beziehen sich die Wörter "(St.) Michaelssommer" (29. September), "Allerheiligensommer" (1. November) und "(St.) Martinssommer" (11. November). Das Landgericht Darmstadt hat im Jahr 1989 festgestellt, dass die Verwendung des Ausdrucks "Altweibersommer" durch die Medien keinen Eingriff in die Persönlichkeitsrechte von älteren Damen darstellt. Altweibersommer in anderen Ländern. In Ungarn, Polen, Tschechien, der Slowakei und Russland nennt man diese Zeit ähnlich wie im Deutschen "Altweibersommer" (ung. "vénasszonyok nyara," poln. "babie lato," tschech. "babí léto," slowak. "babie léto." russ. "babje leto"). In Nordamerika, insbesondere in den Neuenglandstaaten, wird diese Wetterlage "Indian Summer" (Québec: "été indien") genannt – im Deutschen oft mit der herbstlichen Laubfärbung verwechselt. Ähnlich spricht man in Finnland von "Ruska-Aika" (Zeit der Braunfärbung) und in Schweden vom "brittsommar" (Birgitta-Sommer). In Skandinavien kommen Erscheinungen der aufkommenden Polarnacht hinzu. In der Übergangsphase von der Mitternachtssonne zur Polarnacht macht der Spätsommer mit seiner prachtvollen Laubfärbung Ausflüge in die Natur besonders attraktiv. Die Ruska-Saison ist für viele einheimische Naturfreunde der Höhepunkt des Jahres und Auslöser für einen intensiven Tourismus ins nördliche Lappland, den nördlichsten Teil Europas am Polarkreis. In den Mittelmeerländern ist die späte Warmperiode, dort im November, als "St.-Martins-Sommer" bekannt. In Japan wird ein warmer später Sommer als "kleiner Frühling" ("koharu" 小春) bezeichnet. Das darauf folgende Momijigari beschreibt die Sitte, bei angenehmem Herbstwetter Landschaften und Parks mit schöner herbstlicher Laubfärbung, insbesondere von Ahornbäumen und -wäldern, zu besuchen. Volksglauben und Wetterregeln. Im Volksglauben wurden die Spinnweben der Baldachinspinnen auch für Gespinste von Elfen, Zwergen, der Nornen oder der Jungfrau Maria („Marienfäden“, „Mariengarn“, „Marienseide“, „Marienhaar“ oder „Unserer Lieben Frauen Gespinst“, „Mutter Gottes Gespinst“) gehalten. Im Volksglauben nahm man an, dass es baldige Hochzeit verheißt, wenn sich fliegende Spinnfäden im Haar eines jungen Mädchens verfangen. Der Altweibersommer hat in verschiedenen Bauernregeln seinen Niederschlag gefunden. Astana. Astana (kasachisch und russisch; wörtlich übersetzt "Hauptstadt") ist seit 1997 die Hauptstadt Kasachstans. Die Einwohnerzahl beträgt rund 814.401 (Stand 1. Januar 2014). Der Name der Stadt. "Astana" bedeutet auf Deutsch „die Hauptstadt“. Angeblich wurde dieser Name gewählt, weil er historisch bzw. politisch unbelastet ist, gut klingt und auch in seiner grafischen Darstellung ansprechend ist – und das nicht nur in der Staatssprache, sondern in vielen Sprachen der Welt. Zudem bedeutete einer der früheren Namen "Aqmola" (1992–1998) zu Deutsch „weißes Grab“ – was als eher unpassend empfunden wurde. Andere frühere Namen waren "Akmolinsk" (1830–1961) und "Zelinograd" (1961–1991). Die offizielle Umbenennung in „Astana“ erfolgte am 6. Mai 1998. Geografische Lage. Astana liegt in einer großräumigen Steppenlandschaft im Übergangsbereich zwischen dem russisch geprägten Norden Kasachstans und dem extrem dünn besiedelten Landeszentrum am Fluss Ischim. Die älteren Stadtviertel liegen nördlich des Flusses, während die neuen Stadtviertel vor allem südlich des Ischim angelegt wurden. Stadtgliederung. Astana kann geografisch in verschiedene Gebiete eingeteilt werden. Nördlich der Eisenbahn, welche Astanas Norden in ost-westlicher Richtung durchquert, befinden sich Industrie- und ärmere Wohnviertel. Zwischen der Eisenbahnlinie und dem Fluss Ischim befindet sich die Innenstadt, in der zurzeit eine rege Bautätigkeit herrscht. Westlich und östlich davon schließen sich gehobenere Wohnviertel an. Südlich des Ischim befinden sich Parks und das neue Regierungsviertel. Hier sind ebenfalls viele große Bauprojekte in Arbeit, so zum Beispiel der Bau eines Diplomatenviertels, verschiedener Regierungsgebäude und einer repräsentativen Uferpromenade. Bis 2030 sollen diese Stadtteile vollendet sein. Astanas Chefplaner, Wladimir Laptew, will ein "Berlin in eurasischer Version" erbauen. Gelegentlich wird auch eine Parallele zu Ankara gezogen, welches nach Gründung der modernen Türkei Hauptstadt wurde. Eine reine Verwaltungs-Hauptstadt wie Brasília oder Canberra ist nicht das Ziel der Stadtplaner. Klima. Astana gilt klimatisch nach Ulaanbaatar als die zweitkälteste Hauptstadt der Welt; sie wird von Kontinentalklima geprägt. Die Winde aus Nordsibirien gelangen in den Wintermonaten aufgrund fehlender geografischer Barrieren nahezu ungebremst nach Nord- und Zentralkasachstan. Die winterliche Durchschnittstemperatur beträgt ca. −15 Grad Celsius mit vereinzelten Nachtfrösten bis −40 Grad Celsius. Das absolute Temperaturminimum liegt bei −52 Grad Celsius. Dagegen sind Spitzentemperaturen im Sommer von über 35 Grad Celsius üblich. Geschichte. a> ist Sitz zweier kasachischer Ministerien Gründung bis Zweiter Weltkrieg. Die Stadt am Ischim wurde 1830 als russische Festung "Akmolinsk" gegründet (von turksprachig "ak mola", ‚weißes Grab‘, aber auch ‚weißes Heiligtum‘ für einen nahe gelegenen Platz, an dem heller Kalkstein zutage tritt). Lange Zeit fungierte sie nur als Fort in der kasachischen Steppe. Die Bedeutung der Stadt wuchs Ende des 19. und Anfang des 20. Jahrhunderts, als Akmolinsk ein Eisenbahnknotenpunkt an der Turksib wurde. Dies führte zu einer ersten wirtschaftlichen Blüte der Stadt, die bis zum Russischen Bürgerkrieg anhielt. Dieser betraf auch das Gebiet des heutigen Nordkasachstan und damit auch Akmolinsk. In Akmolinsk bestand das Kriegsgefangenenlager "330" für deutsche Kriegsgefangene des Zweiten Weltkriegs. Stadterweiterung im 20. Jahrhundert. Als Nikita Chruschtschow in den 1950er Jahren ein Mammutprojekt startete, um die nordkasachische Steppe in eine zweite Kornkammer der Sowjetunion zu verwandeln, wurde die Stadt zur Hauptstadt dieser so genannten "Neuland-Region" "(Zelinny Krai)" und 1961 in "Zelinograd" umbenannt. Der hohe Anteil an russischer Bevölkerung in dieser Gegend, der zu ethnischen Spannungen geführt hat, lässt sich auf den Zuzug von Landarbeitern in dieser Zeit zurückführen. In der Umgebung der Stadt wurden daneben viele Russlanddeutsche angesiedelt, die vorher unter der Herrschaft Josef Stalins deportiert worden waren. Hauptstadt. Nachdem Kasachstan mit dem Zusammenbruch der UdSSR seine Unabhängigkeit erlangt hatte, wurden die Stadt und ihre Region 1992 nach dem ursprünglichen Namen in "Aqmola" umbenannt und 1994 als zukünftige Hauptstadt nominiert. Nach der Verlegung der Hauptstadt von Almaty nach Aqmola am 10. Dezember 1997 wurde die Stadt am 6. Mai 1998 abermals umbenannt und erhielt ihren heutigen Namen. Der Grund für die Verlegung der Hauptstadt bestand neben der hohen Erdbebengefahr in Almaty vor allem darin, dass die kasachische Regierung unter Nursultan Nasarbajew hoffte, durch diesen Schritt eventuellen separatistischen Tendenzen der mehrheitlich von Russen bewohnten Gebiete im Nordosten des Landes besser entgegentreten zu können. Des Weiteren wurden Astana die besten Entwicklungsmöglichkeiten – resultierend aus möglichen Bebauungsflächen und Verkehrsinfrastruktur – prognostiziert. Schließlich war der Umzug – was in Kasachstan eher hinter hervorgehaltener Hand erwähnt wird – durch einen Interessens- und Machtausgleich zwischen den drei traditionellen kasachischen Stammesföderationen der Großen Horde im städtisch geprägten Süden – der Präsident Nasarbajew angehört –, der Mittleren Horde im zentralen und östlichen Kasachstan, in deren Gebiet Astana liegt und der in der erdöl- und gasreichen Kaspischen Senke im Westen Kasachstans ansässigen Kleinen Horde bedingt. Seit Astana als Hauptstadt fungiert, erlebt die Stadt ein starkes Wirtschaftswachstum. Damit einhergehend sind ein starkes Bevölkerungswachstum und eine hohe Bautätigkeit. a>, rechts daneben weitere moderne Wolkenkratzer Bürgermeister. Bürgermeister der Stadt Astana ist seit dem 4. April 2008 Imanghali Tasmaghambetow. Er löste in diesem Amt Askar Mamin ab. Museen. Unter den Museen der Stadt besonders sehenswert ist das "Museum des ersten Präsidenten der Republik Kasachstan" mit einer Sammlung von Waffen, Orden und Auszeichnungen des Präsidenten Nursultan Nasarbajew. In verschiedenen Ausstellungen werden auch Exponate gezeigt, die Einblicke in die kasachische Kultur geben. In der Nähe des Flusses Ischim befindet sich das "Freilichtmuseum Atameken". Auf gut zwei Hektar wurde hier ein Miniaturmodell Kasachstans und des Kaspischen Meeres geschaffen. Es werden Modelle kasachischer Sehenswürdigkeiten und einiger europäischer Bauwerke präsentiert. Das "Kulturzentrum des Präsidenten" besteht aus einem Museum, einer Bibliothek und einem Konzertsaal. Es werden neben den Themengebieten Archäologie, Kunst und Geschichte Kasachstans einige weitere wissenschaftlich-kulturelle Themen behandelt. Bauwerke. Alte Gebäude wird man in Astana vergeblich suchen. Die Stadt wird zum einen von Gebäuden der Sowjetzeit geprägt – hier herrscht der Baustil der 1960er und 1970er Jahre vor –, zum anderen von Stadtvierteln, die entweder in den letzten Jahren entstanden sind oder umgebaut wurden. Das betrifft die Viertel südlich des Ischim, die im Rahmen des Regierungsumzuges entstanden sind. Nahezu alle großen Bauwerke der Stadt wurden erst ab 1998 erbaut, dem Jahr, als Astana die Hauptstadt Kasachstans wurde. Die bekannten und sehenswerten Bauwerke der Stadt befinden sich überwiegend im neuen Regierungsviertel der Stadt und wurden vom kasachischen Präsidenten in Auftrag gegeben. Im Zentrum dieses neuen Stadtteils befindet sich der Water-Green-Boulevard, in dessen Mitte der Bajterek-Turm, das Wahrzeichen Astanas, liegt. Am Ende des Boulevards ist ein riesiger runder Platz, an dem sich unter anderem der Transport Tower und der Hauptsitz des staatlichen kasachischen Mineralölunternehmens KazMunayGas befinden. Nördlich davon befindet sich das Mega Center Astana. Seit der Jahrtausendwende gibt es in Astana einen Bauboom für Wolkenkratzer. Das älteste Hochhaus der Stadt ist der 2001 vollendete Astana Tower. Das Railways Building ist mit 175 Metern Höhe das derzeit höchste Gebäude Kasachstans. Nach Vollendung der 210 Meter hohen Emerald Towers werden diese den Titel als höchstes Gebäude Kasachstans einnehmen. Andere hohe Gebäude in Astana sind das Triumph Astana (142 m), die Northern Lights Astana (180, 152 und 128 m), der Grand Alatau-Komplex (144 m), das Peking Palace, das Moscow Park und das Saint Petersburg Business Center. Mit Hilfe der Vereinigten Arabischen Emiraten soll bis 2015 der Abu Dhabi Plaza errichtet werden. Es wäre mit 382 Metern Gesamthöhe eines der höchsten Gebäude der Welt. Die Pyramide des Friedens und der Eintracht ist ein 77 m hohes pyramidenförmiges Bauwerk, das vom britischen Architektenbüro Foster + Partners entworfen wurde. Mit dem Khan Shatyry-Zelt ist ein riesiges transparentes Zelt entstanden. Erst am 15. Dezember 2009 wurde die Kazakhstan Central Concert Hall, deren Form an die Blütenblätter einer Blume erinnert, eröffnet. Die neue russisch-orthodoxe Mariä-Entschlafens-Kathedrale wurde Anfang 2010 vom Patriarchen der russisch-orthodoxen Kirche Kyrill I. eingeweiht. Die Nur-Astana-Moschee ist die größte Moschee Kasachstans. Außerdem befindet sich in Astana mit der Beit Rachel Synagoge die größte Synagoge Zentralasiens. Astana wird 2017 die Weltausstellung Expo 2017 ausrichten. Sport. Zwei große Fußballvereine sind in Astana beheimatet. Der Fußballklub FK Astana-64 spielt in der zweithöchsten Spielklasse des Landes. Seine Heimspiele trägt er im Kazhimukan Munaitpasov Stadion aus. FK Astana wurde erst 2009 durch die Fusion zweier Teams gegründet und ist in der kasachischen Premjer-Liga vertreten. Die Fußball-Heimspiele werden in der 2009 eröffneten und 30.000 Zuschauer fassenden Astana Arena ausgetragen. Die Eishockeymannschaft Barys Astana ist eines der erfolgreichsten Teams Zentralasiens. Seit der Saison 2008/2009 nimmt sie am Spielbetrieb der Kontinentalen Hockey-Liga teil. Die Spielstätte der Mannschaft ist die 12.000 Zuschauer fassende Barys Arena. Das Radsportteam "Astana", das an der UCI ProTour teilnimmt, hat seit 2009 seinen Standort in Astana. Die Basketballmannschaft BK Astana wurde 2011 neu gegründet und spielt neben der Kasachischen National League in der VTB-UL. Sie gewann 2012 die nationale Meisterschaft und den Pokal. Seit 2011 existiert auch ein Rally Team Astana, das bei der Dakar Rally 2012 in der Klasse der Trucks der dritten Platz belegte. Wirtschaft. Astana lebt vor allem von seiner Hauptstadtfunktion und den damit zusammenhängenden Wirtschaftszweigen. Durch die rege Bautätigkeit hat der Bausektor eine wichtige Bedeutung in der Stadt. Ein weiterer wichtiger Industriezweig ist die Lederverarbeitung. Das Stadtgebiet stellt eine Sonderwirtschaftszone dar. Die Umgebung wird großräumig landwirtschaftlich genutzt. Verkehr. Astana liegt in der Mitte Kasachstans und hat dadurch eine Sonderstellung als Verkehrsknotenpunkt. Eisenbahn. Astana ist ein wichtiger Verkehrsknotenpunkt im Eisenbahnverkehr sowohl in Nord-Süd- (von Petropawl nach Almaty und Taschkent) als auch in Ost-West-Richtung (von Moskau nach China). Der Bahnhof wird von der staatlichen kasachischen Eisenbahngesellschaft Kasachstan Temir Scholy betrieben und ist einer der größten Bahnhöfe Kasachstans. Es bestehen täglich Verbindungen in kasachische Großstädte. Zugverbindungen ins Ausland bestehen vor allem nach Russland aber auch in zentralasiatische Staaten und nach China. Straße. Parallel zu den Eisenbahnstrecken verlaufen Hauptstraßen. Aufgrund der enormen Ausdehnung des Landes besitzt das Straßennetz nur Bedeutung für den regionalen Verkehr. In den nächsten Jahren sind weitere Schnellstraßen bzw. Autobahnen geplant. Die bislang einzige winter- und wetterfeste Autobahn Kasachstans verbindet Astana mit Kökschetau. Flugverkehr. Ca. 15 km südlich vom Stadtzentrum Astanas befindet sich der Flughafen Astana, u. a. mit Verbindungen nach Europa, z. B. nach Wien, Frankfurt und Kiew. Der Flughafen war für einige Jahre ein wichtiges Drehkreuz für die Flüge der Lufthansa Cargo nach Asien. Von Deutschland aus fliegen Air Astana und Lufthansa von Frankfurt am Main non-stop nach Astana – von Österreich fliegt man seit 4. September 2007 mit Austrian. Turkish Airlines fliegt von Istanbul nach Astana. Von der Ukraine aus fliegt Aerosvit und Ukrainian International Airlines (MAY) non-stop nach Astana und Almaty. In den nächsten Jahren soll etwa 15 km westlich von Astana ein neuer internationaler Flughafen gebaut werden. Öffentlicher Personennahverkehr. Dem öffentlichen Personennahverkehr dienen Omnibuslinien sowie eine Unzahl Marschrutki. Der Verkehr von Oberleitungsbussen musste 2008 aufgegeben werden, nachdem die Stromrechnungen nicht mehr beglichen werden konnten. Mit Inbetriebnahme des ersten Teilstücks der Stadtbahn Astana 2012 wurde ein neues Verkehrssystem eingeführt. Nach Vollendung aller vier Bauabschnitte 2015 wird das Liniennetz aus vier Linien bestehen, die durch das gesamte Stadtgebiet verlaufen. Unternehmen. In Astana befinden sich vor allem die Konzernzentralen kasachischer Staatsunternehmen. Die meisten Unternehmen Kasachstans, die nicht in staatlichem Besitz sind, sind in der ehemaligen Hauptstadt Almaty ansässig. Das staatliche kasachische Mineralölunternehmen KazMunayGas hat seinen Hauptsitz in einem 18 stöckigen Gebäude im neuen Regierungsviertel der Stadt. Auch die beiden Tochterunternehmen KazTransOil und KazTransGas befinden sich in Astana. Neben Kasachstans größtem Transportunternehmen Kasachstan Temir Scholy, dessen Tochterunternehmen Kaztemirtrans und Kaztransservice hat auch die KazakhTelecom hier ihre Unternehmenszentrale. Das staatliche Medienunternehmen Nur Media befindet sich ebenfalls in Astana. Kasachstans größter Automobilhändler Astana Motors befindet sich in Astana. Das Bergbauunternehmen Eurasian Natural Resources hat in Astana seine neue kasachische Konzernzentrale eingerichtet. Als einziges kasachisches Kreditinstitut hat die Tsesnabank ihren Unternehmenssitz in der Hauptstadt. Bildung. Astana ist Sitz der Eurasischen Nationalen Gumiljow-Universität und der Agrartechnischen Universität S. Seifullina. Daneben befinden sich hier verschiedene weitere Hochschulen, unter anderem die Kasachisch-Russische Universität, die Kasachische Humanitär-Juristische Universität, das Kazakhstan Institute of Technology and Business und demnächst die neue Universität Astana (Nasarbajw-Universität). Letztere sollte im Juli 2010 feierlich eröffnet werden und 20.000 Studenten beherbergen. Angela Merkel. Angela Dorothea Merkel (* 17. Juli 1954 in Hamburg als "Angela Dorothea Kasner") ist eine deutsche Politikerin (CDU) und seit dem 22. November 2005 Bundeskanzlerin der Bundesrepublik Deutschland. Bei der Bundestagswahl am 2. Dezember 1990 errang Merkel, die in der DDR aufgewachsen und als Physikerin wissenschaftlich tätig war, erstmals ein Bundestagsmandat; in allen darauffolgenden sechs Bundestagswahlen wurde sie in ihrem Wahlkreis direkt gewählt. Von 1991 bis 1994 war Merkel Bundesministerin für Frauen und Jugend im Kabinett Kohl IV und von 1994 bis 1998 Bundesministerin für Umwelt, Naturschutz und Reaktorsicherheit im Kabinett Kohl V. Von 1998 bis 2000 amtierte sie als Generalsekretärin der CDU und ist seit dem 10. April 2000 deren Bundesvorsitzende. Elternhaus und frühe Kindheit (1954–1960). Angela Merkel wurde in Hamburg-Barmbek-Nord als erstes Kind des evangelischen Theologen Horst Kasner (1926–2011) und seiner Frau Herlind Kasner, geb. Jentzsch (* 8. Juli 1928), geboren. Horst Kasner hatte ab 1948 an den Universitäten Heidelberg und Hamburg sowie an der Kirchlichen Hochschule Bethel in Bielefeld Theologie studiert. Seine Frau war Lehrerin für Latein und Englisch. Noch 1954, einige Wochen nach der Geburt der Tochter, siedelte die Familie von Hamburg in die DDR über. Für die Evangelische Kirche in Berlin-Brandenburg trat Horst Kasner im Dorf Quitzow (heute ein Ortsteil von Perleberg) eine Pfarrstelle an. Angela Merkel ist ebenfalls evangelisch. 1957 wechselte Kasner dauerhaft nach Templin, um sich am Aufbau einer innerkirchlichen Weiterbildungsstelle zu beteiligen. Dort wuchs Angela Merkel auf. Sie besuchte weder Kinderkrippe noch Hort, da ihrer Mutter die Tätigkeit im DDR-Schuldienst verwehrt wurde und sie deshalb Hausfrau war. Am 7. Juli 1957 wurde Angelas Bruder Marcus, am 19. August 1964 ihre Schwester Irene geboren. In Polen erregte 2013 die Entdeckung ihrer polnischen Wurzeln Aufmerksamkeit: Ihr Großvater, der Polizeibeamte Ludwig Kasner, hatte als Ludwig Kazmierczak in Posen gelebt und war später nach Berlin übergesiedelt. Schulzeit (1961–1973). 1961 wurde Angela Kasner an der Polytechnischen Oberschule (POS) in Templin eingeschult. Als Schulkind und Jugendliche wird sie von Lehrern und Mitschülern als eher unauffällig und als sozial gut integriert beschrieben. Auffallend waren ihre herausragenden schulischen Leistungen, insbesondere in Russisch und Mathematik. Sie gewann Russisch-Olympiaden bis hin zur DDR-Ebene. Sie nahm nicht an der in der DDR üblichen Jugendweihe ihres Jahrgangs teil und wurde stattdessen am 3. Mai 1970 in der St.-Maria-Magdalenen-Kirche in Templin konfirmiert. In ihrer Schulzeit war sie Mitglied der Pionierorganisation Ernst Thälmann und später der Freien Deutschen Jugend (FDJ). 1973 legte sie an der Erweiterten Oberschule (EOS) in Templin mit einem Notendurchschnitt von 1,0 das Abitur ab. Studium in Leipzig (1973–1978). Kasner hatte sich bereits während ihrer Schulzeit für das Studium der Physik an der damaligen Karl-Marx-Universität entschieden und begann 1973 ihr Studium in Leipzig. Sie gehörte nicht zu den opponierenden Kräften innerhalb der DDR, berichtet aber, in diesen Jahren den Autor Reiner Kunze getroffen zu haben, den sie als ihren Lieblingsschriftsteller bezeichnet. 1977 heiratete sie den Physikstudenten Ulrich Merkel, die Ehe wurde 1982 geschieden. Angela Merkels Diplomarbeit aus dem Juni 1978 mit dem Titel "Der Einfluß der räumlichen Korrelation auf die Reaktionsgeschwindigkeit bei bimolekularen Elementarreaktionen in dichten Medien" wurde mit „sehr gut“ bewertet. Die Arbeit war gleichzeitig auch ein Beitrag zum Forschungsthema "Statistische und Chemische Physik von Systemen der Isotopen- und Strahlenforschung" im Bereich statistische und physikalische Chemie am Zentralinstitut für Isotopen- und Strahlenforschung der Akademie der Wissenschaften der DDR (AdW). Arbeit an der Akademie der Wissenschaften der DDR (1978–1989). Nachdem 1978 eine Bewerbung an der Technischen Hochschule Ilmenau gescheitert war, ging Merkel mit ihrem Mann nach Ost-Berlin. Hier nahm sie eine Stelle am Zentralinstitut für physikalische Chemie (ZIPC) der Akademie der Wissenschaften der DDR in Berlin-Adlershof an. 1986 konnte sie für mehrere Tage in die Bundesrepublik reisen. Am Zentralinstitut arbeiteten rund 650 Personen, davon etwa 350 Wissenschaftler. Merkel arbeitete in der Abteilung Theoretische Chemie. Am 8. Januar 1986 reichte sie ihre Dissertation "Untersuchung des Mechanismus von Zerfallsreaktionen mit einfachem Bindungsbruch und Berechnung ihrer Geschwindigkeitskonstanten auf der Grundlage quantenchemischer und statistischer Methoden" ein. Die Arbeit wurde mit „sehr gut“ ("magna cum laude", siehe Deutschland) bewertet. Nach der damaligen Promotionsordnung musste dem Antrag auf Promotion der Nachweis beigefügt werden, dass die während des Studiums erworbenen Kenntnisse des Marxismus-Leninismus („ML“) wesentlich vertieft und erweitert worden waren. Merkel fertigte zum Nachweis eine schriftliche Arbeit mit dem Titel "„Was ist sozialistische Lebensweise?“" an, die mit „genügend“ "(rite)" bewertet wurde. Doktorvater war der Leiter der Abteilung Theoretische Chemie am ZIPC Lutz Zülicke. Nach der Promotion zum Doktor der Naturwissenschaften "(Dr. rer. nat.)" wechselte Merkel innerhalb des Instituts in den Bereich Analytische Chemie, in dem Klaus Ulbricht ihr Abteilungsleiter wurde. Merkel war weder Mitglied der SED noch einer der Blockparteien. Sie war nicht in der zivilen oder der kirchlichen Opposition aktiv. Während ihrer Tätigkeit für die Akademie der Wissenschaften engagierte sie sich in ihrer FDJ-Gruppe. Nach eigenen Angaben war Merkel dort als Kulturreferentin tätig. Zeitzeugen, die der Merkel-Biograf Gerd Langguth befragt hat, sprachen davon, sie sei für „Agitation und Propaganda“ zuständig gewesen. Demokratischer Aufbruch (1989–1990). Während der Wende in der DDR im Herbst 1989 zeichnete sich ab, dass sich im Osten Deutschlands neue, demokratische Parteistrukturen herausbilden würden. Die Macht der SED über den Staat bröckelte, am 4. November 1989 fand die Alexanderplatz-Demonstration „gegen Gewalt und für verfassungsmäßige Rechte, Presse-, Meinungs- und Versammlungsfreiheit“ statt. Etwa einen Monat später begann Merkel beim neu gegründeten Demokratischen Aufbruch (DA) zu arbeiten, zunächst im Dezember 1989 unentgeltlich als provisorische Systemadministratorin, ab Februar 1990 dann hauptberuflich als Sachbearbeiterin in der persönlichen Arbeitsumgebung des Vorsitzenden Wolfgang Schnur in der Ost-Berliner Geschäftsstelle. Später folgten der Entwurf von Flugblättern, die Ernennung zur Pressesprecherin durch ihren Entdecker Schnur und die Mitgliedschaft im Vorstand des DA. Laut Merkels Biograf Gerd Langguth haben sich viele ihrer Freunde und Bekannten aus den 1970er und den 1980er Jahren irritiert darüber geäußert, dass sie letztendlich CDU-Politikerin wurde, da sie eine weltanschauliche Nähe zu den Grünen vermuteten. Der Demokratische Aufbruch schwankte zunächst noch stark in den politischen Perspektiven und galt eine Zeitlang wie die anderen Vereinigungen der Bürgerbewegung (Neues Forum, Demokratie Jetzt) prinzipiell als links. Bald brach sich aber eine Haltung Bahn, die den Sozialismus grundsätzlich ablehnte. Dies verstärkte sich, als Anfang 1990 konservative westdeutsche Politiker auf die erste demokratische Volkskammerwahl am 18. März 1990 hinarbeiteten und Volker Rühe als Generalsekretär der westdeutschen CDU am 5. Februar 1990 das Wahlbündnis Allianz für Deutschland begründete. Der DA nahm darin als neu gegründete Bürgerbewegung eine Schlüsselstellung ein: Helmut Kohl, der damalige Bundeskanzler und CDU-Vorsitzende, wollte nicht allein auf die Ost-CDU (die als Blockpartei vorbelastet war) oder die der CSU nahestehende Deutsche Soziale Union (DSU) setzen. Das Ansehen des DA wurde erheblich geschädigt, als wenige Tage vor der Volkskammer-Wahl bekannt wurde, dass Schnur von 1965 bis 1989 für das Ministerium für Staatssicherheit (MfS) tätig gewesen war. Merkel leitete die Pressekonferenz, auf der der DA-Vorstand seine Betroffenheit darüber äußerte. Allianz für Deutschland (1990). Die erste freie Volkskammerwahl am 18. März 1990 endete für Merkels Demokratischen Aufbruch (DA) mit einem 0,9-Prozent-Desaster. Dank der unerwarteten 41 Prozent für den Bündnispartner Ost-CDU wurde die gemeinsame Allianz für Deutschland jedoch faktischer Wahlsieger. Unter dem CDU-Spitzenkandidaten Lothar de Maizière entstand innerhalb der folgenden Wochen eine Koalition, bestehend aus der Allianz, den Sozialdemokraten und den Liberalen. Am 12. April wählten die Volkskammerabgeordneten dieser Koalitionspartner Lothar de Maizière zum neuen Ministerpräsidenten der DDR. In der Regierung de Maizières erhielt Rainer Eppelmann mit dem Ressort Abrüstung und Verteidigung für den DA ein Ministeramt. Im Einklang mit der Koalitionsarithmetik, die bei der Verteilung weiterer Posten zu beachten war, wurde Merkel in der ersten und gleichzeitig letzten frei gewählten Regierung der DDR stellvertretende Regierungssprecherin. In den Wochen nach der Volkskammerwahl rückte überraschend schnell die Frage der Deutschen Wiedervereinigung in den politischen Mittelpunkt. Merkel begleitete viele vorbereitende Gespräche, z. B. diejenigen zum Staatsvertrag über die Schaffung einer Währungs-, Wirtschafts- und Sozialunion, der am 18. Mai 1990 in Bonn unterzeichnet wurde. Maßgeblicher Verhandlungsleiter auf Seite der DDR war der parlamentarische Staatssekretär beim Ministerpräsidenten der DDR, Günther Krause, der in den nächsten Monaten ein wichtiger Förderer von Merkel wurde. Am 31. August 1990 wurde schließlich in Bonn von Krause und dem Innenminister der Bundesrepublik, Wolfgang Schäuble, der Einigungsvertrag unterschrieben. Merkel begleitete Delegationen um Lothar de Maizière auf Auslandsreisen und war auch beim Abschluss des Zwei-plus-Vier-Vertrages am 12. September 1990 in Moskau anwesend. Beitritt zur CDU (1990). Das schlechte Abschneiden des Demokratischen Aufbruchs bei der Volkskammerwahl und die Entwicklung der nächsten Monate nötigten zu einer Anlehnung des DA an die CDU, die von Merkel mitgetragen wurde. Am 4. August 1990 stimmte auf einem Sonderparteitag des DA eine Mehrheit für einen Beitritt zur westdeutschen CDU nach vorhergehender Fusion mit der Ost-CDU. Merkel war eine von drei Delegierten, die der DA zum Vereinigungsparteitag der CDU in Hamburg am 1. und 2. Oktober 1990 schickte. In einer Rede stellte sie sich dort als ehemalige „Pressesprecherin des Demokratischen Aufbruchs“ und als Mitarbeiterin de Maizières vor. Am Vorabend dieses 38. CDU-Bundesparteitages kam es zu einem ersten von Merkel initiierten persönlichen Gespräch mit Kohl. Nach der Wiedervereinigung am 3. Oktober 1990 erhielt Merkel die Planstelle einer Ministerialrätin (A 16) im Bundespresse- und Informationsamt (BPA). Eine Rückkehr an das Institut, an dem sie zwölf Jahre gearbeitet hatte, wäre nicht opportun gewesen, da im Einigungsvertrag die Abwicklung der Akademie der Wissenschaften festgeschrieben worden war. So wurden ihr Forschungsinstitut und alle anderen grundlegend umstrukturiert, neu eingegliedert oder teilweise aufgelöst, nur die Gelehrtengesellschaft wurde als Leibniz-Sozietät der Wissenschaften zu Berlin fortgeführt, neu gegründet wurde 1992/1993 die Berlin-Brandenburgische Akademie der Wissenschaften. Merkel bewarb sich daher mit der gesicherten beruflichen Position im BPA im Rücken um ein Bundestagsmandat. Durch die Vermittlung von Günther Krause, der in Mecklenburg-Vorpommern CDU-Landesvorsitzender war, trat sie im Bundestagswahlkreis Stralsund – Rügen – Grimmen als Direktkandidatin an. Gleichzeitig wurde sie auf Platz 6 der Landesliste als Listenkandidatin gesetzt. Bundesministerin für Frauen und Jugend (1991–1994). Bei der ersten gesamtdeutschen Bundestagswahl am 2. Dezember 1990 gewann Merkel ihren neuen Wahlkreis mit 48,5 Prozent der abgegebenen Erststimmen. Mit der konstituierenden Sitzung am 20. Dezember 1990 wurde sie Abgeordnete des Deutschen Bundestages. Der Wahlsieger Kohl, der sie im November 1990 nochmals zu einem Gespräch ins Kanzleramt nach Bonn eingeladen hatte, nominierte sie überraschend für ein Ministeramt in seinem Kabinett. Das alte Bundesministerium für Jugend, Familie, Frauen und Gesundheit wurde dreigeteilt in das Bundesministerium für Gesundheit (Gerda Hasselfeldt), das Bundesministerium für Familie und Senioren (Hannelore Rönsch) und das Bundesministerium für Frauen und Jugend (Angela Merkel). Merkel erhielt ein kleines Restministerium mit wenig Kompetenzen. Sie wurde am 18. Januar 1991 als Ministerin vereidigt. Als parlamentarischen Staatssekretär wählte sie Peter Hintze. Als beamteter Staatssekretär folgte später noch Willi Hausmann. Merkel war aufgrund ihrer Vergangenheit als Bürgerin der DDR wenig vertraut mit den Gebräuchen in der Union. Ihr schneller Quereinstieg gründete sich ausschließlich auf die Gunst des Bundeskanzlers („Kohls Mädchen“), während ihre späteren Konkurrenten in Karrierenetzwerken wie dem Andenpakt zusammengeschlossen waren, gegen die sie zunächst keine eigene Hausmacht geltend machen konnte. Daher bemühte sie sich im November 1991 um den CDU-Landesvorsitz in Brandenburg, musste jedoch eine Abstimmungsniederlage gegen Ulf Fink hinnehmen. Im Dezember 1991 wurde sie auf dem CDU-Bundesparteitag in Dresden zur stellvertretenden Bundesvorsitzenden und damit in das Amt gewählt, das vor ihr Lothar de Maizière innegehabt hatte. Von 1992 bis 1993 saß sie darüber hinaus dem Evangelischen Arbeitskreis (EAK) der Unionsparteien vor. Nach dem politischen Rückzug de Maizières und nachdem Günther Krause als Bundesverkehrsminister durch umstrittene Vergaben von Lizenzen für Autobahnraststätten in die Medien gekommen war, besaß sie eine der wenigen unbelasteten Ostbiografien innerhalb der CDU. Im Juni 1993 nahm sie die Chance wahr, ihre Macht in der Partei auszubauen, indem sie Krause nach seinem politischen Rückzug als CDU-Landesvorsitzende von Mecklenburg-Vorpommern nachfolgte. Bundesumweltministerin (1994–1998). Umweltministerin Angela Merkel im Juni 1995 am Stresemannufer in Bonn Merkel erreichte bei der Bundestagswahl am 16. Oktober 1994 in ihrem Wahlkreis 48,6 Prozent der Erststimmen und wurde im Kabinett Kohl überraschend Bundesministerin für Umwelt, Naturschutz und Reaktorsicherheit. Ihr Amtsvorgänger war der auch außerhalb der Union anerkannte Klaus Töpfer. Dessen umweltpolitische Positionen und Forderungen stießen jedoch innerhalb des Wirtschaftsflügels der CDU und insbesondere beim Koalitionspartner FDP auf zunehmenden Widerstand. Die Vereidigung Merkels am 17. November 1994 und der Wechsel Töpfers an die Spitze des Bundesministeriums für Raumordnung, Bauwesen und Städtebau kann parteipolitisch als Töpfers Entmachtung betrachtet werden. Merkel entließ drei Monate nach Amtsantritt Töpfers langjährigen beamteten Staatssekretär Clemens Stroetmann und ersetzte ihn durch Erhard Jauck. CDU-Generalsekretärin (1998–2000). Die Bundestagswahl am 27. September 1998 endete für die Union und ihren Kanzlerkandidaten Kohl mit einem Debakel. CDU und CSU erzielten mit 35,2 Prozent das schlechteste Ergebnis seit 1949 – erstmals wurde eine amtierende Bundesregierung abgewählt. Merkels Erststimmenanteil sank um 11 Prozentpunkte auf 37,3 Prozent. Wolfgang Schäuble, Kohls „ewiger Kronprinz“, hatte seit 1996/97 immer wieder die Frage aufgeworfen, welcher CDU-Spitzenpolitiker als Kanzlerkandidat zur Bundestagswahl antreten solle. Bereits vor der Wahl des Kandidaten hatte er in Interviews Kritik daran erkennen lassen, dass Kohl erneut antrat. Er hatte sich gegen Kohl, den „ewigen Kanzler“, aber nicht durchsetzen können. Auf dem CDU-Bundesparteitag in Bonn am 7. November 1998 wurde Schäuble jetzt zum neuen Bundesvorsitzenden gewählt. Auf seinen Vorschlag wurde Merkel Generalsekretärin der CDU. Damit gewann sie eine der Positionen, die in der Arbeit der CDU in ihrer neuen Rolle als Oppositionspartei noch am interessantesten waren. Kohl wurde Ehrenvorsitzender der CDU mit Sitz in deren Präsidium und Bundesvorstand. Die CDU schaffte in den folgenden Monaten bei Landtagswahlen einige gute Ergebnisse und im Juni 1999 bei der Europawahl zusammen mit der CSU überragende 48,7 Prozent (1994: 38,8 Prozent). Hatte sich schon in der Ära Kohl die Tendenz gezeigt, dass die deutschen Wähler die auf Bundesebene in der Opposition befindlichen Parteien bei anderen Wahlen stärkten, wurde jetzt die neue Oppositionspartei CDU gestützt und damit auch deren Generalsekretärin Merkel. CDU-Spendenaffäre (1999). Diese offene Kritik gegen Kohl, die bis dahin von der Parteiführung ungehört war, war nicht mit dem Parteivorsitzenden Schäuble abgesprochen, der Merkel daraufhin „eigentlich entlassen“ wollte; unter Funktionären wurde sie als „Vatermörderin“ und „Nestbeschmutzerin“ bezeichnet, erhielt aber auch viel Zuspruch für ihren riskanten Schritt, unter anderem von Christian Wulff. Da Schäuble ihr in der Sache Recht gab und Merkel, als unbelastet geltend, einen Neuanfang glaubwürdig vertreten konnte, beließ er sie im Amt. Am 18. Januar 2000 wurde Kohl vom CDU-Präsidium und vom Bundesvorstand der CDU aufgefordert, seinen Ehrenvorsitz bis zur Nennung der Spender ruhen zu lassen. Kohl reagierte mit seinem Rücktritt vom Ehrenvorsitz. Inzwischen hatte er mit Schäuble eine teilweise öffentlich geführte Auseinandersetzung begonnen. Auch Schäuble selbst war inzwischen durch die Parteispendenaffäre angeschlagen: Er gab am 10. Januar 2000 in einem ARD-Interview zu, eine Spende des Rüstungslobbyisten Karlheinz Schreiber entgegengenommen zu haben, obwohl er dies im Bundestag am 2. Dezember 1999 bestritten hatte. Als Brigitte Baumeister, zur fraglichen Zeit Schatzmeisterin der CDU, in Aussagen zu den Details der Geldübergabe Schäuble widersprach, war dieser als CDU-Bundesvorsitzender nicht mehr zu halten. CDU-Vorsitzende (seit 2000). Am 16. Februar 2000 erklärte Schäuble vor der CSU-Bundestagsfraktion seinen Rücktritt als Partei- und Fraktionsvorsitzender. In den darauf folgenden Wochen war die Partei führungslos, Angela Merkel befand sich als Generalsekretärin in einer Schlüsselposition. In dieser Zeit fanden neun sogenannte „Regionalkonferenzen“ statt. Sie waren ursprünglich angesetzt worden, um die CDU-Spendenaffäre mit der Parteibasis zu diskutieren und aufzuarbeiten. Auf diesen lokalen Parteiversammlungen formierte sich Unterstützung für Merkel als Schäuble-Nachfolgerin. Ihr später Quereinstieg kam ihr nun zugute: Sie galt in der Öffentlichkeit und bei der Basis als in der Parteispendenangelegenheit unbelastet. Frühzeitig sprach sich der niedersächsische Oppositionsführer Christian Wulff für Merkel aus. Volker Rühe, Friedrich Merz und Edmund Stoiber dagegen sollen ihrer Kandidatur kritisch gegenübergestanden haben. Am 10. April 2000 wurde Angela Merkel auf dem CDU-Bundesparteitag in Essen mit 897 von 935 gültigen Stimmen zur neuen CDU-Bundesvorsitzenden gewählt. Neuer CDU-Generalsekretär wurde, auf Merkels Vorschlag, Ruprecht Polenz. Den Vorsitz der CDU/CSU-Bundestagsfraktion übernahm Friedrich Merz. Das neue Führungstrio erlebte am 14. Juli eine erste herbe politische Niederlage: Obwohl die rot-grüne Bundesregierung nicht über die notwendige Mehrheit im Bundesrat verfügte, war es ihr gelungen, in der Abstimmung über die geplante Steuerreform einige Bundesländer mit CDU-Regierungsbeteiligung auf ihre Seite zu ziehen. Bereits im November 2000 trennte sich Angela Merkel von dem in den Medien als moderat beurteilten Generalsekretär Ruprecht Polenz. Als seinen Nachfolger wählte sie den aggressiver auftretenden Laurenz Meyer, der wie Polenz Bundestagsabgeordneter aus Nordrhein-Westfalen war. Die Jahre 2000 und 2001 bescherten der CDU unter Merkel – auch als Folge der Spendenaffäre – keine großen Landtagswahlerfolge. Die rot-grüne Bundesregierung schien dagegen Tritt gefasst zu haben. Die Positionierung für die Bundestagswahl im September 2002 begann: Friedrich Merz hatte sich selbst bereits im Februar 2001 als Kandidat für das Amt des Bundeskanzlers ins Gespräch gebracht. Damit war die Diskussion um die Kandidatenfrage – in den Medien häufig als „K-Frage“ bezeichnet – eingeläutet. Angela Merkels Bereitschaft zur Kandidatur war bekannt. Sie verfügte in den Spitzen der Partei jedoch über wenig Rückhalt, da viele CDU-Ministerpräsidenten und Landesvorsitzende den bayerischen Ministerpräsidenten und CSU-Vorsitzenden Edmund Stoiber favorisierten. Im Dezember 2001 war auf dem Bundesparteitag in Dresden eine Entscheidung vermieden worden, diese sollte am 11. Januar 2002 auf einer Sitzung von CDU-Präsidium und Bundesvorstand in Magdeburg fallen. Merkel ging der unmittelbaren Konfrontation mit Stoiber jedoch aus dem Weg: Im Vorfeld hatte sie ihn zum „Wolfratshauser Frühstück“ zu Hause besucht, bei dem sie ihm ihren Verzicht zu seinen Gunsten mitteilte. Angela Merkels Rückzug diente dabei auch dem eigenen Machterhalt, eine deutliche Abstimmungsniederlage gegen Stoiber hätte als Misstrauensvotum gegen ihre Person aufgefasst werden und eine Diskussion um den Parteivorsitz aufkommen lassen können. 2002. Die Bundestagswahl am 22. September 2002 endete mit einer knappen Wiederwahl der rot-grünen Regierungskoalition unter Gerhard Schröder und Joschka Fischer. Angela Merkel hatte die erfolglose Stoiber-Kandidatur loyal mitgetragen. Zu Schröders Wahlsieg hatte auch dessen schnelle Reaktion auf das damalige Jahrhunderthochwasser beigetragen, als noch wichtiger wird indes seine ablehnende Haltung zum Irakkrieg betrachtet. Dem „Nein“ der amtierenden Bundesregierung stand ein Bekenntnis Merkels zu George W. Bushs Konfrontationskurs – von ihr damals als „Drohkulisse“ bezeichnet – gegenüber. Unmittelbar nach der verlorenen Bundestagswahl beanspruchte Angela Merkel den CDU/CSU-Fraktionsvorsitz im Bundestag, das bisherige Amt von Friedrich Merz. Sie wollte der Regierung Schröder im Parlament als Oppositionsführerin gegenübertreten. Merz war nicht bereit, seine Position aufzugeben, und äußerte seinerseits Kritik an Merkel. Auf der entscheidenden CDU-Präsidiumssitzung soll das Votum Stoibers zugunsten Merkels den Ausschlag gegeben haben. Das Verhältnis zwischen Merkel und Merz galt bereits vorher als konfliktbelastete Konkurrenzkonstellation. Bei der ersten Wiederwahl als Parteivorsitzende auf dem Bundesparteitag in Hannover am 11. November 2002 wurde Merkel mit 93,6 Prozent der Stimmen wiedergewählt und seitdem sechsmal. Ihr bislang bestes Ergebnis erreichte Merkel 2012 in Hannover mit 97,94 Prozent der Stimmen, 2014 erhielt sie in Köln 96,72 Prozent. 2003. Das Jahr 2003 brachte der CDU und ihrer Vorsitzenden Erfolge bei den Landtagswahlen in Hessen und Niedersachsen. Die stärker werdende Präsenz der CDU im Bundesrat ermöglichte Angela Merkel schließlich ein Mitregieren aus der Opposition heraus. Die CDU trug die Agenda 2010 der rot-grünen Bundesregierung mit und stimmte, nachdem sie im Vermittlungsausschuss noch weiter gehende Forderungen durchgesetzt hatte, den Gesetzesänderungen in Bundestag und Bundesrat zu. So war sie vor allem bei der Formulierung der zum 1. Januar 2004 wirksam gewordenen Gesundheitsreform und des Vierten Gesetzes für moderne Dienstleistungen am Arbeitsmarkt (Hartz IV) eingebunden. Im Fall des Bundestagsabgeordneten Martin Hohmann, dessen Thesen zum „jüdischen Tätervolk“ scharf kritisiert wurden, zeigte sich Merkel jedoch wenig entschlussfreudig: Der erste Fraktionsausschluss eines Unionsabgeordneten in der Geschichte des Deutschen Bundestages, im November 2003, erfolgte erst nach längerer Bedenkzeit und unter öffentlichem Druck. 2004. Am 6. Februar 2004 trat der politisch angeschlagene Bundeskanzler Gerhard Schröder als SPD-Vorsitzender zurück, sein Nachfolger wurde Franz Müntefering. Im gleichen Monat gelang der CDU ein deutlicher Sieg bei der Wahl zur Hamburgischen Bürgerschaft. Angela Merkel bereiste im Februar drei Tage lang die Türkei. Dort setzte sie sich für das Modell der „privilegierten Partnerschaft“ ein, als Alternative zu der von der Bundesregierung angestrebten Vollmitgliedschaft in der Europäischen Union. In einer Rede vom 20. November 2004 äußerte sich Angela Merkel mit den Worten „Die multikulturelle Gesellschaft ist gescheitert“ zur innenpolitischen Lage Deutschlands im Hinblick auf die Integrationsproblematik der muslimischen (vorwiegend türkischen) Bevölkerung. Dabei brachte Angela Merkel erneut den Begriff der deutschen Leitkultur in die Diskussion und kritisierte vor allem den aus ihrer Sicht mangelnden Integrationswillen der Muslime. Das Ende der Amtszeit von Bundespräsident Johannes Rau bedeutete die Neubesetzung des formal höchsten politischen Amtes in der Bundesrepublik Deutschland. Wolfgang Schäuble hatte sich früh als Kandidat ins Gespräch gebracht und konnte auf Unterstützung innerhalb von CDU und CSU hoffen. Innerparteiliche Gegenspieler Angela Merkels wie Roland Koch und Friedrich Merz favorisierten Schäuble, ebenso wie Edmund Stoiber (CSU). Horst Köhler galt als Merkels Kandidat, und sein Wahlerfolg in der Bundesversammlung am 23. Mai 2004 wurde allgemein als ein weiterer Ausbau ihrer Machtposition gewertet. Vorgezogene Bundestagswahl 2005. Die Landtagswahl in Nordrhein-Westfalen am 22. Mai 2005 brachte der SPD eine schwere Wahlniederlage, die eine Serie von Landtagswahlniederlagen der Jahre 2003 und 2004 fortsetzte. Als politisch-medialen Befreiungsschlag kündigten eine halbe Stunde nach Schließung der Wahllokale zuerst SPD-Parteichef Franz Müntefering und kurze Zeit darauf Bundeskanzler Gerhard Schröder an, eine vorgezogene Neuwahl des Bundestages für den Herbst 2005 anzustreben. Am 30. Mai bestimmten die Parteipräsidien von CDU und CSU in einer gemeinsamen Sitzung Angela Merkel zur Kanzlerkandidatin der Unionsparteien. Ihre Rolle war unumstritten, die innerparteilichen Gegenspieler marginalisiert. Merkels Schattenkabinett wurde angesichts der angestrebten Koalition mit der FDP als „Kompetenzteam“ vorgestellt. Insbesondere Paul Kirchhof und sein „Kirchhof-Modell“ (zur Besteuerung von Einkommen) sowie die CDU-Vorstellungen zur Krankenversicherung („Kopfpauschale“) galten später als „schwer vermittelbar“ und mitverantwortlich für ein unbefriedigendes Wahlergebnis. Bei der Bundestagswahl am 18. September 2005 erreichten CDU/CSU mit der Spitzenkandidatin Angela Merkel 35,2 Prozent (2002: 38,5) vor der SPD mit 34,2 Prozent. Damit blieb die Union deutlich hinter ihren Prognosen zurück und konnte ihr Wahlziel, die absolute Mehrheit der Bundestagsmandate für CDU/CSU und FDP, nicht erreichen. Ihren eigenen Wahlkreis 15 (Stralsund, Landkreis Nordvorpommern und Landkreis Rügen) gewann Angela Merkel mit 41,3 Prozent der Erststimmen. Neben der Union mussten aber auch die Sozialdemokraten deutliche Stimmeneinbußen hinnehmen, so dass die bisherige Regierungskoalition aus SPD und Grünen ihre Parlamentsmehrheit verlor. Koalitionsverhandlungen. In einer Fernsehdiskussion am Wahlabend, der so genannten „Elefantenrunde“, beanspruchte Gerhard Schröder trotz der eingebüßten Mehrheit von Rot-Grün überraschend die Regierungsbildung für sich – in einer Form, die heftige Diskussionen auslöste und die er selbst später als „suboptimal“ bezeichnete. Die nächsten Tage waren im politischen Berlin von der Frage bestimmt, ob der SPD, als im Bundestag größter Einzelfraktion einer Partei, oder der CDU/CSU, als größter Fraktionsgemeinschaft, das Amt des Bundeskanzlers – in einer wie auch immer gearteten Koalitionsregierung – gebühre. Am 20. September wurde Angela Merkel von der erstmals nach der Wahl zusammengetretenen Unions-Bundestagsfraktion in geheimer Wahl mit 219 von 222 Stimmen zur Fraktionsvorsitzenden wiedergewählt. Nach dem enttäuschenden Bundestagswahlergebnis war dies ein wichtiges Vertrauensvotum und Rückhalt für bevorstehende Koalitionsgespräche. Die Öffentlichkeit erlebte in den 14 Tagen bis zu einer notwendigen Nachwahl im Wahlkreis 160 (Dresden I) Gespräche Angela Merkels und Edmund Stoibers mit Die Grünen zwecks Sondierung einer möglichen schwarz-gelb-grünen „Jamaika-Koalition“ zusammen mit der FDP. Erst nach der Entscheidung in Dresden begannen die Gespräche mit der SPD zur Bildung einer Großen Koalition. Am 10. Oktober veröffentlichten SPD, CDU und CSU eine gemeinsame Vereinbarung, die die geplante Wahl von Angela Merkel zur Bundeskanzlerin durch den 16. Deutschen Bundestag beinhaltete. Am 12. November stellte sie nach fünfwöchigen Verhandlungen der CDU/CSU mit der SPD den Koalitionsvertrag vor. Am 22. November 2005 wurde Angela Merkel mit 397 der 611 gültigen Stimmen (Gegenstimmen: 202; Enthaltungen: 12) der Abgeordneten des 16. Deutschen Bundestages zur Bundeskanzlerin der Bundesrepublik Deutschland gewählt. Dies waren 51 Stimmen weniger, als die Koalitionsparteien Mandate besaßen. Nach sieben männlichen Amtsvorgängern ist Angela Merkel die erste Frau im Amt des deutschen Bundeskanzlers, die erste Bundeskanzlerin. Gleichzeitig war sie mit 51 Jahren die jüngste Amtsinhaberin. Ebenfalls ist sie die erste Person aus den neuen Bundesländern und die erste Naturwissenschaftlerin, die dieses Amt bekleidet. Regierungsbildung. Noch vor Beginn der Legislaturperiode verzichtete Merkels langjähriger Konkurrent Edmund Stoiber überraschend auf das für ihn vorgesehene Amt des Wirtschaftsministers, nach eigenem Bekunden wegen Franz Münteferings Rückzug vom Parteivorsitz der SPD. In die Vertrauens- und Schlüsselstellung als Leiter des Bundeskanzleramtes berief Angela Merkel Thomas de Maizière, Cousin des letzten DDR-Ministerpräsidenten Lothar de Maizière. Erste Hälfte der Amtsperiode. Zu Beginn der Amtsperiode traten Merkel und ihr Kabinett weder außen- noch innenpolitisch in besonderem Maße in Erscheinung. Lediglich Merkels Minister sorgten für einige Schlagzeilen, die sich aber mehr auf Kompetenzfragen oder die langfristige Ausrichtung der Regierungsarbeit als auf konkrete Sachfragen bezogen. Ende März 2006 legte Merkel ein Acht-Punkte-Programm für die zweite „Etappe“ der Legislaturperiode vor. Darin wurden geplante Anstrengungen in den Bereichen Föderalismusreform, Bürokratieabbau, Forschung und Innovation, Energiepolitik, Haushalts- und Finanzpolitik, Familienpolitik, Arbeitsmarktpolitik und insbesondere Gesundheitsreform skizziert. Ungeachtet des Fehlens einschneidender Maßnahmen stieß Merkels eher sachlicher Regierungsstil anfangs in der Bevölkerung, unter den Führungskräften der Wirtschaft und im Ausland überwiegend auf Zustimmung. Am 27. November 2006 wurde sie auf dem Bundesparteitag der CDU mit 93 Prozent der Stimmen erneut zur Bundesvorsitzenden der Partei gewählt. Merkel sorgte für einen kleineren außenpolitischen Eklat, als sie am 23. September 2007 den Dalai Lama Tendzin Gyatsho im Berliner Bundeskanzleramt empfing. Das Treffen mit dem geistlichen Oberhaupt Tibets war von ihr als „privater Gedankenaustausch“ mit einem religiösen Führer bezeichnet worden und sollte nicht als politische Stellungnahme zu den Autonomiebestrebungen Tibets verstanden werden. Trotzdem zeigte sich die Volksrepublik China verstimmt und sagte mit dem Hinweis auf „technische Probleme“ mehrere offizielle Termine auf ministerieller Ebene ab. Merkels außenpolitischer Berater Christoph Heusgen konnte die Wogen wieder glätten, indem er dem chinesischen Botschafter Ma Canrong versicherte, dass Deutschland seine China-Politik nicht ändern werde und die territoriale Integrität Chinas außer Frage stehe. EU-Ratspräsidentschaft 2007. Vertreten durch Angela Merkel und den Bundesaußenminister Frank-Walter Steinmeier hatte die Bundesrepublik Deutschland vom 1. Januar bis 30. Juni 2007 den Vorsitz im Rat der Europäischen Union inne. Der Vorsitz wurde turnusmäßig im Rahmen der Dreier-Präsidentschaft mit Portugal und Slowenien wahrgenommen. Als wesentliche Bestandteile der politischen Agenda nannte Merkel unter anderem den Europäischen Verfassungsvertrag, die „Klima- und Energiepolitik“, die „Vertiefung der transatlantischen Wirtschaftspartnerschaft“ und eine „Nachbarschaftspolitik für die Schwarzmeerregion und Zentralasien“. Merkel drängte darauf, dass der Bezug auf Gott und den christlichen Glauben in der EU-Verfassung verankert wird. Letztlich konnte sich diese Forderung, die unter anderem auch aus Polen, Irland und Italien erhoben wurde, nicht durchsetzen – im Vertrag von Lissabon wird nur auf das „kulturelle, religiöse und humanistische Erbe Europas“ Bezug genommen. Finanzkrise und Reaktionen. Im Herbst 2008 wurde – unter anderem durch die Insolvenz zahlreicher großer Finanzinstitute – das historische Ausmaß der 2007 einsetzenden Finanzkrise deutlich. Die IKB, einige deutsche Landesbanken und auch private Institute mussten Abschreibungen in erheblicher Höhe vornehmen. Der Deutsche Bundestag reagierte im August zunächst mit dem Risikobegrenzungsgesetz, die BaFin untersagte bestimmte Leerverkäufe. Am 8. Oktober 2008 gab die Regierung Merkel eine Garantieerklärung für die Spareinlagen in Deutschland ab. Diese Garantie galt für jedes Institut und für jeden Sparer eines Institutes, das Teil der deutschen Einlagensicherung ist. Zuvor hatte Merkel noch die irische Regierung wegen einer eigenen Staatsgarantie scharf kritisiert, die sich allerdings allein auf einheimische Banken bezog. Merkels Vorgehen wurde von anderen europäischen Finanzministern als nationaler Alleingang kritisiert, von der EU-Kommission jedoch als nicht wettbewerbsverzerrend und damit unproblematisch eingestuft. Die am 5. November 2008 und am 12. Januar 2009 beschlossenen Konjunkturpakete trug Angela Merkel als Kanzlerin mit. Sie sah dies als Chance, gestärkt aus der Finanz- und Wirtschaftskrise hervorzugehen. Als Bundeskanzlerin setzte sie außerdem zusammen mit der SPD die Einführung der Umweltprämie zum 14. Januar 2009 trotz starker Kritik aus der Opposition durch. Damit wurde Käufern eines Neuwagens bei gleichzeitiger Verschrottung ihres mindestens 9 Jahre alten PKWs eine vom Staat gezahlte Prämie in Höhe von 2500 Euro gewährt. Dies sollte die durch die Weltwirtschaftskrise unter Druck geratene Automobilindustrie stützen. Dem angeschlagenen Autobauer Opel sagte Merkel Ende März 2009 ihre Unterstützung bei der Suche nach einem Investor und staatliche Bürgschaften in Aussicht, lehnt es aber ab, Teile von Opel zu verstaatlichen. Beim geplanten Verkauf von Opel im Sommer 2009 plädierte Merkel für den Autozulieferer Magna als zukünftigen Eigentümer. Im April 2008 hatte Angela Merkel in ihrer Funktion als Kanzlerin den Bankier Josef Ackermann, damals Vorstandsvorsitzender der Deutschen Bank, und 20 bis 30 weitere Personen zu seinem 60. Geburtstagsessen eingeladen und musste daraufhin – nach einem Urteil des Oberverwaltungsgerichts Berlin-Brandenburg (OVG) aus dem Jahre 2012 – die Liste der geladenen Gäste veröffentlichen lassen. Es wurde unter anderem kritisiert, Merkel habe Politik und Lobby-Interessen miteinander vermischt. Weitere Politikfelder. Nach der Wahl Barack Obamas zum Präsidenten der Vereinigten Staaten von Amerika gratulierte Merkel ihm zu seinem „historischen Sieg“. Bei ihren ersten Treffen betonten beide ihre gemeinsame Linie zum Beispiel in den Fragen der Erderwärmung oder der Atompolitik des Iran. Eine der wenigen Unstimmigkeiten betraf die Aufnahme von Häftlingen aus dem amerikanischen Gefangenenlager der Guantanamo Bay Naval Base. Obama drängte auf eine schnelle Entscheidung Merkels. Bei den Beratungen zum Beitritt weiterer Länder, wie der Balkanstaaten, zur EU stieß Merkels konservativer Kurs bei der Außenministerkonferenz in Frauenberg im März 2009 auf Kritik. Der Regierungspartner SPD warf ihr vor, dass ihr Programm im Widerspruch zum Europawahlprogramm der CDU stehe. Nach dem Amoklauf in Winnenden vom 11. März 2009 sprach sich die Bundeskanzlerin für stärkere Kontrollen von Waffenbesitzern aus. Außerdem müsse versucht werden, Waffen für Kinder und Jugendliche unzugänglich aufzubewahren. Wahlkampf 2009. Während des im Vorfeld zur Bundestagswahl im September 2009 geführten Wahlkampfes wurde Merkel in der Öffentlichkeit und auch von Teilen der CDU/CSU oft vorgeworfen, zu wenig Parteiprofil zu zeigen. So wurde zum Beispiel kritisiert, dass sie ihr Konzept zur Bekämpfung der Weltwirtschaftskrise nicht klar formulierte. Merkel selbst dementierte diese Vorwürfe. Die Oppositionsparteien übten außerdem Kritik am Verhalten Angela Merkels in der Frage eines Fernsehduells der Spitzenkandidaten aller Parteien. Nach dem Spitzenduell der Kanzlerkandidaten von SPD und CDU sagten beide, Merkel und Steinmeier, ihren Auftritt in einer solchen Runde ab. Im Wahlkampf forderte Merkel eine Senkung des Eingangssteuersatzes bei der Einkommenssteuer in zwei Schritten und den vollen Erhalt des Ehegattensplittings. Die Bundeskanzlerin lehnte weiter einen flächendeckenden Mindestlohn ab und trat dafür ein, die Laufzeiten der Kernkraftwerke in Deutschland zu verlängern. Bundestagswahl 2009. Am 27. September 2009 fand die Wahl zum 17. Deutschen Bundestag statt. Die Unionsparteien und die FDP erreichten dabei zusammen die notwendige Mehrheit für die von beiden Seiten angestrebte Bildung einer schwarz-gelben Koalition. Allerdings verloren beide Unionsparteien Stimmen und mussten ihr jeweils schlechtestes Ergebnis nach der ersten Bundestagswahl 1949 hinnehmen. Merkel selbst siegte im Wahlkreis 15 (Stralsund – Nordvorpommern – Rügen) mit 49,3 Prozent der Erststimmen und erreichte damit einen Zuwachs von 8 Prozentpunkten gegenüber der vorangegangenen Bundestagswahl. Regierungsbildung. Nachdem sich die Koalitionsparteien auf einen Koalitionsvertrag geeinigt und ihn unterzeichnet hatten, wurde Angela Merkel am 28. Oktober 2009 mit 323 von insgesamt 612 abgegebenen Stimmen erneut zur Bundeskanzlerin gewählt; dies waren neun Stimmen weniger, als die Koalition aus CDU/CSU und FDP innehatte; anschließend wurden auch die neuen Minister in Merkels Kabinett ernannt. Am 10. November 2009 gab Merkel ihre Regierungserklärung für die neue Legislaturperiode ab, in der sie die Überwindung der Folgen der Wirtschaftskrise in den Mittelpunkt stellte. Chronik der Amtsperiode. Die Koalition konnte zunächst nicht recht Fuß fassen, so dass der öffentliche Eindruck von der Regierungsarbeit zunehmend litt. So beschränkte sich die Koalition, die angetreten war, das Steuersystem zu vereinfachen, mit dem „Wachstumsbeschleunigungsgesetz“ zunächst auf leichte steuerliche Entlastungen in verschiedenen Bereichen und das Einführen einer „Hotelsteuer“ (die Mehrwertsteuer für Hotelübernachtungen wurde von 19 auf 7 Prozent gesenkt). Gerade im ersten Jahr fand die Koalition nicht zu einem harmonischen Handeln zusammen, was in wechselseitigen Beschimpfungen über die Presse gipfelte. Erst gegen Ende des Jahres 2010 wurde die Zusammenarbeit in der Regierung als gut rezipiert. Die Folgen der Wirtschafts- und Bankenkrise sowie die zunehmenden Probleme in der Eurozone nahmen einen breiten Raum im Handeln der Koalition ein. Im Mai 2010 beschlossen die Regierungs-Chefs der 17 Euro-Länder auf einem EU-Ratstreffen in großer Hast den ersten Euro-Rettungsschirm: Griechenland (ein Land mit etwa 10 Millionen Einwohnern) erhielt einen unbesicherten Kredit von 80 Milliarden Euro, um eine kurz bevorstehende Staatspleite abzuwenden. Der Bundestag segnete den deutschen Anteil im Währungsunion-Finanzstabilitätsgesetz ab. Mehrere massive Aufstockungen der deutschen Haftung für Schulden anderer Euro-Länder – ein Verstoß gegen die No-Bailout-Klausel – folgten (siehe Eurokrise, griechische Finanzkrise). Die Arbeitslosenzahl sank im Herbst 2010 auf unter 3 Millionen. Verteidigungsminister Karl-Theodor zu Guttenberg (CSU) stieß im Frühjahr 2010 eine Debatte zu einer Bundeswehrreform an, die eine maximale Truppenstärke von 185.000 Soldaten vorsah. In der CDU und CSU gab es zunächst große Bedenken, dennoch konnte auf Parteitagen im Herbst 2010 eine breite Zustimmung erzielt werden. Der Deutsche Bundestag beschloss am 24. März 2011 mit den Stimmen der Union, FDP, SPD und den Grünen die Aussetzung der seit 55 Jahren bestehenden Wehrpflicht, so dass die Bundeswehr ab dem 1. Juli 2011 eine Berufsarmee wurde (auch ‚Freiwilligenarmee‘ genannt). Im Zuge einer Plagiatsaffäre um seine Doktorarbeit erklärte zu Guttenberg, bis dahin beliebtester Minister ihres Kabinetts, unter öffentlichem und politischem Druck am 1. März 2011 seinen Rücktritt von sämtlichen bundespolitischen Ämtern. Merkels Äußerung, sie habe Guttenberg „nicht als wissenschaftlichen Assistenten“ bestellt und seine Arbeit als Minister sei „hervorragend“, verstärkte den Unmut an Universitäten und bei Akademikern über den Umgang mit der Affäre, die diese Äußerung als Geringschätzung oder Relativierung von wissenschaftlichen Standards aufnahmen. Im Oktober 2010 verlängerte die Bundesregierung die Laufzeiten aller 17 damals aktiven deutschen Atomkraftwerke und rückte damit vom so genannten Atomkonsens (2000/2002) der rot-grünen Regierung Schröder ab. Die sieben vor 1980 in Betrieb gegangenen deutschen Atomkraftwerke erhielten Strommengen für zusätzliche acht Betriebsjahre; die übrigen zehn erhielten Strommengen für zusätzliche 14 Betriebsjahre. Im März 2011 – wenige Tage nach dem Beginn der Nuklearkatastrophe von Fukushima in Japan – beschloss Merkel einen deutlichen Wechsel ihrer Atompolitik bzw. Energiepolitik. Zunächst verkündete die Bundesregierung ein dreimonatiges Atom-Moratorium für die sieben ältesten deutschen Atomkraftwerke sowie für das Kernkraftwerk Krümmel; kurz darauf setzte sie zwei Expertenkommissionen ein, um ihren beschleunigten Atomausstieg zu rechtfertigen bzw. legitimieren. Am 6. Juni 2011 beschloss das Kabinett Merkel II das Aus für acht Kernkraftwerke und einen stufenweisen Atomausstieg Deutschlands bis 2022. Dieser energische Kurswechsel brachte Merkel viel innerparteiliche Kritik ein, vor allem aus dem konservativen Flügel der Union. Umweltschutzorganisationen und die oppositionellen Grünen kritisierten den Atomausstieg als nicht ausreichend, dennoch nahm Angela Merkel mit dem Atomausstieg die Bundesregierung wie die sie tragenden Parteien aus der direkten Kritik und konnte auf eine breite Zustimmung aus der Bevölkerung bauen. Im Mai 2012 erregte es großes Aufsehen, als Merkel überraschend die Entlassung von Bundesumweltminister Norbert Röttgen herbeiführte. Ihre Entscheidung verkündete sie drei Tage nach Röttgens Landtagswahl-Niederlage als Spitzenkandidat der NRW-CDU gegen die amtierende NRW-Ministerpräsidentin Hannelore Kraft. Noch vor der Wahl hatte Merkel wiederholt Norbert Röttgen gelobt. Im Zusammenhang mit der Eurokrise beschloss der Bundestag am 13. Juni 2013 ein Gesetz zur Etablierung eines einheitlichen Bankenaufsichtsmechanismuses, welcher auch eine Rekapitalisierung von finanziell in Schwierigkeiten geratenen Banken mit Geldern aus dem Europäischen Stabilitätsmechanismus (ESM) erlaubt, welcher bis dahin nur Hilfszahlungen an Staaten erlaubte. Mit der regulären Bundestagswahl am 22. September 2013 verlor die Union ihren Koalitionspartner FDP, erreichte mit 41,5 Prozent jedoch das beste Zweitstimmenergebnis seit der Bundestagswahl 1990 und verpasste eine absolute Mehrheit nur knapp. Die Telefonnummer der Bundeskanzlerin (geschwärzt) auf einem Auszug aus einer geheimen NSA-Datei Nachdem im Zuge der Überwachungs- und Spionageaffäre 2013 Hinweise darüber bekannt geworden waren, dass das CDU-Mobiltelefon der Bundeskanzlerin über Jahre hinweg durch den US-Geheimdienst NSA abgehört worden sein könnte, forderte Merkel am 23. Oktober 2013 in einem persönlichen Telefonat mit US-Präsident Obama eine umfassende Aufklärung der Vorwürfe und eine Beantwortung einer bereits vor Monaten gestellten Anfrage der deutschen Bundesregierung. Eine Sprecherin des Nationalen Sicherheitsrates der Vereinigten Staaten erklärte hierzu, dass der Präsident der Kanzlerin versichert habe, „dass die Vereinigten Staaten ihre Kommunikation nicht überwachen und auch nicht überwachen werden.“ Die Sprecherin beantwortete dabei trotz gezielter Nachfrage aber nicht, ob dies auch für die Vergangenheit gilt. Laut dem Journalisten Sidney Blumenthal, der auch als Berater von US-Präsident Bill Clinton und der US-Außenministerin Hillary Clinton tätig war, überwachten die Vereinigten Staaten wiederholt Gespräche von Angela Merkel mit Finanzminister Wolfgang Schäuble und von Merkel und Schäuble mit Gerhard Schindler und Generalmajor Norbert Stier, Präsident und Vizepräsident des Bundesnachrichtendienstes. So wurde am 6. Mai 2012 eine von Schäuble angesetzte „sichere“ Telefonkonferenz mit Merkel zur Wahl François Hollandes zum französischen Präsidenten und zum Ergebnis der Landtagswahl in Schleswig-Holstein abgehört. In dem Gespräch schlug Schäuble unter anderem vor, vorgezogene Bundestagswahlen in Erwägung zu ziehen, um einem möglichen Linkstrend und somit einem drohenden Verlust der Regierungsmehrheit vorzubeugen. Schäuble berichtete auch zu Informationen des Bundesamtes für Verfassungsschutz über das Erstarken rechtsextremer Parteien in Frankreich und Griechenland sowie rechtsextremer paramilitärischer Gruppen in Schweden, Deutschland, Belgien und den Niederlanden, während sich Merkel besorgt über Beziehungen der CSU zu Rechtsextremisten in Deutschland und Österreich äußerte. Bei Gesprächen im Juli, August und September 2012 ging es um die Eurokrise und um anstehende Wahlen in den Niederlanden und Italien. Kurz vor Beginn des Brüsseler EU-Gipfels vom 24. bis 25. Oktober 2013, bei dem die verdichteten Hinweise auf eine Spionage der Vereinigten Staaten gegen befreundete europäische Länder ausführlich erörtert wurden, obwohl dieses Thema auf der Tagesordnung nicht angekündigt war, sagte Merkel: „Das Ausspähen unter Freunden, das geht gar nicht. Wir sind Verbündete, aber so ein Bündnis kann nur auf Vertrauen aufgebaut sein.“ Am selben Tag berichtete die "New York Times", dass ein Auftrag zum Lauschangriff auf das Telefon Merkels in die Regierungszeit von US-Präsident George W. Bush zurückreiche und dass die US-Sicherheitsberaterin Susan E. Rice beteuert habe, der gegenwärtige US-Präsident Obama hätte von dieser Sache nichts gewusst. "Der Spiegel" berichtete am 26. Oktober 2013, dass Merkels Mobiltelefon offenbar seit mehr als zehn Jahren überwacht werde und dass in der Botschaft der Vereinigten Staaten in Berlin Mitarbeiter der NSA und der CIA mittels moderner Hochleistungsantennen die Kommunikation im Regierungsviertel illegal abhören würden. Dabei seien nicht nur Verbindungsdaten der Gesprächspartner, sondern auch Inhalte von einzelnen Gesprächen aufgezeichnet worden. Am 27. Oktober 2013 wurde unter Berufung auf einen hohen NSA-Mitarbeiter berichtet, dass NSA-Chef Keith B. Alexander den US-Präsidenten 2010 persönlich über die Abhöraktion gegen Merkel informiert habe und dass nicht bloß ihr CDU-Mobiltelefon belauscht wurde, sondern auch ein angeblich abhörsicheres Handy der Bundeskanzlerin. Obama habe die Maßnahmen seinerzeit nicht nur weiterlaufen lassen, sondern auch darauf gedrängt, das neue Kanzler-Handy zu knacken. Am 30. Oktober 2013 berichtete die "New York Times" unter Berufung auf einen früheren Geheimdienstmitarbeiter, dass die NSA in Deutschland jede erreichbare Telefonnummer „aufsauge“; auch ranghohe Beamte und die Chefs der Oppositionsparteien seien Spionageziele. Für die Berichte der NSA hätten sich das Außenministerium, das Finanzministerium, andere Geheimdienste der Vereinigten Staaten sowie der Nationale Sicherheitsrat bei Präsident Obama interessiert. Obamas Sicherheitsberater hätten nach den ihnen regelmäßig vorgelegten Berichten kaum übersehen können, dass internationale Politiker wie Merkel ausgespäht würden. Der Start der Abhöraktion der Vereinigten Staaten gegen Deutschland sei 2002 erfolgt und hätte sich vor allem gegen den damaligen Bundeskanzler Gerhard Schröder gerichtet, weil dessen Ablehnung des Irakkrieges und dessen „Nähe“ zum russischen Präsidenten Putin bei den Vereinigten Staaten die Frage aufgeworfen hätte, ob ihm noch getraut werden könne. Dass NSA-Chef Alexander mit Obama über eine Merkel betreffende Operation je gesprochen habe, wurde von der NSA allerdings umgehend dementiert. Gestützt auf US-Regierungskreise brachte das "Wall Street Journal" am 27. Oktober 2013 die Version, dass das NSA-Abhörprogramm gegen Merkel und die Spitzenpolitiker anderer Nationen gestoppt worden sei, als eine Überprüfung durch die US-Regierung dem US-Präsidenten im Sommer 2013 die Existenz dieser Geheimdienstoperationen offenbart habe. Mit dem Blick auf die Ausspähungen, die die Vereinigten Staaten offenbar auch gegen andere Nationen sowie gegen die Vereinten Nationen, die Europäische Union, den Internationalen Währungsfonds und die Weltbank gerichtet hatten, ließen Dilma Rousseff, die Präsidentin Brasiliens, und Bundeskanzlerin Merkel eine Resolution der Vereinten Nationen vorbereiten, die den Internationalen Pakt über bürgerliche und politische Rechte ergänzen soll und alle Staaten auffordert, Gesetzgebung und Praxis bei Überwachungsaktionen im Ausland auf den Prüfstand zu stellen. Der am 1. November 2013 beim UN-Menschenrechtsausschuss eingereichte, die USA konkret nicht nennende Textentwurf einer Resolution wurde nach mehrwöchiger Beratung auf Drängen der USA und anderer Staaten abgeschwächt und von der Vollversammlung der Vereinten Nationen am 26. November 2013 einstimmig beschlossen. Bundestagswahl 2013. Am 22. September 2013 fand die Wahl zum 18. Deutschen Bundestag statt. Während die Unionsparteien mit 41,5 Prozent das beste Zweitstimmenergebnis seit 1990 erhielten, schaffte der bisherige Koalitionspartner, die FDP, den Wiedereinzug in den Bundestag mit 4,8 Prozent erstmals seit 1949 nicht. Merkel selbst siegte im Wahlkreis 15 (Stralsund – Nordvorpommern – Rügen) mit 56,2 Prozent der Erststimmen und erreichte damit einen Zuwachs von 6,9 Prozentpunkten gegenüber der vorangegangenen Bundestagswahl. Regierungsbildung. Nachdem sich die Koalitionsparteien auf einen Koalitionsvertrag geeinigt und ihn unterzeichnet hatten, wurde Angela Merkel am 17. Dezember mit 462 von insgesamt 621 abgegebenen Stimmen erneut zur Bundeskanzlerin gewählt; dies sind 42 Stimmen weniger, als die Koalition aus CDU/CSU und SPD innehat; anschließend wurden auch die neuen Minister in Merkels Kabinett ernannt. Angela Merkel ist die erste Person an der Spitze der deutschen Regierung, die in der Bundesrepublik (1954) geboren wurde. Ihr Vorgänger Gerhard Schröder wurde im NS-Reich (1944), dessen Vorgänger Helmut Kohl in der Weimarer Republik geboren (1930). Seit dem 26. März 2014, als der estnische Premierminister Andrus Ansip zurücktrat, ist Merkel die am längsten amtierende Regierungschefin der Europäischen Union. Außenpolitik. a> beim Staatsempfang in Baden-Baden, 3. April 2009 Die Zukunft der Europäischen Union. Während eines EU-Gipfels in Brüssel am 7. November 2012 warb Bundeskanzlerin Angela Merkel für die Vereinigten Staaten von Europa: „Ich bin dafür, dass die Kommission eines Tages so etwas wie eine europäische Regierung ist“. 2005 äußerte Merkel – unter anderem bei einem Besuch in Istanbul –, sie favorisiere eine „privilegierte Partnerschaft“ der Türkei statt einer Vollmitgliedschaft in der EU. Militärische Konfliktlösung. Im Vorfeld des Irakkriegs bekundete Angela Merkel ihre Sympathien für die Irak-Politik der USA und die „Koalition der Willigen“. Sie kritisierte als deutsche Oppositionsführerin vom Boden der USA aus die Außenpolitik der Bundesregierung, was ihr scharfen Widerspruch aus Berlin einbrachte. Der SPD-Fraktionsvorsitzende Franz Müntefering beurteilte Merkels Äußerung als „Bückling gegenüber der US-Administration“. In einer Rede im Deutschen Bundestag am 19. März 2003 erklärte Merkel die Unterstützung der Union für das Ultimatum an Saddam Hussein als „letzte Chance des Friedens“ und forderte die Bundesregierung auf, dies ebenso zu tun, um „den Krieg im Irak wirklich zu verhindern“. Bezüglich des Abzugs der Atomwaffen in Deutschland besteht Merkel darauf, dass die Verhandlungen über den Abzug der Raketen gemeinsam mit den anderen Nato-Ländern und keinesfalls im Alleingang durchgeführt werden. Integrationspolitik. Nachdem der türkische Ministerpräsident Recep Tayyip Erdoğan bei einem Deutschland-Besuch im Februar 2008 die Türken in Deutschland vor einer Assimilation gewarnt hatte, kritisierte sie dessen „Integrationsverständnis“. Merkel lehnt die Trennung von muslimischen Jungen und Mädchen im Sportunterricht ab, da dies das „völlig falsche integrationspolitische Signal“ und das Gegenteil von Integration sei. Des Weiteren ist sie gegen die Doppelte Staatsbürgerschaft. 2010 sagte sie, dass man Migranten nicht nur fördern sondern auch fordern müsse. Nahost-Politik. Merkel hat sich bisher zurückhaltend zu einer deutschen Beteiligung an einer Friedenstruppe der Vereinten Nationen im Südlibanon zur Befriedung des Israel-Libanon-Konflikts geäußert. Israels Premier Olmert plädierte für die Beteiligung deutscher Soldaten. „Ich habe Kanzlerin Angela Merkel mitgeteilt, dass wir absolut kein Problem haben mit deutschen Soldaten im Südlibanon“, sagte er der Süddeutschen Zeitung. Zurzeit gebe es keine Nation, die sich Israel gegenüber freundschaftlicher verhalte als Deutschland. Am 18. März 2008 hielt Merkel in Israel vor der Knesset eine Rede, die sie auf Hebräisch begann. Sie betonte die historische Verantwortung Deutschlands für Israel; die Sicherheit des jüdischen Staates sei Teil der deutschen Staatsräson und niemals verhandelbar. Merkel war die erste ausländische Regierungschefin, die von der Knesset zu einer Rede eingeladen worden war. Bei einem Telefonat mit dem israelischen Ministerpräsidenten Benjamin Netanjahu im Jahr 2011 sagte Merkel, ihr fehle „jegliches Verständnis“ für die Genehmigung eines Siedlungsausbau in Ost-Jerusalem durch die israelische Regierung. Syrien-Politik. Zum Bürgerkrieg in Syrien forderte Merkel im Dezember 2011 ein Urteil des UN-Sicherheitsrates gegen den syrischen Staatspräsidenten Baschar al-Assad und stellte sich auf die Seite der Opposition. Im TV-Duell erklärte sie jedoch Deutschland werde sich nicht an einem Militärschlag gegen Syrien beteiligen. Merkel will eine gemeinsame Haltung mit der Europäischen Union finden. Weißrussland. Bei einem Treffen mit dem damaligen italienischen Ministerpräsidenten Silvio Berlusconi sagte Merkel, sie und Berlusconi wären sich einig, dass angesichts der Situation in Weißrussland leider wieder darüber gesprochen werden müsse, Sanktionen aufleben zu lassen, die sie eigentlich schon verlassen hätten. Sie sähe die Entwicklung in Weißrussland mit großer Sorge, im Besonderen auch den Umgang mit der Opposition. Ukraine. a>) bei der Erinnerungsfeier des „D-days“ Sie engagierte sich im Rahmen des sogenannten Normandie-Formats „Merkel-Hollande-Poroschenko-Putin“ mehrfach stundenlang bei der Konfliktlösung zwischen den pro-russischen bzw. kontra-russischen Kräften der Ostukraine, besonders beim Zustandekommen zweier Waffenstillstandsabkommen in der weißrussischen Hauptstadt Minsk, (siehe auch Minsk II). Militärische Intervention in Libyen. Angela Merkel beim Gipfeltreffen im Elysee-Palast in Paris am 19. März 2011 Im Vorfeld der militärischen Intervention in Libyen im Frühjahr 2011 zeigte sich Merkel überrascht darüber, „mit welcher Schnelligkeit bestimmte Fragen ins Auge gefasst werden“ und kritisierte, dass es eine „Reihe von französischen Aktivitäten“ gegeben hätte, die „erst sehr kurzfristig“ bekannt geworden seien. Gaddafi führe ohne Zweifel Krieg gegen die eigene Bevölkerung. Man müsse aber „sehr aufpassen, dass wir nichts beginnen, was wir nicht zu Ende bringen können.“ Überrascht zeigte sie sich auch darüber, dass Frankreich den Nationalen Übergangsrat als libysche Regierung anerkannt hatte. Es handele sich dabei um keine Anerkennung im Sinne des Völkerrechts. Verhältnis zu den Vereinigten Staaten. Merkel ist Mitglied der Atlantik-Brücke, welche sich für intensive Beziehungen zwischen Deutschland und den Vereinigten Staaten einsetzt. Wirtschafts- und Sozialpolitik. Merkel versuchte sich Ende 2000 mit der Formulierung einer „Neuen Sozialen Marktwirtschaft“ zu profilieren. Der Titel greift den etablierten Begriff der Sozialen Marktwirtschaft auf. Unter den unscharfen Thesen, deren konkrete Umsetzung im Vagen bleibt, finden sich auch Positionen, die bereits im Schröder-Blair-Papier aus dem Jahr 1999 auftauchten. Eine CDU-Präsidiumskommission unter Merkels Vorsitz erarbeitete bis zum 27. August 2001 ein Diskussionspapier, das im Dezember 2001 auf dem Bundesparteitag der CDU in Dresden verabschiedet und somit Teil der CDU-Programmatik wurde. Eurokrise. Im Zuge der Finanzkrise ab 2007 kam es zur Eurokrise, die Merkel mit ihrer Politik zu lösen versuchte. Sie bekräftigte immer wieder, dass der Euro eine starke Währung sei und suchte die Unterstützung von Frankreichs Präsidenten Hollande. Merkel tritt für einen strikten Sparkurs ein, der von einigen Kritikern wie dem Internationalen Währungsfonds als wachstumshemmend und krisenverschärfend betrachtet wird. Im Februar 2010 schloss Merkel Finanzhilfen für Griechenland ausdrücklich aus, erteilte jedoch bereits zwei Monate später ihre Zustimmung für das erste deutsche Hilfspaket für Griechenland in Höhe von 17 Milliarden Euro. Ende 2012 sagte sie, dass sie sich einen weiteren Schuldenschnitt für Griechenland im Jahr 2014 vorstellen könne. Sie stimmte 2010 sowohl für die provisorische EFSF als auch 2012 für den ESM mit dem Ziel der Stabilisierung des Euros. Sie befürwortet den Aufkauf von Staatsanleihen von Krisenstaaten durch die Europäische Zentralbank, der zum Ziel hat, die Kreditaufnahme für die Krisenstaaten zu erleichtern. Merkel lehnt nach eigenem Bekunden EU-Anleihen, die der gemeinschaftlichen Schuldenaufnahme in der EU oder dem Euro-Währungsraum dienen könnten, ab. Sozialausgaben. Auf dem Weltwirtschaftsforum in Davos, 2013, begann Kanzlerin Merkel eine Serie von viel beachteten internationalen Statements, die allesamt zum Inhalt hatten, dass Europa nur 7 % der Weltbevölkerung stellt, und nur 25 % des weltweiten Bruttosozialprodukts, aber für fast 50 % der weltweiten Sozialleistungen aufkommt. Seit diesem Statement in Davos wurde dieses Argument ein wiederkehrender Bestandteil ihrer wichtigsten Reden. Die internationale Finanzpresse, unter anderem der Londoner Economist sagte, wenn Merkels Vision pragmatisch ist, so sei auch ihr Plan zu deren Implementierung. Die Vision kann in drei Statistiken, einige wenige Karten und Fakten auf einer DIN-A-4-Seite zusammengefasst werden. Die Zahlen sind 7 %, 25 % und 50 %. Wenn Europa wettbewerbsfähig bleiben will, könne es sich schlicht nicht leisten, weiter so großzügig zu sein. Der Economist verglich dabei Merkels Verwendung dieser Zahlen mit der britischen Premierministerin Margaret Thatcher, die zu gegebener Zeit Passagen von Friedrich Hayeks “Der Weg zur Knechtschaft” aus ihrer Handtasche zog. In ähnlichem Sinn äußerte sich auch die Financial Times, die hervorhob, dass Merkel einen eindeutigen Bezug zwischen den Sozialleistungen und der mangelnden Wettbewerbsfähigkeit herstellt. Familienpolitik. Als Bundesministerin für Frauen und Jugend sah sich Angela Merkel in den neuen Bundesländern mit einer dramatisch gesunkenen Frauenerwerbsquote und, damit einhergehend, mit einem Einbruch der Geburtenrate konfrontiert. Hinzu kam die unterschiedliche Rechtslage zum Schwangerschaftsabbruch in Ost und West, die laut Einigungsvertrag von einer späteren gemeinsamen Regelung abgelöst werden sollte. Einen politischen Schwerpunkt während ihrer Amtszeit bildete daher die Neuregelung des § 218 und die Einführung einer faktischen Fristenlösung mit Beratungspflicht im gesamten Bundesgebiet. Der Verbesserung der beruflichen Situation von Frauen sollte das Gleichberechtigungsgesetz (1993/94) dienen. Als im Rückblick größten Erfolg ihrer Amtszeit bewertet Merkel die von ihr betriebene Änderung des Kinder- und Jugendhilfegesetzes. Diese Novellierung brachte den formellen Rechtsanspruch auf einen Kindergartenplatz für Kinder ab drei Jahren. Merkel sprach sich gegen die steuerliche Gleichstellung von homosexuellen Paaren aus und erklärte, sie wolle die Privilegierung der Ehe erhalten. Energie- und Umweltpolitik. Im April 1995 war Merkel als deutsche Umweltministerin Gastgeberin der ersten UN-Klimakonferenz (COP-1) in Berlin. Mit dem Berliner Mandat kam es zu einem Abschluss, der einen Einstieg in die internationale Reduzierung von Treibhausgasen bilden sollte. 1997 bei den nachfolgenden Verhandlungen zum Kyoto-Protokoll setzte sich Merkel für vergleichsweise hohe Reduktionsziele ein. Eine Initiative zur Eindämmung des Sommersmogs in Deutschland scheiterte im Mai 1995 innerhalb des Kabinetts und wurde später nur in sehr abgeschwächter Form umgesetzt. Angela Merkel galt bis 2010 als Befürworterin der zivilen Nutzung von Kernenergie, der Stromgewinnung in Kernkraftwerken. In ihrem Amt war sie auch für die Abwicklung von Atommülltransporten zuständig. Im Mai 1998 wurden Überschreitungen der Grenzwerte bei Castor-Transporten nach Frankreich bekannt. Aus der Opposition wurde Merkels Rücktritt wegen der Verletzung der ministeriellen Aufsichtspflicht gefordert. Die Ministerin konnte jedoch darauf verweisen, dass wichtige Kompetenzen und Verantwortlichkeiten auch bei den Bundesländern und der Atomwirtschaft lagen. In Merkels Amtszeit fällt das Kreislaufwirtschaftsgesetz zur Vermeidung und Verwertung von Abfällen. In öffentlichen Äußerungen des Jahres 1997 findet sich auch die Forderung nach einer jährlich steigenden Abgabe auf Energieträger wie Öl, Gas und Strom (Ökosteuer). Zwischenzeitlich erwarb sich Merkel in den Jahren 2006/07 den Ruf als „Klimakanzlerin“, dank ihres Engagements für Klimaziele auf europäischer und internationaler Ebene, während der Stellenwert der Klimapolitik seither wieder sank. So nahm sie etwa beim UN-Klimagipfel in New York im September 2014 nicht mehr teil und besuchte stattdessen eine Tagung des Bundesverbands der Deutschen Industrie. Auch klimapolitische Initiativen sind noch nicht konkret geplant. Asylpolitik. In der Flüchtlingskrise 2015 findet Merkels Entscheidung vom 4. September 2015, in Absprache mit den Regierungschefs von Österreich und Ungarn den an der österreichisch-ungarischen Grenze und in Budapest festsitzenden Flüchtlingen vor allem aus Syrien und Afghanistan die Einreise nach Deutschland ohne Registrierung durch Ungarn und damit entgegen dem Dublin-Abkommen zu gestatten, großes Echo in den Medien und der Öffentlichkeit innerhalb und außerhalb Deutschlands. Zugleich unterstreicht Merkel die Bedeutung einer einheitlichen europäischen Flüchtlings- und Asylpolitik. Angesichts der großen Anzahl von Flüchtlingen erreichte die Zustimmung der Bundesbürger für Merkel im Oktober 2015 einen neuen Tiefpunkt. Mit der Arbeit der Bundeskanzlerin waren laut ARD-Deutschlandtrend nur noch 54 Prozent der Befragten zufrieden, das waren neun Prozent weniger als im Vormonat, zudem handelte es sich gar um den schlechtesten Wert seit Dezember 2011. Am 13. Dezember 2015 formulierte in Karlsruhe ein Parteitag der CDU in einem Leitantrag einen Kompromiss, in dem einerseits Merkels Asylpolitik, insbesondere die konsequente Ablehnung von Obergrenzen, mit großer Mehrheit unterstützt wurde, andererseits das Ziel festgeschrieben wurde, „die Zahl der Flüchtlinge spürbar zu reduzieren“. Diese Formulierung fand am folgenden Tag in einer Gastrede auch die Billigung des Hauptbefürworters der „Kontingente“, des CSU-Parteivorsitzenden Horst Seehofer. Merkel bestägte nochmals ihren Satz „Wir schaffen das“ und ergänzte „Ich kann das sagen, weil es zur Identität unseres Landes gehört“. Am 16. Dezember unterstützte sie vor dem Bundestag in Berlin in einer Regierungserklärung zur Asylpolitik die Absicht der EU, ihre Außengrenzen, auch bei gegenteiliger Meinung der betroffenen Länder, verstärkt durch EU-eigene Organisationen wie Frontex zu schützen. Öffentlichkeitsarbeit. Seit dem 8. Juni 2006 wendet sich Merkel als erstes Regierungsoberhaupt weltweit per Video-Podcast an die Öffentlichkeit. Sie nutzt dieses Medium wöchentlich (samstags), um den Bürgern die Politik der jeweiligen Regierungskoalition zu vermitteln. Zunächst wurde der Podcast für etwa 6500 Euro pro Episode vom Merkel-Biografen Wolfgang Stock produziert. Nach Kritik am Stil der Videobotschaft wurde die Produktion neu ausgeschrieben. Den Zuschlag erhielt die Evisco AG aus München. Da mit Jürgen Hausmann einer der Vorstände der Evisco AG ein Schwiegersohn des damaligen bayerischen Ministerpräsidenten Edmund Stoiber ist, wurden in den Medien Zweifel am ordnungsgemäßen Ablauf des Ausschreibungsverfahrens laut. Das ausschreibende Bundespresseamt wies die Vorwürfe zurück. Familie. Während ihres Physikstudiums in Leipzig lernte Angela Kasner im Jahr 1974 bei einem Jugendaustausch mit Physikstudenten in Moskau und Leningrad ihren ersten Ehemann, den aus dem thüringischen Cossengrün stammenden Physikstudenten Ulrich Merkel, kennen. Am 3. September 1977 wurden die beiden in Templin kirchlich getraut. 1981 trennte sich das Paar und die kinderlose Ehe wurde 1982 in Ost-Berlin geschieden. Im Jahr 1984 lernte Merkel an der Akademie der Wissenschaften der DDR in Berlin-Adlershof den Quantenchemiker Joachim Sauer kennen, den sie am 30. Dezember 1998 heiratete. Das Ehepaar hat keine gemeinsamen Kinder, Sauer brachte aber zwei Söhne aus erster Ehe mit in die Partnerschaft. Staatliche Orden. Merkel mit US-Präsident Barack Obama bei der Verleihung der Presidential Medal of Freedom, 2011 Privatrechtliche Auszeichnungen. Barroso, Sarkozy und Merkel, 2011 Merkel-Raute. Merkel ist für eine stereotype Geste bekannt, bei der sie ihre Hände mit der Innenfläche so vor dem Bauch hält, dass die Daumen und Zeigefinger sich an den Spitzen berühren. Dadurch bildet sich die Form einer Raute, was in der Presse als "Merkel-Raute" kolportiert wurde. Zur Bundestagswahl 2013 nutzte die CDU im Rahmen einer Personalisierungsstrategie die für die Kanzlerin typische Geste der Merkelraute und bildete sie auf einem Riesenplakat in Berlin ab. Kritiker bezeichneten diese Strategie als einen sonst nur in diktatorischen Regimen üblichen Personenkult. Deutschlandkette. Als Deutschlandkette wurde eine Halskette bekannt, die die deutsche Bundeskanzlerin Angela Merkel am 1. September 2013 beim TV-Duell anlässlich der Bundestagswahl 2013 trug. Merkozy. Merkozy (auch: Sarkel bzw. Sarkokel) ist ein von den Medien kreiertes Kofferwort und Akronym aus dem Namen von Angela Merkel und dem des damaligen französischen Staatspräsidenten Nicolas Sarkozy. Mit der Ablösung Sarkozys durch François Hollande wurde der Begriff 2012 durch Merkhollande (auch Merkollande) ersetzt. Merkelphone. Ein vom Bundesamt für Sicherheit in der Informationstechnik zugelassenes abhörsicheres Mobiltelefon wird in der Öffentlichkeit häufig unter der Bezeichnung "Merkelphone" geführt. Alicia Silverstone. Alicia Silverstone 2010 beim Festival of Books Alicia Silverstone (* 4. Oktober 1976 in San Francisco) ist eine amerikanische Schauspielerin, Autorin und Tierschutz- und Umweltaktivistin. Bekanntheit erlangte sie in den 1990er Jahren durch den Film "Clueless – Was sonst!" und als Batgirl in "Batman & Robin" sowie durch ihre Auftritte in diversen Musikvideos der Band Aerosmith. Jugend. Silverstone wurde als Tochter britischer Eltern, eines Immobilieninvestors und einer Flugbegleiterin, geboren. Sie hat zwei ältere Geschwister, eine Halbschwester aus der ersten Ehe ihres Vaters und einen Bruder. Alicia Silverstone kommt aus einer jüdischen Familie und bezeichnet sich selbst als jüdisch. Sie wuchs in San Francisco auf und besuchte die "Crocker Middle School" und anschließend die "San Mateo High School". Im Alter von sechs Jahren begann Silverstone zu modeln und trat in Werbespots auf, erstmals für Domino’s Pizza. Sie verbrachte ihre Sommerferien gern in England, wo sie eine wachsende Begeisterung für dortige Theateraufführungen entwickelte. Neben Ballettstunden belegte sie deswegen mit 13 Jahren auch Schauspielkurse. Karriere. Ihre erste Rolle war 1992 ein Auftritt in der elften Episode der fünften Staffel der Fernsehserie "Wunderbare Jahre" als "Jessica". Ihre erste Kinorolle hatte sie in dem Film "Das Biest" ein Jahr später. Um die Auflagen für Kinderarbeit zu umgehen, beantragte Silverstone im Alter von 15 Jahren erfolgreich die rechtliche Selbstständigkeit. Dies zahlte sich prompt aus: Für den Film wurde sie mit zwei "MTV Movie Awards" ausgezeichnet. Bei dieser Preisverleihung fiel sie Leadsänger Steven Tyler von der Band "Aerosmith" auf, was ihr eine Rolle in drei Videos der Band einbrachte, "Cryin’", "Amazing" und "Crazy". In dem Video von "Crazy" spielte sie zusammen mit der Tochter von Steven Tyler, Liv Tyler. Ihren schauspielerischen Durchbruch hatte sie 1995 mit der Komödie "Clueless – Was sonst!", in der sie zum typischen Beispiel des kalifornischen Teenagers wurde. Regisseurin Amy Heckerling besetzte Silverstone in der Hauptrolle, nachdem sie sie in den Aerosmith-Videos gesehen hatte. "Clueless" war sowohl bei Kritikern als auch beim Kinopublikum ein Erfolg. Silverstone konnte erneut zwei MTV Movie Awards gewinnen und schloss einen Vertrag für zehn Millionen Dollar mit "Columbia TriStar" über weitere Filme. Im selben Jahr war sie auch in der Romanverfilmung "Innocent Babysitter" zu sehen. 1997 spielte sie das "Batgirl" in der vierten "Batman"-Verfilmung "Batman & Robin" an der Seite von George Clooney. Der Film erhielt überwiegend schlechte Kritiken und Silverstone wurde mit dem Negativpreis "Goldene Himbeere" als "schlechteste Nebendarstellerin" prämiert. Des Weiteren war sie in einer Hauptrolle in der Komödie "Ärger im Gepäck" neben Benicio del Toro und Christopher Walken zu sehen. Erstmals war sie hier auch als Produzentin tätig. 1999 spielte sie an der Seite von Brendan Fraser die Hauptrolle in der romantischen Komödie "Eve und der letzte Gentleman". Zu Beginn des neuen Jahrtausends zog sich Silverstone aus dem Mainstream-Kino zurück und stand überwiegend für Independent-Filme und Fernsehprojekte vor der Kamera. Außerdem spielte sie in einigen Theaterstücken. Im Jahr 2000 war sie in der "Shakespeare"-Adaption "Verlorene Liebesmüh’" (von und mit Kenneth Branagh) zu sehen. In dem Film musste sie auch singen und tanzen. Ab 2001 lieh sie der Comicfigur "Sharon Spitz" in der Serie "Braceface" ihre Stimme und erhielt dafür 2002 eine Nominierung für den Fernsehpreis "Emmy". 2002 gab sie ihr "Broadway"-Debüt als "Elaine Robinson" in dem Stück "Die Reifeprüfung" neben Kathleen Turner. Ein Jahr später spielte sie die Hauptrolle einer jungen Anwältin in der Serie "Kate Fox & die Liebe". Die Serie erhielt gute Kritiken und Silverstone wurde für einen "Golden Globe" nominiert, trotzdem war sie kein Erfolg und wurde nach einer Staffel wieder eingestellt. 2004 war sie an der Seite von Sarah Michelle Gellar in der erfolgreichen Komödie "Scooby Doo 2" zu sehen und spielte 2005 eine Friseurin in "Beauty Shop", der Fortsetzung des Films "Barbershop". 2006 war Silverstone als "Jack Starbright" in " Stormbreaker" neben Ewan McGregor und Mickey Rourke zu sehen. Der Film entstand nach dem Roman "Das Geheimnis von Port West" von Anthony Horowitz aus der Alex Rider-Buchreihe. Ursprünglich sollten weitere Bücher dieser Reihe verfilmt werden, da der Film jedoch kein finanzieller Erfolg war, wurden keine Fortsetzungen produziert. 2008 hatte sie einen Cameo-Auftritt in der Komödie "Tropic Thunder". Von 2009 bis 2010 stand sie für das Theaterstück "Time Stands Still" auf der Bühne. Das Stück sowie Silverstones Leistung wurden positiv aufgenommen. 2010 beendete sie ihre Mitarbeit an dem Stück, um sich wieder ihrer Filmkarriere zu widmen. Ihre Rolle der Mandy wurde mit Christina Ricci neu besetzt. 2010 spielte sie eine Lehrerin in der Teenagerkomödie "Von der Kunst, sich durchzumogeln". Im gleichen Jahr drehte sie neben Sigourney Weaver den Vampirfilm "Vamps – Dating mit Biss", welcher allerdings erst zwei Jahre später den Weg ins Kino fand. Für diesen Film stand sie nach "Clueless" zum zweiten Mal unter der Regie von Amy Heckerling vor der Kamera. Des Weiteren spielte sie neben Hugh Jackman und Jennifer Garner in dem Drama "Alles in Butter", das ebenfalls 2012 in den amerikanischen Kinos veröffentlicht wurde. 2012 spielte Silverstone eine wiederkehrende Rolle in der Serie "Suburgatory" an der Seite ihres ehemaligen "Clueless"-Kollegen Jeremy Sisto. 2013 drehte sie den Serien-Piloten "HR", indem sie die Leiterin einer Personalabteilung darstellt, die nach einer Kopfverletzung ihre Lebenseinstellung ändert. In "Ass Backwards – Die Schönsten sind wir" (2013) übernahm Silverstone die Rolle der ehemaligen Schönheitskönigin Laurel. Die Komödie wurde 2013 auf einigen Filmfestivals gezeigt und in Deutschland direkt auf DVD veröffentlicht. Persönliches. Seit mehreren Jahren ist Silverstone eines der prominentesten Gesichter mehrerer PeTA-Kampagnen, die sich für Tierrechte und den Veganismus einsetzen. Sie selbst ist Veganerin seit 1998. 2004 wurde sie von "PeTA" zur "Sexiest Female Vegetarian" gekürt. 2007 ließ sie sich nackt für einen Werbespot und Plakatwerbung der Tierschutzorganisation ablichten. 2009 erschien "The Kind Diet", ein von ihr geschriebenes Buch über vegane Ernährung, das inzwischen unter dem Titel "Meine Rezepte für eine bessere Welt" auch auf Deutsch erschienen ist. Das Buch schaffte es auf Platz 1 der Bestsellerliste der "New York Times". Dazu betreibt sie ein Weblog. 2014 erschien ihr zweites Buch, "The Kind Mama", in dem sie für Attachment Parenting wirbt. Sie ist seit dem 11. Juni 2005 mit "Christopher Jarecki", dem Sänger der Band "S.T.U.N." verheiratet. Das Paar lebt in einem umweltfreundlichen Haus in Los Angeles. Am 5. Mai 2011 wurden sie Eltern eines Jungen. Al-Biruni. Bildnis Al-Birunis auf einer sowjetische Briefmarke Abu 'r-Raihan Muhammad ibn Ahmad al-Biruni (; persisch auch nur kurz, "Abū Raiḥān Bīrūnī"; geboren am 4. September 973 in der choresmischen Hauptstadt Kath (unweit des heutigen Xiva); gestorben 9. Dezember 1048 in Ghazna (früher Iran und heute Afghanistan)) war ein bedeutender choresmischer Universalgelehrter, Mathematiker, Kartograf, Astronom, Astrologe, Philosoph, Pharmakologe, Mineraloge, Forschungsreisender, Historiker und Übersetzer aus der Blütezeit des Islam in Zentralasien. Leben und Werk. Illustration einer Mondfinsternis aus dem "Kitab at-Tafhim" Ein Gezeichneter Kompass von Abū Rayḥān al-Bīrūnī Die ersten 20 Jahre lebte al-Biruni in Choresmien, wo er schon in jungen Jahren von dem Gelehrten Abu Nasr Mansur ibn Iraq ausgebildet wurde. Als die von Kath aus herrschende Afrighiden-Dynastie, welcher al-Biruni nahestand, 995 von den Mamuniden aus Gurgandsch gestürzt wurde, verließ er das Land und ging an den Hof des Samaniden Mansur II. nach Buchara. Hier wirkte zu dieser Zeit auch der vor allem als Mediziner bekannte Ibn Sina, mit dem al-Biruni viele Jahre lang zusammenarbeitete. 998 zog er nach Tabaristan und lebte am Hof des Ziyariden Qabus, bevor er in seine Heimat zurückkehrte, um sieben Jahre lang zum Gurgandschischen Gelehrtenkreis um Khwarazm-Schah Mamun II. anzugehören. Offenbar hatte er zuvor mit den Mamuniden Frieden geschlossen und die Beobachtung einer Mondfinsternis am 24. Mai 997 in Kath zeigt, dass er Choresmien schon eher wieder besucht haben musste. Al-Biruni hatte damals mit Abu'l-Wafa verabredet, dass dieser das Ereignis in Bagdad beobachtet; durch einen Vergleich der notierten Eintrittszeiten des Erdschattens konnten sie die Differenz in den geographischen Längen von Kath und Bagdad bestimmen. Al-Biruni beschäftigte sich in dieser Zeit mit Astronomie, Chronologie und Kartografie. 1017 eroberte der Ghaznawidensultan Mahmud von Ghazni Choresmien und nahm al-Biruni, Abu Nasr Mansur ibn Iraq und andere als seine Gefangenen mit nach Ghazna. In der Folgezeit erhielt al-Biruni von Mahmud finanzielle Zuwendungen für astronomische Aufgaben. Die Beobachtung einer Sonnenfinsternis am 8. April 1019 in Laghman nördlich von Kabul zeigt, dass er sich zumindest im Herrschaftsbereich Mahmuds frei bewegen konnte. Er bestimmte auch die genaue geographische Breite von Kath. Ab 1022 beherrschte Mahmud Teile von Nordindien. Al-Biruni begleitete ihn auf diesen Feldzügen. Er war der erste islamische Wissenschaftler, der sich mit der brahmanischen Wissenschaft beschäftigte und darüber im "Kitab al-Hind" umfassend berichtete. Er übersetzte zahlreiche arabische und griechische Werke ins Sanskrit, darunter die Elemente des Euklid. 1023 ermittelte er mit einem von ihm erfundenen neuen Messverfahren den Radius der Erdkugel zu 6339,6 km, was dem realen heutigen Wert am Äquator von 6378,1 Kilometer recht nahe kommt. Abu 'r-Raihan Muhammad al-Biruni konstruierte das erste Pyknometer. Damit bestimmte er die Dichte (das spezifische Gewicht) von unterschiedlichen Materialien. Ehrungen. Eine moderne Stadt im Bereich von al-Birunis Geburtsort wurde 1958 ihm zu Ehren in Beruniy umbenannt. Die Universität Schiraz benannte ihr astronomisches Observatorium "Abu Reihan Observatorium". Die Internationale Astronomische Union (IAU) ehrte ihn durch die Benennung des Mondkraters Al-Biruni. Ankara. Ankara, früher Angora (antiker Name,), ist seit 1923 die Hauptstadt der Türkei und der gleichnamigen Provinz Ankara. Die Stadt, die nach türkischem Recht als Großstadtgemeinde ("Büyükşehir Belediyesi") verfasst und nunmehr flächen- und einwohnermäßig mit der gleichnamigen Provinz identisch ist, hatte 2014 5,15 Millionen Einwohner und ist damit nach Istanbul die zweitgrößte Stadt des Landes. Blick von der Zitadelle auf die Altstadt Etymologie und Name der Stadt. Die genaue etymologische Herkunft des Namens Ankara ist nicht bekannt. Pausanias berichtet, dass König Midas an der Stelle einen Anker gefunden haben und die Stadt dann dort dem Gegenstand entsprechend als "Ancyra" (griechisch für Anker) gegründet haben soll. Stephanos von Byzanz behauptet, die Galater hätten im Kampf gegen die Ptolemäer aus Ägypten nach dem Sieg einen Anker als Kriegstrophäe mitgebracht und diese Bezeichnung bei der Gründung der Stadt im Stadtnamen verewigt. Es sind Münzprägungen mit Ankermotiv bekannt. Dagegen gibt es Hinweise, dass die Stadtbezeichnung schon seit den Phrygern oder gar den Hethitern in einer ähnlichen Form benutzt und später von den Griechen zu Ancyra umgewandelt wurde. Ähnlich wurde in der islamischen Zeit Ankaras die These aufgestellt, die damals Engürü genannte Stadtbezeichnung stamme von dem persischen Wort für Traube ("engûr") ab, das sich auf die üppigen Weinanbaugebiete um Ankara beziehe. Am 28. März 1930 erhielt die Hauptstadt anstelle der in der lateinischen Schrift bis dahin üblichen neugriechischen Namensform "Angora" die offizielle Bezeichnung "Ankara". Diese Schreibweise war im Osmanisch-Türkischen seit dem 19. Jahrhundert in amtlichem Gebrauch. Frühere Namensformen waren griechisch "Ankyra", arabisch "Anḳira" und "Anḳuriyya" sowie türkisch "Engüriye", "Engürü" und schließlich "Ankara". Geographie und Klima. Satellitenfoto von AnkaraAnkara bei NachtAnkara liegt rund 900 m bis 1050 m über dem Meeresspiegel und hat ein streng trockenes Kontinentalklima, das durch heiße trockene Sommer und kalte schneereiche Winter geprägt ist. Die Stadt liegt nördlich am Fuße des Köroğlu-Gebirges und zieht sich südlich in Richtung Konya-Plateau. Die Jahresdurchschnittstemperatur beträgt 11,7 °C. Die wärmsten Monate sind Juli und August mit durchschnittlich über 21 °C, die kältesten Januar und Februar mit etwas unter 0 °C im Mittel. Die meisten Niederschläge fallen im Mai mit durchschnittlich 56 Millimetern, die geringsten Niederschläge werden für die Monate Juli und August mit je 13 Millimeter im Mittel verzeichnet. Die Jahressumme der Niederschläge beträgt 417 mm; damit ist Ankara eines der trockensten Gebiete der Türkei. In der Stadt vereinigen sich zwei kleine Bäche namens "Hatip Çayı" und "Çubuk Çayı" zu dem Ankara-Fluss ("Ankara Çayı"), der in der Stadt größtenteils überbaut und stark verschmutzt ist. Antike und byzantinische Zeit. Ursprünglich eine blühende phrygische Siedlung an der persischen Königsstraße, wurde es Zentrum des keltischen Stammes der Galater, die etwa 230 v. Chr. in Kleinasien siedelten. 189 v. Chr. wurde Ancyra von Gnaeus Manlius Vulso besetzt, blieb aber unter regionaler Herrschaft. 25 v. Chr. wurde es Hauptstadt der römischen Provinz Galatien. Aus der Zeit erhalten geblieben ist der Augustustempel, die römischen Bäder und die Juliansäule. Bei der Teilung des Römischen Reiches nach dem Tode des Kaisers Theodosius I. im Jahr 395 fiel die Stadt an das Oströmische Reich, das später Byzantinisches Reich genannt wurde, und gehörte bis 1073 zu diesem. 620 eroberten vorrückende Sassaniden die Stadt und hielten sie sieben Jahre. Die Byzantiner machten die Stadt von 717-775 zum militärischen Hauptquartier ihrer Verwaltungseinheit Bukellarion. Ankara wurde mehrmals von arabischen Truppen unter den abbasidischen Kalifen Hārūn ar-Raschīd (797) und al-Mu'tasim bi-'llāh (838) erobert und von den Byzantinern nach einigen Jahren wieder eingenommen. Die von den Byzantinern als häretische Gruppe bezeichneten Paulikianer konnten die Stadt kurz einnehmen (871), sie wurden wie die Truppen der Abbasiden (931) ebenfalls wieder zurückgeworfen. Aus der byzantinischen Zeit stammen die eindrucksvollen Befestigungsmauern der Zitadelle sowie die in den Augustustempel eingebaute Kirche, von der noch die Apsis und die kleine Krypta erhalten sind. Seldschuken und Osmanen. Nach dem Sieg Alp Arslans in der Schlacht bei Manzikert 1071 löste sich die byzantinische Reichsverwaltung in Anatolien vorübergehend vollständig auf. In den so entstandenen anarchischen Verhältnissen ließen sich türkische Stammesgruppen in Anatolien nieder, denen oftmals rivalisierende Adelsfraktionen in den byzantinischen Städten Kleinasiens die Tore öffneten, um die militärischen Fähigkeiten dieser Gruppen für eigene Zwecke zu nutzen. Im Zuge der Konsolidierung und Zentralisierung der Herrschaft dieser türkischen Gruppen unter einer seldschukischen Nebenlinie geriet Ankara unter die Herrschaft des Sultanats der Rum-Seldschuken. Nach dem Mongoleneinfall 1243 und dem Zusammenbrechen des seldschukischen Staates übernahmen kleine unabhängige Fürstentümer, die Beyliks, die Kontrolle über die westanatolischen Grenzgebiete ("Uc"), während Ostanatolien und das östliche Mittelanatolien unter die direkte Herrschaft der mongolischen Ilchane und später auch unter die Herrschaft türkischer Fürsten fielen. Hierbei lag Ankara im Grenzgebiet zwischen den Grenzfürstentümerb der Uc, namentlich der Osmanen und der Karamanen und dem Herrschaftsbereich der Ilchane. In diesem Herrschaftsvakuum geriet Ankara wie vergleichbare Städte unter die Leitung der Ahi. Die Ahi waren als Ausläufer der Futuwwa-Bewegung gildenartige Bruderschaften der städtischen Bevölkerung, etwa der Handwerker, deren Führer in Abwesenheit anderer Herrschaftsinstanzen staatliche Aufgaben in Anspruch nahmen. 1356 eroberte Orhan I. Ankara und gliederte es ins Osmanische Reich ein, welches dessen Entwicklung fortan – mit der Ausnahme der Besatzung 1401–1402 durch Timur nach der Schlacht bei Ankara – bis zum Ersten Weltkrieg bestimmen werden sollte. Ankara war Hauptstadt eines Sandschak im Eyalet Anadolu und wurde 1841 Verwaltungssitz des neu gebildeten gleichnamigen Eyalets (ab 1867 Vilâyet Ankara). Seit 1892 ist Ankara durch die Anatolische Eisenbahn mit Istanbul verbunden. Nach der Niederlage der Osmanen im Ersten Weltkrieg besetzten alliierte Streitkräfte die damalige Hauptstadt Istanbul. Auch Ankara wurde 1919 für eine kurze Zeit nach der osmanischen Kapitulationserklärung von alliierten Truppen unter der Führung Withalls besetzt und wieder geräumt. In anatolischen Kernland formierte sich gegen die Besatzungsmächte Widerstand, und nach der Ankunft Mustafa Kemals in Ankara Ende 1919 wurde 1920 die Große Nationalversammlung der Türkei ausgerufen, da das osmanische Parlament in Istanbul unter dem Druck der britischen Besatzung stand und viele seiner Abgeordneten nach seiner Auflösung durch die Briten inhaftiert und nach Malta deportiert wurden. Als die griechischen Besatzungstruppen 1921 bis nach Polatlı (etwa 60 km vor Ankara vordrangen) und der Artilleriebeschuss schon in Ankara zu hören war, gab es im Parlament Überlegungen nach Kayseri umzuziehen, wovon nach der erfolgreichen Schlacht am Sakarya abgesehen wurde. Republik. Mit dem endgültigen Sieg der von Kemal Atatürk geführten Truppen im Türkischen Befreiungskrieg wurde Ankara wegen seiner Lage in Zentralanatolien und in bewusster Abgrenzung zur osmanischen Hauptstadt İstanbul im Vorfeld der Ausrufung der Republik am 13. Oktober 1923 zur Hauptstadt erklärt. Als repräsentative Hauptstadt der jungen Republik musste zunächst die Infrastruktur bereitgestellt werden. Die Stadt war durch einen Brand 1917 größtenteils zerstört worden, die Umgebung war versumpft (Malaria war ein großes Problem) und hinzu kam ein stetiger Zustrom von Menschen. In acht Jahren (1920–1928) vervierfachte sich die Bevölkerungszahl von ca. 25.000 auf 100.000 Zur Neukonzeption wurde größtenteils auf deutsche Architekten zurückgegriffen, so basierte die grundlegende Stadtplanung auf einen von Carl Christoph Lörcher für 1924–1925 entwickelten Plan, der aber im weiteren Verlauf aufgrund stärkeren Zuzugs neu bewertet und von dem ab 1929 im türkischen Dienst stehenden Hermann Jansen im sogenannten „Jansen-Plan“ neu konzipiert wurde. In den folgenden Jahrzehnten musste die Stadtverwaltung sich mit der Landflucht auseinandersetzen, die in Gecekondu-Vierteln sichtbar wurde. Spätestens seit den 1950ern wurde immer stärker auf repräsentative Bauten verzichtet, das Stadtbild im Zentrum dominieren große funktionale Quaderbauten und Verkehrsstraßen. Die als „grüne Stadt inmitten der anatolischen Steppe“ geplante Hauptstadt verlor stark an städtischer Grünfläche. Mitte der 1980er Jahre versuchte die sogenannte TOKI türkeiweit das Wohn- und Platzproblem mit billigen Hochhaussiedlungen zu lösen, welche seitdem das Stadtbild Ankaras dominieren. Seit 1994 ist der islamisch-konservative Melih Gökçek der Oberbürgermeister. Im Jahre 2009 wurde die Stadt für ihre herausragenden Bemühungen um die europäische Integration mit dem Europapreis ausgezeichnet. 2014 wurde der neue Amtssitz des Präsidenten eingeweiht, der trotz gerichtlichem Baustopp auf der Grünfläche der Waldfarm Atatürks errichtet wurde und knapp eine halbe Milliarde Euro kostete. Am 10. Oktober 2015 kam es während einer Demonstration am Bahnhof der Stadt zu einem terroristischen Sprengstoffanschlag mit über 100 Toten. Wappen. vorheriges Wappen der Stadt Ankara Das Wappen der Stadt ist ein langjähriges Streitthema. Das jahrzehntelang akzeptierte Wappen oder Emblem war die als „hethitische Sonne“ bezeichnete scheibenförmige Standarte (Bronzestandarten von Alaca Höyük). Sie wurde 1995 von dem damaligen und heutigen Bürgermeister Melih Gökçek der islamisch-konservativen AKP durch eine Abbildung der Kocatepe-Moschee, die mit ihrer klassischen Architektur anderen Moscheen der Türkei sehr ähnelt und 1987 fertiggestellt wurde, ersetzt. Verschiedene Gerichtsbeschlüsse bemängelten die fehlende repräsentative Symbolik und kritisierten Befugnisübertritte des Bürgermeisters. Dieser integrierte als Reaktion daraufhin den Atakule-Fernsehturm in das Wappen. Später schlug Gökcek zwei "Katzenaugen" der Katzenrasse Türkisch Angora als Wappen vor; der Vorschlag wurde aber aufgrund von Protesten zurückgezogen. Die Wappenfrage bleibt ein Streitthema. Wirtschaft und Tourismus. Die ehemalige Zentrale der Ziraat Bankası Ankara ist nicht nur das Verwaltungszentrum der Türkei, sondern gilt neben Istanbul und Izmir auch als eines der größten Wirtschaftszentren des Landes. Von Bedeutung ist die Rüstungsindustrie, wie die TUSAS Turkish Aerospace Industries, die ASELSAN (Militärtechnik) oder die MKE Munitions- und Waffenindustrie, die Roketsan oder Havelsan. Des Weiteren existieren eine große MAN Autobusfabrik in der Nähe des Flughafens, ein Traktorenwerk, ein Baumaschinenhersteller (Hidromek), sowie Betriebe der Nahrungs- und Genussmittelindustrie, während die ehemals bedeutende Ziegen- und Wollhaarverarbeitung bedeutungslos geworden ist. Die Industriebetriebe konzentrieren sich größtenteils im Westen der Stadt. Das Einkaufs- und Handelszentrum der Stadt liegt größtenteils in Kızılay um den Kızılay-Platz. Ankara ist im Vergleich zu den anderen türkischen Städten wenig touristisch erschlossen. Dies wird zumeist mit dem vorherrschenden Image einer unbegrünten Beamtenstadt erklärt. Zu den meistbesuchten Orten zählt das Mausoleum des Staatsgründers und das Museum für anatolischen Zivilisationen. Zumeist wird der Besuch im Rahmen einer größeren Tour, wie z.B. bei einer Reise nach Kappadokien organisiert. Für die religiösen inländischen Touristen ist die Hacı-Bayram-Moschee eine Pilgerstätte. Bildung. Ankara ist Sitz mehrerer Universitäten, u. a. der Universität Ankara, der Bilkent-Universität, der Gazi-Universität, der Technischen Universität des Nahen Ostens (ODTÜ), der Hacettepe-Universität, der Tobb-Universität für Wirtschaft und Hochtechnologie, der Ufuk-Universität, der Atılım-Universität, Çankaya-Universität und der Başkent-Universität. Straßen und ÖPNV. Bestehendes U- und S-Bahnnetz mit in Bau befindlichen Erweiterungen Die Qualität der Straßen ist unterschiedlich. Während sie im alten Stadtkern Ulus schlecht ist, werden die Straßen um Kızılay, den neuen Stadtkern, erneuert. Die achtspurige Ringautobahn O-20 trägt zur Entlastung des städtischen Verkehrs bei. Wie in anderen Großstädten gibt es zahlreiche Taxis. Wie in den meisten türkischen Städten wird ein beträchtlicher Teil des öffentlichen Nahverkehrs von Dolmuş übernommen. Der öffentliche Nahverkehr wird weitgehend mit Bussen abgewickelt. Es gibt mehrere Busbahnhöfe. Die U-Bahn besteht 2014 aus vier Linien M1, M2, M3 und Ankaray. Eine weitere Linie (M4) ist im Bau, eine Linie ist in langfristiger Planung. Daneben gibt es einen S-Bahn-Verkehr (Banliyö Trenleri). Eine 3,2 Kilometer lange kuppelbare Umlaufseilbahn mit vier Stationen verbindet seit 2014 den Stadtteil Şentepe mit der Metrostation Yenimahalle. Flughäfen. Ankara besitzt mehrere militärische (u.a. Güvercinlik Havalimanı, Etimesgut Havalimanı) und einen internationalen zivilen Flughafen, den Esenboğa Airport. Er liegt 28 km nordöstlich der Stadt und wurde zwischen 2004 und Ende 2006 grundlegend erneuert. Gleichzeitig wurde der Flughafen über eine Schnellstraße an die Ringautobahn angeschlossen. Eisenbahn. Der Bahnhof im Art-Déco Stil Ankara wurde durch die Anatolische Eisenbahn Ende des 19. Jahrhunderts mit Istanbul und über einen Abzweig mit İzmir verbunden. Später wurden Strecken über Kayseri in den Osten des Landes, zur Bagdadbahn Richtung Adana und über Karabük an die Schwarzmeerküste gebaut. Die Hochgeschwindigkeitsstrecke Ankara–Istanbul wurde Januar 2009 in Betrieb genommen. Die Hochgeschwindigkeitsstrecke Ankara–Konya ist seit dem 30. August 2011 in Betrieb. Hochgeschwindigkeitsstrecken nach Sivas, Kars und Izmir sind geplant und sollen bis 2015 fertiggestellt werden. Das "TCDD Açık Hava Buharlı Lokomotif Müzesi" (Dampflok-Museum) beinhaltet verschiedene historische Zugmaschinen. Bevölkerung. Ankara hatte vor 1923 eine Bevölkerungszahl von ca. 25.000. Nachdem es den Status als Hauptstadt erhalten hatte, entwickelte es sich zu der Stadt mit der drittgrößten Bevölkerung nach Istanbul und Izmir und steht 2014 landesweit an zweiter Stelle. Es gehört zu den Städten mit dem stärksten Zuzug von Binnenmigranten. Die ganze Provinz zählt 5.045.085 Bewohner, Seit der letzten Verwaltungsreform 2014 umfasst die Großstadtgemeinde Ankara ("Ankara Büyükşehir Belediyesi") das gesamte Gebiet der Provinz. Vor dieser Reform entfielen von den Einwohnern der Provinz 4.630.735 Bewohner auf die Großstadt Ankara. Auf Makroebene betrachtet sind in Ankara fast ein Drittel der Bewohner Zentralanatoliens (11.608.868) beheimatet. Die Stadtbevölkerung Ankaras lebt zu 97 % in städtischer, zu 3 % in dörflicher Umgebung. Im Zeitraum 1990–2000 wuchs die Stadtbevölkerung ausgehend von 2.583.963 um 21,48 %. Im Vergleich dazu betrugen die Wachstumsraten in Zentralanatolien in diesem Zeitraum 15,78 % und für die gesamte Türkei 18,28 %. Während in Ankara 1.585.970 Bewohner beim Heimateinwohnermeldeamt Ankara gemeldet sind, gibt es eine größere Gruppe, die noch in den ursprünglichen Heimatprovinzen gemeldet ist. Die größte Einwanderung kommt aus den Provinzen Çorum mit 378.451, gefolgt von Yozgat 332.198, Çankırı 236.406, 196.296 Kırşehir, 184.5061 Kırıkkale und 151.386 Sivas, dementsprechend größtenteils aus Zentralanatolien. Von außerhalb Zentralanatoliens kommen 103.319 Zuzüglern aus Erzurum, gefolgt von 81.830 aus Kars und 82.305 aus Bolu. Die geringsten Zuzüge verzeichnet Ankara aus Kırklareli, Hakkari und Yalova. Religion und Weltanschauungen. Die Bewohner sind größtenteils muslimischen Glaubens. Die Stadt kam früh mit dem Christentum in Kontakt. Nach der nordgalatischen Hypothese hat der Apostel Paulus von Tarsus die Bewohner Ankaras im ersten Jahrhundert zum Übertritt zum Christentum aufgerufen (Brief des Paulus an die Galater). Mit den Byzantinern wandelte sich der römische Augustustempel zu einer bedeutenden Kirche der Stadt. 1520 betrug der Anteil der Nichtmuslime in der Stadt 10 % und erhöhte sich durch den Zuzug meist katholischer Armenier im Jahre 1830 auf 45 %. Im Zuge der ethnischen Spannungen im Vorfeld des Ersten Weltkrieges und der Deportation der Armenier ist die christliche Gemeinde stark geschrumpft. Die Stadt besitzt einige modernere Kirchen (protestantisch, katholisch, orthodox). Auch eine 100 Mitglieder umfassende jüdische Gemeinde mit einer Synagoge existiert. Persönlichkeiten. Ankara war Geburtsort zahlreicher prominenter Persönlichkeiten. Siehe Liste der Söhne und Töchter der Stadt Ankara Stadtbild. Die verwinkelten, engen Gassen der Altstadt winden sich um einen steilen, von der Zitadelle gekrönten Felskegel. Südlich der Altstadt und des alten Stadtzentrums Ulus erstreckt sich die moderne Neustadt mit den neuen Zentren Kızılay und Kavaklıdere, deren Kennzeichen breite Boulevards, zahlreiche Regierungsgebäude und Botschaften sowie moderne Wohnviertel sind. Insbesondere im westlichen Teil der Stadt entstehen Neubausiedlungen, um dem wachsenden Bedarf an Wohnfläche zu entsprechen. Trotz dieser Anstrengungen gibt es noch sehr viele Marginalsiedlungen ("Gecekondu"). Die heutigen Strukturen erhielt Ankara im Wesentlichen durch den deutschen Städtebauer Hermann Jansen, dessen Planungen Ende der 1920er Jahre umgesetzt wurden. Im Stadtteil "Hamamönü" in der Stadtgemeinde Altındağ wurden ab 2009 historische Häuser im Stil des 19. Jahrhunderts restauriert und beherbergen nun Cafés, Galerien und Souvenirläden. In den letzten 15 Jahren wurde die Braunkohle als Heizmittel weitgehend vom umweltfreundlicheren Erdgas ersetzt. Dennoch nimmt aufgrund des stetigen Bevölkerungswachstums die Luftverschmutzung in Ankara stark zu, die alten Busse, Autos und das Fehlen einer umweltfreundlicheren Alternative tragen wesentlich dazu bei. Grünflächen. a> von der Zitadelle aus gesehen In den ersten städtebaulichen Plänen der jungen Republik war Ankara als grüne Stadt inmitten der kargen anatolischen Steppe geplant. Der zweite Stadtplaner Jansen plante sie in groben Zügen als anatolische Gartenstadt, so wurden große Grüngürtel angelegt, welche die Stadt in funktionelle Einheiten teilten. Eine größere Grünfläche im Westen der Stadt bildet die Waldfarm Atatürks, ein landwirtschaftlicher und forstwirtschaftlicher Demonstrationsbetrieb des Gazi, der die Bevölkerung bis in die 80er mit Rohmilch, Milchprodukten und lokalem Bier versorgte. Für die Bewohner der Stadt wurden damals dreistöckige Häuser mit Hintergärten angelegt, die heute noch in der Siedlung "Bahçelievler" in einer kleinen Zahl übriggeblieben sind. Mit der einsetzenden Landflucht ab den 1950ern wurden die Grünflächen Baugrund für Plattenbauten. Ein bekannter zentraler Park ist der Gençlik Parkı, der in der Bauzeit 1938–1943 im Stadtteil Ulus fertiggestellt wurde. Er wurde als Erholungspark eröffnet und änderte seinen Charakter ab den 1950er Jahren stärker in Richtung Unterhaltungspark. Nach einer Grundsanierung 2006 ist er mit abendlichen Lichteffekten und Musikshows ein Ort für flanierende Familien. Zu den größten Parks der Stadt gehört der Altınpark (mit 50.8 ha) im Stadtteil Altındağ. Er wurde auf einem ehemaligen Golfplatz errichtet und 1991 fertiggestellt und bietet neben Erholung auch Möglichkeiten zur sportlichen Betätigung (wie Kartsport, Eisbahn). Hinzu kommen mehrere kleinere Parks, darunter der "Kurtuluş Parkı", der "Kuğulu Parkı", der "Gökçek Parkı" und der "50. Yıl Parkı". Der Wald der Technischen Universität im Süden der Stadt war eine größere halbwegs bewaldete Grünfläche, die jedoch zunehmend bebaut wird, was zu anhaltenden Protesten der Studierenden führt. Friedhöfe. Zu den landesweit bedeutendsten Friedhöfen gehört der Türkische Staatsfriedhof im Stadtteil Yenimahalle. Dieser beherbergt in seiner 536.000 m² großen Fläche 61 Gräber ranghoher Offiziere und Generäle des türkischen Befreiungskriegs, Gräber von drei Staatspräsidenten und einem Ministerpräsidenten. Für das relativ moderne Projekt (Bauzeit war 1981–1988) wurden die meisten Bestatteten dorthin umgebettet. Der ganze Friedhof ist mit Skulpturen durchzogen und beinhaltet ein Museum mit Habseligkeiten der Verstorbenen. Ein anderer Friedhof mit namhaften Bestatten ist der Städtische Friedhof Cebeci im Stadtteil Cebeci. Er wurde in der Republikzeit als moderner Friedhof durch den Architekten Martin Elsaesser geplant und ist im Sinne des Laizismus konfessionell-gemischt. Durch Erweiterungen in der jüngeren Zeit hat er seine alte Struktur verloren. Er gilt mittlerweile als zweitgrößter Friedhof der Stadt. Der größte zivile Friedhof ist der "Karşıyaka-Friedhof" mit einer Fläche von 2.89 km². Anıtkabir. Auf dem zentralen Hügel "Anıttepe" befindet sich die Ruhestätte des Staatsgründers Mustafa Kemal Atatürk. Nach seinem Tod 1938 wurde ein internationaler Architekturwettbewerb ausgerufen mit der Aufgabe ihm ein passendes Grabmal zu setzen. Der Entwurf fiel auf ein geradlinig rationales, schnörkelloses und monumental gehaltenes Mausoleum mit zentraler Lage und Blick auf die Stadt. Die Anlage ist dreiteilig: Über einen schmalen Gang (Löwenweg) gelangt man auf den zeremoniellen Platz, der 15.000 Menschen aufnehmen kann. Das Mausoleum umfasst Habseligkeiten des Feldherren und Staatsmannes und ein Museum über den Unabhängigkeitskrieg. Es ist ein landesweit bekanntes Nationaldenkmal, das jedes Jahr mehrere Millionen Besucher verzeichnet (2013: ca. 5 Millionen). Für ausländische Staatsgäste ist es ein protokollarischer Pflichtbesuch. Parlamente. Ankara umfasst drei Parlamentsgebäude. Das erste historische Parlament am Ulus-Platz war ein jungtürkisches Clubhaus, das von der neu formierten Nationalbewegung 1920 als Parlament benutzt wurde. Hier wurde während des Unabhängigkeitskrieges der Krieg gegen die vorrückenden Griechen und die Haltung zur besetzten Istanbuler Regierung debattiert. Heute ist es ein Museum ("Kurtuluş Savaşı Müzesi"). Das zweite historische Parlamente wurde aufgrund den engen Platzverhältnissen vom Architekten Vedat Tek entworfen und ist in direkter Nachbarschaft zum ersten Parlament. Sie wurde von 1924 bis 1961 genutzt. Es ist heute ebenfalls ein Museum ("Cumhuriyet Müzesi"). Das dritte und im Dienst stehende Parlament wurde 1938 von dem Sieger des Architekturwettbewerbs Clemens Holzmeister entworfen und 1961 fertiggestellt. Zitadelle. Die Zitadelle von Ankara ist eine von den Hethitern errichtete, von den Galatern ausgebaute und schließlich bis zu den Osmanen weitergenutzte Befestigungsanlage inmitten der Altstadt Ankaras. Sie wird unterteilt in die äußere ("Dışkale"), innere Burganlage ("İçkale") und die Burg an sich ("Akkale"). Moscheen. Wahrzeichen und Blickfang der Stadt ist die Kocatepe-Moschee. Sie ist die größte der Stadt. Im Inneren der Moschee befinden sich Teehäuser, ein großer Supermarkt und ein Konferenzraum. Das Gotteshaus wurde erst 1987 fertiggestellt und ist ein Rückgriff auf die klassische osmanische Architektur Mimar Sinans. Die ebenfalls bekannte "Maltepe-Moschee" orientiert sich wie viele andere Moscheen an dem gleichen Stil. Eine tatsächlich von Mimar Sinan in Ankara erbaute historische Moschee aus dem 16 Jh. ist die "Neue Moschee" im Stadtteil Ulus. Als architektonische Neuheit gilt die 2008 fertiggestellte Doğramacızade-Ali-Sami-Paşa-Moschee, die der Gründervater vieler Institute İhsan Doğramacı zu Ehren seines Vaters erbauen ließ. Der als postmodern bezeichnete Architekturstil ist schlicht gehalten und die Moschee erlaubt konzeptionell bei speziellen Anlässen auch Nicht-Muslimen die Nutzung der Räume. Zu den ältesten Moscheen (13 Jh.) der Stadtgehört die Aslanhane-Moschee. Der Name „Aslanhane" bedeutet „Löwenhalle“ und ist den Löwenreliefs an der Außenfassade geschuldet. Der Gebetsraum wird im typischen seldschukischen Stil von hölzernen Säulen gestützt. Die Hacı-Bayram-Moschee wurde nach dem Dichter und Gründer des Bairami-Sufiordens, Hacı Bayram-i Veli benannt, dessen Grabmal sich direkt im Hintergarten befindet. Sie wurde 1428 fertiggestellt und besitzt ein Minarett. Unmittelbar angrenzend an die Moschee steht die Ruine des Augustustempels, an dessen Wänden der Rechenschaftsbericht des Kaisers Augustus angebracht ist. Die Moschee steht inmitten eines Viertels mit restaurierten bzw. im osmanischen Stil neu- oder wiedererrichteten Gebäuden. Der Weg zur Moschee ist gesäumt von Läden für religiöse Literatur und Devotionalien. Museen. Staatliches Kunst- und Skulpturenmuseum Ankara Eines der international bedeutendsten archäologischen Museen der Türkei ist das Museum für anatolische Zivilisationen, das als Schwerpunkt Exponate der Epochen bis zum Beginn des ersten vorchristlichen Jahrhunderts und dabei besonders der Hethiter ausstellt. Mit der jüngeren Geschichte der Republik beschäftigen sich die beiden ehemaligen Parlamente, die in Museen umgewandelt wurden. Auch das Museum im Anıtkabir behandelt das Thema und zeigt neben Habseligkeiten des Staatsgründers auch Schlachten audiovisuell auf Panoramaleinwänden. Es beherbergt zudem Nationalgemälde und Porträts des Staatsgründers und der beteiligten Generalität. Auf dem "Namazgah" Hügel liegen zwei im "ersten nationalen Stil" erbaute Museen. Das Ethnografisches Museum Ankara ist ein 1930 erbautes Volkskundemuseum und stellt schwerpunktmäßig Exponate ab der seldschukischen Zeit aus: Koch-, Wohn- und Arbeitsumgebung und diverse Kunstformen der Nomaden und sesshaften Bewohner Anatoliens. Daneben liegt das Staatliche Kunst- und Skulpturenmuseum welches als Zentrale der Türk Ocağı und Halkevleri genutzt wurde und heute als Kunstmuseum dient. Das 2006 eröffnete Çengelhan Rahmi M. Koç Museum befindet sich in der ehemaligen Çengelhan-Karawanserei und ist namentlich dem Sohn des türkischen Wirtschaftspionier Vehbi Koç gewidmet. Das Industriemuseum beinhaltet Maschinen und Gerätschaften aus dem Zeitalter der beginnenden Industrialisierung (Kommunikation, Navigation, Landwirtschaft). Daneben gibt es zwei Wissenschaftsmuseen in der Stadt, das "Feza Gürsey Science Center" in Altinpark und das Technologie- und Wissenschaftsmuseum der ODT-Universität ("ODTÜ Bilim ve Teknoloji Müzesi"). Bühnen. Das historische Evkaf Apartmanı, die Zentrale der türkischen Staatstheater. Die Opera Sahnesi (Deutsch: "Opernbühne") ist das größte der insgesamt drei Opernhäuser in Ankara. Es gehört zu den Türkischen Staatstheatern ("Devlet Tiyatroları"). Folgende Bühnen in Ankara gehören zu den Türkischen Staatstheatern: 125. Yıl Çayyolu Sahnesi, Büyük Tiyatro („Große Bühne“), Küçük Tiyatro („Kleine Bühne“), Şinasi Sahnesi, Akün Sahnesi, Altındağ Tiyatrosu, İrfan Şahinbaş Atölye Sahnesi, Oda Tiyatrosu ("Oda Tiyatrosu"), Mahir Canova Sahnesi, Muhsin Ertuğrul Sahnesi. Die Seymen in Ankara bei einem Feiertag der Republik Seymen. Äquivalent zu den in Westanatolien lokalisierten Zeybeks gibt es auch in Inneranatolien und besonders in Ankara die sogenannten "Seymen". Diese waren zu seldschukischen Zeiten bewaffnete Sicherheitskräfte. Heute sind sie in Vereinen organisiert und führen bei besonderen Anlässen in traditioneller Tracht, mit Turban und Krummsäbel in kleinen Gruppen ihre charakteristischen Tänze vor. Anlässe sind nationale Feiertage. Ein wichtiger lokaler Feiertag – und besonders für die Seymen – ist die Ankunft Mustafa Kemals in Ankara am 27. Dezember 1919. An diesem Tag wurde Mustafa Kemal als Organisator des anatolischen Widerstands von einer großen Gruppen tanzender Seymen mit Zurna und Davul in Empfang genommen, welches bei diesem Fest folkloristisch nachgebildet wird. Sport. Zur Saison 2012/2013 spielt ein Fußballverein in der Süper Lig, der höchsten türkischen Spielklasse: "Gençlerbirliği SK". Der Verein spielt im Leichtathletikstadion Ankara "19 Mayıs", das 21.250 Zuschauern Platz bietet. Hinter den İstanbuler Vereinen sind Vereine aus Ankara (MKE Ankaragücü, Ankara Şekerspor), jedoch eher zweitrangig und somit international weitgehend unbekannt. Weitere Sportmöglichkeiten sind zum Beispiel Skifahren auf dem Elmadağ, dem Hausberg von Ankara, oder Schlittschuhlaufen im Eisstadion. Des Weiteren gibt es noch mit Türk Telekomspor einen Basketballerstligisten. Sonstiges. Ankara ist die Heimat der Türkisch Angora, einer Katzenrasse, die als älteste Langhaar-Rasse der Welt gilt. Atheismus. Atheismus (von altgriechisch "átheos" „ohne Gott“) bezeichnet im engeren Sinne die Überzeugung, dass es keinen Gott bzw. keine Götter gibt. Zum Atheismus im weiteren Sinn werden bisweilen auch andere Abgrenzungen von einem Glauben an Gott gezählt, beispielsweise Ansichten, dass zur Existenz eines Gottes und von Göttern allgemein nichts gewusst werden kann (Agnostizismus). Begriffsweite und -herkunft. Die begriffliche Spannbreite von "Atheismus" umfasst einerseits die „weiten“ Begriffsbedeutungen, die ein Dasein ohne Glauben an Gott, entsprechende Lebensweisen und diesbezügliche Begründungen einschließen (auch als „Nichttheismus“ begriffen), und andererseits „enge“ bzw. „starke“ Bedeutungen, die in Hinsicht auf Götterbehauptungen verneinend, gegebenenfalls kämpferisch oder mit Gegenbeweisen vertreten werden (auch als „Antitheismus“ bezeichnet). Im antiken Griechenland wurde der Atheismus-Begriff mit dem Alpha privativum gebildet (‚A-theismus’), er hat verschiedene altgriechische Varianten (Substantiv: im Sinne von ‘Gottlosigkeit’, ‘Gottesleugnung’ und ‘Unglaube’) und er war in Asebie-Prozessen ein hinreichender Anklagepunkt. Die latinisierte Form ‚Atheismus’ findet sich erstmals bei Cicero, seit Ende des 16. Jahrhunderts erscheint sie im deutschen Schrifttum (fnhd. ‚Atheisterey’) und sie gilt seit Beginn des 18. Jahrhunderts als eingedeutscht. In der Zeit der Aufklärung waren es zunächst Freidenker, Deisten, Pantheisten und Spinozisten, die von Philosophen und etablierten Kirchen als Atheisten bezeichnet und bezichtigt wurden. Ein Teil der Enzyklopädisten war dem Atheismus besonders verbunden. Als Kampfbegriff diente ‚Atheist’ auch zur moralischen Diffamierung derjenigen, welche zwar den Theismus akzeptierten, aber in Einzelaspekten von der herrschenden Gotteslehre abwichen. Jedoch wird in der Regel als Atheist bezeichnet, wer es ausdrücklich verneint, an Gott oder Götter zu glauben. Agnostiker, die an keinen Gott glauben, werden vielfach zu den Atheisten im weiteren Sinne gezählt, obgleich nicht alle damit einverstanden sind. Agnostische Ansichten, nach welchen auch die Nichtexistenz Gottes nicht erkannt werden kann, sind hierbei nicht benannt. Der Agnostizismus vereint unterschiedliche Ansichten; daher ist die Zuordnung des Agnostizismus zum Atheismus umstritten (und umgekehrt). Umstritten ist auch die Zuordnung des Positivismus zum Atheismus. Der Philosoph Alfred Jules Ayer, Vertreter des "logical positivism" (Logischer Empirismus), betont, dass seine Position zu Sätzen wie „Gott existiert“ weder mit Atheismus noch mit Agnostizismus verwechselt werden sollte. Er halte solche Sätze für metaphysische Äußerungen, die weder wahr noch falsch seien. Charakteristisch für einen Atheisten sei hingegen die Ansicht, „dass es zumindest wahrscheinlich ist, dass es keinen Gott gibt“. Ob auch Positionen als „Atheismus“ bezeichnet werden sollen, die keine Gottheit annehmen, jedoch nicht auf Religionslosigkeit reduzierbar sind, wie etwa im Jainismus oder Konfuzianismus, ist in der Literatur umstritten. Teils wird vorgeschlagen, die explizite Ablehnung theistischer Positionen als „theoretischen“, und die Lebenspraxis (die sich vollzieht, „als ob“ ein Numinoses nicht existierte) als „praktischen Atheismus“ zu bezeichnen. Seit dem 19. Jahrhundert wird der Begriff ‚Atheismus’ in einem naturalistischen Sinne teilweise so eng geführt, dass er gegen alle supernaturalistischen Auffassungen gerichtet wird, die mit einem Glauben an übernatürliche Wesen, Kräfte oder Mächte göttlicher wie nichtgöttlicher Art verbunden sind (Animismus, Spiritismus, mono- und polytheistische Religionen). Dies wird zu Beginn des 21. Jahrhunderts oft als „Neuer Atheismus“ bezeichnet, wenn die Argumentation als naturwissenschaftlich ausgewiesen ist. Demographische Merkmale. Umfragen zum Thema Atheismus werfen methodische Probleme auf, da es schwierig ist, eine einheitliche Abgrenzung zwischen Säkularisten, Humanisten, Nichttheisten, Agnostikern und spirituellen Personen vorzunehmen. Immer mehr verschwimmt die Grenze zwischen Gläubigen und Nichtgläubigen. Anteil von Atheisten und Agnostikern an der Gesamtbevölkerung (nach Zuckerman). Bei China, Kuba und Nordkorea müssen die Zahlen angesichts der vergleichsweise schlechten Datenlage mit besonderer Skepsis betrachtet werden. The World Factbook der CIA schätzte im Jahre 2010: Atheisten 2,32 %, Nichtreligiöse 11,77 %, Christen 33,32 % (darunter 16,99 % römisch-katholisch), Muslime 21,01 %. In seiner „Bilanz des Unglaubens“ meint Georges Minois, es kursierten Unmengen an Zahlen, „die allesamt falsch sind“. Allenfalls könne man aus ihnen ersehen, dass mehr als ein Fünftel der Menschheit nicht mehr an einen Gott glaube. Minois präsentiert selbst Schätzungen für das Jahr 1993 – weltweit 1,2 Milliarden Agnostiker und Atheisten – sowie für das Jahr 2000 – etwa 1,1 Milliarden Agnostiker und 262 Millionen Atheisten, und zum Vergleich etwa 1,2 Milliarden Gläubige für den Islam und 1,1 Milliarden für die katholische Kirche. glaubten 20 % der Bürger der damals 27 EU-Staaten weder an Gott noch an eine spirituelle Kraft. Eine Mehrheit von 51 % glaubte an Gott und 26 % an „eine Art von spiritueller Kraft“; 3 % äußerten sich nicht. Zwischen den einzelnen Ländern gab es große Unterschiede; so war der Anteil der Gottesgläubigen in Malta mit 94 % und Rumänien mit 92 % am höchsten und mit 16 % in Tschechien und 18 % in Estland am geringsten. In Deutschland, Österreich und der Schweiz wurden je 44 % ermittelt. Die Anzahl der Einwohner, die angaben, weder an Gott, noch an eine spirituelle Kraft zu glauben, war im Jahr 2010 mit 40 % in Frankreich und 37 % in Tschechien am höchsten und betrug in Deutschland 27 %, in Österreich 12 % sowie 11 % in der Schweiz. Laut dem Eurobarometer 2005 glaubten mehr Frauen (58 %) an Gott als Männer (45 %); der Glaube an Gott korrelierte positiv mit dem Alter, politisch konservativer Einstellung und mangelnder Schulbildung. In den USA liegt die Zahl der Personen, die an Gott oder eine höhere Macht glauben, bei 91 %. Das Worldwide Independent Network und die Gallup International Association befragten im Zeitraum zwischen 2011 und 2012 fast 52.000 Personen aus 57 Ländern zu ihren religiösen Einstellungen. 13 % der befragten Personen bezeichneten sich als „überzeugte Atheisten“, 23 % nannten sich „nicht-religiös“ und 57 % gaben an, eine religiöse Person zu sein. Zwischen 2005 und 2012 hat sich der Anteil religiöser Personen weltweit um 9 % verringert, während der Anteil von Atheisten um 3 % gestiegen ist. In manchen Ländern ist dieser Trend besonders ausgeprägt: In Vietnam, Irland und der Schweiz ging der Anteil der Personen, die sich selbst als religiös bezeichnen, zwischen 2005 und 2012 um 23, 22 bzw. 21 % zurück. Der Anteil an Atheisten ist nach Erhebungen in den USA bei Wissenschaftlern besonders hoch: Nur sieben Prozent der Mitglieder der amerikanischen Akademie der Wissenschaften glauben an die Existenz eines personalen Gottes. Eine Umfrage unter Mitgliedern der American Association for the Advancement of Science von 2009 ergab, dass 51 % der amerikanischen Wissenschaftler an Gott oder eine höhere Macht glauben, wesentlich weniger als im allgemeinen Publikum. Der Anteil der atheistischen Wissenschaftler hat sich im Laufe des 20. Jahrhunderts nicht wesentlich verändert. So ergab eine Umfrage des Psychologen James H. Leuba im Jahr 1914, dass 42 % der amerikanischen Wissenschaftler an einen persönlichen Gott glaubten und ebenso viele nicht. 1996 wiederholte der Geschichtswissenschaftler Edward Larson die Umfrage von Leuba mit den gleichen Fragen und der gleichen Anzahl Personen und kam auf 40 % gläubige und 45 % atheistische Wissenschaftler. Eine im November 2013 veröffentlichte Metaanalyse von 63 Einzelstudien kam zu dem Ergebnis, dass Atheismus bzw. ein Nicht-Glauben an Gott signifikant mit Intelligenz zusammenhängt (Intelligenz wurde in den meisten Studien erfasst durch den g-Faktor). Mehrere Forschungen ergaben einen positiven Zusammenhang zwischen Religiosität und Geburtenziffer. So hatten im Jahr 2002 in Deutschland Menschen, die sich selbst als nicht religiös bezeichneten, mit durchschnittlich 1,4 Kindern deutlich weniger Kinder als Menschen, die sich als religiös bezeichneten (durchschnittlich 1,9 Kinder). Das Institut der deutschen Wirtschaft kam bei einer Auswertung der weltweit erhobenen Daten des World Values Survey zu ähnlichen Ergebnissen. Politische Wechselwirkungen. Im Lauf der Geschichte kamen Atheisten vielfach mit politischen Autoritäten in Konflikt. Die Äußerung atheistischer Ansichten wird noch im Jahre 2013 in zahlreichen Ländern mit Freiheitsentzug bestraft, in 13 Ländern sogar mit dem Tod. In der Neuzeit wurden gesellschaftliche Bereiche einschließlich der Politik, des Rechts und der Religionsausübung zunehmend autonom. Die Trennung von Kirche und Staat wurde mit Hilfe aufklärender Bewegungen verfassungsrechtlich verankert und dann durch staatskirchenrechtliche Bestimmungen ausgeformt. Diese Trennung wird als atheistisch bezeichnet (insbesondere im Laizismus). In Abgrenzung zu religiös-politischen oder auch staatsatheistischen Machthabern garantiert das rechtsstaatliche Prinzip eine weltanschauliche Neutralität in einer prozessual grundlegenden Weise. Rechtsstaatliche Verfassungsorgane sind in ihren Entscheidungen nicht nur von religiösen, sondern auch von sonstigen externen Einflüssen entsprechend entbunden und stattdessen vorrangig einer Verfassung verpflichtet, die in modernen Staaten auf Freiheitsklauseln basiert. Die entsprechend neutrale Rechtsbildung führte auch gegen politische Widerstände zu einer zunehmend rechtswirksamen Tolerierung atheistischer Positionen und Lebensgestaltungen in der modernen Welt. Heute enthalten die Verfassungen vieler demokratischer Staaten das Menschenrecht auf Religionsfreiheit und darin eingeschlossen das Recht, Atheist zu sein oder zu werden. Nicht in allen diesen Staaten gibt es eine strenge Trennung von Staat und Religion, zumal Religionen aus Kultur- und Selbstbestimmungsgründen unterschiedlich stark geschützt werden (beispielsweise durch ein Recht auf Religionsunterricht). Hinzu kommt der Gottesbezug in Verfassungen. So beginnt die Präambel des Grundgesetzes für die Bundesrepublik Deutschland mit den Worten: „Im Bewusstsein seiner Verantwortung vor "Gott" und den Menschen …“. Die Präambel der Bundesverfassung der Schweizerischen Eidgenossenschaft beginnt mit den Worten: „Im Namen Gottes des Allmächtigen!“ Im Jahre 1998 scheiterte bei einer Totalrevision der Verfassung ein Vorstoß, diese Präambel zu streichen. Einige heutige Strafgesetzbücher enthalten Regelungen, die die Beschimpfung von Bekenntnissen, Religionsgesellschaften und Weltanschauungsvereinigungen als einen Straftatbestand ansehen. Atheistische Religions-, bzw. Kirchenkritiker wurden infolgedessen in der Vergangenheit nach öffentlichen Äußerungen wiederholt strafrechtlich verfolgt. Auf der anderen Seite war Atheismus Bestandteil der marxistisch-leninistischen Staatsdoktrin, zum Beispiel in der Sowjetunion und in der Deutschen Demokratischen Republik, so dass Formen der Religionsausübung in den staatlich gelenkten Erziehungseinrichtungen keinen Ort hatten und politisch bekämpft wurden. Die Entkirchlichung Ostdeutschlands wird von Richard Schröder als die wohl wirksamste Hinterlassenschaft des SED-Regimes angesehen. Seinen Angaben zufolge waren im Jahre 1950 noch 91,5 Prozent der DDR-Bürger Kirchenmitglieder, 1964 noch 67,4 Prozent und am Ende der DDR etwa 25 Prozent. Diese Entwicklung setzt sich auch nach der Wiedervereinigung fort, so ging der kirchlich gebundene Bevölkerungsanteil weiter zurück und liegt in Großstädten wie Magdeburg oder Halle mittlerweile nur noch bei rund 15 %. Die Mitgliederschaft der beiden größeren Kirchen in Ostdeutschland ist darüber hinaus in hohem Maße überaltert und wird daher weiterhin abnehmen. Die von staatlicher Seite als Fortschrittsdoktrin gelehrte, marxistisch grundierte atheistische Weltanschauung wird von Kritikern wie Herbert Schnädelbach als „konfessioneller Atheismus“ und „Staatsreligion“ bzw. „Staatsatheismus“ bezeichnet. In Albanien wurde 1967 (bis 1990) ein totales Religionsverbot ausgerufen, und das Land bezeichnete sich als „erster atheistischer Staat der Welt“. Im gesamten so genannten Ostblock wurde der Atheismus gefördert, während gelebte Religiosität zumindest argwöhnisch betrachtet wurde, oft auch mit Nachteilen verbunden war oder gar gezielt verfolgt wurde, wie etwa bei den Christenverfolgungen unter Stalin. NGOs zufolge werden auch heute noch religiöse Gruppen und Einzelpersonen in manchen sich selbst als "atheistisch" verstehenden Staaten wie Nordkorea verfolgt und oftmals inhaftiert, gefoltert und getötet. Der Atheismus wird aktiv gefördert, beispielsweise im Humanismus, im Existenzialismus und durch die Freidenkerbewegung. Zu großen Anteilen sind der Sozialismus, Kommunismus und Anarchismus atheistisch geprägte Weltanschauungen. In den beiden letzten Jahrzehnten des 20. Jahrhunderts, so Georges Minois in seiner "Geschichte des Atheismus", habe der Eifer des antireligiösen Kampfes nachgelassen: „Die Lager zerfallen rasch, abgesehen von einem unvermeidlichen harten Kern auf beiden Seiten. Der Zweifel durchdringt alle Gemüter, genährt von einem Gefühl der Ohnmacht und Vergeblichkeit, fast Nichtigkeit gegenüber Fragen, die einst die Geister entflammten.“ Bedeutung im Wissenschaftskontext. Eine Orientierung an naturwissenschaftlichen Erklärungsmodellen lässt für einige Wissenschaftler früh die „Gotteshypothese“ als methodisch unzulässig erscheinen, da sie keine wissenschaftlich beobachtbaren Konsequenzen habe, mithin auch keine wissenschaftlich beschreibbaren Phänomene erkläre. Eine derartige Ausklammerung Gottes aus wissenschaftlicher Forschung wird als methodischer oder methodologischer Atheismus bezeichnet. Er impliziert allerdings keinen theoretischen Atheismus, behauptet also nicht, dass Gott nicht existiert. Daher wird manchmal präziser von „methodischem Noninterventionismus“ gesprochen. Die Frage, ob wissenschaftliches Denken und die Annahme eines Gottes überhaupt dergestalt in Beziehung treten können, dass eine gegenseitige Bestätigung oder Widerlegung denkbar ist, wird unter Wissenschaftstheoretikern kontrovers beurteilt. Auch in populärwissenschaftlichen Schriften finden sich gegenteilige Annahmen. Einige, z. B. Stephen Jay Gould und John Polkinghorne, vertreten den Standpunkt, dass die Wissenschaft mit der Religion nicht in Konflikt stehe, da sich erstere mit Empirie, letztere hingegen mit Fragen letzter Begründung und mit moralischen Werten befasse. Andere, z. B. Richard Dawkins, Steven Weinberg und Norman Levitt, argumentieren, dass Theismus mit einer wissenschaftlichen Weltsicht grundsätzlich unvereinbar sei, da Wunder wie die Auferstehung Jesu Christi die Naturgesetze außer Kraft setzen müssten; die Wissenschaft führe demnach zwangsläufig zu Atheismus, Deismus oder Pantheismus. Bis zur Mitte des 20. Jahrhunderts gab es noch mehrere wirkungsmächtige, intellektuell sogar hegemoniale „wissenschaftliche Weltanschauungen“, darunter den Marxismus in mehreren politischen Ausformungen, die Psychoanalyse oder den Neopositivismus, die erklärtermaßen atheistisch waren und den Religionen eine schädliche Wirkung zuschrieben. Atheismus und Moral. Mit anderen vertrat Immanuel Kant die Auffassung, dass moralische Prinzipien auch ohne Rückgriff auf höhere Wesen in der menschlichen Vernunft bzw. in der Natur zu gründen seien. Recht und Moral gäben die Möglichkeit, Maximen von Freiheit und Handlungen unter allgemeinen (Vernunft-)Gesetzen bestehen zu lassen. Zumindest sollte hier ableitbar sein, dass die Beurteilungskriterien rational verhandelbar seien. Vor allem in kirchlichen Kreisen wird die Meinung vertreten, dass mit dem fehlenden Glauben an Gott die Verneinung moralischer Werte im Sinne eines Nihilismus einhergehe. So bezeichnet der evangelikale Religionswissenschaftler und Publizist Ravi Zacharias den Atheismus als „jeden Wertes beraubt“ und bestreitet, dass es fundierte moralische Prinzipien ohne Rückgriff auf höhere Wesen geben könne. Der katholische Staatsrechtler und vormalige Verfassungsrichter Ernst-Wolfgang Böckenförde wird mit der Formel zitiert: „Der freiheitliche, säkularisierte Staat lebt von Voraussetzungen, die er selbst nicht garantieren kann.“ Dieses sogenannte Böckenförde-Diktum wird teilweise so gedeutet, dass Demokratien auf religiöse Bindungen als Garanten gemeinsamer Grundwerte angewiesen seien. Gegen diese Deutung wendet sich Gerhard Czermak. Er meint, Böckenförde werde „gründlich missverstanden, wenn nicht instrumentalisiert“, sofern aus seinem Diktum abgeleitet werde, „der Staat müsse die Kirchen und Religionsgesellschaften als Wertestifter in "besonderer" Weise fördern, weil man sonst die Zerstörung fördere […]. Er [Böckernförde] spricht von Wagnis und verweist auf die in der Gesellschaft wirkenden höchst unterschiedlichen Kräfte. Es geht ihm darum, dass "alle" Gruppierungen mit ihrem je eigenen, auch moralischen, Selbstverständnis zur Integration eines Teils der Gesellschaft beitragen.“ Empirische und evolutionäre Auffassungen. Auch empirisch ist das Verhältnis von Religion und Moral nicht geklärt. Einige Untersuchungen legen nahe, dass persönliche Moral nicht von persönlicher Religiosität abhängig ist. So fanden z. B. Franzblau bei Atheisten größere Ehrlichkeit, und Ross bei Atheisten größere Hilfsbereitschaft gegenüber Armen. Gero von Randow entnimmt sozialpsychologischen Studien „eine auffallend geringe Kriminalität unter Nichtgläubigen. Das sollte umgekehrt auch nicht zu ihren Gunsten ins Feld geführt werden, denn sie sind tendenziell sozial besser gestellt und gebildeter als die Gläubigen, jedenfalls im Westen; wir haben es hier also nicht mit einem Religions-, sondern mit einem Klasseneffekt zu tun.“ Eine Trennung von Moral und Theismus stellt die Auffassung dar, die unter anderem John Leslie Mackie in seinem Buch "Ethik" und Richard Dawkins in seinem Buch "Der Gotteswahn" ausführen, nämlich dass Moral an den Prozess der biologischen Evolution gekoppelt und Ergebnis eines gesellschaftlich beeinflussten Entwicklungsprozesses sei. Hieraus könne folgen, dass die menschliche Moral auch dann Bestand habe, wenn Religionen in Verfall gerieten. Abgrenzungen zu religiösen Orientierungen. Aus atheistischer Perspektive erscheint das Handeln aufgrund angeblich göttlicher Gebote fragwürdig, weil die Bewertung eines Verhaltens oder einer Handlung nicht von den Folgen für die Betroffenen abhängt, also auf die zwischenmenschliche Ebene zielt, sondern als ethisch wünschenswert hauptsächlich vermittels der extrinsischen Festsetzung eines transzendenten Wesens gilt. Ein Mord zum Beispiel wäre nach streng theistischer Auffassung nicht bereits wegen der Folgen für das Opfer eine schlechte, zu verurteilende Handlung, sondern auf der Grundlage göttlicher Gebote. „Es erscheint als höchst problematisch, etwas so Notwendiges wie die Moral auf die Basis von so Dubiosem – wie es der religiöse Glaube ist – stellen zu wollen. Wie sollte auf diese Weise eine wirkliche Orientierung und Lebenskunde möglich sein?“, schreibt Gerhard Streminger. Bereits Platon hatte in seinem frühen Dialog „Euthyphron“ mit dem sogenannten Euthyphron-Dilemma darauf hingewiesen, dass es generell unmöglich sei, das moralisch Gute im Rückgriff auf ein göttliches Prinzip zu begründen. Auch nach Kant kann die Verpflichtung eines Menschen zur Moralität prinzipiell nicht dadurch begründet werden, dass man auf die „Idee eines andern Wesens über ihm“, also auf einen Gott verweist. Dem Argument, ohne ein von einer göttlichen Instanz gegebenes, für jeden Menschen gleichermaßen verbindliches Gesetz sei es schwieriger, eine gemeinsame ethische Grundlage für eine Gesellschaft zu finden, halten manche Atheisten entgegen: Keine Religion könne überzeugend begründen, warum ihr Gesetz von einer göttlichen Instanz gegeben worden sein sollte und deshalb Allgemeinverbindlichkeit beanspruchen können sollte. Nicht einmal die Existenz irgendeiner göttlichen Instanz könne überzeugend begründet werden. So dürfe man davon ausgehen, dass die Gesetze der Religionen ebenso von Menschen gemacht seien wie alle anderen Gesetze und Verhaltensregeln: teilweise auf der Basis von Vernunft und Einsicht, teilweise auf der Basis der Interessen derjenigen, die über genug Macht verfügten, um ihre Vorstellungen durchzusetzen. Während einerseits Gesetze einer göttlichen Instanz als Hilfsmittel zur Stabilisierung des sozialen Miteinanders angesehen werden, vertreten manche Atheisten die Auffassung, dass der Anspruch der Religionen auf Allgemeinverbindlichkeit ihrer Gesetze es oftmals erschwert habe, eine gemeinsame ethische Grundlage für eine Gesellschaft zu finden. Nicht selten habe der Versuch, diese Allgemeinverbindlichkeit durchzusetzen, zu Verfolgungen, Vertreibungen oder gar Glaubenskriegen geführt. Umgekehrt wird auf Christenverfolgungen gemäß atheistischer Staatsdoktrin verwiesen. Atheisten halten eine religiöse Überzeugung für die Erarbeitung einer gemeinsamen (moralisch-)ethischen Grundlage vielfach eher für hinderlich: Viele Gläubige fühlten sich an göttliche Gesetze gebunden und seien vermutlich deshalb weniger bereit, ihre Vorstellungen in Zusammenarbeit mit anderen Menschen weiterzuentwickeln. „Prallen Anhänger religiös fundierter Ethiken aneinander, so sind Konflikte in vernünftiger Weise kaum zu lösen, da alle sich von Gott geleitet fühlen; alle glauben, dass die eigenen Gebote objektiv gegeben, eben gottgewollt seien“, schreibt Gerhard Streminger. Einige Gläubige hingegen betrachten die (moralisch-)ethischen Vorstellungen, die ihre Religion mit verwandten Religionen gemeinsam hat, als gute Grundlage für Zusammenarbeit und Weiterentwicklung. Ein Problem mangelnder Bereitschaft zur Weiterentwicklung ethischer Vorstellungen kann aus atheistischer Sicht darin liegen, dass die Anpassung von Verhaltensregeln an neue gesellschaftliche Gegebenheiten verhindert wird. Für die ethische Beurteilung einer Scheidung zum Beispiel sei zu berücksichtigen, ob die Frau als Konsequenz daraus materieller Not und gesellschaftlicher Ächtung ausgesetzt wäre, oder ob sie materiell abgesichert und gesellschaftlich akzeptiert bliebe. Atheistisch-weltanschauliche Gruppierungen. Während Glaubensvertreter den Atheisten vielfach die für ein funktionierendes gesellschaftliches Zusammenleben nötige ethische Fundierung absprechen, findet andererseits – hauptsächlich in der westlichen Welt – seit einigen Jahrzehnten eine lebhafte Auseinandersetzung darüber statt, ob nicht atheistischer Humanismus eine zeitgemäßere Grundlage für eine allgemeine Ethik bietet als die tradierten Religionen. "Im Ausland tätige Gruppierungen, Stiftungen und Dachverbände:" Religiöser Atheismus. Die Frage, was an einer Haltung religiös sein könne, in der Gott offensichtlich keine Rolle spielt, behandelte Ronald Dworkin in seinen Einstein-Vorlesungen. Seine Antwort: „Religion ist etwas Tieferes als Gott.“ „Er verstand sich als religiöser Atheist, das heißt: Er glaubte zwar nicht an Gott, wohl aber an die sinnhafte Einheit des Kosmos und die Versöhnung von Glauben und Wissen.“ Während Theisten sie als von Gott geboten betrachten, argumentiert Dworkin, unsere ethischen Überzeugungen „könnten wir nicht haben, ohne zu denken, dass sie objektiv wahr sind“. Atheismus als religiöses Bekenntnis. Einige Atheisten verstehen ihre Weltanschauung als religiöses Bekenntnis und streben auf dem Wege einer religionsrechtlichen Anerkennung als Religionsgemeinschaft eine Gleichberechtigung und staatliche Gleichbehandlung an. Als deutschsprachige Gruppierung dieses Typs kann die Atheistische Religionsgesellschaft in Österreich genannt werden. Freireligiöse Bewegung. Laut Eigendarstellung der Freireligiösen Bewegung gibt es unter den Freireligiösen auch Atheisten oder atheistisch-religiöse Positionen. Jüdischer und christlicher Atheismus. Die Religionskritik der Bibel ist der Ausgangspunkt eines jüdischen und christlichen Atheismus. Das Judentum beschreibt Douglas Rushkoff, Professor für Kommunikationstheorie an der New York University, aufgrund der Bilderlosigkeit des biblischen Gottes als Ausweg aus der Religion ("Nothing Sacred: The Truth about Judaism", 2004). In den 1960er Jahren bildete sich in den USA eine Gruppe von Theologen, welche unter dem Satz „Gott ist tot“ einen christlichen Atheismus proklamierte. Vertreter dieser Richtung sind der Theologe Thomas J. Altizer ("The Gospel of christian atheism", 1966), William Hamilton ("Radical Theology and the Death of God", 1966), Paul van Buren ("The secular meaning of the Gospel", 1963) oder Gabriel Vahanian ("The death of God", 1961). Dorothee Sölle, von Bloch beeinflusst, veröffentlichte ebenfalls 1968 ein Buch mit einem ganz ähnlichem Titel: "Atheistisch an Gott glauben." Atheismus bedeutet bei Ernst Bloch wie auch bei Dorothee Sölle nicht den Verzicht auf Sinnhaftigkeit oder Transzendenz, sondern die Abkehr von einem allzu theistischen Gottesbild, der Vorstellung eines Gottes, der als allmächtiger, allwissender und allgegenwärtiger Gott Not und Leid bis hin zu Auschwitz zugelassen hat. In der Dekonstruktion und in der Nachfolge des Denkens von Emmanuel Levinas und Jacques Derrida fand sich ein weiterer Ansatz der Ausarbeitung eines christlichen Atheismus. Vertreter sind unter anderem Peter Rollins und Jean-Luc Nancy ("Dekonstruktion des Christentums" 2008). Kurz gefasst kann man darin die Vereinnahmung der Geste der Dekonstruktion sehen, in der der Sohn das Gesetz, die Arché des Vaters auflöst, indem er aber selbst vom Gesetz verurteilt wird. Damit werden messianische Ansätze des späten Derrida mit seinem Denken über die différance verbunden. Buddhismus. Der Buddhismus kennt keinen Glauben an einen Schöpfergott. Manche buddhistische Schulen nehmen aber in ihrer Kosmologie die Existenz zahlreicher anderer Ebenen der Wirklichkeit an, auf denen sowohl besser- als auch schlechtergestellte Wesen existieren, von denen die höheren Wesen den hinduistischen Göttern (Devas und Asuras) entsprechen. Diese Götter sind allerdings wie alle Wesen selbst im Existenzkreislauf, Samsara, gefangen; im Sinne der Wiedergeburtslehre kann jedes Wesen irgendwann auch als "Deva" geboren werden, wenn das entsprechende Karma (in diesem Fall überaus große Freigiebigkeit bzw. Samadhi-Erfahrungen) angesammelt wurde. Im Mahayana- oder nördlichen Buddhismus verehrt man darüber hinaus Wesen, die selbst Buddhas oder Bodhisattvas geworden sind. Durch den Respekt, den man diesen entgegenbringt, entsteht eine der notwendigen Grundlagen, selbst diesen Zustand zu erlangen. Daher werden im Buddhismus zahlreiche Statuen, Stupas und Tempel errichtet, die Objekte der Verehrung sind. Diese Wesen sind aber keine Götter, sondern Vorbilder. Im Theravada- oder südlichen Buddhismus ist das Ziel Arhatschaft, also Befreiung ohne Wiederkehr, sodass Arhats nur in der letzten Phase ihres letzten Lebens verehrt werden können. Daneben gibt es auch hier zahllose Stupas, Tempel, Buddhastatuen und Bildnisse früherer Arhats, zum Teil sogar von Bodhisattvas. Die Frage nach einem Schöpfergott wird als unfruchtbare metaphysische Spekulation zurückgewiesen und stattdessen die Ergründung der eigenen Erkenntnismöglichkeiten betont. Islam. Länder, deren Rechtsordnung dem islamischen Recht folgend die Todesstrafe für Apostasie vorsieht In islamisch geprägten Kulturen fallen Atheisten unter den Begriff "Kāfir" („Ungläubige“, „Gottesleugner“). Muslimen wird nicht das Recht zugestanden, ihre Religion zu wechseln oder Atheisten zu werden. Der Koran nennt keine diesseitigen Strafen für den „Abfall vom Islam“, worunter auch die Zuwendung zum Atheismus fällt. Im islamischen Recht, der Scharia, ist diese jedoch auf Grundlage von Hadithen und Idschmāʿ mit der Todesstrafe zu ahnden. Im Sudan (StGB aus dem Jahre 1991, Art. 126), Jemen, Iran, Saudi-Arabien, Katar, Pakistan, Afghanistan, Somalia und in Mauretanien (StGB aus dem Jahre 1984, Art. 306) kann Abfall vom Islam noch heute mit dem Tode bestraft werden. Auch in Ländern, deren staatliche Rechtsordnung sich an der Scharia orientiert, die aber keine islamischen Gerichtshöfe mehr haben, kann der bekundete „Abfall vom islamischen Glauben“ zivilrechtliche (Erbrecht, Eherecht) und strafrechtliche Konsequenzen haben. Pantheismus. Im pantheistischen (griechisch: Allgottlehre) Gotteskonzept nimmt die Alleinheit des Universums die Schöpferrolle ein. Gott und Natur sind demnach gewissermaßen identisch. Da es im Pantheismus keinen "persönlichen" Gott gibt, wurde und wird der Pantheismus sowohl von Theisten als auch von Atheisten manchmal als ein hinter einer religiösen Sprache versteckter Atheismus betrachtet. Arthur Schopenhauer nannte den Pantheismus eine „Euphemie für Atheismus“. „Pantheismus ist nur ein höflicher Atheismus“, heißt es in einem Schopenhauer-Zitat von Ernst Haeckel. Der französische Philosoph Jean Guitton vertritt in seinem Werk die Überzeugung, dass er dem Atheismus die Verlegung des Gottesbegriffs in die Welt nachweisen könne und ordnet ihn daher generell dem Pantheismus zu. Der Pantheismus wird von seinen Anhängern als religionsphilosophische Lehre betrachtet und wurde in früheren Zeiten nicht dem Atheismus zugehörig betrachtet, was sich aber inzwischen geändert hat. Geschichtliche Entwicklung. In Antike und Mittelalter waren sowohl das private als auch das öffentliche Leben in der Regel von religiösen Vorstellungen durchdrungen, wogegen Skepsis und Zweifel eher bei Minderheiten und in intellektuellen Kreisen anzutreffen waren. Während sich die kritischen Auseinandersetzungen innerhalb der römisch-katholischen Kirche im späten Mittelalter verstärkten und in der Reformation einen Höhepunkt fanden, erfuhr der Atheismus im Zeitalter der Aufklärung einen bedeutenden Aufschwung und durch die Französische Revolution eine starke gesellschaftliche Verbreitung. Dies führte zur Säkularisierung und vielfach zur Trennung von Kirche und Staat. Im 19. und 20. Jahrhundert wurden verschiedenste atheistische Positionen mit breitem theoretischem Fundament entwickelt, insbesondere im Marxismus, im Existentialismus und in der analytischen Philosophie. Zudem bestehen im philosophischen Materialismus und im philosophischen Naturalismus Verbindungslinien zum Atheismus. Süd- und Vorderasien. Die frühesten belegbaren Formen des theoretischen Atheismus finden sich in den alten Hochkulturen Süd- und Vorderasiens. In "Indien" weisen einige der ältesten philosophischen Systeme atheistische Formen auf. Hierzu zählen der Jainismus, das Samkhya (beide entstanden etwa im 6. Jahrhundert v. Chr.) sowie das Vaisheshika und das Nyaya. Insbesondere die Tradition des Samkhya ist im indischen Denken bis heute lebendig geblieben. Klar materialistisch-atheistisch war die indische Schule der Charvaka, die zweifelsfrei seit dem 6./7. Jahrhundert n. Chr. als feste Strömung belegbar ist und mindestens bis ins 16. Jahrhundert existierte. Sie berief sich auf die heute verlorenen "„Barhaspati Sutras“". Nach Meinung vieler Indologen war es jedoch kein atheistisches Werk, sondern eine gegen etablierte Religionen skeptische, aber ethische Schrift. Einzelne Skeptiker sind vom 5. Jahrhundert v. Chr. bis zum 6. Jahrhundert n. Chr. überliefert. Der Buddhismus, der im 5. Jahrhundert v. Chr. in Indien entstand, und der Daoismus, der im 4. Jahrhundert v. Chr. in China entstand, kennen keine Schöpfergottheit. In Teilen der Fachliteratur wird der Zervanismus der antiken "Perser" mit dem übergeordneten unpersönlichen Prinzip des Zurvan („Zeit“ und Raum) als eine Form des Atheismus angesehen. Materialistisch und vorwiegend atheistisch war die spätestens seit dem 5. Jahrhundert n. Chr. existierende Strömung der „Zandiks“ oder „Dahri“. Diese Interpretation wird von den meisten Exegeten jedoch nicht geteilt. Ihrer Meinung nach würden an den besagten Stellen stets nur bestimmte Eigenschaften Gottes geleugnet, nie aber seine Existenz. Vorsokratiker. „Stumpfnasig, schwarz: so seh’n Äthiopiens Menschen die Götter Blauäugig aber und blond: so seh’n ihre Götter die Thraker Aber die Rinder und Rosse und Löwen, hätten sie Hände Hände wie Menschen, zum Zeichnen, zum Malen, ein Bildwerk zu formen, Dann würden Rosse die Götter gleich Rossen, die Rinder gleich Rindern Malen, und deren Gestalten, die Formen der göttlichen Körper, Nach ihrem Bilde erschaffen: ein jedes nach seinem.“ Während derart anthropomorphe Gottesvorstellungen, so der Tenor dieser Kritik, "nichts anderes" sind als eben nur menschliche Vorstellungen, tritt dem als kritisches Korrektiv zunehmend die Vorstellung eines monotheistischen, transzendenten göttlichen oder quasi-göttlichen Prinzips gegenüber. Empedokles (* zwischen 494 und 482; † zwischen 434 und 420 v. Chr.) sah in Göttern auch Personifizierungen der vier Elemente. Kritias (* 460; † 403 v. Chr.) betrachtete die Religion als menschliche Erfindung, die der Aufrechterhaltung der moralischen Ordnung dienen sollte. Skeptizismus und Asebie-Prozesse. Ein Abrücken oder Infragestellen der in der Polis kultisch verehrten Götter seitens skeptischer Philosophen oder naturwissenschaftlich orientierter Denker konnte zu Anklagen und Verurteilungen führen. Gottlosigkeit und Frevel an Göttern wurden im alten Athen als Asebeia teilweise auch strafrechtlich verfolgt. Eine erste Welle bekannter Asebie-Prozesse, bei denen politische Motive mitgewirkt haben dürften, richtete sich gegen Vertraute und Freunde des Perikles, darunter Aspasia und Anaxagoras. Der im 5. Jahrhundert v. Chr. namentlich von Sophisten geförderte Prozess der Infragestellung herkömmlicher Gottesbilder, auf den in den Asebieprozessen reagiert wurde, setzte sich unaufhaltsam fort. Auf Widerstand in dieser Form stieß auch der wegen seines religiösen Relativismus 415 v. Chr. aus Athen verbannte Protagoras, der sein Nichtwissen über die Existenz der Götter betonte und gleichzeitig erklärte, der Mensch sei das Maß aller Dinge. Skeptizistische und agnostische Positionen, wie sie die Sophisten und Sokrates (* 469; † 399 v. Chr.) vertraten, fanden eine zunehmende Verbreitung, und die Anklage wegen Gottlosigkeit gegen die „Physiker“ wird gängige Praxis: „Der Gelehrte, der in einem positivistischen Geist arbeitet, wird beschuldigt, das Geheimnis der Götter ergründen und das Heilige gewissermaßen ‚zergliedern’ zu wollen.“ Einige der Angeklagten vertraten in den überlieferten Asebie-Prozessen nicht nur eine agnostische, sondern eine dezidiert atheistische Position (Diagoras von Melos, Theodoros von Kyrene). Gegen die wegen ihrer Schönheit bewunderte Phryne ist ein Asebie-Prozess überliefert, demzufolge ihr die Aktmodell-Arbeit für eine Aphrodite-Statue als ein Frevel gegen die Götter ausgelegt wurde. Von einer geistesgeschichtlich bis heute nachhallenden Wirkung war der Prozess gegen Sokrates. Seine Glaubensskepsis ist im platonischen Dialog "Phaidros" zum Ausdruck gebracht: Es sei abwegig, etwas über die Mythen und die Götter zu sagen, da er noch nicht einmal die Zeit habe oder in der Lage sei, sich selbst zu erkennen. „Lächerlich also kommt es mir vor, solange ich hierin noch unwissend bin, an andere Dinge zu denken.“ Im zehnten Buch der Nomoi geht es Platon darum zu beweisen, dass es Götter gibt, dass sie sich auch um die Kleinigkeiten des Lebens kümmern, ohne aber bestechlich zu sein, und im Weiteren darum zu begründen, dass Atheisten je nach Grad der Gottesleugnung und Heuchelei mit abgestuften Sanktionen bis zur Todesstrafe zu belegen seien. Da es in Platons Lehre außerhalb der materiellen Welt eine höherwertige Welt der Ideen, der Archetypen, der Seelen und des Göttlichen gibt, gelten Atheisten, so Minois, fortan als von niederem Denken beherrscht und unfähig, sich zur Kontemplation der Ideen zu erheben. Der Einfluss platonischer Schulen auf die Unterdrückung des Atheismus ist umstritten. Als die Prozesse wegen Gottlosigkeit im Verlauf des 4. Jahrhunderts v. Chr. abnahmen, waren skeptische Einstellungen nicht etwa zurückgegangen, sondern unterdessen so verbreitet, dass die strafrechtliche Verfolgung immer weniger Wirkung zeigte. So konnte der Kyniker Diogenes (* ca. 400; † 325 v. Chr.) seinen Spott über Götter, Mysterien, Vorsehung und Aberglauben in Athen verbreiten, ohne dass man ihm den Prozess machte. Hellenismus. Während die Verehrung der anthropomorphen olympischen Götter auch im häuslichen Kult immer mehr an Bedeutung verlor, traten im Zuge des Zerfalls von Polis und herkömmlicher stadtstaatlicher Ordnung – auf dem Wege also zu den hellenistischen Großreichen und danach zum Römischen Reich – neben allerlei importierte Mysterienkulte und auswärtige Gottheiten auch zunehmend vergöttlichte Herrscher, die auf diese Weise religiöse Bindungsbereitschaft zum eigenen Vorteil umlenkten. Weit entfernt von den alten Glaubensformen waren auch die an der Wende vom 4. zum 3. Jahrhundert v. Chr. entstehenden philosophischen Lehren des Epikureismus und der Stoa. Bei den Stoikern kamen pantheistische Vorstellungen zur Entfaltung, die das Göttliche mit der Allnatur verschmelzen und darin den Wirkungsort für die Menschen und für ihr ethisches Bezugssystem finden. Bei Epikur verschwinden die Götter in vom menschlichen Dasein gesonderten Welten und haben keinerlei Wirkungsmacht über die Menschen und ihr Treiben. Es handelt sich getreu dem rein materialistischen Weltbild Epikurs auch bei den Göttern um atomar konstituierte Wesen. Allerdings empfahl Epikur als der eigenen Seelenruhe dienlich, sich den staatlich vorgeschriebenen Kulten und religiösen Bräuchen flexibel anzupassen. Römische Antike. Mit der römischen Expansion verloren die überlieferten lateinischen Götter an Bindungskraft und Bedeutung. Die Eroberung Griechenlands und des östlichen Mittelmeerbeckens durch die Römer brachte mit auswärtigen Religionen und Gottheiten spiritualistische und materialistische Denkschulen zuhauf nach Rom: so z. B. Kybele, Isis, Osiris und Serapis, dazu astrologische und magische Vorstellungen sowie auch platonische, kynische und skeptische, epikureische und stoische Lehren. Der von Lukrez in Rom hymnisch verbreitete Epikureismus, in dessen Zentrum ein asketisch unterlegtes Lust- und Glücksstreben steht, stellt sich mit der vollständigen Abscheidung der Götter als eine im Grunde konsequent atheistische Morallehre dar. Die Stoa wiederum, die in den herrschenden Kreisen der römischen Gesellschaft häufig angenommen wurde, vermittelt einen nur vage-verschwommenen Gottesbegriff und trennt in dem anzustrebenden Ideal des stoischen Weisen kaum noch zwischen Mensch und Gott. Ciceros Untersuchung über die Natur der Götter ("De natura deorum") mündete in Skepsis: „Bestimmt wird selbst diejenigen, die darüber etwas zu wissen glauben, die so große Uneinigkeit der gelehrtesten Männer in dieser wichtigen Frage zu gewissen Zweifeln zwingen.“ Der sich einstellenden Vielfalt weltanschaulich-religiöser Vorstellungen gegenüber stand die Bereitschaft, als Atheismus zu diskriminieren und zu kriminalisieren, was nicht zu den etablierten Staatskulten gehörte. Davon war in seinen Anfängen auch das Christentum betroffen. Denn dessen Anhänger lehnten es aus Glaubensgründen ab, an den religiösen Staatskulten teilzunehmen. In der Ablehnung insbesondere des Kaiserkults wurden sie nicht selten zu Märtyrern. Mittelalter und Reformation. Ob es im Mittelalter Atheismus im Sinne einer Leugnung der Existenz eines Gottes gab, ist umstritten. Traditionell wird das „christliche Mittelalter“ als Zeitalter angesehen, in dem Europa komplett durch das Christentum bestimmt war, mit der Ausnahme kleiner jüdischer und muslimischer Minderheiten. Die oft dürftige und fast durchgängig christlich geprägte Quellenlage erschwert eine eindeutige Zuordnung einzelner Denker oder Personengruppen zum Atheismus. Der Theologe Walter R. Dietz schreibt, die Bezeichnung "Atheismus" sei im Mittelalter nur verwendet worden für Leugnungen des dreifaltigen Gottesgedankens, etwa durch den Islam. Nach dem evangelischen Theologen Jan Milič Lochman trat Atheismus im Sinne von Gottesleugnung oder Gottlosigkeit in Europa erst seit dem 16. und 17. Jahrhundert auf. Dem französischen Historiker Georges Minois zufolge gab es im Mittelalter durchaus Atheismus, und zwar sowohl in seiner praktischen, wie auch zumindest ansatzweise in seiner theoretischen Form. Der Glaube habe das Mittelalter zwar beherrscht, der Atheismus habe aber im Leben und Denken einer Minderheit überdauert. Theoretischer Atheismus. Seit dem 13. Jahrhundert ist eine zunehmende Kritik christlich-katholischer Glaubensinhalte zu beobachten. Eine wesentliche Rolle scheint hierbei die Wiederentdeckung aristotelischer Lehren und deren Interpretation durch arabische Philosophen gespielt zu haben. Wirkungsmächtig waren insbesondere der Aristotelismus und der Averroismus. Bedeutend war, dass Aristoteles, obwohl er teilweise als „Heide“ bezeichnet wurde, doch als "der" Meister des logischen Denkens galt. Die aristotelische Philosophie widerspricht der christlichen Lehre insbesondere in zwei Punkten: Sie verneint die Schöpfung und die Unsterblichkeit der Seele. Daher wurde das Unterrichten seiner Physik und Metaphysik auch wiederholt durch päpstlichen Erlass untersagt. Dennoch erstritt sich Georges Minois zufolge die Vernunft vom 11. bis 13. Jahrhundert eine zunehmend größere Unabhängigkeit vom Glauben. Petrus Abaelardus forderte ein, dass der Glaube den Regeln der Vernunft nicht widersprechen dürfe. Boetius von Dacien trat für die strikte Trennung von rational erfassbarer Wahrheit und Glaubenswahrheiten ein. Siger von Brabant ging noch weiter und bestritt zahlreiche zentrale christliche Dogmen. Die christliche Autorität reagierte einerseits mit Zensur und Repression. Zudem gab es jedoch auch verstärkte Bemühungen, den Glauben durch Gottesbeweise zu untermauern. Wilhelm von Ockham erklärte alle Versuche, Glaubenssätze mit den Mitteln der Vernunft zu beweisen, für von vornherein zum Scheitern verurteilt. Praktischer Atheismus. Im 12. Jahrhundert provozierten die Goliarden in ihren Liedern mit zum Teil bewusst provokanten atheistischen Positionen wie "„ich bin begieriger nach Wollust als nach dem ewigen Seelenheil“". Eine skeptische Haltung in Bezug auf viele Glaubenssätze nahmen auch die englischen Lollarden ein. Auch einige der so genannten „Blasphemiker“ könnten Atheisten gewesen sein. In dem mehreren Autoren zugeschriebenen "Buch von den drei Betrügern" sind Moses, Jesus Christus und Mohammed gemeint. Daneben lebten auch pantheistische Weltanschauungen in kleineren Glaubensgemeinschaften und unter Einzelpersonen fort. Sie sind zwar nicht dem Atheismus im engeren Sinne zuzuordnen, forderten aber wohl den christlichen Glauben heraus. Vertreter sind insbesondere die Pariser Theologen David von Dinant und Amalrich von Bena, sowie die Brüder und Schwestern des freien Geistes. Im Volk ist die Existenz von Ungläubigen in zahlreichen Berichten von Wundern bezeugt. Zudem lassen sich im einfachen Bauernvolk materialistisch-atheistische Positionen nachweisen. So wurde unter anderem die Existenz einer unsterblichen Seele und die Wiederauferstehung Christi verneint. Ein Beispiel für diese Art des „volkstümlichen Materialismus“ ist in den Verhörprotokollen des italienischen Müllers Menocchio festgehalten. Gegen Ende des Mittelalters gibt es auch zunehmend Klagen christlicher Pfarreien über die schwache Präsenz der Gemeinde in der sonntäglichen Messe. Als mittelalterliche Bevölkerungsteile, die besonders vom Atheismus betroffen waren, werden Söldner und Exkommunizierte genannt. Die Zahl letzterer ging allein in Frankreich zeitweise in die Zehntausende. Reformation. Die Reformation brachte keine Abkehr vom (christlichen) Glauben, sondern wertete den persönlichen Glauben im Sinne subjektiver Überzeugung sogar auf. Dennoch ist die Reformation ein wichtiger Wendepunkt nicht nur in der Geschichte der Religion, sondern auch in der des Atheismus. Durch die Reformation konnten sich mit den protestantischen Konfessionen erstmals Kirchen neben der katholischen etablieren, die zu stark waren, um dauerhaft gewaltsam unterdrückt werden zu können. Auf Dauer waren beide Seiten zur religiösen Toleranz gezwungen, später wurde diese auch auf zunächst nicht von dieser Toleranz eingeschlossene Gruppen, wie die Reformierten, erweitert. Diese Entwicklung hin zur Toleranz sollte später auch Atheisten zugutekommen. Durch die auf die Reformation folgenden Religionskriege diskreditierten sich die sich bekriegenden Kirchen in den Augen vieler selbst. Deutlich trat der Widerspruch zwischen öffentlich gepredigter christlicher Nächstenliebe und tatsächlichem Handeln der damaligen Kirchen beispielsweise in der offenkundigen Barbarei der Hugenottenkriege und des Dreißigjährigen Krieges zutage. Bedeutsam ist auch, dass die katholische Kirche ihr bis dahin beinahe unantastbares Deutungsmonopol für die traditionsgeprägte Auslegung der Bibel und damit beträchtlich an Autorität auch auf geistlichem Gebiet verlor. Politisch trug die Reformation entscheidend zur Emanzipation der Staaten aus der geistlichen Bindung an die Kirche bei, die sich nun vielfach, wie beispielsweise im Landesherrentum, im französischen Gallikanismus und der Reichskirche der Politik unterordnen musste. Diese Entstehung moderner Machtverhältnisse war eine zwingende Voraussetzung, um letztlich die Trennung von Kirche und Staat zu ermöglichen. Die dadurch garantierte Glaubensfreiheit weitete sich, auch wenn der Weg dorthin keineswegs ohne Repressionen verlief, schließlich auch zur Respektierung des Rechts auf Glaubenslosigkeit aus. Dennoch blieb der Atheismus bis zum letzten Drittel des 19. Jahrhunderts ein Phänomen einer elitären Minderheit. 17. bis 19. Jahrhundert. Das Zeitalter der Aufklärung brachte den ersten theoretisch ausformulierten Atheismus der Neuzeit mit sich. Dieser steht in engem Zusammenhang mit den Fortschritten der Naturwissenschaft. Bereits 1674 hatte der polnische Philosoph Kazimierz Łyszczyński in seinem Werk "De non existentia Dei" (dt. "Über die Nichtexistenz Gottes") postuliert, Gott sei lediglich eine von Menschen erdachte Chimäre und Religion sei nur ein Mittel zur Unterdrückung der Bevölkerung. Trotz der zu jener Zeit im Königreich Polen geltenden Religionsfreiheit wurde Łyszczyński für sein Werk 1689 aus politischen Gründen zum Tode verurteilt. Bis weit ins 18. Jahrhundert war der Vorwurf, ‚Atheist’ zu sein, in der Regel eine gefährliche Fremdzuschreibung. In Preußen war es die aufklärerische Haltung Friedrichs des Großen (1740: „Jeder soll nach seiner Façon selig werden“), in anderen Ländern die Erklärung der Menschen- und Bürgerrechte in der Französischen Revolution (1789) und die amerikanische Bill of Rights (1789), die zu einer Akzeptanz diverser atheistischer Standpunkte führten. Der französische Philosoph und Aufklärer Julien Offray de La Mettrie konnte 1748 seine atheistische Philosophie nur außerhalb Frankreichs, im preußischen Exil, öffentlich vertreten. In deutscher Sprache waren, in kritischer Wendung gegen Hegel, die Ex-Theologen Bruno Bauer und Ludwig Feuerbach die ersten atheistischen Philosophen. Feuerbach kritisierte in seinem einflussreichen Werk "Das Wesen des Christentums" (1841) nicht nur das Christentum grundlegend, sondern darüber hinaus die Religion generell als Ergebnis psychologischer Projektionen („Der Mensch schuf Gott nach seinem Bilde“). Später konstatierte Friedrich Nietzsche: „Gott ist tot“ (1882) und „Atheismus […] versteht sich bei mir aus Instinkt“ (1888). Aufklärung in Frankreich. Das früheste Zeugnis eines dezidierten Atheismus in der Neuzeit findet sich im "Theophrastus redivivus", der Schrift eines anonymen französischen Autors aus dem Jahr 1659. Die Existenz Gottes wird darin zwar bestritten, die gesellschaftliche Nützlichkeit der Religion hingegen behauptet. Als erster radikaler Atheist der Neuzeit gilt heute der französische Abbé Jean Meslier (1664–1729). In seinen zwischen 1719 und 1729 verfassten und erst später anonym veröffentlichten "Pensées et sentiments" stellt Meslier die Existenz von Göttern völlig in Abrede, welche für ihn bloße Hirngespinste sind. Im Gegensatz zum "Theophrastus" verbindet Meslier seinen Atheismus mit einem Antiklerikalismus: Er polemisiert gegen Kirche und Krone, die er als Ausbeuter und Unterdrücker der Armen ansieht. Meslier hat seine als "Testament" bekannt gewordene Schrift nur in drei handschriftlichen Exemplaren hinterlassen, die zunächst einige Jahrzehnte lang klandestin zirkulierten. Erst 1761 veröffentlichte Voltaire eine Version der Schrift, in der er alle atheistischen und materialistischen Passagen getilgt und nur Mesliers Christentumskritik und Antiklerikalismus erhalten hatte. Diese deistisch verfälschte Fassung blieb, zumal sie durch Neuauflagen und Aufnahme in Voltaires "Œuvres" weite Verbreitung fand, bis ins 20. Jahrhundert die allgemein bekannte; daran hat auch eine 1864 in Amsterdam erschienene vollständige Ausgabe nichts geändert. Erst 1972 haben Albert Soboul u. a. aufgrund der Originalmanuskripte eine nun maßgebliche Edition dieses ersten neuzeitlichen Werks des Atheismus geschaffen. Während Meslier somit lange Zeit als voltairianischer antiklerikaler Deist galt, war der erste öffentlich bekannt gewordene radikale Atheist der Aufklärung Julien Offray de La Mettrie (1709–1751). Sein philosophischer Erstling "Histoire naturelle de l’âme" (Naturgeschichte der Seele, 1745) wurde als materialistische und atheistische Schrift vom Pariser Henker verbrannt. La Mettrie floh nach Holland, wo er sein berühmtes Werk "L’homme machine" (Der Mensch als Maschine, 1748) publizierte, in dem es heißt, „dass die Welt niemals glücklich sein wird, solange sie nicht atheistisch ist.“ La Mettrie blieb nicht bei der Negation Gottes stehen, sondern skizzierte in seinem "Discours sur le bonheur" (Rede über das Glück, 1748) eine geradezu modern anmutende psycho(patho)logische Theorie des Religiösen. Eine frühe öffentliche Verneinung der Existenz eines Gottes findet sich auch in dem 1770 anonym erschienenen Werk "Système de la nature" des Baron d’Holbach (1723–1789), einem Grundwerk des Materialismus. Holbach sah in der Religion den größten Feind der natürlichen Moral und zog gegen ontologische und kosmologische Gottesbeweise zu Felde. Das Glück des Menschen hängt nach seiner Auffassung vielmehr am Atheismus. Die von ihm vertretene „Ethokratie“ beruht allerdings nicht auf der vorgängigen materialistischen Philosophie La Mettries, den er wegen seiner Moraltheorie sogar als „Wahnsinnigen“ bezeichnete. Denis Diderot (1713–1784), bekannt vor allem als Herausgeber der Encyclopédie, vertrat in seinen kirchen- und religionskritischen Werken "Pensées philosophiques" (1746) und dem "Lettre sur les aveugles à l’usage de ceux qui voient" (1749) zunächst eine deistische, später eine atheistische Position. Auch er war ein vehementer Gegner La Mettries, den er noch posthum als „Autor ohne Urteilskraft“ und wegen der „Verdorbenheit seines Herzens“ „aus der Schar der Philosophen“ ausschloss. Wenn sich Voltaire auch häufig zum englischen Deismus bekannte, wirkte er auf viele seiner Zeitgenossen durch seinen Stil und die Art, wie er seinen Deismus vortrug, durchaus wie ein Atheist. Die katholische Kirche bezichtigte ihn deswegen auch des Atheismus. Fritz Mauthner, Autor des vierbändigen Werks "Der Atheismus und seine Geschichte im Abendlande", nannte Voltaire „den Feldherrn und Staatsmann der französischen und europäischen Freidenker.“ Immanuel Kant. Vereinfacht gesagt bedeutet dies: Alle Grenzen möglicher menschlicher Erfahrung überschreitenden Dinge (Gott, Unsterblichkeit, Unendlichkeit) sind nach Kant zwar nicht erkennbar, sie geben der Erfahrung aber eine gewisse, subjektive Einheit. Regulativ sind sie deswegen, weil sie dem Verstand eine Orientierung bieten, mit der dieser Erlebnisse und Eindrücke über den unmittelbaren Wahrnehmungsgehalt hinaus ordnen kann. Damit ist Kant in theoretischer Hinsicht ein Vertreter einer agnostizistischen Position. Die regulative Idee erhält jedoch in Kants Moralphilosophie eine neue Funktion. Beschäftigt sich Kant in der Kritik der reinen Vernunft mit der theoretischen Seite der Vernunft („Was kann ich wissen?“), so behandelt die Kritik der praktischen Vernunft deren praktische Seite („Was soll ich tun?“). Gott wird hier postuliert: Wenn die menschliche Vernunft in der Lage ist, sich selbst Ziele frei zu setzen, z. B. auch gegen die unmittelbar empfundenen empirischen Bedürfnisse, so setzt das voraus, dass jeder Mensch seine eigene Vernunft als verpflichtend erlebt (Kant nennt dies das). Derjenige Anteil des menschlichen Willens, der vernunftgemäß und unabhängig von den empirischen Bedürfnissen seine Wahl trifft, kann nun nach Kant nichts anderes wollen, als einem moralischen Gesetz zu folgen. Das moralische Gesetz verpflichtet jeden Menschen zur Sittlichkeit, indem es ihn anhält, seinen Willen nach dem Kategorischen Imperativ zu gestalten. Für Kant besteht nun ein Problem darin, zu zeigen, ob und wieso die Befolgung des moralischen Gesetzes auch zu Glückseligkeit, also einem Zustand allgemeiner Zufriedenheit führt. Die Frage ist: Wenn ich sittlich handeln soll, ist dann auch sichergestellt, dass ich glücklich werde? Als Instanz, die sicherstellt, dass sittliches Verhalten auch zu Glückseligkeit führt, wird Gott eingeführt, die garantieren soll, dass die Welt im Ganzen einem gerechten Plan folgt. In der Nachfolge blieb Kants theistischer Skeptizismus oder partieller Agnostizismus weitgehend unbeachtet. Der Deutsche Idealismus (Fichte, Schelling, Hölderlin, Hegel) redete zwar von Gott als dem absoluten Weltgeist oder einem absoluten Ich, kümmerte sich hingegen wenig um die Antinomien der Vernunft. Aus heutiger Sicht wird Kants Postulat eines Gottes als Verbindungsglied zwischen Sittlichkeit und Glückseligkeit eher als Mangel seiner Theorie gesehen. Kants individualistischer Theorie fehlt schlicht der gesellschaftliche Horizont von Sittlichkeit. In seiner Rechtsphilosophie kommt Hegel hingegen ohne ein solches Ad-hoc-Postulat zur Begründung der Sittlichkeit aus. Stattdessen steht der absolute Weltgeist (= Gott) für Hegel theoretisch wie historisch am Anfang seines dialektischen Systems. Dabei macht Hegel sozusagen aus der antinomischen Misere der Dialektik eine neue Tugend, indem er das dialektische Prinzip der Selbstwidersprüchlichkeit zu einer eigenen Methode ausbaut. Ludwig Feuerbach. Feuerbachs Ausgangspunkt zur Herleitung seiner Thesen war die Natur des Menschen. Wesentlich für Feuerbach war, dass Menschen Bedürfnisse und Wünsche besitzen und diese in bestimmter Hinsicht unerfüllt bleiben, weil der Mensch – so würden wir heute sagen – ein Mängelwesen ist. Das ist sein anthropologischer Kern, den Marx weitgehend übernimmt. Von Hegel übernahm Feuerbach die idealistische Auffassung, dass es das Bewusstsein und seine Leistungen seien, die seine Praxis bestimmen. Im Zentrum stand für Feuerbach dabei die menschliche Einbildungskraft. Es seien nun die unerfüllbaren und andauernd unerfüllten Bedürfnisse, die der Mensch mit Hilfe seiner Einbildungskraft in ein religiöses Reich projiziere. Die religiösen Gehalte verweisen nach Feuerbach auf die unerfüllten Bedürfnisse und damit auf die als unvollkommen erlebte Natur des Menschen. In seinem Hauptwerk versucht er, dies anhand der Begriffe Liebe, Endlichkeit, Sterblichkeit, Ungerechtigkeit zu zeigen: Die religiöse Vorstellung der Unsterblichkeit der Seele sei ein Reflex auf die unvollkommene Natur des Menschen als sterbliches Wesen, die der Allgüte Gottes ein Reflex auf die Unmöglichkeit, alle Menschen gleichermaßen zu lieben usw. Karl Marx. Marx übernimmt die Projektionstheorie Feuerbachs. Auch für ihn ist die Welt der Religion keine ontologische Kategorie, sondern gehört in den Bereich menschlicher Tätigkeiten. Auch für ihn reflektiert Religion ein Bedürfnis, und auch für ihn ist Religion die Widerspiegelung einer Wirklichkeit und nichts Transzendentes. Und genau deswegen spiegele Religion auch nicht irgendwelche abstrakten, individuellen Bedürfnisse, sondern konkrete gesellschaftliche Bedürfnisse der Menschen wider. Diese These soll besagen, dass unter dem Blickwinkel der Praxis – und dies ist nach Marx die „gegenständliche Tätigkeit“ (= Arbeit als verändernde Aneignung von Natur) – Feuerbachs Theorie die Welt nur noch einmal in eine religiöse Welt verdoppelt und damit Religion zwar erklärt, jedoch nicht fragt, was dies praktisch für die gläubigen Menschen und die gesellschaftlichen Verhältnisse bedeutet. Und genau hier besitzt Religion gemäß Marx ihre praktische Aufgabe: Sie verhindere verändernde Praxis, weil sie die Menschen mit der Idee eines vom Erdenreich abgelösten und unabhängigen, vollkommenen Himmelreichs vertröste und umneble. Darauf bezieht sich auch Marxens Schlachtruf, wonach Religion „das Opium des Volkes“ sei. (in: "Zur Kritik der Hegelschen Rechtsphilosophie"). Nach Marx' Ideologiekritik spiegeln sich in der Religion nicht nur unerfüllte abstrakte Bedürfnisse wider, sondern auch das konkrete, durch die gesamte menschliche Geschichte ziehende, gesellschaftliche Elend und Unrecht. Dies täten sie jedoch in verzerrter Form: Diese Verzerrung bestehe zum einen in einer Verkehrung bzw. Verdrehung wirklicher Verhältnisse und zum anderen in einer völligen Abstrahierung vom alltäglichen Lebensvollzug, die dazu führe, dass die Menschen sich in eine "„Nebelregion“" flüchteten. So steht beispielsweise Gott als der Allgerechte, Allmächtige und Allgütige einer Welt ungleicher Verteilung von Macht, Gütern und Liebe gegenüber. Ausgangspunkt für Marx' Kritik ist die Theorie der Selbstentfremdung: Als "„Entfremdung“" bezeichnet man allgemein Prozess und Ergebnis des Verlusts des Einflusses und der Verfügungsgewalt des Menschen auf und über all jenes, was einst durch ihn selbst bewirkt und ihm damit in unmittelbarer Anschauung vertraut war, welches ihm aber schließlich als etwas Unabhängiges, Fremdes gegenübertritt. So besitzt ein von seiner Arbeit entfremdeter Lohnarbeiter – nach Marx – keinen Einfluss mehr auf das Arbeitsprodukt und den Arbeitsprozess, obwohl er sich andauernd darin befindet. Deswegen treten ihm der Arbeitsprozess wie das Arbeitsprodukt als etwas Fremdes gegenüber (siehe Marx: Frühschriften). In der religiösen Selbstentfremdung nun erlebe der Mensch seine Bedürfnisse einmal als erfüllbare und erfüllte Dinge, andererseits aber auch als prinzipiell oder manchmal unerfüllbar bzw. unerfüllt. Die Religion wird gegenüber dem Menschen nach und nach zu etwas Selbständigem, Unabhängigem und ihm Fremdem. Dies ist mit der religiösen Selbstentfremdung gemeint: In der Religion verselbständigen sich die unerfüllten Bedürfnisse, indem letztere ein Eigenleben führen. Friedrich Nietzsche. Dies ist allerdings nicht der Schwerpunkt seiner Argumentation. Nietzsches Atheismus ist vielmehr Voraussetzung einer radikalen Kritik an der (christlichen) Moral. Er sah eine solche "„Sklavenmoral“" als hinderlich für die Erhebung des Menschen zu neuer Größe an. Diese Kritik der christlichen Moral ist zwar charakterisiert von zahlreichen polemischen und invektiven Äußerungen Nietzsches („was war der grösste Einwand gegen das Dasein bisher? "Gott"…“), zeigt sich aber vor allem in einer historisch-wissenschaftlichen ("Zur Genealogie der Moral") und philosophischen Auseinandersetzung mit Begriff und Zweck von Moral (v. a. "Morgenröte. Gedanken über die moralischen Vorurteile" und "Die fröhliche Wissenschaft"). Für Nietzsches Atheismus ist kennzeichnend, dass er sich nicht generell gegen das Postulat höherer Werte stellt, sondern zunächst nur gegen jene der christlichen Moral, schließlich aber gegen die Werte jeder Moral, sofern sie die Instinktgewissheit und den biologisch angelegten „Willen zur Macht“ schwächen. Nietzsche wendet sich also gegen jede Moral, die zum Leben „Nein“ sagt. Das aber war seiner Ansicht nach bei den Morallehren aller bisherigen Philosophien und Religionen in mehr oder weniger großem Umfang der Fall – obwohl diese „Instrumente im Dienste des wachsenden Lebens“ sein sollten. Nietzsche bezeichnete sich folglich als den „ersten Immoralisten“ und bezeichnet damit eine Haltung des bewussten Verzichts auf eine Rückbindung an eine metaphysische Ordnung und Wahrheit. In "Also sprach Zarathustra" versuchte er im bewussten Anklang an den Stil der Bibel, die "„frohe Botschaft“" vom „Übermenschen“ (also einer Moral, die im Dienste des Lebens steht) zu konkretisieren. In Nietzsches Atheismus ist nicht bloß ein nihilistischer Trieb zur Entwertung der Kultur zu sehen, nach Nietzsches eigener Auffassung sogar gerade das Gegenteil. Nietzsche kritisiert zwar die Moral und versteckt seine Abneigung vor den christlichen Idealen nicht, jedoch wollte er diese Abwertung einbinden in sein Programm der "„Umwertung aller Werte“", die letztlich dem Ziel dient, neue Werte zu schaffen. Der Typus Zarathustra sollte so etwas wie der erste Prophet dieser neuen "„ja-sagenden Moral“" sein, die im Dienste des Lebens steht anstatt es in seiner freien Entfaltung zu hindern. Folglich ist es auch schlüssig, warum Nietzsche dem (in seinem Sprachgebrauch „nihilistischen“) jüdisch-christlichen Gottesbegriff immer wieder den Begriff eines gewalttätigen dionysischen Gottes gegenüberstellt. Nicht der Gottesglaube selbst schadet, sondern der Glaube an einen jenseitigen, metaphysischen Gott. Nietzsches Angriffe gegen den verbreiteten Gottesbegriff sind also eingebunden in eine viel weiter reichende Kultur- und Religionskritik und gehen damit über einen bloßen Atheismus hinaus. Tatsächlich richtet sich Nietzsche an vielen Stellen auch gegen seiner Meinung nach zu simple oder inkonsequente Formen des Atheismus. Psychoanalyse. Sigmund Freud, der Begründer der Psychoanalyse, hat mehrmals in einer naturgeschichtlichen Deutung die Entstehung von Religionen (und vieler anderer Erscheinungen) als die Erfüllung unbewusster, auch unterdrückter Wünsche des Menschen zu erklären versucht. Als Grundlage dienten Freud die Ähnlichkeiten zwischen kultisch-religiösen Handlungen und den Handlungsabläufen neurotischer Besessenheit. In seinem Buch "Totem und Tabu" (1913) kommt er zu der Schlussfolgerung: "Illusionen, Erfüllungen der ältesten und stärksten, dringendsten Wünsche der Menschheit" seien eben die Religionsvorstellungen. Die Herleitungen, in denen sowohl die darwinsche "Urhorde" als auch der Ödipuskomplex herangezogen werden, gelten als spekulativ. In einer verallgemeinerten Form, nämlich dass Religionen sehr wohl vorgeben, starke bewusste wie auch unbewusste Wünsche und Sehnsüchte der Menschen zu erfüllen, gilt Freuds These als unbestritten. Freuds einschlägige Monographie zum Thema ist "Die Zukunft einer Illusion" (1927). Nach Freud bieten die Eltern dem Kind unverzichtbaren Schutz und ein moralisches Gerüst für die Orientierung. Aus Sicht des Kindes sind die Eltern in der Lage, Übermenschliches zu leisten. Mit zunehmendem Alter des Kindes erkennt es, dass auch die Eltern nicht immer Schutz und Rat bieten können. So überträgt das Kind die den Eltern zugeschriebenen Fähigkeiten auf Gott. Anstatt also die Vorstellung aufzugeben, dass man immer geborgen und beraten ist in der Welt (Realitätsprinzip), wird weiterhin an der Illusion festgehalten. Gott ersetzt die Eltern in ihrer Funktion, Schutz und Moral zu bieten. Wenn Freuds Schlussfolgerungen auch nicht direkt den Theismus widerlegen, bieten sie doch gewisse Ansatzpunkte, religiöse Phänomene durch psychische Vorgänge zu erklären und die Notwendigkeit der Annahme übernatürlicher Kräfte zu verneinen. Existenzialismus. Einen existenzialistischen Atheismus im eigentlichen Sinne gibt es nicht, da der Existenzialismus kein geschlossenes Lehrgebäude darstellt und unter diesem Begriff sehr disparate weltanschauliche, philosophische, ja auch theologische Konzepte versammelt werden. Sie reichen von Stirner über Schopenhauer, Kierkegaard, Heidegger, Camus bis Sartre und Jaspers. Nimmt man als Referenzpunkt den Existenzialismus sartrescher Prägung, so ergibt sich folgende atheistische Auffassung: Der wichtigste existenzialistische Grundsatz Sartres findet sich in seinem bekannten Satz wieder, wonach die (menschliche) Existenz der Essenz (dem Wesen) vorausgehe. Es gibt kein Wesen (hier sowohl personal als Gott verstanden als auch abstrakt als Natur des Menschen), wonach und wodurch der Mensch konzipiert wurde. Da der Mensch zu Beginn „Nichts“ ist und sich ständig selbst entwirft, bedeute Gott also jemand, der so etwas wie eine menschliche Natur konzipiert hat, eine Beschränkung dieses konstitutiven Selbstentwurfs. Stattdessen ist nach Auffassung der Existenzialisten der Mensch von Beginn an zur absoluten Freiheit verdammt. Für die Neoexistenzialisten der Sartre-Schule ist Gott zunächst also das, was die absolute Freiheit des Menschen beschränkt. „Wenn Gott nicht existierte, wäre alles erlaubt“, schrieb Dostojewski. Aus existenzialistischer Perspektive würde man hinzusetzen: „Und weil er nicht existiert, ist der Mensch zur Verantwortung verdammt.“ Wie ist das zu verstehen? Wenn Gott existierte, gäbe es etwas, was der menschlichen Existenz vorausginge, auf das er sich als Grund seines Handelns berufen könnte. Fällt dieser Grund weg, ist der Mensch absolut verlassen und muss die Gründe seines Handelns vollständig aus sich selbst schöpfen. Erst jetzt, wenn prinzipiell alles erlaubt ist, ist er nach neoexistenzialistischer Sichtweise als Individuum voll verantwortlich für sein Handeln. Für Neoexistenzialisten ermöglicht erst eine Welt (genauer: eine Existenz) ohne Gott die wahre Verantwortung des Menschen. Die neoexistenzialistische Auffassung (Sartre, Camus) übernimmt Heideggers Daseinsbegriff (Sein und Zeit) für die Existenz. Demnach seien drei Dinge für die menschliche Existenz charakteristisch: die Geworfenheit, der Entwurf und die Verfallenheit. Wesentlich für die atheistische Grundhaltung der Neoexistenzialisten ist die Geworfenheit: Der Mensch ist kein Abbild einer Idee oder eines Vorbilds oder Bauplans, sondern er wird als tabula rasa in die Welt geworfen. Im Atheismuskonzept des Neoexistenzialismus geht es nicht allein um die Zurückweisung eines personalen Gottes, dem die Menschen sich zu verantworten haben, sondern auch um alle Konzepte, die als Theorien der „Natur des Menschen“ auftreten: Sei es die Gesellschaft (der Mensch als soziales Wesen), sei es die Ökonomie (der homo oeconomicus) oder seien es anthropologische Konzepte (der Mensch als des Menschen Wolf, als Egoist) – alle werden sie vom Existenzialismus zurückgewiesen mit dem Verweis, sie leisteten nur die Ent-Verantwortung des Menschen, weil dieser damit auf ihm äußerliche, sachliche Zwänge hinweisen könne. Damit kann der existenzialistische Atheismus auch als Versuch verstanden werden, gegen die Zwänge moderner Gesellschaften aufzubegehren, was die Neoexistenzialisten, vor allem Sartre, im Verlauf der Studentenrevolten 1968 in Frankreich auch taten. Analytische Philosophie. In weiten Teilen der im 20. Jahrhundert entwickelten analytischen Philosophie wurden anfänglich Fragen nach der Existenz oder Nichtexistenz von Göttern sowie metaphysische Fragen als unsinnig, nicht behandelbar oder irrelevant angesehen. So wurde im Rahmen des Logischen Positivismus die Rede über Götter für sinnlos gehalten, weil Sätze, in denen diese Begriffe vorkommen, nicht wahrheitsfähig seien (d. h. überhaupt nicht wahr oder falsch sein "können"). Dabei wird jedoch nicht behauptet, dass es keine Götter gebe. Vielmehr wird der Satz „Es gibt keine Götter“ ebenfalls als inhaltsleer angesehen – wie überhaupt jeder Satz über Gott oder sonstige metaphysische Objekte „keinen Sinn“ habe, sondern ein „Scheinsatz“ sei (so etwa Rudolf Carnap). Nach Max Bense, im deutschen Sprachraum damals einer der profiliertesten Vertreter dieser Position, sage ein Satz wie „Gott ist transzendent“ lediglich „von einem unbestimmten Etwas (x) ein unbestimmtes Prädikat (ist pektabel)“ aus. Einige Erkenntnistheoretiker sehen bei Existenzfragen stets den in der Beweispflicht, der die Existenz einer Sache behauptet, hier also den Theisten. Solange dieser die Begründungspflicht nicht erbracht habe, sei es rational gerechtfertigt, von einer Nichtexistenz auszugehen, zumal die Erklärung der Welt keine Gotteshypothese erfordere. Seit den Anfängen systematisch-theologischer Debatten wird über die Vereinbarkeit göttlicher Eigenschaften wie Allmacht, Allgüte, Gerechtigkeit, Einfachheit, Unendlichkeit usf. gestritten. So auch in der jüngeren analytischen Theologie. Eine typische Beweisführung mit der intendierten Konsequenz der Nichtexistenz Gottes hat dabei die Form eines Widerspruchsbeweises ausgehend von der Existenzannahme und üblichen Eigenschaftsaussagen über Gott. "Wenn" die Gott zugeschriebenen Eigenschaften semantisch widersinnig oder logisch widersprüchlich sind (wie etwa im sog. Allmachtsparadoxon), "dann" könne es jenen Gott nicht geben. Zu den ideengeschichtlich ältesten Argumenten, welche die Nichtexistenz Gottes wegen Inkompatibilitäten angenommener göttlicher Eigenschaften einerseits und empirischen Befundes andererseits nahelegen, gehört die Argumentation, dass Gottes Allmacht und Allgüte nicht mit der apparenten Existenz vermeidbarer Übel kompatibel sei. (siehe hierzu ausführlich den Hauptartikel Theodizee). Stellungnahmen. Atheismus auf der Basis empirischer Überlegungen: Der US-amerikanische Physiker Victor Stenger ist der Auffassung, dass für die Gotteshypothese nicht nur empirische Belege fehlen, sondern dass sich auch die oftmals Göttern zugeschriebenen Eigenschaften anhand naturwissenschaftlicher Erkenntnisse anfechten lassen. So seien die Schöpfung von Lebewesen durch die Evolutionstheorie, Körper-Seele-Dualismus und Unsterblichkeit durch Neurologie, die Wirkung von Gebeten durch Doppelblindstudien, die Schöpfung des Universums durch thermodynamische sowie quantenphysikalische Überlegungen und göttliche Offenbarungen durch die Geschichtswissenschaft widerlegt worden. Das Universum verhalte sich genau so, wie es in Abwesenheit eines Gottes zu erwarten sei. Die in vielen Kulturen beobachteten Vorstellungen von übernatürlichen Akteuren könnten nach einigen Vertretern (z. B. Pascal Boyer) auch empirische Rückschlüsse auf zugrunde liegende Verarbeitungsprozesse im menschlichen Gehirn erlauben. Nach einer aus völkerkundlichen Untersuchungen abgeleiteten Hypothese verarbeitet das Gehirn Sinneseindrücke mit Hilfe verschiedener Module. Eines dieser Module sei darauf spezialisiert, Veränderungen in der Umwelt als Werk von Lebewesen zu interpretieren. Ein solches „Lebewesenerkennungsmodul“ sollte überempfindlich arbeiten, da es meist günstiger sei, fälschlich z. B. einen Windhauch als Raubtier zu interpretieren, als ein tatsächlich vorhandenes zu übersehen. Dadurch könnten in unserem Gehirn aus unklaren Wahrnehmungen leicht Vorstellungen von übernatürlich erscheinenden Akteuren, wie z. B. Göttern oder Geistern, entstehen. „Brights“ und „Neuer Atheismus“. Erstmals 2006 wurden einige Autoren, die in den vorangegangenen drei Jahren unter Berufung auf die Naturwissenschaften gegen theistische Glaubensformen argumentierten, als „Neue Atheisten“ bezeichnet. Zu ihnen zählen die US-Amerikaner Sam Harris, Daniel C. Dennett, Victor J. Stenger und der Brite Richard Dawkins. Weiterhin wurde Christopher Hitchens zu den neuen Atheisten gezählt. Ihre jeweiligen Bücher erzielten hohe Auflagen. Anschließend wurden auch der Franzose Michel Onfray, der Deutsche Michael Schmidt-Salomon und andere Autoren hinzugezählt, so dass die Bandbreite der so bezeichneten Position zugenommen hat. Zu den Kritikern des „Neuen Atheismus“ zählen mehrere Theologen, auch moderate Atheisten und andere Autoren, wie etwa Alister McGrath, John Lennox, David Aikman, Tina Beattie, David Berlinski, James A. Beverley, Terry Eagleton und Kathleen Jones; in Deutschland z. B. der „fromme Atheist“ Herbert Schnädelbach (trotz seiner harschen Kritik am Christentum erfolgte seine ebenso starke Kritik an den „Neuen Atheisten“ bezüglich einer konfessionell-naturwissenschaftlichen Gläubigkeit) und der „alte Atheist“ Joachim Kahl (dieser also mit dem direkten Gegenbegriff: „Alter Atheismus“). Systematische Erfassung. Es gibt verschiedene, sich teilweise überschneidende und widersprechende Einordnungen und Systematisierungen des Begriffs ‚Atheismus‘. Beispielsweise unterscheidet das vatikanische "Sekretariat für Nichtglaubende" diejenigen, die Während in der deutschsprachigen Literatur eher von „engen“ und „weiten“ Begriffsbedeutungen die Rede ist, wird der Atheismus im angelsächsischen Raum oft mit den Begriffen „strong“ (bzw. „positive“) und „weak“ (bzw. „negative“) bezeichnet. Im Deutschen nimmt der Begriff „stark“ an Verbreitung zu (parallel zu „eng“). Auf Grundlage dieser polaren Unterscheidungen kann der Atheismus systematisch weiter geordnet bzw. typologisiert werden. Atheismus in einem weiten Sinne. Eine verbreitete Kategorie ist der weite (implizite) Atheismus, dessen Vertreter aussagen: „Ich bin nicht überzeugt, dass es Götter gibt.“ Dieser Atheismus beinhaltet jedoch "nicht", dass es "keine" Götter gäbe, bestreitet also nicht die Existenz von Göttern. Unterschieden wird das Nichtswissen über Gott bzw. Götter (Agnostizismus) und das Nichtvorhandensein des Glaubens an Gott oder Götter (Atheismus im wörtlichen Sinne). Bei Kant ist Gott nur eine regulative Idee der Vernunft. Und im Pantheismus eines Spinoza wird die Idee der personalen Einheit Gottes vollkommen aufgegeben und Gott nur noch als in der Schöpfung als Ganzes wirkende göttliche Substanz aufgefasst. Atheismus in einem starken Sinne. Die Gegenkategorie zum weiten Atheismus ist der starke (positive, explizite) Atheismus mit der logischen Aussageform: „Ich bin überzeugt, dass es weder Gott noch Götter gibt“. Vertreter des starken Atheismus lehnen den Glauben an die Existenz von Gott oder Göttern ab, also Monotheismus wie Polytheismus gleichermaßen. Hierfür findet sich gelegentlich auch der Begriff Antitheismus. Starker Atheismus lehnt auch ähnliche Überzeugungssysteme wie beispielsweise den Glauben an übernatürliche Wesen, Wirkkräfte oder Mächte ab, ist also Gegner aller spirituellen, animistischen und magischen Lehren sowie eines jeglichen Mystizismus. Daneben gibt es auch noch Spielarten des Atheismus, die den eigenständigen ontologischen Status von Gott oder Göttern einschränken oder bestreiten. Im anthropozentrischen Ansatz (Ludwig Andreas Feuerbach etwa) ist Gott kein echtes übernatürliches Wesen, sondern ein Produkt menschlicher Einbildungskraft. Agnostizistische Gegenpositionen und Argumente. Mit Agnostizismus kann die These einer Falschheit von sowohl Theismus wie Atheismus oder nur eine Unentscheidbarkeit einhergehen. Wenn mit Atheismus die Festlegung auf eine Nichtexistenz Gottes gemeint ist („starke“ Bedeutung), dann bieten agnostizistische Positionen epistemische Argumente gegen theistische und „stark“ atheistische Positionen. Eine Form von Argumentation versucht zu zeigen, dass keine hinreichenden Rechtfertigungen für eine theoretische Verpflichtung auf Position oder Negation der Existenz Gottes bestünden, so dass eine diesbezügliche Urteilsenthaltung rationaler erscheine. Derartige Positionen sind insbesondere dann naheliegend, wenn „Gott“ verstanden wird als Eigenname, der auf ein etwaiges metaphysisches übernatürliches Objekt referiert, und empiristische oder verifikationistische Voraussetzungen vertreten werden. Dann wäre eine Aussage sinnlos, wenn deren Wahrheit nicht empirisch überprüfbar ist. Folglich wären die Aussagen „Gott existiert nicht“ und „Gott existiert“ nur unverständliche Lautkombinationen mit „… existiert“. Theistische Gegenpositionen und Argumente. Jede Argumentation für theistische Positionen ist per se eine Argumentation gegen atheistische Positionen. Die meisten der bis heute diskutierten Typen von Argumenten haben Vorläufer bereits in der vorchristlichen Antike. Dazu zählen Versuche, die Existenz eines bzw. des Gottes zu beweisen, indem unterschiedliche Typen von Verursachungsketten auf eine Erstursache zurückgeführt werden. Dieser Typ von Argumenten begegnet in expliziter Form zuerst bei Aristoteles. Einer von vielen, welche diesen Argumenttyp wiederholen, ist Thomas von Aquin. Davon unterscheidbar sind Argumente, die ohne Bezugnahme auf Erfahrungstatsachen auskommen und z. B. bei einer Analyse des Seinsbegriffs (Avicenna u. a.) ansetzen oder bei einer Analyse der Implikate eines Begriffs Gottes als „dasjenige, worüber hinaus Größeres nicht gedacht werden kann“ (Anselm von Canterbury). Beide Argumenttypen sind unpopulärer geworden spätestens seit Immanuel Kants Einwänden gegen die Möglichkeit, neue Wahrheiten über die Welt ohne Bezug auf Erfahrung zu gewinnen und über Gegenstände unabhängig davon zu reden, gemäß welcher Voraussetzungen diese uns erkennbar sind. Seit dem 19. Jahrhundert wird von vielen theistischen Philosophen und Theologen nicht mehr versucht, die Existenz Gottes als rational notwendig zu beweisen, sondern als rational möglich zu rechtfertigen. Dabei wird z. B. versucht aufzuweisen, dass der Gottesglaube eine Basis in der Natur bzw. Vernunft des Menschen habe (ausgearbeitet in einer sog. theologischen Anthropologie) oder insofern vernünftig sei, als er eine zufriedenstellende Interpretation von Mensch und Welt erlaube (so z. B. Wolfhart Pannenberg). Derartige Versuche, eine interne Plausibilität religiöser Überzeugungen herauszuarbeiten, haben eine Argumentationsweise ersetzt, welche die theologische Apologetik vom 14. bis frühen 20. Jahrhundert prägte, die mit äußeren Glaubwürdigkeitsgründen wie Wunder, Zeugen oder erfüllten Prophezeiungen argumentierte (sog. Extrinsezismus). Unter den zahllosen verschiedenen Ausarbeitungen von Rechtfertigungsversuchen eines Gottesglaubens wird in den letzten Jahrzehnten u. a. eine Gruppe von Positionen diskutiert, welche religiöse Überzeugungen im Kontext eines Meinungssystems für so grundlegend halten („basic beliefs“), dass diese weder einer weiteren Rechtfertigung zugänglich seien, noch eine solche benötigten (sog. reformed epistemology, Erkenntnistheoretischer Fundamentalismus bezüglich religiösen Wissens, vertreten z. B. von Alvin Plantinga). Eine Argumentation zugunsten des Gottesglaubens, die sich auf erwünschte moralische oder gesellschaftliche Konsequenzen bzw. Funktionen bezieht, erscheint den meisten gegenwärtigen systematischen Theologen wenig plausibel. Eine derartige Argumentation findet sich auch in der vorchristlichen Antike, oftmals gepaart mit einer Polemik gegenüber Atheisten aufgrund der These, Atheismus führe notwendig und faktisch zu unmoralischem Verhalten. Platon etwa teilt in seinen Nomoi Atheisten in unterschiedliche Gruppen ein, die allesamt zu bestrafen seien; während für einige eine Gefängnisstrafe hinreiche, erfordere es bei anderen durchaus ein oder zwei Tode. Platon gilt, wie vielen vor und nach ihm, der Mensch kraft seiner Vernunft als göttlich und kraft seines Bezugs auf einen Gott als menschlich. Francis Bacon beschuldigt den Atheismus, „den Menschen zum Tier herabzuwürdigen, da er mit keiner höheren Natur mehr verbunden sei.“ Papst Benedikt XVI. hob als Professor Joseph Ratzinger im Hinblick auf die Gefahr des „Unwesens“ der Religion auch eine positive reinigende Funktion des Atheismus hervor: "Atheismus ist nicht notwendig Leugnung des Absoluten überhaupt, sondern dessen Rückversetzung in die reine Gestaltlosigkeit, d. h., er ist Protest gegen die Gestalt, mit der das Absolute identisch gesetzt wird. Darin aber liegt die große und unabdingbare Sendung des Atheismus in der Religionsgeschichte. Die Gestaltung des Göttlichen führt ja in der Tat immer wieder zur Vermenschlichung Gottes und damit zur Verabsolutierung des Menschlichen bzw. ganz bestimmter Einstellungen und Meinungen des Menschen. Aus diesem Grund gibt es nicht nur das Wesen, sondern auch das „Unwesen“ der Religion (Bernhard Welte), ist Religion nicht nur die große Chance, sondern auch die große Gefährdung des Menschen. Weil hier das Absolute begegnet, kann jede Vermenschlichung und Verdinglichung des Absoluten zu den furchtbarsten Konsequenzen führen, indem dann die Gruppe, das System, die Einrichtung sich selbst absolut setzt und alles, was gegen sie steht, als das schlechthin Böse außerhalb jeder Menschlichkeit stellt. Weil vom Wesen des Menschen her jede Gestaltung zur Abschließung und so zur falschen Vermenschlichung Gottes drängt, muss es neben der Gestaltung immer auch ebenso die große Gegenbewegung der Reinigung geben, die immer wieder die Überschreitung der Gestalt und so letzten Endes die Vergöttlichung Gottes besorgt. "Man kann gerade als Christ nicht einfach die positiv gestalteten Religionen der Weltgeschichte als das Gute und die atheistische Geisteslinie als den schlechthinnigen Sündenfall hinstellen, sondern beide Linien, die der Gestaltung und die der Reinigung, ergänzen sich gegenseitig, beide tragen Aufschwung und Fall in sich." Anna Seghers. Anna Seghers (* 19. November 1900 in Mainz; † 1. Juni 1983 in Ost-Berlin; bürgerlich "Netty Radványi", gebürtig "Reiling") war eine deutsche Schriftstellerin. Leben. Anna Seghers war das einzige Kind des Mainzer Kunsthändlers Isidor Reiling und seiner Frau Hedwig (geb. Fuld). Der Vater war Mitglied und anteiliger Bauträger der 1879 eingeweihten jüdischen neuorthodoxen Synagoge in der Mainzer Flachsmarktstraße. Anna besuchte ab 1907 eine Privatschule, dann ab 1910 die Höhere Mädchenschule in Mainz, das heutige Frauenlob-Gymnasium. Im Ersten Weltkrieg leistete sie Kriegshilfsdienste. 1920 absolvierte sie das Abitur. Anschließend studierte sie in Köln und Heidelberg Geschichte, Kunstgeschichte und Sinologie. 1924 promovierte sie an der Universität Heidelberg mit einer Dissertation über "Jude und Judentum im Werk Rembrandts". 1925 heiratete sie den ungarischen Soziologen László Radványi, der sich später Johann Lorenz Schmidt nannte. Mit ihm hatte sie zwei Kinder. Das Ehepaar zog nach Berlin, wo es von 1925 bis 1933 im Bezirk Wilmersdorf wohnte. 1926 wurde der Sohn Peter geboren, der heute Pierre heißt. In der Weihnachtsbeilage 1924 der "Frankfurter Zeitung" hatte die junge Autorin ihre erste Erzählung "Die Toten auf der Insel Djal" mit Antje Seghers signiert. Die Erzählung "Grubetsch" erschien 1927 unter dem Künstlernamen Seghers (ohne Vornamen), worauf Kritiker einen Mann als Autor vermuteten. Das Pseudonym entlieh sie dem von ihr geschätzten niederländischen Radierer und Maler Hercules Seghers (der Name wurde auch "Segers" geschrieben). 1928 wurde Tochter Ruth geboren. In diesem Jahr erschien auch Seghers’ erstes Buch "Aufstand der Fischer von St. Barbara" unter dem Pseudonym Anna Seghers. Für ihren Erstling wurde ihr auf Vorschlag von Hans Henny Jahnn noch im selben Jahr der Kleist-Preis verliehen. Ebenfalls 1928 trat sie der KPD bei und im folgenden Jahr war sie Gründungsmitglied des Bundes proletarisch-revolutionärer Schriftsteller. 1930 reiste sie erstmals in die Sowjetunion. Nach der Machtübernahme der Nationalsozialisten wurde Anna Seghers kurzzeitig von der Gestapo verhaftet; ihre Bücher wurden in Deutschland verboten und verbrannt. Wenig später konnte sie in die Schweiz fliehen, von wo aus sie sich nach Paris begab. Im Exil arbeitete sie an Zeitschriften deutscher Emigranten mit, unter anderem als Mitglied der Redaktion der "Neuen Deutschen Blätter". 1935 war sie eine der Gründerinnen des Schutzverbandes Deutscher Schriftsteller in Paris. Nach dem Beginn des Zweiten Weltkriegs und dem Einmarsch deutscher Truppen in Paris wurde Seghers’ Mann in Südfrankreich im Lager Le Vernet interniert. Anna Seghers gelang mit ihren Kindern die Flucht aus dem besetzten Paris in den von Henri Philippe Pétain regierten Teil Südfrankreichs. Dort bemühte sie sich in Marseille um die Freilassung ihres Mannes sowie um Möglichkeiten zur Ausreise. Erfolg hatten ihre Bemühungen schließlich beim von Gilberto Bosques geleiteten mexikanischen Generalkonsulat, wo Flüchtlingen großzügig Einreisegenehmigungen ausgestellt wurden. Diese Zeit bildete den Hintergrund des Romans "Transit" (erschienen 1944). Im März 1941 gelang es Anna Seghers, mit ihrer Familie von Marseille aus über Martinique, New York, Veracruz nach Mexiko-Stadt auszuwandern. Ihr Mann, der sich inzwischen mit deutschem Namen Johann-Lorenz Schmidt nannte, fand dort Anstellung, erst an der Arbeiter-Universität, später auch an der Nationaluniversität. Anna Seghers gründete den antifaschistischen "Heinrich-Heine-Klub", dessen Präsidentin sie wurde. Gemeinsam mit Ludwig Renn rief sie die Bewegung Freies Deutschland ins Leben und gab deren gleichnamige Zeitschrift heraus. 1942 erschien ihr Roman "Das siebte Kreuz" – in einer englischen Ausgabe in den USA – und auf Deutsch in Mexiko. Im Juni 1943 erlitt Anna Seghers bei einem Verkehrsunfall schwere Verletzungen, die einen langen Krankenhausaufenthalt notwendig machten. 1944 verfilmte Fred Zinnemann "Das siebte Kreuz" – der Erfolg von Buch und Film machten Anna Seghers weltberühmt; nach ihrem Tod machte Hans Werner Henze diesen Roman 1996 in einer Nachdichtung von Hans-Ulrich Treichel zur Grundlage seiner 9. Sinfonie. 1947 verließ Seghers Mexiko und kehrte nach Berlin zurück, wo sie anfangs als Mitglied der Sozialistischen Einheitspartei Deutschlands in West-Berlin lebte. Auf dem Ersten Deutschen Schriftstellerkongress im Oktober 1947 hielt sie eine viel beachtete Rede über das Exil und den Freiheitsbegriff. In diesem Jahr wurde ihr der Büchnerpreis verliehen. 1950 zog sie nach Ost-Berlin und wurde zum Mitglied des Weltfriedensrates und zum Gründungsmitglied der Deutschen Akademie der Künste berufen. 1951 erhielt sie den Nationalpreis der DDR und unternahm eine Reise in die Volksrepublik China. 1952 wurde sie Präsidentin des Schriftstellerverbandes der DDR (bis 1978). 1955 zogen Anna Seghers und ihr Mann in die Volkswohlstraße 81 (heute Anna-Seghers-Straße) in Berlin-Adlershof, wo sie bis zu ihrem Tod wohnten. Heute befindet sich in der Wohnung die "Anna-Seghers-Gedenkstätte", ein Museum zu Leben und Werk der Autorin. Als 1957 Walter Janka, dem Leiter des Aufbau-Verlages, der ihre Bücher verlegte, wegen angeblicher „konterrevolutionärer Verschwörung“ der Prozess gemacht wurde, nahm sie dazu nicht öffentlich Stellung. Beim Ausschluss von Heiner Müller aus dem Schriftstellerverband im Jahre 1961 stimmte sie dagegen. 1975 wurden ihr der Kulturpreis des Weltfriedensrates sowie die Ehrenbürgerschaft von (Ost-)Berlin verliehen. 1978 trat sie als Präsidentin des Schriftstellerverbandes zurück und wurde dessen Ehrenpräsidentin. Im selben Jahr starb ihr Mann. Im Jahre 1979 schwieg Anna Seghers zu den Ausschlüssen von neun kritischen Autoren aus dem Schriftstellerverband. 1981 wurde ihr die Ehrenbürgerwürde ihrer Geburtsstadt Mainz verliehen. Sie starb am 1. Juni 1983 und wurde, nach einem Staatsakt in der Akademie der Künste der DDR, auf dem Dorotheenstädtischen Friedhof in Berlin beigesetzt. Werke. Die frühen Werke Anna Seghers’ können der Neuen Sachlichkeit zugeordnet werden. In der Exilliteratur spielte sie nicht nur als Organisatorin eine wichtige Rolle, sondern schrieb mit "Transit" und "Das siebte Kreuz" auch zwei der literarisch bedeutendsten Romane dieser Zeit. Ihre späteren, in der DDR erschienenen Romane sind dem "Sozialistischen Realismus" verpflichtet. Sie zeigen eine schematische Figurenführung und irritieren durch ihre Parteitreue, die nicht zuletzt auf die zahlreichen offiziellen Funktionen (u. a. als Präsidentin des Schriftstellerverbandes) zurückgeführt werden kann. Im Gegensatz zu den Romanen der fünfziger und sechziger Jahre behalten die späten Erzählungen ihre literarische Gültigkeit. Bis ins hohe Alter bewies Seghers darin eine erzählerische Frische, die nicht zuletzt daher rührte, dass sie immer wieder Stoffe aus der Renaissance, aus Ostasien, der Karibik oder Mexiko aufgriff, die sie sowohl einfühlsam, kenntnisreich, wie auch mit großer Erfindungs- und Gestaltungsgabe – jenseits aller Klischees – literarisch großartig zu erzählen verstand. Atmosphäre (Astronomie). Die Himmelskörper des Sonnensystems mit ihren unterschiedlichen Atmosphären Die Atmosphäre (von ("atmós") „Dampf, Dunst, Hauch“ und ("sfaira") „Kugel“) ist die gas­förmige Hülle um größere Himmelskörper – insbesondere um Sterne und Planeten. Sie besteht meistens aus einem Gemisch von Gasen, die vom Schwerefeld des Himmelskörpers festgehalten werden können. Die Atmosphäre ist an der Oberfläche am dichtesten und geht in großen Höhen fließend in den interplanetaren Raum über. Sie bestimmt im Falle ihrer Existenz wesentlich das Erscheinungsbild eines Himmelskörpers. Die heißen Atmosphären von Sternen reichen tief in den Raum hinein. Bei Gasplaneten sind sie wesentlich kühler und von tieferen Schichten des Himmelskörpers nicht scharf getrennt. Bei großen Gesteinsplaneten und beim Saturnmond Titan ist die Atmosphäre eine (nach der Erde benannten) Erdsphäre und liegt über der Pedosphäre (betretbarer Boden) und der darunter befindlichen Lithosphäre. Physikalische Erfordernisse. Planetenmasse und -Radius bestimmen das Schwerefeld an der Oberfläche. Dieses muss ausreichend stark sein, damit die in der Regel aus Ausgasungen hervorgehenden Gasteilchen an den Himmelskörper gebunden bleiben und sich nicht in den Weltraum verflüchtigen können. Gasdichte, Temperatur und Schwerkraft. Entsprechend der kinetischen Gastheorie bewegen sich die Teilchen ungeordnet und dabei um so schneller, je höher die Temperatur des Gases ist und je leichter sie sind. Wenn die Anziehungskraft zu gering ist, verliert der Himmelskörper langfristig die schnellen (spezifisch leichten)Teile seiner Gashülle. Die Planetologie spricht dabei von "positiver Teilchenbilanz", wenn die Ausgasung des Gesteins mehr ausmacht als durch die Überwindung der Gravitation verloren geht. Ist diese Bilanz auch für schwerere Gase negativ, kann sich keine Atmosphäre ausbilden. Daher spielt neben der Größe des Himmelskörpers seine Oberflächentemperatur (die nicht zu hoch sein darf) eine wesentliche Rolle. Auch die Art der ausgebildeten Gase ist wichtig, da ein Planet bzw. großer Mond eine Atmosphäre aus Wasserstoff oder Helium viel schwerer halten kann als eine Hülle aus Sauerstoff, Stickstoff oder Kohlendioxid. Dies liegt daran, dass sich leichte Gasteilchen bei gleicher Temperatur wesentlich schneller bewegen als schwerere. Atmosphären, die Elemente wie Wasserstoff in größerem Umfang enthalten, finden sich daher vor allem bei sehr massereichen Gasriesen wie Jupiter oder Saturn, die eine sehr starke Gravitation besitzen. Letztlich ist nur eine kleine Minderheit der Himmelskörper in der Lage, eine Atmosphäre zu bilden und langfristig an sich zu binden. So besitzt zum Beispiel der Erdmond keine dauerhafte Atmosphäre, sondern nur kurzfristige, bodennahe Gase. Atmosphären der verschiedenen Himmelskörper. Vergleicht man die Himmelskörper unseres Sonnensystems und die Sterne miteinander, so zeigt sich der Einfluss der bei der Ausbildung einer Atmosphäre relevanten Faktoren und offenbart recht unterschiedliche Atmosphären. Atmosphäre von Sternen. Die Sonne bzw. die verschiedenen Sterne haben weitreichende Atmosphären, die mit der Photosphäre, Chromosphäre und Übergangsregion beginnen und mit Korona, Sonnenwind und Heliosphäre im weitestgehenden Sinne tief im interplanetaren Raum an der Heliopause enden. Die Atmosphäre der Sonne besteht weitgehend aus Wasserstoff (ca. 73 %) und Helium (ca. 25 %), die in Form ionisierten Plasmas (Sonnenwind und Sonnensturm) die Atmosphären der restlichen Himmelskörper im System beeinflussen. Atmosphären von Gasriesen. Die Atmosphärenzusammensetzung der Gasriesen wie Jupiter, Saturn, Uranus und Neptun basieren ähnlich der Sterne im Wesentlichen auf den Stoffen Wasserstoff und Helium. Ihr Kern ist jedoch kalt und der Strahlungsdruck wie bei den Sternen fehlt. Atmosphären von Exoplaneten. Auch bei Planeten anderer Sternsysteme – den Extrasolaren Planeten – konnte mit verschiedenen Methoden das Vorhandensein von Atmosphären nachgewiesen werden, bisher jedoch nur im Radius von ca. 300 Lichtjahren um unser Sonnensystem herum. Atmosphärentabelle. Eine Übersicht der Himmelskörper des Sonnensystems hinsichtlich ihres atmosphärischen Drucks an der Oberfläche und ihrer chemischen Zusammensetzung in Volumenprozent. Gelistet sind die Hauptbestandteile einer Atmosphäre und das Wasservorkommen. Druckverlauf. Die Einflussgrößen sind der Druck "p", die Höhe "h", die Schwerebeschleunigung "g" und die Dichte "ρ". Im Falle konstanter Temperatur reduziert sich die Gleichung zur barometrischen Höhenformel. Im äußeren Bereich ist diese Beschreibung jedoch nicht mehr gültig, da sich die Bestandteile aufgrund der geringen Dichte auf Keplerbahnen oder den Magnetfeldlinien bewegen und sich gegenseitig kaum noch beeinflussen. Zur technischen Modellierung wird die Internationale Standardatmosphäre (ISA) verwendet, welche eine reine idealisierte Betrachtung über den gesamten Planeten darstellt. Die ISA beschreibt den Temperaturverlauf nach den polytropen Zustandsgleichungen. Dazu wird die Atmosphäre in Troposphäre und obere und untere Stratosphäre unterteilt. In der unteren Stratosphäre (11–20 km Höhe) findet überwiegend der internationale Flugverkehr statt. Überschallflüge hingegen in der oberen Stratosphäre. Untergliederungen. Diese Gliederung gibt nur eine grobe Einteilung wieder, und nicht jede Schicht ist bei allen Atmosphären nachweisbar. So besitzt die Venus zum Beispiel keine Stratosphäre, kleinere Planeten und Monde besitzen nur eine Exosphäre, zum Beispiel der Merkur. Für Entstehung und Ausprägung der Dämmerungsfarben ist der vertikale Aufbau der Atmosphäre maßgeblich. Arvo Pärt. Arvo Pärt (* 11. September 1935 in Paide, Estland) ist ein estnischer Komponist, der als einer der bedeutendsten lebenden Komponisten neuer Musik gilt. Er hat die österreichische Staatsbürgerschaft. Von 1981 bis 2008 lebte er in Berlin. Arvo Pärt in der Christchurch Cathedral, Dublin (2008) Leben. Im Alter von sieben Jahren begann Pärts musikalische Erziehung, mit vierzehn Jahren schrieb er erste eigene Kompositionen. 1954 begann er ein Musikstudium, arbeitete als Tonmeister beim Estnischen Hörfunk und studierte in Tallinn von 1958 bis 1963 Komposition bei Veljo Tormis und Heino Eller. Sein neoklassisches Frühwerk wurde von der Musik Schostakowitschs, Prokofjews und Bartóks beeinflusst. Anschließend experimentierte Pärt mit Schönbergs Zwölftontechnik und dem musikalischen Serialismus. Seine Musik erregte den Unwillen der sowjetischen Kulturfunktionäre wegen der nicht als systemkonform angesehenen modernen Komponierweise und wegen ihres religiösen Gehalts. Seine Komposition "Nekrolog", das erste estnische Werk in Zwölftontechnik, wurde 1960 offiziell missbilligt. Pärt suchte nach einem neuen künstlerischen Ausdrucksweg und fand ihn ab 1962 als Student am Moskauer Konservatorium in der sogenannten "Collage-Technik", in der er (wie in seiner Komposition "Credo") Klangmaterial aus den Werken anderer Komponisten entlehnt, vor allem von Johann Sebastian Bach. Die Collage-Technik erwies sich jedoch für Pärt als Sackgasse: Er hatte das Gefühl, "es mache keinen Sinn mehr, Musik zu schreiben, wenn man fast nur mehr zitiert." Anfang der 1970er Jahre trat Pärt der russisch-orthodoxen Kirche bei. In einer langen schöpferischen Pause (1968–76), in der die 3. Sinfonie (1971) das einzige autorisierte Werk ist, befasste er sich vor allem mit der Gregorianik (Gregorianischer Gesang), der Schule von Notre Dame und der Musik der Renaissance (klassische Vokalpolyphonie). Als Pärt 1976 das Klavierstück "Für Alina" präsentierte, hatte er in der langen Abgeschiedenheit seinen persönlichen Stil entwickelt, in dem die persönliche Gefühlswelt zugunsten einer dem Asketischen entsprungenen Balance zurücktritt. Diese neue Sprache, die für sein Lebenswerk von nun an bestimmend ist, nannte er "Tintinnabuli"-Stil. Tintinnabulum (lat.) bedeutet Glöckchenspiel. Gemeint ist das „Klingeln“ des Dreiklangs, dessen drei Töne das ganze Stück über mittönen. Das Ziel dieses Stils ist eine Reduktion des Klangmaterials auf das absolut Wesentliche. Kompositionstechnisch bestehen Pärts Tintinnabuli-Werke aus zwei Stimmen: Eine Stimme besteht aus einem Dur- oder Moll-Dreiklang, die zweite ist die Melodiestimme, die nicht zwingend in derselben Tonart steht wie die erste. Beide Stimmen sind durch strenge Regeln miteinander verknüpft. Der kleinste musikalische Baustein ist der Zweiklang, weshalb auch die Melodiestimme aus zwei Stimmen besteht. Die daraus entstehenden Gebilde entbehren trotz der Einfachheit des Materials und dem Ziel der Reduktion auf das Wesentliche jedoch nicht der Komplexität. Mit Hilfe alter Techniken wie des Proportionskanons entwickelt er Formen, die durch ihre Regelmäßigkeit große Ruhe ausstrahlen. Die Statik der Dreiklangtöne repräsentiert die Ewigkeit, die Dynamik des Melodischen die Vergänglichkeit der Zeit. Im Jahr 1980 emigrierte Arvo Pärt auf Druck der sowjetischen Regierung mit seiner Familie nach Wien, wo er die österreichische Staatsbürgerschaft erhielt. 1981 kam er als Stipendiat des DAAD mit seiner Familie nach Berlin-Lankwitz. Nach dem Zusammenbruch der Sowjetunion und der Unabhängigkeit Estlands verbrachte er Teile des Jahres in seinem estnischen Landhaus. 2008 kehrte er nach Estland zurück. Pärt erfreut sich einer für einen zeitgenössischen Komponisten ungewöhnlich großen Beliebtheit. Auf Einladung von Walter Fink war er 2005 der 15. Komponist im jährlichen Komponistenporträt des Rheingau Musik Festival. Ihm wurde eine Reihe von Auszeichnungen verliehen, darunter 2005 der Preis der Europäischen Kirchenmusik, der Internationale Brückepreis, 2007 die Ehrendoktorwürde der Katholischen Theologischen Fakultät der Albert-Ludwigs-Universität Freiburg, die Mitgliedschaft in der "American Academy of Arts and Letters" und der "Classical Brit Award". Das Festival "Torino Settembre Musica" ehrte Pärt anlässlich der Olympischen Winterspiele von Turin mit der Auftragskomposition "La Sindone" ("Das Grabtuch"), einer Orchesterkomposition auf das Turiner Grabtuch, die am 15. Februar 2006 im Dom von Turin uraufgeführt wurde. 2008 wurde Pärt mit dem Léonie-Sonning-Musikpreis sowie mit dem Österreichischen Ehrenkreuz für Wissenschaft und Kunst erster Klasse ausgezeichnet. Die Aufführung seiner Werke in der Konzertsaison 2006/2007 widmete Arvo Pärt der am 7. Oktober 2006 ermordeten Journalistin Anna Politkowskaja. Am 10. Dezember 2011 wurde Pärt zum Mitglied des Päpstlichen Rates für die Kultur ernannt. 2014 wurde ihm das Praemium Imperiale der japanischen Kaiserfamilie zugesprochen. Werk. Pärt strebt in seiner fast ausschließlich religiös motivierten Musik nach einem Ideal der Einfachheit, das die spirituelle Botschaft unterstützt. Er entwickelte seinen eigenen Musikstil, den er "„Tintinnabuli“" (Klingeln der Glocken) nennt: Einfache Harmonien, meist Dreiklänge und diese überlagernde Tonleitern, bestimmen seine rhythmisch bewusst einfach gehaltenen Kompositionen. Ein typisches Beispiel für seinen Stil ist seine "Johannespassion", für die er wie für viele seiner Werke Afghanistan. Afghanistan (paschtunisch und persisch (Dari), offiziell "Islamische Republik Afghanistan") ist ein Binnenstaat Südasiens an der Schnittstelle von Süd- zu Zentralasien, der an den Iran, Turkmenistan, Usbekistan, Tadschikistan, die Volksrepublik China und Pakistan grenzt. Drei Viertel des Landes bestehen aus schwer zugänglichen Gebirgsregionen. Nach dem Einmarsch der Sowjetunion 1979 besiegten – von den Vereinigten Staaten und Saudi-Arabien finanzierte – Mudschaheddin die von der Sowjetunion gestützte Regierung. Die Aufteilung der Machtbereiche scheiterte jedoch an Rivalitäten; die fundamentalistisch islamisch ausgerichteten Taliban-Milizen kamen an die Macht und setzten eine radikale Interpretation des Islam und insbesondere die Scharia mit aller Härte durch. Nach den Terroranschlägen am 11. September 2001 in den Vereinigten Staaten wurde das Taliban-Regime, das Mitgliedern von Terrororganisationen Unterschlupf gewährt hatte, im maßgeblich von den Vereinigten Staaten geführten Krieg gegen den Terror gestürzt. Seither bestimmt dieser Krieg das Geschehen. Das Land ist seit 2004 eine islamische Republik. Von 2004 bis 2014 war Hamid Karzai Präsident Afghanistans. Nach der Präsidentschaftswahl 2014 wurde Aschraf Ghani zum Sieger erklärt und am 29. September 2014 als neues Staatsoberhaupt vereidigt. Namensgebung. Der Name "Afghanistan" bedeutet wörtlich "Land der Afghanen". Das Suffix -stan geht dabei auf den indoiranischen Ausdruck für "Platz " oder "Ort, an dem man steht", zurück. Das Wort "Afghane" war hierbei nicht im modernen Sinne als "Staatsbürger Afghanistans" zu verstehen, sondern bezog sich speziell auf das Volk und auf die Stämme der Paschtunen, die im persischen Sprachraum, länderübergreifend, als "Afghanen" und im indischen Subkontinent als "Pathanen" bezeichnet werden. Heute hingegen wird in der Verfassung Afghanistan ausdrücklich per Gesetz geregelt, dass alle Staatsbürger Afghanistans (unabhängig von ihrer Ethnizität) Afghanen sind. 1801 wurde der Name "Afghanistan" im anglo-persischen Friedensvertrag im Zusammenhang mit den paschtunischen Siedlungsgebieten zum ersten Mal offiziell erwähnt, nachdem er bereits in den tschagataischsprachigen Memoiren Baburs aus dem 16. Jahrhundert in einem regional begrenzten Sinne und bezogen auf die Paschtunen erwähnt wurde. Erst 1919, mit der vollen Unabhängigkeit Afghanistans vom Britischen Weltreich, wurde der Name offiziell anerkannt und 1936, mit der ersten Verfassung des Landes, etabliert. Eine sehr alte Bezeichnung für den Großteil des Gebietes ist Kabulistan, die noch im 19. Jahrhundert vom schottischen Geschichtsschreiber Mountstuart Elphinstone als Landesbezeichnung bevorzugt verwendet wurde. Der wohl bekannteste historische Name dieser Region ist Chorasan, der über viele Jahrhunderte hinweg für die islamische und persische Blütezeit stand. Der Norden und Westen des heutigen Afghanistan waren bedeutende Gebiete des historischen Chorasan. Topografie. Afghanistan ist ein Binnenstaat mit strategischer Bedeutung in der Region. Das Land ist größtenteils Gebirgsland. Weniger als 10 Prozent der Landesfläche liegen unterhalb von 600 m Meereshöhe. Die Gebirge des Hindukusch (bis 7500 m Höhe) und des Sefid Kuh erstrecken sich über weite Teile des 652.090 km² großen Landes. Im Südwesten befindet sich eine abflusslose Ebene mit dem Hilmendsee an der Grenze zum Iran. Sein wichtigster Zufluss ist der Hilmend, der im Osten des Landes nahe der Hauptstadt Kabul entspringt. Afghanistan besitzt ein kontinentales Klima mit heißen Sommern und sehr kalten Wintern. Afghanistan ist vor allem ein Gebirgsland im östlichen Iranischen Hochland. Nur im Norden liegen Ebenen am Amudarja und im Südwesten kleinere wüstenartige Becken. Der Nordosten wird vom Hindukusch durchzogen. Zwischen dem Becken von Kabul und dem nördlichen Landesteil besteht seit 1964 eine winterfeste Straßenverbindung über den Gebirgskamm mit einem fast 3 km langen Tunnel (Salangpass-Straße). Durch den Wachankorridor im Pamirgebirge besitzt Afghanistan auch mit der Volksrepublik China eine gemeinsame Grenze. Der südliche Hindukusch fällt steil in die Landschaft Nuristan ab, die teilweise noch von Nadelwäldern bedeckt ist. Die Landschaften zwischen der Hauptstadt Kabul und dem Chaiber-Pass an der Grenze zu Pakistan sind der politische und wirtschaftliche Kernraum des Landes. Siedlungskern im westlichen Afghanistan ist die Stadt Herat. Das südliche und südwestliche Afghanistan besteht aus Wüsten und Halbwüsten. Es wird nur vom Hilmend durchflossen, der der längste afghanische Fluss ist. Der Hilmend endet in den Salzseen von Sistan an der Grenze zum Iran. Östlich des Hilmend liegt die Wüste Rigestan („Sandland“) und westlich des Hilmend die vorwiegend aus Schotter und Lehmflächen bestehende Dascht-e Margo. Der höchste Punkt des Landes ist der Gipfel des 7485 m hohen Noshak im Hindukusch. In der Flussebene des Amudarja an der Grenze zu Turkmenistan befindet sich mit 285 m über NN die tiefstgelegene Stelle Afghanistans. Die Band-e-Amir-Seen bei Bamiyan zählen zu den in der westlichen Welt bekanntesten Sehenswürdigkeiten. Sie sind seit 2009 als erster Nationalpark in Afghanistan ausgewiesen. Klima. Jahreszeiten: Die winterlichen Westwinde bringen meist mäßige Niederschläge, während die Sommer ausgeprägt trocken sind und nur im äußersten Südosten der Monsun für Regen sorgt. Im Winter sind wegen der großen Höhe des Landes vor allem im Norden gelegentlich auch Schneefälle bis in die Täler möglich. Klimatisch gehört der Süden des Landes bereits zu den wärmeren Subtropen, in denen der Anbau von Dattelpalmen möglich ist, während der Norden eher zur gemäßigten Zone gehört. Im Jahr 2000 hatte die Hälfte der Bevölkerung unter einer der häufig auftretenden schweren Dürren zu leiden. Solche Dürren könnten sich in Zukunft häufen, da der Klimawandel durch eine Abnahme der Niederschläge vor allem im Winter und Frühjahr zu einer Verstärkung des ariden Klimas führen könnte. Für den vom Monsun betroffenen Süd-Osten steht hingegen zu befürchten, dass es im Sommer zu deutlich variableren Niederschlägen kommt, da durch die zusätzliche Erwärmung der Atmosphäre auch das indische Monsunsystem labiler wird. Besonders die für den hohen Anteil an ländlicher Bevölkerung wichtige Landwirtschaft könnte so negativ betroffen werden. Die diesen Ort umgebenden Gebirge und Hochgebirge weisen entsprechend niedrigere Temperaturen auf, da die Lufttemperatur entsprechend der Höhenformel um typisch 0,65 °C pro 100 m Höhe sinkt. Bevölkerung. 80 % der Bevölkerung Afghanistans leben auf dem Land und nur 20 % in den Städten. Größere Städte sind Kabul (2,4 Mill. Einwohner; als Agglomeration 4,9 Mill. Ew.), Kandahar (362.000 Ew.), Herat (355.000 Ew.), Masar-e Scharif (290.000 Ew.), Dschalalabad (156.000 Ew.) und Kunduz (113.000 Ew.). Das Bevölkerungswachstum jährlich liegt bei 2,7 % (Stand 2009). Ethnien. Die Bevölkerung des Landes fühlt sich einer Vielzahl ethnischer Gruppen und Stämme zugehörig, wobei sich aus historischen Gründen die Paschtunen häufig als staatstragendes Volk ansehen. Oftmals leben mehrere Volksgruppen gemischt innerhalb von Siedlungsgebieten, deren Einwohnerzahlen nur geschätzt werden konnten. Die Kategorisierung in ethnische Gruppen ist zudem nicht eindeutig, da sich Selbstidentifikation und Fremdzuschreibung häufig unterscheiden. Angaben über Größe und Bevölkerungsanteil der ethnischen Gruppierungen können deswegen nicht als konkrete Werte, sondern nur in bestimmten Bereichen gemacht werden. Die folgenden Angaben sind auf die Bevölkerungszahl des Jahres 2009 hochgerechnet. Nach 1992 prägten ethnische Konflikte die Auseinandersetzungen zwischen den Mudschaheddin. Die traditionellen Herrscher Afghanistans waren die Paschtunen, sie bilden auch die große Mehrheit der Taliban-Bewegung. Der Sturz des Taliban-Regimes im Jahr 2001 gab einer Allianz aus Tadschiken, Hazara und Usbeken die Gelegenheit, ein Abkommen über die Aufteilung der Macht durchzusetzen. Die Paschtunen sehen sich seitdem Vergeltungsangriffen ausgesetzt. Unter den Taliban war es darüber hinaus zu Auseinandersetzungen zwischen Sunniten und Schiiten gekommen. Sprachen. In Afghanistan werden etwa 49 Sprachen und über 200 verschiedene Dialekte gesprochen. 1964 bestimmte die Große Ratsversammlung (Loja Dschirga) im Rahmen der Bestätigung einer neuen Verfassung Persisch („Dari“) und Paschto als offizielle Landes- und Regierungssprachen (Amtssprachen). Paschto. Paschto, die Sprache der Paschtunen, ist per königlichem Dekret seit 1936 Amtssprache und wird von rund 35–55 % der Bevölkerung als Muttersprache gesprochen (Angaben variieren). So wird traditionell die Nationalhymne Afghanistans in Paschto gesungen. Auch militärische Titel sind der paschtunischen Sprache entnommen. Trotzdem konnte sich Paschto bisher nicht als Verwaltungssprache durchsetzen und hat diesen Status nur in den paschtunischen Stammesgebieten. Daher sehen andere Bevölkerungsgruppen Paschto meist als zweitrangig an, und auch die Frage der Nationalhymne hat immer wieder provokante Diskussionen heraufbeschworen. Jegliche Versuche der Regierung, den Status von Paschto in der Bevölkerung zu erhöhen, sind bisher im Großen und Ganzen gescheitert. Persisch (Dari). "Dari" () ist die offizielle afghanische Bezeichnung für das Persische, abgeleitet von "Fārsī-ye Darbārī", „Persisch des königlichen Hofes“ (). Dari ist die Mehrheitssprache und seit dem Mittelalter die dominierende Verwaltungs- und Kultursprache der Region. Die literarische Schriftsprache des Persischen fungiert seit der Staatsgründung Afghanistans als Amts- und Verwaltungssprache. Mehr als die Hälfte der Bevölkerung Afghanistans (hauptsächlich Tadschiken, Hazara, Aimaken, aber auch sehr viele Paschtunen) spricht einen Dialekt des Persischen als Muttersprache. Persisch ist zudem die Sprache der Bevölkerung der Hauptstadt Kabul, deren Dialekt – umgangssprachlich gleichgesetzt mit "Dari" – nicht nur als Regierungs- und Wirtschaftssprache, sondern auch als Lingua franca zwischen jenen Volksgruppen dient, die nicht eine der beiden Landessprachen als Muttersprache sprechen. Bis in die 1960er Jahre war der offizielle Titel der Lesebücher in afghanischen Schulen "Qerahate Farsi" (Lesebuch Farsi). Das Farsi unterscheidet sich vom älteren, „höfischen“ Dari nur durch Phonetik, Akzentuierung und Silbenstruktur. Seit 1964 benannte das zuständige Ministerium die Lesebücher in "Qerahate Farsi e Dari" und schließlich nur noch "Qerahate Dari" um. Während die Bevölkerung immer noch von "Farsi" spricht, wenn sie Dari meint, sprechen die staatlichen Institutionen und Medien von "Dari", eine Bezeichnung, die sich bis heute jedoch nicht ganz durchgesetzt hat. Johann Friedrich Kleuker verwendete 1776/77 erstmals im deutschen Sprachraum die Schreibweise "Deri" für die persische Sprache, die sich „seit der Sassaniden als Hofsprache für alle Länder des iranischen Hochlandes“ entwickelt habe. 1818 verwendete Joseph von Hammer-Purgstall dieselbe Schreibweise bei seinen Übersetzungen aus dem "Dīwān" von Hafis. Peter Snoy fügt in dem von Willi Kraus herausgegebenen Werk hinzu, dass die Bezeichnung "Dari" besonders im 9. und 10. Jahrhundert am Hof (persisch "dar") der Samaniden in Mittelasien aufkam. Dort wurde das zum westlichen Zweig der iranischen Sprachen gehörende Persisch zur Hofsprache (= "Dari") ernannt. Regionale Nationalsprachen. Daneben sind fünf Minderheitensprachen seit 1980 in jenen Regionen als Nationalsprachen anerkannt, in denen diese von der Mehrheit gesprochen werden; die Wichtigste ist Usbekisch (Ōzbēkī). Auch Turkmenisch (Torkmanī), Belutschisch (Balūčī), Paschai (Pašaī) und Nuristani (Nūrestānī) (Kati) haben unter Karzai eine Aufwertung erfahren. Religion. Über 99,9 % der Bevölkerung sind Muslime, davon etwa vier Fünftel meist hanafitische Sunniten und ein Fünftel imamitische Schiiten. Daneben gibt es noch höchstens 15.000 Hindus, einige wenige hundert Sikhs und einen letzten bucharischen Juden: Zebulon Simentov. Über die Zahl der Christen ist wenig bekannt. Der Islam ist in Afghanistan über die Jahrhunderte von den Afghanen sehr konservativ ausgelegt worden, wobei das Stammesrecht der Paschtunen eine Rolle spielte. Jedoch wird der Islam je nach ethnischer Gruppe, nach Region und/oder nach Bildungsstand unterschiedlich verstanden und interpretiert. Eine wichtige Rolle spielen bis heute die vorislamischen Bräuche der Bevölkerung, wie zum Beispiel das altiranische Neujahr "(Nouruz)" nach dem iranischen Kalender oder der Glaube an segenbringenden Weihrauch "(Espand)", beides zoroastrische Bräuche. Die Lage der christlichen Minderheit in Afghanistan hatte sich Anfang Juni 2010 zugespitzt, nachdem der private Fernsehsender „Noorin TV“ und andere Kanäle einen Film über die Taufe von Konvertiten ausgestrahlt und ihre Gesichter gezeigt hatten. Danach riefen afghanische Regierungsvertreter dazu auf, Islam-„Abtrünnige“ mit dem Tode zu bestrafen. Staatspräsident Hamid Karzai wies Regierung und Staatsschutz an, dafür zu sorgen, dass es keine weiteren Übertritte gebe. Der stellvertretende Parlamentspräsident Abdul Satter Chowasi (Kabul) forderte die öffentliche Hinrichtung von Personen, die vom Islam zum Christentum übertreten. Ein Abgeordneter erklärte, die Ermordung von Christen, die zuvor Muslime waren, sei kein Verbrechen. Seither sind zahlreiche christliche Familien untergetaucht oder ins Ausland geflohen. Humanitäre Hilfswerke werden einer strengen staatlichen Kontrolle unterzogen. Zwei, die den Begriff „Kirche“ im Namen tragen, mussten ihre Aktivitäten einstellen – die Norwegische Kirchenhilfe und die US-amerikanische Organisation World Church Services (Kirchliche Weltdienste). Frauen. Vor allem in Städten und größeren Orten gehen Frauen meist nur mit Ganzschleier (Burka) aus dem Haus. Allerdings wurde die Burka nur in größeren Städten üblich. Auf dem Land war die Burka nicht üblich, da sie etwa bei der Feldarbeit hinderlich ist. Nur in der kurzen Phase der kommunistischen Regierung 1978 und während deren Unterstützung durch sowjetische Truppen seit 1979 erhielten Frauen teilweise formale Selbstständigkeit, Freiheit und Schulbildung. Die Taliban verpflichteten Mitte der 1990er Jahre alle Frauen zum Tragen einer Burka. Bei den Tadschiken und den anderen Volksgruppen war diese Tradition bis dahin nicht weit verbreitet. Die Burka-Pflicht wurde 2001 offiziell wieder aufgehoben, die Burka bleibt jedoch weiterhin die gewöhnliche Kleidung für die meisten Frauen. Nur wenige Frauen wagen es, sich ohne männliche Begleitung in der Öffentlichkeit zu bewegen. Übergriffe gegen Frauen sind in Kabul und anderen größeren Städten nicht selten – obwohl die Lage zumindest hier durch ausländische Truppenpräsenz einigermaßen stabil ist. Unter den Taliban war Frauen die Berufstätigkeit verboten, auch den Mädchen war es untersagt, eine Schule zu besuchen. Da es durch den Krieg allein in Kabul etwa 30.000 Witwen gab, waren diese völlig auf sich allein gestellt. Vielen blieb nichts anderes übrig, als zu betteln. Der Eheliche Beischlaf ist seit 2009 in Artikel 132 Gesetzes zur Regelung des Familienlebens verpflichtend. Dort steht: "Die Frau ist verpflichtet, den sexuellen Bedürfnissen ihres Mannes jederzeit nachzukommen." Nach Artikel 133 können Ehemänner ihre Frauen von unnötiger Beschäftigung abhalten. Und auch wenn Frauen das Haus verlassen wollen, müssen sie zuerst die Erlaubnis des Ehemanns einholen. Bildung. Die Analphabetenrate ist mit zirka 70 % im internationalen Vergleich sehr hoch. Invasion, Bürgerkrieg und die Kulturfeindlichkeit der Taliban ließen große Teile der Bevölkerung ohne jeden Zugang zu Bildung aufwachsen. Von diesem Ausschluss aus dem Bildungssystem besonders betroffen waren Frauen, so dass noch heute zirka 90 % aller Afghaninnen Analphabetinnen sind. Der Analphabetismus ist eines der größten Hindernisse beim Wiederaufbau des Landes. Mit dem Ende des Taliban-Regimes entstanden mit ausländischer Hilfe zahlreiche Schulen mit zum Teil neu ausgebildetem Lehrpersonal, so dass inzwischen ein großer Teil der Kinder und Jugendlichen, vor allem auch Mädchen, Zugang zu einer Schulbildung haben. In Afghanistan gibt es 13 Universitäten und acht Fachhochschulen sowie 30 private Hochschulen und Fachhochschulen. Finanziell gefördert werden lediglich Universitäten und Hochschulen, deren Namen aus den „bisherigen nationalen […] Fachausdrücken“ bestehen. Der afghanische Staat macht die staatliche Anerkennung und Förderung der Hochschulen und Universitäten des Landes in den nicht-paschtunischen Gebieten von der paschtunischen Benennung der Hochschule abhängig, was darin seine Begründung findet, dass Paschto eine der beiden Amts- und Landessprachen ist. In den paschtunischen Gebieten kann die persische Benennung der Hochschulen jedoch fehlen, ohne dort Sanktionen zu fürchten. Der letzte Absatz des Artikels 16 der Verfassung („die bisherigen nationalen […] und administrativen Fachausdrücke werden beibehalten“ – in Anspielung auf den Status der paschtunischen Sprache als Nationalsprache in der Zeit von Mohammad Zahir Khan, 1933–1973) hebt die vorangegangenen, eigentlich demokratischen Absätze über Sprachenfreiheit wieder auf. Flüchtlinge. Seit 1980 sind mehr als sechs Millionen Afghanen in die benachbarte Islamische Republik Pakistan und den Iran geflohen. Viele kamen zwar zurück, doch durch die Kämpfe im Jahr 2001 entstand eine neue Flüchtlingswelle; Hunderttausende wurden innerhalb des Landes vertrieben. Mit 3,2 Millionen Rückkehrern aus Pakistan und 860.000 aus dem Iran hat das UNHCR seit 2002 rund vier Millionen Afghanen bei ihrer Rückkehr ins Heimatland unterstützt. Etwa drei Millionen registrierte Afghanen befinden sich Ende 2007 noch im Exil, davon zirka zwei Millionen in Pakistan, insbesondere in Peschawar, und 910.000 im Iran. Die Aufnahme des Programms der freiwilligen Rückkehr aus Pakistan wird seit März 2008 fortgesetzt. Von der Antike bis zur Neuzeit. In der Antike gehörte das Gebiet des heutigen Afghanistan, das dem Osten des antiken „Aryānām Xšaθra“ entspricht, zum Perserreich. Später entstand in Baktrien ein Griechisch-Baktrisches Königreich, das von den Nachkommen der Truppen Alexanders des Großen regiert wurde. Das Gebiet wurde anschließend von verschiedenen Gruppen beherrschaft und lag im Grenzgebiet zum Parther- und Sassanidenreich. In der Spätantike siedelten dort die sogenannten iranischen Hunnen, bevor deren letztes Herrschaftsgebilde, das Hephthalitenreich, von Sassaniden und Göktürken vernichtet wurde. Nach dem Fall der Sassaniden im Zuge der Invasion der muslimischen Araber (siehe Islamische Expansion) und dem langsamen Zerfall des Kalifats der Abbasiden, dominierten dort iranische Dynastien, die dem Kalifat höchstens nominell unterstanden. Der Islam setzte sich dennoch in dieser Region verhältnismäßig langsam durch. Erst gegen Ende des 10. Jahrhunderts, mit der Eroberung der Region durch türkische Nomaden und Militärsklaven (unter anderem die Ghaznawiden und Seldschuken), sollen nach einer islamischen Chronik die meisten Einwohner im Raum Ghor (zwischen Herat und Kabul) Muslime gewesen sein. In dieser Zeit, unter den Ghaznawiden und Ghuriden, war das heutige Afghanistan das Kernland mächtiger Großreiche. Vom 16. bis zum 18. Jahrhundert stand die Region im Mittelpunkt der Konflikte zwischen den persischen Safawiden im Westen, dem indischen Mogulreich im Südosten und den usbekischen Scheibaniden im Norden. Aufstieg der Paschtunen. Die Geschichte des modernen Afghanistan ist unzertrennlich mit der nationalen Geschichte der Paschtunen verbunden. Unzählige paschtunische Aufstände gegen die jeweiligen Herrscher (persische Safawiden und indische Mogulen) führten schließlich mit dem Aufstand des Stammes Ghilzai (1719) zum Sturz der Safawiden in Persien (1722). Dieser Sieg der Paschtunen hielt aber nicht lange an. Nur sieben Jahre später wurden sie von Nadir Schah besiegt und zurück nach Kandahar verdrängt. Durch die folgenden Eroberungen Nadir Schahs (1736–1747) erlangte das persische Reich vorübergehend wieder die Gewalt über die Region, die heute "Afghanistan" heißt. Nach dessen Ermordung übernahm der Stamm der Durranis, die mit Nadir Schah gegen die Ghilzai verbündet waren und unter seinem Befehl kämpften, selbständig die Macht. Staatsgründung und Namensgebung. Der Paschtune Ahmad Schah Durrani begründete im Jahr 1747 nach dem Tod Nadir Schah Afschars, im Osten seines Reiches, ein selbstständiges, paschtunisches Königreich, das als Vorgänger des modernen Staates Afghanistan betrachtet werden kann. Damit gilt er allgemein als der Begründer Afghanistans. Das von Ahmed Schah Durrani gegründete Reich zerbrach später an inneren Streitigkeiten und Einmischungen von außen. Wenig später geriet Afghanistan in den Einflussbereich der expandierenden Briten. Der Name „Afghanistan“ wurde erst im 19. Jahrhundert eingeführt und erst 1919 als Staatsname etabliert. Einflussbereich britischer und russischer Interessen. In Afghanistan kollidierten russische und britische Kolonialinteressen (The Great Game). Seit der Aufstellung der Kaiserlich Russischen Marine durch Zar Peter den Großen war es Ziel russischer Expansionspolitik, zum Indischen Ozean vorzustoßen und dort einen eisfreien Hafen zu bauen. Um Russland zuvorzukommen, sollte Afghanistan erobert und als Teil des Britischen Weltreichs an das spätere Britisch-Indien angegliedert werden. Dazu kämpfte 1839–1842 eine große anglo-indische Armee im ersten Anglo-Afghanischen Krieg gegen einen relativ schlecht ausgerüsteten afghanischen Widerstand. Die Briten konnten zwar das Land besetzen, jedoch nicht ihre Ziele durchsetzen. 1842 wurde ein Waffenstillstand vereinbart, bei dem die Briten sich bereit erklärten, ihre Truppen zurückzuziehen. Diese wurden jedoch kurz darauf am Chaiber-Pass angegriffen und alle Soldaten, darunter 690 britische und 2840 indische, aber auch 12.000 Zivilisten getötet. Als Reaktion auf diese Niederlage wurde eine Strafexpedition unter Generalmajor George Pollock entsandt, die am 15. September 1842 Kabul einnahm. Schon am 11. Oktober 1842 zogen sich die britischen Truppen aus Kabul und in der Folge aus Afghanistan vollständig zurück. Dieser Krieg hatte zur Folge, dass die britische Kolonialverwaltung lange Zeit keine direkten weiteren Aktionen in Afghanistan unternahm und erschwerte ihre politisch-wirtschaftlichen Bestrebungen wie die Kontrolle der Handelswege in Zentralasien und den von dort versuchten Angriff auf die chinesische Qing-Dynastie. Die Katastrophe in Afghanistan erregte auch viele Inder, da die britisch-indische Armee zu einem großen Teil aus Belutschen bestand. Angetrieben durch die vorangegangene Demütigung erklärte 1878 die britische Regierung erneut den Krieg gegen Afghanistan. Trotz kleiner militärischer Erfolge der Afghanen im zweiten Anglo-Afghanischen Krieg, wie bei der Schlacht von Maiwand 1880, wurde der Widerstand von den Briten niedergeschlagen, die Hauptstadt Kabul aus Rache niedergebrannt und eine Marionette als König installiert. Gleichzeitig übernahmen die Briten für die folgenden 40 Jahre die afghanische Außenpolitik. Aufgrund vieler Aufstände in Afghanistan wurde 1893 das Land durch die Durand-Linie von den Briten geteilt und das süd-östliche Gebiet (die heutigen pakistanischen Provinzen NWFP, FATA und ein kleiner Teil Belutschistans) der indischen Kronkolonie einverleibt. Um diese Linie kontrollieren zu können, wurde das aus Afridis, einem Paschtunenstamm, bestehende Regiment Khyber Rifles im Jahr 1880 aufgestellt, da sich nur Einheimische in diesem Gebiet ungehindert bewegen können. Das Regiment besteht auch heute noch als Bestandteil der Pakistanischen Armee. Der dritte anglo-afghanische Krieg im Mai 1919 – ein letzter Versuch Afghanistans, sich von den britischen Kolonialbestrebungen zu befreien – führte schließlich durch geschicktes Verhandeln der afghanischen Diplomaten unter Amanullah Khan (die Afghanen drohten den Briten, sich Russland weiter anzunähern) zum Vertrag von Rawalpindi und am 8. August 1919 zur Anerkennung Afghanistans als souveräner und unabhängiger Staat durch Großbritannien. Somit hatte Afghanistan nach mehr als 60 Jahren britischer Vorherrschaft seine volle Unabhängigkeit erlangt, während ein großer Teil der Gebiete wie Teile der pakistanischen Nordwestprovinz als frontier area auch als tribal area (Stammesgebiete unter Bundesverwaltung) bezeichnet, an die Briten verlorenging und später dem Staat Pakistan zugesprochen wurde. Das unabhängige Afghanistan bildete einen Puffer zwischen russischen und britischen Interessen. Dies schlug sich auch in der Grenzziehung nieder und ist noch heute am Wachan-Korridor ersichtlich. Afghanistan nach der Unabhängigkeit. Seit 1933 bestand mit Mohammed Sahir Schah (Mohammedzai) an der Spitze ein konstitutionelles Königreich. Seit 1946 ist Afghanistan Mitglied der Vereinten Nationen. 1973 stürzte der sich an die Sowjetunion anlehnende Mohammed Daoud Khan das Königshaus und rief die Republik aus. Nach Daouds Sturz 1978 in der Saurrevolution übernahm die von Nur Muhammad Taraki geführte, kommunistisch geprägte Demokratische Volkspartei Afghanistans die Macht in Kabul, rief die "Demokratische Republik Afghanistan" aus und versuchte mit sowjetischer Unterstützung eine gesellschaftliche Umgestaltung, zum Beispiel eine Alphabetisierung der Landbevölkerung. Diese stieß in einigen Regionen auf militärischen Widerstand. Mit dem Einmarsch sowjetischer Truppen im Dezember 1979 entwickelte sich der Bürgerkrieg zu einem zehnjährigen Stellvertreterkrieg (→ Sowjetische Intervention in Afghanistan) zwischen sowjetischer Besatzungsmacht und den von den Vereinigten Staaten, Saudi-Arabien und Pakistan unterstützten islamischen Guerillas (Mudschaheddin). Dieser endete schließlich mit dem Abzug der sowjetischen Truppen 1989. Die sowjetisch gestützte Regierung unter Präsident Mohammed Nadschibullāh konnte sich noch bis zur Einnahme Kabuls 1992 durch die Mudschahedin halten. Im April 1992 wurde der Islamische Staat Afghanistan durch die Peschawar-Abkommen gegründet. Gulbuddin Hekmatyār begann mit der Unterstützung Pakistans einen jahrelangen Krieg in Kabul gegen den Islamischen Staat, der weite Teile Kabuls zerstörte. Zusätzlich kam es zum grausamen Krieg zwischen weiteren befeindeten Milizen. Der Süden Afghanistans war weder unter der Kontrolle der Zentralregierung noch unter der Kontrolle von außen kontrollierter Milizen wie der Hekmatyārs. Lokale Milizen- oder Stammesführer beherrschten den Süden. 1994 traten die Taliban in der südlichen Stadt Kandahar erstmals in Erscheinung. Die Taliban-Bewegung stammte ursprünglich aus religiösen Schulen für afghanische Flüchtlinge in Pakistan, die meist von der politischen pakistanischen Partei Dschamiat Ulema-e-Islam geführt wurden. Im Laufe des Jahres 1994 übernahmen die Taliban die Macht in verschiedenen südlichen und westlichen Provinzen Afghanistans. Ende 1994 gelang es dem afghanischen Verteidigungsminister Ahmad Schah Massoud, Hekmatyār und die verschiedenen Milizen militärisch in Kabul zu besiegen. Die Bombardierung der Hauptstadt wurde gestoppt. Massoud initiierte einen landesweiten politischen Prozess mit dem Ziel nationaler Konsolidierung und demokratischer Wahlen. Es fanden drei Konferenzen mit Vertretern aus vielen Teilen Afghanistans statt. Massoud lud die Taliban ein, sich diesem Prozess anzuschließen und sich an der Schaffung von Stabilität zu beteiligen. Die Taliban lehnten jedoch ab. Statt einer Demokratie wollten sie ein islamisches Emirat errichten. Anfang 1995 starteten die Taliban großangelegte Bombenkampagnen gegen Kabul. Amnesty International schrieb: Die Taliban erlitten gleichwohl eine Niederlage gegen die Truppen Massouds. Im September 1996 hatten sie sich mit militärischer Unterstützung Pakistans und finanziellen Hilfen aus Saudi-Arabien bereits wieder neu formiert und planten eine erneute Großoffensive gegen Kabul. Am 26. September 1996 befahl Massoud daher einen strategischen Rückzug seiner Truppen in den Norden Afghanistans. Am 27. September 1996 marschierten die Taliban in Kabul ein und errichteten das "Islamische Emirat Afghanistan", das lediglich von Pakistan, Saudi-Arabien und den Vereinigten Arabischen Emiraten anerkannt wurde. Die Regierung des Islamischen Staates Afghanistans, zu der der Verteidigungsminister Massoud gehörte, blieb jedoch die international anerkannte Regierung Afghanistans (mit Sitz bei den Vereinten Nationen). Ahmad Schah Massoud und Raschid Dostum, frühere Gegner, gründeten die "Vereinte Front", ursprünglich als Reaktion auf massive Talibanoffensiven gegen die Gebiete unter Kontrolle Massouds auf der einen und Dostums auf der anderen Seite. () Schon bald entwickelte sich aus der Vereinten Front jedoch eine neue, nationale Widerstandsbewegung gegen die Taliban. Ahmad Schah Massoud verfolgte das Ziel, mit Hilfe der Vereinten Front eine demokratische Staatsform in Afghanistan zu errichten, welche die Vielfältigkeit Afghanistans repräsentieren würde. Der Vereinten Front traten die von den Taliban durch "ethnische Säuberungen" verfolgte Volksgruppe der Hazara bei, ebenso wie paschtunische Taliban-feindliche Führer wie der spätere Präsident Hamid Karzai, der aus dem Süden Afghanistans stammt. Ähnlich verlief es bei Abdul Qadir, er entsprang einer einflussreichen Familie, die großen Einfluss im paschtunischen Osten Afghanistans um Dschalalabad genoss. Ahmad Schah Massoud blieb der einzige Kommandeur, der seine Gebiete ab 1998 erfolgreich gegen die Taliban verteidigen konnte. Pakistan intervenierte militärisch auf Seiten der Taliban, konnte jedoch keine Niederlage Massouds herbeiführen. Der pakistanische Präsident Pervez Musharraf – damals unter anderem als Stabschef des Militärs – entsandte zehntausende Pakistaner, um an der Seite der Taliban und al-Qaida gegen die Truppen Massouds zu kämpfen. Insgesamt gehen Schätzungen von 28.000 pakistanischen Staatsbürgern, die innerhalb Afghanistans kämpften, aus. Weitere 3000 Soldaten auf Seiten der Taliban waren Milizionäre aus arabischen Ländern oder Zentralasien. Die Taliban setzten in den von ihnen kontrollierten Gebieten ihre politische und juristische Interpretation des Islam durch. Die Frauen, also die Hälfte der Bevölkerung, lebten quasi unter Hausarrest. Nach einem Bericht der Vereinten Nationen begingen die Taliban systematische Massaker unter der Zivilbevölkerung, während sie versuchten, ihre Kontrolle im Westen und Norden Afghanistans zu konsolidieren. Die Vereinten Nationen benannten 15 Massaker in den Jahren 1996 bis 2001. Diese seien „höchst systematisch gewesen und alle auf das Verteidigungsministerium [der Taliban] oder Mohammed Omar persönlich zurückzuführen.“ Die sogenannte "055 Brigade" al-Qaidas war ebenfalls an Greueltaten gegen die afghanische Zivilbevölkerung beteiligt. Der Bericht der Vereinten Nationen zitiert Zeugenaussagen, die beschreiben, dass arabische Milizionäre lange Messer mit sich trugen, mit denen sie Kehlen aufschnitten und Menschen häuteten. Anfang 2001 wandte die Vereinte Front eine neue Strategie von lokalem militärischem Druck und einer globalen politischen Agenda an. Ressentiments und Widerstand gegen die Taliban, ausgehend von den Wurzeln der afghanischen Gesellschaft, wurden nun immer stärker. Dies betraf auch die paschtunischen Gebiete. Insgesamt flohen schätzungsweise eine Million Menschen vor den Taliban. Hunderttausende Zivilisten flohen in die Gebiete von Ahmad Schah Massoud. Der National Geographic Society kam in seiner Dokumentation "Inside the Taliban" zu dem Schluss: Im Frühling 2001 sprach Massoud vor dem Europäischen Parlament in Brüssel und bat die internationale Gemeinschaft um humanitäre Hilfe für die Menschen Afghanistans. Er erklärte, dass die Taliban und al-Qaida eine „sehr falsche Interpretation des Islam“ eingeführt hätten und dass die Taliban, wenn sie nicht die Unterstützung Pakistans hätten, ihre militärischen Kampagnen in dem Zeitraum eines Jahres nicht mehr aufrechterhalten könnten. Auf seinem Besuch nach Europa, bei dem ihn die europäische Parlamentspräsidentin Nicole Fontaine den „Pol der Freiheit in Afghanistan“ nannte, warnte Massoud davor, dass sein Geheimdienst Informationen habe, denen zufolge ein großangelegter Anschlag auf amerikanischem Boden unmittelbar bevorstehe. Nach den Anschlägen vom 11. September 2001. Zwei Tage nach der Ermordung Massouds wurden terroristische Anschläge in den Vereinigten Staaten verübt, die zum Tod von mindestens 2.993 Menschen führten und als terroristischer Massenmord angesehen werden. Die Vereinigten Staaten identifizierten Mitglieder der Al-Qaida des aus Saudi-Arabien stammenden Osama bin Laden, die ihre Basis in dem Emirat der Taliban hatte und mit den Taliban verbündet war, als Täter der Terroranschläge des 11. Septembers 2001. mini Daraufhin begannen die Vereinigten Staaten im Oktober 2001 eine Invasion Afghanistans mit Hilfe eines Militärbündnisses unter ihrer Führung. Die US-Regierung unter Präsident George W. Bush nutzte als Legitimimation dieser Invasion einen Entschluss des Sicherheitsrats der Vereinten Nationen, der ihnen das Recht zur Selbstverteidigung zusprach. Infolge dieser Invasion gelang es, die in den meisten Regionen Afghanistans herrschenden Taliban zu stürzen, wobei die Vereinte Front den Großteil der Bodentruppen stellte. Im Dezember 2001 trafen sich Führer der Vereinten Front sowie afghanischer Exilgruppen auf der Petersberger Konferenz in Bonn, wo sie sich auf das sogenannte „Petersberger Abkommen“ einigten, das einen Stufenplan zur Demokratisierung des Landes sowie die Bildung einer provisorischen Regierung mit dem Durrani-paschtunischen Stammesführer Hamid Karzai als Vorsitzenden vorsah. Mitglieder der siegreichen Vereinten Front übernahmen Schlüsselpositionen in der neuen Regierung. Außerdem wurde um die Stationierung einer einem Mandat der Vereinten Nationen unterstellten internationalen Truppe ersucht, um die Sicherheit der provisorischen Regierung zu gewährleisten. Diese Aufgabe übernahm die internationale Afghanistan-Schutztruppe International Security Assistance Force (ISAF). Die provisorische Regierung wurde im Juni 2002 durch eine von einer landesweiten außerordentlichen Loja Dschirga bestimmten Übergangsregierung abgelöst, wiederum mit Karzai als Übergangspräsidenten an der Spitze. Ende 2003 wurde eine verfassungsgebende Loja Dschirga einberufen, welche die neue afghanische Verfassung im Januar 2004 ratifizierte. Die am 9. Oktober 2004 durchgeführte Präsidentschaftswahl bestätigte Karsai als nunmehr demokratisch legitimierten Präsidenten. Den Abschluss des im Petersberger Abkommen vorgesehenen Demokratisierungsprozesses markierten die Parlamentswahlen im September 2005, aus denen sich das erste frei gewählte afghanische Parlament seit 1973 konstituierte. Diese Wahlen sollten ursprünglich im Juni 2004 stattfinden, mussten aber aufgrund von Verzögerungen bei der Wahlregistrierung mehrmals verschoben werden. Viele Taliban flohen über die Durand-Linie nach Pakistan und formierten sich dort neu. 2003 traten sie erstmals wieder in Erscheinung. Seit Anfang 2006 verüben sie zusammen mit dem Haqqani-Netzwerk und der Hizb-i Islāmī von Gulbuddin Hekmatyār verstärkt Anschläge gegen afghanische Zivilisten und Soldaten der ISAF. Selbstmordattentate, die vorher in Afghanistan völlig unbekannt waren, und Bombenanschläge auf nichtmilitärische Ziele nahmen stark zu. Babak Chalatbari beschrieb in einem Artikel für die Bundeszentrale für politische Bildung die Motive des „Terrors der Taliban“ wie folgt: „Die terroristische Taktik hinter der massiven Einschüchterung zielt darauf ab, dass kaum noch jemand wagt, sich den Auffassungen der theologisch meist nicht sonderlich ausgebildeten Masterminds der Taliban zu widersetzen.“ Die Zahl der versuchten und ausgeführten Selbstmordanschläge nahmen von drei im Jahr 2003 auf 106 im Jahr 2006 stark zu, zu denen sich meist die Taliban – insbesondere das Haqqani-Netzwerk – bekannten. Im Süden und Osten von Afghanistan existieren Gebiete, die von ausländischen Hilfsorganisationen und auch ISAF-Truppen gemieden werden. mini Pakistan spielt eine zentrale Rolle in Afghanistan. Ein Bericht der London School of Economics and Political Science aus dem Jahr 2010 sagt aus, dass der pakistanische Geheimdienst (ISI) eine „offizielle Politik“ der Unterstützung der Taliban betreibe. Der ISI finanziere und bilde die Taliban aus. Dies passiert, obwohl Pakistan sich offiziell als Verbündeten der NATO ausgibt. Der Bericht der London School of Economics kam 2010 zu dem Schluss: „Pakistan scheint ein Doppelspiel erstaunlichen Ausmaßes zu spielen.“ Amrullah Saleh, der ehemalige Geheimdienstchef Afghanistans, kritisierte 2010: „Wir reden über all diese Stellvertreter [Taliban, Haqqani, Hekmatyar], aber nicht ihren Meister: Die pakistanische Armee. Die Frage ist, was will Pakistans Armee erreichen […]? Sie wollen an Einfluss in der Region gewinnen.“ Die Taliban und Gulbuddin Hekmatyārs Truppen richten sich in Anschlägen gezielt gegen die afghanische Zivilbevölkerung. Im Jahr 2009 waren sie laut Angaben der Vereinten Nationen für über 76 % der Opfer unter afghanischen Zivilisten verantwortlich. Auch im Jahr 2010 waren die Taliban für über ¾ der zivilen Todesopfer in Afghanistan verantwortlich. Zivilisten sind mehr als doppelt so häufig das Ziel tödlicher Anschläge der Taliban wie afghanische Regierungstruppen oder ISAF-Truppen. Die ‚Afghanistan Independent Human Rights Commission‘ (AIGRC) nannte die gezielten Anschläge der Taliban gegen die Zivilbevölkerung ein „Kriegsverbrechen“. Religiöse Führer verurteilten die Anschläge der Taliban als Verstoß gegen die islamische Ethik. Menschenrechtsgruppen haben den Internationalen Gerichtshof in Den Haag dazu veranlasst, eine vorläufige Untersuchung gegen die Taliban auf Grund von Kriegsverbrechen vorzunehmen. In jüngster Vergangenheit kam es zu Spannungen zwischen Elementen der ehemaligen Vereinten Front und Hamid Karzai, nachdem dieser die Taliban als „Brüder“ bezeichnet hatte. Elemente um den ehemaligen Geheimdienstchef Amrullah Saleh und andere befürchten, dass Karzai ein Abkommen mit den Taliban und Gulbuddin Hekmatyār schließen könnte, das eine Rückkehr der Taliban abseits des demokratischen Prozesses ermöglicht. Eine Abspaltung von Gulbuddin Hekmatyārs Partei Hizb-i Islāmī gibt seit Herbst 2009 an, mit Karzai verbündet zu sein, und stellt mit Abdul Hadi Arghandiwal seit 2010 den Wirtschaftsminister (Stand 2014). Diese angeblichen Verbündeten Karzais ließen 2011 jedoch in öffentlichen Stellungnahmen keinen Zweifel an ihrer Loyalität gegenüber Hekmatyar. Der große Einfluss der Vereinten Front auf die Regierung wurde mit den Jahren reduziert. Bei der afghanischen Präsidentschaftswahl im August 2009 trat Abdullah Abdullah, ehemaliger Außenminister bis 2006 und einer der engsten Vertrauten Ahmad Schah Massouds, gegen Hamid Karzai an und galt als Mitfavorit. Bei der Stimmauszählung mehrten sich allerdings die Vorwürfe der internationalen Beobachter, dass massiver Wahlbetrug betrieben worden sei. Eine Beschwerdekommission ermittelte mehrere Wochen und gab Mitte Oktober bekannt, dass hunderttausende Stimmen ungültig seien. Damit verlor Amtsinhaber Karzai die absolute Mehrheit und es wurde eine Stichwahl zwischen diesem und Abdullah am 7. November 2009 vereinbart. Ende Oktober 2009, knapp eine Woche vor der Wahl, drohte Abdullah laut Medienberichten, sich von der Stichwahl zurückzuziehen. Vorausgegangen waren gescheiterte Gespräche mit Karzai. Abdullah hatte unter anderem die Entlassung des Vorsitzenden der umstrittenen Wahlkommission (IEC) gefordert, um eine „freie und faire“ Stichwahl ermöglichen zu lassen. Sechs Tage vor der geplanten Stichwahl erklärte er seinen Boykott der Abstimmung. Als seine Anhänger auf die Straßen ziehen wollten, hielt Abdullah sie zurück, um die fragile Stabilität Afghanistans nicht zu gefährden. Nach der Tötung von Osama bin Laden im Mai 2011 nahmen Anschläge auf prominente afghanische Politiker stark zu, so wurden unter anderem Expräsident Burhānuddin Rabbāni, Mohammed Daud Daud, Dschan Mohammed Chan und Präsident Karzais Halbbruder Ahmad Wali Karzai ermordet. Im Oktober 2011 begannen afghanische und NATO-Truppen eine Offensive gegen das Haqqani-Netzwerk im südöstlichen Grenzgebiet des Landes. 2014 wurde der erste demokratische Machtwechsel in Afghanistan durchgeführt, bei dem jedoch erneut massive Korruption und Fälschung vermutet wird. Aschraf Ghani, der neue Präsident, unterschrieb ein Abkommen mit der NATO, in dem die Nachfolgemission der Isaf, Resolute Support, legitimiert wurde. Diese begann am 1. Januar 2015 und unterstützt die afghanischen Sicherheitskräfte in der Ausbildung. Das Land wird seit 2015 auch vom Islamischen Staat bedroht und weiterhin von Seiten der Taliban mit einer Welle der Gewalt überrollt Im Oktober 2015 ereignete sich ein Erdbeben und verursachte den Tod von mindestens 347 Menschen (80 davon in Afghanistan). Politisches System. → "Hauptartikel: Politisches System Afghanistans" Seit der Verabschiedung der heute gültigen Verfassung im Jahr 2004 ist Afghanistan eine Islamische Republik mit einem präsidialen Regierungssystem. Die Verfassung gilt als eine der demokratischsten der islamischen Welt und sieht die Gleichberechtigung der Angehörigen aller Religionen und ethnischen Gruppen sowie der Geschlechter vor. Der Präsident wird direkt vom Volk für eine Dauer von fünf Jahren gewählt. Nach zwei Amtszeiten ist es dem Präsidenten verwehrt, wieder zu kandidieren. Ein Präsidentschaftskandidat muss mindestens 40 Jahre alt, Muslim und afghanischer Staatsbürger sein. Der Bewerber nominiert zwei Vizepräsidentschaftsbewerber. Der Präsident ist Staats- und Regierungsoberhaupt und Oberbefehlshaber der militärischen Streitkräfte. Zu seinen Befugnissen gehören außerdem die Bestimmung seines Kabinetts, sowie die Besetzung von Positionen im Militär, der Polizei und Provinzregierungen mit der Zustimmung des Parlaments. Die Nationalversammlung ist die Legislative von Afghanistan und besteht aus zwei Häusern: der Wolesi Dschirga ("Haus des Volkes") und der Meschrano Dschirga ("Haus der Älteren"). Die Wolesi Dschirga besteht aus 249 Sitzen, wobei 68 für Frauen und zehn für die Nomaden-Minderheit der Kutschis vorbehalten sind. Die Abgeordneten werden durch direkte Wahl bestimmt, wobei die Anzahl der Sitze im Verhältnis zur Einwohnerzahl der jeweiligen Provinz stehen. Es müssen mindestens zwei Frauen pro Provinz gewählt werden. Eine Legislaturperiode dauert fünf Jahre. Zur Wahl sind keine Parteien zugelassen. Auf dem Stimmzettel erscheinen der Name, das Foto und das Symbol des Bewerbers, dem keine Verbindung zu bewaffneten Organisationen erlaubt sind. Die Mandatsträger erhalten keine Immunität vor dem Gesetz. Die Meschrano Dschirga besteht zu je einem Drittel aus Delegierten, die von den Provinz- beziehungsweise Distrikträten für vier Jahre bestimmt werden sowie zu einem Drittel aus Abgeordneten, die vom Präsidenten bestimmt werden, wobei die Hälfte aus Frauen bestehen muss. Bei wichtigen, wegweisenden Entscheidungen wird zudem die Loja Dschirga, eine Versammlung aus Stammesführern und anderen moralischen und geistigen Oberhäuptern, zu Rate gezogen. Die Judikative setzt sich aus dem Stera Mahkama "(Oberster Gerichtshof)", dem Berufungsgericht und niederen Gerichten für bestimmte Zuständigkeiten zusammen. Der "Stera Mahkama" besteht aus neun Richtern, die vom Präsidenten für eine Amtszeit von zehn Jahren nominiert und vom Parlament bestätigt werden. Richter müssen mindestens das Alter von 40 Jahren erreicht haben, dürfen keiner politischen Partei angehören und müssen einen Abschluss in Jura oder islamischer Rechtsprechung vorweisen. Die "Stera Mahkama" hat auch die Befugnisse eines Verfassungsgerichtshofs. Parlament. Die Parlamentswahl in Afghanistan 2010 fand am 18. September 2010 statt. Es wurden 249 Abgeordnete aus rund 2500 Kandidaten gewählt. Durch die brisante Sicherheitslage gingen Schätzungen davon aus, dass bis zu 14 % der Wahllokale nicht geöffnet werden können. Afghanistan scheint nach Ansicht von Babak Chalatbari, „vor der Alternative zu stehen, erkannte Fehler zu korrigieren oder sich mit dem ungenügenden Status quo zu arrangieren. Die erste Option bedeutet einen zwar schmerzhaften, aber notwendigen Schritt in Richtung Transparenz, Verantwortung und gute Regierungsführung. Die zweite Option dagegen bedeutet Stagnation und beinhaltet das Risiko eines politischen Systemkollapses.“ „Manipulationen sind inzwischen integraler Bestandteil des afghanischen Wahlprozesses“, stellten Dr. Citha Maaß und Thomas Ruttig für die Parlamentswahl 2010 fest und machen diese beiden Gründe dafür verantwortlich, weshalb das Vertrauen in das Post-2001-System immer stärker schwindet, und die Aufstandsbewegung immer mehr Zuläufer findet. Zudem drohten die Taliban den Wählern mit dem Tode. Wahlen. Am 20. August 2009 fanden in Afghanistan die Wahlen für das Präsidentschaftsamt statt, gleichzeitig auch die Provinzratswahlen. Der damalige Amtsinhaber Hamid Karzai wurde dabei am 19. November 2009 erneut als Präsident vereidigt, nachdem in den Wochen davor eine geplante Stichwahl wegen des Rückzugs seines Mitstreiters Abdullah Abdullah abgesagt worden war. Der erste Wahlgang, bei dem Karzai eine notwendige absolute Mehrheit verfehlt hatte, war von Wahlmanipulationen und mehreren Bombenanschlägen in den Tagen zuvor überschattet. Afghanistan und Deutschland. Die deutsche Regierung gehörte zu den ersten Staaten, die die Regierung von Amanullah Khan und damit die Unabhängigkeit Afghanistans anerkannten. Zwischen deutschen Firmen und afghanischen Herrschern bestanden bereits seit 1898 Kontakte, diplomatische Beziehungen pflegten beide Länder jedoch erst ab 1922. Internationale Organisationen. Afghanistan ist seit 1946 Mitglied der Vereinten Nationen. Es hat Beobachterstatus in der WTO und ist Vertragsstaat des ICC. Daneben ist es Mitglied der Organisation für Islamische Zusammenarbeit sowie Mitglied der Bewegung der Blockfreien Staaten. Seit 2007 ist Afghanistan zudem vollständiges Mitglied der SAARC (Südasiatische Vereinigung für regionale Kooperation). Menschenrechte. Amnesty International dokumentierte in zahlreichen Hafteinrichtungen in Afghanistan Folter und Misshandlungen. Journalisten wurden festgenommen, geschlagen oder getötet. Die Todesstrafe wird immer noch vollzogen. Viele Kinder werden in Afghanistan zwangsverheiratet und häusliche Gewalt ist weit verbreitet. Weiterhin gibt es Kindesmissbrauch ("bacha bazi"). Verfolgung der Hazara. Ende des 19. Jahrhunderts erlitten die Hazara aufgrund ihrer ethnischen und religiösen Zugehörigkeit einen von dem paschtunischen Emir Abdur Rahman Khan zu verantwortenden Völkermord. Bis heute werden die Hazara in Afghanistan diskriminiert und verfolgt.Beleg/Quelle? Provinzen. Afghanistan gliedert sich in 34 Provinzen ("velayat"), die wiederum in 329 Distrikte ("woluswali") unterteilt sind. Den Provinzen steht jeweils ein Gouverneur ("waali") vor, der von der Regierung in Kabul ernannt oder bestätigt wird. Sicherheitskräfte. Seit dem Sturz der Taliban haben die an der "ISAF" beteiligten Nationen großes Interesse daran, den Afghanen auch auf dem Gebiet der Sicherheitspolitik wieder volle Souveränität garantieren zu können. Deshalb bauen sie unter Führung der Vereinigten Staaten Polizei, Militär und Geheimdienst auf. Die afghanischen Streitkräfte mit dem Namen "Afghanische Nationalarmee" kurz ANA verfügen zurzeit über ca. 150.000 Mann (Stand Januar 2011). Bis Oktober 2014 ist eine Truppenstärke von etwa 260.000 Mann angestrebt. Da der Aufbau und Unterhalt einer einsatzfähigen Luftwaffe teuer ist, übernehmen die Vereinigten Staaten die Sicherung des afghanischen Luftraums. Die Notwendigkeit einer afghanischen Luftwaffe wird zurzeit debattiert, aufgrund der geographischen Gegebenheiten gilt diese aber als vorhanden. Die Kommandostruktur orientiert sich an der der Vereinigten Staaten. So soll Afghanistan unter militärisch sinnvollen Regionalkommandos aufgeteilt werden, vergleichbar den US-Streitkräften. Vorrangiges Ziel bleibt aber zunächst die Verbesserung von Ausbildung, Moral und Ausrüstung sowie die Bereinigung des Militärs von Spionen und Saboteuren. Die Streitkräfte unterstehen Verteidigungsminister Abdul Rahim Wardak. In Zusammenarbeit mit Deutschland und der EU bilden die Vereinigten Staaten zurzeit afghanische Polizisten aus, derer es ca. 80.000 geben soll (Stand März 2009). Auch hier orientiert sich der Aufbau an den Vereinigten Staaten, zum Beispiel mit einer Art "Highway Police". Derzeit ist die afghanische Polizei zentral organisiert, was aber angesichts des Verfassungsgebungsprozesses und der noch nicht abgeschlossenen Bewertung aller Faktoren ein Provisorium darstellt. Der neu gegründete afghanische Geheimdienst, die Nationale Sicherheitsdirektion (NDS) unterstützt die afghanische Regierung durch Informationsgewinnung und -auswertung. Ausländische Truppenpräsenz. Im Rahmen des ISAF-Mandates sind 132.203 Soldaten aus 48 Staaten in Afghanistan stationiert. Das größte Kontingent stellen die Vereinigten Staaten mit 90.000 Soldaten. Deutschland beteiligt sich mit 4909 Soldaten, die im Norden des Landes stationiert sind. Die ISAF stellt 28 Provincial Reconstruction Teams (PRT). Weitere etwa 14.000 Soldaten der Vereinigten Staaten im Rahmen der Operation Enduring Freedom sind nicht dem ISAF-Kommando unterstellt. Die größten alliierten Militärbasen sind die Bagram Air Base und "Kandahar Airfield" beim Flughafen Kandahar. Landminen. Afghanistan ist stark mit Landminen belastet. Nach Angaben des UNMAP ist das Land auf 530 km² mit 10 Millionen Minen kontaminiert. Die Hauptstadt Kabul gilt als am stärksten von Landminen belastete Stadt der Welt. Ein Großteil der Minen stammt aus der Sowjetunion. Es wurden jedoch auch Minen aus Belgien, Italien, den Vereinigten Staaten und Großbritannien gefunden. Die Minen stellen eine ständige Gefahr für die Einwohner dar. Alleine im Jahr 2002 zählte das Rote Kreuz 1286 Landminenopfer, wobei man von einer hohen Dunkelziffer ausgeht. Afghanistan ist im Jahr 2002 dem Vertrag von Ottawa zum Verbot von Landminen beigetreten. Es besteht jedoch der Verdacht, dass die Taliban zur Bekämpfung der ausländischen Militärpräsenz seitdem weiter Minen eingesetzt haben. Wirtschaft. Nach zwei Jahrzehnten Krieg war die Wirtschaft des Landes im Jahr 2001 weitgehend zerstört, ebenso ein Großteil der Viehbestände. Das Bruttoinlandsprodukt lag im Jahr 2003 bei geschätzten 20 Milliarden US-Dollar. Damit zählte Afghanistan zu den ärmsten Staaten weltweit. Bei der Entstehung des BIP war der Landwirtschaftssektor mit geschätzten 60 % beteiligt, die Industrie mit geschätzten 15 % und Dienstleistungen mit geschätzten 25 %. Bis zum Jahr 2008 sank der Anteil des Landwirtschaftssektors auf 31 %, die Anteile der Industrie und des Dienstleistungssektors stiegen dagegen auf 26 % und 43 %. Im Wirtschaftsjahr 2008/2009 lag das Wirtschaftswachstum bei 3,6 %. Der Grund für das niedrige Wachstum lag vor allem am fast vollständigen Ausfall der Getreideernte durch eine Dürre. 2009/2010 stieg das Wachstum auf 15 % an. Trotz bestehender Probleme wie mangelhafte Infrastruktur, teils unsicherer Sicherheitslage und Korruption haben in den letzten Jahren große Investitionen in Afghanistan stattgefunden: Verschiedene staatliche Unternehmen wurden privatisiert, durch den Krieg zerstörte Industrie wurde wieder aufgebaut. Die im Jahr 2003 gegründete Afghanistan Investment Support Agency (kurz: AISA) registriert neue Unternehmen und betreut Investoren bei Problemen nach der Unternehmensgründung. Zu den wichtigsten Handelspartnern zählt neben Staaten der Region, vor allem Pakistan und der Iran, auch die Europäische Union. Landwirtschaft. Obwohl nur etwa 6 % der Staatsfläche landwirtschaftlich nutzbar sind und diese Nutzung meist von künstlicher Bewässerung abhängt, sind 67 % der Bevölkerung in der Landwirtschaft tätig (Stand 2001). Weitreichende Waldrodungen, Überweidung der Böden und unkoordiniertes Abpumpen von Grundwasser während der Bürgerkriegsjahre bewirkten einen Rückgang der landwirtschaftlich nutzbaren Ressourcen des Landes. Dadurch ist die Versorgung des Landes empfindlicher gegenüber Dürren und anderen Naturkatastrophen geworden. So sind die Ernten regelmäßig durch Dürren bedroht, die in ihrer Häufigkeit und Intensität in den letzten drei Jahrzehnten zugenommen haben. Dabei trockneten in manchen Fällen bestimmte Flüsse und Seen völlig aus. Teile der Bevölkerung sind auf Nahrungsmittelhilfen angewiesen. Eine Reihe von Organisationen befassen sich daher mit der Erhebung, Überwachung und dem Entwickeln von Nutzungskonzepten der Wasserressourcen des Landes. Afghanistan ist der größte Opiumproduzent der Welt. Im Juli 2000 wurde der Opiumanbau durch das Taliban-Regime verboten, worauf die Opiumproduktion völlig einbrach und im Jahre 2001 fast auf null sank. Nach dem US-geführten Krieg stieg die Produktion wieder an und ist seit 2004 höher als in den Jahren zuvor. 2006 betrug der Handel mit Opium 46 Prozent des Bruttoinlandsprodukts. Die Anbaufläche für Schlafmohn stieg seit der Beseitigung des Taliban-Regimes kontinuierlich, im Jahr 2006 erneut um 59 Prozent auf rund 193.000 Hektar. Nach Angaben des Büros der Vereinten Nationen für Drogen- und Verbrechensbekämpfung (UNODC) wurden im Jahr 2006 über 6000 Tonnen Opium geerntet, das entspricht 92 Prozent der gesamten Weltproduktion. Der Exportwert dieses Opiums liegt nach Angaben des Außenministeriums der Vereinigten Staaten bei 3,1 Milliarden US-Dollar, dagegen liegt der Straßenpreis bei rund 38 Milliarden US-Dollar. Im Herbst 2007 wurden in Afghanistan rund 8200 Tonnen Opium geerntet, davon mehr als die Hälfte in der afghanischen Provinz Helmand. Das übersteigt den weltweiten Verbrauch um 3000 Tonnen. Der einzelne Opiumfarmer erzielt hierbei etwa 122 US-Dollar pro Kilogramm Opium („farm gate price“). Somit ist für diesen der Schlafmohnanbau um etwa das Zehnfache lukrativer als der Weizenanbau. Afghanistan ist auch größter Ertragsproduzent von Haschisch wie 2010 von der UNODC festgestellt wurde. Nach Angaben der UNODC-Studie werden in Afghanistan pro Hektar 145 Kilogramm Cannabisharz gewonnen. In Marokko, dem größten Cannabisanbauland der Welt, sind es zum Vergleich pro Hektar nur 40 Kilogramm. Zur Bekämpfung der Drogenkriminalität wird in Afghanistan seit dem Jahr 2002 die „Counter Narcotics Police of Afghanistan“ (CNPA) aufgebaut. Im Rahmen von Felderzerstörungen der afghanischen Drogenvernichtungseinheit "(Afghan Eradiction Force)" und der nationalen Polizei wird seit 2005 in zunehmendem Umfang der Opiumanbau bekämpft. Nachteil dieser von westlichen Geberländern geforderten Maßnahme ist, dass zahlreiche Bauern, deren Lebensgrundlage zerstört wurde, zu Anhängern lokaler Kriegsherren wurden, ein Grund für die Verschlechterung der Sicherheitslage seit dieser Zeit. Ein wirtschaftlich negativer Effekt ist, dass Marktverknappung der derzeitigen Überschussproduktion den Drogenhändlern in die Hände spielt, weil er die Preise steigen lässt. 2003 betrug bei einer Ernte von 4000 Tonnen das von den Bauern erzielbare Bruttoeinkommen noch das 27-fache des Weizenanbaus. Der erneute Anbau von Opium wird durch die Vernichtung von Feldern lukrativer, die politische Macht der Drogenbarone wird dagegen nicht angegriffen. Bergbau und Industrie. Die bedeutendsten Bodenschätze sind neben Eisen- und Kupfererzen, Erdgas, Kohle und Schmucksteinen (hauptsächlich Lapislazuli) auch Erdöl, von dem im Jahr 2006 im Norden des Landes Lagerstätten entdeckt wurden, die das 18-fache der ursprünglich geschätzten Menge enthalten. Bereits im Jahr 1991 ergab eine US-Studie, dass durch den Abbau von Bodenschätzen genügend Profit erzielt werden könnte, um damit den Wiederaufbau des Landes zu finanzieren. Zahlreiche der früher ausschließlich als Staatseigentum angesehenen Minen und Lagerstätten wurden inzwischen privatisiert, was die Beteiligung ausländischer Investoren erst ermöglicht. Bei Erhebungen des möglichen Abbaus vorhandener nicht-fossiler Bodenschätze wurden 20 Lagerstätten identifiziert, die das Potenzial für einen wirtschaftlichen Abbau besitzen sollen. Voraussetzung für einen Produktionsbeginn ist jedoch eine ausreichende Sicherheitslage, die vielerorts noch nicht gegeben ist. Die mit 5,5 bis 11,3 Millionen Tonnen bedeutenden Vorkommen von Kupfererzen bei Aynak, nur etwa 30 km südlich der Hauptstadt, werden künftig von einem chinesischen Unternehmen abgebaut. Ende 2007 wurde beschlossen dort innerhalb von fünf Jahren eine Mine zu errichten, die dem Land langfristig Einnahmen in der Höhe von 2,9 Milliarden US-Dollar bescheren soll. 2010 wurden von Geologen aus den Vereinigten Staaten zudem große Vorkommen an Bodenschätzen in beträchtlicher Höhe entdeckt. So soll Afghanistan zum Beispiel über Vorkommen an Lithium verfügen wie bisher nur Bolivien. Weitere Funde betreffen erneut Eisen und Kupfer sowie Niob, Cobalt, Gold, Molybdän, seltene Erden und Asbest. Der Wert der neuerlichen Funde wird auf über 1 Billion US-Dollar geschätzt. Für den Abbau der Bodenschätze wären jedoch weitere Studien sowie größere Investitionen in Infrastruktur und Sicherheitslage notwendig. Tourismus. In Kabul sind einige Hotels und Gästehäuser für Ausländer geöffnet. Reisen außerhalb der Hauptstadt sind gefährlich. Viele Kulturschätze wie zum Beispiel die berühmten Buddha-Statuen von Bamiyan wurden zerstört oder geplündert. Afghanistan veröffentlicht keine offiziellen Zahlen zum Tourismus. In den 1960er und 1970er Jahren führte der sogenannte Hippie trail von Europa nach Südasien durch Afghanistan. Für Afghanistan existiert eine Reisewarnung des Auswärtigen Amtes der Bundesrepublik Deutschland (Stand: 17. Dezember 2005). Reisen gelten als gefährlich, und von ihnen wird dringend abgeraten, da eine Rettung (besonders aus den Provinzen) im Unglücksfall nur unter "schwersten Bedingungen" möglich ist und "nicht garantiert" werden kann. Telekom-Industrie. 2008 wurde das Mobile-Payment mit M-Pesa von Afghanistans Telekomunternehmen Roshan und Vodafone eingeführt. Ab 2009 nutzte dann die Afghanische Nationalpolizei M-Pesa in einigen Landesteilen zur Bezahlung, wodurch nicht vorhandene Polizisten aufgespürt werden konnten und das übliche teilweise Einbehalten des Gehaltes, durch die oberen Polizeiränge, verhindert werden konnte. Staatshaushalt. Der Staatshaushalt umfasste 2007 Ausgaben von umgerechnet 3,3 Mrd. US-Dollar, dem standen Einnahmen von umgerechnet 1,1 Mrd. US-Dollar gegenüber, zusätzlich erhielt Afghanistan internationale Finanzhilfen in Höhe von 2,7 Mrd. US-Dollar. Daraus ergibt sich ein Haushaltsüberschuss in Höhe von 4,8 % des BIP. Die Staatsverschuldung betrug 2009 2,104 Mrd. US-Dollar oder 15,8 % des BIP. 2010 wurden Afghanistan von den Staaten des Pariser Clubs 441 Mio. US-Dollar erlassen, ein Erlass von weiteren 585 Mio. US-Dollar wird angestrebt. Bereits 2007 waren Afghanistan im Rahmen der HIPC-Initiative Staatsschulden in Milliardenhöhe erlassen worden, 2006 lag die externe Staatsschuld bei umgerechnet 11,6 Mrd. USD. Pipelines. Afghanistan wird bereits seit Jahrzehnten als mögliches Transitland für fossile Brennstoffe in Betracht gezogen; dies aufgrund seiner Lage zwischen den turkmenischen Erdöl- und Erdgasfeldern des Kaspischen Meeres und dem Indischen Ozean. Der Baubeginn der seit längerem geplanten Turkmenistan-Afghanistan-Pakistan-Pipeline (kurz: TAP), die Pakistan und gegebenenfalls Indien mit turkmenischem Erdgas beliefern würde, hätte 2006 stattfinden sollen. Das Projekt wurde aber aufgrund der unsicheren Sicherheitslage und unklarer Finanzierung auf unbestimmte Zeit verschoben und kommt möglicherweise nicht mehr zustande. Der Bau der Pipeline würde tausende Arbeitsplätze schaffen und dem Staat jährlich etwa 100 bis 300 Millionen US-Dollar an Transitgebühren einbringen. Energieversorgung. Nachdem die Taliban 2001 in Afghanistan von der Macht vertrieben wurden, war die elektrische Infrastruktur in weiten Teilen des Landes zerstört: 2003 hatten nur etwa 6–7 % der Bevölkerung Zugang zu elektrischem Strom, der jedoch nur etwa vier Stunden am Tag zur Verfügung stand. 30 % aller Stromanschlüsse des Landes befanden sich in Kabul, die damals vorhandenen 42 Kraftwerke leisteten nur mehr 240 MW anstatt den nominellen 454 MW. Afghanistans Energienetz war in den folgenden Jahren in miteinander nicht verbundene Teilnetze getrennt. Im Norden gab es Teilnetze zwischen einzelnen Gebieten und den Nachbarländern: Bei Scheberghan (Erdgasförderung und Verstromung in einem 100 MW Kraftwerk), bei Masar-e Scharif und bei Kunduz, im Osten gab es unverbundene Netze bei Kabul und Dschalalabad, im Westen bei Herat und im Süden ein Teilnetz zwischen Kandahar, Laschkar Gah, Musa Qala und der Kajakai-Talsperre. Nachdem in den ersten Jahren hauptsächlich lokale Wasserkraftwerke instand gesetzt wurden, wie etwa das Sarobi Wasserkraftwerk nahe Kabul, entstand der Plan für ein überregionales Energiesystem, das innerhalb weniger Jahre aufgebaut werden könnte. 2009 erreichten die ersten 90 Megawatt (später dann bis zu 150 Megawatt) Kabul über eine 442 Kilometer lange Stromtrasse aus Usbekistan, wobei mehrere Städte, die in der Nähe der Hochspannungsleitung liegen, zu diesem Zeitpunkt ebenfalls angeschlossen wurden, zum Beispiel Pol-e Chomri, oder die demnächst angeschlossen werden. Auch die schnell wachsende Stadt Masar-e Scharif bekam über eine Abzweigung, zusätzlich zu einer schon bestehenden Verbindungen, aus Usbekistan Energie geliefert. Damit stieg der Versorgungsgrad wieder an, wenn auch auf sehr niedrigem Niveau. Im Jahr 2009 lag der Pro-Kopf-Verbrauch an elektrischer Energie bei 49 kWh, was einer der niedrigsten Werte weltweit war. 2011 verfügten 28 % der Bevölkerung über einen Stromanschluss. Das Land hatte eine Installierte Leistung von rund 500 MW, verteilt auf Wasserkraftwerke und Dieselgeneratoren. Der Stromverbrauch lag bei insgesamt 3086 GWh, wovon 73 % aus dem Ausland importiert wurden. In Afghanistan wird insbesondere der Wasserkraft viel Potential eingeräumt: Es ist geplant, unter anderem die Kajakai-Talsperre mit einem zusätzlichen Wasserkraftwerk "Kajakai II" auszubauen. Auch andere Erneuerbare Energien wie Windenergie und Solarenergie, die von dezentralen Inselanlagen abgesehen bisher über keine nennenswerte Rolle spielen, verfügen über großes Potential in Afghanistan. Gründe für ihren Ausbau sind in Afghanistan u.a. eine geringere Abhängigkeit von Energieimporten aus den Nachbarstaaten mit schwankenden und nicht vorhersehbaren Lieferbedingungen, eine längere Reichweite heimischer Energieressourcen Kohle und Erdgas sowie die Reduzierung von Dieselimporten, deren Kosten einerseits ansteigen sowie Umweltschäden verursachen. Besonders erfolgsversprechend gilt der Einsatz von Windkraft- und Photovoltaikanlagen in den Provinzen Herat and Balch, wo ohne größere Abregelung eine Wind- und Solarstromanteil von 65 bis 70 % erreicht werden könnte. In Herat bläst z.B. an ca. 120 Tagen im Jahr starker Wind. Verkehrsinfrastruktur. Das "Straßennetz" befindet sich im Wiederaufbau und wird zudem erweitert. Die sogenannte Ring Road, die Hauptverkehrsader des Landes, in deren Umgebung rund 60 Prozent der Bevölkerung leben, wurde wieder instand gesetzt. So wurden bis 2007 bereits 715 Kilometer von ihr erneuert. Die Fertigstellung des letzten rund 400 km langen, neu trassierten Teilstücks, welches die letzte Lücke im Nordwesten des Landes schließen würde, verzögert sich jedoch wegen der lokal prekären Sicherheitslage. Weiters wurden bis Mitte 2007 über 800 km an sekundären Straßen erneuert oder neu angelegt. Der Grenzfluss Amudarja beziehungsweise dessen Quellfluss Pjandsch stellt ein natürliches Hindernis für Überlandtransporte in die nördlich gelegenen Nachbarländer Usbekistan und Tadschikistan dar, da nur wenige Brücken über diese beiden Flüsse existieren. Weiters besteht teilweise eine hohe Minengefahr und viele Straßen sind je nach Jahreszeit oft stark unterspült. Es gilt die Straßenverkehrsordnung der DDR. In Afghanistan gibt es über sechzig "Flugplätze" und "Flughäfen", überwiegend handelt es sich um einfache Schotterpisten. Nur in einigen Städten sind größere Flughäfen vorhanden, diese werden auch beziehungsweise überwiegend von der U.S. Air Force militärisch genutzt. Der größte Flughafen des Landes ist der Flughafen Kabul. Über ein Dutzend Fluggesellschaften fliegen Ziele in Afghanistan an. Afghanische Fluggesellschaften sind Ariana Afghan Airlines, Kam Air und Pamir Airways. Das afghanische "Schienennetz" hat derzeit eine Länge von 87 Kilometer in "russischer" Breitspur von 1520 Millimeter. Von Turkmenistan, Usbekistan und Pakistan führen kurze Stichstrecken auf afghanisches Gebiet, wobei die Chaiber-Pass-Bahnlinie zum pakistanisch-afghanischen Grenzort Landi Khana stillgelegt ist. Die Strecke vom usbekischen Termiz überquert auf der Brücke der Freundschaft (kombinierte Eisenbahn–Straßenbrücke) den Amudarja und führt seit August 2011 bis zum 85 Kilometer entfernten Flughafen von Masar-e Scharif. Über diese Brücke wird annähernd die Hälfte des afghanischen Imports abgewickelt. Aus dem turkmenischen Serhetabat führt eine Güterverkehrsstrecke zwei Kilometer auf afghanisches Gebiet, die 2007 erneuert wurde. Diese beiden Strecken sind in der Zeit der sowjetischen Besatzung gebaut worden. Aufgrund des steigenden Außenhandels mit dem Iran gibt es Bestrebungen eine Bahnlinie zwischen Maschhad und Herat zu bauen. Des Weiteren gibt es konkrete Bauabsichten für eine Strecke vom pakistanischen Grenzort Chaman nach Kandahar und für eine Verbindung von Pakistan über Kabul nach Usbekistan. Durch diese Verbindung wird der Export von Kupfererz aus der Mine Aynak der China Metallurgical Group gefördert, welche die Strecke auch baut. Telekommunikation. Es existieren vier Mobilfunknetze. Anfang 2008 gab es in Afghanistan etwa 45.000 Festnetzanschlüsse und 4,5 Millionen Mobilfunknutzer. Das Telekommunikationsnetz der Afghan Telecom versorgt alle 34 afghanischen Provinzhauptstädte sowie 254 Orte und Dörfer. Gesundheitswesen. Auf 10.000 Einwohner kommen zwei Ärzte und 4,2 Krankenhausbetten. Die ländliche Bevölkerung hat nur zu etwa 66 Prozent Zugang zu medizinischer Versorgung. 80 Prozent der Ärzte arbeiten in Kabul. In der Hauptstadt sind auch 60 Prozent der Krankenhausbetten und 40 Prozent der Apotheken. Afghanistan hat eine der höchsten Mutter-Kind-Sterblichkeitsraten der Welt. Nur bei 19 Prozent der Geburten steht medizinisches Fachpersonal zur Verfügung. Jährlich sterben etwa 24.000 Frauen vor, während oder direkt nach einer Entbindung. Fast ein Viertel der Kinder stirbt vor dem fünften Lebensjahr. Kultur. a> ist die bedeutendste Wallfahrtsstätte Afghanistans. Die Region war etwa vom 2. bis etwa zum 10. Jahrhundert buddhistisch geprägt. Aus dieser Zeit sind zahlreiche Überreste buddhistischer Stätten erhalten. Der Islam, der das Gebiet im 7. Jahrhundert erreicht hatte, verbreitete sich zunächst eher langsam. Eine der größten Sehenswürdigkeiten waren die Buddha-Statuen von Bamiyan. Im Jahre 2001 wurden diese in eine Felswand eingearbeiteten Kunstwerke durch die damals herrschenden Taliban zerstört. Die zahlreichen Überreste von Klöstern, ausgemalten Höhlen, Statuen und Festungsanlagen im Bamiyan-Tal stehen auf der Liste des UNESCO-Welterbes, wie auch das sich in der Provinz Ghor befindliche Minarett von Dschām mit den dortigen archäologischen Überresten. Die Taliban zerstörten und plünderten viele Kunstwerke (unter anderem Gemälde und Figuren aus buddhistischer Zeit), vor allem die, die Menschen darstellten. Einigen Mitarbeitern des örtlichen Institutes für Kunst gelang es jedoch, einige Kunstwerke vor den Taliban zu retten. Das Reiterspiel Buzkaschi gilt als afghanischer Nationalsport. Die afghanische Fußballnationalmannschaft wurde 1933 gegründet, bestritt aber zwischen 1984 und 2002 keine Spiele mehr; heute ist die Mannschaft wieder aktiv und absolviert wieder Pflichtspiele. Seit 2012 gibt es die erste Fußball-Profiliga Afghanistans, die Afghan Premier League. Zu den kulinarischen Spezialitäten der afghanischen Küche zählen zum Beispiel Khabilie Palau mit delikaten Gemüsesoßen, Borani-Badendschan und Aschak. Literatur. Die afghanische Literatur umfasst unter anderem die Literatur in Dari und Paschto, die von Autoren auf dem Gebiet des seit dem 18. Jahrhundert existierenden afghanischen Staats verfasst wurde. Dari sprechen als Muttersprache vor allem Tadschiken und Hazara, aber auch immer mehr Paschtunen. Die Verbreitung der paschtunischen Sprache, einer ostiranischen Sprache, die sich aber stark vom Dari unterscheidet, deckt sich nicht mit dem heutigen afghanischen Staatsgebiet; sie reicht bis nach Pakistan. Umgekehrt wird auch das in Pakistan verbreitete Urdu von einer Minderheit in Afghanistan gesprochen und von einigen Autoren als Literatursprache genutzt. Paschto. Das Paschto brachte eine nennenswerte, jedoch außerhalb des paschtunischen Sprachraums kaum beachtete bzw. wenig bekannte Literatur hervor. Die Anfänge der Paschto-Literatur gehen ins 17. Jahrhundert zurück und sind stark vom Persischen beeinflusst. Die Echtheit älterer Manuskripte aus der voriranischen Zeit, die möglicherweise von Mohammad Hotak erst 1728-29 verfasst wurden, wird bezweifelt. Pīr Roschān (1525–1581/1585), ein Krieger, Dichter und Sufi-Meister aus dem Ormur-Stamm, entwickelte eine eigene Schrift, die die Lautstruktur des Paschto besser wiedergab als die arabische Schrift. Als bekannteste Dichter und Literaten des Paschto der klassischen Epoche gelten Khushal Khan Khattak (Hushal Han, 1613–1689), ein auf dem Gebiet des heutigen Pakistan geborener Stammesherrscher, Führer des Aufstands gegen die Mogulherrscher und Meister des "landai", einer Form zweizeiliger paschtunischer Kurzgedichte, der gelegentlich auch in persischer Sprache dichtete, sowie der mystisch-erotische Dichter Abd ur-Rahman Mohmand (Rahman Baba, 1653–1709/1711) und der weltliche Liebeslyriker Abd ul-Hamid (* ~1732). Sie bedienten sich der Vorlagen und Formen der klassischen persischen Poesie, z. B. des Ghasel, deren Metrum der Paschto-Volksdichtung angepasst wurde. Rahman Babas Gedichte genossen bei den Paschtunen größte Verehrung. Nazo Tokhi („Nazo Ana“, „Großmutter Nazo“, ca. 1651–1717), eine Tochter des Häuptlings des Tokhi-Stammes, wurde als Kriegerin ebenso bekannt wie als Dichterin. Aber auch der erste König Afghanistans, Ahmad Schah Durrani (1724–1773), ging als großer Dichter in die Geschichte des Landes ein. Der Enkel Kushal Khans, Afzal Khan Khattak, kompilierte um 1708 mit dem "Tarich-e morassa" eine Geschichte Afghanistans aus verschiedenen Quellen. Daneben existiert die reiche Volksdichtung, die zuerst im 19. Jahrhundert (allerdings in der Gegend von Peschawar im heutigen Pakistan) von James Darmesteter dokumentiert wurde. Die afghanischen Barden waren jedoch meist keine Hofpoeten, sondern volksnahe Häuptlinge (so bis in die Neuzeit die des Kahttak-Clans in Pakistan) oder Derwische, die in Paschto dichteten. Der Abstand zwischen Volkssprache und literarischer Sprache ist gering. In Kabul wurde 1931 eine Paschtoakademie gegründet. Diese bemüht sich ebenso um die Pflege der paschtunischen Sprache wie ihr Gegenstück, die Pakhto Akedemi in Peschawar, dem literarischen Zentrum des Paschto im heutigen Pakistan. In den dreißiger Jahren setzten sich vor allem in den Feuilletons die westlichen Gattungen wie Novelle, Kurzgeschichte, Theaterstück und (Fortsetzungs-)Roman durch. Das war nicht einfach, da auch die Prosa in Paschto an das Ideal des persischen höfischen Stils gebunden war. Es kristallisierten sich zwei große Stoffgebiete heraus: historische Themen, die mit verklärendem Patriotismus behandelt wurden, und realistische Gegenwartskritik, wobei an den religiösen und gesellschaftspolitischen Grundregeln der islamischen Gesellschaft nicht gerüttelt wurde. Nach dem Zweiten Weltkrieg kam es zu einer Radikalisierung der Literatur. Federführend war die allerdings kurzlebige literarische Vereinigung "Wesch zalmayan" (Wache Jugend). Abdul Rauf Benawa (1913–1987) und Gul Pacha Ulfat (1909–1977) waren wichtige Autoren dieser Zeit. Beide verfassten u. a. Lehrgedichte. In Benawas Gedichtzyklus "Preschana afka" (Traurige Gedanken 1957) geht es um die Machtlosigkeit, Verlassenheit und Entrechtung der Menschen. Der Sozialaktivist Benawa thematisiert die Unterschiede zwischen arm und reich in seinem Land und die Willkürherrschaft von Beamten, der die Masse der Besitzlosen ausgesetzt ist, während Ulfat der Klage der Frauen über ihre gesellschaftliche Stellung eine Stimme verleiht. Allerdings verwendeten die jungen Radikalen Stereotypen, die bis zur Karikatur verzerrt waren: der Dorfherr mit dickem Bauch und Gewehr, der Bauer barfuß unter der Peitsche des Feudalherrn, seine zwangsverheiratete Tochter, der im Ausland ausgebildete Arzt, der Mullah usw. Benawa musste emigrieren und starb 1987 im amerikanischen Exil. Auch Nur Muhammad Taraki (1917–1979), Übersetzer, Diplomat und zeitweise im Exil, veröffentlichte sozialkritische Kurzgeschichten, die nicht frei von Klischees waren. 1978 bis 1979 war er Ministerpräsident und wurde vermutlich ermordet. Der Verfasser patriotischer Gedichte, Schriftsteller und Psychologe Kabir Stori (1942–2006) studierte in Deutschland. Er wurde 1983 in Pakistan verhaftet und konnte nur wegen des erfolgreichen internationalen Drucks nach Deutschland emigrieren. Dari. Ein Wegbereiter der Modernisierung nach der Unabhängigkeit 1919 war Mahmud Tarzi (1865/68?–1935), der die politischen Reformen unterstützte, die erste wichtige Zeitung "Seraj ul akhbar" (Leuchte der Nachrichten) herausgab und 1919 Außenminister wurde. Er übersetzte die schöngeistige Literatur aus europäischen Sprachen ins Dari und führte die moderne westliche Begrifflichkeit (Nation, Freiheit, Ausbeutung, Wissenschaft, Eisenbahn, Flugzeug...) in die Paschtuliteratur ein, wo früher Begriffe wie Liebe, Blume, Nachtigall und die Traditionen der Stammesgesellschaft dominierten. Die Erzähltradition blieb lange Zeit lyrisch geprägt. Die ersten modernen Kurzgeschichten erschienen etwa 1933; die meisten Autoren waren zugleich Übersetzer und Journalisten. Der erste Roman Afghanistans wurde 1938 publiziert; sein Autor war Sayed Mohammad Ibrahim Alemschahi. Im gleichen Jahr erschienen weitere Romane und Fortsetzungsromane, so "Chandschar" (Dolch) von Dschalaluddin Choschnawa und "Begom" von Suleiman Ali-Dschaguri, die von der traditionellen Erzählkunst beeinflusst waren, aber traditionelle Zustände durchaus kritisierten. Berühmtester Dramatiker der 1940er Jahre war Aburraschid Latifi. Azizurrahman Fathi wurde bekannt durch zwei große sozialkritische Romane von 1949 ("Sonnenaufgang") und 1952 ("Unter der wilden Rose"), durch die er neue Maßstäbe für die Langprosa setzte. Seit etwa 1953 wurden Autoren wie Balzac, Maupassant, Dickens, Jack London, Hemingway, Dostojewski, Tschechow und Maxim Gorki in Dari übersetzt. Seither gewann die realistische, regional-volkstümliche, oft auch absurde Kurzgeschichte – auch unter dem Einfluss der iranischen Linken und der kommunistischen Bewegung in Afghanistan – an Boden. Zu erwähnen sind Abdul-Ghafur Berschna (1912–82), der seine Stoffe aus Volkserzählungen gewann, Babrak Arghand (* 1946), Jalal Nurani, Rahnaward Zaryab und Akram Osman. Rosta Bakhtari schrieb unter dem Einfluss des Symbolismus und der Literatur des Absurden. Obwohl die Hoffnung auf Demokratisierung sich rasch zerschlug, verbesserte sich insbesondere die Lage der Frauen, was sich auch im Werk der Autorin und Übersetzerin Roqqiya Abu Bakr (1919–2004) ausdrückte. Der in Paschto und Dari schreibende, bei der Schilderung des Alltags der Eliten Klischees keineswegs meidende Lyriker und Erzähler Mohammad Musa Schafiq (1932–1979), ein studierte islamischer Theologe und Jurist, wurde 1971 Außenminister und 1972 bis 1973 Ministerpräsident. Nach dem kommunistischen Umsturz vom April 1978 wurde Schafiq 1979 ermordet. Mahbub emigrierte 1979 nach Pakistan, Indien und später nach Kanada. Gegen die sowjetische Okkupation regte sich literarischer Widerstand, u.a. von Layla Sarahat (1958–2004), Partov Naderi (* 1952) und Gholamschah Sarschar Schomali (1930–1981), der im Gefängnis starb.. Als literarische Repräsentanten des neuen Regimes können die Romanautoren Asadollah Habib (* 1941), Babrak Arghand und Alim Eftekhar gelten. Als Erzählerinnen traten Maga Rahmani und Marjam Mahbub (* 1955) ("Das trostlose Haus" 1990) hervor. Der Schriftsteller, Literaturwissenschaftler und Präsident der afghanischen Schriftstellervereinigung Assadullah Habib (*1942) war 1982 bis 1988 Rektor der Universität Kabul. Während der Talibanherrschaft gingen viele Intellektuelle ins Exil, und zwar aufgrund der Sprachverwandtschaft meist in den Iran, aber auch in die USA, so z. B. der Erzähler und Verfasser klassischer Gedichte Razeq Fani. Zu den Autorinnen, die ihre Arbeit im westlichen Exil fortsetzten, gehörten Spojmai Zariab (*1949), Tamim Ansary und der Friedenspädagoge Ahmad Jawed. Auch Marjam Mahbub publizierte in Kanada weitere Werke in Dari. Die Erfolg versprechende Lyrikerin Nadia Anjuman wurde 2005 im Alter von 25 Jahren von ihrem Ehemann erschlagen. Urdu. Rahbeen Khorshid und Mohammad Afsar Rahbin, der eigentlich Dari spricht, dichten (auch) in Urdu. Typisch für die Urdu-Literatur ist das Muschaira, das Dichter-Symposion, auf dem viele Poeten ihre Gedichte rezitieren. Medien. 1906 erschien die erste afghanische Tageszeitung in Dari, die bereits nach einer Ausgabe wieder verboten wurde. 1911 wurde sie von Mahmud Tarzi wieder ins Leben gerufen. Nach 1919 wurde das Presse- und Zeitungswesen sehr gefördert, bereits 1921 erschien die erste Frauenzeitschrift. Nach der Machtübernahme der Taliban 1996 gab es fünf Jahre lang keine Fernsehsender, heute sind es bereits 16 Sender, die hauptsächlich Filme und Serien aus dem Ausland wie Indien, Pakistan und dem Iran im Unterhaltungsprogramm ausstrahlen. Freizügige Kleidung in der Werbung oder in indischen Serien wird durch Bildfilter unkenntlich gemacht oder verschwommen gezeigt. Informationssendungen und Talkshows werden auch von Frauen moderiert. Kalender. Gesetzliche oder staatliche und landwirtschaftliche Feiertage und Feste wie Nouruz, Unabhängigkeitsfest sowie staatliche Gedenktage werden nach dem iranischen Sonnenkalender gefeiert. Religiöse Feste werden nach dem islamischen Mondkalender gefeiert. Der Kalender nach dem Sonnenjahr ist Staatskalender, auch wenn er im Laufe der Geschichte auf dem Boden des heutigen Landes, aber auch seit der Namensgebung „Afghanistan“ im 19. Jahrhundert wiederholt außer Kraft gesetzt worden ist. Zuletzt wurde der Solarkalender im Jahre 1996 von den Taliban für ungültig erklärt. Der islamische Lunarkalender war der Kalender des „Islamischen Emirats Afghanistan“. Seit der Loja Dschirga von 2004 ist der auf dem Sonnenjahr beruhende Kalender abermals in der Verfassung verankert. Demnach basiert der Kalenderanfang auf dem Zeitpunkt der Pilgerfahrt (Hidschra) des Propheten Mohammad. Die Arbeitsgrundlage des Staatswesens ist der auf jener Pilgerfahrt beruhende Sonnenkalender. 22 Sonnenjahre entsprechen 23 Mondjahren. Die zwölf Monatsnamen des Sonnenkalenders entsprechen in Afghanistan den Tierkreiszeichen. Afghanische Kalender mit deutschen Feiertagen (GPL-Lizenz) sowie weitere Informationen zum afghanischen Kalender sind unter Afghan Kalender Projekt verfügbar. Atonale Musik. Atonale Musik oder Atonalität bezeichnet allgemein eine Musik, die auf der chromatischen Tonleiter gründet, deren Harmonik und Melodik nicht auf ein tonales Zentrum bzw. einen Grundton fixiert ist – im Gegensatz zur (Dur-Moll-)Tonalität oder Modalität. Der Begriff wurde anfänglich in polemischer Absicht von der konservativen Musikkritik auf die Kompositionen der Wiener Schule, insbesondere auf Arnold Schönbergs "Drei Klavierstücke op.11" (1909), angewandt und war ursprünglich mehr ein Schlagwort als ein musiktheoretischer Terminus. Sowohl Schönberg als auch Alban Berg lehnten diesen Begriff ab, weil sie ihn im Sinne von "ohne Töne" (statt "ohne Tonart") verstanden. (u. A. in dem Radiodialog "Was ist atonal?" von 1930). Rückblickend betrachtet stellt der Paradigmenwechsel Tonalität/Atonalität um die Jahrhundertwende weniger eine ‚Revolution‘ als vielmehr eine ‚Evolution‘ dar, deren Grenzen durch den Zusatz „freie“ (Tonalität/Atonalität) auch in der (musik-)wissenschaftlichen Terminologie zunehmend verwischt werden. Obwohl sich bereits in Werken des 16. Jahrhunderts, insbesondere im „manieristischen“ italienischen Madrigal, stark chromatische Passagen finden, die in der Spätromantik wieder aufgegriffen wurden, kann von Atonalität erst ab dem frühen 20. Jahrhundert die Rede sein. Die frühe Atonalität der ersten Hälfte des zwanzigsten Jahrhunderts lässt sich in eine Phase der sogenannte „freien Atonalität“ und etwa ab 1925 in eine Phase der „zwölftonigen“, später auch „seriellen Atonalität“ gliedern. Die Preisgabe der Tonalität ist – abgesehen von einigen Gegenbewegungen – eine der wenigen Konstanten der Neuen Musik und verbindendes Element verschiedener Stilrichtungen der Moderne, wie etwa Aleatorik, Mikrotonalität oder Mikropolyphonie. Damit hat die Atonalität zwar einerseits zur zunehmenden Komplexität (aus der Sicht ihrer Befürworter) oder zur zunehmenden Beliebigkeit (aus der Sicht ihrer Gegner) der zeitgenössischer Musik und dem damit verbundenen ‚Bruch mit dem Publikum‘ beigetragen, andererseits verbietet sich aufgrund ihrer vielfältigen Erscheinungsformen ein ästhetisches Pauschalurteil (sei es positiv oder negativ). Geschichtliche Entwicklung. Die Atonalität gestreift hatten schon Franz Liszt (in seinen späten Klavierstücken) und Alexander Skrjabin. Der überwuchernde Gebrauch von Chromatik während der Spätromantik oder bei Komponisten wie Max Reger hatte atonale Tendenz. Auch die Verwendung von Bitonalität oder Polytonalität, dem Gebrauch von zwei oder mehreren Tonarten gleichzeitig, führte in den Grenzbereich der Atonalität. Die erste Phase, die in der Aufgabe der traditionellen Harmonik besteht, wird auch „freie Atonalität“ genannt. Schönberg versuchte ein Ordnungsprinzip innerhalb der atonalen Musik zu schaffen und entwickelte die Methode der „Komposition mit zwölf nur aufeinander bezogenen Tönen“ (später als Zwölftontechnik apostrophiert), die er ab 1923 (in einigen der "Fünf Klavierstücke op.23" und in den meisten Sätzen der "Suite für Klavier op.25") erstmals anwendete. Dieses Zwölftonprinzip garantiert aber zunächst noch nicht zwingend die Atonalität, sondern lediglich eine weitgehend gleichmäßige Verteilung der zwölf temperierten Halbtöne innerhalb des kompositorischen Satzes. Je nach Reihenstruktur und vertikaler Organisation der Töne ist es durchaus möglich, Stücke in Reihentechnik zu komponieren, die als tonal empfunden werden. Schönberg hat einige seiner komplementären Reihen sogar bewusst so konstruiert, dass nach der vertikalen Entflechtung ihrer Hexachorde die Ausrichtung auf ein tonales Zentrum möglich wird. Durch zweckdienliche Materialdisposition generiert er sodann mit einer einzigen Grundreihe alternierend tonale und atonale Zonen. Im "Klavierstück op. 33a" und im "Klavierkonzert op. 42" verbindet sich dieses Vorgehen mit einer klaren formalen respektive inhaltlichen Intention Die Zwölftontechnik wurde nach dem Zweiten Weltkrieg zum Serialismus weiterentwickelt und dominierte die Avantgarde der ernsten Musik während der 1950er Jahre in Europa. Weitere wichtige Wegbereiter der atonalen Musik waren neben Alban Berg und Anton von Webern (die zusammen mit Schönberg unter die sogenannte Zweite Wiener Schule subsumiert werden) Ernst Krenek, Igor Strawinsky, Béla Bartók und viele andere mehr. Ästhetische Debatte. In seiner 1949 erschienenen "Philosophie der neuen Musik" plädiert Theodor W. Adorno für Schönbergs atonale Kompositionsweise und setzt diese dem als Rückfall in bereits veraltete Kompositionstechnik betrachteten neoklassizistischen Stil von Igor Strawinsky entgegen. Der Schritt zur Atonalität um 1910 durch Schönberg bedeutet für Adorno die Befreiung der Musik vom Zwang der Tonalität und damit die ungehinderte Entfaltung des musikalischen Ausdrucks qua freier Atonalität mit dem vollen Triebleben der Klänge. Dagegen wendet er sich in der gleichen Schrift dezidiert gegen die (später von Schönberg entwickelte) Zwölftontechnik, weil er hier die Gefahr eines mechanisch ablaufenden Komponierens sah. Dazu passt auch der Kommentar des alten Schönberg, als man ihm mitteilte, dass seine Kompositionsmethode sich über die Welt ausgebreitet habe: "Ja, aber machen sie auch Musik?". Wie jede künstlerische Revolution (die sich aus späterer Sicht oft eher als Evolution, als Weiterentwicklung darstellt) wurden auch die Mittel der Atonalität von konservativen Geistern heftig attackiert. Der Dirigent Ernest Ansermet etwa hat in seinem Buch "Die Grundlagen der Musik im menschlichen Bewusstsein" von 1961 der atonalen Musik ihr Existenzrecht überhaupt abgesprochen, da in ihr eine sinnhafte musikalische Formensprache aufgegeben werde und durch den Wegfall einer sinnstiftenden Tonalität ein fundiertes ästhetisches Urteil durch den Hörer nicht möglich sei. Die Erzeugung eines psychischen Widerhalls im Hörer durch atonale Musik täusche Sinnhaftigkeit nur vor. (Carl Dahlhaus kritisierte in seinem Artikel "Ansermets Polemik gegen Schönberg" (Neue Zeitschrift für Musik, 1966) Ansermets Annahmen als unwissenschaftlich.) Dagegen wurde ins Feld geführt, dass Atonalität jenseits der Neuen Musik. Auch im Bereich populärer Musik wird auf Atonalität Bezug genommen, wie das "Berlin Atonal" Festival, welches in den Jahren 1982–1986, 1990 und 1999 (Revival-Versuch) stattfand, verdeutlicht. Um 1960 wurden im Free Jazz atonale Strukturen erreicht. Maßgeblich sind hier vor allem freie Improvisationen (teilweise im Kollektiv) und eine sehr freie Formgestaltung. Zugleich werden rhythmische Grundmuster oftmals aufrechterhalten. Die Jazzforschung konnte zeigen, dass sich die improvisierenden Musiker häufig an modalen Skalen orientierten, also auch tonale Einflüsse in das Spiel integriert werden (Jost 1975). Typisch ist auch die Verwendung von Leittönen oder grundlegenden Motiven. Gemeinsamkeiten mit und Differenzen zu der Postseriellen Musik analysiert Kumpf (1976). Akeleien. Die Akeleien ("Aquilegia") bilden eine Pflanzengattung in der Familie der Hahnenfußgewächse (Ranunculaceae). Die 70 bis 75 Arten sind hauptsächlich in den gemäßigten Gebieten der Nordhalbkugel verbreitet. Sorten einiger "Aquilegia"-Arten werden als Zierpflanzen verwendet. Vegetative Merkmale. Akelei-Arten sind mehrjährige (meist drei- bis fünfjährige) bis ausdauernde krautige Pflanzen. Das reich verzweigte Wurzelsystem bildet schlanke, leicht verholzende Rhizome mit bleibender Pfahlwurzel als Überdauerungsorgan. Mit der Zeit erweitert sich die Pflanze um die Hypokotyl-Region oberhalb des Wurzelhalses in Form einer verdickten Sprossbasis oder Kormus, der an oder unterhalb der Bodenoberfläche bleibt. Diese Struktur hilft der Sprossachse bei der Überwinterung. Mit beständigem Wachstum über mehrere Saisonen hinweg, bilden sich neben der primären Blattkrone Seitenknospen, die neue Wachstumsachsen formen. An einer Pflanze stehen mehrere aufrechte, meist verzweigte Stängel zusammen. Die Sämlinge besitzen zwei Keimblätter (Kotyledonen). Die Laubblätter stehen in grundständigen Blattrosetten zusammen. Zusätzlich sind etwas kleinere Blätter wechselständig und spiralig am Stängel verteilt. Diese können jedoch als Anpassung an trockenere Habitate oder Hochgebirgsstandorte auch ganz fehlen. Die Laubblätter sind in einen langen Blattstiel und eine Blattspreite gegliedert. Die ein- bis dreifach dreiteilig gefiederten Blattspreiten bestehen aus gelappten bis geteilten Fiederblättchen. Der Rand der Fiederblättchen ist gekerbt. Generative Merkmale. Blütendiagramm der Gattung Aquilegia. Zwei Innovationen der Gattung sowie naher verwandter der Hahnenfußgewächse sind durch die fünforganigen Blüten gegeben. Dabei sind die Entwicklung von Staminodien sowie der Nektarsporne evolutionsgeschichtlich neuere Entwicklungen. Mit dem Übergang zum Blühen transformiert sich das apikale Meristem zu einem Blütenstand. Die Blüten stehen endständig, manchmal einzeln, aber meist in zwei bis zehn zymösen oder doldigen monochasialen oder dichasilen Blütenständen zusammen, mit laubblattähnlichen Hochblättern. Die zwittrigen, radiärsymmetrischen Blüten besitzen fünf Blattorgane und sind auch in fünfwirtligen Blüten geordnet. Im ersten Wirtel stehen die kronblattartigen Kelchblätter (Sepalen), die beim Anlocken von Bestäubern eine hervorstehende Funktion besitzen. Im zweiten Wirtel sind die durch einen rückwärts gerichteten Nektarsporn stark differenzierten Kronblätter (Petalen) angeordnet, die im Sporn Nektarien enthalten. Die Länge dieser Sporne variiert enorm von 9 bis 15 Zentimeter bei "Aquilegia longissima" und der spornlosen "Aquilegia ecalcarata". Die Arten variieren aber auch in der Länge der Kronblattspreite und der Kurvatur des Sporns. Die Farben der Blütenhüllblätter reichen von weiß bis blau und gelb bis rot. Die fünf freien, kurz genagelten Kelchblätter sind ausgebreitet und 0,7 bis 5,1 Zentimeter lang. Die fünf mehr oder weniger aufrechten, freien Kronblätter sind mit weniger als 30 Millimeter meist kürzer als die Kelchblätter. Die vielen Staubblätter sind in zehn Orthostichen zu je vier bis neun Wirteln angeordnet. Die der ersten Blüte folgenden Blüten haben dabei jeweils allmählich abnehmende Zahlen von Staubblattwirteln. Am apikalen Ende jeder Orthostiche findet sich ein neuartiges Blütenorgan, die etwa sieben schuppenförmigen, häutigen Staminodien. Diese sterilen, abgeplatteten Organe finden sich in allen Blüten ungeachtet ihrer Staubblattzahl. Die Staminodien bestehen aus einem zentralen Filament mit seitlicher Lamina und sind typischerweise farblos. Die ökologische Funktion dieser Organe wird nach wie vor diskutiert, aber es ist offensichtlich, dass sie auch dann noch an der Blüte verbleiben, wenn die anderen Blütenorgane abgefallen sind; sie bleiben als umschließender Kranz am Fruchtblatt. Eine Hypothese ist, dass diese Organe mit Mischungen aus Verteidigungssubstanzen gegen Herbivoren ausgestattet sind, um im frühen Stadium der Fruchtbildung einen Schutz zu bieten. Alle "Aquilegia"-Arten mit Ausnahme von "Aquilegia jonesii" besitzen solche Staminodien. Es befinden sich vier bis sechs freie Fruchtblätter im Zentrum der Blüte. Der Griffel ist etwa halb so lang wie der Fruchtknoten. An den bei einer Länge von 3 bis 26 Millimeter schmalen, zylindrischen Balgfrüchten ist der Griffel deutlich erkennbar. Jede Balgfrucht enthält 10 bis 36 Samen. Die schwarzen, glatten Samen sind schmal und verkehrt-eiförmig. Hummeln sind die charakteristischen Bestäuber der "Aquilegia vulgaris"-Gruppe in Eurasien. Zahlreiche nordamerikanische Akeleien sind auf die Bestäubung von Schwärmern spezialisiert. "Aquilegia shockleyi" gehört zur Gruppe der auf Kolibri-Bestäubung spezialisierten nordamerikanischen Arten. Ökologie und Evolution. Die Akeleien gehören zu den ursprünglichen Blütenpflanzen und haben daher einen relativ einfachen morphologischen Bauplan. Die ursprünglichen "Aquilegia"-Arten sind vor etwa 6,18 bis 6,51 Mio. Jahren aus einem zentralasiatischen Verbreitungszentrum hervorgegangen. Sie bilden sowohl insgesamt als auch in den einzelnen Verbreitungsschwerpunkten eine monophyletische Gruppe (Monophylie). Die Entstehung der "Aquilegia"-Arten wird für Europa dabei auf einen Zeitraum auf 1,25 bis 3,96 Mio. Jahren vor heute, für Nordamerika auf 1,42 bis 5,01 Mio. Jahren vor heute angegeben. Da keine fossilen Überreste von "Aquilegia" spec. gefunden werden, beruhen diese Datierungen auf molekulargenetischen Daten (Molekulare Uhr). Die Besiedlung Nordamerikas erfolgte nur einmal über die im Pliozän geöffnete Landverbindung von Beringia (Beringstraße als Landverbindung im geologischen Zeitraum von 5,5 bis 3,1 Mio. Jahren vor heute geöffnet). Bei "Aquilegia"-Arten handelt es sich meist um Hemikryptophyten. Die Benetzbarkeit der Blattoberfläche ist gering. Wasser perlt in Tropfen ab, wie es auch bei Lotosblumen beobachtet werden kann, und nimmt dabei auf der Oberfläche anhaftende Schmutzpartikel mit (Lotuseffekt). Seit langer Zeit ist die Pflanzengattung "Aquilegia" für die Wissenschaft der Botanik wichtig. Die Gattung "Aquilegia" hat sich für das Verständnis evolutionsgeschichtlicher Abstammung von Blütenorganen und -morphologie in der Parallelentwicklung von Pflanzenarten und tierischen Bestäubern als eines der herausragenden Modelle herausgestellt. Dabei haben "Aquilegia"-Arten direktionale Anpassungen ihrer Nektarsporne an unterschiedliche Bestäuber wie Kolibri, Schwärmer und Hummeln vollzogen. Daher variieren die Längen der Nektarsporne zwischen 1 bis 2 Millimeter und 10 bis 12 Zentimeter, aber auch die Blütenfarben wie die -orientierung haben sich als direkt abhängig von bestäubenden Tieren herausgestellt (Hummelblüten sind blau-violett, Kolibriblüten rot, Schwärmerblüten weiß oder gelb). Sie haben sich dabei an eine Vielzahl unterschiedlicher Bestäuber angepasst: Schwebfliegen, Hummeln, Schwärmer und Kolibris. In Eurasien und Nordamerika haben sich die "Aquilegia"-Arten evolutionär jedoch in relativ kurzer Zeit spezifisch unterschiedlich entwickelt: Während sich in Eurasien "Aquilegia"-Unterarten durch adaptive Radiation an unterschiedliche Habitate (Wald, Grasland, alpine Standorte) weiterentwickelten, die Blütenmodifizierung aber relativ unbedeutend blieb, so fand in der neuen Welt die blütenmorphologische Anpassung an unterschiedliche Bestäuber statt. Daher haben sich die europäischen "Aquilegia"-Arten überwiegend allopatrisch durch reliktische Isolation gebildet (lokale Endemiten), die amerikanischen dagegen auch sympatrisch durch Barrieren im Bestäubungsmechanismus. So sind die Blüten der eurasischen Akeleien noch immer auf Hummeln fixiert, während die amerikanischen Arten größere Vielfalt entwickelten und neben Arten mit Hummelbestäubung auch Formen entwickelten, die ganz oder überwiegend auf Kolibri- ("Aquilegia flavescens", "Aquilegia skinneri", "Aquilegia formosa", "Aquilegia canadensis", "Aquilegia elegantula") oder Schwärmer-Bestäubung angelegt sind. "Aquilegia"-Arten können sich durch das Fehlen von bestimmten fördernden Ausbreitungsmechanismen der kleinen Samen nicht über größere Distanzen ausbreiten. Sie treten dadurch auch oft nur lokal häufiger auf. Vorkommen. Die 70 bis 75 "Aquilegia"-Arten haben ihre Areale in den gemäßigten Gebieten der Nordhalbkugel (zirkumboreal): in Eurasien und Nordamerika. Dabei reicht das Gattungsareal nördlich in die boreale Zone und südlich bis in die Berge Nordmexikos und Nordafrikas. Verbreitungsschwerpunkt sind die zentralasiatischen Gebirge in Südsibirien mit etwa zehn Arten. Die Arten verteilen sich zu je ungefähr einem Drittel auf die Kontinente Nordamerika, Asien und Europa. Die "Aquilegia"-Arten besiedeln eine Vielzahl unterschiedlicher Habitate, von Oasen in Trockengebieten bis zu alpinen Grasländern, Felsheiden oder temperaten Wäldern, von der Meeresküste bis zu den Hängen des Himalaya, der Rocky Mountains oder der Alpen. Sie gedeihen von der Wüste ("Aquilegia skinneri" oder "Aquilegia chrysanta") bis ins Hochgebirge ("Aquilegia dinarica" oder "Aquilegia jonesii"). Bestimmte Arten besiedeln als Generalisten eine Vielzahl von Habitaten; so findet sich "Aquilegia vulgaris" sowohl in Fels-, Wald und Grasvegetation. Spezialisten sind dann oft an felsige oder Gebirgsstandorte angepasst, was bei den europäischen Akeleien insbesondere auf einige der seltenen endemischen Arten Südeuropas und der Alpen zutrifft (beispielsweise "Aquilegia alpina", "Aquilegia dinarica", "Aquilegia kitaibelii"). Europäische Artkomplexe und Chromosomensätze. In Mitteleuropa kommen sechs "Aquilegia"-Arten vor. Sie werden aufgrund morphologischer Eigenschaften in die Gruppen des Vulgaris-Komplexes sowie des Alpina-Komplexes eingeteilt. Jedoch ist es bis heute nicht möglich, die über zwanzig europäischen Akeleien über genetische Sequenzen zu unterscheiden, zu den amerikanischen sowie den asiatischen Sippen wurden aber genetische Diskriminanten gefunden. Durch die enge Verwandtschaft aller "Aquilegia"-Arten blieben bei infraspezifischen Kreuzungen selbst die geographisch entferntesten Arten immer fertil. Damit besitzt die Gattung auch keine plyoploiden Vertreter. Das heißt, alle "Aquilegia"-Arten und selbst infraspezifische Hybriden bleiben in ihrem Chromosomensatz immer diploid. Aufgrund dieser als "religiös" beschriebenen Diploidie wurden auch alle "Aquilegia"-Taxa in Bezug zu einer Arten-Herde (engl. „Species Flock“) gesetzt. Es wurden beispielsweise 2n = meist 14, seltener 16, 18 oder 20 gefunden. Systematik. Die Gattung "Aquilegia" wurde 1753 durch Carl von Linné in "Species Plantarum", 1, S. 533 aufgestellt. Der wissenschaftliche Gattungsname "Aquilegia" setzt sich aus zwei lateinischen Wortelementen zusammen: "aqua" für Wasser und "legere" für sammeln, also Wassersammler(in) und bezieht sich auf den in den Spornen angesammelten Nektar, mit dem bestäubende Insekten angelockt werden. Die Gattung "Aquilegia" gehört zur Subtribus Isopyrinae aus der Tribus Isopyreae in der Unterfamilie Isopyroideae innerhalb der Familie Ranunculaceae. In der Gattung "Aquilegia" gibt es etwa 70 bis 75 Arten. Trivialnamen. Die Herleitung des deutschen Namens ist unklar. Aber vermutlich ist der deutsche Volksname Akelei aus dem lat. aquilegia entlehnt. In den althochdeutschen Glossen sind Formen wie agaleia oder ageleia (seit dem 10 Jh.) anzutreffen. Bei Hildegard von Bingen heißt die Pflanze acoleia, ackeleia, agleia, im Mittelniederdeutschen akuleye. In der Volkssprache ist das Wort vielfach umgewandelt worden, z. B. in Akelchen (Thüringen), Aggerlei, Aggerleine (Pfalz), Aglije (Luzern, Zürich), Hagleie (Schaffhausen), Hakeleden, Hakelehnen (Mecklenburg), Gakeilei (angelehnt an Gaggel 'Ei' in der Kindersprache (Niederhessen, rheinisch)) oder Klei(e) (Niederrheinisch). Viele Volksnamen nehmen Bezug auf die Form der nickenden Blüten, so Glocken, Glöckerl, Glöckchen, Blaue Glocken (verbreitet), Zigeunerglocken (Gailtal/Kärnten), Teufelglocken (Lenggries/Oberbayern), Kaiserglocken (Riesengebirge), Zuckerglocken (Thurgau), Glockenblume (weit verbreitet), Glockenstück (Schwäbische Alb) oder Glockenrosa (Anhalt). Andere die Blütenform betreffende Volksnamen sind Pausewängel (Sächs, Felsengebirge), Stellhäfele (eigentlich ein irdenes Kochgefäß mit Füssen) (Aachern/Baden), Kessel (Mittenwald/Oberbayern), Stanitzelblume (bayerische Stanizl 'Papiertüte') (Knittelfeld/Steiermark), Manselblume (schweiz. Manse 'Rockärmel mit Spitzen') (Aargau), Narrenkappen (z. B. Lörrach/Baden, Kt. St. Gallen), Kapuzinerchappe(n), - Hüetli (Kt. St. Gallen), Pfaffenkäpple (Achkarren/Baden), Plumphose (Kt. Schaffhausen), Schlotterhose (St. Gallen), Schwizerhose (Aargau), Hose(n)lätzli (Aargau), Frae(n)schüehli (Küsnacht/Schwyz), Fünf Vögerl zsam (Oststeiermark), Tauberln (Südmähren) oder Gugerschen (Schönhengstgau, Sudetenland). Bezüge auf die dunkle Blütenfarbe findet man in den Namen Tintenglocke (Thüringer Wald, Thurgau) und Truarbliemli (Trauerblümlein da auch auf ländlichen Friedhöfen gepflanzt) (Grindelwald/Bern). Außerdem wird die Akelei noch Kaiserblume (Albendorf/Riesengebirge), Hernblume (Eifel), Zaniggele, Zinäggele oder Süniggele (angelehnt an 'Sanikel') (Schaffhausen) genannt. Elfenschuh, Zigeunerglocken, Teufelsglocken, Kaiserglocken und Narrenkappen sind ebenfalls Volksnamen der Akelei. Einen weiteren Namen, "Agelblume", verwendete die adelige Schwesternschaft von der Agelblume in Königsberg in Bayern, die bis zur Reformation bestand und in Königsberg ansässig war. Dabei stand die Akelei für die Bescheidenheit, an die sie die Schwestern von der Agelblume erinnern sollte. Blüte der Sorte 'Red Star' Nutzung. Sorten einiger "Aquilegia"-Arten (beispielsweise "Aquilegia alpina", "Aquilegia atrata", "Aquilegia caerulea", "Aquilegia canadensis", "Aquilegia chrysantha", "Aquilegia elegantula", "Aquilegia flabellata", "Aquilegia formosa", "Aquilegia longissima", "Aquilegia saximontana", "Aquilegia skinneri", "Aquilegia viridiflora" und "Aquilegia vulgaris") und Hybriden (beispielsweise McKana-Hybriden) werden als Zierpflanzen verwendet. Sie werden je nach Art und Sorte sehr unterschiedlich als Beetpflanze, im Steingarten oder als Schnittblume genutzt. a> 1929 von William Bertram Turrill aus in Ex-Jugoslawien gesammelten Samen vermehrt. Aleister Crowley. Aleister Crowley im Alter von 37 Jahren. Aleister Crowley (* 12. Oktober 1875 in Leamington Spa; † 1. Dezember 1947 in Hastings, East Sussex; eigentlich Edward Alexander Crowley) war ein britischer Okkultist, Schriftsteller und Bergsteiger. Crowley bezeichnete sich als der Antichrist und das "Große Tier 666" und führte ein ausschweifendes Leben. Von 1898 bis 1900 war er Mitglied im Hermetic Order of the Golden Dawn, im Anschluss gründete er eigene Gesellschaften, die sich inhaltlich und formell am diesem orientierten. 1904 verfasste er das Buch "Liber AL vel Legis" (‚Buch des Gesetzes‘), das zur Leitschrift seiner neureligiösen Bewegung Thelema wurde. Crowleys Beschäftigung mit Sexualmagie brachte ihn in Kontakt mit dem Ordo Templi Orientis (O.T.O.). Nach einem Aufenthalt in New York gründete er 1920 in Cefalù auf Sizilien die kurzlebige "Abtei Thelema". 1925 übernahm er de facto die Leitung des O.T.O. 1935 schuf er das Thoth-Tarot. Crowley beeinflusste die Geschichte diverser Geheimbünde und neureligiöser Orden und nahm mittelbar Einfluss auf den Wicca-Kult. Auch aufgrund seiner sexuell aufgeladenen magischen Schriften erlangte Crowley in den 1970er Jahren eine große posthume Popularität. Familie. Edward Alexander Crowley kam am 12. Oktober 1875 in Leamington in der Grafschaft Warwickshire als das einzige Kind von Edward Crowley (ca. 1830–1887) und Emily Bertha Crowley (geborene Bishop, 1848–1917) zur Welt. Nach Crowleys eigenen Worten war sein Vater der „Sproß eines Stammes wohlhabender Quäker“. Die Brüder des Großvaters hatten eine industrielle Brauerei in Alton und betrieben unter anderem auch eine Kette mobiler Imbissstände mit Bierausschank namens "Crowleys Alton Alehouse". Crowleys Vater hatte zwar eine Ausbildung als Ingenieur, diesen Beruf übte er jedoch niemals aus, sondern führte das Leben eines Gentleman. Der Wohlstand der Familie stammte freilich letztlich aus dem Brauereigeschäft, auch als 1877 die Brauerei übernommen worden war und Crowleys Vater seine Anteile verkauft hatte, ein Umstand, den Crowley in seiner Autobiographie nicht erwähnt. Erwähnenswert findet er dagegen eine vermutete keltische Abstammung und Verbindung seiner Familie mit einer bretonischen Familie "Quérouaille", die sich unter den Tudors in England niedergelassen hatten. Die Familie der Mutter war mittelständisch. Der Vater von Emily Bishop war ein erfolgreicher Milchfarmer, die Mutter stammte aus einer Familie von Uhrmachern. Sie selbst hatte als Erzieherin gearbeitet, als sie 1874 den wohlhabenden, fast doppelt so alten Edward Crowley heiratete. Ihr Bruder Tom Bond Bishop (1839–1920), der nach dem Tod von Crowleys Vater sein Vormund wurde, war Evangelist und wirkte als Laienprediger. Er gehörte zu den Gründungsmitgliedern der "Civil Service Prayer Union" und der "Children's Special Service Mission". Außerdem gab er die Zeitschriften "Our Own Magazine" und "Scripture Union" heraus und verfasste ein Werk mit dem Titel "Evolution Criticised". Der Großvater hatte die Gemeinschaft der Quäker verlassen und war anglikanisch geworden. Die Eltern kehrten der Staatskirche jedoch wieder den Rücken und schlossen sich den Plymouth-Brüdern an, einer um 1830 von John Nelson Darby gegründeten christlich-fundamentalistischen Gemeinschaft, welche sich strikt von der Staatskirche absetzte und jeden Verkehr mit deren Angehörigen mied, eine buchstäbliche Bibelauslegung pflegte und im Sinne des Prämillenarismus glaubte, der Beginn der Endzeit stehe unmittelbar bevor. Die stets von Laien abgehaltenen Gottesdienste fanden im privaten Kreis statt, also auch bei Crowleys. Nach seiner Konversion wurde auch Crowleys Vater ein solcher reisender Evangelist, der missionierend über Land zog, sämtliche Städte und Dörfer Südenglands besuchte und von Tür zu Tür Traktate verteilte. Kindheit und Jugend. In dieser durch äußerste Sittenstrenge gekennzeichneten Umgebung wuchs der kleine „Alick“ Crowley auf. Regelmäßig nahm er an Bibellesungen im Familienkreis und auch an den Missionsreisen seines Vaters teil und nahm dessen apokalyptisches Weltbild in sich auf, das ihn bis an sein Lebensende prägen sollte. Er hegte eine Vorliebe für die prophetischen Schriften des Alten und Neuen Testaments, insbesondere die Offenbarung des Johannes. In letzterer Schrift beeindruckten ihn vor allem das aus der Erde aufsteigende Tier mit zwei Hörnern, „das redete wie ein Drache“, und „die Frau, bekleidet mit Purpur und Scharlach“, am meisten – mythologische Gestalten, die später in seiner magischen Weltanschauung eine zentrale Rolle spielen sollten. 1887 starb Crowleys Vater. Die Witwe zog mit ihrem Sohn nach London in die Nähe des Bruders Tom Bond Bishop, der Crowleys Vormund wurde. Mit Beginn der Pubertät begann Crowley sich gegen die strenge Religiosität seiner Familie aufzulehnen. Seine Mutter gab ihn 1888 als 13-Jährigen in das darbystische Internat "School for the Sons of Brethren" in Cambridge, wo er unter den gewalttätigen Erziehungsmethoden seiner Lehrer litt. Weil Crowley beschuldigt wurde, sich mit einem Schulkameraden homosexuell betätigt zu haben, wurde er von der Schule genommen und erhielt in den folgenden beiden Jahren Hausunterricht. Seine Tutoren kamen vorwiegend von der "Cambridge Inter-Collegiate Christian Union" (CICCU), einer evangelikalen Studentenvereinigung. Nur an einen von ihnen erinnerte Crowley sich freundlich. Anscheinend machte dieser ihn ohne Wissen der Familie mit Tabak, Alkohol, Glücksspielen und Frauen vertraut. Eine Folge solcher frühen Exkursionen war eine Gonorrhoe, mit der er sich 1893 bei einer Prostituierten in Glasgow infizierte. Im Oktober 1895 begann er ein Studium der Geisteswissenschaften am Trinity College der Universität Cambridge. Im 23. Lebensjahr hatte er seine erste homosexuelle Beziehung mit einem Kommilitonen. Auch ging er häufig zu Prostituierten, was ihm zunächst eine Infektion mit Gonorrhoe und später mit Syphilis einbrachte. Er lernte den Bergsteiger Oscar Eckenstein kennen, unter dessen Einfluss er leidenschaftlicher Bergsteiger wurde. In dieser Zeit unternahm er jährlich eine Reise in die Alpen, 1895 erkletterte er im Alleingang den Eiger. In dieser Zeit veröffentlichte er auch seine erste Gedichtsammlung Aceldama. Crowley veröffentlichte auf eigene Kosten Bände mit eigener Lyrik, von denen einige günstige Pressekritiken erhielten. Seine Mutter bezeichnete ihn als Antichrist und beschimpfte ihn schon früh als „Beast“ („Bestie“), das heißt, sie verglich ihn mit dem großen Tier aus der Johannesapokalypse, dessen Zahl 666 ist, ein Titel, den er seinem Charakter entsprechend gerne für sich beanspruchte, da ihm der Satan-Teufel nicht unsympathisch war. In der Silvesternacht 1896 identifizierte sich Crowley in Stockholm so stark mit dieser Figur, dass er beschloss, sich der Magie zu widmen. Crowley komponierte in seiner Jugend Schachaufgaben und schrieb für die "Eastbourne Gazette" eine Schachkolumne. 1896 erbte Crowley mit 21 Jahren das ansehnliche Vermögen seines Vaters, das ihn wirtschaftlich von der Familie unabhängig machte und ihm ein Leben ohne feste Arbeit ermöglichte. Bereits 1914 hatte er das Erbe fast aufgebraucht. 1896 brach er sein Studium ohne Abschluss ab und begann sich fortan keltisierend "Aleister" zu nennen. Als er in einem Brief der Unzucht mit jungen Männern bezichtigt wurde, fahndete die Polizei europaweit nach ihm. Hinwendung zum Okkultismus und erste politische Aktivitäten. Nachdem er das College ohne Abschluss verlassen hatte, beschäftigte er sich mit dem Satanismus. Nachdem er das "Buch der Schwarzen Magie" "(Book of Black Magic and of Pacts)" von Arthur Edward Waite erworben hatte, begann er eine Korrespondenz mit dem Autor, der ihm als Lektüre Karl von Eckartshausens Werk "Die Wolke über dem Heiligthum" empfahl. Im selben Jahr wurde er bei den Jakobiten, die Anhänger der Stuarts waren, politisch aktiv und begann die spanischen Karlisten zu unterstützen. Crowley und der Golden Dawn. Im schweizerischen Zermatt traf Crowley 1898 den britischen Chemiker Julian L. Baker, der Mitglied im Hermetic Order of the Golden Dawn war. Nach einem Gespräch über Alchimie glaubte Crowley, er habe in ihm seinen herbeigesehnten „Meister“ getroffen, und teilte ihm mit, er sei auf der Suche nach der „Inneren Kirche“, über die er bei Karl von Eckartshausen gelesen hatte. Daraufhin vermittelte Baker den Kontakt zu dem Chemiker George Cecil Jones, der ihn am 18. November 1898 beim "Hermetic Order of the Golden Dawn" einführte. Er erhielt den Logennamen "Perdurabo" („Ich werde ausharren bis zum Ende“) und durchlief von Dezember bis Februar die ersten drei Grade des "Golden Dawn". 1898 erschien "White Stains", eine Sammlung erotischer Gedichte Crowleys. Crowley beschloss die Anweisungen im "Buch der heiligen Magie des Abramelin" zu befolgen, einem Zauberbuch, das der Leiter des "Golden Dawn", Samuel Liddell MacGregor Mathers, kurz zuvor bearbeitet und veröffentlicht hatte. 1899 lernte er Allan Bennett (alias "Iehi Aour") kennen, mit dem er ritualmagische Übungen des Ordens praktizierte. Da dieser in bescheidenen Wohnverhältnissen lebte, lud ihn Crowley ein, bei ihm zu wohnen. Bennett nahm das Angebot unter der Bedingung an, dass er Crowleys persönlicher Lehrer werde. Bennett suggerierte Crowley, es gebe eine Droge, welche „den Schleier hinter der Welt der Dinge zeige“, was Crowley veranlasste, mit Opium, Kokain, Morphin, Ether und Chloroform zu experimentieren. 1900 zog Bennett aus Gesundheitsgründen nach Ceylon, Crowley siedelte in das Boleskine House am Loch Ness nach Schottland über und nannte sich fortan "Laird of Boleskine". Da ihm die Londoner Mitglieder des "Golden Dawn" wegen seiner homosexueller Liebschaften den Aufstieg zum fünften Grad, dem "Adeptus Minor", verweigerten, besuchte Crowley im Januar 1900 MacGregor Mathers, den Gründer des Pariser "Golden Dawn", der ihn schließlich in den fünften Grad einweihte. Der Ordenszweig in London erkannte diese Weihe nicht an, Mathers wurde aus dem "Golden Dawn" ausgeschlossen. Nach heftigen Auseinandersetzungen mit dem von ihm zunächst bewunderten Mathers verließ Crowley 1900 nach nur zwei Jahren den "Golden Dawn". Ehe mit Rose Kelly. Am 11. August 1903 traf Crowley die verwitwete Rose Edith Kelly, geschiedene Skerrit. Sie war eine Tochter von Frederick Festus Kelly, dem Vikar von Camberwell, und die Schwester seines engen Freundes, dem Maler Gerald F. Kelly (1879–1972) und späteren Präsidenten der Kunstakademie. Von ihrer Familie wurde sie bedrängt, wieder zu heiraten; eine Eheschließung war bereits avisiert. Crowley wollte Rose aus dieser Situation befreien und machte ihr bei ihrer ersten Begegnung einen Heiratsantrag. Die beiden heirateten spontan am nächsten Morgen. Die siebenmonatige Hochzeitsreise führte nach Paris, Neapel, Marseille, Kairo und Ceylon. Aus der Ehe gingen zwei Töchter hervor: 1904 Lilith, die 1906 in Rangun an Typhus starb, und im Februar 1907 Lola Zaza. 1909 wurde die Ehe geschieden. Die "Stele des Anchefenchons". Während der Hochzeitsreise führten die Eheleute am 8. Februar 1904 in Kairo eine Geisterbeschwörung durch, während der Rose in Trance ihren Gatten aufforderte, einen Gott anzurufen, den sie auf einer bemalten Holzstele im ehemaligen Boulak-Museum als Horus erkannt haben wollte. Es handelte sich um die etwa 650 v. Chr. gefertigte Stele des Anchefenchons, die sich heute im Ägyptischen Nationalmuseum befindet. Das Bild stellt den Hohepriester Anchefenchons als Künder von Month dar, der vor dem auf einem Thron sitzenden Horus in der Gestalt des falkenköpfigen Re-Harachte steht. Die Stele trug die Nummer 666, was Crowley als Omen wertete, da er sich mit der Zahl 666, der Zahl des Tieres in der Offenbarung des Johannes, bereits früher identifiziert hatte. Das ‚Buch des Gesetzes‘ "(Liber Legis)". Anfang April 1904 übersetzte Crowley die Inschrift der "Stele des Anchefenchons". Seine Frau, die ihm als Medium diente, soll ihm währenddessen mitgeteilt haben, dass sie nicht Horus oder "Ra-Hoor-Khuit" channele, sondern deren Botschafter Aiwaz. Am 7. April 1904 soll Crowley von seiner Frau befohlen worden sein, sich an den drei aufeinander folgenden Tagen jeweils um 12:00 Uhr in eine Wohnung nahe dem Museum zu einer Niederschrift einzufinden. Dort schrieb er angeblich nach Aiwaz’ Diktat das Buch "Liber Legis" (später "Liber AL vel Legis", „Buch des Gesetzes“) nieder, das in Crowleys Lehren später eine zentrale Rolle spielte. Es wird darin der Beginn eines neuen Äons verkündet, in dem der Mensch sich der göttlichen Mächte in Gestalt der neuen Trinität der Götter Nuit, Hadit und Ra-Hoor-Khuit versichern und mit ihr verschmelzen könne, wodurch er selber göttlich werde. Die Handschrift mit dem "Liber Legis" ging für einige Jahre verloren. Erst 1909 fand Crowley sie wieder, was ihn in dem Glauben bestärkte, der Verkünder und Prophet einer neuen Weltreligion zu sein. Sein "Gesetz von Thelema" zu verbreiten, betrachtete er ab 1916 als seine Mission. Die ethischen und politischen Auffassungen des "Thelema". Die „Offenbarungen“ des Buchs "Liber Legis" bilden die Grundlage der „thelemischen Ethik“. Sie sind antidemokratisch, antichristlich und zeugen von einer Verachtung des Durchschnittsmenschen. Die Demokratie wird als „ekelerregender Kult der Schwäche“ bewertet und ist in der von Thelema angestrebten Herrschaftsform nicht vorgesehen. Das Buch verdammt das Mitleid, hält Krieg für bewundernswert und enthält in 220 Versen die Leitlinien für die Menschheitsevolution in den kommenden 2000 Jahren. Crowley versuchte stets den Eindruck zu erwecken, nicht der Urheber des Buchs zu sein, und behauptete, dass die Botschaften des "Liber Legis" nicht notwendig seinen persönlichen Überzeugungen entsprächen. Sein Sekretär Israel Regardie zeigte demgegenüber auf, dass unbenommen von dem behaupteten medialen Empfang die im Buch zum Ausdruck gebrachten Darstellungen mit denjenigen Überzeugungen absolut konform gingen, die Crowley zeitlebens vertrat. In Crowleys späteren Deutungen des "Liber Legis" greift er in seinen Kommentaren die bürgerlichen Werte an, die er mit dem Christentum gleichsetzt, da diese der von ihm propagierten thelemischen Ethik und der sexuellen Freiheit entgegenstünden. Darin brachte er seine Verachtung der christlichen Auffassung der Sexualität, insbesondere der Ehe, zum Ausdruck. Crowley plädierte dafür, dass die „Schwachen“ von den „Starken“ zertreten werden müssten, was weniger eine ethische als eine biologische Frage sei, weshalb der Kampf gegen das Christentum ohne Kompromisse radikal und erbarmungslos durchzuführen sei. Mitleid und die humanitäre Gesinnung, die Crowley als „die Syphilis des Geistes“ bezeichnete, seien radikal auszuschalten, wobei er ausdrücklich Friedrich Nietzsche zitiert. Der Religionswissenschaftler Kocku von Stuckrad sieht in der Konzeption des "Liber Al" bei allen heidnischen Elementen deutliche Spuren einer christlichen Semantik, nur setze Crowley vor die Ethik und die Eschatologie seines christlich-fundamentalistischen Elternhauses ein umgekehrtes Vorzeichen: Der ursprüngliche Inhalt bleibe aber erkennbar. Reisen. Mit dem Aufblühen des Tourismus reiste Crowley in jungen Jahren mit seinen Eltern nach Frankreich und in die Schweiz. Später machte er sich einen Namen als Bergsteiger. Nachdem man ihn aus dem "Golden Dawn" ausgeschlossen hatte, reiste er im Mai 1900 zum Bergsteigen nach Mexiko. In Mexiko-Stadt knüpfte er okkulte Kontakte. 1901/1902 reiste er nach Indien und ins Himalaya-Gebirge. Expedition zum K2. Crowley während seiner K2-Expedition (1902) 1901–1902 nahm er an einer britisch-österreichischen Expedition unter der Leitung von Oscar Eckenstein zur Erstbesteigung des K2 im Karakorum teil. Die sechs Bergsteiger mussten rund 1.900 Meter unterhalb des Gipfels auf 6.700 Metern umkehren, was damals ein Rekord war. Crowley sagte 1929 über diese Expedition, dass es einen handfesten Streit um die Aufstiegsroute gegeben habe. Er wäre lieber über den Südostgrat (die Route der erfolgreichen Erstbesteiger und heutiger Normalweg) aufgestiegen, anstatt sich wie dann geschehen dem Nordostgrat zuzuwenden. 1914 wurde Crowley in Ardelot bei Boulogne von der französischen Polizei inhaftiert, weil man ihn mit dem steckbrieflich gesuchten Hochstapler Gerard Lee Bevan verwechselte, dem er in seiner Kostümierung (Kilt und schwarze Kraushaarperücke) zum Verwechseln ähnlich sah. Er erwirkte seine Freilassung, indem er die Beamten überzeugte, nicht der Betrüger, sondern der berühmte Bergsteiger Crowley zu sein. Dazu legte er als Beweis Guillarmods K2-Buch vor, in dem ein Bild von ihm abgedruckt war. Nach Europa zurückgekehrt, verbrachte er mehrere Monate in Paris, wo er im kosmopoliten Flair des Stadtviertels Montparnasse viele Künstler und Intellektuelle kennenlernte. Expedition zum Kangchendzönga. Der Kangchendzönga mit seinen vier über 8000 Meter aufragenden Gipfeln Nachdem er den Winter 1904 in St. Moritz verbracht hatte, schlug Guillarmod eine neue Expedition vor, um mit einer Seilschaft den dritthöchsten Berg der Welt, den Kangchendzönga, zu bezwingen. Crowley willigte ein, bestand aber stur auf der Führerrolle. Das veranlasste Oscar Eckenstein, aus dem Unternehmen auszusteigen. Stattdessen wurden die erfahrenen Alpinisten Alexis Pache und Christian Reymond und der bergsteigerische Laie de Righi angeworben. Die fünf unterzeichneten einen Vertrag, in dem Crowley als der einzige oberste Richter in sämtlichen bergsteigerischen Fragen anzuerkennen sei, während die anderen seinen Anordnungen unbedingten Gehorsam zu leisten hätten. Am 8. August startete man mit 230 Trägern und sieben Tonnen Gepäck. Crowley schlug die Route über den Yalung-Gletscher ein, was Frank Smythe, der den Berg 1930 von Nordwesten anging, als sinnloses Unterfangen bezeichnete. Nach drei Tagen kam es zu handfesten Streitigkeiten zwischen Crowley, der mit allen zerstritten war, und Guillardmod, weil Crowley einen Teil der Träger vorsätzlich barfuß laufen ließ, sie mit Schlägen vorwärts trieb und der Rückweg nicht mit Markierungen versehen wurde. Am nächsten Tag desertierten drei Träger, und einer stürzte zu Tode. In der Nacht ergriffen weitere misshandelte Träger heimlich die Flucht. Am nächsten Morgen brachen Guillarmod und de Righi zu Crowleys Lager IV auf, um ihn wegen seines Versagens als Expeditionsleiter abzusetzen. Die Expedition endete 2.186 Meter unter dem Gipfel auf 6.400 Metern im Desaster, als Alexis Pache und drei Träger, deren Namen nicht überliefert sind, bei einem Lawinenunglück ums Leben kamen. Daraufhin desertierte Crowley und stieg alleine ab, ohne sich zu erkundigen, ob die verunglückten Kameraden geborgen werden konnten. Diese Vorfälle brachten ihn als Bergsteiger in Verruf. 1906 erschien im "The Alpin Journal" ein Bericht über diesen Besteigungsversuch, in dem bemerkt wurde, dass, wenn es Crowleys Absicht gewesen sei, sich in den Augen aller Bergsteiger zu blamieren, ihm das nun voll und ganz gelungen sei. Angesichts des Prozesskostenrisikos verzichtete Guillarmod darauf, Crowley wegen Veruntreuung der von ihm zum größten Teil gestifteten Expeditionsgelder gerichtlich zu verfolgen. Nach dem Lawinenunglück am Kangchendzönga ging Crowley mit dem Maharadscha von Mohabanj in Orissa auf Großwildjagd. Im Anschluss reiste er mit seiner Frau und der einjährigen Tochter nach Birma. Von dort wurde die vier Monate währende Reise mit Ponys über Südchina nach Vietnam fortgesetzt. Während seiner Tour durch Südchina führte er das "Ritual des Augoeides" durch, das in Modifizierung des "Rituals des Abramelin" zur Erlangung der Kenntnis des eigenen "Heiligen Schutzengels" dienen sollte. Das besondere an dem 32 Wochen lang durchgeführten Ritual war dessen lediglich imaginierte Ausführung. Nach England zurückgekehrt veröffentlichte er eine Sammlung seiner Jugendwerke in drei Bänden, meist Poesie ("Collected Works", 1905–1907), eine Sammlung von Essays ("Konx Om Pax", 1907) und eine wichtige Synthese seines "system of correspondences" ("777", 1909), das er auf der Grundlage des Golden-Dawn-Systems entwickelt hatte. In dieser Periode lernte er den britischen Offizier John Frederick Charles Fuller (1878–1966) kennen, den er für seine Arbeit interessierte. Fuller schrieb daraufhin die erste kritische Arbeit über Crowley ("The Star in the West", 1907) und half ihm 1909 seinen eigenen Orden, den Astrum Argenteum, aufzubauen. Beginn der Beziehung mit Victor Neuburg. 1908 wurde Crowley von Hauptmann John Frederick Charles Fuller mit dem 25-jährigen Victor Benjamin Neuburg bekannt gemacht, der sich mit Spiritismus beschäftigte. Crowley gab Neuburg Unterricht in Magie und weihte ihn in homosexuelle Praktiken ein, die durch sadomasochistische Elemente gekennzeichnet waren. Im November und Dezember 1909 reisten beide durch Marokko und vollzogen dort die „Henochischen Anrufungen“ John Dees. 1911 reisten sie ein zweites Mal in die Sahara. Gründung des "Astrum Argenteum" (1907). 1907 gründete Crowley nach dem Vorbild des "Golden Dawn" seine eigene Geheimgesellschaft Astrum Argenteum (A∴A∴), den „Orden des silbernen Sterns“ (auch: S∴S∴), in der die Selbsteinweihung und der Hass des Ichs gelehrt wurden, um den Abyssus zu überqueren. Ab März 1909 gab die Zeitschrift "The Equinox" heraus, von der zehn Bände jeweils zur Sommer- und Wintersonnenwende erschienen. "The Equinox" enthielt Aufsätze, Rituale, Gedichte, Erzählungen und Rezensionen. Im Frühjahr 1910 versuchte Mathers vergeblich, das Erscheinen von "The Equinox" gerichtlich untersagen zu lassen, um zu verhindern, dass auch Rituale des "Golden Dawn" veröffentlicht wurden. Der Prozess wurde international stark beachtet und verschaffte Crowley weltweit Beziehungen zu verschiedenen Esoterikern und Okkultisten. Zu dieser Prominenz trugen auch öffentlich durchgeführte Rituale wie die an den antiken Mysterien von Eleusis orientierten „Rites of Eleusis“ bei, mit denen er 1910 die Aufmerksamkeit der Londoner Öffentlichkeit auf sich zog. Im Lehrsystem des A∴A∴ ist das "Liber Legis" das Hauptlehrbuch. Die Gradeinteilung des A∴A∴ wurde von Crowley weitgehend vom "Golden Dawn" übernommen. Um 1910 wurden in der Presse Gerüchte über Crowleys Homosexualität und die angebliche Unmoral der Aktivitäten seines A∴A∴-Ordens verbreitet, was mehrere Mitglieder zum Austritt veranlasste. Diesen Gerüchten und Anschuldigungen, die ihren Höhepunkt nach dem Ersten Weltkrieg erreichten, blieb Crowley für den Rest seines Lebens ausgesetzt. Aufbau des O.T.O. (ab 1912). 1912 veröffentlichte Crowley "The Book of Lies". Das Buch thematisiert kabbalistisches Wissen, beschreibt magische Rituale und enthält Wortspiele und mehrdeutige Geschichten. Der Okkultist Theodor Reuß suchte Crowley deswegen auf und beschuldigte ihn, in dem Buch widerrechtlich ein geheimes Ritual seines eigenen Ordens preisgegeben zu haben, was Crowley bestritt. Reuß war beschäftigt, den irregulären Ordo Templi Orientis (OTO) zu konstituieren, um sexualmagische Praktiken zu lehren. Er lud Crowley zur Mitarbeit ein und erlaubte ihm eine eigene, englische Sektion des OTO („Mysteria Mystica Maxima") zu gründen, was Crowley in dem Glauben bestärkte, eine prophetische Rolle in Bezug auf Thelema zu spielen. Im März 1910 wurde Crowley in den achten Grad des OTO in England eingeweiht, am 21. April 1912 wurde er X° des OTO von England und Irland. Nachdem er 1912 in den ersten beiden Teilen seines "Book Four" seine Ansichten über Magie dargelegt hatte, begann er im Folgejahr mit den sexualmagischen Basistechniken zu experimentieren, die ihm von Reuss nahegebracht worden waren. In der Folgezeit überarbeitete Crowley das System des O.T.O., das bis dahin neun Grade umfasst hatte, und erweiterte es auf elf. In den Graden acht, neun und elf spielten von nun an sexualmagische Riten eine Rolle, die unter anderem Autoerotik und homosexuelle Akte umfassten. Im Januar und Februar 1914 führte Crowley mit seinem Liebhaber Neuburg in Paris erste sexualmagischen Handlungen im neuen elften Grad durch. Dabei handelte es sich um Analverkehr, bei dem Merkur (alias Hermes und Thot) und Jupiter mit dem Ziel angerufen wurden, Weisheit und Inspiration zu erlangen und Geld „herbeizuzaubern“. Teile der Riten, die er später „The Paris Working“ nannte, hatten sadomasochistischen Charakter. Sie setzten Neuburg so zu, dass er seine Beziehung mit Crowley im Februar 1914 beendete. Eine Beschreibung der magischen Erfahrungen während der Anrufungen und Astralreisen in der algerischen Wüste erschien 1911 in "The Equinox" (I, 5) unter dem Titel "The Vision and the Voice". Erster Weltkrieg in den USA. Beim Ausbruch des Ersten Weltkriegs hielt sich Crowley in der Schweiz auf. Er fuhr nach England zurück, nach eigenen Aussagen um den britischen Geheimdiensten seine Dienste anzubieten, die das Angebot jedoch ausschlugen. Im Oktober 1914 reiste Crowley in die Vereinigten Staaten. Ursprünglich hatte er nur einen zweiwöchigen Aufenthalt geplant, währenddessen er einem Sammler einen Teil seiner Buchbestände verkaufen wollte. Crowley verbrachte fünf Jahre in den USA in Armut. Er nahm eine Beziehung mit der Amerikanerin Jeanne Robert Foster auf, die ihm später einen Sohn gebar. Mit ihr reiste er zur Weltausstellung 1915 nach San Francisco. Am 19. Oktober trafen sie in Vancouver bei einem A∴A∴-Mitglied namens "Achad" ein und fuhren nach Point Loma, wo Crowley der Präsidentin der Theosophischen Gesellschaft in Amerika, Katherine Tingley, eine Allianz mit seinem A∴A∴-Orden vorschlagen wollte. Tingley verweigerte jedoch ein Zusammentreffen, worauf Crowley erbost nach New Orleans abreiste. Seine Freundin blieb zurück, weil sie seine favorisierte Sexualpraktik, den Analverkehr, nicht mehr ertrug. Propagandatätigkeiten für das Deutsche Reich und Spionage. Crowley publizierte während des Ersten Weltkriegs in New York anti-britische Kriegspropaganda. Diese Artikel veröffentlichte er in der deutschfreundlich eingestellten Propagandazeitung "The Fatherland" und in dem Magazin "Vanity Fair". Im August 1917 übernahm er acht Monate lang die Leitung der Zeitung "The International" und nutzte die Gelegenheit, um in Artikeln, Gedichten und Erzählungen Werbung für seine auf dem "Liber Legis" beruhende Religion zu betreiben. Wegen seiner Propagandatätigkeit für das Deutsche Reich durchsuchte die Londoner Polizei im Frühjahr 1917 den Hauptsitz des O.T.O. in England. Auch wenn er nach dem Krieg erklärte, dies seien satirische Schriften gewesen, konnte dies seinen überwiegend schlechten Ruf in der Öffentlichkeit nicht verbessern. Laut dem Historiker Richard B. Spence beweisen Dokumente in den Archiven der amerikanischen Geheimdienste, dass Crowley an britischen Spionagetätigkeiten in den USA beteiligt war. Spence vermutet, Crowley habe mit einer Zelle des MI1c (Military Intelligence, Section 1c) kooperiert, der auch als SIS (Secret Intelligence Service) bekannt war und nach dem Krieg zum „MI6“ wurde. Magische und sexualmagische Operationen. Ab Frühjahr bis Sommer 1916 pflegte Crowley den Umgang mit dem indisch-britischen Kunsthistoriker Ananda Kentish Coomaraswamy. Er begann mit dessen zweiter Ehefrau, der englischen Sängerin Ratan Devi (eigentlich Alice Richardson), ein Verhältnis und vollzog mit ihr diverse sexualmagische Operationen, woraufhin sie schwanger wurde, das Kind allerdings verlor. In der Folge unterstellte Crowley Coomaraswamy, seine Frau mutwillig zu einer langen Schiffsreise gezwungen zu haben, um eine Fehlgeburt hervorzurufen, wobei er ihn mit rassistischem Unterton beleidigte. Im Sommer 1916 weihte sich Crowley in New Hampshire in den vorletzten Grad des "Golden Dawn", den „Grad des Magus“, ein. Dazu zelebrierte er im Juni 1916 ein schwarzmagisches Ritual, um die Überreste des "vorangegangenen Äons" zu beseitigen und dessen "Sterbenden Gott" zu bannen. Ab Juni 1917 übernahm Ann-Catherine Miller die Rolle der „scharlachroten Frau“, wie Crowley seine Partnerinnen bei sexualmagischen Praktiken nannte. Nachdem sie Alkoholprobleme bekommen hatte, folgte ihr Roddie Minor nach, die im Januar 1918 kabbalistische Informationen von den „Geheimen Meistern“ erhielt. Ihren Äußerungen entnahm Crowley die vermeintlich richtigen Schreibweisen und Zahlenwerte der Namen "Therion" (ThRIVN=666) und Baphomet. Durch Minors im Opiumrausch und exzessiven sexualmagischen Praktiken entstandene Visionen wandelte Crowleys seinen Schutzengel Aiwaz in "OIVZ" um, mit dem für die Thelemiten bedeutsamen Zahlenwert 93, demselben Zahlenwert wie Thelema (Wille) und Agape (Liebe). Leah Hirsig vor einem Crowley-Gemälde Im März 1918 wurde Miller zeitweise durch Marie Lavroff ersetzt, bis Crowley im Frühjahr 1918 die Schwestern Alma und Leah Hirsig kennenlernte. Alma hatte bereits einschlägige Erfahrungen in einer Sekte gesammelt, die sie in dem Buch "My Life in a Love Cult" beschrieb. Leah blieb am längsten bei Crowley. 1918 traf Crowley in New York mit Harvey Spencer Lewis zusammen, dessen Geheimorden AMORC daraufhin Crowleys propagierte Devise „Do what you wilt…“ und „Love is the law, love under will“ bis in die 1950er Jahre als angeblich klassische Rosenkreuzergesetze verwendete. 1936 machte Crowley Anstalten, den AMORC zu übernehmen, was wegen Crowleys Konkurs jedoch scheiterte. Zurück in England verschrieb ihm sein Arzt wegen der Asthma-Anfälle ab 1919 Heroin. Sizilienaufenthalt (1920–1923). Die "Abtei von Thelema" heute Crowley und Hirsig beschlossen, ein europäisches Zentrum zu gründen, um von dort die Thelema-Lehre zu propagieren. 1920 siedelten sie ins sizilianische Cefalù über, wo Crowley die "Abtei Thelema" gründete. Zum Kern der Thelemiten zählten neben Crowley die Lehrerin Leah Hirsig, die seine Geliebte war, und die ehemalige französische Gouvernante Ninette Shumway. Die meisten der zahlreichen Gäste, die sich in den nächsten drei Jahren einfanden, kamen aus England. Hirsig und Crowley hatten eine gemeinsame Tochter, Anna Leah, die den Kosenamen "Poupée" erhielt. Nach deren Tod am 19. Oktober 1920 eskalierten die Auseinandersetzungen und veranlassten die Polizei 1921 zu einer Razzia in der Abtei. Innerhalb der Abtei mussten sich die Männer die Köpfe bis auf eine Phalluslocke kahl scheren, denn die Stirnlocke galt als Symbol für die magische Kraft des Horus oder die Hörner des Pan. Die Frauen trugen hellblaue, purpurgesäumte, lose fließende Roben mit Kapuze und hatten sich die Haare rot oder golden zu färben, was als Symbol der „Frau in Scharlach“ galt. Das Lesen von Zeitungen war verboten. Jeder hatte ein magisches Tagebuch zu führen, das Crowley zur Kontrolle vorzulegen war. Nach dem Tod des Thelemiten Raoul Loveday in der Abtei wandte sich dessen Witwe Betty May an die britische Presse und verklagte Crowley. Loveday soll nach einem Ritual gestorben sein, bei dem er das Blut einer rituell geopferten Katze getrunken hatte. Crowley verlor den Prozess, was ihn ins gesellschaftliche Abseits brachte, zumal die Presse sich auf die Skandalgeschichte stürzte. Gescheiterter Heroinentzug. Der seit Jahren heroin- und kokainsüchtige Crowley konsumierte täglich durchschnittlich drei Gran Heroin. Mehrere Entzugsversuche scheiterten. Deshalb verließ er 1922 vorübergehend die Abtei, um sich zum Zweck des Heroinentzugs nach Fontainebleau nahe Paris zu begeben. Die Entwöhnungskur scheiterte jedoch, und er blieb bis zu seinem Tode heroinabhängig. Um aus seiner Geldnot herauszukommen, schrieb er den vom Kommunenleben in Cefalù handelnden Roman "The Diary of a Drug Fiend" („Tagebuch eines Drogenabhängigen“), der 1922 erschien und von der Zeitung "The Sunday Express" als Aufruf zum hemmungslosen Drogenkonsum kritisiert wurde. Wegen zunehmender Presseangriffe schob Crowley die Veröffentlichung seiner Biographie bis 1929 auf. Im Oktober 1922 kehrte er nach Cefalù zurück und machte genau während der Tage einen Zwischenstopp in Rom, als die Faschisten in die Stadt einmarschierten. Ausweisung aus Italien und Exil in Tunesien. Nach einem Briefwechsel mit dem Kommissar von Céfalu befahl der italienische Diktator Benito Mussolini Crowley zu observieren. Nach Hinweisen durch die Nachbarn wurde eine Hausdurchsuchung der Abtei Thelema vorgenommen. Der anschließende Durchsuchungsbericht mit seinen Schilderungen der im Haus vorgefundenen Malereien bildete die konkrete Vorlage für die Ausweisung Crowleys: Am 23. April 1923 wurde Crowley von der Regierung aus Italien ausgewiesen, nachdem Geheimbünde und oppositionelle Parteien für illegal erklärt worden waren. Crowley ging für kurze Zeit nach Tunesien, verfasste dort die kleine satirische Gedichtsammlung "Songs for Italy" gegen Mussolini und dessen Regime (die er auf eigene Kosten veröffentlichte). Spaltung der Rosenkreuzerbewegung und Ausrufung zum "Weltlehrer". 1922 legte der gesundheitlich angeschlagene Reuß seine Ämter im O.T.O. nieder und bestimmte Crowley zu seinem Nachfolger, was auf massiven Widerstand seitens der deutschen Ordensmitglieder stieß. Als Reuß 1923 verstarb, übernahm Heinrich Tränker die Kontrolle über den deutschen O.T.O.-Zweig, da Crowleys Lehren in Deutschland keine allgemeine Zustimmung fanden. Im Sommer 1925 veranstaltete die "Deutsche Rosenkreuzerbewegung", die den deutschen O.T.O. und die Pansophia umfasste, deshalb die Weida-Konferenz im thüringischen Weida, um einen neuen Leiter zu wählen. Dazu luden dier Veranstalter Heinrich Tränker, Albin Grau, Karl Germer, Martha Küntzel und Gregor A. Gregorius auch Crowley, Hirsig und Normann Mudd ein, die aus Paris anreisten. Crowley war 1925 von seiner Rolle, der "Retter der Menschheit" und Verkünder einer neuen religiösen Botschaft zu sein, völlig überzeugt und verfolgte von Deutschland ausgehend den Plan, sich von okkulten Gruppen zum "Weltlehrer" oder "Weltheiland" ausrufen zu lassen, dessen Erscheinen insbesondere die Theosophische Gesellschaft seit Langem erwartete. Als Rechtfertigung behauptete er, dazu von einer unsichtbaren "weißen Bruderschaft" befugt worden zu sein. Die Konferenz führte zu einer Spaltung der "Deutschen Rosenkreuzerbewegung" in eine Fraktion, die Crowley als internationales Oberhaupt anerkannte, und eine opponierende Gruppe, die ihn ablehnte. So übernahm Crowley 1925 als „Bruder Baphomet“ de facto die O.T.O.-Ordensleitung, auch wenn er kein Ernennungsdekret hatte, und ließ sich dazu von den ihm geneigten Anwesenden eine Ermächtigung zum "Weltlehrer" unterschreiben. Martha Künzel machte sich in der Folgezeit für ihn stark, und Germer wurde einer seiner wichtigsten „Sponsoren“ und Unterstützer in finanzieller und organisatorischer Hinsicht. Tränker und Grau wurden von Crowleys antichristlicher Haltung abgestoßen und zogen ihre Unterstützung unmittelbar nach der Weida-Konferenz zurück. Auch Mudd (1927) und Hirsig (1928) widerriefen ihre Unterschrift später. Mit der Anerkennung Crowleys als ihr Oberhaupt anerkannten die verschiedenen deutschen esoterischen Gruppierungen Crowleys im Wesentlichen auf dem "Liber Legis" beruhende Botschaft an. Crowley verkündete, dass derjenigen Nation die Weltherrschaft zufallen werde, die als erste sein Buch "Liber Legis" zu ihrem Staatsgrundsatz erklärt. Pariser Jahre (1924–1929). 1924 zog Crowley nach Frankreich, wo er zunächst mit Frank Harris in Nizza zusammentraf, mit dem er unternehmerische Projekte avisierte. Dann schlug er sein Hauptquartier in Paris auf, wo er mit Unterbrechungen bis 1929 lebte. Weltlehrer-Kampagne. Im Frühjahr 1925 begann Crowley von Tunis aus mit seiner „World Teacher Campaign“ („Weltlehrer-Kampagne“). Damit trat er in Konkurrenz zur Theosophischen Gesellschaft, die zur gleichen Zeit unter Federführung von Annie Besant und Charles Webster Leadbeater versuchte, den jungen Inder Jiddu Krishnamurti als spirituellen Weltlehrer aufzubauen. Crowley startete seine Kampagne mithilfe kleiner Abhandlungen und Traktate, um Krishnamurti als denjenigen zu „entlarven“, den er für einen „falschen Messias“ hielt, und sich selbst als den wahren „Weltlehrer“ zu inszenieren. Trotz des europäischen Medienechos war der Kampagnenerfolg eher bescheiden. In dieser Zeit traf Crowley in dem "Institut für die harmonische Entwicklung des Menschen" bei Paris mit Georges I. Gurdjieff zusammen. Zweite Ehe und Ausweisung aus Frankreich wegen Spionage. Am 17. März 1929 wurde Crowley wegen Spionage aus Frankreich ausgewiesen, was ein breites Echo in der internationalen Presse erzeugte. Unter anderem wurde der Landesverweis durch Regardies besorgte Schwester initiiert, die den französischen Botschafter in Washington ersuchte, ihrem Bruder kein Visum zu erteilen. Da das Visum bereits erteilt war, veranlasste der Botschafter Untersuchungen in Paris, wo sich der Vorgang mit einer polizeilichen Anzeige De Vidal Hunts gegen Crowley kreuzte, der seit Dezember 1928 gegen ihn prozessierte. Im August 1929 heiratete Crowley in Leipzig die Nicaraguanerin Maria Theresa de Miramar, damit diese die britische Staatsbürgerschaft erhielt. Im selben Monat reisten beide zusammen mit Regardie nach England, wo sie sich in einem Landhaus in Kent niederließen. Aufenthalt in Deutschland und Portugal (1930–1932). Im Frühjahr 1930 reiste er mit seiner Frau nach Deutschland und plante, seine Bilder in einigen deutschen Städten auszustellen. Von September 1930 bis Mitte 1932 weilte er in Berlin, wo er mit Alfred Adler, Christopher Isherwood, Aldous Huxley und vor allem Gerald Hamilton verkehrte. Am 23. April 1930 traf er in der Berliner Wohnung von Henry Birven mit Arnold Krumm-Heller zusammen, der ihm schon 1928 in einem Brief zwecks Ausbreitung seiner Organisation angeboten hatte, seine Ideen in den spanischsprachigen Ländern Südamerikas publik zu machen. Eine engere Zusammenarbeit kam jedoch nicht zustande. In Berlin verliebte sich Crowley in die 19-jährige Künstlerin Hanni Jaeger. Er nahm sie mit nach England und ließ seine Ehefrau Maria Theresa in Deutschland zurück, die 1930 in eine Nervenheilanstalt eingewiesen wurde. Ende August 1930 verreiste er mit Jaeger nach Lissabon, wo er mit dem bekannten Dichter Fernando Pessoa zusammentraf. Nachdem sich Hanni von ihm getrennt hatte und nach Deutschland abgereist war, täuschte Crowley in der Nähe von Cascais, am „Boca do Inferno“, unter Pessoas Mitwirkung seinen Selbstmord vor. Bei einem Spaziergang Unter den Linden lernte Crowley am 3. August 1931 die 36-jährige Bertha Busch kennen, mit der er eine Beziehung einging. Er zog mit ihr zusammen und weihte sie zur "großen Hure des Tieres 666". Als Crowley sie bei einem Streit öffentlich misshandelte, eilte ihr ein SA-Trupp zu Hilfe und verprügelte Crowley. Letzte Jahre in England (1932–1947). 1932 kehrte Crowley aus Deutschland nach England zurück, wo er bis zu seinem Tode blieb. Seine Gesundheit war durch den beständigen Drogenkonsum zerrüttet. Finanziell blieb er trotz seiner schriftstellerischen Betätigung auf die finanzielle Unterstützung seiner Schüler angewiesen. Dabei führte er ein reges gesellschaftliches Leben. 1934 verklagte er seine alte Freundin Nina Hamnett, die sich in ihren Memoiren unvorteilhaft über seine Abtei Thelema geäußert hatte. Das Gerichtsverfahren endet nach vier Tagen in einer Niederlage: Crowley wurde selbst zum Angeklagten, intime Einzelheiten über sein Privatleben wurden publik. Im Juli wurde er angeklagt, Briefe gestohlen und gehehlt zu haben, um sie im Prozess gegen Nina Hamnett zu verwenden. Er wurde zu zwei Jahren Freiheitsstrafe auf Bewährung verurteilt. 1935 erklärte man ihn für bankrott. 1937 lernte er Frieda Harris kennen, mit der er das Tarotblatt „Thoth-Tarot“ entwickelte: Dabei bezogen sie sich auf Arbeiten Éliphas Lévis, der eine Verbindung zwischen Tarot und dem Baum des Lebens der Kaballah hergestellt hatte. Während des Zweiten Weltkrieges verfasste Crowley unter dem Titel "Liber OZ" die thelemitische „Erklärung der Menschenrechte“, die heute von allen OTO-Gruppen vertreten wird. In seinen letzten Jahren lebte er außerhalb Londons, um vor den deutschen Luftangriffe sicher zu sein. Crowley starb vereinsamt am 1. Dezember 1947 in Hastings (Sussex) in der Pension "Netherwoods" mit 72 Jahren an Herzmuskelschwäche. Seine letzten Worte waren "„I’m perplexed“" (‚Ich bin verwirrt‘). Magisches System. Dabei legte Crowley Wert darauf, dass der Mensch zuerst erforschen müsse, worin dieser eigene Wille bestehe, um gewollt handeln zu können. Der Satz besagt "nicht", wie von seinen Gegnern oft unterstellt: „Tue, worauf immer du Lust hast, ist das ganze Gesetz.“ Crowley behauptete, auf Geheiß einer imaginierten höheren Intelligenz, der mentalen "weißen Bruderschaft", zu handeln und war Versammlungen gegenüber nicht zugetan. Er empfand sich als geistigen Führer der Menschheit. Über seine magischen Fähigkeiten, mit denen er keine Wunder vollbringen, aber geistige Krisen verursachen könne, äußerte er sich zwiespältig: „Mag sein, dass ich ein schwarzer Magier bin, aber auf jeden Fall bin ich ein verdammt guter Magier.“ Crowleys Erscheinung sei ehrfurchtgebietend oder furchterregend gewesen: Er trug sonderbare Kleidung und Ringe, eine Glatze, habe ein fettes, feminines Gesicht und einen starren, kalten Blick gehabt und soll einen süßlich-ekelerregenden Geruch abgesondert haben, der von einer Sex-Appeal-Salbe herrührte, mit der er sich mit der Absicht einzureiben pflegte, seine Anziehungskraft auf Frauen zu steigern. Crowley pflegte zwei seiner Zähne spitz zu feilen und Frauen den „Schlangenkuss“ zu geben, indem er sie ins Handgelenk biss. Bei verschiedenen Gelegenheiten defäkierte er auf die Teppiche der Salons oder Treppenhäuser seiner Freunde. Crowley kreierte einige Wortneuschöpfungen, um sich von anderen esoterischen Lehren zu unterscheiden. Zum Beispiel grenzte er sich von der Bühnenmagie ab, indem er den esoterischen Bereich der Magie als "Magick", anstelle von "Magic", bezeichnete. Seine Philosophie soll auf gnostische und tantrische Quellen zurückgegriffen haben, auch wenn Crowley über keinerlei vertiefte Kenntnisse des indischen Tantra verfügte. Ich-Aufgabe. Crowley propagierte die Selbsteinweihung durch „Unbekannte Obere“, die das Ich zerstören, und lehrte, dass „das Dasein reinstes Vergnügen sein müsse“. Charakteristisch für seine Philosophie ist, dass das Ich oder das Bewusstsein als hinderlich angesehen wird. So wurde in der Abtei Thelema eine Übung praktiziert, bei der es nur dem Abtei-Oberhaupt erlaubt war, das Wort „Ich“ zu gebrauchen, während alle anderen stattdessen „man“ sagen mussten. Wer diese Regel brach, musste sich mit einem Rasiermesser für jedes ausgesprochene „Ich“ in den Arm schneiden. Diese Übung sollte nach Crowleys Philosophie nicht zur Unterdrückung des Ich beitragen, sondern dessen spirituelle Entwicklung bewirken. Der amerikanische Religionswissenschaftler Hugh Urban vergleicht Crowley mit dem französischen Sexualphilosophen Georges Bataille: Beide hätten in der Sexualität das machtvollste Instrument gesehen, die Begrenzungen der Ratio des Menschen und seines Ichs zu durchbrechen. Indem das denkende Bewusstsein im Exzess des Orgasmus, des Schmerzes des Drogenrauschs ausgeschaltet werde, habe Crowley die Möglichkeit gesehen, für einen Moment Anteil am kosmischen „universellen Bewusstsein“ zu nehmen. Sexualmagie und rituelle Opfer. Crowley galt Sexualität als die wirksamste magische Methode, wobei er im Orgasmus die Triebkraft zur Umsetzung seiner magischen Ziele sah. Sein Thelema, bei dem alles willenskontrolliert stattfindet, kann jedoch kaum als Tantrismus aufgefasst werden. Die Eichel des Penis entspricht bei Crowley der Form des Gehirns. Wie alle sexualmagischen Gnostiker (Sperma-Gnostiker) sah Crowley das Zentrum des menschlich/göttlichen Schicksals im Sperma, dessen Verzehr zu magischen Zwecken als Lehre des achten Grades in Crowleys O.T.O. verankert ist. In den fortgeschrittenen Einweihungsstufen des O.T.O hat der Adept, um Macht oder Zugang in höhere geistige Sphären zu erlangen, etwa auf das Sigel eines Dämonen zu masturbieren oder über das Bild eines Phallus zu meditieren; im neunten Grad muss er nach vollzogenem Koitus Sexualsekrete und das eigene Sperma aus der Vagina seiner Partnerin saugen, im Mund behalten und anschließend auf ein Sigel schmieren. Im stark homosexuell ausgerichteten elften Grad spielen statt der Vaginalflüssigkeit Blut und Exkremente, die beim Analverkehr hervorgebracht werden, eine zentrale Rolle. Als zentrale Figuren seiner Magick beschreibt Crowley waren neben dem „Master Therion“ bzw. dem „Tier 666“, mit dem er sich selbst bezeichnete, die „Frau in Scharlach“, eine Rolle, die mit wechselnden Personen besetzt wurde. Die kosmische Vereinigung der beiden wurde in obszöner Umdeutung von zu einem zentralen Element seiner Magie. In seinem 1929 erschienen Buch Magick deutet er an, dass seine Details nur ausgewählten Adepten mündlich mitgeteilt würden, was die öffentliche Spekulation darüber anfeuerte. Stuckrad erkennt auch in diesen sexualmagischen Elementen Umdeutungen der christlich-prämillenaristischen Prägung aus Crowleys Kindheit. Während der sexualmagischen Handlungen wurde unter anderem auch Tierblut getrunken. Crowleys Adeptinnen Mary Franeis Butts und Cecil Mailand wurden in der Abtei unter anderem Zeuginnen einer sexualmagischen Schaustellung teil, bei der die „Scharlachfrau“ Leah Hirsig angeblich mit einem Ziegenbock kopulierte. Unmittelbar nach dem Akt schnitt Crowley dem Tier die Kehle durch, worauf das Blut über Hirsigs Rücken strömte. Für Crowley waren Frauen keine eigenständigen Persönlichkeiten. Seine jeweiligen Geliebten setzte er mit der Vagina gleich, deren restlicher Körper nur der Verzierung diente. Er selbst identifizierte sich mit dem Phallus. Zielobjekte seiner sexualmagischen Akte waren Gesundheit, Geld oder Erfolg. Es ist umstritten, ob die zu Crowleys Betätigungsschwerpunkt gehörenden und bis zuletzt praktizierten sexualmagischen Akte – religiös motiviert oder nicht – einem biografisch angelegten pathologischen Sadomasochismus zuzuschreiben sind. Ebenfalls umstritten ist, ob auch rituelle Gewalt gegen Kinder bei den Ritualen eine Rolle spielte: Nach Angaben des Beauftragten für Weltanschauungsfragen des evangelisch-lutherischen Kirchenkreises Göttingen/Hannover Ingolf Christiansen zählte auch sexueller Missbrauch von Kindern zu den von Crowley ausgeübten und empfohlenen sexualmagischen Praktiken. Als Beleg verweist er auf eine Stelle im dritten Teil von Crowleys "Buch des Gesetzes", die die Opferung eines Kindes nahezulegen scheine: „Sacrifice cattle, little and big: after a child. But not now“ Diese Formulierung deutet Christiansen als Hinweis auf Menschenopfer. Nach anderer Ansicht ist damit männlicher Samen gemeint, der nicht zur Zeugung verwendet werde: Das Kind, das aus ihm hätte entstehen können, wird somit quasi geopfert.. Der amerikanische Religionswissenschaftler Hugh Urban interpretiert Crowleys sexualmagisches System als Versuch einer radikalen Abgrenzung von der als repressiv wahrgenommenen viktorianischen Sexualethik seiner Zeit: Statt einer Sexualnorm, die heterosexuell, genital und auf die Zeugung von Kindern ausgerichtet war, habe Crowley nicht-reproduktive Praktiken propagiert wie Anal- und Oralverkehr, Homosexualität und Masturbation. Indem er das Prinzip der Überschreitung ins Extrem getrieben habe und buchstäblich jedes vorstellbare gesellschaftliche, moralische oder sexuelle Tabu gebrochen habe, habe er das Ziel einer radikalen, „übermenschlichen“ Freiheit und Selbstbestätigung bis hin zur Selbstvergöttlichung im Auge gehabt. Mit Blick auf das heute herrschende Ideal der Selbstverwirklichung sei Crowley „seiner Zeit voraus“ gewesen. Erstausgaben, Handschriften und Veröffentlichungen. Sein ererbtes Privatvermögen nutzte Crowley, um seine jeweils fertig gestellten Gedichte und Verssammlungen, die er in großer Anzahl fertigte, überstürzt und ohne Lektorat drucken zu lassen. Mangels geistiger Reife und Vorstellungskraft waren seine Verse zwar klar im Ausdruck, aber eine langweilige Lektüre. Von kompetenten Zeitgenossen wurde er zu den unbedeutenden Dichtern gezählt oder, wie von Mario Praz, ignoriert. 1928 wurden Israel Regardie und Gerald Yorke Crowleys Schüler. Yorke sammelte eine große Anzahl crowleyscher Erstausgaben, Handschriften und Dokumente und schenkte diese Sammlung später der Bibliothek Warburg, die sie bis heute verwahrt. 1929 fand er nach langer Suche in Percy Riginald Stephensen vom Kleinverlag "Mandrake" einen Verleger, der ihm vertraute. Stephensen schrieb eine Apologie über ihn und publizierte auf Crowleys Kosten verschiedene seiner Werke, darunter den Roman "Moonchild", die ersten beiden Bände seiner "Confessions" und sein wichtigstes Werk "Magick: In Theory and in Practice". Beinahe alle Veröffentlichungen Crowleys sind von einem ironischen Unterton durchzogen. Seine Aussagen sind entweder oft sadistisch oder schlichtweg lächerlich, etwa wenn er wirr zwecks Entlarvung von "Jack the Ripper" als viktorianische "Verfasserin" Helena Blavatsky angibt. Crowleys Ruf war so schlecht, dass es seinem Verleger schwerfiel, andere Autoren für seinen Verlag zu gewinnen. Einige Buchhändler weigerten sich, seine Bücher ins Sortiment aufzunehmen, weil sie Crowleys dämonisches Selbstportrait als Titelbild und der wie ein Penis und Hoden gestaltete Buchstabe „A“ seiner überdimensionalen Signatur abstieß. Crowley und der Satanismus. Ob Crowleys sexualmagisch aufgeladener Okkultismus als Satanismus bezeichnet werden kann, ist unter Wissenschaftlern umstritten. Crowley selbst lehnte die Bezeichnung für sich ab, da er Satan weder verehre noch das christliche Konzept seiner realen Existenz akzeptiere. Crowley wurde wegen seiner sexuellen Neigungen wiederholt als Satanist angeführt, während er selbst die Sache differenzierter sah. Er realisierte zwar die Polarität zwischen Gott und Teufel, sah sich aber außerstande, diese nur in eine Richtung aufzulösen, und kokettierte mit Klischees und Vorstellungen, die mit Satan und dem Antichrist assoziiert werden. Dazu kam die Selbststilisierung als „To Mega Therion“, „Das Große Tier 666“ aus der Johannesoffenbarung. Der Religionswissenschaftler Marco Pasi hält es für ein weit verbreites Missverständnis, Crowley in den Satanismus einzuordnen, da Satan als symbolische Figur in seinen Schriften nur eine untergeordnete Rolle spiele und es ihm auch nicht einfach nur um eine Umkehrung des Christentums gegangen sei. Nach dem Religionswissenschaftler Gerald Willms sind es vor allem die Weltanschauungsbeauftragten der Kirchen, die Crowley als Prototyp eines Satanisten ansehen, wozu seine Selbststilisierung als Antichrist, seine Mitgliedschaft in verschiedenen Okkultorden und seine Ausschweifungen beitrugen. Auch nach Ansicht des Religionswissenschaftlers Kocku von Stuckrad wird der seines Erachtens irrige Vorwurf, Crowley hätte „,satanistische´ Praktiken jenseits des Christentums“ ausgeübt, meist von christlich-theologischer Seite erhoben. Der katholische Theologe Josef Dvorak, der Theologe Sebastian Berndt und die Autoren des "Internationalen Freimaurerlexikons" sehen dagegen Crowley als Begründer des modernen Satanismus. Für den Sachbuchautor Karl R. H. Frick ist er dessen „Ahnherr“ und ein praktizierender Satanist. Der Kulturhistoriker Norbert Borrmann charakterisiert Crowley als bekannten Satanisten um die Wende vom 19. zum 20. Jahrhunderts. Nach Ansicht des Religionswissenschaftlers Joachim Schmidt ist Crowleys Mystik jedoch nicht als Satansmystik im Sinne einer Umkehrung der christlichen Mystik anzusehen. Da er auf östliche Formen der Mystik zurückgegriffen habe, habe er keine ungebrochene satanische Lehre entwickeln können. Crowleys Verhältnis zum Satanismus sei so kompliziert, dass eine definitive Stellungnahme unmöglich ist. Sein Versuch, den von ihm vertretenen radikalen Individualismus zum religiösen Prinzip zu erheben und das „Tue was du willst“ als universelles Gesetz zu proklamieren, sei mit dem Satanismus durchaus vereinbar. Vieles von dem, was er schrieb und sagte, lasse sich zwar ohne weiteres als Satanismus deuten, doch Crowley habe stets eine eindeutige Stellungnahme vermieden. Crowley und der Nationalsozialismus. Von verschiedenen Autoren ist eine Nähe von Crowleys Weltanschauung zum Nationalsozialismus vermutet worden. René Freund sieht etwa Parallelen zwischen dem Buch des Gesetzes und Verlautbarungen Hitlers („Zertritt die Verdammten & Schwachen: so will es das Gesetz der Starken. [...] Es gibt kein Gesetz außer: Tu was Du willst! [...] Sei stark, Mensch!“) Nach Josef Dvorak war Crowley selbst davon überzeugt, dass er mit Adolf Hitler vieles gemeinsam hatte und Hitler ein Vollstrecker seiner „Force-and-fire“-Religion sei. Seine Überzeugungen notierte Crowley zwischen 1942 und 1944 als Randbemerkungen in sein Exemplar "Gespräche mit Hitler" von Hermann Rauschning, in denen er auf die Entsprechungen zwischen Hitlers Ideen und Vorstellungen und seinen eigenen Glaubensbekenntnissen und rätselhaften Verkündigungen aus seinem "Buch des Gesetzes "(Liber Legis) hinwies. Dabei strich er die Textpassagen an, in denen Rauschning beschreibt, wie Hitler von einer „neuen Weltordnung“ oder dem Zusammenbruch des alten Wertesystems gesprochen haben soll. Die deutsche Crowley-Anhängerin Martha Künzel war fest davon überzeugt, dass Hitler den Lehren Crowleys folgte, und wurde zu einer glühenden Nationalsozialistin. Derlei Spekulationen wurden in den Büchern des englischen Thriller-Autors Gerald Suster über „Nazi-Mysterien“ bis zu gegenwärtigen Okkultisten transportiert: Suster hält die beiden Weltkriege und die autoritären Regimes des 20. Jahrhunderts für Manifestationen des von Crowleys Schutzgeist Aiwass ausgerufenen Neuen Äons. In einem Brief vom 29. Oktober 1949 an Julius Evola vertrat René Guénon die Ansicht, Crowley habe mit seinem in Portugal vorgetäuschten Suizid insgeheim die Absicht verfolgt, im Anschluss die Rolle des „okkulten“ Beraters Hitlers spielen zu können. Die Nationalsozialisten sahen dagegen keine solche Nähe: Der O.T.O. wurde am 20. Juli 1937 per Runderlass Reinhard Heydrichs aufgelöst. Im Okkultismus. Crowley ist eine der wichtigsten und einflussreichsten Figuren in der Geschichte des englischen Okkultismus. Zeitgenössische neue religiöse Bewegungen werden stark von seinen magischen und neopaganen Ideen beeinflusst. Aufgrund seiner oft mehrdeutigen Sprache ist die Rezeption nicht einheitlich. Keine der sich auf ihn beziehenden Gruppen oder Personen kann eine höhere Autorität über das Werk Crowleys für sich beanspruchen als die anderen. Zu den Thelemiten werden neben den vormals von Crowley geleiteten Gruppen auch einige selbsternannte Nachfolger wie Michael Dietmar Eschner und unabhängig entstandene Orden und ihre Ableger gezählt, die von Crowley lediglich beeinflusst wurden, wie etwa der Ordo Saturni, der sich vehement dagegen verwahrt, mit Satanismus in Verbindung gebracht zu werden. Konkurrierende OTO-Nachfolgeorganisationen und kleine Esoterik-Orden. Alle heute existierenden OTO-Nachfolgeorganisationen orientieren sich ideologisch stark an Crowleys Schrifttum. Der amerikanische Caliphats-OTO, der sich die Rechte an Crowleys Thot-Tarot sicherte, ist die bedeutendste Gruppe. In Deutschland zählen zum Crowley beeinflussten Umfeld des OTO auch die Gnostisch-Katholische Kirche („Ecclesia Gnostica Catholica“), die drei sogenannten Saturnlogen und zwei kleinere OTO-Gruppen mit zirka hundert Mitgliedern. Eine in der Tradition Crowleys stehende deutsche Einzelgruppierung ist die 1982 gegründete Thelema Society, deren Gründer sich als Reinkarnation Crowleys ausgab. Von der von dem Philosophie-Dozenten Jean Brayton und seiner Frau Georgina gegründeten "Solar Lodge" des kalifornischen OTO wurden in den höheren Graden ähnliche Rituale zelebriert wie in den 1920er Jahren in der Abtei Thelema auf Sizilien. Der kalifornische OTO hat sich von Braytons "Solar Lodge" distanziert. 1975 erschien das "Book of Perfection", in dem politische Konzepte des OTO erwogen werden. Die Formulierungen basieren auf Crowleys thelemitischer „Erklärung der Menschenrechte“, dem "Liber OZ". Neben abschließenden Offenbarungen von Crowleys Schutzgeist Aiwaz wird darin unter dem gemeinsamen Erkennungszeichen eines goldenen Pentagramms zum heiligen Krieg gegen die Christenheit aufgerufen. Der Sieg wurde für 1980 prophezeit und sollte zur Gründung eines von Initiierten geleiteten Ordensstaates mit einer Zweiklassengesellschaft führen. Mehrere in jüngerer Zeit entstandene Orden, wie der "Orden von Thelema", "Astrum Purpura", und der "Ordo Templi Baphometis", berufen sich auf Crowley. Wicca. Die neureligiöse Bewegung Wicca wurde vom Gedankengut Crowleys beeinflusst. Der Wicca-Gründer Gerald Brousseau Gardner war Mitglied im OTO, und Crowley erlaubte ihm eine eigene OTO-Loge zu gründen. 1943 wurde er von Gardner gegen Bezahlung beauftragt, für ihn ein Buch über magische Rituale zu schreiben. Crowley schrieb daraufhin das Buch der Schatten ("The Book of Shadows"). Es wurde der Grundstein der Wicca-Religion und enthielt deren liturgische Rituale und Texte. Viele Thelemiten wurden daraufhin zugleich Mitglieder in Wicca-Zirkeln. Satanistische Gemeinschaften. Die explizit satanistischen Gemeinschaften wie die von Anton Szandor LaVey gegründete "First Church of Satan" und der "Temple of Set" erkennen Crowley als geistigen Wegbereiter des Satanismus und ihrer Lehrinhalte an, sehen jedoch sein "Buch des Gesetzes" ("Liber Al vel Legis") nicht als verbindliche heilige Grundlage an. Das von Crowley ausgerufene neue Zeitalter, das "Äon des Horus", erklären beide Gruppen für beendet. Laut der "Church of Satan" wurde es 1966 vom "Äon of Satan" abgelöst. Der "Temple of Set" spricht stattdessen vom beginnenden "Äon des Seth". Aus dem von Crowley bis zu seinem Tod geleiteten OTO entwickelten sich in den USA einige Ableger, die sich als satanistisch betrachten oder verstanden. Posthume Popularität. Durch den kulturellen Wandel in den 1960er Jahren wurden durch die 68er-Bewegung, die Beatniks und die Hippie-Bewegung psychedelische Drogen, freie Liebe und spirituelle Themen populär. In dieser Aufbruchsstimmung wurden die teilweise sexuell aufgeladenen magischen Werke Crowleys wiederentdeckt und in vielen Ländern neu verlegt, was in den 1970er Jahren zu seiner posthumen Popularität beitrug. Sein Einfluss ist auch in der esoterischen und zum Teil in der New-Age-Bewegung erkennbar. Seine Lehre und die im "Buch des Gesetzes" dargelegte thelemische Philosophie verließ den engen Rahmen okkultistischer Gruppen, erreichte jedoch nie die von ihm erhoffte Verbreitung. Einige Künstler berufen sich auf Crowley, um damit dem Modetrend einer Minderheit zu folgen, zu provozieren oder aus spirituellen Gründen. Im Jahr 2002 erzielte Crowley in einer von der BBC durchgeführten Umfrage auf einer Liste der einflussreichsten Briten Platz 73. Musik. Mick Jagger und einige andere Mitglieder der Rolling Stones sollen sich ernsthaft mit Crowley auseinandergesetzt haben. In der Folge entstand das Album "Their Satanic Majesties Request" und das Stück "Sympathy for the Devil" von der LP "Beggars Banquet". Die Beatles bildeten auf der Vorderseite des Covers ihrer LP "Sgt. Pepper’s Lonely Hearts Club Band" 1967 neben vielen Prominenten auch Aleister Crowley ab. Von Bands wie Black Sabbath oder Led Zeppelin ist bekannt, dass sich zumindest einige Mitglieder mit seinen Schriften beschäftigten. Der Gitarrist von Led Zeppelin, Jimmy Page, erwarb und restaurierte Crowleys Anwesen Boleskine in Schottland, in welchem Crowley zu Beginn des Jahrhunderts seine Beschwörungen ausführte. Page gilt als wichtigster Sammler von Crowley-Artefakten und eröffnete die okkultistische Buchhandlung „The Equinox“. Ozzy Osbourne veröffentlichte auf seinem ersten Soloalbum "Blizzard of Ozz" das Stück "Mr. Crowley". Weniger bekannt sind sich aus Thelemiten zusammensetzende Bands wie Sol Invictus, Fire & Ice, Current 93 und Thelema. Der Musiker Graham Bond gab sich als außerehelicher Sohn Crowleys aus und ließ sich von dessen Werken zu seiner späteren Musik inspirieren. David Bowie erwähnt Crowley 1971 in seinem Lied "Quick Sand". Für Bands wie Iron Maiden, Venom, Reds, Witchfynde, Blood and Roses oder Killing Joke sind Bezugnahmen auf crowleyanisches Gedankengut ein provokantes Stilmittel. Crowley-Anleihen, wie man sie bei vielen modernen Bands, vorwiegend aus dem Metal-Bereich findet, sind oftmals weniger ideologisch begründet und dienen hauptsächlich Provokationszwecken, die meistens ohne Folgen bleiben - im Unterschied zu den Taten des Schwerkriminellen Charles Manson, der von den Ideen Crowleys fasziniert war und zu Morden anstiftete. Film. Der US-amerikanische Underground-Filmemacher Kenneth Anger reiste nach Cefalù, um die erotisch-magischen Fresken Crowleys zu retten, und schöpfte viele Inspirationen für seine Filme aus dessen Werken. Insbesondere der 1954 fertiggestellte Film "Inauguration of the Pleasure Dome", welcher zwölf Jahre später neu geschnitten wurde, gilt als filmische Umsetzung der Visionen Crowleys. In dem Film spielte Marjorie Cameron die Rollen der "Scarlet Woman" und der Kali; sie war mit Crowleys Schüler John W. Parsons bekannt, welchen sie nach dessen "Babalon Working" (ausgeführt 1947) kennenlernte. Angers Kurzfilm "The Man We Want To Hang" von 2002 besteht aus etlichen von Crowleys Gemälden. Ein Teil der Filmmusik zu Angers Film "Lucifer Rising" wurde von Jimmy Page komponiert, während die komplette musikalische Fassung von Bobby Beausoleil, einem Mitglied der berüchtigten „Family“-Kommune Charles Mansons, geschrieben wurde. Im Jahr 2008 entstand der Film "Chemical Wedding" nach einer Vorlage von Bruce Dickinson (Sänger von Iron Maiden) und Julian Doyle, in dem Simon Callow in einer Doppelrolle als Aleister Crowley und als Professor Oliver Haddo auftritt, in welchem sich Crowleys Geist durch einen Computerunfall manifestiert. Belletristik. Der Schriftsteller William Somerset Maugham schildert in seinem 1908 erschienenen Roman "The Magician" "(deutsche Übersetzung: Der Magier)" einen Magier namens "Oliver Haddo" (ein Synonym für Crowley), welcher in einem Haus namens "Skene" (abgeleitet von "Boleskine") wohnt. Diese Figur basiert auf Maughams Begegnungen mit Crowley in Paris. Das Buch diente 1926 dem Regisseur Rex Ingram als Vorlage für den Stummfilm "Der Magier", in dem der Golem-Darsteller Paul Wegener als jungfrauenschlachtender Schwarzmagier auftritt. Der britische Schriftsteller Ian Fleming lehnte seine Schurken-Figur "Le Chiffre" als ersten perfiden Gegenspieler von "James Bond" im Roman "Casino Royale" an Crowley an. In der 1975 erschienenen "Illuminatus!"-Trilogie verarbeiteten die Autoren Robert Anton Wilson und Robert Shea satirisch Versatzstücke von Crowleys esoterischem Wirken. Wilson ließ Crowley selbst als eine der Hauptfiguren im Folgeroman "Die Masken der Illuminaten" auftreten. 2013 erschien der Roman "(Gehorche mir und) Tu was du willst" von Andreas Galk, in dem eine Sekte Jugendliche für ihre Zwecke zu rekrutieren versucht. Diese Sekte bezieht sich im Wesentlichen auf Crowleys Kernaussagen, auch wenn Crowley selbst im Roman als "Aleister Carvey" auftritt. Aikidō. Aikidō (jap. oder) ist eine betont defensive moderne japanische Kampfkunst. Sie wurde Anfang des 20. Jahrhunderts von Ueshiba Morihei als Synthese unterschiedlicher Budō-Disziplinen entwickelt, insbesondere aus dem Daitō-Ryū Aiki-Jūjutsu. Die Aikidō-Praktizierenden bezeichnet man als "Aikidōka". Ziel des Aikidōs ist es, einem Angriff dadurch zu begegnen, dass man die Angriffskraft leitet (Abwehr) und es dem Gegner unmöglich macht, seinen Angriff fortzuführen (Absicherung). Dies geschieht insbesondere durch Wurf- ("nage waza") und Haltetechniken ("osae waza" oder "katame waza"). Der friedlichen geistigen Haltung des Aikidō entsprechend geschieht dies ohne Absicht zum Gegenangriff, sondern vorwiegend durch die Einnahme einer günstigen Position und ständige Kontrolle des Kontakts mit dem Gegner. Zur Übung werden Angriffs- und Verteidigungsformen aus der Menge standardisierter Aikidō-Techniken vorher ausgewählt und einer vorgegeben Form folgend ausgeführt, mit zunehmendem Fortschritt der Ausbildung kommen auch die freieren Übungsformen Jiju-waza, Jiyu-waza und Randori vor. Es folgt damit dem japanischen Sprichwort: "Trete durch die Form ein, und trete aus der Form heraus." Begriff. In den verschiedenen Entwicklungsphasen nannte Ueshiba Morihei seine Kampfkunst Aiki-Bujutsu und danach Aiki-Budō. Erst seit Februar 1942 nannte er sie einem Vorschlag Hirai Minorus gegenüber dem Dai Nihon Butokukai folgend auch offiziell Aikidō. Der Name Aikidō wird aus drei sinojapanischen Schriftzeichen geformt (合気道; "Ai" „Harmonie“, "Ki" „Lebensenergie“, „universelle Energie“, "Dō" „Lebensweg“) und kann daher in etwa als „"Der Weg der Harmonie im Zusammenspiel mit Energie"“, „"Weg zur Harmonie der Kräfte"“ oder „"Der Weg der Harmonie mit der Energie des Universums"“ übersetzt werden. Diese Bezeichnung bezieht sich darauf, dass Aikidō-Techniken dahin zielen, Angriffe durch die Kontrolle ihrer Energie und nicht durch Abblocken derselben zu kontrollieren. Ein häufig genannter Vergleich lautet, dass die flexible Trauerweide einem Sturm durch Biegen widerstehen kann, während die viel stabilere Eiche brechen wird, wenn der Wind zu stark ist. Als Schriftzeichen für Ki kann man sowohl 気 als auch 氣 finden, wobei 気 die vereinfachte und aktuell verwendete japanische Form des ursprünglichen chinesischen Zeichens 氣 ist, das Ueshiba Morihei verwendete. Obwohl oft zu finden ist, dass 合 (Ai) mit Liebe zu übersetzen sei, ist dies nicht korrekt. Das Missverständnis geht auf ein Zitat von Ueshiba Morihei zurück, dass er sich unter anderem deshalb entschlossen habe, seine Kampfkunst Aikido zu nennen, weil 合 genauso ausgesprochen wird wie 愛, was eben "Liebe" bedeutet. Während der Versuch einer wörtlichen Übersetzung von Aikido etwa "das Prinzip ideal koordinierter Energie" lautet, sind die in Aikidō vorkommenden Begriffe nicht zuletzt durch die Ausführungen von Ueshiba Morihei sehr stark mit Konnotationen belegt, was die vielen freien Übersetzungen erklärt. Der Ausdruck "Aiki" (合氣) wurde bereits in älteren japanischen Kampfkünsten benutzt, insbesondere im Daitō-Ryū Aiki-Jūjutsu (大東流合氣柔術), und hatte dort die Bedeutung der „angemessenen Kraft“ im Sinne eines Mitgehens mit dem Angreifer. Erst Ueshiba erweiterte die Deutung auf eine auch spirituelle Harmonie. Geschichte. Ueshiba Morihei, Student verschiedener Schwert-, Lanzen- und waffenloser Kampfkünste entwickelte als Schüler von Takeda Sōkaku mit seinem geistigen Mentor und Freund Deguchi Onisaburō durch Zusammenführung verschiedener traditioneller Kampfkünste Aikidō, den Weg der Harmonie. Er gründete in Tokio (Japan) das Honbu Dōjō (jap.: "Haupt-Übungshalle"), von dem sich Aikidô über die ganze Welt verbreitete. Im Jahre 1951 stellte Meister Mochizuki Minoru in Frankreich zum ersten Mal Aikido in einem europäischen Land vor. Im folgenden Jahr begann Meister Tadashi Abe von Marseille aus Aikido in Europa zu verbreiten. 1953 wurde Aikido auf Hawaii durch Tōhei Kōichi eingeführt. 1956 ging André Nocquet als erster Franzose nach Tokio, um im Aikikai zu trainieren. 1961 kam Meister Masamichi Noro nach Paris, von wo aus er gemeinsam mit Nobuyoshi Tamura die Verbreitung in Europa vorantrieb. Beide waren Uchi-Deshi von Ueshiba Morihei. Hiroshi Tada verbreitete Aikido von Italien aus. Später kamen Masatomi Ikeda (Schweiz), Yasunari Kitaura (Spanien) und Kazuo Chiba (Vereinigtes Königreich) hinzu. In den sechziger Jahren zerstreuten sich Ueshibas Schüler der Nachkriegszeit über die ganze Welt. Ab 1965 wurde Aikido in Australien bekannt. Heute gibt es fast in allen Ländern der Welt Aikido-Dōjō. Um etwa 1960 gelangte die Kampfkunst nach Deutschland. Als wichtigste Einzelpersonen sind hier Katsuaki Asai, der 1965 23-jährig vom Aikikai als offizieller Vertreter nach Deutschland gesandt wurde, und Gerd Wischnewski zu nennen. Katsuaki Asai gründete den Aikikai Deutschland. Ende der 1960er Jahre wurde unter der Leitung von Rolf Brand im Deutschen Judobund die Sektion Aikido gegründet, aus der in den 1970er Jahren der Deutsche Aikido Bund hervorging. In Österreich wurde Aikido 1972 von Juo Iwamoto in Wien und 1976 von Junichi Yoshida in Graz bekannt gemacht. Aus den parallel organisierten Schulen ging 1978 der Österreichische Aikidoverband hervor. Die Internationale Aikido-Föderation (I.A.F.) wurde 1975 gegründet und umfasst sechs kontinentale Verbände und mehr als vierzig nationale Aikidō-Verbände. Daneben gibt es viele weitere Verbände und Dōjō innerhalb und außerhalb des Aikikai. Philosophie. Miyamoto Tsuruzo bezwingt seinen Schüler ohne Verletzung Strategie. Die "Strategie im Aikidō" bezieht sich auf die Anwendung zielgerichteter geeigneter Prinzipien und Mittel aus dem Handlungsrepertoire der Kampfkunst Aikido; vergleiche Kampfkunst in Gegensatz zu Kampfsport. Daneben existieren andere Betrachtungsweisen des Aikidō, wie Sport, Energiearbeit, Körper & Gesundheit usw., welche ebenfalls mit Handlungen und Bewegungsfolgen im Aikidō in Zusammenhang gebracht werden können. Diese Betrachtungen werden hingegen nicht näher behandelt. Geistig-ethischer Hintergrund von Ueshiba Morihei. Strategische und taktische Überlegungen beinhalten immer auch moralisch-ethische Werte der kämpfenden Parteien. Die meisten gesellschaftlichen und moralischen Werte sind Veränderungen unterworfen. Der grundlegendste Wert ist dem Leben inhärent: Das Leben nicht zu zerstören und damit die Entwicklung eines Lebewesens zu beenden, sondern Leben zu erhalten und die Entwicklung aller Lebewesen hin zur Vollendung ihrer naturgegebenen Aufgabe zu fördern. Als Teilnehmer am russisch-japanischen Krieg erlebte der Begründer des Aikidō, Ueshiba Morihei, Kriegsgräuel, Tod und Vernichtung. Er erkannte die Sinnlosigkeit kriegerischen Tuns. Durch seine Freundschaft zu Onisaburō Deguchi, dem Mitbegründer der religiösen Ōmoto-kyō-Sekte, entwickelte sich Ueshiba persönlich in geistiger und ethischer Hinsicht nach den Prinzipien und der Lehre dieser Sekte. Basierend auf seiner persönlichen Entwicklung definierte er die Strategie im Aikidō, dass diese immer und unter allen Umständen der Gewaltfreiheit untergeordnet sei. Der Konflikt – Ausgangslage, ethische Einstellung und Lösung. Der Gedanke hinter jeder Auseinandersetzung ist die machtbezogene Überlegenheit über die Gegenpartei, bzw. die Angst vor Unterlegenheit. Eine Deeskalation hat zum Ziel, den Konflikt zu klären und konstruktiv zu lösen. Vielfach lassen sich Konflikte nicht deeskalieren und es kommt unabwendbar, wegen fehlender funktionierender alternativer Mittel, zur Eskalation. Die japanische Kultur, Religion, wie auch die Kriegskunst auf dem Schlachtfeld sind wesentlich auch von Erkenntnissen chinesischer Kulturgelehrter und Kriegsherren beeinflusst. In der Überlieferung wird der chinesische General Sunzi („Meister Sun“) aus seinen Schriften zitiert: "„Angriff ist die beste Verteidigung“." Wenn in einem Konflikt eine Deeskalation unmöglich geworden ist und andere Mittel zur Abwendung einer Auseinandersetzung ausgeschlossen sind, verbleiben im Ausschlussverfahren nur die Kapitulation oder der Schritt zum Angriff, falls genügend geeignete Mittel zur Verfügung stehen. Vorteil durch Initiative. Der Zweikampf beginnt mit der Offensive des Gegners. Die Kernidee der Aikido-Kampfkunst besteht nun darin, dass diese Angriffsbewegung unmittelbar nach ihrem Beginn und noch vor ihrer vollständigen Ausführung vereitelt wird. Hierzu bewegt sich der Aikido-Praktikant aktiv und frühzeitig auf den Aggressor zu, um in dessen Handlungssphäre zu gelangen und so die Angriffsbewegung bereits im Ansatz effektiv stören zu können. Auf diese Weise nimmt der Verteidiger eine aktive Position ein, bestimmt das weitere Kampfgeschehen und erlangt die Überlegenheit, während der überraschte Angreifer nun gezwungen ist zu reagieren, wobei er sich in dieser Situation eher reflexiv als taktisch und überlegt verhalten wird, was einen weiteren Vorteil für den Aikidoka bedeutet. Alle Budōka bedienen sich in dieser Hinsicht ähnlicher Vorgehensweisen. Gnade im Zweikampf. Das Streben im Kampf nach Überlegenheit über die Gegenpartei beinhalten im Kern immer die "Dualität von Sieg und Unterlegenheit". Die vermeintliche Lösung jedes Konflikts ergibt darum zwangsläufig die Einteilung in "Sieger" und "Besiegte", egal ob gekämpft wurde oder ob eine Kapitulation erfolgte. Die machtbezogene Überlegenheit des Siegers bleibt erhalten. Die Unterlegenheit birgt in sich den Keim von Rache und Vergeltung. Wichtiges strategisches Element im Aikidō bildet "die Auflösung der Verliererrolle" der unterlegenen Partei sowie der Gewährleistung ihrer körperlichen Unversehrtheit. Ein Gedanke an Rache und Vergeltung wird dadurch hinfällig. Durch seine "innere Einstellung und Bereitschaft, selbst einem Angreifer gegenüber Gnade walten zu lassen", löst der Aikidōka diese Dualität auf, damit eine Lösung des Konflikts möglich wird, bei welcher der Aggressor zur Erkenntnis gelangen kann, dass ihm das Geschenk des Überlebens zuteilgeworden ist und jeglicher Angriff nutzlos ist (vergleiche: Abschnitt Zen – die Natur aller Dinge). Schwertkampf – Strategie und Lehre aus der Überlieferung. Ueshiba Morihei studierte viele Kampfkünste (siehe: Ueshiba Morihei – Literatur). Moralische Betrachtungen im Aikidō sind wesentlich beeinflusst von der Ethik Onisaburō Deguchis und der religiösen Ōmoto-kyō-Sekte sowie der Loyalität und Hingabe der Samurai. Die Bewegungsabläufe im Aikidō stammen hingegen aus dem Schwertkampf, wie auch aus dessen strategischen und taktischen Verfahren. Einer der geachtetsten Lehrer der Schwertkünste im japanischen Mittelalter war Yagyu Munenori (1571–1646). Yagyu Munenori definierte das "Ken-Tai": die Angriffs- und Lauerstellung. In einer Duellsituation den eigenen Körper in eine Ken-Stellung zu bringen hat zum Ziel, den Gegner zum ersten Streich zu verleiten. Dabei soll der eigene Geist furchtlos und klar in einer Tai-Stellung (Lauerstellung) verbleiben. Wenn sich nun beide Dinge – Ken und Tai – gleichzeitig ergeben und das Prinzip korrekt angewandt wird, wird der Kontrahent zum Angriff verleitet, wodurch er Lücken für Gegenmaßnahmen öffnet. Wird hingegen der Körper zusammen mit dem Geist in Ken-Stellung versetzt, ist auch der Geist mit dem Angriff, mit Zerstörung und Tod verbunden. Der Geist wird gebunden. Das strategische Vorteilsmoment der korrekten Umsetzung von Ken-Tai besteht nun im ungebundenen, unverhafteten Geist (Tai) und im Auslösen des Angriffs mittels Ken-Stellung (siehe Sunzi – Angriff ist die beste Verteidigung), was den vollumfänglichen Überblick und die volle Bewegungsfreiheit erhält und es erlaubt, als zweiter den Schwertstreich in die Öffnung der Deckung des Gegners zu führen. Yagyu Munenori definierte in seiner Lehre verschiedene Übungsformen zur Anwendung des Schwerts im Kampf. Diese können mit der erforderlichen Detailkenntnis als Ichi-no-tachi, Ni-no-tachi, San-no-tachi, Yon-no-tachi und Go-no-tachi identifiziert werden. Diese duellartigen Übungssequenzen sind noch immer in verschiedenen Aikido-Verbänden, u.a. Aikikai, Inhalt des Unterrichts im Aiki-Ken (Anwendung des Bokken im Aikido). Der didaktische Inhalt schult speziell das Ken-Tai; das bewusste Auslösen eines Angriffs mittels der eigenen Körperhaltung unter gleichzeitiger größtmöglicher Gelassenheit des Geistes. Dies führt zur Erkenntnis der Lücken in der Deckung des angreifenden Kontrahenten. Der Schluss jeder Duellsequenz besteht in einer Situation, in welcher der als zweiter den Streich führende und das Ken-Tai beherrschende Schwertkämpfer seinem Kontrahenten vor Augen führt, dass seine Angriffe wirkungslos sind und er lediglich ein Spielball seiner offensiven Einstellung und seiner Aggression ist. Ueshiba Morihei fügte als sechste Übungssequenz jene des Ki-musubi-no-tachi den vorangehenden hinzu. Inhalt dieser Sequenz besteht, gleich der voran gehenden, darin, den Opponenten durch Ken-Tai zum Angriff zu verleiten, diesem jedoch schlussendlich, statt mit einem angedeuteten finalen Streich den Tod vor Augen zu führen, mittels ‚Ki-musubi‘ (Verschmelzung des eigenen mit dem Ki des Kontrahenten) unmissverständlich zu verstehen zu geben, dass er keine weitere Angriffsbewegung mehr ausführen kann, ohne sich selbst zu töten. Dabei ist die Schlussposition diejenige einer an sich harmlos erscheinenden Blockade seiner schwertführenden Arme (technisch: Osae) und wird derart ausgeführt, dass jegliche weitere Angriffsbewegung des Opponenten diesen in eine instabile Körperhaltung brächte, und er sich damit unweigerlich selbst töten würde. Diese Schulungsformen aus der Überlieferung des Schwertkampfes haben sich tausendfach in der Praxis bewährt. Die Ergänzung zur Form "Ki-musubi-no-tachi" als Schlüsselelement der didaktischen Mittel durch Ueshiba Morihei erfolgte aus persönlicher Überzeugung. Zen – die Natur aller Dinge. Als Element aus den Betrachtungen der Welt des Zen-Buddhismus sei der Gedanke „Die Natur aller Dinge“ entlehnt. Will man die Natur aller Dinge erkennen, ist es erforderlich, auch allen Dingen ihre inhärente Natur zu belassen, diese nicht zu beeinflussen, noch sie zu verändern versuchen. Der Geist strebt darin eine Ebene der Gelassenheit und Harmonie mit allen Dingen an. In vielen Konflikten kann ein Angreifer nicht mehr friedfertig gestimmt werden. Sein Angriff lässt sich nicht aufhalten. Hat der Angriff begonnen, sollen Bewegungen des Angreifers frei bleiben und diese lediglich gelenkt, nicht jedoch verhindert oder geblockt werden. Verhindern bedeutet Konfrontation mit Gewalt und Kraft, wobei der Kräftigere obsiegt, der Schwächere unterliegt. Die Angriffsbewegung zu lenken bedeutet, ihr ihre Natur zu belassen und beim Kontrahenten lediglich aufmerksam (Tai-Geist) und gelassen die Deckung zu öffnen und geeignete Gegenmaßnahmen einzuleiten. Harmonisierung beutet eine Synchronisation mit der Angriffsbewegung. Aikidō wird aufgrund des Fehlens opponenter Einwirkung auf die Angriffsbewegung oftmals verglichen mit "„Zen in Bewegung“." Jede Betrachtung und Einteilung in gut und schlecht ist mit Gefühlen verbunden. Ebenso leisten Angst, wie auch Aggression einen Beitrag zu emotionaler Instabilität, was das Reaktionsvermögen negativ beeinflusst. Aggressionslosigkeit, Mut und natürlich die erforderlichen technischen Fähigkeiten im Kampf hingegen leisten einen großen Beitrag zur emotionalen Stabilität, zu klarer Erkenntnis der allgemeinen und momentanen Situation und erhalten den erforderlichen Überblick und das Aktions- und Reaktionsvermögen – siehe: Ken-Tai. Mit dieser Sichtweise lässt sich die Dualität und die Einteilung in gut und schlecht auflösen. Damit entfällt ebenso eine emotionale Verhaftung mit der eigenen Angst und der Aggression dem Kontrahenten gegenüber. Das Aktions- und Reaktionsvermögen bleibt im Rahmen der eigenen Befähigung erhalten. Die Gewährleistung der körperlichen Unversehrtheit und Integrität des Angreifers garantiert die Auflösung des Gewaltgedankens seitens des Aggressors und fördert die beiderseitige Einkehr geistigen Friedens. Zusammenfassung. Jede Betrachtung und Einteilung in gut und schlecht ist mit Gefühlen verbunden. Ebenso leisten Angst und Aggression einen Beitrag zu emotionaler Instabilität, was das Reaktionsvermögen negativ beeinflusst. Aggressionslosigkeit, Mut und natürlich die ebenso erforderlichen technischen Fähigkeiten im Kampf hingegen leisten einen großen Beitrag zur emotionalen Stabilität, zu klarer Erkenntnis der allgemeinen und taktischen Situation – siehe: Ken-Tai. Mit der beschriebenen Logik lässt sich die Dualität und die Einteilung in gut und schlecht auflösen. Damit verbunden entfällt ebenso eine emotionale Verhaftung mit der eigenen Angst oder der Aggression dem Kontrahenten gegenüber. Das Aktions- und Reaktionsvermögen bleibt erhalten. Die Gewährleistung der körperlichen Unversehrtheit und Integrität des Angreifers garantiert die Auflösung des Gewaltgedankens und fördert die beiderseitige Einkehr geistigen Friedens. Initiative durch Auslösen des Angriffs mittels Ken-Stellung dient der Wahl des Zeitpunkts und des Ortes und der ruhige Überblick über die Gesamtsituation durch geistige Gelassenheit und Aufrechterhaltung der Lauerstellung mittels Tai-Einstellung sowie durch sofortiges Erkennen der Öffnungen der Deckung beim Kontrahenten (Ken-Tai) dienen dem taktischen Vorteil, wenn der Angriff beginnt. Das, wenn nötig, auch wiederholte Zulassen eines Angriffs und die Harmonisierung, Synchronisation mit und Lenkung der Angriffsbewegung und die Umsetzung durch das Ausüben der vollen Kontrolle über die Bewegungen des Angreifers, ohne primäres Interesse dessen Schädigung und mit einer gütigen Geisteshaltung (Zen, Gnade), wirken deeskalierend, auch während die Auseinandersetzung ihren Fortgang nimmt. Das Verhindern des Gesichtsverlustes durch Applikation der Techniken in einer Weise, welche die körperliche Unversehrtheit und Integrität des Aggressors sicherstellt, ermöglicht schlussendlich die Erkenntnis beim Angreifer über die Nutzlosigkeit seines Tuns und zeigt ihm die einzige erstrebenswerte Lösung des Konflikts: das sofortige Beenden der Auseinandersetzung und Einkehr geistigen Friedens. Taktische Applikation. Miyamoto Tsuruzo Sensei bei der Abwehr einer Bokkenattacke Die Ausführung der Techniken im Aikido basieren auf Bewegungen des Schwert- und Stockkampfes. In ihrer Ursprünglichkeit lassen sich alle Techniken des Aikidō auf Schneide-, Blockade- und Hebelbewegung mit dem Schwert (Bokken), bzw. dem Stock (Jō) zurückführen. Ferner gilt als ausführendes Element bei der Applikation die Widerstandslosigkeit einer Technik als erstrebenswert. Der Grund liegt darin, dass nur eine widerstandslos ausgeführte Aikido-Technik das größtmögliche Bewegungsmoment des Angreifers erhält, ohne konfrontativ und damit energieverzehrend zu wirken und dies dem Aikidōka (Aikidō-Ausübender) ermöglicht, von sich aus nur lenkenden Einfluss ohne Gewaltanwendung auszuüben. Beispielsweise kann ein Angreifer einen beliebigen Initialangriff ausführen, welcher von einem Aikidoka durch Ausweichen oder anderweitig neutralisiert wird. Ob der Angreifer nun kurze Zeit zuwartet, ob er überhaupt keine Bewegung ausführt, ob er seinen Angriff komplett abbricht oder seinen Angriff durch weitere Bewegungsfolgen wieder aufnimmt, hängt nicht vom Aikidōka ab, sondern vom Angreifer. Ausschließlich aufgrund dieser Taktiken appliziert der Aikidō-Ausübende weitere Gegenmaßnahmen. Im Folgenden seien unterschiedliche taktische Applikationen einer Technik erläutert: Ein Angriff erfolgt mit Tsudan-Zuki – ein Stich mit einem Messer oder Boxhieb gegen die Körpermitte des Aikidōka. Dieser neutralisiert den Initialangriff durch eine Ausweichbewegung auf die äußere Seite des Arms des Angreifers und berührt diese nur leicht mit seiner dem Angreifer näher liegenden Hand. Diese Kontaktaufnahme dient der Positionsbestimmung und der taktilen Wahrnehmung der Folgebewegung des Angreifers. Alle erwähnten Anwendungen dieser Technik sind in ihrem Wirkprinzip dieselben: Es erfolgt eine Handgelenkdrehung einwärts, was wuchtig ausgeführt den Angreifer zu einem Überschlag mit Drehpunkt auf der Höhe seines Unterarms verleitet (siehe: Kote gaeshi). Dieser Überschlag entsteht nicht primär darum, weil ein Hebel auf das Handgelenk wirkt, sondern er stellt einen Reflex des Angreifers dar, der damit eine Schädigung seines Handgelenks verhindern will. Der Überschlag entsteht somit vorteilhafterweise, bevor der Hebel seine Wirkung ins Handgelenk entfaltet. Diese potentielle Wirkung im Falle eines Zögerns kann nur taktil wahrgenommen werden. Für eine vom Verstand kontrollierte Erfassung treten die Gegenmaßnahmen viel zu schnell ein. Alle Anwendungen sind ohne eine körperliche Schädigung des Angreifers richtig und korrekt ausgeführt, weil sie die moralischen und strategischen Grundlagen des Aikidō berücksichtigen. Unterschiede liegen darin, dass im jeweiligen Aikidō-Verband seitens der technischen Lehrbeauftragten unterschiedliche didaktische Vorgehensweisen argumentiert und andere taktische Applikationen favorisiert werden. Technik. Zu den Techniken im Aikido soll Morihei Ueshiba gesagt haben, dass Techniken geboren würden, sobald man sich im Aikido bewege, insofern könnte man überhaupt keine Anzahl an möglichen Aikido-Techniken angeben. In den meisten Stilrichtungen werden als grundlegende Verteidigungsformen 5 Hebel- bzw. Haltetechniken und 8 Wurftechniken geübt, mit denen auf 18 grundlegende Angriffsformen reagiert werden kann. Die Grundtechniken können jeweils in ura und omote Bewegung ausgeführt werden sowie manche in einer uchi und soto Ausprägung. Diese Grundtechniken kommen wiederum entweder in Tachi-waza oder Hanmi-handachi-waza oder Suwari-waza zur Anwendung. Darüber hinaus kommen Übungsabläufe (Katas) mit Stock und Schwert vor. Die Technik des Aikido macht sich physikalische Prinzipien (wie z. B.: Achsen, Hebel, Kinetik) zu Nutze, wobei die Bewegungsmuster von Schwerttechniken mit dem japanischen Katana abgeleitet sind (Ziehen, Schnitt einhändig, Schnitt zweihändig, u. a. m.). Mit fortschreitendem Training tritt Körperkraft immer mehr in den Hintergrund und wird durch Genauigkeit, Beweglichkeit und Konzentration ersetzt. Der Angriff wird im Gegensatz zu vielen anderen Kampfkünsten nicht geblockt, sondern so umgelenkt, dass der Verteidiger daraus einen Vorteil erlangt. Dabei werden im Wesentlichen zwei Prinzipien verwendet, "irimi" und "tenkan". "Irimi" ist das Prinzip des „in den Angriff Eintretens und mit ihm Harmonisierens“, während man mit "tenkan" den Angriff mit einer Drehbewegung vorbeilässt und dabei mit ihm harmonisiert. Im Aikidō soll das "Kokyū" (呼吸), die Atemkraft, der Muskelkraft des körperlich Stärkeren überlegen sein. Genauer bezeichnet ist "Kokyū" der Atem, "Kokyū dōsa" (呼吸動作) heißt Atemkraftbewegung aus dem "Seiza" und "Kokyū-Hō" ist eine Übung zur Entwicklung der Atemkraft. Dabei ist mit Atemkraft nicht die Lungenleistung gemeint, sondern die Körperspannung (Tonus), welche in direkter Weise mit Hilfe der Atemkraft reguliert werden kann. Erstrebenswert ist ein mittleres Spannungsverhältnis zwischen hohem Tonus (Härte), welcher zur Lenkung der Bewegung beim Partner erforderlich ist, und geringem Tonus (Weichheit), welcher zur Wahrnehmung der Angriffsdynamik und zum strategischen Nachgeben verwandt wird. Beim Umsetzen der Techniken wird zum Lenken der Angriffsbewegung der taktilen Wahrnehmung hoher Stellenwert beigemessen. Dabei steht nicht primär die Muskelkraft im Vordergrund, sondern die Wahrnehmung der dynamischen Bewegungsrichtung des Angriffs. Aikido kann von Menschen jeder Größe und jeden Alters praktiziert werden, wobei die körperliche Beanspruchung nicht unterschätzt werden sollte. Da die meisten Techniken an den Gelenken angreifen, sind diese einer höheren Belastung ausgesetzt. Ein gutes Aufwärmen und Dehnen ist zwingend notwendig. Das für Europäer ungewohnte Üben auf den Knien belastet diese besonders. Doch der respektvolle Umgang mit dem Partner und die beim Üben festgelegten Rollen ermöglichen das Üben in jedem Alter und Leistungsstand. Aikido ist eine der schwerer erlernbaren Kampfkünste. Ein Schüler benötigt mehrere Jahre Übung, bis er in der Lage ist, sich wirksam zu verteidigen. Die Perfektionierung der Selbstverteidigung ist aber nicht das alleinige Ziel des Aikido-Trainings. Einige Aikidoka sehen in einer effizienten Verteidigung nur einen Nebeneffekt in der Entwicklung des Aiki. Daher lehnen die meisten Stilrichtungen Aikido als reine Technik zur Selbstverteidigung ab, glauben jedoch, dass Aikido geeignet ist, effektiv zur Verteidigung eingesetzt zu werden. Da Aikido die harmonische Auflösung einer Konfliktsituation anstrebt, kann einem Aikidoka der Kontrahent nicht egal sein, da seine Angriffsenergie für eine effektive Verteidigung intuitiv erkannt und umgeleitet werden muss. Da "Ueshiba", der von den Aikidoka "O-Sensei" (翁先生, japanisch: "Altehrwürdiger Lehrer", oft auch "Großer Lehrer", 大先生) genannt wird, ein Experte in der Handhabung von Schwert (Katana), Speer und Stab/Stock (Bō/Jō) sowie auch im Jiu Jitsu und anderen Kampfkünsten war, beinhalten die Techniken des Aikido zahlreiche raumgreifende und fließende Bewegungen. Diese Bewegungen werden zum Teil auch mit den althergebrachten Namen aus diesen Kampfkünsten bezeichnet. Stile. Ueshiba Morihei begann als Jugendlicher Ende des 19. Jahrhunderts mit dem Studium einzelner Budō-Disziplinen. Nachweislich studierte er Anfang des 20. Jahrhunderts Tenjin Shinyo ryu Jujutsu, Goto-ha Yagyu Shingan ryu Jujutsu, kurzzeitig Judo und vor allem ab 1915 Daitō-ryū Aiki-jūjutsu bei Takeda Sōkaku. 1919 kam er mit der neo-shintoistischen Bewegung Ōmoto-kyo in Berührung, deren Lehren seine Interpretation von Budō entscheidend mitbeeinflusst haben und daher für die Entstehung des Aikido als wesentlich anzusehen sind. Bis zu seinem Tode entwickelte Ueshiba sein Aikido weiter, wobei seine Kunst immer weicher und harmonischer wurde. Da er im Laufe seines Lebens viele Schüler hatte und diese ihn zu verschiedenen Zeitpunkten (Entwicklungsphasen des Aikido) verließen, entwickelten sich daraus verschiedene Interpretationen des Aikido von Ueshiba Morihei. Diese sind unter anderem Grund der verschiedenen Stile im Aikido. Es gibt Stilrichtungen, welche einem einzigen Lehrer folgen, und Stilrichtungen, welche mehr einem Verbund von Lehrern folgen. Neben diesen Aikido-Stilen leiteten einige Schüler von Ueshiba Morihei aus dem Aikido neue Bewegungslehren ab, die teilweise den Bezug auf Aikido nicht mehr in der Bezeichnung benennen, wie beispielsweise das Kinomichi von Masamichi Noro, der jeden Kampfaspekt in der gemeinsamen Bewegung ablehnt. Praxis. Aikido wurde von dem Gründer Ueshiba Morihei nicht als Sport angesehen, sondern vielmehr als Misogi-Technik („mi“ frei übersetzt: Körper; „Misogi“ frei übersetzt: den Körper schälen, raspeln, schneiden). Wettkämpfe sind im Aikido nicht vorgesehen. Die Partner arbeiten zusammen, damit jeder einzelne seine Technik perfektionieren kann. Neue Graduierungen werden durch Vorführung diverser Techniken erreicht, ohne dass die Partner dabei als Gegner miteinander kämpfen. Die Übungseinheiten bestehen zum überwiegenden Teil aus Kata-Geiko: Die Rollen von Angreifer und Verteidiger sind festgelegt, so wie Angriff und Verteidigung meist vorgegeben werden. Erst als fortgeschrittener Aikidoka beginnt man, sich langsam von der Form zu lösen; zunächst sind, z. B. im freien Üben, Angriff und Verteidigung nicht mehr streng vorgeschrieben, später beginnt man, die Rollenaufteilung in Uke und Nage/Tori zu überwinden. Während in einigen Stilen nur im Zusammenhang mit Bokken oder Jō von Kata gesprochen wird, sind in den meisten Stilen des Aikido Kata mit Partnern, also Kata-Geiko die zentrale Übungsform. Der Aikidoka achtet darauf, in den eigenen Bewegungen frei zu werden und nicht mehr über jeden einzelnen Schritt nachzudenken. Die Bewegungsabläufe sollen sich im Unterbewusstsein festigen. Regelmäßiges Üben verbessert die Beweglichkeit und fördert durch komplexe Bewegungsabläufe Konzentration, Koordination, Grob- und Feinmotorik sowie das körperliche und geistige Wohlbefinden. Übungskleidung. Als Kleidung wird beim Üben der Ende des 19. Jahrhunderts von Kanō Jigorō, dem Begründer des Jūdō, eingeführte Keiko-Gi getragen. Aikidoka in Kyūgraden tragen in der Regel einen weißen Gürtel. Nur in einigen Stilrichtungen/Verbände erfolgt eine Unterscheidung der Graduierung durch Gürtelfarben angelehnt an das System anderer Kampfkünste. Die Graduierung von Mudansha ist somit nicht eindeutig anhand der Gürtelfarbe zu erkennen. Darüber hinaus können Aikidoka über dem Keiko-Gi einen Hakama, eine Art Hosenrock, tragen. Die Farbe des Hakama ist dabei unerheblich, beim Aikido werden zumeist schwarze oder dunkelblaue Hakama getragen, lediglich weisse Hakama sind aufgrund japanischer Sitten nicht verbreitet. Bis zur Zeit des Zweiten Weltkriegs war es üblich, dass jeder Aikidoka von Anfang an einen Hakama trug. In vielen Dōjō und Stilrichtungen ist es heutzutage üblich, dass die Schüler bis zum Erreichen des ersten Dan oder zumindest bis zu einem der höheren Kyū ohne Hakama Aikido üben. Dies Praxis geht darauf zurück, dass in der Kriegszeit die Stoffe für viele Schüler Ueshiba Moriheis zu teuer waren, und sie bei Ueshiba um Erlaubnis baten, ohne einen Hakama am Unterricht teilnehmen zu dürfen. Ein weiterer praktischer Grund für den Verzicht auf das Tragen eines Hakama in den Anfängergraden liegt in der Verschleierung der Standposition. Während in früheren Zeiten der Hakama zweckmässiger Weise im Zweikampf die Fuss- und Standposition eines Kontrahenten verdeckte, soll der Verzicht heutzutage dem Lehrer ermöglichen, die Standposition besonders der Schüler im Anfängergrad besser zu erkennen und korrigieren zu können. Ausrüstung. Aikidotraining findet größtenteils ohne Übungswaffen statt, doch die drei Waffen Bokken, Jō und Tantō, üblicherweise hölzerne Trainingswaffen, spielen eine wichtige Rolle. Sie werden verwendet, da viele Bewegungen und Techniken im Aikido von Waffentechniken wie Schwert- oder Stocktechniken abgeleitet sind, und dadurch die waffenlosen Bewegungsabläufe selbst besser verstanden und verinnerlicht werden können. Je nach Stilrichtung variiert die Bedeutung des Waffentrainings. Ablauf. Im Dōjō sitzen die Schüler aufmerksam im "Seiza" auf den „niederen Sitzen“ („shimoza“), während sich der Lehrer ("Sensei") auf dem mittig gegenüberliegenden "Kamiza" befindet. Die Schüler behalten diese Position bei, wenn der Sensei die Übungsformen präsentiert. In einigen Dōjō sitzen aus der Sicht des Sensei die Aikidoka mit dem niedrigeren Grad auf der rechten bzw. „niederen“ Seite („shimoseki“). Die Aikidoka mit dem höheren Grad befinden sich aus der Sicht des Sensei auf der linken bzw. „höheren“ Seite („jōseki“). Auf shimoseiki oder jōseki befinden sich zudem Sitze für Besucher. Im Dōjō wird Wert auf die Etikette („Reigi“) gelegt. Beim Betreten des Dojos erfolgt ein "Ritsurei" in Richtung des Kamiza. Beim Ritsurei handelt es sich um eine stehende Verbeugung im 30° Winkel, welche in "Shizen Hontai" (natürlicher Stand) ausgeführt wird. Zudem erfolgt beim Betreten der Matte ein "Zarei". Dabei handelt es sich um eine 30°-Verbeugung im Seiza, bei der die Hände flach etwa 15 cm vor den Knien mit der Handfläche nach unten auf die Matte gelegt werden und die Fingerspitzen der linken und rechten Hand aufeinander zeigen. Das Gesäß bleibt dabei auf den Fersen. Nach dem Betreten der Matte werden von den Studenten leichte Dehnungs- und Aufwärmübungen durchgeführt. Begonnen wird die Lehrstunde mit einem Klatschen und dem Einnehmen der korrekten Sitzpositionen. Danach erfolgt eine Begrüßung des Sensei. Die Begrüßung wird dabei in manchen Dōjōs vom ranghöchsten Schüler mit den Worten „Sensei“ oder „sempei ni rei“ eingeleitet. Dabei erfolgt ein Ritsurei, sowie der gleichzeitigen Aussprache der traditionellen Begrüßung „O negai shimasu“ (お 願い します, wörtlich auf deutsch: "Ich mache (shimasu) eine Bitte (O-negai)!" – im Sinne einer Aufforderung, vom nun folgenden Unterricht zu profitieren). Manchmal wird dieses Ritual ergänzt mit einem Klatschen. Dabei werden die Sitzpositionen im Seiza eingenommen. Auf Aufforderung hin erfolgt eine Begrüßung des Sensei mit einem Zarei. Dieser erwidert ebenfalls mit einem Zarei. Nach den Begrüßungen kann eine kurze Meditation („Mokusō“) folgen worauf hin der Unterricht beginnt. Danach üben meistens zwei Partner miteinander. Jede Übung wird mit der Begrüßung des Übungspartners in Form eines Ritsurei und „O negai shimasu“ eingeleitet. Im regelmäßigen Wechsel nimmt eine Person die Rolle des Angreifers ("Uke") ein und die andere Person die Rolle des Angegriffenen bzw. Verteidigers ("Nage oder Tori"). Nage führt eine Technik gegenüber Uke aus. Nach in der Regel zwei oder vier Wiederholungen der jeweiligen Technik vertauschen die Partner ihre Rollen als Uke und Nage. Die Angriffe bestehen vorwiegend aus Schlägen, Halte- und Würgegriffen. Die Technik selbst ist zumeist in drei Teile gegliedert. Dem Aufnehmen/Vorbeileiten der Angriffsenergie (siehe auch Tai no henkō), der Weiterführung der Energie bis zum Verlust des Gleichgewichts (des Uke) und der Abschlusstechnik, die aus einem Wurf – auch mit anschließender Haltetechnik – oder nur einer Haltetechnik bestehen kann. Dabei kann das Aufnehmen und Vorbeileiten des Angriffs auf mehrere Weisen erfolgen. Nage (der Verteidiger) kann durch eine Ausweichbewegung ("Tai Sabaki" – „bewegen in verschiedene Richtungen“) und einen anschließenden Schritt nahe zum Angreifer hin ("omote" oder "ura" – „eintreten in verschiedene Positionen zum Uke hin“) sich mit der Energie des Angriffs harmonisieren. Danach wird, durch die Weiterführung der Angriffsenergie in eine durch Nage bestimmte Richtung, das Gleichgewicht von Uke gestört. Oft finden auch angedeutete Stoß- und Schlagtechniken ("atemi") zur Störung des Gleichgewichts Verwendung. Sobald Uke die eigene Kontrolle über seinen Körper verloren hat, ist es nicht mehr schwer, die Bewegung durch einen Wurf oder mit einem Haltegriff zu beenden. Es gibt auch Übungen, in denen Techniken gegen mehrere Partner gleichzeitig geübt werden ("randori"), und Übungen, bei denen die Technik frei gewählt werden kann ("jiyuwaza"). Beim Ende der Übung erfolgt eine Bedankung in Form eines stehenden Ritsurei mit den Worten „Domo Arrigato Gozaimas“ oder „Arrigato Gozaimashita“. Am Ende der Klasse nehmen alle Schüler die korrekten Sitzpositionen ein. Auf Aufforderung des Sensei erfolgt ein Ritsurei mit den Worten „Domo Arrigato Gozaimas“ oder „Arrigato Gozaimashita“ in Richtung des Kamiza, welcher vom Sensei erwidert wird. Der Sensei geht zum Rand der Matte und macht einen Ritsurei in Richtung des Kamiza. Danach sind die Studenten entlassen und können ihre Sitzpositionen nach einem optionalen Ritsurei verlassen. Einflüsse. Die Ideen und Prinzipien des Aikido übten und üben auch außerhalb des reinen Kampfsports großen Einfluß. So beispielsweise in der de-eskalierenden Konfliktforschung oder dem modernen Tanz (siehe Contact Improvisation, Akroyoga). Alexandria. Alexandria oder Alexandrien ("Alexándreia", nach Alexander dem Großen;) ist, mit über 4,3 Millionen Einwohnern (Stand 2009) und einer Ausdehnung von 32 Kilometern entlang der Mittelmeerküste, nach Kairo die zweitgrößte Stadt Ägyptens und die insgesamt größte Stadt mit direktem Zugang zum Mittelmeer. Sie besitzt den größten Seehafen des Landes, an dem etwa 80 % des ägyptischen Außenhandels abgewickelt werden. Als bedeutender Industriestandort wird sie über Pipelines mit Erdöl und Erdgas aus Sues versorgt. Alexandria wurde 331 v. Chr. von Alexander dem Großen an der Stelle der altägyptischen Siedlung Rhakotis gegründet. Die Stadt entwickelte sich zu einem wichtigen Zentrum der hellenistischen Welt sowie des römischen und byzantinischen Ägypten. Das antike Alexandria war vor allem für seinen Leuchtturm (Pharos), eines der sieben Weltwunder der Antike, und für seine Große Bibliothek bekannt. Nach der Islamischen Eroberung Ägyptens 641 n. Chr. und mit der Gründung von Kairo verlor sie ihre Bedeutung. Anfang des 19. Jahrhunderts zu einem vom Hinterland abgeschnittenen Fischerdorf herabgesunken, gelang Alexandria dank dem Bau des Mahmudiakanals und dem Aufblühen des lukrativen ägyptischen Baumwollhandels der Wieder-Aufstieg zu einem wichtigen internationalen Handelszentrum. Im Hafen von Alexandria finden seit 1994 unterwasserarchäologische Untersuchungen statt, durch die neue Erkenntnisse zur Vorgängersiedlung Rhakotis und zur ptolemäischen Epoche gewonnen werden konnten. Geografie. Alexandria liegt am westlichen Rand des Nildeltas knapp über dem Meeresspiegel auf einem schmalen Landstreifen entlang der hier von Südwesten nach Nordosten verlaufenden Küste des Mittelmeeres. Hinter dem Landstreifen erstreckt sich der lagunenartige Brackwassersee Mariut, dessen Fläche in den letzten 200 Jahren immer kleiner geworden ist. Ganz durch Landgewinnung in bewässertes Ackerland verwandelt wurde die Fläche der ehemaligen Lagune von Abukir (المعدية أبو قير — al-Maădīat Abū Qīr), die sich zwischen dem Mariut-See, der Bucht von Abukir und dem Idku-See (بحيرة إدكو — Buhayra Idkū) befindet. Aus dem Nildelta schlängelt sich der unter den Ptolemäern angelegte Kanal von Alexandria (الإسكندرية ﺧﻠﻴﺞ — Chalīg al-Iskandariyya) zwischen den Seen hindurch bis nach Alexandria. Er dient der Süßwasserversorgung und der Binnenschifffahrt. Zwischen 1807 und 1820 wurde der Kanal wiederum erneuert und dabei der Abgang aus dem Nil um 20 Kilometer flussabwärts verlegt, sowie bei Alexandria eine neue Verbindung zum Mittelmeer angelegt. Seitdem heißt er Mahmudiakanal (قَنَال المحمودية — Qanāl al-Maḥmūdiyya). Die Altstadt "al-Medina" (المدينة) liegt auf der Landzunge, die sich entlang des um 300 v. Chr. gebauten Damms zur Insel Pharos gebildet hat, und damit nördlich der antiken Stadt. Nach Süden war diese Landzunge durch eine Festungsmauer gesichert. Südlich der Altstadt und der Hafenbecken, also auf dem Gelände des antiken Alexandria auf dem küstenparallelen Landstreifen, gab und gibt es eine (um 1800) von der Fläche her annähernd doppelt so große Vorstadt, die von weiteren Stadtmauern geschützt wurde. Heute hat sich aus dieser Vorstadt ein Siedlungsband von über 15 Kilometer Länge gebildet. Die Stadt liegt im gleichnamigen Gouvernement und bildet ein Verwaltungsgebiet von 2679 km². Die Stadt Rosette (Raschīd) liegt 65 Kilometer östlich, der Suezkanal 240 Kilometer. Die Entfernung nach Kairo beträgt 225 Kilometer. Klima. An der Küste um Alexandria befindet sich ein schmaler steppenhafter Landstreifen zwischen mediterranem Klima und Wüstenklima. Die Temperatur schwankt im Januar von 9 bis 19 °C und im Juli von 22 bis 31 °C. Diese Schwankungen sind auf Grund der Nähe zum Meer moderat. 190 mm Niederschlag fallen an wenigen Tagen zwischen Oktober und April. Die Luftfeuchtigkeit liegt bei 60 bis 70 Prozent. Vom Mittelmeer her kommend, wehen zumeist nördliche, gemäßigte, manchmal aber auch sehr heftige Winde. Im Frühjahr kann auch ein heißer, trockener Wüstenwind wehen, der Chamsin, der aus dem Süden dichte, gelbe Wolken aus Sand und Staub mitbringt. Bevölkerung. Mit 4,31 Millionen Einwohnern in der eigentlichen Stadt ist Alexandria heute nach Kairo die zweitgrößte Stadt Nordafrikas, mit 4,54 Millionen Einwohnern in der Agglomeration viertgrößter Ballungsraum in Nordafrika und zehntgrößter in ganz Afrika. Hellenistische Zeit. Die erste Besiedlung des heutigen Stadtgebiets fand wahrscheinlich zwischen 2700 und 2200 v. Chr. statt. 331 v. Chr. gründete der Feldherr und Makedonenkönig Alexander der Große Alexandria an der Stelle der ägyptischen Siedlung Rachotis (Raqote), wobei er selbst die Lage des Marktplatzes und der Hauptverkehrsachsen festlegte. Wahrscheinlich besaß die vorherige kleine Stadt aus vorptolemäischer Zeit schon Hafenanlagen im Norden und Westen der Insel Pharos. Traditionell galt als Gründungsdatum der 25. Tybi (erster Peretmonat), der 7. April jul. / 2. April greg. 331 v. Chr. Alexandria entstand nach Plänen des griechischen Architekten Deinokrates. Im Jahr 331 v. Chr. verließ Alexander die Stadt, zog mit seinem Heer nach Osten und sollte bis zu seinem Tod nicht mehr zurückkehren. Der Beamte Kleomenes von Naukratis übernahm kurzzeitig die Regierung und überwachte den Bau der Stadt. Ptolemaios I. (305-283 v. Chr.) ließ den Leichnam Alexanders überführen und bestattete ihn in einem goldenen Sarg. Das Grab lag wahrscheinlich in dem königlichen Mausoleum der Stadt, das auf dem Gelände der heutigen Nebi-Daniel-Moschee vermutet wird. Erst unter Ptolemaios II., also zwischen 285 und 246 v. Chr., wurde Alexandria im geplanten Umfang fertiggestellt, doch schon zwischen 320 und 311 wurde es die Residenzstadt der ptolemäischen Könige und behielt diese Funktion bis zum Ende des Ptolemäerreichs. Die griechische Polis Alexandria galt formal nicht als Teil Ägyptens, sondern wurde jahrhundertelang stets als „Alexandria "bei" Ägypten“ bezeichnet; erst in römischer Zeit änderte sich dies. In der Blütezeit um 300 v. Chr. bis 395 n. Chr. war Alexandria ein wirtschaftliches, geistiges und politisches Zentrum der hellenistischen Welt, auch unter römischer Herrschaft. Berühmte Bauwerke wie der Leuchtturm von Pharos (Bauzeit ca. 299–279 v. Chr.), das "Museion" mit der großen ("alexandrinischen") Bibliothek und zahlreiche Theater, Palastbauten und Tempel machten die Stadt im ganzen antiken Mittelmeerraum bekannt. Ein gleichzeitig mit der Stadt angelegter Kanal führte Süßwasser aus dem westlichsten Mündungsarm des Nils heran und speiste ein umfangreiches System von Zisternen. In guten Zeiten, d.h. wenn der Kanal funktionierte, unterschied sich die Funktion dieser Zisternen von der sonst üblichen; dienen Zisternen normalerweise als Sammelbehälter für Regenwasser, so dienten die Zisternen Alexandrias als Absetzbecken zur Klärung des natürlicherweise trüben Nilwassers. Diodor berichtet von 300.000 freien Einwohnern in späthellenistischer Zeit, wobei die Bevölkerung aus ganz unterschiedlichen ethnischen Gruppen bestand. In der Kaiserzeit war Alexandria nach Rom zeitweise die zweitgrößte Stadt des Imperiums. Die Bevölkerungszahl wird in seriösen Untersuchungen auf rund eine halbe Million Einwohner in der Spätantike geschätzt, Freie und Sklaven. Einige Schätzungen gehen sogar von einer Gesamtbevölkerung von 600.000 bis 750.000 Einwohnern aus. Die Stadtbefestigung wurde mehrmals erweitert, in der größten Ausdehnung grenzte die südliche Stadtgrenze an den Mareotis-See. Das antike Alexandria bestand aus mehreren Stadtteilen für bestimmte Bevölkerungsgruppen. Neben dem Wohnbezirk der Ägypter, Rhakotis genannt, und der griechischen Neapolis gab es auch ein Viertel der Juden. In Alexandria entstand seit dem 2. vorchristlichen Jahrhundert der größte Teil der als Septuaginta bekannten Übersetzung der Heiligen Schriften der Israeliten ins Griechische. Römische Herrschaft. Im Jahre 30 v. Chr. wurde die Stadt von Octavian eingenommen, der sich in einem Machtkampf im Römischen Reich durchgesetzt hatte und die Stadt – wie ganz Ägypten – dem Imperium Romanum einverleibte. In römischer Zeit leitete ein jüdischer Aufstand unter Kaiser Trajan einen schleichenden zeitweiligen Niedergang ein. Durch die Unruhen wurde die Stadt schwer beschädigt und der Handel kam zum Erliegen. Trajans Nachfolger Hadrian leitete den Wiederaufbau ein und beschränkte sich auf drei Fünftel des alten Stadtgebiets. Unter den Kaisern Decius und Valerian kam es erneut zu religiösen Konflikten: Es wird von zwei schweren Christenverfolgungen berichtet, aber auch innerhalb der Glaubensgruppen der römischen (polytheistischen) Religion kam es zu gewaltsamen Ausschreitungen. 380 bzw. 392 n. Chr. wurde das Christentum Staatsreligion, infolgedessen wurden von einer Gruppe Christen entgegen kaiserlicher Anweisung Tempel zerstört, so vor allem das Hauptheiligtum des Gottes Serapis in Alexandria (wohl 393). Unruhen weiteten sich aus; ein bekanntes Opfer war die heidnische Philosophin und Wissenschaftlerin Hypatia, die im 5. Jahrhundert in innerchristliche Kontroversen verwickelt und von aufgebrachten Christen ermordet wurde. Alexandria war zu dieser Zeit bereits Sitz eines Patriarchen und entwickelte sich zu einem der wichtigsten christlichen Zentren. Bis zur islamischen Eroberung war es nach Rom der zweitwichtigste Bischofssitz der Christenheit. Nach dem Konzil von Chalkedon 451 war die Stadt über 200 Jahre ein Mittelpunkt des Monophysitismus. Zugleich wirkten dort noch bis ins 7. Jahrhundert bedeutende Vertreter des Neuplatonismus (Schule von Alexandria). Alexandria blieb in oströmischer Zeit eine bedeutende Stadt. Kalifenreich. Nach der Eroberung Ägyptens durch das persische Sassanidenreich im Jahr 619 konnte Ostrom/Byzanz das Land zwar 629 zurückgewinnen, aber 642 nahmen die Araber Alexandria im Zuge der islamischen Expansion dauerhaft ein. In der Folgezeit verlor die Stadt ihre dominierende Stellung in Ägypten zwar an Kairo, blieb aber bedeutend. Innerhalb des Kalifenreiches erreichte Ägypten alsbald eine weitgehend unabhängige Stellung. Durch ein Erdbeben im Jahr 796 erlitt der Pharos-Leuchtturm ernsthafte Schäden. Der Papstsitz der Koptischen Kirche wurde 1047 von Alexandria nach Kairo verlegt, wiewohl sich die koptischen Päpste weiterhin als Patriarchen von Alexandria bezeichnen. Ein schweres Erdbeben in Unterägypten machte 1309 den Leuchtturm endgültig unbrauchbar. Aus seinen Steinen wurde ein Fort gebaut. Ein Reisebericht von Ibn Batuta (1304–1369) verweist auf eine damals kürzlich erfolgte Erneuerung des Kanals vom Nil. König Peter I. von Zypern initiierte (1362) und leitete einen Kreuzzug gegen Alexandria, bei dem die Stadt am 9. Oktober 1365 gestürmt und geplündert wurde. Als sich nach drei Tagen ein Heer von Bahri-Mameluken näherte, begaben sich die Kreuzfahrer mit ihrer Beute auf ihre Flotte und zogen ab. Nach einer Reihe anderer Dynastien stellten ab 1382 die Burdschi-Mameluken die Sultane von Ägypten. Als nach dem Alhambra-Edikt von 1492 die Juden Spaniens ihre Heimat verlassen mussten, siedelte sich eine beachtliche Zahl dieser Sephardim in Alexandria an. Osmanisches Reich und europäische Kolonialmächte. Die Mamluken behielten die innere Verwaltung Ägyptens auch nach der Eroberung durch die Osmanen 1517. Die Expansion des Osmanischen Reiches erschwerte aber den Handel Europas mit Indien und China und führte so zur Erkundung und Etablierung des Seewegs nach Indien (Goa portugiesische Kolonie seit 1510). Mit dem Wegfall des einträglichen Landtransports vom Mittelmeer zum Roten Meer schwand die Bedeutung des Hafens von Alexandria. Zudem verfiel Ägypten als osmanische Provinz unter Mamlukenherrschaft in allgemeine Stagnation. So wurde die einstige Metropole Alexandria zu einer unbedeutenden Kleinstadt. Napoléon Bonaparte landete 1798 während seiner ägyptischen Expedition bei Alexandria, eroberte die Stadt und schlug die Mameluken, verlor aber die Seeschlacht bei Abukir gegen die Briten, die 1801 Alexandria belagerten und eroberten. Nachdem so die Schwäche der Mameluken und des Osmanischen Reiches offenbar geworden war, ergriff Muhammad Ali Pascha, Befehlshaber der albanischen Garde des osmanischen Reichs in Ägypten die Herrschaft über die Provinz, unter Beibehaltung der osmanischen Hoheit. Er nannte sich als erster Khedive und gilt als Schöpfer des modernen Ägypten. Er veranlasste die Wiederherstellung, teils auch Neutrassierung des Süßwasserkanals vom Nil, seither Mahmudiyyakanal genannt. Unter seiner Regierung entstand am Hafen von Alexandria auch die erste moderne Werft Ägyptens. Die Schwäche des Osmanischen Reiches ließ die europäischen Kolonialmächte versuchen, Einfluss und Kontrolle über den wichtigsten Mittelmeerhafen Ägyptens zu gewinnen, sowohl mit friedlichen Mitteln als auch mit Gewalt. Abbas I., der Enkel und Nachfolger Muhammad Alis, beauftragte Robert Stephenson mit dem Bau einer Eisenbahn von Alexandria nach Kairo. Deren erster Abschnitt zwischen Alexandria und Kafr El-Zayat am Rosette-Arm des Nils wurde 1854 eröffnet. Britische Kaufleute erreichten den Bau der Straßenbahn von Alexandria, die 1863 in Betrieb ging. Beide Bahnen waren die ersten ihrer Art sowohl im Osmanischen Reich als auch in Afrika. Seit der Eröffnung des als französisches Projekt gebauten Sues-Kanals am 17. November 1869 lag Alexandria wieder an einer Hauptroute des Welthandels. In den 1870er Jahren geriet die ägyptische Regierung in zunehmende Finanznot und damit Abhängigkeit von europäischen Mächten (1875 Verkauf der ägyptischen Sueskanalaktien an Großbritannien). 1881 kam es dann zum Urabi-Aufstand gegen den neu eingesetzten Khediven Tawfiq und den europäischen Einfluss. Daraufhin schoss eine britische Mittelmeerflotte Alexandria am 11.–13. Juli 1882 in Trümmer, traf dabei allerdings überwiegend die von Europäern bewohnten Stadtviertel. Am 13. Juli landeten dann auch Truppen der Flotte in der Stadt, besiegten trotz Unterzahl die ägyptische Garnison und gewannen die Kontrolle. Nach der vollständigen Niederschlagung des Aufstandes war die ägyptische Regierung eine von Großbritannien kontrollierte Marionettenregierung. Wirtschaftlich ging es unter der britischen Kontrolle mit Alexandria bergauf. Die Industrialisierung und der verstärkten Handelsverkehr sorgten für Wohlstand und Bevölkerungswachstum. 20. Jahrhundert. In den 1920er Jahren wanderten Menschen unterschiedlichster Nationalitäten nach Alexandria ein, die noch von dem aus der Ottomanenzeit stammenden "Kapitulationssystem", d. h. dem Recht auf doppelte Staatsbürgerschaft, profitierten, insbesondere Griechen und Italiener. Auch die jüdische Gemeinde, seit der Antike ansässig und zum Ende des 15. Jahrhunderts durch den Exodus aus Spanien verstärkt, erfuhr weiteren Zuzug. Die Sephardim trugen mit Banken- und Firmengründungen beträchtlich zum Finanz- und Wirtschaftsleben Alexandrias bei. Es entwickelte sich zunehmend eine „gesellschaftliche und wirtschaftliche Elitenbildung der jüdischen Alexandriner“ Im Zuge der allgemeinen Emanzipation der Kolonialvölker und als Reaktion auf die Gründung des Staates Israel entwickelte sich 1948 in Ägypten die Bewegung des Panarabismus, wodurch sich die Lebensbedingungen für die ethnischen Minderheiten in Ägypten verschlechterten. Die Einwohnerzahl Alexandrias nahm ab der Mitte des 20. Jahrhunderts rasant zu und stieg über vier Millionen, während 50.000 Juden im Rahmen der „Operation Kadesh“ im Oktober 1956 für immer Alexandria verließen. Gamal Abdel Nasser leitete seinen „sozialistischen Kurs“ mit Verstaatlichungen und Nationalismus-Erlassen ein, wodurch viele ihr Vermögen verloren und die Stadt Alexandria verarmte. Gegenwart. Heute gilt Alexandria neben Kairo als wichtigste Stadt Ägyptens, mit eigenem internationalen Flughafen und bedeutendem Seehafen. Das antike Alexandria. Einst wurden die Straßen idealtypisch im rechtwinkligen System angelegt und von zwei 30 m breiten Hauptachsen durchquert. Ein Damm, der "Heptastadion", verband die Insel Pharos mit dem Festland und bildete die Westgrenze des Haupthafens "portus Magnus". Am Hafen befand sich das Stadtzentrum mit dem Königsviertel, den Palästen und öffentlichen Gebäuden. Die Ptolemäer erweiterten die Palastbauten um weitere herrschaftliche Gebäude und Parkanlagen. Im Hafenbecken lag die kleine Insel Antirhodos mit einem Palast. In der römischen Epoche wurden einige Theater gebaut, unter anderem das "Timoneion", das ein Stück ins Meer hinaus gebaut wurde. Auf dem heutigen Raml-Platz stand das "Kaisareion" (lateinisch: "Caesareum"), ein Heiligtum für Julius Caesar, erbaut von Kleopatra. Dessen zwei Obelisken, die auf dem Vorplatz des Tempels standen, befinden sich heute in London und New York City. Der Leuchtturm von Pharos, eines der antiken Weltwunder, wurde auf einer kleinen Insel in der Einfahrt zum "Großen Hafen" (lat.: PORTVS MAGNVS) östlich von Pharos errichtet, am heutigen Standort der Qāitbāy-Zitadelle. Mit 122 m Höhe gilt er als technische Meisterleistung der Antike. Museion und Bibliothek. Die Große Bibliothek von Alexandria ist bis heute berühmt. Zusammen mit dem Museion machte sie die Stadt zum geistigen Zentrum der antiken Welt. Über eine Million Schriftrollen lagerten in den Bibliotheksräumen und bildeten somit den Kanon der damaligen Wissenschaften. Das benachbarte Museion ("Tempel der Musen") war ein überregional bedeutendes Forum von Künstlern, Wissenschaftlern und Philosophen. Es war das Zentrum der Alexandrinischen Schule, wo beispielsweise Heron, Ptolemäus und Euklid lehrten und forschten. Nach ihr ist die Alexandrinische Epoche benannt. Das Schicksal der Großen Bibliothek bei Caesars Eroberung ist umstritten. Einige antike Quellen sprechen von einem Feuer bei Caesars Eroberung der Stadt 48/47 v. Chr. Wie jedoch Edward Parsons in seiner Quellenanalyse nachweist, stützen nur sechs von 16 Quellen über das Alexandria jener Zeit diese Hypothese. Die erste dieser Quellen wurde etwa 100 Jahre nach dem angeblichen Vorfall geschrieben, und die Zahl der angeblich verlorenen Bücher schwankt von 40.000 (die erste Quelle) bis 700.000, also der kompletten Bibliothek (Aulus Gellius). Die letzte Quelle (der Kirchenhistoriker Orosius) spricht wieder von 40.000 Büchern. Das "Museion" von Alexandria, an das die Bibliothek angegliedert war, existierte mit Sicherheit weiterhin, da mehrere Leiter des Museions aus nachchristlicher Zeit bekannt sind und Plutarch von einem Geschenk von 200.000 Schriftrollen aus der Bibliothek von Pergamon an Caesar schreibt. Der letzte bekannte Leiter des Museions war Theon von Alexandria (ca. 335–405). Im Jahr 391 wurden vom Patriarch Theophilos von Alexandria alle nichtchristlichen Tempel in Alexandria zerstört; vorausgegangen waren blutige Zusammenstöße zwischen Anhängern der traditionellen Kulte („Heiden“) und Christen, wohl bewusst angeheizt von Theophilos, bis hin dazu, dass schließlich Heiden, die sich im Serapisheiligtum verschanzt hatten, dort Christen kreuzigten. Um die Situation wieder zu beruhigen, vergab Kaiser Theodosius I. ihnen zwar diese Morde, ordnete aber gleichzeitig die Zerstörung des Tempels an. Die Zerstörung des weithin bekannten Serapisheiligtums, das die Tochterbibliothek beinhaltete, sollte eine deutliche Fanalwirkung für die „Heiden“ haben; ob dabei auch das "Museion" (der „Tempel der Musen“ und damit aller Wahrscheinlichkeit nach die Bibliothek) zu diesem Zeitpunkt zerstört wurde, ist unbekannt, es kann jedoch nicht wesentlich früher oder später geschehen sein. 642 brannte die Bibliothek, nachdem die Araber die Stadt von den Byzantinern (Oströmern) erobert hatten. Das heutige Stadtbild. In der ereignisreichen Geschichte Alexandrias sind viele historische Bauwerke und Kunstschätze über die Jahrhunderte verloren gegangen. Das heutige Stadtbild wird von Gebäuden im Stil des Historismus, Stile Liberty und Eklektizismus aus dem 19. und 20. Jahrhundert bestimmt. Aus antiker Zeit sind ein römisches Theater und die Katakomben von Kom esch-Schuqafa erhalten. Wichtigstes Museum Alexandrias ist das Griechisch-Römische Museum über antike Architektur, Bildhauerei und Handwerkskunst. Im April 2002 wurde das Kulturzentrum Bibliotheca Alexandrina eröffnet. Unter der Schirmherrschaft der UNESCO gebaut, soll es an die ruhmreiche Vergangenheit der antiken Bibliothek anknüpfen. Das Areal beherbergt die Bibliothek, Museen und Galerien, mehrere Forschungsinstitute, ein Veranstaltungszentrum und ein Planetarium. Zitadellen. In East Alexandria, im Qaitbay Zitadelle befindet sich eine der wenigen verbliebenen Zitadellen in der Stadt aus dem 15. Jahrhundert Sakralbauten. In den zahlreichen Moscheen der Stadt, die teilweise auf antiken Ruinen stehen, sind historische Bauelemente wie römische Wandfliesen integriert worden. Der bedeutendste Sakralbau ist die Abu-l-Abbas-al-Mursi-Moschee. Wirtschaft und Bildung. Alexandria ist nach Kairo der zweitwichtigste Industriestandort Ägyptens. Bedeutende Industriezweige sind die Textil-, Kraftfahrzeug-, chemische, petrochemische und Nahrungsmittelindustrie. Über den Hafen Alexandrias werden drei Viertel des ägyptischen Exports abgewickelt. Darüber hinaus ist die Stadt ein wichtiges Seebad. Die Hochschulen von Alexandria sind die "Alexandria-Universität", "Senghor-Universität" und die "Arabische Akademie für Wissenschaft, Technologie und Seetransport". Verkehr. Zwei Autobahnen verbinden die Stadt mit Kairo. Eisenbahnlinien führen nach Kairo, Marsa Matruh und Port Said. Alexandria ist mit zwei Flughäfen an den internationalen Flugverkehr angeschlossen. Der internationale Flughafen Alexandria-Nuzha (ALY) ist seit Dezember 2011 wegen Renovierungsarbeiten geschlossen. Der kleinere, aber modernere Flughafen Flughafen Burg al-ʿArab (HBE) besteht im gleichnamigen westlichen Vorort für regionale Flüge und bedient jetzt den Großraum Alexandria. Von hier geht eine rege genutzte Eisenbahnlinie via Tanta nach Kairo. Der öffentliche Personennahverkehr in Alexandria wird im Wesentlichen von Vorortbahnen und einem ausgedehnten Straßenbahnnetz getragen. Die Straßenbahnen werden von der Gesellschaft A.P.T.A. betrieben und unterteilen sich in ein innerstädtisches (City line) und ein Vorortverkehrsnetz (Ramleh line). Des Weiteren wird der Nahverkehr von dieselgetriebenen und CNG (Gas) Linienbussen, privaten Minibussen und Sammeltaxis bewältigt, die sich die Fahrspuren mit dem Individualverkehr teilen. Städtepartnerschaften. Zudem ist Alexandria als einzige außereuropäische Stadt Mitglied des Bundes der europäischen Napoleonstädte. Anne Haigis. Anne Haigis (* 9. Dezember 1955 in Rottweil) ist eine deutsche Musikerin und Sängerin. Leben. Haigis veröffentlichte Anfang der 1980er-Jahre einige jazzorientierte Alben mit englischen Texten beim Label "Mood". Anschließend hatte sie ihre kommerziell erfolgreichste Phase mit deutschsprachigen Songs, mit denen sie mehrmals bei "Wetten, dass..?" auftrat. 1986 trat sie unentgeltlich beim Anti-WAAhnsinns-Festival gegen die geplante Wiederaufarbeitungsanlage Wackersdorf auf die Bühne. In den 1990er-Jahren wandelte sie ihr Repertoire hin zu mehr englischsprachigen Nummern. Bei Auftritten in Los Angeles und Nashville stand sie an der Seite von Nils Lofgren und Melissa Etheridge auf der Bühne. Anne Haigis steht bei "Westpark Music" unter Vertrag. Sie lebt in Bonn. Astrophysik. Die Astrophysik beschäftigt sich mit den physikalischen Grundlagen der Erforschung von Himmelserscheinungen und ist ein Teilgebiet der Astronomie. Als Erweiterung der klassischen Astronomie (vor allem aus Astrometrie und Himmelsmechanik bestehend) macht sie heute große Bereiche der astronomischen Forschung aus. In der deutschen Hochschulpolitik ist die Astrophysik als Studienfach gemeinsam mit der Astronomie als Kleines Fach eingestuft. Ursprung. Viele Historiker datieren den Beginn der Verschmelzung von Astronomie und Physik auf den Anfang des 17. Jahrhunderts, genauer auf die Entdeckung der keplerschen Gesetze. Einer der Ersten, der offensichtlich der Überzeugung war, dass Johannes Kepler der erste Astrophysiker gewesen sei, war sein langjähriger Lehrmeister und Freund Michael Mästlin. In einem Brief an Kepler schrieb er:" „Ich denke man sollte physikalische Ursachen ausser Betracht lassen, und sollte versuchen astronomische Fragen nur nach dem astronomischen Verfahren mit Hilfe von astronomischen, nicht physikalischen, Ursachen und Hypothesen zu erklären. Das heißt, die Berechnungen verlangen eine astronomische Basis im Bereich der Geometrie und Arithmetik.“ " Sowohl Kepler als auch Galileo Galilei haben sich intensiv mit den Arbeiten von William Gilbert, einem Arzt und Physiker im England des 17. Jahrhunderts befasst. Gilbert unterschied als Erster eindeutig zwischen Magnetismus und statischer Elektrizität, er untersuchte die elektrische Aufladung an vielen Substanzen und war überzeugt, dass die Erde insgesamt als ein einziger Magnet mit zwei Polen angesehen werden muss. Nach seiner Vorstellung war der Magnetismus die „Seele“ der Erde – woraus er eine ganze „magnetische Philosophie“ entwickelte. Von vielen Wissenschaftlern der damaligen Zeit wurden die Entdeckungen von Kepler, Galileo und Gilbert allerdings nicht ernst genommen. Dies führte zu einer Vernachlässigung ihrer Arbeiten und schlussendlich dazu, dass noch zwei weitere Jahrhunderte vergehen sollten, bis die alchemistischen Ansichten verlassen wurden. Die tatsächliche Geburtsstunde der Astrophysik wird heute von vielen Naturwissenschaftlern mit der Bestätigung des kopernikanischen Weltbilds durch Friedrich Wilhelm Bessel und Thomas James Henderson sowie Friedrich Georg Wilhelm Struve im Jahr 1838 mittels der ersten Messungen zu trigonometrischen Sternparallaxen angegeben. Die "Sternphotometrie", also die Messung der scheinbaren Helligkeit der Sterne, und die beinahe parallel dazu entwickelte "Spektrumanalyse" durch Joseph von Fraunhofer, Gustav Robert Kirchhoff und Robert Wilhelm Bunsen bildeten ebenfalls einen Teil der Basis jener Wissenschaft, die heute als Astrophysik bekannt ist. Bereits 1814 entdeckte Fraunhofer dunkle Linien im Spektrum der Sonne, die Fraunhoferlinien, ohne allerdings ihren Ursprung erklären zu können. Weitere Entwicklung. Die Feststellungen von Kirchhoff und Bunsen führten schlussendlich zu einer sofortigen Anwendung der neu gewonnenen Technologien durch Astronomen in der Mitte des 19. Jahrhunderts. Bereits 1863 wurden durch Angelo Secchi Studien basierend auf den Erkenntnissen von Kirchhoff und Bunsen veröffentlicht. Auch zwei heute sehr bekannte Astronomen nahmen sich deren Studien an und veröffentlichten in diesem Zeitraum bahnbrechende Arbeiten zur Thematik der Astrophysik: Lewis Morris Rutherfurd aus New York und William Huggins aus London. Bei einer Sonnenfinsternis in Indien am 18. August 1868 entdeckte Pierre Janssen in der Korona der Sonne mit Hilfe der chemischen Beobachtung durch Spektralanalyse ein (damals) noch nicht bekanntes Element: Helium. Viele bekannte Wissenschaftler setzten sich im Laufe der nächsten Jahre mit wesentlicher physikalischer Grundlagenforschung auseinander und leisteten somit interdisziplinäre Grundlagenforschung für die heute existierende Astrophysik. In seinem Buch "Über die Erhaltung der Kraft" (1847) formulierte Hermann von Helmholtz den Energieerhaltungssatz detaillierter als Julius Robert von Mayer es 1842 getan hatte, und trug so wesentlich zur Anerkennung dieses zunächst sehr umstrittenen Prinzips bei. Damit erbrachte Helmholtz die Grundsätze für die Gravitationsenergie. Antoine Henri Becquerel, der Entdecker der Radioaktivität, legte 1896 den Grundstein für die Messung des Zerfalls von Isotopen. George Howard Darwin, Sohn von Charles Darwin, untersuchte ab 1882 den Effekt der Gezeiten auf das Sonnensystem mit mathematischen Methoden und wurde zu einem anerkannten Experten auf diesem Gebiet. John Joly schlug 1899 eine Methode vor, das Alter der Erde aus dem Natriumgehalt der Ozeane zu bestimmen, aus der Idee heraus, dass dessen Konzentration durch Erosion an Land stetig zunehmen würde. Er schätzte das Alter der Erde danach auf 80 bis 100 Millionen Jahre. 1903 schlug er eine bessere Methode vor, die Abschätzung des Erdzeitalters aus dem radioaktiven Zerfall von Radium (in einem Nature-Artikel). 1907 maß Bertram Boltwood das Alter von Gesteinen durch den radioaktiven Zerfall von Uran zu Blei (Uran-Blei-Datierung). Theoretische Astrophysik. Die Theoretische Astrophysik versucht, anhand von Modellen Himmelserscheinungen vorauszusagen oder nachzubilden. Viele astrophysikalische Prozesse lassen sich durch partielle Differentialgleichungen beschreiben, für die nur in Ausnahmesituationen eine exakte analytische Lösung gefunden werden kann. Eine weit verbreitete Methode in der Astrophysik sind daher numerische Berechnungen (Numerik) und Simulationen, die mit einem üblichen PC (2008) Tage bis Wochen dauern würden. In der Praxis wird daher oft auf Supercomputer oder Cluster zurückgegriffen. Die so gewonnenen Resultate vergleicht man mit Beobachtungen und überprüft, ob sie übereinstimmen. Beobachtende Astrophysik. Die wichtigste Methode ist dabei die Spektralanalyse von elektromagnetischer Strahlung, wobei sich der Beobachtungsbereich von Radiowellen (Radioastronomie) bis zu hochenergetischen Gammastrahlen über etwa 20 Zehnerpotenzen erstreckt. Von der Erde aus können außer sichtbarem Licht die Frequenzbereiche von Radiowellen und einige Teile des Infrarotbereichs beobachtet werden. Der größte Teil des infraroten Lichts, ultraviolettes Licht, sowie Röntgenstrahlung und Gammastrahlung können nur von Satelliten aus beobachtet werden, da die Erdatmosphäre als Filter wirkt. Klassifiziert man Sterne nach Spektralklassen und Leuchtkraftklassen, können sie in ein Hertzsprung-Russell-Diagramm (HRD) eingetragen werden. Die Lage im HRD legt fast alle physikalischen Eigenschaften des Sterns fest. Zur Entfernungsbestimmung kann man das Farben-Helligkeits-Diagramm (FHD) benutzen. Neben einzelnen Sternen werden vor allem Galaxien und Galaxienhaufen beobachtet. Hierfür werden erdgebundene Teleskope – oft auch zu Clustern zusammengeschaltet – wie z. B. HEGRA, sowie Weltraumteleskope wie etwa das Hubble-Weltraumteleskop benutzt. Häufig werden auch Satelliten mit Detektoren und Teleskopen, gestartet. Daneben interessieren sich Astrophysiker auch für den kosmischen Strahlungshintergrund. Laborastrophysik. Lange Zeit kannte die Astrophysik so gut wie keine Laborexperimente. Die Entwicklung neuer, leistungsfähiger Teleskope ab der Jahrtausendwende führte aber letztlich zum Entstehen des Teilgebiets der Laborastrophysik. Diese erzeugt und untersucht bislang unbekannte Moleküle. Auf Grundlage der im Labor gewonnenen Spektrogramme und mithilfe großer Radioteleskope lassen sich diese Moleküle dann in interstellaren Gaswolken nachweisen. Dadurch wiederum lässt sich auf chemische Prozesse rückschließen, die dort etwa bei Sternengeburten stattfinden. Laborastrophysikalische Forschergruppen gibt es weltweit nur rund 20, in Deutschland an der Universität Kassel, der Friedrich-Schiller-Universität Jena und der Universität zu Köln. Des Weiteren gibt es Labore, die sich mit der Entstehung von Planeten befassen, wie die Universität Braunschweig und die Universität Duisburg-Essen. Neben Simulationen an Computern zur Kollision und Wachstum von Staubpartikeln werden hier auch einige Laborexperimente durchgeführt, die unter anderem dann auch in Schwerelosigkeit fortgeführt werden. Verhältnis zu anderen Teilgebieten der Physik. Die Astrophysik ist prinzipiell auf Beobachtungen und Messungen angewiesen, denn konstruierte Experimente sind wegen der Größe der Forschungsobjekte und der Nichtreproduzierbarkeit einmaliger kosmologischer Ereignisse (Urknall) ausgeschlossen. Viele dieser Messungen haben aufgrund ihrer Kleinheit (z. B. Objektgrößen oder Winkelabstände) einen großen relativen Fehler. Daraus indirekt bestimmte Größen (z. B. Sternmassen, -alter oder -entfernungen) sind dementsprechend mit hohen Ungenauigkeiten verbunden. Bei anderen Messungen, wie z. B. Spektroskopie der Sternatmosphären oder Radar-Messungen zum Mond oder im Vorbeiflug an Objekten, oder durch statistische Methoden (viele unabhängige Messungen) lassen sich jedoch auch hohe Genauigkeiten erreichen. Trotz dieser grundsätzlichen Verschiedenheit zu allen anderen physikalischen Teildisziplinen nutzen Astrophysiker Methoden und Gesetzmäßigkeiten aus anderen Gebieten der Physik, insbesondere aus der Kern- und Teilchenphysik (etwa Detektoren zur Messung bestimmter Teilchen bei bestimmten Energien) oder beginnen, die Nukleare Astrophysik zu entwickeln. In der Theoretischen Astrophysik hingegen ist die Anlehnung an die Plasmaphysik besonders eng, da sich viele astronomische Erscheinungen wie etwa Sternenatmosphären oder Materiewolken in guter Näherung als Plasmen beschreiben lassen. Arbeitskampf. Arbeitskampf ist ein Sammelbegriff aus dem kollektiven Arbeitsrecht und bezeichnet die Ausübung kollektiven Drucks durch Streiks, Aussperrungen von Arbeitnehmer- oder Arbeitgeberseite oder Boykotte zur Regelung von Interessenkonflikten bei der Aushandlung von Löhnen und anderen Arbeitsbedingungen. Definition. Arbeitskampf ist nach Nipperdey „die von den Parteien des Arbeitslebens vorgenommene Störung des Arbeitsfriedens, um durch Druck ein bestimmtes Ziel oder Fernziel zu erreichen.“ Arbeitskämpfe nach deutschem Recht. Das Recht, in den Arbeitskampf zu treten, rührt aus der in Abs. 3 GG garantierten Betätigungsgarantie im Rahmen der Koalitionsfreiheit. Gemäß deutscher Rechtsprechung sind Maßnahmen des Arbeitskampfes nur unter Beachtung des Übermaßverbots zulässig, d. h., dass der Arbeitskampf erforderlich (dass mildere Mittel ausgeschöpft sein müssen, sog. "ultima-ratio-Prinzip") und verhältnismäßig (sog. Mittel-Zweck-Relation) sein muss. Regelmäßig ist das erst dann der Fall, wenn vorangegangene Verhandlungsbemühungen ausgeschöpft und gescheitert sind, zumindest mit Wahrscheinlichkeit zu scheitern drohen. Arbeitskämpfe dürfen nur von den Tarifparteien, also Arbeitgebern und ihren Verbänden und den Gewerkschaften geführt werden und müssen tariflich regelbare Ziele verfolgen. Streiks mit politischen Zielen oder als Solidaraktionen sind rechtswidrig. Auch sogenannte "wilde Streiks" von Belegschaften, die ohne gewerkschaftliche Autorisierung geführt werden, sind rechtswidrig und können zu fristloser Kündigung (BGB) führen. Unter Umständen sind Streiks durch tarifvertraglich vereinbarte Friedenspflichten ausgeschlossen. Die relative Friedenspflicht verbietet Kampfmaßnahmen zur Durchsetzung von Streitgegenständen, die der aktuelle Tarifvertrag schon regelt. Die absolute Friedenspflicht hingegen ordnet ein unbedingtes Kampfverbot an, also auch über Gegenstände, die der geltende Tarifvertrag nicht einschließt. Im Gegensatz zur relativen Friedenspflicht bedarf die absolute Friedenspflicht einer ausdrücklichen Vereinbarung, um Wirksamkeit zu entfalten. Die relative Friedenspflicht gilt dagegen automatisch für alle tarifvertraglich geregelten Angelegenheiten. Betriebsräte sind nicht zum Führen von Arbeitskämpfen berechtigt. Sie und ihre Mitglieder dürfen in dieser Eigenschaft nicht für Arbeitskampfhandlungen tätig werden (z. B. Nutzung des Betriebsratsbüros als Arbeitskampfzentrale). Eine Teilnahme von Betriebsratsmitgliedern an Arbeitskampfmaßnahmen in ihrer Eigenschaft als Arbeitnehmer und Gewerkschaftsmitglieder ist zulässig. Gilt ein Tarifvertrag für einen Wirtschaftszweig (Flächentarifvertrag), dann verhandeln die zuständige Gewerkschaft und der Arbeitgeberverband. Bei einem Tarifvertrag für ein einzelnes Unternehmen (Haustarifvertrag) verhandelt die Gewerkschaft, in Kooperation mit betrieblichen Gewerkschaftsrepräsentanten (in der Regel gewerkschaftlich organisierten Betriebsratsmitgliedern), mit der Geschäftsleitung. Scheitern die Verhandlungen, beginnt in der Regel ein Schlichtungsverfahren, das auf freiwilligen Vereinbarungen zwischen den Tarifvertragsparteien beruht. Eine Zwangsschlichtung wie in der Weimarer Republik ist ausgeschlossen. Den meisten Schlichtungsvereinbarungen zufolge müssen die Konfliktparteien den Schlichterspruch nicht annehmen. Erklären eine oder beide Parteien das Scheitern der Schlichtung, ist dies gleichbedeutend mit dem Ende der Friedenspflicht. Streik und Aussperrung sind danach, unter Beachtung bestimmter Regeln der Verhältnismäßigkeit, zulässig. Erfolgsbedingungen. Gewerkschaften bestreiken in der Regel solche Betriebe, deren Beschäftigte in hohem Maße gewerkschaftlich organisiert sind, um zu verhindern, dass eine größere Zahl von Unorganisierten als Streikbrecher auftreten und die Produktion aufrechterhalten. Während eines Streiks muss der Arbeitgeber keinen Lohn zahlen (Satz 1 BGB, Abs. 1 Satz 1 BGB, Abs. 1 BGB: Grundsatz "ohne Arbeit kein Lohn"). Die Gewerkschaft zahlt ihren Mitgliedern Unterstützungsleistungen aus der Streikkasse. Der Staat hat im Arbeitskampf seine Neutralität zu wahren (siehe Tarifautonomie), er darf folglich an Streikende und Ausgesperrte kein Arbeitslosengeld I zahlen, auch wenn diese keine Unterstützung durch die Gewerkschaft beziehen. Der Arbeitsvertrag wird für die Zeit des Arbeitskampfes nicht aufgehoben, sondern lediglich suspendiert, d. h. es besteht für beide Parteien keine Leistungspflicht. Die Entscheidung eines Unternehmens, sich an einer Aussperrung seines Arbeitgeberverbandes zu beteiligen, hängt von seiner Verbandsloyalität ab, die dort ihre Grenze finden wird, wo die wirtschaftliche Existenz auf dem Spiel steht. Für die Gewerkschaft hängen die Erfolgsaussichten eines Arbeitskampfes wesentlich von der Auftragslage der Unternehmen und der Arbeitsmarktlage ab. Bei starker Produktionsauslastung und stabiler Nachfrage scheuen Unternehmen insbesondere längere Arbeitskämpfe. Je knapper qualifizierte Arbeit ist, desto besser stehen die Chancen für die Arbeitnehmerseite und umgekehrt. Erweiterter Arbeitskampf. Weitere Möglichkeiten des Arbeitskampfs auf Seiten der Arbeitnehmer sind die Blockade nichtbestreikter Betriebe, Demonstrationen und der Aufruf an die Kunden des Betriebs, diesen zu boykottieren. Ist ein Streik nicht möglich oder strategisch inopportun, können Arbeitnehmer auch Dienst nach Vorschrift, den sog. „Bummelstreik“ ableisten. Auch Arbeitgeber haben erweiterte Kampfmittel zur Verfügung. Sie können einem Streik mit der Aussperrung begegnen, die nach deutschem Arbeitsrecht – wie der Streik – unter dem Prinzip der Verhältnismäßigkeit steht, d. h. ein begrenzter Streik darf nicht mit einer Totalaussperrung beantwortet werden. Als weiteres Kampfmittel verfügen Arbeitgeber über die Möglichkeit der sog. „kalten Aussperrung“. Sie können in der Konsequenz eines Streiks, der sie nicht unmittelbar betrifft, Arbeitnehmer mit der Begründung zeitweilig entlassen, dass ausbleibende Zulieferungen aus bestreikten Unternehmen die Produktion in ihren Betrieben stilllegen. Derart „kalt Ausgesperrte“ haben unter bestimmten Voraussetzungen einen Anspruch auf Kurzarbeitergeld (SGB III). Arbeitskampfrecht in der DDR. In der Verfassung der Deutschen Demokratischen Republik von 1949 war das Streikrecht der Gewerkschaften verankert (§ 14 Abs. 2). Der FDGB lehnte jedoch einen Streik gegen Volkseigene Betriebe ab. Als Instrument des Arbeitskampfs schied damit der Streik genauso aus wie die (unzulässige) Aussperrung. Im Gesetzbuch der Arbeit (GBA) von 1961, der neuen Verfassung von 1968 und dem Arbeitsgesetzbuch (AGB) von 1978 wurde kein Streikrecht mehr erwähnt. Asien. Asien'", Teil von Eurasien, ist mit rund 44,615 Millionen Quadratkilometern, etwa einem Drittel der gesamten Landmasse, der flächenmäßig größte Erdteil. Mit über vier Milliarden Menschen, ungefähr 60 Prozent der Weltbevölkerung, ist dieser Erdteil auch der einwohnerstärkste. Menschheitsgeschichtlich spielte Asien früh eine wichtige Rolle. Hier entstanden bereits um 900 v. Chr. mit dem Neuassyrischen Reich oder 500 v. Chr. mit dem noch größeren Achämenidenreich die ersten Großreiche. Es ist der Erdteil mit der verschiedenartigsten Vegetation, wechselnd vom Permafrostboden Sibiriens bis hin zum Dschungel Südostasiens. Neben den Extremen Tundra, Wüste und tropischer Regenwald sind auch alle anderen auf der Erde vertretenen Vegetationszonen in Asien zu finden. Eine weitere Besonderheit sind die meisten interkontinentalen Staaten der Erde, mit sowohl asiatischen Landesteilen als auch Territorien in anderen Erdteilen. Dazu gehören Russland, Kasachstan, Indonesien, Japan, Ägypten und die Türkei. Etymologie. Das Wort „Asien“ stammt aus dem Assyrischen und bedeutet „Sonnenaufgang“; ("Assu" „Sonnenaufgang“ bzw. „Osten“). Es entspricht also dem lateinischen Wort "Orient" oder dem deutschen „Morgenland“. So wurde in der Antike das Gebiet Kleinasiens "Asien" genannt, woraus sich später auch der Name der römischen Provinz "Asia" ergab. In der Antike wurde die Bezeichnung "Asia" auf Personennamen zurückgeführt. Geographie. Asien ist der größte Kontinent der Erde. Mit ca. 44,614 Millionen Quadratkilometer Fläche (ohne Russland 31,7 Millionen Quadratkilometer) umfasst er rund ein Drittel der gesamten Landmasse. Gemeinsam mit Europa wird Asien auch als Teil des Großkontinents Eurasien betrachtet. Die kontinentale Landmasse liegt ganz in der östlichen Hemisphäre und nördlich des Äquators mit Ausnahme der Tschuktschen-Halbinsel in Ostsibirien, die östlich der Datumsgrenze liegt, und den südöstlichsten Inseln im Malaiischen Archipel, die sich auf der Südhalbkugel der Erde befinden. Ausdehnung. Asien wird im Norden vom Arktischen Ozean, im Osten vom Pazifischen Ozean und im Süden vom Indischen Ozean begrenzt. Asien hat im Westen gegenüber Europa keine eindeutige geographische oder geologische Grenze. Die häufigste Definition der Grenze zu Europa von Nord nach Süd: das Ural-Gebirge, den Ural-Fluss, das Kaspische Meer bzw. die Manytschniederung, den Kaukasus, die Südküste des Schwarzen Meeres sowie Bosporus, Marmarameer und Dardanellen. Von der Barentssee bis zum Schwarzen Meer ist diese Grenze rund 2.700 km lang. Mit Afrika ist Asien nördlich des Roten Meeres über die Halbinsel Sinai (Landenge von Sues, 145 km breit) verbunden. Im Nordosten liegen die Festlandmassen von Asien und Nordamerika an der Beringstraße etwas mehr als 80 km voneinander entfernt. Im Südosten bildet der Malaiische Archipel die Verbindung zu Australien. Den südlichsten Punkt bildet die indonesische Insel Pamana. Gliederung. In mancher Veröffentlichung werden diese Grenzen variiert, je nach Ziel, Thema und Hintergrund, für die eine Aufteilung verwendet wird. Früher war Afghanistan Zentralasien zugeordnet, jetzt zu Südasien. Darüber hinaus gibt es auch alternative bzw. zusätzliche Unterteilungen bzw. Überschneidungen, beispielsweise für Nordostasien. Geschichte. Asien ist die Wiege zahlreicher Kulturen, beispielsweise in China, in Japan, in Indien, in Iran sowie Babylonien und Assyrien in Vorderasien. Alle sogenannten Weltreligionen sind in Asien entstanden. Asien und Europa verbindet eine Lange Tradition an "Kriegen" (beispielsweise Alexander der Große, die Perserkriege, die Kreuzzüge, die Einfälle der Hunnen und der Türken) und an "Entdeckungsreisen" (beispielsweise Sven Hedin), aber auch viele wichtige Handelsverbindungen, wie zum Beispiel die Seidenstraße. Asien ist von jeher von "Großreichen" geprägt und nicht so zersplittert wie Europa. Die "chinesische Kultur" hat in der Welt, vor allem jedoch in Ostasien, ihre Spuren hinterlassen (Papier, Buchdruck, Kompass, Seide, Porzellan u. v. m.). Aus Indien hat sich der Buddhismus verbreitet. Nordasien (insbesondere Sibirien) blieb lange Zeit nahezu unbesiedelt, erst als sich das Russische Reich weiter ausdehnte, wurden dort größere Städte gegründet. "Zentralasien" war traditionell die Heimat von "Steppenvölkern" ("Reitervölker"), (beispielsweise den Mongolen), die in früheren Zeiten eine Bedrohung für Europa darstellten. Der "Nahe Osten" ist seit dem 7. Jahrhundert vom Islam geprägt und hat einen stark prägenden Einfluss auf Nordafrika gehabt. Bevölkerung. Entwicklung der Bevölkerung Asiens (in Milliarden; ohne Russland, mit Türkei) In Asien leben rund vier Milliarden Menschen, was etwa 60 % der Erdbevölkerung entspricht. Sowohl in Indien als auch in China leben je über eine Milliarde Menschen. Während vor allem Russland und die Mongolei sehr dünn besiedelt sind, kämpfen andere Länder mit den Auswirkungen ihrer Bevölkerungsexplosion. Malariarisikogebiete mit Chemoprophylaxeempfehlungen der DTG Gesundheit und Lebenserwartung korrelieren mit dem Wohlstand der Nationen. Höherer Lebensstandard bedeutet auch mehr Ressourcen für die eigene wie für die Volksgesundheit. Die Bewohner von Macau, Singapur, Hongkong und Japan erreichen unter den Asiaten das höchste Durchschnittsalter. Saudi-Arabien, Arabische Emirate, Brunei, China, Malaysia, Thailand, Philippinen und Indonesien liegen mit der Lebenserwartung weltweit etwa im Mittel. Die kürzeste Lebenserwartung in Asien haben Menschen in Indien, Bangladesch, Burma, Kambodscha, Laos, Bhutan und Afghanistan. Malaria ist in Südasien und Südostasien verbreitet. Es gibt noch kein effektives Impfmittel gegen Malaria. Durch Insektensprays könnte die Verbreitung etwas eingedämmt werden, diese sind aber für große Teile der betroffenen Bevölkerung zu teuer. AIDS ist weit verbreitet. Besonders in Russland, Indien, Nepal, Myanmar, Thailand, Kambodscha, Vietnam und Malaysia tritt das HI-Virus vermehrt auf. Dagegen sind in Japan, der Mongolei, Sri Lanka, Bangladesch, Bhutan, Afghanistan, Turkmenistan, Saudi-Arabien, den Vereinigten Arabischen Emiraten und im Nahen Osten nur relativ wenige Menschen an AIDS erkrankt. Diese Angaben sind aber mit Vorsicht zu genießen, da die HIV-Infektionsrate als Durchschnittswert auf das ganze Land bezogen ist, aber vor allem in den Großstädten gehäuft auftritt. Sprachen. Siehe auch Abschnitt im Artikel Sprachfamilien der Welt. Wirtschaft. Die ärmsten Staaten der Welt Industrienationen. Sowohl gemessen am Wechselkurs-basierten Bruttoinlandsprodukt als auch in Kaufkraftparität ist China die größte Volkswirtschaft Asiens und die zweitgrößte weltweit. In Asien folgen die Staaten Japan, Indien und Südkorea. Die Wirtschaft Japans war über Jahrzehnte die am stärksten wachsende Volkswirtschaft Asiens. Während Japans wirtschaftliche Lage sich seit den 1990er-Jahren verschlechterte, weisen China und Indien im selben Zeitraum ein, im globalen Vergleich, überdurchschnittliches Wirtschaftswachstum von mehr als 10 bzw. 7 Prozent pro Jahr auf. Japan hat aber die Rolle der führenden Wirtschaftsnation Asiens 2010 an China abgegeben. Dennoch ist es die führende Industrienation Asiens und (neben dem größtenteils zu Europa gezählten Russland) das einzige Land des Kontinents, das Mitglied der Gruppe der Acht führenden Industrieländer ist. Bezogen auf die Kaufkraftparität hat auch Indien heute (2015) ein größeres BIP als Japan. Tigerstaaten. a>, im Boom der Pantherstaaten rasch gewachsene Hauptstadt Thailands Nach dem Zweiten Weltkrieg, verstärkt ab den 1960er-Jahren, war das wirtschaftliche Wachstum zunächst auf die Länder und Gebiete entlang der Pazifikküste konzentriert, wovon vor allem Japan, Südkorea und Taiwan sowie die ehemaligen britischen Kolonien Hongkong und Singapur profitierten, die sich eng an die Wirtschaft der USA banden. In den 1980er-Jahren entwickelten sich mehrere Staaten in Ost- und Südostasien mit einem raschen Wirtschaftswachstum von Schwellenländern zu Industrieländern: die so genannten „Tigerstaaten“ Hongkong (damals noch eine Kronkolonie des Vereinigten Königreichs), Taiwan, Singapur und Südkorea. 1997/98 fand die rasante Hochkonjunktur in vielen dieser Länder mit der Asienkrise ihr Ende, die – von Thailand ausgehend – vor allem eine Finanz- und Währungskrise war. Seitdem wächst die Wirtschaft dieser Staaten zwar weiter, aber das sehr hohe Wachstum von bis zu zehn Prozent hat sich auf fünf bis sechs Prozent abgeschwächt. Entwicklungsländer. Pflügen des Reisfeldes mit Wasserbüffel und Holzpflug in Vietnam Weite Teile Asiens sind nach wie vor landwirtschaftlich geprägt, wobei insbesondere Reisanbau und Fischerei von Bedeutung sind. Rohstoffarme Staaten oder durch Kriege und korrupte Regierungen zurückgeworfene Staaten wie Afghanistan, Bangladesch, Myanmar, Laos, Kambodscha, Vietnam sowie die ehemaligen Sowjetrepubliken in Zentralasien sind nach wie vor landwirtschaftlich entsprechend ihrer Topographie geprägt. Die meisten heutigen zentral- und nordasiatische Staaten waren bis zu dessen Zerfall 1990/91 Teil der Sowjetunion und somit planwirtschaftlich organisiert. Die Wirtschaft dieser Länder ist großteils von Landwirtschaft und Schwerindustrie bestimmt. Rohstoffreichtum einiger Regionen wie etwa Erdöl und -gas im Gebiet des Kaspischen Meeres oder diejenigen in der Tundra von Sibirien gewinnen Bedeutung im sich weltweit verstärkenden Kampf um diese Ressourcen wobei Fluch und Segen für die Bewohner häufig nahe beieinander liegen (Umweltverschmutzung, Korruption und Kriege). Golfstaaten. In Südwestasien ist vor allem die Erdölförderung der bestimmende Wirtschaftszweig. Die weltweit größten bekannten Reserven befinden sich auf der arabischen Halbinsel und in den umliegenden Regionen am persischen Golf, wobei das Königreich Saudi-Arabien über die umfangreichsten Ölfelder verfügt. Weitere bedeutende Förderländer sind Iran und Irak. Die flächenmäßig kleinen Emirate Kuwait und Katar, die Vereinigten Arabischen Emirate und das Königreich Bahrain zählen durch den Verkauf von Erdöl bei zugleich relativ geringer Bevölkerungszahl zu den reichsten Staaten der Erde. Religion, Mythologie und Philosophie. Mehrere Regionen Asiens, darunter Mesopotamien, das Tal des Indus (vgl. Indus-Kultur), Iran und China, gelten als „Wiegen der Zivilisation“. Mit der Entwicklung der Zivilisationen und der frühen Hochkulturen in diesen Gebieten ging auch die Entwicklung der Religionen einher. Alle im Allgemeinen als „Weltreligionen“ bezeichneten Religionen haben ihren Ursprung in Asien. Mit über 1 Mrd. Anhänger ist der Islam die größte Religion in Asien und umfasst mehr als ein Viertel aller Bewohner des Kontinents, Muslime stellen die Bevölkerungsmehrheit in mehr als der Hälfte aller Staaten Asiens. Vorderasien. Zu den frühesten Monumenten religiösen Empfindens der Menschheit zählt etwa die Anlage in Göbekli Tepe in der heutigen Türkei. Entstanden um etwa 9000 v. Chr., wobei die Ursprünge noch deutlich weiter zurück reichen dürften, als die neolithische Revolution und damit der Beginn von Ackerbau und Viehzucht noch bevorstand, gilt Göbekli Tepe als älteste bekannte Tempelanlage der Welt. Etwa aus derselben Zeit datieren Funde in Nevalı Çori am Euphrat in der heutigen türkischen Provinz Şanlıurfa, wo auch vergleichbare bildhauerische Werke, wie anthropomorphe Figuren und Tierdarstellungen, die auf eine religiöse Nutzung hindeuten, gefunden wurden. In Mesopotamien ("Zweistromland"; vgl. „Fruchtbarer Halbmond“) entwickelte sich ab etwa dem vierten Jahrtausend v. Chr. die sumerische Religion. Sie ist eine der ältesten bekannten Religionen und hatte entscheidenden Einfluss auf sich später entwickelnde Glaubenssysteme der Kanaaniter (Vorläufer der Hebräer), Akkader, Babylonier, Assyrer, Hethiter, Hurriter, Ugariter und Aramäer. Neben einer Reihe von den Haupt- und Urgöttern verehrten die Sumerer, in einer Zeit als dort einige der ersten Städte wie Ur und Byblos entstanden (vgl. Liste historischer Stadtgründungen), Stadtgötter und verfügten damit bereits über ein Pantheon von Göttern. Das Gilgamesch-Epos, eines der frühesten schriftlichen Zeugnisse der Menschheit, hat seinen Ursprung in dieser Epoche und erzählt von den Begegnungen des Königs Gilgamesch mit den Göttern und seiner Suche nach Unsterblichkeit. Das Enūma eliš (niedergeschrieben ca. im 12. Jahrhundert v. Chr.) ist wiederum einer der ursprünglichsten Schöpfungs-Mythen. Sumerische Mythen, wie etwa die Erzählung von der Sintflut, fanden auch Eingang in die judäo-christlichen Traditionen. Vermutlich in Baktrien entstand zwischen 1800 v. Chr. und 700 v. Chr. der Zoroastrismus, eine der ältesten, wenn auch ursprünglich dualistischen, monotheistischen ("Ahura Mazda") Religionen, die bis heute überdauert hat. Die Richter (ca. 1250 v. Chr) und die Erzväter, die als früheste Überlieferungen der jüdischen Geschichte gelten, hatten ihren Ursprung in Mesopotamien, wo die Vorfahren der Hebräer als Nomadenvolk lebten. Abraham, der Stammvater Israels, soll selbst aus Ur gekommen sein. Tradiert ist die jüdische Religion in einer in der Tora festgehaltenen schriftlichen und einer mündlichen Lehre (Talmud u. a.). Mit Jesus von Nazaret (vgl. "Jesus Christus") soll etwa 7 bis 4 v. Chr. in Palästina der selbst in der Tradition der jüdischen Religion stehende Begründer des Christentum geboren worden sein. Nach seinem Tod fand die Lehre seiner Jünger vorerst im Nahen Osten und, innerhalb des Römischen Reiches, in Südeuropa Verbreitung. In Asien entwickelten sich verschiedene Traditionen des christlichen Orients, von denen einige, wie etwa der Nestorianismus, bis weit nach Zentralasien und China vordrangen. Ausgehend vom byzantinischen Reich verbreiteten sich die altorientalischen Kirchen in Vorderasien und auch Indien, sowie die heute noch in weiten Teilen Nordasiens vorherrschenden orthodoxen Kirchen. Die Geschichte des Islam begann im 6. Jahrhundert mit dem Wirken Mohammeds auf der arabischen Halbinsel. Gemäß der im Koran festgehaltenen Lehre des Islam gilt er als der letzte Prophet in der Geschichte der Menschheit und Vollender der biblischen Prophetie. In Asien fand der Islam im Zuge der islamischen Expansion Verbreitung im Nahen Osten und in weiten Teilen Zentral- und Südasiens bis zum Malaiischen Archipel im Südosten. Süd- und Ostasien. Der bis heute vor allem in Indien vorherrschende Hinduismus entstand gegen Ende der Indus-Kultur um ca. 2000 v. Chr. Die Lehren basieren auf den Veden, heiligen Schriften, deren älteste, die Rigveda, etwa 1200 bis 1000 v. Chr. zusammengestellt wurde. Der Hinduismus umfasst eine große Zahl teils sehr unterschiedlicher Glaubensschulen und Ansichten. Es gibt weder ein gemeinsames Glaubensbekenntnis noch Institutionen, die für alle Gläubigen gleichermaßen Autorität besitzen. Verbindende Merkmale sind die zentralen Gottheiten Brahma, Shiva und Vishnu ("Trimurti") – die jedoch in den Lehrtraditionen wie Shivaismus, Vishnuismus oder Shaktismus sehr unterschiedlich betrachtet werden – und der Glaube an den sich ständig wiederholenden Kreislauf des Lebens ("Samsara") und die Reinkarnation. Der Hinduismus hatte, wie die indische Philosophie, schon früh prägenden Einfluss auf jene Länder, die im Einflussbereich der indischen Kultur lagen, und fand Eingang in die Glaubenswelten Süd- und Südostasiens. An der Wende vom sechsten zum fünften vorchristlichen Jahrhundert lebte in Nordindien Siddhartha Gautama, der nach der Überlieferung im Alter von 35 Jahren Erleuchtung erlangte und somit zum Buddha („Erwachter“, „Erleuchteter“) wurde. Aus der vedischen Tradition kommend und diese hinter sich lassend, wurde er zum Begründer des Buddhismus. Etwa zeitgleich begründete Mahavira ebenfalls in Indien die Lehre des Jainismus. Der Buddhismus wurde vorerst auf dem indischen Subkontinent, auf Sri Lanka und in Zentralasien bekannt. Der südliche Buddhismus (Theravada) fand Verbreitung in den Ländern Südostasiens. Der nördliche Buddhismus (Mahayana) erreichte über die Seidenstraße Zentral- und Ostasien, sowie von Nordindien die Länder der Himalayaregion, wo sich, in Wechselwirkung mit den bereits verbreiteten Glaubenssystemen wie etwa Bön, weitere Traditionen entwickelten; so beispielsweise Vajrayana (Tibet), Chan (China) bzw. Zen (Japan) und Amitabha-Buddhismus (Ostasien). In China hatten die Philosophen Laozi (auch "Lao Tse", "Lao-tzu"; 6. Jahrhundert v. Chr., ob er tatsächlich existiert hat, ist nicht endgültig geklärt) und Konfuzius (auch "Kong Tse", "Kǒng Fū Zǐ"; ca. 551 v. Chr. bis 479 v. Chr.) die Lehrtraditionen des Daoismus und des Konfuzianismus begründet, die bis heute prägenden Einfluss auf die Gedankenwelt und Gesellschaft Ostasiens besitzen und auch die Entwicklung des Buddhismus in diesen Regionen mitbeeinflussten (vgl. Buddhismus in China). Die Religion in Japan war schon früh durch den Synkretismus verschiedener Glaubenssysteme gekennzeichnet. Bis heute sind Shintō und Buddhismus (Zen, Amidismus), der Japan im 5. oder 6. Jahrhundert erreichte, die am weitesten verbreiteten Religionen. Inhalte der chinesischen Lehren Daoismus und Konfuzianismus wurden von Shintō und Buddhismus aufgenommen und integriert. Seit dem Ende des Zweiten Weltkriegs herrscht eine besonders hohe religiöse Toleranz in Japan, was zu einem starken Anwachsen neureligiöser Gruppen geführt hat. An der Wende vom 15. zum 16. Jahrhundert stiftete Guru Nanak im Punjab, im Nordwesten Indiens, den Sikhismus. Oft als Abspaltung oder Reformbewegung des Hinduismus oder als Synkretismus aus Hinduismus und Islam bezeichnet, beschreiben Sikhs ihren Glauben als religionsübergreifenden Lebensweg, der sich nicht an dogmatischen Grenzen, sondern an gelebter Weisheit orientiert. Offiziell am 7. September 1926 im südlichen Vietnam gegründet, ist der Caodaismus ("Đạo Cao Đài") heute nach Buddhismus und Katholizismus die drittgrößte Religion des Landes. Religionsstifter war Ngô Văn Chiêu, der die Lehren dieser Religion, die verschiedene Inhalte aus mehreren asiatischen Religionen und dem Christentum umfasst, durch spiritistische Sitzungen empfangen hatte. Im 20. Jahrhundert hatten so unterschiedliche Persönlichkeiten wie der Inder Mahatma Gandhi, mit seiner aus der indischen Philosophie abgeleiteten Lehre der Gewaltlosigkeit ("Ahimsa"), und der chinesische Revolutionär Mao Zedong, mit seinem auf dem Kommunismus basierenden Maoismus, entscheidenden Einfluss auf die Politik der beiden nach ihrer Bevölkerungszahl größten Länder der Erde und darüber hinaus. Länder Asiens nach Regionen. Als zwei weitere Staaten wurden seit 2008 Abchasien und Südossetien von Russland und vier nichtasiatischen Staaten anerkannt, von den übrigen Staaten jedoch weiterhin als Teil Georgiens betrachtet. Die türkisch besetzte Türkische Republik Nordzypern ist nur von der Türkei anerkannt. Das mit armenischer Hilfe von Aserbaidschan abgespaltene Bergkarabach wird zwar selbst von Armenien nicht anerkannt, jedoch von Abchasien und Südossetien. Auch die Autonome Region Kurdistan im Nordirak strebte ursprünglich die Unabhängigkeit an, hat sich jedoch in einem Grundlagenvertrag mit der Zentralregierung in Bagdad auf Autonomie innerhalb des Irak verständigt. Der aus den Palästinensischen Autonomiegebieten hervorgegangene Staat Palästina ist zwar Beobachterstaat in der UNO, jedoch kein UNO-Mitgliedsstaat. Bereits 1988 war die palästinensische Staatsgründung von über 100 Staaten (darunter DDR und Vatikan) anerkannt worden, zu denen Palästina diplomatische Beziehungen unterhält. International nicht anerkannt ist der Islamische Staat, der sich spätestens seit 2014 über weite Teile Iraks und Syriens erstreckt und die im 20. Jahrhundert entstandene staatliche Gliederung Westasiens in Frage stellt. Wirtschaftliche und politische Bündnisse und Organisationen. Die Arabische Liga wurde als Verbund arabischer Staaten am 22. März 1945 in Kairo gegründet, wo sie auch ihren Sitz hat. Sie besteht aus 22 Mitgliedsstaaten: 21 Nationalstaaten in Afrika und Asien sowie Palästina. Hauptziel der Arabischen Liga sind die Förderung der Beziehungen der Mitgliedsstaaten auf politischem, kulturellem, sozialem und wirtschaftlichem Gebiet. Die Unabhängigkeit und Souveränität der Mitgliedsstaaten und der arabischen Außeninteressen soll bewahrt und Streit innerhalb der Liga geschlichtet werden. Beschlüsse der Liga sind nur bindend für jene Staaten, die ihnen zugestimmt haben. Mitgliedsstaaten aus Asien sind: Bahrain, Irak, Jemen, Jordanien, Katar, Kuwait, Libanon, Oman, Palästina, Saudi-Arabien, Syrien und die Vereinigten Arabischen Emirate. Innerhalb der Liga bilden Saudi-Arabien, Kuwait, Bahrain, Katar, die VAE und Oman den Golf-Kooperationsrat. Im September 1960 gründeten Iran, Irak, Kuwait, Saudi-Arabien und der südamerikanische Staat Venezuela in Bagdad die OPEC ("Organisation Erdöl exportierender Länder"), der später auch die Ölförderländer Katar (1961), Indonesien (1962) und die Vereinigten Arabischen Emirate (1967) beitraten. Die OPEC-Mitgliedsstaaten aus Asien, Afrika und Südamerika fördern zusammen etwa 40 % der weltweiten Erdölproduktion und verfügen über rund drei Viertel der weltweiten Erdölreserven. Ziele der OPEC sind eine gemeinsame Ölpolitik, um sich gegen einen Preisverfall abzusichern und zugleich die weltweite Ölversorgung sicherzustellen. Über die Festlegung von Förderquoten für die einzelnen OPEC-Mitglieder wird die Erdölproduktion geregelt. Neben der OPEC sind eine Reihe von Staaten auch in der OAPEC ("Organisation der arabischen Erdöl exportierenden Staaten") vertreten, die 1968 von Kuwait, Libyen und Saudi-Arabien als Zusammenschluss politisch konservativer arabischer Länder Asiens und Nordafrikas und Gegenpol zur OPEC geschaffen wurde. Weitere Mitglieder aus Asien sind heute Bahrain, Irak, Katar, Syrien und die Vereinigten Arabischen Emirate. ASEAN und ASEAN Plus Three Die ASEAN ("Verband Südostasiatischer Nationen") wurde am 8. August 1967 als politische, wirtschaftliche und kulturelle Vereinigung der südostasiatischen Staaten Thailand, Indonesien, Malaysia, Philippinen und Singapur gegründet. Ziel war und ist die Zusammenarbeit in der Förderung des wirtschaftlichen Aufschwungs, des sozialen Fortschritts und der politischen Stabilität in der Region. Gegründet in der Zeit des „Kalten Krieges“, war das Bündnis von Anfang an kapitalistisch-marktwirtschaftlich und auf die Zusammenarbeit mit den westlichen Industrienationen ausgerichtet und stand in Konkurrenz zur kommunistisch-planwirtschaftlichen Volksrepublik China. 1984 trat das Sultanat Brunei der ASEAN bei, 1995 Vietnam, 1997 Myanmar und Laos sowie 1999 Kambodscha. Papua-Neuguinea hat den Status eines Beobachters. Am 1. Januar 2003 wurde mit der Etablierung der ASEAN-Freihandelszone (AFTA) eine Freihandelszone geschaffen, der alle Mitgliedsstaaten der ASEAN angehören. Australien und Neuseeland stehen in Verhandlungen, um diesem Freihandelsabkommen beizutreten. ASEAN plus Drei bezeichnet die gemeinsame Konferenz der ASEAN-Staaten mit China, Japan und Südkorea. In Thailand wurde 2000 die Chiang-Mai-Initiative begründet, die eine enge Kooperation der ASEAN plus Drei-Länder im Finanzsektor festlegt. Iran, Pakistan und die Türkei gründeten 1985 die Organisation für wirtschaftliche Zusammenarbeit (ECO), aus der eine Freihandelszone entstehen sollte. Seit der Auflösung der Sowjetunion traten auch Afghanistan, Aserbaidschan, Kasachstan, Kirgisistan, Tadschikistan, Turkmenistan und Usbekistan dem Kooperationsbündnis bei. Internationale Bedeutung kommt ihm vor allem durch den Reichtum an Bodenschätzen in einigen Mitgliedsländern und durch die strategische Lage als Transitkorridor für diese Güter sowohl nach Europa wie auch nach China zu. Auf Initiative der USA, Japans und Australiens wurde 1989 die Asiatisch-Pazifische Wirtschaftsgemeinschaft (APEC) geschaffen, deren Ziel die Einrichtung einer alle Pazifik-Anrainerstaaten umfassenden Freihandelszone in zwei Schritten ist: Ab 2010 sollen die Freihandelsabkommen für die Industrienationen der Regionen gelten, ab 2020 auch für die Entwicklungsländer. Asiatische Mitglieder der APEC sind Brunei, die Volksrepublik China, Indonesien, Japan, Malaysia, Papua-Neuguinea, die Philippinen, Russland, Singapur, Südkorea, Taiwan, Thailand und Vietnam. Das Asien-Europa-Treffen (Asia-Europe Meeting: ASEM) dient der Beratung und multilateralen Gesprächen zwischen Europa und Asien über eine Zusammenarbeit in Wirtschaft, Politik, Bildung und Kultur. Der Vorschlag zu diesem Treffen kam vom damaligen Premierminister von Singapur Goh Chok Tong und wurde im März 1996 umgesetzt. Mitglieder aus Asien sind: Brunei, die Volksrepublik China, Indonesien, Japan, Kambodscha, Laos, Malaysia, Myanmar, Philippinen, Singapur, Südkorea, Thailand und Vietnam. 1997 wurde die Gruppe der acht Entwicklungsländer (D-8) gegründet, der neben Ägypten und Nigeria die asiatischen Staaten Bangladesch, Indonesien, Iran, Malaysia, Pakistan und die Türkei angehören. Ziel der D-8 ist es, ihre Stellung in der Weltwirtschaft zu verbessern, Handelsbeziehungen zu diversifizieren und neue Handelsbeziehungen zu schaffen, die Teilhabe bei Entscheidungen auf internationaler Ebene auszubauen und so für bessere Lebensbedingungen der Menschen in Entwicklungsländern zu sorgen. Die Shanghai Cooperation Organisation (SCO; auch: "Shanghaier Organisation für Zusammenarbeit", SOZ) ging 2001 aus der "Shanghai-Five-Gruppe" hervor, die in erster Linie der militärischen Zusammenarbeit der Mitgliedsländer und der Reduktion der Militärpräsenzen an den gemeinsamen Grenzen dienen sollte. Zu den ursprünglichen Mitgliedsstaaten Volksrepublik China, Russland, Kasachstan, Kirgisistan und Tadschikistan kam mit Gründung der SCO Usbekistan hinzu. Die Mongolei, Indien, Pakistan und der Iran befinden sich im Beobachterstatus. Besonders Indien wird zu einer vollen Mitgliedschaft ermutigt. Neben der Verbesserung der politischen Stabilität in der Region, wozu auch ein Antiterrornetzwerk ("Regional Antiterrorism Structure", RATS) eingerichtet wurde, werden langfristig eine gemeinsame Außenpolitik und die Schaffung einer Freihandelszone angestrebt. Im Vorfeld der fünften ministeriellen Konferenz der Welthandelsorganisation (WTO) in Cancún (Mexiko) wurde am 20. August 2003 die Gruppe der Zwanzig (auch "G20", zeitweise "G21", "G22" oder "G20+") als gemeinsame Plattform für Entwicklungs- und Schwellenländer und Gegengewicht zu den USA und der EU geschaffen. Neben Brasilien sind die Volksrepublik China und Indien darin die führenden Kräfte. Mitglieder sind auch Indonesien, Pakistan, die Philippinen und Thailand. Seit 2002 kooperien 30 asiatische Staaten aus allen Regionen im Asian Cooperation Dialogue. Jährliche Treffen vor allem der Außen-, Finanz- und Wirtschaftsminister sollen zu einer verstärkten Zusammenarbeit beitragen. Weitere wichtige asiatische Organisationen sind: die Organisation der Islamischen Konferenz, die Asiatische Entwicklungsbank ("Asia Development Bank", ADB) und die Asiatische Menschenrechtskommission. Arbeitsrecht (Deutschland). Das deutsche Arbeitsrecht regelt die Rechtsbeziehungen zwischen einzelnen Arbeitnehmern und Arbeitgebern (Individualarbeitsrecht) sowie zwischen den Koalitionen und Vertretungsorganen der Arbeitnehmer und dem Arbeitgeber (Kollektives Arbeitsrecht). Geschichte. Die Arbeit ist bereits seit dem Altertum Gegenstand rechtlicher Regelungen. Im römischen Recht hatte der Dienstvertrag ("locatio conductio operarum") jedoch aufgrund der weiter verbreiteten Sklaven­arbeit nur eine untergeordnete Rolle. Im Deutschland des Mittelalters tragen Dienstverhältnisse oft personalrechtliche Züge. Obgleich es in bestimmten Gebieten bereits eine echte Kapitalisierung der Arbeit gibt, wird heute die Verbreitung der kapitalistischen Verdinglichung der Arbeit ab der zweiten Hälfte des 18. Jahrhunderts, als der Beginn der Arbeitsrechtsgeschichte angesehen. Die sozialen Missstände der Industrialisierung im 19. Jahrhundert waren Folge der Privatautonomie trotz Ungleichgewichtigkeit der Macht der Vertragspartner. Das erkennend entwickelte sich zum Beispiel der Jugendarbeitsschutz, das Verbot der Kinderarbeit und das Sozialversicherungsrecht, sowie die Abkehr vom Koalitionsverbot (1869). Dieser Entwicklung trug das Bürgerliche Gesetzbuch (BGB) von 1896 jedoch nicht Rechnung, der "Dienstvertrag" nach §§ 611 ff. BGB wird dort als normaler Austauschvertrag mit weitgehender Privatautonomie geregelt, der personenrechtliche Einschlag des Arbeitsverhältnisses wurde nicht anerkannt. Mit dem Stinnes-Legien-Abkommen wurden im November 1918 die Weichen für die weitere Entwicklung der Arbeitsverfassung gestellt. Um eine nach dem Rätesystem gegründete sozialistische Republik zu verhindern, waren die Unternehmer zur Anerkennung der Gewerkschaften bereit. § 1 des Abkommens regelte den Vorrang des Tarifvertrags vor dem einzelnen Arbeitsvertrag. In der Zeit der Weimarer Republik entstanden weitere Arbeitsschutzgesetze und einige entscheidende Weiterentwicklungen des kollektiven Arbeitsrechts, wie die verfassungsmäßig garantierte Koalitionsfreiheit (Art. 159 Weimarer Verfassung). Um „die revolutionären Tendenzen der Rätebewegung aufzufangen“, wurde in die Verfassung ein Räteartikel (Art. 165) aufgenommen. Er sah „ein dreistufiges Rätesystem vor, dessen Basis die Betriebsräte bilden sollten. Dadurch war die Rätebewegung, die unter dem Schlagwort 'Alle Macht den Räten' die politische und wirtschaftliche Macht im Staat gefordert hatte, in eine wirtschaftliche Interessenvertretung umgewandelt und in die Wirtschaftsverfassung eingebaut worden. Da den Gewerkschaften aber die Kompetenz zur Vereinbarung der Lohn- und Arbeitsbedingungen verfassungsrechtlich garantiert wurde, waren die Arbeiterräte in einem Kernbereich des Arbeitsrechts an den Rand gedrängt. Von dem dreistufigen Rätesystem wurde außerdem nur die unterste Stufe durch das Betriebsrätegesetz vom 4. Februar 1920 verwirklicht.“ 1926 wurde die Arbeitsgerichtsbarkeit als neuer Instanzenzug eingerichtet (Arbeitsgerichtsgesetz). Während der Zeit des Nationalsozialismus (1933–1945) wurde das kollektive Arbeitsrecht wegen Unvereinbarkeit mit dem Führerprinzip abgeschafft, das Arbeitsvertrags- und Arbeitsschutzrecht jedoch weiter ausgebaut. Nach 1945 wurden die Gewerkschaften wieder zugelassen. Das Kontrollratsgesetz Nr. 22 vom 10. April 1946 erlaubte die Bildung von Betriebsräten. Neben diesem Rahmengesetz wurden Landesgesetze erlassen, so dass aufgrund der Zersplitterung eine bundeseinheitliche Regelung notwendig wurde. „Der Kampf um die Ausgestaltung des Betriebsverfassungsgesetzes vom 11. Oktober 1952 wurde mit großer Erbitterung geführt, nachdem schon im Jahr vorher der Kampf um die Mitbestimmung in den Betrieben des Bergbaus und der Eisen und Stahl erzeugenden Industrie beinahe zu einer Staatskrise geführt hätte.“ Die Gewerkschaften konnten sich mit ihren Vorstellungen für eine „Wirtschaftsdemokratie“ nicht durchsetzen. Im Mitbestimmungsgesetz von 1976 wurde die Mitbestimmung in Großbetrieben ausgebaut. In der DDR war das Arbeitsrecht u. a. in einem einheitlichen Arbeitsgesetzbuch geregelt. Rechtsquellen. "(Zur Rangordnung der unterschiedlichen Rechtsquellen vergleiche Günstigkeitsprinzip sowie Normenpyramide im Arbeitsrecht.)" Arbeitsvertrag. Ausgangspunkt des Arbeitsrechts ist der Arbeitsvertrag, durch den das Arbeitsverhältnis überhaupt erst begründet wird. Der Arbeitsvertrag ist eingebettet in ein komplexes System arbeitsrechtlicher Regulierungen durch Betriebsvereinbarungen bzw. Dienstvereinbarung (im öffentlichen Dienst), Tarifverträge, nationale Gesetze und Verordnungen sowie durch supranationale EU-Richtlinien und EU-Verordnungen. Auch der Rechtsprechung durch die nationalen Gerichte und den Europäischen Gerichtshof (EuGH) kommt eingeschränkt eine rechtsetzende Funktion zu. Der Arbeitsvertrag, auch Anstellungsvertrag, ist nach deutschem Recht ein Vertrag zur Begründung eines privatrechtlichen Schuldverhältnisses über die entgeltliche und persönliche Erbringung einer Dienstleistung. Der Arbeitsvertrag ist eine Unterart des in BGB geregelten privatrechtlichen Dienstvertrages. Werden Arbeitsvertragsbedingungen für eine Vielzahl von Verträgen vorformuliert, unterliegen sie grundsätzlich auch dem Recht der Allgemeinen Geschäftsbedingungen nach ff. BGB. Im Unterschied zum freien Dienstverhältnis ist das durch den Arbeitsvertrag begründete Arbeitsverhältnis von der persönlichen Abhängigkeit des Arbeitnehmers vom Arbeitgeber gekennzeichnet. Der Arbeitnehmer kann im Wesentlichen nicht selbst seine Tätigkeit gestalten und seine Arbeitszeit bestimmen. Er ist vielmehr in die Arbeitsorganisation des Arbeitgebers eingegliedert und unterliegt typischerweise den Weisungen des Arbeitgebers über Inhalt, Durchführung, Zeit, Dauer und Ort der Tätigkeit. Kollektives Arbeitsrecht. Unter dem kollektiven Arbeitsrecht versteht man das Recht der arbeitsrechtlichen Koalitionen (Gewerkschaften und Arbeitgeberverbände), das Tarifvertrags­recht, das Arbeitskampfrecht (Streiks und Aussperrungen) sowie das Mitbestimmungsrecht in Unternehmen und Betrieben. Tarifvertragsrecht. Das Tarifvertragsrecht ist im Tarifvertragsgesetz geregelt. Das Recht des Arbeitskampfes ist vorwiegend Richterrecht; eine gesetzliche Normierung ist bislang nicht erfolgt. Rechtliche Grundlage des Tarifvertragsrechts sind die Koalitionsfreiheit, Art. 9 Abs. 3 GG und die Tarifautonomie. Unternehmensmitbestimmung. Zu unterscheiden ist die Mitbestimmung der Arbeitnehmer in privaten Betrieben und die Mitbestimmung in Unternehmen. Ein Unternehmen ist ein Rechtsträger (Einzelperson, Gesellschaft, juristische Person), der einen oder mehrere Betriebe führen kann. Betriebe sind organisatorische Einheiten, mittels derer der Unternehmer einen Betriebszweck (z. B.: Produktion, Dienstleistung) zu erfüllen versucht. Mitbestimmung im Aufsichtsrat. Die Unternehmensmitbestimmung im Aufsichtsrat ist im Drittelbeteiligungsgesetz, im Mitbestimmungsgesetz und im Montan-Mitbestimmungsgesetz geregelt. Das Drittelbeteiligungsgesetz hat 2004 die Weitergeltung von Teilen des BetrVG von 1952 abgelöst, ohne inhaltliche Änderungen nach sich zu ziehen. Betriebsrat und vergleichbare Gremien. Die betriebliche Mitbestimmung der Arbeitnehmer in privaten Betrieben ist im Betriebsverfassungsgesetz und im Sprecherausschussgesetz geregelt. Sie wird durch Betriebsräte und für die leitenden Angestellten durch Sprecherausschüsse ausgeübt, die von den Arbeitnehmern in freier und geheimer Wahl bestimmt werden. In Betrieben und Verwaltungen des öffentlichen Dienstes sind Personalvertretungen zuständig, deren Arbeitsgrundlagen für die Bundesverwaltung im Bundespersonalvertretungsgesetz, ansonsten in Personalvertretungsgesetzen der 16 Bundesländer enthalten sind. In kirchlichen Tendenzbetrieben sind Mitarbeitervertretungen aufgrund kirchlichen Arbeitsrechtes tätig. Rechtsgrundlagen. Im kollektiven Arbeitsrecht bestehen neben staatlichen Gesetzen Kollektivvereinbarungen als zwingende Rechtsgrundlagen für die erfassten Arbeitsverhältnisse. Das sind einmal branchen- oder unternehmensbezogen die Tarifverträge und betriebsbezogen die Betriebsvereinbarungen (bzw. im öffentlichen Dienst Dienstvereinbarungen). Aussperrung. Als Aussperrung bezeichnet man die vorübergehende Freistellung von Arbeitnehmern von der Arbeitspflicht durch einen Arbeitgeber in einem Arbeitskampf "ohne" Fortzahlung des Arbeitslohnes. Sie ist somit typischerweise die Antwort der Arbeitgeberseite auf einen Streik ("Abwehraussperrung") und soll die Kosten des Streiks für die Gewerkschaften erhöhen, da diese mehr Streikgelder bezahlen müssen. Der Ausdruck ist die Verdeutschung des englischen „Lock-out“ (nach ' erstes Auftreten 1854) und wie die Sache selbst aus Großbritannien übernommen worden. Begriffe. Neben der Abwehraussperrung wird in der Literatur auch die "Angriffsaussperrung" beschrieben, in der die Arbeitgeberverbände versuchen, ihrerseits tarifvertragliche Änderungen zu bewirken. Entsprechend der Typisierung von Streiks können auch Aussperrungen in Sympathie-, Straf-, Generalaussperrung oder nach flächenmäßigem Umfang nach Einzel-, Verbands- oder Flächenaussperrung unterschieden werden. Eine weitere Unterscheidung ist die nach suspendierender oder lösender Aussperrung. Bei lösender Aussperrung erfolgt eine Entlassung der betreffenden Mitarbeiter ohne dass am Ende des Arbeitskampfes das alte Arbeitsverhältnis wieder auflebt. Bei einer suspendierenden Aussperrung ruht das Arbeitsverhältnis nur und wird automatisch wieder aufgenommen. Es wird zwischen kalter und heißer Aussperrung unterschieden. Heiße Aussperrung. Die heiße Aussperrung ist im deutschen Recht eine Maßnahme des Arbeitgebers im Arbeitskampf. Sie bedeutet den vorübergehenden Ausschluss mehrerer Arbeitnehmer von Beschäftigung und Lohnzahlung, also eine Einstellung der Arbeit. Sie ist in der Praxis stets eine Reaktion (Abwehrmaßnahme) auf einen Streik. Die theoretisch denkbare Angriffsaussperrung kommt praktisch nicht vor. Die Zulässigkeit der Aussperrung ist in der rechtswissenschaftlichen und politischen Literatur umstritten, wird in der Rechtsprechung aber schon seit langem anerkannt. Dabei wird die Aussperrung grundsätzlich nur im Rahmen der Waffengleichheit (Kampfparität) gewährt. Kalte Aussperrung. Mit einer kalten Aussperrung wird eine Aussperrung bezeichnet, in der der Betrieb selbst nicht produziert, da er (eventuell auch nur angeblich) abhängig von einem anderen Betrieb ist, der sich in einem Zustand einer heißen Aussperrung befindet. Dies wäre beispielsweise der Fall, wenn ein Automobilhersteller seine Produktion nach einem Streik bei einem Zulieferer einstellt und anschließend aussperrt. Die Argumentation der Betriebe. Kalte Aussperrungen werden damit begründet, dass eine Weiterproduktion aufgrund der fehlenden Zulieferteile nicht möglich ist. Die Argumentation der Gewerkschaften. Unter Gewerkschaften ist eine verbreitete Meinung, dass kalte Aussperrungen nicht zwingend notwendig und nur willkürliche Kampfmittel sind, um Gewerkschaften zur Streikaufgabe zu zwingen („Kostenkeule“). Die Gewerkschaften sehen in kalten Aussperrungen ein Mittel der Arbeitgeber, die Kosten für einen Streik zu erhöhen. Bei einem Streik in einem kleinen Zulieferbetrieb, der für viele Betriebe produziert, führt eine "heiße" Aussperrung dazu, dass in großem Maße Aussperrungen bei den nun nicht mehr belieferten Betrieben folgen. Damit werden auch diese kalt ausgesperrten Betriebe mit möglicherweise Hunderttausenden Arbeitnehmern in einen Arbeitskampf einbezogen. Ziel der Arbeitgeber sei es, so die Gewerkschaften, den Arbeitskampf schnell zu brechen, da nur für den Ursprungsbetrieb, der die heiße Aussperrung betreibt, Streikunterstützungen gezahlt werden. Die Beschäftigten, die von der kalten Aussperrung betroffen sind, erhalten keine finanzielle Unterstützung von der Gewerkschaft oder dem Arbeitsamt und üben damit Druck auch auf die Gewerkschaften aus. Nach einer Gesetzesänderung (§ 116 AFG) im Jahr 1986 wird kalt ausgesperrten Beschäftigten kein Kurzarbeitergeld mehr gezahlt. Änderung des § 116 AFG. Zunehmende Auslagerung von Teilaufgaben (Outsourcing) erhöhte in den 1970er und 1980er Jahren die Abhängigkeit der Unternehmen von ihren Lieferanten. Erklärte Strategie der Gewerkschaften Anfang der 1980er war daher, durch Schwerpunktstreiks in ausgewählten Zuliefererbetrieben ganze Industriezweige lahmzulegen und die eigene Streikkasse durch die geringe Zahl der Streikenden zu schonen. Die Arbeitgeber reagierten auf diese Strategie mit umfangreichen "kalten" Aussperrungen der Betriebe, die mangels Vorprodukten nicht mehr arbeiten konnten. Die von diesen Aussperrungen betroffenen Mitarbeiter erhielten im Regelfall aufgrund des Arbeitsförderungsgesetzes während der Aussperrung Arbeitslosengeld. Damit war die Neutralität der Bundesanstalt für Arbeit nach Meinung der Regierung gefährdet. Aufgrund dessen wurde (gegen den erbitterten Widerstand von SPD und Gewerkschaften) 1986 durch den Bundestag durch das "Gesetz zur Sicherung der Neutralität der Bundesanstalt für Arbeit bei Arbeitskämpfen" der 116 AFG neu gefasst. Seit dieser Gesetzesänderung ist eine Zahlung von Arbeitslosengeld an "kalt" ausgesperrte Arbeitnehmer nur unter sehr erschwerten Bedingungen möglich. Das Bundesverfassungsgericht erklärte in einem Urteil vom 4. Juli 1995 diese Regelung für zulässig. Die Regelung des § 116 AFG wurde mit der Einordnung des Arbeitsförderungsrechts in das Sozialgesetzbuch zum 1. Januar 1998 in SGB III ohne inhaltliche Änderungen übernommen. Seit dem 1. April 2012 wird das Ruhen des Arbeitslosengeldes bei Arbeitskämpfen in SGB III geregelt. Die Vorschrift wurde lediglich zur sprachlichen Gleichbehandlung von Frauen und Männern angepasst. Häufigkeit und Umfang von Aussperrungen. Anzahl Aussperrungen in Deutschland 1900 bis 2009 Der Umfang und die Häufigkeit von Aussperrungen änderte sich je nach Epoche. Im deutschen Kaiserreich waren Aussperrungen ein vielfach angewendetes Mittel des Arbeitskampfes. Die im Vergleich zu späteren Jahren hohe absolute Zahl von Aussperrungen (und Streiks) erklärt sich daraus, dass zu dieser Zeit Arbeitskämpfe überwiegend auf Unternehmensebene geführt wurden. Entsprechend war die Zahl der Betroffenen je Aussperrung vergleichsweise gering. In der Weimarer Republik weiteten sich die Arbeitskämpfe auf Branchen und Regionen aus. Damit verbunden war ein starker Anstieg der Zahl der Betroffenen. Den Höhepunkt weist die Statistik im Jahr 1924 aus, in dem 976.936 Personen in 11.003 Betrieben von insgesamt 392 Aussperrungen betroffen waren und dadurch 22.775.774 Arbeitstage ausfielen. In der Bundesrepublik Deutschland findet das Instrument der Aussperrung nur noch vereinzelt Anwendung. Lediglich in den Arbeitskämpfen der Jahre 1963, 1971 und 1976 waren Arbeitnehmer in größerem Umfang von Aussperrungen betroffen. In der Zeit des Nationalsozialismus und in der Deutschen Demokratischen Republik waren Aussperrungen (und Streiks) verboten. Im Vergleich zu Streiks sind Aussperrungen wesentlich seltener, dauern aber länger und betreffen mehr Beschäftigte. Geschichte. Bis in die zweite Hälfte des 19. Jahrhunderts hinein spielten Aussperrungen keine große Rolle. Instrumente der Arbeitgeber in Arbeitskämpfen waren stattdessen Schwarze Listen, Streikfonds sowie die Entlassungen der Streikenden und Neueinstellungen. Ab den 1870er Jahren sind erste Aussperrungen überliefert. Voraussetzung waren die Bildung von Arbeitgeberverbänden. Aussperrungen wurden vor allem bei prinzipiellen Fragen und der Forderung nach Allgemeinverbindlichkeit von Tarifverträgen vorgenommen. Eine erste große Aussperrung fand ab Februar 1873 statt. Im Tarifkonflikt in der Druckindustrie (die Setzer wurden nach der kalkulatorischen Länge des gesetzten Textes bezahlt. Strittig war die Kalkulation: Die Gewerkschaft forderte die Anwendung der realen Breite der Buchstaben, die Arbeitgeber wollten einheitlich die Breite des "n" ansetzen) wurde der erste reichsweite allgemeinverbindliche Tarifvertrag erstreikt. In diesem Konflikt erfolgte die Aussperrung aller gewerkschaftlich organisierten Buchdruckergesellen. Dennoch gelang es den Gewerkschaften am 5. März 1873 den gewünschten Tarifvertrag zu erreichen. Die Maiaussperrungen waren eine mehrfach vorkommende Strafaussperrung im Zusammenhang mit dem Gedenktag des Ersten Mai: 8000 Hafenarbeiter, die Teilnehmer der Feier am 1. Mai 1890 waren wurden durch eine Strafaussperrung vom 2. bis 11. Mai sanktioniert. Auch in den Folgejahren wurde gleichartig vorgegangen. So erhielten im Folgejahr 181 Hamburger Kupferschmiede "die üblichen 6-8 Tage" Nach dem Ende des Sozialistengesetzes 1890 stieg die Zahl der Streiks stark an. Entsprechend stieg auch die Zahl der Aussperrungen, diese waren aber weiter auf grundsätzliche Themen konzentriert und der Schwerpunkt lag darauf, gewerkschaftliche Organisation in den Betrieben zu vermeiden. Mit dem Jahr 1903 begann eine Welle von Aussperrungen, die 1905 einen Gipfel erreichte. Nachdem die Versuche, die Organisation der Gewerkschaften zu verhindern, wenig erfolgreich waren und die SPD Zuwächse erreichte, änderten die Arbeitgeber die Strategie: Kleinere Arbeitsniederlegungen wurden sofort mit Aussperrungen beantwortet, um die Gewerkschaften in die Knie zu zwingen. Die letzte große Aussperrung im Kaiserreich war der Tarifkonflikt im Bauarbeitergewerbe 1910. Situation in der Schweiz. Durch die schweizerische Bundesverfassung wird das Recht zur Aussperrung in Art. 28 Abs. 3 BV verankert. Eine rechtmäßige Aussperrung setzt danach zweierlei voraus: Die Aussperrung muss die Arbeitsbeziehung betreffen und zudem dürfen keine Verpflichtungen entgegenstehen, den Arbeitsfrieden zu wahren oder Schlichtungsverhandlungen zu führen. Das Aussperrungsrecht ist systematisch gesehen ein Teilgehalt des Grundrechts der Koalitionsfreiheit nach Art. 28 BV. Rechtsprechung. Die Aussperrung ist nach Art. 29 Abs.  5 der Hessischen Verfassung rechtswidrig. Siehe auch. Dublin Lockout Augustus. Augustus (* 23. September 63 v. Chr. als "Gaius Octavius" in Rom; † 19. August 14 n. Chr. in Nola bei Neapel) war der erste römische Kaiser. Der Großneffe und Haupterbe Gaius Iulius Caesars gewann die Machtkämpfe, die auf dessen Ermordung im Jahr 44 v. Chr. folgten, und war von 31 v. Chr. bis 14 n. Chr. Alleinherrscher des Römischen Reiches. Unter der Devise der Wiederherstellung der Republik – "restitutio rei publicae" – betrieb er in Wirklichkeit deren dauerhafte Umwandlung in eine Monarchie in Form des Prinzipats. Damit setzte er dem Jahrhundert der Römischen Bürgerkriege ein Ende und begründete die julisch-claudische Kaiserdynastie. Seine Herrschaft, nach außen durch zahlreiche Expansionskriege geprägt, mündete im Inneren in eine lang anhaltende Konsolidierungs- und Friedensphase, die als "Pax Augusta" verklärt wurde. Namen und Titel des Augustus. a> mit der offiziellen Titulatur des Augustus Der Geburtsname des späteren Augustus lautete "Gaius Octavius." Laut Sueton trug er ursprünglich das Cognomen "Thurinus," das sonst nicht belegt ist. Cassius Dio nennt den Namen "Kaipias" als weiteres, jedoch wenig beachtetes Cognomen des Augustus. Nach der testamentarischen Adoption durch Caesar im Jahr 44 v. Chr. nahm er dessen Namen offiziell an: "C. Iulius Caesar" oder in vollständiger Form mit Filiation "Gaius Iulius C. f. Caesar." Den Namenszusatz "Octavianus," wie er nach einer Adoption eigentlich üblich gewesen wäre, hat er wohl selbst nie geführt, wenngleich andere, darunter Marcus Tullius Cicero, ihn so nannten. Auch die moderne geschichtswissenschaftliche Literatur verwendet für die Zeit seines Aufstiegs meist die Namen "Octavian" oder "Oktavian," um ihn sowohl von Gaius Iulius Caesar als auch von seiner späteren Rolle als Augustus zu unterscheiden. Spätestens nach der offiziellen Apotheose Iulius Caesars im Jahr 42 v. Chr. lautete der neue Name seines Stiefsohns "Gaius Iulius Divi filius Caesar." Nach der Annahme des Titels "Imperator" als Vorname – vielleicht 38 v. Chr., spätestens 31 v. Chr. – verwendete er das ursprüngliche Cognomen "Caesar" an Stelle des Gentilnamens Iulius "(Imperator Caesar Divi filius)." Am 16. Januar 27 v. Chr. verlieh ihm der Senat den Ehrennamen "Augustus" (dt.: „der Erhabene“), so dass sich als vollständige Form "Imperator Caesar Divi filius Augustus" ergab. Der Name "Augustus" wurde wie der Name "Caesar" mit Beginn der Regierungszeit seines Nachfolgers Tiberius zum Bestandteil der römischen Kaisertitulatur. Die Bezeichnung "Imperator" dagegen wurde von den ersten Nachfolgern des Augustus noch nicht als Praenomen geführt. Zum Zeitpunkt seines Todes lauteten sein Name und seine vollständige Titulatur: "Imperator Caesar Divi filius Augustus, Pontifex Maximus, Co(n)s(ul) XIII, Imp(erator) XXI, Trib(uniciae) pot(estatis) XXXVII, P(ater) p(atriae)" (zu deutsch etwa: „Imperator Caesar, Sohn des Vergöttlichten, der Erhabene, Höchster Oberpriester, 13 Mal Konsul, 21 Mal Imperator, 37 Mal Inhaber der tribunizischen Gewalt, Vater des Vaterlandes“). Nach seiner Konsekration im Jahr 14 n. Chr. wurde sein offizieller Name als "Divus Augustus Divi filius" weitergeführt. Leben. Die Lebensgeschichte des Kaisers Augustus handelt von zwei scheinbar gegensätzlichen Persönlichkeiten: einerseits von einem jungen, ehrgeizigen, mitunter grausamen Politiker, der im Kampf um die Macht weder Gesetz noch Skrupel kannte, andererseits von dem Kaiser, der – einmal im Besitz dieser Macht – äußerst klugen Gebrauch von ihr machte und mit dem Prinzipat eine neue, dauerhafte Staatsordnung an die Stelle der in 100 Jahren Bürgerkrieg zerrütteten Republik setzte. Herkunft und Jugend. Der spätere Augustus und seine Schwester Octavia waren die Kinder des Gaius Octavius und seiner Frau Atia, einer Nichte Gaius Iulius Caesars. Über seinen Großvater Marcus Atius Balbus war Augustus mit Gnaeus Pompeius Magnus verwandt. Dessen Großvater, Gnaeus Pompeius, war zugleich Augustus' Ururgroßvater. Die Familie der Octavier gehörte den Equites, dem römischen Ritterstand an, also dem niederen, plebejischen Landadel. Sie war wohlhabend, aber wenig bedeutend. Als Erster seines Familienzweigs seit über 100 Jahren schlug Gaius Octavius den Cursus honorum ein, stieg in den Senat auf und gelangte 61 v. Chr. bis zur Praetur. Nach dem überraschenden Tod des Vaters im Jahr 59 oder 58 v. Chr. heiratete die Mutter Lucius Marcius Philippus, der 56 v. Chr. das Konsulat bekleidete. Der junge Gaius wurde der Erziehung durch seine Großmutter Iulia übergeben, einer älteren Schwester Caesars. Auf ihrem Landgut in Velitrae wuchs er auf, bis sie im Jahr 51 v. Chr. starb. Laut Sueton hielt Gaius die Leichenrede für seine Großmutter. Den Rest seiner Kindheit verbrachte er im Haus seines Stiefvaters Philippus in Rom. Im Jahr 49 v. Chr. legte er die Männertoga "(toga virilis)" an. Da Caesar keinen gesetzlich anerkannten Sohn hatte, nahm er sich seines Großneffen an. So wurde Octavius dank Caesars Fürsprache 48 v. Chr. in das Kollegium der Pontifices aufgenommen. 47 v. Chr. wurde er für die Dauer des Latinerfestes, an dem sich die Konsuln und die übrigen Magistrate traditionsgemäß außerhalb Roms aufhielten, zum Praefectus urbi, d.h. zum stellvertretenden Oberhaupt der Republik ernannt. Im Jahr 46 v. Chr. ließ Caesar ihn an seinem Triumphzug anlässlich des Sieges im Bürgerkrieg teilnehmen. Im Jahr darauf begleitete Gaius Octavius seinen Großonkel auf dessen Kriegszug gegen die Söhne des Pompeius nach Spanien, wo er Caesar angeblich durch seine Tapferkeit beeindruckte. Als Reiterführer "(magister equitum)" sollte er auch an dem geplanten Feldzug gegen die Parther teilnehmen und war mit seinen Freunden Marcus Vipsanius Agrippa und Salvidienus Rufus bereits nach Apollonia im heutigen Albanien vorausgeschickt worden. Dort erreichte Octavius im Frühjahr 44 v. Chr. die Nachricht von Caesars Ermordung. Während seiner Rückreise nach Rom erfuhr er, dass der Diktator ihn durch Testamentsverfügung adoptiert und zum Haupterben seines Privatvermögens eingesetzt hatte. Caesar hatte diese Verfügung nach dem Tod seines zunächst als Erbe vorgesehenen Neffen Sextus Iulius Caesar getroffen, mit dem er, anders als mit Octavius, in männlicher Linie verwandt gewesen war. Aufstieg zur Macht. Die testamentarische Adoption eines Erwachsenen war zwar ungewöhnlich, entsprach aber geltendem Recht. Daher nahm Gaius Octavius, sobald er zurück in Rom war, das Testament sowie alle damit verbundenen Verpflichtungen an und nannte sich fortan nach seinem Adoptivvater Gaius Iulius Caesar. Die Geschichtsschreibung bezeichnet ihn von diesem Zeitpunkt an – wie schon einige Zeitgenossen – als Octavian. In dem Konflikt zwischen Caesars Anhängern – die sich um Marcus Antonius scharten – und den republikanisch gesinnten Caesarmördern um Gaius Cassius Longinus sowie Marcus und Decimus Iunius Brutus spielte er anfangs keine Rolle. Marcus Antonius beanspruchte als Unterfeldherr Caesars und dessen Mitkonsul für das Jahr 44 v. Chr. die Führung der caesarianischen Partei für sich. So weigerte er sich zunächst, das Vermögen des Diktators an Octavian herauszugeben. Dieser zahlte dennoch die in Caesars Testament vorgesehenen Legate an dessen Veteranen und die Bevölkerung Roms aus. Dafür nutzte er die in Apollonia beschlagnahmte, für den Partherkrieg vorgesehene Kriegskasse, versteigerte aber auch eigene Güter. Dieses Vorgehen brachte ihm rasch eine große Zahl von Anhängern und damit auch politisches Gewicht ein. Der einflussreiche Senator und Konsular Marcus Tullius Cicero, der nicht zu den Verschwörern gehört hatte, aber mit der republikanischen Sache sympathisierte, unterstützte den scheinbar unerfahrenen jungen Mann, in der Hoffnung, ihn als politisches Gegengewicht zu Marcus Antonius aufbauen zu können. Octavian ging vordergründig darauf ein, verfolgte aber seine eigenen Pläne und stützte sich dabei auf eigene, erfahrene Ratgeber. Dazu gehörten persönliche Freunde wie der wohlhabende Gaius Maecenas, Agrippa und Salvidienus Rufus sowie sein Stiefvater Philippus. Als Lehrer und philosophische Berater zog Octavian Athenodoros von Tarsos und Areios von Alexandria zu Rate. Von besonderer Bedeutung war, dass Octavian sofort zwei der engsten Berater Caesars übernahm: Gaius Oppius und Lucius Cornelius Balbus. Oppius hatte zuvor Caesars Korrespondenz verwaltet und seinem Nachrichtendienst vorgestanden; Balbus war Caesars Privatsekretär gewesen, hatte als „graue Eminenz“ hinter dem Diktator gegolten und während dessen häufiger Abwesenheit von Rom inoffiziell die Amtsgeschäfte geführt. Oppius und Balbus wurden zu wichtigen Vertrauensmännern Octavians, die starken Einfluss auf seine ersten Schritte als Caesars Erbe nahmen. So stand dem vermeintlich unerfahrenen Octavian vom Beginn seiner politischen Laufbahn an ein umfangreicher Beraterstab zur Verfügung, der ihn nachhaltig unterstützte. Bündnis mit den Republikanern. Während Antonius Ende des Jahres 44 v. Chr. in Gallia cisalpina Decimus Brutus angriff, baute Octavian in Italien ein Heer aus Veteranen Caesars auf. Auf Drängen Ciceros, der den Kampf gegen Marcus Antonius forderte und dazu Octavians Truppen benötigte, legitimierte der Senat Anfang 43 v. Chr. dessen angemaßte militärische Befehlsgewalt. Darüber hinaus ernannte er den noch nicht 20-Jährigen zum Senator, verlieh ihm ein proprätorisches Kommando über seine Legionen sowie den Rang eines Konsularen und gestattete ihm die Übernahme aller Ämter zehn Jahre vor dem gesetzlich festgelegten Mindestalter. Octavian ging jetzt sogar ein Bündnis mit den Republikanern ein. Noch im selben Jahr besiegte er Antonius gemeinsam mit einem Senatsheer unter den Konsuln Aulus Hirtius und Gaius Vibius Pansa Caetronianus in der Schlacht von Mutina. Beide Oberhäupter der Republik kamen im Mutinensischen Krieg um, und Octavian verlangte nun eines der freigewordenen Konsulate für sich. Als der Senat dies verweigerte, marschierte Octavian mit seinen Truppen auf Rom und bemächtigte sich staatsstreichartig der Stadt. Am 19. August 43 v. Chr. erzwang er seine Wahl zum Konsul sowie die Ächtung der Caesarmörder. Mittlerweile hatte Antonius wieder mehr Legionen unter seinen Befehl gebracht als vor seiner Niederlage. Daher – und weil Octavian auf der politischen Bühne Roms nun als „Rächer“ seines Adoptivvaters auftrat – wechselte er die Seiten und ging mit den Führern der caesarianischen Partei ein Bündnis ein. Nach dem Vorbild Caesars, Pompeius’ und Crassus’ aus dem Jahr 60 v. Chr. bildeten Octavian, Marcus Antonius und der Reiterführer Marcus Aemilius Lepidus im Oktober 43 v. Chr. ein zweites Triumvirat. Zu dessen Bekräftigung heiratete Octavian Antonius’ Stieftochter Clodia. Das Zweite Triumvirat. a> der beiden Triumvirn Marcus Antonius (Vorderseite) und Octavian (Rückseite), 41 v. Chr. Die „Dreimännerherrschaft zur Ordnung des Staates“ "(tresviri rei publicae constituendae)," wie das Bündnis offiziell hieß, beruhte allein auf der militärischen Macht der Triumvirn, also auf ihrer Verfügungsgewalt über die weitaus meisten römischen Legionen. Sie ließen sich von der Volksversammlung am 27. November 43 v. Chr. diktatorische Machtbefugnisse auf fünf Jahre übertragen. Wie zur Zeit Sullas wurden nun Proskriptionslisten veröffentlicht und alle, die darauf verzeichnet waren, für vogelfrei erklärt. Laut Sueton soll sich Octavian anfangs gegen die Proskriptionen gewehrt, sie dann aber unnachsichtiger durchgeführt haben als seine beiden Kollegen. Von den Proskriptionen waren 300 Senatoren und 2000 Ritter betroffen. Auf Antonius’ Betreiben fiel dem Massaker an den politischen Gegnern der Triumvirn auch Cicero zum Opfer. Die Proskriptionen erfüllten zwar nicht die finanziellen Erwartungen der Triumvirn, doch sie dezimierten die republikanische Führungsschicht im Senat von Rom, dessen Lücken die Machthaber mit loyalen Anhängern füllten. Ähnlich verfuhren sie mit den Magistraten anderer Städte. Diese und andere Maßnahmen verschoben die Gewichte innerhalb der römischen Führungsschicht entscheidend zu Ungunsten der republikanisch gesinnten Kräfte. Es waren diese Umwälzungen, die der Augustus-kritische Althistoriker Ronald Syme als "„roman revolution“" bezeichnete. Im Jahr 42 v.  Chr. gingen Antonius und Octavian nach Griechenland, wo die Caesarmörder Marcus Iunius Brutus und Gaius Cassius Longinus ihre Streitkräfte gesammelt hatten. Deren Niederlage in der Schlacht bei Philippi in Makedonien im Herbst besiegelte den Untergang der römischen Republik. Da der Sieg im Wesentlichen Antonius zu verdanken war, gewann seine Stimme innerhalb des Triumvirats weiter an Gewicht. Als die Triumvirn nach Philippi ihre Einflusssphären absteckten, erhielt Antonius zusätzlich zu Gallia Comata die Narbonensis und gab dafür die Gallia cisalpina auf, die fortan gemeinsam mit Italien verwaltet wurde. Ferner sollte er die Verhältnisse in den wohlhabenden Ostprovinzen ordnen. Lepidus wurden, nachdem er ursprünglich ganz ausgeschaltet werden sollte, die beiden nordafrikanischen Provinzen zugesprochen – damals die Kornkammer Roms. Octavian erhielt die beiden spanischen Provinzen und die schwierige Aufgabe, die Veteranen in Italien anzusiedeln, das von den Triumvirn gemeinsam verwaltet wurde. Die Versorgung der so genannten Heeresclientel mit Landbesitz wurde seit der marianischen Heeresreform von jedem Feldherrn erwartet, der sich die politische Unterstützung seiner Veteranen sichern und das Vertrauen künftiger Legionäre erwerben wollte. Bei den Landverteilungen kam es zu brutalen Enteignungen und Vertreibungen nicht nur einzelner Landbesitzer, sondern ganzer Stadtbevölkerungen. Octavian war damals allgemein verhasst. Überdies kam es wegen der Landverteilung zu schweren Differenzen mit Antonius’ Bruder Lucius, den Octavian aber im Perusinischen Krieg besiegte. Nach der Eroberung Perusias setzte eine Hinrichtungswelle ein, bei der Feinde Octavians wie der Volkstribun des Jahres 44 v. Chr. Tiberius Cannutius sowie Gaius Flavius und Clodius Bithynicus starben. Antonius landete daraufhin mit seinen Truppen in Italien. Die Legionen beider Triumvirn verweigerten aber den Kampf und zwangen sie zu einem erneuten Bündnis. Der Vertrag von Brundisium vom Herbst 40 v. Chr. sah unter anderem die Heirat zwischen Antonius und Octavia vor, der Schwester Octavians. Er selbst ging in jenem Jahr ein weiteres familiäres Zweckbündnis ein: Nach der Trennung von seiner ersten Frau – Clodia – heiratete er Scribonia, eine Verwandte von Pompeius’ Sohn Sextus. Sie schenkte ihm eine Tochter, Iulia, die sein einziges leibliches Kind bleiben sollte. Aber noch vor Iulias Geburt verstieß er ihre Mutter wieder, um im Jahr 38 v. Chr. Livia Drusilla zu ehelichen. Der Skandal wurde noch dadurch vergrößert, dass er Livia in sein Haus aufnahm, noch bevor sie sich von ihrem bisherigen Mann, dem überzeugten Republikaner Tiberius Claudius Nero, hatte scheiden lassen können. Die Frau, die zu seiner engsten Ratgeberin wurde, brachte die beiden Söhne Tiberius und Drusus mit in die Ehe. Tiberius sollte der Nachfolger seines Stiefvaters als Kaiser werden. Konflikt mit Sextus Pompeius. Der letzte politische Gegner der Triumvirn, der noch über nennenswerte militärische Macht verfügte, war Sextus Pompeius mit seiner Flotte. Er kontrollierte unter anderem Sizilien und gefährdete die Kornzufuhr von dort nach Rom, was Octavians Autorität zusätzlich untergrub. Auf Druck des Senats schlossen Octavian und Antonius 39 v. Chr. mit Sextus Pompeius den Vertrag von Misenum, nach dem Sextus Sardinien, Korsika sowie Sizilien behalten durfte und von Antonius zusätzlich die Peloponnes erhalten sollte; ferner mussten die Triumvirn Sextus ein Konsulat für das Jahr 35 v. Chr. zusichern. Das Triumvirat wurde 37 v. Chr. im Vertrag von Tarent um weitere fünf Jahre bis Ende 33 v. Chr. verlängert. Da die Zugeständnisse an Pompeius Octavians Macht erheblich einschränkten, setzte er bereits im Jahr nach Misenum alles daran, dessen Einfluss zurückzudrängen. Erst nach mehreren schweren Rückschlägen und Niederlagen gelang es Octavians neuem Flottenführer Marcus Vipsanius Agrippa 36 v. Chr., Pompeius’ Streitmacht in der Seeschlacht von Naulochoi vor der Nordküste Siziliens zu vernichten. Als es Octavian kurz darauf gelang, auch Lepidus zu entmachten, dessen Truppen in Sizilien zu ihm überliefen, beherrschte er den gesamten Westen des Reichs und hatte die wichtigen Getreideprovinzen Sizilien und Africa unter seiner Kontrolle. Nach dem Sieg über Pompeius stellte die rasche Befriedung Italiens und die Veteranenversorgung die vordringliche Aufgabe dar. Italien hatte durch die fehlende Getreideversorgung während der Blockade des Pompeius schwer gelitten. Statt wie in den Jahren zuvor geschehen, Güter gewaltsam zu enteignen, wurden die 20.000 Mann, die Octavian nun aus seiner riesigen Armee entlassen konnte, mit Bauernstellen in Italien, Sizilien und Gallien abgefunden. 30.000 entlaufene Sklaven, die im Heer des Pompeius gedient hatten, wurden nach Rom geschickt, um ihren Herren übergeben zu werden. 6.000 herrenlose Sklaven wurden gekreuzigt. Kampf mit Antonius um die Alleinherrschaft. Nachdem Octavian Pompeius und Lepidus ausgeschaltet hatte, stand ihm im Kampf um die Alleinherrschaft nur noch Antonius im Wege. Vom Frühjahr 35 bis 33 v. Chr. brachte er bei kleineren Feldzügen in Dalmatien ein schlagkräftiges Heer in Form. Unterdessen führte sein Rivale einen erfolglosen Krieg gegen die Parther, die bereits 40 v. Chr. unter dem Befehl des Quintus Labienus, eines Anhängers der republikanischen Sache, in Syrien eingedrungen waren. Zudem ging Antonius eine dauerhafte Beziehung mit Königin Kleopatra VII. von Ägypten ein, deretwegen er im Jahr 32 v. Chr. die in Rom äußerst populäre Octavia verstieß. Bereits 34 v. Chr. war er darangegangen, Teile des römischen Ostens an Kleopatra und ihre gemeinsamen Kinder zu verschenken, und hatte dadurch in Rom viel Rückhalt verloren. Octavian nutzte Antonius’ Verhalten propagandistisch geschickt aus. Um ihm auch noch seine letzten Anhänger abspenstig zu machen, schreckte er nicht einmal vor einem Sakrileg zurück: Er zwang die Vestalinnen zur Herausgabe des bei ihnen hinterlegten Testaments des Antonius und ließ es in Auszügen vor dem Senat und der Volksversammlung verlesen. Zuvor hatten zwei Zeugen der Testamentsausfertigung, die Senatoren Lucius Munatius Plancus und Marcus Titius, die im Herbst 32 v. Chr. von Antonius abgefallen waren, Octavian über den Inhalt des Dokuments informiert: Danach hatte Antonius Kleopatras Kinder als Erben römischer Gebiete eingesetzt, Caesarion als leiblichen Sohn Caesars anerkannt und bestimmt, dass er neben Kleopatra in Alexandria bestattet werden wolle. Als dies bekannt wurde, enthob der Senat Antonius aller Ämter. Da Octavian die ägyptische Königin als Urheberin von Antonius’ „romfeindlichem“ Verhalten darstellte, erklärte der Senat sie zur Staatsfeindin und Ägypten den Krieg. Mit diesem Schachzug war es Octavian gelungen, den Kampf gegen einen innenpolitischen Gegner in einen Krieg Roms gegen einen äußeren Feind umzumünzen. Wer Antonius von da an noch unterstützte, half damit auch diesem äußeren Feind und musste in den Augen traditionell denkender Römer als Verräter erscheinen. Octavians und Antonius’ triumvirale Befugnisse waren formell schon am 1. Januar 32 v. Chr. abgelaufen und ihre prokonsularischen Kompetenzen bestanden nur noch provisorisch. Daher benötigte Octavian zur Kriegführung die Verleihung einer neuen Amtsgewalt. Er ließ sich zum „Führer Italiens“ "(dux Italiae)" ausrufen, dem der gesamte Westen den Treueid leisten musste. Zudem übernahm er für das folgende Jahr erneut das Konsulat. Aus dieser rechtlich abgesicherten Position heraus eröffnete Octavian Anfang 31 v. Chr. den – offiziell gegen Kleopatra gerichteten – Ptolemäischen Krieg, indem er mit seinen Truppen nach Griechenland übersetzte, das zu Antonius’ Machtbereich gehörte. Am Ausgang des Ambrakischen Golfs in Epirus gelang es Agrippas Flotte und Octavians Heer, die See- und Landstreitkräfte des Antonius einzuschließen und vom Nachschub abzuschneiden. Die monatelange Blockade zeitigte verheerende Folgen für Antonius’ Armee, so dass er sich schließlich gezwungen sah, mit seinen Schiffen einen Durchbruchsversuch aus dem Golf in das offene Ionische Meer zu wagen. Dabei kam es am 2. September 31 v. Chr. zur alles entscheidenden Seeschlacht bei Actium, in der Antonius und Kleopatra den Streitkräften Octavians und Agrippas unterlagen. Diese nahmen im folgenden Jahr Alexandria ein, woraufhin Antonius und Kleopatra Selbstmord begingen. Ägypten verlor seine Selbstständigkeit und wurde als neue römische Provinz annektiert. Damit endeten der Krieg zweier Männer um die Macht in Rom und zugleich die 100 Jahre währende Epoche der römischen Bürgerkriege. Als Zeichen dafür, dass im ganzen Reich Frieden herrsche, wurden am 12. Januar 29 v. Chr. die Tore des Janustempels auf dem Forum Romanum geschlossen. Dies geschah laut Titus Livius erst zum dritten Mal seit der sagenhaften Gründung Roms 753 v. Chr. Die folgenden Jahre verbrachte Octavian damit, seine im Bürgerkrieg gewaltsam erworbene überragende Machtstellung schrittweise in eine für die Römer akzeptable, legale Form zu überführen. 28 v. Chr. hob er so demonstrativ alle seine „unrechtmäßigen“ Verfügungen aus der Zeit des Triumvirats auf. Augustus als Princeps. Am 13. Januar des Jahres 27 v. Chr. begann im Senat von Rom ein mehrtägiger Staatsakt, der den Ausnahmezustand des Bürgerkriegs auch offiziell beendete. Formal wurde damit die alte Ordnung der Republik wiederhergestellt, tatsächlich aber eine völlig neue, monarchische Ordnung mit republikanischer Fassade geschaffen: das spätere römische Kaisertum in Gestalt des Prinzipats. Auf Vorschlag des Lucius Munatius Plancus verlieh der Senat Octavian am 16. Januar den neu geschaffenen Ehrennamen Augustus. In den Jahren nach Actium stand der Alleinherrscher vor drei großen Aufgaben: den Staat neu aufzubauen, das Reich nach innen und außen zu sichern und die Nachfolge zu regeln, um seinem Werk auch über seinen Tod hinaus Dauer zu verleihen. Da Augustus all das gelang, markiert der Staatsakt vom Januar 27 v. Chr. nicht nur den Beginn seiner 40-jährigen Regierungszeit als Princeps, sondern auch den einer ganz neuen Epoche der römischen Geschichte. Das Problem. Als Octavian im Sommer 29 v. Chr. aus dem Osten nach Rom zurückgekehrt war und einen dreifachen Triumphzug abgehalten hatte, stand er vor dem gleichen Problem, an dem Caesar 15 Jahre zuvor gescheitert war: Eine Staatsordnung zu schaffen, die für das in mehr als 400 Jahren gewachsene, republikanische Rechtsverständnis der Römer akzeptabel war und zugleich der Tatsache gerecht wurde, dass sich die tatsächliche Macht seit 70 Jahren mehr und mehr verlagert hatte: weg vom Senat, den Konsuln und den anderen republikanischen Institutionen, hin zu den Befehlshabern der Legionen. Von Marius und Sulla bis zum ersten und zweiten Triumvirat hatten immer wieder militärische Machthaber eine außerordentliche politische Gewalt errungen. Die einfache Wiederherstellung der alten Adelsrepublik kam für ihn aus zwei Gründen nicht in Frage: Zum einen war die staatstragende Bevölkerungsschicht der Republik, der Senatsadel, durch die Bürgerkriege weitgehend vernichtet worden. Zum anderen erforderte die Ausdehnung des Reichs eine große Zahl von Legionen, deren Befehlshaber stets versucht sein konnten, die Macht auf ungesetzliche Weise an sich zu reißen. Da in der Republik die großen Adelsfamilien und politische Gruppierungen wie Optimaten und Popularen permanent um Macht und Einfluss kämpften, war dies in den Jahrzehnten des Bürgerkriegs – von Marius über Sulla bis zu Caesar – immer wieder geschehen. Die Lösung. Aus all dem folgte wiederum zweierlei: Octavian musste zum einen bestrebt sein, die außerordentliche politische Gewalt, die Militärdespoten wie er selbst immer wieder errungen hatten, in eine ordnungsgemäße umzuwandeln, sie also rechtlich in das bisherige Staatsgefüge zu integrieren. Zum anderen musste er das "imperium," die militärische Befehlsgewalt über die Mehrzahl der Legionen, auf denen die politische Macht nun beruhte, in einer Hand zu vereinen suchen. Kurz: Er musste die Heeresclientel monopolisieren und eine dauerhafte Alleinherrschaft errichten. Sein Vorteil war, dass sich sein persönliches Machtstreben mit der Notwendigkeit und dem allgemeinen Bedürfnis traf, erneute Machtkämpfe und Bürgerkriege zu verhindern. Denn nach den Wirren der vorangegangenen Jahrzehnte waren auch viele traditionell eingestellte Römer, die jede Art von Alleinherrschaft stets abgelehnt hatten, notgedrungen bereit, die militärische und politische Macht in die Hand nur eines Mannes zu legen. Wie schon im Kampf gegen Antonius erwies sich Octavian auch bei dieser Aufgabe als Meister der politischen Propaganda. Dies geht aus seinem Tatenbericht "(Res Gestae Divi Augusti)" Die Realität hinter diesem Bild sah jedoch anders aus: Octavian war zwar so klug, nicht den allgemein verhassten Königstitel anzustreben, aber er ließ sich von den bestehenden republikanischen Amtsgewalten all jene übertragen, die ihm in ihrer Bündelung faktisch zu einer monarchischen, königsgleichen Stellung verhalfen. Da er aber die republikanische Ordnung formal wiederherstellte, konnte er sich gleichzeitig als Retter und Beschützer der Republik darstellen. Letztlich ging er einen Kompromiss mit der Senatsaristokratie ein, indem er ihre politische Macht zwar massiv beschnitt, sie aber nicht völlig von der Machtausübung ausschloss. Zudem fügte er ihr – anders als Sulla und Caesar – keine Demütigungen zu und erlaubte ihr so, ihre Würde und ihr Sozialprestige "(dignitas)" zu wahren. Die Umsetzung. Gleich nach seiner Rückkehr aus dem Krieg gegen Antonius suchte Octavian die Unterstützung der alten Adelsgeschlechter und ging daran, das Ansehen der republikanischen Institutionen zu stärken. So ließ er aus dem Senat etwa 190 Mitglieder ausschließen, die offiziell als nicht standesgemäß galten. Gleichzeitig füllte er die gelichteten Reihen des Senatsadels wieder auf, indem er verdiente Personen und Anhänger in den Patrizierstand erhob. Er selbst nannte sich – betont bescheiden – "princeps senatus," Erster des Senats, ein Titel, den es früher schon gegeben, der aber lediglich einen "primus inter pares" bezeichnet hatte, einen Ersten unter Gleichen. Daraus entwickelte sich die Bezeichnung Prinzipat für die augusteische Herrschaftsform, die so viel bedeutet wie „Herrschaft des ersten Bürgers“. Großen Eindruck bei der Bevölkerung Roms machte der Princeps Ende des Jahres 28 v. Chr., als er alle widerrechtlichen Gesetze aus der Zeit des Triumvirats aufheben ließ. Ob Octavian Anfang 27 außer dem Konsulat weitere Vollmachten innehatte und worin diese gegebenenfalls bestanden, wird in der Forschung bereits seit Theodor Mommsen kontrovers diskutiert. Jedenfalls legte er am 13. Januar 27 v. Chr., am ersten Tag des "Staatsakts", seine außerordentliche Allgewalt ("potens rerum omnium") über die Provinzen und Legionen demonstrativ in die Hände des „gesäuberten“ Senats. Damit bildete dieser formal wieder das zentrale Herrschaftsorgan. Die Republik war äußerlich wiederhergestellt. Allgemein war von der "res publica restituta" die Rede. So weit stimmten die Tatsachen mit Augustus’ propagandistischer Version überein. Gleich in seiner nächsten Sitzung aber, nur vier Tage später, übertrug der Senat das militärische Kommando in der Hälfte der Provinzen offiziell an Octavian – und zwar in jener Hälfte, die an den Rändern des Imperiums lagen und in denen daher das Gros der Legionen stand. Vertreten wurde er dort durch Legaten. Der Beschluss wurde damit begründet, dass diese Gebiete besonders gefährdet seien, und dass Octavian nach ihrer Befriedung das Kommando dort niederlegen werde. Auf diese Weise erhielt er eine den Provinzstatthaltern übergeordnete Befehlsgewalt "(imperium proconsulare)" über den weitaus größten Teil der Armee. Octavian blieb also Militärmachthaber und alleiniger Patron der Heeresclientel, nun aber formal im Rahmen der Gesetze. Das Reich gliederte sich fortan "de facto" in kaiserliche und senatorische Provinzen. Ein weiteres republikanisches Element der neuen Staatsordnung war die Rückkehr zur jährlichen Neubesetzung der Magistrate. Eines der zwei Konsulate nahm der Princeps in den nächsten Jahren allerdings regelmäßig für sich in Anspruch. Dies änderte sich mit der Revision der Prinzipatsverfassung am 1. Juli 23 v. Chr. Bis auf zwei Jahre verzichtete Augustus von da an auf das Konsulat. Stattdessen ließ er sich auf Lebenszeit die tribunizische Gewalt "(tribunicia potestas)" übertragen, also nicht das Amt des Volkstribunen, sondern „nur“ dessen Amtsbefugnisse. Damit gewann er das Recht, den Senat und die Volksversammlungen einzuberufen, diesen Gesetze vorzuschlagen, sein Veto gegen Senats- und Volksbeschlüsse einzulegen und sogar den Konsuln Amtshandlungen zu verbieten. Um auch den Magistraten in Rom und Italien Anweisungen geben zu können, wurden der "tribunicia potestas" des Augustus alle konsularischen Sonderrechte hinzugefügt, die einem Volkstribunen eigentlich nicht zustanden. Damit wurde die tribunizische Gewalt zur Quelle der kaiserlichen Macht in Rom und Italien. Durch die Aufgabe des ständigen Konsulats verlor Augustus jedoch seine Weisungsbefugnis gegenüber den Prokonsuln des Senats und damit auch gegenüber den senatorischen Provinzen. Um diese wiederherzustellen, ließ er sich eine übergeordnete prokonsularische Gewalt "(imperium proconsulare maius)" übertragen. Mit der Revision der "Prinzipatsverfassung" legte Augustus zwar formal das Konsulat nieder, behielt aber faktisch alle Befugnisse eines Konsuls. Durch seinen Verzicht auf das Konsulat hatte er jedoch bis auf die Purpurtoga und die "Corona Triumphalis" alle äußeren Rangabzeichen verloren, die auf seine zentrale Stellung hindeuteten. Um auch dies auszugleichen, wurden dem Princeps 19 v. Chr. die konsularischen Ehrenrechte zuerkannt: So wurde er wieder ständig von zwölf Liktoren begleitet und durfte im Senat zwischen den beiden amtierenden Konsuln Platz nehmen. Augustus verzichtete also augenscheinlich auf die absolute Macht, indem er den Senatsadel daran teilhaben ließ, behielt aber in Wirklichkeit alle wichtigen Funktionen in Staat und Militär in seiner Hand. Augustus-Titel und weitere Ehrungen. Der Ehrenname Augustus, „der Erhabene“, den der Senat Octavian am letzten Tag des Staatsakts vom Januar 27 v. Chr. verlieh, erinnerte an das "augurium," eine Kulthandlung zur Deutung des Willens der Götter, die der Sage nach schon Romulus vorgenommen hatte. Der Name setzte seinen Träger also mit dem legendären Gründer der Stadt Rom gleich und verlieh der obersten politischen Gewalt im Staat eine sakrale Aura, wie sie die Konsuln zu Zeiten der Republik nie besessen hatten. Mit dem neuen Titel verlieh der Senat dem Princeps auch einen Ehrenschild "(clipeus virtutis)," auf dem Tapferkeit, Milde, Gerechtigkeit sowie Pflichterfüllung gegenüber den Göttern und dem Vaterland als die Tugenden des Augustus gepriesen wurden. Die sakrale Würde des Princeps wurde weiter gestärkt, als im Jahre 13 oder 12 v. Chr. Marcus Aemilius Lepidus starb. Augustus’ einstiger Kollege im Triumvirat hatte nach seiner Entmachtung lediglich das Amt des "Pontifex Maximus" behalten dürfen. Nun übernahm Augustus auch dieses Amt; als oberster Priester des römischen Staatskultes konnte er nun auch alle Belange der "religio Romana" in seinem Sinne regeln. Als weitere Ehrung beschloss der Senat 8 v. Chr., den Monat Sextilis in Augustus umzubenennen. Als Grund für die Wahl dieses Monats anstelle von Augustus’ Geburtsmonat September wurde angeführt, dass er im Sextilis erstmals Konsul geworden sei und drei Triumphe gefeiert habe. Außerdem markiere dieser Monat, in dem Ägypten erobert worden war, das Ende der Bürgerkriege. Der eigentliche Grund könnte aber gewesen sein, dass der Sextilis direkt auf den nach Caesar benannten Juli folgte. Am 5. Februar des Jahres 2 v. Chr. verlieh der Senat Augustus schließlich den Titel "pater patriae" („Vater des Vaterlandes“), auf den er besonders stolz war, denn er war mehr als eine bloße Ehrenbezeichnung. Vielmehr führte er jedermann vor Augen, dass dem Kaiser gegenüber allen Reichsangehörigen die gleiche Autorität zustand wie jedem römischen Familienoberhaupt, dem "pater familias," über die Seinen. Akzeptanz der neuen Ordnung. Die Neuordnung des Staatswesens wurde von den Römern nicht widerspruchslos hingenommen. Insbesondere die patrizischen Familien des alten Senatsadels, die Augustus als Emporkömmling ansahen, konnten sich mit ihrer Entmachtung nur schwer abfinden. Einige Quellen berichten, dass Augustus sich in der Zeit nach seiner Rückkehr aus dem Osten nur mit einem Brustpanzer unter der Toga in den Senat wagte und Senatoren nur einzeln und nach eingehender Leibesvisitation empfing. Verschwörungen wie die von Maecenas’ Schwager A. Terentius Varro Murena und des Fannius Caepio, die im Jahr 23 oder 22 v. Chr. aufgedeckt wurde, zeigen, dass Augustus’ Politik noch lange Zeit erheblichen Widerstand hervorrief. Da der Zeitpunkt der Verschwörung nicht genau datiert werden kann, ist bis heute ungeklärt, ob sie auslösender Faktor oder Folge der im Jahr 23 v. Chr. erfolgten Neujustierung der Prinzipatsordnung war. Dass das neue Herrschaftssystem schließlich doch akzeptiert wurde, lag sicher nur zum Teil daran, dass Augustus den republikanischen Institutionen und den althergebrachten Rechten und Sitten, dem "mos maiorum," seinen Respekt erwies. Die Römer konnten sich zwar sagen, dass die alte Republik und ihre Institutionen der Form nach weiterhin bestanden, aber die politisch Interessierten dürften Augustus’ Propaganda sicher durchschaut haben. Ausschlaggebend war am Ende die schlichte Tatsache, dass der Prinzipat funktionierte – ganz im Gegensatz etwa zu den Ordnungsmodellen Sullas oder Caesars – und dass es zu Augustus keine realistische Alternative gab. Darüber hinaus war der Faktor Zeit entscheidend für den Erfolg der neuen Herrschaftsordnung: Augustus regierte nach der Erringung der Alleinherrschaft noch mehr als 40 Jahre, länger als jeder seiner Nachfolger. Die Römer gewöhnten sich in dieser langen Zeit an die "Herrschaft des Ersten Bürgers." Als der Kaiser starb, waren kaum noch Römer am Leben, die die alte Republik noch bewusst erlebt hatten. So setzte mit der Errichtung des Prinzipats eine lange Periode des inneren Friedens und des Wohlstands ein. Augustus’ neue Ordnung sollte 300 Jahre – bis zur Herrschaft Diokletians – Bestand haben. Wirtschaftliche und gesellschaftliche Neuordnung. Eine ebenso anspruchsvolle Aufgabe wie der Umbau der Staatsverfassung war die innere und äußere Stabilisierung des Reichs, seine wirtschaftliche Erholung, die Wiederherstellung von Recht und Ordnung in Rom und den Provinzen und die Sicherung der Grenzen. Die Voraussetzungen für einen allgemeinen Wirtschaftsaufschwung waren nach Actium besser denn je in den vorangegangenen Jahrzehnten. Augustus konnte mehr als ein Drittel der rund 70 Legionen entlassen, d. h. etwa 80.000 der 230.000 Mann, die 31 v. Chr. noch unter Waffen gestanden hatten. Ein solches Heer wäre für Friedenszeiten nicht nur zu groß und zu kostspielig gewesen; es hätte immer auch eine potenzielle Gefahr dargestellt, so viele Soldaten unter Waffen zu belassen. Anders als 12 Jahre zuvor musste er für die Abfindung der Veteranen nicht auf Konfiskationen zurückgreifen, sondern konnte die ungeheure Beute, die ihm mit dem ägyptischen Staatsschatz in die Hände gefallen war, für Landkäufe nutzen. So entstand in Italien und den Provinzen eine breite Schicht ihm ergebener Bauern. Auch seine Anhänger in Rom – etwa im neuen Senat – wurden mit Geld und Posten bedacht. So schuf Augustus selbst die neuen Gesellschaftsschichten, auf denen die Staatsordnung des Prinzipats ruhen sollte. Neuordnung der Provinzen. In die Provinzen, die bis dahin immer wieder von Kontributionen, Truppenaushebungen und durchziehenden Heeren heimgesucht worden waren, kehrte allmählich ein gewisser Wohlstand zurück, denn der Prinzipat stellte Rechtssicherheit her und verhinderte vor allem die bis dahin übliche Ausplünderung durch ehemalige Magistrate der Republik. Diese hatten sich in den Provinzen stets für die Kosten schadlos gehalten, die ihr politisches Engagement in Rom verursachte. Der Geschichtsschreiber Velleius Paterculus fasste die Wirksamkeit von Augustus’ Politik wenige Jahre nach dessen Tod folgendermaßen zusammen: „Die Äcker fanden wieder Pflege, die Heiligtümer wurden geehrt, die Menschen genossen Ruhe und Frieden und waren sicher im Besitz ihres Eigentums.“ Tacitus, ansonsten einer der schärfsten Kritiker der Prinzipatsordnung, erkannte die Stabilisierung der Wirtschafts- und Lebensverhältnisse als deren größtes Verdienst an. Bis heute gilt Augustus’ Konsolidierungspolitik als mustergültig, wie der Begriff der „Augusteischen Schwelle“ belegt, der in jüngster Zeit in der Politikwissenschaft verwendet wird. Anfangs übernahm der Kaiser die Neuordnung der Provinzen noch selbst. Bereits im Sommer des Jahres 27 v. Chr. brach er zu einer mehrjährigen Inspektionsreise durch den Nordwesten des Reiches auf. Gallien war seit der Eroberung durch Caesar sich selbst überlassen geblieben. Nach der Ordnung der Verhältnisse dort eroberte Augustus diejenigen Gebiete im Norden der Iberischen Halbinsel, die bis dahin noch nicht zum Reich gehört hatten, und gliederte sie der Provinz Hispania Tarraconensis ein. In Tarraco trat er sein 8. und 9. Konsulat an. Auf der Rückreise nach Rom im Jahr 23 v. Chr. erkrankte Augustus so schwer, dass seine Umgebung bereits mit seinem Tod rechnete. Er überlebte schließlich, entschloss sich aber, seine Legionen künftig nicht mehr persönlich zu führen. Sittenpolitik. Zu einem Kennzeichen der Herrschaft des Augustus wurde auch eine Rückbesinnung auf althergebrachte Sitte und Moral. Im Jahr 19 v. Chr. ließ sich Augustus vom Senat die "cura morum," die Sittenaufsicht übertragen. Im Jahr darauf ließ er in den Leges Iuliae etwa die Strafvorschriften für Ehebruch verschärfen und eine allgemeine Pflicht zur Ehe einführen. Er selbst hatte in den Jahren seines Aufstiegs nicht eben ein Muster altrömischer Tugenden abgegeben – die erzwungene Scheidung seiner Frau Livia von ihrem früheren Mann war dafür nur das hervorstechendste Beispiel. Nun aber sah er in der Betonung traditioneller Werte ein Mittel, die geistigen Verheerungen aus der Zeit der Bürgerkriege zu heilen. Würde und Autorität des Princeps erforderten natürlich, dass Augustus und seine Familie mit gutem Beispiel vorangingen. Dies führte schließlich zum Zerwürfnis mit seiner Tochter Iulia, die sich den väterlichen Moralvorschriften nicht unterwerfen wollte. Im Jahr 2 v. Chr. ließ Augustus selbst sie vor dem Senat des Ehebruchs anklagen und auf die kleine Insel Pandateria verbannen. Neun Jahre später, 8 n. Chr., ereilte den Dichter Ovid, den Autor der "Ars amatoria" („Liebeskunst“), das gleiche Schicksal: Er wurde nach Tomis am Schwarzen Meer verbannt. Das propagandistische Bild vom Princeps als treusorgendem altrömischem Patron, der über das Wohl der Seinen wacht, fand sichtbaren Ausdruck in einem umfangreichen Bauprogramm in Rom "(publica magnificentia)." Dazu gehörten Zweckbauten wie Aquädukte und eine riesige Sonnenuhr, vor allem aber Repräsentationsbauten wie das Augustusforum, das Marcellustheater und zahlreiche Tempel, die dazu dienten, den Römern Macht und Autorität des Augustus vor Augen zu führen. Der Kaiser spricht in seinem Tatenbericht von 82 Tempeln, die er in einem Jahr habe instand setzen, Vergil in der "Aeneis" von 300 Tempeln, die er insgesamt habe bauen lassen. Außenpolitik und Grenzsicherung. Augustus' Außenpolitik wurde lange als defensiv beurteilt. Historiker des 19. Jahrhunderts sahen in ihr nur eine Arrondierung und Sicherung der Reichsgrenzen. Zu dieser Sicht trug unter anderem die Tatsache bei, dass Augustus den Plan Caesars zu einem Feldzug gegen das Partherreich nicht wieder aufnahm. Eine militärische Machtdemonstration gegenüber dem Nachbarn im Südosten genügte, um den Partherkönig Phraates IV. im Jahr 20 v. Chr. zu einer vertraglichen Grenzregelung und zur Herausgabe der in der Schlacht bei Carrhae 53 v. Chr. erbeuteten, symbolträchtigen Legionsadler zu veranlassen. In Rom wurde als großer militärischer Sieg propagiert, was in Wirklichkeit eine friedliche Lösung darstellte. Die Eingliederung Ägyptens verlief weitgehend problemlos. Im Jahr 25 v. Chr. gewann Rom die neue Provinz Galatia in Kleinasien aufgrund einer testamentarischen Verfügung des letzten Galater-Königs Amyntas. Zudem geriet eine Reihe neuer Klientelstaaten wie Armenien, Kappadokien und Mauretanien in Abhängigkeit von Rom. Dennoch ließ sich die These von der prinzipiell friedlichen, defensiven Außenpolitik nicht aufrechterhalten. Kein republikanischer Feldherr und kein Kaiser hat dem Römischen Reich so große Territorien einverleibt wie Augustus – und dies vor allem durch kriegerische Eroberungen. Im sechsjährigen Kantabrischen Krieg von 25 bis 19 v. Chr. eroberten Augustus’ Truppen die letzten nichtrömischen Gebiete im Norden der iberischen Halbinsel. Das Land der besiegten Kantabrer wurde als Teil der Provinz Tarraconensis dem Reich eingegliedert. Nachdem 17 v. Chr. bei den Säkularfeiern in Rom noch die Friedensordnung des Prinzipats gefeiert worden war, ging das Reich im darauffolgenden Jahr erneut zur Offensive über. Der Grund dafür ist bis heute ungeklärt. Womöglich fing als kleinere Grenzstreitigkeit mit germanischen Stämmen an, was mit ausgedehnten militärischen Operationen an den nordöstlichen Grenzen und der Eingliederung von nicht weniger als fünf neuen Provinzen endete. Von der Ostgrenze Galliens, den Alpen und dem dalmatinischen Küstengebirge wurde die Reichsgrenze bis zu Donau und Rhein, zeitweise sogar bis zur Elbe vorgeschoben. Südlich der Donau entstanden die neuen Provinzen Raetia, Noricum, Pannonia, Illyricum und Moesia. In diese Zeit, ins Jahr 15 v. Chr., fällt beispielsweise die Gründung der Stadt Augusta Vindelicorum, des heutigen Augsburg, dessen Name auf den Princeps zurückgeht. An der strategisch wichtigen Via Claudia Augusta gelegen, wurde der Ort später zur Hauptstadt der Provinz Raetien. In einer militärischen Katastrophe endete allerdings die Eroberung der rechtsrheinischen Germania magna. Die Eroberung dieses Raums war schon unter Augustus’ Stiefsohn Drusus weit gediehen und wurde nach dessen Tod im Jahr 9 v. Chr. von Tiberius erfolgreich weitergeführt. Im Jahr 9 n. Chr. aber vernichtete ein von dem Cheruskerfürsten Arminius initiiertes Bündnis germanischer Stämme drei römische Legionen unter dem Befehl des Publius Quinctilius Varus. Die Varusschlacht wurde möglicherweise am Nordrand des Wiehengebirges geschlagen, das in den römischen Quellen als "saltus Teutoburgiensis" bezeichnet wird. Die schwere Niederlage hatte zunächst einen verlustreichen Kleinkrieg und schließlich den Rückzug der Römer auf die Rhein-Donau-Linie und die Errichtung des Limes als befestigte Grenze gegen Germanien zur Folge. Regelung der Nachfolge. Obwohl Augustus in fast allen Quellen zu seinem Leben als gut aussehender Mann geschildert wird, war er seit seiner Kindheit von schwacher Konstitution. Er überlebte mehrere schwere Krankheiten wie die im Jahre 23 v. Chr. nur knapp und konnte nicht damit rechnen, das für die damalige Zeit sehr hohe Alter von fast 76 Jahren zu erreichen. Für sein Bestreben, der neu geschaffenen Herrschaftsordnung Dauer zu verleihen, stellte die Erbfolgeregelung daher eine zentrale Aufgabe dar. Während seine Frau Livia einen ihrer Söhne von Tiberius Claudius Nero auf dem Thron sehen wollte, verfolgte Augustus den Plan, die Nachfolge in der eigenen, julischen Familie zu sichern. Da der Kaiser keine Söhne hatte, zwang er seine Tochter Iulia, nacheinander mehrere Nachfolgekandidaten zu heiraten. Dies war im Jahr 25 v. Chr. zunächst Marcellus, der Sohn seiner Schwester Octavia und ihres ersten Mannes. Die Bevorzugung seines Neffen führte offenbar zu zeitweisen Spannungen zwischen Augustus und seinem Feldherrn Agrippa, der sich selbst begründete Hoffnungen auf die Nachfolge machte. Doch Marcellus starb kaum 20-jährig Ende des Jahres 23 v. Chr. und Agrippa galt nun als aussichtsreicher Nachfolgekandidat. Augustus drängte den alten Freund im Jahr 21 v. Chr., sich von seiner Frau scheiden zu lassen und die 25 Jahre jüngere Iulia zu heiraten. Die beiden hatten zwei Töchter und drei Söhne, Gaius Caesar, Lucius Caesar und den nachgeborenen Agrippa Postumus. Spätestens seit Agrippas Tod 12 v. Chr. betrachtete Augustus die beiden älteren Enkel als seine bevorzugten Nachfolger. Aus diesem Grund hatte er sie schon zu Agrippas Lebzeiten als Söhne adoptiert. Beide Enkel waren aber 12 v. Chr. noch so jung, dass sie nach einem vorzeitigen Tod des Augustus nicht sofort die Nachfolge hätten antreten können. Bis sie als Nachfolgekandidaten alt genug sein würden und der römischen Öffentlichkeit vorgestellt werden konnten, benötigte der Princeps einen Stellvertreter. Dieser sollte Augustus bei den Regierungsgeschäften unterstützen und anstatt der zu jungen Enkel beerben. Diese Rolle, die einst Agrippa innegehabt hatte, sollte nun Tiberius ausfüllen. Augustus zwang ihn, sich von seiner Frau Vipsania, einer Tochter Agrippas, zu trennen, Iulia zu heiraten und sich zum Schutz der beiden jungen Prinzen zu verpflichten. Augustus scheint sich damals aber weder Tiberius noch dessen jüngeren Bruder Drusus, zu dem er ein besseres Verhältnis hatte, als Nachfolger gewünscht zu haben. Er machte deutlich, dass Tiberius nur ein „Platzhalter“ für die beiden Enkel war und nur für eine Übergangszeit als Nachfolgekandidat dienen sollte. Dies führte zum Zerwürfnis mit Tiberius, der die erzwungene Ehe mit Iulia zudem als Qual empfand. Der Stiefsohn legte daher 5 v. Chr. alle Ämter nieder und ging nach Rhodos ins Exil. Zu einer Aussöhnung kam es erst, nachdem Lucius und Gaius Caesar kurz hintereinander, 2 und 4 n. Chr., gestorben und Iulia wegen ihres Lebenswandels aus Rom verbannt worden war. Da Drusus bereits 9 v. Chr. bei einem Kriegszug in Germanien umgekommen war, blieb nur noch Tiberius als Nachfolger übrig. Augustus adoptierte ihn am 26. Juni des Jahres 4 gemeinsam mit seinem letzten noch lebenden Enkel Agrippa Postumus. Letzteren ließ er jedoch drei Jahre später aus nie ganz geklärten Gründen auf die Insel Planasia bei Elba verbannen, wo er unmittelbar nach Augustus’ Tod ermordet wurde. Tiberius wiederum musste den Sohn seines verstorbenen Bruders Drusus adoptieren: Germanicus. Der Großneffe des Augustus entstammte als Enkel der Octavia zugleich dem julischen und dem claudischen Familienzweig. Da Germanicus 4 n. Chr. noch zu jung war, um Augustus direkt im Amt nachzufolgen, wies der Princeps ihm die Rolle des Nachfolgers von Tiberius zu. Nach dieser familienpolitischen Weichenstellung bis in die dritte Generation übertrug Augustus Tiberius im Jahr 4 n. Chr. die tribunizische Amtsgewalt "(tribunicia potestas)." Aber erst im Jahr 13 n. Chr., im Jahr vor seinem Tod, verlieh Augustus ihm auch die prokonsularischen Befugnisse "(imperium proconsulare maius)" und designierte Tiberius damit öffentlich als einzig möglichen Nachfolger. In seinem umfangreichen Testament vermachte Augustus seinem Adoptivsohn und seiner Ehefrau Livia sein materielles Vermögen. Darüber hinaus setzte er Legate für die Bürger Roms und die Prätorianer aus. Ferner regelte er sein Begräbnis und gab Anweisungen für Tiberius und den Staat. Tod und Begräbnis. Im Sommer des folgenden Jahres unternahm der Kaiser eine Reise, die ihn über Capri nach Benevent führen sollte. Er erkrankte bereits auf Capri an Diarrhoe, reiste aber noch weiter aufs Festland bei Neapel und ließ sich nach Nola bringen – angeblich in dasselbe Haus, in dem 71 Jahre zuvor sein Vater Gaius Octavius gestorben war. Dort verstarb der Kaiser in Gegenwart seiner Frau Livia und einer Reihe herbeigeeilter Würdenträger am 19. August des Jahres 14 n. Chr., am gleichen Tag, an dem er über 50 Jahre zuvor sein erstes Konsulat angetreten hatte. Laut Sueton verabschiedete sich der Mann, der in seinem Leben so viele Masken getragen hatte, mit einer Formel, die Komödianten am Ende eines Stückes sprachen: "Wenn nun das Ganze Euch wohl gefallen hat, so klatscht Beifall, und entlasst uns alle mit Dank nach Hause." Augustus’ Leiche wurde auf dem Marsfeld in Rom verbrannt und die Asche in dem prachtvollen Augustusmausoleum beigesetzt, das der Kaiser dort für sich und seine Familie hatte errichten lassen. Zudem wurde der Kaiser – wie die meisten römischen Caesaren nach ihrem Tod – zum Staatsgott "(divus)" erklärt. Dem Kult des "Divus Augustus" wurde ein Tempel zwischen Kapitol und Palatin geweiht. Er oblag einem Kollegium von 21 Priestern, den "Augustales," in das nur die höchsten Mitglieder des Senats und des Kaiserhauses berufen wurden. Das augusteische Zeitalter. Schon Zeitgenossen des Augustus betrachteten ihre Gegenwart als „apollinische Ära“, geprägt von Apoll, dem Gott des Lichts, der Künste und der Musik, der Weisheit und der Weissagung, dem der Kaiser Heiligtümer bei Actium und bei seinem eigenen Wohnhaus auf dem palatinischen Hügel in Rom errichtete. Vollends verklärt wurde die Regierungszeit des ersten Kaisers nach seinem Tod unter dem Begriff der "Pax Augusta," des „augusteischen Friedens“. Im Vergleich zum vorangegangenen Jahrhundert und zur Herrschaft vieler Nachfolger des ersten Kaisers brachte die augusteische Ära – das "Saeculum Augustum" – Rom, Italien und den meisten Provinzen in der Tat eine lange währende Zeit von innerem Frieden, Stabilität, Sicherheit und Wohlstand. Nach den Verheerungen der Bürgerkriege blühte die Wirtschaft nun ebenso auf wie Kunst und Kultur. Die Zeit brachte Dichter wie Vergil, Horaz, Ovid und Properz, Historiker wie Titus Livius oder Architekten wie Vitruv hervor. Der Kaiser selbst versuchte sich als Tragödienautor, vernichtete aber sein Drama "Ajax," dessen Unzulänglichkeit ihm bewusst war, mit dem Kommentar: "Mein Ajax ist in den Schwamm gefallen." a> auf dem Marsfeld (Modell im Museo della Civiltà Romana, Rom) Rom wandelte sich, wie Augustus meinte, von einer Stadt aus Ziegeln zu einer Stadt aus Marmor. Beeindruckende architektonische Zeugnisse dieser Zeit haben sich bis heute erhalten, etwa das Marcellus-Theater, das von Agrippa erbaute und unter Kaiser Hadrian erneuerte Pantheon und nicht zuletzt Augustus’ Mausoleum und die Ara Pacis, der Friedensaltar aus dem Jahre 9 v. Chr., der auf einem Relief eine Prozession der kaiserlichen Familie zeigt. Das Bild, das der Kaiser mit solchen Bauten den Römern vermitteln wollte, kontrastierte aber spätestens seit dem Jahr 16 v. Chr. wieder mit den unablässigen Kriegen, die an den Grenzen geführt wurden. Das Reich expandierte unter Augustus in einem Maß wie nie zuvor und nie wieder danach. Neben dem reichen Ägypten und Galatia wurden ihm Provinzen an Rhein und Donau hinzugefügt, deren Eroberung nur mit der Galliens durch Caesar vergleichbar war. Von Krieg aber war im Inneren des Reichs und der Provinzen nach dem Jahr 31 v. Chr. nur noch wenig zu spüren. Frieden und Wohlstand nahmen deshalb auch schon die Zeitgenossen als prägendes Kennzeichen der Epoche wahr. Dies war der Grund, warum sie sich letztlich mit der Einführung der Monarchie und dem Ende der Republik abfanden, zumal der Versuch einer Rückkehr zu deren oligarchischer Ordnung neue Bürgerkriege hätte hervorrufen können. Und es war kein Zufall, dass die Anhänger eines neuen Glaubens später einen Zusammenhang herstellten zwischen der Herrschaft des vergöttlichten, als Retter und Friedensfürst gefeierten Augustus und der Geburt ihres Religionsstifters, den sie als Gottessohn, Heiland und Verkünder eines Reichs des Friedens verehrten. Augustus in Nachwelt und Forschung. Das Augustusbild hat sich über die Jahrtausende immer wieder gewandelt. Dabei war es oft Einflüssen ausgesetzt, die mit der Person und der Politik des Princeps wenig oder nichts zu tun hatten. Schon Augustus selbst hatte alles dafür getan, der Nachwelt ein möglichst positives Bild von sich zu hinterlassen. Seine Selbstbiographie ging zwar verloren, aber sein „Tatenbericht“, die sogenannten "Res Gestae Divi Augusti," vermitteln einen guten Eindruck davon, wie der Herrscher gesehen werden wollte. Auch Nikolaos von Damaskus war in seiner nur fragmentarisch erhaltenen Biografie des Augustus darum bemüht, ihn nur im besten Licht darzustellen. Bestimmte Schilderungen Tacitus’ sowie des im frühen 3. Jahrhundert schreibenden Senators Cassius Dio weisen einige Übereinstimmungen auf. Während aber Tacitus ein eher negatives Bild vom ersten Princeps zeichnete, da er den Untergang der Republik bedauerte und die Machtpolitik des Augustus als solche erkannte, war Dios Darstellung positiver. Da sein Werk neben den mit Tacitus übereinstimmenden Passagen zusätzliches Material bietet, ist man sich in der Forschung weitgehend einig, dass Dio nicht Tacitus, sondern dass beide eine heute verlorene, gemeinsame Quelle verwendet haben. Wie die meisten antiken Geschichtsschreiber benannte auch Tacitus nur selten seine Quellen. Aus der senatorischen Geschichtsschreibung sind jedoch mehrere Werke aus der Zeit vor ihm bekannt, darunter das des Aulus Cremutius Cordus, der Brutus und Cassius anscheinend recht positiv dargestellt hat. Auch Aufidius Bassus schilderte wenigstens teilweise die Herrschaft des Augustus; allerdings ist nicht bekannt, ab welchem Zeitpunkt seine "Historien" einsetzten. Wahrscheinlich schrieb auch Servilius Nonianus über die Herrschaft des Princeps. Sueton verarbeitete Material aus verlorenen Werken dieser Zeit in seinen Kaiserviten. Tacitus mag aber der erste Geschichtsschreiber gewesen sein, dessen Gesamturteil über Augustus negativ gefärbt war. Eine wesentliche Umdeutung erfuhren Augustus und seine Zeit nach der Christianisierung des Römischen Reichs. Seit Spätantike und Mittelalter haben Christen immer wieder versucht, die "pax Augusta" mit der "pax Christiana" gleichzusetzen, da Jesus von Nazaret im augusteischen Zeitalter geboren worden war. Im Spätmittelalter wurde dies auch politisch seitens der römisch-deutschen Könige genutzt; während des Weihnachtsdienstes wurde indirekt hervorgehoben, dass zur Zeit von Jesus Geburt ein römischer Kaiser herrschte, es aber noch keinen Papst gegeben hat. Auch in der Neuzeit wollten Politiker aus jeweils unterschiedlichen Motiven heraus immer wieder Parallelen zwischen der eigenen und der Zeit des Augustus konstruieren. Während der Französischen Revolution wurde z. B. die Errichtung des Direktoriums nach der Schreckensherrschaft der Jakobiner im Jahr 1794 mit der Errichtung des Prinzipats verglichen. Im 20. Jahrhundert wiederum entfachten die italienischen Faschisten ein regelrechtes Augustusfieber. Auch in der Zeit des Nationalsozialismus versuchten zahlreiche Althistoriker, darunter Wilhelm Weber, die Herrschaftsweise des Augustus als Vorbild für die so genannte "nationale Erneuerung Deutschlands" durch das „Führerprinzip“ darzustellen. Noch ganz anders hatte im 19. Jahrhundert der Althistoriker Theodor Mommsen geurteilt: Er hatte Augustus’ Prinzipatsordnung nicht als Allein-, sondern als Doppelherrschaft gedeutet, die sich Senat und Princeps geteilt hätten. Gegen dieses Bild wiederum wandte sich Ronald Syme, dessen 1939 erschienenes Werk "The Roman Revolution" vor allem aufgrund seines reichhaltigen Materials als Ausgangspunkt der modernen Augustus-Forschung gilt. Symes Darstellung war von der Ausbreitung faschistischer Bewegungen im Europa seiner Zeit geprägt. Er wollte in Augustus einen Diktator und in seinem Aufstieg Parallelen zu den Anfängen des Faschismus erkennen. Ähnlich sah dies auch Benito Mussolini selbst, auch wenn er Symes negative Bewertung nicht teilte. Nach Syme ist Augustus’ Regime aus einer Revolution hervorgegangen. Er selbst sei ein Parteimann gewesen, der gestützt auf Geld und Waffen die alte Führungsschicht beseitigt und durch eine neue ersetzt habe. Als kalkulierender Machtmensch habe er die alte, zerfallende Republik zu Grabe getragen, um unter einer scheinbar republikanischen Fassade eine Alleinherrschaft zu begründen. Der Historiker Jochen Bleicken urteilt zwar kritisch, aber nicht abwertend über den Princeps: In der antiken Geschichte gebe es nur Alexander und Caesar, deren Leistungen sich mit denen des Augustus vergleichen ließen. Dennoch könne man ihn nicht mit diesen „Großen“ gleichsetzen, die im Grunde nur zerstörend gewirkt hätten. Augustus hingegen sei vor allem der wegweisende „Baumeister des Römischen Kaiserreichs“ und „Erzieher“ der neuen Eliten des Prinzipats gewesen. Von einer Heuchelei des Augustus oder von einem Fassadencharakter seines Regimes könne keine Rede sein. Dietmar Kienast sah in Augustus gar den selbstlosesten Machthaber der gesamten Geschichte. Auch Klaus Bringmann (2007) zog in seiner Augustus-Biographie eine insgesamt positive Bilanz der Regierungszeit des ersten römischen Kaisers: Anders als Ronald Syme sieht er in dessen Leistungen den Beleg dafür, dass der Besitz der Macht für Augustus kein bloßer Selbstzweck war. Werner Dahlheim (2010) stellt den „mörderischen Winkelzüge[n] der ersten Jahre“ des jungen Octavian das positive Urteil über dessen zweiten Lebenshälfte gegenüber. Ihm erscheint Augustus, gemessen an der Dauerhaftigkeit seiner staatsmännischen Leistung, als „großer Mann“. Aus Anlass des 2000. Todestages des Kaisers wurde in der Scuderie del Quirinale in Rom von Oktober 2013 bis Februar 2014 die Ausstellung „Augusto“ gezeigt. Argumentum lege non distinguente. Unter dem als argumentum lege non distinguente (übernommen aus dem Satz "argumentum lege non distinguente nec nostrum est distinguere") bezeichneten Rechtsgedanken versteht man in der Rechtswissenschaft einen logischen Schluss bei der Auslegung von Gesetzen, der es im Wege der Analogie erlaubt, das betreffende Gesetz auch auf einen nicht ausdrücklich geregelten Sachverhalt anzuwenden. Voraussetzung ist, dass das auszulegende Gesetz nicht explizit oder nach seinem Grundgedanken zwischen beiden Sachverhalten unterscheidet. Aus einem Umkehrschluss ("argumentum e contrario") ergibt sich dann ein Analogieverbot. Atlantischer Ozean. Der Atlantische Ozean, auch Atlantik genannt, ist nach dem Pazifik der zweitgrößte Ozean der Erde. Als Grenzen gelten die Polarkreise und die Meridiane durch Kap Agulhas im Osten und Kap Hoorn im Westen. Die von ihm bedeckte Fläche beträgt 79.776.350 km², mit den Nebenmeeren 89.757.830 km² und mit dem Arktischen Ozean 106,2 Millionen km², insgesamt ein Fünftel der Erdoberfläche. Dabei liegt die durchschnittliche Wassertiefe (bei Einschluss aller Nebenmeere) bei 3293 Metern. Name. Der Name geht auf den Begriff "Atlantis thalassa" der altgriechischen Sprache zurück: ‚Meer des Atlas‘. In der Griechischen Mythologie glaubte man, dass die Welt hinter den Säulen des Herakles, westlich der Straße von Gibraltar, ende. Dort stützte der Titan "Atlas" (griechisch Ἄτλας, Träger) das Himmelsgewölbe am westlichsten Punkt. Ihm zu Ehren wurde der Ozean benannt. Geographie. Laurasia und Gondwana im Trias Der Atlantik entstand im Mesozoikum durch die Teilung der erdgeschichtlichen Kontinente Laurasia im Norden und Gondwana im Süden. Heute trennt er Europa und Afrika vom amerikanischen Kontinent. Der Mittelatlantische Rücken überragt den Tiefseeboden um bis zu 3000 Meter und trennt die west- von der ostatlantischen Senke des Ozeans. Der Atlantische Ozean liegt fast ausschließlich auf der Westhalbkugel der Erde. Er ist umgeben von der Arktis im Norden, Europa im Nordosten, Afrika und dem Indischen Ozean im Osten, der Antarktis im Süden, Südamerika im südlichen und Nordamerika im nördlichen Westen. Der Atlantik kann entlang des Äquators in Nord- und Südatlantik unterteilt werden; gelegentlich wird er auch entlang der Wendekreise in Nord-, Zentral- und Südatlantik unterteilt. Der Atlantik birgt ein Wasservolumen von rund 354,7 Mio. km³. Seine größte Breite beträgt 9.000 km zwischen Senegal und dem Golf von Mexiko, die geringste 1.500 km zwischen Norwegen und Grönland. Die maximale Tiefe wird mit 9.219 Metern im Milwaukeetief erreicht, einem Teil des Puerto-Rico-Grabens. Der Golfstrom, der aus der Karibik kommt und quer über den Atlantik bis nach Grönland zieht, ist für das relativ milde Klima an den nordeuropäischen Küsten verantwortlich. Wegen des intensiven Schiffsverkehrs auf den Nebenmeeren (u. a. Mittelmeer, Nord- und Ostsee) und des Transitverkehrs zwischen Europa und Nordamerika ist der Atlantik das verkehrsreichste Weltmeer. Natürliche Verbindungen zu den anderen Weltmeeren. Die Dänemarkstraße zwischen Grönland und Island sowie die Davisstraße mit der Baffin Bay zwischen Kanada und Grönland verbinden den Atlantik mit dem Arktischen Ozean. Östlich von Island geht das Europäische Nordmeer in den Arktischen Ozean über. Die größte zusammenhängende Verbindung des Atlantik mit den übrigen Ozeanen erstreckt sich südlich von Kap Agulhas. Der durch diesen Ort laufende Meridian trennt den Atlantik vom Indischen Ozean. Im Süden bildet der 60. Breitengrad die durch den Antarktisvertrag willkürlich gezogene Grenze zum Südpolarmeer. Natürliche Verbindungen zum Pazifischen Ozean sind die Magellanstraße, der Beagle-Kanal und die Gewässer um Kap Hoorn. Europa. Norwegen, Schweden, Dänemark, Deutschland, Niederlande, Belgien, Frankreich, Spanien, Portugal, Monaco, Italien, Slowenien, Kroatien, Bosnien und Herzegowina, Montenegro, Albanien, Griechenland, Türkei, Rumänien, die Ukraine, Russland und Georgien Island, Großbritannien, Irland und Malta Asien. Es gibt keinen einzigen Staat in Asien, der direkt am Atlantischen Ozean liegt. Trotzdem gibt es einige wenige, die indirekt über das Europäische Mittelmeer (als dessen Randmeer) mit ihm verbunden sind. Es sind Zypern, die Türkei, Syrien, der Libanon und Israel. Afrika. Staaten mit einer Küste zum Europäischen Mittelmeer Ägypten, Libyen, Tunesien, Algerien, Marokko Marokko, Westsahara, Mauretanien, Senegal, Gambia, Guinea-Bissau, Guinea, Sierra Leone, Liberia, Elfenbeinküste, Ghana, Togo, Benin, Nigeria, Kamerun, Äquatorial-Guinea, Gabun, Republik Kongo, Demokratische Republik Kongo, Angola, Namibia und Südafrika. An selbständigen Inselstaaten sind nur Kap Verde sowie São Tomé und Príncipe bekannt. Dazu kommt noch ein britisches Überseegebiet, das die Inseln Ascension, St. Helena und Tristan da Cunha umfasst. Südamerika. Argentinien, Uruguay, Brasilien, Suriname, Guyana, Venezuela und Kolumbien. Die Falklandinseln gehören politisch zu Großbritannien und Französisch-Guayana ist eine Region Frankreichs und damit kein Anliegerstaat. Nordamerika. Dazu zählen Panama, Costa Rica, Nicaragua, Honduras, Guatemala, Belize, Mexiko, USA und Kanada. Im Nordatlantik liegt Island (es gilt als die größte Vulkaninsel der Welt) Antigua und Barbuda, Bahamas, Barbados, Dominica, Dominikanische Republik, Grenada, Haiti, Jamaika, Kuba, St. Kitts und Nevis,St. Lucia, St. Vincent und die Grenadinen, Trinidad und Tobago Geschichte. mini Im 15. Jahrhundert begann die Europäische Expansion mit den Entdeckungsfahrten der Portugiesen nach Afrika und der Spanier nach Amerika. Erst nach Eröffnung des Sueskanals im November 1869 wurde es möglich, durch das Mittelmeer nach Persien, Indien oder Asien zu fahren. Bis dahin mussten die Schiffe das Kap der Guten Hoffnung runden. Der Atlantik ist nach wie vor der meistbefahrene Ozean. Welthandel. Seit 1945 hat der Welthandel stark zugenommen; im Zuge der Globalisierung hat sich die Arbeitsteilung zwischen Volkswirtschaften stark verändert. Große Teile des Welthandels erfolgen per Schiff (Handelsschiffahrt). Die durchschnittliche Größe der Handelsschiffe hat stark zugenommen; seit den 1960er Jahren hat der Container die Stückgutschiffe weitgehend entbehrlich gemacht und den Transport von Stückgut sehr viel effizienter und billiger gemacht (siehe auch Containerisierung, Containerschiff). Große Schiffe haben meist einen großen Tiefgang und brauchen Tiefwasserhäfen. Teile des Atlantiks gelten als überfischt. Strategische Bedeutung. Im 19. Jahrhundert war das British Empire die unangefochtene Seemacht. Von 1914 bis 1918, im ganzen Ersten Weltkrieg, praktizierte die Royal Navy eine Seeblockade des Deutschen Kaiserreichs; die Reichsregierung antwortete mit U-Boot-Angriffen. Wie der Erste wurde auch der Zweite Weltkrieg im Atlantik entschieden. Forschungsgeschichte. Die Deutsche Atlantische Expedition erkundete den südlichen Teil des Atlantiks (und die Atmosphäre darüber) von Mitte 1925 bis Mitte 1927. Es fuhr dreizehn Mal auf verschiedenen Breitengraden von Ost nach West und zurück und erstellte dabei per Echolot Tiefenprofile des Meeresbodens. Flugzeuge sammelten große Mengen Wetterdaten. Seit dem Aufkommen von Satelliten sind diese der Hauptlieferant von Daten für die Erforschung des Atlantiks. Meeresboden, Wasser. Auf dem Boden des Atlantiks gibt es außer Tiefseebecken, Tiefseerinnen und Meerestiefs und einigen niedrigeren Schwellen als auffälligste Struktur den Mittelatlantischen Rücken. Das ist eine zerklüftete Erhebung auf einer divergierenden Plattengrenze, die den Atlantik etwa in der Mitte von Nord nach Süd durchzieht. Hier steigt beständig Lava auf, die die zwei angrenzenden ozeanischen Platten auseinanderschiebt, dadurch den Atlantik verbreitert und die dahinter liegenden Kontinente immer weiter auseinandertreibt; der Ablauf ist durch Datierung der Gesteine auf dem Ozeanboden nachgewiesen, die je weiter entfernt vom Rücken desto älter sind. Zu den Tiefseerinnen und Meerestiefs gehört der Puerto-Rico-Graben mit dem 9.219 m unter dem Meeresspiegel liegenden Milwaukeetief, der tiefsten Stelle des ganzen Atlantiks. Sie transportieren mit ihrem Wasser auch zahlreiche Schadstoffe und Nährstoffe in den Atlantik. Salzgehalt. Der Atlantische Ozean hat im Durchschnitt einen Salzgehalt von etwa 3,54 %, während der Wert im Pazifik bei 3,45 % und im Indischen Ozean bei 3,48 % liegt. Im Randmeer Nordsee ist der Salzgehalt mit 3,2–3,5 % schon merklich niedriger. In der Nähe von Flussmündungen fällt er auf 1,5–2,5 % und erreicht in der Ostsee, die fast vollständig von Festland umgeben ist und nur geringen Wasseraustausch mit dem Atlantik hat, nur noch 0,2–2,0 %. Inseln. Einige der größten Inseln der Erde liegen im Atlantischen Ozean: Die Britischen Inseln, Grönland, Irland, Island und Neufundland. Archipele sind die Azoren, die Bahamas, die Bermudas, die Falklandinseln, die brasilianische Inselgruppe Fernando de Noronha, die Großen Antillen, die zur Kamerunlinie gehörige Inselgruppe um São Tomé und Príncipe, die Kanaren, die Kleinen Antillen, die unbewohnten Sankt-Peter-und-Sankt-Pauls-Felsen, die Scilly-Inseln und der Inselstaat Kap Verde. Isolierte Inseln sind Annobón, Ascension, Bioko, Bouvetinsel, Gough-Insel, Madeira, St. Helena, Trindade und Tristan da Cunha. Arthur Schopenhauer. Arthur Schopenhauer (* 22. Februar 1788 in Danzig; † 21. September 1860 in Frankfurt am Main) war ein deutscher Philosoph, Autor und Hochschullehrer. Schopenhauer entwarf eine Lehre, die gleichermaßen Erkenntnistheorie, Metaphysik, Ästhetik und Ethik umfasst. Er sah sich selbst als Schüler und Vollender Immanuel Kants, dessen Philosophie er als Vorbereitung seiner eigenen Lehre auffasste. Weitere Anregungen bezog er aus der Ideenlehre Platons und aus Vorstellungen östlicher Philosophien. Innerhalb der Philosophie des 19. Jahrhunderts entwickelte er eine eigene Position des "Subjektiven Idealismus" und vertrat als einer der ersten Philosophen im deutschsprachigen Raum die Überzeugung, dass der Welt ein irrationales Prinzip zugrunde liegt. Das Elternhaus. Arthur Schopenhauer wurde am 22. Februar 1788 in Danzig geboren. Sein Vater Heinrich Floris Schopenhauer (1747–1805), der einer angesehenen Danziger Kaufmannsdynastie entstammte, war 19 Jahre älter als die Mutter Johanna Schopenhauer, geb. Trosiner (1766–1838); sie wurde später eine bekannte Schriftstellerin und führte einen literarischen Salon, in dem auch Goethe verkehrte. Die Familie Schopenhauer siedelte 1793 in die Freie Hansestadt Hamburg über, als Danzig infolge der Zweiten Polnischen Teilung zu Preußen kam und so seine seit dem 15. Jahrhundert unter der polnischen Oberhoheit garantierte Autonomie verlor. Heinrich Schopenhauer gründete im "Neuen Wandrahm 92" in der heutigen Speicherstadt ein Handelshaus, in dem die Familie bis 1805 wohnte. Ausbildung zum Kaufmann. Heinrich Schopenhauer hatte für seinen Sohn Arthur den in der Familie traditionellen Kaufmannsberuf vorgesehen und ihn deshalb auf die dafür vorbereitende Hamburger Erziehungsanstalt unter der Leitung von Johann Heinrich Christian Runge geschickt. Seine damaligen Schulfreunde waren der spätere Ministerresident Carl Godeffroy und der spätere Weinhändler und Senator Georg Christian Lorenz Meyer. Arthur jedoch hatte schnell das in der Handelsschule Erlernbare absolviert und bat den Vater eindringlich, ein Gymnasium besuchen zu dürfen. Der Vater hielt dies jedoch für überflüssig und bot ihm stattdessen eine gemeinsame, längere Bildungsreise durch Europa an. Arthur willigte ein und bereiste, nachdem er mehrere Wochen zum Erlernen der englischen Sprache in Wimbledon verbracht hatte, von 1803 bis 1804 Holland, England, Frankreich, die Schweiz, Österreich, Schlesien und Preußen. Von September bis Dezember 1804 begann Schopenhauer auf Wunsch des Vaters eine Kaufmannslehre im Danziger Handelshaus von Jacob Kabrun, mit dem der Vater befreundet war. Dorthin begleitete ihn seine Mutter. 1805 kehrten sie nach Hamburg zurück, und er setzte seine Kaufmannslehre im Unternehmen Jenisch fort. Am 20. April des Jahres verunglückte der unter Depressionen leidende Vater tödlich: Er stürzte vom Dachspeicher seines Hauses in das angrenzende Fleet, das hinter dem Gebäude lag. Nach Auflösung des väterlichen Geschäfts und dem Verkauf des "Wandrahms 92" wohnte die Familie vorübergehend von 1805 bis 1806 in einer Wohnung in den "Kohlhöfen 29" nahe dem Großneumarkt. 1806 zog seine Mutter mit seiner jüngeren Schwester, der späteren Schriftstellerin Adele Schopenhauer, nach Weimar. Arthur blieb allein in Hamburg und war frei zu entscheiden, ob er pflichtgemäß seine Kaufmannslehre fortsetzen oder seiner Neigung zu einem geistigen Beruf nachgeben wollte. Hinwendung zur Philosophie. Er brach seine Lehre ab und wurde im Juni 1807 auf Ratschlag Carl Ludwig Fernows Schüler des Gymnasialdirektors Doering am Gymnasium Illustre in Gotha. Noch im selben Jahr übersiedelte er wie zuvor seine Familie nach Weimar, wo sein wichtigster Lehrer Franz Passow wurde. Der junge Schopenhauer pflegte Umgang mit Johannes Daniel Falk und Zacharias Werner. 1809 verliebte er sich unglücklich in die elf Jahre ältere 32-jährige Schauspielerin und Opernsängerin Karoline Jagemann, seinerzeit die Geliebte des Herzogs Carl August. Er schrieb für sie sein einziges überliefertes Liebesgedicht. Volljährig geworden bekam Schopenhauer seinen Anteil am väterlichen Erbe ausgezahlt. Durch diesen ansehnlichen Geldbetrag wurde er vermögend und frei von finanziellen Sorgen. 1809 begann er an der Universität Göttingen ein Studium der Medizin, das er jedoch bald zugunsten der Philosophie aufgab. Den Doktortitel der Philosophie an der Universität Jena erhielt Schopenhauer am 2. Oktober 1813 (magna cum laude) für seine Schrift "Ueber die vierfache Wurzel des Satzes vom zureichenden Grunde", welche er während seines Aufenthaltes im Gasthof „Zum Ritter“ in der Residenzstadt Rudolstadt im Sommer desselben Jahres vollendet hatte. Zu den ersten Lesern seines Werks gehörte Johann Wolfgang Goethe. Goethe war bereits vorher über seinen Kontakt zur Mutter Schopenhauers, die in Weimar einen literarischen Salon unterhielt, auf ihn aufmerksam geworden. Häufigere Begegnungen mit Goethe folgten, der in dieser Zeit seine Farbenlehre ausformulierte. Schopenhauer bewunderte Goethe, äußerte aber bald Zweifel an der den Aussagen Newtons widersprechenden Theorie, wodurch sich das enge Verhältnis allmählich löste. Durch Friedrich Majer wurde Schopenhauer mit der altindischen Philosophie des Brahmanismus bekannt gemacht. 1814 überwarf er sich mit seiner Mutter und ging nach Dresden, wo er in Literatenkreisen verkehrte und Studien in den reichen Sammlungen und Bibliotheken der Stadt trieb. 1815 veröffentlichte Schopenhauer eine eigene Farbenlehre mit dem Titel "Ueber das Sehn und die Farben". Diese entstand in Korrespondenz mit Goethe und erschien 1816 im Druck. Auseinandersetzung mit dem Verleger. Anschließend entwarf Schopenhauer sein Hauptwerk "Die Welt als Wille und Vorstellung", das Anfang 1819 im Bibliographischen Institut F.A. Brockhaus erschien und später noch erheblich erweitert werden sollte. Der Philosoph war schon zu diesem Zeitpunkt von der geistesgeschichtlichen Bedeutung seiner Arbeit überzeugt, obwohl sie wirtschaftlich gesehen kein Erfolg werden sollte. Die erste Auflage war erst nach dreißig Jahren vergriffen. Der Briefwechsel zwischen Schopenhauer und seinem Verleger ist ein aufschlussreiches Zeitdokument. Modern war an Schopenhauer seine Auffassung von der Philosophie als einer speziellen Art von Schriftstellerei. Sein langer Kampf gegen Setzfehler passte zu seiner väterlichen Prägung vom penibel kalkulierenden Kaufmann und zu dem Bewusstsein, eine bedeutende Schrift verfasst zu haben. Diese Penibilität und eine gewisse Rechthaberei äußerten sich u.a. darin, dass er in einem Anhang zu seinem Hauptwerk, in welchem er die Kant’sche Philosophie kritisierte, sehr detailliert alle Auflagen der Kant’schen Werke nach begrifflichen Abweichungen untersuchte. Dies geschah vor dem Hintergrund, dass nach seiner Auffassung die erste Auflage, nicht aber die späteren mit seiner eigenen Philosophie verträglich sei. In einem weiteren Brief an Brockhaus schreibt Schopenhauer: Brockhaus’ Erwiderung fiel scharf aus. Er sprach Schopenhauer ab, ein Ehrenmann zu sein, und weigerte sich, „etwaige Briefe“ seines Autors anzunehmen, Reisen und Berliner Jahre. Im September 1818 trat der Privatgelehrte eine Reise nach Italien an, die ihn über Venedig, Rom, Neapel und Paestum nach Mailand führte. Dort erreichte ihn im Juni 1819 die Nachricht vom Zusammenbruch des Danziger Handelshauses A. L. Muhl & Co., bei dem er einen Teil seines Vermögens deponiert hatte. Er brach die Reise ab, um die Angelegenheit an Ort und Stelle zu regeln, wobei es erneut zu Spannungen zwischen ihm und seiner Mutter kam. Außerdem kamen finanzielle Belastungen aus der Marqet-Affäre hinzu. Caroline Louise Marqet, eine 47-jährige Näherin, hatte Schopenhauer durch ihr lautes Gespräch mit zwei anderen Frauen im Vorzimmer seiner Wohnung derartig in Rage gebracht, dass er sie schließlich unsanft aus dem Haus geworfen hatte. Die derart Behandelte klagte daraufhin gegen Schopenhauer, weil sie von seiner rohen Behandlung ein andauerndes Zittern des Armes zurückbehalten habe. Sie bekam vor dem Kammergericht Recht, und ihr wurde eine Vierteljahresrente von 15 Talern zugesprochen, bis das Zittern wieder verschwunden sei. Zum Urteilsspruch bemerkte Schopenhauer sarkastisch, dass „sie wohl so klug sein wird, das Zittern des Arms nicht einzustellen“. Er sollte damit Recht behalten. Zu ihrem Tod 20 Jahre später notierte Schopenhauer lakonisch: „Obit anus, abit onus“ (Die Alte stirbt, die Last vergeht). Seine finanziell prekäre Situation veranlasste ihn, sich um eine Dozentur an der Universität Berlin zu bewerben. 1820 begann Schopenhauer die Lehrtätigkeit an der noch jungen Berliner Universität. Dabei kam es zu dem berühmten Streit mit Hegel. Schopenhauer setzte seine Vorlesungen zeitgleich mit denen Hegels an, hatte aber nur wenige Zuhörer, da die Studenten Hegel bevorzugten. Bald begann er, die Universitätsphilosophie zu verachten. Als das Handelshaus Muhl 1821 seine Forderungen beglich, verließ er die Universität und setzte seine Italienreise fort. Ab 1821 unterhielt er mehrere Jahre lang ein Verhältnis mit der damals 19-jährigen Opernsängerin Caroline Medon, er misstraute jedoch ihrem Gesundheitszustand und ihren möglichen Absichten, sodass es nie zu einer Heirat kam. Nach längeren zum Teil krankheitsbedingten Aufenthalten in München, Bad Gastein und Dresden kehrte er erst im April 1825 nach Berlin zurück und unternahm einen erneuten Versuch, eine universitäre Laufbahn einzuschlagen. Trotz einer rühmenden Besprechung der "Welt als Wille und Vorstellung" von Jean Paul erzeugten seine Ideen noch keine Resonanz. Während seiner Aufenthalte in Berlin von 1820 bis 1831 wohnte Schopenhauer in der heutigen Dorotheenstraße 34 bzw. 30 in Berlin-Mitte. Bei Ausbruch einer Choleraepidemie in Berlin floh Schopenhauer 1831 – anders als Hegel, der ihr vermutlich zum Opfer fiel – nach Frankfurt am Main, wo er den Winter verbrachte. Die immer noch mit ihm liierte Medon ging nicht mit ihm aus Berlin fort, da er verlangte, dass sie ihren außerehelichen damals im neunten Lebensjahr stehenden Sohn Carl Ludwig Gustav Medon (1823–1905) zurücklassen solle; dies führte zum Bruch. Im Alter von 43 Jahren interessierte er sich nochmals für ein junges Mädchen, nämlich die 17-jährige Flora Weiss, die den wesentlich älteren Verehrer jedoch abwies. Nach einem Aufenthalt in Mannheim vom Juli 1832 bis Juni 1833 ließ er sich am 6. Juli 1833 endgültig in Frankfurt nieder. Frankfurter Jahre. Nach langem Schweigen meldete sich Schopenhauer 1836 mit seinem Werk "Ueber den Willen in der Natur" wieder zu Wort. 1837 griff er in die Gestaltung der Gesamtausgabe der Schriften Immanuel Kants ein, indem er erfolgreich für die Aufnahme der ersten Fassung der "Kritik der reinen Vernunft" anstatt der zweiten Fassung plädierte. 1838 starb Schopenhauers Mutter. Im folgenden Jahr krönte die "Königlich Norwegische Societät der Wissenschaften" seine Preisschrift "Ueber die Freiheit des menschlichen Willens". 1841 erschien sie zusammen mit einer anderen, nicht gekrönten Preisschrift, "Ueber das Fundament der Moral", unter dem zusammenfassenden Titel "Die beiden Grundprobleme der Ethik". Als bedeutendster einer Reihe von „Aposteln und Evangelisten“ Schopenhauers war 1840 Julius Frauenstädt aufgetreten, weshalb Schopenhauer ihn "Erzevangelist" nannte. Zuvor hatte schon Friedrich Dorguth (von Schopenhauer daher "Urevangelist" genannt) auf Schopenhauer aufmerksam gemacht. 1843 nannte er in seiner Schrift "Die falsche Wurzel des Idealrealismus" den immer noch wenig bekannten Schopenhauer einen Denker von weltgeschichtlicher Bedeutung. Mit 55 Jahren bezog der Philosoph, der bis dahin meist zur Untermiete gewohnt hatte, am Mainufer, an der "Schönen Aussicht 17", eine eigene Wohnung, die er 16 Jahre lang behielt. Als das Schopenhauerhaus aber ist die Nachbaradresse in die Geschichte eingegangen, das riesige Palais "Schöne Aussicht 16", sein Sterbehaus. 1843 hatte Schopenhauer den zweiten Band seines Hauptwerkes vollendet und wandte sich erneut an den Verlag, der inzwischen von Heinrich Brockhaus geleitet wurde, mit der Bitte um Veröffentlichung. Nach einem Briefwechsel, der von gegenseitigem Respekt zeugt, erschien 1844 die ergänzte und überarbeitete 2. Auflage von "Die Welt als Wille und Vorstellung". 1851 kamen die "Parerga und Paralipomena" (2 Bände) mit den "Aphorismen zur Lebensweisheit" heraus. Richard Wagner ließ dem von ihm verehrten Schopenhauer seine Dichtung "Der Ring des Nibelungen" überreichen. Julius Frauenstädts "Brief über die Schopenhauer’sche Philosophie" erschien. Eine Serie von Schopenhauer-Porträts von Jules Lunteschütz und anderen Künstlern entstand. Im Mai 1857 besuchte Friedrich Hebbel Schopenhauer. Im Sommer des Jahres 1859 rettete der häufig als Misanthrop bezeichnete Schopenhauer – er nannte seinen Hund immer dann „Mensch“, wenn er sich über ihn ärgerte – den neunjährigen Julius Frank vor dem Ertrinken. Die ihm erst spät angetragene Mitgliedschaft in der Königlichen Akademie der Wissenschaften in Berlin lehnte Schopenhauer ab. Am 9. September 1860 erkrankte er an einer Lungenentzündung. Nach monatelangen „Atmungsbeschwerden mit starkem Herzklopfen im Gehen“ starb Schopenhauer am 21. September 1860 in der "Schönen Aussicht 16" in Frankfurt am Main. Am 26. September wurde er auf dem Frankfurter Hauptfriedhof beigesetzt. Erst nach seinem Tod wurde 1864 seine Schrift "Eristische Dialektik" (Technik des Diskutierens) veröffentlicht. Schopenhauer formuliert darin "38 rhetorische Kunstgriffe", die es ermöglichen sollen, aus Streitgesprächen als Sieger hervorzugehen, sogar wenn Tatsachen gegen die eingenommene Position sprechen. Die polemisch gegen den Diskussionsstil seiner Zeitgenossen gerichteten Kunstgriffe liefern Beispiele für rabulistische Argumentation und bieten Hinweise auf die durch sie verursachten Fehlschlüsse. Schopenhauers Persönlichkeit. Arthur Schopenhauer, gesehen von Wilhelm Busch Arthur Schopenhauer war ein Einzelgänger. In Frankfurt war der Gelehrte nach Einschätzung von Chronisten ein „verkannter Niemand“. Er hielt sich zeitlebens einen Pudel. Dessen Name war immer Atman, nach dem Sanskrit-Wort für "Lebenshauch, Atem", in der Tradition der Upanishaden die Essenz des Selbst bzw. die Einzelseele als Teil des Brahman, der „Weltseele“. Wenn ein Hund starb, was etwa alle zehn Jahre vorkam, erwarb er jeweils einen ähnlich aussehenden Pudel. Schopenhauer war der philosophischen Auffassung, dass jeder Hund gleichzeitig jeden anderen Hund enthalte. „Des Pudels Kern“ (Goethe) ging also nie verloren. Für Menschen galt ihm sinngemäß das Gleiche. Wie er gestikulierend im Selbstgespräch mit seinem Pudel am Mainufer spazierte, hat unter anderem der Lokaldichter Friedrich Stoltze bespöttelt. Schopenhauers Tagesablauf war strukturiert: morgens die Arbeit am Schreibtisch, Flötespielen regelmäßig vor dem Mittagessen. Die Mahlzeiten soll Schopenhauer nach der Überlieferung seiner Biographen stets in Gasthäusern eingenommen haben, bevor er einen zweistündigen Spaziergang mit seinem jeweils aktuellen Pudel machte. Über den jüdischen Glauben äußerte sich Schopenhauer eher abschätzig, z. B. bezeichnete er ihn (in "Die Welt als Wille und Vorstellung" und "Parerga und Paralipomena") als „roh“ und „barbarisch“. Er hielt ihn angesichts seiner eigenen pessimistischen Weltsicht für zu optimistisch und machte ihm eine angebliche Unempfindsamkeit gegenüber Tieren zum Vorwurf. Unabhängig davon hatte er im Alltag Kontakte zu einigen Juden. Philosophie. Unter dem Einfluss Platons und Kants vertrat Schopenhauer in seiner Erkenntnistheorie die Position des Idealismus, beschritt jedoch innerhalb dieser Grundauffassung einen eigenen, subjektivistischen Weg („subjektiver Idealismus“). Was Schopenhauer von den Solipsisten trennt, ist sein Beharren auf ein alles verbindendes und bedingendes Etwas. Dieses ist für Schopenhauer der blinde, zum Dasein drängende Wille, Sanskrit: "Tat twam asi" („Das bist du“). Schopenhauer lehnte die Philosophie Hegels ab, die er selbst abwertend als „Hegelei“ bezeichnete. Er verfasste drastische Polemiken gegen Hegel, Schelling, Fichte und den zunächst von ihm verehrten Schleiermacher. Die Welt als Vorstellung. Ähnlich wie George Berkeley vertritt Schopenhauer die Auffassung, dass sich die Frage nach einer von ihrer Wahrnehmung unabhängig gegebenen Außenwelt nicht stelle. Er argumentiert bezüglich der Existenz einer Außenwelt sowohl gegen den Dogmatismus, der seiner Darstellung nach in Realismus und Idealismus zerfalle, als auch gegen skeptizistische Argumente, da sich die Welt dem Subjekt gegenüber ohnehin nur als "Vorstellung" zeige – die jedoch "nicht" als Imagination zu verstehen sei – und die Wahrnehmung unseren einzigen Zugang zur objektiven Welt darstelle. Gegen den philosophischen Skeptizismus bringt er vor, jener bedürfe eher einer „Therapie“ oder „Kur“ als einer ernsthaften Diskussion. Nach seiner Konzeption ist uns als Subjekt die objektive Welt immer nur im Modus der Vorstellung gegeben, d. h., dass "Objekte" nur als eine Seite der vorstellenden Relation von Subjekt und Objekt ihre Existenz besitzen. Trotzdem kommt bei Schopenhauer der Welt eine Wirklichkeit zu, die über die reiner imaginativer Vorstellung hinausgeht. Demnach wäre es falsch, die Welt lediglich als Imagination des menschlichen Bewusstseins zu verstehen. Wesentlich in der Terminologie Schopenhauers ist vielmehr die Unterscheidung zwischen der in Subjekt und Objekt zerfallenden Vorstellung einerseits und bloßer Imagination oder Fantasie, die damit nicht in Verbindung stehen, andererseits. Schopenhauer widersprach der Überzeugung Kants, dass das "Ding an sich" jenseits aller Erfahrung liegt und deshalb nicht erkannt werden könne. Kants Ding an sich war für ihn zwar auch un"erkennbar" (wir sehen immer nur das, was wir mit unseren Sinnen wahrnehmen), jedoch nicht un"erfahrbar". Durch eine Selbstbeobachtung unserer Person können wir uns dessen gewiss werden, was wir letzten Endes sind: Wir erfahren in uns den Willen. Er ist das "Ding an sich" und damit nicht nur die Triebfeder allen Handelns von Mensch und Tier, sondern auch die metaphysische Erklärung der Naturgesetze. Die Welt ist letztlich blinder, vernunftloser Wille (vgl. Triebtheorie). Schopenhauer ist somit der klassische Philosoph und Hauptvertreter des "metaphysischen Voluntarismus". Doch die Welt "ist" nicht nur Wille, sondern "erscheint" auch als Vorstellung. Sie ist die durch Raum und Zeit sowie Kausalität, die den a priori gegebenen Erkenntnismodus von uns Verstandeswesen bilden, individuierte und verknüpfte Erscheinung des einen Willens. „Die Welt ist meine Vorstellung“ ist der erste Hauptsatz seiner Philosophie. Was uns als Welt erscheint, ist nur "für uns", nicht "an sich". Es gibt für Schopenhauer nichts Beobachtetes ohne Beobachter, kein Objekt ohne ein Subjekt. Die Welt, als Vorstellung betrachtet, zerfällt in Subjekte und Objekte, die sowohl untrennbar als auch radikal voneinander verschieden, jedoch letzten Endes beide nur Erscheinungen des Willens sind. Dieser ist nach Schopenhauer das Wesen der Welt, das sich, in Subjekt und Objekt erscheinend, gleichsam selbst betrachtet. Die Welt als Wille. Der Vorstellungswelt liegt der Wille zugrunde, den Schopenhauer als grundlosen Drang versteht. Er stuft den Willen nach den Gegebenheiten seines Wirkens ab, spricht von Ursachen, wenn die Wirkung ihnen gemäß ist, wie z. B. beim elastischen Stoß, von Reizen, wenn die Wirkung ein Energiepotential entlädt, und von Motiven, wenn die Wirkung als Umsetzung bestimmter Absichten berechnet wurde. In diesen Formen also bestimmt der Wille alle Vorgänge der organischen und anorganischen Natur. Er objektiviert sich in der Erscheinungswelt als Wille zum Leben und zur Fortpflanzung. Diese Lehre vom „Primat des Willens“ bildet die zentrale Idee der schopenhauerschen Philosophie, sie hatte weitreichenden Einfluss und begründet die Aktualität von Schopenhauers Werk. Willensfreiheit kennt Schopenhauer, der sich wiederholt mit unterschiedlichem Resultat mit Augustinus auseinandersetzte, nur gemäß seiner berühmt gewordenen These: „Der Mensch kann zwar tun, was er will, aber er kann nicht wollen, was er will.“ Jeglichem Handeln liegt immer und stets der Wille, das heißt "das Wollen" zu Grunde. In der streng kausal geordneten empirischen Welt, der Welt der "Vorstellung", ist kein Platz für einen ohne rein-empirische Ursache handelnden Menschen, und zwar nicht nur in dem Sinne, dass dies unserer Denkweise widerspräche, sondern in dem tieferen Sinne, dass der Wille sich in allen seinen Teilen gemäß dem Gesetz der Kausalität manifestiert. Im Gegensatz zu Berkeley sieht Schopenhauer in der Kausalität kein bloßes gedankliches Konzept, sondern den Willen selbst, welchen zu deuten das Werk des Verstandes ist. Frei ist der Wille nur insofern, als ihm nichts vorschreibt zu sein, was er ist (d. h., dass die Naturgesetze zwar alles bestimmen, was passiert, selbst aber durch kein Gesetz so sind, wie sie sind). Diese Freiheit hat der so verstandene Wille demnach nur vor seiner Manifestation, welche selbst nichts weiter als sein wirksam gewordener Ausdruck ist. Im Falle des Menschen ist dessen wirkendes Wollen durch seinen „Charakter“ – als angeboren und unveränderlich gedacht – bestimmt, welcher willkürlich ist, also aus keinem tieferen Grund existiert. Nur diesem Charakter gemäß kann man wollen. Dennoch spricht Schopenhauer von einer intelligiblen Willensfreiheit: Wenn das Subjekt den zugrunde liegenden Willen erkennt, kann es ihn in bestimmten Momenten der Kontemplation, beispielsweise durch intensiven Kunstgenuss, verneinen. Dies bezeichnet Schopenhauer als Zustand der Melancholie. Verstand und Vernunft. Schopenhauer unterscheidet zwei intellektuelle Vermögen, den Verstand und die Vernunft. Der Verstand äußert sich in unmittelbaren Urteilen über das Angeschaute, beispielsweise zu erkennen, wie stark oder schnell jemand ist, welche Ursache ein Geräusch hat oder in welchem Winkel und mit welcher Kraft ein Speer geworfen werden muss, um sein Ziel zu treffen. Die Vernunft hingegen ist die Fähigkeit, begrifflich zu denken, also Anschauungen unter Begriffe zusammenzufassen, sich Begriffe vorzustellen, den Inhalt von Begriffen miteinander zu vergleichen usw. Diese Lehre vom Denken (Dianoiologie) unterscheidet Schopenhauer von der Lehre vom Sein (Ontologie). Während der Verstand allen Tieren gemein ist, ist die Vernunft das herausragende Merkmal des Menschen. Das menschliche Vernunftvermögen beschrieb Schopenhauer allerdings deutlich skeptischer als etwa Kant oder die reinen Idealisten. Pessimismus und Erlösung. a> am Main im Gewann A 24 Schopenhauer begründete ein System des empirischen und metaphysischen Pessimismus. Der blinde, vernunftlose Weltwille ist für ihn die absolute Urkraft und somit das Wesen der Welt. Die Vernunft ist nur Dienerin dieses irrationalen Weltwillens. Die Welt – als Erzeugnis dieses grundlosen Willens – ist durch und durch schlecht, etwas, das nicht sein sollte, eine Schuld. Eine schlechtere Welt kann es überhaupt nicht geben. Die Welt ist ein „Jammertal“, voller Leiden. Alles Glück ist Illusion, alle Lust nur negativ. Der rastlos strebende Wille wird durch nichts endgültig befriedigt. Die Basis allen Wollens ist Bedürftigkeit, Mangel, also Schmerz. Das Leben „schwingt also, gleich einem Pendel, hin und her zwischen dem Schmerz und der Langeweile“. Schon seiner Anlage nach ist das Menschenleben keiner wahren Glückseligkeit fähig. Jede Lebensgeschichte ist eine Leidensgeschichte, eine fortgesetzte Reihe großer und kleiner Unfälle. Mächtigster Ausdruck des Willens ist der nicht dauerhaft zu befriedigende Geschlechtstrieb. Im „Jammertal“ des Diesseits hält Schopenhauer den Tod für besser als das Leben. Es ist jedoch ein weit verbreiteter Irrtum, daraus eine Aufforderung zur Selbsttötung abzuleiten. Der Suizid stellt keine Lösung dar, weil der metaphysische Wille umgehend eine neue Form findet und so das Lebensrad aufs Neue in Gang bringt. Der Mensch ist jedoch als höchstes irdisches Wesen in der Lage, den Willen für sich zu negieren. Auch die Kunst, vor allem die Musik und die Moral tragen dazu bei, das frustrierende und schmerzvolle Dasein zu überwinden und ins Nirwana einzugehen. Ästhetik. Die Kunst wirkt als zeitweiliges „Quietiv [Beruhigungsmittel] des Willens“. Diese Ästhetik erreicht in der Weltverneinung ihren Höhepunkt. Dem Menschen – als höchster Form des sich in der Erscheinungswelt objektivierenden Willens – ist die Möglichkeit gegeben, den Willen und das Leiden aufzuheben und so in einen Zustand des „Nichtseins“ (eine Art Nirwana) zu gelangen. Das „wahre Kunstwerk“ hilft ihm dabei, indem es das „innere Wesen“ einer Sache, seine Idee, bewusst macht und dem Betrachter auf diese Weise zu einer objektiven Sichtweise verhilft, die ihn aus seiner Subjektivität, seinem „Wollen“, emporhebt. Unter der Gewahrung einer Idee versteht Schopenhauer dabei die Antizipation eines Anschaulichen, seine Ahnung, welche durch das Kunstwerk gereizt wird. Ethik. Moralphilosophisch formuliert Schopenhauer im Unterschied zu Kant eine Mitleidsethik. Der einzige Grund, uneigennützig zu handeln, ist die Erkenntnis des Eigenen im Anderen – das ist Mitleid (wobei der Begriff anders als der heutige Sprachgebrauch ein Mitempfinden bedeutet). Schopenhauer verhandelt die Mitleidsethik im vierten Buch von "Die Welt als Wille und Vorstellung" und vor allem – konkretisierend – in der Preisschrift "Ueber die Grundlage der Moral" (oder auch "Ueber das Fundament der Moral"). Im ersten geht es ihm vor allem um die metaphysische Begründung, im letzten um die empirische Nachweisbarkeit (als Gegenprogramm zu Kant) der Mitleidsethik. Jeder Mensch gilt bei Schopenhauer als Objektivation des Willens. Der einzelne Mensch ist als Subjekt eine Individuation des Willens. Da der Wille bei Schopenhauer als allmächtig gilt, aus ihm alles hervorgeht, hält nun jedes Individuum sich als Individuation des Willens für den Angelpunkt nicht seiner, sondern der Welt überhaupt. Diese Sichtweise resultiert aus der falschen Identifikation der Vorstellungen als Tatsachen, wobei der Nicht-Künstler dabei nicht das „Ding an sich“ (den Willen) hinter den Vorstellungen erkennt und deshalb seine individuellen Vorstellungen als „Dinge an sich“ identifiziert. Im Gegenüber, im anderen Menschen, erkennt nun der Mensch (der individuierte Willen) denselben Willen. Der durch den Willen zur absoluten Bejahung des individuierten Willens strebende Mensch (Egoismus) erkennt nun in seinem Gegenüber, dass nur die absolute Verneinung des Willens des Gegenübers einer absoluten Bejahung des eigenen Willens entspricht. So bemerkt der vom blinden Willen getriebene Mensch, dass in allen anderen Lebewesen derselbe blinde Wille haust und sie ebenso leiden lässt wie ihn. Durch das Mitleid wird der Egoismus überwunden, der Mensch identifiziert sich mit dem Anderen durch die Einsicht in das Leiden der Welt. Nur dadurch kann der Wille, die treibende Kraft nach Schopenhauer, sich selbst am Leben erhalten. Politische Ansichten. Im Zusammenhang mit der Revolution 1848 äußerte sich Schopenhauer zur Rolle des Staates: In der Natur herrsche Gewalt, auch zwischen den Menschen, was die „Masse“ in Vorteil bringe; aber da das Volk ein „ewig unmündiger Souverain“ sei, „unwissend, dumm und unrechtlich“, so müsse dessen „physische Gewalt der Intelligenz, der geistigen Überlegenheit“ unterworfen werden. Zweck des Staates sei es, dass „möglichst wenig Unrecht im Gemeinwesen“ herrsche, zugunsten des Gemeinwohls dürfe der Staat auch Unrechtes tun. Schopenhauer bevorzugte einen aufgeklärten monarchischen Absolutismus, weil sich nur so die Menschen zügeln und regieren ließen. Er sprach von einem „monarchischen Instinkt im Menschen“. Republiken hingegen seien Im Gegensatz zu Hegel hatte er demzufolge keine wesentliche politische Nachwirkung. Wirkung und Rezeption. Kaum ein deutscher Philosoph der Neuzeit hat trotzdem posthum sowohl breite Leserschichten als auch zahlreiche Berühmtheiten aus Kunst und Wissenschaft so unmittelbar erreicht wie Schopenhauer. Literatur. Leo Tolstoi, Richard Wagner, Wilhelm Busch, Thomas Hardy, Friedrich Nietzsche, Henri Bergson, Thomas Mann, Bruno Frank, Hermann Hesse, Albert Einstein, Kurt Tucholsky, Samuel Beckett, Thomas Bernhard und viele andere gaben ihrer Verehrung für den Literaten und Philosophen Schopenhauer Ausdruck. Schopenhauers Einfluss auf die moderne deutsche Literatur ist kaum zu überschätzen. Dies zeigt sich nicht nur in den zahlreichen Anhängern unter den Literaten, sondern auch in seinem Beitrag zur Erneuerung der deutschen Schriftsprache. Insbesondere wegen seiner besonderen Beziehung zur Ästhetik beriefen sich viele Künstler und Schriftsteller auf die Lehre Schopenhauers. Ein Beispiel für Schopenhauers Bedeutung hinsichtlich seiner Haltung zur Sexualität ist der Roman "Wettlauf zum Tod" von Édouard Rod aus dem Jahr 1885. Philosophie und Religion. Friedrich Nietzsche stellte seine "3. Unzeitgemäße Betrachtung" unter den Titel "Schopenhauer als Erzieher": Später freilich verwarf Nietzsche Schopenhauers Philosophie und kehrte dessen Pessimismus in einen radikal-optimistischen Vitalismus um. Dabei bleibt Schopenhauer offensichtlich eine Referenz. Der Philosoph Eduard von Hartmann dagegen kritisierte schon sehr früh an Schopenhauers Lehre die „Verneinung der Welt“ als „feige persönliche Entsagung“. Der Theosoph Johannes Maria Verweyen lehnte die negative Grundhaltung ab: „einer Vorherrschaft der Unlust und des Lebensschmerzes, denen gegenüber dann Lust und Glücksgefühl nicht so richtig aufzukommen vermögen (…)“ Ferdinand Tönnies’ Willenstheorie als Axiomatik der Soziologie in "Gemeinschaft und Gesellschaft" (1887) weist starke Einflüsse Schopenhauers auf. Hermann Graf Keyserling verhöhnte das Artistentum Schopenhauers, dem es innerlich wie äußerlich stets um bloße Darstellung gegangen sei. „[Er ist] Vorgänger des Pragmatismus – nicht als Philosophie, sondern als Methodologie der Wissenschaft […] insofern er den Intellekt als eine bloße Waffe des blinden Lebenswillens im Kampf ums Dasein ansieht […] ist er der Vorgänger Bergsons.“ Max Horkheimers Denken war stark von Schopenhauers Pessimismus beeinflusst: „Daß alles Leben der Macht gehorcht und aus dem Zauberkreis des Egoismus gerade noch die Hingabe an die Sache, die Identifikation mit dem, was nicht ich bin, herauszuführen und ins Nichts hineinzuführen scheint – und das ist ein Mythos – hat Schopenhauer gesehen und war der Welt böse dafür.“ Arnold Gehlen sah Schopenhauers Mitleidsethik als „Teilwahrheit“ im Rahmen seines eigenen Konzepts einer "pluralistischen Ethik" an und wies in diesem Zusammenhang auf die isolierte Lebenssituation des Philosophen hin: Das Mitleidsmotiv sei „verständlich als Stimme eines Mannes, der familienlos, staatenlos und berufslos, als zugereister Frankfurter und Rentier Mühe gehabt hätte, andere Antriebe zu Verpflichtungen in sich zu finden“. Die Verbreitung des Buddhismus in Deutschland lässt sich auch auf Schopenhauers Wirken zurückführen. Er sah in dieser Religion einen Gegenentwurf zur abendländischen Metaphysik und deutete deren Erkenntnisstreben als Mittel, die geistige Isolierung des Individuums zu durchbrechen. Schopenhauer fand zahlreiche Verbindungen zwischen seiner eigenen Philosophie und der buddhistischen Lehre, etwa den Atheismus. Die Indien-Begeisterung vieler damaliger Intellektueller wie auch die ersten Übersetzungen asiatischer Texte wurden durch seine Schriften angeregt. Psychologie. Auch die Psychoanalyse Sigmund Freuds setzt unmittelbar bei Schopenhauers Lehre vom Willen und seiner Negierung an, indem sie die Schäden untersucht, die durch (willentliche oder unfreiwillige) Triebunterdrückung entstehen. Freuds Ansatz kann als Versuch der Re-Rationalisierung des menschlichen Lebens eingeordnet werden, da er eine Methode zur Analyse des schopenhauerschen Begriffs des Willens erarbeitet, mit dem Ziel, diesen kontrollierbar zu machen. Zudem knüpfte Carl Gustav Jung, Hauptvertreter der Analytischen Psychologie, mit seinem Konzept des kollektiven Unbewussten an Schopenhauer an. Der Begründer der Individualpsychologie Alfred Adler deutete den schopenhauerschen Ansatz der Leidensüberwindung als fundamental positiven Aspekt in der menschlichen Entwicklung auf dem Weg von seiner Unmündigkeit bei der Geburt zur individuellen Vollkommenheit. Der bei Schopenhauer auf einen Weltwillen zielende Entwurf wird als schöpferisches Element in jedem Lebewesen interpretiert. Adler sieht Schopenhauers Ansatz zur Verneinung des Lebens vorbereitet in einer feindlichen Beziehung zur Mutter. Weiteres. a> zum 200. Geburtstag von Schopenhauer 1911 gründete Paul Deussen die Schopenhauer-Gesellschaft, wurde ihr erster Präsident und begann mit der (unvollendeten) Herausgabe einer kritischen Schopenhauer-Ausgabe in 14 Bänden. Zum 150. Todestag am 21. September 2010 erschienen Bücher, Zitatsammlungen und Würdigungen. Werke. Maßgebliche Editionen wurden herausgegeben von Arthur Hübscher, Ludger Lütkehaus oder Wolfgang Freiherr von Löhneysen und die zehnbändige Zürcher Ausgabe von Angelika Hübscher. Architektur (Informatik). Architektur (von "archē" ‚Anfang‘, ‚Ursprung‘, ‚Grundlage‘, ‚das Erste‘ und "téchne" ‚Kunst‘, ‚Handwerk‘, auch ‚Gebäude‘, ‚Haus‘, ‚Dach‘) bedeutet allgemein ‚Baukunst mit zweckbestimmter Gestaltung‘. Speziell in der Informatik bezieht sich „Architektur“ auf informationstechnische Systeme, ihre Zusammensetzung aus verschiedenen Komponenten und deren Zusammenwirken. Der Ausdruck wird in unterschiedlichen Bereichen und Zusammenhängen angewendet. Herkunft des Begriffs. Im 20. Jahrhundert wurde die aus dem Bauwesen stammende Bezeichnung "Architektur" verallgemeinert und auf andere geplante, komplexe Strukturen und deren Konzeption (Entwurf) übertragen. Die angewandte Informatik hat den übertragenen Architekturbegriff übernommen. Dies spiegelt wider, dass nach Anwenderanforderungen gearbeitet wird und das Zusammenspiel vieler unterschiedlicher Komponenten berücksichtigt werden muss. Verwendungsbereiche. Der Architekturgedanke erfuhr insbesondere in der Informations- und Softwarearchitektur große Bedeutung, als 1987 durch Kent Beck und Ward Cunningham die Entwurfsmuster des Mathematikers und Architekturtheoretikers Christopher Alexander auf die Softwareerstellung übertragen wurden. Hierbei wurde die große Verwandtschaft deutlich, die das Verstehen in der Informatik mit dem von Architekten oder Stadtplanern aufweist: bestimmte Anforderungen führen zu einem zu erstellenden Funktionsumfang, der durch einzelne Komponenten realisiert werden muss. Ein Architekturmodell von Objekten insbesondere aus der Informatik, das als Vorlage für die Entwicklung und somit als Modellmuster dient oder zum Vergleich herangezogen wird, wird "Referenzarchitektur" genannt. Aemilianus (Kaiser). a> des Aemilianus, auf dem der Kriegsgott Mars als Friedensstifter dargestellt wird. Marcus Aemilius Aemilianus (kurz Aemilian'"; * 207 oder 213 in Djerba; † 253) war im Jahr 253 römischer Kaiser. Leben. Cornelia Supera, Gattin des Aemilianus Aemilianus wurde entweder 207 oder 213 im afrikanischen Djerba geboren; nach dem mittelbyzantinischen Historiker Johannes Zonaras war er ein Libyer. Seine Frau hieß Cornelia Supera, über eventuelle Kinder ist nichts bekannt. Aemilianus wurde um 252 als Statthalter in die Provinz Niedermösien entsandt, wo ihm im Frühjahr 253 ein Sieg über den Gotenkönig Kniva gelang. Kniva forderte von Aemilianus eine Erhöhung der jährlichen römischen Tributzahlungen, die er von Trebonianus Gallus 251 erzwungen hatte. Aemilianus jedoch weigerte sich, worauf Kniva sein Heer in Bewegung setzte. Aemilianus versprach seinen Soldaten die Gelder, die bisher die Goten erhalten hatten; seine Truppen überraschten die Goten und schlugen sie vernichtend. Dieser unerwartete Sieg begeisterte seine Soldaten so sehr, dass sie ihn sofort nach Ende der Schlacht (wohl im Juli 253) zum Kaiser ausriefen. Aemilianus marschierte nun mit seiner Armee gegen Rom, um sich die Kaiserwürde zu sichern. Kaiser Gallus und sein Sohn Gaius Vibius Volusianus zogen dem Usurpator auf der Via Flaminia entgegen, woraus man schließen kann, dass Aemilianus’ Truppen höchstwahrscheinlich nicht in der Überzahl waren. Aus den nachfolgenden Kämpfen bei Interamna, wo sich das Heer des Gallus auflöste, ging jedoch Aemilianus als Sieger hervor. Gallus und sein Sohn flohen, nur um von ihren eigenen Soldaten ermordet zu werden. Aemilianus zog anschließend in Rom ein und ließ sich offiziell vom Senat bestätigen. Zonaras spricht davon, dass er dem Senat versprach, Thrakien zu sichern und gegen die Sassaniden im Osten zu ziehen. Aemilianus kam jedoch nicht mehr dazu, seine Pläne in die Tat umzusetzen, denn kurz vor seinem Tode hatte Gallus noch den Kommandeur der oberrheinischen Truppen, Valerian, zu Hilfe gerufen. Valerian war nach dem Tod des Gallus selbst zum Kaiser ausgerufen worden, was typisch war für die chaotischen Zustände im Zeitalter der Reichskrise des 3. Jahrhunderts. Nun spielte sich fast dasselbe Schauspiel wie drei Monate zuvor ab: Als Aemilianus’ Soldaten das gegnerische Heer sahen, ermordeten sie ihn und liefen zu Valerian über; vermutlich ereignete sich dies im September 253 im Raum Spoleto. Mehreren Quellen zufolge spielte dabei auch der Umstand eine Rolle, dass die Soldaten nicht von Aemilianus’ Führungsstärke überzeugt waren und glaubten, Valerian würde ein besserer Kaiser sein. Dieser konnte sich auch gegen Silbannacus durchsetzen, der wahrscheinlich nach dem Tod des Aemilianus kurzzeitig in Rom den Kaisertitel beanspruchte. Aurelian. Lucius Domitius Aurelianus (* 9. September 214 in Mösien oder Sirmium, Pannonien; † 275 bei Caenophrurium, in der Nähe von Byzanz), kurz Aurelian, war römischer Kaiser von 270 bis 275. Frühe Jahre. Aurelian wurde 214 wohl im heutigen Mitrovica geboren, angeblich als Sohn eines Landpächters. Bereits früh schlug er eine militärische Laufbahn ein. Über seine Jugend ist äußerst wenig bekannt, da die in der "Historia Augusta" niedergeschriebenen Geschichten vermutlich nur Hoftratsch und Stereotype wiedergeben. Er war jedenfalls mit Ulpia Severina verheiratet und hatte mit ihr eine Tochter. 268 befehligte Aurelian die Reiterei in Oberitalien, als Aureolus in "Mediolanum" (Mailand) einen Aufstand gegen Kaiser Gallienus vom Zaun brach. Zusammen mit dem Oberbefehlshaber der illyrischen Legionen, Claudius Gothicus, schlug Aurelian die Revolte zwar rasch nieder, doch im Anschluss daran wandten auch sie sich offenbar gegen Gallienus und scheinen Mitwisser eines Attentats auf den Kaiser gewesen zu sein. Nach dessen Ermordung übernahm zunächst Claudius die Herrschaft im Reich und beförderte Aurelian zum Oberkommandierenden der Kavallerie. Als 270 wiederum Claudius an der Pest verstarb, übernahm dessen jüngerer Bruder Quintillus den Thron. Aurelian, der sich selbst Hoffnungen auf die Kaiserwürde gemacht hatte, sammelte aber seine Truppen und marschierte von seinem momentanen Aufenthaltsort an der Donau auf Rom zu. Als Quintillus erkannte, dass er gegen Aurelian nicht die geringste Chance hatte, tötete er sich, wie es heißt, selbst. Bekämpfung der Germanen. Unmittelbar nach seinem Herrschaftsantritt sah sich Aurelian gezwungen, eine ganze Reihe von Konflikten aus der Herrschaftszeit des Gallienus und des Claudius weiterzuführen. Seit etwa 260 kontrollierte die Regierung nur noch Italien, Nordafrika und den Balkan sowie (zeitweilig) Teile Spaniens und Westkleinasiens, während sowohl die westlichen als auch die orientalischen Provinzen sich faktisch unabhängig gemacht hatten. Doch bevor sich Aurelian diesem Problem zuwenden konnte, musste der Kern seines Herrschaftsgebietes gegen Angreifer gesichert werden. Einen Krieg mit den Goten, die bereits sein Vorgänger entscheidend geschlagen hatte, konnte er relativ schnell zu Ende führen. Größere Gefahren drohten von den Stämmen der Juthungen, Markomannen und Vandalen, die ständig versuchten, über die Donau überzusetzen und teilweise sogar bis nach Italien gelangten. Mehrere solche Invasionen wurden von Aurelian abgefangen und zerschlagen. Die erste ernste Krise entstand, als erneut Germanen die Alpen überquerten und Italien verwüsteten. Aurelian blockierte die Alpenpässe und hoffte, die Angreifer so zur Aufgabe zwingen zu können. Doch er unterschätzte die Gegner, die seine Truppen in einen Hinterhalt lockten und aufrieben. Die angespannte Situation in Rom entlud sich auf diese Niederlage hin in einem Aufstand der Münzpräger unter Führung des Felicissimus, die sich angeblich für die ständigen Korruptionsvorwürfe Aurelians rächen wollten. Die Revolte, deren genaue Hintergründe umstritten sind, erfuhr offenbar große Unterstützung auch seitens mancher Senatoren. Aurelian setzte das Militär ein. Schließlich wurde der Aufstand niedergeschlagen; die späteren Historiker berichten von über 7.000 Opfern auf beiden Seiten und davon, dass sich darunter auch Senatoren befunden hätten. Inzwischen änderte sich die Lage in Norditalien, als sich die Angreifer in kleine Gruppen zersplitterten, die plündernd Italien durchstreiften. Die Römer hatten jetzt keine Probleme mehr, diese Gruppen sukzessive auszulöschen. Infolge der dramatischen Kämpfe entschied sich Aurelian, Rom mit einem mächtigen Schutzwall zur Abwehr eventueller Barbarenangriffe zu versehen. 271 begannen die Arbeiten an der Aurelianischen Mauer, die sich noch bis in die Regierungszeit des Probus hinein erstreckten. Rückseite Münze Aurelianus', die an Sieg über Palmyra erinnert ORIENS AVG Wiederherstellung der Reichseinheit. Das in drei Teile zerfallene Imperium 272 n. Chr. mit dem gallischen (grün) und palmyrenischen (gelb) Teilreich. Ab dem Jahreswechsel 271/272 sah Aurelian sich zunehmend mit Gegenkaisern wie Septimius und Urbanus konfrontiert, deren Putschversuche jedoch nie von langer Dauer waren. Die größte Herausforderung stellte dagegen Zenobia dar, die Herrscherin über Palmyra, die gemeinsam mit ihrem Sohn Vaballathus die Mehrzahl der Ostprovinzen kontrollierte. Bevor sich Aurelian jedoch den Problemen im Osten zuwandte, musste er zunächst noch die untere Donaugrenze dauerhaft sichern. Im Frühjahr 272 schlug er die Goten vernichtend (dabei kam auch deren König Cannabaudes ums Leben) und entschied sich danach, trotz des Sieges die zunehmend von Barbarenstämmen infiltrierte Provinz Dacia endgültig zu räumen und aufzugeben, da ihre Verteidigung auf Dauer zu kostspielig war. Nun galt es, die kaiserliche Souveränität im Osten des Reiches wiederherzustellen. Das palmyrische Sonderreich der Zenobia erstreckte sich mittlerweile von Ägypten bis nach Kleinasien, wobei nicht ganz klar ist, ob Zenobia erst auf diese Gebiete ausgriff, nachdem ihr Aurelian den Krieg erklärt hatte. Entgegen allen Erwartungen verlief der Feldzug Aurelians jedenfalls erfolgreich. Schon bei ihrem Marsch durch Kleinasien stieß die kaiserliche Armee kaum auf Widerstand, Ägypten ergab sich bald darauf fast kampflos Aurelians Heerführer Probus, angeblich, ohne dass Opfer zu beklagen gewesen wären. Die entscheidenden Kampfhandlungen fanden bei Immae, Emesa und Palmyra statt, der Hauptstadt des Sonderreiches, sie alle konnten von Aurelian für sich entschieden werden. Noch während der Belagerung von Palmyra versuchte Zenobia, zu den persischen Sassaniden zu fliehen, wurde jedoch an der Grenze von römischen Truppen abgefangen. Palmyra ergab sich dem Sieger und wurde zunächst geschont. Doch nach Aurelians Abzug flackerten in den wiedereroberten Gebiet einige Aufstände auf; diesmal kannte Aurelian keine Gnade und schlug jede Art von Widerstand blutig nieder. Dabei wurde auch das blühende Palmyra gebrandschatzt und fast gänzlich dem Erdboden gleichgemacht. Seine große Zeit war damit vorbei. Nach seinem triumphalen Sieg im Osten ging Aurelian daran, auch die Verhältnisse im Westen zu ordnen und das dortige Sonderreich ("Imperium Galliarum") endlich wieder dem Römischen Reich einzugliedern. Dabei kam es zu einem für diese kriegerische Zeit ungewöhnlichen Vorfall: Als die gegnerischen Armeen bei Châlons-en-Champagne aufeinandertrafen, ließ Tetricus, der regierende gallische Sonderkaiser, seine Truppen im Stich und lief, noch während die Schlacht im Gange war, zu Aurelian über. Nach kurzer Gefangenschaft erhielt er eine hohe Stellung in der römischen Magistratur, und das Gebiet des "Imperium Galliarum" wurde im Herbst 274 wieder dem Römischen Reich einverleibt. Wirtschafts- und Religionspolitik. Nun hatte Aurelian innerhalb von vier Jahren das unter Gallienus und Claudius noch massiv vom Zerfall bedrohte Römische Reich wieder geeint und gegen die ständigen Übergriffe der germanischen Stämme einigermaßen abgesichert. Im Folgenden musste er nun die innenpolitischen Probleme, vor allem die brachliegende Wirtschaft, ins Auge fassen. Als erste Maßnahme ließ er zwei hochwertige neue Münztypen einführen (einer davon wurde auch "Aurelianus" genannt), die den Zahlungsverkehr beleben und das Vertrauen der Bürger in den Geldwert wieder steigern sollten. Nach Ansicht vieler Althistoriker hatte die Maßnahme aber ganz im Gegenteil den Effekt, dass die Inflation erst recht zu galoppieren begann, da die Menschen dem neuen Geld nicht trauten. Zunächst aber profitierte Aurelian von den Geldern, die aus den wiedergewonnenen Provinzen in die Staatskasse flossen. Mit dieser Finanzkraft konnte es sich Aurelian leisten, einen heftigen Kampf gegen die allgegenwärtige Korruption zu beginnen. Unter anderem musste er – siehe oben – einen Aufstand der korrupten römischen Münzpräger, den Felicissimus begann, mit Waffengewalt niederschlagen. Im Bereich der Landwirtschaft und des Handels kam es, so die spätere Überlieferung, ebenfalls zu heilsamen Gesetzesneuerungen. Auch in der Religion begünstigte Aurelian einschneidende Veränderungen: Um eine Glaubenseinheit innerhalb des Reichs zu fördern, unterstützte er die Ausbreitung des Sol Invictus-Kults, als dessen Günstling er sich feiern ließ. Der Überlieferung nach soll Aurelian 272 vor der Entscheidungsschlacht gegen Zenobia eine entsprechende Vision gehabt haben. Angeblich gab Aurelian daher 274 die Errichtung eines großen Tempels für den Sonnengott Sol in Rom in Auftrag. Die alten römischen Götter verloren derweil schleichend an Bedeutung. Am 25. Dezember 274 feierten die Römer erstmals auf kaiserlichen Erlass reichsweit den Geburtstag des Sonnengottes, was den Grundstein für das spätere Weihnachtsfest gelegt haben dürfte. Auf Münzen erschien zunehmend die Inschrift "Sol Dominus Imperii Romani" („Sol, Herrscher des Römischen Reiches“), wodurch Aurelian sich selber als oberster Stellvertreter des Sonnengottes auf Erden darstellte. Tod. Der Tod kam für Aurelian abrupt und unerwartet, als er inmitten seiner Planungen für einen Feldzug gegen die Sassaniden in der Nähe von Caenophrurium in Thrakien erstochen wurde. Als Hintermann für die Tat ist sein Privatsekretär Eros überliefert, der angeblich wegen der aurelianischen Korruptionsbekämpfung keinen anderen Ausweg mehr sah. Unter Kaiser Tacitus wurde Aurelian als "divus" vergöttlicht. Rezeption. Die Stadt Orléans in Frankreich wurde ihm zu Ehren benannt, die heutige Namensform entspricht einer Lautverschiebung über die Jahrhunderte. Während seiner kurzen Regentschaft vereinte Aurelian das seit 260 n. Chr. dreigeteilte Reich und war maßgeblich daran beteiligt, die barbarischen Invasoren, welche Italien selbst bedrohten, wieder zurückzuschlagen. Sein Tod kam einer vollständigen Wiederherstellung der politischen Stabilität und der Einrichtung einer langlebigen Dynastie, welche die Ära der Soldatenkaiser beendet hätte, zuvor. Als verhängnisvoll wird allerdings in der modernen Forschung, wie erwähnt, seine Währungsreform gewertet, die die ökonomischen Probleme massiv verschärft habe. Ungeachtet dessen brachte Aurelian das Imperium durch eine sehr kritische Phase seiner Existenz und bewahrte das Reich vor einem Zusammenbruch, ausgelöst von inneren sowie äußeren Faktoren. Insbesondere Kaiser Probus (276 bis 282) gelang auf dieser Grundlage eine weitere Konsolidierung. Doch erst die Herrschaft Diokletians, die 284 begann, sollte die Stabilität fast vollkommen wiederherstellen und die Reichskrise des 3. Jahrhunderts beenden. Gioachino Rossini schuf 1813 die Oper Aureliano in Palmira. Allgemeine Psychologie. Die Allgemeine Psychologie ist eine Teildisziplin der Psychologie. Die Bezeichnung „allgemein“ geht auf ihren universalistischen Ansatz zurück: Sie befasst sich mit den psychischen Funktionen, die allen Menschen gemein sind – im Gegensatz zu anderen Teilbereichen der Psychologie (wie z. B. zur Persönlichkeitspsychologie). Einen bedeutsamen Teilbereich bildet die Kognitionspsychologie. Bereiche. Die Allgemeine Psychologie beschäftigt sich mit u. a. folgenden Fragestellungen: Welche grundlegenden und allgemein gültigen Aussagen lassen sich hinsichtlich des menschlichen Verhaltens und Erlebens machen? Welche Regelmäßigkeiten und Zusammenhänge lassen sich im Erleben und Verhalten der Menschen finden? Andrei Dmitrijewitsch Linde. Andrei Dmitrijewitsch Linde (; * 2. März 1948 in Moskau) ist ein russischer Kosmologe und einer der Begründer der Inflationstheorie des Universums. Leben. Linde kam als Sohn des Physikers Dmitri Pawlowitsch Linde und der Physikstudentin Irina Wjatscheslawowna Rakobolskaja zur Welt. Er studierte von 1966 bis 1971 Physik an der Lomonossow-Universität in Moskau. Danach arbeitete er am Lebedew-Institut, wo er sich 1975 habilitierte (russischer Doktortitel) und von 1975 bis 1985 auch Professor war. Von 1989 bis 1990 arbeitete er am CERN, und seit 1990 ist er Professor für Physik an der Stanford University in Kalifornien. Dort arbeitet auch seine Ehefrau, die theoretische Physikerin Renata Kallosh. Das Ehepaar hat zwei Söhne, Dmitri und Alexander. Auszeichnungen. Linde wurde 2001 mit der Oskar Klein-Medaille für Physik der Universität Stockholm ausgezeichnet, 2002 erhielt er die Dirac-Medaille (ICTP) des ICTP und 2004 wurde ihm der Gruber-Preis für Kosmologie für die Entwicklung der Inflationstheorie verliehen. Seit 2008 ist er Mitglied der National Academy of Sciences, seit 2011 der American Academy of Arts and Sciences. 2012 erhielt er den Fundamental Physics Prize, 2014 den Kavli-Preis in Astrophysik. Apple. Apple Inc. ist ein kalifornisches Unternehmen mit Sitz in Cupertino, das Computer, Smartphones und Unterhaltungselektronik sowie Betriebssysteme und Anwendungssoftware entwickelt und vertreibt. Zudem betreibt es Internet-Vertriebsportale für Musik, Filme und Software. Apple zählt, gemessen an verschiedenen wirtschaftlichen Kennzahlen, zu den größten Unternehmen der Welt. Apple wurde 1976 von Steve Jobs, Steve Wozniak und Ron Wayne als Garagenfirma gegründet und zählte zu den ersten Herstellern von Personal Computern. Das Unternehmen trug maßgeblich zu deren Entwicklung zum Massenprodukt bei. Bei der Einführung der grafischen Benutzeroberfläche und der Maus in den 1980er Jahren nahm Apple mit den Computern Lisa und Macintosh eine Vorreiterrolle ein. Mit dem Erscheinen des iPods 2001, des iPhones 2007 und des iPads 2010 weitete Apple sein Geschäft sukzessive auf andere Produktbereiche aus. Es legte damit die Basis für den bis heute anhaltenden Boom der Märkte für Smartphones und Tabletcomputer. Der 2003 gestartete iTunes Store für Musik- und Film-Downloads wurde das erste kommerziell erfolgreiche Download-Portal und formte diesen Markt entscheidend mit. Heute sind der iTunes Store und der 2008 gestartete App Store zwei der weltgrößten Vertriebswege für digitale Güter. 1976–1980: Gründung. Der Apple I, Smithsonian Museum Das Unternehmen "Apple" wurde am 1. April 1976 von Steve Jobs, Steve Wozniak und Ronald Wayne mit einem Startkapital in Höhe von 1300 US-Dollar gegründet. Der Mitbegründer Wayne verließ Apple bereits elf Tage später. Seine Anteile am Unternehmen verkaufte er dabei für insgesamt 2300 US-Dollar. Das Konzept und die Entwürfe für den Apple I, einen der ersten Personal Computer, entstanden unter Federführung von Steve Wozniak noch im Gründungsjahr in Los Altos im Silicon Valley. Die anschließend mit Hilfe von Steve Jobs montierten Baugruppen des Gerätes wurden ab Juli 1976 bei der Computerkette "Byte Shop" unter dem Slogan "Byte into an Apple" für einen Verkaufspreis von 666,66 US-Dollar in geringen Stückzahlen von etwa 200 Exemplaren veräußert. Zur Entwicklung und Vermarktung des geplanten Nachfolgemodells mit dem Namen "Apple II" waren weitere über die Verkaufserlöse des Apple I hinausgehende Investitionen notwendig. Diese machten 1977 die Umwandlung von "Apple" in eine Kapitalgesellschaft notwendig, wobei die erste größere Investition von Mike Markkula getätigt wurde. Mit seinen eingebrachten 250.000 US-Dollar hielt er fortan 26 Prozent der Firmenanteile. Der im Juni 1977 der Öffentlichkeit vorgestellte kommandozeilenorientierte Apple II entwickelte sich rasch zu einem Verkaufsschlager und gilt als einer der erfolgreichsten Personal Computer seiner Zeit. 1981–1984: Xerox PARC, Lisa und Macintosh. Das LISA OS, eines der ersten Fenstersysteme Beflügelt vom großen Erfolg des Apple II begann das Unternehmen bereits im Herbst 1979 mit der Arbeit an einem neuen zukunftsweisenden Projekt. Unter dem Codenamen „Macintosh“ wurde die Entwicklung eines intuitiv zu bedienenden Computers für breite Bevölkerungsschichten ins Auge gefasst. Der verantwortliche Jef Raskin drängte dabei insbesondere auf die Einbindung einer kurz zuvor durch Xerox vorgestellten grafischen Benutzeroberfläche (engl. "graphical user interface", GUI). Diese verfügte bereits über das grundlegende Konzept heutiger GUIs mit Fenstern, anklickbaren Icons und einer Menüführung zur Bedienung via Computermaus nebst Mauszeiger, das sogenannte WIMP-Paradigma. Damit sollte im Sinne von Apples Projektziel einer einfachen Bedienbarkeit die bei Computern vorherrschende und Spezialwissen voraussetzende kommandozeilenorientierte Oberfläche abgelöst werden. Raskin veranlasste daraufhin Steve Jobs im November 1979, das Forschungszentrum Xerox PARC "(Palo Alto Research Center)" aufzusuchen, um sich selbst ein Bild machen zu können. Jobs war vom GUI des Xerox Alto beeindruckt und entsandte wenige Wochen später weitere Apple-Entwickler zum Begutachten der Technologie. Xerox erhielt im Gegenzug die Gelegenheit, vor Apples Börsengang 100.000 Aktien im Wert von damals einer Million US-Dollar zu erwerben. Ebenso wie dem 1981 vorgestellten Xerox Star mit seinem GUI war auch Apple mit dem 10.000 US-Dollar teuren Apple Lisa zwei Jahre später kein kommerzieller Erfolg beschieden, obwohl dem GUI von Apple bereits einige Verbesserungen wie überlappende Fenster, Dropout-Menüs, Drag and Drop und der Papierkorb hinzugefügt worden waren. Erst 1984 gelang es dem wesentlich preisgünstigeren und in großen Stückzahlen verkauften Macintosh, die grafische Benutzeroberfläche auf dem entstehenden PC-Massenmarkt zu etablieren. 1985–1996: Sculley-Ära. Bereits im Herbst 1982 war Apple auf der Suche nach einem Firmenchef gewesen, da Mike Markkula das Amt abgeben wollte. Die Wahl fiel im Frühjahr 1983 auf John Sculley, der zuvor für zwei erfolgreiche Werbekampagnen von PepsiCo verantwortlich gewesen war und als Marketing-Genie galt. Sculley und Jobs waren zunächst voneinander begeistert: So erklärte Jobs im Mai 1984, Sculleys Arbeitsbeginn bei Apple gehöre zu den schönsten Tagen seiner Karriere. Sculley erklärte daraufhin, Apple habe „nur eine Führungsfigur – Steve und mich.“ Kurze Zeit später kam es jedoch zu immer häufigeren Konflikten zwischen beiden, die im Mai 1985 in einem Putschversuch von Jobs mündeten. Nachdem dieser gescheitert war, wurde Jobs zunächst von seinen Aufgaben als Leiter der Macintosh-Abteilung entbunden und verließ Apple im September 1985, um den Computerhersteller NeXT zu gründen. Nachdem die anfängliche Euphorie abgeflaut war, verkaufte der Macintosh sich nur schleppend, da die Hardware zu leistungsschwach war. Dies änderte sich ab etwa 1986 mit der Vorstellung neuer Modelle wie dem Macintosh Plus. Eine hohe Verbreitung fand die Macintosh-Produktlinie im Desktop-Publishing-Markt, der infolge der WYSIWYG-Fähigkeiten des Macintosh sowie dank Software verschiedener Drittanbieter wie PageMaker und QuarkXPress entstand. Im Jahr 1987 begann eine Gruppe unter der Leitung von Steve Sakoman, an drahtlosen Netzwerken und Handschrifterkennung zu arbeiten. Das Projekt mit dem Codenamen „Newton“ fand die Unterstützung von Sculley, der dafür die Bezeichnung Personal Digital Assistant prägte, und es im Frühjahr 1992 auf der Consumer Electronics Show vorstellte. Das Projekt verzögerte sich jedoch noch mehrfach. Als das erste Gerät, das Newton MessagePad, im Spätsommer 1993 schließlich erschien, war die Handschrifterkennung unausgereift und führte zu Spott bis hin zu einer Parodie in der Fernsehserie Die Simpsons. Da das Macintosh-Betriebssystem in den 1980er Jahren den Wettbewerbern deutlich voraus war, erzielten die Geräte damals Gewinnmargen von teils über 50 %. Mit dem Erscheinen von Microsoft Windows 3.0 im Mai 1990 kam Apple jedoch unter Druck und stellte im Oktober 1990 mit dem Macintosh LC und dem Macintosh Classic zwei deutlich billigere Macintosh-Modelle vor. Dies führte vorübergehend zu höheren Marktanteilen, gleichzeitig sanken Apples Gewinne jedoch deutlich. Da derweil die Kosten für verschiedene Forschungsprojekte deutlich stiegen – alleine das Newton-Projekt erzeugte Entwicklungskosten in Höhe von 100 Mio. US-Dollar – fuhr Apple 1993 erstmals seit mehreren Jahren einen Quartalsverlust ein. Im Juni 1993 musste Sculley schließlich den Posten als CEO räumen und wurde von Michael Spindler abgelöst. Unter Spindler begann Apple 1994, das eigene Betriebssystem Mac OS an andere Hardwarehersteller zu lizenzieren, um so stärker in Konkurrenz mit Microsoft zu treten. Zunächst traten dem Lizenzprogramm nur kleinere Firmen wie Power Computing bei, erst 1996 mit Motorola auch ein größerer Hersteller. Die erhofften Marktanteil-Zugewinne traten jedoch nicht ein, stattdessen hatte sich das konkurrierende Betriebssystem Microsoft Windows weitgehend durchgesetzt. Apple hatte nur noch in den Bereichen Bildung, Web- und Desktop-Publishing größere Bedeutung. In Spindlers Amtszeit fiel der erfolgreiche Umstieg von Motorolas 68k- auf PowerPC-Prozessoren, jedoch auch eine Reihe von technischen Problemen und Managementfehlern, die Anfang 1996 zu seiner Ablösung durch Gil Amelio und zu einer Abschreibung in Höhe von 740 Mio. US-Dollar führten. Apple stand zu diesem Zeitpunkt kurz vor der Zahlungsunfähigkeit oder einer Übernahme durch Oracle, Sun, IBM oder Hewlett-Packard. 1997–2000: Der Weg aus der Krise. Ein dringliches Problem war dabei, dass Apples Betriebssystem als veraltet galt und wesentliche Fähigkeiten wie präemptives Multitasking oder geschützter Arbeitsspeicher fehlten, sodass Probleme in einem einzigen Programm das gesamte Betriebssystem zum Absturz bringen konnten. Nachdem eigene Projekte wie Taligent oder Copland gescheitert waren, sah sich Apple gezwungen, außerhalb des Unternehmens Ausschau nach einem neuen Betriebssystem zu halten. Apple verhandelte daher über den Kauf des Unternehmens Be Incorporated, um deren Betriebssystem BeOS zu nutzen. Die Übernahme scheiterte im November 1996 an den als überhöht empfundenen Forderungen des Be-Chefs Jean-Louis Gassée. Stattdessen übernahm Apple im Dezember 1996 überraschend das Unternehmen NeXT des Apple-Gründers Steve Jobs für etwa 400 Mio. US-Dollar. Mit der Übernahme von NeXT zog bei Apple eine neue Unternehmenskultur ein. Im Sommer 1997 wurde Gil Amelio entlassen und das Board of Directors fast vollständig ausgetauscht. Ein neuer CEO wurde zunächst nicht ernannt. Steve Jobs, der bis dahin eine rein informelle Beraterfunktion innegehabt hatte, wurde Mitglied des Boards, wollte jedoch keine Führungsposition bei Apple übernehmen. Während das Unternehmen nach einem Nachfolger für Amelio suchte, wurde er zunächst Interims-CEO und übernahm die Position zweieinhalb Jahre später schließlich dauerhaft. Auch zahlreiche weitere Schlüsselpositionen im Unternehmen wurden mit NeXT-Mitarbeitern besetzt. Jobs beendete die Lizenzierung des Betriebssystems an andere Hersteller, strich viele laufende Forschungs- und Entwicklungsprojekte und stellte mehrere Produktlinien ein, darunter den Newton, sowie viele Macintosh-Modelle. Die neue Strategie sah nur noch vier Produkte vor: Für Heimanwender waren dies das iBook für den mobilen und der iMac für den stationären Einsatz; an professionelle Anwender richteten sich die leistungsstärkeren Modelle PowerBook und Power Mac. Ein weiteres wichtiges Element der Firmenrettung war ein Abkommen mit dem Erzrivalen Microsoft, das im August 1997 auf der Macworld Expo präsentiert wurde. Dabei investierte Microsoft 150 Mio. US-Dollar in stimmrechtslose Apple-Aktien. Beide Firmen vereinbarten eine Kreuzlizenzierung ihrer Patente sowie eine enge Zusammenarbeit bei der Java-Entwicklung. Außerdem machte Apple den Internet Explorer zum neuen Standard-Webbrowser des Macintosh-Betriebssystems und Microsoft verpflichtete sich, fünf Jahre lang für den Macintosh ebenso viele neue Versionen von Microsoft Office zu veröffentlichen wie für Windows. Ein fehlendes Microsoft Office auf dem Macintosh wurde damals als große Gefahr für Apple angesehen. Im Sommer 1997 erschien Mac OS 8. Während ein Teil des Unternehmens das klassische Mac-Betriebssystem weiterentwickelte, arbeitete eine andere Gruppe an dessen Nachfolger, Mac OS X, der Elemente von NeXTs Betriebssystem NeXTStep (etwa den Mach-Kernel) mit Elementen des klassischen Mac OS (etwa dem Finder) verband. Mac OS X verfügte zudem über zwei Programmierschnittstellen (APIs): die von NeXTStep abstammende Cocoa-API sowie die ab Mac OS 8 verfügbare Carbon-API, die Entwicklern von Software für Mac OS 8 und 9 die spätere Portierung auf Mac OS X erleichtern sollte. Neu war auch die grafische Benutzeroberfläche „Aqua“, die Elemente von NeXTStep (etwa das Dock) und dem klassischen Mac OS (z. B. obere Menüleiste) kombinierte. Mac OS X erschien im Jahr 2000 als Beta-Version, ab 2001 wurde es auf neuen Macs neben Mac OS 9 vorinstalliert und ab 2002 war es Apples alleiniges Standardbetriebssystem. 2001–2006: iPod und Intel-Macs. Seit 1998 schrieb Apple wieder schwarze Zahlen, die Wende war geschafft. Bald darauf präsentierte Apple eine neue Strategie: Der Mac sollte das Zentrum des digitalen Lebens (engl. "digital hub") werden. Im Oktober 1999 erschien das Programm iMovie, das Nutzern ermöglichen sollte, digitale Camcorder – welche gerade zu einem Massenmarkt wurden – an den Mac anzuschließen und aus den Aufnahmen Filme zu produzieren. In den Folgejahren stellte Apple mit iTunes und iPhoto Programme zur Musik- und Fotoverwaltung vor und fasste diese im iLife-Programmpaket zusammen. Im Oktober 2001 stellte Apple den MP3-Player iPod vor, der zunächst nur für Macs verfügbar war. In den nächsten Jahren führte Apple den iTunes Music Store zum Kaufen von Musik ein. Nachdem dieser – ebenso wie der iPod – auch für Windows-Computer bereitgestellt wurde, etablierten beide sich als Marktführer. Ebenfalls im Jahr 2001 begann Apple mit dem Aufbau einer eigenen Einzelhandelspräsenz. Die von Ron Johnson entwickelten Geschäfte verkauften der "Digital-Hub"-Strategie entsprechend auch Peripheriegeräte anderer Hersteller, etwa Digitalkameras oder PDAs, und erlauben Besuchern, die angebotenen Geräte auszuprobieren. Am 6. Juni 2005 kündigte Apple an, in der Macintosh-Produktlinie zukünftig Intel-Prozessoren statt der von IBM und Freescale gefertigten PowerPC-Prozessoren einzusetzen. Im Januar 2006 führte Apple das MacBook Pro als Nachfolger des PowerBook sowie einen neuen iMac ein. In den nächsten Monaten kamen ein neuer Mac mini und der iBook-Nachfolger MacBook auf den Markt. Mit der Einführung des Mac Pro als Nachfolger des Power Mac am 7. August 2006 wurde der Umstieg auf Intel-Prozessoren abgeschlossen. Seit 2007: iPhone und iPad. Im Januar 2007 stellte Apple im Rahmen der Macworld San Francisco das Apple TV und das iPhone vor. Steve Jobs erklärte, dass Apple zusätzlich zum iPod nun zwei weitere Produktkategorien abseits des traditionellen Computer-Geschäfts habe. Um dies widerzuspiegeln, wurde das Unternehmen von "Apple Computer, Inc." in "Apple Inc." umbenannt. Mit der Vorstellung des Tablet-Computers iPad im Januar 2010 erweiterte Apple seine iOS-Produktlinie erneut. Zusammen mit Geräten, die das konkurrierende Betriebssystem Android benutzen, dominieren Apples iOS-Geräte seitdem die rapide wachsenden Märkte für Smartphones und Tablets. Im August 2011 trat Steve Jobs aus gesundheitlichen Gründen als CEO zurück, sein Nachfolger wurde Tim Cook. Die letzten Jahre unter Jobs sowie die ersten Jahre unter Cook waren vor allem durch den großen Erfolg der iOS-Geräte geprägt, die im Geschäftsjahr 2015 mehr als drei Viertel des Umsatzes ausmachten und Apple zu einer der größten und finanziell erfolgreichsten Firmen der Welt machten. Die Mac-Sparte, deren Betriebssystem 2012 in OS X umbenannt wurde, wuchs in jener Zeit stetig, aber vergleichsweise langsam, während die iPods rasch an Bedeutung verloren. Im September 2014 wurde mit der Apple Watch eine neue Produktkategorie vorgestellt. Name. Diese zweite Erklärung bestätigt Steve Wozniak in seiner Autobiografie "iWoz". Im Jahr 1981 führte der Unternehmensname erstmals zu Konflikten mit dem Beatles-Label „Apple Records“. Apple vermied einen Prozess um den Namen, indem sie zusicherten, sich nicht in der Musikindustrie zu betätigen. Da die Apple-Rechner in den folgenden Jahren über immer weiter gehende Multimediafähigkeiten verfügten, kam es 1989 schließlich zu einem Rechtsstreit, der mit einer außergerichtlichen Einigung endete. Apples Verkauf des iPods und der Betrieb des iTunes Stores führten erneut zu einem Rechtsstreit, der im Februar 2007 beigelegt wurde. Apple ist seitdem Eigentümer aller Markenrechte am Namen „Apple“ und lizenziert bestimmte Rechte an das Musiklabel. Finanzielle Details wurden nicht genannt. Im September 2011 widersprach Apple der Einrichtung einer Markenanmeldung seitens des Bonner Cafés "apfelkind". Dieses wollte sich ein Logo mit dem Schnittmuster eines Kopfes innerhalb eines Apfels sichern. Apple legte wegen „hochgradiger Verwechslungsgefahr“ Einspruch gegen die Eintragung des Logos beim Deutschen Patent- und Markenamt in München ein. Einen Kompromissvorschlag von Apple, die Logonutzung auf das Café zu beschränken – und das Logo insbesondere nicht für Hüllen für digitale Geräte, Computer- oder Videospiele zu nutzen – lehnte die Besitzerin ab und reagierte mit einer Gegenforderung, auf die Apple nicht einging. Am 17. September 2013 zog Apple den Einspruch beim Patentamt ohne Angabe von Gründen zurück, nachdem ein Vergleich mit dem Café gescheitert war. Apple-Logo. Das erste Logo war eine Zeichnung im Stile eines barocken Kupferstichs, das Isaac Newton unter einem Apfelbaum sitzend zeigte – eine Anspielung auf die Entdeckung der Schwerkraft mithilfe eines Apfels. Dieser Entwurf stammte von Ron Wayne. Man stellte jedoch schnell fest, dass sich dieses Logo nur schlecht reproduzieren ließ, da es viel zu kleinteilig war, und so wurde es wieder verworfen. Die in Regenbogenfarben gestreifte, angebissene Apfelsilhouette wurde 1977 von Rob Janoff entworfen. Oft werden darin Anspielungen auf Isaac Newton oder Alan Turing, der als einer der Väter des Computers gilt, sowie ein Wortspiel mit dem englischen Wort "bite" („Biss“), das genauso klingt wie Byte, gesehen, die Janoff selbst jedoch verneint. Während der Apple II die Farben darstellen konnte, wurde für andere Zwecke zunächst oft eine einfarbige Version des Logos genutzt. Beim Textteil des Logos kam die Schrift "Motter Tektura" von Othmar Motter zum Einsatz, erschienen bei Letraset Ltd. in Großbritannien. Bei den ersten Macintosh-Modellen kam lediglich der farbige Apfel als Bildlogo zum Einsatz. Ab der Betriebssystemversion 7 wurde das Logo in Form einer Wortmarke in Bitstream-Garamond dargestellt, womit die neue TrueType-Fähigkeit besser zur Geltung kam. Seit 1998 wird das Logo nur noch einfarbig dargestellt, jedoch in wechselnden Farben und teilweise mit Oberflächenstrukturen, je nach umgebendem Design. Die Erscheinung der auf den heutigen Produkten befindlichen Logos ist meist farblos. Sie heben sich nur durch ihre Oberflächenstruktur vom Untergrund ab. Mitarbeiter. Zwischen 1997 und 2011 war Steve Jobs CEO von Apple. Nach seinem Rücktritt am 24. August 2011 übernahm Tim Cook, der zuvor als COO für das operative Geschäft zuständig war, diesen Posten. Andere hochrangige Manager sind Angela Ahrendts (Retail), Eddy Cue (Onlinedienste), Craig Federighi (Software), Jonathan Ive (Design), Luca Maestri (Finanzen), Dan Riccio (Hardware), Phil Schiller (Marketing), Bruce Sewell (Juristisches), Johny Srouji (Chipdesign) und Jeff Williams (operatives Geschäft). Vorsitzender "(Chairman)" des Board of Directors ist seit November 2011 Arthur D. Levinson (ehemaliger Chairman und CEO von Genentech). Weitere Mitglieder sind James Bell (ehemaliger Präsident und CFO von Boeing), Apple-CEO Tim Cook, Al Gore (ehemaliger Vizepräsident der USA), Robert Iger (CEO von Disney), Andrea Jung (ehemals Chairwoman und CEO von Avon Products), Ronald D. Sugar (ehemals Chairman und CEO von Northrop Grumman) und Susan Wagner (Mitgründerin von BlackRock). Eric Schmidt (ehemals CEO von Google) verließ am 3. August 2009 das "Board of Directors", da angesichts des zunehmenden Wettbewerbs zwischen Google und Apple Interessenskonflikte befürchtet wurden. Wichtige Mitarbeiter von Apple im Zusammenhang mit der Entwicklung von Lisa und Macintosh waren Jef Raskin (Usability-Spezialist), Andy Hertzfeld, Bill Atkinson und Susan Kare, die u. a. zahlreiche Icons für das Macintosh-System entwarf. Apple beschäftigte im September 2015 rund 110.000 Mitarbeiter (gezählt in Vollzeit-Äquivalenten). Etwa die Hälfte der Angestellten arbeiten im Retail-Bereich. Apple Stores. Besucher eines Apple Stores in Paris probieren Produkte aus. Die Apple Stores verkörpern ein ungewöhnliches Konzept, bei dem sehr großer Wert auf die Interaktion der Besucher mit den Produkten gelegt wird. Um dies umzusetzen, können fast alle ausgestellten Produkte von den Kunden ausprobiert werden; Regale und ähnliche typische Elemente anderer Ladengeschäfte sind nicht vorhanden. Dieses Konzept wird als wesentlicher Grund für den Erfolg der Apple Retail Stores angesehen. Jeder Store enthält eine Genius Bar, an der Kunden mit Apple-Produkten geholfen wird. Apple betreibt weltweit etwa 470 "Apple Retail Stores". Davon befinden sich mehr als die Hälfte in den USA, weitere Stores gibt es in 17 anderen Ländern. In Deutschland gibt es insgesamt 14 Stores: zwei in München (Innenstadt und OEZ) zwei weitere in Hamburg – eines am Jungfernstieg, das andere im Alstertal-Einkaufszentrum – sowie je ein weiteres in Frankfurt am Main in der Freßgass, in Oberhausen im CentrO, in Dresden in der Altmarkt-Galerie, in Augsburg in der City-Galerie, in Köln im Rhein Center, in Sulzbach im Main-Taunus-Zentrum, in Sindelfingen, in Berlin am Kurfürstendamm, in Düsseldorf am Kö-Bogen und in Hannover in der Bahnhofstraße. In der Schweiz existieren vier Apple Retail Stores; zwei in Zürich, einer in Genf und einer in Basel. Die 2004 vorgestellten "„Mini“ Retail Stores" wurden vom Design-Studio Eight Inc. entworfen. Bis 2013 wurden alle Mini Retail Stores durch Geschäfte von regulärer Größe ersetzt. Finanzdaten. Apple zählt, gemessen an verschiedenen betriebswirtschaftlichen Kennzahlen, zu den größten Unternehmen der Welt. Gemessen an der Marktkapitalisierung ist Apple laut der Liste Financial Times Global 500 seit September 2011 mit kurzen Unterbrechungen das wertvollste Unternehmen der Welt. Laut der Liste Fortune Global 500 war Apple 2014 auf Platz 15 der umsatzstärksten Unternehmen der Welt. Gemessen am Gewinn war Apple 2014 auf Platz 3 der in den Forbes Global 2000 gelisteten Unternehmen. Auf den von den Marktforschungsinstituten Millward Brown und Interbrand zusammengestellten Listen der wertvollsten Marken nimmt die Marke "Apple" seit einigen Jahren Platz 1 oder 2 ein. Der Wert aller Aktien Apples übertraf im Herbst 2014 erstmals den Wert aller an der russischen Börse gehandelten Aktien, Apple sei somit „mehr wert als Russland“. Apples Börsengang fand am 12. Dezember 1980 statt. Die Aktie wird an der New Yorker Börse NASDAQ gehandelt und ist Bestandteil der Aktienindizes NASDAQ-100, S&P 500 und Dow Jones. Apple verzichtete seit 1995 auf die Ausschüttung von Dividenden, was um 2010 angesichts hoher Geldreserven von einigen Aktionären zunehmend kritisiert wurde. Nachdem die Finanzreserven des Konzerns auf etwa 100 Milliarden US-Dollar angestiegen waren, kündigte Apple im März 2012 an, ab Juli des Jahres eine Dividende in Höhe von zunächst 0,38 US-Dollar im Quartal zu zahlen. Gleichzeitig kündigte Apple an, eigene Aktien im Wert von 10 Mrd. US-Dollar zurückzukaufen. Bis April 2015 erhöhte Apple das Aktienrückkaufprogramm in mehreren Schritten auf einen Gesamtumfang von schließlich 140 Mrd. US-Dollar bis Ende 2017. Gleichzeitig wurde die Dividende auf schließlich 0,52 US-Dollar pro Quartal angehoben. Produkte. Apple entwirft sowohl Software als auch Hardware und lässt Letztere von Vertragspartnern wie Asus vornehmlich in China fertigen. Die Produkte werden oft als innovativ angesehen und besitzen meist ein funktionales Design. Die klare und schnörkellose Linienführung ist durch Produkte des deutschen Elektrogeräteherstellers Braun inspiriert, die von Dieter Rams entworfen wurden. Betriebssysteme. Apples erste Betriebssysteme waren die in den Apple-II- und Apple-III-Baureihen verwendeten Systeme Apple DOS, SOS und ProDOS. Diese waren kommandozeilenorientiert, wie damals (Ende der 1970er und Anfang der 1980er Jahre) üblich. 1983 stellt Apple mit dem Lisa OS eines der ersten kommerziell erhältlichen Betriebssysteme vor, das vollständig über eine grafische Oberfläche bedient wurde. 1984 wurde mit dem Macintosh das erste grafische Betriebssystem auf den Markt gebracht, das sich in großem Umfang verkaufte. Zwei Jahre später wurde der Apple IIgs vorgestellt, dessen Betriebssystem OS viele Funktionen des Macintosh-Betriebssystems übernahm. Mit der Einstellung der Apple-II-Produktlinie Anfang der 1990er Jahre konzentrierte sich Apple auf die Macintosh-Reihe, deren Betriebssystem bis Version 7 schlicht „System“ und später „Mac OS“ genannt wurde. Mac OS 9 erschien im Jahr 1999. Sein Nachfolger, Mac OS X, übernahm Teile der Oberfläche, basiert jedoch auf einem vollkommen anderen Betriebssystemkern, der auch im mobilen Betriebssystem iOS zum Einsatz kommt. Mit Version 10.8 wurde Mac OS X in OS X umbenannt. Eine Servervariante, OS X Server, ist erhältlich, wird jedoch seit Version 10.7 nicht mehr als eigenständige Betriebssystem-Distribution vertrieben, sondern kann über den App Store nachinstalliert werden. Anwendungen. Apple bietet eine Vielzahl verschiedenster Programme an. Dazu zählen die im Betriebssystem OS X enthaltenen Standardanwendungen, etwa das Medienverwaltungsprogramm iTunes, der Webbrowser Safari, das Fotoverwaltungs- und bearbeitungsprogramm Apple Fotos, das Schreibprogramm TextEdit, der Instant Messenger Nachrichten (mit Audio- und Videochatfunktionen) oder Mail, Kontakte und Kalender. Zusätzlich kann bei jedem neu gekauftem Mac, nach Anmeldung im App Store das Videoschnittprogramm iMovie, das Musikprogramm GarageBand, das Textverarbeitungsprogramm Pages, das Präsentationsprogramm Keynote und das Tabellenkalkulationsprogramm Numbers kostenlos heruntergeladen werden. Außerdem entwickelt Apple mit Logic Pro (Audio und Sequencing) und Final Cut Pro (Videoschnitt) Software für die professionelle Audio- und Videobearbeitung. Die Entwicklung von Aperture (Fotobearbeitung und -verwaltung) wurde von Apple im April 2015 zugunsten von Apple Fotos eingestellt. Open Source. Apple veröffentlicht den Quellcode von Darwin, der gemeinsamen Grundlage von OS X und iOS, unter der APSL. Zudem nutzen OS X und iOS sowie die Entwicklerwerkzeuge verschiedene Open-Source-Projekte, an deren Entwicklung Apple sich beteiligt. Hierzu zählen die Browser-Engine WebKit, die im mobilen Bereich führend ist, die Programmiersprache Swift, die Compiler-Backend-Infrastruktur LLVM und insbesondere Clang (C/C++/Objective-C-Frontend) sowie Teile von Grand Central Dispatch, einer Bibliothek, die es Softwareentwicklern erleichtern soll, Prozessorlast besser auf die Prozessorkerne zu verteilen. Desktops. Apple stellt derzeit drei verschiedene Desktop-Rechner her. Der iMac, bei dem Rechner und Bildschirm in einem Gehäuse kombiniert sind, und der billigere Mac mini richten sich an normale Nutzer, während der Mac Pro auf rechenintensive Aufgaben wie professionelle Videobearbeitung ausgerichtet ist. Notebooks. Apples erster tragbarer Rechner war 1989 der mehr als 7 kg schwere Macintosh Portable. Zwei Jahre später führte Apple mit dem PowerBook die bis heute übliche Notebook-Bauform mit zurückgesetzter Tastatur und Handballenauflage ein. Derzeit stellt Apple drei verschiedene Notebooks her: das neue MacBook, das MacBook Air und das MacBook Pro. iPod. Am 23. Oktober 2001 stellte Apple den iPod vor, im Laufe der Jahre kamen mehrere Modelle hinzu. Er etablierte sich als Marktführer unter den MP3-Playern. Bis September 2012 wurden mehr als 350 Millionen Stück verkauft. Heute bietet Apple drei iPod-Modelle an: iPod shuffle, iPod nano und iPod touch (iOS-basiert). Der iPod classic wurde im September 2014 eingestellt. iOS-Geräte. Am 9. Januar 2007 stellte Apple das iPhone vor, im Herbst des Jahres folgte der erste iPod mit Touchscreen, der iPod touch. Beide nutzen das gleiche Betriebssystem, welches zunächst als "iPhone OS" bezeichnet und im Sommer 2010 mit Version 4.0 in "iOS" umbenannt wurde. Anfang 2010 stellte Apple das iPad vor, ein Tablet, auf dem ebenfalls iOS lief. Im Oktober 2012 wurde zudem das iPad mini vorgestellt, welches über einen kleineren Bildschirm als das normale iPad verfügt. Am 9. September 2015 wurde das iPad Pro vorgestellt, das einen um 70 % größeren Bildschirm hat. Das im September 2006 vorgestellte Apple TV lief zuerst mit einer modifizierten Version von Mac OS X; seit die Hardware im September 2010 runderneuert wurde, läuft auf dem Apple TV eine stark veränderte iOS-Variante, auf der z. B. keine Apps aus dem App Store laufen. Der Apple TV 4. Generation, der am 9. September vorgestellt wurde, läuft unter einem eigenständigen Betriebssystem, tvOS. Apple Watch. Die Apple Watch ist eine Smartwatch, die am 9. September 2014 angekündigt wurde und seit dem 24. April 2015 erhältlich ist. Peripheriegeräte und Unterhaltungselektronik. Apple stellt verschiedene Peripheriegeräte her, darunter Bildschirme wie das Apple Thunderbolt Display (früher Apple Cinema Displays), Eingabegeräte wie Mäuse, Tastaturen (u. a. Wireless Keyboard) und das sogenannte Magic Trackpad sowie WLAN-Geräte (AirPort und Time Capsule). Apple entwickelte zudem die FireWire-Schnittstelle zur Anbindung von Geräten wie Videokameras oder Festplatten, die später unter dem Namen „IEEE 1394“ zu einem Industriestandard wurde. Heute wird diese Schnittstelle zunehmend durch Thunderbolt ersetzt, sodass die FireWire-Schnittstelle in den meisten Produkten der neuen Generationen nicht mehr vorhanden ist. Früher bot Apple weitere Peripheriegeräte wie Drucker (u. a. StyleWriter und LaserWriter) und Scanner, Digitalkameras (u. a. QuickTake und iSight) und das iPod Hi-Fi an. Auch eigenständige Geräte wie der PDA Newton, die Spielekonsole Apple Pippin oder der CD-Player PowerCD wurden verkauft. Viele dieser Geräte waren keine Eigenentwicklungen von Apple, sondern wurden von anderen Herstellern in Apples Auftrag produziert. Barrierefreiheit. Apple stattet seine Produkte mit dem Screenreader VoiceOver aus, der es blinden und sehbehinderten Nutzern ermöglicht, die Geräte ohne fremde Hilfe nach dem Kauf selbstständig in Betrieb zu nehmen und zu benutzen. Ferner kann sowohl unter OS X als auch unter iOS eine sogenannte Braillezeile angeschlossen werden, die den Bildschirminhalt in Punktschrift ausgibt. Neben der Ausgabe des Bildschirms in gesprochener Sprache und Punktschrift beinhalten die Bedienungshilfen optische Anpassungsmöglichkeiten und eine Zoom-Funktion für Menschen mit ausreichendem Sehrest sowie weitere Bedienungshilfen für Hörgeschädigte und von anderen Behinderungen Betroffene. Apple hat als erster Computerhersteller alle angebotenen Geräte softwareseitig barrierefrei gemacht. Der US-Blindenverband "National Federation of the Blind (NFB)" lobte Mitte 2014 Apples Engagement im Bereich der Barrierefreiheit und betonte, dass Apple mehr als jeder andere Hersteller hierfür getan habe. Arbeitsbedingungen bei Zulieferfirmen. Apple lässt seine Produkte vorwiegend von Auftragsfertigern wie Foxconn oder Pegatron in Asien produzieren, deren Arbeitsbedingungen westlichen Standards nicht entsprechen. Arbeitsrechtliche und gesundheitliche Belange der Arbeiter werden oft nicht hinreichend berücksichtigt. Im Jahr 2006 berichtete die britische Zeitung Mail on Sunday über erzwungene Überstunden und Unterschreitungen des gesetzlichen Mindestlohns in zwei Foxconn-Werken. Eine Untersuchung von Apple widersprach dem, stellte jedoch Verstöße gegen den Apple-eigenen Verhaltenskodex für Zulieferer fest. Infolgedessen schloss Apple sich dem Industrieverband EICC an, der einheitliche Verhaltensregeln und Prüfinstrumente definiert, und begann die Zusammenarbeit mit der Nichtregierungsorganisation Verité. Seit 2007 veröffentlicht Apple jährlich einen Bericht, der die Ergebnisse aller im Vorjahr durchgeführten Überprüfungen von Zulieferbetrieben zusammenfasst. Auch in den folgenden Jahren gab es immer wieder Berichte über schlechte Arbeitsbedingungen bei Foxconn und anderen Zulieferbetrieben. Die von Greenpeace unterstützten Public Eye Awards nominierten Foxconn 2011 für einen Negativpreis, da „Dumpinglöhne“ und „unethische bis illegale“ Arbeitsbedingungen zu mindestens 18 Selbstmorden von jungen chinesischen Wanderarbeitern geführt hätten. Anfang 2012 trat Apple der Fair Labor Association (FLA) bei, die im März die Ergebnisse einer unabhängigen Untersuchung der Arbeitsbedingungen bei Foxconn veröffentlichte. In zwei weiteren Untersuchungen seitdem stellte die FLA fest, dass alle im ersten Bericht empfohlenen Maßnahmen umgesetzt wurden. Neben Arbeitszeitverkürzungen und ergonomischen Maßnahmen wurde so etwa der Organisationsgrad in Gewerkschaften stark erhöht. Seit 2012 überwacht Apple die Wochenarbeitszeiten von mehr als einer Million Arbeitern bei Zulieferbetrieben und veröffentlicht diese Daten im Internet. Nach Firmenangaben sank die Häufigkeit der Verstöße gegen die wöchentliche Höchstarbeitszeit von 60 Stunden von 35 % im Jahr 2006 auf durchschnittlich 8 % im Jahr 2014. Dem widerspricht ein Bericht der BBC – „Apple's Broken Promises“ – von Ende 2014, wo als Arbeiter getarnte BBC-Reporter bei Foxconn mit versteckter Kamera unter anderem 12-Stundenschichten für das iPhone 6 und die Überbelegung der Arbeiterheime und die ungeschützte Arbeit mit gefährlichen Chemikalien bewiesen. Umweltschutz. Apple sah sich Vorwürfen von mehreren Umweltschutzorganisationen, darunter Greenpeace, ausgesetzt. Der im August 2006 erstmals veröffentlichte "Guide to Greener Electronics" kritisierte anfangs insbesondere die Verwendung von damals industrieweit üblichen, giftigen Chemikalien wie PVC oder bromhaltigen Flammschutzmitteln sowie die Tatsache, dass Apple keine Pläne zum Verzicht auf diese Chemikalien veröffentlicht hatte. Zudem wurde bemängelt, dass Apple in einigen Ländern keine alten Produkte zum Recycling annimmt. Kritiker, darunter das Online-Magazin "treehugger.com", wiesen auf methodische Mängel hin. Unter anderem habe Greenpeace zu großen Wert auf öffentliche Absichtserklärungen der Unternehmen gelegt. Steve Jobs hat als Reaktion auf die Vorwürfe von Greenpeace im Mai 2007 angekündigt, Apple führend im Bereich des Umweltschutzes machen zu wollen. In seinem Text "A Greener Apple" führte Jobs bereits erreichte Erfolge auf und kündigte weitere Maßnahmen für den Umweltschutz an. Apples Entscheidung, die US-amerikanische Handelskammer wegen ihrer Fundamentalopposition gegen ein Klimaschutzgesetz zu verlassen, stieß bei Umweltschutzverbänden auf Zustimmung. Im November 2012 lag Apple in einer aktualisierten Version des "Guide to Greener Electronics" auf Platz 6 von 16 untersuchten Konzernen. Während Greenpeace den weitgehenden Verzicht auf schädliche Chemikalien sowie eine hohe Recyclingrate positiv bewertete, bemängelte die Organisation vor allem, dass Apple keine ausreichenden Absichtserklärungen zum Umstieg auf erneuerbare Energien und zur Vermeidung von Treibhausgasen sowie zur Verwendung von recyceltem Plastik und Papier veröffentliche. Im Juli 2012 zog Apple sich aus dem Programm "Electronic Product Environmental Assessment Tool" (EPEAT) zurück. Das bedeutet, dass die Produkte des Unternehmens nicht mehr nach den EPEAT-Richtlinien zertifiziert werden, wie es seit 2007 getan wurde. Die Entscheidung wurde öffentlich stark kritisiert, da das EPEAT-Zertifikat für die Beschaffung von Endgeräten durch Bundes- und Landesbehörden der USA notwendig ist. In einer offiziellen Stellungnahme wies Apple darauf hin, dass die eigenen Produkte besonders in Punkten gut abschneiden würden, die von EPEAT nicht berücksichtigt würden. Wenige Tage nach der Stellungnahme erklärte Apple, der Ausstieg aus EPEAT sei ein Fehler gewesen. Die Zertifizierung für sämtliche betroffenen Geräte werde fortgesetzt. Im Frühjahr 2013 stellte Apple Lisa Jackson, die langjährige Chefin der US-Umweltschutzbehörde EPA, als Koordinatorin für Umweltschutz-Aktivitäten ein. Rückdatierte Aktienoptionen. Apple hat zwischen 1997 und 2006 Aktienoptionen in der Höhe von 84 Millionen US-Dollar an Mitarbeiter, darunter der damalige CEO Steve Jobs, rückdatiert. Infolge dieser Affäre traten die Chef-Justiziarin und der Finanzchef von Apple zurück. Jobs selbst habe laut einer internen Untersuchung zwar von der Rückdatierung von Aktienoptionen gewusst, jedoch geglaubt, nicht selbst von dieser Praxis zu profitieren. Folgen für die Bilanzen seien ihm demnach nicht klar gewesen. Vorgehen gegen nichtautorisierte Berichterstattung. Apple ging 2005 gerichtlich gegen die Blogs "Apple Insider", "PowerPage" und "Think Secret" vor, die über unveröffentlichte Produkte berichtet hatten. Apple vermutete hinter den Berichterstattern zum Teil eigene Angestellte, die Unternehmensinterna preisgäben. In den bisherigen gerichtlichen Verfahren gegen die Autoren der Berichte hatte Apple jedoch keinen Erfolg: Ein kalifornisches Gericht urteilte erstmals, dass Blogger und Online-Journalisten denselben verfassungsgemäßen Schutz der Pressefreiheit genießen wie Vertreter der traditionellen Presse. Außerdem musste Apple Prozesskosten der Electronic Frontier Foundation, welche die Blogs vor Gericht unterstützt hatte, in Höhe von 700.000 US-Dollar übernehmen. Spiegel Online kritisiert die „extreme Geheimhaltung“ und schreibt, Apple sei ein „paranoider Konzern, für den Geheimnisse nicht nur Schutz vor der Konkurrenz sind, sondern auch ein Marketingwerkzeug“. So sei kostenlose Werbung durch den Hype und die Gerüchteküche vor der Einführung eines neuen Produkts gewährleistet. Wie wirkungsvoll diese Strategie ist, zeigt eine Schätzung des Harvard-Professors David Yoffie, wonach die Berichterstattung über das iPhone Anfang 2007 etwa die gleiche Wirkung gehabt habe, wie eine 400 Mio. US-Dollar schwere Werbekampagne. Geheimnisverrat werde nach Aussagen eines Augenzeugen mit geheimdienstähnlichen Methoden verfolgt, ohne Rücksicht auf die Privatsphäre der Mitarbeiter. Es herrsche „eine Kultur der Angst“. Softwareverbreitung über den App Store. Apple überprüft alle Programme, die für den iOS-App-Store eingereicht werden, vor der Veröffentlichung auf eine Reihe von technischen – etwa Sicherheit und Stabilität – aber auch inhaltlichen Kriterien. Da es Nutzern schwer möglich ist, aus anderen Quellen als dem App Store native Programme zu beziehen, sehen Kritiker in der Nichtzulassung von Programmen eine Zensur. Datenschutz bei kundenbezogenen Nutzerdaten und Arbeitnehmern. Auch der Umgang des Konzerns mit Datenschutz steht in der Kritik. Die frühere deutsche Bundesjustizministerin Sabine Leutheusser-Schnarrenberger fordert mehr Transparenz und wird im "Spiegel" mit den Worten zitiert: „Den Nutzern von iPhones und anderen GPS-fähigen Geräten muss klar sein, welche Informationen über sie gesammelt werden.“ Der Hinweis, dass sie der Nutzung der Daten widersprechen können, fehlt in Apples Datenschutzerklärung. Daher wurde Apple 2011 der Negativpreis Big Brother Award verliehen. Einen weiteren Big Brother Award erhielt die Apple Retail Germany GmbH, welche die Apple Stores in Deutschland betreibt, für den Umgang mit der Privatsphäre der Belegschaft. Sie soll nicht nur die Verkaufsräume, sondern auch Lager- sowie Pausenräume der Beschäftigten per Video überwacht haben. Eine solche flächendeckende Videoüberwachung von Beschäftigten ist nach dem deutschen Datenschutz jedoch nicht zulässig. EU-Vorwürfe gezielter Kundentäuschung. Die frühere EU-Justizkommissarin Viviane Reding beschuldigt in einem Brief an die Verbraucherschutzminister der Mitgliedsstaaten Apple, die Kunden beim Kauf von Mobiltelefonen und Computern hinsichtlich der ihnen innerhalb der EU zustehenden 24-monatigen gesetzlichen Gewährleistung zu täuschen und eine zusätzliche Garantie gegen Aufpreis zu verkaufen. „Es scheint, dass Apple-Verkäufer es versäumten, den Verbrauchern klare, wahrheitsgemäße und vollständige Informationen über die ihnen nach EU-Recht zustehende gesetzliche Gewährleistung zu geben“, wird darin erläutert. So bietet Apple zusätzlich zur gesetzlichen Gewährleistung eine kostenlose 1-Jahres-Garantie an, schildert aber nicht, dass die Gewährleistung (von Gesetzes wegen) parallel existiert und über die doppelte Laufzeit geht. Der Unterschied kann gerade von Laien nicht erfasst werden. Im Dezember 2011 wurde von italienischen Behörden aufgrund dieser Praxis bereits eine Geldbuße in Höhe von 900.000 Euro gegen Apple erlassen. Steuervermeidung. Apple praktiziert Steuervermeidung bzw. Steueroptimierung in Milliardenhöhe mit legalen Buchungstricks wie dem Double-Irish-With-a-Dutch-Sandwich-Prinzip. Diese Praktik wird zunehmend kritisiert. Ermittler des Senates der Vereinigten Staaten von Amerika veröffentlichten am 20. Mai 2013 einen Bericht über das Vorgehen Apples. Zwischen 2009 und 2012 seien außerhalb der USA erwirtschaftete Gewinne in Höhe von mindestens 74 Milliarden US-Dollar an irische Tochterfirmen geflossen und nicht in den USA versteuert worden. Das Einkommen der irischen Tochtergesellschaft "Apple Operations International" in Höhe von 30 Mrd. US-Dollar in diesem Zeitraum sei in keinem Land der Welt versteuert worden, ein anderes Tochterunternehmen habe seine Einnahmen mit einer Rate von 0,05 % versteuert. Einige der Tochterunternehmen verfügten über keine Angestellten. Am Tag darauf kam es zu einer öffentlichen Anhörung im Senat, an der Apple-CEO Tim Cook teilnahm. Die Europäische Union überprüft derzeit (Stand: Juni 2014), ob die von Apple genutzten Steuersparmodelle europäisches Wettbewerbsrecht verletzen. Die Überprüfung soll klären, ob es sich bei den Steuersparmodellen um unerlaubte staatliche Beihilfen handelt. Im November 2014 wurde durch die sogenannten Luxemburg-Leaks bekannt, dass Apple mithilfe der Beratungsgesellschaft PricewaterhouseCoopers seine steuerlichen Verhältnisse in Luxemburg optimiert hat. Adolf Hitler. Adolf Hitler (* 20. April 1889 in Braunau am Inn, Österreich-Ungarn; † 30. April 1945 in Berlin) war von 1933 bis 1945 Diktator des Deutschen Reiches. Ab Juli 1921 Parteivorsitzender der NSDAP, versuchte er im November 1923 mit einem Putsch von München aus die Weimarer Republik zu stürzen. Mit seiner Schrift "Mein Kampf" (erschienen 1925 und 1926) prägte er die antisemitische und rassistische Ideologie des Nationalsozialismus. Am 30. Januar 1933 wurde Hitler von Reichspräsident Paul von Hindenburg zum deutschen Reichskanzler ernannt. Innerhalb weniger Monate beseitigte sein Regime mit Terror, Notverordnungen, Gleichschaltungsgesetzen, Organisations- und Parteiverboten die pluralistische Demokratie, den Föderalismus und den Rechtsstaat. Politische Gegner wurden in Konzentrationslagern inhaftiert, gefoltert und ermordet. Hitler ließ anlässlich des sogenannten Röhm-Putsches auch potentielle Rivalen in den eigenen Reihen ermorden. Hindenburgs Tod am 2. August 1934 nutzte er, um das Amt des Reichspräsidenten mit dem des Reichskanzlers vereinen zu lassen, und ließ sich folglich als „Führer und Reichskanzler“ anreden. Die deutschen Juden wurden ab 1933, besonders durch die Nürnberger Gesetze vom September 1935 und die Novemberpogrome 1938, zunehmend ausgegrenzt und entrechtet. Mit den Befehlen zur Aufrüstung der Wehrmacht und der Rheinlandbesetzung brach Hitler 1936 den Versailler Vertrag. Die nationalsozialistische Propaganda stellte die Wirtschafts-, Sozial- und Außenpolitik als erfolgreich dar und steigerte so bis 1939 dessen Popularität. 1938 übernahm er die unmittelbare Befehlsgewalt über die Wehrmacht und setzte den Anschluss Österreichs durch. Über das Münchner Abkommen vom 30. September 1938, das ihm die Angliederung des Sudetenlandes an das Deutsche Reich gestattete, setzte er sich mit der „Zerschlagung der Rest-Tschechei“ bereits am 15. März 1939 hinweg. Mit dem Befehl zum Polenfeldzug, am 1. September 1939, löste er den Zweiten Weltkrieg in Europa aus. Am 31. Juli 1940 teilte er Vertretern des Oberkommandos der Wehrmacht seinen Entschluss mit, die Sowjetunion anzugreifen. Den am 22. Juni 1941 eröffneten Krieg gegen die Sowjetunion ließ er unter dem Decknamen „Unternehmen Barbarossa“ als Vernichtungskrieg zur Eroberung von „Lebensraum im Osten“ vorbereiten und führen. Im Zweiten Weltkrieg verübten die Nationalsozialisten und ihre Helfershelfer zahlreiche Massenverbrechen und Völkermorde. Bereits im Sommer 1939 gab Hitler den Auftrag, die „Erwachseneneuthanasie“ vorzubereiten. Zwischen September 1939 und August 1941 wurden in der „Aktion T4“ über 70.000 psychisch kranke sowie geistig und körperlich behinderte Menschen, bei weiteren Formen der Euthanasie mindestens 190.000 Menschen systematisch ermordet. Im Holocaust wurden etwa 5,6 bis 6,3 Millionen Juden, im Porajmos bis zu 500.000 Sinti und Roma ermordet. Hitler autorisierte die wichtigsten Schritte des Judenmordes und ließ sich über den Verlauf informieren. Seine verbrecherische Politik führte zu Millionen Kriegstoten und zur Zerstörung weiter Teile Deutschlands und Europas. Frühe Jahre (1889–1918). a>, aufgestellt 1989. Fels aus dem KZ Mauthausen Adolf Hitler als Kleinkind (um 1890) Familie. Hitlers Familie stammte aus dem niederösterreichischen Waldviertel an der Grenze zu Böhmen. Seine Eltern waren der Zollbeamte Alois Hitler (1837–1903) und dessen dritte Frau Klara Pölzl (1860–1907). Alois trug als unehelicher Sohn von Maria Anna Schicklgruber (1796–1847) 39 Jahre lang deren Familiennamen. Sie hatte sechs Jahre nach seiner Geburt "Johann Georg Hiedler" (1792–1857) geheiratet, der sich zeitlebens nicht zum Vater von Alois erklärte. 1876 ließ ihn sein jüngerer Bruder "Johann Nepomuk Hiedler" (1807–1888), in dessen Haushalt Alois aufgewachsen war, als dessen Vater nachträglich amtlich beurkunden und seinen Nachnamen auf "Hitler" ändern. Klara Pölzl war Johann Nepomuk Hiedlers Enkelin. Johann Nepomuk Hiedler selbst gilt manchen Historikern jedoch ebenfalls als möglicher Vater von Alois; dann wäre Klara Pölzl dessen Halbnichte ersten Grades gewesen. Adolf Hitler hatte drei ältere Geschwister, die noch vor seiner Geburt starben, zwei jüngere, von denen nur seine Schwester Paula das Erwachsenenalter erreichte, sowie zwei ältere Halbgeschwister aus der zweiten Ehe des Vaters: Alois junior und Angela. Sie wuchsen nach dem Tod ihrer Mutter im Haushalt von Hitlers Eltern auf. 1908 äußerte sich Hitler dankbar für den geänderten Familiennamen seines Vaters. Seit 1923 verschwieg er aus politischen Gründen manche Details seiner Herkunft. 1930 verbot er seinem Halbbruder Alois Hitler junior und dessen Sohn William Patrick Hitler, sich in Medien als seine Verwandten vorzustellen, da seine Gegner seine Herkunft nicht kennen dürften. Er wollte das öffentliche Interesse an seiner Abstammung beenden. Als ausländische Medien 1932 wiederholt behaupteten, Hitler habe jüdische Vorfahren, beauftragte dieser zwei Genealogen, seinen Stammbaum zu erforschen. Die Ergebnisse ließ er 1937 veröffentlichen. Nach dem „Anschluss“ Österreichs 1938 erklärte Hitler die Heimatdörfer seiner Eltern und Großeltern, Döllersheim und Strones, zum militärischen Sperrgebiet, ließ zur Errichtung eines großen Truppenübungsplatzes bis 1942 ihre etwa 7000 Einwohner umsiedeln und dabei mehrere Gedenktafeln für seine Vorfahren entfernen. Das Ehrengrab seiner Großmutter wurde zerstört; die Taufakten ihrer Familie wurden bewahrt. Der Journalist Wolfgang Zdral vermutet, dass Hitler damit weitere Zweifel an seinem „Ariernachweis“ unterbinden und Inzest-Vorwürfen wegen der Blutsverwandtschaft seiner Eltern vorbeugen wollte. Die von dem Nationalsozialisten Hans Frank 1945/46 aufgestellte, 1953 postum veröffentlichte „Frankenberger-These“ eines möglichen jüdischen Großvaters Hitlers hat der Hitlerbiograf Werner Maser 1971 widerlegt. Schulzeit. Wegen häufiger Umzüge der Familie besuchte Hitler von 1895 bis 1899 verschiedene Volksschulen in Passau und Lambach, wo er als guter Schüler galt. Nach dem Umzug nach Leonding besuchte er ab 1900 die K. k. Staats-Realschule Linz, wo er sich lernunwillig zeigte und zweimal nicht versetzt wurde. Den Religionsunterricht bei Franz Sales Schwarz verachtete er, nur der Geografie- und Geschichtsunterricht bei Leopold Pötsch interessierte ihn. In "Mein Kampf" (1925) hob er Pötsch als positiven Einfluss hervor. In seiner Realschulzeit las Hitler gern Bücher von Karl May, den er zeitlebens verehrte. Sein Vater hatte ihn für eine Beamtenlaufbahn bestimmt und bestrafte seine Lernunwilligkeit mit häufigem, aber erfolglosem Prügeln. Er starb Anfang 1903. 1904 schickte die Mutter Hitler auf die Realschule in Steyr. Dort wurde er wegen schlechter Schulnoten nicht in die neunte Klasse versetzt. Mit einer vorübergehenden Unpässlichkeit erreichte er, dass er zur Mutter nach Linz zurückkehren und die Realschule ohne Abschluss verlassen durfte. Adolf Hitler (Mitte) als Schuljunge um 1900 In Linz lernte Hitler durch Mitschüler, Lehrer und Zeitungen das Denken des radikalen Antisemiten und Gründers der Alldeutschen Vereinigung Georg von Schönerer kennen. Er besuchte erstmals Aufführungen von Opern Richard Wagners, darunter "Rienzi". Dazu äußerte er später: „In jener Stunde begann es.“ Unter dem Eindruck der Hauptfigur soll er laut seinem damaligen Freund August Kubizek gesagt haben: „Ich will ein Volkstribun werden.“ In "Mein Kampf" stellte Hitler sein ganzes Schulverhalten als Lernstreik gegen den Vater dar und behauptete, ein schweres Lungenleiden habe seinen Schulabschluss vereitelt. Die Gewalttätigkeit des Vaters gilt als mögliche Wurzel für seine Entwicklung. Nach Joachim Fest schwankte er schon in der Schulzeit zwischen intensiver Beschäftigung mit verschiedenen Projekten und Untätigkeit und zeigte ein lebenslanges Unvermögen zu regelmäßiger Arbeit. Kunstmaler in Wien und München. Ab 1903 bezog Hitler eine Halbwaisenrente, ab 1905 erhielt er zudem Finanzhilfen von seiner Mutter und von seiner Tante Johanna. Anfang 1907 wurde bei seiner Mutter Brustkrebs festgestellt. Der jüdische Hausarzt Eduard Bloch behandelte sie. Da sich ihr Zustand rapide verschlechterte, soll Hitler auf der Anwendung von schmerzhaften Iodoform-Kompressen bestanden haben – eine damals erste experimentelle Form der Chemotherapie, bei der die Haut geöffnet wurde und Iodoform-Kompressen aufgelegt wurden, um die Krebsgeschwülste direkt zu behandeln. Die hohe Dosierung führte jedoch zu schweren Nebenwirkungen, die letztlich ihren Tod beschleunigten. Seit 1906 wollte Hitler Kunstmaler werden. Er sah sich zeitlebens als verkannter Künstler. Im Oktober 1907 bewarb er sich erfolglos für ein Kunststudium an der Allgemeinen Malerschule der Wiener Kunstakademie. Er blieb zunächst in Wien, kehrte aber nach Linz zurück, als er am 24. Oktober erfuhr, dass seine Mutter nur noch wenige Wochen zu leben habe. Nach Aussage Blochs und Hitlers Schwester versorgte er den elterlichen Haushalt bis zum Tod der Mutter am 21. Dezember 1907 und sorgte für ihr Begräbnis zwei Tage darauf. Er bedankte sich dabei bei Bloch, schenkte ihm einige seiner Bilder und schützte ihn 1938 vor der Festnahme durch die Gestapo. Indem er sich als Kunststudent ausgab, erhielt Hitler von Januar 1908 bis 1913 eine Waisenrente von 25 Kronen monatlich sowie das Erbe seiner Mutter von höchstens 1000 Kronen. Davon konnte er etwa ein Jahr in Wien leben. Sein Vormund Josef Mayrhofer drängte ihn mehrmals vergeblich, zugunsten seiner minderjährigen Schwester Paula auf seinen Rentenanteil zu verzichten und eine Lehre zu beginnen. Hitler weigerte sich und brach den Kontakt ab. Er verachtete einen „Brotberuf“ und wollte in Wien Künstler werden. Im Februar 1908 ließ er eine Einladung des renommierten Bühnenbildners Alfred Roller ungenutzt, der ihm eine Ausbildung angeboten hatte. Als ihm das Geld ausging, besorgte er sich im August bei seiner Tante Johanna einen Kredit über 924 Kronen. Bei der zweiten Aufnahmeprüfung an der Kunstakademie im September wurde er nicht mehr zum Probezeichnen zugelassen. Er verschwieg seinen Verwandten diesen Misserfolg und seinen Wohnsitz, um seine Waisenrente weiter zu erhalten. Deshalb gab er sich bei Wohnungswechseln als „akademischer Maler“ oder „Schriftsteller“ aus. Ihm drohte die Einziehung zum Wehrdienst in der österreichischen Armee. Nach August Kubizek, der mit ihm 1908 ein Zimmer teilte, interessierte sich Hitler damals mehr für Wagner-Opern als für Politik. Nach seinem Auszug im November 1908 mietete er in kurzen Zeitabständen immer weiter von der Innenstadt entfernte Zimmer an, offenbar weil seine Geldnot wuchs. Im Herbst 1909 bezog er für drei Wochen ein Zimmer in der Sechshauser Straße 56 in Wien; danach war er drei Monate lang nicht behördlich angemeldet. Aus seiner Aussage in einer Strafanzeige ist ersichtlich, dass er ein Obdachlosenasyl in Meidling bewohnte. Anfang 1910 zog Hitler in das Männerwohnheim Meldemannstraße. 1938 ließ er alle Akten über seine Aufenthaltsorte in Wien beschlagnahmen und gab ein Haus in einem gehobenen Wohnviertel als seine Studentenwohnung aus. Ab 1910 verdiente sich Hitler Geld durch nachgezeichnete oder als Aquarelle kopierte Motive von Wiener Ansichtskarten. Diese verkaufte sein Mitbewohner Reinhold Hanisch bis Juli 1910 für ihn, danach der jüdische Mitbewohner Siegfried Löffner. Dieser zeigte Hanisch im August 1910 wegen der angeblichen Unterschlagung eines Hitlerbildes bei der Wiener Polizei an. Hanisch wurde wegen einer Meldung in Wien unter falschem Namen zu sieben Tagen Gefängnis verurteilt. Der Maler Karl Leidenroth zeigte Hitler, wahrscheinlich im Auftrag Hanischs, wegen des unberechtigten Führens des Titels eines „akademischen Malers“ anonym an und erreichte, dass die Polizei ihm das Führen dieses Titels untersagte. Daraufhin ließ Hitler seine Bilder von dem Männerheimbewohner Josef Neumann sowie den Händlern Jakob Altenberg und Samuel Morgenstern verkaufen. Alle drei waren jüdischer Herkunft. Der Mitbewohner im Männerwohnheim Karl Honisch schrieb später, Hitler sei damals „schmächtig, schlecht genährt, hohlwangig mit dunklen Haaren, die ihm ins Gesicht schlugen“, und „schäbig gekleidet“ gewesen, habe jeden Tag in derselben Ecke des Schreibzimmers gesessen und Bilder gezeichnet oder gemalt. In Wien las Hitler Zeitungen und in hoher Auflage verbreitete Schriften von Alldeutschen, Deutschnationalen und Antisemiten, darunter möglicherweise die Schrift "Der Unbesiegbare" von Guido von List. Diese schildert das Wunschbild eines vom „Schicksal“ bestimmten, unfehlbaren germanischen Heldenfürsten, der die Germanen vor dem Untergang retten und zur Weltherrschaft führen werde. Dieser Einfluss, so die Historikerin Brigitte Hamann, könnte Hitlers später beanspruchte Auserwähltheit und Unfehlbarkeit, die ihn keine Irrtümer zugeben ließen, auch erklären. Er las eventuell auch die Zeitschrift "Ostara", die der List-Schüler Jörg Lanz von Liebenfels herausgab, und die von Eduard Pichl verfasste Biografie Georg von Schönerers (1912). Dieser hatte seit 1882 die „Entjudung“ und „Rassentrennung“ per Gesetz gefordert, einen Arierparagraphen für seine Partei eingeführt, ein völkisch-rassistisches Deutschtum gegen den Multikulturalismus der Habsburger Monarchie und als Ersatzreligion für das katholische Christentum vertreten („Los von Rom!“). Hitler hörte Reden seines Anhängers, des Arbeiterführers Franz Stein, und seines Konkurrenten, des Reichsratsabgeordneten Karl Hermann Wolf. Beide bekämpften die „verjudete“ Sozialdemokratie, tschechische Nationalisten und Slawen. Stein strebte eine deutsche Volksgemeinschaft als Aufhebung von Klassenkampf an; Wolf strebte ein Großösterreich an und gründete 1903 die Deutsche Arbeiterpartei (Österreich-Ungarn) (DAP) mit. Hitler hörte und bewunderte auch den populären Wiener Bürgermeister Karl Lueger, der die Christlichsoziale Partei (Österreich) gegründet hatte, für Wiens „Germanisierung“ eintrat und als antisemitischer und antisozialdemokratischer „Volkstribun“ massenwirksame Reden hielt. Hitler diskutierte 1910 nach Aussagen seiner Mitbewohner im Männerwohnheim über politische Folgen von Luegers Tod, lehnte einen Parteieintritt ab und befürwortete eine neue, nationalistische Sammlungsbewegung. Wieweit diese Einflüsse ihn prägten, ist ungewiss. Damals sei, so Hans Mommsen, sein Hass auf die Sozialdemokraten, die Habsburgermonarchie und die Tschechen vorherrschend gewesen. Bis Sommer 1919 sind keine antisemitischen, aber einige hochschätzende Aussagen Hitlers über Juden überliefert. Erst ab Herbst 1919 griff er auf antisemitische Klischees zurück, die er in Wien kennengelernt hatte; erst ab 1923 stellte er Schönerer, Wolf und Lueger als seine Vorbilder dar. Im Mai 1913 erhielt Hitler das Erbe des Vaters (etwa 820 Kronen), zog nach München und mietete in der Schleißheimer Straße 34 (Maxvorstadt) ein anfangs mit Rudolf Häusler geteiltes Zimmer. Ein Grund für den Umzug war seine in Österreich begangene Stellungsflucht vor der militärischen Dienstpflicht. Diese versuchte er nach dem Anschluss Österreichs 1938 durch Beschlagnahmung seiner militärischen Dienstpapiere zu vertuschen. Hitler las unter anderem die rassistischen Schriften Houston Stewart Chamberlains, malte weiterhin Bilder, meist nach Fotografien wichtiger Gebäude, und verkaufte sie an eine Münchner Kunsthandlung. Er behauptete später, er habe sich nach einer „deutschen Stadt“ gesehnt und sich zum „Architektur-Maler“ ausbilden lassen wollen. Tatsächlich wollte er dem Wehrdienst in Österreich entgehen. Nachdem die Münchner Kriminalpolizei ihn am 18. Januar 1914 aufgegriffen und beim österreichischen Konsulat vorgeführt hatte, wurde er am 5. Februar 1914 in Salzburg gemustert, aber als waffenunfähig beurteilt und vom Wehrdienst zurückgestellt. Liebesbeziehungen Hitlers zwischen 1903 und 1914 sind unbekannt. Kubizek und Hanisch zufolge äußerte er sich in Wien verächtlich über weibliche Sexualität und floh vor Annäherungsversuchen von Frauen. Er verehrte zwar 1906 eine Linzer Schülerin, Stefanie Isak (später verh. Rabatsch), aber ohne Kontaktaufnahme. Später bezeichnete er eine Emilie, wohl die Schwester Häuslers, als seine „erste Geliebte“. Auch dies stuft Brigitte Hamann als Wunschdenken ein. Hitler soll schon 1908 wie die Alldeutschen ein Verbot der Prostitution und sexuelle Askese für junge Erwachsene gefordert und letztere aus Angst vor einer Infektion mit Syphilis selbst geübt haben. Soldat im Ersten Weltkrieg. Hitler (ganz rechts) als Soldat, 1915 Wie viele andere begrüßte Hitler im August 1914 begeistert den Beginn des Ersten Weltkriegs. Mit einem Immediatgesuch vom 3. August 1914 bat er den Bayerischen König um Erlaubnis, trotz seiner österreichischen Staatsangehörigkeit in ein bayerisches Regiment eingegliedert zu werden. Nachdem diese erteilt wurde, trat er am 16. August 1914 als Kriegsfreiwilliger in die Bayerische Armee ein und wurde am 8. Oktober 1914 auf den König von Bayern vereidigt. Die von ihm später behauptete, kurzfristig beantragte österreichische Sondergenehmigung gilt als Legende. Am 1. September 1914 wurde er der ersten Kompanie des Reserve-Infanterie-Regiments 16 zugeteilt. Hitler nahm Ende Oktober 1914 an der Ersten Flandernschlacht teil. Am 1. November 1914 wurde er zum Gefreiten befördert und am 2. Dezember 1914 mit dem Eisernen Kreuz II. Klasse ausgezeichnet. Der Grund dafür ist nicht bekannt. Ab dem 9. November 1914 bis zum Ende des Krieges diente Hitler als Ordonnanz und Meldegänger zwischen dem Regimentsstab und den Stäben der Bataillone mit 1,5 bis 5 Kilometer Abstand zur Hauptkampflinie der Westfront. Entgegen seiner späteren Darstellung war er also kein besonders gefährdeter frontnaher Meldegänger eines Bataillons oder einer Kompanie und hatte weit bessere Überlebenschancen als diese. Vom März 1915 bis September 1916 wurde er im Sektor Aubers-Fromelles (Kanton La Bassée) und in der Schlacht von Fromelles (19./20. Juli 1916) eingesetzt. In der Schlacht an der Somme wurde Hitler am 5. Oktober 1916 bei "le Barqué" (Ligny-Thilloy) durch einen Granatsplitter am linken Oberschenkel verwundet, was später zu zahlreichen Spekulationen über eine mögliche Monorchie führte. Er wurde bis zum 4. Dezember im Vereinslazarett Beelitz (Potsdam) gesund gepflegt und hielt sich danach zur Pflege in München auf. Später behauptete er, er habe dort erstmals bemerkt, dass die Kriegsbegeisterung in Deutschland verflogen war. Am 5. März 1917 kehrte Hitler zu seiner inzwischen nach Vimy verlegten alten Einheit zurück. Im Frühjahr nahm er an der Schlacht von Arras, im Sommer an der Dritten Flandernschlacht, ab Ende März 1918 an der deutschen Frühjahrsoffensive und an der kriegsentscheidenden zweiten Schlacht an der Marne teil. Im Mai 1918 erhielt er ein Regimentsdiplom für hervorragende Tapferkeit und das Verwundetenabzeichen in Schwarz. Am 4. August erhielt er das Eiserne Kreuz I. Klasse für einen Meldegang an die Front nach dem Ausfall aller Telefonleitungen. Der Regimentsadjutant Hugo Gutmann, ein Jude, hatte ihm dafür diese Auszeichnung versprochen; der Divisionskommandeur genehmigte sie erst nach zwei Wochen. Hitler verhielt sich laut Zeitzeugen unterwürfig gegenüber Offizieren. „Den Vorgesetzten achten, niemandem widersprechen, blindlings sich fügen“, gab er 1924 vor Gericht als seine Maxime an. Er klagte nie über schlechte Behandlung als Soldat und sonderte sich damit von seinen Kameraden ab. Darum beschimpften sie ihn als „weißen Raben“. Nach ihren Aussagen rauchte und trank er nicht, redete nie über Freunde und Familie, war nicht an Bordellbesuchen interessiert und saß oft stundenlang lesend, nachdenkend oder malend in einer Ecke des Unterstands. Die Nationalsozialisten Fritz Wiedemann und Max Amann behaupteten nach 1933, Hitler habe eine militärische Beförderung abgelehnt, für die er als mehrfach verwundeter Träger des Eisernen Kreuzes beider Klassen in Frage gekommen wäre. Späteres Lob von Hitlers angeblicher Kameradschaft und Tapferkeit durch Kriegskameraden gilt als unglaubwürdig, da die NSDAP sie dafür mit Funktionärsposten und Geld belohnte. Am 15. Oktober 1918 wurde Hitler bei Wervik in Flandern von Senfgas getroffen, erblindete vorübergehend infolge einer Kriegshysterie und wurde vom 21. Oktober bis zum 19. November in der psychiatrischen Abteilung des Reservelazaretts von Pasewalk behandelt. Dort erfuhr er am 10. November von der Novemberrevolution und den Waffenstillstandsverhandlungen von Compiègne. Er bezeichnete die Ereignisse 1924 im Sinne der Dolchstoßlegende als „größte Schandtat des Jahrhunderts“, die ihn zu dem Entschluss veranlasst habe, Politiker zu werden. Dies gilt als unglaubwürdig, da Hitler damals nahezu mittel- und perspektivlos war, keine Kontakte zu Politikern hatte und den angeblichen Entschluss bis 1923 nie erwähnte. Nach Hitlers Feldpostbriefen missbilligte er den spontanen Weihnachtsfrieden 1914. Am 5. Februar 1915 schilderte er die Kampfhandlungen detailliert und äußerte zum Schluss, er hoffe auf die endgültige Abrechnung mit den Feinden im Inneren. 1914 stellte er deutsche Kriegsverbrechen im besetzten Belgien wie Brandschatzung und Massenerschießungen zur Vergeltung von Sabotage als vorbildliche Herrschaftsmethode dar. Sebastian Haffner nannte Hitlers Fronterfahrung sein „einziges Bildungserlebnis“. Ian Kershaw urteilte: „Der Krieg und die Folgen haben Hitler geschaffen.“ Da Hitler sich 1914 erstmals in seinem Leben ganz einer Sache hingegeben habe, dem Krieg, hätten sich seine schon mitgebrachten Vorurteile und Phobien in der Erbitterung über die Kriegsniederlage ab 1916 entscheidend verstärkt. Thomas Weber urteilt dagegen: „Hitlers Zukunft und seine politische Identität waren noch vollkommen offen und formbar, als er aus dem Krieg zurückkehrte.“ Propagandaredner der Reichswehr. Am 21. November 1918 kehrte Hitler aus Pasewalk nach München in die Oberwiesenfeldkaserne des 2. bayerischen Infanterieregiments zurück. Er versuchte der Demobilisierung der Reichswehr zu entgehen, und blieb deshalb bis zum 31. März 1920 Soldat. In dieser Zeit formte er sein politisches Weltbild, entdeckte und erprobte sein demagogisches Redetalent. Vom 4. Dezember 1918 bis 25. Januar 1919 bewachte Hitler mit 15 weiteren Soldaten etwa 1000 französische und russische Kriegsgefangene in einem von Soldatenräten geleiteten Lager in Traunstein. Am 12. Februar wurde er nach München in die 2. Demobilmachungskompanie versetzt und ließ sich am 15. Februar zu einem der Vertrauensmänner seines Regiments wählen. Als solcher arbeitete er mit der Propagandaabteilung der neuen bayerischen Staatsregierung unter Kurt Eisner (USPD) zusammen und sollte seine Kameraden in Demokratie schulen. Am 16. Februar nahm er daher mit seinem Regiment an einer Demonstration des „Revolutionären Arbeiterrates“ in München teil. Am 26. Februar 1919 begleitete Hitler als stiller Beobachter den Trauerzug für den fünf Tage zuvor ermordeten Eisner. Am 15. April ließ er sich zum Ersatzbataillonsrat der Soldatenräte der Münchner Räterepublik wählen, die am 7. April ausgerufen und am 13. April als „kommunistische Räterepublik“ proklamiert worden war. Nach deren gewaltsamer Niederschlagung im Mai 1919 denunzierte Hitler andere Vertrauensleute aus dem Bataillonsrat vor einem Standgericht der Münchner Reichswehrverwaltung als „ärgste und radikalste Hetzer […] für die Räterepublik“, trug damit zu ihrer Verurteilung bei und erkaufte sich das Wohlwollen der neuen Machthaber. Später verschwieg er seine vorherige Zusammenarbeit mit den sozialistischen Soldatenräten. Diese wird meist als Opportunismus oder als Beleg dafür gewertet, dass Hitler bis dahin kein ausgeprägter Antisemit gewesen sein könne. Er schloss sich anders als andere Angehörige seines Regiments auch keinem der gegen die Räterepublik aufgestellten Freikorps an. Im Mai 1919 traf Hitler erstmals den Leiter der „Aufklärungsabteilung“ im Reichswehrgruppenkommando 4, Hauptmann Karl Mayr. Die Annahme, dass dieser Hitler kurz darauf als V-Mann rekrutierte ist ungewiss, da ein damaliges „Verzeichnis von Propagandaleuten“ ihn nicht aufführte. Er nahm vom 5. bis 12. Juni sowie vom 26. Juni bis 5. Juli 1919 auf Empfehlung des 2. Infanterieregiments an „antibolschewistischen Aufklärungskursen“ an der Universität München für „Propaganda bei der Truppe“ teil. Damit erhielt er erstmals eine politische Schulung durch deutschnationale, alldeutsche und antisemitische Akademiker, darunter Karl Alexander von Müller, der Hitlers Talent als Redner entdeckte, und Gottfried Feder. Dieser soll ihn laut Eigenaussage 1925 damals „zur Gründung einer neuen Partei“ angeregt haben. Am 22. Juli wurde Hitler zu einem „Aufklärungskommando“ von 26 ausgewählten Ausbildern der Münchner Garnison abgeordnet, die angeblich von Bolschewismus und Spartakismus „verseuchte“ Soldaten im Reichswehrlager Lechfeld, darunter viele ehemalige Kriegsgefangene, propagandistisch umerziehen sollten. In dem Kurs dazu vom 20. bis 24. August trat Hitler als Redner hervor, der auch mit antisemitischen Äußerungen starke Emotionen wecken konnte. Er stieg anschließend zur „rechten Hand“ Mayrs auf, der ihn vermutlich im Herbst 1919 Ernst Röhm, dem Mitgründer der geheimen rechtsradikalen Offiziersverbindung „Eiserne Faust“, vorstellte. Mayrs V-Leute sollten neue politische Parteien und Gruppen in München überwachen. Dazu nahm Hitler am 12. September 1919 erstmals an einer Versammlung der Deutschen Arbeiterpartei (DAP) im Sterneckerbräu teil, wo er heftig der von einem Diskussionsteilnehmer geforderten Sezession Bayerns vom Reich widersprach. Der Parteivorsitzende Anton Drexler lud ihn wegen seiner Redegewandtheit zum Parteieintritt ein. Im Auftrag Mayrs verfasste Hitler am 16. September für Adolf Gemlich, einen Teilnehmer der Lechfelder „Aufklärungskurse“, ein „Gutachten zum Antisemitismus“. Darin betonte er, das Judentum sei eine Rasse, keine Religion. „Dem Juden“ seien „Religion, Sozialismus, Demokratie […] nur Mittel zum Zweck, Geld- und Herrschgier zu befriedigen. Sein Wirken wird in seinen Folgen zur Rassentuberkulose der Völker.“ Daher müsse der „Antisemitismus der Vernunft“ seine Vorrechte planmäßig und gesetzmäßig bekämpfen und beseitigen. „Sein letztes Ziel aber muss unverrückbar die Entfernung der Juden überhaupt sein. Zu beidem ist nur fähig eine Regierung nationaler Kraft […] nur durch rücksichtslosen Einsatz national gesinnter Führerpersönlichkeiten mit innerlichem Verantwortungsgefühl.“ Mayr stimmte Hitlers Ausführungen weitgehend zu. Aufstieg zum Führer der NSDAP. Hitler erbat am 4. Oktober 1919 Mayrs Erlaubnis, der DAP beizutreten, beantragte am 19. Oktober die Aufnahme und wurde als 55. (nicht wie von ihm stets behauptet siebentes) Mitglied aufgenommen. Ab Herbst 1919 beeinflusste der antisemitische Schriftsteller Dietrich Eckart Hitlers Denken, verschaffte ihm Kontakte zum Münchner Bürgertum sowie wichtigen Geldgebern, förderte ihn als rechtsradikalen Agitator bei sozialen Unterschichten und propagierte ihn ab März 1921 als künftigen charismatischen „Führer“ und Retter der deutschen Nation. Von ihm übernahm Hitler bis 1923 die Verschwörungstheorie eines angeblichen Weltjudentums, das sowohl hinter der US-amerikanischen Hochfinanz als auch dem „Bolschewismus“ stecke. 1920 wurde Hitler „Werbeobmann“ für die DAP. Am 24. Februar benannte sie sich zur NSDAP um. Hitler trug das von ihm, Drexler und Feder verfasste 25-Punkte-Programm vor. Am 16. März 1920 stellte Dietrich Eckart ihn in Berlin einigen Initiatoren des Kapp-Lüttwitz-Putsches (der am Folgetag zusammenbrach) vor, darunter Wolfgang Kapp, Erich Ludendorff, Ernst Graf zu Reventlow und Waldemar Pabst. Bei einem weiteren Berlinbesuch 1920 traf er Heinrich Claß (Alldeutscher Verband), der Hitler anschließend finanziell unterstützte und den Ausbau und die Entschuldung der Parteizeitung "Völkischer Beobachter" vorantrieb. Als Hitler zum 1. April 1920 aus der Reichswehr entlassen wurde, konnte er von seinen Honoraren als Parteiredner leben und erreichte im Jahresverlauf pro Auftritt 1200 bis 2500 Zuhörer. So warb er neue Mitglieder für die NSDAP an, der damals der rechtsradikale Deutschvölkische Schutz- und Trutzbund und die der Thule-Gesellschaft nahestehende Deutschsozialistische Partei (DSP) noch starke Konkurrenz machten. Er hielt Drexler von einer Vereinigung der NSDAP mit der DSP ab, setzte aber am 7./8. August in Salzburg ein Bündnis mit der österreichischen DNSAP durch, um den alldeutschen Anspruch seiner Partei zu unterstreichen. In einer Grundsatzrede vom 13. August 1920 („Warum sind wir Antisemiten?“) erklärte Hitler erstmals ausführlicher seine Ideologie: Alle Juden seien aufgrund ihres angeblich unveränderlichen Rassencharakters unfähig zu konstruktiver Arbeit. Sie seien wesenhaft Parasiten und täten alles zum Erlangen der Weltherrschaft, darunter (so behauptete er) Rassenmischung, Volksverdummung durch Kunst und Presse, Förderung des Klassenkampfes bis hin zum Mädchenhandel. Damit machte er den rassistischen Antisemitismus zum Hauptmerkmal des NSDAP-Programms. Mit einem langen Regenmantel über dem Anzug, einem „Gangsterhut“, einem auffällig sichtbaren Revolver und einer Reitpeitsche zog Hitler die Aufmerksamkeit bei Münchner Empfängen auf sich. Anhänger beschrieben ihn als „grandiosen Volksredner“, der „äußerlich irgendwie zwischen Unteroffizier und Handlungsgehilfen, mit gezierter Unbeholfenheit und zugleich so viel Redegewalt […] vor einem Massenpublikum“ auftrat. Hitler wandelte die SA von einer „Saalschutztruppe“ in eine paramilitärisch geordnete Schläger- und Einschüchterungstruppe der NSDAP um. Er entwarf Hakenkreuzfahnen und Standarten für Machtdemonstrationen der SA in Stadt und Land. Im Juni 1921 war Hitler erneut in Berlin, um Geldmittel für die NSDAP zu beschaffen. Otto Dickel, ein sozialreformerisch orientiertes NSDAP-Mitglied aus Augsburg, wurde als Ersatzredner von der Münchner NSDAP eingeladen und vermittelte ein Treffen am 10. Juli 1921 mit Abgesandten der DSP aus Nürnberg, um über eine Fusion zu verhandeln. Hitler, wohl durch seinen Parteifreund Hermann Esser informiert, erschien. Als Eckart, Drexler und andere Dickels Vorschläge zu einer Programmreform wohlwollend aufnahmen, verließ er wütend das Treffen. Am 11. Juli trat er im Affekt aus der NSDAP aus, wohl weil er seine besondere Stellung in der Partei zu verlieren fürchtete. Am 14. Juli kritisierte er Dickel und dessen Ansichten in einer ausführlichen Erklärung scharf. Für seinen Wiedereintritt, den Dietrich Eckart vermittelte, forderte er diktatorische Machtbefugnisse in der NSDAP. Eine Mitgliederversammlung beschloss am 29. Juli 1921 eine Satzung mit dem geforderten „diktatorischen Prinzip“, übertrug Hitler die Parteileitung und schloss Drexler als „Ehrenvorsitzenden“ von den Entscheidungsprozessen aus. Hitlers Vertrauter Max Amann straffte und zentralisierte dann die Parteiorganisation. So setzte Hitler seinen Führungsanspruch durch und verhinderte eine programmatische Linkswende der Partei. Er war nun ein lokaler Parteiführer, den viele Nationalisten, Demokratiegegner und Militaristen unter Intellektuellen, in der Regierung und Verwaltung Bayerns unterstützten. Um seinen Einfluss auszudehnen, hielt er seit 1920 einige Reden vor dem Berliner Nationalklub und in der Republik Österreich. Er versuchte auch, durch gezielte Angriffe auf politische Gegner öffentlich bekannter zu werden. Im September 1921 verhinderten er und seine Anhänger gewaltsam eine Rede des Separatisten Otto Ballerstedt (Bayernbund) im Münchner Löwenbräukeller. Dafür wurde Hitler wegen Landfriedensbruchs zu drei Monaten Haft verurteilt. Davon verbüßte er im Juni/Juli 1922 einen Monat im Gefängnis München-Stadelheim; der Rest wurde zur Bewährung ausgesetzt. Einzelne damalige britische und US-amerikanische Presseartikel schätzten ihn als „potentiell gefährlich“, als Vertreter einer „Armee der Rache“ oder als „deutschen Mussolini“ ein. Als solchen ließ Hitler sich am 3. November 1922, drei Tage nach Mussolinis erfolgreichem Marsch auf Rom, von Hermann Esser in München ausrufen. Putschversuch. Hitler, rechts neben Erich Ludendorff (Bildmitte), mit weiteren Teilnehmern des Hitler-Ludendorff-Putsches (1924) Während des Kapp-Putsches 1920 zwang die Reichswehrführung in Bayern die Koalitionsregierung Hoffmann zum Rücktritt. Die neue Regierung unter Gustav von Kahr schlug einen Rechtskurs ein, um aus Bayern die „Ordnungszelle“ des Reiches zu machen. Sie gewährte vielen militanten Rechtsextremen wie Hermann Ehrhardt Unterstützung und Unterschlupf. Sie organisierten sich nach der Auflösung der Freikorps im selben Jahr in bewaffneten „Einwohnerwehren“ und „vaterländischen Verbänden“, die den Sturz der Weimarer Republik anstrebten. Einige bejahten und verübten dazu politische Morde oder Fememorde. Nachdem die Alliierten 1921 die Auflösung der bayerischen Einwohnerwehren erzwungen hatten, betraute Kahr Otto Pittinger mit der geheimen Fortführung der „Wehrarbeit“. Im August 1922 planten Pittinger, der Münchner Polizeipräsident Ernst Pöhner und Ernst Röhm einen Putsch, ausgehend von einer geplanten Massenkundgebung der vaterländischen Verbände gegen das Republikschutzgesetz am 25. August. Diese wurde jedoch kurzfristig verboten, so dass sich nur einige Tausend Nationalsozialisten versammelten. Hitler, der den Putschplan kannte, soll darüber vor Wut geschäumt und angekündigt haben, beim nächsten Mal werde er handeln. Die radikalen Kräfte um Röhm und Ludendorff lehnten Pittingers monarchistisch-föderalistischen Kurs ab und widerstanden zunehmend seinen Versuchen zur Einigung der Wehrbewegung. Zwar schloss sich die NSDAP zunächst der am 9. November 1922 gegründeten „Vereinigung vaterländischer Verbände in Bayern“ an, nicht jedoch der Bund Oberland und der Bund Wiking. Im Februar 1923 während der Ruhrbesetzung gründete sich auf Initiative Röhms die Arbeitsgemeinschaft der Vaterländischen Kampfverbände, der sich nun auch die NSDAP bzw. SA anschloss. In ihr übte Hitler maßgeblichen Einfluss aus und definierte als ihre Ziele: Nachdem mehrere völkische Politiker, darunter Hitler, wegen Verstößen gegen das Republikschutzgesetz gerichtliche Vorladungen erhielten, ließ er die Arbeitsgemeinschaft die bayerische Staatsregierung im April 1923 ultimativ auffordern, Haftbefehle gegen „vaterländisch gesinnte Männer Bayerns ein für allemal“ abzulehnen. Sein Einfluss stieg, als er die SA aus ihrer Verbindung mit Ehrhardts Organisation löste. Hitler forderte auch als Erster eine „nationale Maifeier“. Die traditionelle, behördlich genehmigte Demonstration der Linksparteien am Ersten Mai 1923 in München ließ sich jedoch nicht verhindern. Dies schwächte Hitlers Autorität in der NSDAP, so dass er sich eine Weile aus der Öffentlichkeit zurückzog. Im Mai 1923 gründete er mit dem Stoßtrupp Adolf Hitler München aus engsten Vertrauten eine Garde von Leibwächtern und Schlägern. Beim „Deutschen Tag“ am 1. und 2. September 1923 in Nürnberg vereinigten Hitler, Ludendorff und ihre Anhänger den Bund Oberland mit dem Bund Reichskriegsflagge unter Röhm und der SA zum Deutschen Kampfbund. Dieser forderte eine „nationale Revolution“, bei der es wegen der Erfahrung vom 1. Mai primär darum gehe, von den „polizeilichen Machtmittel[n] des Staates“ Besitz zu ergreifen. Am 25. September übernahm Hitler seine politische Führung. Bei einem durch Ulrich Wille junior vermittelten Aufenthalt in Zürich im August 1923 redete er vor geladenen Gästen „Zur Lage in Deutschland“ und erhielt Spenden zwischen 11.000 und 123.000 Franken, meist in bar und ohne Quittung. Ob die unbekannte Gesamtsumme die Putschvorbereitung der NSDAP ermöglichte, ist ungeklärt. Am 26. September ließ der neue Reichskanzler Gustav Stresemann (DVP) den passiven Widerstand gegen die belgisch-französische Ruhrbesetzung abbrechen. Daraufhin rief die Regierung Bayerns dort den Ausnahmezustand nach Artikel 48 aus und übertrug die vollziehende Gewalt im Rang eines „Generalstaatskommissars“ auf Gustav von Kahr. Er sollte offiziell mit seinen „speziellen Beziehungen“ zu bayerischen rechtsradikalen Organisationen und seiner bekannten völkisch-antisemitischen Gesinnung „Dummheiten“ von „irgendeiner Seite“ vorbeugen. Als eine seiner ersten Maßnahmen ließ er ostjüdische Familien aus Bayern ausweisen und ihren Besitz konfiszieren. Ein Artikel mit dem Titel „Die Diktatoren Stresemann – Seeckt“ im "Völkischen Beobachter", der die Reichsregierung scharf angriff, ließ den Konflikt zwischen ihr und der Regierung Bayerns eskalieren. Reichswehrminister Otto Geßler, der nach der Verhängung des Ausnahmezustands über das ganze Reich am 27. September die vollziehende Gewalt innehatte, verbot daraufhin den "Völkischen Beobachter". Kahr und der Kommandeur der Reichswehr in Bayern, Otto von Lossow, verweigerten diesen Befehl. Am 29. September erklärte Kahr, er werde das Republikschutzgesetz in Bayern nicht länger vollziehen. Hitler besuchte am 30. September erstmals die Villa Wahnfried. Der „Bayreuther Kreis“ um Cosima Wagner unterstützte seinen Putschplan und seinen Anspruch, der ersehnte nationale „Führer“ zu werden. Er versuchte am 7. Oktober vergeblich, Lossow und Seißer zum Eintritt in seinen Kampfbund zu bewegen. Am 20. Oktober setzte Geßler Lossow ab. Kahr ernannte Lossow daraufhin demonstrativ zum „Landeskommandanten“ und ließ die in Bayern stationierte 7. Reichswehrdivision auf Bayern vereidigen. Dieser offene Verfassungsbruch war ein erster Schritt zur Lösung Bayerns vom Reich. Nach dem Austritt der SPD aus dem Kabinett Stresemann am 2. November 1923 forderte Reichspräsident Friedrich Ebert am 3. November analog zur Reichsexekution gegen das von Kommunisten mitregierte Sachsen, Reichswehrtruppen gegen Bayern einzusetzen. Der Chef der Heeresleitung, Hans von Seeckt, lehnte dies ab, da man nicht über ausreichende Kräfte verfüge und Reichswehr nicht gegen Reichswehr marschiere. Seeckt verurteilte zwar den Ungehorsam der bayerischen Reichswehrtruppen, ließ aber Kahr gegenüber durchblicken, dass er vor allem im Interesse der Einheit des Reiches an den verfassungsgemäßen Formen festgehalten habe. Zugleich warnte er Kahr und Lossow, sich nicht zu sehr an den völkischen und nationalen Extremisten zu orientieren. Seeckt war zudem sowohl von Vertretern der Schwerindustrie wie Hugo Stinnes als auch zeitweise von Politikern wie Ebert und Stresemann als möglicher „Notstandskanzler“ einer nationalen Diktatur vorgesehen. Auch das „bayerische Triumvirat“ Kahr, Lossow und der Chef der Landespolizei Oberst Hans von Seißer erwog Putschpläne gegen Berlin. In Absprache mit Kontaktleuten in Norddeutschland hofften sie im Oktober 1923, die Reichsregierung durch militärischen Druck dazu zu bringen, ein „nationales Direktorium“ einzusetzen. Lossow sprach bei einem Treffen mit den Führern der paramilitärischen Verbände am 24. Oktober sogar von einem „Marsch auf Berlin“, spielte tatsächlich aber vor allem gegenüber dem Deutschen Kampfbund auf Zeit. Anfang November herrschte indes noch völlige Unklarheit über die etwaige Zusammensetzung des Direktoriums. Während Kahr als Reichspräsident im Gespräch war, wären Hitler und Ludendorff, die ein Direktorium unter ihrer Führung in München wollten, in keinem Fall daran beteiligt worden. Am 3. November stellte Seeckt freilich gegenüber Seißer fest, nichts gegen die rechtmäßige Regierung unternehmen zu wollen. Nach dem 3. November warnte Kahr alle Führer „vaterländischer Verbände“ vor eigenmächtigen Aktionen und lehnte ein Treffen mit Hitler ab. Dieser fürchtete Kahrs Einigung mit der Reichsregierung und verabredete daher am 7. November mit den anderen Kampfbundführern den baldigen Putsch. Am Abend des 8. November ließ er eine Versammlung von etwa 3000 Anhängern Kahrs im Münchner Bürgerbräukeller von seinem Kampfbund umstellen, verschaffte sich mit Waffengewalt Zutritt, rief die „nationale Revolution“ aus und zwang Kahr, Seißer und Lossow mit vorgehaltener Pistole, einer „provisorischen deutschen Nationalregierung“ unter seiner Führung zuzustimmen. Er ließ alle anwesenden Mitglieder der Landesregierung Bayerns festsetzen und ernannte Ludendorff zum Oberbefehlshaber der Reichswehr. Dieser ließ das Triumvirat frei, das die erpresste Zustimmung einige Stunden später widerrief und die Niederschlagung des Putsches vorzubereiten begann. SA und Bund Oberland nahmen zahlreiche wirkliche oder vermeintliche Münchner Juden, deren Namen und Adressen man aus Telefonbüchern entnommen hatte, als Geiseln fest. Obwohl der Münchner Kompaniechef Eduard Dietl, frühes DAP-Mitglied und Ausbilder der SA, und der Offiziersnachwuchs Befehle verweigerten, gegen die Putschisten vorzugehen, konnten die von Ernst Röhm geführten Kampfbundverbände in der Nacht zum 9. November die meisten Münchner Kasernen, den Bahnhof und wichtige Regierungsgebäude nicht besetzen. Daraufhin versuchten Hitler und Ludendorff mit einem Marsch von bis zu 4000 teilweise bewaffneten NSDAP-Anhängern, doch noch den Umsturz in München zu erzwingen. Die Landespolizei unter Seißer stoppte diesen Marsch nahe der Feldherrnhalle. In einem kurzen Feuergefecht starben 16 Putschisten und vier Polizisten. Der bei einem Sturz verletzte Hitler floh und wurde am 11. November im Haus Ernst Hanfstaengls am Staffelsee verhaftet. Die schon in neun deutschen Ländern verbotene NSDAP wurde nun auch in Bayern und am 23. November reichsweit verboten. Ebert hatte Seeckt trotz dessen Befehlsverweigerung noch am 8. November 1923 den Oberbefehl über die Reichswehr übertragen, damit dieser die bayerische Reichswehr zum Vorgehen gegen die Putschisten bewegen konnte. So bewirkte Hitlers und Ludendorffs Alleingang den Zusammenhalt der 7. Division mit der übrigen Reichswehr, durchkreuzte und diskreditierte die Putschpläne von Kahr und Seeckt. Hitler lernte daraus, dass er die Macht „nicht in totaler Konfrontation mit dem Staatsapparat, sondern nur im kalkulierten Zusammenspiel mit ihm“ erreichen konnte und dazu den „Schein der Legalität“ wahren musste. Der dilettantisch inszenierte, gescheiterte Putschversuch wurde ab 1933 zum Triumph umgedeutet und jährlich als heroische Tat mit dem Gedenken an die „Blutzeugen der Bewegung“ gefeiert. Prozess und Festungshaft. Ab 26. Februar 1924 fand vor dem bayerischen Volksgericht, nicht vor dem eigentlich zuständigen Reichsgericht in Leipzig, ein Prozess gegen zehn Putschteilnehmer statt. Ein Verhörprotokoll entlastete Ludendorff trotz seiner monatelangen aktiven Putschvorbereitung: Er habe nichts vom Putschplan gewusst. Hitler stellte sich scheinbar mutig von Beginn an als treibende Kraft des Putschplans dar, bestritt den Vorwurf des Hochverrats und behauptete, die „Novemberverbrecher“ von 1918 seien die eigentlichen Verräter. Damit folgte er dem Angebot des Vorsitzenden Richters Georg Neithardt für ein mildes Urteil, falls er die Putschpläne der als Zeugen geladenen Kahr, Lossow und Seißer verschweige. Die Geiselnahmen und die Tötung der vier Polizisten wurden nicht angeklagt und verhandelt. Die „Justizkomödie“ endete mit Freispruch für Ludendorff und milden Strafen gegen fünf Angeklagte wegen Beihilfe zum Hochverrat. Hitler erhielt trotz laufender Bewährungsstrafe von 1922 widerrechtlich nur die Mindeststrafe von fünf Jahren Festungshaft und musste eine Geldbuße von 200 Goldmark zahlen. Das Gericht verweigerte seine im Republikschutzgesetz vorgesehene Ausweisung als straffällig gewordener Ausländer, da er eine „ehrenhafte Gesinnung“ habe, deutsch denke und fühle, viereinhalb Jahre freiwillig im deutschen Heer Soldat gewesen und dabei verwundet worden sei. Staatsanwalt Ludwig Stenglein widersprach Hitlers vorzeitiger Entlassung: Künftiges Wohlverhalten sei wegen seiner Verstöße gegen Haftauflagen (Briefschmuggel, Abfassen von "Mein Kampf" u. a.) nicht zu erwarten. Dennoch wurde er wegen angeblich guter Führung nach weniger als neun Monaten Haft in der Festung Landsberg am 20. Dezember 1924 entlassen. Bis zum Prozess hatte Hitler sich eher als „Trommler“ der völkischen Bewegung gesehen, der den Weg für einen anderen „Retter Deutschlands“ wie vielleicht Ludendorff frei machen sollte. Durch die Prozessberichte wurde er auch im Norden Deutschlands als radikalster „völkischer“ Politiker bekannt. Seine Anhänger verehrten ihn als Helden und Märtyrer für die nationale Sache. Das stärkte seine Stellung in der NSDAP und sein Ansehen bei anderen Nationalisten. Wegen dieser Zustimmung, dem Propagandaerfolg seiner Verteidigung, seiner Reflexion beim Abfassen von "Mein Kampf" und dem Zerfall der NSDAP während seiner Haft sah Hitler sich nun selbst in der Rolle des großen, von vielen erhofften Führers und Retters Deutschlands. Er wollte die NSDAP nach seiner Entlassung als straff organisierte, von anderen Parteien unabhängige Führerpartei neu aufbauen. Ideologie. Hitler schrieb in seiner Haftzeit 1923/24 weitgehend ohne fremde Hilfe den ersten Teil seiner Programmschrift "Mein Kampf". Eine Autobiografie oder einen Ersatz für das 25-Punkte-Programm beabsichtigte er nicht. Er entfaltete hier seinen seit Sommer 1919 vertretenen Rasse-Antisemitismus mit dem politischen Ziel einer „Entfernung der Juden überhaupt“. Zentralidee war ein angeblicher Rassenkampf, der die Geschichte der Menschheit bestimme und in dem sich zwangsläufig das „Recht des Stärkeren“ durchsetze. Er verstand die „arische Rasse“ der weißen Nordeuropäer, vor allem der Deutschen, als die stärkste, zur Weltherrschaft bestimmte Rasse. Als ihren welthistorischen Todfeind sah er die Juden: Diese strebten ebenfalls die Weltherrschaft an, sodass es zu einem apokalyptischen Endkampf mit ihnen kommen müsse. Denn da sie keine eigene Kraft und Nation besäßen, trachteten sie, alle anderen Rassen als „Parasit im Körper anderer Völker“ zu vernichten. Da dieses Streben in ihrer Rasse angelegt sei, könnten die Arier ihre Rasse nur durch Vernichtung der Juden bewahren. In einer Randbemerkung äußerte er über deutsche Juden: Das belegt Hitlers Bereitschaft zum Völkermord, nicht dessen Planung. Die programmatische Eroberung von Lebensraum im Osten zielte auf „Vernichtung des ‚jüdischen Bolschewismus‘“, wie er das System der Sowjetunion nannte, und die „rücksichtslose Germanisierung“ osteuropäischer Gebiete. Gemeint war das Ansiedeln von Deutschen und Vertreiben („Aussiedlung“), Vernichten oder Versklaven der dortigen Bevölkerung. Eine kulturell-sprachliche Assimilation lehnte er als „Bastardisierung“ und letztlich Selbstvernichtung der eigenen Rasse strikt ab. Damit hatte er, so Kershaw, „eine feste gedankliche Brücke zwischen der ‚Judenvernichtung‘ und einem auf den Erwerb von ‚Lebensraum‘ gerichteten Krieg gegen Rußland hergestellt“. Auf dieser ideologischen Basis sollte Osteuropa bis zum Ural „als Ergänzungs- und Siedlungsraum“ für das nationalsozialistische Deutsche Reich gewaltsam erschlossen werden. Hitlers Lebensraumidee knüpfte an Karl Haushofers Theorien zur Geopolitik an, überbot sie aber, indem er die Eroberung Osteuropas zum primären Kriegsziel der NSDAP und zum Mittel für dauerhafte ökonomische Autarkie und Hegemonie Deutschlands in einem gründlich neugeordneten Europa erhob. Aus Hitlers Rassismus folgte seine Abwertung alles „Schwachen“ als minderwertiges Leben ohne Lebensrecht: „Der Stärkere hat zu herrschen und sich nicht mit dem Schwächeren zu verschmelzen, um so die eigene Größe zu opfern.“ Nach außen wertete er die Slawen als „minderwertige Rasse“ ab, die zu Staatenbildung unfähig und darum künftig von höherwertigen Germanen zu beherrschen sei. Nach innen forderte er etwa eine Zwangssterilisation von zeugungsfähigen Erbkranken, Menschenzucht und Euthanasie. So sagte er auf dem Nürnberger NSDAP-Parteitag 1929: „Würde Deutschland jährlich eine Million Kinder bekommen und 700.000 bis 800.000 der Schwächsten beseitigt, dann würde am Ende das Ergebnis vielleicht sogar eine Kräftesteigerung sein.“ Diese Ideen gehen auf Vertreter der deutschsprachigen Rassenhygiene wie Alfred Ploetz und Wilhelm Schallmayer zurück. Sie betrafen vor allem Menschen mit Behinderungen. Hitlers Vorstellung des „Artfremden“, „Asozialen“ oder „Entarteten“ betraf auch in "Mein Kampf" ungenannte Gruppen, etwa „Zigeuner“ (gemeint: Roma und Jenische), Homosexuelle und christliche Pazifisten wie die Bibelforscher, die Hitler als idealistisch verirrte und darum politisch gefährliche Verweigerer des notwendigen Überlebenskampfs abwertete. Ab 1933 ermordeten die Nationalsozialisten viele Mitglieder dieser Gruppen. Gegen Demokratie, Gewaltenteilung, Parlamentarismus und Pluralismus setzte Hitler ein unbeschränktes Führerprinzip: Alle Autorität in Partei und Staat sollte von einem nicht gewählten, nur per Akklamation bestätigten „Führer des Volkes“ ausgehen. Dieser sollte die ihm untergeordnete Führerebene ernennen, diese wiederum die nächsttiefere Ebene. Die jeweilige „Gefolgschaft“ sollte ihm blind und bedingungslos gehorchen. Diese Führeridee war seit 1800 im modernen Nationalismus entstanden und seit 1900 als Sehnsucht nach einem „Volkskaiser“ oder einem autoritären, kriegerischen Reichskanzler wie Otto von Bismarck im demokratiefeindlichen Lager Allgemeingut geworden. Hitler hatte sie in Linz als Kult um Georg von Schönerer kennengelernt und in Wien die Wirkung antisemitischer Volksreden Karl Luegers erlebt, den er nun als Vorbild eines „Volkstribuns“ hervorhob. Dem Führerprinzip entsprach die paramilitärische Organisation der NSDAP. Er reklamierte die Rolle des nationalen Führers ab November 1922 nach Mussolinis erfolgreichem Marsch auf Rom für sich und übernahm dann auch den damit verbundenen „Führerkult“ und ein voluntaristisches Politikverständnis aus dem italienischen Faschismus. Demgemäß behauptete er, er habe seine Ideologie in Wien bis 1913 als Autodidakt erworben und dieses „granitene Fundament“ seines Handelns seither kaum verändert. Schönerer und Lueger hätten ihm zwar die Augen für die „Judenfrage“ geöffnet und ihn gelehrt, die Juden in allen Varianten als fremdes Volk zu betrachten; aber durch eigenes Forschen habe er die Identität von Marxismus und Judentum erkannt und so seinen instinktiven Hass bis 1909 zu einer „Weltanschauung“ verdichtet. Hitler war zeitlebens römisch-katholisch und glaubte an einen persönlichen Gott, den er als „Allmächtigen“ oder „Vorsehung“ bezeichnete und als in der Geschichte wirksame Macht verstand. Er habe das deutsche Volk geschaffen, zur Herrschaft über die Völker bestimmt und Einzelpersonen wie ihn selbst zu seinen Führern auserwählt. Damit übertrug er die biblische Erwählung des Volkes Israel auf das Deutschtum und integrierte sie in das rassistische Weltbild des Nationalsozialismus. Für dieses beanspruchte er in der Politik einzige und totale Geltung. Gemäß dem NSDAP-Programm, das ein überkonfessionelles „positives Christentum“ gegen den „jüdisch-materialistischen Geist“ im Rahmen des „Sittlichkeits- und Moralgefühls der germanischen Rasse“ bejahte, erklärte Hitler den politischen Antisemitismus zum Willen Gottes und sich zu dessen Vollstrecker: „So glaube ich heute im Sinne des allmächtigen Schöpfers zu handeln: Indem ich mich des Juden erwehre, kämpfe ich für das Werk des Herrn.“ Diesen „Erlösungsantisemitismus“ behielt er bis zu seinem Suizid unverändert bei und hob ihn immer wieder als Kern seines Denkens hervor. Aus dem Scheitern der „Los-von-Rom“-Bewegung Schönerers folgerte er: Der Nationalsozialismus müsse beide Großkirchen und ihre Lehren als „wertvolle Stützen für den Bestand unseres Volkes“ respektieren, schützen und konfessionelle Parteipolitik bekämpfen. Gläubigste Protestanten und Katholiken könnten ohne Gewissenskonflikte in der NSDAP mitwirken. Schönerers Kampf gegen die Kirche habe die Volksseele missachtet und sei taktisch falsch gewesen; ebenso Luegers Judenmission, statt eine Lösung für die „Lebensfrage der Menschheit“ anzustreben. Als Einfluss nach 1918 lobte er nur Gottfried Feder. Da Hitler fast alle seiner Ideen aus dem Antisemitismus, dem Sozialdarwinismus und pseudowissenschaftlichen Biologismus des 19. und 20. Jahrhunderts übernahm, wird seine Ideologie und sein Aufstieg nicht als Ausnahme, sondern Bestandteil und Ergebnis dieser Strömungen eingestuft. So war die Gleichsetzung von Sozialdemokraten, Marxisten und Juden in Österreich-Ungarn bei Christsozialen, Deutschnationalen und böhmischen nationalen Sozialisten seit den 1870er Jahren üblich. Viele Einzelmotive seiner frühen Vorträge wie das angebliche Nomadentum der Juden und ihre angebliche Unfähigkeit zu Kunst, Kultur und Staatenbildung entnahm Hitler aus vielfach neu aufgelegten Schriften deutscher Antisemiten, die er 1919/20 vom Münchner Nationalsozialisten Friedrich Krohn ausgeliehen haben kann. Darunter waren H. Naudh ("Die Juden und der deutsche Staat", 12. Auflage 1891), Eugen Dühring ("Die Judenfrage als Frage des Racencharakters", 5. Auflage 1901), Theodor Fritsch ("Handbuch zur Judenfrage", 27. Auflage 1910), Houston Howard Chamberlain ("Die Grundlagen des 19. Jahrhunderts", 1912), Ludwig Wilser ("Die Germanen", 1913), Adolf Wahrmund ("Das Gesetz des Nomadentums und die heutige Judenherrschaft", München 1919) und die deutsche Übersetzung der Protokolle der Weisen von Zion, die Ludwig Müller von Hausen 1919 veröffentlicht hatte. Hitler benutzte die „Protokolle“ wie vor ihm Feder als Beweis für die angebliche „jüdische Weltverschwörung“. Der erste Band von "Mein Kampf" wurde von 1925 bis 1932 etwa 300.000 Mal verkauft und durch viele Rezensionen in öffentlichen Konflikten weithin bekannt. Beachtet wurden davon jedoch fast nur Hitlers außen- und parteipolitische Ziele, nicht seine Rassentheorie. Fast kein führender Politiker des Auslands las das Buch. Der 1926 erschienene zweite Band "Die nationalsozialistische Bewegung" führte Hitlers Vorstellungen zur Außenpolitik, Aufgabe und Struktur der NSDAP genauer aus, wurde aber noch weniger beachtet. Hitlers Zweites Buch von 1928 führte seinen Antisemitismus, Rassismus und seine bevölkerungspolitischen Pläne näher aus, blieb aber unveröffentlicht. Um die Nationalsozialisten als unglaubwürdige Heuchler zu entlarven, betonten politische Gegner den Widerspruch von Hitlers Rassenideal zu seinem Aussehen. So zitierte Fritz Gerlich in der katholischen Zeitung "Der gerade Weg" 1932 ein „Gutachten“ des „Rassenhygienikers“ Max von Gruber von 1923 („Gesicht und Kopf schlechte Rasse, Mischling …“) und kam anhand der Rasse-Kriterien von Hans F. K. Günther zu dem Ergebnis, Hitler gehöre einer „ostisch-mongolischen Rassemischung“ an. Gerlich wurde vor allem wegen dieser Kritik 1934 ermordet. Die Kritik an Hitlerkult und NS-Ideologie lebte nach 1933 als lebensgefährlicher Flüsterwitz fort: „Blond wie Hitler, groß wie Goebbels, schlank wie Göring und keusch wie Röhm.“ Neugründung und erste Erfolge der NSDAP. Einladung zu einer Versammlung im Münchner Bürgerbräukeller am 27. Februar 1925, einen Tag nach der Neugründung der NSDAP Am 4. Januar 1925 versprach Hitler Bayerns Ministerpräsidenten Heinrich Held, er werde nur noch auf legale Weise Politik machen und der Regierung im Kampf gegen den Kommunismus helfen. Daraufhin hob Held das NSDAP-Verbot zum 16. Februar 1925 auf. Mit einem Leitartikel im "Völkischen Beobachter" gründete Hitler am 26. Februar die NSDAP unter seiner Führung neu. Damit seine Parteizentrale die Aufnahme kontrollieren konnte, mussten alle bisherigen Mitglieder einen neuen Mitgliedsausweis beantragen. Zugleich appellierte er an die Einigkeit der völkischen Bewegung im Kampf gegen Judentum und Marxismus, nicht aber gegen den in Bayern starken Katholizismus. Damit grenzte er sich gegen Ludendorff ab, der den Vorsitz der Nationalsozialistischen Freiheitsbewegung am 12. Februar niedergelegt und so deren Auflösung eingeleitet hatte. Hitler erreichte, dass die während des NSDAP-Verbots entstandenen konkurrierenden Splittergruppen Großdeutsche Volksgemeinschaft, „Deutsche Partei“, „Völkisch-Sozialer Block“ und die Deutschvölkische Freiheitspartei wieder oder neu in die NSDAP eintraten. Die SA ließ er nur noch als Hilfstruppe der NSDAP, nicht mehr als eigenständige paramilitärische Organisation zu, sodass Ernst Röhm ihre Führung abgab. Hitler verfügte nun über einen von Jakob Werlin geliehenen schwarzen Mercedes, einen eigenen Chauffeur und eine Leibgarde, mit der er zu seinen Auftritten fuhr. Er inszenierte diese fortan bis in jedes Detail hinein, indem er den Zeitpunkt seiner Ankunft, sein Betreten des Veranstaltungsraums, der Rednerbühne, seine Kleidung für die jeweils beabsichtigte Wirkung auswählte und seine Rhetorik und Mimik einstudierte. Auf Parteiversammlungen trug er eine hellbraune Uniform mit einer Hakenkreuzbinde, einen Gürtel, einen Lederriemen über der rechten Schulter und kniehohe Lederstiefel. Vor einem größeren Publikum trug er einen schwarzen Anzug mit weißem Hemd und Krawatte, „wenn es angemessen erschien, […] einen weniger martialischen, respektableren Hitler vorzuführen“. Mit seinem oft getragenen blauen Anzug, Lederhosen, Regenmantel, Filzhut und Reitpeitsche wirkte er dagegen wie ein „exzentrischer Gangster“. In der Freizeit trug er am liebsten traditionelle bayerische Lederhosen. Im Hochsommer vermied er es, in Badehose gesehen zu werden, um sich nicht der Lächerlichkeit preiszugeben. Hitler betrieb erfolgreich zunächst die deutschlandweite Ausdehnung der NSDAP durch Gründung neuer Orts- und Regionalgruppen, für die er „Gauleiter“ ernannte. Regionale Redeverbote behinderten diese Arbeit kaum. Er beauftragte Gregor Strasser im März 1925 mit dem Aufbau der NSDAP in Nord- und Westdeutschland. Strasser bildete dort bis September 1925 einen eigenen Parteiflügel, der gegenüber Hitlers Münchner Parteizentrale stärker sozialistische Ziele, einen sozialrevolutionären Kurs sowie eine außenpolitische Zusammenarbeit mit der Sowjetunion befürwortete. Strassers Entwurf eines neuen Parteiprogramms verlangte eine Bodenreform, die Enteignung von Aktiengesellschaften und auch eine Beteiligung der NSDAP am Volksbegehren zur Fürstenenteignung. Hitler ließ ihn zunächst gewähren, gewann aber Strassers Anhänger Joseph Goebbels als Unterstützer seines Kurses und seiner Führerrolle. Im Februar 1926 setzte er gegen Strassers Flügel die Ablehnung des neuen Programmentwurfs und damit auch dessen Forderung einer Fürstenenteignung als Form eines „jüdischen Ausbeutungssystem[s]“ durch. Hitler untersagte jede Diskussion über das Parteiprogramm (von 1920). Im Sommer 1926 führte die NSDAP den Hitlergruß ein und machte so den Hitlerkult zu ihrem zentralen Merkmal. Hitler beherrschte die Partei damals ähnlich wie ab 1933, indem er Streit und Rivalitäten zunächst zuließ und dann die Entscheidung an sich zog. So wurde die persönliche Bindung an den „Führer“ entscheidend für den Einfluss, den ein Funktionär in der Partei hatte, und Hitler wurde in der NSDAP fast unangreifbar. Seit seinem Legalitätsversprechen wollte Hitler die Demokratie mit ihren eigenen Waffen schlagen und untergraben. Die NSDAP sollte in die Parlamente einziehen, ohne dort konstruktiv mitzuarbeiten. Zudem sollte die SA mit spektakulären Aufmärschen, Straßenschlachten und Krawallen öffentliche Beachtung der Partei und ihres Führers erzeugen und zugleich die Schwäche des demokratischen Systems offenbaren. Dazu bediente sich die NSDAP der damals völlig neuen Methoden der Werbung und Massenbeeinflussung (→ NS-Propaganda). Grundlegend für deren Erfolg war Hitlers massenwirksame Rhetorik. Er griff tagespolitische Themen auf, um regelmäßig und gezielt von der „Schuld der Novemberverbrecher von 1918“, ihrem „Dolchstoß“, der „bolschewistischen Gefahr“, der „Schmach von Versailles“, dem „parlamentarischen Wahnsinn“ und der Wurzel allen Übels zu reden: „den Juden“. Mit seiner Ruhrkampagne und der Broschüre "Der Weg zum Wiederaufstieg" versuchte er, die Unterstützung der Ruhrindustrie zu gewinnen. Bei der Reichstagswahl 1928 blieb die NSDAP mit 2,6 Prozent der Stimmen jedoch „eine unbedeutende, wenn auch lautstarke Splitterpartei“. Die stabilisierten wirtschaftlichen Verhältnisse und der anhaltende Wirtschaftsaufschwung („Goldene Zwanziger“) boten radikalen Parteien bis 1929 kaum Ansätze für ihre Agitation. Der 1929 von NSDAP und DNVP gemeinsam initiierte Volksentscheid gegen den Young-Plan, der die offenen Reparationsfragen zwischen Deutschland und seinen ehemaligen Kriegsgegnern regeln sollte, scheiterte zwar. Aber Hitler und seine Partei erhielten bei den Landtagswahlen in Thüringen im Herbst 1929 erstmals erhebliche Zustimmung im nationalistisch-konservativen Bürgertum. Auch das Presseimperium des DNVP-Vorsitzenden Alfred Hugenberg unterstützte Hitler fortan, weil er in ihm und der NSDAP lenkbare Mittel sah, den deutschnationalen Kräften zu einer Massenbasis zu verhelfen. Infolge der 1929 einsetzenden Weltwirtschaftskrise zerbrach in Deutschland am 27. März 1930 die Weimarer Koalition. Dem Reichskanzler Hermann Müller (SPD), der noch eine demokratisch gesinnte Reichstagsmehrheit hatte, und dem ersten Präsidialkabinett von Heinrich Brüning (Zentrum) folgte die Reichstagswahl 1930: Dabei steigerte die NSDAP ihren Stimmenanteil auf 18,3 Prozent und ihre Reichstagssitze von 12 auf 107 Abgeordnete. Damit war sie als zweitstärkste Partei ein relevanter Machtfaktor in der deutschen Politik geworden. Im Ulmer Reichswehrprozess schwor Hitler als Zeuge der Verteidigung am 25. September 1930, er werde seine „ideellen Ziele unter keinen Umständen mit ungesetzlichen Mitteln erstreben“ und Parteigenossen, die sich nicht an diese Vorgabe hielten, ausschließen. Dann drohte er: „Wenn unsere Bewegung in ihrem legalen Kampf siegt, wird ein deutscher Staatsgerichtshof kommen; und der November 1918 wird seine Sühne finden, und es werden Köpfe rollen.“ Bei einer Zeugenvernehmung deckte Rechtsanwalt Hans Litten 1931 auf, dass Hitler weiterhin NS-Propaganda für einen gewaltsamen Umsturz zugelassen und somit seinen Legalitätseid gebrochen hatte. Hitler wurde wegen Meineides angezeigt. Obwohl genügend Beweise vorlagen, um ihn auszuweisen, wurde das Verfahren verschleppt und eingestellt. Währenddessen versuchte Kanzler Brüning, Hitler zur Zusammenarbeit zu bewegen und bot ihm eine Regierungsbeteiligung an, sobald er, Brüning, die Reparationsfrage gelöst habe. Hitler lehnte ab, sodass Brüning sein Minderheitskabinett von der SPD tolerieren lassen musste. Weg zur Kanzlerschaft. Seit 1931 wurde Reichspräsident Hindenburg von Unterschriftenlisten und Eingaben für Hitlers Reichskanzlerschaft „geradezu überschwemmt“. Er lud Hitler und Hermann Göring zu einem ersten Gespräch am 10. Oktober 1931 ein, dem Vortag des Treffens der „Harzburger Front“. Laut Hitlerbiograf Konrad Heiden hielt Hitler dabei Monologe, statt Hindenburgs Fragen zu beantworten. Dieser soll daraufhin gesagt haben, der „böhmische Gefreite“ (Hindenburg verwechselte das österreichische Braunau mit der böhmischen Stadt Broumov) könne „höchstens Postminister“ werden. Hitler beeindruckte ihn zwar, überzeugte ihn aber nicht von seiner Eignung für das Kanzleramt. Im Krisenjahr 1932 wirkten die konservativen Politiker Franz von Papen, Kurt von Schleicher, Alfred Hugenberg und Oskar von Hindenburg mit verschiedenen persönlichen Zielen teils mit-, teils gegeneinander auf Hindenburg ein. Sie alle wollten die Weimarer Demokratie durch eine autoritäre Staatsform ersetzen, lehnten Hitler und seine Partei aber zunächst als „plebejisch“ ab. Weil sie kaum Rückhalt in der Bevölkerung erhielten, betrachteten und förderten sie die NSDAP oder einen ihrer Flügel zunehmend als die für ihre Vorhaben benötigte Massenbasis und setzten sich bei Hindenburg für deren Machtbeteiligung ein. Um bei der Reichspräsidentenwahl 1932 gegen Hindenburg antreten zu können, musste Hitler, der seit dem 30. April 1925 Staatenloser war, Deutscher werden, das heißt nach § 1 "Reichs- und Staatsangehörigkeitsgesetz" Staatsangehöriger eines Bundesstaates werden (siehe: Einbürgerung Adolf Hitlers). Als wegen Hochverrats Vorbestrafter strebte er die nach § 14 "Reichs- und Staatsangehörigkeitsgesetz" mögliche „Anstellung im unmittelbaren oder mittelbaren Staatsdienst“ an, die „für einen Ausländer als Einbürgerung […]“ galt, um die zu erwartenden Bedenken eines Bundesstaats gegen seine Einbürgerung zu umgehen. Nach mehreren erfolglosen Anläufen berief ihn der Innenminister im Freistaat Braunschweig Dietrich Klagges (NSDAP) am 25. Februar 1932, drei Tage nach Bekanntgabe seiner Kandidatur, zum Braunschweiger Regierungsrat. Hitler trat seinen vorgesehenen Dienst aber nie an, sondern erhielt sofort Urlaub für den Wahlkampf und beantragte später unbefristeten Urlaub für seine künftigen „politischen Kämpfe“. Er wurde erst als Reichskanzler am 16. Februar 1933 aus dem braunschweigischen Staatsdienst entlassen. Hindenburg erhielt im zweiten Wahlgang am 10. April 1932 53, Hitler 36,8 Prozent der abgegebenen Stimmen. Viele SPD-Wähler hatten auf Rat Brünings für Hindenburg als „kleineres Übel“ gestimmt, um Hitlers Sieg und damit das Ende der Weimarer Demokratie zu verhindern. Der wiedergewählte Hindenburg entließ Brüning jedoch am 29. Mai, ernannte Franz von Papen zum neuen Reichskanzler und löste den Reichstag auf. Die NSDAP nutzte alle für 1932 vorgesehenen Landes- und Reichswahlen zu ständiger Agitation. Hitler engagierte den Opernsänger Paul Devrient als Stimmtrainer und Wahlkampfbegleiter und ließ sich von April bis November 1932 zu 148 Großkundgebungen einfliegen, die durchschnittlich 20.000 bis 30.000 Menschen besuchten. Die NS-Propaganda inszenierte ihn dabei als über den sozialen Klassen stehenden "Heilsbringer" („Hitler über Deutschland“). Er wurde in der Bevölkerung bekannter als jeder andere Kandidat vor ihm. Bei provokativen NSDAP-Aufmärschen starben in diesem Wahlkampf Dutzende Menschen gewaltsam. Der „Altonaer Blutsonntag“ (17. Juli) etwa bot von Papens Regierung den Anlass, die verfassungsgemäß gewählte Landesregierung Preußens durch eine Notverordnung abzusetzen (Preußenschlag, 20. Juli). Bei der Reichstagswahl vom Juli 1932 wurde die NSDAP mit 37,3 Prozent stärkste Partei. Hitler beanspruchte das Kanzleramt. Bei der zweiten Reichstagssitzung am 12. September löste Hindenburg den Reichstag infolge von Tumulten um seine Notverordnungen wieder auf. Bei der Reichstagswahl November 1932 wurde die NSDAP trotz Stimmenverlusten mit 33,1 Prozent erneut stärkste Partei; auch die KPD gewann Sitze dazu, sodass die demokratischen Parteien keine parlamentarische Mehrheit mehr stellen konnten. Daraufhin trat von Papen zurück und schlug Hindenburg vor, ihn per Notverordnung zum Diktator zu ernennen. Viele forderten stattdessen Hitler als Kanzler, darunter nationalkonservative Unternehmer mit der von Hjalmar Schacht organisierten Industrielleneingabe. Diese „nationalkonservativen Kräfte in Wirtschaft, Militär und Bürokratie“ strebten die „autoritäre (monarchistische) Umgestaltung des Staates“, die „dauerhafte Ausschaltung von KPD, SPD und Gewerkschaften“, den „Abbau der steuerlichen und sozialstaatlichen Belastungen der Wirtschaft“, die „schnelle Überwindung des Versailler Vertrages“ und die „Aufrüstung“ an. Sie glaubten, ihre Ziele nur gestützt auf die nationalsozialistische Massenbewegung erreichen zu können. Für sie unerwünschte Teile von Hitlers Programm (Führerdiktatur statt Monarchie, Berücksichtigung von Arbeiterinteressen) wollten diese Eliten durch die „Einrahmung“ Hitlers und die „Zähmung“ seiner Politik abschwächen. Dazu erschien ihnen von Papen als geeigneter Bündnispartner, da er „nach wie vor das volle Vertrauen Hindenburgs besaß und als Einziger in der Lage war, dessen Misstrauen gegenüber Hitler zu zerstreuen“. Ihre Initiative vom 19. November hatte zunächst keinen Erfolg. Hitler hatte Kapitalismuskritik in der NSDAP früh dem Antisemitismus untergeordnet, wonach nur die Juden ökonomisches Elend verschuldet hätten. Hitlers Rede vor dem Industrie-Club Düsseldorf lobte Anfang 1932 die Rolle der Wirtschaftseliten und betonte gegen die Wähler der Linksparteien: Das deutsche Volk könne nicht überleben, solange es zur Hälfte „Eigentum als Diebstahl“ betrachte. Jedoch finanzierte sich die NSDAP nachweislich großenteils durch Mitgliedsbeiträge und Eintrittsgelder bei Redeveranstaltungen. Nachdem Hitler bis Ende 1932 gute Beziehungen zu Unternehmerkreisen gewann und deren Bedenken gegen das NS-Wirtschaftsprogramm weitgehend ausräumte, unterstützte die Großindustrie den Aufstieg der NSDAP in der Arbeitsstelle Schacht oder der Wirtschaftspolitischen Abteilung der NSDAP vor allem durch „Wirtschaftsvertreter aus dem zweiten und dritten Glied der Eisen- und Stahlindustrie“ und spätere Arisierungsgewinnler, aber auch Bankiers und Großagrarier: Diese versuchten, eine künftige NS-Wirtschaftspolitik „mit dem Gedeihen privater Wirtschaft in Einklang zu bringen“, damit „Industrie und Handel mitmachen können“. Um das Risiko eines Bürgerkriegs und einer möglichen Niederlage der Reichswehr gegen die paramilitärischen Kräfte von SA und KPD zu vermeiden, ernannte Hindenburg Kurt von Schleicher am 3. Dezember zum Reichskanzler. Dieser war unter von Papen Reichswehrminister geworden und vertrat scheinbar einen arbeiterfreundlicheren Kurs. Schleicher versuchte nun, die NSDAP durch eine Querfront-Strategie zu spalten: Gregor Strasser war bereit, auf Schleichers Vorschlag einer Regierungsbeteiligung einzugehen, Vizekanzler zu werden und damit Hitler zu übergehen. Dieser setzte seine Führungsrolle in der NSDAP und Anspruch auf das Kanzleramt im Dezember 1932 unter Tränen und Drohungen, sich umzubringen, durch. Damit waren Hindenburgs konservative Berater mit dem Versuch, die NSDAP an der Regierung zu beteiligen, ohne Hitler das Kanzleramt zuzugestehen, gescheitert. Das Treffen Papens mit Hitler im Haus des Bankiers Schröder am 4. Januar 1933 gilt als „Geburtsstunde des Dritten Reiches“, die „eine unmittelbare kausale Geschehensfolge bis zum 30. Januar“ einleitete: Indem Hitler von Papen die Vizekanzlerschaft, die Besetzung der klassischen Ministerien mit Deutschnationalen und das Recht anbot, bei allen Vorträgen des Kanzlers beim Reichspräsidenten zugegen zu sein, erlangte er dessen Zustimmung. Von Papen und Hugenberg glaubten weiter, Hitler auch als Kanzler in einer von konservativen Ministern dominierten Regierung „einrahmen“ und „zähmen“ zu können. Ihr Bündnis mit Hitler isolierte Schleichers Regierung, die der nationalsozialistisch geführte Reichslandbund im Schutzzollkonflikt zwischen Landwirtschaft und Exportindustrie zusätzlich unter Druck setzte. Die NSDAP wurde bei der Landtagswahl in Lippe 1933 (15. Januar) mit 39,5 Prozent der Stimmen (bei 100.000 Wahlberechtigten) stärkste Partei und sah damit ihren Führungsanspruch bestärkt. Als der Missbrauch der Osthilfe auch Hindenburgs Ruf bedrohte, setzte sich dessen Freund Elard von Oldenburg-Januschau persönlich für Hitlers Kanzlerschaft ein, von dessen Kabinett er die Vertuschung des Skandals erwartete. Zudem gewann Hitler am 22. Januar Oskar von Hindenburg mit Drohungen und Angeboten als Unterstützer. Dies beseitigte letzte Vorbehalte des Reichspräsidenten gegen seine Ernennung. Als General Werner von Blomberg mit dem Versprechen, neuer Reichswehrminister zu werden, für Hitlers Regierung gewonnen wurde, verlor Schleicher auch die geschlossene Unterstützung der Reichswehr und war nun völlig isoliert und handlungsunfähig. Als Hindenburg seine Bitte um Neuwahlen ablehnte, trat er am 28. Januar 1933 zurück. Hitler, von Papen und Hugenberg hatten sich inzwischen auf ein Kabinett geeinigt. Das ermöglichte Hitlers Ernennung zum Reichskanzler. Errichtung der Diktatur. Am 30. Januar 1933 ernannte Hindenburg wegen von der NSDAP in Berlin gestreuten Putschgerüchten zunächst Blomberg verfassungswidrig zum neuen Reichswehrminister, vereidigte dann Hitler und seine Minister und erlaubte ihm die geforderte Auflösung des Reichstags für Neuwahlen. So wollte Hindenburg die politische Einigung der Rechtsparteien in einer von Deutschnationalen dominierten Koalitionsregierung erreichen. Demgemäß gehörten fast alle Minister im Kabinett Hitler zur DNVP. Zur NSDAP gehörte außer Hitler nur Wilhelm Frick, der mit dem Reichsministerium des Innern ein Schlüsselressort erhielt. Zudem kontrollierte Hermann Göring als „Reichskommissar für das preußische Innenministerium“ die Polizei im größten deutschen Flächenstaat. Damit konnte die NSDAP die Innenpolitik bestimmen. Hitler wollte die Demokratie bis zu den Neuwahlen durch Notverordnungen, dann durch Verfassungsänderungen beseitigen. Er soll schon beim Einzug in die Reichskanzlei gesagt haben: „Keine Macht der Welt wird mich jemals wieder lebend hier herausbringen.“ Die auf seine Initiative von Frick verfasste, im Kabinett einstimmig beschlossene „Verordnung des Reichspräsidenten zum Schutze des Deutschen Volkes“ und die „Verordnung des Reichspräsidenten zum Schutz von Volk und Staat“ traten mit Hindenburgs Unterschrift am 28. Februar in Kraft. Sie hoben die Versammlungsfreiheit, Pressefreiheit und das Briefgeheimnis auf und erlaubten willkürliche Verhaftungen für die gesamte Zeit des Nationalsozialismus. Willkommener Vorwand dafür war der Reichstagsbrand vom 27. Februar, den das NS-Regime als internationale kommunistische Verschwörung ausgab. Im folgenden Wahlkampf (März 1933) ließ Hitlers Regime viele Gegner, vor allem Kommunisten, einschüchtern, verhaften oder ermorden. Dennoch verfehlten NSDAP und DNVP bei der Reichstagswahl die für Verfassungsänderungen notwendige Zweidrittelmehrheit. Beim Tag von Potsdam (21. März) inszenierte er die Einigung mit den Deutschnationalen und ihrer Leitfigur Hindenburg. Das Ermächtigungsgesetz (23. März) kam nur durch massiven Straßenterror, illegalen Parlamentsausschluss aller KPD- und einiger SPD-Abgeordneter und nachträgliche Annullierung der KPD-Mandate zustande. Es erlaubte dem Regime für zunächst vier Jahre, Gesetze künftig direkt zu erlassen. Damit verzichtete der Reichstag auf seine Rolle als Gesetzgeber (Legislative), überließ diese der Regierung (Exekutive) und entmachtete den Reichspräsidenten. Das ermöglichte Hitlers Diktatur und die Gleichschaltung von Staat und Gesellschaft. Das NS-Regime schaltete die freien Gewerkschaften aus (2. Mai 1933), verbot die SPD (22. Juni), erzwang die Selbstauflösung der übrigen Parteien (bis 5. Juli) und machte die NSDAP mit dem Gesetz zur Sicherung der Einheit von Partei und Staat zur einzigen Staatspartei (1. Dezember). In diesem Prozess wirkten „Druck von ‚unten‘“ und Hitlers „persönliche Initiative“ zusammen. Am 30. Juni 1934 befahl Hitler unter dem Vorwand eines angeblichen, von Ernst Röhm geplanten Putsches die Ermordung von 150 bis 200 möglichen oder wirklichen Konkurrenten und Rivalen inner- und außerhalb der NSDAP. Sein Kabinett legalisierte die Morde am 3. Juli 1934 mit dem Staatsnotwehrgesetz als „Niederschlagung hoch- und landesverräterischer Angriffe“. Am 13. Juli 1934 versprach Hitler der Reichswehr erneut, sie bleibe die einzige Waffenträgerin des Staates. Wahlwerbung zur Volksabstimmung über das Staatsoberhaupt des Deutschen Reichs am 19. August 1934. Am 1. August 1934 vereinigte das Kabinett das Reichspräsidentenamt per Gesetzesbeschluss mit dem Kanzleramt und übertrug „die bisherigen Befugnisse des Reichspräsidenten auf den Führer und Reichskanzler Adolf Hitler“. Am selben Tag gab Blomberg, ohne von Hitler dazu aufgefordert zu sein, bekannt, nach dem Ableben Hindenburgs die Soldaten der Wehrmacht auf den neuen Oberbefehlshaber vereidigen zu lassen. Bisher waren alle Soldaten auf die Weimarer Verfassung vereidigt worden. Am 2. August, Hindenburgs Todestag, ordnete Hitler in einem Erlass an, ihn künftig „im amtlichen und außeramtlichen Verkehr wie bisher“ mit diesem Doppeltitel anzureden, da der Titel „Reichspräsident“ mit Hindenburgs Namen „unzertrennlich verbunden“ sei. Die Ämtervereinigung bejahten am 19. August in der Volksabstimmung über das Staatsoberhaupt des Deutschen Reichs 84,3 Prozent der Wahlberechtigten bzw. 89,9 Prozent derer, die gültige Stimmen abgegeben hatten. a> anlässlich des Reichsparteitages im September 1935 Kabinettssitzungen verloren zunehmend an Bedeutung. 1935 kamen die Minister zwölfmal, 1937 sechsmal, am 5. Februar 1938 letztmals zusammen. Bis 1935 hielt sich Hitler an einen einigermaßen geordneten Tagesablauf in der Reichskanzlei: vormittags, ab 10 Uhr, Besprechungen mit Hans Heinrich Lammers, Meissner, Walther Funk und verschiedenen Ministern, Mittagessen um 13 oder 14 Uhr, nachmittags Besprechungen mit militärischen oder außenpolitischen Beratern oder bevorzugt mit Albert Speer über Baupläne. Allmählich wich Hitler von diesem festen Tagesablauf ab und pflegte wieder seinen früheren Bohème-Lebensstil. So erschwerte er seinen Adjutanten, von ihm als Staatsoberhaupt Entscheidungen zu erhalten. Die Minister (außer Goebbels und Speer) erhielten keinen Zugang mehr zu Hitler, falls sie keinen guten Kontakt zu dessen Adjutanten besaßen, die so große informelle Macht erlangten. Ausweitung des Hitlerkults. 1933 wurde der Hitlerkult zum Massenphänomen, bei dem Erwartungen der Bevölkerung und NS-Propaganda zusammenwirkten. Hitlers Herrschaft war von Beginn an „extrem personalisiert“: Er hatte kein Politbüro wie Josef Stalin, keinen Kriegsrat und keinen Großrat wie Mussolini. Er ließ auch keinen Länderrat oder Parteisenat als Gegengewicht zu und ersetzte das Kabinett nicht, nachdem es nicht mehr zusammengetreten war. Der Hitlergruß wurde 1933 für Beamte zur Pflicht gemacht und von großen Bevölkerungsteilen freiwillig übernommen. Hitlers Politik stieß in weiten Teilen der Bevölkerung auf wachsende Zustimmung. Die realen oder scheinbaren Erfolge des Regimes – Beseitigung der Massenarbeitslosigkeit, Überwindung des Versailler Vertrags und die innenpolitische Konsolidierung sowie später die zunächst spektakulären Siege zu Beginn des Zweiten Weltkriegs – schrieb die NS-Propaganda Hitler allein zu. Dadurch dehnte sie den Führerkult vom Parteimerkmal zu einem nationalen Kult aus und stärkte Hitlers Position gegenüber den konservativen Eliten und dem Ausland. Die fehlende Kritik nutzte Hitler zum weiteren Ausbau des schrankenlosen "Führerstaates". Dieser wurde 1939 vollendet, als alle Beamten und Soldaten einen persönlichen Führereid ablegen mussten. Die NS-Rechtslehre legitimierte dies, indem sie Verfassungsrecht mit dem an keiner Rechtsidee messbaren Führerwillen gleichsetzte. Schon seit 1934 als „Führer und Reichskanzler“ angeredet, war der Titel „Führer“ ab 1941 ausschließlich Hitler vorbehalten. Dadurch, so die Germanistin Cornelia Schmitz-Berning, habe sich der Begriff allmählich zum Eigennamen entwickelt. Der Hitlerkult wurde im deutschen Alltag allgegenwärtig, etwa durch Umbenennung vieler Straßen und Plätze nach Hitler, einen Adolf-Hitler-Koog als Musterbeispiel für die staatliche Blut-und-Boden-Ideologie, dörfliche „Hitlereichen“ und „Hitlerlinden“, kommerziell vermarktete Hitlerbilder, ab 1937 auch staatliche Briefmarkenserien und Besucherandrang in Obersalzberg. Diese Verehrung überstieg den Personenkult um Bismarck bei weitem. Für kritische Zeitgenossen wurde es immer schwieriger, sich davon zu distanzieren. Hitler zeichnete andere mit seinem Namen aus, etwa ab 1937 durch die Vergabe des Titels Adolf-Hitler-Schule an NS-Ausleseschulen. Dem kamen weite Gesellschaftsbereiche freiwillig entgegen: So förderte die deutsche Industrie mit der Adolf-Hitler-Spende der deutschen Wirtschaft ab 1. Juni 1933 den „nationalen Wiederaufbau“ bis 1945 mit rund 700 Millionen Reichsmark für die NSDAP, über deren Verwendung Hitler frei entscheiden konnte. Dafür stiftete er 1937 den „Adolf-Hitler-Dank“, eine jährliche Spende von einer halben Million Reichsmark „für besonders verdiente, notleidende Parteigenossen“. Hitler wurde Ehrenbürger vieler deutscher Städte; einige entzogen ihm die Ehrenbürgerschaft nach seinem Tod wieder oder erklärten sie für beendet. Der Hitlerkult gilt Historikern als Beispiel einer „charismatischen Herrschaft“, die bürokratische Instanzen nicht ersetzte, sondern überwölbte und so vielfach Kompetenzstreit zwischen Parteihierarchie und Staatsapparat erzeugte. Rivalitäten von NS-Behörden, die in Wettläufe um das vorauseilende Erfassen des „Führerwillens“ eintraten, erforderten wiederum immer mehr autoritative tagespolitische Entscheidungen Hitlers. Dieser ließ jedoch viele Konflikte unentschieden, um seinen Ruf als über den Alltagskonflikten stehender, unfehlbarer, genialer Alleinherrscher nicht zu beschädigen, und trug so zur Aushöhlung einer funktionierenden Staatsverwaltung bei. Mit dem Wachsen des Hitler-Mythos sank zugleich das Ansehen der NSDAP. Nach dem Anschluss Österreichs an das Deutsche Reich und der ersten Wahl zum „Großdeutschen Reichstag“ am 10. April 1938 mit 99,1 % Zustimmung war das Prestige des Diktators abermals gestiegen und die Konsensbasis seiner Herrschaft vermutlich nie größer. Der Überfall auf Polen war bei den Deutschen nicht populär. Kershaw zufolge erreichte Hitlers Popularität trotzdem nach dem siegreichen „Blitzkrieg“ gegen Frankreich einen neuen Höhepunkt, ging 1941 nur allmählich zurück und stürzte erst nach der Niederlage in Stalingrad 1943 rasch ab. Götz Aly dagegen folgerte 2006 aus neuen Indikatoren eines von ihm geleiteten Forschungsprojekts, dass Hitlers Popularität schon vor dem Polenfeldzug stark abnahm, sich nach dem Westfeldzug 1940 kaum erholte und ab dem Überfall auf Russland rapide abnahm. Privatleben. Enge Freunde Hitlers durften seit etwa 1921 das Pseudonym „Wolf“ verwenden, das sich an die Etymologie seines Vornamens Adolf anlehnte. Im Krieg ließ Hitler einige Führerhauptquartiere danach benennen. Zwischen 1926 und 1931 korrespondierte er vertraulich mit Maria Reiter, einer Urlaubsbekanntschaft, lehnte aber ihren Ehewunsch ab. 1928 hatte er im Berchtesgadener Ortsteil Obersalzberg ein Landhaus gemietet, in das seine Halbschwester Angela Raubal und deren beide Töchter Angela (gen. Geli) und Elfriede einzogen. 1929 ließ er seine Halbnichte Geli in seine Münchner Wohnung einziehen und zwang sie, eine Liebesbeziehung zu seinem Chauffeur, Emil Maurice, zu beenden. Am 19. September 1931 wurde sie mit seinem Revolver erschossen aufgefunden; ein Suizid wurde angenommen. Hitler nutzte dies zur Selbstdarstellung gegenüber Parteifreunden: Er wolle in Zukunft nur noch uneigennützig dem Wohl des deutschen Volkes dienen. Seit Januar 1932 kamen Gerüchte auf, dass Hitler mit Eva Braun, einer Angestellten seines Fotografen Heinrich Hoffmann, ein intimes Verhältnis habe. Eine Ehe mit ihr lehnte er ab. Im Jahresverlauf unternahm sie mehrere Selbstmordversuche. Daraufhin ging er ein festeres Verhältnis zu ihr ein, das er jedoch bis zu seinem Tod gegenüber der Öffentlichkeit geheim hielt. Hitler war seit seiner Jugendzeit Nichtraucher und trank keinen Alkohol, später auch keinen Kaffee und Schwarztee. Ab 1932 ernährte er sich aus Furcht vor einer Magenkrebserkrankung vegetarisch. Seine Magenkrämpfe hielt er für die Vorboten eines Krebsleidens, das ihm nur wenige Jahre zur Vollendung der selbst gestellten „gigantischen Aufgaben“ lasse. Eine seiner stehenden Redewendungen blieb: „Ich werde nicht mehr lange leben.“ Diese Ernährungsgewohnheiten behielt er als Reichskanzler bei und thematisierte sie in Monologen vor dem engsten Anhängerkreis auch als Mittel für die nationalsozialistische Gesundheitspolitik nach dem Krieg. Seit dem Ersten Weltkrieg mochte und hielt Hitler Hunde. Oft ließ er sich mit seiner Schäferhündin Blondi vor idyllischen Landschaften abbilden, um so seine private angebliche Tierliebe und Naturverbundenheit vorzuführen, den Deutschen Identifikation zu ermöglichen und eine verbreitete Sehnsucht nach Harmonie zwischen Führer und Geführten zu bedienen. Hitler lehnte Hochschulen, Professoren („Profaxe“) und etablierte Wissenschaft lebenslang ab und eignete sich Detailwissen autodidaktisch an. Er konnte sich gelesene Informationen auch in Details dauerhaft merken und flocht sie bei Bedarf ohne Herkunftsangaben in Reden, Gespräche oder Monologe ein, um sie als eigene Ideen auszugeben. Er besaß 16.000 auf drei Privatbibliotheken verteilte Bücher, von denen noch rund 1200 erhalten sind. Etwa die Hälfte davon sind militärische Gebrauchsliteratur, über zehn Prozent haben rechte Esoterik, Okkultismus, deutschnationale und antisemitische Themen zum Inhalt. Nur wenige Werke gehören zur schönen Literatur, darunter Ausgaben der Dramen William Shakespeares, etwa "Julius Caesar" und "Hamlet". Nach einer Liste des Starnberger Zahnarztes und Mitglieds der Thule-Gesellschaft Friedrich Krohn, dessen Bibliothek vor allem völkischer Schriften Hitler während der Jahre 1919 bis 1921 nutzte, lieh sich Hitler eine Reihe ganz unterschiedlicher Werke aus, von Leopold von Ranke über Berichte zur Russischen Revolution bis zu Werken von Montesquieu, Rousseau, Kant, Schopenhauer und Oswald Spengler, nicht zuletzt aber antisemitische Schriften von Houston Stewart Chamberlain, Henry Ford, Anton Drexler, Gottfried Feder und Dietrich Eckart. Während seiner Haftzeit in Landsberg soll sich Hitler mit Karl Marx, Friedrich Nietzsche, Heinrich von Treitschke und Otto von Bismarck beschäftigt haben. Anstreichungen und Randnotizen zeigen Hitlers Leseverhalten. Er beherrschte keine Fremdsprache außer etwas Französisch seit seiner Linzer Realschulzeit. Auslandspresseberichte musste er sich von seinem Chefdolmetscher Paul-Otto Schmidt übersetzen lassen. Vom 1. Mai 1920 bis 5. Oktober 1929 wohnte Hitler in München in der Thierschstraße 41 im Stadtteil Lehel. 1929 zog er in eine 9-Zimmer-Wohnung im Stadtteil Bogenhausen, Prinzregentenplatz 16. Heute befindet sich in dem Gebäude eine Polizeiinspektion. Die Wohnung wurde von Hitler ab 1934 kaum mehr genutzt, war jedoch weiterhin seine offizielle Meldeadresse. Hitler kaufte im Sommer 1933 das "Haus Wachenfeld" am Obersalzberg bei Berchtesgaden und ließ das Anwesen bis Mitte 1936 zum „Berghof“ umbauen. Verfolgungen. Nach dem Straßenterror der SA in der Weimarer Republik begann mit Hitlers Machtantritt eine systematische, gewaltsame Verfolgung politischer Gegner der NSDAP unter dem Schlagwort der „nationalen Revolution“. So ließ die SA ab Januar 1933 Konzentrationslager einrichten. Die staatlichen Internierungen, Misshandlungen und Morde trafen seit der „Reichstagsbrandverordnung“ vom 28. Februar 1933 Kommunisten, Sozialdemokraten, Pazifisten, Zeugen Jehovas, konservative NS-Gegner und andere Deutsche, die Kritik äußerten oder sich widersetzten (→ Mitglieder des Widerstandes), sowie vor allem Juden. In den folgenden Jahren wurden die Verfolgungen auf verschiedene christliche Gruppen, Behinderte, Homosexuelle, vermeintlich Asoziale und „Fremdrassige“ ausgeweitet. Hitler hatte keinen „Meisterplan“ für die staatliche „Judenpolitik“, sondern reagierte oft kurzfristig auf den Druck von NSDAP-Mitgliedern mit Gesetzesinitiativen. Deren erkennbares Ziel war die im NSDAP-Programm festgeschriebene Ausgrenzung und Vertreibung der deutschen Juden. Hitler bereitete den „Judenboykott“ vom 1. April 1933 direkt mit vor, trat aber nach außen nicht als dessen Initiator und Organisator auf. Er beriet das am 7. April erlassene "Gesetz zur Wiederherstellung des Berufsbeamtentums" (zum Ausschluss „nichtarischer“ Beamter) mit und entschied sich aus Rücksicht auf die politischen Bedingungen für eine gemäßigtere Fassung. Daraufhin schlossen auch viele Berufsverbände Juden aus. Dem folgten zahlreiche weitere, auch nichtstaatliche Ausgrenzungsschritte. Hitler schwebte schon 1933 eine konsequente Ghettoisierung der Juden und ihre räumliche Ausgrenzung vor: Sie müssten „heraus aus allen Berufen […], eingesperrt in ein Territorium, wo sie sich ergehen können […], während das deutsche Volk zusieht, wie man wilde Tiere sich ansieht“. Auch die Nürnberger Gesetze von 1935, die den deutschen Juden die staatsbürgerlichen Rechte entzogen und „Mischehen“ sowie sexuelle Beziehungen zwischen Juden und Nichtjuden als „Rassenschande“ mit Gefängnis oder Zuchthaus bedrohten, wurden durch Terror aus der Parteibasis angebahnt und sollten diese zufriedenstellen. Hitler bereitete sie monatelang mit vor, sodass er sich beim Nürnberger Reichsparteitag im August anderen Themen zuwenden konnte. Er strich die Begrenzung auf „Volljuden“ im Gesetzentwurf noch unmittelbar vor dessen Bekanntgabe am 15. September. Die Judenverfolgung trat zwar 1936 wegen der Sommer- und Winter-Olympiade und 1937 in den Hintergrund. Doch als Hitler am 9. November 1938 vom Tod des angeschossenen Botschaftssekretärs Ernst Eduard vom Rath erfuhr, beriet er sich sofort mit Goebbels und autorisierte ihn, das Attentat als Vorwand für die bereits geplanten deutschlandweiten Novemberpogrome auszunutzen. Dabei wurden Hunderte Juden ermordet, Zehntausende in KZs interniert und enteignet und Tausende Synagogen und jüdische Friedhöfe zerstört. US-Präsident Franklin D. Roosevelt verschärfte daraufhin den Ton gegenüber Deutschland. Hitler übertrug die weitere „Judenpolitik“ Hermann Göring, Heinrich Himmler und Reinhard Heydrich. Diese unterbanden den „spontanen“, unkontrollierten Straßenterror endgültig, indem sie die Juden gesetzlich wie Kriminelle behandelten und etwa mit der „Judenbuße“ für die Schäden der Novemberpogrome aufkommen ließen. Baupolitik. Hitler gab sich mit einem inszenierten Spatenstich am 23. September 1933 fälschlich als Erfinder und Planer der Reichsautobahnen aus und ließ deren Ausbau als „Hitler-Programm“ zur Beseitigung der Massenarbeitslosigkeit propagieren. Tatsächlich waren die ersten zwei Autobahnen vor 1933 gebaut und weitere geplant worden. Der Weiterbau in der NS-Zeit beschäftigte meist nur Zehntausende, maximal 125.000 Arbeiter, die abkommandiert, zum Arbeiten für Niedriglöhne gezwungen und bei Weigerung in KZs inhaftiert wurden. Das Programm wurde 1941 wegen der Einziehung der Arbeiter für den Kriegsdienst unvollendet eingestellt. Hitlers Versprechen einer Massenmobilität blieb uneingelöst. Dennoch bestand das Klischee nach 1945 fort, er habe die Arbeitslosigkeit mit dem Autobahnbau bis 1938 erfolgreich beseitigt. Hitler plante seit 1933, Berlin bis 1950 als „Hauptstadt des germanischen Reichs deutscher Nation“ völlig umzugestalten und in „Germania“ umzubenennen. Dazu ernannte er Albert Speer 1937 zum „Generalinspekteur für die Neugestaltung der Reichshauptstadt“. Speer entwarf im Zuge der Germania-Planungen für den sich in der Öffentlichkeit gerne bescheiden gebenden Hitler auch einen gigantischen „Führerpalast“ im Spreebogen. Von den geplanten Monumentalbauten wurde 1939 nur die Neue Reichskanzlei fertiggestellt. Die Stadt sollte von einem Autobahnring umgeben und von zwei schnurgeraden, kreuzungslosen, breiten, für Aufmärsche geeigneten Prachtstraßen durchquert werden. Der Bau eines Tunnels zur Unterquerung der Nord-Süd-Achse wurde 1939 begonnen, aber 1942 wegen Materialmangels im Krieg eingestellt. Hitler ließ sich als „genialer Baumeister“ des Reichsparteitagsgeländes in Nürnberg ausgeben und mischte sich mit seinen Ideen, Skizzen und Besuchen in die Planung ein, segnete tatsächlich aber meist nur Initiativen anderer NSDAP-Stellen ab. Kirchenpolitik. Gemäß der machttaktischen Bejahung des Christentums hatte Hitler Vertreter des Neuheidentums wie Artur Dinter 1928 aus der NSDAP ausgeschlossen und Alfred Rosenberg 1930 gezwungen, sein antikirchliches Buch "Der Mythus des 20. Jahrhunderts" als Privatansicht zu kennzeichnen. Zugleich hatte er planmäßige Versuche von NSDAP-Mitgliedern zugelassen, das Christentum an die NS-Rassenideologie anzugleichen. Dazu gründeten diese 1932 die Kirchenpartei Deutsche Christen (DC). Hitlers erste Regierungserklärungen (1. Februar, 23. März 1933) betonten, er werde das Christentum als „Basis unserer gesamten Moral“ schützen, „tiefe, innere Religiösität“ ermöglichen, die Staatsverträge beider Kirchen einhalten, ihnen in Schule und Erziehung angemessenen Einfluss zugestehen, den „Bolschewismus“ und atheistische Organisationen bekämpfen und freundschaftliche Beziehungen zum Vatikan ausbauen. Die Großkirchen seien die „wichtigsten Faktoren zur Erhaltung unseres Volkstums“. Dafür sollten sie sich am Kampf gegen die „materialistische Weltauffassung“ und am Aufbau der „Volksgemeinschaft“ beteiligen. Er schloss mit dem Vaterunser nachempfundenen liturgischen Gebetsformeln und mit „Amen“. Beim inszenierten „Tag von Potsdam“ (21. März) knüpfte er an preußische Staatskirchentradition an und zerstreute zugleich katholische Sorgen vor einem neuen „Kulturkampf“. Wegen dieser gezielten NS-Propaganda und ihrer eigenen antidemokratischen Tradition bejahten beide Großkirchen die Aufhebung der Demokratie. Die katholische Zentrumspartei unter Ludwig Kaas stimmte am 23. März für das Ermächtigungsgesetz. Die deutschen katholischen Bischöfe hoben die 1931 erklärte Unvereinbarkeit von Christentum und Nationalsozialismus am 28. März auf und erlaubten Katholiken den Beitritt zur NSDAP. Die meisten evangelischen Landeskirchen begrüßten die „nationale Wende“ und ließen Fürbitten zu Hitlers Geburtstag verlesen, ohne die Opfer der NS-Gewaltpolitik zu erwähnen. Bis zum 20. Juli handelte Hitler mit dem Vatikan ein Reichskonkordat nach dem Vorbild der Lateranverträge Mussolinis von 1929 aus. Es untersagte politische Betätigung katholischer Kleriker und Parteien und sicherte den Bestand der katholischen Lehre, Bekenntnisschulen, rein religiöse, karitative und kultische Vereine und Verbände zu. Deren konkrete Festlegung unterblieb, weil die Selbstauflösung der Zentrumspartei (5. Juli) den raschen Vertragsabschluss erzwang. In einem geheimen Zusatzprotokoll vereinbarte Hitler mit den Bischöfen einen Militärseelsorgevertrag, falls Deutschland die Wehrpflicht wiedereinführen werde. Um alle evangelischen Landeskirchen in einer „Reichskirche“ gleichzuschalten, berief Hitler am 25. April den ostpreußischen Militärpfarrer Ludwig Müller (DC) zum „Bevollmächtigten“ für evangelische Angelegenheiten und ernannte am 24. Juni August Jäger zum „Staatskommissar“ für die Landeskirchen in Preußen. Jäger ersetzte alle Kirchenleiter, die gegen staatliche Übergriffe protestierten, mit DC-Vertretern. Nach heftigen Protesten und einem von Hindenburg vermittelten Treffen nahm Hitler Jägers Maßnahmen zurück. Die am 11. Juli gebildete Deutsche Evangelische Kirche (DEK) verpflichtete sich dafür zu Kirchenwahlen am 23. Juli. Am Vorabend warb Hitler im Rundfunk massiv für die DC, die daraufhin die Leitung der meisten evangelischen Landeskirchen errangen. Nach Gesprächsprotokollen von Zeitzeugen lehnte Hitler das Christentum jedoch im Juli 1933 als „jüdischen Schwindel“ ab. „Deutsches Christentum“ sei Krampf und Illusion. Man könne nur entweder Christ oder Deutscher sein. Sein Eintreten für die DC war demnach nur machtpolitisch motiviert. Am 5. September wählten die DC Müller zum Reichsbischof und führten in Preußen ein zum Arierparagraphen analoges Gesetz ein, das Judenchristen aus der Landeskirche ausschloss. Infolge der Sportpalast-Kundgebung (13. November 1933) verloren sie viele Mitglieder und ihre Einheit. Daraufhin setzte Müller ihre Sprecher ab, unterstellte die evangelische Jugend im Dezember widerrechtlich der Hitlerjugend und verbot im Januar 1934 alle innerkirchliche Kritik an seiner Führung. Damit verlor er seine Autorität in der DEK. Im folgenden Kirchenkampf zerbrach deren organisatorische Einheit; der Arierparagraph ließ sich in ihr nicht mehr durchsetzen. Hitler nötigte die DC-Gegner am 25. Januar 1934 mit Vorführen abgehörter Telefonate Martin Niemöllers zunächst, sich staatsloyal zu zeigen und Müller als Reichsbischof zu akzeptieren. Im März ernannte er den ehemaligen Freikorpskämpfer Franz von Pfeffer zum „Sonderbeauftragten für Kirchenfragen“, am 12. April Jäger zum „Rechtswalter“ der DEK. Deren Versuche, die Gleichschaltung der Landeskirchen durch Absetzen gewählter Landesbischöfe zu erzwingen, scheiterten am Widerstand der DC-Gegner. Am 30. Mai 1934 gründeten diese die Bekennende Kirche (BK), deren von Karl Barth verfasste Barmer Theologische Erklärung nur einen Rechtsstaat als dem Evangelium gemäß definierte und totalitäre Staatsideologien als Häresie verwarf. Im Oktober schuf ein Teil der BK eigene Verwaltungsstrukturen. Londoner Vertreter der Ökumene drohten mit dem Abbruch der Beziehungen zur DEK. Infolge der starken in- und ausländischen Proteste setzte Hitler Pfeffer und Jäger Ende Oktober 1934 ab, sagte die geplante Vereidigung aller evangelischen Bischöfe auf sich ab und erkannte die Bischöfe Hans Meiser, Theophil Wurm und August Marahrens als rechtmäßige Kirchenvertreter an. So inszenierte er sich als Schlichter des Streits in der DEK. Parallel dazu stärkte Hitler 1934 die kirchenfeindlichen Kräfte in der NSDAP: Er ernannte Alfred Rosenberg zum „Weltanschauungsbeauftragten“ (Januar), ließ beim „Röhmputsch“ auch einige engagierte Katholiken ermorden (Juli), den Sicherheitsdienst des Reichsführers SS (SD) einrichten und dessen Hauptamt nach Berlin verlegen (Dezember). Die SD-Zentralabteilung für „weltanschauliche Auswertung“ bespitzelte beide Großkirchen und bekämpfte ihren öffentlichen Einfluss zugunsten neuheidnischer Religiosität. Im Anschluss an Vorschläge von Staatssekretär Wilhelm Stuckart (Januar 1935) lehnte Hitler den Rückzug des Staates aus kirchlichen Belangen jedoch ab und bevorzugte abwartende Neutralität und verschärfte Aufsicht des Staates über die Kirchen. Dazu ernannte er Hanns Kerrl zum „Reichskirchenminister“ (Juli). Dieser erließ ein „Gesetz zur Sicherung der DEK“ (September), das die Tätigkeit der BK mit 17 Durchführungsverordnungen bis 1939 stark begrenzte und den DEK-Teilkirchen unter anderem die Verfügung über ihre Geldmittel und Rechtsverfahren entzog. Mit Vertretern aller Richtungen besetzte staatliche „Kirchenausschüsse“ sollten die DEK organisatorisch einen. Kerrl verfehlte dieses Ziel, spaltete aber die BK in Befürworter und Gegner seiner Ausschüsse (Februar 1936). Infolge wachsender Proteste gegen Kerrl setzte Hitler am 15. Februar 1937 überraschend Neuwahlen in der DEK an, angeblich um ihr eine autonome Kirchenverfassung zu gewähren. Da Teile der DEK mit einem Wahlboykott drohten, wurde der Wahltermin mehrmals verschoben und im November abgesagt. Die Gestapo nahm bis zum Jahresende zahlreiche BK-Vertreter und katholische NS-Gegner fest. Im Dezember übertrug Kerrl die DEK-Leitung dem Juristen Friedrich Werner. Dieser schränkte kirchliche Publizistik, Ausbildung und Finanzierung fortlaufend weiter ein und entzweite die BK, indem er von allen Pfarrern Preußens einen Treueid auf Hitler verlangte (April 1938). Die meisten BK-Vertreter bejahten den Eid als rechtmäßige Staatsforderung, aber Hitlers Stellvertreter Martin Bormann schrieb an alle NSDAP-Gauleiter, der Eid sei innerkirchlich und freiwillig (Juli). Indem das NS-Regime dies im September bekannt werden ließ, schwächte es die Autorität der BK-Leitung erheblich. Kerrl versuchte 1939 wiederholt, alle DEK-Führer auf eine Erklärung zur „dem deutschen Volke artgemäßen nationalsozialistischen Weltanschauung“ und zum „unerbittlichen Kampf gegen den politischen und geistigen Einfluß der jüdischen Rasse“ zu verpflichten. August Marahrens unterschrieb die Erklärung im Juli eigenmächtig für den Lutherrat, der damit ebenfalls Autorität in der BK verlor. Nach dem Anschluss Österreichs (März 1938) begrenzte Hitler Kerrls Befugnisse auf das „Altreich“; nach Kerrls Tod (Dezember 1941) ließ er dessen Amt unbesetzt. Er ließ die antikirchlichen NSDAP-Vertreter kirchliche Aktivitäten in den neuen Gebieten unterdrücken; sie beseitigten 1938 in Österreich alle Ordens- und Klosterschulen. Im September 1939 verbot Hitler jedoch alle NSDAP-Maßnahmen gegen die Großkirchen, damit sie seinen Krieg unterstützten. Diese riefen die Christen 1939 gemeinsam zum „Gehorsam gegen den Führer“, Gebet und Einsatz für den deutschen Sieg auf. Gauleiter Arthur Greiser erklärte die Kirchen im neugebildeten „Reichsgau Wartheland“ 1940 zu Religionsvereinen ohne staatlichen Rechtsschutz und enteignete sie bis auf reine Kulträume. Zwar protestierten die Großkirchen, dankten Hitler aber Ende Juni 1941 dafür, dass er die „christlich-abendländische Kultur“ vor dem „Todfeind aller Ordnung“, dem Kommunismus, gerettet habe. Dieser erklärte nun vor allem aufgrund deutlicher kirchlicher Proteste gegen die Euthanasiemorde vor Vertrauten öfter: Nach dem Krieg werde er das „Kirchenproblem lösen“ und die Großkirchen entmachten; das Christentum müsse „abfaulen wie ein brandiges Glied“. Daraufhin übertrug Bormann allen NSDAP-Gauleitern die Kirchenpolitik in den eroberten Gebieten und befahl ihnen, den Einfluss der Kirchen auf die „Volksführung“ endgültig zu brechen. Aufrüstungs-, Expansions- und Kriegskurs. Wie demokratische Regierungen der Weimarer Republik wollte Hitler außenpolitisch zunächst die im Versailler Vertrag von 1919 festgelegten deutschen Gebietsverluste und Rüstungsbeschränkungen revidieren, jedoch nicht bloß mit diplomatischen Vorstößen, sondern mit dem Risiko militärischer Konflikte. Öffentlich betonte er bis 1939 wiederholt seinen Friedenswillen; tatsächlich bereitete er seit 1933 erst die deutsche Aufrüstung und Kriegsfähigkeit, spätestens seit 1937 einen Angriffskrieg vor. Laut der Liebmann-Aufzeichnung erläuterte er der Reichswehrführung am 3. Februar 1933 die angestrebte kriegerische Eroberung von „Lebensraum im Osten“ und nahm Polen schon als „Feindstaat“ ins Visier. Im Oktober 1933 brach das NS-Regime Abrüstungsverhandlungen mit Großbritannien und Frankreich ab und veranlasste den Austritt des Deutschen Reiches aus dem Völkerbund. Nach Hindenburgs Tod 1934 teilte Hitler der Generalität mit, dass Deutschland in fünf Jahren kriegsbereit sein solle. Er unterstützte einen nationalsozialistischen Putschversuch in Wien, bei dem der österreichische Bundeskanzler Engelbert Dollfuß ermordet wurde. Als dieser Putschversuch aber letztlich scheitert, erklärte er jedoch, das deutsche Reich habe nichts mit der Angelegenheit zu tun und gibt auf. (Das rasche Nachgeben in dieser Phase ist nach Golo Mann bemerkenswert: Es ist das einzige Mal zwischen 1933 und 1938, dass eine fremde Macht – Italien – ihm widerspricht und er aufgibt.) Im März 1934 erhöhte Hitler den deutschen Wehretat über die Grenzen des Versailler Vertrags hinaus. Im September 1934 schloss er mit Polen überraschend einen zehnjährigen Nichtangriffspakt. Am 16. März 1935 führte er die im Versailler Vertrag verbotene allgemeine Wehrpflicht wieder ein. Um Großbritannien in Sicherheit zu wiegen, wiederholte er am 21. Mai 1935 in einer „Friedensrede“ im Reichstag, die deutsche Marine strebe nur 35 Prozent der Tonnage der britischen Flotte an. Am 18. Juni 1935 schloss Großbritannien mit Deutschland ein von Hitler angebotenes Flottenabkommen, um eine andernfalls eventuell noch stärkere deutsche Aufrüstung zu vermeiden. 1936 kündigte Hitler den Vierjahresplan an. Dieser sollte in vier Jahren die deutsche Armee einsatzfähig und die deutsche Wirtschaft kriegsfähig machen. Er wurde mit Mefo-Wechseln finanziert und trug zum deutschen Wirtschaftsaufschwung bei. Im März 1936 folgte die Rheinlandbesetzung. Beide Brüche des Versailler Vertrags nahmen die Alliierten hin. Das NS-Regime verhalf Francisco Franco im Spanischen Bürgerkrieg seit 1936 mit dem Einsatz der deutschen Legion Condor und völkerrechtswidrigen Bombenangriffen auf Städte wie Gernika zum Sieg. Am 5. November 1937 erläuterte Hitler vor dem Außenminister, dem Kriegsminister und den Oberbefehlshabern der drei Wehrmachtteile seine „grundlegenden Gedanken über […] unsere außenpolitische Lage“. 85 Millionen Deutsche hätten ein „Anrecht auf größeren Lebensraum“, daher sei die „Lösung der Raumnot“ die zentrale Aufgabe der deutschen Politik. England und Frankreich seien dabei die beiden Hauptgegner. Am Schluss des mehr als zweistündigen Monologs nannte er als erstes Ziel die Niederwerfung der „Tschechei und gleichzeitig Österreich[s], um die Flankenbedrohung […] auszuschalten“. Damit hatte der Diktator seine Karten aufgedeckt und die beiden Nahziele deutscher Expansion genannt. In der folgenden zweistündigen Diskussion erhoben die Generäle Bedenken nicht wegen eines Anschlusses Österreichs und einer Annexion der Tschechoslowakei, waren aber beunruhigt wegen Hitlers Ungeduld und befürchteten einen vorzeitigen europäischen Konflikt. Außenminister Neurath will Hitler im Januar 1938 davor gewarnt haben, „dass seine Politik zum Weltkrieg führen“ müsse. Hitler soll nur erwidert haben, „er habe keine Zeit mehr“. In der Blomberg-Fritsch-Krise (Januar/Februar 1938) trat Blomberg vom Amt als Reichskriegsminister zurück; Hitler entband Werner von Fritsch vom Oberkommando des Heeres (OKH) und übernahm das neugeschaffene Oberkommando der Wehrmacht (OKW) per Führererlass vom 4. Februar 1938. Er sah sich dabei als idealen „Feldherrn“, der „mit Kopf, Willen und Herzen den totalen Krieg für die Lebenserhaltung des Volkes“ (Ludendorff 1935) zu führen habe und dies wie sein Idol Friedrich „der Große“, aber anders als Wilhelm II. nicht den Militärs überlassen dürfe. Vielmehr verlange der im „Kampf ums Dasein“ notwendige, kommende Vernichtungskrieg vom „‚Führer‘ des deutschen Volkes“ die Bündelung aller gesellschaftlichen Kräfte. Er müsse nicht nur allgemeine „weltanschauliche“ und politische Ziele, sondern auch die Strategien der einzelnen Feldzüge vorgeben. Mit militärischen Drohungen („Unternehmen Otto“) erreichte Hitler im März 1938 den „Anschluss“ Österreichs an das fortan „Großdeutsche Reich“. In Wien verkündete er am 15. März einer begeisterten Menge die „Vollzugsmeldung meines Lebens“: den „Eintritt meiner Heimat in das Deutsche Reich“. Im September 1938 verlangte er von der Tschechoslowakei, das Sudetenland an Deutschland abzutreten, und drohte andernfalls mit dem Einmarsch deutscher Truppen (Sudetenkrise). Auf der Münchener Konferenz am 29. September 1938 sicherte Hitler deren Verbündeten Frankreich und Großbritannien den Bestand der übrigen Tschechoslowakei zu. Dafür gestanden ihm der britische Premier Neville Chamberlain und der französische Ministerpräsident Édouard Daladier die Eingliederung der sudetendeutschen Gebiete zu, um den angedrohten Krieg zu verhindern. Hitler, der Krieg und Expansion für unaufgebbare Überlebensbedingungen seines Regimes hielt, fühlte sich mit dem Abkommen um die angestrebte Eroberung der ganzen Tschechoslowakei betrogen. Auf Hitlers Druck hin rief Jozef Tiso im März 1939 die Erste Slowakische Republik aus. Hitler ließ am 15. März das verbliebene tschechische Staatsgebiet von der Wehrmacht besetzen und am folgenden Tag als „Protektorat Böhmen und Mähren“ des Großdeutschen Reiches annektieren. Dieser Bruch des Münchner Abkommens sollte die „Germanisierung“ dieser Gebiete erleichtern: Ein Teil der Tschechen sollte assimiliert, der Rest als „rassisch unbrauchbar“ und „reichsfeindlich“ ermordet oder vertrieben werden. Die Slowakei wurde zu einem Satellitenstaat Deutschlands. Am 23. März 1939 trat Litauen, das Hitler zuvor ebenfalls massiv unter Druck gesetzt hatte, das Memelland an Deutschland ab. Wegen Hitlers Vertragsbruch beendeten Frankreich und Großbritannien ihre bisherige Appeasement-Politik und schlossen mit Polen bis zum 13. April 1939 militärische Beistandsverträge. Schon am 11. April befahl Hitler dem Wehrmachtführungsstab, den Überfall auf Polen bis zum Herbst militärisch vorzubereiten. Am 28. April kündigte er den deutsch-polnischen Nichtangriffspakt sowie das deutsch-britische Flottenabkommen und verlangte den Anschluss der Freistadt Danzig an das Deutsche Reich. Am 23. Mai erklärte er den Generälen der Wehrmacht, diese Forderung sei nur ein Vorwand zur Eroberung von „Lebensraum“ für eine autarke Ernährung der Deutschen (siehe Schmundt-Protokoll). Als Bedingung für einen Nichtangriffsvertrag mit den Westmächten, der diesen Polens Verteidigung erleichtern sollte, verlangte der sowjetische Diktator Josef Stalin von Polen eine Durchzugsgarantie für die Rote Armee, die dessen Regierung erwartungsgemäß ablehnte. Dann vereinbarte Stalin mit Hitler bis zum 24. August den deutsch-sowjetischen Nichtangriffspakt. Damit wollte er Zeit zur Reorganisation der Roten Armee gewinnen, deren Offiziere er im Großen Terror (1937–1939) massenhaft hatte ermorden lassen. Im geheimen Zusatzprotokoll des Paktes vereinbarten beide Seiten die Aufteilung Polens und des Baltikums. In der Ansprache Hitlers vor den Oberbefehlshabern am 22. August 1939 gab er die „Vernichtung Polens = Beseitigung seiner lebendigen Kraft“ als sein Kriegsziel bekannt und erklärte: „Wir werden den Westen halten, bis wir Polen erobert haben.“ Das "Time Magazine" wählte Hitler 1939 zur „Person des Jahres“ 1938, weil er zur größten Bedrohung der demokratischen, freiheitsliebenden Welt geworden sei. Polenfeldzug. Kurz nach Abschluss des Pakts mit Stalin forderte Hitler von Polen, den Polnischen Korridor und die polnischen Rechte in der Freien Stadt Danzig an das Deutsche Reich abzutreten. Die NS-Propaganda behauptete verstärkt angebliche Gräueltaten und Massaker von Polen an sogenannten Volksdeutschen und forderte ein Einschreiten dagegen. Seit dem 28. August stand für die deutsche Wehrmacht als Angriffstermin der 1. September fest. Am 31. August um 12:40 Uhr erteilte Hitler seine „Weisung Nr. 1 für die Kriegführung“. In der Nacht vom 31. August auf den 1. September 1939 inszenierten in polnische Uniformen gekleidete SS-Männer einen Überfall auf den Sender Gleiwitz in Schlesien. Ab 4:45 Uhr beschoss das deutsche Linienschiff "Schleswig-Holstein" die polnischen Stellungen auf der Danziger Westerplatte. Mit diesem Angriff begann der deutsche Überfall auf Polen, durch den Hitler den Zweiten Weltkrieg entfesselte. Am 1. September behauptete Hitler wahrheitswidrig im Radio und vor dem Reichstag, Polen habe Deutschland angegriffen und seit 5:45 Uhr werde „zurückgeschossen“. Frankreich und Großbritannien erklärten am 3. September Deutschland den Krieg gemäß ihren Bündnisverträgen mit Polen, jedoch ohne eigene Kampfhandlungen gegen Deutschland zu eröffnen. Am 18. September wurde die Masse der polnischen Truppen eingeschlossen, nachdem tags zuvor die Rote Armee mit ihrem Einmarsch in Ostpolen begonnen hatte. Warschau kapitulierte am 27. September. Hitler nahm hier am 5. Oktober eine Parade der 8. Armee ab. Einen Tag später kapitulierten die letzten polnischen Truppen nach der Schlacht bei Kock. Parade am 5. Oktober 1939 in Warschau Im Verlauf des deutschen Polenkriegs fielen etwa 66.000 polnische und 17.000 deutsche Soldaten. Speziell aufgestellte Einsatzgruppen der Sicherheitspolizei und des SD, Soldaten der Wehrmacht und Einheiten von Volksdeutschen ermordeten im Polenfeldzug rund 16.400, bis zum Jahresende rund 60.000 Polen, darunter etwa 7.000 Juden. Damit wollten sie möglichst viele der zwei Millionen polnischen Juden in das sowjetisch besetzte Ostpolen vertreiben. Ab Oktober 1939 erfolgten dann Deportationen von Juden in abgelegene polnische Gebiete. Sie wurden zwar im März 1940 nach örtlichen Protesten eingestellt, dienten aber als erprobtes Muster für umfassende Abschiebepläne der Folgejahre wie der (nach dem Westfeldzug undurchführbare) Madagaskarplan, deren erwünschte Folge die Vernichtung der europäischen Juden sein sollte. a>en durch ein deutsches Einsatzkommando im Oktober 1939 Am 17. September 1939 marschierte die Rote Armee gemäß dem geheimen Zusatzprotokoll zum Hitler-Stalin-Pakt in Ostpolen ein. Nach dem Zusammentreffen von deutschen und sowjetischen Truppen in Brest-Litowsk am 22. September 1939 erfuhr Hitler, wie schlecht die sowjetischen Panzer seien. Die Niederlagen der Roten Armee im Winterkrieg gegen Finnland 1939/40 bestärkten Hitler in seiner Annahme, die Rote Armee sei ein leicht zu besiegender Gegner. „Euthanasie“. Führererlass zur Ermordung behinderter Menschen, umschrieben mit „unheilbar Kranken“ Aller Wahrscheinlichkeit nach äußerte sich Hitler um das Jahr 1935 grundsätzlich positiv zur „Euthanasie“, ohne diese konkret zu planen. Der Fall eines behinderten Kindes in Sachsen führte 1938 oder 1939 dazu, dass sich Hitler selbst bzw. die Kanzlei des Führers näher mit der Krankentötung beschäftigte. Zunächst wurde die Kinder-„Euthanasie“ vorbereitet. Im Juli 1939 erteilte Hitler dem Reichsärzteführer Leonardo Conti dann den Auftrag, auch die „Erwachseneneuthanasie“ zu organisieren. Während aber Conti eine Reglementierung befürwortete, entschied sich Hitler, einem Vorschlag Philipp Bouhlers folgend, dazu, die Mordaktion ohne Rechtsgrundlage durch die Kanzlei des Führers organisieren zu lassen. Im Oktober 1939 erging zu diesem Zweck ein informelles Schreiben Hitlers, das auf den 1. September, mithin auf den Kriegsbeginn, zurückdatiert war und Philipp Bouhler und Karl Brandt ermächtigte, die sprachlich als „Gnadentod“ verschleierte Ermordung von Psychiatriepatienten und behinderten Menschen zu organisieren. Diese schriftliche Vollmacht legitimierte auf Drängen der Organisatoren Hitlers vorherigen mündlichen Auftrag für diesen Massenmord ohne ausdrückliches Gesetz, das er aus Geheimhaltungsgründen auch weiterhin verweigerte. Der staatliche Krankenmord wurde als „Euthanasie“ beschönigt und als „Vernichtung lebensunwerten Lebens“ ideologisch gerechtfertigt. Über die halbstaatliche Sonderverwaltung Zentraldienststelle T4 wurden Zwischenanstalten eingerichtet, in denen die Opfer aus dem ganzen Reich zunächst gesammelt wurden, bevor man sie zur Vergasung in eigene Tötungsanstalten transportierte. Wegen verschiedener Durchführungspannen erfuhren Vertreter der Großkirchen in Deutschland, darunter Bischof Clemens August Graf von Galen, von dieser „Geheimen Reichssache“ und wandten sich nach einiger Bedenkzeit vereinzelt öffentlich dagegen. Daraufhin befahl Hitler im August 1941 offiziell die Einstellung der „Aktion T4“. Die Morde wurden dezentral als „wilde Euthanasie“ (auch als „Aktion Brandt“ bezeichnet) nun vor allem mit Medikamenten und Nahrungsentzug fortgesetzt. In der „Aktion 14f13“ wurden außerdem kranke, alte oder „nicht mehr arbeitsfähige“ KZ-Insassen ermordet. Bei Kriegsende war ungefähr die Hälfte aller Anstaltsinsassen getötet worden. Die Ermordung der Behinderten diente den SS-Einsatzkommandos als Experimentierfeld für die späteren Massenmorde an Juden. Allein im damaligen Reichsgebiet wurden fast 190.000 geistig und körperlich behinderte Menschen vergast, vergiftet, erschossen oder dem Hungertod überlassen; viele weitere Opfer gab es in den besetzten Gebieten. Gesamtschätzungen belaufen sich auf bis zu 260.000 Opfer. Völkermord an den Sinti und Roma. Hitler teilte seit seiner Wiener Zeit die gängigen Stereotype des Antiziganismus. Er beurteilte die in "Mein Kampf" unerwähnten Roma implizit wie die Juden als „rassefremde Elemente“, die somit aus dem „Volkskörper“ „auszumerzen“ seien. Gemäß Himmlers Erlass vom 8. Dezember 1938 zur „endgültigen Lösung der Zigeunerfrage“ wurden die Roma seit Juni 1939 aus vom NS-Regime kontrollierten Gebieten nach Osteuropa deportiert. Im Polenfeldzug ab September 1939 begannen die Nationalsozialisten und ihre Helfer mit Massenmorden an ihnen. Bis zum Kriegsende ermordeten sie zwischen 100.000 und 500.000 Roma. Hitler lehnte die Einberufung von Roma in die Wehrmacht 1940/41 ab und verbot Himmler 1942, „arische“ Roma von der Internierung in KZs auszunehmen. SS-Einsatzgruppen, Offiziere der Wehrmacht bei Racheaktionen für Partisanenanschläge oder KZ-Besatzungen führten die Massenmorde aus, besonders 1943/44 in den Gaskammern von Auschwitz. Der Porajmos war wie die Shoa ein rassistischer, auf Vernichtung zielender Völkermord. Direkte Mordbefehle Hitlers zu den Roma sind nicht bekannt. Seine Verantwortung steht jedoch wegen der rassistischen Gesamtplanung und Politik seines Regimes fest. Westfeldzug. In seiner Ansprache vor den Oberbefehlshabern am 23. November 1939 kündigte Hitler an, „zum günstigsten und schnellsten Zeitpunkt“ Westeuropa anzugreifen. Im „Unternehmen Weserübung“ besetzte die Wehrmacht vom 9. April bis 10. Juni 1940 zunächst das neutrale Dänemark und eroberte Norwegen. Vom 10. Mai bis 25. Juni okkupierte sie im Westfeldzug Luxemburg, Belgien, die Niederlande und zwang das mit Großbritannien verbündete Frankreich nach wenigen Wochen zur Kapitulation, nachdem sie in den Ardennen (Belgien, Nordfrankreich) die Maginot-Linie im sogenannten Sichelschnitt umgangen hatte. Am 24. Mai entschied Hitler, in Übereinstimmung mit Rundstedt, aber im Widerspruch zur Meinung anderer Generäle, die angeschlagene Panzertruppe zu schonen und die Einschließung von Dünkirchen der Luftwaffe zu überlassen. Deswegen konnten während der „Operation Dynamo“ über 224.000 britische und fast 112.000 französische und belgische Soldaten über den Ärmelkanal evakuiert werden; Waffen und Kriegsmaterial mussten sie auf dem Kontinent zurücklassen. Am 22. Juni 1940 wurde im symbolträchtigen Wagen von Compiègne der Waffenstillstand mit dem besiegten Frankreich geschlossen. Damit erreichte Hitler den Gipfel seines Ruhmes bei den Deutschen. Generaloberst Wilhelm Keitel folgend, stilisierte die NS-Propaganda Hitler fortan zum „größten Feldherrn aller Zeiten“, dessen Genie die nun so genannte „Blitzkriegstrategie“ erfunden und die raschen Siege bewirkt habe. Das entmachtete die Generalstäbe weiter, besonders das Oberkommando des Heeres, und bestärkte Hitler darin, sein eigentliches Kriegsziel, die Vernichtung der Sowjetunion, in Angriff zu nehmen. Ein Feldzug gegen Russland sei, verglichen mit dem Feldzug im Westen, ein „Sandkastenspiel“, hatte er laut Speer am 21. Juni 1940 gegenüber Keitel und Jodl bemerkt. Sein Ziel, Großbritannien zur Anerkennung der deutschen Alleinherrschaft auf dem europäischen Festland und Duldung weiterer Eroberungen im Osten zu zwingen, verfehlte Hitler jedoch. Am 10. Mai 1940 war Winston Churchill, seit 1933 ein strikter Gegner der Appeasementpolitik, neuer britischer Premierminister geworden. Am 19. Juli 1940 lehnte er Hitlers öffentliches Waffenstillstandsangebot über die BBC umgehend und endgültig ab. Die Luftschlacht um England (10. Juli bis 31. Oktober 1940) endete als militärisches Patt, war aber eine politische und strategische Niederlage für Hitler, dem es zum ersten Mal misslang, einem Land seinen Willen aufzuzwingen. Daraufhin ließ Hitler im Frühjahr 1941 die Planungen für die Invasion Englands einstellen. Am 31. Juli 1940 teilte Hitler dem OKW seinen Entschluss mit, die Sowjetunion bis zum Ural zu erobern, um danach Großbritannien zu besiegen und dessen Bündnis mit den Vereinigten Staaten von Amerika zuvorzukommen. Damit rechtfertigte er den Zweifrontenkrieg. Er befahl, diesen weiteren Angriffskrieg bis zum Frühjahr 1941 vorzubereiten. Italien war kurz vor der französischen Kapitulation im Juni 1940 Deutschlands Kriegsverbündeter geworden. Zusammen mit dem japanischen Botschafter Saburō Kurusu unterzeichneten Mussolini und Hitler am 27. September 1940 in Berlin den Dreimächtepakt zwischen Japan, Italien und Deutschland, der gegenseitigen Beistand bei der „Schaffung einer neuen Ordnung in Europa“ und „im großasiatischen Raum“ zusicherte. Dem Dreimächtepakt traten zwischen November 1940 und Juni 1941 Ungarn, Rumänien, die Slowakei, Bulgarien und Kroatien bei. Die Vertragsbestimmungen sollten vor allem die USA von einem Kriegseintritt abhalten und eine starke Front gegen Großbritannien bilden, verfehlten aber diesen Zweck. Hitlers Versuche, Spanien und Frankreich in die Kriegführung gegen Großbritannien einzubeziehen, misslangen im Oktober 1940. Auf der Fahrt zur Begegnung mit dem „Caudillo“ Franco traf Hitler am 22. Oktober 1940 in Montoire-sur-le-Loir den französischen Außenminister Pierre Laval, einen Fürsprecher der Kollaboration mit Deutschland, zu einem informellen Gespräch. Am nächsten Tag, beim Treffen mit Franco in Hendaye, rechnete Hitler mit dessen Anerkennung für die deutsche Hilfe im Spanischen Bürgerkrieg und schlug den sofortigen Abschluss eines Bündnisses und den spanischen Kriegseintritt für den Januar 1941 vor. Den spanischen Territorialwünschen in Nordafrika (Französisch-Marokko, Provinz Oran) wollte er aber mit Rücksicht auf Vichy-Frankreich nicht nachgeben. Außerdem konnte Deutschland Spanien nicht das liefern, was Großbritannien vermocht hatte: Kohle, Kautschuk, Baumwolle und den lebenswichtigen Weizen, wodurch Spanien im Sommer 1940 vor einem wirtschaftlichen Kollaps bewahrt worden war. Der vorsichtige Franco ließ sich daher nicht zu unbedachten Schritten, zum Beispiel zu einem Angriff auf Gibraltar, bewegen und war nur zu einem Protokoll bereit, wonach der spätere Kriegseintritt erst noch gemeinsam festgelegt werden müsse. Damit war die Abmachung für Hitler praktisch wertlos. Im internen Kreis „wütete“ er später über das „"Jesuitenschwein"“ und den „"falsche[n] Stolz des Spaniers"“. Am 24. Oktober traf Hitler sich mit Marschall Pétain in Montoire-sur-le-Loir. Hier verfolgte er die Absicht, wenn schon nicht eine Kriegserklärung Frankreichs an Großbritannien, so wenigstens die Verteidigung der französischen Kolonien in Nordafrika und Nahost gegen Angriffe der Forces françaises libres (Charles de Gaulle) und der Briten zu erreichen. Frankreich könne bei einer Neuverteilung afrikanischer Kolonien aus englischem Besitz voll entschädigt werden. Pétain und Außenminister Laval bekräftigten, dass das Ausmaß der Zusammenarbeit Frankreichs mit Deutschland von großzügiger Behandlung und dem Erwerb von Kolonialgebieten bei einem Friedensschluss abhänge. Hitler bot Pétain nichts Konkretes an, und umgekehrt sagte Pétain eine aktive Unterstützung nicht präzise zu. „Das Ergebnis“, so Ian Kershaw, „war daher bedeutungslos“. Henry Rousso weist darauf hin, dass die Konsequenzen dennoch weitreichend gewesen seien. Denn obwohl enttäuscht, verkündete Pétain am 30. Oktober 1940 in einer Rede, er werde den „Weg der Kollaboration“ betreten und leitete den Wechsel von einer attentistischen Kooperation zu einer aktiven Zusammenarbeit seines Regimes mit der Besatzungsmacht ein. Er prägte dabei nicht nur einen neuen politischen Begriff, sondern führte auch einen Bruch herbei, der in der französischen und internationalen Öffentlichkeit negativ aufgenommenen wurde. Hitler gab den Plan auf, Großbritannien aus dem Mittelmeerraum (Gibraltar, Malta, Ägypten) zu verdrängen. Seiner Ansicht nach waren die gravierenden Interessengegensätze zwischen Spanien, Frankreich und Italien im Mittelmeerraum nicht zu überwinden, sodass eine darauf ausgerichtete Strategie gegen Großbritannien nicht von großem Nutzen sein würde, diesen Gegner zu besiegen und derart auch die USA von einem möglichen Kriegseintritt im Jahr 1941 abzuhalten. Für zwei weitere Optionen, einen strategischen Luftkrieg oder einen Belagerungskrieg gegen Großbritannien, fehlten die materiellen Voraussetzungen: eine Flotte schwerer Bomber beziehungsweise eine starke Marine. Die vierte Option, eine Invasion auf der britischen Insel, wurde von der Heeresführung favorisiert. Nach Molotows Besuch in Berlin am 12. und 13. November 1940 und dem Unbehagen, das dieser Besuch bei ihm ausgelöst hatte, war Hitler mehr denn je davon überzeugt, dass die „Vernichtung“ der Sowjetunion in einem Blitzfeldzug der einzige Weg sei, den Krieg zu gewinnen. Er wies daher Brauchitsch und Franz Halder am 5. Dezember 1940 an, das Heer für einen Angriff auf die Sowjetunion Ende Mai nächsten Jahres vorzubereiten. Ein Sieg über die Sowjetunion, den Hitler aus weltanschaulichen und rassischen Gründen sowieso wollte, schien ihm der sicherste Weg für das Deutsche Reich zu sein, gegenüber den USA und Großbritannien unangreifbar zu werden. Hitler und das Regime „hatten 1940 nur eine Wahl: weiterzuspielen und wie stets den kühnen Schritt nach vorn zu wagen“. Vernichtungskrieg gegen die Sowjetunion. Hitler war 1940 vom Wirtschaftsministerium informiert worden, dass die im Hitler-Stalin-Pakt vereinbarten sowjetischen Rohstofflieferungen, die Deutschland bereits kaum begleichen konnte, nicht ausreichen würden, um einen langen Krieg gegen Großbritannien und möglicherweise die USA zu führen. Seine Absicht, demnächst die Sowjetunion anzugreifen, um Deutschland durch die Aneignung sowjetischer Getreide-, Erz- und Ölvorkommen von Importen unabhängig zu machen, wurde in führenden Kreisen von Wehrmacht, Großwirtschaft und Ministerialbürokratie von vielen geteilt. Hitlers Ziel war „ein blockadefestes Großimperium“ bis zum Ural und über den Kaukasus hinaus. Am 18. Dezember 1940 befahl er dem Wehrmachtführungsstab, den Angriff auf die Sowjetunion („Fall Barbarossa“) bis Mai 1941 streng geheim vorzubereiten. Sein eigener Beitrag dazu war, dass er die Sowjetunion in keiner öffentlichen Rede bis zum 22. Juni 1941 erwähnte. In den Folgemonaten erließ er den Kommissarbefehl und weitere Befehle, die sowjetischen Führungseliten im Gefolge der Front zu ermorden und Partisanenaktionen durch Vergeltungsakte an Zivilisten zu bekämpfen. Vor über 200 höheren Offizieren der Wehrmacht erklärte er am 30. März 1941 in der Reichskanzlei, der bevorstehende Krieg sei ein rassenideologischer Vernichtungskrieg und ohne Rücksicht auf kriegsvölkerrechtliche Normen zu führen. Die Befehlshaber müssten jegliche persönlichen Skrupel überwinden. Keiner der Anwesenden nahm den Anlass wahr, Hitlers Forderungen nachher noch einmal zur Erörterung zu stellen. Das OKW und das OKH gaben daraufhin entsprechende operative Befehle aus. Zudem sah die Blitzkriegsplanung vor, große Teile der sowjetischen Bevölkerung verhungern zu lassen. Überleben sollte nur, wer in den besetzten Gebieten für die Bereitstellung von Rohstoffen und Nahrungsmitteln benötigt wurde. Die übrigen galten als unnütze Esser, die die deutsche Ernährungsbilanz belasteten (→ Hungerplan). Mit einmonatiger Verzögerung infolge des Balkanfeldzuges überfiel die Wehrmacht die Sowjetunion am 22. Juni 1941 auf Hitlers Befehl ohne offizielle Kriegserklärung. Das stattdessen in Moskau von Schulenburg übergebene „Memorandum“ behauptete ebenso wie die folgende NS-Propaganda eine akute Angriffsabsicht der Roten Armee, die Hitler rechtzeitig vorhergesehen habe und der er nun vorbeuge. Letztere gab Hitler als Retter des Abendlandes vor „asiatischer Barbarei“ und kulturzerstörendem „(jüdischem) Bolschewismus“ aus. An dieser Präventivkriegsthese hielten viele Generäle der Wehrmacht weit über 1945 hinaus fest. Dagegen betonen Historiker Hitlers Absichten, die er 1927 im zweiten Band von "Mein Kampf" dargelegt und seit 1933 wiederholt bekräftigt hatte: Er wollte die Sowjetunion zur „Erweiterung des Lebensraumes bzw. der Rohstoff- und Ernährungsbasis“ der Deutschen erobern, das fiktive, dort angeblich herrschende Weltjudentum vollständig vernichten und die Bevölkerung der eroberten Gebiete entweder als Sklavenarbeiter ausbeuten oder ebenfalls vernichten. In Leningrad, das von September 1941 bis Januar 1944 von deutschen und finnischen Truppen belagert wurde, tötete die deutsche „rassistisch motivierte Hungerpolitik“ etwa 1,1 Millionen Menschen. Trotz siegreicher Kesselschlachten war der Plan "Barbarossa" bereits im August 1941 gescheitert, weil aus den Kesselschlachten große Teile des Gegners entkamen und sich neu formierten, der Überraschungseffekt abflaute, die deutschen Verluste zunahmen und Hitlers „Zickzack der Anordnungen“ zur Schwerpunktbildung bei der "Heeresgruppe Mitte" oder der "Heeresgruppe Süd" sich häuften. Der deutsche Vormarsch geriet ab Oktober 1941 ins Stocken. Die Sowjetunion konnte einen Großteil ihrer Rüstungsproduktion östlich des Urals fortsetzen und neue Divisionen an ihre Westfront führen. Bei einer Konferenz in Berlin am 29. November 1941 berichtete Walter Rohland Hitler und dem OKW von der Überlegenheit der sowjetischen Panzerproduktion. Nach seinen Angaben sagte Rüstungsminister Fritz Todt dabei im kleinen Kreis: „Dieser Krieg ist militärisch nicht mehr zu gewinnen!“ Hitler habe gefragt, wie er ihn beenden solle, und eine politische Lösung als kaum möglich ausgeschlossen. Lagebesprechung im Hauptquartier der Heeresgruppe Süd in Poltawa, 1. Juni 1942 Der Angriff auf Moskau (Beginn 2. Oktober) war ein letzter improvisierter Versuch Hitlers, die Niederlage der Sowjetunion vor dem Winter zu erzwingen. Aber ab Mitte Oktober ließen heftige Regenfälle und später strenger Frost (−22 °C) alle Operationen zum Stillstand kommen. Die Ausrüstung der deutschen Armee für den Winterkrieg und der Nachschub für die Heeresgruppe Mitte waren völlig unzureichend. Trotzdem beharrte Hitler auf der Meinung, die Rote Armee befinde sich kurz vor dem Zusammenbruch, und wollte Moskau belagern und aushungern lassen. Am 5. Dezember musste der Vormarsch wegen arktischer Temperaturen von minus 40 bis 50 Grad Celsius und des mangelnden Nachschubs an Waffen, Verpflegung und Winterausrüstung 20 bzw. 30 km vor Moskau eingestellt werden. Am Tag darauf begann der sowjetische Gegenangriff mit 100 Divisionen, unter ihnen frische, für den Winterkrieg ausgerüstete Einheiten aus Fernost, der die Heeresgruppe Mitte zum Rückzug zwang. Der Rückzug drohte in eine heillose Flucht umzuschlagen. In dieser gefährlichen Situation verbot Hitler am 15. und am 19. Dezember 1941 jeden weiteren Rückzug und erlaubte „nur dort eine Ausweichbewegung […], wo weiter rückwärts eine Stellung vorbereitet ist“. Dieser Befehl trug „möglicherweise und vorübergehend zur Vermeidung einer Katastrophe von napoleonischen Ausmaßen bei“. Hitler übernahm selbst den Oberbefehl über das Heer von Walther von Brauchitsch und war überzeugt: „Das bißchen Operationsführung kann jeder machen.“ Aber wäre Hitler flexibler gewesen, dann wäre die Ostfront bis Ende Januar 1942 wahrscheinlich mit weniger Verlusten an Menschenleben konsolidiert worden. Die deutschen Verluste in der Schlacht um Moskau, 581.000 Soldaten, waren größer als die in Stalingrad und bei Kursk im folgenden Jahr. Die Sowjetunion verlor 1,8 Millionen Soldaten. Vor Moskau wandte das Ostheer erstmals das Prinzip der „verbrannten Erde“ zur Deckung des Rückzugs an, das sowjetische Zivilisten und Kriegsgefangene im Rückzugsgebiet massenhaft dem Hunger- oder Kältetod preisgab. Nicht alle Befehle dazu stammten von Hitler oder Keitel, sollten aber „dem Führer entgegenarbeiten“. Die Niederlage vor Moskau gilt als eigentliche Zäsur des Weltkriegs, weil sie die Serie der deutschen Blitzkriege beendete. Hitler erkannte dies laut Jodl sofort. Der Deutsch-Sowjetische Krieg „war genau der Krieg, den Hitler seit den zwanziger Jahren gewollt hatte“. Als bisher verlustreichster Krieg der Menschheitsgeschichte kostete er etwa 28 Millionen Sowjetbürgern das Leben, darunter 15,2 Millionen Zivilisten. Mindestens 4,2 Millionen Menschen starben hungers, unter ihnen auch 2,5 Millionen der 3,3 Millionen sowjetischen Kriegsgefangenen, die im deutschen Gewahrsam an Unterernährung, Krankheiten oder Misshandlungen starben oder erschossen wurden. Holocaust. Der Vernichtungskrieg gegen die Sowjetunion und die Eskalation zum Holocaust gingen Hand in Hand. Die vier Einsatzgruppen der SS sollten nach Heydrichs Instruktion vom 2. Juli 1941 kommunistische Funktionäre, „radikale Elemente“ (Partisanen) sowie „alle Juden in Partei- und Staatsstellungen“ erschießen. Bald wurden unterschiedslos alle auffindbaren Juden als angebliche Partisanen ermordet – zunächst überwiegend Männer, dann auch jüdische Frauen und Kinder. Am 16. Juli 1941 begrüßte Hitler gegenüber hohen NS-Vertretern den sowjetischen Partisanenkrieg: „… er gibt uns die Möglichkeit, auszurotten, was sich gegen uns stellt.“ Er übertrug Himmler für diese Mordaufgabe die Führung über SS, Polizei und SD auch im Osten. Himmler verstärkte die Einsatzgruppen sofort von 3.000 auf 33.000 Mann. Hitler ließ sich ab 1. August laufend über ihre Ergebnisse berichten. In den ersten fünf Monaten des Ostfeldzugs ermordeten sie ungefähr 500.000 Juden. Am 19. August folgte Hitler dem Vorschlag von Goebbels, nach den polnischen auch die deutschen Juden zum Tragen des Judensterns zu zwingen. Etwa am 17. September 1941 erlaubte er auf Drängen vieler Gauleiter, die Deportation der deutschen Juden nach Osten einzuleiten, die er bislang erst nach dem Sieg über die Sowjetunion beginnen lassen wollte. Damit reagierte er auf Alfred Rosenbergs Vorschlag, sich so an Stalins Deportation der Wolgadeutschen zu rächen. Am 25. Oktober kam Hitler vor Vertrauten auf seine Ankündigung vom 30. Januar 1939 zurück, die Juden im Fall eines neuen Weltkriegs als Vergeltung für die deutschen Kriegsopfer zu vernichten: „Diese Verbrecherrasse hat die zwei Millionen Toten des Weltkrieges auf dem Gewissen, jetzt wieder Hunderttausende. Sage mir keiner: Wir können sie doch nicht in den Morast schicken! […] Es ist gut, wenn uns der Schrecken vorangeht, daß wir das Judentum ausrotten.“ Am 12. Dezember, dem Tag nach seiner Kriegserklärung an die USA, sagte Hitler nach Goebbels’ Notizen zu den in die Reichskanzlei geladenen Gau- und Reichsleitern: „Der Weltkrieg ist da, die Vernichtung des Judentums muss die notwendige Folge sein.“ Die Juden müssten die Opfer unter deutschen Soldaten im „Ostfeldzug“ mit ihrem Leben bezahlen. Die Anwesenden, darunter Hans Frank, verstanden Hitlers Aussage als Aufforderung, die europäischen Juden nicht mehr abzuschieben, sondern im besetzten Polen zu ermorden und nach geeigneten Methoden dafür zu suchen. Am 18. Dezember 1941 notierte Himmler in seinen Dienstkalender, Hitler habe auf sein Nachfragen das bisherige Vorgehen der Einsatzgruppen bestätigt und befohlen: „Judenfrage / als Partisanen auszurotten“. Hitler hatte Görings Auftrag an Reinhard Heydrich vom 31. Juli 1941 zur „Gesamtlösung der Judenfrage“ autorisiert und ordnete auch die Wannseekonferenz vom 20. Januar 1942 an, auf der Heydrich seinen Auftrag erläuterte: 11 Millionen europäische Juden sollten nach Osten deportiert werden, angestrebt sei ihre „natürliche Verminderung“ durch Sklavenarbeit sowie „entsprechende Behandlung“ der Überlebenden. Damit umschrieb er die Ausrottungsabsicht in der Tarnsprache des NS-Regimes. Für die „Räumung“ von bereits überfüllten Judenghettos für nachfolgende Deportierte wurden ab März 1942 im besetzten Polen drei Vernichtungslager in Betrieb genommen. Damit begann auch die Ermordung der Deportierten sofort bei ihrer Ankunft und durch Gaskammern. Davon waren Juden und Roma betroffen. Ankunft von Juden aus Ungarn im KZ Auschwitz, Mai 1944 Ein schriftlicher Holocaustbefehl Hitlers wurde nicht gefunden und gilt als unwahrscheinlich. Seine Aussage vom 12. Dezember 1941 deuten manche Historiker als Entscheidung, die Judenmorde auf ganz Europa auszuweiten, oder zumindest als wichtigen Eskalationsschritt des Holocaust. Diesen habe Hitler jedoch nicht allein eingeleitet und nicht an einem einzigen Datum befohlen. Zeitzeugen belegten mündliche Befehle Hitlers zur Durchführung von Judenmorden. So berief sich Staatssekretär Wilhelm Stuckart Ende Dezember 1941 – also wenige Wochen vor der sog. Wannseekonferenz zur systematischen Vernichtung der Juden –, als er wegen Anordnungen zu Judenmorden entlassen werden sollte, erfolgreich auf einen Führerbefehl. Heinrich Himmler sprach in Briefen und Reden an Untergebene wie den Posener Reden von 1943 wiederholt von Hitlers ihm auferlegten Befehl zur „Endlösung“ und hielt besondere Anweisungen Hitlers dazu in seinen Privatnotizen fest. Hitler selbst erklärte ab Januar 1942 öffentlich mehrfach, dass sich seine „Prophezeiung“ vom Januar 1939 nun „erfülle“. Folgerichtig bezeichnete Goebbels ihn in einem Tagebucheintrag vom 27. März 1942 als „unentwegten Vorkämpfer und Wortführer einer radikalen Lösung“ der „Judenfrage“ Hitler ließ sich am 7. Oktober 1942 persönlich von Odilo Globocnik über die Judenmorde in vier Vernichtungslagern unterrichten und im März 1943 den Korherr-Bericht über die Ermordung (umschrieben als „Evakuierung“ und „Sonderbehandlung“) von bis dahin 2,5 (tatsächlich über drei) Millionen Juden vorlegen. Auch die Tarnsprache ordnete er an. NS-Täter wie Rudolf Höß und Adolf Eichmann haben nach Kriegsende einen Befehl Hitlers vom Sommer oder Herbst 1941 zur Ausrottung der Juden bezeugt. Auf dem Höhepunkt der Schlacht um Stalingrad erinnerte Hitler am 8. November 1942 im Münchener Löwenbräukeller zum vierten Mal in diesem Jahr an seine „Prophezeiung“ über die Juden. An dieser Stelle der Rede hatte er gerade alle Kompromisse und Friedensangebote an äußere Feinde ausgeschlossen. Das Ergebnis des „internationalen Weltkrieg“[s] werde „die Ausrottung des Judentums in Europa sein“. Weiterer Kriegsverlauf. a> Berlin, 11. Dezember 1941 (oben links Göring) Am 7. Dezember 1941 griff das mit Deutschland verbündete Kaiserreich Japan den US-Flottenstützpunkt Pearl Harbor an und zog damit die USA in den Zweiten Weltkrieg. Hitler, der nicht in Japans Angriffsplan eingeweiht war, begrüßte den Angriff euphorisch: Nun könne Deutschland den Krieg nicht mehr verlieren. Am 11. Dezember 1941 im Reichstag erklärte er den USA den Krieg, ohne dass der Dreimächtepakt ihn dazu verpflichtete, ohne vorher seine Generäle zu konsultieren und ohne die militärstrategischen und wirtschaftlichen Folgen für die eigene Kriegführung kalkulieren zu lassen. Historiker nehmen verschiedene Gründe dafür an: Hitler habe für 1942 ohnehin mit dem Eingreifen der USA gerechnet und ihre seit dem Leih- und Pachtgesetz begonnenen Rüstungslieferungen an Großbritannien und die Sowjetunion als Kriegseintritt gewertet. Er habe ihre Kriegserklärung nicht abwarten wollen, um ein Zeichen der Stärke zu setzen. Er habe immer noch mit dem baldigen Sieg über die Sowjetunion gerechnet und dann einen „Weltblitzkrieg“ mit dem Ziel deutscher Weltherrschaft führen wollen. Er habe Einzelsiege der USA gegen die Achsenmächte und etwaige bilaterale Friedensverhandlungen von vornherein ausschließen wollen. Er habe sich die Möglichkeit eines U-Boot-Krieges im Atlantik eröffnen wollen. Er habe im Wissen um die unvermeidbare Niederlage Deutschlands Untergang herbeiführen wollen. Im Krieg wurde Hitler zu einem „Workaholic“, der vor allem mit Details beschäftigt war, ohne sich erholen zu können, umgeben von der immer gleichen, wenig inspirierenden Entourage. Nächte mit wenig Schlaf und tägliche lange Besprechungen mit führenden Militärs folgten aufeinander. Sein Arbeitsstil war Folge der extrem personalisierten Herrschaft und seiner Unfähigkeit, Autorität zu delegieren. Seine egomanische Überzeugung, nur er könne den Sieg gewährleisten, verstärkte sein Misstrauen gegen seine Generäle und vermehrte cholerische Wutausbrüche. Dies zerstörte ab 1940 die geregelte Arbeit der Regierung und des militärischen Kommandos, was mit Hitlers Übernahme der Heeresführung in der Winterkrise 1941 deutlich wurde. Bei Angelegenheiten, die die Heimatfront betrafen, beanspruchte er kompromisslos die Autorität, intervenierte dann aber nur sporadisch und unsystematisch, um Untätigkeit zu verschleiern. Anfang 1943 verlor die Wehrmacht mit ihren bislang höchsten Verlusten die Schlacht von Stalingrad. Diese Niederlage gilt als Wendepunkt des Zweiten Weltkriegs. Hitler war dafür verantwortlich, da er dem Befehlshaber der 6. Armee den Rückzug aus Stalingrad verboten hatte, solange dies noch operativ möglich gewesen war, ohne die Heeresgruppe A, die bis zum Kaukasus vorgestoßen war, zu gefährden. Hitler selbst äußerte danach, dass der Krieg nicht mehr zu gewinnen sei. Das Deutsche Afrikakorps (DAK) verlor die zweite Schlacht von El-Alamein, und Rommel befahl am 4. November 1942 gegen Hitlers Befehl wegen erdrückender Übermacht der Briten den Rückzug. In Tunesien wurde das DAK von britischen und inzwischen eingetroffenen US-Truppen in die Zange genommen („Operation Torch“). Rommels Bitte vom März 1943, Tunesien räumen und seine Truppen nach Sizilien zurückziehen zu dürfen, lehnte Hitler strikt ab und berief Rommel aus Nordafrika ab. Am 12. Mai 1943 kapitulierten 150.000 deutsche und 100.000 italienische Soldaten bei und in Tunis. Diese Niederlage deuteten viele Deutsche als "„zweites Stalingrad“" oder "„Tunisgrad“". Anfang April 1943 traf Hitler Mussolini im Schloss Kleßheim bei Salzburg und lehnte dessen Eintreten für einen Kompromissfrieden im Osten kategorisch ab. Mit langen Monologen über die preußische Geschichte versuchte er, Mussolini zur Fortsetzung des Krieges zu bewegen. Auch die verbündeten Machthaber von Bulgarien, Rumänien, Ungarn, Norwegen, der Slowakei, Kroatien und Frankreich traf er bis Ende April in Kleßheim, um ihren Widerstandswillen durch Schmeichelei, gutes Zureden und kaum verhüllte Drohungen zu stärken. Mit Hilfe eigens angefertigter Karten des OKW, auf denen der Frontverlauf im Osten falsch eingetragen und die Kräfte des Gegners sowie die eigenen nicht erkennbar waren, beschönigte er die Lage. Anfang 1944 erlangten die alliierten Bomber- und Jagdverbände allmählich die Luftüberlegenheit und zerstörten viele große und mittlere deutsche Städte durch Flächenbombardements. Trotzdem ließ Hitler weiterhin auch Bomben- statt vermehrt Jagdflugzeuge zur Bekämpfung dieser Angriffe bauen. Nach der „Operation Gomorrha“ gegen Hamburg im Juli 1943, bei der über 30.000 Menschen im Feuersturm umkamen, weigerte er sich, die zu mehr als 50 Prozent zerstörte Stadt zu besuchen, empfing keine Delegation der Rettungsdienste und hielt keine Rundfunkrede. Nach drei Großangriffen auf Berlin im August und September 1943 notierte Goebbels in sein Tagebuch, dass man „vor allem beklagt, daß bezüglich des Luftkriegs von seiten des Führers kein erklärendes Wort gesprochen wird“. Hitlers strategische Fehlentscheidungen begünstigten die „Operation Overlord“ am 6. Juni 1944. So hatte er zwar zunächst die Normandie als Invasionsgebiet angenommen, sich jedoch von seinem Stab wieder davon abbringen lassen und glaubte noch am 13. Juni an ein Täuschungsmanöver. Er verbot, Truppen von anderen Küstenabschnitten abzuziehen und vermutete eine Landung beim Pas-de-Calais. Die deutschen Truppen in der Normandie wurden an unerwarteter Stelle überrascht und konnten nicht mehr rechtzeitig durch zwei bei Paris stationierte Panzerdivisionen verstärkt werden, auch weil Adolf Hitler – als einziger befugt, diese Reserven freizugeben – den Großteil des Angriffs bis nach 10 Uhr morgens im Berghof (Obersalzberg) verschlief, da niemand in seinem Stab sich traute, ihn zu wecken. „Diese Verzögerung war entscheidend.“ Als alliierte Truppen im August 1944 auf Paris vorrückten, befahl Hitler, die Stadt bis zum letzten Mann zu verteidigen und nahm damit ihre Zerstörung in Kauf. Nach anfänglichem Widerstand ignorierte der deutsche Stadtkommandant Dietrich von Choltitz Hitlers Befehl und übergab Paris kampflos und nahezu unversehrt an den französischen General Philippe de Hauteclocque. Weil Hitler merkte, dass er das Vertrauen der Deutschen verloren hatte und ihnen keine Triumphe mehr verkünden konnte, redete er 1944 nicht mehr öffentlich und nur dreimal (am 30. Januar, 21. Juli und 31. Dezember) im Rundfunk. Sein Gesundheitszustand verschlechterte sich rasch. Wahrscheinlich litt er an der Parkinson-Krankheit, die aber seine politisch-militärische Entscheidungsfähigkeit kaum beeinflusste. Trotz fortwährender Niederlagen, immenser Opfer, gewaltiger Zerstörungen und des Wissens um die unvermeidbare deutsche Niederlage ließ Hitler den Krieg fortsetzen. Seine Eingriffe in die Kriegführung, etwa das Verbot, gefährdete Truppenteile frühzeitig zurückzuziehen (→ Fester Platz), bewirkten massive Verluste auf Seiten der Wehrmacht. In einer von zahlreichen Illusionen bestimmten Gesamtbeurteilung hatte Hitler schon Mitte August 1944 erwogen, gegen die Westalliierten einen empfindlichen militärischen Schlag zu führen, der den Zusammenbruch der Anti-Hitler-Koalition bewirken sollte. Vier Tage vor Beginn der Ardennenoffensive sagte er zu seinen Kommandeuren, dass der Feind, „ganz gleich, was er auch tut, nie auf eine Kapitulation rechnen kann, niemals, niemals“; dieser werde schließlich „eines Tages einen Zusammenbruch seiner Nervenkräfte erleben“. Am 7. März erreichten US-Soldaten die unzerstörte Brücke von Remagen südlich des Ruhrgebiets. Hitler ließ ein „Fliegendes Standgericht“ an die Westfront entsenden, das fünf Offiziere der Brückenmannschaft von Remagen am 9. März zum Tode verurteilte. Am 23. März begann die Rheinüberquerung nördlich des Ruhrgebiets bei Wesel durch britische Truppen. Damit war der Krieg im Westen endgültig verloren, aber Hitler weigerte sich, zu kapitulieren. Er sah nur noch in einem „Kampf bis zum Letzten“ Sinn, um so wenigstens von zukünftigen Generationen geachtet zu werden. Seit Anfang seiner politischen Karriere dachte Hitler in extremen Alternativen: Deutschland werde siegen oder untergehen. Je unwahrscheinlicher ein Sieg wurde, desto totaler sollte die deutsche Niederlage sein. Gegenüber Speer erklärte er am 18. März 1945, es sei nicht notwendig, Rücksicht auf die Grundlagen zu nehmen, die das Volk zu seinem primitivsten Weiterleben brauche. Es sei besser, selbst diese Dinge zu zerstören. Das Volk habe sich als das schwächere erwiesen, und die Zukunft gehöre ausschließlich dem stärkeren „Ostvolk“. Am 19. März befahl Hitler per Führererlass (später „Nerobefehl“ genannt) die Zerstörung aller Infrastrukturen beim Rückzug des Heeres. Er beauftragte Speer und die Gauleiter, die Zerstörungen durchzuführen, erfuhr aber, dass Speer seinen Befehl sabotiere. Dieser bestritt dies, aber Goebbels sah darin Hitlers Autorität schwinden. Widerstand gegen Hitler. Zwischen 1933 und 1945 übten Einzelpersonen, Gruppen und Organisationen aus verschiedenen Gründen Widerstand gegen Hitlers Regime. Nur wenige lehnten von vornherein seine Diktatur ab. Die verfolgten Kommunisten und Sozialdemokraten hatten schon vor 1933 gewarnt: „Hitler bedeutet Krieg!“ Die Exil-SPD Sopade versuchte, die Deutschen vom Ausland aus zu beeinflussen und rief sie am 30. Januar 1936 mit der Flugschrift „Für Deutschland – gegen Hitler!“ zum Aufstand gegen sein Regime auf. Ab Februar 1933 gab es oft anonyme Attentatsdrohungen gegen Hitler. Mindestens 19 Attentate wurden auf ihn verübt; 20 weitere Attentatsversuche wurden geplant, aber nicht ausgeführt oder vereitelt, die meisten ab 1939, als sein Kriegskurs unübersehbar geworden war. Einzeltäter waren der von der nationalsozialistischen Oppositionsgruppe „Schwarze Front“ beauftragte Helle Hirsch im Dezember 1936, der Schweizer Theologiestudent Maurice Bavaud im November 1938 und der Handwerker Georg Elser. Sein selbstgebastelter Sprengsatz explodierte am 8. November 1939 im Münchner Bürgerbräukeller nur Minuten, nachdem Hitler seine dortige Rede beendet hatte. Elser wurde als „Sonderhäftling des Führers“ im KZ Dachau am 9. April 1945 auf Hitlers persönlichen Befehl ermordet. Die 1934 gegründete Bekennende Kirche widersprach zwar staatlichen Übergriffen auf die Kirchenorganisation, kaum aber Staatsverbrechen. Viele ihrer Mitglieder wählten die NSDAP, billigten die Aufhebung der Demokratie und die gesetzliche Judenverfolgung. Pastor Dietrich Bonhoeffer kritisierte den Führerkult im Februar 1933 in einem Rundfunkvortrag („Führer und Amt, die sich selbst vergotten, spotten Gottes“) und forderte im April 1933 kirchlichen Widerstand gegen Menschenrechtsverletzungen des Hitlerregimes. Nach den Novemberpogromen 1938 half er im Kreis um Hans Oster aktiv mit, ein Attentat auf Hitler vorzubereiten. 1938 bildeten sich auch konservative und innermilitärische Widerstandsgruppen wie der Goerdeler-Kreis und der Kreisauer Kreis. Ihre Umsturzpläne setzten auf Teile der Wehrmacht, hatten daher nur bei einer Tötung Hitlers Erfolgsaussicht und konnten nur von Personen mit Zugang zum engsten Führungskreis um ihn ausgeführt werden. Diese hatten Hitler unbedingte Treue geschworen; schwere Gewissenskonflikte waren also unvermeidbar. Bei der Septemberverschwörung während der Sudetenkrise planten einige hohe Militärs und Beamte im Auswärtigen Amt, dass Hauptmann Friedrich Wilhelm Heinz am 28. September 1938 mit einem Stoßtrupp in die Reichskanzlei eindringen und Hitler in einem Handgemenge erschießen sollte. Als dieser überraschend einem Kompromiss für das Münchner Abkommen zustimmte, erschien es aussichtslos, seinen Sturz mit „militärischem Abenteurertum“ zu rechtfertigen. Daraufhin unterblieb das Attentat, das von Brauchitsch und Halder nur halbherzig unterstützt hatten. Die an der Verschwörung beteiligten Militärs im OKH und in der Amtsgruppe Abwehr des OKW hielten Hitlers Vorhaben, Frankreich schon 1939 anzugreifen, für undurchführbar und wollten diesen Angriff mit einem weiteren Putschversuch verhindern. Nach Elsers Attentat wurden die Vorkehrungen zu Hitlers Schutz jedoch verschärft. Brauchitsch fürchtete nach einem Wutausbruch Hitlers am 5. November 1939, dieser wisse über den bevorstehenden Putschversuch Bescheid. Daraufhin erschien Hans Oster eine für den 11. November 1939 geplante Sprengstoffübergabe an Erich Kordt zu riskant; somit unterblieb dieses Attentat. Die als Weiße Rose bekannt gewordene Münchner Gruppe versuchte bis zur Verhaftung der Geschwister Scholl am 18. Februar 1943, die Deutschen, besonders die Jugend, mit Flugblättern zum Widerstand zu bewegen. Hauptgrund waren NS-Verbrechen wie der Holocaust, von dem die Gruppe über Auslandssender wusste. Die Mitglieder wurden am 22. Februar 1943 hingerichtet. Nach der Niederlage in Stalingrad versuchten einige Offiziere der Heeresgruppe Mitte erneut, Hitler zu töten. Die Bombe, die Henning von Tresckow am 13. März 1943 in Hitlers Flugzeug schmuggelte, zündete nicht. Am 21. März 1943 wollte sich Rudolf-Christoph Freiherr von Gersdorff bei einer Ausstellung im Berliner Zeughaus mit Hitler zusammen in die Luft sprengen; dieser verließ die Ausstellung schon nach wenigen Minuten. Das Attentat vom 20. Juli 1944 im Führerhauptquartier Wolfsschanze verletzte vier Anwesende tödlich; Hitler blieb fast unverletzt. Er äußerte direkt danach: Die Vorsehung habe ihn gerettet, damit er seinen „Auftrag“ zu Ende führen könne. Claus Schenk Graf von Stauffenberg, der die Bombe abgelegt und einen Staatsstreich zur Beendigung des Krieges vorbereitet hatte, und drei seiner Mitstreiter wurden ohne Prozess und ohne Hitlers Einverständnis am 21. Juli kurz nach Mitternacht im Hof des Bendlerblocks in Berlin von einem Erschießungskommando exekutiert. Hitler-Attentäter Georg Elser auf einer deutschen Briefmarke, 2003 Führerhauptquartier „Wolfsschanze“ nach dem Attentat vom 20. Juli 1944 Hitler-Attentäter Claus Schenk Graf von Stauffenberg auf einer bundesdeutschen Briefmarke, 1964 Im Rundfunk erklärte Hitler den Deutschen, eine „ganz kleine Clique ehrgeiziger, gewissenloser und zugleich verbrecherischer, dummer Offiziere“ habe geplant, ihn und den Wehrmachtführungsstab „auszurotten“. Anders als beim Dolchstoß 1918 würden diesmal die Verbrecher „unbarmherzig ausgerottet werden“. Die Wehrmacht sollte die beteiligten Offiziere zuerst ausschließen, der Volksgerichtshof sollte sie dann als gewöhnliche Kriminelle zum Tod verurteilen und innerhalb von zwei Stunden hängen lassen, damit sie ihre Motive und Ziele nicht erklären konnten. Roland Freisler, der auch in der NSDAP als „Blutrichter“ galt, war sofort bereit, ganz im Sinne Hitlers zu urteilen. Dieser nutzte das gescheiterte Attentat, um Widerstände gegen seine Kriegführung in den Stäben der Wehrmacht endgültig auszuschalten und skeptischen Generälen die Schuld an den verlorenen Schlachten zu geben. Eine 400 Mitarbeiter starke Gestapo-Kommission deckte ein weit verzweigtes Verschwörernetz auf und fand am 22. September 1944 in Zossen Akten, die Absprachen für Putschversuche vor 1939 und damit eine dauerhafte militärische Opposition gegen Hitler belegten. Dieser verbot dem Volksgerichtshof, die Dokumente in den laufenden Prozessen zu verwenden: Die Deutschen sollten nicht erfahren, dass der Attentatsversuch Vorläufer hatte und nicht nur von wenigen geplant worden war. Ab August 1944 verurteilte der Volksgerichtshof in mehr als 50 Prozessen über 110 Personen des 20. Juli 1944 zum Tod; 89 davon wurden bis zum 30. April 1945 im Gefängnis Berlin-Plötzensee an Fleischerhaken erhängt. Insgesamt wurden etwa 200 Personen als Beteiligte hingerichtet. Ende im Bunker. Ab 16. Januar 1945 lebte Hitler meist in den Räumen des Bunkers im Garten der Alten Reichskanzlei in Berlin. Bei seinem letzten öffentlichen Auftritt am 20. März 1945 zeichnete er 20 Hitlerjungen und 30 SS–Soldaten mit dem Eisernen Kreuz für ihre „Heldentaten bei der Verteidigung Berlins“ aus. Als Präsident Roosevelt am 12. April 1945 starb, hoffte Hitler kurzzeitig auf einen Zerfall der Anti-Hitler-Koalition und drängte die Soldaten der Wehrmacht mit der Drohung sowjetischer Gräueltaten am 16. April nochmals zum bedingungslosen Weiterkämpfen. Am 20. April 1945 empfing er im Führerbunker letztmals Gäste zu seinem Geburtstag. Am 22. April erlitt er einen Nervenzusammenbruch, als er erfuhr, dass SS-Obergruppenführer Felix Steiner den befohlenen Entsatzangriff seiner Armeegruppe in der Schlacht um Berlin als undurchführbar verweigert hatte. Hitler klagte, nun sei alles verloren, auch die SS habe ihn verraten, und entließ Teile seines Stabes. Er beschloss, in Berlin zu bleiben, und beauftragte seinen Chefadjutanten, SS-Obergruppenführer Julius Schaub, alle Papiere und Dokumente aus seinen Privattresoren in Berlin, München und auf dem Berghof zu verbrennen. Am 25. April hörte Hitler von der Siegesfeier von US-Soldaten mit Rotarmisten in Torgau und von der Einkesselung ganz Berlins durch die Rote Armee. Er ließ sich laufend über deren Vorrücken in das Stadtzentrum unterrichten. Am 27. April soll Hitlers Entschluss zum Suizid festgestanden haben, um Rotarmisten nicht lebend in die Hände zu fallen und einer Strafe für seine Verbrechen zu entgehen. Am 28. April erfuhr er von Himmlers seit Monaten laufenden Geheimverhandlungen mit den Alliierten über einen Separatfrieden und seinem „Angebot“, dafür den laufenden Holocaust an den ungarischen Juden einzustellen. Aus Rache an Himmler ließ er den Verbindungsoffizier der Waffen-SS zum Führerhauptquartier, Hermann Fegelein, festnehmen und erschießen. Gegen Mitternacht heiratete er seine Lebensgefährtin Eva Braun. Danach diktierte er seiner Sekretärin Traudl Junge ein kurzes privates und sein politisches Testament. Darin ernannte er Karl Dönitz zu seinem Nachfolger als Reichspräsident und Oberbefehlshaber der Wehrmacht, Goebbels zum neuen Reichskanzler, schloss Göring und Himmler aus der NSDAP aus und rief die Deutschen zur unbedingten Fortsetzung des Krieges, Einhaltung der Nürnberger Gesetze und weiteren Judenvernichtung auf. Am Abend des 29. April erfuhr er von Mussolinis Erschießung am Vortag und eventuell auch von der Schändung seiner Leiche. Dies bestärkte seinen Entschluss zum Suizid. Am 30. April mittags verteilte er Giftampullen mit Zyankali oder Blausäure an seine Begleiter und erlaubte ihnen private Ausbruchsversuche. Die Wirkung des Gifts ließ er vorher an seiner Schäferhündin erproben, ohne dabei anwesend zu sein. Etwa um 15:30 Uhr schluckte Eva Braun Gift; Hitler erschoss sich. Ihre Leichen wurden von Martin Bormann, Heinz Linge, Otto Günsche und einigen Leibwächtern aus dem Führerbegleitkommando im Garten der Neuen Reichskanzlei wie befohlen verbrannt und die verkohlten Überreste in einem Granattrichter beigesetzt. Das OKW meldete seinen Tod erst am Abend des 1. Mai im Radio und verschwieg dabei seinen Suizid: „An der Spitze der heldenmütigen Verteidiger der Reichshauptstadt ist der Führer gefallen. Von dem Willen beseelt, sein Volk und Europa vor der Vernichtung durch den Bolschewismus zu erretten, hat er sein Leben geopfert.“ Auf Veranlassung der sowjetischen Militärführung wurden die Überreste der Leichname Hitlers und Eva Brauns Anfang Mai ausgegraben und am 8. Mai 1945 durch Hugo Blaschke, den Leibzahnarzt Hitlers, anhand von Röntgenbildern und erhaltenen Gebissen im medizinischen Standort Berlin-Buch zweifelsfrei identifiziert. Die Ergebnisse wurden aber aus politischen Gründen geheim gehalten. Dies löste viele Verschwörungstheorien aus. Um diese einzudämmen, belegte der britische Historiker Hugh Trevor-Roper Hitlers Tod 1947 anhand vieler Indizien und Zeugenaussagen und begründete damit eine westliche „Hitler-Tod“-Forschung. 1990 wurde berichtet, dass Hitlers und Eva Brauns Überreste 1945 auf dem Gelände der Reichskanzlei und dann noch insgesamt acht Mal, zuletzt in einer sowjetischen Kaserne bei Magdeburg, vergraben und erst 1970 auf Anweisung von KGB-Chef Juri Wladimirowitsch Andropow vollständig verbrannt und als Asche in einen Fluss gestreut worden seien. Im Russischen Staatsarchiv in Moskau werden – neben den beim FSB aufbewahrten Gebissteilen – Hitler zugeschriebene Schädelteile aufbewahrt, die allerdings nach neuen Untersuchungen einer Frau angehörten. Dönitz ließ gemäß Hitlers letztem Willen zunächst weiterkämpfen und lehnte eine Gesamtkapitulation ab. Am 8. Mai 1945 erfolgte jedoch die bedingungslose Kapitulation der Wehrmacht, mit der der Zweite Weltkrieg in Europa endete. Darin verloren weltweit rund 65 Millionen Menschen ihr Leben. Weitere Millionen wurden verletzt, zu dauerhaft Kriegsversehrten, obdachlos, vertrieben, deportiert oder inhaftiert. Viele Städte Europas und Ostasiens waren zerstört. Das Deutsche Reich wurde in vier Besatzungszonen aufgeteilt und seine Ostgebiete teils unter polnische, teils sowjetische Verwaltungshoheit gestellt. Knapp zwölf Millionen Deutsche wurden aus den damaligen Ostgebieten vertrieben. Später folgten die jahrzehntelange Teilung Europas und die deutsche Teilung. Nach ihrer Rückkehr aus sowjetischer Kriegsgefangenschaft sagten Heinz Linge und Otto Günsche vor Gericht aus, wo sie Hitler zuletzt gesehen hätten: Er habe mit Braun auf der Couch (Linge) bzw. in einem Sessel daneben (Günsche) gesessen. Die Ermittler fanden in Günsches Aussagen keine Erinnerungslücken und akzeptierten sie schließlich als zutreffend. Am 25. Oktober 1956 wurde Hitler juristisch für tot erklärt. Historische Einordnungen. Die NS-Forschung fragt vor allem, wie Hitler ohne berufliche und charakterliche Qualifikation zum Kanzler und Diktator aufsteigen konnte, welche Ziele er hatte und welche Rolle er im NS-Staat spielte, besonders im Krieg und beim Holocaust. Friedrich Meinecke war 1946 der Ansicht, Hitler sei vom preußischen Militarismus stark gefördert worden, habe die Kanzlerschaft aber nur zufällig von Hindenburg erhalten. Mit ihm sei ein „satanisches Prinzip“ und „innere Fremdherrschaft“ in die deutsche Geschichte getreten. Er sei „nicht zu unserer Rasse gehörig“. Diese Sicht diente in der Nachkriegszeit dazu, „alles oder fast alles Hitler und eben nicht ‚den Deutschen‘ zur Last“ zu legen. Schon 1936 hatte Konrad Heiden Hitlers Politik als detaillierten Plan zum Erringen der Weltherrschaft beschrieben. Dagegen erklärte Hermann Rauschning 1939, Hitler sei ein Machtpolitiker ohne klare Ziele und benutze außenpolitische Gelegenheiten nur für Machtgewinn. Dieser Sicht folgte 1952 Alan Bullock, der erste international anerkannte Hitlerbiograf: Hitler sei ein nur vom „Willen zur Macht“ gelenkter „völlig prinzipienloser Opportunist“ gewesen. Laut Alan J. P. Taylor (1961) wollte Hitler wie frühere deutsche Politiker nur Deutschlands kontinentale Großmachtstellung wiederherstellen. Dagegen vertrat Hugh Trevor-Roper 1960 wie Heiden, aber anhand späterer Aussagen Hitlers, die Meinung, dieser habe konsequent sein frühes Lebensraum-Konzept durchgehalten und verwirklicht. Günter Moltmann vertrat 1961 die Ansicht: Hitler habe die Weltherrschaft angestrebt. Andreas Hillgruber führte 1963 aus: Hitler habe zuerst Kontinentaleuropa, dann den Nahen Osten und die britischen Kolonien erobern wollen, um später die USA besiegen und dann die Welt beherrschen zu können. Klaus Hildebrand, Jost Dülffer, Jochen Thies, Milan Hauner und andere „Globalisten“ stützten Hillgrubers These mit Spezialuntersuchungen. Auch für die „Kontinentalisten“ (Trevor-Roper, Eberhard Jäckel, Axel Kuhn) bestimmte Hitler die NS-Außenpolitik und hielt sein rassistisches Lebensraumprogramm und eine dauerhafte Weltmachtstellung Deutschlands bei allen taktischen Wendungen als Kernziele durch. Schon 1941 meinte Ernst Fraenkel: Die Konkurrenz zwischen Verwaltungsbehörden und NSDAP habe Hitlers Handlungsspielraum begrenzt. In den 1970er Jahren stritt die Forschung darüber, ob eher individuelle Absichten oder eher allgemeine Entwicklungen und anonyme Machtstrukturen die NS-Zeit bestimmten bzw. ob Hitler eher ein „starker“, die Geschichte eigenwillig bestimmender oder eher ein „schwacher“, auf Zeitumstände und Sachzwänge reagierender Diktator war. Hitlers Rolle beim Holocaust war besonders umstritten. „Intentionalisten“ wie Hillgruber und Jäckel sahen Hitlers „rassenideologisches Programm“ und konsequent verfolgte Vernichtungsabsicht als entscheidenden Faktor, auch wenn er nicht jede einzelne Eskalationsstufe des Holocaust initiiert habe. „Funktionalisten“ wie Hans Mommsen und Martin Broszat dagegen erklärten den Holocaust aus einer kumulierenden Eigendynamik und einem komplexen Bedingungsgeflecht von vorauseilendem Gehorsam, innenpolitischer Funktionalisierung und selbstgeschaffenen Sachzwängen. Hitlers antisemitische Rhetorik habe diesen Prozess nur ausgelöst. 1961 hatte Waldemar Besson eine Hitlerbiografie, die ihn als prägenden Repräsentanten der NS-Zeit darstelle, zur wichtigsten Aufgabe der Geschichtsschreibung erklärt. Die NS-Forschung verwarf Hitlerbiografien von Zeitzeugen wie Helmut Heiber (1960), Hans Bernd Gisevius (1963), Ernst Deuerlein (1969) und Robert Payne (1973) wie auch Bestseller von Geschichtsrevisionisten wie Erich Kern, David Irving und Werner Maser sowie Werke zur Psychopathographie Adolf Hitlers von Walter Charles Langer, Rudolph Binion und Helm Stierlin als wissenschaftlich wenig ertragreiche „Hitler-Welle“. Auch die Hitlerbiografie von Joachim Fest (1973) wurde als auf die Einzelperson fixierter „Hitlerismus“ kritisiert, da sie großenteils auf seinen Gesprächen mit Albert Speer beruht und Hitlers Vernichtungspolitik aus einem Charakterzug zur Selbstzerstörung erklärte. Broszat lehnte jede Erklärung von Hitlers Politik nach 1933 aus seiner frühen Biografie als unzulässigen Rückschluss von historischen Wirkungen auf persönliche Ursachen ab. Faschismustheorien wiederum sahen Hitler nur als austauschbare Figur und vernachlässigten seine individuellen Absichten und Taten. In der DDR erschien deshalb keine Hitlerbiografie. Gerhard Schreiber stellte 1983 als westlichen Forschungskonsens heraus: Hitler sei für den Nationalsozialismus unersetzlich und die NS-Zeit ohne ihn undenkbar gewesen. Diese Wirkung hätten auf Hitlers „Persönlichkeit“ fokussierte Biografien kaum erklärt. Man müsse auch die historischen Bedingungen für seinen Werdegang darstellen. Diesem Anspruch versuchte Ian Kershaw mit seiner zweiteiligen Hitlerbiografie (1998; 2000) zu genügen. Sie erklärt Hitlers Aufstieg mit Max Webers Modell der „charismatischen Herrschaft“: Aufgrund der sozialen Bedingungen nach dem Ersten Weltkrieg habe der „Führermythos“ Hitlers Popularität und seine späteren Anfangserfolge begründet. Seine Macht habe darauf beruht, dass seine Anhänger und große Teile der deutschen Gesellschaft bereit waren und sich verpflichteten, auch ohne direkte Befehle „im Sinne des Führers ihm entgegenzuarbeiten“, wie es der NSDAP-Beamte Werner Willikens 1934 ausdrückte. Ludolf Herbst kritisierte: Kershaw deute Hitlers charismatische Herrschaft als vom Glauben der Beherrschten getragene soziale Beziehung und somit als Produkt gesellschaftlicher Erwartungen. Dabei bleibe unbeachtet, ob und wie dieses Charisma den politischen Alltag bestimmt habe. Ein Glaube der meisten Deutschen an außergewöhnliche Fähigkeiten Hitlers, der die NS-Herrschaft legitimiert habe, sei nicht beweisbar. Die NS-Propaganda habe Hitlers Charisma künstlich geschaffen, um Heilserwartungen der Deutschen auszunutzen. Algerien. Algerien (, tamazight und algerisch-arabisch: ⴷⵣⴰⵢⵔ "Dzayer" oder ⵍⴷⵣⴰⵢⵔ "Ldzayer"; amtlich, in tamazight ⵜⴰⴳⴷⵓⴷⴰ ⵜⴰⵣⵣⴰⵢⵔⵉⵜ ⵜⴰⵎⴰⴳⴷⴰⵢⵜ ⵜⴰⵖⵔⴼⴰⵏⵜ "Tagduda tazzayrit tamagdayt taɣerfant") ist ein Staat im Nordwesten Afrikas. Algerien, das mittlere der Maghrebländer, ist – knapp vor der Demokratischen Republik Kongo – der größte Staat des afrikanischen Kontinents. Er grenzt im Norden an das Mittelmeer, im Westen an Mauretanien, Marokko und die von Marokko beanspruchte Westsahara, im Süden an Mali und Niger und im Osten an Libyen sowie Tunesien. Das Land ist nach seiner Hauptstadt Algier (französisch "Alger") benannt. Algerien ist seit 1962 (Algerienkrieg 1954–1962) unabhängig und hat ein semipräsidientielles Regierungssystem (Verfassung aus dem Jahre 1996). Geographie. Im Nordteil Algeriens, an der Südküste des Mittelmeers und im Atlasgebirge, lebt der Hauptteil der Bevölkerung. Der weitaus größere Südteil, in Algerien "Le Grand Sud" genannt, ist nur dünn besiedelt und wird von den Wüstenregionen der Sahara dominiert. Hinter dem nur schmalen, buchtenreichen Saum der Mittelmeerküste erhebt sich der steil ansteigende Tellatlas. Der durch Becken, Längs- und Quertäler gegliederte Gebirgszug erreicht östlich von Algier in der wild zerschluchteten Kabylei 2308 m Höhe und südwestlich von Algier steigt das Ouarsenis-Gebirge bis 1963 m an. Die Südseite des Tellatlas fällt zum Hochland der Schotts auf 1000 m bis 391 m ab. Hier liegen zahlreiche abflusslose, versumpfte Salzseen, die sogenannten Schotts. Südlich an dieses bis zu 150 km breite Hochland schließt sich der Saharaatlas an; er verläuft parallel zur Küste und zum Tellatlas. Sein höchster Berg ist 2328 m hoch. Jenseits der markanten Südabdachung des Atlasgebirges, die am Schott Melghir im östlichen Tiefland bis 35 m unter Meeresniveau abfällt, breitet sich die algerische Sahara aus; sie nimmt 85 % der Landesfläche ein. An einen Streifen Wüstensteppe im Norden schließen sich die ausgedehnten, fast vegetationslosen Sanddünengebiete des Östlichen Großen Erg, des Westlichen Großen Erg, des Erg Iguidi und des Erg Chech an. Zu einem größeren Teil wird die Sahara Algeriens von den steinigen Plateaus wie der Hammada du Draa oder der Hammada du Guir im Westen und von Stufenlandschaften (Tassili n’Ajjer im Südosten) eingenommen. Im Süden erhebt sich das im Tahat (höchster Berg Algeriens) 2908 m hohe Ahaggar-Massiv, ein wüstenhaftes Hochgebirge vulkanischen Ursprungs, das bis heute erdbebengefährdet ist. Südlich des Tassili n’Ajjer liegen die großen Dünengebiete des Tschadbeckens. Als längster unter den sonst meist kurzen Dauerflüssen in der Küstenregion des Tellatlas ist der Cheliff zu erwähnen. Weiter im Süden sind die Flusstäler Algeriens meist trocken (Wadis) und mitunter von Oasen gesäumt; durch heftige Regenfälle – auch in entfernteren Gebieten – kann ein Wadi unvermittelt zum reißenden Strom werden. Eines der längsten dieser Trockentäler hat der Wadi Igharghar geschaffen. Klima. Algerien hat im Norden mediterranes Klima, im Süden extrem trockenes Wüstenklima. An der Mittelmeerküste und den Nordhängen des Tellatlas beträgt die Mitteltemperatur im August 25 °C, im Januar 12 °C; die Niederschläge (durchschnittlich 500 bis 1000 mm) fallen vorwiegend im Winter. Im Hochland der Schotts herrscht winterfeuchtes Steppenklima mit ausgeprägten saisonalen Temperaturschwankungen (Januarmittel kaum über 0 °C, Augustmittel 30 °C). Die Niederschläge, meist in Form von kurzen Platzregen, betragen hier nur noch 350 mm. Der Nordhang des Saharaatlas wird stärker beregnet; an der Südseite aber vollzieht sich rasch der Übergang zum heißen, trockenen Wüstenklima der Sahara mit täglichen Temperaturschwankungen bis 20 °C und mehr. Die Temperaturen erreichen im Sommer über 40 °C, im Winter können sie unter 0 °C sinken. In manchen Gegenden liegt das langjährige Niederschlagsmittel bei nur 10 mm. Aus der Sahara weht in den Sommermonaten häufig der Scirocco, ein trockener, staubbeladener Wind. Flora und Fauna. Algerien hat heute einen Waldanteil von nur 2 %, etwa 80 % des Landes sind nahezu vegetationslos. Mit gezielten Aufforstungsmaßnahmen versucht man der Ausbreitung der Wüste entgegenzuwirken. Zwischen 1990 und 2000 hat der Waldbestand um 1,3 % zugenommen. An der ausreichend beregneten Nordseite des Tellatlas wachsen mediterrane Sträucher wie Macchie, Aleppo-Kiefern, Korkeichen und Steineichen sowie (über 1600 m) Atlas-Zedern; in der Kabylei gibt es noch zusammenhängende Waldgebiete. Im Hochland der Schotts dominieren Steppen mit Halfagras und Wermutgewächsen. Die Gebirgssteppe des Saharaatlas geht nach Süden in die weitgehend vegetationslose Wüste über; Pflanzen (v. a. Dattelpalmen) wachsen nur in Randzonen und grundwasserbegünstigten Gebieten (Oasen). Das Ahaggar-Gebirge ist waldlos; stellenweise gibt es mediterrane Vegetation. An wildlebenden Tieren kommen Gazellen, Wüstenfüchse (Fenneks), Mähnenschafe, Berberaffen, vereinzelt Geparde, Springmaus, Schlangen, Echsen, Skorpione und verschiedene Vogelarten (darunter große Greifvögel) vor. Im Nationalpark Tassili n’Ajjer, der Weltnatur- und Weltkulturerbestätte der UNESCO, gibt es noch Bestände von Mähnenschafen und Dünengazellen sowie einige wenige Geparde. Bevölkerung. Fast alle Algerier sind berberischer Herkunft; nur etwa 40 % bekennen sich zu ihrer berberischen Identität. Algerien widerfuhr im Zuge der Islamisierung im 7. und 8. Jahrhundert eine umfassende Arabisierung hinsichtlich Kultur, Sprache und Religion. Vorwiegend sich als Araber bezeichnende Menschen (70 %) und verschiedene Berberstämme (30 %), die zum Teil arabisiert sind, bevölkern Algerien. In den letzten Jahrzehnten verschmelzen diese Volksgruppen immer mehr miteinander. Daher ist es mittlerweile schwierig, einen Algerier einem bestimmten Stamm zuzuordnen, denn immer mehr haben sowohl arabische als auch berberische Wurzeln. Die Zahl der Europäer sank nach Erlangung der Unabhängigkeit bis auf etwa 20.000. Nach Jahrhunderten osmanischer Herrschaft wird die Anzahl der osmanischstämmigen Bevölkerung (mit türkischen, kurdischen und teils arabischen und armenischen Wurzeln) auf 600.000 bis 2 Millionen geschätzt. Die Bevölkerung in Algerien ist sehr ungleich verteilt. 96 % der Einwohner leben im Norden auf einem Fünftel der Staatsfläche. Über die Hälfte (2008 65 %) – mit steigender Tendenz – wohnt bereits in den Städten, die vornehmlich im Küstenbereich liegen. Schätzungsweise 2,3 Millionen Algerier leben im Ausland, davon über 1,5 Millionen in Frankreich, wo sie die Hauptvertreter des Islam in Frankreich sind. Ursachen der hohen Auswanderungsquote sind hauptsächlich der wachsende Bevölkerungsdruck und fehlende Arbeitsmöglichkeiten. Infolge des starken Bevölkerungswachstums waren 2010 25,4 % der Bevölkerung jünger als 15 Jahre. Sprachen. Amtssprache ist Arabisch. Daneben spielt Französisch eine wichtige Rolle als Bildungs-, Handels- und Verkehrssprache. Staatliche Fernsehsender strahlen Nachrichten und Dokumentationen auch auf Französisch aus. Seit 2002 ist in Algerien Tamazight Nationalsprache; in ihr werden auch Radioprogramme sowie vereinzelt Fernsehsendungen gesendet. Schriftsprache ist entweder Französisch oder Hocharabisch; es gibt eine Initiative der Regierung zum Gebrauch des Hocharabischen. In der großen und kleinen Kabylei wird auch Berberisch geschrieben. Inzwischen (2014) spricht etwa 70 % der Bevölkerung Arabisch als Muttersprache. Die übrigen 30 % der Bevölkerung sprechen Berbersprachen, und zwar vor allem im Süden des Landes, der fast nur von Tamascheq-sprachigen Tuareg bewohnt ist, sowie nordöstlich von Algier. Die dort gesprochene Berbersprache ist Kabylisch, eine Form von Mazirisch (Tamazight). Religionen. Nach offizieller Statistik bekennen sich etwa 99 % der Bevölkerung zum Islam. Eine Minderheit, vor allem in Algerien lebende Ausländer und konvertierte Algerier, gehören dem Christentum in Algerien an, traditionellerweise der katholischen Kirche Algeriens. Im Gefolge des 1992 ausgebrochenen Bürgerkriegs zwischen Regierung und der Islamistischen Heilsfront (FIS), die vor Massenmorden an Landsleuten nicht zurückschreckte, wandten sich viele Menschen, v. a. in der Kabylei, dem protestantischen Christentum zu. Die protestantischen Gemeinden in der Kabylei existieren teilweise schon seit den 1930er Jahren. Außerdem gibt es noch eine geringe Zahl an Einwohnern jüdischen Glaubens (heute weniger als 0,1 % der Bevölkerung). Algerien hat den sunnitischen Islam zur Staatsreligion erklärt. In der zweiten Hälfte des 20. Jahrhunderts gewann der Islam immer stärker an Einfluss im täglichen Leben der Algerier. Schon Algeriens Unabhängigkeitsbewegung war stark vom Islam durchdrungen, und so forderten die Religionsführer nach dem Sieg über Frankreich mehr Rechte ein. Seit 1963 gilt das Staatsbürgerschaftsrecht auf islamischer Grundlage; seit 1964 wird an allen Schulen der Koran unterrichtet. Mit der Zeit wurde auch die Scharia als Grundlage des Rechtssystems eingeführt: Seit 1984 ist ein Familienrecht in Kraft, in dem die Benachteiligung von Frauen festgeschrieben wird. Ein am 28. März 2006 in Kraft getretenes Gesetz stellt die Missionierung von Muslimen durch andere Religionen unter hohe Strafen. Die Mozabiten sind eine islamische Minderheit. Soziales. Für alle Arbeitnehmer besteht eine allgemeine Sozialversicherung; ab dem 60. Lebensjahr wird eine Altersrente gezahlt. Ebenso gibt es Invaliden- und Hinterbliebenenrenten. Was fehlt, ist eine Arbeitslosenunterstützung – ein Manko, das bei der hohen Arbeitslosigkeit (2007: 11,8 %) beträchtliche soziale Auswirkungen hat. Bildung. Allgemeine Schulpflicht besteht für 6- bis 15-Jährige. Darauf können drei Jahre auf einer weiterführenden Schule folgen. Die Unterrichtssprachen sind Französisch und Arabisch. Die Bildungs- und Ausbildungsunterschiede zwischen Männern und Frauen sowie zwischen Stadt und Land sind immer noch erheblich. Alphabetisierungsprogramme für Erwachsene und eine höhere Einschulungsrate ließen die Analphabetenrate in den letzten Jahrzehnten langsam auf mittlerweile 22 % bei den Männern und 40 % bei den Frauen sinken. Das Land hat zwölf Universitäten; die älteste wurde 1879 in Algier gegründet. Gesundheit. Der Standard des Gesundheitswesens konnte in den letzten Jahren verbessert werden, ist aber immer noch unzureichend. Bei kostenloser medizinischer Versorgung der Bevölkerung existiert vor allem ein beträchtliches Stadt-Land-Gefälle. Die Lebenserwartung lag 2007 bei 72 Jahren. 2006 lagen die Pro-Kopf-Gesundheitsausgaben der Regierung bei 146 US$ (Kaufkraftparität). Die HIV-Infektionsrate ist niedrig. Berber, Phönizier, Vandalen und Oströmer. Ursprünglich war das Gebiet des heutigen Algerien von berberischen Volksstämmen bewohnt, im Osten von Tuareg. Vom 12. Jh. v. Chr. an errichteten die Phönizier an der Küste Handelsstützpunkte und gründeten 814 v. Chr. die Handelsstadt Karthago im heutigen Tunesien, die sich in der Folge zur Großmacht im westlichen Mittelmeer entwickelte. Um 202 v. Chr. schlossen sich die Berber-Stämme (Mauren) unter Massinissa zum Königreich Numidien zusammen und verbündeten sich mit Rom gegen Karthago. Die Erhebung Karthagos gegen Massinissa 149 v. Chr. lieferte Rom den erwünschten Vorwand für den Dritten Punischen Krieg, in dessen Verlauf Karthago zerstört wurde. 46 v. Chr. unterwarf Rom Numidien und vereinigte es mit Karthago zur römischen Provinz Numidia-Mauretania. Bis zum Einfall der Vandalen im Jahre 429 n. Chr. war diese die Kornkammer Roms. Die Vandalenherrschaft endete 534 mit der Eroberung durch Truppen des oströmischen Kaisers Justinian I., wodurch Nordafrika byzantinische Provinz wurde. Schon seit dem 3. Jh. hatte das Christentum in Nordafrika an Einfluss gewonnen. In den großen Städten waren mehrere Bistümer entstanden: So war der hl. Augustinus der bedeutendste Kirchenlehrer des frühen Christentums, Ende des 4. Jh. Bischof von Hippo Regius, dem heutigen Annaba. Islamisierung und Arabisierung. Um die Mitte des 7. Jh. stießen die Araber in den Maghreb vor. 697 eroberten sie einen Großteil des heutigen Algerien. Die Bevölkerung wurde größtenteils islamisiert. Im Laufe des 8. Jh. kam es wiederholt zu Aufständen der Berber gegen die arabischen Eroberer: 757 wurden die Berber-Reiche im Atlasgebirge vom Kalifat unabhängig, während die drei sich herausbildenden Fürstentümer der Idrisiden, Aghlabiden und Ziriden unter dessen Herrschaft gerieten. Im 11. Jahrhundert konnte sich die Berber-Dynastie der Almoraviden im Gebiet des heutigen Algerien durchsetzen; sie beherrschte das Land fast 100 Jahre, bis sie 1147 von den Almohaden abgelöst wurde. Diese Dynastie eroberte in der Folgezeit den Maghreb und Südspanien; in der zweiten Hälfte des 13. Jahrhunderts zerfiel das Reich dann jedoch. Ostalgerien wurde Teil eines tunesischen Fürstentums, im Westen bildete sich von 1269 an das Königreich der Abd-al-Wadiden mit der Hauptstadt Tlemcen (heutiges Tilimsen) heraus. Türkische Herrschaft. Anfang des 16. Jahrhunderts versuchten die Spanier, an der algerischen Küste Fuß zu fassen. Daraufhin unterstellte sich das Land 1519 der Oberhoheit des Osmanischen Reiches und wurde Vasall; seit 1711 war das Gebiet aber wieder faktisch unabhängig. Bis ins 19. Jahrhundert hinein konnte sich Algerien gegen die Versuche der Spanier, Niederländer, Briten und Franzosen zur Eindämmung der Seeräuberei erfolgreich zur Wehr setzen. Algerien wurde somit das Eyâlet Cezayir innerhalb des Osmanischen Reiches, wurde später dann jedoch in ein Vilâyet umgewandelt und blieb bis 1830 unter Osmanischer Oberhoheit. Es war aber zugleich auch ein halbautonomer Vasallenstaat, der sich gegen den zu großen Einfluss anderer Mächte behaupten konnte. Französische Kolonialherrschaft. 1830 begannen die Franzosen mit der Eroberung Algeriens und der Bekämpfung der Piraterie. Die Versuche von Abd el-Kader, die Franzosen zu vertreiben und ein großarabisches Reich zu schaffen, konnte Frankreich erst nach langen Kämpfen 1847 beenden. Auch in den folgenden Jahren kam es immer wieder zu Aufständen gegen die Kolonialmacht. Zahlreiche französische Siedler strömten in die Siedlungskolonie. Das Gemeineigentum an den Ländereien wurde aufgehoben, die einheimischen Bauern wurden in weniger fruchtbare Gebiete vertrieben. Um die Jahrhundertwende eroberten die Franzosen auch die Saharagebiete Algeriens, und es wurden drei Départements gebildet. Die Bevölkerung war durch den Code de l’indigénat von 1875 in Bürger erster und zweiter Klasse unterteilt, in französische Staatsbürger und französische Untertanen („Sujets“) ohne Staatsbürgerschaft. Ab 1945 kam es zum Aufschwung der Unabhängigkeitsbewegung, als nach Unruhen in Sétif, Kherrata und Guelma zehntausende Algerier von der französischen Armee getötet wurden (Massaker von Sétif). Als Reaktion auf das Erstarken der seit Ende der 1930er Jahre bestehenden algerischen Unabhängigkeitsbewegung wurde im September 1947 allen Algeriern die französische Staatsbürgerschaft zuerkannt (Algerien-Statut). Den Kampf um die Loslösung von Frankreich konnte das jedoch nicht aufhalten. Der nun folgende Algerienkrieg (1954 bis 1962) wurde von beiden Seiten mit äußerster Härte geführt. Dabei wandte das französische Militär auch die Methoden der so genannten „Französischen Doktrin“ an. Dies war zwar zunächst militärisch erfolgreich, führte aber wegen des Bekanntwerdens der systematischen Menschenrechtsverletzungen letztlich zu einer deutlichen innen- und außenpolitischen Schwächung Frankreichs. Unter Führung der Nationalen Befreiungsfront (FLN), erkämpfte Algerien schließlich die Unabhängigkeit, die am 18. März 1962 im Abkommen von Évian anerkannt und in zwei Referenden – in Frankreich wie in Algerien selbst – bestätigt wurde. Am 5. Juli (Nationalfeiertag neben dem Tag der Revolution am 1. November) 1962 wurde offiziell die Unabhängigkeit proklamiert. Die Gesamtzahl getöteter Algerier wurde von Frankreich später mit 350.000, von algerischen Quellen mit bis zu 1,5 Millionen angegeben. Als Sozialistische Volksrepublik. Erster Staatspräsident wurde Ferhat Abbas. Nach dessen Absetzung folgte 1963 Muhammad Ahmed Ben Bella, bis Verteidigungsminister Oberst Houari Boumedienne durch einen Militärputsch im Juni 1965 an die Macht gelangte. Seine Regierung versuchte zunächst, durch eine verstärkte Sozialisierungspolitik und durch eine Öffnung gegenüber dem Ostblock Algeriens wirtschaftliche Abhängigkeit von Frankreich zu überwinden. Ab 1972 verfolgte sie einen Kurs der Blockfreiheit und knüpfte Kontakte zum Westen. Nach dem Tod Boumediennes übernahm 1978 zunächst Rabah Bitat kommissarisch das Präsidentenamt, bis im Februar 1979 Oberst Chadli Bendjedid zum Präsidenten gewählt wurde. Mitte 1988 brachen schwere Unruhen aus, die zur Aufgabe des Machtmonopols der FLN führten. Ursache waren unter anderem die hohe Arbeitslosigkeit und die Wohnungsnot. Eine Demokratisierung wurde eingeleitet und eine neue demokratische Verfassung, die die Trennung von Partei und Staat, parlamentarische Verantwortung, Pluralismus, politische Freiheiten und Garantien der Menschenrechte vorsah, geschaffen (Verfassung vom 19. November, inkraftgetreten drei Tage später; Änderungen am 3. November 1988, 23. Februar 1989 und 26. November 1996). Bürgerkrieg. Der wirtschaftliche Niedergang führte im Oktober 1988 zu spontanen Ausschreitungen in der Hauptstadt Algier, die bald auf andere Städte übergriffen und Hunderte von Todesopfern forderten. Bei den Parlamentswahlen 1991/1992 befürchtete die Regierung einen Sieg der islamistischen Bewegung. Nach dem sich abzeichnenden Sieg der Islamischen Heilsfront ("Front islamique du salut", FIS) wurden die Wahlen abgebrochen; Präsident Chadli Bendjedid trat unter dem Druck des Militärs zurück. Als Übergangspräsidenten setzte dieses zunächst Muhammad Boudiaf, nach dessen Ermordung Ali Kafi und schließlich 1994 General Liamine Zéroual ein. Im März 1992 wurde die Auflösung der FIS angeordnet, die daraufhin zum bewaffneten Kampf aufrief. Der Bürgerkrieg, der zwischen Islamisten und dem algerischen Militär geführt wurde, forderte über 120.000 Todesopfer. Im Februar 1995 starben beim Massaker im Serkadji-Gefängnis 95 Gefangene und vier Wärter. Die algerische Regierung wandte Vorgehensweisen eines „Schmutzigen Krieges“ an. Bereits im September 1998 war vom früheren GIA-Führer Hassan Hattab die „Salafistische Gruppe für Predigt und Kampf” (französisch: „Groupe Salafiste pour la Prédication et le Combat”, GSPC) gegründet worden. Sie wurde auf Rat von Osama bin Laden gebildet, des vormaligen Führers der international tätigen islamistischen Terrororganisation Al-Qaida, mit dem Ziel, den „heiligen Krieg“, Dschihad, gegen die algerische Staatsmacht in seiner ursprünglichen Form wieder aufzunehmen. Wichtigstes innenpolitisches Ziel des im April 1999 mit Unterstützung des Militärs zum Staatspräsidenten gewählten Abd al-Aziz Bouteflika, war die Beendigung der gewalttätigen Auseinandersetzungen durch eine „Politik der nationalen Versöhnung“. Während die algerische Führung zuvor die Zahl der Opfer des Bürgerkrieges meist mit nur rund 30.000 angegeben hatte, gestand er zu, dass sie 1999 schon bei rund 100.000 lag. Im September 1999 wurde das von ihm vorgelegte „Gesetz zur Aussöhnung der Bürger“ (französisch: "Loi de la Concorde Civile") vom Volk in einem Referendum bestätigt. Es sieht eine Amnestie für Terroristen vor, die ihre Waffen niederlegen und nicht schwere Verbrechen wie Mord, Vergewaltigung oder Bombenanschläge begangen haben. Wenig später entschied sich die „Islamische Heilsarmee“ (französisch: "Armée Islamique du Salut", AIS), der bewaffnete Arm der seit 1992 verbotenen Partei Islamische Heilsfront (französisch: "Front Islamique du Salut", FIS), die Waffen niederzulegen. Die „Bewaffnete Islamische Gruppe“ (französisch: Groupe Islamique Armé, GIA), bestand zwar weiterhin. Ihre Reste waren aber, so Der Spiegel, in eine Art Banditentum abgeglitten, bei dem religiöse Motive nur noch als Bemäntelung von Kriminalität dienten. Nach einer Phase relativer Ruhe in den Jahren 1999/2000, nahmen die gewalttätigen Auseinandersetzungen wieder zu. Im April 2001 wurden Demonstrationen in der Kabylei, einer hauptsächlich von Berbern bewohnten Bergregion im Norden Algeriens, von der staatlichen Gendarmerie niedergeschlagen (rund 60 Tote). Befriedung des Landes. Zur Entschärfung der Forderungen der Berber nach mehr Autonomie und demokratischer Partizipation begnadigte Bouteflika im August 2002 die Mehrheit der inhaftierten Demonstranten. Die Berbersprache Mazirisch erhielt eine eher symbolische Anerkennung als „Nationalsprache“. Als Amtssprache neben Arabisch wurde sie nicht anerkannt. Auch den Forderungen nach Abzug der Gendarmerie aus der Kabylei kam Bouteflika nicht nach. Wirtschaftspolitisch versuchte Bouteflika ein Privatisierungsprogramm durchzusetzen. 2003 mussten jedoch die zuständigen Minister Mourad Medelci und Abdelhamid Temmar unter dem Druck des einflussreichen Gewerkschaftsdachverbands UGTA zurücktreten. Er hatte im Februar 2003 − zum zweiten Mal seit Beginn des Jahrzehnts – einen dreitägigen Generalstreik organisiert, der sich gegen das Privatisierungsprogramm der Regierung richtete. An dem Streik nahmen über 90 % der Arbeiter teil. Bei den Präsidentschaftswahlen am 8. April 2004 wurde Bouteflika mit 83 % der Stimmen als erster Präsident für eine zweite Amtszeit wiedergewählt. Sein wichtigster Konkurrent, der frühere Ministerpräsident Ali Benflis, sprach von Betrug. Wahlbeobachter der Organisation für Sicherheit und Zusammenarbeit in Europa (OSZE) sprachen aber von einer fairen Wahl. Nach seiner Wiederwahl setzte Bouteflika seine „Versöhnungspolitik“ mit der Vorlage einer „Charta für Frieden und nationale Versöhnung” fort. Sie wurde im September 2005 in einem Referendum angenommen. Sie umfasst eine Generalamnestie sowohl für staatliche Sicherheitskräfte und vom Staat bewaffnete Milizen als auch für bewaffnete Gruppen. Sie verneint jede Verantwortung der Sicherheitskräfte und der Milizen für schwere Menschenrechtsverletzungen. Kritik an den Sicherheitsorganen stellt sie unter Strafe. Die Verordnung, mit der sie umgesetzt wird, verhindert eine gerichtliche Untersuchung und Aufklärung des Schicksals Tausender im Verlauf des Bürgerkriegs „verschwundener“ Personen. Klagen gegen Mitglieder der Sicherheitskräfte müssen von den Gerichten abgewiesen werden. Angehörige von „Verschwundenen” können allerdings eine Entschädigung beantragen. Wirtschaftspolitisch wurden die Versuche, auf dem Weg von einer sozialistischen Planwirtschaft zu einer stärker marktwirtschaftlich orientierten Wirtschaftsordnung zu kommen, fortgesetzt. Die als wirtschaftspolitische Reformer geltenden Mourad Medelci und Abdelhamid Temmar, die 2003 zurücktreten mussten, übernahmen das Finanz- bzw. Investitionsförderungsministerium. Sie setzen sich für die Privatisierung öffentlicher Betriebe und die Öffnung des Erdöl- und Erdgassektor für private Investitionen ein. Anfang April 2009 gewann Bouteflika zum dritten Mal die Präsidentenwahl in Algerien nach offiziellen Angaben mit 90,24 % der Stimmen, bei einer Wahlbeteiligung von 74,5 %. Die Wahl war von mehreren gewaltsamen Zwischenfällen überschattet, außerdem war Bouteflikas fünf Gegenkandidaten kaum Gelegenheit gegeben worden, sich im 19-tägigen Wahlkampf zu profilieren. Die wichtigsten Oppositionsparteien, die "Rassemblement pour la culture et la démocratie" (RCD) und der "Front des forces socialistes" (FFS) waren erst gar nicht zur Wahl angetreten. Die Opposition zweifelte das Ergebnis an. Bei der Wahl am 17. April 2014 wurde Bouteflika zum vierten Mal in seinem Amt bestätigt; nach Angaben des Innenministeriums entfielen 81,5 % der Stimmen auf den Amtsinhaber, 12,18 % gingen an Allzeit-Herausforderer Ali Benflis. Politisches System. Gemäß der Verfassung von 1996 ist Algerien eine semipräsidentielle Republik mit einem alle fünf Jahre durch das Volk gewählten Staatsoberhaupt an der Spitze. Er ernennt und entlässt den nur ihm verantwortlichen Ministerpräsidenten als Vorsitzenden der Exekutive. Das die legislative Gewalt ausübende Parlament besteht aus der Nationalen Volksversammlung ("Assemblée Populaire Nationale"), deren 389 Mitglieder alle fünf Jahre gewählt werden und einem Rat der Nation ("Conseil de la Nation"/"Majlis al-’Umma"), von dem 96 Mitglieder alle sechs Jahre voll und alle drei Jahre zur Hälfte von den Kommunalräten neu gewählt und die restlichen 48 Mitglieder vom Staatsoberhaupt ernannt werden. Alle Algerier besitzen ab 18 Jahren das Wahlrecht. Die Verfassung orientiert sich laut Artikel 9 an islamischer Ethik und den Werten der Novemberrevolution. Im Justizwesen bestehen französisches und islamisches Recht nebeneinander. Das Gerichtswesen sieht Volkstribunale (Zivilrecht) und Strafvolksgerichte (Strafrecht) vor. Höchste Instanz ist der Oberste Gerichtshof. Homosexualität in Algerien ist gesellschaftlich geächtet und dort nach geltendem Recht illegal. In den vergangenen Jahren kam es zu mehreren tödlichen Übergriffen auf Homosexuelle und auch zu einer öffentlichen Steinigung. Wahlen. Bei den Wahlen zur Nationalen Volksversammlung 2012 gewann die regierende Nationale Befreiungsfront 221, die Nationale Demokratische Sammlung ("RND" – Nationaldemokraten) 70, die islamistische Allianz Grünes Algerien (aus Gesellschaftsbewegung für Frieden, Ennahda und Bewegung für Nationale Reform) 47, die Front Sozialistischer Kräfte ("FFS", Berber) 21, die Unabhängigen 19, die Arbeiterpartei ("PT" – Arbeiterbewegung) 17 und Sonstige 78 Sitze. Opposition. Durch wirtschaftliche und soziale Probleme sowie die Unzufriedenheit mit den Leistungen des politischen Systems sind islamistische Bewegungen in Algerien sehr erfolgreich. Diese fordern einen islamistischen Staat, dessen innere Struktur und Außenpolitik sich an den Regeln einer radikalen Interpretation des Islams orientieren soll. Sie sind gleichwohl zum überwiegenden Teil verboten und stellen höchstens so etwas wie eine außerparlamentarische Opposition dar. Nach Angaben von Amnesty International gibt es weiterhin pro Jahr mehrere hundert Tote als Folge von Attentaten. Sie werden jetzt häufig der Gruppe „al-Qaida im islamischen Maghreb” zugeschrieben, in die sich die GSPC Anfang 2007 umbenannte. 2007 gab es unter anderem im April Anschläge auf den Amtssitz des algerischen Ministerpräsidenten und eine Polizeistation in Algier. Im Dezember wurde ein Anschlag auf das UNHCR-Büro in Algier verübt. Am 23. Februar 2011 wurde der seit 19 Jahren bestehende Ausnahmezustand aufgehoben. Dies war eine Forderung der Opposition. 1992 wurde der Ausnahmezustand in Kraft gesetzt zur Bekämpfung von bewaffneten Islamisten. Am 16. Januar 2012 griffen Islamisten einen Standort des Ölkonzerns BP an und nahmen offenbar zahlreiche Ausländer als Geiseln. Die algerische Nachrichtenagentur APS meldete, bei dem Angriff seien zwei Menschen getötet worden. Einer der Angreifer erklärte, seine Gruppe komme aus dem Nachbarland Mali, wo Frankreich seit Ende vergangener Woche einen Militäreinsatz gegen Islamisten führt. Nach eigenen Angaben brachte die Gruppe der Angreifer 41 westliche Ausländer in ihre Gewalt, darunter 7 US-Amerikaner. Menschenrechte und Demokratie. Freedom House schätzt Algerien als „unfreies“ Land ein (Stand 2011). Im Demokratieindex von 2011 erreicht Algerien den 130. von 167 Plätzen und wird als „autoritäres Regime“ bezeichnet. Werner Ruf, emeritierter Professor für Internationale Politik an der Philipps-Universität Marburg, übte in einem Interview mit der Tagesschau anlässlich des Besuchs von Bundeskanzlerin Angela Merkel im Juli 2008 scharfe Kritik an der politischen Entwicklung in Algerien: „De facto regiert noch das Militär.“ Der Parlamentarismus sei eine Fassade. „Dahinter herrscht eine undurchsichtige Clique an der Spitze des Militärs. Das sind Leute, die sich bereichern. Die Korruption ist gewaltig.“ Das Land bleibe „weit entfernt von dem, was wir einen Rechtsstaat, eine Demokratie, nennen.“ Thomas Schiller, Leiter des Auslandsbüros Algier der Konrad-Adenauer-Stiftung zufolge hat Algerien in den letzten 10 Jahren hingegen trotz immer noch erheblicher politischer, wirtschaftlicher und vor allem sozialer Defizite viel erreicht – vor allem Stabilität. Die politische Stabilisierung seit dem Amtsantritt Bouteflikas und eine zunehmend aktivere Zivilgesellschaft würden dem Land helfen, den Weg zur Normalität zu gehen. Die Politik Bouteflikas bezeichnet er als „erfolgreich“. Sie mische hartes Durchgreifen gegen Terroristen mit einer „Aussöhnungspolitik“, Sicherung der algerischen Unabhängigkeit mit vorsichtigen Reformen und wirtschaftlicher Öffnung. In Algerien gibt es zwar die Todesstrafe, doch sie wurde seit mehr als zehn Jahren nicht mehr offiziell vollstreckt. In Algier herrscht seit 2001 ein allgemeines Demonstrationsverbot. Die Pressefreiheit ist spürbar eingeschränkt. Es herrscht eine Zensur in Algerien. Die Organisation Reporter ohne Grenzen ordnet Algerien im Press Freedom Index jenem Drittel von Staaten zu, in denen die Pressefreiheit am geringsten ist. Der UN-Menschenrechtsausschuss zeigte sich in seinem Bericht zur Lage der Menschenrechte in Algerien vom November 2007 besorgt über zahlreiche Hinweise auf geheime Haftzentren. Er hebt außerdem hervor, dass es viele Berichte über Folterungen und Misshandlungen durch den Militärgeheimdienst DRS gebe. Der Ausschuss kritisiert auch, dass zahlreiche Journalisten Opfer von Einschüchterungen sind und Frauen in der Ehe weiterhin diskriminiert werden (s. Literatur, Amnesty International). Von Menschenrechtsorganisationen wie Amnesty International wird der „Versöhnungspolitik“ Bouteflikas vor allem vorgeworfen, sie ziele lediglich darauf ab, die Gewalt der neunziger Jahre vergessen zu machen, anstatt die Ereignisse juristisch aufzuarbeiten. Kritik daran sowie Demonstrationen von Angehörigen der Opfer würden von der Regierung unterdrückt. Im Bericht der Bertelsmann-Stiftung zur politischen und wirtschaftlichen Transformation in Algerien („Bertelsmann Transformationsindex 2003“) heißt es dazu: „Die Aufarbeitung von Menschenrechtsverletzungen, die im Zusammenhang mit dem seit 1992 anhaltenden innenpolitischen Konflikt stehen, fand auf nationaler Ebene nicht statt. Weder die islamistischen Vergehen, noch die staatlichen Übergriffe im Rahmen der Bekämpfungsmaßnahmen des islamistischen Terrorismus wurden thematisiert.“ Außenpolitik. Algerien ist seit 1962 Mitglied der Vereinten Nationen und hat Beobachterstatus in der WTO. Ansonsten ist es Mitglied der Afrikanischen Union (AU), der Arabischen Liga, der Organisation für Islamische Zusammenarbeit, der Organisation erdölexportierender Staaten (OPEC) und der Organisation arabischer erdölexportierender Staaten (OAPEC). Neben den Mitgliedsstaaten der Afrikanischen Union und der Arabischen Liga pflegt Algerien gute Beziehungen zur EU, den Vereinigten Staaten, Russland und besonders zur Volksrepublik China. Algerien hält traditionell freundschaftliche Beziehungen zur syrischen Regierung aufrecht und versucht eine Isolierung Syriens in der islamischen Welt zu verhindern. Ex-Außenminister Lakhdar Brahimi bemüht sich seit 2012 als UNO-Sondervermittler vergeblich um eine Beendigung des Bürgerkriegs in Syrien. Streitkräfte. Die 147.000 Mann starken Streitkräfte gliedern sich in Heer (127.000), Luftwaffe (14.000) und Marine (6000). Dem algerischen Verteidigungsministerium unterstehen des Weiteren die Gendarmerie, die Grenzwache und weitere paramilitärischen Verbände. Französische Atomwaffentests. Am 13. Februar 1960 testete Frankreich seine erste Atombombe (mit einer Sprengkraft von 70 kt TNT-Äquivalent) in der Nähe von Reggane. Es war die stärkste Bombe, die bei einem ersten Test je zur Detonation gelangte. Zum Vergleich: Der erste US-Test (Trinity) hatte eine Stärke von 20 kt, der erste UdSSR-Test (RDS-1) hatte 22 kt, der erste britische Test (Hurricane) hatte 25 kt. Die Hiroshima-Bombe (Little Boy) hatte 13 kt, die Nagasaki-Bombe (Fat Man) 22kt. Die weiteren drei oberirdischen Bomben bei Reggane hatten jeweils weniger als 5 kt. Am 7. November 1961 fand der erste von 13 unterirdischen Tests bei "In Ekker" im Hoggar statt. Bei dem zweiten Test ("Béryl") am 1. Mai 1962 hielt der Verschluss des Tunnels nicht stand. Radioaktive Gase, Staub und Lava wurden ausgestoßen. Die Beobachter des Tests wurden kontaminiert (darunter auch anwesende französische Minister). Drei andere Tests verliefen ebenfalls nicht plangemäß, jedoch nach Angaben des Verteidigungsministeriums ohne Austritt von radioaktiven Substanzen: 30. März 1963 – „Amethyst“ / 20. Oktober 1963 – „Rubin“ (Stärke 100 kt) / und 30. Mai 1965 – „Jade“. Der stärkste Test in In Ekker war am 25. Februar 1965 „Saphir” mit 150 kt. Mit dem Test am 16. Februar 1966 endeten die Versuche in Algerien. Die Tests wurden nach Französisch-Polynesien (Mururoa und Fangataufa-Atoll) verlegt, wo oberirdisch (erst ab 1974 wieder unterirdisch) weitergetestet wurde. Zu beachten ist, dass es zwischen Großbritannien, USA und der UdSSR ein Verbot von atmosphärischen Atomwaffentests gab (am 5. August 1963 zur Unterzeichnung freigegeben, trat am 10. Oktober 1963 in Kraft), an das sich diese hielten (letzter atmosphärischer Test: GB: 23. September 1958 / USA: 9. Juni 1963 / UdSSR: 25. Dezember 1962). Frankreich und China hielten sich nicht daran, testeten oberirdisch weiter: Frankreich: 2. Juli 1966 bis 14. September 1974: 41 Tests, China: 16. Oktober 1964 bis 16. Oktober 1980: 22 Tests. Auf Wunsch Algeriens untersuchte die IAEA das Gelände bei Reggane und stellte in ihrem Bericht von 2005 fest, dass aufgrund der sehr schwachen restlichen Radioaktivität nichts zu veranlassen sei, lediglich im Fall größerer menschlicher Aktivitäten in der Gegend sollte der Zutritt zu den vier Explosionsorten untersagt werden. Der Ort des Béryl-Unfalls bei "In Ekker" scheint nach wie vor kontaminiert und zumindest in der Vergangenheit schlecht gesichert gewesen zu sein, so dass die Reststrahlung eine Gefahr für uninformierte Einheimische und Touristen darstellen kann.. Die Regionen werden touristisch genutzt, wobei vermutlich nicht jeder Tourist über die Vergangenheit und die Strahlensituation der Gelände informiert ist. Verwaltungsgliederung. Das Land ist in 48 Verwaltungsbezirke ("Wilayat", Singular "Wilaya"), die jeweils nach der Hauptstadt benannt sind, unterteilt. Die Wilayat haben eigene Parlamente, unterstehen jedoch letztlich der Zentralregierung. Unterhalb der Verwaltungsebene des Wilaya (Provinz) gibt es die Ebene Daïra (Kreis) und als unterste Ebene die Kommune (,). Die Kommunen haben wie die Wilayat den Status von "Collectivités territoriales" (Gebietskörperschaften). Wirtschaft. Algerien gehört vom Pro-Kopf-Einkommen her zu den reicheren Ländern Afrikas. Die Inflationsrate lag 2004 durchschnittlich bei 4,5 %. Planwirtschaft. Nach Erlangung der Unabhängigkeit setzte die regierende Einheitspartei Front de Libération Nationale (FLN) lange auf staatliche Planwirtschaft und einen „algerischen Sozialismus“. Dank der Einnahmen aus dem Öl- und Gasexport konnte sich Algerien eine ineffiziente Staatswirtschaft zunächst leisten. Ende der 80er Jahre führten sinkende Ölpreise, hohe Arbeitslosigkeit und Wohnungsnot jedoch zu sozialen Spannungen, die sich 1988 schließlich in schweren Unruhen entluden und zum Ausbruch des Bürgerkrieges beitrugen. Nachdem sich die innenpolitische Lage seit Ende der 1990er Jahre deutlich stabilisiert hat, bemüht sich die Regierung verstärkt um eine Liberalisierung und Privatisierung der Wirtschaft. Das Erbe der früheren Planwirtschaft, die exzessive Bürokratie, weitverbreitete Korruption, ein wenig leistungsfähiger Bankensektor und die immer noch unsichere innere Lage bilden für eine rasche Entwicklung privater Unternehmen und ausländische Investitionen allerdings keine günstigen Bedingungen. Staatsunternehmen. Industrie und Bankensektor werden immer noch weitgehend von Staatsunternehmen beherrscht. Bei den Privatisierungsbemühungen in der Industrie stehen Düngemittelhersteller, petrochemische und pharmazeutische Unternehmen im Mittelpunkt. Das Bankenwesen dominieren sechs staatliche Institute. Die für Mitte 2007 vorgesehene Privatisierung der Bank Crédit Populaire d´Algérie musste wegen der internationalen Finanzmarktkrise verschoben werden. Da die sechs Staatsbanken weiterhin Kredite an unrentable Staatsunternehmen vergeben, machen „faule Kredite“, die nicht zurückgezahlt werden und teilweise vom Staat aufgekauft werden, über 30 % des gesamten Kreditportfolios aus. Zudem bleibt die Wirtschaft aufgrund zu geringer Kapitalausstattung der Banken im Vergleich zu den Nachbarn Tunesien oder Marokko mit Krediten unterversorgt. Bartransaktionen dominieren. Öl und Gas. Algeriens Wirtschaft ist weiterhin außerordentlich stark vom Energiesektor abhängig, der von der staatlichen Öl- und Gasgesellschaft Sonatrach beherrscht wird. 2007 entfielen 98 % der Warenexporterlöse auf den Energiesektor. Die Regierung plante, bis zum Jahr 2010 die Ölförderung von heute 1,3 Millionen auf 2 Millionen Barrel pro Tag und die Gasförderung auf 85 Milliarden Kubikmeter pro Jahr zu steigern. Dies konnte jedoch nicht erreicht werden. Die Weltwirtschaftskrise ab 2007, die das weltweite Wirtschaftswachstum und den Ölpreis für mehrere Jahre massiv reduzierte und damit auch den weltweiten Bedarf an Erdöl und Erdgas, sowie neue Fördermethoden die v.a. in den USA angewendet werden (Fracking) führten zu einem massiven Überangebot an Erdöl auf dem Weltmarkt. Der Gas-Sektor ist weltweit weniger betroffen als der Erdölmarkt. Im Jahr 2014 lag die algerische Erdölproduktion bei 1,2 Millionen Barrel (+4,7 Prozent zum Vorjahr) pro Tag und die Gasförderung bei 82 Milliarden Kubikmetern (+3,0 Prozent). Im Jahr 2012 lag sie allerdings bereits bei 87 Milliarden Kubikmetern. Sie sank, weil im Januar 2013 die Geiselnahme von In Aménas stattfand, über 100 internationale Mitarbeiter in den Förderanlagen wurden als Geiseln gehalten. Das Nass-Naturgasfeld Tiguentourine war das Hauptziel. Die algerische Erdgasförderung konnte sich bisher noch nicht vollständig von diesem Terrorakt erholen. Die geförderte Ölmenge ist mehr oder weniger stark an die OPEC-Förderquote gebunden. Diese liegt im Mai 2015 bei 30 Millionen Barrel pro Tag für alle 12 Mitglieder der OPEC, ist jedoch ziemlich kompliziert und die Förderländer untereinander sind sich zum Teil sehr uneinig in ihrer Strategie. Die derzeitige Quote ist wesentlich mehr als der Weltmarkt benötigt, jedoch wird durch den gefallenen Ölpreis das Fracking in den USA an den meisten Stellen unrentabel und die US-Schieferölproduktion soll sinken, durch den Fracking-Boom erhöhte sich die US-Förderung um 4 Millionen Barrel und auch Kanada baute seine Ölsandproduktion weiter aus. Die US-Abhängigkeit von Öl aus dem Nahen Osten reduzierte sich auf praktisch Null. Diese Förderung soll jedoch wegen des Überangebots durch die OPEC im April/Mai 2015 ihren vorläufigen Höhepunkt erreichen und dann fallen. Damit würde die OPEC wieder Marktanteile zurückgewinnen. Daher wird Algerien wohl die Erdgas-Förderung steigen in den kommenden Jahren. Der Terror bleibt auch in der Zukunft ein mögliches Problem. In Libyen tobt derzeit ein Konflikt um die Kontrolle des Landes und damit der gewaltigen Öl- und Erdgasreserven. Islamistische Fundamentalisten könnten versuchen auch in Algerien abgelegene Gebiete mit kleineren Öl- und Gasfeldern zu erobern und das Erdöl auf dem Schwarzmarkt verkaufen. Wie in Syrien und dem Irak schon lange üblich. Eine Steigerung auf das ursprüngliche Ziel von 2 Millionen Barrel wäre selbst wenn es technisch und wirtschaftlich möglich wäre nicht erlaubt, da auch andere Staaten (v.a. der Iran und Venezuela) unter dem niedrigen Ölpreis leiden, der Ölpreis ist seit dem Sommer 2014 um fast 50 Prozent gefallen und hat sich bis Anfang Mai 2015 nur minimal erholt. Algerien wird in naher Zukunft wegen der OPEC-Quote wenn überhaupt vermutlich nur leichte Produktionszuwächse erleben. Abhängig von der Förderung außerhalb der OPEC (Russland, USA, China, Kanada) und der wirtschaftlichen Entwicklung und der Nachfrage nach Ölprodukten. Besonders in den USA, Europa und China sowie Indien. Elektrizitätsversorgung. Algerien lag bzgl. der jährlichen Erzeugung im Jahre 2011 mit 48,05 Mrd. kWh an Stelle 52 und bzgl. der installierten Leistung im Jahre 2013 mit 15,2 GW an Stelle 48 in der Welt. 2011 wurden 99,8 % des Stroms in Gaskraftwerken erzeugt. Laut Energieministerium wurden im Jahre 2011 48,87 Mrd. kWh produziert, davon 9,65 Mrd. (19,8 %) durch Dampfkraftwerke, 15,7 Mrd. (32,1 %) durch GuD-Kraftwerke, 22 Mrd. (45,1 %) durch Gasturbinen und 1,5 Mrd. (3,0 %) durch sonstige Erzeugung. Der Spitzenverbrauch stieg von 4.965 MW im Jahre 2002 auf 8.606 MW im Jahre 2011 an, was einer durchschnittlichen jährlichen Steigerung von 6,3 % entspricht. Die "Société Algérienne de Production de l’Electricité" (SPE), eine Tochter der staatlichen Sonelgaz verfügte 2009 über eine Erzeugungskapazität von 8.445 MW und erzeugte 2010 24,24 Mrd. kWh. Sie war 2011 der mit Abstand größte Stromerzeuger in Algerien. Sonelgaz möchte die Erzeugungskapazität bis 2018 um 14.150 MW erhöhen (davon 10.772 MW mittels GuD-Kraftwerken). 2013 schloss SPE einen Vertrag mit GE, der die Errichtung von 6 neuen GuD-Kraftwerken mit einer installierten Leistung von 8 GW vorsieht. Algerien beabsichtigt auf längere Sicht auch die Errichtung von Kernkraftwerken. 2014 wurde eine Vereinbarung zwischen der russischen ROSATOM und Algerien unterzeichnet, die eine Zusammenarbeit auf diesem Gebiet vorsieht. Potentielle Standorte für Kernkraftwerke wurden bereits auf ihre Eignung hin untersucht. Das Verbundnetz Algeriens ist Teil des South-Western Mediterranean Block (SWMB), der die Stromnetze von Algerien, Marokko und Tunesien umfasst. Seit 1997 ist der SWMB mit dem europäischen Verbundsystem synchronisiert, als ein erstes Drehstrom-Seekabel (400 kV, 700 MW) von Spanien aus nach Marokko verlegt wurde. Erneuerbare Energien. Zudem sollen die Erneuerbaren Energien stark ausgebaut werden. Ein im Februar 2015 durch die Regierung verabschiedetes Programm sieht vor, bis 2030 22 GW regenerativer Kraftwerkskapazität zu errichten. Davon sollen 13,5 GW auf die Photovoltaik entfallen, 5 GW auf Windenergie, 2 GW auf Sonnenwärmekraftwerke, 1 GW auf Bioenergie, 400 MW auf Kraft-Wärme-Anlagen und 15 MW auf Geothermie. Bereits 2011 ging mit dem Kraftwerk Hassi R’Mel das weltweit erste "ISCC-Kraftwerk" ans Netz, d.h. ein Solar-Hybrid-GuD-Kraftwerk, bei dem ein herkömmliches gasbefeuertes GuD-Kraftwerk durch zusätzliche eingekoppelte Solarwärme unterstützt wird. Der Bau weiterer und größerer Anlagen dieses Typs ist geplant. Diversifizierung. Die Diversifikation der Wirtschaft, die stärkere Entwicklung der Wirtschaft außerhalb der Energiewirtschaft, ist deswegen ein Hauptziel der Regierung. Besondere Hoffnungen werden auf die Branchen Transport, Tourismus, Bauwirtschaft und Informationstechnologie gesetzt. Die Baubranche erhielt bereits einen kräftigen Wachstumsimpuls mit einem staatlichen Investitionsprogramm im Umfang von 60 Milliarden USD, das unter anderem die Errichtung einer Million Neubauwohnungen vorsieht. Außenwirtschaftliche Liberalisierung. Mit der Umsetzung des am 1. September 2005 in Kraft getretenen Assoziierungsabkommens mit der EU steigt der Wettbewerbsdruck für algerische Unternehmen. Der Vertrag mit der EU sieht vor, dass innerhalb von zwölf Jahren sämtliche Handelsschranken zwischen den beiden Partnern wegfallen und Algerien damit Teil der beabsichtigten Freihandelszone wird. Auch der angestrebte Beitritt zur Welthandelsorganisation (WTO) wird Algerien zu einer stärkeren Öffnung seiner Märkte zwingen. Die Bildung der Mittelmeerunion mit den EU-Staaten zeigt deutlich, welch hohe Bedeutung die rohstoffreichen Mittelmeeranrainer für die Europäische Union – insbesondere im Hinblick auf die Energieversorgung – haben. Die Bemühungen der EU um eine stärkere Streuung ihrer Energiebezugsquellen lassen Algerien, das heute schon rund 25 % der Erdgasimporte der Europäischen Union liefert, zu einem immer wichtigeren Handelspartner werden. Am 22. Juli 2009 hat sich die algerische Regierung entschlossen, das Wochenende von Donnerstag/Freitag auf Freitag/Samstag zu verlegen. Diese Regelung soll ab dem 14. August 2009 gelten. Dadurch soll ein Wachstum des Bruttoinlandsprodukts von 1,2 Prozent erzielt werden. Da sich Algerien seit 1976 lediglich drei Wochentage mit den westlichen Industrienationen teilt, sind laut Berechnungen der Weltbank jährliche Verluste zwischen 500 und 700 Millionen Dollar entstanden. Wachstum, Inflation, Arbeitsmarkt. 2007 konnte Algerien ein Wirtschaftswachstum von 3,1 % verzeichnen, nachdem 2006 wegen Wartungsarbeiten an Öl- und Gasfeldern das Wachstum des Bruttoinlandsprodukts auf rund 2 % gesunken war. Die Produktion außerhalb des Öl- und Gassektors steigt seit 2003 stabil um rund 5 bis 6 Prozent. Staatliche Investitionsprogramme, vor allem für die Schaffung von Wohnraum und den Ausbau der Infrastruktur, tragen dazu wesentlich bei. Der Anstieg der Verbraucherpreise beschleunigte sich 2008 bei stark steigenden Lebensmittelpreisen zwar, blieb mit 4,4 % aber relativ niedrig. Dabei ist zu berücksichtigen, dass etwa die Energiepreise in Algerien staatlich reguliert sind. Größte wirtschaftspolitische Herausforderung für die algerische Regierung bleibt die Bekämpfung der hohen Arbeitslosigkeit. Nach Angaben der Regierung wurde sie zwar in den letzten Jahren deutlich gesenkt, 2009 lag sie bei 12,4 %. Besonders hoch ist die Jugendarbeitslosigkeit, sie wurde 2006 mit 24,3 % (2001 sogar 47,8 %) angegeben. Exporterlöse. Begünstigt wurde die gesamtwirtschaftliche Entwicklung seit 2003 von kräftig steigenden Öl- und Gaspreisen. Sie sorgten dafür, dass sich die Exporterlöse von 2003 bis 2007 auf rund 60 Mrd. US-Dollar verdoppelten. Der Überschuss in der Leistungsbilanz erhöhte sich auf knapp ein Viertel des Bruttoinlandsprodukts, wozu auch die Überweisungen von im Ausland beschäftigten Algeriern beitrugen. Dank der stark gestiegenen staatlichen Einnahmen aus dem Öl- und Gassektor hatte Algerien auch hohe Überschüsse im Staatshaushalt vorzuweisen. Sie fließen zum Teil als Ersparnisse in den sogenannten „Einnahmen-Regulierungs-Fonds“ (FRR). Mittel aus diesem Fonds wurden auch zur Tilgung algerischer Auslandsschulden verwendet, die von rund 58 % des Bruttoinlandsprodukts im Jahr 1999 auf rund 2,5 % des Bruttoinlandsprodukts im Jahr 2009 abgebaut wurden. Die internationalen Währungsreserven erreichten zum 31. Dezember 2009 dank hoher Einnahmen aus dem Öl- und Gassektor rund 150 Milliarden US-Dollar. Staatshaushalt. Der Staatshaushalt umfasste 2009 Ausgaben von umgerechnet 61,34 Mrd. US-Dollar, dem standen Einnahmen von umgerechnet 56,24 Mrd. US-Dollar gegenüber. Daraus ergibt sich ein Haushaltsdefizit in Höhe von 3,8 % des BIP. Die Staatsverschuldung betrug 2009 14,4 Mrd. US-Dollar oder 10,7 % des BIP. Landwirtschaft. Die Landwirtschaft trug nach Angaben der deutschen Bundesagentur für Außenwirtschaft 2006 knapp 8 % zur gesamtwirtschaftlichen Produktion bei. Sie beschäftigt ca. 1,2 Mio. Erwerbstätige. Eine intensive landwirtschaftliche Nutzung ist nur auf einem schmalen Streifen im Norden möglich. Lediglich 3 % der Landesfläche sind Acker- und Dauerkulturland, das sich überwiegend in Privatbesitz befindet. Die extensive, zum Teil nomadische Viehhaltung konzentriert sich auf das Hochland der Schotts und die nördliche Sahara. In den Wäldern des Tellatlas wird Kork gewonnen. Die wichtigsten Agrarprodukte sind Getreide, Zuckerrüben, Kartoffeln, Hülsenfrüchte, Tomaten, Oliven, Datteln, Feigen, Tabak, Wein und Zitrusfrüchte. In Treibhäusern aus Kunststoff-Folie wird Frühgemüse für den Export kultiviert. In Algerien gibt es etwa 15 Mio. Dattelpalmen, die meisten davon in den Oasen. Sie liefern jährlich einen Ertrag von ca. 500.000 Tonnen Datteln unterschiedlicher Qualität. Die weichen, hochwertigen Sorten werden teilweise nach Europa exportiert, die harten, widerstandsfähigen Sorten werden auch in viele Länder Schwarzafrikas verkauft, die sich dort wegen ihrer Haltbarkeit im tropischen Klima großer Beliebtheit erfreuen. Weniger als 40 % des Nahrungsmittelbedarfs werden durch Eigenproduktion gedeckt. Algerien ist der wichtigste Nahrungsmittelimporteur Afrikas: Nur 20 % bei Getreide und Getreideprodukte, 20 % bei Gemüse, 60 % bei Milch und 95 % bei rotem Fleisch werden im Inland produziert. 95 % des rohen Speiseöls und praktisch der gesamte Rohzucker und Kaffee werden importiert. Energiewirtschaft und Bergbau. Herausragende Bedeutung haben die Förderung von Erdöl (drittgrößte Vorkommen Afrikas) und Erdgas in der Sahara. Die Ölreserven werden auf 11,8 Milliarden Barrel und die Gasreserven auf 4,5 Billionen Kubikmeter geschätzt. Der Gasexport soll von 85 Milliarden Kubikmeter im Jahr 2010 auf 100 Milliarden Kubikmeter im Jahr 2015 gesteigert werden. Rund 95 Prozent seiner Erdgasproduktion liefert Algerien nach Europa. Es ist damit nach Russland und Norwegen Europas drittgrößter Gaslieferant. Es liefert rund 30 Prozent des europäischen Verbrauchs. Algerien trägt insbesondere zur Versorgung von Portugal, Spanien, Griechenland und Frankreich bei. Deutschland bezieht bisher noch kein Erdgas aus Algerien. Etwa die Hälfte seiner Gasexporte verkauft Algerien als LNG in flüssigem Zustand, Tendenz steigend. LNG-Anlagen, die 2004 bei einem Unfall zerstört worden waren, sollen bis zum Jahr 2009 durch Produktionsstätten mit einer höheren Kapazität ersetzt werden. Außerdem werden neue Tankschiffe gekauft. Um die ehrgeizigen Ziele im Öl- und Gassektor zu erreichen, ist das Land auf ausländisches Kapital angewiesen. Das am 20. März 2005 verabschiedete neue Kohlenwasserstoff-Gesetz (Loi sur les Hydrocarbures) hob das Nationalisierungsgesetz von 1971 auf. Die staatliche Öl- und Gasgesellschaft Sonatrach verlor ihre Rolle als Regulierungsbehörde im Kohlenwasserstoffsektor und ihr Vertriebsmonopol. Nachdem das 2005 verabschiedete Gesetz ausländischen Unternehmen erlaubte, 70 Prozent der Anteile an Förderstätten und -anlagen zu erwerben, wurde diese Reform jedoch ein Jahr später zurückgenommen. Nunmehr müssen sich ausländische Öl- und Gasfirmen bei Beteiligungen in Algerien mit Minderheitsanteilen begnügen. Außerdem fällt eine Sondersteuer an, wenn der Ölpreis bei über 30 US-Dollar pro Barrel liegt. Als Bodenschätze werden in Algerien außer Erdöl und Erdgas auch Eisen-, Kupfer-, Blei- und Zinkerze sowie Quecksilber und Phosphat abgebaut. Industrie und Handel. Die Schwerpunkte im industriellen Bereich liegen bei der Erdöl- und Erdgasverarbeitung sowie bei der Eisen- und Stahlindustrie und den darauf basierenden metallverarbeitenden Zweigen. Hinzu kommen die Verarbeitung landwirtschaftlicher Produkte, zum Beispiel eine Speiseöl-Raffinerie und eine Zuckerraffinerie in der Hafenstadt Oran, die Düngemittelproduktion und die Baustoffindustrie. Ausgeführt wurden 2007 Waren im Wert von insgesamt 59,9 Mrd. US$, zu 98 % Rohöl, Erdgas und Erdölerzeugnisse. Hauptabnehmerländer waren die USA (27 %), Italien (15 %), Spanien (10 %), Kanada (8 %) und Frankreich (7,5 %). Importiert wurden 2007 Waren im Wert von insgesamt 25,2 Mrd. US$, und zwar zu 37 % Ausrüstungsgüter, zu 31 % Produktionsgüter, zu 18 % Nahrungsmittel, zu 15 % Konsumgüter. Hauptlieferanten waren zu 17 % Frankreich, zu 9 % Italien, zu 8 % China, zu 8 % die USA und zu 6 % Deutschland. Handelsbeschränkungen. Um unerwünschte und qualitativ minderwertige Einfuhren zu vermeiden, bestimmte die Zentralbank Algeriens im Februar 2009 mit der Mitteilung N°16/DGC/2009, dass drei Dokumente beim Import von Waren vorgelegt werden. Die Vorlage ist mit sofortiger Wirkung Die Zertifikate müssen im Land des Exporteurs für jede Lieferung ausgestellt werden. Die ersten zwei Zertifikate wurden bisher bei der Einfuhr nach Algerien verlangt, neu ist die obligatorische Vorlage des „certificat de contrôle de qualité de la marchandise“ für jede Lieferung, es muss von einer unabhängigen Prüf-Organisation wie dem TÜV Hessen ausgestellt werden. Liegen die drei Dokumente bei der Wareneinfuhr nicht vor, wird die „Domilizierung“ bei der algerischen Bank nicht akzeptiert und die Waren können nicht zollamtlich abgefertigt werden. Das Zertifikat muss nach Angaben der algerischen Banken die Qualität des Produkts und die Normenkonformität mit algerischen Standards oder den entsprechenden internationalen Standards und Normen bestätigen. Verkehrswesen. Netz der wichtigsten Eisenbahnlinien Algeriens Das Verkehrsnetz ist auf Nordalgerien konzentriert. Die wichtigsten Hafenstädte sind Algier, Annaba, Oran, Bejaia, Skikda und Béthioua, von denen Fährverbindungen über das Mittelmeer ausgehen. Das Schienennetz der algerischen Eisenbahn (SNTF) hat eine Länge von 3810 Kilometern, wovon 386,3 Kilometer elektrifiziert sind. Die wichtigste Bahnstrecke des algerischen Schienenverkehrs verläuft in West-Ost-Richtung meist im Tellatlas parallel zur Küste und hat Anschluss an das marokkanische und tunesische Eisenbahnnetz. Von ihr gehen Stichstrecken sowohl zu den Hafenstädten als auch nach Süden an den Rand der Sahara aus. Für das im Jahr 2009 in Algier eröffnete, 160 h schnelle S-Bahn-System wurden 64 vierteilige elektrische Triebzüge der Bauart FLIRT bei Stadler in der Schweiz bestellt. Die Straßen (insgesamt 180.000 Kilometer, davon rund 85 % asphaltiert) gehen südlich des Atlasgebirges meist in Wüstenpisten über. 2007 wurde mit dem Bau eines großen Infrastrukturprojektes, der 1216 km langen, sechsspurigen Ost-West-Autobahn A1 (Teil der "Transmaghrébine"), begonnen und mit Hilfe zahlreicher internationaler Baufirmen bereits Mitte 2010 weitgehend fertiggestellt. Der Bau einer zweiten Ost-West-Autobahn wurde Anfang 2014 gestartet. Die befestigten Straßen im Süden des Landes verlaufen im Wesentlichen in Nord-Süd-Richtung und verbinden Algerien mit den Nachbarstaaten Niger (N 1) und Mali (N 6) sowie der Grenzregion zwischen Mauretanien und der von Marokko beanspruchten West-Sahara (N 50). Internationale Flughäfen gibt es unter anderem in Algier (ALG), Oran (ORN), Annaba (AAE) und Chlef (QAS). Da die Verkehrsinfrastruktur die wirtschaftliche Entwicklung Algeriens besonders hemmt, hat die Regierung im Jahr 2005 einen Fünf-Jahres-Plan ausgearbeitet, nach dem die Verkehrsinfrastruktur durch Joint Ventures mit dem privaten Sektor modernisiert werden soll. Großes Aufholpotential besteht verglichen mit den Nachbarländern auch im Tourismus. 70 Prozent der heutigen Touristen sind Algerier, die Freunde oder die Familie besuchen. Pipelines. Zur Steigerung seiner Exportkapazitäten baut Algerien seine LNG-Anlagen und seine Exportpipelines aus und errichtet weitere Exportpipelines. Zusätzlich zum Ausbau der bestehenden Pipelines sind neue Pipelines von Algerien nach Italien und nach Spanien im Bau bzw. in der Planung. Kultur. Die algerische Kultur wird durch Einflüsse der früheren Kolonialmacht, berberische und arabische Traditionen bestimmt. Seit den 1980er Jahren kam es verstärkt zu Auseinandersetzungen zwischen Berbern und der Zentralregierung, bei denen zahlreiche Menschen von der Gendarmerie umgebracht worden sind. Im Jahre 2001 beispielsweise wurden über 100 Menschen auf offener Straße erschossen. Im Zuge der 2004 angestrebten Parlamentswahlen machte die Regierung Bouteflika den Berbern schließlich Zugeständnisse (Berberisch an Schulen). Erst seit kurzem ist die Berbersprache eine offiziell anerkannte Amtssprache. Literatur. Die algerische Literatur stellt sich heute als Exilliteratur dar, da die Schriftsteller aufgrund der politischen Repression mit wenigen Ausnahmen den Weg ins Ausland gesucht haben. Bekannte Vertreter sind Assia Djebar, Rachid Boudjedra, Maïssa Bey, Yasmina Khadra oder Boualem Sansal. Die algerische Literatur ist stark vom arabischen Kulturerbe beeinflusst. Allerdings gibt es auch ein Kulturerbe der berberischen Minderheit. Viele berberische Autoren schreiben in französischer Sprache und Mazirisch. Rundfunk. Radio Algérienne bietet über seinen Auslandsdienst auf mehreren Kurzwellenfrequenzen Koranprogramme an, die über einen Sender in Issoudun, Frankreich ausgestrahlt werden. Audio Live-Streams in arabischer Sprache sind über das Internet zugänglich. Der Inlandsdienst von Radio Algérienne stellt Sendungen auf Lang- und Mittelwelle zur Verfügung. Der Mittelwellensender auf 531 kHz ist nachts auch in Deutschland gut zu empfangen. Empfangsberichte werden mit einer QSL-Karte bestätigt. Fußball. Schon seit den 1930er Jahren spielten algerische Fußballer eine wichtige Rolle in der französischen Profiliga "(siehe auch hier)". Die algerische Fußballnationalmannschaft konnte sich bisher viermal für die Endrunde einer Fußball-Weltmeisterschaft qualifizieren: 1982, 1986, 2010 und zuletzt 2014, wo man erstmals ins Achtelfinale einziehen konnte und dort in einem umkämpften Spiel mit 1:2 nach Verlängerung gegen Deutschland unterlag. Der Kabyle Rabah Madjer war der erste Fußballspieler aus Afrika, der den Europapokal der Landesmeister, die heutige Champions League gewinnen konnte, und zwar mit seinem portugiesischen Klub FC Porto. Legendär ist immer noch sein Hackentrick-Tor im Finale 1987 in Wien gegen den FC Bayern München. Der dreimalige Weltfußballer Zinédine Zidane wurde als Sohn algerisch-kabylischer Einwanderer geboren, spielte allerdings nur für Frankreich. Radsport. Seit 1949 wird in unregelmäßigen Abständen die Tour d’Algérie der Radsportler ausgetragen, ein internationales Etappenrennen. Rallyesport. Bis zum Ende der 1980er Jahre führte die Rallye Paris-Dakar durch Algerien. Arbeitsspeicher. Der Arbeitsspeicher oder Hauptspeicher (engl.:) ist die Bezeichnung für den Speicher, der die gerade auszuführenden Programme oder Programmteile und die dabei benötigten Daten enthält. Der Hauptspeicher ist eine Komponente der Zentraleinheit. Da der Prozessor unmittelbar auf den Hauptspeicher zugreift, beeinflussen dessen Leistungsfähigkeit und Größe in wesentlichem Maße die Leistungsfähigkeit der gesamten Rechenanlage. Arbeitsspeicher wird charakterisiert durch die "Zugriffsgeschwindigkeit" und (damit verbunden) die "Datenübertragungsrate" sowie die "Größe". Die Zugriffsgeschwindigkeit beschreibt die Dauer, bis ein angefragtes Datum gelesen werden kann. Die Datenübertragungsrate gibt an, wie schnell Daten gelesen werden können. Es können getrennte Angaben für Schreib- und Lesevorgang existieren. Zur Benennung der Arbeitsspeichergröße existieren zwei unterschiedliche Notationsformen, die sich aus der verwendeten Zahlenbasis ergeben. Entweder wird die Größe zur Basis 10 angegeben (als Dezimalpräfix; 1 kByte oder kB = 103 Bytes = 1000 Bytes, SI-Notation) oder zur Basis 2 (als Binärpräfix; 1 KiB = 210 Bytes = 1024 Bytes, IEC-Notation). Aufgrund der binärbasierten Struktur und Adressierung von Arbeitsspeichern (Byte-adressiert bei 8-Bit-Aufteilung, wortadressiert bei 16-Bit-Aufteilung, doppelwortadressiert bei 32-Bit-Aufteilung usw.) ist letztere Variante in der Regel die üblichere Form, die zudem ohne Brüche auskommt. Der Terminus „Arbeitsspeicher“ wird im allgemeinen Sprachgebrauch – abweichend von der o. g. Definition – gelegentlich auch für "temporär benötigten Speicherplatz" (z. B. auf Plattenspeichern oder in Datenbanktabellen) benutzt (siehe auch Auslagerungsdatei). Die Informationspsychologie verwendet den Ausdruck „Arbeitsspeicher“ als ein Synonym für den menschlichen „Kurzspeicher“ oder „Kurzzeitspeicher“. Grundlagen. Verschiedene Arten von Arbeitsspeicher (v.l.n.r.) SIMM 1992, SDRAM 1997, DDR-SDRAM 2001, DDR2-SDRAM 2008 Der Arbeitsspeicher des Computers ist ein durch Adressen (in Tabellenform) strukturierter Bereich, der Binärwörter fester Größe aufnehmen kann. Durch die binäre Adressierung bedingt hat Arbeitsspeicher praktisch immer eine 'binäre' (auf Potenzen von 2 basierende) Größe, da andernfalls Bereiche ungenutzt blieben. Der Arbeitsspeicher moderner Computer ist "flüchtig", d. h., dass alle Daten nach dem Abschalten der Energieversorgung verloren gehen – der Hauptgrund dafür liegt in der Technologie der DRAMs. Verfügbare Alternativen wie etwa MRAM sind allerdings für die Verwendung als Arbeitsspeicher noch zu langsam. Die häufigste Bauform für den Einsatz in Computern ist das Speichermodul. Es ist zwischen verschiedenen RAM-Typen zu unterscheiden. Waren in den 1980ern noch übliche Bauweisen Speicher in Form von ZIP-, SIPP- oder DIP-Modulen, so wurden in den 1990ern vorwiegend SIMMs mit FPM- oder EDO-RAM genutzt. Heute kommen in Computern in erster Linie DIMMs mit z. B. SD-, DDR-SD-, DDR2-SD-, DDR3-SD oder DDR4-SDRAMs zum Einsatz. Geschichte. Magnetkernspeicherelement, um 1971, Kapazität 16 Kibibyte Die ersten Computer hatten keinen Arbeitsspeicher, nur einige Register, die mit derselben Technik wie das Rechenwerk aufgebaut waren, also Röhren oder Relais. Programme wurden auf gänzlich anderen Medien, wie zum Beispiel Lochkarten, gespeichert oder als feste Verdrahtung. "„In Rechenanlagen der 2. Generation dienten Trommelspeicher als Hauptspeicher“" (Dworatschek). Zusätzlich wurde in der Anfangszeit auch mit eher exotischen Ansätzen experimentiert, so mit Laufzeitspeichern in Quecksilberbädern oder in Glasstabspiralen (mit Ultraschallwellen beschickt). Später wurden Magnetkernspeicher eingeführt, die die Information in Form kleiner Ferritkerne speicherten. Diese waren in einer kreuzförmigen Matrix aufgefädelt, wobei sich je eine Adressleitung und eine Wortleitung in der Mitte eines Ferritkerns kreuzten. Der Speicher war nicht flüchtig, die Information ging jedoch beim Lesen verloren und wurde anschließend von der Ansteuerungslogik sofort wieder zurückgeschrieben. Daneben wurde kein Strom verbraucht, solange der Speicher nicht beschrieben oder gelesen wurde. Für heutige Verhältnisse ist er sehr voluminös und in der Herstellung auch sehr teuer. Typische Großrechner waren Mitte der 1960er Jahre mit 32 bis 64 Kilobyte relativ großen Hauptspeichern ausgestattet (z. B. IBM 360-20 oder 360-30), Ende der 1970er Jahre (z. B. die Telefunken TR 440) mit 192.000 Worten à 52 Bit (netto 48 Bit), also mit über 1 Megabyte. Der Kernspeicher als Ganzes bot ausreichend Platz, neben dem Betriebssystem, das aktuell auszuführende Programm zunächst von einem externen Medium in den Arbeitsspeicher zu laden und alle Daten zu halten. Programme und Daten liegen in diesem Modell aus Sicht des Prozessors im selben Speicher, die heute am weitesten verbreitete Von-Neumann-Architektur wurde eingeführt. Mit Einführung der Mikroelektronik wurde der Arbeitsspeicher zunehmend durch integrierte Schaltungen (Chips) ersetzt. Jedes Bit wurde in einem bistabilen Schalter (Flipflop) gespeichert, das mindestens zwei, mit Ansteuerlogik aber bis zu sechs Transistoren benötigt und relativ viel Chipfläche verbraucht. Solche Speicher verbrauchen immer Strom. Typische Größen waren integrierte Schaltungen (ICs) mit 1 KiBit, wobei jeweils acht ICs gemeinsam adressiert wurden. Die Zugriffszeiten lagen bei einigen 100 Nanosekunden und waren schneller als die Prozessoren, die um ein Megahertz getaktet waren. Das ermöglichte zum einen die Einführung von Prozessoren mit sehr wenigen Registern wie dem MOS Technology 6502 oder dem TMS9900 von Texas Instruments, die ihre Berechnungen größtenteils im Arbeitsspeicher durchführten. Zum anderen ermöglichte es den Bau von Heimcomputern, deren Videologik einen Teil des Arbeitsspeichers als Bildschirmspeicher verwendete und parallel zum Prozessor darauf zugreifen konnte. Ende der 1970er wurden dynamische Arbeitsspeicher entwickelt, die die Information in einem Kondensator speichern und nur noch einen zusätzlichen Feldeffekttransistor pro Speicherbit benötigen. Sie können sehr klein aufgebaut werden und benötigen sehr wenig Leistung. Der Kondensator verliert die Information allerdings langsam, die Information muss daher in Abständen von einigen Millisekunden immer wieder neu geschrieben werden. Das geschieht durch eine externe Logik, die den Speicher periodisch ausliest und neu zurückschreibt (Refresh). Durch die höhere Integration in den 1980er Jahren konnte diese Refreshlogik preiswert aufgebaut bzw. in den Prozessor integriert werden. Typische Größen in den 1980ern waren 64 KBit pro IC, wobei jeweils acht Chips gemeinsam adressiert wurden. Die Zugriffszeiten der dynamischen RAMs lagen bei preiswertem Aufbau ebenfalls bei einigen 100 Nanosekunden und haben sich seitdem nur wenig verändert, die Größen sind jedoch auf einige GBit pro Chip gewachsen. Die Prozessoren werden heute nicht mehr im Megahertz-, sondern im Gigahertz-Bereich getaktet, weshalb Maßnahmen erforderlich sind, die durchschnittliche Zugriffszeit zu reduzieren. Aus diesem Grunde werden sowohl die Taktrate der Anbindung des Arbeitsspeichers an den Prozessor (siehe Front Side Bus) als auch die Größe des Caches erhöht. Im Juni 2012 wurde bekannt gegeben, dass mit dem sogenannten "Speicherwürfel" (englisch ' und kurz ' genannt) eine neue kleinere und leistungsstärkere Bauform für Arbeitsspeicher entwickelt werden soll, bei der ein Stapel aus mehreren Dies genutzt werden soll. Eigens dafür wurde die Gesellschaft "Hybrid Memory Cube Konsortium" gegründet, in welche unter anderem die Entwickler und Hersteller "ARM", "HP" und "Hynix" beigetreten sind. Physischer und virtueller Arbeitsspeicher. Um den physischen Arbeitsspeicher zu erweitern, können moderne Betriebssysteme zusätzlichen virtuellen Arbeitsspeicher auf Massenspeichern allozieren (platzieren, zuteilen). Diesen Speicher nennt man auch Swapspeicher. Um diese Erweiterung transparent zu realisieren, bedient sich das Betriebssystem eines virtuellen Speicherraumes, in dem sowohl der physische als auch der virtuelle Speicher vorhanden sind. Teile dieses virtuellen Speicherraumes – eine oder mehrere Speicherseiten – werden dabei entweder in das physisch vorhandene RAM oder in den Auslagerungsspeicher (Swapspace) abgebildet. Die Nutzungsrate der einzelnen Seiten bestimmt, welche Speicherseiten ausgelagert und nur auf Massenspeichern und welche im schnellen RAM existieren. Diese Funktionen werden von heutigen CPUs unterstützt, wobei die Menge des unterstützten Gesamtspeichers im Laufe der Entwicklung deutlich gestiegen ist. a>). Oben SD-RAM und unten DDR-RAM Der Auslagerungsspeicher stellt eine sehr preiswerte, aber mit extrem schlechter Leistung verbundene Erweiterung zum physischen Arbeitsspeicher dar. Ein Missverhältnis zwischen beiden Speicherarten ist an häufigem „Swappen“, also dem Verschieben von Daten zwischen Massen- und physischem Arbeitsspeicher, zu erkennen. Verglichen mit dem Arbeitsspeicher benötigt die Festplatte mit etwa 20 Millisekunden sehr lange, um die Daten bereitzustellen. Die Zugriffszeit auf den Arbeitsspeicher beträgt dagegen nur etwa 25 Nanosekunden, was einem Achthunderttausendstel der Festplatte entspricht. Cache. Zugriffe auf den Arbeitsspeicher durch den Hauptprozessor werden zumeist über ein oder mehrere Pufferspeicher oder ' (kurz „Cache“) optimiert. Im Cache hält und benutzt der Rechner die am häufigsten angesprochenen Speicherbereiche, stellvertretend für die originären Hauptspeicherbereiche. Der Cache ist im Verhältnis zu anderen Speichern sehr schnell, da er möglichst direkt am Prozessor angebunden ist (bzw. sich in modernen Prozessoren direkt auf dem Die befindet). Allerdings ist er in der Regel nur wenige Megabyte groß. Bei geringem Speicherbedarf können Programme oder Teile davon fast ausschließlich im Cache laufen, ohne dass der Hauptspeicher angesprochen werden muss. Der Cache ist als Assoziativspeicher ausgeführt, kann also entscheiden, ob die Daten einer Adresse schon im Cache gespeichert sind oder noch vom Arbeitsspeicher geholt werden müssen. Dann wird ein anderer Teil des Caches aufgegeben. Der Cache wird dabei stets mit mehreren aufeinander folgenden Worten gefüllt, beispielsweise stets mit mindestens 256 Bit (so genannter Burst-Modus), da es sehr wahrscheinlich ist, dass in Kürze auch Daten vor oder hinter den gerade benötigten gelesen werden sollen. Leistung von Speichermodulen. Die Leistung von Speichermodulen (Takt und Schaltzeitverhalten, englisch ') misst sich vor allem in der "absoluten Latenz". Die theoretische Bandbreite ist ausschließlich beim Burst-Transfer relevant. Ein weit verbreiteter Irrtum ist, dass höhere numerische Timings eine schlechtere Leistung zur Folge hätten. Das gilt jedoch nur bei gleichem Takt, da sich die absolute Latenz aus den Faktoren (effektiver) Takt und Schaltzeitverhalten (Timing) ergibt. Berechnung. Daraus ergibt sich die Konsequenz, dass DDR2/3/4-SDRAM, obwohl sie höhere (numerische) Schaltzeiten (Timings) als DDR-SDRAM aufweisen, schneller sein können und eine höhere Bandbreite zur Verfügung stellen. Einige Speicherhersteller halten die offiziellen Spezifikationen der JEDEC nicht ein und bieten Module mit höheren Taktraten oder besserem Schaltzeitverhalten (Timings) an. Während DDR3-1600 CL9-9-9 einer offiziellen Spezifikation unterliegt, handelt es sich bei DDR2-1066 CL4-4-4-12 um nicht standardkonforme Speichermodule. Diese schnelleren Speicher werden oft als Speichermodule für Übertakter bezeichnet. Praxis. In der Praxis konnten FSB1333-Prozessoren von Intel mit ihrem Front Side Bus maximal 10 GiB/s an Daten empfangen. Das wird im üblichen Dual-Channel-Betrieb mit zwei Speicher-Riegeln bereits von DDR2-667 (10,6 GiB/s) ausgereizt. Aktuelle Prozessoren unterliegen dieser Beschränkung nicht mehr, da hier der Speichercontroller nicht mehr in der Northbridge, wie beim Sockel 775 und Vorgängern, sondern direkt auf der CPU verbaut ist. Anbindung des Arbeitsspeichers. Die klassische Anbindung von physischem Speicher erfolgt über einen (bei Von-Neumann-Architektur) oder mehrere (bei der heute im PC-Bereich nicht mehr verwendeten Harvard-Architektur bzw. Super-Harvard-Architektur) Speicherbusse. Speicherbusse übertragen Steuerinformationen, Adressinformationen und die eigentlichen Nutzdaten. Eine von vielen Möglichkeiten ist es, für diese unterschiedlichen Informationen getrennte Leitungen zu nutzen und den Datenbus sowohl zum Lesen wie zum Schreiben von Nutzdaten zu verwenden. Der Datenbus übernimmt dann den eigentlichen Datentransfer. Aktuellen PC-Prozessoren benutzen zwischen zwei und vier 64 Bit-Speicherbusse, die aber seit etwa dem Jahr 2000 keine generischen Speicherbusse mehr sind, sondern direkt die Protokolle der zu verwendeten Speicherchips sprechen. Der Adressbus dient zur Auswahl der angeforderten Speicherzellen; von seiner Busbreite (in Bit) ist die maximal ansprechbare Anzahl von Speicherworten abhängig. An jeder Adresse sind bei heute üblichen Systemen meist 64 Bit abgelegt, früher wurden auch 32 bit (Intel 80486), 16 bit (Intel 80286) und 8 bit (Intel 8080) verwendet. Viele, aber nicht alle Prozessoren unterstützen feiner granulare Zugriffe, meist auf Byteebene, durch ihrer Art der Interpretation von Adressen (Endianness, "Bitabstand" von Adressen, misalignte-Zugriffe) auf Software-Ebene wie auch durch das Hardware-Interface (Byte-Enable-Signale, Nummer der niederwertigsten Adressleitung). Beispiel: Intel 80486 Einer der wesentlichen Unterschiede der beiden bei PCs aktuellen Prozessorgenerationen „32-Bit“ und „64-Bit“ ist also der bereits angesprochene maximal ansteuerbare Arbeitsspeicher, der jedoch zum Teil mit Hilfe von "Physical Address Extension" noch etwas über das übliche Maß hinaus erweitert werden kann. Allerdings ist mit der Anzahl der Bits einer Prozessorgeneration im Allgemeinen die Breite des Datenbusses gemeint, die nicht notwendigerweise mit der Breite des Adressbusses übereinstimmt. Allein die Breite des Adressbusses bestimmt jedoch die Größe des Adressraums. Aus diesem Grund konnte beispielsweise der „16-Bit“-Prozessor 8086 nicht nur 64 KiB (theoretischer 16-Bit-Adressbus), sondern 1 MiB (tatsächlicher 20-Bit-Adressbus) adressieren. Der Bus moderner Computer vom Cache zum Arbeitsspeicher wird schnell ausgeführt, also mit hoher Taktrate und Datenübertragung bei steigender und fallender Taktflanke (DDR: Double Data Rate). Er ist synchron und mit großer Wortbreite, zum Beispiel 64 Bit pro Adresse. Werden mehrere Speichersteckplätze auf der Hauptplatine eines PCs eingesetzt, so werden aufeinander folgende Adressen in verschiedenen Steckplätzen gespeichert. Das ermöglicht überlappenden Zugriff (Interleaved) bei Burst-Zugriffen. Innerhalb der Speicherchips werden ganze Adresszeilen in Schieberegistern gespeichert. Ein 1-MiBit-Chip kann zum Beispiel 1024 Zeilen mit 1024 Bit haben. Beim ersten Zugriff wird ein schnelles, internes 1024-Bit-Register mit den Daten einer Zeile gefüllt. Bei Burst-Zugriffen sind die Daten der folgenden Adressen dann bereits im Schieberegister und können mit sehr geringer Zugriffszeit von diesem gelesen werden. Sinnvollerweise überträgt man daher nicht nur das angeforderte Bit zum Prozessor, sondern gleich eine sogenannte „Cache-Line“, die heute 512 Bit beträgt (vgl. Prozessor-Cache). Hersteller. Diese Hersteller teilen sich 97 Prozent Marktanteil. Anbieter von Speicher"modulen", wie Corsair, Kingston Technology, MDT, OCZ, A-Data usw. (sogenannte Third-Party-Hersteller) kaufen Chips bei den genannten Herstellern und löten diese auf ihre Platinen, wofür sie ein eigenes Layout entwerfen. Außerdem programmieren sie die SPD-Timings gemäß ihren eigenen Spezifikationen, die durchaus "spitzer" eingestellt sein können als die der Originalhersteller. Für Dual-Channel- oder Triple-Channel-Betrieb sollten nach Möglichkeit annähernd baugleiche Module verwendet werden, damit die Firmware (bei PCs das BIOS oder UEFI) den Parallel-Betrieb nicht aufgrund von unvorhersehbaren Inkompatibilitäten verweigert oder das System dadurch instabil läuft. Es ist gängige Praxis, dass ein Hersteller beim selben Produkt im Laufe der Produktion andere Chips auf seine Module lötet bzw. umgekehrt unterschiedliche Hersteller die gleichen Chips verwenden. Da diese Informationen jedoch in so gut wie allen Fällen nicht zugänglich sind, ist man beim Kauf von Speicher-"Kits" auf der sicheren Seite – obwohl der Dual-/Triple-Channel-Modus normalerweise auch mit unterschiedlichen Modulen funktioniert. Als Mittler zwischen den großen Speicherchip- und Modulherstellern einerseits und dem Handel und den Verbrauchern andererseits haben sich in Deutschland Anbieter wie z. B. CompuRAM und Kingston etabliert, die für die gängigsten Systeme spezifizierte Speichermodule anbieten. Das ist deshalb notwendig, weil einige Systeme durch künstliche Beschränkungen durch den Hersteller nur mit Speicher arbeiten, der proprietäre Spezifikationen erfüllt. Arcadius. Flavius Arcadius (auch gräzisiert "Arkadios", * um 377 in Hispanien; † 1. Mai 408 in Konstantinopel) war zwischen 395 und 408 Kaiser der Osthälfte des "Imperium Romanum" und gilt daher mitunter als der erste Herrscher des Oströmischen bzw. Byzantinischen Reiches. Jugend. Arcadius war der älteste Sohn Kaiser Theodosius’ I. und Aelia Flacillas und damit der Bruder des Westkaisers Honorius. Sein Vater, der 379 überraschend von Gratian zum Mitkaiser ernannt worden war, hatte ihn bereits im Januar 383 zum "Augustus" erheben lassen, gab ihm jedoch faktisch keinen Spielraum. Theodosius, der seit 379 für den Osten des Reiches zuständig war, ließ zwar Arcadius am Hof in Konstantinopel zurück, als er 387/88 in den Westen zog, um einen Bürgerkrieg gegen Magnus Maximus zu führen. Federführend war aber der Prätorianerpräfekt (der höchste zivile Verwaltungsbeamte). Als sein Vater 394 erneut in den Westen zog, blieb Arcadius im Unterschied zu Honorius erneut am Bosporus zurück. Nach dem überraschenden Tod des Theodosius und der faktischen Reichsteilung im Januar 395 übernahm Arcadius mit knapp 18 Jahren nicht nur die Herrschaft über den Osten, sondern rückte zugleich zum "senior Augustus" mit dem Anspruch auf die Oberhoheit im Gesamtreich auf. Herrschaft. Als Kaiser nannte Arcadius sich "Imperator Caesar Flavius Arcadius Augustus" und versuchte offenbar, einen eigenen Kurs gegen seinen mächtigsten Berater Rufinus durchzusetzen. Er erließ mehrere Gesetze gegen die Häresie und präsentierte sich als christlicher Kaiser, obwohl er seine Ausbildung auch von heidnischen Lehrern erhalten hatte. Anstatt die Tochter des Rufinus zur Frau zu nehmen, heiratete er am 27. April 395 Aelia Eudoxia, die Tochter des Bauto, eines ehemaligen "magister militum" unter Gratian. Dennoch behielt Rufinus zunächst die Macht in den Händen und befand sich in einer ähnlichen Position wie im Westreich Stilicho. Stilicho behauptete, er sei vom sterbenden Theodosius zum Vormund "beider" Söhne ernannt worden, und begründete damit einen Anspruch auf die Oberhoheit des westlichen Hofes, an dem er sich aufhielt, über den östlichen. Dies lehnten sowohl der "senior Augustus" Arcadius als auch Rufinus empört ab. Zwischen beiden Höfen kam es daher schon 395 zu Spannungen, die sich unter anderem in Hinblick auf einige Provinzen im Illyricum äußerten, die Stilicho für das Westreich forderte. Umgekehrt verlangte Arcadius die Überstellung starker Herresverbände, die 394 mit Theodosius nach Westen gezogen waren. Stilicho musste nachgeben und die Truppen unter dem "comes" Gainas nach Konstantinopel schicken. Rufinus war allerdings bei der Armee unbeliebt und wurde schließlich im Herbst 395 in Anwesenheit des Kaisers bei einer Parade der aus dem Westen zurückgekehrten Soldaten getötet; dahinter stand angeblich Stilicho, dessen Gefolgsmann Gainas war. Rufinus’ Platz nahm der Eunuch Eutropios ein, der oberste Kammerherr ("praepositus sacri cubiculi") des Arcadius. Auch dieser wurde jedoch 399 unter Beteiligung des Gainas gestürzt und anschließend hingerichtet. Der anschließende Versuch des Gainas, den östlichen Hof so zu dominieren, wie es Stilicho im Westen tat, wurde 400 durch den Heermeister Fravitta und einen Aufstand der Bevölkerung niedergeschlagen. Zahlreiche gotische "foederati" fanden dabei den Tod, was dazu beitrug, dass hohe Militärs (römischer wie nichtrömischer Herkunft) im Osten in der Folge nicht die entscheidende Rolle spielten, die ihnen im Westen zufallen sollte. Vielmehr behielt der Hof die Kontrolle. In diesen Jahren stand das Ostreich zudem unter dem Druck mehrerer Barbareneinfälle. Von 395 bis 397 plünderten Hunnen die Ostprovinzen. Meuternde westgotische "foederati" unter Alarich drangen seit 395 mehrmals tief in oströmisches Territorium ein, während es gleichzeitig zu Revolten unter den germanischen Hilfstruppen kam. 399 bestieg mit Yazdegerd I. ein neuer König den persischen Thron, der gegenüber den Römern zunächst feindselig auftrat. Dennoch konnte Arcadius in den Jahren ab 400 wohl ungehindert vom Einfluss seiner Berater selbst regieren. Kirchengeschichtlich von großer Bedeutung ist die Verbannung Johannes Chrysostomos’, die Arcadius 403 auf Betreiben von Eudoxia erwirkte. Johannes hatte den angeblich ausschweifenden Lebensstil der jungen Kaiserin angeprangert und damit ihre Ungunst erregt. Er wurde das Opfer einer Hofintrige: Johannes, einer der wichtigsten Theologen des Christentums, starb am 14. September 407 in der Verbannung. Papst Innozenz I. und Honorius hatten zuvor vergeblich versucht, eine Aufhebung des Bannes zu erwirken. Nach dem Tod der Eudoxia 404 trat der tatkräftige Prätorianerpräfekt Anthemius als wichtigster Berater des Kaisers hervor, in dessen Schatten Arcadius nun nach Außen völlig verschwand. Seinen Pflichten kam Anthemius mit großer Sorgfalt und Kompetenz nach; insbesondere gelang es ihm, nach Beilegung der anfänglichen Spannungen mit Yazdegerd sehr gute Beziehungen mit dem persischen Sassanidenreich herzustellen, was die außenpolitische Lage Ostroms sehr verbesserte. Der Perserkönig soll laut Prokopios von Caesarea sogar vom sterbenden Arcadius 408 zum Vormund seines Sohnes bestellt worden sein. Ob dies stimmt, ist in der Forschung sehr umstritten. 407 brach ein Bürgerkrieg mit Westrom aus, als Alarich im Auftrag Stilichos in oströmisches Gebiet einfiel, doch wurden die Kämpfe abgebrochen, als Westrom an anderen Fronten bedroht wurde. Für 408 einigten sich die beiden Kaiserhöfe zum Zeichen der Versöhnung auf ein gemeinsames Paar Konsuln. Arcadius hatte vier Kinder: Drei Töchter (Pulcheria, Arcadia und Marina) und den 401 geborenen Sohn und Mitkaiser (seit 402) Theodosius II., der nach dem frühen Tod des Kaisers im Jahr 408 noch im Kindesalter als "Augustus" den oströmischen Thron bestieg. Bewertung. Die Regierungszeit des Arcadius war eine Krisenzeit für die Entwicklung Ostroms. An den Grenzen war es bedroht (im Norden und Nordwesten von den Germanen, im "Illyricum" anfangs sogar von Westrom, in Kleinasien von den Hunnen, im Osten zunächst von den Sassaniden), im Inneren kam es zu Aufständen, und das West- und Ostreich entfernten sich aufgrund von Konflikten im Balkanraum immer mehr voneinander (ohne dass dies zur Aufgabe der Vorstellung von einer grundsätzlichen Reichseinheit geführt hätte). Arcadius und seine Berater reagierten oft nur, statt zu agieren. Ihm selbst wird in mehreren Quellen ein wohlwollender Charakter bescheinigt, doch wird er auch als schwache Persönlichkeit und schwacher Kaiser beschrieben, der dieser Situation nicht gewachsen war. Allerdings muss dabei auch der Tatsache Rechnung getragen werden, dass er etwa seit seinem sechsten Lebensjahr unter der Bevormundung seiner Berater gestanden hatte. Dennoch überstand Ostrom diese Zeit relativ gut, während das Westreich unter Honorius nach 408 bereits erste Auflösungserscheinungen zeigte. Dies ist nicht zuletzt dem äußerst fähigen Anthemius zu verdanken, der noch bis 414 die Geschicke Ostroms bestimmte und ganz wesentlich dazu beitrug, die äußere Lage des Reiches zu verbessern. Ampelkoalition. Mit Ampelkoalition bezeichnet man die Zusammenarbeit dreier politischer Parteien zur Bildung einer stabilen Regierungsmehrheit. Ausgehend von der ursprünglichen Bedeutung der Koalition einer sozialdemokratischen oder sozialistischen, einer liberalen und einer grünen Partei, hat der Begriff einige Varianten entwickelt. Deutschland. Mit "Ampelkoalition" wird in Deutschland üblicherweise eine regierende Koalition der Parteien SPD, FDP und Die Grünen bezeichnet, da die traditionellen Farben dieser Parteien den Farben einer Ampel (rot-gelb-grün) entsprechen. Auf Bundesebene ist eine solche Konstellation bislang nicht zustande gekommen, aber auf Landes- und Kommunalebene gibt es Beispiele für solche Koalitionen. Landesebene. Als Ampelkoalition bezeichnet wurde die von 1990 bis 1994 in Brandenburg, obwohl die Grünen an der 5-%-Hürde gescheitert waren und stattdessen Bündnis 90 mitregierte. Bündnis 90 fusionierte 1993 mit den Grünen zu Bündnis 90/Die Grünen, die Fraktionsmitglieder des Bündnis 90 traten der neuen Partei jedoch nicht bei. Eine echte Ampel regierte von 1991 bis 1995 in Bremen. Einige Versuche zur Bildung einer solchen Koalition scheiterten. Nach der Wahl zum Abgeordnetenhaus von Berlin 2001 war dies der Fall. Sondierungsgespräche in dieser Richtung nach der Landtagswahl in Nordrhein-Westfalen 2010 führten ebenso nicht zum Erfolg. Ferner wurden Ampelkoalitionen in den letzten Jahren auf Bundes- und Landesebene von der FDP und insbesondere von Guido Westerwelle, mit Verweis auf die unterschiedlichen Parteiprogramme von SPD und Grünen einerseits und FDP andererseits, wiederholt abgelehnt. Kommunale Ebene. Auf kommunaler Ebene gab es von Januar 2006 bis September 2006 in Bonn eine Ampelkoalition, von Juli 2006 bis Juni 2009 in der kreisfreien Stadt Darmstadt. Nach den Kommunalwahlen 2009 arbeiteten Ampelkoalitionen in den nordrhein-westfälischen Großstädten Bielefeld, Mönchengladbach (bis 2013) und Remscheid, und nach den Kommunalwahlen in Nordrhein-Westfalen 2014 bildeten sich Bündnisse aus SPD, GRÜNE und FDP in der Landeshauptstadt Düsseldorf und in Oberhausen. Nach den Kommunalwahlen in Rheinland-Pfalz 2009 fand sich in der rheinland-pfälzischen Landeshauptstadt Mainz ein Ampelbündnis, während in Trier die FDP die Ampelkoalition zwischenzeitlich verlassen hat. Seit den Kommunalwahlen in Hessen 2011 bilden SPD, Bündnis90/Die Grünen und die FDP im Wetteraukreis ebenfalls eine Koalition. In den Landschaftsversammlungen der höheren Kommunalverbände Rheinland und Westfalen-Lippe bildeten ebenfalls die Fraktionen von SPD, FDP und Grüne bis 2014 die Mehrheit, die so genannte „Gestaltungsmehrheit“. Andere Bezeichnungen für die Ampel. Als „Afrika-Koalition“ wurde eine derartige Ampelkoalition von Fritz Goergen wegen der grün-gelb-roten Farben Afrikas erstmals in der Financial Times Deutschland im Juli 2006 bezeichnet. Der grüne Politiker Jürgen Trittin schlug im September 2006 vor, stattdessen von einer Senegal-Koalition zu sprechen. Die Nationalflagge des westafrikanischen Staates umfasst die Farben Grün, Gelb und Rot, wobei auf dem mittleren, gelben Streifen zudem ein grüner Stern abgebildet ist. Verwandte Varianten. Eine Koalition aus CDU, FDP und Die Grünen wird gelegentlich als "schwarze Ampel" (kurz "„Schwampel“") bezeichnet, häufiger jedoch als Jamaika-Koalition. Eine solche Regierungskoalition wurde in der Geschichte Deutschlands oberhalb der Kommunalebene erstmals im Saarland umgesetzt, scheiterte jedoch nach zwei Jahren. Ebenso war sie im unmittelbaren Anschluss an die Bundestagswahl 2005 in der Diskussion. Seit der Landtagswahl 2012 regieren in Schleswig-Holstein SPD, Grüne und SSW in einer rot-grün-blauen Koalition, die unter dem – teilweise umstrittenen – Schlagwort Dänen-Ampel bekannt wurde. Nach der Landtagswahl in Thüringen 2014 war eine schwarz-rot-grüne („Afghanistan“) Koalitionsvariante im Gespräch. Österreich. In Österreich wurde in den 1990er Jahren in Anlehnung an die Begriffsbildung in Deutschland unter "Ampelkoalition" eine Koalition aus SPÖ, Liberalem Forum und Grüne diskutiert, obwohl die Parteifarbe des "Liberalen Forums" damals nicht gelb, sondern hellblau war. Nach der Landtags- und Gemeinderatswahl in Wien 1996 wurde eine solche Variante rechnerisch möglich, allerdings wurde seitens der SPÖ eine stabile Zweierkoalition mit ÖVP bevorzugt. Dem Bedeutungsschwund des Liberalen Forums mit dem Ausscheiden aus dem Parlament nach den Nationalratswahlen 1999 folgte 2014 ein Aufgehen in der neuen liberalen Partei NEOS – Das Neue Österreich und Liberales Forum. Deren Parteifarbe ist allerdings pink. Eine Koalition aus SPÖ, Grünen und BZÖ ergäbe auch eine Ampel-Koalition, allerdings mit der Farbe Orange als dritter Farbe. Für und für wird eine solche Ampelkoalition als Möglichkeit gesehen, Schwarz-Rot zu verhindern und gleichzeitig eine Alternative zu Schwarz-Blau zu bieten. Innsbruck. Als Ampelkoalition wird auch die Innsbrucker Regierung aus der bürgerlich-liberalen Liste Für Innsbruck, den Grünen und der SPÖ verstanden. Diese kam nach der Gemeinderatswahl 2012 zustande. Vereinigtes Königreich. Unter dem Begriff traffic light coalition wird in England eine Koalition unter Einschluss der Labour Party, den Liberal Democrats und der Green Party of England and Wales verstanden, die beispielsweise im City Council des englischen Verwaltungsbezirkes City of Lancaster die Mehrheitsfraktionen stellen. Eine vergleichbare Koalition in Schottland zwischen Labour, Liberal Democrats und der Scottish Green Party wurde nach den Wahlen zum schottischen Parlament im Jahre 2003 diskutiert, kam aber nicht zustande. Avitus. Eparchius Avitus (* um 385 in der Auvergne; † Anfang 457) war von 455 bis 456 weströmischer Kaiser. Herkunft und politisches Wirken. Avitus wurde in der Auvergne um das Jahr 385 als Spross einer vornehmen, traditionsreichen gallorömischen Familie geboren. Sein Vater hieß Agricola, war zweimal gallischer Prätorianerpräfekt gewesen und bekleidete 421 den Konsulat. Avitus hatte eine Tochter, Papianilla, und zwei Söhne, Ecdicius und Agricola. Um 419/20 diente Avitus dem Heermeister und kurzzeitigen Kaiser Constantius III. und knüpfte erste Kontakte mit dem westgotischen Hof in Toulouse; sein Schwiegersohn war Sidonius Apollinaris, dem wir auch wichtige Nachrichten für diese Zeit und bezüglich des Avitus verdanken. 430 und 435 war Avitus unter dem „Reichsfeldherrn“ ("patricius") Aetius tätig, bevor er 437 selbst das prestigeträchtige und einflussreiche Amt des Heermeisters für Gallien übernahm. Nach dieser Tätigkeit wurde er zwei Jahre später ungewöhnlicherweise Prätorianerpräfekt für Gallien - ungewöhnlich deshalb, weil die zivile und militärische Laufbahn in der Spätantike eigentlich strikt voneinander getrennt waren. Obgleich Gallien zu dieser Zeit aufgrund der so genannten Völkerwanderung ständiges Krisen- und Kriegsgebiet war, war es für die weströmischen Kaiser nach dem Wegfall Britanniens und Nordafrikas sowie der weitgehenden Verwüstung Hispaniens das wichtigste Reichsgebiet neben Italien. Vor allem die gallischen Steuerzahlungen, die den gesamten weströmischen Staatshaushalt sicherten, waren extrem wichtig. Darum war die Präfektur, die Avitus besetzte und die für die Steuererhebung zuständig war, ein politisch besonders bedeutendes Amt. Avitus half dem faktischen Machthaber Aetius, als dessen Parteigänger er gelten darf, dabei, die Kontrolle der Regierung in Ravenna über Gallien und Hispanien zu sichern. Avitus erzielte als Präfekt seinen ersten großen Erfolg, als er durch geschickte Verhandlungen 439 die marodierenden westgotischen Foederaten unter ihrem "rex" Theoderich I. zu einem neuen Bündnisvertrag überreden konnte. Nach deren Rückzug aus Gallien auf die iberische Halbinsel zog sich Avitus, mittlerweile ein Freund der westgotischen Herrscherfamilie, ins Privatleben zurück (um 440). Tätigkeit als Diplomat. Erst über zehn Jahre später sind uns wieder politische Aktivitäten seinerseits überliefert, als er 451 auf Bitten des weströmischen Kaisers Valentinian III. und des Aetius hin seine Kontakte nutzte und als Diplomat die Westgoten dazu brachte, sich einer militärischen Allianz gegen Atilla anzuschließen, der in die innerrömischen Machtkämpfe eingegriffen hatte und in Gallien einmarschiert war. Eigentlich bestanden zwischen Aetius und den Westgoten Spannungen. Avitus aber meisterte diese Aufgabe, und Theoderich I. verbündete sich mit den ravennatischen Truppen unter Führung des Aetius. Der Westgote führte selbst seine Armee in die berühmte Schlacht auf den Katalaunischen Feldern, in der er den rechten Flügel befehligte, aber dabei umkam. Im Herbst 454 erschlug Kaiser Valentinian III. eigenhändig den Aetius, um sich von dessen Dominanz zu befreien, und im März 455 wurde der Kaiser selbst von Anhängern des Aetius ermordet. Mit ihrer Hilfe wurde anschließend Petronius Maximus nach dem Tod von Valentinian Kaiser. Er versuchte, seine instabile Herrschaft abzusichern, und holte deshalb erfahrene Senatoren, die zu den Anhängern des Aetius gezählt hatten, in die Politik zurück, darunter Avitus. Dieser wurde in den Rang eines "patricius" erhoben und sollte sich erneut diplomatisch mit den Westgoten beschäftigen, die das neue Regime militärisch stützen sollten. Zudem fühlten sich die Westgoten nach dem Tod Valentinians, mit dem sie ihre Bündnis geschlossen hatten, offenbar nicht mehr an den Vertrag mit den Römern gebunden. Avitus' Schwiegersohn, der Dichter Sidonius Apollinaris, berichtet sogar, nur durch die Vermittlung des Avitus habe ein Krieg mit den Goten verhindert werden können. Doch nur kurz darauf überschlugen sich die Ereignisse: Petronius Maximus versuchte, vor den bei Rom gelandeten Vandalen sowie vor der Stadtbevölkerung, die ihn für den Mord an Valentinian III. verantwortlich machte und verachtete, zu fliehen, doch scheiterte dies; er wurde erkannt und am 31. Mai 455 getötet. Da Geiserich, der Anführer der Vandalen, keinen eigenen Kaiser erhob, folgte eine Thronvakanz. Der junge westgotische "rex" Theoderich II., der einst vielleicht sogar Latein bei Avitus gelernt hatte, drängte diesen nun angeblich dazu, sich zum Kaiser erheben zu lassen, und versprach die Unterstützung durch seine Krieger. Kaiserherrschaft. Avitus zögerte nicht lange und nahm das Angebot an; denkbar ist durchaus, dass die Initiative ohnehin von ihm selbst ausgegangen war. Auf die Aufforderung des westgotischen Königs hin wurde nun – was die Schwäche des Weströmischen Reichsteils verdeutlichte – in Beaucaire eine außerordentliche Sitzung des gallischen Landtages aus den Notabeln der gesamten Präfektur einberufen, die Avitus am 9. Juli 455 ihr Einverständnis gab. Daraufhin wurde er von den römischen Truppen vor Ort zum Kaiser ausgerufen. Zustimmung kam auch aus der mittlerweile fast völlig verwüsteten Region Pannonien. Der oströmische Kaiser Markian verweigerte Avitus allerdings die formelle Anerkennung. Zunächst schien die Herrschaft des Avitus abgesichert zu sein: Von Ostrom zumindest stillschweigend toleriert und von den Westgoten gestützt, glaubte er ausreichend Rückhalt zu haben. Er ernannte den Westgoten Remistus zum ersten Heermeister und "patricius", also zum faktischen Regierungschef. Doch als er sich nach Italien begab, erkannte er, dass die Gegner seiner Parteiung heftig gegen ihn opponierten und ihn mit Verleumdungen angriffen. Die italischen Senatoren, die im 4. Jahrhundert ganz im Schatten der gallo-römischen Aristokratie gestanden hatten, waren seit etwa 30 Jahren wieder in den Vordergrund gerückt und waren nicht bereit, diese Rolle nun wieder an ihre gallischen Rivalen abzutreten. Die stadtrömische Bevölkerung stand ihm ebenso wie zuvor Petronius Maximus feindselig gegenüber. Zunächst jedoch drohte eine viel direktere Bedrohung durch den Vandalen Geiserich, dessen Kriegsflotte von rund 60 Schiffen das Tyrrhenische Meer unsicher machte und die Küsten der italischen Halbinsel angriff. Er forderte die Einsetzung des Olybrius als neuen Westkaiser. Gleichzeitig wüteten die Sueben in Hispanien, und Pannonien fürchtete eine weitere Verwüstung. Avitus suchte unter dem Eindruck all dieser Gefahren eine arbeitsteilige Lösung zu erreichen: Er bat seinen Verbündeten Theoderich II. um Unterstützung in Spanien, der dort in kaiserlichem Auftrag 456 die Sueben vernichtend schlug, die in die Provinz "Tarraconensis" eingefallen waren, und wollte sich persönlich den Verhältnissen in Pannonien widmen. Um der maritimen Bedrohung durch Geiserich Herr zu werden, ernannte er einen im römischen Heer tätigen germanischen Offizier zum zweiten Heermeister für Italien: Flavius Ricimer. Als dieser bei Agrigent in Sizilien einen Seesieg über eine vandalische Flottenabteilung errang, konnte diese Bedrohung kurzzeitig eingedämmt werden. Abstieg und Ende. Gleichzeitig war jedoch in Rom eine schwere Hungersnot ausgebrochen, da Geiserich die wichtigen Getreidelieferungen aus Nordafrika unterbrochen hatte. Avitus erkannte, dass die kostenlosen Getreidespenden des Staates ("annona civica") unter diesen Bedingungen nicht mehr leistbar waren, zumal auch die bei Rom stationierten "foederati" im römischen Heer diese Leistungen beanspruchten. Der Kaiser entschied offenbar, diese Truppen zu entlassen, beging damit allerdings einen schwerwiegenden Fehler: Zur Finanzierung der Entlassungen ließ er zahlreiche Bronzestatuen in und um Rom einschmelzen, um aus ihnen Münzen auszuprägen, was die hungernden Bürger noch mehr gegen ihn aufbrachte. Die Senatoren glaubten zudem, Italien werde zugunsten Galliens ausgeplündert. Gleichzeitig verlor er mit der Entlassung der vorwiegend gotischen Soldaten ein wichtiges Druckmittel gegenüber der Stadtbevölkerung, die sich nun Ricimer zuwandte. Dieser war ohnehin nicht damit einverstanden, dass Avitus den größeren Teil jener Armee, die Italien zu schützen hatte, auflösen wollte. Er nutzte daher die Situation und schloss ein politisches Bündnis mit einigen Senatoren und dem "comes domesticorum" (Gardepräfekten) Iulius Valerius Maiorianus (Majorian), um Avitus zu entmachten. Remistus wurde von ihnen besiegt und getötet. Avitus versuchte daraufhin, sich nach Gallien zu begeben, wo sich seine Machtbasis befand. Nun stellte es sich aber als verhängnisvoll heraus, dass seine westgotischen Verbündeten gerade in Spanien kämpften und ihm daher nicht zur Hilfe kommen konnten: Am 26. Oktober 456 wurde Avitus mitsamt seinen verbliebenen Anhängern bei Piacenza gestellt und zur Abdankung gezwungen. Die sich anschließende Weihe zum Bischof dieser Stadt vermochte Avitus aber nicht zu retten, denn er kam spätestens im Januar 457 gewaltsam ums Leben. Ob er auf Anstiften Ricimers hin getötet wurde, bleibt offen; sein Nachfolger auf dem Thron, Majorian, wird in einigen Quellen ebenfalls dafür verantwortlich gemacht. Die Familie des Avitus blieb in ihrer Heimat zunächst einflussreich. Avitus’ Sohn Ecdicius stieg später unter Kaiser Iulius Nepos 474 zum Heermeister in Gallien auf und kämpfte dort bis zu seiner Absetzung gegen die Goten. Adler (Lokomotive). Der Adler war die erste Lokomotive, die kommerziell erfolgreich im Personenverkehr und später auch im Güterverkehr in Deutschland fuhr. Er und seine Schwestermaschine "Pfeil" wurden als "Dampfwagen" geführt. Das Eisenbahnfahrzeug wurde 1835 von der 1823 gegründeten Firma "Robert Stephenson and Company" im englischen Newcastle konstruiert und gebaut und an die Königlich privilegierte Ludwigs-Eisenbahn-Gesellschaft in Nürnberg für den Betrieb auf ihrer Strecke zwischen Nürnberg und Fürth geliefert. Die offizielle Eröffnungsfahrt der Bahn fand, nach mehrmaliger Terminverschiebung (als erster Termin war der Geburtstag Ludwigs I. am 25. August geplant, ein weiterer am 24. November), schließlich am 7. Dezember 1835 statt. Der reguläre Betrieb wurde am 8. Dezember 1835 aufgenommen. Der Adler war eine Dampflokomotive der Bauart Patentee mit der Achsfolge 1A1 (Whyte-Notation: 2-2-2) und war mit einem Schlepptender der Bauart 2 T 2 ausgestattet. Frühere deutsche Lokomotiven. Der "Adler" gilt häufig als die erste Lokomotive einer Eisenbahn auf deutschem Boden. Allerdings wurde bereits 1816 von der Königlich Preußischen Eisengießerei zu Berlin ein betriebsfähiger Dampfwagen konstruiert. Die sogenannte Krigar-Lokomotive zog bei einer Probefahrt einen mit 8000 Pfund beladenen Wagen. Das Fahrzeug kam jedoch nie zu einem kommerziellen Einsatz. Der "Adler" war zweifellos die erste erfolgreiche Lokomotive in Deutschland, die regelmäßig eingesetzt wurde. Entstehung. Rechnung für den Adler der Bayerischen Ludwigsbahn, ausgestellt von der Lokomotivfabrik Robert Stephenson and Company am 27. August 1835 Als während der Konstruktion der von Georg Zacharias Platner gegründeten "Ludwigsbahn" eine geeignete Lokomotive gesucht wurde, ging die erste Anfrage über die Londoner Firma Suse und Libeth an die Lokomotivfabrik von Stephenson und an Braithwaite & Ericsson in England. Die Lokomotive sollte in der Lage sein, ein Gewicht von zehn Tonnen zu ziehen, außerdem die Strecke zwischen Nürnberg und Fürth in acht bis zehn Minuten zurückzulegen und mit Holzkohle beheizbar sein. Stephenson antwortete, dass eine Lokomotive derselben Bauart wie die der Liverpool and Manchester Railway mit vier Rädern und einem Gewicht von 7,5 bis 8 Tonnen geliefert werden könne. Eine leichtere Maschine würde nicht bei jeder Wetterlage die nötige Adhäsionskraft besitzen und wäre teurer als eine schwerere Maschine. Johannes Scharrer bat trotzdem am 16. Juni 1833 um einen Kostenvoranschlag für zwei Lokomotiven mit einem Gewicht von 6,5 Tonnen und nötigem Zubehör. Der Kostenvoranschlag von Stephenson vom 4. Juli 1833 hatte eine Höhe von 1.800 Pfund Sterling. Die deutsche Firma Holmes und Rolandson in Unterkochen bei Aalen machte ein Angebot für einen Dampfwagen mit zwei bis sechs PS für 4.500 Gulden. Diese Verhandlungen verzögerten sich jedoch und führten zu keinem brauchbaren Ergebnis, worauf sie abgebrochen wurden. Ein weiteres Angebot kam von Josef Reaullaux aus Eschweiler bei Aachen. Ende April hielten sich Platner und Mainberger aus Nürnberg in Neuwied bei Köln auf, um dort den Auftrag für die Schienen an die Firma "Remy & Co." in Rasselstein zu erteilen. Remy & Co. war damals das einzige deutsche Werk, das seinerzeit Schienen in der geforderten Güte bezüglich Länge, gerade ausgerichtet, aus gewaltzem Stahl und schräg abgeschnitten liefern konnte. Die nur 15 Fuß langen Schienen wurden dann aber gerade abgeschnitten geliefert, was von Denis massiv bemängelt wurde und mussten teilweise noch gerichtet werden. Außerdem spielte ein möglicher hoher Einfuhrzoll und die nicht unerheblichen Frachtkosten bei einer eventuellen Bestellung in England mit, hier diesen Schritt zu wagen. Am 28. April reisten sie nach Köln weiter, um sich mit Platners Freund Konsul Bartls zu treffen. Dieser empfahl ihnen die belgische Maschinenbaufabrik Cockerill. Platner und Mainberger reisten dorthin nach Lüttich, mussten aber feststellen, dass Cockerill bis zu diesem Zeitpunkt noch keine einzige Lokomotive gebaut hatte. Sie erfuhren allerdings, dass Stephenson sich in Brüssel aufhalten würde. Sie erreichten Brüssel am 1. Mai und quartierten sich in dem Gasthof von Flandern ein. Dort wohnte auch Stephenson, der zu der Eröffnung der Eisenbahn von Brüssel nach Antwerpen am 5. Mai angereist war, mit mehreren Ingenieuren. Am 3. Mai 1835 kam es zu dem Abschluss eines Vorvertrages mit Stephenson, der eine Lokomotive der Bauart Patentee mit sechs Rädern mit einem Gewicht von sechs Tonnen für 750 bis 800 Pfund Sterling liefern sollte. Am 15. Mai 1835 wurde die neue Lokomotive bei der Lokomotivfabrik von Stephenson in Newcastle zu diesen Bedingungen bestellt. Darüber hinaus wurden ein Schlepptender und je ein Rahmen für einen Personen- und einen Güterwagen bestellt. Später stellte sich jedoch heraus, dass die Lokomotive entgegen den Vereinbarungen in Brüssel 900 Pfund Sterling kosten würde. Stephenson versprach ursprünglich in Brüssel eine Lieferung der Lokomotive bis Ende Juli nach Rotterdam. In Nürnberg und England wurde mit abweichenden Maßeinheiten gearbeitet. Das bayerische Fuß und das englische Fuß waren unterschiedlich. Die Spurweite wurde auf die der Stockton and Darlington Railway festgelegt, da Stephenson auf dem Maß von 4 englischen Fuß und 8,5 Zoll (1435 mm) beharrte. Die in Nürnberg bereits verlegten Gleise waren um 5/8 Zoll zu schmal. Der Abstand der Schienen musste entsprechend angepasst werden. Die Lieferung des Fahrzeugs mit allen Zubehörteilen nach Nürnberg zu einem Preis lt. Rechnung von 1140 Pfund Sterling, 19 Schilling und 3 Pence (entspricht Pfund in heutiger Kaufkraft) bestand aus über 100 Einzelteilen in 19 Kisten von 177 Zentnern Gewicht. Die Kisten wurden am 3. September 1835 verspätet auf dem Schiff "Zoar" von London nach Rotterdam verschifft. Der Frachtlohn von Rotterdam nach Köln betrug 700 Francs, von Köln bis Offenbach 507 Gulden und 9 Kreuzer und von Offenbach bis Nürnberg 653 Gulden und 11 Kreuzer. Das Direktorium der Bayerischen Ludwigsbahn suchte am 23. April 1835 um eine Befreiung vom Einfuhrzoll nach. Die Lokomotive wurde als ein Muster für ein bisher unbekanntes Produkt für die Fabriken möglicher Hersteller im Inland deklariert. Nach verschiedenen Schwierigkeiten genehmigte am 26. September 1835 das Finanzministerium die beantragte zollfreie Einfuhr mit dem Fabrikanten Johann Wilhelm Spaeth als Empfänger der Lieferung. Mit dem Schleppkahn "van Hees" des Schiffers van Hees, der von dem Dampfboot "Hercules" stromaufwärts geschleppt wurde, wurden die Transportkisten am 23. September 1835 von Rotterdam auf dem Rhein nach Köln transportiert. Wegen Niedrigwasser des Rheins musste er sich ab Emmerich für den Weitertransport statt des Dampfbootes des Treidelns mit Zugpferden bedienen. Am 7. Oktober traf der Schleppzug in Köln ein. Der Rest der Strecke musste ab dem 13. Oktober 1835 mit Pferdefuhrwerken zurückgelegt werden, da der Main wegen Niedrigwasser nicht schiffbar war. Diese Reise an Land wurde durch einen Streik der Fuhrleute in Offenbach unterbrochen, der einen Wechsel des Spediteurs zur Folge hatte. Am 26. Oktober 1835 erreichte der Transport Nürnberg. In den Werkstätten der Maschinenfabrik von Johann Wilhelm Spaeth wurde die Dampflokomotive zusammengesetzt. Der Aufbau erfolgte unter Aufsicht des mitgereisten Ingenieurs und Lokomotivführers William Wilson und des Fachlehrers Bauer mit der Hilfe von örtlichen Zimmerleuten. Am 10. November 1835 äußerte das Direktorium der Bayerischen Ludwigsbahn die Hoffnung auf eine baldige Betriebsfähigkeit der Lokomotive. Die Lokomotive stand als Sinnbild für Kraft, Wagemut und Schnelligkeit. Die beiden von Stephenson gelieferten Wagengestelle stellten sich als zu schwer für die Verhältnisse in Nürnberg heraus. Der deutsche Konstrukteur Denis ging dagegen bei seinen Planungen davon aus, dass die Wagen sowohl von Pferden als auch von der Dampflokomotive gezogen würden und hielt aus diesem Grund eine leichtere Bauart für erforderlich. Der Bau der Wagen wurde von mehreren Firmen durchgeführt, die Untergestelle wurden von Späth, Gemeiner und Manhard hergestellt. Die Aufbauten aus Holz lieferte der Wagnermeister Stahl aus Nürnberg. Wegen der starken Auslastung der genannten Firmen mit anderen Aufträgen wurden drei Wagengestelle und 16 Räder bei der Firma Stein in Lohr bei Aschaffenburg hergestellt. Denis drohte den beteiligten Firmen mit einer künftigen Auftragsvergabe nach England, wenn diese die Arbeiten nicht beschleunigten. Ende August 1835 wurde der erste Wagen fertiggestellt. In der zweiten Oktoberhälfte war die Fertigstellung der restlichen Wagen absehbar. Bis zur Eröffnung der Bayerischen Ludwigsbahn wurden neun Wagen hergestellt: zwei Wagen der dritten Wagenklasse, vier der zweiten und drei Wagen der ersten Klasse. Am 21. Oktober 1835 fand der erste öffentliche Fahrversuch mit einem von einem Pferd gezogenen Personenwagen und 23 Personen statt. Der Konstrukteur Denis hatte eine Bremse für die Wagen entwickelt, die bei dieser Gelegenheit getestet wurde. Der Wagen konnte in jeder Situation sicher zum Stehen gebracht werden. Am 16. November 1835 wurde die erste Probefahrt mit der Dampflokomotive von Nürnberg nach Fürth und zurück unter großer Anteilnahme der Bevölkerung durchgeführt. Wegen der herrschenden Kälte wurde mit gemäßigter Geschwindigkeit gefahren. Drei Tage später wurden bei einer weiteren Testfahrt fünf vollbesetzte Wagen in 12 bis 13 Minuten über die Strecke befördert. Auf der Rückfahrt erfolgten Bremsproben, und das Ein- und Aussteigen der Passagiere wurde geprobt. Darauf folgende tägliche Versuche zeigten unter anderem, dass bei der Verwendung von Holz als Heizmaterial durch Funkenflug die Kleider von mehreren Passagieren versengt wurden. Die Teilnahme an einer Probefahrt kostete 36 Kreuzer, der Erlös wurde der Fürsorge für Arme zugeführt. Lokomotive. Der Adler war auf einem mit Blech beschlagenen Rahmen aus Holz aufgebaut. Die beiden innenliegenden mit Nassdampf betriebenen, waagerechten Zylinder trieben die sich in der Mitte befindende Treibachse an. Die Treibräder besaßen keinen Spurkranz, um enge Kurvenradien befahren zu können. Die geschmiedeten Radspeichen waren mit dem Radkranz vernietet. Die ursprünglichen Räder bestanden aus Gusseisen und waren mit einem geschmiedeten Radreifen umgeben. Die ursprünglichen Räder aus leicht brüchigem Gusseisen wurde später durch stabilere Räder aus Schmiedeeisen ersetzt. Die hohlen Speichen enthielten einen Kern aus Holz, um Unebenheiten besser abzufedern. Alle Räder der Lokomotive waren ungebremst. Eine Spindelbremse wirkte auf die beiden auf der rechten Seite des Heizers liegenden Räder des Tenders. Die Verbindung zwischen Lokomotive und Tender war starr. Die Puffer waren aus Holz. Der hufeisenförmige Wasserkasten umfasste den Kohlenvorrat des Tenders. Als Brennmaterial wurde zunächst Koks und später Steinkohle benutzt. Wagen. Die Personenwagen hatten beim Kutschenbau verwendete Kutschenkästen, die auf ein Fahrgestell aus Eisen montiert waren. Der zweiachsige Coupé-Wagen mit drei hintereinandergesetzten einzelnen voneinander getrennten Abteilen bildete das Grundprinzip der ersten deutschen Eisenbahnwagen. Spezielle Fahrgestelle für Personenwagen wurden erst 1842 bei der Great Western Railway entwickelt. Sämtliche Wagen waren in der Farbe Gelb der Postkutschen lackiert. Die Wagen der dritten Wagenklasse besaßen ursprünglich kein Dach, drei Abteile mit acht bis zehn Sitzplätzen, die Einstiege hatten keine Türen. Die Wagen der zweiten Wagenklasse waren demgegenüber mit einem Segeltuchdach ausgestattet und hatten Türen, vor den unverglasten Fenstern waren Vorhänge aus Seide, später aus Leder angebracht. Bei gleicher Breite der Wagen war die Anzahl der Sitzplätze bei den teureren Klassen pro Reihe jeweils um einen reduziert. Die Wagen der ersten Wagenklasse waren mit einem kostbaren blauen Tuch ausgeschlagen, mit Fensterscheiben aus Glas versehen, die Türgriffe waren vergoldet und alle Beschläge aus Messing gefertigt. Der heute noch erhaltene Wagen Nr. 8 der 2. Wagenklasse ist im Verkehrsmuseum Nürnberg ausgestellt. Betrieb und Ausmusterung. Am 7. Dezember 1835 fuhr der "Adler" erstmals offiziell die Strecke von 6,05 Kilometern in neun Minuten – mit 200 Ehrengästen sowie dem 26-jährigen Engländer William Wilson auf dem Führerstand. Im Abstand von jeweils zwei Stunden wurden zwei weitere Probefahrten durchgeführt. Die Lokomotive verkehrte mit bis zu neun Wagen mit maximal 192 Fahrgästen. Im normalen Betrieb wurden die Fahrten mit maximal 28 km/h durchgeführt, um die Lok zu schonen. Die normale Fahrzeit betrug etwa 14 Minuten. Demonstrationsfahrten ohne Wagen durften mit bis zu 65 km/h durchgeführt werden. In den meisten Fällen ersetzten allerdings noch Pferde als Zugtiere die Dampfmaschine. Wegen des noch hohen Preises der Kohle wurde der überwiegende Teil der Fahrten auf der Ludwigsbahn mit Pferdebahnen durchgeführt. Gütertransporte wurden zusätzlich zum Personenverkehr erst ab 1839 durchgeführt. Zu den ersten Transportgütern zählten Bierfässer und Vieh. 1845 fand bereits ein reger Güterverkehr statt. Der "Adler" musste nach elf Betriebsjahren grundlegend überholt und instand gesetzt werden, ebenso wurde der "Pfeil" saniert. Wie im Bericht des Direktoriums vermerkt legten diese Maschinen in 11 resp. 10 Jahren 32.168 Fahrten mit mehr als 2 1/2 Millionen Personen zurück, folglich eine Strecke von ca. 64.000 Meilen (483.200 km), ohne einen Nachlaß ihrer Kräfte zu zeigen.Nach 22 Betriebsjahren wurde die Lokomotive ausgemustert. Sie war mit der Schwesterlokomotive "Pfeil" (er wurde schon 1853 verkauft) inzwischen die kleinste und schwächste Lokomotive auf dem europäischen Kontinent. Darüber hinaus war der Kohleverbrauch neuerer Dampflokomotiven inzwischen deutlich geringer geworden. Die Lokomotive wurde anschließend in Nürnberg als stationäre Dampfmaschine genutzt. 1857 verkaufte die Bahngesellschaft die Lokomotive mit dem Tender, aber ohne Räder und andere Anbauteile, an den Augsburger Ludwig August Riedinger. Die vermutlich einzige Fotografie, die den Adler im Jahr 1851 oder 1856 zeigt, befindet sich im Besitz des Nürnberger Stadtarchivs. Allerdings sind weder das Alter der Fotografie eindeutig belegt, noch ob das Bild die Original-Lokomotive oder nur ein Modell zeigt. Betriebsfähiger Nachbau von 1935. Im Zusammenhang mit der Errichtung des Verkehrsmuseums Nürnberg wurde 1925 geplant, den Adler zu rekonstruieren. Exakte Pläne existierten jedoch nicht mehr. Lediglich ein Stich aus der Zeit der Original-Lokomotive gab Informationen. 1929 beendete die Weltwirtschaftskrise dieses Vorhaben. Zum 100-Jahr-Jubiläum der Eisenbahn in Deutschland 1935 wurde ab 1933 von der Deutschen Reichsbahn im Ausbesserungswerk Kaiserslautern ein weitgehend originalgetreuer Nachbau erstellt. Die ursprüngliche Überlegung des Generaldirektors der Reichsbahn Dorpmüller und seines Stabs war, den Adler als Propagandainstrument der so genannten „"neuen Zeit"“ in der Stadt der Reichsparteitage (Nürnberg) zu benutzen. Geplant wurde, den Adler den Lokomotivgiganten wie der Baureihe 05 gegenüberzustellen. Für die Verwirklichung des Nachbaus konnte auf die Planungen von 1925 zurückgegriffen werden. Neben abweichenden technischen Daten unterschied sich der Nachbau vom Original vor allem durch dickere Kesselwände, zusätzliche Querverstrebungen und Speichenräder aus Stahl. Der Nachbau erreichte bei Probefahrten auf einer 81 Kilometer langen Strecke eine Durchschnittsgeschwindigkeit von 33,7 km/h. Die Strecke wies Neigungen zwischen 1:110 und 1:140 auf. Vom 14. Juli bis zum 13. Oktober 1935 konnten Besucher mit dem rekonstruierten Adler-Zug auf einer Strecke von 2 km um das Gelände der Jubiläumsausstellung in Nürnberg fahren. Auf dem Führerstand fuhren unter anderem Reichsbahn-Generaldirektor Julius Dorpmüller und der Gauleiter Frankens Julius Streicher mit. Der Adler-Nachbau fuhr danach noch 1936 beim Cannstatter Wasen in Stuttgart und bei den Olympischen Spielen in Berlin. Beim 100-Jahr-Jubiläum der ersten preußischen Eisenbahn 1938 verkehrte der Adler-Zug zwischen Berlin und Potsdam. Danach kam er in das Verkehrsmuseum Nürnberg. Der Nachbau wurde genau wie das Original als "Dampfwagen" geführt. Durch diese Einstufung war er nicht von Dampflokverbot betroffen (er stand zu dieser Zeit allerdings und danach nicht betriebsfähig im "Adlersaal" im Verkehrsmuseum Nürnberg) und seinem Einsatz zum 150 jährigen Jubiläum 1985 stand somit nichts "Bürokratisches" im Wege. 1950 wurde der Adler-Zug bei einem Festzug zur 900-Jahr-Feier von Nürnberg auf einem Straßenroller durch die Stadt gefahren. Zur 125-Jahr-Feier der Deutschen Eisenbahnen 1960 wurde der Zug auf der Strecke der Nürnberg-Fürther Straßenbahn zwischen dem Plärrer in Nürnberg und dem Hauptbahnhof Fürth eingesetzt. Die Innenseiten der Räder mussten für die Fahrt auf Straßenbahngleisen abgedreht werden. 1984 wurde er zur 150-Jahr-Feier der Deutschen Eisenbahnen von der Deutschen Bundesbahn im Ausbesserungswerk in Offenburg instand gesetzt. Dabei mussten unter anderem die 1960 für die Fahrt auf Straßenbahngleisen abgedrehten Radinnenseiten wieder aufgeschweißt werden. Der Dampfkessel wurde nach den aktuellen Sicherheitsbestimmungen überprüft. Der Adler nahm an der großen Jubiläumsausstellung in Nürnberg und an zahlreichen Veranstaltungen im damaligen Bundesgebiet wie zum Beispiel in Hamburg, Konstanz und München teil. Am 22. Mai 1984 wurden Publikumsfahrten zwischen dem Hauptbahnhof Nürnberg und Nürnberg Ost angeboten. Nachbau des Adler und ICE-Mock-Up im Verkehrsmuseum Nürnberg 2011 Die Lokomotive wurde zwischen Ende 1985 und 1999 nicht betrieben. Für die 1999 geplanten Fahrten waren mehrmonatige Restaurierungsarbeiten erforderlich. Am 16. September 1999 erteilte das Eisenbahn-Bundesamt die Betriebsgenehmigung. 1999 fuhr zur 100-Jahrfeier des ehem. "Königlich Bayerischen Eisenbahnmuseums" und des "Verkehrsmuseums Nürnberg" als dessen Nachfolger der Adler-Zug an drei Sonntagen im Oktober und nahm an der "Großen Fahrzeugparade" im Rangierbahnhof Nürnberg teil. In den Folgejahren wurde der Adler-Nachbau bei mehreren Nostalgiefahrten in Deutschland eingesetzt. Er stand bis 2005 im Verkehrsmuseum Nürnberg. Bei einem Brand im Depot des Verkehrsmuseums (Ringlokschuppen des Bahnbetriebswerks Nürnberg West) am 17. Oktober 2005, in dem sich 24 Lokomotiven befanden, wurde u. a. der – bis zuletzt fahrtüchtige – Nachbau des "Adler" schwer beschädigt. Der Vorstand der DB beschloss, ihn wieder instand setzen zu lassen. Das Wrack wurde am 7. November in vierstündiger Arbeit von einem Bergungstrupp der Preßnitztalbahn mit einem Autokran aus den Trümmern des Lokschuppens gehoben und anschließend mit einem Spezialtieflader zum Dampflokwerk Meiningen gebracht. Es zeigte sich, dass zumindest der Kessel dank der Befüllung mit Wasser relativ unbeschädigt geblieben war, obwohl seine komplette Holzverkleidung verbrannt und viele Bleche geschmolzen waren; er konnte daher für den Wiederaufbau von 2007 verwendet werden. Betriebsfähige Rekonstruktion von 2007. Der Adler 2008 bei einer seiner ersten Fahrten nach der Rekonstruktion kurz vor dem Hauptbahnhof Fürth Die Rekonstruktion des 2005 beschädigten Adlers lief Mitte April 2007 an und war im Oktober 2007 abgeschlossen. Der mit Metall verkleidete Holzrahmen war so stark beschädigt, dass er komplett neu gebaut werden musste. Ein Wagen der dritten Klasse, der an einem anderen Ort ausgestellt war und dadurch den Brand unbeschadet überstand, diente als Vorlage für die neuen kutschenähnlichen Waggons, die von einer Schreinerei in Meiningen gefertigt wurden. Die Kosten beliefen sich auf etwa eine Million Euro, davon konnten 200.000 Euro aus Spenden der Bevölkerung aufgebracht werden. Der Direktor des "DB-Museums Nürnberg" stellte vor Beginn der Rekonstruktion klar, dass die Wiederaufarbeitung mit allen verbrannten Details ausgeführt werden würde, und erklärte, es würden keine Kompromisse gemacht. Es wurde sogar noch präziser nach historischen Zeichnungen gearbeitet, so wurde beispielsweise der ebenfalls beim Brand beschädigte Schornstein nicht in der beim Nachbau von 1935 abweichenden, sondern in der ursprünglichen Form angefertigt. Ein Problem stellte die als Kurbelwelle ausgebildete, einteilige Treibachse der Lok dar, sie konnte nicht im Dampflokwerk Meiningen geschmiedet werden. Mit dieser Arbeit wurden die "Sächsischen Schmiedewerke" in Gröditz beauftragt, die die Schmiedearbeiten an der Kurbelwelle und den Radreifen durchführen konnten. Das anschließende Abdrehen wurde von der "Gröditzer Kurbelwelle Wildau GmbH" durchgeführt. Für den Rahmen der Lokomotive wurde acht bis zwölf Jahre abgelagertes Eschen-Holz verwendet, das elastisch genug ist, die Erschütterungen durch die Kraftübertragung während der Fahrt auszuhalten. Der Unterbau des Tenders wurde aus hartem Eichenholz gefertigt. Seit dem 23. November 2007 befindet sich der wiederhergestellte „alte“ Adler mit einem alten (1935) und zwei neuen (2007) dazugehörigen Personenwaggons der dritten Wagenklasse wieder im DB Museum in Nürnberg. Zu besichtigen sind im Museum selbst der nur rollfähige Adler von 1950 sowie der originale, 1835 gebaute und 1838 und 1846 umgebaute, Personenwagen der zweiten Wagenklasse Nr. 8 der Ludwigsbahn, der der Konservierung halber nicht mehr auf die Schienen gestellt wird. Am 26. April 2008 fuhr der Nachbau erstmals wieder zwischen Nürnberg und Fürth. Im Mai folgten Sonderfahrten in Nürnberg, Koblenz und in Halle an der Saale. Im April 2010 wurden im Rahmen des 175-Jahr-Jubiläums der Eisenbahn in Deutschland auf dem Gelände des DB Museums in Koblenz-Lützel Fahrten mit Besuchern durchgeführt. Im Mai und Juni 2010 fanden Fahrten zwischen Nürnberg Hauptbahnhof und Fürth Hauptbahnhof statt. Der Schlepptender und die drei Personenwagen des Adler-Zuges sind die einzigen heute noch in Deutschland per Handkurbel gebremsten Eisenbahnfahrzeuge. Nicht betriebsfähiger Nachbau aus den 1950er Jahren. Ein weiteres Exemplar, das im Gegensatz zum Nachbau von 1935 nicht betriebsfähig ist, wurde in den 1950er Jahren im Auftrag des Werbeamts der Deutschen Bundesbahn im Ausbesserungswerk München-Freimann erstellt. Dieser Nachbau diente der Öffentlichkeitsarbeit auf Ausstellungen und Messen. Er steht ebenfalls im DB Museum Nürnberg. Motorbetriebener Nachbau im Tiergarten Nürnberg. Seit 1964 fährt auf der Tiergartenbahn Nürnberg ein motorbetriebener Nachbau im Maßstab 1:2. Er wurde 1963/1964 von der Lehrlingswerkstatt der MAN gefertigt. Der „Mini-Adler“ startete in der Nähe des Eingangs und pendelte zum Kinderzoo. Im Zuge des Neubaus der Delfinbecken musste diese Strecke 2008 stillgelegt werden. Zwischenzeitlich wurde eine Erweiterung bzw. Verlegung der Strecke realisiert. Sie führt entlang des Giraffengeheges unterhalb der Delfinlagune vorbei bis hin zum Kinderzoo und hat eine Länge von gut einem Kilometer. Nach einer gut dreijährigen Pause steht die Bahn seit 31. März 2012 wieder der Öffentlichkeit zur Verfügung. Dieselmotorbetriebener Nachbau der Görlitzer Parkeisenbahn. Bei der Görlitzer Parkeisenbahn verkehrt ein Nachbau mit einer Spurweite von 600 mm. Bei diesem Nachbau handelt es sich um eine Diesellokomotive. TV-Requisit und Werbeobjekt. Für die TV-Miniserie Der eiserne Weg anlässlich der 150-Jahre-Deutsche-Eisenbahnen-Feier im Jahr 1985 entstand für die Dreharbeiten ein fahrbarer Nachbau. Der Dampf wurde dabei chemisch erzeugt, für den Antrieb sorgte der im Tender verkleidete Vorderwagen eines Renault 5. Im Rahmen des Stadtjubiläums „1000 Jahre Fürth“ wurde ein Bus mit dem Adler verziert, er machte Werbung für eine Ausstellung, bei der Spenden für den Wiederaufbau gesammelt wurden. Lokomotive „Adler“ auf deutschen Briefmarken und Münzen. In den Briefmarken-Jahrgängen der Reichspost 1935, der Bundespost 1960 und der Deutschen Post 1960 sowie der Bundespost 1985 wurde der "Adler" zu den Jubiläen „100“, „125“ und „150 Jahre Deutsche Eisenbahn“ gewürdigt. Zum 175. Jahrestag erschien am 11. November 2010 erneut eine Sonderbriefmarke der Deutschen Post AG im Wert von 55 Eurocent mit diesem Motiv und auch eine 10-Euro-Silber-Gedenkmünze der Prägestätte München (D) mit der Randinschrift: "Auf Vereinten Gleisen 1835 – 2010". Agatha Christie. Dame Agatha Mary Clarissa Christie, Lady Mallowan, DBE (* 15. September 1890 in Torquay, Grafschaft Devon; † 12. Januar 1976 in Wallingford, gebürtig "Agatha Mary Clarissa Miller") war eine britische Schriftstellerin. Laut einigen Quellen verkauften sich ihre Werke bis heute rund vier Milliarden Mal, womit sie zu den erfolgreichsten Autorinnen der Literaturgeschichte zählt. Bekannt wurde sie vor allem durch eine große Anzahl von Kriminalromanen und Kurzgeschichten, die auch mehrfach mit großem Erfolg für Film und Fernsehen verfilmt sowie für die Bühne adaptiert wurden. Ihre berühmtesten Schöpfungen sind der belgische Detektiv Hercule Poirot mit seinem Freund Hastings sowie die altjüngferliche Miss Marple. Daneben gibt es andere wiederkehrende Figuren wie Tommy und Tuppence Beresford oder Inspektor Battle, Sir Henry Clithering oder die Krimi-Autorin Mrs. Ariadne Oliver. In mehreren Miss-Marple-Romanen treten deren Neffe Raymond West, Schriftsteller, sowie dessen Verlobte und spätere Ehefrau Joan auf. Neben ihrer schriftstellerischen Tätigkeit unterstützte sie ihren zweiten Ehemann, den Archäologen Max Mallowan, bei seinen Ausgrabungen im Nordirak und in Syrien, insbesondere bei der Restaurierung prähistorischer Keramiken und der Fotodokumentation der Funde. Sie trug maßgeblich zur Finanzierung dieser Expeditionen bei. Kindheit und Jugend. Agatha Mary Clarissa Miller kam 1890 im britischen Torquay (Grafschaft Devon) als jüngstes Kind des Amerikaners Frederick Alvah Miller und dessen englischer Ehefrau Clarissa Margaret Boehmer zur Welt. Sie hatte eine Schwester, Margaret Frary Miller (1879–1950), genannt „Madge“ und einen Bruder, Louis Montant Miller (1880–1929), genannt „Monty“. Agatha Christie wuchs in der viktorianischen Villa "Ashfield" in Torquay auf und wurde bis zu ihrem 16. Lebensjahr nicht in einer Schule, sondern von ihren Eltern (bzw. der Mutter) unterrichtet, die früh ihr schriftstellerisches Talent erkannten. Mit elf Jahren veröffentlichte sie ein erstes Gedicht in einem Lokalblatt. Agatha Christie als junges Mädchen, unbekanntes Datum Ihr Vater bezog Einkommen aus Geschäften in Übersee, über die nichts Näheres bekannt ist, die der Familie aber ein Leben in Wohlstand ermöglichten. Agatha Christie selber erwähnt in ihrer Autobiographie andeutungsweise Immobilien in New York und in Trusts angelegtes Vermögen, aus dessen Zinseinkünften die Familie Miller lebte. Dabei kam es jedoch zu Veruntreuungen durch die amerikanischen Vermögensverwalter, wodurch die Familie Miller in finanzielle Schieflage geriet. Wie damals allgemein üblich, wurde das eigene Haus für den Sommer an Gäste vermietet, während die Familie Miller die Zeit in Pau und Cauterets bzw. auf den Kanalinseln verbrachte. Frederick Alvah Miller starb 1901, Agatha war damals elf Jahre alt. Clarissa Margaret Miller zog ihre Kinder nun alleine groß und bemühte sich, sie die durch den Tod des Vaters noch weiter verschärfte finanzielle Situation so wenig wie möglich spüren zu lassen. Ihr zunächst begonnenes Musikstudium in Paris gab Agatha Miller mit Beginn des Ersten Weltkriegs auf und arbeitete als Krankenschwester (Voluntary Aid Detachment) beim Britischen Roten Kreuz im örtlichen Krankenhaus, später in einer Apotheke. In dieser Zeit sammelte sie viele Erfahrungen mit Giften, die später in ihren Werken eine Rolle spielten. 1914 heiratete sie Oberst Archibald Christie, einen Flieger der königlichen Luftwaffe. Mit ihm hatte sie eine Tochter, Rosalind Margaret Clarissa Christie, die am 5. August 1919 geboren wurde. Die 1920er Jahre. 1920 erschien ihr erster Kriminalroman: "Das fehlende Glied in der Kette" () mit dem belgischen Detektiv Hercule Poirot zunächst in den USA, dann in England. Schlagartig berühmt wurde Christie jedoch erst mit dem 1926 veröffentlichten Werk "Alibi" (engl. "The Murder of Roger Ackroyd"). In ihrer schriftstellerischen Tätigkeit hatte Agatha Christie schnell Erfolg, privat jedoch verliefen die 1920er Jahre eher unglücklich: Ihr Mann ließ sie berufsbedingt häufig allein, 1926 starb ihre Mutter – ein Ereignis, das sie stark mitnahm; außerdem musste Ashfield geräumt werden. Als Christie wegen dieser Situation völlig erschöpft war, gestand ihr Mann ihr die Affäre mit einer Golfpartnerin. Christie brach vollkommen zusammen. Sie verließ das Haus und wurde nach einer spektakulären Suchaktion erst zehn Tage später in einem Hotel in Harrogate aufgefunden. Ihre Familie verbreitete die Darstellung, dass sie einen fast vollständigen Gedächtnisverlust für diese Tage erlitten habe. 1928 wurde die Ehe geschieden. Die Geschichte um das Verschwinden von Agatha Christie wurde 1979 von Regisseur Michael Apted filmisch umgesetzt in "Das Geheimnis der Agatha Christie" (engl. Titel "Agatha") mit Vanessa Redgrave in der Hauptrolle. Die 1930er Jahre. Um sich von den Strapazen der vergangenen Jahre zu erholen, entschied sie sich relativ spontan im Herbst des Jahres 1928 zu einer ausgedehnten Reise in den Nahen Osten und reiste mit dem Orient-Express nach Bagdad. Diese Spontanentscheidung (eigentlich hatte sie an die Karibik als Reiseziel gedacht) sollte das Leben Agatha Christies maßgeblich verändern und großen Einfluss auf ihr schriftstellerisches Werk ausüben. Es war allerdings nicht ihre erste Begegnung mit dem Nahen Osten, denn bereits als junge Frau war sie mit ihrer Mutter in Kairo gewesen. Von Bagdad aus reiste sie weiter nach Ur, wo der Archäologe Leonard Woolley mit Ausgrabungen beschäftigt war, die seinerzeit in England starkes Aufsehen erregten. Er und seine Frau Katharine empfingen die Berühmtheit Agatha Christie hocherfreut; sie blieb längere Zeit beim Grabungsteam und freundete sich mit den Woolleys an und widmete ihnen später die Kurzgeschichtensammlung "Der Dienstagabend-Klub". Das Ehepaar Woolley stand auch Modell für die Hauptfiguren des Romans "Mord in Mesopotamien", wobei Agatha Christie Mr. und Mrs. Woolley jedoch einige sehr unsympathische Charakterzüge hinzufügte. Als sie nach London zurückkehrte, tat sie dies mit einer Einladung Katherines im Gepäck, im Frühjahr 1930 zurückzukehren. Bei diesem zweiten Aufenthalt in Ur lernte sie den 14 Jahre jüngeren Archäologen Max Mallowan kennen, der als Grabungsassistent bei Woolley arbeitete (allerdings bei ihrem ersten Besuch wegen einer Blinddarmentzündung abwesend war). Mallowan war von den Woolleys „abkommandiert“ worden, Agatha die Ausgrabungen und die Gegend zu zeigen. Bei dieser Gelegenheit verliebten sich die beiden. Agatha Christie musste sehr bald (noch im Frühjahr 1930) wegen einer Erkrankung ihrer Tochter nach England zurückkehren, Max Mallowan begleitete sie auf dieser Rückfahrt bereits. Zögerlich nahm Agatha schließlich einen Heiratsantrag des so viel jüngeren Max an; am 11. September 1930 heirateten die beiden in Edinburgh. 1930 hatte in dem Roman "Mord im Pfarrhaus" (engl. "The Murder at the Vicarage") eine neue Detektivin ihren ersten Auftritt: Die altjüngferliche Miss Marple, dem weitere elf Romane folgen sollten. Viele der zahlreichen Romane, die in den Jahren bis 1958 entstanden, schrieb Christie während der archäologischen Expeditionen mit ihrem Mann im Nordirak und in Nordsyrien. Ihre Erlebnisse auf einer der Expeditionen schildert sie in "Erinnerung an glückliche Tage" (engl. "Come, tell me how you live"). Die späte Karriere. Agatha Christies Tochter Rosalind heiratete zu Beginn des Zweiten Weltkriegs Hubert Prichard und brachte am 21. September 1943 den Sohn Mathew Prichard zur Welt. Ihr Mann fiel im Krieg, und sie ging 1949 eine Ehe mit Anthony Hicks ein. Sie starb am 28. Oktober 2004. Agatha Christies Grabstein in Cholsey Von den existenzbedrohenden Ereignissen nach der Trennung von ihrem ersten Mann geprägt, schrieb Christie in den 1940er-Jahren zwei Kriminalromane, die sie für die spätere Veröffentlichung zurückhielt. "Vorhang", Hercule Poirots letzter Fall, bereitete sie zur Veröffentlichung vor, als sich abzeichnete, dass sie keinen weiteren Roman mehr würde schreiben können. Er erschien kurz vor ihrem Tod, und es ist in der Tat Poirots letzter Fall, da Poirot im Laufe der Ermittlungen stirbt. Poirot war aber Agatha Christies Haupteinnahmequelle, und so war es nötig, dass er bis zum Erscheinen von "Vorhang" noch einige Fälle löste. "Ruhe unsanft" (engl. "Sleeping murder"), der zweite zurückgehaltene Roman, mit Miss Marple erschien dann erst nach ihrem Tod. 1970 erschien zu ihrem 80. Geburtstag der für Christie atypische Roman "Passenger to Frankfurt", in dem es um eine Weltverschwörung von Neo-Nazis geht. Das umstrittene Buch wurde erst 2008 ins Deutsche übersetzt. 1971 wurde Agatha Christie von Königin Elisabeth II. als Dame Commander in den Orden des britischen Empire aufgenommen und dadurch in den persönlichen Adelsstand erhoben. Ihren letzten Roman "Alter schützt vor Scharfsinn nicht" schrieb sie zwischen 1973 und 1974. Am 12. Januar 1976 starb Agatha Christie in Winterbrook House im Ort Wallingford, Grafschaft Oxfordshire an einem Schlaganfall. Ihr Grab befindet sich auf dem nahegelegenen Friedhof St Mary’s in Cholsey. 1977 erschien postum Christies Autobiografie "Meine gute alte Zeit" (engl. "An Autobiography"), die größtenteils in den Jahren 1950 bis 1965 entstanden war, eine Erinnerung an Dinge, die Agatha Christie wichtig gewesen sind, mit Schwerpunkt auf ihrer Kindheit. Ergänzend zu ihrer Autobiografie kann die Biografie von Janet Morgan herangezogen werden. Agatha Christies Tochter Rosalind bat Mrs. Morgan, eine autorisierte Biografie ihrer Mutter zu verfassen. Durch umfangreiches Quellenstudium und Befragung von Agathas Freunden entstand eine detaillierte Schilderung ihres Lebens. Karriere als Schriftstellerin. Insgesamt schrieb Agatha Christie 66 Kriminalromane, aber auch Kurzgeschichten und Bühnenstücke. Nach konservativen Schätzungen hat Agatha Christie über zwei Milliarden Bücher verkauft, wie ihr Enkel und Erbe Mathew Prichard auf der offiziellen Christie-Website betont. Damit gilt sie als die erfolgreichste Kriminalschriftstellerin der Welt. Wegen dieses Erfolges nennt man sie auch die "Queen of Crime" (dt. Die Königin des Krimis). Ihre berühmtesten Schöpfungen sind der belgische Detektiv Hercule Poirot und die altjüngferliche Hobbydetektivin Miss Marple. Weniger bekannt ist das Ermittlerduo Tommy und Tuppence Beresford, denen sie immerhin vier Romane und eine Kurzgeschichtensammlung widmete. Unter dem Pseudonym "Mary Westmacott" schrieb sie außerdem sechs romantische Erzählungen. Darüber hinaus gibt es zahlreiche Verfilmungen ihrer Bühnenstücke und Romane. Ihre Bücher sind die meistverkauften Bücher der Welt nach der Bibel. Zudem gilt sie als Autorin, die am häufigsten übersetzt wurde. Agatha Christie machte auch im Theater Karriere, denn aufgrund schlechter Erfahrungen beschloss sie, ihre Stücke nur noch selbst für die Bühne zu bearbeiten und war mit Begeisterung bei der Produktion dabei. Eines ihrer Bühnenstücke ist "Die Mausefalle", das am längsten ununterbrochen aufgeführte Theaterstück weltweit. Schauplätze. Agatha Christie siedelte zahlreiche Romane an realen Schauplätzen an. Am berühmtesten innerhalb dieser Gruppe ist ihr Roman "Mord im Orient-Express". Auch der Roman "Der blaue Express" spielt in einem historischen Zug. "Tod in den Wolken" spielt im ersten Teil, in dem der Mord geschieht, in einem Passagierflugzeug auf einem Flug von Paris nach London. Für gleich drei Romane diente Agatha Christies eigener Landsitz Greenway als Kulisse: Sowohl "Kurz vor Mitternacht" als auch "Das unvollendete Bildnis" und "Wiedersehen mit Mrs. Oliver" machen sich die besondere Geographie von Greenway mit Bootsanleger, Gewächshaus, Tennisplatz, ehemaligem Geschützstand, Nähe zum Ufer des Dart zu eigen. Für ihren Roman "Alter schützt vor Scharfsinn nicht" diente Agatha Christies Elternhaus Ashfield als Vorlage, wobei sie auch auf Besonderheiten aus ihrer eigenen Kindheit zurückgriff, u. a. der „KK“ (gesprochen: „Kai-Kai“) genannte Geräteschuppen, die Spielzeugpferde Truelove und Mathilde sowie eine Chilenische Araukarie. Einige der Romane wie "Dreizehn bei Tisch" und "Bertrams Hotel" spielen in London. Auch die Figur Hercule Poirot lebt in London. Die Romane "Und dann gabs keines mehr" und "Das Böse unter der Sonne" spielen auf einer kleinen Insel in Devon – Burgh Island. Die Amateur-Detektivin Miss Marple lebt in der fiktiven typisch englischen Kleinstadt St. Mary Mead. Auch weitere zahlreiche Christie-Krimis spielen in englischen Dörfern oder Kleinstädten, zum Beispiel "Der ballspielende Hund" oder "Das Sterben in Wychwood". Als einziger Roman in Devon, ihrer Heimat, spielt "Das Geheimnis von Sittaford"; die unheimliche Landschaft des Dartmoor spielt hier eine besondere Rolle, auch die Stadt Exeter. "Ein Schritt ins Leere" spielt teilweise in Wales und in Hampshire, "Das Haus an der Düne" an der Küste von Cornwall. Einige der Romane spielen im Nahen Osten, wo sich Christie häufig aufhielt, zum Beispiel "Sie kamen nach Bagdad", "Mord in Mesopotamien" und "Der Tod auf dem Nil". "Der Tod wartet" spielt in Jerusalem und Transjordanien. Eine Sonderstellung nimmt der Roman "Rächende Geister" ein, der im alten Ägypten der Pharaonenzeit spielt. Der Roman "Karibische Affäre" spielt in der Karibik auf der fiktiven Insel St. Honoré, für die jedoch Barbados als Vorlage diente. "Mord auf dem Golfplatz" ist Christies einziger Roman, der komplett in Frankreich, und zwar an der französischen Kanalküste und in Paris, spielt. In anderen Romanen wird der Schauplatz teilweise für Reisen der Ermittler nach Frankreich verlegt, so in "Die Memoiren des Grafen", der in einigen Kapiteln in Paris und Dinard spielt. Große Teile des Romans "Der blaue Express" spielen ebenfalls in Frankreich, vor allem an der Côte d’Azur. Zwei der Romane Christies spielen in wesentlichen Passagen auf einem Passagierschiff: "Der Mann im braunen Anzug" auf einem Passagierdampfer von Southampton nach Südafrika, "Der Tod auf dem Nil" auf einem Nil-Kreuzfahrtschiff für Touristen. In beiden Fällen ist Colonel Race als Ermittler mit von der Partie. Kritik. Von Kritikern ihres Werks wird Christie des Öfteren Antisemitismus vorgeworfen. Vor allem in ihrem Frühwerk gibt es darauf Hinweise. So wird das Mordopfer Carlotta Adams in "Dreizehn bei Tisch" (1933) als geldgierige Jüdin, die selber an ihrem Tod schuld sei, porträtiert. Werke und deren Adaptionen. Agatha Christie schrieb 66 Romane, zahlreiche Kurzgeschichten, zwei Autobiographien, mehrere Lyriksammlungen und 23 Bühnenstücke. Diese wurden in fünf Hörspielen, 22 Kinofilmen, 76 Fernsehfilmen, 19 Zeichentrickfilmen sowie in einigen Computerspielen adaptiert. Vier Dokumentationen wurden über sie gedreht. Apollo-Programm. a> vor der Mondlandefähre (Apollo 11) Das Apollo-Programm war ein Raumfahrt-Projekt der USA. Es brachte zum ersten und bislang einzigen Mal Menschen auf den Mond. Das Programm wurde von der National Aeronautics and Space Administration (NASA) zwischen 1961 und 1972 betrieben. In mehreren Schritten erprobte die NASA Techniken, die für eine Mondlandung wichtig sein würden, wie z. B. das Navigieren und Koppeln im All oder das Verlassen eines Raumschiffs im Raumanzug. Viele wichtige Tests wurden in der Vorbereitung im Gemini-Programm durchgeführt. Die erste bemannte Mondlandung selbst fand dann am 20. Juli 1969 statt. Nach fünf weiteren Landungen wurde das Programm 1972, auch aus Kostengründen, eingestellt. Seitdem hat kein Mensch wieder den Mond betreten. Name. Im Juli 1960, noch bevor das Mercury-Programm erste Erfolge aufzuweisen hatte, fand in Washington eine Konferenz statt, auf der die NASA und verschiedene Industriebetriebe einen Langzeitplan für die Weltraumfahrt erarbeiteten. Geplant war eine bemannte Mondumrundung, von einer Landung war zu diesem Zeitpunkt noch nicht die Rede. Abe Silverstein, der Leiter der Raumfahrt-Entwicklung bei der NASA, schlug für dieses Projekt den Namen Apollo vor. Apollo war ein Gott der griechischen Mythologie, der als treffsicherer Bogenschütze galt. Konzepte. Früher Konfigurationsentwurf für ein Direktflug- oder EOR-Konzept, NASA, 1961 Dieses letzte Konzept wurde als erstes verworfen. Es zeigte sich auch bald, dass die Pläne für einen Direktflug unrealistisch waren, da das dafür nötige Trägersystem noch um ein Vielfaches größer als die Saturn V hätte sein müssen. Auch das EOR-Konzept, das eine Vielzahl von Raketen erfordert hätte (man sprach von bis zu 15 Starts pro Mondflug), war mit Mehraufwand und Kosten verbunden. Insbesondere auf Betreiben von John C. Houbolt, der die anfängliche Minderheitsmeinung LOR hartnäckig und ohne Rücksicht auf Hierarchien vertrat, ging man daher Ende 1961 zu einer komplexeren, aber optimierten Konfiguration aus getrennten Raumfahrzeugen über. Dies ermöglichte nicht nur, mit einer einzigen Rakete auszukommen, sondern erlaubte auch die Optimierung der einzelnen Komponenten auf ihren genauen Zweck. Planung. Die mit Apollo 8 durchgeführte erste Mondumkreisung, Weihnachten 1968, war von der NASA eigentlich "nicht" vorgesehen und wurde mit der Bezeichnung Mission C' zwischen die Missionen C und D eingeschoben. Aufwand und Kosten. Das Apollo-Programm kostete 23,9 Milliarden Dollar, etwa 120 Milliarden nach heutigen Maßstäben (2009), und beschäftigte bis zu 400.000 Menschen. Wettlauf der Systeme. Durch den Start von Sputnik 1 im Jahre 1957, die erste unbemannte harte Mondlandung 1959 durch Lunik-2 und den ersten bemannten Raumflug von Juri Gagarin 1961 war die Sowjetunion zu Beginn des Raumfahrtzeitalters zur führenden Raumfahrtnation aufgestiegen. Die US-Amerikaner suchten nach einem Gebiet der Raumfahrt, auf dem sie die Sowjetunion schlagen könnten. Die bemannte Mondlandung wurde dafür als geeignet angesehen. Obwohl ursprünglich noch weitere Starts geplant waren, wurde das Apollo-Programm nach der sechsten erfolgreichen Mondlandung von Apollo 17 beendet. Für den bemannten Mondflug wurde die bis heute größte Rakete entwickelt. Sie erhielt den Namen Saturn V. Maßgeblichen Anteil an ihrer Entwicklung hatte der deutschstämmige Raketenbauer Wernher von Braun, dessen Team die erste Stufe mit den gewaltigen F-1-Triebwerken entwickelte. Alle Starts dieser Rakete waren trotz ihrer großen Leistung und Komplexität erfolgreich, was durchaus beachtenswert ist, da die meisten übrigen Raketensysteme auch Fehlstarts zu verzeichnen haben. Als Vorbereitung auf die Mondlandung lief parallel zum Apollo-Programm das Gemini-Programm, mit dem Erfahrungen zu Rendezvous-Manövern, Navigation und Arbeiten im Weltall gesammelt werden sollten. Technologien für die Hitzeschilde der Apollo-Kapseln wurden im Rahmen des FIRE-Projekts entwickelt und getestet. Am 27. Januar 1967 erlitt das Apollo-Programm einen schweren Rückschlag. Bei Bodentests verbrannten die drei Astronauten Virgil Grissom, Edward H. White und Roger B. Chaffee in ihrer Kommandokapsel. Die Rakete war während dieser Tests nicht betankt. Die Kommandokapsel war aber nicht mit gewöhnlicher Luft, sondern mit reinem Sauerstoff bei atmosphärischem Überdruck gefüllt. Dadurch wurde binnen weniger als einer Minute aus einem kleinen elektrischen Funken ein Feuer, das die Astronauten tötete. Umfangreiche Änderungen an der Kommandokapsel waren die Folge. Dem Test wurde nachträglich die Bezeichnung "Apollo 1" verliehen. Trotzdem konnte mit der erfolgreichen Mondlandung von Apollo 11 am 20. Juli 1969 das Ziel Kennedys der Landung auf, und sicheren Rückkehr vom Mond erreicht werden. Das bemannte Mondprogramm der Sowjetunion. Gleichzeitig zu dem Apollo-Programm arbeitete auch die Sowjetunion an einem ähnlichen Programm, das ebenfalls die Landung von Menschen auf dem Mond zum Ziel hatte. Mit den Zond-Sonden wurden modifizierte Sojus-Raumschiffe unbemannt zum Mond gestartet und nach einem Mondumlauf wieder zur Erde gebracht. Dies diente dem Test des Raumschiffs, das für einen folgenden bemannten Mondflug gedacht war. Zond-5 umkreiste im September 1968 den Mond, kam jedoch bei der Rückkehr vom Kurs ab und musste aus dem Indischen Ozean geborgen werden, die Landung war eigentlich für das sowjetische Territorium geplant. Im Oktober 1970 wurde das Testprogramm mit Zond-8 beendet; von allen Missionen war nur Zond-7 eine Mission, bei der Menschen an Bord des Raumschiffs überlebt hätten. Parallel arbeitete die Sowjetunion auch an einer Rakete für eine Mondlandemission, die ähnlich wie bei Apollo mit einer einzigen Rakete gestartet werden sollte. Dafür wurde die N1-Rakete entwickelt. Diese ist jedoch bei allen vier Teststarts, die zwischen 1969 und 1972 erfolgten, vor dem Erreichen einer Erdumlaufbahn explodiert. Daraufhin und angesichts der Tatsache, dass die US-Amerikaner bereits erfolgreich auf dem Mond gelandet waren, gab die Sowjetunion das bemannte Mondprogramm auf. Erst Anfang der 1990er-Jahre, nach dem Ende der Sowjetunion, kamen detaillierte Informationen über dieses Programm und die N1-Rakete an die Öffentlichkeit. Mondlandungen. Neil Armstrong als erster Mensch auf dem Mond Das „a“ vor „man“ wurde in späteren Texten hinzugefügt, um den Sinn zu erhalten. Im Funkverkehr war es nicht zu hören gewesen. Armstrong wurde später danach befragt, ob er es tatsächlich nicht gesagt habe, aber er konnte sich nicht mehr daran erinnern. Daher bleibt es ungeklärt, ob es durch Störungen im Funkverkehr verloren gegangen ist oder ob Armstrong dies tatsächlich so gesagt hat. Der dritte Astronaut, Michael Collins, umkreiste im Apollo-Mutterschiff den Erdtrabanten bis zur Rückkehr der Landeeinheit Eagle. Im Rahmen des Apollo-Programms wurden insgesamt sechs Mondlandungen durchgeführt. Damit haben bis heute 12 Menschen, allesamt US-Amerikaner, den Mond betreten. Harrison H. Schmitt – Mondfährenpilot von Apollo 17 – setzte als bislang letzter Mensch am 12. Dezember 1972 seinen Fuß auf den Mondboden. Eugene Cernan – Kommandant von Apollo 17 – ist bislang der letzte Mensch, der auf dem Mond war, indem er als letzter in die Mondfähre einstieg. Im Juli 2009 übermittelte die Mondsonde Lunar Reconnaissance Orbiter Aufnahmen der Landestellen von Apollo 11, 14, 15, 16 und 17. Der „erfolgreiche Fehlschlag“ von Apollo 13. Als Routineflug gestartet und von der Öffentlichkeit kaum wahrgenommen, starteten mit der Mission Apollo 13 am 11. April 1970 die Astronauten James A. Lovell, John L. Swigert und Fred W. Haise. Erst als auf dem Weg zum Mond ein Tank mit flüssigem Sauerstoff explodierte und damit das Leben der drei Insassen des Apollo-Raumschiffs stark gefährdet war, wurde die gesamte Weltöffentlichkeit auf die Mission aufmerksam. Die Astronauten konnten sich nur dadurch retten, dass sie das Lunar Module als „Rettungsboot“ zweckentfremdeten. Damit war an eine Mondlandung natürlich nicht mehr zu denken. Da das Raumschiff zum Zeitpunkt des Unfalls schon die Erdumlaufbahn in Richtung Mond verlassen hatte und für eine sofortige direkte Umkehr der Treibstoff bei weitem nicht ausgereicht hätte, führte der einzige Weg zurück zur Erde um den Mond herum, wobei das Raumschiff durch ein Swing-by-Manöver mit Hilfe der Mondanziehung wieder in Richtung Erde beschleunigt wurde. Nach dem Absprengen des Servicemoduls kurz vor dem Wiedereintritt in die Erdatmosphäre wurde erst das gesamte Ausmaß der Havarie ersichtlich; man geht davon aus, dass der Sauerstofftank der Brennstoffzellen explodiert war. Trotz der gescheiterten Mondlandung wird Apollo 13 dennoch als Erfolg gewertet, weil es erstmals gelungen war, Astronauten aus einer katastrophalen Raumnotlage lebend zur Erde zurückzubringen. Nach fünf Tagen, die für die Astronauten und die Bodenmannschaften sehr anstrengend waren, gelang (nach einer Mondumrundung ohne Landung) am 17. April 1970 die Landung im Pazifik. Kurioserweise waren die Mitglieder der Besatzung von Apollo 13 durch diese Mondumrundung ohne Landung diejenigen Menschen, die bislang am weitesten von der Erde entfernt waren, wenngleich ungeplant. Davon handelt der 1995 gedrehte Film "Apollo 13" mit Tom Hanks in der Rolle von James Lovell. Apollo-Missionen. Kurz nach der erfolgreichen Mondlandung von Apollo 11 veröffentlichte die NASA die weitere Planung, die bis Ende 1972 neun weitere Apolloflüge vorsah. Doch bereits im Januar 1970, noch vor der Verzögerung durch die Panne von Apollo 13, wurde Apollo 20 aus Kostengründen gestrichen. Im September 1970 wurden auch die ursprüngliche Apollo-15-Mission sowie Apollo 19 eingespart. Die nicht aus dem Programm gestrichenen Missionen Apollo 16, Apollo 17 und Apollo 18 wurden danach in Apollo 15, Apollo 16 und Apollo 17 umbenannt. Die nach dem Abschluss der Mondflüge noch vorhandenen Apollo-Raumschiffe und Saturnraketen wurden für das Skylab-Projekt 1973/74 und das Apollo-Sojus-Test-Projekt 1975 verwendet. Kritik. Dem Apolloprogramm wird vielfach ein zu geringer wissenschaftlicher Nutzen vorgeworfen. Das Ex-Missionmitglied William Anders meint Apollo sei „kein wissenschaftliches Programm“ gewesen, in Wahrheit habe es sich um eine „Schlacht im Kalten Krieg“ gehandelt. „Sicherlich, wir haben ein paar Gesteinsbrocken gesammelt und ein paar Fotos gemacht, aber wäre da nicht dieser Wettlauf mit den Russen gewesen, hätten wir niemals die Unterstützung der Steuerzahler gehabt.“. Nach dem Erfolg von Apollo 11 kündigten einige Forscher bei der NASA, darunter der damalige NASA-Chefgeologe Eugene Shoemaker. Er vertrat den Standpunkt dass der wissenschaftliche Ertrag durch unbemannte Sonden zu einem Fünftel der Kosten und bereits 3 bis 4 Jahre früher hätte erbracht werden können. Verschwörungstheorien. Wie bei vielen Ereignissen von so großer politischer Tragweite wurden auch die Mondlandungen zum Objekt zahlreicher Verschwörungstheorien. Diese gehen davon aus, dass die Mondlandungen in den Jahren 1969 bis 1972 nicht stattgefunden haben (oft geht es auch nur um die erste bemannte Mondlandung), sondern von der NASA und der US-amerikanischen Regierung vorgetäuscht worden sind. Die Verschwörungstheorien haben seit den 1970ern, durch den Autor Bill Kaysing, jedoch verstärkt wieder seit 2001, Verbreitung gefunden. Keine der Verschwörungstheorien liefert einen nachvollziehbaren, wissenschaftlich haltbaren Zweifel an den erfolgten Mondlandungen. April. Der April ist der vierte Monat des Jahres im gregorianischen Kalender. Er hat 30 Tage und beginnt mit demselben Wochentag wie der Juli und in Schaltjahren auch wie der Januar. Im römischen Kalender war der Aprilis ursprünglich der zweite Monat, weil mit dem Ende des Winters im März das neue landwirtschaftliche (aber auch militärische) Jahr begann. Es gibt keine gesicherte Herleitung des Namens. Da die Namen der ersten Jahreshälfte Götter wiedergeben, könnte es von Aphrodite stammen, die als Göttin für Liebe zu April passen würde, auch wenn der römische Name Venus gewesen wäre. Der Name bezieht sich möglicherweise auch auf die sich öffnenden Knospen im Frühling und wäre dann vom Lateinischen "aperire" („öffnen“) herzuleiten. Eine andere Etymologie sieht "apricus" („sonnig“) als Ursprung des Wortes. Zur Regierungszeit Kaiser Neros wurde der Monat ihm zu Ehren in "Neroneus" umbenannt, was sich allerdings nicht durchsetzte. Unter Kaiser Commodus hieß der Monat dann "Pius", einer der Namen des Kaiser, auch diese Umbenennung wurde nach seinem Tod wieder rückgängig gemacht. Der alte deutsche Name, der durch Karl den Großen im 8. Jahrhundert eingeführt wurde, ist "Ostermond", weil Ostern meist im April liegt. Andere, heute kaum mehr gebräuchliche Bezeichnungen sind "Wandelmonat", "Grasmond" oder auch "Launing". Der Sage nach wurde Luzifer am 1. April aus dem Himmel verstoßen. August. a>. Die lange Stange, die der Falkner mit sich führt, diente zum Aufschrecken der Beutevögel. Der August "(Erntemonat, Ährenmonat, Sichelmonat, Ernting;" ")" ist der achte Monat des Jahres im gregorianischen Kalender. Entstehung. Der August hat 31 Tage und wurde im Jahre 8 v. Chr. nach dem römischen Kaiser Augustus benannt, da er in diesem Monat sein erstes Konsulat angetreten hat. Unter Kaiser Commodus wurde der Name des Monats ihm zu Ehren in "Commodus" geändert, nach dem Tod des Kaisers erhielt der Monat seinen alten Namen zurück. Im römischen Kalender war der Augustus ursprünglich der sechste Monat und hatte vor seiner Umbenennung den Namen "Sextilis" (lat. ‚der sechste‘). Im Jahr 153 v. Chr. wurde der Jahresbeginn allerdings auf den 1. Januar verlegt. Der Sextil hatte ursprünglich 29 Tage und bekam durch Julius Caesars Reform 31 Tage. Die Reihenfolge der Tageslängen der folgenden Monate September, Oktober, November und Dezember (31 und 30 Tage) wurde umgekehrt, da andernfalls drei Monate (Juli bis September) mit je 31 Tagen unmittelbar aufeinander gefolgt wären. Unter Kaiser Augustus wurde der Monat Sextilis dann zu Ehren des Kaisers in Augustus umbenannt. Die oft zu hörende Behauptung, der Monat August wäre in Caesars ursprünglichem Reformkalender nur 30 Tage lang gewesen und wäre nur deshalb auf 31 Tage verlängert worden, um dem nach Julius Caesar benannten Monat Juli nicht nachzustehen, hat sich als Legende erwiesen. Der August beginnt in Schaltjahren mit dem gleichen Wochentag wie der Februar. In Gemeinjahren beginnt jedoch kein anderer Monat mit demselben Wochentag wie der August. Der männliche Vorname August wird im Gegensatz zum Monatsnamen auf der ersten Silbe betont. Feier- und Gedenktage. Der Bundesfeiertag am 1. August ist als schweizer Nationalfeiertag ein gesetzlicher Feiertag. Maria Himmelfahrt am 15. August ist in ganz Österreich, in einigen Kantonen der Schweiz, im Saarland und in den überwiegend katholischen Gemeinden Bayerns ein gesetzlicher Feiertag. Er ist auch als Staatsfeiertag der Nationalfeiertag von Liechtenstein. Zudem ist das Friedensfest am 8. August in der Stadt Augsburg ein gesetzlicher Feiertag. Im übrigen deutschsprachigen Raum ist der August ohne Feiertage. Archimedisches Prinzip. "Der statische Auftrieb eines Körpers in einem Medium ist genauso groß wie die Gewichtskraft des vom Körper verdrängten Mediums." Das archimedische Prinzip gilt in allen Fluiden, d. h. in Flüssigkeiten und Gasen. Schiffe verdrängen Wasser und erhalten dadurch Auftrieb. Da die mittlere Dichte eines Schiffes geringer als die Dichte von Wasser ist, schwimmt es an der Oberfläche. Auch Ballone und Luftschiffe machen sich diese Eigenschaft zunutze, um fahren zu können. Dazu werden sie mit einem Gas gefüllt, dessen Dichte geringer ist als die der umgebenden Luft. Diese Gase (z. B. Helium oder Wasserstoff) sind bei Luftschiffen und vielen Ballonen von Natur aus weniger dicht als Luft, in Heißluftballons wird die Luftfüllung mit Hilfe von Gasbrennern erwärmt, wodurch ihre Dichte abnimmt. Erklärung des Phänomens. Ursache für die Auftriebskraft ist der durch die Gravitation bedingte Druckunterschied zwischen der Ober- und der Unterseite eines eingetauchten Körpers. Die Kräfte, die auf die Seitenflächen einwirken, spielen keine Rolle, da sie sich gegenseitig aufheben. Das heißt, es wirkt auf die unteren Teile der Oberfläche eines eingetauchten Körpers eine größere Kraft als auf die oberen Teile der Oberfläche. Da jedes physikalische System stets bestrebt ist, einen Druckausgleich zu erzielen, wird sich der Körper so lange aufwärts bewegen, bis sich alle auf ihn einwirkenden Kräfte ausgleichen. Beispielrechnung. Im Beispiel (Bild 1) gehen wir von einem Würfel mit 20 cm Kantenlänge aus. Er ist 10 cm tief unter die Wasseroberfläche eingetaucht. formula_1 Auf die untere Fläche (Bild 1) formula_2 wirkt die Kraft nach oben. Auf die obere Fläche formula_4 wirkt dagegen die Kraft nach unten. Die Differenz der beiden Kräfte, also der Auftrieb dieses Körpers berechnet sich also zu formula_7. Dabei wurde die Dichte formula_9 des Fluids, die Beziehung formula_10 zur Masse formula_11 und zum Volumen formula_12, und der Ortsfaktor formula_13 verwendet. Wir sehen, dass beide Methoden zum selben Ergebnis führen. Gedankenexperiment. Folgendes Gedankenexperiment veranschaulicht die Richtigkeit des archimedischen Prinzips. Dazu stelle man sich ein ruhendes Fluid vor. Innerhalb des Fluids sei ein beliebiger Teil des Fluids markiert. Die Markierung kann man sich wie eine Art Wasserballon in einem Behälter Wasser vorstellen, nur dass die Haut dieses Wasserballons unendlich dünn und massenlos ist und eine beliebige Form annehmen kann. Man stellt nun fest, dass der so markierte Teil des Fluids innerhalb des Fluids weder steigt noch sinkt, da sich das gesamte Fluid in Ruhe befindet – der markierte Teil schwebt sozusagen schwerelos im ihn umgebenden Fluid. Das bedeutet, dass die Auftriebskraft des markierten Fluidteils exakt sein Gewicht kompensiert. Daraus kann gefolgert werden, dass die Auftriebskraft des markierten Fluidteils genau seiner Gewichtskraft entspricht. Da die Markierung innerhalb des Fluids beliebig ist, ist somit die Richtigkeit des archimedischen Prinzips für homogene Fluide gezeigt. Steigen, sinken, schweben. Damit der Körper die in der Grafik beschriebene Position beibehält, muss seine Gewichtskraft gleich der Gewichtskraft des verdrängten Wassers (78,48 N) sein. Dann heben sich alle auf den Körper wirkenden Kräfte auf und dieser kommt zum Stillstand. Nach der Formel formula_14 muss der Körper 8.000 g schwer sein. Des Weiteren hätte er nach formula_10 eine Dichte von 1 kg/dm3, also die Dichte von Wasser. Die Körper steigen oder sinken, bis der Gewichtskraft eine betragsmäßig gleich große Kraft entgegenwirkt. Dies kann beim Sinken eine sich ändernde Dichte des Fluids oder auch der Boden des Bechers bewirken. Ein Körper steigt oft so lange, bis er die Oberfläche durchbricht. In diesem Fall gilt: formula_19. Die Entdeckung des archimedischen Prinzips. Experiment zum Beweis des archimedischen Prinzips, Illustration von 1547 Archimedes war von König Hieron II. von Syrakus beauftragt worden, herauszufinden, ob dessen Krone wie bestellt aus reinem Gold wäre oder ob das Material durch billigeres Metall gestreckt worden sei. Diese Aufgabe stellte Archimedes zunächst vor Probleme, da die Krone natürlich nicht zerstört werden durfte. Der Überlieferung nach hatte Archimedes schließlich den rettenden Einfall, als er zum Baden in eine bis zum Rand gefüllte Wanne stieg und dabei das Wasser überlief. Er erkannte, dass die Menge Wasser, die übergelaufen war, genau seinem Körpervolumen entsprach. Angeblich lief er dann, nackt wie er war, durch die Straßen und rief "„Heureka!“ („Ich habe es gefunden“)". Um die gestellte Aufgabe zu lösen, tauchte er einmal die Krone und dann einen Goldbarren, der genauso viel wog wie die Krone, in einen bis zum Rand gefüllten Wasserbehälter und maß die Menge des überlaufenden Wassers. Da die Krone mehr Wasser verdrängte als der Goldbarren und somit bei gleichem Gewicht voluminöser war, musste sie aus einem Material geringerer Dichte, also nicht aus reinem Gold, gefertigt worden sein. Diese Geschichte wurde vom römischen Architekten Vitruv überliefert. Obwohl der Legende nach auf dieser Geschichte die Entdeckung des archimedischen Prinzips beruht, würde der Versuch von Archimedes auch mit jeder anderen Flüssigkeit funktionieren. Das Interessanteste am archimedischen Prinzip, nämlich die Entstehung des Auftriebs und damit die Berechnung der Dichte des Fluids, spielt in dieser Entdeckungsgeschichte gar keine Rolle. Physikalische Herleitung. Ein Körper wird vom Druck formula_20 belastet, welchen das umgebende Medium (Flüssigkeit oder Gas) auf seine Oberfläche ausübt. Ein betrachtetes Teilstück der Oberfläche mit dem Inhalt formula_21 sei so klein gewählt, dass es praktisch eben ist und dass in seinem Bereich der Druck p konstant ist. Der Einheitsvektor der äußeren Flächennormale der Teilfläche sei formula_22 Das Medium übt dann die Kraft auf das Teilstück aus. Eine Summierung dieser Kräfte über alle Teilstücke liefert die gesamte Auftriebskraft. Zur Herleitung des archimedischen Prinzips Das archimedische Prinzip gilt nur genau dann streng, wenn das verdrängte Medium inkompressibel (nicht zusammendrückbar) ist. Für Flüssigkeiten wie z. B. Wasser ist dies gut erfüllt, daher soll im Folgenden von einem Körper ausgegangen werden, der in eine Flüssigkeit der (genau genommen von der Temperatur abhängigen) Dichte formula_24 eintaucht. In der Flüssigkeit lastet auf einer waagerechten Fläche der Größe formula_21 in der Tiefe formula_26 das Gewicht einer Flüssigkeitssäule der Masse formula_27. Der Druck in dieser Tiefe ist deshalb Ein entsprechender Druckverlauf gilt bei nicht zu großen Höhendifferenzen z auch in der Luft oder anderen Gasen (d. h. die Kompressibilität fällt nicht ins Gewicht; bei großen Höhenunterschieden müsste eine veränderliche Dichte berücksichtigt werden). Deshalb gelten die folgenden Überlegungen auch für realistisch große Luftschiffe oder Ballone. Dabei ist V das verdrängte Volumen, also formula_34 die verdrängte Masse und formula_35 ihre Gewichtskraft. Das archimedische Prinzip ist also erfüllt. Das negative Vorzeichen entfällt, wenn die z-Achse nach oben gewählt wird. Für einen beliebig geformten Körper formula_36 erhält man die gesamte Auftriebskraft durch das Oberflächenintegral Mit dem Integralsatz und formula_39 folgt daraus Ergotismus. a> für das Antoniterkloster in Isenheim geschaffen und zählt zu den bedeutendsten Kunstwerken des 16. Jahrhunderts. Wer am Antoniusfeuer erkrankte, wurde vor Beginn der medizinischen Behandlung vor den Altar geführt in der Hoffnung, der hl. Antonius könne eine Wunderheilung vollbringen oder dem Kranken zumindest geistlichen Trost spenden. Als Ergotismus (syn. Ignis sacer – „heiliges Feuer“, Antoniusfeuer, auch Kriebelkrankheit) bezeichnet man eine Vergiftung durch Mutterkornalkaloide wie zum Beispiel Ergotamin oder Ergometrin. Ursachen. Im Mittelalter trat Ergotismus als Folge des Verzehrs von Nahrungsmitteln auf, die mit Mutterkorn verunreinigt waren. Da die Gefahr, die von Mutterkorn ausgeht, heute bekannt ist, werden verschiedene Maßnahmen ergriffen, um einer Verunreinigung von Getreideprodukten entgegenzuwirken. Der Ergotismus entsteht in der heutigen Zeit daher meist durch die Einnahme von Medikamenten, die Mutterkornalkaloide und deren Derivate enthalten. Diese Medikamente finden noch in der Therapie und Prophylaxe der Migräne (z. B. Ergotamin und Dihydroergotamin), in der Geburtsmedizin (Methyl- und Ergometrin) und in der Behandlung der Parkinson-Krankheit (z. B. Bromocriptin, Pergolid, Cabergolin oder Dihydroergocryptin) Anwendung. Eine unkontrollierte Dosissteigerung kann dabei zu Ergotismus führen. Symptomatik. a>s – Ein am Antoniusfeuer Leidender Durch eine Überdosierung von Ergotamin kommt es zur massiven Verengung der Blutgefäße und in der Folge zu einer Durchblutungsstörung von Herzmuskel, Nieren und Gliedmaßen. Die Gliedmaßen sind kalt und blass, die Pulse sind meist kaum nachweisbar. Zudem bestehen Hautkribbeln (Parästhesie), Empfindungsstörungen (Hypästhesie) und eventuell Lähmungserscheinungen (Parese). Eine häufige Folge ist das sekundäre (induzierte) Raynaud-Syndrom oder die Steigerung in Form eines schmerzhaften Absterbens von Fingern und Zehen (Gangrän). Zusätzlich bestehen in der Regel Allgemeinsymptome wie Erbrechen, Verwirrtheit, Wahnvorstellungen, Kopfschmerzen, Ohrensausen und Durchfall. Akute Vergiftungen können durch Atem- oder Herzstillstand zum Tod führen, chronische Vergiftungen zum Verlust der mangelhaft durchbluteten Gliedmaßen, Sekundärinfektionen und darauffolgende Sepsis. Diagnostik. Wichtigstes diagnostisches Kriterium ist das Erkennen der Ergotamineinnahme. Die Anamnese und dabei insbesondere die Medikamentenanamnese ist daher meistens entscheidend. Apparative Untersuchungen können bei Bedarf ergänzend hinzugezogen werden, beispielsweise die Doppler-Sonographie der Extremitätengefäße. Therapie. Auslösende Medikamente sind als Erstmaßnahme sofort abzusetzen. Ist dies alleine nicht ausreichend, können die Blutgefäße durch die Gabe von Nitraten, Calciumantagonisten und/oder Prostaglandininfusionen erweitert werden. Geschichte. In der Antike wurde vorwiegend Weizen angebaut, so dass keine Vergiftungen durch Ergotalkaloide bekannt sind, da die Erkrankung durch den Konsum von mit Mutterkorn-Pilz "(Claviceps purpurea)" befallenem Roggen verursacht wurde. Der erste belegte, epidemieartige Fall von Ergotismus trat im Jahr 857 bei Xanten auf. 922 sollen europaweit – vorwiegend in Frankreich und Spanien – etwa 40.000 Menschen einer Mutterkornepidemie zum Opfer gefallen sein. Man bezeichnete die Erkrankung als "Antoniusfeuer" (benannt nach dem heiligen Antonius) oder auch "ignis sacer" – „heiliges Feuer“. Vor allem der Antoniter-Orden hatte es sich zur Aufgabe gemacht, am Antoniusfeuer Erkrankte zu behandeln und zu pflegen. Die Antoniter unterhielten im 15. Jahrhundert in ganz Europa etwa 370 Spitale, in denen rund 4000 Erkrankte versorgt wurden. Die Krankheit war derart gefürchtet, dass Prozessionen und Zeremonien zu ihrer Abwehr zelebriert wurden. Noch heute wird auf Sardinien alljährlich im Januar das „Focolare di Sant´ Antonio“ (Antoniusfeuer) zur Abwehr von Krankheiten und anderen Übeln gefeiert. Trotz deutlicher Hinweise auf einen Zusammenhang zwischen der Verwendung von mutterkornhaltigem Mehl und dem Auftreten von Ergotismus wurden erst nach neuerlichen Epidemien 1716–1717 in Dresden sowie in den Jahren 1770 und 1777 in ganz Europa gesetzgeberische Maßnahmen ergriffen. Nachdem um 1853 durch den Mykologen L. R. Tulasne der Entwicklungszyklus des Mutterkornpilzes "Claviceps purpurea" aufgeklärt und beschrieben worden war, extrahierte Charles Tanret 1875 aus Mutterkorn eine – allerdings ziemlich verunreinigte – Substanz, die er „Ergotinin“ nannte. Ebenso wie das „Ergotoxin“, das 1907 entdeckt wurde, ist es ein Gemisch verschiedener Ergotalkaloide. Erst Arthur Stoll isolierte 1918 mit Ergotamin das erste reine Mutterkornalkaloid. Im 19. Jahrhundert gehörten Mutterkorn-Massenvergiftungen größtenteils der Vergangenheit an und seitdem in Europa nur noch hinreichend gereinigtes Getreide verzehrt wird, stellt Mutterkorn dort im Allgemeinen keine Gefahr mehr für die Gesundheit der Menschen dar. Es gab aber vereinzelt auch noch im 20. Jahrhundert Fälle von Vergiftungen. In den Jahren 1926 und 1927 kam es in der Sowjetunion zu Massenvergiftungen – offiziell gab es über 11.000 Tote durch mutterkornhaltiges Brot. Der letzte – allerdings umstrittene – Vergiftungsvorfall soll 1951 in Pont-Saint-Esprit (Frankreich) aufgetreten sein, mit 200 Erkrankten und 7 Toten. Da heute zunehmend ungemahlenes Getreide konsumiert wird, das direkt vom Landwirt kommt, kann es z. B. bei ungereinigtem Roggen aus Direktverkäufen zu Vergiftungen kommen. In Deutschland konnte 1985 eine Vergiftung auf mutterkornhaltiges Müsli zurückgeführt werden. Die Untersuchungsämter der Bundesländer stellten auch bei Stichproben von 2004 bis 2011 bisweilen gesundheitsschädliche Alkaloidgehalte in Getreideprodukten fest. Alfred Nobel. Alfred Bernhard Nobel (* 21. Oktober 1833 in Stockholm; † 10. Dezember 1896 in Sanremo) war ein schwedischer Chemiker und Erfinder. Er meldete insgesamt 355 Patente erfolgreich an. Nobel ist der Erfinder des Dynamits sowie Stifter und Namensgeber des Nobelpreises. Das chemische Element Nobelium wurde nach Nobel benannt. Herkunft. Alfred Nobel war der dritte Sohn des schwedischen Ingenieurs und Industriellen Immanuel Nobel. Er hatte zwei ältere Brüder, Robert (1829–1896) und Ludvig (1831–1888), und den jüngeren Bruder Emil Oskar (1843–1864). Einer seiner Neffen war der schwedisch-russische Ölmagnat Emanuel Nobel (1859–1932), der Erbauer des ersten Dieselmotorschiffes, der "Vandal". Jugend und Ausbildung. In den Jahren 1841 und 1842 besuchte Alfred Nobel eine Schule in Stockholm. 1842 kam er nach Sankt Petersburg, wo sein Vater mit Hilfe der norwegischen Regierung einige Hüttenwerke gegründet hatte und die russische Armee belieferte. Dank des Wohlstands des Vaters genoss Alfred eine erstklassige Ausbildung durch Privatlehrer. Bereits im Alter von 17 Jahren beherrschte er fünf Sprachen (Schwedisch, Russisch, Deutsch, Englisch und Französisch). Neben seinen Chemie- und Physikstudien interessierte er sich besonders für englische Literatur. Das missfiel seinem Vater, der ihn für introvertiert hielt, weshalb er ihn ins Ausland schickte. Nobel besuchte in rascher Folge Schweden, Deutschland, Frankreich und die Vereinigten Staaten. In Paris lernte er dabei Ascanio Sobrero kennen, der drei Jahre zuvor das Nitroglycerin entdeckt hatte, es jedoch aufgrund seiner Gefährlichkeit für nicht praxistauglich hielt. 1859 kehrte er wieder mit seinem Vater nach Stockholm zurück. Entwicklung der sicheren Zündung von Nitroglycerin. Nobel zeigte sich an der Erfindung des Nitroglycerins sehr interessiert und richtete seit 1859 seine Bemühungen darauf, es als Sprengstoff in die Technik einzuführen. Zwischen 1860 und 1864 experimentierte er unter anderem im Ruhrgebiet in Dortmund-Dorstfeld auf der dortigen Zeche Dorstfeld mit Sprengstoffen im Bergbau. Um Nitroglycerin mit größerer Sicherheit sprengen zu können, entwickelte er 1863 die Initialzündung. Bei Nobels Experimenten mit Nitroglycerin kam es zu mehreren Explosionen; bei einer Explosion 1864, bei der sein Laboratorium zerstört wurde, kamen sein Bruder Emil und vier weitere Personen ums Leben. Aufgrund der Gefährlichkeit verboten die schwedischen Behörden ihm weitere Experimente mit Nitroglycerin innerhalb Stockholms, so dass Nobel im Jahre 1865 ein Labor und Fabriken an den Vinterviken am Mälaren im Westen Stockholms verlegte. Eine ähnliche Anlage baute er in Deutschland bei Krümmel (Schleswig-Holstein) nahe Hamburg. Noch im gleichen Jahr gelang ihm die Massenproduktion von Nitroglycerin, bei der es jedoch ebenfalls zu einer Reihe schwerer Unfälle kam. Entdeckung der Handhabungssicherheit von Nitroglycerin. Um die Gefährlichkeit des Nitroglycerins bei gleich bleibender Sprengkraft zu verringern, experimentierte Nobel erfolglos mit verschiedenen Zusatzstoffen. Der Legende nach half schließlich der Zufall: 1866 kam es bei einem der zahlreichen Transporte von Nitroglycerin zu einem Zwischenfall, bei dem eines der Transportgefäße undicht wurde und reines Nitroglycerin auf die mit Kieselgur ausgepolsterte Ladefläche des Transportwagens tropfte. Die entstandene breiige Masse erregte die Aufmerksamkeit der Arbeiter, so dass sie diesen Vorfall später an Nobel meldeten. Diesem gelang hierdurch endlich die ersehnte Herstellung eines handhabungssichereren Detonationssprengstoffes. Nobel selbst bestritt immer, es habe sich um eine Zufallsentdeckung gehandelt. Er ließ sich das im Mischungsverhältnis von 3:1 optimierte Verfahren 1867 patentieren und nannte sein Produkt Dynamit. Da der Bedarf an einem sichereren und trotzdem wirkungsvollen Sprengstoff zu dieser Zeit auch infolge der Blütezeit des Diamantenfiebers groß war, konnte Nobel durch seine Erfindung schnell ein Vermögen aufbauen. Seine Firmen lieferten Nitroglycerin-Produkte nach Europa, Amerika und Australien. Nobel selbst reiste ständig, um seine Produkte zu verkaufen. Er besaß über 90 Dynamit-Fabriken in aller Welt. Umzug nach Italien. Neben seinen Reisen forschte Nobel auch weiterhin mit Sprengstoffen. 1875 entwickelte er die Sprenggelatine, 1887 ließ er sich das Ballistit (rauchschwaches Pulver) patentieren. Nobel bot die Erfindung erst der französischen Regierung an, die jedoch ablehnte, da sie Aussicht auf ein bereits in der Entwicklung befindliches fast rauchfreies Pulver hatte. Daraufhin bot Nobel die Erfindung den Italienern an, die diese sofort kauften. In Frankreich wurde Nobel daraufhin in der Presse mit Spionage in Verbindung gebracht, er wurde verhaftet und seine Erlaubnis, Experimente durchzuführen, wurde ihm entzogen. Infolge dieser Ereignisse zog Nobel 1891 nach Sanremo, kaufte dort eine 1870 erbaute Villa und verbrachte hier den Rest seines Lebens. Nobels Einstellung zum Krieg. Nobels wichtigste Erfindungen, Dynamit und Sprenggelatine, waren entgegen weit verbreiteter Ansicht nicht zur Kriegsführung geeignet. Nur das rauchschwache Pulver Ballistit ist eine Ausnahme. Es revolutionierte die gesamte Schusstechnik, von der Pistole bis zur Kanone. Der Reichtum seines Vaters begründete sich vor allem auf dem Krimkrieg und dem Sezessionskrieg, an denen dieser mit der Herstellung von Minen verdient hatte. Nobel hasste den Krieg und war der Meinung, eine besonders starke und schreckliche Vernichtungswaffe würde die Menschheit vom Krieg abschrecken. Mit den neuen Sprengstoffen wollte er das Schwarzpulver revolutionieren und das Werk seines Vaters verbessern. Aber auch sein Forscherdrang trug zu dieser Entwicklung bei. 1894 kaufte er sogar den schwedischen Rüstungsbetrieb Bofors. Über diese Ansichten diskutierte er auch intensiv mit Bertha von Suttner, die 1876 auf Nobels Stellenanzeige die Stelle einer Privatsekretärin angenommen hatte, sie jedoch bereits eine Woche später wieder aufgab. Sie wurde später eine bedeutende Friedensaktivistin. Vermutlich prägte der ständige Briefwechsel mit ihr wesentlich Nobels spätere Haltung zum Krieg und regte ihn zur Stiftung eines Friedensnobelpreises an, mit dem Bertha von Suttner 1905 ausgezeichnet wurde. Stiftung des Nobelpreises. Testament Alfred Nobels vom 27. November 1895 (erste Seite) Da Nobel kinderlos blieb, veranlasste er, dass mit seinem Vermögen von etwa 31,2 Millionen Kronen eine Stiftung gegründet werden sollte. Ein Jahr vor seinem Tod setzte er in Anwesenheit einiger Freunde, aber ohne Anwalt, am 27. November 1895 sein Testament auf. Den größten Teil seines Vermögens, ungefähr 94 % des Gesamtvermögens, führte er der Stiftung zu. Nobel bestimmte, dass die Zinsen aus dem Fonds jährlich als Preis an diejenigen ausgeteilt werden sollen, „die im vergangenen Jahr der Menschheit den größten Nutzen erbracht haben“, und zwar zu gleichen Teilen an Preisträger auf fünf Gebieten: Physik, Chemie, Physiologie oder Medizin, Literatur und Frieden („ein Teil an denjenigen, der am meisten oder am besten auf die Verbrüderung der Völker und die Abschaffung oder Verminderung stehender Heere sowie das Abhalten oder die Förderung von Friedenskongressen hingewirkt hat“). Nobel betonte, dass die Nationalität keine Rolle spielen dürfe, vielmehr solle der Würdigste den Preis erhalten. Nobel legte hier auch fest, wer für die Vergabe der Preise zuständig sein sollte: Die Königlich Schwedische Akademie der Wissenschaften (Nobel war seit 1884 deren Mitglied) vergibt die Auszeichnungen für Physik und Chemie, das Karolinska-Institut den Nobelpreis für Physiologie oder Medizin und die Schwedische Akademie den Nobelpreis für Literatur. Während es sich bei diesen Institutionen um wissenschaftliche handelt, ist für die Vergabe des Friedensnobelpreises das Norwegische Nobelpreiskomitee zuständig, eine vom norwegischen Parlament bestimmte Kommission. Die Gründung der "Nobel-Stiftung" erfolgte 1900. Im Jahr darauf, an Nobels fünftem Todestag, wurden die Nobelpreise erstmals verliehen. Nobel als Theaterautor. In seinem letzten Lebensjahr verfasste Alfred Nobel das Theaterstück "Nemesis", eine Tragödie in vier Akten über Beatrice Cenci, in Anlehnung an die von Percy Bysshe Shelley in Versform verfasste Tragödie "The Cenci". Es wurde gedruckt, als er bereits im Sterben lag. Der gesamte Bestand wurde jedoch gleich nach seinem Tod bis auf drei Exemplare vernichtet, da man es als skandalös und blasphemisch empfand. Erst 2003 wurde das Buch veröffentlicht, und zwar in einer zweisprachigen Ausgabe auf Schwedisch und Esperanto. Mittlerweile liegen Übersetzungen ins Slowenische (2004), Italienische (2005), Französische (2008) und Spanische (2008) vor. Arithmetisches Kodieren. Das arithmetische Kodieren ist eine Form der Entropiekodierung, die unter anderem zur verlustfreien Datenkompression eingesetzt wird. Dieser Artikel beschreibt nur, wie man mit einem gegebenen Satz von Zeichen-Wahrscheinlichkeits-Paaren einzelne Zeichen so kodieren kann, dass man eine möglichst kleine mittlere Wortlänge benötigt. Dabei ist durch die Entropie (mittlerer Informationsgehalt) eine untere Schranke gegeben (Quellencodierungstheorem). Das immer zu einem Entropiekodierer gehörende Modell der Zeichen-Wahrscheinlichkeiten ist unter Modell beschrieben. Zu den Begründern zählt Jorma Rissanen Ende der 1970er und Anfang der 1980er Jahre. Grundprinzip. Das Verfahren funktioniert theoretisch mit unendlich genauen reellen Zahlen, auch wenn in den eigentlichen Implementierungen dann wieder auf endlich genaue Integer-, Festkomma- oder Gleitkommazahlen zurückgegriffen werden muss. Dies führt aber immer dazu, dass gerundet werden muss und somit das Ergebnis nicht mehr optimal ist. Die Eingaben für den arithmetischen Kodierer werden im Folgenden als Symbol, ein Zeichen, bezeichnet. Die Ausgabe für den Kodierer ist eine reelle Zahl (hier mit "x" bezeichnet). Zuerst müssen sich Kodierer und Dekodierer auf ein Intervall einigen, in dem sich die Zahl x befinden soll. Normalerweise wird hier der Bereich zwischen 0 und 1 (exklusive) benutzt, also das halboffene Intervall formula_1. Außerdem müssen Kodierer und Dekodierer bei der De- bzw. Kodierung eines Zeichens immer identische Tabellen mit den Wahrscheinlichkeiten aller möglichen dekodierbaren Zeichen zur Verfügung haben. Für die Bereitstellung dieser Wahrscheinlichkeiten ist das Modell verantwortlich. Eine Möglichkeit ist, vor dem Kodieren speziell für die Eingabedaten eine Häufigkeitsanalyse zu erstellen und diese dem Dekodierer, zusätzlich zur eigentlichen Nachricht, mitzuteilen. Kodierer und Dekodierer verwenden dann für alle Zeichen diese Tabelle. Dekodierer. Bei diesem Algorithmus fällt auf, dass er nicht terminiert: Es ist allein an der Zahl x nicht erkennbar, wann das letzte Zeichen dekodiert wurde. Es muss dem Dekodierer also immer durch eine zusätzliche Information mitgeteilt werden, wann er seine Arbeit beendet hat. Dies wird üblicherweise in Form einer Längenangabe realisiert, kann aber auch (bspw. wenn bei der Kodierung nur ein einziger Datendurchlauf erwünscht ist) durch ein Sonderzeichen mit der Bedeutung „Ende“ geschehen. Die Intervallteilung. Die Subintervalle müssen so gewählt werden, dass Kodierer und Dekodierer die Größe und Position gleich bestimmen. Wie oben schon erwähnt, ergibt sich die Größe der Subintervalle aus den Wahrscheinlichkeiten der Zeichen. Die Anordnung (Reihenfolge) der Intervalle dagegen ist für die Qualität des Algorithmus nicht von Bedeutung, sodass man hier eine beliebige Reihenfolge fest vorgeben kann. Diese ist Gegenstand einer Vereinbarung (z. B. alphabetische Ordnung). formula_5 und formula_6 sind die Grenzen des Intervalls. formula_7 ist die Länge des Intervalls, also formula_8. Die beiden Werte formula_9 und formula_10 sind die Summe der Wahrscheinlichkeiten aller Zeichen mit einem Code kleiner, bzw. kleiner gleich dem zu kodierenden Zeichen formula_11. Beispiel. In diesem Beispiel wird die Zeichenkette „AAABAAAC“ komprimiert. Zuerst wird für die Größe der Subintervalle die Häufigkeiten aller Zeichen benötigt. Der Einfachheit halber wird eine statische Wahrscheinlichkeit für alle Zeichen verwendet. Die optimale Bitzahl ergibt sich aus der Formel für die Entropie. Mit diesem Wert lässt sich errechnen, dass der Informationsgehalt der Zeichenkette 8,49 Bits entspricht. Nun zum Ablauf. Die folgende Tabelle zeigt die genauen Werte für die Subintervalle nach dem Codieren der einzelnen Zeichen. Die Grafik rechts veranschaulicht die Auswahl der Subintervalle noch einmal. Gespeichert wird eine beliebige, möglichst kurze Zahl aus dem letzten Intervall, also z. B. 0,336. Das entspricht zwischen 8 und 9 Bits. Die Huffman-Kodierung hätte für die gegebene Zeichenfolge dagegen 10 Bit benötigt (1 für jedes A und je 2 für B und C) Der Unterschied beträgt in diesem Beispiel 10 %. Der Gewinn wird größer, wenn die tatsächlich von der Huffman-Kodierung verwendete Bitzahl mehr von der optimalen abweicht, also wenn ein Zeichen extrem häufig vorkommt. Optimalität. Nachdem das letzte Symbol verarbeitet wurde erhält man ein Intervall formula_13 mit Das entspricht der Wahrscheinlichkeit, bei gegebenen Symbolwahrscheinlichkeiten formula_15, genau solch eine Sequenz zu erhalten. Um nun binär einen Wert im Intervall formula_13 anzugeben, benötigt man Das bedeutet, man benötigt mindestens so viele Bits wie die Entropie, höchstens jedoch zwei Bits mehr. Die mittlere Länge formula_24 eines kodierten Symbols ist beschränkt auf Vergleich zur Huffman-Kodierung. Die Huffman-Kodierung kann theoretisch eine optimale Kodierung erreichen, nämlich genau dann, wenn alle Symbolwahrscheinlichkeiten formula_27 sind. Praktisch ist dies kaum der Fall, so dass die arithmetische Kodierung meist effizienter kodiert. Implementierung. Da man bei einer konkreten Implementierung nicht mit unendlich genauen reellen Zahlen arbeiten kann, muss die konkrete Umsetzung des Algorithmus etwas anders erfolgen. Die maximale Genauigkeit der Zahlen ist im Allgemeinen fest vorgegeben (z. B. 32 Bits) und kann diesen Wert nicht überschreiten. Deshalb kann man einen Arithmetischen Kodierer nicht auf einem realen Computer umsetzen. Punkt 1 führt eigentlich dazu, dass der Algorithmus kein Arithmetischer Kodierer mehr ist, sondern nur ähnlich. Automobil. a> von 1886, das erste „moderne Automobil“ Ein Automobil, kurz Auto (auch Kraftwagen, in der Schweiz amtlich Motorwagen), ist ein mehrspuriges Kraftfahrzeug (also ein von einem Motor angetriebenes Straßenfahrzeug), das zur Beförderung von Personen (Pkw und Bus) und Frachtgütern (Lkw) dient. Umgangssprachlich – und auch in diesem Artikel – werden mit "Auto" meist Fahrzeuge bezeichnet, deren Bauart überwiegend zur Personenbeförderung bestimmt ist und die mit einem Pkw-Führerschein geführt werden dürfen. Der weltweite Fahrzeugbestand steigt kontinuierlich an und lag im Jahr 2010 bei über 1,015 Milliarden Automobilen. 2011 wurden weltweit über 80 Millionen Automobile gebaut. In Deutschland waren im Jahr 2012 etwa 51,7 Millionen Kraftfahrzeuge zugelassen, davon sind knapp 43 Millionen Pkw. Wortherkunft. "Automobil" ist ein substantiviertes Adjektiv. Es entstand Ende des 19. Jahrhunderts aus dem französischen Begriff für eine mit Pressluft betriebene Straßenbahn: "voiture automobile", selbstbewegender Wagen. Es ist abgeleitet aus griechisch "autós" ‚selbst‘ und lateinisch "mobilis" ‚beweglich‘ und diente zur Unterscheidung von den üblichen Landfahrzeugen, die damals von Pferden gezogen wurden. Um diese strenge Klassifizierung zu beleuchten, lässt er beispielsweise Forderung 2 weg und kommt damit „zu den sogenannten gleislosen Bahnen, die aus elektrischen Wagen bestehen, denen durch eine Oberleitung die Energie zugeführt wird.“ Im Englischen wird mit einem "automobile" bzw. "car" nur ein Pkw beschrieben. Eine Übersetzung im Sinne des zitierten von und zu Steinfurth gibt es im Englischen nicht; das in diesem Zusammenhang oft erwähnte Wort "motor vehicle" schließt auch Krafträder mit ein und ist demzufolge dem deutschen „Kraftfahrzeug“ gleichzusetzen. Geschichte. Im Jahr 1863 machte Étienne Lenoir mit dem Hippomobile eine 18 km lange Fahrt; es war das erste Fahrzeug mit einem Motor mit interner Verbrennung. Jedoch gilt das Jahr 1886 mit dem Benz Patent-Motorwagen Nummer 1 vom deutschen Erfinder Carl Benz als das Geburtsjahr des modernen Automobils mit Verbrennungsmotor, da es große mediale Aufmerksamkeit erregte und zu einer Serienproduktion führte. Allerdings handelt es sich dabei nach heutiger Gesetzgebung nicht um einen Personenkraftwagen, da er nur drei Räder besitzt. Zuvor bauten auch andere Erfinder motorisierte Gefährte mit ähnlichen oder gänzlich anderen Motorkonzepten. Motorisierte Wagen lösten in nahezu allen Bereichen die von Zugtieren gezogenen Fuhrwerke ab, da sie deutlich schneller und weiter fahren und eine höhere Leistung erbringen können. Durch diesen Vorteil steigerte sich seit der Erfindung des Automobils die Weite der zurückgelegten Strecken, u. a. deshalb wurde dem motorisierten Straßenverkehr immer mehr Raum zugestanden. Aufbau. Zu den wesentlichen Bestandteilen des Automobils gehören das Fahrwerk mit Fahrgestell und anderen Teilen, ferner Karosserie, Motor, Getriebe und Innenraum. Europäische Pkw bestehen zu über 54 % aus Stahl, die Hälfte davon hochfeste Stahlgüten. Sicherheit. Nach Zahlen der WHO sterben 1,2 Millionen Menschen jährlich an den direkten Folgen von Verkehrsunfällen. Die Sicherheit von Insassen und potenziellen Unfallgegnern von Kraftfahrzeugen ist unter anderem abhängig von organisatorischen und konstruktiven Maßnahmen sowie dem persönlichen Verhalten der Verkehrsteilnehmer. Zu den organisatorischen Maßnahmen zählen zum Beispiel Verkehrslenkung (Straßenverkehrsordnung mit Verkehrsschildern oder etwas moderner durch Verkehrsleitsysteme), gesetzliche Regelungen (Gurtpflicht, Telefonierverbot), Verkehrsüberwachung und straßenbauliche Maßnahmen. Die konstruktiven Sicherheitseinrichtungen moderner Automobile lassen sich grundsätzlich in zwei verschiedene Bereiche gliedern. Passive Sicherheitseinrichtungen sollen, wenn ein Unfall nicht zu vermeiden ist, die Folgen abmildern. Dazu zählen beispielsweise der Sicherheitsgurt, die Sicherheitskopfstütze, der Gurtstraffer, der Airbag, der Überrollbügel, deformierbare Lenkräder mit ausklinkbaren Lenksäulen, die Knautschzone, der Seitenaufprallschutz sowie konstruktive Maßnahmen zum Unfallgegnerschutz. Aktive Sicherheitseinrichtungen sollen einen Unfall verhindern oder in seiner Schwere herabsetzen. Beispiele hierfür sind das Antiblockiersystem (ABS) sowie das elektronische Stabilitätsprogramm (ESP). Zu den persönlichen Maßnahmen zählen Verhaltensweisen wie eine defensive Fahrweise, das Einhalten der Verkehrsvorschriften oder Training der Fahrzeugbeherrschung, beispielsweise bei einem Fahrsicherheitstraining. Diese sowie die Verkehrserziehung speziell für Kinder helfen das persönliche Unfallrisiko zu vermindern. Alle Maßnahmen zur Erhöhung der Verkehrssicherheit zusammen können dazu beitragen, dass die Zahl der bei einem Verkehrsunfall getöteten Personen reduziert wird. In den meisten Industrienationen sind die Opferzahlen seit Jahren rückläufig. In Europa spielen Verkehrsunfälle als Todesursache heute eine geringere Rolle als vor einigen Jahrzehnten, die Zahl der Todesopfer liegt unter den Zahlen der Drogentoten oder Suizidenten. So fielen in Deutschland, Österreich, den Niederlanden oder der Schweiz die Opferzahlen seit den 1970er-Jahren, trotz kaum rückläufiger Zahlen der Verkehrsunfälle, auf ein Drittel. 2011 ist in Deutschland die Zahl der Verkehrstoten zum ersten Mal seit 20 Jahren wieder gestiegen, in Österreich und der Schweiz allerdings auf dem historisch tiefsten Stand. Nach längerer freiwilliger Aktion wurde das Fahren mit eingeschaltetem Licht am Tag in Österreich am 15. November 2005 verpflichtend eingeführt und 2007 auch per Strafe eingefordert. Zum 1. Januar 2008 wurde die Lichtpflicht allerdings wieder abgeschafft. Ziel dieser Kampagne war es, die menschlichen Sinneseindrücke auf die Gefahrenquellen zu fokussieren und damit die Zahl der Verkehrstoten zu verringern. Schätzungen des Bundesministeriums zufolge wurden jährlich 15 Verkehrstote weniger erwartet. Allerdings zeigte sich nicht der erwartete Effekt, da vermehrt die Aufmerksamkeit von unbeleuchteten Gefahrenquellen (Hindernisse oder andere Verkehrsteilnehmer etwa Fußgänger) weg zu den bewegten und beleuchteten Fahrzeugen gelenkt wurde. Auch in Norwegen wurden in den Jahren nach der Einführung der Lichtpflicht 1985 deutlich mehr Verkehrstote gezählt als in den Jahren davor. Trotzdem wird in einigen Ländern (etwa Deutschland) weiterhin die Einführung einer solchen Maßnahme in Erwägung gezogen. Autonomes Fahren. Sowohl Automobilbauer und Zulieferbetriebe als auch Unternehmen aus der IT-Branche (insbesondere Google) forschen und entwickeln am autonom fahrenden Kraftfahrzeug (meist Pkw).. Erfahrungen amerikanischer Autoversicherungen würden nahelegen, dass bereits die Anzeigen der Assistenz-Sensorik das Unfallrisiko senken können. Auch wird die Ansicht vertreten, dass ein gewisses Maß an Unsicherheit den Erfolg autonomer Automobile nicht verhindern wird. Das „Wiener Übereinkommen über den Straßenverkehr“ von 1968 verbot lange Zeit autonome Automobile, wurde jedoch Mitte Mai 2014 von der UN geändert, so dass Davor schrieb es unter anderem vor, dass jedes in Bewegung befindliche Fahrzeug einen Fahrer haben und dieser das Fahrzeug auch beherrschen muss. Zu klären sind insbesondere Fragen bezüglich des Haftungsrechts bei Unfällen, wenn technische Assistenzsysteme das Fahren übernehmen. Im bisher dem Fortschritt zugeneigten Kalifornien, das lange Zeit liberale Regelungen für autonome Automobile hatte, wurde 2014 die gesetzliche Situation jedoch verschärft – jetzt muss immer ein Mensch am Steuer sitzen, der „jederzeit eingreifen kann“. Durch diese Möglichkeiten kann Carsharing bequemer und günstiger werden, und mehr Menschen würden wohl auf einen eigenen Pkw verzichten. Im Mai 2014 gab Google bekannt, dass 100 Testfahrzeuge gebaut werden sollen. Dabei soll auf Lenkrad, Bremse und Gaspedal verzichtet werden. Die Fahrzeuge sind Elektroautos. Die Fahrzeuge sollen nicht in Privatbesitz wechseln, sondern quasi als führerlose Taxis bzw. Transportkapseln dienen. In einem Video zeigt Google wie Privatperson den Prototyp testen. Google vereint damit die neuen Prinzipien Elektroauto, autonomes Fahren und Car-Sharing. Einer Studie des Bundesministeriums für Wirtschaft und Energie zufolge rechnet man damit, dass zumindest die Automatisierung einiger Fahrfunktionen bis spätestens 2020 technisch realisierbar sein werden, während fahrerlose Fahrzeuge auf öffentlichen Straßen erst weit später zu erwarten seien. Kosten für den Fahrzeughalter. Die Gesamtbetriebskosten eines Autos setzen sich zusammen aus Fixkosten (auch „Unterhaltskosten“ genannt) und variablen Kosten (auch „Betriebskosten“ genannt), hinzu kommt der Wertverlust des Autos. Die Kosten werden von vielen Menschen unterschätzt. Fixkosten. Die Fixkosten fallen unabhängig von der jährlichen Kilometerleistung an. Sie setzen sich im Wesentlichen zusammen aus der Kraftfahrzeugsteuer sowie den obligatorischen Kraftfahrzeug-Haftpflichtversicherungen sowie sporadisch vorgeschriebenen Technischen Prüfungen. Daneben können freiwillige Zusatzversicherungen abgeschlossen werden wie eine Kaskoversicherung sowie weitere Versicherungen sowie zusätzliche versicherungsähnliche Leistungen, welche die Automobilclubs bei einer Mitgliedschaft anbieten. Betriebskosten. Die Betriebskosten hängen von der jährlichen Kilometerleistung ab. Sie setzen sich zusammen aus dem Kraftstoffverbrauch, dem Ersatz von Verschleißteilen (insbesondere Autoreifen), der Fahrzeugreinigung sowie weitere Wartung und allenfalls außerplanmäßigen Reparaturen. Die Wartung ist je nach Zeit und Kilometern erforderlich. Typische Zeitintervalle liegen bei 1 bis 2 Jahren, typische Kilometerintervalle bei 10.000 km bis 30.000 km. Werden die Wartungsintervalle nicht eingehalten, kann dies außerdem zu Schwierigkeiten mit Garantieansprüchen bei Defekten führen. Nicht direkt kilometerabhängig sind die anfallenden Park- und Mautgebühren. Anschaffungskosten. Der Kaufpreis verringert sich sofort als Wertverlust auf den jeweiligen, zeitabhängigen Verkehrswert während beim Leasing ein ähnlicher Verlust durch Zinszahlungen entsteht. Beispielwerte. Statistisches Bundesamt und ADAC veröffentlichen vierteljährlich einen Autokosten-Index. Dieser gibt an, um wie viel Prozent sich verschiedene Kostenbestandteile verteuert oder verbilligt haben. Unabhängig von der Fahrleistung fallen Fixkosten und Wertverlust bzw. Reparaturkosten von – in Abhängigkeit von der Fahrzeugklasse – etwa 200 Euro im Monat an. Bei jährlicher Fahrleistung von 15.000 Kilometern bzw. 30.000 Kilometern ist mit monatlichen Gesamt-Betriebskosten von über 320 Euro bzw. über 430 Euro zu rechnen. Von der Allgemeinheit getragene Kosten. Der Pkw-Verkehr bringt externe Kosten, insbesondere im Bereich Umweltverschmutzung und Unfallfolgekosten, mit sich. Viele der dabei betrachteten Größen sind kaum bzw. nur sehr ungefähr zu quantifizieren, weshalb verschiedene Publikationen zum Thema unterschiedlich hohe externe Kosten benennen. Gemäß Umweltbundesamt betrugen die externen Kosten im Straßenverkehr in Deutschland im Jahr 2005 insgesamt 76,946 Mrd. Euro, wovon 61,2 Mrd. auf den Personen- und 15,8 Mrd. auf den Güterverkehr entfielen. Die Unfallkosten machten dabei 52 % (entspricht 41,7 Mrd. Euro) der externen Kosten aus. Das Umweltbundesamt berechnete 2007, dass Pkw in Deutschland durchschnittlich etwa 3 Cent pro Kilometer an Kosten für Umwelt und Gesundheit verursachen, die hauptsächlich durch Luftverschmutzung entstehen. Das ergibt rechnerisch Kosten von 3000 Euro für einen Pkw mit 100.000 Kilometern Laufleistung. Für Lkw betragen diese Kosten sogar 17 Cent pro Kilometer. Diese externen Kosten werden nicht oder nur teilweise durch den Straßenverkehr getragen, sondern u. a. durch Steuern sowie Krankenkassen- und Sozialversicherungsbeiträge finanziert. Die Kostenunterdeckung des Straßenverkehrs (also alle durch den Straßenverkehr direkt und indirekt verursachten Kosten abzüglich aller im Zusammenhang mit dem Straßenverkehr geleisteten Steuern und Abgaben) beziffert das Umweltbundesamt für das Jahr 2005 auf rund 60 Mrd. Euro. Der österreichische Pkw-Verkehr trug im Jahr 2000 nur einen Teil der von ihm verursachten Kosten: Ein großer Teil der Kosten für die Errichtung und Erhaltung der Straßen sowie der Sekundärkosten wie Unfall- und Umweltkosten (Lärm, Luftschadstoffe) aller Verkehrsteilnehmer werden von der Allgemeinheit übernommen. Während der Pkw-Verkehr für 38 % der durch ihn verursachten Kosten aufkam, trugen Busse die eigenen Kosten zu 10 % und Lkw zu 21 %. Wirtschaft. Der Pkw-Verkehr ist Forschungsgegenstand der Volkswirtschaft, namentlich der Verkehrswissenschaft. Das Automobil als industrielles Massenprodukt hat den Alltag der Menschheit verändert. Seit dem Beginn des 20. Jahrhunderts hat es mehr als 2.500 Unternehmen gegeben, die Automobile produzierten. Viele Unternehmen, die im 19. Jahrhundert Eisenwaren oder Stahl produzierten, fingen Mitte des Jahrhunderts mit der Fertigung von Waffen oder Fahrrädern an und entwickelten so die Kenntnisse, die Jahrzehnte später im Automobilbau benötigt wurden. Heute gibt es – noch oder wieder – viele kleine Betriebe, die als Automanufaktur – zumeist exklusive – Fahrzeuge produzieren, beispielsweise Morgan (GB). "Siehe auch: Automobilindustrie und Liste der Automobilmarken" Verkehr. Personenkraftwagen in Deutschland seit 1975 Personenkraftwagen in der Schweiz seit 1910 Die Bedeutung des Automobils basiert neben der vergleichsweise hohen physischen Leistungsfähigkeit des Systems auch auf der hohen Freizügigkeit in den Nutzungsmöglichkeiten bezüglich der Transportaufgaben und der Erschließung räumlicher bzw. geografischer Bereiche. Bis ins 19. Jahrhundert gab es nur wenige Fortbewegungsmittel, zum Beispiel die Kutsche oder das Pferd. Die Verbreitung der Eisenbahn steigerte zwar die Reisegeschwindigkeit, aber man war an Fahrpläne und bestimmte Haltepunkte gebunden. Mit dem Fahrrad stand ab Ende des 19. Jahrhunderts erstmals ein massentaugliches Individualverkehrsmittel zur Verfügung, allerdings ermöglichte erst das Automobil individuelle motorisierte Fortbewegung sowie den flexiblen und schnellen Transport auch größerer Lasten. In den 1960er Jahren herrschte eine regelrechte Euphorie, woraus eine vorherrschende Meinung entstand, der gesamte Lebensraum müsse der Mobilität untergeordnet werden („Autogerechte Stadt“). Schon in den 1970er Jahren wurden einige solche Projekte jedoch gestoppt. Die Emissionen aus dem Verkehr steigen auch im Jahre 2011 immer noch und im Gegensatz zu den Brennstoffen können die vereinbarten Ziele zum Klimaschutz bei den Treibstoffen (in der Schweiz) nicht erfüllt werden. Insgesamt waren zum 1. Januar 2004 49.648.043 Automobile in Deutschland zugelassen. Im Vergleich mit Fußgängern und Fahrrädern, aber auch mit Bussen und Bahnen hat das Auto einen höheren Platzbedarf. Insbesondere in Ballungsgebieten führt dies zu Problemen durch Staus und Bedarf an öffentlichen Flächen, wodurch sich einige der Vorteile des Automobils auflösen. Der Güterverkehr auf der Straße ist ein elementarer Bestandteil der heutigen Wirtschaft. So erlaubt es die Flexibilität der Nutzfahrzeuge, leicht verderbliche Waren direkt zum Einzelhandel oder zum Endverbraucher zu bringen. Mobile Baumaschinen übernehmen heute einen großen Teil der Bauleistungen. Die Just-in-time-Produktion ermöglicht einen schnelleren Bauablauf. Beton wird in Betonwerken gemischt und anschließend mit Fahrmischern zur Baustelle gebracht, mobile Betonpumpen ersparen den Gerüst- oder Kranbau. Umwelt und Gesundheit. Der massenhafte Betrieb von Verbrennungsmotoren in Autos führt zu Umweltproblemen, einerseits lokal durch Schadstoffemissionen, die je nach Stand der Technik vielfach vermeidbar sind, und andererseits global durch den systembedingten CO2-Ausstoß, welcher zur Klimaerwärmung beiträgt. Die Luftverschmutzung durch die Abgase der Verbrennungsmotoren nimmt, gerade in Ballungsräumen, oft gesundheitsschädigende Ausmaße an (Smog, Feinstaub). Die Kraftstoffe der Motoren beinhalten giftige Substanzen wie Xylol, Toluol, Benzol sowie Aldehyde. Noch giftigere Bleizusätze sind zumindest in Europa und den USA nicht mehr üblich. Auch der überwiegend vom Automobil verursachte Straßenlärm schädigt die Gesundheit. Hinzu kommt, dass das Autofahren, besonders über längere Zeit, teilweise mit Bewegungsmangel verbunden sein kann. Der Verbrauch von Mineralöl, einem fossilen Energieträger zum Betrieb konventioneller Automobile erzeugt einen CO2-Ausstoß und trägt damit zum Treibhauseffekt bei. Nach Planungen der EU-Kommission sollen bis zum Jahr 2050 Autos mit Verbrennungskraftmaschinenantrieb aus den Innenstädten Europas gänzlich verbannt werden. Der Flächenverbrauch für Fahrzeuge und Verkehrswege verringert den Lebensraum für Menschen, Tiere und Pflanzen. Das Platz- und Parkplatzproblem der Ballungsgebiete zeigte sich bereits in den 1920er Jahren und schon 1929 verfolgte der deutsche Ingenieur und Erfinder Engelbert Zaschka in Berlin den Ansatz des zerlegbaren Zaschka-Threewheelers (Faltauto). Dieses Stadtauto-Konzept hatte das Ziel, kostengünstig und raumsparend zu sein, indem sich das Fahrzeug nach Gebrauch zusammenklappen ließ. Die Fertigung des Automobils verbraucht darüber hinaus erhebliche Mengen an Rohstoffen, Wasser und Energie. Greenpeace geht von einem Wasserverbrauch von 20.000 l für einen Mittelklassewagen aus. Die Zeitschrift Der Spiegel berechnet für die Herstellung eines Pkw der oberen Mittelklasse (etwa: Mercedes E-Klasse) gar 226.000 l Wasser. Die Wasserwirtschaft sieht branchenpositive 380.000 l für ein Fahrzeug als notwendig an. Das Automobil wird derzeit (2013) zu 85 Prozent recycelt und zu 95 Prozent verwertet (metallische Bestandteile: Recyclingquote 97 Prozent). Einen Überblick zur Umweltfreundlichkeit von jeweils aktuellen Pkw-Modellen veröffentlicht der Verkehrsclub Deutschland (VCD) jährlich in der Auto-Umweltliste. Zu den Gefahren des Kraftfahrzeugverkehrs beziehungsweise zu den durch dessen Umwelteinwirkungen verursachten Kosten siehe die Kapitel "Sicherheit" bzw. "Externe Kosten". Soziale Auswirkungen. Die gesamte kindliche Entwicklung wird beeinflusst. Pkw-Verbrauchskennzeichnungsverordnung. Seit 1. Dezember 2011 sind in Deutschland Neuwagen mit einer Energieverbrauchskennzeichnung zu versehen. Die Klassen reichen von A+ bis G. Der Verbrauch wird auf das Fahrzeuggewicht bezogen, womit Vergleiche nur innerhalb einer Gewichts-Klasse möglich sind. Dass ein leichterer Wagen bei gleicher Benotung weniger Energie für einen Transport benötigt als ein schwererer Wagen, ist an dem Label nicht erkennbar. Interessenverbände in Deutschland. In Deutschland sind eine Reihe von Verbänden entstanden, die anfangs Dienstleistungen für Autofahrer auf Gegenseitigkeit organisierten, vor allem Pannenhilfe. Heute arbeiten sie zunehmend auch als Lobby-Verbände und vertreten die Interessen der Autofahrer und der Automobilindustrie gegenüber Politik, Industrie und Medien. Bereits 1899 wurde der Automobilclub von Deutschland (AvD) gegründet, der ein Jahr später die erste Internationale Automobilausstellung organisierte. 1911 war der "Allgemeine Deutsche Automobil-Club", der ADAC, aus der 1903 gegründeten "Deutschen Motorradfahrer-Vereinigung" entstanden. Er ist heute mit 15 Millionen Mitgliedern Europas größter Club. Weitere Verbände in Deutschland sind der Auto Club Europa (ACE), der 1965 von Gewerkschaften gegründet wurde, sowie seit 1986 der ökologisch orientierte Verkehrsclub Deutschland (VCD), der zusätzlich auch die Interessen von anderen Verkehrsteilnehmern (Radfahrer, Fußgänger, ÖPNV-Benutzer) vertritt. Die Interessen der Automobilhersteller und deren Zulieferunternehmen vertritt der Verband der Automobilindustrie (VDA). Neue Entwicklungen. Zu den neuen Entwicklungen gehören alternative Antriebe wie das Elektroauto (s.a. Elektrofahrzeug). Eine weitere Entwicklung ist das autonome Fahren (s. Autonomes Landfahrzeug). Durch Carsharing wechselt ein Auto vom Privatbesitz in einen Gemeinschaftsbesitz. Experimentell entwickelt werden zudem Prototypen von Flugautos. Adam Ries. Adam Ries (oft in der flektierten Form Adam Riese; * 1492 oder 1493 in Staffelstein, Fürstbistum Bamberg; † 30. März oder 2. April 1559 vermutlich in Annaberg oder Wiesa) war ein deutscher Rechenmeister. Bekannt wurde er durch sein Lehrbuch "Rechenung auff der linihen und federn...", das bis ins 17. Jahrhundert mindestens 120-mal aufgelegt wurde. Bemerkenswert ist, dass Adam Ries seine Werke nicht – wie damals üblich – in lateinischer, sondern in deutscher Sprache schrieb. Dadurch erreichte er einen großen Leserkreis und konnte darüber hinaus auch zur Vereinheitlichung der deutschen Sprache beitragen. Adam Ries gilt als der „Vater des modernen Rechnens“. Er hat mit seinen Werken entscheidend dazu beigetragen, dass die römische Zahlendarstellung als unhandlich erkannt und weitgehend durch die nach dem Stellenwertsystem strukturierten indisch-arabischen Zahlzeichen ersetzt wurde. Sein Name ist aus der Redewendung „Nach Adam Riese“ allgemein bekannt. Staffelstein. Adam Ries stammte aus Staffelstein, in der Vorrede zu seiner „Coß“ gibt er selbst darüber Auskunft. Sein Vater Contz Ries war der Besitzer der dortigen Stockmühle, seine Mutter dessen zweite Frau Eva Kittler. Das Geburtsjahr ist nicht eindeutig zu bestimmen. Die Umschrift auf dem einzig bekannten zeitgenössischen Porträt des Rechenmeisters lautet: "ANNO 1550 ADAM RIES SEINS ALTERS IM LVIII". Wenn er demnach im Jahr 1550 im 58. Lebensjahr war, muss er 1492 oder 1493 geboren worden sein, je nachdem, wann er das 58. Lebensjahr vollendet hat. Die ersten Jahrzehnte nach der Geburt Ries’ sind nicht dokumentiert, sodass nicht bekannt ist, welche Schule er besucht hat. Auch findet sich in den Matrikeln der damals bereits bestehenden Universitäten kein Hinweis auf ein Studium des späteren Rechenmeisters. 1509 hielt er sich mit seinem jüngeren Bruder Conrad in Zwickau auf, der dort die Lateinschule besuchte. Die älteste bekannte urkundliche Erwähnung Adam Ries stammt vom 22. April 1517, als er vor dem Staffelsteiner Rat wegen einer Erbstreitigkeit erschien. Erfurt. 1518 ging Ries nach Erfurt, wo er eine Rechenschule leitete. In Erfurt verfasste er zwei seiner Rechenbücher und ließ sie drucken. Annaberg. 1522 zog es ihn in die junge, vom Silbererzbergbau geprägte Stadt Annaberg, in der er den Rest seines Lebens verbrachte. In der Johannisgasse eröffnete er eine private Rechenschule. Das Haus beherbergt heute das Adam-Ries-Museum. 1524 beendete Ries die Arbeiten am Manuskript der "Coß", einem mehr als 500 Seiten umfassenden Lehrbuch der Algebra ("Coß" ist der im Mittelalter übliche Name für die Variable bzw. Unbekannte). Die "Coß" ist ein Bindeglied zwischen der mittelalterlichen und der heutigen Algebra. Das Manuskript war sowohl seinen Söhnen und Schülern als auch anderen mathematisch interessierten Personen aus seinem Umfeld zugänglich, es wurde seinerzeit aber nicht publiziert. Der Druck hätte enorme Kosten verursacht und andere deutsche Mathematiker publizierten vergleichbare Darstellungen zwischen 1520 und 1550. So wurde das vollständige Manuskript erstmals 1992 gedruckt. Im Traubuch der Annaberger St.-Annen-Kirche wurde 1525 die Vermählung mit Anna Leuber vermerkt, einer Tochter des Freiberger Schlossermeisters Andreas Leuber: „Adam Reyeß Anna Filia Anders lewbers vo Freybergk“. Im selben Jahr legte er den Bürgereid ab. Sein Brot verdiente er zunächst als Rezessschreiber mit Abrechnungen für die einzelnen Erzgruben, später prüfte er als Gegenschreiber diese Abrechnungen und sorgte als Zehntner dafür, dass der Landesherr seinen Anteil am Gewinn erhielt. Ries übernahm verantwortliche Tätigkeiten in der sächsischen Bergverwaltung. Besondere Bedeutung hatte in der Zeit des aufblühenden Bergbaus die Versorgung der rasch zunehmenden Bevölkerung mit Lebensmitteln, insbesondere mit Brot. Brot hatte Festpreise: Es wurden Groschenbrote, Zweigroschenbrote und Pfennigsemmeln verkauft. Die Schwankungen der Getreidepreise wurden mit unterschiedlich großen Brotlaiben berücksichtigt. Im Auftrag der Stadt Annaberg erarbeitete Ries die sogenannte „Annaberger Brotordnung“ zum Schutz der Bevölkerung. 1539 erwarb er die nach ihm benannte „Riesenburg“, ein Vorwerk außerhalb der Stadt, dessen Gebäude den Namen noch heute tragen. Im Jahr 1550 erschien sein letztes Werk im Druck. Adam Ries starb 1559, die überlieferten Angaben differieren zwischen dem 30. März und 2. April. Auch der genaue Sterbeort ist nicht bekannt, Annaberg oder Wiesa. Zeitgenössische Schreibweisen. Da die Schreibweise von Namen damals nicht so festgelegt war wie heute, sind als zeitgenössische Schreibweisen neben "Ries" auch "Ris", "Rise", "Ryse" und sogar "Reyeß" bekannt. „Nach Adam Riese“. Im heutigen Sprachgebrauch finden sich die beiden Namensformen "Ries" und "Riese". Die Form "Riese" wird auch in der Redewendung „Nach Adam Riese“ verwendet. Sie ist ein grammatisches Relikt aus der Zeit des Mathematikers, als auch Personennamen dekliniert wurden: Im Dativ wurde dem Namen "Ries" die Flexionsendung "-e" angefügt. Diese alte Flexionsendung wird heute oft nicht mehr als solche erkannt. Werk. auff den Linihen vnd Feder.", Titelblatt des Erstdrucks aus dem Jahr 1550 Ries schrieb seine Bücher in deutscher Sprache. Das förderte ihre Verbreitung im deutschsprachigen Raum und lieferte einen Beitrag zur Vereinheitlichung der deutschen Sprache. 1524 beendete Ries die Arbeiten am Manuskript der "Coß", einem mehr als 500 Seiten umfassenden Lehrbuch der Algebra. Nachkommen. Mit seiner Frau Anna zeugte er mindestens acht Kinder. Drei der fünf Söhne, Adam, Abraham und Jacob, waren zeitweilig als Rechenmeister in Annaberg tätig. Während Abraham und Jacob 1604 in ihrer Heimat starben, soll Adam sich im Harz niedergelassen haben. Den vierten Sohn, Isaac, zog es nach Leipzig, wo er unter anderem als Visierer (Eichmeister) tätig war. Paul, der fünfte Sohn, wurde Gutsbesitzer und Richter in Wiesa. Die drei Töchter Eva, Anna und Sybilla heirateten jeweils in Annaberg. Die Nachkommen von Adam Ries sind Gegenstand ständiger, ausführlicher genealogischer Forschung. Noch heute lebt eine Vielzahl von Adam-Ries-Nachfahren im Obererzgebirge. Der "Adam-Ries-Bund" hat es sich zur Aufgabe gemacht, sämtliche Nachkommen von Adam Ries zu ermitteln, und weist in seiner ständig aktualisierten Datenbank bislang mehr als 20.000 direkte Nachkommen auf. Denkmale. Adam-Ries-Denkmal an der St. Trinitatiskirche in Annaberg-Buchholz, 2001 Sonstige. Am 18. August 1997 wurde der Asteroid (7655) Adamries nach ihm benannt. Archaeopteryx. "Archaeopteryx" (aus ' „uralt“ und ' „Flügel, Feder, Schwinge“; sinngemäß „uralte Schwinge“ oder „Urschwinge“) ist eine Gattung der Archosaurier, deren Fossilien in der Fränkischen Alb in den Solnhofener Plattenkalken aus dem Oberjura entdeckt wurden. "Archaeopteryx" gilt als Übergangsform, die zwischen theropoden Dinosauriern und den Vögeln vermittelt. Da der etwa taubengroße "Archaeopteryx" in der Regel den Vögeln als ursprungsnahe Form zugerechnet wird, bezeichnet man die Gattungsmitglieder auch als Urvögel. "Archaeopteryx" wurde im Jahr 1861 von Hermann von Meyer auf der Grundlage eines isolierten Federabdrucks erstmals beschrieben. Das erste Skelettexemplar (das sogenannte Londoner Exemplar) wurde schon im selben Jahr entdeckt und ist in der Erstveröffentlichung erwähnt. Bis heute folgten mindestens 11 weitere, unterschiedlich vollständige Skelettfunde. Merkmale. Die Gattung "Archaeopteryx" zeigt ein Mosaik aus (für Vögel) urtümlichen, das heißt reptilienhaften Merkmalen, die später von den modernen Vögeln (Neornithes) abgelegt wurden, und abgeleiteten, das heißt vogeltypischen Merkmalen (die jedoch nach gegenwärtigem Kenntnisstand nur noch zum Teil als allein charakteristisch für Vögel gelten). Urtümlich sind unter anderem das Vorhandensein von Zähnen und Bauchrippen (Gastralia), eine lange Schwanzwirbelsäule, eine relativ geringe Zahl unverschmolzener Beckenwirbel (Sakralia), unverschmolzene Mittelhand-, Mittelfuß- und Fußwurzel- und Beckenknochen, die drei Fingerklauen sowie das Fehlen eines knöchernen Brustbeins. Zu den vogeltypischen Merkmalen kann man die modern anmutenden asymmetrischen Schwungfedern zählen, außerdem die zu einem Gabelbein verschmolzenen Schlüsselbeine und die rückwärts oder seitlich-rückwärts orientierte erste Zehe (Hallux) des Fußes (anisodactyler Vogelfuß). Deutung. Die Vogel-Charakteristika des Urvogels sind auch für manche gefiederten Dinosaurier belegt oder, wie im Fall der revertierten ersten Zehe des "Archaeopteryx", nicht unangefochten. Deshalb sehen manche Paläontologen den Urvogel nicht als wesentlich vogelähnlicher an als manche theropoden Dinosaurier, die nicht den Vögeln zugerechnet werden (z. B. "Microraptor"). Innerhalb der letzten 20 Jahre sind eine Vielzahl von Fossilien urtümlicher Vögel und vogelähnlicher Dinosaurier entdeckt worden, besonders in Sedimentgesteinen der Unterkreide von Nordostchina (der Jehol-Gruppe). Somit steht "Archaeopteryx" als Mosaikform nicht allein, sondern lässt sich in eine (morphologische, nicht zeitliche) Abfolge von Dinosauriern einordnen, die den Vögeln sukzessive ähnlicher werden. Vertreter der Hypothese, der Schlagflug der Vögel sei aus dem Gleitflug von einem erhöhten Punkt herab entstanden, interpretieren die Krallen des "Archaeopteryx" als die eines Baumkletterers, der von den Ästen herabglitt. Bei palökologischen Untersuchungen der Fundhorizonte kamen manche Forscher jedoch zu dem Schluss, dass am Bildungsort der Solnhofener Plattenkalke ein heißes und trockenes Klima geherrscht haben muss und wahrscheinlich keine Bäume vorkamen. Im Gegenzug wiesen sie aber auf hohe Klippen an der Küste des Jurameeres hin, die als Startpunkt für erste Flugversuche in Frage kommen. Burgers und Chiappe zeigten, dass "Archaeopteryx" möglicherweise auch vom Boden starten konnte. Neueste Forschungen, die das elfte bisher bekannte Fossil mit dem bislang besterhaltenen Federkleid untersuchten, gehen davon aus, dass das Federkleid des Vogels nicht vordringlich zum Fliegen, sondern nur zum Wärmen des Tieres diente. Diese Erkenntnis kam auch durch den Vergleich mit anderen Federformen bei Dinosauriern. Zusätzlich dienten die Armschwingen beim schnellen Laufen zum Halten der Balance, waren nützlich bei der Brut und dienten auch der Tarnung und als Schmuck. Bedeutung für die Durchsetzung der Evolutionstheorie. Charles Darwin hatte in der von ihm entwickelten Evolutionstheorie 1859 vorhergesagt, dass es bei der Entwicklung neuer Arten Übergangsformen geben sollte, die noch Merkmale der alten, aber auch schon Merkmale der neuen Gruppe besitzen müssten. Als Darwin seine Theorie veröffentlichte, waren noch keine solchen Fossilien bekannt, sie wurden deshalb als fehlende Glieder ("missing links") bezeichnet. Nur zwei Jahre später wurde das erste Skelettexemplar des "Archaeopteryx" gefunden. Die "Archaeopteryx"-Funde waren der erdgeschichtlich früheste Beleg für Federn eines Wirbeltiers. Dass sie bereits deutliche Merkmale von Vögeln, aber auch noch solche von Reptilien bzw. Sauriern besaßen, machte "Archaeopteryx" zu einem wichtigen Indiz für die Richtigkeit der Darwinschen Evolutionstheorie. Der Streit über die Evolutionstheorie wurde damit auch zu einer Auseinandersetzung um "Archaeopteryx". Richard Owen verfasste die erste Beschreibung des Londoner Exemplars (siehe Abbildung oben). Er lehnte aufgrund seiner religiösen Überzeugung die Evolutionstheorie ab und vermied peinlich genau jeden Hinweis auf die mögliche Deutung als vermittelndes Bindeglied zwischen Reptilien und Vögeln. Seine Beschreibung enthielt grobe Fehler. Owen, damals erster Superintendant der naturgeschichtlichen Sammlung des Britischen Museums, kaufte das Fossil an, entgegen der ausdrücklichen Weisung des Aufsichtsrates. Owen wollte mit dem Ankauf verhindern, dass Darwins Evolutionstheorie durch den Urvogel gestützt wird. Erst Thomas Henry Huxley lieferte eine systematische Beschreibung des Londoner Exemplars und interpretierte es als Beleg für die Evolutionstheorie. So wurde der Weg frei für die Evolutionstheorie und ihre Anhänger – in einer der bedeutendsten naturwissenschaftlichen Institutionen der Welt. Die Fossilfunde. 1. „Die Feder“, entdeckt 1860 im Gemeindesteinbruch Solnhofen und 1861 beschrieben von dem Frankfurter Wirbeltier-Paläontologen Hermann von Meyer (1801–1869), der den heute noch gültigen Gattungsnamen "Archaeopteryx" prägte, war der erste bekannt gewordene Fund. Der eine Teil des Abdrucks befindet sich im Museum für Naturkunde in Berlin, die andere Seite im Paläontologischen Museum in München. Ob die isolierte Feder tatsächlich von "Archaeopteryx" stammt, ist nicht bekannt. Lange Zeit war dieses Exemplar jedoch problematischerweise der Holotypus. 2. Das „Londoner Exemplar“, gefunden 1861 auf der Langenaltheimer Haardt bei Solnhofen, gehört zu den drei bedeutendsten Exemplaren. Es war der erste vollständige Fund eines Skeletts und ist das Typus-Exemplar der Art "Archaeopteryx lithographica". Wenige Monate nach dem Fund erwarb das Londoner Natural History Museum (damals noch zum British Museum gehörend) das Exemplar von seinem Besitzer, dem Pappenheimer Kreisarzt Carl Friedrich Häberlein (1787–1871). Treibende Kraft des Ankaufs war dabei der britische Naturforscher Richard Owen, damals Leiter der naturhistorischen Sammlung des Britischen Museums und erklärter Gegner von Darwins Theorien. Owen wollte mit dem Ankauf verhindern, dass Darwins Evolutionstheorie durch den Urvogel gestützt wird. Das Fossil blieb lange Zeit unter Verschluss, Untersuchungsergebnisse wurden nur nach und nach in kleinen Portionen veröffentlicht. 3. Das „Berliner Exemplar“ (gefunden zwischen 1874 und 1876 auf dem Blumenberg bei Eichstätt), gilt mit seinen deutlichen Federabdrücken und einem erhaltenen Schädel als das wahrscheinlich schönste und vollständigste Stück. Der Finder Jakob Niemeyer tauschte den Fund für eine Kuh im Wert von 150 bis 180 Mark ein. Der neue Besitzer Johann Dörr, ein Steinbruchbesitzer, veräußerte es für 2.000 Mark an Ernst Otto Häberlein (1819–1886) aus Pappenheim, dem Sohn des Verkäufers des Londoner Exemplars, der den Fund auch präparierte. Zunächst interessierten sich die Bayrische Staatssammlung und die Yale-Universität für das Fundstück, doch konnten beide den hohen Kaufpreis nicht aufbringen. Selbst eine Bitte deutscher Zoologen an Kaiser Wilhelm I. brachte keinen Erfolg. Schließlich erwarb Werner von Siemens das Exemplar 1879 für 20.000 Mark und übergab es als Dauerleihgabe dem Mineralogischen Museum der Humboldt-Universität zu Berlin. Zwei Jahre später erstattete die Universität dem Leihgeber Siemens den Kaufpreis. Das Exemplar gehört seitdem dem Museum für Naturkunde in Berlin; es wird seit 2007 auch dauerhaft ausgestellt. 4. Das „Maxberger Exemplar“ (1956 auf der Langenaltheimer Haardt bei Solnhofen), ein Torso mit einigen Federabdrücken, befand sich bis zum Tod seines Entdeckers Eduard Opitsch 1991 in dessen Privatbesitz. Seitdem gilt es als verschollen. 5. Das „Haarlemer Exemplar“ (1855 in Jachenhausen bei Riedenburg) wurde schon 1855, also fünf Jahre vor der Feder gefunden, aber erst 1970 durch John Ostrom "Archaeopteryx" zugeordnet. Dieses Exemplar war durch Hermann von Meyer 1860 als "Pterodactylus crassipes" klassifiziert worden, daher hätte sein Artname "crassipes" gemäß den Prioritätsregeln der Benennung von Fossilien den Namen "litographica" ersetzen müssen. Dies wurde durch energischen Einsatz von Ostrom verhindert. Das Fragment ist in Besitz des Teylers Museum, Haarlem. 6. Das „Eichstätter Exemplar“ (1951 in Workerszell bei Eichstätt) galt zunächst als kleiner Raubdinosaurier "Compsognathus", wurde 1973 wiederentdeckt und 1974 von Peter Wellnhofer beschrieben. Das Stück befindet sich im Besitz des Jura-Museums in Eichstätt. 7. Das „Solnhofener Exemplar“ wurde in den 1960er-Jahren von einem türkischen Gastarbeiter in der Nähe von Eichstätt entdeckt und zunächst ebenfalls als "Compsognathus" fehlbestimmt, 1988 aber durch Peter Wellnhofer beschrieben. Es hängt im Bürgermeister-Müller-Museum zu Solnhofen (2001 entschied das Oberlandesgericht Nürnberg, dass das Fossil nicht an einen Steinbruchbesitzer herausgegeben werden muss, der behauptet hatte, es sei 1985 aus seinem Besitz entwendet worden. Die Abweisung der Klage ist mittlerweile rechtskräftig; dennoch ist die tatsächliche Herkunft immer noch nicht restlos geklärt). "A. bavarica" im Münchner Paläontologischen Museum 8. Das „Exemplar des Solnhofener Aktienvereins“ (gefunden im Sommer 1992 in einem Steinbruch der „Solnhofer Aktien-Verein AG“ auf der Langenaltheimer Haardt bei Solnhofen) kann im Paläontologischen Museum in München besichtigt werden. 1993 wurde der Fund von Peter Wellnhofer als neue Art "Archaeopteryx bavarica" in die Wissenschaft eingeführt. Die schönen Federabdrücke und das sehr gut erhaltene Skelett ermöglichten zahlreiche neue Erkenntnisse. Die von Wellnhofer als Brustbein beschriebene Struktur hat sich allerdings nach neueren Untersuchungen als Teil des Rabenbeins erwiesen. Die möglicherweise doch recht guten Flugfähigkeiten bleiben dabei allerdings erhalten, da das Brustbein wohl als verknorpelte Struktur vorhanden war. Auch zahlreiche Details des Schädels, des Kiefers und des Schwanzes des elstergroßen Urvogels öffneten neue Blickwinkel auf die Evolution der Vögel. Durch diese Besonderheiten gehört dieser letzte große Fund zweifellos zu den drei bedeutendsten, manche halten ihn sogar für schöner als das Berliner Exemplar. Das achte Exemplar auf den Münchner Mineralientagen 2009 9. Ein sehr fragmentarischer, neunter Fund (Exemplar Nr. 8) war seit 1997 nur durch einen Abguss dokumentiert, lange waren Besitzer und Aufbewahrungsort unbekannt. 2009 präsentierte der Fossilienhändler Raimund Albersdörfer das von ihm erworbene Exemplar auf den Münchner Mineralientagen erstmals der Öffentlichkeit. 10. Im Jahr 2004 wurde über einen weiteren, ebenfalls fragmentarischen Fund berichtet, der sich jetzt im Bürgermeister-Müller-Museum Solnhofen befindet. 11. Das „Thermopolis-Exemplar“ wurde 2005 vom Besitzer des Wyoming Dinosaur Center in Thermopolis gekauft und unter anderem von Gerald Mayr untersucht, die Ergebnisse wurden in der Science-Ausgabe vom Dezember 2005 veröffentlicht. Herausragend an dem neuen Exemplar ist neben seinem äußerst gutem Erhaltungszustand die Tatsache, dass erstmals der Kopf von oben zu sehen ist und der Mittelfußknochen einen nach oben gerichteten Fortsatz aufweist. 12. Im Jahr 2011 wurde erstmals das 11. Exemplar der Öffentlichkeit präsentiert, das bereits vor mehreren Jahrzehnten im Raum Eichstätt entdeckt worden war. Es zeichnet sich durch eine besonders gute Federerhaltung - ähnlich dem "Berliner Exemplar" - aus. Ein Münchner Paläontologen-Team der Ludwig-Maximilians-Universität/Bayer. Staatssammlung für Paläontologie und Geologie stellte die weitreichenden Ergebnisse in der Nature-Ausgabe vom Juli 2014 vor (mit Archaeopteryx als Titelbild). 13. Das bislang letzte (12.) Exemplar wurde 2010 von einem Finder, dessen Name geheim gehalten wird, in einem Erlebnissteinbruch in Schamhaupten im Landkreis Eichstätt entdeckt. Noch im Besitz des Finders, wird das Fossil von den Eigentümern des Steinbruchs beansprucht, um es musealen Zwecken zuzuführen. Die meisten der "Archaeopteryx"-Exemplare zeigen eine verkrümmte Halswirbelsäule. Diese typische Rückwärtskrümmung bildete sich erst nach dem Tode der Tiere im Wassergrab heraus. Äußere Systematik. "Archaeopteryx" wird in der Regel als der urtümlichste Vogel definiert, das heißt, alle Arten, die mit den Modernen Vögeln (Neornithes) entfernter verwandt sind als "Archaeopteryx", gelten als den Vögeln nicht zugehörig. Unter den mesozoischen Vögeln gibt es manche, die nur wenig näher mit den heutigen Vögeln verwandt sind als "Archaeopteryx": "Rahonavis" und "Jeholornis" haben mit "Archaeopteryx" unter anderem den langen knöchernen Schwanz gemein, den höher entwickelte Vögel (Pygostylia) abgelegt haben. Innerhalb der theropoden Dinosaurier gelten die Deinonychosaurier als nahe Verwandte der Vögel – beide Gruppen werden in der übergeordneten Gruppe Paraves (Eumaniraptora) zusammengefasst. Ein Merkmal, das die Deinonychosaurier mit "Archaeopteryx" und "Rahonavis" verbindet, ist die überdehnbare ("hyperextensible") zweite Klaue des Fußes. Federn mit einer geschlossenen Federfahne waren vermutlich bereits bei den Vorfahren der Paraves ausgeprägt. Es gibt eine Anzahl stammesgeschichtlicher Analysen, die zu abweichenden Ergebnissen bezüglich der Verwandtschaftsverhältnisse vogelähnlicher Deinonychosaurier und urtümlicher Vögel gelangen. Nach der Hypothese von Mayr u. a. waren manche gefiederten Dromaeosauriden wie "Microraptor" näher mit den Pygostylia verwandt als "Archaeopteryx"; in der Gruppe der Vögel wäre demnach der Vogelflug womöglich mehrfach unabhängig voneinander entstanden. Kritiker der Dinosaurier-Abstammung der Vögel meinen, die Ähnlichkeit der Urvögel zu theropoden Dinosauriern sei auf massive konvergente Evolution zurückzuführen. Nach Feduccia u. a. (2005) seien die Vögel aus einer noch zu bestimmenden Gruppe urtümlicher Archosaurier hervorgegangen, während "Microraptor" und andere gefiederte Dinosaurier in Wirklichkeit keine Dinosaurier sondern frühe Formen flugunfähiger Vögel darstellten. "Archaeopteryx" und "Xiaotingia". Dieser Hypothese zufolge wäre "Archaeopteryx", je nach Definition der Gruppe der Vögel, entweder nicht den Vögeln zugehörig, oder die Vögel schlössen auch die Deinonychosaurier mit ein. Innere Systematik. Ob die "Archaeopteryx"-Funde einer oder mehreren Arten angehören, ist seit der Erstbeschreibung des Berliner Exemplars kontrovers diskutiert worden, was sich in der Häufung synonymer Gattungs- und Artnamen, die für dieselben Exemplare vergeben und wieder revidiert wurden, widerspiegelt. Absoluter Nullpunkt. Der absolute Nullpunkt bezeichnet den unteren Grenzwert für die Temperatur. Dieser definiert den Ursprung der absoluten Temperaturskala und wird als 0 K, entsprechend −273,15 °C, festgelegt. Die Existenz und der extrapolierte Wert des absoluten Nullpunkts können aus dem ersten Gesetz von Gay-Lussac abgeleitet werden. Nach dem dritten Hauptsatz der Thermodynamik ist der absolute Nullpunkt eine ideale Messgröße, welche nicht erreichbar ist, jedoch können reale Temperaturen beliebig nahe dem absoluten Nullpunkt realisiert werden. Mit Laserkühlung konnten Proben schon bis auf wenige Milliardstel Kelvin abgekühlt werden. Geschichte. Guillaume Amontons fand 1699 heraus, dass sich das Volumen einer Gasmenge linear mit ihrer Temperatur verändert. Da das Volumen eines Gases aber nicht negativ werden sollte, folgerte er, dass es einen absoluten Nullpunkt geben müsse, bei dem das Volumen der Gasmenge gleich null wäre. Durch Extrapolation seiner Messwerte schätzte er die Lage dieses Nullpunkts ab und kam auf einen Wert von minus 248 Grad Celsius. Diese Methode muss jedoch sehr kritisch betrachtet werden, da die Gesetzmäßigkeit der Volumenverkleinerung nur für ideale Gase gilt, nicht aber für Stoffe, die ihren Aggregatzustand ändern, beispielsweise flüssig werden. William Thomson, 1. Baron Kelvin, entdeckte 1848, dass nicht die Volumenverkleinerung für diese Frage entscheidend ist, sondern der Energieverlust. Hierbei ist es unerheblich, ob es sich um Gase oder feste Stoffe handelt. Thomson schlug daraufhin vor, eine neue, "absolute" Temperaturskala zu definieren, zu der die Volumenänderung proportional ist. Diese neue Temperaturskala hat keine negativen Werte mehr, beginnt bei null (dies entspricht minus 273,15 Grad Celsius, siehe dazu Eigenschaften der Kelvinskala) und steigt so an, dass ein Temperaturunterschied von einem Kelvin jeweils einem Temperaturunterschied von einem Grad Celsius entspricht. Diese gleiche Schrittweite wurde erreicht durch die Festlegung, dass das Kelvin der 273,16-te Teil der thermodynamischen Temperatur des Tripelpunktes des Wassers – dieser liegt bei 0,01 °C – ist. Die Einheit für diese Temperaturskala wurde zunächst "Grad A" (A für absolut) genannt, später "K" (K für Kelvin). Das Kelvin wird seit 1967 per Definition "nicht" mehr mit Grad (°) ergänzt. Eigenschaften. Physikalische Systeme mit Temperaturen nahe am absoluten Nullpunkt weisen einige besondere Verhaltensweisen wie Suprafluidität und Bose-Einstein-Kondensation auf. Diese Temperaturgebiete der Tieftemperaturphysik können nur noch mit besonderen Methoden erreicht werden. Bei Normaldruck sind am Nullpunkt alle Elemente fest, abgesehen von Helium, das sich dort in einer flüssigen bzw. suprafluiden Phase befindet. Thermodynamische Aussagen über den Nullpunkt im Zusammenhang mit der Entropie macht das Theorem von Nernst. Perfekte Kristalle erreichen beim Nullpunkt für die Entropie formula_1 einen konstanten Wert formula_2, da die Entropie gemäß der statistischen Definition als der mit der Boltzmannkonstanten formula_3 multiplizierte Logarithmus der Anzahl der möglichen Mikrozustände definiert ist und es nur eine mögliche Realisierung des beobachteten Makrozustands gibt. Bei (amorphen) Gläsern gibt es mehrere gleichenergetische Realisierungen eines Zustands mit formula_4, so dass die Entropie von null verschieden ist. Antonym. Antonyme (von "anti"‚ gegen‘ und "ónoma", Name, Wort‘) sind in der Sprachwissenschaft Wörter mit gegensätzlicher Bedeutung. In gleicher Bedeutung werden auch die Ausdrücke Gegensatzwort (oder (kürzer) Gegenwort) und Oppositionswort verwandt. Zwei Wörter, die füreinander Gegensatzwörter sind, heißen "Gegensatzpaar". Die zwischen ihnen bestehende Relation heißt Antonymie, insbesondere von Wörtern, aber auch von Sätzen und Phrasen. Die entsprechende rhetorische Figur ist das Oxymoron. Der Begriff der Antonymie kann dabei nach der Ebene und Art des Gegensatzes unterschiedliche Ausprägungen erfahren. Die Art der Antonymie hängt inhaltlich davon ab, wie der Gegensatz im logischen Sinn zu verstehen ist, ob er etwa innerhalb eines Oberbegriffes gesucht wird oder ob ein konträres oder kontradiktorisches Verhältnis der mit dem Gegensatzpaar bezeichneten Begriffe vorliegt. Ein Ausdruck, der für beide Begriffe eines Gegensatzpaares stehen kann, heißt Oppositionswort. Antonymbildung. In der deutschen Sprache werden in vielen Fällen Antonyme auch durch das Voranstellen der Vorsilbe "un-" gebildet: etwa Ruhe – Unruhe; klar – unklar usw. Jedoch gibt es nicht automatisch derartige Antonympaare, beispielsweise hat "ungefähr" kein Gegenüber "gefähr"; ebenso ist für "unausbleiblich" kein "ausbleiblich" in Benutzung. Darüber hinaus gibt es Wörter mit "un-", die aber zum Stammwort kein Antonym bilden, zum Beispiel Mut und Unmut; ziemlich und unziemlich. Ein weiterer Aspekt ist, dass verschiedene Oppositionen von Wortpaaren nicht automatisch auf andere übertragbar sind. So sind zwar Überführung und Unterführung (Verkehrswege) Antonyme, aber Übergang und Untergang haben keinen vergleichbaren Sinn und Gegensinn, sondern bedeuten etwas völlig anderes, nichts direkt Gegensätzliches. Antonymie im engeren und im weiteren Sinn. Ursprünglich sprach man von Antonymie nur im Sinne von gradueller oder auch konträrer Antonymie und bezeichnete damit Adjektivpaare wie beispielsweise "schön"/"hässlich". Teilweise spricht man auch heute noch von Antonymie nur dann, um einen „Bedeutungsgegensatz(.) zwischen skalierbaren lexikalischen Ausdrücke(n)“ zu bezeichnen. In logischer Perspektive ist die graduelle Antonymie bei einem konträren Gegensatz gegeben (Beispiel: "kalt"/"heiß"). Ein Sonderfall der graduellen oder konträren Antonymie ist der polar-konträre Gegensatz, bei dem die gegensätzlichen Bedeutungen am Ende einer Skala sind (Beispiel: "neu"/"alt"). „Nicht-polare Antonyme bezeichnen den gleichen Ausprägungsgrad auf entgegengesetzten Skalen; die Bildung konverser Komparative ist ausgeschlossen“. Der Ausdruck der Antonymie wird häufig auch in einem weiteren Sinn verwandt, bezeichnet dann allgemein einen Oberbegriff für „semantische Gegensatzrelationen“ und erfasst dann auch den Fall des kontradiktorischen Gegensatzes, der in der Semantik auch als komplementärer Gegensatz "(siehe unten)" bezeichnet wird (Beispiel: "tot"/"lebendig"; "sinnvoll"/"sinnlos"). Man bezeichnet die kontradiktorische Antonymie auch als „Antonymie im strengen Sinne“, während die konträre Antonymie auch als „Antonymie im eigentlichen Sinn“ oder „gelegentlich“ auch als Antonymie im engeren Sinn bezeichnet wird. Die Terminologie ist also alles andere als klar. Konträre Antonymie als Inkompatibilität. Antonymie als Fall (konträrer oder kontradiktorischer) gegensätzlicher Bedeutung ist ein „Sonderfall“ unvereinbarer Bedeutung, das heißt einer "Inkompatibilität" (von Wörtern etc.). Wird wie hier auch die Unvereinbarkeit im Fall der Kohyponymie als Antonymie angesehen, wird die Antonymie – losgelöst von der Wortbedeutung – mit jedweder Inkompatibilität gleichgesetzt und gleichzeitig der Ausdruck "Inkompatibilität" in einem engeren als üblichen Sinn verwendet. Auto-Antonyme. Auto-Antonyme (Antagonyme) sind Wörter, die gleichzeitig in gegenteiliger Bedeutung verwendet werden können. Das Wort verfügt also über zwei Bedeutungen (Homonymie, Polysemie oder Homophonie), die eine antonymische Opposition bilden. Im Deutschen tritt dies beispielsweise bei dem Ausdruck "Untiefe" auf, das als "sehr geringe Tiefe" oder in der Umgangssprache auch als "sehr große Tiefe" gedeutet werden kann. Das Englische "overlook" kann sowohl ‚überwachen‘ als auch ‚nicht beachten‘ bedeuten. (Vergleiche: "übersehen" hat die beiden Bedeutungen "überblicken" und "nicht beachten": Ich übersehe die Lage noch nicht. Ich habe den Brief übersehen.) Ein weiteres Beispiel: "transparent" wird sowohl für "durchsichtig, offengelegt" wie auch für "unsichtbar, verbergend" verwendet, insbesondere wenn man keine Materialeigenschaft beschreibt. Homonymie und Antinomie. Viele Wörter sind Homonyme, d. h. sie haben mehrere Bedeutungen. Da die Antinomie­relation von der Bedeutung abhängt, gibt es in diesen Fällen auch mehrere Gruppen von Antonymen. Zum Beispiel hat das Wort "abnehmen" Antonyme in den Bedeutungsgruppen übergeben (Ware), aufhängen (Bild), aufdecken (Tischtuch), auflegen (Telefonhörer), anlegen (Schmuck), aufhängen (Gardine), aufsetzen (Hut), wachsen bzw. stehen lassen (Bart), zunehmen (Mond), zunehmen (Gewicht) und weiteren. Akkumulator. Ein Akkumulator oder Akku ist ein wiederaufladbarer Speicher für elektrische Energie auf elektrochemischer Basis. Das lateinische Wort "accumulator" bedeutet „Sammler“ (lat. "cumulus" „Haufen“, "accumulare" „anhäufen“). Eine frühere Bezeichnung für Akkumulatoren war "Sammler". Ein einzelnes wiederaufladbares Speicherelement wird Sekundärelement oder Sekundärzelle genannt, im Gegensatz zur nicht (oder nur sehr begrenzt) wiederaufladbaren Primärzelle. Sekundärzellen lassen sich – wie Primärzellen und alle elektrische Energiequellen – zusammenschalten, entweder in Reihenschaltung (zur Steigerung der nutzbaren elektrischen Spannung) oder aber in Parallelschaltung (zur Steigerung der nutzbaren Kapazität beziehungsweise wegen der Eignung für höhere Stromstärken). Beide Schaltungsvarianten führen zur entsprechenden Erhöhung des Gesamt-Energiegehalts (Produkt aus Kapazität und Spannung, angegebenen in Wattstunden (Wh)) der Anordnung. Bei jedem Akkumulatortyp ist die Nennspannung der Akkumulatorzelle durch die verwendeten Materialien festgelegt; da jene für die meisten Anwendungen zu gering ist, wird häufig die Reihenschaltung angewandt, um die Spannung zu erhöhen (siehe Bild Starterbatterie). Die Kapazität und die mögliche Stromstärke hängen dagegen von der Baugröße ab. Deshalb ist eine Parallelschaltung mehrerer Zellen in der Regel nicht nötig; stattdessen verwendet man einen Akku mit entsprechend groß dimensionierten Zellen. Batterie. Im technischen Sinn ist eine Batterie eine Kombination mehrerer gleichartiger galvanischer Zellen bzw. Elemente, die in Reihe zusammengeschaltet sind. Es gibt Batterien aus Primärzellen (nicht wiederaufladbar) und solche aus Sekundärzellen (wiederaufladbar). Ursprünglich waren mit "Batterien" nur solche aus Primärzellen gemeint. Seit der Ausbreitung der wiederaufladbaren Speicher ist diese einschränkende Definition veraltet. In der Umgangssprache dient "Batterie" jedoch als Oberbegriff für (echte) Batterien, Primärzellen und Sekundärzellen. Es wird deshalb oft von „Batterien“ gesprochen, wenn eigentlich nur einzelne Primärzellen oder Sekundärzellen (Akkumulatorzellen) gemeint sind. Beide Zellentypen sind in untereinander austauschbaren Baugrößen auf dem Markt, und beide werden im Englischen "battery" genannt, was zur Verwirrung beitragen dürfte. Akkuzellen sind im Englischen "rechargeable batteries" („wiederaufladbare Batterien“). Elektrische Verbraucher, die sowohl mit Primär- als auch mit Sekundärzellen betrieben werden können, werden deshalb oft einfach "batteriebetrieben" genannt. Nur dann, wenn im täglichen Umgang mit dem Gerät die Wiederaufladbarkeit eine besondere Rolle spielt, bevorzugt man die Bezeichnung "akkubetrieben". Im technisch-wissenschaftlichen Rahmen spricht man wegen der Dominanz des Englischen zunehmend von „wiederaufladbaren Batterien“ oder „sekundären Batterien“. Kondensator. Kondensatoren speichern ebenfalls elektrische Energie und geben diese wieder ab, allerdings nicht in chemischer Form, sondern in einem elektrischen Feld zwischen den Kondensatorplatten. Sie sind daher keine Akkumulatoren. Funktionsweise. In einem Akkumulator wird beim Aufladen elektrische Energie in chemische Energie umgewandelt. Wird ein Verbraucher angeschlossen, so wird die chemische Energie wieder in elektrische Energie zurück gewandelt ("siehe dazu: Galvanische Zelle"). Die für eine elektrochemische Zelle typische elektrische Nennspannung, der Wirkungsgrad und die Energiedichte hängen von der Art der verwendeten Materialien ab. Energiedichte und Wirkungsgrad. kg) verschiedener handelsüblicher Sekundärzellen als Funktion der Temperatur; bei tiefen Temperaturen nimmt die Energiedichte mehr oder weniger stark ab. Für viele Anwendungen, insbesondere für mobile Geräte im Bereich der Unterhaltungselektronik, Hörgeräte oder auch Fahrzeuge, ist die Energiedichte von Bedeutung. Je höher diese ist, desto mehr Energie kann in einem Akku je Volumen- bzw. Masseneinheit gespeichert werden. Die auf die Masse bezogene Energiedichte wird oft auch als spezifische Energie bezeichnet. Bezogen auf marktübliche Typen weisen Akkumulatoren (Sekundärzellen) im Allgemeinen eine (oftmals deutliche) geringere Energiedichte als Primärzellen auf. Oft sind Akkus mit besonders hoher Energiedichte überproportional teuer oder weisen auch andere nachteilige Eigenschaften auf, insbesondere eine beschränkte Lebensdauer. So kosten Bleiakkumulatoren typischerweise 100 €/kWh; Li-Ion-Akkus hingegen derzeit (2012) typischerweise 350 €/kWh (200 €/kWh 2013), Tendenz fallend. Ursachen sind die anlaufende Massenproduktion, welche die Stückkosten durch bessere Technik und Skaleneffekte deutlich verringern. Allerdings werden die sinkenden Produktionskosten nur verzögert an die Kunden weitergegeben, da auf diesem Markt, speziell in Deutschland, durch die wenigen Angebote nur ein geringer Preisdruck besteht. Beim Aufladen und Entladen von Akkumulatoren wird durch den inneren Widerstand der Zellen Wärme freigesetzt, wodurch ein Teil der zum Aufladen aufgewandten Energie verloren geht. Das Verhältnis der entnehmbaren zu der beim Laden aufzuwendenden Energie wird als Ladewirkungsgrad bezeichnet. Generell sinkt der Ladewirkungsgrad sowohl durch Schnellladung mit sehr hohen Strömen als auch durch schnelle Entladung (Peukert-Effekt), da die Verluste am Innenwiderstand zunehmen. Das optimale Nutzungsfenster ist dabei je nach Zellchemie stark unterschiedlich. Ein Vergleich zur Speicherung elektrischer Energie zeigt die Vor- und Nachteile von Akkus gegenüber anderen Speicherverfahren. Ladungsmenge (Kapazität). Die Ladungsmenge, die ein Akkumulator speichern kann, wird in Amperestunden (Ah) angegeben und als Kapazität (Nennkapazität) bezeichnet. Diese darf nicht verwechselt werden mit der Kapazität eines Kondensators, die in Amperesekunde pro Volt (As/V) definiert ist und in der Einheit Farad (F) angegeben wird. Die angegebene Nennkapazität beim Akku bezieht sich immer auf einen bestimmten Entladestrom und nimmt - je nach Akkutyp unterschiedlich stark - mit höheren Entladeströmen ab. Ladezustand. Ein wichtiger Kennwert von mit Sekundärbatterien betriebenen Geräten ist der Ladezustand von Akkumulatoren (englisch "State of Charge", SoC'"). Er wird üblicherweise in Prozentwerten angegeben, wobei 100% einen vollständig geladenen Akkumulator repräsentieren. Zur Bestimmung sind verschiedene Methoden gebräuchlich: chemische, spannungsabhängige, Strom-integrative, druckabhängige sowie die Messung der Akkumulator-Impedanz. Selbstentladung – empfohlene Lagerung. Wird ein Akku nicht verwendet, so verliert er über die Zeit einen Teil seiner gespeicherten Energie. Diesen Vorgang nennt man Selbstentladung. Das Maß der Selbstentladung hängt von Typ und Alter des Akkumulators sowie von der Lagertemperatur ab. Sanyo hat 2005 (Markteinführung in Europa August 2006) einen modifizierten NiMH-Akku namens Eneloop auf dem Markt gebracht, der einer Selbstentladung von lediglich 15 % pro Jahr unterliegt. Es handelt sich hierbei um sogenannte LSD-Akkus (Low Self Discharge), die aufgrund ihrer geringen Selbstentladung als bereits vorgeladene Akkus verkauft werden und daher im Gegensatz zu herkömmlichen Akkus vor der ersten Benutzung durch den Käufer nicht aufgeladen werden müssen. Alle Angaben zur Selbstentladung beziehen sich auf eine Raumtemperatur von ca. 20 °C. Lebensdauer und Zyklenfestigkeit. Lithium-Eisenphosphat-Akkumulatoren erreichen nach Herstellerangaben mehr als 5000 Zyklen bei jeweiliger Entladetiefe von 70 % (Depth of Discharge, DOD).. Als weltgrößter Hersteller von Lithium-Eisenphosphat-Akkumulatoren gilt BYD, der durch präzise Fertigung eine große Auswahl an Zellen für zyklenfeste Anwendungen, wie zum Beispiel im Einsatz bei stationären Speichersystemen entwickelt hat. Nach 7500 Zyklen mit 85 % DoD haben diese noch eine Restkapazität von mindestens 80 % bei 1C-Rate; das entspricht bei einem Vollzyklus pro Tag einer Lebensdauer von mind. 20,5 Jahren. Der Lithium-Eisenphosphat-Akkumulator Sony Fortelion hat nach 10000 Zyklen mit 100% DoD noch eine Restkapazität von 71 %. Dieser Akkumulator ist seit 2009 auf dem Markt. In Solarbatterien eingesetzte Lithium-Ionen-Akkumulatoren weisen teilweise eine sehr hohe Zyklenfestigkeit von mehr als 10000 Lade- und Entladezyklen und eine lange Lebensdauer von bis zu 20 Jahren auf. Plug in America hat unter Fahrern des Tesla Roadster eine Umfrage durchgeführt bezüglich der Lebensdauer der verbauten Akkus. Dabei ergab sich, dass nach 100.000 Meilen = 160.000 km die Akkus noch eine Restkapazität von 80 bis 85 Prozent hatten. Dies war unabhängig davon, in welcher Klimazone das Fahrzeug bewegt wurde. Der Tesla Roadster wurde zwischen 2008 und 2012 gebaut und verkauft. Für seine 85-kWh-Akkus im Tesla Model S gibt Tesla 8 Jahre Garantie mit unbegrenzter Laufleistung. Varta Storage gibt auf seine Produktfamilie engion family und engion home eine Garantie von 14.000 Vollzyklen und einer Lebensdauer von 10 Jahren. Ladezeiten. Elektroautos wie Tesla Model S, Renault Zoe, BMW i3 usw. können ihre Akkus an Schnellladestationen innerhalb von 30 Minuten zu 80 Prozent aufladen. In Laboratorien der Firma StoreDot aus Israel können Berichten zufolge erste Labormuster von nicht näher spezifizierten Akkus in Mobiltelefonen (Akkukapazität im Bereich um 1 Ah) mit Stand April 2014 in 30 Sekunden geladen werden. Forscher aus Singapur haben 2014 einen Akku entwickelt, der nach 2 Minuten zu 70 Prozent aufgeladen werden kann. Die Akkus setzen auf die Lithium-Ionen-Technik. Jedoch besteht die Anode, der negative Pol in der Batterie, nicht mehr aus Graphit, sondern einem Titan-Dioxid-Gel. Das Gel beschleunigt die chemische Reaktion deutlich und sorgt so für ein schnelleres Aufladen. Insbesondere sollen diese Akkus in Elektroautos verwendet werden. Bereits im Jahr 2012 haben Forscher der Ludwig-Maximilian-Universität in München das Grundprinzip entdeckt. Wissenschaftler der Stanford-Universität in Kalifornien haben einen Akku entwickelt, der innerhalb einer Minute aufgeladen werden kann. Die Anode besteht aus Aluminium und die Kathode aus Grafit (s. Aluminium-Ionen-Akkumulator). Das Elektroauto Volar-e der Firma Applus+IDIADA, basierend auf dem Rimac Concept One, enthält Lithium-Eisen-Phosphat-Akkus, die innerhalb von 15 Minuten wieder aufgeladen werden können. Neue Entwicklungen. Forscher der Justus-Liebig-Universität Gießen haben zusammen mit Wissenschaftlern der BASF SE eine neue reversibel arbeitende Zelle auf Basis von Natrium und Sauerstoff entwickelt. Als Reaktionsprodukt tritt hierbei Natriumsuperoxid auf. Festkörperakkumulatoren sind eine spezielle Bauform, bei welchem beide Elektroden und auch der Elektrolyt aus verschiedenen, festen Materialien bestehen. Da keine Flüssigkeiten vorhanden sind, gibt es kein Problem mit Undichtigkeiten, sollte der Akkumulator beschädigt werden. Auch wird an Akkumulatoren aus organischem Material gearbeitet. Wissenschaftler der Stanford-Universität in Kalifornien haben einen neuartigen Akku mit sehr günstigen Eigenschaften entwickelt. Die Anode besteht aus Aluminium und die Kathode aus Grafit (s. Aluminium-Ionen-Akkumulator). Der Akku schafft mehr als 7500 Ladezyklen ohne Qualitätseinbußen. Die zur Fertigung des Akkus notwendigen Materialien sind sehr kostengünstig und zudem sehr leicht. Der Akku kann nicht in Brand geraten, selbst wenn man den Akku durchbohrt. Der Ladevorgang beträgt eine Minute. Zudem ist der Akku biegsam und kann somit in eine gewünschte Form gebogen und gefaltet werden. Der Akku ist noch nicht marktreif, da die Spannung und die Energiedichte noch zu gering sind. Nach Schätzungen werden bis 2025 bzw. spätestens 2030 die Lithium-Schwefel wie auch die Lithium-Luft-Akkutechnologie im Automobilbereich einsetzbar sein. Beide haben eine höhere Energiedichte als die im Jahr 2015 eingesetzte Lithium-Ion-Technologie und versprechen höhere Reichweiten in der Elektromobilität. Preisentwicklung. Bleiakkumulatoren kosten typischerweise 100 €/kWh. Li-Ion-Akkus kosteten im Januar 2014 hingegen typischerweise rund 110 €/kWh (150 USD/kWh). Die Preise für Li-Ion-Akkus sind seit 2011 deutlich gefallen (2011: 500 €/kWh, 2012: 350 €/kWh, 2013: 200 €/kWh). Auf einer Konferenz für Elektromobilität im Oktober 2013 erwähnte der Trendforscher Lars Thomsen, dass Tesla seine Akkus zum damaligen Zeitpunkt für 200 USD/kWh (umgerechnet 148 €/kWh) verbaut hat. Für das für den Herbst 2016 geplante E-Mobil Bolt rechnet General Motors mit 145 USD/kWh, sowie einer Reduktion auf 100 USD/kWh bis 2022. Ursachen für den Preisrückgang sind die zunehmende Massenproduktion, welche die Stückkosten durch bessere Technologien und Skaleneffekte verringert hat. Im deutschen Einzelhandel werden LiFePO4-Akkuzellen ab etwa 420 €/kWh (1,35 €/Ah) angeboten (Stand Januar 2015). Einsatzgebiete. Akkumulatoren werden oft verwendet, wenn ein elektrisches oder elektronisches Gerät ohne dauerhafte Verbindung zum festen Stromnetz oder zu einem Generator betrieben werden soll. Da sie teurer sind als nicht wiederaufladbare Primärbatterien, kommen sie vor allem in solchen Geräten zum Einsatz, die regelmäßig benutzt werden und einen nicht vernachlässigbaren Strombedarf haben, wie in Mobiltelefonen, Laptops oder Akkuwerkzeugen. Auch in Kraftfahrzeugen dient ein Akku in Form der Starterbatterie dazu, Strom für Licht, Bordelektronik und vor allem den Anlasser zum Starten des Verbrennungsmotors zu liefern. Läuft der Motor, wird der Akkumulator über die als Generator arbeitende Lichtmaschine wieder aufgeladen. Ähnliches gilt für Schiffe und Flugzeuge. Beim elektrischen Antrieb von Kraftfahrzeugen, Schiffen oder gar kleinen Flugzeugen werden deren Akkus zur Unterscheidung von bloßen Starterbatterien dann als Traktions-Akkumulatoren bezeichnet und zu Traktionsbatterien zusammengeschaltet (s.a. Elektroauto, Elektromotorrad, Elektromotorroller, Batteriebus, Elektrolastkraftwagen). Immer beliebter werden Pedelecs, ein spezielles Elektrofahrrad. Akkus kommen auch zum Einsatz, um Schwankungen bei der regenerativen Erzeugung von Strom mit Wind und/oder Sonne auszugleichen (s. Solarbatterie), oder auch, wenn sich eine abgelegene Verbrauchsstelle nicht oder nur zu unverhältnismäßig hohen Kosten an das Stromnetz anschließen lässt. Oft sind solche Verbrauchsstellen zusätzlich noch mit einem Notstromaggregat ausgerüstet, das einspringt, bevor die Ladung der Akkus z. B. nach mehrtägiger Windstille nicht mehr ausreicht. Beispiele für solche Installationen sind nicht nur abgelegene Hütten, Mobilfunk-Basisstationen in wenig erschlossenen Regionen oder Weltraumsatelliten, sondern auch viele Parkscheinautomaten, bei denen ein Anschluss an das Stromnetz teurer wäre als die Installation einer Solarzelle und eines Akkumulators (s.a. Inselsystem, Inselnetz, Inselanlage). Konventionelle U-Boot-Antriebe bestehen aus Dieselmotoren mit Generatoren (Fahren und Laden der Akkumulatoren bei nicht getauchter Fahrt) und mit Akkumulatoren betriebenen Elektromotoren (Tauchfahrten). Viele Schiffe fahren generell mit Elektroantrieb. Der notwendige Strom wird von Dieselgeneratoren erzeugt. Damit der Dieselmotor immer im optimalen Drehzahlbereich arbeiten kann, wird die Energie in Akkus zwischengespeichert. Auch gibt es Fähren, die rein elektrisch nur mit Akkuantrieb fahren und jeweils an der Anlegestelle wieder aufgeladen werden (s. a. dieselelektrischer Antrieb). Akkumulatoren dienen in Systemen zur unterbrechungsfreien Stromversorgung (USV) auch zur kurz- bis mittelfristigen Überbrückung von Ausfällen der stationären Energieversorgung. Wichtige Bereiche, die es mit einer Notstromversorgung abzusichern gilt, sind z. B. Rechenzentren, Alarmsysteme und lebenserhaltende Systeme in Krankenhäusern. Werden hohe Leistungen benötigt oder sind längere Zeiträume zu überbrücken, wird noch ein Dieselgenerator zusätzlich installiert; die Akkus übernehmen dann die Versorgung nur so lange, wie der Dieselgenerator zum Anspringen und Erreichen der Nenndrehzahl benötigt. Falls die so zu überbrückende Zeit nur kurz ist, können dafür auch andere Systeme als Akkumulatoren eingesetzt werden, insbesondere auf der Basis von Schwungmassen oder gar Kondensatoren. Batterie-Speicherkraftwerke werden u.a. eingesetzt zur Abdeckung von Spitzenlasten im Stromnetz und auch zur Netzstabilisierung in Stromnetzen. Auswahlkriterien. Als Alternative zu Akkumulatoren werden Brennstoffzellen-Systeme diskutiert und auch schon verwendet, die elektrische Energie mit Hilfe von Wasserstoff oder Methanol aus chemischer Energie erzeugen. Brennstoffzellen erzeugen die elektrische Energie ohne exotherme Verbrennung und zusätzliche Umwandlungen. Zu beachten ist dabei, dass die Energieabgabe der Brennstoffzelle kaum variiert werden kann. In Systemen mit schwankendem Leistungsbedarf (Bsp.: Hybridelektrokraftfahrzeug) müssen deshalb immer zusätzlich auch Akkumulatoren verwendet werden, die aber in Vergleichen oft unberücksichtigt bleiben. Bei Vergleichen mit ausschließlichem Akkumulatorbetrieb muss also korrekterweise neben der eigentlichen Brennstoffzelle auch der Raumbedarf und das Gewicht des Treibstoffbehälters (Wasserstoff-Flaschen, Methanol-Tank) sowie der notwendigen Puffer-Akkus berücksichtigt werden. Konkurrierende Energiespeicher sind auch Hydraulikspeicher sowie elektrochemische Zellen wie die Redox-Flow-Zelle. André-Marie Ampère. André-Marie Ampère (* 20. Januar 1775 in Lyon, Frankreich; † 10. Juni 1836 in Marseille) war ein französischer Physiker und Mathematiker. Nach ihm ist die internationale Einheit der Stromstärke Ampere benannt. 1775 bis 1820. Ampère war der Sohn von Jean-Jacques Ampère und dessen Ehefrau Jeanne-Antoinette de Sarcey. Er fiel schon früh als wissbegieriger Knabe und durch sein gutes Gedächtnis auf. Er las als Jugendlicher die 35 Bände der Enzyklopädie von Denis Diderot und Jean d'Alembert und lernte Griechisch, Latein und Italienisch. Sein Vater wurde 1793 nach dem Fall von Lyon (während der Französischen Revolution) hingerichtet. Als Achtzehnjähriger befasste er sich mit den Lehrbüchern des Schweizers Leonhard Euler und der klassischen Mechanik von Joseph-Louis Lagrange. Im gleichen Alter entwickelte er eine Plansprache, die er als friedensförderndes Werkzeug ansah. Er wandte sich ebenfalls der Botanik, der Metaphysik und der Psychologie zu, ehe er Mathematik und Physik studierte. Im Jahre 1796 lernte er Julie Carron kennen, die er 1799 heiratete. Von 1799 bis 1801 war er an der École centrale in Lyon als Mathematiklehrer tätig. 1800 wurde ihr Sohn Jean-Jacques Ampère, der ein bekannter Historiker, Philologe und Schriftsteller wurde, geboren. 1802 verfasste Ampère ein mathematisches Werk zu einem wahrscheinlichkeitstheoretischen Aspekt von Glücksspielen, nämlich der Frage des Wahrscheinlichkeit des Ruins des Spielers bei stetigem Einsatz eines festen Bruchteils seines Kapitels. Bald darauf verfasste er eine Arbeit zur theoretischen Mechanik und eine Abhandlung über partielle Differentialgleichungen, die ihm die Mitgliedschaft in der französischen Akademie der Wissenschaften einbrachte. Im Jahr 1803 starb nach vierjähriger Ehe seine Frau. Im August 1806 heiratete er Jeanne-Françoise Potot (1778–1866). Aus dieser Ehe stammt die Tochter Albine (1807–1842). Die Ehe wurde bald geschieden. Er musste nun allein für die zwei Kinder aus den beiden Ehen sorgen. Im Jahr 1804 ließ sich Ampère in Paris nieder. Sein Interesse für Mathematik erlahmte, und er befasste sich zunehmend mit den Schriften von Kant und mit der Chemie. Ampère hatte eine Professur an der Pariser École polytechnique und im Collège de France. Im Jahre 1808 wurde er auch Generalinspektor der Universität und lehrte außerdem Philosophie an der Historisch-Philosophischen Fakultät. In Bezug auf Kant vertrat er ein hypothetisch-deduktives Verfahren des wissenschaftlichen Erkenntnisgewinns: Der Naturforscher stellt eine Hypothese auf und fragt sich, welche Experimente unternommen werden müssen, um die Theorie zu stützen oder zu falsifizieren. Ampère versuchte die chemische Affinität von Molekülen, die aus punktförmigen Atomen bestehen, aus der Geometrie von geometrischen Körpern (zum Beispiel Tetraeder, Oktaeder oder Würfel) abzuleiten. Ampères Arbeiten zur Chemie fanden jedoch bei anderen Gelehrten seiner Zeit kaum Interesse. 1820 bis 1836. Im Frühherbst 1820 wurde Ampère, der nun schon 44 Jahre alt war und dessen bisherige wissenschaftliche Arbeiten höchstens als Fußnoten in Lehrbüchern erschienen wären, durch François Arago auf die Versuche Hans Christian Ørsteds zur Ablenkung einer Magnetnadel durch den elektrischen Strom aufmerksam. Ampère wiederholte den Versuch und erkannte, dass Ørstedt die Ablenkung des Magneten durch das Erdmagnetfeld nicht beachtet hatte. Mit einer verbesserten Versuchsanordnung konnte Ampère nun feststellen, dass sich die Magnetnadel immer senkrecht zum stromdurchflossenen Leiter stellte. Ampère nahm nun als Modellhypothese an, dass jeder Magnetismus seine Ursache in elektrischen Strömen habe und Ströme Magnetfelder erzeugen. Er überprüfte seine Hypothese – hypothetisch-deduktiv – zwischen dem 18. September und dem 2. November 1820 und konnte in aufeinander folgenden Versuchen nachweisen, dass zwei stromdurchflossene Leiter eine Anziehungskraft aufeinander ausüben, wenn in beiden Leitern die Elektrische Stromrichtung gleich ist, und dass sie eine Abstoßungskraft aufeinander ausüben, wenn die Stromrichtung entgegengesetzt ist. Ampère konstruierte ein Gerät zur Messung des Stroms, das er Galvanometer nannte. Ampère verfeinerte seine Hypothese, indem er annahm, dass jeder Magnet viele Moleküle enthält, die jeweils einen kleinen Kreisstrom erzeugen. Er erkannte, dass die fließende Elektrizität die eigentliche Ursache des Magnetismus ist. Im Jahr 1822 beschäftigte sich Ampère mit der Kraft zwischen zwei nahe beieinander liegenden stromdurchflossenen Leitern. Er konnte zeigen, dass diese Kraft zu dem Kehrwert des Abstands proportional ist. Bei der mathematischen Behandlung dieser Phänomene nahm er sich das Gravitationsgesetz (als Punkt-Kraft-Gesetz) von Isaac Newton zum Vorbild. Da der Strom jedoch als gerichtete Größe behandelt werden muss und die Stromstärke die Zeit als neue Größe enthält, hat das ampèresche Modell nur eine beschränkte Gültigkeit. Ampère erklärte den Begriff der elektrischen Spannung und des elektrischen Stromes und setzte die Stromrichtung fest. Neben der Begründung der Elektrodynamik erfand Ampère das Prinzip der elektrischen Telegrafie, erstmals angewandt von Carl Friedrich Gauß und Wilhelm Eduard Weber in Göttingen. Ampère glaubte, dass das Erdmagnetfeld durch starke elektrische Ströme ausgelöst wird, die in der Erdrinde von Osten nach Westen fließen. Im Jahr 1827 verschlechterte sich Ampères Gesundheitszustand, und er gab seine aktive wissenschaftliche Forschung auf. In seinen späteren Jahren beschäftigte er sich mit der Naturphilosophie und der prästabilierten Harmonie von Gottfried Wilhelm Leibniz. Da das Denken des Menschen ein Bild des Denkens Gottes sei und Gott das Universum geschaffen habe, sollte nach Leibniz des Menschen Geist imstande sein, das Universum in reinen Denkakten zu verstehen: Sein und Denkgesetze sollten also einander entsprechen. Einheit der Wissenschaft sollte die Widerspiegelung des göttlichen Geistes sein. 1836 starb Ampère in Marseille im Alter von 61 Jahren an einer Lungenentzündung. Er ist in Paris auf dem Cimetière de Montmartre beigesetzt. Ehrungen. Zu Ehren Ampères ist die SI-Einheit des elektrischen Stromes „Ampere“ (Einheitenzeichen A) benannt worden. Er wurde durch Namensnennung auf dem Eiffelturm geehrt. Nach ihm ist seit 1935 ein Mondberg, der Mons Ampère, benannt. Seit 1827 war er korrespondierendes Mitglied der Preußischen Akademie der Wissenschaften. Aphel. __STATICREDIRECT__ Astronomische Einheit. Die Astronomische Einheit (abgekürzt AE, international au für) ist ein Längenmaß in der Astronomie. Die AE hat definitionsgemäß eine Länge von exakt 149 597 870 700 Metern und entspricht etwa dem mittleren Abstand zwischen Erde und Sonne. Die Astronomische Einheit ist neben dem Lichtjahr und dem Parsec die wichtigste Einheit unter den astronomischen Maßeinheiten. Sie gehört nicht zum Internationalen Einheitensystem, ist zum Gebrauch mit dem SI aber zugelassen. Sie ist keine gesetzliche Maßeinheit. Die Astronomische Einheit war historisch von großer Bedeutung für die Astronomie, da die meisten Entfernungsbestimmungen aufgrund der verwendeten Methoden das Ergebnis unmittelbar in AE und nicht in Metern lieferten. Mittlerweile ist jedoch der Umrechenfaktor zwischen AE und Metern so genau bekannt, dass die Verwendung der AE keine Genauigkeitsvorteile mehr bietet. Im Jahre 2012 wurde daher die frühere, von der Gravitationskonstante der Sonne abgeleitete Definition aufgegeben und die AE einfach als eine bestimmte Anzahl von Metern neu definiert. Damit hat die AE ihre ursprüngliche astrophysikalische Bedeutung verloren und ist nur noch eine konventionelle Längeneinheit. Entfernungen innerhalb des Sonnensystems werden jedoch immer noch meist in AE angegeben, da sich so bequeme Zahlenwerte ergeben. Das Internationale Büro für Maß und Gewicht empfiehlt für die Astronomische Einheit das Einheitenzeichen ua; die Internationale Astronomische Union (IAU) sieht für sie das Einheitenzeichen au vor. Im Gegensatz dazu hat sich in der deutschsprachigen Literatur die Verwendung von AE und AU durchgesetzt. Definition. Die AE war ursprünglich als die Länge der großen Halbachse der Erdbahn definiert, später als Radius einer Kreisbahn, auf der ein hypothetischer masseloser Körper die Sonne in einem vorgegebenen Zeitraum umrundete (nähere Details werden im →Abschnitt Geschichte erläutert). Am 30. August 2012 beschloss die in Peking tagende 28. Generalversammlung der Internationalen Astronomischen Union in „Resolution B2“, Gemäß dieser Neudefinition ist die AE nun keine durch Messung zu ermittelnde Eigenschaft des Sonnensystems mehr, sie ist einfach eine Strecke mit einer per Definition exakt festgelegten Länge in Metern. Der gewählte Zahlenwert entspricht dem bis dahin besten Messwert von 149 597 870 700 m ± 3 m. Die vorherige Definition der AE beruhte auf der Gaußschen Gravitationskonstanten, welche, wenn sie unter Verwendung der Längeneinheit „1 AE“, der Zeiteinheit „1 Tag“ und der Masseneinheit „1 Sonnenmasse“ ausgedrückt wurde, einen per Konvention fix vorgegebenen Zahlenwert hatte (siehe →Abschnitt Definition von 1976). Welchen Zahlenwert die so definierte Längeneinheit „1 AE“ annahm, wenn sie in SI-Einheiten (also in Metern) ausgedrückt werden sollte, musste durch Beobachtung der Planetenbewegungen ermittelt werden. Infolge der Neudefinition ist die Länge der AE in Metern nun festgelegt; die Gaußsche Gravitationskonstante wird nicht mehr benötigt und ist künftig nicht mehr Bestandteil der astronomischen Konstantensysteme. Der Zahlenwert der in astronomischen Maßeinheiten ausgedrückten Heliozentrischen Gravitationskonstanten formula_5 war gemäß der vorherigen Definition als Konstante festgelegt. In die Berechnung ihres Zahlenwertes in SI-Einheiten ging jedoch der jeweils aktuelle durch Beobachtung bestimmte Zahlenwert für die Länge der Astronomischen Einheit ein, so dass eine Neuvermessung der AE auch ein verändertes formula_5 nach sich ziehen konnte. Die aufgrund moderner Messungen möglich gewordene direkte Bestimmung von formula_5 in SI-Einheiten macht diesen Umweg über die AE überflüssig. Außerdem ist denkbar, dass eine mögliche zeitliche Änderung von formula_5 in absehbarer Zeit in den Bereich der Messbarkeit rücken könnte. Dies hätte nach der vorherigen Definition die Einführung einer zeitlich veränderlichen AE erfordert, was sich nach der neuen Definition aber erübrigt. Neuere Messungen (2011) deuten bereits eine geringfügige Abnahme von formula_5 an. Die Genauigkeit moderner Positionsmessungen im Sonnensystem ist so hoch, dass relativistische Korrekturen berücksichtigt werden müssen. Die Übertragung der vorherigen Definition in einen relativistischen Begriffsrahmen hätte zusätzliche Konventionen erfordert und eine vom Bezugssystem abhängige Länge der AE ergeben. Die neu definierte AE hingegen hat in allen relativistischen Bezugssystemen dieselbe Länge. Die Resolution legt explizit fest, dass dieselbe Definition für alle relativistischen Zeitskalen (z. B. TCB, TDB, TCG, TT usw.) verwendet werden soll. Die AE als Längeneinheit. Die Umlaufzeiten der Planeten sind leicht zu beobachten und waren schon frühen Astronomen sehr genau bekannt. Mit Hilfe des Dritten Keplerschen Gesetzes ließ sich aus dem Verhältnis der Umlaufzeiten zweier Planeten mit praktisch derselben Genauigkeit auf das Verhältnis ihrer Bahnradien schließen. Die damaligen Ephemeriden konnten daher mit hoher Genauigkeit berechnen, wievielmal z. B. Mars zu einem gegebenen Zeitpunkt weiter von der Sonne entfernt war als die Erde. Man wählte die große Halbachse der Erdbahn als Längenmaß, nannte sie „Astronomische Einheit“ und konnte anstelle der umständlichen Ausdrucksweise „Mars ist heute 1,438mal so weit von der Sonne entfernt wie die große Halbachse der Erdbahn lang ist“ gleichbedeutend einfach sagen „Mars ist heute 1,438 AE von der Sonne entfernt“. Die in dieser Form als AE ausgedrückten Entfernungen (eigentlich die Verhältnisse zweier Entfernungen zueinander) waren recht genau bestimmbar, in irdischen Längenmaßen wie z. B. Meilen oder Metern waren die Entfernungen jedoch nur recht ungenau bekannt. Für wissenschaftliche Zwecke bot sich daher die Verwendung der AE als Längeneinheit an, wofür sie jedoch auch einer hinreichend genauen Definition bedurfte. Erste Definition. Dieses Gesetz enthält nur "Verhältnisse" der Umlaufzeiten, der Massen und der großen Halbachsen. Das Zweite Keplersche Gesetz enthält in ähnlicher Weise nur eine Aussage über die "Verhältnisse" der vom Fahrstrahl in bestimmten Zeitintervallen überstrichenen Flächen. Diese Gesetze liefern die Positionen der Planeten daher zunächst in einem noch unbestimmten Maßstab. Man kann deshalb die Einheiten der vorkommenden Längen, Zeitintervalle und Massen so wählen, dass sie die Rechnungen möglichst einfach gestalten. In der klassischen Astronomie wählte man üblicherweise als "astronomische Längeneinheit" die Länge der großen Halbachse der Erdbahn (1 AE), als "astronomische Masseneinheit" die Masse der Sonne "1 M☉" und als "astronomische Zeiteinheit" den Tag 1 d. Da die Positionen der Himmelskörper an der scheinbaren Himmelskugel (also die Richtungswinkel, unter denen sie dem Beobachter erscheinen) von absoluten Maßstäben unabhängig sind, konnten die Astronomen mit diesen relativen Maßstäben bereits hochpräzise Positionsastronomie betreiben. Die Entfernung eines Planeten konnte außerdem für einen gewünschten Zeitpunkt mit hoher Genauigkeit in Astronomischen Einheiten angegeben werden, die Entfernung in Metern hingegen weit weniger genau, da die Länge der Astronomischen Einheit in Metern nur mäßig genau bekannt war. Ähnlich konnten die Massen der Planeten recht genau in Sonnenmassen angegeben werden, deutlich weniger genau in Kilogramm. Erst in den letzten Jahrzehnten wurde es möglich, auch Entfernungen mit hoher Genauigkeit zu messen (z. B. mittels Laser-Entfernungsmessung zum Mond, mittels Radar-Entfernungsmessung zu Merkur, Venus und Mars, oder mittels Messung der Signallaufzeiten zu Raumsonden). Gaußsche Gravitationskonstante. C. F. Gauß bestimmte 1809 den Wert der Gravitationskonstanten formula_22 in astronomischen Maßeinheiten (große Halbachse der Erdbahn als Längeneinheit AE, mittlerer Sonnentag als Zeiteinheit d, Sonnenmasse als Masseneinheit formula_12), indem er die Formel auf die Erde formula_24 als Planet formula_17 anwandte Dieser Zahlenwert der Gravitationskonstanten in astronomischen Maßeinheiten wurde in der Folge als Standardwert für zahlreiche astronomische Berechnungen verwendet. Definition von 1976. Mit stets verbesserter Kenntnis von formula_28 und formula_29 hätte auch der Zahlenwert von formula_22 ständig verbessert werden können. Der gaußsche Wert lag jedoch bald zahlreichen fundamentalen Tabellen zugrunde, welche bei jeder Veränderung von formula_22 hätten neu berechnet werden müssen. Eine Alternative bestand darin, in der Gleichung „Die astronomische Längeneinheit ist jene Länge (A), für welche die gaußsche Gravitationskonstante (formula_22) den Wert 0,017 202 098 95 annimmt, wenn die Maßeinheiten die Astronomischen Einheiten der Länge, der Masse und der Zeit sind. […]“ Denkt man sich einen solchen fiktiven Körper auf einer ungestörten Bahn, welche dem Gesetz gehorcht und deren große Halbachse gleich der zu bestimmenden neuen Längeneinheit ist Dieser definierende Körper hat also eine Umlaufdauer von Die fiktive Bahn lässt sich ohne Beschränkung der Allgemeingültigkeit als kreisförmig annehmen. Die Definition der AE lässt sich daher auch gleichbedeutend formulieren als Die Astronomische Einheit AE ist der Radius einer kreisförmigen Umlaufbahn, auf welcher ein Körper mit vernachlässigbarer Masse und frei von Störungen in formula_52 Tagen ein Zentralgestirn umläuft, wobei formula_22 die gaußsche Gravitationskonstante ist. Die Praxis, den Zahlenwert von formula_22 festzuhalten und durch ihn die AE zu definieren, war inoffiziell seit dem 19. Jahrhundert üblich. Sie wurde 1938 offiziell von der IAU übernommen, als sie auf der 6. Generalversammlung den gaußschen Zahlenwert für formula_22 per Resolution festschrieb. 1976 erfolgte auf der 28. Generalversammlung erstmals eine explizite textliche Definition. Erdbahn und AE. Auflösen nach formula_39 und Einsetzen der aktuellen Zahlenwerte Aus dem Verhältnis der Umlaufzeiten beider Körper folgt also das Verhältnis ihrer großen Halbachsen. Die eine davon definiert aber gerade die Astronomische Einheit; das Ergebnis ist also die in AE ausgedrückte große Halbachse der Erdbahn, welche nun etwas größer ist als 1 AE. Setzt man diese neuen Zahlenwerte für formula_39, formula_28 und formula_29 anstelle der alten gaußschen Werte in die gaußsche Formel ein, so erhält man nach wie vor den gaußschen Zahlenwert für formula_22. Wenn der in Tagen gemessenen Umlaufzeit der genannte Zahlenwert formula_28 und der in Sonnenmassen gemessenen Erdmasse der genannte Zahlenwert formula_29 beigelegt werden, dann sind die Voraussetzungen der IAU-Definition also erfüllt, wenn die in AE gemessene große Halbachse der Erdbahn den Zahlenwert 1,000000036 erhält. Jene Längeneinheit, in der die große Halbachse gemessen werden muss, um diesen Zahlenwert anzunehmen, ist die mit den aktuellen Werten von formula_28 und formula_29 kompatible aktuelle AE. Gelingt es, die Länge der großen Halbachse in Metern zu ermitteln, so ist über diesen Zusammenhang auch die Länge der AE in Metern bekannt. Heliozentrische Gravitationskonstante. Rechnet man Umlaufzeit formula_71 und große Halbachse formula_72 des fiktiven masselosen Körpers von astronomischen Maßeinheiten wieder nach SI-Einheiten um wobei formula_76 der noch zu bestimmende Umrechnungsfaktor von Astronomischen Einheiten in Meter ist. Einsetzen von Die eben genannte Formel stellt nichts anderes dar als die Umrechnung von "k²" (in astronomischen Maßeinheiten) nach formula_16 bzw. formula_5 (in SI-Einheiten). In astronomischen Maßeinheiten hat formula_22 stets denselben von der Definition der AE festgelegten Zahlenwert. In SI-Einheiten hängt der Zahlenwert von formula_5 ab von dem jeweils aktuellen durch Beobachtung bestimmten Zahlenwert für die Länge formula_76 der Astronomischen Einheit. Nicht vorgesehen ist in der 1976er Definition eine eventuelle physikalisch reale Veränderlichkeit von formula_5, etwa durch eine kosmologische Veränderlichkeit von formula_16 oder den Masseverlust der Sonne. Sollte es infolge gesteigerter Messgenauigkeit notwendig werden, ein zeitlich veränderliches formula_5 zu beschreiben, so könnte dies (da formula_22 ja laut Definition auf seinem gegebenen Zahlenwert fixiert ist) nur durch die sehr unbefriedigende Verwendung einer zeitlich veränderlichen AE geschehen. Die Neudefinition der AE von 2012 entkoppelt "GM☉" und AE und eröffnet so den Weg zur direkten Messung von formula_5 (und seiner eventuellen Veränderlichkeit) in SI-Einheiten. Der Umweg über die AE ist nicht mehr nötig. Eine Änderung des Zahlenwertes formula_76 der AE infolge einer Neubestimmung hat keine Änderung des Zahlenwertes von formula_5 mehr zur Folge. Messung. Um die Länge der AE in Metern zu ermitteln, war es notwendig, die in AE bekannten Entfernungen zu den Planeten oder zur Sonne in Metern zu messen. Dies konnte bis etwa zur Mitte des 20. Jahrhunderts nur durch Triangulationen mit optischen Mitteln geschehen. Die AE wurde hauptsächlich aus hochgenauen Winkelmessungen (Parallaxen) abgeleitet, die von möglichst weit voneinander entfernten Sternwarten aus zu den Planeten Venus und Mars sowie zu erdnahen Asteroiden durchgeführt wurden. Ein kurzer Überblick über diese Bestimmungen der AE bis ins frühe 20. Jahrhundert findet sich im →Artikel Venustransit. Seit einigen Jahrzehnten können Entfernungen im Sonnensystem direkt gemessen werden. Der moderne Wert der AE wurde mittels Radar- und anderen Distanzmessungen von der Erde zu den Nachbarplaneten und zu Raumsonden bestimmt. Aus der Vermessung der „mittleren Bewegungen“ (d. h. der mittleren Geschwindigkeiten) oder der Umlaufperioden der Planeten, welche sich sehr genau bestimmen lassen, folgen über das Dritte Keplergesetz (in der newtonschen Fassung inklusive relativistischer Korrekturen) mit derselben Genauigkeit die großen Halbachsen der Planeten in AE. Die Abstandsmessungen zu den Planeten mittels Radar bestimmen deren Bahngeometrie und damit die großen Halbachsen ihrer Bahnen in Metern; das Verhältnis zur Länge der großen Halbachsen in AE liefert die Länge der AE in Metern sowie den Zahlenwert von formula_5 in formula_96. Die Ephemeride DE405 des JPL liegt derzeit zahlreichen Jahrbüchern und sonstigen Ephemeridenwerken zugrunde. Der aus ihr abgeleitete Zahlenwert von 149 597 870 691 m für die AE war daher für mehrere Jahre der gebräuchlichste Standardwert. Er wurde auch vom IERS empfohlen. Die 27. Generalversammlung der Internationalen Astronomischen Union beschloss im Jahre 2009, im Rahmen des „IAU 2009 System of Astronomical Constants“ den aus damaligen besten Messungen abgeleiteten Mittelwert von 149 597 870 700 m ± 3 m zur allgemeinen Verwendung zu empfehlen. Die 28. Generalversammlung der Internationalen Astronomischen Union beschloss im Jahre 2012, von der bisherigen Definition abzugehen (nach welcher die Länge der Astronomischen Einheit in Metern stets das Ergebnis einer "Messung" gewesen war) und die Astronomische Einheit einfach als eine Strecke der Länge 149 597 870 700 m (exakt) neu zu definieren. Veränderlichkeit der gaußschen AE. Die im Jahre 2012 neu definierte AE ist durch einen festen Zahlenwert festgelegt und damit per Definition unveränderlich. Die über die Gaußsche Konstante definierte frühere AE jedoch ist ein durch Messung zu bestimmender Skalenfaktor des Sonnensystems, der möglicherweise auch Veränderungen des Sonnensystems widerspiegelt. Messungen zur Bestimmung der AE im früheren Sinne können daher durchaus zur Aufdeckung solcher eventueller Veränderungen noch nützlich sein. Auswertungen von Radarmessungen scheinen anzudeuten, dass der Skalenfaktor des Sonnensystems langsam zunimmt. Es werden Änderungsraten von (15 ± 4) Meter/Jahrhundert, (7 ± 2) Meter/Jahrhundert und (1,2 ± 1,1) Meter/Jahrhundert genannt; die Ursache ist bislang unbekannt. Bislang lässt sich nicht ausschließen, dass es sich lediglich um systematische Fehler in den Beobachtungen handelt. Bei der Berechnung der Planetenbahnen oder der Signalausbreitung unberücksichtigt gebliebene Effekte werden für weniger wahrscheinlich gehalten. Erklärungsversuche im Rahmen exotischerer Gravitationstheorien wie zum Beispiel der String-Theorie werden derzeit als „hoch spekulativ“ angesehen. Anders Celsius. Anders Celsius (, * 27. Novemberschwed. / 7. Dezember 1701greg. in Uppsala; † ebenda) war ein schwedischer Astronom, Mathematiker und Physiker. Leben. Anders Celsius wurde 1701 in Uppsala geboren und entstammt einer Adelsfamilie vom Gut Doma in Ovanåker. Er studierte an der Universität Uppsala und wurde dort 1730 Professor. Im Jahr 1733 wurde er zum Mitglied der Leopoldina gewählt. Seit 1734 war er auswärtiges Mitglied der Preußischen Akademie der Wissenschaften. 1736 nahm er an einer Expedition zur Vermessung der Form der Erde teil. 1741 stellte er das erste schwedische Observatorium in Uppsala fertig. Er war außerdem auch Poet und Autor populärwissenschaftlicher Literatur. Celsius war der Erste, der die Helligkeit von Sternen messtechnisch untersuchte; auch fand er heraus, dass Polarlichter das Magnetfeld der Erde stören. Celsius starb im Alter von 42 Jahren an Tuberkulose und wurde in der Kirche von Gamla Uppsala begraben. Die Celsius-Temperaturskala. Anders Celsius definierte 1742 die nach ihm benannte Temperatureinteilung Grad Celsius. Im Gegensatz zur heute verwendeten Celsius-Skala legte er den Siedepunkt von Wasser mit 0° und den Gefrierpunkt mit 100° fest. Erst später wurden die Fixpunkte der Skala vertauscht; heutzutage wird sie ausschließlich in letzterer Form verwendet. Das Revolutionäre war, dass Celsius vorgeschlagen hatte, sie als universelle Skala zu benutzen, um Temperaturen in der ganzen Welt zu vergleichen: Im Gegensatz zu anderen Forschern notierte er bei der genauen Bestimmung der Fixpunkte auch den herrschenden Luftdruck (760 mm auf der Quecksilbersäule) und legte so genaue Messbedingungen fest. Im Jahr 1948 wurde die Temperaturskala von der 9. Generalkonferenz für Maß und Gewicht in Gedenken an Anders Celsius in Celsius-Skala umbenannt. Das Originalthermometer kann heute im Museum der Universität Uppsala, dem Gustavianum, besichtigt werden. Es besteht, genau wie ein heutiges Thermometer, aus einem auf ein Holzbrett mit Skala montierten Quecksilberreservoir mit angesetzter Kapillare. Analysis. Die Analysis ("análysis" ‚Auflösung‘, "analýein" ‚auflösen‘) ist ein Teilgebiet der Mathematik, dessen Grundlagen von Gottfried Wilhelm Leibniz und Isaac Newton als Infinitesimalrechnung unabhängig voneinander entwickelt wurden. Als eigenständiges Teilgebiet der Mathematik neben den klassischen Teilgebieten der Geometrie und der Algebra existiert die Analysis seit Leonhard Euler. Grundlegend für die gesamte Analysis sind die beiden Körper formula_1 (der Körper der reellen Zahlen) und formula_2 (der Körper der komplexen Zahlen) mitsamt deren geometrischen, arithmetischen, algebraischen und topologischen Eigenschaften. Zentrale Begriffe der Analysis sind die des Grenzwerts, der Folge, der Reihe sowie in besonderem Maße der Begriff der Funktion. Die Untersuchung von reellen und komplexen Funktionen hinsichtlich Stetigkeit, Differenzierbarkeit und Integrierbarkeit zählt zu den Hauptgegenständen der Analysis. Die hierzu entwickelten Methoden sind in allen Natur- und Ingenieurwissenschaften von großer Bedeutung. Teilgebiete der Analysis. Die Analysis hat sich zu einem sehr allgemeinen, nicht klar abgrenzbaren Oberbegriff für vielfältige Gebiete entwickelt. Neben der Differential- und Integralrechnung umfasst die Analysis weitere Gebiete, welche darauf aufbauen. Dazu gehören die Theorie der gewöhnlichen und partiellen Differentialgleichungen, die Variationsrechnung, die Vektoranalysis, die Maß- und Integrationstheorie und die Funktionalanalysis. Eine ihrer Wurzeln hat auch die Funktionentheorie in der Analysis. So kann die Fragestellung, welche Funktionen die Cauchy-Riemannschen-Differentialgleichungen erfüllen, als Fragestellung der Theorie partieller Differentialgleichungen verstanden werden. Je nach Auffassung können auch die Gebiete der harmonischen Analysis, der Differentialgeometrie mit den Teilgebieten Differentialtopologie und Globale Analysis, der analytischen Zahlentheorie, der Nichtstandardanalysis, der Distributionentheorie und der mikrolokalen Analysis ganz oder in Teilen dazu gezählt werden. Differentialrechnung. Bei einer linearen Funktion bzw. einer Geraden heißt "m" die Steigung und "c" der y-Achsen-Abschnitt oder Ordinatenabschnitt der Geraden. Hat man nur 2 Punkte formula_4 und formula_5 auf einer Geraden, so kann die Steigung berechnet werden durch Bei nicht linearen Funktionen wie z. B. formula_7 kann die Steigung so nicht mehr berechnet werden, da diese Kurven beschreiben und somit keine Geraden sind. Jedoch kann man an einen Punkt formula_8 eine Tangente legen, die wieder eine Gerade darstellt. Die Frage ist nun, wie man die Steigung einer solchen Tangente an einer Stelle formula_9 berechnen kann. Wählt man eine Stelle formula_10 ganz nahe bei formula_9 und legt eine Gerade durch die Punkte formula_8 und formula_13, so ist die Steigung dieser Sekante nahezu die Steigung der Tangente. Die Steigung der Sekante ist (s. o.) Diesen Quotienten nennt man den Differenzenquotienten oder mittlere Änderungsrate. Wenn wir nun die Stelle formula_10 immer weiter an formula_9 annähern, so erhalten wir per Differenzenquotient die Steigung der Tangente. Wir schreiben und nennen dies die Ableitung oder den Differentialquotienten von "f" in formula_9. Der Ausdruck formula_19 bedeutet, dass "x" immer weiter an formula_9 angenähert wird, bzw. dass der Abstand zwischen "x" und formula_9 beliebig klein wird. Wir sagen auch: „"x" geht gegen formula_9“. Die Bezeichnung formula_23 steht für Limes. Es gibt auch Fälle, in denen dieser Grenzwert nicht existiert. Deswegen hat man den Begriff Differenzierbarkeit eingeführt. Eine Funktion "f" heißt differenzierbar an der Stelle formula_9, wenn der Grenzwert formula_26 existiert. Integralrechnung. Die Integralrechnung befasst sich anschaulich mit der Berechnung von Flächen unter Funktionsgraphen. Diese Fläche kann durch eine Summe von Teilflächen approximiert werden und geht im Grenzwert in das Integral über. Die obige Folge konvergiert, falls "f" gewisse Bedingungen (wie z. B. Stetigkeit) erfüllt. Diese anschauliche Darstellung (Approximation mittels Ober- und Untersummen) entspricht dem sogenannten Riemann-Integral, das in der Schule gelehrt wird. In der sogenannten "Höheren Analysis" werden darüber hinaus weitere Integralbegriffe, wie z. B. das Lebesgue-Integral betrachtet. Hauptsatz der Integral- und Differentialrechnung. Differentialrechnung und Integralrechnung verhalten sich nach dem Hauptsatz der Analysis in folgender Weise „invers“ zueinander. und, falls f zusätzlich auf formula_31 gleichmäßig stetig differenzierbar ist, Deshalb wird die Menge aller Stammfunktionen einer Funktion formula_33 auch als unbestimmtes Integral bezeichnet und durch formula_34 symbolisiert. Mehrdimensionale reelle Analysis. Viele Lehrbücher unterscheiden zwischen Analysis in einer und Analysis in mehreren Dimensionen. Diese Differenzierung berührt die grundlegenden Konzepte nicht, allerdings gibt es in mehreren Dimensionen eine größere mathematische Vielfalt. Die mehrdimensionale Analysis betrachtet Funktionen formula_35 mehrerer reeller Variablen, die oft als ein Vektor beziehungsweise n-Tupel dargestellt werden. Die Begriffe der Norm (als Verallgemeinerung des Betrags), der Konvergenz, der Stetigkeit und der Grenzwerte lassen sich analog in mehrere Dimensionen verallgemeinern. Wichtige Begriffe aus der mehrdimensionalen Differentialrechnung sind die Richtungs- und die partielle Ableitung, welche Ableitungen in einer Variablen beziehungsweise einer Richtung sind. Der Satz von Schwarz stellt sicher, wann partielle beziehungsweise Richtungsableitungen unterschiedlicher Richtungen vertauscht werden dürfen. Außerdem ist der Begriff der totalen Differentiation von Bedeutung. Dieser kann interpretiert werden als die lokale Anpassung einer linearen Abbildung an den Verlauf der mehrdimensionalen Funktion und ist das mehrdimensionale Analogon der (ein-dimensionalen) Ableitung. Der Satz von der impliziten Funktion über die lokale, eindeutige Auflösung impliziter Gleichungen ist eine wichtige Aussage der mehrdimensionalen Analysis und kann als eine Grundlage der Differentialgeometrie verstanden werden. In der mehrdimensionalen Analysis gibt es unterschiedliche Integralbegriffe wie das Kurvenintegral, das Oberflächenintegral und das Raumintegral. Jedoch von einem abstrakteren Standpunkt aus der Vektoranalysis unterscheiden sich diese Begriffe nicht. Zum Lösen dieser Integrale sind der Transformationssatz als Verallgemeinerung der Substitutionsregel und der Satz von Fubini, welcher es erlaubt Integrale über n-dimensionale Mengen in iterierte Integrale umzuwandeln, von besonderer Bedeutung. Auch die Integralsätze aus der Vektoranalysis von Gauß, Green und Stokes sind in der mehrdimensionalen Analysis von Bedeutung. Sie können als Verallgemeinerung des Hauptsatzes der Integral- und Differentialrechnung verstanden werden. Funktionalanalysis. Die Funktionalanalysis ist eines der wichtigsten Teilgebiete der Analysis. Die entscheidende Idee in der Entwicklung der Funktionalanalysis war die Entwicklung einer koordinaten- und dimensionsfreien Theorie. Dies brachte nicht nur einen formalen Gewinn, sondern ermöglichte auch die Untersuchung von Funktionen auf unendlichdimensionalen topologischen Vektorräumen. Hierbei werden nicht nur die reelle Analysis und die Topologie miteinander verknüpft, sondern auch Methoden der Algebra spielen eine wichtige Rolle. Aus wichtigen Resultaten der Funktionalanalysis wie es beispielsweise der Satz von Fréchet-Riesz ist, lassen sich zentrale Methoden für die Theorie partieller Differentialgleichungen ableiten. Zudem ist die Funktionalanalysis, insbesondere mit der Spektraltheorie, der geeignete Rahmen zur mathematischen Formulierung der Quantenmechanik und auf ihr aufbauender Theorien. Theorie der Differentialgleichungen. Eine Differentialgleichung ist eine Gleichung, die eine unbekannte Funktion und Ableitungen von dieser enthält. Treten in der Gleichung nur gewöhnliche Ableitungen auf, so heißt die Differentialgleichung gewöhnlich. Ein Beispiel ist die Differentialgleichung des harmonischen Oszillators. Von einer partiellen Differentialgleichung spricht man, wenn in der Differentialgleichung partielle Ableitungen auftreten. Ein Beispiel dieser Klasse ist die Laplace-Gleichung Ziel der Theorie der Differentialgleichungen ist es, Lösungen, Lösungsmethoden und andere Eigenschaften solcher Gleichungen zu finden. Für gewöhnliche Differentialgleichungen wurde eine umfassende Theorie entwickelt, mit der es möglich ist, zu gegebenen Gleichungen Lösungen anzugeben, insofern diese existieren. Da partielle Differentialgleichungen in ihrer Struktur komplizierter sind, gibt es wenige Theorien, die auf eine große Klasse von partiellen Differentialgleichungen angewandt werden kann. Daher untersucht man im Bereich der partiellen Differentialgleichungen meist nur einzelne oder kleinere Klassen von Gleichungen. Um Lösungen und Eigenschaften solcher Gleichungen zu finden werden vor allem Methoden aus der Funktionalanalysis und auch aus der Distributionentheorie und der mikrolokalen Analysis eingesetzt. Allerdings gibt es viele partielle Differentialgleichungen, bei denen mit Hilfe dieser analytischen Methoden erst wenige Informationen über die Lösungsstruktur in Erfahrung gebracht werden konnten. Ein in der Physik wichtiges Beispiel einer solch komplexen partiellen Differentialgleichung ist das System der Navier-Stokes-Gleichungen. Für diese und für andere partielle Differentialgleichungen versucht man in der numerischen Mathematik näherungsweise Lösungen zu finden. Funktionentheorie. Im Gegensatz zur reellen Analysis, die sich nur mit Funktionen reeller Variablen befasst, werden in der Funktionentheorie (auch komplexe Analysis genannt) Funktionen komplexer Variablen untersucht. Die Funktionentheorie hat sich von der reellen Analysis mit eigenständigen Methoden und andersartigen Fragestellungen abgesetzt. Jedoch werden einige Phänomene der reellen Analysis erst mit Hilfe der Funktionentheorie richtig verständlich. Das Übertragen von Fragestellungen der reellen Analysis in die Funktionentheorie kann daher zu Vereinfachungen führen. Annette von Droste-Hülshoff. Annette von Droste-Hülshoff (* 12. Januar 1797, nach anderen Quellen 10. Januar 1797, auf Burg Hülshoff bei Münster als "Anna Elisabeth Franzisca Adolphina Wilhelmina Ludovica Freiin von Droste zu Hülshoff"; † 24. Mai 1848 auf der Burg Meersburg in Meersburg) war eine deutsche Schriftstellerin und Komponistin. Sie gilt als eine der bedeutendsten deutschen Dichterinnen. Leben. a>. Eine von zwei 1845 entstandenen Fotografien der Dichterin. Annette von Droste-Hülshoff stammte aus dem altwestfälischen, katholischen Adel. Sie wurde als zweites von vier Kindern von Clemens-August II. von Droste zu Hülshoff (1760–1826) und Therese von Haxthausen (1772–1853) am 12. Januar 1797 auf der westfälischen Burg Hülshoff zwischen Havixbeck und Roxel bei Münster geboren. Annette von Droste-Hülshoff führte ein zurückgezogenes und eingeengtes Leben. In ihrer Kindheit und Jugend war sie kränklich, bedingt durch ihre frühe Geburt. Außerdem war sie extrem kurzsichtig. Sie wurde in den Jahren 1812 bis 1819 von Professor Anton Matthias Sprickmann unterrichtet und gefördert. Nach dem Tod ihres Vaters 1826 wurde der Familienbesitz von ihrem Bruder Werner übernommen, sodass sie und ihre ältere Schwester Jenny von Droste zu Hülshoff mit ihrer Mutter auf deren Witwensitz übersiedelten, das Haus Rüschhaus bei Gievenbeck. Eine erste größere Reise führte sie 1825, ein Jahr vor dem Tod ihres Vaters, an den Rhein nach Köln, Bonn und Koblenz. In Bonn, wo ihr Vetter Clemens-August von Droste zu Hülshoff lebte, verband sie eine Freundschaft mit Sibylle Mertens-Schaaffhausen; zu deren Freundeskreis zählten außer Annette von Droste-Hülshoff Johanna und Adele Schopenhauer sowie Goethes Schwiegertochter Ottilie. In Bonn, das sie bis 1842 mehrfach besuchte, begegnete Annette von Droste-Hülshoff außerdem August Wilhelm Schlegel. Zwar stand Annette von Droste-Hülshoff in brieflichem Kontakt mit intellektuellen Zeitgenossen wie den Brüdern Grimm, sie entzog sich aber niemals den Anforderungen ihrer Familie, etwa wenn sie immer wieder als Krankenpflegerin herangezogen wurde. Da sie ständig selbst kränkelte, standen für sie ein Bruch mit der Familie oder der Versuch, durch ihre Schriftstellerei ihren Lebensunterhalt zu verdienen, nie zur Debatte. Wohl aber sah sie ihre Berufung als Dichterin. Auch ihre Mutter erkannte dies und unterstützte ihre Tochter, indem sie beispielsweise versuchte, den Kontakt mit Christoph Bernhard Schlüter herzustellen, was aber zunächst misslang, da dieser die zugesandten Manuskripte für nicht ausreichend erachtete. Annette von Droste-Hülshoff nahm ihre literarische Arbeit sehr ernst und war sich bewusst, große Kunst zu schaffen. Ihre Balladen wurden berühmt "(Der Knabe im Moor)", wie auch ihre Novelle "Die Judenbuche". Ein wichtiges Dokument tiefer Religiosität ist ihr Gedichtzyklus "Das geistliche Jahr", in dem aber – typisch für die Zeit – auch die Zerrissenheit des Menschen zwischen aufgeklärtem Bewusstsein und religiöser Suche gestaltet wird. Die Ausführungen in diesem Werk werden heute als autobiographisch erachtet, da sie über 20 Jahre an dem gesamten Zyklus arbeitete. Bedeutend für ihr literarisches Wirken waren ihre Reisen an den Bodensee, wo sie zunächst zusammen mit der Mutter ihre Schwester Jenny besuchte, die den Freiherrn Joseph von Laßberg („Sepp von Eppishusen“) geheiratet hatte, der sich mit mittelalterlicher Literatur beschäftigte. Ab 1841 wohnte sie vorwiegend bei ihrem Schwager auf Schloss Meersburg am Bodensee, sah ihr Zuhause aber weiterhin im Rüschhaus bei Nienberge, wo unter anderem ihre Amme, die sie bis zu deren Tode pflegte, und ihre Mutter wohnten. Mit Levin Schücking verband sie seit 1837 eine Dichterfreundschaft. Er war der Sohn einer Freundin, die verstarb, als Schücking ca. 17 Jahre alt war. Durch Annette von Droste-Hülshoffs Vermittlung wurde er 1841 auf Schloss Meersburg Bibliothekar. Insbesondere unter dessen Inspiration entstand in Meersburg ein Großteil der „weltlichen“ Gedichte. Annette erwarb am 17. November 1843 ein Haus, das Fürstenhäusle, am Stadtrand inmitten der Weinberge in Meersburg. Am Nachmittag des 24. Mai 1848 verstarb Annette von Droste-Hülshoff auf Schloss Meersburg am Bodensee, vermutlich an einer schweren Lungenentzündung. Ihr Grab befindet sich auf dem Friedhof Meersburg in Meersburg nahe der alten Friedhofskapelle. Droste-Hülshoff als Musikerin und Komponistin. Büste im Garten von Burg Hülshoff, 2006 Annettes Werdegang zu einer der bedeutendsten Schriftstellerinnen ging zunächst mit dem einer Musikerin und Komponistin einher. Ihr Wirken als Komponistin wurde lange Zeit verdrängt oder vergessen. Dabei standen ihre Musik und ihr Dichten zunächst in Wechselwirkung zueinander. Annettes Eltern waren offen für Musik, ihr Vater war selbst passionierter Violinist. Im Stammsitz der Droste-Hülshoffs auf Burg Hülshoff befindet sich noch heute eine ansehnliche Noten- und Musikmaterialien-Sammlung, die für das häusliche Musizieren im Familienkreis unerlässlich war. Die Kinder der Familie wurden oft in Konzert- und Musiktheaterveranstaltungen mitgenommen und mit der zeitgenössischen Musik vertraut gemacht. Annettes Onkel Maximilian-Friedrich von Droste zu Hülshoff war selbst Komponist und Freund Joseph Haydns. Ab 1809 erhielt Annette Klavierunterricht. Sie wurde oft gebeten, vorzuspielen oder andere am Klavier zu begleiten – so perfektionierte sie nach und nach ihr Können. 1812 schrieb ihre Mutter Therese begeistert, dass sich die Tochter „mit aller Heftigkeit ihres Charakters auf’s Componieren geworfen“ habe. 1820 gab Annette ihr erstes öffentliches gesangliches Konzert in Höxter. Erst spät, zwischen 1824 und 1831, erhielt Annette auch Gesangsunterricht. Über ihre Stimme wurde berichtet, sie sei „voll, aber oft zu stark u. grell, geht aber sehr tief, u. ist dann am angenehmsten“. Aus Köln wird berichtet, dass sie eine bessere Stimme als Angelica Catalani (1780–1849) gehabt habe, die als eine der besten Sopranistinnen ihrer Zeit galt. Annette gab auch anderen Familienmitgliedern Unterricht in Gesang und am Klavier. 1821 bekam Annette von ihrem Onkel Maximilian eine Ausgabe seiner Kompositionslehre "Einige Erklärungen über den General=Baß" geschenkt, worüber sie freudig schreibt: „Was folgt daraus? Dass ich aus Dankbarkeit das ganze Werk von Anfang bis Ende durchstudiere und auswendig lerne!“ Optimal vorbereitet – auch durch das Studium zeitgenössischer Musikschriften und Kompositionen – begann Annette zu komponieren. Zu vier Opernprojekten entstanden mehr oder weniger ausgeführte Libretti und Musik. 1836 wurde sie während eines Aufenthaltes im Schweizerischen Eppishausen auf das Lochamer Liederbuch aufmerksam gemacht und angeregt, die darin enthaltenen Lieder für Singstimme und Klavier zu bearbeiten. So haben sich rund 74 Lieder aus ihrer Feder erhalten, die sich ganz auf die Gebote der damaligen Liederschulen berufen und sich durch ihre leichte und eingängige Sangbarkeit auszeichnen. Mit Clara Schumann und Robert Schumann stand Annette in brieflichem Kontakt: 1845 bat die berühmte Pianistin und Komponistin Annette um ein Libretto, damit es ihr Mann vertonen könne. Robert selbst hatte bereits ein Gedicht von Annette ("Das Hirtenfeuer", op. 59,5) in Musik gesetzt, das 1844 in einer Gedichtsammlung erschienen war, die er sehr schätzte. Annette spielte ihre eigenen Werke nie öffentlich. Erst 1877 kam ihr Wirken als Komponistin ans Licht, als Christoph Bernhard Schlüter (1801–1884) einige Werke aus dem Nachlass der Dichterin veröffentlichen ließ ("Lieder mit Pianoforte-Begleitung. Componirt von Annette von Droste-Hülshoff"). Er setzte ihr auch im Nekrolog von 1848 ein Denkmal, indem er „ihr großes Talent für Gesang und Musik“ hervorhob und auch, dass sie die „seltenste Gabe“ besaß, „Poesie in Musik und Musik in Poesie zu übersetzen“. Erst im 20. Jahrhundert wurde ihr Nachlass komplett gesichtet und somit auch ihre Musik eingehender untersucht. Annette von Droste-Hülshoff verknüpfte ihre musikalische Begabung mit einem hohen Anspruch, was aber auch zu einem Konflikt mit ihren literarischen Ambitionen führte: „das Operntextschreiben ist etwas gar zu Klägliches und Handwerksmäßiges“. Letztlich hat sich Annette für die Poesie entschieden – die Musik trat in den Hintergrund. Ihr (musikalischer) Nachlass befindet sich heute als Dauerleihgabe in der Universitäts- und Landesbibliothek Münster. Porträts und Fotografien. Ihre Schwester Jenny malte mehrere Porträts der Dichterin. Eine Miniatur, die 1820 von Jenny geschaffen worden war, diente später als Vorlage für die Gestaltung der vierten Serie der 20-DM-Banknote mit ihrer berühmten Schwester. Als Jugendliche war Annette von Droste-Hülshoff um 1818 auch von C. H. N. Oppermann gemalt worden. Neben einer Zeichnung von Adele Schopenhauer aus dem Jahr 1840 existieren viele Gemälde von Johann Joseph Sprick (1808–1842), den sie häufiger finanziell unterstützte. Fotografisch porträtiert wurde sie von Friedrich Hundt, durch den Daguerreotypien von Annette von Droste-Hülshoff der Nachwelt erhalten blieben. Ehrungen. Neben der bereits erwähnten 20-DM-Banknote war Annette von Droste-Hülshoff auch als Motiv auf zwei deutschen Briefmarken-Dauerserien zu sehen: ab 1961 im Rahmen der Serie "Bedeutende Deutsche" sowie ab 2002 im Rahmen der Serie "Frauen der deutschen Geschichte". Der Annette-von-Droste-Hülshoff-Preis sowie der Droste-Preis der Stadt Meersburg wurden nach ihr benannt. Mehrere Schulen führen ihren Namen. Im Garten von Burg Hülshoff befindet sich ein Denkmal von Anton Rüller und Heinrich Fleige aus dem Jahr 1896. Das Denkmal diente als Vorlage für eine Büste, die sich heute in der Nähe der Burg Meersburg befindet. Sie wurde kurz danach von Emil Stadelhofer gefertigt. Der Droste-Stein im Königslau einem Wald in der Nähe von Bökendorf wurde im Jahr 1964 zur Erinnerung an Annette von Droste-Hülshoff errichtet. Der Hinweis auf den Standort der "Judenbuche" beruht auf einem Irrtum. Der Mord an dem Juden Soistmann Berend aus Ovenhausen am 10. Februar 1783, der die Droste zu ihrer Novelle "Die Judenbuche" anregte, geschah am Südhang des Berges auf dem Waldweg von Bökendorf nach Ovenhausen. Im Münsteraner "Tatort" bringen die Autoren immer wieder eine Hommage an Droste-Hülshoff unter, etwa in Folge 511 ("Der dunkle Fleck", 2002), an deren Anfang die Ballade "Der Knabe im Moor" gebracht wird, oder in Folge 659 ("Ruhe sanft!", 2007), in der in einer nächtlichen Friedhofsszene "Die tote Lerche" rezitiert wird. Der Konstanzer Tatort widmete 2015 die 935. Folge "Château Mort" dem Hochzeitswein der Annette von Droste-Hülshoff. In Roxel wurde eine Straße nach Annette von Droste-Hülshoff benannt. Zudem wird der Stadtteil Münsters am Ortseingangsschild als Geburtsort der Dichterin beworben. Im Juni 2012 wurde bekannt, dass die Gemeinde Havixbeck, der nach der kommunalen Neuordnung im Jahre 1975 die Burg Hülshoff zugeschlagen wurde, plane, ihre Ortseingangsschilder mit dem Zusatz „Havixbeck – Geburtsort der Annette von Droste-Hülshoff“ zu versehen, was in Roxel als „Geschichtsverfälschung“ kritisiert wurde. Literarische Rezeption. Sarah Kirsch drückt in ihrem Gedicht "Der Droste würde ich gerne Wasser reichen" ihre Bewunderung für die Kollegin aus, mit der sie, die „Spätgeborene“, „glucksend übers Moor“ geht, und interpretiert die Beziehung Droste-Hülshoffs zu Levin Schücking "(Ihr Lewin, Beide lieben wir den Kühnen)". Annette von Droste zu Hülshoff-Stiftung. Am 28. September 2012 wurde die Annette von Droste zu Hülshoff-Stiftung offiziell anerkannt. Sie will das Geburtshaus der Dichterin auf Burg Hülshoff bei Havixbeck dauerhaft für die öffentliche Nutzung erhalten. Darüber hinaus werden literarische Veranstaltungen, Ausstellungen und Forschungsvorhaben gefördert. Weblinks. Annette Aktualismus (Geologie). Der Aktualismus (von lateinisch "actualis", „wirklich“), auch Aktualitätsprinzip, Uniformitäts- oder Gleichförmigkeitsprinzip, englisch "Uniformitarianism", ist die grundlegende wissenschaftliche Methode in der Geologie. Allgemeines. Das Prinzip der "Gleichförmigkeit der Prozesse" besagt, dass geologische Vorgänge, die heute zu beobachten sind, ebenso in der Vergangenheit gewirkt haben. Es sind also durch vergleichende Ontologie direkte Rückschlüsse von heutigen Abläufen auf Bildungsprozesse in der Vergangenheit möglich. Wenn man zum Beispiel in versteinerten Gesteinsschichten fossile Rippelmarken findet, die rezenten Sedimentstrukturen gleichen, so darf man davon ausgehen, dass sie auch durch genau dieselben Vorgänge gebildet wurden wie diese. Damit stellt der Aktualismus einen Spezialfall einer allgemeinen wissenschaftlichen Regel dar, des Einfachheitsprinzips. Es besagt, dass man keine zusätzlichen oder unbekannten Ursachen zur Erklärung eines Phänomens heranziehen soll, solange bekannte Ursachen dafür ausreichen. Das Gegenteil der aktualistischen Methode bezeichnet man als Exzeptionalismus. Noch allgemeiner gefasst ist das Axiom der "Gleichförmigkeit der Gesetze". Hierbei nimmt man an, dass überall und zu jeder Zeit dieselben Naturgesetze herrschen und geherrscht haben. Wie jedes Axiom ist es prinzipiell nicht beweisbar, aber ohne diese Grundannahme wäre wissenschaftliches Arbeiten von vornherein unmöglich. Der Aktualismus wurde als Hypothese mehrfach angefochten, zuletzt durch die Vertreter der "Historizität". Dieser Begriff besagt, dass die Naturgesetze sich mit den Bedingungen in geologischen Zeiträumen geändert haben können. Wir würden also heute mit einem Maßstab messen, der sich zeitabhängig geändert hätte. Die theoretische Physik geht hingegen von einer Permanenz und Konstanz der Naturgesetze aus. Die Veränderlichkeit von Anfangs- und Randbedingungen geologischer Prozesse im Verlauf der Erdgeschichte reicht demnach aus, um die in der geologischen Ueberlieferung auftretenden Phänomene, die kein gegenwärtiges Pendant haben, zu erklären. Lyells Gegenmodell zum Katastrophismus. Von einigen Vorläufern abgesehen (Georg Christian Füchsel, Georges-Louis Leclerc de Buffon) wurde der Aktualismus zuerst 1785 von James Hutton (1726–1797) in seinem Werk "Theory of the Earth" formuliert und danach von Charles Lyell in seinem Hauptwerk "Principles of Geology" (1830) weiterentwickelt. Allerdings vermengte Lyell diese methodologischen Ansätze, die selbst von seinen Gegnern nie bezweifelt wurden, in geschickter (aber unzulässiger) Weise mit seiner Theorie von der Gleichförmigkeit der Veränderungen (Gradualismus). Im Gegensatz zum damals noch herrschenden Erklärungsmodell des Katastrophismus glaubte Lyell, dass es in der Erdgeschichte niemals zu Phasen erhöhter geologischer Aktivität gekommen sei, wie etwa verstärkter Vulkanismus, besondere Gebirgsbildungsphasen oder eine schubweise beschleunigte Entwicklung der Lebewesen. Selbst umfassende Umwälzungen der Erde seien ausschließlich durch die langsame Summierung von unzähligen kleinen Ereignissen zu erklären, die sich nach und nach, im Laufe riesiger Zeiträume, akkumuliert hätten. Ebenso vertrat Lyell die Gleichförmigkeit der Zustände. Zum Beispiel widersprach er der damals (und heute) gängigen Ansicht, die Erde müsse aus einem einstmals glutflüssigen Zustand erstarrt sein, und behauptete ein immer gleichbleibendes Verhältnis zwischen kontinentaler Kruste und Ozeanbecken. Auf Grund von Lyells rhetorischem Geschick wurden seine gradualistischen Ansichten rasch von breiten Kreisen übernommen, und besonders Georges Cuviers katastrophistische Kataklysmentheorie wurde schon um 1850 fast vollständig zurückgedrängt. Obwohl Charles Darwin in seiner Evolutionstheorie ebenfalls eine sehr langsame Entwicklung der Lebewesen in unmerklich kleinen Schritten annahm und damit ganz erheblich zur allgemeinen Akzeptanz des Gradualismus beitrug, kostete es Lyell große Mühe, Darwins Theorie zu akzeptieren. Seiner Meinung nach implizierte die Entstehung völlig neuer biologischer Arten eine viel zu große (weil unumkehrbare) Veränderung im Laufe der Erdgeschichte. Erst gegen Ende seines Lebens gab Lyell unter der erdrückenden Last der Belege nach und schloss sich Darwins Theorie über die gerichtete Weiterentwicklung der Lebewesen an. Ebenso sah sich Lyell später gezwungen, die Eiszeittheorie von Louis Agassiz anzuerkennen. Dieser wandte bei seiner Erforschung der Gletscher zwar ebenfalls klare aktualistische Methoden an, blieb aber als Schüler Cuviers Anhänger einer Katastrophenlehre. Grenzen des Aktualismus. Schon Lyells Zeitgenosse Karl Ernst Adolf von Hoff erkannte in seinem Werk "Geschichte der durch Überlieferung nachgewiesenen natürlichen Veränderungen der Erdoberfläche" (1822–1834), dass der Aktualismus als wissenschaftliche Methode zwar unumgänglich ist, dass er aber als Theorie gelegentlich an seine Grenzen stößt. Hoff war der Meinung, dass zuweilen besondere Hypothesen zur Erklärung früherer Vorgänge herangezogen werden dürften, jedoch nur, wenn die Beobachtungen gegenwärtiger Vorgänge und Kräfte dazu nicht ausreichten. Wegen des Erfolges des Lyell’schen Gradualismus gerieten solche Ansätze jedoch weitgehend in Vergessenheit. Erst im Laufe der 1960er und 70er Jahre setzten sich verschiedene Autoren, wie Reijer Hooykaas, Stephen Jay Gould, Martin Rudwick und Roy Porter, wieder kritisch mit dem mehrdeutigen Gleichförmigkeitsbegriff auseinander, wobei sie besonders die Trennung der (axiomatischen) Methode von der (widerlegbaren) Theorie herausarbeiteten. Dies erleichterte in der Folge die „Renaissance“ von katastrophistischen Theorien über den Verlauf der Erdgeschichte, wie zum Beispiel die Deutung der weltweiten Iridium-Anomalie als Resultat eines Meteoriteneinschlags an der Grenze Kreide-Tertiär. Ein Beispiel für die Grenzen der eigentlichen aktualistischen Methode liefert die Interpretation archaischer Tektonik. Hierfür ist es nötig, auf Laborexperimente zurückzugreifen, denn im Archaikum hatte sich das Gestein der Erdkruste noch nicht in die heute zu beobachtenden kontinentalen und ozeanischen Krusten getrennt, konnte sich somit auch noch nicht nach den Gesetzen der heute wirkenden Tektonik verhalten. Ebenso war der Sauerstoffgehalt in der archaischen Atmosphäre so gering, dass sich als Folge riesige Lagerstätten von Eisenmineralen formen konnten, die Banded Iron Formations, deren Bildung heute völlig ausgeschlossen wäre. Generell gilt, dass mit zunehmendem Abstand von der Gegenwart eine aktualistische Deutung geowissenschaftlicher Befunde immer unsicherer wird. "Siehe auch": Geschichte der Geologie Albrecht (Preußen). a>, datiert 1528, im Besitz des Herzog Anton Ulrich-Museums in Braunschweig. Albrecht von Brandenburg-Ansbach als Hochmeister des Deutschen Ordens im Jahre 1522 Albrecht von Preußen (* 17. Mai 1490 in Ansbach; † 20. März 1568 auf der Burg Tapiau im Herzogtum Preußen) war ein Prinz von Ansbach aus der fränkischen Linie der Hohenzollern und ab 1511 Hochmeister des Deutschen Ordens. Er trat 1525 zur Reformation über, säkularisierte den Deutschen Orden in Preußen in seiner Eigenschaft als eine Ordensgemeinschaft und verwandelte als 1. Herzog von Preußen die katholisch dominierte weltliche Herrschaft des Deutschordensstaates in Preußen in das lutherische Herzogtum Preußen, das er bis zu seinem Tod als Herzog regierte. Leben. Geboren wurde Albrecht am 17. Mai 1490 in Ansbach. Sein Vater war Friedrich II., Markgraf von Brandenburg-Ansbach. Seine Mutter Sophie war eine Tochter des polnischen Königs Kasimir IV. Jagiello und der Elisabeth von Habsburg, einer Tochter des deutschen Königs Albrecht II.. Seine Eltern bestimmten Albrecht im Sinne der Dispositio Achillea zur geistlichen Laufbahn. In seinem 21. Lebensjahr wählte ihn der Deutsche Orden 1511 zum 37. Hochmeister. Der Orden beabsichtigte, die 1466 im Frieden von Thorn gegenüber dem König von Polen eingegangene Heeresfolge abzuschütteln. Voraussetzung war, dass der neu gewählte Hochmeister den Lehnseid gegenüber dem König Sigismund I. verweigert. Daher erschien Albrecht, der Sohn eines regierenden Fürsten des Heiligen Römischen Reichs und Neffe Sigismunds, dem Ordenskapitel für das Hochmeisteramt als besonders geeignet. Im Vertrauen auf die Beistandspflicht des Deutschmeisters und des Landmeisters von Livland verweigerte Albrecht dem polnischen König den Lehnseid. Sigismund erreichte jedoch 1513 eine Mahnung des Papstes an Albrecht und 1515 von Kaiser Maximilian die Anerkennung des Friedens von 1466, wofür er im Gegenzug dessen Königtum in Böhmen und Ungarn unterstützte. Nachdem Maximilians Nachfolger Karl V. bei seiner Thronbesteigung 1519 Albrecht zum Lehnseid aufgefordert hatte und klar geworden war, dass weder aus dem Reich noch aus Livland Unterstützung für Albrecht zu erwarten war, fielen polnische Truppen im Winter 1519/1520 in den Ordensstaat ein, um den Orden zu unterwerfen. Wider Erwarten kam es zu keiner Entscheidung. Dänische Unterstützung, ein Söldnerheer aus dem Reich und vor allem die Angst vor dem mit Albrecht verbündeten Russland veranlassten Sigismund mit Albrecht, dessen Söldner immer aufsässiger wurden, im April 1521 durch Vermittlung des Papstes und des Kaisers einen vierjährigen Waffenstillstand zu schließen. In den folgenden zwei Jahren verlief Albrechts Suche nach Unterstützung im Reich unglücklich, während Sigismund sich mit Moskau arrangierte. Jedoch wurde Albrecht 1522 während der Religionskämpfe in Nürnberg von Andreas Osiander für die Reformation gewonnen. Auf Luthers Rat entschloss er sich im November 1523, bestätigt durch Sigismunds Gesandten Achatius von Zehmen, das Amt des Hochmeisters niederzulegen, den Deutschordensstaat in ein weltliches Herzogtum umzuwandeln und dort die Reformation einzuführen. Vor Sigismund legte Albrecht am 8. April 1525 in Krakau den Huldigungseid ab, in dem Albrecht Preußen als ein in gerader, männlicher Linie forterbendes Herzogtum zu Lehen nahm. Mitbelehnt wurden seine Brüder Kasimir und Georg. Auf dem Landtag, der kurz darauf in Königsberg gehalten wurde, erklärten sich alle Stände mit dem Bischof von Samland, Georg von Polenz, an der Spitze für die Anerkennung des Herzogtums und für die Annahme der Reformation. Albrecht setzte an die Durchführung seines Werkes alle Kraft. Sofort erschien eine neue Kirchenordnung, und die Versuche des Deutschen Ordens, Albrecht wieder zu verdrängen, sowie die beim Kammergericht in Deutschland 1531 gegen den Herzog erwirkte und am 18. Januar 1532 verhängte Reichsacht hatten keine andere Wirkung, als dass dieser die Einführung der evangelischen Lehre und die Befestigung seiner Herrschaft umso eifriger betrieb. Das bedeutete das Ende des Ordensstaates in Preußen. Ganz besonders förderte Albrecht das Schulwesen: In den Städten legte er Lateinschulen an, gründete 1540 das Gymnasium in Königsberg und 1544 die dortige Universität, die "Albertus-Universität ("Albertina")". Deutsche Schulbücher (Katechismen etc.) ließ er auf eigene Kosten drucken, und Leibeigenen, welche sich dem Lehrgeschäft widmen wollten, gab er die Freiheit. Von ihm stammt der Text der ersten drei Strophen des Kirchenliedes „Was mein Gott will, gescheh allzeit“ ("Evangelisches Gesangbuch" Nr. 364). Albrecht legte auch den Grundstock zur königlichen Bibliothek, dessen 20 prächtigsten Bände er für seine zweite Gattin Anna Maria in reinem Silber beschlagen ließ. Sie erhielt daher den Namen „Silberbibliothek“. Seine letzten Regierungsjahre wurden ihm durch kirchliche und politische Zerwürfnisse vielfach verbittert. Der Streit des Königsberger Professors Osiander, der Melanchthon heftig anfeindete, mit seinen Kollegen, namentlich mit Joachim Mörlin, gab Anlass zu ernsten Verwicklungen. Der Herzog stand auf Seiten Osianders, der größte Teil der Geistlichkeit, auf das Volk gestützt, hielt es mit dem des Landes verwiesenen Mörlin, ebenso die Städte und der Adel, weil jene so die Anerkennung ihrer ehemaligen Vorrechte, dieser dagegen die Beschränkung der herzoglichen Gewalt auf das Verhältnis des ehemaligen Hochmeisters zu seinem Orden zu erreichen hofften. Fast das ganze Land stand dem Fürsten feindselig gegenüber, der angeklagt wurde, die Ausländer zu sehr zu begünstigen, in der Tat viele Jahre sich vom kroatischen Abenteurer und Universalgelehrten Stanislav Pavao Skalić hatte beherrschen lassen und überdies sehr verschuldet war. Die Stände suchten Hilfe in Polen. Daraufhin sandte Polen 1566 eine Kommission nach Königsberg, die gegen den Herzog entschied. Des Herzogs Beichtvater Johann Funck, der Schwiegersohn Osianders, und zwei Verbündete wurden als Hochverräter zum Tode verurteilt, Mörlin wurde zurückberufen und zum Bischof von Samland ernannt. Als solcher schrieb er zur Verdammung der Osianderschen Lehren das symbolische Buch Preußens: "Repetitio corporis doctrinae Prutenicae". Neue Räte wurden dem Herzog von der polnischen Kommission und den Ständen aufgenötigt. Von ihnen abhängig, verlebte Albrecht seine letzten Tage in tiefem Kummer. Albrecht starb am 20. März 1568 auf der Burg Tapiau an der Pest, 16 Stunden nach ihm auch seine zweite Gemahlin Anna Maria. Gedenken. Im Evangelischen Namenkalender wir seiner am 20. März gedacht. Die 1913 in Königsberg (Ostpreußen) errichtete Herzog-Albrecht-Gedächtniskirche wurde 1972 abgerissen. Ammoniak. Ammoniak, auch:, österr.: ist eine chemische Verbindung von Stickstoff und Wasserstoff mit der Summenformel NH3. Es ist ein stark stechend riechendes, farbloses, wasserlösliches und giftiges Gas, das zu Tränen reizt und erstickend wirkt. Ammoniak ist ein amphoterer Stoff: Unter wässrigen Bedingungen wirkt es als Base. Es bildet mehrere Reihen von Salzen: die kationischen Ammoniumsalze sowie die anionischen Amide, Imide und Nitride, bei denen ein (Amide), zwei (Imide) oder alle (Nitride) Protonen (Wasserstoffionen) durch Metallionen ersetzt sind. Ammoniak ist eine der meistproduzierten Chemikalien und Grundstoff für die Produktion aller weiteren Stickstoffverbindungen. Der größte Teil des Ammoniaks wird zu Düngemitteln, insbesondere Harnstoff und Ammoniumsalzen, weiterverarbeitet. Die Herstellung erfolgt fast ausschließlich über das Haber-Bosch-Verfahren aus den Elementen Wasserstoff und Stickstoff. Biologisch hat Ammoniak eine wichtige Funktion als Zwischenprodukt beim Auf- und Abbau von Aminosäuren. Auf Grund der Giftigkeit größerer Ammoniakmengen wird es zur Ausscheidung im Körper in den ungiftigen Harnstoff oder, beispielsweise bei Vögeln, in Harnsäure umgewandelt. Geschichte. Natürlich vorkommende Ammoniumverbindungen sind schon seit langer Zeit bekannt. So wurde Ammoniumchlorid (Salmiak) schon in der Antike in Ägypten durch Erhitzen von Kamelmist gewonnen. Beim Erhitzen bildet sich Ammoniak, das durch Reaktion mit Chlorwasserstoff Ammoniumchlorid als weißen Rauch bildet. Sowohl Salmiak als auch Ammoniak leiten sich vom lateinischen "sal ammoniacum" ab, das wiederum auf den antiken Namen der Oase Siwa (Oase des Ammon oder Amun) zurückgeht. In der Nähe der Oase befanden sich große Salzvorkommen, allerdings handelte es sich dabei wohl um Natriumchlorid und nicht um natürlich vorkommendes Ammoniumchlorid. Gasförmiges Ammoniak wurde erstmals 1716 von Johannes Kunckel erwähnt, der Gärvorgänge beobachtete. Isoliert wurde das Gas erstmals 1774 von Joseph Priestley. Weitere Forschungen erfolgten durch Carl Wilhelm Scheele und Claude-Louis Berthollet, die die Zusammensetzung des Ammoniaks aus Stickstoff und Wasserstoff erkannten, sowie William Henry, der das exakte Verhältnis der beiden Elemente von 1:3 und damit die chemische Formel NH3 bestimmte. In größerer Menge wurde Ammoniak ab 1840 benötigt, nachdem Justus von Liebig die Stickstoffdüngung zur Verbesserung der Erträge in der Landwirtschaft entwickelt hatte. Zunächst wurde Ammoniak als Nebenprodukt bei der Destillation von Kohle gewonnen, dies war jedoch nach kurzer Zeit nicht mehr ausreichend, um die Nachfrage nach Düngemittel zu decken. Ein erstes technisches Verfahren, um größere Mengen Ammoniak zu gewinnen, war 1898 das Frank-Caro-Verfahren, bei dem Calciumcarbid und Stickstoff zu Calciumcyanamid und dieses anschließend mit Wasser zu Ammoniak umgesetzt wurden. Ab etwa 1900 begann Fritz Haber, aber auch Walther Nernst, mit der Erforschung der direkten Reaktion von Stickstoff und Wasserstoff zu Ammoniak. Sie erkannten bald, dass diese Reaktion bei Normalbedingungen nur in sehr geringem Umfang stattfindet und dass für hohe Ausbeuten hohe Temperaturen, ein hoher Druck sowie ein geeigneter Katalysator nötig sind. 1909 gelang es Haber erstmals, mit Hilfe eines Osmiumkatalysators Ammoniak im Labormaßstab durch Direktsynthese herzustellen. Daraufhin versuchte er mit Hilfe von Carl Bosch dieses Verfahren, das spätere Haber-Bosch-Verfahren auch im industriellen Maß anzuwenden. Dies gelang nach Überwindung der durch das Arbeiten unter hohem Druck verursachten technischen Probleme 1910 im Versuchsbetrieb. 1913 wurde bei der BASF in Ludwigshafen die erste kommerzielle Fabrik zur Ammoniaksynthese in Betrieb genommen. Dabei wurde ein inzwischen von Alwin Mittasch entwickelter Eisen-Mischkatalysator anstatt des teuren Osmiums genutzt. Dieses Verfahren wurde schon nach kurzer Zeit in großem Maßstab angewendet und wird bis heute zur Ammoniakproduktion genutzt. 1918 erhielt Fritz Haber für die Entwicklung der Ammoniaksynthese den Chemie-Nobelpreis, 1931 zusammen mit Friedrich Bergius auch Carl Bosch für die Entwicklung von Hochdruckverfahren in der Chemie. Über die genauen Abläufe der Reaktion am Katalysator war dagegen lange Zeit nichts Genaues bekannt. Da es sich hierbei um Oberflächenreaktionen handelt, konnten sie erst nach der Entwicklung geeigneter Techniken wie dem Ultrahochvakuum oder dem Rastertunnelmikroskop untersucht werden. Die einzelnen Teilreaktionen der Ammoniaksynthese wurden dabei von Gerhard Ertl entdeckt, der hierfür auch den Nobelpreis für Chemie 2007 erhielt. Die Reaktion von Ammoniak zu Salpetersäure wurde erstmals ab 1825 von Frédéric Kuhlmann untersucht. Ein technisch anwendbares Verfahren für die Salpetersäuresynthese aus Ammoniak wurde mit dem heutigen Ostwald-Verfahren Anfang des 20. Jahrhunderts von Wilhelm Ostwald entwickelt. Dieses wurde nach Entwicklung des Haber-Bosch-Verfahrens auch technisch wichtig und löste bald weitgehend das bisherige Produktionsverfahren aus teurem Chilesalpeter ab. Vorkommen. Da Ammoniak leicht mit sauren Verbindungen reagiert, kommt freies Ammoniakgas nur in geringen Mengen auf der Erde vor. Es entsteht bei der Zersetzung von abgestorbenen Pflanzen und tierischen Exkrementen. Bei der sogenannten Humifizierung werden stickstoffhaltige Bestandteile der Biomasse durch Mikroorganismen so abgebaut, dass unter anderem Ammoniak entsteht. Dieses gelangt als Gas in die Luft, reagiert dort jedoch mit Säuren wie Schwefel- oder Salpetersäure und bildet die entsprechenden Salze. Diese können auch über größere Strecken transportiert werden und gelangen leicht in den Boden. Wichtige Quellen für die Ammoniakemission sind Vulkanausbrüche, die Viehhaltung wie die Rindermast und auch der Verkehr. Ammoniumsalze sind dagegen auf der Erde weit verbreitet. Das häufigste Ammoniumsalz ist Salmiak (Ammoniumchlorid), aber auch Diammoniumhydrogenphosphat (Phosphammit), Ammoniumsulfat (Mascagnin) und eine Anzahl komplizierter aufgebauter Ammoniumsalze mit weiteren Kationen sind aus der Natur bekannt. Diese findet man vor allem in der Umgebung von Vulkanen oder brennenden Kohleflözen, in denen organische Substanzen unter anderem zu Ammoniak zersetzt werden. So wird Salmiak vorwiegend als Sublimationsprodukt um Fumarolen gefunden, wo sich die im heißen Dampf enthaltenen Chlorwasserstoff- und Ammoniak-Gase als Ammoniumchlorid niederschlagen. Auch viele Gesteine und Sedimente, vor allem Muskovit, Biotit und Feldspat-Minerale, enthalten Ammonium. Dagegen enthalten Quarzgesteine nur geringe Mengen Ammonium. Für die Verteilung spielt neben dem Ursprung des Ammoniums auch das Entweichen von Ammoniak bei der Metamorphose eine Rolle. Ammoniak kommt auch im Weltall vor. Es war 1968 das erste Molekül, das durch sein Mikrowellenspektrum im interstellaren Raum gefunden wurde. Auch auf den Gasplaneten des Sonnensystems kommt Ammoniak vor. Gewinnung und Darstellung. Ammoniak ist eine Grundchemikalie und wird in großem Maßstab produziert. Im Jahr 2011 wurden weltweit 136 Millionen Tonnen hergestellt. Die Hauptproduzenten sind die Volksrepublik China, Indien, Russland und die Vereinigten Staaten. Für die Ammoniakproduktion werden große Mengen fossiler Energieträger benötigt. Der Anteil der Ammoniakproduktion am weltweiten Verbrauch fossiler Energieträger beträgt etwa 1,4 %. Über 90 % des produzierten Ammoniaks wird in der Direktsynthese über das Haber-Bosch-Verfahren produziert. Dabei reagieren die Gase Stickstoff und Wasserstoff in einer heterogenen Katalysereaktion in großen Reaktoren miteinander. Vor der eigentlichen Reaktion müssen zunächst die Ausgangsstoffe gewonnen werden. Während Stickstoff als Luftbestandteil in großen Mengen zu Verfügung steht und durch Luftverflüssigung gewonnen wird, muss Wasserstoff zunächst aus geeigneten Quellen hergestellt werden. Das wichtigste Verfahren stellt dabei die Dampfreformierung dar, bei dem vor allem Erdgas, aber auch Kohle und Naphtha in zwei Schritten mit Wasser und Sauerstoff zu Wasserstoff und Kohlenstoffdioxid umgesetzt werden. Nach Abtrennung des Kohlenstoffdioxides wird der Wasserstoff im richtigen Verhältnis mit Stickstoff gemischt und je nach Verfahren auf 80–400 bar, typischerweise auf 150–250 bar, verdichtet. Das Gasgemisch wird in den Reaktionskreislauf eingespeist. Dort wird es zunächst zur Entfernung von Wasserspuren gekühlt und anschließend an Wärmetauschern auf 400–500 °C erhitzt. Das heiße Gasgemisch kann nun im eigentlichen Reaktor an Eisenkatalysatoren, die mit verschiedenen Promotoren wie Aluminiumoxid oder Calciumoxid vermischt sind, zu Ammoniak reagieren. Aus wirtschaftlichen Gründen werden die Gase im technischen Betrieb nur eine kurze Zeit den Katalysatoren ausgesetzt, so dass sich das Gleichgewicht nicht einstellen kann und die Reaktion nur unvollständig abläuft. Das Gasgemisch, das nun einen Ammoniakgehalt von etwa 16,4 % hat, wird in mehreren Stufen abgekühlt, so dass das Ammoniak flüssig wird und abgetrennt werden kann. Das verbleibende Gemisch aus Stickstoff, Wasserstoff und einem kleinen Restanteil Ammoniak wird zusammen mit frischem Gas wieder in den Kreislauf eingespeist. Eine mögliche Katalysator-Alternative wäre Ruthenium, das eine deutlich höhere Katalysatoraktivität besitzt und damit höhere Ausbeuten bei niedrigen Drücken ermöglicht. Auf Grund des hohen Preises für das seltene Edelmetall Ruthenium findet die industrielle Anwendung eines solchen Katalysators aber bislang nur in geringem Umfang statt. 2014 wurde eine alternative Synthese zum Haber-Bosch-Verfahren mit deutlich geringerem Energieverbrauch vorgestellt. Hierbei dienen Nanopartikel von Eisen(III)-oxid, die einem äquimolaren Gemisch aus Kaliumhydroxid und Natriumhydroxid zugesetzt werden, als Katalysator. Das Gemisch wird auf 200 °C erhitzt und unter Spannung gesetzt (1,2 V). Wasserdampf und Luft werden zugefügt, worauf sich Ammoniak bildet. Der Wirkungsgrad bezogen auf die eingesetzte elektrische Ladung (Faradayscher Wirkungsgrad) beträgt 35 %. Physikalische Eigenschaften. Ammoniak ist bei Raumtemperatur ein farbloses, diamagnetisches, stechend riechendes Gas. Unterhalb von −33 °C wird es flüssig. Die Flüssigkeit ist farblos und stark lichtbrechend. Auch durch Druckerhöhung lässt sich das Gas leicht verflüssigen; bei 20 °C ist schon ein Druck von 900 kPa ausreichend. Die kritische Temperatur ist 132,4 °C, der kritische Druck beträgt 113 bar, die kritische Dichte ist 0,236 g/cm3. Innerhalb des Bereichs von 15,4 bis 33,6 Vol-% (108–336 g/m3) ist Ammoniak explosionsgefährlich. Seine Zündtemperatur liegt bei 630 °C. In der flüssigen Phase bildet Ammoniak Wasserstoffbrückenbindungen aus, was den verhältnismäßig hohen Siedepunkt und eine hohe Verdampfungsenthalpie von 23,35 kJ/mol begründet. Um diese Bindungen beim Verdampfen aufzubrechen, wird viel Energie gebraucht, die aus der Umgebung zugeführt werden muss. Deshalb eignet sich flüssiges Ammoniak zur Kühlung. Vor der Verwendung der Halogenkohlenwasserstoffe war Ammoniak ein häufig benutztes Kältemittel in Kühlschränken. Unterhalb von −77,7 °C erstarrt Ammoniak in Form von farblosen Kristallen. Es kristallisiert dabei im kubischen Kristallsystem mit einem Gitterparameter a = 508,4 pm (−196 °C). Bei −102 °C beträgt der Gitterparameter a =  513,8 pm. Die Struktur lässt sich von einem kubisch-flächenzentrierten Gitter ableiten, wobei sechs der zwölf Nachbarmoleküle näher zum Zentralmolekül gelegen sind, als die übrigen sechs. Jedes freie Elektronenpaar ist dabei mit jeweils drei Wasserstoffatomen koordiniert. Molekulare Eigenschaften. Ammoniak ist aus einzelnen Molekülen aufgebaut, die jeweils aus einem Stickstoff- und drei Wasserstoffatomen bestehen. Die Atome sind dabei nicht in einer Ebene, sondern in Form einer dreiseitigen Pyramide angeordnet. Das Stickstoffatom bildet die Spitze, die Wasserstoffatome die Grundfläche der Pyramide. Für diese Form verantwortlich ist ein freies Elektronenpaar des Stickstoffs. Wird dieses berücksichtigt, entspricht die Struktur der eines verzerrten Tetraeders. Gemäß dem VSEPR-Modell ergibt sich durch das freie Elektronenpaar eine Abweichung vom idealen Tetraederwinkel (109,5°) zu einem Wasserstoff-Stickstoff-Wasserstoff-Winkel von 107,3°. Dieser liegt damit zwischen den Bindungswinkeln im Methan (idealer Tetraederwinkel von 109,5°) und Wasser (größere Verzerrung durch zwei freie Elektronenpaare, Winkel 104,5°). Die Bindungslänge der Stickstoff-Wasserstoff-Bindung im Ammoniak liegt bei 101,4 pm, was wiederum zwischen den Bindungslängen im Methan von 108,7 pm und Wasser (95,7 pm) liegt. Dies lässt sich durch die zunehmende Elektronegativitätsdifferenz von Kohlenstoff über Stickstoff zu Sauerstoff und damit einer stärkeren polaren Bindung erklären. Das Ammoniakmolekül ist nicht starr, die Wasserstoffatome können über einen planaren Übergangszustand auf die andere Seite der Pyramide klappen. Die Energiebarriere für die pyramidale Inversion ist mit 24,2 kJ/mol so klein, dass sich bei Raumtemperatur von Ammoniak und davon ableitbaren Aminen NR3 (R: organische Reste) keine Enantiomere isolieren lassen. Ammoniakmoleküle besitzen eine sehr exakte und konstante Schwingungsfrequenz von 23,786 GHz, die zur Zeitmessung verwendet werden kann. Unter anderem wurde die erste Atomuhr mit Hilfe der Ammoniak-Schwingungsfrequenz konstruiert. Flüssiges Ammoniak. Flüssiges Ammoniak ist ein gutes Lösungsmittel und zeigt ähnliche Eigenschaften wie Wasser. Es löst viele organische Verbindungen, wie Alkohole, Phenole, Aldehyde und Ester und viele Salze unter Solvatisierung der sich bildenden Ionen. Flüssiges Ammoniak reagiert mit elementaren Alkalimetallen, sowie elementarem Calcium, Strontium und Barium, unter Bildung von tiefblauen Lösungen. Es bilden sich solvatisierte Metallionen und solvatisierte Elektronen. Die Farbe wird durch solvatisierte Elektronen verursacht, die ohne Bindung zu einem bestimmten Atom in der Lösung vorhanden sind. Diese verursachen auch eine gute elektrische Leitfähigkeit der Lösungen. Wässrige Lösungen. In Wasser ist Ammoniak sehr gut löslich. Bei 0 °C lösen sich 1176 Liter Ammoniak in einem Liter Wasser. Die Lösungen werden Ammoniumhydroxid, "Salmiakgeist" oder "Ammoniakwasser" genannt und reagieren basisch. Redoxreaktionen. Ammoniak kann mit Sauerstoff reagieren und zu Stickstoff und Wasser verbrennen. An der Luft lässt sich Ammoniak zwar entzünden, die freiwerdende Energie reicht aber nicht für eine kontinuierliche Verbrennung aus; die Flamme erlischt. In reinem Sauerstoff verbrennt Ammoniak dagegen gut, bei höherem Druck kann diese Reaktion auch explosionsartig erfolgen. Eine entsprechende Reaktion erfolgt auch mit starken Oxidationsmitteln wie Halogenen, Wasserstoffperoxid oder Kaliumpermanganat. In Gegenwart von Platin- oder Rhodium-Katalysatoren reagiert Ammoniak und Sauerstoff nicht zu Stickstoff und Wasser, sondern zu Stickoxiden, wie etwa Stickstoffmonoxid. Diese Reaktion wird bei der Produktion von Salpetersäure im Ostwald-Verfahren genutzt. Mit besonders reaktionsfähigen Metallen wie Alkali- oder Erdalkalimetallen und in Abwesenheit von Wasser bilden sich in einer Redoxreaktion Amide der allgemeinen Form MINH2 (MI: einwertiges Metallatom), wie z. B. Natriumamid. Verbindungen der Form M2NH, bei denen zwei der drei Wasserstoffatome ersetzt sind, heißen Imide und sind keine Wasserstoffatome vorhanden, spricht man von Nitriden. Sie lassen sich durch Erhitzen von Amiden gewinnen. Die Alkali- und Erdalkalisalze setzen sich mit Wasser zu Metallhydroxiden und Ammoniak um. Amminkomplexe. Amminkomplexe von Cu(II)- (links) und Cobalt(III)-ionen Ammoniak neigt zur Komplexbildung mit vielen Übergangsmetallen. Beständige Komplexe sind besonders von Cr3+, Co3+, Pd2+, Pt4+, Ni2+, Cu2+ bekannt. Bei einem reinen Amminkomplex liegt ein Kation vor, das die Ladung des Metalls trägt und die Ammoniakmoleküle als einzähnige Liganden um ein zentrales Metallatom herum gruppiert sind. Der Ligand bindet sich über sein freies Elektronenpaar an das Zentralatom. Die Bildungsreaktionen der Komplexe lassen sich mit dem Lewis-Säure-Base-Konzept beschreiben. Die Amminkomplexe haben die allgemeine Struktur Ein bekannter Amminkomplexe ist der Kupfertetramminkomplex [Cu(NH3)4]2+, der eine typische blaue Farbe besitzt und als Nachweis für Kupfer genutzt werden kann. Stabile Komplexe lassen sich in Form von Salzen, z. B. als Sulfate gewinnen und werden Ammin-Salze oder Ammoniakate genannt. Amminkomplexe können neben Ammoniak auch andere Liganden tragen. Neben dem reinen Chromhexamminkomplex formula_15 sind auch Komplexe mit der allgemeinen Struktur bekannt. Die Komplexe können durch die Ladungskompensation durch die ionischen Liganden daher auch Anionen oder eine molekulare (ungeladene) Struktur aufweisen. Ein Beispiel dafür ist Cisplatin, [Pt(Cl)2(NH3)2], ein quadratisch-planarer Platin(II)-Komplex mit zwei Amminliganden und zwei Chlorid-Ionen, der ein wichtiges Zytostatikum darstellt. An Ammoniak-Chlor-Komplexen des Cobalts wurde 1893 von Alfred Werner erstmals eine Theorie zur Beschreibung von Komplexen aufgestellt. Verwendung. Ammoniumhaltiger Dünger (Kalkammonsalpeter – Calciumammoniumnitrat) Ammoniak ist der Grundstoff für die Herstellung aller anderen industriell hergestellten stickstoffhaltigen Verbindungen. Mit einem Anteil von 40 % im Jahr 1995 ist dabei Harnstoff die wichtigste aus Ammoniak hergestellte Verbindung, die vorwiegend als Düngemittel und für die Produktion von Harnstoffharzen eingesetzt wird; Harnstoff wird durch Reaktion von Ammoniak mit Kohlenstoffdioxid gewonnen. Neben Harnstoff werden auch weitere Stickstoffdünger aus Ammoniak hergestellt. Zu den wichtigsten zählen die Ammoniumsalze Ammoniumnitrat, -phosphat und -sulfat. Insgesamt lag der Anteil von Düngemitteln am Gesamtammoniakverbrauch im Jahr 2003 bei 83 %. Ein weiterer wichtiger aus Ammoniak hergestellter Stoff ist die Salpetersäure, die wiederum Ausgangsmaterial für eine Vielzahl weiterer Verbindungen ist. Im Ostwald-Verfahren reagiert Ammoniak an Platinnetzen mit Sauerstoff und bildet so Stickoxide, die mit Wasser weiter zu Salpetersäure reagieren. Zu den aus Salpetersäure hergestellten Verbindungen zählen unter anderem Sprengstoffe wie Nitroglycerin oder TNT. Weitere aus Ammoniak synthetisierte Stoffe sind Amine, Amide, Cyanide, Nitrate und Hydrazin. Ammoniak spielt eine Rolle in verschiedenen organischen Synthesen. Primäre Carbonsäureamide können aus Ammoniak und geeigneten Carbonsäurederivaten wie Carbonsäurechloriden oder -estern gewonnen werden. Die direkte Reaktion von Carbonsäure und Ammoniak zum entsprechenden Amid erfolgt dagegen nur bei erhöhten Temperaturen, wenn sich das zuvor gebildete Ammoniumsalz zersetzt. Eine technisch wichtige Reaktion ist die von Adipinsäure und Ammoniak zu Adipinsäuredinitril. Dieses wird weiter zu Hexamethylendiamin hydriert und ist damit ein Zwischenprodukt für die Herstellung von Nylon. Es ist möglich, Anilin durch die Reaktion von Phenol und Ammoniak an einem Aluminium-Silikat-Katalysator herzustellen. Diese Syntheseroute erfordert jedoch mehr Energie und ergibt eine geringere Ausbeute als die Synthese und Reduktion von Nitrobenzol und wird daher nur in geringem Maß angewendet, wenn Phenol preiswert zur Verfügung steht. Die Reaktion von Ammoniak mit Säuren wird in der Rauchgasreinigung ausgenutzt. Es ist in der Lage, mit Schwefel- und Salpetersäure zu reagieren und entzieht so dem Rauchgas unerwünschte, umweltschädliche Schwefel- und Stickoxide. Aufgrund seiner großen spezifischen Verdampfungsenthalpie von 1368 kJ/kg wird Ammoniak auch als Kältemittel eingesetzt. Vorteile sind eine geringe Entflammbarkeit, der nicht vorhandene Beitrag zum Treibhauseffekt oder zur Zerstörung der Ozonschicht sowie der Verwendungsbereich von −60 bis +100 °C. Nachteilig ist die Toxizität der Verbindung. Ammoniaklösung wird auch in Riechampullen verwendet. Der extreme Geruchsreiz dient als antidissoziative Strategie, etwa im Rahmen einer Dialektisch-Behavioralen Therapie. Ammoniak reagiert mit der in Hölzern vorkommenden Gerbsäure und färbt das Holz je nach Konzentration der Gerbsäure dunkelbraun. So wird beispielsweise Eichenholz mit Ammoniak oder Salmiak zu der dunkelbraun erscheinenden Räuchereiche verwandelt. Ammoniak wird des Weiteren experimentell dazu verwendet, Brennstoffzellen zu entwickeln, in denen der benötigte Wasserstoff zum Zeitpunkt des Bedarfs dadurch gewonnen wird, dass das Ammoniak durch chemische Verfahren gespalten wird. Bei der Herstellung von Lichtpausen (Diazotypien) wird Ammoniak zur Färbung verwendet. Biologische Bedeutung. Cyanobakterien können Ammoniak aus Stickstoff gewinnen Nur wenige Mikroorganismen sind in der Lage, Ammoniak in der sogenannten Stickstofffixierung direkt aus dem Stickstoff der Luft zu gewinnen. Beispiele hierfür sind Cyanobakterien oder Proteobacterien wie Azotobacter. Aus diesem über das Enzym Nitrogenase gewonnenen Ammoniak werden von den Bakterien Aminosäuren synthetisiert, die von allen Lebewesen benötigt werden. Die meisten Leguminosen, wie Bohnen, Klee und Lupinen sind für eine bessere Versorgung mit Aminosäuren auch Symbiosen mit bestimmten Bakterienarten eingegangen. Auch im Stoffwechsel beim Auf- und Abbau von Aminosäuren spielt Ammoniak, das unter biochemischen Bedingungen als Ammonium vorliegt, eine wichtige Rolle. Aus Ammonium und α-Ketoglutarat entsteht durch reduktive Aminierung Glutamat, aus dem wiederum durch Transaminierung weitere Aminosäuren synthetisiert werden können. Während Mikroorganismen und Pflanzen auf diese Art alle Aminosäuren synthetisieren, beschränkt sich dies bei Mensch und Tieren auf die nicht-essentiellen Aminosäuren. Ebenso erfolgt der Abbau von Aminosäuren zunächst über eine Transaminierung zu Glutamat, das durch das Enzym Glutamatdehydrogenase wieder in α-Ketoglutarat und Ammoniak gespalten wird. Da größere Mengen Ammoniak toxisch wirken und auch nicht vollständig für den Aufbau neuer Aminosäuren verwendet werden können, muss es eine Abbaumöglichkeit geben. Der Weg, das überschüssige Ammoniak aus dem Körper zu entfernen, entscheidet sich je nach Tierart und Lebensraum. Wasserbewohnende Lebewesen können Ammonium direkt an das umgebende Wasser abgeben und benötigen keinen ungiftigen Zwischenspeicher. Lebewesen, die auf dem Land leben, müssen das Ammoniak hingegen vor dem Ausscheiden in ungiftige Zwischenprodukte umwandeln. Dabei gibt es im Wesentlichen zwei Stoffe, die genutzt werden. Insekten, Reptilien und Vögel verwenden die wasserunlösliche Harnsäure, die als Feststoff ausgeschieden wird (Uricotelie). Dies ist in wasserarmen Gebieten und bei der Einsparung von Gewicht bei Vögeln vorteilhaft. Säugetiere sind dagegen in der Lage, Ammonium in der Leber über den Harnstoffzyklus in ungiftigen und wasserlöslichen Harnstoff umzuwandeln (Ureotelie). Dieser kann dann über den Urin ausgeschieden werden. Harnstoff kann durch das Enzym Urease, das in manchen Pflanzen wie der Sojabohne oder der Schwertbohne, in bestimmten Bakterien und wirbellosen Tieren vorkommt, in Ammoniak und Kohlenstoffdioxid gespalten werden. Diese Bakterien finden sich unter anderem im Pansen von Wiederkäuern und bewirken, dass auch Jauche und Mist dieser Tiere ammoniakhaltig ist. Dies stellt auch die größte anthropogene Ammoniak-Quelle in der Umwelt dar. Eine besondere Bedeutung hat Ammoniak in der Ökologie der Gewässer. Abhängig von pH-Wert verschiebt sich hier das Verhältnis der gelösten Ammonium-Ionen und dem ungelösten Ammoniak im Wasser, wobei die Konzentration des Ammoniaks bei zunehmenden pH-Werten zunimmt, während die der Ammonium-Ionen entsprechend abnimmt. Bei Werten bis etwa pH 8 liegen fast ausschließlich Ammonium-Ionen vor, bei einer Überschreitung eines pH-Wertes von 10,5 fast ausschließlich Ammoniak. Eine Steigerung des pH-Werts kann vor allem durch starke Steigerung der Photosyntheseaktivität, etwa bei Algenblüten, in schwach abgepufferten und abwasserbelasteten Gewässern auftreten. Da Ammoniak für die meisten Organismen der Gewässer toxisch ist, kann bei einer Überschreitung des kritischen pH-Wertes plötzliches Fischsterben auftreten. Toxikologie. Durch den unangenehmen Geruch, der schon bei niedrigen Konzentrationen wahrnehmbar ist, existiert eine Warnung, so dass Vergiftungsfälle mit Ammoniak selten sind. Gasförmiges Ammoniak kann vor allem über die Lungen aufgenommen werden. Dabei wirkt es durch Reaktion mit Feuchtigkeit stark ätzend auf die Schleimhäute. Auch die Augen werden durch die Einwirkung von Ammoniak stark geschädigt. Beim Einatmen hoher Konzentrationen ab etwa 1700 ppm besteht Lebensgefahr durch Schäden in den Atemwegen (Kehlkopfödem, Stimmritzenkrampf, Lungenödeme, Pneumonitis) und Atemstillstand. Beim Übergang substantieller Ammoniakmengen ins Blut steigt der Blutspiegel von NH4+ über 35 µmol/l, was zentralnervöse Erscheinungen wie Tremor der Hände, Sprach- und Sehstörungen und Verwirrung bis hin zum Koma und Tod verursachen kann. Die pathophysiologischen Mechanismen sind noch nicht eindeutig geklärt, Ammoniak scheint vor allem die Astrozyten im Gehirn zu schädigen. Akute Ammoniakvergiftungen können außer durch Einatmung auch infolge von Leberversagen (→ Hepatische Enzephalopathie) oder bei Enzymdefekten auftreten, da dann im Stoffwechsel anfallende N-Verbindungen nicht zu Harnstoff umgebaut und ausgeschieden werden können („endogene Ammoniakvergiftung“). Eine mögliche Erklärung für die nerventoxische Wirkung von Ammoniak ist die Ähnlichkeit von Ammonium mit Kalium. Durch den Austausch von Kalium durch Ammonium kommt es zu Störungen der Aktivität des NMDA-Rezeptors und in Folge davon zu einem erhöhten Calcium-Zufluss in die Nervenzellen, was deren Zelltod bewirkt. Das Zellgift Ammoniak wirkt vorwiegend auf Nerven- und Muskelzellen. Nahezu alle biologischen Membranen sind aufgrund der geringen Größe des Moleküls sowie seiner Lipidlöslichkeit für Ammoniak durchlässig. Die Cytotoxizität beruht dabei auch auf der Störung des Citratzyklus, indem der wichtige Metabolit α-Ketoglutarsäure zu Glutaminsäure aminiert wird, sowie auf der Störung des pH-Werts der Zellen. Die encephalotoxische Wirkung wird auch mit einem erhöhten Glutaminspiegel im Gehirn sowie der Bildung von reaktiven Sauerstoffspezies in Verbindung gebracht. Auch chronische Auswirkungen bei längerer Einwirkung von Ammoniak sind vorhanden. Durch Schädigung der Atemwege kann es zu Bronchialasthma, Husten oder Atemnot kommen. Wässrige Ammoniaklösungen können auch über Haut und Magen aufgenommen werden und diese verätzen. Bei Hausrindern kommen akute Ammoniakvergiftungen vor allem bei Fütterung von Nicht-Protein-Stickstoffverbindungen (NPN) vor. Bei einem Harnstoffanteil von über 1,5 % im Futter treten zentralnervöse Vergiftungserscheinungen auf, da der Harnstoff nicht mehr vollständig von der Pansenflora zur Proteinsynthese verarbeitet werden kann. Die chronische Exposition mit Ammoniak in der Stallhaltung bei Nutz- und Labortieren, vor allem bei strohlosen Haltungsformen und höheren Temperaturen bei unzureichender Belüftung, führt zu Schädigungen der Atemwege und damit zu vermehrtem Auftreten von Atemwegsinfektionen, zu verminderter Futteraufnahme und Leistungseinbußen. Von der Gefahr einer Vergiftung durch Ammoniak sind wegen der guten Wasserlöslichkeit des Ammoniaks insbesondere Fische und andere Wasserlebewesen betroffen. Während viele Fischarten nur geringe Ammoniakkonzentrationen vertragen, haben einige Arten spezielle Strategien entwickelt, auch höhere Konzentrationen zu tolerieren. Dazu zählt die Umwandlung des Ammoniak in ungiftigere Verbindungen wie Harnstoff, oder sogar Pumpen, um Ammoniak aus dem Körper aktiv zu entfernen, die bei Schlammspringern beobachtet wurden. Ammoniakvergiftungen kommen in der Teichwirtschaft und Aquaristik vor. Ursachen können die Verunreinigung des Wassers mit Gülle oder Düngemitteln sowie der Anstieg des pH-Wertes mit Verschiebung des Dissoziationsgleichgewichts in Richtung Ammoniak sein. Betroffene Fische zeigen eine vermehrte Blutfülle (Hyperämie) und Blutungen in den Kiemen und inneren Organen sowie eine vermehrte Schleimproduktion der Haut. Bei höheren Konzentrationen kann es zum Absterben von Flossenteilen, Hautarealen oder Kiemen, zu zentralnervösen Erscheinungen oder zum Tod kommen. Nachweise. Es gibt mehrere Möglichkeiten, Ammoniak nachzuweisen. Einfache Nachweise, die aber häufig nicht eindeutig sind, sind der typische Geruch, die Verfärbung von Indikatoren durch das basische Ammoniak oder der typische weiße Rauch von Ammoniumchlorid, der bei der Reaktion mit Salzsäure entsteht. Charakteristisch ist auch die Reaktion von Ammoniaklösungen mit Kupfersalzlösungen, bei denen der dunkelblaue Kupfertetramminkomplex [Cu(NH3)4]2+ entsteht. Eine genaue – in der Spurenanalytik durch die Störung mit Schwefelwasserstoff jedoch häufig nicht einsetzbare – Reaktion zur Ammoniak-Bestimmung ist die Neßler-Reaktion, bei der Kaliumtetraiodomercurat(II) mit Ammoniak zu einem typischen braunen Niederschlag von (Hg2N)I reagiert. Ein weiterer Nachteil ist auch die Verwendung des giftigen Quecksilbers. Stattdessen wird die Berthelot-Reaktion genutzt, bei der Ammoniak mit Hypochlorit Chloramine bildet. Diese sind in der Lage mit Phenolen zu Indophenolen zu reagieren, die an ihrer tiefblauen Farbe erkannt werden können. Für geringe Mengen kann auch die Kjeldahlsche Stickstoffbestimmung genutzt werden. Mit dieser Methode sind auch quantitative Bestimmungen möglich. Liste der Minerale. Die Liste der Minerale ist eine alphabetisch geordnete Übersicht von Mineralen, Synonymen und bergmännischen Bezeichnungen. Ebenfalls aufgeführt werden hier Mineral-Varietäten, Mineralgruppen und Mischkristallreihen, zu denen teilweise bereits eigene Artikel bestehen. Eine systematische Liste nur der Minerale findet sich dagegen unter Systematik der Minerale nach Strunz (8. Auflage), Systematik der Minerale nach Strunz (9. Auflage) und Systematik der Minerale nach Dana. Davon unabhängig existiert eine ebenfalls alphabetisch geordnete Liste der Gesteine. Für fiktive Minerale siehe Liste erfundener Elemente, Materialien, Isotope und Elementarteilchen. Weblinks. Minerale Alexander Fleming. Sir Alexander Fleming (* 6. August 1881 in Darvel, East Ayrshire; † 11. März 1955 in London) war ein schottischer Bakteriologe. Er erhielt 1945 als einer der Entdecker des Antibiotikums "Penicillin" den Nobelpreis. Außerdem entdeckte er das Lysozym, ein Enzym, das starke antibakterielle Eigenschaften aufweist und in verschiedenen Körpersekreten wie Tränen und Speichel vorkommt. Leben. a> von Schweden im Jahr 1945 Alexander Fleming wurde 1881 auf dem Bauernhof "Lochfield" (Gemeinde Darvel) geboren. Er studierte ab 1902 Medizin an der St Mary’s Hospital Medical School in Paddington. 1906 schloss er sein Studium ab, blieb aber weiterhin am Institut. Ab 1921 war er stellvertretender Leiter und ab 1946 Direktor des Instituts, das 1948 in Wright-Fleming-Institut umbenannt wurde. Von 1928 bis 1948 hatte er an der Londoner Universität den Lehrstuhl für Bakteriologie inne. In seinen jungen Jahren beschäftigte sich Fleming mit Autovaccinen. 1921 isolierte er das Enzym Lysozym, das im Eiweiß des Hühnereis sowie in zahlreichen menschlichen Körpersekreten vorkommt und in der Lage ist, Bakterien zu zerstören. Er bemerkte zufällig am 28. September 1928 im Labor in eine seiner Staphylokokken-Kulturen hineingeratene Schimmelpilze der Gattung "Penicillium", die eine keimtötende Wirkung hatten. Weitere Untersuchungen führten später zum Antibiotikum Penicillin. Für seine Entdeckung wurde Fleming vielfach geehrt. 1944 wurde er geadelt, und 1945 bekam er zusammen mit Howard Walter Florey und Ernst Boris Chain, die seine Untersuchungen weitergeführt hatten, „für die Entdeckung des Penicillins und seiner heilenden Wirkung bei verschiedenen Infektionskrankheiten" den Nobelpreis für Physiologie oder Medizin. Weiterhin war er Ehrendoktor von zwölf amerikanischen und europäischen Universitäten, Kommandeur der französischen Ehrenlegion und Ehrendirektor der Universität Edinburgh. Fleming starb am 11. März 1955 in London an einem Herzinfarkt und wurde in der Londoner St Paul’s Cathedral begraben. Nach ihm wurde 2007 der Asteroid (91006) Fleming benannt. Im Jahr 2013 wurde in Stuttgart die neu gegründete „Berufliche Schule für Gesundheit und Pflege“ nach ihm benannt. Freimaurerei. Fleming war Freimaurer, ab 1925 mehrfach Meister vom Stuhl der "Santa Maria Freimaurer Nummer 2692" und ab 1936 der "Misericordia Lodge No. 3286". 1942 wurde er "Erster Großschaffner" der Vereinigten Großloge von England und ab 1948 deren Großaufseher. Ebenso war er Mitglied der "London Scottish Rifles Lodge No. 2319" und erreichte den 30. Grad des "Alten und Angenommenen Schottischen Ritus". Adzukibohne. Die Adzukibohne ("Vigna angularis") (von jap., "Azuki") ist eine Pflanzenart, die in die Unterfamilie der Schmetterlingsblütler (Faboideae) innerhalb der Familie der Hülsenfrüchtler (Fabaceae, Leguminosae) gehört. Diese Nutzpflanze ist nahe verwandt mit einer Reihe anderer „Bohnen“ genannter Feldfrüchte wie der Mungbohne, aus der die sogenannten Sojasprossen hergestellt werden. Die Adzukibohne wird seit Jahrtausenden in China, Korea und Japan angebaut und ist heute in ganz Südostasien verbreitet. Sie wächst am besten in den Subtropen. Beschreibung. Die Adzukibohne ist strauchförmig und erreicht Wuchshöhen von 30 bis 90 cm. Sie bildet etwa 10 cm lange Hülsenfrüchte, mit kleinen, erbsengroßen, etwas ovalen Samen von dunkelroter, manchmal auch gelber oder brauner Farbe. Nutzung. Man kann die frischen Hülsen, die frischen Bohnen oder die getrockneten Bohnen verwenden. Die Bohnen sind leichter verdaulich als die in Europa verbreitete Gartenbohne. Die Adzukibohne hat mit etwa 20 % (vom Trockengewicht) einen relativ hohen Eiweißanteil. Aus Adzukibohnen wird Anko hergestellt, eine Bohnenpaste, die in der japanischen Küche verwendet wird. Sie werden auch unter der Bezeichnung „Aduki“ als Bohnensprossen verkauft. Die Bohnen werden auch in Suppenform als Süßspeise mit Namen Shiruko konsumiert oder zu Yōkan weiterverarbeitet. Augenbohne. Merkmale. Die Augenbohne ist eine einjährige Pflanze. Ihr Habitus ist recht variabel und reicht von aufrecht über halb-aufrecht über niederliegend bis kletternd. Der Wuchstyp reicht von undeterminiert bis determiniert, wobei vor allem die nicht-rankenden Formen determiniertes Wachstum zeigen. Sie haben eine ausgeprägte Pfahlwurzel, die 8 Wochen nach der Aussaat 2,4 m tief reichen kann. Die Blätter sind dreiteilig. Sie sind glatt, stumpf bis glänzend und selten behaart. Das endständige Blättchen ist häufig länger und größer als die beiden seitlichen. Blattgröße und -form sind sehr variabel. Die Blüten stehen in mehrfachen Rispen an 20 bis 50 cm langen Blütenstandsstielen, die in den Blattachseln entspringen. Pro Blütenstand werden zwei bis drei Hülsen gebildet, auch vier oder mehr kommen vor. Die Blüten stehen deutlich über den Blättern und enthalten auch Nektarien, um Insekten anzulocken. Dennoch herrscht Selbstbestäubung vor. Die Hülsen sind glatt und 15 bis 25 cm lang. Sie sind zylindrisch und etwas gekrümmt. Zur Nutzungsreife als Gemüse sind die Hülsen grün, gelb oder purpurn, zur Trockenreife werden die zunächst grünen und gelben Formen braun. Die Samen sind nierenförmig. Die Samenoberfläche ist glatt oder runzelig, die Farbe kann weiß, cremefarben, grün, rot, braun oder schwarz sein. Häufig haben sie ein „Auge“, das heißt, der weiße Nabel (Hilum) ist von einer anderen Farbe umrandet. Inhaltsstoffe. 100 g reife Samen enthalten im Durchschnitt 24,8 g Protein, 1,9 g Fett, 6,3 g Fasern und 63,6 g Kohlenhydrate. An Vitaminen sind 0,74 mg Thiamin, 0,42 mg Riboflavin und 2,8 mg Niacin enthalten. Das Protein ist relativ reich an den Aminosäuren Lysin und Tryptophan, aber relativ arm an Methionin und Cystin. Anbau. Die Augenbohne ist in Afrika beheimatet. Sie wird heute in Afrika, Lateinamerika, Südostasien sowie im Süden der USA angebaut. Der Anbau in Westafrika reicht mindestens 4000 Jahre zurück. Sie wird vor allem in den feuchten Tropen, aber auch in temperaten Gebieten angebaut. Hitze und Trockenheit werden gut vertragen, Frost wird nicht toleriert, kühle Temperaturen verlangsamen das Wachstum deutlich. Der Ertrag steigt deutlich mit der Wasserversorgung, etwa Bewässerung. Auch unter trockenen Bedingungen liefert die Augenbohne noch gute Erträge, worauf ihre große Bedeutung in vielen Gebieten zurückgeht. An den Boden stellt die Augenbohne keine besonderen Anforderungen, am besten gedeiht sie auf gut drainierten sandigen bis sandig-lehmigen Böden bei pH-Werten zwischen 5,5 und 6,5. Nutzung. Die Augenbohne wird in allen Wachstumsstadien als Gemüsepflanze genutzt. Junge grüne Blätter werden in Afrika wie Spinat als Blattgemüse zubereitet. Unreife Hülsen werden ebenfalls als Gemüse zubereitet. Grüne Samen werden gekocht als Frischgemüse genutzt oder in Konserven verpackt oder tiefgefroren. Reife, trockene Samen werden gekocht oder konserviert. Die Samen lassen sich keimen und können ähnlich wie Mungbohnensprossen roh verzehrt werden. Das Laub wird an Nutztiere verfüttert und ist vielfach das einzige verfügbare hochwertige Tierfutter. In der Qualität kommt es der Luzerne gleich. Es wird frisch oder trocken verfüttert. In der bahianischen Küche werden die schwarzen Augen der Bohne entfernt, die Haut der Bohne abgelöst, gemahlen und so zu Acarajé verarbeitet. Rosh Hashanah Seder. Die Augenbohne wird auf Hebräisch "Rubiya" (arabisch: "lubiya") genannt und ist, wie Honig und Apfel, ein Bestandteil des Seders zu Rosh Hashanah, dem jüdischen spirituellen Neujahr. Admiral. Der Admiral ist ein Dienstgrad der Marinestreitkräfte in den meisten Staaten. Etymologie. Die Bezeichnung leitet sich ab vom arabischen. In Deutschland ist der Begriff Admiral erstmals anlässlich der Thronbesteigung Kaiser Ottos III. im Jahr 983 überliefert, wo auf der Liste hoher Würdenträger auch ein „Oberst Admiral“ genannt wird. Im 10. und 11. Jahrhundert führten Flottenführer in Griechenland (Byzantinisches Reich) die Bezeichnung "Amiralios" (entsprach etwa dem Grad des Admirals), während die Heeresführer "Amiras" (etwa General) hießen; beide Begriffe sind von derselben arabischen Wortwurzel "amir" abgeleitet. Im 12. Jahrhundert erhielten zunächst die Befehlshaber der Flotten von Genua und Sizilien die Bezeichnung, im 13. Jahrhundert dann auch die von England und Frankreich, denen die anderen europäischen Staaten später folgten. Dabei ist die Bezeichnung „Admiral“, als letzte Instanz in einer Flotte, nicht nur auf militärische Verbände beschränkt. Bis ins 17. Jahrhundert konnten in Konvoi aus Handelsschiffen in einer Kapitäns- oder Schifferversammlung einer der Mitglieder als Admiral gekürt werden. Dieser Verband segelte dann in einer Admiralschaft. Ebenso konnte ein Admiral auch der Befehlshaber des Konvoischiffes werden. Dieser Kapitän konnte der Befehlshaber eines städtischen, eines landesherrlichen oder auch privaten Kriegsschiffes sein. Wurde er von den Handelskapitänen zu ihrem Schutz angestellt oder angenommen, zahlten sie also entsprechende Abgaben, das so genannte „Convoigeld“, wurde er Admiral dieses geschützten Konvois. Auch hier segelte man dann in einer Admiralschaft. Bundeswehr. Der Admiral ist einer der Dienstgrade der Bundeswehr für Marineuniformträger. Gesetzliche Grundlage ist die Anordnung des Bundespräsidenten über die Dienstgradbezeichnungen und die Uniform der Soldaten und das Soldatengesetz. Dienststellungen. Innerhalb der Kommandostruktur der Teilstreitkraft Marine sind keine Dienststellungen für Admirale ausgeplant. Beispielsweise kann aber der Generalinspekteur der Bundeswehr ein Admiral sein. Denkbar ist auch eine Verwendung in höheren Führungsstäben der NATO. Bisher gab es erst vier Offiziere im Dienstgrad Admiral. Dienstgradabzeichen. Die Dienstgradabzeichen des Admirals zeigen einen handbreiten, darüber drei mittelbreite Ärmelstreifen auf beiden Unterärmeln. Sonstiges. Die Dienstgradbezeichnung ranggleicher Luftwaffen- und Heeresuniformträger lautet General. Hinsichtlich Befehlsgewalt, Ernennung, Sold, Dienststellungen, den nach- und übergeordneten Dienstgraden sind Admirale und Generale gleichgestellt. Beide Dienstgrade wurden durch die Anordnung des Bundespräsidenten über die Dienstgradbezeichnungen und die Uniform der Soldaten vom 7. Mai 1956 neu geschaffen. Verwendung als Sammelbezeichnung. Gemäß Duden lautet der Plural Admirale oder Admiräle, wobei in der Umgangssprache (meist auch im Sprachgebrauch der Bundeswehr) die Pluralform „Admirale“ vorherrscht. Gemäß der Zentralen Dienstvorschrift (ZDv) 14/5 „Soldatengesetz“ existiert keine Dienstgradgruppe „Admirale“ oder „Admiräle“. Vielmehr zählen die höheren Marineuniformträger zur Dienstgradgruppe der Generale. Dennoch wird der Plural neben einer Zusammenfassung mehrerer Soldaten im Dienstgrad Admiral auch als Sammelbezeichnung für mehrere Dienstgrade verwendet. Aufgrund des inoffiziellen Charakters ist nicht immer klar, ob Admirale nur alle Soldaten meint, die mit Herr Admiral angeredet werden (also nur die Dienstgrade Flottillenadmiral, Konteradmiral, Vizeadmiral und Admiral Streitkräfte des Vereinigten Königreichs. Der erste englische Admiral der Royal Navy war William de Leyburn, der 1297 von König Edward I. zum "Admiral of the sea of the King of England" ernannt wurde. Der Admiral als Marineoffizier darf nicht verwechselt werden mit dem Amt des "Admiral of England" oder Lord High Admiral, dessen Inhaber die Verantwortung für die gesamte Marine hatte, also ein Marineminister im heutigen Sinne war. In der Royal Navy gab es seit dem 16. Jahrhundert die Funktion der Vize- und Konteradmirale ("Vice-" beziehungsweise "Rear-Admirals"), die ursprünglich Stellvertreter des kommandierenden Admirals waren. Ein kommandierender Admiral konnte seine Flotte von der Spitze oder von der Mitte aus führen. Befand er sich auf einem Schiff in der Mitte der Flotte, hatte er in der Spitze einen Stellvertreter, den Vizeadmiral. Einen weiteren Stellvertreter hatte er im hinteren, der Spitze entgegengesetzten Bereich, den Konter- oder Rear-Admiral (von lateinisch "contra", gegen, beziehungsweise englisch "rear" für hinten). Im elisabethanischen Zeitalter wurde die Flotte so groß, dass sie in Geschwader ("squadrons") unterteilt werden musste. Das Geschwader des Admirals führte einen roten Stander, das des Vizeadmirals einen weißen und das des Konteradmirals einen blauen. Nachdem auch diese Geschwader immer mehr angewachsen waren, wurde jedes davon von einem Admiral mit jeweils einem Vize- und Konteradmiral geführt. Die Bezeichnung für die Befehlshaber lautete dann "Admiral of the White", "Admiral of the Blue" usw. Die Rangfolge der Flotten und damit auch ihrer Admirale war in absteigender Folge: Rot, Weiß, Blau. Die Beförderung zum Admiral erfolgte in Abhängigkeit vom Dienstalter als Kapitän und galt auf Lebenszeit. Man konnte demnach erst dann weiterbefördert werden, wenn der Inhaber des höheren Ranges gestorben war oder seinen Abschied genommen hatte. Eine andere Möglichkeit war, einen unfähigen Admiral oder einen, der den Unwillen der Lords der Admiralität erregt hatte, ohne Kommando zu befördern. Man bezeichnete diese Praxis als "Yellowing" und den auf diese Weise aus dem Weg Geräumten als "Yellow Admiral". Die Rangfolge der Flaggoffiziere / Admirale (absteigend) Als Lord Nelson starb, war er "Vice Admiral of the White". Im 18. Jahrhundert begann man damit, die ursprünglich neun Dienststellungen mit mehreren Inhabern zu besetzen. 1864 wurde die Unterteilung der Flotte in verschiedenfarbige "Divisions" ganz aufgegeben. Die rote Flagge wurde der Handelsmarine zugewiesen, die weiße der Kriegsmarine und die blaue der Reserve und den Hilfsschiffen. Heute sind die Dienstgrade der Flaggoffiziere der "Royal Navy" der "Rear Admiral", "Vice Admiral", "Admiral" und "Admiral of the Fleet". Seit 1996 wird der Dienstgrad "Admiral of the Fleet" in Friedenszeiten nicht mehr vergeben. Ausnahmen von dieser Regel werden nur für Mitglieder der königlichen Familie gemacht. Die vor diesem Termin ernannten Flottenadmirale behalten aber ihren Rang auf Lebenszeit. Der Rang des "Commodore" (deutsch bis 1945 Kommodore, heute in etwa Flottillenadmiral) war bis 1996 in der Royal Navy kein Admiralsdienstgrad, sondern eine an den Dienstposten gebundene Bezeichnung für einen dienstälteren Captain, die nach Verlassen des Dienstpostens wieder entfiel. Seit 1996 ist der Dienstgrad “Commodore” ein offizieller Dienstgrad in der Royal Navy. Er ist dem Captain übergeordnet und dem Rear Admiral untergeordnet (NATO-Code: OF 6). Russische Streitkräfte. Die Russische Seekriegsflotte hat seit 1992 folgende Admiralsränge. Französische Streitkräfte. In der Französischen Marine werden die vier Admiralsränge "Contre-amiral" (zwei Sterne), "Vice-amiral" (drei Sterne), "Vice-amiral d’escadre" (vier Sterne) und "Amiral" (fünf Sterne) vergeben. Der Titel "Amiral de France" (Admiral von Frankreich) – manchmal auch "Amiral de la flotte" – wurde von 1302 bis 1870 an 28 Marineoffiziere verliehen. Er entsprach dem Rang eines "Maréchal de France" (Marschall von Frankreich). Nur einmal wurde dann wieder der Titel "Amiral de la flotte" (Admiral der Flotte) 1939 an François Darlan verliehen. Heute ("Gesetz von 1972") ist der Titel Admiral von Frankreich eine staatliche Würde, die bisher nicht verliehen wurde. Streitkräfte der Vereinigten Staaten. Die United States Navy hatte bis 1862 überhaupt keine Admirale, obwohl die Einrichtung dieses Dienstgrades immer wieder gefordert wurde, unter anderem auch von John Paul Jones, der die Meinung vertrat, dass die kommandierenden Marineoffiziere mit den Armeegeneralen auf einer Stufe stehen sollten. Außerdem hielt er höherrangige Offiziere für nötig, um Streitigkeiten zwischen den rangälteren Kapitänen zu vermeiden oder zu schlichten. Die verschiedenen Marineminister schlugen dem Kongress wiederholt vor, den Rang eines Admirals zu schaffen, um eine Gleichstellung mit den Marinen anderer Staaten herzustellen, weil die höheren Offiziere der "US Navy" immer wieder in protokollarische Schwierigkeiten mit Offizieren anderer Nationen gerieten. Schließlich stimmte der Kongress am 16. Juli 1862 zu, neun Konteradmirale ("Rear Admirals") zu ernennen, was aber wohl weniger mit der Anpassung an internationale Erfordernisse zu tun hatte, als vielmehr mit der schnell anwachsenden Stärke der Marine im amerikanischen Bürgerkrieg. Zwei Jahre später erlaubte der Kongress, einen der neuen Konteradmirale, David Farragut, zum Vizeadmiral zu ernennen. Im Juli 1866 autorisierte er US-Präsident Johnson, Farragut zum Admiral und David Dixon Porter zum Vizeadmiral zu ernennen. Als Farragut 1870 starb, wurden Porter Admiral und Stephen C. Rowan Vizeadmiral. Nach dem Tod der beiden ranghöchsten Admirale wurden keine weiteren Beförderungen mehr bewilligt, so dass es bis 1915 keinen Admiral oder Vizeadmiral mehr gab, bis der Kongress zustimmte, je einen Admiral und Vizeadmiral für die Atlantikflotte, die Pazifikflotte und die Asiatische Flotte zu ernennen. Trotzdem gab es in der Zwischenzeit einen höherrangigen Admiral. 1899 würdigte der Kongress George Deweys Verdienste im Spanisch-Amerikanischen Krieg, indem er Präsident McKinley ermächtigte, ihn zum Admiral of the Navy zu ernennen, was er bis zu seinem Tode 1917 blieb. Dewey war bis heute der einzige US-amerikanische Marineoffizier mit diesem Rang. 1944 genehmigte der Kongress den Rang des Flottenadmirals ("Admiral of the Fleet"). Die ersten und bisher einzigen Inhaber dieses Dienstgrads waren Ernest J. King, William D. Leahy, Chester W. Nimitz (alle im Dezember 1944) und William F. Halsey, der seinen fünften Stern im Dezember 1945 erhielt. Nationale Volksarmee. a> und Vizeadmiral Gustav Hesse 1979 In den Seestreitkräften bzw. der Volksmarine (ab 1960) der DDR gab es bis 1982 die drei Admiralsdienstgrade Konteradmiral, Vizeadmiral und Admiral. Mit Beschluss des Staatsrates der DDR vom 25. März 1982 wurde zudem der Dienstgrad des Flottenadmirals, äquivalent zum Armeegeneral, geschaffen, jedoch nie verliehen. Der Admiral war in der Volksmarine der DDR der zweithöchste Dienstgrad im Admiralsrang und vergleichbar dem Drei-Sterne-Generalsrang. Er entsprach dem Generaloberst der NVA. Das Dienstgradabzeichen bestand aus Schulterstücken mit marineblauem Untergrund und darauf einer geflochtenen gold-silbernen Schnur, auf der drei fünfeckige silberfarbene Generalssterne („Pickel“) angebracht waren. Schulterstücke wurden zu allen Uniformteilen getragen. Das Ärmelabzeichen bestand aus einem breiten gelbfarbigen Streifen und drei weiteren einfachen Streifen. Darüber war ein fünfzackiger Stern angebracht, in dessen Innerem sich das Wappen der DDR befand. Im Unterschied zu allen übrigen deutschen Marinestreitkräften bedeckten die Ärmelabzeichen nur zu ca. 40 % den Ärmelumfang. Die Admiralskragenspiegel zeigten eine goldfarbene Ranke, die am unteren Ende einen Winkel von 90° aufwies. Das Mützenabzeichen entsprach dem des Admirals der Deutschen Marine. Waldemar Verner, Wilhelm Ehm und Theodor Hoffmann waren die einzigen Admirale in der Volksmarine. In diesen Dienstgrad wurde man nur in Verbindung der Dienststellung des Ministers für Nationale Verteidigung oder seines Stellvertreters befördert. Bis 1989 war der Chef der Volksmarine gleichzeitig stellvertretender Minister. Theodor Hoffmann wurde anlässlich seiner Berufung zum Minister für Nationale Verteidigung zum Admiral befördert und behielt den Dienstgrad auch als "Chef der Nationalen Volksarmee" unter dem Minister für Abrüstung und Verteidigung Rainer Eppelmann. Waldemar Verner wurde während seiner Zeit als Chef der Politischen Hauptverwaltung, ebenfalls Stellvertreter des Ministers, zum Admiral befördert. Wehrmacht. In der Deutschen Kriegsmarine wurden von 1935 bis 1945 die Ränge Kommodore, Konteradmiral, Vizeadmiral, Admiral und Generaladmiral sowie Großadmiral Erich Raeder (1939), Karl Dönitz (1943) für die Oberbefehlshaber vergeben. Zum Dienstgrad Admiral der Kriegsmarine war das Äquivalent der General der Waffengattung bei Heer und Luftwaffe. Reichswehr. In der Reichsmarine von 1922 bis 1935 wurden die Ränge Konteradmiral, Vizeadmiral und Admiral vergeben. Streitkräfte des deutschen Kaiserreiches. In der Kaiserlichen Marine wurden von 1872 bis 1918 die Dienstgrade "Konteradmiral" (bis 1898 Contreadmiral), "Vizeadmiral" und "Admiral" sowie "Großadmiral" (Hans von Koester (1905), Heinrich von Preußen (1909), Alfred von Tirpitz (1911) und Henning von Holtzendorff (1918)) vergeben. Der "Großadmiral" entsprach dem "Generalfeldmarschall" im Heer. Gemeinsame Armee. In der Österreichischen (k. k.) Kriegsmarine (ab 1868 k. u. k. Kriegsmarine) wurden von 1849 bis 1918 die Ränge Kontreadmiral (im 20. Jh. auch Konteradmiral), Viceadmiral, und Admiral sowie Großadmiral vergeben. Andine Knollenbohne. Die Andine Knollenbohne ("Pachyrhizus ahipa", Syn.: "Dolichos ahipa" Wedd.) ist eine Pflanzenart aus der Gattung der Yambohnen ("Pachyrhizus") in der Familie der Hülsenfrüchtler (Fabaceae). Die Andine Knollenbohne hat ihren Ursprung im gebirgigen Südamerika (von Anden der deutsch Trivialname), wo sie von den Inka genutzt wurde. Sie gedeiht in Höhenlagen von 1000 bis über 2500 Meter und damit bei gemäßigten Temperaturen. Es werden hauptsächlich die Knollen gegessen, aber auch, obwohl sie giftig sind, werden die Hülsen und Samen genutzt. Heute wird sie nur noch selten angebaut. Beschreibung. "Pachyrhizus ahipa" ist eine ausdauernde krautige Pflanze, die Wuchshöhen von 1 bis 2 Meter erreicht: Sie ist, anders als die restlichen Arten der Gattung keine Kletterpflanze. Sie bilden Knollen als Überdauerungsorgane und als Wasserspeicher. Sie wird aber als einjährige Pflanze angebaut, weil die ganze Pflanze wegen der Knollen abgeerntet wird und im Folgejahr eine Neuaussaat erforderlich ist. Die kleine, regelmäßig geformte Knolle besitzt eine gelbe Schale, weißes, faserdurchzogenes „Fleisch“ und wiegt zwischen 500 und 800 g. Die Laubblätter sind dreiteilig gefiedert. Sowohl die zwei Seitenfiederblätter als auch das Terminalfiederblatt sind extrem asymmetrisch und breiter als lang. Der kurze Blütenstand weist eine Länge von etwa 4 cm auf und enthält nur wenige Blüten. Die zwittrigen Blüten sind zygomorph. Die Krone ist weiß oder violett. Es wird etwa 8 bis 11 cm lange Hülsenfrucht gebildet, die braune bis schwarze, runde Samen mit etwa 1 cm Durchmesser enthält. Nutzung. Die Knollen werden sehr vielseitig zubereitet: roh in Salaten, gekocht und frittiert. Die Hülsenfrüchte können nur gegart gegessen werden, weil dadurch das giftige Rotenon entfernt wird. Aus den Samen kann Öl gewonnen werden. Auf Grund ihrer Rotenon-Gehalte finden Hülsenfrüchte und Samen Verwendung als Insektizid, Akarizid und ihre Saponine wirken als Fischgift. Apollo 11. Apollo 11 war eine Raumfahrtmission im Rahmen des Apollo-Programms der US-amerikanischen Raumfahrtbehörde NASA und der erste bemannte Flug zum Mond, der eine Landung und eine sichere Rückkehr auf die Erde zum Ziel hatte. Die Mission verlief erfolgreich und erfüllte die 1961 von US-Präsident John F. Kennedy erteilte Aufgabe an die Nation, noch vor Ende des Jahrzehnts einen Menschen zum Mond und wieder sicher zurück zur Erde zu bringen. Die drei Astronauten Neil Armstrong, Edwin „Buzz“ Aldrin und Michael Collins starteten am 16. Juli 1969 mit einer Saturn-V-Rakete von Launch Complex 39A des Kennedy Space Center in Florida und erreichten am 19. Juli eine Mondumlaufbahn. Während Collins im Kommandomodul des Raumschiffs "Columbia" zurückblieb, setzten Armstrong und Aldrin am nächsten Tag mit der Mondlandefähre "Eagle" auf dem Erdtrabanten auf. Wenige Stunden später betrat Armstrong als erster Mensch den Mond, kurz danach auch Aldrin. Nach einem knapp 22-stündigen Aufenthalt startete die Landefähre wieder von der Mondoberfläche und kehrte zum Mutterschiff zurück. Nach Rückkehr zur Erde wasserte die "Columbia" mit den drei Astronauten am 24. Juli rund 25 Kilometer vom Bergungsschiff USS Hornet entfernt im Pazifik südlich des Johnston-Atolls. Bei der Fernsehübertragung der Mondlandung 1969 verfolgten weltweit rund 600 Millionen Menschen das Ereignis. Besatzung. Kommandant der Apollo-11-Mission war Neil Armstrong. Er war zunächst ein Kampfflugzeugpilot der US Navy, bevor er bei der NASA als Testpilot zahlreicher Hochgeschwindigkeits-Flugzeuge wie der X-15 tätig war. Als er 1962 in die 2. NASA-Astronautengruppe aufgenommen wurde, gehörte er neben Elliott See zu den ersten beiden Zivilisten der US-Astronauten. Seinen ersten Weltraumflug absolvierte Armstrong mit Gemini 8 im März 1966, bei dem die erste Kopplung zwischen zwei Raumfahrzeugen durchgeführt wurde. Pilot der Mondlandefähre war Edwin „Buzz“ Aldrin, ein Oberst der US Air Force. Er wurde 1963 ein Mitglied der 3. NASA-Astronautengruppe, nachdem er zuvor mit der Air Force am Koreakrieg teilgenommen und eine Promotion in Raumfahrttechnik erhalten hatte. Im November 1966 war Aldrin mit Gemini 12 erstmals zu einem Raumflug gestartet, in dessen Verlauf er dreimal einen Raumausstieg absolvierte. Pilot des Kommandomoduls war Michael Collins, ein Oberstleutnant und früherer Kampfjetpilot der US Air Force. Wie Aldrin gehörte er der 3. NASA-Astronautengruppe von 1963 an. Erste Weltraumerfahrung sammelte Collins im Juli 1966, als er mit Gemini 10 im All war. Während dieser Mission verließ er das Raumschiff für zwei Außenbordeinsätze. Ersatz- und Unterstützungsmannschaft. Für die Ersatzmannschaft, die ein ausgefallenes Mitglied der Hauptbesatzung im Bedarfsfall ersetzt hätte, waren Jim Lovell als Kommandant, William Anders als Pilot des Kommandomoduls und Fred Haise als Pilot der Mondfähre eingeteilt. Die Unterstützungsmannschaft (Support Crew), die der eigentlichen Besatzung beim Training assistierte, bestand aus Ken Mattingly, Ron Evans, Bill Pogue und Jack Swigert. Die Mitglieder der Ersatzmannschaft sowie Mattingly und Evans aus der Unterstützungscrew waren außerdem zusammen mit Charles Duke, Bruce McCandless, Don Lind, Owen Garriott und Harrison Schmitt als Verbindungssprecher (CAPCOM) tätig. In dieser Funktion waren sie normalerweise die Einzigen, die mit den Astronauten im Weltraum sprachen. Flugleiter. Flugleiter ("Flight Director") im Kontrollzentrum in Houston waren Cliff Charlesworth (während des Starts und des Mondspaziergangs), Gene Kranz (bei der Mondlandung), Glynn S. Lunney (für den Rückstart zur Erde) und Gerald D. Griffin. Sie trafen die für den Erfolg der Mission relevanten Entscheidungen und waren für die Sicherheit der Besatzung verantwortlich. Missionsemblem und Rufzeichen der Raumschiffe. Das Abzeichen von Apollo 11 zeigt das Wappentier der Vereinigten Staaten, den Weißkopfseeadler, kurz vor der Landung auf dem Mond. In seinen Krallen trägt er einen Olivenzweig, der die friedvollen Absichten der ersten Mondlandung unterstreichen soll. Die Erde – Start- und Endpunkt der Mission – ist vor einem schwarzen Hintergrund, der das Unbekannte des Weltraums symbolisieren soll, zu erkennen. Auf die Aufnahme der Namen der Astronauten wurde bewusst verzichtet, um den Beitrag jedes Einzelnen, der für das Apollo-Programm gearbeitet hat, hervorzuheben. Stattdessen trägt das Abzeichen den Schriftzug „APOLLO 11” an der Spitze. Bei Auswahl der Rufnamen der Raumschiffe wurde der Besatzung vom NASA-Management wegen der historischen Bedeutung der Mission dazu geraten, ehrwürdige Bezeichnungen zu verwenden – beim vorangegangenen Flug Apollo 10 hießen die beiden Raumfahrzeuge nach Figuren aus der Comicserie Die Peanuts "Charlie Brown" und "Snoopy". Die Apollo-11-Astronauten entschieden sich schließlich dazu, die Mondlandefähre – vom im Abzeichen verwendeten Motiv herrührend – "Eagle" (Adler) zu nennen, während die Kommandokapsel das Rufzeichen "Columbia" erhielt. Die Wahl von "Columbia" wurde mit der großen Bedeutung des Wortes in der US-amerikanischen Geschichte begründet. Missionsprofil. Apollo 11 war in der Flugsequenz des Apollo-Programms die so genannte "G-Mission", deren Ziel die erste bemannte Landung auf dem Mond war. Die Planungsphase für Apollo 11 begann im Jahr 1965, nachdem die Entwicklung der beiden Raumfahrzeuge abgeschlossen war, und stand unter der Leitung von Christopher Kraft, dem Flugbetriebsleiter am Manned Spacecraft Center in Houston. Seinem Team oblag die Ausarbeitung der Checklisten für die Besatzung sowie des Flugplans, dessen endgültige Version zwei Wochen vor dem Start am 1. Juli 1969 erschien. Für den Fall einer Verschiebung der Mission erarbeitete Krafts Abteilung darüber hinaus Flugszenarien für Startfenster im August und September 1969. Die Pläne für den Mondausstieg wurden im Lauf der Vorbereitungen mehrfach überarbeitet. Das ursprüngliche Konzept aus dem Jahr 1964 sah vor, dass nur der Pilot der Landefähre für zwei Stunden die Mondoberfläche betritt, während der Kommandant der Mission zur Überwachung der Systeme in der Mondfähre bleibt. Eine Studie der Grumman Aerospace Corporation aus demselben Jahr deutete jedoch darauf hin, dass die Teilnahme beider Astronauten am Mondspaziergang technisch möglich sei. Anfang Januar 1967 schlug Flugbetriebsleiter Christopher Kraft vor, die Zeit nach der Landung auf der Mondoberfläche für zwei Ausstiege zu verwenden. Der erste Mondspaziergang sollte demnach nur zur Eingewöhnung der Astronauten an die Umgebung dienen, während der zweite Ausstieg zum Aufstellen von wissenschaftlichen Experimenten und der Entnahme von Mondgestein-Proben genutzt werden sollte. Im September 1968 entschied sich die NASA jedoch, dass Apollo 11 nur eine 2,5-stündige Mondexkursion der beiden Raumfahrer beinhalten und die wissenschaftlichen Instrumente wegen des hohen Gewichts nicht zum Mond mitgeführt werden sollten. Wilmot N. Hess, der Leiter der wissenschaftlichen Abteilung der NASA in Houston, drängte indessen darauf, dennoch ein kleines Paket von wissenschaftlichen Messgeräten zum Mond mitzuführen. Der Planungsstab bewilligte daraufhin am 9. Oktober 1968 die Entwicklung von drei vergleichsweise leichten Experimenten für Apollo 11, dem Early Apollo Surface Experiments Package (EASEP). Auswahl der Mannschaft. Für die Zusammenstellung der Besatzungsmitglieder für Apollo 11 war Deke Slayton, der Chef des NASA-Astronautenbüros, verantwortlich. Bei der Auswahl der einzelnen Crews ging er nach dem Rotationsprinzip vor, wonach eine Ersatzmannschaft zwei Flüge aussetzt, bevor sie selbst für einen Flug nominiert wird. Demnach sollte die Reservemannschaft für Apollo 8, die aus den Astronauten Neil Armstrong, Buzz Aldrin und Fred Haise bestand, die Besatzung für Apollo 11 bilden. Armstrong setzte sich allerdings dafür ein, dass Michael Collins, der wegen einer Operation seinen Platz in der Crew von Apollo 8 verloren hatte, in seine Mannschaft aufrückt, um den Platz von Haise einzunehmen. Das obere NASA-Management hatte keine Einwände gegen diese Besetzung, so dass Armstrong, Aldrin und Collins der Öffentlichkeit am 10. Januar 1969 als Besatzung für Apollo 11 vorgestellt wurden. Zum Zeitpunkt ihrer Auswahl war die Mannschaft noch nicht davon überzeugt, die erste bemannte Mondlandung zu absolvieren, da die Mondlandefähre bis dahin noch nicht bemannt im Weltraum getestet worden war. Auswahl der Landestelle. Dieses Bild wurde aus den Fenstern der Mondfähre "Eagle" kurz vor Beginn des Landeanflugs aufgenommen. Es zeigt den südwestlichen Teil des Meers der Ruhe mit der Landestelle von Apollo 11 im Zentrum. Am unteren linken Bildrand ist der Moltkekrater mit einem Durchmesser von 6,5 Kilometern zu erkennen. Bei der Auswahl des Landeplatzes für die Mondlandefähre war die Sicherheit der Astronauten der Hauptgesichtspunkt. Die Mondlandung musste beispielsweise bei direkter Sonneneinstrahlung und optimalen Sichtverhältnissen durchgeführt werden; der Rückstart zur Erde musste ebenfalls bei Tageslicht erfolgen. Die Vorgabe, möglichst wenig Treibstoff zu verbrauchen, um entsprechend möglichst hohe Treibstoffreserven mitführen zu können, begrenzte den Landeplatz für Apollo 11 zudem auf Gebiete in Nähe des Mondäquators. Eine ebenso wichtige Rolle bei der Auswahl spielte schließlich die Beschaffenheit der Mondoberfläche im Landegebiet. So bestimmten die Kriterien etwa, dass das Gewicht der Landefähre ausreichend getragen werden müsse und die Zahl der Krater und Felsbrocken so klein wie möglich sein sollte. Zur Bereitstellung von Bildern und anderen Daten von möglichen Landestellen schickte die NASA im Laufe der 1960er Jahre mehrere Raumsonden aus den Ranger- und Surveyor-Programmen zum Mond. Während Ranger zur Übermittlung von hochauflösenden Bildern diente, absolvierten die Surveyor-Sonden eine weiche Landung auf der Mondoberfläche, um wissenschaftliche Daten und Fernsehbilder zur Erde zu senden. Die Qualität der Aufnahmen reichte allerdings für eine detaillierte Analyse der denkbaren Landeplätze nicht aus, weshalb die NASA mit Lunar Orbiter eine weitere Reihe von Raumsonden entwickelte. Diese mit zwei Kameras ausgestatteten Mondsatelliten dokumentierten 99 Prozent der Mondoberfläche und übermittelten Bilder von 20 potenziellen Landestellen für das Apollo-Programm. Mitte 1965 gründete die NASA das "Apollo Site Selection Board", dessen Aufgabe es war, nach der Abwägung von wissenschaftlichen und flugbetrieblichen Aspekten Vorschläge für mögliche Landeplätze zu machen. Alle Kandidaten befanden sich in Äquatornähe und erschienen auf den Bildern der Mondsonden relativ eben. Darüber hinaus achteten die Missionsplaner bei der Wahl der Landestelle darauf, dass das umliegende Terrain keine Hänge und sonstige Unregelmäßigkeiten aufwies, da sonst das Radar der Mondlandefähre beim Anflug gestört werden könnte. Am 15. Dezember 1968 einigte sich das Auswahlgremium auf eine Liste von fünf denkbaren Landeplätzen, den "Apollo Landing Sites" (ALS). Für den Flug mit Apollo 11 wählte die NASA mit ALS-2 schließlich die westliche der beiden Landestellen im Meer der Ruhe. Dort war etwa 20 Stunden vor der Landung die Sonne aufgegangen. Da ein vollständiger Mondtag 29,53 Erdtage dauert, stand die Sonne bei der Landung etwa 10° über dem östlichen Horizont. In dem flach einfallenden Morgenlicht waren Unebenheiten der Mondoberfläche gut zu erkennen. Die elliptische Landezone entsprach mit 18,5 Kilometern ungefähr der Insel von Manhattan. Zwei andere, weiter westlich liegende Landeplätze (ALS-3 und ALS-5) dienten im Fall einer Startverschiebung als Ausweichstandorte, um eine bestmögliche Beleuchtung beim Endanflug der Landefähre zu gewährleisten. Vorbereitungen. Transport der Saturn-V-Trägerrakete zur Startrampe Die Startvorbereitungen für Apollo 11 begannen Anfang Januar 1969 mit der Ankunft der Mondlandefähre (Lunar Module, LM) im Kennedy Space Center (KSC) in Florida. Das Apollo-Raumschiff, in dem sich die Besatzung für den Großteil des Flugs aufhielt, traf am 23. Januar an Bord eines Super-Guppy-Transportflugzeugs im Raumfahrtzentrum ein. Beide Raumfahrzeuge wurden in das Manned Spacecraft Operations Building gebracht, wo die einzelnen Komponenten der Raumschiffe integriert und umfangreichen Funktionstests unterzogen wurden. Darüber hinaus absolvierten sowohl die Mondlandefähre als auch das Apollo-Raumschiff mehrere Probeläufe in einer Höhenkammer, um die Belastungen der Systeme im Vakuum des Weltalls zu simulieren. Nach dem Ende der Abschlusskontrollen wurde die Mondlandefähre schließlich von einem 8,5 Meter hohen Kegelstumpf umgeben, der zum Schutz während der Startphase diente. Das Apollo-Raumschiff wurde auf die Spitze dieser Verschalung gesetzt. Parallel zu den Arbeiten an den beiden Raumfahrzeugen erfolgte im sieben Kilometer entferntem Vehicle Assembly Building (VAB) die Montage der Trägerrakete Saturn V. Nach der Anlieferung aus den Herstellerwerken wurden die drei Stufen der Rakete auf der 5.715 Tonnen schweren Startplattform miteinander verbunden. Die eingekapselte Mondlandefähre und das Apollo-Raumschiff wurden am 14. April hinzugefügt, womit der Aufbau der 110 Meter hohen Trägerrakete abgeschlossen war. Am 14. Mai durchlief die als "space vehicle" bezeichnete Startkonfiguration der Rakete einen simulierten Countdown, der die Kompatibilität der einzelnen Systeme testete. Am 20. Mai 1969 brachte der so genannte "Crawler", ein von zwei Dieselmotoren angetriebenes Raupenfahrzeug, die Saturn V zur Startrampe 39A, die zum fünften Mal für einen bemannten Start benutzt wurde. Die 5,5 Kilometer lange Fahrt auf einer speziell präparierten Piste dauerte sechs Stunden. Nach dem Erreichen der Rampe wurde unter der Startplattform ein Flammenlenkblech in Stellung gebracht, das die beim Abheben der Rakete entstehenden Triebwerksgase ableiten sollte. Des Weiteren wurde eine Wartungsplattform vor der Saturn V platziert, um die Arbeiten an der Rakete zu erleichtern. Der Flugbereitschaftstest der Trägerrakete, bei dem auch die Besatzung von Apollo 11 teilnahm, wurde am 6. Juni abgeschlossen. Am 27. Juni begann mit dem "Countdown Demonstration Test" die letzte wichtige Erprobung der Trägerrakete. Während des mehrtägigen Tests wurden die Tanks der Saturn V mit Treibstoff befüllt und der Countdown bis zum Start der Zündungssequenz simuliert. In einer anschließenden zweiten Phase entleerte man die Brennstofftanks wieder und der Versuchscountdown wurde mit der Besatzung an Bord wiederholt. Hinflug. Apollo 11 startete am 16. Juli 1969 um 13:32:00 UTC an der Spitze der 2940 Tonnen schweren Saturn V von Cape Canaveral, Florida und erreichte zwölf Minuten später planmäßig die Erdumlaufbahn. Nach anderthalb Erdumkreisungen wurde die dritte Raketenstufe erneut gezündet. Sie brannte etwa sechs Minuten lang und brachte das Apollo-Raumschiff auf Mondkurs. Kurze Zeit später wurde das Kommando/Servicemodul (CSM) an die Landefähre angekoppelt. Der gesamte Hinflug verlief ohne besondere Vorkommnisse. Drei Tage später erreichten sie den Mond und schwenkten um 17:22:00 UTC durch ein Bremsmanöver über der Rückseite des Mondes in eine Mondumlaufbahn ein. Mondlandung. Die Landefähre im Mondorbit kurz nach der Trennung vom Mutterschiff Im Mondorbit stiegen erst Aldrin und eine Stunde später (nach Hochfahren der Systeme) Armstrong in die Mondlandefähre um. Nach Prüfung der Systeme und Ausklappen der Landebeine der Fähre trennten sie diese vom Mutterschiff, in dem Collins verblieb und leiteten die Abstiegssequenz ein. Heikel war dann der Anflug auf das Zielgebiet im Mare Tranquillitatis. Durch geringe unbeabsichtigte Bahnänderungen beim Abkoppeln zielte der Bordcomputer auf eine Stelle etwa 4,5 Kilometer hinter dem geplanten Landegebiet. Während des Anfluges wurde die Aufmerksamkeit der Besatzung außerdem etwa 1,5 Kilometer über dem Boden mehrfach durch Alarmmeldungen des Navigationscomputers in Anspruch genommen, so dass Armstrong nicht in dem Maße auf charakteristische Merkmale der Mondlandschaft achten konnte, wie es vom Flugplan vorgesehen war. Zu dieser Panne kam es, da entgegen dem Flugplan das Rendezvousradar zusätzlich zum Lande-Radar eingeschaltet worden war. Das Rendezvousradar überflutete den Computer mit seinen zusätzlichen für diese Phase der Mission nicht vorgesehenen Daten, wodurch der Computer überlastet wurde. Dank dem von Hal Lanning vom M.I.T. Instrumentation Laboratory entwickelten Betriebssystem mit einer Priorisierung der einzelnen Aufgaben (die Aktualisierung eines Displays hat eine niedrige Priorität, die Lage-Steuerung der Landefähre die höchste Priorität) wurde den Daten vom Rendezvousradar eine etwas niedrigere Priorität zugewiesen und der Computer meldete diese Probleme als Fehler 1201 und 1202. Das Problem erwies sich jedoch als unkritisch und konnte ignoriert werden. Beim Endanflug führte der Autopilot die Fähre in ein Geröllfeld, das einen großen Krater umgab und mit großen Felsen übersät war. Wie sich später herausstellte, handelte es sich dabei um den so genannten "West"-Krater. Armstrong übernahm daraufhin die Handsteuerung der "Eagle", überflog den Krater und landete auf einer ebenen Stelle ca. 500 m weiter westlich (knapp 60 m jenseits des "Little West"-Kraters). Das Kontaktlicht signalisierte den unmittelbar bevorstehenden Bodenkontakt (bei circa 75 cm Höhe) am 20. Juli um 20:17:39 UTC. Der Mondlandepilot Aldrin meldete das („Contact light“) um 20:17:40 UTC. Unmittelbar darauf erfolgte der finale Kontakt aller vier Landefüße mit dem Mondboden. Circa drei bis vier Sekunden nach den oben genannten Kontaktsignalen schaltete Armstrong das Triebwerk ab. Zu diesem Zeitpunkt hatte die Fähre „Eagle“ bereits sehr sanft (mit etwa 0,52 m/s) auf dem Mond aufgesetzt. Die zusätzlichen Manöver hatten das ohnehin knapp kalkulierte Treibstoffbudget so strapaziert, dass die Astronauten nur noch etwa 20 Sekunden Zeit gehabt hätten, eine Entscheidung zu treffen: entweder innerhalb der nächsten 20 Sekunden zu landen oder den Anflug sofort abzubrechen. Spätere Analysen zeigten, dass der in den Tanks schwappende Treibstoff zu ungenauen Anzeigen geführt hatte und noch mehr Reserve vorhanden war. Armstrong und Aldrin bereiteten sofort einen möglichen Alarmstart vor, für den Fall, dass ein Leck im Tank der Aufstiegsstufe oder ein Einsinken eines der Landbeine einen längeren Aufenthalt unmöglich machen würde. Die Landung war zeitlich so geplant, dass nach dem ursprünglich vorgesehenen Bodenkontakt (geplant bei circa 20:17:00 UTC) ein Zeitfenster von etwa einer Minute für einen sofortigen Rückstart verblieb. Andernfalls hätte man die Umlaufbahn des Mutterschiffs verfehlt, und Collins hätte das Annäherungsmanöver durchführen müssen. Etwa 30 bis 40 Sekunden davon waren durch die zusätzlichen Manöver beim Endanflug verflossen. Letztlich blieb damit nach dem Abschluss dieser Prozeduren eine Zeitreserve von fünf bis zehn Sekunden. Neil Armstrong betritt den Mond Diese Gedenktafel befindet sich an der Leiter der Mondlandefähre Aldrin richtet ein Sonnenwindsegel aus Auf dem Mond. Das primäre Ziel war erreicht. Ab diesem Moment benutzten Armstrong und Aldrin das Rufzeichen "Tranquility Base". In den folgenden zwei Stunden waren die Astronauten damit beschäftigt, Vorbereitungen für den Rückflug zu treffen, der alle zwei Stunden erfolgen konnte. Unter anderem musste der Bordcomputer mit der genauen Ausrichtung der Mondfähre programmiert werden. Die genaue Position war zu diesem Zeitpunkt jedoch nicht bekannt, weil Armstrong beim Anflug keine bekannten Geländeformationen identifiziert hatte. Bei seinen fünf Überflügen mit der "Columbia" versuchte Collins die Mondfähre zu sichten. Da aber auch ihm keine genaue Position zur Verfügung stand, blieb das erfolglos. Weiterhin fotografierten Armstrong und Aldrin die Mondoberfläche aus ihren Fenstern. Die ursprünglich geplante Ruhepause von 5 Stunden und 40 Minuten wurde auf Anregung der Astronauten auf 45 Minuten verkürzt und der Ausstieg vorgezogen. Die Vorbereitungen hierzu benötigten etwa drei Stunden. Dieses Ereignis wurde sowohl von Aldrin aus dem Fenster der Mondfähre als auch von einer Fernsehkamera am Fuß der Landefähre gefilmt. Etwa 600 Millionen Fernsehzuschauer auf der Erde erlebten die Live-Übertragung. 20 Minuten später verließ auch Buzz Aldrin die Mondfähre. Zur Messung der Zusammensetzung des Sonnenwindes auf dem Mond wurde eine Aluminiumfolie (SWC) aufgehängt, die kurz vor Ende des Ausfluges wieder mitgenommen wurde. Nachdem die US-Flagge gehisst worden war, bauten die beiden Astronauten einige kleine Forschungsgeräte des EASEP ("Early Apollo Scientific Experiment Package"), des Vorläufers des ALSEP, auf dem Mond auf. So sollten mittels eines Seismometers (PSEP) Daten über die seismischen Aktivitäten des Mondes erfasst werden. Das Gerät überstand die erste Mondnacht jedoch nicht. Ein Laserreflektor (LRRR) auf der Oberfläche ermöglichte es, präzise die Entfernung zwischen Mond und Erde zu messen. Außerdem wurden Bodenproben entnommen und 21,6 kg Gestein gesammelt. Der erste Aufenthalt auf der Mondoberfläche endete nach zwei Stunden und 31 Minuten. Rückflug. Noch vor der Ruhephase stellte Aldrin fest, dass der Hebel eines Schalters abgebrochen war, ein anderer war nicht in der vorgesehenen Position. Offenbar hatte Aldrin bei der Vorbereitung der EVA mit dem Rucksack die Schalter berührt. Diese Schalter wurden erst eine Stunde vor dem Start benötigt. Aldrin verwendete später einen Filzstift, um den Schalter zu betätigen. Der Start der Landefähre gelang problemlos, die Fähre schwenkte in eine Mondumlaufbahn ein und koppelte knapp vier Stunden später wieder an der Kommandokapsel an. Nachdem Armstrong und Aldrin zu Collins umgestiegen waren, wurde die Mondfähre abgestoßen und das Apollo-Raumschiff wieder auf Erdkurs gebracht. Am 24. Juli 1969 um 16:50 UTC wasserte die Kapsel im Pazifik und wurde vom Bergungsschiff USS Hornet an Bord genommen. Wieder auf der Erde. Präsident Richard Nixon besucht die Astronauten während der Quarantäne Aus Furcht vor unbekannten Mikroorganismen mussten die drei Astronauten beim Verlassen der Apollo-Landekapsel nach außen vollkommen geschlossene Anzüge zur Isolierung tragen und sich in eine Quarantäne von siebzehn Tagen begeben, bis alle Bedenken ausgeräumt waren. Das mobile Quarantänemodul kann heute an Bord der USS Hornet in Alameda besichtigt werden. Das Kommandomodul Columbia von Apollo 11 ist nun im National Air and Space Museum in Washington, D.C. ausgestellt. Verschwörungstheorie. Wie bei vielen Ereignissen von solch großer Tragweite wurden auch die Mondlandungen zum Objekt zahlreicher Verschwörungstheorien. Diese Theorien gehen davon aus, dass die Landungen in den Jahren 1969 bis 1972 nicht stattgefunden haben (oft geht es auch nur um die erste bemannte Mondlandung), sondern von der NASA und der US-amerikanischen Regierung vorgetäuscht worden sind. Die Verschwörungstheorien haben seit den 1970ern durch den Autor und ehemaligen Mitarbeiter der NASA-Zulieferfirma Rocketdyne Bill Kaysing Verbreitung gefunden. Die NASA veröffentlichte 2012 hochauflösende Bilder des Lunar Reconnaissance Orbiter (LRO) von der Apollo-11-Landestelle. Trivia. Der Maler Peter Hecker verewigte das Ereignis 1969 in einem Kirchenfenster der St.-Martinus-Kirche in Solingen-Burg. Bei der Behauptung, Armstrong habe vor Verlassen des Mondes noch den Satz "Good Luck, Mr. Gorsky" gesprochen, handelt es sich lediglich um eine populäre moderne Sage. Die Apollo-11-Höhle im Süden Namibias wurde zu Ehren der ersten bemannten Mondmission benannt. Ein in den Gesteinsproben von Apollo 11 festgestelltes, auf der Erde damals noch nicht bekanntes Mineral wurde nach den drei Astronauten "Armalcolit" getauft. Aldrin feierte vor dem Ausstieg auf dem Mond das Abendmahl. Da dies sein privater Akt war, schaltete er während der Zeremonie das Mikrofon ab. 2014 übergab die Witwe von Neil Armstrong dem National Air and Space Museum eine Tasche mit Apollo-11-Ausrüstungsgegenständen. Darunter die 16mm Data Acquisition Camera (eine Filmkamera der Firma Maurer), die auf dem Mond verwendet wurde. Afrikanische Yambohne. Die Afrikanische Yambohne ("Sphenostylis stenocarpa") ist eine Pflanzenart in Unterfamilie Schmetterlingsblütler (Faboideae) innerhalb der Familie der Hülsenfrüchtler (Fabaceae oder Leguminosae). Sie ist im tropischen Afrika beheimatet. Diese Nutzpflanze ist nahe verwandt zu einer Reihe anderer „Bohnen“ genannter Feldfrüchte. Im deutschen Sprachraum sind auch die Bezeichnungen Rübenbohne und 'Knollenbohne' gebräuchlich. Die hier beschriebene Art gehört jedoch nicht zur Gattung der Yambohnen ("Pachyrhizus") und sollte auch nicht mit der Knollenbohne ("Pachyrhizus tuberosus") verwechselt werden. Ihre genaue Abstammung ist nicht geklärt. Beschreibung. Die Afrikanische Yambohne ist eine rankende krautige Pflanze. Die Sprossachsen erreichen Längen von 2 bis 3 Meter. Die Blüten sind zygomorph. Die 25 bis 30 Zentimeter lange, leicht holzige Hülsenfrüchte enthält 20 bis 30 Samen. Die Samen sind bei einer Länge von etwa 5 Millimeter und einem Durchmesser von etwa 1 Millimeter linsenförmig oder oval. Vorkommen. Die Afrikanische Yambohne wächst im gesamten tropischen Afrika wild und wird in Zentralafrika und Westafrika (Elfenbeinküste, Ghana, Togo, Gabun, Demokratische Republik und Republik Kongo) sowie Teilen Ostafrikas (etwa Äthiopien) kultiviert, insbesondere aber im südlichen Nigeria, wo sie girigiri heißt. Sie verträgt saure und sandige Böden und kommt in Höhenlagen von 0 bis 1800 Meter vor. Die Afrikanische Yambohne ist auf feuchtwarmes Klima und nichtstauende Böden angewiesen. Verwendung und Inhaltsstoffe. Sowohl Samen als auch Wurzelknollen dienen als Nahrungsmittel. Die Afrikanische Yambohne entwickelt an den Wurzeln 5 bis 7,5 Zentimeter lange und 50 bis 300 Gramm schwere Knollen, die wie längliche Süßkartoffeln aussehen, aber doppelt so viel Protein wie diese enthalten. Die Wurzelknollen haben einen Proteingehalt von 11 bis 19 Prozent und einen Kohlenhydratanteil von 63 bis 73 Prozent, mit 3 Prozent Faserstoffen. Pro Pflanze ist eine Ernte von einem halben Kilogramm Wurzeln möglich. Die Samen sind wohlschmeckend und werden in Westafrika oft allen anderen verfügbaren Samen und Gemüse vorgezogen. Sie enthalten 21 bis 29 Prozent Protein, welches im Vergleich zu dem der Sojabohne ähnliche oder höhere Gehalte an Lysin und Methionin aufweist. Die Samen enthalten weiterhin etwa 50 Prozent Kohlenhydrate und 5 bis 6 Prozent Ballaststoffe. Bis zu 2000 kg Bohnen können pro Hektar geerntet werden. Die getrockneten Bohnen werden üblicherweise in Wasser eingeweicht und mehrere Stunden gekocht, und dann ohne Beilage oder mit Yams, Reis, Mais oder in Suppen gegessen. Das Fleisch der Wurzelknollen verwendet man roh oder wie Kartoffeln gekocht, auch der Geschmack ist ähnlich. Mit ihren großen, je nach „Varietät“ rosafarbenen, violetten oder grünlich-weißen Blüten eignet sich die Afrikanische Yambohne auch als Zierpflanze. Weblinks. Yambohne, Afrikanische Allergie. Als Allergie (‚die Fremdreaktion‘, aus "állos" ‚anders‘, ‚fremd‘, ‚eigenartig‘ und "to érgon" ‚das Werk‘, ‚die Arbeit‘, ‚die Reaktion‘) wird eine überschießende Abwehrreaktion des Immunsystems auf bestimmte und normalerweise harmlose Umweltstoffe (Allergene) bezeichnet, die sich in typischen, oft mit entzündlichen Prozessen einhergehenden Symptomen äußert. Begriffsentstehung. Der Begriff "Allergie" wurde 1906 von Freiherr Clemens von Pirquet, einem Wiener Kinderarzt, in Analogie zu "Energie" geprägt in der Hinsicht, dass. Pirquet definierte Allergie weit gefasst als. In dieser Definition sind sowohl verstärkte (Hyperergie), verminderte (Hypoergie) wie auch fehlende (Anergie) Reaktivitäten einbezogen. Pirquet erkannte als erster, dass Antikörper nicht nur schützende Immunantworten vermitteln, sondern auch Überempfindlichkeitsreaktionen auslösen können. Heute beschreibt der Begriff Allergie die Überempfindlichkeitsreaktionen, die durch eine Immunantwort gegen ansonsten harmlose Antigene ausgelöst werden. Symptome. Die Symptome einer Allergie können mild bis schwerwiegend und in einigen Fällen sogar akut lebensbedrohlich sein. Expositionsbedingt kann es sein, dass die Symptome nur saisonal auftreten, etwa zur Zeit des entsprechenden Pollenflugs, oder dass die Symptome ganzjährig auftreten, wie bei Allergie gegen Hausstaubmilbenkot. Allergien können auch im Zusammenhang mit allergischem Asthma auftreten, wobei die typischen Symptome wie Hautausschlag hervorgerufen werden können. Es gibt mehrere verschiedene Krankheitsformen, bei denen die Symptome an verschiedenen Organen des Körpers auftreten. Allergien und Hypersensitivität können sich äußern Allergiker können an einer Krankheitsform leiden, aber auch an Mischformen. Je nach Reaktionstyp können allergische Symptome wie Asthma an den Schleimhäuten typischerweise akut und rezidivierend auftreten, Symptome an der Haut wie die atopische Dermatitis können einen langsameren, konstanten Verlauf nehmen. Unter dem "allergic march" oder dem "Etagenwechsel" wird eine Symptomänderung, meist eine Verschlimmerung im Laufe des Lebens verstanden. Es besteht die Gefahr, dass weitere Allergien gegen Pollenallergene entstehen (Anfangs Gräserpollenallergie, dann kommt eine Birkenpollenallergie hinzu) oder die Beschwerden anfangs nur eine Rhinokonjunktivitis zeigen, zunehmen und in eine Asthmaerkrankung münden. Es gibt auch den umgekehrten Weg: Säuglinge mit Nahrungsmittelallergie (typische Symptome: Erbrechen, Durchfälle, atopische Dermatitis) „wachsen“ in den meisten Fällen bis zum 5. Lebensjahr aus dieser Allergieform „heraus“ und reagieren danach nicht mehr allergisch auf Nahrungsmittel. Auslöser. Von Kreuzallergien spricht man, wenn spezifische Immunoglobulin E (IgE) -Antikörper, die gegen ein bestimmtes Allergen gerichtet sind, auch andere Allergene aus anderen Allergenquellen erkennen können. Ein Beispiel ist das "oral allergy syndrome" (OAS) bei Birkenallergikern. Hier ist der Patient gegen das Hauptallergen im Birkenpollen, Bet v 1, sensibilisiert. Die "Bet v 1"-spezifischen IgE-Antikörper sind aber oft auch in der Lage, dem Bet v 1 sehr ähnelnden Moleküle, beispielsweise im Apfel das Protein Mal d 1 (nach Malus domestica, dem wissenschaftlichen Namen des Kulturapfels), zu erkennen, was zu allergischen Symptomen führen kann. D. h. beim Birkenpollenallergiker können beim Verzehr von Äpfeln allergische Reaktionen wie Anschwellen und Juckreiz der Mundschleimhaut auftreten, obwohl der Patient nicht ursprünglich gegen Äpfel sensibilisiert ist, sondern gegen das Birkenpollenallergen "Bet v 1". Nachweis einer Allergie. Es gibt verschiedene Arten von Allergietests, um zu ermitteln, gegen welche Stoffe der Patient reagiert: Hauttests, andere Provokationstests und Blutuntersuchungen. Hauttests. Hauttests werden als Standarduntersuchungen vorgenommen, wenn der Verdacht besteht, dass ein Patient allergisch auf eine Substanz reagiert. Es handelt sich um eine Form des Provokationstests. Dabei werden Allergenextrakte bzw. allergenhaltiges Material auf verschiedene Weisen mit der Haut in Kontakt gebracht. Sensibilisierte Betroffene zeigen nach definierten Zeiten lokale Reaktionen vom Sofort-Typ oder Spät-Typ. An ihnen kann abgelesen werden, gegen welche Allergene oder Allergenquellen der Patient sensibilisiert ist. Dieser Test kann auch Hinweise auf den Schweregrad der allergischen Reaktion geben. Andere Provokationstests. Bei anderen Provokationstests wird das vermutete Allergen dem Patienten nicht über die Haut, sondern in anderer Form zugeführt. Der wesentliche Vorteil der Provokationstests liegt darin, dass eine Beschwerde-Auslösung nachgewiesen werden kann und nicht nur eine Sensibilisierung mittels Nachweis von IgE-Antikörpern im Bluttest. Da bei Provokationstests unerwartet heftige Krankheitszeichen bis zum lebensbedrohlichen anaphylaktischen Schock auftreten können, sollten sie nur von einem allergologisch erfahrenen Arzt durchgeführt werden, der erforderlichenfalls auch die entsprechenden Notfallmaßnahmen durchführen kann. Bei allergischer Rhinoconjunctivitis („Heuschnupfen“) kann zur Provokation ein Allergenextrakt in die Nase gesprüht werden und anschließend die allergische Reaktion gemessen werden, indem die Schwellung der Nasenschleimhaut mittels einer sogenannten Rhinomanometrie oder der Tryptase-Spiegel im Blut gemessen wird. Bei allergischem Asthma erfolgt die Provokation durch die Inhalation eines Allergenextrakts mit anschließender Erfassung der allergischen Reaktion mit einer Lungenfunktionsprüfung. Da Asthma meist mit einer Lungenhyperreagibilität einhergeht, kann auch unspezifisch mit ansteigenden Konzentrationen einer Methacholin-Lösung provoziert werden (Methacholintest). Bei schweren Nahrungsmittelallergien kann die "double blind placebo controlled food challenge" (DBPCFC) angewendet werden. Dabei werden einer hypoallergenen Grundnahrung nach und nach verschiedene Nahrungsmittel zugefügt und die Verträglichkeit beobachtet. So kann festgestellt werden, welche Nahrungsmittel allergische Reaktionen auslösen, und es können andersherum auch Nahrungsmittel identifiziert werden, die gefahrlos konsumiert werden können. Dieses Verfahren ist allerdings sehr zeitaufwändig. Blutuntersuchungen. In Blutproben können „freie IgE-Antikörper“ gemessen werden. Zum einen kann der Gesamt-IgE-Spiegel gemessen werden, der alle freien IgE-Antikörper erfasst. Dieser Wert ermöglicht eine Aussage darüber, ob generell vermehrt IgE-Antikörper gebildet werden. Erhöhte Gesamt-IgE-Werte kommen aber nicht nur bei allergischen Erkrankungen vor, sondern auch bei Parasitenbefall und bestimmten hämatologischen Erkrankungen. Zum anderen können auch Allergen-spezifische IgE-Antikörper nachgewiesen werden. Hierbei werden also die IgE-Spiegel ermittelt, die sich konkret gegen eine Allergenquelle richten. Heute üblich sind FEIA (Fluoreszenz-Enzym-Immunoassay) und EIA (Enzym-Immunoassay)-Bestimmungen, die statt der früher gebräuchlichen radioaktiv (125I) markierten Reagenzien enzymmarkierte Reagenzien einsetzen. Hier gilt für den gesunden Menschen ein Referenzbereich von 100 kUA/L). Eher veraltete Messmethoden sind "RIST (Radio-Immuno-Sorbens-Test)" für das Gesamt-IgE und "RAST (Radio-Allergo-Sorbens-Test)" für Allergen-spezifisches IgE. Die quantitative Messung von IgE-Antikörpern im Blut korreliert jedoch nur schlecht mit dem klinischen Bild. Das heißt, die Messung von IgE-Antikörpern im Blut erlaubt eine Aussage über die Sensibilisierungen eines Allergikers, aber nur bedingt eine Einschätzung der Schwere der Symptome und gar keine Aussage über die Art der Symptome. Es kann auch sein, dass Allergen-spezifische IgE-Antikörper trotz Sensibilisierung nicht nachgewiesen werden können. Ein weiterer Parameter, der in Blutproben gemessen werden kann, ist das "eosinophile kationische Protein (ECP)". ECP wird von aktivierten Eosinophilen ausgeschüttet. ECP ist ein Entzündungsparameter und wird zur Verlaufskontrolle bei allergischem Asthma oder bei atopischer Dermatitis bestimmt. "Tryptase" kann ebenfalls in Blutproben nachgewiesen werden. Tryptase wird von aktivierten Mastzellen ausgeschüttet und ist ein für aktivierte Mastzellen hochspezifischer Parameter. Der Tryptase-Spiegel wird auch bestimmt zur Diagnostik beim anaphylaktischen Schock, zur postmortalen Diagnose beim Asthmatod, zur Diagnostik der Mastozytose und bei der Provokationstestung bei allergischer Rhinitis. Durch einen Lymphozytentransformationstest (LTT) kann die Bestimmung sensibilisierter Lymphozyten nachgewiesen und quantifiziert werden. Dies kann bei bestimmten Typ-IV-(Spät-)Allergien sinnvoll sein. Verbreitung. Allergien sind häufige Erkrankungen. Hierbei nehmen die Inhalationsallergien wie Heuschnupfen eine besonders prominente Stellung ein. In Deutschland, zu Beginn der 1990er Jahre, gaben 9,6 % der Befragten beim Nationalen Untersuchungssurvey an, dass sie schon einmal Heuschnupfen hatten. Es gab in den alten Bundesländern einen deutlich höheren Anteil Betroffener (10,6 %) als in den neuen Bundesländern (5,8 %). Zwischen Männern und Frauen war jeweils kaum ein Unterschied zu verzeichnen. Ende der 1990er Jahre beim Bundes-Gesundheitssurvey (BGS98) waren 14,5 % der Bevölkerung (15,4 % der Frauen und 13,5 % der Männer) betroffen. Die Verbreitung war sowohl in den alten als auch in den neuen Bundesländern deutlich gewachsen. Bei den Frauen fiel diese Zunahme jeweils größer aus, sodass sich bis 1998 ein geschlechtsspezifischer Unterschied herausgebildet hatte. Weitere 10 Jahre später, beim Untersuchungs- und Befragungssurvey DEGS1, der von 2008 bis 2011 durchgeführt wurde, hatten sich die Zahlen auf diesem hohen Niveau stabilisiert (14,8 % gesamt, 16,5 % der Frauen und 13,0 % der Männer). Dass sich zwischen Anfang und Ende der 1990er Jahre nicht lediglich das Antwortverhalten der Befragten verändert hat, sondern es sich um einen tatsächlichen Anstieg der Heuschnupfenhäufigkeit handelte, konnte durch vergleichende Analysen und durch Laboruntersuchungen herausgefunden werden. Auf der Basis von allergen-spezifischen IgE-Tests wurde aus den Proben beider Gesundheitssurveys die Sensibilisierung auf Inhalationsallergene überprüft. Im Nationalen Untersuchungssurvey 1990–1992 lag die Rate der Sensibilisierungen auf Inhalationsallergene – genau wie die Heuschnupfenprävalenz – in den alten Bundesländern (27,4 %) höher als in den neuen Bundesländern (24,1 %). Die Gesamtrate betrug 26,7 %. Bis zum Ende der 1990er Jahre kam es gemäß Bundes-Gesundheitssurvey (BGS98) zu einem deutschlandweiten Anstieg der Sensibilisierungsrate auf 31,2 %. Diese Zunahme war etwas weniger ausgeprägt als die beim selbst berichteten Heuschnupfen. Der Anstieg in West (auf 31,9 %) und Ost (auf 28,5 %) verlief ähnlich. Ursachen allergischer Erkrankungen und deren Zunahme. Epidemiologisch ist in den Industrieländern in den letzten Jahrzehnten eindeutig ein Anstieg der Häufigkeit von allergischen Erkrankungen festgestellt worden. Eine befriedigende Erklärung für diese Zunahme gibt es – wie auch bei den Autoimmunerkrankungen – bis jetzt nicht. Genetische Faktoren. Eindeutig belegt ist ein erhöhtes Allergierisiko für Kinder, bei denen entweder ein oder beide Elternteile Allergiker sind. Offensichtlich spielen aber mehrere genetische Faktoren zusammen, es gibt also nicht das eine „Allergie-Gen“, und es scheinen auch die unterschiedlichen Krankheitsformen (Asthma, Atopische Dermatitis) unterschiedlich genetisch determiniert zu sein. Es gibt eine Vielzahl von Kandidatengenen, die möglicherweise oder wahrscheinlich an der Entstehung allergischer Erkrankungen beteiligt sind (ADAM33, GPRA, IL1RN). Hygienehypothese. Einige Forscher führen den beobachteten Anstieg allergischer Erkrankungen in westlichen Industrieländern auf die sogenannte „Dreck- und Urwaldhypothese“ zurück. Diese geht von einer mangelnden Aktivierung („Unterforderung“) des Immunsystems – vor allem in der Kindheit und frühen Jugend – durch übertriebene Hygienemaßnahmen aus. Es wird vermutet, dass der Kontakt mit bestimmten Bakterien insbesondere in den ersten Lebensmonaten wichtig ist, um das Immunsystem, das während der Schwangerschaft eher Th2-lastig ist, wieder in Richtung einer Th1-Antwort zu lenken, die weniger mit allergischen Reaktionen assoziiert ist. Eine prominente Studie zum Thema ist die ALEX-Studie. Rückgang parasitärer Erkrankungen. Die physiologische Funktion von IgE-Antikörpern ist die Abwehr von Wurm- und anderem Parasitenbefall. Der Rückgang parasitärer Erkrankungen könnte zu einer Umlenkung des Immunsystems auf andere, harmlose Strukturen führen. Hierfür spricht das geringere Aufkommen von Allergien in Ländern mit geringeren Hygienestandards. Da in den westlichen Industrienationen Parasitenbefall so gut wie nicht mehr vorkommt, bei allergischen Reaktionen aber eine verstärkte IgE-Antikörper-Bildung vorliegt, wird geprüft, ob hier ein Zusammenhang bestehen könnte. Eine Studie an 1600 Kindern in Vietnam zeigte, dass Kinder mit intestinalem Wurmbefall im Vergleich zu Kindern ohne Wurmbefall eine um sechzig Prozent verringerte Chance einer Allergie gegen Hausstaubmilben hatten. Jedoch gibt es derzeit widersprüchliche Forschungsergebnisse, so dass diese Hypothese noch nicht abschließend beurteilt werden kann. Umweltverschmutzung. Allergene wie das Hauptallergen der Birke, Bet v 1, können sich an Dieselrußpartikel (auch Feinstaub) anheften und so beim Einatmen unter Umständen in tiefere Lungenabschnitte gelangen. Es ist möglich, dass die Dieselrußpartikel als „Träger“ der Allergene auch eine adjuvante (unterstützende) Wirkung haben und somit eine Sensibilisierung fördern. Die Umweltverschmutzung sorgt auch bei Haselsträuchern für Stress und verändert die Eiweißbildung derart, dass die betroffenen Menschen immer heftiger darauf reagieren. Impfungen und andere medizinische Maßnahmen. Eher unwahrscheinlich ist ein Zusammenhang zwischen Allergien und Impfungen, da in der DDR die Durchimpfungsrate deutlich höher (nahe 100 %), die Allergieraten hingegen niedriger waren als in der BRD (bis 1989). Neu in der Diskussion sind Studien zur frühen Vitamin-D-Prophylaxe , zu Paracetamol und zur Antibiotikatherapie. Erhöhte Allergenexposition. Diese Überlegung bezieht sich darauf, dass aufgrund einer erhöhten Allergenexposition vermehrt Sensibilisierungen stattfinden könnten. Ursachen für eine erhöhte Exposition könnten sein: die Zunahme des Pollenflugs, infolge einer Stressreaktion von Bäumen auf die Erderwärmung oder Schadstoffbelastung, die Zunahme der Milbenexposition durch verbesserte Isolierung der Häuser, der vermehrte Konsum exotischer Lebensmittel wie Kiwi. Veränderungen in der kommensalen Flora. Veränderungen in der kommensalen Flora könnten ebenfalls das Immunsystem beeinflussen und im Zusammenhang mit dem vermehrten Auftreten von Allergien stehen. Veränderungen in der Darmflora können durch den Einsatz von Antibiotika und durch moderne Ernährungsgewohnheiten ausgelöst werden. Die Bakterienflora der Haut könnte durch die Einführung von Windeln verändert worden sein. Es wird diskutiert, ob Probiotika einen günstigen Effekt auf die Entwicklung von Allergien haben könnten. Veränderte Lebensgewohnheiten. Es gibt etliche weitere Faktoren, von denen ebenfalls vermutet wird, dass sie die Entstehung allergischer Erkrankungen begünstigen können. Dies sind Rauchen, Autoabgase, Stress, kleinere Familien, veränderte Ernährung, aber auch ein veränderter individueller Lebensstil , der sich zunehmend positiv auf die Entwicklung von Atopie und Allergien auswirken könnte, wie die kürzere Stillzeit junger Mütter und ein dadurch bedingtes höheres Allergierisiko des Kindes. Kinder von Frauen, die während der Schwangerschaft Kontakt zu Tieren, Getreide oder Heu hatten, bekommen im späteren Leben seltener allergische Atemwegs- und Hauterkrankungen. Für einen optimalen Schutz ist aber ein anhaltender Kontakt zu Nutztieren oder Getreide nötig. Pathophysiologie. Typ-1-Allergien sind ein großes Gesundheitsproblem, speziell in den westlichen Industrienationen, wo es Schätzungen gibt, dass bis zu 25 % der Bevölkerung betroffen sind. Allergien sind verursacht durch eine unangemessene Reaktion des humoralen Immunsystems und gekennzeichnet durch die Bildung von IgE-Antikörpern gegen ansonsten harmlose Antigene, die Allergene. Kleinste Mengen dieser Allergene (Nanogramm-Bereich) reichen, um eine Sensibilisierung, d. h. eine erste Bildung von Allergen-spezifischen IgE-Antikörpern, in Gang zu bringen und in weiterer Folge die Allergen-spezifische IgE-Produktion nachhaltig aufrechtzuerhalten. Kleinste Allergenmengen reichen ebenfalls, um eine allergische Reaktion auszulösen. Im Gegensatz zu den anderen Antikörper-Isotypen (IgM, IgA, IgG) liegen IgE-Antikörper überwiegend rezeptorgebunden vor, und zwar vor allem an der Oberfläche von Mastzellen und Basophilen. Die freien Serum-Konzentrationen von IgE-Antikörpern sind daher vergleichsweise niedrig. Typisch für Allergien ist also, dass beim ersten Kontakt mit einem Allergen noch keine Symptome ausgelöst werden können. Erst nach einer Sensibilisierung, d. h. einer Allergen-spezifischen Antikörperbildung, kann bei einem weiteren Kontakt mit diesem bestimmten Allergen eine allergische Reaktion auftreten. Sensibilisierung. In der "Sensibilisierungsphase" werden in den Körper gelangte Allergene von dendritischen Zellen aufgenommen und prozessiert. Die dann aktivierten dendritischen Zellen (DC2) präsentieren über ihre MHC II Oberflächenrezeptoren Allergenbruchstücke an naive CD4+ T-Zellen (Allergien sind HLA-assoziiert). Die naiven CD4+ T-Zellen werden durch Kostimulation und Zytokine zu aktivierten Th2-Zellen. Auf der anderen Seite kommen auch naive B-Zellen in Kontakt mit Allergen. Treffen diese B-Zellen dann auf allergenspezifisch aktivierte Th2-Zellen, so kommt es zu einer T-Zell-B-Zell-Interaktion. Die B-Zelle kann danach allergenspezifisches IgE bilden und wird zur IgE-sezernierenden Plasmazelle. Diese Plasmazellen sind in der Lage, große Mengen an IgE-Antikörpern zu bilden, und können über an der Zelloberfläche gebundenes IgE nach erneutem Allergenkontakt zu verstärkter IgE-Synthese angeregt werden. IgE-Antikörper haben eine sehr hohe Affinität zu ihren zellgebundenen Rezeptoren, dem FcεRI- (hochaffin) und dem FcεRII- (weniger affin) Rezeptor (FcεRII ist ident mit CD23). Das führt dazu, dass die Mehrzahl der gebildeten IgE-Antikörper an die hochaffinen IgE-Rezeptoren FcεRI an der Zelloberfläche von Mastzellen und Basophilen gebunden werden und vergleichsweise nur sehr wenige IgE-Antikörper frei im Blut vorkommen (Vergleich: typisch sind 30 ng IgE-Antikörper je ml Serum und 9 mg IgG1-Antikörper je ml Serum). Darüber hinaus haben freie IgE-Antikörper eine relativ kurze „Halbwertszeit“ von zirka 2,5 Tagen (IgG-Antikörper zirka 20 Tage). IgE-Antikörper werden auch an antigenpräsentierende Zellen gebunden und verstärken so die Präsentation von Allergenen an das Immunsystem. Das verstärkte Vorhandensein von IgE-Antikörpern reguliert die Expression des hochaffinen IgE-Rezeptors FcεRI auf den Mastzellen hoch, und die Bindung von IgE-Antikörpern an FcεRI fördert die Langlebigkeit der Mastzellen. Sowohl IgE-Antikörper als auch die hochaffinen IgE-Rezeptoren FcεRI kommen nur monomer vor. Dies und die Tatsache, dass eine allergische Reaktion der Kreuzvernetzung mehrerer Rezeptoren bedarf, sichert die hohe Spezifität der IgE-vermittelten allergischen Reaktionen. Effektorphase. Die allergische "Sofort-Typ-Reaktion" wird ausgelöst, wenn Allergene IgE-Antikörper, die an der Oberfläche von Mastzellen und Basophilen gebunden sind, kreuzvernetzen. Dieses Kreuzvernetzen induziert die Degranulierung von Mastzellen und Basophilen, d. h. die Ausschüttung von Entzündungsmediatoren, wie von Histamin und Leukotrienen. Die freigesetzten Entzündungsmediatoren lösen innerhalb von Sekunden bis Minuten allergische Symptome aus, wie allergische Rhinitis (Heuschnupfen), Conjunctivitis (Bindehautentzündung), allergisches Asthma oder als schwerste Manifestation den anaphylaktischen Schock. Mastzellen sind überwiegend in den Geweben entlang der Körperoberflächen lokalisiert, und zwar in der Lamina propria der oberen und unteren Atemwege, in der Bindehaut, in der Haut, in der gastro-intestinalen Schleimhaut und im perivaskulären Gewebe (Gewebe um die Blutgefäße). An diesen „Wächterpositionen“ des Körpers spielen Mastzellen eine Rolle sowohl in der zellulären Immunantwort (IgG- und IgE-unabhängig), als auch in der humoralen Immunantwort, und zwar über ihre Oberflächenrezeptoren FcγR, an die IgG-Antikörper binden, und FcεRI, an die IgE-Antikörper binden. Mastzellen sind große Zellen, die zytoplasmatische Granula enthalten. Die Entzündungsmediatoren der Mastzelle sind entweder schon vorgebildet und in diesen Granula gespeichert oder sie werden von der Mastzelle auf Aktivierungssignale hin neu synthetisiert. Es ist eine Vielzahl von Substanzen, die von aktivierten Mastzellen freigesetzt werden. Dazu gehören: Histamin, Serotonin, Prostaglandine, Leukotriene, Proteasen (Tryptase, Chymase), Chemokine (Eotaxin, RANTES) und Zytokine (TNF-α, GM-CSF, MIP-1α und die „Th2-Zytokine“ IL-3, IL-4, IL-5, IL-6, IL-9, IL-10 und IL-13). Konsequenz der Freisetzung dieser Substanzen sind erhöhte vaskuläre Permeabilität, Kontraktion der glatten Muskulatur, Stimulierung der kutanen Nervenendigungen (führt zu Juckreiz), kurz die Auslösung der Symptome einer allergischen Reaktion. Werden auf Mastzellen die hochaffinen IgE-Rezeptoren (FcεRI) kreuzvernetzt, so führt das aber auch zu einer Hochregulierung der Expression von CD40-Liganden auf Mastzellen. Zusammen mit IL-4 kann das Teil eines positiven Rückkopplungseffekts sein, in dem lokale Plasma-B-Zellen weiter angeregt werden, IgE-Antikörper zu produzieren. Vier bis zwölf Stunden nach Allergenkontakt können auch "Spät-Typ-Reaktionen", oder chronische Symptome auftreten. Diese sind maßgeblich dominiert von der Aktivierung Allergen-spezifischer T-Zellen und der chemotaktischen Rekrutierung und dem nachfolgenden Einwandern von Eosinophilen, Basophilen und Monozyten an den Ort der allergischen Reaktion. Basophile Granulozyten sind normalerweise überwiegend im Blut lokalisiert. Sie sind aber in der Lage an Entzündungsherden ins Gewebe überzutreten. Sie produzieren ein ähnliches Spektrum an Entzündungsmediatoren wie Mastzellen und setzen diese Entzündungsmediatoren ebenfalls nach Kreuzvernetzung ihrer Oberflächenrezeptoren frei. Eosinophile Granulozyten sind hauptsächlich in Geweben lokalisiert, insbesondere im Bereich des Darms, und sind normalerweise nur in geringer Anzahl im Blut vorhanden. Eosinophile exprimieren den hochaffinen IgE-Rezeptor FcεRI, aber nur nach Aktivierung und Rekrutierung an einen Entzündungsherd in Geweben. Eosinophile setzen stark zytotoxische und neurotoxische Proteine frei, wie MBP, ECP, EPX, EDN und EPO, die Gewebe zerstören können. Daraufhin können weitere Entzündungsmediatoren freigesetzt werden, wie Prostaglandine, Leukotriene und die Zytokine IL-3, IL-5 und GM-CSF, die wiederum weitere Eosinophile in die betroffenen Gewebe rekrutieren und aktivieren. Bei allergischen Patienten kann vor allem die Lunge stark von Eosinophilen infiltriert sein, was einen großen Einfluss auf das Krankheitsbild hat. Klinische Einteilung von Immunreaktionen. Der Begriff Allergie ist weit gefasst definiert mit „Krankheit infolge einer Immunantwort gegen ansonsten harmlose Antigene“, ist also eine Art der immunologischen Überreaktion. In diesem Sinn umfasst der Begriff Allergie mehrere verschiedene immunologische Krankheiten, die als erstes 1963 von Coombs und Gell nach ihren pathophysiologischen Mechanismen in vier Typen eingeteilt wurden. Diese Einteilung ist sehr bedeutend, jedoch lassen sich hier einige Krankheiten nicht absolut eindeutig einordnen, sondern haben Anteile von mehreren „Typen“. Dabei erfolgt die Einteilung der Immunreaktionen klassischerweise in vier Kategorien mit Unterklassen. Die Typ-I- bis Typ-III-Reaktionen werden durch Antikörper vermittelt, während die Typ-IV-Reaktion durch T-Zellen ausgelöst wird. Im engeren Sinn versteht man heute unter Allergie oft nur die Typ-I-Allergie. Die klassische Einteilung nach "Coombs und Gell". Typ I: die „klassische“ Allergie bzw. an freie Antigene IgE-vermittelter Soforttyp . Die Typ-I-Allergie oder Soforttyp-Reaktion ist IgE-vermittelt. Die Reaktion erfolgt beim Zweitkontakt innerhalb von Sekunden bis wenigen Minuten. Antigene sind im pathologischen Allergiefall freie oder gelöste Moleküle, die vom Immunsystem fälschlich als bedrohlich oder körperfremd gewertet werden. Zunächst binden frisch produzierte IgE-Antikörper an die Oberfläche von Mastzellen. Dort führt eine Antigen-Antikörper Bindung zur Aktivierung und Degranulation. Es werden Entzündungsmediatoren wie Histamin, Leukotriene und Prostaglandine freigesetzt. Hierfür ist ein Erstkontakt mit einer Sensibilisierung nötig, die symptomlos verläuft. T- und B-Lymphozyten erkennen unabhängig voneinander das betreffende Antigen. T-Lymphozyten erkennen das Antigen über antigenpräsentierende Zellen, B-Lymphozyten können freies Antigen direkt über den B-Zell-Rezeptor binden. Die anschließende „Liaison“ zwischen B- und T-Lymphozyt führt zur Interleukin-4 (IL 4) vermittelten Umwandlung der B-Lymphozyten in Antikörper-produzierende Plasmazellen, die nun IgE Antikörper produzieren (Isotypswitch) (im Detail: siehe Pathophysiologie). Diese IgE-Antikörper setzen sich auf die mit Histamin-Granula beladenen Mastzellen. Beim Zweitkontakt bindet das Allergen an das auf den Mastzellen vorhandene IgE, Histamin wird ausgeschüttet und die Sofortreaktion tritt ein. Die Gewebeschädigung erfolgt durch die Entzündungsreaktion, die dieser „falsche Alarm“ einleitet: „Entzündungszellen“ wandern ein und verrichten ihre Arbeit. Die Reaktion kann von relativ mild bis hin zu lebensbedrohlich ausfallen. Typische Krankheitsbilder der Soforttyp-Reaktion sind die allergische Konjunktivitis (Bindehautentzündung), allergische Rhinitis (Heuschnupfen), allergisches Asthma, Nesselsucht (Urticaria), Larynxödem, aber auch schwerwiegende bis lebensbedrohliche Formen, wie das angioneurotische Ödem (Quincke-Ödem) und der anaphylaktische Schock. Eine verzögerte Reaktion kann zusätzlich nach vier bis zwölf Stunden auftreten, siehe dazu Typ IV, Spättyp. Typ IIa. Bei Überempfindlichkeitsreaktionen vom Typ IIa werden IgG- oder IgM-Antikörper gegen körperzell-gebundene Antigene gebildet ("Auto"antikörper). Durch Bindung der Antikörper an die Antigene werden die zugehörigen Zellen für das Immunsystem „zum Abschuss markiert“: Prozess der Opsonisierung (lat. „schmackhaft machen“). Die betroffenen Zellen werden dann durch Komplement, Makrophagen und NK-Zellen zerstört (Zelllyse). Diese Vorgänge finden physiologischerweise im Zuge der Virusabwehr und der Bakterienphagozytose statt. Die Schädigung erfolgt unmittelbar durch Zellzerstörung. Typ II b: stimulatorische Immunreaktion bzw. Reaktion mit Hormonrezeptoren. AK-A-Interaktion wie bei Typ IIa, jedoch führt die Bindung nicht zur Zellzerstörung, sondern über Rezeptorbindung zur Aktivierung spezifischer Zellfunktionen [das (Auto)Antigen ist hier der Zellrezeptor]. Die Antikörper wirken als hochaffine Botenstoffe. Hier ist insbesondere die Stimulation von endokrinen Zellen von besonderer Bedeutung. Typische Beispiele sind der Morbus Basedow, bei dem Autoantikörper gegen den TSH-Rezeptor gebildet werden, und die chronische Urtikaria, bei der Autoantikörper gegen den IgE-Rezeptor gebildet werden. Typ III: Antikörper-abhängiger Immunkomplex-Typ bzw. Arthus-Typ. Typ-III-Überempfindlichkeitsreaktionen sind gekennzeichnet durch Antikörper-Bildung gegen lösliche Antigene. In weiterer Folge kommt es zur Bindung der gebildeten Antikörper an die gelösten Antigene. Da sowohl die Antikörper als auch die Antigene multivalent sind, kann es zu Komplex-Formierungen kommen, in denen sich viele Antikörper mit vielen Antigen-Molekülen zu Immunkomplexen verbinden. Die gebildeten Immunkomplexe können sich zum einen in den Kapillaren ablagern (beispielsweise in der Niere) und so zu Schäden führen, zum anderen aber auch Komplement aktivieren, was zu Entzündungsreaktionen führt. Typische Erkrankungen sind die Glomerulonephritis, Arthus-Reaktion, Serumkrankheit, Vaskulitis, Purpura Schönlein-Henoch, der systemische Lupus erythematodes und die exogen-allergische Alveolitiden (beispielsweise die Berufskrankheiten Farmerlunge, Vogelhalterlunge, Käserlunge und Bäckerlunge). Typ IV: Spättyp/Verzögerter Typ/Zell-mediierter Typ/Antikörper-unabhängiger Typ/Tuberkulintyp. Typ IV Überempfindlichkeitsreaktionen werden ausgelöst durch die Aktivierung Allergen-spezifischer T-Zellen. Es werden drei Subtypen unterschieden. Bei einer positiven Reaktion finden sich neben Erythem und Infiltration auch Papeln und Bläschen. Die Testreaktionen (Erythem, Bläschen, Papeln) können auch über das Testareal hinaus auftreten. Typ IVa1. Aktivierung von TH1-Zellen, die Reaktion richtet sich gegen lösliche Antigene und führt zur Aktivierung von Makrophagen. Beispiele hierfür sind die Nickel-Kontaktdermatitis und der Tuberkulin-Test, wobei bei letzterem das Tuberkulin beim Einbringen in die Haut eine Reaktion mit sensibilisierten T-Lymphozyten hervorruft, welche bei einem allfälligen Kontakt mit Tuberkulose-Erregern gebildet wurden. Typ IVa2. Aktivierung von TH2-Zellen. Die Reaktion richtet sich gegen lösliche Antigene und führt zur Aktivierung von eosinophilen Granulozyten. Typische Erkrankungen sind allergisches Asthma und die atopische Dermatitis (Neurodermitis). Typ IVb. Aktivierung von zytotoxischen Lymphozyten, Reaktion richtet sich gegen zell-gebundene Antigene, Lyse der betroffenen Zellen. Symptomatische Therapie. Die meisten Allergien werden mit Medikamenten behandelt, die das Auftreten von allergischen Symptomen mildern oder verhindern, aber keine Heilung von der allergischen Erkrankung bewirken können. Diese Antiallergika werden je nach Krankheitsform und Schwere der Erkrankung in unterschiedlichen Darreichungsformen (Tabletten, Nasensprays, Asthmasprays, Augentropfen, Cremes, Salben und Injektionen) und in unterschiedlichen Intervallen (bei akutem Bedarf, prophylaktisch, dauerhaft) angewendet. Patienten, bei denen bekannt ist, dass sie Gefahr laufen, einen anaphylaktischen Schock zu erleiden (bei Insektenallergien), wird ein Notfallset mit Antihistaminikum, Glukokortikoid, eventuell einem Inhalationspräparat und einem Autoinjektor mit Adrenalin verschrieben (Adrenalin-Pen), welches sie stets bei sich tragen sollten. Primäre Prophylaxe. Eine primäre Prophylaxe bedeutet, vorbeugende Maßnahmen zu treffen, damit eine Sensibilisierung und folglich die Entstehung einer allergischen Erkrankung, vermieden wird. Die beste Vorbeugung ist das Vermeiden von Allergenkontakt, wenn es den begründeten Verdacht gibt, dass sich wahrscheinlich eine bestimmte Allergie entwickeln wird. Das vollständige Vermeiden von sämtlichen Allergenen ist unmöglich, jedoch in bestimmten Fällen und Situationen können bestimmte Allergene sehr wohl vermieden werden. So haben Kinder, die mit offenem Rücken (Spina bifida) geboren werden, ein sehr hohes Risiko einer Sensibilisierung gegen Latex. Es ist daher heute klinischer Standard, diese Kinder von Geburt an vor jedem Kontakt mit Latex (beispielsweise bei Latex-OP-Handschuhen) zu schützen. Die exogen-allergische Alveolitis ist meist eine Berufskrankheit, die durch die Inhalation von bestimmten Stäuben (Mehl bei der Bäcker-Lunge) verursacht wird. Durch das Anwenden von entsprechenden Arbeitsschutz-Maßnahmen, wie das Tragen von Feinstaubmasken, die Verwendung von Abzugshauben, kann Allergenkontakt vermieden und können damit Mitarbeiter vor einer Sensibilisierung geschützt werden. Die optimale Ernährung für Neugeborene ist das ausschließliche Stillen während mindestens der ersten 4 Lebensmonate. Es gibt retrospektive Studien, die beobachtet haben, dass gestillte Kinder seltener an Allergien leiden als nicht-gestillte. Es gibt auch Studien dazu, dass Haushunde und auch Hauskatzen vor Allergien schützen können.C. Pelucchi, C. Galeone u. a.: "Pet exposure and risk of atopic dermatitis at the pediatric age: a meta-analysis of birth cohort studies." In: "The Journal of allergy and clinical immunology." Band 132, Nummer 3, September 2013, S. 616–622.e7.. PMID 23711545.R. E. Pattillo: "Keep the family dog." In: "Nurse educator." Band 37, Nummer 6, 2012 Nov-Dec, S. 227.. PMID 23086057.J. Smallwood, D. Ownby: "Exposure to dog allergens and subsequent allergic sensitization: an updated review." In: "Current allergy and asthma reports." Band 12, Nummer 5, Oktober 2012, S. 424–428.. PMID 22684981. (Review). S. C. Dharmage, C. L. Lodge u. a.: "Exposure to cats: update on risks for sensitization and allergic diseases." In: "Current allergy and asthma reports." Band 12, Nummer 5, Oktober 2012, S. 413–423.. PMID 22878928. (Review). Diese sammeln im Freien Allergene ein, die dann später zu Hause an das Kind abgegeben werden. Dessen Immunsystem wird dann dazu trainiert die Fremdkörper zwar zu erkennen, diese aber als harmlos einzustufen. Zumindest in einer tierexperimentellen Studie an Mäusen hat dies funktioniert.K. E. Fujimura, T. Demoor u. a.: "House dust exposure mediates gut microbiome Lactobacillus enrichment and airway immune defense against allergens and virus infection." In: "Proceedings of the National Academy of Sciences of the United States of America." Band 111, Nummer 2, Januar 2014, S. 805–810.. PMID 24344318.. Noch nicht abschließend zu beurteilen ist der vorbeugende Effekt von sogenannten „Probiotika“, wie Laktobazillen. Diese natürlichen Darmbakterien sind in probiotischen Joghurts und mittlerweile auch in Säuglingsnahrung enthalten. Finnische Studien geben erste Hinweise darauf, dass diese Produkte einen Schutz vor der Entstehung von Allergien bieten könnten. Sekundäre Prophylaxe. Eine sekundäre Prophylaxe wird bei bereits bestehender Sensibilisierung bzw. allergischer Erkrankung angewendet und soll das Wiederauftreten von Symptomen und eine Verschlechterung der Erkrankung verhindern. Die Allergenkarenz, d. h. die Allergenvermeidung, ist bei sensibilisierten Personen zum einen wichtig, um das Auslösen einer allergischen Reaktion zu vermeiden, und zum anderen, um einen „boost“ der IgE-Antwort zu vermeiden. Denn bei bereits sensibilisierten Personen löst der erneute Allergen-Kontakt eine Verstärkung der Allergen-spezifischen IgE-Produktion aus, wohingegen bei dauerhafter Allergenkarenz die Allergen-spezifischen IgE-Antikörper-Titer zurückgehen. Eine vollständige Allergenvermeidung ist aber oft schwierig. Bestimmte Produkte wie Milben-dichte Matratzenbezüge oder Pollenfilter in Klimaanlagen helfen, den Allergenkontakt zu reduzieren. Auch wenn ein Verzicht auf Haustiere den Allergenkontakt stark reduziert, so sind Tierhaarallergene sehr stabil, werden verschleppt und können auch an Orten wie Schulen nachgewiesen werden, an denen normalerweise keine Tiere gehalten werden. Nahrungsmittelallergene hingegen können meistens sehr gut vermieden werden. In manchen Fällen kann das Vermeiden von histaminreichen Nahrungsmitteln sinnvoll sein, um bestimmte allergische Reaktionen nicht zusätzlich zu verstärken. Immer wieder äußerten Allergologen in der Vergangenheit die Vermutung, dass eine frühzeitig durchgeführte spezifische Immuntherapie (Hyposensibilisierung) Allergiker vor dem Auftreten weiterer Allergien schützen kann. Doch bisher fehlten die Beweise für diese These. Nun hat das Paul-Ehrlich-Institut mehreren standardisierten Allergenpräparaten (Hersteller ALK-Abelló Arzneimittel) aufgrund der Ergebnisse von Langzeitstudien die Zulassung zur Prävention von Neusensibilisierungen auf weitere Allergene erteilt. Der Indikationsausweitung dieser Milbenpräparate liegt eine über sechs Jahre durchgeführte Studie zu Grunde, die zeigt, dass eine dreijährige Therapie mit den entsprechenden SQ-Präparaten die Rate der Neusensibilisierungen bei Kindern mit Hausstaubmilbenallergie um 60 % verringert. Bei unter Heuschnupfen (Pollenallergie) leidenden Kindern konnte hingegen nachgewiesen werden, dass die spezifische Immuntherapie in der Lage ist, der drohenden Entwicklung eines allergischen Asthmas vorzubeugen (Jacobsen L, et al. (The PAT investigator group). Specific immunotherapy has long-term preventive effect of seasonal and perennial asthma: 10-year follow-up on the PAT study. Allergy. 2007;62(8):943-8. und Möller C et al. Pollen immunotherapy reduces the development of asthma in children with seasonal rhinoconjunctivitis (the PAT-study). J Allergy Clin Immunol. 2002;109(2):251-6.). Spezifische Immuntherapie. Die spezifische Immuntherapie (SIT) oder Hyposensibilisierung ist bislang die einzige verfügbare kausale Therapie bei Typ-I-Allergien. In der spezifischen Immuntherapie werden langsam ansteigende Dosen des Allergens oder eines modifizierten Allergens (Allergoid), gegen das die betroffene Person sensibilisiert ist, entweder unter die Haut gespritzt (Subkutan) oder als Tropfen über die Mundschleimhaut unter der Zunge (Sublingual) verabreicht. Die Indikation zur SIT besteht, wenn das verursachende Allergen nicht gemieden werden kann, die Wirkung der SIT für die behandelnde Erkrankung belegt ist und ein geeigneter Allergenextrakt verfügbar ist. Hierzu sollte eine Überprüfung des Wirksamkeitsnachweises sowie der Nebenwirkungen in einer klinischen Studie erfolgt sein, die den Vorgaben des Paul-Ehrlich-Instituts entsprechen muss. Voraussetzung für eine erfolgreiche SIT ist die Bereitschaft des Patienten, die Therapie über einen Zeitraum von drei Jahren regelmäßig durchzuführen. "Subkutane Immuntherapie (SCIT)" – die Allergene werden mit steigender Dosis subkutan vom spezialisierten Facharzt (Allergologe) unter die Haut gespritzt. Dabei liegen die Allergene entweder in wässriger Lösung vor (vor allem bei Insektengiftallergenen) oder sind an einen Depotträger (L-Tyrosin, Aluminiumhydroxid, Calciumphosphat) gebunden. Die Dosis wird am Anfang gesteigert und die Therapie wird nach Erreichen der Erhaltungsdosis in regelmäßigen Abständen (4–6 Wochen) fortgeführt, damit sich das Immunsystem an das Allergen gewöhnen und die Bildung von Antikörpern reguliert werden kann. "Sublinguale Immuntherapie (SLIT)" – die Allergene werden über Tropfen oder Schmelztabletten zugeführt, die unter die Zunge (sublingual) geträufelt bzw. gelegt werden, von wo aus sie über die Mundschleimhaut aufgenommen werden. Im Unterschied zur SCIT müssen die Allergene täglich genommen werden. Die Behandlungsdauer beträgt ähnlich wie bei der subkutanen Therapie drei Jahre. Zu Anfang wird die Allergengabe innerhalb weniger Tage auf die Erhaltungsdosis gesteigert. Nach der ersten Einnahme unter ärztlicher Aufsicht kann sie selbstständig zu Hause durchgeführt werden. Arztbesuche sind daher etwas seltener erforderlich als bei der Therapie mit Spritzen. Der Vorteil liegt in der einfachen Einnahme zu Hause. Die Evidenzlage zur klinischen Wirksamkeit der Tabletten, die derzeit nur für Gräserpollenallergiker zur Verfügung stehen ("Allergie-Immun-Tabletten (AIT)", auch „Grastabletten“ oder „Gräsertabletten“ genannt) ist der der Tropfen deutlich überlegen. Weiterhin haben Tabletten explizit die Kinderzulassung für Kinder ab 5 Jahre. Die ersten Studien unter Verwendung der sublingual anzuwendenden SIT stießen vor Jahren bei vielen Allergologen auf große Skepsis. Sie gingen aufgrund von Vorurteilen davon aus, dass diese Applikationsform nicht wirken kann, da die zugeführten Allergene schnell verstoffwechselt werden, bevor sie das Immunsystem zu den erwünschten Reaktionen anregen können. Doch mittlerweile liegen zahlreiche wissenschaftliche Studien vor, die übereinstimmend belegen, dass die SIT gut wirkt und kaum Nebenwirkungen erzeugt. Sie kann sogar bei Asthmatikern zum Einsatz kommen, die die Ärzte ansonsten nur ungern aufgrund drohender ernster Nebenwirkungen mit der spezifischen Immuntherapie in Spritzenform behandeln. Die Allergie-Symptome werden durch den Einsatz der SIT deutlich abgemildert und der Bedarf an einer symptomatisch wirkenden Begleitmedikation wird kleiner. Dadurch werden die bei der Verordnung der Allergene in Tropfenform anfallenden Mehrkosten wieder ausgeglichen. Ein Nachteil der SIT in Tropfenform besteht allerdings darin, dass es nicht allen Allergikern gelingt, sich die vom Arzt verordnete exakte Zahl von Allergen-Tropfen in den Mund zu tropfen. Hilfreich bei diesem Problem sind aber Pumpensysteme, mit denen das Medikament exakt dosiert werden kann. Eine Alternative zu den Tropfen bieten Schmelztabletten, die unter die Zunge gelegt werden und dort durch die Mundschleimhaut aufgenommen werden. Vorteil bei den Schmelztabletten ist, genau wie bei den Pumpen, dass die Allergen-Dosis standardisiert ist und immer in derselben Menge eingenommen werden kann. Auch die Tablettentherapie hat sich als wirksam erwiesen. Bisher ist die Durchführung einer spezifischen Immuntherapie bei kleinen Kindern im Vorschulalter, bedingt durch deren Angst vor Spritzen, nahezu unmöglich. Die Immunisierung mithilfe von Tabletten bietet hier eine Alternative. Pseudoallergien und Begriffsverfremdungen. Es gibt Krankheiten, die in ihrem klinischen Bild, also mit ihren Symptomen, einer Typ-I-Allergie gleichen, jedoch nicht immunologisch bedingt sind. Diese Krankheiten werden als Pseudoallergien oder Überempfindlichkeitsreaktionen bezeichnet. Begriffsverfremdungen können vor allem in esoterischer und alternativ-medizinischer Literatur gefunden werden. Hier werden „Allergien“ wie "Zuckerallergie" und "Wasserallergie" genannt und „Therapien“ dagegen angeboten. Allergien gegen Wasser und Zucker sind aber "per definitionem" nicht möglich, da einer Allergie eine unangemessene Immunantwort auf ein Allergen zu Grunde liegt. Wasser und Zucker sind aber nicht immunogen und daher auch nicht „allergisierend“. Eine Erkrankung, die gelegentlich als Wasserallergie bezeichnet wird, ist die extrem seltene "aquagene Urtikaria" (Wassernesselsucht). Aminosäuren. Aminosäuren (unüblich "Aminocarbonsäuren", veraltet "Amidosäuren") sind eine Klasse organischer Verbindungen mit mindestens einer Carboxygruppe (–COOH) und einer Aminogruppe (–NH2), gehören also sowohl zur Gruppe der Carbonsäuren, als auch zu jener der Amine. Die Stellung der Aminogruppe zur Carboxygruppe teilt die Klasse der Aminosäuren in Gruppen auf. Die wichtigsten Aminosäuren haben eine endständige Carboxygruppe und in direkter Nachbarschaft die Aminogruppe. Dies nennt man "geminal" oder "α-ständig"; diese Aminosäuren gehören zu den so genannten "α-Aminosäuren". Der Begriff "Aminosäuren" wird häufig vereinfachend als Synonym für die proteinogenen Aminosäuren benutzt. Diese α-Aminosäuren sind die Bausteine der Proteine. Bisher sind 23 proteinogene Aminosäuren bekannt, das Spektrum der Klasse der Aminosäuren geht aber weit über diese hinaus. So sind bisher 400 "nichtproteinogene" natürlich vorkommende Aminosäuren bekannt, die biologische Funktionen haben. Die Anzahl der synthetisch erzeugten und die der theoretisch möglichen Aminosäuren ist noch erheblich größer. Eine spezielle Gruppe stellen die vergleichsweise seltenen D-Aminosäuren dar. Abbauprodukte von Aminosäuren wie die biogenen Amine werden im Organismus vielfältig weiter umgesetzt und können selber physiologische Wirkungen, beispielsweise als Neurotransmitter, entfalten. Aminosäuren konnten bisher nicht nur auf der Erde, sondern bereits auch auf Kometen, Meteoriten und sogar in Gaswolken im interstellaren Raum nachgewiesen werden. Geschichte. Als erste kanonische Aminosäure wurde 1805 Asparagin im Pariser Labor von Louis-Nicolas Vauquelin und dessen Schüler Pierre Jean Robiquet aus Spargelsaft (Spargel = Asparagus) isoliert. Als letzte Aminosäure wurde 1935 das Threonin durch William Rose entdeckt, nachdem dieser zuvor festgestellt hatte, dass die bis dato entdeckten 19 Aminosäuren nicht als Fütterungsmittel ausreichten. In der Zeit zwischen 1805 und 1935 waren viele der damals bekannten Chemiker und Pharmazeuten an der erstmaligen Isolierung und Strukturaufklärung der Aminosäuren beteiligt, u. a. die später Nobelpreisträger Emil Fischer (Aufklärung der Struktur von Valin, Serin und Lysin), Albrecht Kossel (1896 Histidin), Richard Willstätter (1900 Prolin) und Frederick Hopkins (1901 Tryptophan). Besondere Erwähnung finden muss zudem der deutsche Chemiker Ernst Schulze, der während seiner 40-jährigen Tätigkeit am Polytechnikum in Zürich allein drei Aminosäuren erstmals isolieren konnte (1877 Glutamin, 1881 Phenylalanin und 1886 Arginin) und zudem an der Strukturaufklärung weiterer Aminosäuren beteiligt war (Leucin, 1819 erstmals isoliert von Joseph Louis Proust sowie Valin, erstmals isoliert 1856 von Eugen von Gorup-Besánez). Während Justus von Liebig 1846 das Tyrosin erstmals aus Casein isolieren konnte, entdeckte der Wegbereiter der organischen Chemie im 19. Jhdt., Friedrich Wöhler, selbst keine Aminosäure. Dafür hatten drei der an der Entdeckung beteiligten Chemiker bei Wöhler studiert, so Georg Städeler sowie die bereits erwähnten Gorup-Besánez und Schulze. 18 der 20 kanonischen Aminosäuren wurden erstmals durch Isolierung aus pflanzlichem oder tierischem Material erhalten. Nur die beiden Aminosäuren Alanin (1850 Adolph Strecker) und Prolin (1900 Richard Willstätter) wurden erstmals durch organische Synthese erhalten. Während die Analyse der Zusammensetzung der Aminosäuren mit den damaligen Methoden gut zu bewerkstelligen war, konnte die finale Strukturformel oftmals erst durch die organische Synthese endgültig aufgeklärt werden, die oftmals erst Jahre nach der erstmaligen Isolierung einer Aminosäure gelang. So erfolgte die Strukturaufklärung des Asparagins durch Hermann Kolbe im Jahr 1862 und damit 57 Jahre nach dessen erstmaliger Beschreibung. Die Namen der Aminosäuren lassen sich zurückführen entweder auf ihr Aussehen (z. B. Arginin, Leucin), ihren Geschmack (z. B. Glycin), auf das Material, aus dem ihre erstmalige Isolierung gelang (z. B. Asparagin, Cystein, Serin, Tyrosin), dessen chemische Struktur (z. B. Prolin, Valin) oder auf Basis ihrer Edukte (z. B. Alanin). Gewinnung und Produktion. "Aminosäuren" werden entweder aus Naturstoffen durch Auftrennung eines hydrolysierten Proteins oder auf synthetischem Wege gewonnen. Ursprünglich diente die Entwicklung einer Synthese für die diversen Aminosäuren hauptsächlich der Strukturaufklärung. Inzwischen sind diese Strukturfragen gelöst und mit den verschiedenen Synthesen, soweit sie noch aktuell sind, werden gezielt die gewünschten Aminosäuren dargestellt. Bei den Synthesen entstehen zunächst racemische Gemische, die getrennt werden können. Eine Methode hierfür ist beispielsweise eine selektive enzymatische Hydrolyse. Näheres hierzu unter Trennverfahren. Nachfolgend ein Überblick über diverse Synthesen, die von Chemikern bereits ab Mitte des 19. Jahrhunderts entwickelt wurden. Einige dieser älteren Synthesen sind wegen geringer Ausbeuten oder sonstiger Probleme nur von historischem Interesse. Allerdings wurden diese alten Verfahren teilweise weiterentwickelt und einige sind auch noch heute zur Darstellung von Aminosäuren aktuell. Weitergehende Einzelheiten zu diesen Synthesen einschließlich der Gleichungen für die Synthesen sind unter den "Links" zu den "Synthesen" und den angegebene "Aminosäuren" angeführt. Aufbau der Aminosäuren. Grundstrukturen einiger Aminosäuren(R bezeichnet die Seitenkette) Aminosäuren bestehen aus mindestens zwei Kohlenstoffatomen. Die instabile Carbamidsäure besitzt lediglich ein Kohlenstoffatom und ist damit keine Aminosäure, sondern ein Carbonsäureamid. Aminosäuren lassen sich in verschiedene Klassen einteilen, abhängig davon, an welchem Kohlenstoffatom sich die Aminogruppe relativ zur Carboxygruppe befindet. Sind im Molekül mehrere Aminogruppen vertreten, so bestimmt das Kohlenstoffatom, dessen Aminogruppe dem Carboxy-Kohlenstoff am nächsten steht, um welche Klasse von Aminosäuren es sich handelt. Die Bezeichnung weiterer Klassen der Aminosäuren ergibt sich nach dem gleichen Schema. Die Aminosäuren einer Klasse unterscheiden sich durch ihre Seitenkette R. Ist die Seitenkette R verschieden von den anderen Substituenten, die sich am Kohlenstoff mit der Amino-Gruppe befinden, so befindet sich hier ein Stereozentrum und es existieren von der entsprechenden Aminosäure zwei Enantiomere. Enthält die Seitenkette R selbst weitere Stereozentren, so ergeben sich auch Diastereomere und die Zahl möglicher Stereoisomerer nimmt entsprechend zur Anzahl der weiteren Stereozentren zu. Von Aminosäuren mit "zwei" verschieden substituierten Stereozentren gibt es "vier" Stereoisomere. Säure- und Base-Verhalten. Die Ladung eines Aminosäuremoleküls hängt also vom pH-Wert der Lösung ab. Bei einem Zwitterion ist die Gesamtladung des Moleküls gleich null. Der entsprechende pH-Wert wird als isoelektrischer Punkt (pHI, pI) einer Aminosäure bezeichnet. Am isoelektrischen Punkt ist die Wasserlöslichkeit einer Aminosäure am geringsten. Proteinogene Aminosäuren. Als proteinogene Aminosäuren werden alle Aminosäuren bezeichnet, die die Bausteine der Proteine (Eiweißstoffe) von Lebewesen sind. Dabei handelt es sich bei den proteinogenen Aminosäuren stets um α-Aminosäuren. Bis auf die Aminosäure Glycin sind alle proteinogenen Aminosäuren chiral: Es existieren von jeder dieser Aminosäuren zwei Enantiomere, in einigen Fällen (z. B. Hydroxyprolin) mehr. Dabei ist nur die L-Aminosäure (zur D-L-Nomenklatur siehe Fischer-Projektion) proteinogen: der zum Aufbau der Proteine notwendige Apparat – das Ribosom, die tRNA, die Aminoacyl-tRNA-Synthetase (diese belädt die tRNA mit Aminosäuren) und andere – sind selbst auch chiral und können nur die L-Variante erkennen. D-Aminosäuren kommen in Lebewesen vereinzelt vor. Sie werden dann aber unabhängig vom proteinogenen Stoffwechsel synthetisiert und bleiben daher nichtproteinogen. Sie werden zum Beispiel in der bakteriellen Zellwand und kurzen bakteriellen Peptiden wie Valinomycin (siehe Carrier) eingebaut. Ein Beispiel dafür ist D-Alanin. Kanonische Aminosäuren. 20 der proteinogenen Aminosäuren werden durch Codons des genetischen Materials codiert. Sie werden daher als "kanonische Aminosäuren" oder auch als "Standardaminosäuren" bezeichnet. Die kanonische Aminosäure Prolin besitzt, im Gegensatz zu den anderen kanonischen Aminosäuren, keine primäre, sondern eine sekundäre Aminogruppe und wird daher auch als sekundäre Aminosäure, fälschlicherweise bzw. veraltet oft auch als Iminosäure, bezeichnet. In Aminosäuresequenzen werden die Aminosäuren meist im "Einbuchstabencode" oder im "Dreibuchstabencode" dargestellt. Zusätzlich zu den oben angegebenen Codes existieren Platzhalter, die benutzt werden, wenn aus der Proteinsequenzierung oder Röntgenstrukturanalyse nicht auf die genaue Aminosäure geschlossen werden kann. Nichtkanonische Aminosäuren. Der Mensch selbst nutzt die 20 kanonischen Aminosäuren sowie Selenocystein. Von den 20 kanonischen Aminosäuren werden 12 vom menschlichen Organismus bzw. durch im menschlichen Verdauungstrakt lebende Mikroorganismen synthetisiert. Die restlichen 8 Aminosäuren sind für den Menschen essentiell, das heißt, er muss sie über die Nahrung aufnehmen. Der Einbau künstlicher, nahezu beliebig gebauter Aminosäuren über die Ersetzung des Liganden in der entsprechenden tRNA-Synthetase ist so weit fortgeschritten, dass damit gezielt bestimmte Proteine eine Markierung erhalten können, die das Protein nach Behandlung mit spezifischen Reagenzien zur Fluoreszenz anregen (Beispiel: Einbau von Norbornen-Aminosäure via Pyrrolysyl-tRNA-Synthetase/Codon CUA). Damit ist eine genaue Lokalisierung des Proteins auch ohne Produktion und Reaktion mit Antikörpern möglich. Pflanzen und Mikroorganismen können alle für sie notwendigen Aminosäuren selbst synthetisieren. Daher gibt es für sie keine "essentiellen Aminosäuren". Chemisch-physikalische Eigenschaften. Die proteinogenen Aminosäuren lassen sich nach ihren Resten in Gruppen aufteilen (siehe Tabellenübersicht der Eigenschaften). Dabei kann eine Aminosäure in verschiedenen Gruppen gleichzeitig auftauchen. In einem Mengendiagramm lassen sich die Überlappungen der Gruppen grafisch darstellen. Die Eigenschaften der Seitenkette von Cystein betreffend haben die Autoren unterschiedliche Ansichten: Löffler hält sie für polar, während Alberts sie für unpolar hält. Richtigerweise handelt es sich bei Schwefel um ein Heteroatom, folglich gilt: Die Seitenkette von Cystein hat schwach polare Eigenschaften. Säure- und Basen-Verhalten. Für das Säure-Base-Verhalten proteinogener Aminosäuren ist vor allem das Verhalten der Seitenkette der Aminosäure (fortan mit "R" bezeichnet) interessant. In Proteinen sind die NH2- und COOH-Gruppen bei physiologischen pH-Wert (um pH 7) wegen der Peptidbindung nicht protonierbar und damit auch nicht titrierbar. Die Ausnahme ist der Amino- und der Carboxy-Terminus des Proteins. Daher ist für das Säure-Base-Verhalten von Proteinen und Peptiden der Seitenkettenrest "R" maßgeblich. Das Verhalten der Seitenkette "R" hängt von ihrer Konstitution ab, das heißt, ob die Seitenkette selbst wieder als Protonenakzeptor oder -donator wirken kann. Die proteinogenen Aminosäuren werden nach den funktionellen Gruppen in unpolare oder polare Aminosäureseitenketten eingeteilt und weiter (in nach Polarität sortierte Untergruppen) in "aliphatische", "aromatische", "amidierte", "Schwefel-enthaltende", "hydroxylierte", "basische" und "saure" Aminosäuren unterteilt. Die Seitenketten von Tyrosin und Cystein sind zwar im Vergleich zu den anderen unpolaren Seitenketten relativ sauer, neigen aber erst bei unphysiologisch hohen pH-Werten zum Deprotonieren. Prolin ist eine sekundäre Aminosäure, da der N-Terminus mit der Seitenkette einen fünfatomigen Ring schließt. Innerhalb eines Proteins bindet der Carboxy-Terminus einer vorhergehenden Aminosäure an den Stickstoff des Prolins, welcher aufgrund der bereits erwähnten Peptidbindung nicht protonierbar ist. Histidin, Tyrosin und Methionin kommen jeweils in zwei Untergruppen vor. Der pK-Wert ist der pH-Wert, bei dem die titrierbaren Gruppen zu gleichen Teilen protoniert und deprotoniert vorliegen. D. h., die titrierbare Gruppe liegt zu gleichen Teilen in ihrer basischen, wie in ihrer sauren Form vor (siehe auch: Henderson-Hasselbalch-Gleichung). Es ist meist üblich, anstatt vom pKS vom pK zu sprechen, das heißt vom "pK der Säure". In diesem Sinne müsste allerdings vom pK des Lysins als pKB, also vom "pK der Base" gesprochen werden. Aus Gründen der Vereinfachung wird diese Notation aber allgemein weggelassen, da sie sich auch aus dem Sinnzusammenhang selbst ergibt (d. h. ob die Gruppe als Base oder Säure wirkt). Der pK ist keine Konstante, sondern hängt von der Temperatur, der Aktivität, der Ionenstärke und der unmittelbaren Umgebung der titrierbaren Gruppe ab und kann daher stark schwanken. Die Seitenketten "basischer Aminosäuren" sind in ihrer protonierten (sauren) Form einfach positiv geladen und in ihrer deprotonierten (basischen) Form ungeladen. Die Seitenketten der "sauren Aminosäuren" (einschließlich Cystein und Tyrosin) sind in ihrer protonierten (sauren) Form ungeladen und in ihrer deprotonierten (basischen) Form einfach negativ geladen. Deswegen spielt der pH-Wert für die Eigenschaften der Seitenkette eine so wichtige Rolle, da das Verhalten der Seitenkette ein ganz anderes ist, wenn sie geladen bzw. ungeladen ist. Die titrierbaren Seitenketten beeinflussen zum Beispiel das Löslichkeitsverhalten der entsprechenden Aminosäure. In polaren Lösungsmitteln gilt: Geladene Seitenketten machen die Aminosäure löslicher, ungeladene Seitenketten machen die Aminosäure unlöslicher. In Proteinen kann das dazu führen, dass bestimmte Abschnitte hydrophiler oder hydrophober werden, wodurch die Faltung und damit die Aktivität von Enzymen vom pH-Wert abhängt. Durch stark saure oder basische Lösungen können Proteine deswegen auch denaturiert werden. Stereochemie. 18 der 20 proteinogenen Aminosäuren haben gemäß der Cahn-Ingold-Prelog-Konvention am α-Kohlenstoff-Atom die ("S")-Konfiguration, lediglich Cystein besitzt die ("R")-Konfiguration, da hier der Kohlenstoff mit der Thiolgruppe eine höhere Priorität als die Carbonsäuregruppe hat. Glycin ist nicht chiral, daher kann keine absolute Konfiguration bestimmt werden. Zusätzlich zum Stereozentrum am α-C-Atom besitzen Isoleucin und Threonin in ihrem Rest "R" je ein weiteres stereogenes Zentrum. Proteinogenes Isoleucin ["R" = –C*H(CH3)CH2CH3] ist dort ("S")-konfiguriert, Threonin ["R" = –C*H(OH)CH3] ("R")-konfiguriert. Nichtproteinogene Aminosäuren. Von den "nichtproteinogenen", das heißt nicht in Proteinen vorkommenden, Aminosäuren sind bislang über 400 bekannt, die in Organismen vorkommen. Dazu gehört etwa das L-Thyroxin, ein Hormon der Schilddrüse, L-DOPA, L-Ornithin oder das in fast allen Arten von Cyanobakterien nachgewiesene Neurotoxin β-Methylaminoalanin (BMAA). Die L-Azetidin-2-carbonsäure ist ein toxischer Bestandteil der Rhizome einheimischer Maiglöckchen ("Convallaria majalis") und Zuckerrüben. Sie wirkt hemmend auf das Pflanzenwachstum. Die meisten nichtproteinogenen Aminosäuren leiten sich von den proteinogenen ab, die L-α-Aminosäuren sind. Dennoch können dabei auch β-Aminosäuren (β-Alanin) oder γ-Aminosäuren (GABA) entstehen. File:(all-S)-endo-cis-2-Azabicyclo-3.3.0-octane 3-carboxylic acid Formula V.1.svg|thumb|220px|Die nichtproteinogene synthetische Aminosäure (all-"S")-"endo"-"cis"-2-Azabicyclo-a>. Zu den nichtproteinogenen Aminosäuren zählen auch alle D-Enantiomere der proteinogenen L-Aminosäuren. D-Serin wird im Hirn durch die Serin-Racemase aus L-Serin (seinem Enantiomer) erzeugt. Es dient sowohl als Neurotransmitter als auch als Gliotransmitter durch die Aktivierung des NMDA-Rezeptors, was zusammen mit Glutamat die Öffnung des Kanals erlaubt. Zum Öffnen des Ionenkanals muss Glutamat und entweder Glycin oder D-Serin binden. D-Serin ist an der Glycin-Bindungsstelle des Glutamatrezeptors vom NMDA-Typ ein stärkerer Agonist als Glycin selbst, war aber zum Zeitpunkt der Erstbeschreibung der Glycin-Bindungsstelle noch unbekannt. D-Serin ist nach D-Aspartat die zweite D-Aminosäure, die in Menschen gefunden wurde. Zu den synthetischen Aminosäuren gehört die 2-Amino-5-phosphonovaleriansäure (APV), ein Antagonist des NMDA-Rezeptors und das ökonomisch wichtige D-Phenylglycin [Synonym: ("R")-Phenylglycin], das in der Seitenkette vieler semisynthetischer β-Lactamantibiotica als Teilstruktur enthalten ist. ("S")- und ("R")-"tert"-Leucin (Synonym: ("S")- und ("R")-β-Methylvalin) sind synthetische Strukturisomere der proteinogenen Aminosäure ("S")-Leucin und werden als Edukt in stereoselektiven Synthesen eingesetzt. Es gibt auch α-Aminosulfonsäuren [Beispiel: 2-Aminoethansulfonsäure (Synonym: Taurin)], α-Aminophosphonsäuren und α-Aminophosphinsäuren. Das sind auch α-Aminosäuren, jedoch "keine" α-Amino"carbon"säuren. Statt einer Carboxygruppe (–COOH) ist eine Sulfonsäure-, Phosphonsäure- bzw. Phosphinsäuregruppe in diesen α-Aminosäuren enthalten. Verwendung. Aminosäuren haben für die Ernährung des Menschen eine fundamentale Bedeutung. In der Regel wird der Bedarf an essentiellen Aminosäuren durch tierische oder eine geeignete Kombination verschiedener pflanzlicher Proteine (etwa aus Getreide und Hülsenfrüchten) vollkommen gedeckt. Pflanzliche Proteine haben meist eine geringere biologische Wertigkeit. Futtermittel in der Nutztierhaltung werden zusätzlich mit Aminosäuren, z. B. DL-Methionin und L-Lysin, angereichert, wodurch deren Nährwert erhöht wird. Aminosäuren bzw. ihre Derivate finden Verwendung als Zusatz für Lebensmittel, hier insbesondere auch als Geschmacksverstärker (Natriumglutamat), Süßstoff (Aspartam), und sind Vorstufen für bestimmte Aromastoffe, die bei der Zubereitung von Speisen durch die Maillard-Reaktion entstehen. In der Pharmazie bzw. Medizin werden L-Aminosäure-Infusionslösungen für die parenterale Ernährung angewendet. Daneben werden Aminosäuren auch als Hilfsstoffe eingesetzt, z. B. als Salzbildner, Puffer und Stabilisatoren bei bestimmten Lebererkrankungen. Bei Krankheiten mit einem Mangel von Neurotransmittern verwendet man L-Dopa. Für synthetische Peptidhormone und für die Biosynthese von Antibiotika sind Aminosäuren notwendige Ausgangsstoffe. Magnesium- und Kalium-Aspartate spielen bei der Behandlung von Herz- und Kreislauferkrankungen eine Rolle. Cystein, beziehungsweise die Derivate Acetylcystein und Carbocystein, finden zudem eine Anwendung bei infektiösen Bronchialerkrankungen mit erhöhtem Bronchialsekret. Zudem wird L-Cystein als Reduktionsmittel in der Dauerwelle eingesetzt. Aminosäuren werden in der Kosmetik Hautpflegemitteln und Shampoos zugesetzt. Germania (Tacitus). Die Germania ist eine kurze ethnographische Schrift des römischen Historikers Tacitus über die Germanen. Sie wurde seit der Frühen Neuzeit verstärkt gelesen und entfaltete auf diese Weise eine erhebliche Breitenwirkung. In der neueren Forschung wird das Werk durchaus kritischer betrachtet und auf die problematische Rezeptionsgeschichte hingewiesen. Datierung. Das zweite Konsulat Trajans fiel in das Jahr 98 n. Chr. Jedoch handelt es sich bei dieser Zeitangabe lediglich um einen "terminus post quem", an dem das Werk frühestens verfasst worden sein kann; ein absolutes Datum liegt somit nicht vor. Ein neuerer Vorschlag von Roland Schuhmann, der von der Forschung noch nicht diskutiert worden ist, nimmt an, dass die Abfassung der "Germania" nach 103–106 n. Chr. anzusetzen ist, weil der Name "Pannoniis" im ersten Satz des Textes die Existenz zweier pannonischer Provinzen ("Pannonia superior" und "inferior", entstanden durch Teilung der Provinz Pannonien) voraussetzt, wenn er als Ländername verstanden wird; die traditionelle Auffassung sieht ihn als Völkernamen. Titel. Die Schrift "Germania" ist ohne einen einheitlichen Titel überliefert. Die erste Erwähnung der Schrift findet sich in einem Brief des Humanisten Antonio Beccadelli an Guarino da Verona von April 1426: "Compertus est Cor. Tacitus de origine et situ Germanorum" („"Cornelius Tacitus de origine et situ Germanorum" ist in Erfahrung gebracht“). In einem Inventar von Niccolò Niccoli aus dem Jahre 1431 steht: "Cornelii taciti de origine & situ germanorum liber incipit sic" („"de origine et situ Germanorum liber" des Cornelius Tacitus fängt so an“). Pier Candido Decembrio, der den Codex Hersfeldensis (nach 1455, s. u. Rezeption) in Rom einsah, gibt den Titel als: "Cornelii taciti liber … de Origine et situ Germaniae" („von Cornelius Tacitus das Buch "de Origine et situ Germaniae"“). Beide Titelvarianten gehen auf den Hersfelder Codex zurück; die zweite Variante ist semantisch inkonsistent. Aus der Antike ist kein Titel des Werks überliefert. Es gibt nur zwei Titel, die einigermaßen plausibel erscheinen: "De origine et situ Germanorum" („Über Ursprung und geographische Lage der Germanen“) und "De origine et moribus Germanorum" („Über Ursprung und Sitten der Germanen“). Für einen Werktitel "De origine et situ Germanorum" könnten zwei parallele Titelformulierungen Senecas sprechen: "De situ Indiae" („Die geographische Lage Indiens“) und "De situ et sacris Aegyptiorum" („Über die geographische Lage und die Heiligtümer der Ägypter“). Beide Titel bilden jedoch keine genauen Entsprechungen zur "Germania". "India" ist anders als der Völkername "Germani" ein Ländername, während in Senecas zweitem Buch nicht vom Ursprung, sondern von den Heiligtümern der Ägypter die Rede ist. Der aus der Renaissance überlieferte Titel "De origine et situ Germanorum" erscheint gewissermaßen als Kontamination aus den beiden Titeln Senecas. Für "De origine et moribus Germanorum" würde eine Passage im Text selbst sprechen, denn in "Germania" c. 27,2 heißt es: "Haec in commune de omnium Germanorum origine ac moribus accepimus" („Dies haben wir im Allgemeinen über Ursprung und Sitten aller Germanen vernommen“). Der Titel erweckt allerdings den Eindruck, dass er aus diesem Kapitel übernommen ist. Da keiner der beiden Titel über jeden Zweifel erhaben ist, hat man der Schrift den Arbeitstitel "Germania" gegeben. Zeitgeschichtliche Einordnung. Zu Tacitus’ Lebzeiten befand sich das römische Reich auf seinem Höhepunkt. Geographisch hatte es fast seine größte Ausdehnung erreicht und erlebte auch kulturell eine Blüte. Die Grenzen zu Germanien waren gezogen und weitgehend gesichert worden. Nach der Varusschlacht im Jahre 9 n. Chr. waren die römischen Offensiven schließlich 16 n. Chr. eingestellt worden (siehe Germanicus); erst im späten 1. Jahrhundert hatten die Römer die Grenze leicht vorverschoben (siehe Dekumatland). Einige germanische Stämme hatten sich mit dem neuen mächtigen Nachbarn durchaus arrangiert, andere standen Rom allerdings weiterhin feindlich gegenüber. Diese Situation erforderte lange Zeit eine hohe und kostspielige Truppenpräsenz an der Grenze des römischen Reiches zu den Germanen. Das Besondere an den germanisch-römischen Beziehungen ergibt sich daraus, dass "im Unterschied zur anderen großen Grenzzone [...] im Norden keine organisierte Großmacht Rom gegenüberstand". Inhalt der "Germania". Stämme der Germanen um 50 n. Chr. In der "Germania", die sich in einen allgemeinen und einen besonderen Teil gliedert, beschreibt Tacitus Germanien, ansatzweise auch dessen Geographie und benennt verschiedene germanische Stämme vom Rhein bis zur Weichsel. Er stellt Sitten und Gebräuche der Germanen dar und hebt dabei ihre ihm zufolge sittliche Lebensweise hervor, wie ihr streng geregeltes Familienleben, ihren treuen und aufrichtigen Charakter, ihre Tapferkeit im Krieg und ihren Freiheitswillen. Er weist aber auch auf Schwächen hin, wie ihre Trägheit, ihren Hang zu Würfelspiel und übermäßigem Alkoholkonsum. Kapitel 1–5: Allgemeine Beschreibung. Tacitus beginnt mit den Grenzen Germaniens, seinem Volk, der Beschaffenheit des Landes und den Bodenschätzen. Dabei betrachtet er die Germanen als abgehärtet, ursprünglich und unvermischt mit anderen Völkern, als Urbevölkerung ihrer Heimat, da sie phänotypisch seinen Schilderungen nach keiner Ethnie der bekannten damaligen Welt ähnlich seien, und er sich auch nicht vorstellen könne, dass jemand freiwillig in solch eine Region, die seiner Ansicht nach sehr rau, unwirtlich und nur schwer überhaupt zu erreichen sei, einwandern könne. Er beschreibt Land und Klima als unfreundlich und trostlos, arm an fruchtbarem Boden und ohne wertvolle Bodenschätze. Kapitel 6–15: Das öffentliche Leben. Er fährt fort mit der Beschreibung der Kriegsführung, der Religion und Volksversammlungen, spricht dann über die germanische Rechtsprechung und die Rolle der Fürsten im Krieg. Dabei beschreibt er die Germanen als wilde Barbaren, schwach bewaffnet, aber tapfer im Kampf und voller Wertschätzung für ihre Frauen, als fromme Menschen, die auf Vorzeichen und Orakel vertrauen. Entscheidungen fielen, so Tacitus, in Versammlungen, die abhängig vom Stand des Mondes abgehalten würden. Hier kritisiert er aber eine gewisse Disziplinlosigkeit. Der Kampf, meint Tacitus, sei bei den Germanen höher bewertet als die Mühe täglicher Arbeit. Er zeichnet sogar das Bild eines faulen, dem Müßiggang verfallenen Volkes, das lieber seine Frauen und Alten arbeiten lasse als sich selber um Haus, Hof und Feld zu kümmern. Kapitel 16–27: Das private Leben. Die nächsten Abschnitte beschäftigen sich mit den Behausungen der Germanen, ihrer Wohnweise und Kleidung; es folgen Exkurse über Ehe, Erziehung und Erbrecht, bis die Rede auf Gastfreundschaft, Feiern und Spiele kommt. Der allgemeine Teil endet schließlich in einer Beschreibung des Ackerbaus und der Totenbestattung. Tacitus zeichnet auch hier wieder das Bild eines wilden, nachlässig bekleideten Volkes, das sich allerdings, und dafür lobt er die Germanen ausdrücklich, durch hohe Sittsamkeit auszeichne. Die Germanen seien monogam und dem Ehepartner gegenüber treu ergeben. Besonders diese Bemerkung führte zur Annahme, die Germania stelle einen Sittenspiegel dar, der an die Adresse der römischen Gesellschaft gerichtet sei. An kaum einer anderen Stelle betont Tacitus eine Eigenart germanischen Lebens so nachdrücklich. Die Gastfreundschaft der Germanen wird lobend hervorgehoben, die dabei auftretenden Ausschweifungen aber auch dargestellt. Ihre Feiern, so Tacitus, dauerten oft tagelang und endeten nicht selten in Schlägereien der Betrunkenen und Totschlag. Hier erwähnt der Autor auch ihr einfaches Essen und das ihm unbekannte alkoholische Getränk (Bier), das die Germanen im Übermaß konsumierten. Es überrascht, dass fast im selben Atemzug ihre absolute Ehrlichkeit gerühmt wird. Verwundert stellt Tacitus dann fest, dass so ziemlich das Einzige, was die Germanen nüchtern und ernsthaft betrieben, das Würfelspiel sei. Hier setzten sie sogar ihre persönliche Freiheit als letzten Einsatz ein und ließen sich als Sklaven verkaufen. Landwirtschaft betrieben sie zwar gemeinschaftlich, aber stets auf niedrigem Niveau. Letzter Punkt dieses Teils ist die Darstellung der Totenbestattung, die als einfach und prunklos beschrieben wird, jedoch in würdevoller Verehrung der Verstorbenen. Besonderer Teil. In den letzten elf Kapiteln beschreibt Tacitus Bräuche und Besonderheiten einzelner Stämme und kommt auch auf diejenigen zu sprechen, die Germanien verlassen und sich in Gallien angesiedelt haben. Kapitel 27–29: Stämme im Westen und Süden. Erwähnt werden hier anfangs gallische Stämme, Helvetier und Bojer (Boier), die nach Germanien gezogen seien. Dem stellt er Treverer und Nervier gegenüber, die, seiner Darstellung nach, als Germanen in Gallien leben. Diese Zuordnung ist allerdings nicht ganz unproblematisch, wenngleich schon Gaius Iulius Caesar vermerkte, dass ein großer Teil der Belger sich germanischer Abstammung rühmte. Tacitus erwähnt Vangionen, Triboker und Nemeter am Rhein, besonders hebt er die Ubier hervor, die dem römischen Reich treu ergeben seien. Als besonders tapfer werden die Bataver am Niederrhein beschrieben, die Rom ebenso treu zur Seite stünden wie die Mattiaker in der Gegend um das heutige Wiesbaden. Kapitel 30–31: Die Chatten. Den kräftigen und militärisch gut organisierten Chatten sagt Tacitus nach, sie schnitten Haupthaar und Bart erst nach der Tötung eines Feindes. Dies sei die Bestimmung ihres Daseins. Kapitel 32–34: Weitere Stämme im Westen. Die Tenkterer seien geschulte Reiter, deren Nachbarn, die Brukterer, von anderen Germanen vernichtet worden seien. Er erwähnt hier die Angrivarier und Chamaver, die Dulgubnier und Chasuarier, schließlich die Friesen am Rand des Weltmeeres. Kapitel 35–37: Stämme im Norden. Als Nachbarn der Friesen erwähnt Tacitus die Chauken, die von der Nordseeküste bis an das Gebiet der Chatten siedeln. Sie seien, frei von Habgier und Herrschsucht, bei den übrigen Germanen sehr angesehen. Er kommt auf die Cherusker zu sprechen, nennt sie Tölpel und Toren - vielleicht in einem Reflex auf die verlorene Schlacht im Teutoburger Wald gegen den Cherusker Hermann - und endet mit der Erwähnung der "ruhmreichen Kimbern" und der für die Römer ebenfalls verlustreichen Kimbernkriege. Kapitel 38–45: Die Sueben. Den vorletzten und größten Abschnitt des besonderen Teils widmet Tacitus den Sueben. Diese bewohnten einen großen Teil Germaniens. Sie seien, anders als andere Stämme, keine einheitliche Volksgruppe und unterschieden sich von den übrigen durch ihre Haartracht "(Suebenknoten)". Bis in das hohe Alter hinein knoteten sie ihr Haar zu einer kunstvollen Frisur, allerdings nicht aus Schönheitsgründen, sondern um groß und furchterregend zu erscheinen. Er erwähnt öffentliche Menschenopfer bei der Untergruppe der Semnonen, nennt weiter Langobarden und andere Stämme. Ihre Verehrung gelte der Mutter Erde (Nerthus), der sie in einem Heiligtum "auf einer Insel des Weltmeeres" huldigen. Der suebische Stamm der Hermunduren sei den Römern hingegen treu ergeben, sie dürften als einziger germanischer Stamm ohne Beaufsichtigung über die römische Grenze ziehen und Handel treiben. Neben vielen anderen erwähnt Tacitus Narister, Markomannen und Quaden, auch die "rechts des suebischen Meeres" (an der Ostküste der Ostsee) lebenden Aesti, die in Lebensweise und Religion den Sueben ähnelten, ihre Sprache aber gleiche der britannischen Sprache (d.h. einer Form des Keltischen). Sie sammelten Bernstein ("Glesum") und verkaufen ihn an die Römer, ohne zu wissen, wie er entstehe oder wo er herkomme. Tacitus endet mit den Sithonen, die so tief in die Knechtschaft gesunken seien, dass sie von einer Frau regiert würden. Kapitel 46: Grenzvölker im Osten. Im letzten Kapitel der "Germania" bespricht Tacitus Peukiner, Veneter und Fennen, Stämme jenseits des Gebietes der Sueben, von denen er nicht weiß, ob er sie den Germanen zuordnen soll. Quellen. Ob Tacitus selbst in Germanien gewesen ist, ist ungeklärt. Er selbst macht dazu keine Angaben. Wahrscheinlich ist, dass er sein Wissen größtenteils aus literarischen Quellen bezog, wie aus Gaius Iulius Caesars Werk über den Gallischen Krieg "(De bello Gallico)" und dem darin enthaltenen Germanenexkurs. Womöglich zog er auch andere schriftliche Quellen zu Rate, in Frage kommen unter anderem der "Germanenexkurs" im Geschichtswerk des Titus Livius und die "bella Germaniae" („Germanenkriege“) des älteren Plinius. Beide Werke sind nicht oder nicht vollständig erhalten. Erwähnung in der "Germania" findet jedoch allein Caesar. Es gilt als wahrscheinlich, dass auch mündliche Berichte von zeitgenössischen Germanien-Reisenden in sein Werk eingeflossen sind. Die Beschreibung des Sueben-Knotens, der Opferriten und die Bestrafung der treulosen Ehefrau werden auf tatsächliche Beobachtung zurückgeführt. Tacitus’ Germanenbild. Tacitus beschreibt seiner Leserschaft ein Volk, das sich anscheinend grundlegend von dem eigenen unterscheidet. Es ist anzunehmen, dass das Objekt seiner Beschreibung, die Germanen, dem römischen Volk äußerst fremd vorgekommen sein müsste, hätte er sich dabei nicht der Methode bedient, das Fremde „begrifflich und inhaltlich in die eigene Welt zu integrieren“. Diese römische Interpretation "(Interpretatio Romana)" fällt besonders bei der Beschreibung der germanischen Götter auf. So spricht Tacitus von Merkur (für Odin) als dem höchsten Gott und erwähnt Herkules (für Thor) und Mars (für Tyr). Auch bei der Beschreibung des Heerwesens (hier die Truppeneinteilung in Hundertschaften/Centurien) sowie der Trennung von Öffentlicher Sache "(res publica)" und Privatangelegenheiten "(res privatae)" ist dies erkennbar. Tacitus sieht alle Germanen als ursprünglich an, d.h. alle haben dieselbe Herkunft und sind nicht mit anderen Völkern vermischt und seien auch nicht nach Germanien eingewandert. Charakterzüge, die er im allgemeinen Teil dem gesamten Volk zuschreibt, führt er auf diese gemeinsame Herkunft zurück. Das kann Tacitus allerdings nicht belegen, er geht schlicht davon aus, dass kein Volk freiwillig in dieses karge Land gezogen sein könnte, um sich mit den Germanen zu vermischen. In der ganzen "Germania" ist erkennbar, dass er das Bekannte seiner Welt in der Welt der Germanen sucht, um es für sein römisches Publikum zu beschreiben und zu vergleichen. Das durchaus polarisierende Bild, das Tacitus dabei gibt (ehrenwerte Sitten, Freiheitsliebe und Moral versus primitive, lasterhafte und faule Lebensweise), lässt den heutigen Leser auch einen Eindruck der römischen Gesellschaft zu Zeiten Tacitus’ erahnen. Insofern kann die "Germania" nicht nur als Ethnographie der Germanen gesehen werden, sondern auch als Anhaltspunkt für das Verständnis von Tacitus’ eigener, römischen Gesellschaft. Tacitus’ Absichten. Um die "Germania" richtig verstehen zu können, ist es unumgänglich, Tacitus’ Beweggründe zu kennen. Will er an seiner Zeit und Gesellschaft Kritik üben oder Überlegenheit beweisen? Will er lediglich ein fremdes Volk beschreiben und seinen römischen Zeitgenossen näher bringen, was ihnen selbst fremd und barbarisch erscheint? Dies zu verstehen ist Grundlage für die Bewertung seiner Arbeit. Tacitus selbst äußert sich dazu jedoch nicht. Auch existiert zur "Germania" keine Einleitung oder ein Nachwort des Autors, in denen mögliche Absichten erläutert oder zumindest angedeutet werden. Die Forschung kann also nur vergleichbare Werke heranziehen (auch heutige Ethnographien) und/oder die Schrift im Kontext ihrer damaligen Zeit sehen. Tacitus’ "Germania" ist leider einzigartig für ihre Zeit. Antike ethnographische Schriften, die keine weitere Erläuterung (Exkurs) enthalten, sind uns nicht bekannt, was die Klärung dieser zentralen Frage erschwert. Die Wissenschaft zieht deswegen auch Tacitus’ andere Werke, hauptsächlich den "Agricola", heran. Das Werk im Kontext seiner Zeit zu sehen wird dadurch erschwert, dass wir nicht viel über die damalige öffentliche Meinung wissen. In der Forschung ist die Frage nach den Absichten Tacitus’ ein zentraler Punkt und stark umstritten. Einige Theorien dominieren diese Diskussion, können aber vermutlich nie vollständig veri- oder falsifiziert werden. Möglich ist, dass alle zu einem gewissen Teil ihre Berechtigung haben. Sittenspiegel-Theorie. Möglicherweise wollte Tacitus der Dekadenz der römischen Sitten ein positives Gegenbeispiel "(Sittenspiegel)" entgegenhalten; dafür spricht, dass er die Germanen an einigen Stellen stark idealisierte. Beispielsweise stellt er der Sittsamkeit germanischer Frauen "lüsterne Schauspiele" und "Verführung durch aufreizende Gelage" in Rom gegenüber. Es findet sich sogar explizite Kritik an den römischen Verhältnissen: Tacitus macht eigene Zwietracht und Bürgerkrieg für germanische Erfolge verantwortlich. Ethnographie-Theorie. Andere Forscher halten das Werk nicht für eine sittliche Mahnung zur Aufrichtung der römischen Moral, sondern für eine objektive Ethnographie. Diese, stellenweise stark polarisierenden, negativen und positiven Gegensätze zu Tacitus’ eigener Kultur dienten demnach lediglich "dem Verständnis des Andersartigen". Dafür spricht, dass sich viele seiner Beschreibungen als richtig herausgestellt haben und durch die moderne Archäologie bestätigt wurden. Weitere Ansätze. Diskutiert wird auch, dass Tacitus womöglich aufzeigen wollte, warum Rom in jahrzehntelangen Versuchen Germanien nie vollständig erobern konnte. Der Grund sei demnach die Gesellschaftsform und der freiheitsliebende Charakter der Germanen. Neuere Deutungen gehen sogar noch weiter: Tacitus wolle nicht nur erklären, warum Germanien nicht besiegt werden konnte, sondern sogar vor weiteren Eroberungsversuchen warnen. Rezeption. Die Schrift hat, zusammen mit den anderen „Kleinen Schriften“ des Tacitus, nur in einem einzigen Exemplar die Zeit des Humanismus erreicht. Es wurde von Enoch von Ascoli in der Abtei Hersfeld aufgefunden und ca. 1455 nach Italien gebracht. Als Erster hat sich Enea Silvio Piccolomini, der spätere Papst Pius II., mit der Schrift befasst. Im mittelalterlichen Deutschland spielte der Begriff "Germanen" als Selbstbezeichnung für „die Deutschen“ kaum eine Rolle, versuchte man sich doch historisch in die Nähe der Römer zu stellen. Um Begeisterung für einen Kreuzzug gegen die Türken zu entfachen, wurde die "Germania" auf dem Regensburger Reichstag 1471 benutzt, indem die kriegerischen Eigenschaften der Germanen hervorgehoben wurden. Es waren aber erst die deutschen Humanisten, die auf Tacitus aufmerksam wurden (Conrad Celtis, Aventinus, vor allem Ulrich von Hutten). Von da an hielt das Interesse der Deutschen an dem, was sie als „ihre Urgeschichte“ betrachteten, lange Zeit an, wenngleich jede Epoche ihre eigene, jeweils unterschiedliche Auslegung hatte. Die Humanisten schwärmten für die angebliche „germanische Reinheit“ und die Ursprünglichkeit ihrer „Vorfahren“, in diesem Sinne diente die "Germania" einer anachronistischen Identitätsstiftung. Erst mit Jacob Grimm (und Karl Viktor Müllenhoff) kam eine wissenschaftliche Betrachtungsweise hinzu. Bereits im 19. Jahrhundert begann aber auch die wissenschaftliche Konstruktion eines Germanenmythos durch die Altertumswissenschaften. Über Gustaf Kossinna trug diese Entwicklung mit zur Entstehung der pseudo-wissenschaftlichen Rassenlehre des Nationalsozialismus bei. Nationalsozialistische Rassenpolitiker, allen voran Heinrich Himmler und die von ihm mitgegründete „Forschungsgemeinschaft Deutsches Ahnenerbe“, entstellten und missbrauchten die Aussagen bei Tacitus als Argumente für eine angebliche „rassische Überlegenheit“ der Deutschen und ihren millionenfachen Massenmord in den NS-Konzentrations- und Vernichtungslagern. In der neueren Forschung wird hingegen auf die problematische Rezeptionsgeschichte und die Instrumentalisierung des Inhalts der Schrift kritisch hingewiesen, zumal die Gleichsetzung Germanen/Deutsche längst nicht mehr haltbar ist. Die Behandlung durch Eduard Norden, der das Werk 1920 in das Umfeld der antiken Ethnographie gestellt hat, auch und gerade im Vergleich zu der weithin herrschenden Germanenideologie, ist immer noch grundlegend. Die moderne Forschung betrachtet die "Germania" (etwa bezüglich Intention und Quellenkritik) kritischer als die ältere und ist teilweise auch zu neuen Bewertungen gelangt. Die "Germania" wurde in die ZEIT-Bibliothek der 100 Bücher aufgenommen. Albany (New York). Albany ist die Hauptstadt des US-Bundesstaates New York und Verwaltungssitz des Albany County. Geographie. Albany liegt im Nordosten der Vereinigten Staaten nahe der Mündung des Mohawk Rivers in den Hudson River und 240 Kilometer nördlich der Metropole New York City. Nachbargemeinden. Albany bildet zusammen mit den nahegelegenen Städten Cohoes, Troy, Watervliet und Schenectady den "Capital District". Geschichte. Die europäische Besiedlung des Gebiets begann 1614 mit dem Bau des niederländischen Forts Nassau, das nach vier Jahren aufgegeben wurde. 1624 wurde es durch Fort Oranje ersetzt, das westlich der heutigen Dunn Memorial Bridge lag und die Aufgabe hatte, den Pelzhandel zu sichern. Fort Oranje war die erste dauerhafte Siedlung der Kolonie Neu-Niederlande. Mit der Zeit entwickelte sich Fort Oranje zu einem Handelsposten für Pelze, und so gründete Pieter Stuyvesant im Jahr 1652 die Siedlung "Beverwyck". Als die Engländer 1664 die Kolonie Neu-Niederlande eroberten, änderten sie die Namen der Siedlungen. Zu Ehren des Herzogs von York und Albany wurde aus "Nieuw Amsterdam" New York und aus "Beverwyck" Albany. Ab 1685 gehörte die Siedlung zur britischen Kronkolonie New York. Mit der "Dongan Charta" erhielt Albany im Jahr 1686 das Stadtrecht. Im Jahr 1754 wurde der Albany-Kongress abgehalten, aus dem eine Notstandsregierung hervorging, um die Stadt gegen die Franzosen verteidigen zu können. Als sich die britischen Kolonien im Amerikanischen Unabhängigkeitskrieg 1775 vom Mutterland losgesagt hatten, wurde das Gebiet der Kolonie New York zunächst von britischen Truppen besetzt. Die Hauptstadt der Kolonie, Kingston, wurde niedergebrannt. 1786, fünf Jahre nach Ende des Krieges, trat die Kolonie den Vereinigten Staaten bei. Albany wurde anstelle des zerstörten Kingston 1797 Hauptstadt des Staates New York. 1807 begann die Dampfschifffahrt auf dem Hudson zwischen Albany und New York City. Ab 1819 war die Stadt über den Eriekanal mit den Großen Seen Nordamerikas verbunden. Mit der Eröffnung der ersten Eisenbahnstrecke im New York State, die Albany und Schenectady verband, begann 1831 in Albany das Eisenbahnzeitalter. Die ebenfalls 1831 in New York gebaute Lokomotive DeWitt Clinton, die erste Dampflokomotive des Bundesstaates, benötigte damals für die Strecke von Albany nach Schenectady 46 Minuten. Demographie. Nach dem Zensus 2010 hatte Albany rund 98.000 Einwohner. Die Bevölkerung setzte sich zusammen aus 63 Prozent Weißen, 28 Prozent Schwarzen, 5,6 Prozent Latinos und 3,3 Prozent Asiaten. Von den Einwohnern stammten 17 Prozent von Iren ab, 12 Prozent von Italienern und 11 Prozent von Deutschen. Verkehr. Die Autobahn I-87 verbindet Albany nach Süden mit New York City und nach Norden mit Montreal in Kanada. Die Autobahn I-90 verbindet die Stadt nach Osten mit Springfield in Massachusetts und nach Westen mit Syracuse. Nordwestlich der Stadt liegt der Albany International Airport. Bildung. In Albany befinden sich die State University of New York at Albany (auch SUNY Albany oder University at Albany genannt) und im Vorort Loudonville das Siena College. Sport. Seit 1979 findet in Albany der Freihofer’s Run for Women statt, einer der bedeutendsten Frauen-Straßenläufe weltweit. Religion. Albany ist Sitz des 1847 errichteten römisch-katholischen Bistums Albany. Die Kathedrale "Immaculate Conception" wurde 1852 fertiggestellt. Allgemeiner Deutscher Tanzlehrerverband. Allgemeiner Deutscher Tanzlehrerverband e. V. (ADTV) ist die weltweit größte Dachorganisation von Tanzschulen und Tanzlehrenden. Er wurde 1922 in Halle (Saale) gegründet und hat seinen Sitz heute in Hamburg. Dem ADTV gehören rund 800 Tanzschulen und 2600 Tanzlehrende in Deutschland an. Präsidium. Das Geschäftsführende Präsidium besteht aus dem Präsidenten, dem Vizepräsidenten, dem Leiter der Tanzlehrer-Akademie und dem Schatzmeister. Verbandsstruktur. Neben dem ADTV kümmert sich der "Swinging World e. V." (früher "Tanzschulinhabervereinigung im ADTV e. V.") als Vereinigung der Tanzschulinhaber um die Belange der Tanzschulen. Almaty. Blick auf das moderne Geschäftszentrum von Almaty Almaty (kasachisch//"Almaty", in der neuen inoffiziellen Lateinschrift "Almatı)," von 1867 bis 1921 /"Werny", 1921 bis 1993 Alma-Ata – von kasachisch алма/"alma" („Apfel“) und ата/"ata" („Großvater“) –, ist mit rund 1,6 Millionen Einwohnern die größte Stadt Kasachstans. Sie liegt im Südosten des zentralasiatischen Staates unweit der Grenze zu Kirgisistan. Bis 1997 war sie Hauptstadt des unabhängigen Kasachstan, davor Hauptstadt der Kasachischen SSR. Almaty ist neben der Hauptstadt Astana noch immer das kulturelle, wissenschaftliche und wirtschaftliche Zentrum des Landes mit Universitäten und zahlreichen Sakralbauten, Museen und Theatern. Zu den bekanntesten Sakralbauten gehören die Christi-Himmelfahrt- und die Nikolaus-Kathedrale. Der 1983 fertiggestellte, 371,5 Meter hohe Fernsehturm Almaty auf dem Berg Kök-Töbe gehört zu den höchsten Bauwerken der Welt. Seit Anfang des 21. Jahrhunderts sind auch einige Wolkenkratzer in der Stadt entstanden. Die Stadt verfügt über zwei Bahnhöfe und zwei Flughäfen. Die am 1. Dezember 2011 eröffnete Metro Almaty, Straßenbahnen und Oberleitungsbusse sorgen für den innerstädtischen Transport. Geographische Lage. Almaty befindet sich im Südosten von Kasachstan; nach Süden sind es vom Stadtzentrum etwa 25 km bis zur Grenze mit Kirgisistan und nach Osten etwa 300 km zur Grenze mit China (jeweils Luftlinie). Die Stadt liegt am Nordfuß des nördlichsten Gebirgszugs des Tian Shan – Transili-Alatau (russ. "Zailijskij-Alatau)", dessen nur schwer überwindliche Bergketten mit Gletschern vom Pik Talgar (), der in der Stadt von fast überall zu sehen ist, gekrönt werden. Der größte Berg innerhalb des Stadtterritoriums heißt Kök-Töbe und ist hoch. Zudem befinden sich in der Umgebung von Almaty etwa 300 Gletscher, von denen der Korschenewski- und Tujuksu-Gletscher die größten sind. Nördlich von Almaty liegt ein Gebiet mit Steppen und Halbwüsten, das schließlich in die Wüste Mujunkum (russ. "Mojynkum") übergeht. Seismische Aktivitäten. Durch die Lage nördlich des Tian-Shan-Gebirges, eines Intraplatten-Orogens mit hoher Topografie, starken Horizontalverschiebungen und einer starken Seismizität ist die Region um Almaty häufig von Erdbeben betroffen, wodurch die Stadt in den letzten 250 Jahren mehrfach zerstört wurde (1770, 1807, 1865, 1887, 1889 und 1911). 1887 wurde die Stadt Werny komplett zerstört, und wieder an derselben Stelle aufgebaut. Das Kebin-Erdbeben von 1911 forderte mehr als 700 Menschenleben, die Stadt wurde auch schnell wieder aufgebaut. 1974 wurden zur Verbesserung der Analyse der seismischen Gefährdung vier Erdbebenwarten aufgebaut. Der Fernsehturm Almaty auf dem Berg Kök-Töbe ist speziell erdbebensicher aus einer Stahlrohrkonstruktion hergestellt, auf Beton wurde verzichtet. Stadtgliederung. Die Stadt ist in acht autonome Bezirke "(Awtonomnyj(-e) Okrug(-a))" unterteilt: Almaly, Alatau, Auesow, Bostandyk, Schetyssu, Medeu, Nauryzbai und Turksib. Der bevölkerungsreichste Bezirk ist Auesow mit rund 300.000 Einwohnern, Medeu ist mit 131.000 der bevölkerungsärmste der Bezirke. Wasserressourcen. Südlich von Almaty, in Kirgisistan, liegt in den Tian-Shan-Bergen der große Yssykköl. Dieser See ist das beliebteste Ausflugsziel der Stadtbewohner. 70 km nördlich der Stadt befindet sich die Qapschaghai-Talsperre, die 1970 am Fluss Ili errichtet wurde. Mit einer Stauseefläche von 1847 km² dient sie als Hauptreservoir für die Versorgung der Metropole mit Trinkwasser. In den nahen Bergen des Transili-Alataus entspringen zahlreiche Flüsschen, die das Stadtgebiet durchqueren, darunter Ülken Almaty und Kitschi Almaty. Flora und Fauna. Die Stadt umgeben zahlreiche blühende Gärten (vor allem natürlich Apfelbaumgärten), Obst-, Getreide-, Tabak- und Melonenplantagen sowie Weinberge. Im Gebirgsvorland finden sich Haine mit Aprikosen, Weißdorn und Wildapfel. Etwas höher beginnen stammdichte Nadelwälder, Alpenwiesen und schließlich die schneebedeckten Eisgipfel. In den Parks und Gärten der Stadt wurden von Beginn an Pflanzen und Bäume aus allen Ecken der Welt angepflanzt und so gedeihen in Almaty und Umgebung bis heute Arten aus Nordamerika, der Krim, dem Kaukasus und aus Fernost. Auch das Tierreich um Almaty ist artenreich. Außer den üblichen Nagetieren leben in den Bergwäldern Bären und große Katzen wie Luchse sowie das Wappentier der Stadt, der Schneeleopard. Den Tian-Shan bewohnen zudem Bergziegen und -schafe (Arhare). In den Steppenregionen trifft man auf Wölfe, Rot- und Steppenfüchse. Um die außergewöhnliche Flora und Fauna des Transili-Alataus (Zalij-Alatau) zu bewahren, wurde 1935 das „Naturschutzgebiet von Almaty“ gegründet. Klima. Almaty hat ein ausgeprägtes Kontinentalklima mit großen Tagestemperaturschwankungen. Da die einzelnen Bezirke sich hinsichtlich ihrer Höhenlage erheblich unterscheiden, liegen sie in verschiedenen Klimazonen. So kann an verschiedenen Enden der Stadt am selben Tag ein völlig anderes Wetter herrschen. Trotz des Kontinentalklimas ist das Klima von Almaty wesentlich milder als das in Nord- oder Zentralkasachstan. Die sommerliche Hitze wird durch die recht hohe Lage der Stadt (650–950 m über NN) gedämpft. Auch in Sommernächten kann es daher ziemlich kühl werden. Die Winter sind in der Regel schneereich, wobei die Kälte wiederum aufgrund von warmen Luftströmungen aus den Wüsten Zentralasiens gedämpft wird. Die in der Stadt ständig sichtbaren Berge sind – auch in den Sommermonaten – stets mit Eis und Schnee bedeckt. Wenn im Frühjahr das Tauwetter einsetzt, fließen große Mengen Schmelzwasser von den Bergen in die Stadt, weswegen Almaty für seine vielen kleinen Flüsse und Bäche bekannt ist. Das Wasser wird in zahlreichen Gräben entlang beinahe jeder Straße abgeleitet, wodurch das Stadtklima im Sommer angenehm beeinflusst wird. Die mittlere jährliche Niederschlagsmenge beträgt 656 mm; der Temperaturdurchschnitt im Juli liegt bei 23,7 °C, im Januar bei −5,4 °C; der Jahresdurchschnitt beträgt 9,4 °C. Die höchste je gemessene Temperatur betrug 41,7 °C (im Juli 1997), die niedrigste −37,7 °C (im Februar 1951). Almatu. Schon im 10. Jahrhundert v. Chr. gab es auf dem Territorium von Almaty Siedlungen von Menschen, wie die Funde diverser Bronzen von Ausgrabungsgebieten nördlich des Orts belegen. Seit dem 7. Jahrhundert v. Chr. finden sich kulturelle Spuren von Saken und Usunen. Das bekannteste und interessanteste Zeugnis der sakischen Kultur ist der so genannte „Altyn Adam“, „Goldener Mensch“ von Issyk-Kurgan bei der Stadt Issyk, 48 km von Almaty entfernt. Hierbei handelt es sich um eine vollständig erhaltene, reich verzierte Rüstung aus Gold, die einem jungen sakischen Fürsten gehörte. Die Ausgrabungen belegen, dass es auf dem Territorium von Almaty spätestens seit dem 10. Jahrhundert n. Chr. vier größere Siedlungen gab, von denen drei nach etwa zwei Jahrhunderten zur Stadt Almatu zusammenwuchsen. Dieser Name wird zum ersten Mal auf einem silbernen Dirham aus dem Jahr 684 (nach unserer Zeitrechnung 1285/86) erwähnt. Solche Münzen wurden in der Vorgängerstadt des heutigen Almaty während der mongolischen Herrschaft (Khanat Tschagatai) geprägt. Der Name Almatu erscheint außerdem in einigen arabischen Quellen und in Reisenotizen eines chinesischen Mönchs. Im 14. Jahrhundert wurde die Stadt durch Mongolen (wahrscheinlich im Zuge der Unterdrückung einer Rebellion) fast vollständig zerstört. Da der Handel an der Seidenstraße – die Existenzgrundlage der Stadt – ebenfalls zum Erliegen kam, verkümmerten die Reste von Almatu im 16. Jahrhundert. Ihre Ruinen waren noch Mitte des 19. Jahrhunderts zu sehen, die Russen benutzten sie als Steingrube für die Stadt Werny. Werny. Kasaner Kathedrale im alten Werny Bei der Erschließung Zentralasiens errichtete das Russische Reich mehrere Vorposten in der Region, um das Territorium zu sichern. Es war außerdem vertraglich zum Schutz der Kasachen gegen die Dschungaren verpflichtet. Am 4. Februar 1854 gründete die Truppe unter dem Kommando von Major I. D. Peremyschelskij (russ. Перемышельский) die Festung Wernoje („Die Treue“). Bei ihrer Gründung hatte sie gerade einmal 430 Einwohner. Schon nach einem Jahr trafen in Wernoje die ersten kasachischen, etwas später russische Umsiedler ein, die auf den Schutz der Armee und die fruchtbaren Böden und Gärten des Almatinka-Tals hofften. Vor den Toren der Festung entstanden die Staniza (Kosakensiedlung) Malaja Almatinskaja und eine Siedlung der turksprachigen Kaufleute. Im Mai 1859 erreichte die Einwohnerzahl bereits die Größe von 5000. Am 11. April 1867 wurde der Festung und der Bebauung um sie herum das Stadtrecht verliehen. Stadt Werny (die Endung wurde entsprechend der russischen Grammatik geändert), deren Bevölkerung mittlerweile die Zahl von 10.000 übertraf, wurde zur Hauptstadt des Gebietes von Semiretschje (Siebenstromland), welches das heutige Nordost-Kasachstan und Teile Kirgisistans umfasste. Die Stadt war ca. 6 km² groß. In den 1870er Jahren gab es dort schon an die 400 Bauten (unter anderem Bierbrauerei, Tabakfabrik, drei Schulen und eine Berufsschule) sowie zahlreiche Niederlassungen von Handelsfirmen. Außerdem erschien eine Zeitung. 1887 wurde Werny von einem Erdbeben fast zerstört, von 1700 Gebäuden hielt nur eines dem Beben stand. Unter Berücksichtigung der seismischen Gefahr wurde die Stadt schnell wieder aufgebaut und so richtete ein weiteres Erdbeben im Jahr 1910 viel weniger Unheil an. Am Vorabend des Ersten Weltkriegs war Werny bereits eine prosperierende Stadt mit 62 Lehranstalten, Fabriken, Banken, einem Telegraphen und einem kleinen Telefonnetz. 1907 wurde die Heilige Auferstehungskathedrale fertiggestellt, das schönste und mit 45 Metern lange Zeit das größte Gebäude der Stadt (siehe „Sehenswürdigkeiten“). Die Bevölkerung zählte 1909 37.000 Menschen. Am 2. März 1918 hatte sich in der Stadt die Sowjetmacht etabliert. In den 1920er und 1930er Jahren. Wie zahlreiche Städte im einstigen russischen Zarenreich wurde auch Werny von den Kommunisten umbenannt. Immerhin bekam die Stadt aber nicht den Namen eines bolschewistischen Führers wie die Hauptstadt der Kirgisen (Frunse, heute Bischkek). Werny gab man eine slawisierte Form seines früheren Namens. Es wurde nach den zwei Flüsschen, an denen die Festung gebaut wurde in Alma-Ata umbenannt. Man hat die kasachische Endung "-tu" bzw. "-ty" (Attributendung) irrtümlich als Wort "„Ata“ – Vater, Opa" verstanden. So wurde aus der „Äpfelstadt“ der „Vater der Äpfel“. Die Entscheidung wurde am 5. Februar 1921 getroffen. Die Bezeichnung ist jedoch im Kasachischen grammatisch falsch: „Alma-Ata“ ist nur eine Aneinanderreihung zweier Wörter, ohne sie in Beziehung zueinander zu setzen. Schon am 2. März 1927 beschlossen das Zentrale Exekutivkomitee und der Rat der Volkskommissare, die Hauptstadt der Kasachischen Autonomen Sowjetrepublik von Qysylorda nach Alma-Ata zu verlegen. Nach zwei Jahren war es soweit. Damals lebte Leo Trotzki für kurze Zeit in Alma-Ata, bevor er von Josef Stalin des Landes verwiesen wurde. Eine herausragende Rolle beim Wandel Alma-Atas zu einer wirklichen Hauptstadt, zur Stadt von Bedeutung, spielte die Fertigstellung und Inbetriebnahme des Turksib im Jahr 1930. Nun wurde die „Äpfelstadt“ zum wichtigen Verkehrs-, Handels- und bald auch Industrieknotenpunkt. Die Bevölkerung hatte sich innerhalb von drei Jahren (1926–1929) mehr als verdoppelt. Man entwickelte einen generellen Ausbauplan für Alma-Ata und setzte ihn konsequent um. Theater, Konzerthallen, Regierungsgebäude und Straßenbahnlinien entstanden innerhalb kürzester Zeit. Während des Zweiten Weltkriegs. 1941 wurde der Stadtname im Kasachischen wieder von Alma-Ata zu Almaty geändert, russisch blieb die Bezeichnung weiterhin Alma-Ata. In den Kriegsjahren 1941–1945 wurden viele Fabriken, Behörden und Institute aus dem von der deutschen Wehrmacht besetzten Westen der Sowjetunion nach Zentralasien verlegt. Allein nach Alma-Ata wurden über 30 Industriebetriebe, 15 Hochschulen, 20 Forschungsinstitute und die Filmstudios von Moskau, Leningrad und Kiew verlegt. So kam es, dass fast alle sowjetischen Propagandafilme der Kriegszeit in Alma-Ata gedreht wurden. Während dessen kämpften viele Stadtbewohner an der Front. 48 von ihnen wurden mit dem Abzeichen „Held der Sowjetunion“ geehrt. In Alma-Ata bestand das Kriegsgefangenenlager "40" für deutsche Kriegsgefangene des Zweiten Weltkriegs. Nachkriegsjahre und Perestroika. Blick auf das Zentrum der Stadt Nach dem Krieg wuchs Alma-Ata in jeder Hinsicht schneller als je zuvor. Ein Jahr lang lebte hier Leonid Breschnew als Erster Sekretär des ZK Kasachstans, bevor er zum Generalsekretär der Partei aufstieg, und diese Bekanntschaft kam der Stadt während seiner Regierungszeit selbstverständlich zugute. Am meisten wurde die kasachische Hauptstadt vom Republikoberhaupt Dinmuchamed Kunajew begünstigt, der von 1960 bis 1986 mit einer kurzen Unterbrechung regierte. Unter ihm bekam die Stadt im Wesentlichen ihr heutiges Aussehen und sie wurde zur Millionenmetropole. Der Name Kunajew weckt in Kasachstan selbst heute noch positive Assoziationen. Die Perestroika fing für Alma-Ata unter keinem guten Vorzeichen an. Im Dezember 1986 hatte das Plenum der ZK der Kasachischen SSR kurzerhand entschieden, Kunajew gegen Gennadi Kolbin auszutauschen, der das Land, die Leute und die Sprache nicht kannte. Daraufhin demonstrierten junge Leute auf einer Kundgebung gegen die Willkür des Zentralkomitees, die jedoch in einen Krawall ausartete (Scheltoksan-Unruhen). Es war die erste große Demonstration in der Sowjetunion seit zwei Jahrzehnten. Die kommunistische Führung reagierte erst verspätet mit einer militärischen Aktion zur Niederwerfung der Demonstration – „Metel’ 86“ („der Schneesturm 86“). Hunderte von Menschen wurden verhaftet, zwei Jugendliche später als Anstifter erschossen. Das Zentralkomitee beschrieb die Proteste als einen nationalistischen Aufstand. Kunajew verstarb 1993. Fast genau fünf Jahre nach der „Metel’ 86“, am 21. Dezember 1991, unterschrieben die Staatschefs der 12 Sowjetrepubliken in Alma-Ata den Vertrag über die Schaffung der Gemeinschaft Unabhängiger Staaten (GUS) und besiegelten damit das Ende der Sowjetunion. Alma-Ata wurde zur Hauptstadt der unabhängigen Republik Kasachstan. Almaty. 1993 wurde die Stadt erneut umbenannt, in Almaty, das heißt Stadt der Äpfel oder der Apfelbäume. Bald entschied sich die neue kasachische Führung, die Landeshauptstadt von Almaty nach Aqmola (heute Astana, früher "Akmolinsk" und "Zelinograd") zu verlegen. Das „Gesetz über den Sonderstatus von Almaty“ garantiert jedoch der Stadt den Erhalt einer besonderen Stellung als historisches Wissenschafts-, Kultur- und Finanzzentrum Kasachstans. In Almaty verblieben einige Regierungsorganisationen, 36 ausländische Botschaften und Konsulate, Vertretungen der UNO und UNESCO. Der Umzug der Hauptstadt wurde mit der Erdbebengefährdung der Region um Almaty und mit der Platzknappheit für neue Bauprojekte begründet. Eine Rolle spielte mit Sicherheit die demografische Situation im Norden Kasachstans, wo die Mehrheit der Bevölkerung russischstämmig ist. Dieses würde einer eventuellen Abspaltung entgegenwirken. Dennoch bleibt Almaty ein wichtiges kulturelles, wissenschaftliches und wirtschaftliches Zentrum des Landes. Politik. Bis 1997 war Almaty Hauptstadt Kasachstans und des gleichnamigen Gebiets. Jetzt allerdings ist sie keines von beidem, denn die Landeshauptstadt wurde nach Aqmola (heute Astana) und die Gebietshauptstadt nach Taldyqorghan verlegt. Obwohl das Gebiet immer noch „Almaty Oblysy“ heißt, ist Almaty kein Teil davon. Sie ist eine autonome „Stadt mit Sonderstatus“, von denen es in Kasachstan noch zwei weitere gibt – Astana und Baikonur. Bevölkerung. Seit 1981 ist Almaty eine Millionenmetropole, eine der größten Städte der ehemaligen Sowjetunion und nach Taschkent die zweitgrößte Stadt Zentralasiens. Rund 8 % der Bevölkerung Kasachstans lebt in Almaty. Das Bevölkerungswachstum betrug in den letzten Jahren ca. 0,6 %, die Sterblichkeitsrate wurde von der Geburtenrate um fast 30 % übertroffen. Haupttodesursache in den letzten Jahren waren mit 64,4 % Krankheiten des Herz-Kreislaufsystems. Ein Viertel der Einwohner sind unter 20 Jahre alt. Zu den „Aksakalen“, wie die ehrbaren alten Männer und Frauen von über 80 Jahren in Kasachstan genannt werden, zählen ungefähr 1,5 %. Auf 1000 männliche Stadtbewohner kommen 1206 weibliche, die Anteile sind dementsprechend, etwa 45 % und 55 % (m/w). 12,8 % der Bevölkerung sind Kleinkinder bis neun Jahre. Über eine Hochschulbildung verfügen 31,4 % der Erwachsenen, die Analphabetenrate beträgt 0,2 %. 2003 sind 5630 Menschen ins Ausland verzogen, 839 davon nach Deutschland. Zugezogen sind 5496 Menschen, davon 1174 aus China und 46 aus Deutschland. Der Saldo der inneren Migration betrug + 18.658 Menschen. Nationalitäten. Almaty ist eine internationale und kosmopolitische Stadt, in der Vertreter von annähernd 120 Nationen leben. Bis vor kurzem stellten Russen die Mehrheit in der Stadtbevölkerung dar – was bei den meisten Großstädten Kasachstans der Fall war. In der Zarenzeit waren laut der ersten Bevölkerungszählung von 1897 sogar 58 % der Bewohner russisch. Die Kasachen kamen mit nur 8,2 % sogar erst an dritter Stelle hinter den Uiguren mit 8,7 %. Bedingt durch die geographische Nähe des Uigurischen Autonomen Gebiets Xinjiang in der Volksrepublik China, zählen sie auch heute noch zur drittstärksten Minderheit der Stadt. Heute sind die Russen mit 33 % und die Kasachen mit 51,1 % vertreten. Traditionell leben im Umkreis von Almaty die Kasachen des Älteren Shus, Sippe Dshany des Stammes Dulat bzw. Sippen Tschibyl und Aikym des Stammes Schapraschty. In der Stadt selbst ist die Stammeszugehörigkeit der kasachischen Bevölkerung höchst unterschiedlich und teilweise gar nicht mehr ermittelbar. Außer den Uiguren sind viele andere Turkvölker vertreten, wie Aserbaidschaner, Türken, Tataren und die ostturkestanischen Dunganen oder Dschungaren. Stärkste slawische Minderheit nach den Russen sind die Ukrainer mit 1,2 %. Viertgrößte Bevölkerungsgruppe mit einem Anteil von 1,9 % in Almaty sind Koreaner, die in Kasachstan und anderen Staaten der ehemaligen Sowjetunion sich selbst auch als Korjo-Saram bezeichnen und unter Stalin aus dem russischen fernen Osten nach Zentralasien verschleppt wurden. Der Anteil der Deutschen beträgt nur noch 0,6 %. Vor 15 Jahren gab es weitaus mehr Deutsche in Almaty, doch auch damals zählten sie kaum mehr als 3 %, denn deren Hauptsiedlungsgebiete waren vorwiegend Nord- und Zentralkasachstan. Die Beschilderung in der Stadt ist meist zweisprachig, Russisch und Kasachisch Bei diesen Zahlen ist die starke zwischenstaatliche Migration zu beachten, die durch den Fall der Sowjetunion ausgelöst wurde. Nach deren Auflösung haben viele Russen, Ukrainer, Deutsche und Juden die Stadt und häufig auch das Land verlassen. Seit dem Ende der 1990er Jahre stabilisierte sich die Wirtschaftslage jedoch und die Migration ebbte deutlich ab. In den letzten Jahren kehrte sich der Trend sogar vollständig um, es wanderten zahlreiche Menschen aus ärmeren ehemaligen Sowjetrepubliken nach Almaty ein. Die Hauptverkehrssprache ist, wie in den meisten Teilen Kasachstans, Russisch. Die Regierung bemüht sich seit der Unabhängigkeit aber, die kasachische Sprache ebenso wieder in der Bevölkerung zu verbreiten. Straßenschilder oder offizielle Dokumente sind meist zweisprachig. Daneben sind auch die Sprachen der jeweiligen Minderheiten in der Stadt verbreitet. Religionen. Heute gibt es in der Stadt 266 religiöse Gemeinden, die 42 verschiedenen Konfessionen angehören. Die bedeutendsten darunter sind die Sunniten und die russisch-orthodoxen Christen. Außerdem sind Neuapostolische, Bahai, Krischnaiten, Vischnuiten, Adventisten sowie zahlreiche esoterische Vereinigungen vertreten. Viele Vereinigungen unterhalten religiöse Zentren mit eigenen Bildungsstätten (Seminare oder Kollegen) in der Stadt. Außerdem erscheinen sieben lokale religiöse Zeitschriften und Zeitungen. Es gibt insgesamt fast 100 Kirchen und Moscheen in Almaty, darunter viele bedeutende und alte Kirchengebäude, die im 18. und 19. Jahrhundert erbaut wurden. Der Bau von größeren Moscheen setzte größtenteils erst gegen Ende des 20. Jahrhunderts ein. Islam. Die meisten Kasachen sind Muslime und gehören der sunnitischen Glaubensrichtung an. Der Großteil der Kasachen nahm ab dem 14. Jahrhundert unter dem Einfluss der Goldenen Horde den Islam an. Im Zusammenhang mit der Perestroika kam es Ende der 1980er Jahre auch bei den Muslimen Kasachstans zu einem Reformprozess. Im November 1989 kamen zahlreiche Imame in Almaty zusammen und gründeten die „Geistliche Verwaltung der Muslime Kasachstans“ ("Dukhovnoe upravlenie musul'man Kazakhstana" DUMK). Die Delegierten der DUMK wählten im Januar 1990 fünf Qazis, von denen einer für Almaty zuständig war. Die DUMK gründete außerdem 1990 ihr Höheres Islamisches Institut in Almaty, das eine zweijährige religiöse Ausbildung anbot, die im Jahre 1996 bereit 300 Studenten durchlaufen hatten. Die DUMK errichtete darüber hinaus im Stadtgebiet neue Moscheen, so auch die große Zentralmoschee, die 1997 eröffnet wurde. In den 1990er Jahren kam es bei den Muslimen Kasachstans zu einer Annäherung an die arabisch-islamischen Staaten. So unterstützten bereits 1997 arabische Stiftungen den Aufbau der Kasachisch-Arabischen Universität und der Kasachisch-Kuwaitischen Universität in Almaty. Nachdem die DUMK ihr Höheres Islamisches Institut geschlossen hatte, eröffnete sie als Ersatz dafür im Jahre 2001 die "Ägyptische Universität für Islamische Kultur Nur-Mubarak", ein Kooperationsprojekt mit dem ägyptischen Ministerium für religiöse Stiftungen. Diese Hochschule beherbergt ebenfalls eine Moschee. Christentum. Die meisten Christen in Almaty sind Mitglieder der Russisch-Orthodoxen Kirche. Die bedeutendsten russisch-orthodoxen Kirchengebäude sind die Anfang des 20. Jahrhunderts errichtete Christi-Himmelfahrt-Kathedrale, die eine der größten Sehenswürdigkeiten der Stadt ist, und die Nikolaus-Kathedrale. Almaty ist auch zweiter Sitz der russisch-orthodoxen Eparchie Astana und Almaty. In Almaty befindet sich außerdem eine Gemeinde der römisch-katholischen Kirche, die vorwiegend aus den deutschen und polnischen Minderheiten besteht. Die Stadt ist zudem Sitz des Bistums Allerheiligste Dreifaltigkeit zu Almaty mit der Dreifaltigkeitskathedrale. Eine kleine Gemeinde der Armenisch Apostolischen Kirche wurde erst 1994 gegründet. Sie unterhält mit der Kirche des Heiligen Karapet eine von nur drei armenisch apostolischen Kirchen in ganz Zentralasien; die zwei anderen befinden sich in Samarkand und Taschkent in Usbekistan. Die Gemeinde gehört zur armenisch apostolischen Diözese Neu-Nachitschewan und Moskau. Des Weiteren gibt es eine hohe Anzahl an evangelischen Freikirchen, deren Einfluss sich bereits im 19. Jahrhundert erkennbar machte. Die katholischen Gemeinden bestehen meist aus Deutschen und Polen, die nach dem Zweiten Weltkrieg dort ansiedelten. Kultur und Sehenswürdigkeiten. Das Kulturleben der südlichen Hauptstadt Kasachstans ist für zentralasiatische Verhältnisse außerordentlich reich und vielfältig. Theater, Musik, Film. Von den Theatern besitzt die Stadt neun staatliche und sieben nichtstaatliche. Das "Staatliche Akademische Theater für Oper und Ballett", das den Namen Abai – nach Abai Qunanbajuly – trägt, ist das älteste und bedeutendste nicht nur der Stadt, sondern auch der Republik. Erwähnenswert sind außerdem noch das "Staatliche Akademische Äuesow-Theater", das Staatliche Akademische "Lermontow-Theater für Drama", das "Theater 'Nowaja Szena'," die Nationalen Theater der Russen, Deutschen, Koreaner und Uiguren, sowie drei "Puppentheater". Suburbane Bezirke in der Stadt Weltliche Historische Bauten. Das älteste noch erhaltene Gebäude der Stadt stammt von 1892. Dort residierte einst ein Kinderpflegeheim, heute ist dort das städtische Medizinkolleg. Im einst prunkvollen, reichen Stil erbaut ist das Geschäftshaus des Kaufmanns Gabdulwalijews, der heute den Namen „Kysyltan“ trägt. Typische Vertreter des russischen Kolonialstils des 19. Jahrhunderts sind die Städtische Lehranstalt, das Jungengymnasium, das Mädchengymnasium und das Offiziershaus im Park der 28 Panfilowzy (heute: Museum der Volksmusikinstrumente). In den 1930er und 1940er Jahren errichtete man viele ansehnliche Gebäude, darunter das Akademische Theater für Oper und Ballett, die ehemaligen Häuser der Regierung und des Finanzministeriums. Die Akademie der Wissenschaften, das Kinder- und Jugendtheater, sowie der Bahnhof Almaty II folgten in den 1950er Jahren. 1970 wurde der Palast der Republik und in den späten 1970er Jahren das Hotel Kasachstan errichtet, das mit seinen knapp 130 Metern lange Zeit das höchste Gebäude Kasachstans war. Der Fernsehturm Almaty, gelegen auf dem Berg Kök-Töbe, ist mit seinen 371,5 Metern eines der höchsten Bauwerke der Welt. Christi-Himmelfahrt-Kathedrale. Die Hauptsehenswürdigkeit der Stadt ist die Heilige Christi-Himmelfahrt-Kathedrale (Sofienkathedrale von Turkestan), der 1907 erbaute Sitz des Bischofs von Turkestan. Die Kathedrale ist im „russischen“ Stil erbaut worden, deren Formen, Ornamente und die helle Farbenfröhlichkeit an die Terems erinnert, die alten russischen Paläste (ein Beispiel hiervon ist der Terem-Palast im Moskauer Kreml). Diese Kathedrale mit ihren Gewölben, Kuppeln, dem Glockenturm und einem System von Treppen und Galerien wird häufig mit der Basilius-Kathedrale in Moskau verglichen, der man die Züge des Barock verliehen hat. Die Kirche wurde in den russischen Katalog der 100 Weltwunder aufgenommen. Die Kathedrale wurde vom Architekten A. P. Senkow geschaffen. Die Stadt Almaty (damals Werny) liegt in einem besonders erdbebengefährdeten Gebiet. Im Jahre 1887 geschah hier ein Erdbeben, das zehn Minuten dauerte und die ganze Stadt in Schutt und Asche legte. Damals merkte man, dass die Bauten aus Holz am wenigsten Schaden davontrugen, und so ist die Kathedrale vollständig aus Holz (genauer gesagt aus dem Tannenholz von Tian-Shan) errichtet worden. Senkow verwendete beim Bau nicht nur die neuesten architektonischen Erkenntnisse der damaligen Zeit, sondern er richtete sich auch nach historischen Vorbildern, wie die in seismisch aktiven Gebieten stehenden japanischen Pagoden. Das Ergebnis war, dass die Turkestan-Kathedrale als eines der wenigen Gebäude die zwei großen Erdbeben von 1910 und 1921 unversehrt überstand. Überraschenderweise ist die Kirche kein einziges Mal in Flammen aufgegangen und bleibt somit eine der wenigen vollständig erhaltenen hölzernen Sakralbauten der Welt. Sonstige Kirchen und Moscheen. Aus der Zarenzeit erhalten geblieben sind außer der Christi-Himmelfahrt-Kathedrale noch die Nikolaus-Kathedrale, die Peter-und-Paul-Kirche und die Kasaner Kathedrale. Die letzte ist in einem an ukrainisches Barock erinnernden Stil erbaut. In den 1990er Jahren wurde, in Anlehnung an die Moskauer Kathedralen, die orthodoxe Christus-Erlöser-Kathedrale erbaut. 2007 wurde die Sophienkathedrale neu erbaut. Im Norden der Stadt befindet sich die Paraskewi-Kirche. Alle heute in Almaty stehenden Moscheen wurden erst in den 1990er Jahren erbaut. Besonders schön sind die Zentralmoschee, die Sultan-Kurgan-Moschee, die Moschee am Ryskulow-Prospekt, die Moschee im Orbita-Stadtviertel und die Nur-Mubarak-Moschee der Islamischen Universität. Die Tatarische Moschee des alten Werny ist hingegen nicht erhalten geblieben. Des Weiteren gibt es eine moderne römisch-katholische Kathedrale der Heiligen Dreifaltigkeit. Galerien. Almaty verfügt außerdem über 13 "Ausstellungshallen" und "Kunstgalerien" (Zentrale Ausstellungshalle, „Tengri-Umaj“, „Tribuna“, „Ular“, Art-Zentrum „Alma-Ata“, Salon der Kunst und Numismatik etc.) und 12 "Kinos". Der "Zirkus Almaty" ist der älteste Zirkus in Kasachstan. In der Zeit, als Almaty noch Hauptstadt war, entstanden die Berufsverbände der Künstler, Schriftsteller, Komponisten und Journalisten. Natur und Freizeit. Die Stadt der Äpfel besitzt zahlreiche Parks und Erholungsanlagen. Sport. Der Fußballverein Kairat Almaty war zu Zeiten der Sowjetunion der Vorzeigeklub der Kasachischen SSR, er spielte viele Jahre in der höchsten sowjetischen Liga. Heute nimmt er am Spielbetrieb der Premjer-Liga teil, in der bereits zweimal die Meisterschaft gefeiert werden konnte. Seine Heimspiele trägt der Verein im Zentralstadion von Almaty aus; er ist aus dem Sportverein Dinamo Alma-Ata hervorgegangen. In der zweiten kasachischen Liga ist die Stadt durch Zesna Almaty vertreten. In der Stadt sind auch die Frauenfußballmannschaft von CSHVSM Almaty und der Futsalverein MFK Kairat Almaty beheimatet. Die Eishockeymannschaft Jenbek Almaty nimmt an der Kasachischen Meisterschaft teil. Im Fraueneishockey wird die Stadt durch den Club Aisulu Almaty vertreten. Der Basketballverein BC Almaty spielt in der kasachischen National League. Etwa 16 km südlich von Almaty befindet sich die international bekannte Eisschnelllaufbahn von Medeo. Am 14. und 15. Februar 2015 fand dort der WM-Grand-Prix von Kasachstan im Eisspeedway statt. In Almaty stehen auch die einzigen Skisprungschanzen in Kasachstan. Ursprünglich gab es eine K 15, eine K 35, eine K 45 und eine K 70 Schanze, die aber abgerissen wurde. Für die Winter-Asienspiele 2011 wurden eine Normalschanze (K 95) und eine Großschanze (K 125) gebaut. Ende September 2010 wurden die beiden Schanzen mit einem Continentalcup-Springen eröffnet. Beide Springen gewann der Pole Kamil Stoch. Am 30. August 2011 fand hier ein Sommer-Grand-Prix statt, den der Slowene Jurij Tepeš gewann. Der Schanzenkomplex heißt Gorney Gigant. Almaty bewarb sich um die Austragung der Nordischen Skiweltmeisterschaften 2019 sowie - ebenso vergeblich - um jene der Olympischen Winterspiele 1994, 2014 und 2022 Öffentlicher Verkehr. Almaty verfügt über zwei Straßenbahn- und neun Trolleybuslinien mit einer Gesamtlänge von 65 Kilometern. Die erste Linie wurde 1937 in Betrieb genommen. Des Weiteren gibt es 196 Buslinien, die 2004 245,6 Millionen Passagiere beförderten. Die Metro Almaty, deren erster, sieben Stationen umfassender Abschnitt mit Unterbrechungen seit 1988 in Bau war, wurde am 1. Dezember 2011 als erste U-Bahn Kasachstans in Betrieb genommen. Die Fahrzeuge wurden bereits ab Sommer 2010 geliefert. In der Stadt sind 210.543 Personenkraftwagen, 21.184 Lastwagen und 8.251 Busse registriert. Luftverkehr. Seit 1935 besteht der Flughafen Almaty. 1977/78 führte von Alma-Ata nach Moskau die erste Überschall-Flugverbindung der Welt (mit Tupolew Tu-144 als Passagierflugzeug). Heute gibt es verschiedene, tägliche internationale Flugverbindungen. Die Regionalflughäfen im Lande werden ebenfalls täglich angeflogen. Nordwestlich der Stadt liegt noch der kleine Flughafen Almaty-Boraldai. Ab Frankfurt am Main gibt es eine tägliche Verbindung durch die Lufthansa. Bahn. Seit der Fertigstellung der Turksib (1930) ist Almaty auch per Zug erreichbar. Heute besitzt die Stadt zwei große Bahnhöfe, Bahnhof Almaty-1 und Bahnhof Almaty-2; außerdem noch einige kleinere Stationen der Regionalbahnen. Von Moskau erreicht man Almaty in vier Tagen ohne umzusteigen. Wirtschaft. Am 1. Januar 2005 waren in der Stadt 1668 Betriebe registriert, davon 168 Groß- und Mittelbetriebe, auf die fast 78 % der städtischen Produktion entfällt. Die Palette der erzeugten Industriegüter ist sehr breit. Die Nahrungsmittelindustrie produziert Tee, Weine, Süßwaren, Nudeln, Milch- und Fleischprodukte; in anderen Bereichen werden Waschmaschinen, Fernseher, Teppiche, Lederschuhe, Trikotagen, Ziegelsteine, Metallkonstruktionen und vieles mehr hergestellt. Der Außenhandel umfasste 2004 5.294,6 Mio. US$, die Quote der Arbeitslosen lag bei 8,9 %, die Durchschnittslöhne erreichten 192 US$ pro Monat. Über 577.000 Menschen in der südlichen Hauptstadt waren 2003 erwerbstätig. Das Mega Center Alma-Ata ist eines der größten Einkaufszentren in ganz Kasachstan. Zudem beherbergt Almaty das größte Einkaufszentrum in Zentralasien, die Aport Mall. Almaty ist der größte Messestandort Kasachstans. Das Atakent Expo Exhibition Centre, in dem die Messen stattfinden, ist das einzige Messezentrum im ganzen Land. Die bedeutendsten Messen, die in Almaty veranstaltet werden, sind die WorldFood Kazakhstan, die KazBuild, die Kazakhstan International Healthcare Exhibition, die Kazakhstan International „Oil & Gas“ Exhibition, die MiningWorld Central Asia und die Kazakhstan International Tourism Fair. Ansässige Unternehmen. Ein wichtiger Wirtschaftszweig ist die Lebensmittelherstellung. So befinden sich die meisten bedeutenden Lebensmittelhersteller in der Stadt. Unter diesen sind Rakhat, der größte Süßwarenhersteller Kasachstans. Auch der Spirituosenhersteller Bacchus und RG Brands, ein Getränkehersteller, sind in Almaty ansässig. Almaty ist auch Kasachstans wichtigster Finanzstandort und das Versicherungszentrum des Landes. So haben, wie die Kazkommertsbank, die Halyk Bank, die ATFBank und die BTA Bank, fast alle bedeutenden Kreditinstitute Kasachstans ihren Hauptsitz in Almaty. Trotz der Verlegung der Hauptstadt nach Astana sind dennoch einige Staatsunternehmen wie etwa die Kazpost, Kazatomprom oder Air Astana in Almaty geblieben. Auch die Einzelhandelsunternehmen Meloman, die ABDI Company und Sulpak haben ihren Hauptsitz in Almaty. Im Süden der Stadt befindet sich die Kasachische Börse, die einzige Börse im Lande. Almaty ist ebenfalls Standort der meisten an der Börse gehandelten Unternehmen, wie etwa Kasachstan Kagazy, Almatyenergosbyt und KazTransCom. Gleichzeitig ist die ehemalige Hauptstadt der größte Medienstandort des Landes. Zahlreiche kasachische Fernsehsender, Rundfunksender und Zeitungen sind in der Stadt angesiedelt. Bildung. In Almaty gibt es eine Vielzahl von Schulen und Hochschulen. Neben 187 Mittelschulen gibt es 16 Gymnasien und Lyzeen. Den mittleren Berufsabschluss können junge Stadtbewohner an 21 Staats- und Republikskollegien bzw. 57 privaten Kollegien erwerben. Es gibt eine intensive Zusammenarbeit mit Schulen in Deutschland und Frankreich. Wissenschaftliche Forschung konzentriert sich an der 1946 von Kanysch Imantajewitsch Satpajew gegründeten "Kasachischen Akademie der Wissenschaften." Sie ist auch die oberste wissenschaftliche Anstalt Kasachstans. In den Bergen bei Almaty stehen mehrere "Sternwarten" (Assy-Turgen Observatory, Tian Shan Observatory), die vom Astrophysikalischen Institut Fesenkow betrieben werden. Persönlichkeiten. Almaty ist Geburtsort zahlreicher prominenter Persönlichkeiten. Aldi. Historisches Logo der damaligen Albrecht KG (1945–1960) Ursprungs-Aldi in der Huestraße 89 in Essen-Schonnebeck (2006) Aldi ist der Kurzname der beiden Discounter Aldi Nord und Aldi Süd. Der Name Aldi ist eine Abkürzung und steht für Albrecht Diskont. Aldi Nord und Aldi Süd betreiben weltweit zusammen fast 10.000 Filialen (Stand: April 2015), durch diesen Marktanteil sind Aldi Nord und Aldi Süd Marktführer in der Discounter-Branche. Anfänge 1913–1945. Karl Albrecht sen. (1886–1943), der Vater von Theo (1922–2010) und Karl Albrecht (1920–2014), war ein gelernter Bäcker, bis er aus gesundheitlichen Gründen (Bäckerasthma) diese Arbeit aufgeben musste. Im Frühjahr 1913 machte er sich als Brothändler selbstständig und seine Frau Anna Albrecht (geb. Siepmann) eröffnete unter dem Namen ihres Mannes am 10. April 1913 einen Tante-Emma-Laden in Essen-Schonnebeck (Huestraße 89). Wein wurde in den Anfangsjahren noch aus Fässern in Flaschen abgefüllt, Zucker und Mehl gab es aus Säcken. Die Kunden wurden noch persönlich von Verkäuferinnen bedient. Selbstbedienung war zu dieser Zeit noch völlig unüblich. Nachkriegszeit 1945–1961. Nach dem Zweiten Weltkrieg übernahmen Karl und Theo 1945 den elterlichen Lebensmittelladen und gründeten die Albrecht KG. Sie expandierten immer mehr und eröffneten 1953 das erste Zentrallager mit Bürogebäude in Essen-Schonnebeck. 1955 hatte die damalige Albrecht KG schon 100 Filialen (alle in Nordrhein-Westfalen). Aufteilung in Nord und Süd 1961. 1961 (im Jahr der Aufteilung) betrieben Karl und Theo Albrecht schon 300 Filialen in West-Deutschland mit einem Umsatz von ca. 90 Mio. DM. Zu dieser Zeit existierten bereits zwei getrennte Verwaltungen und Regionallager (von Theo Albrecht in Herten, von Karl Albrecht in Mülheim an der Ruhr). 1960 wurde in Mülheim am Heifeskamp eine eigene Kaffeerösterei eröffnet (die noch heute existiert), im selben Jahr schied Anna Albrecht, die Mutter der Gebrüder Albrecht, als Gesellschafterin aus. Aus unbekannten Gründen beschlossen die Gebrüder Albrecht, fortan getrennte Wege zu gehen, sie teilten das Unternehmen in Aldi Nord und Aldi Süd auf. Die nördlichen Filialen übernahm Theo Albrecht, die südlichen Karl Albrecht. Expansion als reine Discounter ab 1962. Durch die in Westdeutschland aufkommende Selbstbedienung im Vertriebstyp Supermarkt stagnierten Anfang der 1960er Jahre auch bei den Albrecht-Brüdern die Umsätze in den etwa 300 sehr kleinen Bedienungsläden (auch Stubenläden genannt). Dieser Vertriebstyp hatte keine Zukunft mehr und verlor Umsätze an Supermarktketten wie Kaiser’s, Hill, Bolle, Deutscher Supermarkt, Konsum etc. Karl und Theo Albrecht wandten sich ab 1960 ebenfalls dem Vertriebstyp Supermarkt zu und experimentierten mit etwa 20 bis 30 Albrecht-Supermärkten. Die Läden hatten eine Verkaufsfläche von etwa 150 bis 200 m² und führten neben einem mittelgroßen Sortiment von Trockenwaren auch Frischwaren wie Obst und Gemüse, Molkereiprodukte, Wurstwaren und Frischfleisch (bei Frischfleisch stützten sich die Albrecht-Brüder auf die Großfleischerei RUOS aus Essen als Partner). Der Test mit diesen Albrecht-Supermärkten scheiterte, da er weder in den Ladengrößen noch in der Sortimentsvielfalt der inzwischen davongeeilten Supermarkt-Konkurrenz ebenbürtig war. Diese noch unter dem roten Albrecht-Logo getesteten Märkte wurden bald wieder geschlossen bzw. konnten kurze Zeit später nach Umgestaltung auf Aldi-Discount genutzt werden. Ein weiterer, ebenfalls nicht erfolgreicher Ausweg wurde 1961 durch einen Test mit dem aus den USA kommenden Vertriebstyp Cash & Carry an den Standorten Neuss und Mülheim/Ruhr unter dem Logo ALIO gestartet. Dieser Test erscheint aus heutiger Sicht ebenfalls als eher halbherzig, denn mit nur etwa 2000 bis 3000 m² Verkaufsfläche konnte Alio sich nicht gegen die bereits etablierte C&C-Konkurrenz, wie z. B. gegen die Märkte des damaligen Marktführers und Hauptkonkurrenten RATIO in Bochum und Münster, durchsetzen, die etwa zehnfache Fläche und viel größeres Sortiment hatten. Das Unternehmen Albrecht befand sich also 1961/62 in einer Krise, aus der die Tests mit Supermärkten und Cash & Carry-Märkten keinen Ausweg gebracht hatten. Unter dem Zwang zur Neuorientierung entwickelten Karl und Theo Albrecht die Idee "Lebensmittel-Discount"; sie gaben ihren Läden dieser für Europa völlig neuen Vertriebsform den Namen ALDI ("AL"-brecht "DI"-scount). Der betriebswirtschaftliche Grundgedanke zu diesem neuen Vertriebstyp lässt sich mit dem Satz „Discount ist die Kunst des Weglassens“ umschreiben. Im Vergleich zu den damals marktführenden Supermärkten ließen die Brüder Albrecht eine ganze Reihe der damals üblichen Dienstleistungs-Funktionen der Einzelhandels-Distribution einfach weg. Aldi-Fazit: Keine breiten und tiefgestaffelten Sortimente (nur schnelldrehende Grundnahrungsmittel, keine Doubletten), keine leicht verderblichen Frischwaren (damit keine kostenintensive Warenpflege, keine Bedienung, keine teuren Kühlmöbel, geringer Energieverbrauch), kein Preisetikett auf jedem Artikel (die Kassiererinnen hatten die Preise, zusammengefasst in relativ wenigen Preisgruppen, auswendig zu lernen, später über PLU-Nummern aufzurufen), kein Auspacken der Ware (verkauft wurde aus den aufgeschnittenen Versandkartons), keine teure Ladeneinrichtung (verkauft wurde von Paletten oder selbstgefertigten Holzregalen), keine Ladendekoration und Werbung, kein Kreditverkauf, keine damals üblichen Rabattmarken. Das knapp bemessene Filial-Personal wurde für alle anfallenden Arbeiten ausgebildet, so dass es bei hoher Arbeitsdichte ständig ausgelastet war. Dieses Weglassen von wesentlichen Einzelhandelsfunktionen brachte den Aldi-Märkten große Kostenvorteile gegenüber der Supermarkt-Konkurrenz. Diese Kostenvorteile ermöglichten es Aldi, trotz eines von Anfang an gut kalkulierten Gewinns den Verbrauchern große Preisvorteile zu bieten. Die ersten Versuche mit solchen Discount-Läden fanden 1961 im Raum Dortmund und Bochum statt. In Serie ging der Vertriebstyp „Discount“ bei Aldi Süd (Leitung Horst Steinfeld, Geschäftsführer Aldi Mülheim). Die Organisation der Eröffnungen und die Führung dieser ersten Aldi-Filialen verantwortete Walter Vieth (damals Leiter des Bezirks westliches Ruhrgebiet/Niederrhein). Unter Verwertung ehemaliger Albrecht-Supermärkte wurden ab Juni 1962 im Wochenrhythmus und in dieser Reihenfolge die ersten ALDI-Discountmärkte eröffnet: Dinslaken (Neustraße), Walsum (Friedrich-Ebert-Straße), Bocholt (Nordstraße) und Wesel (Hohe Straße). Die Verbraucher nahmen die neuen, sehr preiswerten ALDI-Märkte in kürzester Zeit an. Die Umsatzleistung pro Mitarbeiter war fast zehnmal höher als in den Albrecht-Supermärkten. Die Umsatz- und Renditewerte der ersten Serienmärkte und die schnelle Akzeptanz dieser Läden bei den Verbrauchern waren so überzeugend, dass die Albrecht-Brüder wenige Monate nach Eröffnung dieser ersten Märkte in die überregionale Multiplikation gehen konnten. Das für diese wohl einmalige Expansion notwendige Kapital erwirtschaftete das Discount-System selbst. Durch den raschen Warenumschlag (circa 10 Tage — „Schnelldreher“), die Barzahlung in den Läden und das übliche Zahlungsziel bei den Herstellern (30 Tage) war stets genügend Liquidität vorhanden, die Expansion ohne Bankkredite zu finanzieren. Karl und Theo Albrecht gelang mit der Idee Aldi die wohl erfolgreichste Einzelhandels-Innovation des 20. Jahrhunderts. Aldi ist bis heute (2014) Marktführer in Deutschland und weiteren Ländern. Sortiment und Filialgröße wurden vorsichtig erweitert; das Prinzip „Discount ist die Kunst des Weglassens“ gilt nach wie vor. Unternehmensführung. 1961 trennten Karl und Theo Albrecht das Stammhaus Albrecht KG in die bis heute aktuellen Unternehmen Aldi Nord und Aldi Süd. Die operative Konzernführung von Aldi Nord besteht aus einem Verwaltungsrat mit Sitz in Essen. Aldi Süd wird von einem Koordinierungsrat aus Mülheim an der Ruhr geleitet. Die beiden Konzerne sind freundschaftlich verbunden und koordinieren im Aldi-Unternehmensausschuss gemeinsam ihre Geschäftspolitik. Das Bundeskartellamt betrachtet Aldi Nord und Aldi Süd als „faktischen Gleichordnungskonzern“ im Sinne von  Abs. 2 Aktiengesetz (Deutschland). Rechtlich, organisatorisch und seit 1966 auch finanziell sind beide Konzerne völlig unabhängig voneinander. In Deutschland betreiben Aldi Nord und Aldi Süd zusammen 66 Regionalgesellschaften, die wiederum ca. 4250 Aldi-Filialen kontrollieren (Stand April 2015). Die Regionalgesellschaften haben ihren Sitz oft außerhalb der größeren Ballungszentren; sie liegen meist nahe einem Autobahnanschluss, damit die Ware effizient zu den Filialen transportiert werden kann. Den Regionalgesellschaften, die als Kommanditgesellschaften (GmbH & Co. KG) geführt werden, steht jeweils ein Regionalgeschäftsführer vor. Dieser legt dem Verwaltungsrat (Aldi Nord) bzw. dem Koordinierungsrat (Aldi Süd), welcher als Kommanditist auftritt, Rechenschaft ab. Der Regionalgeschäftsführer wird unterstützt durch die unter ihm stehenden Abteilungsleiter. In jeder Regionalgesellschaft gibt es verschiedene Abteilungen, zum Beispiel Logistik, Vertrieb und Verwaltung. Den Abteilungsleitern unterstehen mehrere Verkaufsleiter (offiziell Regionalverkaufsleiter), die je einen Verkaufsbezirk von fünf bis sieben Filialen verantworten. Ein Verkaufsleiter ist auch gleichzeitig Disziplinarvorgesetzter und führt bis zu 100 Mitarbeiter. In jeder Aldi-Filiale gibt es einen Filialverantwortlichen, der für die Einteilung und Führung des Filialpersonals sowie für die Warendisposition, Abrechnung und vor allem für das Erreichen der entsprechenden Filialkennzahlen verantwortlich ist. Es gibt mehrere Tochtergesellschaften der beiden Aldi-Konzerne, die zentrale Aufgaben wie Einkauf und Immobilienverwaltung übernehmen, beispielsweise die Aldi Einkauf GmbH & Co. oHG. Deutschland. Die Grenze zwischen Aldi Nord und Aldi Süd (auch "Aldi-Äquator" genannt) verläuft vom Westmünsterland über Mülheim an der Ruhr, Wermelskirchen, Gummersbach (in Gummersbach gibt es Nord- und Süd-Filialen), Siegen (in Siegen gibt es Nord- und Süd-Filialen, weil die Autobahn 45 die Grenze bildet), Marburg, nach Osten bis nördlich von Fulda. Die neuen Bundesländer sind (bis auf eine Filiale im thüringischen Sonneberg, die aus Bayern beliefert wird) vollständig Aldi-Nord-Gebiet. Aldi besitzt eigene Kaffeeröstereien. Aldi Nord betreibt diese in Weyhe und Herten; die Röstereien von Aldi Süd sind in Mülheim an der Ruhr und in Ketsch. Aldi Süd/Hofer. Die von Helmut Hofer im Jahre 1962 gegründete Filialkette "Hofer" wurde 1967 von Aldi Süd übernommen. Sie firmiert seitdem als Hofer KG. Das Aldi-Süd-Konzept wurde nach und nach umgesetzt. Das Hofer-Logo gleicht dem Logo von Aldi-Süd (siehe Foto). Im November 2014 wurde bekannt, dass Aldi Süd eine Expansion nach China evaluiert. Aldi Süd will in den nächsten Jahren nach Italien expandieren. Die Koordination des Markteintritts nach Italien soll aus Österreich erfolgen. Sonstige Konzepte. Im Mannheimer Stadtteil Waldhof erprobte Aldi Süd ein neues Marktkonzept mit dem Namen "Tausendundeine Gelegenheit". In dem am 4. April 2005 eröffneten Laden wurden nicht abgesetzte Schnäppchenprodukte (Aldi-Aktionsware) zu nochmals stark ermäßigten Preisen verkauft. Da sich das Konzept jedoch nicht bewährte, wurde der Laden am 30. Juni 2007 wieder geschlossen. Finanzen. Umsätze und Erträge der Gruppe wurden bis zum Jahr 2000 nicht veröffentlicht. Seit dem Jahr 2001 werden die Zahlen zumindest für die Gesellschaften Nord im Bundesanzeiger veröffentlicht. Der Umsatz 2010 in Deutschland betrug 22,5 Mrd. € (Aldi Nord: 9,95 Mrd. €; Aldi Süd 12,5 Mrd. €), der weltweite Umsatz betrug 52,8 Mrd. Die Umsatzrendite betrug 2010 in Deutschland 3,0 % (Aldi Nord) bzw. 3,7 % (Aldi Süd). Aldi Nord und Aldi Süd sind vollständig in Familienbesitz. Die Kapitalausstattung wird als sehr solide bezeichnet; nach eigenen Angaben hat Aldi keine Verbindlichkeiten. Soweit bekannt, ist Aldi Nord über seine Immobilientochter Eigentümer sämtlicher Logistikzentren. Der Filialbestand ist ebenfalls größtenteils Eigentum; gemietete Objekte werden im Zuge des Flächentausches und der Vergrößerung verstärkt durch eigene Objekte ersetzt. Aldi Süd ist ebenfalls Eigentümer fast aller Gebäude (Märkte, Logistikzentren) und Grundstücke, hat aber auch Fremdkapital aufgenommen, um die weitere Immobilienexpansion zu finanzieren. Damit verließ Aldi Süd den bisherigen Weg der totalen Unabhängigkeit von Kreditgebern durch das Vermeiden von Fremdkapital. Im Ranking der 500 größten Familienunternehmen Deutschlands der Zeitschrift "Wirtschaftsblatt" nimmt die Gruppe im Jahr 2013 den zweiten Platz ein. Danach betrug der Umsatz der beiden Unternehmen im Jahr 2011 ca. 50,9 Milliarden Euro. Kundenprofil. Bis etwa Anfang der 1980er Jahre hatte Aldi das Image eines "Arme-Leute-Ladens"; Aldi-Produkte galten zwar als qualitativ hinreichend solide, aber ohne Prestige. Auch heute sind arme Bevölkerungsschichten eine wichtige Zielgruppe von Aldi, jedoch gilt das nicht mehr als negativ für Aldis Image. Von Aldi vertriebene Produkte erhielten vielfach sehr gute Testergebnisse (z.B. bei Stiftung Warentest und bei Öko-Test). 2006 kauften drei Viertel der Haushalte regelmäßig bei Aldi ein. Im Fünfjahresrückblick der Stiftung Warentest waren 2004–2009 rund 40 % der angebotenen Aktionsprodukte ein Schnäppchen, 45 % waren von angemessenem Preis; die übrigen 15 % erschienen den Testern als zu teuer. Leitbild. Eine flache Organisationshierarchie und einfache Unternehmensgrundsätze bilden das Unternehmensleitbild. Sortiment. typischer Gang in einer Filiale, 2015 Die Grundidee ist, nur Produkte im Sortiment zu führen, die bei einem gewissen Mindestumsatz eine hohe Warenumschlagshäufigkeit aufweisen, sogenannte Schnelldreher. Das Sortiment ist somit verhältnismäßig schmal und besteht aus rund 700 Artikeln, die vorwiegend für den Durchschnittskunden interessant sind. Marken. Die früher bei allen Markenartikeln übliche Bindung der Verbraucherpreise (Preisbindung der zweiten Hand) gab den Albrecht-Brüdern keine Möglichkeit, Markenartikel günstiger anzubieten. Deshalb blieb Aldi nur der Ausweg über markenfreie Produkte, die sogenannten No-Name-Produkte. Es galt, Hersteller zu finden, die Produkte speziell für Aldi mit Fantasie-Namen abpackten, die keiner Preisbindung unterlagen. Viele Markenartikler waren anfangs dazu nicht bereit, weil sie negative Reaktionen ihrer Bestandskunden befürchteten und auch tatsächlich erlebten. Aufgrund der raschen Expansion von Aldi und wegen ihrer von Anfang an guten Qualität erreichten diese Aldi-Eigenmarken schnell die Bekanntheit und den Distributionsgrad bekannter Markenartikel. Für Aldi hat dieses Konzept den zusätzlichen Nutzen, dass der Verbraucher nicht eine bekannte Marke kauft, die er genauso gut in jedem anderen Supermarkt erhalten kann, sondern eingestellt wird auf eine Meinung wie beispielsweise „Die Schokolade von Aldi ist gut“. Als Markenware hat Aldi Produkte von Haribo, Ferrero, Coca Cola, Freixenet und der Beiersdorf AG im Sortiment. Lebensmittel. Aldi Nord verkauft erst seit 2004 loses Obst und Gemüse, das – anders als bei Aldi Süd – an der Kasse abgewogen wird. In österreichischen Hofer-Filialen wird seit Anfang 2008 ebenfalls loses Obst und Gemüse angeboten, welches an der Kasse abgewogen wird. Sehr erfolgreich sind Nord und Süd im Kaffeegeschäft: Der gesamte Röstkaffee wird in eigenen Röstereien hergestellt. Aldi Nord lässt "Markus Kaffee" bei der Markus Kaffee GmbH & Co. KG in Weyhe und Herten rösten. Aldi Süd lässt "Amaroy Kaffee" in Röstereien in Mülheim an der Ruhr und in Ketsch produzieren. Aldi hat auch den größten Weinabsatz in Deutschland und ist in vielen anderen Warengruppen ebenfalls Marktführer. Backautomat bei Aldi Süd im Jahr 2010 Ende 2009 wurde bekannt, dass Aldi Süd seine Filialen mit Backautomaten ausrüsten wolle. Der Brotbackautomat gibt Brotprodukte per Knopfdruck heraus. Im Juli 2010 erhob der Zentralverband des Bäckerhandwerks Klage gegen Aldi wegen irreführender Werbung. Kritisiert wurde die Werbung: „Ab sofort backen wir den ganzen Tag Brot und Brötchen für Sie – frisch aus dem Ofen.“ Biosortiment. Aldi Nord und Aldi Süd führen eigene Biomarken, welche die Anforderungen des deutschen staatlichen Bio-Siegels erfüllen. Der Gebrauchsgüterbereich und der Aldi-PC. Der steigende Anteil an Gebrauchsgütern zieht sich seit Anfang der 1990er Jahre wie ein roter Faden durch die Firmengeschichte nicht nur von Aldi, sondern auch von anderen Lebensmittel-Discountern. Im Unterschied zu Lebensmitteln haben Gebrauchsgüter den Charakter kurzzeitiger Aktionsangebote. Mitunter wird im Rahmen einer Themenwoche ein Sortiment artverwandter Artikel angeboten, z. B. ein breites Sortiment an Campingprodukten. Während sich in der Frühzeit der Gebrauchsgüterbereich auf Textilien und Haushaltsgegenstände beschränkte, erweiterte sich das Angebot im Laufe der 1990er Jahre auf Unterhaltungselektronik. Einen Höhepunkt erreichte die Gebrauchsgütersparte durch den sogenannten Aldi-PC, einen in großen Zeitabständen für den Massenmarkt eigens von Aldi in Auftrag gegebenen Personal Computer. Als erster Computer bei Aldi kam der „Aldi-C16“ im Frühjahr 1986 als Set zum Preis von 149 DM in den Handel, wobei das zuerst lediglich ein Abverkauf von Restbeständen von Commodore war, der aber einen Nachfrageboom auslöste. Der erste „Aldi-PC“ wurde 1995 auf den Markt gebracht, zur Zeit des beginnenden Internet-Booms. Auf die ersten Aldi-PCs gab es einen regelrechten Ansturm, da der Bedarf an Consumer-PCs auf dem Markt nicht sofort von den bisher den PC-Markt dominierenden Handelsketten gedeckt werden konnte und der Aldi-PC dank enorm hoher Absatzzahlen preisgünstig verkauft werden konnte. Besonders angesprochen waren dabei in erster Linie Familien mit unterem und mittlerem Einkommen. Der seit Jahren gleiche Handelspartner und Hersteller der meisten technischen Geräte, die es bei Aldi gibt, ist Medion. In den Aldi-Süd-Filialen werden Produkte der Firma Medion nahezu ausnahmslos (außer der PC und Bildschirme) unter der Pseudonym-Marke Tevion angeboten, die eine Eigenmarke von Aldi Süd ist und auch Produkte anderer Hersteller umfasst. Die Aldi-Gruppe ist der achtgrößte Textilvermarkter in Deutschland; in diesem Segment setzt der Discounter – allgemein stagnierenden Verkaufszahlen im Textilbereich zum Trotz – über 1,095 Mrd. € pro Jahr um (2005). Seit 2003/04 bietet auch Aldi Süd in Deutschland Tabakwaren an. Aldi bezieht seine Tabakwaren bei Austria Tabak. Aldi bietet in Deutschland seit Juli 2005 einen Online-Fotoservice, bei dem Papierabzüge von Digitalbildern nach Hause bestellt werden können. Am 7. Dezember 2005 stieg Aldi nach guten Erfahrungen bei "Hofer" in Österreich auch in Deutschland ins Mobilfunkgeschäft ein. Sowohl Aldi Nord als auch Aldi Süd bieten den Kunden in Kooperation mit der Medion-Telefoniesparte "MedionMobile" den Prepaid-Tarif Aldi Talk an. In der Schweiz wird seit 2006 unter "Aldi Suisse mobile" ebenfalls ein No-Frills-Angebot für Mobiltelefonie angeboten. Seit Januar 2007 vermitteln Aldi Nord und Aldi Süd auch in Deutschland und der Schweiz Pauschalreisen. Der ausführende Partner ist das Unternehmen "Berge & Meer", eine TUI-Tochter. Seit 19. April 2013 vermitteln Aldi Nord und Süd in Kooperation mit dem Bonner Busunternehmen Univers auf dem Internetportal "Aldi Reisen" auch Fernbusfahrten. Seit Februar 2008 vertreibt Aldi Nord ein Sortiment von circa 70 Zeitschriften (Tageszeitungen und Illustrierte). Seit April 2008 wird ein Onlinebestellservice von Schnittblumen angeboten, wobei Aldi nur als Vermittler auftritt, den Auftrag wickelt das Unternehmen "fleurfrisch" ab, eine Tochtergesellschaft von Landgard, dem langjährigen Vertragslieferanten der Pflanzenangebote bei Aldi. Die eigentliche Zusammenstellung der Sträuße übernimmt ein von "fleurfrisch" beauftragter Bündelservice, der dafür fast ausschließlich Werkvertrags-Mitarbeiter beschäftigt. Für das Jahr 2008 war auch der Vertrieb von Versicherungen in Kooperation mit Signal Iduna geplant. Nach Protesten des Bundesverbandes Deutscher Versicherungskaufleute zog sich Aldi aus der Kooperation zurück. Aldi Nord/Aldi Süd. Aldi hat keine offizielle PR-Abteilung und gab in der gesamten Unternehmensgeschichte zu keinem Zeitpunkt Geld für externe Marketingagenturen aus. (Karl Albrecht, 1953: „Unsere Werbung liegt im billigen Preis.“) Die wöchentlichen Anzeigen in lokalen Zeitungen sehen seit Jahren gleich aus; sie zeigen die aktuellen Angebote ohne Werbeslogans unter dem Motto „Aldi informiert“. Die Zeitungsanzeigen lösten vorher regelmäßig erscheinende vierseitige Preislisten ab, die teilweise auch an die Haushalte verteilt wurden. Die Zeitungsanzeigen von Nord und Süd wurden vor einigen Jahren größer (seitdem 1/1 Seite) und farbig. Zudem liegen in den Märkten Flugblätter mit den Angeboten der nächsten Woche aus. Sowohl Aldi Süd als auch Aldi Nord haben ganzjährig zwei Aktionen pro Woche, die zu einem mehrseitigen Prospekt zusammengefasst werden. Aldi Nord lässt Prospekte, Flugblätter und Zeitungsanzeigen von einer konzerneigenen Werbeagentur vorbereiten und schalten, die für den Konzern europaweit tätig ist. Vor einigen Jahren versuchte sich Aldi Nord in Sachen Merchandising und bot Aldi-Markt-Bausätze, LKW-Modelle (siehe Foto) und Badetücher in den Aldi-Farben an. Der Erfolg war eher gering. Der Aldi-Markt ist nun aber im Standardprogramm der Firma Faller, und es gibt immer wieder (vor Weihnachten) Faller-Sonderbausätze im Angebot. 2010 verzichtete Aldi in einigen Regionen auf Anzeigen in Tageszeitungen und ließ stattdessen die zweiwöchentlich erscheinende Werbebroschüre kostenlos an alle Haushalte verteilten (Sonntags)zeitungen beilegen. Aldi Nord und Aldi Süd haben seit 2010, bzw. 2011 auch jeweils eine eigene "Aldi-App" für Apple iOS und Google Android in den jeweiligen App-Stores im Angebot. Darüber lassen sich die aktuellen Kundenprospekte aufrufen und Artikel aus dem Angebot in eine Einkaufsliste eintragen. Die Aldi-Prospekte lassen sich parallel auch über andere Einkauf-Apps aufrufen (z. B. MeinProspekt oder Marktjagd). Hofer Österreich. Hofer Österreich bringt seit 2010 Werbespots in österreichischen Privatsendern. Zur Ausgabe Mai 2012 der Zeitschrift "Universum" ließ Hofer einen Extra-Teil "Zurück zum Ursprung" drucken, die Zeitschrift lag in den Filialen zur freien Entnahme aus. Aldi Suisse. Aldi Suisse wirbt wöchentlich in größeren Tageszeitungen mit farbigen Inseraten. Daneben wird im Einzugsgebiet auch wöchentlich ein rund 16-seitiges Reklameheft verteilt, das fast ausschließlich für Non-Food-Produkte wirbt. Kassensystem. Vor der Verbreitung von Scannerkassen war es im Lebensmitteleinzelhandel üblich, jeden Artikel einzeln mit einem Preisetikett auszuzeichnen; dieses wurde von den Kassierern abgelesen und eingegeben. Bei Aldi gab es keine Preisetiketten: Bei Aldi Nord erfolgte die Registrierung der verkauften Artikel früher durch Eingabe einer dreistelligen PLU-Nummer. Bei Aldi Süd wurden die DM-Preise direkt eingegeben; lange Kassenbons ohne Artikelbezeichnung waren für den Kunden schlecht zu kontrollieren. Die Kassierer mussten damals die Preise aller Produkte bzw. die PLU-Nummern mithilfe von bebilderten Sortimentslisten auswendig lernen. Im Laufe der Zeit wurde das Produktsortiment auch bei Aldi größer. Durch die Euro-Bargeldeinführung (Ende 2001 / Anfang 2002) änderten sich sämtliche Preise. Aldi Süd stellte 2000 endgültig komplett auf Scannerkassen um, Aldi Nord Ende 2002. Ein Grund für die späte Einführung war, dass das Eintippen schneller ging als das Scannen mit den Geräten der ersten Generationen ohne omnidirektionalen Laser. Da Aldi größtenteils Eigenmarken vertreibt, war es relativ einfach, den Strichcode auf den Produktverpackungen in unüblichen und teilweise ungenormten Größen sowie in größerer Anzahl auf verschiedenen Seiten der Verpackung zu platzieren. Die meisten Aldi-Verpackungen besitzen daher den EAN-Strichcode (unternehmensinterner verkürzter EAN 8-Code) auf mindestens drei Seiten, als lange Streifen oder als Banderole um die ganze Verpackung herum, wohingegen die Produkte in anderen Supermärkten einen genormten kleineren Strichcode an nur einer Stelle besitzen. Die Kassierer müssen daher Aldi-Artikel viel seltener drehen und wenden, um sie vom Scanner zu erfassen, was den Kassiervorgang beschleunigt. Tests mit der Bezahlung per EC-Karte erfolgten 2004 in Filialen von Aldi Nord. Ab April 2005 folgte die flächendeckende Einführung der Zahlung per EC-Karte bei Aldi Nord und Süd, die bis Ende Oktober 2005 abgeschlossen wurde. Die Umstellung wurde durch das Unternehmen NCR durchgeführt. Im Juni 2015 wurde in allen Filialen von Aldi Nord NFC-fähige Kassenterminals eingeführt. Diese ermöglichen kontaktloses Bezahlen per NFC-fähiger Maestro- oder V-Pay-Debitkarte oder einem NFC-fähigen Smartphone. Für das mobile Bezahlen wird eine sogenannte „Wallet-App“ benötigt. Aldi Nord/Aldi Süd. In der zweiten Jahreshälfte 2005 führte Aldi Nord als Rationalisierungsmaßnahme testweise Leergutautomaten ein. Aldi Süd übernahm dieses System im ersten Quartal 2006. Beide schlossen sich im Zuge dieser Maßnahme dem ILN-System an. Auch die neue Pfandregelung, die am 1. Mai 2006 in Kraft trat, zwang das Unternehmen zu diesem Schritt, da die so genannten „Insellösungen“ beendet wurden. Nach ausgiebigen Tests hat sich Aldi Nord für ein Rücknahmesystem des Herstellers Wincor Nixdorf entschieden, während Aldi Süd eine Entwicklung des Herstellers Tomra Systems vorzog. Bei beiden Geräten kommt ein System zur Anwendung, bei dem die PET-Flaschen unmittelbar nach der Abgabe gepresst werden. Seit Dezember 2014 nimmt die Unternehmensgruppe Aldi Süd Dosengebinde zurück. Die Unternehmensgruppe Aldi Nord nimmt sie erst seit dem 22. März 2015 zurück. Hofer Österreich, Aldi Suisse. Bei Hofer in Österreich werden keine Produkte mit Pfandgebinde verkauft, daher gibt es auch keine Rücknahme. Da in der Schweiz auf Grund der hohen Rücklaufquote kein Pfandsystem existiert, gibt es keine Automaten, dafür eine Sammelstelle am Ladeneingang. Tax Free Shopping. Seit 2006 bietet Aldi Süd in den an der Grenze zur Schweiz gelegenen Filialen ein System zur Rückerstattung der Umsatzsteuerdifferenz für die dort überproportional stark vertretenen Schweizer Kunden an. Jedoch erfolgt keine Barauszahlung, sondern über eine eigens geschaffene "Aldi-Süd-Tax-Free-Karte" eine bargeldlose Überweisung durch die Firma Global Refund. Sie gilt nur für Kunden über 18 Jahren. Anfangs war ein Mindesteinkauf von 40 € obligatorisch. Erstattet (wie bei allen Unternehmen, die sich dem Tax-Free-System angeschlossen haben) wurde aber nur ein Teil der USt. Bei Aldi waren das 75 % (25 % wurden zur Finanzierung des Systems einbehalten). Aldi sah sich jedoch dazu gezwungen (da der konkurrierende Einzelhandel in diesem Gebiet den Schweizer Kunden schon seit Jahren beinahe flächendeckend eine volle Rückerstattung anbietet und der Anteil dieser Kunden in den regionalen Filialen etwa 30 %, an manchen Wochentagen über 50 % beträgt), die 75-%-/40-€-Regelung Ende 2011 aufzuheben. Mittlerweile wird die volle USt. (100 %) erstattet und der Mindesteinkaufsbetrag wurde aufgehoben. Aldi Nord/Aldi Süd. Aldi befolgt bei den Ladenöffnungszeiten die in der Branche üblichen Gepflogenheiten. Manchmal werden Anpassungen vorgenommen. Aldi-Filialen in großen Einkaufszentren haben in der Regel so lange wie die anderen Läden im Zentrum geöffnet. Seit 1. September 2007 schließt Aldi Nord die Filialen samstags um 20 Uhr. Aldi Nord und Süd verlängern seit Herbst 2015 die Öffnungszeiten montags bis samstags teilweise bis 21:00 Uhr. Aldi Suisse. Grundsätzlich orientiert sich Aldi Suisse an die umliegenden Supermärkten – die sich diesbezüglich oft auf kommunaler oder regionaler Ebene zusammenschließen – im Rahmen der üblichen kantonalen Ladenöffnungszeiten. Aldi Suisse-Filialen in Bahnhofsgebäuden haben auf Grund von entsprechenden Ausnahmeregelungen zusätzlich am Sonntag geöffnet. Deutschland. Im gesamten "Lebensmitteleinzelhandel" belegt ALDI in Deutschland den vierten Platz nach Umsatz hinter den Unternehmen Edeka, Rewe, der Schwarz-Gruppe und vor der Metro Gruppe (2010). Mit einem Umsatz im "Textilbereich" von rund 1,071 Mrd. € (2009) liegt ALDI hier derzeit auf Platz 8 der größten Textileinzelhändler Deutschlands. Im Bereich "Gesundheitsprodukte außerhalb der Apotheke" hat ALDI einen Marktanteil von rund 18 % (2005). Laut einer Forsa-Umfrage sind 95 % der Arbeiter, 88 % der Angestellten, 84 % der Beamten und 80 % der Selbständigen Kunden bei Aldi. Nach Informationen der Gesellschaft für Konsumforschung ging der Umsatz im Jahr 2007 erstmals um 1,5 % zurück, und lag bei brutto 27 Mrd €. Der Marktanteil unter den Discountern ging dadurch um 0,6 Prozentpunkte auf 18,9 % zurück. Schweiz. In der Schweiz belegte Aldi Suisse im Detailhandelsmarkt gemäß dem Umsatz 2012 den 5. Platz hinter der Migros, Coop, Denner sowie dem Manor. Der Umsatz betrug geschätzt 1,65 Milliarden Franken. Mitarbeiter. Das Schwarzbuch Markenfirmen wirft Aldi Süd vor, dass eine gewerkschaftliche Organisierung weitgehend vermieden werde, so gebe es keinen Gesamtbetriebsrat. Im April 2004 kündigte Aldi mit sofortiger Wirkung seine bisher wöchentlich erscheinende, ganzseitige Anzeige in der Süddeutschen Zeitung, nachdem diese in einem kleinen Artikel am 7. April 2004 über „schikanöse Arbeitsbedingungen“ und „massive Wahlbehinderungen“ bei der versuchten Gründung der ersten Aldi-Betriebsräte in München berichtet hatte. Durch diesen Boykott entgingen der Zeitung Anzeigen im Gesamtwert von rund 1,5 Millionen Euro. In einer Studie hat das Südwind-Institut Arbeitsrechtsverletzungen in chinesischen und indonesischen Zuliefererbetrieben von Aldi nachgewiesen. Dazu zählen unter anderem eine monatelange Zurückhaltung von Löhnen, Kautionszahlungen von Beschäftigten für Fabrikjobs und Kinderarbeit. Im Februar 2008 trat die Aldi-Gruppe der Business Social Compliance Initiative (BSCI) bei, nachdem für März 2008 die „Kampagne für Saubere Kleidung“ Aktionen in Deutschland für bessere Produktionsbedingungen der Aldi-Textilien in China und Indonesien organisiert hatte. Die Kampagne kritisierte jedoch, dass die BSCI keine unabhängige Verifizierungseinrichtung sei, in der Gewerkschaften und Nichtregierungsorganisationen an führender Stelle vertreten seien. Im Jahr 2009 wies das Südwind-Institut erneut auf unwürdige Arbeitsbedingungen in Aldi-Zuliefererbetrieben hin. Die Arbeitnehmerinnen müssten bis zu 90 Stunden pro Woche arbeiten, Fehler würden mit Geldstrafen geahndet. Die Beschäftigten erhielten keinen Mutterschutz und die Bildung von Gewerkschaften sei ihnen verboten. Auch 2010 wies das Südwind-Institut in einer neu veröffentlichten Studie auf Arbeitsrechtsverletzungen bei Aldi-Zulieferern in China hin. Im April 2008 stand Aldi Nord in der Kritik, weil jährlich 120.000 Euro an die Arbeitsgemeinschaft Unabhängiger Betriebsangehöriger (AUB) geflossen sind. Der Konzern räumte diese Zahlungen ein. Die Betriebsräte vieler Aldi Nord-Regionalgesellschaften sind Mitglied in der AUB, diese selbst steht den Arbeitgebern nahe. Anfang Januar 2013 wurde bekannt, dass Aldi Süd offenbar Mitarbeiter mit versteckten Kameras überwachen lasse. Ein früherer Detektiv des Konzerns berichtete im Nachrichtenmagazin "Der Spiegel", er habe auch über private Angelegenheiten der Beschäftigten Bericht erstatten sollen, insbesondere auch die finanzielle Situation und die Arbeitsgeschwindigkeit. Das Unternehmen wies die Vorwürfe zurück. Mitarbeiter in einem Warenlager in Baden-Württemberg misshandelten 2013 Auszubildende. Missliebige Azubis von Aldi Süd seien im Zentrallager Mahlberg vom stellvertretenden Bereichsleiter und anderen Beschäftigten mit Frischhaltefolie an Pfosten gefesselt worden. Die Aldi-Mitarbeiter hätten dann die Gesichter der Auszubildenden mit Filzstiften beschmiert. Die Folie sei beim Fesseln derart stark gespannt gewesen, dass einer der gefesselten kaum noch atmen konnte. Vorgesetzte hätten die Schikanen beobachtet und gebilligt. Einige mit Smartphones aufgenommene Ausschnitte der Misshandlungen seien auch auf Seiten im Online-Netzwerk Facebook veröffentlicht worden. Dem Auszubildenden sei außerdem angedroht worden, bei weiterem Fehlverhalten in das Tiefkühlabteil des Zentrallagers gesperrt zu werden. Zulieferer. Aldi nutzt seine Marktmacht bei Verhandlungen mit Zulieferern. Aldi erwartet von seinen Lieferanten hingegen keine Zugeständnisse bei sinkenden Verkaufspreisen oder Werbekostenzuschüsse, Jubiläums-Rabatte oder Logistik-Optimierungsrabatte. Umwelt. ALDI Süd kostenlose Elektrotankstelle für Kunden 2015 Im Schwarzbuch Markenfirmen werden Ausbeutung in der Rohstoffgewinnung und Umweltzerstörung als Kritik genannt. Aldi wurde wegen seines unökologischen Angebots billiger Garnelen auf Kosten der Mangrovenwälder kritisiert. 2010 warf die Umweltschutzorganisation Robin Wood der Handelskette vor, dass auch zwei Bücher ihres Angebotes Fasern aus Mangrovenholz enthielten. Im Mai 2004 verkaufte Aldi in einer Sonderaktion Gartenmöbel aus indonesischem Meranti-Holz. Aufgrund von Protesten von Umweltorganisationen und einzelnen Aktivisten, die Aldi aufforderten, sich nicht an der Zerstörung der letzten indonesischen Tropenwälder zu bereichern, erklärte Aldi, in Zukunft nur noch Artikel aus Holz mit FSC-Siegel vermarkten zu wollen. Aldi Süd betreibt bei Filialen welche bereits mit einer Photovoltaik Anlagen ausgerüstet sind gratis Schnellladestationen für Hybride und Elektroautos. Diese Ladestationen liefern eine maximale Leistung von 20KW, der Ladevorgang ist auf die Zeit des Einkaufes mit 60 Minuten maximale Ladedauer beschränkt. 30 Minuten mit 20KW laden bedeutet bis zu 80 Kilometer neue Reichweite. Lebensmittelskandal in Großbritannien. Anfang Februar 2013 wurde bestätigt, dass Rindfleisch-Fertiggerichte wie "Tiefkühllasagne" und "Spaghetti Bolognese", welche auch durch ALDI UK vertrieben wurden, bis zu 100 Prozent Pferdefleisch enthielten. Es handelte sich dabei um Produkte des Unternehmens Findus. Das Pferdefleisch wurde nach Angaben von ALDI UK durch den Lieferanten Comigel aus Rumänien bezogen. Da die Produkte nicht auf Phenylbutazon getestet wurden, empfahl die Britische "Food Standards Agency" Verbrauchern, betroffene und eventuell noch vorhandene Lebensmittel nicht zu verzehren, da der Wirkstoff in der Europäischen Union bei lebensmittelliefernden Tieren verboten ist, aber in der Veterinärmedizin bei Pferden sehr häufig therapeutisch eingesetzt wird. Akkad. Akkad oder Akkade (sumerisch KUR URIKI, A.GA.DEKI) war eine Stadt in Mesopotamien. Im späten 3. Jahrtausend v. Chr. wurde sie unter Sargon von Akkad zum Zentrum seines Reiches erhoben. Dieses wird heute nach seiner Hauptstadt als "Reich von Akkade" bzw. "Akkadisches Großreich" bezeichnet, die entsprechende Periode der mesopotamischen Geschichte "Akkadzeit" (etwa 2340–2200 v. Chr) genannt. Außerdem ist die in verschiedenen Sprachstufen und Dialekten bis ins 1. Jahrhundert n. Chr. belegte semitische Sprache Mesopotamiens nach der Stadt benannt: Akkadisch. Die Lage der Stadt war noch in neubabylonischer und persischer Zeit (6./5. Jahrhundert v. Chr.) bekannt, wurde aber später vergessen und ist auch heute noch nicht bekannt. Lokalisierung. Auf Grund der Tradition, dass Sargon von Akkad vor dem Beginn seiner Herrschaft Mundschenk des Königs von Kiš war, wird Akkad bisweilen in der Nähe von Kiš vermutet (so noch Hans J. Nissen, wenn auch ohne konkreten Lokalisierungsvorschlag). Die Identifizierung mit der Ortslage Ischan Mizyad bei Kiš ließ sich allerdings durch archäologische Ausgrabungen nicht bestätigen. Unter Berufung darauf, dass Akkad nach antiken Quellen zeitweise zum elamischen Herrschaftsgebiet gehörte, neigt man heute eher zu einer nördlicheren Lokalisierung, und zwar am Tigris oberhalb der Einmündung des Diyala und südlich von Aššur. Nachdem eine Lokalisierung im Gebiet des heutigen Bagdad ebenfalls nicht bestätigt werden konnte, nimmt A. Westenholz als einer der besten Kenner der Akkad-Zeit an, dass die Stadt sich unter einem der großen bisher unerforschten Ruinenhügel in der Nähe der Einmündung des Adheim in den Tigris befindet. In dieselbe Richtung weisen auch die Überlegungen von Dietz-Otto Edzard, wonach Akkad im Bereich des „Flaschenhalses“ zu suchen sei, d. h. der Gegend, in der Euphrat und Tigris einander am nächsten kommen. Geschichte der Stadt und ihres Großreichs. Die erste Erwähnung der Stadt stammt aus der Zeit von Enschakuschanna von Uruk, einem Herrscher, der etwa eine Generation älter war als Sargon von Akkad. Enschakuschanna benannte eines seiner Regierungsjahre nach der Plünderung von Akkad. Daraus ergibt sich, dass Sargon entgegen älteren Ansichten die Stadt nicht selbst gegründet hat; vielmehr war Akkad vor Sargon sogar schon so bedeutend, dass seine Plünderung in eine Jahresbezeichnung aufgenommen wurde. Akkadisches Großreich um 2300 v. Chr. Sargon von Akkad war nach alten Traditionen „Mundschenk“ (hoher Beamtentitel, nicht Diener bei Tisch) des Königs von Kiš, bevor er selbst – wahrscheinlich durch den Sturz seines ehemaligen Herrn – König wurde. Indem er siegreiche Kriege gegen Lugal-Zagesi von Uruk führte, der eine Art Oberherrschaft über das südliche Mesopotamien, darunter auch über Kiš, innehatte, unterwarf er sich ein größeres Herrschaftsgebiet, das er zu einem zentral verwalteten Staat zusammenfasste. Dass er das außerhalb der alten Kulturzentren liegende Akkad zum Mittelpunkt dieses Reiches machte, also nicht eine der alten sumerischen Königsstädte, hängt damit zusammen, dass sein Zentralstaat gegenüber den älteren sumerischen Stadtstaaten etwas Neues sein sollte. Daher empfahl sich eine Residenz, in der keine älteren stadtstaatlichen Traditionen lebendig waren. Zugleich ist wohl davon auszugehen, dass Sargon selbst in Akkad bzw. seiner Umgebung familiär verwurzelt war. Von dort aus konnte er sich, gestützt auf Verwandte und andere Vertrauensleute, etwa Befreundete seines Stammes, eine Hausmacht aufbauen. Die aus Sargons Königsinschriften bekannte Nachricht, dass er in seinem gesamten Herrschaftsgebiet „Söhne von Akkad“ zu Statthaltern einsetzte, ist aus solchen Erwägungen verständlich. Indem er Vertrauensleute über die unterworfenen Gebiete einsetzte, schuf er eine enge Verbindung zwischen dem Herrschaftszentrum und den einzelnen zum Reich gehörigen Gebieten. Dass Sargon Akkad zur zentralen Hauptstadt ausbaute, geht auch aus der Mitteilung hervor, dass er Schiffe, die Waren aus fernen Ländern herbeibrachten, in Akkad vor Anker gehen ließ. Offensichtlich hat er in Akkad, das selbst bei der südlicheren Lokalisierung in der Nähe von Kiš hunderte von Kilometern vom Meer entfernt lag, einen Hafen angelegt, um das „Einfuhrmonopol“ (Hans J. Nissen) der neuen Hauptstadt gegenüber den älteren sumerischen Städten des Südens zu sichern. Die damit verbundene Bedeutung der Hauptstadt ergibt sich, wenn man bedenkt, wie wichtig der Fernhandel für das rohstoffarme Mesopotamien gewesen ist. Sargons Staatsgründung war erfolgreich: Sein Reich wurde nach ihm noch von vier seiner Nachkommen in drei Generationen regiert: Es folgten ihm seine Söhne Rimuš und Maništušu, sein Enkel Naram-Sin, der nach Sargon selbst der bedeutendste König des Reiches von Akkad war, sowie dessen Sohn Šar-kali-šarri, der bis ca. 2200 v. Chr. herrschte (siehe auch: Liste der Könige von Akkad). Die zentralstaatliche Ordnung hat zweifellos zum Erfolg des Reiches beigetragen, allerdings haben alle akkadischen Könige gegen den Widerstand regionaler Kräfte kämpfen müssen. Bekannt ist etwa die große Revolte gegen Naram-Sin, die von den alten Königsstädten Ur und Kiš angeführt wurde, und die dieser offenbar mit äußerster Kraftanstrengung niederkämpfte. Sein Sieg hinterließ einen solch starken Eindruck, dass der König noch zu Lebzeiten göttliche Ehren als Stadtgott von Akkad zugesprochen bekam. Unter Naram-Sins Sohn Šar-kali-šarri zerfiel die Zentralgewalt aber immer mehr, nach seinem Tode kämpften verschiedene Kandidaten um die Königsherrschaft, und die innere Anomie ermöglichte es den Gutäern, die aus dem Zāgros-Gebirge ins mesopotamische Flachland einfielen, das Reich zu vernichten. Sie errichteten daraufhin eine Herrschaft, die sich in der Tradition der Könige von Akkad sah. Jedenfalls bezeichnete der Gutäerkönig Erridu-pizir in einer Inschrift den Familiengott der altakkadischen Dynastie als seinen Gott. Nimrod war der erste „Gewaltige“ auf der Erde, also der erste Großkönig. Dass hinter der Nimrod-Figur Erinnerungen an einen mesopotamischen Gott oder König stehen, wird allgemein zugegeben, wobei umstritten ist, an welche konkrete Gestalt zu denken sei. Die plausibelste These sieht darin eine Erinnerung an Naram-Sin von Akkad, dessen Name vielleicht zu „Nimrod“ verballhornt wurde. Einer der wichtigsten Könige des ersten mesopotamischen Großreiches wäre damit in der geschichtlichen Erinnerung zum ersten Großkönig überhaupt geworden, und diese Erinnerung hätte sich noch nach vielen Jahrhunderten bei den Nachbarvölkern der Mesopotamier erhalten. Andere Beispiele für das historische Nachleben des Reiches von Akkad sind spätere Erzählungen über Sargon von Akkad und Naram-Sin, die in Mesopotamien, aber auch bei den Hethitern entstanden bzw. überliefert wurden. Was die Geschichte der Stadt nach dem Ende des Akkadischen Großreichs angeht, so zeigen Inschriften aus der Zeit der dritten Dynastie von Ur, dass Akkad immer noch Sitz eines Provinz-Gouverneurs war. Im Prolog des Codex Hammurapi erscheint es als Kultzentrum der altbabylonischen Zeit. König Nabonid von Babylon (555-539 v. Chr.) ließ Ausgrabungen in der Gegend des alten Akkad vornehmen, bei denen u. a. eine Inschrift des altakkadischen Königs Naram-Sin zu Tage kam. Die letzte antike Erwähnung der Stadt findet sich in einem Dokument aus der Zeit des Perserkönigs Dareios I. (522-486 v. Chr.). Archäologie der Akkad-Zeit. Die bisher wichtigsten Fundorte der Akkad-Zeit sind die "Provinzresidenz" in Tell Brak, der "alte Palast" in Aššur, eine komplexere Siedlungsstruktur in Tell Asmar, die Städte Susa und Ninive. Die gefundenen Tontafeln geben Aufschluss über die Herrscher Akkads und ihre Regierungszeiten. In Ninive wurde die Bronzeplastik des Kopfes eines unbekannten akkadischen Herrschers gefunden, die Aufschluss über die künstlerischen Fertigkeiten jener Zeit gibt. In Susa wurde unter anderem die Siegesstele des Naram-Sin gefunden, die wie der Bronzekopf und verschiedene Rollsiegel von der Kunstfertigkeit der Akkad-Zeit zeugen. Kunst und Handwerk der Akkad-Zeit unterscheiden sich stark von den vorhergehenden und den nachfolgenden Dynastien. Rollsiegel tragen detailliertere, individuellere und anatomisch korrektere Darstellungen. Das vorher verbreitete Kleidungsstück, der Zottenrock, wurde mehr und mehr zur Bekleidung der Götter, die menschlichen Figuren trugen nun einfache glatte Gewänder. Bisher liegen kaum Funde aus der Akkad-Zeit vor, die Aufschlüsse über Architektur oder Lebensweise geben. Versuche, die Geschichte der Epoche auf verschiedenen Ebenen (politisch, sozial …) zu rekonstruieren, müssen sich daher weitgehend auf Textquellen stützen. Ein weiteres Problem liegt darin, dass die meisten bisher entdeckten Fundstücke im 2. Jahrtausend v. Chr. als Beutestücke nach Susa verschleppt wurden und daher nicht mehr in ihrem ursprünglichen Kontext stehen. Akkadische Sprache. Akkadisch ist eine ausgestorbene semitische Sprache, die stark vom Sumerischen beeinflusst wurde. Sie wurde bis ins erste nachchristliche Jahrhundert in Mesopotamien und im heutigen Syrien verwendet, in den letzten Jahrhunderten zunehmend vom Aramäischen verdrängt und diente zuletzt nur noch als Schrift- und Gelehrtensprache. Ihre Bezeichnung ist vom Namen der Stadt Akkad abgeleitet. Akkadisch war parallel mit dem Aramäischen Volks- und Amtssprache in Mesopotamien sowie zeitweise die Sprache der internationalen Korrespondenz in Vorderasien bis nach Ägypten. Ihre beiden wichtigsten Dialekte waren Babylonisch und Assyrisch. Das Eblaitische wird von den meisten Forschern als nächster Verwandter des Akkadischen betrachtet. Klassifikation. Mit den übrigen semitischen Sprachen gehört das Akkadische zu den afroasiatischen Sprachen, einer Sprachfamilie, die in Vorderasien und Nordafrika beheimatet ist. Innerhalb der semitischen Sprachen bildet das Akkadische eine eigene „ostsemitische“ Untergruppe. Es unterscheidet sich von nordwest- und südsemitischen Sprachen durch die Wortstellung Subjekt-Objekt-Verb (SOV), während die beiden anderen Zweige zumeist eine Verb-Subjekt-Objekt- oder Subjekt-Verb-Objekt-Stellung verwenden. Diese Wortstellung geht auf den Einfluss des Sumerischen zurück, das ebenfalls eine SOV-Stellung hat. Daneben verwendet das Akkadische als einzige semitische Sprache die Präpositionen "ina" (Lokativ, also dt. in, an, bei, mit) und "ana" (Dativ-Allativ, also dt. für, zu, nach). Viele benachbarte, nordwestsemitische Sprachen, wie das Arabische und das Aramäische, haben stattdessen "bi/bə" (Lokativ) bzw. "li/lə" (Dativ). Die Herkunft der akkadischen Ortspräpositionen ist ungeklärt. Im Gegensatz zu den meisten übrigen semitischen Sprachen hat das Akkadische nur einen Frikativ, nämlich "ḫ". Es hat sowohl den glottalen als auch die pharyngalen Frikative verloren, die für die übrigen semitischen Sprachen typisch sind. Die Sibilanten (Zischlaute) des Akkadischen waren zumindest bis zur altbabylonischen Zeit (ca. 19. Jahrhundert v. Chr.) ausschließlich Affrikaten. Schrift. Silbenz. (SZ) "ḫi",2 = WZ „Wassergraben“,3 = SZ "aʾ",4 = SZ "aḫ, eḫ, iḫ, uḫ",5 = SZ "kam",6 = SZ "im",7 = SZ "bir") Altakkadisch ist auf Tontafeln seit etwa 2600 v. Chr. überliefert. Es wurde mit der von den Sumerern übernommenen Keilschrift geschrieben. Im Unterschied zum Sumerischen wurde diese jedoch im Akkadischen zu einer voll ausgebildeten Silbenschrift weiterentwickelt. Der Logogramm-Charakter dieser Schrift trat in den Hintergrund. Dennoch verwendete man vor allem bei sehr häufig gebrauchten Wörtern wie „Gott“, „Tempel“, u. a. auch weiterhin die entsprechenden Logogramme. So kann das Zeichen "AN" z. B. einerseits als Logogramm für „Gott“ stehen, andererseits den Gott An bezeichnen und auch als Silbenzeichen für die Silbe "-an-" verwendet werden. Daneben kommt das gleiche Zeichen als Determinativ für Götternamen zur Anwendung. Das Beispiel 4 in der Abbildung rechts zeigt eine andere Eigenart des akkadischen Keilschriftsystems. Viele Silbenzeichen haben keinen eindeutigen Lautwert. Manche, wie z. B. "AḪ", differenzieren ihren Silbenvokal nicht. Auch in der anderen Richtung gibt es keine eindeutige Zuordnung. Die Silbe "-ša-" wird beispielsweise mit dem Zeichen "ŠA", aber auch mit dem Zeichen "NÍĜ" wiedergegeben, oft sogar innerhalb eines Textes wechselnd. Sprachentwicklung. Das Altakkadische, das bis zum Ende des dritten vorchristlichen Jahrtausends verwendet wurde, unterscheidet sich sowohl vom Babylonischen wie auch vom Assyrischen und wurde von diesen Dialekten verdrängt. Bereits im 21. Jahrhundert v. Chr. waren diese beiden späteren Hauptdialekte deutlich unterscheidbar. Altbabylonisch ist, wie auch das ihm nahestehende Mariotische, deutlich innovativer als das etwas archaische Altassyrische und das sprachlich und geografisch entferntere Eblaitische. So findet sich im Altbabylonischen erstmals die Form "lu-prus" (ich will entscheiden), statt des ältere "la-prus". Dennoch hat auch Assyrisch eigene Neuerungen entwickelt, wie z. B. die „assyrische Vokalharmonie“, die jedoch nicht mit den Harmoniesystemen im Türkischen oder Finnischen zu vergleichen ist. Das Eblaitische ist sehr archaisch, es kennt noch einen produktiven Dual sowie ein nach Fall, Zahl und Geschlecht differenziertes Relativpronomen. Beides ist bereits im Altakkadischen verschwunden. Altbabylonisch ist die Sprache König Hammurapis, der den in heutiger Zeit nach ihm benannten Codex Hammurapi, einen der ältesten Gesetzestexte der Welt, schuf. Ab dem 15. Jahrhundert v. Chr. spricht man von „Mittelbabylonisch“. Die Trennung ist dadurch bedingt, dass die Kassiten um 1550 v. Chr. Babylon eroberten und über 300 Jahre lang beherrschten. Sie gaben zwar ihre Sprache zugunsten des Akkadischen auf, beeinflussten die Sprache jedoch. In der Blütezeit des Mittelbabylonischen galt es in der gesamten Alten Welt des Orients, einschließlich Ägyptens, als Schriftsprache der Diplomatie. In diese Zeit fällt auch die Übernahme zahlreicher Lehnwörter aus nordwestsemitischen Sprachen und aus dem Hurritischen. Diese waren jedoch nur in den Grenzregionen des akkadischen Sprachgebiets gebräuchlich. Auch das Altassyrische entwickelte sich im zweiten vorchristlichen Jahrtausend weiter. Da es jedoch eine reine Volkssprache war – die Könige schrieben Babylonisch –, sind nur wenige umfangreiche Texte aus dieser Zeit überliefert. Man spricht von „Mittelassyrisch“ bei dieser Sprache von etwa 1500 v. Chr. an. Im 1. Jahrtausend v. Chr. wurde das Akkadische mehr und mehr als Amtssprache verdrängt. Zunächst bestanden ab etwa 1000 v. Chr. Akkadisch und Aramäisch parallel als Amtssprachen. Das wird auf vielen Abbildungen deutlich, auf denen ein Tontafelschreiber Akkadisch schreibt und ein Papyrus- oder Lederschreiber Aramäisch. Auch die zeitgenössischen Texte zeigen dies. Man spricht ab dieser Zeit von „Neuassyrisch“ bzw. „Neubabylonisch“. Ersteres erhielt im 8. Jahrhundert v. Chr. einen großen Aufschwung durch den Aufstieg des Assyrischen Reichs zur Großmacht. Im Jahre 612 v. Chr. wurde die Stadt Ninive und damit das assyrische Reich zerstört. Von da an gab es nur noch etwa zehn Jahre lang spärliche assyrische Texte. Nach dem Ende der mesopotamischen Reiche, das durch die Eroberung des Gebiets durch die Perser kam, wurde Akkadisch, das dann nur noch in Form des „Spätbabylonischen“ existierte, als Volkssprache verdrängt, jedoch als Schriftsprache weiterhin verwendet. Auch nach dem Einmarsch der Griechen unter Alexander dem Großen im 4. Jahrhundert v. Chr. konnte sich die Sprache als Schriftsprache behaupten. Vieles deutet jedoch darauf hin, dass zu dieser Zeit Akkadisch als gesprochene Sprache bereits ausgestorben war oder zumindest nur noch in sehr kleinem Umfang verwendet wurde. Die jüngsten Texte in akkadischer Sprache stammen aus der Mitte des dritten nachchristlichen Jahrhunderts. Entzifferung. Die akkadische Sprache wurde erst wiederentdeckt, als der Deutsche Carsten Niebuhr in dänischen Diensten 1767 umfangreiche Abschriften von Keilschrifttexten anfertigen konnte und in Dänemark präsentierte. Sofort begannen die Bemühungen, die Schrift zu entschlüsseln. Besonders hilfreich waren dabei mehrsprachige Texte, die unter anderem altpersische und akkadische Teile hatten. Dadurch, dass zahlreiche Königsnamen in diesen Texten vorkamen, konnte man zumindest einige Keilschriftzeichen identifizieren, die 1802 von Georg Friedrich Grotefend der Öffentlichkeit vorgestellt wurden. Bereits damals erkannte man, dass Akkadisch zu den semitischen Sprachen gehört. Der endgültige Durchbruch in der Entzifferung der Schrift und damit im Zugang zur akkadischen Sprache gelang in der Mitte des 19. Jahrhunderts Henry Rawlinson. Dialekte. Die folgende Tabelle enthält zusammenfassend die bisher sicher identifizierten Dialekte des Akkadischen. Einige Wissenschaftler (z. B. Sommerfeld (2003)) nehmen weiterhin an, dass das in den ältesten Texten verwendete „Altakkadisch“ keine Vorform der späteren Dialekte Assyrisch und Babylonisch war, sondern ein eigener Dialekt, der jedoch von diesen beiden verdrängt wurde und früh ausstarb. Das Eblaitische in Nordsyrien (in und um Ebla) wird von manchen Forschern als ein weiterer akkadischer Dialekt betrachtet, meistens jedoch als eigenständige ostsemitische Sprache. Phonetik und Phonologie. Da das Akkadische als gesprochene Sprache ausgestorben ist und über die Aussprache keine zeitgenössischen Aufzeichnungen gemacht wurden, lässt sich die exakte Phonetik und Phonologie nicht mehr erforschen. Jedoch können aufgrund der Verwandtschaft zu den übrigen semitischen Sprachen und auch der Varianten der Schreibungen innerhalb des Akkadischen einige Aussagen getroffen werden. Konsonanten. Die folgende Tabelle gibt die in der akkadischen Keilschriftverwendung unterschiedenen Laute wieder. Die IPA-Zeichen stellen die nach Streck 2005 vermutete Aussprache dar. In Klammern dahinter folgt die Transkription, die in der Fachliteratur für diesen Laut anzutreffen ist, sofern sie sich vom Lautschrift-Zeichen unterscheidet. Diese Transkription wurde für alle semitischen Sprachen von der Deutschen Morgenländischen Gesellschaft (DMG) vorgeschlagen und daher als DMG-Umschrift bezeichnet. Für die Lateralaffrikate /š/ wird von einigen Wissenschaftlern eine frikativische Aussprache (oder) vermutet. Vokale. Daneben wird von den meisten Akkadologen die Existenz eines hinteren mittleren Vokals (o oder) vermutet. Die Keilschrift bietet hierfür jedoch kaum Evidenz. Alle Konsonanten und Vokale kommen kurz und lang vor. Konsonantenlänge wird durch Doppeltschreibung des betreffenden Konsonanten ausgedrückt, Vokallänge durch einen Querstrich über dem Vokal (ā, ē, ī, ū). Dieser Unterschied ist phonemisch, d. h. bedeutungsunterscheidend, und wird auch in der Grammatik ausgenutzt, z. B. "iprusu" (dass er entschied) vs. "iprusū" (sie entschieden). Betonung. Über die Betonung im Akkadischen ist nichts bekannt. Zwar gibt es einige Anhaltspunkte, wie die Vokaltilgungsregel, die im Folgenden kurz beschrieben wird, sowie einige Schreibungen in der Keilschrift, die eine Hervorhebung bestimmter Vokale darstellen könnten, jedoch konnte bisher keine Betonungsregel bewiesen werden. Das Akkadische kennt eine Regel, die kurze (und wahrscheinlich unbetonte) Vokale löscht. Dies geschieht nicht mit Vokalen in der letzten Silbe von Wörtern und auch nur in offenen Silben, die einer anderen offenen Silbe mit kurzem Vokal folgen. Offene Silben sind dabei solche, die auf einen Vokal enden. Beispielsweise lautet das Verbaladjektiv (Partizip II) des Verbs "prs" (entscheiden, trennen) in seiner weiblichen Form "paris-t-um" (-t zeigt das feminine Geschlecht an, -um ist die Nominativ-Endung). Das /i/ wird nicht getilgt, da es sich in einer geschlossenen Silbe (/ris/) befindet. In seiner männlichen Form heißt es jedoch "pars-um", da in der zugrundeliegenden Form /pa.ri.sum/ das /i/ in einer offenen Silbe steht und auf eine kurze offene Silbe (/pa/) folgt. In den späteren Sprachstufen des Akkadischen ist daneben eine generelle Tilgung kurzer Vokale im Wortauslaut zu beobachten. Allgemeines. Wie alle semitischen Sprachen verwendet auch das Akkadische die sogenannte Wurzelflexion. Die „Wurzel“ eines Wortes, die seine Grundbedeutung beinhaltet, besteht in der Regel aus drei Konsonanten, den sogenannten Radikalen. Die Radikale oder Wurzelkonsonanten werden in der Transkription manchmal mit großen Buchstaben wiedergegeben, z. B. "PRS" (entscheiden, trennen). Zwischen und um diese Wurzelkonsonanten werden im Akkadischen verschiedene Infixe, Präfixe und Suffixe gesetzt, die grammatikalische und wortbildende Funktionen besitzen. Das Konsonant-Vokal-Muster, das sich ergibt, differenziert die Grundbedeutung der Wurzel. Der mittlere Wurzelkonsonant (Radikal) kann einfach oder verdoppelt (gelängt) sein. Dieser Unterschied ist ebenfalls bedeutungsdifferenzierend. Beispiele hierfür finden sich im Abschnitt „Verbmorphologie“. Die Konsonanten "ʔ", "w", "j" und "n" werden als „schwache Radikale“ bezeichnet. Wurzeln, die diese Radikale enthalten, bilden unregelmäßige Stammformen. Dieses morphologische System unterscheidet sich deutlich von dem der indoeuropäischen Sprachen. Im Deutschen ändert sich beispielsweise die Wortbedeutung grundlegend, wenn man einzelne Vokale austauscht, z. B. „Rasen“ vs. „Rosen“. Kasus, Numerus und Genus. Das Akkadische hat zwei grammatische Geschlechter, "männlich" und "weiblich". Weibliche Substantive und Adjektive haben meistens ein "-(a)t" am Ende des Stamms. Das Kasussystem ist einfach. Es beinhaltet im Singular drei Kasus (Nominativ, Genitiv und Akkusativ), im Plural jedoch nur zwei Kasus (Nominativ und Obliquus). Adjektive kongruieren in Kasus, Numerus und Genus mit dem Bezugswort und folgen diesem in der Regel. Wie man sieht, unterscheiden sich die Endungen für Substantive und Adjektive nur im männlichen Plural. Einige Substantive, vor allem geografische Begriffe wie „Stadt“, „Feld“ u. ä. können im Singular zusätzlich einen Lokativ auf "-um" bilden. Dieser ist jedoch anfangs nicht produktiv und die resultierenden Formen stellen erstarrte adverbiale Bestimmungen dar. In neubabylonischer Zeit wird der "um"-Lokativ immer häufiger und ersetzt in vielen Formen die Konstruktion mit der Präposition "ina". In späteren Entwicklungsstufen des Akkadischen ist, außer im Lokativ, zunächst die sogenannte Mimation (analog mit der Nunation, die im Arabischen auftritt), also das "-m", das in den meisten Kasusendungen auftritt, entfallen. Später fielen im Singular der Substantive Nominativ und Akkusativ zu "-u" zusammen. Im Neubabylonischen trat ein Lautwandel ein, durch den kurze Vokale im Wortauslaut verschwanden. Damit entfiel die Unterscheidung der Kasus außer bei den männlichen Nomen im Plural. In vielen Texten wurden die Kasusvokale jedoch weiterhin geschrieben, dies jedoch nicht konsequent und oft auch falsch. Da die wichtigste Kontaktsprache des Akkadischen in dieser Zeit das Aramäische war, das ebenfalls über keine Kasusunterscheidung verfügt, war diese Entwicklung wohl nicht nur phonologisch bedingt. Status. Das akkadische Substantiv besitzt drei verschiedene Status. Sie drücken die syntaktische Beziehung des Substantivs zu anderen Satzteilen aus. Der "status rectus" (regierter Status) ist dabei die Grundform. Der "status absolutus" (absoluter Status) wird verwendet, wenn das Substantiv in einem Nominalsatz (z. B. "A ist ein B") als Prädikat verwendet wird. Folgt einem Substantiv ein Possessivsuffix oder ein Substantiv im Genitiv, so muss es im "status constructus" stehen, der oft genau wie der Status absolutus durch Abtrennen des Kasussuffixes gebildet wird. Eine Genitivverbindung kann jedoch auch mit der Partikel "ša" hergestellt werden. Das Substantiv, von dem die Genitivphrase abhängt, steht dabei im Status rectus. Die gleiche Partikel wird auch zur Anknüpfung von Relativsätzen verwendet. Verbmorphologie. Bei den Verben werden vier Stämme unterschieden. Der Grundstamm (G-Stamm) ist die nicht-abgeleitete Form. Mit dem Dopplungsstamm (D-Stamm) werden Applikativ-, Kausativ- oder Intensivformen gebildet. Er erhielt seine Bezeichnung von der Dopplung des mittleren Radikals, die für D-Formen typisch ist. Die gleiche Dopplung tritt jedoch auch im Präsens der übrigen Stammformen auf. Der Š-Stamm (Stammbildungselement "š-") wird für Kausative verwendet. Im D- und Š-Stamm ändern die Konjugationspräfixe ihren Vokal in /u/. Der N-Stamm drückt Passiv aus. Das Stammbildungselement "n-" wird dabei an den folgenden ersten Konsonanten der Wurzel angeglichen, der dadurch gelängt wird (vgl. Bsp. 9 in der folgenden Tabelle). In einigen Formen steht es jedoch nicht direkt vor dem Konsonanten, wodurch die ursprüngliche Form /n/ erhalten bleibt (vgl. Bsp. 15). Jeder der vier Stämme kann neben der normalen Verwendung einen Reflexiv- und einen Iterativstamm bilden. Die Reflexivstämme werden mit einem Infix "-ta-" gebildet. Daher werden sie auch Gt-, Dt-, Št- bzw. Nt-Stamm genannt, wobei der Nt-Stamm nur von sehr wenigen Verben gebildet wird. Für die Iterativstämme verwendet man ein Infix "-tan-", das jedoch nur im Präsens sichtbar ist. Die übrigen Zeitformen und Ableitungen der sog. "tan"-Stämme Gtn, Dtn, Štn und Ntn lauten wie die entsprechenden Formen der Reflexivstämme. Von vielen Verben lassen sich auf diese Weise theoretisch viele tausend Formen bilden. Diese äußerst umfangreiche Verbmorphologie ist eines der besonderen Merkmale der semitischen Sprachen. Die folgende Tabelle zeigt einen kleinen Ausschnitt aus der Formenvielfalt der Wurzel "PRS" (entscheiden, trennen). Eine finite Verbform des Akkadischen beinhaltet obligatorisch die Kongruenz zum Subjekt des Satzes. Diese wird stets durch ein Präfix, in einigen Formen zusätzlich durch ein Suffix realisiert. Wie bereits erwähnt, unterscheiden sich die Präfixe des G- und N-Stamms von denen im D- und Š-Stamm durch ihren Vokal. In der folgenden Tabelle werden die einzelnen Kongruenzformen des Verbs "PRS" (entscheiden, trennen) im Präteritum der vier Stämme dargestellt (Übersetzung siehe Tabelle oben). Wie man sieht, werden die beiden grammatische Geschlechter nur in der 2. Person Singular und in der 3. Person Plural unterschieden. Zusätzlich zur Subjektskongruenz können bis zu zwei pronominale Suffixe an das Verb antreten, die dann das direkte und das indirekte Objekt markieren. Diese Pronominalsuffixe sind in allen Verbstämmen gleich. Anders als bei den Kongruenzmorphemen werden die beiden grammatischen Geschlechter in der 2. und 3. Person sowohl im Singular als auch im Plural unterschieden. Wenn sowohl direktes als auch indirektes Objekt pronominal markiert werden, geht das indirekte Objekt (Dativ) dem direkten (Akkusativ) voraus. Die Suffixe für das indirekte Objekt der 1. Person Singular (‚mir‘, ‚für mich‘) entsprechen den Ventiv-Suffixen. Dabei steht "-am", wenn die Subjektskongruenz ohne Suffix auftritt, "-m" nach dem Suffix "-ī" und "-nim" nach den Suffixen "-ā" und "-ū". Die Ventiv-Suffixe treten oft zusammen mit anderen Dativ-Suffixen oder mit den Suffixen der 1. Person Singular Akkusativ auf. Das "-m" der Dativsuffixe assimiliert sich dabei an folgende Konsonanten, vgl. Bsp. (7) unten. Die folgenden Beispiele illustrieren die Verwendung der beschriebenen Morpheme. Stativ. Eine sehr oft auftretende Form, die sowohl von Nomen, von Adjektiven als auch von Verbaladjektiven gebildet werden kann, ist der Stativ. Angefügt an prädikativ verwendete Substantive (im Status absolutus) entspricht diese Form dem Verb "sein" im Deutschen. Verbunden mit einem Adjektiv oder Verbaladjektiv wird ein Zustand ausgedrückt. Eine direkte Entsprechung hat der Stativ als Pseudopartizip im Ägyptischen. Die folgende Tabelle enthält am Beispiel des Nomens "šarrum" (König), des Adjektivs "rapšum" (breit) und des Verbaladjektivs "parsum" (entschieden) die einzelnen Formen. Dabei kann "šarr-āta" sowohl „du warst König“, „du bist König“, als auch „du wirst König sein“ bedeuten, der Stativ ist also von Zeitformen unabhängig. Wortbildung. Neben der bereits erläuterten Möglichkeit der Ableitung verschiedener Verbstämme verfügt das Akkadische über zahlreiche Nominalbildungen aus den Verbwurzeln. Eine sehr häufig auftretende Nominalisierung ist die sogenannte "ma-PRaS"-Form. Sie kann den Ort eines Geschehens, die Person, die die Handlung ausführt, aber auch viele andere Bedeutungen ausdrücken. Ist einer der Wurzelkonsonanten (Radikale) ein labialer Laut (p, b, m), so wird das Präfix zu "na-". Beispiele hierfür sind: "maškanum" (Stelle, Ort) von "ŠKN" (setzen, stellen, legen), "mašraḫum" (Pracht) von "ŠRḪ" (prachtvoll sein), "maṣṣarum" (Wächter) von "NṢR" (bewachen), "napḫarum" (Summe) von "PḪR" (zusammenfassen). Eine sehr ähnliche Bildung ist die "maPRaSt"-Form. Die Nomen, die dieser Nominalbildung entstammen, sind grammatisch weiblichen Geschlechts. Für die Bildung gelten die gleichen Regeln wie für die maPRaS-Form, z. B. "maškattum" (Depositum) von "ŠKN" (setzen, stellen, legen), "narkabtum" (Wagen) von "RKB" (reiten, fahren). Zur Ableitung abstrakter Nomen dient das Suffix "-ūt". Die Substantive, die mit diesem Suffix gebildet werden, sind grammatisch weiblich. Das Suffix kann sowohl an Substantive, Adjektive, als auch an Verben angefügt werden, z. B. "abūtum" (Vaterschaft) von "abum" (Vater), "rabûtum" (Größe) von "rabûm" (groß), "waṣūtum" (Weggang) von "WṢJ" (weggehen). Auch Ableitungen von Verben aus Substantiven, Adjektiven und Zahlwörtern sind zahlreich. Zumeist wird aus der Wurzel des Nomens oder Adjektivs ein D-Stamm gebildet, der dann die Bedeutung „X werden“ oder „etwas zu X machen“ besitzt, z. B. "duššûm" (sprießen lassen) von "dišu" (Gras), "šullušum" (etwas zum dritten Mal tun) von "šalāš" (drei). Präpositionen. Das Akkadische verfügt über Präpositionen, die aus einem einzigen Wort bestehen (z. B. "ina" (in, an, aus, durch, unter), "ana" (zu, für, nach, gegen), "adi" (bis), "aššu" (wegen), "eli" (auf, über), "ištu/ultu" (von, seit), "mala" (gemäß), "itti" (mit, bei)). Daneben gibt es jedoch einige mit "ina" und "ana" zusammengesetzte Präpositionen (z. B. "ina maḫar" (vor), "ina balu" (ohne), "ana ṣēr" (zu … hin), "ana maḫar" (vor … hin)). Unabhängig ihrer Komplexität stehen alle Präpositionen mit dem Genitiv. Beispiele: "ina bītim" (im Haus, aus dem Haus), "ana … dummuqim" (um … gut zu machen), "itti šarrim" (beim König), "ana ṣēr mārīšu" (zu seinem Sohn). Zahlwörter. Da in der Keilschrift die Zahlen zumeist als Zahlzeichen geschrieben werden, ist die Lautung vieler Zahlwörter noch nicht geklärt. In Kombination mit etwas Gezähltem stehen die Kardinalzahlwörter im Status absolutus. Da andere Fälle sehr selten sind, sind die Formen des Status rectus nur von vereinzelten Zahlwörtern bekannt. Die Zahlwörter 1 und 2 sowie 21-29, 31-39, 41-49 usw. kongruieren mit dem Gezählten im grammatischen Geschlecht. Die Zahlwörter 3-20, 30, 40 und 50 zeigen eine Genuspolarität, d. h. vor männlichen Substantiven steht die weibliche Form des Zahlworts und umgekehrt. Diese Polarität ist typisch für die semitischen Sprachen und tritt z. B. auch im klassischen Arabisch auf. Die Zahlwörter 60, 100 und 1000 lauten in beiden Geschlechtern gleich. Mit den Zahlwörtern ab zwei steht das Gezählte in der Mehrzahl. Bei paarweise vorhandenen Körperteilen kann eine Dualform (Zweizahl) beobachtet werden, die jedoch nicht mehr produktiv gebildet werden kann, z. B. "šepum" (Fuß) wird zu "šepān" (zwei Füße). Die Ordnungszahlen werden bis auf wenige Ausnahmen durch Anfügen einer Kasusendung an die Nominalform "PaRuS" gebildet, wobei P, R und S durch die entsprechenden Konsonanten des Zahlwortes ersetzt werden müssen. Besonders auffällig ist, dass im Fall der Eins die Ordnungszahl und die Kardinalzahl gleichlauten. Bei der Vier tritt eine Metathese (Lautvertauschung) ein. Die folgende Tabelle enthält die männlichen und weiblichen Formen des Status absolutus einiger akkadischer Kardinalzahlen, sowie die entsprechenden Ordnungszahlen. Beispiele: "erbē aššātum" (vier Ehefrauen) (männliches Zahlwort!), "meʾat ālānū" (einhundert Städte). Nominalphrase. Außer den Zahlwörtern stehen alle Ergänzungen, die einem Substantiv angefügt werden, nach diesem Substantiv. Das betrifft sowohl Adjektive, Relativsätze als auch Appositionen. Zahlwörter hingegen gehen dem Gezählten voraus. In der folgenden Tabelle wird die Nominalphrase "erbēt šarrū dannūtum ša ālam īpušū abūja" (die vier starken Könige, die die Stadt gebaut haben, meine Väter) analysiert. Satzsyntax. Verbformen von Nebensätzen, die mit einer Konjunktion eingeleitet sind, tragen das Subordinativ-Suffix "-u", das jedoch entfällt, wenn ein anderes mit einem Vokal beginnendes Suffix antritt. Die einzige Konjunktion, die stets ohne Subordinativ in der Verbform auftritt, ist "šumma" (wenn, falls). Die Gründe dafür sind noch nicht geklärt. Einige weitere Konjunktionen sind "ša" (für Relativsätze), "kī(ma)" (dass, sodass, nachdem, als, sobald, wie), "ūm" (als, sobald, während), "adi" (solange bis), "aššum" (weil). In Nominalsätzen wird im Akkadischen keine Kopula verwendet, d. h. kein Verb wie das deutsche "sein". Stattdessen steht das prädikativ gebrauche Substantiv oder Adjektiv im Stativ, wie zum Beispiel in "Awīlum šū šarrāq." (‚Dieser Mann ist ein Dieb.‘). Wortschatz. Der akkadische Wortschatz ist großenteils semitischen Ursprungs. Bedingt durch den sprachgeschichtlichen Sonderstatus der Sprache, dessentwegen man sie auch in eine eigene Untergruppe „Ostsemitisch“ einordnet, gibt es aber selbst im Grundwortschatz relativ viele Elemente ohne offensichtliche Parallelen in den verwandten Sprachen, z. B. "māru" „Sohn“ (semitisch sonst *"bn"), "qātu" „Hand“ (semit. sonst *"jd"), "šēpu" „Fuß“ (semit. sonst *"rgl"), "qabû" „sagen“ (semit. sonst *"qwl"), "izuzzu" „stehen“ (semit. sonst *"qwm"), "ana" „zu, für“ (semit. sonst *"li"), etc. Durch den intensiven Sprachkontakt zunächst zum Sumerischen und später zum Aramäischen besteht der akkadische Wortschatz zu einem Teil aus Lehnwörtern aus diesen Sprachen. Die aramäischen Lehnwörter waren dabei in den ersten Jahrhunderten des 1. Jahrtausends v. Chr. hauptsächlich auf Nord- und Mittelmesopotamien beschränkt, während die sumerischen Lehnwörter im gesamten Sprachgebiet verbreitet waren. Neben den genannten Sprachen wurden einige Substantive aus dem Reit- und Haushaltswesen aus dem Hurritischen und aus dem Kassitischen entlehnt. Einige wenige Lehnwörter entstammen dem Ugaritischen. Aufgrund der im Vergleich zu nichtsemitischen Sprachen sehr verschiedenen Wortstruktur war es den Akkadern nicht möglich, sumerische oder hurritische Verben in die semitische Wurzelflexion zu übernehmen. Aus diesem Grund wurden aus diesen Sprachen nur Substantive und einige Adjektive entlehnt. Da jedoch das Aramäische und das Ugaritische ebenfalls zu den semitischen Sprachen gehören und daher auch über eine Wurzelflexion verfügen, konnten aus diesen Sprachen einige Verben, aber auch viele Nomina übernommen werden. Die folgende Tabelle enthält Beispiele für Lehnwörter im Akkadischen. Aber auch das Akkadische war Quelle von Entlehnungen, vor allem ins Sumerische. Einige Beispiele sind: sum. "da-rí" (dauernd, von akk. "dāru"), sum. "ra-gaba" (Berittener, Bote, von akk. "rākibu"). Beispieltext. Der folgende kleine Text ist der Paragraph 7 des Codex Hammurapi, der etwa im 18. Jahrhundert v. Chr. verfasst wurde. Die Abkürzungen "St.cs." und "St.abs." stehen für „Status constructus“ bzw. „Status absolutus“. Übersetzung: ‚Wenn ein Bürger aus der Hand des Sohnes eines anderen Bürgers oder eines Sklaven eines Bürgers ohne Zeugen oder Vertrag Silber, Gold, einen Sklaven, eine Sklavin, ein Rind, ein Schaf, einen Esel oder irgendetwas anderes kauft oder in Verwahrung nimmt, ist dieser Bürger ein Dieb und wird getötet.‘ Assyrisch. Das Adjektiv assyrisch bezieht sich auf Assur. Andere Schreibweisen sind Aššur, Aschschur und Aschur. Aioli. Selbstgemachte Aioli nach valencianischem Rezept aus Knoblauch, Salz, Eigelb und Olivenöl Aioli oder Allioli (frz.: "Aïoli"; aus dem Okzitanischen bzw. Katalanischen "all i oli", „Knoblauch und Öl“) ist eine aus dem Mittelmeerraum stammende kalte Creme, die vor allem aus Knoblauch, Olivenöl und Salz besteht. Aioli wird als Vorspeise mit Brot oder Oliven sowie als Beigabe zu Fleisch, Fisch und Gemüse serviert. Zubereitung. Bei der traditionellen Aioli, die nur aus Knoblauch und Öl besteht, werden Knoblauchzehen in einem Mörser zerrieben. Dann wird Öl in dünnem Strahl unter fortwährendem Rühren mit dem Stößel hinzugegeben, bis eine zähflüssige Creme entstanden ist. Wird zu viel oder zu schnell Öl hinzugegeben, kann sich die Emulsion wieder trennen und die Aioli gerinnen. Als Emulgator werden deshalb auch Milch, ein Stückchen gekochte Kartoffel oder Eigelb beigegeben. In der klassischen Küche wird die Aioli aus mit hartgekochtem Eigelb fein zerstoßenem Knoblauch, unter das wie bei einer Mayonnaise Öl aufgezogen wird, zubereitet und mit Zitronensaft und Cayennepfeffer abgeschmeckt. Ein Rezept zur Aioli wurde erstmals im Jahr 1024 schriftlich festgehalten. Die Sauce wird aber bereits länger zubereitet. Aus der Aioli entstanden durch Verfeinerungen und Rezeptzugaben zahlreiche Varianten. Am bekanntesten ist heute die Variante aus Maó (spanisch "Mahón") auf Menorca. Häufig ist zu lesen, dies sei die Urversion der französischen Mayonnaise. Diese Auffassung lässt sich aber durch seriöse Quellen nicht belegen. Die Etymologie des Wortes Mayonnaise ist völlig unklar, es gibt mehrere Deutungen. Aioli ist aber auch ein typisch provenzalisches Gericht: gedünstete Kartoffeln, Karotten und grüne Bohnen, dazu Seeschnecken und ein Stück Fischfilet (klassisch ist gewässerter Stockfisch aus Kabeljau) und die oben beschriebene Aioli. Apulien. Apulien (ital. "Puglia" oder oft im Plural "Puglie"; lat. "Apulia") ist eine in Südost-Italien gelegene Region mit der Hauptstadt Bari. Sie hat Einwohner (Stand). Die Halbinsel Salento im Süden Apuliens bildet den sogenannten „Absatz“ des „italienischen Stiefels“. Geografie. Die Region erstreckt sich entlang des Adriatischen und des Ionischen Meers. Mit der Punta Palascìa erreicht die Küste bei Otranto den östlichsten Punkt Italiens, der nur noch 80 km von der albanischen Küste entfernt ist. Das Gebiet besteht zu 53,3 % aus Ebenen, zu 45,3 % aus Hügelland und zu 1,5 % aus Gebirge. Damit ist Apulien die flachste Region Italiens. Die Landschaften teilen sich von Norden nach Süden in die bergige Halbinsel Gargano mit den vorgelagerten Tremiti-Inseln, der ebenen Tavoliere delle Puglie, der anschließenden Ebene Terra di Bari, der Kalkhochebene der Murge, der Küstenebene von Tarent und des Valle d'Itria, das die südlichste Region, die größtenteils ebene Halbinsel Salento abschließt. Das einzige Gebirge, die Monti della Daunia bilden die Grenze zu Kampanien und erreichen im Monte Cornacchia 1152 m Höhe. Das Klima bietet milde Winter und heiße Sommer. Politik. Seit 2005 ist Nichi Vendola (SEL) Präsident Apuliens. Provinzen, Metropolitanstadt und Städte. Apulien besteht aus den Provinzen Foggia, Barletta-Andria-Trani, Tarent, Brindisi, Lecce und der Metropolitanstadt Bari. Die 2004 gegründete Provinz Barletta-Andria-Trani wurde erst mit den Wahlen zur Provinzversammlung am 6. und 7. Juni 2009 geschäftsfähig. In der Region gibt es die folgenden Städte und größeren Orte. Bari ist mit einer Agglomeration von fast 600.000 Einwohnern die Metropole Apuliens und nach Neapel die zweitgrößte Stadt Süditaliens. Quelle: ISTAT Wirtschaft. Im Vergleich mit dem BIP der EU ausgedrückt in Kaufkraftstandards erreicht die Region Apulien einen Index von 71,6 (EU-25:100) (2003). Stahlindustrie. Die riesige Stahlfabrik ILVA des Riva-Konzern in Tarent stellt 30 % des italienischen Stahls her und beschäftigt 20.000 Menschen. Es ist die größte Anlage dieser Art in Europa. Wegen massiver Umweltbelastungen mit vielen Todesfällen in der Region sind allerdings Teile der Anlage zur Zeit stillgelegt und der italienische Staat übernahm die Kontrolle über den wichtigsten Arbeitgeber in der Region. Landwirtschaft. In den fruchtbaren Küstenebenen gedeihen Mandeln, Oliven, Getreide und Tomaten. Apulien ist ein wichtiges Weinbaugebiet mit vorwiegend gehaltvollen Rotweinen. Wichtige Rebsorten sind Primitivo, Negroamaro und Sangiovese. Auf einer Anbaufläche von 107.571 Hektar wird eine Gesamtproduktion von 7.580.000 Hektolitern (DOC-Produktion: 259.900 hl) erzeugt. Bekannte Weinbau-Regionen sind die Gebiete um das Castel del Monte, Canosa di Puglia, Locorotondo und Foggia. Flughäfen. Apulien bildete luftfahrthistorisch das Sprungbrett Italiens in den Orient. Aus diesem Grund gibt es in dieser Region eine starke Konzentration von Zivil- und Militärflugplätzen. Die Betreibergesellschaft Aeroporti di Puglia betreibt neben dem Flughafen von Bari auch den Verkehrsflughafen Brindisi-Casale sowie die Flugplätze von Tarent und Foggia. Der Flughafen von Bari ist zusammen mit dem Flughafen Brindisi-Casale der wichtigste in der Region Apulien, Tarent und Foggia haben hingegen nur regionale beziehungsweise lokale Bedeutung. Der Flughafen Bari liegt acht Kilometer nordwestlich von Bari, der Hauptstadt der Region Apulien. Er wurde Ende 2005 nach dem bürgerlichen Namen des verstorbenen Papstes Johannes Paul II. "Karol Wojtyla" benannt. Zurzeit wird ein zweites Terminal gebaut. Argentinien. Argentinien (spanisch) ist eine Republik im Süden Südamerikas, dem Südkegel. Der Name kommt vom lateinischen Wort für Silber – "argentum" – und liefert einen Hinweis darauf, welche Schätze die Eroberer auf seinem Territorium zu finden glaubten. Bis zu seiner Unabhängigkeit 1816 war es Teil des spanischen Kolonialreiches. Gemessen an der Fläche ist es der achtgrößte Staat der Erde und der zweitgrößte des südamerikanischen bzw. der viertgrößte des amerikanischen Doppelkontinentes. Die Fläche von knapp 2,8 Mio. km² macht Argentinien zum größten spanischsprachigen Land der Welt. Wegen seiner großen Nord-Süd-Ausdehnung hat das Land Anteil an mehreren Klimazonen und Vegetationszonen. Im Hinblick auf die Einwohnerzahl nimmt es mit ca. 43 Millionen Einwohnern Platz drei in Südamerika und den fünften Rang in ganz Amerika ein. Die Hauptstadt des Landes, Buenos Aires, ist Zentrum eines der größten Ballungsräume auf dem amerikanischen Kontinent und wird als eines seiner größten Kulturzentren angesehen, in dem unter anderem der Tango Argentino seinen Ursprung hat. Im Gegensatz dazu sind weite Teile des Landes, insbesondere der trockene Süden, nur sehr dünn besiedelt. Politisch handelt es sich bei Argentinien um eine präsidentielle Bundesrepublik, in der die einzelnen Gliedstaaten, Provinzen genannt, weitreichende Kompetenzen innehaben. Wirtschaftlich wird es traditionell von der Landwirtschaft bestimmt und international oft zu den Schwellenländern gezählt; laut dem von den Vereinten Nationen erhobenen Human Development Index zählt es seit 2011 jedoch zu den "sehr hoch entwickelten" Staaten. Es gehört unter den unabhängigen südamerikanischen Staaten gemeinsam mit Chile und Uruguay (Südkegel) zur Spitzengruppe in Hinblick auf das Pro-Kopf-Bruttoinlandsprodukt (Kaufkraftparität). Die Einkommensungleichheit (Gini-Koeffizient) lag 2009 im weltweiten Vergleich relativ hoch, aber immer noch unter dem Durchschnitt der lateinamerikanischen Staaten. Naturraum. Argentinien hat eine Fläche von 2,78 Millionen km² und ist damit nach Brasilien der zweitgrößte Staat Südamerikas. Die Ausdehnung von Norden nach Süden beträgt 3694 km, die von Westen nach Osten an der breitesten Stelle circa 1423 km. Es grenzt im Osten an den Atlantischen Ozean, im Norden an Bolivien und Paraguay, im Nordosten an Brasilien und Uruguay; ihre jeweils längste gemeinsame Grenze bilden Chile und Argentinien im Westen des Landes. Das gesamte westliche Grenzgebiet wird von den Anden eingenommen, der längsten kontinentalen Gebirgskette der Erde. Der zentrale Norden Argentiniens wird vom Gran Chaco, einer heißen Trockensavanne, eingenommen. Östlich davon schließt sich entlang des Río Paraná das Hügelland der Provinz Misiones an. Dort befinden sich am Dreiländereck Argentinien–Paraguay–Brasilien die Iguazú-Wasserfälle; sie sind etwa 2,7 Kilometer breit und zählen zu den größten der Erde. Südlich davon, zwischen den großen Strömen Río Paraná und Río Uruguay, liegt das feuchte und sumpfige Mesopotamia. Am Río de la Plata, dem gemeinsamen Ästuar dieser beiden Ströme, liegen die Stadt Buenos Aires und die gleichnamige Provinz Buenos Aires, das wirtschaftliche Herz Argentiniens. Hier konzentriert sich auch etwa ein Drittel der Einwohner des Landes. Westlich und südlich von Buenos Aires erstrecken sich die Pampas, eine grasbewachsene Ebene, wo der größte Teil der Agrarprodukte des Landes erzeugt wird. In dieser Region befinden sich große Weizenfelder und Weideflächen für Rinder; die Ausfuhr von Rindfleisch ist jedoch seit 2005 von 771.000 Tonnen auf 190.000 Tonnen als Folge von Exportverboten und -beschränkungen der linkspopulistischen Regierung eingebrochen. Zwischen den Pampas und den Anden liegen im zentralen Argentinien die Gebirgszüge der Sierras Pampeanas. Diese Mittelgebirge erreichen Höhen von 2800 m in den Sierras de Córdoba und bis zu 6250 m in der Sierra de Famatina in La Rioja. Das im Süden Argentiniens gelegene Patagonien ist von starken Westwinden geprägt und hat ein sehr raues Klima. Dieses Gebiet, das etwa ein Viertel der Fläche des Landes ausmacht, ist sehr dünn besiedelt. Der tiefste Punkt des Landes und Gesamtamerikas ist die Laguna del Carbón mit 105 m unter dem Meeresspiegel. Sie befindet sich zwischen Puerto San Julián und Comandante Luis Piedra Buena in der Provinz Santa Cruz. Ein etwa 60 km langer Abschnitt der Grenze zu Chile, der sich im Südpatagonischen Eisfeld befindet, ist nicht als klar gezogene Grenze markiert, sondern wird von einer zwischen den beiden Staaten vereinbarten besonderen Zone eingenommen. Von Argentinien wird ein Sektor des antarktischen Kontinents beansprucht; dieser Anspruch kollidiert jedoch mit dem Antarktisvertrag, der seit 1961 in Kraft ist. Gebirge und Berge. In den argentinischen Anden gibt es viele über 6000 m hohe Berge. Zu ihnen zählen der höchste Berg des amerikanischen Kontinents, der Aconcagua mit 6962 m Höhe und die beiden höchsten Vulkane der Erde, der Ojos del Salado mit 6880 m und der Monte Pissis mit 6795 m. In den Südanden sind die Berge weniger hoch; viele sind wegen des feuchtkalten Klimas stets schneebedeckt. Auch in den Sierras Pampeanas werden teilweise sehr große Höhen gemessen: Die "Sierra de Famatina" in der Provinz La Rioja erreicht ebenfalls über 6000 m. Die Höhen dieses Gebirgskomplexes fallen jedoch nach Osten hin ab, in den Sierras de Córdoba werden nur noch maximal 2800 Meter erreicht. Die nördlichen "Patagoniden" (Mesetas Patagoniens) weisen im Südosten von Mendoza immerhin noch 4700 m Höhe auf, ihre Höhe nimmt nach Südosten hin ab. In den anderen Gebieten Argentiniens erreichen die Berge nur in Ausnahmefällen über 1000 m Höhe. Darunter fallen die "Sierras Australes Bonaerenses" (Sierra de la Ventana und Sierra de Tandil) an der Atlantikküste und das Hügel- und Bergland von Misiones. Flüsse und Seen. Argentiniens Hydrologie wird von den Zuflüssen des Río de la Plata dominiert. Sein Einzugsgebiet umfasst etwa 5.200.000 km². Etwa ein Drittel hiervon liegt in Argentinien, der Rest in Bolivien, Brasilien, Paraguay und Uruguay. Zuflüsse des Río de la Plata sind der Río Paraná und der Río Uruguay. Im Norden an der Grenze zu Brasilien befindet sich der Iguazú-Nationalpark. Darin der Fluss Iguazú mit den Iguazú-Wasserfällen, welche dreimal so groß wie die Niagarafälle sind. Das zweitgrößte Einzugsgebiet hat der Río Colorado in Nordpatagonien, dessen größter Zufluss, der Río Salado del Oeste, einen Großteil Westargentiniens entwässert, wobei jedoch ein Großteil seines Wasservolumens wegen des trockenen Klimas bereits auf dem Weg verdunstet oder in Sumpfgebieten versickert. Argentinien weist zwei größere Seengebiete auf. Das umfangreichste liegt am Fuß der Südanden, wo sich eine lange Kette von Schmelzwasserseen von der Provinz Neuquén bis nach Feuerland erstreckt. Daneben finden sich in der westlichen zentralen Pampa und im südlichen Chaco zahlreiche Flachlandseen, die teilweise nur wenige Meter tief und oft salzhaltig sind. Der Flachlandsee Mar Chiquita mit 5770 km² in der Provinz Córdoba sowie die Andenseen Lago Argentino (1415 km²) und Lago Viedma (1088 km²) liegen im Nationalpark Los Glaciares, der zum UNESCO-Welterbe erklärt wurde. Dort befindet sich auch der Gletscher Perito Moreno. Inseln. Argentinien hat trotz seiner lang gestreckten Küstenlinie nur wenige Inseln. Die größte ist die zum Archipel Feuerland gehörende Isla Grande de Tierra del Fuego mit 47.020 km², die sich Argentinien (Provinz Tierra del Fuego, 21.571 km²) und Chile (25.429 km²) teilen. Das einzige weitere Inselgebiet von Bedeutung ist der Süden der Provinz Buenos Aires, wo sich in den Buchten Bahía Blanca und Bahía Anegada zwei ausgedehnte Wattenmeere befinden. Die Inseln dort sind flach und mit Ausnahme der "Isla Jabalí", auf der der Badeort "San Blas" liegt, unbewohnt. Größte Insel ist die Isla Trinidad mit 207 km². Des Weiteren gibt es vor der patagonischen Küste einige kleinere Felseninseln. Völkerrechtlich umstrittenes Territorium sind die Falklandinseln (auch "Malwinen", englisch "Falkland Islands", spanisch "Islas Malvinas"), eine Inselgruppe im südlichen Atlantik. Sie gehören geographisch zu Südamerika, liegen 600 bis 800 km östlich von Südargentinien und Feuerland bei 52° Süd und 59° West und sind britisches Überseegebiet. Seit 1833 werden sie von Argentinien beansprucht. Die Besetzung der Inseln durch Argentinien am 2. April 1982 löste den Falklandkrieg aus, der bis zum 14. Juni 1982 dauerte und mit einer Niederlage für Argentinien endete. Die größten Inseln der Falkland Islands sind Ostfalkland (Soledad) mit 6683 km² und Westfalkland (Gran Malvina) mit 5278 km². Unter demselben Status befindet sich das südöstlich von den Falklandinseln gelegene Territorium Südgeorgien und die Südlichen Sandwichinseln. Klima. Argentinien hat von tropischen Gebieten im äußersten Nordosten über subtropische im restlichen Norden und eine ausgedehnte gemäßigte Klimazone bis hin zu kalten Klimaregionen im Süden und in den Anden nahezu alle Klimazonen in einem Land vereint. Der Nordwesten Argentiniens ist im Bereich der Anden trocken mit einer kurzen Regenzeit im Sommer. In ihr findet man die Hochwüste Puna, deren Westen zu den regenärmsten Gebieten der Welt zählt, sowie den steppenhaften, unfruchtbaren Monte am Fuß der Anden in den Provinzen Mendoza, San Juan und La Rioja. Die Osthänge der Voranden beherbergen subtropische Nebelwälder in den Provinzen Tucumán, Salta und Jujuy, die im Sommer wegen des Abregnens der feuchten Ostwinde sehr niederschlagsreich, im Winter aber relativ trocken sind. Nach Osten hin schließt sich der Gran Chaco im zentralen Norden an, seine Niederschläge konzentrieren sich auf den Sommer, das Gleiche gilt für die Region der Sierras Pampeanas in Zentralargentinien. In beiden Regionen nehmen die Niederschläge nach Westen hin ab. Der Nordosten sowie die Pampa-Region sind das ganze Jahr über feucht, wobei die höchsten Niederschlagsmengen im subtropischen Regenwald der Provinz Misiones auftreten. Der Süden (Patagonien) liegt in der Westwindzone, weshalb hier der westliche Teil mehr Niederschläge als der Osten erhält. Die Anden sind ständig feucht und von der Temperatur kühl gemäßigt. Sie wirken als Barriere für die feuchten Pazifikwinde, so dass das östlich anschließende patagonische Schichtstufenland sehr trocken und halbwüstenhaft ist. In dieser Region bestimmt der regelmäßig alle ein bis zwei Wochen vom Südwesten her blasende Pampero-Wind das Klima. Ein Sonderfall ist das Klima im südlichen Teil Feuerlands mit kühlem ozeanischem Klima, wo wegen der dort fehlenden Klimascheide der Anden sowohl pazifische als auch atlantische Einflüsse das Wetter bestimmen. Dort sind die Niederschlagsmengen relativ hoch und die Temperaturen weisen eine relativ geringe Abweichung zwischen Sommer und Winter auf. Flora und Fauna. Entsprechend den sehr unterschiedlichen Klimazonen Argentiniens variieren auch die Vegetation und die Tierwelt sehr stark. Insgesamt sind etwa zwölf Prozent der Landfläche bewaldet. Flora. In den warmfeuchten tropischen und subtropischen Regenwäldern im Norden gedeihen tropische Pflanzen, wie Rosenhölzer "(Dalbergia)", Guajakholzbäume "(Guaiacum officinale)", Palisander "(Jacaranda mimosifolia)" und Quebracho-Bäume "(Schinopsis lorentzii)", aus denen Gerbsäure gewonnen wird, aber auch Palmen. Der Gran Chaco, ebenfalls im Norden Argentiniens, verfügt über eine savannenartige Vegetation, welche von den Algarrobo-Bäumen (hauptsächlich "Prosopis alba" und "Prosopis nigra") dominiert wird, Quebracho kommt auch vor. Der Süden und Osten des Chaco mit seinem milderen Klima wird intensiv landwirtschaftlich genutzt, während der Norden noch weitgehend ursprünglich ist. Die Pampa ist geprägt von ausgedehnten Graslandschaften mit verschiedensten Gräsern. Von Eukalyptus "(Eucalyptus)", amerikanischen Platanen "(Platanus occidentalis)" und Akazien "(Acacia)" abgesehen, finden sich hier keine Bäume; die ersteren beiden Gattungen sind nicht heimisch. Aufgrund des sehr feinen steinfreien Bodens ist eine landwirtschaftliche Bebauung gut möglich, so dass sich nur noch wenig ursprüngliche Vegetation erhalten hat. Patagonien liegt schon im Schatten der Anden und ist eine karge und weitestgehend baumlose Landschaft. Hier herrschen wie in der Pampa auch die Gräser vor, die Vegetation ist aber den wesentlich trockeneren Gegebenheiten angepasst. Daneben findet man verschiedenste krautige Gewächse und Sträucher. Wegen des steinigen Bodens ist Getreideanbau nicht möglich, stattdessen werden die Graslandschaften als Schafweide genutzt. In den Vorgebirgen der Anden und auf Feuerland finden sich ausgedehnte Nadelwälder mit Fichten "(Picea)", Zypressen "(Cypressus)", Kiefern "(Pinus)", Zedern "(Cedrus)" und anderen Nutzhölzern. Nahe der chilenischen Grenze gibt es vereinzelte Gruppen von Scheinbuchen "(Nothofagus)". Die Baumgrenze liegt bei etwa 3500 m. In den trockenen nördlichen Hochlagen der Anden finden sich in den ariden Halbwüsten viele Kakteengewächse (Cactaceae) und Dornsträucher. Die Blüte des Ceibos (Hahnenkammbaum oder Korallenbaum) ist als sogenannte „nationale Blume“ eines der Nationalsymbole. Fauna. Guanakos – eine Wildform des Lamas Im tropischen Norden ist die Tierwelt äußerst vielfältig. Hier kann man hauptsächlich verschiedene Affenarten, Jaguare, Pumas, Ozelots, Waschbären, Nasenbären, Ameisenbären, aber auch Tapire, Nabelschweine und Reptilien wie Schlangen und Kaimane antreffen. Die Vogelwelt beherbergt im tropischen Norden Kolibris, Flamingos, Tukane und Papageien. In den Flüssen sind neben vielen anderen Fischen auch Piranhas zu finden. In der Pampa findet man Gürteltiere, Mähnenwölfe, Pampasfüchse, Pampaskatzen, Pampashirsche, Nandus, verschiedene Greifvögel wie Falken sowie Reiher. In den kargen Gebieten der Anden trifft man auf die wilden Lamas, Guanakos und Vikunjas, sowie auf den Andenkondor, der zu den größten Vögeln der Welt gehört. Raubtiere sind die Bergkatze, der Puma und der Andenschakal. An Salzseen finden sich häufig Zugvögel wie Flamingos. In Patagonien und Feuerland ist das Tierleben artenärmer. Auch hier leben Pumas, Nandus und Guanakos; der Patagonischer Huemul und Pudú (ein kleiner Hirsch) sind der südlichen Anden. Auf Feuerland nisten zudem Kormorane und Magellanspecht. Die patagonischen Küsten beherbergen Magellanpinguine und Kolonien von Südamerikanischen Seebären und Mähnenrobben. Die Küstengewässer Argentiniens beherbergen unter anderem Südkaper, Orcas und Commerson-Delfine, daneben Seehechte, Sardinen, Makrelen und Dorados. Bevölkerung. Es wird geschätzt, dass mehr als 25 Millionen Argentinier mindestens einen italienischen Ahnen haben. Italiener sind eine der größten Einwanderergruppen Argentiniens. Argentinien hat eine Bevölkerung von etwa 43 Millionen Einwohnern (laut dem "CIA World Factbook" mit Stand von Juli 2014). Dies entspricht einer Bevölkerungsdichte von 15,5 Einwohnern/km². Etwa 87 % der Bevölkerung leben in "Städten" von mehr als 2000 Einwohnern, wovon allein 11,5 Millionen auf die Agglomeration Gran Buenos Aires entfallen. Diese hat eine Bevölkerungsdichte von 2.989 Einwohnern/km². Die Stadt und die gesamte Provinz Buenos Aires zusammen haben 16,6 Millionen, die Provinzen Córdoba und Santa Fe jeweils ca. drei Millionen, so dass in diesen drei im zentralen Teil des Landes gelegenen Provinzen zusammen mehr als 60 % der Bevölkerung leben. Weite Teile des übrigen Landes sind dagegen sehr dünn besiedelt, vor allem im trockenen Süden, wo nur etwa ein bis drei Einwohner/km² leben. Ethnische Gruppen. Mehr als 90 % der Bevölkerung stammen nach der offiziellen Statistik von eingewanderten "Europäern" ab, hiervon etwa 36 % von Italienern, circa 29 % von Spaniern und etwa 3–4 % von Deutschen. Im Raum Buenos Aires sowie in den Provinzen Chaco und Misiones spielt auch die polnische Kultur eine Rolle. Hierbei handelt es sich um Nachkommen polnischer Emigranten aus den 1920er Jahren. Bis Anfang der 1990er Jahre ging man von einem Anteil der Mestizen – Nachfahren sowohl von Europäern als auch von Indianern – unter 10 % aus. Nach neueren Berechnungen ist deren Anteil jedoch weitaus höher. Diese Diskrepanz kommt vermutlich daher, dass die Mestizen früher unter einer starken Diskriminierung zu leiden hatten und sich daher als „Weiße“ ausgaben. Familie im Norden von Argentinien Indianische Bevölkerung. Nur eine Minderheit der Argentinier sind Nachkommen von insgesamt 30 Ethnien, die vor dem Eintreffen der Spanier auf dem Landesterritorium lebten. Dies liegt einerseits daran, dass Argentinien vor der Kolonialzeit nur im Nordwesten dicht bevölkert war, zum anderen auch daran, dass die verbleibenden Indianer von den Spaniern und später von den Argentiniern weitgehend ausgerottet wurden. Vom staatlichen Indianerinstitut "INAI" wird die Zahl der Indianer auf etwa 1 Million, von Seiten der Indianerorganisationen wie der "AIRA" (Asociación de Indígenas de la República Argentina) jedoch auf mehr als 1,5 Millionen geschätzt. In einem Sonderzensus des INDEC, der im Jahr 2004 durchgeführt wurde, wurde ermittelt, dass etwa 2,8 % aller argentinischen Haushalte indigene Haushaltsmitglieder haben. Dieser Anteil variiert allerdings von Provinz zu Provinz stark. So ist in der Provinz Jujuy der Anteil mit 10,5 % am größten. Am niedrigsten ist der Anteil in der Provinz Corrientes mit 1,0 %, in der Hauptstadt Buenos Aires beträgt er 2,3 %. Die größten Gruppen sind die Kollas in Jujuy und Salta, die Mapuche (Araukaner) in Neuquén und Río Negro sowie die Wichí und Toba im Chaco und in Formosa. Nur eine Minderheit der Indianer lebt in ihren angestammten Siedlungsgebieten, viele sind in die Großstädte übergesiedelt, wo sie oft unter ärmlichen Bedingungen als schlecht bezahlte Arbeiter leben. So gibt es in Rosario und Resistencia Viertel, die nur von Toba-Indianern bewohnt werden, dasselbe gilt für Kollas in San Salvador de Jujuy und San Miguel de Tucumán. Seit den 1980er Jahren erstarken innerhalb dieser Stämme Bewegungen, die traditionelle Kultur gezielt zu erhalten und verbreiten, etwa über Radiostationen und an Schulen. Zuwanderung und Auswanderung. Die Zahl der Ausländer lag bei der Volkszählung 2001 bei 1.531.940 (4,2 % der Bevölkerung), dabei sind die größten Gruppen Paraguayer (325.046), Bolivianer (233.464), Italiener (216.718) und Chilenen (212.429). Den höchsten Anteil von im Ausland Geborenen haben die Provinz Santa Cruz (12 %), die Stadt Buenos Aires sowie Tierra del Fuego (beide 11 %). Historisch gesehen wurde die größte Einwanderungswelle zwischen 1880 und 1930 verzeichnet, fast ausschließlich aus Europa. Danach flachte die Migration nach Argentinien immer weiter ab, abgesehen von einem kurzzeitigen Wiederaufflammen zur Zeit des Zweiten Weltkrieges. Nach einer Phase negativen Wanderungssaldos zwischen 1975 und 2001 ist die Bilanz seit der Argentinienkrise derzeit wieder leicht positiv. Heute wandern vor allem Bürger der Nachbarländer Bolivien, Paraguay und Uruguay sowie aus dem südamerikanischen Staat Peru nach Argentinien ein. Zu Zeiten der Pinochet-Diktatur fand die Einwanderung auch aus Chile statt, dies hat sich jedoch aufgrund der Redemokratisierung und des mittlerweile höheren Lebensstandards des Nachbarlandes nach 2001 umgekehrt. Insgesamt kommen etwa 68 % der Einwanderer aus amerikanischen Staaten. Etwa 2 % aller Einwanderer kommen aus Asien (hauptsächlich Koreaner). Seit den 1990er Jahren findet man immer mehr Einwanderer aus Europa, die hauptsächlich wegen der unberührten Natur hierher ziehen. Im Unterschied zu den anderen Einwanderern weisen sie meist schon eine gesicherte Existenz auf oder sind Rentner, versuchen also durch den Umzug ihre Lebensqualität zu erhöhen. Andere Ausländergruppen (besonders Italiener und Spanier) sind noch lebende Einwanderer der Hauptwelle (bis 1950). Europäer repräsentieren etwa 28 % der Ausländer. Seit der Argentinien-Krise zwischen 1998 und 2002 sind vermehrt Emigrationswellen aufgetreten. Argentinier verließen das Land in Richtung Europa und Nordamerika, in geringeren Maßen auch nach Brasilien und Chile. Diese Emigrationswelle ist jedoch aufgrund der relativ schnellen Erholung der argentinischen Wirtschaft weitgehend abgeebbt. Religion. Argentinien hat seit dem 20. Mai 1955 keine Staatsreligion mehr, welche davor die römisch-katholische Konfession war. Katholizismus genießt nach der Verfassung aber einen bevorzugten Status. Etwa 76,5 % der Bevölkerung sind römisch-katholischen Glaubens. Neben dem Katholizismus bestehen offiziell über 2500 registrierte Kulte und Religionen. Darunter Protestantismus (9 %), Zeugen Jehovas (ca. 1,2 %), und andere (ca. 1,2 %) zum Beispiel der Pachamama-Kultus im Nordwesten Argentiniens, der durch Verschmelzung christlicher Riten mit der Religion der Ureinwohner entstand. Der Erzbischof von Buenos Aires, Jorge Mario Bergoglio SJ, wurde am 13. März 2013 durch das Konklave zum Papst gewählt und ist somit der erste Papst aus Lateinamerika. Bergoglio wählte den Namen Franziskus. Sprache. Alleinige Amtssprache ist in Argentinien Spanisch. Daneben gibt es eine Reihe von mehr oder weniger verbreiteten Minderheitensprachen, die von der indianischen Bevölkerung gesprochen werden. Die verbreitetsten darunter sind das Quechua (in zwei lokalen Varianten) und das Guaraní, in manchen Gegenden wird auch noch Mapudungun gesprochen. Am höchsten ist die Sprecherzahl von autochthonen Sprachen bei den Indianergruppen im Chaco, den Wichí, Pilagá und Toba, bei denen mehr als die Hälfte noch ihre angestammte Sprache versteht. Bei anderen Gruppen wie den Kolla und Mapuche ist diese Zahl weit geringer. Die argentinische Aussprache des Spanischen unterscheidet sich deutlich von der in Spanien und auch von der in anderen lateinamerikanischen Ländern üblichen. Der Buchstabe "ll" wird wie das deutsche "sch" oder wie das französische "j" ausgesprochen, ebenso der Buchstabe "y" zwischen Vokalen und ein konsonantisches "y" am Wortbeginn; dieses Phänomen wird als Yeísmo bezeichnet. Der Buchstabe "z" wird immer wie ein stimmloses "s" ausgesprochen, das gleiche trifft auf das "c" vor "e" und "i" zu, dies nennt man Seseo. Des Weiteren herrscht in Argentinien der Voseo vor, d. h. anstatt des Personalpronomens "tú" für die 2. Person Singular wird "vos" verwendet. Die Verben werden dabei anders konjugiert (im Präsens immer endbetont und mit abweichenden Imperativformen). Weiterhin wird die 2. Person Plural "vosotros" auch in informeller Sprache durch die 3. Person Plural "ustedes" ersetzt, die im europäischen Spanisch nur die Höflichkeitsform ist. Darüber hinaus gibt es eine Reihe lexikalischer Abweichungen. Während ein Großteil der Nachfahren italienischer Einwanderer in Argentinien die Sprache ihrer Vorfahren aufgegeben hat, wird von den Nachfahren der deutschsprachigen und englischsprachigen Einwanderer teilweise noch die Sprache ihrer Vorfahren gepflegt. So gibt es Stadtviertel im Großraum Buenos Aires, in denen man noch sehr viel Deutsch hört. In der Provinz Córdoba gibt es eine relativ große Kolonie von Überlebenden des Kriegsschiffs "Admiral Graf Spee" aus dem Zweiten Weltkrieg, die sich in Villa General Belgrano ansiedelte, wo heute noch teilweise Deutsch gesprochen wird. "Siehe auch:" Río-de-la-Plata-Spanisch, Belgranodeutsch, Cocoliche, Quechua Bevölkerungsentwicklung. In der Kolonialzeit lag der Schwerpunkt der argentinischen Bevölkerung lange im Nordwesten, und insbesondere in der Minenregion um Salta und Jujuy. Größte Stadt war das am Kreuzungspunkt mehrerer Handelsrouten gelegene Córdoba. Dies änderte sich mit der Einrichtung des Vizekönigreiches Río de la Plata 1776. Der Handel ließ nun die Bevölkerungszahl der Küstenregion im Osten des Landes (Buenos Aires, Santa Fe, Entre Rios) sprunghaft ansteigen, und nach der Erringung der Unabhängigkeit hatte sich die wirtschaftliche und politische Macht endgültig in dieser Region konzentriert. Das Gebiet südlich einer Linie etwa zwischen dem heutigen La Plata und Mendoza war dagegen bis zur Wüstenkampagne des General Roca in den 1870er Jahren noch von den Indianern bewohnt, es gab allerdings einige spanische und walisische Enklaven. Die Einwanderungswelle 1880–1930 verstärkte die Dominanz der Küstenregion und besonders von Stadt und Provinz Buenos Aires zusätzlich, da sich der Großteil der Einwanderer in dieser Gegend niederließ. Der Nordwesten wurde mehr und mehr zu einer rückständigen und wirtschaftlich schwachen Region, in dem relativ wenig Einwanderung stattfand, und Patagonien befand sich erst am Beginn seiner Entwicklung. Der Großraum Buenos Aires wuchs so zwischen 1850 und 1914 von 150.000 auf 1,6 Millionen Einwohner. Nach dem Versiegen des Einwandererstroms um 1930 brachte die Industrialisierung einen Binnenwandererstrom, dessen Ziel ebenfalls Buenos Aires und – mit Abstand – Córdoba und Rosario war. Dieser Strom hielt bis in die 1970er Jahre an und führte dazu, dass sich der Großraum rund um die Hauptstadt weit über das eigentliche Stadtgebiet von Buenos Aires ausdehnte. 1980 überschritt der Großraum Buenos Aires im nationalen Zensus zum ersten Mal die 10-Millionen-Marke und konzentrierte damit fast 40 % der Bevölkerung (damals 24 Millionen). Danach flachte das Wachstum der Städte der Küstenregion allerdings deutlich ab. Zwischen 1991 und 2001 verlor die Stadt Buenos Aires 7 % ihrer Einwohner, die Bevölkerung des Ballungsraums der Stadt insgesamt stieg nur noch leicht an, auch Rosario und Santa Fe stagnierten. Zum Wachstumsmagnet wurden dagegen abgelegene Regionen wie das wirtschaftlich boomende Patagonien, insbesondere die südlichsten Provinzen Provinz Tierra del Fuego und Santa Cruz (44 % bzw. 23 % Zuwachs zwischen 1991 und 2001), aber auch die Städte des Nordwestens wie Jujuy, Salta, La Rioja und Tucumán sowie der Ballungsraum Córdoba. In Buenos Aires und den meisten Großstädten gibt es seit etwa 1980 das Phänomen der Stadtflucht: Viele, meist besser verdienende Einwohner siedeln von den Stadtzentren ins Umland um. Seit etwa 1990 hat sich dieses Phänomen durch die massenhafte Einrichtung von privaten Stadtvierteln und Country Clubs noch verstärkt. Die Ursache liegt in der als steigend empfundenen Kriminalität. Auch touristisch und landschaftlich interessante Orte erleben seit dieser Zeit einen Boom, was auch mit der steigenden Mobilität der Bevölkerung sowie der inzwischen deutlich besseren Verfügbarkeit von infrastrukturellen Dienstleistungen wie Telefon, Radio, Fernsehen und Internet selbst in weit entlegenen Gebieten zusammenhängt. So wurden aus ehemals kleinen Ferienorten wie Merlo, Pinamar und Villa Carlos Paz prosperierende, schnell wachsende Städte. Soziale Situation. Die soziale Situation des Landes ist in mehrerlei Hinsicht durch eine starke Ungleichheit gekennzeichnet. So gibt es einerseits ein sehr großes Wohlstandsgefälle zwischen Ober- und Unterklasse. So gehören die argentinischen Top-Manager-Gehälter zu den höchsten in Südamerika, während die ärmsten 40 % nur über zehn Prozent des gesamten Volkseinkommens verfügen. Aber auch die Unterschiede zwischen den Regionen Argentiniens sind groß. So liegt etwa die Armutsrate, die nach einem Warenkorb berechnet wird, in der Hauptstadt Buenos Aires mit etwa 15 % nur etwas mehr als halb so hoch wie im Landesdurchschnitt (23 %), während sie in der Nordostregion bei 41 % liegt (Stand 2007). Eine Durchschnittsperson benötigte im März 2008 monatlich etwa 317 AR$, um nicht unter die Armutslinie zu fallen. In den meisten Haushalten ist es daher nötig, dass mehrere Familienmitglieder zum Einkommen beitragen. Dies zeigt auch die offizielle Statistik: So liegt das durchschnittliche monatliche Pro-Kopf-Einkommen bei etwa 1156 AR$ und damit nur knapp über der Armutsrate für Familien, während das durchschnittliche monatliche Haushaltseinkommen bei 2090 AR$ liegt (s. u.). Die nördlichen Provinzen, besonders die Provinz Tucumán und der Nordosten (Chaco, Formosa, Santiago del Estero) sind am stärksten von Armut und Unterernährung betroffen. Verschärft wird diese Situation durch das relativ schnelle Bevölkerungswachstum in dieser Region. Als relativ reich dagegen gelten die zentralen Provinzen (Buenos Aires, Santa Fe, Córdoba, San Luis und Mendoza), aber auch der äußerste Süden (Santa Cruz und Tierra del Fuego). Es sind neben den grenznahen Gegenden (beispielsweise Jujuy und Formosa) allerdings vor allem die reichen Zentralprovinzen, die am stärksten mit der städtischen Armut und damit mit der Bildung von Elendsvierteln zu kämpfen haben. Die Zuwanderung aus den ärmeren Nachbarländern Peru, Bolivien und Paraguay sowie die Binnenwanderung aus abgelegenen Gegenden des Landesinneren sind trotz einer Abschwächung in den 1990er Jahren immer noch ein großes Problem in den Großstädten, die die Zahl der Elendsviertelbewohner trotz sozialer Wohnungsprogramme weiterhin anwachsen lässt. So liegt beispielsweise in Rosario der Anteil der Elendsviertelbewohner an der Gesamtbevölkerung bei über 15 %. Zudem kam Zuwachs für die Elendsviertel auch von den so genannten Neu-Armen, besonders in den wirtschaftlich kritischen Jahren 1989/1990, 1995 sowie zwischen 1998 und 2002. In der Argentinien-Krise verschlechterten sich viele Indikatoren der sozialen Situation in kürzester Zeit, insbesondere in den Jahren 2001 und 2002, in denen die Armutsrate, die nach einem Warenkorb berechnet wird, auf über 50 % stieg. Ab 2003 normalisierten sich die Werte langsam wieder, allerdings bleibt die Armutsrate trotz eines deutlichen Rückgangs weiterhin mit über 20 % deutlich über den Werten der 1990er Jahre. Dabei sind in der am stärksten betroffenen Región Noreste Argentino (Nordostregion) weiterhin fast die Hälfte der Bevölkerung arm. Bei der Armuts- und Elendsrate variieren die Einkommen, nach denen sich die Rate richtet, je nach Region, daher wird nur ein ungefährer Durchschnittswert angegeben. Bei der Inflationsrate wird der Wert nur im Großraum Buenos Aires errechnet. Die Daten des INDEC für den Preisindex wurden allerdings mehrfach angezweifelt, die Haltung internationaler Organisationen wie dem IWF dazu ist uneinig. Vorgeschichte und Kolonialzeit. Die Forschung nimmt an, dass die Besiedlung des heutigen Argentinien durch den Menschen etwa 15000 v. Chr. von Nordamerika aus erfolgte. Die im Pampa-Raum des heutigen Argentinien ansässigen Stämme Het (Querandíes) und Tehuelches (Aonikenk und Gununaküna) waren bis zum Eintreffen der Spanier nicht sesshaft und besaßen auch keine nennenswert entwickelte Technologie. Die Stämme im Nordwesten des Landes hingegen (z. B. die Diaguita) praktizierten etwa ab der Zeit des frühen europäischen Mittelalters Ackerbau und Viehzucht und waren vor allem auf architektonischem Gebiet weit fortgeschritten. Im 13. und 14. Jahrhundert expandierte das Inka-Reich stark nach Süden und umfasste um 1450 weite Teile des Nordwestens Argentiniens bis in den Norden der heutigen Provinz Mendoza. Die Europäer erreichten die Region erstmals mit der Reise Amerigo Vespuccis 1502. Das heutige Argentinien wurde im 16. Jahrhundert von den Spaniern aus zwei Richtungen kolonisiert: Von Peru aus nahmen sie die nordwestlichen Teile des Landes in Besitz, während andererseits vom Atlantik aus spanische Niederlassungen am Stromsystem des Río de la Plata gegründet wurden, darunter Buenos Aires, wo sich die Spanier im Jahre 1580 auf Dauer etablieren konnten, nachdem ein erster Versuch zur Gründung einer spanischen Siedlung dort im Jahre 1536 am Widerstand der indigenen Bewohner der Pampa gescheitert war. Die weiter südlich gelegenen Gebiete des heutigen Argentinien wurden zwar theoretisch auch von Spanien beansprucht, blieben aber in der Kolonialzeit faktisch außerhalb des spanischen Herrschaftsbereichs. Administrativ war das heutige Argentinien zunächst Teil des Vizekönigreichs Peru, das Südamerika mit Ausnahme der portugiesischen Einflusssphäre umfasste. Im Jahre 1776 wurde von diesem das Vizekönigreich des Río de la Plata mit Hauptstadt Buenos Aires abgespalten, welches neben Argentinien noch das heutige Bolivien, Paraguay und Uruguay umfasste. Bildung eines Nationalstaats. Die unter dem Eindruck der Französischen Revolution und der Koalitionskriege in Europa am 25. Mai 1810 in Buenos Aires erklärte Unabhängigkeit hatte zunächst nur lokale Wirkung (Mai-Revolution), führte aber zu einem landesweiten Befreiungskrieg gegen die Spanier. Die Unabhängigkeit erlangte das Land schließlich am 9. Juli 1816 in San Miguel de Tucumán. Wie zuvor Paraguay im Jahre 1811 spalteten sich dann auch 1825 Bolivien und 1828 Uruguay von den damaligen Vereinigten Provinzen des Río de la Plata ab. Zwischen 1816 und 1880 war die Entwicklung Argentiniens von Diktaturen (unter dem Bonarenser Gouverneur Juan Manuel de Rosas) und Bürgerkriegen geprägt. Die Provinzen waren zunächst weitgehend autonom, nur 1826–1827 konnte das Land kurzzeitig geeint werden. 1853 wurde zunächst ohne die abtrünnige Provinz Buenos Aires die heutige Argentinische Republik gegründet und eine föderalistische Verfassung in deren erster Hauptstadt Paraná verabschiedet. In den Jahren 1861 und 1862 schloss sich die Provinz Buenos Aires nach einer militärischen Auseinandersetzung wieder an, es wurden landesweite Wahlen ausgerufen, und erster gesamtargentinischer Präsident wurde Bartolomé Mitre. In dessen Regierungszeit fiel der Tripel-Allianz-Krieg 1864 bis 1870, in dem sich Argentinien gemeinsam mit Brasilien und Uruguay gegen expansive Tendenzen Paraguays durchsetzte, das sich zu dieser Zeit zu einer der stärksten Militärmächte Südamerikas entwickelt hatte. Argentinien gewann durch diesen Krieg das Gebiet der heutigen Bundesstaaten Misiones, Formosa und Chaco hinzu. Einwanderung und Wirtschaftsboom. Die Jahre von 1880 bis 1912 waren durch die zahlreiche Einwanderung vor allem von Italienern und Spaniern gekennzeichnet, die sich in den Städten und in sogenannten „Kolonien“ auf dem Land ansiedelten. Politisch ist diese Zeit als Scheindemokratie zu bezeichnen, denn die Regierung Julio Argentino Roca und die folgenden Regierungen waren oligarchisch ausgerichtet, mit großem Einfluss der Großgrundbesitzer. Dem Gros der Bevölkerung wurden durch ein ausgeklügeltes Wahlbetrugssystem durch die Regierungspartei Partido Autonomista Nacional, die von 1874 bis 1916 ununterbrochen regierte, die politischen Rechte vorenthalten; auch die Einwanderer hatten kein Stimmrecht. Ab 1893 verschärften sich die Grenzprobleme mit Chile, nachdem Bolivien einen Teil der Puna de Atacama an Argentinien abgetreten hatte. Diese war seit dem Salpeterkrieg von Chile besetzt. Zwischen Chile und Argentinien kam es zu einem Wettrüsten. Erst der britische König Edward VII. konnte 1902 den Grenzstreit schlichten. Patagonien und Feuerland werden neu aufgeteilt, dabei fielen 54.000 km² an Chile und 40.000 km² an Argentinien. 1912 wurde vom Präsidenten und Leiter des liberalen Flügels der PAN, Roque Sáenz Peña, das allgemeine Wahlrecht für Männer eingeführt. In der Folge kam 1916 die aus der bürgerlichen Protestbewegung hervorgegangene Unión Cívica Radical an die Regierung. Es folgte die wechselhafte so genannte Etapa Radical von 1916 bis 1930. Die Unión Cívica Radical regierte bis 1930, als ein Militärputsch wieder ein konservatives System einführte. Vor allem die 1930er Jahre werden heute als "Década infame", als berüchtigtes Jahrzehnt bezeichnet, in dem die Demokratie nur auf dem Papier existierte und Wahlbetrug an der Tagesordnung war. Peronismus. Im Laufe der ersten Hälfte der 1940er Jahre gelang es dem jungen Offizier Juan Domingo Perón, sich geschickt an die Macht zu manövrieren. Er war zunächst unter dem Militärregime Ramírez Minister für Arbeit und wurde wegen seiner weitreichenden Zugeständnisse an die Gewerkschaften schnell zu einem Volkshelden in der Arbeiterklasse, so dass nach seinem Sturz im Juli 1945 Massendemonstrationen seine Rückkehr erzwangen. Im Jahre 1946 wurde er zum Präsidenten gewählt. Im Zweiten Weltkrieg war Argentinien offiziell neutral. Es sympathisierte zunächst mit den Achsenmächten, unterstützte gegen Kriegsende jedoch die Alliierten. Während des Krieges war Argentinien Zielland von Flüchtlingen aus Europa; nach dem Krieg fanden in Argentinien ebenso wie in anderen Staaten Lateinamerikas zahlreiche Nationalsozialisten und Faschisten Unterschlupf. Unter den prominentesten nationalsozialistischen Kriegsverbrechern in Argentinien waren Adolf Eichmann, der 1960 vom Mossad entführt und in Israel zum Tode verurteilt wurde, Josef Mengele sowie Walther Rauff. Über sogenannte "Schlüsselfirmen" wurden auch hohe Vermögenswerte der Nationalsozialisten nach Argentinien verschoben. März 2015 wurde die Entdeckung eines in einem Waldgebiet des Naturparks Teyu Cuare etwa 1000 Kilometer nördlich der Landeshauptstadt Buenos Aires gelegenen Gebäudes aus um 1940 bekannt. Es wurde nie benutzt. Indizien wie Baustil und gefundene Gegenstände sprechen dafür, dass es als Versteck für flüchtige Nazi-Größen gedacht war, so das Zentrum für Stadtarchäologie (CAU). "Die nationale Kommission zur Aufklärung von Nazi-Aktivitäten (CEANA) schätzt, dass sich mindestens 180 Kriegsverbrecher in das südamerikanische Land abgesetzt haben." Unter Perón, der mit faschistischem Gedankengut sympathisierte, verfolgte Argentinien das Ziel, durch Zugeständnisse an die Arbeiter den Kommunismus abzuwehren. In seiner ersten Regierungszeit wurde die Industrialisierung des Landes, die nach der Weltwirtschaftskrise um 1930 begonnen hatte, vertieft und eine Importsubstitutionspolitik durchgesetzt. Die forcierte Industrialisierung und die aktive Sozialpolitik führte zu einem nie gekannten und bis heute nicht wieder erreichten Wohlstandsniveau für die Massen, die deshalb das zunehmend autoritär werdende Regime unterstützten, jedoch auch zu steigender Inflation und Staatsverschuldung. In der zweiten Amtszeit Peróns kam es zu wirtschaftlichen Schwierigkeiten und Konflikten mit der mächtigen katholischen Kirche. 1955 wurde er bei einem Putsch abgesetzt und floh ins Exil. Instabilität und Diktaturen. Argentinien verzeichnete in der Folgezeit wirtschaftliche Höhen und Tiefen im Wechsel. Bis 1983 gab es eine Epoche der Instabilität, in der abwechselnd zivile und Militär-Regierungen das Land in der Hand hatten. Die demokratisch gewählten Regierungen Frondizis (1958–1962) und Illias (1963–1966) wurden von den antiperonistischen Militärs vorzeitig aus dem Amt geputscht. Von 1966 bis 1973 gab es unter Onganía und seinen Nachfolgern eine längere rechtskonservative Militärdiktatur, die jedoch nach Protesten der Bevölkerung 1973 schließlich aufgegeben wurde. Das Land fand kurzzeitig zur Demokratie zurück, der nach wie vor populäre Perón durfte wieder einreisen und konnte bald erneut die Macht erlangen. Die zweite Amtszeit Peróns von Oktober 1973 bis zu seinem Tod am 1. Juli 1974 brachte nur eine geringfügige Beruhigung in die politischen und wirtschaftlichen Verhältnisse Argentiniens. Nach seinem Tod wurde seine dritte Ehefrau, Isabel Perón (genannt „Isabelita“), die er zur Vizepräsidentin gemacht hatte, auf Betreiben der peronistischen Partei als Präsidentin eingesetzt. Diese, eine ehemalige Nachtclubtänzerin, war mit diesem Amt völlig überfordert und diente lediglich als Marionette von rechten Peronisten wie José López Rega, der mit der Alianza Anticomunista Argentina schon unter Perón eine paramilitärische Gruppe eingesetzt hatte, die Regimegegner folterte und ermordete. Zudem nahmen wirtschaftliche Probleme zu, die Inflation stieg steil an. Mehrere Guerillagruppen (Guerilleros) wie die Montoneros waren in diesem Kontext aktiv und es kam zu verschiedenen Entführungen. Die Entführung des für Mercedes-Benz den Standort Argentinien betreuenden Produktionsleiters Heinrich Metz im Oktober 1975 (er kam später für ein Lösegeld in Höhe von mehreren Millionen US-Dollar wieder frei) löste eine Fluchtwelle unter den für deutsche Unternehmen in Argentinien tätigen Immigranten aus. Im Jahr 1976 kam es erneut zu einem Militärputsch und es installierte sich unter der Führung von Jorge Rafael Videla eine Militärdiktatur, geleitet von einer Junta aus drei Mitgliedern, die mit einem offenen Staatsterror regierten. Die Zeit zwischen 1976 und 1978 wird daher auch als „Schmutziger Krieg“ bezeichnet. Unter den geschätzt 30.000 Desaparecidos („Verschwundenen“) befanden sich auch zahlreiche Studenten, deren Mütter sich zusammenschlossen, um auf dem Platz vor dem Regierungsgebäude (Plaza de Mayo) ungeachtet ihrer Selbstgefährdung zu demonstrieren, und damit in die Geschichte eingingen. Ziel der "Madres de Plaza de Mayo" ("Mütter der Plaza de Mayo"), war und ist es, Kenntnis über den Verbleib ihrer Kinder zu erhalten. Mittlerweile gibt es auch eine Organisation "Abuelas de Plaza de Mayo" ("Großmütter der Plaza de Mayo"), deren Zweck es ist, die in der Gefangenschaft geborenen und illegal zur Adoption freigegebenen Kinder der Verschwundenen in ihre Familie zurückzuführen. Nachdem man ihre Eltern getötet hatte, wurden die Waisen als Kriegsbeute von Menschen aufgezogen, die der Diktatur nahestanden. Nur etwa 100 dieser Kinder haben bis heute von ihrer wahren Identität erfahren. Von 400 weiteren fehlt trotz aller Bemühungen von Verwandten und den Suchenden bislang jede Spur. In späteren Gerichtsverfahren gegen verantwortliche Militärs, die nur mit Mühe durchgesetzt werden konnten, wurde bekannt, dass sich die militärischen Machthaber zahlreicher Menschen auf grausame Weise entledigt hatten: Die Opfer wurden betäubt und über dem Río de la Plata oder dem offenen Meer aus dem Flugzeug geworfen. Um Souveränitätstreitigkeiten (siehe Beagle-Konflikt) über die Inseln an der südlichen Spitze Amerikas zu beenden, beauftragten Argentinien und Chile 1971 ein internationales Tribunal damit, über eine bindende Interpretation des Grenzvertrags von 1881 zu entscheiden. Das Schiedsgericht im Beagle-Konflikt entschied 1977, dass alle Inseln südlich der Isla Grande de Tierra del Fuego zu Chile gehören. 1978 erklärte Argentinien die Entscheidung für nichtig und bereitete die militärische Einnahme der Inseln (siehe Operation Soberanía) vor, nur durch die Vermittlung des Papstes konnte dies verhindert werden. Erst 1984, im Rahmen der Demokratisierung, erkannte Argentinien – nach Austausch von Navigationsrechten und einer Verschiebung der maritimen Grenze nach Westen – im Freundschafts- und Friedensvertrag von 1984 zwischen Chile und Argentinien das Urteil endgültig an. Im April 1982 begann Argentinien unter dem neuen Junta-Chef Leopoldo Galtieri den Falklandkrieg gegen Großbritannien. Es ging um die Argentinien vorgelagerten Falklandinseln (in Argentinien als „Islas Malvinas“ bezeichnet), die nach argentinischer Rechtsauffassung zum eigenen Staatsgebiet gehören, jedoch ebenso von Großbritannien als eigenes Hoheitsgebiet betrachtet werden und seit 1833 unter dessen Verwaltung stehen. Die Invasion argentinischer Soldaten wurde von den Streitkräften des Vereinigten Königreichs mit Luftangriffen, einem Seekrieg und einer Landeoperation erfolgreich revidiert. Argentinien kapitulierte am 14. Juni 1982. Das demokratische Argentinien ab 1983. a>, erster demokratisch gewählter Präsident nach der Militärdiktatur 1983 kehrte das Land zur Demokratie zurück. Der erste Präsident dieser Epoche war Raúl Alfonsín (Unión Cívica Radical), der jedoch 1989 infolge einer schweren Wirtschaftskrise vorzeitig zurücktrat. Die Peronistische Partei kam mit Carlos Menem wieder an die Macht. Die neoliberale Wirtschaftspolitik Menems und die 1:1-Bindung des Argentinischen Peso an den US-Dollar war während seiner ersten Amtszeit äußerst erfolgreich und konnte das Land stabilisieren. Während seiner zweiten Amtszeit machten sich aber immer mehr die negativen Seiten dieser Wirtschaftspolitik bemerkbar. Zwischen 1998 und 2002 fiel daher das Land erneut in eine schwere Wirtschaftskrise, in der die Wirtschaftskraft um 20 % zurückging. 1999 wurde die Regierung Menem durch eine Mitte-links-Koalition mit dem Präsidentschaftskandidaten Fernando de la Rúa abgelöst. De la Rúa konnte aber die verfahrene wirtschaftliche Situation, die sein Vorgänger hinterließ, nicht schnell und nachhaltig verbessern. Das zögerliche Handeln des Präsidenten, Streitereien innerhalb der Koalition und eine starke außerparlamentarische Opposition durch die Gewerkschaften, die traditionell den Peronisten nahestehen, schwächten de la Rúa zunehmend. Dies gipfelte Ende 2001 nach starken Unruhen und Plünderungen im Rücktritt von Präsident Fernando de la Rúa. In der Folge gab es mehrere peronistische Interimspräsidenten, bis Eduardo Duhalde mit der Verwaltung der Krise beauftragt wurde. Im Mai 2003 wurde nach einer sehr chaotisch verlaufenden Präsidentschaftswahl Néstor Kirchner zum neuen Staatsoberhaupt gewählt, der dem sozialdemokratischen Flügel der Peronistischen Partei angehört. Trotz seines niedrigen Wahlergebnisses war Kirchner in seiner Amtszeit bei der Bevölkerung sehr beliebt, weil er die Krise erfolgreich überwinden und daher die Gesamtsituation des Landes verbessern konnte. Die Wirtschaft bekam einen starken Wachstumsschub: 2003 verbuchte Argentinien ein Wachstum des Bruttoinlandsproduktes in Höhe von +8,7 % gegenüber −10,9 % im Jahr 2002. Kirchner war jedoch auch Kritik ausgesetzt, insbesondere wegen seines autokratischen Führungsstils und zum Teil auch wegen seiner als Populismus gedeuteten Zusammenarbeit mit der Piquetero-Protestbewegung. Bei den Wahlen zum argentinischen Senat und zur argentinischen Abgeordnetenkammer im Oktober 2005 gingen die Anhänger Néstor Kirchners mit etwa 40 % der Stimmen als Sieger hervor. Bei der Wahl um Senatorenposten der Provinz Buenos Aires gewann seine Frau Cristina Fernández de Kirchner gegen die Ehefrau des ehemaligen Präsidenten Eduardo Duhalde Hilda González de Duhalde, die ebenfalls der Peronistischen Partei angehört. Der Präsident wurde somit gestärkt und konnte sich in beiden Kammern auf eine breite Mehrheit auch innerhalb seiner eigenen Partei stützen. Die Präsidentschafts- und Parlamentswahl am 28. Oktober 2007 konnten die regierenden Peronisten, insbesondere die Wahlplattform Kirchners, Frente para la Victoria, mit einem überwältigenden Sieg gewinnen. Cristina Fernández de Kirchner konnte sich schon im ersten Wahlgang mit 45,3 % der Stimmen durchsetzen und damit eine Stichwahl vermeiden. Sie trat das Präsidentenamt am 10. Dezember 2007 an. Auch im Parlament wurde der Kirchnerismo leicht gestärkt. In der Folge war die Peronistische Partei von Flügelkämpfen betroffen. Mehrmals wurde sogar erwogen, die Partei auch offiziell zu spalten. Nachdem Kirchner aber 2008 den Parteivorsitz übernommen hatte, stabilisierte sich die Situation innerhalb der Regierungspartei wieder. Bei den Parlamentswahlen am 28. Juni 2009 verlor die 'Frente para la Victoria' (FPV) allerdings. Daraufhin gab Néstor Kirchner den Parteivorsitz der Peronistischen Partei an den Gouverneur der Provinz Buenos Aires, Daniel Scioli, ab. Im Oktober 2010 erlag er einem Herzinfarkt. Am 27. Oktober 2013 fanden in Argentinien Wahlen statt: ein Drittel der Senatoren wurde neu gewählt; daneben standen 127 der 257 Abgeordneten des Repräsentantenhauses zur Wahl. 2015 kam es zu einem Machtwechsel: Bei der Präsidentschaftswahl setzte sich in der ersten Stichwahl der argentinischen Geschichte Mauricio Macri, seit 2007 Bürgermeister von Buenos Aires, knapp gegen den von der Regierung Kirchner unterstützten Kandidaten Daniel Scioli durch. Cristina Kirchner konnte laut der Verfassung Argentiniens nicht zur Wiederwahl antreten; sie war schon zwei Wahlperioden Präsidentin. "Siehe auch:" Liste der Präsidenten von Argentinien, Argentinien-Krise Politik. Nach der Verfassung von 1994 ist Argentinien eine föderalistische, republikanische Präsidialdemokratie. Politisches System. Der Präsident der Nation („Presidente de la Nación Argentina“, „Poder Ejecutivo Nacional“) ist Staatsoberhaupt und Regierungschef in Person und hat eine starke Stellung, unter anderem die Möglichkeit per Dekret zu regieren. Er wird gemeinsam mit dem Vizepräsidenten, der ihn bei Abwesenheit vertritt, alle vier Jahre (bis 1995: alle sechs Jahre) in zwei Wahlgängen direkt gewählt. Um in der ersten Runde zu gewinnen, muss der siegreiche Kandidat 45 oder mehr Prozent der gültigen Stimmen erreichen oder bei einem Wert zwischen 40 und 45 Prozent zehn Prozentpunkte Vorsprung vor dem Zweitplatzierten aufweisen, in allen anderen Fällen gibt es eine Stichwahl. Verzichtet einer der beiden erfolgreichsten Kandidaten in der ersten Runde auf die Teilnahme in der Stichwahl (zuletzt 2003), gilt der andere Kandidat als Sieger, der Drittplatzierte rückt also in diesem Fall nicht nach. Eine Präsidentschaft ist höchstens während zwei aufeinander folgenden Perioden möglich, eine erneute Kandidatur ist aber nach einer Pause von vier Jahren wieder erlaubt. Der Präsident muss unter anderem argentinischer Staatsbürger sein und bis zur Verfassungsreform 1994 dem römisch-katholischen Glauben angehören. Die Legislative (Überbegriff: Congreso, Kongress, bestehend aus Abgeordnetenkammer und Senat) wird meist in allen Provinzen zu anderen Zeitpunkten gewählt. Die Anzahl der Abgeordneten der Abgeordnetenkammer wird per Verhältniswahlrecht ermittelt und ist nach einem bestimmten Schlüssel auf die Provinzen verteilt, sie beläuft sich auf etwa einen Abgeordneten pro 152.000 Einwohner. Die Abgeordneten werden für vier Jahre gewählt, allerdings jeweils die Hälfte der Abgeordneten alle zwei Jahre. Die Anzahl der Senatoren beträgt drei je Provinz und drei für die autonome Stadt Buenos Aires. Der Senat wird im Gegensatz zur Abgeordnetenkammer nach einem Sonderfall des Mehrheitswahlrechts gewählt; zwei Senatorensitze erhält die Partei mit den meisten Stimmen, einen Sitz die Partei mit den zweitmeisten Stimmen. Die Senatoren werden für einen Zeitraum von sechs Jahren gewählt, alle zwei Jahre wird ein Drittel der Senatoren gewählt. Seit der Wirtschaftskrise ist die Debatte um eine politische Reform aufgekommen, da das heutige System vor allem für die Wähler sehr undurchsichtig ist und sowohl Personenkult als auch Korruption begünstigt. So werden beispielsweise die Wahlen zum Senat und dem Repräsentantenhaus meist gemeinsam mit Bürgermeisterwahlen durchgeführt, was aufgrund der so genannten "Listas Sábanas" zu Verzerrungen führt. Das liegt an der Tatsache, dass in Argentinien keine Kreuze auf Stimmzettel gemacht werden, sondern jede Partei ihren eigenen Stimmzettel "(Lista Sábana)" hat und man seine Stimme durch die richtige Auswahl des Stimmzettels abgibt. Man kann aber bei vielen gleichzeitigen Wahlen die Stimmen aufteilen. In diesem Falle muss man, wenn man Kandidaten verschiedener Parteien wählen möchte, die Stimmzettel auseinander schneiden und nur die entsprechenden Abschnitte in die Urne werfen. Von dieser Möglichkeit machen jedoch nur wenige Wähler Gebrauch, was bei Häufung von Wahlen am selben Tag zu Verzerrungen führt. "Listas Sábanas" (deutsch etwa: Betttuch(große)-Listen) heißen die Stimmzettel, weil sie oft sehr groß sind. Die jeweiligen Mehrheitsverhältnisse in der Legislative werden ebenfalls kaum publik gemacht, was auch daran liegt, dass die Zusammensetzung sich fast jedes Jahr ändert. Parteien. Die Parteienlandschaft Argentiniens ist durch starke Zersplitterung und Unstetigkeit gekennzeichnet. Besonders die zweite Hälfte der 1990er Jahre bis zur Argentinien-Krise markierten eine deutliche Zäsur, nach ihr entstanden zahlreiche neue Gruppierungen, zum Teil aus Abspaltungen der traditionellen Parteien. Eine der größten Parteien ist heute die aus der peronistischen Bewegung hervorgegangene PJ (Partido Justicialista, auf Deutsch meist: peronistische Partei genannt), die etwa 50 % des Wählerpotenzials auf landesweiter Ebene ballt. Dahinter folgt mit heute weitem Abstand die UCR (Unión Cívica Radical), die zwischen 1945 und 2003 faktisch ein Zweiparteiensystem mit der PJ gebildet hatte und mehrmals an der Regierung beteiligt war. Die nach der Argentinien-Krise gegründeten Parteien ARI (sozialdemokratisch), Propuesta Republicana (konservativ, meist als PRO bezeichnet) sowie die älteste Linkspartei Partido Socialista sind regional von großer Bedeutung und gehen auf Landesebene vielfache Allianzen ein, die zum Teil auch Teile von PJ und UCR integrieren. Weiterhin gibt es zahlreiche mitgliederstarke Regionalparteien, die in ihren jeweiligen Provinzen dominante Stellungen einnehmen und ebenfalls wechselnd mit den landesweit aktiven Parteien koalieren. Das europäische Rechts-Links-Schema lässt sich in Argentinien daher nicht eindeutig auf bestimmte Parteien anwenden, da viele von ihnen häufig ihre Ausrichtung ändern. Einige Parteien, die in den 1990er Jahren zeitweise Erfolge verbuchen konnten, etwa die liberale "Acción por la República" und die sozialdemokratische "Frente Grande", die zwischen 1999 und 2001 in der Koalition Frente País Solidario an der Regierung beteiligt war, sind heute nur noch von lokaler Bedeutung. Seit Ende der 1990er Jahre finden die hauptsächlichen Debatten zwischen den Flügeln des PJ statt, die ideologisch sehr verschieden sind. Die Flügel werden meist mit dem Namen ihrer führenden Persönlichkeit bezeichnet. Der momentan herrschende "Kirchnerismo" (ausgehend von Néstor und Cristina Kirchner), der seit 2003 eine eigene politische Allianz namens "Frente para la Victoria" unterhält, ist sozialdemokratisch orientiert, während der in den 1990er Jahren dominierende "Menemismo" wirtschaftsliberal eingestellt war. Ein weiterer Flügel war lange Zeit der in der Provinz Buenos Aires regierende, ursprünglich mit dem Kirchnerismus alliierte "Duhaldismo", wobei nach der Machtergreifung Kichners durch Differenzen insbesondere im Verhältnis mit Carlos Menem die Allianz der beiden Blöcke zerbrach und der Duhaldismo insgesamt an Bedeutung verlor. Bei den Parteien mit extremeren Orientierungen haben bei der Linken diverse kommunistische Parteien ("Partido Comunista Revolucionario, Partido Obrero, Izquierda Unida" und "Movimiento Socialista de los Trabajadores") eine gewisse Bedeutung, im Fall der Rechten nur die rechtskonservativ-nationalistische Partido del Campo Popular (aus dem MODIN hervorgegangen), die als Sammelbewegung für Nostalgiker der Militärdiktatur zwischen 1976 und 1983 gilt. Mitgliedschaften in Internationalen Organisationen und Gruppierungen. Argentinien ist in verschiedenen internationalen Organisationen und Gruppierungen Mitglied. Dazu zählen unter anderem die Mitgliedschaften in den Vereinten Nationen und seinen Unter- und Sonderorganisationen, im Internationalen Währungsfonds und in der Weltbank. Auf regionaler Ebene sind die Mitgliedschaften in der Rio-Gruppe, die sich dem Erhalt der Demokratie in Lateinamerika widmet, in der CELAC sowie im Mercosur, einer Zollunion in Südamerika, am bedeutsamsten. "Siehe auch:" Mitgliedschaft Argentiniens in internationalen Organisationen Militär und Verteidigung. a>es an der "Plaza San Martín" in Buenos Aires a> (D 10) im Oktober 2005 Das argentinische Militär hat in der Geschichte des Landes immer wieder eine dominierende Rolle gespielt. Besonders in der Zeit zwischen 1955 (Putsch gegen Juan Perón) und 1973 (Rückkehr und zweite Präsidentschaft Peróns) und in der Zeit zwischen 1974 (Tod Peróns) und 1983 (Niederlage im Falklandkrieg und Redemokratisierung) war Argentinien vom Militär direkt oder indirekt geprägt. ("Siehe auch:" Geschichte Argentiniens) Unter den Präsidentschaften Raúl Alfonsíns (1983–1989) und Carlos Menems (1989–1999) wurden die Militärs entscheidend geschwächt und 1994 die Wehrpflicht abgeschafft. 1999 betrugen die Ausgaben für die Verteidigung nur noch 62 % der Ausgaben von 1983; im gleichen Zeitraum sind die Staatsausgaben allgemein auf 152 % der Ausgaben von 1983 angestiegen. Die argentinischen Streitkräfte, Fuerzas Armadas de la República Argentina, hatten 2004 eine Personalstärke (Soldaten und Verwaltung) von insgesamt etwa 102.300 Personen (Heer: 50.900 Personen (41.400 Soldaten), Marine: 26.600 Personen (17.200 Soldaten), Luftwaffe: 23.600 Personen (13.200 Soldaten), Verteidigungsministerium und Generalstab: 1200 Personen). Das Heer unterhält 200 Kampfpanzer vom Typ TAM, Transportpanzer vom Typ M113, die Marine drei U-Boote aus deutscher Produktion, fünf Zerstörer, fünf Fregatten und 14 Patrouillenboote, die Luftwaffe 130 Kampfflugzeuge. Der Anteil der Ausgaben für die Verteidigung am Bundeshaushalt beträgt etwa 7 %. Bildungswesen. In Argentinien herrscht Schulpflicht von zehn Jahren. Es gibt neben den staatlichen Schulen auch eine hohe Zahl von privaten Schulen. Das Schulsystem ist in drei Stufen eingeteilt: "Inicial" (Vorschule; in der Regel 1 Jahr), „Primaria“ (in der Regel ab 6 Jahren mit zwei Grundstufen: EGB1 und EGB2; insgesamt sechs Schuljahre) und "Secundaria" (Sekundärstufe; drei Jahre EGB 3 bis einschließlich zur 9. Klasse und die anschließende 3-jährige Polimodalstufe). Laut der Volkszählung des Jahres 2005 sind etwa 2,8 % der Bevölkerung über 15 Jahren Analphabeten, in Deutschland liegt dieser Wert offiziell bei etwa 0,6 %. Dabei sind starke regionale Disparitäten zu beobachten: in Tierra de Fuego im Süden liegt die Rate bei 0,73 %, im Norden des Landes wie etwa in der Provinz Chaco bei 8,96 %. Von allen Argentiniern, die über 20 Jahre alt sind, haben 88 % die Schule besucht. Etwa 14 % haben die "Primaria" nicht abgeschlossen, circa 29 % haben eine abgeschlossene "Primaria", ungefähr 14 % haben die "Secundaria" nicht abgeschlossen, etwa 16 % haben eine abgeschlossene "Secundaria", circa 5 % einen höheren nicht-universitären Abschluss und etwa 5 % einen Universitätsabschluss. Das heißt etwa 73 % der Bevölkerung haben mindestens die "Primaria" abgeschlossen, circa 30 % mindestens die "Secundaria" und nur etwa 10 % haben einen weiterführenden Abschluss. Schulsystem. 1995 wurde das Schulsystem in vielen Provinzen reformiert: die ersten neun Jahre der Schulzeit werden seitdem als "EGB (Educación General Básica)" bezeichnet, die in mehrere Richtungen aufgeteilte weiterführende Schule stattdessen als 'Polimodal'. Es gibt eine Vielzahl von verschiedenen Schulabschlüssen (naturwissenschaftlich, sozialwissenschaftlich, technisch und wirtschaftlich orientiert), einige sind berufsbefähigende Techniker-Titel. Die Regierung Kirchner hat die Förderung der technischen Schulen von 5 auf 15 Millionen Pesos erhöht und sieht für 2006 eine Erhöhung auf insgesamt 260 Millionen Pesos vor. Die Förderung versucht seit 2003, die erheblichen Schwierigkeiten argentinischer Unternehmen, technisch qualifiziertes Personal zu rekrutieren, zu beheben. Zum Besuch der Hochschulen berechtigen alle im Rahmen des Polimodal erlangten Abschlüsse, auch wenn der Studiengang nicht mit der Ausrichtung des Polimodals übereinstimmt. Dieses System wird mit geringen Abweichungen in fast allen argentinischen Provinzen eingeführt; die Bezeichnungen variieren jedoch, so heißt beispielsweise in der Provinz Córdoba der EGB CBU (Ciclo Básico Unitario). 2005/2006 wurde diese Reform in einigen Provinzen, z. B. in Buenos Aires, teilweise überarbeitet und wieder ans alte System angenähert. Konnte Argentinien in der ersten PISA-Studie 2003 bei einer inoffiziellen nachträglichen Erweiterung der Studie (offiziell nahm es nicht teil) verglichen mit anderen lateinamerikanischen Staaten bei weitem am besten abschneiden, fiel es 2006 bei der ersten offiziellen Teilnahme in nahezu allen Disziplinen hinter Uruguay, Chile und Mexiko, im Leseverständnis auch hinter Brasilien und Kolumbien zurück, wenn auch meist nur mit geringem Punkteabstand. Es existiert ein starkes Gefälle in der Qualität der Schulbildung zwischen Großstädten und ländlichen Regionen einerseits und zwischen Privatschulen und vielen staatlichen Schulen sowie sozialen Klassen und Milieus andererseits. Durch kontinuierliche interne Qualitäts-Tests seit Ende der 1990er Jahre versucht die Politik, dieses Problem in den Griff zu bekommen. Bei diesen Tests kam eine Bandbreite von durchschnittlich 30 % bis 80 % der möglichen Punktzahl heraus, wobei die schlechtesten Ergebnisse von Schulen in ländlichen Gegenden, die besten dagegen in den Privatschulen der Großstädte sowie in den so genannten "Colegios Universitarios" (von Universitäten abhängige Staatsschulen) erzielt wurden. Eine aktuelle Studie zum Erfolg des Gesetzes zur Finanzierung des argentinischen Bildungswesens liegt derzeit von CIPPEC "(Centro de Implementación de Políticas Públicas para la Equidad y el Crecimiento)" vor. CIPPEC ist ein Zusammenschluss verschiedener nationaler gesellschaftlicher Akteure mit Unterstützung der britischen diplomatischen Vertretung, die sich ein kritisches Monitoring der Bildungspolitik und ihrer Erfolge zum Ziel gemacht haben. Universitäten. Argentinien hat eine Vielzahl von staatlichen und privaten Universitäten. 20 der insgesamt 41 privaten Universitäten haben in der Regierungszeit des neoliberalen Peronisten Menem ihre Pforten geöffnet. Das 1958 in Kraft getretene Gesetz zur Finanzierung der privaten Universitäten sieht ein Verbot finanzieller Unterstützung vor, erlaubt aber seit den 1990er Jahren unter Menem eine gezielte Förderung einzelner Forschungsprojekte. In der politikkritischen Zeitschrift „Caras y Caretas“ erschien im Mai 2006 ein Artikel, der vor der wachsenden Nähe einiger privater Bildungseinrichtungen zu orthodoxen religiösen Institutionen warnt, wie z. B. der Universidad Austral zum Opus Dei. Die älteste Universität ist die Universität von Córdoba, die 1613 gegründet wurde und heute die zweitgrößte des Landes ist (ca. 120.000 Studenten). Die größte Universität ist dagegen die Universität von Buenos Aires (UBA), die 1821 gegründet wurde und etwa 400.000 Studenten hat. Bibliothekswesen. Das Bibliothekswesen in Argentinien ist vielgestaltig. So entstanden gegen Ende des 19. Jahrhunderts die ersten privat finanzierten "Bibliotecas populares" (Volksbibliotheken). Sie werden heute von der "Comisión Nacional Protectora de Bibliotecas Populares" gefördert. Diese organisiert auch Weiterbildungsveranstaltungen für das Bibliothekspersonal. Seit 1977 gibt es die "Confederación Argentina de Bibliotecas Populares". Ihre Mitglieder sind zumeist keine Bibliothekare, sondern Politiker. Daneben existieren 19 "Federaciones Provinciales". Seit 1927 entstanden die "bibliotecas públicas municipales" (Öffentliche Stadtbibliotheken), die heute fast ausschließlich in Buenos Aires existieren. Seit 1944 untersteht diese der "Secretaría de Cultura de la Municipalidad de la Ciudad de Buenos Aires". Derzeit existieren in Buenos Aires 23 Stadtbibliotheken und 3 Bücherbusse, deren größte Benutzergruppe Schüler sind. Die 1963 gegründete "Junta de Bibliotecas Universitarias Argentinas" (JUBIUA) vertritt die Interessen der staatlichen Universitätsbibliotheken gegenüber der Regierung und erarbeitet gemeinsame Zielvorgaben. Die privaten Universitätsbibliotheken verfügen nicht über eine institutionalisierte Zusammenarbeit. Von den Schulen verfügen nur wenige über eigene Bibliotheken, die durch Buch- und Sachspenden sowie ehrenamtliche Tätigkeit der Eltern der Schüler finanziert werden. Derzeit wird ein Konzept zum Aufbau eines nationalen Schulbibliothekssystems erarbeitet. Die "Biblioteca Nacional" (Nationalbibliothek der Republik Argentinien) wurde 1810 unter dem Namen "Biblioteca pública de Buenos Aires" gegründet. Seit 1884 ist sie die Nationalbibliothek. 1933 erhielt sie das Pflichtexemplarrecht. Ihr Buchbestand wird auf 800.000 bis 2,5 Millionen Bände geschätzt. Die "Biblioteca del Congreso de la Nación" (Parlamentsbibliothek) entstand 1859. Die Bibliothek ist Depotbibliothek internationaler Organisationen und besitzt schätzungsweise 1,5 Millionen Bestandseinheiten. Provinzen. Die Provinz und die Stadt Buenos Aires aus dem Weltall Die Provinzen (spanisch "provincias", Einzahl: "provincia") sind die Gliedstaaten des argentinischen Bundesstaates. Sie haben jeweils eine eigene Provinzverfassung, eine Provinzregierung unter Leitung eines direkt gewählten Gouverneurs "(gobernador)" und ein Parlament. Die Provinzen sind wiederum administrativ in "Departamentos" untergliedert. Ausnahme ist hier die Provinz Buenos Aires, die in "Partidos" untergliedert ist. Es gibt 23 Provinzen und die autonome Stadt Buenos Aires. "Siehe auch:" Liste der Provinzen Argentiniens Regionen. Ab Ende der 1980er Jahre haben sich die Provinzen Argentiniens mit Ausnahme der Provinz Buenos Aires zu Regionen zusammengeschlossen, mit dem Ziel, die Wirtschafts-, Infrastruktur- und Entwicklungspolitik untereinander abzustimmen und Gegengewichte zur dominierenden Stellung des Großraums Buenos Aires zu bilden. Diese Regionen sind allerdings bisher keine offiziellen Gliedstaaten, sondern reine Interessengemeinschaften, sie haben also keinerlei offizielle politische Organe. Der Grad der Kooperation ist unterschiedlich. Die Región Centro besteht aus den Provinzen Córdoba, Entre Ríos und Santa Fe und weist den höchsten Integrationsgrad auf. Die Interessengemeinschaft wurde schon 1973 als Ziel anvisiert, aber erst 1998 umgesetzt. Seit 2004 bestehen als offizielle Institutionen der Gouverneursrat ("Junta de Gobernadores") und das Exekutivkomitee ("Comité Ejecutivo"). Die Región del Nuevo Cuyo besteht aus den Provinzen Mendoza, San Juan, La Rioja und San Luis. Sie weist nur einen geringen Integrationsgrad auf und besteht seit 1988. Auch sie hat als Institutionen einen Gouverneursrat und ein Exekutivkomitee, die jedoch kaum praktische Bedeutung haben. Einen Sonderfall nimmt die Región del Norte Grande Argentino ein. Diese integriert die zwei traditionellen Regionen Nordost- (Provinzen Chaco, Corrientes, Formosa und Misiones) und Nordwestargentinien (Catamarca, Jujuy, Salta, Santiago del Estero und Tucumán). Sie existiert seit 1999 und hat bereits zahlreiche Projekte verwirklicht, obwohl der Regionalvertrag noch von drei Provinzen ratifiziert werden muss. Aus traditionellen Gründen ist aber die Einteilung in Nordwesten und Nordosten nach wie vor für viele Statistiken ausschlaggebend. Schließlich besteht die Región Patagónica aus den Provinzen Chubut, La Pampa, Neuquén, Río Negro, Santa Cruz und Tierra del Fuego. Sie wurde 1996 gegründet und hat einen hohen Kooperationsgrad. So entsenden die Provinzparlamente Vertreter in ein gemeinsames Parlament, das "Parlamento Patagónico", das schon seit 1991 besteht, als die Region offiziell noch nicht gegründet worden war. Große Städte. Buenos Aires, dessen Ballungsraum etwa 12 Millionen Einwohner umfasst, ist politische Hauptstadt und wirtschaftliches Zentrum Argentiniens. Es ist umgeben von einer Reihe von selbstständigen Vorstädten, die zum Teil reine Schlafstädte sind, zum Teil aber auch selbst über Produktionsstätten verfügen. Córdoba, mit 1,4 Mio. Einwohnern die zweitgrößte Stadt des Landes, verfügt über größere Produktionsstätten und beherbergt die älteste Universität des Landes Universidad Nacional de Córdoba. Rosario in der Provinz Santa Fe (1,2 Mio. Einwohner) ist der zweitgrößte Hafen des Landes und ein Industrie- und Handelszentrum. Mendoza (900.000 Einwohner) ist vor allem für seinen Wein- und Obstanbau bekannt, dient aber auch als Brückenkopf für den Handel mit Santiago de Chile. San Miguel de Tucumán (750.000 Einwohner) ist die Geburtsstätte der Unabhängigkeit und wurde durch die intensive Landwirtschaft, insbesondere den Zuckerrohranbau, wirtschaftlich und kulturell bedeutsam, litt aber in den letzten Jahrzehnten unter der Krise in diesem Wirtschaftssektor und ist heute eine der Städte mit der größten Armutsrate des Landes. Die Universitäten in dieser Stadt haben allerdings überregionale Bedeutung und werden z. B. von Studenten aus Bolivien besucht. "Siehe auch:" Liste der Städte in Argentinien Schienenverkehr. Logo der ehemaligen argentinischen Eisenbahngesellschaft Zug Buenos Aires – Tucumán im Bahnhof von San Miguel de Tucumán Das Eisenbahnsystem in Argentinien hat am 29. August 1857 mit der ersten Fahrt eines Zuges seinen Anfang genommen. Im Laufe der Zeit wurde das Schienennetz hauptsächlich von englischen Unternehmen relativ zügig ausgebaut und wurde zu einem Schlüssel für die Entwicklung des Landes. In den 1930er Jahren verfügte das Land mit 43.000 Kilometer Schiene über ein größeres Netz als die meisten Länder Europas. Das Eisenbahnsystem bestand aus mehreren unabhängigen privaten Unternehmen, die 1946 von Präsident Perón verstaatlicht wurden. Die Ende der 1950er Jahre hinzugezogenen US-amerikanischen Berater legten die Priorität auf den Straßenverkehr, so dass Bahnstrecken in großem Umfang stillgelegt wurden. Die Staatsbahn wurde 1992 von Carlos Menem wieder privatisiert, was zur Folge hatte, dass der Fahrgastbetrieb noch mehr reduziert wurde, die Eisenbahnergewerkschaft zerschlagen wurde, 50.000 Menschen arbeitslos wurden, ganze Landstriche verödeten und die Korruption im Eisenbahngeschäft stark zunahm. Heute hat das argentinische Schienennetz eine Länge von etwa 28.300 Kilometern in drei verschiedenen Spurweiten. Zwei Eisenbahnstrecken verbinden Argentinien mit Chile, weitere Strecken haben Verbindung mit Bolivien, Paraguay, Uruguay und Brasilien. Allerdings werden immer noch Strecken stillgelegt oder verfallen und werden nicht wieder instand gesetzt. Der Personentransport per Eisenbahn spielt generell nur noch im Großraum Buenos Aires für die Pendler eine Rolle. Bahnfernverbindungen gibt es noch bzw. wieder von Buenos Aires nach Córdoba, Mar del Plata, San Miguel de Tucumán, Santa Fe und nach Posadas. Die Züge benötigen für die gleiche Strecke jedoch wesentlich länger als Fernreisebusse und haben einen sehr eingeschränkten Fahrplan (z. B. Buenos Aires, Bahnhof Retiro – Córdoba zwei Fahrten pro Woche). Zwar hat die Regierung unter Néstor Kirchner im Jahre 2006 einen „Megaplan Eisenbahn“ aufgestellt, worin auch eine 710 km lange, mit bis zu 320 km/h betriebene Hochgeschwindigkeitsstrecke Cobra zwischen Buenos Aires und Córdoba für 2011 geplant wurde. Jedoch sieht die Realität so aus, dass die infolge dieses Planes wieder reaktivierten Strecken aufgrund technischer Defizite der Schienen oder des rollenden Materials oft gleich wieder stillgelegt werden mussten. Touristisch gesehen gibt es einige interessante Züge, z. B. den "Tren a las Nubes" in der Provinz Salta, "La Trochita" – die einzige dampfbetriebene Schmalspurbahn Argentiniens, die zwischen Esquel und Nahuel Pan verkehrt – sowie den Tren del Fin del Mundo in der Provinz Tierra del Fuego. Straßenverkehr. Die Rolle der Eisenbahn für den Personentransport wurde weitestgehend von modernen, klimatisierten Reisebussen übernommen. Es kann praktisch jeder Punkt des Landes mit dem Reisebus erreicht werden, und so sind die Busbahnhöfe heute neben den Flughäfen die meistgenutzten Infrastruktureinrichtungen. Der bedeutendste Busbahnhof Argentiniens ist Retiro in Buenos Aires. Von dort gibt es Busverbindungen in das ganze Land. Weitere stark frequentierte Busbahnhöfe und Drehkreuze finden sich in Córdoba (etwa 10 Stunden Reisezeit von Buenos Aires) und Mendoza (etwa 14–15 Stunden Reisezeit von Buenos Aires). Die längste Direktverbindung besteht zwischen San Salvador de Jujuy und Río Gallegos (3430 km, fahrplanmäßig 55 Stunden Fahrzeit), von wo aus man weiter nach Ushuaia fahren kann. Das Straßennetz hat eine Gesamtlänge von etwa 215.000 km und verteilt sich auf National-, Provinz- und Gemeindestraßen. Die Qualität der Straßen variiert stark. Die großen Wirtschaftszentren sind mit asphaltierten und zum Teil gut ausgebauten Straßen verbunden, die meist über Mautgebühren von privaten Unternehmen gebaut und instand gehalten werden. In den Ballungszentren und auf einigen Hauptverbindungen existieren einige mehrspurige Autobahnen ("autopistas") und Schnellstraßen ("autovías"), die meist als reguläre National- und Provinzstraßen ausgeschildert sind. Die meisten Fernstraßen sind jedoch zweispurig und durch den Schwerlastverkehr oft stark belastet. In abgelegenen Gebieten sind häufig nur Schotter- und Erdpisten vorhanden. Da die Eisenbahn im Personenverkehr keine Rolle mehr spielt und dieser fast ausschließlich über die Straße abgewickelt wird, gibt es pro Jahr fast 10.000 Verkehrstote, was hochgerechnet auf die Einwohnerzahl eine höhere Zahl als in Indien ist. Bekannteste touristische Strecke ist die Ruta Nacional 40 zwischen "Cabo Vírgenes" an der Südspitze des Festlandes (Provinz Santa Cruz) und La Quiaca, die das gesamte Land von Nord nach Süd durchquert. Flugverkehr. Die nationale Fluggesellschaft Aerolíneas Argentinas wurde 1990 privatisiert und 2008 wieder verstaatlicht. Im Inlandsverkehr hat Aerolíneas gemeinsam mit der Tochtergesellschaft Austral Líneas Aéreas einen hohen Marktanteil; seit 2005 tritt mit der LAN Argentina ein größerer Konkurrent auf. Die zu den argentinischen Luftstreitkräften gehörende Líneas Aéreas del Estado (LADE) verbindet kleinere Städte in Patagonien. Aufgrund der großen Entfernungen verfügt fast jede größere Stadt in Argentinien über einen Flughafen. Die Hauptstadt Buenos Aires selbst besitzt zwei Passagier-Flughäfen: Internationale Flüge, insbesondere alle Langstreckenverbindungen, werden überwiegend am Flughafen Ezeiza (EZE) abgewickelt. Darüber hinaus gibt es den Stadtflughafen Aeroparque Jorge Newbery (AEP), der überwiegend für Inlandsflüge, aber auch für kürzere internationale Strecken, genutzt wird. Schiffsverkehr. Ungefähr 3100 km der Wasserwege sind schiffbar. Der Río de la Plata mit seinen Oberläufen Río Paraná und Río Uruguay ist der wichtigste Wasserweg. Über diese Flüsse wird auch ein Großteil der landwirtschaftlichen Exporte Argentiniens transportiert, die meist in der Region um Rosario auf hochseefähige Schüttgutfrachter verladen werden. Energie. Argentinien erzeugt einen Großteil seiner Energie mithilfe von erneuerbaren Energien. Die Wasserkraft hat einen Anteil von 41 % der Stromerzeugung; weitere 7 % werden von Kernkraftwerken und 52 % von Wärmekraftwerken geliefert. Daneben besitzt Argentinien große Vorkommen an Erdgas. Diese Energieform wird zum Kochen und Heizen, aber auch vermehrt als Kraftstoff für Pkw eingesetzt. Mehr und mehr spielt der Import von Erdgas, z. B. aus Bolivien, eine größere Rolle; dies aufgrund der Misswirtschaft der ansässigen Energiekonzerne, der Verknappung der Erdgasreserven und des schnell steigenden Energieverbrauchs. Auf der anderen Seite wird der Energiemix seit 1994 durch die Windenergie ergänzt, die in der Provinz Chubut in Patagonien mit ihrem besonders windigen Klima bereits einen erheblichen Teil der Stromerzeugung übernimmt. Sie wird seit der zweiten Hälfte der 1990er Jahre gesetzlich gefördert und die Branche weist daher derzeit ein hohes Wachstum auf. Argentinien gilt als eines der Länder mit dem höchsten Windkraftpotenzial der Erde, lag jedoch in der Nutzung dieser Energieform 2006 nur auf dem dritten Platz in Lateinamerika hinter Mexiko und Brasilien. November 2015 kündigt China an, in Patagonien einen Windpark mit 200 MW Leistung zu errichten; bisher sind 187 MW Windkraft in Argentinien installiert, was 0,6 % Anteil an der Stromerzeugung entspricht. An der Nutzung der Kernenergie will das Land festhalten. Bereits seit 1974 ist ein deutscher Importreaktor am Standort Atucha im Betrieb. Der zweite argentinische Reaktor am Standort Embalse, in Betrieb seit 1983, war ein Import aus Kanada. Seit 1981 befindet sich ein weiterer aus Deutschland importierter Reaktor im Bau und soll 2013 als dritter argentinischer Kernreaktor den Betrieb aufnehmen. Der Bau eines vierten Reaktors wird seit 2006 in Erwägung gezogen, möglicherweise am Standort Embalse. Mögliche Bewerber für die Ausschreibung kommen aus Kanada, Frankreich, Russland, Japan, Südkorea, China und den USA. Eine entsprechende Anfrage erfolgte durch die argentinische Regierung. 2010 wurden Kooperationsverträge mit Russland und Südkorea unterzeichnet, wobei im Mai 2011 erstmals die Möglichkeit erwähnt wurde, zusammen mit der russischen Gesellschaft Rosatom einen Reaktor zu errichten. Am 12. Juli 2014 unterzeichnete Staatspräsidentin Cristina Kirchner und Wladimir Putin eine Vereinbarung über die russische Beteiligung am Projekt "Atucha 3". Bereits 2012 hatte Argentinien mit China eine Kooperation vereinbart zu Finanzierung und Bau des Projekts "Atucha 4". Telekommunikation und Post. Die staatliche Telekommunikationsgesellschaft ENTEL wurde 1990 privatisiert und an zwei ausländische Unternehmen – "Telefónica" (Spanien) und "Telecom" (Frankreich, heute in der Hand von Telecom Italia) – verkauft, die sich das Land aufteilten. Seitdem hat die Zahl der Telefonanschlüsse je Einwohner rasant zugenommen, denn nach der Privatisierung betrug die Einrichtungsgebühr für einen Telefonanschluss mit 100 US-$ nur noch ein Zehntel der früheren Gebühr, und auch die Wartezeit bis zum Anschluss hatte sich wesentlich verringert. Heute gibt es etwa 7,9 Millionen Festnetzanschlüsse (etwa 20 Anschlüsse je 100 Einwohner). Darüber hinaus gibt es etwa 10,2 Millionen Mobiltelefonanschlüsse. Im Jahre 2003 überstieg die Anzahl der Mobiltelefonverträge erstmals die Anzahl der Festnetzanschlüsse. Die Netzqualität und -abdeckung ist aber von Betreiber zu Betreiber sehr unterschiedlich. Das Internet wird nach wie vor von vielen Privatleuten nur in sogenannten "Telecentros" (Telekommunikationsläden) oder "Locutorios" (Call Shops) und in Internetcafés ("Ciber" genannt) genutzt. Wohlhabendere Privatleute und Unternehmen nutzen in der Regel Internet via DSL oder Kabel. Auch der Postdienst wurde privatisiert. Die Bedingungen der Konzession wurde aber nicht eingehalten, und so versucht man den Postdienst neu zu vergeben. Neben dem größten Unternehmen Correo Argentino, das aus dem staatlichen Postdienst hervorging, gibt es noch mehrere kleinere Postdienste, z. B. OCA und Andreani. Wirtschaft. Argentinien ist eine gelenkte Volkswirtschaft, die in mehreren Stufen seit den 1970er Jahren zunehmend dereguliert und privatisiert wurde. Unter Präsident Néstor Kirchner jedoch wurde diese Tendenz umgekehrt. Im Jahr 2014 befand sich die argentinische Wirtschaft trotz guter Rahmenbedingungen für Rohstoffexporte auf einer Talfahrt mit massiver Abwertung des Peso. Bodenschätze. Wertvolle Mineralerze und Gesteine finden sich in Argentinien nur in kleineren Mengen, so etwa Gold, Silber, Kupfer, Blei, Zink, Eisen, Zinn, Glimmer und Kalkstein. Wirtschaftlich bedeutender sind die Erdöl- und Erdgas-Vorkommen im Nordwesten, Neuquén, der Gegend rund um die Bucht Golfo San Jorge und vor der Küste. Geschichte der Wirtschaftspolitik. Die argentinische Wirtschaft ist traditionell durch die Landwirtschaft geprägt. Bis in die 1950er Jahre wurden fast ausschließlich Agrargüter exportiert. Erst danach setzte eine Industrialisierung nennenswerten Umfanges ein. Die wirtschaftliche Entwicklung wurde jedoch von den verschiedenen Regierungen nach unterschiedlichen, teilweise widersprüchlichen Vorgaben reglementiert. Es entstand, vor allem unter dem Einfluss des Peronismus, ein breiter staatlich kontrollierter Sektor in Industrie, Handel und Dienstleistung. Dennoch hat Argentinien das Wohlstandsniveau der 1950er Jahre nie wieder erreicht. Korruption war und ist ein diesen Sektor durchziehendes Übel. Die 1976 unter der Politik der Militärdiktatur eingeleitete massive Staatsverschuldung fügte der heimischen Wirtschaft schweren Schaden zu. Die Auslandsverschuldung stieg von unter 8 Mrd. US-Dollar im Jahr 1967 auf 160 Mrd. US-Dollar im Jahr 2001. Der Peso Ley musste mehrfach abgewertet werden. Der Falklandkrieg geht möglicherweise auch auf die wirtschaftlichen Probleme unter der Militärdiktatur zurück. Nach der Rückkehr zur Demokratie 1983 erwies sich die Hyperinflation als eines der größten wirtschaftlichen Probleme des Landes. Der 1989 gewählte Präsident Carlos Menem führte daraufhin die 1:1-Bindung des argentinischen Peso an den US-Dollar ein. Dies führte fast schlagartig zu einem Ende der Inflation und zu einem deutlichen wirtschaftlichen Aufschwung. Auf längere Sicht hatte sie aber zur Folge, dass argentinische Produkte auf dem Weltmarkt teurer und Importware im Inland billiger wurden. Zahlreiche argentinische Produktionsbetriebe mussten schließen. Es kam zu einem schnell zunehmenden Ungleichgewicht zwischen dem (offiziellen) Wechselkurs der Währung und ihrer inneren Werthaltigkeit. Kapitalflucht setzte ein, und das ohnehin hoch verschuldete Land musste immer neue Kredite im Ausland aufnehmen, um alte Verbindlichkeiten bezahlen und Devisen für dringende Importe bereitstellen zu können. Gelegentlich wurden sogar Staatsbedienstete nicht mehr mit Geld, sondern mit Schuldverschreibungen bezahlt, und Geschäftsleute wurden gesetzlich verpflichtet, derartige Papiere als Zahlungsmittel anzunehmen. Anfangs wurde dies noch durch private Kapitalzuflüsse ausländischer Anleger überlagert, die sich in argentinische Unternehmen einkauften, besonders im Zuge der von Menem eingeleiteten Privatisierung von Staatsbetrieben. Doch schließlich hatte die Verschuldung so weit zugenommen und die Wirtschaftsleistung so weit abgenommen, dass Ende 2001 nach schweren Unruhen Präsident Fernando de la Rúa zurücktrat. Auslöser für die Unruhen war der sogenannte "Corralito", also das Einfrieren sämtlicher Bankguthaben. Wechselkurs des argentinischen Peso zum US-Dollar zwischen Dezember 2001 und Januar 2008 Die folgende Regierung gab die Einstellung der Zahlungen auf Tilgung und Zinsen, also den Staatsbankrott, bekannt. Wegen fehlender Unterstützung der Partei trat der übergangsweise angetretene Präsident Adolfo Rodríguez Saá schon nach fünf Tagen wieder zurück. Es folgte der Peronist Eduardo Duhalde, der im Januar 2002 den argentinischen Peso zunächst auf 1,40 ARS/US-Dollar abwertete, um ihn dann wenig später ganz freizugeben. Der IWF versorgte nach einer langen Verhandlung Mitte 2002, mit politischer Unterstützung der größten Industrienationen, Argentinien im Rahmen verschiedener Interimsabkommen mit frischem Geld. Damit konnte die argentinische Wirtschaft bereits im Jahr 2003 ein beachtliches Wachstum verzeichnen, vor allem weil nun Mittelabflüsse durch Kreditrückzahlungen nicht mehr stattfanden und wegen des nun deutlich billigeren Peso (3,5 bis 4 Argentinische Peso je US-Dollar). Allerdings wurde im März 2004 die Rückzahlung einer Rate von 3,1 Mrd. US-Dollar (etwa 2,5 Mrd. Euro) für einen im Rahmen der Interimsabkommen gewährten IWF-Kredite fällig. Erst unmittelbar vor dem letztmöglichen Termin wurde die Zahlung angewiesen. Vorausgegangen war ein mehrwöchiger Verhandlungspoker. Die argentinische Regierung wollte dabei erreichen, dass ein Bericht des IWF über die Bemühungen des Landes im Hinblick auf die Wiedergewinnung wirtschaftlicher Solidität möglichst positiv ausfiel. Dies galt als Voraussetzung für eine weitere Kreditgewährung durch den IWF. Über die Behandlung der Forderungen von privaten Gläubigern Argentiniens wurde bislang aber noch keine Einigung erzielt. Dies belastet weiterhin die Handelsbeziehungen des Landes. Im IWF war lange umstritten, ob Argentinien die Voraussetzungen für die weitere Vergabe von Krediten erfüllt. Die Auflage, in „gutem Glauben“ zu verhandeln, hat die argentinische Regierung nach Ansicht der privaten Gläubiger nicht erfüllt. Stattdessen forderte Argentinien in den Verhandlungen zwischen 2002 und 2004 einen Kapitalschnitt, der auf 75 % Barwertverlust hinausläuft. Es liefen Klagen gegen Argentinien und den IWF vor dem Bundesverfassungsgericht mit dem Ziel der vollständigen Rückzahlung des geliehenen Geldes, die teilweise noch nicht abgeschlossen sind. Eine deutsche Gläubigerorganisation ist die "Interessengemeinschaft Argentinien e. V." Anfang 2005 nahm die Regierung Verhandlungen mit den Inhabern argentinischer Staatspapiere zur Annahme eines Umschuldungsplanes auf. Dieser Plan umfasste neben einem erheblichen Kapitalschnitt die zeitliche Streckung der Verbindlichkeiten sowie eine Reduzierung des Zinses. Dabei wurde ausschließlich mit privaten Gläubigern und ihren Interessenvertretungen verhandelt. Hierbei war bislang bei inländischen Gläubigern eine deutliche Bereitschaft erkennbar, das Umschuldungsangebot zu akzeptieren. Bei ausländischen Gläubigern stießen die Vorschläge jedoch zunächst auf harten Widerstand. Der Umschuldungsplan wurde von etwas mehr als 76 % der privaten Gläubiger innerhalb der gesetzten Frist akzeptiert. Eine kurzzeitige Streitigkeit mit einem Hedgefonds um 7 Milliarden Dollar verzögerte die Ausgabe der neuen Bonds allerdings um zwei Monate bis Ende Mai 2005. Wirtschaftswachstum. Die Tabelle des Wirtschaftswachstums Argentiniens zeigt den tiefen Einschnitt bei der 2002, der zeitlich nach der mexikanischen Tequila-, der Asien- und der Brasilienkrise stattfand. Bruttoinlandsprodukt. Das Bruttoinlandsprodukt (BIP) betrug im Jahr 2003 376,2 Milliarden Arg$, dies entsprach etwa 103 Milliarden Euro. Davon entfielen etwa 43 % auf die Produktion von Waren und etwa 51 % auf die Erbringung von Dienstleistungen. Den größten Anteil am BIP hatten dabei die produzierende Industrie mit 22 %, die Landwirtschaft mit 10 %, der Groß- und Einzelhandel mit 11 % sowie die Vermietung von Gebäuden und Grundstücken mit ebenfalls 11 %. Staatsverschuldung. Während der 1990er Jahre galt Argentinien als ein positives Beispiel für finanzielle Stabilität und erfolgreiche Marktreformen, doch stieg unter der Regierung Menem die Staatsverschuldung kontinuierlich an. Dies war eine der Ursachen für die Argentinien-Krise und den Staatsbankrott im Jahr 2001. Die Staatsanleihen wurden nicht mehr bedient. Die Gläubiger, die sich einem Umtausch unterwarfen, verloren ca. 70 % ihrer Anlage, darunter viele private Kleinanleger vor allem in Italien, Japan und Deutschland. Allein in Deutschland wurden mehrere hundert Urteile erstritten, welche die Republik Argentinien zur Zahlung der ausstehenden Schulden verpflichtet. Am 31. Juli 2014 wurde bekannt, dass Argentinien zum zweiten Mal seit 2001 zahlungsunfähig sei. Seit 1985 gehört Argentinien ununterbrochen zu den Top-5-Kreditnehmern des Internationalen Währungsfonds. Inflationsrate. Argentinien war in den 1980er Jahren bekannt als ein Land mit einer sehr hohen Inflationsrate. Diese verstärkte sich ab Beginn der Redemokratisierung 1983 zunehmend zu einer Hyperinflation, deren Höhepunkt 1989 erreicht wurde. Im selben Jahr wurde unter der Regierung von Carlos Menem und seinem Wirtschaftsminister Domingo Cavallo die 1:1-Bindung des argentinischen Peso an den US-Dollar beschlossen. Diese Maßnahme konnte die Inflationsrate in der Folge relativ rasch auf „normale“ Werte drücken. Im Zeitraum zwischen 1994 und 1998 gab es keine nennenswerte Inflationsrate. Ab 1999 drehte die beginnende Wirtschaftskrise die Inflationsrate sogar in den deflationären Bereich. Mit der Argentinien-Krise, die um den Jahreswechsel 2001/2002 ihren Höhepunkt erreichte und mit der Erklärung des Default und einer Abwertung gegenüber dem Dollar verbunden war, stieg die Inflationsrate zunächst stark an, sank aber zwischenzeitlich wieder auf einstellige Werte. Seit das argentinische Statistikamt INDEC Anfang 2007 unter Regierungsaufsicht gestellt und die statistischen Berechnungsgrundlagen verändert wurden, wird die offizielle Inflationsrate von privaten Wirtschaftsinstituten und internationalen Organisationen in Zweifel gezogen. Deren Schätzungen für 2011 liegen bei ca. knapp 23 % (2010: ca. 25 %). Für 2012 wird mit ähnlichen Werten gerechnet. Die hohe Inflation schlägt sich in den letzten Jahren in den Abschlüssen der Tarifrunden nieder, bei denen die mächtigen Gewerkschaften meist Erhöhungen noch deutlich oberhalb der realen Inflationsraten erzielen konnten. Außenhandel. Der Außenhandel war in den vergangenen Jahren stark von der Argentinien-Krise geprägt. Die Importe gingen seit 1999 zurück. Im Jahresvergleich 2001/2002 hatten sie einen besonders starken Rückgang von 56 % und konnte sich erst 2003 wieder erholen. Die Exporte blieben von der Argentinien-Krise nahezu unberührt. Die Exporte sind von landwirtschaftlichen Produkten dominiert. 31 % aller Exporte sind weiterverarbeitete, landwirtschaftliche Produkte, 25 % sind Rohstoffe (wobei hierzu auch landwirtschaftliche Produkte zählen), 25 % sind industrielle Produkte und 18 % sind Mineralöle und andere Energieträger. Handelspartner sind die lateinamerikanischen Länder, insbesondere die Mercosur-Staaten, die Europäische Union und die USA. Staatshaushalt. Der Staatshaushalt umfasste 2009 Ausgaben von umgerechnet 84,3 Mrd. US-Dollar, dem standen Einnahmen von umgerechnet 80,3 Mrd. US-Dollar gegenüber. Daraus ergibt sich ein Haushaltsdefizit in Höhe von 1,3 % des BIP. Die Staatsverschuldung betrug 2009 148 Mrd. US-Dollar oder 49,1 % des BIP. Kultur. Ein scherzhafter Ausspruch von Jorge Luis Borges bezeichnet die Argentinier als „Italiener, die Spanisch sprechen und gerne Engländer wären, die glauben, in Paris zu leben.“ Dadurch kommt die Mischung des Volkes aus Einwanderern verschiedener europäischer Länder zum Ausdruck, der sich in der Kultur deutlich bemerkbar macht. Musik. Argentinische Musik ist durch den Tango (und die verwandten Musikformen Milonga und Vals) bekannt geworden. Bekannteste Interpreten sind Carlos Gardel, Astor Piazzolla und Osvaldo Pugliese. Tango kann jedoch nicht auf die musikalische Dimension beschränkt werden, vielmehr ist Tango ein gesamtkulturelles Phänomen mit den zusätzlichen Aspekten Textdichtung und tänzerische Interpretation. Als solches begründet der Tango eine kulturelle Identität, die sehr viel zum Selbstverständnis der Argentinier, genauer genommen der „Porteños“ aus Buenos Aires, beiträgt. Außerdem gibt es in Argentinien die in der traditionellen Musik verwurzelten Folkore-Interpreten. Zu den auch international beachteten Musikern zählen der als Atahualpa Yupanqui weltweit bekannt gewordene Héctor Roberto Chavero und die aus der Provinz Tucumán stammende Mercedes Sosa (1935–2009), die 1982 nach vier Jahren Exil in Madrid und Paris nach Argentinien zurückkehrte. Neuerdings sind in Argentinien einige traditionelle Musikstile von der Popmusik her wiederbelebt worden. Zu nennen sind hier der fröhlich-leichte Tanz des Cuarteto, die urbane Musik der Stadt Córdoba, sowie einige Stile der von den Spaniern übernommenen nationalen Folklore, die durch Mischung mit anderen Stilen eine völlig neue Gestalt erlangt haben. Auch Musikstile aus anderen Teilen Südamerikas, allen voran die kolumbianische Cumbia, wurden von argentinischen Interpreten weiterentwickelt. So entstand als aktueller Beitrag Argentiniens zur Popmusik in Buenos Aires die Cumbia Villera („Elendsviertel-Cumbia“). Literatur. Gauchos (Aufnahme zwischen 1890 und 1923 veröffentlicht) Im 19. Jahrhundert löst sich mit der Unabhängigkeit des Landes die argentinische Literatur von der spanischen – ohne dieses Erbe zu verleugnen. Durch die Thematisierung des Lebens der Gauchos in der Pampa gewinnt die Literatur eine deutliche nationale Komponente. Beispiele dafür sind "Fausto" (1866) von Estanislao del Campo, das in Gedichtform die Geschichte eines Gauchos erzählende und oft als argentinisches Nationalepos bezeichnete "El gaucho Martín Fierro" (1872) von José Hernández sowie das bereits 1845 entstandene "Facundo" von Domingo Faustino Sarmiento. In ähnlicher Traditionslinie steht auch die 1926 veröffentlichte Erzählung "Don Segundo Sombra" von Ricardo Güiraldes (deutsch bereits 1934: "Das Buch vom Gaucho Sombra"). Bekannte moderne Autoren sind Eduardo Mallea, Ernesto Sabato, Humberto Costantini, Julio Cortázar, Adolfo Bioy Casares, Manuel Puig, Victoria Ocampo, María Elena Walsh, Tomás Eloy Martínez, Roberto Arlt und besonders Jorge Luis Borges. Bekannte Comic- und Cartoonautoren sind Guillermo Mordillo und Quino, der unter anderem Preisträger des Max-und-Moritz-Preises ist und die Reihe "Mafalda" schuf. Theater. In vielen Städten gibt es eine lebhafte Theaterszene. Man könnte pro Woche leicht über 100 verschiedene Theaterstücke von professionellen und Laiengruppen ansehen. Besonders bekannt ist Rosario für seine Theatergruppen. Aktuell feiert die Akrobatik-Theatergruppe "De la Guarda" Erfolge in der ganzen Welt. Das bekannteste Theatergebäude Argentiniens ist das Opernhaus Teatro Colón in Buenos Aires. Malerei. Die argentinische Malerei gehört mit zu den führenden in Südamerika. Stilistisch ist die Malerei, im Gegensatz zu anderen lateinamerikanischen Ländern, weniger von indigenen Einflüssen bestimmt, sondern von der klassischen Moderne Europas. Herausragende traditionelle Maler Argentiniens sind Enrique de Larrañaga, Didimo Nardino und Horacio Politi. Eine neue Generation von Malern wird zunehmend von Einflüssen der Populärkultur wie Graffiti und New Pop Art bestimmt. Film. Argentinien war eines der Pionierländer auf dem Gebiet des Stummfilms. Schon 1896 wurde der erste Film gedreht, der die argentinische Fahne zum Thema hatte. 1933 begann der Aufstieg der argentinischen Filmindustrie mit dem Aufkommen des Tonfilms. Damit begann die beste Zeit des argentinischen Kinos, die Filme dieses Landes wurden in der ganzen Welt gezeigt. Besonders bekannt wurden die „Tangofilme“ aus Buenos Aires, unter anderem mit dem Superstar Carlos Gardel. Ab der Mitte der 1940er Jahre griff allerdings der Staat mittels Zensur und Einmischung in die Kinoszene ein. Besonders dramatisch wurde dies in den Militärregierungen (1966–1973 und 1976–1983). In den demokratischen Zwischenzeiten wurden jedoch künstlerisch sehr hochwertige Filme produziert. 1968 kam "La hora de los hornos" (deutsch: "Die Stunde der Hochöfen") von Pino Solanas heraus, ein Film, der als einer der Höhepunkte des politischen lateinamerikanischen Kinos gilt. Ein anderer politischer Filmemacher aus dieser Zeit ist Raymundo Gleyzer. Nach der Militärdiktatur begann das Kino, die Terrorherrschaft aufzuarbeiten. Es entstanden Filme wie "La Historia Oficial" (Luis Puenzo) (und Siegerfilm Oscar für den besten ausländischen Film), "La Noche de los Lápices" (Héctor Olivera), Die Neun Königinnen (Nueve Reinas) (Fabián Bielinsky) und später "Garage Olimpo" (Marco Bechis), die teils fiktive, teils wahre Fälle von sogenannten „Verschwundenen“ auf die Leinwand brachten. 1997 leitete "Pizza, Birra, Faso" (Adrián Caetano) die Epoche des „Nuevo Cine Argentino“ ein, in dem vor allem Geschichten aus dem Milieu der einfachen Leute und Elendsviertelbewohner verfilmt wurden. Heute ist die argentinische Filmszene vor allem in Buenos Aires und in geringerem Maße auch in Rosario und Santa Fe sehr aktiv. Der international bekannteste Regisseur ist derzeit wohl der Berlinale-Gewinner Pino Solanas mit seinen sozialkritischen Filmen wie "Sur", "El viaje" ("Die Reise"), "Tangos – el exilio de Gardel" sowie den aktuellen Dokumentationen "Memoria del Saqueo" und "La Dignidad de los Nadies", die den Zustand von Politik und Gesellschaft des heutigen Argentinien beschreiben. 2010 gewann der argentinische Film "El secreto de sus ojos" ("In ihren Augen") neben anderen Auszeichnungen den Oscar für den besten nicht-englischsprachigen Film. Drehbuch und Regie stammen von Juan José Campanella. Sport. Die Argentinier sind fußballbegeistert. Bereits 1893 wurde der argentinische Fußballverband AFA gegründet, dieser gehört somit zu den ältesten nationalen Fußballverbänden der Erde. Das erste Länderspiel der argentinischen Nationalmannschaft wurde 1902 gegen Uruguay ausgetragen. Seither hat die Nationalmannschaft 14 Mal die südamerikanische Fußballmeisterschaft, die Copa América, und zweimal die Fußball-Weltmeisterschaft gewonnen. Die beiden bekanntesten Fußballclubs sind River Plate und Boca Juniors, beide aus Buenos Aires. Bei Boca Juniors hat der bekannteste argentinische Fußballspieler Diego Maradona gespielt, der oft als einer der besten oder sogar als bester Fußballspieler des 20. Jahrhunderts überhaupt bezeichnet wird und inzwischen auch die Nationalmannschaft trainiert hat. Mittlerweile hat ihn Lionel Messi, der derzeit beim FC Barcelona unter Vertrag steht, als besten argentinischen Fußballer abgelöst. Die Spiele zwischen diesen beiden Mannschaften werden Superclásicos genannt und das öffentliche Leben steht dabei praktisch still. Ein weiterer beliebter Sport in Argentinien ist Rugby in der Variante Rugby Union. Die argentinische Rugby-Nationalmannschaft, die „Pumas“, spielt mittlerweile auf höchstem internationalen Niveau und vollzog in den letzten Jahren eine große Entwicklung nach vorn. Bei der Weltmeisterschaft 2007 in Frankreich belegte sie den dritten Platz und schlug dabei Größen wie Frankreich und Schottland. Auch Basketball (bei Männern) und Hockey (bei Frauen) sind weit verbreitet, bei beiden Sportarten gehören die Nationalmannschaften mit zur Weltspitze. Neben Fußball und anderen Ballsportarten genießt der Pferdesport, insbesondere das Polo ein großes Interesse in Argentinien. Die argentinische Polo-Nationalmannschaft gehört zu den besten der Welt und konnte bisher viermal den Sieg bei der Poloweltmeisterschaft erringen, nämlich 1987, 1992, 1998 und 2011. Im Gegensatz zu Polo, das eher von Mitgliedern der argentinischen Oberschicht gespielt wird, ist Pato, das den offiziellen Titel des argentinischen Nationalsports trägt, ein Spiel der einfachen Landbevölkerung. Es handelt sich um eine Art Basketball auf Pferden. Im Gegensatz zu den Mannschaftssportarten sind die argentinischen Erfolge in Individualsportarten geringer. Ausnahme ist Tennis, bei dem mehrere Spieler bisher zur Weltspitze gehörten. Bekannt sind vor allem Guillermo Vilas, Juan Martín del Potro, Gastón Gaudio, David Nalbandian und früher bei den Damen Gabriela Sabatini. Von weiten Teilen der Bevölkerung werden auch Squash und Paddle Tennis gespielt. Auch im Schwimmsport gab es einige Vertreter in der Weltspitze, in der Leichtathletik dagegen wurden von wenigen Ausnahmen abgesehen nur auf südamerikanischer Ebene Erfolge erzielt. Im Kampfsport ist die beliebteste Disziplin Boxen, das trotz der relativ geringen internationalen Bekanntheit argentinischer Boxer ein reges Medieninteresse, auch bei den Frauen, hervorruft. Im Motorsport ist wegen der landschaftlichen Bedingungen besonders die Rallye beliebt. Der bekannteste Vertreter ist jedoch der Formel-1-Fahrer Juan Manuel Fangio, vor Michael Schumacher lange Zeit Rekordweltmeister dieser Disziplin. Im November 2012 fanden in Bahía Blanca im Rahmen der Speedway-Junioren U-21-Weltmeisterschaft zwei Finalläufe statt. Feiertage. Gedenkmarsch mit Fotos von Verschwundenen am 30. Jahrestag des Militärputsches von 1976 (24. März 2006) Sollte ein Feiertag auf einen Samstag oder Sonntag fallen, so ist der darauf folgende Montag meist arbeitsfrei. Diese Regelung gilt nicht für Neujahr, Ostern und Weihnachten, den Tag der Arbeit sowie den 24. März, 25. Mai und den 9. Juli. Essen. Typisches argentinisches Asado mit Fleisch und Würstchen Typisch für die argentinische Esskultur ist das Rindfleisch, traditionell als Asado oder "Parrillada" auf einem Holz- oder Holzkohlegrill zubereitet. Des Weiteren sind der Locro, ein Maiseintopf mit zahlreichen Zutaten, und die Empanadas, gefüllte Teigtaschen, verbreitete argentinische Gerichte. Bei den Getränken ist der Mate besonders charakteristisch, der auch in den Nachbarländern Uruguay, Paraguay, Chile sowie im Süden Brasiliens getrunken wird. Es handelt sich um einen teeartigen Aufguss aus den getrockneten, zerkleinerten Blättern des Mate-Strauchs "(Yerba Mate)", den man durch einen metallenen Trinkhalm, Bombilla genannt, und zumeist in geselliger Runde und bei jeder Gelegenheit trinkt. Dabei ist es üblich, dass nur ein (ebenfalls Mate genanntes) Trinkgefäß jeweils mit heißem, aber nicht kochenden Wasser neu aufgegossen und weitergereicht wird. Oft trinkt man den Mate-Tee auch als kalte Variante, die Tereré genannt wird. Argentinien besitzt außerdem mehrere große Weinanbaugebiete. Homosexualität. Homosexualität ist in Argentinien mittlerweile weitgehend gesellschaftlich akzeptiert. 2010 wurde die Ehe für homosexuelle Paare geöffnet; in der autonomen Stadt Buenos Aires und der Provinz Río Negro konnten gleichgeschlechtliche Paare bereits seit 2003 eine eingetragene Partnerschaft eingehen. Es bestehen jedoch auf Bundesebene keine Antidiskriminierungsgesetze zum Schutz der sexuellen Orientierung. Fernsehen. Argentinien hat einen staatlichen Fernsehsender, Canal 7. Daneben gibt es eine Vielzahl von lokalen und nationalen, privaten Fernsehsendern, die über Antenne und Kabel zu empfangen sind. Des Weiteren eine große Anzahl von Sendern, die nur über Kabel und Satellit verbreitet werden. Die bekanntesten Sender sind die per Antenne zu empfangenen Telefe, Canal 9, América TV und Canal 13, die in vielen Regionen auch lokale Programme ausstrahlen. Einige argentinische Fernsehserien (darunter viele Telenovelas, Familienserien, aber auch wöchentliche Produktionen wie etwa Los Simuladores) sind wegen ihrer niedrigen Produktionskosten und der hohen Qualität zu einem Exportschlager vor allem nach Osteuropa geworden. Mit dem Ziel einer stärkeren Integration Lateinamerikas ist Argentinien zusammen mit Uruguay, Kolumbien, Venezuela und Kuba an dem Satellitensender teleSUR beteiligt, der im Juli 2005 seinen Sendebetrieb aufgenommen hat. Hörfunk. Radio ist ein sehr beliebtes Medium in Argentinien. Es gibt eine Fülle von staatlichen und privaten Radiosendern. Von den privaten Radiosendern sind viele in "Cadenas", Radio-Ketten zusammengeschlossen und so kann man viele Sender aus Buenos Aires im ganzen Land empfangen. Der staatliche Auslands-Rundfunksender Radiodifusión Argentina al Exterior (RAE) existiert seit 1949. Die Sendungen werden in Deutsch, Englisch, Französisch und Spanisch auf den Frequenzen 6060, 11.710 und 15.345 kHz ausgestrahlt. Radio 360 in Euskirchen verbreitet die deutschsprachigen Sendungen auch als Podcast. Empfangsberichte werden von RAE mit QSL-Karten bestätigt, wenn Rückporto in Form von Internationalen Antwortscheinen beigefügt wird. Printmedien. Es werden in Argentinien über 200 Tageszeitungen publiziert. Die auflagenstärksten erscheinen in Buenos Aires, zu nennen sind hier "Clarín", "La Nación" sowie die Boulevardzeitungen "Diario Popular", "La Razón", "Perfil", "Crónica", "Tiempo Argentino", "Ámbito Financiero" und "Buenos Aires Herald". Eine linksalternative Zeitung aus Buenos Aires ist "12" mit detailliertem Kulturteil. Auflagenstarke Zeitungen aus anderen Städten sind "La Capital" (Rosario), die älteste heute noch erscheinende Zeitung des Landes, sowie "La Voz del Interior" (Córdoba) mit der höchsten Auflage im Landesinneren und "La Gaceta" (Tucumán). Erwähnenswert ist weiterhin "El Tribuno", die in drei verschiedenen Ausgaben in den Provinzen Salta, Tucumán und Jujuy herausgegeben wird. In jüngerer Zeit haben eine Reihe von Zeitungen in den Großstädten Bedeutung erlangt, die vor allem in Bussen und Bahnen kostenlos verteilt werden (zum Beispiel "La Razón" und "El Diario del Bolsillo"). In Argentinien gibt es zudem eine große Anzahl von Zeitschriften und Wochenblättern. Die bekanntesten Nachrichtenmagazine sind "Noticias" und "Veintitrés", auflagenstarke Magazine des Boulevardjournalismus sind "Gente" und "Paparazzi". Des Weiteren erscheinen zahlreiche lokale Ausgaben internationaler Zeitschriften. "Siehe auch:" Liste argentinischer Zeitungen Deutschsprachige Medien. In Buenos Aires wird seit 1878 das "Argentinische Tageblatt" herausgegeben. Es erschien zwischen 1889 und 1981 täglich, wurde dann jedoch aus ökonomischen Gründen in eine Wochenzeitung umgewandelt. Zwischen 1880 und 1945 erschien zusätzlich die "Deutsche La Plata Zeitung". Im Hörfunk gibt es beispielsweise im Programm des Senders "Radio Popular" eine Sendung mit dem Namen „Treffpunkt Deutschland“, die sonntags von 10 bis 14 Uhr über Mittelwelle 660 kHz sowie via Internet übertragen wird. Auf Kurzwelle 15345 kHz sendet montags bis freitags der Radiosender Radiodifusión Argentina al Exterior ein einstündiges Programm in deutscher Sprache, welches ebenfalls auch im Internet gehört werden kann. Antigen. Antigene (engl. für "Antibody gen'"erating" bzw. griech. "antigennan" dagegen erzeugen) sind Stoffe, an die sich Antikörper und bestimmte Lymphozyten-Rezeptoren spezifisch binden können (wobei Letzteres ebenfalls bewirken kann, dass Antikörper gegen das Antigen produziert werden). Durch somatische Gen-Umlagerung können Lymphozyten Rezeptoren für fast alle möglichen Stoffe bilden. Diese Stoffe werden Antigene genannt. Die entsprechenden Rezeptoren der Lymphozyten heißen je nach Art der Lymphozyten B-Zell-Rezeptoren oder T-Zell-Rezeptoren. Ursprünglich wurde der Begriff allerdings nur auf Substanzen angewendet, die nach Injektion in einen fremden Organismus zur Antikörperbildung führten. Die spezifische Bindung von Antikörpern und Antigen-Rezeptoren an Antigene ist ein wesentlicher Teil der adaptiven Immunität gegen Pathogene. Antigene können also eine Immunantwort auslösen und damit "immunogen" wirken, jedoch ist nicht jedes Antigen auch immunogen (z. B. Haptene wirken nicht immunogen). Die Stelle des Antigens, die von dem entsprechenden Antikörper erkannt wird, heißt Epitop. Aufbau. Antigene sind meistens Proteine, können aber auch Kohlenhydrate, Lipide oder andere Stoffe sein. Sie können entweder von B-Zell-Rezeptoren, T-Zell-Rezeptoren oder (von B-Zellen produzierten) Antikörpern erkannt bzw. gebunden werden. Antigene, welche von B-Zell-Rezeptoren oder Antikörpern erkannt werden, befinden sich auf den Oberflächen von eingedrungenen Fremdkörpern (z. B. auf Pollenkörnern, Bakterienoberflächen und im Kot von Hausstaubmilben) oder Zellen und weisen dort eine dreidimensionale Struktur auf, welche spezifisch von bestimmten B-Zell-Rezeptoren oder Antikörpern erkannt werden kann. Antigene auf Zelloberflächen werden als "Oberflächenantigene" bezeichnet. Diese werden unter anderem zur Entwicklung von Impfstoffen gegen Pathogene oder Tumoren eingesetzt oder werden vor einer Bluttransfusion oder Organtransplantation untersucht, um eine Immunreaktion gegen fremde Blutgruppen zu vermeiden. Antigene, welche von T-Zell-Rezeptoren erkannt werden, sind denaturierte Peptidsequenzen von ca. zehn Aminosäuren, die von antigenpräsentierenden Zellen (APC) aufgenommen und zusammen mit MHC-Molekülen an der Oberfläche präsentiert werden. Auch körpereigene Strukturen, so auch Antikörper selbst, können als Antigene wirken, wenn sie fälschlicherweise als fremd angesehen werden (Autoantikörper). Dadurch wird eine Autoimmunreaktion ausgelöst, diese kann in schweren Fällen zu einer Autoimmunkrankheit führen. Bestimmte niedermolekulare Stoffe, die alleine keine Antikörperreaktion hervorrufen können, sondern erst durch die Bindung an ein Trägerprotein eine Immunreaktion auslösen können, heißen Haptene. Diese Haptene waren bei der Erforschung der Bindung durch Antikörper an ein Antigen wichtig, indem sie als chemisch definierte und veränderbare Versuchsobjekte dienten. Dementsprechend wird eine (meist höhermolekulare) Substanz, die diese Reaktion alleine ermöglicht, als Vollantigen bezeichnet, ein Hapten als Halbantigen. Kleine Moleküle wie einzelne Kohlenhydrate, Amino- oder Fettsäuren können keine Immunreaktion bewirken. Wirkung und Funktion. Der Nutzen der Antigenerkennung durch Lymphozyten liegt für den Organismus darin, körperfremde Substanzen, gegen die er keine erblich kodierten Rezeptoren besitzt, zu erkennen. Lymphozyten, die an körpereigene Substanzen (Autoantigene) binden, sterben ab, Lymphozyten, die an fremde Antigene binden, sind in der Lage, eine adaptive Immunantwort auszulösen. T-Lymphozyten (T-Zellen) erkennen Antigene nur, wenn diese auf den Oberflächen von anderen Zellen präsentiert werden. Antigenpräsentierende Zellen (APCs) sind spezialisierte Zellen des Immunsystems, die den T-Zellen Antigene präsentieren. Zu den sog. professionellen APCs gehören Dendritische Zellen, Makrophagen und B-Zellen. Sie nehmen Substanzen über verschiedene Mechanismen wie beispielsweise durch Endocytose auf, verarbeiten sie und koppeln sie an MHC-Moleküle. Diese werden dann an der Plasmamembran präsentiert. Eine T-Zelle mit einem passenden T-Zell-Rezeptor (TCR) kann das Antigen dann als fremd erkennen und wird, wenn auch weitere costimulative Signale vorliegen, aktiviert. B-Lymphozyten (B-Zellen), welche mit ihrem B-Zell-Rezeptor (der membranständige Vorläufer des Antikörpers) an ein Antigen gebunden haben, werden je nach Antigen entweder direkt (TI-antigen) oder mit Hilfe einer T-Helferzelle aktiviert. T-Helferzellen, welche an einen Antigen-MHC-Komplex gebunden haben und das Antigen als fremd erkannt haben, scheiden Cytokine aus, die B-Zellen zur Antikörperproduktion anregen. Je nachdem, welche Cytokine in der Umgebung ausgeschüttet werden, findet ein Class-Switch in eine der Klassen (Ig G, Ig E, Ig A) statt. Antikörper werden von den Plasma-Zellen (aktivierte B-Zellen) sezerniert, binden spezifisch an das Antigen, markieren damit den Eindringling (Opsonisierung) und führen so zur Phagocytose der Fremdkörper. Diese Aufgabe übernehmen beispielsweise Makrophagen, welche mit ihren Fc-Rezeptoren an die konstante Region der Antikörper binden. Durch die Erkennung körperfremder Antigene können gezielt Eindringlinge wie Bakterien oder Viren bekämpft werden, ohne körpereigene Zellen zu schädigen. Auch die Zellen eines fremden Menschen werden als körperfremd erkannt, denn die Struktur der Glykoproteine auf den Zelloberflächen ist bei jedem Menschen anders. Daher wirken sich diese menschlichen Antigene bei der Übertragung von organischem Material von einem Menschen auf einen anderen nachteilig aus, z. B. bei der Bluttransfusion oder Organtransplantation. Hier muss auf Blutgruppen- bzw. Gewebeverträglichkeit geachtet werden. Die Übertragung falscher Blutgruppen führt zur Verklumpung des Blutes, bei Transplantationen kann es zur Abstoßung des übertragenen Organs oder zur Schädigung des Empfängers durch das transplantierte Organ kommen (Graft-versus-Host Disease). Antigene, die Allergien auslösen können, werden Allergene genannt. Sie erzeugen eine übermäßige Immunantwort auf ein harmloses Antigen. Allergen. Ein Allergen (griechisch αλλεργιογόνο) ist eine Substanz, die über Vermittlung des Immunsystems Überempfindlichkeitsreaktionen (allergische Reaktionen) auslösen kann. Die verschiedenen Überempfindlichkeitsreaktionen (Allergien, Pseudoallergien und Intoleranzen) sind im Artikel Allergie beschrieben. Dieser Artikel beschreibt die Stoffe. Ein Allergen ist ein Antigen. Allergene haben keine chemischen Gemeinsamkeiten. Deswegen ist es nicht möglich, eine Chemikalie zu entwickeln, die Allergene zerstört. Die meisten Allergene sind Eiweiße oder Eiweißverbindungen. Das Immunsystem allergischer Patienten reagiert mit der Bildung von IgE-Antikörpern auf den Kontakt mit Allergenen. „Pseudoallergene“ sind demgegenüber Stoffe, bei denen das Immunsystem nicht beteiligt ist, wohl aber Mediatoren, wie z. B. die Histamine. IgE-reaktive Allergene. IgE-reaktive Allergene sind jene Antigene, gegen die sich die fehlgeleitete Immunantwort bei Typ-I-Allergien richtet. Diese Allergene kommen ubiquitär (überall) vor und jeder Mensch kommt auch mit ihnen in Kontakt, und zwar durch Inhalation, Nahrungsaufnahme oder Berührung. Bei gesunden Personen kommt es entweder zu keiner Immunantwort gegen Allergene oder zu einer milden Immunantwort mit der Bildung von Allergen-spezifischen IgG1- und IgG4-Antikörpern. Im Gegensatz dazu kommt es bei Allergikern zu einer Bildung von Allergen-spezifischen IgE-Antikörpern. Diese veränderte Immunantwort wird – vereinfacht dargestellt – einem verschobenen T-Helferzellen Typ 1 – Typ 2 (Th1-Th2)-Gleichgewicht zugeschrieben, mit einer Th2-dominierten Immunantwort bei Allergikern und einer Th1-dominierten Immunantwort bei gesunden Personen. Allen IgE-reaktiven Allergenen ist gemeinsam, dass sie sehr gut wasserlösliche und eher sehr stabile Proteine oder Glycoproteine sind. Es handelt sich meist um kleine Proteine in der Größe von 5 bis 80 kDa. Sonst sind Allergene von ihrer Struktur, Aminosäure-Sequenz oder biologischen Funktion her, sehr unterschiedlich. Die Frage, „was ein Allergen zu einem Allergen macht“, konnte noch nicht befriedigend geklärt werden. Verschiedene Faktoren, wie z. B. die Art der Allergenaufnahme (z. B. durch Inhalation), die Partikelgröße, die enzymatische Aktivität einiger Allergene und die Tatsache, dass Allergene in ausgesprochen kleinen Mengen aufgenommen werden (nanogramm-Mengen reichen), scheinen einen Einfluss auf die Allergenizität zu haben. Alle Allergene haben gemeinsam, dass sie von dendritischen Zellen aufgenommen werden müssen und eine Differenzierung der dendritischen Zelle in eine Th2-induzierende aktivierte dendritische Zelle induzieren. IgE-reaktive Allergene kommen in einer Vielzahl von Allergenquellen vor. Eine Allergenquelle kann mehrere verschiedene Allergene freisetzen. So sind für die Hausstaubmilbe "Dermatophagoides pteronyssinus" mehr als 20 verschiedene Allergene bekannt. Allergiker können gegen nur ein Allergen oder auch gegen mehrere Allergene einer Allergenquelle sensibilisiert sein, also IgE-Antikörper bilden. Unter „Hauptallergenen“ versteht man jene Allergene einer Allergenquelle, gegen die mehr als 50 % der Patienten mit der betreffenden Allergie, IgE-Antikörper bilden. Alle anderen sind „Nebenallergene“. Kontaktallergene. Kontaktallergene sind Auslöser von Typ-IV-Allergien. Das typische Krankheitsbild ist das allergische Kontaktekzem, das sich genau an den Körperstellen zeigt, die mit dem betreffenden Allergen in Kontakt kommen. Meist sind das die Hände, das Gesicht, die Unterschenkel oder der Nacken. Zu den häufigsten Kontaktallergenen gehören Nickel, Thiomersal, Parfum, Cobalt, Formaldehyd, Perubalsam, Kolophonium, Isothiazolinone, Chrom, Thiuramix. Besonders im beruflichen Umfeld spielen Kontaktallergene eine große Rolle. Berufsgruppen, die häufig betroffen sind, sind Köche, Friseure, Bäcker, Reinigungskräfte, Personal in der Möbelherstellung, in Fleisch und Fisch verarbeitenden Betrieben und in Gärtnereien. Die EU-Richtlinie 94/27/EG („Nickel Directive“) legt fest, dass Nickel nicht in Schmuck und anderen mit der Haut in Berührung kommenden Produkten enthalten sein darf. Inhalationsallergene oder Aeroallergene. Inhalationsallergene oder Aeroallergene werden über die Atmung aufgenommen. Ein typisches Beispiel sind Birkenpollenallergene. Nahrungsmittelallergene. Nahrungsmittel- und Arzneimittel-Allergene werden durch den Mund in den Körper aufgenommen. Es ist sehr schwierig und bisher kaum zufriedenstellend gelungen, die Allergie-auslösende Aktivität verschiedener Allergene miteinander zu vergleichen. Methoden zur Allergen-Bewertung wurden in den USA und in Australien entwickelt: Die FDA verwendet für Lebensmittelallergene die Bewertung nach LOAEL (Lowest Observed Adverse Effect Level), daneben bestehen Schwellenwerte für einige Allergene in ppm (mg Protein pro kg Lebensmittel) gemäß VITALKonzept (Voluntary Incidental Trace Allergen Labelling, Australien). Entsprechend Lebensmittel-Kennzeichnungsverordnung muss der Gehalt bestimmter (häufiger) Allergengruppen in Lebensmitteln deklariert werden. Obige Tabellen enthüllen zum Einen Widersprüche in der Bewertung des allergenen Potentials verschiedener Lebensmittel, was die Problematik dieser Quantifizierungen belegt. Zum Anderen liefern sie aber doch eine Basis, verschiedene Lebensmittel bezüglich ihrer Allergenität miteinander zu vergleichen und eine grobe Rangfolge abschätzen zu können. Laut einer Studie werden Nahrungsmittelallergene wie beispielsweise Milchbestandteile, Haselnüsse, Meeresfrüchte, Ovalbumin oder Fischallergene in vitro durch Simulierung der sauren Magenverdauung mit Pepsin innerhalb von wenigen Minuten komplett verdaut, bei pH-Wert-Anhebung allerdings nicht. Daraus folgerten die Forscherinnen, dass Nahrungsmittelallergieprobleme mit einem erhöhten pH-Milieu des Magens in Zusammenhang stehen könnten. Säuglinge hätten erst am Ende des zweiten Lebensjahres Magensäurewerte wie Erwachsene. Auch Personen mit verminderter Magensäuresekretion oder nach Einnahme von Antazida, Sucralfat, H2-Rezeptor-Blockern oder Protonenpumpeninhibitoren haben erhöhte pH-Werte im Magen. Injektionsallergene. Injektionsallergene gelangen durch Injektionen in den Körper. Dazu gehören auch die Insektengiftallergien, bei denen das Allergen durch Insektenstiche übertragen wird. Leitallergene. Leitallergene geben wichtige Hinweise darauf, inwieweit andere Stoffe zu einer allergischen Reaktion führen können. So reagieren Birkenallergiker in 50 % der Fälle im Rahmen einer Kreuzallergie auch auf bestimmte Nahrungsmittel wie Äpfel und Birnen. Allergenfreie Stoffe. Bei Arbeitern, die mit Vitamin B1 Umgang haben, sind Allergien beschrieben. Auf die Anwendung von Vitamin B12 sind bei Patienten Soforttyp-Allergien und Allergien vom verzögerten Typ beschrieben. Auch Vitamin E, INCI Tocopherol, kann in kosmetischen Produkten (hier als Antioxidans eingesetzt) Allergien auslösen. Allerdings sind diese Allergien nicht häufig. Ada Lovelace. Augusta Ada Byron King, Countess of Lovelace, allgemein als Ada Lovelace bekannt (geborene "Augusta Ada Byron"; * 10. Dezember 1815 in London; † 27. November 1852 ebenda), war eine britische Mathematikerin. Für einen nie fertiggestellten mechanischen Computer, die Analytical Engine, veröffentlichte sie als Erste ein komplexes Programm. Das Programm nahm wesentliche Aspekte späterer Programmiersprachen wie etwa das Unterprogramm oder die Verzweigung vorweg. Aus diesem Grund wird sie heute als erste Programmiererin der Welt bezeichnet – fast einhundert Jahre vor den modernen Pionieren der Programmierung wie Grace Hopper, Jean Bartik oder Howard Aiken. Die Programmiersprache Ada und die Lovelace Medal wurden nach ihr benannt. Leben. Ada im Alter von 4 JahrenAugusta Ada Byron King, Countess of Lovelace, wurde am 10. Dezember 1815 als Tochter von Anne Isabella Noel-Byron, 11. Baroness Wentworth, und George Gordon Byron (genannt "Lord Byron") geboren. Byron hatte zahlreiche Affären und drei Kinder von drei Frauen, nur Ada war ehelich geboren. Ihre Mutter zog aufgrund andauernder Auseinandersetzungen mit Lord Byron am 16. Januar 1816 gemeinsam mit der einen Monat alten Ada zu ihren Eltern nach Kirkby Mallory. Am 21. April 1816 unterzeichnete Lord Byron eine Trennungsurkunde und verließ England wenige Tage danach. Lord Byron hatte keine Beziehung zu seiner Tochter, sie traf nie mit ihm zusammen. Als Ada neun Jahre alt war, starb er. Adas mathematisch interessierte Mutter, die in ihrer Jugend von häuslichen Tutoren auch in Naturwissenschaften und Mathematik unterrichtet worden war, ermöglichte Ada eine naturwissenschaftliche Ausbildung. Im Verlauf ihrer mathematischen Studien lernte sie die Mathematikerin Mary Somerville und Charles Babbage kennen, dessen Salon sie im Alter von 17 Jahren besuchte, mit dem sie dann über Jahre korrespondierte und dessen Mitarbeiterin sie wurde. Wesentlichen Einfluss auf ihren späteren Bildungsgang und auf ihr Hauptwerk – die "Notes" – hatte Augustus De Morgan, Professor am University College London, der selbst grundlegende Beiträge zur Entwicklung der mathematischen Logik lieferte. Lovelace nahm bei ihm von 1841 an auf eigene Initiative hin Unterricht. Sie zeigte in der Öffentlichkeit ein reges Interesse an verschiedenen mathematischen und naturwissenschaftlichen Fragestellungen und verstieß damit gegen Konventionen. Mit 19 Jahren heiratete Ada Byron William King, 8. Baron King (1805–1893), der 1838 zum 1. Earl of Lovelace erhoben wurde. Auch er verfügte über eine mathematische Bildung und ließ sich, da Frauen zu dieser Zeit der Zutritt zu Bibliotheken und Universitäten untersagt war, ihr zuliebe in die Royal Society aufnehmen, wo er für sie Artikel abschrieb. Sie gebar drei Kinder in sehr kurzen Abständen, eine ihrer Töchter war Anne Blunt, 15. Baroness Wentworth. In ihrer Korrespondenz mit Mary Somerville schrieb sie, dass sie eine unglückliche Ehe führe, weil ihr neben Schwangerschaften und Kinderbetreuung so wenig Zeit für ihr Studium der Mathematik und ihre zweite Leidenschaft, die Musik, bleibe; sie war eine „passionierte Harfenspielerin“. Um sich abzulenken, stürzte sie sich ins Gesellschaftsleben und hatte mehrere Affären. Mit großer Begeisterung wettete sie auf Pferde. Die letzten Jahre ihres Lebens, die sie aufgrund eines Zervixkarzinoms im Bett verbrachte, soll sie mit der Entwicklung eines mathematisch ausgefeilten „sicheren“ Wettsystems verbracht haben. Ada Lovelace starb im Alter von 36 Jahren. Werk. 1843 übersetzte sie die durch den italienischen Mathematiker Luigi Menabrea auf Französisch angefertigte Beschreibung von Babbages "Analytical Engine" ins Englische. Durch Babbage ermutigt, fügte sie ihre eigenen Notizen und Überlegungen zum Bau dieser geplanten Maschine hinzu. Diese "Notes" waren bei ihrer Veröffentlichung etwa doppelt so umfangreich wie Menabreas ursprünglicher Artikel. Babbages Maschine wurde zu seinen Lebzeiten niemals gebaut. Einerseits war die Feinmechanik noch nicht weit genug entwickelt, um die Maschinenteile in der nötigen Präzision herzustellen, andererseits verweigerte das britische Parlament die Finanzierung von Babbages Forschungsprogramm, nachdem es die Entwicklung der Vorgängermaschine – der "Differential Engine" – bereits mit 17000 GBP gefördert hatte (ein Wert von rund 3,4 Mio. GBP im Jahr 2014). Dessen ungeachtet legte Ada Lovelace in den „"Notes“" einen schriftlichen Plan zur Berechnung der Bernoulli-Zahlen in Diagrammform vor, welcher als das erste veröffentlichte formale Programm gelten kann. Wissenschaftlicher Beitrag. In Lovelaces „"Notes“" finden sich eine Reihe dem Stand der Forschung um 1840 weit vorausgreifende Konzepte. Während ihre Beiträge zu Rechnerarchitektur und Grundlagen der Programmierung bis zu ihrer Wiederentdeckung in den 1980er Jahren weitgehend in Vergessenheit gerieten, spielten ihre Standpunkte zur künstlichen Intelligenz in erkenntnistheoretischen Debatten als „"Lady Lovelaces Objection“" bereits bei Begründung dieses Forschungsbereichs der Informatik eine gewisse Rolle (s. u.). Rechenmaschine vs. Computer. Eine Rechenmaschine kann nur eine fixe Berechnung durchführen oder ist auf die manuelle Eingabe der durchzuführenden Operationen angewiesen. Mit der Programmierung dagegen kann man beliebig komplexe Algorithmen für den Rechner formulieren und automatisch ablaufen lassen. Anwendungsbereiche der Maschine. Babbages Motivation für die Analytical Engine war die Berechnung von Zahlentabellen für den Einsatz in Naturwissenschaft und Ingenieurwesen. Lovelace dagegen hatte das weitaus größere Potenzial der Maschine erkannt: Sie würde nicht nur numerische Berechnungen anstellen können, sondern auch Buchstaben kombinieren und Musik komponieren. Diese nämlich beruhe auf den Relationen von Tönen, welche sich als Zahlenkombinationen ausdrücken ließen. Hardware vs. Software. Auch erkannte Ada Lovelace, dass die Maschine einen physischen Teil hat, nämlich die Kupferräder und Lochkarten, und einen symbolischen, also die automatischen Berechnungen. Damit nahm sie die Unterteilung in Hardware und Software vorweg. Verzweigungen, Schleifen, Rekursion. Babbage stellte Lovelace eine Formel für die Bernoulli-Zahlen zur Verfügung. Lovelace schrieb dazu in Tabellendarstellung Befehle auf, die die nötigen Schritte für die Berechnung für die verschiedenen Maschinenteile aufführten. In diesem Zusammenhang stellte sie Überlegungen darüber an, wie mathematische Operationen sich verbinden, verschachteln und wiederholen ließen, um die Anzahl der Instruktionen im Programm zu vermindern – heute würde man von Verzweigungen, Schleifen und Rekursion sprechen. Lady Lovelace’s Objection. In den „"Notes“" schreibt Lovelace 1843 „Die Maschine kann [nur] das tun, was wir ihr zu befehlen vermögen, sie kann der [Anm. d. Ü.: gemeint "unserer"] Analyse folgen. Sie hat jedoch keine Fähigkeit zur Erkenntnis analytischer Verhältnisse oder Wahrheiten“. Umgangssprachlich postuliert Lovelace hier, dass eine Maschine im Gegensatz zum menschlichen Geist keine Fähigkeit zur Intuition habe und daher nicht zu eigener Erkenntnis befähigt sei. Alan Turing geht in seinem Artikel "Computing Machinery and Intelligence" aus dem Jahr 1950 auf diesen Einwand als „Lady Lovelace Objection’’ ein. Die These (und Turings Widerspruch dagegen) ist seitdem immer wieder Gegenstand von Debatten sowohl in der Informatik als auch in der Philosophie. Ascorbinsäure. Ascorbinsäure ist ein farb- und geruchloser, kristalliner, gut wasserlöslicher Feststoff mit saurem Geschmack. Sie ist eine organische Säure, genauer eine vinyloge Carbonsäure; ihre Salze heißen Ascorbate. Ascorbinsäure gibt es in vier verschiedenen stereoisomeren Formen, biologische Aktivität weist jedoch nur die L-(+)-Ascorbinsäure auf. Eine wichtige Eigenschaft ist beim Menschen und einigen anderen Spezies die physiologische Wirkung als Vitamin. Ein Mangel kann sich bei Menschen durch Skorbut manifestieren. Der Name ist daher abgeleitet von der lateinischen Bezeichnung der Krankheit, "scorbutus", mit der verneinenden Vorsilbe "a-" (weg-, un-), also die ‚antiskorbutische‘ Säure. Da Ascorbinsäure leicht oxidierbar ist, wirkt sie als Redukton und wird als Antioxidans eingesetzt. Die L-(+)-Ascorbinsäure und ihre Ableitungen (Derivate) mit gleicher Wirkung werden unter der Bezeichnung Vitamin C zusammengefasst. Der Sammelbegriff Vitamin C umfasst daher auch Stoffe, die im Körper zu L-(+)-Ascorbinsäure umgesetzt werden können, wie zum Beispiel die Dehydroascorbinsäure (DHA). Geschichte. a> liefert Vitamin C in hoher Konzentration Erforschung des Skorbut. Skorbut war bereits im 2. Jahrtausend v. Chr. im Alten Ägypten als Krankheit bekannt. Auch der griechische Arzt Hippokrates und der römische Autor Plinius berichten darüber. Bis ins 18. Jahrhundert war Skorbut die häufigste Todesursache auf Seereisen. Im Jahre 1747 untersuchte der britische Schiffsarzt James Lind diese Krankheit. Er nahm zwölf Seeleute, die unter Skorbut litten, und teilte sie in sechs Gruppen zu je zwei Personen. Jeder Gruppe gab er zusätzlich zu den üblichen Nahrungsrationen einen weiteren speziellen Nahrungsmittelzusatz, darunter Obstwein, Schwefelsäure, Essig, Gewürze und Kräuter, Seewasser, sowie Orangen und Zitronen. Er stellte fest, dass die Gruppe, welche die Zitrusfrüchte erhielt, eine rasche Besserung zeigte. Im Jahr 1757 veröffentlichte Lind dieses Resultat. Doch erst 1795 ließ die britische Marine die Nahrungsrationen auf See mit Zitronensaft ergänzen. Zusätzlich wurden Sauerkraut und Malz zur Skorbutprävention eingesetzt. Lange Zeit wurde behauptet, dass Skorbut die Folge einer speziellen bakteriellen Erkrankung, Vergiftung, mangelnder Hygiene oder Überarbeitung sei. Der Engländer George Budd vermutete bereits 1842, dass in der Nahrung spezielle essentielle Faktoren enthalten sein müssen. Fehlen diese, würden erkennbare Mangelerscheinungen auftreten. Diese Entwicklungen gerieten wieder in Vergessenheit, als die Reisedauer durch das Aufkommen der Dampfschifffahrt stark verkürzt wurde und dadurch die Gefahr des Mangels sank. Außerdem führte die fehlende exakte Identifikation des Vitamins dazu, dass wirksamer frischer Orangensaft durch billigeren gekochten Limettensaft ersetzt wurde. Zuletzt machte Ende des 19. Jahrhunderts die sogenannte "Ptomain-Theorie" von sich reden, die eine Nahrungsmittelvergiftung für den Skorbut verantwortlich machte. So kam es, dass auf den großen Polarexpeditionen wieder der Skorbut Einzug hielt und zwar mit frischen Lebensmitteln geheilt werden konnte, aber es hatte zunächst niemand ein korrektes Konzept für die Vorbeugung. Betroffen waren insbesondere die britische Arktisexpedition 1875–1876, die Jackson-Harmsworth-Expedition 1894–1897, Scotts Discovery-Expedition 1901–1904 und die Terra-Nova-Expedition 1910–1913. Im Jahr 1907 entdeckten zwei norwegische Ärzte zufällig ein Tiermodell zur Erforschung des Skorbuts: Axel Holst und Theodor Frølich studierten ursprünglich den „Schiffs-Beriberi“ der Schiffsbesatzungen der norwegischen Fischereiflotte, und zwar anhand von Tauben als Versuchstiere. Sie gaben später Meerschweinchen dasselbe Futter aus Getreide und Mehl, die jedoch unerwarteterweise mit Skorbutsymptomen reagierten. Somit beobachteten Holst und Frølich erstmals den Skorbut, der bis dahin nur bei Menschen beobachtet wurde, an Tieren. Sie zeigten ferner, dass durch bestimmte Futterzusätze die Krankheit bei den Meerschweinchen geheilt werden konnte. Damit leisteten sie einen wesentlichen Beitrag zur Entdeckung des Vitamins C ab dem Jahre 1928 durch den Ungarn Albert Szent-Györgyi und den Amerikaner Charles Glen King. Isolierung der Ascorbinsäure. Im Jahr 1912 entdeckte der Biochemiker Casimir Funk nach Studien zu der Mangelerkrankung Beriberi, dass diese durch das Fehlen der chemischen Substanz Thiamin (Vitamin B1) verursacht wurde. Er prägte dafür das Kunstwort „Vitamin“, eine Zusammensetzung aus "vita" (Leben) und "Amin" (Aminogruppe). In Bezug auf Skorbut vermutete er fälschlicherweise einen ähnlichen Faktor und bezeichnete diesen als „Antiskorbut-Vitamin“ (heute: Vitamin C). Tatsächlich enthält Vitamin C keine chemische Aminogruppe, dennoch ist die Bezeichnung bis heute geblieben. Im Jahr 1921 gab der Biochemiker Sylvester Zilva einer Mischung von aus Zitronensaft isolierten Substanzen, die in der Lage war, Skorbut zu heilen, die Bezeichnung "Vitamin C". Bereits 1927 gelang es dem ungarischen Wissenschaftler Albert von Szent-Györgyi Nagyrápolt, Vitamin C aus der Nebenniere, Orangensaft beziehungsweise Weißkohl zu isolieren. Die so isolierte Ascorbinsäure sandte er Zilva zu, der diese aber nach Analyse fälschlicherweise nicht als Vitamin C erkannte. Durch diesen Fehler verzögerte sich die Identifikation von Ascorbinsäure als Vitamin C um mehrere Jahre. In den 1920er Jahren verfehlten auch andere, wie zum Beispiel der Wissenschaftler Karl Paul Link oder Oberst Edward B. Vedder, den Nachweis dafür, dass Ascorbinsäure Skorbut heilen kann und das postulierte Vitamin C ist. Zwischen 1928 und 1934 gelang es Szent-Györgyi sowie Joseph L. Svirbely und unabhängig davon Charles Glen King mit seinen Mitarbeitern, durch Kristallisationsversuche die für die Heilung von Skorbut verantwortliche Substanz zu isolieren. Im Jahr 1931 isolierten King und Svirbely kristallines Vitamin C aus Zitronensaft und erkannten, dass diese Skorbut heilen kann und die physikalischen und chemischen Eigenschaften der damals noch kaum charakterisierten sogenannten "Hexuronsäure", der heutigen Ascorbinsäure, teilte. Szent-Györgyi wollte diese Säure zunächst „Ignose“ nennen (von "ignosco"), da sie trotz vieler Wissenslücken mit Hexosen verwandt war. Dieser Name wurde aber nicht akzeptiert. Da die Anzahl der Kohlenstoffatome (sechs C-Atome) bekannt war und die Substanz sich wie eine Säure verhält, wurde der Name "Hexuronsäure" von Szent-Györgyi eingeführt. Svirbely wechselte bald als Mitarbeiter zu Szent-Györgyi. Sie bewiesen, dass die bisher isolierten Substanzen mit Skorbut heilenden Eigenschaften (Vitamin C) mit der Hexuronsäure übereinstimmten. Damit stellte Szent-Györgyi fest, dass diese das lang gesuchte Vitamin C ist. Die Struktur dieser damals noch Hexuronsäure genannten Verbindung wurde 1933 schließlich durch die Arbeiten von Walter Norman Haworth und dessen damaligen Assistenten Edmund Hirst aufgeklärt. Szent-Györgyi und Haworth änderten den Namen der Hexuronsäure schließlich in "L-Ascorbinsäure", der bis heute akzeptiert wird. 1934 gelang Haworth und Tadeus Reichstein erstmals die Synthese künstlicher L-Ascorbinsäure aus Glucose. Haworth erhielt 1937 für seine Forschungen am Vitamin C den Nobelpreis für Chemie, Szent-Györgyi den für Medizin. Seit 1967 propagierte Linus Pauling die Verwendung hoher Dosen von Ascorbinsäure als Vorbeugung gegen Erkältungen und Krebs, was jedoch umstritten ist. Pauling selbst nahm 18 g pro Tag ein und starb 1994 im Alter von 93 Jahren an Prostatakrebs. Der "Medical Observer online" berichtet im Januar 2012 über Untersuchungen, die zu dem Ergebnis kommen, dass Vitamin C zwar keinen Schutz vor Erkältungen biete, aber trotzdem von zentraler Bedeutung für das Immunsystem sei. So gäbe es zahlreiche Hinweise darauf, dass ausreichend Vitamin C das Immunsystem stärke. Die industrielle Herstellung von Vitamin C begann 1934 durch Roche in der Schweiz. Die Nachfrage danach blieb anfangs gering. Die Zeit des Nationalsozialismus. In der Zeit des Nationalsozialismus (1933–45) förderten die Machthaber in Deutschland die Versorgung der Bevölkerung mit den damals gerade erst entdeckten Vitaminen sehr aktiv. Sie wollten so den „Volkskörper von innen stärken“, weil sie davon überzeugt waren, dass Deutschland den Ersten Weltkrieg auch als Folge von Mangelernährung verloren hatte. In "Vitamin-Aktionen" wurden Kinder, Mütter, Schwerstarbeiter und Soldaten mit Vitaminen versorgt, insbesondere mit Vitamin C. Nationalsozialistische Massenorganisationen wie die Deutsche Arbeitsfront und die Reichsarbeitsgemeinschaft für Volksernährung organisierten die Produktion und Verteilung von Vitamin-C-Präparaten. Hausfrauen wurden dazu aufgerufen, Hagebutten, Sanddorn, Walnüsse und Fichtennadeln zu sammeln, aus denen Brotaufstriche und andere Vitaminpräparate für die Wehrmacht hergestellt wurden. Noch 1944 bestellte die Wehrmacht 200 Tonnen Vitamin C, unter anderem bei Roche. Vorkommen. Vergleichende Darstellung des Ascorbinsäuregehalts pro 100 g Beeren, Obst oder Gemüse. In der Nahrung kommt Vitamin C vor allem in Obst und Gemüse vor, sein Gehalt sinkt jedoch beim Kochen, Trocknen oder Einweichen sowie bei der Lagerhaltung. Zitrusfrüchte wie Orangen, Zitronen und Grapefruits enthalten – in reifem Zustand unmittelbar nach der Ernte – viel Vitamin C. Grünkohl hat den höchsten Vitamin-C-Gehalt aller Kohlarten (105–120 mg/100 g verzehrbare Substanz). Rotkraut, Weißkraut und Sauerkraut sind ebenfalls Vitamin-C-Lieferanten. Sauerkraut war lange Zeit in der Seefahrt von Bedeutung, wo ein haltbares Vitamin-C-reiches Nahrungsmittel benötigt wurde. Die höchsten natürlichen Vitamin-C-Konzentrationen wurden in der Buschpflaume und im Camu-Camu gefunden. In Sauerkraut und Kohlgemüse ist Ascorbinsäure in Form von "Ascorbigen A" und "B" (C-2-Scatyl-L-ascorbinsäure) gebunden. Wird das Gemüse gekocht, zerfallen die Moleküle in L-Ascorbinsäure und 3-Hydroxyindol, sodass es in gekochtem Zustand mehr Vitamin C enthalten kann als im rohen Zustand. Durch zu langes Kochen wird das Vitamin jedoch zerstört und gelangt verstärkt in das Kochwasser. Viele Gemüsearten enthalten Ascorbinsäure-Oxidase, die insbesondere durch Zerkleinern mit dem Vitamin in Berührung kommt und dieses oxidiert. Das führt zum Beispiel bei Rohkost, die nicht sofort verzehrt wird, zu erheblichen Vitamin-C-Verlusten. Die folgenden Angaben dienen nur der Orientierung, die tatsächlichen Werte hängen stark von der Sorte der Pflanze, der Bodenbeschaffenheit, dem Klima während des Wachstums, der Lagerdauer nach der Ernte, den Lagerbedingungen und der Zubereitung ab. Herstellung. Die Jahresproduktion an Ascorbinsäure lag 2006 weltweit bei etwa 80.000 Tonnen und hat sich damit seit 1999 mehr als verdoppelt.. Marktführer war lange Zeit die Schweizer Hoffmann-La Roche (30 % Weltumsatz), gefolgt vom BASF-NEPG-Kartell (auch etwa 30 %) und der Firma Merck. Im Jahr 2002 hat Hoffmann-La Roche seine Vitaminsparte für 3,4 Milliarden Schweizer Franken, etwa 2,1 Milliarden Euro, an die niederländische Koninklijke DSM verkauft. Der größte Produzent von Ascorbinsäure ist heute die Volksrepublik China, wo sie ausschließlich biotechnologisch produziert wird. Synthese. Ascorbinsäure kann aus C5-Zuckern wie L-Xyloson, L-Lyxose, L-Xylose und L-Arabinose synthetisiert werden. Für die großtechnische Synthese dagegen wird in der chemischen Industrie aus der Ausgangssubstanz D-Glucose – einer Hexose – über die Stufe des Sorbitols kristalline Ascorbinsäure, Natriumascorbat (E 301), Calciumascorbat (E 302) und Ascorbylmonophosphat hergestellt. Die 1934 entdeckte Reichstein-Synthese bildet die Grundlage der industriellen, chemisch-mikrobiologischen Produktion. Biologisch-technisches Verfahren. Zur Unterscheidung von diesem synthetisch hergestellten Produkt wird ein mit Hilfe gentechnisch veränderter Mikroorganismen hergestelltes Vitamin C international mit GMO-Vitamin C ("GMO",: „gentechnisch veränderter Organismus“) bezeichnet. GMO-Ascorbinsäure ist preiswerter; nach diesem Verfahren wird weltweit der größere Teil hergestellt. Im Sonoyama-Verfahren wird Ascorbinsäure aus D-Glucose hergestellt. Dabei wird dieses zunächst durch "Pantoea agglomerans" zu 2,5-Dioxo-D-Gluconsäure oxidiert. Ein zweiter Stamm, "Aureobacterium sp.", reduziert das Produkt zu 2-Oxo-L-Gulonsäure, das dann wie bei der Reichstein-Synthese zu L-Ascorbinsäure umgesetzt wird. Es wird versucht, "P. agglomerans"-Stämme gentechnisch so zu verändern, dass diese aus Glucose in einem einstufigen mikrobiellen Verfahren 2-Oxo-L-Gulonsäure herstellen. Physikalische Eigenschaften. Ascorbinsäure bildet unter Normalbedingungen farblose Kristalle, die gegen Licht, Wärme und Luft beständig sind. Der Schmelzpunkt liegt bei 190–192 °C. Das Schmelzen erfolgt unter Zersetzung. In fester Phase bildet Ascorbinsäure zwei intramolekulare Wasserstoffbrückenbindungen, die maßgeblich zur Stabilität und damit zu den chemischen Eigenschaften der Endiol-Struktur beitragen. Ascorbinsäure kristalliert im monoklinen Kristallsystem mit den Gitterparametern a = 1730 pm, b = 635 pm, c = 641 pm, β = 102°11´. Die vier Moleküle der Einheitszelle sind paarweise durch Pseudoschraubenachsen verbunden. Die Moleküle bestehen aus einem Fünfring und der Seitenkette, wobei die Endiolgruppe planar ist. Molekulare Eigenschaften. Ascorbinsäure enthält mehrere Strukturelemente, die zu ihrem chemischen Verhalten beitragen: eine Lactonstruktur, zwei enolische Hydroxygruppen sowie eine sekundäre und eine primäre Alkoholgruppe. Der Lactonring ist nahezu planar. Ascorbinsäure hat zwei asymmetrische Kohlenstoffatome (C4 und C5) und existiert damit in vier verschiedenen stereoisomeren Formen, die optische Aktivität aufweisen. Die Moleküle L- und D-Ascorbinsäure verhalten sich wie Bild und Spiegelbild zueinander, sie sind Enantiomere, ebenso die L- und die D-Isoascorbinsäure. L-Ascorbinsäure und D-Isoascorbinsäure sowie D-Ascorbinsäure und L-Isoascorbinsäure sind Epimere, sie unterscheiden sich in der Konfiguration nur eines Kohlenstoffatoms. Trotz dieser geringen Unterschiede sind die Stereoisomere der L-Ascorbinsäure im Körper fast alle inaktiv, da die am Stoffwechsel beteiligten Enzyme spezifisch L-Ascorbinsäure erkennen. Lediglich die D-Isoascorbinsäure (E 315) weist eine geringe Wirkung auf. Chemische Eigenschaften. Obwohl Ascorbinsäure keine der „klassischen“ sauren funktionellen Carbonsäure-, Sulfonsäure- oder Phosphonsäuregruppen aufweist, ist sie beträchtlich sauer. Mit einem pKs-Wert von 4,25 ist sie saurer als Essigsäure mit pKs = 4,8. Sie liegt damit unter physiologischen Bedingungen als "Ascorbat-Anion" AscH− vor. Dies ist zum einen auf die Endiol-Struktur zurückzuführen. Enole sind bereits deutlich saurer als Alkohole. Zusätzlich wird die Azidität bei Ascorbinsäure durch die zweite enolische Hydroxygruppe und durch die benachbarte Carbonylgruppe noch verstärkt. Zum anderen wird das nach Abspaltung des Protons entstehende Enolat-Anion mittels Keto-Enol-Tautomerie stabilisiert. Die dann am Sauerstoff bestehende negative Ladung wird dabei sowohl über die Doppelbindung zwischen den beiden Kohlenstoffatomen als auch über die Carbonylfunktion delokalisiert, also verteilt und somit stabilisiert. Strukturell könnte diese Gruppierung als vinyloge Carbonsäure aufgefasst werden, das heißt als eine Carbonsäure-Funktion mit „eingeschobener“ Kohlenstoff-Kohlenstoff-Doppelbindung zwischen Carbonylgruppe und Hydroxygruppe. Die Endiol-Struktur bedingt die reduzierenden (antioxidativen) Eigenschaften der Ascorbinsäure, da Endiole leicht zu Diketonen oxidiert werden können. Endiole mit benachbarter Carbonylgruppe heißen daher auch "Reduktone". Gleichgewichtsreaktionen von Ascorbinsäure (AscH2). Diese kann sukzessiv Elektronen und Protonen abgeben und schließlich zur oxidierten Form (Asc), der Dehydroascorbinsäure (DHA), gelangen. Diese liegt in wässrigen Lösungen als Monohydrat vor. Die andere enolische Hydroxygruppe hat nur schwach saure Eigenschaften (pKs = 11,79), da hier das Anion weniger mesomere Grenzstrukturen zur Stabilisierung ausbilden kann. Nach Abgabe beider Protonen entsteht aus Ascorbinsäure ein Dianion (Asc2−). Die intermediäre Form, die durch Abgabe eines Elektrons und eines Protons entsteht (AscH.), ist eine sehr starke Säure (pKs = −0,45). Sie hat wegen ihrer Kurzlebigkeit im Metabolismus keine Bedeutung. Ascorbinsäure ist in wässrigen Lösungen ein starkes Reduktionsmittel. Hierbei kann es über Zwischenstufen zu Dehydroascorbinsäure (DHA) oxidiert werden. Dieser Prozess ist reversibel, so können beispielsweise Cystein, Dithiothreitol oder andere Thiole DHA zurück zu Ascorbinsäure reduzieren. In der Reduktions- und Oxidationswirkung liegt eine wichtige Eigenschaft von Vitamin C in biologischen Systemen. In kristalliner Form ist Ascorbinsäure relativ stabil gegenüber Oxidation durch Luftsauerstoff. In wässriger Lösung geschieht die Zersetzung wesentlich rascher, wobei eine Temperaturerhöhung, eine Erhöhung des pH-Wertes sowie die Anwesenheit von Schwermetallionen diese beschleunigen. Säuren wie Citronensäure, Oxalsäure oder Metaphosphorsäure sowie Komplexbildner wie 8-Hydroxychinolin wirken stabilisierend. Bei der Zubereitung von Nahrungsmitteln durch Kochen werden durchschnittlich 30 % der enthaltenen Ascorbinsäure zersetzt. Je nach Art und Dauer von Lagerung oder Zubereitung sind Verluste bis zu 100 % möglich. Dehydroascorbinsäure. L-Dehydroascorbinsäure (englisch "dehydro ascorbic acid", DHA) entsteht durch Oxidation von Ascorbinsäure. Im menschlichen Metabolismus kann sie zu L-Ascorbinsäure reduziert werden und damit Vitamin C regenerieren. Dehydroascorbinsäure liegt in wässrigen Lösungen nahezu vollständig als Monohydrat (mono-DHA·H2O) vor. Dabei bildet es einen Bizyklus, was durch Kernspinresonanzspektroskopie nachgewiesen wurde. Möglicherweise kann es noch ein zweites Molekül Wasser aufnehmen, um dann ein Dihydrat auszubilden. Auch Semi-Dehydroascorbinsäure sowie oxidierte Formen veresterter Ascorbinsäuren werden zur Gruppe der Dehydroascorbinsäure gezählt. Generell wird Vitamin C in Form von DHA durch Glucosetransporter, hauptsächlich GLUT-1, in die Mitochondrien der Zellen transportiert, da nur sehr wenige Zellen über spezifische Vitamin-C-Transporter verfügen. Hierbei sind die meisten dieser Transporter Natriumionen-abhängig. Insbesondere das Gehirn ist auf eine Versorgung mit Ascorbinsäure angewiesen, das Vitamin kann jedoch nicht die Blut-Hirn-Schranke passieren. Dieses Problem wird dadurch umgangen, dass Dehydroascorbinsäure durch Glucosetransporter, zum Beispiel "GLUT1", durch die Schranke transportiert und in den Gehirnzellen zu Ascorbinsäure reduziert wird. Es wird davon ausgegangen, dass Ascorbinsäure in Form von DHA intrazellulär transportiert wird. Hierbei soll extrazelluläre Ascorbinsäure zu DHA oxidiert, in die Zelle aufgenommen und dann wieder reduziert werden, da Ascorbinsäure selbst die Zelle nicht verlassen kann. DHA ist instabiler als L-Ascorbinsäure. Je nach Reaktionsbedingungen (pH-Wert, An- beziehungsweise Abwesenheit von Reduktionsmitteln wie Glutathion) kann es entweder wieder zurück in Ascorbinsäure umgewandelt werden oder zu Diketogulonsäure (DKG) irreversibel hydrolysieren. Verwendung. Ascorbinsäure findet hauptsächlich als Antioxidans Verwendung. Sie wird vielen Lebensmittelprodukten als Konservierungsmittel beziehungsweise Umrötungshilfsmittel, zum Beispiel bei der Herstellung von Brühwürsten, unter der Nummer E 300 zugesetzt. Weitere E-Nummern von Ascorbinsäurederivaten sind E 301 (Natriumascorbat), E 302 (Calciumascorbat), E 304a (Ascorbylpalmitat) und E 304b (Ascorbylstearat). Naturtrüber Apfelsaft kann bei der Herstellung mit Ascorbinsäure versetzt werden und wird dadurch deutlich heller, weil im natürlichen Saft vorhandene Chinone, die bei der Pressung durch Oxidation von Phenolen mit Luftsauerstoff und dem Enzym Polyphenoloxidase entstehen und eine braune Farbe bewirken, wieder reduziert werden. Ascorbylpalmitat wird zur Verhinderung der Autooxidation von Fetten eingesetzt und verhindert so, dass diese ranzig werden. Der Ascorbinsäurezusatz zu Mehlen als Mehlbehandlungsmittel soll das Gashaltevermögen und das Volumen der Teige vergrößern. Dies lässt sich durch die Ausbildung zusätzlicher Disulfidbrücken zwischen den Kleber-Strängen des Teiges erklären. Auch im Pharma-Bereich dient Ascorbinsäure als Antioxidans zur Stabilisierung von Pharmaprodukten. In der Küche wird Ascorbinsäure (in Rezepten meist als „Vitamin-C-Pulver“ bezeichnet) eingesetzt, damit geschnittenes Obst (meist Äpfel und Bananen) länger frisch bleibt und nicht braun wird. Wegen seiner reduzierenden Eigenschaft wird Ascorbinsäure vereinzelt als Entwicklungssubstanz in photographischen Entwicklern eingesetzt. Zum Auflösen von Heroinbase vor der Injektion wird oft Ascorbinsäure mit dem Heroin aufgekocht. Physiologische Bedeutung. Molekülmodell von Vitamin C als Briefmarkenmotiv Vitamin C ist ein Radikalfänger und hat eine antioxidative Wirkung (es wirkt also als Reduktionsmittel). Weiterhin stellt Vitamin C ein wichtiges Coenzym für die Prolyl-4-Hydroxylase dar. Dieses Enzym wird bei der Biosynthese des Proteins (Eiweißes) Kollagen benötigt. Es wandelt integrierte Prolinreste in 4-Hydroxyprolyl-Seitenketten unter Verbrauch von molekularem Sauerstoff um. Hydroxyprolin ist für den stabilen Kollagenaufbau unerlässlich. Ebenfalls innerhalb der Biosynthese von Kollagen, aber auch weiterer Proteine, findet mithilfe von Ascorbinsäure und des Enzyms Lysylhydroxylase die Hydroxylierung von L-Lysin zum Hydroxylysin statt. Im Kollagen erfüllt dieses eine Funktion in der kovalenten Quervernetzung benachbarter Moleküle. Darüber hinaus kann Hydroxylysin im Kollagen und weiteren Proteinen glykosyliert werden, was zur Bildung von Glykoproteinen führt. Mangel an Vitamin C führt zu einer verminderten Aktivität der Prolyl-Hydroxylierung und der Lysyl-Hydroxylierung und damit zur Instabilität von Kollagen. Da Kollagen in praktisch allen Organen und Geweben des menschlichen und tierischen Organismus vorkommt, vor allem im Bindegewebe, wird bei Mangel von Vitamin C Skorbut ausgelöst. Bei der Hydroxylierung von Steroiden ist Vitamin C ein wichtiger Cofaktor. Darüber hinaus spielt es eine wichtige Rolle beim Aufbau von Aminosäuren wie beispielsweise dem L-Tyrosin. Auch bei der Umwandlung von Dopamin zu Noradrenalin, im Cholesterin-Stoffwechsel (Ascorbinsäure spielt eine Rolle bei der Umwandlung von Cholesterol zu Gallensäure und senkt dadurch den Blut-Cholesterol-Gehalt), der Serotoninsynthese und bei der Carnitinbiosynthese wird Ascorbinsäure benötigt. Mit Niacin und Vitamin B6 steuert Vitamin C die Produktion von L-Carnitin, das für die Fettverbrennung in der Muskulatur benötigt wird. Weiterhin begünstigt es die Eisenresorption im Dünndarm. Aufgrund der hohen Konzentration von Vitamin C im männlichen Sperma wird der Einfluss auf die Zeugungsfähigkeit derzeit untersucht. Vitamin-C-Gaben bei manchen unfruchtbaren Männern konnten vereinzelt die Spermienqualität erhöhen. Die Stimulation der körpereigenen Abwehr, die dem Vitamin C oft zugeschrieben wird, wird unter anderem durch einen Schutz der Phagozytenmembran vor oxidativer Selbstzerstörung erklärt. Diese oxidative Selbstzerstörung kann sonst durch das bei der Phagozytose ausgelöste Halogenid-Peroxidase-System ausgelöst werden. Zudem wurde in Tierversuchen eine erhöhte Interferonproduktion sowie eine Aktivierung des Komplementsystems nach Gabe von Vitamin C beobachtet werden. Generell wurde bei Leukozyten im Blut, die einen wichtigen Stellenwert in der Immunabwehr einnehmen, ein hoher Ascorbinsäuregehalt festgestellt. Weiterhin scheint Vitamin C Einfluss auf zahlreiche weitere neutrophile Funktionen zu haben, wie die Chemotaxis, Aufnahme von Partikeln durch Phagozyten, Lysozym-beeinflusste nicht-oxidative Immunreaktion und die Stimulation des Hexose-Monophosphat-Shunts. Der Stellenwert von Vitamin-C-Gaben zur Bekämpfung und Vorbeugung von Krankheiten wie dem grippalen Infekt ist wissenschaftlich allerdings umstritten, wobei größere Reviews einen generellen Trend sehen, dass während Vitamin C zwar keinen messbaren prophylaktischen Effekt bei saisonalem grippalen Infekt hat, allerdings ein moderater positiver Effekt auf den Krankheitsverlauf beobachtet wurde. Dieser konnte in therapeutischen Studien allerdings nicht reproduziert werden. Es gibt auch Meta-Analysen, die zeigen, dass Nahrungsergänzungsmittel mit Vitamin C bei grippalen Infekten weder prophylaktisch helfen noch die Genesung beschleunigen können. L-Ascorbinsäure wirkt am Nicotinrezeptor des Typs α9α10 als positiver allosterischer Modulator. Hierdurch könnte es sich zur Akutbehandlung eines Schalltraumas empfehlen. Die wirksame Konzentration liegt bei 1–30 mM. Bedarf. Die Orange ist ein klassischer Lieferant von Vitamin C. Der Bedarf an Vitamin C wird zum Teil sehr kontrovers gesehen. Die Zufuhrempfehlung für einen gesunden Erwachsenen beträgt laut Empfehlung der Deutschen Gesellschaft für Ernährung 100 mg/Tag. Die Meinungen hierüber gehen jedoch weit auseinander; die Empfehlungen anderer Gruppierungen liegen zwischen einem Bruchteil (zum Beispiel der Hälfte) und einem Vielfachen (zum Beispiel „so viel wie möglich“) dieses Wertes. Fest steht, dass Mengen bis zu 5000 mg kurzzeitig als unbedenklich gelten. Überschüssige Mengen werden vom Körper über den Urin ausgeschieden, da Vitamin C gut wasserlöslich ist (siehe auch Hypervitaminosen). Bei einer ausgewogenen Mischkost kann in Deutschland davon ausgegangen werden, dass dem Körper alle lebensnotwendigen Vitamine, und daher auch Vitamin C, in ausreichendem Maße zugeführt werden. Die Versorgung mit Vitamin C ist in Deutschland knapp über der DGE-Empfehlung von 100 mg pro Tag. Daher sind Vitaminpräparate für einen gesunden Menschen, der sich abwechslungsreich und vollwertig ernährt, überflüssig. Die Empfehlung für Schwangere und Stillende liegt bei 110 beziehungsweise 150 mg täglich. Ursache für eine unzureichende Zufuhr ist meistens eine einseitige Ernährung. Dies betrifft vor allem Menschen, die nicht täglich frisches Obst und Gemüse verzehren. Untersuchungen mit 14C-markiertem Vitamin C zeigen, dass der tägliche Ascorbatumsatz unabhängig von der Vitamin-C-Zufuhr nur etwa 20 mg beträgt. Somit genügen bereits knapp 20 mg täglich, um Skorbut zu vermeiden. Die Fachinformation des Bundesinstituts für Arzneimittel und Medizinprodukte (BfArM) gibt für Vitamin C einen täglichen Gesamtumsatz von etwa 1 mg/kg Körpergewicht an. Für Vergleichszwecke interessant ist, dass für Meerschweinchen eine Tagesdosis von 10 bis 30 mg empfohlen wird (bei einem Gewicht von etwa 0,8 bis 1,5 kg), wobei sie diese wie Menschen nicht selbst über die Leber produzieren können. Im Gegensatz dazu produzieren viele Tiere selbst Vitamin C. Große Hunde oder kleine Kälber, die etwa das Körpergewicht eines Menschen haben, stellen 1 bis 2 g täglich her, bei Krankheit bis zu 10 g. Studien zur Pharmakokinetik von Vitamin C zeigen, dass eine volle Sättigung der Körperreserven mit Vitamin C (3000 mg) eine tägliche Zufuhr von 200 mg erfordert. Immunzellen wie Lymphozyten, Neutrophile und Monozyten werden bereits bei einer täglichen Aufnahme von 100 mg Vitamin C gesättigt. Die vollständige Plasmasättigung wird bei Zufuhr von 1000 mg Vitamin C pro Tag erreicht. Die Bioverfügbarkeit nimmt bei oraler Einnahme mit steigender Einzeldosis stark ab. 200 mg werden noch nahezu vollständig aufgenommen. Aus diesem Grund ist es sinnvoller, mehrere Einzeldosen mit je 200 mg über den Tag verteilt zu sich zu nehmen, als einmalig 1000 mg. Die Vitamin-C-Versorgung des Organismus spiegelt sich im Blutspiegel wider. Laut DGE sind geringere Konzentrationen als 20 µmol/l (0,35 mg/dl) mit vorklinischen Symptomen wie beispielsweise allgemeiner Müdigkeit, Leistungsschwäche, Infektanfälligkeit und schlechter Wundheilung verbunden. Offensichtliche klinische Mangelsymptome, die unter dem Begriff Skorbut zusammengefasst werden, treten erst bei Vitamin-C-Plasmaspiegeln unterhalb von 10 µmol/l (0,18 mg/dl) auf. Heute ist allgemein anerkannt, dass subklinische Vitamin-C-Defizite die Langzeitgesundheit negativ beeinflussen. Ein deutsches Konsensuspapier empfiehlt deshalb präventive Vitamin-C-Plasmaspiegel von mindestens 50 µmol/l (0,9 mg/dl) zur Verringerung des Arteriosklerose- und Krebsrisikos (DGE 2000). Die von der DGE empfohlene Vitamin-C-Tagesdosis von 100 mg bezieht sich ausschließlich auf Gesunde. Vitamin C ist eines der wichtigsten körpereigenen Antioxidantien. Ein Mehrbedarf bei Erkrankungen, die mit der Generierung von reaktiven Sauerstoffverbindungen (ROS) einhergehen, ist unbestritten. Er ist beim gegenwärtigen Stand der Erkenntnis nur noch nicht genau bezifferbar. Chronisch entzündliche Erkrankungen wie beispielsweise Arthritis, Allergien, Arteriosklerose, Krebs oder rezidivierende Infektionen sind nachweislich mit einem subklinischen bis klinischen Vitamin-C-Mangel (unter 30 µmol/l oder 0,54 mg/dl) und oxidativem Stress verbunden. Eine ständig zunehmende Anzahl epidemiologischer Studien zeigt den prophylaktischen Wert einer adäquaten dietätischen Vitamin-C-Aufnahme. Hier sind vor allem die Ergebnisse der EPIC-Studie zu nennen, die 2001 in der Zeitschrift „The Lancet“ publiziert wurden. Die Daten von fast 20.000 Männern und Frauen zeigten, dass eine Steigerung der Blutascorbatwerte um 20 μM (0,35 mg/dl) eine 20%ige Reduktion der Mortalität mit sich brachte. Mangelerscheinungen. Szent-Györgyi identifizierte 1933 das Vitamin C als wirksame Substanz gegen Skorbut. Nur wenige Wirbeltiere, darunter Trockennasenaffen (unter anderem der Mensch), Meerschweinchen und Echte Knochenfische, sowie einige Familien in den Ordnungen der Fledertiere und Sperlingsvögel, sind nicht zur Biosynthese von Ascorbinsäure aus Glucuronsäure befähigt. Ihnen fehlt das Enzym L-Gulonolactonoxidase. Für diese Lebewesen ist Ascorbinsäure ein Vitamin, also essenziell. Für alle anderen Wirbeltiere ist Ascorbinsäure nur ein Metabolit. Lebewesen, die nicht in der Lage sind, Ascorbinsäure selbst zu synthetisieren, müssen diese in ausreichender Menge über die Nahrung aufnehmen, um nicht an Skorbut zu erkranken. In frisch gelegten Hühnereiern fehlt zwar die Ascorbinsäure, sie wird jedoch ab Brutbeginn hauptsächlich von der Membran des Dottersacks synthetisiert. Studien, die den tatsächlichen Vitamin-C-Gehalt im Blut des Menschen bestimmen, beobachten häufiger als bislang angenommen eine Unterversorgung: Die NHANES-III-Untersuchung von 1988 bis 1994 stellte fest, dass 10 bis 14 % der untersuchten Amerikaner an einer ernsten Unterversorgung (unter 11 µmol/l) und 17–20 % an einer subklinischen (11–28 µmol/l) Unterversorgung leiden – insgesamt also mehr als ein Viertel der Bevölkerung. Die aktuelle NHANES-Erhebung für den Zeitraum 2003–2004 beobachtet eine erfreuliche Entwicklung: Eine ernste Unterversorgung betrifft nur noch 7,1 % der Bevölkerung. Einschneidend sind immer noch die Einkommensverhältnisse. Menschen mit niedrigem Einkommen leiden im Vergleich zu Gutverdienern doppelt so häufig an einer Unterversorgung (10–17 % versus 5–8 %). Zwei wesentliche Gründe für die insgesamt verbesserte Vitamin-C-Versorgung sind weniger Passivraucher, durch ein Rauchverbot in öffentlichen Einrichtungen und die zunehmende Einnahme von Vitaminpräparaten. Am subklinischen Mangel (unter 28 µmol/l) änderte sich kaum etwas – er trifft immer noch etwa 20 % der Amerikaner. Der sozioökonomische Einfluss auf eine gesundheitsbewusste Ernährung wird in einer schottischen Untersuchung deutlich: 44 % der Menschen mit niedrigem sozioökonomischen Status wiesen Vitamin-C-Blutspiegel unter 23 µmol/l und 20 % unter 11 µmol/l auf. Aber Nichtrauchen und gute Schulbildung schützen nicht automatisch vor einer Unterversorgung. Eine kanadische Studie bestimmte in der Zeit von 2004 bis 2008 die Vitamin-C-Blutspiegel von knapp 1000 Nichtrauchern im Alter von 20 bis 29 Jahren an einer Campus-Universität. Jeder Dritte zeigte einen subklinischen Vitamin-C-Mangel (unter 28 µmol/l) und jeder Siebte defizitäre Werte unterhalb der Skorbutgrenze (unter 11 µmol/l). Dabei korrelierte der Mangel mit Übergewicht, Bluthochdruck und Entzündungsparametern. Überdosierung. Für Vitamin C ist die Hypervitaminose, wie sie beispielsweise bei Vitamin A vorkommen kann, sehr selten, da der Körper einen Überschuss an Ascorbinsäure wieder über die Nieren ausscheidet. In einer vom National Institutes of Health (NIH) durchgeführten Studie wurden sieben Freiwillige zunächst mit einer ascorbinsäurearmen Diät ernährt und so ihre körpereigenen Vorräte an Vitamin C aufgebraucht. Als diese danach wieder mit Vitamin C versorgt wurden, begann die renale (über die Niere) Ausscheidung an unverändertem Vitamin C ab etwa 100 mg/d. Die Zufuhr über 400 mg/d wurde – soweit überhaupt im Darm aufgenommen (die Einnahme von Megadosen senkt die Resorptionsquote deutlich) – praktisch vollständig renal ausgeschieden. Ab etwa 1 g pro Tag steigen die Oxalat- und sekundär die Harnsäure-Konzentrationen im Blutplasma. Da ein Teil der Ascorbinsäure im Stoffwechsel zu Oxalsäure umgesetzt wird, besteht bei entsprechend disponierten Menschen prinzipiell ein erhöhtes Risiko für Calciumoxalat-Nierensteine (CaC2O4). Schon bei normaler Zufuhr stammen etwa 30 bis 50 % des Plasmaoxalats aus dem Vitamin-C-Abbau. Der Oxalatspiegel im Urin steigt selbst erst an, wenn eine Tagesdosis von etwa 6 g überschritten wird. Hohe orale Einzeldosen können einen vorwiegend osmotisch bedingten Durchfall auslösen. Die Dosis variiert von Person zu Person, wird mit etwa 5–15 g (1–3 gehäufte Teelöffel) für eine gesunde Person angegeben. Zu erwähnen ist, dass diese Toleranzgrenze bei Individuen, die an schweren Erkrankungen leiden, bis auf über 200 g ansteigen kann. Bei Menschen mit Glucose-6-Phosphatdehydrogenase-Mangel (G6PD-Mangel, Favismus), einer insbesondere in Afrika sehr weit verbreiteten, erblichen Krankheit, können intravenöse Vitamin-C-Dosen, etwa 30 bis 100 g pro Infusion, zur Hämolyse führen. Häufig wird Vitamin C, besonders wenn auf nüchternen Magen konsumiert, mit Indigestion durch Übersäuerung des Magens in Verbindung gebracht. Dies kann unter anderem vermieden werden, indem Vitamin C nicht als Ascorbinsäure, sondern als Ascorbat (Salz der Ascorbinsäure, zum Beispiel Natriumascorbat) aufgenommen wird. Dies kann zum Beispiel durch die Zugabe von Backpulver (NaHCO3) erreicht werden. Studien haben gezeigt, dass die Resorption von Vitamin C erhöht wird, wenn es zu Fruchtsäften wie zum Beispiel Orangensaft gemischt wird. Bei der Ratte liegt der LD50-Wert (die Dosis, bei der die Hälfte der Versuchstiere sterben) für Vitamin C bei 11,9 g pro Kilogramm Körpergewicht. Das entspricht bei einem 70 kg schweren Menschen einer Dosis von 833 g. Therapeutisch und prophylaktisch eingesetzt wird die Überdosierung von Vitamin C zum Beispiel bei Harnwegsinfektionen. Durch die renale Ausscheidung der Ascorbinsäure wird der Urin sauer. In diesem sauren Milieu können die Erreger deutlich schlechter gedeihen. Eine regelmäßige Einnahme von Vitamin C erhöht jedoch die Bildung von Nierensteinen, zumindest ist das Risiko bei den untersuchten Männern doppelt so hoch. Stoffwechsel im Detail. Ascorbinsäure kann sowohl mit der Nahrung aufgenommen als auch vom Stoffwechsel der meisten Lebewesen selbst synthetisiert werden. Aufnahme mit der Nahrung. Der Transportweg von Vitamin C erfolgt über Enterozytzellen des Darmes. Wie es von dort in den Blutstrom gelangt, ist noch nicht vollständig geklärt. Jedoch ist der Transport von Ascorbat beziehungsweise Dehydroascorbat (DHA) vom Blut in alle anderen Zellen genauer bekannt. Die Aufnahme von Dehydroascorbat (DHA, vergleiche Abschnitt oben) in das Zellinnere (Zytosol) menschlicher Zellen findet mittels dreier Glucosetransporter statt, GLUT-1, GLUT-3 und GLUT-4. DHA konkurriert dabei mit Glucose, sodass ein Übermaß an Glucose effektiv die Aufnahme von DHA verhindern kann. Was Ascorbat anbetrifft, wird es zusammen mit je zwei Natriumionen mittels der Transportproteine SVCT1 und SVCT2 ins Zellinnere geschleust. Biosynthese. Ascorbinsäure wird von Bakterien, Pflanzen und Wirbeltieren mithilfe verschiedener Enzyme produziert. Ausgangssubstanzen sind hauptsächlich D-Glucose beziehungsweise D-Galaktose. Bei Pflanzen können neben D-Glucose und D-Galaktose auch D-Glucuronlacton, D-Galakturonat beziehungsweise dessen Methylester die Biosynthese einleiten. Biosynthese in Wirbeltieren. Bei Ratten wurde die Biosynthese am besten untersucht. Die Bildung der Ascorbinsäure beginnt mit der Oxidation von UDP-D-Glucose zu UDP-D-Glucuronsäure durch das Enzym UDP-Glucose-Dehydrogenase (). Oxidationsmittel ist dabei das NAD+. Ausnahmen. Trockennasenaffen, Meerschweinchen, Echten Knochenfischen sowie einigen Familien der Fledertiere und Sperlingsvögel fehlt das Enzym L-Gulonolactonoxidase (B in obiger Abbildung) aufgrund eines genetischen Defekts, sodass sie Ascorbinsäure nicht synthetisieren können. Die genetische Mutation bei Trockennasenaffen trat vor etwa 65 Millionen Jahren auf. Diese Tiere waren seinerzeit in einer Gegend angesiedelt, die ganzjährig reich an Vitamin-C-haltigen Früchten war. Daher hatte dieser bei anderen Tieren letale Defekt keine negativen Auswirkungen. Auch einige Insekten wie die Wanderheuschrecken ("Acrididae") können Ascorbinsäure nicht selbständig herstellen. Funktion. Eine wichtige Funktion der Ascorbinsäure im menschlichen Organismus beruht auf ihrer Eigenschaft als Reduktionsmittel. Sie ist also in der Lage, Elektronen auf andere Moleküle zu übertragen. Ascorbinsäure als Radikalfänger (Scavenger). Ascorbinsäure dient im tierischen Organismus als Radikalfänger, da es in der Lage ist, ebensolche auf andere Moleküle zu übertragen. Die Grafik zeigt nicht den tatsächlichen Reaktionsmechanismus, sondern schematisch die Fähigkeit der Ascorbinsäure, unter Reaktion zur Dehydroascorbinsäure zwei Radikale einfangen zu können (vgl. obige Abbildung). Das Wasserstoffperoxid wird von dem Enzym Katalase abgebaut. Ascorbinsäure als Cofaktor in Redoxreaktionen. Sowohl Ascorbinsäure als auch dessen oxidierte Form (DHA) sind Cofaktoren für viele biochemische Reaktionen. Hierbei stellt Ascorbinsäure Elektronen für Kupfer(I)-abhängige Monooxygenasen beziehungsweise Eisen(III)-abhängige Dioxygenasen bereit. "In vitro" können auch andere Redoxfaktoren diese enzymatischen Reaktionen katalysieren. Von Bedeutung ist diese Redoxeigenschaft der Ascorbinsäure beispielsweise bei der Synthese von Collagen im menschlichen Stoffwechsel. Zur Darstellung dieses Strukturproteins muss die Aminosäure L-Prolin zu ihrer oxidierten Form, Hydroxyprolin, umgewandelt werden. Ascorbinsäure dient dazu, das in dieser Reaktion genutzte Reduktionsmittel Fe(II) zu regenerieren. Besteht ein Mangel an Vitamin C, kann die Bildung des Hydroxyprolins bei der Collagensynthese nur begrenzt erfolgen, sodass die typischen Symptome des Skorbuts wie Zahnfleischbluten, Zahnausfall und Hautschäden auftreten. Recycling der Oxidationsprodukte. Die nach Oxidation entstehenden Produkte Semidehydroascorbinsäure und Dehydroascorbinsäure werden enzymatisch wieder zu Ascorbinsäure reduziert. Die Enzyme Cytochrom b5-Reduktase und Thioredoxinreduktase katalysieren die Umwandlung von Semidehydroascorbinsäure zu Ascorbinsäure im Cytosol, unter Verbrauch von NADH beziehungsweise NADPH. Außerdem kann eine Reduktion über elektronentransferierende Membranproteine stattfinden. Dehydroascorbinsäure wird sowohl spontan mittels Glutathion oder NADPH reduziert als auch enzymatisch über die Glutathiontransferase Omega. Abbau. Der Abbau von Dehydroascorbinsäure wird bei Säugetieren durch Hydrolyse zur physiologisch inaktiven 2,3-Diketogulonsäure eingeleitet. Diese wird entweder zu Oxalat und L-threonischer Säure gespalten oder zu Kohlenstoffdioxid, Xylose, Xylulose decarboxyliert. Im Unterschied dazu haben Bakterien wie "E. coli" enzymatische Stoffwechselwege für den Abbau von Ascorbinsäure und wahrscheinlich auch für Dehydroascorbinsäure. Nachweis. a> von Ascorbinsäure (AsA) und Dehydroascorbinsäure (DHA) Um Ascorbinsäure quantitativ nachzuweisen, gibt es zahlreiche colorimetrische Methoden, etwa unter Verwendung von 2,4-Dinitrophenylhydrazin. Ascorbinsäure reagiert mit diesem zu einem Hydrazon, dessen Absorption messbar ist. Darüber hinaus kann 2,2′-Bipyridin zum colorimetrischen Nachweis dienen. Hierbei wird die Reduktionskraft der Ascorbinsäure genutzt, die Fe(III) zu Fe(II) reduziert. Fe(II) bildet dann mit 2,2′-Bipyridin einen farbigen Komplex. Es sind auch einige fluorometrische Nachweismethoden bekannt. Ascorbinsäure lässt sich auch durch Titration mit Tillmans-Reagenz (2,6-Dichlorphenolindophenol, abgekürzt DCPIP) nachweisen, bei der das Reagenz durch die Ascorbinsäure zu einer Leukoverbindung reduziert wird. Dabei ist ein Farbumschlag von tiefblau zu farblos zu beobachten. Diese Methode eignet sich für eine schnelle Bestimmung, die aber an die Genauigkeit oben genannter Wege nicht heranreicht. Ascorbinsäure kann auch spezifisch mittels Oxidation durch das Enzym Ascorbinsäure-Oxidase nachgewiesen werden, wobei die Änderung der Lichtabsorption bei einer Wellenlänge von 245 nm gemessen wird. Die Gehaltsbestimmung wird im Europäischen Arzneibuch durch redoximetrische Titration mit 0,05-molarer Iodlösung unter Zusatz von Stärke durchgeführt (Iodometrie). Dabei verbraucht ein Mol Ascorbinsäure ein Mol Iod, das zu farblosem Iodid umgesetzt wird. Die Färbung durch den blauen Iod-Stärke-Komplex dient der Endpunktbestimmung. Da die zugesetzte Stärkelösung die Reaktion verzögert und einen schleppenden Umschlag verursacht, bietet sich eine Indikation mit Variamin an. Der maßanalytische Faktor beträgt 8,8065 mg Ascorbinsäure / ml 0,05 M Iodlösung. Anomie. Anomie (griech.: Kompositum aus α privativum zur Verneinung und der Endung "-nomie" für, „Ordnung, Gesetz“) bezeichnet in der Soziologie einen Zustand fehlender oder schwacher sozialer Normen, Regeln und Ordnung. Vor allem in England war der Begriff ursprünglich ein theologischer Ausdruck für das Brechen religiöser Gesetze. Zur Beschreibung einer Anomie wird umgangssprachlich und irreführend häufig auch das Wort Anarchie (Abwesenheit von Herrschaft) benutzt. „Anomie“ bei Durkheim. Der Begriff der Anomie wurde von Émile Durkheim (1858–1917), der ihn den Schriften des Philosophen Jean Marie Guyau entlehnt hatte, in die Soziologie eingeführt. Der Rückgang von religiösen Normen und Werten führt nach Durkheim unweigerlich zu Störungen und zur Verringerung sozialer Ordnung. Aufgrund von Gesetz- und Regellosigkeit sei dann die gesellschaftliche Integration nicht länger gewährleistet. Diesen Zustand nannte Durkheim "anomie", die beim Individuum zu Angst und Unzufriedenheit führen müsse, ja sogar zur Selbsttötung führen könne („anomischer Suizid“). Durkheim benutzte den Begriff, um die pathologischen Auswirkungen der sich im Frühindustrialismus rasch entwickelnden Sozial- und Arbeitsteilung zu beschreiben. Die damit einhergehende Schwächung der Normen und Regeln für die Allokation von Waren führe zu einem verschärften Wettbewerb um die steigenden Prosperitätsgewinne. „Anomie“ bei Merton. Als Anomie wird nunmehr eine Dissoziation zwischen kulturellen Zielen und dem Zugang bestimmter sozialer Schichten zu dazu notwendigen Mitteln beschrieben. Dadurch schwächt sich die Bindung zwischen Mitteln und Zielen. Gegenwärtig führe vor allem die Relativierung kultureller Mittel durch Pluralisierung und Individualisierung zu Problemen wie Orientierungslosigkeit, Verhaltensunsicherheit und gesellschaftlicher Desintegration. Alexandre Dumas der Jüngere. Alexandre Dumas der Jüngere, auch "Dumas fils", (* 27. Juli 1824 in Paris; † 27. November 1895 in Marly-le-Roi) war ein französischer Romanschriftsteller und dramatischer Dichter. Er war der uneheliche Sohn von Alexandre Dumas dem Älteren und Marie-Catherine Labay, einer Näherin. Leben. Dumas schlug 17-jährig, nachdem er das Collège Bourbon verlassen hatte, die schriftstellerische Laufbahn mit dem Gedichtband "Péchés de jeunesse" („Jugendsünden“) ein. Er begleitete seinen Vater auf dessen Reise durch Spanien und Nordafrika und veröffentlichte nach seiner Rückkehr den sechsbändigen Roman "Histoire de quatre femmes et d'un perroquet" (1847), der die Neugierde des Publikums erregte. In dem Roman "Die Kameliendame" ("La dame aux camélias", 1848) erzählt Dumas realitätsnah die Geschichte einer Pariser Kurtisane, die früh an der Schwindsucht stirbt. In den beiden späteren Stücken "Diane de Lys" (1853) und "Le demi-monde" (1855) behandelt der Dichter fast dasselbe Thema, doch in wesentlich satirischerer Absicht und mehr, um nach Art des Komödiendichters seiner Zeit einen Spiegel vorzuhalten. Dumas gilt als einer der Begründer des Gesellschaftsdramas und er setzte sich in fast allen seinen Stücken mit sozialen und gesellschaftlichen Problemen auseinander. Die Stellung der Frau nahm dabei eine besondere Rolle ein. So beschäftigte er sich mit den Rechten und Pflichten der Frau und den Fehlern der einschlägigen Gesetzgebung und gesellschaftlichen Anschauung im Roman "L'affaire Clémenceau" (1864) sowie in mehreren Flugschriften, wie "Lettres sur les choses du jour", "L'homme-femme", "Tue-la!", "Les femmes qui tuent et les femmes qui votent" (1872–80), und in der größeren Streitschrift "Le divorce" (1880). Im Jahr 1875 wurde Dumas in die Académie française aufgenommen, 1894 wurde er Mitglied der Ehrenlegion. Der als anspruchslos und hilfsbereit für seine Freunde geltende Dumas erfreute sich persönlich allgemeiner Beliebtheit. 1864 heiratete er Nadeshda Naryschkina, mit der er zwei Töchter hatte. Nach Naryschkinas Tod 1895 heiratete er Henriette Régnier de La Brière und starb im selben Jahr am 27. November in Marly-le-Roi. "Die Kameliendame". Dumas’ bekanntestes Werk ist der Roman "Die Kameliendame" ("La dame aux camélias") von 1848, der das Schicksal einer Pariser Kurtisane und ihres Verehrers schildert. Trotz Schwierigkeiten mit der Zensur war der Roman ein außergewöhnlicher Erfolg. Nach Umarbeitung des Werkes zu einem Bühnenstück wuchs seine Popularität noch: Das 1852 im Théâtre du Vaudeville erstmals aufgeführte Werk erlebte ohne Unterbrechung mehr als 100 Aufführungen. 1853 übernahm Giuseppe Verdi das Thema für seine Oper "La traviata". Die französische Schauspielerin Sarah Bernhardt spielte ab 1880 die "Kameliendame" in dem Bühnenstück und feierte damit in Europa und den USA große Erfolge. Das Stück zeichnete sich durch überaus scharfe Beobachtung der gesellschaftlichen Zustände, sichere Behandlung der dramatischen Form und einen lebendigen, prickelnden Dialog aus; aber nach damaliger Auffassung war die Verherrlichung und Rehabilitierung des Lasters moralisch bedenklich. Im Jahr 1911 wurde Dumas' "Kameliendame" mit Sarah Bernhardt in der Hauptrolle erstmals verfilmt. In einer weiteren Filmversion von Regisseur George Cukor spielte Greta Garbo 1937 die Hauptrolle. Auge. Das Auge ("ops",) ist ein Sinnesorgan zur Wahrnehmung von Lichtreizen. Es ist Teil des visuellen Systems und ermöglicht Tieren das Sehen. Die Aufnahme der Reize geschieht mit Hilfe von Fotorezeptoren, lichtempfindlichen Nervenzellen, deren Erregungszustand durch die unterschiedlichen Wellenlängen elektromagnetischer Strahlung aus dem sichtbaren Spektrum verändert wird. Bei Wirbeltieren gelangen diese Nervenimpulse über die Sehnervenbahnen zum Sehzentrum des Gehirns, wo sie schließlich zu einer optischen Wahrnehmung verarbeitet werden. Die Augen von Tieren unterscheiden sich in Aufbau und Funktionalität teilweise erheblich. Ihr biologischer Stellenwert und damit ihre Leistungsfähigkeit ist eng an die Anforderungen des jeweiligen Organismus angepasst. Auch die Anzahl der Augen ist ein evolutionäres Ergebnis der Lebensumstände. Manche Tiere, deren Orientierung weniger von visuellen Eindrücken bestimmt wird, benötigen lediglich eine grobe Unterscheidung von Hell und Dunkel, andere wiederum von Kontrast- und Bewegungsmustern. Höher entwickelte Augen dienen der kontrastreichen Bildwahrnehmung, deren Qualität mit der Fähigkeit steigt, Helligkeitsunterschiede sehr differenziert wahrzunehmen ("Minimum visibile"). Dies drückt sich wiederum in einer entsprechenden Sehschärfe ("Minimum separabile") aus, die bei Tag, Dämmerung oder Nacht sehr unterschiedlich sein kann. Wieder andere benötigen weniger ein kontrastreiches Sehen als vielmehr ein großes Gesichtsfeld oder eine differenzierte Farbwahrnehmung in verschiedenen Wellenlängenbereichen. Die Leistungsfähigkeit des Sehsinns und die Komplexität des anatomischen Aufbaus und der übergeordneten Bereiche zur Bilderzeugung und -verarbeitung steigt mit den Anforderungen der jeweiligen Lebensformen an die Qualität der visuellen Orientierung. Evolution des Auges. Es gibt Schätzungen, dass Augen der verschiedensten Bauweisen im Laufe der Evolution etwa 40 mal neu entwickelt worden seien. Dennoch spielt das Pax-6-Gen sowohl bei den Tintenfischen als auch bei Säugetieren (Mäuse) sowie Insekten eine initiative Rolle bei der frühen Entwicklung der Augen. Bei der Fruchtfliege ("Drosophila melanogaster") hat das hierzu homologe Gen „eyeless“ dieselbe Funktion. Deshalb liegt es nahe, dass all diese Augentypen einen gemeinsamen Ursprung haben. Orthologe von PAX-6 sind in vielen Chordatieren (stammesgeschichtlicher Ursprung im Präkambrium) zu finden. Fossilfunde belegen auch, dass es frühe Augen bereits vor 505 Millionen Jahren im Erdzeitalter Kambrium gab (z. B. das Lochkamera-Auge der Perlboote). Die ersten Linsen hatten Trilobiten in Facettenaugen vor 520 bis 500 Millionen Jahren. Zentrale Eigenschaften. Als Resultat einer visuellen Reizverarbeitung sind die Eigenschaften "Richtungssehen", "Sehschärfe", "Gesichtsfeld" und "Farbsehen" zu nennen. Die Anforderungen der jeweiligen Lebensformen an diese Eigenschaften sind sehr unterschiedlich ausgeprägt. Zudem sind viele Spezies in der Lage, ihre Augen mit unterschiedlicher Präzision an verschiedene Objektentfernungen anzupassen (Akkommodation). Richtungssehen. Manche Augentypen sind auf Grund ihrer anatomischen und physiologischen Entwicklung lediglich in der Lage, die Richtung auszumachen, aus der Licht auf ihre Sinneszellen fällt. Diese Eigenschaft lässt eine nur geringe visuelle Orientierung zu, stellt jedoch gegenüber der bloßen Wahrnehmung von Hell und Dunkel eine höhere Differenzierungsmöglichkeit dar. Sehschärfe. a> zur Ermittlung der Sehschärfe beim Menschen Mit "Sehschärfe" wird die Fähigkeit eines Lebewesens bezeichnet, Konturen und Muster in der Außenwelt als solche zu erkennen. Ihre Qualität ist abhängig von Zur Quantifizierung hat man verschiedene Parameter definiert. Die Winkel-Sehschärfe (angulare Sehschärfe) ist das Auflösungsvermögen, bei dem zwei Sehobjekte noch als getrennt wahrgenommen werden (Minimum separabile). Die Auflösung von 1' (einer Bogenminute) entspricht einer Ortsauflösung von etwa 1,5 mm bei 5 m Abstand. Je kleiner die Winkel-Sehschärfe ist, desto besser ist die Sehschärfe. Die dimensionslose Eigenschaft Visus wird definiert, indem die Bezugsgröße 1' in Beziehung zur individuellen Winkel-Sehschärfe gesetzt wird. Visus = 1' / (individuelle Winkel-Sehschärfe) Visus = individueller Abstand / d Beispiel: wenn eine Person erst im Abstand von 6 m die Punkte getrennt sehen kann, die bei 12 m einen Winkelabstand von 1' haben, hat sie einen Visus von 6/12 = 0,5. Gesichtsfeld. Polardiagramm vom Gesichtsfeld des linken menschlichen Auges Farbsehen. Lineare Darstellung des Spektrums sichtbaren Lichts Die Farbwahrnehmung ist die Fähigkeit, elektromagnetische Wellen verschiedener Wellenlängen in ihrer Intensität zu unterscheiden. Diese Fähigkeit ist im ganzen Tierreich verbreitet. Das Absorptionsspektrum der wahrgenommenen und unterscheidbaren Wellenlängen charakterisiert artspezifisch die Qualität dieser Fähigkeit. Dazu muss das Wahrnehmungssystem mindestens zwei unterschiedliche Typen von "Lichtrezeptoren" besitzen, um die Zusammensetzungen des Lichts erkennen zu können. Bauformen. Die einfachsten „Augen“ sind lichtempfindliche Sinneszellen auf der Außenhaut, die als passive optische Systeme funktionieren. Sie können nur erkennen, ob die Umgebung hell oder dunkel ist. Man spricht hier von Hautlichtsinn. Insekten und andere Gliederfüßer haben Augen, die aus vielen einzelnen Augen zusammengesetzt sind. Diese Facettenaugen liefern ein rasterartiges Bild (nicht mehrfache Bilder, wie man vermuten könnte). Neben den beschriebenen Augentypen mit lichtbrechenden Linsen findet man in der Natur gelegentlich auch Spiegelaugen. In den Augen der Kammmuschel "(Pecten)" wird das Bild durch Hohlspiegel erzeugt, die hinter der Netzhaut angeordnet sind. Die direkt vor der Netzhaut liegende Linse dient der optischen Korrektur des stark verzerrten Spiegelbildes. Die Spiegel sind nach dem Prinzip von reflektierenden Glasplatten gebaut. Mehr als 30 Schichten aus feinsten Guanin-Kristallen liegen dicht gestapelt, jede Schicht in eine Doppelmembran eingeschlossen. Auch andere Tiere haben Spiegelaugen, unter anderem der Tiefseekrebs "Gigantocypris", der Hummer und die Langusten. Diese Form hat sich offenbar dort durchgesetzt, wo es weniger auf die Bildqualität und mehr auf die Lichtausbeute ankommt. Beschatteter Photorezeptor. Manche Lebewesen wie der Regenwurm besitzen am Körperende oder verstreut einzelne Lichtsinneszellen. Deren Lage relativ zum lichtabsorbierenden Körper des Wurms bestimmt die Richtungen des Lichteinfalls, für die diese Sinneszellen jeweils empfindlich sind. Dieses Prinzip ist bereits beim Einzeller Euglena verwirklicht: Der Photorezeptor liegt hier an der Basis der Geißel und wird durch einen pigmentierten Augenfleck einseitig beschattet. Das ermöglicht es der Zelle, sich zum Licht hin zu bewegen (Phototaxis). Flachauge. Quallen und Seesterne besitzen viele nebeneinander liegende Lichtsinneszellen, die innen an eine Schicht aus Pigmentzellen anschließen können. Die Konzentrierung der Sinneszellen in solchen Flachaugen verbessert die Hell-Dunkel-Wahrnehmung. Pigmentbecherauge. In Pigmentbecheraugen liegen die Sehzellen vom Licht abgewandt (inverse Lage) in einem Becher aus lichtundurchlässigen Pigmentzellen. Das Licht kann nur durch die Öffnung des Bechers eindringen, um die Sehzellen zu stimulieren. Da daher immer nur ein kleiner Teil der Sehzellen gereizt wird, kann neben der Helligkeit auch die Einfallsrichtung des Lichts bestimmt werden. Solche Augen besitzen unter anderem Strudelwürmer und Schnecken. Grubenauge. Das Grubenauge unterscheidet sich vom Pigmentbecherauge durch die dem Licht zugewandte (everse) Lage der Sinneszellen und dadurch, dass die Grube mit Sekret gefüllt ist. In der Grube bilden die Sehzellen eine Zellschicht, die innen an eine Schicht von Pigmentzellen anschließt. Es ist also eine Weiterentwicklung des Flachauges. Es ermöglicht auch die Bestimmung der Intensität und der Einfallsrichtung des Lichts. Lochauge und Blasenauge. a> durch das Auge einer Weinbergschnecke. "VK" vordere Kammer, "L" Linse in der hinteren Kammer, "R" Retina, "SN" Sehnerv (Toluidinblau, Phasenkontrast) Lochaugen oder Lochkameraaugen sind weiterentwickelte Grubenaugen und funktionieren nach dem Prinzip der Lochkamera. Aus der Grube wird eine blasenförmige Einstülpung, die Öffnung verengt sich zu einem kleinen Loch und der Hohlraum ist vollständig mit Sekret gefüllt. Durch die erhöhte Anzahl der Sehzellen in einem Sehzellenepithel (Netzhaut) ist nun auch Bildsehen möglich. Das Bild ist jedoch lichtschwach, klein und steht wie bei einer Camera obscura auf dem Kopf. Die Schärfe des Bildes auf der Netzhaut hängt von der Anzahl der erregten Sehzellen ab. Da diese auch von der Entfernung vom Sehloch zum Gegenstand abhängt, ist beim Lochauge ein eingeschränktes Entfernungssehen möglich. Dieser Augentyp kommt rezent bei urtümlichen Kopffüßern wie den Perlbooten vor. Ein Lochauge mit verbesserter Leistung ist das Blasenauge, bei dem die Öffnung von einer durchsichtigen Haut bedeckt ist. Das Blasenauge entsteht aus einer Einstülpung der Epidermis, die mit einem Pigmentepithel und einer Sehzellenschicht ausgekleidet ist. Es kommt bei Hohltieren, Schnecken und Ringelwürmern vor. Je nach Durchmesser der Sehöffnung entsteht entweder ein helleres aber unschärferes oder ein dunkleres aber schärferes Bild. Facettenauge (Komplexauge). Facettenaugen setzen sich aus einer Vielzahl von Einzelaugen (Ommatidien) zusammen, von denen jedes acht Sinneszellen enthält. Jedes Einzelauge sieht nur einen winzigen Ausschnitt der Umgebung, das Gesamtbild ist ein Mosaik aus allen Einzelbildern. Die Anzahl der Einzelaugen kann zwischen einigen Hundert bis hin zu einigen Zehntausend liegen. Die Auflösung des Facettenauges ist durch die Anzahl der Einzelaugen begrenzt und ist daher weit geringer als die Auflösung des Linsenauges. Allerdings kann die zeitliche Auflösung bei Facettenaugen deutlich höher sein als bei Linsenaugen. Sie liegt etwa bei fliegenden Insekten bei 250 Bildern pro Sekunde (also 250 Hz), was etwa dem vierfachen des menschlichen Auges mit 60 bis 65 Hz entspricht. Dies verleiht ihnen eine extrem hohe Reaktionsgeschwindigkeit. Die Farbempfindlichkeit des Facettenauges ist in den ultravioletten Bereich verschoben. Außerdem verfügen Spezies mit Facettenaugen über das größte Blickfeld aller bekannten Lebewesen. Zu finden sind diese Augen bei Krebsen und Insekten. Zusätzlich besitzen viele Gliederfüßer Ocellen, kleinere Augen, die sich häufig auf der Stirnmitte befinden und sehr unterschiedlich aufgebaut sein können. Bei einfachen Ocellen handelt es sich um Grubenaugen. Besonders leistungsfähige Ocellen besitzen eine Linse oder, wie bei den Spinnentieren, auch einen Glaskörper, es handelt sich also um kleine Linsenaugen. Linsenauge. Das einfachste Linsenauge hat noch nicht den komplizierten Aufbau, den man vom Wirbeltierauge kennt. Es besteht aus nicht viel mehr als Linse, Pigmentzellen und Retina. Ein Beispiel hierfür ist das Linsenauge der Würfelqualle "Carybdea marsupialis". Zudem schauen die Augen an den vier Sinneskörpern am Schirmrand der Qualle in den Schirm hinein. Dennoch kann sie damit gut genug sehen, um Rudern auszuweichen, an denen sie sich verletzen könnte. Auch manche Ocellen der Gliederfüßer sind einfache Linsenaugen. Obwohl sich die Augen von Wirbeltieren, Tintenfischen und Einzellern im Aufbau stark ähneln, haben sie diese sehr ähnliche Funktionsweise unabhängig voneinander entwickelt. Dies wird bei der Bildung des Auges beim Embryo sichtbar: Während sich das Auge bei Wirbeltieren durch eine Ausstülpung der Zellen entwickelt, die später das Gehirn bilden, entsteht das Auge der Weichtiere durch eine Einstülpung der äußeren Zellschicht, die später die Haut bildet. Ein Krötenauge besitzt schon die meisten Teile, die auch das menschliche Auge hat, nur die Augenmuskeln fehlen. Deshalb kann eine Kröte, wenn sie selber ruhig sitzt, keine ruhenden Gegenstände sehen, da sie nicht zu aktiven Augenbewegungen fähig ist und das Bild auf der Netzhaut dadurch verblasst, wenn es unbewegt ist. Bei den höchstentwickelten Linsenaugen sammelt ein mehrstufiger dioptrischer Apparat das Licht und wirft es auf die Netzhaut, die nun zwei Arten von Sinneszellen enthält, Stäbchen und Zapfen. Die Einstellung auf Nah- und Fernsicht wird durch eine elastische Linse ermöglicht, die von Zonulafasern gestreckt bzw. gestaucht wird. Die besten Linsenaugen findet man bei Wirbeltieren. So ist zum Beispiel bei Greifvögeln die Fähigkeit entwickelt, Objekte in einem Bereich der Netzhaut stark vergrößert zu sehen, was insbesondere beim Kreisen in großer Höhe beim Lauern auf Beute vorteilhaft ist. Nachttiere wie Katzen, Eulen und Rehe, aber auch Schafe realisieren durch eine retroreflektierende Schicht (meist grün oder blau) hinter der Netzhaut einen Zugewinn an Empfindlichkeit, was ihnen als Nachttieren (Räubern wie Beute) zugutekommt. Siehe hierzu: Tapetum lucidum. Bei Katzen findet man zusätzlich eine sogenannte Schlitzblende, die beim Öffnungsverhältnis größere Unterschiede als Lochblenden erlaubt. Beim Tagsehen werden aber bei Schlitzblenden periphere Strahlbündel weniger als bei Lochblenden unterdrückt, so dass die Sehschärfe beim Tagsehen weniger optimal ist. Im Verhältnis zur Körpergröße sind die Augen bei nachtaktiven Tieren deutlich größer als bei den tagaktiven. Für die Leistungsfähigkeit eines Auges ist neben der Form des Auges und der Zahl und Art der Stäbchen und Zapfen auch die Auswertung der Wahrnehmungen durch die Nervenzellen im Auge und im Gehirn sowie die Augenbewegungen und die Lage der Augen am Kopf sehr wesentlich. Die Auswertung im Gehirn kann von Art zu Art stark variieren. So hat der Mensch sehr viel mehr unterschiedliche Bereiche zur Bildauswertung und zum Bilderkennen im Gehirn als ein Spitzhörnchen. Wirbeltierauge. Äußerlich sichtbare Teile eines menschlichen Auges Die Augen der Wirbeltiere sind sehr empfindliche und teils hoch entwickelte Sinnesorgane. Sie liegen geschützt und eingebettet in einem Muskel-, Fett- und Bindegewebspolster in den knöchernen Augenhöhlen (Orbita) des Schädels. Bei landlebenden Wirbeltieren wird das Auge nach außen hin durch die Augenlider geschützt, wobei der Lidschlussreflex eine Schädigung durch Fremdkörper und andere äußere Einwirkungen verhindert. Zudem bewahrt er die empfindliche Hornhaut durch ständiges Benetzen mit Tränenflüssigkeit vor dem Austrocknen. Auch die Wimpern dienen dem Schutz vor Fremdkörpern, Staub und kleineren Partikeln. Mit einigen Ausnahmen entspricht der Aufbau des Wirbeltierauges dem des Menschen. Gleichwohl finden sich bei manchen Vögeln, Reptilien und wasserlebenden Wirbeltieren teils erhebliche Unterschiede hinsichtlich ihrer Funktionalität und Leistungsfähigkeit. Äußerlich sichtbar sind lediglich die Hornhaut, Sclera und Bindehaut, Iris und Pupille, sowie die Augenlider und ein Teil der abführenden Tränenwege (Tränenpünktchen). Augapfel. Der Augapfel ("Bulbus oculi") ist ein fast kugelförmiger Körper, dessen Hülle aus drei konzentrischen Schichten, Lederhaut, Aderhaut und Netzhaut, besteht, die alle unterschiedliche Aufgaben haben. Der Innenraum des Augapfels enthält den Glaskörper "(Corpus vitreum)", sowie die Linse "(Lens)" und wird unterteilt in vordere und hintere Augenkammer ("Camera anterior" und "posterior bulbi"). Zudem besitzt der Augapfel ein optisches System, den sogenannten dioptrischen Apparat, welcher ein scharfes Sehen erst möglich macht. Dieses System besteht neben der Linse und dem Glaskörper aus dem Kammerwasser und der Hornhaut. Anhangsorgane. Zu den "Anhangsorganen" des Auges gehören der Tränenapparat, die Augenmuskeln, die Bindehaut und die Augenlider. Der "Tränenapparat" landlebender Wirbeltiere besteht aus der für die Produktion von Tränenflüssigkeit zuständigen Tränendrüse, sowie aus den zu- und ableitenden Gefässen und Kanälen, den Tränenwege, die die Tränenflüssigkeit transportieren. Das gesamte Organ dient der Versorgung der vorderen Augenabschnitte, ihrer Reinigung und ihrem Schutz. Äußere Augenmuskeln des linken menschlichen Auges Um die Augen bewegen zu können, verfügt das Wirbeltierauge über sieben (beim Menschen sechs) äußere "Augenmuskeln". Sie sind unterteilt in vier gerade und zwei schräge Augenmuskeln, die das Auge jeweils in die unterschiedlichsten Richtungen ziehen können. Je nach Augenstellung verfügen die Muskeln über mehr oder weniger ausgeprägte Haupt- und Teilfunktionen, die sich in der Hebung, Senkung, Seitwärtswendung oder Rollung des Augapfels ausdrücken. Die so ausgelösten Augenbewegungen erfolgen einerseits mit dem Ziel, Objekte im Außenraum fixieren zu können, andererseits um das Blickfeld zu vergrößern. Zudem sind sie bei manchen Spezies Voraussetzung für die Entstehung von räumlichem Sehen. Die "Bindehaut", auch "Konjunctiva" genannt, ist eine Schleimhaut im vorderen Augenabschnitt. Sie beginnt an der Lidkante und überzieht die hintere, dem Augapfel zugewandte Fläche der Augenlider. Dieser Schleimhautüberzug wirkt wie ein weiches Wischtuch und verteilt beim Lidschlag die Tränenflüssigkeit über der Hornhaut, ohne diese zu verletzen. Das "Augenlid" ist eine dünne, aus Muskeln, Bindegewebe und Haut bestehende Falte, die ein Auge vollständig bedecken kann, um es unter anderem mittels eines Reflexes (Lidschlussreflex) vor äußeren Einwirkungen und Fremdkörpern zu schützen. Es verteilt bei jedem Lidschlag Tränenflüssigkeit, die sich in Form eines Tränenfilms über der vorderen Augapfelfläche anlagert und so die empfindliche Hornhaut sauber und feucht hält. Fische besitzen keine Augenlider. Sehbahn. Als "Sehbahn" bezeichnet man alle Übertragungsleitungen und neuronalen Verschaltungen des optischen Systems vom Auge bis zum Gehirn. Hierzu zählen die Netzhaut im Auge, der Sehnerv bis zu seinem Verlauf an der Sehnervenkreuzung, sowie den sich daran anschließenden "Tractus opticus". Im seitlichen Kniehöcker des Zwischenhirns (Corpus geniculatum laterale) finden die ersten Verschaltungen der Sehbahn außerhalb der Netzhaut statt. Sie setzt sich fort als sogenannte "Gratioletsche Sehstrahlung" bis zur primären Sehrinde. Assoziativgesetz. Die Assoziativität der Addition reeller Zahlen Das Assoziativgesetz (lat. "associare" „vereinigen, verbinden, verknüpfen, vernetzen“), auf Deutsch Verknüpfungsgesetz oder auch Verbindungsgesetz, ist eine Regel aus der Mathematik. Eine (zweistellige) Verknüpfung ist assoziativ, wenn die Reihenfolge der Ausführung keine Rolle spielt. Anders gesagt: Die Klammerung mehrerer assoziativer Verknüpfungen ist beliebig. Deshalb kann man es anschaulich auch „Klammergesetz“ nennen. Neben dem Assoziativgesetz sind Distributivgesetz und Kommutativgesetz von elementarer Bedeutung in der Mathematik. Definition. In einem Summen- oder Produktterm dürfen die Summanden oder Faktoren beliebig mit Klammern verbunden werden. Dies gilt auch für mehr als drei Summanden oder Faktoren. Eine binäre Verknüpfung formula_1 auf einer Menge formula_2 heißt assoziativ, wenn für alle formula_3 das Assoziativgesetz Folgerungen. Bei Gültigkeit des Assoziativgesetzes lässt sich eine vereinfachte klammerfreie Notation einführen. Wegen eindeutig, da aus jeder beliebigen Klammerung immer das gleiche Ergebnis folgt. Beispiele. Als Verknüpfungen auf den reellen Zahlen sind Addition und Multiplikation assoziativ, es gilt zum Beispiel Die Subtraktion und Division sind hingegen nicht assoziativ, denn es ist zum Beispiel Auch die Potenz ist nicht assoziativ, da zum Beispiel Einordnung. Das Assoziativgesetz gehört zu den Gruppenaxiomen, wird aber bereits für die schwächere Struktur einer Halbgruppe gefordert. Atharvaveda. Der Atharvaveda (Sanskrit, m., अथर्ववेद, Atharvaveda, alternativ "Atharwaweda") ist eine der heiligen Textsammlungen des Hinduismus. Er enthält eine Mischung von magischen Hymnen, Zauberformeln und anderem Material, das offenbar sehr unterschiedlichen Alters ist. Obwohl vieles sprachlich deutlich jünger ist als die anderen drei Veden (zumindest des Rigveda), finden sich in ihm auch sehr alte Passagen. Man schätzt, dass der Atharvaveda in der zweiten Hälfte des letzten vorchristlichen Jahrtausends kanonisiert wurde, und auch dann erst mit den anderen drei Veden auf eine Stufe gestellt wurde. Er liegt in zwei Rezensionen oder Schulen vor, der bekannteren Shaunaka-Version, und der erst in jüngster Zeit besser erforschten Paippalada-Version. Der Atharvaveda umfasst 20 Bücher in 731 Hymnen mit ungefähr 6000 Versen. Ungefähr ein Siebtel des Atharvaveda ist aus dem Rigveda entnommen. Der Atharveda ist entstanden, als die Sesshaftwerdung in der Gangesebene schon abgeschlossen war. Das Wort für Tiger kommt hier vor, im früheren Rigveda hingegen noch nicht. Jeder der vier Veden, das sind Rigveda, Samaveda, Atharvaveda und Yajurveda, umfasst vier Textschichten. Die älteste Schicht sind jeweils die Samhitas (Hymnen), die nächste Schicht sind die Brahmanas (Ritualtexte), dann kommen die Aranyakas (Waldtexte) und zuletzt die Upanishaden (philosophische Lehren). Die anderen drei Veden waren bestimmten Priestern im vedischen Opferritual zugeteilt: der "Hotri" ("Rufer") musste den Rigveda auswendig können, der "Udgatri" ("Sänger") musste den Samaveda beherrschen, und der "Adhvaryu" (Opferpriester) musste die Mantras des Yajurveda kennen. Als der Atharvaveda in den Kanon aufgenommen wurde, wurde er schlichterhand dem "Brahman" zugeordnet, obwohl dieser Priester eigentlich die drei anderen Veden auswendig können musste, damit er das Ritual aus dem Hintergrund beobachten und bei Fehlern einschreiten konnte. Deswegen wird er auch als "Arzt des Opfers" bezeichnet. Die Zuordnung des Brahman zum Atharva Veda ist also eher willkürlich. Im Vergleich zu den drei anderen Veden hatte der Atharvaveda immer die Reputation, vor allem mit Magie zu tun zu haben. Atharvan bedeutet ursprünglich Feuerpriester. Eine andere Sorte Priester waren die Angiras. Magische Formeln, die helfen den Kranken zu heilen, waren Sache der Atharvans. Schwarze Magie, um Feinden oder Rivalen zu schaden, war die Sache der Angiras. Die Heiligkeit des Atharvaveda wurde wegen dieser magischen Inhalte immer etwas in Zweifel gezogen. Der Atharvaveda ist von großer Bedeutung hinsichtlich der medizinischen Vorstellungen der damaligen Zeit. Die Lieder und Zauber zum Heilen von Krankheiten gehören zu den magischen Heilriten (bhaishajyani). Exorzismus und "Frauenriten" (Liebesmagie) werden ebenso beschrieben. Der Atharvaveda öffnet also ein Fenster zu einer völlig anderen Welt als die des Rigveda. Anatomie. Die Anatomie (aus ' „auf“ und ' „Schnitt“) ist ein Teilgebiet der Morphologie. Sie ist in der Medizin bzw. Humanbiologie (Anthropotomie), Zoologie (Zootomie) und Botanik (Phytotomie) die Lehre vom Aufbau der Organismen. Es werden Gestalt, Lage und Struktur von Körperteilen, Organen, Gewebe oder Zellen betrachtet. Die pathologische Anatomie befasst sich mit krankhaft veränderten Körperteilen. Die mikroskopische Anatomie befasst sich mit den feineren biologischen Strukturen bis zur molekularen Ebene und knüpft an die Molekularbiologie an. Die klassische Anatomie verwendet eine standardisierte Nomenklatur, die auf der lateinischen und der griechischen Sprache basiert. Geschichte. Die frühesten erhaltenen anatomischen Studien finden sich im "Papyrus Edwin Smith", der auf etwa 1550 v. Chr. datiert wird. Behandelt werden u. a. das Herz und die Herzkranzgefäße, Leber, Milz und Nieren, Hypothalamus, Gebärmutter und Blase sowie die Blutgefäße. Der "Papyrus Ebers" aus dem letzten Viertel des 16. Jahrhunderts v. Chr. enthält ein Traktat zum Herzen, in dem auch die Blutgefäße beschrieben werden. Nomenklatur, Methodik und Anwendungen gehen auf die griechischen Ärzte der Antike zurück. Beschreibungen von Muskeln und Skelett finden sich im "Corpus Hippocraticum" (v. a. "Über die Knochenbrüche" und "Über die Gelenke"), wobei in der hippokratischen Medizin die menschliche Physiologie eine größere Bedeutung hatte als die Anatomie. Aristoteles beschrieb anhand der Sektion von Tieren die Anatomie der Wirbeltiere. Praxagoras von Kos kannte bereits im 4. Jahrhundert v. Chr. den Unterschied zwischen Arterien und Venen. Eine erste anatomische Schule gab es im 2. Jahrhundert v. Chr. in Alexandria. Ptolemaios I. erlaubte die Leichenöffnung für anatomische Studien, meist an Exekutierten. Herophilos von Chalkedon führte die ersten wissenschaftlichen Obduktionen und auch Vivisektionen an Mensch und Tier durch. Er soll 600 Strafgefangene lebend seziert haben. Er verwarf die Ansicht von Aristoteles, das Herz sei der Sitz der Intelligenz und nannte dafür das Gehirn. Weitere Anatomen in Alexandria waren Erasistratos und Eudemos von Alexandria. Galenos von Pergamon fasste im 2. Jahrhundert n. Chr. das medizinische Wissen der antiken Ärzte systematisch zusammen. Als Arzt von Gladiatoren konnte er verschiedenste Arten von Wunden und so auch die Anatomie des Menschen genau studieren. Weitere Studien betrieb er mit Schweinen und Affen. Seine Schriften bildeten die Basis für die Werke des Mittelalters, so auch für den "Kanon der Medizin" von Avicenna. a> „Die Anatomie des Dr. Tulp“ Nachdem im Mittelalter die Anatomie keine großen Fortschritte gemacht hatte, erschütterte Andreas Vesalius (1514–1564) die über Jahrhunderte kaum hinterfragten Annahmen bzw. Glaubenssätze, was viele seiner Kollegen empörte. Seine Arbeit revolutionierte die Medizin seiner Zeit und macht ihn zum Begründer der modernen Anatomie. William Harvey gilt als Entdecker des Blutkreislaufs im Abendland und als Wegbereiter der modernen Physiologie. Die Anatomie nahm seitdem einen hohen Stellenwert in den bildenden Künsten ein, Sektionen an Menschen und Tieren gehörten zur Grundausbildung der Studenten. Künstler wie Michelangelo, Raffael, Dürer und da Vinci (1452–1519) brachten Jahre mit dem Studium des menschlichen Körpers zu, wobei letzterer in seiner wissenschaftlichen Genauigkeit den 62 Jahre später geborenen Vesalius übertraf. Die enge Zusammenarbeit von Künstlern und Anatomen ließ medizinische Schriften von außergewöhnlich hoher Qualität entstehen. Im Zeitalter der Aufklärung errichtete man anatomische Theater, die neben dem wissenschaftlichen Wert einen hohen Schauwert hatten. Arbeitsgebiete. a>-Symbole Sarg und Stundenglas rechtfertigen noch das Sujet. Makroskopische Anatomie. Die makroskopische Anatomie beschäftigt sich mit dem Aufbau des Menschen, von Tieren oder Pflanzen, und zwar mit allen Dingen, die man mit dem bloßen Auge sehen kann. Beachtet hierbei werden nicht nur äußerlich sichtbare Strukturen, sondern insbesondere auch die Strukturen, welche nach Auf- und Auseinanderschneiden des Körpers zu beobachten sind. Mikroskopische Anatomie. Für die Untersuchung anatomischer Strukturen unterhalb des mit bloßem Auge sichtbaren Bereichs ist die Mikroskopische Anatomie (Histologie) zuständig. Sie beschreibt den Feinbau von Organen, Geweben und Zellen. Embryologie. Die Embryologie beschreibt die Entstehung der anatomischen Strukturen während der Embryonalentwicklung. Anhand der Entstehungsgeschichte lassen sich vielfältige topografische und funktionelle Beziehungen erkennen. Auch für das Verständnis der Entstehung von Fehlbildungen sind embryologische Kenntnisse unverzichtbar. Aufgaben in der medizinischen Ausbildung. Tafel am Hörsaal der Anatomie in Leipzig Ein wichtiges Gebiet der Anatomie ist die Bereitstellung von Anschauungsmaterialien zur Arztausbildung. Dies geschieht in Präparierkursen und -übungen, Vorlesungsveranstaltungen, anatomischen Sammlungen, anatomischen Museen, vergleichenden anatomischen Sammlungen oder anatomischen Lehrsammlungen. Entsprechendes gilt für die Erstellung anatomischer Lehrbücher und Atlanten, in denen auch heute noch feine Zeichnungen (Strichzeichnungen) ihre didaktische Bedeutung haben. Andreas Vesalius. Andreas Vesalius (auch "Andreas Vesal"; * 31. Dezember 1514 in Brüssel; † 15. Oktober 1564 auf Zakynthos; eigentlich "Andreas Witinck") war ein flämischer Anatom der Renaissance und gilt als Begründer der neuzeitlichen Anatomie und des morphologischen Denkens in der Medizin. Er war Leibarzt Karls V. und Philipps II. von Spanien. Leben. Vesalius stammte aus einer alten Weseler Familie (der Name Vesal erinnert noch daran), die jedoch früh auswanderte. Der Vater war habsburgischer Leibapotheker am Kaiserhof in Flandern. Vesalius studierte ab 1530 an der Universität Löwen Sprachen und Wissenschaften und erhielt dort seine humanistische Bildung. 1531 wechselte er zur Medizin. Vesalius ging 1533 nach Paris, um mit Miguel Serveto unter Jacques Dubois (Jacobus Sylvius) und Johann Winter galenische Medizin und Anatomie zu studieren. Er war jedoch von Sylvius’ strikter Anlehnung an Galen und von der realitätsfernen Ausbildung an der Universität enttäuscht und verließ Paris 1536 wegen des Dritten Krieges Karls V. gegen Franz I. wieder. Bis dahin waren Sektionen menschlicher Leichen verboten. Vesalius kehrte nach Löwen zurück und beendete dort sein Studium. Weil er sich selbst Gewissheit über anatomische Einzelheiten verschaffen wollte, über die er an der Universität aus den Lehren von Galenos gehört hatte, verschaffte er sich dort heimlich die Leiche eines Hingerichteten und präparierte das Skelett. Hierbei stellte er Abweichungen zu den Angaben von Galenos fest. In Löwen konnte Vesalius dank guter Beziehungen zur Obrigkeit 1537 seine erste öffentliche Obduktion durchführen. Anfang 1537 gab Vesalius als Kandidat der Medizin (ein dem Master vergleichbarer Abschluss) in Brüssel sein philosophisches Erstlingswerk heraus, die "Paraphrasis ad nonum librum Rhazae", eine Beschäftigung mit den Theorien und Methoden des persischen Arztes Abu Bakr Muhammad ibn Zakariya ar-Razi (Rhazes), der etwa von 860 bis 925 lebte. Danach ging er nach Oberitalien. Am 3. Dezember 1537 wurde er promoviert; tags darauf wurde er in Padua zum Professor der Chirurgie und Anatomie ernannt. So lehrte er die nächsten Jahre in Padua. Später ging er nach Venedig, wo er 1537 zu Besuch gewesen war und dort in hervorragender Weise Pleuritis-Kranke operiert hatte. In Anerkennung seiner hervorragenden Kenntnisse erhielt Vesalius vom venezianischen Senat einen fünfjährigen Zeitvertrag als Professor für Chirurgie, mit Lehrverpflichtung in Anatomie. Im großen venezianischen Stadtspital konnte er nicht nur „seine anatomischen und medizinischen Kenntnisse vertiefen, sondern auch im Hinblick auf seine musischen Neigungen wesentliche Anregungen von der Malschule des Tizian … empfangen.“ Während seines Aufenthaltes in Venedig lernte er den gleichfalls vom Niederrhein stammenden Maler und Holzschneider Jan Stephan van Calcar kennen, der großen Einfluss auf die künstlerische Gestaltung seiner wissenschaftlichen Werke hatte. Sechs anatomische Flugblätter für Studenten, die "Tabulae anatomicae sex", gab Vesal 1538 in Venedig heraus. Zumindest hier gilt als gesichert, dass Jan Stephan van Calcar die dazugehörigen Skelettzeichnungen anfertigte. Einen Monat später gab Vesalius eine Neuausgabe der "Institutiones anatomicae" des Johann Winter ohne dessen Wissen heraus. Sie war als Kompendium für Studenten gedacht. Vesalius Aderlassbrief erschien 1539, drei weitere Traktate zu einer großen Galen-Ausgabe verfasste er 1541. Öffentliche Sektionen. In Bologna, der Scholarenuniversität, sezierte Vesalius 1540 öffentlich: Die erste Vorlesung fand in der Kirche San Salvador statt, die anatomische Demonstration in einem eigens dazu errichteten Anatomischen Theater unter dem sakralen Schutz der Kirche San Francesco. Auch ein deutscher Medizinstudent war eingeladen worden, der Sektion beizuwohnen. Der aus Liegnitz stammende Balthasar Heseler (1508/9–1567) berichtete später, Vesalius habe die Sektion vor etwa 200 Zuschauern, darunter 150 Studenten, vorgenommen. Zunächst habe er sich von der alten Vorgehensweise, deren Vertreter Galen und Mondino er namentlich genannt habe, distanziert, und – statt sofort Brust, Bauch und Schädel zu eröffnen – mit der Myologie (Muskellehre) begonnen, die bis zu Leonardo da Vinci völlig vernachlässigt worden war, und alle Details der Myologie und Osteologie (Knochenlehre) dargelegt. Während der Demonstration Vesalius’ habe Jacobus Erigius, ein Mitglied der Medizinischen Fakultät Bolognas, ebenfalls eine Leiche seziert und sich wegen seines unsachgemäßen Vorgehens den Spott des Ersteren zugezogen. De humani corporis fabrica libri septem. In den Jahren von 1538 bis 1542 bereitete Vesalius das große Werk vor, das die neuzeitliche Anatomie begründete. Die Konsequenz, Konzentration und der manische Eifer, die "Fabrica" zu vollenden, ließen ihn bei seinen Mitmenschen schweigsam und melancholisch ("taciturnus et melancholicus") erscheinen. Im Vorwort zur Fabrica übte er vehemente Kritik an Galen, der selbst nie ein Hehl daraus gemacht hatte, nur Tierkadaver seziert zu haben. Die Fabrica, ein sorgfältig typographisch ausgestattetes Lehrbuch, zeigt rund 200 zum Teil ganzseitige Illustrationen. In ihr vertrat Vesal entgegen der allgemeinen Überzeugung die Ansicht, allein der menschliche Leib sei der zuverlässige Weg zur Erkenntnis des Körperbaus. Darüber hinaus zeichnete er darin, sich dabei auf Plinius beziehend, eine Abstammungslinie vom Affen über die Pygmäen hin zum Menschen. "De humani corporis fabrica libri septem", (nebst deren Auszug für Chirurgen), erschienen 1543 in Basel bei dem Verleger Johannes Oporinus. Vesalius hatte die Holzstöcke seiner Illustrationen, fertig geschnitten, zusammen mit den Probeabzügen nach Basel bringen lassen. Er selbst folgte seinem Manuskript 1543 nach und hielt im Mai ein anatomisches Kolloquium ab. Das hierbei von Vesalius präparierte sogenannte "Vesalsche Skelett" ist noch heute erhalten und das älteste Stück der anatomischen Sammlung in Basel. Es soll 1543 aus den sterblichen Überresten des Straftäters Jakob Karrer von Gebweiler präpariert worden sein. Kaiserlicher Leibarzt. 1544 reiste Vesalius nach Pisa, nachdem er sich Karl V. als Leibarzt verpflichtet hatte, und hielt dort eine öffentliche Sektion ab. Auch ein Lehramt an der Universität Pisa wurde ihm angetragen, doch die Annahme des Rufs wurde ihm von Kaiser Karl V. verwehrt. Vesalius zog nach Brüssel und war weiter schriftstellerisch tätig. Er publizierte 1546 eine Abhandlung über die Chinawurzel und heiratete im selben Jahr. Als sich Kaiser Karl V. 1556 aus Spanien zurückzog, wollte er Vesalius, mit einer Leibrente versehen, dort zurücklassen. Ein Jahr zuvor, 1555, war die zweite Auflage der "Fabrica" erschienen, die in einer noch schöneren Typographie nach dem Entwurf des französischen Schriftsetzers Claude Garamond wieder zu einem Meisterwerk der europäischen Buchkunst geraten war (Bücher 1–5 kamen schon 1552 auf den Markt.) Unzählige kleinere Veränderungen hatte Vesal in diese Ausgabe eingearbeitet. Sie enthielt auch Antworten auf Angriffe gegen ihn und zudem war sie durch eine freiere Haltung gegenüber Galen gekennzeichnet. Vesals wissenschaftliches Interesse erlosch nun zwar nicht, doch trat er in den Dienst des Sohns Karls des IV. Philipp II., dessen Hof 1559 nach Madrid verlegt wurde. Vesal war jetzt Arzt des niederländischen Hofstaates. Schließlich unternahm er 1564 eine Pilgerreise ins Heilige Land, von der er nicht mehr zurückkam: Während der Rückreise von Jerusalem erkrankte er und musste an Land gehen. In Zante starb er. Er soll von Pilgern bestattet worden sein. Legenden um diesen frühen Tod brachten Vesalius mit der Inquisition in Verbindung. Hubertus Languetus schrieb ein Jahr nach Bekanntwerden seines Todes an den Arzt Caspar Peucer, Vesalius habe aus Versehen einen Menschen bei lebendigem Leib seziert und sei zur Strafe verpflichtet worden, nach Jerusalem zu reisen. Eponyme. 1987 wurde der Asteroid (2642) Vésale nach ihm benannt. Amulett. Diverse Talismane in der Schaufensterauslage eines Fachgeschäfts in Porto. a>, Bamunkung. Es sollte den Träger vor Hexerei schützen, die als Ursache von Krankheiten, Unglück und Tod angesehen wurde. Bei Maskentänzen trug der Tänzer das Amulett am Körper. a> aus der Dauerausstellung des Kindermuseums von Indianapolis. römisches Amulett mit männlichen Genitalien, 1. bis 4. Jh. n.Chr., ca. 4,5 x 2,7 cm Ein Amulett (lateinisch "amuletum" Herkunft ungeklärt, arabisch "hammala" Tragband) ist ein Gegenstand, dem magische Kräfte zugeschrieben werden, mit denen er Glück bringen (energetische, sakramentale Wirkung) und vor Schaden schützen (apotropäische Wirkung) soll. In seiner glückbringenden Eigenschaft wird es auch als Talisman bezeichnet. Das Amulett hat mit seiner vermuteten magischen Wirkung Parallelen zur Votivgabe. Während die Votivgabe aber typischerweise an einem Ort mit vermuteter magischer Wirkung hinterlegt wird, dient das Amulett dazu am Körper getragen zu werden. Mit abnehmender Vermutung einer magischen Wirkung überwiegt immer mehr die Funktion als Schmuck oder als Zeichen der Zugehörigkeit zu einer meist religiösen Gemeinschaft. Verwendung. Amulette werden am Körper (oft auch als Schmuck) oder in der Kleidung getragen, in Fahrzeugen oder der Behausung aufbewahrt oder dem Vieh umgehängt. Sie können aus einer Vielzahl von Materialien bestehen und durch sie soll der Träger passiv geschützt werden. Schon in der Vorgeschichte hängten sich Menschen Überreste (Zähne und Krallen) ihrer erlegten Beute um. Sie sollten dem Träger die Kraft des Tieres geben. Amulette finden Anwendung in der (Para)medizin, als Schutz von Schwangeren, gegen den bösen Blick und als Liebeszauber. Am Amulett wirkt die animistische Vorstellung, dass magische Kräfte auf den Menschen einwirken, denen er durch das Amulett entgegenwirken kann. Amulette sind in allen Religionen bekannt. Seit der Steinzeit nutzte man Muscheln oder Perlen und besondere Steine wie beispielsweise Bernstein und Bergkristalle. In keltischen Siedlungsresten wurden polierte, durchbohrte Schädelfragmente (Amulette?) bei Grabungen gefunden. Bei den Arabern sind Amulette Ledertäschchen mit eingenähtem Papier, auf das eine Koransure oder ein magisches Zeichen geschrieben ist. Sie verbreiten die islamische Segenskraft Baraka. Eine amulettartige positive Wirkung entfalten im Volksglauben Buntmetalle, besonders Kupfer und Messing. Verständnis der christlichen Kirche. In Europa wandte sich die christliche Kirche schon früh gegen den Aberglauben, zu dem auch Amulette gerechnet wurden. Das hinderte den Volksglauben allerdings nicht daran, an Amuletten mit christlichem Bezug festzuhalten. Aber auch hohe Kirchenmänner besaßen Glücksbringer. So sind etwa im Schatzinventar des Heiligen Stuhls von 1295 15 Natternzungenbäume verzeichnet. Als am 9. Februar 1749 der Fürstbischof Anselm Franz von Würzburg, zeitlebens ein Streiter gegen Aberglauben und Hexenwahn, an einem Schlaganfall starb, fand man auf seiner Brust ein Amulett aus Messingblech, auf dem ein Pentagramm und einige Zauberformeln eingraviert waren. Arc de Triomphe de l’Étoile. Arc de Triomphe bei Nacht Arc de Triomphe bei Tag Der Arc de Triomphe de l'Étoile oder kurz Arc de Triomphe ("Triumphbogen"), ist ein 1806 bis 1836 errichtetes Denkmal am Place Charles-de-Gaulle in Paris. Er gehört neben dem Eiffelturm zu den Wahrzeichen der Metropole. Unter dem Bogen liegt das Grabmal des unbekannten Soldaten aus dem Ersten Weltkrieg mit der täglich gewarteten Ewigen Flamme, im Französischen "Flamme du Souvenir" (dt. Flamme der Erinnerung) genannt, im Gedenken an die Toten, die nie identifiziert wurden. Das ganze Jahr hindurch finden Kranzniederlegungen und Ehrungen statt, die ihren Höhepunkt in der Parade am 11. November finden, dem Jahrestag des Waffenstillstands zwischen Frankreich und Deutschland im Jahr 1918. Als Fußgänger gelangt man zum "Arc de Triomphe" nur durch eine Unterführung; der Triumphbogen verfügt über eine Aussichtsplattform. Der "Arc de Triomphe de l'Étoile" ist nicht zu verwechseln mit dem weniger bekannten und kleineren Arc de Triomphe du Carrousel, der sich zwischen dem Louvre und dem Jardin des Tuileries befindet. Geschichte. Arc de Triomphe aus der Froschperspektive Der provisorische Triumphbogen aus Holz und Stuck 1810 mit Feuerwerk Der Triumphbogen diente dem Ruhm der kaiserlichen Armeen und erscheint manchen heute als „Altar des Vaterlandes“, an dem die feierlichsten staatlichen Zeremonien Frankreichs stattfinden, die häufig von hier aus die Avenue des Champs-Élysées hinuntergehen bzw. hier enden. Er steht im Zentrum des "Place Charles de Gaulle" (bis 1970 "Place de l’Étoile"), am westlichen Ausläufer der "Avenue des Champs-Élysées". Er ist Teil der „historischen Achse“, einer Reihe von Monumenten und großen Straßen, die aus Paris herausführen. Zwölf Avenuen gehen sternförmig von diesem Triumphbogen aus. Die heutige Form des Platzes entstand 1854, war in Grundzügen aber bereits seit dem späten 18. Jahrhundert so ähnlich angelegt worden, wenn auch nur mit vier Straßen. Der Triumphbogen selbst wurde von Kaiser Napoleon I. nach der Schlacht von Austerlitz zur Verherrlichung seiner Siege 1806 in Auftrag gegeben. Am 15. August 1806 wurde der Grundstein zum Bau gelegt. Zwei Jahre dauerte der Bau der Fundamente. 1810 erhoben sich die vier Pylonen des Triumphbogens aber erst bis zu einer Höhe von 1 m. Aus Anlass von Napoleons Heirat mit der habsburgischen Prinzessin Marie-Louise ließ der Kaiser ein provisorisches Modell des Triumphbogens aus Holz und Stuck in originaler Größe errichten. Ähnlich dem Elefanten der Bastille stand diese Ehrenpforte längere Zeit als Platzhalter des unfertigen Monuments. Anders als im Falle des Elefanten kam es aber letztlich zum Weiterbau. Als der zuständige Architekt Jean-François Chalgrin 1811 gestorben war und Napoleon 1814 abdankte, wurden die Bauarbeiten gestoppt. Louis XVIII. ließ sie 1824 unter der Leitung von Héricart de Thury wieder aufnehmen. 1830 entschied sich der „Bürgerkönig“ Louis-Philippe zur napoleonischen Konzeption zurückzukehren. Er und Adolphe Thiers entschieden über den figurativen Schmuck und seine Ausführenden. 1836, unter der Regierung des „Bürgerkönigs“, wurde der Bogen von Huyot und Blouet fertiggestellt. Die feierliche Einweihung war am 29. Juli. Der Triumphbogen ist 49,54 m hoch, 44,82 m breit und 22 m tief. Der große Gewölbebogen misst 29,19 m in der Höhe und 14,62 m in der Breite, der kleine Bogen 18,68 m in der Höhe und 8,44 m in der Breite. Der Entwurf ist im Stil der antiken römischen Architektur gehalten. Die vier Figurengruppen an der Basis des Bogens zeigen "Der Triumph von 1810", "Widerstand", "Frieden" und "La Marseillaise" oder "Auszug der Freiwilligen von 1792" (von François Rude). Oben sind auf den Flächen rund um den Bogen Flachreliefs mit Nachbildungen von wichtigen revolutionären und napoleonischen Siegen eingelassen. Die Innenwände des Triumphbogens beherbergen ein kleines Museum und führen die Namen von 558 französischen Militärs, vorwiegend Generälen auf. Die Namen derjenigen, die im Kampf gefallen sind, sind unterstrichen. Siehe: Liste der Personennamen auf dem Triumphbogen in Paris Reliefs. Berühmt ist dieser Triumphbogen auch wegen der bedeutenden Reliefs, die er trägt. Sie wurden 1833 in Auftrag gegeben bei den Bildhauern Antoine Étex, Jean-Pierre Cortot und vor allem François Rude. Die Ostfassade zeigt das berühmteste Relief, die "Marseillaise" (Auszug der Freiwilligen von 1792) von François Rude (1784–1855), die auch "Le chant du départ", also das Abschiedslied, genannt wird. Es ist eine Gruppe ausziehender Krieger – offensichtlich in revolutionärer oder erhoben nationaler Gesinnung, die – zumindest kann man das in dieser Szene vermuten – das neue Revolutionslied der "Marseillaise" auf den Lippen haben, das erst am 25. April 1792 komponiert worden war. François Rude übertrifft mit dem heroischen Schwung seiner Darstellung die seiner Konkurrenten auf diesem Triumphbogen bei weitem. Er begann als akademischer Klassizist, aber mit diesem seinem bekanntesten Werk vollzog Rude als einer der ersten die Abkehr vom Klassizismus und die Hinwendung zur Romantik, zu einer neuen heroischen Leidenschaftlichkeit in der Bildhauerei, ähnlich wie Delacroix in der Malerei. Interessant ist ein Vergleich der beiden Reliefs dieser Seite. Es handelt sich auf der anderen Seite um den „Triumph Napoleons nach dem Frieden von 1810“ (der „Triumph“ verherrlicht den Frieden von Wien) von Cortot. Das Relief von Cortot steht noch ganz in der Tradition der klassizistischen Statik, der gemessenen Heldenverehrung, des symmetrischen, wohlproportionierten Bildaufbaus – mit anderen Worten der „erhabenen Langeweile“. Auch bei den Reliefs von Antoine Etex auf der Westseite ist diese Atmosphäre deutlich zu spüren, beispielsweise beim „Frieden“. Hier hat man noch den Eindruck, dass die Themen von einer Schauspielertruppe auf einer Theaterbühne dargestellt werden, dass hier Motive aus dem Arsenal zusammengestellt worden sind. Auf den vier Außenseiten des Bogens befinden sich sechs Flachreliefs, die jeweils berühmte Schlachten zeigen. Unter den sechs Bildhauern ist auch Jean-Jacques Feuchère mit einer Darstellung des "Übergangs über die Brücke von Arcole" zu sehen. Verschiedenes. Der Rundkurs der letzten Kilometer der Schlussetappe der Tour de France, die seit 1975 auf der Avenue des Champs-Élysées endet, umrundet den Arc de Triomphe. Bis 2013 führte der Rundkurs direkt vor dem Arc de Triomphe eine Wende aus (und umkreiste ihn somit nicht). Am Abend des 9. Januar 2015 wurden die Worte "Paris est Charlie" auf den Triumphbogen projiziert und illuminiert. Die Parole, eine Abwandlung von "Je suis Charlie", ist das Bekenntnis der Pariser zu den demokratischen Werten der Meinungs- und Pressefreiheit und eine Solidaritätsbekundung mit den Opfern der terroristischen Verbrechen und mit dem Satiremagazin Charlie Hebdo. Akustik. Die Akustik (gr. "akoyein" ‚hören‘) ist die Lehre vom Schall und seiner Ausbreitung. Als Wissenschaftsgebiet umfasst sie sämtliche damit zusammenhängenden Gesichtspunkte, so die Entstehung und Erzeugung, die Ausbreitung, die Beeinflussung und die Analyse von Schall, seine Wahrnehmung durch das Gehör und Wirkung auf Menschen und Tiere. Die Akustik ist ein interdisziplinäres Fachgebiet, das auf Erkenntnissen aus zahlreichen anderen Fachgebieten aufbaut, unter anderem der Physik, der Psychologie, der Nachrichtentechnik und der Materialwissenschaft. Zu den wichtigsten Anwendungen der Akustik gehört neben der Erforschung und Minderung von Lärm auch das Bemühen, einen Wohlklang hervorzurufen oder eine akustische Information zu übertragen. Außerdem ist der Einsatz von Schall zur Diagnose oder zu technischen Zwecken eine wichtige Anwendung der Akustik. Geschichte der Akustik. Als eine erste systematische Beschäftigung mit der Akustik gilt die Einführung von Tonsystemen und Stimmungen in der Musik im 3. Jahrtausend v. Chr. in China. Aus der Antike ist die wissenschaftliche Beschäftigung mit der Akustik unter anderem von Pythagoras von Samos (ca. 570–510 v. Chr.) überliefert, der den Zusammenhang von Saitenlänge und Tonhöhe beim Monochord mathematisch analysierte. Chrysippos von Soli (281–208 v. Chr.) erkannte den Wellencharakter von Schall durch einen Vergleich mit Wellen auf der Wasseroberfläche. Der römische Architekt Vitruv (ca. 80–10 v. Chr.) analysierte die Schallausbreitung in Amphitheatern und vermutete die Ausbreitung von Schall als Kugelwelle. Er beschrieb ebenfalls die Wirkungsweise von Helmholtz-Resonatoren zur Absorption tieffrequenten Schalls. Helmholtz-Resonator aus Messing von ca. 1900 Leonardo da Vinci (1452–1519) erkannte unter anderem, dass Luft als Medium zur Ausbreitung des Schalls erforderlich ist und dass sich Schall mit einer endlichen Geschwindigkeit ausbreitet. Von Marin Mersenne (1588–1648) stammt neben anderen wissenschaftlichen Erkenntnissen zur Natur des Schalls auch die erste Angabe einer experimentell bestimmten Schallgeschwindigkeit. Galileo Galilei (1564–1642) beschrieb den für die Akustik wichtigen Zusammenhang zwischen Tonhöhe und Frequenz. Joseph Sauveur (1653–1716) führte die Bezeichnung „Akustik“ für die Lehre vom Schall ein. Isaac Newton (1643–1727) berechnete als erster die Schallgeschwindigkeit auf Grund theoretischer Überlegungen, während Leonhard Euler (1707–1783) eine Wellengleichung für Schall in der heute verwendeten Form fand. Ernst Florens Friedrich Chladni (1756–1827) gilt als Begründer der modernen experimentellen Akustik; er erfand die Chladnischen Klangfiguren, die Eigenschwingungen von Platten sichtbar machen. Mit Beginn des 19. Jahrhunderts setzte eine intensive Beschäftigung mit der Akustik ein und zahlreiche Wissenschaftler widmeten sich dem Thema. So fand Pierre-Simon Laplace (1749–1827) das adiabatische Verhalten von Schall, Georg Simon Ohm (1789–1854) postulierte die Fähigkeit des Gehörs, Klänge in Grundtöne und Harmonische aufzulösen, Hermann von Helmholtz (1821–1894) erforschte die Tonempfindung und beschrieb den Helmholtz-Resonator und John William Strutt, 3. Baron Rayleigh (1842–1919) veröffentlichte die „Theory of Sound“ mit zahlreichen mathematisch begründeten Erkenntnissen, die den Schall, seine Entstehung und Ausbreitung betreffen. In der zweiten Hälfte des 19. Jahrhunderts werden erste akustische Mess- und Aufzeichnungsgeräte entwickelt, so der Phonautograph von Édouard-Léon Scott de Martinville (1817–1897) und später der Phonograph von Thomas Alva Edison (1847–1931). August Kundt (1839–1894) entwickelte das Kundtsche Rohr und setzte es zur Messung des Schallabsorptionsgrades ein. Ab dem Beginn des 20. Jahrhunderts kam es zur breiten Anwendung der vorhandenen theoretischen Erkenntnisse zur Akustik. So entwickelte sich die von Wallace Clement Sabine begründete wissenschaftliche Raumakustik mit dem Ziel, die Hörsamkeit von Räumen zu verbessern. Die Erfindung der Elektronenröhre 1907 ermöglichte den breiten Einsatz elektroakustischer Übertragungstechnik. Paul Langevin (1872–1946) verwendete Ultraschall zur technischen Ortung von Objekten unter Wasser (Sonar). Heinrich Barkhausen (1881–1956) erfand das erste Gerät zur Messung der Lautstärke. Seit etwa 1930 erscheinen wissenschaftliche Fachzeitschriften, die sich ausschließlich Themen der Akustik widmen. Zu einer der wichtigsten Anwendungen der Akustik entwickelt sich in der ersten Hälfte des 20. Jahrhunderts auch die Minderung von Lärm, so wird zum Beispiel der Schalldämpfer für die Abgasanlage von Kraftfahrzeugen immer weiter verbessert. Mit der Einführung von Strahltriebwerken um 1950 und der für den erfolgreichen Einsatz notwendigen Lärmminderung entwickelte sich die Aeroakustik, die wesentlich durch die Arbeiten von Michael James Lighthill (1924–1998) begründet wurde. Frequenzanalyse. Neben der Betrachtung zeitgemittelter Schallfeld- und Schallenergiegrößen wird oft die zeitliche Auslenkung gemessen, z. B. das Drucksignal, und einer Frequenzanalyse unterzogen. Für den Zusammenhang des so erhaltenen Frequenzspektrums mit dem Klang siehe Klangspektrum. Die zeitliche Veränderung innerhalb eines Schallereignisses wird durch Kurzzeit-Fourier-Transformation zugänglich. Die Veränderungen des Spektrums beim Prozess der Schallabstrahlung, -ausbreitung und Messung bzw. Wahrnehmung werden durch den jeweiligen Frequenzgang beschrieben. Den Frequenzgang des Gehörs berücksichtigen Frequenzbewertungskurven. Resonanzanalyse. Die akustische Resonanzanalyse wertet die entstehenden Resonanzfrequenzen aus, wenn ein Körper durch eine impulshafte Anregung wie etwa einen Schlag in Schwingung versetzt wird. Ist der Körper ein schwingungsfähiges System, so bilden sich über einen gewissen Zeitraum bestimmte charakteristischen Frequenzen aus, der Körper schwingt in den so genannten natürlichen Eigen- oder Resonanzfrequenzen – kurz Resonanzen. Ordnungsanalyse. Bei der Ordnungsanalyse werden Geräusche oder Schwingungen von rotierenden Maschinen analysiert, wobei im Gegensatz zur Frequenzanalyse hierbei der Energiegehalt des Geräusches nicht über der Frequenz sondern über der Ordnung aufgetragen wird. Die Ordnung entspricht dabei einem Vielfachen der Drehzahl. Reflexionsarmer Raum. Ein reflexionsarmer Raum, manchmal physikalisch unrichtig auch „schalltoter“ Raum genannt, besitzt Absorptionsmaterial an Decke und Wänden, so dass nur minimale Reflexionen auftreten und Bedingungen wie in einem Direktfeld D (Freifeld oder freiem Schallfeld) herrschen, wobei der Schalldruck mit 1/r nach dem Abstandsgesetz von einer Punktschallquelle abnimmt. Solche Räume eignen sich für Sprachaufzeichnungen und für die Lokalisation von Schallquellen. Wird auf einer gedachten Hüllfläche um die Schallquelle die senkrecht durch diese Fläche tretende Schallintensität gemessen, so kann die Schallleistung der Quelle bestimmt werden. Freifeldraum. Ein Freifeldraum ist die spezielle Ausführung eines reflexionsarmen Raumes. Hier ist jedoch zusätzlich auch der Boden mit absorbierendem Material bedeckt. Da der Boden durch diese Maßnahme nicht mehr begehbar ist, wird meistens ein schalldurchlässiges Gitter darüber angeordnet, das den Zugang zum Messobjekt ermöglicht. Derartige Räume werden in der akustischen Messtechnik eingesetzt, um gezielte Schallquellenanalysen – auch unter dem Messobjekt – durchführen zu können. Hallraum. Ein Hallraum dagegen wird so konstruiert, dass an jedem beliebigen Punkt im Schallfeld Reflexionen gleicher Größe aus allen Richtungen zusammentreffen. In einem idealen Hallraum herrscht daher mit Ausnahme des Bereiches direkt um die Schallquelle (siehe Hallradius) an jedem Ort derselbe Schalldruck. Ein solches Schallfeld wird Diffusfeld genannt. Da die Schallstrahlen aus allen Richtungen gleichzeitig einfallen, ist in einem Diffusfeld keine Schallintensität vorhanden. Um Resonanzen in einem Hallraum zu vermeiden wird er im Allgemeinen ohne parallel zueinander stehende Wände und Decken gebaut. Über Nachhallzeit-Messungen oder durch Referenzschallquellen kann der Raum kalibriert werden. Hierbei wird die Differenz zwischen dem an einem beliebigen Ort im Raum, weit genug außerhalb des Hallradius gemessenen Schalldruckpegel und dem Schallleistungspegel einer Schallquelle bestimmt. Diese Differenz ist frequenzabhängig und bleibt unverändert, solange sich der Aufbau des Raumes und der Absorptionsgrad der Wände nicht ändern. In einem Hallraum kann daher die Schallleistung einer Quelle theoretisch mit einer einzigen Schalldruckmessung bestimmt werden. Dieses ist z. B. für Fragestellungen im Bereich des Schallschutzes sehr nützlich. Akustik bei Lebewesen. Die meisten höheren Tiere besitzen einen Hörsinn. Schall ist ein wichtiger Kommunikationskanal, da er praktisch unmittelbare Fernwirkung besitzt. Mit Lautäußerungen ist den Tieren ein Mittel zur Reviermarkierung, Partner- oder Rudelsuche, zum Auffinden von Beute und zur Mitteilung von Stimmungen, Warnsignalen usw. gegeben. Der menschliche Hörbereich liegt zwischen der Hörschwelle und der Schmerzschwelle (etwa 0 dB HL bis 110 dB HL). Lautlehre. Bei der Erzeugung von Lauten im Rahmen der Lautlehre unterscheidet man im Allgemeinen zwischen stimmhaften und stimmlosen Phonemen. Bei den stimmhaften Phonemen, die als Vokale bezeichnet werden, werden beim Kehlkopf durch Vibration der Stimmbänder die „Roh“klänge erzeugt, die dann im Rachen- und Nasenraum durch verschiedene willkürlich beeinflussbare oder unveränderliche individualspezifische Resonanzräume moduliert werden. Bei stimmlosen Phonemen, den Konsonanten, ruhen die Stimmbänder, wobei der Laut durch Modulation des Luftstromes zustande kommt. Beim Flüstern werden selbst die Vokale nur durch Modulation des Spektrums des Rauschens eines hervorgepressten Luftstromes gebildet, wobei die Stimmbänder ruhen. Berufsausbildung. Fachleute für Akustik werden als Akustiker/in oder Akustikingenieur/in bezeichnet. Die englischen Berufsbezeichnungen sind acoustical engineer oder acoustician. Der übliche Zugang zu diesem Arbeitsfeld ist ein Studium im Bereich Physik oder ein entsprechendes ingenieurwissenschaftliches Studium. Afroasiatische Sprachen. Das Gebiet der Afroasiatischen Sprachen ist auf der Karte in Gelb eingefärbt Die afroasiatischen Sprachen (traditionell als "semito-hamitisch" oder "hamito-semitisch" bezeichnet) bilden eine Sprachfamilie, die im Norden Afrikas und in Westasien verbreitet ist. Das Afroasiatische besteht aus sechs Zweigen: dem Ägyptischen, Berberischen, Semitischen, Kuschitischen, Omotischen und dem Tschadischen. Diese umfassen insgesamt etwa 350 Sprachen mit etwa 350 Millionen Sprechern. Etwa 40 der bekannten Sprachen sind heute ausgestorben. Das Afroasiatische ist auch eine der vier großen Familien (Phyla) afrikanischer Sprachen, die Joseph Greenberg in seinen Arbeiten von 1949 bis 1963 etabliert hatte und die heute die Basis aller linguistischen Klassifikationen in Afrika bilden. Zur Bezeichnung. Die Bezeichnung „Afroasiatisch“ geht auf Joseph Greenberg zurück. Sie hat die ältere Benennung „Hamito-Semitisch“ vielfach abgelöst. Diese scheint insofern irreführend, als sie eine Zweiteilung in „semitische“ und „hamitische“ Sprachen suggeriert und im Zusammenhang mit der Hamitentheorie als rassistisch konnotiert empfunden werden kann. Als weitere Benennungen wurden "Afrasisch" (Igor M. Diakonoff), "Lisramisch" (Carleton T. Hodge) und "Erythräisch" (Leo Reinisch) vorgeschlagen; diese Termini haben jedoch, mit Ausnahme von "Afrasisch", kaum Anhänger gefunden. Anmerkung: Erythräisch ist in diesem Zusammenhang nicht mit der Bezeichnung einer von Christopher Ehret vorgeschlagenen hypothetischen Untergruppe des Afroasiatischen zu verwechseln. Die ältere, in der Fachliteratur weit verbreitete Bezeichnung als hamito-semitisch geht auf die Völkertafel der Bibel zurück, die die Söhne Hams und Sems im hier gemeinten Sprachgebiet verortet. Die Begriffe sind nicht ethnisch gemeint und gruppieren die Sprachen in zwei differierende Zonen: Tatsächlich sind einerseits Koptisch und Berberisch in Nordafrika einander ähnlicher als beispielsweise Koptisch und die semitischen Sprachen Hebräisch, Arabisch, Aramäisch; andererseits weisen die semitischen Sprachen untereinander ein engeres Verwandtschaftsverhältnis auf, das sie von den nordafrikanischen Sprachen abhebt. Auch wenn Hamitisch als Bezeichnung für die offenbar auf afrikanischem Boden entstandenen "afroasiatischen" Sprachen heute außer Gebrauch kommt, bleibt die Bezeichnung Semitisch weiterhin üblich. Primärzweige, Gliederung und geografische Ausbreitung. Die in Äthiopien gesprochene Sprache Ongota (Birale) gehört möglicherweise auch zur afroasiatischen Familie und etabliert nach H. Fleming einen unabhängigen weiteren Zweig. Einige Wissenschaftler halten das Kuschitische nicht für eine genetische Einheit, sondern nehmen an, dass es aus zwei oder mehr direkt dem Afroasiatischen untergeordneten Primärzweigen besteht. "Stammbaum und interne Gliederung des Afroasiatischen (nach Ehret 1995)" Der von Ehret hier eingeführte Name "Erythräisch" (für Afroasiatisch ohne Omotisch) wurde von anderen Forschern für die gesamte afroasiatische Sprachfamilie verwendet, er konnte sich aber nicht gegen "Afroasiatisch" durchsetzen. Ägyptisch. Das Ägyptische stellt eine Ausnahme unter den afroasiatischen Primärzweigen dar, da es aus nur einer einzigen Sprache besteht, die eine lückenlose Überlieferung über fast fünf Jahrtausende aufweist. Seine letzte Stufe, das Koptische, starb in der frühen Neuzeit als Alltagssprache aus. Das Ausbreitungsgebiet des Ägyptischen umfasste in historischer Zeit kaum mehr als das nördliche Drittel des Niltales, im 3. Jahrtausend v. Chr. wurde jedoch möglicherweise auch in der ägyptischen Westwüste ein dem Ägyptischen nahe verwandtes Idiom gesprochen, von dem sich einzelne Personennamen in ägyptischer Überlieferung finden. Durch seine lange Überlieferungsdauer ist das Ägyptische von besonderem sprachwissenschaftlichem Interesse, jedoch fehlen ihm trotz der frühen Überlieferung einige grundlegende morphologische und möglicherweise auch phonologische Eigenschaften des Afroasiatischen. Berberisch. Die Berbersprachen wurden vor der Expansion des Islam und der damit verbundenen Ausbreitung des Arabischen beinahe in der gesamten Sahara gesprochen. Das heutige Hauptverbreitungsgebiet liegt in den Staaten Niger, Mali, Algerien, Marokko, Tunesien und im westlichen Libyen; kleine Sprachinseln haben sich auch im Nordosten der Sahara in Oasen wie Augila (Libyen) und Siwa (Ägypten) sowie im westlichen Mauretanien gehalten. Im Gegensatz zu den anderen Zweigen des Afroasiatischen (außer dem Ägyptischen) sind die Berbersprachen untereinander nahe verwandt und gehören fast vollständig zu zwei Dialektkontinua. Die bekanntesten Berbersprachen sind Kabylisch, Tamazight, Taschelhit, Tarifit sowie das Tuareg. Meistens wird auch die kaum bekannte libysche Sprache in aus den letzten vorchristlichen Jahrhunderten stammenden Inschriften in Algerien, Tunesien und Marokko zum Berberischen gerechnet. Ebenso dürfte auch das bis ins 17. Jahrhundert auf den kanarischen Inseln gesprochene Guanche eine Berbersprache gewesen sein. Semitisch. Das Semitische ist heute mit etwa 260 Millionen Sprechern die sprecherreichste afroasiatische Sprachfamilie und wird im Nahen Osten, in Äthiopien und weiten Teilen Nordafrikas sowie auf Malta gesprochen, wobei der größte Anteil der Sprecher auf das Arabische entfällt. Es wird angenommen, dass die Urheimat der semitischen Sprachen auf der Arabischen Halbinsel lag und sich die Sprachfamilie erst durch die südarabischen Expansionen nach Äthiopien und später durch die arabischen Expansionen über Ägypten und Nordafrika bis nach Spanien ausbreitete. Das Semitische wird allgemein in zwei Zweige aufgeteilt, wobei einen der beiden das ausgestorbene Akkadische bildet, das für die Rekonstruktion des Proto-Semitischen und damit auch der afroasiatischen Protosprache von besonderem Interesse ist. Auf den anderen, westlichen, Zweig entfallen die zentralsemitischen Sprachen wie Aramäisch, Hebräisch, Arabisch und Altsüdarabisch, die äthiosemitischen Sprachen wie Altäthiopisch, und die neusüdarabischen Sprachen. Forschungs- und Klassifikationsgeschichte. Die Verwandtschaft der semitischen Sprachen untereinander war Juden und Muslimen im Orient und Spanien schon lange bekannt, im christlichen Europa erkannte dies erstmals Guillaume Postel im Jahre 1538. Durch die wissenschaftliche Erforschung afrikanischer Sprachen in Europa, die in der ersten Hälfte des 17. Jahrhunderts einsetzte, wurde bald die Verwandtschaft weiterer Sprachen mit dem Semitischen erkannt. So rechnete Hiob Ludolf 1700 die äthiopischen Sprachen Altäthiopisch und Amharisch erstmals zum Semitischen, bald darauf fielen auch Ähnlichkeiten mit dem Koptischen und – nach der Entzifferung der Hieroglyphen – dem antiken Ägyptisch auf. 1781 führte August Ludwig von Schlözer den Begriff "Semitische Sprachen" ein, in Anlehnung daran prägte Johann Ludwig Krapf 1850 die Bezeichnung "Hamitische Sprachen" zunächst für die nicht-semitischen schwarzafrikanischen Sprachen. 1877 fügte F. Müller dieser Gruppe die afroasiatischen Berber- und Kuschitensprachen zu, während das ebenfalls afroasiatische Tschadisch unberücksichtigt blieb. Gleichzeitig fasste er bestimmte hamitische Sprachen und die semitischen Sprachen zum "Hamito-Semitischen" zusammen. Eine Neudefinition erfuhr der Begriff der hamitischen Sprachen durch Karl Richard Lepsius, der nun die flektierenden Sprachen Afrikas mit Genussystem unter dieser Bezeichnung zusammenfasste. Damit hatte Lepsius schon die wesentliche Masse der nichtsemitischen afroasiatischen Sprachen erfasst, jedoch erweiterte er diese Gruppe 1888 um einige nichtafroasiatische Sprachen, ebenso benutzte auch Carl Meinhof in seinem 1912 erschienenen Werk "Die Sprachen der Hamiten" "hamitisch" in einem sehr weiten Rahmen. In der Folgezeit wurde der "Hamito-Semitische Sprachstamm" um einige Sprachen reduziert und entsprach in den Grundzügen der heutigen Klassifikation, strittig blieb jedoch die Zugehörigkeit der tschadischen Sprachen, die erst in den 1950er Jahren von Joseph Greenberg endgültig etabliert wurde. Gleichzeitig prägte er den Begriff "afroasiatisch" als Ersatz für den eine ungerechtfertigte Aufteilung in hamitische und semitische Sprachen implizierenden Begriff "hamito-semitisch", welcher auf die Hamitentheorie Bezug nahm. Die heutige Form erhielt die Klassifikation des Afroasiatischen 1969 durch Harold Flemings Ausgliederung einiger äthiopischer Sprachen aus der kuschitischen Familie, die von da an als "Omotisch" einen eigenen Primärzweig des Afroasiatischen bildeten. Protosprache und Urheimat. Die Rekonstruktion der afroasiatischen Protosprache gestaltet sich aufgrund der kurzen Überlieferungsgeschichte der meisten Zweige und der teilweise gravierenden Unterschiede zwischen den einzelnen Hauptzweigen sowohl im Bereich der Grammatik als auch im lexikalischen Bereich wesentlich schwieriger als z. B. die Rekonstruktion des Proto-Indogermanischen. Diese gravierenden Unterschiede lassen sich auf die verhältnismäßig große Zeittiefe des Proto-Afroasiatischen zurückführen, nach glottochronologischen Untersuchungen soll das Proto-Afroasiatische um 10.000-9.000 v. Chr. gesprochen worden sein. Die Lage der Urheimat ist umstritten, da jedoch die Mehrzahl der afroasiatischen Sprachen in Afrika beheimatet ist, liegt eine Herkunft aus Afrika nahe. Besonders die östliche Sahara wird favorisiert. Aufgrund lexikalischer Übereinstimmungen des Afroasiatischen mit dem Indogermanischen, den kaukasischen Sprachen und dem Sumerischen sowie der kulturellen Stellung des rekonstruierten proto-afroasiatischen Vokabulars vertreten einige Wissenschaftler wie z. B. Alexander Militarev dagegen eine Urheimat in der Levante. Verschriftlichung und früheste Belege. Die früheste durch Schriftquellen belegte afroasiatische Sprache ist das Alt- bzw. − genauer − Frühägyptische, dessen älteste Zeugnisse bis zum Ende des vierten vorchristlichen Jahrtausends zurückreichen. Einige Jahrhunderte später setzt die Überlieferung des Semitischen, zunächst des Akkadischen und im zweiten Jahrtausend v. Chr. westsemitischer Idiome ein. Die aus den Jahrhunderten vor Christi Geburt stammenden libyschen Inschriften aus Nordafrika werden zwar allgemein zum Berberischen gerechnet, sind aber bislang unverständlich; die frühesten Belege für das Kuschitische, Tschadische und Omotische finden sich sogar erst im Mittelalter bzw. der Neuzeit. Nur ein kleiner Teil der zahllosen tschadischen, kuschitischen und omotischen Sprachen ist heute zu Schriftsprachen geworden, unter diesen befinden sich Sprachen wie das Somali, das Hausa und das Oromo. Die Transkription von Worten aus afroasiatischen Sprachen folgt in diesem Artikel im Wesentlichen den in der entsprechenden Fachliteratur üblichen Konventionen. Aufgrund der Unterschiede zwischen Konventionen in Semitistik, Ägyptologie und Afrikanistik ist die Umschrift daher nicht für alle Sprachen einheitlich. Konsonanten. Das Konsonantensystem des Proto-Afroasiatischen wird übereinstimmend mit etwa 33/34 Phonemen und teilweise auch velarisierten, palatalisierten und sonstigen Varianten rekonstruiert. Die Lautkorrespondenzen der Hauptzweige untereinander sind jedoch in zahlreichen Fällen unsicher, besonders gravierend sind die Meinungsverschiedenheiten hinsichtlich des Ägyptischen, die sich stark auf die innerägyptologische Diskussion auswirken. Beispielsweise ist umstritten, ob das Ägyptische emphatische Konsonanten aufwies und ob das ägyptische Phonem, das spätestens seit dem 2. Jahrtausend v. Chr. den Lautwert besaß, auf proto-afroasiatisches oder eine Reihe stimmhafter Plosive und Frikative zurückgeht. Dennoch sind einige allgemeine Aussagen möglich. Die meisten bzw. alle afroasiatischen Hauptzweige haben neben stimmhaften und stimmlosen konsonantischen Phonemen auch eine dritte Reihe, deren Mitglieder in Abhängigkeit von der Sprache glottalisiert, pharyngalisiert, ejektiv, velarisiert oder implosiv realisiert werden und traditionell als "emphatisch" bezeichnet werden. Oft bilden stimmhafte, stimmlose und emphatische Konsonanten triadische Gruppen. In mehreren Hauptzweigen sind pharyngale Frikative (,) vorhanden. Im Semitischen, Berberischen und Ägyptischen ist das Vorkommen von Konsonanten in Wurzeln beschränkt. Insbesondere dürfen meist unterschiedliche Konsonanten mit dem gleichen Artikulationsort nicht in einer Wurzel vorkommen. Vokale. Protosemitisch, Altägyptisch und möglicherweise das Protoberberische wiesen die drei Vokalphoneme "a", "i" und "u" auf, die Beziehungen dieser Vokale zu denen anderer Sprachen, die durchgehend mehr Vokale aufweisen, sind kaum gesichert. Nach Ehret 1995 besaß die Protosprache die Vokale "a", "e", "i", "o", "u", die lang und kurz auftreten konnten; die Rekonstruktion von Orel und Stolbova 1995 weicht ab. Zwar sind einige afroasiatische Sprachen Tonsprachen, doch ist unklar, ob das Proto-Afroasiatische deshalb ebenfalls eine Tonsprache war, wie Ehret 1995 annimmt. Morphologie. Für das Semitische, Berberische und Ägyptische ist eine extensive Nutzung einer "Wurzelmorphologie" typisch, in der die lexikalische Information fast ausschließlich durch eine rein konsonantische Wurzel übermittelt wird, der die grammatische Information vor allem in Form von Vokalen beigefügt wird. Im Tschadischen und Kuschitischen findet sich nur ein begrenzt eingesetzter Ablaut; die Morphologie des Omotischen basiert dagegen fast ausschließlich auf Suffigierung und ist teilweise agglutinierend. Die Forschung geht davon aus, dass das Proto-Afroasiatische zwar, beispielsweise zur Pluralbildung und zur Bildung von Aspektstämmen (siehe unten), ablautende Formen besaß, es lassen sich aber nur sehr wenige der vielen in den Sprachen vorhandenen Vokalisierungsmuster für das Proto-Afroasiatische rekonstruieren. Nominalmorphologie. Während das Maskulinum in der Nominalmorphologie des Berberischen, Ägyptischen und Semitischen unmarkiert ist, wenden viele Sprachen in anderen Primärzweigen hierzu analog zum Femininum Morpheme wie "k" und "n" an. Kuschitisch, Berberisch und Semitisch haben außerdem ein Kasussystem gemeinsam, von dem sich mögliche Spuren auch im Ägyptischen und Omotischen finden, wobei die Interpretation oder überhaupt Existenz des ägyptischen Befundes umstritten ist. Die Reflexe des rekonstruierten Absolutivs fungieren in allen Sprachen als Objekt transitiver Verben und im Berberischen und Kuschitischen auch als Zitierform und extrahiertes Topik; von letzterem Gebrauch gibt es auch mögliche Reste im Semitischen. Das Subjekt wird mit Reflexen des Nominativsuffixes markiert; die Protosprache wird daher meist als Akkusativsprache angesehen. Da der Absolutiv der unmarkierte Kasus gewesen sein soll, vermuten einige Wissenschaftler, dass das Proto-Afroasiatische in einer früheren Stufe eine Ergativsprache gewesen sein könnte, in welcher das Nominativsaffix -"u" auf die Subjekte transitiver Verben begrenzt gewesen sein soll. Ähnliche Suffixe zur Bildung von Adjektiven finden sich auch im kuschitischen Bedscha. Pronomina. Einzelsprachlich haben formal verwandte Pronomina auch eine Reihe anderer Funktionen, so haben viele Sprachen formal ähnliche Subjektspronomina. Auch die Intransitive Copy Pronouns einiger tschadischer Sprachen sind formal ähnlich. Daneben lässt sich wohl eine zweite Reihe rekonstruieren, deren Mitglieder frei stehen konnten und die oft aus einem Element "ʔan-" und einem auch für die Verbalkonjugation benutzten Suffix zusammengesetzt sind. Ehret 1995 rekonstruiert nur Formen für den Singular; in vielen Sprachen gibt es auch analog gebildete Pluralformen. Ägyptisch und Semitisch haben weitere freie Pronomina, die aus den gebundenen Pronomina und -"t" zusammengesetzt sind, wie ägyptisch "kwt" > "ṯwt" „du (mask.)“, akkadisch "kâti" „dich (mask.)“. Konjugation. Im Ägyptischen haben sich keine Spuren der Präfixkonjugation erhalten, stattdessen findet sich hier schon seit den frühesten Texten die (ägyptische) Suffixkonjugation, die keine Personalkonjugation kannte, aber das pronominale Subjekt durch suffigierte Personalpronomina ausdrückte: "sm=f" „er hört“, "sm.n nr" „der Gott hörte“. Die Evolution dieser Art der Konjugation ist umstritten, in Frage kommen hauptsächlich Verbalnomina und Partizipien. Das Tschadische besitzt zwar eine Konjugation durch meist präverbale Morpheme, doch ist diese genetisch mit der Präfixkonjugation nicht verwandt, vielmehr stellen die Personapräfixe des Tschadischen modifizierte Formen der Personalpronomina dar. Beispiel: Hausa "kaa tàfi" „du gingst“. Im Omotischen erfolgt die Konjugation auf verschiedene Weise durch pronominale Elemente; das Verbalsystem des Proto-Omotischen ist höchstens in Ansätzen rekonstruierbar. Aspektstämme. Einige Wissenschaftler halten auch einen intransitiven Perfektstamm mit -"a"-, dessen Reflexe sich im Berberischen, Semitischen und Kuschitischen finden sollen, für rekonstruierbar. Das Bedscha (Nordkuschitisch) und die Berbersprachen besitzen in der Präfixkonjugation auch negative Verbalstämme, deren Bezug zum protosprachlichen System aber kaum erforscht ist. Der Verbalstamm, der in der Suffixkonjugation angewendet wird, hat im Semitischen und Ägyptischen bei dreikonsonantigen primären Verben die Form CaCVC-, im (Proto-)Berberischen dagegen meist *Cv̆Cv̄C. Über die Protosprache lassen sich daher keine näheren Aussagen machen. Je nach der Verteilung und Quantität der Vokale in der Präfixkonjugation lassen sich die Verben in verschiedene Klassen einteilen, die sich in ähnlicher Form auch im Ägyptischen finden und die teilweise auf die Protosprache zurückgehen können. In fast allen afroasiatischen Sprachen werden auch Affixe und Infixe zur Bildung von Verbalstämmen angewendet, die aspektuelle, temporale und modale Unterscheidungen und in einigen tschadischen und omotischen Sprachen auch Fragesätze markieren. Bislang konnten allerdings keine derartigen Affixe für das Proto-Afroasiatische rekonstruiert werden. Wortschatz. Der für die Protosprache rekonstruierbare Wortschatz dürfte mehrere hundert Lexeme groß sein, seine Rekonstruktionen (Diakonoff et al. 1993-7, Ehret 1995, Orel-Stolbova 1995) weichen jedoch, nicht zuletzt aufgrund der Unsicherheiten hinsichtlich der Rekonstruktion der Lautkorrespondenzen, stark voneinander ab. Nur für wenige Lexeme gibt es Belege in allen sechs Primärzweigen. Beispiele für mögliche Wortgleichungen gibt die folgende Tabelle. Die Rekonstruktionen proto-afroasiatischer Wurzeln wurden Ehret 1995 entnommen (dort: ă=tiefer Ton; â=hoher Ton). Die einzelsprachlichen Reflexe sind verschiedenen Veröffentlichungen entnommen. Einzelne Reflexe erfordern gegensätzliche Lautentsprechungen, so fordert die Gleichung "jdmj" „roter Leinenstoff“ < Proto-Afroasiatisch *dîm-/*dâm- „Blut“ die Beziehung ägyptisch "d" < proto-afroasiatisch *d, während ägyptisch "ˁ3j" „groß sein“ als Reflex von *dăr- „größer werden/-machen“ die Beziehung ägyptisch "ˁ" < proto-afroasiatisch *d voraussetzt. Folglich kann nur eine dieser beiden Gleichungen richtig sein (sofern man keine komplexeren Regeln für *d rekonstruiert), in der Forschung werden beide Lautbeziehungen vertreten. Wo die Bedeutung des einzelsprachlichen Reflexes mit der rekonstruierten Wurzelbedeutung übereinstimmt, wurde diese nicht wiederholt. Afrikanische Sprachen. Der Begriff Afrikanische Sprachen ist eine Sammelbezeichnung für die Sprachen, die auf dem afrikanischen Kontinent gesprochen wurden und werden. Die Bezeichnung „Afrikanische Sprachen“ sagt nichts über eine sprachgenetische Verwandtschaft aus (→ Sprachfamilien der Welt, Sprachfamilie). Begriff. Zu den afrikanischen Sprachen zählen zunächst die Sprachen, die ausschließlich auf dem afrikanischen Kontinent gesprochen werden. Das sind die Niger-Kongo-Sprachen, die nilosaharanischen Sprachen und die Khoisan-Sprachen. Auch die afroasiatischen Sprachen rechnet man traditionell insgesamt zu den „afrikanischen Sprachen“ hinzu, obwohl Sprachen der semitischen Unterfamilie des Afroasiatischen auch oder nur außerhalb Afrikas – im Nahen Osten – gesprochen wurden und werden. Zum einen sind die semitischen Sprachen wesentlich auch in Afrika vertreten (z.B. das Arabische, viele Sprachen Äthiopiens und Eritreas), zum anderen stammt die afroasiatische Sprachfamilie wahrscheinlich aus Afrika. In diesem erweiterten Sinne gibt es 2.138 afrikanische Sprachen und Idiome, die von rund 1,1015425 Mrd. Menschen gesprochen werden. Die Sprache Madagaskars – Malagasy – gehört zur austronesischen Sprachfamilie und wird deshalb normalerweise nicht zu den „afrikanischen Sprachen“ gerechnet, ebenfalls nicht die europäischen indogermanischen Sprachen der Kolonisatoren (Englisch, Afrikaans, Französisch, Spanisch, Portugiesisch, Italienisch und Deutsch). Die Afrikanistik ist die Wissenschaft, die sich mit den afrikanischen Sprachen und Kulturen befasst. Die Einteilung der afrikanischen Sprachen. Die Forschung betrachtet die Greenberg'sche Klassifikation als methodisch unzureichend, um tatsächliche sprachgenetische Aussagen zu formulieren, die ähnlich belastbar sind, wie die sprachgenetische Aussagen zu anderen Sprachfamilien. Jedoch dient diese Schematik heute mangels Alternativen übereinstimmend als pragmatisches Ordnungsprinzip, z.B. für Bibliothekssystematiken. Die innere Struktur dieser Sprachgruppen wird in den Einzelartikeln behandelt. Dieser Artikel beschäftigt sich mit der Klassifikation der afrikanischen Sprachen insgesamt. Diskussion der afrikanischen Phyla. Ob diese Sprachgruppen oder Phyla genetisch definierte Sprachfamilien bilden, wird in der Afrikanistik nach wie vor zum Teil strittig diskutiert. Jedenfalls geht auch das einzige aktuelle Standardwerk über afrikanische Sprachen insgesamt – "B. Heine and D. Nurse, African Languages – An Introduction (Cambridge 2000)" – herausgegeben und verfasst von führenden Afrikanisten unserer Zeit (B. Heine, D. Nurse, R. Blench, L.M. Bender, R.J. Hayward, T. Güldemann, R. Voßen, P. Newman, C. Ehret, H.E. Wolff u.a.) von diesen vier afrikanischen Phyla aus. Dass Afroasiatisch und Niger-Kongo jeweils eine genetische Einheit bilden, gilt als nachgewiesen und wird allgemein akzeptiert. Auch das Nilosaharanische wird von den Spezialisten dieses Gebiets (zum Beispiel L.M. Bender und C. Ehret) als gesicherte Einheit aufgefasst, deren Protosprache in Grundzügen zu rekonstruieren ist. Diese Meinung wird jedoch nicht von allen Afrikanisten geteilt, obwohl der Kern des Nilosaharanischen – Ostsudanisch, Zentralsudanisch und einige kleinere Gruppen – als genetische Einheit ziemlich unumstritten ist. Von wenigen bezweifelt wird die Zugehörigkeit der Sprachen Kunama, Berta, Fur und der Maba-Gruppe zum Nilosaharanischen. Stärkere Zweifel gelten für die „Outlier-Gruppen“ Saharanisch, Kuliak und Songhai, deren Zugehörigkeit zum Nilosaharanischen von mehreren Forschern bestritten wird. Dennoch kann vor allem nach den Arbeiten von Bender und Ehret keine Rede davon sein, dass das Konzept der nilosaharanischen Sprachen als Ganzes gescheitert sei. Selbst wenn sich die eine oder andere Außengruppe doch als eigenständig erweisen sollte, so wird der größere Teil des Nilosaharanischen als genetische Einheit Bestand haben. Anders ist die Situation beim Khoisan: die Autoren dieses Abschnitts im oben genannten Übersichtswerk (T. Güldemann und R. Voßen) halten die auf Greenberg und mehrere Vorgänger zurückgehende Vorstellung einer genetischen Einheit der Khoisan-Sprachen nicht aufrecht, sondern gehen stattdessen von mindestens drei genetisch unabhängigen Einheiten (Nordkhoisan oder Ju, Zentralkhoisan oder Khoe, Südkhoisan oder) aus, die früher zum Khoisan gerechneten Sprachen Sandawe, Hadza und Kwadi werden als isoliert betrachtet. Die Khoisan-Gruppe bilde einen arealen Sprachbund typologisch verwandter Sprachen, der durch lange Kontaktphasen entstanden sei. Diese Einschätzung der Khoisan-Gruppe als Sprachbund findet heute weite Zustimmung. Geschichte der Klassifikation. Die folgende Darstellung gibt einen tabellarischen Überblick über die Forschungsgeschichte der afrikanischen Sprachen. Die verwendeten Gruppenbezeichnungen sind teilweise modern, damit auch der Nichtfachmann den Zuwachs – oder Rückschritt – der gewonnenen Erkenntnisse verfolgen kann. Greenbergs Beitrag zur Klassifikation der afrikanischen Sprachen. Methodisch ist seine Einteilung aufgrund der gewählten Methode (Lexikostatistik, bzw. Lexikalischer Massenvergleich) hochumstritten, da diese Methode erstens rein statistisch vorgeht und zweitens unzureichendes Material zugrunde legt (ausschließlich Wörterlisten meist zweifelhafter Güte) und drittens in Zeitalter zurückreicht, die mit anderen linguistischen oder archäologischen Methoden niemals erfasst geschweige denn bestätigt werden könnten. Daher wird die Greenberg-Klassifikation heute zwar mangels Alternative als Ordnungssystem (etwa zur Herstellung von systematischen Bibliothekskatalogen) weitgehend akzeptiert, ihr genetischer Aussagegehalt jedoch nur mit starken Vorbehalten angenommen. Soziolinguistische Situation Afrikas. Die Staatsgrenzen stimmen in Afrika nicht mit den Grenzen von Sprachen und Volksgruppen überein. Es haben sich, bis auf wenige Ausnahmen, keine einheitlichen Kulturnationen herausgebildet, so dass es keine Verbindung von Sprache, Volk und Staat gibt. Die soziolinguistische Situation in Schwarzafrika ist in weiten Teilen durch eine Triglossie geprägt. Es haben sich neben den zahlreichen einheimischen Sprachen der einzelnen Volksgruppen (→ Vernakulärsprache) infolge Wanderungsbewegungen, Handelswesen, vorkolonialer Reichsbildung, religiöse Missionierungen und teilweise auch durch die Unterstützung der Kolonialherren im Rahmen einer „Stammesselbstverwaltung“ und der britischen „Politik der mittelbaren Herrschaft“ bestimmte Sprachen als afrikanische Verkehrssprachen herausgebildet, welche die Aufgaben übernehmen, die Verständigung zwischen den Angehörigen der verschiedenen Volksgruppen zu ermöglichen. Sie spielen insbesondere eine wichtige Rolle in afrikanischen Städten, wo eine Bevölkerung lebt, die anders als die Landbevölkerung nicht mehr zuvörderst durch eine Volksgruppenzugehörigkeit geprägt ist. Diese Verkehrssprachen sind auch im Volksbildungswesen von Bedeutung und werden in einigen Medien und in der Literatur verwandt. Zu diesen Verkehrssprachen werden vor allem Swahili in Ostafrika, Hausa, Fulfulde, Kanuri, Igbo, Yoruba und die Mandesprachen Bambara, Dioula und Malinke in Westafrika. In Zentralafrika spielen Lingála, Kikongo und Sango eine Rolle. Neben den Vernakularsprachen und den afrikanischen Verkehrssprachen sind seit der Kolonialherrschaft Französisch, Englisch und Portugiesisch eingeführt worden. Diese Sprachen werden in den meisten schwarzafrikanischen Staaten weiterhin als Amtssprache, Gerichtssprachen und als Lehr- und Wissenschaftsprachen in den Universitäten und höheren Lehranstalten verwendet. Die Kenntnisse der europäischen Sprachen ist je nach Bildungsgrad, Land und Grad der Verstädterung recht unterschiedlich. Die Politik der Exoglossie erscheint vielen Staaten wegen der Sprachenvielfalt als vorzugswürdig. Insbesondere soll der Vorwurf der Benachteiligung der anderen, nicht staatstragenden Ethnien (→Tribalismus) und eine wirtschaftliche Isolierung vermieden werden. Ausnahmen von der Triglossie sind nur Burundi und Ruanda. In Kenia, Uganda und Tansania wird Swahili gefördert und ist auch als Amtssprache verankert. Gänzlich anders gestaltet sich die Lage in Nordafrika und am Horn von Afrika. Die vor den islamischen Eroberungen der Araber im Magreb vorherrschenden Berbersprachen sind durch das Arabische in den Hintergrund gedrängt worden. In Ägypten starb das Ägyptisch-Koptische aus. Arabisch ist für die weitaus meisten Nordafrikaner Muttersprache. Anders als in Schwarzafrika haben die nordafrikanischen Staaten die Sprache der Kolonialherren, Französisch, durch Arabisch als Amtssprache ersetzt. In Äthiopien wirkt Amharisch als Verkehrssprache; eine Kolonialsprache gibt es nicht. In Somalia ist Somali vorherrschend. Italienisch hat dort sehr stark an Boden verloren. Weblinks. Afrika Atomhülle. Die Atomhülle bzw. Elektronenhülle ist der äußere aus Elektronen bestehende Teil eines Atoms. Die Unterteilung eines Atoms in Atomkern und Atomhülle geht auf Ernest Rutherford zurück, der 1911 in Streuexperimenten zeigte, dass Atome aus einem winzigen, kompakten Kern umgeben von einer Hülle bestehen. Wegen der geringen Masse der Elektronen bedingt die Unschärferelation, dass die Atomhülle etwa 20.000 bis 150.000 mal größer als der Atomkern ist. Trotz dieser großen räumlichen Ausdehnung beherbergt die Atomhülle aber nur etwa 1/2000 bis 1/6000 der Masse des gesamten Atoms. Die Struktur der Elektronenhülle bestimmt nicht nur weitgehend die Größe der Atome sondern auch die chemischen Eigenschaften. Für die chemischen Bindungen ist insbesondere der äußere Teil der Atomhülle verantwortlich, die Valenzschale. Die Verteilung der Elektronen in der Elektronenhülle eines Atoms auf verschiedene Energiezustände bzw. Aufenthaltsräume (das quantenmechanische Modell ist das Atomorbital) wird in den Artikeln Elektronenkonfiguration bzw. im entsprechenden Abschnitt des Artikels Atom behandelt. Literatur. Die Elektronenhülle eines Atoms wird in vielen einführenden Büchern zur Atomphysik ausführlich erklärt. Beispielhaft seien hier genannt Asselspinnen. Die Asselspinnen (Pycnogonida, auch Pantopoda) werden trotz ihres Namens nicht zu den Spinnentieren gerechnet, sondern bilden eine eigene Klasse innerhalb der Kieferklauenträger (Chelicerata). Sie sind rein marine Spezies mit einer Verbreitung in allen Weltmeeren und einem Verbreitungsschwerpunkt im Südpolarmeer Südlicher Ozean. Die Artenzahl wird auf über 1300 Arten geschätzt. Allgemeines. Die Pantopoda fallen vor allem durch einen, im Verhältnis zu den Beinen winzigen, stabförmigen Körper auf, der oft nur ein schmales Verbindungsstück zwischen den Beinbasen darstellt. Der Vorderkörper teilt sich in den ungegliederten Prosoma, der die ersten vier Extremitätenpaare trägt (darunter das erste Laufbeinpaar) und einen, durch Querfurchen in mehrere Segmente unterteilten, hinteren Abschnitt dem die weiteren Laufbein-Paare anhängen. In der Regel sind es vier, bei einigen Arten bis zu sechs Paare. Der Hinterkörper (Abdomen, Opisthosoma) ist extrem reduziert und meist nur eine kleine Ausbuchtung ohne Anhänge der am Ende den After trägt. Nur bei den fossilen Palaeopantopoden ist er noch sackförmig und lässt drei bis fünf Segmente erkennen. Neben Arten mit sehr langen Gliedmaßen, kommen auch kompaktere Formen vor. Die kleinsten Asselspinnen haben eine Größe von 1 bis 10 mm, die größten unter den in der Tiefsee Lebenden werden bis zu 900 mm groß. Die Länge des Körpers liegt zwischen 0,8 und 100 mm. Gliedmaßen. Die Extremitäten ähneln denen anderer Chelicerata, doch sucht man bei ihnen die Laden (Enditen) vergeblich. Unterschieden werden vier verschiedene Arten von Gliedmaßen. Das erste Paar, die scherenbesetzten Cheliceren (bei den Pycnogonida meist Cheliforen genannt), bestehen meist aus drei, seltener aus vier Gliedern. Ihnen kommt eine Bedeutung bei der Ernährung zu. Es folgen tasterartige Palpen von wechselnder Länge (bis zehngliedrig), die mit ihrer dichten Behaarung der Reizaufnahme dienen. Das dritte Extremitätenpaar ist das sogenannte Brutbeinpaar. Es entspringt ventral, ist gleichfalls tasterartig und dient beim Männchen als Eiträger (Oviger). Die Eipakete werden vom Männchen gebildet, indem es mit seinen Brutbeinen in der vom Weibchen abgelegten Eimasse rührt und diese mit von den Beinen abgegebenem Kitt zu Klumpen verklebt. Je nach Größe der Eier kann ein Paket 50 bis 1000 Eier beinhalten. Mit Hilfe eines aus den letzten vier Gliedern des Beines bestehenden Ringes, der mit vielen Borsten besetzt ist, gewährleistet das Männchen den sicheren Transport. Die Borsten dienen dem Männchen z.B. zur Reinigung der Eier. Bei den Weibchen hingegen ist dieses Beinpaar häufig zurückgebildet oder fehlt gänzlich. Eine Besonderheit haben die nächsten Extremitätenpaare, die Laufbeine. Sie können, ähnlich denen der Weberknechte, bei Gefahr abgeworfen werden. Das Abwerfen hat zwei Vorteile: zum einen greifen Feinde die ihnen überlassenen langen Beine an, während die Asselspinne die Flucht ergreift; zum anderen ist es von Vorteil ein verletztes Bein abzuwerfen, anstatt es mit sich herumzutragen und einen Flüssigkeitsverlust zu riskieren. Die Bruchstelle schließt sich sehr rasch, und das Bein wächst nach der nächsten Häutung nach. Die aus neun Gliedern bestehenden langen Laufbeine sind meist 4-, vereinzelt 5- (7 Arten, darunter Pentanymphon) oder selten sogar 6-paarig (2 Arten, Gattung Dodecalopoda). Diese mehrbeinigen Arten sind jeweils nahe mit achtbeinigen verwandt und gelten als sekundäre Abweichungen des Grundbauplans. Das Endglied, der Praetarsus, ist meist klauenförmig ausgebildet, dazu noch oft mit einer Nebenklaue besetzt und dient unter anderem dem Festhalten der Nahrung. Die drei vorderen Extremitäten-Paare können sehr variabel ausgebildet sein oder aber auch, genau wie Kiemen und Fühler, ganz fehlen. Außenskelett. Auch diese Vertreter der Kieferklauenträger besitzen, genau wie andere Gliederfüßer, ein Exoskelett mit Chitin-Einlagerungen. Wie bei den Spinnen werden in die darunterliegende Haut Exkrete eingelagert, sodass die Tiere oft bunt gezeichnet sind. Aber auch Vorratsstoffe werden dort eingelagert. Das Exoskelett ist sehr undurchlässig und manchmal außerordentlich dick. Dagegen fehlt jedwede Einlagerung von Kalk, was zur Folge hat, dass die Haut der Pantopoda leder- oder pergamentartig ist. Sinnesorgane und Nervensystem. In der Haut liegen zahlreiche Drüsen, wie z.B. Kittdrüsen an den Femora der Beine der Männchen und Spinndrüsen an den Cheliceren der Larven. Die Sinnesorgane sind gering entwickelt. Im Vorderkörper liegen auf einem Augenhügel vier kleine Linsenaugen (Medianaugen). An Hautsinnesorganen sind nur Sinnesborsten bekannt. Spaltsinnesorgane wurden bei dieser Klasse noch nicht gefunden. Das Nervensystem ist primitiver als das anderer Chelicerata, da die Bauchganglien weitgehend getrennt bleiben. Das Unterschlundganglion innerviert Palpen- und Brutbeinsegment. Ein oder zwei Abdominalganglien treten während der Entwicklung noch auf, verschmelzen jedoch mit dem letzten Rumpfganglion. Die Ganglien im Rumpf sind meist deutlich sichtbar. Von diesen kann man oft starke Nervenstränge in die Beine ziehen sehen. Verdauungstrakt. Der Mund liegt auf einem umfangreichen Rüssel (Proboscis), der ventralwärts oder nach vorn ragt. Der Rüssel besteht innen aus drei Längsteilen (Antimeren), einem dorsalen und zwei ventrolateralen. Der dreieckige Mund an der Rüsselspitze selbst ist mit drei borstenbesetzten Platten (Lippen) und drei beweglichen Chitinhaken besetzt. Der im Rüssel liegende Teil des Darms wird als Pharynx bezeichnet. Sein dreikantiges Lumen wird durch radiäre, zur Rüsselwand ziehende Muskeln erweitert, und der hintere Bereich wird durch in das Lumen ragende Chitinhaken zu einem Reusenapparat. Ein Oesophagus führt in den Mitteldarm. Da der Rauminhalt des Rumpfes bedeutend kleiner ist als der der Beine, gibt es zusätzlich lange Ausläufer des Mitteldarms (Blindsäcke) die bis in die Beine, bei manchen Arten aber auch bis in die Cheliceren und Rüssel ziehen. Das hat zur Folge, dass die aufnehmende und verdauende Oberfläche beträchtlich vergrößert wird. Die Speiseröhre, die von einem Apparat aus starren und beweglichen Borsten besetzt ist, der den groben aufgesogenen Nahrungsbrei fein zerkleinert, bis nur noch Zellbruchstücke zurückbleiben, ist lang und eng. Von hier aus gelangen diese in den Darm und werden hier von den Darmzellen, in denen die eigentliche Verdauung erfolgt, resorbiert. Der gerade Endteil des Darmes mündet mit endständigem After. Die Exkretion läuft über sogenannte Nephrocysten, den Ausscheidungszellen, ab. Nephridien und Malpighische Gefäße fehlen diesen Vertretern der Chelicerata völlig. Blutgefäßsystem und Atmung. Das Blutgefäßsystem besteht nur aus einem Rückengefäß. Es weist zwei Paar Einströmöffnungen (Ostien) für das farblose Blut auf und durchzieht den Rumpf vom Hinterende bis zur Region der Augenhügel und ist dorsal mit breiter Fläche an der Rückenwand, ventral am Pericardialseptum angewachsen. Oft kommt noch ein unpaares Ostium am Hinterende dazu. Das Pericardialseptum durchzieht den Rumpf horizontal dicht über dem Darm und erstreckt sich auch in die Beine. Da den Asselspinnen Kiemen fehlen, wird die Atmung von einem anderen Organ übernommen, wahrscheinlich dem Darm oder feinen Blutkapillaren, in die der Sauerstoff diffundiert. Bau der Geschlechtsteile. Die Gonaden entstehen ventral am Pericardialseptum, erstrecken sich aber bis in die Beine, die auch den größten Anteil der Geschlechtsorgane enthalten. An den Coxen der Beine liegen auch die Genitalöffnungen, meist im zweiten Glied, daher findet man legereife Eier nie im Rumpf, sondern nur in den Beinen. Interessanterweise sind oft mehrere Paare von Öffnungen vorhanden, vielfach an allen Beinpaaren. Bei manchen Gattungen sind sie auf bestimmte Beinpaare beschränkt, am häufigsten jedoch auf die letzten. Zahl und Lage der Genitalöffnungen können in Abhängigkeit vom Geschlecht variieren. Larvalentwicklung. Die abgelegten Eier, die je nach Art eine Größe von 0,02 bis 0,7 mm erreichen, werden wie schon beschrieben vom Männchen getragen. Die Entwicklung zeigt manche Eigenarten und ist auch innerhalb der Pantopoden nicht gleichartig. Die Furchung ist zunächst total, und kann je nach Dottergehalt äqual oder inäqual ausfallen. Früher oder später verschmelzen aber Zellen zu syncytialen Massen. Die Keimblätterbildung ist schwer verständlich. Dorsal werden große Zellen ins Innere verlagert, welche Entoderm (zum Teil von einer Urentodermzelle ausgehend) und Mesoderm bilden. Später tritt ventral die Längsrinne auf, die dem Blastoporusgebiet anderer Arthropoden entspricht. Das Mesoderm scheint sich stets über ein einfaches Streifenstadium in Muskeln und Bindegewebe umzuwandeln. Die Embryonalentwicklung führt zu einer typischen Larve, der Protonymphon-Larve. Bei den drei Extremitätenpaaren, über die die Larve anfangs verfügt, handelt es sich um Cheliceren, Palpen und Brutbeine. Die Cheliceren der Protonymphon-Larve tragen eine seitlich in eine Röhre mündende Spinndrüse und zum Teil Scherendrüsen. Die beiden anderen Extremitäten sind jedoch nur dreigliedrige Haken, die später mehr oder weniger zurückgebildet werden, während die definitiven Palpen und Brutbeine durch Neubildung entstehen. Herz und After fehlen der Larve. Die Weiterentwicklung erfolgt durch schrittweise Bildung der Beine am Hinterkörper, die Stadien sind durch Häutungen getrennt. Nur selten bleiben die Larvalstadien an den Brutbeinen der Männchen (zum Beispiel Chaetonymphon), meist verlassen sie als Protonymphon die Brutbeine und leben in der nächsten Phase als Ekto- oder Endoparasiten (Phoxichilidium, Anoplodactylus) an anderen Tieren, vor allem Polypen. Lebensweise und Verbreitung. Die Vertreter der Pycnogonida sind ausschließlich marin zuhause und leben zwischen Bodenbewuchs aller Art. Dabei sind sie nicht an eine bestimmte Tiefe gebunden, sondern sind sowohl an der Oberfläche, als auch in der Tiefsee in Tiefen von mehr als 4000 m heimisch. Einige besonders kleine Arten leben im Sandlückensystem (Interstitial). Abhängig sind sie einzig von einem bestimmten Salzgehalt, der bei ungefähr 3,5 % liegt. Des Weiteren bevorzugen sie kaltes Wasser. Daher findet man sie auffallend häufig in der Antarktis (etwa 250 der 1000 bekannten Arten, davon 100 Arten endemisch in der Antarktis und rund 60 in den subantarktischen Gewässern); dort auch in den großen Formen. In den warmen Meeren, zum Beispiel an den Küsten des Mittelmeeres, fand man bisher nur kleine Exemplare mit höchstens 30 mm Durchmesser. Alle Pantopoden sind durchweg träge Tiere, wobei sich die kurzbeinigen, plumpen Arten durch ganz besondere Schwerfälligkeit auszeichnen. Sie lassen sich, gibt man sie in eine Schale, zu Boden sinken und bleiben regungslos liegen. Die schlankeren Formen können jedoch mehr oder weniger grazil schwimmen und sich auf diese Weise längere Zeit im freien Wasser aufhalten. Alle Asselspinnen sind Kletterer, die sich langsam und bedächtig bewegen und sich an jedem geeigneten Gegenstand festklammern können. Die Fortbewegungsgeschwindigkeit ist recht langsam (ca. 1 bis 3 mm/s), kann jedoch in Gefahrensituation enorm gesteigert werden. Nahrung. Alle Vertreter der Asselspinnen ernähren sich räuberisch. Zu ihrer Nahrung gehören ausschließlich weichhäutige Tiere, so beispielsweise Schnecken, Moostierchen und Schwämme, aber vor allem Hydroidpolypen. Die Nesselzellen der Polypen scheinen auf Asselspinnen keinerlei Wirkung zu haben. Die Nahrung, zum Beispiel ein Polypenköpfchen, wird mit einer Schere gefasst und mit dem Rüssel ausgesogen. Dieser Vorgang kann bis zu 10 Minuten dauern. Des Weiteren wurde auch die Aufnahme von Ruderfußkrebsen und Vielborstern beobachtet. Die Ruderfußkrebse werden mit Hilfe der Greifklauen der Laufbeine gepackt, zum Mund geführt und ausgesaugt. Außerdem wurde in Experimenten das Fressen von Muschelfleisch untersucht. Auch hier werden die Greifklauen der Beine eingesetzt, um das Fleisch festzuhalten und die Nahrung anschließend über den Proboscis aufzunehmen. Dieser Vorgang kann sich über mehrere Stunden erstrecken. Eine Reihe von Arten lebt ektoparasitisch (auf Hohltieren, Schwämmen, Mollusken und Stachelhäutern). Abwehr von Fressfeinden. Bei der Knotigen Asselspinne ("Pycnogonum litorale") wurde erstmals in einer marinen Räuber-Beute-Beziehung eine Methode der chemischen Abwehr gefunden. Es konnte nachgewiesen werden, dass die Gemeine Strandkrabbe ("Carcinus maenas"), die sonst nahezu alles frisst, Asselspinnen meidet, weil diese in allen Stadien einen sehr hohen Gehalt an 20-Hydroxy-Ecdyson haben. Diese Substanz ist ein Hormon, das bei Insekten und Krebstieren die Häutung (Ecdysis) auslöst. Für die Strandkrabben sind häufige Häutungen nachteilig, nicht zuletzt weil frisch gehäutete Tiere noch sehr weiche Mundwerkzeuge haben, die eine Nahrungsaufnahme für eine gewisse Zeit unmöglich machen. Die Asselspinnen steuern ihre Häutungen offenbar anders. Ein Häutungshormon für diese Tiere ist bisher noch unbekannt. Namensgebung. Auch für die Asselspinnen haben sich, wie bei allen Tier- und Pflanzengruppen, mehrere Namen erhalten. So wurden sie um 1815 vom Engländer William Elford Leach als "Podosomata" bezeichnet, was soviel wie „Körper (nur) aus Beinen“ bedeutet. 1863 wiederum beschrieb sie der deutsche Zoologe Carl Eduard Adolph Gerstäcker als "Pantopoda", was man frei mit „die Allesbeinigen“ übersetzen kann. Ein gewisses Maß an Unsicherheit drückt der deutsche Name "Asselspinnen" aus. Lange Zeit wurden sie zu den Krebsen gestellt, da sie aber auch spinnenförmig aussehen und auch einige Gemeinsamkeiten aufwiesen, reihte man sie in die Klasse der Spinnentiere ein. Da man aber ihre Eigentümlichkeit betonen wollte, nannte man sie letztendlich "Asselspinnen". Systematik. Zwischenzeitlich aufgekommene Vermutungen, die Asselspinnen bildeten einen eigenständigen Stamm basal zu allen anderen Arthropoda gelten heute als widerlegt. Die meisten Taxonomen setzen den Asselspinnen als basalster Gruppe der Chelicerata alle anderen Vertreter als Schwestergruppe gegenüber. Damit sind die Pfeilschwanzkrebse und die Spinnentiere miteinander näher verwandt als jede dieser Gruppen mit den Asselspinnen. Die so dargestellte traditionelle Systematik (basierend vor allem auf morphologischen Reihen mit fortschreitender Reduktion einzelner Gliedmaßen) wird von moderneren molekularen und kladistisch-morphologischen Studien nur teilweise gestützt. Die meisten Ordnungen und einige Familien erwiesen sich als paraphyletisch. Fossile Überlieferung. Fossilien von Asselspinnen werden nur sehr selten gefunden. Eine Reihe problematischer Fossilien mit stark abweichendem Körperbau gelten heute nicht mehr als Stammgruppenvertreter, sondern wurden anderen Verwandtschaftskreisen zugeordnet. Die verbleibenden Arten können aufgrund ihres Bauplans modernen Ordnungen zugewiesen werden, ihre frühe übliche Zusammenfassung als "Palaeopantopoda" ist demnach eine künstliche Einteilung. Besonders reich an fossilen Arten ist der unterdevonische Dachschiefer des Hunsrücks. Die ältesten Formen sind in Körpererhaltung (d.h. nicht nur als Abdruck) erhaltene Larven aus dem Oberkambrium von Schweden (dabei wurde die Körperwand durch Calciumphosphat ersetzt und das Tier anschließend in Kalkstein eingebettet, sog "Orsten"-Fossilien). Die adulten Formen dazu sind unbekannt. Astronomisches Objekt. Ein astronomisches Objekt (auch Himmelsobjekt) ist ein Objekt, das von der Astronomie und der Astrophysik untersucht wird. Die Konsistenz der Objekte ist überwiegend Kosmologische Objekte. Dies sind Objekte der Kosmologie, wie die prinzipiellen Strukturen des Universums (Filamente und Voids) und – bisher noch – hypothetische oder in ihrer Natur noch nicht hinreichend geklärte Objekte, wie Schwarze Löcher oder Dunkle Materie.. Einteilung nach der Entfernung. "Extrasolare Objekte": Objekte außerhalb der Grenzen unseres Sonnensystems (Deep-Sky-Objekte). Altersbestimmung (Archäologie). Bei der Altersbestimmung von archäologischen Funden gibt es verschiedene Datierungsmethoden, die man in zwei große Gruppen unterteilen kann, relative und absolute Altersbestimmung. Relative Datierung durch Stratigraphien. Archäologisches Schichtprofil in einer Stadt (Augsburg) Im Regelfall gilt als Leitprinzip, dass untere Schichten eher abgelagert worden sind als obere, und somit ältere Schichten unter jüngeren zu finden sind (Stratigraphisches Prinzip). Ähnlich wie bei relativen Altersbestimmungen der Geologie wird nur die Abfolge der Schichten festgestellt, ohne das tatsächliche Alter zu messen. Ausnahmen kommen etwa bei Umlagerungen oder Überschiebungen vor: So könnte in einem archäologischen Befund älteres Material durch Umschichtungen bei Bauarbeiten oder durch Erosion an einem Hang über jüngerem Material abgelagert worden sein. In der Geologie kommen vergleichbare Ereignisse vor: Ein Gesteinsblock wird durch tektonische Prozesse angehoben, und über einen (nicht angehobenen) jüngeren geschoben. Derartige Prozesse sind selten und durch Aufnahme eines Gesamtbildes identifizierbar. Relative Datierung durch Fundzusammensetzungen. Die zeitliche Änderung von Gegenstandsformen, verwendeten Materialien oder Handwerkstechniken führt dazu, dass sich die Zusammensetzung der Fundgegenstände in geschlossenen Funden wie Gräbern, Abfallgruben und Depotfunden in charakteristischer Weise verändert. Eine solche relativchronologische Abfolge lässt sich mit Kombinationsstatistiken oder in einer Seriation darstellen. Veränderliche prozentuale Anteile von Artefakttypen können auch für die relative Chronologie ganzer archäologischer Kulturen oder Zeithorizonte ausschlaggebend sein. Für die relative Datierung ist also nicht die Anwesenheit oder das Fehlen eines einzelnen Objekts entscheidend, sondern seine relative Häufigkeit. Modellhaft lässt sich das so begründen, dass eine Form in einer Zeitstufe erfunden wird aber noch selten ist, in der nächsten Stufe ist sie dann allgemein bekannt und wird viel benutzt und in der nächsten wird sie bereits langsam von einer neuen Form verdrängt. Chorologische Methoden. Eine chorologische Methode, die bei der Auswertung von Gräberfeldern erfolgreich sein kann, ist die so genannte Horizontalstratigraphie. Wenn in einem Bestattungsplatz unterschiedliche Regionen zu unterschiedlichen Zeiten benutzt wurden, sind auch chronologisch relevante Grabbeigaben einer gewissen Zeit nur in der zugehörigen Region des Gräberfeldes zu finden. Die Kartierung der Beigaben auf dem Gräberfeldplan erlaubt es dann, unterschiedliche Belegungsphasen im Kartenbild zu erkennen. Archäologie und Geologie. Wenn Funde von Frühmenschen (Hominiden) oder ihren Erzeugnissen in geologische Schichten eingebettet sind, lassen sie sich über diese datieren. Überreste aus fossilführenden Schichten lassen sich daher mit Hilfe von Leitfossilien genauer einordnen. Auch Großereignisse, die charakteristische überregionale Merkmale erzeugen, können den Vergleich von Schichten oder Gesteinen ermöglichen. Zum Beispiel hat sich eine Iridium-Schicht, die beim Aufprall eines großen Meteoriten entstanden ist, weltweit in alle Gesteine der damaligen Zeit eingelagert. Auch Ablagerungen von Vulkanasche lassen sich manchmal großräumig einer konkreten Eruption wie der des Vulkans vom Laacher See zuweisen. Absolute archäologisch-geologische Datierungsmethoden. In der Archäologie werden zahlreiche absolute Datierungsmethoden verwendet. Diese beruhen auf unterschiedlichen Ansätzen. Welche dieser Ansätze anwendbar und sinnvoll sind, entscheidet sich im Einzelfall des jeweiligen Befundes. Geochronologische Datierungen mittels Isotopenzerfall. Viele Methoden zur Altersbestimmung in der Geologie liefern nur sehr grobe Absolutdaten. So waren etwa die heute ausgestorbenen Radionuklide 26Al oder 53Mn bei der Entstehung des Sonnensystems noch vorhanden. Mit diesen Methoden können z.B. das Entstehungsalter von Meteoriten oder einzelner Bestandteilen von Meteoriten relativ zueinander bestimmt werden. Erst durch Kalibrieren dieser relativen Datierungsmethoden mit absoluten Datierungsmethoden wie der Uran-Blei-Datierung können dann auch absolute Alter angegeben werden. Bei den radiometrischen Methoden mit nicht ausgestorbenen Radionukliden wird gemessen, wie hoch der Anteil natürlich vorkommender radioaktiver Elemente und eventuell ihrer Zerfallsprodukte ist. Da die Halbwertszeit der radioaktiven Elemente bekannt ist, kann daraus das Alter berechnet werden. Eine Besonderheit stellt die Aluminium-Beryllium-Methode dar, da sie vergleichend den Zerfall zweier Radioisotope nutzt, die nicht im Tochter-/Mutterisotopverhältnis stehen. Diese Methode der Oberflächenexpositionsdatierung wird auch zur Bestimmung des Alters von fossilen Hominiden-Knochen genutzt. Die Altersbestimmung erfolgt über das Aluminiumisotop 26Al und das Berylliumisotop 10Be im Mineral Quarz basiert auf dem (bekannten) Verhältnis von 26Al und 10Be, die beide durch kosmische Strahlung (Neutronen-Spallation, Myonen-Einfang) an der Oberfläche von Steinen/Mineralen entstehen. Das Verhältnis ist abhängig u. a. von der Höhenlage, der geomagnetischen Breite, der Strahlungsgeometrie und einer möglichen Schwächung der Strahlung durch Abschirmungen (z. B. Bedeckung). In der Regel werden bei geologischen Datierungen sogenannte Isochronendiagramme verwendet. Vorteil dieser Technik ist es, dass die anfängliche Konzentration und Isotopenverhältnisse der Tochterelemente nicht bekannt sein müssen, man erhält sie vielmehr als ein weiteres Resultat, zusätzlich zum Alter der Probe. Des Weiteren hat die Isochrontechnik den Vorteil, dass zuverlässig ausgeschlossen werden kann, dass eventuelle Störungen durch Umgebungseinflüsse das gemessene Alter verfälscht haben könnten. Der eigentliche Vorteil der radiometrischen Datierungsmethoden beruht darauf, dass die Bindungsenergien der Atomkerne um etliche Größenordnungen größer sind als die thermischen Energien der Umgebung in welcher potentielle Proben (meist Gesteine) überhaupt existieren können. Eine Beeinflussung der Zerfallsraten (Halbwertszeiten) durch Umgebungseinflüsse kann deshalb ausgeschlossen werden, so dass die radiometrischen Alter - besonders wenn sie unter Verwendung der Isochronmethode gewonnen wurden - als sehr zuverlässig gelten. Eine weitere absolute Datierungsmethode ist die Fission-Track-Methode. Hier werden die durch die beim radioaktiven Zerfall (z. B. spontaner Zerfall von Uran oder Zerfall von 40K zu 40Ar) entstandenen hochenergetischen Zerfallsprodukte erzeugten Kristallschäden entlang deren Flugbahnen durch Anätzen unter dem Mikroskop sichtbar gemacht und abgezählt. Weitere geochronologische Methoden. Bei der Warvenchronologie werden Warven, jährliche Sedimentablagerungen in Seen, ausgezählt. Der Boden bekommt durch diese Ablagerungen ein Streifenmuster. Insbesondere für Gegenden mit starker Schneeschmelze ist dieses Verfahren geeignet. Für die Eifelregion gibt es eine Chronologie der letzten 23.000 Jahre, für einen japanischen See für 45.000 Jahre und für den Lago Grande di Monticchio in Süditalien sogar für die letzten 76.000 Jahre. Bei der Analyse von Eisbohrkernen werden die Schichten gezählt, die jedes Jahr durch den Schneefall gebildet werden. Die Magnetostratigraphie nutzt die Tatsache, dass das Erdmagnetfeld sich im Lauf der Zeit oft umgepolt hat. Dieses Muster lässt sich in den Gesteinen wiederfinden und auszählen. Radiokohlenstoffdatierung. Schwankungen des C14-Anteils in der Atmosphäre über der Zeit Zur Altersbestimmung menschlicher Hinterlassenschaften in der Archäologie sind meist Ausgangsisotopen mit kürzeren Halbwertszeiten erforderlich als in der Geologie. Hier wird vorwiegend die Radiokohlenstoffdatierung von organischen Materialien angewandt. Bei der Radiokohlenstoffdatierung wird der Gehalt an radioaktivem Kohlenstoff 14C, der eine Halbwertszeit von 5.730 Jahren hat, gemessen. Damit sind Altersbestimmungen bis zu 60.000 Jahren möglich. Bei älteren Proben ist der 14C-Anteil bereits zu gering, um noch gemessen werden zu können. Eine Schwierigkeit dieser Methode ist, dass der Anteil von 14C in der Erdatmosphäre nicht konstant ist. Diese Schwankungen können beispielsweise mit Hilfe der Dendrochronologie ermittelt werden. Dendrochronologie. Hohlbohrer für Dendrochronologie-beprobung, links zwei Bohrkerne Die Dendrochronologie ermöglicht es, mittels charakteristischer Jahrringe einiger Baumarten, z. B. Eichen, Datierungen vorzunehmen, die auf das Jahr genau sein können. Daher lässt sich bei guter Erhaltung die Errichtungszeit von Bauten mit erhaltenen Hölzern, etwa von Pfahlbauten oder Brunnen, die Bauzeit von Schiffen oder die Herstellung von Särgen bestimmen. Münzdatierungen. Bei der Münzdatierung liefern die Münzen einen "terminus post quem". Das bedeutet, dass ein Fund erst in die Erde gelangt sein kann, nachdem das (jüngste) Geldstück aus diesem Fund geprägt wurde. Dabei steht zunächst nicht fest, wie lange nach der Prägung der Münze dies geschehen ist. Archäologische Funde (Importe). Archäologische Funde einer Kultur können auch durch absolut datierte Importgegenstände aus anderen Kulturen datiert werden. Beispiele dafür sind etwa griechische Keramik oder Bronzegefäße in Fürstengräbern der späten Hallstattzeit in Ostfrankreich und Südwestdeutschland oder Römische Importe in der Kaiserzeit in der Germania Magna. Verbindung mit historischen Ereignissen. Gelegentlich lassen sich archäologische Fundzusammenhänge über bekannte historische Ereignisse datieren. So wurden beispielsweise die Städte Pompeji und Herculaneum durch den von Plinius dem Jüngeren beschriebenen Ausbruch des Vesuv am 24. August 79 zerstört und verschüttet, die Gebäude in diesen Städten müssen also vor diesem Vulkanausbruch errichtet worden sein. Für Funde aus diesen Orten gilt also ein "terminus ante quem" von 79. Die Einwanderung der Langobarden in Italien fand nach historischen Quellen im Jahr 568 statt. Langobardische Gräberfelder in Italien datieren daher erst in die Zeit nach 568, die Einwanderung bietet hier einen "terminus post quem". Die absolute Datierung über die Verbindung von archäologischen Funden und historischen Daten sollte generell mit großer Vorsicht vorgenommen werden, da die Gefahr eines Zirkelschlusses besteht (so genannte gemischte Interpretation). So könnte etwa die historisch belegte Zerstörung einer Siedlung dazu verleiten, eine dort gefundene Brandschicht vorschnell auf diese Zerstörung zu beziehen und nach ihr zu datieren, obwohl die Brandschicht tatsächlich von einem anderen, historisch nicht überlieferten Feuer stammt. Verhindern lässt sich ein solcher Zirkelschluss durch eine möglichst genaue, eigenständige archäologische Datierung und die Einordnung in einen größeren Zusammenhang. Für die oben genannten Beispiele bedeutet das, dass die Funde aus Pompeji (Münzen, Keramik usw.) auch ohne Kenntnis des genauen Datums eine Datierung der Zerstörung um 80 erlauben. Die Datierung der Einwanderung der Langobarden ist nach dem historischen Datum von 568 möglich, da die ältesten Grabbeigaben der Langobarden in Italien nach archäologischen Kriterien aus dem letzten Drittel des 6. Jahrhunderts stammen und spezielle Formen, etwa von Fibeln, dort vorher nicht bekannt gewesen sind, sondern nach genauen Vergleichsstücken von langobardischen Zuwanderern aus ihren bisherigen Wohngebieten in Pannonien mitgebracht wurden. Weitere Methoden. Einige Methoden eignen sich für relativ spezielle Anwendungsgebiete. Die Thermolumineszenzdatierung etwa dient zur naturwissenschaftlichen Altersbestimmung von Keramik. Inzwischen wurde auch die Argon-Argon-Datierung soweit verfeinert, dass die absolute Datierung historischer Ereignisse mit dieser in bestimmten Fällen möglich ist. So wurde sie 1997 verwendet, um mit ihr Bimsstein von dem Vesuv-Ausbruch, welcher Pompeji zerstörte, auf die Jahre von 72 bis 94 n. Chr. zu datieren. Damit liegt das in historischen Quellen genannten Datum (79 n. Chr.) im Bereich des quantifizierten Fehlers. Die unabhängigen Altersangaben bestätigen sich folglich gegenseitig. Eine neue Untersuchungsmethode stellt die Rehydroxylierung dar, nämlich in welchem Grade Sauerstoffbrücken in Keramik durch Eindringen von Wasser aufgebrochen worden sind. Auf diese Weise gelang es "Moira Wilson" von der University of Manchester und ihren Kollegen keramische Objekte im Alter bis zu 2000 Jahren recht genau zu bestimmen. Zusammenführung von relativer und absoluter Chronologie. Im Regelfall sollte zunächst eine relative Chronologieabfolge erstellt werden, welche erst in einem zweiten Schritt mit absoluten Daten zusammengeführt wird. Wird dieses Prinzip missachtet, führt dies bei einer zu ungenauen oder fehlerhaften Absolutdatierung zu einer falschen Relativdatierung. Adrenalin. Adrenalin (‚an‘ und ‚Niere‘) oder Epinephrin (INN) ("epí" ‚auf‘ und "nephrós" ‚Niere‘) ist ein im Nebennierenmark gebildetes und ins Blut ausgeschüttetes Stresshormon. Als solches vermittelt Adrenalin eine Herzfrequenzsteigerung, einen Blutdruckanstieg, eine Bronchiolenerweiterung, eine schnelle Energiebereitstellung durch Fettabbau (Lipolyse) sowie die Freisetzung und Biosynthese von Glucose. Es reguliert die Durchblutung (Zentralisierung) und die Magen-Darm-Tätigkeit (Hemmung). Im Zentralnervensystem kommt Adrenalin als Neurotransmitter in adrenergen Neuronen vor. Seine Effekte vermittelt Adrenalin über eine Aktivierung G-Protein-gekoppelter Rezeptoren, den Adrenozeptoren. Entdeckungsgeschichte. Den ersten Hinweis auf eine im Nebennierenmark vorkommende und von dort in die Blutbahn freigesetzte Substanz, die sich mit Eisen(III)-chlorid anfärben ließ, fand 1856 der französische Physiologe Alfred Vulpian. Dass diese Substanz außerordentliche pharmakologische Eigenschaften besitzen musste, stellten 1893/94 der praktizierende Arzt George Oliver und der Physiologe Edward Albert Schäfer fest. Dasselbe gelang 1895 den polnischen Physiologen Władysław Szymonowicz und Napoleon Cybulski. John Jacob Abel, der 1897 versuchte, die Substanz zu isolieren, gab ihr den Namen „Epinephrin“. Inspiriert durch seine Arbeiten stellte der japanisch-amerikanische Chemiker Jokichi Takamine sie rein dar und ließ sie von der Firma Parke, Davis & Co. unter dem Namen „Adrenalin“ vertreiben. Obgleich Abels Epinephrin sich später als ein Artefakt der Isolierung herausstellte, wird der Name Epinephrin bis heute synonym für Adrenalin gebraucht. 1904 folgte die chemische Synthese. Adrenalin war das erste Hormon, das rein hergestellt und dessen Struktur bestimmt wurde. Die weitere Adrenalinforschung führte zu den beiden anderen körpereigenen Catecholaminen Noradrenalin und Dopamin. Biosynthese. Die Biosynthese von Adrenalin geht von den α-Aminosäuren L-Tyrosin oder L-Phenylalanin aus. Diese werden zu L-DOPA hydroxyliert. Nach einer Decarboxylierung zum biologisch aktiven Dopamin erfolgt eine enantioselektive Hydroxylierung zum Noradrenalin, welches ebenfalls aus dem Nebennierenmark freigesetzt werden kann und darüber hinaus als Transmitter in sympathischen Neuronen fungiert. Die "N"-Methylierung von Noradrenalin liefert schließlich das Adrenalin. Die normale Konzentration von Adrenalin im Blut liegt unter 100 ng/l (etwa 500 pmol/l). Regulation der Biosynthese. Die Biosynthese und die Freisetzung von Adrenalin kann durch nervale Reize, durch Hormone oder durch Medikamente gesteuert werden. Nervale Reizung fördert die Umwandlung von L-Tyrosin zu L-Dopa und von Dopamin zu Noradrenalin. Cortisol, das Hormon der Nebennierenrinde, fördert die nachfolgende Umwandlung von Noradrenalin zu Adrenalin. Die Adrenalinproduktion kann auch durch einen negativen Feedback-Mechanismus reguliert werden. Ansteigende Adrenalinspiegel sind mit der L-Tyrosin-Bildung negativ rückgekoppelt, bei erhöhten Adrenalinspiegeln wird also die L-Tyrosin-Bildung gebremst. Abbau. Adrenalin wird nach seiner Freisetzung relativ schnell wieder abgebaut. So beträgt die Plasmahalbwertszeit von Adrenalin bei intravenöser Gabe nur eine bis drei Minuten. Am Abbau von Adrenalin sind insbesondere die Enzyme Catechol-O-Methyltransferase (COMT) und Monoaminooxidase (MAO) beteiligt. Das durch O-Methylierung (COMT) gebildete primäre Abbauprodukt Metanephrin (siehe Metanephrine) besitzt bereits keine nennenswerte biologische Aktivität mehr. Durch weitere, insbesondere oxidative Stoffwechselprozesse unter Beteiligung der Monoaminooxidase ist eine Metabolisierung zu Vanillinmandelsäure und 3-Methoxy-4-hydroxyphenylethylenglykol (MOPEG) möglich. Diese Stoffwechselprodukte werden in konjugierter (z. B. als Sulfate) und unkonjugierter Form über den Urin ausgeschieden. Der zuverlässige qualitative und quantitative Nachweis aller Metabolite gelingt durch die Kopplung verschiedener chromatographischer Verfahren. Wirkungen. Adrenalin ist ein Stresshormon und schafft als solches die Voraussetzungen für die rasche Bereitstellung von Energiereserven, die in gefährlichen Situationen das Überleben sichern sollen (Kampf oder Flucht). Diese Effekte werden auf subzellularer Ebene durch Aktivierung der G-Protein-gekoppelten Adrenorezeptoren vermittelt. Herz-Kreislauf-System. Von besonderer Wichtigkeit ist die Wirkung von Adrenalin auf das Herz-Kreislauf-System. Hierzu zählt u. a. der Anstieg des zentralen Blutvolumens, der durch Kontraktion kleiner Blutgefäße, insbesondere in der Haut und in den Nieren, über die Aktivierung von α1-Adrenozeptoren geschieht. Zugleich wird eine β2-Adrenozeptor-vermittelte Erweiterung zentraler und muskelversorgender Blutgefäße beobachtet. Die Aktivierung von β1-Adrenozeptoren führt zu einer erhöhten Herzfrequenz (positiv chronotrope Wirkung), einer beschleunigten Erregungsleitung (positiv dromotrope Wirkung), einer erhöhten Kontraktilität (positiv inotrope Wirkung) und einer Senkung der Reizschwelle (positiv bathmotrope Wirkung). Diese Effekte verbessern die Herzleistung und tragen mit der Konstriktion kleiner Blutgefäße zur Erhöhung des Blutdrucks bei. Nach Vorbehandlung mit Alpha-Blockern führt Adrenalin jedoch zu einer paradoxen, therapeutisch genutzten Senkung des Blutdrucks (Adrenalinumkehr). Auch sehr niedrige Adrenalindosen (< 0,1 µg/kg) können eine leichte Senkung des Blutdrucks bewirken, die mit einer selektiven Aktivierung von β2-Adrenozeptoren der Blutgefäße erklärt wird. Chronisch erhöhte Adrenalinspiegel werden mit einer Hypertrophie des Herzens in Verbindung gebracht. Glatte Muskulatur, Atmung, Magen-Darm-Trakt, Harnblase. Neben der oben genannten Funktion auf das Herz-Kreislauf-System ist die Steigerung der Atmung und eine vorübergehende Inaktivierung nicht benötigter Prozesse, z. B. der Verdauung, im Rahmen der Stresshormonfunktion des Adrenalins von Bedeutung. Adrenalin führt über eine Aktivierung von β-Adrenozeptoren zu einer Erschlaffung der glatten Muskulatur. Dies hat beispielsweise eine Ruhigstellung des Magen-Darm-Trakts (Hemmung der Peristaltik) und eine Erweiterung der Bronchien zur Erleichterung der Atmung als Folge (β2-Adrenozeptoren). Ebenfalls über β2-Adrenozeptoren kann Adrenalin eine Relaxation des Uterus von Schwangeren bewirken. Andererseits kann Adrenalin in Organen, die vorwiegend α1-Adrenozeptoren exprimieren, eine Kontraktion der glatten Muskulatur vermitteln. So führt Adrenalin zu einer Kontraktion des Schließmuskels der Harnblase. Mobilisierung von Energiereserven. Die Freisetzung von Adrenalin aus der Nebenniere führt zu einer Mobilisierung von körpereigenen Energieträgern durch Steigerung des Fettabbaus (Lipolyse). Diese Lipolyse wird durch eine β-Adrenozeptor-vermittelte (vorwiegend β3-Adrenozeptoren) Aktivierung der hormonsensitiven Lipase katalysiert. Ebenso führt ein Anstieg des Adrenalinspiegels zu einer Freisetzung und Neubildung von Glucose und damit zu einem Anstieg des Blutzuckerspiegels (β2-Adrenozeptoren). Dieser Effekt wird durch α2-Adrenozeptor-vermittelte Hemmung der Insulinproduktionen und die β-Adrenozeptor-vermittelte Freisetzung von Glucagon verstärkt. Im Muskel kommt es durch Adrenalin zu verstärkter Glucose-Aufnahme. Adrenalin führt ebenfalls zu einer Erhöhung des Energieumsatzes (vorwiegend β2-Adrenozeptoren). Zentralnervensystem. Beobachtete zentralnervöse Effekte als Stresshormon werden als reflektorisch angesehen, da in der Nebenniere gebildetes Adrenalin die Blut-Hirn-Schranke nicht passieren kann. Ungeachtet dessen konnte in einigen Neuronen des Zentralnervensystems vor Ort produziertes Adrenalin als Neurotransmitter nachgewiesen werden. Diese Neurone kommen insbesondere in der Area reticularis superficialis ventrolateralis vor. Die Funktion dieser adrenergen Neurone ist noch nicht genau bekannt, jedoch wird eine Rolle bei der zentralen Blutdruckregulation und beim Barorezeptorreflex diskutiert. Das zentrale Nervensystem nimmt den Stressor wahr, daraufhin wird der Hypothalamus aktiv und aktiviert den Sympathicus. Dessen anregende Wirkung auf das Nebennierenmark bewirkt dessen Ausschüttung von Adrenalin und Noradrenalin. Sonstige Effekte. Als Folge einer Adrenalinfreisetzung oder einer lokalen Adrenalinanwendung können Schweißproduktion, Gänsehaut (pilomotorischer Reflex) und eine Pupillenerweiterung (Mydriasis) beobachtet werden. Zudem bekommt man auch einen trockenen Mund. Adrenalin ist ferner an der Blutgerinnung und Fibrinolyse beteiligt. Chemie. Adrenalin, chemisch ("R")-1-(3,4-Dihydroxyphenyl)-2-("N"-methylamino)ethanol, gehört zur Gruppe der Katecholamine, zu der auch Noradrenalin und Dopamin zählen. Die wirksame Form (Eutomer) des Adrenalins besitzt stereochemisch eine ("R")-Konfiguration [("R")-Adrenalin oder (−)-Adrenalin]. ("R")-Adrenalin ist etwa 20- bis 50-mal wirksamer als ("S")-Adrenalin. Synthese. Zur Synthese des Adrenalins sind in der Literatur mehrere Verfahren beschrieben. Das klassische Syntheseverfahren umfasst drei Schritte: Brenzkatechin (1) wird mit Chloressigsäurechlorid (2) zum 3,4-Dihydroxy-ω-chloracetophenon (3) acyliert. Die Reaktion entspricht indirekt der Friedel-Crafts-Acylierung, der bevorzugte Weg führt gleichwohl über die Ester-Zwischenstufe und schließt so eine Fries-Umlagerung mit ein. Die Aminierung des Chloracetophenons mit Methylamin ergibt das Adrenalon (4); die anschließende Reduktion liefert razemisches Adrenalin (5'"). Die Razematspaltung ist mit Hilfe von (2"R",3"R")-Weinsäure möglich. Synthese des Adrenalins (5) aus Brenzkatechin (1) und Chloressigsäurechlorid (2) (s.a. Text) Alternativ kann man auch 3,4-Dimethoxybenzaldehyd mit Blausäure zum Cyanhydrin umsetzen, dessen Oxidation dann ein Nitriloketon liefert. Durch katalytische Reduktion entsteht ein Aminoketon, dessen schonende "N"-Methylierung liefert dann das sekundäre Amin. Durch Hydrolyse der Phenyletherfunktionen, Reduktion und Racematspaltung gelangt man dann zum Adrenalin. Stabilität. Wie alle Katecholamine ist Adrenalin oxidationsempfindlich. Ein Oxidationsprodukt des Adrenalins ist Adrenochrom. Für die Oxidation kann man Silber(I)-oxid (Ag2O) verwenden. Die Oxidation des Adrenalins kann auch in wässriger Lösung durch Spuren von Eisen- und Iodidionen katalysiert werden. Antioxidanzien, wie z. B. Ascorbinsäure und Natriummetabisulfit können die Bildung von Adrenochrom verlangsamen. Die Geschwindigkeit der Oxidation ist darüber hinaus vom pH-Wert der Lösung abhängig. Als Stabilitätsoptimum gilt ein leicht saurer pH-Wert. Anwendungsgebiete. In der Medizin wird Adrenalin vor allem als Notfallmedikament bei der Herz-Lungen-Wiederbelebung bei Herzstillstand und dem anaphylaktischen Schock eingesetzt. Es ist in verschiedenen Darreichungsformen erhältlich und verschreibungspflichtig. Notfallmedizin. Für die Anwendung in der Notfallmedizin wird Adrenalin intravenös, alternativ auch intraossär oder sehr selten intrakardial verabreicht. In den aktuellen Empfehlungen des European Resuscitation Council wird die Gabe von Adrenalin bei der Reanimation als Standard empfohlen, wenngleich keine placebokontrollierte Studie beim Menschen existiert, die einen Überlebensvorteil durch den Einsatz von Adrenalin nachweist. Ein weiteres Hauptanwendungsgebiet von Adrenalin in der Medizin ist der Kreislaufschock, beispielsweise bei anaphylaktischen Reaktionen oder Sepsis. Die Behandlung anaphylaktischer Reaktionen und des Schocks erfolgt ebenfalls über eine intravenöse Verabreichung von Adrenalin. Sollte im akuten Schockgeschehen kein venöser Zugang geschaffen werden können, so kann Adrenalin auch intramuskulär verabreicht werden. Für Patienten mit schwerwiegenden allergischen Reaktionen in der Vergangenheit (z. B. drohende Erstickung durch Anschwellen der Stimmritze (Glottisödem)) stehen Adrenalin-Fertigspritzen zur Verfügung, die dann von dem Betroffenen nach einer Allergenexposition mit beginnender Symptomatik selbst appliziert werden können. Für die Anwendung in der Herz-Lungen-Wiederbelebung und beim Schock stehen die den Blutkreislauf zentralisierenden Wirkungen des Adrenalins im Vordergrund. Durch eine Aktivierung von α1-Adrenozeptoren wird eine Konstriktion kleiner Blutgefäße in der Haut und in den Nieren erreicht, während große zentrale Blutgefäße erweitert werden. Auf diese Weise soll Adrenalin den koronaren und zerebralen Perfusionsdruck steigern. Atemwegserkrankungen. Für die Anwendung als Zusatzmedikation bei der akuten "Laryngitis subglottica" („Pseudo-Krupp“) steht Adrenalin als Lösung zur Inhalation (InfectoKrupp Inhal®) zur Verfügung. Bis 2002 waren in Deutschland Adrenalin-haltige Inhalationspräparate auch für die Akutbehandlung des Asthma bronchiale zugelassen. Mit Inkrafttreten des FCKW-Verbots wurden diese jedoch vom Markt genommen. Die inhalative Anwendung anderer Adrenalinpräparate zur Akutbehandlung asthmatischer Beschwerden ist somit außerhalb der arzneimittelrechtlichen Zulassung und entspricht einem Off-Label-Use. Die Anwendung des Adrenalins bei Atemwegserkrankungen basiert auf seiner bronchienrelaxierenden Wirkung, die über eine Aktivierung von β2-Adrenozeptoren vermittelt wird. Systemische Nebenwirkungen nach Resorption müssen jedoch in Kauf genommen werden. Lokale Vasokonstriktion. Adrenalin kann weiterhin zur lokalen Gefäßverengung bei Blutungen eingesetzt werden. Die gefäßverengende Wirkung wird auch zum Schließen von Cuts im Boxsport verwendet. Diese vasokonstriktive Wirkung beruht auf einer Aktivierung von α1-Adrenozeptoren kleiner Blutgefäße in der Haut und im Muskelgewebe und ihrer darauf folgenden Verengung. Adrenalin wird ferner als vasokonstriktiver Zusatz zu Lokalanästhetika verwendet, um deren Abtransport zu verlangsamen und damit ihre Wirkungsdauer zu verlängern. Antidot. Adrenalin ist das Mittel der zweiten Wahl bei Betablockervergiftungen und kann eingesetzt werden, wenn kein spezifischer β-Agonist zur Verfügung steht. Für diese Notfallanwendung besteht jedoch ebenfalls keine arzneimittelrechtliche Zulassung (Off-Label-Use). Nebenwirkungen. Die Nebenwirkungen des Adrenalins entsprechen weitgehend seinen Hauptwirkungen und sind auf dessen Bedeutung als Stresshormon zurückzuführen. Adrenalin führt zu einer Kontraktion kleiner Blutgefäße, insbesondere der Haut und der Nieren, verbunden mit einem Blutdruckanstieg und, insbesondere bei lokaler Anwendung, vereinzelten Nekrosen. Bei systemischer Anwendung stehen kardiale Nebenwirkungen, wie z. B. Herzinsuffizienz, Angina-pectoris-Anfälle, Herzinfarkt, tachykarde Herzrhythmusstörungen, bis hin zum Kammerflimmern und Herzstillstand im Vordergrund. Daher ist seine Anwendung teilweise umstritten. Die systemische Anwendung von Adrenalin kann darüber hinaus eine Erhöhung des Blutzuckerspiegels (Hyperglykämie), eine Erniedrigung des Kaliumspiegels (Hypokaliämie), eine metabolische Azidose und eine Absenkung der Magnesiumkonzentration (Hypomagnesiämie) zur Folge haben. Des Weiteren können Mydriasis, Miktionsschwierigkeiten, Speichelfluss, Schwitzen bei gleichzeitigem Kältegefühl in den Extremitäten, Übelkeit, Erbrechen, Schwindel und Kopfschmerz beobachtet werden. Als psychische Nebenwirkungen durch den Einsatz von Adrenalin können Ruhelosigkeit, Nervosität, Angst, Halluzinationen, Krämpfe bis hin zu Psychosen auftreten. Wechselwirkungen. Einige Inhalationsanästhetika, die das Herz für Katecholamine sensibilisieren, führen zu einer verstärkten Wirkung von Adrenalin am Herz und somit zu einer erhöhten Gefahr von Herzinsuffizienz, Angina-pectoris-Anfällen, Herzinfarkt und tachykarden Herzrhythmusstörungen. Die Wirkungen und Nebenwirkungen von Adrenalin können ebenfalls durch eine Hemmung des Adrenalinabbaus oder einer vermehrten (Nor-)Adrenalinfreisetzung verstärkt werden. Dies ist insbesondere bei gleichzeitiger Anwendung von MAO-Hemmern, Levodopa, L-Thyroxin, Theophyllin, trizyklischen Antidepressiva und Reserpin zu beobachten. Adrenalin seinerseits hemmt die blutdrucksenkende Wirkung von Alphablockern und die kardialen Effekte der Betablocker. Da Adrenalin zu einem Anstieg des Blutzuckerspiegels führt, ist die Wirkung oraler Antidiabetika herabgesetzt. Dosierung. Adrenalin wird als Lösung intravenös verabreicht. Typischerweise ist die Konzentration in einer Ampulle 1 mg/ml (auch als Adrenalinlösung 1:1.000 oder Adrenalinlösung 0,1 %ig bezeichnet). Je nach Anwendungsgebiet ist es gebräuchlich, im Verhältnis 1:10 mit 0,9 % Natriumchloridlösung zu verdünnen (dann als Adrenalinlösung 1:10.000 oder Adrenalinlösung 0,01 %ig bezeichnet). Die Reanimationsdosis beträgt 1 mg alle 3–5 Minuten. Bei der endobronchialen Anwendung (veraltet) wird meist 3:10 mit 0,9 % Natriumchloridlösung verdünnt. Handelsnamen nach Darreichungsform. Beispiel eines Autoinjektors (mit abgezogener Schutzkappe), wie er häufig von Allergikern als Notfallversorgung mitgeführt wird. Ampullen (Injektionslösung) Arterie. Eine Arterie (, von - „zusammen-“, „anbinden“, gemeint ist „die [am Herzbeutel] Angehängte“), ist ein Blutgefäß, welches das Blut vom Herz wegführt. Sie wird nach den an großen Arterien spürbaren Pulsen des Herzschlags auch Schlagader oder Pulsader genannt. Durch ihren Aufbau sollen Arterien den vom Herzen erzeugten Blutdruck möglichst stabil halten. Im Körperkreislauf transportieren sie sauerstoff­reiches Blut (alte Bezeichnung „arterielles Blut“) vom Herzen weg. Die Arterien des Lungenkreislaufs enthalten dagegen sauerstoffarmes Blut. In den Arterien des Menschen sind nur etwa 20 % des gesamten Blutvolumens enthalten. Arterien verzweigen sich in immer kleinere Arterien und dann über Arteriolen in Haargefäße (Kapillaren). Die Blutgefäße, die das Blut zum Herzen zurücktransportieren, werden Venen genannt. Wandaufbau. Die Gefäßwände der Arterien sind dicker (muskelreicher), haben eine deutlich ausgeprägtere Schichtung und sind dehnbarer als die Venen. Ariel Scharon. (, genannt "Arik"; geboren am 26. Februar 1928 als "Ariel Scheinermann" in Kfar Malal, Britisches Mandatsgebiet Palästina; gestorben am 11. Januar 2014 in Ramat Gan) war ein israelischer Politiker und General. Von 2001 bis 2006 war er Ministerpräsident. Vom 4. Januar 2006 bis zu seinem Tod befand er sich im Wachkoma. Familie. Scharons Vater Schmuel kam aus Brest-Litowsk und die Mutter aus Mogiljow in Weißrussland. Der Vater hatte gerade in Tiflis sein Betriebswirtschaftsstudium mit Vertiefung auf Einzelhandelskaufmann abgeschlossen, als er 1921 als aktiver Zionist vor der Roten Armee floh und zusammen mit der Mutter nach Palästina auswanderte. Seine Frau Vera Schneeroff konnte deshalb ihr Studium der Medizin nicht abschließen, was sie ihr Leben lang bereute. Im Unterschied zu vielen Einwanderern jener Zeit war sie weder sozialistisch eingestellt noch teilte sie den Zionismus ihres Mannes. Die Familie zog in den Moschaw Kfar Malal, wo die Entscheidungen zwar kollektiv getroffen wurden, aber jeder sein eigenes Land besaß. Als einziger studierter Landwirt und wenig kompromissbereiter Mensch verstand es der Vater, sich wiederholt über die Entscheidungen der Gemeinschaft hinwegzusetzen, wodurch sich die Familie jedoch manchmal isolierte. Dienst in der Hagana. Bereits im Alter von 13 Jahren begann Scharon am Wachdienst des Moschaws mitzuwirken und besuchte das Gymnasium in Tel Aviv. Im Jahre 1942 trat Scharon 14-jährig der Untergrundorganisation Hagana bei, dem Vorläufer der israelischen Armee. Mit 17 Jahren machte Scharon, der nie ein herausragender Schüler war, das Abitur. Da sein Vater die Aktionen des Palmach gegen national-konservative Gruppen (wie Lechi und Etzel) ablehnte, die gegen die Briten kämpften, trat Scharon nicht dieser Eliteeinheit, sondern der Siedlungspolizei bei. Schon seit dem 21. Dezember 1947 war die Hagana dauerhaft mobilisiert worden und Scharon nahm an mehreren ihrer Aktionen teil. Unabhängigkeitskrieg. Zu Beginn des israelischen Unabhängigkeitskrieges von 1948 war Scharon Zugführer in einer Infanteriekompanie, die zur Alexandroni-Brigade gehörte. Er kämpfte unter anderem in der ersten Schlacht um Latrun (26. Mai 1948), wo er schwer verwundet und sein Zug fast vollkommen ausgelöscht wurde. Später wurde er zum Aufklärungsoffizier im Bataillon ernannt, das zuerst im Norden gegen die Iraker, und später, kurz vor Kriegsende, im Süden gegen Ägypten kämpfte. Nach dem Krieg wurde die Alexandroni-Brigade in den Reservestatus versetzt und Scharon wurde Offizier der Aufklärung in der Golani-Brigade, in der er bald zum Hauptmann (Seren) befördert wurde und einen Bataillonskommandeurskurs besuchte. Im Jahre 1950 wurde er zum Aufklärungsoffizier für das gesamte Zentralkommando ernannt. Wegen der Folgen einer Malaria nahm Scharon 1951 eine mehrmonatige Auszeit und bereiste zum ersten Mal Europa und Nordamerika. Im November 1952 begann Scharon unter der Führung von Mosche Dajan erstmals mit Kommandoaktionen hinter den feindlichen Linien. Am Ende des Jahres entschloss er sich jedoch zum Rückzug aus dem aktiven Dienst. Er begann ein Studium der Geschichte und Kultur des Nahen Ostens an der Hebräischen Universität Jerusalem, an der er sich schon einmal 1947 erfolglos für Landwirtschaft eingeschrieben hatte. Am 29. März 1953 heiratete er seine erste Frau Margalit (kurz Gali), eine rumänische Jüdin, die er 1947 kennengelernt hatte. Margalit starb im Jahre 1962 bei einem Autounfall. Durch einen Unfall mit einem Gewehr der Familie starb auch ihr gemeinsamer Sohn Gur 1967 früh. Scharon heiratete später Margalits jüngere Schwester Lily, mit der er zwei Söhne, Omri und Gilad zeugte. Lily Scharon starb im Jahre 2000 an Lungenkrebs. Die Einheit 101. Nachdem Angriffe von Seiten der aus dem jungen Staat Israel geflohenen oder vertriebenen Palästinenser zahlreiche – meist zivile – Opfer infolge der schwer zu überwachenden Grenzen Israels bis in die Vororte Tel Avivs gefordert hatten, und zwar in den Jahren 1951 137, 1952 162 und 1953 noch einmal 160, wurden mehrere Versuche unternommen, Gegenschläge gegen Zentren der paramilitärischen und terroristischen Angreifer auszuführen. Diese waren jedoch wenig effektiv und wurden von nicht speziell ausgebildeten Truppen ausgeführt, die dabei oft schwere Verluste erlitten. Auch Scharon führte einen dieser misslungenen Gegenschläge aus. Seine militärische Analyse der Aktion bewegte David Ben Gurion dazu, Mordechai Maklef mit der Gründung einer Spezialeinheit, der Einheit 101, zu beauftragen. Ende Juli 1953 wurde Scharon mit ihrer Führung betraut, weshalb er sein Studium zurückstellen musste. Die Fallschirmjäger. Scharon (li.) mit Fallschirmjägern, 1955 Nachdem Mosche Dajan Ende 1953 zum israelischen Generalstabschef ernannt worden war, wurde die Einheit 101 in die Fallschirmjägertruppe integriert. Scharon wurde der Chef des Bataillons, das nach Einschätzung der israelischen Führung erfolgreich arbeitete. Nach der Qibya-Aktion wurden jedoch nur noch rein militärische Ziele angegriffen. Neben der herausgehobenen Position der Fallschirmjäger führte die Tatsache, dass Scharon seine persönlichen Kontakte zu Ben Gurion und Dajan zu scharfer Kritik an den Methoden der Armee und für seine persönlichen Ambitionen nutzte, zu Problemen Scharons mit seinen Vorgesetzten in der Armee. Zu Konflikten kam es auch mit dem neuen Verteidigungsminister Pinchas Lawon, der, besorgt um die außenpolitischen Auswirkungen der Aktionen, Scharon vergeblich zu zügeln versuchte. In diese Zeit fällt auch der großangelegte Angriff der Einheit auf das ägyptische Hauptquartier in Gaza am 28. Februar 1955, der einer der Gründe für die verstärkte Inanspruchnahme sowjetischer Militärhilfe durch Gamal Abdel Nasser war. Eine weitere bedeutende Aktion war der Angriff auf das jordanische Militärhauptquartier in Kalkilia im Oktober 1956. Die Suezkrise. In der Suezkrise spielte Scharons 202. Fallschirmjäger-Brigade eine entscheidende Rolle. Das 890. Fallschirmjäger-Bataillon sicherte nach einer Luftlandung den Ostausgang des strategisch wichtigen Mitla-Passes. Der Rest der Brigade unter Scharon kämpfte sich in zwei Tagen auf dem Landweg die 200 km durch feindliches Gebiet zum Pass vor. Scharon bat mehrmals erfolglos darum, den Pass angreifen zu dürfen, erhielt aber nur Erlaubnis, ihn aufzuklären, um ihn, falls er unbesetzt sein sollte, später einzunehmen. In großzügiger Auslegung seiner Anweisungen schickte Scharon einen für reine Aufklärungszwecke sehr starken Spähtrupp, der in der Passmitte durch schweres Feuer gebunden wurde. Scharon schickte daraufhin auch den Rest seiner Brigade zur Unterstützung. In dem sich nun entwickelnden Gefecht konnten die Israelis den Pass erobern, wobei 38 israelische Soldaten fielen. Mehrere Jahre später gingen einige Teilnehmer der Schlacht an die Presse und warfen Scharon vor, er habe seine Aufklärer leichtfertig in Gefahr gebracht, um die Ägypter zu provozieren. Andere Veteranen der Aktion nahmen Scharon hingegen in Schutz. Karrierestillstand in der Zwischenkriegszeit. Der Mitla-Zwischenfall fand das Missfallen von Scharons Vorgesetzten und brachte seine militärische Karriere auf Jahre hinaus beinahe zum Stillstand. Er blieb Kommandeur der Fallschirmjäger, bis er im Herbst 1957 von Dajan für ein Jahr nach England auf das Stabs College geschickt wurde. Dort schrieb er eine analytische Arbeit mit dem Titel: "Command Interference in Tactical Battlefield Decisions: British and German Approaches". Nach seiner Rückkehr wurde er Oberst und Kommandeur der Infanterie-Schule, eine Aufgabe, die ihm wegen ihrer Theorielastigkeit nicht zusagte. Später kam das Kommando einer Reserve-Infanteriebrigade hinzu. Scharon begann auch einen Panzer-Lehrgang und besuchte einen Abendkurs für Jura bei der Tel Aviver Abteilung der Hebräischen Universität (den Abschluss machte er schließlich 1966). Auf Druck von Ben Gurion ernannte ihn Tzur schließlich zum Kommandeur einer Reserve-Panzerbrigade, abermals eine inaktive Rolle, die ihm aber wegen seines Interesses für die strategische Bedeutung von Panzern eher zusagte. Erst als Ende 1963 Jitzchak Rabin, der spätere israelische Premierminister, zum Generalstabschef ernannt wurde, wurde Scharon wieder einbezogen und zum Kommandeur des Nordkommandos unter Avraham Joffe ernannt. 1966 wurde er schließlich von Rabin in den Rang eines Generalmajors (Aluf) befördert, zum Direktor des militärischen Trainings ernannt und Kommandeur einer Reserve-Division. Der Sechstagekrieg. Vor dem Sechstagekrieg machte sich Scharon zusammen mit Joffe und Matti Peled dafür stark, die ursprüngliche Taktik eines Stufenplans, der das schrittweise Meistern verschiedener Fronten und Konfliktherde vorsah, durch einen größer angelegten Präventivschlag an mehreren Fronten zu ersetzen. Scharon plante einen Angriff, der sowohl gleichzeitig und von Beginn an alle verfügbaren Kräfte ins Kampfgeschehen einbindet, als auch die gesamte Sinaifront umfassen sollte. Nach der Ernennung Dajans zum Verteidigungsminister konnte sich diese Vorstellung durchsetzen. Im Krieg kommandierte Scharon die mächtigste Panzerdivision an der Sinaifront (die beiden anderen Divisionen waren die von Tal und Joffe), der der Durchbruch im Gebiet von Kusseima und Abu-Ageila gelang. Es war schließlich auch Scharon, der die 6. ägyptische Division vernichtend schlug. Rabin ernannte Scharon daraufhin zum Kommandeur des Sinai, wodurch er auch für die Versorgung der in der Wüste verstreuten ägyptischen Soldaten zuständig war. Als Chef der militärischen Ausbildung begann er sofort nach dem Krieg, verschiedene Ausbildungszentren in das Westjordanland zu verlegen, um die Gebiete zu sichern. Am Ende hatte er beinahe alle ehemaligen jordanischen Militärlager und Kasernen besetzt, die an den wichtigen strategischen Punkten lagen. Er versuchte auch Dajan davon zu überzeugen, die Familien der Soldaten in der Nähe dieser Kasernen anzusiedeln, war jedoch zunächst nicht erfolgreich. Im Jahre 1969 wurde er Chef des Südkommandos der israelischen Streitkräfte. Der Jom-Kippur-Krieg. Nach dem Angriff arabischer Staaten auf Israel zum Auftakt des Jom-Kippur-Krieges 1973 wurde Scharon aus dem militärischen Ruhestand zurückgerufen. Ihm gelang es in eigenmächtiger Initiative, unter Missachtung der Anweisungen seines Vorgesetzten Generalleutnant Chaim Bar-Lew, mit seiner Panzerdivision die ägyptischen Angriffslinien im Sinai zu durchbrechen, südlich der Bitterseen die auf dem Ostufer verbliebene 3. Ägyptische Armee einzukesseln und über den Sueskanal überzusetzen. Die israelische Armee stand nun jenseits des Sueskanals, etwa 100 km vor Kairo. So half er entscheidend mit, eine drohende Niederlage Israels abzuwenden. Minister. Von 1973 bis 1974 und von 1977 bis 2006 war er Abgeordneter der Knesset. In der Likud-Regierung von Menachem Begin amtierte Scharon zunächst als Landwirtschaftsminister (1977–1981), dann als Verteidigungsminister (1981–1983). Als Landwirtschaftminister wurde er ab 1977 einer der wichtigsten Fürsprecher der Siedlerbewegung. a> (li.) trifft Verteidigungsminister Scharon in Israel, Mai 1982 Während einer israelischen Militärintervention im Süd-Libanon verübten im Rahmen des libanesischen Bürgerkriegs die mit Israel lose verbündeten libanesisch-christlichen Falange-Milizen 1982 in den palästinensischen Flüchtlingslagern Sabra und Schatila ein Massaker an palästinensischen Kämpfern und Zivilisten. Ein israelischer Untersuchungsausschuss, die Kahan-Kommission, gab 460 Opfer als gesichert an und ging aufgrund von Geheimdienstinformationen von etwa 800 zivilen und militärischen Opfern aus, während der Palästinensische Rote Halbmond von 2000 Opfern spricht. An Israels indirekter Beteiligung als seinerzeitige militärische Besatzungsmacht, die nicht einschritt, entzündete sich nationale und vor allem internationale Empörung. Die Kommission warf Scharon zwar nicht Komplizenschaft, aber doch fahrlässiges Unterlassen vor und befand ihn daher 1983 als politisch indirekt mitschuldig, wodurch er als Verteidigungsminister zum Rücktritt gezwungen wurde. In den folgenden Kabinetten blieb Scharon zunächst Minister ohne Geschäftsbereich (1983–1984), von 1984 bis 1990 Minister für Handel und Industrie und Bauminister (1990–1992). In dieser Zeit entwickelte er weitreichende israelische Siedlungspläne im palästinensischen Westjordanland mit dem umstrittenen Siedlungsring um Ostjerusalem, zu dem auch Ma'ale Adumim gehört. Nach dem Regierungswechsel 1992, bei dem die Arbeitspartei unter Jitzchak Rabin den Likud ablöste, war Scharon Mitglied der Knesset. Dort gehörte er der außenpolitischen und der Verteidigungskommission an. Als schärfster innenpolitischer Gegner Rabins kritisierte Scharon Rabin wegen des Oslo-Friedensprozesses als Verräter. 1996, im Jahr nach der Ermordung Rabins, errang der Likud unter Benjamin Netanjahu einen neuen Wahlsieg; Scharon wurde Minister für die nationale Infrastruktur und förderte in dieser Funktion massiv den Ausbau der israelischen Siedlungen in den besetzten Palästinensergebieten. 1998 ernannte Netanjahu Scharon zum Außenminister. In diesem Amt fordert Scharon seine Landsleute auf, sich in den besetzten Gebieten „so viele Berggipfel wie möglich zu nehmen“. 1999 besiegte die Arbeitspartei unter Ehud Barak den Likud, dessen Vorsitzender Netanjahu in den Strudel einer Finanzaffäre geraten war. Netanjahu trat als Parteichef zurück und Scharon wurde am 27. Mai 1999 zunächst übergangsweise, am 2. September 1999 mit 53 % der abgegebenen Stimmen dann endgültig sein Nachfolger. Am 28. September 2000 besuchte Scharon in Begleitung von rund 1000 Journalisten, Polizisten, Militärs und Politikern, den sowohl von Muslimen als auch von Juden und Christen als heilig deklarierten Tempelberg in Jerusalem, um zu verdeutlichen, dass der Tempelberg auch den Juden gehört. Er wollte damit auch deutlich machen, dass Israel die Kontrolle über ein vereinigtes Jerusalem an jedem Ort behalten müsse. Bei seinem Besuch, begleitet von zahlreichen bewaffneten Sicherheitskräften, sagte Scharon, er sei mit einer Friedensbotschaft gekommen: „Ich bin überzeugt, dass wir mit den Palästinensern zusammenleben können.“ Obwohl der Besuch mit der moslemischen Verwaltung des Tempelbergs abgestimmt war, kam es zu gewalttätigen Auseinandersetzungen; bei Demonstrationen im Anschluss wurde auch mit scharfer Munition auf Demonstranten geschossen und etliche verletzt und getötet. Der Tempelbergbesuch Scharons fällt zeitlich mit dem Beginn der Zweiten Intifada zusammen, welche nach arabischer Lesart durch diesen ausgelöst wurde, sich aber in jedem Fall schon seit längerer Zeit angekündigt hatte. Die Palästinenser bezeichnen die zweite Intifada auch als "„Al-Aqsa“"-Intifada, benannt nach der gleichnamigen Moschee auf dem Tempelberg. Es gab auch schon unmittelbar davor Anschläge und Pläne der bewaffneten Palästinenser-Gruppen für den bewaffneten Aufstand. Premierminister. Scharon gewann am 6. Februar 2001 die Wahl um das Ministerpräsidentenamt und wurde daraufhin am 7. März 2001 Israels Premierminister. Besonders populär war bei den Wählern sein Versprechen, dem Sicherheitsbedürfnis der israelischen Bevölkerung höchste Priorität einzuräumen und den Terror zu beenden. Dieses Versprechen konnte er allerdings während seiner Amtszeit nicht erfüllen. Scharon lehnte Jassir Arafat als Gesprächspartner auf palästinensischer Seite ab, warf ihm Urheberschaft am Terror vor, isolierte Arafat international und stellte ihn in der weitestgehend zerstörten Muqataa unter Hausarrest. Bei der Wahl 2003 erreichte Scharon mit seiner Likud-Partei einen großen Wahlerfolg. In der zweiten Amtszeit von Scharons Regierung wurde mit der Errichtung einer 720 km langen Sperranlage teilweise inmitten der Palästinensergebiete begonnen, die über eine Distanz von 20 km mit Beton verstärkt und deren internationaler rechtlicher Status äußerst umstritten ist. Am 23. März 2004 kündigte die Hamas zum wiederholten Male und als Reaktion auf die gezielte Tötung ihres Führers Ahmad Yasins an, Scharon ermorden zu wollen. Nur wenige Tage nach der Tötung Yasins geriet Scharon erneut unter Druck. Abgeordnete der Schinui-Partei, die an der Regierung beteiligt waren, forderten Scharons Rücktritt. Am 28. März hatte die Generalstaatsanwältin Edna Arbel bekanntgegeben, dass sie gegen Scharon und seine Söhne Anklage wegen Korruption erheben wollte. Mitte Juni 2004, entschied der israelische Generalstaatsanwalt Menachem Masus nach monatelangen Ermittlungen, Regierungschef Scharon nicht anzuklagen. Da der Verdacht nicht zu erhärten war und somit eine Verurteilung unwahrscheinlich erschien, wurde das Verfahren eingestellt. Scharon hatte gleichzeitig mit Masus auch einen anderen Konflikt: Dieser hatte Scharon öffentlich getadelt, da Scharon in Bezug auf das Westjordanland und den Gazastreifen von den "„besetzten Gebieten“" sprach – abweichend vom offiziellen israelischen Sprachgebrauch, der "„umstrittene Gebiete“" verwendet. Scharon legte trotz des schwebenden Ermittlungsverfahrens keinen gesteigerten Wert auf ein entspanntes Verhältnis zum Chefankläger und bestand weiterhin auf seiner Wortwahl. Im Dezember 2003 legte Scharon den als „Scharon-Plan“ bekannten einseitigen Abzugsplan aus dem Gazastreifen und Teilen des Westjordanlandes vor, wonach alle Siedlungen im Gazastreifen und vier im Westjordanland aufgelöst werden sollten. Trotz internationaler Kritik an der fehlenden Abstimmung mit den Palästinensern sahen viele diesen Plan als Schritt in die richtige Richtung und Abkehr von der bisherigen Siedlungspolitik Israels. Andere sahen darin nur die Einsicht, dass der militärische Aufwand, die Siedlungen in Gaza zu halten, auf Dauer nicht tragbar war. Der Plan kostete Scharon Sympathien bei der Siedlungsbewegung und der politischen Rechten Israels, brachte ihm aber Zustimmung im gemäßigten und linken Spektrum sowie bei internationalen Bündnispartnern. Um den Plan, der seiner früheren Politik widersprach, durchzusetzen, beendete er die Koalition mit Schinui und Schas und ging eine Große Koalition mit der Arbeitspartei ein. Innerparteilich hatte er einen Machtkampf mit den Gegnern des Plans unter Finanzminister Benjamin Netanjahu zu bestehen, der im August 2005 kurz vor Vollzug des Gaza-Abzugs von seinem Amt zurücktrat. Am 21. November 2005 kündigte Scharon seinen Rücktritt als Premierminister und den Austritt aus dem Likud an. Nachdem der Widerstand im Likud gegen den Abzug gewachsen war, hatte er im selben Monat eine neue Partei mit dem Namen Kadima („Vorwärts“) gegründet, die bei den folgenden Neuwahlen ihre gute Chance nutzte. Erkrankung, Koma und Tod. Am 18. Dezember 2005 erlitt Scharon einen leichten Schlaganfall. Danach wurde ein offenbar angeborener Herzfehler entdeckt, der am 5. Januar 2006 operiert werden sollte. Am Vorabend der Operation wurden starke Hirnblutungen festgestellt, Scharon musste sich in den nächsten Tagen mehreren neurochirurgischen Operationen unterziehen. Die Regierungsgeschäfte wurden an den stellvertretenden Ministerpräsidenten Ehud Olmert übertragen. Bei Tests am 14. Januar wurden zwar Gehirnaktivitäten in beiden Hirnhälften gemessen, es gab jedoch keine Anzeichen für ein Erwachen aus dem Koma. Es galt als sicher, dass Scharon sein Amt nicht mehr würde ausüben können. Dies brachte eine schwierige Situation für die israelische Politik mit sich, da insbesondere die in den letzten Jahren verfolgte Politik gegenüber den Palästinensern und die neue Partei Kadima eng mit der Person Scharons verbunden waren. In der israelischen Öffentlichkeit wurde Kritik an der medizinischen Versorgung Scharons laut; man hätte ihm demnach nicht gestatten sollen, ohne ärztliche Begleitung auf seine abgelegene Farm zurückzukehren. Ein Journalist der Zeitung Ha'aretz formulierte: "„Israel hat nun zwei Ministerpräsidenten verloren, weil sie nicht ausreichend geschützt wurden: Rabin durch Gewalt und Scharon durch Krankheit.“" Am 11. Februar 2006 entschieden sich die Ärzte zu einer weiteren Notoperation, nachdem Untersuchungen Schäden am Verdauungstrakt des Politikers und Probleme bei der Blutversorgung der inneren Organe gezeigt hatten. Erklärungen der behandelnden Ärzte zufolge sei Scharons Zustand nach der Operation „kritisch, aber stabil“. Anfang April 2006 erfolgte ein weiterer chirurgischer Eingriff zur Schließung der Schädelöffnungen, die durch die vorherigen Operationen verursacht worden waren. Am 11. April 2006 beschloss das israelische Kabinett, Scharon für dauerhaft amtsunfähig zu erklären. Sein Nachfolger im Ministerpräsidentenamt wurde sein Stellvertreter Ehud Olmert. Ariel Scharon wurde als Wachkoma-Patient auf die Rehabilitationsstation des Chaim Sheba Medical Center, einem Krankenhaus in Tel Hashomer bei Ramat Gan in der Nähe von Tel Aviv, verlegt. Sein langjähriger Berater Dov Weisglass sagte am 21. April 2008 der "Jerusalem Post", Scharons Zustand habe sich wenig verändert. Scharon atme ohne die Hilfe medizinischer Geräte und könne nach dem Urteil der Ärzte wahrscheinlich noch lange in diesem Zustand bleiben. Im November 2010 wurde Scharon versuchsweise für einige Tage auf seine Farm im Süden Israels verlegt. Im Oktober 2010 wurde Scharons Zustand durch eine Installation des israelischen Künstlers Noam Braslavsky in der Kishon-Galerie in Tel-Aviv, die eine lebensechte Wachsfigur Scharons in einem Krankenbett zeigt, erneut in die Öffentlichkeit gerückt. Da die Installation an ein Beatmungsgerät angeschlossen ist, hebt und senkt sich der Brustkorb, wodurch die Szene noch realitätsgetreuer wirkt. a> beim Staatsbegräbnis für Ariel Scharon am 13. Januar 2014 Im Januar 2011 sagte sein persönlicher Arzt, Scharon reagiere auf Kneifen und öffne die Augen, wenn man ihn anspreche. Am 2. Januar 2014 wurde bekannt, dass mehrere innere Organe versagt hätten und Scharon in Lebensgefahr schwebe. Ariel Scharon verstarb schließlich im Alter von 85 Jahren am 11. Januar 2014 an multiplem Organversagen in jenem Krankenhaus bei Ramat Gan, in dem er seit 2006 behandelt wurde. Sharon wurde in einem Staatsbegräbnis im Beisein von hochrangigen ausländischen Politikern wie US-Vizepräsident Joe Biden, dem ehemaligen britischen Premier Tony Blair, dem Ex-Ministerpräsidenten der Niederlande Wim Kok, dem russischen Außenminister Sergei Lawrow, Tschechiens Ministerpräsident Jiří Rusnok und Deutschlands Außenminister Frank-Walter Steinmeier beigesetzt. Er wurde am 13. Januar 2014 neben seiner zweiten Frau Lily auf der Familienfarm "Havat Shikmim" begraben, die im Norden der Wüste Negev nahe Sderot liegt. Die Gräber von Ariel und Lily Scharon. Politische Bedeutung. Scharon war Parteivorsitzender des Likud und Gründer von deren Abspaltung Kadima. Vor seiner Zeit als Regierungschef hatte er verschiedene Ministerposten inne. So war Scharon Landwirtschaftsminister, zweimal Verteidigungsminister sowie Außenminister. Nach seinem Schlaganfall Ende 2005 musste er im April 2006 als Ministerpräsident für amtsunfähig erklärt werden. Der ehemalige General hat aufgrund seiner Biografie und seines politischen Wirkens eine stark polarisierende Wirkung. Insbesondere in Israel betrachten ihn viele als Helden, der den Staat vom Unabhängigkeitskrieg an stets bedeutend mitgeprägt hat. In weiten Teilen der arabischen und auch internationalen Öffentlichkeit wird sein Bild jedoch vor allem durch den Vorwurf der Mitverantwortung am Massaker von Sabra und Schatila und sein Image als militärischer Hardliner getrübt. 2005 setzte er die Aufgabe der israelischen Siedlungen auf dem Gazastreifen durch. Unter anderem deswegen sind seine Gegner in der israelischen Rechten der Meinung, er sei als Ministerpräsident den Palästinensern gegenüber viel zu kompromissbereit gewesen. Zahlreiche hochrangige Politiker würdigten im Januar 2014 seine Verdienste. US-Präsident Barack Obama bezeichnete Scharon als jemanden, der dem Staat Israel sein Leben gewidmet habe. Bundeskanzlerin Angela Merkel würdigte Scharon als Patrioten mit großen Verdiensten für sein Land. Département Alpes-Maritimes. Das Département Alpes-Maritimes ist das französische Département mit der Ordnungsnummer 06. Es liegt im Südosten des Landes in der Region Provence-Alpes-Côte d’Azur und ist nach den Seealpen benannt, die in seinem Gebiet das Grenzgebirge zu Italien bilden. Geographie. Das Département ist Teil der Provence und reicht von der Côte d’Azur bis in das alpine Hinterland. Es grenzt in Westen an das Département Var, im Nordwesten an das Département Alpes-de-Haute-Provence, im Osten und Norden an Italien (Piemont und Ligurien) und im Süden an das Mittelmeer, wo es das Fürstentum Monaco umschließt. Hauptstadt ist Nizza, weitere bekannte Städte sind Cannes und Grasse. Wappen. Beschreibung: In Silber auf schwarzem Dreiberg mit blauen Wellen ein roter Adler mit gleichgefärbter Krone. Geschichte. Die Römer hatten bereits im Jahr 7 v. Chr. eine Provinz Alpes Maritimae gegründet. Deren Hauptstadt war "Cemenelum", heute Cimiez, ein Ortsteil von Nizza. Während ihrer größten Ausdehnung Ende des 3. Jahrhunderts umfasste die Provinz auch Digne und Briançon, ihre Hauptstadt war nach Embrun verlegt worden. Ein Département Alpes-Maritimes mit der Hauptstadt Nizza existierte in Frankreich bereits von 1793 bis 1815. Dessen Grenzen unterschieden sich von denen des heutigen Départements, zumal es Monaco und Sanremo umfasste. Das aktuelle Département Alpes-Maritimes wurde 1860 geschaffen, als die Grafschaft Nizza zu Frankreich kam. Es wurde aus der Grafschaft, die das Arrondissement Nizza bildete, und einem Teil des Départements Var, die das Arrondissement Grasse bildete, geformt. Letzteres erklärt, warum der Fluss Var das gleichnamige Départment nicht durchfließt: Er bildete zuvor die Grenze zwischen Frankreich und der Grafschaft Nizza, heute jedoch die Grenze zwischen den beiden Arrondissements. 1947 wurde das Territorium des Départements Alpes-Maritimes um die Gemeinden Tende und La Brigue erweitert, deren Einwohner im gleichen Jahr in einem Referendum für den Anschluss an Frankreich votiert hatten und demzufolge Italien die beiden Dörfer abtreten musste. So ging auch endgültig das Schisma der Provence, das mit der Abtrennung von Nizza und dessen Territorium im Jahre 1388 entstanden war, zu Ende. Die ursprünglichen provenzalischen (bzw. okzitanischen) Ortsnamen und andere geografische Namen (die während der Zugehörigkeit an dem Haus Savoyen italianisiert waren) wurden beim Anschluss der Grafschaft Nizza an Frankreich - anders als das auf Korsika der Fall war - weitestgehend frankophonisiert, so auch die im letzten Abschnitt genannten Gemeinden. Eine Ausnahme könnte die Gemeinde Isola darstellen. Auch von Nizza ist neben dem französischen "Nice" noch die italienische Bezeichnung bekannt, jedoch örtlich nicht gebräuchlich. Darüber hinaus sind auch im vom Département umgebenen Fürstentum Monaco die Stadtbezirke Monte-Carlo, Larvotto, Les Moneghetti in ihrer italienischen Schreibweise erhalten geblieben. Sprache. Die amtliche Sprache ist Französisch. Bedingt durch die Geschichte der Grafschaft Nizza, die zwischen 1388 und 1860 von der Provence verwaltungsmäßig abgetrennt war, wird noch in Nizza und Umgebung ein Dialekt der provenzalischen bzw. okzitanischen Sprache gesprochen, welche eine altprovenzalische Form hat und Nissart genannt wird. In den alpinen Teilen des Département (nördlich) wird Alpinprovenzalisch (Gavot) und Brigasque gesprochen, während im Westen das Maritimprovenzalische noch zu hören ist. Wandern. Das Département ist im Norden von den Seealpen mit dem südlichsten Dreitausender der Alpen (Mont Clapier 3045 m und der "Cime du Gélas" 3143 m), im Osten von den Ligurischen Alpen und im Westen durch die provenzalischen Voralpen begrenzt. Dadurch bietet sich im Gebiet Vallée du Verdon, Vallée de la Tinée, Vallée du Var, Vallée de l'Estéron, Vallée du Cians, Vallée de la Vésubie und Vallée de la Roya hervorragende Wandermöglichkeiten. Mehrere große französische GR-Fernwanderwege, "Sentiers de grande randonnée", durchziehen das Département (GR 4, GR 5, GR 52, GR 52A und die Via Alpina) und führen zum Teil auch durch den Nationalpark Mercantour. Wintersport. Bekannte Wintersportorte sind Isola 2000, Auron, Beuil, Valberg, Peira-Cava und Camp d'Argent am Col de Turini. Klima. Messstation: Cap Ferrat, 200 Meter vom Meer entfernt Einzelnachweise. Alpesmaritimes Amphore. Eine Amphore bzw. Amphora (von altgriechisch "amphoreus" ‚zweihenkliges Tongefäß‘; gebildet aus "amphí" ‚auf beiden Seiten‘ sowie "phérein" ‚tragen‘) ist ein bauchiges enghalsiges Gefäß mit zwei Henkeln meist aus Ton, aber auch aus Metall (Bronze, Silber, Gold). Durch zwei Henkel sollte ursprünglich das Tragen erleichtert werden. Amphoren sind zu den antiken Vasen zu zählen. Die Amphora ist auch eine Maßeinheit. Das Volumen als römisches Hohlmaß beträgt einen römischen Kubikfuß, das sind etwa 26,026 l. Verwendung. Amphoren wurden in der Antike als Vorrats- und Transportgefäße unter anderem für Öl, Oliven und Wein sowie für Honig, Milch, Getreide, Garum, Südfrüchte wie Datteln und anderes benutzt. Sie wurden in jenen Regionen hergestellt, in denen die Transportgüter erzeugt wurden, also etwa dort, wo Wein- oder Olivenanbau stattfand. Je nach Inhalt ist das Volumen unterschiedlich, Fassungsvermögen betragen zwischen 5 und 50 Liter. Häufig wurden sie als Einwegbehälter nach dem Transport weggeworfen, so besteht der Monte Testaccio in Rom zu großen Teilen aus Amphorenscherben. Andere Exemplare fanden eine neue Verwendung, etwa als Urne bei Brandbestattungen oder zur Abdeckung der Toten bei Körpergräbern. Heute werden Amphoren nur mehr zu Zierzwecken, beispielsweise als Vase, hergestellt. Eine besondere Rolle spielt die Amphore bis heute bei der Herstellung spezieller Weine, dem sogenannten „Amphorenwein“. Dieser Ausbau ist vor allem bei „biodynamischen Weinen“ beliebt, aber auch geschwefelte Weine aus Georgien werden häufig in speziellen Amphoren ausgebaut. Siehe auch: Quevri-Wein. Archäologische Bedeutung. Ein Wandel der Formen sowie häufige Aufschriften bieten Datierungsmöglichkeiten. Absolut datierbare Funde aus Schiffswracks und anderen geschlossenen Funden erlauben eine zeitliche Einordnung. Die Chronologie der vorrömischen Eisenzeit Mitteleuropas bezieht auch die Amphorenchronologie mit ein. Da Herkunft und Inhalt vieler Amphorenformen bekannt sind, erlauben archäologische Funde darüber hinaus die Rekonstruktion von Handelsverbindungen. Zahlreiche Amphoren weisen auch Amphorenstempel auf. Griechische Amphoren. a> (liegend), München, Staatliche Antikensammlung 2301 A (um 520 v. Chr.) Bauchamphora (ca. 640–450 v. Chr.). Die Bauchamphora hat im Gegensatz zur Halsamphora keinen abgesetzten Hals, vielmehr geht der Bauch in einer Rundung in den Hals über. Ab der Mitte des 5. Jahrhunderts wurde sie kaum noch hergestellt. Die Pelike ist eine Sonderform der Bauchamphora. Bei ihr ist der Bauch nach unten versetzt, der größte Durchmesser liegt also im unteren Bereich des Vasenkörpers. Die Pelike wurde erstmals am Ende des sechsten Jahrhunderts erschaffen. Panathenäische Preisamphoren. Eine Sonderform sind die Panathenäische Preisamphoren mit schwarzfiguriger Bemalung, die zum athenischen Panathenäenfest hergestellt wurden und – offenbar aus kultischen Gründen – die schwarzfigurige Malweise noch jahrhundertelang nach ‚Erfindung‘ der rotfigurigen Malweise beibehielten. Allgemeines. Römische Amphoren dienten vorwiegend zum Transport und zur Lagerung von Grundnahrungsmitteln wie Olivenöl, Wein, Fischsaucen, Früchten und Getreide. Die Kapazität lag häufig bei 25 bis 26 Litern, was erklärt, dass der Begriff "amphora" sich im Laufe der Zeit zu einer wichtigen Maßeinheit für Flüssigkeiten wandelte (26,2 l). Große bauchige Olivenölamphoren aus der Baetica vom Typ "Dressel 20" konnten mit einem Inhalt von 70 l bisweilen auch ein Gesamtgewicht von 100 kg erreichen. Gelegentlich sind Stempel auf diesen angebracht worden, wobei die Forschung unsicher ist, ob diese von den Töpfereien der Amphoren oder vom Produzenten des Olivenöls aufgebracht wurden. Wie die aufgemalten oder eingeritzten Zahlen und Buchstaben ("graffiti" bzw. "tituli picti") sind sie eine bedeutende epigraphische Quelle zur Wirtschaftsgeschichte. Kategorisierung. Der deutsche Archäologe Heinrich Dressel kategorisierte Ende des 19. Jahrhunderts die zu seiner Zeit bekannten Amphoren. Die von ihm benannten Typen tragen seinen Namen, ergänzt um eine numerische Bezeichnung, die den Amphorentyp markiert (siehe Bildbeispiel "Dressel 1B"). Dressels Arbeit entstand unter anderem aus der Beschäftigung mit stadtrömischen Funden, darunter mit dem Monte Testaccio einer der größten Fundkomplexe römischer Amphoren, und wurde aufgrund der Kleininschriften im "Corpus Inscriptionum Latinarum" veröffentlicht. Weitere römische Amphorentypen sind nach Forschern wie dem italienischen Unterwasserarchäologen Nino Lamboglia oder Fundorten wie Augst benannt. Ähnliche Formen. Antiken Amphoren ähnlich sind der Amphoriskos und die Pithos. Akustikkoppler. Der Akustikkoppler ist ein Gerät zur Übertragung von digitalen Daten über eine analoge Teilnehmeranschlussleitung. Akustikkoppler wurden in den 1970er bis gegen Ende der 1980er Jahre verwendet und erlauben die Datenübertragung über den Hörer von Fernsprechtischapparaten. Bei einem Akustikkoppler ist keine elektrische Verbindung mit dem Festnetzanschluss nötig, die in vielen Ländern und bei vielen Netzbetreibern nicht erlaubt war. Funktionsweise. Akustikkoppler kommen zum Einsatz, wenn kein analoges Modem zur Verfügung steht oder eine elektrische Verbindung des Modems mit dem Telefonnetz nicht möglich oder erlaubt ist. Akustikkoppler nutzen den Telefonhörer eines bestehenden Telefons zum Senden und Empfangen der modulierten Tonsignale. Sie verfügen dazu über ein Mikrofon und einen Lautsprecher, die an den entsprechenden Gegenstücken im Telefonhörer befestigt werden. Akustikkoppler mit serieller Schnittstelle "Dataphon s21d" (1984) Aufgrund ihrer Bauart sind Akustikkoppler störanfällig gegenüber externen Geräuschen und abhängig von der Qualität des Telefons bzw. des Telefonhörers. Aufgrund des unvermeidlichen Verlusts an Signalqualität durch den akustischen Übertragungsschritt erreichen Akustikkoppler nicht die Datenübertragungsraten der direkten elektrischen Verbindung des Modems mit dem Telefonnetz. Bei älteren Akustikkopplern reichen die Übertragungsraten nur von 300 bis 2.400 s. Spätere Modelle, zum Beispiel "Konexx Coupler" oder "Road Warrior Telecoupler II", erreichen in der Praxis Datenübertragungsraten bis zu 33.600 Bit/s; damit ist etwa das Abholen von E-Mails aus einer Telefonzelle in vertretbarer Zeit möglich. Rechtliche Situation. a>In den 1980er-Jahren war der Betrieb von selbst gebauten Akustikkopplern im Telefonnetz der Deutschen Bundespost illegal und mit hohen Geldstrafen belegt. Trotzdem nahm die Zahl der selbst gebauten Geräte deutlich zu, nachdem der Chaos Computer Club 1985 in der Hackerbibel eine vergleichsweise einfach zu realisierende Bauanleitung für einen Selbstbau-Akustikkoppler – das sogenannte „Datenklo“ – veröffentlicht hatte. Parallel zu den Akustikkopplern wurden auch die ersten direkt mit der Telefonleitung verbundenen Modems verfügbar. Auch hier war der Anschluss frei erhältlicher Geräte an das deutsche Telefonnetz verboten; die Post erlaubte in ihrem Netz nur die Verwendung Post-eigener Modems, die entweder monatlich gemietet oder zu – im Vergleich mit frei erhältlichen Geräten – überteuerten Preisen von der Post gekauft werden mussten. Sonstiges. Akustikkoppler werden im deutschen Sprachraum gelegentlich auch als "Datenfön" bezeichnet, nach der einst populären "Dataphon"-Baureihe S21 der Firma Woerltronic aus Cadolzburg. Akronym. Ein Akronym (auch: Initialwort) (von altgriechisch "ákros" „Spitze, Rand“ bzw. als Adjektiv „ausgezeichnet, trefflichster“ sowie "ónoma" „Name“) ist ein Sonderfall der Abkürzung. Akronyme entstehen dadurch, dass Wörter oder Wortgruppen auf ihre Anfangsbestandteile gekürzt werden. Definitionen. Den großen Wörterbüchern des Deutschen zufolge, z. B. Duden und Wahrig, ist ein Akronym ein Kurzwort, das aus den Anfangsbuchstaben mehrerer Wörter zusammengesetzt ist, wobei "EDV" (elektronische Datenverarbeitung) als Beispiel genannt wird. "ADAC", "PC" und "TÜV" sind demnach Akronyme, da sie aus den Anfangsbuchstaben der ihnen zugrunde liegenden Ausdrücke bestehen. Keine Akronyme sind Abkürzungen wie "Abk.", "lt.", "Betr." oder "kpl." In Fachlexika der Linguistik finden sich weitere Definitionen: „Aus den Anfangsbuchstaben oder -silben einer Wortgruppe oder eines Kompositums gebildete Abkürzung, die als Wort verwendet wird.“ Die Sprachwissenschaftlerin Hadumod Bußmann definiert den Begriff entsprechend. Anders als in der ersten Definition werden hier also nicht nur Anfangsbuchstaben, sondern auch (gekürzte) Anfangssilben berücksichtigt. Initialwort. Duden, Wahrig sowie Bußmann und Glück behandeln "Initialwort" als Synonym für "Akronym". Nach Duden und Wahrig ist ein Initialwort damit eine Sonderform des Buchstabenworts (siehe unten), die sich nur aus den Anfangsbuchstaben, also den Initialen der Wörter, zusammensetzt. So steht zum Beispiel das Initialwort LASER für '. Nach Bußmann und Glück ist auch das Silbenkurzwort ein Akronym. Es können auch Namen als Grundlage für Initialwörter eingesetzt werden. Bei der nach Axel Lennart Wenner-Gren benannten "Alwegbahn" war zudem eine Assoziation mit „alle Wege“ durchaus beabsichtigt. Silbenkurzwort. "Silbenkurzwörter" (auch Silbenwörter) sind Abkürzungen, die aus den Anfangssilben der zugrundeliegenden Ausdrücke bestehen: Kripo für Kriminalpolizei, Trafo für Transformator, Elko für Elektrolytkondensator. Diese sind verwandt mit den Kopfwörtern, wie Auto für Automobil oder Akku für Akkumulator, und den Schwanzwörtern, wie Bus für Omnibus. Eine ähnliche Kurzwortform wird aus dem Anfang mehrerer Wörter gebildet. Zum Beispiel steht "Haribo" für Hans Riegel aus Bonn (Süßwarenhersteller) sowie "Chipitts" für die Region um die Städte Chicago und Pittsburg in den USA. Hierbei werden oft Zusammensetzungen genutzt, die gut zu sprechen sind. Apronym. Sehr beliebt sind Apronyme als Namen für EU-Förderprogramme oder US-amerikanische Gesetze. Als Beispiel sei der USA PATRIOT Act genannt; die Abkürzung steht für '. Mehrschichtiges Akronym. Ein Akronym kann mehrschichtig (verschachtelt) sein. Ein Beispiel hierfür ist BDSM: B&D, D&S, S&M stehen für '. Den Akronymen ähnliche Wortformen. Es gibt verschiedene Wortformen, die den Akronymen ähneln, ohne dass sie einer der beiden angegebenen Definitionen genügen. Buchstabenwort/Buchstabenkurzwort. Ein Buchstabenwort ähnelt dem Initialwort, setzt sich aber aus beliebigen Einzelbuchstaben der Vollform der Wörter zusammen: zum Beispiel DAX als Abkürzung für Deutscher Aktienindex, wo der letzte Buchstabe des gekürzten Ausgangswortes berücksichtigt ist. Schreibweise. Die Schreibweise von Akronymen besteht meist aus einer Aneinanderreihung von Großbuchstaben. Bei Akronymen, die wie ein Wort ausgesprochen werden, hat sich aber im Lauf der Zeit auch eine Schreibweise entwickelt, die derjenigen normaler Substantive gleicht (z. B. "Radar, Laser, Aids, Nato, Unicef;" nicht aber "KKW, SMS, HIV, USA"). Da Akronyme ohne Punkt geschrieben werden, ist in solchen Fällen weder durch die Aussprache noch durch das Schriftbild erkennbar, dass es sich ursprünglich um ein Kunstwort handelt; jedoch widerspiegelt sich dadurch die Aussprache im Schriftbild. Akronyme in der Chat-Sprache. Im Internet werden Akronyme häufig verwendet, um eine Handlung oder eine Gemütslage auszudrücken. So ist LOL (Laughing Out Loud) die Bezeichnung, wenn ein Chatter lachen muss. ROFL (') ist noch eine Steigerung, in dem Fall kann sich der Chatter vor Lachen kaum noch halten. Wie diese beiden Beispiele werden die meisten Chat-Akronyme aus der englischen Sprache übernommen. Ein weiteres häufig verwendetes Akronym ist AFK (') und wird häufig nach dem eigenen Nickname verwendet, um längere Abwesenheiten zu zeigen. Auch in Foren häufig verwendet werden IMHO (') und AFAIK ('). Begriffe wie „cu“ oder „l8r“ sind keine Akronyme, sondern homophone Abkürzungen, das heißt, sie klingen gelesen wie der auszudrückende Satz (', '), sind aber keine Initialworte. Akronyme im WWW. Um auf Webseiten Wörter als Abkürzungen zu markieren, stehen die zwei HTML-Elemente codice_1 (von englisch ' „Abkürzung“) und codice_2 zur Verfügung. Screenreader erkennen diese Elemente. Sie brauchen also nicht mehr zu „raten“, ob es sich bei einem Wort um eine Abkürzung handelt, sondern passen die Aussprache entsprechend an. Beiden Elementen kann zugewiesen werden, wofür die Abkürzung steht. Dies kann dann von einem Vorleseprogramm (engl. "screen reader") anstelle der Kurzform wiedergegeben werden. Die Wahl zwischen codice_1 und codice_2 gibt dem Programm einen Hinweis darauf, ob die Abkürzung als Wort – codice_2 – oder in einzelnen Buchstaben – codice_1 – vorgelesen werden sollte. Vom World Wide Web Consortium wird empfohlen, vorrangig codice_1 zu benutzen. Diese Vereinfachung geht allerdings auf Kosten der Barrierefreiheit. Akronyme, die eigentlich als Wort gesprochen werden sollten, werden nicht mehr als solche erkannt. Anwendungsbeispiele. Die Abkürzungen werden mittels Start- und End-Tags als Elemente ausgezeichnet. Mit dem codice_8-Attribut wird die Bedeutung angegeben. Für Vorlesprogramme, die nicht darauf eingestellt sind, die Bedeutung vorzulesen, spielt die Wahl des Elements eine Rolle. Der Rechner liest „Haa Tee Emm El“ vor. NASA Durch die Auszeichnung als codice_2 liest der Screenreader „Nasa“ und nicht „Enn Aa Ess Aa“ vor. Besondere Aspekte der Verwendung von Akronymen. Generell gilt, dass Kurzwörter, also auch Akronyme, bedeutungsgleich mit den Ausdrücken verwendet werden, die ihnen zugrunde liegen (= Vollformen). Abweichend davon kann der Plural auch mit "-s" gebildet werden. Auch die Wortbildung eröffnet bei Akronymen besondere Möglichkeiten: So kann man eine "-ler"-Ableitung bilden, die bei der Vollform nicht möglich ist: "CDUler." Das Prinzip der Gleichwertigkeit von Vollform und Akronym hinsichtlich ihrer Bedeutung setzt jedoch voraus, dass dem Verwender die Vollform auch bekannt ist. Wenn dies nicht der Fall ist, kann es zu Bedeutungswandel und Lexikalisierung kommen. Lexikalisierungstendenzen zeigen sich zum Beispiel bei der Bezeichnung "BAföG," das meist als monetäre Leistung und nicht länger als das dahinter stehende "Bundesausbildungsförderungsgesetz" verstanden wird. Ähnlich verläuft es bei der „SMS“: „SMS“ bedeutet ' und beschreibt den Dienst, der das Versenden von Kurzmitteilungen ermöglicht. Die Nachricht selbst wäre also eher eine „SM“ (oder „Kurznachricht“). Trotzdem hat es sich eingebürgert, als „SMS“ die Nachricht zu bezeichnen, zumal die korrekte Abkürzung („SM“) im allgemeinen Sprachgebrauch schon vergeben ist. Redundantes Akronym. Es gibt Kritiker, die Wortbildungen wie "LCD-Display" ablehnen, da das „D“ in der Abkürzung bereits für ' steht ('). Ähnlich verhält es sich mit dem HIV-Virus, wo das „V“ bereits für „Virus“ steht, der ABM-Maßnahme (ABM = Arbeitsbeschaffungsmaßnahme), dem CSS-Stylesheet (CSS = Cascading Style Sheet), dem PDF-Format (PDF = Portable Document Format) oder der PIN-Nummer (PIN = Persönliche Identifikationsnummer). Im Englischen wird diese Redundanz rekursiv als „RAS-Syndrom“ ("Redundantes-Akronym-Syndrom-Syndrom") bezeichnet. Diese Verdopplungen können rhetorisch als Tautologie (als Aussage) beziehungsweise als Pleonasmus (als Ausdruck) gesehen werden. Amnesty International. Amnesty International (von ‚ Begnadigung, Straferlass, Amnestie) ist eine nichtstaatliche (NGO) und Non-Profit-Organisation, die sich weltweit für Menschenrechte einsetzt. Grundlage ihrer Arbeit sind die Allgemeine Erklärung der Menschenrechte und andere Menschenrechtsdokumente, wie beispielsweise der Internationale Pakt über bürgerliche und politische Rechte und der Internationale Pakt über wirtschaftliche, soziale und kulturelle Rechte. Die Organisation recherchiert Menschenrechtsverletzungen, betreibt Öffentlichkeits- und Lobbyarbeit und organisiert unter anderem Brief- und Unterschriftenaktionen für alle Bereiche ihrer Tätigkeit. Gründung der Internationalen Organisation. a> anlässlich des 20-jährigen Bestehens von AI 1981 Amnesty International wurde 1961 in London von dem englischen Rechtsanwalt Peter Benenson gegründet. Ihm soll die Idee zur Gründung gekommen sein, als er in der Zeitung zum wiederholten Mal von Folterungen und gewaltsamer Unterdrückung las, mit der Regierungen gegen politisch andersdenkende Menschen vorgingen. In einem 1983 geführten Interview erinnerte sich Benenson, dass der Artikel von zwei portugiesischen Studenten gehandelt habe, die in einem Restaurant in Lissabon auf die Freiheit angestoßen hatten und daraufhin zu Haftstrafen verurteilt worden waren. Nachträgliche Recherchen ergaben, dass es sich möglicherweise um eine Notiz in The Times vom 19. Dezember 1960 handelte, die allerdings keine Details über die „subversiven Aktivitäten“ der Verurteilten enthielt. Am 28. Mai 1961 veröffentlichte Benenson in der britischen Zeitung "The Observer" den Artikel „The Forgotten Prisoners“ („Die vergessenen Gefangenen“), in dem er mehrere Fälle nennt, darunter Constantin Noica, Agostinho Neto und József Mindszenty, und die Leser aufrief, sich durch Briefe an die jeweiligen Regierungen für die Freilassung dieser Gefangenen einzusetzen. Er schrieb: „Sie können Ihre Zeitung an jedem beliebigen Tag der Woche aufschlagen und Sie werden in ihr einen Bericht über jemanden finden, der irgendwo in der Welt gefangen genommen, gefoltert oder hingerichtet wird, weil seine Ansichten oder seine Religion seiner Regierung nicht gefallen.“ Die aus diesem Artikel entstandene Aktion, „Appeal for Amnesty, 1961“ gilt als der Anfang von Amnesty International. Zu den Gründungsmitgliedern gehörten Eric Baker und der irische Politiker Seán MacBride, der von 1961 bis 1974 auch Präsident der Organisation war. Das Logo von Amnesty International ist eine mit Stacheldraht umwickelte Kerze. Es wurde von der englischen Künstlerin Diana Redhouse geschaffen und durch das Sprichwort "Es ist besser, eine Kerze anzuzünden, als sich über die Dunkelheit zu beklagen" inspiriert. Die deutsche Sektion hatte bereits in den 1970er Jahren beschlossen, dieses Logo für sich nicht mehr zu verwenden. Stattdessen wurde bis 2008 ein blau-weißes Logo mit Kleinbuchstaben genutzt. In Deutschland, Österreich und der Schweiz wurde bis Mitte 2008 eine heute nicht mehr verwendete Schreibweise mit Kleinbuchstaben und Abkürzungen verwendet: amnesty international, ai oder amnesty. Mitte 2008 wurde international ein neues, einheitliches Layout eingeführt, welches die Farben Gelb und Schwarz verwendet. Das Logo enthält den Schriftzug „Amnesty International“ in Großbuchstaben und die mit Stacheldraht umwickelte Kerze. Gründung in Deutschland. Die bundesdeutsche Sektion von Amnesty International wurde Ende Juni 1961, zwei Monate nach Gründung der internationalen Organisation, von Gerd Ruge, Carola Stern und Felix Rexhausen in Köln gegründet und im Juli 1961 als erste Sektion anerkannt. Damals hieß sie „Amnestie-Appell“. Sie setzte sich zum Beispiel für in der DDR inhaftierte politische Gefangene ein. Nach dem Fall der Mauer wurde die Organisation auch in den neuen Bundesländern aktiv, wo sie bis dahin verboten war. Gründung in Österreich. Amnesty International Österreich wurde am 4. Mai 1970 gegründet. AI Österreich gehörte am 14. November 2001 zu den ersten 44 Organisationen, die das Österreichische Spendengütesiegel verliehen bekamen. Generalsekretär ist Heinz Patzelt (Stand 2013). Gründung in der Schweiz. Offiziell gegründet wurde die Schweizer Sektion 1970. Doch schon 1964 gab es die erste Sektion in Genf, deren Initiator Seán MacBride war, damaliger Generalsekretär und Mitbegründer von Amnesty International. Der erste Mitarbeiter wurde 1976 eingestellt, im Jahre 1987 waren es 14, und im Jahr 2000 schon deren 28. Derzeitige Geschäftsleiterin ist Manon Schick. Zahlen und andere Daten zur Organisation. Weltweit existierende Sektionen von Amnesty International, 2005 (52) Amnesty International zählt nach eigenen Angaben mehr als drei Millionen Mitglieder und Unterstützer in mehr als 150 Staaten. In 53 Staaten gibt es Sektionen, die eine kontinuierliche Menschenrechtsarbeit garantieren. Die größeren Sektionen unterhalten in der Regel ein Sekretariat mit hauptamtlichen Mitarbeiterinnen und Mitarbeitern. Die Sektion koordiniert die Arbeit der Mitglieder und ist die Verbindungsstelle zwischen den Gruppen und dem Internationalen Sekretariat in London. Die Sektionen entsenden Vertreter in den internationalen Rat ("International Council Meeting, ICM"), das oberste Gremium von Amnesty auf internationaler Ebene, das alle zwei Jahre zusammentritt. Der Rat legt Strategie und Arbeitsweise von Amnesty fest und wählt das Internationale Exekutivkomitee, dem die Führung der laufenden Geschäfte der Organisation obliegt. Unter der Verantwortung des Exekutivkomitees steht auch das Internationale Sekretariat in London, an dessen Spitze der Internationale Generalsekretär steht. Von 2001 bis Dezember 2009 war dies die Bengalin Irene Khan. Ihr Nachfolger ist Salil Shetty, der aus Indien stammt. Seit kurzem bemüht sich die Organisation, ihre Präsenz in Ländern des globalen Südens zu verstärken, indem dort neue Büros eingerichtet werden. Die dazu notwendige Umstrukturierung, auch im sensiblen Bereich der Recherchearbeit, ist derzeit umstritten (Stand 2013). Deutsche Sektion. Mitgliedschaft und Strukturen sind in der Satzung und einem Arbeitsrahmen geregelt. Mitglieder können sich einer Gruppe anschließen. Von Gruppen wird aktiver Einsatz durch gezielte Aktionen vor Ort, Briefeschreiben, Öffentlichkeitsarbeit und Spendeneinwerbung erwartet. Alle Mitglieder erhalten auch unabhängig von Gruppenaktivitäten Mitmachangebote. In Deutschland gibt es rund 30.000 Mitglieder, davon ca. 9000 in über 600 lokalen Gruppen, die in 43 Bezirke aufgeteilt sind. Daneben gibt es sogenannte Koordinationsgruppen, die die Arbeit zu einzelnen Ländern oder bestimmten Menschenrechtsthemen sektionsweit koordinieren. Etwa 70.000 Förderer unterstützen die Organisation durch regelmäßige Beiträge. Geleitet und nach außen vertreten wird die deutsche Sektion durch einen ehrenamtlichen Vorstand, der aus sieben Mitgliedern besteht. Vorstandssprecherin ist Gabriele Stein, die gemeinsam mit dem Vorstandsmitglied für Finanzen, Roland Vogel, den Verein gesetzlich vertritt. 1999 bezog Amnesty International Deutschland Räume im „Haus der Demokratie und Menschenrechte“ in der Greifswalder Straße in Berlin. 2012 gab das Sekretariat seinen Sitz in Bonn endgültig auf. Aus Platzgründen sind aber nur noch das Büro des Bezirks Berlin-Brandenburg sowie das Regionalbüro Ost im „Haus der Demokratie und Menschenrechte“ ansässig, das Sekretariat der Sektion befindet sich nun in der Zinnowitzer Straße. Darüber hinaus gibt es seit 2011 ein kleines Regionalbüro in München, das die Mitglieder in Süddeutschland unterstützt. Das Sekretariat der Sektion erledigt administrative Aufgaben für die Mitglieder, macht Öffentlichkeitsarbeit und übernimmt Lobby-Aufgaben. Es beschäftigt über 60 Teil- und Vollzeitkräfte und wird von Selmin Çalışkan, die im März 2013 Wolfgang Grenz ablöste, als Generalsekretärin geleitet. Einmal jährlich findet über zweieinhalb Tage zu Pfingsten die Jahresversammlung der deutschen Sektion statt. Alle Mitglieder sind antrags- und stimmberechtigt, Gruppen haben zusätzliches Stimmrecht. Förderer haben kein Stimmrecht und können nicht teilnehmen. Die Jahresversammlung wählt den siebenköpfigen, ehrenamtlichen Vorstand und beschließt Schwerpunkte der inhaltlichen Arbeit der Sektion. Die Diskussionen sind vertraulich („intern“), nur auf Beschluss der Jahresversammlung können einzelne Beschlüsse öffentlich gemacht werden. Die deutsche Sektion finanziert sich überwiegend aus Mitglieds- und Fördererbeiträgen und Spenden, zu einem geringeren Teil aus Erbschaften, Verkaufserlösen, Geldbußen und Sammlungen. Seit mehreren Jahren führt die Organisation Direktdialoge in Städten durch, um Förderer zu gewinnen. Im Jahr 2010 wurden ca. 15,7 Millionen Euro eingenommen. Davon wurden etwas über 4,6 Millionen Euro an das internationale Sekretariat abgeführt, der Rest für die eigene Arbeit verwendet. Zur Unterstützung der Arbeit von Amnesty International wurde im Mai 2003 die "Stiftung Menschenrechte – Förderstiftung Amnesty International" mit Sitz in Berlin gegründet. Am 23. Mai 2013 wurde der „Amnesty Report 2013“ vorgestellt, der die Menschenrechtslage im Jahr 2012 beschreibt. Er ist im S. Fischer Verlag publiziert. Amnesty International beklagt darin Folter und Misshandlung in 112 Staaten sowie in 101 Staaten eine Einschränkung der Meinungsfreiheit. Insgesamt wird zu 159 Staaten Stellung genommen. Ziele und Arbeitsweise. Eine Aktion von Amnesty International Amnesty International recherchiert fortlaufend zur Menschenrechtssituation weltweit und führt Aktionen gegen spezifische Menschenrechtsverletzungen durch. Der Jahresbericht der Organisation ("Amnesty International Report") enthält einen Überblick über die Lage der Menschenrechte in fast allen Ländern der Erde. Von 2005 bis 2009 lief die internationale Kampagne „Gewalt gegen Frauen verhindern“, die sich gegen die vielfältigen Formen von Gewalt gegen Frauen, sowohl staatlicherseits als auch im häuslichen Umfeld, wandte. Nach einer schwierigen und kontroversen internen Diskussion beschloss die Internationale Ratstagung der Organisation 2007 in Morelos, Mexiko, eine begrenzte Position zum Schwangerschaftsabbruch. So soll die völlige Entkriminalisierung gefordert werden sowie Staaten aufgefordert werden, Abtreibung im Falle von Vergewaltigung, sexueller Nötigung, Inzest und bei schwerwiegender Gefahr für das Leben einer Frau zu legalisieren. Die Organisation bekräftigt, dass viele gesellschaftliche Faktoren und Zwänge zu ungewollten Schwangerschaften beitragen und damit auch zu der – weltweit jährlich in ca. 26 Millionen Fällen illegalen – Entscheidung der Frauen. Aktionen und Kampagnen. Die Organisation führt immer wieder große und kleine, internationale Themenkampagnen durch, die teilweise über mehrere Jahre angelegt sind. Bis 2013, zum Abschluss des Vertrags über den Waffenhandel am 2. April 2013 war Amnesty an der Kampagne "Control Arms" beteiligt. 1988 gab es eine internationale Amnesty-Konzerttour unter dem Titel "Human Rights NOW!", die der Organisation zahlreiche neue Mitglieder einbrachte. Am 10. Dezember 2005 – dem Internationalen Tag der Menschenrechte – wurde ein neues Musikprojekt unter dem Titel "Make Some Noise" gestartet. Dabei veröffentlichten bekannte internationale Künstler, darunter The Black Eyed Peas, Serj Tankian und The Cure, Coverversionen von John-Lennon-Songs exklusiv auf der Website von Amnesty. Parallel zur Musik werden dort konkrete Kampagnen und Fälle vorgestellt. Menschenrechtspreis. Die Organisation vergibt seit 1998 alle zwei Jahre den Amnesty International Menschenrechtspreis. Der Preis soll Persönlichkeiten auszeichnen, unterstützen und schützen, die sich unter oftmals schwierigsten Bedingungen für die Menschenrechte engagieren. 2014 wurde der Preis an Alice Nkom, eine kamerunische Anwältin vergeben, die sich insbesondere für die Rechte von LGBTI (Lesben, Schwulen, Bisexuellen, Transgender und Intersexuellen) einsetzt. Kritik. Regierungen und nahestehende Kommentatoren, die von Amnesty International in ihren Berichten kritisch beurteilt werden, haben verschiedentlich Kritik an Amnesty geübt. So wurde Amnesty z. B. aus China, Russland und dem Kongo Einseitigkeit gegen nicht-westliche Länder bei seinen Beurteilungen vorgeworfen, sowie dass die Sicherheitsbedürfnisse (z. B. bei der Bekämpfung von Rebellen) nicht genügend beachtet würden. Umgekehrt wurde Amnesty z. B. nach der Kritik an der israelischen Politik im Gazastreifen vom American Jewish Congress angegriffen. Als in einem Amnesty-Bericht den USA eine Spitzenstellung bei Menschenrechtsverletzungen zugewiesen wurde, bezeichnete ein Pressesprecher dies als lächerlich und erklärte, die Angaben entsprächen nicht den Tatsachen. Amnesty wurde vorgeworfen, das Apartheid-System in Südafrika nie als Ganzes verurteilt zu haben. Neben den Vorwürfen der Einseitigkeit von verschiedenen Seiten gibt es kritische Stimmen, die bemängeln, dass Amnesty zu sehr auf Öffentlichkeitsarbeit ausgerichtet sei. Der Jura-Professor Francis Boyle (ehemaliges AI-Exekutivkomiteemitglied in den USA) warf Amnesty vor, an erster Stelle stünde die öffentliche Aufmerksamkeit (Publicity), dann würden Spendengelder und Mitglieder angeworben, es fänden interne Machtkämpfe statt, die Menschenrechte als Ziel kämen erst am Schluss. Des Weiteren kommt auch interne Kritik an Amnesty auf, seit auf der internationalen Ratstagung in Dakar im August 2001 eine Ausweitung des Mandats auf den Einsatz auch für wirtschaftliche, soziale und kulturelle Rechte beschlossen wurde. Der Organisation wird von Teilen der Mitgliedschaft vorgeworfen, an Profil zu verlieren und ihr Betätigungsfeld zu sehr auszuweiten. Dadurch bestehe die Gefahr, dass die Organisation zu einem „Menschenrechts-Gemischtwarenladen“ mutiere und an Glaubwürdigkeit verliere. Amnesty solle sich weiterhin auf die bürgerlichen und politischen Rechte konzentrieren. Diese Bedenken wurden in einem BBC-Beitrag zum 50. Geburtstag der Organisation aufgegriffen, in dem auch darauf hingewiesen wurde, dass Amnesty International es bisher nicht geschafft habe, eine nennenswerte Anzahl von Mitgliedern außerhalb von Europa, den Vereinigten Staaten, Kanada, Australien und Neuseeland zu gewinnen. Kritisiert werden – auch vereinsintern – Zahlungen in Höhe von rund 500.000 Pfund an die ehemalige internationale Generalsekretärin Irene Khan im Zusammenhang mit ihrem Ausscheiden aus der Organisation. Nachdem bekannt geworden war, dass die Menschenrechtsorganisation beabsichtigt, sich zukünftig für eine Entkriminalisierung des Schwangerschaftsabbruches in gewissen Grenzen sowie für ein Recht auf einen Schwangerschaftsabbruch im Falle von Vergewaltigung, Inzest oder schwerwiegender Gefahr für Gesundheit oder Leben der Mutter einzutreten, sagte der Kurienkardinal der römisch-katholischen Kirche Renato Raffaele Martino 2007 in einem Interview, Katholiken und kirchliche Organisationen sollten überlegen, ob sie Amnesty International weiter unterstützen könnten. Amnesty International erwiderte darauf, sich nicht für ein universelles Recht auf Abtreibung, sondern für die Entkriminalisierung von Frauen in einer Notlage einzusetzen. In der Umsetzung dieser Politik hat Amnesty International ein völliges Verbot des Schwangerschaftsabbruchs als Folter im Sinne der Anti-Folterkonvention bezeichnet sowie einschlägige Mitgliedschaftsaktionen gestartet. 2014 führte Amnesty International eine interne Konsultation dazu durch, ob die Prostitution und ihr Umfeld entkriminalisiert werden sollen. Die internen Dokumente gerieten an die Öffentlichkeit und lösten international eine heftige Debatte aus. In Deutschland kritisierte u. a. die feministische Zeitschrift "Emma" die Überlegungen, auch Bordelle und die Arbeitgeber von Prostitution zu entkriminalisieren. Ein entsprechendes Dokument, welches auf dem Treffen des Internationalen Rates der Menschenrechtsorganisation vom 7. bis 11. August 2015 in Dublin beschlossen wurde, erregte erneut internationales Aufsehen. Abteilung (Biologie). Die Abteilung ("Divisio") ist eine hierarchische Stufe der biologischen Systematik. In der Botanik ist sie nach dem ICBN als höchste Rangstufe unterhalb des Reichs ("Regnum") bzw. Unterreichs ("Subregnum") vorgesehen. Abteilungen enden auf -phyta bei Pflanzen bzw. auf -mycota bei Pilzen. Die Abteilung in der Botanik entspricht dem Stamm ("Phylum") in der zoologischen Systematik und wird entsprechend auch in der Botanik gelegentlich als "Phylum" bezeichnet. In der zoologischen Systematik wurde die Abteilung teilweise als Rangstufe zwischen dem Reich und dem Stamm verwendet. Andere Autoren nannten andere Rangstufen Abteilung (divisio), teilweise zwischen Klasse und Ordnung, einige auch zwischen Ordnung und Familie.. Andere haben den Begriff zur Unterteilung von Gattungen verwendet. Diese Verwendungen sind nicht mehr gebräuchlich. Art (Biologie). Die Hauptunterschiede der verschiedenen Artkonzepte liegen dabei auf der Ebene der Rangbildung. Eine Gruppe von Lebewesen unabhängig von ihrem Rang nennen Taxonomen eine "Sippe" oder ein "Taxon". Art als Taxon. Eine Art als Taxon ist eine gemäß den Regeln der Taxonomie und der biologischen Nomenklatur formal beschriebene und benannte Form von Lebewesen. Eine taxonomische Art stellt eine wissenschaftliche Hypothese dar und ist unabhängig von den jeweils zugrundegelegten Artkonzepten. Die Art ist eine Rangstufe der klassischen, auf Carl von Linné zurückgehenden, Taxonomie. Einige rein merkmalsbezogen arbeitende Systematiker sind der Ansicht, Arten wären mehr oder weniger willkürlich zusammengestellte, künstliche Gruppen, nur die Individuen wären letztlich real: manche gehen dabei so weit, dass der Artbegriff, wie alle anderen Rangstufen, ihrer Ansicht nach besser abgeschafft werden sollte. Die meisten Biologen sind aber der Ansicht, dass Arten natürliche Einheiten mit realer Existenz darstellen; es gäbe dann Artkriterien, an denen sich reale Arten identifizieren ließen. Dieser Vorstellung liegt letztlich eine Unterscheidung zwischen durch Genfluss oder horizontalen Gentransfer geprägten Einheiten, unterhalb des Artniveaus, und den Arten, bei denen dies nicht zutrifft (engl.: lineages). Für viele Biologen, darunter Anhänger eines phylogenetischen Artkonzepts (vgl. unten), sind sie sogar die einzigen in diesem Sinne natürlichen taxonomischen Einheiten Der wissenschaftliche Name einer Art (oft lateinischen oder griechischen Ursprungs) setzt sich nach der von Carl von Linné 1753 eingeführten binären Nomenklatur aus zwei Teilen zusammen, die beide kursiv geschrieben werden. Der erste Teil dieses Namens ist der groß geschriebene Gattungsname. Der zweite Teil wird immer klein geschrieben und in der Botanik und bei Prokaryoten als Epitheton („specific epithet“) bezeichnet, in der Zoologie als Artname oder Artzusatz („specific name“) Um Verwechslungen zwischen dem Artzusatz und dem gesamten Artnamen, also dem Binomen aus Gattungsname und Artzusatz, zu vermeiden, werden in der Zoologie entweder die eindeutigen englischen Begriffe verwendet oder hinzugefügt, oder gelegentlich und informell auch Begriffe wie „epithetum specificum“ oder „epitheton specificum“ verwendet. Sowohl in der Botanik (Code Article 46) als auch in der Zoologie (Code Article 51) wird empfohlen, dem wissenschaftlichen Artnamen die Namen der Autoren beizufügen, die die Art beschrieben haben, zumindest, wenn es um taxonomische oder nomenklatorische Fragen geht. Dies ist zum Beispiel wichtig, um Homonyme zu erkennen, das sind Fälle, in denen zwei Autoren versehentlich zwei verschiedene Arten mit demselben Namen benannt haben. Im Geltungsbereich des International Code of Botanical Nomenclature wird es empfohlen, die Autorennamen abzukürzen, wobei in der Regel das Namensverzeichnis von Brummit und Powell als Grundlage dient (vergleiche Artikel Autorenkürzel der Botaniker und Mykologen), „L.“ steht beispielsweise für Linné. Nach den Regeln des International Code of Zoological Nomenclature sollen zumindest einmal in jedem wissenschaftlichen Text dem Artnamen die Autor(en) und das Jahr der Publikation hinzugefügt werden (Code Recommendation 51a). Wenn im entsprechenden Fachgebiet zwei Autoren mit demselben Nachnamen tätig waren, soll der abgekürzte Vorname hinzugefügt werden, um Eindeutigkeit herzustellen. Wenn die Art heute in eine andere Gattung gestellt wird als in die, in der sie ursprünglich beschrieben wurde, müssen Autor(en) und Jahr in Klammern gesetzt werden (Code Articel 51.3). Zwischen Autor und Jahr wird in der Regel ein Komma gesetzt. Historisches. Die Philosophen der Antike kannten noch keine systematischen Konzepte und somit keinen Artbegriff im heutigen Sinne. Von Aristoteles sind als erstem Philosophen Schriften bekannt, in denen zwei getrennte – allgemein philosophisch zu verstehende – Begriffe είδος ("eidos", ins Deutsche mit „Art“ übersetzt) und γένος ("genos", deutsch „Gattung“) voneinander abgrenzt werden. In seinen Kategorien charakterisiert er an Hand eines Beispiels aus der Welt der Lebewesen diese als zweite Wesenheiten (δεύτεραι ουσίαι), die in dem Einzelnen vorhanden sind. So ist ein einzelner Mensch in der Art Mensch vorhanden und ein einzelnes Pferd in der Art Pferd, beide gehören jedoch zur Gattung des Lebenden (ζῷον "zoon"). In seiner Historia animalium (Περί τα ζώα ιστοριών) wendet Aristoteles die Begriffe είδος und γένος auch auf das Tierreich an, ohne dabei jedoch eine taxonomische Ordnung aufzustellen. Vielmehr spricht er von der Überlappung von Eigenschaften der Tierarten (ἐπάλλαξις "epállaxis") und der Notwendigkeit, eine einzelne Art an Hand mehrerer nebengeordneter Merkmale zu definieren. Dennoch beschäftigt er sich bei der Beschreibung der Arten mit einzelnen charakteristischen Merkmalen. Der Begriff είδος wird auch nicht im Sinne eines heutigen Artbegriffes konsequent als unterste Kategorie zwischen dem einzelnen Lebewesen und γένος verwendet, vielmehr kann die Bedeutung meist am besten mit „Form“, „Gestalt“ oder „Wesen“ wiedergegeben werden, während Tierarten in der Regel mit γένος bezeichnet werden. Laut biblischer Schöpfungs­geschichte im 1. Buch Mose schuf Gott zwischen dem 3. und 6. Schöpfungstag die Pflanzen und Tiere, „ein jegliches (jedes) nach seiner Art“ (zehnmal Zitat „nach seiner Art“, zu verstehen als „Wesensart“, hebräisch "min" מין bzw. למינה,). In der Septuaginta wird מין mit γένος (κατὰ γένος „nach/gemäß der Art“,) übersetzt, in der Vulgata dagegen uneinheitlich, manchmal mit "genus" und manchmal mit "species", wobei auch die Präpositionen wechseln ("secundum speciem suam, secundum species suas, in species suas, juxta genus suum, secundum genus suum, in genere suo",). Es wird hier auch eine Aussage zur Fortpflanzung der Pflanzen und Tiere „nach ihrer Art“ getroffen, indem Gott in spricht: „Es lasse die Erde aufgehen Gras und Kraut, das Samen bringe, und fruchtbare Bäume auf Erden, die ein jeder nach seiner Art Früchte tragen, in denen ihr Same ist“, sowie in zu den Tieren des Wassers und der Luft: „Seid fruchtbar und mehret euch.“ Diese biblischen Aussagen wie auch Aristoteles waren bis in die Neuzeit prägend für die Vorstellungen der Gelehrten des Abendlandes. Pierre Duhem führte 1916 für die philosophische Auffassung vom Wesen oder der „Essenz“ eines Individuums den Begriff des Essentialismus ein. Nach Auffassung von Ernst Mayr passten der Schöpfungsglaube und die letztendlich auf Platon zurückgehende Vorstellung von einer „unveränderlichen Essenz“ (είδος als Wesen) gut zusammen und bildeten die Grundlage für einen „essentialistischen Artbegriff“, wie er vom Mittelalter bis ins 19. Jahrhundert hinein dominierte. Hiernach gehören alle Objekte, welche dieselbe Essenz gemeinsam haben, derselben Art an. Laut Mayr war „[d]er Essentialismus mit seiner Betonung von Diskontinuität, Konstanz und typischen Werten (Typologie)“ der Hintergrund für typologische Artkonzepte, nach denen ein Individuum auf Grund seiner – in der Regel morphologischen – Merkmale (Typus) immer eindeutig einer bestimmten Art angehört. Erkennbar ist dies auch bei John Ray, der 1686 in seiner "Historia plantarum generalis" die Arten der Pflanzen als Fortpflanzungsgemeinschaften mit beständigen Artkennzeichen definiert, nachdem er „lange Zeit“ nach Anzeichen für ihre Unterscheidung geforscht habe: „Uns erschien aber keines [kein Anzeichen] zuverlässiger als die gesonderte Fortpflanzung aus dem Samen. Welche Unterschiede auch immer also im Individuum oder der Pflanzenart aus dem Samen derselben hervorgehen, sie sind zufällig und nicht für die Art kennzeichnend. […] Denn die sich nach ihrer Art unterscheiden, bewahren ihre Art beständig, und keine entspringt dem Samen der anderen oder umgekehrt.“ Carl von Linné war es schließlich, der mit seinen "Species Plantarum" 1753 und dem "Systema Naturae" 1758 als erster ein enkaptisches, auf hierarchisch aufbauenden Kategorien (Klasse, Ordnung, Gattung, Art und Varietät) beruhendes System der Natur aufstellte, wobei er für die Art die binäre Nomenklatur aus Gattungsnamen und Artepitheton einführte. Hierarchisch bedeutet dabei, dass die Einheiten auf unterschiedlichen Ebenen zu Gruppen zusammengefasst werden, wobei die in der Hierarchie höherstehenden Gruppen durch allgemeine, die tieferstehenden Gruppen durch immer speziellere Merkmale zusammengefasst werden (ein bestimmtes Individuum gehört also seiner Merkmalskombination gemäß in eine Art, eine Gattung, eine Familie usw.). Enkaptisch bedeutet, dass die in der Hierarchie tieferstehenden Gruppen in jeweils genau eine Gruppe der höheren Hierarchiestufe eingeschachtelt werden, also zum Beispiel jede Art in eine, und genau eine, Gattung. In seiner "Philosophia botanica" formuliert er: „Es gibt so viele Arten, wie viele verschiedene Formen das unendliche Seiende am Anfang schuf; diese Formen, nach den hineingegebenen Gesetzen der Fortpflanzung, brachten viele [weitere Formen] hervor, doch immer ähnliche.“ Darüber hinaus bezeichnet er die Art und die Gattung als Werk der Natur, die Varietät als Werk des Menschen, Ordnung und Klasse dagegen als vom Menschen geschaffene Einheit. „Die Arten sind unveränderlich, denn ihre Fortpflanzung ist wahres Fortdauern.“ Während Georges-Louis Leclerc de Buffon 1749 noch verneint, dass es in der Natur irgendwelche Kategorien gäbe, revidiert er später diese Sicht für die Art und formuliert einen typologischen Artbegriff mit einer Konstanz der Arten: „Der Abdruck jeder Art ist ein Typ, dessen wesentliche Merkmale in unveränderlichen und beständigen Wesenszügen eingeprägt sind, doch alle Nebenmerkmale variieren: Kein Individuum gleicht vollkommen dem anderen.“ Jean-Baptiste de Lamarck, der bereits von einer Transformation der Arten ausgeht, betrachtet dagegen die Art und alle anderen Kategorien als künstlich. 1809 äußert er sich in seiner "Philosophie zoologique": „Die Natur hat nicht wirklich Klassen, Ordnungen, Familien, Gattungen, beständige Arten herausgebildet, sondern allein Individuen.“ Dies hindert ihn jedoch nicht daran, auf dem Gebiet der Taxonomie sehr produktiv zu sein, deren Kategorien er praktisch zu nutzen weiß. Charles Darwin, der von der Art sogar im Titel seines Grundlagenwerkes "On the Origin of Species" (Über die Entstehung der Arten) von 1859 spricht, scheut sich vor einer Formulierung eines Artbegriffs. Laut Ernst Mayr kann man aus seinen Notizbüchern aus den 1830er Jahren schließen, dass er damals die Vorstellung von einer Art als Fortpflanzungsgemeinschaft hatte. In seiner "Entstehung der Arten" bezeichnet er jedoch die Begriffe der Art und der Varietät unmissverständlich als künstlich: „Aus diesen Bemerkungen geht hervor, daß ich den Kunstausdruck „Species“ als einen arbiträren und der Bequemlichkeit halber auf eine Reihe von einander sehr ähnlichen Individuen angewendeten betrachte, und daß er von dem Kunstausdrucke „Varietät“, welcher auf minder abweichende und noch mehr schwankende Formen Anwendung findet, nicht wesentlich verschieden ist. Eben so wird der Ausdruck „Varietät“ im Vergleich zu bloßen individuellen Verschiedenheiten nur arbiträr und der Bequemlichkeit wegen benutzt.“ Ähnlich äußert sich auch Alfred Russel Wallace 1856 in seiner Grundlagenarbeit über die Ritterfalter (Papilionidae) im Malaiischen Archipel, in der er verschiedene Verläufe der Evolution durch natürliche Zuchtwahl erklärt. Er bezeichnet Arten als „lediglich stark gekennzeichnete Rassen oder Lokalformen“ und geht dabei auch darauf ein, dass Individuen unterschiedlicher Arten generell als unfähig angesehen werden, fruchtbare gemeinsame Nachkommen zu zeugen, doch sei es nicht einmal in einem von tausend Fällen möglich, das Vorliegen einer Vermischung zu überprüfen. Dessen ungeachtet wurden auch Ende des 19. Jahrhunderts biologische Artkonzepte einer Fortpflanzungsgemeinschaft diskutiert. Erwin Stresemann äußert in diesem Sinne bereits 1919 in einem Artikel über die europäischen Baumläufer klare Vorstellungen über Artbildung und genetische Isolation: „Es will nur die Tatsache im Namen zum Ausdruck bringen, daß sich die [im Laufe der geographischen Separation] zum Rang von Spezies erhobenen Formen physiologisch so weit voneinander entfernt haben, daß sie, wie die Natur beweist, wieder zusammenkommen können, ohne eine Vermischung einzugehen.“ Beherrschend im wissenschaftlichen Diskurs wurden die biologischen Artkonzepte der Fortpflanzungsgemeinschaft mit Theodosius Dobzhansky und Ernst Mayr seit der 2. Hälfte des 20. Jahrhunderts. Dobzhansky verknüpft den Artbegriff – ähnlich wie Stresemann – mit der Artbildung und definiert 1939 Arten als das „Stadium des Evolutionsvorgangs […], in dem Formengruppen, die sich bisher untereinander fortpflanzen oder jedenfalls dazu fähig waren, in zwei oder mehr gesonderte Gruppen aufgeteilt werden, die sich aus physiologischen Ursachen nicht untereinander fortpflanzen können“, während Mayr 1942 formuliert: „Arten sind Gruppen von natürlichen Populationen, die sich tatsächlich oder potentiell untereinander vermehren und fortpflanzungsmäßig von anderen derartigen Gruppen getrennt sind.“ In einem erweiterten biologischen Artbegriff bezieht Mayr 2002 die ökologische Nische mit in die Begriffsdefinition ein: „Eine Art ist eine Fortpflanzungsgemeinschaft von (fortpflanzungsmäßig von anderen isolierten) Populationen, die eine spezifische Nische in der Natur einnimmt.“ Mayr stellt die Bedeutung der Art in der Biologie als natürliche „Einheit der Evolution, der Systematik, der Ökologie und der Ethologie“ heraus und hebt sie hierin von allen anderen systematischen Kategorien ab. Aus praktischen Erwägungen überdauern bis heute auch typologische Artkonzepte. Nach wie vor benennt die als Autorität bezeichnete Person, welche die Artbeschreibung einer neuen Art (species nova) als erste veröffentlicht, diese an Hand der arttypischen Merkmale des Typusexemplars mit einem selbst gewählten Artnamen aus dem Gattungsnamen und dem Artepitheton. Demgegenüber hebt der britische Paläoanthropologe Chris Stringer hervor: Alle Art-Konzepte sind „von Menschen erdachte Annäherungen an die Realität der Natur.“ Debatte um Essentialismus in der Geschichte der Biologie. Laut Ernst Mayr beginnt die Geschichte des Artbegriffs in der Biologie mit Carl von Linné. Er hebt in seinen Arbeiten zur Wissenschaftsgeschichte hervor, dass der Essentialismus das abendländische Denken in einem Ausmaß beherrscht habe, wie es bisher noch nicht in vollem Umfang gewürdigt werde, und setzt dabei auch typologische mit essentialistischen Artbegriffen gleich. Demgegenüber hebt Mary Winsor hervor, dass etwa die Verwendung von Typusarten als Prototypen für höhere Kategorien unvereinbar mit dem Essentialismus sei, und John S. Wilkins betont, dass die – von Winsor als „Methode der Exemplare“ bezeichnete – Typologie der Biologen und der Essentialismus keineswegs zwangsläufig verknüpft sind. Während Essenzen definierbar und allen Angehörigen einer Art eigen seien, ließen sich Typen instantiieren und seien variabel. Artenzahl. Anfang des 21. Jahrhunderts waren zwischen 1,5 und 1,75 Millionen Arten beschrieben, davon rund 500.000 Pflanzen. Es ist jedoch davon auszugehen, dass es sich bei diesen nur um einen Bruchteil aller existierenden Arten handelt. Schätzungen gehen davon aus, dass die Gesamtzahl aller Arten der Erde deutlich höher ist. Die weitestgehenden Annahmen reichten dabei Ende der 1990er-Jahre bis zu 117,7 Millionen Arten; am häufigsten jedoch wurden Schätzungen zwischen 13 und 20 Millionen Arten angeführt. Eine 2011 veröffentlichte Studie schätzte die Artenzahl auf 8,7 ± 1,3 Millionen, davon 2,2 ± 0,18 Millionen Meeresbewohner; diese Schätzung berücksichtigte allerdings nur Arten mit Zellkern (Eukaryoten), also weder Bakterien noch Viren. Über die Gesamtzahl aller Tier- und Pflanzenarten, die seit Beginn des Phanerozoikums vor 542 Mio. Jahren entstanden, liegen nur Schätzungen vor. Wissenschaftler gehen von etwa einer Milliarde Arten aus, manche rechnen sogar mit 1,6 Milliarden Arten. Weit unter einem Prozent dieser Artenvielfalt ist fossil erhalten geblieben, da die Bedingungen für eine Fossilwerdung generell ungünstig sind. Zudem zerstörten Erosion und Plattentektonik im Laufe der Jahrmillionen viele Fossilien. Forscher haben bis 1993 rund 130.000 fossile Arten wissenschaftlich beschrieben. Morphologisches Artkonzept. Typologisch definierte Arten sind Gruppen von Organismen, die in der Regel nach morphologischen Merkmalen (morphologisches Artkonzept) unterschieden werden. Es können aber auch andere Merkmale wie zum Beispiel Verhaltensweisen in analoger Weise verwendet werden. Eine nach morphologischen Kriterien definierte Art wird Morphospezies genannt. Diese Probleme werden mit zunehmender Zahl der Funde und damit Kenntnis der tatsächlichen Variationsbreite geringer, lassen sich aber nicht vollständig beseitigen. Das morphologische Artkonzept findet häufig Verwendung in der Ökologie, Botanik und Zoologie. In anderen Bereichen, wie etwa in der Mikrobiologie oder in Teilbereichen der Zoologie, wie bei den Nematoden, versagen rein morphologische Arteinteilungsversuche weitgehend. Physiologisches Artkonzept bei Bakterien. Bakterien zeigen nur wenige morphologische Unterscheidungsmerkmale und weisen praktisch keine Rekombinationsschranken auf. Deshalb wird der Stoffwechsel als Unterscheidungskriterium von Stämmen herangezogen. Weil ein allgemein akzeptiertes Artkriterium fehlt, stellen Bakterienstämme so die derzeit tatsächlich verwendete Basis zur Unterscheidung dar. Anhand biochemischer Merkmale wie etwa der Substanz der Zellwand unterscheidet man die höheren Bakterientaxa. Man testet an bakteriellen Reinkulturen zu ihrer „Artbestimmung“ deren Fähigkeit zu bestimmten biochemischen Leistungen, etwa der Fähigkeit zum Abbau bestimmter „Substrate“, z. B. seltener Zuckerarten. Diese Fähigkeit ist sehr einfach erkennbar, wenn das Umsetzungsprodukt einen im Kulturmedium zugesetzten Farbindikator umfärben kann. Durch Verimpfung einer Bakterienreinkultur in eine Reihe von Kulturgläsern mit Nährlösungen, die jeweils nur ein bestimmtes Substrat enthalten („Selektivmedien“), bekommt man eine sog. „Bunte Reihe“, aus deren Farbumschlägen nach einer Tabelle die Bakterienart bestimmt werden kann. Dazu wurden halbautomatische Geräte („Mikroplatten-Reader“) entwickelt. Seit entsprechende Techniken zur Verfügung stehen (PCR) werden Bakterienstämme auch anhand der DNA-Sequenzen identifiziert oder unterschieden. Ein weithin akzeptiertes Maß ist, dass Stämme, die weniger als 70 % ihres Genoms gemeinsam haben, als getrennte Arten aufzufassen sind. Ein weiteres Maß beruht auf der Ähnlichkeit der 16S-rRNA-Gene. Nach DNA-Analysen waren dabei weniger als 1 % der in natürlichen Medien gefundenen Stämme auf den konventionellen Nährmedien vermehrbar. Auf diese Weise sollen in einem ml Boden bis zu 100.000 verschiedene Bakteriengenome festgestellt worden sein, die als verschiedene Arten interpretiert wurden. Dies ist nicht zu verwechseln mit der Gesamtkeimzahl, die in der gleichen Größenordnung liegt, aber dabei nur „wenige“ Arten umfasst, die sich bei einer bestimmten Kulturmethode durch die Bildung von Kolonien zeigen. Diese Unterscheidungskriterien sind rein pragmatisch. Auf welcher Ebene der Unterscheidung man hier Stämme als Arten oder gar Gattungen auffasst, ist eine Sache der Konvention. Die physiologische oder genetische Artabgrenzung bei Bakterien entspricht methodisch dem typologischen Artkonzept. Sie leidet oft an ähnlichen Problemen wie das morphologische Artkonzept in der Paläontologie; dies beruht auf ebenfalls oft kleinen Datenmengen. Ernst Mayr, leidenschaftlicher Anhänger des biologischen Artkonzepts, meint daher: „Bakterien haben keine Arten“. Daniel Dykhuizen macht darauf aufmerksam, dass – entgegen mancher Anschauung – Transformationen, Transduktionen und Konjugationen (als Wege des DNA-Tauschs zwischen Stämmen) nicht wahllos, sondern zwischen bestimmten Formen bevorzugt, zwischen anderen quasi nie ablaufen. Demnach wäre es prinzipiell möglich, ein Artkonzept entsprechend dem biologischen Artkonzept bei den Eukaryonten zu entwickeln. Frederick M. Cohan versucht dagegen auf Basis von Ökotypen, ein Artkonzept zu entwickeln. Biologisches oder populationsgenetisches Artenkonzept. Gegen Ende des 19., Anfang des 20. Jahrhunderts begann sich in der Biologie allmählich das Populationsdenken durchzusetzen, was Konsequenzen für den Artbegriff mit sich brachte. Weil typologische Klassifizierungsschemata die realen Verhältnisse in der Natur nicht oder nur unzureichend abzubilden vermochten, musste die biologische Systematik einen neuen Artbegriff entwickeln, der nicht auf abstrakter Unterschiedlichkeit oder subjektiver Einschätzung einzelner Wissenschaftler basiert, sondern auf objektiven Kriterien. Diese Definition wird als "biologische Artdefinition" bezeichnet, "„Sie heißt „biologisch“ nicht deshalb, weil sie mit biologischen Taxa zu tun hat, sondern weil ihre Definition eine biologische ist. Sie verwendet Kriterien, die, was die unbelebte Welt betrifft, bedeutungslos sind.“" Eine biologisch definierte Art wird als "Biospezies" bezeichnet. Der neue Begriff stützte sich auf zwei Beobachtungen: Zum einen setzen sich Arten aus Populationen zusammen und zum anderen existieren zwischen Populationen unterschiedlicher Arten biologische Fortpflanzungsbarrieren. "„Die "[biologische]" Art besitzt zwei Eigenschaften, durch die sie sich grundlegend von allen anderen taxonomischen Kategorien, etwa dem Genus, unterscheidet. Erstens einmal erlaubt sie eine nichtwillkürliche Definition – man könnte sogar soweit gehen, sie als „selbstoperational“ zu bezeichnen –, indem sie das Kriterium der Fortpflanzungsisolation gegenüber anderen Populationen hervorhebt. Zweitens ist die Art nicht wie alle anderen Kategorien auf der Basis von ihr innewohnenden Eigenschaften, nicht aufgrund des Besitzes bestimmter sichtbarer Attribute definiert, sondern durch ihre Relation zu anderen Arten.“" Das hat – zumindest nach der Mehrzahl der Interpretationen – zur Folge, dass Arten nicht Klassen sind, sondern Individuen. Die Kohäsion der Biospezies, ihr genetischer Zusammenhalt, wird durch physiologische, ethologische, morphologische und genetische Eigenschaften gewährleistet, die gegenüber artfremden Individuen isolierend wirken. Da die Isolationsmechanismen verhindern, dass nennenswerte zwischenartliche Bastardisierung stattfindet, bilden die Angehörigen einer Art eine Fortpflanzungsgemeinschaft; zwischen ihnen besteht Genfluss, sie teilen sich einen Genpool und bilden so eine Einheit, in der evolutionärer Wandel stattfindet. Problematik. Das biologische Artkonzept findet häufig Verwendung in der Ökologie, Botanik und Zoologie, besonders in der Evolutionsbiologie. In gewisser Weise bildet es das Standardmodell, aus dem die anderen modernen Artkonzepte abgeleitet sind oder gegen welches sie sich in erster Linie abgrenzen. Die notwendigen Charaktere (Fehlen natürlicher Hybriden bzw. gemeinsamer Genpool) sind bisweilen umständlich zu überprüfen, in bestimmten Bereichen, wie etwa in der Paläontologie, versagen biologische bzw. populationsgenetische Artabgrenzungen weitgehend. Phylogenetisches oder evolutionäres Artkonzept. Nach diesem Konzept wird eine Art als (monophyletische) Abstammungsgemeinschaft aus einer bis vielen Populationen definiert. Eine Art beginnt nach einer Artspaltung (siehe Artbildung, Kladogenese) und endet Phylogenetische Anagenese ist die Veränderung einer Art im Zeitraum zwischen zwei Artspaltungen, also während ihrer Existenz. Solange keine Aufspaltung erfolgt, gehören alle Individuen zur selben Art, auch wenn sie unter Umständen morphologisch unterscheidbar sind. Das phylogenetische Artkonzept beruht auf der phylogenetischen Systematik oder „Kladistik“ und besitzt nur im Zusammenhang mit dieser Sinn. Im Rahmen des Konzepts sind Arten objektive, tatsächlich existierende biologische Einheiten. Alle höheren Einheiten der Systematik werden nach dem System „Kladen“ genannt und sind (als monophyletische Organismengemeinschaften) von Arten prinzipiell verschieden. Durch die gabelteilige (dichotome) Aufspaltung besitzen alle hierarchischen Einheiten oberhalb der Art (Gattung, Familie etc.) keine Bedeutung, sondern sind nur konventionelle Hilfsmittel, um Abstammungsgemeinschaften eines bestimmten Niveaus zu bezeichnen. Der wesentliche Unterschied liegt weniger in der Betrachtung der Art als in derjenigen dieser höheren Einheiten. Nach dem phylogenetischen Artkonzept können sich Kladen überlappen, wenn sie hybridogenen Ursprungs sind. Chronologisches Artkonzept. Dieses Konzept ist dann gut anwendbar, wenn praktisch lückenlose Fundfolgen vorliegen. Die beim morphologischen Artkonzept bereits besprochenen Probleme können auftreten. Auswirkungen der Kriterien für Artabgrenzungen und der Wahl des Artkonzepts. Seit Darwin ist die Ebene der Art gegenüber unterscheidbaren untergeordneten (Lokalpopulationen) oder übergeordneten (Artengruppen bzw. höheren Taxa) nicht mehr besonders ausgezeichnet. Innerhalb der Taxonomie unterliegt die Artabgrenzung Moden und persönlichen Vorlieben, es gibt Taxonomen, die möglichst jede unterscheidbare Form in den Artrang erheben wollen („splitter“) und andere, die weitgefasste Arten mit zahlreichen Lokalrassen und -populationen bevorzugen („lumper“). Auch das verwendete Artkonzept wirkt sich auf die Artenzahl aus. Es kann gezeigt werden, dass bei Verwendung des phylogenetischen Artkonzepts mehr Arten unterschieden werden als beim biologischen Artkonzept. Die Vermehrung der Artenzahl, z. B. innerhalb der Primaten, die ausschließlich auf das verwendete Artkonzept zurückgehen, ist als „taxonomische Inflation“ bezeichnet worden. Dies hat Folgen für angewandte Bereiche, wenn diese auf einem Vergleich von Artenlisten beruhen. Es ergeben sich unterschiedliche Verhältnisse beim Vergleich der Artenzahlen zwischen verschiedenen taxonomischen Gruppen, geographischen Gebieten, beim Anteil der endemischen Arten und bei der Definition der Schutzwürdigkeit von Populationen bzw. Gebieten im Naturschutz. Anaerobie. Anaerobie ("aer" „Luft“ mit Alpha privativum) bezeichnet Leben ohne Sauerstoff (Disauerstoff O2). Lebewesen, die für ihren Stoffwechsel keinen Sauerstoff verwenden oder sogar durch ihn gehemmt oder abgetötet werden, werden als Anaerobier bzw. anaerob bezeichnet. Eigenschaften. Organismen, die nur in einem sauerstofffreien Lebensraum (unter "anoxischen" Bedingungen) wachsen können, werden als "obligat anaerob" bezeichnet. Organismen, die sowohl unter anoxischen Bedingungen als auch unter oxischen Bedingungen (in Gegenwart von Sauerstoff) wachsen können, werden als "fakultativ anaerob" bezeichnet. Anaerobe Organismen, die nur einen anaeroben Stoffwechsel besitzen, also O2 nicht nutzen können, jedoch auch in Gegenwart von Sauerstoff leben können, werden als "aerotolerant" bezeichnet. Lebensräume in denen kein Sauerstoff enthalten ist, werden als "anoxisch" bezeichnet, in früherem Sprachgebrauch auch als "anaerob" (Gegensatz: "oxisch", Sauerstoff enthaltend, früher "aerob"). Anaerobe Atmung. Im oxidativen Energiestoffwechsel werden anstelle von O2 alternative Oxidationsmittel (Elektronenakzeptoren) verwendet. Häufig verwendete alternative Elektronenakzeptoren sind: Nitrat, dreiwertige Eisen-Ionen (Fe3+), vierwertige Mangan-Ionen (Mn4+), Sulfat, Schwefel, Fumarat und Kohlenstoffdioxid (CO2). Diese Redox-Reaktionen werden als anaerobe Atmung bezeichnet. In der Tabelle sind Typen der anaeroben Atmung aufgeführt, die in der Umwelt weit verbreitet sind (zum Vergleich ist die aerobe Atmung mit dabei). Die Reihung der Atmungsprozesse erfolgte nach Möglichkeit nach dem Standard-Redoxpotential des Elektronenakzeptorpaars in Volt bei einem pH-Wert von 7. Die tatsächlichen pH-Werte können abweichen (z. B. bei Acetogenese). Symbiosen. Manche Turbellarien, Ringelwürmer und Enteroparasiten wie Bandwürmer beherbergen anaerobe Bakterien und können durch diese Symbiose auch unter anoxischen Bedingungen leben. Identifikation. Das Verhalten von Mikroorganismen gegenüber Sauerstoff, ihre Identifikation als Aerobier, Anaerobier, Aerotoleranter oder fakultativer Anaerobier, kann durch Kultur in einem Sauerstoffkonzentrationsgradienten ermittelt werden. Dabei kultiviert man sie in einem Gelnährmedium, das sich in einem einseitig geschlossenen Glasrohr (Reagenzglas, Kulturröhrchen) befindet und in das Sauerstoff nur vom oberen, offenen Ende durch Diffusion eindringen kann. Auf diese Weise bildet sich ein Sauerstoffkonzentrationsgradient aus mit hoher Sauerstoffkonzentration oben und niedriger Sauerstoffkonzentration unten. Die Mikroorganismen werden in sehr geringer Menge gleichmäßig im Gelnährmedium verteilt, in dem sie ortsgebunden sind und sich nicht fortbewegen können. Dort, wo sich die Mikroorganismen hinsichtlich der Sauerstoffkonzentration unter geeigneten Bedingungen befinden, vermehren sie sich und man kann nach einer gewissen Zeit einen Bewuchs mit bloßem Auge erkennen. Die Zone, in der sich Bewuchs zeigt, ist ein Indikator für das Verhalten der Mikroorganismen gegenüber Sauerstoff, wie aus dem Bild deutlich wird. Kultur von anaeroben Mikroorganismen. Anaerobie ist unter anderem bei der Kultivierung von Mikroorganismen von Bedeutung. Sollen gegenüber O2 empfindliche Mikroorganismen kultiviert werden oder sollen fakultativ anaerobe Mikroorganismen unter anoxischen Bedingungen kultiviert werden, so ist es erforderlich, bei der Kultur O2 auszuschließen. Hierbei werden sogenannte Anaerobentechniken verwendet. Ein Beispiel ist die Kultur in einer Anaerobenkammer: Darin erreicht man mit einer Gasatmosphäre aus 10 Vol.-% H2 + 10 Vol.-% CO2 + 80 Vol.-% N2 anoxische Bedingungen, die es ermöglichen, anaerobe Mikroorganismen zu kultivieren. Awk. awk ist eine Programmiersprache (Skriptsprache) zur Bearbeitung und Auswertung strukturierter Textdaten, beispielsweise CSV-Dateien. Der zugehörige Interpreter war eines der ersten Werkzeuge, das in der Version 3 von Unix erschien; es wird auch heute noch vielfach zusammen mit sed in Shell-Skripten eingesetzt, um Daten zu bearbeiten, umzuformen oder auszuwerten. Die Bezeichnung "awk" ist aus den Anfangsbuchstaben der Nachnamen ihrer drei Autoren Alfred V. Aho, Peter J. Weinberger und Brian W. Kernighan zusammengesetzt. Eine Version von awk ist heute in fast jedem Unix-System, das historisch auf UNIX zurückzuführen ist, sowie in jeder Linux-Distribution zu finden. Ein vergleichbares Programm ist aber auch für fast alle anderen Betriebssysteme verfügbar. Die Sprache arbeitet fast ausschließlich mit dem Datentyp Zeichenkette (). Daneben sind assoziative Arrays (d. h. mit Zeichenketten indizierte Arrays, auch Hashs genannt) und reguläre Ausdrücke grundlegende Bestandteile der Sprache. Die Leistungsfähigkeit, Kompaktheit, aber auch die Beschränkungen der awk- und sed-Skripte regten Larry Wall zur Entwicklung der Sprache Perl an. Aufbau eines Programms. Die typische Ausführung eines awk-Programms besteht darin, Operationen – etwa Ersetzungen – auf einem Eingabetext durchzuführen. Hierzu wird der Text zeilenweise eingelesen und anhand eines gewählten Trenners – üblicherweise eine Serie von Leerzeichen und/oder Tabulatoren – in Felder aufgespalten. Anschließend werden die awk-Anweisungen auf die jeweilige Zeile angewandt. Hierbei wird für die eingelesene Zeile ermittelt, ob sie die "Bedingung" (oft ein Regulärer Ausdruck) erfüllen. Ist die Bedingung erfüllt, wird der Code innerhalb des kann ein Statement auch nur aus einer Aktion bestehen. Fehlt die Bedingung, so wird die Aktion für jede Zeile ausgeführt. Fehlt die Aktion, so wird als Standardaktion das Schreiben der ganzen Zeile ausgeführt, sofern die Bedingung erfüllt ist. Variablen und Funktionen. Der Benutzer kann Variablen innerhalb von Anweisungsblöcken durch Referenzierung definieren, eine explizite Deklaration ist nicht notwendig. Der Gültigkeitsbereich der Variablen ist global. Eine Ausnahme bilden hier Funktionsargumente, deren Gültigkeit auf die sie definierende Funktion beschränkt ist. Funktionen können an beliebiger Stelle definiert werden, die Deklaration muss dabei nicht vor der ersten Nutzung erfolgen. Falls es sich um Skalare handelt, werden Funktionsargumente als Wertparameter übergeben, ansonsten als Referenzparameter. Die Argumente bei Aufruf einer Funktion müssen nicht der Funktionsdefinition entsprechen, überzählige Argumente werden als lokale Variablen behandelt, ausgelassene Argumente mit dem speziellen Wert "uninitialized" – numerisch Null und als Zeichenkette den Wert des leeren Strings – versehen. Funktionen und Variablen aller Art bedienen sich des gleichen Namensraums, so dass gleiche Benennung zu undefiniertem Verhalten führt. Neben benutzerdefinierten Variablen und Funktionen stehen auch Standardvariablen und Standardfunktionen zur Verfügung, beispielsweise die Variablen codice_1 für die gesamte Zeile, codice_2, codice_3, … für das jeweils i-te Feld der Zeile und codice_4 (von engl.) für den Feldtrenner, sowie die Funktionen gsub(), split() und match(). Befehle. Die Syntax der Befehlsanweisungen von awk ähnelt derjenigen der Programmiersprache C. Elementare Befehle sind Zuweisungen an Variablen, Vergleiche zwischen Variablen sowie Schleifen oder bedingte Befehlsausführungen (if-else). Daneben gibt es Aufrufe sowohl zu fest implementierten als auch zu selbst programmierten Funktionen. Ausgeben von Daten auf der Standardausgabe ist durch den „codice_5“-Befehl möglich. Um etwa das zweite Feld einer Eingabezeile auszudrucken, wird der Befehl Bedingungen. Bedingungen sind in awk-Programmen entweder von der Form Reguläre Suchmuster werden wie beim grep-Befehl gebildet, und Matchoperatoren sind ~ für "Muster gefunden" und !~ für "Muster nicht gefunden". Als Abkürzung für die Bedingung „$0 ~ /"reguläres Suchmuster"/“ (also die ganze Zeile erfüllt das Suchmuster) kann „/"reguläres Suchmuster"/“ verwendet werden. Als spezielle Bedingungen gelten die Worte BEGIN und END, bei denen die zugehörigen Anweisungsblöcke vor dem Einlesen der ersten Zeile bzw. nach Einlesen der letzten Zeile ausgeführt werden. Darüber hinaus können Bedingungen mit logischen Verknüpfungen zu neuen Bedingungen zusammengesetzt werden, z. B. $1 ~ /^E/ && $2 > 20 Dieser AWK-Befehl bewirkt, dass von jeder Zeile, die mit E beginnt und deren zweites Feld eine Zahl größer "20" ist, das dritte Feld ausgegeben wird. Beispiele. echo Hallo Welt | awk " echo Hallo Welt | awk " erzeugt die Ausgaben „codice_6“ bzw. „codice_7“ echo Hallo Welt | awk " erzeugt die Ausgabe „codice_8“ sowie einen Zeilenumbruch. cat /var/log/apache2/access?log | awk '$9 ~ /[45]../' gibt alle Zeilen einer Webserver-Logdatei aus, deren neunte Spalte drei Zeichen enthält, deren erstes eine 4 oder 5 ist. In der neunten Spalte steht üblicherweise der HTTP-Statuscode. Die ausgegebenen Zeilen gehören zu Anfragen, die fehlgeschlagen sind. Versionen, Dialekte. Die erste awk-Version aus dem Jahr 1977 erfuhr 1985 eine Überarbeitung durch die ursprünglichen Autoren, die als "nawk" (new awk) bezeichnet wurde. Sie bietet die Möglichkeit, eigene Funktionen zu definieren, sowie eine größere Menge von Operatoren und vordefinierten Funktionen. Der Aufruf erfolgt zumeist dennoch über „awk“, seit eine Unterscheidung zwischen beiden Versionen obsolet geworden ist. Das GNU-Projekt der Free Software Foundation stellt unter dem Namen "gawk" eine nochmals erweiterte freie Variante zur Verfügung. Eine weitere freie Implementierung ist "mawk" von Mike Brennan. mawk ist kleiner und schneller als gawk, was allerdings durch einige Einschränkungen erkauft wird. Auch "BusyBox" enthält eine kleine awk-Implementation, wodurch diese Sprache auch für Embedded Linux und Android zur Verfügung steht. Achim von Arnim. Achim von Arnim (eigentlich "Carl Joachim Friedrich Ludwig von Arnim"; * 26. Januar 1781 in Berlin; † 21. Januar 1831 in Wiepersdorf, Kreis Jüterbog) war ein deutscher Schriftsteller. Neben Clemens Brentano und Joseph von Eichendorff gilt er als wichtigster Vertreter der Heidelberger Romantik. 1781 bis 1800. Arnims Vater war der wohlhabende Königlich Preußische Kammerherr Joachim Erdmann von Arnim, der aus dem uckermärkischen Familienzweig Blankensee stammte und Gesandter des preußischen Königs in Kopenhagen und Dresden und später Intendant der Berliner Königlichen Oper war. Arnims Mutter Amalie Caroline von Arnim, geb. Labes starb drei Wochen nach seiner Geburt. Arnim verbrachte Kindheit und Jugend zusammen mit seinem älteren Bruder Carl Otto bei seiner Großmutter Caroline von Labes in Zernikow und Berlin, wo er von 1793 bis 1798 das Joachimsthalsche Gymnasium besuchte. Er studierte von 1798 bis 1800 Rechts- und Naturwissenschaften und Mathematik in Halle (Saale). Noch als Student schrieb er zahlreiche naturwissenschaftliche Texte unter anderem den "Versuch einer Theorie der elektrischen Erscheinungen" sowie Aufsätze in den "Annalen der Physik". Im Haus des Komponisten Johann Friedrich Reichardt lernte er Ludwig Tieck kennen, dessen literarische Arbeiten er bewunderte. 1800 wechselte Arnim zum naturwissenschaftlichen Studium nach Göttingen, wo er Johann Wolfgang von Goethe und Clemens Brentano begegnete. Unter deren Einfluss wendete er sich von den naturwissenschaftlichen Schriften eigenen literarischen Arbeiten zu. Nach Beendigung des Studiums im Sommer 1801 schrieb er, beeinflusst von Goethes "Werther", seinen Erstlingsroman "Hollin’s Liebeleben". 1801 bis 1809. Arnim unternahm von 1801 bis 1804 eine Bildungsreise quer durch Europa zusammen mit seinem Bruder Carl Otto. 1802 begegnete er in Frankfurt erstmals seiner späteren Frau Bettina und bereiste zusammen mit Brentano den Rhein. Ende 1802 besuchte er in Coppet Frau von Staël und 1803 traf er in Paris erstmals mit Friedrich und Dorothea Schlegel zusammen. In diesem Jahr reiste Arnim weiter nach London und blieb bis Sommer 1804 in England und Schottland. Nach seiner Rückkehr entwarfen Arnim und Brentano erste konkrete Pläne zur Herausgabe einer Volksliedersammlung, die schließlich 1805 unter dem Titel "Des Knaben Wunderhorn" erschien. Arnim ging mit Goethe in Weimar die gesammelten und teils von Arnim und Brentano stark bearbeiteten Lieder der Sammlung durch. 1805 traf er auch in Frankfurt den Rechtsgelehrten Friedrich Karl von Savigny (1779–1861), der ihn schätzen lernte und mit dem ihn eine lebenslange Freundschaft verband. Seit dem 11. November 1808 schrieben sie sich regelmäßig. Die Veröffentlichung weiterer Bände verzögerte sich durch den deutsch-französischen Krieg. Nach der Niederlage Preußens bei Jena und Auerstedt folgte Arnim dem geflohenen Königshof nach Königsberg. Dort machte er im Kreis um den Reformer Freiherrn vom Stein politische Vorschläge. 1807 reiste Arnim zusammen mit Reichardt zu Goethe nach Weimar, wo auch Clemens und Bettina Brentano waren. Gemeinsam fuhren sie nach Kassel, wo Arnim erstmals die Brüder Grimm traf, mit denen er sein Leben lang befreundet blieb. Arnim zog 1808 nach Heidelberg, Clemens Brentano folgte ihm und dort vollendeten sie ihre Arbeit an der Volksliedersammlung. Der zweite und dritte Band des "Wunderhorns" erschien und außerdem schrieb Arnim Aufsätze für die "Heidelbergischen Jahrbücher". In dem Kreis von Romantikern um Joseph Görres, der der Heidelberger Romantik ihren Namen verdankt, gab Arnim die "Zeitung für Einsiedler" heraus, an der neben Brentano, Görres und den Brüdern Grimm auch Tieck, Friedrich Schlegel, Jean Paul, Justinus Kerner und Ludwig Uhland mitarbeiteten. Dieser Kreis wandte sich überwiegend aus politischen Gründen dem Mittelalter zu, um über diese Epoche eine nationale Einheit zu stiften, der ästhetische Aspekt interessierte dabei weniger. Arnim verließ Heidelberg Ende 1808 und besuchte Goethe auf dem Heimweg nach Berlin. Seit 1809 lebte Arnim in Berlin, wo er sich erfolglos um ein Amt im preußischen Staatsdienst bewarb. 1810 bis 1831. In Berlin veröffentlichte Arnim seine Novellensammlung "Der Wintergarten", arbeitete für Kleists "Berliner Abendblätter" und gründete 1811 die "Deutsche Tischgesellschaft", später "Christlich-Deutsche Tischgesellschaft" genannte patriotische Vereinigung, zu der zahlreiche Politiker, Professoren, Militärs und Künstler der Berliner Gesellschaft gehörten und in der nur christlich getaufte Männer Zutritt hatten. 1810 verlobte sich Arnim mit Bettina, das Paar heiratete am 11. März 1811. Die Arnims hatten sieben Kinder: Freimund, Siegmund, Friedmund, Kühnemund, Maximiliane, Armgart, und Gisela von Arnim. Das Paar lebte meist getrennt (sie in Berlin, er auf seinem Gut Wiepersdorf). Bald nach der Hochzeit reisten sie gemeinsam nach Weimar, um Goethe zu besuchen. Ein heftiger Streit Bettinas mit Goethes Frau Christiane führte zu einer lebenslangen Entfremdung zwischen Goethe und Arnim. 1813 während der Befreiungskriege gegen Napoleon befehligte Arnim als Hauptmann ein Berliner Landsturmbataillon. Von Oktober 1813 bis Februar 1814 war er Herausgeber der Berliner Tageszeitung "Der Preußische Correspondent", gab diese Stellung aber wegen Streitigkeiten mit dem Erstherausgeber Barthold Georg Niebuhr auf. Ebenfalls 1813 trat er der Gesetzlosen Gesellschaft zu Berlin bei. Von 1814 bis zu seinem Tode 1831 (Gehirnschlag) lebte Arnim überwiegend – unterbrochen von gelegentlichen Reisen und längeren Berlinaufenthalten – auf seinem Gut in Wiepersdorf und nahm mit zahlreichen Artikeln und Erzählungen in Zeitungen, Zeitschriften und Almanachen sowie mit Buchveröffentlichungen am literarischen Leben Berlins teil. Seine Frau und die Kinder lebten vor allem in Berlin. 1817 erschien der erste Band seines Romans "Die Kronenwächter". Arnim schrieb vor allem für den "Gesellschafter" und hatte zeitweilig eine eigene Rubrik in der "Vossischen Zeitung". 1820 besuchte Arnim Ludwig Uhland, Justinus Kerner, die Brüder Grimm und zum letzten Mal Goethe in Weimar. In seinen letzten Lebensjahren hatte Arnim immer wieder mit finanziellen Problemen zu kämpfen. Großer literarischer Erfolg blieb aus. Achim von Arnim starb am 21. Januar 1831 in Wiepersdorf. Werk und Wirkung. Arnim hinterließ eine Fülle von Dramen, Novellen, Erzählungen, Romanen, Gedichten und journalistischen Arbeiten. Er wird heute zu den bedeutendsten Vertretern der deutschen Romantik gezählt. Vor allem über das "Wunderhorn" wirkte er auf Spätromantiker und Realisten ein wie etwa Eduard Mörike, Heinrich Heine, Ludwig Uhland und Theodor Storm. Die Sammlung enthält etwa 600 Bearbeitungen deutscher Volkslieder und gehört zu den wichtigsten Zeugnissen einer von der Romantik propagierten "Volksdichtung". Enthalten sind Liebes-, Kinder-, Kriegs- und Wanderlieder vom Mittelalter bis ins 18. Jahrhundert. Goethe empfahl "Des Knaben Wunderhorn" zur Lektüre über alle Standesgrenzen hinweg, da es ihm für die einfachste Küche ebenso wie für das Klavier der Gelehrten geeignet erschien. Arnims Novellen zeugen von der Hinwendung des Autors zum Übernatürlichen. Die Erzählung "Isabella von Ägypten" vermischt Fiktion und Realität und nimmt so Elemente des Surrealismus vorweg; die traumhafte Phantastik wird mit historischen Bezügen verbunden. Poetologisch stellte Arnim seine Literatur in den Dienst der politischen Erneuerung, die er nicht durch politische Arbeit, sondern in der Kunst verwirklichen wollte. Deshalb hat er öfter volkstümliche Stoffe wiederbelebt. Arnims unvollendet gebliebener Roman "Die Kronenwächter" trieb die Erneuerung des historischen Romans in Deutschland voran. Er zeigt Missstände von Arnims Gegenwart in Form einer geschichtlichen Erzählung. Als Lyriker wird Arnim weniger als die Zeitgenossen Brentano und Eichendorff wahrgenommen, obwohl er ein reiches und vielgestaltiges lyrisches Werk hinterlassen hat; auch fast alle seine erzählerischen Werke enthalten Gedichte und Lieder. Die zeitgenössischen Urteile über Arnim gingen weit auseinander: Heine schrieb, Arnim sei „ein großer Dichter und einer der originellsten Köpfe der romantischen Schule. Die Freunde des Phantastischen würden an diesem Dichter mehr als an jedem anderen deutschen Schriftsteller Geschmack finden.“ Goethe dagegen sah Arnims Werk als ein Fass, an dem der Küfer vergessen habe, die Reifen festzuschlagen. Ein Gegenstand anhaltender Diskussion in der Arnim-Forschung ist der Zusammenhang von nationalem Engagement und antisemitischer Denunziation. Mehrfach, etwa in der Erzählung "Die Versöhnung in der Sommerfrische" von 1811, benutzt Arnim die traditionelle Gegenüberstellung von Christen und Juden, um ein konstruiertes „deutsches Wesen“ in der Opposition zu einem vermeintlichen „jüdischen Wesen“ zu profilieren. 1995 gründeten die Herausgeber der historisch-kritischen "Weimarer Arnim-Ausgabe (WAA)" die Internationale Arnim-Gesellschaft mit Sitz in Erlangen. Zitat. "Alles geschieht in der Welt der Poesie wegen, das Leben mit einem erhöhten Sinne und in einem erhöhten Sinne zu leben, die Geschichte ist der Ausdruck dieser allgemeinen Poesie des Menschengeschlechts, das Schicksal führt dieses grosse Schauspiel auf." Lyrik. Des Knaben Wunderhorn. Titelblatt der Erstausgabe von 1805 Ehrungen und Andenken. In Göttingen wurde 1909 eine Göttinger Gedenktafel an seinem Göttinger Wohnhaus in der Prinzenstraße 10/12 angebracht. Algorithmus. a> Briefmarke anlässlich seines 1200-jährigen Geburtsjubiläums Ein Algorithmus ist eine eindeutige Handlungsvorschrift zur Lösung eines Problems oder einer Klasse von Problemen. Algorithmen bestehen aus endlich vielen, wohldefinierten Einzelschritten. Somit können sie zur Ausführung in einem Computerprogramm implementiert, aber auch in menschlicher Sprache formuliert werden. Bei der Problemlösung wird eine bestimmte Eingabe in eine bestimmte Ausgabe überführt. Begriffsabgrenzung. Der Übergang zwischen Algorithmus und Heuristik ist fließend. Werner Stangl greift ihn folgend: "Ein Algorithmus bezeichnet eine systematische, logische Regel oder Vorgehensweise, die zur Lösung eines vorliegenden Problems führt. Im Gegensatz dazu steht dabei die schnellere, aber auch fehleranfälligere Heuristik." Wortherkunft. Seite aus einer lateinischen Übersetzung (Cambridger Manuskript), beginnend mit „Dixit algorizmi“ Das Wort Algorithmus geht zurück auf das Arabische und ist eine Abwandlung oder Verballhornung des Namens von Abu Dscha'far Muhammad ibn Musa al-Chwarizmi, dessen Namensbestandteil (Nisba) "al-Chwarizmi" „der Choresmier“ bedeutet und auf die Herkunft des Trägers aus Choresmien verweist. Als dessen Lehrbuch "Über die indischen Ziffern" (verfasst um 825 in Bagdad) im 12. Jahrhundert aus dem Arabischen ins Lateinische übersetzt und hierdurch in der westlichen Welt zur wichtigsten Quelle für die Ausbreitung der Kenntnis der indischen (heute meist als 'arabische' bezeichneten) Ziffern und des schriftlichen Rechnens mit diesen Ziffern wurde, wurde auch der Name des Verfassers in Anlehnung an die Anfangsworte der ältesten Fassung dieser Übersetzung ("Dixit Algorismi" „Algorismi hat gesagt“) in der Form "Algorismus" latinisiert und in der Folgezeit mit Varianten wie "alchorismus", "algoarismus" und mit Entlehnungen in die Volkssprachen (altfranzösisch "algorisme", "argorisme", mittelenglisch "augrim", "augrym") zu einer allgemeinen Bezeichnung für die von al-Chwarizmi gelehrte Kunst des Rechnens mit solchen Ziffern, desgleichen zu einem gebräuchlichen Werktitel für mittelalterliche Schriften über diese Kunst. In der mittelalterlichen Überlieferung wurde das Wort bald als erklärungsbedürftig empfunden und dann seit dem 13. Jahrhundert zumeist als Zusammensetzung aus einem Personennamen "Algus" und aus einem aus dem griechischen (Nebenform von) in der Bedeutung „Zahl“ entlehnten Wortbestandteil "-rismus" interpretiert. Algus, der vermutete Erfinder dieser Rechenkunst, wurde hierbei von einigen als Araber, von anderen als Grieche oder zumindest griechisch schreibender Autor, gelegentlich auch als „König von Kastilien“ (Johannes von Norfolk) betrachtet. In der volkssprachlichen Tradition erscheint dieser „Meister Algus“ dann zuweilen in einer Reihe mit großen antiken Denkern wie Platon, Aristoteles und Euklid, so im altfranzösischen "Roman de la Rose", während das altitalienische Gedicht "Il Fiore" ihn sogar mit dem Erbauer des Schiffes Argo gleichsetzt, mit dem Jason sich auf die Suche nach dem Goldenen Vlies begab. Auf der para-etymologischen Zurückführung des zweiten Bestandteils "-rismus" auf griech., beruht dann auch die gräzisierende lateinische Wortform "algorithmus", die seit der Frühen Neuzeit, anfangs auch mit der Schreibvariante "algorythmus", größere Verbreitung erlangte und zuletzt die heute übliche Wortbedeutung als Fachterminus für geregelte Prozeduren zur Lösung definierter Probleme annahm. Informatik und Mathematik . Algorithmen sind eines der zentralen Themen der Informatik und Mathematik. Sie sind Gegenstand einiger Spezialgebiete der Theoretischen Informatik, der Komplexitätstheorie und der Berechenbarkeitstheorie, mitunter ist ihnen ein eigener Fachbereich Algorithmik oder Algorithmentheorie gewidmet. In Form von Computerprogrammen und elektronischen Schaltkreisen steuern Algorithmen Computer und andere Maschinen. Algorithmus und Programme. Für Algorithmen gibt es unterschiedliche formale Repräsentationen. Diese reichen vom Algorithmus als abstraktem Gegenstück zum konkret auf eine Maschine zugeschnittenen Programm (das heißt, die Abstraktion erfolgt hier im Weglassen der Details der realen Maschine, das Programm ist eine konkrete Form des Algorithmus, angepasst an die Notwendigkeiten und Möglichkeiten der realen Maschine) bis zur Ansicht, Algorithmen seien gerade die Maschinenprogramme von Turingmaschinen (wobei hier die Abstraktion in der Verwendung der Turingmaschine an sich erfolgt, das heißt, einer idealen mathematischen Maschine). Algorithmen können in Programmablaufplänen nach DIN 66001 oder ISO 5807 grafisch dargestellt werden. Erster Computeralgorithmus. Der erste für einen Computer gedachte Algorithmus (zur Berechnung von Bernoullizahlen) wurde 1843 von Ada Lovelace in ihren Notizen zu Charles Babbages Analytical Engine festgehalten. Sie gilt deshalb als die erste Programmiererin. Weil Charles Babbage seine Analytical Engine nicht vollenden konnte, wurde Ada Lovelaces Algorithmus nie darauf implementiert. Heutige Situation. Algorithmen für Computer sind heute so vielfältig wie die Anwendungen, die sie ermöglichen sollen. Vom elektronischen Steuergerät für den Einsatz in KFZ über die Rechtschreib- und Satzbau-Kontrolle in einer Textverarbeitung bis hin zur Analyse von Aktienmärkten finden sich tausende von Algorithmen. Als Ideen und Grundsätze, die einem Computerprogramm zugrunde liegen, wird einem Algorithmus in der Regel urheberrechtlicher Schutz versagt. Je nach nationaler Ausgestaltung der Immaterialgüterrechte sind Algorithmen der Informatik jedoch dem Patentschutz zugänglich, so dass urheberrechtlich freie individuelle Werke, als Ergebnis eigener geistiger Schöpfung, wirtschaftlich trotzdem nicht immer frei verwertet werden können. Dies betrifft oder betraf z. B. Algorithmen, die auf der Mathematik der Hough-Transformation (Jahrzehnte alt, aber mehrfach aktualisiertes Konzept mit Neu-Anmeldung) aufbauen, Programme, die das Bildformat GIF lesen und schreiben wollten oder auch Programme im Bereich der Audio- und Video-Verarbeitung, da die zugehörigen Algorithmen, wie sie in den zugehörigen Codecs umgesetzt sind, oftmals nicht frei verfügbar sind. Die entsprechenden Einsparpotentiale für alle Anwender weltweit (für den Rete-Algorithmus wurde einst 1 Million USD auf DEC XCON genannt) dürften heute problemlos die Grenze von einer Milliarde USD im Jahr um ein zigfaches überschreiten. Turingmaschinen und Algorithmusbegriff. Die mangelnde mathematische Genauigkeit des Begriffs Algorithmus störte viele Mathematiker und Logiker des 19. und 20. Jahrhunderts, weswegen in der ersten Hälfte des 20. Jahrhunderts eine ganze Reihe von Ansätzen entwickelt wurde, die zu einer genauen Definition führen sollten. Formalisierungen des Berechenbarkeitsbegriffs sind die Turingmaschine (Alan Turing), Registermaschinen, der Lambda-Kalkül (Alonzo Church), rekursive Funktionen, Chomsky-Grammatiken und Markow-Algorithmen. Es wurde – unter maßgeblicher Beteiligung von Alan Turing selbst – gezeigt, dass all diese Methoden die gleiche Berechnungsstärke besitzen (gleich "mächtig" sind). Sie können durch eine Turingmaschine emuliert werden, und sie können umgekehrt eine Turingmaschine emulieren. "Eine Berechnungsvorschrift zur Lösung eines Problems heißt genau dann Algorithmus, wenn eine zu dieser Berechnungsvorschrift äquivalente Turingmaschine existiert, die für jede Eingabe, die eine Lösung besitzt, stoppt." Church-Turing-These. Die Church-Turing-These besagt, dass jedes intuitiv berechenbare Problem durch eine Turingmaschine gelöst werden kann. Als formales Kriterium für einen Algorithmus zieht man die Implementierbarkeit in einem beliebigen, zu einer Turingmaschine äquivalenten Formalismus heran, insbesondere die Implementierbarkeit in einer Programmiersprache – die von Church verlangte Terminiertheit ist dadurch allerdings noch nicht gegeben. Der Begriff der Berechenbarkeit ist dadurch dann so definiert, dass ein Problem genau dann "berechenbar" ist, wenn es einen (terminierenden) Algorithmus zu dem Problem gibt, das heißt, wenn eine entsprechend programmierte Turingmaschine das Problem "in endlicher Zeit" lösen könnte. Abstrakte Automaten. Turingmaschinen harmonieren gut mit den ebenfalls abstrakt-mathematischen berechenbaren Funktionen, reale Probleme sind jedoch ungleich komplexer, daher wurden andere Maschinen vorgeschlagen. Diese Maschinen weichen etwa in der Mächtigkeit der Befehle ab; statt der einfachen Operationen der Turingmaschine können sie teilweise mächtige Operationen, wie etwa Fourier-Transformationen, in einem Rechenschritt ausführen. Oder sie beschränken sich nicht auf eine Operation pro Rechenschritt, sondern ermöglichen parallele Operationen, wie etwa die Addition zweier Vektoren in einem Schritt. Ein Algorithmus einer seq. ASM soll Determiniertheit. Ein Algorithmus ist determiniert, wenn dieser bei jeder Ausführung mit gleichen Startbedingungen und Eingaben gleiche Ergebnisse liefert. Determinismus. Ein Algorithmus ist deterministisch, wenn zu jedem Zeitpunkt der Algorithmusausführung der nächste Handlungsschritt eindeutig definiert ist. Beispiele für deterministische Algorithmen sind Bubblesort und der euklidische Algorithmus. Dabei gilt, dass jeder deterministische Algorithmus determiniert, während aber nicht jeder determinierte Algorithmus deterministisch ist. So ist Quicksort mit zufälliger Wahl des Pivotelements ein Beispiel für einen determinierten, aber nicht deterministischen Algorithmus, da sein Ergebnis bei gleicher Eingabe und eindeutiger Sortierung immer dasselbe ist, der Weg dorthin jedoch zufällig erfolgt. In der theoretischen Informatik gibt es neben dem Determinismus auch den Nichtdeterminismus, der aber mit keiner realen Maschine (auch nicht mit Quantencomputern) direkt umgesetzt werden kann. Statische Finitheit. Die Beschreibung des Algorithmus besitzt eine endliche Länge, der Quelltext muss also aus einer begrenzten Anzahl von Zeichen bestehen. Dynamische Finitheit. Ein Algorithmus darf zu jedem Zeitpunkt seiner Ausführung nur begrenzt viel Speicherplatz benötigen. Terminiertheit. Ein Algorithmus ‚terminiert überall‘ oder ‚ist terminierend‘, wenn er nach endlich vielen Schritten anhält (oder kontrolliert abbricht) – für jede mögliche Eingabe. Ein nicht-terminierender Algorithmus (somit zu keinem Ergebnis kommend) gerät (für manche Eingaben) in eine so genannte Endlosschleife. Für manche Abläufe ist ein nicht-terminierendes Verhalten gewünscht: Z. B. Steuerungssysteme, Betriebssysteme und Programme, die auf Interaktion mit dem Benutzer aufbauen. Solange der Benutzer keinen Befehl zum Beenden eingibt, laufen diese Programme beabsichtigt endlos weiter. Donald E. Knuth schlägt in diesem Zusammenhang vor, nicht terminierende Algorithmen als rechnergestützte Methoden "(Computational Methods)" zu bezeichnen. Darüber hinaus ist die Terminierung eines Algorithmus (das Halteproblem) nicht entscheidbar. Das heißt, das Problem, festzustellen, ob ein (beliebiger) Algorithmus mit einer beliebigen Eingabe terminiert, ist nicht durch einen Algorithmus lösbar. Effektivität. Der Effekt jeder Anweisung eines Algorithmus muss eindeutig festgelegt sein. Beispiele für Eigenschaften von Algorithmen. "Einfache Grundoperation:" „Öffne die Flasche Wein“ hierbei wird das Wissen um das Öffnen vorausgesetzt. "Sequentieller Algorithmus:" „Bier auf Wein, lass das sein“ beiden Operationen ist eine Reihenfolge vorgegeben und diese sollte nicht verändert werden. "Nebenläufiger Algorithmus:" „Schnaps und Bier“ Die Reihenfolge ist nicht vorgegeben und kann auch gleichzeitig erfolgen. "Parallele Ausführung:" „Mit Sekt anstoßen“ Dies kann nur gleichzeitig (parallel) ausgeführt werden und nicht hintereinander (sequentiell). "Nichtdeterministischer/nichtdeterminierter Algorithmus:" „Bier oder Wasser“ Das Ergebnis unterscheidet sich, je nachdem welches man wählt. Algorithmenanalyse. Die Erforschung und Analyse von Algorithmen ist eine Hauptaufgabe der Informatik, und wird meist theoretisch (ohne konkrete Umsetzung in eine Programmiersprache) durchgeführt. Sie ähnelt somit dem Vorgehen in anderen mathematischen Gebieten, in denen die Analyse eher auf die zugrunde liegenden Konzepte als auf konkrete Umsetzungen ausgerichtet ist. Algorithmen werden zur Analyse in eine stark formalisierte Form gebracht und mit den Mitteln der formalen Semantik untersucht. Die Analyse unterteilt sich in verschiedene Teilgebiete. Beispielsweise wird das Verhalten von Algorithmen bezüglich Ressourcenbedarf wie Rechenzeit und Speicherbedarf in der Komplexitätstheorie behandelt; die Ergebnisse werden als asymptotische Laufzeiten angegeben. Der Ressourcenbedarf wird dabei in Abhängigkeit von der Länge der Eingabe ermittelt, das heißt, die angegebene Komplexität hängt davon ab, wie groß die Zahlen sind, deren größter gemeinsamer Teiler gesucht wird, oder wie viele Elemente sortiert werden müssen etc. Das Verhalten bezüglich der Terminierung, ob also der Algorithmus überhaupt jemals erfolgreich beendet werden kann, behandelt die Berechenbarkeitstheorie. Typen und Beispiele. a> mit drei Spielsteinen – ein einfacher Algorithmus Der älteste bekannte nicht-triviale Algorithmus ist der euklidische Algorithmus. Spezielle Algorithmus-Typen sind der randomisierte Algorithmus (mit Zufallskomponente), der Approximationsalgorithmus (als Annäherungsverfahren), die evolutionären Algorithmen (nach biologischem Vorbild) und der Greedy-Algorithmus. Eine weitere Übersicht gibt die Liste von Algorithmen und die Kategorie Algorithmus. Antikes Griechenland. Obwohl der etymologische Ursprung des Wortes arabisch ist, entstanden die ersten Algorithmen im antiken Griechenland. Zu den wichtigsten Beispielen gehören das Sieb des Eratosthenes zum Auffinden von Primzahlen, welches im Buch "Einführung in die Arithmetik" von Nikomachos beschrieben wurde und der euklidische Algorithmus zum Berechnen des größten gemeinsamen Teilers zweier natürlicher Zahlen aus dem Werk „die Elemente“. Einer der ältesten Algorithmen, die sich mit einer reellen Zahl beschäftigen, ist der Algorithmus des Archimedes zur Approximation von formula_1, was zugleich auch eines der ältesten numerischen Verfahren ist. Der Ursprung des Wortes. Das Wort Algorithmus stammt aus dem 9. Jahrhundert von dem choresmischen Mathematiker Al-Chwarizmi, der auf der Arbeit des aus dem 7. Jahrhundert stammenden indischen Mathematikers Brahmagupta aufbaute. In seiner ursprünglichen Bedeutung bezeichnete ein Algorithmus nur das Einhalten der arithmetischen Regeln unter Verwendung der indisch-arabischen Ziffern. Die ursprüngliche Definition entwickelte sich mit Übersetzung ins Lateinische weiter. Mathematik im 19. und 20. Jahrhundert. Bedeutende Arbeit leisteten die Logiker des 19. Jahrhunderts. George Boole der in seiner Schrift "The Mathematical Analysis of Logic" den ersten algebraischen Logikkalkül erschuf, begründete damit die moderne mathematische Logik, die sich von der traditionellen philosophischen Logik durch eine konsequente Formalisierung abhebt. Gottlob Frege entwickelte als erster eine formale Sprache und die daraus resultierenden formalen Beweise. Giuseppe Peano reduzierte die Arithmetik auf eine Sequenz von Symbolen manipuliert von Symbolen. Er beschäftigte sich mit der Axiomatik der natürlichen Zahlen. Dabei entstanden die Peano-Axiome. Die Arbeit von Frege wurde stark von Alfred North Whitehead und Bertrand Russell in ihrem Werk Principia Mathematica weiter ausgearbeitet und vereinfacht. Zuvor wurde von Bertrand Russell die berühmte russellsche Antinomie formuliert, was zum Einsturz der naiven Mengenlehre führte. Das Resultat führte auch zur Arbeit Kurt Gödels. David Hilbert hat um 1928 das Entscheidungsproblem in seinem Forschungsprogramm präzise formuliert. Alan Turing und Alonzo Church haben für das Problem 1936 festgestellt, dass es unlösbar ist. Arabische Sprache. Die arabische Sprache ("Arabisch", Eigenbezeichnung, kurz,) ist die verbreitetste Sprache des semitischen Zweigs der afroasiatischen Sprachfamilie und in ihrer Hochsprachform eine der sechs Amtssprachen der Vereinten Nationen. Schätzungsweise wird Arabisch von 320 Millionen Menschen als Muttersprache und von weiteren 90 Millionen als Zweit- oder Fremdsprache gesprochen. Auch durch seine Rolle als Sakralsprache entwickelte sich das Arabische zur Weltsprache. Die moderne arabische Standardsprache beruht auf dem klassischen Arabischen, der Sprache des Korans und der Dichtung, und unterscheidet sich stark von den gesprochenen Varianten des Arabischen. Allgemeines. Die einzelnen arabischen Dialekte in den verschiedenen Ländern unterscheiden sich teilweise sehr stark, wenn auch meist nur in der Aussprache, voneinander und sind bei vorliegender geographischer Distanz gegenseitig nicht oder nur schwer verständlich. So werden beispielsweise algerische Filme, die im dortigen Dialekt gedreht worden sind, zum Teil hocharabisch untertitelt, wenn sie in den Golfstaaten ausgestrahlt werden. Die arabische Sprache umfasst eine Vielzahl verschiedener Sprachformen, die in den letzten anderthalb Jahrtausenden gesprochen wurden und werden. Das Maltesische ist mit den maghrebinisch-arabischen Dialekten stark verwandt, wurde jedoch im Gegensatz zu den anderen gesprochenen Formen des Arabischen zu einer eigenständigen Standardsprache ausgebaut. Aus dem klassischen Arabisch hat sich eine Vielzahl von Dialekten entwickelt. Für alle Sprecher dieser Sprache, außer den Sprechern des Maltesischen, ist Hocharabisch Schrift- und Dachsprache. Ob Hocharabisch als moderne Standardsprache zu betrachten ist, ist umstritten (siehe auch Ausbausprache). Es fehlt oft an einem einheitlichen Wortschatz für viele Begriffe der modernen Welt sowie am Fachwortschatz in vielen Bereichen moderner Wissenschaften. Darüber hinaus ist Hocharabisch innerhalb der einzelnen arabischen Länder relativ selten ein Mittel zur mündlichen Kommunikation. Gute Kenntnisse des klassischen Arabisch sind unerlässlich für das Verständnis des Korans; die bloße Kenntnis eines Dialekts ist nicht ausreichend. Daher können Koranausgaben Erläuterungen in modernem Hocharabisch enthalten, um das Verständnis zu erleichtern. Verbreitungsgebiet. Varianten des Arabischen werden von etwa 370 Millionen Menschen gesprochen und damit weltweit am sechsthäufigsten verwendet. Es ist Amtssprache in folgenden Ländern: Ägypten, Algerien, Bahrain, Dschibuti, Israel, Irak, Jemen, Jordanien, Komoren, Katar, Kuwait, Libanon, Libyen, Marokko, Mauretanien, Oman, Palästinensische Autonomiegebiete, Saudi-Arabien, Somalia, Sudan, Syrien, Tschad, Tunesien, Vereinigte Arabische Emirate und Westsahara. Verkehrssprache ist es in Eritrea, Sansibar (Tansania), Südsudan, wird von muslimischen Bevölkerungsteilen in Äthiopien gesprochen und gewinnt auf den Malediven an Bedeutung. Darüber hinaus ist es eine der sechs offiziellen Sprachen der Vereinten Nationen. In allerneuester Zeit gewinnt das gesprochene Hocharabische wieder an Zuspruch. An dieser Entwicklung maßgeblich beteiligt sind die panarabischen Satellitensender, z. B. "al-Dschazira" in Katar. Allerdings ist Hocharabisch (fuṣḥā) auf allgemeiner Kommunikationsebene nicht vorherrschend, vielmehr bewegen sich die Sprachformen in den Registern der sog. "ʾal-luġa ʾal-wusṭā", also als eine „mittlere Sprache“ zwischen Hocharabisch und Dialekt. Durch die im arabischen Verbreitungsgebiet dominierende ägyptische Film- und Fernsehproduktion (u. a. bedingt durch die Bevölkerungszahl) gilt der gesprochene Kairoer Dialekt in den jeweiligen Gesellschaften gemeinhin als verständlich, ist sozusagen „gemeinsprachlich“ etabliert. Gewöhnliche Filme auf Hocharabisch zu drehen, ist eher unüblich, da diese Sprachnorm generell ernsteren Themen vorbehalten ist, wie sie z. B. in Fernseh- und Rundfunknachrichten, religiösen Sendungen oder Gottesdiensten vorkommt. Klassifikation. Das klassische Hocharabisch unterscheidet sich nur geringfügig von der altarabischen Sprache. Versucht man durch Vergleich aller semitischen Sprachen die Herkunft eines Wortes zu ermitteln, stößt man häufig auf dieselbe klassisch-arabische Form. Dadurch kommt dem klassischen Hocharabisch eine zentrale Stellung innerhalb der semitischen Sprachen zu. Lange betrachteten viele Semitisten das klassische Arabisch als die ursprünglichste semitische Sprache überhaupt. Erst allmählich stellt sich durch Vergleiche mit anderen afro-asiatischen Sprachen heraus, dass vieles nicht derart ursprünglich ist, wie angenommen wurde. Klassisches Hocharabisch stellt dem Wissensstand nach eine neuere Schicht semitischer Sprachen dar, die viele Möglichkeiten konsequent ausgebaut hat, die in der Grammatik der semitischen Sprachen bereits angelegt waren. So hat es einen umfangreichen semitischen Wortschatz bewahrt und ihn darüber hinaus erweitert. Die heutigen Dialekte waren vielen Veränderungen unterworfen, wie sie andere semitische Sprachen schon sehr viel früher (vor etwa 2000 bis 3000 Jahren) erfahren hatten. Geschichte. Schon in vorislamischer Zeit existierte auf der arabischen Halbinsel eine reichhaltige Dichtersprache, die nur mündlich weitergegeben wurde. Auf dieser Dichtersprache fußt zum Teil das Arabische des Korans, das aber wohl schon modernere Züge aufwies, wie man am Konsonantentext sehen kann. Wohl erst nachträglich hat man durch Zusatzzeichen das Koran-Arabisch für neue nichtarabische Muslime einfacher gemacht. In frühislamischer Zeit wurden viele Gedichte dieser Sprache schriftlich festgehalten. Bis heute ist das Auswendiglernen von Texten ein wichtiger Bestandteil der islamischen Kultur. So werden bis heute Menschen sehr geachtet, die den gesamten Koran auswendig vortragen können ("Hafiz"/"Ḥāfiẓ"). Dies ist ein Grund, warum Koranschulen in der muslimischen Welt (insbesondere Pakistan) weiter einen regen Zustrom erfahren. Das klassische Hocharabisch ist insbesondere die Sprache des Korans, die sich aus dem Zentrum der arabischen Halbinsel, dem Hedschas, im Zuge der islamischen Eroberungen über den ganzen Vorderen Orient verbreitete. Der Kalif Abd al-Malik erhob in den 90er Jahren des 7. Jahrhunderts diese Form des Arabischen zur offiziellen Verwaltungssprache des islamischen Reiches. Im Laufe der Jahrhunderte änderte sich die Sprache zunehmend, was jedoch an der Schrift zum Teil nicht zu erkennen ist, da die kurzen Vokale außerhalb des Korans im Allgemeinen nicht notiert wurden, und da die Orthographie von späteren Formen der Sprache, wenn überhaupt niedergeschrieben, sich an der Schreibung des klassischen Arabisch orientierte. Das ursprüngliche Hocharabisch wird heute als Muttersprache kaum mehr gesprochen. Doch wird es, lediglich mit Wortschatzänderungen, schriftlich mittels Bücher und Zeitungen noch benutzt (außer in Tunesien, Marokko und in etwas geringerem Maße in Algerien, wo sich das Arabische diese Rolle mit dem Französischen teilt). Im wissenschaftlich-technischen Bereich wird in den anderen arabischen Ländern aus Mangel an spezifischem Fachwortschatz neben Französisch oft auch Englisch gebraucht. Bei offiziellen Anlässen wird die in der Regel nur geschriebene Sprache auch verbal verwendet. Diese Sprache wird deshalb häufig als modernes Hocharabisch bezeichnet. Sie unterscheidet sich vom klassischen Hocharabisch vor allem in Wortschatz und je nach Bildungsgrad des Sprechers teilweise auch in Grammatik und Aussprache. "Siehe auch:" Arabische Literatur. Phonologie. Das Hocharabische Lautsystem ist wenig ausgeglichen. Es gibt nur die drei mit den Lippen gebildeten Laute, und; und fehlen. Dagegen gibt es sehr viele an den Zähnen gebildete Laute. Charakteristisch sind die sogenannten emphatischen (pharyngalisierten) Konsonanten, und (angegeben ist die IPA-Lautschrift). Der kehlige, rauhe Lauteindruck des Arabischen entsteht durch die zahlreichen Gaumen- und Kehllaute wie dem tief in der Kehle gesprochenen oder dem Kehlkopf-Presslaut („Ain“) und dessen stimmloser Variante („Ḥa“). Der Knacklaut („Hamza“) ist ein vollwertiges Phonem. Vokale. Im Hocharabischen existieren nur die drei Vokale "a", "i" und "u", die jeweils kurz oder lang sein können, sowie die zwei Diphthonge "ai" und "au". Die Aussprache der Vokale wird von den umgebenden Konsonanten beeinflusst und variiert stark. Beispielsweise sind, und mögliche Allophone des Phonems "/a/". Konsonanten. Das Hocharabische verfügt über 28 Konsonantenphoneme. Die Halbvokale und werden in der Grammatiktradition der westlichen Arabistik als „konsonantische Vokale“ gezählt. Alle Konsonanten können geminiert (verdoppelt) vorkommen. 1) Die velarisierte („dunkle“) Variante existiert als eigenständiges Phonem nur im Wort Allah. Sie tritt ansonsten in manchen Dialekten als Allophon von in der Umgebung von emphatischen Konsonanten auf, z.B. "sulṭān", im Standard jedoch nicht. Silbenstruktur. Die Theorie der Silbenstruktur ist in der Phonologie umstritten, sie wurde von einigen klassischen arabischen Sprachwissenschaftlern abgelehnt. Der Abschnitt gibt die Meinung der Linguisten wieder, die von einer Silbenstruktur des Arabischen ausgehen. Im klassischen Arabischen gibt es offene bzw. kurze Silben der Form KV und geschlossene bzw. lange Silben der Form KV̅ oder KVK (K steht für einen Konsonanten, V für einen Kurzvokal, V̅ für einen Langvokal). Nach dem Langvokal "ā" und nach "ay" kann eine Silbe auch mit einem verdoppelten Konsonanten beginnen (z. B. "dābba" „Tier“). Im modernen Hocharabischen ändert sich die Silbenstruktur, weil die klassischen Endungen meist weggelassen werden. Dadurch sind am Wortende neben den langen auch überlange Silben der Form KV̅K und KVKK möglich (z. B. "bāb", aus "bābun" „Tür“ oder "šams", aus "šamsun" „Sonne“). Da eine Silbe nur mit einem einzelnen Konsonanten beginnt, können am Wortanfang keine Konsonantenverbindungen stehen. Bei älteren Lehnwörtern werden anlautende Konsonantenverbindungen durch einen vorangesetzten Hilfsvokal beseitigt (z. B. "usṭūl" „Flotte“, aus griechisch "στόλος", "stólos"). Bei neueren Lehnwörtern wird ein Vokal zwischen die anlautenden Konsonanten geschoben (z. B. "faransā" „Frankreich“), während frühere Entlehnungen von „Franken“ als "ʾifranǧ" wiedergegeben wurden. Betonung. Da die arabische Schrift die Betonung nicht notiert und die mittelalterlichen Grammatiker sich zur Betonung an keiner Stelle geäußert haben, kann man strenggenommen keine sicheren Aussagen über die Betonung des historischen klassischen Arabisch machen. Diesbezügliche Empfehlungen in Lehrbüchern beruhen auf der Betonung, die von modernen Sprechern auf das klassische Arabisch angewandt wird, wobei man sich in Europa gewöhnlich an den Aussprachegewohnheiten im Raum Libanon/Syrien orientiert. In Gebieten wie z. B. Marokko oder Ägypten werden klassisch-arabische Texte mit durchaus anderer Betonung gelesen. Nach der üblichen Auffassung ist die Wortbetonung im Arabischen nicht bedeutungsunterscheidend und auch zum Teil nicht genau festgelegt. Generell ziehen lange Silben den Ton auf sich. Für das klassische Arabisch gilt, dass die Betonung auf der vor- oder drittletzten Silbe liegen kann. Die vorletzte Silbe wird betont, wenn sie geschlossen bzw. lang ist (z. B. "faʿáltu" „ich tat“); ansonsten wird die drittletzte Silbe betont (z. B. "fáʿala" „er tat“). Im modernen Hocharabischen kann durch den Ausfall der klassischen Endungen auch die letzte Silbe betont werden (z. B. "kitā́b", aus "kitā́bun" „Buch“). Teilweise verschiebt sich die Betonung weiter nach vorne (z. B. "mádrasa" statt "madrásatun" „Schule“; die in Ägypten übliche Aussprache dieses Wortes ist aber z. B. "madrása", in Marokko hört man "madrasá"). Das marokkanische Arabisch ist im Gegensatz zum klassischen Arabisch und zu den anderen modernen Dialekten eine Tonsprache. Dialektale Variation. Die Phonologie der neuarabischen Dialekte unterscheidet sich stark von der des klassischen Arabischen und des modernen Hocharabischen. Die "i" und "u" werden teils als und gesprochen. Die meisten Dialekte monophthongisieren "ay" und "aw" zu und, wodurch die Dialekte über fünf statt drei Vokalphoneme verfügen. Kurze Vokale werden oft zum Schwa reduziert oder fallen völlig aus. Dadurch sind in manchen Dialekten auch Konsonantenhäufungen am Wortanfang möglich. Beispiel: für baḥr: bḥar (Meer); für laḥm: lḥam (Fleisch) im tunesischen Dialekt, wobei die geöffnete bzw. geschlossene Silbe ausgetauscht wird. Die Dialekte haben zum Teil Konsonanten des Hocharabischen verloren, zum Teil haben sie auch neue Phoneme entwickelt. Die Laute und fallen in nahezu sämtlichen Dialekten zu einem Phonem zusammen, dessen Aussprache regional variiert. Ebenfalls hat der Laut seinen Phonemstatus verloren. In einigen Dialekten sind und zu und geworden; bei Wörtern aus dem Hocharabischen werden sie aber als und ausgesprochen. Das hocharabische wird auf unterschiedliche Arten realisiert, unter anderem in Ägypten als und in Teilen Nordafrikas und der Levante als. Das hocharabische wird in Teilen Ägyptens und der Levante als gesprochen, in einigen anderen Dialekten hat es sich zu entwickelt. Oft wird jedoch die Aussprache bei Wörtern aus dem Hocharabischen beibehalten, so dass die Phoneme und parallel existieren. Einige Dialekte haben durch Lehnwörter aus anderen Sprachen fremde Phoneme übernommen, z. B. die Maghreb-Dialekte den Laut aus dem Französischen oder der irakische Dialekt den Laut aus dem Persischen. Schrift. Geschrieben wird das Arabische von rechts nach links mit dem arabischen Alphabet, das nur Konsonanten und Langvokale kennt. Es gibt allerdings als Lern- und Lesehilfe ein nachträglich hinzugefügtes System mit Kennzeichen (Taschkil) für die Kurzvokale A, I und U, und das in der klassischen Grammatik wichtige End-N, Konsonantenverdopplungen und Konsonanten ohne nachfolgenden Vokal. Der Koran wird immer mit allen Zusatzzeichen geschrieben und gedruckt. Grundsätzlich wäre das vokalisierte und mit Zusatzzeichen versehene Schriftarabisch gleichzeitig eine präzise Lautschrift, diese wird jedoch fast nur für den Koran genutzt. Bei allen anderen Texten muss man die kurzen Vokale auswendig wissen, was nur möglich ist, wenn man die grammatische Struktur vollständig analysieren kann, so dass man die richtigen Endungen einfügen kann. Die arabische Schrift ist eine Kurrentschrift, die sich im Laufe der Geschichte verschliffen hat. Da die Buchstaben in einem Wort verbunden werden, gibt es bis zu vier verschiedene Formen eines Buchstabens: allein stehend, nach rechts verbunden, nach links verbunden und beidseitig verbunden. Als immer mehr Buchstaben in der Gestalt zusammenfielen, entwickelte man ein System, diese durch Punkte über und unter den Konsonanten zu unterscheiden. Alte Formen der arabischen Schrift, wie "Kufi" (), benutzen noch keine Punkte. Im Laufe der Zeit wurde Kufi mehr und mehr durch die Kursive "Nasḫī" () ersetzt. Aussprache. In vielen islamischen Ländern gibt es Bestrebungen, sich bei der Aussprache der modernen Hochsprache einem Standard zu nähern, der dem nahekommen soll, was als Aussprachestandard für das klassische Hocharabisch gilt. Grundlage dabei ist meistens der Aussprachestandard der Rezitation (ar. "tilāwa") des Korans, der weitgehend kodifiziert ist und in modernen Korandrucken auch durch Diakritika wiedergegeben wird. Diese Ausspracheform genießt ein hohes Prestige, wird allerdings in der Regel nur im religiösen Kontext verwendet. Die frühere Aussprache des Hocharabischen ist nicht mit Sicherheit in allen Einzelheiten bekannt. Ein typischer Fall, in dem bis heute keine völlige Klarheit über die Aussprachenormen des klassischen Hocharabisch besteht, ist die so genannte Nunation, also die Frage, ob die Kasusendungen bei den meisten unbestimmten Nomina auf "n" auslauten oder nicht ("kitābun" oder "kitāb"). Für beide Varianten lassen sich Argumente finden, und da in alten Handschriften das Vokalzeichen der Endung nicht geschrieben wurde, kann man nicht mit Bestimmtheit sagen, wie diese Formen ausgesprochen wurden. Der Status. Das Arabische kennt indeterminierte (unbestimmte) und determinierte (bestimmte) Nomina, die sich in der Hochsprache (nicht mehr im Dialekt) durch ihre Endungen unterscheiden. Indeterminierte Nomen erhalten, so sie nicht diptotisch flektiert werden (siehe unter Kasus), die Nunation. Determiniert wird ein Nomen vor allem durch den vorangestellten Artikel "al-" (, dialektal oft "el-" oder "il-"), welcher in seiner Form zwar unveränderlich ist, aber nach einem Vokal im Satzinneren ohne Stimmabsatz (Hamza) gesprochen wird (siehe Wasla). Außerdem kommt es (beim Sprechen) zu einer Assimilation des im Artikel enthaltenen "l" an den nachfolgenden Laut, wenn es sich bei diesem um einen sogenannten Sonnenbuchstaben handelt (Bsp.: "asch-schams" – „die Sonne“ – statt "al-schams"). Bei Mondbuchstaben bleibt der Artikel "al-" und der nachfolgende Laut wird nicht verdoppelt. Determiniert ist ein Wort auch im Status constructus durch einen nachfolgenden (determinierten) Genitiv oder ein angehängtes Personalsuffix; ferner sind auch viele Eigennamen (z. B., "Lubnan" – Libanon) ohne Artikel determiniert. Ein Beispiel:, "al-qamar(u)" – „der Mond“ im Gegensatz zu, "qamar(un)" – „ein Mond“ Das Genus. Im Arabischen gibt es zwei Genera (Geschlechter): das Femininum (weiblich) und das Maskulinum (männlich). Die meisten weiblichen Wörter enden auf "a", das – so es sich um ein Ta marbuta handelt – im Status constructus zu "at" wird. Weibliche Personen (Mutter, Schwester etc.), die meisten Eigennamen von Ländern und Städten sowie die Namen doppelt vorhandener Körperteile (Fuß - qadam; Hand - yad; Auge -ʿayn) sind auch ohne weibliche Endung weiblich. Das Gleiche gilt für einige weitere Substantive wie z. B. die Wörter für „Wind“ "(rīḥ)", „Feuer“ "(nār)", „Erde“ "(arḍ)" oder „Markt“ "(sūq)". Der Numerus. Es gibt drei Numeri: Singular (Einzahl), Dual (Zweizahl) und Plural (Mehrzahl). In den Dialekten hat sich die Kategorie des Numerus jedoch teilweise auf bemerkenswerte Weise verändert. So ist im ägyptischen Dialekt bei den meisten Substantiven der Dual nicht mehr im Gebrauch und daher das Inventar auf zwei Numeri reduziert. Auf der anderen Seite haben einige Substantive für Zeiteinheiten nicht nur den Dual bewahrt, sondern als vierten Numerus noch einen gesonderten Zählplural ausgebildet, z. B. „Tag“: Singular "yōm", Dual "yōmēn", Plural "ayyām", Plural nach Zahlwörtern "tiyyām". Das Kollektivum. Das Arabische kennt auch ein Kollektivum, das u. a. bei Obst- und Gemüsesorten vorkommt. Ein Beispiel hierfür ist; um den Singular eines Kollektivums zu bilden, wird ein Ta marbuta angehängt:. Der Kasus. Man unterscheidet drei Fälle: Nominativ (al-marfūʿ; auf -u endend), Genitiv (al-maǧrūr; auf -i endend) und Akkusativ (al-manṣūb; auf -a endend), die meist durch die kurzen Vokale der Wortendungen (im Schriftbild durch orthographische Hilfszeichen) markiert werden. Die meisten Nomen werden triptotisch flektiert, d. h. sie weisen den drei Kasus entsprechend drei unterschiedliche Endungen auf (determiniert: "-u, -i, -a"; indeterminiert: "-un, -in, -an"). Daneben gibt es Diptota – Nomina, bei denen die Genitivendung im Status indeterminatus gleich der Akkusativendung -a lautet (die beiden Kasus werden formal nicht unterschieden) und die keine Nunation haben ("-u, -a, -a"). Diptotisch flektiert werden vor allem Adjektive der Grundform "afʿal" (darunter Farbadjektive wie "aḥmar-u, aḥmar-a – rot") und bestimmte Pluralstrukturen (wie "fawāʿil", Bsp.: "rasāʾil-u, rasāʾil-a – Briefe"). Der Genitiv folgt beispielsweise immer nach Präpositionen (z. B. "fi ’l-kitābi – in dem Buch") und in einer Genitivverbindung auf das Nomen regens (Bsp.: "baitu ’r-raǧuli – das Haus des Mannes"). Die arabische Sprache unterscheidet nicht wie das Deutsche zwischen einem direkten (Akkusativ-) Objekt und einem indirekten (Dativ-) Objekt. Stattdessen kann die Konstruktion aus Präposition und Genitiv im Deutschen häufig mit dem Dativ wiedergegeben werden. Beispiel: fi ’l- baiti - in dem Haus Das Verb. Die wirkliche Komplexität der arabischen Sprache liegt in der Vielfalt ihrer Verbalformen und der daraus abgeleiteten Verbalsubstantive, Adjektive, Adverbien und Partizipien. Jedes arabische Verb verfügt mit dem Perfekt und dem Imperfekt zunächst über zwei Grundformen, von denen erstere eine vollendete Handlung in der Vergangenheit ausdrückt (Beispiel: "kataba – er schrieb/hat geschrieben"), letztere hingegen eine unvollendete im Präsens oder Futur ("yaktubu – er schreibt/wird schreiben"). Das Futur (I) kann aber auch durch Anhängen des Präfixes "sa-" oder durch die Partikel "saufa" vor dem Imperfekt gebildet werden ("sayaktubu/saufa yaktubu – er wird schreiben"). Zudem kennt das Arabische gleichfalls eine Art Verlaufsform der Vergangenheit ("kāna yaktubu – er pflegte zu schreiben") und die beiden Zeitstufen Futur II ("yakūnu qad kataba – er wird geschrieben haben") und Plusquamperfekt ("kāna qad kataba – er hatte geschrieben"), die allerdings in erster Linie in geschriebenen Texten vorkommen. Das Imperfekt gliedert sich in die Modi Indikativ "(yaktubu)", Konjunktiv "(yaktuba)", Apokopat "(yaktub)" und Energikus ("yaktubanna" oder "yaktuban"). Der Konjunktiv kommt u. a. nach Modalverben (z. B. arāda - wollen) im Zusammenhang mit ʾan (dass) oder als negierte Form des Futurs mit der Partikel lan (lan yaktuba - er wird nicht schreiben) vor. Der Apokopat wird zumeist als Verneinung der Vergangenheit zusammen mit der Partikel lam verwendet (lam yaktub - er schrieb nicht). Der Energikus kann häufig mit der Konstruktion fa+l(i) gebildet werden ((fal-)yaktubanna- er soll/ muss schreiben). Eine weitere wichtige Form ist das Verbalsubstantiv ("kitābatun – das Schreiben"). Die Bildung der Verbalsubstantive erfolgt bis auf den Grundstamm nach einem festen Schema, d. h. die Verbalsubstantive der Stämme II - X lassen sich bis auf wenige Ausnahmen nach bestimmten Stammbildungsmorphemen ableiten (Bsp.: tafʿīl für den II. Stamm, mufāʿala/ fiʿāl für den III. Stamm usw.). Bsp.: nāqaša (III) - diskutieren → munāqaša/niqāš - Dialog; Diskussion iḥmarra (von aḥmar) - erröten, rot werden kātaba (III) - korrespondieren mit jmdm. Jeder Stamm besitzt bestimmte Eigenschaften, z. B. ein Präfix, Verlängerung, Änderung oder Wegfall eines Vokals oder auch Verdopplung (Gemination) des mittleren Radikals (d. h. Wurzelkonsonanten). Die Art und Reihenfolge dieser Konsonanten, mit Ausnahme sogenannter schwacher Radikale, ändern sich hingegen innerhalb einer Wortfamilie nie. Die meisten Verbformen lassen sich schematisch ableiten. Eine Eigenheit der arabischen Grammatik erleichtert die mündliche Wiedergabe des Hocharabischen sehr: Am Ende eines Satzes fällt im Hocharabischen die Vokalendung meist weg. Man nennt diese Form „Pausalform“. Nun werden aber die drei Fälle und auch zum Teil die Modi gerade durch diese Endungen ausgedrückt, die bei einer Sprechpause wegfallen. Deshalb benutzen viele Sprecher, wenn sie modernes Hocharabisch sprechen, sehr häufig diese „Pausalform“ und ersparen sich so einen Teil der manchmal komplizierten Grammatik. Das komplizierte System der Verbformen ist in vielen Dialekten noch weitestgehend erhalten, sodass die Dialektsprecher damit weniger Schwierigkeiten haben. Obwohl wie unten beschrieben die Bedeutung eines Wortes meist an den Konsonanten hängt, sind es gerade die kurzen Vokale, die einen großen Teil der komplizierten Grammatik ausmachen. Das Arabische ist eine Sprache, in der die Verben „sein“ und „haben“ viel unvollständiger als im Deutschen ausgebildet sind. Positive Nominalsätze mit präsentischem Zeitwert werden in der Regel ohne Kopula gebildet ("ʾanā kabīr" – „ich [bin] groß“); nur zur Verstärkung oder wenn die Syntax es formal notwendig macht (z. B. nach der Konjunktion أن "ʾan" – „dass“) wird – wie in der Zeitstufe der Vergangenheit – das temporale Hilfsverb "kāna" für „sein“ gebraucht. Zur Verneinung des Nominalsatzes (ohne Kopula) dient im Präsens die flektierbare Negation "laisa" („nicht sein“). Das Verb „haben“ existiert gar nicht, es wird stattdessen durch die Präpositionen "li-" („für“), "fī" („in“), "maʿa" („mit“) und besonders "ʿinda" („bei“) + Personalsuffix ausgedrückt, wobei es sich wieder um einen Nominalsatz handelt ("ʿindī..." – „bei mir [ist]...“ = „ich habe...“; verneint: "laisa ʿindī..." – „bei mir [ist] nicht...“ = „ich habe nicht...“). Da ferner das Arabische relativ wenige eigenständige Adverbien (im Deutschen wären das z. B. „noch“, „fast“, „nicht mehr“ etc.) besitzt, enthalten manche Verben neben ihrer ursprünglichen Bedeutung auch noch eine adverbiale Bedeutung. Diese Verben können im Satz alleine oder in Verbindung mit einem anderen Verb im Imperfekt stehen, z. B. "mā zāla" (wörtlich: „nicht aufgehört haben“) – ((immer) noch (sein)) oder "kāda" (fast/beinahe (sein)). In manchen Dialekten werden diese Adverbien anders ausgedrückt. So heißt "noch" in Ägypten "lissa" oder "bardu". Eine weitere Verbkategorie sind die Zustandsverben (z. B. "kabura" – „groß sein“, "ṣaġura" – „klein sein“), welche ein Adjektiv verbalisieren und anstelle eines Nominalsatzes verwendet werden können. Das Wortmuster dieser Verben ist häufig "faʿila" oder "faʿula". Diese Kategorie enthält einen großen Wortschatz, wird aber im Vergleich zu den Verben, welche eine Aktion ausdrücken (z. B. "ʾakala" – „essen“), seltener benutzt. Verbalstamm: Wurzelkonsonant. Arabische Wörterbücher sind häufig so angelegt, dass die einzelnen Wörter nach ihren Wurzeln, also quasi ihren „Wortfamilien“, geordnet sind. Daher ist es beim Erlernen des Arabischen wichtig, die Wurzelkonsonanten eines Wortes identifizieren zu können. Der überwiegende Teil der Wörter hat drei Wurzelkonsonanten, einige auch vier. Durch das Abtrennen bestimmter Vor-, Zwischen- und Endsilben erhält man die Wurzel eines Wortes. Gerade Anfänger sollten solche nach Wurzeln geordnete Wörterbücher benutzen, da der Gebrauch „mechanisch-alphabetisch“ geordneter Lexika bei geringen Grammatikkenntnissen oft dazu führt, dass eine Form nicht erkannt und falsch übersetzt wird. Wortschatz. Im klassischen Hocharabisch treten noch die meist nicht geschriebene Endungen -a, -i, -u, -an, -in, -un, -ta, -ti, -tu, -tan, -tin, -tun oder auch keine Endung auf. Für das T in den Endungen siehe Ta marbuta; für das N in diesen Endungen siehe Nunation. Der Wortschatz ist zwar extrem reich, aber oft nicht klar normiert und mit Bedeutungen aus der Vergangenheit überfrachtet. So gibt es zum Beispiel kein Wort, das dem europäischen Wort „Nation“ relativ genau entspricht. Das dafür gebrauchte Wort (, "Umma") bedeutete ursprünglich und im religiösen Kontext bis heute „Gemeinschaft der Gläubigen (Muslime)“; oder z. B. „Nationalität“ (, "ǧinsiyya") eigentlich „Geschlechtszugehörigkeit“ im Sinne von „Sippenzugehörigkeit“ – „Geschlechtsleben“ z. B. heißt (, "al-ḥayāt al-ǧinsiyya"), wobei "al-ḥayāt" „das Leben“ heißt. Das Wort für „Nationalismus“ (, "qaumiyya") bezieht sich ursprünglich auf die Rivalität von „(Nomaden-)Stämmen“ und kommt von "qaum", was ursprünglich und bis heute oft noch „Stamm“ im Sinne von „Nomadenstamm“ bedeutet. So überlagern sich oft in einem Wort sehr alte und sehr moderne Konzepte, ohne dass das eine über das andere obsiegen würde. „Umma“ z. B. gewinnt wieder mehr seine alte religiöse Bedeutung zurück. Es gibt durch Kontakt mit klassischen Kulturen zahlreiche alte Lehnwörter aus dem Aramäischen und Griechischen und seit dem 19. Jahrhundert viele neuere aus dem Englischen und Französischen. Die häufigsten Wörter. Wie in anderen Sprachen sind auch im Arabischen die Strukturwörter am häufigsten. Je nach Zählmethode und Textkorpus erhält man unterschiedliche Ergebnisse. Beide Zählungen lassen den bestimmten Artikel "al-" (der, die, das) außer Acht. Das häufigste Substantiv, das im Deutschen eine substantivische Entsprechung hat, ist laut der Riader Studie يوم "yaum" („Tag“), das häufigste Adjektiv كبير "kabīr" („groß“). Übersetzungen. Übertragungen ins Arabische erfolgen meist aus dem Englischen und Französischen, oft aus dem Spanischen sowie zur Zeit der Sowjetunion aus dem Russischen. Selten sind Übertragungen aus anderen europäischen Sprachen wie auch aus dem Japanischen, Chinesischen, Persisch, Türkisch und Hebräisch. So liegen zum Beispiel Werke von Jürgen Habermas lediglich in einer in Syrien erschienenen Übertragung aus dem Französischen vor. Einige Werke von Friedrich Nietzsche, ebenfalls aus dem Französischen, wurden in Marokko verlegt. In Syrien erschien "Der Antichrist" von Nietzsche in einer Übersetzung aus dem Italienischen. Die Buchmesse Kairo, zweitgrößte der Welt für den arabischen bzw. nordafrikanischen Raum, ist staatlich. Arabisch lernen. Zahlreiche deutschsprachige Universitäten und gemeinnützige Weiterbildungseinrichtungen bieten Kurse für Arabisch als Fremdsprache an, z. B. als Teil der Orientalistik, Theologie, oder eben der Arabistik, der Wissenschaft der arabischen Sprache und Literatur. Das Interesse für Arabisch als Fremdsprache beruht unter anderem darauf, dass es die Sprache des Koran ist und alle islamischen Begriffe in ihrem Ursprung arabisch sind. In muslimischen Schulen weltweit gehört Arabisch zum Pflichtprogramm. Es gibt eine Vielzahl von Arabisch-Sprachschulen, wobei sich die meisten im arabischsprachigen Raum oder auch in nichtarabischen muslimischen Regionen befinden. Didaktik. Für westliche Lerner des Arabischen ist das erste große Hindernis die arabische Schrift, im deutschsprachigen Raum wird vor allem auf das Erlernen des Modernen Standard-Arabischen (MSA) gezielt, welches im Unterschied zu den arabischen Dialekten auch geschrieben wird. Seine Mutterform, "Fusha", gilt als Sakralsprache und beachtet die sog. Nunation, worauf beim MSA größtenteils verzichtet wird. Da die arabische Schrift mit Ausnahme von Lehrbüchern und Korantexten ohne Vokalisierung geschrieben wird, nimmt das Erlernen des geschriebenen Wortschatzes unverhältnismäßig viel Zeit in Anspruch, verglichen mit Sprachen ohne Konsonantenschrift. Auch in arabischsprachigen Ländern wird in den ersten zwei Schuljahren ausnahmslos alles mit Vokalisation geschrieben. Was die Grammatik des modernen Standard-Arabischen betrifft, so wirkt sich der spätere Wegfall der Vokalisierungen bremsend auf die Lerngeschwindigkeit aus. Sogar für Muttersprachler wird in der Schule ein Großteil des Arabischunterrichts für die korrekte Konjugation verwendet. Aorta. Hauptschlagader (Aorta),schematische Darstellung Die Aorta (altgr. "aortē", von "aeirō" „ich hebe“), auch Hauptschlagader oder große Körperschlagader, ist ein großes Blutgefäß, das direkt aus der linken Seite des Herzens entspringt. Sie leitet das Blut aus der linken Herzkammer (linker Ventrikel) in die Gefäße des großen Blutkreislaufs. Die Aorta ist die größte Schlagader (Arterie) des Körpers. Beim erwachsenen Menschen hat sie in der Regel einen Durchmesser von etwa 2,5–3,5 cm und eine Länge von 30–40 cm. Sie hat die Form eines aufrechten Spazierstocks mit einem bogenförmigen Anfang und einem geraden Verlauf nach unten bis in den Beckenbereich. Abschnitte. Die Aorta im Bauchraum mit Abgängen (rot) Windkesselfunktion. Aufgrund der großen Elastizität ihrer Gefäßwand erfüllt die Aorta eine so genannte Windkesselfunktion, die durch Druckausgleich aus dem schubweise aus dem Herz ausgestoßenen Blut einen kontinuierlichen Blutstrom macht. Der Druck des Blutes wird dabei ständig durch Drucksensoren (so genannte Barorezeptoren) gemessen. AutoCAD. AutoCAD ist Teil der CAD-Produktpalette von Autodesk. Die aktuelle (deutsche) Version AutoCAD 2015 wurde im April 2014 vorgestellt. Die Autodesk-Produktpalette ist mit mehr als 3 Mio. verkauften Lizenzen weltweit die meistgenutzte CAD-Software. Beschreibung. AutoCAD wurde als grafischer Zeichnungseditor von der Firma AutoDesk entwickelt. Hauptsächlich wurde AutoCAD als einfaches CAD-Programm mit Programmierschnittstellen zum Erstellen von technischen Zeichnungen verwendet. Heute umfasst die Produktpalette eine umfangreiche 3D-Funktion zum Modellieren von Objekten sowie spezieller Erweiterungen insbesondere für Ingenieure, Maschinenbauingenieure, Architekten, Innenarchitekten und Designfachleute sowie Geoinformatiker und Gebäudetechniker. AutoCAD ist grundsätzlich ein vektororientiertes Zeichenprogramm, das auf einfachen Objekten wie Linien, Polylinien, Kreisen, Bögen und Texten aufgebaut ist, die wiederum die Grundlage für kompliziertere 3D-Objekte darstellen. Die zu AutoCAD entwickelten Dateiformate.dwg sowie.dxf bilden einen Industriestandard zum Austausch von CAD-Daten. Laut Autodesk wurden seit der Erfindung des DWG-Formates rund drei Milliarden Dateien erstellt, davon wurden im Jahr 2006 eine Milliarde aktiv bearbeitet. Betriebssysteme. AutoCAD lief unter MS-DOS und wurde auch auf Unix und Apple Macintosh portiert. Seit Release 14 in den 1990er Jahren wurde nur noch Microsoft Windows als Betriebssystem unterstützt. Seit dem 15. Oktober 2010 ist AutoCAD für Mac OS X erhältlich (ab Version 10.5.8). Mit "AutoCAD 360", vormals unter dem Namen "AutoCAD WS" vermarktet, stehen auch vereinfachte, kostenfreie Versionen als Webapp und native Mobile App für Smartphones und Tablet-PCs zur Verfügung (Android und iOS). Versionen. Die aktuelle Version ist AutoCAD 2015, erschienen im März 2014. Die aktuelle deutsche Version wurde im April 2014 vorgestellt. Varianten. AutoCAD wird in verschiedenen Varianten mit unterschiedlichem Funktionsumfang angeboten. AutoCAD. "AutoCAD" ist eine Software zur Bearbeitung von technischen Zeichnungen als Vektorgrafiken in 2D- und 3D. Die Software ist programmiert in C++ und besitzt mehrere Programmierschnittstellen wie zum Beispiel AutoLISP. AutoCAD wird häufig mit zusätzlicher Software eingesetzt, die mit vorgegebenen Symbolen, Makros und Berechnungsfunktionen zur schnellen Erstellung von technischen Zeichnungen dient. Im Zuge der Weiterentwicklung wurden diese Funktionen direkt in die auf AutoCAD basierenden Produkte integriert. AutoCAD LT. "AutoCAD LT" ist eine vereinfachte AutoCAD-Variante, mit der meist 2D-Zeichnungen erstellt werden und die weniger Programmierschnittstellen besitzt. Auch hier gibt es zusätzliche Software, die durch die vorgegebenen Symbole, Makros und Software mit Berechnungsfunktionen zur schnellen Erstellung von technischen Zeichnungen dient. Aufgrund der geringeren Funktionalität ist "AutoCAD LT" kostengünstiger als die 3D-Variante AutoCAD. AutoCAD Mechanical. "AutoCAD Mechanical" ist eine Erweiterung von AutoCAD für den Maschinenbau-Bereich (CAM), die aus dem ehemaligen deutschen Softwarehaus "GENIUS CAD software GmbH" im bayerischen Amberg durch Übernahme seitens "Autodesk" entstanden ist. Es ist eine sehr leistungsfähige 2D-Applikation mit deutlich erweitertem Befehlsumfang, Normteilen, Berechnungs- und Stücklistenfunktionen. Die früher vertriebene Erweiterung "Mechanical Desktop" für die mechanische 3D-Konstruktion wird nicht mehr weiterentwickelt. Stattdessen gibt es das wesentlich leistungsfähigere und modernere parametrische 3D-Programm für die Konstruktion in Mechanik und Maschinenbau "Autodesk Inventor", von welchem mittlerweile Version 2016 ("Inventor 2016") aktuell ist. "AutoCAD", "AutoCAD Mechanical" und "Autodesk Inventor" werden mit weiteren Produkten als Paket mit den Namen „Product Design Suite“ vermarktet. Eine Erweiterung stellt „Product Design Suite Ultimate“ mit dem „Inventor Professional“ dar, das die Funktionalität um FEM-Berechnung, dynamische Simulation, Rohrleitungs- und Kabelbaumkonstruktion erweitert. Die Verwaltung der Konstruktionsdaten kann mit "Autodesk Vault" erfolgen. AutoCAD Architecture. "AutoCAD Architecture" ist eine erweiterte AutoCAD-Variante für den Bau- und Architekturmarkt (CAAD), die über eine vordefinierte 3D-Bibliothek für Bauteile, die zum Konstruieren von Gebäuden benötigt werden (Wände, Fenster, Treppen, Dächer, etc.) verfügt. AutoCAD Architecture ersetzt den bis zur Einführung von Autodesk entwickelten Architectural Desktop (ADT). Wie bei anderen Software-Lösungen auf Basis von AutoCAD (Civil3d, Inventor, …) handelt es sich um ein so genanntes "vertikales Produkt". Die Zeichnung wird wahlweise in 2D oder 3D angefertigt und Grundrisse, Ansichten und Schnitte, die für den Bau notwendig sind, werden automatisch erstellt. Da AutoCAD Architecture objektorientiert arbeitet und das IFC-Format beherrscht, kann es zu den BIM-CAD Systemen gezählt werden. AutoCAD MEP. "AutoCAD MEP" () ist eine erweiterte AutoCAD-Architecture-Variante für die Gebäudetechnik (MEP), die über eine vordefinierte 3D-Bibliothek für Bauteile, die zum Konstruieren von gebäudetechnischen Anlagen benötigt werden (Heizkessel, Heizkörper, Rohrleitungen, Rohrleitungsarmaturen, Klimakomponenten, Elektrotrassen, Schalter und Dosen, etc.) verfügt. Die Zeichnung wird vollständig 3D angefertigt und Grundrisse, Ansichten und Schnitte, die für die Gebäudetechnik notwendig sind, werden wie bei "AutoCAD Architecture" automatisch erstellt. Die Kompatibilität zu "AutoCAD Architecture" ist damit gewährleistet. AutoCAD ReCap. AutoCAD ReCap ist eine AutoCAD-Erweiterung, die zusätzlich zu den 3D-Modellen das Verarbeiten von Punktwolken, wie sie zum Beispiel Laserscanner liefern, in AutoCAD ermöglicht. AutoCAD Map 3D. AutoCAD 2D-Karte der US Navy, 1989 AutoCAD Map 3D basiert auf AutoCAD und ergänzt dieses um umfangreiche Funktionen für den Bereich Kartografie. Mit dem Programm erstellt und bearbeitet man technische Karten. Es lassen sich durch diverse Schnittstellen Daten aus zahlreichen Quellen integrieren und in gewissem Umfang auch Geodaten-Analysen durchführen. In der aktuellen Version sind die 3D-Funktionen erweitert worden, so lassen sich unter anderem auch Höhenlinienpläne generieren. Autodesk Topobase. 1998 wurde die Software "Topobase" von der Schweizer Firma "C-Plan AG" in Gümligen als AutoCAD-Erweiterung veröffentlicht. 2005 wurde angekündigt, dass die Firma von Autodesk übernommen werde, was 2006 geschah. Die Erweiterung macht "AutoCAD Map 3D" zu einem Geoinformationssystem und basiert auf einer nach Standards des Open Geospatial Consortium schematisierten Datenbank von Oracle mit Spatial-Erweiterung. Seit der Version 2012 ist sie in Map 3D integriert und für alle Fachschalen einsetzbar. Autodesk Infrastructure Map Server. Auch "TB-Web GIS" wurde von der Firma "C-Plan" neben Topobase entwickelt. Nach Übernahme durch Autodesk wurde die Software als "Autodesk Topobase Web" angeboten. Autodesk entwickelte das PHP-basierte Web-GIS-Framework "Autodesk MapGuide Enterprise", das von der Open Source Geospatial Foundation OSGeo quelloffen als MapGuide Open Source erhältlich ist. Die Produkte "Autodesk MapGuide Enterprise" und "Autodesk Topobase Web" wurden zusammengelegt zur Mapserver-Software mit Web-GIS-Framework namens Autodesk Infrastructure Map Server. AutoCAD Civil 3D. AutoCAD Civil 3D basiert auf AutoCAD und ist für die Bearbeitung von Tiefbauprojekten, insbesondere Verkehrswege-, Landschaftsplanung, Geländemodellierung und Wasserbau, geeignet. Um die Bearbeitung von Projekten zu ermöglichen, die sich über weite und komplexe Geländeformen ziehen, ist die volle Funktionalität von AutoCAD Map 3D in AutoCAD Civil 3D integriert. AutoCAD ecscad. AutoCAD ecscad basiert auf AutoCAD und ist für die Planung elektrotechnischer Steuerungssysteme, sogenannter Stromlaufpläne geeignet. Autodesk AutoSketch. Das ebenfalls von "Autodesk" stammende Programm "SketchBook" ist kein richtiges CAD-Programm, sondern ein einfaches Vektor-Zeichenprogramm. Aktuelle Version ist SketchBook 2011. Programmierschnittstellen. AutoCAD bietet eine Vielzahl an Programmierschnittstellen (APIs) für Customizing und Automatisierung. Als interne Programmierschnittstellen stehen heute zur Verfügung Durch den Einsatz von Vorgabezeichnungen, Blöcken, Symbolen, Linientypen und externen Spezialprogrammen, zum Beispiel für die Ausgabe von Berechnungsergebnissen können relativ einfach fast alle geometrischen und technischen Darstellungen erzeugt oder modifiziert werden. DWG. Nach außen ist dieses Dateiformat durch den Dateinamenanhang ".dwg", für ‚normale‘ Zeichnungsdateien gekennzeichnet. Das Kürzel steht für (engl. für „Zeichnung“). Die Dokumentation der Dateistruktur ist nicht frei erhältlich, jedoch findet man im Internet eine Dokumentation der Open Design Alliance Das DWG-Dateiformat wurde kontinuierlich an die Anforderungen der jeweiligen AutoCAD-Versionen angepasst und erweitert. So wurde das Format mit Einführung der Versionen AutoCAD 2000, AutoCAD 2004, AutoCAD 2007 und AutoCAD 2010 geändert. Die als "DWG 2000", "DWG 2004", "DWG 2007", "DWG 2010" und "DWG 2013" bezeichneten Formate können nicht in ältere AutoCAD-Versionen eingelesen werden. Die eingeschränkte Kompatibilität des DWG-Dateiformats zu älteren AutoCAD-Versionen kann durch die Verwendung des DXF-Dateiformats und den Einsatz von externen Konverterprogrammen teilweise umgangen werden. Die ersten 6 Bytes einer dwg-Datei sind mit einem gewöhnlichen Texteditor lesbar. Sie geben die Version der DWG-Datei an. Aktuelle Dateien der Version AutoCAD 2013 bis AutoCAD 2015 beginnen mit dem Header AC1027. DXF. Die DXF-Schnittstelle ist eine quelloffene Schnittstelle des Herstellers Autodesk und unterliegt keinem neutralen Normungsausschuss, die Dokumentation für DXF ist aber frei verfügbar. Sie ist ein in ASCII-Zeichen lesbares Abbild der binär abgespeicherten DWG. AutoCAD unterstützt DXF (engl., „Zeichnungsaustauschformat“) für den Datenaustausch mit anderen CAD-Programmen in der aktuellen Version und jeweils noch meist 3–4 älteren Stände. Das DXF-Dateiformat unterstützt direkt 2D- und 3D-Koordinaten sowie zum Beispiel Linien, Bögen und einfache Flächen und weitere komplexe Geometrieelemente wie zum Beispiel Blöcke, ARX-Objekte und Bemaßungen. Es ist mit einfachen Mitteln zum Beispiel mit Texteditoren und fast allen Programmiersprachen, einschließlich mit dem VBA von Excel möglich, DXF-Dateien zu erzeugen, auszuwerten oder zu manipulieren. Diese Möglichkeiten bieten sich besonders für geometrische und auf geometriebasierende Berechnungen von CAD-Modellen zum Beispiel zur Optimierung von Flächen an. Der Aufbau ist sehr klar, einfach und strukturiert. Diese Schnittstelle hat sich im CAD-Markt als ein Quasi-Datenaustauschstandard etabliert, obwohl sie nicht von Autodesk mit diesem Ziel entwickelt wurde. Das DXF-Format wurde von Autodesk dazu geschaffen, um geometrische Informationen von AutoCAD an eine interne oder externe Applikation zur weiteren Verwendung zu übergeben. Genauso sollte das Ergebnis zum Beispiel einer Berechnung wieder aus der Applikation zurück an AutoCAD übergeben werden. Dazu wurde eine Liste von geometrischen Objekten von den Entwicklern erstellt und sauber dokumentiert. Diese offene Dokumentation wurde dann von anderen CAD-, CNC- und CAM-Herstellern wegen ihrer einfachen Struktur und Übersicht als CAD-Schnittstelle übernommen. Sie ist der oft kleinste gemeinsame Nenner vieler Vektorgrafikprogramme und wird von fast allen unterstützt. Allerdings werden meist nicht alle Funktionen von den anderen Herstellern voll unterstützt und es gehen daher manchmal entscheidende Details beim Austausch via DXF verloren. Auch das DXF-Dateiformat wurde, wie das DWG-Dateiformat, kontinuierlich an die Anforderungen der jeweiligen AutoCAD-Versionen angepasst und erweitert. DXB. Das DXB-Dateiformat (engl.) ist eine binäre Form des DXF-Dateiformates. Es ist extrem kompakt, kann im Verhältnis zu DXF schnell gelesen und geschrieben werden, ist aber für den Programmierer wesentlich aufwendiger als die ASCII-Variante. DXB wird nur in wenigen, hauptsächlich zeitkritischen Anwendungsfällen verwendet. DWF. Ein weiteres Format ist das Dateiformat "DWF" (engl.) als hochkomprimiertes Vektorformat zur Präsentation im Internet und zur Ansicht. Das Format ist dokumentiert. Ein DWF-Toolkit mit C++-API zum Lesen und Schreiben ist mit Quelltext kostenlos bei Autodesk erhältlich. DWFx ist eine Weiterentwicklung von DWF, die auf dem XPS-Format von Microsoft basiert. DGN. Ein weiteres Format ist das Dateiformat "DGN", das von MicroStation definiert wird und auch in den aktuellen AutoCAD Versionen unterstützt wird. Das Kürzel DGN steht für (engl. für „Entwurf“). SHP. Ein weiteres Format ist das Dateiformat "SHP" (engl. Shapefile; nicht zu verwechseln mit dem ESRI-Shapefile), eine Symboldefinition. Dieses Dateiformat wird zur Codierung von Zeichnungselementen auf unterster Ebene eingesetzt und wird vor der Verwendung zu "SHX" kompiliert. Anwendungsgebiete sind benutzerdefinierte Schraffuren, Linien, Bemaßungen oder Schriftarten. Es können nur die elementarsten Objekte definiert werden wie Linien und Bögen. Anwendungen. Für AutoCAD gibt es zu vielen Bereichen Spezial-Anwendungen. Beispielsweise für das Bauwesen, den Maschinenbau (siehe oben), den Landschaftsbau, die Versorgungs- und Elektrotechnik. Diese sind in der Regel in C++ geschrieben. Autodesk bietet hier mit ObjectARX (C++-API) die entsprechenden Grundlagen. Die Entwicklung geht auch hier zu .NET. Einfache Programmwerkzeuge (Tools) sind bisweilen in VisualBasic oder VBA geschrieben worden. Hinzu kommen eine Vielzahl von AutoLISP-Routinen, die oft in freien Foren ausgetauscht werden. Eine Auflistung kommerzieller Anwendungen findet sich im Autodesk-Katalog. AutoCAD-Kurse im Test. Die Stiftung Warentest hat im Februar 2015 AutoCAD-Kurse für Einsteiger getestet. Sieben Kurse wurden getestet, vier davon bekamen eine gute Qualität bescheinigt. Unter den Anbietern waren Handwerkskammern, Industrie- und Handelskammern und kommerzielle Bildungsanbieter. Die Kosten für die drei- bis fünftägigen Kurse variierten zwischen 143 und 2090 Euro, wobei sowohl der günstigste als auch der teuerste Kurs nur mittelmäßig abschnitten. Alessandro Volta. Alessandro Giuseppe Antonio Anastasio Graf von Volta (* 18. Februar 1745 in Como; † 5. März 1827 ebenda) war ein italienischer Physiker. Er gilt als Erfinder der Batterie und als einer der Begründer der Elektrizitätslehre. Leben und Werk. Volta wurde als Sohn einer wohlhabenden Familie in Como im damals habsburgischen Norditalien als eines von neun Kindern geboren, von denen fünf – wie auch einige Onkel – Priester wurden. Der Vater selbst war lange Jesuitennovize. Voltas Eltern, Filippo Volta und Maria Maddalena dei Conti Inzaghi, hatten aber eine andere Laufbahn für Volta vorgesehen und schickten ihn in Vorbereitung einer Juristenlaufbahn von 1758 bis 1760 auf eine Jesuitenschule. Im Selbststudium beschäftigte er sich mit Büchern über Elektrizität (Pieter van Musschenbroek, Jean-Antoine Nollet, Giambatista Beccaria) und korrespondierte mit führenden Gelehrten. Der Turiner Physik-Professor Beccaria riet ihm, sich auf experimentelle Arbeit zu konzentrieren. 1769 veröffentlichte er seine erste physikalische Arbeit, die schon Kritik an den Autoritäten laut werden ließ. 1775 wuchs seine Bekanntheit durch die Erfindung des bald in ganz Europa benutzten Elektrophors, mit dem durch Influenz erzeugte statische Elektrizität erzeugt und transportiert werden konnte. 1774 wurde er zum Superintendenten und Direktor der staatlichen Schulen in Como ernannt. Schon 1775 wurde er dann zum Professor für Experimentalphysik an der Schule in Como berufen. 1776 entdeckte er in aus den Sümpfen am Lago Maggiore aufsteigenden Gasblasen Methan und begann mit dem brennbaren Gas zu experimentieren (Volta-Pistole, in der ein elektrischer Funke in einer Flasche die Verbrennung auslöst, also eine Art Gasfeuerzeug). Er konstruierte damit stetig brennende Lampen und benutzte seine Volta-Pistole als Messgerät für den Sauerstoffgehalt von Gasen (Eudiometer). All diese Entdeckungen führten dazu, dass er 1778 (nach einer Reise in die Schweiz 1777, wo er u. a. Voltaire traf) zum Professor für Physik an der Universität Pavia berufen wurde. Dort erfand er ein („Strohhalm“-) Elektroskop zur Messung kleinster Elektrizitätsmengen (1783), quantifizierte die Messungen unter Einführung eigener Spannungseinheiten (das Wort „Spannung“ stammt von ihm) und formulierte die Proportionalität von aufgebrachter Ladung und Spannung im Kondensator. 1792 erfuhr er von den Frosch-Experimenten des angesehenen Anatomen Luigi Galvani, die dieser auf animalische Elektrizität zurückführte. Volta erkannte aber die Ursache der Muskelzuckungen in äußeren Spannungen (etwa Kontaktelektrizität, falls mit mehreren Metallen experimentiert wurde), und es entsprang ein Streit um den Galvanismus, der die Wissenschaftler in ganz Europa in Lager teilte. Für Galvani lag die Erklärung darin, dass der Frosch eine Art Leidener Flasche (also ein Kondensator) war, für Volta war er nur eine Art Detektor. Heute ist immer noch wichtig, dass sich daraus Voltas langjährige Untersuchungen zur Kontaktelektrizität und schließlich seine bahnbrechende Erfindung der Batterie ergab. Volta soll in seinen Schriften auch die Idee des Telegraphen und das Gay-Lussac-Gesetz (Volumenausdehnung von Gasen proportional zur Temperatur) vorweggenommen haben. Seine größte und erfolgreichste Erfindung war jedoch die um 1800 konstruierte Voltasche Säule, die erste funktionierende Batterie (nachdem er schon in den 1790er Jahren elektrische Spannungsreihen verschiedener Metalle untersucht hatte). Sie bestand aus übereinander geschichteten Elementen aus je einer Kupfer- und einer Zinkplatte, die von Textilien, die mit Säure (zunächst Wasser bzw. Salzlake) getränkt waren, voneinander getrennt waren. Er schildert die Erfindung in einem berühmten Brief an Sir Joseph Banks von der Royal Society. Erst diese Erfindung der Batterie ermöglichte die weitere Erforschung der magnetischen Eigenschaften elektrischer Ströme und die Anwendung der Elektrizität in der Chemie im folgenden Jahrhundert. 1791 ernannte ihn die Londoner Royal Society zum Mitglied und verlieh ihm 1794 ihre Copley-Medaille. 1792 ging er auf seine zweite Auslandsreise, bei der er u. a. Pierre Simon Laplace, Antoine Laurent de Lavoisier in Paris sowie Georg Christoph Lichtenberg in Göttingen besuchte. 1801 reiste er nach Paris, wo er am 7. November Napoleon Bonaparte seine Batterie vorführte. 1802 erhielt er vom Institut de France die Ehrenmedaille in Gold und von Napoleon eine Pension. Nachdem Napoleon Italien erobert hatte, ernannte er Volta, der sich schon damals eigentlich zur Ruhe setzen wollte, 1809 zum Senator und erhob ihn 1810 in den Grafenstand. Nach der Erfindung der Batterie gab er die Forschung und Lehre zunehmend auf, wurde aber durch die Ernennung zum Dekan der philosophischen Fakultät 1813 noch zum Bleiben bewogen bis zu seiner endgültigen Emeritierung 1819. Seine Karriere hatte die wechselnden Herrschaftsverhältnisse unbeschadet überstanden – er war sowohl bei den Habsburgern als auch bei Napoleon in Gunst. Im Ruhestand zog er sich auf sein Landhaus in Camnago nahe Como zurück. Volta heiratete, nachdem er vorher lange Jahre mit der Sängerin Marianna Paris gelebt hatte, 1794 die wohlhabende Teresa Peregrini, mit der er zwei gemeinsame Söhne aufzog. Er liegt in Camnago, einem Ortsteil von Como begraben, der seit 1863 "Camnago Volta" heißt. Dort kann man auch seine Instrumente im Museum Tempio Voltiano sehen. Im 19. Jahrhundert wurde Volta mit der höchsten Auszeichnung, die einem Physiker vermutlich zuteilwerden kann, geehrt: Zu seinen Ehren wurde die Maßeinheit für die elektrische Spannung international mit der Bezeichnung Volt betitelt. Vorgeschlagen wurde dies zuerst 1861 von einem Komitee der British Association for the Advancement of Science. 1964 wurde der Mondkrater "Volta" nach ihm benannt. a>. Es zeigt ihn mit der Voltaschen Säule. Schriften. Titelblatt der ersten Veröffentlichung seiner "Philosophical Transactions." von Alessandro Volta Anwendungssoftware. Mit Anwendungssoftware (auch Anwendungsprogramm, kurz Anwendung oder Applikation;, kurz App) werden Computerprogramme bezeichnet, die genutzt werden, um eine nützliche oder gewünschte nicht systemtechnische Funktionalität zu bearbeiten oder zu unterstützen. Sie dienen der „Lösung von Benutzerproblemen“. Beispiele für Anwendungsgebiete sind: Bildbearbeitung, Videobearbeitung, Textverarbeitung, Tabellenkalkulation, Computerspiele, bestimmte betriebliche Funktionen wie Finanzbuchhaltung, Warenausgang etc. Aus dem englischen Begriff "application" hat sich in der Alltagssprache auch die Bezeichnung "Applikation", kurz "App", eingebürgert. Im deutschen Sprachraum wird die Abkürzung "App" seit dem Erscheinen des iOS App Store (2008) fast ausschließlich mit "mobiler App" gleichgesetzt, also Anwendungssoftware für Mobilgeräte wie Smartphones und Tablet-Computer. Allerdings wird inzwischen auch teilweise Desktop-Anwendungssoftware "App" genannt, z. B. beim Betriebssystem Microsoft Windows 8 (Windows-Apps), das sowohl auf Desktop-PCs als auch Tablet-PCs eingesetzt wird, oder bei Apples Betriebssystem OS X mit dem Mac App Store. Eine besondere Form von Anwendungssoftware sind Webanwendungen. Auf diese wird vom Arbeitsplatzrechner oder Mobilgerät über einen Webbrowser zugegriffen und sie laufen im Browser ab. Funktion in Abgrenzung zu systemnaher Software. Anwendungssoftware steht (nach ISO/IEC 2382) im Gegensatz zu Systemsoftware und systemnaher Unterstützungssoftware. Dazu, die aber keinen Anwender-bezogenen 'Nutzen' bringen. Beispiele sind das Betriebssystem, Compiler für verschiedene Programmiersprachen oder Programme zur Datensicherung. Anwendungssoftware kann sowohl lokal auf einem Arbeitsplatzrechner (Desktop-Anwendung) bzw. auf einem Mobilgerät (Mobil-Anwendung) installiert sein oder auf einem Server laufen, auf den vom Arbeitsplatzrechner bzw. Mobilgerät zugegriffen wird (Client-Server- bzw. Webanwendung). Sie kann, abhängig von der technischen Implementierung, im Modus Stapelverarbeitung oder im Dialogmodus (mit direkter Benutzer-Interaktion) ausgeführt werden. Diese beiden Unterscheidungen gelten aber für alle Computerprogramme, grundsätzlich auch für Systemsoftware. Die Trennlinie zwischen Anwendungssoftware und Systemsoftware verläuft unscharf. So kann man zum Beispiel Programmbibliotheken sowohl als Teil eines Betriebssystems, als Teil einer Anwendung oder auch als eine Schicht zwischen Anwendung und Betriebssystem betrachten. Ähnliches gilt für Web-Browser. Eher der technischen Seite sind Systeme der Middleware zuzurechnen, die jedoch auch anwendungsspezifische Funktionalität aufweisen können. Auch gibt es zahlreiche Möglichkeiten, Software sowohl zur Anwendungsentwicklung als auch für normale Anwenderfunktionen einzusetzen, zum Beispiel Systeme für die Tabellenkalkulation, Texteditoren oder für Endbenutzer geeignete Datenbanksysteme. Schließlich könnte etwa ein Programmierer seine Werkzeuge genauso als 'Anwendungssoftware' verstehen wie ein Buchhalter seine Bilanz-Software. Anwendungssoftware auf mobilen Endgeräten (Mobile Apps). Native mobile Apps können schnell und unkompliziert über einen in das Betriebssystem integrierten Onlineshop bezogen und direkt auf dem tragbaren Gerät installiert werden. Mobile Web-Apps werden über den Browser des Mobilgeräts abgerufen und müssen nicht installiert werden. Anwendungssoftware über ein Netz in einem Webbrowser (Web-Apps). Webanwendungen erfordern im Gegensatz zu Desktop-Anwendungen kein spezielles Betriebssystem, teilweise jedoch spezielle Laufzeitumgebungen. Einsatz. Anwendungssoftware wird in erheblichem Umfang zur Unterstützung der Verwaltung in Behörden und Unternehmen eingesetzt. Anwendungssoftware ist zum Teil Standardsoftware, zu großen Teilen werden auf den jeweiligen Anwendungsfall zugeschnittene Branchenlösungen als Individuallösungen eingesetzt. Aktuell bedeutsam ist der Einsatz mobiler Apps im Unternehmenskontext. Im Bereich der strategischen und wirtschaftlichen Anwendungssoftware innerhalb eines Unternehmens (wie ERP-Systeme oder Portal-Software) spricht man auch von "Business-Anwendungen" oder "Business Software". Antoni van Leeuwenhoek. Mikroskopischer Schnitt durch ein einjähriges Eschenholz, erstellt von Antoni van Leeuwenhoek. Antoni van Leeuwenhoek () (auch "Anthonie" oder "Antonie"; *  24. Oktober 1632 in Delft; 4. November 1632 getauft als "Thonis Philipszoon"; † 27. August 1723 ebenda) war ein niederländischer Naturforscher, Erbauer und Nutzer von Lichtmikroskopen. Leben. Leeuwenhoek war Sohn eines Korbmachers, der 1638 früh verstarb. Er nannte sich später „van Leeuwenhoek“, da sein Geburtshaus in Delft am "Leeuwenpoort", dem „Löwentor“, lag. Die Mutter, Tochter eines Bierbrauers, schickte ihren Sohn auf ein Gymnasium in der Nähe von Leiden. Der Onkel führte ihn in die Grundlagen der Mathematik und Physik ein. 1648 ging er auf Geheiß seiner Mutter nach Amsterdam, denn er sollte dort Buchhalter werden. Er hingegen nahm eine Stelle bei einem schottischen Tuchhändler an. Im Jahr 1654 kehrte er nach Delft zurück, wo er den Rest seines Lebens verbrachte. Er kaufte sich ein Haus, eröffnete einen Tuchladen und wurde Kammerherr des städtischen Gerichtshofs. Als zuverlässige und kluge Person wurde er 1679 zum Eichmeister für alkoholische Getränke ernannt, (schon 1669 war er als Landvermesser zugelassen (vgl. Meyer 1998: 15-24)). Er war mit dem Maler Jan Vermeer befreundet und, nach dessen Tod 1675, sein Nachlassverwalter. Da die Gelehrtenbilder von Vermeer "Der Astronom" und "Der Geograph" eine große Ähnlichkeit mit van Leeuwenhoek aufweisen, besteht die Möglichkeit, dass der Wissenschaftler Modell für die beiden Gemälde gestanden hat. Wirken. Leeuwenhoek konnte es sich leisten, seinem Hobby nachzugehen, der Mikroskopie. Er erlernte die Kunst des Linsenschleifens und baute seine eigenen Mikroskope. Das Lichtmikroskop aus zusammengesetzten Linsen, wie wir es heute kennen, war zwar schon vor Leeuwenhoeks Geburt in Gebrauch, vor allem die Linsen wiesen jedoch Mängel auf. Sie waren unzureichend geschliffen und besaßen Einschlüsse, sodass die Mikroskope vor allem im höheren Auflösungsbereich schlechte Ergebnisse lieferten; er aber baute solche, die aus jeweils nur einer winzigen Linse bestanden, die dafür von perfekter Qualität war. Mit diesen erreichte er Vergrößerungen bis zum 270-fachen, was die Leistung der ersten mehrlinsigen Mikroskope bei weitem übertraf. Seine winzigen, bikonvexen Linsen montierte er zwischen Messingplatten und hielt sie nahe an das Auge. Damit konnte er Objekte, die er an Nadelspitzen befestigt hatte, betrachten. Im Jahr 1668 bestätigte er die Entdeckung des Kapillarsystems (siehe Blutkreislauf) durch den italienischen Anatomen Marcello Malpighi und zeigte, wie rote Blutkörperchen durch die Kapillaren eines Kaninchenohres und eines Froschbeines zirkulierten; 1674 lieferte er die erste genaue Beschreibung von roten Blutkörperchen. Diese waren 1658 von seinem Kollegen und Konkurrenten in der mikroskopischen Forschung Jan Swammerdam entdeckt worden. 1675 beobachtete er Protozoen und Bakterien – beide nannte er "animalcules" – im Teichwasser, Regenwasser und im menschlichen Speichel. Diese Beobachtung wurde jedoch zunächst von der Royal Society mit außergewöhnlichem Spott kommentiert. Die Überprüfung seiner Angaben bestätigte diese jedoch, sodass er 1680 zum Mitglied ernannt wurde; er nahm aber nie an einem Treffen teil. 1677 beschrieb er Spermatozoen (Samenzellen) von Insekten und Menschen und widersprach der vorherrschenden Theorie von der Spontanzeugung der kleinsten Lebewesen. Er wies nach, dass sich Kornkäfer, Flöhe und Muscheln aus Eiern entwickeln und nicht, wie man damals glaubte, spontan aus Schmutz oder Sand entstehen. Er beschrieb weiter die Querstreifung der Muskulatur und das Netzwerk, das die Zellen des Herzmuskels bilden. 1683 entdeckte er Bakterien im eigenen Zahnbelag und dem von Kontrollpersonen. Das Geheimnis seiner Mikroskope. Leeuwenhoek fertigte über 500 Mikroskope an, einige innerhalb kürzester Zeit. Das Schleifen einer Linse ist jedoch ein sehr langwieriger Prozess. Seine Methode hat er nie veröffentlicht, es wird vermutet, dass die Linsen erschmolzen wurden und nicht ausschließlich durch Schleifen entstanden. Er könnte einen Stab aus Kalk-Natron-Glas in der Mitte erhitzt und durch Auseinanderziehen der Stabenden das Glas zu einem dünnen Haar gedehnt haben. Wird ein solches Haarende erneut erhitzt, entsteht eine winzige Glaskugel, die Linse des Mikroskops. Zudem wird vermutet, dass er neben den mit der Hand gehaltenen einlinsigen Modellen auch mehrlinsige Mikroskope mit Stativ verwendet hat. Nach Leeuwenhoeks Tod sollte es fast 250 Jahre dauern, bis wieder Mikroskope mit vergleichbar hoher Auflösung konstruiert werden konnten. Entdeckungen. Er beschrieb drei Bakterienformen: Bazillen, Kokken und Spirillen. Er hütete die Kunst des Linsenherstellens jedoch als Geheimnis, so dass Bakterien erst wieder beobachtet werden konnten, als es im 19. Jahrhundert gelang, bessere mehrlinsige Mikroskope zu bauen. Leeuwenhoek hatte nicht studiert, sondern nur seinen Beruf erlernt. Er konnte daher auch kein Latein, in dem damals alle wissenschaftlichen Arbeiten veröffentlicht wurden. Bis ins Jahr 1673 nahm die Welt keine Notiz von ihm. Im April dieses Jahres berichtete Reinier De Graaf, ein in Delft geborenes Mitglied der Royal Society of London, er habe von der hervorragenden Qualität der Mikroskope van Leeuwenhoeks gehört. Von diesem Zeitpunkt an wurde ihm erlaubt, seine Arbeiten an die Royal Society zu senden. Er empfing Besuche von bedeutenden Persönlichkeiten wie der britischen Königin Anne, dem Zaren von Russland Peter dem Großen und Leibniz. Während das Teleskop sofort zu Beobachtung des Weltalls und zum Entdecken von bis dahin unsichtbaren Details und Himmelskörpern eingesetzt wurde, kam vor Leeuwenhoek kaum jemand auf die Idee, mit Mikroskopen nach Strukturen oder Objekten zu suchen, die so klein sind, dass sie mit bloßem Auge nicht sichtbar sind. Bis dahin beschränkte man sich darauf, kleine, aber sichtbare Objekte wie z. B. Insekten mit Linsen zu untersuchen. Leeuwenhoek dagegen entdeckte das Reich des mikroskopisch Kleinen ("animalcula"). Möglicherweise entwickelte er auch eine Camera obscura, was die Detailpräzision der Werke seines Freundes Jan Vermeer erklären könnte. Nach seinem Tod überließ er 26 seiner Mikroskope der Royal Society. Eponyme. Der Asteroid (2766) Leeuwenhoek trägt seinen Namen. Ambra. Die Ambra oder der Amber (arab.) ist eine graue, wachsartige Substanz aus dem Verdauungstrakt von Pottwalen. Sie wurde früher bei der Parfümherstellung verwendet. Heute ist sie von synthetischen Substanzen weitgehend verdrängt und wird nur noch in wenigen teuren Parfüms verwendet. Entstehung. Historische Zeichnung eines Klumpens Ambra aus dem Jahr 1753 Ambra entsteht bei der Nahrungsaufnahme von Pottwalen. Die unverdaulichen Teile wie Schnäbel oder Hornkiefer von Tintenfischen und Kraken werden im Ambra eingebettet. Über die genaue Ursache der Entstehung besteht Unklarheit. Möglicherweise liegt eine Stoffwechselkrankheit des Pottwals vor, wenn er Ambra bildet. Einer anderen Theorie zufolge dient der Stoff dem antibiotischen Wundverschluss bei Verletzungen der Darmwand. Ins Meer gelangt die Substanz durch Erbrechen, als Kotsteine oder durch den natürlichen Tod der Tiere. Frühere Vorstellungen über die Entstehung. Über die Entstehung der Ambra wurde schon im 10. Jahrhundert spekuliert. Der arabische Reisende Al-Masudi gab Berichte von Händlern und Seeleuten wieder, die behaupteten, Ambra wachse wie Pilze auf dem Meeresboden. Sie werde bei Stürmen aufgewirbelt und so an die Küsten gespült. Ambra komme in zwei unterschiedlichen Formen, einer weißen und einer schwarzen, vor. Al-Masudi berichtete auch davon, dass an einer Stelle der arabischen Küste am Indischen Ozean die Bewohner ihre Kamele auf die Suche nach Ambra abgerichtet hätten. Al-Masudis Theorie über die Herkunft der Ambra wurde auch sechs Jahrhunderte später noch vertreten, etwa von Adam Lonitzer. Das 1721 in Leipzig erschienene "Allgemeine Lexicon der Künste und Wissenschafften" beschreibt als wahrscheinlichste Erklärung für Ambra dies als ein „erd-pech“, das durch die Flut angeschwemmt und durch Luft und Meerwasser gehärtet werde. Aus Arabien stammt auch die Vorstellung, dass Ambra aus Quellen floss, die sich nahe der Meeresküste befanden. In der Märchenerzählung "Tausendundeine Nacht" strandete Sindbad, nachdem er Schiffbruch erlitten hatte, auf einer Wüsteninsel, auf der er eine Quelle mit stinkendem, rohem Ambra entdeckte. Die Substanz floss wie Wachs in das Meer, wo sie von riesigen Fischen erst verschluckt und dann wieder in Gestalt wohlriechender Klumpen erbrochen wurde, die an den Strand trieben. Auch im antiken Griechenland, wo Ambra wegen seiner angeblich die Alkoholwirkung verstärkenden Eigenschaft Wein beigemischt wurde, nahm man eine Quelle in Meeresnähe als Ursprungsort der Ambra an. In China bezeichnete man Ambra bis etwa 1000 n. Chr. als "lung sien hiang" (Lóngxiánxiāng 龍涎香), als das „Speichelparfum der Drachen“, da man glaubte, dass die Substanz aus dem Speichel von Drachen stamme, die auf Felsen am Rande des Meeres schliefen. Im Orient ist Ambra noch heute unter diesem Namen bekannt und wird als Aphrodisiakum und als Gewürz für Nahrungsmittel und Weine verwendet. "„In diesen Landschaften gibt es ja auch viele Bienen, die an den Waldbäumen ihren Honig machen, und so passiert es denn nicht selten, dass durch heftige Stürme das Wachs zusamt dem an den Bäumen hängenden Honig dem Meere zugetrieben wird. (...) Was wohl recht glaubhaft ist, denn dieses Ambra ist, wenn man es findet, noch weich und riecht wie Wachs.“" Marco Polo war der erste Chronist der Alten Welt, der Ambra zutreffend als eine körpereigene Substanz von Pottwalen erkannte, nachdem er Pottwale vor den Sokotra-Inseln im Indischen Ozean bei der Jagd auf Tintenfische beobachtet hatte. Auch er vermutete, dass es sich bei der Ambra um in den Tiefen des Meeres Erbrochenes dieser Wale handele. Im Jahre 1783 legte der Botaniker Joseph Banks der Royal Society eine Arbeit des in London lebenden deutschen Arztes Franz Xaver Schwediauer vor, in der dieser die in Westeuropa vorherrschenden Irrtümer über Ambra und den Ursprung dieser Substanz beschrieb. Er identifizierte Ambra als ein Erzeugnis des oft unnatürlich aufgeblähten Darms kranker Pottwale und brachte die Entstehung von Ambra mit den Schnäbeln von Tintenfischen, der Hauptnahrung der Pottwale, in Verbindung. Verwendung. Frische Ambra ist weich und riecht abstoßend. Erst durch den über Jahre oder Jahrzehnte währenden Kontakt mit Luft, Licht und Salzwasser erhält sie ihre feste Konsistenz und ihren angenehmen Duft. Im Mittelalter wurde Ambra als Arznei im Rahmen der Humoralpathologie verwendet. Johannes Hartlieb erläutert beispielsweise in seinem ‚Kräuterbuch‘ (Entstehung zwischen 1435 und 1450), dass Ambra auf dem Meeresboden wachse und dort durch Wasserturbulenzen von Walen losgelöst werde. Die Substanz wirke im zweiten Grade trocken und heiß. Dadurch helfe Ambra hervorragend bei allen Herzerkrankungen, es gilt als "die hochst erznei zu dem herzen". Ferner wirke Ambra gegen Ohnmachten, Epilepsie und Gebärmutterhochstand. Der grauen und schwarzen Ambra kam bei der Herstellung von Parfüm erhebliche Bedeutung zu. Aufgrund der Synthetisierung dieser Substanz und des Handelsverbots von Pottwalprodukten gemäß dem Washingtoner Artenschutz-Übereinkommen wird Ambra heutzutage jedoch kein Wert mehr beigemessen, wenngleich es noch in der Homöopathie Anwendung findet. Für angespülte Fundstücke werden jedoch nach wie vor hohe Summen gezahlt, die je nach Qualität pro Kilogramm auch im fünfstelligen Eurobereich liegen können. Ambra wird auf dem Meer treibend in Klumpen von bis zu 10 Kilogramm gefunden, in Einzelfällen aber auch über 100 Kilogramm. Diese Ambra-Klumpen können über Jahre bis Jahrzehnte über die Meere treiben. Erst später entdeckte man bei der Schlachtung einzelner Pottwale die frische Ambra im Darm der Tiere; es können bis zu 400 Kilogramm enthalten sein. Solche Mengen führen jedoch gehäuft zu Darmverschluss und schließlich zum Tod dieser Tiere. Selten finden sich Ambra-Brocken als Strandgut an der Küste. Ein im Dezember 2012 vor der niederländischen Insel Texel angespülter Pottwalkadaver enthielt einen Ambrabrocken mit einem Gewicht von 83 Kilogramm im Wert von etwa 500.000 €. Irrtümer sind dabei jedoch möglich: Ein im Januar 2013 gefundener, 3 Kilogramm schwerer Brocken (vermuteter Wert £ 100.000) nahe Blackpool in England stellte sich nach eingehender Analyse als ein Klumpen Palmöl heraus. Der Duftstoff der Ambra ist Ambrein, ein Alkohol, der durch Luft und Licht in die eigentlichen Duftstoffe, u. a. Ambrox, aufgespalten wird. Die Duftnote wird als holzig, trocken, balsamisch, etwas tabakartig bis bouquethaft mit aphrodisierendem Einschlag beschrieben. Ambra, bzw. seine synthetische Form, wird typischerweise als Basisnote in Duftkompositionen eingesetzt. Die beiden französischen Chemiker Joseph Bienaimé Caventou und Pierre Joseph Pelletier waren die ersten, die Ambrein isolierten, charakterisierten und so benannten. Bereits im 15. Jahrhundert wurde Ambra in Europa gehandelt und mit Gold aufgewogen, wenngleich diese Funde nur in seltenen Fällen den höchsten Qualitätsansprüchen genügten. Leo Africanus schrieb im 16. Jahrhundert, dass in Fès der Preis für Ambra bei 60 Dukaten pro Pfund liege (im Vergleich dazu kostete ein Sklave 20, ein Eunuch 40 und ein Kamel 50 Dukaten). Damit war es eine sehr kostbare Substanz. Ambra wurde früher auch zur Zubereitung besonders exklusiver Speisen verwendet. Etymologie. "Ambra" oder "Amber" ist ebenfalls die lateinische, englische und altdeutsche Bezeichnung für Bernstein. Die Engländer nennen Bernstein „Amber“, wobei man annimmt, dass damit eine Ausscheidung ("Ambre gris") der Wale gemeint sei, und offiziell leiten die Etymologen den Wortstamm vom arabischen Wort "anbar" = "Ambre gris" ab. Im Gegensatz zu den Engländern und den Holländern haben diese Völker früher kaum Kontakt zu Walfängern gehabt und müssten das Wort aus einer gemeinsamen Quelle bezogen haben – vermutlich aus dem lateinischen „amburo“. Neben dem Bernstein wurde in der alten Literatur auch Walrat, weißer Liquidambar und echter flüssiger Storax als "weiße Ambra" bezeichnet. al-Kindi gab zudem unter dem Stichwort „Amber“ drei Duftstoffrezepturen an, die nichts mit der Ambra zu tun hatten. Ambra in der Literatur. In der Liebeslyrik wurde häufig die Ambra genannt. Albedo. a> hat mit einer Albedo von 0,03 bis 0,5 den größten Helligkeitskontrast von allen Körpern im Sonnensystem. Die Albedo (lateinisch "albedo" „Weiße“; v. lat. "albus" „weiß“) ist ein Maß für das Rückstrahlvermögen (Reflexionsstrahlung) von diffus reflektierenden, also nicht selbst leuchtenden Oberflächen. Sie wird als dimensionslose Zahl angegeben und entspricht dem Verhältnis von rückgestrahltem zu einfallendem Licht (eine Albedo von 0,9 entspricht 90 % Rückstrahlung). Vor allem in der Meteorologie ist sie von Bedeutung, da sie Aussagen darüber ermöglicht, wie stark sich Luft über verschiedenen Oberflächen erwärmt. In der Klimatologie ist die so genannte Eis-Albedo-Rückkopplung ein wesentlicher, den Strahlungsantrieb und damit die Strahlungsbilanz der Erde beeinflussender Faktor, der relevant für den Erhalt des Weltklimas ist. Das Nicht-Zusammenfallen von Sommersonnenwende (Zeitpunkt maximaler Sonneneinstrahlung) und Zeitpunkt von mittleren Jahreshöchsttemperatur an den meisten Orten der Welt deutet für manche Wissenschaftler darauf hin, dass auch die Vegetation merklichen Einfluss auf jährliche Strahlungsbilanz der Erde nimmt. In der 3D-Computergrafik findet die Albedo ebenfalls Verwendung; dort dient sie als Maß für die diffuse Streukraft verschiedener Materialien für Simulationen der Volumenstreuung. In der Astronomie spielt die Albedo eine wichtige Rolle, da sie mit den grundlegenden Parametern von Himmelskörpern (z. B. der Oberflächentemperatur eines Planeten) zusammenhängt. Albedoarten. Das Verhältnis zwischen sphärischer Albedo und geometrischer Albedo ist das sogenannte Phasenintegral (siehe Phase), das die winkelabhängige Reflektivität jedes Flächenelements berücksichtigt. Messung. Die Messung der Albedo erfolgt über Albedometer und wird in Prozent angegeben. In der Astronomie können aufgrund der großen Entfernungen keine Albedometer eingesetzt werden. Die geometrische Albedo kann hier aber aus der scheinbaren Helligkeit und dem Radius des Himmelskörpers und den Entfernungen zwischen Erde, Objekt und Sonne berechnet werden. Um die sphärische Albedo zu bestimmen, muss auch das Phasenintegral (und somit die Phasenfunktion) bekannt sein. Diese ist allerdings nur für diejenigen Himmelskörper vollständig bekannt, die sich innerhalb der Erdbahn bewegen (Merkur, Venus). Für die oberen Planeten kann die Phasenfunktion nur teilweise bestimmt werden, wodurch auch die Werte für ihre sphärische Albedo nicht exakt bekannt sind. Satelliten der US-Raumfahrtbehörde NASA messen seit ca. 2004 die Albedo der Erde. Diese ist insgesamt, abgesehen von kurzfristigen Schwankungen, in den letzten zwei Jahrzehnten konstant geblieben; regional dagegen gab es Veränderungen von mehr als 8 %. In der Arktis z.B. ist die Rückstrahlung geringer, in Australien höher. Das Deep Space Climate Observatory soll ab 2014 die Erd-Albedo in einem Abstand von 1,5 Millionen Kilometer zur Erde vom Lagrange-Punkt L1 aus messen. An diesem Punkt würde die Sonde einen dauerhaften Blick auf die sonnenbeschienene Seite der Erde haben. Einflüsse. Prozent des reflektierten Sonnenlichtes in Abhängigkeit von unterschiedlichen Erdoberflächenbeschaffenheiten Die Oberflächenbeschaffenheit eines Himmelskörpers bestimmt seine Albedo. Der Vergleich mit den Albedowerten irdischer Substanzen ermöglicht es also Rückschlüsse auf die Beschaffenheit anderer planetarer Oberflächen zu ziehen. Gemäß der Definition der sphärischen Albedo ist die Voraussetzung von parallel einfallendem Licht wegen der großen Entfernungen der reflektierenden Himmelskörper von der Sonne als Lichtquelle sehr gut gegeben. Die stets geschlossene Wolkendecke der Venus strahlt viel mehr Licht zurück als die basaltartigen Oberflächenteile des Mondes. Die Venus besitzt daher mit einer mittleren sphärischen Albedo von 0,76 ein sehr hohes, der Mond mit durchschnittlich 0,12 ein sehr geringes Rückstrahlvermögen. Die Erde hat eine mittlere sphärische Albedo von 0,3. Der höchste bisher gemessene Wert fällt mit 0,99 auf den Saturnmond Enceladus und der niedrigste Mittelwert wurde mit nur 0,03 am Kometen Borrelly festgestellt. Glatte Oberflächen wie Wasser, Sand oder Schnee haben einen relativ hohen Anteil spiegelnder Reflexion, ihre Albedo ist deshalb stark abhängig vom Einfallswinkel der Sonnenstrahlung (siehe Tabelle). Die Albedo ist außerdem abhängig von der Wellenlänge des Lichts, das untersucht wird, weswegen bei der Angabe der Albedowerte immer der entsprechende Wellenlängenbereich angegeben werden sollte. Algebraische Zahl. In der Mathematik ist eine algebraische Zahl "x" eine reelle oder komplexe Zahl, die Nullstelle eines Polynoms vom Grad größer als Null mit rationalen Koeffizienten formula_2, also Lösung der Gleichung formula_3, ist. Die so definierten algebraischen Zahlen bilden eine echte Teilmenge formula_4 der komplexen Zahlen formula_5. Offenbar ist jede rationale Zahl formula_6 algebraisch, da sie die Gleichung formula_7 löst. Es gilt also formula_8. Ist eine reelle (oder allgemeiner komplexe) Zahl nicht algebraisch, so heißt sie transzendent. Die ebenfalls gebräuchliche Definition der algebraischen Zahlen als Nullstellen von Polynomen mit ganzzahligen Koeffizienten ist äquivalent zur oben angegebenen. Jedes Polynom mit rationalen Koeffizienten kann durch Multiplikation mit dem Hauptnenner der Koeffizienten in eines mit ganzzahligen Koeffizienten umgewandelt werden. Das entstehende Polynom hat exakt die gleichen Nullstellen wie das Ausgangspolynom. Polynome mit rationalen Koeffizienten kann man "normieren", indem man alle Koeffizienten durch den Koeffizienten formula_9 dividiert. Nullstellen von normierten Polynomen, deren Koeffizienten ganzzahlig sind, nennt man "ganzalgebraische Zahlen" oder auch "ganze algebraische Zahlen". Die ganzalgebraischen Zahlen bilden einen Unterring der algebraischen Zahlen. Zum allgemeinen Begriff der Ganzheit siehe Ganzheit (kommutative Algebra). Man kann den Begriff der algebraischen Zahl zu dem des algebraischen Elements erweitern, indem man die Koeffizienten des Polynoms statt aus formula_10, aus einem beliebigen Körper entnimmt. Grad und Minimalpolynom einer algebraischen Zahl. Für viele Untersuchungen algebraischer Zahlen sind der im Folgenden definierte Grad und das Minimalpolynom einer algebraischen Zahl wichtig. Ist "x" eine algebraische Zahl, die eine algebraische Gleichung mit formula_12, formula_13 erfüllt, aber keine derartige Gleichung geringeren Grades, dann nennt man "n" den Grad von "x". Damit sind alle rationalen Zahlen vom Grad 1. Alle irrationalen Quadratwurzeln sind vom Grad 2. Die Zahl "n" ist gleichzeitig der Grad des Polynoms "f", des so genannten "Minimalpolynoms" von "x". Beispiele. Beispielsweise ist formula_14 eine algebraische Zahl, denn sie ist eine Lösung der Gleichung formula_15. Ebenso ist die imaginäre Einheit formula_16 als Lösung von formula_17 algebraisch. Gegen Ende des 19. Jahrhunderts wurde bewiesen, dass die Kreiszahl formula_18 und die Eulersche Zahl formula_19 nicht algebraisch sind. Von anderen Zahlen, wie zum Beispiel formula_20, weiß man bis heute nicht, ob sie algebraisch oder transzendent sind. Siehe dazu den Artikel Transzendente Zahl. Eigenschaften. Die Menge der algebraischen Zahlen ist abzählbar und bildet einen Körper. Der Körper der algebraischen Zahlen ist algebraisch abgeschlossen, d. h. jedes Polynom mit algebraischen Koeffizienten besitzt nur algebraische Nullstellen. Dieser Körper ist ein minimaler algebraisch abgeschlossener Oberkörper von formula_21 und ist damit ein algebraischer Abschluss von formula_10. Man schreibt ihn oft als formula_23 (für "algebraischer Abschluss von Q"; verwechselbar mit anderen Abschlussbegriffen) oder als formula_4 (für "Algebraische Zahlen"). Oberhalb des Körpers der rationalen Zahlen und unterhalb des Körpers der algebraischen Zahlen befinden sich unendlich viele Zwischenkörper; etwa die Menge aller Zahlen der Form formula_25, wobei formula_26 und formula_27 rationale Zahlen sind, und formula_6 die Quadratwurzel einer rationalen Zahl formula_29 ist. Auch der Körper der mit Zirkel und Lineal aus formula_30 konstruierbaren Punkte der komplexen Zahlenebene ist ein solcher algebraischer Zwischenkörper. → Siehe dazu euklidischer Körper. Im Rahmen der Galoistheorie werden diese Zwischenkörper untersucht, um so tiefe Einblicke über die Lösbarkeit oder Nicht-Lösbarkeit von Gleichungen zu erhalten. Ein Resultat der Galoistheorie ist, dass zwar jede komplexe Zahl, die man aus rationalen Zahlen durch Verwendung der Grundrechenarten (Addition, Subtraktion, Multiplikation und Division) sowie durch Ziehen "n"-ter Wurzeln ("n" eine natürliche Zahl) erhalten kann (man nennt solche Zahlen "durch Radikale darstellbar"), algebraisch ist, umgekehrt aber algebraische Zahlen existieren, die man nicht in dieser Weise darstellen kann; alle diese Zahlen sind Nullstellen von Polynomen des Grades ≥ 5. André Gide. André Paul Guillaume Gide (* 22. November 1869 in Paris; † 19. Februar 1951 ebenda) war ein französischer Schriftsteller. 1947 erhielt er den Literaturnobelpreis. Jugend und literarische Anfänge. Gide wuchs in Paris als einziges Kind einer wohlhabenden calvinistischen Familie auf. Der Vater war Professor der Rechtswissenschaft und stammte aus der mittleren Bourgeoisie der südfranzösischen Kleinstadt Uzès, die Mutter aus der Großbourgeoisie von Rouen. Mit knapp elf Jahren verlor Gide seinen Vater. Zwar trat dadurch keinerlei Notlage ein, doch war er nun ganz der puritanischen Erziehung seiner Mutter unterworfen. Vielleicht war er auch deshalb ein schwieriges Kind, was wiederum häufige Wechsel von Schulen und Privatlehrern verursachte. Zudem litt er in der Vorpubertät mehrfach unter Nervenkrisen, konnte 1890 jedoch seine Schulzeit normal auf dem Traditionsgymnasium Henri IV abschließen, wo er sich u. a. mit dem späteren Autoren Pierre Louÿs und dem späteren sozialistischen Politiker Léon Blum anfreundete. Bei einem längeren Besuch in Rouen 1882 hatte er ein inniges Verhältnis zu seiner fast drei Jahre älteren Kusine Madeleine Rondeaux entwickelt, mit der er sich ab Anfang 1890 stillschweigend verlobt glaubte. Doch sie entzog sich zunächst seinen Heiratswünschen − wohl auch auf Druck beider Mütter. Den Sommer 1890 verbrachte Gide in Savoyen, wo er sein erstes längeres Werk verfasste: "Les Cahiers d’André Walter" („Die Tagebücher des André Walter“, als Privatdruck 1891 erschienen). Es hat die Form eines angeblich nach dem Tod des Schreibers veröffentlichten Tagebuches und spiegelt offenbar den ohnmächtigen Trotz Gides gegenüber seiner gestrengen Mutter wider, sowie seine erotischen Sehnsüchte gegenüber Madeleine zu einer Zeit, wo ihm seine Homosexualität noch nicht oder allenfalls diffus bewusst war. Da Gide nach dem Baccalauréat nicht dem Zwang unterlag, ein Studium oder gar eine Berufstätigkeit aufzunehmen, begann er eine Phase des Experimentierens und zahlreicher, oft längerer Reisen. Hierbei lernte er im Dezember 1890 in Montpellier über einen Onkel väterlicherseits Paul Valéry kennen, dem er später (1894) seine ersten Schritte in Paris erleichterte. 1891 fand er Zugang zu dem Kreis symbolistischer Autoren um den Lyriker Stéphane Mallarmé, wo er u. a. Oscar Wilde traf. Auch er selbst betätigte sich als Symbolist mit dem Gedichtbändchen "Poésies d’André Walter" (gedruckt 1892) und der kleinen Abhandlung "Traité du Narcisse. Théorie du symbole" („Traktat vom Narziß. Theorie des Symbols“). Sie zeigt den Hang Gides zur selbstironischen Reflexion der egozentrischen und narzisstischen Existenz junger Literaten wie er, deren Hauptproblem ihr Mangel an realen Problemen ist und die diesen Mangel in einer Art Priestertum der Kunst zu sublimieren versuchen. 1893 schrieb er die kurze Erzählung "La Tentative amoureuse" („Der Liebesversuch“), deren Haupthandlung aus einer unverklemmten Liebesgeschichte besteht, deren leicht ironischer Nachspann dagegen eine „Madame“ anspricht, die sichtlich diffiziler ist als die Geliebte der Haupthandlung. Im selben Jahr verfasste er die lyrische lange Erzählung "Le Voyage d’Urien" („Die Reise Urians“), wo er in Form eines phantastischen Reiseberichts wieder einmal die schwierige Suche eines müßigen, materiell sorgenfreien jungen Intellektuellen nach dem „wahren Leben“ thematisiert. Im Herbst 1893, nachdem er wegen einer leichten Tuberkulose vom Wehrdienst befreit worden war, ging er zusammen mit einem befreundeten jungen Maler für einige Monate nach Nordafrika, um dort die Krankheit auszuheilen. Ein erstes homosexuelles Erlebnis, aber auch die ersten heterosexuellen Erfahrungen Gides datieren von hier. Insgesamt empfand er diese Zeit als Befreiung aus den Zwängen seiner puritanischen Erziehung. Seine Etablierung als Autor. Im Herbst 1894 schrieb er, fern von Paris in der Schweiz, sein erstes längeres Werk, "Paludes" („Sümpfe“), in dem er nicht ohne Melancholie den Leerlauf in den Literatenzirkeln der Hauptstadt, aber auch seine eigene Rolle darin karikiert. Das Frühjahr verbrachte er erneut in Nordafrika, teilweise in Gesellschaft von Oscar Wilde und dessen Geliebtem. Im Mai 1895 starb die Mutter Gides. Wenige Wochen später verlobte er sich mit Madeleine und heiratete sie im Herbst, wohl auch in der Absicht, hiermit seine ihm inzwischen bewussten homosexuellen Neigungen zu bekämpfen. Die Ehe entwickelte sich für beide Seiten letztlich unbefriedigend. Nach der Heimkehr von der fast halbjährigen Hochzeitsreise mit Madeleine durch Italien und Nordafrika wurde Gide 1896 Bürgermeister des Dorfes La Roque-Baignard (Normandie), wo er ein Landgut geerbt hatte. Allerdings lebte er weiterhin in Paris, knüpfte neue Beziehungen in Literatenkreisen und schrieb regelmäßig Beiträge für die Zeitschrift "L’Ermitage". 1897 erschien, wiederum als Privatdruck, "Les Nourritures terrestres" („Uns nährt die Erde“), ein zunächst kaum beachtetes, wenig später aber sehr erfolgreiches Buch. Es ist ein in pathetischer lyrischer Prosa vorgetragener Aufruf zur Öffnung gegenüber dem „wirklichen“ Leben und zur Sinnenfreude als dessen legitimem Bestandteil. Gide, so schien es, hatte seinen Weg gefunden. Auch die nächsten Jahre verbrachte er reisend (meist mit Madeleine) und schreibend. In diese Zeit fällt seine Freundschaft mit dem deutschen Symbolisten und Lyriker Karl Gustav Vollmoeller, den er zum Jahreswechsel 1896/97 in Paris im Umfeld Mallarmés kennengelernt hatte. In den Jahren 1898 bis 1904 besuchte Gide Vollmoeller in dessen Sommerresidenz in Sorrent nahe Neapel. Im noch unveröffentlichten Briefwechsel nennt er ihn „Cher Sorrentin“, seinen „lieben Sorrentiner“. Durch ihn kam Gide 1903 mit Felix Paul Greve zusammen. In diese Jahre fallen auch gemeinsame Reisen in Nordafrika, teilweise auf Vollmoellers Yacht. 1904 brach der Kontakt ab, nachdem Gide versucht hatte, sich Vollmoeller homosexuell zu nähern. 1899 erschien "Le Prométhée mal enchaîné", eine Erzählung um das Motiv des „acte gratuit“, einer völlig freien, willkürlichen Handlung. 1901 erschien ein erstes Stück, "Le roi Candaule" (König Kandaules), dessen Uraufführung zuerst auf Deutsch im Deutschen Volkstheater in Wien stattfand. Diesem folgten noch etliche weitere Stücke, die aber ebenfalls wenig zu Gides Ruhm beitrugen und keine Spuren in der Geschichte des französischen Theaters hinterlassen haben. Sein Durchbruch (und der finanzielle Grundstock für den Bau einer Villa im Pariser Vorort Auteuil) war der Anfang 1902 erschienene Roman "L’Immoraliste" („Der Immoralist“). Es ist die Geschichte eines jungen Mannes, der nach der Heilung von einer Tuberkulose ein völlig neues, sinnenfrohes Lebensgefühl entwickelt und diesem seine junge Frau, als sie ihrerseits erkrankt und seiner Pflege bedürfte, rücksichtslos opfert − wobei er immerhin nach ihrem Tod sein Verhalten als unmoralisch erkennt. 1907 erschien "Le Retour de l’enfant prodigue" („Die Rückkehr des verlorenen Sohnes“), eine Erzählung um das biblische Motiv von der Heimkehr des verlorenen Sohns, der bei Gide jedoch dem jüngeren Bruder rät, das elterliche Haus ebenfalls zu verlassen und nicht zurückzukommen, d. h. sich definitiv zu emanzipieren. Als 1908 sein gewohntes Publikationsorgan "L’Ermitage" einging, gründete Gide mit einigen befreundeten Literaten die Zeitschrift "La Nouvelle Revue française", der 1911 ein eigenes Verlagshaus angegliedert wurde, dessen Leitung der bald einflussreiche Verleger Gaston Gallimard übernahm. Über seine Zeitschrift und den NRF-Verlag wurde Gide einer der tonangebenden französischen Literaten seiner Epoche, der mit fast allen zeitgenössischen europäischen Autoren von Rang Kontakte pflegte. So bekam André Gide um 1912 von Marcel Proust das Manuskript des ersten Roman-Bandes von "Auf der Suche nach der verlorenen Zeit" zugeschickt. Gide lehnte jedoch den Text ab mit der Begründung, Proust sei „ein Snob und literarischer Amateur“. Später gestand André Gide, die Ablehnung dieses Buches sei der größte Fehler seines Lebens gewesen. 1909 kam "La Porte étroite" („Die enge Pforte“) heraus, ein sichtlich in vielen Punkten autobiografischer Roman um den jungen Jérôme und seine etwas ältere Kusine Alissa, die von Kindheit an füreinander bestimmt scheinen, bis Alissa trotz ihrer Liebe Jérôme die Heirat verweigert, ihm ihre jüngere Schwester zu ehelichen empfiehlt und sich in Askese und Frömmigkeit zurückzieht. Das 1911 verfasste Werk "Corydon", bestehend aus vier „sokratischen“ Dialogen, die die Klischeevorstellung von der Perversität der Homosexualität zu korrigieren versuchen, wurde zunächst nur anonym und privat gedruckt. Es erschien erst 1924 unter Gides Namen. 1913 beteiligte sich Gide an der Eröffnung eines neuen Pariser Theaters, "Le Vieux-Colombier", das vor allem den Autoren des NRF-Verlags eine Bühne bieten sollte. 1914 publizierte er "Les Caves du Vatican" („Die Verliese des Vatikans“), einen Roman mit mehreren Handlungssträngen, die in der schillernden Figur des schönen jungen Kosmopoliten Lafcadio Wluiki und einem als „acte gratuit“ von ihm begangenen Mord zusammenlaufen. Der stilistisch sehr kunstvolle und von einer feinen Ironie getragene Roman gilt heute als Gides bestes Werk. Der Erste Weltkrieg und die Zwischenkriegszeit. 1915/16 war er äußerst aktiv in einer Organisation zur Betreuung von Flüchtlingen aus den vom Krieg verwüsteten nordostfranzösischen Gebieten. Eine tiefe moralische und religiöse Krise endete erst, als er 1916 Marc Allégret kennenlernte, der sein Geliebter wurde und für lange Jahre blieb. Gide und seine Frau Madeleine lebten hiernach, ohne sich scheiden zu lassen, überwiegend getrennt. 1918 zog sie innerlich den Schlussstrich, indem sie, während er mit Allegret auf einer Reise war, alle seine Briefe an sie (sehr zu seinem Ärger) verbrannte. 1919 kam "La Symphonie pastorale" („Die Pastoral-Symphonie“) heraus, die Geschichte eines Pastors, der ein blindes Waisenmädchen in seine Familie aufnimmt, sie erzieht, sich in sie verliebt, sie aber an seinen Sohn verliert. Die "Symphonie" war der größte Bucherfolg Gides zu seinen Lebzeiten, mit mehr als einer Million Exemplaren und rund 50 Übersetzungen. 1920 und 1926 publizierte Gide eine zweibändige Autobiografie bis zum Zeitpunkt seiner Heirat: "Si le grain ne meurt" („Stirb und werde“). Nach dem Kriegsende hatte auch er, wie so viele Autoren der Zeit, Sympathien für den von Russland nach Europa ausstrahlenden Kommunismus entwickelt. Zugleich interessierte er sich für die russische Literatur: 1923 erschien sein Buch über Dostojewski, 1928 eine Übertragung der Novellen Puschkins. 1923 wurde er Vater einer außerehelich gezeugten Tochter, mit der und deren Mutter er ab 1927 in einem Pariser Mietshaus wohnte und die er 1938, nach dem Tod seiner kinderlos gebliebenen Frau Madeleine, adoptierte. 1925 erschien sein „erster Roman“ (so Gide in seiner Widmung des Werkes an den jüngeren Freund und Kollegen Roger Martin du Gard): "Les Faux-Monnayeurs" („Die Falschmünzer“), ein sehr kunstvoll angelegter Roman um die Entstehung eines Romans. Die Handlung, die damit beginnt, dass einer der Protagonisten seine außereheliche Zeugung entdeckt, wirkt etwas verwirrend, steht aber auf der Höhe der zeitgenössischen theoretischen und erzähltechnischen Errungenschaften der Gattung Roman, die sich selbst inzwischen zum Problem geworden war. Die "Faux-Monnayeurs" gelten heute als ein richtungweisendes Werk der modernen europäischen Literatur. Im selben Jahr (1925) verkaufte Gide seine Villa in Auteuil und ging mit Allégret auf eine fast einjährige Reise durch die damaligen französischen Kolonien Congo (Brazzaville) und Tschad. Die seines Erachtens unhaltbaren ausbeuterischen Zustände dort schilderte er anschließend in Vorträgen und Artikeln sowie in den Büchern "Voyage au Congo" („Kongoreise“) (1927) und "Retour du Tchad" („Rückkehr aus dem Tschad“) (1928), womit er heftige Diskussionen entfachte und viele Angriffe nationalistischer Franzosen auf sich zog. 1929 erschien "L’École des femmes" („Die Schule der Frauen“), die tagebuchartige Geschichte einer Frau, die ihren Mann als starren und seelenlosen Vertreter der bürgerlichen Normen demaskiert und ihn verlässt, um im Krieg Verwundete zu pflegen. 1931 beteiligte sich Gide an der von Jean Cocteau ausgelösten Welle antikisierender Dramen mit dem Stück: "Œdipe" („Ödipus“). Ab 1932, im Rahmen der wachsenden politischen Polarisierung zwischen links und rechts in Frankreich und ganz Europa, engagierte Gide sich zunehmend auf Seiten der französischen kommunistischen Partei (PCF) und antifaschistischer Organisationen. So reiste er z. B. 1934 nach Berlin, um dort die Freilassung kommunistischer Regimegegner zu verlangen. 1935 gehörte er zur Leitung eines Kongresses antifaschistischer Schriftsteller in Paris, der teilweise verdeckt mit Geldern aus Moskau finanziert wurde. Er verteidigte dabei das Sowjetregime gegen Angriffe von trotzkistischen Delegierten, die die sofortige Freilassung des in der Sowjetunion internierten Schriftstellers Viktor Serge verlangten. Auch mäßigte er – zumindest theoretisch – seinen bis dahin vertretenen kompromisslosen Individualismus zugunsten einer Position, die die Rechte des Ganzen und der Anderen vor die des Einzelnen setzt. Im Juni 1936 reiste er auf Einladung des sowjetischen Schriftstellerverbandes mehrere Wochen durch die UdSSR. Ihn betreute der Vorsitzende der Auslandskommission des Verbandes, der Journalist Michail Kolzow. Am Tag nach der Ankunft Gides starb der Vorsitzende des Schriftstellerverbandes Maxim Gorki. Gide hielt auf dem Lenin-Mausoleum, auf dem auch das Politbüro mit Stalin an der Spitze Aufstellung genommen hatte, eine der Trauerreden. Doch zu der von ihm erhofften Audienz bei Stalin im Kreml kam es nicht. Den Forschungen von Literaturhistorikern zufolge war Stalin über Gides Absichten gut unterrichtet. Dieser hatte vor seiner Abreise dem in Paris als Korrespondent sowjetischer Zeitungen arbeitenden Schriftsteller Ilja Ehrenburg anvertraut: „Ich habe mich entschlossen, die Frage nach seiner Haltung zu meinen Gesinnungsgenossen aufzuwerfen.“ Er wolle Stalin nach der „rechtlichen Lage der Päderasten fragen“, hielt Ehrenburg fest. Gides Enttäuschung beim Blick hinter die Kulissen der kommunistischen Diktatur war jedoch groß. Seine Eindrücke von dieser Reise, die ihn auch nach Georgien führte, schilderte er in dem kritischen Bericht "Retour de l’U.R.S.S."(„Zurück aus der Sowjetunion“), in dem er sich indes bemühte, Emotionen und Polemik zu vermeiden. Er beschrieb das Sowjetregime als „Diktatur eines Mannes“, die die Ursprungsideen von der „Befreiung des Proletariats“ pervertiert habe. Die sowjetische Presse reagierte mit heftigen Attacken auf ihn, seine Bücher wurden aus allen Bibliotheken des Landes entfernt, eine bereits begonnene mehrbändige Werkausgabe wurde nicht fortgesetzt. Als viele westliche Kommunisten ihn attackierten und ihm vorwarfen, er unterstütze mit seiner Kritik indirekt Hitler, ging Gide vollends auf Distanz zur Partei. Der Zweite Weltkrieg und die Nachkriegszeit. Nach dem Ausbruch des Zweiten Weltkriegs 1939 zog er sich zu Freunden nach Südfrankreich zurück und ging 1942 nach Nordafrika, nachdem er sich von einem passiven Sympathisanten des Regierungschefs des Kollaborationsregimes von Marschall Philippe Pétain zu einem aktiven Helfer der Londoner Exilregierung unter Charles de Gaulle entwickelt hatte. Diese versuchte er z. B. 1944 mit einer Propagandareise durch die westafrikanischen Kolonien zu unterstützen, deren Gouverneure lange zwischen Pétain und de Gaulle schwankten. 1946 publizierte Gide sein letztes größeres Werk, "Thésée" („Theseus“), eine fiktive Autobiografie des antiken Sagenhelden Theseus, in den er sich hineinprojiziert. In seinen letzten Jahren konnte er noch seinen Ruhm genießen mit Einladungen zu Vorträgen, Ehrendoktorwürden, der Verleihung des Nobelpreises 1947, Interviews, Filmen zu seiner Person u. ä. m. Die Begründung für den Nobelpreis lautet: „für seine weit umfassende und künstlerisch bedeutungsvolle Verfasserschaft, in der Fragen und Verhältnisse der Menschheit mit unerschrockener Wahrheitsliebe und psychologischem Scharfsinn dargestellt werden“. 1939, 1946 und 1950 erschienen seine Tagebücher unter dem Titel "Journal". 1949 erhielt Gide die Goetheplakette der Stadt Frankfurt am Main. Eine indirekte Anerkennung seiner Bedeutung war, dass 1952 seine Bücher auf den Index gesetzt wurden. Von seiner Tochter im Nachlass entdeckt und herausgegeben, erschien 2002 postum die 1907 entstandene homoerotische Novelle "Le Ramier". Aggregatzustand. Als Aggregatzustände werden die unterschiedlichen Zustände eines Stoffes bezeichnet, die sich durch bloße Änderungen von Temperatur oder Druck ineinander umwandeln können. Es gibt die drei klassischen Aggregatzustände "fest", "flüssig" und "gasförmig" sowie in der Physik weitere nicht klassische Zustände wie z. B. das Plasma. Die in der Thermodynamik verwendete Phase ist enger gefasst, sie unterteilt insbesondere den festen Zustand nach seiner inneren Struktur. Welcher Aggregatzustand bzw. welche Phase abhängig von Druck und Temperatur stabil ist, wird in einem Phasendiagramm dargestellt. Die drei klassischen Aggregatzustände. Für feste Stoffe und flüssige Stoffe gibt es den zusammenfassenden Begriff kondensierte Materie. Teilchenmodell der Zustände. Die klassischen Aggregatzustände lassen sich mit einem Teilchenmodell erklären, das die kleinsten Teilchen eines Stoffes (Atome, Moleküle, Ionen) auf kleine runde Kugeln reduziert. Die mittlere kinetische Energie aller Teilchen ist in allen Zuständen ein Maß für die Temperatur. Die Art der Bewegung ist in den drei Aggregatzuständen jedoch völlig unterschiedlich. Im Gas bewegen sich die Teilchen geradlinig wie Billardkugeln, bis sie mit einem anderen oder mit der Gefäßwand zusammenstoßen. In der Flüssigkeit müssen sich die Teilchen durch Lücken zwischen ihren Nachbarn hindurchzwängen (Diffusion, Brownsche Molekularbewegung). Im Festkörper schwingen die Teilchen nur um ihre Ruhelage. Fest. Hinweis: Betrachtet man die Teilchen mit quantenmechanischen Grundsätzen, so dürfen aufgrund der Heisenbergschen Unschärferelation eigentlich Teilchen nie ruhig stehen. Sie haben kleine Schwingungen, die man auch als Nullpunktsfluktuationen bezeichnet. Das entspricht dem Grundzustand des harmonischen Oszillators. Flüssig. Teilchenmodell einer Flüssigkeit bzw. eines amorphen Festkörpers Gasförmig. In der physikalischen Chemie unterscheidet man zwischen Dampf und Gas. Beide sind physikalisch gesehen nichts anderes als der gasförmige Aggregatzustand; die Begriffe haben auch nicht direkt mit realem Gas und idealem Gas zu tun. Was "umgangssprachlich" als „Dampf“ bezeichnet wird, ist physikalisch gesehen eine Mischung aus flüssigen und gasförmigen Bestandteilen, welche man im Falle des Wassers als Nassdampf bezeichnet. Bei einem Dampf im engeren Sinn handelt es sich um einen Gleichgewichtszustand zwischen flüssiger und gasförmiger Phase. Er kann, ohne Arbeit verrichten zu müssen, verflüssigt werden, das heißt beim Verflüssigen erfolgt kein Druckanstieg. Ein solcher Dampf wird in der Technik als Nassdampf bezeichnet im Gegensatz zum sogenannten Heißdampf oder überhitzten Dampf, der im eigentlichen Sinn ein reales Gas aus Wassermolekülen darstellt und dessen Temperatur oberhalb der Kondensationstemperatur der flüssigen Phase beim jeweiligen Druck liegt. Ausgewählte Reinstoffe als Beispiele. Reinstoffe werden entsprechend ihrem Aggregatzustand bei einer Temperatur von 20 °C (siehe Raumtemperatur) und einem Druck von 1013,25 hPa (Normaldruck) als Feststoff, Flüssigkeit oder Gas bezeichnet. Beispiel: Brom ist bei Raumtemperatur und Normaldruck flüssig (siehe Tabelle), also gilt Brom als Flüssigkeit. Diese Bezeichnungen (Feststoff, Flüssigkeit, Gas) werden zwar auch gebraucht, wenn Stoffe unter veränderten Bedingungen einen anderen Aggregatzustand annehmen. Im engeren Sinne bezieht sich die Einteilung jedoch auf die oben genannten Standardbedingungen; jeder Stoff gehört dann zu einer der Kategorien. Aggregatzustände in Gemischen. Bei der Vermischung von Stoffen ergeben sich abhängig vom Aggregatzustand der Bestandteile und ihrem mengenmäßigen Anteil charakteristische Gemische, zum Beispiel Nebel oder Schaum. Änderung des Aggregatzustands. Die Übergänge zwischen den verschiedenen Aggregatzuständen haben spezielle Namen (eoc, omc, eon) und spezielle Übergangsbedingungen, die bei Reinstoffen aus Druck und Temperatur bestehen. Diese Übergangsbedingungen entsprechen dabei Punkten auf den Phasengrenzlinien von Phasendiagrammen. Hierbei ist für jeden Phasenübergang eine bestimmte Wärmemenge notwendig bzw. wird dabei freigesetzt. Die Sublimation und das Verdampfen kommen auch unterhalb der Sublimations- beziehungsweise Siedepunktes vor. Man spricht hier von einer Verdunstung. Alltagsbeispiele. Bezeichnungen für die Aggregatzustandsänderungen von Wasser Schmelzen. Durch Erhöhen der Temperatur (Zufuhr von thermischer Energie) bewegen sich die kleinsten Teilchen immer heftiger, und ihr Abstand voneinander wird (normalerweise) immer größer. Die Van-der-Waals-Kräfte halten sie aber noch in ihrer Position, ihrem Gitterplatz. Erst ab der sogenannten Schmelztemperatur wird die Schwingungsamplitude der Teilchen so groß, dass die Gitterstruktur teilweise zusammenbricht. Es entstehen Gruppen von Teilchen, die sich frei bewegen können. In ihnen herrscht eine Nahordnung, im Gegensatz zur Fernordnung von Teilchen innerhalb des Kristallgitters fester Stoffe. Erstarren. Mit Sinken der Temperatur nimmt die Bewegung der Teilchen ab, und ihr Abstand zueinander wird immer geringer. Auch die Rotationsenergie nimmt ab. Bei der sogenannten Erstarrungstemperatur wird der Abstand so klein, dass sich die Teilchen gegenseitig blockieren und miteinander verstärkt anziehend wechselwirken – sie nehmen eine feste Position in einem dreidimensionalen Gitter ein. Es gibt Flüssigkeiten, die sich bei sinkender Temperatur ausdehnen, beispielsweise Wasser. Dieses Verhalten wird als Dichteanomalie bezeichnet. Verdampfen und Sublimation. Die Geschwindigkeit der kleinsten Teilchen ist nicht gleich. Ein Teil ist schneller, ein Teil ist langsamer als der Durchschnitt. Dabei ändern die Teilchen durch Kollisionen ständig ihre aktuelle Geschwindigkeit. An der Grenze eines Festkörpers oder einer Flüssigkeit, dem Übergang einer Phase in eine gasförmige, kann es mitunter vorkommen, dass ein Teilchen von seinen Nachbarn zufällig einen so starken Impuls bekommt, dass es aus dem Einflussbereich der Kohäsionskraft entweicht. Dieses Teilchen tritt dann in den gasförmigen Zustand über und nimmt etwas Wärmeenergie in Form der Bewegungsenergie mit, das heißt die feste oder flüssige Phase kühlt ein wenig ab. Wird thermische Energie einem System zugeführt und erreicht die Temperatur die Sublimations- oder Siedetemperatur, geschieht dieser Vorgang kontinuierlich, bis alle kleinsten Teilchen in die gasförmige Phase übergetreten sind. In diesem Fall bleibt die Temperatur in der verdampfenden Phase in der Regel unverändert, bis alle Teilchen mit einer höheren Temperatur aus dem System verschwunden sind. Die Wärmezufuhr wird somit in eine Erhöhung der Entropie umgesetzt. Wenn die Kohäsionskräfte sehr stark sind, beziehungsweise es sich eigentlich um eine viel stärkere Metall- oder Ionenbindung handelt, dann kommt es nicht zur Verdampfung. Die durch Verdampfen starke Volumenzunahme eines Stoffes kann, wenn sehr viel Hitze schlagartig zugeführt wird, zu einer Physikalischen Explosion führen. Kondensation und Resublimation. Der umgekehrte Vorgang ist die Kondensation beziehungsweise Resublimation. Ein kleinstes Teilchen trifft zufällig auf einen festen oder flüssigen Stoff, überträgt seinen Impuls und wird von den Kohäsionskräften festgehalten. Dadurch erwärmt sich der Körper um die Energie, die das kleinste Teilchen mehr trug als der Durchschnitt der kleinsten Teilchen in der festen beziehungsweise flüssigen Phase. Stammt das Teilchen allerdings von einem Stoff, der bei dieser Temperatur gasförmig ist, sind die Kohäsionskräfte zu schwach, es festzuhalten. Selbst wenn es zufällig so viel Energie verloren hat, dass es gebunden wird, schleudert es die nächste Kollision mit benachbarten kleinsten Teilchen wieder in die Gasphase. Durch Absenken der Temperatur kann man den kleinsten Teilchen ihre Energie entziehen. Dadurch ballen sie sich beim Unterschreiten der Sublimations- oder Erstarrungstemperatur durch die Wechselwirkungskräfte mit anderen Teilchen zusammen und bilden wieder einen Feststoff oder eine Flüssigkeit. Phasendiagramme. Das p-T-Phasendiagramm eines Stoffes beschreibt in Abhängigkeit von Druck und Temperatur, in wie vielen Phasen ein Stoff vorliegt und in welchem Aggregatzustand sich diese befinden. Anhand der Linien kann man also erkennen, bei welchem Druck und welcher Temperatur die Stoffe ihren Aggregatzustand verändern. Gewissermaßen findet auf den Linien der Übergang zwischen den Aggregatzuständen statt, weshalb man diese auch als Phasengrenzlinien bezeichnet. Auf ihnen selbst liegen die jeweiligen Aggregatzustände in Form eines dynamischen Gleichgewichts nebeneinander in verschiedenen Phasen vor. Nichtklassische Aggregatzustände. Neben den drei klassischen Aggregatzuständen gibt es weitere Materiezustände, die zum Teil nur unter extremen Bedingungen auftreten (nach Temperatur, tendenziell von hoher zu niedriger, sortiert). Arbeitsmarkt. Arbeitsmarkt ist der Ort, „an dem die Nachfrage nach Arbeitskräften mit dem Selbstangebot von Arbeitskräften zusammentrifft“. Er setzt eine Klasse von Menschen voraus, die ihren Lebensunterhalt nicht über eigene Produktionsmittel (Land, Immobilie, Produktionsmittel i.w.S.) sichern können und deswegen für andere an deren Produktionsmitteln arbeiten müssen (Lohnarbeiter). Eine Masse solcher Menschen - das sogenannte Industrieproletariat - entstand in der europäischen Neuzeit im Zuge der Bevölkerungsexplosion, der Bauernbefreiungen und der industriellen Revolution. Das damit entstandene Problem der "Arbeitslosigkeit" (Einkommenslosigkeit und Armut mangels eigener Produktionsmittel und mangels einer Person, die den eigentums- und damit arbeitslosen Menschen für sich arbeiten lassen will) bildete einen der wichtigsten Aspekte der "sozialen Frage" (Pauperismus) und stellt eines der wichtigsten Strukturmerkmale der europäischen ("westlichen") Neuzeit dar. Während nach neoklassischer Sicht der Arbeitsmarkt wie ein Gütermarkt funktioniert, unterscheidet er sich nach institutionalistischer und arbeitsökonomischer Sicht in charakteristischer Weise vom Gütermarkt. Für Robert M. Solow ist „Arbeit als Ware etwas Besonderes […] und daher auch der Arbeitsmarkt“. Auch die keynesianische Kritik an der Neoklassik sieht dies so (siehe Arbeitsmarktpolitik). Definition. Auf dem Arbeitsmarkt wird Arbeitskraft in Zeiteinheiten und Qualifikationen angeboten, nachgefragt und getauscht. Menschen, die über ihre Arbeitskraft persönlich frei verfügen können, verkaufen (korrekter: vermieten) gegen Arbeitsentgelt ihre Arbeitskraft zur Verrichtung produktiver Tätigkeiten an Arbeitgeber, unter deren Anleitung sie Güter herstellen oder Dienstleistungen ausführen, in Kombination mit (meist) von den Arbeitgebern zur Verfügung gestellten Rohstoffen und Produktionsmitteln. Besonderheiten des Arbeitsmarktes. Der Arbeitsmarkt ist kein Markt für Arbeits"leistungen"; diese werden in Form von Werkverträgen abgeschlossen. Der Arbeitsvertrag ist vielmehr ein Vertrag sui generis. Eine Besonderheit des Arbeitsmarktes besteht darin, dass die Vertragspartei „Arbeitgeber“ gewöhnlich über mehrere zu besetzende Arbeitsplätze verfügt. Je leichter ein Arbeitsplatz zu besetzen ist, d. h. je mehr Arbeitnehmer bereitstehen, diesen zu besetzen, desto mehr „Macht“ erhält der Arbeitgeber, da sich die Stellung des Arbeitgebers gegenüber der Vertragspartei „Arbeitnehmer“ in einer günstigeren Marktposition befindet. Umgekehrt ist dies auch möglich, zum Beispiel wenn der Arbeitnehmer über spezielle Fähigkeiten oder Qualifikationen verfügt, welche stark – auf der Seite der Arbeitgeber – gefragt sind, sich aber schwierig beschaffen lassen. Eine weitere Besonderheit besteht darin, dass nach Abschluss des Vertrages weiterhin Beziehungen zwischen den Vertragspartnern dergestalt bestehen, dass ein Vertragspartner, der Arbeitgeber, weitgehende Verfügungsrechte über den anderen, den Arbeitnehmer, erwirbt. Der Zusammenschluss der Arbeitnehmer zu Gewerkschaften und das Arbeitsrecht als Schutzrecht für die Arbeitnehmer sind als Konsequenzen der „Macht-Asymmetrie“ (Claus Offe) auf den Arbeitsmärkten und des Charakters des Arbeitsverhältnisses als „Herrschaftsverhältnis“ (Max Weber) zu verstehen. Die "Arbeitsnachfrage" lässt sich im Zusammenhang mit dem Grenzprodukt der Arbeit (1. Ableitung der Produktionsfunktion) errechnen (siehe hier). Formen des Arbeitsmarktes. Erwerbstätige und Beschäftigungsstruktur in Deutschland 1997 Der Arbeitsmarkt entwickelte sich im Zuge der fortschreitenden Arbeitsteilung. Wichtige Kennzahlen des Arbeitsmarktes sind die Erwerbsquote sowie die Arbeitslosenquote. Sie wird oft regional oder nach Wirtschaftssektoren getrennt dargestellt. Die volkswirtschaftliche Statistik der Bundesrepublik unterscheidet zwischen so genannten Theoretische Grundlagen. Angebots- und Nachfragekurve im klassischen Arbeitsmarktmodell Im Standardmodell der neoklassischen Theorie lässt sich der Arbeitsmarkt wie auf einem Gütermarkt durch steigende Angebotskurven und fallende Nachfragekurven charakterisieren: Je höher der Lohn, desto höher ist das Arbeitskraftangebot und desto geringer die Arbeitskraftnachfrage. Hierbei wird ein repräsentativer Akteur unterstellt, was auf sehr einfache Weise die Übertragung einzelwirtschaftlicher Beobachtungen auf die gesamtwirtschaftliche Analyse ermöglicht. Die dem Modell zugrunde liegende Annahme vollkommener Markttransparenz sowie die Unterstellung des Faktors Arbeit als homogen schränken seine Anwendbarkeit aus Sicht moderner Theorien des Arbeitsmarktes allerdings ein. Die klassische Lehre nimmt Löhne als flexibel an und erklärt dadurch eine Markträumung. Arbeitslosigkeit existiert in dieser Betrachtungsweise nicht. In der Realität sind Löhne allerdings nicht flexibel, denn sie werden in der Regel tariflich auf einen Zeitraum bestimmt. Tatsächlich sind sie nach unten sogar meist starr. Arbeitnehmer als Dienstleistungserbringer. Es ist in der deutschen Sprache üblich, denjenigen, der die Arbeit gibt (verrichtet), den Arbeitnehmer zu nennen, während der, der die Arbeit nimmt (Arbeitsleistung entgegennimmt), Arbeitgeber genannt wird. In Deutschland. Dazu abgestuft werden entsprechend Sozialversicherungsbeiträge und Steuern eingezogen. Die Neuregelung beruht auf dem Hartz-Konzept und soll die Zahl der Arbeitsverhältnisse erhöhen. Arbeitsmarktforschung. Arbeitsmarkt- und Berufsforschung befasst sich mit der theoretischen und empirischen Untersuchung von Arbeitsmarkt, Berufsgruppen- und Branchenentwicklung etc. in wirtschaftlichen und sozialen Zusammenhängen. Für diese Disziplin wurde 1968 an der damaligen Bundesagentur für Arbeit das Institut für Arbeitsmarkt- und Berufsforschung gegründet. Hier wird das Forschungsfeld interdisziplinär von Soziologen, Ökonomen und Ökonometrikern untersucht. Die Forschung unterscheidet zwischen Ländern mit liberalem (Bsp. USA), konservativem (Bsp. Bundesrepublik Deutschland) und sozialdemokratischem (Bsp. Schweden) Wohlfahrtsstaatsmodell und deren spezifischen Auswirkungen auf den Arbeitsmarkt. Analysiert man diese Modelle z. B. anhand ihrer Auswirkungen auf das Geschlechterverhältnis im Arbeitsmarkt, ergibt sich folgendes Bild: Im liberalen Modell findet eine allgemein positive Entwicklung der Geschlechtergleichheit auf dem Arbeitsmarkt weitgehend zu Lasten gering verdienender Frauen statt. Im konservativen Modell ist v. a. eine hohe vertikale Segregation – d. h. geringe Aufstiegschancen von Frauen – zu beobachten. Das sozialdemokratische Modell produziert im Gegenzug eine starke horizontale Segregation, also eine Teilung des Arbeitsmarktes in spezifische Frauen- und Männerberufe. Assemblersprache. Eine Assemblersprache (von; kurz auch: „Assembler“) ist eine hardwarenahe Programmiersprache. Für verschiedene Computertypen gibt es jeweils eine spezielle, auf den Befehlssatz des Prozessors, Mikrocontrollers, digitalen Signalprozessors oder anderweitig programmierbaren Geräts zugeschnittene Assemblersprache. Von den Maschinensprachen unterscheiden sie sich dadurch, dass anstelle eines für den Menschen schwer verständlichen Binärcodes die Befehle und deren Operanden durch leichter verständliche mnemonische Symbole in Textform (z. B.„MOVE“), Operanden (u. a. auch) als symbolische Adressen (z. B.„PLZ“), notiert und dargestellt werden. Assemblersprachen bezeichnet man − als Nachfolger der direkten Programmierung mit Zahlencodes − als Programmiersprachen der zweiten Generation. Ihre Befehle werden mit einer Übersetzungssoftware (Assembler) direkt und i. d. R. 1:1 in Maschinenbefehle übersetzt, in höheren Programmiersprachen (dritte Generation) hingegen übersetzt ein Compiler komplexere Programmanweisungen in mehrere Maschinenbefehle. Im Sprachgebrauch werden die Ausdrücke „Maschinensprache“ und „Assembler(sprache)“ häufig synonym verwendet. Übersicht. Ein Quelltext in Assemblersprache wird auch als "Assemblercode" oder auch einfach als "Assembler" (üblich bis in die 1990er) bezeichnet. Er wird durch einen sogenannten Assembler in direkt ausführbare Maschinensprache (auch "Maschinencode") umgewandelt. Programme in Assemblersprachen zeichnen sich dadurch aus, dass alle Verarbeitungsmöglichkeiten des Mikroprozessors genutzt und die Hardwarekomponenten direkt angesteuert werden können. Die Nutzung von Assemblersprachen ist heutzutage selten erforderlich. Sie finden im Allgemeinen nur noch dann Anwendung, wenn Programme bzw. einzelne Teile davon sehr zeitkritisch (z. B. beim Hochleistungsrechnen oder bei Echtzeitsystemen) oder hardwarenah (z. B. Gerätetreiber) sind. Ihre Nutzung kann auch dann sinnvoll sein, wenn die Programme nur einen sehr geringen Speicherplatzbedarf aufweisen dürfen (z. B. in eingebetteten Systemen). Außerdem können sie verwendet werden, wenn noch keine Hochsprachbibliotheken existieren, z. B. bei neu herausgebrachter Technik. Unter dem Aspekt der Geschwindigkeitsoptimierung kann der Einsatz von Assemblercode auch bei verfügbaren hochoptimierten Compilern noch seine Berechtigung haben, muss aber differenziert betrachtet und für die spezifische Anwendung abgewogen werden. Bei komplexer Technik wie Intel Itanium und verschiedenen digitalen Signalprozessoren kann ein Compiler u. U. durchaus besseren Code erzeugen als ein durchschnittlicher Assemblerprogrammierer, da das Ablaufverhalten solcher Architekturen mit komplexen mehrstufigen intelligenten Optimierungen (z. B. Out-of-order execution, Pipeline-Stalls, …) hochgradig nichtlinear ist. Die Geschwindigkeitsoptimierung wird immer komplexer, da zahlreiche Nebenbedingungen eingehalten werden müssen. Dies ist ein gleichermaßen wachsendes Problem für die immer besser werdenden Compiler der Hochsprachen als auch für Programmierer der Assemblersprache. Für einen optimalen Code wird immer mehr Kontextwissen benötigt (z. B. Cachenutzung, räumliche und zeitliche Lokalität der Speicherzugriffe), welches der Assembler-Programmierer teilweise (im Gegensatz zum Compiler) durch Laufzeitprofiling des ausgeführten Codes in seinem angestrebten Anwendungsfeld gewinnen kann. Ein Beispiel hierfür ist der SSE-Befehl MOVNTQ, welcher wegen des fehlenden Kontextwissens von Compilern kaum optimal eingesetzt werden kann. Die Rückwandlung von Maschinencode in menschenlesbare Assemblersprache wird Disassemblierung genannt. Wenn die ausführbare Datei keine Debug-Informationen enthält, lassen sich zusätzliche Informationen wie ursprüngliche Bezeichner oder Kommentare nicht wiederherstellen, da diese beim Assemblieren nicht in den Maschinencode übernommen wurden. Beschreibung. Programmbefehle in Maschinensprache bilden sich aus dem Opcode und meist weiteren, je nach Befehl individuell festgelegten Angaben wie Adressen, im Befehl eingebettete Literale, Längenangaben etc. Da die Zahlenwerte der Opcodes schwierig zu merken sind, verwendet eine Assemblersprache besser merkbare Kürzel, so genannte "mnemonische Symbole" (kurz "Mnemonics"). Der folgende Befehl in der Maschinensprache von x86-Prozessoren 10110000 01100001 "(in hexadezimaler Darstellung: 'B0 61')" movb $0x61, %al; AT&T-Syntax (alles nach „;“ ist Kommentar) mov al, 61h; Intel-Syntax; das 'mov' als mnemotechnischem Kürzel erkennt und bedeutet, dass der hexadezimale Wert '61' (dezimal 97) in den niederwertigen Teil des Registers ‚ax‘ geladen wird; ‚ax‘ bezeichnet das ganze Register, ‚al‘ (für low) den niederwertigen Teil des Registers. Der hochwertige Teil des Registers kann mit ‚ah‘ angesprochen werden (für high). Am Beispiel ist zu erkennen, dass - obwohl in denselben Maschinencode übersetzt wird - die beiden Assembler-Dialekte deutlich verschieden formulieren. Mit Computerhilfe kann man das eine in das andere weitgehend eins zu eins übersetzen. Jedoch werden Adressumformungen vorgenommen, so dass man symbolische Adressen benutzen kann. Im Allgemeinen haben die Assembler neben den eigentlichen Codes auch Steueranweisungen, die die Programmierung bequemer machen, zum Beispiel zur Definition eines Basisregisters. Häufig werden komplexere Assemblersprachen (Makroassembler) verwendet, um die Programmierarbeit zu erleichtern. Makros sind dabei im Quelltext enthaltene Aufrufe, die vor dem eigentlichen Assemblieren automatisch durch (meist kurze) Folgen von Assemblerbefehlen ersetzt werden. Dabei können einfache, durch Parameter steuerbare Ersetzungen vorgenommen werden. Die Disassemblierung von derart generiertem Code ergibt allerdings den reinen Assemblercode ohne die beim Übersetzen expandierten Makros. Beispielprogramm Hello World. Meldung db "Hello World";- Die Zeichenkette "Hello World" db "$";- Zeichen, das INT 21h (s.u) als Ende der Zeichenkette erkennt ASSUME CS:CODE,DS:DATA;- dem Assembler die vorgesehenen Segmente und Segmentregister mitteilen Anfang:;- Einsprung-Label fuer den Anfang des Programms mov ax, DATA;- Adresse des Datensegments in das Register "AX" laden mov ds, ax; In das Segmentregister "DS" uebertragen (in das DS Register kann nicht direkt geladen werden) mov dx, offset Meldung;- die zum Datensegment relative Adresse des Textes in das "DX" Datenregister laden mov ah, 09h;- die Unterfunktion 9 des Betriebssysteminterrupts 21h auswaehlen int 21h;- den Betriebssysteminterrupt 21h aufrufen (hier erfolgt die Ausgabe des Textes am Schirm) mov ax, 4C00h;- die Unterfunktion 4Ch (Programmbeendigung) des Betriebssysteminterrupts 21h festlegen int 21h;- diesen Befehl ausfuehren, damit wird die Kontrolle wieder an das Betriebssystem zurueckgegeben END Anfang;- dem Assembler- und Linkprogramm den Programm-Einsprunglabel mitteilen Vergleichende Gegenüberstellungen für das „Hello World“ Programm in unterschiedlichen Assemblerdialekten enthält diese Liste. Verschiedene Assemblersprachen. Jede Computerarchitektur hat ihre eigene Maschinensprache und damit Assemblersprache. Mitunter existieren auch mehrere Assemblersprachen-Dialekte („verschiedene Assemblersprachen“, sowie zugehörige Assembler) für die gleiche Prozessorarchitektur. Die Sprachen verschiedener Architekturen unterscheiden sich in Anzahl und Typ der Operationen. Geschichte. Der erste Assembler wurde zwischen 1948 und 1950 von Nathaniel Rochester für eine IBM 701 geschrieben. Früher wurden Betriebssysteme in einer Assemblersprache geschrieben. Heute werden jedoch Hochsprachen bevorzugt, in den meisten Fällen C. Allerdings müssen häufig kleine Assemblerroutinen hardwarenahe Aufgaben in Betriebssystemen übernehmen. Dazu gehört zum Beispiel das Zwischenspeichern von Registern bei Prozesswechsel (siehe Scheduler), oder bei der x86-Architektur der Teil des Boot-Loaders, der innerhalb des 512 Byte großen Master Boot Records untergebracht sein muss. Auch Teile von Gerätetreibern werden in Assemblersprache geschrieben, falls aus den Hochsprachen kein effizienter Hardware-Zugriff möglich ist. Manche Hochsprachencompiler erlauben es, direkt im eigentlichen Quellcode Assemblercode, sogenannte Inline-Assembler, einzubetten. Bis ca. 1990 wurden die meisten Computerspiele in Assemblersprachen programmiert, da nur so auf Heimcomputern und den damaligen Spielkonsolen eine akzeptable Spielgeschwindigkeit und eine den kleinen Speicher dieser Systeme nicht sprengende Programmgröße zu erzielen war. Noch heute gehören Computerspiele zu den Programmen, bei denen am ehesten kleinere assemblersprachliche Programmteile zum Einsatz kommen, um so Prozessorerweiterungen wie SSE zu nutzen. Bei vielen Anwendungen für Geräte, die von Mikrocontrollern gesteuert sind, war früher oft eine Programmierung in Assembler notwendig, um die knappen Ressourcen dieser Mikrocontroller optimal auszunutzen. Um Assemblercode für solche Mikrocontroller zu Maschinencode zu übersetzen, werden Cross-Assembler bei der Entwicklung eingesetzt. Heute sind Mikrocontroller so günstig und leistungsfähig, dass moderne C-Compiler auch in diesem Bereich die Assembler weitgehend abgelöst haben. Nicht zuletzt aufgrund größerer Programmspeicher bei geringen Aufpreisen für die Chips fallen die Vorteile von Hochsprachen gegenüber den teils geringen Vorteilen der Assemblersprache immer mehr ins Gewicht. Nachteile. Assemblerprogramme sind sehr "hardwarenah" geschrieben, da sie direkt die unterschiedlichen Spezifikationen und Befehlssätze der einzelnen Computerarchitekturen abbilden. Daher kann ein Assemblerprogramm i. A. nicht auf ein anderes Computersystem übertragen werden, ohne dass der Quelltext angepasst wird. Das erfordert, abhängig von den Unterschieden der Assemblerssprachen, hohen Umstellungsaufwand, unter Umständen ist ein komplettes Neuschreiben des Programmtextes erforderlich. Im Gegensatz dazu muss bei Hochsprachen oft nur ein Compiler für die neue Zielplattform verwendet werden. Quelltexte in Assemblersprache sind fast immer "deutlich länger" als in einer Hochsprache, da die Instruktionen weniger komplex sind und deshalb gewisse Funktionen/Operationen mehrere Assemblerbefehle erfordern; z. B. müssen beim logischen Vergleich von Daten (= > Datenformate oder -Längen zunächst angeglichen werden. Die dadurch "größere Befehlsanzahl" erhöht das Risiko, unübersichtlichen, schlecht strukturierten und schlecht wartbaren Programmcode herzustellen. Vorteile. Nach wie vor dient Assembler zur Mikro-Optimierung von Berechnungen, für die der Hochsprachencompiler nicht ausreichend effizienten Code generiert. In solchen Fällen können Berechnungen effizienter direkt in Assembler programmiert werden. Beispielsweise sind im Bereich des wissenschaftlichen Rechnens die schnellsten Varianten mathematischer Bibliotheken wie BLAS oder bei architekturabhängigen Funktionen wie der C-Standardfunktion codice_3 weiterhin die mit Assembler-Code optimierten. Auch lassen sich gewisse, sehr systemnahe Operationen unter Umgehung des Betriebssystems (z. B. direktes Schreiben in den Bildschirmspeicher) nicht in allen Hochsprachen ausführen. Der Nutzen von Assembler liegt auch im Verständnis der Arbeits- und Funktionsweise eines Systems, das durch Konstrukte in Hochsprachen versteckt wird. Auch heute noch wird an vielen Hochschulen Assembler gelehrt, um ein Verständnis für die Rechnerarchitektur und seine Arbeitsweise zu bekommen. Die meisten Hochsprachencompiler übersetzen zuerst in Assemblercode oder können diesen optional ausgeben, so dass man Details genauer betrachten und gewisse Stellen von Hand optimieren kann. Analog-Digital-Umsetzer. Ein Analog-Digital-Umsetzer ist ein elektronisches Gerät, Bauelement oder Teil eines Bauelements zur Umsetzung analoger Eingangssignale in einen digitalen Datenstrom, der dann weiterverarbeitet oder gespeichert werden kann. Weitere Namen und Abkürzungen sind ADU, Analog-Digital-Wandler oder A/D-Wandler, engl. ADC ("Analog-to-Digital-C'"onverter") oder kurz A/D. Eine Vielzahl von Umsetz-Verfahren ist in Gebrauch. Das Gegenstück ist der Digital-Analog-Umsetzer (DAU). Analog-Digital-Umsetzer sind elementare Bestandteile fast aller Geräte der modernen Kommunikations- und Unterhaltungselektronik wie z. B. Mobiltelefonen, Digitalkameras, oder Camcordern. Zudem werden sie zur Messwerterfassung in Forschungs- und industriellen Produktionsanlagen, in Maschinen und technischen Alltagsgegenständen wie Kraftfahrzeugen oder Haushaltsgeräten eingesetzt. Arbeitsweise. Ein ADU diskretisiert ein zeit-kontinuierliches Eingangssignal (entweder durch sein Funktionsprinzip oder durch eine vorgeschaltete bzw. integrierte Sample-and-Hold-Stufe) in einzelne diskrete Abtastwerte. Diese Abtastwerte werden anschließend in Digitalwerte umgesetzt. Auf Grund einer endlichen Anzahl von möglichen Ausgangswerten erfolgt dabei immer eine Quantisierung. Das Ergebnis einer AD-Umsetzung kann man sich in einem Signal-Zeit-Diagramm in einer Punktfolge mit gestuften horizontalen und vertikalen Abständen vorstellen. Die Hauptparameter eines ADUs sind seine Bittiefe und seine maximale Abtastrate. Die Umsetzzeit ist meist wesentlich größer als das Reziproke der Abtastrate. Schon die Bittiefe eines AD-Umsetzers begrenzt die maximal mögliche Genauigkeit, mit der das Eingangssignal umgesetzt werden kann. Die nutzbare Genauigkeit ist durch weitere Fehlerquellen des ADUs geringer. Neben möglichst schnellen Verfahren gibt es auch langsame (integrierende) Verfahren zur Unterdrückung von Störeinkopplungen. Zeit-Diskretisierung (Abtastung). a>en (grün) – ohne Überlappung, also bei korrekter Abtastung Die minimal notwendige Abtastfrequenz für eine verlustfreie Diskretisierung ergibt sich aus der Bandbreite des Eingangssignals. Um das Signal später vollständig rekonstruieren zu können, muss die Abtastfrequenz größer als das Doppelte der maximal möglichen Frequenz im Eingangssignal sein. Anderenfalls kommt es zu einer Unterabtastung, die im rekonstruierten Signal im Eingangssignal nicht vorhandene Frequenzen enthält. Daher muss das Eingangssignal bandbegrenzt sein. Entweder ist es dies von sich aus oder es wird durch Tiefpassfilterung zu solch einem Signal gemacht. Manchmal ist das abzutastende Signal allerdings so hochfrequent, dass man diese Bedingung technisch nicht realisieren kann. Wenn das Eingangssignal jedoch periodisch ist, kann man durch Mehrfachabtastung mit zeitlichem Versatz dennoch eine Rekonstruktion ermöglichen, ohne dabei das Abtasttheorem zu verletzen, da bei mehrfachem Durchlauf des Signals Zwischenpunkte ermittelt werden und so eine größere Zahl von Stützstellen entsteht, was im Endeffekt einer Erhöhung der Abtastrate entspricht. Während der Signalumsetzung darf sich bei vielen Umsetzverfahren das Eingangssignal nicht ändern. Dann schaltet man dem eigentlichen AD-Umsetzer eine Abtast-Halte-Schaltung (Sample-and-Hold-Schaltung) vor, die den Signalwert () analog so zwischenspeichert, dass er während der Quantisierung konstant bleibt. Dies trifft besonders auf die stufen- und bitweisen Umsetzer zu, die längere Umsetzzeiten benötigen. Wenn ein Umsetzer diese Abtast-Halte-Schaltung erfordert, so ist sie bei Realisierung als integrierter Schaltkreis heute meist enthalten. In vielen Anwendungen soll das Eingangssignal in immer exakt gleichen Zeitabständen abgetastet werden. Durch zufällige Variationen der Abstände tritt jedoch ein Effekt auf, den man als Jitter bezeichnet. Er verfälscht das ursprüngliche Signal bei der späteren Rekonstruktion, da diese wieder äquidistant – also mit gleichen Zeitabständen – erfolgt. Nicht verwechselt werden darf die Umsetzdauer mit der Latenzzeit eines Umsetzers, d. h. die Zeit die nach der Erfassung vergeht, bis ein AD-Umsetzer das Datum weitergegeben hat. Diese Zeit kann weitaus größer als die Umsetzdauer sein, was insbesondere in der Regelungstechnik störend sein kann. Sie wird verursacht durch Pipelining des Umsetzers, Nachbearbeitung der Daten und die serielle Datenübertragung. Quantisierung. Digitalsignal (rote Punkte) nach Abtastung und Quantisierung eines analogen Signals (graue Linie) Die Quantisierung des vorher zeitdiskretisierten Signals stellt den eigentlichen Übergang von einem analogen Signal zu einem digitalen Signal dar. Auf Grund der endlichen Bittiefe des Wandlers gibt es nur eine gewisse Anzahl an Codeworten und deren dazugehörige Eingangsspannung. Das Signal wird quantisiert. Die Abweichung zwischen der wahren Eingangsspannung und der quantisierten Eingangsspannung nennt man Quantisierungsfehler. Je mehr Bits bzw. Codeworte zur Verfügung stehen, um so kleiner ist dieser unvermeidbare Fehler. Bei einem idealen AD-Umsetzer verringert jedes zusätzliche Bit dieses Rauschen um 6,02 dB. Bei realen AD-Wandlern kann man über die ENOB abschätzen, was ein weiteres Bit bei dem betrachteten Wandler bringen würde (so würde ein weiteres Bit bei einem 12-bit-Umsetzer mit einem ENOB von 11 bit ca. 0,15 bit bzw. 0,9 dB bringen). Bei realen Wandlern reduzieren sich die Werte durch zusätzliche Fehler des Wandlers. Ein weiterer Faktor ist, dass in der Praxis das Rauschen häufig bewertet (z. B. DIN-A oder CCIR-468) oder bandbegrenzt (z. B. 0 Hz…20 kHz) wird. Bezugswert. Da das dem ADU zugeführte Analogsignal in einen größenlosen Digitalwert umgesetzt wird, muss es mit einem vorgegebenen Wert oder Signal bewertet werden (Eingangssignalbereich bzw. Messbereich). Im Allgemeinen wird ein feststehender Bezugswert formula_3 (z. B. eine intern erzeugte Referenzspannung) verwendet. Das analoge Eingangssignal wird digital abgebildet, die Referenz legt den zulässigen Scheitelwert des Eingangssignals fest. Quantisierungskennlinie. Bei Analog-Digital-Umsetzern besteht zwischen Eingangs- und Ausgangsgröße immer ein nichtlinearer Zusammenhang. Ändert sich allerdings bei steigender Eingangsspannung der Digitalwert in konstanten Abständen oder nähert sich bei extrem feiner Stufung die Kennlinie einer Geraden, spricht man dennoch von einem linearen Analog-Digital-Umsetzer. Es gibt wobei daneben auch andere Kodierungen, beispielsweise Zweierkomplement, BCD-Code verwendbar sind. Nullpunktfehler, Verstärkungsfehler und Nichtlinearitätsfehler. Abweichungen vom proportionalen Zusammenhanga) additiv, b) multiplikativ, c) nicht linear Der Verstärkungsfehler wird oft als Bruchteil des aktuellen Wertes angegeben, der Nullpunktfehler zusammen mit dem Quantisierungsfehler und der Nichtlinearitätsfehler als Bruchteile des Endwertes oder als Vielfache eines LSB. Fehler in der Stufung. Abweichungen in der Stufung a) bei ungleicher Breite einer Stufe, b) bei fehlerhafter Breite einer höherwertigen Stufe Einzelne Stufen können unterschiedlich breit ausfallen. Bei kontinuierlich steigender Eingangsgröße kann es je nach Realisierungsverfahren vorkommen, dass ein Wert der Ausgangsgröße übersprungen wird, insbesondere dann, wenn es einen Übertrag über mehrere Binärstellen gibt, beispielsweise von 0111 1111 nach 1000 0000. Man spricht hierzu von „missing codes“. Zeitliche und Apertur-Fehler. Bei Wandlung jedes nichtkonstanten Eingangssignals entsteht durch zeitliche Schwankungen des Umsetzer-Taktes Δ"t" (clock jitter) ein der zeitlichen Änderung des Eingangssignals proportionaler Fehler. Bei einem Sinussignal der Frequenz f und der Amplitude A beträgt es formula_8. Jeder Jitter erzeugt weiteres Rauschen, es gibt keinen Schwellwert, unterhalb dem es zu keiner Verschlechterung des SNRs kommt. Viele aktuelle Wandler (insbesondere Delta-Sigma-Umsetzer) haben einen interne Taktaufbereitung. Der Hintergrund ist der, dass viele Wandler einen höheren internen Takt benötigen bzw. bei Delta-Sigma-Umsetzern, dass dort Jitter direkt (d. h. auch bei konstantem Eingangssignal) Wandlungsfehler verursacht. Realisierungsverfahren. Es gibt eine große Anzahl von Verfahren, die zur Umsetzung von analogen in digitale Signale benutzt werden können. Im Folgenden sind die wichtigsten Prinzipien aufgeführt. Als Eingangsgröße wird in allen Beispielen die elektrische Spannung zugrunde gelegt. Den inneren Ablauf einer Umsetzung steuern die Bausteine selber. Für die Zusammenarbeit mit einem Rechner kann ein ADU mit einem Start-Eingang versehen sein für die Anforderung zu einer neuen Umsetzung, mit einem „busy“-Ausgang für die Meldung der noch andauernden Umsetzung und mit bus-kompatiblen Datenausgängen für das Auslesen des entstandenen Digitalwertes. Komparator-Verfahren (Zählverfahren). Bei Zählverfahren finden gleichzeitig zwei Dinge statt. Ein analoger durch die Messgröße beeinflusster Prozess, z. B. das stetige Laden eines Kondensators verbunden mit einem Komparator, und ein digitaler Prozess, der Zeiten oder Impulsdichten misst. Es gibt ein Verfahren, bei dem ein Zähler aufwärts oder abwärts allen Änderungen des Eingangssignals folgt, wie weiter unten beim Nachlauf-Umsetzer beschrieben. Die meisten Verfahren bauen die Zählung bei null beginnend in periodischer Wiederholung neu auf. Single-Slope-Umsetzer (Sägezahn-/Einrampenverfahren). Funktionsprinzip eines ADUs nach dem Sägezahnverfahren Beim Sägezahnverfahren wird die Ausgangsspannung formula_9 eines Sägezahngenerators über zwei Komparatoren K1 und K2 mit dem Massepotenzial (0 V) und mit der ADU-Eingangsspannung formula_10 verglichen. Während des Zeitraums, in dem die Sägezahnspannung den Bereich zwischen 0 V und der Spannung formula_10 durchläuft, werden die Impulse eines Quarzoszillators gezählt. Aufgrund der konstanten Steigung der Sägezahnspannung ist die verstrichene Zeit und somit der Zählerstand bei Erreichen von formula_12 proportional zur Höhe der ADU-Eingangsspannung. Zum Ende des Zählvorgangs wird das Zählergebnis in ein Register übertragen und steht als digitales Signal zur Verfügung. Anschließend wird der Zähler zurückgesetzt, und ein neuer Umsetzungsvorgang beginnt. Die Umsetzungszeit bei diesem ADU ist abhängig von der Eingangsspannung. Schnell veränderliche Signale können mit diesem Umsetzertyp nicht erfasst werden. Umsetzer nach dem Sägezahnverfahren sind ungenau, da der Sägezahngenerator mit Hilfe eines temperatur- und alterungsabhängigen Integrationskondensators arbeitet. Sie werden wegen ihres relativ geringen Schaltungsaufwands für einfache Aufgaben eingesetzt, beispielsweise in Spielkonsolen, um die Stellung eines Potentiometers, das durch einen Joystick oder ein Lenkrad bewegt wird, zu digitalisieren. Dual- und Quadslope-Umsetzer (Mehrrampenverfahren). Dual- und Quadslope-Umsetzer bestehen im Wesentlichen aus einem Integrator und mehreren Zählern und elektronischen Schaltern. Der Integrator arbeitet mit einem externen, hochwertigen Kondensator, der in zwei oder mehr Zyklen geladen und entladen wird. Beim Zweirampenverfahren wird zunächst der Integratoreingang mit der unbekannten ADU-Eingangsspannung verbunden, und es erfolgt die Ladung über ein fest vorgegebenes Zeitintervall. Für die anschließende Entladung wird der Integrator mit einer bekannten Referenzspannung entgegengesetzter Polarität verbunden. Die benötigte Entladezeit bis zum Erreichen der Spannung null am Integratorausgang wird durch einen Zähler ermittelt; der Zählerstand steht bei geeigneter Dimensionierung unmittelbar für die Eingangsspannung. Die Größe der Kapazität kürzt sich bei diesem Verfahren aus dem Ergebnis heraus. Zur Korrektur des Nullpunktfehlers des ADU wird beim Vierrampenverfahren noch ein weiterer Lade-/Entladezyklus bei kurzgeschlossenem Integratoreingang durchgeführt. Die Referenzspannung ist die bestimmende Größe für die Genauigkeit; das heißt beispielsweise, dass thermisch bedingte Schwankungen vermieden werden müssen. Derartige Umsetzer nach dem Mehrrampenverfahren sind langsam, benötigen keine Abtast-Halte-Schaltung und bieten eine hohe Auflösung sowie gute differentielle Linearität und gute Unterdrückung von Störsignalen wie Rauschen oder Netzeinkopplung. Das typische Einsatzgebiet sind anzeigende Messgeräte (Digitalmultimeter), die kaum eine Umsetzzeit unter 500 ms benötigen und bei geeigneter Integrationsdauer überlagerte 50-Hz-Störungen der Netzfrequenz eliminieren können. Ladungsbilanz-Umsetzer. Beim Ladungsbilanzverfahren (Charge-Balancing-Verfahren) wird der Kondensator eines Integrators durch einen zur Eingangsgröße proportionalen elektrischen Strom geladen und durch kurze Stromstöße in entgegengesetzter Richtung entladen, so dass sich im Mittel keine Ladung aufbaut. Je größer der Ladestrom ist, desto häufiger wird entladen. Die Häufigkeit ist proportional zur Eingangsgröße; die Anzahl der Entladungen in einer festen Zeit wird gezählt und liefert den Digitalwert. In seinem Verhalten ist das Verfahren dem Dual-Slope-Verfahren ähnlich. Auch andere analoge Eingangsstufen, die einen Spannungs-Frequenz-Umformer mit genügend hochwertiger Genauigkeit enthalten, führen über eine Frequenzzählung auf einen Digitalwert. Rückgekoppelter Umsetzer (Serielles Verfahren). Diese arbeiten mit einem DAU, der einen Vergleichswert formula_13 liefert. Dieser wird nach einer geeigneten Strategie an das analoge Eingangssignal formula_10 angenähert. Der zum Schluss am DAU eingestellte Digitalwert ist das Ergebnis des ADU. Nachlauf-Umsetzer. Hier wird ein Zähler als Datenspeicher eingesetzt. Je nach Vorzeichen von formula_15 wird um einen Schritt aufwärts oder abwärts gezählt und neu verglichen – gezählt und neu verglichen, bis die Differenz kleiner ist als der kleinste einstellbare Schritt. Diese Umsetzer „fahren“ dem Signal einfach nach, wobei die Umsetzungszeit vom Abstand des aktuellen Eingangssignals zum Signal bei der letzten Umsetzung abhängt. Sukzessive Approximation. Diese arbeiten mit einem DAU, der einen Vergleichswert formula_13 jedes Mal neu aufbaut. Das Eingangssignal wird mittels Intervallschachtelung eingegrenzt. Einfache sukzessive Approximation setzt dabei pro Schritt ein Bit um. Ein um Größenordnungen genaueres und schnelleres Umsetzen kann dadurch erreicht werden, dass die Umsetzung redundant erfolgt, indem mit kleinerer Schrittweite umgesetzt wird, als einem Bit entspricht. Wägeverfahren. Ein mögliches Approximationsverfahren ist das Wägeverfahren. Dabei werden in einem Datenspeicher ("successive approximation register", SAR) zunächst alle Bits auf null gesetzt. Beginnend beim höchstwertigen Bit (Most Significant Bit, MSB) werden abwärts bis zum niederwertigsten Bit (Least Significant Bit, LSB) nacheinander alle Bits des Digitalwerts ermittelt. Vom Steuerwerk wird jeweils das in Arbeit befindliche Bit probeweise auf eins gesetzt; der Digital-Analog-Umsetzer erzeugt die dem aktuellen Digitalwert entsprechende Vergleichsspannung. Der Komparator vergleicht diese mit der Eingangsspannung formula_10 und veranlasst das Steuerwerk, das in Arbeit befindliche Bit wieder auf null zurückzusetzen, wenn die Vergleichsspannung höher ist als die Eingangsspannung. Sonst ist das Bit mindestens notwendig und bleibt gesetzt. Nach der Einstellung des niederwertigsten Bits ist formula_15 kleiner als der kleinste einstellbare Schritt. Während der Umsetzung darf sich das Eingangssignal formula_10 nicht ändern, da sonst die niederwertigen Bits auf Grundlage der festgestellten, aber nicht mehr gültigen höherwertigen Bits gewonnen würden. Deshalb ist dem Eingang eine Abtast-Halte-Schaltung (S/H) vorgeschaltet. Für jedes Bit an Genauigkeit benötigt der ADU jeweils einen Taktzyklus Umsetzungszeit. Derartige Umsetzer erreichen Auflösungen von 16 Bit bei einer Umsetzungsrate von 1 MHz. Redundante Umsetzer. Die schnellere Funktion kommt dadurch, dass der Komparator in jedem Schritt nicht abwarten muss, bis sich seine Verstärker bis zu einem Mehrfachen der Zielgenauigkeit eingeschwungen haben (immer etwas größenordnungsmäßig so viele Einschwing-Zeitkonstanten, wie der Umsetzer Bits umsetzen soll), sondern eine Entscheidung schon nach der kurzen 50-Prozent-Einschwingzeit abgeben kann, die dann in einem recht großen Bereich innerhalb des Restintervalls fehlerhaft ist. Das wird allerdings mehr als abgefangen durch die redundant ausgelegten Umsetzerelemente. Die Gesamtumsetzdauer eines solchen Umsetzers liegt größenordnungsmäßig eine Zehnerpotenz unter der seines einfachen Vorbilds. Durch den redundanten Umsetzungsprozess hat ein solcher Umsetzer ein viel geringeres Eigenrauschen als sein rein dualer Gegenpart. Zusätzlich kann sich ein solcher ADU selbst einmessen, und zwar bis zu einer Genauigkeit, die nur durch das Rauschen begrenzt ist. Indem man das Selbsteinmessen wesentlich langsamer ablaufen lässt als die Umsetzung in der Nutzanwendung, kann der Rauscheinfluss in diesem Prozess um eine Größenordnung gedrückt werden. Die resultierende Kennlinie eines solchen Umsetzers ist bis auf eine rauschartige Abweichung um wenige Vielfache des kleinsten beim Selbsteinmessen verwendeten Elements absolut linear. Indem zwei derartige Umsetzer nebeneinander auf denselben Chip platziert werden und einer immer im Einmess-Modus ist, können solche Umsetzer nahezu resistent gegen Herstellungstoleranzen, Temperatur- und Betriebsspannungsänderungen gemacht werden. Die erreichbare Auflösung ist ausschließlich rauschbegrenzt. Delta-Sigma-Verfahren. Werte in verschiedenen Stufen des Delta-Sigma-Umsetzers Das Delta-Sigma-Verfahren, auch als 1-Bit-Umsetzer bezeichnet, basiert auf der Delta-Sigma-Modulation. In der einfachsten Form (Modulator erster Ordnung) kommt das Eingangssignal über einen analogen Subtrahierer zum Integrator und verursacht an dessen Ausgang ein Signal, das von einem Komparator mit eins oder null bewertet wird. Ein Flipflop erzeugt daraus ein zeitdiskretes binäres Signal, mit dem ein 1-Bit-Digital-Analog-Umsetzer in eine positive oder negative elektrische Spannung liefert, die über den Subtrahierer den Integrator wieder auf null zurückzieht (Regelkreis). Ein nachgeschalteter Digitalfilter setzt den seriellen und hochfrequenten Bit-Strom in Daten niedriger Erneuerungsrate, aber großer Bitbreite (16 oder 24 Bit) und hohem Signal-Rausch-Verhältnis (94 bis 115 dB) um. In der Praxis werden Delta-Sigma-Umsetzer als Systeme dritter oder vierter Ordnung aufgebaut, das heißt durch mehrere seriell angeordnete Differenz- und Integratorstufen. Dies erlaubt eine bessere Rauschformung und damit einen höheren Gewinn an Auflösung bei gleicher Überabtastung. Ein Vorteil des Delta-Sigma-Umsetzers ist, dass die Dynamik in gewissen Grenzen durch die Bandbreite wechselseitig ausgetauscht werden kann. Durch die kontinuierliche Abtastung am Eingang wird auch keine Halteschaltung (engl. sample and hold) benötigt. Außerdem werden geringe Anforderungen an das analoge Anti-Aliasing-Filter gestellt. Die Vorteile werden durch den Nachteil der vergleichsweise hohen Latenzzeit erkauft, welche vor allem durch die digitalen Filterstufen bedingt ist. Delta-Sigma-Umsetzer werden daher dort eingesetzt, wo kontinuierliche Signalverläufe und nur moderate Bandbreiten benötigt werden, wie beispielsweise im Audiobereich. Praktisch alle Audiogeräte im Bereich der Unterhaltungselektronik wie zum Beispiel DAT-Rekorder setzen diese Umsetzer ein. Auch bei Datenumsetzern in der Kommunikationstechnik und der Messtechnik wird es aufgrund der fallenden Preise zunehmend eingesetzt. Durch die dabei notwendige hohe Überabtastung sind dem Verfahren bei höheren Frequenzen allerdings Grenzen gesetzt. Die Grenze liegt bei etwa 2,5 MHz. Einstufige Parallelumsetzer (Flash-Umsetzer). Während die sukzessive Approximation mehrere Vergleiche mit nur einem Komparator ausführt, kommt die "direkte Methode" oder auch "Flash-Umsetzung" mit nur einem Vergleich aus. Dazu ist bei Flash-Umsetzern aber für jeden möglichen Ausgangswert (bis auf den größten) ein separat implementierter Komparator erforderlich. Beispielsweise ein 8-Bit-Flash-Umsetzer benötigt somit 28−1 = 255 Komparatoren. Das analoge Eingangssignal wird im Flash-Umsetzer gleichzeitig von allen Komparatoren mit den (über einen linearen Spannungsteiler erzeugten) Vergleichsgrößen verglichen. Anschließend erfolgt durch eine Kodeumsetzung der 2"n"−1 Komparatorsignale in einen "n" bit breiten Binärkode (mit "n": Auflösung in Bit). Das Resultat steht damit nach den Durchlaufverzögerungen (Schaltzeit der Komparatoren sowie Verzögerung in der Dekodierlogik) sofort zur Verfügung. Im Ergebnis sind die Flash-Umsetzer also sehr schnell, bringen aber im Allgemeinen auch hohe Verlustleistungen und Anschaffungskosten mit sich (insbesondere bei den hohen Auflösungen). Kennlinie eines Zwei-Bit-Parallelumsetzers. H steht für HIGH = positiv übersteuert, L für LOW = negativ übersteuert. Die Codeumsetzung erfordert unabhängig von der Auflösung nur eine Spalte mit Und-Gattern und eine Spalte mit Oder-Gattern (siehe Bild). Sie rechnet das Ergebnis der Komparatoren um in eine Binärzahl. Sie arbeitet mit einer sehr kurzen und für alle Binärziffern gleich langen Durchlaufverzögerung. Für die vier möglichen Werte eines Zwei-Bit-Umsetzers sind drei Komparatoren erforderlich. Der vierte hat nur die Funktion, eine Messbereichsüberschreitung zu signalisieren und die Kodeumsetzung zu unterstützen. Flash-Wandler sind am Sterben. Sie sind aufwändig, viel zu teuer, stromhungrig und langsam (begrenzt durch die maximal mögliche Verlustleistung und durch Laufzeitprobleme auf dem Chip). Es gibt mit den Pipeline-Umsetzern etwas deutlich Besseres. Mehrstufige Parallelumsetzer (Pipeline-Umsetzer). Pipeline-Umsetzer sind mehrstufige Analog-Digital-Umsetzer mit mehreren selbständigen Stufen, die in Pipeline-Architektur aufgebaut sind. Ihre Stufen bestehen in der Regel aus Flash-Umsetzern über wenige Bits. In jeder Pipelinestufe wird eine grobe Quantisierung vorgenommen, dieser Wert wieder mit einem DAU in ein analoges Signal umgesetzt und vom zwischengespeicherten Eingangssignal abgezogen. Der Restwert wird verstärkt der nächsten Stufe zugeführt. Der Vorteil liegt in der stark verminderten Anzahl an Komparatoren, z. B. 30 für einen zweistufigen Acht-Bit-Umsetzer. Ferner kann eine höhere Auflösung erreicht werden. Die Mehrstufigkeit erhöht die Latenzzeit, aber vermindert die Abtastrate nicht wesentlich. Die Pipeline-Umsetzer haben die echten Parallelumsetzer außer bei extrem zeitkritischen Anwendungen ersetzt. Diese mehrstufigen Umsetzer erreichen Datenraten von 250 MSPS (Mega-Samples Per Second) bei einer Auflösung von 12 Bit (MAX1215, AD9480) oder eine Auflösung von 16 Bit bei 200 MSPS (ADS5485). Die Werte der Quantisierungsstufen werden unter Berücksichtigung ihrer Gewichtung addiert. Meistens enthält ein Korrektur-ROM noch Kalibrierungsdaten, die dazu dienen, Fehler zu korrigieren, die in den einzelnen Digitalisierungsstufen entstehen. Bei manchen Ausführungen werden diese Korrekturdaten auch auf ein externes Signal hin generiert und in einem RAM abgelegt. Pipeline-Umsetzer kommen normalerweise in allen Digitaloszilloskopen und bei der Digitalisierung von Videosignalen zur Anwendung. Als Beispiel ermöglicht der MAX109 bei einer Auflösung von 8 bit eine Abtastrate von 2,2 GHz. Mittlerweile gibt es aber noch schnellere (4 GSPS) und genauere Umsetzer (16 bit @1 GSPS). Bei heutigen Digitaloszilloskopen mit möglichen Abtastraten von 240 GSPS werden zusätzlich noch Demultiplexer vorgeschaltet. Hybrid-Umsetzer. Ein Hybrid-Umsetzer ist kein eigenständiger Umsetzer, sondern er kombiniert zwei oder mehr Umsetzungsverfahren, zum Beispiel auf Basis einer SAR-Struktur, wobei der ursprüngliche Komparator durch einen Flash-Umsetzer ersetzt wird. Dadurch können in jedem Approximationsschritt mehrere Bits gleichzeitig ermittelt werden. Marktsituation. Die aktuelle Marktsituation sieht so aus, dass im Wesentlichen vier Verfahren mittlerweile den Markt fast vollständig beherrschen. Mit diesen Verfahren kann man alle Anforderungen abdecken und bei gemäßigten Anforderungen (z. B. 12 bit, 125 KSPS, 4 Kanäle) sind diese Wandler kostengünstig (ca. 1 €) zu bekommen. Echte Parallelumsetzer existieren im Wesentlichen noch in Lehrbüchern. Anglikanische Gemeinschaft. Die Anglikanische Gemeinschaft oder Anglikanische Kommunion (; von ‚englisch‘), umgangssprachlich die anglikanische Kirche, ist eine weltweite christliche Kirchengemeinschaft, die in ihrer Tradition evangelische und katholische Glaubenselemente vereinigt, wobei die katholische Tradition in der Liturgie und im Sakramentsverständnis (insbesondere dem Amtsverständnis) vorherrscht und die evangelische in der Theologie. Die anglikanischen Landeskirchen sehen sich als Teile der einen, heiligen, katholischen und apostolischen Kirche, die sich der Tradition und Theologie der englischen (und zum Teil schottischen) Reformation verpflichtet haben. Jedoch versteht die anglikanische Kirche ihre „Reformation“ nicht als einen Bruch mit der vorreformatorischen Kirche, sondern als notwendige Reform der katholischen Kirche der britischen Inseln. Damit ist die anglikanische Kirche sowohl katholische Kirche als auch reformatorische Kirche, die allerdings seit der Reformation eine bewusst eigenständige christlich-anglikanische Tradition und Theologie entwickelt hat. Sie hat ca. 80 Millionen Mitglieder. Weltweit besteht die Kirchengemeinschaft aus rund 385 Diözesen. Organisation und Verbreitung. Weltkarte der Provinzen der Anglikanischen Gemeinschaft (Blau) Die Anglikanische Kirchengemeinschaft besteht aus 38 selbständigen Landeskirchen bzw. Provinzen. Neben der Church of England sind diese beispielsweise die Anglican Church of Canada, die Episcopal Church in the USA und die Church of South India. Für eine vollständige Liste aller Mitglieder der Gemeinschaft siehe Liste der Mitgliedskirchen der Anglikanischen Gemeinschaft. Die Provinzen bzw. Landeskirchen, denen jeweils ein Primas "(primate)" vorsteht, bestehen aus mehreren Bistümern. Weltweit gibt es etwa 80 Millionen Christen in der Anglikanischen Kommunion, davon etwa 42 Millionen im Vereinigten Königreich (größtenteils in England "(Church of England)", da die selbständigen anglikanischen Landeskirchen in Schottland und Wales weder Staatskirchen sind noch die Mehrheit der Bevölkerung zu ihren Mitgliedern zählt). Die "Kirche von England" – oft vereinfachend „Anglikanische Kirche“ genannt – ist nach der römisch-katholischen und der größten orthodoxen Kirche die drittgrößte Kirche weltweit. Die anglikanische Kirche ist besonders in englischsprachigen Gebieten sowie in Gebieten des Commonwealth, aber darüber hinaus auch in den meisten übrigen Staaten vertreten. Darüber hinaus gibt es vereinzelt Menschen, die eine in der anglikanischen Tradition stehende Kirche besuchen, die jedoch "nicht" zur Anglikanischen Gemeinschaft gehören (u. a. die so genannten "Anglican continuing churches"), da sie die Kommunion mit der Gemeinschaft abgebrochen haben. Solche Kirchen sollten "nicht" (und wollen auch nicht) zu den Kirchen der Anglikanischen Gemeinschaft gezählt werden. Leitung der Kirchengemeinschaft. Die Anglikanische Gemeinschaft kennt keine zentralisierten Strukturen der Autorität, sondern vertritt seit der englischen Reformation das Prinzip, dass kein Bischof (ob von Rom, Canterbury oder Konstantinopel) für die Geschäfte eines anderen Bistums weisungsbefugt ist. Dennoch gibt es in der Gemeinschaft vier sogenannte "Instruments of Unity" („Instrumente der Einheit“). In der Reihenfolge ihres Alters sind diese: Der Erzbischof von Canterbury, die Lambeth Conference, das Anglican Consultative Council und das Treffen der Primasse (die ranghöchsten Bischöfe der einzelnen Landeskirchen). Aufbau einer anglikanischen Kirche/Kirchenprovinz. Die Mitgliedskirchen der Anglikanischen Gemeinschaft werden Landeskirche oder Provinz genannt. Einige dieser Kirchenprovinzen decken sich mit den Grenzen politischer Staaten, einige schließen mehrere Staaten ein, während andere nur Teilbereiche einer Nation einschließen. Geleitet wird jede Kirche von einer Synode, die sich aus den Bischöfen, Klerusvertretern und Laienvertretern zusammensetzt. Die Versammlung kann aus einem Haus (Synode) oder aus zwei Kammern (z. B. Haus der Bischöfe, Haus der Deputierten) zusammengesetzt sein und tagt stets zu bestimmten Zeiten. In einigen Fällen wird sie jedoch ständig durch das Provinzbüro, in dem alle laufenden Angelegenheiten der Kirche bearbeitet werden, aufrechterhalten. In anderen Provinzen besteht an der Stelle des Provinzbüros ein "Executive Committee", das sich ebenfalls mit Fragen der Finanzen oder Klerikerausbildung beschäftigt. Oft wird das Büro bzw. Komitee von einem Generalsekretär geleitet. Jeder anglikanischen Kirche steht ein Primas vor. Dieser kann der Bischof eines bestimmten Sitzes sein, so wie für England in Canterbury, ist aber für gewöhnlich nicht daran gebunden, sondern wird auf der Provinzsynode gewählt. In den meisten Fällen trägt er den Titel eines Erzbischofs, und oft ist seine Amtszeit beschränkt. In der Episcopal Church in the USA heißt der Primas "Presiding Bishop". Aufbau einer anglikanischen Diözese. Jeder Diözese steht ein "Bischof" vor, dem – wenn die Diözese von entsprechender Größe ist – Suffraganbischöfe beigeordnet sind. Diese haben eine ähnliche Rolle wie die Weihbischöfe der römisch-katholischen Kirche. Es kann zwar vorkommen, dass sie einen eigenen Bezirk innerhalb der Diözese zugeordnet bekommen, sie bleiben aber in jedem Fall dem Diözesanbischof untergeordnet. Manchmal wird die Regionalaufsicht stattdessen durch einen sogenannten Archidiakon oder einen Dekan ausgeführt (siehe unten). Die anglikanische Kirchengemeinschaft sieht sich als in der Apostolischen Sukzession stehend an. Dieser Anspruch wird sowohl von der orthodoxen als auch von der altkatholischen Kirche anerkannt, nicht jedoch von der römisch-katholischen Kirche (siehe Apostolicae Curae). Der Diözesanbischof besitzt meistens eine Kathedrale, an welcher es den "Kathedralklerus" gibt. Dieser untersteht dem "Dean" (Dekan) oder "Provost" (Propst) und kann sich ggf. in Residenzkanoniker, Honorarkanoniker (Praebendare) und Niedere Kanoniker unterteilen. Der "Diözesanklerus" besteht aus Priestern, die entsprechend der Gemeinde, in der sie tätig sind, vicars oder rectors (Pfarrer), curates (Kapläne/Vikare) oder assistant curates/priests sind, sowie aus Diakonen. Mehrere Pfarrkirchen sind in Dekanaten zusammengefasst. Besonders große Diözesen sind in "Archdeaneries" (Erzdekanate) unterteilt, denen "Archdeacons" vorstehen (manchmal mit den Suffraganbischöfen identisch). Diese Erzdekanate ähneln den Regionen in großen römisch-katholischen Diözesen. Um in die Reihen des Klerus der anglikanischen Kirche aufgenommen zu werden, bewirbt man sich beim Bischof einer Diözese. Dieser wird diese Bewerbung an ein Gremium "(Selection Conference)" weiterleiten, welches den Bewerber auf seine Eignung im Geistlichen, Geistigen, Gesundheitlichen und Familiären prüft. Ist dies geschehen, so sendet es ein Gutachten an den jeweiligen Bischof, in welchem es den Bewerber empfiehlt, bedingt empfiehlt oder ablehnt. Zugleich macht es auch Vorschläge zur Ausbildung, welche von einem normalen Hochschulstudium bis zu regionalen Kursen reichen. Hat der Bewerber die Zustimmung des Bischofs erhalten, so untersteht er fortan einem "Diocesan Director for Ordinands", der den Bewerber in allen Bereichen seines Lebens begleitet und zum Ende der Ausbildung ein Zeugnis zu dessen Eignung abgibt. Ist dieses positiv ausgefallen, so steht der Weihe des Bewerbers oder der Bewerberin nichts mehr im Wege. Aufbau in Kontinentaleuropa. Im 19. Jahrhundert gründeten sowohl die Church of England als auch die US-Episkopalkirche in Europa Pfarreien. Die Zielgruppe waren Glaubensangehörige im Ausland sowie Reisende. Zuständig für diese Pfarreien war ursprünglich der Bischof von London (im Fall der Church of England) bzw. der Presiding Bishop (im Fall der US-Episkopalkirche). Später übertrug der Bischof von London die Zuständigkeit an den neu eingesetzten Bischof von Gibraltar. 1980 wurde durch eine Union der Diözese von Gibraltar und der vom Bischof von Fulham geleiteten Jurisdiktion of North and Central Europe die Diözese in Europa "(Diocese [of Gibraltar] in Europe)" gegründet, die seither für die Gemeinden in Europa außerhalb Großbritanniens und Irlands zuständig ist. Parallel stärkte die US-Kirche die Autonomie der europäischen Pfarreien durch die Struktur der Convocation of Episcopal Churches in Europe, eine bistumsähnliche Organisation mit einem Suffraganbischof, der ursprünglich vom "Presiding Bishop" ernannt wurde, und mit der Wahl des jetzigen Amtsinhabers, Pierre Whalon, erstmals durch Klerus und Volk der "Convocation" gewählt wurde. In Deutschland gibt es rund 40 anglikanische bzw. episkopale Gemeinden, von denen sich die englischsprachigen 1999 zum Council of Anglican and Episcopal Churches in Germany (CAECG) zusammengeschlossen haben. Viele von ihnen wurden im 19. Jahrhundert gegründet und erfuhren in der Besatzungszeit nach dem Zweiten Weltkrieg neuen Aufschwung, manche – wie die Gemeinde in Hamburg – gehen auf Handelsbeziehungen zwischen England und Kontinentaleuropa im 17. Jahrhundert zurück. Eine Reihe von deutschsprachigen Gemeinden entstanden in den letzten Jahren und zählen sich zur Church of England, der Anglican Independent Communion oder der Anglican Church in North America. Gemeinden der Church of England existieren u. a. in Berlin, Bonn/Köln, Düsseldorf, Freiburg im Breisgau, Hamburg, Heidelberg, Leipzig und Stuttgart. Sie gehören zur Erzdiakonie von Nordeuropa und Deutschland, die von Archdeakon Ven. Jonathan Lloyd geleitet wird, der auch Pfarrer der anglikanischen Gemeinde von Kopenhagen ist. Gemeinden der Episcopal Church in the USA (ECUSA) existieren u. a. in Frankfurt am Main, München, und Wiesbaden; dazu kommen Missionen in Augsburg, Karlsruhe, Nürnberg und Ulm. Die anglikanischen Gemeinden in der Schweiz gehören der Church of England an und bilden in deren Diözese in Europa eine eigene Erzdiakonie, welcher der Ven. Arthur Siddall vorsteht. Sie hat acht Standortpfarreien in größeren Städten und einige weitere Gemeinden, die von dort betreut werden. Die US-Episkopalkirche hat eine Gemeinde in Genf. In Österreich gibt es eine anglikanische Gemeinde in Wien, die Christ Church Vienna; von dort aus werden so genannte Satellitengemeinden z. B. in Klagenfurt betreut. Sie wird geleitet von Ven. Patrick Curran, Bischofsvikar des östlichen Europas. Lehre. Die anglikanische Kirche ist eine christliche Kirche, die sich „zum dreieinigen Gott bekennt, wie er sich in Jesus Christus offenbart hat“. Grundlage der Lehre bilden die 39 Artikel, das "Book of Common Prayer" und die Ordnung zur Ernennung von Bischöfen, Priestern und Diakonen. Alle drei entstanden im 16. Jahrhundert und sind größtenteils das Werk von Thomas Cranmer, Erzbischof von Canterbury. In der anglikanischen Lehre gibt es ein weites Spektrum zwischen der "High Church" (Anglo-Katholizismus), die in Liturgie und Lehre den anderen katholischen Kirchen nahesteht, und der "Low Church", die dem Protestantismus, insbesondere dem Calvinismus, nahesteht. Theologisch sind innerhalb der anglikanischen Kirche sehr liberale wie auch streng evangelikale und konservative anglokatholische Richtungen vertreten. Dieses sehr weite Meinungsspektrum wird teilweise als Stärke der Anglikaner betrachtet, die somit ein weites Spektrum des heutigen Christentums ohne Kirchenspaltung in einer Kirche umfassen können. Teilweise wird aber auch kritisiert, dass die Kirche so für nichts mehr stehe und der Beliebigkeit zu viel Raum gebe. Gottesdienst und Praxis. Der Gottesdienst der anglikanischen Kirche ist liturgisch ähnlich aufgebaut wie der der katholischen Kirchen. Er ist im "Book of Common Prayer" niedergelegt, von dem die einzelnen Gliedkirchen eigene Ausgaben haben. Liturgie. Die Liturgie der anglikanischen Kirche hat die Eucharistie als zentrales Element und auch anderweitig zeugt sie vom anglikanischen Selbstverständnis als Teil der universalen katholischen Kirche. Die gottesdienstlichen Handlungen im Anglikanismus wurden allerdings, anders als in der römisch-katholischen Kirche, schon seit der Reformationszeit in der jeweiligen Landessprache abgehalten. Gebet. Das Stundengebet, in der anglikanischen Kirche als "Daily Office" bezeichnet, ist eine wichtige Tradition der anglikanischen Kirche. Insbesondere das Morgen- und Abendgebet sind weit verbreitet und werden in einigen Kirchen täglich gebetet. Die anglikanische Kirche kennt auch die Rosenkranztradition, wobei der Aufbau des Rosenkranzes und die Gebete sich von denen der katholischen Kirche unterscheiden und weniger auf Maria, dafür stärker auf Jesus Christus ausgerichtet sind. Diese Tradition wird jedoch nur in den eher zum Anglokatholizismus neigenden Gemeinden praktiziert; viele Anglikaner aus anderen Gemeinden sind mit dem Ave Maria-Gebet, das nicht im "Book of Common Prayer" vorkommt, gar nicht vertraut. Orden. Wie die katholische Kirche, so kennt auch die anglikanische Kirche Männer- und Frauenorden. Die meisten zur Reformationszeit bereits bestehenden katholischen Orden haben anglikanische Entsprechungen. Diese leben nach den Evangelischen Räten und in Gemeinschaft, sind entweder kontemplativ oder aktiv in der Erziehung bzw. in der Pflege tätig. Geschichte. Die Kirche von England datiert ihre Geschichte zurück bis in die römische Zeit, als das Christentum sich im gesamten römischen Reich ausbreitete. Nach dem Abzug der Römer und Einfall der Angeln, Sachsen und Jüten, die ihre heidnische Religion mit sich brachten, blieben nur noch die keltischen Stämme Britanniens im äußersten Norden und Westen der Inseln als Christen zurück. (Siehe dazu: Keltische Kirche) Mit der Mission von Augustinus von Canterbury an den Hof von Kent im Jahr 597 kam die christliche Religion erneut aus Rom nach England. Diese Missionstätigkeit ergänzte sich mit einer Mission durch irische Mönche (siehe Columban). Die Bistümer in England waren in die beiden Kirchenprovinzen Canterbury und York aufgeteilt. Als 1529 unter Heinrich VIII. Streitigkeiten zwischen dem englischen Thron und dem Papst in Rom über die Rechtmäßigkeit der königlichen Ehen aufkamen, erklärten die Bischöfe Englands, dass sie in Heinrich und nicht im Papst das Oberhaupt der englischen Kirche sahen, womit sich die englische Kirche von Rom lossagte. So ergab es sich, dass in den Kirchenprovinzen von York und Canterbury im 16. Jahrhundert Ideen der Reformation in die Praxis umgesetzt werden konnten. Unter Heinrich VIII. änderte sich für die englische Kirche zunächst sehr wenig. Der Gebrauch der lateinischen Sprache wurde zugunsten der englischen aufgegeben. Mit Eduard VI. wurde jedoch das erste "Book of Common Prayer" am Pfingstfest 1549 eingeführt, unter maßgeblicher Arbeit von Thomas Cranmer, Erzbischof von Canterbury. Damit wurde auch eine Tradition eingeleitet, nach der sich der Anglikanismus vorrangig durch eine episkopale Kirchenordnung und eine einheitliche gottesdienstliche Praxis definiert. Nach einer kurzen Zwischenepisode unter der römisch-katholischen Monarchin Maria I. setzte sich die Reformbewegung der englischen Kirche unter Elisabeth I. und den ersten beiden Stuart-Königen fort. Es entwickelte sich ein sich vertiefender Streit zwischen Puritanern, die eine stärker reformierte Theologie verfolgten, und Theologen wie Lancelot Andrewes, die eine katholischere Position einnahmen. Dieser Streit verursachte unter anderem den Englischen Bürgerkrieg. Nach der Restauration der Stuarts unter Karl II. wurden diese Streitigkeiten mit einem neuen "Book of Common Prayer" (1661) beigelegt. Dies ist auch heute noch die offizielle Version, die in England neben dem Book of Alternative Services Anwendung findet. Weitgehend unbekannt ist die Abspaltung einer kleinen Glaubensgemeinschaft im Gefolge der Glorious Revolution 1688/89. Die Gruppe der Non-Juror spaltete sich aufgrund ihrer strengen Auslegung der anglikanischen Staatsvorstellungen ab und griff liturgisch auf das erste Book of Common Prayer zurück. Auf die Gesamtentwicklung der Church of England hatte diese kurzlebige Glaubensgemeinschaft zwar keinen Einfluss; in Schottland jedoch führte die Weigerung der Bischöfe, den Treueid zu leisten, zur Etablierung der presbyterianischen Kirche und folglich zur Gründung einer eigenen anglikanischen Kirche, der Scottish Episcopal Church. Nach der amerikanischen Unabhängigkeit bildete sich auch in den USA eine weitere anglikanische Kirche, die nunmehr auch neben der nichtetablierten episkopalen Kirche Schottlands existierte. Es folgten auch in anderen Ländern weitere Kirchen, die aber alle zusammen im sog. Anglikanischen Kommunion eine Kirchengemeinschaft pflegen. Im 19. Jahrhundert, unter dem Einfluss der romantischen Bewegung, fand eine neue Hinwendung zu liturgischer Tradition statt. Diese Bewegung fand ihren Ausgang in Oxford und wurde deshalb Oxford-Bewegung genannt. Zu ihren Unterstützern gehörte John Henry Newman. Siehe auch Anglo-Katholizismus (High Church), Low Church. In der zweiten Hälfte des 20. Jahrhunderts fand in vielen anglikanischen Kirchen eine liturgische Reformbewegung statt, die zu neuen "Books of Common Prayer" führten. Diese waren enger an altkirchliche Liturgien angelehnt, enthielten jedoch eine modernere Sprache und Theologie. Parallel dazu wurde die Priesterschaft auch für Frauen geöffnet. Seit den späten 1980er Jahren wurden auch die ersten Bischöfinnen in apostolischer Nachfolge geweiht. 2009 wurde bekannt, dass mehrere anglikanische Gruppen einen Übertritt in die katholische Kirche anstreben. Papst Benedikt XVI. unterstützte dieses Vorhaben mit dem Papst-Erlass "Anglicanorum coetibus". In diesem Kontext wurde das Personalordinariat Unserer Lieben Frau von Walsingham begründet. Zum Osterfest 2011 war geplant, dass 600 Laien und 20 Priester im Zuge der Firmung Mitglieder der katholischen Kirche werden. Ökumene. Die Anglikanische Kirchengemeinschaft ist Mitglied im Ökumenischen Rat der Kirchen. Sie steht darüber hinaus in Kirchengemeinschaft mit der Utrechter Union der Altkatholischen Kirchen, der Unabhängigen Philippinischen Kirche und der indischen Mar-Thoma-Kirche. 2003 unterzeichneten methodistische und anglikanische Vertreter ein Abkommen, das die Zusammenarbeit zwischen den beiden Denominationen – u.a. gemeinsame Gotteshäuser und -dienste – stärken und die Beziehungen vertiefen soll. Frauenordination. Uneinigkeit über die Zulassung von Frauen zu den Weihen führt bis in die Gegenwart zu Kontroversen innerhalb der anglikanischen Kirchen. Für die Mitgliedskirchen der Anglikanischen Gemeinschaft sind nur die Prinzipien des Lambeth-Quadrilateral verbindlich. Die Frage der Frauenordination wird darin nicht behandelt, daher gibt es keine einheitliche für alle Gliedkirchen bindende Regelung. Die einzelnen Kirchenprovinzen vertreten daher unterschiedliche Haltungen, manche lehnen die Frauenordination grundsätzlich ab, manche erlauben die Weihe zum Diakon, andere auch zum Priestertum oder Bischofsamt. Als erste Frau empfing Florence Li Tim-Oi 1944 in Hong Kong durch Ronald Owen Hall, den Bischof von Victoria, Hongkong und Macau, die anglikanische Priesterweihe. Dies gilt allerdings als kriegsbedingter Einzelfall, nach Kriegsende ließ sie ihr Priesteramt zur Vermeidung eines Disputs mit dem Erzbischof von Canterbury bereits ab 1945 ruhen. Erst in den 1970er Jahren wurden die Frauenordination in den Kirchen der USA, Kanada und Neuseeland etabliert. Die erste anglikanische Bischöfin war Barbara Clementine Harris, die 1989 zur Suffraganbischöfin der Episcopal Diocese of Massachusetts geweiht wurde. Die erste Diözesanbischöfin war von 1990 bis 2004 Penny Jamieson in der Diocese of Dunedin in Neuseeland. Am 18. Juni 2006 wurde Katharine Jefferts Schori als "Presiding Bishop" an die Spitze der Episkopalkirche in den USA gewählt und somit als erste Frau Primas einer anglikanischen Kirche. Die Generalsynode der Church of England hat die Zulassung von Frauen zum Bischofsamt mehrheitlich als „theologisch gerechtfertigt“ bezeichnet. Während der Antrag bei den Bischöfen und dem Klerus die notwendige Zweidrittelmehrheit erhielt, verfehlte er sie bei den Laienvertretern um fünf Stimmen. Eine Arbeitsgruppe sollte eine entsprechende Kirchengesetzgebung auf den Weg bringen. Auf der Generalsynode 2008 wurde das Thema erneut diskutiert. Am 7. Juli 2008 beschloss die Synode die Einrichtung einer Arbeitsgruppe zur Regelung der Ordination von Frauen zum Bischofsamt. Dabei sollten die Wünsche der Mitglieder, die aus theologischen Gründen die Ordination von Bischöfinnen ablehnen, berücksichtigt werden. Es gab den Vorschlag, in jeder Kirchenprovinz nötigenfalls einen männlichen Suffragansitz einzurichten, dem sich Gemeinden anschließen können, die die Ordination von Bischöfinnen ablehnen. Er wurde bis 2010 entworfen und bis zum Februar von 42 von 44 Diözesen angenommen. Bei der Generalsynode im November 2012 erreichte dieses Kirchengesetz jedoch nicht die nötige Mehrheit bei den Laienmitgliedern. Erst 2014 wurden die nötigen Mehrheiten auf der Generalsynode erreicht. Am 25. Januar 2015 wurde mit Libby Lane die erste Bischöfin in der Church of England ordiniert. Zur ersten Diözesanbischöfin – von Gloucester – wurde am 26. März 2015 Rachel Treweek ernannt. Homosexualität. Die weltweite Anglikanische Kirchengemeinschaft befindet sich seit der Bischofsweihe von Gene Robinson am 2. November 2003 in New Hampshire (USA) in einem Diskussionsprozess, bei dem die Einheit der Kirchengemeinschaft bedroht wird. Nicht nur der Vollzug der Bischofsweihe hat zu Kontroversen geführt, sondern auch die parallel verlaufende Entscheidung der kanadischen Diözese von New Westminster, Riten für die Segnung gleichgeschlechtlicher Paare zu entwickeln. Da Robinson seine Beziehungen zu seinem gleichgeschlechtlichen Partner nicht verheimlicht, wurde mit seiner Weihe erneut ersichtlich, dass es zum Thema Homosexualität innerhalb der Anglikanischen Kommunion Meinungsverschiedenheiten gibt, obwohl dies bereits auf der Lambeth-Konferenzen der Jahre 1988 und 1998 deutlich war. Konservative Geistliche und Mitglieder (vor allem aus Asien und Afrika, aber auch aus der American Anglican Council) sehen diesen Schritt als unvereinbar mit der bislang vertretenen Lehre der Kirche und als Bruch der Kommunion. Zwar hatten die Konferenzen mehrheitlich festgestellt, dass homosexuelle Praxis mit der Heiligen Schrift unvereinbar sei; allerdings hat eine Lambeth-Konferenz im Anglikanismus nicht den Status einer gesetzgebenden Körperschaft oder einer Lehrinstanz, sondern kann nur Konsens feststellen, solange und soweit dieser vorhanden ist, denn der Anglikanismus ist nicht hierarchisch, sondern dezentral gegliedert. Innerhalb der Anglikanischen Gemeinschaft hat die Scottish Episcopal Church und in der nicht-anglikanischen Ökumene auch die Metropolitan Community Church die Entscheidungen der nordamerikanischen Kirchen begrüßt. Die Befürworter der Weihe (vor allem aus Nordamerika, Europa, Neuseeland und Südafrika) betonen einerseits die anglikanische Tradition, dass die Ortskirche ihre Angelegenheiten vor Ort regeln darf, andererseits vertreten sie die Auffassung, dass homosexuelle und heterosexuelle Christen gleichwürdig sind, Leitungsämter der Kirche auszufüllen. Am 19. Februar 2007 haben die anglikanischen Kirchenoberhäupter in Daressalam eine Verlautbarung veröffentlicht, in welcher sie die US-amerikanische Episkopalkirche zu einer Umkehr von ihrer Haltung zur Homosexualität und zur Weihe homosexueller Bischöfe auffordern Innerhalb der US-Kirche bestehen erhebliche Bedenken, dass die Forderungen der anderen Kirchen mit dem Kirchenrecht der US-Kirche selber vereinbar sind, und man hält die Vorschläge darüber hinaus für „eine beispiellose Machtverschiebung zugunsten der Primasse“. Die US-Kirche kritisierte auch die fehlende Bereitschaft der anderen Kirchenoberhäupter, stärkere Schritte gegen die Kriminalisierung von Homosexualität in anderen Ländern zu unternehmen, und die Verweigerung vieler anglikanischer Landeskirchen, in den von mehreren Lambeth-Konferenzen (1998, 2008) und vom Windsor Report verlangten "Listening Process" (Dialog) mit homosexuellen Anglikanern zu treten. Im März 2010 wurde die offen lesbische Mary Douglas Glasspool zur Bischöfin der Episkopalkirche im Bistum Los Angeles gewählt. Die Bischöfe der anglikanischen Kirche im südlichen Afrika wandten sich im Mai 2010 gegen jede Form der Kriminalisierung von Homosexuellen. Im September 2013 hat die Church of England erlaubt, dass homosexuelle anglikanische Geistliche eine Lebenspartnerschaft eingehen dürfen, solange sie sexuell enthaltsam leben. Im April 2014 erfolgte die erste standesamtliche Trauung eines homosexuellen anglikanischen Priesters am Standesamt. Im November 2013 erlaubte die Church of England die Segnung gleichgeschlechtlicher Paare in einem Gottesdienst. Artemisia (Pflanze). "Artemisia" ist eine Pflanzengattung in der Familie der Korbblütler (Asteraceae). Einzelne Arten werden Beifuß, Wermut, Stabwurz oder Edelraute genannt. Zu dieser großen Gattung zählen etwa 250 bis 500 Arten, die hauptsächlich in den gemäßigten Zonen vorkommen. Fast alle Arten haben ihre Heimat auf der Nordhalbkugel in Nordamerika und Eurasien. Nur wenige Arten findet man in Südamerika und Afrika. Wortherkunft. "Artemisia" wurde bereits bei Dioskurides und Plinius erwähnt, die damit "Artemisia vulgaris" und ähnliche Arten beschrieben. Angeblich stammt der Name der Gattung vom Namen der griechischen Göttin Artemis Ilithyia, der Geburtshelferin, wegen der Wirksamkeit bei Frauenkrankheiten, oder von der Königin Artemisia, Gattin des Mausolos von Halikarnassos, die die Heilkräfte bekannt gemacht haben soll. Beschreibung. "Artemisia"-Arten sind ein- bis zweijährige oder meist ausdauernde krautige Pflanzen, Halbsträucher und seltener Sträucher. Sie erreichen je nach Art Wuchshöhen von 3 bis 350 Zentimeter. Die Pflanzen sind meistens kahl und mehr oder weniger aromatisch. Die wechselständigen, gestielten oder ungestielten Laubblätter sind einfach bis mehrfach fiederteilig. In traubigen oder rispigen Blütenständen sind meistens zahlreich, kleine, oft nickende körbchenförmige Teilblütenstände angeordnet. Die Hülle ist glockig, zylindrisch, eiförmig bis kugelig und besteht aus zahlreichen, dachziegelartig angeordneten, angedrückten und am Rand meist trockenhäutigen Hüllblättern. Der Körbchenboden ist flach, kahl oder mehr oder weniger behaart und ohne Spreublätter. Die Blüten sind alle röhrig, entweder homogam, zwittrig oder heterogam. Die in der Mitte stehenden Blüten sind zwittrig und die randständigen weiblich. Die Antheren haben meistens lanzettliche Anhängsel an der Spitze. Die Schenkel der Griffel ragen bei den weiblichen Randblüten oft weit heraus. Die Achänen sind zylindrisch oder zusammengedrückt und haben keine starken Rippen, oft mehr oder weniger verschleimend. Ein Pappus fehlt meist. Nutzung. Schon in der Antike waren "Artemisia"-Arten als Heil- und Gewürzpflanzen bekannt. Fast alle Arten der Gattung enthalten viel Bitterstoffe und ätherische Öle. Sie werden vor allem wegen ihres dekorativen, oft duftenden und bisweilen insektenabwehrenden Laubs kultiviert. Der Einjährige Beifuß wird in der Traditionellen Chinesischen Medizin als Malaria-Mittel genutzt. Auf Extrakten aus dem einjährigen Beifuß beruht die aktuell von der WHO empfohlene Therapie gegen Malaria. Systematik. Die Erstveröffentlichung der Gattung "Artemisia" erfolgte 1753 durch Carl von Linné in "Species Plantarum", Band 2, Seite 845. Synonyme für "Artemisia" L. sind "Absinthium" Mill., "Chamartemisia" Rydb., "Elachanthemum" Y.Ling & Y.R.Ling, "Oligosporus" Cass. und "Seriphidium" (Besser ex Hook.) Fourr.. Adam und Eva. Adam und Eva waren nach der biblischen Erzählung im Buch Genesis (Kapitel 2 bis 5) das erste Menschenpaar und Stammeltern aller Menschen. Auch der Koran erwähnt Adam und Eva. Adam (, „Mensch“) wurde demnach von Gott aus Lehm (, „Ackerboden“) erschaffen, danach wurde ihm der Lebensatem () eingehaucht. Adam gab den Tieren Namen, fand aber kein partnerschaftliches Gegenüber. Darauf ließ Gott Adam in einen tiefen Schlaf fallen, entnahm ihm eine Rippe bzw. Seite und schuf aus dieser sein Gegenüber "Eva" (, oder (), „die Belebte“). Wurde in der Erzählung bis dahin immer von „dem Menschen“ (Adam) gesprochen, erkennt Adam in der Begegnung mit dem neuen Wesen in sich den Mann () und in seinem Gegenüber die Frau (). Biblischer Schöpfungsbericht. Der erste biblische Schöpfungsbericht besagt – siehe: "Und Gott schuf den Menschen zu seinem Bilde, zum Bilde Gottes schuf er ihn, und er schuf sie als Mann und Weib." Adam und Eva leben zunächst im Garten Eden. Dort überredet sie die Schlange entgegen dem Verbot Gottes vom Baum der Erkenntnis von Gut und Böse zu essen. (Diese Schlange wird in der christlichen Tradition oft auf den Teufel bezogen. Diese Gleichsetzung findet sich schon im Neuen Testament in.) Da sich Adam und Eva nach dem Genuss der Früchte mit Feigenblättern bekleiden, könnte mit der verbotenen Frucht eine Feige gemeint sein, die in der biblischen Systematik der Früchte die 4. Frucht ist (vgl. Dtn 8,8) und auf die Zahl Vier verweist, die symbolisch für die materielle Welt steht. Das gängige Bild vom Apfel als verbotener Paradiesfrucht beruht nicht etwa auf einem Übersetzungsfehler der lateinischen Bibel, der Vulgata, sondern darauf, dass in der lateinischen Sprache „malus“ „Apfelbaum“ bedeuten kann, aber auch „schlimm, böse“, ebenso wie „malum“ „Apfel“ bedeuten kann oder ebenfalls „übel, schlecht, böse“. Daraus ergab sich ein ziemlich nahe liegendes Wortspiel, zumal die Vulgata den „Baum der Erkenntnis von Gut und Böse“ aus dem hebräischen Urtext übersetzte mit „lignum scientiae boni et mali“. Die in dem Essen der verbotenen Frucht zum Ausdruck kommende Abkehr von Gottes Geboten gilt sowohl in der jüdischen als auch in der christlichen Religion als Ungehorsam gegenüber Gott, wie auch die Rebellion des Teufels gegen diesen. Hier als Übertrag vom Teufel auf dem Menschen, welcher den Menschen in seiner seelischen und körperlichen Beschaffenheit veränderte. Das Christentum spricht vom Sündenfall. weisen zunächst auf den Ritus der Erdbestattung hin und bringen zudem nach christlicher Interpretation zum Ausdruck, dass nun der Tod in die Welt getreten ist. Zwischen Eva, der Schlange und ihren jeweiligen Nachkommen wird Feindschaft herrschen. In der biblischen Erzählung zeugt Adam nach der Vertreibung aus dem Paradies mit Eva Kain, Abel und Set. Das biblische Buch Genesis 5,4 erwähnt außerdem nicht namentlich genannte Töchter und weitere Söhne, die Adam nach der Geburt Sets zeugte. Adams gesamtes Lebensalter wird mit 930 Jahren angegeben. Andere Berichte. Vorstellungen zu einem Stammelternpaar gibt es auch in anderen Schöpfungsberichten. So findet sich in der germanischen Mythologie die Geschichte von Ask und Embla. Niederländische Wissenschaftler fanden in den Texten von Ugarit eine Version der Geschichte, die von den biblischen Überlieferungen abweicht. Der Name Eva. In Vers wird Eva erstmals mit Namen genannt; bis dahin ist stets nur von der „Frau“ die Rede. Während in der Septuaginta der hebräische Name חוה (chawwa, „Leben“) gleichbedeutend mit Ζωἠ (Zoë) übersetzt wird, lautet im Neuen Testament, wo Eva nur an zwei Stellen erwähnt (und) wird, der Name griechisch Εὕα, was offenbar eine Transkription des hebräischen Namens darstellt. In der lateinischen Vulgata lautet der Name schließlich "Eva". Jüdische Deutungen. Aus dem Vers: "Es ist nicht gut, dass der Mensch allein sei" wird nach rabbinischer Deutung die Verpflichtung des Menschen zur Eheschließung abgeleitet. In der Sicht des hellenistisch-jüdischen Philosophen Philo von Alexandria hat die Rebellion die folgende Bedeutung: Es existieren zwei Schöpfungen, die des himmlischen und die des irdischen, aus Lehm geschaffenen und der Vergänglichkeit unterworfenen Menschen. Adam steht für die Vernunft, Eva für die Sinnlichkeit, die Schlange für die Lust. Der Aufstand gegen Gott entsteht durch eine Störung der betrachtenden Vernunft, wobei die Schlange als Vehikel der Versuchung dient. Christliche Sichtweisen. Die lateinische Kirche entwickelt aus der biblischen Erzählung den Begriff der Erbsünde, sie begreift Adam als Typ und Haupt-Figur der Menschheit. Als solcher kann er, wie der Apostel Paulus im Römerbrief schreibt, ursächlich für den Tod aller Menschen sein. Diesem „alten (Menschentypus) Adam“ wird Jesus Christus als der eine „neue Adam“ gegenübergestellt, dessen Kreuzestod im Gehorsam gegenüber dem Willen des Vaters () und dessen Auferstehung ein Leben im Sieg über die Mächte des Todes hinaus ermöglichen (vgl., siehe auch Sündenfall). Diese Interpretation wird aber nicht von der Ostkirche akzeptiert, wo die Erbsünde unbekannt ist; es heißt nur, dass der Tod durch Adam und Eva in die Welt gebracht wurde und in der Auferstehung Jesu das Paradies wieder erschlossen ist (vgl. die Anastasis-Ikonen, wo Adam und Eva an der Hand des Auferstandenen aus dem Todesgrab herausführt werden, siehe unten). Der Gegensatz von „Geist“ und „Fleisch“, der für Paulus grundlegend ist und der bei ihm auch hinter dem Gegensatz zwischen dem „neuen Adam“ Jesus und dem „alten Adam“ steht (vgl.,), ist schon in den ersten Kapiteln der Genesis zu finden. „Alle, die zu Jesus Christus gehören, haben das Fleisch und damit ihre Leidenschaften und Begierden gekreuzigt. Wenn wir aus dem Geist leben, dann wollen wir dem Geist auch folgen“ (). Das „Kreuzigen“ bedeutet nicht töten, sondern der Bestimmung durch den Geist unterwerfen im Sinn der inneren Beschneidung des Herzens durch den Geist (vgl.;; vgl.). Das so beschnittene Herz hat wieder Zugang zur Gnade und zur Sehkraft der „Hoffnung auf die Herrlichkeit Gottes“ () und die Unsterblichkeit (), die den "Adam paradisus" im Gnadenstand des Paradieses auszeichnet (vgl.,). Auch die beiden Bäume in der einen Mitte des Paradieses lassen sich auf diesen Gegensatz von Geist (Lebensbaum) und Fleisch (Erkenntnisbaum) zurückführen. Esoterische Analogien. Die Sicht Philos von Alexandrien wurde auch von Paulus und den Kirchenvätern aufgegriffen und weiterentwickelt. Danach verkörpern Adam und Eva oder das Männliche und Weibliche die zwei Seiten der menschlichen Wirklichkeit: das Innere und Erinnernde des Geistes (hebr. "sachar" bedeutet „männlich“ und „erinnern“) sowie das Äußere, Erscheinende oder Umhüllende des Fleisches, welches dann im Bund der Beschneidung zurückgedrängt wird. Die geöffnete „Seite“ Adams, aus der heraus Gott die Frau bildet, wird mit „Fleisch“ geschlossen (). Die „Rippe“ symbolisiert hier die Mondsichel. Hebr. "zela" übersetzt Othmar Schilling mit „das Gekrümmte“; zu verweisen ist auch auf "zelem" („Bild“) und "zel" („Schatten“). Luna galt in den alten Kulturen als „Urgrund aller Geburt“ (Johannes Lydos) oder „Mutter des irdischen Lebens“ (vgl.), deren monatlicher Zyklus die Menstruation der Frau bestimmt. Auf den Mond verweist auch der Zahlenwert 19 von Eva, hebr. "Chewa(h)" (wie "Chaja" für „Tier“), in Zahlen 8-6-5, in der Summe 19. Das Mondjahr kann wegen der Differenz zum Sonnenjahr von knapp elf Tagen nicht einfach in zwölf gleich große Teile eingeteilt werden, sondern muss durch das Einschalten eines 13. Monats immer wieder an das Sonnenjahr angepasst werden. Dabei beträgt die Differenz in 19 Jahren genau sieben Mond-Monate. Diese 19 Jahre nennt man „ein ‚mechasor‘, eine Wiederholung, eine Zurückkehr, und somit auch Kreis oder Zyklus.“ Im Bildtypus der Maria Immaculata erscheint die Mutter Jesu als ‚neue Eva‘ auf der Mondsichel stehend und der Schlange (des nur zeitlich-irdischen Werdens und Vergehens) den Kopf zertretend (nach;). Der frühchristliche Bischof Theophilus von Antiochien sagt in seiner Auslegung der Erschaffung von Sonne und Mond am 4. Schöpfungstag: „Die Sonne ist das Bild Gottes, der Mond das des Menschen“; im monatlich ‚sterbenden‘ und dann wieder erscheinenden Mond sieht er also „ein Sinnbild des Menschen“ und zugleich „ein Vorbild unserer künftigen Auferstehung“ (An Autolykus II, 15). Auch von daher wird Ostern am ersten Sonntag nach dem Frühlings-Vollmond gefeiert. Im gleichen Sinn deutet dann Bonaventura (13. Jh.) Sonne und Mond als Sinnbild für das In-eins-Sein von Gottheit und Menschheit in Jesus Christus: „Das Licht des Lammes gibt ihm [Jerusalem] Schönheit und Glanz, seine Gottheit leuchtet an Stelle der Sonne, seine Menschheit an Stelle des Mondes […]“ Auf Darstellungen von der Erschaffung der Frau aus dem Mann werden beide häufig von Sonne und Mond flankiert (vgl. zum Beispiel den Schalldeckel der Kanzel der Klosterkirche der ehemaligen Zisterzienserabtei Bebenhausen bei Tübingen). Darstellung im Koran. Auch der Koran kennt die Geschichte von Adam und Eva. Hier spielt Iblis eine wichtige Rolle. Aus Überheblichkeit widersetzt er sich als einziger dem Befehl Gottes, sich vor Adam niederzuwerfen. Daraufhin wird er von Gott aus dem Paradies verwiesen, erbittet sich aber Aufschub bis zum Tag des jüngsten Gerichts, um nun zu versuchen, die Menschen ebenfalls abirren zu lassen – was ihm auch gelingen soll. Dies gilt im Islam als irdische Prüfung (Koran: Sure 15, Vers 34–40). Gott warnt die Menschen vor diesem Versucher, sie lassen sich aber betören und verführen (Sure 7, Vers 22). Im Gegensatz zur christlichen Überlieferung teilen sich laut islamischer Lehre Adam und Eva die Schuld am Verzehr der verbotenen Frucht. (Sure 7, Vers 22) Nach dem Koran ist Adams Sünde ein Fehltritt (Sure 2, Vers 36), nicht aber Abfall von Gott und Zerstörung der Beziehung zu Ihm. Deshalb ist die Folge auch nicht so schwerwiegend wie im biblischen Bericht: Statt der Ankündigung: „… sonst werdet ihr sterben“ warnt Gott den Menschen vor Satan: „Dass er euch nur nicht aus dem Paradies vertreibt und dich unglücklich macht!“ (Sure 20, Vers 117) Durch die Sünde schadet der Mensch nur sich selber: „Unser Herr, wir haben uns selbst Unrecht getan.“ (Sure 7, Vers 23) „Hierauf erwählte ihn sein Herr und er wandte sich ihm wieder zu und leitete ihn recht.“ (Sure 20, Vers 122) Adam und Eva werden zwar aus dem Paradies vertrieben, aber ihnen wird gesagt: „Wenn dann von mir eine Rechtleitung zu euch kommt, dann haben diejenigen, die meiner Rechtleitung folgen, nichts zu befürchten und sie werden nicht traurig sein.“ (Sure 2, Vers 38f) Adam und Eva wird von Gott explizit im Koran verziehen: Sure 2 (al-Baqara), Vers 37 am Ende der Erzählung der Adamgeschichte: „Da empfing Adam von seinem Herren Worte (Bittgebete). Und er wandte sich zu ihm zu. Er ist ja der Vergebende, sich wieder Zuwendende und der Barmherzige“. Diese Stelle steht im Gegensatz zu einem Glauben an eine „Erbsünde“. Jeder Mensch wird mit einem „weißen Blatt“ geboren, heißt es in Sprüchen des Propheten als Bestätigung. Somit wird nach islamischer Lehre jeder Mensch sündenfrei geboren. Gedenktage. Dom von Orvieto, die Erschaffung Evas Schedelsche Weltchronik von 1493, Adam und Eva, traditionelle Arbeitsteilung Adam und Eva in der Kunst. In einigen Werken erscheinen Adam und Eva in ihrer paradiesischen Gottesnähe. Kurt Flasch verweist etwa auf ein Deckengemälde aus der Zeit um 1200 in der Klosterkirche St. Michael in Hildesheim, das „Eva und Adam als Herrscherpaar in paradiesischer Herrlichkeit“ zeige. Eva erscheint vielen Künstlern als mächtige Urmutter der Menschheit, als Geschenk Gottes an Adam, erst aus ihrer Tat erwachsen Zeit und die menschliche Geschichte. In entsprechenden Darstellungen der Schöpfungsszene, in der Gott Eva aus der Seite Adams erstehen lässt, erscheint die starke Eva als Bindeglied zwischen Adam und Gott, so im abgebildeten Relief des Doms zu Orvieto oder einem dem frühen, Donatello zugeschriebenen Terracottarelief im Dommuseum in Florenz. Auf der anderen Seite ist die Zuweisung der Hauptschuld am Sündenfall an Eva ein Thema der Kunst. Der Sündenfall wird zum Ausgangspunkt der Herrschaft des Mannes über die Frau, Eva zur Gegenfigur der jungfräulichen Maria und zum Ursprung allen Elends der Menschheitsgeschichte. Ebenfalls um 1200 gestaltet ein unbekannter Künstler die Vertreibung aus dem Paradies an einem Kapitell der Kathedrale von Clermont-Ferrand. „Der Cherubim verschließt das Paradiestor; er zerrt Adam an den Haaren heraus. Eva und Adam sind beide Bestrafte, Verjagte, Hinausgeworfene, aber wie verschieden ist ihre Lage: Adam steht, Eva kniet oder liegt am Boden; sie ist gestürzt; ihre Position ist jetzt unter ihm, und er demonstriert dies: Er zieht sie am Haarschopf, wie der Engel ihn gepackt hat. Er setzt die Strafe fort; er gibt seiner Frau einen Fußtritt.“ Aber trotz der theologischen Legitimation dieser Negativsicht Evas über Jahrhunderte eröffnet sich in der Kunst eine Vielfalt der Akzentuierungen und Motiven zwischen den Polen Sünde/Strafe und der positiven Sicht der ersten Menschen. Eine „positive Vollendung“ der Geschichte von Adam und Eva kennt die Ikonentradition. Die Auferstehungsikone (Anastasis), ein häufiges Motiv, zeigt nicht (wie die westliche Kunst) die Abbildung der Auferstehung Jesu selbst oder des leeren Grabes, sondern die Illustration eines Satzes aus dem Apostolischen Glaubensbekenntnis: "… hinabgestiegen in das Reich des Todes." Der auferstandene Christus tritt die Türen des (oft personifizierten) Hades ein und zieht Adam und Eva als erste der Menschen aus dem Reich des Todes. Ein ganz anderer Motivbereich der künstlerischen Gestaltung von Adam und Eva ist die Darstellung der Arbeit. Mit der Vertreibung aus dem Paradies beginnt der Zwang zur Arbeit, der Künstlern Darstellungsmöglichkeiten alltäglicher menschlicher Aktivitäten bietet. Dabei werden sowohl traditionelle weibliche und männliche Tätigkeitsfelder zum Gegenstand, als auch neue Arbeitsgebiete der jeweiligen Zeit. In der Frührenaissance bot die Darstellung von Adam und Eva zudem den Künstlern eine erste Möglichkeit, Aktmalerei in einer Zeit zu betreiben, in der die Darstellung menschlicher Nacktheit noch weitgehend verpönt war. Anaximander. Anaximander ("Anaximandros"; * um 610 v. Chr. in Milet; † nach 547 v. Chr. in Milet) war ein vorsokratischer griechischer Philosoph. Er gehört neben Thales und Anaximenes zu den wichtigsten Vertretern jenes philosophischen Aufbruchs, der mit Sammelbegriffen wie ionische Aufklärung und jonische Naturphilosophie bezeichnet wird. Einordnung von Person und Bedeutung. Apollodor von Athen zufolge lebte Anaximander um 610 – 546 v. Chr. in Milet. Es ist wahrscheinlich, dass er Thales gekannt und mit ihm in enger Gedankengemeinschaft gelebt hat, jedenfalls gilt er als Nachfolger und Schüler des Thales. Ihn beschäftigte dasselbe Grundproblem wie Thales, nämlich die Frage nach dem Ursprung allen Seins, nach der Arché (). Dafür hielt er jedoch nicht das Wasser, sondern das stofflich unbestimmte Ápeiron (): das hinsichtlich seiner Größe „Unbegrenzte“ bzw. „Unermessliche“. Von Anaximanders Philosophie ist in eigenen Worten nur ein einziges Fragment überliefert. Dabei handelt es sich um den ersten erhaltenen griechischen Text in Prosaform. Der Großteil der philosophischen Anschauungen Anaximanders ist der zwei Jahrhunderte späteren Überlieferung des Aristoteles zu entnehmen und mit einigen Unsicherheiten behaftet. Als bedeutender Astronom und Astrophysiker entwarf er als erster eine rein physikalische Kosmogonie. Er gründete seine Überlegungen zur Entstehung des Weltganzen ausschließlich auf Beobachtung und rationales Denken. Von ihm ging die Bezeichnung der Welt als "Kosmos" (κόσμος) und ihre Erfassung als ein planvoll geordnetes Ganzes aus. Anaximander zeichnete ebenfalls als erster nicht nur eine geographische Karte mit der damals bekannten Verteilung von Land und Meer, sondern er konstruierte auch eine "Sphäre", einen Himmelsglobus. Die Karte ist heute verschollen, wurde aber später durch Hekataios ausgewertet, aus dessen Werk eine halbwegs konkrete Darstellung der damaligen Weltsicht überliefert ist. Ursprung und Ordnungsprinzip des Weltganzen. Die Grundsubstanz alles Gewordenen nach Anaximander, das Apeiron, wird unterschiedlich gedeutet: als räumlich und zeitlich unbegrenzten Urstoff, als unendlich hinsichtlich Masse oder Teilbarkeit, als unbestimmt oder grenzenlos u.a.m. Der Begriff des Unermesslichen spiegelt wohl am ehesten die Offenheit der Deutungsmöglichkeiten des Apeiron. Nach Aristoteles hat Anaximander es als ein den Göttern der Volksreligion vergleichbares unsterbliches und unzerstörbares Wesen betrachtet. Die gleichsam gesetzmäßige wechselseitige Ablösung gegenstrebiger Wirkkräfte oder Substanzen in einem kontinuierlichen und ausgeglichenen Prozess dürfte für die beständige Ordnung des Kosmos stehen: ein dem Wechsel und der Veränderung ausgesetztes und doch in sich stabiles System. Uneinig ist die Forschung darüber, ob auch das Apeiron an diesem Geschehen beteiligt ist oder ob es sich um einen rein innerweltlichen Ausgleichsprozess handelt, sodass die Wirkung des Apeiron sich allein auf die Phase der Weltentstehung beschränkte. Im anderen Fall kämen auch Vorstellungen von einer Mehrzahl neben- oder nacheinander existierender Welten in Betracht. Robinson erwägt, dass Anaximander sich das Universum als einen ewigen Prozess gedacht haben könnte, „in dem eine unendliche Anzahl galaktischer Systeme aus dem Apeiron geboren und wieder in es aufgenommen wird. Damit hätte er auf brillante Weise die Weltsicht der Atomisten Demokrit und Leukipp vorweggenommen, die für gewöhnlich als deren eigene Leistung betrachtet wird.“ Kosmos und Erde. Anaximander meinte, bei der Entstehung des heutigen, geordneten Universums habe sich aus dem Ewigen ein Wärme- und Kältezeugendes abgesondert, und daraus sei eine Feuerkugel um die die Erde umgebende Luft gewachsen, wie um einen Baum die Rinde. Die Gestirne entstehen laut Anaximander durch die geplatzte Feuerkugel, indem das abgespaltene Feuer von Luft eingeschlossen wird. An ihnen befänden sich gewisse röhrenartige Durchgänge als Ausblasestellen; sie seien dort als "Gestirne" sichtbar. In gleicher Weise entstünden auch die Finsternisse, nämlich durch Verriegelung der Ausblasestellen. Das Meer sei ein Überrest des ursprünglich Feuchten. „Ursprünglich war die ganze Oberfläche der Erde feucht gewesen. Wie sie aber dann von der Sonne ausgetrocknet wurde, verdunstete allmählich der eine Teil. Es entstanden dadurch die Winde und die Wenden von Sonne und Mond, aus dem übrigen Teil hingegen das Meer. Daher würde es durch Austrocknung immer weniger Wasser haben, und schließlich würde es allmählich ganz trocken werden“ (Aristoteles über Anaximander). Aus einem Teil dieses Feuchten, das durch die Sonne verdampfe, entstünden die Winde, indem die feinsten Ausdünstungen der Luft sich ausschieden und, wenn sie sich sammelten, in Bewegung gerieten. Auch die Sonnen- und Mondwenden geschähen, weil diese eben, jener Dämpfe und Ausdünstungen wegen, ihre Wenden vollführten, indem sie sich solchen Orten zuwendeten, wo ihnen die Zufuhr dieser Ausdünstung gewährleistet sei. Die Erde sei das, was vom ursprünglich Feuchten an den hohlen Stellen der Erde übrig geblieben sei. Anaximander meinte, die Erde sei schwebend, von nichts überwältigt und in Beharrung ruhend infolge ihres gleichen Abstandes von allen "Himmelskreisen". Ihre Gestalt sei rund, gewölbt und ähnele in der Art eines steinernen Säulensegments einem Zylinder. Wir stünden auf der einen ihrer Grundflächen; die andere sei dieser entgegengesetzt. Regengüsse bildeten sich aus der Ausdünstung, welche infolge der Sonnenstrahlung aus der Erde hervorgerufen werde. Blitze entstünden, indem der Wind sich in die Wolken hineinstürze und sie auseinander schlage. Theorie der Menschwerdung und der Seele. Die Entstehung der Menschheit führte Anaximander auf andere Lebewesen zurück. Ihm war aufgefallen, dass der Mensch im Vergleich zu anderen Arten im Frühstadium seiner Entwicklung sehr lange Zeit benötigt, bis er für die Selbstversorgung und das Überleben aus eigenen Kräften sorgen kann. Deshalb nahm er an, dass die ersten Menschen aus Tieren hervorgegangen waren, und zwar aus Fischen oder fischähnlichen Lebewesen. Denn den Ursprung des Lebendigen suchte er im Wasser; das Leben war für ihn eine Spontanentstehung aus dem feuchten Milieu: „Anaximander sagt, die ersten Lebewesen seien im Feuchten entstanden und von stachligen Rinden umgeben gewesen. Im weiteren Verlauf ihrer Lebenszeit seien sie auf das trockene Land gegangen und hätten, nachdem die sie umgebende Rinde aufgeplatzt sei, ihr Leben noch für kurze Zeit auf andere Weise verbracht.“ Die Seele hielt Anaximander für "luftartig". Der Vorstellung von der Seele als "Aër" mag die Verbindung mit dem Leben bzw. dem Ein- und Ausatmen zugrunde gelegen haben. Unklar ist, ob er zwischen der Atemseele des Menschen und der anderer Lebewesen unterschied. Wie sich Anaximanders Auffassung von Apeiron und Kosmos zu seiner Vorstellung von der Seele verhielt, ob es zwischen ihnen überhaupt eine Beziehung gab, ist ungewiss. Da Anaximander die Seele für luftartig hielt, vermuten manche, dass er der Seele Unsterblichkeit zusprach. Ob er an eine Beseelung des Kosmos, ferner an eine Allbeseelung, ähnlich wie sie sich Thales vermutlich vorgestellt hatte, und darüber hinaus an die Unsterblichkeit individueller Seelen dachte, bleibt dahingestellt. Anita. Anita ist ein weiblicher Vorname. Herkunft und Bedeutung des Namens. Anita ist eine spanische, portugiesische und kroatische Verkleinerungsform von Anna (hebräisch für "die Begnadete") oder Kurzform von Juanita (siehe Johanna). Die Vergabe des Namens "Anita" setzt im deutschsprachigen Raum gegen Ende des 19. Jahrhunderts ein. Wahrscheinlich erfolgte die Entlehnung nicht direkt aus dem Spanischen, sondern aus dem italienischen Raum. In Italien geht die Verbreitung dieses Namens auf die Gattin des Freiheitskämpfers Giuseppe Garibaldi, Anita (Anna Maria) Ribeira zurück. Namenstag. Namenstag ist für die im Ursprung hebräische Form der 26. Juli. Andreas. Andreas ist ein männlicher Vorname, der auch als Familienname vorkommt. Herkunft und Bedeutung des Namens. Der Name Andreas stammt aus Griechenland und findet dort erstmals in hellenistischer Zeit um 250 v. Chr. Erwähnung. Andere Varianten des Namens sind jedoch früher belegt, so taucht beispielsweise in der Olympialiste um 688 v. Chr. der Name "Androlos" auf. Anders als vielfach behauptet, leitet sich der Name Andreas nicht direkt von griech. "andrós" ab, dem Genitiv des Substantivs "anêr" („Mann“). Andreas stammt vom altgriechischen Wort "andreia" für „Tapferkeit, Tüchtigkeit, Mannhaftigkeit“ beziehungsweise vom Adjektiv "andreios" für „mannhaft, tapfer, tüchtig“ ab. Diese sind jedoch Ableitungen von „anêr“. Die Verbreitung des Namens geht auf den Apostel Andreas zurück. Durch das lateinische Christentum gelangte er erstmals nach Westeuropa. Aber auch in anderen Gebieten wie Palästina verbreitete sich der Name schnell. Nach England kam der Name „Andreas“ beziehungsweise „Andreus“ durch den Einfall der Normannen 1066. Dort ist der Name seit 1086 belegt. Das romanische "Andreus" wandelte sich mit der Zeit zu "Andreu" und schließlich zum englischen "Andrew". Seit dem Mittelalter tritt der Name in ganz Europa häufig auf, besonders in England (13. Jahrhundert), Schottland und Skandinavien. Einen weiteren „Aufschwung“ gab es nach der Reformation. Familienname. Wenngleich -as eine sehr verbreitete Namensendung in Griechenland ist, findet sich der Nachname trotz der Beliebtheit des Vornamens selten ohne zusätzliche Endungen. Der häufigste schwedische Nachname ist „Andersson“ ("Sohn des Anders (= Andreas)"), was daran liegt, dass „Anders“ um 1900 der häufigste Vorname in Schweden war. Zu dieser Zeit wurden aus den Patronymen Nachnamen. Verbreitung. Der Name Andreas war bereits im ausgehenden 19. Jahrhundert ein mäßig populärer Jungenvorname in Deutschland. Seine Popularität sank zunächst, um dann Mitte der 1940er Jahre stark anzusteigen. Von der Mitte der 1950er bis Anfang der 1980er Jahre war der Name unter den zehn beliebtesten Jungenvornamen des jeweiligen Jahres. Obwohl der Name es niemals auf Platz eins der Häufigkeitsstatistik eines Jahres schaffte, gehört er doch zu den vier insgesamt häufigsten Vornamen seit 1890 (nach Peter, Michael und Thomas). Ab den 1990er Jahren nahm seine Beliebtheit dann stark ab. Namenstag. Der Namenstag von Andreas ist der 30. November (Andreastag), der Gedenktag des Apostels Andreas. Der Gedenktag des Anderl von Rinn war der 12. Juli. Anderl von Rinn wurde jedoch 1994 aus der Liste der Seligen gestrichen. Varianten. Weibliche Versionen sind Andrea, Andrina und Andriane. Anna. Anna ist ein weiblicher Vorname. Herkunft und Bedeutung. Der Name kommt von dem hebräischen Vornamen Hannah und bedeutet „Liebreiz“, „Anmut“, „Gnade“. Er kann allerdings auch als weibliche Form des alten deutschen männlichen Vornamens Anno gedeutet werden oder aber mit dem keltischen Namen der Göttin Anu in Verbindung stehen. Anna ist in der römischen Mythologie die Schwester der Königin Dido (Vergil Aeneis 4, 9). Bei Ovid wird sie mit der römischen Göttin Anna Perenna identifiziert (Ovid Heroides 7, 191; Fasti 3,545-656). Nach katholischer und orthodoxer Überlieferung ist „Anna“ (hebräisch Hannah) der Name der Großmutter Jesu Christi, der Mutter Marias und Gattin Joachims (hebräisch Jojakim). Siehe dazu heilige Anna und Anna selbdritt. Namenstag. Namenstag ist für die im Ursprung hebräische Form der 26. Juli. Für die schwedische Variante Annika ist es heute der 21. April; 1986 bis 1992 war es der 7. August. Popularität. In dem Jahrzehnt vor 1900 bis etwa 1905 war Anna einer der häufigsten vergebenen weiblichen Vornamen und befand sich oft auf Platz eins der Häufigkeitsstatistik. Die Popularität des Namens sank in der Folgezeit auf ein mittleres Niveau. Seit 1970 ist wieder ein deutlicher Aufwärtstrend zu beobachten. In den neunziger Jahren und im neuen Jahrtausend war der Name bereits einige Mal wieder auf der Spitzenposition der populärsten Namen. In Island ist der Name sehr populär, 2012 war er der zweithäufigste Name. Weiblicher Vorname. Es gibt eine große Zahl von Persönlichkeiten mit Vornamen Anna. Siehe. Erwähnenswertes. Das Wort „Anna“ ist ein Palindrom Auschwitz-Erlass. Der Schnellbrief trug den Titel „Einweisung von Zigeunermischlingen, Rom-Zigeunern und balkanischen Zigeunern in ein Konzentrationslager.“ Gleichartige Deportationsanordnungen ergingen am 26. und 28. Januar 1943 für die „Donau- und Alpenreichsgaue“ sowie am 29. März 1943 für den Bezirk Bialystok, das Elsass, Lothringen, Belgien, Luxemburg und die Niederlande. Gegenüber den burgenländischen und den ostpreußischen Roma verwies das RKPA auf ähnliche Anweisungen vom 26. Mai bzw. 1. Oktober 1941 sowie vom 6. Juli 1942. Erfassung: Zuschreibungsdiskurs. Gemeinsam war diesen Zuschreibungsvarianten die sowohl ethnische als auch soziale Interpretation der rassenideologischen Grundposition. Demnach verlief die rassische bzw. völkische Demarkationslinie zwischen „Vollzigeunern“ und „Zigeunermischlingen“, die zusammen die „fremdrassige“ und kollektiv „asoziale“ Gruppe der „Zigeuner“ ausmachten, auf der einen und einer Vielzahl von vor allem subproletarischen Sozialgruppen „deutschblütiger Asozialer“ auf der anderen Seite. In diesem Sinn waren bereits im Gefolge der Nürnberger Gesetze seit 1936 wie bei den Ehevorschriften gegen Juden Heiraten zwischen „Deutschblütigen“ und „Vollzigeunern“ bzw. „Zigeunermischlingen“ genehmigungspflichtig. „Regelung aus dem Wesen dieser Rasse“. Am 8. Dezember 1938 hatte Himmler in einem Runderlass eine „Regelung der Zigeunerfrage aus dem Wesen dieser Rasse“ angekündigt. Bestimmend für dessen Umsetzung in operative reichszentrale Vorschriften wurden die Vorstellungen von RHF und RKPA. 1937 nahm die RHF ihre Erfassungstätigkeit auf. 1940 ging deren Leiter Robert Ritter von 32.230 „Zigeunern“ im Deutschen Reich aus (einschließlich Österreich und Sudetenland, aber ausschließlich Elsass-Lothringen). Bis zum November 1942, d. h. bis kurz vor dem Auschwitz-Erlass entstanden in der RHF nach Angabe ihres Leiters 18.922 Gutachten. 2.652 davon ergaben „Nichtzigeuner“, wie sie für ein gesondertes „Landfahrersippenarchiv“ erfasst wurden. Dessen Bezugsraum beschränkte sich im Wesentlichen auf bestimmte Teilregionen im Süden des Reichs. Die Arbeiten daran wurden 1944 eingestellt, ohne dass es bis zu diesem Zeitpunkt zu Deportationen wie nach dem Auschwitz-Erlass gekommen wäre. Eine Teilgruppe der „Nichtzigeuner“ bildeten „nach Zigeunerart lebende“ Jenische. Es gelang der RHF nicht, die Verantwortlichen für die Normierung der nationalsozialistischen Rasse- und Asozialenpolitik „davon zu überzeugen, dass die Jenischen eine relevante rassenhygienische Gruppe und Bedrohung darstellen“. Das erklärt, dass sie als Fallgruppe im Auschwitz-Erlass bzw. in dessen Ausführungsbestimmungen vom 29. Januar 1943 und demzufolge, soweit erkennbar, im „Hauptbuch“ des „Zigeunerlagers“ in Birkenau nicht vorkommen. Der RHF und dem RKPA galten „Zigeuner“ insgesamt als eine in einem langen Zeitraum entstandene „Mischrasse“. Die Unterscheidung zwischen „stammechten Zigeunern“ und „Mischlingszigeunern“ wurde pseudowissenschaftlich mit sich aus der Abstammung ergebenden „gemischten Blutsanteilen“ begründet, wodurch die Bindung der „Mischlinge“ an traditionelle „Stammes“normierungen reduziert oder aufgegeben worden sei. Die Teilgruppe der „Mischlinge“ galt der RHF nicht zuletzt aufgrund einer angeblich ungewöhnlichen sexuellen „Hemmungslosigkeit“ als besonders gefährlich. Ihre Angehörigen würden danach streben, in den deutschen Volkskörper einzudringen. Ähnlich sah es die Führung der SS, wenngleich sie von „rassereinen“ statt von „stammechten Zigeunern“ sprach, die sie als noch ursprüngliche „Arier“ und Forschungsobjekte in einem Reservat unterzubringen beabsichtigte, in dem ihnen zugestanden werden sollte, ein ihnen unterstelltes archaisches „Nomadentum“ auszuleben. Der Erlass zur „Auswertung der rassenbiologischen Gutachten über zigeunerische Personen“ vom 7. August 1941 differenzierte stärker als bislang im Sinne des ethnischen Rassismus und ließ den alten Begriff des „nach Zigeunerart umherziehenden Landfahrers“ fallen. Er unterschied zwischen „Vollzigeunern bzw. stammechten Zigeunern“, „Zigeuner-Mischlingen mit vorwiegend zigeunerischem Blutsanteil“ (1. Grades, 2. Grades), „Zigeuner-Mischlingen mit vorwiegend deutschem Blutsanteil“ und „Nicht-Zigeunern“: „NZ bedeutet Nicht-Zigeuner, d. h. die Person ist oder gilt als deutschblütig“. Diese Aufgliederung lag den Gutachten und den Auflistungen der RHF zugrunde, nach denen ab Frühjahr 1943 von regionalen und lokalen Instanzen die Selektionsentscheidungen getroffen wurden. Den ganz überwiegenden Teil der „Zigeuner“ stufte die RHF als „Mischlinge“ ein. Insoweit „Zigeuner-Mischlinge mit vorwiegend deutschem Blutsanteil“ als „Nicht-Zigeuner“ geltend eingestuft werden konnten, legte eine gemeinsame Besprechung von RHF, RKPA und RSHA Mitte Januar 1943 fest, dass sie zwar „polizeilich wie Deutschblütige“ anzusehen, im übrigen aber zu sterilisieren seien. Steht auch der Auschwitz-Erlass im allgemeinen Zusammenhang nationalsozialistischer Rassenpolitik und -hygiene, so verweist doch der Zeitpunkt auf einen weiteren Kontext: den des verstärkten Arbeitseinsatzes von KZ-Häftlingen in der Industrie, weshalb die Zahl der Inhaftierten gesteigert werden sollte. Die Ausnahmebestimmungen. Der Schnellbrief vom 29. Januar 1943 sah die Herausnahme einiger Gruppen aus der Deportation vor. Alle anderen über „Zigeuner“ verhängten Verfolgungsmaßnahmen blieben auch für sie in Kraft. So wie einerseits „Nicht-Zigeuner“ bereits vom Auschwitz-Erlass selbst ausgenommen waren, sollten andererseits nach dem Schnellbrief vom 29. Januar 1943 die „reinrassigen“ oder als „im zigeunerischen Sinne gute Mischlinge“ kategorisierten Angehörigen von zwei Teilethnien der Roma – Sinti und Lalleri, von der Umsetzung des Erlasses ausgenommen sein. Die Zahl der von „Zigeunerhäuptlingen“, die das RKPA eingesetzt hatte, auf diesem Weg von der Auschwitz-Deportation Ausgenommenen war „verschwindend gering“. Sie betrug „weniger als ein Prozent“ der rund 30.000 bei Kriegsbeginn im Deutschen Reich Lebenden. Als weitere Ausnahmegruppen nannte der Schnellbrief mit „Deutschblütigen“ Verheiratete, Wehrmachtssoldaten, Kriegsversehrte, mit Auszeichnung aus der Wehrmacht Entlassene, „sozial angepaßte Zigeunermischlinge“ und solche, die von den Arbeitsämtern oder den Rüstungsinspektionen als wehrwirtschaftlich unverzichtbare Arbeitskräfte bezeichnet wurden. Die Ausnahmebestimmungen eröffneten den unteren staatlichen Instanzen, der Wirtschaft und der Wehrmacht erhebliche Handlungsspielräume, die auf sehr unterschiedliche Weise genutzt wurden. Die Selektions- und Deportationspraxis. Ziel der Deportation war das Vernichtungslager Auschwitz II in Birkenau. Dort entstand im Lagerabschnitt B II e als abgetrennter Bereich das „Zigeunerlager“. Ein erster Transport traf dort am 26. Februar 1943 ein. Bis Ende Juli 1944 waren es etwa 23.000 Menschen, die entsprechend dem Schnellbrief vom 29. Januar 1943 als Familien „möglichst geschlossen“ in das „Familienlager“ verbracht worden waren. Über die Zusammensetzung der Transportlisten entschieden vor allem die lokalen und regionalen Behörden. Dabei bildeten die Gutachten der RHF – soweit solche vorlagen – die Leitlinie. Lokalstudien, aber auch Aussagen von Rudolf Höß und anderen Verantwortlichen belegen, dass die Vorschriften über Ausnahmefallgruppen nur begrenzt Beachtung fanden. Demnach habe der Mischlingsgrad bei der Einweisung nach Auschwitz keine Bedeutung gehabt. Hunderte Soldaten, darunter Kriegsversehrte und Ausgezeichnete, seien eingewiesen worden. Aus der Wittgensteiner Kleinstadt Berleburg wurden 134 Personen deportiert, die als „sozial angepasst“ zu gelten hatten und sich nach 200 Jahren Sesshaftigkeit so gut wie ausnahmslos nicht als „Zigeuner“ sahen. Da die Selbsteinschätzung der Betroffenen kein Auswahlkriterium war, wurde mutmaßlich auch eine nicht bestimmbare, jedenfalls aber geringe Zahl von Nicht-Roma, die aufgrund verwandtschaftlicher Beziehungen zu Roma als „Zigeunermischlinge“ eingestuft waren, deportiert. „Insgesamt wurden an die 15.000 Menschen aus Deutschland zwischen 1938 und 1945 als ‚Zigeuner‘ oder ‚Zigeunermischlinge‘ umgebracht“, davon etwa 10.500 in Auschwitz-Birkenau. Gedenken. Video der Verlegung des Ersatz-Stolpersteines zum Auschwitz-Erlass vor dem Kölner Rathaus im März 2013, nachdem Unbekannte das Original im Jahr 2010 herausgebrochen und entwendet hatten Zum Gedenken an den Erlass hat der Künstler Gunter Demnig in Kooperation mit dem Verein Rom e. V. am 16. Dezember 1992, dem 50. Jahrestag des Erlasses, einen Stolperstein vor dem historischen Kölner Rathaus in das Pflaster eingelassen. Auf dem Stein zu lesen sind die ersten Zeilen des den Erlass zitierenden Schnellbriefs. Demnig mischte sich mit diesem Stein in die Diskussion um das Bleiberecht von aus Jugoslawien geflohenen Roma ein. Asteroid. Als Asteroiden (von, "astēr" „Stern“ und der Endung "-eides" „ähnlich“), Kleinplaneten oder Planetoiden werden kleine Objekte bezeichnet, die sich auf keplerschen Umlaufbahnen um die Sonne bewegen, größer als Meteoroiden, aber kleiner als Zwergplaneten sind. Der Begriff „Asteroid“ wird oft synonym mit „Kleinplanet“ verwendet, bezieht sich aber hauptsächlich auf Objekte innerhalb der Neptun­bahn. Jenseits der Neptunbahn werden solche Körper transneptunische Objekte (TNO) genannt. Nach neuerer Definition fasst der Begriff Kleinplanet die „klassischen“ Asteroiden und die TNO zusammen. Bislang sind 697.413 Asteroiden im Sonnensystem bekannt (Stand: 11. November 2015), wobei die tatsächliche Anzahl wohl in die Millionen gehen dürfte. Asteroiden haben im Gegensatz zu den Zwergplaneten eine zu geringe Masse, um eine annähernd runde Form anzunehmen, und sind daher generell unregelmäßig geformte Körper. Nur die wenigsten haben mehr als einige 100 Kilometer Durchmesser. Große Asteroiden im Asteroidengürtel sind die Objekte (2) Pallas, (3) Juno, (4) Vesta, (5) Astraea, (6) Hebe, (7) Iris, (10) Hygiea und (15) Eunomia. Bezeichnungen. Die Bezeichnung "Asteroid" bezieht sich auf die Größe der Objekte. Fast alle sind so klein, dass sie im Teleskop wie der Lichtpunkt eines Sterns erscheinen. Die Bezeichnung "Kleinplanet" oder "Planetoid" rührt daher, dass sich die Objekte am Firmament wie Planeten relativ zu den Sternen bewegen. Asteroiden sind keine Planeten und gelten auch nicht als Zwergplaneten, denn aufgrund ihrer geringen Größe ist die Gravitation zu gering, um sie annähernd zu einer Kugel zu formen. Gemeinsam mit Kometen und Meteoroiden gehören Asteroiden zur Klasse der Kleinkörper. Meteoroiden sind kleiner als Asteroiden, aber zwischen ihnen und Asteroiden gibt es weder von der Größe noch von der Zusammensetzung her eine eindeutige Grenze. Zwergplaneten. Seit der 26. Generalversammlung der Internationalen Astronomischen Union (IAU) und ihrer Definition vom 24. August 2006 zählen die großen runden Objekte, deren Gestalt sich im hydrostatischen Gleichgewicht befindet, strenggenommen nicht mehr zu den Asteroiden, sondern zu den Zwergplaneten. (1) Ceres (975 km Durchmesser) ist das größte Objekt im Asteroidengürtel und wird heute zu den Zwergplaneten gezählt. Weitere große Objekte im Asteroidengürtel, welche vermutlich auch zu den Zwergplaneten zählen, sind (2) Pallas und (4) Vesta (beide um die 560 km Durchmesser). Im Kuipergürtel gibt es neben dem – früher als Planet und heute als Zwergplanet eingestuften – Pluto (2390 km Durchmesser) weitere Zwergplaneten: (136199) Eris (2326 km), (136472) Makemake (1430 × 1502 km), (136108) Haumea (elliptisch, etwa 1920 × 1540 × 990 km), (50000) Quaoar (1110 km) und (90482) Orcus (917 km). Das Ende 2003 jenseits des Kuipergürtels entdeckte etwa 995 km große Objekt (90377) Sedna dürfte ebenfalls als Zwergplanet einzustufen sein. Vermuteter Kleinplanet und die Himmelspolizey. Bereits im Jahr 1760 entwickelte der deutsche Gelehrte Johann Daniel Titius eine einfache mathematische Formel (Titius-Bode-Reihe), nach der die Abstände der Planeten zueinander ins Verhältnis gesetzt werden. Die Reihe enthält jedoch eine Lücke, da zwischen Mars und Jupiter, im Abstand von 2,8 AE (Astronomische Einheit), ein Planet fehlt. Ende des 18. Jahrhunderts setzte eine regelrechte Jagd auf den unentdeckten Planeten ein. Für eine koordinierte Suche wurde 1800 die "Himmelspolizey" gegründet, das erste internationale Forschungsvorhaben, organisiert von Baron Franz Xaver von Zach, der seinerzeit an der Sternwarte Gotha tätig war. Der Sternhimmel wurde in 24 Sektoren eingeteilt, die von Astronomen in ganz Europa systematisch abgesucht wurden. Für den Planeten hatte man bereits den Namen „Phaeton“ reservieren lassen. Die Suche blieb insofern erfolglos, als der erste Kleinplanet (Ceres) zu Jahresbeginn 1801 durch Zufall entdeckt wurde. Allerdings bewährte sich die "Himmelspolizey" bald in mehrfacher Hinsicht: mit der Wiederauffindung des verlorenen Kleinplaneten, mit verbesserter Kommunikation über Himmelsentdeckungen und mit der erfolgreichen Suche nach weiteren Kleinplaneten zwischen 1802 und 1807. Die Entdeckung der ersten vier Kleinplaneten. In der Neujahrsnacht des Jahres 1801 entdeckte der Astronom und Theologe Giuseppe Piazzi im Teleskop der Sternwarte von Palermo (Sizilien) bei der Durchmusterung des Sternbildes Stier einen schwachen Stern, der in keiner Sternkarte verzeichnet war. Piazzi hatte von Zachs Forschungsvorhaben gehört und beobachtete den Stern in den folgenden Nächten, da er vermutete, den gesuchten Planeten gefunden zu haben. Er sandte seine Beobachtungsergebnisse an Zach, wobei er das Objekt zunächst als neuen Kometen bezeichnete. Piazzi erkrankte jedoch und konnte seine Beobachtungen nicht fortsetzen. Bis zur Veröffentlichung seiner Beobachtungen verging viel Zeit. Der Himmelskörper war inzwischen weiter in Richtung Sonne gewandert und konnte zunächst nicht wiedergefunden werden. Der Mathematiker Gauß hatte allerdings ein numerisches Verfahren entwickelt (unter Anwendung der Methode der kleinsten Quadrate), die es erlaubte, die Bahnen von Planeten oder Kometen anhand nur weniger Positionen zu bestimmen. Nachdem Gauß die Veröffentlichungen Piazzis gelesen hatte, berechnete er die Bahn des Himmelskörpers und sandte das Ergebnis nach Gotha. Heinrich Wilhelm Olbers entdeckte das Objekt daraufhin am 31. Dezember 1801 wieder, das schließlich den Namen Ceres erhielt. Im Jahr 1802 entdeckte Olbers einen weiteren Himmelskörper, den er Pallas nannte. 1803 wurde Juno, 1807 Vesta entdeckt. Bis zur Entdeckung des fünften Asteroiden, Astraea im Jahr 1845, vergingen allerdings 38 Jahre. Spätere Entdeckungen und Suchmethoden. Dennoch wurden die bis dahin entdeckten Asteroiden damals noch nicht als solche bezeichnet - sie galten damals als vollwertige Planeten. So kam es, dass der Planet Neptun bei seiner Entdeckung im Jahr 1846 nicht als achter, sondern als dreizehnter Planet gezählt wurde. Ab dem Jahr 1847 folgten allerdings so rasch weitere Entdeckungen, dass bald beschlossen wurde, für die zahlreichen, aber allesamt doch recht kleinen Himmelskörper, die die Sonne zwischen Mars und Jupiter umkreisen, eine neue Objektklasse von Himmelskörpern einzuführen: die "Asteroiden", die sogenannten "kleinen Planeten". Die Zahl der "großen Planeten" sank somit auf acht. Bis zum Jahr 1890 wurden insgesamt über 300 Asteroiden entdeckt. Nach 1890 brachte die Einführung der Fotografie in die Astronomie wesentliche Fortschritte. Die Asteroiden, die bis dahin mühsam durch den Vergleich von Teleskopbeobachtungen mit Himmelskarten gefunden wurden, verrieten sich nun durch Lichtspuren auf den fotografischen Platten. Durch die im Vergleich zum menschlichen Auge höhere Lichtempfindlichkeit der fotografischen Emulsionen konnten äußerst lichtschwache Objekte nachgewiesen werden. Durch den Einsatz der neuen Technik stieg die Zahl der entdeckten Asteroiden rasch an. Die Einführung der CCD-Kameratechnik um 1990 und die Möglichkeiten der computerunterstützten Auswertung der elektronischen Aufnahmen bedeutete einen weiteren wesentlichen Fortschritt. Seither hat sich die Zahl jährlich aufgefundener Asteroiden nochmals vervielfacht, woran Suchprogramme wie LINEAR erheblichen Anteil haben. Ist die Bahn eines Asteroiden bestimmt worden, kann die Größe des Himmelskörpers aus der Untersuchung seiner Helligkeit und des Rückstrahlvermögens, der Albedo, ermittelt werden. Dazu werden Messungen im optisch sichtbaren Licht sowie im Infrarotbereich durchgeführt. Diese Methode ist mit Unsicherheiten verbunden, da die Oberflächen der Asteroiden chemisch unterschiedlich aufgebaut sind und das Licht unterschiedlich stark reflektieren. Genauere Ergebnisse können mittels Radarbeobachtungen erzielt werden. Dazu können Radioteleskope verwendet werden, die, als Sender umfunktioniert, starke Radiowellen in Richtung der Asteroiden aussenden. Durch die Messung der Laufzeit der von den Asteroiden reflektierten Wellen kann deren exakte Entfernung bestimmt werden. Die weitere Auswertung der Radiowellen liefert Daten zu Form und Größe. Regelrechte „Radarbilder“ lieferte beispielsweise die Beobachtung der Asteroiden (4769) Castalia und (4179) Toutatis. Beobachtungen mit Raumsonden. Größenvergleich von acht Asteroiden, die durch Raumsonden erforscht wurden In naher Zukunft wird sich die Zahl der bekannten Asteroiden nochmals dramatisch erhöhen, da für die nächsten Jahre mehrere verschiedene Durchmusterungen mit erhöhter Empfindlichkeit geplant sind, zum Beispiel Gaia, Pan-STARRS und LSST. Allein die Raumsonde GAIA soll nach Modellrechnungen bis zu eine Million bisher unbekannter Asteroiden entdecken. Die Benennung von Asteroiden. Die Namen der Asteroiden setzen sich aus einer vorangestellten Nummer und einem Namen zusammen. Die Nummer gab früher die Reihenfolge der Entdeckung des Himmelskörpers an. Heute ist sie eine rein numerische Zählform, da sie erst vergeben wird, wenn die Bahn des Asteroiden gesichert und das Objekt jederzeit wiederauffindbar ist; das kann durchaus erst Jahre nach der Erstbeobachtung erfolgen. Von den bisher bekannten 697.413 Asteroiden haben 450.133 eine Nummer (Stand: 11. November 2015). Der Entdecker hat innerhalb von zehn Jahren nach der Nummerierung das Vorschlagsrecht für die Vergabe eines Namens. Dieser muss jedoch durch eine Kommission der IAU bestätigt werden, da es Richtlinien für die Namen astronomischer Objekte gibt. Dementsprechend existieren zahlreiche Asteroiden zwar mit Nummer, aber ohne Namen, vor allem in den oberen Zehntausendern. Neuentdeckungen, für die noch keine Bahn mit ausreichender Genauigkeit berechnet werden konnte, werden mit dem Entdeckungsjahr und einer Buchstabenkombination, beispielsweise 2003 UB313, gekennzeichnet. Die Buchstabenkombination setzt sich aus dem ersten Buchstaben für die Monatshälfte (beginnend mit A und fortlaufend bis Y ohne I) und einem fortlaufenden Buchstaben (A bis Z ohne I) zusammen. Wenn mehr als 25 Kleinplaneten in einer Monatshälfte entdeckt werden – was heute die Regel ist – beginnt die Buchstabenkombination von vorne, gefolgt von jeweils einer je Lauf um eins erhöhten laufenden Nummer. Der erste Asteroid wurde 1801 von Giuseppe Piazzi an der Sternwarte Palermo auf Sizilien entdeckt. Piazzi taufte den Himmelskörper auf den Namen „Ceres Ferdinandea“. Die römische Göttin Ceres ist Schutzpatronin der Insel Sizilien. Mit dem zweiten Namen wollte Piazzi König Ferdinand IV., den Herrscher über Italien und Sizilien ehren. Dies missfiel der internationalen Forschergemeinschaft und der zweite Name wurde fallengelassen. Die offizielle Bezeichnung des Asteroiden lautet demnach (1) Ceres. Bei den weiteren Entdeckungen wurde die Nomenklatur beibehalten und die Asteroiden wurden nach römischen und griechischen Göttinnen benannt; dies waren (2) Pallas, (3) Juno, (4) Vesta, (5) Astraea, (6) Hebe, und so weiter. Als immer mehr Asteroiden entdeckt wurden, gingen den Astronomen die antiken Gottheiten aus. So wurden Asteroiden unter anderem nach den Ehefrauen der Entdecker, zu Ehren historischer Persönlichkeiten oder Persönlichkeiten des öffentlichen Lebens, Städten und Märchenfiguren benannt. Beispiele hierfür sind die Asteroiden (21) Lutetia, (216) Kleopatra, (719) Albert, (1773) Rumpelstilz, (5535) Annefrank, (17744) Jodiefoster. Neben Namen aus der griechisch-römischen Mythologie kommen auch Namen von Gottheiten aus anderen Kulturkreisen zur Anwendung, insbesondere für neu entdeckte, größere Objekte, wie (20000) Varuna, (50000) Quaoar und (90377) Sedna. Monde von Asteroiden erhalten zu ihrem Namen keine permanente Nummer und gelten nicht als Asteroiden oder Kleinkörper, da sie nicht selbstständig die Sonne umlaufen. Die Entstehung von Asteroiden. Zunächst gingen die Astronomen davon aus, dass die Asteroiden das Ergebnis einer kosmischen Katastrophe seien, bei der ein Planet zwischen Mars und Jupiter auseinanderbrach und Bruchstücke auf seiner Bahn hinterließ. Es zeigte sich jedoch, dass die Gesamtmasse der im Hauptgürtel vorhandenen Asteroiden sehr viel geringer ist als die des Erdmondes. Schätzungen der Gesamtmasse der Kleinplaneten schwanken zwischen 0,1 und 0,01 Prozent der Erdmasse (Der Mond hat etwa 1,23 Prozent der Erdmasse). Daher wird heute angenommen, dass die Asteroiden eine Restpopulation von Planetesimalen aus der Entstehungsphase des Sonnensystems darstellen. Die Gravitation von Jupiter, dessen Masse am schnellsten zunahm, verhinderte die Bildung eines größeren Planeten aus dem Asteroidenmaterial. Die Planetesimale wurden auf ihren Bahnen gestört, kollidierten immer wieder heftig miteinander und zerbrachen. Ein Teil wurde auf Bahnen abgelenkt, die sie auf Kollisionskurs mit den Planeten brachten. Hiervon zeugen noch die Einschlagkrater auf den Planetenmonden und den inneren Planeten. Die größten Asteroiden wurden nach ihrer Entstehung stark erwärmt (hauptsächlich durch den radioaktiven Zerfall des Aluminium-Isotops 26Al und möglicherweise auch des Eisenisotops 60Fe) und im Innern aufgeschmolzen. Schwere Elemente, wie Nickel und Eisen, setzten sich infolge der Schwerkraftwirkung im Inneren ab, die leichteren Verbindungen, wie die Silikate, verblieben in den Außenbereichen. Dies führte zur Bildung von differenzierten Körpern mit metallischem Kern und silikatischem Mantel. Ein Teil der differenzierten Asteroiden zerbrach bei weiteren Kollisionen, wobei Bruchstücke, die in den Anziehungsbereich der Erde geraten, als Meteoriten niedergehen. Die Zusammensetzung von Asteroiden. In der Vergangenheit gingen Wissenschaftler davon aus, dass die Asteroiden monolithische Felsbrocken, also kompakte Gebilde sind. Die geringen Dichten etlicher Asteroiden sowie das Vorhandensein von riesigen Einschlagkratern deuten jedoch darauf hin, dass viele Asteroiden locker aufgebaut sind und eher als "rubble piles" anzusehen sind, als lose „Schutthaufen“, die nur durch die Gravitation zusammengehalten werden. Locker aufgebaute Körper können die bei Kollisionen auftretenden Kräfte absorbieren ohne zerstört zu werden. Kompakte Körper werden dagegen bei größeren Einschlagereignissen durch die Stoßwellen auseinandergerissen. Darüber hinaus weisen die großen Asteroiden nur geringe Rotationsgeschwindigkeiten auf. Eine schnelle Rotation um die eigene Achse würde sonst dazu führen, dass die auftretenden Fliehkräfte die Körper auseinanderreißen ("siehe auch: YORP-Effekt"). Man geht heute davon aus, dass der überwiegende Teil der über 200 Meter großen Asteroiden derartige kosmische Schutthaufen sind. Die Bahnen der Asteroiden. Anders als die Planeten besitzen viele Asteroiden keine annähernd kreisrunden Umlaufbahnen. Sie haben, abgesehen von den meisten Hauptgürtelasteroiden und den Cubewanos im Kuipergürtel, meist sehr exzentrische Orbits, deren Ebenen in vielen Fällen stark gegen die Ekliptik geneigt sind. Ihre relativ hohen Exzentrizitäten machen sie zu Bahnkreuzern; das sind Objekte, die während ihres Umlaufs die Bahnen eines oder mehrerer Planeten passieren. Die Schwerkraft des Jupiter sorgt allerdings dafür, dass sich Asteroiden, bis auf wenige Ausnahmen, nur jeweils innerhalb oder außerhalb seiner Umlaufbahn bewegen. Asteroiden innerhalb der Marsbahn. Innerhalb der Marsbahn bewegen sich einige unterschiedliche Asteroidengruppen, die alle bis auf wenige Ausnahmen aus Objekten von unter fünf Kilometer Größe (überwiegend jedoch deutlich kleiner) bestehen. Einige dieser Objekte sind Merkur- und Venusbahnkreuzer, von denen sich mehrere nur innerhalb der Erdbahn bewegen, manche können sie auch kreuzen. Wiederum andere bewegen sich hingegen nur außerhalb der Erdbahn. Die Existenz der als Vulkanoiden bezeichneten Gruppe von Asteroiden konnte bislang nicht nachgewiesen werden. Diese Asteroiden sollen sich auf sonnennahen Bahnen innerhalb der von Merkur bewegen. Erdnahe Asteroiden. Asteroiden, deren Bahnen dem Orbit der Erde nahe kommen, werden als "erdnahe Asteroiden" bezeichnet. Üblicherweise wird als Abgrenzungskriterium ein Perihel kleiner als 1,3 AE verwendet. Wegen einer theoretischen Kollisionsgefahr mit der Erde wird seit einigen Jahren systematisch nach ihnen gesucht. Bekannte Suchprogramme sind zum Beispiel Lincoln Near Earth Asteroid Research (LINEAR), der Catalina Sky Survey, Pan-STARRS, NEAT und LONEOS. Asteroiden zwischen Mars und Jupiter. Etwa 90 Prozent der bekannten Asteroiden bewegen sich zwischen den Umlaufbahnen von Mars und Jupiter. Sie füllen damit die Lücke in der Titius-Bode-Reihe. Die größten Objekte sind hier (1) Ceres, (2) Pallas, (4) Vesta und (10) Hygiea. Nachdem Ceres den Status eines Zwergplaneten bekommen hat, wird auch bei den anderen diese Einordnung erwogen und noch nach dem Kriterium des hydrostatischen Gleichgewichts geforscht. Asteroiden, die sich auf Planetenbahnen bewegen. Asteroiden, die sich in den Lagrange-Punkten der Planeten befinden, werden „Trojaner“ genannt. Zuerst wurden diese Begleiter bei Jupiter entdeckt. Sie bewegen sich auf der Jupiterbahn vor beziehungsweise hinter dem Planeten. Jupitertrojaner sind beispielsweise (588) Achilles und (1172) Äneas. 1990 wurde der erste Marstrojaner entdeckt und (5261) Eureka genannt. In der Folgezeit wurden weitere Marstrojaner entdeckt. Auch Neptun besitzt Trojaner und 2011 wurde mit 2011 QF99 der erste Uranustrojaner entdeckt. Manche Asteroiden bewegen sich auf einer Hufeisenumlaufbahn auf einer Planetenbahn, wie zum Beispiel der Asteroid 2002 AA29 in der Nähe der Erde. Einzelobjekte. Im Sonnensystem bewegen sich einige Asteroiden, die Charakteristika aufweisen, die sie mit keinem anderen Objekt teilen. Dazu zählen unter anderem (944) Hidalgo, der sich auf einer stark exzentrischen, kometenähnlichen Umlaufbahn zwischen Saturn und dem Hauptgürtel bewegt, und (279) Thule, der sich als einziger Vertreter einer potenziellen Gruppe von Asteroiden in 4:3-Resonanz zu Jupiter bei 4,3 AE um die Sonne bewegt. Ein weiteres Objekt ist (90377) Sedna, ein relativ großer Asteroid, der weit außerhalb des Kuipergürtels eine exzentrische Umlaufbahn besitzt, die ihn bis zu 900 AE von der Sonne entfernt. Einschlagwahrscheinlichkeit und -wirkung. Asteroiden, die mit wesentlich größeren Himmelskörpern wie Planeten kollidieren, erzeugen Einschlagkrater. Die Größe des Einschlagkraters und die damit verbundene Energiefreisetzung (Explosion) wird maßgeblich durch die Geschwindigkeit, Größe, Masse und Zusammensetzung des Asteroiden bestimmt. Die Flugbahnen der Asteroiden im Sonnensystem sind nicht genau genug bekannt, um auf längere Zeit berechnen zu können, ob und wann genau ein Asteroid auf der Erde (oder auf einem anderen Planeten) einschlagen wird. Durch Annäherung an andere Himmelskörper unterliegen die Bahnen der Asteroiden ständig kleineren Veränderungen. Deswegen wird auf Basis der bekannten Bahndaten und -unsicherheiten lediglich das "Risiko" von Einschlägen errechnet. Es verändert sich bei neuen, genaueren Beobachtungen fortlaufend. Nahe Begegnungen mit erdnahen Asteroiden. Radaraufnahme des Asteroiden 1950 DA Beispiele für Einschläge auf der Erde. Eine Auflistung irdischer Krater findet sich in der Liste der Einschlagkrater der Erde sowie als Auswahl unter Große und bekannte Einschlagkrater. Internationaler Tag der Asteroiden. 2001 etablierte das "Committee on the Peaceful Uses of Outer Space" (COPUOS) der UNO das "Action Team on Near-Earth Objects" (Action Team 14). Empfohlen wurde 2013 die Errichtung eines "international asteroid warning network" (IAWN) und einer "space mission planning advisory group" (SMPAG). Das Action Team 14 hat sein Mandat erfüllt und wurde 2014 aufgelöst. Am 30. Juni 2015 wurde der erste Internationale Tag der Asteroiden ausgerufen. Ase. Mårten Eskil Winge, "Thor", 1872 Die Asen (altnordisch Nominativ Singular "áss", Plural "æsir") sind nach Snorri Sturluson in der Prosa-Edda ein Göttergeschlecht der nordischen Mythologie. Dieses Geschlecht ist nach der Zahl der ihm zugehörigen Gottheiten größer als das zweite nordische Göttergeschlecht der Wanen. Die Asen werden von ihrer Mentalität als kriegerische und herrschende Götter geschildert, wohingegen die Wanen als Fruchtbarkeitsgottheiten stilisiert werden. Bei Snorri findet jedoch eine stringente Trennung der Geschlechter nicht statt. Zudem wird der Begriff „Ase” in Quellen als ein genereller Begriff für „Gott” gebraucht (siehe auch: Abschnitt Etymologie im germanischen Sprachraum bei "Gott"). Etymologie. Der Begriff „Ase” ist inschriftlich zuerst fassbar belegt in einer Runeninschrift aus dem 2. Jahrhundert aus Vimose in Dänemark: asau wija „ich weihe dem Asen/Gott”. Ein weiterer Beleg ist die Form "Ansis" bei Jordanes (Getica 13,78), hier werden diese als mythische Vorfahren der Goten als "semideos", lateinisch für „Halbgötter”, bezeichnet. Das altisländische, beziehungsweise altnordische "áss" weist durch den runischen Beleg einen u-Stamm auf, wodurch auf ein germanisches "*ansu-z" zu schließen ist. Durch den Beleg bei Jordanes wird in der Forschung diskutiert, ob durch die Form "ansis", neben der altnordischen Form mit dem u-Stamm, berechtigt ein i-Stamm anzunehmen ist und in der Folge auf ein germanisches "*ansi-z" rückzuführen ist. Die Asen der Edda. Nach der Jüngeren Edda wohnen zwölf Asen in Asgard (Sitz der Götter). Sie herrschen über die Welt und die Menschen. Ihnen werden Eigenschaften wie Stärke, Macht und Kraft zugeschrieben. Sie sind weitgehend vermenschlicht, haben also einen irdischen Alltag. Wie die Menschen sind sie sterblich. Nur durch die Äpfel der Idun halten sie sich jung, bis fast alle von ihnen zur Ragnarök getötet werden. Altes Reich. Das Alte Reich dauerte ungefähr von 2700 bis 2200 v. Chr. und ist die älteste der drei klassischen Perioden des Alten Ägyptens. Sie folgte auf die Thinitenzeit, die zur Bildung des ägyptischen Staates führte, und umfasste die 3. bis 6. Dynastie. Die darauffolgende Erste Zwischenzeit führte zu instabilen politischen Verhältnissen im Land. Die Alten Ägypter selbst sahen die Epoche als Goldenes Zeitalter und Höhepunkt ihrer Kultur an. De facto war die Zeit von äußerst lang anhaltender politischer Stabilität geprägt und die innere Ordnung des Landes durch keinerlei äußere Bedrohungen gefährdet. Die bereits zur Thinitenzeit begonnene Zentralisierung des Staates und der langsam einsetzende Wohlstand in der Bevölkerung führten zu beachtlichen architektonischen und künstlerischen Leistungen. Es kam zur Entstehung erster wichtiger Gattungen der klassischen ägyptischen Literatur, zur Kanonisierung von Malerei und Bildhauerei, aber auch zu zahlreichen Neueinführungen in der Verwaltung, die fast drei Jahrtausende überdauerten. Das Alte Reich ist das Zeitalter der großen Pyramiden, die in der Gegend der damaligen Hauptstadt Memphis entstanden: zunächst die Stufenpyramide von Pharao Djoser in Sakkara, später dann die drei monumentalen Pyramiden auf dem Plateau von Gizeh (von Cheops, Chephren und Mykerinos), die zu den sieben Weltwundern der Antike zählen. Die Pyramiden spiegeln eindrucksvoll die zentrale Stellung der Herrscher in der Gesellschaft wider und ihre Macht, die danach in der altägyptischen Geschichte unerreicht blieb. Zugleich machen sie die Weiterentwicklung des Verwaltungsapparates deutlich und seine Fähigkeit, materielle und menschliche Ressourcen zu mobilisieren. Sie zeigen aber auch die erheblichen Fortschritte in Architektur und Kunst auf und lassen erkennen, welche zentrale Rolle Totenkult und Jenseitsglaube zu dieser Zeit gespielt haben. Quellenlage. Die Hauptquelle für das Alte Reich sind die Pyramiden und ihre Tempelanlagen, die letzteren sind jedoch häufig stark zerstört. Vor allem in den Pyramidengrabkammern der 6. Dynastie fanden sich Texte, die eine umfangreiche Quelle zum Totenglauben der Epoche darstellen. Neben den Pyramiden finden sich umfangreiche Friedhöfe der höchsten Beamten, deren Gräber oftmals reich mit Reliefs und Inschriften dekoriert sind. Nekropolen in den Provinzen fanden in der Forschung bisher wenig Beachtung. Immerhin stammen aus dem späten Alten Reich einige bedeutende dekorierte Grabanlagen lokaler Würdenträger. Siedlungen des Alten Reiches sind bisher kaum ausgegraben. Eine Ausnahme stellt neuerdings die Pyramidenstadt von Gizeh dar. Nur wenige Tempel dieser Zeit sind bisher untersucht worden. Im Gegensatz zu späteren Epochen scheinen sie eher klein und undekoriert gewesen zu sein. Eine Ausnahme stellen zwei Heiligtümer zum Sonnen- und Königskult dar. Aus dem Alten Reich gibt es nur wenige Papyri, die wichtigsten fanden sich in Abusir und stellen Verwaltungsurkunden eines Pyramidentempels dar. 3. Dynastie. Die 3. Dynastie (2700 bis 2620 v. Chr.) folgte auf die Thinitenzeit, die zur Reichseinigung und zur Bildung des ersten ägyptischen Staates geführt hat. Die Dynastie wird gemeinhin dem Alten Reich zugerechnet, da sie den Beginn des für diese Epoche ausschlaggebenden Pyramidenbaus markiert. Einige Forscher ziehen es vor, sie in direkte Kontinuität mit der 1. und 2. Dynastie zu setzen, die zahlreiche Gemeinsamkeiten hinsichtlich politischer Organisation und kultureller Aspekte aufweisen. Der Übergang von der 2. zur 3. Dynastie stellt keinen echten Dynastiewechsel dar, da die ersten Herrscher der 3. Dynastie in direkter Linie vom Königshaus der vorhergehenden Dynastie abstammen. Über die Anzahl und Abfolge der Könige der 3. Dynastie herrscht einige Unklarheit. Probleme bereitet die Tatsache, dass die fast ausschließlich in späteren Listen überlieferten Geburtsnamen nur selten in Einklang mit den zeitgenössisch auftretenden Horusnamen gebracht werden können. Von den aus dieser Zeit fünf oder sechs überlieferten Horusnamen kann lediglich Netjeri-chet eindeutig König Djoser zugewiesen werden. Die Reihenfolge der nächsten drei Herrscher Sechemchet, Chaba und Sanacht dagegen ist ungewiss. Der vermutlich letzte Herrscher Huni wurde versuchsweise mit dem Horusnamen Qahedjet identifiziert, jedoch ist diese Zuweisung nicht sicher. Die Angaben für die Dauer der 3. Dynastie schwanken zwischen 50 und 75 Jahren. König Djoser wird als bedeutendster Herrscher der 3. Dynastie angesehen, da er mit seinem Pyramidenkomplex in Sakkara die erste Stufenpyramide und den ersten monumentalen Steinbau in der Geschichte der Menschheit schaffen ließ. Für den Bau der Pyramide, die einen Höhepunkt des frühen ägyptischen Steinbaus darstellt, waren enorme Fortschritte in der logistischen Organisation nötig, die nur durch eine gut funktionierende, straff organisierte Verwaltung erzielt werden konnten. Als einer der berühmtesten Beamten dieser Zeit ist Imhotep bekannt, der als Berater und Baumeister von Djoser wirkte und bis in die Spätzeit hinein als legendärer Erfinder verehrt und sogar vergöttlicht wurde. Sichtbare Fortschritte im Bereich Bildender Kunst lassen sich am besten an Werken aus Djosers Regierungszeit ablesen, die sich in ihrer Ausführung deutlich von der vorhergehenden Epoche abheben. Die 3. Dynastie war von der Stärkung des Zentralstaates geprägt, der von der neuen Hauptstadt Memphis aus an der Grenze zwischen Ober- und Unterägypten regiert wurde. Die hohen Würdenträger ließen sich nicht mehr wie in der Frühzeit auf Friedhöfen in der Provinz bestatten, sondern erhielten nun einen Platz in der königlichen Nekropole. Die gegen Ende der Dynastie an vielen Stellen im Reich errichteten Kleinpyramiden unterstreichen dagegen den wachsenden Einfluss der Zentralregierung auf die Provinzen. Zur Beschaffung von Baumaterial und anderen wichtigen Rohstoffen wurden weit entfernte Expeditionen entsandt, etwa ins Wadi Maghara in den Westen des Sinai. 4. Dynastie. a>, errichtet in der 4. Dynastie. Die 4. Dynastie (2620 bis 2500 v. Chr.) wurde von Snofru gegründet, der möglicherweise ein Sohn von Huni war. In einer Zeitspanne von etwa 100 Jahren wechselten sich sieben Könige ab, von denen die vier Könige Snofru, Cheops, Chephren und Mykerinos eine relativ lange Regierungszeit zwischen 18 und 30 Jahren ausübten. Die Dynastie war eine Blütezeit Ägyptens und ist der Nachwelt durch die größten jemals in Ägypten errichteten Pyramiden in Erinnerung geblieben. Ihr Gründer Snofru, der als Idealbild des gerechten Königs galt, unternahm weit entfernte Expeditionen nach Nubien und Libyen und ließ eine Grenzfestung zum Schutze des Landes aufstellen; weiterhin ließ er in Meidum und Dahschur nacheinander drei große Pyramidenanlagen errichten, die den Übergang von der Stufenpyramide zur echten Pyramide einleiteten. Sein Nachfolger Cheops wählte das Plateau von Gizeh als Bauplatz für seine Pyramide, die mit ursprünglich 146,59 Metern Höhe die höchste der Welt ist. Ihre enorme Größe veranlasste antike Autoren dazu, ihn im Gegensatz zu seinem Vater als größenwahnsinnigen und tyrannischen Herrscher darzustellen, ihm wurde aber in Wirklichkeit bis in die Spätzeit hinein noch eine eigenständige kultische Verehrung zuteil. Zwei seiner Söhne, Djedefre und Chephren, folgten ihm auf den Thron. Djedefre nannte sich als erster König „Sohn des Re“, Chephren ließ sich eine weitere große Pyramide neben der seines Vaters erbauen. Von dem nachfolgenden König Bicheris ist nur wenig bekannt. Erst sein Nachfolger Mykerinos ließ eine dritte Pyramide in Gizeh bauen. Der letzte König der Dynastie hieß Schepseskaf. Im Turiner Königspapyrus ist ein gewisser Thamphthis überliefert, der jedoch nicht durch zeitgenössische Belege bestätigt werden kann. Die Umsetzung der großen Bauvorhaben dieser Dynastie erforderte eine weitaus komplexere und effizientere Verwaltung als in der Dynastie zuvor. Die Verwaltung wurde immer weiter ausgebaut und umfasste schließlich ein „Amt für königliche Arbeiten“, das sich speziell um die Errichtung von Denkmälern kümmerte. Zu den Aufgaben gehörte die Rekrutierung von Arbeitskräften, die Errichtung von ausgedehnten Arbeitersiedlungen für ihre Versorgung und Unterkunft unweit der Bauplätze, die Umsetzung der großen und technisch anspruchsvollen Bauvorhaben, die Erschließung von Steinbrüchen, die sich außerhalb des zuständigen Verwaltungsgebietes befinden konnten (Hatnub, Fayyum, Wadi Hammamat, Sinai) sowie die Lieferung von Rohmaterial in die Region von Memphis. Alle staatliche Macht konzentrierte sich in der Person des Pharaos, dessen göttlicher Charakter sich mehr als jemals zuvor in seinen Bauprojekten manifestierte. Die höchsten Amtsposten in der Verwaltung wurden meist von Prinzen besetzt. Von einigen hohen Hofbeamten ist bekannt, dass sie gelegentlich als Verwalter in den Provinzen eingesetzt werden konnten. 5. Dynastie. Die Herrscher der 5. Dynastie (2504 bis 2347 v. Chr.) sind sowohl durch archäologische Funde als auch durch überlieferte Texte genauer bekannt als die der vorangegangenen Dynastien. Ihre Zeit ist durch kleinere Pyramiden, oft bei Abusir gelegen, und Tempel des Sonnengottes Re gekennzeichnet. Die Könige (Pharaonen) mussten ihre absolute Macht mit dem aufstrebenden Adel und einer wachsenden Bürokratie teilen. Letzterer verdanken wir viele der erhaltenen Texte. In der Pyramide des Unas fanden sich erstmals die so genannten Pyramidentexte, die somit die ältesten überlieferten religiösen Texte der Menschheitsgeschichte sind. Die Tradition der Anbringung von Jenseitsliteratur in Königsgräbern wurde im Mittleren Reich mit den Sargtexten und im Neuen Reich mit den verschiedenen Unterweltsbüchern (Amduat, Höhlenbuch, Pfortenbuch etc.) fortgeführt. In nicht-königlichen Gräbern des Neuen Reiches fand man Papyri mit dem Totenbuch. 6. Dynastie. Die 6. Dynastie (2347 bis 2216 v. Chr.) setzte die 5. Dynastie kulturell fort. Eine Dezentralisierung der Verwaltungsstrukturen mit über das Land verteilten Verwaltern stellte regionale Zentren her, die mit nachgebendem Einfluss der Herrscher an Bedeutung gewannen. Die Zentralregierung verlor nach Kriegszügen gegen Libyen, Nubien und Palästina immer mehr an Einfluss. Neueste Forschungen deuten darauf hin, dass Klimaveränderungen (siehe 4,2-Kilojahr-Ereignis), mit ausbleibenden Nilhochwassern, zum Niedergang des Alten Reiches beigetragen haben könnten. Auch die zeitnahen Umbrüche in Sumer und der Indus-Kultur sprechen dafür. Mit dem Zerfall der Zentralregierung beginnt die Erste Zwischenzeit. Die Archäologin Marija Gimbutas sieht für die Zeit zwischen 2500 und 2200 v. Chr. Belege für einen Vorstoß von Völkern der von ihr definierten späten Periode der Kurgankultur aus dem Großbereich der Ukraine bis nach Ägypten. Einzelnachweise. ! Aussetzung des Handels. Die Aussetzung des Handels ist eine Aktion auf einem Markt, mit der der Handel mindestens eines Wertpapiers unterbunden werden soll. Befürworter sehen in der Aussetzung des Handels mit Wertpapieren einzelner Unternehmen einen Schutz der Anleger. So wird der Handel mit Aktien eines Unternehmens ausgesetzt, wenn dieses Unternehmen Pflichtmitteilungen zu tätigen hat, die einen erheblichen Einfluss auf den Kurs haben können, wie z. B. Konkursanträge oder Fusionen eines Unternehmens. Hierzu bekommen die Kontrollorgane die Pflichtmitteilung vor der Veröffentlichung und können den Handel aussetzen, bevor die Nachricht bekannt wird. Kritiker sehen in Aussetzungen des Handels einen Widerspruch zur Idee des wirtschaftlichen Liberalismus, da dort Märkte frei von Beeinflussung sein sollen. Häufig wird der Handel eines bestimmten Wertpapiers oder gleich aller Wertpapiere an einer Wertpapierbörse ausgesetzt. Die Begründung dafür ist, dass bei steigenden Kursen Wertpapiere gekauft werden, womit der Kurs noch weiter steigt, und dass bei fallenden Kursen Wertpapiere verkauft werden, womit der Kurs noch weiter fällt. De facto werden die kleineren Marktteilnehmer handlungsunfähig gemacht, da sie auf die jeweilige Börse angewiesen sind. Die größeren Marktteilnehmer können außerbörslich untereinander weiterhandeln. Handelsaussetzungen beschränken sich nicht auf Aktien, sondern können sich auf alles Handelbare erstrecken, so auch auf Geld. So wurden im Jahr 2002 sowohl in Argentinien als auch Uruguay so genannte Bankfeiertage ausgerufen. Effektiv wurde der Handel mit Geld, das Abheben und Überweisen ausgesetzt. Auch in diesen Fällen war die "Stabilisierung" der jeweiligen Währung das Ziel. (In Wirklichkeit hatte das Geld schon einen großen Wertverlust erlitten, die Bankfeiertage wurden also nur zur Wahrung des Scheins der Werthaltigkeit des Geldes ausgerufen.) Die längerfristige Aussetzung des Handels mit dem einzig allgemein akzeptierten Tauschmittel eines Landes hat fatale Folgen für die arbeitsteilige Wirtschaft: Ohne Tauschmittel kommt die Arbeitsteilung zum Erliegen. In der Regel folgt solchen Umständen eine allgemeine Verelendung. Die wirklichen Ursachen der obigen Aussetzungen des Handels mit Geld lagen in der jeweiligen Finanzkrise, also in fundamentaleren Gründen als lediglich eine Selbstbeschleunigung von Kursveränderungen. Hat etwas einen wirklichen Wert, so wird sein Besitzer dieses nicht unter diesem Wert verkaufen. Ein Käufer wird andersherum nicht mehr dafür ausgeben, als es wert ist. Dieser Theorie folgend sind Handelsaussetzungen unnötig, sie sind vielmehr Manipulationen des Marktes zugunsten einer eingeschränkten Gruppe auf Kosten einer meist viel größeren Gruppe. Aššur-nâṣir-apli II.. Aššur-nâṣir-apli II. (auch "Aschschur-nasir-apli", "Assur-nasirpal") regierte als assyrischer König von 883 bis 859 v. Chr. Er war Sohn des Tukulti-Ninurta II. Das assyrische Reich gewann unter ihm wieder die Ausmaße der Zeit von Tukulti-apil-Ešarra I. Feldzüge führte Aššur-nâṣir-apli u.a. gegen Babylon und Urartu. In einem Feldzug gegen die Aramäer wurden 300 Talente Eisen als Kriegsbeute erwähnt, die den wirtschaftlichen Aufschwung der Aramäer deutlich machen. Die Berichte seiner Eroberungen sind in übertreibenden Phrasen geschrieben. So wird die flache Gebirgsgruppe des Gebel Bisri südwestlich des Euphrat als "hohe Berge, deren Spitzen die Vögel nicht erreichen" beschrieben. Die Tribute und die Beute wurden unter anderem benötigt, um Bauvorhaben in Aššur, Ninive und Kalḫu zu finanzieren. Aššur-nâṣir-apli verlegte die Hauptstadt von Assur nach Kalḫu. Die Einweihung von Kalḫu wurde zehn Tage lang gefeiert. Anwesend waren rund 70.000 Gäste (Assyrer, Fremde aus mindestens zwölf Ländern, darunter Sidon, Tyros, Muṣaṣir, Kumme, Gurgum, Gilzanu und Melid), wie auf der Bankett-Stele beschrieben. Der Palast besaß auch einen prächtigen Garten. In Imgur-Enlil errichtete er einen Tempel des Traumgottes Mamu, dessen Tore er mit Bronzereliefs verzieren ließ. Aššur-nâṣir-apli führte Verwaltungsformen durch. Ein eng gespanntes Botennetz erlaubte eine schnelle Nachricht von Aufständen, die so im Keim erstickt werden konnten. Unter Aššur-nâṣir-apli II. wurden die Deportationen in großem Stil ausgeweitet. Sein Nachfolger war sein Sohn Salmānu-ašarēd III.. Seine Gemahlin war Mullissu-mukannišat-Ninua, die auch Mutter des Nachfolgers war. Antioxidans. Ein Antioxidans (Mehrzahl Antioxidantien, auch Antioxidanzien'") ist eine chemische Verbindung, die eine unerwünschte Oxidation anderer Substanzen gezielt verhindert. Antioxidantien haben große physiologische Bedeutung durch ihre Wirkung als Radikalfänger. Sie inaktivieren im Organismus reaktive Sauerstoffspezies (ROS), deren übermäßiges Vorkommen zu oxidativem Stress führt. Oxidativer Stress gilt als mitverantwortlich für das Altern und wird in Zusammenhang gebracht mit der Entstehung einer Reihe von Krankheiten. Antioxidantien sind ferner von Bedeutung als Zusatzstoffe für verschiedenste Produkte (Lebensmittel, Arzneimittel, Bedarfsgegenstände, Gebrauchsmaterialien) um darin einen – zum Beispiel durch Luftsauerstoff bewirkten – oxidativen Abbau empfindlicher Moleküle zu verhindern. Der oxidative Abbau bestimmter Inhaltsstoffe oder Bestandteile wirkt sich wertmindernd aus, weil sich Geschmack oder Geruch unangenehm verändern (Lebensmittel, Kosmetika), die Wirkung nachlässt (bei Arzneimitteln), schädliche Abbauprodukte entstehen oder physikalische Gebrauchseigenschaften nachlassen (z. B. bei Kunststoffen). Wirkungsmechanismus. Nach Art des chemischen Wirkmechanismus werden Antioxidantien in Radikalfänger oder Reduktionsmittel unterschieden. Im weiteren Sinne werden auch Antioxidationssynergisten zu den Antioxidantien gerechnet. Bei Oxidationsreaktionen zwischen organischen Verbindungen treten vielfach kettenartige Radikalübertragungen auf. Hier werden Stoffe mit sterisch behinderten Phenolgruppen wirksam, die im Ablauf dieser Übertragungen reaktionsträge, stabile Radikale bilden, die nicht weiter reagieren, wodurch es zum Abbruch der Reaktionskaskade kommt (Radikalfänger). Zu ihnen zählen natürliche Stoffe wie die Tocopherole und synthetische wie Butylhydroxyanisol (BHA), Butylhydroxytoluol (BHT) und die Gallate. Sie sind wirksam in lipophiler Umgebung. Reduktionsmittel haben ein sehr niedriges Redox-Potential, ihre Schutzwirkung kommt dadurch zustande, dass sie eher oxidiert werden als die zu schützende Substanz. Vertreter sind etwa Ascorbinsäure (-0,04 V bei pH 7 und 25 °C), Salze der Schwefligen Säure (+0,12 V bei pH 7 und 25 °C) und bestimmte organische schwefelhaltige Verbindungen (z. B. Glutathion, Cystein, Thiomilchsäure), die vorwiegend in hydrophilen Matrices wirksam sind. Synergisten unterstützen die Wirkung von Antioxidantien, beispielsweise indem sie verbrauchte Antioxidantien wieder regenerieren. Durch Komplexierung von Metallspuren (Natrium-EDTA) oder Schaffung eines oxidationshemmenden pH-Wertes können Synergisten die antioxidative Wirkung eines Radikalfängers oder Reduktionsmittels verstärken. Natürliche Antioxidantien. Viele Antioxidantien sind natürlich und endogen vorkommende Stoffe. Im Säugetierorganismus stellt das Glutathion ein sehr wichtiges Antioxidans dar, auch eine antioxidative Aktivität von Harnsäure und Melatonin ist bekannt. Ferner sind Proteine wie Transferrin, Albumin, Coeruloplasmin, Hämopexin und Haptoglobin antioxidativ wirksam. Antioxidative Enzyme, unter denen die wichtigsten die Superoxiddismutase (SOD), die Glutathionperoxidase (GPX) und die Katalase darstellen, sind zur Entgiftung freier Radikale in den Körperzellen ebenfalls von entscheidender Bedeutung. Für ihre enzymatische Aktivität sind Spurenelemente wie Selen, Kupfer, Mangan und Zink wichtig. Als antioxidativ wirksames Coenzym ist Ubichinon-10 zu nennen. Für den menschlichen Organismus essentiell notwendige und antioxidativ wirksame Stoffe wie Ascorbinsäure (Vitamin C), Tocopherol (Vitamin E) und Betacarotin (Provitamin A) können nicht bedarfsdeckend synthetisiert werden und müssen mit der Nahrung zugeführt werden (exogene Antioxidantien). Eine Reihe von Antioxidantien werden als Bestandteil der Muttermilch an den Säugling weitergegeben um dort ihre Wirkung zu entfalten. Als sekundäre Pflanzenstoffe kommen Antioxidantien wie Carotinoide und verschiedenste polyphenolische Verbindungen (Flavonoide, Anthocyane, Phytoöstrogene und andere) in zahlreichen Gemüse- und Obstarten, Kräutern, Früchten, Samen etc. vor und auch in daraus hergestellten Lebensmitteln. Ebenfalls pflanzlichen Ursprungs sind Vitamin C und Vitamin E, die aber auch synthetisch oder teilsynthetisch hergestellt werden können, sowie die in den Blättern des Kreosotbusches vorkommende Nordihydroguajaretsäure. Synthetische Antioxidantien. Zu den künstlichen Antioxidationsmitteln zählen die Gallate, Butylhydroxyanisol (BHA) und Butylhydroxytoluol (BHT). Durch eine synthetische Veresterung der Vitamine Ascorbinsäure und Tocopherol wird deren Löslichkeit verändert um das Einsatzgebiet zu erweitern und verarbeitungstechnische Eigenschaften zu verbessern (Ascorbylpalmitat, Ascorbylstearat, Tocopherolacetat). Gesundheitlicher Stellenwert. Freie Radikale sind hochreaktive Sauerstoffverbindungen, die im Körper gebildet werden und in verstärktem Maß durch UV-Strahlung, Schadstoffe in der Luft und Chemikalien entstehen. Ihr Vorkommen im Übermaß (oxidativer Stress) erzeugt Zellschäden und gilt nicht nur als mitverantwortlich für das Altern, sondern wird auch in Zusammenhang mit der Entstehung einer Reihe von Krankheiten gebracht. Ein Schutz vor den schädlichen Folgen durch freie Radikale stellt das körpereigene Abwehrsystem dar, in welchem vor allem Radikalfänger antioxidativ wirksam werden. Außer endogen gebildeten Antioxidantien wirken im Abwehrsystem auch solche, die mit der Nahrung zugeführt werden. Eine gesunde Ernährung unter Einbeziehung von mit an antioxidativ wirksamen Stoffen reichen Lebensmitteln gilt als effektive Vorbeugung vor Herz-Kreislauferkrankungen, eine Schutzwirkung vor bestimmten Krebsarten wird als möglich erachtet, ist jedoch nicht durch aussagekräftige Studien gesichert. Neue Studien einer schwedischen Forschergruppe erbrachten bei Versuchen an Mäusen mittlerweile Indizien, dass Antioxidanzien Hautkrebs bei Mäusen schneller Tochtergeschwulste bilden lässt – „die Ergebnisse müssen allerdings noch am Menschen bestätigt werden“. Die neueren wissenschaftlichen Erkenntnisse veranlasste die Zeitschrift Nature in einem Feature, die Aussage, dass Antioxidantien gut und freie Radikale schlecht seien, als eine der Mythen herauszustellen, die den Menschen schaden. Häufigste Lebensmittelquellen. Nach einer US-amerikanischen Untersuchung aus dem Jahr 2005 stammt der mit Abstand größte Teil der mit der täglichen Nahrung zugeführten physiologischen Antioxidantien aus dem Genussmittel Kaffee. Dies liege weniger daran, dass Kaffee außergewöhnlich große Mengen an Antioxidantien enthält, als vielmehr an der Tatsache, dass die US-Amerikaner zu wenig Obst und Gemüse zu sich nähmen, dafür aber umso mehr Kaffee konsumierten. Die antioxidative Kapazität eines Lebensmittels und somit die Fähigkeit zum Abfangen von Sauerstoffradikalen wird mit dessen ORAC-Wert angegeben. Nahrungsergänzung. Antioxidativ wirksame Substanzen werden in einer Reihe von Nahrungsergänzungsmitteln als „Anti-Aging“-Präparate und zur Krankheitsprävention (z. B. vor Krebs) auf dem Markt angeboten. Die enthaltenen antioxidativen Substanzen kommen auch natürlicherweise in der Nahrung vor, außerdem werden sie vielen Lebensmitteln zugesetzt, sodass in der Regel kein Mangel besteht. Es fehlen belastbare wissenschaftliche Nachweise, dass die Einnahme von Nahrungsergänzungsmitteln – in denen antioxidativ wirksame Substanzen meist isoliert und nicht im Verbund mit natürlichen Begleitstoffen enthalten sind – gesundheitlich vorteilhaft ist. Bei bestimmten physiologischen oder pathologischen Zuständen soll sich eine antioxidative Nahrungsergänzung sogar nachteilig auswirken: bei Krebspatienten wurden Wechselwirkungen mit antineoplastischen Behandlungsmethoden (Chemotherapie, Strahlentherapie) oder andere schädliche Auswirkungen beschrieben, bei Sportlern wurde in einer 2009 veröffentlichten Studie ein kontraproduktiver Einfluss von Vitamin C und E auf den Trainingseffekt gemessen. Diese Antioxidantien unterdrücken den Anstieg von Radikalen im Körper, so dass er sich weniger gut an die Belastung anpasste. Totale antioxidative Kapazität. Die Bestimmung der totalen antioxidativen Kapazität ("total antioxidant capacity", TAC) in Körperflüssigkeiten liefert einen pauschalen Eindruck über die relative antioxidative Aktivität einer biologischen Probe. Es stehen verschiedene Möglichkeiten für die Bestimmung der antioxidativen Kapazität in Körperflüssigkeiten zur Verfügung. Das Grundprinzip all dieser Methoden ist gleich. Die in der biologischen Probe enthaltenen Antioxidantien schützen ein Substrat vor dem durch ein Radikal induzierten oxidativen Angriff. Die Zeitspanne und das Ausmaß, mit der die Probe diese Oxidation verhindert, kann bestimmt werden und wird meist mit Trolox (wasserlösliches Vitamin-E-Derivat) oder Vitamin C als Standard verglichen. Je länger es dauert, ein Substrat zu oxidieren, desto höher ist die antioxidative Kapazität. Durch verschiedene Extraktionen kann man die antioxidative Kapazität lipidlöslicher und wasserlöslicher Substanzen untersuchen. Oft angewandte Tests sind TRAP, ORAC, TEAC, FRAP und PCL. Angesichts der Bedeutung der Antioxidantien bei der Reduzierung der Risiken von chronischen Erkrankungen wurde 2010 in den USA die totale antioxidative Kapazität durch Ernährung und Nahrungsergänzungsmittel bei Erwachsenen untersucht. Dabei wurden Datenbanken des US-Department für Landwirtschaft, Daten zu Nahrungsergänzungsmitteln und zum Lebensmittelverzehr von 4391 US-Erwachsenen im Alter ab 19 Jahren ausgewertet. Um die Daten zur Aufnahme von einzelnen antioxidativen Verbindungen zu TAC-Werten zu konvertieren, wurde die Messung des Vitamin-C-Äquivalent (VCE) von 43 antioxidativen Nährstoffen zuvor angewendet. Die tägliche TAC lag durchschnittlich bei 503,3 mg VCE/Tag, davon ca. 75 % aufgenommen durch die Nahrung und 25 % durch Nahrungsergänzungsmittel. Technische Verwendung. In der Industrie werden Antioxidantien als Zusatzstoffe (Additive) benötigt, um die oxidative Degradation von Kunststoffen, Elastomeren und Klebstoffen zu verhindern. Sie dienen außerdem als Stabilisatoren in Treib- und Schmierstoffen. In Kosmetika auf Fettbasis, etwa Lippenstiften und Feuchtigkeitscremes, verhindern sie Ranzigkeit. In Lebensmitteln wirken sie Farb- und Geschmacksverlusten entgegen und verhindern ebenfalls das Ranzigwerden von Fetten. Obwohl diese Additive nur in sehr geringen Dosen benötigt werden, typischerweise weniger als 0,5 %, beeinflussen ihr Typ, die Menge und Reinheit drastisch die physikalischen Parameter, Verarbeitung, Lebensdauer und oft auch Wirtschaftlichkeit der Endprodukte. Ohne Zugabe von Antioxidantien würden viele Kunststoffe nur kurz überleben. Die meisten würden sogar überhaupt nicht existieren, da viele Plastikartikel nicht ohne irreversible Schäden fabriziert werden könnten. Das Gleiche gilt auch für viele andere organische Materialien. Kunst-, Kraft- und Schmierstoffe. Es kommen hauptsächlich sterisch gehinderte Amine ("hindered amine stabilisers", HAS) aus der Gruppe der Arylamine zum Einsatz und sterisch gehinderte Phenolabkömmlinge, die sich strukturell oft vom Butylhydroxytoluol ableiten (Handelsnamen "Irganox", "Ethanox", "Isonox" und andere). Lebensmittel, Kosmetika, Arzneimittel. Zulässige Antioxidantien sind in der Zusatzstoff-Zulassungsverordnung und der Kosmetikverordnung geregelt. Es kommen sowohl natürliche als auch synthetische Antioxidantien zum Einsatz. Beispiele für antioxidative Lebensmittelzusatzstoffe sind in der Tabelle angegeben. Als Lebensmittelzusatz seit 1968 nicht mehr erlaubt ist aufgrund lebertoxischer Wirkungen die Nordihydroguajaretsäure, ein höchst wirksames Antioxidans zur Haltbarmachung von Fetten und Ölen. Sie ist aber weiterhin in kosmetischen Präparaten verwendbar. Lebensmitteltechnisch und pharmazeutisch gebräuchliche Antioxidationssynergisten sind unter anderem Citronensäure und ihre Salze (E330-E333), Weinsäure und ihre Salze (E334-E337), Phosphorsäure und ihre Salze (E338-E343) und Ethylendiamintetraessigsäure (EDTA) und ihre Salze (Calciumdinatrium-EDTA, E385). Aszites. Der Aszites (gr. "askítēs"; Synonyme Hydraskos, Bauchwassersucht) ist eine pathologische (krankhafte) Ansammlung klarer seröser Flüssigkeit im Peritonealraum. Bei Gesunden enthält der Peritonealraum zirka 50 bis 70 Milliliter Flüssigkeit, bei vielen Krankheiten lässt sich dagegen erheblich mehr Flüssigkeit nachweisen. Symptomatik. Kleinere Aszitesmengen sind meist symptomlos. Erst größere Volumina machen sich als Schwellung des Bauches bemerkbar, die meist schmerzlos ist. Ätiologie und Pathophysiologie. Allen Ursachen gemeinsam ist der Übertritt von Flüssigkeit aus den Blutgefäßen in den Peritonealraum. Die pathophysiologischen Mechanismen sind somit ähnlich wie beim Ödem: Tumoraussaat oder Bauchfellentzündung führen zur Ausschüttung von Entzündungsfaktoren, welche die Gefäßwand flüssigkeitsdurchlässiger werden lassen. Mangelernährung und andere Ursachen können über Albuminmangel (Hypoalbuminämie) zu einer Verringerung des kolloidosmotischen Druckes des Blutes führen und so die Entstehung von Aszites verursachen oder begünstigen („Hungerbauch“). Gleiches gilt für auftretende Stauungen des Blutabflusses, bei Rechtsherzinsuffizienz die untere Hohlvene oder bei Leberzirrhose die Pfortader betreffend. Von malignem Aszites spricht man, wenn die Ursache der Bauchwassersucht auf eine Tumorerkrankung zurückzuführen ist. Auslöser können ein massiver Befall des Bauchfells mit Metastasen (Peritonealkarzinose) oder portale Hypertension bzw. Hypalbuminämie infolge von Leberkrebs oder Lebermetastasen sein. Diagnostik. Geringe Mengen freier Flüssigkeit (*) zwischen Leber und Niere im Ultraschallbild Große Mengen Aszites um die Leber herum Komplikationen. Eine gefährliche Komplikation des Aszites ist die spontane bakterielle Peritonitis (SBP): Bei etwa 15 % der Patienten mit portalem Aszites (also Aszites aufgrund einer Druckerhöhung in der Pfortader wie bei Leberzirrhose) kommt es zu einer Auswanderung von Darmbakterien aus dem Darm mit anschließender Peritonitis. Die häufigsten Erreger sind hierbei "Escherichia coli" (50 %), grampositive Kokken (30 %) und Klebsiellen (10 %). Die Patienten haben meist weder Fieber noch Abdominalschmerzen, diagnostisch hilft die Aszitespunktion, bei der sich über 250 Granulozyten/µl finden. Der Keimnachweis gelingt oft nicht. Dennoch ist die SBP mit einer hohen Letalität von bis zu 50 % verbunden. Therapie: Cephalosporine der dritten Generation, anschließend Rezidivprophylaxe mit oralem Fluorchinolon. Eine neuere mikrobiologische Studie widerlegt allerdings die Vermutung, dass die für SBP verantwortlichen Bakterien ausschließlich Mitglieder der Darmflora sind. Außerdem waren Bakterien bereits vor dem Erscheinen der SBP-Symptome nachweisbar. Die genauen Mechanismen, die zu einer Besiedlung des Peritoneums führen, sind daher weitgehend unklar.gabe und anschließender Rezidivprophylaxe mit Diuretika (Medikamente zur Steigerung der Nierenausscheidung), behandelt werden. Bei dieser Methode wird der Erguss durch die Bauchdecke punktiert und abgelassen. Da sich der Aszites meist schnell wieder bildet, muss diese Methode zwangsläufig wiederholt werden. Dies kann vom Arzt zwar ambulant durchgeführt werden. Nachteil dabei ist, dass bei jeder Wiederholung das Risiko der Blutung, Bakterien-Infektion des Bauchraums und Verletzungen vorhanden ist. Es hat sich gezeigt, dass Patienten aufgrund der Schmerzen und Unannehmlichkeiten oft die Punktionen hinauszögern, bis die Symptome unerträglich sind. Als Alternative zu den fortlaufenden Punktionen hat sich in letzter Zeit das Legen eines dünnen Ablaufschlauches (PleurX Aszites) in die Bauchhöhle bewährt. Der im Bauchraum liegende Teil des Silikonschlauches hat mehrere Löcher, über die der Erguss in den Katheter eintreten kann. Außerhalb der Bauchhöhle verläuft der Schlauch im Unterhautfettgewebe, um bakterielle Entzündungen zu verhindern. Am Ende des Schlauches befindet sich ein Ventil, das Eintreten von Luft und das Auslaufen von Flüssigkeit verhindert, wenn keine aktive Entlastung durch den Patienten oder den Pflegedienst stattfindet. Die Entlastung des Ergusses erfolgt mit einer Vakuumflasche, die über ein Spezialventil mit dem Katheter verbunden wird. Wenn die Klemmen an der Drainageflasche geöffnet werden, kann Flüssigkeit aus dem Bauchraum aktiv und schnell abgelassen werden. Die meisten Patienten können dies nach einer Einweisung selbst bewerkstelligen. Der Katheter kann ambulant mit örtlicher Betäubung gelegt werden, das Ablassen des Aszites selbst ist schmerzfrei. Ebenso kann ein TIPS (Transjugulärer intrahepatischer portosystemischer (Stent-)Shunt), also eine Verbindung zwischen der Pfortader und der unteren Hohlader, angelegt werden. Hierbei kommt es anschließend allerdings zu einem beinahe ungehinderten Anstrom der normal von der Leber abgebauten Stoffe in den Körperkreislauf. Eine weitere Therapieoption stellt bei Leberzirrhose die Transplantation dar. Maligner Aszites wird häufig mit wiederholten Parazentesen behandelt. Zudem kommen Shunts und Chemotherapien zum Einsatz, die teilweise direkt in den Peritonealraum (intraperitoneal) verabreicht werden, ebenso wie der speziell für die Therapie des Malignen Aszites zugelassene Antikörper Catumaxomab. Zwei wissenschaftliche Studien aus den Jahren 2011 und 2013 zeigen als Alternative zur Parazentese bei malignem und nicht malignem Aszites die Anlage eines im Unterhautfettgewebe getunnelten Katheters. Der Patient, seine Angehörigen oder der Pflegedienst kann im häuslichen Umfeld den Aszites drainieren. Aggregat 4. A4 (National Air & Space Museum, Washington, ca. 2004) Aggregat 4 (A4) war die Typenbezeichnung der weltweit ersten funktionsfähigen Großrakete mit Flüssigkeitstriebwerk. Die ballistische Boden-Boden-Rakete wurde im Deutschen Reich in der Heeresversuchsanstalt Peenemünde (HVA) auf Usedom ab 1939 unter der Leitung von Wernher von Braun entwickelt und kam im Zweiten Weltkrieg ab 1944 in großer Zahl zum Einsatz. Als eine der „Wunderwaffen“ der NS-Propaganda wurde neben der Fieseler Fi 103 (V1) die A4 im Oktober 1944 von Joseph Goebbels zur "Vergeltungswaffe 2", kurz „V2“ erklärt; die Starteinheiten von Wehrmacht und SS nannten sie schlicht „Das Gerät“. Die A4 war als ballistische Artillerie-Rakete großer Reichweite konzipiert und das erste von Menschen konstruierte Objekt, das die Grenze zum Weltraum (nach Definition der FAI mehr als 100 km Höhe, die Kármán-Linie) durchstieß. Entwicklung. Die Raketenentwicklung in der Heeresversuchsanstalt war von Anfang an von militärischen Anforderungen geprägt: Seit März 1936 bestand ein Anforderungsprofil für eine Rakete, die eine Tonne Sprengstoff über 250 Kilometer befördern sollte. Neben dem Technischen Direktor Wernher von Braun waren eine große Zahl von Wissenschaftlern und Ingenieuren in der HVA tätig, unter ihnen Walter Thiel, Helmut Hölzer, Klaus Riedel, Helmut Gröttrup, Kurt Debus und Arthur Rudolph. Leiter der HVA bzw. deren Kommandant war Major Walter Dornberger, Chef der Raketenabteilung im Heereswaffenamt. Die Vorgängermodelle der Aggregat 4 waren nur teilweise erfolgreich: Aggregat 1 explodierte beim Brennversuch in der Heeresversuchsanstalt Kummersdorf, Aggregat 2 absolvierte 1934 zwei erfolgreiche Starts auf Borkum, und im Dezember 1937 hatte Aggregat 3 vier Fehlstarts. Erst der direkte Nachfolger Aggregat 5 war 1938 erfolgreich. Die Aggregat 4 wurde ab 1939 entwickelt und erstmals im März 1942 getestet. Am 3. Oktober 1942 gelang ein erfolgreicher Start, bei dem sie mit einer Spitzengeschwindigkeit von fast Mach 5 (4824 km/h) eine Gipfelhöhe von 84,5 km erreichte und damit erstmals in den Grenzbereich zum Weltraum eindrang. Am 20. Juni 1944 wurde bei einem Senkrechtstart eine Höhe von 174,6 km erzielt. Am 20. Mai 1944 stellten Mitglieder der Polnischen Heimatarmee Teile einer abgestürzten A4 sicher. Die wichtigsten Teile wurden zusammen mit den in Polen vorgenommenen Auswertungen in der Nacht vom 25. Juli zum 26. Juli 1944 von einer Dakota der RAF, die in der Nähe von Żabno gelandet war, nach Brindisi ausgeflogen (Operation Most III). Von dort aus kamen die Teile nach London. Nach dem ersten Luftangriff auf die militärischen Anlagen bei Peenemünde am 17. August 1943 (Operation Hydra) wurden viele Schießübungen der A4 mit scharfem Sprengkopf vor allem zur Ausbildung der Raketeneinheiten durchgeführt. Anfangs auf dem Truppenübungsplatz Heidelager bei Blizna im südlichen Polen (damals „Generalgouvernement“), verlegte man die Übungen wegen des Näherrückens der Roten Armee in die Tucheler Heide nördlich von Bromberg auf den Truppenübungsplatz Westpreußen. Die Bevölkerung um Blizna wurde dabei rücksichtslos den A4- und „V1“-Einschlägen ausgeliefert. Auf Flugblättern warnte man vor Ort lediglich vor gefährlichen Kraftstoffbehältern, die aber keine Bomben seien. Neben den Tests von der HVA Peenemünde und der Greifswalder Oie aus erfolgten dort noch bis zum 21. Februar 1945 Versuchsstarts von A4-Raketen. Aufbau. Aufbau der Rakete "Aggregat 4" Sprengstoff. Die etwa 738 kg Sprengstoff einer Amatol-Mischung waren in der Raketenspitze untergebracht. Da sich diese während des Flugs durch die Reibung aufheizte, konnten nur Sprengstoffmischungen verwendet werden, deren Zündtemperatur über 200 °C lag. Steuerung. Für die Stabilisierung und Steuerung sorgte das Leitwerk mit den Luftrudern, welche aber erst bei höherer Geschwindigkeit wirkten. Kurz nach dem Start waren die direkt im Gasstrom liegenden vier Strahlruder aus Graphit für die Stabilisierung zuständig. Alle Ruder wurden von Servomotoren bewegt. Als einer der ersten Flugkörper war die A4 mit einem für die damalige Zeit sehr fortschrittlichen Trägheitsnavigationssystem ausgestattet, das mit zwei Kreiselinstrumenten (Gyroskopen) selbsttätig den eingestellten Kurs hielt. Die elektrische Energie für Kurssteuerung und Ruderanlage wurde den beiden Bordbatterien entnommen, die aus dem Werk Hagen der Accumulatoren Fabrik AG (AFA) stammten. Die Batterien waren unterhalb des Sprengkopfes im Geräteraum eingebaut, wo sich auch das sogenannte „Mischgerät“ befand, ein elektronischer Analogrechner, der die von den Gyroskopen registrierten Abweichungen von Quer- und Seitenachse auswertete und zur Kurskorrektur die Servomotoren der Strahl- und Luftruder ansteuerte. Um eine bessere Zielgenauigkeit zu erreichen, wurde in mehreren Versuchsraketen auch eine Funksteuerung erprobt, die aber im späteren Einsatz wegen möglicher Störungen von Seiten des Feindes nicht verwendet wurde. Die beim Start eingestellte Zeitschaltuhr sorgte dafür, dass der Neigungswinkel der Kreiselplattform nach drei Sekunden Brennzeit so verändert wurde, dass die Rakete aus der Senkrechten in eine geneigte Flugbahn überging. Der Neigungswinkel war so eingestellt, dass sich je nach zu erzielender Entfernung die gewünschte ballistische Flugbahn ergab. Vor dem Start musste die Rakete auf ihrem Starttisch exakt senkrecht gestellt und so gedreht werden, dass eine besonders markierte Flosse in Zielrichtung zeigte. Antrieb. Das Aggregat 4 war eine Flüssigkeitsrakete und wurde mit einem Gemisch aus 75-prozentigem Ethanol und Flüssigsauerstoff angetrieben. Unter der Leitung des Ingenieurs Walter Thiel wurden das beste Mischungsverhältnis der Treibstoffe, die Einspritzdüsenanordnung sowie die Formgebung des Raketenofens ermittelt. Eine Pumpenbaugruppe war nötig, welche die großen Mengen an Alkohol und flüssigem Sauerstoff in die Brennkammer fördern konnte, um die erforderliche Schubkraft des Triebwerks zu erzeugen. Zum Antrieb dieser Doppelpumpe diente eine integrierte Dampfturbine von 500 PS Leistung. In einem Dampferzeuger wurde durch die katalytische Zersetzung von Wasserstoffperoxid mittels Kaliumpermanganat Dampf erzeugt. Zur Förderung des Wasserstoffperoxids war auf 200 Bar komprimierter Stickstoff in mehreren Druckbehältern an Bord; dieser diente auch zur Betätigung diverser Ventile. Die Kreiselsteuerung und das präzise und daher sehr aufwendig zu fertigende Pumpenaggregat waren die beiden teuersten Bauteile des A4. Die Rakete erreichte nach einer Brenndauer von etwa 60 Sekunden ihre Höchstgeschwindigkeit von etwa 5500 km/h (etwa Mach 5). Die Verbrennungsgase verließen den Brennofen (Raketenmotor) mit ca. 2000 m/s. Da der gesamte Flug bei einer Reichweite von 250 bis 300 km nur 5 Minuten dauerte, gab es damals keine Abwehrmöglichkeit gegen diese Waffe. Fertigung. Kohnstein, Stollen für die Produktion der „V2“, Rümpfe, 1945 Die Fertigungsstätten für Teile der A4 waren über ganz Deutschland und Österreich verstreut: Unter dem Tarnnamen „Lager Rebstock“ bei Dernau an der Ahr wurden in unfertigen Eisenbahntunneln Bodenanlagen und Fahrzeuge für die Rakete unter Tage produziert. Zwischen 1942 und September 1944 wurde unter starker Geheimhaltung auch in Oberraderach gefertigt. Das Gelände wurde im Januar 1945 beim Herannahen französischer Truppen geräumt. Weitere Lieferanten waren die Firmen "Gustav Schmale" in Lüdenscheid, in der Teile der Brennkammer gefertigt wurden, und die "Accumulatoren Fabrik AG" (AFA) in Hagen-Wehringhausen, die die speziellen Akkumulatoren herstellte. Anfang 1944 wurde im KZ-Nebenlager Redl-Zipf auf dem Gemeindegebiet von Neukirchen an der Vöckla der Betrieb eines Triebwerksprüfstandes aufgenommen. 1943 lief in insgesamt vier Orten die Serienfertigung der A4, welche, so Dornberger in einem Protokoll zu einer Besprechung mit Gerhard Degenkolb und Kunze, „grundsätzlich mit Sträflingen durchgeführt werde“. Dafür zog man Häftlinge aus folgenden Konzentrationslagern heran: KZ Buchenwald (HVA-Peenemünde ab Juni), KZ Dachau (Luftschiffbau Zeppelin „Friedrichshafener Zeppelinwerke“ ab Juni/Juli), KZ Mauthausen (Rax-Werke in Wiener Neustadt ab Juni/Juli) und KZ Sachsenhausen (DEMAG-Panzer in Falkensee bei Berlin ab März). Einzelne wissenschaftliche Mitarbeiter wählte Wernher von Braun persönlich unter den Häftlingen im KZ-Buchenwald aus. Insgesamt wurden während des Zweiten Weltkrieges 5975 Raketen von Zwangsarbeitern, KZ-Häftlingen und deutschen Zivilbeschäftigten aus tausenden Einzelteilen zusammengebaut. Am 29. Oktober 1944 wurde Dornberger nach dem Einsatz der V2 an der Westfront mit dem Ritterkreuz des Kriegsverdienstkreuzes mit Schwertern ausgezeichnet. Ab 1944 fand die Montage der A4 im unterirdischen Komplex der Mittelwerk GmbH im Kohnstein nahe Nordhausen durch Häftlinge des KZ Mittelbau-Dora statt. Im Schnitt waren etwa 5000 Häftlinge des KZ Mittelbau unter Aufsicht von ungefähr 3000 Zivilangestellten mit dem Zusammenbau beschäftigt. Für das hochtechnologische Projekt wurden auch spezialisierte inhaftierte Facharbeiter und Ingenieure aus dem gesamten Reichsgebiet und den besetzten Staaten gezielt herangezogen. Obwohl viele von ihnen erst nach einer handwerklichen Prüfung in den Kohnstein verschleppt wurden, erwarteten sie dort keine besseren Arbeits- und Haftbedingungen als in anderen Konzentrationslagern. Vielmehr befürchteten sie, dass man sie wegen ihrer Einblicke in dieses Staatsgeheimnis nicht mehr freilassen würde. Wie unmenschlich die Behandlung auch durch zivile Ingenieure zeitweise war, zeigt etwa eine schriftliche Anweisung, die Häftlinge bei Verfehlungen nicht mehr mit spitzen Gegenständen zu stechen. Dennoch kam es immer wieder zu Sabotageakten, die allerdings die Fertigung der Rakete nie ernstlich behinderten. Zwar erwies sich bei der Endabnahme jede zweite Rakete als nicht voll funktionstüchtig und musste nachgebessert werden, dies lag jedoch in erster Linie daran, dass die Ingenieure aus Peenemünde fast täglich bauliche Änderungen vorgaben, die den laufenden Produktionsprozess erheblich beeinträchtigten. Opfer. 16.000 bis 20.000 KZ-Häftlinge und Zwangsarbeiter, die meisten zwanzig- bis vierzigjährig, starben nach zurückhaltenden Schätzungen zwischen September 1943 und April 1945 im Lagerkomplex Mittelbau-Dora, auf Liquidations- oder sogenannten Evakuierungstransporten. Etwa 8.000 Menschen verloren ihr Leben durch den Einsatz der Waffe, die meisten im Raum London und Antwerpen (s.u. Einsatz). Laut Jens-Christian Wagner, Leiter der Gedenkstätte KZ Mittelbau-Dora, sind somit Einziger Ingenieur der „V2“-Produktion, der je vor Gericht gestellt wurde, war der DEMAG-Geschäftsführer und Generaldirektor der Mittelwerk GmbH Georg Rickhey. 1947 im „Dachauer Dora-Prozess“ angeklagt, wurde er freigesprochen, obwohl im Prozess der Mitangeklagte Funktionshäftling Josef Kilian aussagte, dass Rickhey bei einer besonders brutal inszenierten Massenstrangulation von 30 Häftlingen am 21. März 1945 in Mittelbau-Dora anwesend war. Startliste der Versuchsstarts in Peenemünde. Start einer A4 von Prüfstand VII, Sommer 1943 A4-Start, Prüfstand VII, März 1942 Startvorbereitungen einer A4 in Peenemünde a>“ der V2-Nachbildung im HIT Peenemünde Für den Zeitraum zwischen Juli 1943 und Februar 1945 liegen keine vollständigen Startlisten vor. Bei einem Versuchsstart am 13. Juni 1944 zur Erprobung von Komponenten der Flugabwehrrakete Wasserfall stürzte eine von Peenemünde aus gestartete A4-Rakete in Südschweden ab. Einsatz. Start einer V2 aus einem Waldstück bei Den Haag Als am 8. September 1944 die erste A4 nur den Vorort Chiswick und nicht etwa die Großstadt London traf, gestand selbst Dornberger ein, dass es sich bei der A4 um eine „unzureichende“ Waffe handele. Trotzdem taufte sofort Propagandaminister Goebbels die A4 in „V2“ um und propagierte diese als „Vergeltungswaffe“. Mit Sprengköpfen bestückt und von mobilen Startrampen aus wurden mit ihr vor allem London und später Antwerpen bombardiert; London nach offizieller Verlautbarung als Vergeltung für britische Bombenangriffe. Zwar war die Treffergenauigkeit gering, aber die plötzlichen Einschläge ohne Vorwarnung übten eine psychologische Wirkung (Demoralisierung) auf die Beschossenen aus, wenngleich diese wohl niedriger war als bei der V1. Während man bei Angriffen der V1 noch Fliegeralarm auslösen konnte, war dies durch die hohe Geschwindigkeit der A4 kaum noch möglich, da der Überschallknall erst nach der plötzlichen Explosion zu hören war. Schon 1943 hatte die NS-Propaganda zur Erwiderung alliierter Luftangriffe auf deutsche Städte die Bombardierung Englands mit „Vergeltungswaffen“ angekündigt, um den Durchhaltewillen der deutschen Bevölkerung und den Kampfgeist der an der Front kämpfenden Soldaten aufrechtzuerhalten. Mit ständigen Beschwörungen von der Wirksamkeit der neuen „Wunderwaffen“ propagierte das NS-Regime den Glauben, die Wehrmacht habe mit neuen überlegenen Waffensystemen ein technisches Mittel in Händen, um die Wende im Krieg doch noch herbeiführen zu können. Allerdings schlug die nach dem Kriegseinsatz der „Vergeltungswaffen“ kurzzeitig entstandene euphorische Stimmung der Bevölkerung schon im Sommer 1944 wieder in Skepsis um, als die V-Raketen nicht die erwarteten spürbaren Erfolge erzielen konnten. Auch vor dem Hintergrund der sich abzeichnenden Niederlage versprach am 30. Januar 1945 Adolf Hitler in seiner letzten Rundfunkrede immer noch den „Endsieg“ durch einen verstärkten Einsatz sogenannter „Wunderwaffen“, zu denen auch die „V2“ gehörte. Wie wenig die propagierte Bezeichnung Vergeltungswaffe für die A4 zutraf, zeigen die Äußerungen von Walter Dornberger Ende März 1942, der Raketeneinsatz sei derart geplant, dass „bei Tag und Nacht in unregelmäßigen Abständen, unabhängig von der Wetterlage, sich lohnende Ziele wie London, Industriegebiete, Hafenstädte, pp. unter Feuer genommen werden“. Zuvor hatte er schon, als er Juli 1941 für das neue Waffensystem warb, auf die „nicht mehr vorhandene Luftüberlegenheit“ hingewiesen. Damit nahm er ganz klar auf die verlorene Luftschlacht um England Bezug. Bereits ab Ende 1939 ging es schon dem Entwurf nach in der Sache um eine Kriegsrakete. Auch Hitler drohte deutlich im September 1940: „Wir werden ihre Städte ausradieren!“ Gefallener US-Soldat nach einem V2-Angriff auf Antwerpen am 27. November 1944 Kuppelbau von Helfaut-Wizernes, A4-Raketenbunker, Nord-Frankreich, September 1944, Rekonstruktion Von Den Haag aus wurden 1039 Raketen gestartet, die vor allem auf London gerichtet waren. Bei einem alliierten Luftangriff auf die Startrampen am 3. März 1945 kamen 510 Menschen ums Leben. In Frankreich waren mehrere große Bunker zum Start der A4 geplant oder im Bau, welche aber durch Bombardierungen oder wegen des Vormarschs der Alliierten nach der Invasion nicht mehr fertiggestellt wurden und nicht zum Einsatz kamen. Die bekanntesten sind das Blockhaus von Éperlecques, der Kuppelbau von Helfaut-Wizernes und die Anlagen im Raum Cherbourg. Die Raketenstarts gegen die diversen Städte sind als reine Terrormaßnahmen gegen Zivilisten zu werten. Ausnahmen waren zum einen die elf erfolglosen Starts gegen die Ludendorff-Brücke bei Remagen und Erpel, nachdem die Rhein-Brücke von den Alliierten eingenommen worden war. Zum anderen die 1610 Einsätze gegen den Seehafen von Antwerpen. Die „V2“-Treffer behinderten hier zumindest den Truppentransport der Alliierten für Wochen ganz erheblich. Am meisten hatte aber auch hier die Zivilbevölkerung zu leiden. Die letzte Rakete im Kampfeinsatz wurde am 27. März 1945 von deutscher Seite gegen Antwerpen gestartet. Danach wurden nach und nach nahezu alle A4-Batterien aufgelöst. Trotzdem wurden noch Vorbereitungen für das VIII. Sonderschießen getroffen. Dazu war die ehemalige „Lehr- und Versuchsbatterie 444“, jetzt umbenannt in „Lehr- und Versuchsabteilung z. V.“, bereits am 28. Januar 1945 aus dem Einsatz in Holland zurückgezogen und zur Ruhe und Auffrischung nach Buddenhagen (Wolgast) befohlen worden. Von hier aus verlegte man diese Abteilung zusammen mit der „Gruppe Erprobung“ bzw. dem „Entwicklungskommando Rethem“ über Rethem (Aller) in den Raum Kirchlinteln (Kreis Verden (Aller)). Ziel des Sonderschießens war die „Schwerpunkterhöhung der Treffgenauigkeit und Einschlagprozente“. Die Zielpunkte lagen im Wattenmeer östlich der Insel Sylt und zwischen den dänischen Inseln Römö und Fanö. Im Zeitraum von Mitte März 1945 bis zum 6. April 1945 wurden aus zwei Startstellungen etwa zehn Versuchsraketen abgefeuert. Dabei kam auch die Steuerung mit Hilfe der Leitstrahltechnik zum Einsatz. Nach dem Abzugsbefehl vom 6. April 1945 durch General Hans Kammler (der am 9. Mai Suizid beging) verlegte man die „Lehr- und Versuchsabteilung z. V.“ aus dem „Stellungsraum Neddenaverbergen“ (heute Gemeinde Kirchlinteln, Kreis Verden/Aller) über den Kreis Herzogtum Lauenburg nach Welmbüttel im Kreis Dithmarschen in Schleswig-Holstein, etwa 10 km östlich von Heide gelegen. Hier wurden die mitgebrachten Fahrzeuge und Sondergerätschaften und vermutlich auch einige Raketen, die durch eine nicht weiter bekannte Nachschubeinheit angeliefert worden waren, in einem Moor versenkt bzw. gesprengt. Am 1. Mai 1945 wurden noch 20 bis 30 Soldaten zu einem Flakregiment in den Raum Bargteheide/Trittau abgestellt. Ab dem 3. Mai 1945 wurde die letzte noch existierende und voll ausgerüstete A4-Abteilung aufgelöst, indem die noch verbleibenden Soldaten durch die Vorgesetzten offiziell entlassen wurden. Der Einsatz der A4 als Terrorinstrument führte in London zu Diskussionen, diesen mit Chemischen Waffen zu vergelten. Insgesamt forderte der Einsatz der A4-Raketen mehr als 8000 Menschenleben, hauptsächlich Zivilisten. Die größte Zahl an Opfern auf einen Schlag war am 16. Dezember 1944 in Antwerpen zu beklagen, als eine A4 das vollbesetzte Kino „Rex“ traf und 567 Menschen tötete. Weiterentwicklung. a> – Rakete, die Amerika treffen sollte Wernher von Braun hatte den Auftrag erhalten, eine Waffe mit der Reichweite von 300 km und einer Sprengkraft von etwa einer Tonne zu bauen, wofür er Geld und Personal vom Militär und später von der SS zur Verfügung gestellt bekam. Am 24. Januar 1945 wurde in Peenemünde eine geflügelte Version der A4-Rakete, die A4b, erstmals erfolgreich gestartet. Sie sollte die doppelte Reichweite der A4 erreichen, stürzte allerdings wegen eines Flügelbruchs vorzeitig ab. Zu weiteren Starts dieses Flugkörpers kam es aufgrund der Kriegslage nicht mehr. Von 1943 bis zum Kriegsende 1945 entwickelte man zudem eine Interkontinentalrakete. Diese war als zweistufige Fernrakete ausgelegt und trug die Bezeichnung A 9/10. Sie übertraf die A4 in Umfang und Höhe um das Doppelte. Die A 9/10 bestand aus zwei unabhängigen Raketen, der A10 und der A9, die bis zum Abtrennen der ausgebrannten Startrakete A10 unter einer gemeinsamen Hülle miteinander verbunden blieben. Nach dem Ausbrennen der A10 sollte der Weiterflug von der A9 übernommen werden, die in etwa den Plänen der späteren A4b entsprach. Die projektierte Reichweite dieser sogenannten „Amerikarakete“, deren erklärtes Ziel es war, New York anzugreifen, betrug 5500 km. Über das Planungsstadium kam dieses Projekt jedoch nicht hinaus. Allerdings war der Prüfstand VII der HVA-Peenemünde schon beim Bau 1938 für die A9-/A10-Rakete dimensioniert. Nach dem Krieg. Den Amerikanern waren am 29. März 1945 auf einem Militärzug am Bahnhof Bromskirchen in Hessen zehn komplette A4-Raketen des "Artillerieregimentes z.b.V. 901 (mot)" mit den mobilen Startrampen, Treibstoff und Bedienungsanleitung in die Hände gefallen. Dieser Zug war auch in den alliierten Wochenschauen ausführlich thematisiert worden. Der Zug sollte die Raketen vom Westerwald kommend am 22. März über die Aar-Salzböde-Bahn in neue Stellungen im Raum Schelderwald bzw. in die Nähe von Marburg bringen. Diese zehn A4 wurden drei Tage später von den Amerikanern vom Hafen Antwerpen aus in die USA verschifft, wo sie die Grundlage der neuen amerikanischen Raketentechnik bildeten. Am 2. Mai 1945 stellte sich von Braun der US-Armee und wurde zusammen mit anderen Wissenschaftlern aus seinem Mitarbeiterstab ebenfalls in die USA geschickt (Operation Paperclip). Die Briten ließen im Oktober 1945 mehrere A4-Raketen durch Kriegsgefangene aus ehemaligen deutschen Starteinheiten in der Nähe von Cuxhaven starten, um Vertretern der alliierten Besatzungsmächte die „Wunderwaffe V2“ beim Start zu demonstrieren (Operation Backfire). Hierbei entstand auch ein zunächst geheimer Dokumentarfilm, der heute im Museum Peenemünde zu sehen ist. Start einer modifizierten A4 am 24. Juli 1950 von Cape Canaveral a>, aus ca. 105 km Höhe von einer modifizierten White-Sands-A4 aufgenommen, 24. Oktober 1946 Start einer V2 vom Flugzeugträger "Midway" am 6. September 1947 Etwa 100 erbeutete A4 und Teile davon wurden im Mittelwerk Nordhausen noch vor dem Einmarsch der Roten Armee von US-Truppen verladen und in die USA verfrachtet. Sie bildeten den Grundstock der Raumfahrtentwicklungen der USA. Eines dieser Exemplare kann im National Air and Space Museum in Washington (D.C.) begutachtet werden, ein weiteres kam anlässlich von Filmarbeiten Ende der 1950er-Jahre wieder nach Deutschland zurück und befindet sich heute im Deutschen Museum in München. Die Übersiedlung der führenden Raketentechniker ab Sommer 1945 in die USA lief im Rahmen der geheimen Operation Overcast. Teststarts mit erbeuteten A4-Raketen in den USA erfolgten beispielsweise im März 1948 von der White Sands Missile Range in New Mexico. Die Modifizierung der A4 mit einer Corporal-Rakete als zweite Stufe nannte man Bumper. Die ersten Raketenstarts von Cape Canaveral in Florida wurden 1950 mit Bumper-Raketen durchgeführt. Auf US-Seite wurden unter anderem Fruchtfliegen im Juli 1946 mit einer A4 transportiert und als erste Organismen im All bezeichnet. In Huntsville (Alabama) wurde mit dem Redstone Arsenal ein erstes Zentrum für die Raketenentwicklung gegründet, wo zusammen mit den deutschen Wissenschaftlern insgesamt 67 A4-Raketen gestartet wurden. Sie bildeten den Grundstock für die späteren Redstone-Raketen und für diverse Weiterentwicklungen ähnlicher Kriegswaffen, letztlich aber auch für die Saturn-V-Raketen. Ebenso wurde von der Sowjetunion zunächst eine große Anzahl von deutschen Wissenschaftlern in der Sowjetischen Besatzungszone schon im Sommer 1945 verhaftet und dann 1946 mit ihren Familien sowie Resten der Raketentechnik und der Fertigungsanlagen in die Sowjetunion gebracht, um dort ebenfalls die Basis für spätere Entwicklungen zu bilden. So war die sowjetische R-1-Rakete ein direkter Nachbau der A4. Sie wurde erstmals 1947 vom Testgelände Kapustin Jar gestartet. Die A4 bildete somit eine der Grundlagen der sowjetischen Raumfahrttechnologie und Raketenwaffen. Im Rahmen der Operation Sandy gelang am 6. September 1947 mit dem Start einer V2 vom Flugdeck des amerikanischen Flugzeugträgers "Midway" erstmals der Start einer Langstreckenrakete von einem Schiff aus. Die gegenseitige Bedrohung mit Raketen von Land wie auch von Unterseebooten aus stellte ein wesentliches Moment des Kalten Krieges dar. Die Firma Canadian Arrow baute im Rahmen des Ansari X-Prize eine (um zwei Meter verlängerte) A4-Rakete nach, die Touristen ins All bringen sollte. "Unser aufwendigstes Projekt war zugleich unser sinnlosestes. Unser Stolz und zeitweilig mein favorisiertes Rüstungsziel erwies sich als einzige Fehlinvestition." Ein offizieller Festakt der deutschen Luft- und Raumfahrtindustrie unter der Schirmherrschaft der damaligen Bundesregierung zum 50. Jahrestag des Erstfluges der „V2“ wurde erst wegen internationaler Proteste kurzfristig abgesagt. Die A4-Großrakete wurde im Ausland stark mit dem KZ Mittelbau-Dora in Bezug gebracht, in dem auch KZ-Insassen die Rakete in Serienfertigung bauten. Museale Rezeption. Im Militärhistorischen Museum der Bundeswehr in Dresden ist eine vollständig erhaltene „V2“-Rakete in der Dauerausstellung aufgestellt. Auch in der Luft- und Raumfahrtabteilung des Deutschen Museums in München befindet sich eine komplette A4-Rakete. Das Heeresgeschichtliche Museum in Wien besitzt in der Dauerausstellung „Republik und Diktatur“ (Saal VII) ein Triebwerk einer „V2“, das kurz nach dem Kriegsende aus dem Toplitzsee, wo zwischen 1943 und 1945 zahlreiche waffentechnische Versuche durchgeführt worden waren, geborgen wurde. Im Deutschen Museum Flugwerft Schleißheim und im Deutschen Technikmuseum Berlin ist ebenfalls je ein A4-Triebwerk ausgestellt. Zusammenhänge und Hintergründe sind in der ständigen Ausstellung der KZ-Gedenkstätte Mittelbau-Dora (Nordhausen) dokumentiert; Besichtigungen der Untertageanlage sind möglich. Ares. Ares (;, gespr. "Áris") ist in der griechischen Mythologie der Gott des schrecklichen Krieges, des Blutbades und Massakers. Er gehört zu den zwölf olympischen Gottheiten, den Olympioi. Obwohl die Bedeutung nicht ganz gleich ist, wurde er später von den Römern dem eigenen Kriegsgott Mars gleichgestellt. Doch stand Mars bei den Römern höher im Ansehen als Ares bei den Griechen. Deutung. Die etymologischen Wurzeln des Namens sind unklar, vermutlich bedeutet "Ares" der „Verderber“, der „Rächer“. Wahrscheinlich stammt die Gestalt des mordenden Ares aus dem bronzezeitlichen Thrakien, sie wird auch mythologisch als seine Heimat genannt. Aber bereits in mykenischer Zeit (1600–1050 v. Chr.) ist er auf dem griechischen Festland nachweisbar und verbreitet. Möglich auch, dass er in vorgriechischer Zeit ein Fruchtbarkeitsgott und seiner italischen Entsprechung ähnlicher war. Mythos. Als ehelicher Sohn des Zeus und der Hera gehörte er nach Hesiod zu den zentralen Gestalten in der griechischen Götterwelt. Ares wird als roher, wilder, nicht zu bändigender Kriegsgott beschrieben, der Gefallen an Gewalt findet und mit den wilden Tieren zog, um sich an deren Blut zu laben. Während Athene, die Göttin der Weisheit und der Kriegslist, für den heroischen Part des Krieges steht, ist Ares eher ein finsterer Gott. Er ist aggressiv, grausam, unbarmherzig und blutrünstig, mischt sich auch des Öfteren aktiv in die Gefechte der Sterblichen ein und stachelt deren Kampfgeist weiter auf. Streit, Plünderungen, Blutbäder, das Geräusch klirrender Waffen und das Geräusch brechender Knochen bereiten ihm großes Vergnügen. Mit den schönen Künsten der anderen Götter konnte Ares nur wenig anfangen. Mit seinen Eigenschaften war er auch bei den anderen olympischen Göttern unbeliebt, ja verhasst. Obwohl Ares als Kriegsgott bei Göttern und Menschen verhasst war – selbst sein Vater Zeus verachtete ihn – galt er doch auch, über die Verkörperung des Männern vorbehaltenen Kriegshandwerkes, als Sinnbild männlicher Kraft und Schönheit. Mythologisch wird dies in seiner Liebesbeziehung zur Liebesgöttin Aphrodite versinnbildlicht. Diese, obwohl mit dem rechtschaffenen, aber missgestalteten Gott der Schmiede Hephaistos verheiratet, fühlt sich von ihm angezogen und lässt sich auf eine leidenschaftliche und andauernde Affäre mit Ares ein. Der vom Sonnengott Helios davon unterrichtete eifersüchtige Ehemann bringt all seine Handwerkskunst auf und schmiedet ein unsichtbares unzerreißbares Netz, mit welchem er beide in flagranti erwischt. Die so Übertölpelten werden den herbei gerufenen Göttern vorgeführt, die sich aber nicht entrüsten, sondern auf Hephaistos Kosten in ein unstillbares Gelächter ausbrechen. In einigen Varianten wird Eros, der mit Pfeil und Bogen bewaffnete Liebesgott, als gemeinsamer Sohn von Ares und Aphrodite angesehen. Des Weiteren werden nach Hesiod dieser Verbindung Anteros (Gott der verschmähten, unerwiderten Liebe) und Harmonia (Göttin der Eintracht) zugesprochen sowie seine wichtigsten Begleiter, die Götter Deimos (Gott des Grauens), Phobos (Gott der Furcht) und Enyalios (Gott des Kampfes). Wie anderen Göttern auch, werden ihm zahlreiche Liebschaften innerhalb und auch außerhalb der Welt der Unsterblichen nachgesagt. So werden unter anderem die ihn auf Schritt und Tritt ständig begleitende Göttin des Neides und der Zwietracht Eris, die Göttin der Morgenröte Eos und etliche Sterbliche erwähnt. Zu seinen Verbündeten zählen Hades, der Beherrscher der Unterwelt, Ker, die Göttin des gewaltsamen Todes und Ate, die Göttin der Verblendung. Während des Trojanischen Krieges kämpfte er auf Seiten der Trojaner, wird jedoch von einem Speer getroffen und muss das Schlachtfeld vorzeitig verlassen. Auf dem Olymp wird er später von Asklepios (Gott der Heilkunst) behandelt und lässt sich von seiner Schwester Hebe ausgiebig baden. Die kriegerischen und ebenfalls nahe Thrakien angesiedelten Amazonen wurden mit Ares als Stammvater in Verbindung gebracht. Kult. Anders als seine römische Entsprechung wurde Ares kaum kultisch verehrt, galt doch bereits jeder Krieg – den die Griechen oft auch miteinander führten – als eine Huldigung für ihn. Als seltene und berühmteste Ausnahme kultischer Orte ist hier der Areopag zu nennen, dessen Namenspate er ist, wobei dies ebenfalls mythologisch begründet wird. Andere Kultstätten sind in Ätolien, Thessalien oder Athen zu finden; im peloponnesischen Hermione stand eine Kultstatue von ihm. Darstellung. Als unbeliebter und ungern gehuldigter Gott war er selten Gegenstand in der Kunst, anders seine römische Entsprechung. Ares’ Symbole sind: brennende Fackel, Hund und Geier sowie für einen Kriegsgott typisch Schwert, Helm und Schild. Angola. Angola (,; auf Kimbundu, Umbundu und Kikongo Ngola genannt) ist ein Staat in Südwest-Afrika. Nationalfeiertag ist der 11. November, Tag der Unabhängigkeit (1975). Angola grenzt an Namibia, Sambia, die Republik Kongo, die Demokratische Republik Kongo und den Atlantischen Ozean – die zu Angola gehörige Exklave Cabinda liegt im Norden zwischen der Demokratischen Republik Kongo und der Republik Kongo am Atlantik. Der Name "Angola" leitet sich von dem Titel "Ngola" der Könige von Ndongo, einem östlich von Luanda gelegenen Vasallenstaat des historischen Kongoreiches, ab. Die Region um Luanda erhielt diesen Namen im 16. Jahrhundert durch die ersten portugiesischen Seefahrer, die an der dortigen Küste anlandeten und ein Padrão, ein steinernes Kreuz, errichteten, als Zeichen der Inbesitznahme für den portugiesischen König. Die Bezeichnung wurde Ende des 17. Jahrhunderts auf die Region um Benguela ausgedehnt, im 19. Jahrhundert dann auf das (damals noch nicht umgrenzte) Territorium, dessen koloniale Besetzung sich Portugal vornahm. Geographie. Die Republik Angola liegt zwischen 4° 22’ und 18° 02’ südlicher Breite sowie 11° 41’ und 24° 05’ östlicher Länge. Das Land gliedert sich grob in eine schmale Niederung entlang der Atlantikküste, die in Richtung Osten, zum Landesinneren hin, zum Hochland von Bié ansteigt: Es macht den größten Teil Angolas aus, ist im Süden flach und in der Landesmitte bergig. Der höchste Berg ist der in diesem Hochland liegende Môco mit 2619 m über dem Meeresspiegel. Der Osten Angolas wird vom Sambesi durchflossen. Klima. An der Küste und im Norden des Landes ist es tropisch, das heißt, es gibt das ganze Jahr hohe Tagestemperaturen zwischen 25 und 30 °C, nachts ist es nur unwesentlich kühler. Von November bis April ist Regenzeit. Das Klima wird stark durch den kühlen Benguelastrom (17–26 °C) beeinflusst, so dass Nebel häufig ist. Die durchschnittliche Niederschlagsmenge liegt bei 500 mm, im Süden kaum bei 100 mm jährlich. Das Hochland im Zentrum und Süden des Landes ist gemäßigt-tropisch, es gibt vor allem im Winter deutliche Temperaturunterschiede zwischen Tag und Nacht. So liegen etwa in Huambo die Temperaturen im Juli zwischen 25 °C tagsüber und 7–8 °C nachts, dazu kommt noch eine enorme Trockenheit. Ähnlich wie an der Küste ist die Regenzeit von Oktober bis April. Es fallen im Schnitt rund 1000 mm Regen pro Jahr. Im Südosten des Landes ist es überwiegend heiß und trocken mit kühlen Nächten im Winter und Hitze und gelegentlichen Niederschlägen im Sommer. Die Jahresniederschläge schwanken um 250 mm. Flora und Fauna. Die "Schwarzen Steine" von Pungo Andongo in Malange Die Vegetation reicht klimabedingt von tropischem Regenwald im Norden und in Cabinda über Baumsavannen im Zentrum bis zur trockenen Grassavanne, die durchsetzt ist mit Euphorbien (Wolfsmilchgewächsen), Akazien und Affenbrotbäumen. Von Namibia ausgehend, zieht sich entlang der Südwestküste ein Wüstenstreifen. Die Fauna Angolas ist reich an Wildtieren, es finden sich Elefanten, Flusspferde, Geparden, Gnus, Krokodile, Strauße, Nashörner und Zebras. Die Ausweitung der Landwirtschaft, aber auch die Zerstörungen durch die Bürgerkriege und der Handel mit Elfenbein gefährden das Überleben vieler Arten. Bevölkerung. Zur Bevölkerung Angolas gibt es seit der Volkszählung „Recenseamento Geral da População e Habitação“ im Jahr 2014 erstmals gesicherte Daten. Demnach betrug die Bevölkerung 24,4 Millionen. 52 % sind weiblichen Geschlechtes. Die Vereinten Nationen schätzten zuvor die Zahl auf weit über 20,6 Millionen im Jahre 2012. Ein akutes demografisches Problem, mit unabsehbaren wirtschaftlichen, sozialen und politischen Folgen, hat sich in Angola aus dem Kriegszustand ergeben, der sich über vier Jahrzehnte hingezogen hat. Um 2000 war ein erheblicher Teil der Landbevölkerung in die Städte, in unwegsame Gebiete (Berge, Wald, Sumpfland) oder ins benachbarte Ausland (Namibia, Botswana, Sambia, Kongo-Kinshasa, Kongo-Brazzaville) geflohen. Entgegen allen Erwartungen ist es nach dem Friedensschluss nicht zu einem massiven Rückfluss gekommen. Zwar ist ein Teil der Bevölkerung in ihre Ursprungsorte zurückgekehrt, aber – wie die Erhebungen der letzten Jahre zeigen – per Saldo hat das Binnenland sogar weiter an Bevölkerung verloren. Dies hängt nicht zuletzt damit zusammen, dass sich die Wirtschaft – mit Ausnahme der Landwirtschaft und der Förderung von Diamanten – ganz überwiegend auf den Küstenstreifen konzentriert. Die Volkszählung von 2014 hat allerdings aufgedeckt, dass der Rückgang der ländlichen Bevölkerung trotz generell schlechter Lebensbedingungen weniger drastisch war, als befürchtet: sie macht knapp über 60 % der Gesamtbevölkerung aus. Volksgruppen. Karte der Volksgruppen in Angola, 1970 Ein „Quimbo“, ein typisches Dorf entlang der Luanda-Uíge Überlandstraße, Oktober 2008. Die meisten Angolaner sind Bantu und gehören drei Ethnien an: mehr als ein Drittel sind Ovimbundu, ansässig auf dem Zentralhochland, dem angrenzenden Küstenstreifen und nunmehr ebenfalls stark präsent in allen größeren Städten auch außerhalb dieses Gebietes; ein knappes Viertel sind Ambundu (Sprache: Kimbundu), die in einem breiten Landstrich von Luanda bis Malanje überwiegen; schließlich gehören 10 bis 15 % den Bakongo an, einem Volk, das im Westen von Kongo-Brazzaville und der Demokratischen Republik Kongo sowie im Nordwesten Angolas angesiedelt ist und nunmehr auch in Luanda eine starke Minderheit darstellt. Zahlenmäßig kleinere Volksgruppen sind die Ganguela, eigentlich ein Konglomerat aus kleineren Gruppen Ostangolas, dann Nyaneka-Nkhumbi im Südwestens, die zumeist Hirtenbauern sind, die Ovambo (Ambo) und Herero Südangolas (mit Verwandten in Namibia) sowie die Tshokwe (einschließlich der Lunda) aus dem Nordosten Angolas (und Süden der DR Kongo sowie Nordwesten Sambias), die im Verlaufe des letzten Jahrhunderts in kleinen Gruppen südwärts gewandert sind. Einige kleine Gruppen im äußersten Südwesten werden als Xindonga bezeichnet. Schließlich gibt es noch residuale Gruppen der Khoisan (San), die verstreut in Südangola leben und nicht zu den Bantu gehören. Etwa 2 % der Bevölkerung sind "mestiços", also Mischlinge von Afrikanern und Europäern. Die Portugiesen waren mit 320.000 bis 350.000 Menschen am Ende der Kolonialzeit die größte europäischstämmige Volksgruppe im Land. Über die Hälfte von ihnen war im Lande geboren, nicht selten in der zweiten oder dritten Generation, und fühlten sich mehr Angola zugehörig als Portugal. Die anderen waren in der spätkolonialen Phase zugewandert oder als Angestellte/Beamte staatlicher Einrichtungen (einschließlich des Militärs) nach dort versetzt worden. Unabhängig hiervon flohen die meisten Portugiesen kurz vor oder nach der Unabhängigkeitserklärung Angolas nach Portugal, Brasilien oder Südafrika, doch ist ihre Zahl inzwischen wieder auf mehr als 100.000 angewachsen, zu denen eine möglicherweise ähnlich große Zahl anderer Europäer sowie Latein- und Nordamerikaner kommt. Zu den Europäern kommt inzwischen eine große, auf etwa 300.000 Menschen geschätzte Gruppe von Chinesen, die im Zuge einer Immigrationswelle nach Afrika kamen und kommen. Bis 1974/75 lebten auch etwa 130 deutsche Familien (Angola-Deutsche) als Farmer oder Unternehmer im Land, vor allem in den Regionen um Huambo und Benguela; in der Stadt Benguela gab es seinerzeit sogar eine deutsche Schule. Fast alle haben seither aber das Land verlassen. Die ethnischen Unterschiede haben, im Gegensatz zu anderen (afrikanischen und nichtafrikanischen) Ländern, in Angola nur in Maßen für gesellschaftlichen Zündstoff gesorgt. Als Bakongo, die in den 1970er Jahren in den Kongo-Kinshase geflohen waren, sich bei ihrer Rückkehr in hellen Scharen in Luanda niederließen, hat das zwar zu gegenseitigem „Fremdeln“ zwischen ihnen und den ansässigen Ambundu geführt, nicht aber zu massiven oder gar gewalttätigen Konflikten. Als sich im Bürgerkrieg Ambundu und Ovimbundu gegenüberstanden, bekam dieser auf seinem Höhepunkt auch ethnische Untertöne; seit Frieden herrscht, sind diese deutlich abgeklungen. Bei Konflikten aller Art können solche Abgrenzungen aber wieder ins Spiel kommen. Außerdem ist das Problem der Rassenbeziehungen zwischen Schwarzen, Mischlingen und Weißen noch in keiner Weise ausgestanden, zumal es von der Politik her manipuliert wird und seinerseits die Politik bedingt. Sprachen. Fast alle der in Angola gesprochenen Sprachen gehören zur Bantu-Sprachfamilie. Portugiesisch ist Amtssprache in Angola und wird heute von etwa 30 % der Angolaner – vor allem in der Hauptstadt Luanda – auch als Muttersprache gesprochen. Von den übrigen Angolanern sprechen sehr viele, in den Städten sogar eine ganz überwiegende Mehrheit, ebenfalls Portugiesisch, häufig im täglichen Umgang mit afrikanischen Wörtern durchsetzt. Vermutlich ist Angola das afrikanische Land, das sich alles in allem die Sprache der ehemaligen Kolonialmacht am stärksten zu eigen gemacht hat. Unter den afrikanischen Sprachen Angolas am weitesten verbreitet sind das Umbundu, von der ethnischen Gruppe der Ovimbundu gesprochen, das Kimbundu der Ambundu und das Kikongo der Bakongo sowie dessen Kreolvariante Kituba (siehe oben). Andere Sprachen sind Ngangela, Oshivambo (Kwanyama, Ndonga), Mwila, Nkhumbi, Otjiherero und Chokwe sowie das im 20. Jahrhundert von Rückwanderern aus dem Zaire eingeführte Lingala. In Angola werden insgesamt (je nach Einteilungskriterien) rund 40 verschiedene Sprachen/Dialekte gesprochen. Religionen. Wallfahrtskirche „Nossa Senhora da Conceição“ aus dem 16. Jahrhundert am Rio Kwanza, November 2009. In Angola gibt es knapp 1000 Religionsgemeinschaften. Zur Anzahl der Mitglieder der Religionsgemeinschaften sind nur grobe Schätzungen möglich. Etwas mehr als die Hälfte der Bevölkerung dürften Anhänger der römisch-katholischen Kirche sein. Rund ein Viertel gehören den während der Kolonialzeit gegründeten protestantischen Kirchen und Freikirchen an. Methodisten sind besonders im Gebiet von Luanda bis Malanje vertreten, Baptisten im Nordwesten und Luanda. In Zentralangola und den angrenzenden Küstenstädten ist vor allem die "Igreja Evangélica Congregacional de Angola" ("Evangelisch-kongregationale Kirche Angolas") vertreten. Aus der Kolonialzeit stammen auch verschiedene kleinere Gemeinschaften, so Lutheraner (z. B. in Südangola) und Reformierte (vor allem in Luanda). Dazu kommen Adventisten, neuapostolische Christen sowie (nicht zuletzt durch Einflüsse aus Brasilien) seit der Unabhängigkeit eine Vielfalt pfingstlich-charismatischer Freikirchen und die Zeugen Jehovas. Die neuen Gemeinschaften sind besonders in den größeren Städten entstanden und haben teilweise erheblichen Zulauf; dies gilt vor allem für die „Igreja Unida do Reino de Deus“ (IURD, Vereinigte Kirche des Reichs Gottes), die in Brasilien entstand und sich von dort aus in die anderen portugiesischsprachigen Länder ausbreitete. Aufgrund von Einflüssen aus Südafrika und Namibia hat sich in den 2000er Jahren ein kleiner Ableger der anglikanischen Kirche des südlichen Afrika gebildet. Schließlich gibt es zwei christlich-synkretistische Gemeinschaften, die in der DR Kongo verwurzelten Kimbangisten und die im kolonialen Angola entstandenen Tokoisten. Nur noch ein verschwindend geringer Teil der Bevölkerung hängt ausschließlich Naturreligionen an, aber unter den Christen finden sich nicht selten Bruchstücke von Vorstellungen, die aus diesen Religionen stammen. Der Anteil der Muslime (fast alle sunnitisch) beträgt schätzungsweise ein bis zwei Prozent. Er setzt sich aus Einwanderern aus verschiedenen, meist afrikanischen Ländern zusammen, die aufgrund ihrer Verschiedenartigkeit keine Gemeinschaft bilden. Saudi-Arabien bemüht sich in letzter Zeit um eine Ausbreitung des Islams in Angola. So hat es 2010 angekündigt, dass es in Luanda die Errichtung einer islamischen Universität finanzieren werde. Im November 2013 wurde dem Islam und zahlreichen anderen Organisationen die Anerkennung als Religionsgemeinschaft verweigert. Zudem wurden Gebäude, die ohne Baugenehmigung errichtet wurden, zum Abriss vorgesehen. Berichten zufolge stünde u. a. die Schließung von mehr als 60 Moscheen (fast ausschließlich bescheidensten Ausmaßes) im Land bevor. Die katholische Kirche, die traditionellen protestantischen Kirchen und die eine oder andere Freikirche unterhalten soziale Einrichtungen, die dazu bestimmt sind, Mängel in der gesellschaftlichen oder staatlichen Versorgung auszugleichen. Die katholische Kirche und die traditionellen protestantischen Kirchen äußern sich gelegentlich zu politischen Fragen und finden dabei unterschiedliches Gehör. Soziales. Angolanische Kinder in einem Dorf Gesundheitsversorgung. Die Ernährungs- und Gesundheitssituation der angolanischen Bevölkerung ist - aus europäischer Perspektive - größtenteils katastrophal. Nur rund 30 % der Bevölkerung haben Zugang zu grundlegender medizinischer Versorgung und nur 40 % haben Zugang zu ausreichend reinem Trinkwasser. Jährlich sterben tausende Menschen an Krankheiten wie Durchfallerkrankungen oder Atemwegsentzündungen. Daneben sind Malaria, Meningitis, Tuberkulose und Erkrankungen durch Wurmbefall verbreitet. Die Infektionsrate mit HIV liegt nach Schätzungen von UNAIDS bei 2 % und damit für die Region sehr niedrig. Als Grund hierfür wird die Abschottung des Landes während des Bürgerkrieges genannt. Etwa ein Drittel der Bevölkerung ist teilweise oder vollständig von ausländischen Nahrungsmittelhilfen abhängig. Die Sterblichkeitsrate von Kindern unter fünf Jahren ist die zweithöchste der Welt, statistisch stirbt alle drei Minuten ein Kind in Angola. Aufgrund der mangelnden medizinischen Versorgung ist auch die Zahl der Frauen, die während der Geburt sterben, extrem hoch. Die durchschnittliche Lebenserwartung bei der Geburt wird mit 48 bis 52,2 Jahren angegeben. Lepra bleibt in Angola eine große Sorge der Gesundheitsbehörden im Land. Im Jahr 2010 wurden insgesamt 1048 Fälle dieser chronisch infektiösen Krankheit festgestellt. Bildungswesen. Während der Kolonialzeit wurde das Bildungswesen bis auf das letzte Jahrzehnt vernachlässigt und war stets ein Instrument der Kolonialpolitik. Nach der Unabhängigkeit setzte ein systematischer Neubeginn an, bei dem die Zusammenarbeit mit Kuba eine wichtige Rolle spielte. Der Bürgerkrieg behinderte diese Anstrengungen sehr; er führte zur Zerstörung vieler Schulen und zum Tode oder zur Flucht zahlreicher Lehrer, vor allem auf dem Lande. Der Aufbau eines neuen Bildungswesens wurde insgesamt jedoch fortgesetzt, besonders in den Städten, in denen sich nach und nach die Hälfte der Bevölkerung konzentrierte. Seit dem Frieden 2002 wurden und werden große Anstrengungen unternommen, um die Situation zu verbessern und die enormen Defizite auszuräumen. In der gleichen Zeit begann in Angola eine Schulreform mit der Absicht, die Inhalte der Schule für die Kinder relevanter zu machen und bessere Ergebnisse zu erzielen. In Angola gehen weniger als zwei Drittel der Kinder im schulpflichtigen Alter zur Schule. In den Grundschulen wiederholen 54 % der Kinder eine oder mehrere Klassen. Wenn die Kinder die fünfte Klasse erreichen, gehen nur noch 6 % der Kinder ihrer Altersgruppe in die Schule. Dies hat auch mit dem Umstand zu tun, dass für die Versetzung in höhere Klassen ein gültiger Personalausweis vorzulegen ist, den viele nicht haben. Diese hohe Schulabbrecherquote entspricht dem Mangel an Schulen mit fünfter und sechster Klasse. In Zusammenarbeit mit dem angolanischen Bildungsministerium betreibt die Hilfsorganisation "Ajuda de desenvolvimento de Povo para Povo em Angola" sieben Lehrerausbildungsstätten in Huambo, Caxito, Cabinda, Benguela, Luanda, Zaire und Bié, die so genannten "Escolas dos Professores do Futuro", an denen bis Ende 2006 mehr als 1000 Lehrer für den Einsatz in den ländlichen Gebieten ausgebildet wurden. Bis 2015 sollen acht weitere dieser Lehrerausbildungsstätten eingerichtet und 8000 Lehrer ausgebildet werden. Das Hochschulwesen bestand bis in die späten 1990er Jahre aus der staatlichen Universidade Agostinho Neto, deren etwa 40 Fakultäten über das ganze Land verteilt waren und sich insgesamt in einem schlechten Zustand befanden. Daneben gab es lediglich noch die Universidade Católica de Angola (UCAN) in Luanda. Inzwischen gibt es (vor allem in Luanda) eine wachsende Anzahl privater Universitäten. Zu nennen sind einmal die Universidade Lusíada de Angola, die Universidade Lusófona de Angola und die Universidade Jean Piaget de Angola, sämtlich mit engen Verbindungen zu den gleichnamigen Universitäten in Portugal. Mit Unterstützung einer Lissaboner Universität ist auch die Angola Business School entstanden. Rein angolanische Initiativen sind die Universidade Privada de Angola, seit kurzem auch die Universidade Metodista de Angola, die Universidade Metropolitana de Angola, die Universidade Independente de Angola, die Universidade Técnica de Angola, die Universidade Gregório Semedo, die Universidade Óscar Ribas, die Universidade de Belas, und das Instituto Superior de Ciências Sociais e Relações Internacionais. Alle diese Universitäten sind in Luanda angesiedelt, obwohl einige auch „pólos“ genannte Außenstellen in anderen Städten haben, so die Universidade Privada de Angola in Lubango, die Universidade Lusófona de Angola in Huambo und die Universidade Jean Piaget in Benguela. Im Sinne einer Dezentralisierung des Hochschulwesens war es jedoch entscheidend, dass 2008/2009 aus der Universidade Agostinho Neto sechs Regionaluniversitäten mit je eigenem Namen ausgegliedert wurden, die die bestehenden Fakultäten übernahmen und meist weitere gründeten, und die innerhalb ihres jeweiligen Zuständigkeitsgebiets in anderen Städten „pólos“ einrichteten. In Benguela entstand so die Universidade Katyavala Bwila, in Cabinda die Universidade 11 de Novembro, in Huambo die Universidade José Eduardo dos Santos mit „pólo“ in Bié, in Lubango die Universidade Mandume ya Ndemufayo mit „pólo“ in Ondjiva, in Malanje mit Saurimo und Luena die Universidade Lueij A’Nkonde und in Uíge die Universidade Kimpa Vita. In den meisten Fällen waren die Namensgeber afrikanische Führungsfiguren aus vorkolonialer Zeit oder aus der Zeit des Primärwiderstands gegen die koloniale Eroberung. Sämtliche Universitäten haben mit Aufbauschwierigkeiten zu kämpfen. Der Zuständigkeitsbereich der Universidade Agostinho Neto wurde auf die Provinzen Luanda und Bengo beschränkt. Die qualitativen Unzulänglichkeiten des Hochschulwesens sind durch diese Entwicklung jedoch bislang nur teilweise überwunden worden. In Luanda haben aufgrund der Vielfalt der Universitäten einige von ihnen mit einer abnehmenden Nachfrage zu kämpfen. Geschichte. Die ersten Bewohner des heutigen Angola waren Khoisan, die später weitgehend von Bantu-Volksgruppen verdrängt wurden. 1483 begann die Errichtung von portugiesischen Handelsposten an der Küste, vor allem in Luanda und Hinterland, ein Jahrhundert später auch in Benguela. Erst Anfang des 19. Jahrhunderts begann die systematische Eroberung und Besetzung des heutigen Territoriums, die erst Mitte der 1920er Jahre abgeschlossen war. Von der Mitte der 1920er Jahre bis Anfang der 1960er Jahre war Angola einem „klassischen“ Kolonialsystem unterworfen. Die Kolonialmacht Portugal war von 1926 bis zur Nelkenrevolution 1974 von einer Militärdiktatur regiert (bis 1932 Carmona, bis 1968 Salazar, bis 1974 Caetano). Die wichtigste ökonomische Grundlage Angolas war bis zum Ende der Kolonialzeit die Landwirtschaft und Viehzucht, die sowohl in Großbetrieben von europäischen Siedlern stattfand als auch in den Familienbetrieben der Afrikaner. Die Förderung von Diamanten war für den Kolonialstaat von zentraler Bedeutung. Eine weitere wichtige Komponente war der Handel. Zu einer bescheidenen Industrialisierung und Entwicklung des Dienstleistungssektors kam es erst in der spätkolonialen Phase, also in den 1960er und 1970er Jahren. In den 1950er Jahren wurden auf dem Festland Erdölvorkommen geortet, in den 1960er Jahren auch im Meer vor Cabinda, doch kam es erst ganz am Ende der Kolonialzeit zu einer Förderung größeren Ausmaßes. In den 1950er Jahren begann sich ein nationalistischer Widerstand zu formieren, der 1961 in einen bewaffneten Befreiungskampf mündete (1960 – im „Afrika-Jahr“ – hatten 18 Kolonien in Afrika (14 französische, zwei britische, je eine belgische und italienische) die Unabhängigkeit von ihren Kolonialmächten erlangt; siehe auch Dekolonisation Afrikas). Ab 1962 führte Portugal deswegen einschneidende Reformen durch und leitete eine spätkoloniale Phase ein, die in Angola eine qualitativ neue Situation schuf, die jedoch den Unabhängigkeitskrieg nicht zum Einhalten brachte. Der Unabhängigkeitskrieg kam abrupt zu einem Ende, als am 25. April 1974 ein Militärputsch in Portugal die Nelkenrevolution auslöste und die dortige Diktatur zum Einsturz brachte und das neue demokratische Regime sofort mit der Entkolonisierung begann. Der Umsturz in Portugal löste in Angola bewaffnete Auseinandersetzungen zwischen den Befreiungsbewegungen FNLA, MPLA und UNITA aus, deren ethnische Verwurzelung im Lande durchaus unterschiedlich war. In diese Auseinandersetzungen griffen die USA, Zaire (seit 1997 „Kongo“) und Südafrika (noch unter dem Apartheid-Regime) aufseiten von FNLA und UNITA ein, die Sowjetunion und Kuba aufseiten der MPLA. Letztere behielt die Oberhand und rief 1975 in Luanda die Unabhängigkeit aus, gleichzeitig FNLA und UNITA in Huambo. Die „Gegenregierung“ von FNLA und UNITA löste sich zwar rasch auf, aber sofort nach der Unabhängigkeitserklärung setzte ein Bürgerkrieg zwischen den drei Bewegungen ein, aus dem die FNLA nach kurzer Zeit ausschied, während ihn die UNITA bis zum Tode ihres Anführers Jonas Savimbi im Jahre 2002 weiterführte. Gleichzeitig errichtete die MPLA ein politisch-ökonomisches Regime, das dem der damals sozialistischen Länder nachempfunden war. Dieses Regime wurde 1990/91 während einer Unterbrechung des Bürgerkriegs zugunsten eines Mehrparteiensystems aufgegeben. 1992 fanden Wahlen statt, an denen auch die UNITA teilnahm. Die MPLA erreichte dabei im Parlament die absolute Mehrheit, während ihr Präsidentschaftskandidat, José Eduardo dos Santos, nur die relative Mehrheit erhielt und nach der Verfassung ein zweiter Wahlgang (gegen Jonas Savimbi) notwendig gewesen wäre. Es ergab sich daraus eine bizarre Situation, die bis 2002 anhielt. Einerseits nahmen Vertreter der UNITA und der FNLA am Parlament und sogar der Regierung teil, andererseits nahm der militärische Arm der UNITA den bewaffneten Kampf sofort nach der Wahl wieder auf. Das politische System entwickelte sich zu einer autoritären Präsidialdemokratie, während im Lande Zerstörungen z.T. erheblichen Ausmaßes vor sich gingen. Nachdem Jonas Savimbi 2002 im Osten des Landes von der Armee entdeckt und erschossen worden war, stellte die UNITA den Kampf sofort ein. Sie löste ihren militärischen Arm auf, der zu einem Teil in die angolanische Armee übernommen wurde. Unter einem neuen Vorsitzenden, Isaias Samakuva, hat sie die Rolle einer normalen Oppositionspartei übernommen. 2008 kam es zu erneuten Parlamentswahlen, bei denen die MPLA knapp über 80 % der Stimmen erhielt und UNITA sowie FNLA kaum noch zahlenmäßiges Gewicht erhielten. Unterdessen ist der Wiederaufbau der zerstörten Städte, Dörfer und Infrastrukturen im Gange; es kommt vielerorts zu einem Aufbau, der deutlich über den Zustand am Ende der Kolonialzeit hinausgeht. Dank der Erdölförderung und des hohen Ölpreises gibt es dafür genug Devisen. Eine im Januar 2010 verabschiedete neue Verfassung stärkt inzwischen die Stellung der MPLA und besonders des Staatspräsidenten in einem Maße, das es rechtfertigt, von einem stark autoritären Präsidialsystem zu sprechen. Politische Verhältnisse. Zurzeit ist die politische Macht auf die Präsidentschaft konzentriert. Die Exekutive besteht aus dem Präsidenten, José Eduardo dos Santos, der zugleich Oberkommandierender der Streitkräfte und Regierungschef ist, und dem Ministerrat. Der Ministerrat, bestehend aus allen Regierungsministern und Vizeministern, trifft sich regelmäßig, um über politische Themen zu diskutieren. Die Gouverneure der 18 Provinzen werden vom Präsidenten ernannt und handeln nach seinen Vorstellungen. Das Verfassungsrecht von 1992 begründet die wesentlichen Merkmale der Regierungsstruktur und nennt die Rechte und Pflichten der Bürger. Das Rechtssystem, das auf dem portugiesischen Recht und dem Gewohnheitsrecht basiert, ist schwach und bruchstückhaft. Gerichte sind nur in zwölf von mehr als 140 Stadtverwaltungen tätig. Das oberste Gericht dient als Rechtsmittelinstanz. Ein Verfassungsgericht – mit der Fähigkeit einer unparteiischen Bewertung – wurde bis 2010 nicht ernannt, obwohl es das Gesetz vorsieht. Die 2010 vom Parlament angenommene Verfassung hat die autoritären Züge des politischen Systems nochmals verschärft. Hervorzuheben ist, dass die Präsidentschaftswahl abgeschafft wurde und in Zukunft der Vorsitzende und der stellvertretende Vorsitzende derjenigen Partei, die bei den Parlamentswahlen die meisten Stimmen erhält, automatisch Staatspräsident bzw. Vizepräsident sind. Der Staatspräsident kontrolliert über verschiedene Mechanismen sämtliche Staatsorgane, einschließlich des nunmehr geschaffenen Verfassungsgerichts; von einer Gewaltenteilung kann man infolgedessen nicht sprechen. Es handelt sich also nicht mehr um ein Präsidialsystem, wie es das etwa in den USA oder Frankreich gibt, sondern um ein System, das verfassungsrechtlich in dieselbe Kategorie fällt, wie die zäsaristische Monarchie Napoleon Bonapartes, das korporative System António de Oliveira Salazars nach der portugiesischen Verfassung von 1933, die brasilianische Militärregierung nach der Verfassung von 1967/1969 sowie verschiedene autoritäre Regime im gegenwärtigen Afrika. Der 27 Jahre andauernde Bürgerkrieg in Angola hat die politischen und gesellschaftlichen Einrichtungen des Landes stark beschädigt. Die UN vermutet, dass es in Angola 1,8 Millionen Flüchtlinge gab. Mehrere Millionen Menschen waren direkt von Kriegshandlungen betroffen. Täglich spiegelten die Lebensbedingungen im ganzen Land, besonders in Luanda (durch immense Landflucht ist die Hauptstadt auf über fünf Millionen Einwohner angewachsen), den Zusammenbruch der Verwaltungsinfrastruktur und der vielen gesellschaftlichen Einrichtungen wider. Krankenhäuser hatten oft weder Medikamente noch eine Grundausstattung, Schulen hatten keine Bücher und Angestellte im öffentlichen Dienst besaßen keine Ausstattung, um ihrer täglichen Arbeit nachzugehen. Seit dem Ende des Bürgerkriegs im Jahre 2002 sind massive Bemühungen um Wiederaufbau unternommen worden, doch finden sich dessen Spuren bis heute überall im Lande. Die vielfältigen Probleme und Möglichkeiten des Wiederaufbaus werden in großer Ausführlichkeit beschrieben vom Angolaportugiesen José Manuel Zenha Rela. Parlament. Am 5. und 6. September 2008 wählten die Angolaner erstmals seit Ende des Bürgerkrieges eine neue Nationalversammlung. Nach Auffassung von Wahlbeobachtern der SADC und der Afrikanischen Union (AU) verlief die Wahl „allgemein frei und fair“. Beobachter der EU wiesen zwar auf die sehr gute technische und logistische Vorbereitung der Wahlen, die hohe Wahlbeteiligung sowie den friedlichen Prozess der Stimmabgabe hin. Kritisiert wurde allerdings die chaotische Abhaltung der Wahlen vor allem in der Hauptstadt Luanda. Nach Auffassung internationaler Beobachter bestanden in der Zeit vor den Wahlen keine freien und für alle Parteien gleichen Voraussetzungen für faire Wahlen. Es wird von fast allen Beobachtern übereinstimmend hervorgehoben, dass die staatlichen Medienanstalten massiv zugunsten der MPLA missbraucht wurden, freier Zugang zu den elektronischen Medien für die Oppositionsparteien außerhalb Luandas nicht gegeben war. Die angolanische Zivilgesellschaft spricht von staatlich finanzierten Wahlgeschenken der MPLA und Einschüchterungen durch deren Sympathisanten. Die MPLA gewann die Wahl mit knapp 82 % der abgegebenen Stimmen, während die UNITA etwas mehr als 10 % der Stimmen auf sich vereinigen konnte. Die größte Oppositionspartei legte zunächst Beschwerde gegen die Wahl ein, gestand nach deren Ablehnung jedoch ihre Niederlage ein. Das Regime bestätigte 2011/2012 emphatisch seine Absicht, 2012 erneut Parlamentswahlen abzuhalten und so zum ersten Mal die verfassungsmäßige Bestimmung zu achten, nach der Wahlen alle vier Jahre stattfinden müssen. Außer den gegenwärtig im Parlament vertretenen Parteien waren weitere 67 Parteien berechtigt, bei diesen Wahlen anzutreten. José Eduardo dos Santos hat wiederholt seine Absicht kundgetan, bei diesen Wahlen nicht erneut zu kandidieren, sodass sich die Frage stellte, wer sein Nachfolger als Staatspräsident sein würde. Die Wahlen haben dann am 31. August 2012 stattgefunden. Im Gegensatz zu seinen vorherigen Erklärungen war José Eduardo dos Santos erneut Spitzenkandidat des MPLA. Nach den vorläufigen Ergebnissen erhielt das MPLA etwas mehr als 70 % der Stimmen – also weniger als 2008, aber immer noch eine sehr komfortable Mehrheit, die nicht zuletzt José Eduardo dos Santos das Verbleiben im Amt garantiert. Die UNITA erhielt um die 18 % und die Neugründung CASA (Convergência Ampla de Salvação de Angola) rund 6 %. Weitere Parteien werden nicht ins Parlament einziehen, da keine auch nur 2 % der Stimmen erreichte. Bemerkenswert sind die starken Unterschiede zwischen den Regionen, besonders in Hinsicht auf die Resultate der Opposition: so erhielt diese rund 40 % in den Provinzen Luanda und Cabinda, in denen das Niveau der Politisierung besonders hoch ist. Menschenrechte. 2008 kam es laut Amnesty International wiederholt zu willkürlichen Festnahmen von Personen, die ihr Recht auf freie Meinungsäußerung bzw. auf Versammlungs- und Vereinigungsfreiheit wahrgenommen hatten. Ein staatliches soziales Sicherungssystem gibt es nicht. Alleinstehende Frauen stehen vor allem in den ländlichen Gebieten vor zusätzlichen Schwierigkeiten. In einigen Gemeinden ist es Frauen traditionell untersagt, eigenes Land zu besitzen und dieses zu kultivieren. Homosexualität gilt in Angola als „Verstoß gegen die öffentliche Moral“, ist illegal und kann mit bis zu drei Jahren Haft oder Arbeitslager bestraft werden. In einem offenen Brief forderten mehrere Menschenrechtsgruppen und Persönlichkeiten des Landes die US-amerikanische Außenministerin Hillary Clinton auf, den Zustand der Demokratie in Angola auf ihrer Afrikareise 2009 anzusprechen. „Weltweit ist die Vorstellung in Umlauf, dass Angola große demokratische Fortschritte macht. In Wirklichkeit werden die Menschen mit anderen Ideen (als jene der Regierung) verfolgt und festgenommen. Das Kundgebungsrecht existiert nicht“, klagte David Mendes von der Organisation „Associação Mãos Livres“ (Vereinigung der Freien Hände). China bekomme immer mehr Einfluss in Angola. „Und jeder weiß, dass China die Menschenrechte nicht respektiert“, sagte Mendes. Amnesty International rief bereits 2007 in einem offenen Brief an die EU auf, die schwierige Situation der Menschenrechte in Angola anzusprechen und auf ihre Agenda zu setzen. Politischer Protest. Offenbar unter dem Einfluss der Volksaufstände in arabischen Ländern, gab es Versuche am 7. März 2011 und dann wieder zu einem späteren Zeitpunkt in Luanda eine Großdemonstration gegen das politische Regime in Angola zu organisieren. Es handelte sich um Versuche, Protest unabhängig von den Oppositionsparteien zu artikulieren. Die MPLA hat am 5. März in Luanda eine „präventive Gegendemonstration“ mit vorgeblich 1 Mio. Anhängern veranstaltet. Während der folgenden Monate fanden Proteste im Internet und bei Rapveranstaltungen statt. Am 3. September 2011 wurde dann erneut die Erlaubnis zu einer regimekritischen, vor allem gegen die Person des Staatspräsidenten gerichteten Demonstration erteilt, die dann jedoch unter Einsatz von Schlagstöcken und Schusswaffen gewaltsam aufgelöst wurde, als sie den ihr zugestandenen Bereich zu überschreiten begann. Etwa 50 Personen wurden verhaftet und sehen einer summarischen Verurteilung entgegen. Außenpolitik. Angola ist seit 1976 Mitglied der Vereinten Nationen, seit 1996 Mitglied der WTO und seit 2007 bei der OPEC sowie Gründungsmitglied der Südafrikanischen Entwicklungsgemeinschaft SADC, als auch bei der AU (Afrikanische Union) und der CPLP, der Gemeinschaft der Staaten portugiesischer Sprache. Am 15. Oktober 2013 wurde die strategische Partnerschaft mit Portugal von Angola aufgekündigt. Präsident dos Santos erklärte die Beziehungen zwischen den beiden Ländern wären nicht gut. Die Ursache ist der Umstand, dass die portugiesische Justiz einige politisch gewichtige Angolaner, die zum engeren Umkreis des Staatspräsidenten gehören, aufgrund von in Portugal begangenen Delikten (vor allem massiver Geldwäsche) unter Anklage gestellt hat. "Siehe auch: Liste der angolanischen Botschafter beim Heiligen Stuhl, Liste der angolanischen Botschafter in Brasilien, Liste der angolanischen Botschafter in Frankreich, Liste der angolanischen Botschafter in São Tomé und Príncipe" Gliederung. Diese 18 Provinzen untergliedern sich weiter in 157 Municípios und 618 Kommunen. Militär. Die Streitkräfte Angolas unterhalten ein etwa 110.000 Mann starkes Militär, die Forças Armadas Angolanas (FAA). Die jährlichen Ausgaben betragen etwa 180 Mio. US-Dollar. Es gibt drei Teilstreitkräfte: "Heer", "Marine" sowie "Luftwaffe und Luftabwehrkräfte", wovon das Heer zahlenmäßig die größte darstellt. Militärisches Gerät stammt hauptsächlich aus der ehemaligen Sowjetunion. Kleine Kontingente sind in der Republik Kongo und der Demokratischen Republik Kongo stationiert. Generalstabschef ist seit Oktober 2010 ein ehemaliger General der UNITA, Geraldo Sachipengo Nunda. Allgemein. Mit einem Bruttoinlandsprodukt von 114,2 Milliarden US-Dollar (2012) ist Angola nach Südafrika und Nigeria die drittgrößte Volkswirtschaft Subsahara-Afrikas. Gleichzeitig lebt ein großer Teil der Bevölkerung in Armut. Angolas Wirtschaft leidet unter den Folgen des jahrzehntelangen Bürgerkriegs. Dank seiner Bodenschätze – vorrangig der Ölvorkommen – gelang dem Land jedoch während der letzten Jahre ein großer wirtschaftlicher Aufschwung. Das Wirtschaftswachstum Angolas ist momentan das größte in Afrika. Allerdings kommen die Einkünfte aus den Rohstoffvorkommen nicht bei dem Großteil der Bevölkerung an, sondern bei korrupten Nutznießern innerhalb der politisch und ökonomisch Herrschenden des Landes sowie einer sich langsam bildenden Mittelschicht. Nicht zu Unrecht preisen daher in- und ausländische Unternehmer Angola als eine Art Paradies. Ein großer Teil der Bürger ist arbeitslos und etwa die Hälfte leben unterhalb der Armutsgrenze, wobei es drastische Unterschiede zwischen Stadt und Land gibt. Eine Erhebung des Instituto Nacional de Estatística von 2008 kommt zu dem Ergebnis, dass auf dem Lande rund 58 % als arm zu betrachten waren, in den Städten jedoch nur 19 %, insgesamt 37 %. Die Gesamtbevölkerung wird auf 16 bis 18 Millionen geschätzt. In den Städten, in denen sich inzwischen mehr als 50 % der Angolaner zusammenballen, ist die Mehrheit der Familien auf Überlebensstrategien angewiesen. Dort wird auch die soziale Ungleichheit am deutlichsten greifbar, insbesondere in Luanda. Im Human Development Index der UNO nimmt Angola stets einen Platz unter den letzten ein. 2008 wies Angola auf dem Gini-Index, der die Einkommensunterschiede in einem Land misst, den (sehr hohen) Wert von 0,62 auf. Die wichtigsten Handelspartner für den Export von Gütern und Rohstoffen sind die USA, China, Frankreich, Belgien und Spanien. Importpartner sind überwiegend Portugal, Südafrika, USA, Frankreich und Brasilien. 2009 entwickelte sich Angola für Portugal zum größten Exportmarkt außerhalb Europas, und rund 24.000 Portugiesen übersiedelten in den letzten Jahren nach Angola, suchten dort Beschäftigung oder gründeten Unternehmen. Erheblich wichtiger ist jedoch die Präsenz Chinas in Form einer ganzen Reihe großer Unternehmen. Von grundlegender Bedeutung für die Bevölkerung Angolas ist die Schattenwirtschaft, die sich schon während der „sozialistischen“ Phase entwickelte und in der Phase der Liberalisierung exponentiell angewachsen ist und die zurückzudrängen sich die Regierung gegenwärtig bemüht. Die Wirtschaft ist natürlich — in Angola wie anderswo — nicht losgelöst von Politik und Gesellschaft zu verstehen. Dass sie vor allem von den Kräften und Gruppen bestimmt wird, die sich in beiden Bereichen durchgesetzt haben, ist in diesem Land besonders deutlich — wie auch, dass diejenigen, die nicht dazugehören, eine Unzahl von Überlebensstrategien entwickeln. Elektrizitätsversorgung. Im Jahre 2011 lag Angola bzgl. der jährlichen Erzeugung mit 5,512 Mrd. kWh an Stelle 119 und bzgl. der installierten Leistung mit 1.657 MW an Stelle 114 in der Welt. 2014 betrug die installierte Leistung 1.848 MW, davon 888 MW in Wärmekraftwerken und 960 MW in Wasserkraftwerken. Da zurzeit (Stand 2014) nur 30 bis 40 % der Bevölkerung an das Stromnetz angeschlossen sind, plant die Regierung erhebliche Investitionen (bis 2017 23,4 Mrd. USD) im Bereich der Stromversorgung. Dies beinhaltet den Bau neuer Kraftwerke, Investitionen in die Übertragungsnetze sowie die ländliche Elektrifizierung. Es sollen eine Reihe von Wasserkraftwerken an Cuanza und Kunene errichtet werden, um das Wasserkraftpotenzial (geschätzt 18.000 MW) auszuschöpfen. Die Talsperre Laúca mit einer geplanten Leistung von 2040 MW wird zurzeit errichtet. Sie soll 2017 in Betrieb gehen. Gegenwärtig (Stand April 2015) gibt es in Angola kein nationales Verbundnetz, sondern es existieren drei voneinander unabhängige regionale Netze für den Norden, das Zentrum und den Süden des Landes sowie weitere isolierte Insellösungen. Dadurch können die Überschüsse aus dem nördlichen Netz nicht in die übrigen Netze eingespeist werden. Das bei weitem wichtigste Netz ist das nördliche, das auch die Hauptstadt Luanda umfasst. Die Stromversorgung ist im ganzen Land unzuverlässig und verbunden mit regelmäßigen Stromausfällen, die durch den Betrieb teurer Generatoren kompensiert werden müssen. Der Preis je kWh liegt bei 3 AOA (ca. 2,5 €-cent), wird jedoch erheblich subventioniert und ist nicht kostendeckend. Regionale Disparitäten. Straßenszene in Porto Amboim, Mai 2010 Ein strukturelles Problem der angolanischen Wirtschaft sind die extremen Unterschiede zwischen den verschiedenen Regionen, die zum Teil auf den langanhaltenden Bürgerkrieg zurückzuführen sind. Rund ein Drittel der wirtschaftlichen Tätigkeit konzentriert sich auf Luanda und die angrenzende Provinz Bengo, die immer stärker zum Expansionsraum der Hauptstadt wird. Auf der anderen Seite herrscht in verschiedenen Regionen des Binnenlandes Stillstand oder gar Rückschritt. Mindestens ebenso gravierend wie die soziale Ungleichheit sind die krassen wirtschaftlichen Unterschiede zwischen den Regionen. 2007 konzentrierten sich in Luanda 75,1 % aller geschäftlichen Transaktionen und 64,3 % der Arbeitsplätze in (öffentlichen oder privaten) Wirtschaftsunternehmen. 2010 waren 77 % aller Unternehmen in Luanda, Benguela, Cabinda, der Provinz Kwanza Sul und Namibe angesiedelt. Das BIP pro Kopf war 2007 in Luanda samt angrenzender Provinz Bengo auf rund 8000 USD angewachsen, während es im westlichen Mittelangola dank Benguela und Lobito etwas unter 2000 USD lag, im übrigen Land jedoch deutlich unter 1000 USD. Die Tendenz zur Ballung der Wirtschaft im Küstenstreifen, insbesondere im „Wasserkopf“ Luanda/Bengo, hat seit dem Ende des Bürgerkriegs nicht etwa abgenommen, sondern sich fortgesetzt und bringt eine „Entleerung“ eines großen Teils des Binnenlandes mit sich. Die globalen Wachstumszahlen täuschen also darüber hinweg, dass die Wirtschaft Angolas unter extremen Ungleichgewichten leidet. Korruption. Eines der am stärksten ausgeprägten Merkmale des heutigen Angola ist eine allgegenwärtige Korruption. In den Erhebungen von Transparency International erscheint das Land regelmäßig unter den weltweit korruptesten, in Afrika in einer Kategorie mit Somalia und Äquatorialguinea. In den ersten fünf Jahren des 21. Jahrhunderts wurde geschätzt, dass Öleinnahmen im Wert von 4 Milliarden US-Dollar oder 10 % des damaligen Bruttoinlandsprodukts durch Korruption versickerten. Seit Jahren steht der Kampf gegen die Korruption im Regierungsprogramm, doch nur ganz selten ist nachzuweisen, dass diese Absichtserklärung in die Tat umgesetzt wird. Eine aufsehenerregende Ausnahme war Ende 2010 die Entlassung von 10 Abteilungsleitern und fast 100 Beamten der Fremden- und Grenzpolizei SME (Serviço de Migrações e Estrangeiros), die nicht nur für die Grenzkontrolle, sondern auch für die Erteilung von Einreise-, Aufenthalts- und Ausreisegenehmigungen zuständig ist. Wirtschaftskennzahlen. Das Bruttoinlandsprodukt und der Außenhandel Angolas sind in den letzten Jahren aufgrund steigender Einkünfte durch die Erdölausfuhr massiv gewachsen. Staatshaushalt. Der Staatshaushalt umfasste 2009 Ausgaben von umgerechnet 27,91 Milliarden US-Dollar, dem standen Einnahmen von umgerechnet 30,82 Milliarden US-Dollar gegenüber. Daraus ergibt sich ein Haushaltsüberschuss in Höhe von 4,2 % des BIP. Angolas Schulden beliefen sich im Dezember 2011 auf insgesamt 31,4 Milliarden Dollar. Nahezu die Hälfte davon, ca. 17,8 Milliarden, waren nach Aussage von Finanzminister Carlos Alberto Lopes Auslandsschulden. Hauptgläubiger der angolanischen Regierung waren China mit 5,6 Milliarden, Brasilien mit 1,8 Milliarden, Portugal mit 1,4 Milliarden und Spanien mit 1,2 Milliarden. Die Inlandsschulden in Höhe von 13,6 Milliarden Dollar resultieren hauptsächlich aus Anleihen und Schatzanweisungen zur Unterstützung der laufenden staatlichen Investitions-Programme. Auslandsinvestitionen. Seit Ende des Bürgerkriegs steigen die privaten Investitionen von Angolanern im Ausland ständig an. Dies hängt damit zusammen, dass sich im Lande die Akkumulation auf eine kleine gesellschaftliche Gruppe konzentriert und dieser daran gelegen ist, ihren Besitz aus Gründen der Sicherheit und der Profitmaximierung zu streuen. Bevorzugtes Anlageziel ist Portugal, wo angolanische Anleger (einschließlich des Familie des Staatspräsidenten) in Banken und Energieunternehmen, in der Telekommunikation und in der Presse präsent sind, aber auch z. B. Weingüter und Tourismusobjekte aufkaufen. Verkehr. Angola mit Straßen- und Schienennetz Schienenverkehr. Der Schienenverkehr in Angola ist auf die Häfen ausgerichtet. Er wird auf drei Netzen betrieben, die nicht verbunden sind. Eine weitere, nicht mit den drei Netzen verbundene Strecke wurde inzwischen eingestellt. Es finden sowohl Güter- als auch Personenverkehr statt. Die gesamte Streckenlänge beträgt 2764 Kilometer, davon 2641 Kilometer in der im südlichen Afrika üblichen Kapspur und 123 Kilometer in 600-Millimeter-Spur (Stand 2010). Alleiniger Betreiber ist die staatliche Gesellschaft Caminhos de Ferro de Angola (CFA). Literatur. Einige bekannte angolanische Schriftsteller sind Mário Pinto de Andrade, Luandino Vieira, Arlindo Barbeitos, Alda Lara, Agostinho Neto, Pepetela, Ondjaki und José Eduardo Agualusa. Musik. Das berühmteste angolanische Volkslied ist Kumbaya "(Kumbaya, my Lord)." Der Ursprung des Volksliedes ist jedoch umstritten. Einige Sprachforscher glauben, dass dieses Lied in Gullah, einer Kreolsprache von der Küste Georgias bzw. South Carolinas, entstand. Falls diese These stimmt, muss das Lied nach Angola gebracht worden sein. Demnach könnten es höchstwahrscheinlich amerikanische Missionare gewesen sein, die das Lied nach Angola brachten, wo es zu einer späteren Zeit wiederentdeckt wurde. Zu den bekanntesten Pop-Musikern zählen Waldemar Bastos, Paulo Flores, Bonga, Vum Vum Kamusasadi, Maria de Lourdes Pereira dos Santos Van-Dúnem, Ana Maria Mascarenhas, Mario Gama, Pérola, Yola Semedo und Anselmo Ralph Medien. Televisão Pública de Angola (angolanisch, staatlich), TV Zimbo (angolanisch, privat), AngoTV (angolanisch, privat), Rádio Televisão Portuguesa (portugiesisch, öffentlich-rechtlich), Rádio Televisão Portuguesa Internacional (portugiesisch, öffentlich-rechtlich), Televisão Comercial de Angola (angolanisch, staatlich), ZON Multimédia (privat), TV Record (brasilianisch, privat) TV Globo (brasilianisch, privat), Televisão de Moçambique (TVM) (mosambikanisch, staatlich) RNA (Rádio Nacional de Angola) (staatlich), Rádio LAC (Luanda Antena Comercial), Rádio Ecclesia (katholischer Radiosender), Rádio Cinco (Sportradio), Rádio Despertar (der UNITA nahestehend), Rádio Mais (privat), TSF (portugiesisches Radio), Rádio Holanda (auf Portugiesisch) Jornal de Angola (staatlich) "Wochenzeitungen" (alle privat): Semanário Angolense, O País, A Capital, Folha 8, Agora, Angolense, Actual, Independente, Cara, Novo Jornal, O Apostolado (kirchlich), Gazeta de Luanda "Wirtschaftswochenzeitungen:" Jornal de Economia & Finanças (staatlich), Semanário Económico (privat), Expansão (privat) Exame (privat), Rumo (Wirtschaftszeitschrift, privat) Agência Angola Press (ANGOP; staatlich) Fußball. Fans der angolanischen Nationalmannschaft bei der Fußballweltmeisterschaft in Deutschland 2006 Am 8. Oktober 2005 gelang es der angolanischen Fußballnationalmannschaft, sich unerwartet für die WM 2006 in Deutschland zu qualifizieren. Ein knappes 1:0 beim Gruppenletzten in Ruanda reichte aus, um das Ticket zu lösen und Nigeria, das seit 1994 an jeder WM-Endrunde teilnahm, aus dem Wettbewerb zu werfen. Das angolanische Team nahm damit zum ersten Mal an einer WM-Endrunde teil, wo es nach einem gegen Portugal, einem gegen Mexiko und einem gegen den Iran als Gruppendritter in der Vorrunde ausschied. Weiterhin nahm die Mannschaft an den Afrikameisterschaften 1996, 1998, 2006, 2008, 2010 (als Ausrichter), 2012 und 2013 teil. Basketball. Die angolanische Basketballnationalmannschaft der Herren hat elf der letzten dreizehn Austragungen der Afrikameisterschaft gewonnen, womit sie die erfolgreichste Mannschaft der Wettbewerbsgeschichte ist. Daher nimmt sie regelmäßig an der Weltmeisterschaft und den Olympischen Spielen teil. Bei den Spielen 1992 war Angola der erste Gegner des US-amerikanischen Dream Teams. Größter sportlicher Erfolg war bislang das Überstehen der Vorrunde bei den Weltmeisterschaften 2002, 2006 und 2010. Handball. Die Frauen-Handballnationalmannschaft hat bereits elfmal den Afrikameistertitel geholt und ist zudem als erste afrikanische Mannschaft bei einer WM in die Endrunde gelangt. Asta Nielsen. Asta Nielsen in ihrer Berliner Wohnung, 1925 Asta Nielsen (* 11. September 1881 in Kopenhagen; † 25. Mai 1972 in Frederiksberg; vollständiger Name "Asta Sofie Amalie Nielsen") war eine dänische Schauspielerin. Leben und Werk. Asta Nielsen wuchs in Schweden und Dänemark auf. Ihr Vater war ein häufig arbeitsloser Schmied, der starb, als Asta 14 Jahre alt war, die Mutter eine Wäscherin. Bereits als Kind kam sie mit dem Theater in Berührung. Ihre uneheliche Tochter Jesta wurde 1901 geboren. Ab 1902 war sie in Kopenhagen fest angestellt. Ihr erster Film, "Afgrunden" (1910), brachte ihr und dem Regisseur Urban Gad gleich einen Vertrag zur Produktion von mehreren Filmen in Deutschland, der aufgrund des einsetzenden Erfolges bis 1915 verlängert wurde. Sie drehte anfangs ausschließlich unter der Regie von Urban Gad, den sie 1912 heiratete. 1915 endete die berufliche Zusammenarbeit, 1918 erfolgte die Scheidung. Meist waren ihre Rollen konfliktbeladene Frauen, deren Verhalten nicht den gesellschaftlichen Konventionen entsprach, so in "Der fremde Vogel" (1911) und "Die arme Jenny" (1912). Nielsen hatte aber auch Talent für komische Rollen und war beim Publikum damit vor allem in "Engelein" (1914) so erfolgreich, dass eine Fortsetzung gedreht wurde. 1916 ging sie wieder nach Dänemark und kehrte erst nach Ende des Ersten Weltkrieges wieder nach Deutschland zurück, wo sie fortan vorwiegend in Literaturverfilmungen und Dramen auftrat. Zwischen 1920 und 1922 produzierte sie drei Filme selbst. Darunter eine Verfilmung von Shakespeares "Hamlet", in der sie den Dänenprinzen spielt. Nach der im Film vertretenen Theorie war Hamlet eine als männlicher Thronfolger erzogene Prinzessin, was seine/deren abweisende Haltung gegenüber Ophelia erklären soll, in Wahrheit aber wohl eher Asta Nielsen zu einer interessanten Rolle verhelfen sollte. Herausragend ist auch ihre Darstellung von Frauen am untersten Rand der Gesellschaft in "Die freudlose Gasse" (1925) von Georg Wilhelm Pabst und "Dirnentragödie" (1927) von Bruno Rahn. Asta Nielsen war der große Star des Stummfilms, ja sogar der erste weibliche Filmstar überhaupt in der Geschichte des Kinos, in der sie als eines ihrer ersten Sexsymbole gelten kann. Asta Nielsen ließ sich nie auf ein Rollenfach festlegen: Sie spielte sowohl gebrochene, leidende Frauen als auch Prostituierte; Tänzerinnen ebenso wie einfache Arbeiterinnen. Ihre Körpersprache war immer dezent, dabei aber ausdrucksstark. Ihre Filmkarriere endete mit dem Tonfilm, sie trat nur in einem einzigen, "Unmögliche Liebe", auf. Obwohl sie eine angenehme Stimme hatte, ging ihr gekonntes Mienenspiel in diesem neuen Medium unter. Filmangebote lehnte sie kontinuierlich ab. Sie widmete sich fortan dem Theater und veröffentlichte 1946 ihre Autobiographie "Die schweigende Muse". 1963 wurde sie mit dem Filmband in Gold für ihr langjähriges und hervorragendes Wirken im deutschen Film ausgezeichnet. 1968 erschien ein von ihr produzierter, autobiografischer Dokumentarfilm. Asta Nielsen starb 1972 und wurde auf dem Vestre Kirkegård (Westfriedhof) in Kopenhagen in einem anonymen Gemeinschaftsgrab beigesetzt. Im September 2010 wurde sie mit einem Stern auf dem Boulevard der Stars in Berlin geehrt. Asta-Nielsen-Haus. Asta Nielsen besaß ab 1929 auf der Ostseeinsel Hiddensee ein Haus, das sie „Karusel“ nannte (dänische Bezeichnung für Karussell). Der Name leitet sich von der runden Form des Gebäudes ab. Sie verbrachte dort mit ihrer Tochter und ihrem Mann oft mehrere Monate im Sommer. Zu den Freunden und Bekannten, die sie dort besuchten, zählen auch Joachim Ringelnatz mit Frau, Heinrich George und Gerhart Hauptmann. Nach 1935 oder 1936 nutzte sie das Haus nicht mehr. Das 1923 erbaute Haus des Bauhaus-Architekten Max Taut wurde 1975 unter Denkmalschutz gestellt. Ihre Erben verkauften es 1989 an die Gemeinde. 2015 wurde es als "Asta-Nielsen-Haus" eröffnet und enthält auch eine Ausstellung zu Asta Nielsen. Stummfilme. Gedenktafel für Asta Nielsen am Wohnhaus in der Berliner Fasanenstraße Autismus. Ein autistischer Junge und von ihm angeordnete Gegenstände Autismus (von "autós" „selbst“) wird von der Weltgesundheitsorganisation zu den tiefgreifenden Entwicklungsstörungen gerechnet. Er wird von Ärzten, Forschern, Angehörigen und Autisten selbst als eine angeborene, unheilbare Wahrnehmungs- und Informationsverarbeitungsstörung des Gehirns beschrieben, die sich schon im frühen Kindesalter bemerkbar macht. Andere Forscher und Autisten beschreiben Autismus als angeborenen abweichenden Informationsverarbeitungsmodus, der sich durch Schwächen in sozialer Interaktion und Kommunikation sowie durch stereotype Verhaltensweisen und Stärken bei Wahrnehmung, Aufmerksamkeit, Gedächtnis und Intelligenz zeigt. In den aktuellen Diagnosekriterien wird zwischen "frühkindlichem Autismus" (Kanner-Syndrom) und dem "Asperger-Syndrom" unterschieden, das sich oftmals erst nach dem dritten Lebensjahr bemerkbar macht. Zur Zusammenfassung der verschiedenen Ausprägungen und Symptome von Autismus, der verschiedene Schweregrade kennt, dient der Begriff des Autismusspektrums (Autismus-Spektrum-Störung (ASS)). Genaue Abgrenzungen innerhalb des Spektrums sind oft nicht möglich, da die Übergänge zwischen verschiedenen Ausprägungen fließend sind. Symptome und Beschwerden. Die Symptome und die individuellen Ausprägungen des Autismus sind vielfältig. Sie können von leichten Abweichungen, wie Schüchternheit, bis zur schweren Behinderungen reichen. Allen Autisten gemeinsam sind Besonderheiten im Sozialverhalten: Schwierigkeiten, mit anderen Menschen zu sprechen, etwa wegen eintöniger Stimme (Prosodie), Gesagtes richtig aufzufassen, Mimik und Körpersprache einzusetzen und zu verstehen. Außerdem gehört stereotypes oder ritualisiertes Verhalten häufig zu den Besonderheiten. Inselbegabung. Die Interessen von Autisten sind häufig auf bestimmte Gebiete konzentriert. Jedoch besitzen manche auf einem solchen Gebiet außergewöhnliche Fähigkeiten, zum Beispiel im Kopfrechnen, Zeichnen, in der Musik oder in der Merkfähigkeit. Man spricht dann von einer „Inselbegabung“. Diejenigen, die sie haben, nennt man auch "Savants" (Wissende). Etwa 50 Prozent der Inselbegabten sind Autisten. Andersherum ist nur ein kleiner Teil der Autisten inselbegabt. Historisches. Der Schweizer Psychiater Eugen Bleuler prägte den Begriff "Autismus" 1911. Er sah in ihm ein Grundsymptom der Schizophrenie – die Zurückgezogenheit in eine innere Gedankenwelt. Sigmund Freud übernahm die Begriffe „Autismus“ und „autistisch“ von Bleuler und setzte sie annähernd mit „Narzissmus“ bzw. „narzisstisch“ gleich – als Gegensatz zu „sozial“. Hans Asperger (Literatur: Asperger 1938 und 1944) und Leo Kanner (Literatur: Kanner 1943) nahmen den Begriff auf – möglicherweise unabhängig voneinander – und beschrieben ein Störungsbild eigener Art. Sie unterschieden dabei Menschen mit Schizophrenie, die sich aktiv in ihr Inneres zurückziehen, von jenen, die von Geburt an in einem Zustand der inneren Zurückgezogenheit leben. Letzteres definierte nunmehr den Begriff „Autismus“. Kanner fasste den Begriff „Autismus“ eng, was im Wesentlichen dem heute so genannten frühkindlichen Autismus (daher: Kanner-Syndrom) entsprach. Seine Sichtweise erreichte internationale Anerkennung und wurde zur Grundlage der weiteren Autismusforschung. Die Veröffentlichungen Aspergers hingegen beschrieben „Autismus“ etwas anders und wurden zunächst international kaum wahrgenommen. Dies lag zum einen an der zeitlichen Überlagerung mit dem Zweiten Weltkrieg und zum anderen daran, dass Asperger auf Deutsch publizierte und man seine Texte jahrzehntelang nicht ins Englische übersetzte. Hans Asperger selbst nannte das von ihm beschriebene Syndrom „Autistische Psychopathie“. Die englische Psychiaterin Lorna Wing (Literatur: Wing 1981) führte seine Arbeit in den 1980er Jahren fort und benutzte erstmals die Bezeichnung "Asperger-Syndrom". Erst in den 1990er Jahren erreichten die Forschungen Aspergers internationale Bekanntheit in Fachkreisen. Formen von Autismus. Im DSM-5, herausgegeben 2013, wurden alle Einzelkategorien unter die "Autismus-Spektrum-Störung (ASS)" (autism spectrum disorders) zusammnengefasst. Menschen mit Asperger-Syndrom können sich schlecht in andere Menschen hineinversetzen und deren Stimmungen oder Gefühle an äußeren Anzeichen ablesen. Überhaupt können sie nur schwer zwischen den Zeilen lesen und nicht-wörtliche Bedeutungen von Ausdrücken oder Redewendungen verstehen. Sie ecken an, weil sie die für andere Menschen offensichtlichen nonverbalen Signale nicht verstehen. Da es ihnen meist schwerfällt, Gefühle zu benennen und auszudrücken, passiert es oft, dass ihre Mitmenschen dies als mangelndes persönliches Interesse missdeuten. Auch können sie in gefährliche Situationen geraten, da sie äußere Anzeichen, die auf eine bevorstehende Gefahr – etwa durch Betrüger oder Gewalttäter – hinweisen, oft nicht richtig deuten können. Stereotype Verhaltensmuster und Sonderinteressen. Menschen mit Asperger-Syndrom zeigen in ihrer Lebensgestaltung und in ihren Interessen repetitive und stereotype Verhaltensmuster. Das Leben von Menschen mit Asperger-Syndrom ist durch ausgeprägte Routinen bestimmt. Werden sie in diesen gestört, können sie erheblich beeinträchtigt werden. In ihren Interessen sind Menschen mit Asperger-Syndrom teilweise auf ein Gebiet begrenzt, auf dem sie meist ein enormes Fachwissen haben. Ungewöhnlich ist das Ausmaß, mit dem sie sich ihrem Interessensgebiet widmen; für andere Gebiete als das eigene sind sie meist nur schwer zu begeistern. Da Menschen mit Asperger-Syndrom meist gut logisch denken können, liegen ihre Interessensgebiete oft im mathematisch-naturwissenschaftlichen Bereich; die gesamte geisteswissenschaftliche Palette, aber auch andere Gebiete sind möglich. Ritualisierte und stereotype Denk- und Wahrnehmungsleistungen. Zu den ritualisierten Handlungen können neben motorischen Schematismen, Stereotypien und repetitiven Sprechhandlungen auch repetitive und stereotype Formen des Denkens und der Wahrnehmung gezählt werden. Diese bestehen in der Konzentration auf einige wenige, jedoch mit großer Intensität verfolgte Spezialinteressen. Die intensive Herausbildung von Spezialinteressen führt zur Entwicklung von Inselbegabungen, die mehr oder weniger stark ausgeprägt sein können. Die sogenannten Inselbegabungen sind also keine Fähigkeit, die unabhängig von den Handlungen der jeweiligen Person einfach vorhanden ist, sondern sie sind erst das Ergebnis einer langen und intensiven Beschäftigung mit einem bestimmten Gegenstandsbereich. Hier bilden sich neuronale Felder und Netze von hoher lokaler Konnektivität heraus, die jedoch nur schwach durch globale Konnektivität im Gehirn mit anderen Arealen verbunden sind. Differentialdiagnose. Autistische Verhaltensweisen können auch bei anderen Syndromen und Krankheiten auftreten. Von diesen muss Autismus abgegrenzt werden. Häufigkeit. Eine Analyse von 11.091 Interviews von 2014 durch das "National Center for Health Statistics" der USA ergab eine Häufigkeit (Lebenszeitprävalenz) des ASS von 2,24 % in der Altersgruppe 3-17 Jahre, 3,29 % bei Jungen und 1,15 % bei Mädchen. Eine Übersicht von 2015 zeigte, dass die Zahlen zur Geschlechterverteilung wegen methodischer Schwierigkeiten stark variierten. Das Verhältnis männlich-weiblich betrage jedoch mindestens 2:1 bis 3:1, was auf einen biologischen Faktor in dieser Frage hindeute. a> je 1000 Einwohner von 1996 bis 2007. Die Zahl der Autismus-Fälle scheint in den vergangenen Jahrzehnten stark gestiegen zu sein. Das Center for Disease Control (CDC) in den USA gibt einen Anstieg der Fälle von Autismus um 57 % zwischen 2002 und 2006 an. 2006 war 1 von 110 Kindern im Alter von 8 Jahren von Autismus betroffen. Obwohl bessere und frühere Diagnostik eine Rolle spielt, kann laut CDC nicht geleugnet werden, dass ein Teil des Anstiegs auf eine tatsächliche Erhöhung der Fälle zurückzuführen ist. Früher gab es den Verdacht, dass Umweltgifte oder Impfstoff-Zusätze Autismus auslösen können. Die US-Gesundheitsbehörde FDA betrachtet diese Hypothesen jedoch seit 2006 als widerlegt. Folgen und Komplikationen. Autismus kann die Entwicklung der Persönlichkeit, die Berufschancen und die Sozialkontakte erheblich beeinträchtigen. Der Langzeitverlauf einer Störung aus dem Autismusspektrum hängt von der individuellen Ausprägung beim einzelnen Patienten ab. Die Ursache des Autismus kann nicht behandelt werden. Möglich ist lediglich eine unterstützende Behandlung in einzelnen Symptombereichen. Andererseits sind viele Schwierigkeiten, über die autistische Menschen berichten, durch Anpassungen der Umwelt vermeidbar oder verminderbar. Beispielsweise berichten manche von einem Schmerzempfinden für bestimmte Tonfrequenzen. Solchen Menschen geht es in einem reizarmen Umfeld deutlich besser. Eine autismusgerechte Umwelt zu finden bzw. herzustellen ist deshalb ein wesentliches Ziel. Kommunikationstraining für Autisten sowie für deren Freunde und Angehörige kann für alle Beteiligten hilfreich sein und wird beispielsweise in Großbritannien von der "National Autistic Society" angeboten und wissenschaftlich weiterentwickelt. Eine zunehmende Zahl von Schulen, Colleges und Arbeitgebern speziell für autistische Menschen demonstriert den Erfolg, Autisten in autismusgerechten Umfeldern leben zu lassen. Die autistischen Syndrome gehören nach dem (deutschen) Schwerbehindertenrecht zur Gruppe der psychischen Behinderungen. Nach den Anhaltspunkten für die ärztliche Gutachtertätigkeit im sozialen Entschädigungsrecht und nach dem Schwerbehindertenrecht beträgt der Grad der Behinderung bei der leichten Form (beispielsweise Typ Asperger, HFA) 50 bis 80, ansonsten 100 Grad der Behinderung. Beim frühkindlichen und atypischen Autismus bleibt eine Besserung des Symptombilds meist in engen Grenzen. Etwa 10–15 % der Menschen mit frühkindlichem Autismus erreichen im Erwachsenenalter eine eigenständige Lebensführung. Der Rest benötigt in der Regel eine intensive, lebenslange Betreuung und eine geschützte Unterbringung. Über den Langzeitverlauf beim Asperger-Syndrom gibt es noch keine Studien. Hans Asperger selbst nahm einen positiven Langzeitverlauf an (Lit.: Asperger 1944, S. 132f.). In der Regel lernen Menschen mit Asperger-Syndrom im Laufe ihrer Entwicklung, ihre Probleme – abhängig vom Grad ihrer intellektuellen Fähigkeiten – mehr oder weniger gut zu kompensieren. Der britische Autismusexperte Tony Attwood vergleicht den Entwicklungsprozess von Menschen mit Asperger-Syndrom mit der Erstellung eines Puzzles. Mit der Zeit bekommen sie die einzelnen Teile des Puzzles zusammen und erkennen das ganze Bild. So können sie das Puzzle (oder Rätsel) des Sozialverhaltens lösen (Lit.: Attwood 2005, S. 224). Schließlich können Menschen mit Asperger-Syndrom einen Status erreichen, in dem ihre Störung im Alltag nicht mehr auffällt. Es existiert eine Reihe von Büchern über autistische Menschen. Der Neurologe Oliver Sacks und Psychologe Torey L. Hayden haben Bücher über ihre Patienten mit Autismus und deren Lebensweg veröffentlicht. An Büchern, die von Autisten selbst geschrieben wurden, sind insbesondere die Werke der US-amerikanischen Tierwissenschaftlerin Temple Grandin, der australischen Schriftstellerin und Künstlerin Donna Williams, der US-amerikanischen Erziehungswissenschaftlerin Liane Holliday Willey und des deutschen Schriftstellers und Filmemachers Axel Brauns bekannt. Schule, Ausbildung, Beruf. Welche Schule für Menschen mit Autismus geeignet ist, hängt von Intelligenz, Sprachentwicklung und Ausprägung des Autismus beim Einzelnen ab. Sind Intelligenz und Sprachentwicklung normal ausgeprägt, können Kinder mit Autismus eine Regelschule besuchen. Andernfalls kann der Besuch einer Förderschule in Betracht gezogen werden. Hinsichtlich Ausbildung und Beruf muss ebenfalls der individuelle Entwicklungsstand des Einzelnen berücksichtigt werden. Sind Intelligenz und Sprachentwicklung normal ausgeprägt, können ein reguläres Studium oder eine reguläre Berufsausbildung absolviert werden. Andernfalls kann etwa eine Tätigkeit in einer Werkstatt für behinderte Menschen in Frage kommen. In jedem Fall ist es für die Integration und das Selbstwertgefühl autistischer Menschen wichtig, einer Tätigkeit nachgehen zu können, die ihren individuellen Fähigkeiten und Interessen entspricht. Problematisch kann der Einstieg ins reguläre Berufsleben werden, da viele Autisten die hohen sozialen Anforderungen der heutigen Arbeitswelt nicht erfüllen können. Verständnisvolle Vorgesetzte und Kollegen sind für Menschen mit Autismus unerlässlich. Wichtig sind außerdem geregelte Arbeitsabläufe und überschaubare Sozialkontakte. In einem ökologischen Weltbild geht es darum, dass sehr unterschiedliche Menschen, die in einem Ökosystem zusammenleben (im Falle des Menschen einem sozio-ökonomischen Ökosystem) passende Nischen finden, in denen sie gut zurechtkommen. Eine autismusgerechte Umwelt zu finden bzw. herzustellen ist daher ein wesentliches Ziel, beispielsweise spezialisierte Schulen. In den USA gibt es Zentren, die erwachsenen Autisten Arbeitsplätze vermitteln, gegebenenfalls in Kombination mit betreutem Wohnen. Die dänische Zeitarbeitsfirma Specialisterne demonstriert den Erfolg, Autisten in autismusgerechte Umfelder zu vermitteln. Der richtige Arbeitsplatz für Autisten, der besondere Eigenarten der Autisten berücksichtigt, kann schwieriger zu finden, aber oft auch sehr erfüllend sein. Spezialisierte Berufsberatungen für das Autismusspektrum gibt es kaum, da für Autisten in Deutschland die Integrationsämter zuständig sind. Die dänische Firma plant, auch in anderen Ländern etwa in Datenbankführung oder Computerprogrammierung zu vermitteln – Berufsfelder u. a., in denen oft speziell begabte Menschen mit Autismus sogar besser als andere sein können. Derart lässt sich etwa ein phänomenales Zahlengedächtnis einsetzen – stets ohne geräuschvolles Großraumbüro und mit mäßiger Arbeitszeit usw. Ende 2011 wurde in Berlin die Firma Auticon gegründet. Sie hat sich darauf spezialisiert, die oft enormen Begabungen von Menschen mit Asperger-Autismus zum Beispiel in der Qualitätskontrolle von Software zu nutzen. Die israelischen Streitkräfte setzen Autisten bevorzugt bei der Auswertung von Luftfotos ein. Der britische Psychologe Attwood schreibt über die Diagnose von leicht autistischen Erwachsenen, dass diese teilweise gut zurechtkommen, wenn sie etwa einen passenden Arbeitsplatz gefunden haben, aber im Fall von Krisen – etwa durch Arbeitslosigkeit – von ihrem Wissen über das Asperger-Syndrom zur Bewältigung von Krisen profitieren. Behandlung. Ausgehend von der individuellen Entwicklung wird ein Plan aufgestellt, in dem die Art der Behandlung einzelner Symptome festgelegt und aufeinander abgestimmt wird. Bei Kindern wird das gesamte Umfeld (Eltern, Familien, Kindergarten, Schule) in den Behandlungsplan einbezogen. Angebote für Erwachsene sind vielerorts erst im Aufbau begriffen. Einen Überblick über Anwendungen, Therapien und Interventionen hat die englische National Autistic Society veröffentlicht. Eine Auswahl von Behandlungsmethoden soll im Folgenden kurz vorgestellt werden. Einen Überblick bietet Lit.: Poustka 2004, S. 52–61. Weiterführende Informationen enthält Lit.: Weiß 2002. Zur Behandlung bei Erwachsenen liegt eine umfassende Übersicht von 2013 durch die Freiburger Autismus-Studiengruppe vor. Verhaltenstherapie. Die Verhaltenstherapie ist in der Autismustherapie die am besten wissenschaftlich abgesicherte Therapieform. Zu den Wirkfaktoren der Verhaltenstherapie bei Autimus liegt eine umfassende Studie von 2014 vor. Ziel ist es, einerseits störende und unangemessene Verhaltensweisen wie übermäßige Stereotypien oder (auto)aggressives Verhalten abzubauen und andererseits soziale und kommunikative Fertigkeiten aufzubauen. Im Prinzip wird dabei so vorgegangen, dass erwünschtes Verhalten durchgängig und erkennbar belohnt wird (positive Verstärkung). Verhaltenstherapien können entweder ganzheitlich oder auf einzelne Symptome ausgerichtet sein. Die "Angewandte Verhaltensanalyse" (Applied Behavior Analysis, ABA) ist eine ganzheitlich ausgerichtete Therapieform, die in den 1960er Jahren von Ivar Lovaas entwickelt wurde. Diese Therapieform ist auf die Frühförderung ausgerichtet. Zunächst wird anhand einer Systematik festgestellt, welche Fähigkeiten und Funktionen das Kind bereits besitzt und welche nicht. Hierauf aufbauend werden spezielle Programme erstellt, die das Kind befähigen, die fehlenden Funktionen zu erlernen. Die Eltern werden in die Therapie einbezogen. Die Verfahrensweisen von ABA basieren im Wesentlichen auf Methoden des operanten Konditionierens. Hauptbestandteile sind Belohnung bei richtigem Verhalten und Löschung bei falschem Verhalten. Lernversuche und -erfolge sowie erwünschtes Verhalten werden möglichst direkt verstärkt, wobei primäre (angeborene) Verstärker (wie Nahrungsmittel) und sekundäre (erlernte) Verstärker (wie Spielzeug) eingesetzt werden, um erwünschtes Verhalten zu belohnen. In den 1980er Jahren wurde ABA durch Jack Michael, Mark Sundberg und James Partington weiterentwickelt, indem auch die Vermittlung sprachlicher Fähigkeiten einbezogen wurde. Es gibt zurzeit in der Bundesrepublik Deutschland nur zwei Institute, die diese Therapie anbieten. Ein weiteres ganzheitlich orientiertes pädagogisches Förderkonzept ist "TEACCH" (Treatment and Education of Autistic and related Communication-handicapped Children), das sich sowohl an Kinder als auch an Erwachsene mit Autismus richtet. TEACCH ist darauf ausgerichtet, die Lebensqualität von Menschen mit Autismus zu verbessern und sie anzuleiten, sich im Alltag zurechtzufinden. Zentrale Annahmen des Konzeptes sind, dass Lernprozesse durch Strukturierung und Visualisierung bei Menschen mit autistischen Merkmalen eingeleitet werden können (Lit.: Häussler, 2005). Elterntraining. Eltern autistischer Kinder erleben nachweislich signifikant mehr Stress als Eltern von Kindern mit anderen Abweichungen oder Behinderungen. Eine Reduzierung des Stresses der Eltern zeigt deutliche Besserungen im Verhalten ihrer autistischen Kinder. Es gibt starke Hinweise für einen Zusammenhang zwischen der Stressbelastung der Eltern und den Verhaltensproblemen ihrer Kinder, unabhängig von der Schwere des Autismus. Verhaltensprobleme der Kinder zeigen sich nicht vor, sondern auch während erhöhter Stressbelastung der Eltern. Die National Autistic Society hat das „NAS EarlyBird“ Programm entwickelt, ein dreimonatiges Trainingsprogramm für Eltern, um sie auf das Thema Autismus effektiv vorzubereiten. Medikamentöse Behandlung. Medikamentöse Behandlung der Begleitsymptome wie beispielsweise Angst, Depressionen, Aggressivität oder Zwänge mit Antidepressiva (etwa SSRI), atypischen Neuroleptika oder Benzodiazepinen kann eine Komponente im Gesamtbehandlungsplan sein, bedarf jedoch besonderer Vorsicht und aufmerksamer Beobachtung, denn nicht selten verschlimmern sie bei falscher Anwendung die Symptome, statt sie zu mildern. Mit besonderer Vorsicht ist bei der Gabe von Stimulanzien, wie sie bei Hyperaktivität (ADHS) verschrieben werden, vorzugehen, da sie bei vorhandenem Autismus und der damit einhergehenden sensorischen Hypersensibilität diese noch verstärken können. Ergänzende Maßnahmen. Mögliche ergänzende Methoden sind etwa Musik-, Kunst-, Massagetherapie, ebenso wie Reit- und Delfintherapie oder der Einsatz von Therapierobotern (Keepon) oder Echolokationslauten (Dolphin Space). Sie können die Lebensqualität steigern, indem sie positiv auf Stimmung, Ausgeglichenheit und Kontaktfähigkeit einwirken. Das zeigt 2008 etwa ein umfassender wissenschaftsjournalistischer Bericht über zwei eigene autistische Kinder – mit Hund. Verfahren ohne Wirksamkeitsnachweis. Weitere bekannte Maßnahmen sind Festhaltetherapie, Gestützte Kommunikation und Daily-Life-Therapie. Diese Maßnahmen „sind im Kontext der Behandlung des Autismus entweder äußerst umstritten und unglaubwürdig oder deren Annahmen und Versprechungen wurden durch wissenschaftliche Untersuchungen im Wesentlichen widerlegt“. (Lit.: Poustka 2004, S. 59) Des Weiteren gibt es verschiedene „biologisch begründete“ Therapiemethoden – etwa die Behandlung mit dem Darmhormon Sekretin –, unter Verwendung hoher Dosen von Vitaminen und Mineralien oder mit besonderen Diäten. Auch hier fehlen bisher Wirksamkeitsnachweise, so dass von diesen Maßnahmen abgeraten wird (Lit.: Poustka 2004, S. 59) Mögliche Ursachen von Autismus. Mögliche Ursachen oder Auslöser von Autismus werden heute auf unterschiedlichen Gebieten erforscht. Die noch bis in die 1960er Jahre vertretene These, Autismus entstehe aufgrund der emotionalen Kälte der Mutter (ehemaliger Terminus der sogenannten „Kühlschrankmutter“), durch lieblose Erziehung, mangelnde Zuwendung oder psychische Traumata, gilt heute als widerlegt. Genetische Faktoren. Die genetischen Ursachen des Gesamtbereichs des Autismusspektrums haben sich als äußerst vielfältig und hochkomplex erwiesen. In einer Übersicht von 2011 wurden bereits 103 Gene und 44 Genorte (Genloci) als Kandidaten für eine Beteiligung identifiziert, und es wurde vermutet, dass die Zahlen weiter stark steigen würden. Es wird allgemein davon ausgegangen, dass die immensen Kombinationsmöglichkeiten vieler genetischer Abweichungen die Ursache für die große Vielfalt und Breite des Autismusspektrums sind. Spiegelneuronen. Bis 2013 gab es widersprüchliche Hinweise zu der Hypothese, dass Systeme von Spiegelneuronen bei Menschen mit Autismus möglicherweise nicht hinreichend funktionstüchtig seien. In einer Metaanalyse von 2013 wurde dann festgestellt, dass es wenig gebe, das die Hypothese stütze und dass das Datenmaterial eher mit der Annahme vereinbar sei, dass die absteigende (Top-down-)Modulierung sozialer Reaktionen bei Autismus atypisch sei. Abweichungen im Verdauungstrakt. Obwohl Verdauungsstörungen im Zusammenhang mit ASS oft beschrieben wurden, gibt es bis heute (Stand November 2015) keine zuverlässigen Daten zu einer möglichen Korrelation oder gar einem möglichen ursächlichen Zusammenhang - weder in die eine noch die andere Richtung. Vermännlichung des Gehirns. Die Theorie, dass eine Vermännlichung des Gehirns ("Extreme Male Brain Theory") durch einen hohen Testosteronspiegel im Mutterleib ein Risikofaktor für ASS sein könnte, wurde in neueren Studien gezielt untersucht, konnte jedoch nicht bestätigt werden. Atypische Konnektivität. a> (DT-MRI) ermöglicht eine Rekonstruktion von Nervenbahnen im Gehirn (Traktografie). 2004 entdeckte eine Forschergruppe um Marcel Just und Nancy Minshew an der Carnegie Mellon University in Pittsburgh (USA) die Erscheinung der veränderten Konnektivität (großräumiger Informationsfluss, engl. "connectivity") im Gehirn bei den Gruppendaten von 17 Probanden aus dem Asperger-Bereich des Autismusspektrums. Funktionelle Gehirnscans (fMRI) zeigten im Vergleich zur Kontrollgruppe sowohl Bereiche erhöhter als auch Bereiche verminderter Aktivität, sowie eine verminderte Synchronisation der Aktivitätsmuster verschiedener Gehirnbereiche. Auf der Grundlage dieser Ergebnisse entwickelten die Autoren erstmals die Theorie der "Unterkonnektivität" "(underconnectivity)" für die Erklärung des Autismusspektrums. Die Ergebnisse wurden relativ schnell in weiteren Studien bestätigt, ausgebaut und präzisiert, und das Konzept der "Unterkonnektivität" wurde entsprechend fortentwickelt. Bezüglich anderer Theorien wurde es nicht als Gegenmodell, sondern als übergreifendes Generalmodel präsentiert. In den folgenden Jahren nahm die Anzahl der Studien zur "Konnektivität" bei Autismusspektrum explosionsartig zu. Dabei wurde neben eher globaler "Unterkonnektivität" häufig auch eher lokale "Überkonnektivität" gefunden. Letztere wird allerdings – gestützt auf Kenntnisse der frühkindlichen Gehirnentwicklung bei Autismus – eher als Überspezialisierung und nicht als Steigerung der Effektivität verstanden. Um beide Erscheinungen zu berücksichtigen, wird das Konzept nun "atypische Konnektivität" genannt. Es zeichnet sich ab (Stand: Juli 2015), dass es sich als Konsensmodell in der Forschung etabliert. Dies gilt auch, wenn der Asperger-Bereich des Autismusspektrums für sich betrachtet wird. Die beim Autismusspektrum vorliegende "atypische Konnektivität" wird verstanden als Ursache des hier beobachteten besonderen Verhaltens, wie etwa bei der Erfassung von Zusammenhängen zwischen Dingen, Personen, Gefühlen und Situationen. In diesem Zusammenhang stehen auch mehrere Studien, die kognitive Stärken autistischer Menschen belegen und die daher die Frage aufwerfen, ob eher von einer unterschiedlichen anstatt von einer defekten Wahrnehmung zu sprechen sei. So hätten Autisten nicht etwa eine niedrigere, sondern stattdessen eine andere Intelligenz als nicht autistisch diagnostizierte Menschen und zeigten eine Reihe von kognitiven Stärken gegenüber nichtautistischen Personen. Schäden durch falsche Impfung/Impfstoffe. Es taucht immer wieder das Gerücht auf, Autismus könne durch Impfungen etwa gegen Mumps, Masern oder Röteln verursacht werden, wobei eine im Impfstoff enthaltene organische Quecksilberverbindung, das Konservierungsmittel Thiomersal (engl.: Thimerosal), als auslösende Substanz verdächtigt wird. Derlei Berichte entbehren jedoch "„jeglicher wissenschaftlicher Grundlage, so unterscheidet sich die Häufigkeit von Autismus nicht bei geimpften und ungeimpften Kindern.“" (Lit.: Poustka 2004, S. 60). Durch verschiedene Studien ist der Zusammenhang zwischen Thiomersal enthaltenden Impfstoffen und Autismus mittlerweile widerlegt. Ungeachtet dessen ist heute in der Regel in Impfstoffen kein Thiomersal mehr enthalten. Eine Abnahme der Anzahl der Neuerkrankungen war erwartungsgemäß in Folge nicht zu beobachten – eine weitere Schwächung der „Autismus-durch-Impfung“-Hypothese. Die Annahmen, dass Autismus eine Folge von Impfschäden sein soll, ging auf eine Veröffentlichung von Andrew Wakefield in der Fachzeitschrift "The Lancet" 1998 zurück. 2004 wurde bekannt, dass Wakefield vor der Veröffentlichung von Anwälten, die Eltern Autismus-betroffener Kinder vertraten, 55.000 £ an Drittmitteln erhalten hatte. Diese suchten Verbindungen zwischen Autismus und der Impfung, um Hersteller des Impfstoffes zu verklagen. Die Gelder waren weder den Mitautoren noch der Zeitschrift bekannt gewesen. Daraufhin traten zehn der dreizehn Autoren des Artikels von diesem zurück. Im Januar 2010 entschied die britische Ärztekammer (General Medical Council), dass Wakefield „unethische Forschungsmethoden“ angewandt hatte und seine Ergebnisse in „unehrlicher“ und „unverantwortlicher“ Weise präsentiert wurden. "The Lancet" zog daraufhin Wakefields Veröffentlichung vollständig zurück. In der Folge wurde im Mai 2010 auch ein Berufsverbot in Großbritannien gegen ihn ausgesprochen. Die amerikanische "Food and Drug Administration" hat im September 2006 einen Zusammenhang zwischen Autismus und Impfstoffen als unbegründet abgewiesen. Während die Hypothese, dass ein Zusatz von Thiomersal in Impfstoffen das Risiko von ASS erhöhen könnte, als vielfach widerlegt gilt, ist der mögliche Einfluss anderweitiger - umweltbedingter - erhöhter Aufnahme von Quecksilber auf das ASS-Risiko aufgrund widersprüchlicher Untersuchungsergebnisse noch umstritten. Auties und Aspies. Die Ausprägungen von Autismus umfassen ein breites Spektrum. Verständlich ist, dass sich manche Menschen mit einer starken Ausprägung des Autismus eine Heilung wünschen (nicht alle von ihnen tun dies). Viele Erwachsene mit leichter Ausprägung des Autismus haben gelernt, mit ihren autistischen Eigenarten zurechtzukommen. Sie wünschen sich vielfach keine Heilung ihres Autismus, sondern die Akzeptanz durch ihre Mitmenschen. Auch sehen sie Autismus nicht als etwas von ihnen Getrenntes, sondern als integralen Bestandteil ihrer Persönlichkeit. Die australische Künstlerin und Kanner-Autistin Donna Williams hat in diesem Zusammenhang den Begriff "Auties" eingeführt, der sich entweder speziell auf Menschen mit Kanner-Autismus oder allgemein auf alle Menschen mit einer Autismus-Spektrum-Störung bezieht. Von der US-amerikanischen Erziehungswissenschaftlerin und Asperger-Autistin Liane Holliday Willey stammt die Bezeichnung "Aspies" für Menschen mit Asperger-Syndrom. Die Psychologen Tony Attwood und Carol Gray richten in ihrem Essay "Die Entdeckung von „Aspie“" den Blick auf positive Eigenschaften von Menschen mit Asperger-Syndrom. Die Begriffe Auties und Aspies wurden von vielen Selbsthilfeorganisationen von Menschen im Autismusspektrum übernommen. Um dem Wunsch vieler Autisten nach Akzeptanz durch ihre Mitmenschen Ausdruck zu verleihen, feiern einige seit 2005 jährlich am 18. Juni den "Autistic Pride Day." Der Kampfbegriff der Autismusrechtsbewegung – „Neurodiversität“ ("neurodiversity") – bringt die Idee zum Ausdruck, dass eine untypische neurologische Entwicklung ein normaler menschlicher Unterschied sei, der ebenso Akzeptanz verdiene wie jede andere – physiologische oder sonstige – Variante des Menschseins. Autismusforschung. Einige Wissenschaftler kritisieren, dass in der Autismusforschung positive Forschungsergebnisse über Autismus oft ignoriert werden. So erforscht die Autistin Michelle Dawson die Natur autistischer Intelligenz. In der Grundlagenforschung wurde bei der visuellen Wahrnehmung von Autisten ein überscharfer Aufmerksamkeitswinkel festgestellt, der in seiner Schärfe ("sharpness") stark mit der Schwere der autistischen Symptome korrelierte, sowie eine erhöhte Empfindlichkeit für visuelle Feinkontraste. Psychologieprofessorin Morton Gernsbacher (Mutter eines autistischen Kindes und ehemalige Präsidentin der US-amerikanischen Association for Psychological Science) schreibt regelmäßig über voreingenommene negative Autismusforschung und setzt sich für das Autism Acceptance Project ein. Dinah Murray hat auf der Autism2006 AWARES Conference einen Artikel über die problematische Definition von Autismus als Dysfunktion geschrieben. Sie geht dabei auf deren Ursachen ein und macht auf positive Forschungsergebnisse zum Autismus aufmerksam. Eine Gruppe von Wissenschaftlern des Max-Planck-Instituts für Bildungsforschung und der Freien Universität Berlin arbeitet seit einigen Jahren in einem bundesweit einmaligen Projekt gemeinsam mit Menschen mit Autismus und Asperger-Syndrom in der Autismus-Forschungs-Kooperation (AFK) an der Erforschung des Autismus, wobei die Entscheidung über die Relevanz der jeweiligen Fragestellung aus der Perspektive der autistischen Menschen getroffen wird, die aktiv in die Planung, Durchführung und Auswertung von Forschungsprojekten eingebunden sind. Durch das Publizieren der Resultate werden Erkenntnisse über das Autismusspektrum der breiten Öffentlichkeit bzw. spezifischen Adressaten (wie Lehrern, Mitarbeitern der Arbeitsagenturen) zugänglich gemacht und Stigmatisierung wird begegnet. Aktuelle Ergebnisse der internationalen Autismusforschung werden auf der seit 2007 jährlich stattfindenden "Wissenschaftlichen Tagung Autismus-Spektrum" (WTAS) vorgestellt. Diese Tagung ist mit Gründung der "Wissenschaftlichen Gesellschaft Autismus-Spektrum" (WGAS) 2008 auch deren wesentliches Organ. Ein besonderes Forschungszentrum im deutschsprachigen Raum ist das Universitäre Zentrum Autismus Spektrum (UZAS) in Freiburg. Barrierefreiheit. Eine UN-Studie erkennt die kulturelle Eigenart von Autisten, barrierefrei online Gemeinschaften zu bilden, als im Rahmen der Menschenrechte gleichwertig an: „Here, the concept of community should not be necessarily limited to a geographic and physical location: some persons with autism have found that support provided online may be more effective, in certain cases, than support received in person.“ Autisten haben das Recht auf barrierefreie fernschriftliche Kommunikation. Das kann beispielsweise einer Entscheidung des Bundessozialgerichts vom 14. November 2013 entnommen werden, die von der "Enthinderungsselbsthilfe von Autisten für Autisten" erstritten wurde. Bis 2010. Autisten galten bislang als Schwerbehinderte mit einem GdB (Grad der Behinderung) zwischen 50 und 100. Nach den Anhaltspunkten für die ärztliche Gutachtertätigkeit (AHG) im sozialen Entschädigungsrecht und nach dem Schwerbehindertenrecht Teil 2 SGB IX wurde bei autistischen Kindern bis zum 16. Lebensjahr Hilflosigkeit angenommen, ggf. auch darüber hinaus. Austria. Die Austria vor der Schottenkirche in Wien Austria ist die latinisierte Landesbezeichnung für "Österreich" (womit ursprünglich nur das heutige Niederösterreich, später die ganze Habsburgermonarchie bzw. ihre Dynastie gemeint war). Das Wort wird in verschiedenen Sprachen zur Bezeichnung Österreichs verwendet und dient auch im Sinne einer Marke zur Bezeichnung eines Österreichbezugs. Eine Frau mit dem Namen Austria wurde als symbolische Staatsgestalt eingesetzt: mit einem Mauerkranz im Haar, sich auf einen Wappenschild stützend und allenfalls mit einem Speer in der Hand. Wortherkunft und Geschichte. Am 25. Februar 1147 wurden auf einer Urkunde König Konrads III. die Markgrafen von Österreich als "Austrie marchionibus" (Dativ pl.) bezeichnet. Das Dokument wird im Stift Klosterneuburg der Augustiner-Chorherren aufbewahrt. Diese im lateinischen Kontext gebrauchte Bezeichnung ist nicht lateinischer Herkunft, sondern vom altgermanischen: "*austar-", althochdeutsch („östlich, im Osten“) abgeleitet, wie sie etwa beim germanisch-mythologischen Zwerg des Ostens "Austri" vorkommt, vergleiche auch "Austrasien", das Ostfrankenreich. Auch in der Form "ôstar-" steckt die Wurzel wohl im älteren Namen "Ostarrîchi". Die Ähnlichkeit mit lat. "Auster" („Südwind“) und "terra australis" („Südland“) in "Australia" (Australien) ist zufällig. Die Bedeutung von "Austrie marchionibus" ist demnach „östlich liegende Marken (Gebiet)“. Seit dem Mittelalter ist "Austria" das "Erzherzogtum Österreich", "(Archi-)Dux Austriae" der Herzog/Erzherzog von Österreich. Seit dem 15. Jahrhundert ist die "Casa de Austria" das "Haus Österreich", im Speziellen dann die spanische Linie. Seit dem 18. Jahrhundert ist die "Austria" die Nationalallegorie Österreichs. Länderkennzeichen. In Österreich zugelassene Kraftfahrzeuge werden mit dem Buchstaben codice_1 als Länderkennzeichen gekennzeichnet. Nach dem früher üblichen Aufkleber, der bei Auslandsreisen am Wagenheck zu führen war, befindet sich der Buchstabe heute auf dem Euro-Kennzeichen. In der ISO-3166-Kodierliste findet sich Österreich mit den Kürzeln codice_2 und codice_3; die Top-Level-Domain ist codice_4. Führen des Namens der Republik in Firmennamen. Die Führung des Wortes "Austria" in Unternehmensnamen (Firma) oder anderen Institutionen ist nur mit bundesbehördlicher Genehmigung zulässig. Z2 Unternehmensgesetzbuch besagt Dieser Grundsatz wurde in Bezug auf die Namenszusätze "Austria", "austro" – aber auch "Österreich", "österreichisch" und die Namen anderer Gebietskörperschaften, wie "steirisch", "Vienna" – dahingehend ausgelegt, dass sie. Analoges gilt für Vereine und andere Verbände. Made in Austria. Produkte aus Österreich erhalten das Merkmal "Made in Austria" („hergestellt in Österreich“), das keinen expliziten rechtlichen Schutz genießt, aber durch gerichtliche Entscheide gesichert ist. Es gibt Bestrebungen, den Begriff durch "Made in EU" zu ersetzen. Die Bezeichnung ist seit 1946 durch das österreichische Gütesiegel "Austria Gütezeichen" präzisiert, das vom Wirtschaftsministerium überwacht wird. Anatexis. Als Anatexis (griechisch ανατηξις „Schmelzen“), auch Migmatisierung, bezeichnet man das partielle Aufschmelzen von Gesteinen der Erdkruste infolge von Temperaturerhöhung, Druckentlastung und/oder Fluidzufuhr (z. B. von H2O, CO2). Anatexis findet in der tieferen Erdkruste statt, zumeist im Laufe von Gebirgsbildungsprozessen, z. B. im Himalaya und den Alpen, aber auch im Thüringer Wald. Die resultierenden Gesteine werden als Migmatite bezeichnet bzw. als migmatisierte Gneise, Schiefer etc. Das Anfangsstadium der Aufschmelzung wird als "Metatexis" bezeichnet. Die Mobilisation findet hierbei nur an den Korngrenzen statt und betrifft nur einen Teil des Mineralbestands (partielle Schmelze). Im höheren Stadium, der "Diatexis", werden zunehmend auch die dunklen (mafischen) Mineralbestandteile aufgeschmolzen, bis es schließlich zur Bildung von Magma und magmatischen Gesteinen kommt. Die mehr oder weniger aufgeschmolzenen Gesteine ("Metatexite" und "Diatexite") werden als Migmatite (oder "Anatexite") zusammengefasst. Bei granitischen Gesteinen findet die Anatexis unter fluidgesättigten Bedingungen bei Temperaturen oberhalb von 650 °C statt. Typische Drücke liegen bei 0,5 bis 1 GPa (entspricht dem Druck in 15 bis 35 km Tiefe). Hierbei werden hauptsächlich der Quarz und die Feldspäte aufgeschmolzen. Bei steigenden Temperaturen bilden sich sukzessive granitische, granodioritische und quarzdioritische Schmelzen. Basische Gesteine schmelzen erst bei deutlich höheren Temperaturen. Da Quarzite, Amphibolite und Kalksilikatfelse in der Natur praktisch nie als Anatexite angetroffen werden und selbst in ausgedehnten Migmatitgebieten als sogenannte "Resisters" unverändert erhalten sind, schätzt man die maximale Temperatur, die bei einer regionalen Aufschmelzung erreicht wird, auf etwa 800 °C. Axiomensystem. Ein Axiomensystem (auch: Axiomatisches System) ist ein System von "grundlegenden Aussagen", Axiomen, die ohne Beweis angenommen und aus denen alle Sätze (Theoreme) des Systems logisch abgeleitet werden. Die Ableitung erfolgt dabei durch die Regeln eines formalen logischen Kalküls. Eine Theorie besteht aus einem Axiomensystem und all seinen daraus abgeleiteten Theoremen. Mathematische Theorien werden in der Regel als Elementare Sprache (auch: Sprache erster Stufe mit Symbolmenge) im Rahmen der Prädikatenlogik erster Stufe axiomatisiert. Ein Beispiel: Die Gruppentheorie. Die Gruppentheorie formuliert man als elementare Sprache im Rahmen der Prädikatenlogik 1. Stufe. Auf dieses Axiomensystem lässt sich die gesamte Gruppentheorie aufbauen; d. h. alle Theoreme der Gruppentheorie lassen sich hiermit ableiten. Eigenschaften von Axiomensystemen. Wir bezeichnen im Folgenden wie üblich die Ableitbarkeitsrelation des zugrundegelegten logischen Kalküls (Sequenzenkalkül, Kalkül des natürlichen Schließens) mit formula_9; sei formula_10 die zugehörige Inferenzoperation, die also jeder Menge M von Axiomen die zugehörige "Theorie" formula_11 zuordnet. Die Inferenzoperation ist ein Hüllenoperator, d. h. es gilt insbesondere formula_12 (Idempotenz des Hüllenoperators). Deshalb sind Theorien deduktiv abgeschlossen, man kann also nichts Weiteres aus T herleiten, was nicht schon aus M beweisbar wäre. M nennt man auch eine Axiomatisierung von T. Konsistenz. Eine Menge M von Axiomen (und auch die dazugehörende Theorie T) wird "konsistent" (oder "widerspruchsfrei") genannt, falls man aus diesen Axiomen keine Widersprüche ableiten kann. Das bedeutet: Es ist nicht möglich, sowohl einen Satz A als auch seine Negation ¬ A mit den Regeln des Axiomensystems aus M (bzw. T) herzuleiten. Unabhängigkeit. formula_13 für alle formula_14. Prägnant zusammengefasst: „Unabhängig sind die Axiome, wenn keines von ihnen aus den anderen ableitbar ist“. Vollständigkeit. Eine Menge M von Axiomen wird vollständig (auch negationstreu) genannt, wenn für jeden Satz A der Sprache gilt, dass der Satz A selbst oder seine Negation ¬ A aus den Axiomen in M hergeleitet werden kann. Dazu gleichbedeutend ist, dass jede Erweiterung von M durch einen bisher nicht beweisbaren Satz widersprüchlich wird. Analoges gilt für eine Theorie. Vollständige Theorien zeichnen sich also dadurch aus, dass sie keine widerspruchsfreien Erweiterungen haben. Vorsicht: die Vollständigkeit einer Theorie oder einer Axiomenmenge ist eine rein syntaktische Eigenschaft und darf nicht mit der semantischen Vollständigkeit verwechselt werden. Modelle und Beweise von Widerspruchsfreiheit, Unabhängigkeit und Vollständigkeit. Für das Folgende nehmen wir an, dass der zugrundeliegende Kalkül "korrekt" ist; d. h. dass jede syntaktischen Ableitung auch die semantische Folgerung impliziert (dies ist eine Minimalforderung an ein axiomatisches System, die z. B. für den Sequenzenkalkül der Prädikatenlogik 1. Stufe gilt). Wenn es zu einem Axiomensystem ein Modell besitzt, dann ist M widerspruchsfrei. Denn angenommen, es gäbe einen Ausdruck A mit formula_15 und formula_16. Jedes Modell von M wäre dann sowohl Modell von formula_17 als auch von formula_18 - was nicht sein kann. Die "Widerspruchsfreiheit" eines Axiomensystems lässt sich also durch Angabe eines einzigen Modells zeigen. So folgt z. B. die Widerspruchsfreiheit der obigen Axiome der Gruppentheorie durch die Angabe der konkreten Menge formula_19 mit formula_20 und der Definition von formula_4 durch die Addition modulo 2 (formula_22). Modelle kann man auch verwenden, um die "Unabhängigkeit" der Axiome eines Systems zu zeigen: Man konstruiert zwei Modelle für das Teilsystem, aus dem ein spezielles Axiom A entfernt wurde - ein Modell, in dem A gilt und ein anderes, in dem A nicht gilt. Zwei Modelle heißen isomorph, wenn es eine eineindeutige Korrespondenz zwischen ihren Elementen gibt, die sowohl Relationen als auch Funktionen erhält. Ein Axiomensystem, für das alle Modelle zueinander isomorph sind, heißt "kategorisch". Ein kategorisches Axiomensystem ist "vollständig". Denn sei das Axiomensystem nicht vollständig; d. h. es gebe einen Ausdruck A, für den weder A noch formula_18 aus dem System herleitbar ist. Dann gibt es sowohl ein Modell für formula_24 als auch eines für formula_25. Diese beiden Modelle, die natürlich auch Modelle für formula_26 sind, sind aber nicht isomorph. Logik. Für die elementare Aussagenlogik, die Prädikatenlogik erster Stufe und verschiedene Modallogiken gibt es axiomatische Systeme, die die genannten Anforderungen erfüllen. Für die Prädikatenlogiken höherer Stufen lassen sich nur widerspruchsfreie, aber nicht vollständige axiomatische Systeme entwickeln. Das Entscheidungsproblem ist in ihnen nicht lösbar. Arithmetik. Für die Arithmetik gilt der Gödelsche Unvollständigkeitssatz. Dies wird weiter unten diskutiert. Geometrie. David Hilbert gelang es 1899, die euklidische Geometrie zu axiomatisieren. Physik. Günther Ludwig legte in den 1980er Jahren eine Axiomatisierung der Quantenmechanik vor Sprachwissenschaft. Karl Bühler versuchte 1933, eine Axiomatik der Sprachwissenschaft zu entwickeln. Wirtschaftstheorie. Arnis Vilks schlug 1991 ein Axiomensystem für die neoklassische Wirtschaftstheorie vor. Axiomatisches System und Gödelscher Unvollständigkeitssatz. Die Gödelschen Unvollständigkeitssätze von 1931 sprechen über höchstens rekursiv aufzählbar axiomatisierte Theorien, die in der Logik erster Stufe formuliert sind. Es wird ein vollständiger und korrekter Beweiskalkül vorausgesetzt. Der erste Satz sagt aus: Falls die Axiome der Arithmetik widerspruchsfrei sind, dann ist die Arithmetik unvollständig. Es gibt also mindestens einen Satz formula_27, so dass weder formula_27 noch seine Negation ¬formula_27 in der Arithmetik beweis­bar sind. Des Weiteren lässt sich zeigen, dass jede Erweiterung der Axiome, die rekursiv aufzählbar bleibt, ebenfalls unvollständig ist. Damit ist die Unvollständigkeit der Arithmetik ein systematisches Phänomen und lässt sich nicht durch eine einfache Erweiterung der Axiome beheben. Der zweite Unvollständigkeitssatz sagt aus, dass sich insbesondere die Widerspruchsfreiheit der Arithmetik nicht im axiomatischen System der Arithmetik beweisen lässt. Axiom. Ein Axiom ist ein Grundsatz einer Theorie, einer Wissenschaft oder eines axiomatischen Systems, der innerhalb dieses Systems nicht begründet oder deduktiv abgeleitet wird. Abgrenzungen. Innerhalb einer formalisierbaren Theorie ist eine These ein Satz, der bewiesen werden soll. Ein Axiom ist ein Satz, der nicht in der Theorie bewiesen werden soll, sondern beweislos vorausgesetzt wird. Wenn die gewählten Axiome der Theorie "logisch unabhängig" sind, so kann keines von ihnen aus den anderen hergeleitet werden. Im Rahmen eines formalen Kalküls sind die Axiome dieses Kalküls immer ableitbar. Dabei handelt es sich im formalen oder syntaktischen Sinne um einen Beweis; semantisch betrachtet handelt es sich um einen Zirkelschluss. Ansonsten gilt: „Geht eine Ableitung von den Axiomen eines Kalküls bzw. von wahren Aussagen aus, so spricht man von einem Beweis.“ Axiom wird als Gegenbegriff zu Theorem (im engeren Sinn) verwendet. Theoreme wie Axiome sind Sätze eines formalisierten Kalküls, die durch Ableitungsbeziehungen verbunden sind. Theoreme sind also Sätze, die durch formale Beweisgänge von Axiomen abgeleitet werden. Mitunter werden die Ausdrücke These und Theorem jedoch im weiteren Sinn für alle gültigen Sätze eines formalen Systems verwendet, d. h. als Oberbegriff, der sowohl Axiome als auch Theoreme im ursprünglichen Sinn umfasst. Axiome können somit als Bedingungen der vollständigen Theorie verstanden werden, insofern diese in einem formalisierten Kalkül ausdrückbar sind. Innerhalb einer interpretierten formalen Sprache können verschiedene Theorien durch die Auswahl der Axiome unterschieden werden. Bei nicht-interpretierten Kalkülen der formalen Logik spricht man statt von Theorien allerdings von "logischen Systemen", die durch Axiome und Schlussregeln vollständig bestimmt sind. Dies relativiert den Begriff der Ableitbarkeit oder Beweisbarkeit: Sie besteht immer nur in Bezug auf ein gegebenes System. Die Axiome und die abgeleiteten Aussagen gehören zur Objektsprache, die Regeln zur Metasprache. Ein Kalkül ist jedoch nicht notwendigerweise ein "Axiomatischer Kalkül", der also „aus einer Menge von Axiomen und einer möglichst kleinen Menge von Schlussregeln“ besteht. Daneben gibt es auch Beweis-Kalküle und Tableau-Kalküle. Unterscheidungen. Der Ausdruck "Axiom" wird in drei Grundbedeutungen verwendet. Er bezeichnet Klassischer Axiombegriff. Der klassische Axiombegriff wird auf die "Elemente" der Geometrie des Euklid und die Analytica posteriora des Aristoteles zurückgeführt. "Axiom" bezeichnet klassisch ein unmittelbar einleuchtendes oder konventionell akzeptiertes Prinzip bzw. eine Bezugnahme auf ein solches. Diese Bedeutung war bis in das 19. Jahrhundert herrschend. Ein Axiom in diesem Sinne bedarf weder eines Beweises, noch ist es einem Beweis zugänglich. Axiome wurden dabei angesehen als wahre Sätze über existierende Gegenstände, die diesen Sätzen äußerlich sind. Im 19. Jahrhundert begann allerdings eine Untersuchung unterschiedlicher Axiomensysteme für unterschiedliche Geometrien (euklidische, hyperbolische, sphärische Geometrie usw.), die unmöglich allesamt die aktuale Welt beschreiben konnten. Dies wird als ein Motiv dafür betrachtet, dass der Axiombegriffs formalistischer verstanden wurde. Eine alternative Auffassungsweise bezieht daher ein Axiomensystem nicht einfachhin auf die aktuale Welt, sondern folgt dem Schema: "Wenn" irgendeine Struktur die Axiome erfüllt, "dann" erfüllt sie auch die Ableitungen aus den Axiomen (sog. "Theoreme"). Diese Auffassung wird oft als Implikationismus, Deduktivismus oder eliminativer Strukturalismus bezeichnet. In axiomatisierten Kalkülen im Sinne der modernen formalen Logik können die klassischen epistemologischen (Evidenz, Gewissheit), ontologischen (Referenz auf ontologisch Grundlegenderes) oder konventionellen (Akzeptanz in einem bestimmten Kontext) Kriterien für die Auszeichnung von Axiomen entfallen. Axiome unterscheiden sich von Theoremen dann nur formal dadurch, dass sie die Grundlage logischer Ableitungen in einem gegebenen Kalkül sind. Materialer Axiombegriff. In den empirischen Wissenschaften bezeichnet man als Axiome auch grundlegende Gesetze, die vielfach empirisch bestätigt worden sind. Als Beispiel werden die Newtonschen Axiome der Mechanik genannt. Auch wissenschaftliche Theorien, insbesondere die Physik, beruhen auf Axiomen. Aus diesen werden Theorien geschlussfolgert, deren Theoreme und Korollare Vorhersagen über den Ausgang von Experimenten treffen. Stehen Aussagen der Theorie im Widerspruch zur experimentellen Beobachtung, werden die Axiome angepasst. Beispielsweise liefern die Newtonschen Axiome nur für „langsame“ und „große“ Systeme gute Vorhersagen und sind durch die Axiome der speziellen Relativitätstheorie und der Quantenmechanik abgelöst bzw. ergänzt worden. Trotzdem verwendet man die Newtonschen Axiome weiter für solche Systeme, da die Folgerungen einfacher sind und für die meisten Anwendungen die Ergebnisse hinreichend genau sind. Formaler Axiombegriff. Durch Hilbert (1899) wurde ein formaler Axiombegriff herrschend: Ein Axiom ist jede unabgeleitete Aussage. Dies ist eine rein formale Eigenschaft. Die Evidenz oder der ontologische Status eines Axioms spielt keine Rolle und bleibt einer gesondert zu betrachtenden Interpretation überlassen. Ein "Axiom" ist dann eine grundlegende Aussage, die Teilweise wird behauptet, in diesem Verständnis seien Axiome völlig willkürlich: Ein Axiom sei „ein unbewiesener und daher unverstandener Satz“, denn ob ein Axiom auf Einsicht beruht und daher „verstehbar“ ist, spielt zunächst keine Rolle. Richtig daran ist, dass ein Axiom – bezogen auf eine Theorie – unbewiesen ist. Das heißt aber nicht, dass ein Axiom unbeweisbar sein muss. Die Eigenschaft, ein Axiom zu sein, ist relativ zu einem formalen System. Was in einer Wissenschaft ein Axiom ist, kann in einer anderen ein Theorem sein. Ein Axiom ist "unverstanden" nur insofern, als seine Wahrheit formal nicht bewiesen, sondern vorausgesetzt ist. Der moderne Axiombegriff dient dazu, die Axiomeigenschaft von der Evidenzproblematik abzukoppeln, was aber nicht notwendigerweise bedeutet, dass es keine Evidenz gibt. Es ist allerdings ein bestimmendes Merkmal der axiomatischen Methode, dass bei der Deduktion der Theoreme nur auf der Basis formaler Regeln geschlossen wird und nicht von der Deutung der axiomatischen Zeichen Gebrauch gemacht wird. Klassische Logik. Die ursprüngliche Formulierung stammt aus der Naiven Mengenlehre Georg Cantors und schien lediglich den Zusammenhang zwischen Extension und Intension eines Begriffs klar auszusprechen. Es bedeutete einen großen Schock, als sich herausstellte, dass es in der Axiomatisierung durch Gottlob Frege nicht "widerspruchsfrei" zu den anderen Axiomen hinzugefügt werden konnte, sondern die Russellsche Antinomie hervorrief. Mathematik. Axiome bilden das Fundament der Mathematik Generell werden in der Mathematik Begriffe wie Gruppe, Ring, Körper, Hilbertraum, Topologischer Raum etc. durch ein System von Axiomen definiert. Physik. Auch Theorien der empirischen Wissenschaften lassen sich „axiomatisiert“ rekonstruieren. In der Wissenschaftstheorie existieren allerdings unterschiedliche Auffassungen darüber, was es überhaupt heißt, eine „Axiomatisierung einer Theorie“ vorzunehmen. Für unterschiedliche physikalische Theorien wurden Axiomatisierungen vorgeschlagen. Hans Reichenbach widmete sich u. a. in drei Monographien seinem Vorschlag einer Axiomatik der Relativitätstheorie, wobei er insbesondere stark von Hilbert beeinflusst war. Auch Alfred Robb und Constantin Carathéodory legten Axiomatisierungsvorschläge zur speziellen Relativitätstheorie vor. Sowohl für die spezielle wie für die allgemeine Relativitätstheorie existiert inzwischen eine Vielzahl von in der Wissenschaftstheorie und in der Philosophie der Physik diskutierten Axiomatisierungsversuchen. Patrick Suppes und andere haben etwa für die klassische Partikelmechanik in ihrer Newtonschen Formulierung eine vieldiskutierte axiomatische Rekonstruktion im modernen Sinne vorgeschlagen, ebenso legten bereits Georg Hamel, ein Schüler Hilberts, sowie Hans Hermes Axiomatisierungen der klassischen Mechanik vor. Zu den meistbeachteten Vorschlägen einer Axiomatisierung der Quantenmechanik zählt nach wie vor das Unternehmen von Günther Ludwig. Für die Axiomatische Quantenfeldtheorie war v. a. die Formulierung von Arthur Wightman aus den 1950er Jahren wichtig. Im Bereich der Kosmologie war für Ansätze einer Axiomatisierung u. a. Edward Arthur Milne besonders einflussreich. Für die klassische Thermodynamik existieren Axiomatisierungsvorschläge u. a. von Giles, Boyling, Jauch, Lieb und Yngvason. Für alle physikalischen Theorien, die mit Wahrscheinlichkeiten operieren, insbes. die Statistische Mechanik, wurde die Axiomatisierung der Wahrscheinlichkeitsrechnung durch Kolmogorow wichtig. Verhältnis von Experiment und Theorie. Die Axiome einer physikalischen Theorie sind weder formal beweisbar noch, so die inzwischen übliche Sichtweise, direkt und insgesamt durch Beobachtungen verifizierbar oder falsifizierbar. Einer insbes. im wissenschaftstheoretischen Strukturalismus verbreiteten Sichtweise von Theorien und ihrem Verhältnis zu Experimenten und resultierenden Redeweise zufolge betreffen Prüfungen einer bestimmten Theorie an der Realität vielmehr üblicherweise Aussagen der Form „dieses System ist eine klassische Partikelmechanik“. Gelingt ein entsprechender Theorietest, wurden z. B. korrekte Prognosen von Messwerten angegeben, kann diese Überprüfung ggf. als "Bestätigung" dafür gelten, dass ein entsprechendes System zutreffenderweise unter die intendierten Anwendungen der entsprechenden Theorie gezählt wurde, bei wiederholten Fehlschlägen kann und sollte die Menge der intendierten Anwendungen um entsprechende Typen von Systemen reduziert werden. Akrostichon. Ein Akrostichon (von "ákros" ‚Spitze‘ und στίχος "stíchos" ‚Vers‘, ‚Zeile‘) ist eine Form (meist Versform), bei der die Anfänge (Buchstaben bei Wortfolgen oder Wörter bei Versfolgen) hintereinander gelesen einen Sinn, beispielsweise einen Namen oder einen Satz, ergeben. Die deutsche Bezeichnung für diese Versform ist Leistenvers. Akrosticha gehören sowohl zur Kategorie Steganographie als auch zu den rhetorischen Figuren. Sie sind abzugrenzen gegen reine Abkürzungen beziehungsweise Aneinanderreihungen von Wörtern, also beispielsweise Akronyme wie INRI. In der jüdischen Literatur sind Akrosticha weit verbreitet, angefangen mit der hebräischen Bibel. In einigen Psalmen folgen die jeweils ersten Buchstaben von 22 Versen der Reihe der 22 Buchstaben des hebräischen Alphabetes (Psalm 9, 10, 25, 34, 37, 111, 112, 119 und 145). Die ersten vier Wörter des Psalms 96, 11 () enthalten ein Akrostichon des Namens Gottes, JHWH. In späterer rabbinischer Literatur deuten die Anfangsbuchstaben von Werken oder Liedstrophen jeweils auf den Verfasser hin. Dies ist zum Beispiel der Fall bei der Sabbathymne Lecha Dodi, bei der die Anfangsbuchstaben der ersten acht Strophen den Namen "Schlomo ha-Levi" ergeben und auf den Autor Schlomo Alkabez hinweisen. Das Akrostichon war in antiker, mittelalterlicher und barocker Dichtung beliebt, so zum Beispiel bei Otfrid von Weißenburg (um 800–870) oder Martin Opitz (1597–1639). Paul Gerhardts Lied "Befiehl du deine Wege" ist ein Akrostichon aus Psalm 37,5. In dem Werk "diu crône" von Heinrich von dem Türlin findet sich der Name des Dichters als Akrostichon. Ein Beispiel aus moderner Zeit ist „Lust = Leben unter Strom“ von Elfriede Hablé (* 1934). Akrostichen begegnet man auch als Eselsbrücken für wissenschaftliche oder alltägliche Zusammenhänge. Ein Sonderfall ist der Abecedarius, bei dem die Anfangsbuchstaben das Alphabet bilden. Amtliches Verzeichnis der Ortsnetzkennzahlen. Amtliches Verzeichnis der Ortsnetzkennzahlen (Abkürzung: "„AVON“") war das Verzeichnis der Telefonvorwahlnummern in Deutschland. Herausgegeben und bearbeitet wurde es vom Fernmeldetechnischen Zentralamt in Darmstadt im Auftrage der Deutschen Bundespost und später der Deutschen Telekom. Das AVON erschien nur nach Bedarf als Beilage zum Telefonbuch. Es enthielt neben allen deutschen Vorwahlen eine Auswahl an internationalen Vorwahlnummern. Für einige dieser Länder gab es ausführliche kostenlose Vorwahlnummern-Verzeichnisse, welche beim Fernmeldeamt Gießen bestellt werden konnten. Geschichtliche Entwicklung. Ortsvorwahlbereiche in Deutschland, seit 1. Juni 1992. Die von jedem Ortsnetz im Selbstwählferndienst (SWFD) zugelassenen Ortsnetze waren Ende der 1960er Jahre in einem „Amtlichen Verzeichnis der Ortsnetzkennzahlen für den Selbstwählferndienst“ kurz: "AVON" enthalten, das dem amtlichen Fernsprechbuch bei der Ausgabe beigegeben oder den Fernsprechteilnehmern besonders übersandt wurde. Aus diesem Verzeichnis konnten die zum SWFD zugelassenen Ortsnetze der Bundesrepublik und eine Auswahl der zum SWFD zugelassenen Orte des Auslands mit den dazugehörigen Ortsnetzkennzahlen sowie Länderkennzahlen und die jeweilige Sprechdauer für eine Gebühreneinheit entnommen werden. Anfang der 1970er Jahre war auf der Vorderseite des Umschlags die Namen der Ortsnetze angegeben, für die das AVON gültig war, in der Regel handelte es sich dabei jeweils um die Ortsnetze des Bereiches einer Knotenvermittlungsstelle. Später enthielt das AVON alle Ortsnetze der Bundesrepublik. Bis in die 1990er Jahre enthielt das AVON auf der letzten Umschlagseite "„Wichtige Hinweise zur Vorsorge und Eigenhilfe des Bürgers – zum Selbstschutz“" des Bundesverband für den Selbstschutz. Das erste Gesamtdeutsche AVON nach der Wiedervereinigung erschien anlässlich der Neunummerierung der neuen Bundesländer zum 1. Juni 1992. Das Verzeichnis hieß zuletzt einfach "„Das Vorwahlverzeichnis“" und wurde letztmals 2001 in gedruckter Form aufgelegt. Seither erfüllen Internetsuchseiten den Zweck dieses Verzeichnisses. Autobahn. Eine Autobahn ist eine Fernverkehrsstraße, die ausschließlich dem Schnellverkehr und dem Güterfernverkehr mit Kraftfahrzeugen dient. Sie besteht im Normalfall aus zwei Richtungsfahrbahnen mit jeweils mehreren Fahrstreifen. Für die Benutzung von Autobahnen wird in vielen Ländern eine Maut (Straßennutzungsgebühr) erhoben. Deutsche Autobahnen sind seit Längerem mit mindestens zwei Fahrstreifen pro Richtungsfahrbahn versehen. In der Regel ist auch ein zusätzlicher Seitenstreifen (auch "Standstreifen" oder "Pannenstreifen" genannt) vorhanden. Bei modernen Autobahnen sind die Fahrbahnen durch einen Mittelstreifen, in dem passive Schutzeinrichtungen wie Stahlschutzplanken oder Betonschutzwände errichtet sind, voneinander getrennt. Die Fahrbahnbefestigung erfolgt heutzutage durch Beton- oder Asphaltbelag. Im Gegensatz zu anderen Straßenkategorien besitzen Autobahnen stets höhenfreie Knotenpunkte. So erfolgt der Übergang von einer Autobahn auf eine andere durch Brücken und Unterführungen (Autobahnkreuz beziehungsweise in Österreich „Knoten“) oder Abzweigungen (Autobahndreieck, in der Schweiz „Verzweigung“), Übergänge ins untergeordnete Straßennetz werden (Autobahn-) Anschlussstellen genannt. Je nach Verlauf der Trasse spricht man in manchen Fällen von Ringautobahnen oder Stadtautobahnen. Tunnel und Brücken im Verlauf der Autobahnen sowie die meisten Straßenbrücken über die Autobahnen sind Teile der Autobahnen. An den meisten Autobahnen befinden sich Autobahnraststätten und Autobahnparkplätze, um den Ver- und Entsorgungsbedürfnissen der Autobahnnutzer nachzukommen und diesen eine Möglichkeit zu geben, sich zu erholen. Oft befinden sich dort auch Attraktionen und Spielgeräte für Kinder. Diese Anlagen sind Teile der Autobahnen. Auf Fahrstreifen der Autobahnen ist das Halten und Parken sowie das Wenden nicht erlaubt. Des Weiteren ist auf dem Seitenstreifen beziehungsweise Pannenstreifen und in den Nothaltebuchten das Halten nur in besonderen Fällen (etwa eines technischen Defektes oder auf Anweisung eines ausführenden Staatsorgans) erlaubt, um den nachfolgenden Verkehr nicht zu behindern und sich nicht in Lebensgefahr zu begeben. Die Nutzung der Autobahn ist für Fußgänger und Fahrradfahrer in vielen Ländern verboten. Autobahnnetz. Die Vielzahl von einzelnen Autobahnen bildet zusammen ein Straßennetz, das sich über Ländergrenzen hinweg erstreckt. Ein besonders dichtes Netz bilden Autobahnen in Europa, Nordamerika und in einigen asiatischen Ländern. Auf Kontinenten wie Afrika, Australien und Südamerika sind nur im Einzugsbereich von Großstädten Autobahnabschnitte zu finden. Eine flächenmäßige Erschließung ist nicht vorhanden. Gründe dafür sind der Mangel an finanziellen Mitteln, das geringe motorisierte Verkehrsaufkommen in ländlichen Gegenden und/oder die geringere Besiedlungsdichte. Europa. In den meisten europäischen Ländern bilden Autobahnen eine eigene Straßengattung, in einigen Ländern (zum Beispiel Schweden) werden sie zu den anderen Fernstraßen (beispielsweise Europastraßen) gezählt. Autobahnen sind in allen europäischen Staaten außer Estland, Island, Lettland, Malta, Moldawien, Montenegro und den Zwergstaaten vorhanden. In Europa werden ständig neue Autobahnen gebaut oder bestehende Autobahnabschnitte erweitert. In den Jahren 1994 bis 2004 wuchs das Autobahnnetz in den neuen EU-Mitgliedstaaten um 1000 km, in den alten Mitgliedstaaten sogar um 12.000 km. Auch der Bau der Autobahn Köln–Düsseldorf (heute Teil der A 3) wurde bereits 1929 durch den Provinzialverband der preußischen Rheinprovinz rechtlich fixiert. Ein 2,5 km langer Abschnitt bei Opladen wurde 1931 begonnen und 1933 fertiggestellt. Der erste Plan zum Bau einer wirklich großen und bedeutenden Autobahn war der HaFraBa-Plan (= Hansestädte–Frankfurt–Basel), der in etwa dem Verlauf der heutigen Autobahn A 5 und dem nördlichen Teil der A 7 entsprach. Dieser wurde noch vor der Machtergreifung der Nationalsozialisten erstellt. Tatsächlich gebaut wurde dann nach den HaFraBa-Plänen ab 1933 die Strecke Frankfurt–Darmstadt–Mannheim–Heidelberg. Mit der HaFraBa verbunden ist die Entstehung des Wortes „Autobahn“, das 1932 in der gleichnamigen Fachzeitschrift geprägt wurde. Die Bezeichnung „Nur-Autostraße“ habe man verworfen, schrieb die HaFraBa, um dem Umstand Ausdruck zu verleihen, man wolle eine „Autobahn“ in Analogie zur Eisenbahn errichten. Der Mythos, der Begriff „Autobahn“ und die grundsätzliche Idee hierfür gehe direkt auf Hitler zurück, ist eine Geschichtsfälschung. Unterlagen aus dem Bundesarchiv belegen, wie der damalige "Generalinspektor für das Deutsche Straßenwesen", Fritz Todt, 1934 eine derartige geistige Urheberschaft in das Jahr 1923 zurückdatiert und entsprechend schlußfolgerte: "Die Reichsautobahnen, wie wir sie jetzt bauen, haben nicht als von der 'HAFRABA' vorbereitet zu gelten, sondern einzig und allein als 'Die Straßen Adolf Hitlers'". Österreich. Der Autobahnbau begann in Österreich mit dem Anschluss an das Deutsche Reich 1938. Noch im selben Jahr wurden erste Teilstücke der West Autobahn (A 1) bei Salzburg fertiggestellt. Im Zuge des Zweiten Weltkrieges kam der Ausbau des Autobahnnetzes bei einer Gesamtlänge von 16,8 km allerdings zum Erliegen und wurde erst nach dem Wiedererlangen der Souveränität Österreichs mit dem Österreichischen Staatsvertrag von 1955 wieder aufgenommen. Schweiz. Die erste Autobahn der Schweiz war die "Ausfallstraße Luzern-Süd", welche den Verkehr von Luzern an Horw vorbeileitete. Sie wurde am 11. Juni 1955 eröffnet und ist heute Teil der A2. Am 8. März 1960 trat das "Bundesgesetz über die Nationalstrassen" in Kraft, welches die Kompetenzen zur Planung und zum Bau von Strassen mit nationaler Bedeutung dem Bund übertrug und im Artikel 2 die Autobahn als Nationalstrasse erster Klasse beschreibt. Am 21. Juni 1960 folgte der "Bundesbeschluss über das Nationalstrassennetz", in welchem das anzustrebende Autobahnnetz festgelegt ist. Die erste vom Bund finanzierte Strasse war die am 10. Mai 1962 eröffnete acht Kilometer lange Grauholzautobahn, welche der Umfahrung von Zollikofen dient. 1963 wurde das erste längere Teilstück einer Autobahn eröffnet, die A1 zwischen Genf und Lausanne. Im September 1980 wurde der Gotthard-Strassentunnel dem Betrieb übergeben, 1985 das letzte Teilstück der A2 im Tessin zwischen Biasca und Bellinzona. Bulgarien. Der erste Spatenstich zum Bau des Autobahnringes in Bulgarien erfolgte am 4. Oktober 1974. Es sollten drei Autobahnen mit einer Gesamtlänge von knapp 900 km gebaut werden, die Sofia, Warna und Burgas verbinden sollten. Bis zur Wende 1990 wurden etwa 270 km fertiggestellt, in den folgenden 20 Jahren lediglich weitere 116 km. Seit dem EU-Beitritt Bulgariens im Jahr 2007 wächst das Autobahnnetz um etwa 60 km jährlich, sodass Mitte 2014 über 50 % der geplanten Gesamtlänge von 1182 km bereits in Betrieb ist. Frankreich. Die erste Autobahn Frankreichs, die "Autoroute de Normandie", sollte 1940 fertiggestellt werden. Durch den Zweiten Weltkrieg verzögerte sich allerdings der Bau und die Strecke wurde erst 1946 eröffnet. Die offizielle Bezeichnung "„Autoroute“ (Autostraße)" wurde 1955 eingeführt. Inzwischen hat Frankreich mit derzeit etwa 11.650 Kilometern das fünftlängste Autobahnnetz weltweit und das drittlängste in Europa. Italien. Als erste Autobahn Italiens und gleichzeitig erste für alle zugängliche Autostraße der Welt gilt die Autostrada dei Laghi. Das erste Teilstück zwischen Mailand und Varese wurde 1924 privat von Piero Puricelli errichtet und war gebührenpflichtig. Die Autostraße besaß je Fahrtrichtung einen Fahrstreifen und war noch nicht höhenfrei ausgebildet. Spezielle Ein- und Ausfahrten waren angelegt. Kroatien. Seit der Gründung der Republik Kroatien erfuhr der Ausbau des Autobahnnetzes in Kroatien zunehmende Bedeutung. Die derzeitige Gesamtlänge aller Autobahnen (kroatisch: Autoceste; singular Autocesta) beträgt 1270,2 km. Zusätzlich befinden sich 185,6 Autobahnkilometer im Bau. Das geplante Autobahnnetz soll 1670,5 km lang werden. Niederlande. Die Niederlande haben mit 57,5 Kilometern den größten Anteil Autobahnkilometer pro 1000 km² in der Europäischen Union. Insgesamt besitzen die Niederlande ein Autobahnnetz von 2360 km. Die älteste niederländische Autobahn ist die A12 zwischen Den Haag und Utrecht, deren erster Abschnitt 1937 in Betrieb genommen wurde. Norwegen. In den 1960er Jahren begann Norwegen mit der Planung eines umfassenden Autobahnnetzes, doch der Bau wurde nach nur 45 Streckenkilometern aufgrund der hohen Baukosten gestoppt. Stattdessen beschränkte man sich auf den Bau von Schnellstraßen. Erst zur Jahrtausendwende kam der Autobahnbau wieder in Schwung – vor allem durch die Erweiterung von vorhandenen Schnellstraßen. 2004 umfasste das norwegische Autobahnnetz im Vergleich immer noch geringe 193 km. Eine Besonderheit ist, dass der Ausbau meist über eine Maut auf dem entsprechenden Abschnitt finanziert wird, nicht jedoch die Instandhaltung („Public Private Partnership“). Sobald die Investitionskosten abbezahlt sind, entfallen die Mautgebühren. Schweden. Die schwedischen Autobahnen, in Schweden "Motorvägar" genannt, entstanden erst nach dem Zweiten Weltkrieg. Der erste "Motorväg" mit Autobahnstandard wurde, nach deutschem Vorbild, mit einer Fahrbahn aus Beton zwischen Malmö und Lund angelegt und 1953 von Prinz Bertil von Schweden eingeweiht. Das Teilstück war 17 km lang. 2012 umfasste das schwedische Autobahnnetz ungefähr 1920 km. Serbien. Bereits nach dem Zweiten Weltkrieg wurde eine Autostraße durch Jugoslawien gebaut, welche vier der sechs Teilrepubliken (darunter Serbien) passierte und den Namen „Straße der Brüderlichkeit und Einheit“ ("Autoput Bratstvo i jedinstvo") erhielt. Mit dem steigenden Verkehrsaufkommen auf den Straßen der Teilrepubliken wurde die Autostraße zum Autoput mit zwei Richtungsfahrbahnen umgebaut. Seit der Unabhängigkeit Serbiens 2006 befinden sich viele Autobahnen und Schnellstraßen in Planung und Bau. Bereits heute zählt das serbische Autobahnnetz zu einem der am schnellsten expandierenden in Europa. Slowenien. Die erste Autobahn in Slowenien war die "Avtocesta Vrhnika - Postojna". Sie wurde am 29. Dezember 1972 eröffnet und ist heute Teil der A1. Polen. 1945 verfügte Polen lediglich über einige noch in der NS-Zeit errichtete Autobahnfragmente in Pommern und Schlesien. Bis in die 1970er Jahre gab es keinerlei Neubauten, und selbst die besagten Teilabschnitte wurden nur notdürftig in Schuss gehalten. Erst in den 1980er Jahren begann der ernsthafte Bau eines umfassenden Autobahnnetzes, doch bis heute weist das polnische Autobahnnetz erhebliche Lücken auf. Am 1. Dezember 2012 wies das polnische Autobahnnetz eine Gesamtstreckenlänge von 1342 km auf. Ungarn. Die erste Planung für Autobahnen in Ungarn stammt aus dem Jahr 1942. Im Jahr 1964 wurde die erste Autobahn M7 von Budapest zum Plattensee fertiggestellt. Später begann der Bau nach Tatabánya, nach Győr und in Richtung Wien. Ungarn hat ein radiales Autobahnnetz mit dem Zentrum Budapest: M1; M2; M3; M4; M5; M6; M7 und ein äußerer Ring: M0. Vereinigtes Königreich. Der Bau von Autobahnen im Vereinigten Königreich begann 1949 mit dem "Special Roads Act". Darin definierte das britische Parlament „spezielle Straßen“ (später offiziell als „Motorway“ bezeichnet), für die nur bestimmte Fahrzeugtypen zugelassen waren. Die erste dieser „speziellen Straßen“, die heutige M6 bei Preston, wurde am 5. Dezember 1958 eröffnet. Ein Jahr später, am 2. November 1959, gab man die heutige M1 bei London für den Verkehr frei. Da die M6 damals recht kurz war und lange nicht erweitert wurde, wird häufig die M1 als erste Autobahn Großbritanniens bezeichnet. Vereinigte Staaten. Der Long Island Motor Parkway (LIMP), auch bekannt als Vanderbilt Parkway, war eine ab 1908 errichtete private Straßenverbindung im Staate New York, die als Mautstraße dem Automobilverkehr vorbehalten war und auch als Rennstrecke diente. Ihre kreuzungsfreie Bauweise und die Verwendung geteilter Richtungsfahrbahnen machen sie zu einem Vorläufer der Autobahnen. Sie wurde 1938 vom Staat New York übernommen und stillgelegt. Beschilderung. Farben der Autobahnbeschilderung und zugelassene Maximalgeschwindigkeit in Europa Um dem Verkehrsteilnehmer die Orientierung zu erleichtern, erhalten Fernstraßen eine charakteristische Beschilderung, welche durch Farbe und Symbolik die Bedeutung der Straße hervorhebt. Die Farben Blau und Grün sind laut dem Wiener Übereinkommen über Straßenverkehrszeichen von 1968 zugelassen. Das weithin bekannte „Autobahnsymbol“ wird von vielen Ländern verwendet. Um eine einheitliche Farbgebung anzustreben und weder grüner noch blauer Beschilderung den Vorzug zu geben, kam in den 1990er-Jahren die Idee auf, eine andere Farbgebung zu nutzen (in Mitteldeutschland wurden neue Teilstücke kurzzeitig violett ausgeschildert); man einigte sich aber auf die rote Farbe. Da die Farbänderung sämtlicher Beschilderungen jedoch exorbitante Kosten verursacht hätte, sind zum einen nur wenige Länder der neuen Farbgebung gefolgt (F/CH/PL), zum anderen wurde ausschließlich die Nummerierungsbeschilderung auf rote Farbe umgestellt, die Hinweis- und Verkehrsschilder jedoch in der bisherigen Farbe belassen. So sind z. B. auf gewissen Strecken in der Schweiz nach wie vor grüne Nummerierungsbeschilderungen zu sehen. Verkehrsregeln. Tempolimits in und um Europa (in Ländern ohne Autobahnen ist das sonstige Tempolimit angegeben) Fast alle Länder haben entweder eine Geschwindigkeitsbegrenzung zwischen 100 und 130 km/h für Autobahnen eingeführt oder eine Autobahn-Richtgeschwindigkeits-Verordnung erlassen. In Europa ist Deutschland das einzige Land, in dem die Geschwindigkeit auf Autobahnen nicht generell begrenzt ist. Allgemein ist die Geschwindigkeit den Straßen-, Verkehrs-, Sicht- und Wetterverhältnissen (beispielsweise Schnee oder Nebel) sowie den persönlichen Fahrfähigkeiten und den Eigenschaften von Fahrzeug und Ladung anzupassen. In den meisten Ländern sind Fahrzeuge, die bauartbedingt eine bestimmte Mindestgeschwindigkeit nicht erreichen können (45 bis 80 km/h, länderabhängig), von der Autobahnbenutzung ausgeschlossen, da sie den Verkehrsfluss unverhältnismäßig behindern und so die Unfallgefahr erhöhen würden. Das Halten, Wenden, Rückwärtsfahren sowie das Auf- und Abfahren an nicht gekennzeichneten Stellen auf der Autobahn ist generell verboten. Ausnahmen zum Haltverbot bilden die Autobahnparkplätze und Autobahnraststätten. Verkehrsteilnehmer, deren Fahrzeug eine Panne hat, warten am äußersten Fahrbahnrand (beziehungsweise auf dem Standstreifen, falls vorhanden). Verkehrsstärke. Autobahnen sind baulich dafür ausgelegt, ein hohes Verkehrsaufkommen auszuhalten. So eignet sich beispielsweise eine vierspurige Autobahn mit Standstreifen für bis zu 70.000 Fahrzeuge pro Tag. Je nach Anteil des Güterverkehrs kann dieser Wert unterschiedlich ausfallen. Der höchste Verkehrsfluss mit bis zu 2600 Autos pro Stunde und Fahrstreifen stellt sich – wegen des verringerten Sicherheitsabstandes – bei etwa 85 km/h ein, wenn sich die Geschwindigkeiten der einzelnen Fahrzeuge einander anpassen. Eine noch höhere Belastung führt dann zum Stau. Bei subjektiv „freier Strecke“ können hingegen nur etwa 1800 Autos pro Stunde und Fahrstreifen passieren. Das theoretische Modell für den Zusammenhang zwischen Geschwindigkeit und Durchlassfähigkeit einer Straße liefert das Fundamentaldiagramm des Verkehrsflusses. Verkehrssicherheit. Autobahnen haben den geringsten Anteil an den Gesamtunfallzahlen. Trotz des hohen Verkehrsaufkommens und der hohen Geschwindigkeit ereigneten sich im Jahr 2012 durchgeführt Autobahnen 31 % des motorisierten Straßenverkehrs während Bilanzierung von 11 % der in Deutschland Verkehrstoten. Die Autobahn-Todesrate von 1,7 Todesfälle pro Milliarden-travel-Kilometer im Vergleich günstig mit der Rate von 5,1 auf städtischen Straßen und 7,6 auf LandstraßenStraßen Maut. In vielen Ländern muss man für das Befahren der Autobahn eine Benutzungsgebühr (sogenannte Maut) bezahlen. Dieses kann zeitabhängig in Form einer Vignette geschehen oder streckenabhängig durch Bezahlen an Mautposten, wie in zahlreichen weiteren europäischen Staaten üblich. In Österreich gilt für LKW seit dem 1. Januar 2004 eine Mautpflicht, die über mitzuführende GO-Boxen und ein entlang der Autobahn installiertes Dezimeterwellen-System abgerechnet wird. Um ein Ausweichen auf Landstraßen zu verhindern, werden häufig Fahrverbote für LKW auf parallel verlaufenden Straßen verhängt. In der Schweiz gilt die LSVA auf allen Straßen, somit existiert das Ausweichen des Schwerverkehrs auf Landstraßen nicht. In Deutschland gilt seit dem 1. Januar 2005 eine LKW-Maut, die entweder an Automaten über dort anzugebende Fahrtrouten im Voraus oder über eingebaute Maut-Geräte satellitengestützt automatisiert erhoben wird. Die Erhebung erfolgt über das Unternehmen Toll Collect. Kultur. Aufnahme einer deutschen Autobahn bei Nacht. Die Autobahnen haben auch zu kultureller Auseinandersetzung angeregt. Beispiele sind die Errichtung von Autobahnkirchen. Im Bereich der Musik das Album "Autobahn" der Musikgruppe Kraftwerk oder das Lied "Deutschland Autobahn" des US-amerikanischen Country-Sängers Dave Dudley, dessen Großeltern aus Deutschland stammten. In dem Film The Big Lebowski (1998) taucht ein Trio deutscher Nihilisten auf, das als Gruppe "Autobahn" (ein Kraftwerk-Verschnitt) Ende der 1970er seine erste Techno-LP mit dem Titel "Nagelbett" herausgebracht haben soll. Auch tragen einige Diskotheken, die an oder in der Nähe einer Autobahn liegen, den Namen dieser Autobahn, so zum Beispiel eine Kasseler Diskothek namens "A7" an der A 7. Die deutsche Filmkomödie "Superstau" spielt fast komplett auf einer Autobahn. Baukosten. Die Baukosten von Autobahnen sind stark von den Gegebenheiten der jeweiligen Strecke abhängig. Einfache Streckenführungen verursachen Kosten von etwa vier bis sechs Millionen Euro pro Autobahnkilometer, bei komplexen Strecken, etwa mit Brücken und Tunneln, liegen die Kosten um ein Vielfaches höher. Zusätzlich zu den reinen Baukosten kommen Kosten für den Planungsprozess, für Gutachten und Beratungsleistungen externer Ingenieure, Genehmigungsverfahren und für begleitende Investitionen, also etwa für Lärmschutzwände, Straßenbegleitgrün und Wechselverkehrszeichen hinzu. Entsprechend einer Beispielrechnung können sich in Deutschland durchschnittliche Kosten von 26,8 Millionen Euro pro Autobahnkilometer ergeben, wovon ein Viertel reine Baukosten und drei Viertel zusätzliche Kosten sind. Autobahnbau und Naturschutz. Der Neubau einer Autobahn trennt bislang zusammenhängende Lebensräume. Der Neu- oder Ausbau von Autobahnen wird immer wieder durch Natur- und Umweltschützer kritisiert. Umweltschützer sehen den Autobahnbau vor allem als falsches verkehrspolitisches Signal, da der motorisierte Individualverkehr und somit der zusätzliche Ausstoß von klimaschädlichen Abgasen gefördert wird. Außerdem warnen sie vor zusätzlicher Lärmbelastung für die Umgebung der Autobahn. Naturschützer hingegen bemängeln vor allem den Flächenverbrauch sowie die zunehmende Landschaftszerschneidung, welche durch neue Autobahnen gefördert wird. Zudem wird bemängelt, dass der Arten- wie der Biotopschutz bei der Verkehrsplanung oft eine untergeordnete Rolle spielt. Aus diesen Gründen versuchen Umweltschutzorganisation und Naturschutzverbände durch Aufklärungsarbeit, aber auch mithilfe des Verbandsklagerechts, den Bau weiterer Autobahnen zu verhindern oder umweltverträglichere Streckenführungen beim Neubau durchzusetzen. Des Weiteren fördern Autobahnen aktiv die Zersiedelung. Durch die verkürzte Wegstrecke und die Verkürzung der Fahrzeiten wird es z. B. Arbeitnehmern ermöglicht, sich weiter weg von ihren Arbeitsplätzen anzusiedeln. Dies führt wiederum zu mehr Verkehr auf den Autobahnen, was wiederum zu einem Bedarf für neue Straßen oder für den Straßenausbau führt. So sind z. B. in Los Angeles selbst achtspurige Autobahnen regelmäßig von Staus betroffen. Ein weiteres Beispiel sind Gewerbegebiete an Autobahnen außerhalb von Städten. Diese sind in der Regel nicht mit anderen Verkehrsmitteln zu erreichen, ein weiterer Anstieg des Individualverkehrs ist die Folge. Eine Möglichkeit, die negativen Auswirkungen von Autobahnen auf die Umwelt zu verringern, ist das Verfahren der Trassenbündelung. So wird neben einem bestehenden Verkehrsweg (etwa einer Bahnstrecke) eine Autobahn errichtet. Durch dieses Prinzip werden die Flächenzerschneidung und die Neuverlärmung reduziert. Ein weiteres Mittel, mit dem versucht wird die Auswirkungen der Landschaftszerschneidung zu verringern, ist der Bau von Grünbrücken. Einzelnachweise. Geschichte und neuere Zahlen bei Reiner Ruppmann: "Das europäische Autobahnnetz: Weiterhin Hoffnungsträger oder primär Funktionsraum für die Transit-Ökonomie?", in: Zeitschrift für Weltgeschichte (ZWG), Teil 1: 14. Jg. 2013, Heft 2, Seiten 81 - 107; Teil 2: 14. Jg. 2014, Heft 1, Seiten 163 - 180. Attac. Attac (ursprünglich "association pour une taxation des transactions financières pour l'aide aux c'"itoyens"; seit 2009: "association pour la taxation des transactions financières et pour l'action c'"itoyenne"; ‚Vereinigung zur Besteuerung von Finanztransaktionen im Interesse der BürgerInnen‘) ist eine globalisierungskritische Nichtregierungsorganisation. Attac hat weltweit ca. 90.000 Mitglieder und agiert in 50 Ländern, hauptsächlich jedoch in Europa. Gründung. Attac wurde am 3. Juni 1998 in Frankreich gegründet. Den Anstoß zur Gründung gab ein Leitartikel von Ignacio Ramonet, der im Dezember 1997 in der Zeitung Le Monde diplomatique veröffentlicht wurde und die Gründung einer "Association pour une taxe Tobin pour l'aide aux citoyens" (deutsch: ‚Vereinigung für eine Tobin-Steuer zum Nutzen der Bürger‘) vorschlug. Seine Idee war, auf weltweiter Ebene eine Nichtregierungsorganisation (NGO) ins Leben zu rufen, die Druck auf Regierungen machen sollte, um eine internationale „Solidaritätssteuer“ zur Kontrolle der Finanzmärkte, genannt Tobin-Steuer, einzuführen. Gemeint war damit die durch den US-amerikanischen Ökonomen James Tobin Ende der 1970er Jahre vorgeschlagene Steuer in Höhe von 0,1 % auf spekulative internationale Devisengeschäfte. Der von Ramonet gleichzeitig vorgeschlagene Name dieser Organisation „attac“ sollte, aufgrund seiner sprachlichen Nähe zum französischen Wort "attaque", zugleich den Übergang zur „Gegenattacke“ signalisieren, nach Jahren der Anpassung an die Globalisierung. Die Aktivitäten von Attac weiteten sich schnell über den Bereich der Tobinsteuer und die „demokratische Kontrolle der Finanzmärkte“ hinaus aus. Mittlerweile umfasst der Tätigkeitsbereich von Attac auch die Handelspolitik der WTO, die Verschuldung der Dritten Welt und die Privatisierung der staatlichen Sozialversicherungen und öffentlichen Dienste. Die Organisation ist inzwischen in einer Reihe von afrikanischen, europäischen und lateinamerikanischen Ländern präsent. Im deutschsprachigen Raum hatten 1999 die NGOs Weltwirtschaft, Ökologie und Entwicklung (WEED) und Kairos Europa die Initiative zur Gründung von Attac ergriffen. Attac Deutschland. In Frankfurt/Main beschlossen am 22. Januar 2000 ca. 100 Teilnehmer der Gründungsversammlung ein „Netzwerk zur demokratischen Kontrolle der internationalen Finanzmärkte“ zu gründen. Dieses soll eng mit der im Jahr 1998 gegründeten französischen Organisation Attac zusammenarbeiten. Attac Deutschland besteht aus Mitgliedsorganisationen und Einzelmitgliedern (27.400, Stand: Juni 2013) aber auch vielen mitarbeitenden Nicht-Mitgliedern. Attac versteht sich als „Bildungsbewegung“ mit Aktionscharakter und Expertise. Über Vorträge, Publikationen, Podiumsdiskussionen und Pressearbeit sollen die Zusammenhänge der Globalisierungsthematik einer breiten Öffentlichkeit vermittelt und Alternativen zum „neoliberalen Dogma“ aufgezeigt werden. Seit mehreren Jahren begleitet ein wissenschaftlicher Beirat die Arbeit von Attac. Mit Aktionen soll Druck auf Politik und Wirtschaft zur Umsetzung der Alternativen erzeugt werden. Mit dem Jugendnetzwerk Noya sollen insbesondere junge Menschen für globalisierungskritische Themen angesprochen werden. Daneben existieren etliche Campus-Gruppen, die speziell auf Studenten und Bildungsthemen ausgerichtet sind. Attac versteht sich als Netzwerk, in dem sowohl Einzelpersonen als auch Organisationen aktiv sein können. In Deutschland gehören circa 200 Organisationen Attac an, darunter ver.di, BUND, Pax Christi und viele entwicklungspolitische und kapitalismuskritische Gruppen. Momentan sind von den 25.000 Mitgliedern viele in den etwa 200 Regionalgruppen oder den 13 bundesweiten AG aktiv. Attac Deutschland ist Mitglied im "Tax Justice Network". Im Oktober 2014 hat das Finanzamt Frankfurt am Main der Organisation den Status der Gemeinnützigkeit aberkannt und begründete diesen Schritt mit „den allgemeinpolitischen Zielen“. Attac hat Widerspruch gegen die Entscheidung des Finanzamts erhoben. Themen. Ursprünglich setzte sich Attac vor allem für die Einführung der Tobin-Steuer auf Finanztransaktionen und eine demokratische Kontrolle der internationalen Finanzmärkte ein. Inzwischen hat sich Attac auch anderer Themen der globalisierungskritischen Bewegung angenommen, als deren Teil es sich sieht. Seine Mitglieder nehmen häufig an Aktionen und Demonstrationen teil, die tendenziell dem linken politischen Spektrum zugeordnet werden. Attac kritisiert dabei die neoliberale Globalisierung und versucht u. a. mit Demonstrationen und Bildungs- und Aufklärungsarbeit gegen Armut und Ausbeutung zu kämpfen. Attacs Hauptkritik an den „Kräften der neoliberalen Globalisierung“ (im Sprachverständnis von Attac zu unterscheiden von kultureller, ökologischer, politischer Globalisierung) ist, dass diese das Versprechen eines „Wohlstands für alle“ nicht haben einlösen können. Im Gegenteil: Die Kluft zwischen Arm und Reich werde immer größer, sowohl innerhalb der Gesellschaften als auch zwischen Nord und Süd. Motor dieser Art von Globalisierung seien die internationalen Finanzmärkte. Banker und Finanzmanager setzten täglich Milliardenbeträge auf diesen Finanzmärkten um und nähmen über ihre Anlageentscheidungen immer mehr Einfluss auf die gesellschaftliche Entwicklung. Damit würden die Finanzmärkte letztendlich die Demokratie untergraben. Deshalb plädiert Attac, neben anderen Maßnahmen, für die besagte Besteuerung von Finanztransaktionen, die so genannte Tobin-Steuer. Attac behauptet, neoliberale Entwicklungen seien politisch gewollt, d. h. die Politik sei nicht Opfer, sondern Hauptakteur dieses Prozesses. Attac tritt für eine „demokratische Kontrolle“ und Regulierung der internationalen Märkte für Kapital, Güter und Dienstleistungen ein. Politik müsse sich an den Leitlinien von Gerechtigkeit, Demokratie und ökologisch verantwortbarer Entwicklung ausrichten. Nur so könne die durch die kapitalistische Wirtschaftsweise entstehende gesellschaftliche Ungleichheit ausgeglichen werden. Attac möchte nach eigenen Angaben ein breites gesellschaftliches Bündnis als Gegenmacht zu den internationalen Märkten bilden. Die Behauptung, Globalisierung in ihrer jetzt herrschenden Form sei ein alternativloser Sachzwang, wird von Attac als reine Ideologie zurückgewiesen. Stattdessen wird unter Stichworten wie Alternative Weltwirtschaftsordnung, Global Governance, Deglobalisierung, Re-Regionalisierung und Solidarische Ökonomie über Alternativen diskutiert. Der Begriff „Ökonomische Alphabetisierung“ bezeichnet die Strategie von Attac, eine Vermittlung von ökonomischen Grundkenntnissen an weite Teile der Bevölkerung vorzunehmen. Da immer mehr Bereiche des öffentlichen Lebens den marktwirtschaftlichen Prinzipien unterworfen würden, seien immer öfter ökonomische Grundkenntnisse für eine Partizipation im demokratischen Prozess und für die Meinungsbildung erforderlich. Arbeitsweise. a> auf dem Ratschlag in Gladbeck, 2007 Attac sagt über sich selbst, Grundsatz sei ein ideologischer Pluralismus. Darunter zählt Attac Überzeugungen, die sich als humanistisch, kommunistisch, sozialdemokratisch, basisdemokratisch oder religiös verstehen, doch „für Rassismus, Antisemitismus, Fremdenfeindlichkeit, Chauvinismus und verwandte Ideologien gibt es keinen Platz.“ Inhaltlich bestehe allerdings auch ein unüberbrückbarer Gegensatz zum wirtschaftlichen Liberalismus. Attac lehnt Gewalt als Mittel der politischen Auseinandersetzung ab. Entscheidungen werden bei Attac nicht nach dem Mehrheits-, sondern nach dem Konsensprinzip getroffen. Das heißt, dass Entscheidungen zunächst diskutiert und – falls niemand widerspricht – von allen mitgetragen werden. So können Entscheidungen auch auf vorläufiger Basis getroffen und später erneut diskutiert werden, falls eine Seite dazu anrät. Auf diese Weise kann das Meinungsspektrum der Mitglieder und Mitgliedsorganisationen besser integriert werden und kann sich keine Kultur von Mehrheitsabstimmungen entwickeln, die zum Übergehen von Minderheiten führen würde. Da Attac keine politische Partei ist, die zu jedem Thema einen abrufbaren und einheitlichen Standpunkt bereithalten muss, fallen die Nachteile des Konsensprinzips aus der Sicht der Aktivisten kaum ins Gewicht. Die Mitwirkung bei Attac findet vorwiegend in "Arbeitskreisen (AKs)" oder "Arbeitsgemeinschaften (AGs)" statt, die es sowohl auf regionaler als auch auf nationaler Ebene zu den verschiedenen Themengebieten gibt, sowie in zahlreichen Regionalgruppen. Meinungen von Attac zu wirtschaftspolitischen Themen werden zum Teil auch gesellschaftlich wahrgenommen, wie die vermehrten Auftritte von Attac-Mitgliedern in den Medien (DeutschlandRadio, Phönix) und bei Politik-Talkshows (z. B. Sven Giegold bei "Sabine Christiansen", "Maybrit Illner" oder Jutta Sundermann als Gast von Bettina Böttinger im "Kölner Treff") zeigten. Ratschlag. Der Attac-Ratschlag ist bei Attac Deutschland das höchste Entscheidungsgremium. Er trifft sich zweimal jährlich, und zwar einmal als "Attac-Basistreffen" mit dem Schwerpunkt auf Erfahrungsaustausch und ein weiteres Mal als Entscheidungsgremium unter anderem mit den jährlichen Wahlen zum Attac-Rat und zum Koordinierungskreis. Beide Treffen sind öffentliche Vollversammlungen. Der Attac-Ratschlag ist ein bundesweites, öffentliches Treffen aller interessierten Menschen aus den Mitgliedsorganisationen, Ortsgruppen sowie den bundesweiten Arbeitszusammenhängen und aktiver Nichtmitglieder. Entscheidungen werden im Wesentlichen im Konsensverfahren getroffen, Abstimmungen sollen die Ausnahme sein. Für den Fall von Abstimmungen und Wahlen werden von den Mitgliedsorganisationen und Ortsgruppen Delegierte bestimmt. Auf dem Ratschlag haben alle Anwesenden, egal ob Attac-Mitglieder oder nicht, Rede- und Stimmrecht zu inhaltlichen Fragen. Die Verabschiedung des Haushaltes und die Wahlen der Gremien sind jedoch den Delegierten vorbehalten. Diese Delegierten werden von Attac-Gruppen, Mitgliedsorganisationen und bundesweiten Arbeitszusammenhängen bestimmt, jeweils nach ihren eigenen Verfahren, die nicht zentral geregelt sind. Jede Attac-Ortsgruppe bestimmt zwei Delegierte. Attac-Gruppen mit mehr als 100 Attac-Mitgliedern bestimmen vier Delegierte. Gruppen mit mehr als 200 Attac-Mitgliedern bestimmen sechs Delegierte. Die bundesweit tätigen Mitgliedsorganisationen bestimmen jeweils zwei Delegierte. Bundesweite Arbeitsgruppen, Kampagnen, "feminist attac" (früher: Frauennetzwerk), wissenschaftlicher Beirat usw. bestimmen auch jeweils zwei Delegierte. (Beschluss Ratschläge Frankfurt 2002 und Aachen 2003) Für die Delegationen zum Ratschlag gilt eine Frauenquote. Die Delegierten der Attac-Gruppen sollen so gewählt werden, dass mindestens die Hälfte der Delegierten Frauen sein können, aber maximal die Hälfte Männer. D. h.: bleiben Frauenplätze unbesetzt, sind diese nicht durch Männer auffüllbar, jedoch können leere Männerplätze durch Frauen besetzt werden. Wissenschaftlicher Beirat. Im 2001 gegründeten wissenschaftlichen Beirat von Attac Deutschland arbeiten ca 120 Professoren, Wissenschaftler und Experten mit. Sie vertreten ein breites Spektrum unterschiedlicher Fachrichtungen. Engagiert sind Ökonomen, Soziologen, Politologen, Juristen, Psychologen und Fachleute anderer Professionen. Ihnen gemeinsam ist die Absicht, ihre Expertise in den Dienst des globalisierungskritischen Netzwerks Attac Deutschland zu stellen. Attac Österreich. Attac beim Aktionstag anlässlich des 100. Internationalen Frauentages in Wien miniAttac Österreich wurde am 6. November 2000 gegründet. Die Gründung war von 50 Personen aus allen Gesellschaftsbereichen vorbereitet worden. Zur Auftaktveranstaltung in Wien kamen mehr als 300 Interessierte. Neben den Proponenten saßen die Politikwissenschaftlerin Susan George von Attac Frankreich, Stephan Schulmeister vom Österreichischen Institut für Wirtschaftsforschung (WIFO) und Brigitte Unger, Professorin für Ökonomie an der Wirtschaftsuniversität Wien, auf dem Podium. Der Verein hat über 5400 Einzelmitglieder und mehr als 70 Mitgliedsorganisationen. Prominente Unterstützer sind unter anderem die Schriftsteller Franzobel und Robert Menasse. Zu den wichtigsten regelmäßigen Veranstaltungen zählen eine jährliche Sommerakademie an wechselnden Orten Österreichs sowie seit 2009 eine gemeinsam mit Greenpeace und anderen NGOs veranstaltete Aktionsakademie. Attac Österreich zeichnet auch für die Initiative Wege aus der Krise verantwortlich. Zu den Unterstützern dieser Initiative zählen die Armutskonferenz, die Gewerkschaft der Gemeindebediensteten, Kunst, Medien, Sport und freie Berufe (GdG-KMSfB), Global 2000 Österreich, die Gewerkschaft der Privatangestellten (GPA), Greenpeace Austria, die Katholische ArbeitnehmerInnen Bewegung Österreich (KAB), die Österreichische Hochschülerinnen- und Hochschülerschaft, die Gewerkschaft PRO-GE, SOS Mitmensch und die Gewerkschaft Vida sowie eine Reihe weiterer Organisationen. Arbeitsweise. Attac Österreich ist ein unabhängiger, in Wien eingetragener bundesweiter Verein. Attac Österreich steht nach eigenen Angaben keiner Partei nahe. Die koordinierende Stelle ist der auf der jährlichen Generalversammlung gewählte Vorstand. Bei der konstituierenden Generalversammlung am 20. Mai 2001 wurde das Prinzip des Gender Mainstreaming in den Statuten Attacs verankert. Der Vorstand besteht laut diesen Statuten zu mindestens 50 Prozent aus Frauen. Der Großteil der Arbeit basiert auf dem Engagement ehrenamtlicher Aktivisten in knapp 30 Regional- und zahlreichen Inhaltsgruppen. Attac Schweiz. In der Schweiz wurde Attac bereits 1999 gegründet und besteht aus etwa einem Dutzend Lokalgruppen. Im Gegensatz zur Schreibweise in Deutschland und anderen Ländern schreibt sich ATTAC Schweiz mit Großbuchstaben. Allgemeine Kritik. Eine Innenansicht mit Kritik am Organisierungsmodell von Attac und den prägenden Inhalten ist im 2004 veröffentlichten Buch "Mythos Attac" von Jörg Bergstedt zu finden. Parallel zum Buch sind Internetseiten mit gesammelten Kritiken und Zitaten aus der Organisation entstanden. James Tobin, der „Erfinder“ der Tobin-Steuer, distanzierte sich in einem Interview mit dem deutschen Magazin "Der Spiegel" im Jahr 2001 von Attac und anderen Globalisierungskritikern: „Ich kenne wirklich die Details der Attac-Vorschläge nicht genau. Die jüngsten Proteste sind ziemlich widersprüchlich und uneinheitlich, ich weiß nicht einmal, ob all das Attac widerspiegelt. Im großen Ganzen sind deren Positionen gut gemeint und schlecht durchdacht. Ich will meinen Namen nicht damit assoziiert wissen.“ Antisemitismuskontroverse. Attac wurde von verschiedenen Seiten eine Nähe zum Antisemitismus vorgeworfen. In Deutschland dementierte der Attac-Koordinierungskreis im Dezember 2002 diese Vorwürfe in Form eines Diskussionspapieres. Darin heißt es, dass Attac sich als pluralistisches und offenes Bündnis verstehe. Pluralismus würde jedoch nicht als prinzipienlose Beliebigkeit definiert, sondern fände dort seine Grenzen, wo Rassismus, Antisemitismus und Nationalismus ins Spiel kämen. Auch nach dieser Darstellung gab es weitere Kritik in diesem Bereich, zum Beispiel im Hinblick auf ein Plakat, das auf dem Attac-Ratschlag 2003 neben der Bühne stand und das nach Ansicht von Kritikern die Zinsknechtschaft anprangerte oder ein Aufruf der Attac-AG "Globalisierung und Krieg" zum Boykott von Waren aus jüdischen Siedlungen in Palästinensergebieten. Toralf Staud schreibt in der Wochenzeitung Die Zeit, dass, wenn über „das Finanzkapital“ oder „die Wall Street“ geraunt würde, dies das alte Vorurteil vom geldgierigen Juden wachrufe. Etliche Globalisierungskritiker erlägen der Versuchung, für unübersichtliche Entwicklungen Sündenböcke verantwortlich zu machen. Die komplexen Zusammenhänge der Globalisierung reduzierten sie auf ein „Komplott dunkler Mächte“. In Österreich veranstaltete Attac vom 18.bis 20. Juni 2004 den Kongress "Blinde Flecken der Globalisierungskritik" gegen antisemitische Tendenzen und rechtsextreme Vereinnahmung, unterstützt vom Dokumentationsarchiv des österreichischen Widerstandes. Der Kongress ist in einem Reader dokumentiert. Almandin. Almandin, auch als Eisentongranat oder Eisen-Tonerdegranat bezeichnet, ist ein Mineral aus der Gruppe der Granate innerhalb der Mineralklasse der „Silikate und Germanate“. Er kristallisiert im kubischen Kristallsystem mit der idealisierten Zusammensetzung Fe3Al2[SiO4]3, ist also chemisch gesehen ein Eisen-Aluminium-Silikat, das strukturell zu den Inselsilikaten gehört. Almandin ist das Eisen-Analogon zu Spessartin (Mn3Al2[SiO4]3) und Pyrop (Mg3Al2[SiO4]3) und bildet mit diesen eine Mischkristallreihe, die sogenannte „Pyralspit-Reihe“. Da Almandin zudem mit Grossular (Ca3Al2[SiO4]3) Mischkristalle bildet, weist natürlicher Almandin ein entsprechend weites Spektrum der Zusammensetzung mit je nach Bildungsbedingungen mehr oder weniger großen Anteilen von Mangan, Magnesium und Calcium auf. Zusätzlich können noch Spuren von Natrium, Kalium, Chrom und Vanadium, seltener auch Scandium, Yttrium, Europium, Ytterbium, Hafnium, Thorium und Uran vorhanden sein. Das Mineral ist durchsichtig bis durchscheinend und entwickelt typischerweise Rhombendodekaeder oder Ikositetraeder sowie Kombinationen dieser Kristallformen, die fast kugelig wirken. Ebenfalls oft zu finden sind körnige bis massige Mineral-Aggregate. Im Allgemeinen können Almandinkristalle eine Größe von mehreren Zentimetern Durchmesser erreichen. Es wurden jedoch auch Riesenkristalle von bis zu einem Meter Durchmesser bekannt. Die Farbe von Almandin variiert meist zwischen dunkelrot und rotviolett, kann aber auch bräunlichrot bis fast schwarz sein. Almandin ist die weltweit am häufigsten auftretende Granatart und kommt oft in schleifwürdigen Qualitäten mit starkem, glasähnlichem Glanz vor, was ihn zu einem begehrten Schmuckstein macht. Etymologie und Geschichte. Almandin war bereits Plinius dem Älteren (ca. 23–79 n.Chr.) unter dem Namen "Alabandicus" bekannt und gehörte allgemein zu den „Karfunkelsteinen“ ("Carbunculus"), das heißt roten Edelsteinen. Benannt wurde er nach der antiken Stadt Alabanda in Karien (Kleinasien, heute in der türkischen Provinz Aydın), wo der Stein bearbeitet worden sein soll. Alabanda gilt daher auch als Typlokalität für Almandin. Im Mittelalter waren verschiedene Abwandlungen des Namens im Umlauf wie unter anderem "alabandina", "Alabandra" und "Alabanda". Albertus Magnus (um 1200–1280) führte die Bezeichnung "Alamandina" ein, die fast der heutigen Form entsprach. Um 1800 wurde die Bezeichnung Almandin schließlich endgültig von Dietrich Ludwig Gustav Karsten (1768–1810) auf den Eisentongranat festgelegt. Kurioserweise wurde das 1784 erstmals beschriebene und namentlich ähnliche Mangansulfid Alabandin ebenfalls nach dem türkischen Ort Alabanda benannt, obwohl es dort bisher nicht nachgewiesen werden konnte. Klassifikation. In der mittlerweile veralteten, aber noch gebräuchlichen 8. Auflage der Mineralsystematik nach Strunz gehörte der Almandin zur Abteilung der „Inselsilikate (Nesosilikate)“, wo er zusammen mit Andradit, Calderit, Goldmanit, Grossular, Henritermierit, Hibschit, Holtstamit, Hydrougrandit, Katoit, Kimzeyit, Knorringit, Majorit, Morimotoit, Pyrop, Schorlomit, Spessartin, Uwarowit, Wadalit, Yamatoit die „Granatgruppe“ mit der System-Nr. "VIII/A.08" bildete. Die seit 2001 gültige und von der International Mineralogical Association (IMA) verwendete 9. Auflage der Strunz’schen Mineralsystematik ordnet den Almandin ebenfalls in die Abteilung der „Inselsilikate (Nesosilikate)“ ein. Diese ist allerdings weiter unterteilt nach der möglichen Anwesenheit weiterer Anionen und der Koordination der beteiligten Kationen, so dass das Mineral entsprechend seiner Zusammensetzung in der Unterabteilung „Inselsilikate ohne weitere Anionen; Kationen in oktahedraler [6] und gewöhnlich größerer Koordination“ zu finden ist, wo es zusammen mit Andradit, Blythit, Calderit, Goldmanit, Grossular, Henritermierit, Hibschit, Holtstamit, Hydroandradit, Katoit, Kimzeyit, Knorringit, Majorit, Morimotoit, Pyrop, Schorlomit, Skiagit, Spessartin, Uwarowit und Wadalit die „Granatgruppe“ mit der System-Nr. "9.AD.25" bildet. Auch die vorwiegend im englischen Sprachraum gebräuchliche Systematik der Minerale nach Dana ordnet den Almandin in die Abteilung der „Inselsilikatminerale“ ein. Hier ist er zusammen mit Pyrop, Spessartin, Knorringit, Majorit und Calderit in der „Granatgruppe (Pyralspit-Reihe)“ mit der System-Nr. "51.04.03a" innerhalb der Unterabteilung „Systematik der Minerale nach Dana/Silikate#51.04 Inselsilikate: SiO4-Gruppen nur mit Kationen in [6] und >[6]-Koordination|Inselsilikate: SiO4-Gruppen nur mit Kationen in [6] und >6]-Koordination“ zu finden. Varietäten und Modifikationen. "Rhodolithe", allgemein auch als "orientalische Granate" bekannt, sind rosa- bis rotviolette Almandin-Varietäten, die genau genommen Almandin-Pyrop-Mischkristalle mit einem Mischungsverhältnis von Magnesium : Eisen ≈ 2 : 1 und einer Dichte von ≈ 3,84 g/cm³ sind. Bekannte Vorkommen für "Rhodolith" sind unter anderem Brasilien, Indien, Kenia, Madagaskar, Mexiko, Sambia und Tansania. Auch der "Malaya-Granat" ist ein Almandin-Pyrop-Mischkristall mit den gleichen Fundgebieten wie "Rhodolith", allerdings von eher rötlich oranger Farbe. Benannt wurde er nach dem Suaheli-Wort "malaya" für „außerhalb der Familie stehend“. Bildung und Fundorte. Almandin ist ein charakteristisches Mineral metamorpher Gesteine wie unter anderem Glimmerschiefer, Amphibolit, Granulit und Gneis. Almandinreiche Granate können sich aber auch in magmatischen Gesteinen wie Granit und Granit-Pegmatit bilden. Die Kristalle sind normalerweise im Mutter-Gestein eingebettet (Blasten) und von anderen Almandin-Kristallen getrennt. Granate mit den bisher höchsten bekannten Almandingehalten von 86,7 % (Stand: 1995) fand man bei Kayove in Ruanda, aber auch in Deutschland traten schon almandinreiche Kristalle von rund 76 % auf, so unter anderem bei Bodenmais. Als häufige Mineralbildung ist Almandin an vielen Fundorten anzutreffen, wobei bisher (Stand: 2014) rund 2200 Fundorten als bekannt gelten. Begleitet wird Almandin unter anderem von verschiedenen Amphibole, Chloriten, Plagioklasen und Pyroxenen sowie von Andalusit, Biotit, Cordierit, Hämatit, Kyanit, Sillimanit und Staurolith. Neben seiner Typlokalität Alabanda trat das Mineral in der Türkei bisher nur noch in den Granat-Amphiboliten nahe Çamlıca auf der asiatischen Seite Istanbuls auf. In Deutschland konnte Almandin an mehreren Orten im Schwarzwald (Freiburg im Breisgau, Grube Clara in Oberwolfach) in Baden-Württemberg, an vielen Orten in Bayern (Bayerischer Wald, Oberpfälzer Wald, Spessart), bei Ruhlsdorf/Eberswalde-Finow in Brandenburg, an einigen Orten im Odenwald (Erlenbach, Lindenfels), bei Bad Harzburg in Niedersachsen, bei Bad Doberan in Mecklenburg-Vorpommern, bei Perlenhardt und am Drachenfels (Königswinter) in Nordrhein-Westfalen, an vielen Orten in der Eifel in Rheinland-Pfalz, in der Grube „Gottesbelohnung“ bei Schmelz im Saarland, im Steinbruch Diethensdorf und bei Penig sowie an vielen Orten im Erzgebirge in Sachsen und an einigen Orten in Schleswig-Holstein (Barmstedt, Kiel, Schleswig, Travemünde) gefunden werden. In Österreich fand sich das Mineral bisher vor allem in Kärnten in den Gurktaler Alpen und der Saualpe, in der Koralpe von Kärnten bis zur Steiermark und in den Niederen Tauern, aber auch an mehreren Orten in Niederösterreich (Wachau, Waldviertel), Salzburg (Hohe Tauern), im Tiroler Gurgler Tal und Zillertal sowie an einigen Fundpunkten in Oberösterreich und Vorarlberg. In der Schweiz sind Almandinfunde bisher nur von einigen Orten in den Kantonen Tessin (Gotthardmassiv) und Wallis (Binntal) bekannt geworden. Bekannt aufgrund außergewöhnlicher Almandinfunde sind unter anderem die Ishikawa-Pegmatite in der Präfektur Fukushima auf der Insel japanischen Honshū und Shengus am Haramosh in Pakistan, wo gut ausgebildete Almandinkristalle von bis zu 15 Zentimeter Durchmesser entdeckt wurden. Bis zu 5 Zentimeter große Kristalle fand man unter anderem in den Glimmerschiefern und Gneisen bei Fort Wrangell in Alaska und bei Bodø in Norwegen. Auch in Italien, bzw. Südtirol wurden Almandine von beträchtlicher Größe am Granatkogel im Seebertal gefunden. Weitere Fundorte liegen unter anderem in Afghanistan, Ägypten, Äthiopien, Algerien, Angola, der Antarktis, Argentinien, Australien, Belgien, Bolivien, Brasilien, Bulgarien, Burkina Faso, Chile, China, der Demokratischen Republik Kongo, Finnland, Frankreich und Französisch-Guayana, Griechenland, Grönland, Guatemala, Indien, Ireland, Israel, Kanada, Kolumbien, Korea, Madagaskar, Malawi, Mexiko, der Mongolei, Myanmar, Namibia, Nepal, Neukaledonien, Neuseeland, Norwegen, Polen, Portugal, Rumänien, Russland, Saudi-Arabien, Schweden, Simbabwe, der Slowakei, Slowenien, Spanien, Sri Lanka, Südafrika, Taiwan, Tadschikistan, Thailand, Tschechien, der Ukraine, Ungarn, Usbekistan, im Vereinigten Königreich (UK) und den Vereinigten Staaten von Amerika (USA). Auch in Gesteinsproben vom Mond konnte Almandin nachgewiesen werden. Kristallstruktur. Almandin kristallisiert kubisch in der Raumgruppe "Ia'd" (Raumgruppen-Nr. 230) mit dem Gitterparameter "a" = 11,53 Å sowie 8 Formeleinheiten pro Elementarzelle. Verwendung. Almandin wird wie die meisten anderen Minerale der Granatfamilie vor allem als Schmuckstein verwendet, die je nach Reinheit und Klarheit in Facettenform oder zu Cabochonen geschliffen werden. Weniger edle, das heißt zu dunkle und undurchsichtige Varietäten werden auch als Schleifmittel genutzt. Verwechslungsgefahr besteht vor allem mit den verschiedenen Granatvarietäten aufgrund der überwiegenden Mischkristallbildung zwischen den einzelnen Endgliedern. Daneben kann Almandin aber auch mit Rubin, Spinell und roten Turmalinen verwechselt werden. Aufgrund der schwierigen Unterscheidung werden die verschiedenen Granatnamen im Edelsteinhandel inzwischen häufig als Farbbezeichnung genutzt, wobei Almandin und Rhodolith die rosa bis violetten Granate vertreten. Der bisher größte bekannte und geschliffene Almandin-Edelstein ist ein Cabochon von 175 ct, der im Smithsonian Institution in Washington, D.C aufbewahrt wird. Aktiva. Unter Aktiva (Plural von "Aktivum") versteht man die Summe des einem Unternehmen zur Verfügung stehenden Vermögens, das auf der linken Seite einer Bilanz zu finden ist. Gegensatz sind die Passiva. Allgemeines. Aktiva (lat. agere, „tätig sein“, „handeln“) stehen auf der Aktivseite der Bilanz und stellen die einem Unternehmen zur Verfügung stehenden Vermögensgegenstände dar. Die Aktivseite lässt die Verwendung des auf der Passivseite angegebenen Kapitals erkennen. Die Aktivseite der Bilanz zeigt mithin die Verwendung der finanziellen Mittel bzw. den Besitz des Wirtschaftssubjektes, während die rechte Seite der Bilanz (Passivseite) die Mittelherkunft anzeigt. Es handelt sich um solche Vermögensgegenstände, die nicht körperlich fassbar sind. Hierzu zählen entgeltlich erworbene immaterielle Vermögensgegenstände, wie Lizenzen, gewerbliche Schutzrechte und Konzessionen. So zählt in der Medienindustrie das immaterielle Vermögen zu den wichtigsten Elementen der Bilanz, werden hier doch die zukünftig zu erwartenden Erträge aus Film- oder Musikrechten kapitalisiert und aufgeführt. Auch immaterielle Vermögensgegenstände, die nicht entgeltlich erworben wurden, sind dem Anlagevermögen zuzuordnen. Allerdings besteht handelsrechtlich unter den Voraussetzungen des Abs. 2 HGB lediglich ein Aktivierungswahlrecht für solche selbst geschaffenen immateriellen Vermögensgegenstände; steuerlich besteht gemäß Abs. 2 EStG sogar ein Aktivierungsverbot. Umlaufvermögen. Das Umlaufvermögen umfasst diejenigen Vermögensgegenstände, die das Unternehmen zur kurzfristigen Verwendung besitzt. Dazu zählen beispielsweise die Kassenbestände, Bankguthaben sowie kurzfristig verfügbare Finanzanlagen. Daneben bilden zum Beispiel auch für die Produktion notwendige Rohstoffe und Vorprodukte sowie kurzfristig verkaufbare Lagerbestände an Fertigprodukten Teile des Umlaufvermögens. Rechnungsabgrenzungsposten. Rechnungsabgrenzungsposten dienen dazu, Aufwendungen und Erträge der Periode zuzuordnen, welcher sie wirtschaftlich zugerechnet werden müssen. Als Rechnungsabgrenzungsposten auf der Aktivseite der Bilanz - auch aktive Rechnungsabgrenzungsposten genannt - sind nach Abs. 1 HGB Ausgaben auszuweisen, die vor dem Bilanzstichtag getätigt wurden, aber erst später einen Aufwand darstellen. Hierzu zählen z. B. im Voraus bezahlte Mieten, die im laufenden Geschäftsjahr gezahlt wurden aber erst im nächsten Geschäftsjahr fällig wären und auch erst dann einen Aufwand darstellen. Aktive latente Steuern. Differenzen zwischen handelsrechtlichen und steuerrechtlichen Wertansätzen, die zu einer Steuerentlastung führen und sich in späteren Perioden voraussichtlich auflösen, können gemäß Abs. 1 Satz 2 HGB als aktive latente Steuern aktiviert werden. Aktiver Unterschiedsbetrag aus der Vermögensverrechnung. Als aktiver Unterschiedsbetrag aus der Vermögensverrechnung ist der beizulegende Zeitwert von Vermögensgegenständen abzüglich der entsprechenden Schulden anzusetzen, sofern eine Verrechnung von Vermögensgegenständen und Schulden im Sinne des Abs. 2 Satz 2 HGB erfolgt und das Ergebnis hieraus positiv ist. Weitere Posten. Unter bestimmten Umständen kann oder muss die Aktivseite um weitere Posten ergänzt werden. Gemäß Abs. 5 HGB können weitere Posten hinzugefügt werden, wenn deren Inhalt nicht von einem anderen, vorgeschriebenen Posten gedeckt ist. Des Weiteren besteht die Möglichkeit, Bilanzposten unter den Voraussetzungen des Abs. 7 und 8 HGB zusammenzufassen oder ganz wegzulassen. Aufwendungen für die Ingangsetzung und Erweiterung des Geschäftsbetriebs, können nach § 67 Abs. 5 Satz 1 EGHGB auch nach dem Bilanzrechtsmodernisierungsgesetz (BilMoG) als Bilanzierungshilfe auf der Aktivseite vor dem Anlagevermögen ausgewiesen werden, wenn diese Bilanzierungshilfe für ein Geschäftsjahr, das vor 2010 begonnen hat, gebildet wurde. Bilanzanalyse. Im Rahmen der Vermögensanalyse interessiert sich die Bilanzanalyse für die Zusammensetzung der Aktiva, deren Verhältnis zu anderen Bilanzpositionen und ermittelt betriebswirtschaftliche Kennzahlen, die sich mit der vertikalen Vermögensstruktur der Aktivseite, dem Verhältnis einzelner Aktivpositionen zu den entsprechenden Passivpositionen sowie dem Verhältnis zu den Erträgen befassen. Insbesondere die immateriellen Vermögensgegenstände (IV) sollten detailliert betrachtet werden. Der nicht direkt messbare Wert dieses Vermögens lässt sich nur mit eindeutigen Regeln bilanzieren. Alexander Graham Bell. Alexander Graham Bell(Foto von ca. 1914–1919) Alexander Graham Bell (* 3. März 1847 in Edinburgh, Schottland; † 2. August 1922 in Baddeck, Kanada) war ein britischer und später US-amerikanischer Sprechtherapeut, Erfinder und Großunternehmer. Er gilt als der erste Mensch, der aus der Erfindung des Telefons Kapital geschlagen hat, indem er Ideen seiner Vorgänger zur Marktreife weiterentwickelte. Zu seinen Ehren wurde die dimensionslose Maßeinheit (Pseudomaß) für logarithmische Verhältniswerte, mit dem auch Schallpegel gemessen werden, mit Bel benannt. Leben. Bell, der wie seine beiden Brüder zunächst von der Mutter unterrichtet wurde, besuchte ab dem 10. Lebensjahr eine Privatschule in Edinburgh und ab dem 14. Lebensjahr eine Schule in London. Er studierte in Edinburgh Latein und Griechisch. Bereits der Großvater Alexander und der Vater Alexander Melville Bell beschäftigten sich mit Sprechtechnik, wobei Letzterer als Professor der Rede- und Vortragskunst das erste universale phonetische Schriftsystem bzw. eine Lautschrift oder phonetisches Alphabet entwickelte, das er "Visible Speech" nannte, weil damit die Laute abgebildet würden. Sohn Alexander, der in Bewunderung für einen Freund der Familie noch als Kind den Zunamen "Graham" annahm, wurde mit 17 Jahren Lehrer an der Weston House Academy für Sprechtechnik und Musik in Elgin, Schottland. Während dieser Zeit begannen seine ersten selbstständigen Forschungsarbeiten auf dem Gebiet der Akustik. Dabei lernte er auch den deutschen Physiker und Physiologen Hermann von Helmholtz kennen, der mit seinem 1863 erschienenen Werk „Lehre von den Tonempfindungen als physiologische Grundlage für die Theorie der Musik“ den jungen Bell wesentlich beeinflusste. Schließlich folgte er seinem Vater nach London, wo dieser am University College als Lehrer für Sprechtechnik tätig war und seinen Sohn als Assistenten einstellte. Bell studierte bis 1870 Anatomie und Physiologie der menschlichen Stimme. a>, erster Wohnsitz Bells auf dem Amerikanischen Kontinent Nachdem Alexanders Brüder Edward (1868) und Melville (1870) beide an Tuberkulose gestorben waren, siedelten Alexander und seine Eltern 1870 nach Kanada über, wo der Vater ein besseres Klima erhoffte und eine Lehrtätigkeit aufnahm. Die historisch nachhaltigste Wirkung hatte Bell 1876 mit der Entwicklung und Einführung des Telefons zu einem gebrauchsfähigen System. In der Folge entstand die Bell Telephone Company, die sich später zum weltweit größten Telekommunikationskonzern AT&T entwickelte. 1876 heiratete er die gehörlose Tochter Mabel seines Geschäftspartners Hubbard, die er als Gehörlosenlehrer (damals "Taubstummenlehrer") an der Clarke-Schule kennenlernte. Mit ihr hatte er zwei Töchter, Elsie May und Marian (Daisy) Bell, sowie die Söhne Edward und Robert, die beide im Kindesalter starben. 1882 erhielt Bell die Staatsbürgerschaft der USA. Bis zu seinem Tode 1922 beschäftigte sich Bell vor allem mit weiteren Entwicklungen und Erfindungen auf zahlreichen technischen Gebieten sowie auch mit Untersuchungen zur Eugenik der Taubheit. 1890 half er bei der Gründung der "American Association to Promote the Teaching of Speech to the Deaf (AAPTSD)" (heute Alexander Graham Bell Association for the Deaf and Hard of Hearing), deren erster Präsident er wurde. 1897 wurde Bell nach dem Tod von Gardiner Greene Hubbard zum zweiten Präsidenten der National Geographic Society gewählt. Bell als Sprachtherapeut und Gehörlosenlehrer. Bells Mutter Eliza Symonds Bell war stark schwerhörig, Bell konnte sich jedoch mit ihr mit besonders tiefer Stimme unterhalten. Außerdem konnte sie die Schwingungen seiner Klaviermusik spüren. Das sowie die familiär vorgeprägte berufliche Laufbahn veranlassten Bell offensichtlich, einer der engagiertesten Befürworter des lautsprachlich orientierten Erziehungsprinzips für Gehörlose im Gegensatz zu gebärdensprachlich orientierten Methoden zu werden. 1868 gab Bell an Susanna Hulls Schule in London Sprechunterricht für gehörlose Kinder. 1871 ging Bell als Gehörlosenlehrer an die in Northampton eingerichtete spätere „Clarke School“ in Northampton (Massachusetts). Ein Luftballon, den sich jedes dieser Kinder ans Ohr hielt, konnte die Schwingungen in der Stimme aufnehmen. Bell bleibt danach für den Rest seines Lebens Mitglied des Aufsichtsrats der Schule und wird in den letzten fünf Lebensjahren auch dessen Vorsitzender. An dieser Schule lernt er auch Mabel, seine spätere Frau kennen. In der gleichen Zeit unterrichtete er auch neben Edward Miner Gallaudet am American Asylum for the Deaf in Hartford (Connecticut). Von 1873 bis 1877 war er Professor für Sprechtechnik und Physiologie der Stimme an der Universität Boston. Bell soll sich in erster Linie als Gehörlosenlehrer und weniger als Erfinder gesehen haben. Eine Ironie der Geschichte ist, dass Bell, der stets beabsichtigte, taube Menschen zu fördern, mit dem Telefon ein System verbreitete, das zum Standard-Instrument in Beruf, Geschäftsleben und Alltag wurde, aber für Gehörlose fast ein Jahrhundert lang noch nicht benutzbar war. Die jüngsten technischen Entwicklungen (moderne Hörgeräte, Cochleaimplantat) ermöglichen jedoch auch gehörlosen Menschen die Benutzung des Telefons. Alexander G. Bell und das Telefon. Bells Telefon hatte zunächst zwei Vorgängerentwicklungen zur Grundlage. Bereits 1860 hatte der italo-amerikanische Erfinder Antonio Meucci einen Fernsprechapparat vorgestellt und 1871 einen Patentantrag gestellt. Für die endgültige Anmeldung konnte er, der sich damals in einer schwierigen wirtschaftlichen Lage befand, jedoch die Kosten nicht aufbringen und die Gültigkeit der Vormerkung erlosch 1873. Inzwischen war Bell, der jetzt in den ehemaligen Werkstätten von Meucci arbeitete, auf dessen Materialien und Unterlagen gestoßen und konnte sie als Grundlage für sein Telefon nutzen. Als Meucci 1874 seine Gerätschaften und Unterlagen zurückforderte, wurde ihm mitgeteilt, man habe diese verloren. Meucci beauftragte einen Anwalt, gegen Bells Vorgehen zu protestieren, was jedoch nie geschah. Trotz jahrzehntelanger Streitigkeiten gelang es Antonio Meucci nicht, das Patent oder wenigstens finanzielle Entschädigungen von Bell zu erhalten. Er starb als verarmter Mann. Am 11. Juni 2002 würdigte das Repräsentantenhaus des amerikanischen Kongresses der Vereinigten Staaten in einer Resolution Antonio Meuccis Erfindung und seine Arbeit bei der Einführung des Telefons. Von 1858 bis 1863 hatte Johann Philipp Reis das erste funktionierende Gerät zur Übertragung von Tönen über elektrische Leitungen entwickelt und seiner Erfindung den Namen „Telephon“ gegeben. Am 26. Oktober 1861 führte er den Fernsprecher zahlreichen Mitgliedern des Physikalischen Vereins in Frankfurt vor. Reis nahm den Morse-Telegraphen als Vorbild, der mit Unterbrechung des Stromkreislaufs arbeitet. Damit konnte er zwar Musiknoten an einen Empfänger schicken, jedoch war das Gerät für die Sprache (noch) nicht geeignet. Danach verbesserte Reis den Apparat bis 1863 wesentlich und verkaufte ihn in größeren Mengen als wissenschaftliches Demonstrationsobjekt. So kamen auch Exemplare ins Ausland. Bell lernte ein frühes Modell des Reis’schen Telefonapparates bereits 1862 in Edinburgh kennen. Sein Vater versprach ihm und seinen Brüdern einen Preis, wenn sie diese "Sprechmaschine" weiterentwickeln würden. 1865 konnte der britisch-amerikanische Erfinder David Edward Hughes in England gute Resultate mit dem deutschen „Telephon“ erzielen. Ab 1868 wurde in den USA mit der deutschen Erfindung gearbeitet. Als Bell im März 1875 an der amerikanischen Forschungs- und Bildungseinrichtung Smithsonian Institution mit dem Reis'schen Telefonapparat experimentierte, war die Erfindung in Fachkreisen bereits gut bekannt und Reis seit über einem Jahr verstorben. Bell konnte jedoch von der für ihn wichtigen Grundlagenforschung des Deutschen profitieren. Um 1873 versuchte Bell, einen „harmonischen Telegraphen“ zu entwickeln, der durch Benutzung mehrerer isolierter musikalischer Tonlagen mehrere Nachrichten gleichzeitig senden können sollte, betrieb das jedoch mit wenig Engagement. 1874 führt Bell akustische Experimente zur Aufzeichnung von Schallwellen durch. Er konstruierte damit den „Phonautographen“, ein Gerät, das die Vibrationen des Schalls auf einem berußten Zylinder aufzeichnete. Der prominente Bostoner Rechtsanwalt und gleichzeitige Direktor der „Clarke School for the Deaf“ Gardiner Greene Hubbard und der wohlhabende Geschäftsmann Thomas Sanders aus Salem erfuhren von Bells Experimenten und bewogen ihn, die Entwicklung am Harmonischen Telegraphen voranzutreiben. Die drei unterzeichneten eine Vereinbarung, nach der Bell finanzielle Unterstützung erhielt im Gegenzug für spätere Beteiligung von Hubbard und Sanders an den Erträgen. Hubbards gehörlose Tochter Mabel wurde als Druckmittel eingesetzt. Bell durfte sie erst 1877 heiraten, nachdem er seine Erfindung fertiggestellt hatte. Bell (dargestellt von einem Schauspieler) spricht in ein Telefon Obwohl Bell bei seinen Versuchen zufällig entdeckt haben soll, dass statt der erwarteten Telegraphenimpulse auch Tonfolgen übertragen werden konnten, gelang es ihm nicht, diese Entdeckung zu wiederholen. Gleichwohl meinte er, das Prinzip für die Übertragung von Tönen für einen Patentantrag beschreiben zu können. Zugute kam ihm dabei, dass das Patentamt einige Jahre zuvor die Anforderung hatte fallen lassen, mit dem Patentantrag ein funktionierendes Modell einzureichen. Am 14. Februar 1876 reichte Bells Anwalt, Gardiner Greene Hubbard, den Patentantrag ein, nur zwei Stunden bevor der Lehrer, Erfinder und Unternehmer, Elisha Gray Gleiches tun konnte. Der wesentliche Unterschied zwischen beiden Fernsprechern war, dass Bells Erfindung im Gegensatz zu der von Gray nicht funktionierte. Während Bell bei seinem Antrag auch nur sehr vage blieb, beschrieb Gray sein Telefon in einer ins einzelne gehenden Schrift. Bells Eile war nicht unbegründet, wusste er doch von mehreren Erfindern, die auch an Telefonen arbeiteten. Der von Hubbard eingereichte Antrag löste den größten Patentstreit der Geschichte aus. Bell verwendete bei der späteren praktischen Ausführung seines Telefons u. a. einen regelbaren Widerstand. Dieser war als Draht ausgeführt, der in einer Schwefellösung getaucht war. Bell soll diesen Widerstand nie zuvor ausprobiert haben. Zudem war dieser Widerstand in seiner Patentschrift nicht aufgeführt. Elisha Grays Antrag enthielt jedoch einen solchen Widerstand. Besonders nachdem Bells Patent am 7. März 1876 erteilt worden war, wurden die Stimmen lauter, die eine illegale Verbindung zwischen Bell und dem Patentamt sahen. Ein Beamter beschuldigte sich selbst der Bestechung, jedoch wurde seine wankelmütige Aussage auch in der internationalen Fachpresse bezweifelt. Das von Bells sachkundigem Mechaniker Thomas A. Watson gebaute erste funktionierende Telefon sah den Berichten zufolge merkwürdig aus. Die im Patentstreit umstrittene säuregefüllte Metalldose war mit einer Scheibe bedeckt, die einen Draht hielt, der in die Säure getaucht war. Außen an der Metalldose befand sich ein anderer Draht, der zum Empfängertelefon führt. Das Hineinbrüllen in einen senkrecht darüber angeordneten Trichter brachte Scheibe und Draht zum Schwingen. Durch diese Schwingungen veränderten sich der Abstand und damit auch der Stromfluss durch Draht und Säure zum Empfängertelefon. Dort wurden die Schwankungen des Stromes wieder in gleichartige Membranvibrationen umgesetzt, die dann Töne produzierten. Am 10. März 1876 soll der erste deutlich übertragene Satz übertragen worden sein: „Watson, come here. I need you.“ (Watson komm’ her, ich brauche dich). Bell soll sich aus Versehen Säure über die Kleidung geschüttet und nach Watson gerufen haben. Dieses Telefon war nicht sonderlich gebrauchstauglich, doch Bell verbesserte es, da er im Gegensatz zu der Reis'schen Schallübertragungsmethode, die auf der Schwingung einer Membran beruhte, nun die elektromagnetische Induktion benutzte, welche der englische Physiker und Chemiker Michael Faraday (1791–1867) entdeckt hatte. Bell verwendete jetzt sowohl für den Lautsprecher als auch das Mikrofon elektromagnetische Spulen, Dauermagnete und den bereits erwähnten Widerstand. 1877 wurde dann ein neuartiger Schallwandler verbaut, der den druckabhängigen Übergangswiderstand zwischen Membran und einem Stück Kohle zur Signalgewinnung nutzte. Als Erfinder dieses Kohlemikrofons, das auf dem von Philipp Reis erfundenen Kontaktmikrofon aufbaut, gelten sowohl der britisch-amerikanischer Konstrukteur und Erfinder David Edward Hughes, der 1865 mit einem importierten Telefon des Deutschen experimentiert hatte als auch der deutsch-amerikanische Erfinder Emil Berliner 1877 während seiner Tätigkeit bei den Bell Labs. Dennoch dauerte es noch bis 1881, bis das Bell-Telefon praktisch einsatzfähig war. Bell als Großunternehmer. Bell führt 1892 das erste Ferngepräch von New York nach Chicago Im Juli 1877 gründete Bell zusammen mit Thomas Sanders und Gardiner Greene Hubbard unter Einschluss seines Assistenten Thomas Watson die Bell Telephone Company. Zwei Tage später heiratete er die taube Tochter Mabel seines Geschäftspartners Hubbard, die er zuvor schon im Lippenlesen und Sprechen geschult hatte. Nicht ganz überraschend war der Bedarf an Telefonapparaten zunächst gering und Bell und seine Partner hatten anfangs Absatzschwierigkeiten. Es kam dabei so weit, dass sie ihre Patente der mächtigen Western Union Telegrafengesellschaft – Elisha Grays Arbeitgebern – für $ 100.000 zum Kauf anboten. Die Western Union lehnte ab, was sich bald als große Fehlentscheidung herausstellen sollte. Dennoch sahen Amerikas Telegraphengesellschaften voraus, dass Bells Telefon eine Bedrohung für ihr Geschäft darstellte, und versuchten, dem gegenzusteuern. Die Western Union Company ließ Thomas Alva Edison ein eigenes Telefon mit anderer Technik entwickeln. Bell verklagte daraufhin Western Union wegen der Verletzung seiner Patentrechte. Diese versuchte zu argumentieren, dass eigentlich Elisha Gray das Telefon erfunden habe, verlor jedoch diesen und zahlreiche weitere Prozesse. Auch Emil Berliner hatte Ärger mit dem Patentamt und Thomas Edison, für dessen Phonographen er ganz neue Vorstellungen eingereicht hatte. Berliner hatte auch ein Mikrofon entwickelt, das er 1877 für 50.000 Dollar an die „Bell Telephone Company“ verkaufte. Er zog nach Boston und arbeitete für Bell Telephone bis 1883. Im März 1879 fusionierte die Bell Telephone Company mit der New England Telephone Company zur National Bell Telephone Company, deren Präsident William H. Forbes, Schwiegersohn von Ralph Waldo Emerson, wurde. Im April 1880 erfolgte eine weitere Fusion mit der American Speaking Telephone Company zur American Bell Telephone Company. 1885 wurde die American Telephone and Telegraph Company (AT&T) in New York als Tochterunternehmen von Graham Bell gegründet, um die Fernverbindungslinien quer durch die USA für das Bell'sche System zu erobern. Theodore Vail wurde der erste Präsident der Gesellschaft. 1889 wurden sämtlicher Geschäftsaktivitäten der American Bell Telephone Company zur American Telephone and Telegraph Company transferiert, da Gesetze in Massachusetts das aggressive Wachstum verhindert hätten. Diese markiert den Anfang der heutigen Gesellschaft AT&T. 1925 wurden die Bell Telephone Laboratories aufgebaut, um die Forschungslaboratorien der AT&T und der Western Electric Company zusammenzufassen. Weitere Erfindungen. Ton-Aufnahme von Alexander Graham Bell im Volta Laboratory, 15. April 1885. Für seine Erfindung verlieh Frankreich Bell 1880 den Volta-Preis im Wert von 50.000 Franc. Mit diesem Geld gründete er das Volta Laboratory in Washington D.C., wo er im gleichen Jahr mit seinem Assistenten, Charles Sumner Tainter das Photophon entwickelte, das Licht als Mittel der Projektion der Informationen verwendete, während das Telefon auf Strom angewiesen war. Im Jahr 1881 konnten sie erfolgreich eine Nachricht über das Photophon 200 Meter von einem Gebäude zum anderen versenden. Bell sah das Photophon als „die größte Erfindung, die ich je gemacht habe“. Die Erfindung zeigte das Prinzip, auf dem die heutigen Laser und Lichtwellenleiter basieren. 1886 erfanden Bell und seine Mitarbeiter im Volta Labor die erste Walze, die auf Wachs aufzeichnen konnte. Sie sollte, zusammen mit einer flachen Wachsscheibe, die Grundlage für das Grammophon werden. 1887 verkauften sie ihr Patent an die American Gramophone Company. Neben der Kommunikation ging Bell einer großen Vielfalt von wissenschaftlichen Experimenten nach, bei denen Drachen, Flugzeuge, tetraedrische Strukturen, Mehrlingsgeburten in der Schafzucht, künstliche Beatmung, sowie Entsalzung und Destillation von Meerwasser eine Rolle spielten. Das Attentat auf President Garfield 1881 brachte Bell auf Idee zur Induktionswaage (Lokalisierung von Metallgegenständen im menschlichen Körper). 1881 starb Bells neugeborener Sohn, Edward, an Erkrankung der Atemwege. Bell reagierte auf diese Tragödie durch die Erfindung einer Metall-Vakuum-Jacke, die das Atmen erleichtern sollte. Dieser Apparat war ein Vorläufer der eisernen Lunge, die in den 1950er Jahren Anwendung fand. Immer wieder beschäftigte er sich mit der Taubheit und entwickelte das Audiometer zum Messen der Gehörleistung 1907 – vier Jahre nach dem ersten Flug der Gebrüder Wright in Kitty Hawk – gründete Bell mit Glenn Curtiss, William „Casey“ Baldwin, Thomas Selfridge, und J.A.D. McCurdy die Aerial Experiment Association. Diese jungen Ingenieure hatten das Ziel, ebenfalls eine Flugmaschine zu bauen. Bis 1909 hatten sie vier Tragflügel-Flugzeuge gebaut, von denen dem besten, „Silver Dart“ der erste erfolgreiche Flug am 23. Februar in Kanada gelang. Er wurde von einem zugefrorenen See in Baddeck, Nova Scotia, gestartet, wo Bell ein Haus besaß. Eugenik. A. G. Bell erforschte zwischen 1882 und 1892 die Häufung von Gehörlosigkeit auf der Insel Martha’s Vineyard nahe Boston, vermutete dahinter richtigerweise erbbedingte Anlagen. Die Zusammenhänge konnte er jedoch nicht beweisen, da ihn irritierte, dass nicht jedes Kind von anscheinend erblich veranlagten Eltern taub wurde. Ihm fehlten dazu die Kenntnisse, die Gregor Mendel zwar schon 1865 formulierte, die aber bis zum Jahr 1900 der Öffentlichkeit weitgehend unbekannt blieben. Dennoch empfahl er in der Monographie "Memoir upon the Formation of a Deaf Variety of the Human Race" ein Eheverbot unter Taubstummen, warnte vor Internaten an den „Taubstummen“-Schulen als möglichen Brutstätten einer tauben Menschenrasse und empfahl die eugenische Kontrolle von USA-Immigranten. Spätere Arbeiten von Rassehygienikern stützten sich bis weit in das 20. Jahrhundert ungeprüft auf Bells Angaben. Als Folge wurden zahlreiche Taube ohne ihr Wissen und ohne ihr Einverständnis sterilisiert. Dabei soll Bell durchaus die methodischen Schwächen seiner Untersuchungen gekannt haben. 1921 war Bell Honorarpräsident des zweiten internationalen Eugenikkongresses unter der Schirmherrschaft des "American Museum of Natural History" in New York. Er arbeitete mit den Organisationen zusammen mit dem Ziel, Gesetze zur Verhinderung der Ausweitung von „defekten Rassen“ einzuführen. George Veditz, Präsident der National Association of the Deaf nannte Bell 1907 „den Feind, den die tauben Amerikaner am meisten zu fürchten haben“. Alexander Graham Bell haftet damit der Ruf an, die Entwicklung der Gemeinschaft der gehörlosen Menschen und der Gebärdensprache massiv gestört zu haben mit Auswirkungen, die noch heute in vielen Ländern spürbar sind. Abu Nidal. Abu Nidal (), eigentlicher Name Sabri Chalil al-Banna (; * Mai 1937 in Jaffa; † 16. August 2002 in Bagdad), war palästinensischer Terrorist und der Gründer der Abu Nidal Organisation, einer Abspaltung der PLO im Jahr 1974. Die Terrororganisation Abu Nidals führte über 100 Anschläge in mehr als 20 Ländern aus. Frühe Jahre. Abu Nidal wurde im Mai 1937 am Hafen von Jaffa an der Küste Palästinas geboren, das damals unter britischer Herrschaft stand. Sein Vater Chalil war ein reicher Geschäftsmann, der sein Geld mit Orangenplantagen machte und seine elf Kinder in einem fünfstöckigen Haus am Strand großzog (heute in Verwendung als israelisches Militärgericht). Chalil verliebte sich in eines seiner Stubenmädchen, eine erst 16-jährige Alawitin und nahm sie entgegen dem Wunsch seiner Familie zu seiner Frau. Sie bekam sein zwölftes Kind, Sabri Chalil al-Banna. Verschiedenen Quellen zufolge war sie seine zweite oder achte Frau. Verachtet von seinen älteren Halbgeschwistern verlief seine Kindheit sehr unglücklich. Der Vater starb 1945, als Abu Nidal sieben war, woraufhin seine Familie seine ungeliebte Mutter aus dem Haus warf. Obwohl er gemeinsam mit seinen Geschwistern leben durfte, wurde seine Erziehung vernachlässigt. Er entwickelte sich zum Frauenverachter, zwang später seine eigene Frau in die Isolation und verbot auch den Frauen seiner Anhänger jegliche Freundschaften untereinander. Als der Palästinakrieg zwischen Arabern und Juden ausbrach, verlor seine Familie die Orangenplantagen, da Jaffa im Kriegsgebiet lag. Sie flohen ins Flüchtlingslager Al-Burj nach Gaza, wo sie ein Jahr in Zelten lebten. Danach gingen sie nach Nablus und dann nach Jordanien. Abu Nidal verbrachte seine Teenagerjahre in Nablus in diversen Jobs. Mit 18 trat er der Baath-Partei bei, die jedoch 1957 verboten wurde. Als Drahtzieher eines fehlgeschlagenen Attentats auf König Hussein floh er nach Saudi-Arabien, wo er sich als Elektriker und Anstreicher niederließ und auch zeitweise im Labor für Aramco arbeitete. Politisches Leben. In Riad sammelte er eine kleine Gruppe junger Palästinenser, die sich „Palästina-Geheimorganisation“ nannte, und lernte seine Frau Hiyam Al-Bitar kennen, mit der er den Sohn Nidal und zwei Töchter, Badia und Bissam bekam. Als Israel 1967 den Sechstagekrieg gewann, wurde er angesichts der neuen diplomatischen Lage von den Saudis eingesperrt und gefoltert und schließlich aus dem Land vertrieben. Er zog nach Amman, Jordanien, um und gründete die Handelsfirma Impex, und trat Fatah, Jassir Arafats Partei innerhalb der PLO bei. Impex wurde bald die Plattform für Tätigkeiten der Fatah und Abu Nidal wurde ein wohlhabender Mann, unter anderem als Geflügelexporteur nach Polen. Gleichzeitig diente die Firma als Deckmantel für seine politische Gewalttätigkeit und seine Multimillionen-Dollar-Waffengeschäfte, Söldnertätigkeiten und Schutzschläger. Impex diente als Treffpunkt für Fatahmitglieder und als deren Finanzkraft. Abu Nidal war in dieser Zeit als sauberer Geschäftsmann bekannt. Während des Schwarzen Septembers in Jordanien zwischen Fedajin und Truppen König Husseins blieb er zuhause, verließ nie sein Büro. Sein Talent für Organisation erkennend, ernannte Abu Ijad ihn 1968 zum Fatah-Repräsentanten in Khartum, Sudan, dann in Bagdad 1970, nur zwei Monate vor dem zweiten Attentat auf König Hussein. Nidal war inoffizieller Mitarbeiter der DDR-Staatssicherheit. Abspaltung von der PLO. Kurz vor der PLO-Vertreibung aus Jordanien und während der drei folgenden Jahre begannen sich einige radikale palästinensische und andere arabische Parteien, wie George Habaschs PFLP, DFLP, Arabische Befreiungsfront, Sa'iqa und die Palästinensische Befreiungsfront, von der PLO abzuspalten und starteten ihre eigenen Terrorangriffe gegen israelische militärische und zivile Ziele. Kurz nach der Vertreibung aus Jordanien fing Abu Nidal an, Kritik an der PLO über„ Stimme von Palästina“, die PLO-eigene Radiostation im Irak zu übertragen und beschuldigte sie der Feigheit, wegen der Zustimmung zu einer Waffenruhe mit König Hussein. Während des dritten Fatah-Kongresses in Damaskus 1971 trat Abu Nidal als Führer eines linksgerichteten Bündnisses gegen Arafat auf. Zusammen mit Abu Daud (einer von Fatahs unbarmherzigsten Kommandanten, der später für die Planung der Geiselnahme von München verantwortlich war, bei dem 11 israelische Athleten im olympischen Dorf in München als Geiseln genommen und getötet wurden) und dem palästinensischen Intellektuellen Nadschi Allusch, erklärte er Arafat zum Feind des palästinensischen Volkes und verlangte mehr Demokratie innerhalb der Fatah sowie Rache gegen König Hussein. Es war Abu Nidals letzter Kongress. Jahre in Libyen und weitere Attentate. 1985 zog Abu Nidal nach Tripolis, wo er mit Gaddafi Freundschaft schloss, der bald sein Partner wurde und auch Gebrauch davon machte. Am 15. April 1986 griffen US-Truppen in der Operation El Dorado Canyon von britischen Stützpunkten aus Tripolis und Benghazi an. Dutzende wurden getötet. Diese Aktion war die Vergeltung für ein Bombenattentat zehn Tage davor auf einen Berliner Nachtclub, der häufig von US-Soldaten besucht wurde. Nach Abu Nidals Tod berichtete Atef Abu Bakr, ein ehemaliges Mitglied der Fatah RC gegenüber Journalisten, dass Gaddafi Abu Nidal gebeten hatte, gemeinsam mit seinem Geheimdienstchef, Abdullah al-Senussi, eine Serie von Racheattentaten gegen britische und US-Ziele zu planen. Abu Nidal arrangierte die Entführung von zwei Briten und einem Amerikaner, die später ermordet aufgefunden wurden. Danach schlug er Senussi vor, ein Flugzeug zu entführen oder zu sprengen. Am 5. September 1986 entführte ein Fatah RC-Team den Pan Am Flug 73 in Karatschi, 22 Passagiere wurden getötet, etliche verwundet. Im August 1987 ließ er eine Bombe auf einen Flug von Belgrad einer unbekannten Fluglinie schmuggeln, die allerdings nicht explodierte. Verärgert über dessen Versagen befahl Senussi Abu Nidal, eine Bombe zu bauen, die von einem libyschen Agenten an Bord des PanAm Fluges 103 nach New York gebracht wurde. Am 21. Dezember 1988 explodierte das Flugzeug über Lockerbie in Schottland. 259 Menschen an Bord und 11 am Boden wurden getötet. 2000 verurteilte ein schottisches Gericht Abdel Basset Ali al-Megrahi, den ehemaligen Sicherheitschef der Libyan Arab Airlines, für seine Rolle beim Attentat. Er hatte den Koffer in Malta so beschriftet, dass er an Bord der Maschine gelangen würde. Die Beteiligung Abu Nidals wurde niemals bestätigt. Tod. Nach dem Bruch mit Gaddafi, der bemüht war, den Kontakt mit den Vereinigten Staaten und dem Vereinigten Königreich wiederherzustellen und sich vom Terror zu distanzieren, ließ sich Abu Nidal 1999 im Irak nieder. Die irakische Regierung meinte zwar, er sei mit einem gefälschten Pass eingereist, aber ab 2001 lebte er dort offiziell, obwohl er in Abwesenheit in Jordanien zum Tode verurteilt worden war, für seine Rolle bei der Ermordung eines jordanischen Diplomaten 1994 in Beirut. Am 19. August 2002 berichtete das palästinensische Amtsblatt "Al-Ayyam", dass Abu Nidal mehrfachen Schusswunden erlegen sei. Am 21. August gab der irakische Geheimdienst eine Pressekonferenz, bei der Fotos des blutigen Körpers Abu Nidals und ein Obduktionsbericht präsentiert wurden, die beweisen sollten, dass er an einer einzigen Schussverletzung, einem Kopfschuss durch den Mund, gestorben sei. Laut der Darstellung des Geheimdienstes drangen Agenten in sein Haus ein, um ihn für ein geplantes Attentat an Saddam Hussein zu verhaften. Mit der Bitte, sich etwas anziehen zu dürfen, habe er sich in sein Schlafzimmer zurückgezogen und sich in den Mund geschossen. Nach acht Stunden Intensivbehandlung sei er gestorben. Wie schon längere Zeit bekannt war, litt er an Leukämie. Anderen Quellen zufolge (s.o.) soll ihn der irakische Geheimdienst schon längere Zeit observiert haben, sie fanden Dokumente über einen US-Angriff auf den Irak. Agenten drangen bereits am 14. in sein Haus ein, wo ein Kampf mit seinen Anhängern ausgebrochen sei. Er floh in sein Schlafzimmer, wo er starb. Unklar ist, ob er sich selbst tötete. Sein Körper wies mehrere Schusswunden auf, so die Quelle. Alternativweltgeschichte. Alternativweltgeschichten sind eine Ausformung des Science-Fiction-Genres und unter den Bezeichnungen "Allohistoria", "Parahistorie", "Virtuelle Geschichte", "Imaginäre Geschichte", "Ungeschehene Geschichte", "Potentielle Geschichte", "Eventualgeschichte", "Alternate History", "Alternative History" oder "Uchronie" bekannt. In der Geschichtswissenschaft werden derartige Gedankenspiele, die allerdings Bezug auf die historischen Quellen nehmen, als kontrafaktische Geschichte bezeichnet. Die Geschichten dieser Werke spielen in einer Welt, in der der Lauf der Weltgeschichte irgendwann (am so genannten "Point of Divergence") von dem uns bekannten abgewichen ist. Während Science-Fiction mit dem Potentialis operiert, operiert die kontrafaktische Geschichte mit dem Irrealis, stellt also die Frage: „Was hätte sein können, wenn …?“ Das Genre wurde insbesondere in der englischsprachigen Literatur der Nachkriegszeit entwickelt. Inhalte. Alternativweltgeschichten werden gerne als Mittel der Satire benutzt. Darüber hinaus gibt es auch Parallelwelterzählungen, in denen sich beide Möglichkeiten der Geschichte unabhängig voneinander weiterentwickeln und später, meist in der Gegenwart, miteinander in Verbindung treten. Ada (Programmiersprache). Ada ist eine strukturierte Programmiersprache mit statischer Typenbindung. Sie wurde von Jean Ichbiah von dem Unternehmen Honeywell Bull in den 1970er Jahren entworfen. Es war die erste standardisierte Hochsprache. Ada ist vom Erscheinungsbild ähnlich zur Programmiersprache Pascal und ist genauso wie Modula-2 als Wirthsche Sprache zu betrachten. Ebenso wie Modula ist Ada aber auch strenger in der Programmierung als Pascal. Benannt wurde die Sprache nach Lady Ada Lovelace (1815–1852), der Tochter von Lord Byron und Mitarbeiterin von Charles Babbage, die auch als erste Programmiererin bezeichnet wird. Die richtige Schreibweise ist daher "Ada" und nicht, wie gelegentlich verwendet, "ADA". Überblick. Ada wurde anfänglich stark vom US-Verteidigungsministerium gefördert und unterstützt. Die drei gängigen Versionen sind Ada 83 (das erste standardisierte Ada, das zunächst einfach nur Ada hieß, aber später zur Abgrenzung vom Nachfolger Ada 83 genannt wurde), Ada 95, das um zahlreiche neue Sprachmittel erweitert wurde und Ada 2005 (auch als Ada 05 bekannt), dessen Standardisierungsprozess 2007 abgeschlossen wurde. Ada-Compiler können sich einem standardisierten Test (Validierung) unterziehen, der praktisch Grundvoraussetzung für den professionellen Einsatz ist. Aufgrund der hohen Anforderung, die validierte Compiler erfüllen müssen, hat Ada sich vor allem in sicherheitskritischen Bereichen durchgesetzt, zum Beispiel in der Flugsicherung, in Sicherheits-Einrichtungen der Eisenbahn, in Waffensystemen, der Raumfahrt, der Medizin oder der Steuerung von Kernkraftwerken. Fähigkeiten der Sprache. Ada zielte ursprünglich auf eingebettete "(embedded)" und Echtzeit-Systeme "(real-time systems)" und wird auch heute noch oft für diese Zwecke verwendet. Ada 95 – von Tucker Taft von Intermetrics zwischen 1992 und 1995 entworfen – verbesserte die Möglichkeiten zum Entwurf numerischer, systemnaher und bankwirtschaftlicher Programme. Herausragende Merkmale von Ada sind etwa das strenge Typsystem "(starke Typisierung)", zahlreiche Prüfungen zur Programmlaufzeit, Nebenläufigkeit, Ausnahmebehandlung und generische Systeme. Ada 95 führte sogenannte "tagged types" (erweiterbare Typen) ein, die das Ada zugrundeliegende Konzept des Programmieren durch Erweiterung weiter ausbauen und dynamische Polymorphie ermöglichen. Implementierungen von Ada benutzen üblicherweise keine automatische Speicherbereinigung "(garbage collection)" zur Speicherverwaltung, der Standard "erlaubt" dies jedoch. Ada unterstützt Laufzeittests, um Speicherüberläufe, Zugriff auf nicht zugewiesenen Speicher, "off-by-one-Fehler" und andere, ähnlich geartete Fehler frühzeitig zu erkennen und zu vermeiden. Für eine höhere Effizienz können diese Tests abgeschaltet werden. Auch zur Programmverifikation stehen verschiedene Spracheigenschaften zur Verfügung. Mit Ada ist es auch zum ersten Mal gelungen, Programme automatisch auf Korrektheit zu überprüfen. Dazu wird die Ada-Variante SPARK verwendet. Dies ist eine Untermenge von Ada mit speziellen Annotationen. Die Korrektheit eines SPARK-Programms wird mit einem Verifikationsprogramm "(SPARK Examiner)" durch statische Analyse der Annotationen überprüft. Programmierwerkzeuge. Für Ada gibt es den quelloffenen Compiler GNAT unter GPL-Lizenz. Die Firma AdaCore entwickelt die IDE GNAT Programming Studio, die in einer freien und einer kommerziellen Version angeboten wird. Darüber hinaus bieten verschiedene namhafte Hersteller Compiler mit IDEs für Ada an. Ein Plugin für Eclipse, die GNATbench, wurde zunächst in der kommerziellen Version GNATpro vertrieben, ist mittlerweile aber auch unter einer GPL verfügbar. Daneben gibt es einige kleinere IDEs, die Ada unterstützen und sich vor allem für die Lehre eignen, zum Beispiel jGRASP, oder unter Windows das bekannte AdaGIDE. Außerdem existiert ein emacs-Mode für Ada. Ein Ada-Plugin für Oracles integrierte Entwicklungsumgebung (IDE) Netbeans befindet sich in Entwicklung. Geschichte. In den 1970ern zeigte sich das Verteidigungsministerium der USA besorgt über die wachsende Anzahl von Programmiersprachen, die in seinen Projekten verwendet wurden. Wartung, Ausbildung, Modularität und Wiederverwendung waren dadurch schwer beeinträchtigt. Viele der Programmiersprachen waren zudem proprietär (man war also vom Anbieter abhängig) oder schlicht veraltet. 1975 sollte eine Arbeitsgruppe diesen Dschungel lichten und eine Sprache finden oder erfinden, welche die Bedingungen des Ministeriums erfüllt. Eine Reihe von Anforderungskatalogen, bezeichnet als "Strawmann", "Woodenman", "Tinman", "Ironman" und "Steelman" (später auch noch "Pebbleman" und "Stoneman" für eine integrierte Entwicklungsumgebung), wurden erstellt und viele existierende Sprachen wurden überprüft, doch 1977 kam man zum Ergebnis, dass keine der vorhandenen Sprachen geeignet war. Nach einer Ausschreibung kamen vier Kandidaten in die nähere Auswahl ("Red", "Green", "Blue" und "Yellow" genannt), und im Mai 1979 entschied man sich für "Green" von Jean Ichbiah, welches dann auf den Namen Ada getauft wurde. Die ursprüngliche Beschreibung wurde am 10. Dezember 1980 gebilligt, dem Geburtstag von Lady Ada Lovelace. Der Standard erhielt die Bezeichnung MIL-STD 1815, da 1815 ihr Geburtsjahr war. Nach der Einführung Adas 1983 fiel die Anzahl der verwendeten Programmiersprachen im Verantwortungsbereich des US-amerikanischen Verteidigungsministeriums bis 1996 von über 450 auf 37. Das US-Verteidigungsministerium schrieb vor, dass jedes Softwareprojekt mit einem Anteil von mehr als 30 % neuem Code in Ada geschrieben werden musste. Diese Vorschrift wurde 1997 aufgehoben, zudem wurden häufig Ausnahmen genehmigt. In vielen anderen Staaten der NATO wurden ähnliche Vorschriften erlassen. 1983 wurde die Sprache zu einer ANSI-Norm (ANSI/MIL-STD 1815), die ISO übernahm die Norm 1987 als ISO-8652:1987. Diese Version wird heute als Ada 83 bezeichnet, nach dem Jahr der ANSI-Normung. Ada 95, die gemeinsame ISO/ANSI-Norm ISO-8652:1995, wurde im Februar 1995 angenommen. Damit wurde Ada 95 zur ersten objektorientierten Programmiersprache mit einer ISO-Norm. Im September 2000 wurde die erste technische Korrektur gemäß den Statuten der ISO als ISO/IEC 8652:1995(E)/Cor.1:2000 angenommen. Zurzeit ist die ISO/ANSI-Norm ISO-8652:1995/AMD 1:2007, informell Ada 2005, der aktuelle Standard. Um die Verbreitung des Standards und der Sprache allgemein zu unterstützen, finanzierte die US Air Force die Entwicklung des kostenfreien GNAT-Compilers. Die auf Sicherheit ausgelegten Spracheigenschaften von Ada alleine können Fehler nicht verhindern: Ariane V88, die erste Ariane 5, ging im Juni 1996 samt Nutzlast verloren, unter anderem weil ein arithmetischer Überlauf auftrat und für die vom Compiler generierte Ausnahme keine angemessene Ausnahmebehandlung implementiert worden war. Entgegen Bertrand Meyers Behauptung hätte auch die von ihm entwickelte Programmiersprache Eiffel den Verlust der Rakete nicht verhindert. Im April 2008 kam Ada 2005 wieder in die Schlagzeilen, nachdem Lockheed Martin ein Update zum Flugsicherungssystem der Federal Aviation Administration vor der vereinbarten Lieferzeit und unter dem erwarteten Budget abgeliefert hatte. "Hallo Welt" in Ada. with Ada.Text_IO; -- Ausgabe des Textes "Hallo, Welt!". Ada.Text_IO.Put_Line("Hallo, Welt!"); Absinth. Reservoirglas mit natürlich gefärbtem Absinth und Absinthlöffel Absinth, auch "Absinthe" oder Wermutspirituose genannt, ist ein alkoholisches Getränk, das traditionell aus Wermut, Anis, Fenchel sowie einer je nach Rezeptur unterschiedlichen Reihe weiterer Kräuter hergestellt wird. Bei einer sehr großen Anzahl von Absinthmarken ist die Spirituose von grüner Farbe. Deswegen wird Absinth gelegentlich auch „die grüne Fee“ (") genannt. Der Alkoholgehalt liegt üblicherweise etwa zwischen 45 und 85 Volumenprozent und ist demnach dem oberen Bereich der Spirituosen zuzuordnen. Aufgrund der Verwendung bitter schmeckender Kräuter, insbesondere von Wermut, gilt Absinth als Bitterspirituose, obwohl er nicht unbedingt bitter schmeckt. Absinth wurde ursprünglich im 18. Jahrhundert im Val de Travers im heutigen Schweizer Kanton Neuenburg (frz. "Canton de Neuchâtel") als Heilelixier hergestellt. Große Popularität fand diese Spirituose, die traditionell mit Wasser vermengt getrunken wird, in der zweiten Hälfte des 19. und dem frühen 20. Jahrhundert in Frankreich. Zu den berühmten Absinth-Trinkern zählen unter anderem Charles Baudelaire, Paul Gauguin, Vincent van Gogh, Ernest Hemingway, Edgar Allan Poe, Arthur Rimbaud, Aleister Crowley, Henri de Toulouse-Lautrec und Oscar Wilde. Auf dem Höhepunkt seiner Popularität stand das Getränk in dem Ruf, aufgrund seines Thujon-Gehalts abhängig zu machen und schwerwiegende gesundheitliche Schäden hervorzurufen. 1915 war das Getränk in einer Reihe europäischer Staaten und den USA verboten. Moderne Studien haben eine Schädigung durch Absinthkonsum nicht nachweisen können; die damals festgestellten gesundheitlichen Schäden werden heute auf die schlechte Qualität des Alkohols und die hohen konsumierten Alkoholmengen zurückgeführt. Seit 1998 ist Absinth in den meisten europäischen Staaten wieder erhältlich. Auch in der Schweiz sind seit 2005 die Herstellung und der Verkauf von Absinth wieder erlaubt. Verwendete Kräuter. Außer Wermut ("Artemisia absinthium") enthält in Frankreich und der Schweiz hergestellter Absinth Anis, teilweise ersetzt durch den preisgünstigeren Sternanis, Fenchel, Ysop, Zitronenmelisse und pontischen Wermut. Varianten verwenden auch Angelika, Kalmus, "Origanum dictamnus", Koriander, Veronica, Wacholder, Muskat und verschiedene weitere Kräuter. Wermut, Anis und Fenchel machen den typischen Geschmack des Absinths aus. Die übrigen Gewürze dienen der geschmacklichen Abrundung. Die grüne Farbe, die viele Absinthsorten aufweisen, stammt vom Chlorophyll in pontischem Wermut, Ysop, Melisse und Minze. Thujon. Strukturformel des Inhaltsstoffs Thujon Thujon ist ein Bestandteil des ätherischen Öls des Wermuts, das für die Absinthherstellung verwendet wird. Die schädlichen Auswirkungen, die während des Höhepunkts der Absinth-Popularität im 19. Jahrhundert in Frankreich zu beobachten waren und zu denen unter anderem Schwindel, Halluzinationen, Wahnvorstellungen, Depressionen, Krämpfe, Blindheit sowie geistiger und körperlicher Verfall gehörten, wurden auf diese Substanz zurückgeführt. Thujon ist ein Nervengift, das in höherer Dosierung Verwirrtheit und epileptische Krämpfe (Konvulsionen) hervorrufen kann. Aus diesem Grund wurde in der Europäischen Union der Thujongehalt in alkoholischen Getränken begrenzt (5 mg/kg in alkoholischen Getränken mit einem Alkoholgehalt von bis zu 25 % vol und bis zu 10 mg/kg in alkoholischen Getränken mit einem Alkoholgehalt von mehr als 25 % vol sowie bis zu 35 mg/kg in Bitter-Spirituosen.) Die insbesondere in Tierexperimenten des 19. Jahrhunderts beobachtete konvulsive Wirkung des Absinths wird heute auf eine Blockierung von GABAA-Rezeptoren und eine Desensibilisierung von Serotonin-5-HT3-Rezeptoren durch Thujon zurückgeführt. Es ist jedoch inzwischen widerlegt, dass die im Absinth enthaltene Thujonmenge ausreicht, um in diesem Maße toxisch zu wirken. Als Ursache oder wesentlicher Faktor eher wahrscheinlich ist der im Absinth enthaltene Alkohol. Auch ein möglicher gemeinsamer Wirkmechanismus mit dem Cannabis-Wirkstoff Tetrahydrocannabinol über eine Aktivierung von Cannabinoid-Rezeptoren konnte nicht bestätigt werden. Eine in der Clubszene und in den Medien proklamierte euphorisierende und aphrodisierende Wirkung heutiger Absinthe kann anhand dieser experimentellen Daten nicht auf die in diesen Getränken enthaltene Thujondosis zurückgeführt werden. Der Absinth des 19. Jahrhunderts hatte entgegen früheren Berichten, die von bis zu 350 Milligramm je Liter sprachen, im Wesentlichen keinen höheren Thujongehalt als die heutigen reglementierten Absinthe. In einer Untersuchung von Absinthen auf Basis historischer Rezepte und Prozesse und von 1930 hergestelltem Absinth konnten nur Thujonmengen von unter 10 mg/kg nachgewiesen werden. Der Thujongehalt kann jedoch höher liegen, wenn Wermutauszüge oder Wermutöle zugesetzt werden. Die Absinthe werden auf diese Weise jedoch sehr bitter. Alkohol. Der Alkoholgehalt historischer Absinthe lag zwischen 45 % und 78 %. In diesem Bereich befinden sich mit wenigen Ausnahmen auch die heute erhältlichen Absinthsorten. Absinth ist aber auch mit einem Alkoholgehalt von bis zu 90 % erhältlich. Wegen des hohen Alkoholgehalts wird Absinth in der Regel verdünnt getrunken. Historisch belegt sind fünf Qualitätsgrade: "Absinthe des essences" (dt. Absinth-Auszüge), "Absinthe ordinaire" (dt. gewöhnlicher Absinth), "Absinthe demi-fine" (dt. Absinth halb-fein), "Absinthe fine" (dt. Absinth fein) und "Absinthe Suisse" (dt. Schweizer Absinth), wobei "Absinthe des essences" den geringsten Alkoholgehalt und die niedrigste Qualität repräsentiert. "Absinthe Suisse" verweist nicht auf das Herstellungsland, sondern auf einen besonders hohen Alkoholgehalt und hohe Qualität. Rückblickend wird heute nicht mehr Thujon, sondern der Alkoholgehalt des Absinths als die vorrangige Ursache des im 19. und Anfang des 20. Jahrhunderts verbreiteten "Absinthismus" angesehen. 1914 lag die von erwachsenen Franzosen pro Kopf konsumierte reine Alkoholmenge bei jährlich 30 Litern. Im Vergleich dazu führt heute (2013, laut WHO) Moldawien mit 18,22 Litern reinem Alkohol pro Erwachsenem weltweit die Statistiken des Alkoholkonsums an. Die Symptome des Absinthismus unterscheiden sich nicht von denen eines chronischen Alkoholmissbrauchs (Alkoholismus). Andere Inhaltsstoffe. Ein zusätzliches Problem des Absinths des 19. Jahrhunderts war, dass der verwendete Alkohol oft minderwertig war und viel Amylalkohol und andere Fuselöle enthielt. Auch Methanol, das Schwindel, Kopfschmerzen und Übelkeit bewirkt und als Spätfolge Erblindung, Schüttellähmung oder bei einer Überdosis den Tod nach sich zieht, war im damaligen Absinth enthalten. Um dem Absinth seine charakteristische Farbe zu verleihen, wurden bisweilen Zusatzstoffe wie z. B. Anilingrün, Kupfersulfat, Kupferacetat und Indigo zugesetzt. Ebenso wurde Antimontrichlorid hinzugefügt, um den Louche-Effekt (die milchige Trübung des sonst klaren Getränks, wenn es mit Wasser verdünnt oder sehr stark gekühlt wird) hervorzurufen. Jedoch lagen die in historischen Proben gefundenen Konzentrationen potenzieller Schadstoffe wie Pinocamphon, Fenchon, Alkoholverunreinigungen, Kupfer- und Antimon-Ionen in einem für den Rückschluss auf Absinthismus unverdächtigen Bereich. Herstellung. Bei der Herstellung werden Wermut, Anis und Fenchel in Neutralalkohol oder Weinalkohol mazeriert (eingeweicht) und anschließend destilliert. Die Destillation trägt dazu bei, die starken Bitterstoffe des Wermuts abzutrennen. Diese sind weniger flüchtig als die Aromastoffe und bleiben bei der Destillation zurück. Andernfalls wäre das Ergebnis unangenehm bis ungenießbar bitter. Eine unverhältnismäßige Bitterkeit bei Absinth kann ein Indiz dafür sein, dass bei der Produktion auf die Destillation ganz oder teilweise verzichtet wurde, bei der Herstellung Wermutextrakte verwendet wurden und es sich um minderwertigen beziehungsweise unechten Absinth handeln könnte. Das Destillat kann mit Kräutern wie Pontischem Wermut, Melisse und Ysop eingefärbt werden. Die Färbung durch Kräuter trägt zum geschmacklichen Gesamtbild des Endprodukts bei. Sie stellt hohe Ansprüche an die Fertigkeiten des Herstellers bei der Auswahl der Färbekräuter, ihrem quantitativen Verhältnis und der Dauer der Färbung. Bei altem Absinth kann sich die Färbung des Getränks von einem ursprünglich leuchtenden Grün in ein gelbliches Grün oder Braun wandeln, da sich das Chlorophyll zersetzt. Sehr alte Absinthe sind gelegentlich bernsteinfarben. Klarer Absinth, auch „Blanche“ oder „La Bleue“ genannt, ist typisch für den in illegalen Destillerien in der Schweiz hergestellten Absinth. Der Verzicht auf die normalerweise für Absinth typische Färbung erleichterte den heimlichen Verkauf in Zeiten, in denen Absinth in der Schweiz verboten war. Einige der heute hergestellten Absinthe werden mit Lebensmittelfarbe gefärbt. Es handelt sich dabei meist um minderwertige Absinthe mit einem vereinfachten Produktionsprozess, der den Absinth wichtiger geschmacklicher Nuancen beraubt. Neben der „Grünen Fee“ gibt es auch rot, schwarz oder blau gefärbten Absinth. Diese für Absinth ungewöhnliche Färbung geschieht vor allem aus Marketinggründen. Herkunft des Namens. „Absinth“ ist die Eindeutschung des französischen "absinthe", das ursprünglich „Wermut“ bedeutete. Es geht zurück auf die lateinische und die griechische Bezeichnung für Wermut, "absinthium" und "ἀψίνθιον (apsinthion)". Wermut als Heilmittel. Wermut gehört zur Gattung der "Artemisia"-Kräuter (Beifuß), die in den gemäßigten Klimazonen der nördlichen Hemisphäre wachsen. Viele Arten dieser duftenden und häufig insektenabwehrenden Pflanzen haben eine lange Tradition als Heilpflanze. Hinweise auf die Verwendung von Beifuß-Arten zu Heilzwecken finden sich bereits im Papyrus Ebers, der Texte aus der Zeit von 3550 bis 1550 vor Christus enthält. Auch das Alte Testament nimmt an mehreren Stellen Bezug auf die Bitterkeit der "Artemisia"-Kräuter. In deutschen Ausgaben werden die Pflanzen meist mit „Wermut“ übersetzt, obwohl es sich um andere Arten der Gattung "Artemisia" handelt. 2007 haben deutsche Forscher in einer Doppelblind-Studie herausgefunden, dass Wermut eine „signifikante Verbesserung“ bei Patienten mit Morbus Crohn bringe. Für die Entstehung des Absinths ist die Verwendung von "Artemisia"-Kräutern in Tinkturen und Extrakten von Bedeutung. Sie wird schon von Theophrast und Hippokrates erwähnt. Wermutabkochungen in Wein wurden von Hildegard von Bingen als Entwurmungsmittel empfohlen. Wermutweine, bei denen Wermutblätter gemeinsam mit Trauben vergoren werden, sind für das 16. Jahrhundert belegt. Sie standen in dem Ruf, besonders wirksame Magenmittel zu sein. Die Entstehung des Absinths. Das Rezept für Absinth ist in der zweiten Hälfte des 18. Jahrhunderts im Val-de-Travers des heutigen schweizerischen Kantons Neuenburg (Neuchâtel) entstanden. Für diese Gegend ist der Konsum von Wein, der mit Wermut versetzt wurde, ab 1737 belegt. Während der ursprüngliche Herstellungsort gesichert ist, werden je nach Quelle unterschiedliche Personen als Urheber der ursprünglichen Rezeptur genannt. Der aus politischen Gründen in das preußische Fürstentum geflohene französische Arzt Dr. Pierre Ordinaire, der in Couvet als Landarzt praktizierte, soll einen selbst hergestellten „élixir d’absinthe“ bei seinen Patienten verwendet haben. Nach seinem Tod gelangte das Rezept an die gleichfalls in Couvet ansässige Familie Henriod, die es als Heilmittel deklarierte und über Apotheken verkaufte. Nach anderen Quellen wurde ein Absinthelixir in der Familie Henriod bereits länger hergestellt – ein Wermutelixier sei schon um die Mitte des 18. Jahrhunderts von einer Henriette Henriod destilliert worden. Auch die mit dem Gastwirt Henry-Francois Henriod verheiratete heilkundige Suzanne-Marguerite Motta, „Mutter Henriod“ genannt, wird als Urheberin der Originalrezeptur genannt. Helmut Werner hat in seiner Geschichte des Absinths die These aufgestellt, dass Pierre Ordinaire auf Basis seiner medizinischen Erfahrung lediglich den Herstellungsprozess eines Familienrezeptes der Henriod-Familie optimierte und auf größere Mengen auslegte. Gesichert ist, dass 1797 ein Major Dubied die Rezeptur von einem Mitglied der Familie Henriod erwarb und mit seinem Sohn Marcellin und seinem Schwiegersohn Henri Louis Pernod eine Absinth-Brennerei gründete. Anfänglich wurden täglich nur 16 Liter produziert, und der größte Teil der Produktion ging ins nahe gelegene Frankreich. Um die umständlichen Zollformalitäten zu umgehen, verlegte Henri Louis Pernod im Jahre 1805 die Destillerie ins französische Pontarlier und produzierte dort anfangs täglich 400 Liter. Sein Erfolg zog das Entstehen einer Reihe weiterer Absinthbrennereien sowohl in Frankreich als auch im Fürstentum Neuenburg nach sich. Verwendung von Absinth durch Militärärzte. 1830 besetzte Frankreich Algerien. Die unzureichenden sanitären Einrichtungen führten regelmäßig zu Epidemien unter den französischen Soldaten, die von Militärärzten unter anderem mit einer Mischung aus Wein, Wasser und Absinth bekämpft wurden. Bereits die ersten Schiffe, die nach Algerien übersetzten, hatten Fässer mit Absinth an Bord. Die Soldaten erhielten tägliche Absinthrationen, weil man hoffte, auf diese Weise sowohl die Auswirkungen von schlechtem Trinkwasser als auch die Malaria bekämpfen zu können. Auf die Absinthproduktion zeigte dies deutliche Auswirkungen. Die Firma Pernod steigerte ihre Produktion auf täglich 20.000 Liter, und ihr Konkurrent Berger gründete eine Absinthbrennerei in der Nähe von Marseille, um die Transportwege nach Algerien zu verkürzen. Aus Algerien zurückkehrende Soldaten machten Absinth in ganz Frankreich bekannt. Populär wurde das Getränk insbesondere in Paris, wo die Kriegsheimkehrer Absinth regelmäßig in den späten Nachmittagsstunden in den Cafés genossen. Veränderte Trinkgewohnheiten und der Erfolg des Absinths. Bereits um 1860 war die sogenannte „grüne Stunde“, die „heure verte“ im Alltagsleben französischer Metropolen etabliert. Absinthtrinken zwischen 17 und 19 Uhr galt als chic. Zu seinem Ruf als zeitgemäßes Getränk der späten Nachmittagsstunden trugen auch die zahlreichen Trinkrituale bei. Auf den Tischen der Bars und Cafés der Pariser Boulevards standen häufig hohe Wasserbehälter mit mehreren Hähnen. Ein Absinthtrinker platzierte einen der spatelförmigen und gelochten oder geschlitzten Absinthlöffel auf sein Glas und legte darauf ein Stück Zucker. Dann drehte er einen der Hähne des Wasserbehälters auf, wodurch mit etwa einem Tropfen pro Sekunde Wasser auf den Löffel herabtropfte. Jeder Tropfen gezuckerten Wassers, der in das darunter stehende Absinthglas fiel, hinterließ im Absinth eine milchige Spur, bis schließlich ein Mischungsverhältnis erreicht war, das dem Getränk insgesamt eine milchig-grünliche Färbung verlieh. Marie-Claude Delahaye gilt in Frankreich als die Historikerin, die sich am intensivsten mit der Geschichte des Absinths auseinandergesetzt hat. In einem Interview mit Taras Grescoe wies sie darauf hin, dass Absinth in mehrfacher Hinsicht eine Neuerung in den französischen Trinkgewohnheiten darstellte. Erstmals tranken Franzosen ein alkoholhaltiges Getränk in größeren Mengen, dessen Geschmack wesentlich von Kräutern bestimmt war und das mit Wasser verdünnt wurde. Absinth war gleichzeitig die erste hochprozentige Spirituose, die Frauen, die nicht zur Halbwelt gehörten, in der Öffentlichkeit konsumieren konnten. Bereits zu Beginn der zweiten Hälfte des 19. Jahrhunderts hatte Absinth sich als Getränk der Bohème etabliert. Absinth war ein verhältnismäßig preisgünstiges Getränk, das selbst nach der Besteuerung durch die französische Regierung preisgünstiger blieb als Wein. Es ließ sich außerdem mit billigem Alkohol aus Zuckerrüben oder Getreide produzieren, und ein einzelnes Glas Absinth konnte wegen seiner Verdünnung mit Wasser über Stunden die Berechtigung erkaufen, in einer der Bars auszuharren. Mit etwa drei Sous pro Glas konnten sich nicht nur Künstler dieses Getränk erlauben, sondern auch Arbeiter. Für viele von ihnen wurde es zur Gewohnheit, nach Beendigung ihrer Arbeit in eine der Bars einzukehren und Absinth zu trinken. Angesichts beengter Wohnverhältnisse und eines sehr geringen Freizeitangebots war die Einkehr in eine Bar eine der wenigen Unterhaltungsmöglichkeiten. Daraus erklärt sich, dass es in Paris zur Wende des 20. Jahrhunderts 11,5 Kneipen je 1000 Einwohner gab. 1912 betrug der Jahreskonsum von Absinth in Frankreich 221,9 Mio. Liter. Absinth als Getränk der Künstler und Literaten. Porträt Vincent van Goghs von Henri Toulouse-Lautrec Absinthgenuss wird bis heute mit der französischen Kunstszene dieser Zeit verbunden. schreiben dazu Hannes Bertschi und Marcus Reckewitz. Vereinsamte, heruntergekommene Absinthtrinker waren immer wieder Motive der damaligen Malerei und der Literatur. Édouard Manets Gemälde „Der Absinthtrinker“, das um 1859 entstand, erregte mit dem Sujet eines verwahrlosten Alkoholikers großen Anstoß und wurde vom Auswahlkomitee des Pariser Salons abgelehnt. Die literarische Vorlage zu dem Gemälde war ein Gedicht von Charles Baudelaire, der selbst Absinth in großen Mengen konsumierte und so versuchte, durch Syphilis verursachte Schmerzen und Schwindelgefühle zu bekämpfen. Weitere frühe Darstellungen sind die Karikaturen „Le premier verre, le sixième verre“ von Honoré Daumier und „L’Èclipse“ von André Gill. Edgar Degas’ Gemälde „Der Absinth“ von 1876 zeigt ein sich nicht mehr wahrnehmendes, apathisch nebeneinander sitzendes Paar in einer der französischen Bars. Neben Camille Pissarro und Alfred Sisley gehörte auch Henri Toulouse-Lautrec zu den bekannten Absinthtrinkern, der seinen Malerkollegen Vincent van Gogh 1887 in einem Café mit einem Glas Absinth porträtierte. Im selben Jahr entstand dessen „Stillleben mit Absinth“. Ein Beleg für die Verbreitung des Getränkes außerhalb von Paris ist sein in Arles entstandenes Gemälde „Nachtcafé an der Place Lamartine“, das ebenso wie Paul Gauguins „Dans un café à Arles“ Barbesucher beim Absinthkonsum zeigt. Zu Beginn des 20. Jahrhunderts wählte Pablo Picasso wiederholt Absinthtrinker als Motiv. Neben verschiedenen Bildern seiner "Blauen Periode", wie zum Beispiel „Buveuse assoupie“ aus dem Jahr 1902, entstand 1911 das kubistische Gemälde „Das Glas Absinth“ und 1914 eine Skulptur mit gleichem Titel. Ebenfalls aus dieser Zeit stammen die Bilder „Der Absinthtrinker“ des tschechischen Malers Viktor Oliva sowie „The Absinthe Drinker“ des irischen Künstlers William Orpen. Auch wenn die Darstellungen in Kunst und Literatur häufig explizit Absinth nennen, spiegeln sich in den Gemälden und Romanen die alkoholbedingten Probleme einer Gesellschaft, in der traditionell Wein konsumiert wurde und hochprozentige Alkoholika bis zur Einführung von Absinth verhältnismäßig selten genossen wurden. Rund 100 Jahre zuvor hatte ein sprunghaft angestiegener Branntweinkonsum in Großbritannien vergleichbare soziale Probleme geschaffen und war nur durch gesetzliche Maßnahmen wieder auf verträglichere Maße rückführbar gewesen. Absinthgegner. Satirisches Plakat von Albert Gantner gegen das Absinthverbot in der Schweiz aus der Zeitschrift "Guguss", 1910 Bereits um das Jahr 1850 wurden Sorgen über die Folgen des Langzeit-Absinth-Konsums laut. Dieser führe zu "Absinthismus". Als Symptome galten Abhängigkeit, Übererregbarkeit und Halluzinationen. Nachdem Émile Zolas 1877 veröffentlichter Roman „L’assommoir“ (dt. „Der Totschläger“) auf die gravierenden sozialen Folgen des Alkoholismus aufmerksam gemacht hatte, hatten eine Reihe von Antialkoholikervereinigungen versucht, Absinth verbieten zu lassen – verschiedentlich gemeinsam mit den Weinproduzenten. 1907 gingen 4.000 Demonstranten in Paris unter dem Slogan „Tous pour le vin, contre l’absinthe“ (Alle für Wein und gegen Absinth) auf die Straße. Wein galt im Frankreich jener Zeit als gesundes Getränk und Grundnahrungsmittel. „Absinth macht kriminell, führt zu Wahnsinn, Epilepsie und Tuberkulose und ist verantwortlich für den Tod tausender Franzosen. Aus dem Mann macht Absinth ein wildes Biest, aus Frauen Märtyrerinnen und aus Kindern Debile, er ruiniert und zerstört Familien und bedroht die Zukunft dieses Landes“, zitiert Barnaby Conrad in seiner Geschichte des Absinth die damaligen Kritiker. Auch Zola beschrieb in seinem einflussreichen Roman Schnaps als ein menschenverderbendes Getränk, Wein dagegen als das Recht des Arbeiters. Unterstützung fand diese Sichtweise auch bei Medizinern. Alkoholismus war in Frankreich erstmals in den 1850er Jahren wissenschaftlich beschrieben worden. Französische Mediziner hatten um 1900 bei den billigen Absinthmarken, die im kalten Auszugsverfahren hergestellt wurden, besonders viele Schadstoffe festgestellt. Auch aus ihrer Sicht war Absinth das erste Getränk, das verboten werden sollte. Ein Mord und das Absinthverbot. Ein spektakulärer Mordfall im August des Jahres 1905 in der Waadtländer Gemeinde Commugny, der europaweit ausführlich in den Medien dargestellt wurde, war der letzte Anstoß, Herstellung und Verkauf von thujonhaltigen Getränken in den meisten europäischen Ländern und den USA gesetzlich zu verbieten. Der Weinbergarbeiter Jean Lanfray war starker Alkoholiker, der bis zu fünf Liter Wein pro Tag trank. An dem Tag, an dem er seine schwangere Frau, seine zweijährige Tochter Blanche und seine vierjährige Tochter Rose in einem Wutanfall ermordete, hatte er neben Wein auch Branntwein sowie zwei Gläser Absinth zu sich genommen. In der Verbotsdebatte, an der sich auch Weinproduzenten lebhaft beteiligten, konzentrierte man sich auf den Absinthgenuss, der dem Mord vorausgegangen war. In Belgien nahm man den Vorfall zum Anlass, noch im selben Jahr Absinth zu verbieten. In der Schweiz wurde das Absinth-Verbot im Jahre 1910 aufgrund einer Volksinitiative, bei der sich am 5. Juli 1908 63,5 Prozent der abstimmenden männlichen Bevölkerung dafür aussprachen, in die Verfassung aufgenommen. Das Verbot trat am 7. Oktober 1910 in Kraft. In Frankreich ließ man sich mit dem Verbot bis 1914 Zeit. Ob sich das Verbot von Absinth positiv auf die französische Volksgesundheit auswirkte, lässt sich nicht mehr feststellen. Mangelnde Gesundheitsstatistiken und die Zäsur des Ersten Weltkriegs verhindern entsprechende Analysen. Zu den heutigen EU-Ländern, die sich dem Absinth-Verbot zu Beginn des 20. Jahrhunderts nicht anschlossen, zählten lediglich Spanien und Portugal. Auch in Großbritannien, wo Absinth im 19. Jahrhundert nur ein Nischendasein fristete, blieb zumindest der Verkauf erlaubt. Das Verbot des Absinth führte in Frankreich zu einer wachsenden Popularität des Absinthsubstituts Pastis, für dessen Herstellung kein Wermut verwendet wird, das aber ebenfalls mit Wasser verdünnt in den Nachmittagsstunden genossen wird. Die Schweiz: Brennereien im Untergrund. Nach dem französischen Verbot verlegte die Firma Pernod, einer der größten französischen Absinth-Hersteller, ihre Absinth-Produktion zunächst nach Spanien, konzentrierte sich aber dann auf die Herstellung von Anis-Schnäpsen. Das Val-de-Travers dagegen, das ursprüngliche Herstellungsgebiet, litt stärker unter dem Verbot. Über ein Jahrhundert hatte man in dem eher ärmlichen Tal vom Wermutanbau, dem Verkauf des getrockneten Krauts sowie der Absinth-Destillation gelebt. Nach dem Verbot ließ die Schweizer Regierung die Wermut-Felder unterpflügen. Die Destillation wurde jedoch heimlich weitergeführt – die Einwohner des Tales legen Wert darauf, auf eine 250-jährige ununterbrochene Geschichte der Absinth-Produktion verweisen zu können. Die Zahl der Destillerien, die im Val-de-Travers illegal Absinth herstellten, schätzen Interviewpartner des Autors Taras Grescoe zu Beginn des 21. Jahrhunderts auf etwa sechzig bis achtzig. Ähnlich wie den illegal gebrannten Moonshine der USA, den norwegischen Hjemmebrent oder den irischen Poteen, umgibt auch den illegalen Schweizer Absinth eine reiche Folklore. Berthe Zurbuchen, eine Berühmtheit des Val-de-Travers, die achtzig Jahre lang illegal Absinth brannte und in einem Schauprozess in den 1960er Jahren zu 3.000 Franken Strafzahlung verurteilt wurde, soll ihren Richter nach dem Urteilsspruch gefragt haben, ob sie sofort zahlen solle oder erst, wenn er das nächste Mal vorbeikäme, um sich seine wöchentliche Flasche abzuholen. Nach der Verurteilung strich sie ihr Haus demonstrativ absinthgrün. Anfang der 1980er Jahre servierte man anlässlich eines Staatsbesuchs dem französischen Präsidenten François Mitterrand ein mit Absinth glasiertes Soufflé. Für den Restaurantbesitzer führte die demonstrative Verwendung des illegalen Absinths zu einer Hausdurchsuchung und einer viertägigen Gefängnisstrafe auf Bewährung. Der Vertreter des Kantons, Pierre-André Delachaux, der das absinthglasierte Soufflé angeregt hatte, entging nur knapp einem erzwungenen Rücktritt von seinem Amt und dem Ende seiner politischen Karriere. Ab 2001 wurde im Val-de-Travers neben illegalem Absinth auch eine legale Absinth-Variante produziert. Dies war möglich, weil der Alkohol- und Thujongehalt soweit reduziert wurde, dass dieses Produkt laut Gesetz kein Absinth mehr war. Noch vor der Absinth-Legalisierung in der Schweiz am 1. März 2005 bemühte man sich, Absinth als intellektuelles Gut des Val-de-Travers unter dem IGP, dem „indication géographique protégée“ schützen zu lassen. Man ist dabei in direkter Konkurrenz zu den Nachbarn auf der französischen Seite der Grenze, die gleichermaßen versuchen, eine „appellation d’origine réglementée“ zu erhalten. Unabhängig davon, wer in diesem Wettstreit erfolgreich sein wird, könnten nach einer Verleihung nur noch solche Produkte die Bezeichnung Absinth tragen, die aus dieser Region des Jura stammen und bei deren Herstellung bestimmte Qualitätsstandards eingehalten wurden. Absinth als Modegetränk der späten 1990er Jahre. Absinth "Try and Fly", 2003 schreibt Grescoe in seinem Essay „Absinthe Suisse – One glass and You are Dead“. Auch die im Internet verfügbaren Rezepte für die Heimherstellung von Absinth können als Indiz dafür gewertet werden, dass das Verbot zum Mythos dieses Getränks beigetragen hat. Für andere, einst populäre Getränke wie etwa Veilchen- oder Vanillelikör lässt sich keine auch nur annähernd vergleichbare Fülle an Rezepturen finden. Eine breite öffentliche Wahrnehmung der Spirituose Absinth setzte ein, als ein auf alkoholische Getränke spezialisierter Importeur in den 1990er Jahren bemerkte, dass es in Großbritannien keine spezifische Gesetzgebung gab, die den Verkauf von Absinth untersagte. Hill’s Liquere, eine tschechische Brennerei, begann für den britischen Markt Hill’s Absinth herzustellen – ein Getränk, von dem Taras Grescoe behauptet, es wäre nichts anderes als ein hochprozentiger Wodka, den man mit Lebensmittelfarbe eingefärbt habe. Der beginnende Wiederausschank von Absinth wurde von einer Reihe von Artikeln in Lifestyle-Magazinen begleitet, die sich über seine gerne kolportierte halluzinogene und erotisierende Wirkung, das in vielen Ländern geltende Absinth-Verbot, van Goghs angeblich absinthinduzierte Selbstverstümmelung und die elaborierten Trinkrituale ausließen. Diese breite Medienabdeckung lässt sich auch in allen anderen europäischen Ländern beobachten, die in den Folgejahren den Ausschank von Absinth wieder erlaubten. Selbst Filme griffen Absinth als epochentypisches Ausstattungsmerkmal auf, so 1992 in Bram Stoker’s Dracula. 2001 berauscht sich Johnny Depp im Film From Hell auf seiner Jagd nach Jack the Ripper an Opium und smaragdgrünem Absinth. Beides gemeinsam schuf eine neue Nachfrage nach diesem Getränk, die Importeure und Brennereien länderspezifische Gesetzgebungen überprüfen ließ. In den Niederlanden ist der Verkauf von Absinth beispielsweise seit Juli 2004 wieder erlaubt, nachdem der Amsterdamer Weinhändler Menno Boorsma erfolgreich gegen das Verbot geklagt hatte. Häufig wird Absinth hergestellt, indem Absinthessenz in hochprozentigen Alkohol gegeben wird. Erst ab der gehobenen Mittelklasse werden klassische Produktionsmethoden wie die Mazeration angewandt. Anpassungen bestehender Gesetze. Klagen gegen ein Absinth-Verbot hatten in der EU generell große Aussicht auf Erfolg, da sowohl Spanien als auch Portugal die Absinth-Herstellung und den Verkauf erlaubten. Einige Länder wie etwa Belgien hoben ihr Absinthverbot mit dem Hinweis auf eine ausreichende EU-Gesetzgebung auf, ohne durch Klagen dazu gezwungen worden zu sein. In Deutschland, wo seit 1923 nicht nur die Herstellung von Absinth, sondern sogar die Verbreitung von Rezepten zur Herstellung verboten waren, war bereits 1981 das Verbot wegen bestehender EWG-Regelungen soweit gelockert worden, dass ein Thujongehalt von bis zu 10 mg/l erlaubt war. Am 29. Januar 1998 wurden die gesetzlichen Bestimmungen an das EU-Recht angeglichen. Seitdem ist in Deutschland wie den meisten EU-Ländern Absinth mit einem Thujonanteil erlaubt, der je nach Alkoholgehalt bei bis zu 35 mg/kg liegen kann. 1999 strich die Schweiz das 1910 in die Verfassung aufgenommene Absinth-Verbot. In den USA fiel das Verbot 2007 mit diversen Auflagen. Frankreich hob 2011 das seit 1915 geltende Absinth-Verbot auf. Trinkweisen und -rituale. Ähnlich den Anis-Spirituosen Pastis, Rakı oder Ouzo wird Absinth grundsätzlich nicht pur getrunken, sondern mit Wasser verdünnt. Die klare Flüssigkeit opalisiert dabei, das heißt, sie trübt sich milchig ein. Dieses Phänomen wird Louche-Effekt genannt. Ursache des Effekts ist die schlechte Wasserlöslichkeit des im Absinth enthaltenen ätherischen Öls Anethol. Die verschiedenen Trinkrituale, die sich rund um den Absinth entwickelt haben, werden "Französisches Trinkritual", "Schweizer Trinkweise" und "Tschechisches" oder "Feuerritual" genannt. Ihnen allen ist eigen, dass der Absinth im Verhältnis zwischen 1:1 bis 1:5 mit Eiswasser vermischt wird. Die meisten Absinthtrinker wählen ein Mischungsverhältnis von mindestens 1:3. Die Schweizer Trinkweise ist dabei die am wenigsten etablierte. Bei ihr werden lediglich zwei bis vier cl Absinth mit kaltem Wasser vermischt. Auf Zucker wird verzichtet, da die in der Schweiz getrunkenen Absinthe grundsätzlich weniger bitter waren als die französischen. Das Feuerritual, auch tschechische Trinkweise genannt, ist historisch nicht mit dem Absinthkonsum verbunden. Es wurde in den 1990er Jahren von tschechischen Absinthproduzenten entwickelt, um den Genuss des Getränks attraktiver zu machen. Dazu werden ein bis zwei mit Absinth getränkte Würfelzucker auf einen Absinthlöffel gelegt und angezündet. Sobald der Zucker karamellisiert und Blasen wirft, werden die Flammen gelöscht und der Zucker erst dann in den Absinth gegeben. Geraten noch brennende Zuckerstücke in das Glas, besteht die Gefahr, dass sich der darin befindliche Absinth entzündet. Auch hier wird der Absinth in einem Verhältnis von 1:3 bis 1:5 mit Eiswasser vermischt. Das französische Trinkritual besitzt dagegen eine historisch belegbare Tradition. Absinth wurde im 19. Jahrhundert bis hin zum Verbot zu Beginn des 20. Jahrhunderts in Frankreich auf diese Weise genossen. Ähnlich wie beim Feuerritual wird der Absinth mit Zucker getrunken. Dazu werden ein oder zwei Stück Würfelzucker auf einem Absinthlöffel platziert und sehr langsam kaltes Wasser über den Zucker gegossen oder geträufelt. Das Mischungsverhältnis liegt bei 1:3 bis 1:5. Für das Hinzugeben des Wassers kann auf eine Absinthfontäne oder einen speziellen Glasaufsatz – das Brouille – zurückgegriffen werden. Bei einer Fontäne wird der Zucker auf dem Absinthlöffel durch einen dünnen Strahl aus den Fontänenhähnen aufgelöst. Das Brouille wird hingegen direkt auf das Absinthglas gesetzt, so dass der Absinth ohne Absinthlöffel zubereitet wird. Durch ein kleines Loch im Glasaufsatz strömt das Wasser in das darunter befindliche Absinthglas. Beruf. Beruf ist die im Rahmen einer arbeitsteiligen Wirtschaftsordnung aufgrund besonderer Eignung und Neigung systematisch erlernte und mit Qualifikationsnachweis versehene, dauerhaft gegen Entgelt ausgeübte spezialisierte Betätigung eines Menschen. Der Begriff ist abzugrenzen vom häufig als Synonym benutzten Wort "Job", das zwar auch auf eine Erwerbstätigkeit hinweist, jedoch in der Regel nicht an eine besondere Eignung oder Ausbildung gebunden ist. Wortherkunft und Geschichte. Beruf geht auf „berufen“ (mhdt. "beruofen") zurück, einer Präfixbildung des Verbs „rufen“. Die Ständelehre des Mittelalters kannte die „vocatio interna“ und die „vocatio externa“. Im Mittelalter betrachteten insbesondere Theologen den Beruf unter zwei Teilaspekten, dem „inneren Beruf“ ("vocatio spiritualis" oder "vocatio interna") und dem „äußeren Beruf“ ("vocatio externa"). Martin Luther übersetzte das lateinische "vocatio" als die Berufung durch Gott. „Jeder bleibe in dem Beruf, in dem ihn Gottes Ruf traf“ oder „Jeder bleibe in der Berufung, in der er berufen wurde“ (). Er verwendete das Wort Beruf auch für den Stand, das Amt und die Arbeit des Menschen in der Welt. Luther hatte beide Aspekte zusammengefasst, weil für ihn Christen bei jeder Tätigkeit einer inneren und äußeren Berufung folgten. Diese innere Tätigkeit mache jede Tätigkeit, auch die in der Familie, zum Beruf. "Vocatio interna" ist die von Gott ausgehende innere Berufung einer Person zum heiligen Amt (Priester oder Mönch), die durch Gisbert Voetius in seiner „Politica ecclesiastica“ (1663–1676) neues Gewicht erhielt. Die innere Berufung ist das eingenommene geistliche Amt, die äußere Berufung betraf weltliche Berufsstände. Im Rahmen der späteren Säkularisierung verschwanden die religiösen Bestandteile, während die soziale Verpflichtung im Rahmen der Arbeitsteilung erhalten blieb. Über Beruf und Berufsausbildung wurden in den Zünften die handwerklichen Aktivitäten gesteuert und die ständische Gesellschaftsordnung repräsentiert. Erst seit dem Übergang in das 19. Jahrhundert erhält der Begriff Beruf jenen Inhalt einer eine fachliche Qualifikation voraussetzenden, in der Regel mit einem Erwerbseinkommen verbundenen Tätigkeit. Beruf ist „der Kreis von Tätigkeiten mit zugehörigen Pflichten und Rechten, den der Mensch im Rahmen der Sozialordnung als dauernde Aufgabe ausfüllt und der ihm zumeist zum Erwerb des Lebensunterhaltes dient“. Der Soziologe Max Weber sieht 1925 im industriellen Beruf die „Spezifizierung, Spezialisierung und Kombination von Leistungen“, die für Personen die „Grundlage einer kontinuierlichen Versorgungs- und Erwerbschance“ bildeten. Seit Webers Definition werden Berufe amtlich erfragt und in Statistiken veröffentlicht. Die amtliche deutsche Statistik versteht unter Beruf „die auf Erwerb gerichteten, besondere Kenntnisse und Fertigkeiten sowie Erfahrung erfordernden und in einer typischen Kombination zusammenfließenden Arbeitsverrichtungen … und die in der Regel auch die Lebensgrundlage für ihn und seine nicht berufstätigen Angehörigen bilden.“ Berufsinhalt sind neben der Einkommenserzielung und dem Erwerb von Rentenansprüchen auch der persönliche Lebensinhalt, Interessen, Wertvorstellungen und Ziele, die spezifische gesellschaftliche Wertschätzung und das soziale Ansehen. Berufe und Berufsinhalte unterliegen heute einem mehr oder weniger starken Wandel insbesondere hinsichtlich der Arbeitsbedingungen. Die Berufsausbildung war ursprünglich so gestaltet, dass der Mensch den einmal erlernten Beruf sein gesamtes Berufsleben ausüben sollte. Technischer Fortschritt, ökonomischer Wandel und zunehmende Arbeitsteilung haben jedoch weltweit dazu geführt, dass ganze Berufsgruppen überflüssig wurden und der Beruf als „Lebensaufgabe“ nicht mehr Begriffsinhalt darstellt. Das hängt zusammen mit dem Wandel von der Berufsorientierung hin zur Prozessorientierung, der durch die Veränderung der Berufsbilder und –anforderungen zum Berufswechsel und Umschulung zwingen kann. Sozialgeschichtliche Aspekte. Die zur Ausübung eines Berufs erforderlichen Fähigkeiten und Kenntnisse werden durch Ausbildung, Praxis oder Selbststudium erworben. Die Aufnahme in einen Berufsstand kann aber auch erfolgen durch Zuschreibung ("adscription"), etwa bei Erbfolge (z. B. als Bauer, zünftiger Handwerker), durch Gelöbnisse (Soldaten), Diensteide (Beamte) oder durch Ordination (Geistlicher). Die meisten Berufe sind das Ergebnis fortschreitender Differenzierung der Arbeit. Sie haben häufig eine jahrhundertelange Tradition, da viele von der Gesellschaft benötigte oder gewünschte Leistungen im Wesentlichen konstant geblieben sind. Daher rührt auch die auffällige soziale Erscheinung der "Berufsvererbung". Zu den ältesten, frühgeschichtlichen Berufen gehören Schmied, Zimmermann, Heiler, Priester, Wandererzähler und -sänger und Wächter. Seit dem Mittelalter fanden sich viele Berufsgruppen in Zünften und Gilden zusammen, die auch die Ausbildung des beruflichen Nachwuchses übernahmen. Auch „unehrliche Berufe“ bildeten eigene Organisationen. Die Ständeliteratur verzeichnet entsprechend der Ständeordnung eine sich innerhalb der Frühen Neuzeit etablierte Vielfalt der Berufe mit ganz unterschiedlichen Qualifizierungs- und Tätigkeitsmerkmalen sowie Rahmenbedingungen. Die Komplexität der Berufskonzepte steigert sich entsprechend dem wissenschaftlich-technischen Fortschritt. In einigen Berufen wird auf die so genannte "Berufung" des/der Einzelnen besonderen Wert gelegt (zum Beispiel Pfarrer, Priester, aber auch Arzt, Lehrer, Apotheker, Richter). Ein Wissenschaftler erhält einen sogenannten "Ruf" auf eine Professorenstelle, wenn die Hochschule ihn gern in ihrem Kollegenkreis hätte. Bemerkenswert in diesem Zusammenhang ist die Pflicht zur Arbeit im Rahmen des Ordo Socialis. Rechtsfragen. Das Grundgesetz garantiert das Grundrecht der freien Berufswahl, denn alle Deutschen haben das Recht, Beruf, Arbeitsplatz und Ausbildungsstätte frei zu wählen (Abs. 1 GG). Unter Beruf versteht man verfassungsrechtlich jede auf Dauer angelegte, der Einkommenserzielung dienende menschliche Betätigung. Dem verfassungsrechtlichen Berufsbegriff sind zwei Elemente immanent, nämlich "Lebensaufgabe" und "Lebensgrundlage". Für den Beruf als Lebensaufgabe ist wesentlich, dass jemand eine innere Beziehung zu seinem Beruf hat, für den er sich verpflichtet und verantwortlich fühlt. Lebensgrundlage setzt wiederum voraus, dass ein Beruf für eine gewisse Dauer gegen Entgelt ausgeübt wird. Gerhard Pfennig erklärt den Berufsstatus am Beispiel der Soldaten und verweist darauf, dass wehrpflichtige Soldaten lediglich eine öffentliche Dienstleistung erfüllten. Der soldatische Dienst als Beruf komme lediglich für Berufssoldaten in Frage, deren Wehrdienst durch die soldatische Laufbahn zu einem Beruf geworden sei. Der Begriff des Berufs ist dabei nicht auf bestimmte traditionelle oder rechtlich fixierte Berufsbilder beschränkt, sondern umfasst jede frei gewählte Form der (erlaubten) Erwerbstätigkeit und ist daher für die Entwicklung neuer Berufsbilder offen. Einem Beruf ist also eine nicht nur kurzfristige Tätigkeit immanent; ebenso muss er auf Einkommenserwerb abzielen (Erwerbstätigkeit). Der Begriff Einkommen ist weit auszulegen, hierunter können neben dem typischen Geldeinkommen auch Naturalleistungen (Deputatlohn wie freie Wohnmöglichkeit, Speisen und Getränke) verstanden werden. Arten. Man unterscheidet den "erlernten" und den "ausgeübten" Beruf. Der erlernte Beruf beruht auf einer abgeschlossenen Berufsausbildung und urkundlich bestätigtem Qualifikationsnachweis. Ausgeübter Beruf ist die von einem Arbeitnehmer tatsächlich verrichtete Tätigkeit, für welche keine abgeschlossene Berufsausbildung nachgewiesen werden kann. Wer den Beruf ausübt, für den er eine Berufsausbildung abgeschlossen hat, ist im erlernten Beruf tätig. Wer hingegen in einem Beruf tätig ist, den er ursprünglich nicht erlernt hat, arbeitet in einem ausgeübten Beruf. Freie Berufe sind überwiegend selbständige Tätigkeiten, die nicht der Gewerbeordnung unterliegen. Auch diese sind auf eine gewisse Dauer angelegt und beruhen auf fachlicher Vorbildung, unterscheiden sich von den anderen Berufen jedoch durch wirtschaftliche Selbständigkeit. Beruf, Identifikation und Status. Ein Berufstätiger kann sich sowohl mit seinem Arbeitgeber als auch mit seinem Beruf identifizieren. Wird eine Tätigkeit als wichtig für den Selbstwert einer Person erachtet, spricht man von der Identifikation mit dem Beruf („job involvement“). Eine hohe Berufsidentifikation kann zu höheren Zielen bei der Arbeitsleistung beitragen. Während die Arbeit an die technisch-wirtschaftliche Dimension des Leistungsvollzugs anknüpft, kennzeichnet der Berufsbegriff deren qualitative Voraussetzungen sowie deren soziale Integration und die daraus resultierende Identitätsfindung. Der Beruf ist auch ein bedeutender Mechanismus für den sozialen Status einer Person. Dabei gilt der berufliche Status in modernen Gesellschaften als der beste Einzelindikator für den sozialen Status einer Person. Das Prestige von Berufen hängt von der Qualifikation und dem erzielten Einkommen ab. Der formale Status ergibt sich aus der Einteilung in Arbeiter, Angestellte, Beamte und Selbständige, während der materielle Status meist auf die Einkommenshöhe reduziert wird. Berufsklassifikationen. Die Angabe des Berufs ist in allen Statistiken und Erhebungen zum Arbeitsmarkt oder zur sozioökonomischen Lage weltweit unverzichtbar. Der Beruf ist nach wie vor ein dominierender Aspekt in der Beschreibung von Arbeitsmarktentwicklungen. Auch in der Vermittlungsarbeit der Arbeitsämter hat die Angabe des Berufs eine zentrale Bedeutung. Eine Berufsklassifikation schafft für die Vermittlung die Möglichkeit, über sinnvolle und praxisgerechte Zusammenfassungen von ähnlichen beruflichen Tätigkeiten zu verfügen und anzuwenden. International verwendet die Internationale Standardklassifikation der Berufe (ISCO) seit 1957 ein Schema für die Eingruppierung von Berufen. In Deutschland nutzt die Bundesagentur für Arbeit seit Januar 2011 eine mit diesem Schema weitgehend kompatible Neusystematisierung der Berufe, die auch vom Statistischen Bundesamt als Klassifizierung der Berufe übernommen wurde. Reglementierung der Berufsausübung. Heute wird die Berufsausbildung (Inhalte, Dauer) in den meisten europäischen Ländern staatlich festgelegt. Die staatliche Reglementierung der Berufswahl findet aber in Deutschland und den meisten anderen Ländern ihre Grenzen im Grundrecht der Berufsfreiheit. Wer welchen Beruf ausüben darf, wurde und wird in verschiedenen Kulturkreisen unterschiedlich gehandhabt. In Europa gilt prinzipiell das Recht der freien Berufsausübung, das jedoch einigen Einschränkungen unterliegt. Bei so genannten reglementierten Berufen ist für die Ausübung eine entsprechende Ausbildung und Qualifikation erforderlich: Als Arzt oder Rechtsanwalt darf beispielsweise nur tätig sein, wer ein medizinisches bzw. juristisches Hochschulstudium erfolgreich abgeschlossen, entsprechende Praxiserfahrung (Referendariat) nachweisen kann und die Zulassung einer Ärztekammer oder Rechtsanwaltskammer besitzt. Ebenfalls unterliegt die Ausübung handwerklicher Berufe bestimmten Einschränkungen: So ist beispielsweise zur selbstständigen Ausübung eines Handwerks in Deutschland ein Fachschulabschluss zum Staatliche geprüfter Techniker, Abschluss zum Handwerksmeister (Meisterbrief) oder Hoch- bzw. Universitätsabschluss erforderlich. (Novellierung der Handwerksordnung § 7.2) Erfolgreich sozial herausgebildete Berufe entwickeln eine mehr oder minder ausgeprägte Berufsethik. Abgrenzung. Die Abgrenzung zum Job wird meist durch den Aspekt der Dauerhaftigkeit vorgenommen. Job ist eine temporäre, kurzfristige Tätigkeit ohne innere Beziehung und Verantwortung zur Tätigkeit, eine Gelegenheitsarbeit. Das kommt beim Wort „jobben“ zum Ausdruck, mit dem eine vorübergehende Tätigkeit zwecks Einkommenserzielung umschrieben wird. Diese Abgrenzung findet auch in angelsächsischen Ländern statt, wo bei Beruf von „profession“ (lat. "professio") oder „occupation“ die Rede ist und „job“ eher als Nebentätigkeit klassifiziert wird. Der Berufsbegriff wird auch benutzt, um Einkommenserwerb und fachliche Qualifikation zu betonen. Berufsmusiker (Berufssportler, Berufssoldaten, Berufsrichter) sind fachlich ausgebildet und werden für ihre Arbeitsleistung bezahlt, Amateurmusiker oder Laienrichter hingegen mehr oder weniger nicht. Größte Berufsordnungen in Deutschland. Nach Angaben des Statistischen Bundesamtes werden die Berufe in 369 so genannte Berufsordnungen unterschieden, in der alle existierenden Berufe eingruppiert sind, wodurch eine Klassifizierung der Berufe entsteht. Vgl. Frauenanteile in der Berufswelt. Biologie. Biologie (von ‚Leben‘ und -logie ‚Lehre‘, abgeleitet aus λόγος lógos) ist die Wissenschaft von den Lebewesen und befasst sich mit allgemeinen Gesetzmäßigkeiten des Lebendigen, speziellen Besonderheiten der Lebewesen, ihrem Aufbau, Organisation und Entwicklung sowie ihren vielfältigen Strukturen und Prozessen. Sie ist ein Teilgebiet der Naturwissenschaften. Die Biologie ist sehr umfassend und lässt sich in viele Teilgebiete unterteilen. Zu den auf Allgemeinheit ausgerichteten Teilgebieten der Biologie gehören insbesondere Zellbiologie (Zytologie), Physiologie, Biochemie, Biophysik, Theoretische Biologie und Ökologie. Mit großen Gruppen der Lebewesen befassen sich Botanik (Pflanzen), Zoologie (Tiere) und Mikrobiologie (Mikroorganismen). Die Betrachtungsobjekte der Biologen reichen von Molekül­strukturen über Organellen, Zellen, Zellverbänden, Geweben und Organen zu komplexen Organismen. In größeren Zusammenhängen wird das Verhalten einzelner Organismen sowie ihr Zusammenspiel mit anderen und ihrer Umwelt untersucht. Ebenso vielfältig sind die verwendeten Methoden, Theorien und Modelle. Die Ausbildung von Biologen erfolgt an Universitäten im Rahmen eines Biologiestudiums. In neuerer Zeit haben sich infolge der fließenden Übergänge in andere Wissenschaftsbereiche (z. B. Medizin und Psychologie) sowie wegen des interdisziplinären Charakters der Forschung weiter gefasste Bezeichnungen etabliert, insbesondere Biowissenschaften, Life Sciences und Lebenswissenschaften. Geschichte. Überlegungen zum Leben gab es bereits um 600 v. Chr. bei Thales von Milet. Er glaubte, dass das Leben aus dem Wasser komme. Von der Antike bis ins Mittelalter beruhte die Biologie hauptsächlich auf Beobachtungen der Natur. In die Interpretation flossen häufig Dinge wie die Kraft der Elemente (Vier-Elemente-Lehre) oder verschiedene spirituelle Ansätze ein, so auch der religiöse Schöpfungsmythos der biblischen Genesis. Hierbei wird ein sorgfältig geformter Klumpen Lehm ("adam") mit dem „göttlichen Odem“ behaucht – „und also wurde er eine lebendige Seele“. Erst mit Beginn der wissenschaftlichen Revolution begann man sich vom Übernatürlichen zu lösen und beschrieb Beobachtungen. Im 16. und 17. Jahrhundert erweiterte sich das Wissen über die Anatomie durch die Wiederaufnahme von Sektionen und neue Erfindungen, wie das Mikroskop. Die Entwicklung der Chemie brachte auch in der Biologie Fortschritte. Experimente, die zur Entdeckung von molekularen Lebensvorgängen wie der Fermentation und der Fotosynthese führten, wurden möglich. Im 19. Jahrhundert wurden die Grundsteine für zwei große neue Wissenschaftszweige der Naturforschung gelegt: Gregor Mendels Arbeiten an Pflanzenkreuzungen begründeten die Vererbungslehre und spätere Genetik und Werke von Jean-Baptiste de Lamarck, Charles Darwin und Alfred Russel Wallace beschrieben die Evolutionstheorie. Die Bezeichnung Biologie, im modernen Sinne verwendet, scheint mehrfach unabhängig voneinander eingeführt worden zu sein. Gottfried Reinhold Treviranus (Biologie oder Philosophie der lebenden Natur, 1802) und Jean-Baptiste Lamarck ("Hydrogéologie", 1802) verwendeten und definierten ihn erstmals. Das Wort selbst wurde schon 1797 von Theodor Gustav August Roose (1771–1803) im Vorwort seiner Schrift "Grundzüge der Lehre von der Lebenskraft" verwendet und taucht im Titel des dritten Bands von Michael Christoph Hanows "Philosophiae naturalis sive physicae dogmaticae: Geologia, biologia, phytologia generalis et dendrologia" von 1766 auf. Zu den Ersten, die „Biologie“ in einem umfassenden Sinn prägten, gehörte der deutsche Anatom und Physiologe Karl Friedrich Burdach. Mit der Weiterentwicklung der Untersuchungsmethoden drang die Biologie in immer kleinere Dimensionen vor. Im 20. Jahrhundert kamen die Teilgebiete Physiologie und Molekularbiologie zur Entfaltung. Grundlegende Strukturen wie die DNA, Enzyme, Membransysteme und die gesamte Maschinerie der Zelle können seitdem auf atomarer Ebene sichtbar gemacht und in ihrer Funktion genauer untersucht werden. Zugleich gewann die Bewertung von Datenerhebungen mit Hilfe statistischer Methoden immer größere Bedeutung und verdrängte die zunehmend als bloß anekdotisch empfundene Beschreibung von Einzelphänomenen. Als Zweig der Theoretischen Biologie begann sich seit den 1920er Jahren zudem, eine "mathematische Biologie" zu etablieren. Ebenfalls seit dem Ende des 20. Jahrhunderts entwickeln sich aus der Biologie neue angewandte Disziplinen: Beispielsweise ergänzt die Gentechnik unter anderem die klassischen Methoden der Tier- und Pflanzenzucht und eröffnet zusätzliche Möglichkeiten, die Umwelt den menschlichen Bedürfnissen anzupassen. Die praktische Biologie und Medizin gehörten zu den Disziplinen, in denen im Deutschen Reich noch Ende des 19. Jahrhunderts im Vergleich mit anderen Disziplinen am vehementesten Gegenwehr gegen die Zulassung von Frauen geübt wurde. So versuchten unter anderem E. Huschke, C. Vogt, P. J. Möbius und T. a.L. a.W. von Bischoff die geistige Inferiorität von Frauen nachzuweisen, um deren Zulassung zum Studium zu verhindern. Hingegen waren die beschreibenden biologischen Naturwissenschaften (aber auch andere beschreibende Naturwissenschaften wie Physik und Mathematik) weiter. Hier zeigten sich die noch ausschließlich männlichen Lehrenden in einer Studie A. Kirchhoffs (1897) zumeist offen für die Zulassung von Frauen zum Studium. Mittlerweile ist der Anteil von Frauen und Männern, die das Studium der Biologie beginnen gleich; auch in prestigeträchtigeren und gut bezahlten Positionen nimmt langsam der Anteil von Frauen in der Biologie zu (bei Professuren liegt er derzeit bei knapp 15 %). Besondere Fortschritte. a>", das zahlreiche mit Hilfe eines Mikroskops angefertigte Zeichnungen enthält. Einteilung der Fachgebiete. Die Biologie als Wissenschaft lässt sich durch die Vielzahl von Lebewesen, Untersuchungstechniken und Fragestellungen nach verschiedenen Kriterien in Teilbereiche untergliedern: Zum einen kann die Fachrichtung nach den jeweils betrachteten Organismengruppen (Pflanzen in der Botanik, Bakterien in der Mikrobiologie) eingeteilt werden. Andererseits kann sie auch anhand der bearbeiteten mikro- und makroskopischen Hierarchie-Ebenen (Molekülstrukturen in der Molekularbiologie, Zellen in der Zellbiologie) geordnet werden. Die verschiedenen Systeme überschneiden sich jedoch, da beispielsweise die Genetik viele Organismengruppen betrachtet und in der Zoologie sowohl die molekulare Ebene der Tiere als auch ihr Verhalten untereinander erforscht wird. Die Abbildung zeigt in kompakter Form eine Ordnung, die beide Systeme miteinander verbindet. Im Folgenden wird ein Überblick über die verschiedenen Hierarchie-Ebenen und die zugehörigen Gegenstände der Biologie gegeben. In seiner Einteilung orientiert er sich an der Abbildung. Beispielhaft sind Fachgebiete aufgeführt, die vornehmlich die jeweilige Ebene betrachten. Mikrobiologie. Sie ist die Wissenschaft und Lehre von den Mikroorganismen, also von den Lebewesen, die als Individuen nicht mit bloßem Auge erkannt werden können: Bakterien und andere Einzeller, bestimmte Pilze, ein- und wenigzellige Algen („Mikroalgen“) und Viren. Botanik. Die Botanik ging aus der Heilpflanzenkunde hervor und beschäftigt sich vor allem mit dem Bau, der Stammesgeschichte, der Verbreitung und dem Stoffwechsel der Pflanzen. Zoologie. Die Zoologie beschäftigt sich vor allem mit dem Bau, der Stammesgeschichte, der Verbreitung und den Lebensäußerungen der Tiere. Humanbiologie. Die Humanbiologie ist eine Disziplin, die sich im engeren Sinn mit der Biologie des Menschen sowie den biologischen Grundlagen der Humanmedizin und im weiteren Sinn mit den für den Menschen relevanten Teilbereichen der Biologie befasst. Die Humanbiologie entstand als eigenständige Wissenschaftsdisziplin erst in der zweiten Hälfte des 20. Jahrhunderts. Ihr verwandt ist die biologische Anthropologie, welche jedoch zur Anthropologie gezählt wird. Ziel der biologischen Anthropologie mit ihren Teilgebieten Primatologie, Evolutionstheorie, Sportanthropologie, Paläoanthropologie, Bevölkerungsbiologie, Industrieanthropologie, Genetik, Wachstum (Auxologie), Konstitution und Forensik ist die Beschreibung, Ursachenanalyse und evolutionsbiologische Interpretation der Verschiedenheit biologischer Merkmale der Hominiden. Ihre Methoden sind sowohl beschreibend als auch analytisch. Molekularbiologie. Die grundlegende Stufe der Hierarchie bildet die Molekularbiologie. Sie ist jene biologische Teildisziplin, die sich mit Molekülen in lebenden Systemen beschäftigt. Zu den biologisch wichtigen Molekülklassen gehören Nukleinsäuren, Proteine, Kohlenhydrate und Lipide. Die Nukleinsäuren DNA und RNA sind als Speicher der Erbinformation ein wichtiges Objekt der Forschung. Es werden die verschiedenen Gene und ihre Regulation entschlüsselt sowie die darin codierten Proteine untersucht. Eine weitere große Bedeutung kommt den Proteinen zu. Sie sind zum Beispiel in Form von Enzymen als biologische Katalysatoren für beinahe alle stoffumsetzenden Reaktionen in Lebewesen verantwortlich. Neben den aufgeführten Gruppen gibt es noch viele weitere, wie Alkaloide, Terpene und Steroide. Allen gemeinsam ist ein Grundgerüst aus Kohlenstoff, Wasserstoff und oft auch Sauerstoff, Stickstoff und Schwefel. Auch Metalle spielen in sehr geringen Mengen in manchen Biomolekülen (z. B. Chlorophyll oder Hämoglobin) eine Rolle. Zellbiologie. Zellen sind grundlegende strukturelle und funktionelle Einheiten von Lebewesen. Man unterscheidet zwischen prokaryotischen Zellen, die keinen Zellkern besitzen und wenig untergliedert sind, und eukaryotischen Zellen, deren Erbinformation sich in einem Zellkern befindet und die verschiedene Zellorganellen enthalten. Zellorganellen sind durch einfache oder doppelte Membranen abgegrenzte Reaktionsräume innerhalb einer Zelle. Sie ermöglichen den gleichzeitigen Ablauf verschiedener, auch entgegengesetzter chemischer Reaktionen. Einen großen Teil der belebten Welt stellen Organismen, die nur aus einer Zelle bestehen, die Einzeller. Sie können dabei aus einer prokaryotischen Zelle bestehen (die Bakterien), oder aus einer eukaryotischen (wie manche Pilze). In mehrzelligen Organismen schließen sich viele Zellen gleicher Bauart und mit gleicher Funktion zu Geweben zusammen. Mehrere Gewebe mit Funktionen, die ineinandergreifen, bilden ein Organ. Physiologie. Die Physiologie befasst sich mit den physikalischen, biochemischen und informationsverarbeitenden Funktionen der Lebewesen. Physiologisch geforscht und ausgebildet wird sowohl in den akademischen Fachrichtungen Biologie und Medizin als auch in der Psychologie. Genetik. Als Begründer der Genetik gilt Gregor Mendel. So entdeckte er die später nach ihm benannten Mendelschen Regeln, die in der Wissenschaft allerdings erst im Jahr 1900 rezipiert und bestätigt wurden. Der heute weitaus wichtigste Teilbereich der Genetik ist die Molekulargenetik, die in den 1940er Jahren begründet wurde. Verhaltensbiologie. Die Verhaltensbiologie erforscht das Verhalten der Tiere und des Menschen. Sie beschreibt das Verhalten, stellt Vergleiche zwischen Individuen und Arten an und versucht, das Entstehen bestimmter Verhaltensweisen im Verlauf der Stammesgeschichte zu erklären, also den „Nutzen“ für das Individuum. Ökologie. Das Fachgebiet Ökologie setzt sich mit den Wechselwirkungen zwischen den Organismen und den abiotischen und biotischen Faktoren ihres Lebensraumes auf verschiedenen Organisationsebenen auseinander. Eine Population ist eine Fortpflanzungsgemeinschaft innerhalb einer Art in einem zeitlich und räumlich begrenzten Gebiet. Die Populationsökologie betrachtet vor allem die Dynamik der Populationen eines Lebensraumes auf Grund der Veränderungen der Geburten- und Sterberate, durch Veränderungen im Nahrungsangebot oder abiotischer Umweltfaktoren. Diese Ebene wird auch von der Verhaltensbiologie und der Soziobiologie untersucht. Im Zusammenhang mit der Beschreibung und Untersuchung sozialer Verbände wie Herden oder Rudel können auch die auf den Menschen angewandten Gesellschaftswissenschaften gesehen werden. Die Lebewesen können sich positiv (z. B. Symbiose), negativ (z. B. Fressfeinde, Parasitismus) oder einfach gar nicht beeinflussen. Lebensgemeinschaft (Biozönose) und Lebensraum (Biotop) bilden zusammen ein Ökosystem. Da die Evolution der Organismen zu einer Anpassung an eine bestimmte Umwelt führen kann, besteht ein intensiver Austausch zwischen beiden Fachdisziplinen, was insbesondere in der Disziplin der Evolutionsökologie zum Ausdruck kommt. Evolutionsbiologie und Systematik. Die "Phylogenese" beschreibt die Entwicklung einer Art im Verlauf von Generationen. Hier betrachtet die Evolutionsbiologie die langfristige Anpassung an Umweltbedingungen und die Aufspaltung in neue Arten. Mit der Klassifizierung der Tiere in diesem System beschäftigt sich die Spezielle Zoologie, mit der Einteilung der Pflanzen die Spezielle Botanik, mit der Einteilung der Archaeen, Bakterien und Pilze die Mikrobiologie. Als häufige Darstellung wird ein "phylogenetischer Baum" gezeichnet. Die Verbindungslinien zwischen den einzelnen Gruppen stellen dabei die evolutionäre Verwandtschaft dar. Je kürzer der Weg zwischen zwei Arten in einem solchen Baum, desto enger sind sie miteinander verwandt. Als Maß für die Verwandtschaft wird häufig die Sequenz eines weitverbreiteten Gens herangezogen. Als in gewissem Sinne eine Synthese von Ökologie, Evolutionsbiologie und Systematik hat sich seit Ende der 1980er Jahre die Biodiversitäts­forschung etabliert, die auch den Brückenschlag zu Schutzbestrebungen für die biologische Vielfalt und zu politischen Abkommen über Schutz und Nachhaltigkeit bildet. Theoretische Biologie. Die Theoretische Biologie befasst sich mit mathematisch formulierbaren Grundprinzipien biologischer Systeme auf allen Organisationsstufen. Arbeitsmethoden der Biologie. Die Biologie nutzt viele allgemein gebräuchliche wissenschaftliche Methoden, wie strukturiertes Beobachten, Dokumentation (Notizen, Fotos, Filme), Hypothesen­bildung, mathematische Modellierung, Abstraktion und Experimente. Bei der Formulierung von allgemeinen Prinzipien in der Biologie und der Knüpfung von Zusammenhängen stützt man sich sowohl auf empirische Daten als auch auf mathematische Sätze. Je mehr Versuche mit verschiedenen Ansatzpunkten auf das gleiche Ergebnis hinweisen, desto eher wird es als gültig anerkannt. Diese pragmatische Sicht ist allerdings umstritten; insbesondere Karl Popper hat sich gegen sie gestellt. Aus seiner Sicht können Theorien durch Experimente oder Beobachtungen und selbst durch erfolglose Versuche, eine Theorie zu widerlegen, nicht untermauert, sondern nur untergraben werden (siehe Unterdeterminierung von Theorien durch Evidenz). Einsichten in die wichtigsten Strukturen und Funktionen der Lebewesen sind mit Hilfe von Nachbarwissenschaften möglich. Die Physik beispielsweise liefert eine Vielzahl Untersuchungsmethoden. Einfache optische Geräte wie das Lichtmikroskop ermöglichen das Beobachten von kleineren Strukturen wie Zellen und Zellorganellen. Das brachte neues Verständnis über den Aufbau von Organismen und mit der Zellbiologie eröffnete sich ein neues Forschungsfeld. Mittlerweile gehört eine Palette hochauflösender bildgebender Verfahren, wie Fluoreszenzmikroskopie oder Elektronenmikroskopie, zum Standard. Als eigenständiges Fach zwischen den Wissenschaften Biologie und Chemie hat sich die Biochemie herausgebildet. Sie verbindet das Wissen um die chemischen und physikalischen Eigenschaften von den Bausteinen des Lebens mit der Wirkung auf das biologische Gesamtgefüge. Mit chemischen Methoden ist es möglich, bei biologischer Versuchsführung zum Beispiel Biomoleküle mit einem Farbstoff oder einem radioaktiven Isotop versehen. Das ermöglicht ihre Verfolgung durch verschiedene Zellorganellen, den Organismus oder durch eine ganze Nahrungskette. Die Bioinformatik ist eine sehr junge Disziplin zwischen der Biologie und der Informatik. Die Bioinformatik versucht, mit Methoden der Informatik biologische Fragestellungen zu lösen. Im Gegensatz zur theoretischen Biologie, welche häufig nicht mit empirischen Daten arbeitet, um konkrete Fragen zu lösen, benutzt die Bioinformatik biologische Daten. So war eines der Großforschungsprojekte der Biologie, die Genomsequenzierung, nur mit Hilfe der Bioinformatik möglich. Die Bioinformatik wird aber auch in der Strukturbiologie eingesetzt, hier existieren enge Wechselwirkungen mit der Biophysik und Biochemie. Eine der fundamentalen Fragestellungen der Biologie, die Frage nach dem Ursprung der Lebewesen (auch als phylogenetischer Baum des Lebens bezeichnet, siehe Abbildung oben), wird heute mit bioinformatischen Methoden bearbeitet. Die Mathematik dient als Hauptinstrument der theoretischen Biologie der Beschreibung und Analyse allgemeinerer Zusammenhänge der Biologie. Beispielsweise erweist sich die Modellierung durch Systeme gewöhnlicher Differenzialgleichungen in vielen Bereichen der Biologie (etwa der Evolutionstheorie, Ökologie, Neurobiologie und Entwicklungsbiologie) als grundlegend. Fragen der Phylogenetik werden mit Methoden der diskreten Mathematik und algebraischen Geometrie bearbeitet. Zu Zwecken der Versuchsplanung und Analyse finden Methoden der Statistik Anwendung. Anwendungsbereiche der Biologie. Die Biologie ist eine naturwissenschaftliche Disziplin, die sehr viele Anwendungsbereiche hat. Durch biologische Forschung werden Erkenntnisse über den Aufbau des Körpers und die funktionellen Zusammenhänge gewonnen. Sie bilden eine zentrale Grundlage, auf der die Medizin und Veterinärmedizin Ursachen und Auswirkungen von Krankheiten bei Mensch und Tier untersucht. Auf dem Gebiet der Pharmazie werden Medikamente, wie beispielsweise Insulin oder zahlreiche Antibiotika, aus genetisch veränderten Mikroorganismen statt aus ihrer natürlichen biologischen Quelle gewonnen, weil diese Verfahren preisgünstiger und um ein Vielfaches produktiver sind. Für die Landwirtschaft werden Nutzpflanzen mittels Molekulargenetik mit Resistenzen gegen Schädlinge versehen und unempfindlicher gegen Trockenheit und Nährstoffmangel gemacht. In der Nahrungs- und Genussmittel­industrie sorgt die Biologie für eine breite Palette länger haltbarer und biologisch hochwertigerer Nahrungsmittel. Einzelne Lebensmittelbestandteile stammen auch hier von genetisch veränderten Mikroorganismen. So wird das Lab zur Herstellung von Käse heute nicht mehr aus Kälbermagen extrahiert, sondern mikrobiell erzeugt. Weitere angrenzende Fachgebiete, die ihre eigenen Anwendungsfelder haben, sind Ethnobiologie, Bionik, Bioökonomie, Bioinformatik und Biotechnologie. Bruce Willis. Walter Bruce Willis (* 19. März 1955 in Idar-Oberstein, Deutschland) ist ein US-amerikanischer Schauspieler, Filmproduzent, Musiker/Komponist und Drehbuchautor. Frühes Leben. Bruce Willis wurde 1955 in Idar-Oberstein als Sohn des US-amerikanischen Soldaten David Willis und dessen deutscher Frau Marlene aus Kaufungen bei Kassel geboren. Er verbrachte die ersten zwei Jahre mit den Eltern in Deutschland, ehe die Familie 1957 in die Vereinigten Staaten übersiedelte. Zusammen mit den drei jüngeren Geschwistern Florence, David (Produzent) und Robert (2001 verstorben) wuchs er in New Jersey auf. Als Therapie gegen sein Stottern kam er bereits während der Schulzeit zur Schauspielerei. Nach Abschluss der High School nahm Willis Schauspielunterricht am "Montclair State College". Um sich diesen finanzieren zu können, arbeitete er nebenher in einer Chemiefabrik. Schauspielkarriere. Erste Erfahrungen als Schauspieler sammelte er an New Yorker Theatern und als Darsteller in Werbespots. Ab 1985 spielte er die Hauptrolle in der Detektivserie "Das Model und der Schnüffler" "(Moonlighting)", die unter anderem mit einem Emmy und einem Golden Globe ausgezeichnet wurde. Eine Gastrolle hatte er in "Miami Vice". Anschließend arbeitete er zweimal mit Regisseur Blake Edwards zusammen, ehe ihm 1988 mit dem Kinoerfolg "Stirb langsam" der Durchbruch gelang. Die Rolle des Polizisten John McClane, der nur die eigenen Regeln befolgt und immer einen lockeren Spruch auf den Lippen hat, war Willis wie auf den Leib geschneidert und machte ihn zum Star des Actionfilms. Abgesehen von Actionfilmen wie "Stirb langsam 2" und "Last Boy Scout – Das Ziel ist Überleben" hatte Willis bis Mitte der 1990er Jahre kaum kommerziellen Erfolg, was unter anderem auch daran lag, dass er durch Rollen in Komödien wie "Der Tod steht ihr gut" versuchte, sein Action-Image loszuwerden. 1994 wurde die Rolle des Boxers Butch in "Pulp Fiction" von Quentin Tarantino mit Willis besetzt, dessen Darstellung von der Kritik viel Lob erntete. Es folgten weitere Kassenschlager wie "12 Monkeys", "Das fünfte Element" oder "Armageddon – Das jüngste Gericht". Mit Filmen wie "The Sixth Sense" oder "Unbreakable – Unzerbrechlich" widmete er sich anschließend verstärkt Dramen. Im Oktober 2006 wurde Bruce Willis mit einem Stern auf dem Hollywood Walk of Fame geehrt. Willis zählt laut amerikanischem Forbes Magazine zu den bestbezahlten Schauspielern Hollywoods. Zwischen Juni 2007 und Juni 2008 erhielt er demnach Gagen in Höhe von insgesamt 41 Mio. US-Dollar und rangierte damit hinter Will Smith, Johnny Depp, Eddie Murphy, Mike Myers und Leonardo DiCaprio auf Platz sechs. Weitere Aktivitäten. Nebenher ist Willis auch als Theaterschauspieler und Produzent tätig. Darüber hinaus veröffentlichte er zwei sehr erfolgreiche LPs/CDs: "The Return of Bruno", die mit Platin ausgezeichnet wurde, und "If It Don’t Kill You, It Just Makes You Stronger". Chartplatzierungen erreichte er mit den Singleauskopplungen "Respect Yourself", dem Cover eines Songs der Staple Singers, und "Under the Boardwalk". Sporadisch tritt er auch heute noch mit seiner Band auf. Kurz trat Willis im Musikvideo "Stylo", der 2010 erschienenen Single der Gorillaz, auf. Privatleben. Mit der Schauspielerin Demi Moore, mit der er von 1987 bis 2000 verheiratet war, hat Bruce Willis drei Töchter: Rumer (* 1988), Scout LaRue (* 1991) und Tallulah Belle (* 1994). Alle Töchter waren seit 1995 schon vor der Kamera, jedoch nur in Filmen, in denen ein Elternteil mitspielte. Rumer war an der Seite ihres Vaters in "Hostage – Entführt", Scout LaRue und Tallulah Belle erschienen erstmals in dem Film "Der scharlachrote Buchstabe", danach 2001 in "Banditen!". Beim Sundance Film Festival in Utah präsentierte er sich am 18. Januar 2008 mit der neuen Lebensgefährtin, dem Fotomodell Emma Heming. Ihre Hochzeit fand am 21. März 2009 auf den Caicosinseln statt. Am 1. April 2012 wurde ihre erste gemeinsame Tochter geboren. Am 5. Mai 2014 bekam das Paar erneut eine Tochter. Deutsche Synchronstimmen. Ronald Nitschke lieh ihm in "Das Model und der Schnüffler", "Der Tod steht ihr gut", "Blind Date" und "Four Rooms" seine Stimme. In fast allen anderen Filmen wird er von Manfred Lehmann synchronisiert. In ' bekam er ausnahmsweise die Stimme von Thomas Danneberg, da Lehmann zu diesem Zeitpunkt mit Dreharbeiten beschäftigt war. Benchmarking in der Betriebswirtschaft. Benchmarking (engl. "Benchmark" = „Maßstab“, steht für eine Bezugs- oder Richtgröße) bezeichnet in der Betriebswirtschaft eine Managementmethode, mit der sich durch zielgerichtete Vergleiche unter mehreren Unternehmen das jeweils beste als Referenz zur Leistungsoptimierung herausfinden lässt. Dazu ist es notwendig, durch Vergleich bessere Methoden und Praktiken "(Best Practices)" zu identifizieren, zu verstehen, auf die eigene Situation anzupassen und zu integrieren. Benchmarking ist eine Weiterentwicklung des Betriebsvergleichs. Grundlagen. Auf der obersten Betrachtungsebene werden Konzepte in Frage gestellt. Es geht darum, die „richtigen Dinge zu tun“. Auf der untersten Betrachtungsebene der Detailprozesse wird der Prozess in Frage gestellt. Hier geht es darum, die „Dinge richtig zu tun“ – also die Prozesseffizienz zu verbessern. Ein häufiger Fehler beim Benchmarking besteht darin, die Betrachtungsebenen im Vorfeld nicht klar zu definieren. Erfahrungen zeigen, dass ein Benchmarking auf Konzeptebene sich kaum mit einem auf Detailprozessebene kombinieren lässt. Die für ein Benchmarking benötigten Ansprechpartner für die beiden Ebenen sind allzu verschieden und die Methoden zur Identifikation geeigneter Benchmarking-Partner unterscheiden sich je nach Betrachtungsebene. Benchmarking ist einer der effektivsten Wege, externes Wissen rasch in das eigene Unternehmen einzubringen. Das in einem Benchmarking-Projekt erarbeitete Wissen ist in höchstem Maße praxisorientiert – denn es stammt aus der Praxis und hat sich im Alltag bewährt. In der Europäischen Union wird das Benchmarking seit Ende 1996 als eine Methode angewandt, um die Leistungskraft der einzelnen Arbeitsmärkte der EU-Länder zu vergleichen. Dabei sollen Schwächen einzelner Mitgliedstaaten offengelegt und die jeweiligen Regierungen in die Lage versetzt werden, dringend benötigte Reformen durchzuführen. Entsprechende Vergleichsmethoden sind auf den nationalen Ebenen der Politik bisher eher unüblich, der Drang nationaler oder regionaler Politik zu mehr Transparenz ist steigerungsfähig. In der Bundesrepublik Deutschland gibt es im Bereich der öffentlichen Verwaltungen und Organisationen zum einen gesetzliche Vorschriften für das Benchmarking (z.B. Krankenhäuser, Rentenversicherung), zum anderen auch freiwillige Aktivitäten in sogenannten Benchmarking-Clubs. So sind beispielsweise die gesetzlichen Unfallversicherungsträger mit wissenschaftlicher Begleitung dabei ein Prozessbenchmarking durchzuführen und weiter zu entwickeln, das sowohl qualitative, als auch quantitative Ziele und Wirkungen berücksichtigt. Es gibt bisher keine Beispiele international genormter (ISO) Benchmarks, industrielle Standards werden beispielsweise durch SPEC gesetzt. Benchmarking-Grundtypen. Benchmarking-Methoden unterscheiden sich meist nur im Detaillierungsgrad und in den Bezeichnungen. Das Grundschema bleibt in etwa gleich: Vergleiche zeigen Unterschiede zwischen der eigenen Organisation und den Benchmarking-Partnern. Daraus lassen sich Folgerungen für die eigene Organisation ableiten, ein Lernprozess beginnt. Aus praktischer Sicht hat sich eine Einteilung von Benchmarking in vier Grundtypen bewährt. Die Klassifizierung erfolgt auf Grund der Eigenschaften der Benchmarking-Partner. Diese können in der eigenen oder in einer fremden Branche gefunden werden und sie gehören entweder zur eigenen oder zu einer fremden Organisation. Typ 1: Internal Benchmarking (internes Benchmarking). Internes Benchmarking findet innerhalb der eigenen Organisation und Branche statt. Ein Beispiel ist ein internationaler Zementhersteller, der den Produktionsprozess aller seiner Werke periodisch miteinander vergleicht. Der große Vorteil dieses Benchmarking-Typs ist es, dass erstens die Daten gut erhältlich und zweitens Vergleiche auf Kennzahlenebene möglich sind. Ein möglicher Nachteil kann mangelnde Akzeptanz sein, die auf das Phänomen zurückgeht, dass „der Prophet im eigenen Land“ oft nichts gilt. Eine besondere Form des internen Benchmarkings ist das Konzern-Benchmarking. Dabei zählen Benchmarking-Anstrengungen innerhalb von Konzernen, Holdings oder Konglomeraten. Das interne Benchmarking beschränkt sich also nicht mehr auf die gleiche Branche, sondern wird auf das ganze Unternehmen ausgedehnt. Der Vorteil beim Konzern-Benchmarking ist die gute Verfügbarkeit von Informationen. Abhängig von der Betrachtungsebene ist kennzahlenorientiertes Benchmarking allerdings nur noch beschränkt möglich, da die beteiligten Unternehmenseinheiten anderen Branchen angehören. Spielt sich das Benchmarking auf der Konzeptebene ab, sind Successful Practices oft nicht mehr 1:1 übertragbar. Typ 2: Competitive Benchmarking (Wettbewerbsbenchmarking). Die Benchmarking-Partner sind Unternehmen aus derselben Branche. Die Benchmarking-Partner können denselben Markt oder unterschiedliche Märkte bearbeiten. In beiden Fällen gilt das Hauptinteresse oft dem Vergleich von Kennzahlen, der allerdings aus Wettbewerbsgründen nur eingeschränkt möglich ist. Wettbewerbs-Benchmarking bedingt eine besonders gute Vorbereitung und eine sehr offene Kommunikation. Jeder Teilnehmer muss die Sicherheit erhalten, dass die abgegebenen und erhaltenen Informationen in einem ausgewogenen Verhältnis stehen. Dies lässt sich kaum mehr realisieren, sobald einer der Wettbewerber die Federführung übernimmt und für „sein“ Projekt Partner sucht. Der Vorteil dieses Benchmarking-Typs ist die klare Positionierung des eigenen Unternehmens im Wettbewerb. Dem stehen zwei Nachteile gegenüber: Erstens ist es schwierig, Kennzahlen oder sogar Prozesse mit der direkten Konkurrenz zu benchmarken. Zweitens zeigt die Erfahrung des "Transferzentrums für Technologiemanagement (TECTEM) an der Universität St. Gallen", dass die Erkenntnisse aus Wettbewerbs-Benchmarking einen geringen Neuigkeitsgrad haben. Typ 3: Functional Benchmarking (funktionales oder markt-übergreifendes Benchmarking). Hier erfolgt der Vergleich mit Unternehmen der gleichen Branche in getrennten Märkten. Man vergleicht den Organisationsbereich bezüglich seiner Funktion, wie beispielsweise die interne Logistikabteilung mit einem Versandunternehmen. Es ist die universelle Art des Benchmarkings. Es bietet ein sehr hohes Lernpotenzial, da es am meisten neue Ideen und Anregungen bietet. Dieses Potenzial kann insbesondere bei Benchmarking auf Konzeptebene voll ausgeschöpft werden. Typ 4: Generic Benchmarking (generisches Benchmarking) oder auch Best-Practice-Benchmarking. Das generische Benchmarking ist die reinste Form des Benchmarkings. Hier findet ein branchen- und funktionsübergreifender Vergleich von Prozessen und Methoden statt. Es wird hier ein Vergleich zwischen unverwandten Unternehmen angestrebt. Ein immer wieder zitiertes Beispiel für das generische Benchmarking ist der Vergleich der Zeiten für Be- und Entladung, Betankung, Reinigung und Sicherheitschecks von Flugzeugen mit den Boxenstopps beim Indy-500-Autorennen, den die Southwest Air Lines durchgeführt hat. Durch das Benchmarking soll eine Zeitreduzierung um 50 % möglich gewesen sein. Standardphasen des Benchmarkings. Der grundlegende Ablauf eines Benchmarking-Projekts, den zuerst Robert Camp beschrieben hat, bildet die Grundlage der meisten Veröffentlichungen zum Thema Benchmarking. Er kann grob in die folgenden Phasen eingeteilt werden Diese Schritte können wiederum zum Ausgangspunkt für ein neuerliches Benchmarking werden, das erneut in die Vergleichsphase eintritt. Ursprünge des Begriffs „Benchmarking“. Zur "Etymologie" des Wortes „Benchmarking“ siehe Benchmark. Der betriebswirtschaftliche Begriff „Benchmarking“ geht zurück auf die US-amerikanische Firma Xerox Corporation. Obwohl die beim Benchmarking angewandten Methoden schon sehr viel früher in der Praxis der modernen industriellen Produktion entstanden sind – zum Beispiel lässt sich die Übertragung des Fließbandprinzips aus einer Großschlachterei in die Automobilproduktion durch Henry Ford als sehr erfolgreiches Benchmarking bezeichnen –, hat sich der Begriff des Benchmarkings erst in den 1980er Jahren mit den Veröffentlichungen von Robert C. Camp zu Benchmarking-Projekten bei Xerox durchgesetzt. Diese Schriften haben der Benchmarking-Idee zum Durchbruch verholfen. Der Kopiererhersteller Xerox befand sich Ende der 1970er Jahre bedingt durch Qualitäts- und Kostenprobleme in einer schwierigen Wettbewerbsposition. Der japanische Konkurrent Canon brachte einen Kopierer zu einem Verkaufspreis auf den Markt, der wesentlich unter den Herstellkosten für vergleichbare Geräte bei Xerox lag. Die Marktanteile von Xerox fielen auf dem Kopierermarkt steil ab. Aus diesem Grund wandte Xerox 1979 zum ersten Mal ein Benchmarking an: Es wurde ein Kopierer der Konkurrenz gekauft, zerlegt und die einzelnen Komponenten mit jenen der eigenen Kopierer verglichen. So konnten die niedrigeren Herstellungskosten von Canon zu einem großen Teil erklärt werden. In einem nächsten Schritt wurden die Aktivitäten der einzelnen Wertschöpfungsketten im Unternehmen analysiert, mit dem Ergebnis, dass erhebliche Probleme in den Logistik- und Vertriebsprozessen aufgedeckt werden konnten. Unter anderem wurden die logistischen Prozesse der Materialentnahme bei dem Kopiergerätehersteller mit dem des Outdoor-Artikel-Versenders L.L.Bean verglichen. Dies veranlasste Xerox zu Folgeprojekten, wobei unter anderem Pharmagroßhändler und Haushaltsgerätehersteller als Benchmark dienten. Aufgrund dieser ersten Erfolge wurde Benchmarking bald zu einer Hauptsäule der Xerox-Strategie. 1992 erfolgte die erste Gründung eines IBC ("international benchmarking clearing house"), einer Einrichtung, die als Dienstleistung anbietet, Benchmarkingpartner zu vermitteln. 1994 gründete das Fraunhofer-Institut für Produktionsanlagen und Konstruktionstechnik (IPK) das Informationszentrum Benchmarking (IZB). Das Global Benchmarking Network (GBN) wurde 1994 aus der Taufe gehoben. Für Camp stand die Identifikation und Implementation von „Best Practices“ im Mittelpunkt. Einem rein quantitativen Benchmarking, also dem bloßen Vergleich von Kennzahlen, sprach er nur in Verbindung mit einer vertieften Analyse der Praktiken einen Nutzen zu. Seither hat sich das Benchmarking über mehrere Generationen weiterentwickelt und zu unterschiedlichen Erscheinungsformen geführt. Best Practices oder Successful Practices. Der im Benchmarking häufig verwendete Begriff der Best Practices ist nur dann korrekt, wenn ein Benchmarking eine vollständige, weltweite Analyse beinhaltet. Dies ist nur in den wenigsten Fällen praktikabel. Ein Beispiel wäre der Herstellungsprozess von Mikrochips für hoch integrierte Prozessoren. Hier sind alle „Global Players“ bekannt und könnten in ein Benchmarking einbezogen werden. In der Regel ist eine globale Analyse aus Zeit- und Kostengründen allerdings kaum möglich oder sinnvoll. Der Anspruch des Benchmarking besteht in den meisten Fällen nicht darin, die besten Praktiken zu finden, sondern erfolgreiche (wobei die Kriterien für den Erfolgsnachweis im Vorfeld definiert werden müssen). Die Literatur spricht hier von Successful Practices. Benchmarking in der Volkswirtschaftslehre. Benchmarking-Ergebnisse werden u. a. im Global Competitiveness Report des World Economic Forum veröffentlicht. Brainstorming. Brainstorming ist eine von Alex F. Osborn 1939 erfundene und von Charles Hutchison Clark weiterentwickelte Methode zur Ideenfindung, die die Erzeugung von neuen, ungewöhnlichen Ideen in einer Gruppe von Menschen fördern soll. Er benannte sie nach der Idee dieser Methode, nämlich „using the brain to storm a problem“ (wörtlich: Das Gehirn verwenden zum Sturm auf ein Problem). Hilbert Meyer verwendet in "UnterrichtsMethoden" als Übersetzungsangebot den Begriff „Kopfsalat“, der VDS schlägt „Denkrunde“ und „Ideensammlung“ vor. Technik und Einsatzgebiet. Der Name „Brainstorming“ hat sich schnell verbreitet, wird heute aber auch für andere Techniken als die von Osborn beschriebene verwendet. Phase Zwei: Ergebnisse sortieren und bewerten. Nach einer Pause werden nun sämtliche Ideen (von der Gruppenleitung) vorgelesen und von den Teilnehmern bewertet und sortiert. Hierbei geht es zunächst nur um bloße thematische Zugehörigkeit und das Aussortieren von problemfernen Ideen. Die Bewertung und Auswertung kann in derselben Diskussion durch dieselben Teilnehmer erfolgen oder von anderen Fachleuten getrennt vorgenommen werden. Aspekte der Gruppendynamik beim Brainstorming. Nach einer Studie aus dem Jahr 2002 von Henk Wilke und Arjaan Wit spielt die Gruppendynamik beim Brainstorming eine große Rolle. Als bekannteste und weit verbreitete Kreativitätstechnik ist es für einen effektiven und effizienten Einsatz von Brainstorming sinnvoll, gruppendynamische Prozesse und Problemfelder zu kennen und ihnen gegebenenfalls entgegenzuwirken. Es geht hierbei um Auswirkungen der Gruppenstruktur, aber auch um potentielle Prozess- sowie Motivationsverluste, die Einfluss auf die Ergebnisse des Brainstormings nehmen können. Dabei sind Aspekte der Gruppenstruktur, der Rollendifferenzierung, der Statusdifferenzierung und der Kommunikationsmuster zu beachten, ansonsten können Prozessverluste und Motivationsverluste entstehen. Schwächen – Varianten – Kritik. Untersuchungen behaupten, dass schon die Äußerung einer Idee die Ideenfindung der anderen Teilnehmenden beeinflusst. Daher sei es sinnvoll, alle Teilnehmenden vor dem eigentlichen Brainstorming ihre Ideen aufschreiben zu lassen, um danach zunächst gänzlich unbeeinflusst davon berichten zu können. Laut einem Bericht in „Bild der Wissenschaft“ 1/2005 nützt die traditionelle Brainstorming-Methode jedoch nachweislich nichts: 50 Studien zeigten ein vernichtendes Ergebnis, die Kandidaten konnten es in Gruppen nicht besser, weil sie sich gegenseitig blockierten. Meist mussten sie warten, bis ein anderer ausgeredet hatte, was ihre Kreativität hemmte. Dieses Phänomen wird "Produktionsblockierung" genannt. Einzelkämpfer hingegen hatten nicht nur mehr, sondern auch bessere Eingebungen als die Gruppe. Kreativität hinge somit eher vom Bewusstseinsstand der Einzelnen ab. Anders verhält es sich mit elektronischem Brainstorming, das mit Hilfe elektronischer Meetingsysteme online durchgeführt wird. Diese Systeme setzen wesentliche Grundregeln des Brainstormings auf technischer Ebene durch und hebeln schädliche Einflüsse der Gruppenarbeit durch Anonymisierung und Parallelisierung der Eingaben aus. Die positiven Effekte elektronischen Brainstormings verstärken sich mit wachsender Gruppengröße. Um weniger ausdrucksstarke, aber gleichwertig qualifizierte Mitarbeiter einzubeziehen, kann auch auf Brainwriting oder die Collective-Notebook-Methode ausgewichen werden. Auch hier gilt, dass jede Variation in Umgebung und Art der Durchführung neue Impulse liefert. Als hilfreich erweist sich bei Brainstormings auch, sogenannte „Outsider“ in das Brainstorming einzubeziehen. Mitglieder innerhalb einer Organisation blockieren zumeist bei der Ideenfindung, weil sie zu sehr in bestimmten Strukturen denken und darin gefangen sind. Leute von außerhalb können die Denkprozesse beschleunigen und positiv beeinflussen. Andererseits sind wiederum geübt kreative Menschen in der Lage, sich innerhalb einer Brainstorming-Sitzung gegenseitig anzuregen und zu beflügeln. Die Brauchbarkeit der Ideen hängt wesentlich von der Vertrautheit der Teilnehmenden mit dem Problemgebiet ab, vielfältige Interessen und breite Allgemeinbildung sind ebenfalls vorteilhaft. Brainstorming und verwandte Methoden werden manchmal nur deshalb angewendet, um möglichst viele Personen an der Problemlösung zu beteiligen, also aus (betriebs-)politischen Gründen. In solchen Fällen spielt die Effektivität keine große Rolle. Wird Brainstorming streng ergebnisorientiert eingesetzt und auch nur von für diese Methode geeigneten Personen ausgeübt, kann es sehr schnell zu guten Teilergebnissen führen, die wiederum weitere Arbeitsschritte befruchten. Ein Sozialpsychologe der Universität Utrecht machte bezüglich Brainstorming ein Experiment, in dem 20 allein nachdenkende Menschen bis zu 50 % mehr und originellere Einfälle hatten als „Teams“, die klassisches Brainstorming betrieben. Siehe auch. Ideenfindung, Problemlösungsverfahren, Elektronisches Meetingsystem, TRIZ, Mind Map, Edison-Prinzip, Qualitätsmethode, Brainwriting, Ideenzirkel, Brainclipping, Selbstgesteuertes Lernen, Ideenkorb im ZRM Richard Buckminster Fuller. Richard Buckminster Fuller (oft abgekürzt zu "R. Buckminster Fuller," auch "Bucky Fuller" genannt; * 12. Juli 1895 in Milton, Massachusetts; † 1. Juli 1983 in Los Angeles) war ein US-amerikanischer Architekt, Konstrukteur, Visionär, Designer, Philosoph und Schriftsteller. Leben und Wirken. Fuller stammte aus einer wohlhabenden Familie. Er war eines von vier Kindern des Lederwarenhändlers Richard Buckminster Fuller und dessen Frau Caroline Wolcott Andrews. Sein Cousin war der Journalist und Schriftsteller John Phillips Marquand, der 1938 den Pulitzer-Preis für seinen Roman "Der selige Mister Apley" erhielt. 1914 lernte er Anne Hewlett (1896–1983), Tochter des prominenten New Yorker Architekten James Monroe Hewlett, kennen. Die beiden heirateten in New York am 12. Juli 1917, seinem 22. Geburtstag. Sie hatten zwei Töchter, Alexandra (1918–1923) und Allegra (* 1927). Alexandra starb mit vier Jahren an Kinderlähmung und spinaler Meningitis. Allegra Fuller Snyder gründete das Board of Directors des Buckminster Fuller Institute und wurde dessen Vorsitzende. Fuller ist der Großneffe von Margaret Fuller, einer prominenten Frauenrechtlerin und Vertreterin des Transzendentalismus. Er begann 1912 in Harvard zu studieren, brach das Studium jedoch ab und wurde Marinesoldat. 1927, im Alter von 32 Jahren, war er bankrott und ohne Anstellung, und nach dem Tode seines ersten Kindes nahe daran, Selbstmord zu begehen. Er beschloss, sein weiteres Leben als Experiment zu verstehen: Er wollte feststellen, was eine einzelne Person dazu beitragen kann, die Welt zum Nutzen der Menschheit zu verändern. Er begann sein Leben peinlich genau in einem Tagebuch zu dokumentieren, das er dann ein halbes Jahrhundert lang führte. Nach mehreren Tätigkeiten in der Industrie, unter anderem in der Exportabteilung eines fleischverarbeitenden Unternehmens, begann er als Architekt zu arbeiten. In den späten zwanziger Jahren hatte er einigen Erfolg mit neuen Gebäudekonzepten, die er unter dem Namen Dymaxion (Dymaxion-Globus) der Öffentlichkeit vorstellte. Weitere Entwürfe energie- und/oder materialeffizienter Konstruktionen (zum Beispiel ein stromlinienförmiges Auto, ein Badezimmer, Tensegrity) folgten, wurden patentiert und teilweise ebenfalls unter dem Warenzeichen "Dymaxion" vermarktet. 1970 wurde Fuller zum Mitglied ("NA") der National Academy of Design gewählt. Bekannt wurde Fuller durch seine "Domes" oder geodätischen Kuppeln, die man meist auf Ausstellungen, in Science-Fiction-Filmen oder als Teil von Militäranlagen (Radarkuppeln) sehen kann. Die bekannteste ist die Biosphère, der Ausstellungspavillon der Vereinigten Staaten an der Expo 67 in Montreal. Auch Achterbahnen fanden in diesen Kugeln Platz (zum Beispiel der Eurosat im Europa-Park bei Rust). Sie basieren auf einer Weiterentwicklung von einfachsten geometrischen Grundkörpern (Tetraeder als 3-Simplex, Oktaeder und dichteste Kugelpackungen) und sind extrem stabil und mit geringstem Materialaufwand realisierbar. Das Konstruktionsprinzip wurde 1954 patentiert. Fuller hat als einer der Ersten das Wirken der Natur als durchgängiges systemisches Wirken unter wirtschaftlichen Prinzipien (Material- und Energieeffizienz und die damit verbundene Tendenz zur Ephemerisierung) gesehen. Ein anderer wichtiger Aspekt war für ihn das Entdecken von nutzbaren Synergien, ein Begriff, den er mitprägte. Er wirkte als Designer, Wissenschaftler, Forscher, Entwickler und Schriftsteller und propagierte dabei schon frühzeitig globale und kosmische Sichtweisen, wie in „Bedienungsanleitung für das Raumschiff Erde“. Den Sinn des Lebens in der Moderne untersuchte er mit der Frage nach der „Integralfunktion des Menschen im Universum“. Seine in späteren Jahren entwickelten Methoden und technischen Konstruktionen versuchen Minimalprinzipien in den Bereichen der Technik fortzuentwickeln, um damit zur Vermeidung des „kosmischen Bankrottes“ der Menschheit Mittel zur nachhaltigen Fortentwicklung unserer Zivilisation bereitzustellen. Diesem Zweck diente auch die Propagierung des World Game, das – im Gegensatz zu Konfliktsimulationen – praktisch aufzeigen sollte, wie spontane Kooperation das Leben aller Menschen verbessern kann. R. Buckminster Fuller starb 1983 in Los Angeles, keine 36 Stunden vor seiner Frau Anne. Preise und Auszeichnungen. 1968 wurde er Professor an der Southern Illinois University Carbondale, später auch an der University of Pennsylvania. Fuller erhielt zwischen 1954 und 1981 47 Ehrendoktorate und über 100 Auszeichnungen und Preise. Nach ihm wurde die dritte bekannte elementare Modifikation des Kohlenstoffs benannt, die Fullerene, deren chemische Struktur an seine Kuppelbauten erinnert. Das bisher am besten erforschte Fulleren C60 wird auch als "Buckminster-Fulleren" beziehungsweise "Bucky Ball" bezeichnet. Fuller war Mitglied und später auch Vorsitzender des Vereins für Hochbegabte Mensa International. 2004 ehrte ihn der United States Postal Service mit einer Briefmarke zum 50. Jahrestag der Patentierung der geodätischen Kuppeln. Trivia. Der amerikanische Künstler Matthew Day Jackson ehrte Fuller durch das im Jahre 2007 entstandene Porträt "Bucky" aus Holz mit einem aus Perlmutt eingelegten Auge. Das Objekt wurde im Jahre 2010 bei Christie’s in New York an den Juwelier Laurence Graff verkauft. Bayern. Der Freistaat Bayern (, Abkürzung "BY") ist eines der 16 Länder der Bundesrepublik Deutschland und liegt im Südosten Deutschlands. Mit rund 70.500 Quadratkilometern ist es das flächenmäßig größte und mit rund 12,7 Millionen Einwohnern nach Nordrhein-Westfalen das zweitbevölkerungsreichste deutsche Bundesland. Als Binnenland grenzt Bayern an folgende Staaten: im Osten an Tschechien, im Südosten und Süden an Österreich und im Südwesten über den Bodensee an die Schweiz sowie an weitere deutsche Bundesländer. Im einzeln sind dies im Westen Baden-Württemberg, im Nordwesten Hessen, im Norden Thüringen und im Nordosten Sachsen. Die größte Stadt Bayerns ist die Landeshauptstadt München, gefolgt von Nürnberg und Augsburg. Der Freistaat hat im Süden Anteil am Hochgebirge der Ostalpen und dem bis zur Donau reichenden flachen Alpenvorland einschließlich der Schotterebene. Nördlich der Donau bestimmen Mittelgebirge wie etwa das Fichtelgebirge oder die Schichtstufen der Fränkischen und Schwäbischen Alb das Landschaftsbild. Bayern ist eine parlamentarische Republik mit dem Bayerischen Landtag als Legislative und der Bayerischen Staatsregierung, an deren Spitze der Ministerpräsident als Regierungschef steht, als Exekutive. Grundlage der Politik ist die Verfassung des Freistaates Bayern, gemäß der Bayern ein Volks-, Rechts-, Kultur- und Sozialstaat ist. Die Bezeichnung "Freier Volksstaat" bzw. "Freistaat" als monarchiefreie Republiken trugen in Bayern erstmals 1918 zwei Staaten, mit der Ausrufung durch Kurt Eisner am 8. November 1918 der "Freie Volksstaat Bayern" und der "Freistaat Coburg", der sich 1920 mit Bayern vereinigt hat. Bereits im Jahre 555 n. Chr. soll ein bayerisches Stammesherzogtum existiert haben, welches unter den Merowingern Teil des fränkischen Herrschaftsbereichs wurde. Zwischen 1180 und 1805 wurde Bayern als Territorialherzogtum sowie im Zeitraum 1806 und 1808 als absolute Monarchie von den Wittelsbachern regiert. Durch die Gewährung der Verfassungen von 1808, 1818 und 1848 wurde Bayern konstitutionelle Monarchie. Napoleon Bonaparte erhob 1805 Bayern zum Königreich, die Proklamation des ersten Königs erfolgte am 1. Januar 1806. Damit war die vollkommene Souveränität verbunden. Bayern konnte auf dem Wiener Kongress 1814 als eine der Siegermächte einen großen Teil der Gebietsgewinne behalten; unter anderem kamen das heutige Nordbayern, Teile Schwabens und die neugeschaffene linksrheinische Pfalz zu Bayern. 1918 brach die Wittelsbachermonarchie in der Novemberrevolution zusammen. Nach der Besetzung durch US-amerikanische Truppen wurde Bayern 1949 Teil der neu gegründeten Bundesrepublik. Es begann ein wirtschaftlicher Aufschwung und eine Entwicklung vom Agrarstaat zum modernen Industriestaat. Bayern liegt fast vollständig im oberdeutschen Sprachraum. Traditionell gliedert es sich in die drei Landesteile Franken (heute die Regierungsbezirke Ober-, Mittel- und Unterfranken), Schwaben (gleichnamiger Regierungsbezirk) und Altbayern (Regierungsbezirke Oberpfalz, Ober- sowie Niederbayern). Etymologie und Schreibweise. Die allein verwendete Schreibweise des Landesnamens mit „y“ geht auf eine Anordnung von König Ludwig I., König von Bayern, vom 20. Oktober 1825 zurück, mit der die vorher geltende Schreibweise „Baiern“ abgelöst wurde. Diese Anordnung des Königs und seine Vorschrift des „griechischen“ Ypsilons steht im Zusammenhang mit dem Philhellenismus. Bis dahin wurde der Landesname üblicherweise mit „i“ geschrieben, wenngleich es ältere Belege mit einem „y“ gibt. Der Stamm der einheimischen Bevölkerung Altbayerns (also ohne Franken und bayerisches Schwaben) wird aber weiterhin als "die Baiern" (in anderen Abschnitten auch Altbayern genannt) bezeichnet. Vgl. auch: Bairisch bzw. Bajuwaren. Der Begriff Bayern bzw. Baiern ist auf das Volk der Bajuwaren zurückzuführen. Der volle Name der Bajuwaren wird hergeleitet aus einem mutmaßlichen germanischen Kompositum *"Bajowarjōz" (Plural). Überliefert ist dieser Name als althochdeutsch "Beiara, Peigira," latinisiert "Baiovarii". Es wird angenommen, dass es sich dabei um ein Endonym handelt. Hinter dem Erstglied "Baio" steckt das Ethnikon des zuvorbewohnenden keltischen Stammes der Boier, der im althochdeutschen Landschaftsnamen "Bēheima" ‚Böhmen‘ (germanisch *"Bajohaimaz" ‚Heim der Boier‘, spätlateinisch dann "Boiohaemum") und im onomastischen Anknüpfungspunkte ("Baias, Bainaib" usw.) erhalten ist. Das Zweitglied "-ware" bzw. "-varii" der Bewohnerbezeichnung "Bajuwaren" stammt aus *"warjaz" ‚Bewohner‘ (vgl. altnordisch "Rómverjar" ‚Römer‘, altenglisch "burhware" ‚Stadtbewohner‘), die noch aus indogermanischer Zeit stammt (vgl. walisisch "gwerin" ‚Menschenmenge‘). Der Baiernname wird deshalb als ‚Männer aus Böhmen‘ gedeutet. Die Namensdeutung ist allerdings weiterhin umstritten. Gebiet und Landschaft. Die Bayerischen Alpen im äußersten Süden Bayerns gehören den Nördlichen Kalkalpen an. Bayern ist das einzige deutsche Bundesland, das Anteil an den Alpen hat. Meist werden unter den Bayerischen Alpen nur die zwischen den Flüssen Lech und Saalach gelegenen Gebirgsteile verstanden. In diesem engeren Sinn zählen daher die Allgäuer Alpen, auf die sich das bayerische Staatsgebiet erst seit jüngerer Zeit erstreckt, und die Berchtesgadener Alpen nicht zu den Bayerischen Alpen. Er ist nicht mit dem Begriff der Bayerischen Voralpen, die nördlich an das Gebirge angrenzen, zu verwechseln. Letztere umfassen nur den bayerischen Anteil der Voralpen zwischen der Loisach im Westen und dem Inn im Osten. Während die Voralpen nur vereinzelt ausgeprägte Kalkfelswände zeigen, sind die Alpen durch die im Jungpleistozän entstandenen Kare, Seen und die typischen U-Täler durch Gletscher geprägt. Ablagerungen der eiszeitlichen Flüsse sowie vor allem die Gletscher ließen insbesondere im Alpenvorland eine hügelige Landschaft mit Seen und Mooren entstehen. Hier liegen etwa der Chiemgau, das Fünfseenland und der Allgäu. Während zwischen den Alpen und südlich der Donau das Gelände flach bis hügelig ist, liegen nördlich davon mehrere Gebirge, die eine Höhe von über Tausend Metern erreichen, darunter beispielsweise der Bayerische Wald mit dem Großen Arber als höchsten Berg Ostbayerns und das Fichtelgebirge mit dem Schneeberg als höchsten Berg Frankens. Die Fränkische Alb als geologische Fortsetzung des Schweizer Juras und der Schwäbischen Alb zieht sich um einen Bogen durch den Norden Bayerns und schirmt Teile Frankens von Altbayern ab. Nördlich davon liegen zahlreiche Zeugenberge wie etwa der Hesselberg. Der äußerste Südwesten der Alb grenzt ans Nördlinger Ries, Rest eines während des Ries-Ereignisses vor etwa 14,6 Millionen Jahren entstandenen Einschlagkraters. Das Fränkische Keuper-Lias-Land, in dem etwa Aischgrund, Steigerwald und Frankenhöhe liegen, geht in die Mainfränkische Platten über. Südwestlich davon liegen die Mittelgebirge Odenwald, Spessart und Rhön. Die östliche Hälfte Bayerns wird hingegen von Mittelgebirgen wie dem Bayerischen Wald oder dem Frankenwald geprägt. Hier befindet sich das größte nicht zerschnittene Waldgebiet Mitteleuropas. Teile des Vogtlands liegen in Bayern. Der westliche Teil Unterfrankens als Bestandteil der Tiefebene des Rheins gehört zum Bayerischen Untermain. Die niedrigste Stelle Bayerns ist mit der Wasserspiegel des Mains in Kahl am Main (Unterfranken), die höchste auf dem Gipfel der Zugspitze (), des höchsten deutschen Berges im Wettersteingebirge. Alle 30 höchsten Berggipfel Deutschlands liegen in den Bayerischen Alpen, konzentriert in den Berchtesgadener Alpen, den Allgäuer Alpen und dem Wettersteingebirge. Der geographische Mittelpunkt Bayerns liegt etwa 500 Meter östlich des Marktes Kipfenberg im Landkreis Eichstätt. Historisch betrachteten sich mehrere Orte in Bayern als Mittelpunkt Europas. Seit dem EU-Beitritt Kroatiens am 1. Juli 2013 lag der geographische Mittelpunkt der Europäischen Union im Landkreis Aschaffenburg, im Ortsteil Oberwestern der bayerischen Gemeinde Westerngrund (). Durch den Beitritt des französischen Übersee-Départements Mayotte, einer Inselgruppe in Nordwesten Madagaskars, hat er sich nochmals um 500 Meter verschoben (). Gewässer. Die vier südlichen Nebenflüsse entspringen in den Alpen und sind wasserreicher. Inn und Lech führen (wegen des langen Oberlaufs) bei ihrer Mündung meist etwas mehr Wasser als die Donau. Im Heimatkundeunterricht wird zur Donau vielerorts folgender Merkspruch aufgesagt: „Brigach und Breg bringen die Donau zu weg. Iller, Lech, Isar, Inn, fließen rechts zur Donau hin. Wörnitz, Altmühl, Naab und Regen fließen links dagegen.“ Der größte Teil Frankens wird durch den Main von Ost nach West in den Rhein entwässert. In seinem markant geschwungenen Lauf bildet er das sog. Maindreieck und Mainviereck. Seine größten Nebenflüsse sind die Regnitz und Tauber von links und die Fränkische Saale von rechts. Im Nordosten Oberfrankens entspringen die linken Nebenflüsse der Elbe, die Sächsische Saale und die Eger. In den Endmoränenlandschaften im südlichen Teil des nördlichen Alpenvorlandes gibt es viele Seen, die teilweise ins Gebirge hineinragen, etwa der Tegernsee, der Starnberger See und der Traunsee. Bayern hat Anteil am Bodensee, dem größten See Mitteleuropas. Der größte See innerhalb Bayerns ist der Chiemsee. Nördlich der Fränkischen Alb wurden die Stauseen des Fränkischen Seenlands gebildet. Sie dienen zur Wasserregulierung Nordbayerns, insbesondere der Wasserversorgung des Main-Donau-Kanals, einer wichtigen Wasserstraße in Nordbayern. In den Alpen wurde 1924 das Walchenseekraftwerk in Betrieb genommen, das das natürliche Gefälle zwischen dem als „Oberbecken“ fungierenden Walchensee und dem „Unterbecken“ Kochelsee zur Stromerzeugung nutzt. Durch Teile Bayerns führt die Europäische Hauptwasserscheide. Sie trennt die Flusssysteme von Rhein im nördlichen und Donau im südlichen Teil Bayerns. Entlang dem Nordrand der Alb gibt es etliche Steinerne Rinnen. Die etwa 150 Meter lange und 0,2 Meter hohe Käsrinne bei Heidenheim und die Steinerne Rinne bei Wolfsbronn mit 128 Metern Länge und 1,5 Metern Höhe sind die längsten dieser „wachsenden Bäche“ in Bayern. Siehe auch Liste der Steinernen Rinnen in Bayern. Schutzgebiete. In Bayern liegen der Nationalpark Bayerischer Wald und der Nationalpark Berchtesgaden. Von der UNESCO anerkannte Biosphärenreservate sind das Biosphärenreservat Berchtesgadener Land und das Biosphärenreservat Rhön. Es gibt 18 Naturparke in Bayern, das älteste ist das 1969 gegründete Naturpark Altmühltal. In Bayern sind 587 Naturschutzgebiete mit einer Gesamtfläche von 158.694,03 Hektar ausgewiesen (Stand: 17. März 2009). Das entspricht einem Anteil von 2,25 Prozent an der Fläche des Bundeslands. Größtes Naturschutzgebiet sind die Allgäuer Hochalpen, kleinstes ist der Drabafelsen. In Bayern sind 698 Landschaftsschutzgebiete mit einer Gesamtfläche von 2.121.991,82 Hektar ausgewiesen (Stand: Mai 2015). Das entspricht einem Anteil von 30,07 Prozent an der Fläche des Bundeslands. In Bayern sind über 2.500 Geotope vom Bayerischen Landesamt für Umwelt ausgewiesen. Siehe dazu Geotope in Bayern. Einhundert besonders sehenswerte sind als Bayerns schönste Geotope ausgewiesen. Zusätzlich sind viele Gebiete als Fauna-Flora-Habitate und Europäisches Vogelschutzgebiet ausgewiesen. Ausdehnung und Flächennutzung. Mít 70.550,19 Quadratkilometern ist Bayern das flächenmäßig größte deutsche Bundesland und hat damit knapp 22.000 Quadratkilometer mehr Fläche als Niedersachsen. Der Freistaat entspricht etwa 19 Prozent der deutschen Staatsfläche. Bayern ist größer als die meisten Staaten Europas, etwa die Niederlande oder Irland. Das Staatsgebiet Bayerns erstreckt sich von 47° 16′ bis zu 50° 34′ nördlicher Breite und von 8° 58′ bis 13° 50′ östlicher Länge. Bayern erstreckt sich in west-östlicher Richtung über maximal 384, in nord-südlicher über 362 Kilometer. Der südlichst gelegene Ort in Bayern ist Einödsbach, der westlichste Großwelzheim, der nördlichste Weimarschmieden und der östlichste Breitenberg. Die südlichste Stelle Bayerns und ganz Deutschlands ist der Haldenwanger Eck. Die Mitteleuropäische Zeit (MEZ) ist der Ortszeit an der äußersten Westgrenze des Landes um 24 Minuten und 8 Sekunden, an der äußersten Ostgrenze um 4 Minuten und 40 Sekunden voraus. Die Landesgrenze Bayerns ist insgesamt 2705 Kilometer lang. Bayern grenzt, im Westen beginnend, im Uhrzeigersinn an Baden-Württemberg (829 Kilometer Grenzlänge), Hessen (262 Kilometer), Thüringen (381 Kilometer), Sachsen (41 Kilometer), an die tschechischen Regionen Karlsbad, Pilsen und Südböhmen (357 Kilometer), an die österreichischen Länder Oberösterreich, Salzburg, Tirol und Vorarlberg (816 Kilometer) sowie an den Schweizer Kanton St. Gallen (19 Kilometer), wobei der Grenzverlauf im Bodensee nicht festgelegt ist. Bis 1990 bildete die Grenze zu Thüringen, Sachsen und der damaligen Tschechoslowakei einen Abschnitt des Eisernen Vorhangs. Sie stellte durch die Grenzsicherungsanlagen eine physisch nahezu unüberwindbare Trennung zwischen der NATO und dem Warschauer Pakt dar. Bei Prex gab es ein Dreiländereck. Nicht zum bayerischen Staatsgebiet und daher nicht zum deutschen Bundesgebiet gehören die in Österreich gelegenen Saalforsten, die im privatrechtlichen Eigentum des Freistaates Bayern stehen. Andererseits gehört der Egerer Stadtwald, der historisch zur böhmischen Stadt Eger (tschechisch. Cheb) gehört, zum bayerischen Staatsgebiet und wird von einer Stiftung verwaltet. Etwa fünf Sechstel (84,2 Prozent) der Fläche wird land- und forstwirtschaftlich genutzt. 11,5 Prozent sind Siedlungs- und Verkehrsflächen. Klima. Das Klima geht vom Nordwesten (relativ ausgeglichen) nach Osten ins Kontinentalklima über. An etwa 100 Tagen sind die Temperaturen unter null Grad Celsius, die Westwinde bringen durchschnittlich 700 mm Niederschlag, im Nordstau der Alpen lokal bis 1800 mm pro Jahr. Die mittlere jährliche Sonnenscheindauer beträgt 1600 bis 1900 Stunden. Der wärmste Monat ist meist der Juli, kältester der Januar. Der Föhn beeinflusst das Wetter im gesamten Alpenvorland und kann stellenweise bis an die Fränkische Alb reichen. Der Norden Bayerns ist trockener und wärmer als der Süden; die Region um Würzburg weist die meisten Sonnentage Süddeutschlands auf. Der Klimawandel zeigt sich auch verstärkt in Bayern: Gletscher schmelzen und extreme Wetterlagen, wie etwa das Hochwasser in Mitteleuropa 2013, nehmen zu. Flora. Bayern wäre von Natur aus hauptsächlich von Wäldern bedeckt. Im Flach- und Hügelland würden buchendominierte Mischwälder vorherrschen, die in den Gebirgen in Bergmischwälder übergehen würden. In den höheren Gebirgslagen würden Fichtenwälder vorkommen und die Flüsse würden von ausgedehnten Auwäldern begleitet. Nur die Gewässer und die Gebirgslagen oberhalb der Waldgrenze sowie Sonderstandorte wie Hochmoore wären natürlicherweise nicht bewaldet. Durch umfangreiche Rodungen für landwirtschaftliche Flächen und Siedlungen hat der Mensch bereits aber im Mittelalter die Waldfläche in Bayern zurückgedrängt. Aktuell sind mit 2,6 Millionen Hektar 36,9 Prozent der bayerischen Landesfläche bewaldet. Damit befindet sich rund ein Viertel der deutschen Wälder in Bayern. Die Baumartenzusammensetzung der Wälder in Bayern ist stark von der forstwirtschaftlichen Nutzung geprägt. Die häufigste Baumart in Bayerns Wälder ist die Gemeine Fichte mit 41,8 Prozent Flächenanteil, gefolgt von der Waldkiefer mit 17,9 Prozent, der Rotbuche mit 13,9 Prozent und den Eichen mit 6,8 Prozent Anteilen. Besonders große Waldgebiete finden sich noch in den Mittelgebirgen in Nord- und Ostbayern, wie zum Beispiel im Spessart, im Fichtelgebirge, im Steigerwald und im Bayerischen Wald, sowie in den Bayerischen Alpen. Dagegen sind insbesondere die Gegenden mit fruchtbaren Böden im Voralpenland, im Hügelland und in den Flussniederungen von überwiegend landwirtschaftlich genutzten Offenlandschaften mit Wiesen, Äckern und nur wenigen Einzelbäumen und kleineren Wäldern geprägt. Franken weist gebietsweise für Süddeutschland einzigartige Sandlebensräume auf, die als Sandachse Franken geschützt sind. In den Flusstälern entlang von Main und Tauber wurde die Landschaft für den Weinanbau umgestaltet. Weit verbreitet sind Magerrasen, ein extensiv genutztes Grünland an besonders nährstoffarmen, „mageren“ Standorten. Besonders die Südliche Frankenalb mit dem Altmühltal ist gekennzeichnet von solchen Magerrasen. Viele dieser Gebiete sind als Schutzgebiet ausgewiesen. Fauna. In den Wäldern Bayerns leben, wie in anderen Teilen Deutschlands, nur noch relativ wenige Großtierarten. Es gibt hier unter anderem verschiedene Marderarten, Dam- und Rothirsche, Rehe sowie Wildschweine und Füchse. In naturnahen Gebieten wie dem Fichtelgebirge leben Luchse und Auerhähne, aber auch Biber und Otter verbreiten sich wieder. Vereinzelt gibt es Sichtungen von seit längerem in Mitteleuropa ausgerotteten Tieren in Bayern, beispielsweise vom Wolf. In hochalpinen Regionen leben der wieder eingebürgerte Alpensteinbock und das Murmeltier. Seltener ist die Gämse in einigen Mittelgebirgen, wie der der Fränkischen Alb, beheimatet. Der Steinadler kommt in den Bayerischen Alpen vor. Geschichte. Das bairische Stammesherzogtumim 8. Jahrhundert Teil des Römischen Reiches. Es wird von einer Stammesbildung der Bajuwaren im eigenen Land, also dem Land zwischen Donau und Alpen ausgegangen. Stammesherzogtum. Wie bereits oben erwähnt ist für das Jahr 555 n. Chr. die Existenz eines bairischen Stammesherzogtumes mit Sitz in Freising und Regensburg unter den Agilolfingern belegt, das unter den Merowingern Teil des fränkischen Herrschaftsbereichs "Austrasien" wurde. Der Sieg Karls des Großen über den Bayernherzog Tassilo III. 788 markiert das Ende des sogenannten Älteren Stammesherzogtums. Seit 788 bis zum Beginn des 10. Jahrhunderts gab es keinen baierischen Herzog. Die Karolinger regierten als bayerische Könige oder Unterkönige und setzten zur Herrschaftsausübung bisweilen Statthalter (Präfekten) ein. Der Niedergang der Karolinger ermöglichte ein Wiederaufleben der Eigenständigkeit der bayerischen Herzöge im sogenannten Jüngeren Stammesherzogtum. Nach Ende der Herrschaftsperiode der Karolinger kam es erneut dazu, dass die Eigenständigkeit der einzelnen Gebiete allmählich erstarkte. Unterstützt wurde dies durch die Bedrohung von außen durch die Ungarneinfälle ab etwa 862. Markgraf Luitpold von Bayern fiel 907 in der Schlacht von Pressburg in einer Niederlage gegen die Ungarn, jedoch wird das Datum durch den Antritt seines Sohns Arnulf I. als Herzog von Bayern gleichzeitig als Beginn des jüngeren baierischen Stammesherzogtums gesehen. Nach dem endgültigen Sieg Otto I. in der Schlacht auf dem Lechfeld gegen die Ungarn erfolgte eine zweite Welle baierischer Ostsiedlung mit Gewinn von Gebieten im heutigen Niederösterreich, Istrien und der Krain. Der Streit mit den Ottonen führte wieder zu einer starken Abhängigkeit vom deutschen Königtum. 976 wurde der Südosten Bayerns als Teil eines neu geschaffenen Herzogtums Kärnten abgetrennt. Zusätzlich regierte das Geschlecht der Babenberger in der "Marcha Orientalis" (Ostarrichi) zunehmend unabhängiger vom bayerischen Herzog. Als am 23. Januar 1002 Otto III. verstarb, erkannte Heinrich II., ein naher Verwandter des verstorbenen Kaisers und Herzog von Bayern, seine Chance selbst König des Heiligen Römischen Reiches zu werden. Der Trauerzug wollte Otto III. in Aachen, der ehemaligen Königspfalz Karls des Großen, beisetzen. Dabei kam der Zug auch durch Bayern. Heinrich II. ließ in Polling den Leichnam unter seine Kontrolle bringen und erzwang die Herausgabe aller Königsinsignien. Durch diese List und Versprechen an andere Fürsten setzte sich Heinrich II. durch. Am 1. November 1007 erreichte Heinrich II. auf der Reichssynode in Frankfurt am Main die Gründung des Bistums Bamberg. Es lag an der Grenze zu den heidnischen Slawen und sollte der Region Schutz vor slawischen Überfällen bieten. Zugleich hoffte Heinrich II. darauf mit Bamberg den christlichen Glauben zu festigen. Nach mittelalterlichem Verständnis sicherte er sich so sein Seelenheil. Heinrich II. stellte beim Papstbesuch Benedikts VIII. sein Bistum unter den Schutz des Papstes und machte es damit für die Bischöfe von Würzburg und Eichstätt, denen Heinrich mit dem Bamberger Bistum Teile ihres Herrschaftsbereiches nahm, unangreifbar. Tatsächlich sollte das Bistum Bamberg noch bis 1802 Bestand haben. Darüber hinaus hatte seit 120 Jahren kein Papst mehr sich nördlich der Alpen aufgehalten. Die Thomaskapelle in der heutigen Alten Hofhaltung wurde von Benedikt VIII. geweiht. Ein deutlicher Gunsterweis, der Heinrichs Herrschaft von Gottes Gnaden betonte. Auch der Heinrichsdom wurde in Bamberg am 6. Mai 1012 in Anwesenheit von 45 Bischöfen eingeweiht. 50 000 mit Stein beladene Ochsenfuhren waren für den Dom notwendig. Doch im Jahr 1080 brannte der Dom auf. Nur wenige Teile blieben erhalten. Der jetzige Bamberger Dom ist der dritte. Die beiden Vorgängerbauten gingen durch Brände verloren. Heinrich II. beschenkte Bamberg mit zahlreichen Ländereien und stiftete zusätzlich Klöster. Nachdem Heinrich II. am 13. Juli 1024 verstarb, verlagerte sich das Zentrum des Heiligen Römischen Reiches mit den Salier-Königen an die Region um Speyer. Ab 1070 kam es unter den Welfen zu einem Wiedererstarken der Macht der bayerischen Herzöge. Heinrich der Löwe besaß eine fast königliche Machtfülle. Da er den Staufer Friedrich I. militärisch in Italien unterstützt hatte, belehnte Friedrich den Welfen auch mit Bayern. Die Herzogtümer Sachsen und Bayern befanden sich damit in der Hand Heinrichs. Um seine eigenen Kassen durch Zoll aufzufüllen, gründete Heinrich der Löwe auch München. Durch die dort angelegte Brücke wollte er an dem Salzhandel teilhaben. Ob er allerdings in Freising die konkurrierende Brücke tatsächlich in Brand setzte, ist unter Historikern umstritten. Nicht einmal die Jahreszahl für diesen Vorfall gab der Bischof von Freising an. Es ist also gut möglich, dass er lediglich den rechtfertigenden Versuch unternahm, die Macht Heinrichs zurückzudrängen. Am Ende des 12. Jahrhunderts war München nicht größer als der Raum zwischen dem heutigen Rathaus und dem Dom. Zum Schutz vor Angriffen ließ Heinrich der Löwe die erste Stadtmauer erbauen. Am 11. November 1180 stürzte Friedrich I. Barbarossa in Erfurt auf Betreiben der Fürsten Herzog Heinrich den Löwen, den Herzog von Bayern und Sachsen. Das Herzogtum Bayern wurde durch die Abtrennung der Steiermark und der andechsischen Markgrafschaft Istrien weiter verkleinert. Friedrich I. belehnte nun den Wittelsbacher Otto I. als Herzog von Bayern. Bis 1918 werden sie sich halten können. Territorialherzogtum. Von 1180 bis 1918 wurde Bayern als Territorialherzogtum von den Wittelsbachern regiert. Es erlebte von 1255 bis 1503 eine Periode zahlreicher Teilungen in Einzelherzogtümer. In einer kurzen Zeit der Wiedervereinigung erlangte Ludwig IV. 1328 als erster Wittelsbacher die Kaiserwürde, was für Bayern einen neuen Höhepunkt der Macht bedeutete. Ludwig erhielt 1314 nach dem Tod des Luxemburgers Heinrich VII. jedoch nur die Hälfte der Reichsfürstenstimmen. Die Herrschaft Ludwigs IV. als König war damit keineswegs gefestigt. Er brauchte mächtige Verbündete, um sich gegen seinen Rivalen Friedrich von Habsburg durchsetzen zu können. Diese entscheidende Hilfe erlangte er durch die Förderung der ökonomisch starken Städte. Regensburg war zum Beispiel in der ersten Hälfte des 14. Jahrhunderts die wichtigste Stadt Bayerns und die zweitgrößte im Heiligen Römischen Reich Deutscher Nation. 40 Mal hat Ludwig die wohlhabende Handelsstadt aufgesucht. Denn Regensburg lag für den Handel besonders günstig. Die Donau stellte eine natürliche Ost-Westverbindung dar. Die Steinerne Brücke verband Norden und Süden miteinander. Darüber hinaus war sie die einzige Brücke an der Donau zwischen Ulm und Wien. Die Geschlechtertürme zeugen noch heute vom Selbstbewusstsein der aufstrebenden Patrizier. Tatsächlich beinhalteten sie nur eine Etage und waren damit hauptsächlich ein Statussymbol. Im Mittelalter wurden die Dächer der Geschlechtertürme nicht vollständig abgeschlossen, um sie jederzeit weiter aufstocken zu können. 1322 trug Regensburger Geld zum Sieg Ludwigs in der Schlacht von Mühldorf bei. Ludwigs Rivale Friedrich von Habsburg wurde zweieinhalb Jahre bei Landshut gefangen gehalten. Kurz darauf ließ Ludwig jedoch Friedrich zum Mitkönig erheben und erreichte so kurzzeitig eine Aussöhnung mit ihm feindlich gegenüber stehenden Fürsten. Eine Hauptstadt kannte das Herzogtum Bayern noch nicht. 80 000 km legte Ludwig auf den Sattel zurück. Nur durch sein persönliches Erscheinen konnte er sich vor Ort gegenüber den dortigen Fürsten durchsetzen. Wegen seiner Bemühungen, die kaiserliche Autorität auch in Italien zu stärken, geriet er in Konflikt mit Papst Johannes XXII. Um Ludwig nicht als König des Heiligen Römischen Reiches zu bezeichnen, verwendete der Papst die Bezeichnung "Bavarius" bzw. den Bayern. Ludwig konnte die Hausmacht der Wittelsbacher ganz erheblich erweitern. Doch es sollte sich zeigen, dass die für das Mittelalter doch sehr großen Entfernungen der zerstreuten Wittelsbacher-Gebiete eine effektive Verwaltung erschwerten. Im Hausvertrag von Pavia von 1329 teilte Ludwig daher den Besitz in eine pfälzische Linie mit der Rheinpfalz und der später so genannten Oberpfalz und in eine altbayerische Linie auf. Nach seinem Tod am 11. Oktober 1347 versuchten seine Söhne zunächst gemeinsam zu regieren. Jedoch gaben sie mit dem Regensburger Vertrag von 1353 diesen Plan auf. Es kam zu einer weiteren Landesteilung. Das kleinste dieser sogenannten Teilherzogtümer war Straubing-Holland. Es umfasste die Gebiete Hennegau, Seeland, Holland, Friesland und Straubing. Da die westlichen Gebiete wesentlich größer und wohlhabender waren als die niederbayerischen, regierten die Herzöge von Straubing-Holland meist in Den Haag. Um jedoch nicht das über 800 km von Den Haag entfernte Straubing an illoyale Fürsten zu verlieren, richteten die Herzöge einen Kurierdienst zwischen Straubing und Den Haag ein. Die Herzogsburg in Straubing war meist nur Verwaltungssitz des sogenannten Vitztumamtes, d. h. der Stellvertreter der abwesenden Herzöge. Der Schriftverkehr der Straubinger Kanzlei nahm in dieser Zeit beträchtlich zu. Durch Urbarbücher gelang es, akkurat die Besitzverhältnisse im Land zu protokollieren und damit die Einnahmequellen zu erweitern. Auch durch die Ausbreitung schriftlicher Gesetze (Rechtssicherheit) konnte der Herzog der Selbstjustiz und den Fehden der Adligen in seinem Territorium vorbeugen. Das trug ganz erheblich zu einer Stärkung der monarchischen Gewalt gegenüber den Fürsten bei. Durch Privilegien, etwa die Erlaubnis, eine Stadtmauer bauen zu dürfen, und den militärischen Schutz der Stadt durch die Herzöge wurden auch die Patrizier, die Händlerfamilien, in Straubing gestärkt. Denn der Boden ist hier besonders fruchtbar. Der Überschuss Getreide und Vieh wurden von den Bauern auf dem 600 m lang angelegten und sogar bereits gepflasterten Marktplatz verkauft. Was an Getreide nicht beim ersten Mal verkauft wurde, wurde in einem Lagerhaus für den späteren Verkauf gelagert, maximal eine Woche. Auch niederländische Händler brachten etwa Hering in die Stammeslande der Herzöge. Gaststätten und Unterkünfte schossen für durchreisende Händler und Pilger aus dem Boden. Der Erfolg der Stadt führte dazu, dass der um 1393 fertiggestellte und 68 Meter hohe Stadtturm nicht mehr ausreichte um die Stadt gänzlich im Überblick zu behalten. Denn der Türmer hatte von dort aus die Pflicht Feuer oder feindliche Soldaten zu melden. Nach dem Aussterben der männlichen Linie der Herzöge von Straubing-Holland erbte der eng mit ihnen verwandte Herzog von Burgund im Jahr 1433 die Provinzen Holland, Seeland, Friesland und die Grafschaft Hennegau. Schon 1429 wurde der niederbayerische Besitz von den Herzögen von Bayern-Landshut, Bayern-Ingolstadt und Bayern-München aufgeteilt. Viele andere von Ludwig IV. hinzugewonnenen Gebiete wie Brandenburg und Tirol, gingen unter seinen Nachfolgern sehr bald wieder verloren. Tirol fiel 1363 an die Habsburger und Brandenburg 1373 an die Luxemburger. Mit der Goldenen Bulle 1356, welche teilweise auch in Nürnberg entstand, ging die Kurfürstenwürde für die altbayerische Linie an die Pfalz verloren. Zum ersten Mal in der Geschichte des Heiligen Römischen Reiches wurde in diesem Dokument festgelegt, dass sieben Kurfürsten den König wählen sollten. Damit war ein Gegenkönigtum, wie es noch Ludwig IV. erlebt hatte ausgeschlossen.Der aus dem mächtigen Luxemburger Geschlecht stammende Kaiser Karl IV. erhielt so zwei Wahlstimmen (Brandenburg und Böhmen). Er verhinderte damit die Wahl eines Wittelsbachers bis in das 18. Jahrhundert hinein. Zudem musste der gewählte König seinen ersten Hoftag in Nürnberg halten. Daran erinnert an der Frauenkirche am Hauptmarkt noch heute der im 16. Jahrhundert angefertigte Männleinslauf. Die Figuren der sieben Kurfürsten umkreisen Karl IV. in der Mitte. 52 Mal hielt sich Karl IV. in Nürnberg auf und genehmigte den Abriss des Judenviertels für einen vom Stadtrat angestrebten großen Platz: dem heutigen Hauptmarkt. Eigentlich zahlten die Juden seit dem Stauferkaiser Friedrich II. an den König damit dieser ihnen militärischen Schutz gewährte. Doch Karl IV. versagte in dieser Funktion. Vom 5. bis 7. Dezember 1349 fiel die Bevölkerung über die Juden her. Viele von ihnen wurden gewaltsam erschlagen oder verbrannt. 562 Menschen starben. An Stelle der Synagoge stiftete Karl IV. die Frauenkirche. Ein eingravierter Davidstern am Boden der Frauenkirche erinnert heute noch an dieses Verbrechen. Während der Pest kam es in vielen Städten zu grausamen Judenpogromen. Hauptgrund war dabei, dass Juden im Unterschied zu der christlichen Bevölkerung nach päpstlichen Recht Zinsen nehmen durften. Das war auch notwendig. Denn auf den nur schlecht gepflasterten Wegen war man mit seiner Handelsware oft wochenlang unterwegs und Raubüberfällen ausgeliefert. Aufgrund dieses Risikos mussten die Regensburger Juden durchschnittlich 180 % des Wertes ihrer Auszahlung an die Patrizier zurückfordern. Die christlichen Händler häuften dadurch Schulden bei den Juden an. Die Pest war nun eine willkommene Gelegenheit sich durch Mord an den Juden seiner Schulden zu entledigen. 1447 fiel Bayern-Ingolstadt an Bayern-Landshut. Durch Silberminen in Tirol, Salz- und Getreidehandel begünstigt begann in Landshut die Herrschaft der drei sogenannten "Reichen Herzöge": Heinrich XVI. (1393-1450), Ludwig IX. (1450-1479) und Georg der Reiche (1479-1503). Den Höhepunkt der höfischen Festlichkeiten stellte die Landshuter Hochzeit dar. Da erst 1453 das christliche Konstantinopel an die Osmanen gefallen war, schlossen der polnische König und Ludwig IX. von Bayern-Landshut ein Heiratsabkommen, was ein gegenseitiges Bündnis bedeutete. 1475 organisierten zur Hochzeit 146 Köche des Herzogs 20000 Hühnereier, 320 Ochsen, 11500 Gänse usw. Da der Herzog den Wirten der Stadt verbot Essen und Trinken auszugeben und damit selbst alle Kosten des Festes und der Stadtversorgung trug, demonstrierte Ludwig seine wirtschaftliche Macht. 1503 fiel Bayern-Landshut im Landshuter Erbfolgekrieg an Bayern-München. Durch das Primogeniturgesetz vom 8. Juli 1506 sollten die Landesteilungen ein Ende finden. Nur dem ältesten Sohn des regierenden Herzogs solle nun die Nachfolge offen stehen. Weitere Söhne durften nur noch den Titel eines Grafen tragen und erhielten zur Abfindung jährlich 4000 Gulden. Doch diese Regelung Albrechts IV. war für ihre Zeit sehr ungewöhnlich und sollte nicht ohne Anfechtung bleiben. Nach dem Tod Albrechts IV. 1508 und dem Ende der Vormundschaft 1511 seines ältesten Sohnes Wilhelm IV. wurde dieser ganz im Sinne des Primogeniturgesetzes Herzog von Bayern. Der 1495 geborene Ludwig war der zweitälteste Sohn Albrechts und wendete wie ein, dass dieses Gesetz nach seiner Geburt in Kraft getreten war und damit für ihn ungültig sei. Durch die Unterstützung der Landstände und Kaiser Maximilians I. von Habsburg konnte er im Rattenberger Vertrages von 1514 eine gemeinsame Regierung durchsetzen. 1516 erhielt Ludwig X. ein Drittel des Herzogtums Bayerns. Während seiner Beteiligung an diplomatischen und militärischen Züge Kaiser Maximilians I. in Italien bekam er 1536 im Mantua einen Eindruck von der Palastarchitektur der Renaissance. Dies bewog ihn den Deutschen Bau seiner Landshuter Residenz mit einem italienischen Bau zu ergänzen. Die Residenz war der erste Renaissancepalast nördlich der Alpen und wurde ein wichtiges Zentrum von Gelehrten und Künstlern. In der Gegenreformation nahm Bayern eine führende Stellung ein und ging aus dem Dreißigjährigen Krieg mit Gebietsgewinnen und dem Aufstieg zum Kurfürstentum hervor: 1620 besiegten die Truppen der Katholischen Liga unter Führung des bayerischen Feldherrn Tilly in der Schlacht am Weißen Berge bei Prag die Protestanten. Anschließend ließ Tilly die Pfalz besetzen. Zum Dank erhielt Maximilian I. 1623 die Kurfürstenwürde und 1628 die von ihm besetzte Oberpfalz als Kriegsentschädigung. Während des Spanischen und Österreichischen Erbfolgekrieges und im Zuge der Großmachtpolitik Maximilians II. und seines Sohnes Karl Albrecht wurde das absolutistische Bayern vorübergehend von Österreich besetzt. 1705 erhob sich das bayerische Volk gegen die kaiserliche Besatzung. Die bayerische Volkserhebung umfasste weite Gebiete Niederbayerns, das Innviertel und das östliche Oberbayern. Ein Landesdefensionskongress tagte im Dezember 1705 im damals noch bayerischen Braunau am Inn. Erst die Schlacht von Aidenbach am 8. Januar 1706 endete mit der völligen Niederlage der Volkserhebung. Nach dem Aussterben der altbayerischen Linie der Wittelsbacher entstand 1777 das Doppel-Kurfürstentum Kurpfalz-Bayern unter der Regentschaft des Kurfürsten Karl Theodor aus der pfälzischen Linie der Wittelsbacher. Königreich. Zur Zeit Napoleons stand Bayern anfangs auf der Seite Frankreichs und konnte durch Säkularisation und Mediatisierung große Gebietsgewinne verzeichnen. So fielen Salzburg, Tirol, Vorarlberg sowie das Innviertel vorübergehend an Bayern. Im Frieden von Pressburg, der am 26. Dezember 1805 zwischen Frankreich und dem deutschen Kaiser Franz II. abgeschlossen wurde, wurde das mit Napoleon verbündete Bayern zum Königreich proklamiert. König Maximilians Minister Maximilian Graf von Montgelas gilt dabei als Schöpfer des modernen bayerischen Staates. Das neue Königreich beseitigte alle Relikte der Leibeigenschaft, die das alte Reich hinterlassen hatte. Durch das Religionsedikt von 1803 wurden alle drei christlichen Bekenntnisse gleichberechtigt – Katholiken, Reformierte und Lutheraner. 1807 wurden die ständischen Steuerprivilegien abgeschafft. 1805 wurden alle erblichen und käuflichen Ämter durch die große Dienstespragmatik abgeschafft. Das Münchner Regulativ von 1805 und das Juden-Edikt von 1813 gewährte den Israeliten im neuen Bayern erste Freiheiten. Am 27. August 1807 führte Bayern als erstes Land der Welt eine Pockenimpfung ein. 1812 wurde die bayerische Gendarmerie gegründet. Durch ein neues Strafgesetzbuch, das Anselm von Feuerbach entworfen hatte, wurde 1813 die Folter abgeschafft. Das Fürstentum Ansbach fiel 1806 durch einen von Napoleon erzwungenen Gebietstausch an das Königreich Bayern, das protestantische Fürstentum Bayreuth wurde 1810 von Napoleon an Bayern verkauft. Durch den rechtzeitigen Wechsel auf die Seite der Gegner Napoleons konnte Bayern auf dem Wiener Kongress 1814 als Siegermacht einen Teil der Gebietsgewinne behalten. Für den Verlust Tirols und der rechtsrheinischen Pfalz wurde es durch wirtschaftlich weiter entwickelte Gebiete um Würzburg und Aschaffenburg entschädigt. Die linksrheinische Pfalz blieb bei Bayern. König Ludwig I. baute die bayerische Hauptstadt München zur Kunst- und Universitätsstadt aus. Wegen einer Affäre mit der Tänzerin Lola Montez musste er 1848 im Zuge der Märzunruhen abdanken. Sein Nachfolger wurde sein Sohn Maximilian II, der 16 Jahre regierte, bevor er am 10. März 1864 starb. Noch am selben Tage wurde Maximilians Sohn Ludwig II. zum König von Bayern proklamiert. Er ging wegen des Baues von Neuschwanstein und anderer Schlösser als "Märchenkönig" in die Geschichte ein. Im Deutschen Krieg 1866 erlitt Bayern an der Seite Österreichs eine Niederlage gegen Preußen. 1871 wurde es Teil des neu gegründeten Deutschen Reiches, erhielt dabei sogenannte Reservatrechte (eigenes Post-, Eisenbahn- und Heereswesen). Frei- bzw. Freier Volksstaat und Räterepublik. Im Rahmen der Novemberrevolution wurde die Wittelsbacher Monarchie abgesetzt. In Folge rief am 8. November 1918 Kurt Eisner, Schriftsteller und Journalist, Gründungsmitglied der USPD, Bayern einen Volks- bzw. Freistaat aus, den "Freien Volksstaat Bayern". 1919 konnten sozialistische Gruppen für kurze Zeit eine Räterepublik installieren. Durch eine Volksabstimmung kam 1920 der Freistaat Coburg zu Bayern ("Siehe auch →" Landkreis Coburg). Nach der Münchner Räterepublik blieb Bayern eine Hochburg konservativer und nationalistischer Kräfte; sie wurde als „Ordnungszelle des Reiches“ bezeichnet. Am 8. und 9. November 1923, zur Zeit der Weimarer Republik, wurde Bayern Schauplatz des Hitlerputsches. Teil des Großdeutschen Reiches. In der Zeit des Nationalsozialismus (1933 bis 1945) war Bayern als Verwaltungseinheit weitgehend bedeutungslos. Im Zweiten Weltkrieg erlitten bayerische Städte wie Würzburg, München, Nürnberg oder Augsburg starke Zerstörungen (siehe Luftangriffe auf Nürnberg und Augsburg). Die Besatzungsmächte leiteten Vertriebene aus Schlesien und dem Sudetenland gezielt in das dünn besiedelte Bayern. Dadurch wuchs die Bevölkerung bis 1949 um ein Viertel. Freistaat. General Eisenhower stellte mit der Proklamation Nummer 2 vom 28. September 1945 Bayern offiziell als Staat wieder her; die Exekutive lag zwischen 1945 und 1952 in den Händen von US-amerikanischen Militärgouverneuren. Nach der Besetzung durch US-Truppen wurde Bayern Bestandteil der amerikanischen Besatzungszone, während die in der französischen Besatzungszone gelegene Rheinpfalz dem neugebildeten Land Rheinland-Pfalz eingegliedert wurde. Ab dem 30. Juni 1946 tagte in München eine "Verfassungsgebende Versammlung". Die neue Verfassung des Freistaates Bayern wurde 1946 mit großer Mehrheit durch das Volk angenommen (Näheres im Artikel Bayerische Verfassungsgeschichte). 1949 wurde Bayern als Land Teil der Bundesrepublik Deutschland. Ein langanhaltender Wirtschaftsaufschwung („Wirtschaftswunder“) trug dazu bei, dass Bayern nicht nur Agrarland blieb, sondern Heimat vieler Industriebetriebe wurde. Von 1962 bis 2008 sowie ab 2013 hatte die CSU die absolute Mehrheit in Bayern inne. Bevölkerung. Rund 16 Prozent der deutschen Bevölkerung lebt in Bayern. Mit rund 12,6 Millionen Menschen leben im Freistaat 5 Millionen weniger Menschen als im bevölkerungsreicheren Nordrhein-Westfalen und rund 2 Millionen Menschen mehr als im bevölkerungsärmeren Baden-Württemberg. Nach England und Nordrhein-Westfalen ist Bayern die drittbevölkerungsreichste subnationale Entität der Europäischen Union und einer der bevölkerungsreicheren Gliedstaaten in der Westlichen Welt. Bayern hat mehr Einwohner als die meisten mittelgroßen Staaten: Wäre Bayern ein eigenes Land, wäre es bevölkerungsmäßig der 10-bevölkerungsreichste Staat Europas. Bayerns Bevölkerung wächst kontinuierlich. Seit 1840 hat sich die Einwohnerzahl Bayerns mehr als verdreifacht. Zur Volkszählung 1970 wurden erstmals mehr als 10 Millionen Einwohner gezählt. Rund 50,92 Prozent der Bevölkerung ist weiblich. Von der Gesamtbevölkerung war etwas unter einem Fünftel zwischen 0 und 18 Jahre alt und etwas unter einem Fünftel älter als 65. 2012 gab es im Gebiet des Freistaates Bayern 107.039 Geburten, 125.448 Todesfälle, 845.228 Zuzüge und 753.642 Wegzüge; dies entspricht eines Bevölkerungszunahme von 73.177 Menschen. 2013 entsprach der Ausländeranteil 9,6 Prozent. Wie in ganz (West-)Deutschland kam es ab den 1950er Jahren vor dem Hintergrund des deutschen Wirtschaftswunders zu Zuwanderung insbesondere aus der Türkei, dem damaligen Jugoslawien und Italien und verstärkt um 1990 nach dem Ende des Kalten Krieges aus ostmitteleuropäischen und osteuropäischen Ländern. „Vier Stämme Bayerns“. Die ursprünglich ansässige und die unmittelbar nach dem Zweiten Weltkrieg zugewanderte deutschböhmische Bevölkerung Bayerns werden traditionell in „Vier Stämme“ (siehe Deutsche Stämme für die Wortherkunft) untergliedert und setzt sich zusammen aus den drei traditionell ansässigen Franken, den Schwaben und den für den Freistaat namensgebenden Altbayern sowie als viertem Stamm den Sudetendeutschen, für die Bayern die Schirmherrschaft übernahm. Unterscheidungsmerkmale der drei ursprünglich ansässigen Stämme sind etwa eigene Dialekte (bairisch, ostfränkisch, alemannisch), eigene Küchen (bayerisch, fränkisch, schwäbisch), eigene Traditionen, Trachten und teilweise Architekturstile. Es werden den einzelnen Stämmen auch unterschiedliche Mentalitäten zugeschrieben, etwa sind laut Bayerischer Staatsregierung die Altbayern weltoffen, beharrlich und musisch begabt, Franken hingegen zeichnen ein ausgeprägter „Gemeinschaftssinn, Organisationstalent, Heiterkeit und ein schnelles Auffassungsvermögen“ aus, während man Schwaben als sparsame Menschen sieht, die einen „Hang zur Untertreibung“ haben. Bei Kabinettsbildungen werden aus Proporzgründen die Ämter nach den Stämmen verteilt. Auch die drei CSU-Ministerposten des Bundeskabinetts Merkel III sind auf die drei Stämme Franken, Baiern und Schwaben verteilt. Nach 1945 gelangten über zwei Millionen Flüchtlinge und Heimatvertriebene, vor allem als Sudetendeutsche bezeichnete Deutschböhmen, Deutschmährer und Sudetenschlesier, nach Bayern. Die Sudetendeutschen wurden von Franz Josef Strauß als „vierter Stamm“ bezeichnet, wobei die deutschböhmische, -mährische und sudetenschlesische Bevölkerung aus unterschiedlichen Dialekt- und Kulturräumen des deutschen Sprachraumes innerhalb der damaligen Tschechoslowakei stammte und somit heterogen ist. Sinti und Jenische haben ebenfalls eine, staatlich bisher nicht anerkannte, lange Tradition in Bayern. Bekannt ist vor allem der lange Streit zwischen den Franken und den Altbayern um die angebliche Ungleichbehandlung der Franken durch die Baiern. Franken sei gemäß einer Organisationen in den Parteistrukturen unterrepräsentiert und bekomme weniger Steuermittel. Auch werde sich generell weniger um Belange und Probleme der fränkischen Regierungsbezirke gekümmert. Gelegentlich wird auch die Rückgabe von sogenannter "Beutekunst", Kunstwerke aus fränkischen Städten und Schatzkammern, die vom Königreich Bayern im 19. Jahrhundert konfisziert und nach München gebracht wurden, gefordert. Viele derartige Kritikpunkte gelten allerdings als gegenstandslos. So sind beispielsweise fränkische Politiker in den Strukturen großer Parteien nicht unterrepräsentiert. Auch ist die Forderung der Rückgabe von Kunstschätzen problematisch, da etwa der "Hofer Altar" in München und einige Dürer-Gemälde in der Alten Pinakothek nicht geraubt, sondern freiwillig abgegeben wurden. Religion und Weltanschauung. Bayern ist mit 52,1 % (Stand: 2014) nach dem Saarland das Bundesland mit dem höchsten römisch-katholischen Bevölkerungsanteil in Deutschland. Weiter sind 19,4 % der Bevölkerung evangelisch-lutherisch. Diese beiden Konfessionen verteilen sich ungleich über die Bezirke. So sind Altbayern und Unterfranken überwiegend katholisch, Mittelfranken und Teile Oberfrankens protestantisch geprägt. Sowohl die Markgraftümer Ansbach und Bayreuth als auch die Mehrzahl der freien Reichsstädte (wie etwa Nürnberg oder Rothenburg ob der Tauber) sind lutherisches Kernland und waren Hochburgen der Reformation. Der Anteil der Katholiken und Protestanten hat sich seit 1970 deutlich verringert. Der bayerische Staat zahlt der römisch-katholischen Kirche jährlich 65 Millionen Euro und der evangelischen Kirche 21 Millionen Euro Staatsdotationen aus dem allgemeinen Haushalt. Die katholischen Pfarreien gehören dem Bistum Würzburg und dem Bistum Eichstätt im Erzbistum Bamberg sowie dem Bistum Regensburg, dem Bistum Passau und dem Bistum Augsburg im Erzbistum München und Freising an. Die Evangelisch-Lutherische Kirche in Bayern ist eine Gliedkirche der Evangelischen Kirche in Deutschland und gliedert sich in sechs Kirchenkreise Ansbach-Würzburg, Augsburg, Bayreuth, München, Nürnberg und Regensburg. Jüdische Gemeinden gab es bis zum 19. Jahrhundert vor allem in ländlichen Gebieten Frankens und Schwabens sowie den freien Reichsstädten wie etwa in Nürnberg (Ansiedlungsverbot 1499 bis 1850) und Regensburg. Im wittelsbachischen Altbayern gab es so gut wie keine Juden, seit der Judenemanzipation aber zunehmend in bayerischen Städten. Von fast 200 jüdischen Gemeinden vor dem Holocaust existieren in Bayern noch oder wieder 13 Gemeinden. Von wachsender Bedeutung ist insbesondere in Großstädten der Islam. Viele Moscheegemeinden versuchen, ihre bisherigen Hinterhofmoscheen durch repräsentative Neubauten zu ersetzen. Eine Studie des Bundesministeriums des Innern (BMI) beziffert den Anteil der Muslime an der bayerischen Gesamtbevölkerung im Jahr 2008 auf ungefähr 4 Prozent (etwa 13 Prozent der in Deutschland wohnhaften Muslime). Wie in vielen Gegenden in Deutschland wächst der Anteil konfessionell ungebundener Einwohner in Bayern. So gibt es einen Humanistischen Verband Bayern, Landesverband im Humanistischen Verbands Deutschlands. Dieser versteht sich als Weltanschauungsgemeinschaft und Interessenvertretung nichtreligiöser Menschen. Der Verband, der im März 2007 eine Zahl von 1.800 Mitgliedern ausgewiesen hatte, ist in Bayern unter anderem Träger des Humanistischen Lebenskundeunterrichts, er betreibt seit 2008 eine Grundschule in freier Trägerschaft sowie über ein Dutzend Kindertagesstätten. Er unterhält ferner ein eigenes Sozialwerk und den Turm der Sinne in Nürnberg. Besonders in Ballungszentren gibt es kleinere buddhistische, alevitische, bahaiistische und hinduistische Gemeinden, Königreichssäle der Zeugen Jehovas und Kirchen kleinerer christlicher Kirchen wie den Siebenten-Tags-Adventisten. Zuflucht gefunden etwa in München hat die fast ausgestorbene Religionsgemeinschaft der mandäischen Gemeinde. Aufgrund des Konflikts mit dem deutschen Staat wegen der Schulpflicht gerieten die Zwölf Stämme bei Nördlingen negativ in die Schlagzeilen. Bevölkerungsreichste Städte. Größte Stadt und einzige Millionenstadt sowie einzige Weltstadt des Freistaates Bayern ist die Landeshauptstadt München mit rund 1,4 Millionen Einwohnern. Sie ist deutschlandweit die drittgrößte Stadt und die zwölftgrößte Stadt der Europäischen Union. Sie ist die größte Stadt Deutschlands, die kein Stadtstaat ist. Zudem ist München mit rund 4.800 Einwohnern je Quadratkilometer (Mai 2015) die am dichtesten bevölkerte Gemeinde Deutschlands sowie mit dessen höchstgelegene Großstadt. Nürnberg ist mit seinen rund 500.000 Einwohnern die bayernweit zweitgrößte Stadt und belegt deutschlandweit den 14. Platz. Augsburg belegt den deutschlandweit 23. Platz. In Bayern gibt es insgesamt acht Großstädte. Jüngste Großstadt (mindestens 100.000 Einwohner) Bayerns ist Ingolstadt. Nürnberg bildet zusammen mit Erlangen, Fürth und Schwabach ein ausgeprägtes Städteband. Metropolregionen in Bayern stellen die Metropolregion München, die Metropolregion Nürnberg und das Rhein-Main-Gebiet dar. Sprache und Dialekt. Amts- und Verkehrssprache ist Deutsch. Zahlreiche weitere Sprachen werden von jenen gesprochen, die aus anderen Sprachregionen kommen bzw. den entsprechenden Migrationshintergrund haben. In Bayern dominieren Dialekte der oberdeutschen Dialektfamilie. Daneben werden räumlich eng begrenzt mitteldeutsche Mundarten gesprochen. "Mitteldeutsche Dialekte:" "Oberdeutsche Dialekte:" Zwischen diesen Mundarträumen bestehen nicht zu unterschätzende Übergangsgebiete, die sich nicht ohne Bruch einem dieser Gebiete zuordnen lassen. Es existieren bairisch-fränkische (etwa Nürnberg und Umgebung), bairisch-schwäbische (unter anderem Lechrain) und schwäbisch-fränkische (Gebiet um Dinkelsbühl und Hesselberggebiet) Übergangsgebiete, in manchen Orten sogar bairisch-schwäbisch-fränkische Mischdialekte (zum Beispiel Treuchtlingen, Eichstätt). Die Dialekte sind bei den Einheimischen, besonders außerhalb der großen Städte, sehr verbreitet, wobei in Ballungsgebieten wie München ein Aussterben der Dialekte zu beobachten ist. Lexikographisch erfasst werden die bairischen Dialekte durch das Bayerische Wörterbuch, die schwäbischen durch das Schwäbische Wörterbuch und die ostfränkischen durch das Ostfränkische Wörterbuch, wozu noch zahlreiche Wörterbücher über Orts- und Regionalmundarten kommen. Areallinguistisch werden die Dialekte Bayerns vom Sprachatlas von Bayerisch-Schwaben, dem Sprachatlas von Mittelfranken, dem Sprachatlas von Niederbayern, dem Sprachatlas von Nordostbayern, dem Sprachatlas von Oberbayern und dem Sprachatlas von Unterfranken aufgearbeitet. Zahlreiche weitere deutsche und nichtdeutsche Dialekte werden von jenen gesprochen, die aus anderen Dialekt- oder Sprachregionen kommen. Staatsaufbau. Grundlage der Politik in Bayern ist die durch Volksabstimmung am 1. Dezember 1946 angenommene Verfassung des Freistaates Bayern. Die Verfassung trat am 2. Dezember 1946 in Kraft. Bayern ist demnach Freistaat (Republik) und Volksstaat (Demokratie). Seit dem 1. Januar 2000 existiert nach der Abschaffung des Senats ein parlamentarisches Einkammersystem. Die gesetzgebende Gewalt liegt beim Bayerischen Landtag, dessen Abgeordnete alle fünf Jahre (bis 1998: alle vier Jahre) gewählt werden. Bis Ende 1999 existierte mit dem Senat eine zweite Kammer, mit der Vertreter sozialer und wirtschaftlicher Interessenverbände ein politisches Gegengewicht zum Landtag schaffen sollten. In einem Volksentscheid wurde am 8. Februar 1998 die Abschaffung dieser Kammer beschlossen. Bis dahin war Bayern das einzige deutsche Land mit einer zweiten Kammer. Sie hatte jedoch nur bedingten Einfluss, weil sie keine Gesetze einbringen durfte, sondern nur das Recht der Mitwirkung besaß. Die Staatsregierung wird vom Bayerischen Ministerpräsidenten geführt. Er leitet die Geschäfte, bestimmt die Richtlinien der Politik, vertritt Bayern nach außen und ernennt die Staatsminister und -sekretäre. Das oberste bayerische Gericht ist der Bayerische Verfassungsgerichtshof. Des Weiteren gibt es diverse obere Landesgerichte, darunter drei Oberlandesgerichte in München, Nürnberg und Bamberg, den Bayerischen Verwaltungsgerichtshof, zwei Landesarbeitsgerichte (München und Nürnberg), das Bayerische Landessozialgericht sowie die restliche Judikative. Das Bayerische Oberste Landesgericht als oberstes bayerisches Gericht der ordentlichen Gerichtsbarkeit wurde mit Wirkung zum 1. Juli 2006 aufgelöst. Außer vom Landtag können in Bayern Gesetze und Verfassungsänderungen durch Volksbegehren und Volksentscheid beschlossen werden. Zwingend notwendig ist ein Volksentscheid bei jeder Änderung der Bayerischen Verfassung. Exekutive – Bayerische Staatsregierung. Die Staatsregierung ist die oberste Behörde des Freistaates Bayern. Der vom Landtag gewählte Ministerpräsident beruft und entlässt die Staatsminister und die Staatssekretäre mit Zustimmung des Landtags. Er weist den Staatsministern einen Geschäftsbereich oder eine Sonderaufgabe zu, den diese nach dem Ressortprinzip und den vom Ministerpräsidenten bestimmten Richtlinien der Politik (Richtlinienkompetenz) eigenverantwortlich verwalten. Die Staatssekretäre sind gegenüber ihren Staatsministern weisungsgebunden. Die Bayerische Staatskanzlei unterstützt den Ministerpräsidenten und die Staatsregierung in ihren verfassungsmäßigen Aufgaben. Die verfassungsrechtliche Höchstgrenze der 18 Mitglieder im Kabinett der Staatsregierung wird meist voll ausgeschöpft. Wahlrecht. Im Vergleich zu Wahlen auf Bundesebene weist das bayerische Wahlrecht mehrere Besonderheiten auf: Direktkandidaten, die in ihrem Wahlbezirk (Stimmkreis) die Wahl gewonnen haben, können nur in den Landtag einziehen, wenn auch ihre Partei die Hürde von fünf Prozent erreicht hat. Darüber hinaus ergibt sich die Sitzverteilung im Landtag aus der Summe der Erst- und Zweitstimmen. In anderen Bundesländern und bei Bundestagswahlen entscheidet die Erststimme über die Wahl des Direktkandidaten im Wahlbezirk und allein die Zweitstimme bestimmt die Zahl der Sitze im Parlament, was üblicherweise dazu führt, dass Erststimmen häufiger den großen Parteien mit aussichtsreichen Direktkandidaten gegeben werden. Wer bei einer bayerischen Landtagswahl eine kleinere Partei mit beiden Stimmen wählt, verschenkt seine Erststimme also nicht, da beide Stimmen dieser Partei zugutekommen, selbst wenn der entsprechende Stimmkreiskandidat den Einzug in den Landtag nicht schaffen sollte. Zudem besteht bei der Zweitstimme die Möglichkeit diese einem bestimmten Kandidaten einer Partei zu geben, sodass sich die Reihung der Bewerber gegenüber den von den Parteien aufgestellten Listen ändern kann. Eine weitere Besonderheit findet sich im Kommunalwahlrecht. Es besteht die Möglichkeit des Kumulierens („Häufeln“, bis zu drei Stimmen können für einen Kandidaten abgegeben werden) und des Panaschierens (Stimmen können auf Kandidaten verschiedener Listen verteilt werden). Direkte Demokratie. In Bayern gibt es zahlreiche direktdemokratische Elemente. Neben Volksbegehren und Volksentscheid auf Landesebene wurde am 1. Oktober 1995 durch einen Volksentscheid die direkte Demokratie auf Kommunalebene eingeführt. Das bayerische Verfassungsgericht hat die Regelungen 1997 zwar verschärft (unter anderem durch Einführung eines Abstimmungsquorums), dennoch initiieren die Bayern jährlich rund 100 Bürgerentscheide. Parteienlandschaft. Die Parteienlandschaft des Freistaat Bayerns als Teil Deutschlands hebt sich von der des Bundes oder der der anderen Bundesländer ab. Bayern ist das einzige Bundesland, in der die CDU mit keinem eigenen Landesverband vertreten ist und nicht bei Wahlen teilnimmt. Stattdessen überlässt sie der CSU als Schwesterpartei den Vortritt. Ungewöhnlich für ein deutsches Flächenland ist, dass die CSU seit 1957 ununterbrochen den Ministerpräsidenten, meist in Verbindung mit der absoluten Mehrheit im Landtag, stellt. Die SPD weist in Bayern den geringsten Zulauf aller SPD-Landesverbände auf. Sie bildet die größte Oppositionspartei mit zwischen einem Fünftel und einem Drittel der Stimmen bei Landtagswahlen. Die bayerischen Grünen ziehen mit etwas unter zehn Prozent der Stimmen ins Parlament ein. Im Gegensatz zu anderen Bundesländern oder zur Bundesebene ziehen in Bayern die Freien Wähler regelmäßig ins Parlament ein, während Die Linke, die Piratenpartei und die FDP politisch kaum eine Rolle spielen und nur selten bzw. noch nie in den Landtag einzogen. In Bayern sind mehrere Regionalparteien aktiv. Die Bayernpartei setzt sich für die Möglichkeit einer Volksabstimmung über den Austritt Bayerns aus dem deutschen Staatsverband ein. Während sie in der 1950er und 1960er Jahren in den Landtag und Bundestag einzogen und sie sich von 1962 bis 1966 an der Staatsregierung beteiligten, verlor die Partei nach ihrem Ausscheiden aus dem Landtag an Bedeutung. 2009 gründete sich in Bamberg die Partei für Franken, eine regionale Kleinpartei, die sich unter anderem für eine bessere wirtschaftliche Gleichstellung Frankens innerhalb des Freistaats Bayerns einsetzt. Patenschaft. Am 5. Juni 1954 übernahmen der Freistaat Bayern und die Bayerische Staatsregierung unter Hans Ehard die Patenschaft für die sudetendeutsche Volksgruppe, die nach der Vertreibung der Deutschen aus der Tschechoslowakei in die Bundesrepublik zogen. Staatsverschuldung. Die Staatsverschuldung des Freistaates Bayern entwickelte sich wie auf Bundesebene und in anderen Bundesländern langfristig nach oben. Seit 2011 werden jährlich Schulden getilgt. 1992 lagen die Schulden noch bei rund 15 Milliarden, 2010 wurde ein Höchststand von 29 Milliarden erreicht. 2013 waren es 26 Milliarden Euro Schulden. Die Staatsregierung möchte mittelfristig bis 2030 alle Schulden tilgen. Innere Sicherheit. Die bayerische Polizei ist der zweitgrößte Polizeiverband der Bundesrepublik. Im Jahr 2007 wurden in Bayern 666.807 Straftaten statistisch erfasst. 428.766 Fälle (64,3 Prozent) konnten aufgeklärt, 305.711 Tatverdächtige ermittelt werden. Dies stellt die höchste Aufklärungsquote im Bundesgebiet dar. Die bayerische Polizei unterhält mit der Polizeihubschrauberstaffel Bayern außerdem die größte Polizeihubschrauberstaffel einer Landespolizei. Hoheitliche Symbole. Das bayerische Staatswappen besteht aus sechs heraldischen Komponenten: Der goldene Löwe, ursprünglich mit der wittelsbachischen Pfalz am Rhein verbunden, steht für die Oberpfalz, der „fränkische Rechen“ für die drei fränkischen Bezirke, der blaue Panther für die Altbayern und die drei schwarzen Löwen für Schwaben. Das weiß-blaue Herzschild deutet den Gesamtstaat Bayern an, die Volkskrone bezeichnet nach dem Wegfall der Königskrone die Volkssouveränität. Das kleine Staatswappen zeigt die bayerischen Rauten und die Volkskrone. Als Wappenzeichen fungieren die bayerischen Rauten und der fränkische Rechen. Der Freistaat Bayern besitzt zwei gleichgestellte Staatsflaggen, die weiß-blau gerautete Flagge und die Flagge mit horizontalen Streifen in den Farben Weiß und Blau. Die Rautenflagge hat immer vom Betrachter aus gesehen links oben (heraldisch rechte, obere Ecke) eine angeschnittene, weiße Raute (auch im Wappen) und mindestens 21 (angeschnittene) Rauten. Die gleichen weiß-blauen Rauten sind in vielen Städte- und Kreiswappen in den Gebieten der historischen Kurpfalz zu finden, da die Wittelsbacher auch in der Pfalz begütet waren. Ein Flaggenstreit besteht um die "Frankenfahne". Landeshymne ist das "Bayernlied". Die Melodie stammt von Konrad Max Kunz aus dem Jahr 1860. Der Text der ursprünglichen drei Strophen stammt von Michael Öchsner. Seit 1964 wird das Bayernlied offiziell bei feierlich gestalteten staatlichen Veranstaltungen gespielt und seit 1966 offiziell „Hymne“ genannt. Als inoffizielle Hymne Frankens zählt das Frankenlied, das bei offiziellen Anlässen nach dem Deutschlandlied und der Bayernhymne gesungen wird. Die Bavaria (der latinisierte Ausdruck für Bayern) ist die weibliche Symbolgestalt und weltliche Patronin Bayerns und tritt als personifizierte Allegorie für das Staatsgebilde Bayern in verschiedenen Formen und Ausprägungen auf. Sie stellt damit das säkulare Gegenstück zu Maria als religiöser Patrona Bavariae dar. Der Bayerische Löwe ist Symbolfigur des Freistaats Bayern, unter anderem auf Denkmälern und Auszeichnungen. Regierungsbezirke und Bezirke. Das Staatsgebiet des Freistaates Bayern ist für den Bereich der allgemeinen und inneren Verwaltung in Verwaltungssprengel eingeteilt, welche die Bezeichnung Regierungsbezirke (laut Verfassung "Kreise") führen. Die Regierungsbezirke werden durch die Regierungen geleitet, denen je ein Regierungspräsident vorsteht, der vom Innenminister ernannt wird. Die Regierungen sind die Mittelbehörden der allgemeinen und inneren Verwaltung und unterstehen dem Staatsministerium des Inneren. Nachstehend sind die Regierungsbezirke sortiert nach dem Amtlichen Gemeindeschlüssel (AGS) und mit den Abkürzungen des Bayerischen Staatsministeriums des Innern. Geographisch deckungsgleich mit den Regierungsbezirken sind in Bayern die "Bezirke" gleichen Namens. Anders als die Regierungsbezirke, welche die örtliche Zuständigkeit der Regierungen festlegen, sind die Bezirke kommunale Gebietskörperschaften des öffentlichen Rechts. Der Bezirk ist in Bayern die dritte kommunale Ebene über den Gemeinden (erste Ebene) und Landkreisen (zweite Ebene). Sie sind Selbstverwaltungskörperschaften und haben daher demokratisch gewählte Verwaltungsorgane, den Bezirkstag, der alle fünf Jahre von den Wahlberechtigten des Bezirks direkt gewählt wird und einen Bezirkstagspräsidenten, der aus der Mitte des Bezirkstags gewählt wird. Sie können anders als die Regierungsbezirke Wappen und Flaggen wie eine Gemeinde oder ein Landkreis führen. ! AGS Planungsregionen. In Bayern gibt es 18 Planungsregionen. Sie sind regionale Planungsräume, in denen nach dem Bayerischen Landesentwicklungsprogramm ausgewogene Lebens- und Wirtschaftsbeziehungen erhalten oder entwickelt werden sollen. Hierzu wird für jede Region ein Regionalplan aufgestellt. Die Region Donau-Iller ist die erste länderübergreifende Planungsregion Deutschlands. Landkreise und kreisfreie Städte. Die sieben Regierungsbezirke unterteilen sich in 71 Landkreise und 25 kreisfreie Städte. Die Landkreise und die kreisfreien Städte sind kommunale Gebietskörperschaften mit Selbstverwaltungsrecht. Die Landkreise haben als Verwaltungsorgane den Kreistag und den Landrat. Die kreisfreie Stadt handelt durch den Stadtrat und den Oberbürgermeister. Sowohl der Landrat beziehungsweise der Oberbürgermeister als auch der Kreistag beziehungsweise der Stadtrat werden von den Wahlberechtigten auf die Dauer von sechs Jahren gewählt (süddeutsche Ratsverfassung). Die Landkreise bilden gleichzeitig Sprengel, welche die örtliche Zuständigkeit der Unterbehörden der allgemeinen und inneren Verwaltung festlegen. Anders als auf der Ebene der Regierungsbezirke hat der Staat hier jedoch keine eigenen inneren Behörden errichtet, sondern bedient sich durch Organleihe des Landrates zur Erfüllung der Aufgaben der staatlichen Verwaltung; der Landrat ist insoweit Kreisverwaltungsbehörde. Bei den kreisfreien Städten ist im Gegensatz dazu eine Vollkommunalisierung gegeben, da ihnen die Aufgaben der unteren staatlichen Verwaltungsbehörde zur selbstständigen Erledigung übertragen werden. Flächengrößter Landkreis Bayerns ist der Landkreis Ansbach (Mittelfranken). Der Landkreis München (Oberbayern) ist mit rund 330.000 Einwohnern der einwohnerstärkste Landkreis des Freistaates. Schwabach (Mittelfranken) ist Bayerns kleinste kreisfreie Stadt. Gemeinden. Der Freistaat Bayern besteht aus 2056 politisch selbständigen Gemeinden sowie 201 gemeindefreien Gebieten, meist Seen und Forste (Stand: 1. Januar 2009). Von den 2031 kreisangehörigen Gemeinden sind 987 Mitgliedsgemeinden in 313 Verwaltungsgemeinschaften, 1044 sind Einheitsgemeinden (Stand: 1. Januar 2009). Die Gemeinden verteilen sich (Stand: 1. Januar 2009) auf 25 kreisfreie Städte, 28 Große Kreisstädte, 262 sonstige Städte, 386 Märkte und 1355 sonstige Gemeinden. Zusätzlich sind 13 Orte zu leistungsfähigen kreisangehörigen Gemeinden ernannt worden, die bestimmte Aufgaben der Bauaufsicht übernehmen. Während kreisfreie Städte die gleichen Aufgaben wie Landkreise übernehmen, haben Große Kreisstädte nur einige Aufgaben, die über die einer „normalen“ kreisangehörigen Gemeinde hinausgehen. Obwohl das Marktrecht heute keine rechtliche Bedeutung hat, können größere kreisangehörige Gemeinden auf deren Antrag auch heute noch von der Bayerischen Staatsregierung offiziell zum „Markt“ erklärt werden. Der Begriff „Marktgemeinde“ ist in Bayern keine offizielle Bezeichnung für eine Kommune. Es kommt dort aber vor, dass der Begriff „Markt“ offizieller Bestandteil des Gemeindenamens ist, zum Beispiel Markt Berolzheim oder Markt Einersheim. Flächengrößte und einwohnerstärkste Kommune Bayerns ist München, flächenkleinste Kommune ist Buckenhof im Landkreis Erlangen-Höchstadt, einwohnerärmste Kommune ist Chiemsee im Landkreis Rosenheim. Unterhaching ist die einwohnerstärkste Gemeinde Bayerns ohne eigenes Markt- oder Stadtrecht. Wirtschaft und Verkehr. a> ist eines der höchsten Gebäude im Freistaat Bayern Die Gunvorraffinerie (ehem. Petroplus, Esso) in Ingolstadt Bayern gilt als sehr wirtschaftsstarker und reicher Staat, er hat sich in den letzten Jahrzehnten vom Agrar- zum Technologiestandort entwickelt. Das Bruttoinlandsprodukt betrug 2014 522 Milliarden Euro; das Bruttoinlandsprodukt pro Kopf betrug 2014 39.691 Euro, der Anteil Bayerns an der deutschen Wirtschaftsleistung betrug 18,0 Prozent. Die wirtschaftlich stärkste Region ist der Großraum München mit Automobilindustrie (BMW, Audi, MAN, Knorr-Bremse), IT-Sektor (Siemens, Nokia Solutions and Networks, Infineon, Microsoft), Medien und Verlagen (ProSiebenSat.1 Media, Kabel Deutschland, Burda Verlag), Rüstungsindustrie (EADS, Krauss-Maffei), Touristik (Museen, Oktoberfest, Kongressen, Messen). Weitere bedeutende Wirtschaftsstandorte in Südbayern sind Augsburg (EADS, Fujitsu Technology Solutions, MAN, KUKA, UPM-Kymmene, Verlagsgruppe Weltbild), Ingolstadt (Audi, Media-Saturn-Holding) und das Bayerische Chemiedreieck zwischen Chiemsee, Inn und Salzach. In Nordbayern ist die Metropolregion Nürnberg–Fürth–Erlangen (Siemens, Uvex, Ergo Direkt, Solar Millennium, Playmobil) ein wichtiger Standort. Daneben kann der Raum zwischen Aschaffenburg und Würzburg/Schweinfurt sehr gute Wirtschaftsdaten aufweisen, etwa eine Arbeitslosigkeit von durchschnittlich unter sechs Prozent und eine florierende Wirtschaft. Gleiches gilt für Regensburg (Continental Automotive, Maschinenfabrik Reinhausen, BMW, Siemens, Infineon, Osram Opto Semiconductors), das seit Jahren an Wirtschaftskraft zunimmt. Manche Grenzregionen sind durch Wettbewerbsvorteile in den Nachbarstaaten einesteils und mangelnde Infrastruktur andernteils von Subventionen abhängig. Speziell der Bayerische Wald hatte zu Zeiten des Kalten Krieges durch seine abseitige Lage im Zonenrandgebiet wenig Standortattraktivität besessen. Zwar fiel nach 1990 dort der Eiserne Vorhang zur CSFR, gleichzeitig wurde im wiedervereinigten Deutschland die Zonenrandförderung aufgehoben, und zugleich bot das angrenzende Tschechien – ab 2004 EU-Mitglied – oft bessere Investitionsanreize. Bayern konnte im Jahr 2006 ein Wirtschaftswachstum von 4,0 Prozent verbuchen. Dieser Wert entsprach 2006 etwa dem Bundesdurchschnitt. Nach zwischenzeitlichem Rückgang des Wachstums 2008 (+0,8 Prozent) und dem Fall in die Rezession im Jahr 2009 (−2,4 Prozent) infolge der weltweiten Finanzkrise erholte sich die Bayerische Wirtschaft wieder und konnte bereits 2010 wieder ein Wirtschaftswachstum von 5,5 Prozent verzeichnen. Im Jahr 2011 erreichte es 6,6 Prozent, 2012: 2,6 Prozent, 2013: 2,7 Prozent und 2014 stieg das Wachstum auf 3,5 Prozent. Im Vergleich mit dem Bruttoinlandsprodukt der Europäischen Union, ausgedrückt in Kaufkraftstandards, erreichte Bayern 2011 einen Index von 141 (Oberbayern: 168; EU-28: 100; Deutschland: 123; Hamburg: 202). Die Arbeitslosenquote betrug; damit hat Bayern die niedrigste Arbeitslosenquote in Deutschland. Die höchste Arbeitslosenquote Bayerns hat Nürnberg. Bayern musste immer wieder Werkschließungen und die Verlagerung von Arbeitsplätzen hinnehmen. Mitte der 1980er Jahre begann der Niedergang des Büromaschinenherstellers Triumph-Adler; 2003 löste sich die Grundig-AG auf. Der ehemals weltgrößte Versandhaus-Konzern Quelle GmbH ging im Juni 2009 in Insolvenz und wurde ab Oktober des Jahres aufgelöst. Wichtige Messen befinden sich in Augsburg, München und Nürnberg. Tourismus. Eine der bekanntesten Touristenattraktionen Bayerns ist Rothenburg ob der Tauber. Der Tourismus gilt aufgrund seines hohen Beitrags zur bayerischen Wirtschaft als „Leitökonomie“. So betrug der Bruttoumsatz der Tourismuswirtschaft 2005 fast 24 Milliarden Euro, die Tagesreisen stellten mit 63 Prozent den größten Anteil davon. Die Beherbergungsindustrie spielt in Bayern mit 13.400 Beherbergungsbetrieben mit mindestens neun Betten und 548.000 Gästebetten eine große Rolle. Das bedeutet, dass sich etwa jeder vierte deutsche Beherbergungsbetrieb in Bayern befindet. Nach Mecklenburg-Vorpommern war Bayern im Jahre 2014 das zweitbeliebteste innerdeutsche Urlaubsziel (gemessen an Reisen ab fünf Tagen Dauer). Touristisch sind neben München besonders die Regionen um die bayerischen Seen und in den Alpen, die kulturhistorisch bedeutende Stadt Augsburg mit der Fuggerei, Stadtmauer, Renaissancebauten, sowie Regensburg mit der Historischen Altstadt als UNESCO-Welterbe seit 2007 stark. Energie. Die 380 kV-Leitung Etzenricht-Hradec überquert die Staatsgrenze zwischen Deutschland und Tschechien. Der Mast im Vordergrund steht in Bayern, der im Hintergrund in Tschechien. In Bayern sind im Jahr 2013 ungefähr 420 Energieversorger angesiedelt, die in einem oder mehreren Bereichen tätig sind: Circa 350 dieser Versorger engagieren sich in der Stromversorgung, ungefähr 100 wirtschaften im Bereich der Wärme- und Kälteversorgung, etwa 140 befassen sich mit der Erdgas-Sparte. Die Kernenergie bildet mit 48,7 Prozent den größten Anteil an der Nettostromerzeugung. Auf dem zweiten Platz folgen erneuerbare Energien mit 29,2 Prozent. Beide Anteile sind damit im Vergleich zum bundesweiten Durchschnitt (18 bzw. 21 Prozent) überdurchschnittlich groß. Konventionelle Gase tragen mit 15,5 Prozent zur Nettostromerzeugung bei – dieser Anteil liegt nahezu im Bundesdurchschnitt (14 Prozent). Die Stromerzeugung aus Kohlekraftwerken ist relativ unbedeutend, ihr Anteil beträgt 4,1 Prozent (Bundesweiter Durchschnitt von Braun- und Steinkohle insgesamt 42 Prozent). Einen noch geringeren Anteil besitzen mineralische Öle mit 2,6 Prozent, die bundesweit im Schnitt seltener genutzt werden (Heizöl, Pumpspeicher und andere hier insgesamt 5 Prozent) (Stand: jeweils 2011). An drei Standorten in Bayern befinden sich Kernkraftwerke (KKW Isar, KKW Grafenrheinfeld sowie KKW Gundremmingen), außerdem wird in Garching bei München ein Forschungsreaktor betrieben (FRM II). Eine Studie des Deutschen Instituts für Wirtschaftsforschung (DIW) stellte 2015 fest, dass der Atomausstieg die Versorgungssicherheit in Bayern und Deutschland nicht gefährdet. Der hohe Anteil erneuerbarer Energien an der Nettostromerzeugung fußt vor allem auf einem bedeutenden Anteil der Wasserkraft: Ihr Anteil an der Stromerzeugung aus erneuerbaren Energien liegt bei 42,1 Prozent. Zweitwichtigster regenerativer Energielieferant ist die Photovoltaik mit 28,4 Prozent am Gesamtanteil der erneuerbaren Energien – dieser Anteil konnte stark wachsen. Ähnlich wichtig ist die Stromerzeugung aus Biomasse mit 26,4 Prozent. Unbedeutend ist die Nutzung der Windenergie – der Beitrag beläuft sich auf 3,1 Prozent (Stand: jeweils 2011). Im Bundesländervergleich „Erneuerbare Energien“ belegte Bayern im Jahr 2012 den zweiten Platz nach Brandenburg. Bis 2021 sollen erneuerbare Energien dem Bayerischen Energiekonzept (2011) zufolge einen Anteil von 20 Prozent am Endenergieverbrauch und 50 Prozent am Stromverbrauch erreichen. Die bayerische Staatsregierung verhindert mit zuletzt im April 2014 verschärften restriktiven Abstandsregelungen den Ausbau von Windkraft. Der Primärenergieverbrauch im Land ist recht konstant und lag im Jahr 2010 bei 578,2 Mrd. kWh, nach 556,8 Mrd. kWh im Jahr 2009 und 566,6 Mrd. kWh im Jahr 2008. Dies kann einer steigenden Energieproduktivität zugeschrieben werden, also einer verbesserten wirtschaftlichen Produktivität im Verhältnis zur eingesetzten Energie. Diese ist seit 1995, das als Basisjahr angelegt wird, fast durchgehend gestiegen. Die Jahre 2008 und 2009 fallen hinter den Bestwert im Jahr 2007 zurück. Die größten Energieverbraucher im Jahr 2010 waren die Privathaushalte, die 29 Prozent des Endenergieverbrauches ausmachten. Die Bereiche Industrie und Verkehr benötigten gleichermaßen 28 Prozent der Endenergie und damit nur geringfügig weniger als die Haushalte. Etwas abgeschlagen war der Bereich Gewerbe, Handel, Dienstleistungen mit insgesamt 15 Prozent am Endenergieverbrauch. Medien. Bayern ist Sitz mehrerer bedeutender Medienunternehmen, insbesondere in der Landeshauptstadt München. Dort, beziehungsweise im Umland von München, befinden sich etwa öffentlich-rechtliche Medien wie der Bayerische Rundfunk und die Programmdirektion des ARD-Gemeinschaftsprogramms Das Erste und des ZDF-Landesstudios Bayern sowie private Fernseh- und Hörfunkanbieter wie ProSiebenSat.1 Media, Sport1 oder Sky Deutschland. Des Weiteren sind in München etwa 250 ansässige Verlage und große Zeitungen wie etwa die Süddeutsche Zeitung (SZ) angesiedelt Nürnberg bildet einen der größten Verlagsstandorte Deutschland; dort werden beispielsweise das bundesweit erscheinende Sportmagazin Kicker des Nürnberger Olympia-Verlags und die Nürnberger Nachrichten, eine der größten deutschen Regionalzeitungen mit einer Auflage von rund 300.000 Exemplaren, herausgegeben. Im Jahr 2012 bewarb sich Bayern im Rahmen des Bewerbungsverfahrens für neue generische Top Level Domains (gTLD) um die eigene Top Level Domain ".bayern". Verantwortlich dafür ist die "Bayern Connect GmbH". Am 29. September 2014 erhielt das Unternehmen die gTLD ".bayern" zugesprochen. Verkehr. Karte der Flughäfen und Landeplätze in Bayern Internationaler Verkehr. Im internationalen Straßen- und Bahnverkehr sind die Verbindungen von Deutschland nach Österreich und darüber hinaus nach Italien und Südosteuropa von überragender Bedeutung. Hingegen sind die Verkehrsverbindungen ins benachbarte Tschechien bei weitem nicht von vergleichbarer Relevanz, lediglich die Bundesautobahn 6 wurde nach der politischen Wende in der Tschechischen Republik verwirklicht. Insbesondere die Bahnverbindungen in die Tschechische Republik sind bis heute nicht sehr leistungsfähig. Eine Elektrifizierung wurde bisher auf keiner nach Tschechien führenden Verbindung umgesetzt. Vor dem Zweiten Weltkrieg befand sich in der tschechoslowakischen Stadt Cheb "(Eger)" ein Bahnknotenpunkt, der mittels Korridorverbindungen im deutschen Binnenverkehr genutzt wurde. Seit seinem Bestehen unterstand er bis zum Ende des Zweiten Weltkrieges bayerischen beziehungsweise deutschen Bahnverwaltungen. Zu Zeiten des Kalten Krieges besaß die Verbindung von Nürnberg über Cheb nach Prag eine vergleichsweise wichtige Bedeutung. Heute besteht von Nürnberg aus nur noch eine Umsteigeverbindung mit Regionalzügen nach Cheb und nach Furth im Wald, während von München aus mit dem Alex eine Direktverbindung über Regensburg (Richtungswechsel), Schwandorf (erneuter Richtungswechsel) und Furth im Wald nach Prag besteht. Für die Zukunft wird im Rahmen des Projektes Donau-Moldau-Bahn eine Umgehungskurve um Schwandorf und eine Elektrifizierung der Verbindung geplant. Hierdurch soll ein Richtungswechsel wegfallen und die Reisezeit verkürzt werden. Für den Fernverkehr von Nürnberg nach Prag bietet die Deutsche Bahn Fernbusse an. Straßen. Bayern ist straßenverkehrsmäßig gut erschlossen. Durch Bayern führen unter anderem die Autobahnen A 3, 6, 7, 8, 9 und 70 sowie die seit dem Herbst 2005 fertiggestellte A 71 und die im August 2008 fertiggestellte A 73, die beide Bayern mit Thüringen verbinden. Sternförmig von München aus führen die A 95 nach Garmisch-Partenkirchen, die A 96 über Memmingen nach Lindau, die A 93 über Regensburg nach Hof, die A 92 über Landshut nach Deggendorf und die A 94 in Abschnitten nach Passau. Südlich verbindet ein Stück der A 93 die A 8 mit der Brenner Autobahn. Seit den 1970er Jahren geplant, bisher wegen Streitigkeiten um die Trassenführung nur in Abschnitten fertiggestellt ist die A 94 von München über Altötting nach Passau. Im Süden wird Bayern überdies gerne als Abkürzung im "innerösterreichischen" Verkehr benutzt, da aufgrund der geographischen Gegebenheiten der Weg durch die Alpen bei weitem länger ist als von Innsbruck über die A 8 oder von Lofer über die B 21 oder B 305 nach Salzburg („Großes“ bzw. „Kleines Deutsches Eck“). Schienen-, Flug- und Schiffsverkehr. Flughafen München mit Terminal 1, Terminal 2 und München Airport Center Bayern verfügt über ein dichtes Streckennetz im Eisenbahnverkehr mit zahlreichen Bahnhöfen. Der Münchener Hauptbahnhof – einer der größten in Deutschland – stellt dabei einen wichtigen Knotenpunkt im transeuropäischen Verkehr dar. Die Städte München und Nürnberg verfügen über U- und S-Bahnen mit einem weiten Einzugsgebiet. Eines der größten europäischen Drehkreuze für den Flugverkehr ist der Flughafen München „Franz Josef Strauß“. Zwei weitere internationale Verkehrsflughäfen befinden sich in Nürnberg und Memmingen, überdies gibt es zahlreiche Verkehrslandeplätze. Die meisten Binnenschifffahrten finden auf der Donau, dem Main sowie auf dem Main-Donau-Kanal statt. Hierfür gibt es zahlreiche Güterhäfen. Theater, Schauspiel und Oper. Bayern verfügt über vier Staatstheater. Die Bayerische Staatsoper im Nationaltheater München gilt als das national und international renommierteste Haus in Bayern. Des Weiteren spielen in München das Bayerische Staatsschauspiel, das Residenztheater München, das Bayerische Staatsballett und das Staatstheater am Gärtnerplatz. Als letzte große Neugründung eines Staatstheaters ging 2005 aus den Städtischen Bühnen Nürnberg das Staatstheater Nürnberg hervor. 17 Theater werden von bayerischen Kommunen getragen. Mehrspartenhäuser sind hierbei die Theater in Augsburg, Regensburg, Würzburg und Coburg. Vorwiegend oder ausschließlich Sprechtheater bieten das E.T.A.-Hoffmann-Theater in Bamberg, Das Theater Erlangen, das Stadttheater Fürth und das Stadttheater Ingolstadt sowie in der bayerischen Landeshauptstadt die Münchner Kammerspiele und das Münchner Volkstheater. Die vier Landesbühnen sind in Memmingen, Straubing, Coburg und Dinkelsbühl beheimatet. Theater für Kinder und Jugendliche bieten neben den Kinder- und Jugendsparten der kommunal geförderten Häuser unter anderem die Schauburg in München oder das Theater Pfütze und das Theater Mummpitz in Nürnberg an. Internationale Bekanntheit erlangte die Augsburger Puppenkiste durch ihre Fernsehproduktionen, das Figurentheater bietet jedoch auch ein Programm für Erwachsene an. Des Weiteren gibt es eine Vielzahl an freien und privaten Theatern sowie Volks- und Bauerntheatergruppen. Die von Richard Wagner gegründeten Bayreuther Festspiele sind ein international bedeutendes Festival. Jährlich finden in wechselnden Städten die Bayerischen Theatertage statt. Musik. Bayern wird traditionell als die Heimat der Volksmusik, der Jodler und Schuhplattler angesehen. Aus Bayern stammen bekannte Komponisten wie Max Reger, Carl Orff, Wilfried Hiller, Richard Strauss und Christoph Willibald Gluck. Die Regensburger Domspatzen, die Augsburger Domsingknaben, der Tölzer Knabenchor und der Windsbacher Knabenchor sind weltweit bekannte Chöre. Zu den bekanntesten in Bayern beheimateten klassischen Orchestern zählen die Münchner Philharmoniker, das Symphonieorchester des Bayerischen Rundfunks, die Bamberger Symphoniker, das Bayerische Staatsorchester am Nationaltheater, die Bayerische Kammerphilharmonie in Augsburg, die Münchner Symphoniker, das Münchener Kammerorchester, das Georgische Kammerorchester in Ingolstadt, die Nürnberger Philharmoniker am Staatstheater Nürnberg, die Nürnberger Symphoniker und die Hofer Symphoniker. Unter den Musikfestspielen herausragend sind die Bayreuther Festspiele und die Münchner Opernfestspiele. Ein weiteres Highlight in der Musikszene sind die Thurn-und-Taxis-Schlossfestspiele, die in Regensburg seit mehreren Jahren unter dem Protektorat von Gloria von Thurn und Taxis gegeben werden. In den letzten Jahren stieg die Zahl der Besucher stetig an. Ebenfalls beachtenswert ist der Münchner Kaiserball sowie der Nürnberger Opernball. Film. Bayern ist zusammen mit seiner Landeshauptstadt München, dem Bayerischen Rundfunk sowie der Spitzenorganisation der Filmwirtschaft Gesellschafter der "Internationalen Münchner Filmwochen GmbH", die sowohl das alljährliche Filmfest München als auch das Internationale Festival der Filmhochschulen München organisieren. Universitäten und Hochschulen. In Bayern existieren neun staatliche Universitäten des Freistaates, sowie die Universität der Bundeswehr München. Bis 1962 existierten lediglich vier Universitäten in München (LMU, TU), Würzburg und Erlangen (ab 1966 Erlangen-Nürnberg). Zwischen 1962 und 1975 wurden in Regensburg, Augsburg, Bamberg, Bayreuth und Passau fünf weitere durch den Freistaat gegründet. Hinzu kam 1973 noch die neu gegründete Bundeswehruniversität. Daneben gibt es 18 staatliche Fachhochschulen in Bayern, die zwischen 1971 und 1996 gegründet wurden. Darüber hinaus existiert mit der 1980 gegründeten Katholischen Universität Eichstätt-Ingolstadt eine kirchliche Universität, sowie vier weitere private bzw. kirchliche Hochschulen und 10 Kunsthochschulen. Volksfeste. Volksfeste und Kirchweihen sind in Bayern weit verbreitet. Anfänglich gedachte man damit der Kirchenweihe. Vielerorts gibt es viele Kirchweih-Traditionen, wie etwa das Aufstellen eines Kirchweihbaumes. In größeren Städten wird meist anstatt einer Kirchweih ein Volksfest begangen. Das größte Volksfest der Welt ist das Münchner Oktoberfest "(Wiesn)" mit 6,3 Millionen Besuchern im Jahr 2014. Weitere große Volksfeste in Bayern sind das Gäubodenvolksfest in Straubing, das Nürnberger Volksfest, das Regensburger Dult, die Fürther Michaeliskirchweih, Fürth und die Erlanger Bergkirchweih. Kleidung. "Siehe:" Bayerische Tracht Industriekultur. Mit der Maxhütte (Sulzbach-Rosenberg) verfügt Bayern über eines der bedeutendsten Industriedenkmale Europas. Die technik- und architekturhistorisch einmalige Anlage wird trotz bestehenden Denkmalschutzes teilweise demontiert. Aktuell wird versucht, das Industriedenkmal vor einem endgültigen Abriss zu bewahren. Sehenswürdigkeiten. Bayern kann auf eine über 1000 Jahre alte Kultur- und Geistesgeschichte zurückblicken. Laut Artikel 3 der Verfassung des Freistaates Bayern ist Bayern ein Kulturstaat. Der Freistaat Bayern fördert in seinem Haushalt 2003 Kunst und Kultur mit jährlich über 500 Millionen Euro, zusätzlich kommen erhebliche Leistungen der bayerischen Kommunen und privater Träger hinzu. Die ersten Steinbauten in Bayern entstanden in der Römerzeit. Beispielsweise wurde in Weißenburg eine römische Therme ausgegraben. Zeugnisse aus dem Frühmittelalter gibt es nur wenige. Ein Beispiel ist jedoch die Krypta des Bamberger Doms aus der Zeit Heinrichs II. Im Hochmittelalter wurden Würzburg und Regensburg zu wohlhabenden Handelsstädten. In Regensburg entstanden wie in Italien mächtige Geschlechtertürme. Der Regensburger Dom ist ein Hauptwerk der gotischen Architektur in Süddeutschland. Da die Steinerne Brücke lange Zeit die einzige Brücke zwischen Ulm und Wien an der Donau war, führte sie den Handel hierher. Zu den historischen Stadtkernen gehören neben den großen Städten auch Rothenburg ob der Tauber, Dinkelsbühl, Straubing und Nördlingen. Die Stadt Landshut ist für die Martinskirche, den größten Backsteinturm der Welt sowie für die Stadtresidenz mit ihren Renaissancemalereien bekannt. In Augsburg errichteten die Fugger die Fuggerei, die älteste Sozialsiedlung der Welt. Das Rathaus der Stadt gilt als das Paradestück dieser Zeit. Zu den Sehenswürdigkeiten in München gehören das Siegestor und die Antikensammlungen. Unter Ludwig II. entstanden Schloss Neuschwanstein, Schloss Linderhof und Herrenchiemsee. Das Reichsparteitagsgelände aus der Zeit der Nationalsozialisten kann noch heute besichtigt werden. UNESCO-Welterbe. Zum Welterbe der UNESCO innerhalb Bayerns gehört unter anderem seit 1981 die Würzburger Residenz, ein Schlossbau des süddeutschen Barocks, samt Hofgarten und angrenzendem Residenzplatz. Die bemerkenswert prächtig ausgestattete Wieskirche bei Steingaden wurde 1983 zum Welterbe erklärt. 1993 wurde die Altstadt von Bamberg zum Weltkulturerbe erklärt. Seit dem 15. Juli 2005 gehört der Obergermanisch-Raetische Limes, mit insgesamt 550 Kilometern Länge das längste Bodendenkmal Europas, zum Welterbe. Teil des Welterbes sind mehrere zum Limes gehörende Bauten wie die Thermen in Weißenburg. 2006 wurde die Altstadt von Regensburg mit Altem Rathaus, Dom und Steinerner Brücke aufgenommen, 2012 folgte das Markgräfliche Opernhaus in Bayreuth. Zu den Prähistorische Pfahlbauten um die Alpen (Welterbe seit 2011) gehören mehrere in Bayern gelegene urgeschichtlichen Siedlungen. Zum Weltdokumentenerbe der UNESCO gehören seit 2003 die Bamberger Apokalypse, einer Handschrift des Klosters Reichenau, sowie seit 2013 das Lorscher Arzneibuch. Beide Schriften werden in der Staatsbibliothek Bamberg aufbewahrt. In der Bayerischen Staatsbibliothek in München liegen das 2003 aufgenommene Perikopenbuch Heinrichs II., das 2009 aufgenommene Hohenems-Münchener Handschrift A, das 2003 aufgenommene Evangeliar aus dem Bamberger Dom, das 2003 aufgenommene Evangeliar Ottos III. und das 2005 aufgenommene Bibliotheca Corviniana. Eine Goldene Bulle (aufgenommen 2013) lagert im Bayerischen Hauptstaatsarchiv, eine weitere im Staatsarchiv Nürnberg. Museen. Der Schriftzug „Eigenthum der deutschen Nation“ über dem Haupteingang des Germanischen Nationalmuseums Bayern ist mit rund 1150 Museen das museumsreichste Bundesland Deutschlands und einem der museumsreichsten Regionen des Kontinents. Zur vielfältigen Museumslandschaft zählen Sammlungen, Schlösser, Gärten und private Sammlungen. Zu den größten und bekanntesten gehören das Germanische Nationalmuseum in Nürnberg und das Bayerische Nationalmuseum in München. Größtes naturwissenschaftlich-technisches Museum der Welt ist das Deutsche Museum. Zu den größten und bedeutendsten ihrer Art gehören das seit 1976 bestehende Fränkische Freilandmuseum in Bad Windsheim und das seit 1990 bestehende Fränkische Freilandmuseum in Fladungen. Einen wesentlichen Teil des Gemälde- und Kunstbesitzes des Freistaates Bayern betreuen die Bayerischen Staatsgemäldesammlungen. Bibliotheken und Archive. Größte Bibliothek des Freistaates ist die Bayerische Staatsbibliothek in München. Sie ist die zentrale Landesbibliothek Bayerns und eine der bedeutendsten europäischen Forschungs- und Universalbibliotheken mit internationalem Rang. Mit 10,22 Millionen Medieneinheiten ist sie die drittgrößte Bibliothek Deutschlands und besitzt eine der größten Sammlungen im deutschsprachigen Raum. Größte Universitätsbibliothek ist die Münchner Universitätsbibliothek der Ludwig-Maximilians-Universität. Größte öffentliche Bibliothek ist die Münchner Stadtbibliothek. Größte Bibliothek Bayerns außerhalb Münchens ist die Bibliothek der Friedrich-Alexander-Universität Erlangen-Nürnberg. Um die Versorgung mit wissenschaftlicher Literatur in allen Regionen zu gewährleisten, existieren zehn staatliche Regionalbibliotheken, die größte ist die Staatsbibliothek Bamberg. Das Bayerische Hauptstaatsarchiv in München ist das größte bayerische Staatsarchiv und aufgrund der langen staatlichen Existenz Bayerns auch eines der bedeutendsten Archive in Europa. Daneben gibt es noch zahlreiche andere Staatsarchive. Ballsportarten. Zu den beliebtesten Sportarten gehört der Fußball. Der Bayerische Fußball-Verband zählt rund 1,5 Millionen Mitglieder und ist damit der mitgliederstärkste Verband des Deutschen Fußball-Bunds. International bekannt ist der FC Bayern München, er ist Rekordmeister der Fußball-Bundesliga, der er seit 1965 angehört, und darüber hinaus mehrfacher Gewinner von internationalen Fußballwettbewerben wie der UEFA Champions League. Ebenfalls in der höchsten deutschen Spielklasse spielt seit 2011 der FC Augsburg und seit dem Aufstieg 2015 der FC Ingolstadt 04. Zwei langjährige Erstligisten aus Bayern sind in der 2. Fußball-Bundesliga aktiv: Die SpVgg Greuther Fürth, der TSV 1860 München und der 1. FC Nürnberg. In der 3. Fußball-Liga ist nach dem Abstieg der SpVgg Unterhaching und dem SSV Jahn Regensburg im Jahr 2015 und dem Aufstieg der Würzburger Kickers nur noch ein Verein in der Saison 2015/2016 vertreten. Im Volleyball sind der mehrmalige deutsche Meister des Frauen-Vereins Roten Raben Vilsbiburg und die Herren-Abteilung von Generali Haching spielen in der obersten Volleyball-Bundesliga aktiv. Die Basketballmannschaft der Brose Baskets aus Bamberg ist die beste bayerische Herrenmannschaft. Neben mehreren Vizemeistertiteln wurden sie 2005, 2007, 2010, 2011, 2012, 2013 und 2015 Deutscher Meister und Pokalsieger 2010, 2011 und 2012. Im Damen-Basketball konnte die in der 1. Bundesliga spielende Mannschaft des TSV Wasserburg in den Jahren 2004 bis 2007 den Deutschen Meistertitel erringen und wurde zudem 2005–2007 Deutscher Pokalsieger. Die Handballabteilung des TV Großwallstadt aus dem Landkreis Miltenberg spielte lange Jahre in der 1. Handball-Bundesliga. Bekannt, wenn auch ebenso nicht mehr erstklassig, sind die Münchener Vereine TSV Milbertshofen und MTSV Schwabing. In der Saison 2011/2012 spielt der HC Erlangen in der 2. Handball-Bundesliga. Im Damenhandball ist der 1. FC Nürnberg das erfolgreichste bayerische Team. In der jüngeren Vergangenheit wurden sie 2005, 2007 und 2008 Deutscher Meister und stießen 2007/2008 bis in die Hauptrunde der EHF Champions League vor. Jedes Jahr findet in München ein großes Tennisturnier statt, das von BMW gesponsert wird: Die BMW Open. Sie gelten als Eingangstor für spätere Karrieren. Namhafte Tennisspieler der ganzen Welt reisen dorthin, um wichtige ATP-Punkte mitzunehmen. Weibliche Tennisspielerinnen nehmen an den WTA-Wettkämpfen teil. Bekannte Repräsentanten des bayrischen Tennis sind Philipp Kohlschreiber aus Augsburg und David Prinosil aus Amberg. Bayern steht mit 163 Golfplätzen deutschlandweit an der Spitze, Oberbayern hat gemeinsam mit der Metropolregion Hamburg die größte Golfplatzdichte. Es sind 110.000 aktive Golfer registriert. Im Baseball haben sich in den vergangenen Jahren immer mehr Mannschaften hervorgebracht, die erfolgreich in der 1. und 2. Baseball-Bundesliga spielen. Dazu zählt unter anderem der Deutsche Meister der Saison 2008, 2010 und 2011 aus Regensburg, die Regensburg Legionäre. Zu den weiteren erfolgreichen bayerischen Teams gehören die Gauting Indians, die Ingolstadt Schanzer und die Haar Disciples. Auf Landesverbandsebene gehören unter anderem die Augsburg Gators, die Erlangen White Sox, die Fürth Pirates, die Deggendorf Dragons und die Garching Atomics zu den bayerischen Vereinen. Mit rund 60 angemeldeten Vereinen ist der BBSV, der Bayerische Baseball und Softball Verband, einer der größten in Deutschland. Korbball wird vor allem in Franken gespielt. Wichtige Zentren sind Schweinfurt, Aschaffenburg und Coburg. Wintersport. Schattenbergschanze in Oberstdorf beim Auftaktspringen zur Vierschanzentournee am 30. Dezember 2006 Speziell im alpinen Raum hat der Wintersport eine traditionell große Bedeutung. Günstige Bedingungen für Ski-Rennlauf finden sich in den Bayerischen Alpen. Die herausragenden Vertreter dieser Sportart sind Mirl Buchner, Heidi Biebl, Rosi Mittermaier, Marina Kiehl, Christa Kinshofer, Martina Ertl-Renz, Hilde Gerg, Maria Höfl-Riesch, Franz Pfnür und Markus Wasmeier. Aus dem Biathlon-Bundesleistungszentrum in Ruhpolding gingen zahlreiche Gewinner internationaler Wettbewerbe hervor, die bekanntesten unter ihnen sind Fritz Fischer, Michael Greis, Uschi Disl, Martina Glagow und Magdalena Neuner. Im Langlauf erreichten Tobias Angerer und Evi Sachenbacher-Stehle bedeutende Resultate. In Bayern gibt es fünf Eishockey-Vereine in der Deutschen Eishockey Liga; die Augsburger Panther, der ERC Ingolstadt, die Nürnberg Ice Tigers, der EHC Red Bull München und die Straubing Tigers. In der 2. Bundesliga spielen die Starbulls Rosenheim sowie der ESV Kaufbeuren und der SC Riessersee. Weitere, besonders durch ihre Nachwuchsarbeit bekannte Vereine sind die Tölzer Löwen, der TEV Miesbach sowie der EV Füssen. Vor allem im Gebiet des Oberallgäuer Orts Oberstdorf und in Garmisch-Partenkirchen finden zahlreiche Sportveranstaltungen statt, etwa der Auftakt der Vierschanzentournee oder der Zugspitz-Extremberglauf. In Garmisch fanden die Olympischen Winterspiele 1936 statt. Auch zahlreiche Welt- und Europameisterschaften, etwa im Bereich Rennrodeln, Eiskunstlauf, Curling oder Skiflug, fanden dort statt. Weitere Sportarten. Nicht zuletzt durch den Dokumentarfilm "Am Limit" wurden im Bereich des Bergklettern die Sportkletterer Thomas und Alexander Huber einem größeren Publikum ein Begriff. Auch früher waren Bayern unter den weltbesten Gipfelstürmern, unter anderen Johann Grill, Josef Enzensperger, Otto Herzog, Anderl Heckmair oder Toni Schmid. In Bayern haben sich einige Brauchtumssportarten wie Fingerhakeln und Eisstockschießen erhalten, die in organisierten Ligen betrieben werden. Das Sautrogrennen gehört zu den bayerischen Brauchtumssportarten. Besondere Beliebtheit erfreut sich diese Sportart im Süden Bayerns an den Flüssen Donau, Iller, Isar und Lech. In Franken wird anlässlich von Volksfesten in den meist noch vorhandenen örtlichen Dorf- bzw. Löschwasserteichen diesem Sport gehuldigt. Unter größter Belustigung der Zuschauer werden ernste regionale Meisterschaften bestritten. Im Bereich des Motorsports gibt es die alljährliche Tourenwagenrennen zur DTM auf dem Norisring in Nürnberg-Dutzendteich. Speedwayrennen gibt es in Landshut, Pocking, Abensberg und Olching, sowie Sandbahnrennen in Mühldorf am Inn, Pfarrkirchen, Vilshofen, Dingolfing und Plattling. In Inzell gibt es internationale Eisspeedwayrennen. Sportschießen wird in den Disziplinen Gewehr, Pistole, Bogen, Wurfscheibe, Laufende Scheibe und Armbrust im gesamten Land ausgeübt. Die Sportschützen stellen mit dem Bayerischen Sportschützenbund (BSSB) den viertgrößten Sportfachverband im Land. Viele bayerische Teilnehmer bei Olympischen Spielen konnten bereits Erfolge erzielen. Im Tanzsport spielen die Latein- und die Standardformation des RGC Nürnberg tanzen in der zweiten Bundesliga. Im Einzeltanzbereich gibt es sehr viele erfolgreiche Tänzer und Tänzerinnen. Viele Turnvereine haben in Bayern eine lange Tradition. Das Landesleistungszentrum war in Nürnberg, wurde aber mit dem Bundesleistungszentrum in Frankfurt am Main zusammengelegt. Zentren sind Augsburg, Würzburg, Schweinfurt, Nürnberg, Landshut, Passau und Rosenheim. Bayerische Turnerinnen belegten in den 1920er Jahren oftmals weltweit Spitzenplätze. Seit 2000 gibt es für Kinder eine „Bayerische Kinderturnolympiade“. Austragungsort war vier Mal Neumarkt in der Oberpfalz, im Jahre 2000, 2004, 2008 und 2012. 2012 fand in Neumarkt zudem die 31. Turnerjugend-Festspiele im Rahmen der Kinderturnolympiade statt. Im Jahre 2016 wird die nächste Kinderturnolympiade ausgetragen. Baden-Württemberg. Baden-Württemberg oder (Abkürzung "BW") ist eine parlamentarische Republik und ein Land im Südwesten der Bundesrepublik Deutschland. Es wurde 1952 durch die Fusion der Länder Württemberg-Baden, Baden und Württemberg-Hohenzollern gegründet. Landeshauptstadt ist Stuttgart. Sowohl nach Einwohnerzahl als auch nach Fläche steht Baden-Württemberg im Größenvergleich an dritter Stelle der deutschen Länder. Geographie. Im Süden grenzt Baden-Württemberg mit dem Klettgau und dem Hotzenwald an den Hochrhein, im Hegau und Linzgau an den Bodensee und im Westen mit dem Breisgau und dem Markgräflerland an den Oberrhein. Im Norden zieht sich die Landesgrenze über Odenwald und Tauberland, im Osten über Frankenhöhe und Ries, entlang von Donau und Iller sowie durch das westliche Allgäu. Benachbarte deutsche Länder sind im Osten und Nordosten Bayern, im Norden Hessen und im Nordwesten Rheinland-Pfalz. Im Westen grenzt Baden-Württemberg an die französische Region Elsass. Die Schweizer Grenze im Süden wird von den Kantonen Basel-Stadt, Basel-Landschaft, Aargau, Zürich, Schaffhausen und Thurgau gebildet. Der Kanton St. Gallen ist nur über den Bodensee verbunden. Über den Bodensee ist Baden-Württemberg außerdem mit dem österreichischen Bundesland Vorarlberg verbunden. Mit diesem teilt es – weil dort ebenfalls alemannischer Dialekt gesprochen wird – den manchmal umgangssprachlich verwendeten Beinamen „Ländle“ respektive Alemannisch „Ländli“. Der geographische Mittelpunkt von Baden-Württemberg in einem Stadtwäldchen namens "Elysium" im Stadtgebiet von Tübingen. Der geographische Mittelpunkt Baden-Württembergs bei wird von einem Denkmal in einem Waldstück auf der Gemarkung von Tübingen markiert. Es handelt sich dabei um den Schwerpunkt der Landesfläche. Im Gegensatz dazu wurde die Mitte von Baden-Württemberg aus den Extremwerten (nördlichster, südlichster, östlichster und westlichster Landpunkt) ermittelt. Das Mittel aus der geographischen Breite des nördlichsten und südlichsten Punktes und das Mittel aus der geographischen Länge des östlichsten und westlichsten Punktes im Bezugssystem WGS84 errechnet sich zu. Diese vier Extremkoordinaten Baden-Württembergs sind: im Norden in der Stadt Wertheim, im Süden in der Gemeinde Grenzach-Wyhlen, im Westen in der Gemeinde Efringen-Kirchen und im Osten in der Gemeinde Dischingen.Die Mitte von Baden-Württemberg befindet sich somit 14,3 km nördlich vom Tübinger Schwerpunkt in Böblingen in einem kleinen Waldstück, dem Hörnleswald, an der Tübinger Straße von Böblingen nach Holzgerlingen. Er ist mit einem Granitstein vermarkt. Die höchste Erhebung des Landes ist der Feldberg im Schwarzwald mit. Tiefster Punkt ist der Rheinpegel bei Mannheim mit. Klima. Baden-Württemberg liegt in einem Übergangsgebiet zwischen Seeklima im Westen und Kontinentalklima im Osten. Das bewirkt, dass abwechselnd ozeanische und kontinentale Klimaeinflüsse wirksam werden. Aufgrund der vorherrschenden Westwinde überwiegen die ozeanischen Klimaeinflüsse, wobei diese in den östlichen Landesteilen abnehmen. Die Vielgestaltigkeit der Oberflächenformen, also das Nebeneinander hoher Bergländer und abgeschirmter Beckenräume, führt zu deutlichen klimatischen Unterschieden schon auf kurzen Entfernungen. Temperaturen. Durch die südliche Lage ist Baden-Württemberg gegenüber anderen Bundesländern hinsichtlich der Temperaturen begünstigt. Das Oberrheinische Tiefland weist Jahresmitteltemperaturen von 10 °C auf und gehört damit zu den wärmsten Gebieten Deutschlands. Klimatisch begünstigt sind auch der Kraichgau, das Neckartal nördlich von Stuttgart, das Bodenseegebiet, das Hochrheingebiet und das Taubertal. Mit der Höhe sinkt die Durchschnittstemperatur, und der Südschwarzwald ist mit durchschnittlich 4 °C eines der kältesten Gebiete Deutschlands. Eine Ausnahme von dieser Regel ist die im Winter vorkommende Inversionswetterlage, bei der höhere Lagen wärmer sind als tiefer gelegene, weil bei windstillem Hochdruckwetter die von den Höhen abfließende Kaltluft sich in Beckenräumen sammelt. Extreme Kältewerte lassen sich deshalb in der Baar beobachten. Hier kann es im Winter zu Temperaturen von unter −30 °C kommen. Für die Landwirtschaft wichtig ist die Länge der Vegetationsperiode, gemessen in frostfreien Tagen. Im Landesdurchschnitt sind dies 170, in Gunsträumen wie dem Oberrheinischen Tiefland, dem zentralen Neckarbecken und dem Bodensee über 200 frostfreie Tage. Dagegen weisen die Höhenlagen des Hochschwarzwalds, der Baar und einige winterkalte Talräume der Alb nur 120 frostfreie Tage auf. Niederschlag. Die mit dem Westwind herantransportierten Luftmassen stauen sich vor allem an Schwarzwald und Odenwald, daneben auch an der Schwäbischen Alb, den höheren Lagen der Keuperwaldberge und den Voralpen. Deshalb fällt auf der Luvseite reichlich Niederschlag (über 1000 mm pro Jahr, im Südschwarzwald stellenweise über 2000 mm). Auf der Leeseite im Regenschatten fällt wesentlich weniger Niederschlag. Hier gibt es ausgeprägte Trockengebiete: Im nördlichen Oberrheinischen Tiefland, der Freiburger Bucht (Leeseite der Vogesen) und dem Taubergrund fallen etwa 600 mm, im mittleren Neckarraum und der Donauniederung bei Ulm etwa 700 mm pro Jahr. Folgen der globalen Erwärmung. Im Auftrag der baden-württembergischen Landesregierung wurden seit Ende der 1990er Jahre mehrere Studien zu den regionalen Folgen der globalen Erwärmung durchgeführt. Laut einer Zusammenfassung dieser Ergebnisse aus dem Jahr 2012 stieg die Jahresdurchschnittstemperatur in Baden-Württemberg im Zeitraum 1906–2005 um 1,0 °C an (weltweit 0,7 °C), von durchschnittlich 8 °C auf 9 °C. Der größte Anstieg erfolgte dabei in den letzten 30 Jahren. Die Anzahl der Höchstniederschläge im Winter und die Zahl der Hochwasserereignisse haben in diesem Zeitraum um 35 % zugenommen, die Anzahl der Tage mit Schneedecke in tiefer gelegenen Regionen haben um 30–40 % abgenommen. Von 1953 bis 2009 nahm die Anzahl der Eistage (Höchsttemperatur unter 0 °C) in Stuttgart von 25 auf 15 ab, die Anzahl der Sommertage (Höchsttemperatur mindestens 25 °C) dagegen erhöhte sich von 25 auf 45 (vgl. auch Hitzewelle 2003). Die Wahrscheinlichkeit einer ausgeprägt trockenen Vegetationsperiode im Sommer hat sich seit 1985 versechsfacht. Klimamodelle prognostizieren eine Weiterführung dieser Trends. In Folge wurde im Juli 2013 ein Klimaschutzgesetz für Baden-Württemberg verabschiedet. Gewässer. Aufgrund der bergigen Topographie spielten und spielen die Flüsse und ihre Täler eine erhebliche Rolle für Besiedlung, Verkehrswesen und Geschichte des Landes. Neben dem Rhein sind an erster Stelle Neckar und Donau zu nennen. Der Neckar entspringt am Rande des Schwarzwaldes bei Villingen-Schwenningen und durchfließt das Zentrum des Landes, bis er im Nordwesten in Mannheim in den Rhein mündet. Der dortige Rheinpegel ist mit der niedrigste Punkt des Landes. Der Rhein bildet fast komplett die westliche Landesgrenze, mit Ausnahme der linksrheinischen, baden-württembergischen Kollerinsel bei Brühl und des rechtsrheinischen, rheinland-pfälzischen Teils der Insel Elisabethenwörth und des Brückenkopfs bei Germersheim. Auch den größten Teil der südlichen Landesgrenze bildet der Rhein, mit Ausnahme der linksrheinischen, baden-württembergischen Altstadt von Konstanz und der rechtsrheinischen schweizerischen Gebiete bei Stein am Rhein, Dörflingen, Schaffhausen, Neuhausen am Rheinfall, Rüdlingen, Buchberg, Eglisau sowie Teilen von Basel. Die Donau entsteht aus den zwei Quellflüssen Brigach und Breg im Schwarzwald und fließt etwa ostnordöstlich, wobei sie die Schwäbische Alb nach Süden und Oberschwaben nach Norden begrenzt und hinter Ulm nach Bayern fließt. Unter den übrigen Flüssen sind die längsten die Zwillingsflüsse Kocher und Jagst, die den Nordosten des Landes durchfließen und in den Neckar münden. Ganz im Nordosten fließt die Tauber. Hier grenzt das Landesgebiet an den Main. Vorgeschichte. Das Gebiet des heutigen Baden-Württemberg war nachweislich bereits vor mindestens einer halben Million Jahren von Vertretern der Gattung "Homo" besiedelt. Der bei Mauer gefundene Unterkiefer von Mauer und der bei Steinheim an der Murr entdeckte "Homo steinheimensis", die heute beide zur Hominini-Art "Homo heidelbergensis" eingeordnet werden, zählen mit einem Alter von rund 500.000 beziehungsweise 250.000 Jahren zu den ältesten Funden der Gattung "Homo" in Europa überhaupt. Bedeutende paläolithische Nachweise kulturellen Lebens in Baden-Württemberg reichen circa 35.000 bis 40.000 Jahre zurück. So alt sind die Funde der ältesten bekannten Musikinstrumente der Menschheit (eine Elfenbeinflöte, ausgegraben 1979 im Geißenklösterle) und Kunstwerke (Löwenmensch), die in Höhlen der Schwäbischen Alb entdeckt wurden, vor allem in denen des Lonetals. Vor allem aus dem Neolithikum finden sich zahlreiche Belege von Siedlungen und Bestattungen von der frühesten Zeit an, die ab der Bandkeramik auf die unterschiedlichsten Kulturkomplexe zurückgehen und eine ununterbrochene Linie bis zum Beginn der Bronzezeit und bis zur Eisenzeit repräsentieren. Bei Kleinkems in Südbaden befindet sich das älteste deutsche Jaspisbergwerk aus der Jungsteinzeit. In der Hallstattzeit besiedelten die Kelten große Teile des Landes. Dies ist durch die zahlreichen Hügelgräber belegt, deren bekanntestes das Grab des Keltenfürsten von Hochdorf ist, und durch hallstattzeitliche Siedlungen wie der Heuneburg oder dem Münsterhügel von Breisach. Antike. Seit Caesars Gallischem Krieg 55 v. Chr. bildete der Rhein im Norden die Ostgrenze des römischen Reiches. Um 15 v. Chr. überschritten die Römer unter Tiberius die Alpen. Die neu gegründete Provinz Raetia erstreckte sich bis an die Donau und umfasste damit auch das heutige Oberschwaben. Der Landweg zwischen Mainz und Augsburg war strategisch sehr wichtig. Um diesen zu verkürzen, bauten die Römer um 73/74 n. Chr. eine Straße durch das Kinzigtal im mittleren Schwarzwald; zum Schutz dieser Straße gründeten sie Rottweil. Weitere Gründungen dieser Zeit sind Ladenburg, Bad Wimpfen, Rottenburg am Neckar, Heidelberg und Baden-Baden; eine Siedlungskontinuität ist jedoch nur für Baden-Baden, Ladenburg und Rottweil wahrscheinlich. Die später gebaute Straße über Bad Cannstatt verkürzte den Weg zwischen Mainz und Augsburg noch weiter. Die Landnahme in Südwestdeutschland sicherten die Römer durch Feldzüge im heutigen Hessen ab. Um 85 n. Chr. gründete Kaiser Domitian die Provinz Germania superior (Obergermanien). Die Grenze des römischen Reiches verlief von ungefähr 98–159 n. Chr. entlang des Neckar-Odenwald-Limes, später entlang des Obergermanisch-Rätischen Limes. Den vom Limes umschlossenen Teil des Gebietes rechts des Rheines und links der Donau bezeichneten die Römer als Dekumatland. Der nordöstliche Teil des heutigen Baden-Württemberg war nie Teil des römischen Reiches. Um 233 n. Chr. plünderten Alamannen das Dekumatland; in der Zeit der Reichskrise des 3. Jahrhunderts gaben die Römer um 260 n. Chr. nach erneuten Überfällen die bisherige Grenze auf und zogen sich hinter Rhein, Donau und Iller dem Donau-Iller-Rhein-Limes zurück. Sie hielten die Rheingrenze noch bis zum Rheinübergang von 406. Mittelalter. Im 5. Jahrhundert kam das Gebiet des Herzogtums Alemannien zum Fränkischen Reich. Die Nordgrenze Alemanniens wurde nach Süden verschoben und deckte sich grob mit dem Verlauf der heutigen alemannisch-fränkischen Dialektgrenze. Das nördliche Drittel Baden-Württembergs lag somit im direkten fränkischen Einflussbereich (Bistümer Mainz, Speyer, Worms, Würzburg), die südlichen zwei Drittel verblieben im alemannischen Einflussbereich (Bistümer Konstanz, Augsburg, Straßburg). Im 8. Jahrhundert wurden Grafschaften (Gaue) als Verwaltungseinheiten installiert. Mit der Neubildung der Stammesherzogtümer gehörten die südlichen Gebiete des heutigen Bundeslandes bis zum Ausgang des Hochmittelalters zum Herzogtum Schwaben, die nördlichen Gebiete befanden sich beim Herzogtum Franken. Im Hochmittelalter gehörte das Gebiet zu den zentralen Landschaften des Heiligen Römischen Reiches Deutscher Nation. Es ist Heimat zahlreicher aufstrebender Adelsdynastien und lag im Schnittpunkt einiger wichtiger Fernhandelsrouten. Der Hochadel und die Klöster lenkten einen intensiven Landesausbau, in dessen Verlauf die Mittelgebirge erschlossen und zahlreiche Städte gegründet wurden, und erweiterten so ihre Machtbasis. Wichtige Familien waren neben den Herzogshäusern vor allem die fränkischen Salier und die schwäbischen Staufer, die sich zu ihrer Zeit den Kaiserthron erkämpften. Weitere wichtige Adelshäuser waren die – ursprünglich aus Oberschwaben stammenden – Welfen, die Zähringer und die Habsburger und auch die unterschwäbischen Hohenzollern. Nach dem Ende der Stauferdynastie im 13. Jahrhundert kam es zu einer bleibenden Dezentralisierung des Reiches. Die ohnehin traditionell schwache Zentralmacht von Kaisern und Königen verlor zunehmend Rechte und Befugnisse an aufstrebende Regionalmächte. Dieser langfristige Trend wurde auch und gerade in Südwestdeutschland spürbar. Es kam zur territorialen Zersplitterung in Hunderte von kleinen Grafschaften, Reichsstädten, geistlichen Gebieten oder gar einzelnen ritterschaftlichen Dörfern. Zur horizontalen Diversifizierung trat die vertikale Aufteilung von Rechten an einem Ort in verschiedene Rechteinhaber. So konnten die zahlreichen finanziellen, wirtschaftlichen, militärischen und jurisdiktionalen Rechte innerhalb eines Dorfes in den Händen mehrerer Staaten, Herren oder Familien liegen. Frühe Neuzeit. Die frühe Neuzeit war geprägt von der Reformation und den Expansionsbestrebungen der entstehenden Flächenstaaten Österreich, Preußen, Frankreich und Schweden. Aus diesen resultierten Konflikte wie der Bauernkrieg, der Dreißigjährige Krieg und der Pfälzische Erbfolgekrieg. Im heutigen Baden-Württemberg, das territorial außerordentlich stark zersplittert blieb, lag dabei einer der Schwerpunkte der Kampfhandlungen mit entsprechenden Folgen für Bevölkerung und Wirtschaft. Reformation und Bauernkrieg. Das spätere Baden war Schauplatz der Bundschuh-Verschwörungen. Der aus Untergrombach stammende Joß Fritz führte von 1501 bis 1517 im Fürstbistum Speyer und in Vorderösterreich insgesamt drei Verschwörungen an. Bereits 1518 lernten junge südwestdeutsche Gelehrte bei der Heidelberger Disputation Martin Luther und seine Lehren kennen. Der Brettener Philipp Melanchthon folgte Luther nach Wittenberg und wurde zu einem der führenden Köpfe der lutherischen Reformation. Johannes Brenz ging von Heidelberg nach Schwäbisch Hall, führte dort die Reformation ein und unterstützte später Herzog Christoph von Württemberg beim Aufbau der evangelischen Landeskirche. Der Deutsche Bauernkrieg hatte einen seiner Schwerpunkte im deutschen Südwesten. Bereits 1524 versammelten sich in Stühlingen, Furtwangen und Biberach mehrere tausend Bauern. Am Ostersonntag 1525 stürmten und besetzten schwäbische Bauern die Burg Weinsberg und töteten den Grafen von Helfenstein, der ein Schwiegersohn Kaiser Maximilians I. war. Diese Weinsberger Bluttat kostete die Bauern viele Sympathien. In der Folge zogen sie unter anderem in Stuttgart ein und zerstörten zahlreiche Burgen und Klöster, darunter die Burg Hohenstaufen, das Kloster Lorch und das Kloster Murrhardt. Am 24. April 1525 übertrugen die Aufständischen dem Hauptmann Götz von Berlichingen die militärische Führung. Am 23. Mai 1525 nahmen südbadische Bauern Freiburg ein. Der Bauernaufstand wurde durch ein Söldnerheer, das im Auftrag des Schwäbischen Bundes unter der Führung von Georg Truchsess von Waldburg-Zeil kämpfte, noch im Sommer 1525 brutal niedergeschlagen. Man schätzt, dass dabei ca. 100.000 Aufständische zu Tode kamen. Besonders in den südwestdeutschen Reichsstädten verbreitete sich die Reformation schnell. Der Protestation zu Speyer gehörten 1529 fünf Reichsstädte aus dem heutigen Baden-Württemberg an. Als Markgraf Philipp von Baden 1533 kinderlos starb, wurde die Markgrafschaft unter seinen Brüdern Ernst und Bernhard III. in das protestantische Baden-Durlach und das katholische Baden-Baden aufgeteilt. Herzog Ulrich von Württemberg führte die Reformation ein, als er 1534 durch die siegreiche Schlacht bei Lauffen nach fünfzehnjähriger Habsburgischer Zwangsverwaltung wieder auf den Stuttgarter Thron zurückkehrte. In der Kurpfalz führte Kurfürst Ottheinrich 1557 die Reformation lutherischer Prägung ein. Unter seinem Nachfolger Friedrich III., der 1563 den Heidelberger Katechismus ausarbeiten ließ, wurde die Kurpfalz calvinistisch. Dreißigjähriger Krieg. Hauptschauplätze des Dreißigjährigen Kriegs im deutschen Südwesten waren die Kurpfalz und Vorderösterreich, aber auch die übrigen Gebiete wurden durch Plünderungen und Mundraub der durchziehenden und lagernden Heere schwer getroffen. Nach der Schlacht am Weißen Berg verlagerte sich der Böhmisch-Pfälzische Krieg in die Kurpfalz. Die vereinigten Heere der Grafen Peter von Mansfeld und Georg Friedrich von Baden-Durlach besiegten Tilly 1622 bei Mingolsheim. Wenig später unterlag der von Mansfeld getrennte Markgraf von Baden Tilly in der Schlacht bei Wimpfen. Während sich die Kriegsereignisse danach nach Norden verlagerten, blieb die Kurpfalz von Spaniern besetzt. 1632 wurden diese durch die Schweden unter König Gustav Adolf vertrieben. 1634 eroberten die Schweden die Festung Philippsburg und zogen noch im selben Jahr bis an den Hochrhein. 1635 eroberte Johann von Werth Philippsburg und Heidelberg zurück. 1638 feierten die protestantisch-schwedischen Verbände unter Bernhard von Sachsen-Weimar in Vorderösterreich bei der Schlacht bei Rheinfelden, in Breisach und in Freiburg Erfolge. 1643/44 schlug das Schlachtenglück in Schlachten bei Tuttlingen und Freiburg zugunsten der kaiserlich-katholischen Truppen um. Die Kämpfe im Südwesten dauerten noch bis Kriegsende an. Im Jahre 1647 unterzeichneten Bayern, Schweden und Frankreich in Ulm ein Waffenstillstandsabkommen, in dessen Folge sich die in Bayern eingefallenen schwedischen und französischen Truppen nach Oberschwaben und Württemberg zurückzogen. Im Westfälischen Frieden 1648 erhielt Karl I. Ludwig die Pfalz sowie die 1623 im Regensburger Reichstag verlorene Kurwürde zurück und Breisach wurde französisch. Als Folge des Dreißigjährigen Kriegs war die Bevölkerung um mehr als die Hälfte, regional um zwei Drittel, zurückgegangen, der Viehbestand war fast völlig vernichtet, ein Drittel des Nutzlandes lag brach. Die Region brauchte lange, um sich davon zu erholen. Zeitalter des Absolutismus. Im Pfälzischen Erbfolgekrieg verwüsteten französische Truppen unter der Führung von General Melac den nordwestlichen Teil des heutigen Baden-Württembergs. Zwischen 1689 und 1693 ließ Melac flächendeckend nahezu alle Dörfer und Städte niederbrennen, darunter die Residenzstädte Heidelberg mitsamt dem Schloss, Durlach und Baden sowie Mannheim, Bretten, Pforzheim und Marbach. In der Folge zogen mehrere der Landes- und Kirchenfürsten aus den alten Residenzstädten aus und errichteten neue Barockresidenzen nach dem Vorbild von Versailles. So entstanden barocke Planstädte mit großen Schlössern in Karlsruhe, Ludwigsburg und Rastatt, die kurpfälzische Residenz Schloss Mannheim und Sommerresidenz Schloss Schwetzingen sowie Schloss Bruchsal als Sitz des Fürstbistums Speyer. Von 1703 bis 1711 war Nordbaden im Spanischen Erbfolgekrieg Aufmarschgebiet der kaiserlichen Truppen und mehrfach Schauplatz von Kämpfen zwischen diesen und denen Frankreichs. 1806 bis 1918. Hatten zu Beginn des 19. Jahrhunderts noch etwa 300 Staaten im Gebiet des heutigen Baden-Württembergs territoriale Rechte inne, so reduzierte sich deren Zahl nach der Auflösung des Alten Reiches auf vier. Vor allem das Königreich Württemberg und das Großherzogtum Baden gehörten zu den Gewinnern der Koalitionskriege. Die beiden Fürstentümer Hohenzollern-Sigmaringen und Hohenzollern-Hechingen überlebten aufgrund besonderer Beziehungen zu Napoléon die Mediatisierung. Zudem war die Stadt Wimpfen eine hessische Exklave. 1849 wurde die Badische Revolution durch preußische Interventionstruppen niedergeschlagen, die Badische Armee aufgelöst und unter preußischer Führung neu aufgebaut. 1850 wurden die beiden hohenzollerischen Staaten zur preußischen Provinz "Hohenzollernsche Lande". Im Deutschen Krieg 1866 standen Baden und Württemberg auf der Seite Österreichs und mussten nach Kriegsende eine Entschädigung an das siegreiche Preußen zahlen und militärische Geheimverträge mit dem Norddeutschen Bund schließen. Dies führte 1870 zum Eintritt dieser Staaten in den Deutsch-Französischen Krieg. Infolge des Kriegs schlossen sich Baden und Württemberg dem neu gegründeten und von Preußen angeführten Deutschen Kaiserreich an. 1918 bis 1933. 1919 gaben sich die Republik Baden und der Volksstaat Württemberg demokratische Verfassungen. Machtergreifung und Terror. 1933 wurden die selbständigen Landesregierungen im Zuge der Gleichschaltung zu Gunsten nationalsozialistischer Gauleiter und Reichsstatthalter entmachtet. Die Machtergreifung wurde von Terror gegen die politischen Gegner begleitet und unterstützt. In Baden ernannte sich Gauleiter Robert Wagner am 11. März 1933 selbst zum Staatspräsidenten. Diese Selbsternennung legalisierte Reichspräsident Hindenburg am 5. Mai 1933 nachträglich durch Wagners Ernennung zum Reichsstatthalter. Das Amt des badischen Ministerpräsidenten übernahm Walter Köhler. Der württembergische Landtag wählte am 15. März 1933 Wilhelm Murr mit den Stimmen der NSDAP, DNVP und des Bauernbundes zum Staatspräsidenten. Am 6. Mai 1933 wurde er zum Reichsstatthalter ernannt, während das Amt des Ministerpräsidenten auf Christian Mergenthaler überging. Diese Dualität in der Machtausübung blieb bis Kriegsende erhalten. Die Regimegegner, vor allem Kommunisten und Sozialdemokraten, wurden ab März 1933 in einer Verhaftungswelle der Gestapo in „Schutzhaft“ genommen und in den Lagern Kislau (bei Bad Schönborn), Ankenbuck (bei Villingen) und Heuberg (bei Stetten am kalten Markt) interniert. Regimekritische Frauen wurden im Frauengefängnis Gotteszell festgehalten. Die badische SPD-Führung wurde am 16. Mai 1933 von Karlsruhe nach Kislau verschleppt, wobei der Abtransport öffentlich inszeniert wurde. Nach der Umbildung der Landtage gemäß dem Ergebnis der Reichstagswahl vom 5. März 1933 beschlossen die Landtage am 8. Juni 1933 in Württemberg bzw. am 9. Juni 1933 in Baden Landesermächtigungsgesetze. An den Abstimmungen durften sich die Abgeordneten der inzwischen verbotenen KPD nicht mehr beteiligen. Die SPD-Abgeordneten enthielten sich in Württemberg der Stimme, während die fünf verbliebenen in Baden offen mit „Nein“ stimmten. Alle anderen Abgeordneten – in Württemberg waren dies Zentrum, DNVP, Bauernbund, CSVD und NSDAP – stimmten der Selbstentmachtung zu. Das Lager Heuberg wurde Ende 1933 wegen Überfüllung geschlossen. Die Insassen wurden auf das Fort Oberer Kuhberg in Ulm verlegt. Mitglieder von Gestapo, SS und SA ermordeten den führenden badischen Sozialdemokraten Ludwig Marum am 29. März 1934 in Kislau. 1936 meldete die Gestapo, sie habe die „illegalen“ Strukturen von SPD und KPD zerschlagen. Massenmord. Dem Massenmord der Nationalsozialisten an der deutschen Zivilbevölkerung fielen in Baden-Württemberg ca. 12.000 Juden, eine große Zahl von Angehörigen der Roma-Minderheit, 10.000 Kranke sowie eine unbekannte Anzahl von Regimegegnern zum Opfer. Von 1933 bis 1939 waren zwei Drittel der ca. 35.000 Juden, die 1933 in Baden-Württemberg gelebt hatten, ausgewandert. Am 22. Oktober 1940 ließ Robert Wagner ca. 6000 badische Juden in das Lager Gurs verschleppen. Von dort aus wurden die meisten von ihnen in deutsche Vernichtungslager in Osteuropa gebracht und dort ermordet. Die württembergischen Juden wurden ab November 1941 in mehreren Direktzügen zu je ca. 1000 Personen nach Riga, Izbica, Auschwitz und Theresienstadt transportiert, wo sie umgebracht wurden. In Grafeneck bei Münsingen ermordeten die Machthaber im Rahmen der Aktion T4 mehr als 10.000 Patienten psychiatrischer Kliniken in einer Gaskammer. Roma, und unter ihnen viele Sinti, wurden z. T. in lokalen „Zigeunerlagern“ interniert, zum Beispiel in Ravensburg, und 1940 nach Polen und 1943 in das Vernichtungslager Auschwitz-Birkenau verschleppt. Zahlreiche Insassen baden-württembergischer Konzentrationslager starben bei der Zwangsarbeit. Beispielsweise kostete in Bisingen bei Hechingen der Versuch, Schieferöl zu gewinnen, 1000 Menschen das Leben. Andere Häftlinge kamen auf den sogenannten "Todesmärschen", mit denen die Machthaber kurz vor Kriegsende die Konzentrationslager angesichts der anrückenden amerikanischen Truppen räumen wollten, ums Leben. Widerstand. Mit dem in Stuttgart aufgewachsenen Graf von Stauffenberg, den Geschwistern Scholl, die ihre Kindheit in Forchtenberg, Ludwigsburg und Ulm verbracht haben, sowie dem Hitler-Attentäter Georg Elser, der auf der Ostalb und in Konstanz lebte, haben vier der bekanntesten deutschen Widerstandskämpfer ihre Wurzeln im Südwesten. Weitere Beispiele sind die Freiburgerin Gertrud Luckner, die Juden bei der Ausreise unterstützte, 1943 verhaftet wurde und das KZ Ravensbrück überlebte, der Mannheimer Georg Lechleiter, der eine Untergrundorganisation der KPD anführte und 1942 in Stuttgart hingerichtet wurde sowie der Karlsruher Reinhold Frank und die Stuttgarter Fritz Elsas und Eugen Bolz, die als Mitglieder der Verschwörung vom 20. Juli 1944 im Jahre 1945 hingerichtet wurden. Ebenfalls zum Widerstand rechnet man die Wirtschaftswissenschaftler des Freiburger Kreises um Walter Eucken, den Rottenburger Bischof Joannes Sproll, der 1938 seiner Diözese verwiesen wurde, nachdem er sich an der Volksabstimmung um den „Anschluss“ Österreichs nicht beteiligt hatte, und Robert Bosch, der Juden und andere Verfolgte in seinem Unternehmen unterbrachte. Kriegsende und Kriegsfolgen. Im Oktober 1944 wurde die Regierung des Vichy-Regimes unter Marschall Pétain auf Befehl Hitlers von Vichy nach Sigmaringen verlegt. Das Schloss Sigmaringen blieb bis Kriegsende Sitz der aus Sicht der Nationalsozialisten "offiziellen" französischen Regierung. Die alliierten Luftangriffe im Zweiten Weltkrieg trafen die Städte in Südwestdeutschland nicht alle in gleichem Maße. Beim Luftangriff auf Pforzheim am 23. Februar 1945 starben innerhalb von wenigen Minuten 17.600 Menschen. Sehr schwer getroffen wurden auch Stuttgart, Mannheim, Heilbronn, Friedrichshafen, Freiburg und Ulm. Schwere Schäden trugen Karlsruhe, Reutlingen, Böblingen, Sindelfingen, Offenburg und Göppingen davon. Andere Städte, z. B. Rottweil, Heidelberg, Baden-Baden, Esslingen, Ludwigsburg, Tübingen, Villingen, Konstanz, Aalen oder Schwäbisch Gmünd blieben nahezu unversehrt und haben deshalb noch heute intakte Altstädte. Im Frühjahr 1945 besiegten amerikanische und französische Bodentruppen auch auf dem Gebiet Baden-Württembergs diejenigen der Wehrmacht. Die Amerikaner besetzten Mannheim am 29. März 1945. Stuttgart eroberten die französischen Truppen am 22. April 1945. Teilweise schwere Kämpfe führten dazu, dass in den letzten Kriegswochen noch Crailsheim, Waldenburg und Freudenstadt zerstört wurden. Der Weg zum Südweststaat. Nach dem Zweiten Weltkrieg kamen die nördlichen Teile von Baden und Württemberg zur US-amerikanischen Besatzungszone, die südlichen Teile sowie Hohenzollern zur französischen. Die Aufteilung erfolgte entlang der Kreisgrenzen, wobei zur US-amerikanischen Zone bewusst alle die Kreise geschlagen wurden, durch die die Autobahn Karlsruhe-München (heutige A 8) verlief. Die Militärregierungen der Besatzungszonen gründeten 1945/46 die Länder Württemberg-Baden in der amerikanischen sowie Württemberg-Hohenzollern und Baden in der französischen Zone. Diese Länder wurden am 23. Mai 1949 Teil der Bundesrepublik Deutschland. Das Grundgesetz für die Bundesrepublik Deutschland traf in Regelungen zu einer Neugliederung des Bundesgebiets mithilfe von Volksabstimmungen. Dieser Artikel trat jedoch wegen Vorbehalten der Besatzungsmächte zunächst nicht in Kraft. Abweichend davon wurden in Artikel 118 die drei Länder im Südwesten dazu angehalten, eine Neugliederung durch gegenseitige Vereinbarung zu regeln. Dieser Artikel beruhte auf der noch vor Beginn der Beratungen über das Grundgesetz getroffenen Entscheidung vom 31. August 1948 bei der Konferenz der Ministerpräsidenten auf Jagdschloss Niederwald zur Schaffung eines Südweststaats. Für den Fall, dass eine solche Regelung nicht zustande käme, wurde eine Regelung durch ein Bundesgesetz vorgeschrieben. Als Alternativen kamen entweder eine Vereinigung zu einem "Südweststaat" oder die separate Wiederherstellung Badens und Württembergs (einschließlich Hohenzollerns) in Frage, wobei die Regierungen Württemberg-Badens und Württemberg-Hohenzollerns für Ersteres, diejenige Badens für Letzteres eintraten. Eine Übereinkunft der Regierungen über eine Volksabstimmung scheiterte an der Frage des Abstimmungsmodus. Das daraufhin am 4. Mai 1951 verabschiedete Bundesgesetz sah eine Einteilung des Abstimmungsgebiets in vier Zonen vor (Nordwürttemberg, Nordbaden, Südwürttemberg-Hohenzollern, Südbaden). Die Vereinigung der Länder sollte als akzeptiert gelten, wenn sich eine Mehrheit im gesamten Abstimmungsgebiet sowie in drei der vier Zonen ergab. Da eine Mehrheit in den beiden württembergischen Zonen sowie in Nordbaden bereits abzusehen war (hierfür wurden Probeabstimmungen durchgeführt), favorisierte diese Regelung die Vereinigungsbefürworter. Die (süd-)badische Regierung strengte eine Verfassungsklage gegen das Gesetz an, die jedoch erfolglos blieb. Vor der Volksabstimmung, die am 9. Dezember 1951 stattfand, wurde ein erbitterter Kampf zwischen Befürwortern und Gegnern des geplanten "Südweststaates" geführt. Die führenden Vertreter der Pro-Seite waren der Ministerpräsident Württemberg-Badens Reinhold Maier und der Staatspräsident Württemberg-Hohenzollerns Gebhard Müller, Anführer der Südweststaat-Gegner war der Staatspräsident Badens Leo Wohleb. Bei der Abstimmung votierten die Wähler in beiden Teilen Württembergs mit 93 % für die Fusion, in Nordbaden mit 57 %, während in Südbaden nur 38 % dafür waren. In drei von vier Abstimmungsbezirken gab es eine Mehrheit für die Bildung des Südweststaates, so dass die Bildung eines Südweststaates beschlossen war. Hätte das Ergebnis in Gesamtbaden gezählt, so hätte sich eine Mehrheit von 52 % für eine Wiederherstellung des (separaten) Landes Baden ergeben. Gründung des Landes. Am 9. März 1952 wurde eine verfassung(s)gebende Landesversammlung gewählt. Auf einer Sitzung am 25. April 1952 wurde der erste Ministerpräsident gewählt. Damit war das Land Baden-Württemberg gegründet. "Reinhold Maier" (FDP/DVP) bildete als erster Ministerpräsident eine Koalition aus SPD, FDP/DVP und BHE. Nach Inkrafttreten der Verfassung wirkte die "Verfassunggebende Landesversammlung" bis 1956 als erster Landtag von Baden-Württemberg. Der Name des Landes war Gegenstand eines längeren Streites. Der im "Überleitungsgesetz" vom 15. Mai 1952 genannte Name "Baden-Württemberg" war zunächst nur übergangsweise vorgesehen, setzte sich jedoch letztlich durch, da kein anderer Name von allen Seiten akzeptiert wurde. Die am 19. November 1953 in Kraft getretene Landesverfassung wurde lediglich von der Verfassunggebenden Landesversammlung beschlossen, anschließend aber nicht durch eine Volksabstimmung bestätigt. Reinhold Maier hatte mit seiner schnellen Regierungsbildung 1952 die CDU als stärkste Fraktion ausgeschlossen. Das erzeugte Unmut, sowohl bei den zwei südlichen Landesteilen Südbaden und Südwürttemberg-Hohenzollern, die sich in der neuen Regierung nicht oder nur unzureichend vertreten fühlten, als auch bei "Gebhard Müller", dem neuen CDU-Fraktionsvorsitzenden, der die Nichtbeteiligung der CDU als persönlichen Affront empfand. Die Bundestagswahl vom 6. September 1953, die von Reinhold Maier zugleich zum Plebiszit über seine Politik erklärt worden war, brachte der CDU im Land die absolute Mehrheit. Reinhold Maier zog die Konsequenzen und trat als Ministerpräsident zurück. Sein Nachfolger wurde Gebhard Müller, der eine Allparteienregierung aus CDU, SPD, FDP/DVP und BHE bildete, die bis 1958 Bestand hatte. Nachfolger Müllers wurde Kurt Georg Kiesinger als dritter Ministerpräsident des Landes. Erneute Abstimmung in Baden. Die badischen Vereinigungsgegner gaben den Kampf gegen den Südweststaat auch nach 1952 nicht auf. Im "Heimatbund Badnerland" organisiert, erstrebten sie weiterhin die Wiederherstellung Badens. Abs. 2 GG sah vor, dass in Gebieten, deren Landeszugehörigkeit nach Ende des Zweiten Weltkriegs ohne Volksabstimmung geändert worden war, ein Volksbegehren über die Neugliederung möglich sei. Nachdem dieser Passus infolge des Deutschlandvertrags 1955 in Kraft trat, stellte der Heimatbund einen Antrag auf ein Volksbegehren zur Wiederherstellung des Landes Baden in den Grenzen von 1945. Das Bundesinnenministerium lehnte diese Forderung unter anderem mit der Begründung ab, das neue Bundesland sei bereits durch eine Volksabstimmung zustande gekommen. In der darauf folgenden Klage vor dem Bundesverfassungsgericht bekam der Heimatbund 1956 Recht. Das Gericht argumentierte, dass die Abstimmung von 1951 keine Abstimmung in Sinne von GG gewesen sei, da hierbei die zahlenmäßig stärkere Bevölkerung Württembergs und Hohenzollerns die zahlenmäßig schwächere Badens habe überstimmen können. Der Wille der badischen Bevölkerung sei durch die Besonderheit der politisch-geschichtlichen Entwicklung überspielt worden, weshalb ein Volksbegehren nach GG zulässig sei. Das Bundesverfassungsgericht setzte in seinem Urteil keine Frist für die Abstimmung, weshalb sie immer wieder verschleppt wurde. Es bedurfte einer weiteren Entscheidung des Bundesverfassungsgerichtes im Jahre 1969, in der es die Abstimmung bis spätestens zum 30. Juni 1970 anordnete. Diese wurde am 7. Juni 1970 durchgeführt und ergab mit 81,9 % eine große Zustimmung zum Verbleib von Baden im gemeinsamen Land Baden-Württemberg. Die Wahlbeteiligung lag bei 62,5 %. Die Ablehnung des Volksbegehrens machte den Weg frei zu einer administrativen Neugliederung des Landes. 1971 wurde eine Reform der Landkreise und der Regierungsbezirke eingeleitet, die 1973 in Kraft trat. Seitdem sind die ehemaligen Landesgrenzen kaum noch im Kartenbild zu erkennen. Bevölkerungsentwicklung. Die Bevölkerungsentwicklung in Baden-Württemberg war zwischen 1950 und 2008 im Allgemeinen von einem stetigen Anstieg geprägt. In den Fünfzigerjahren stieg die Bevölkerung Baden-Württembergs um knapp 1,3 Millionen Menschen an. Auch in den Sechzigerjahren stieg die Bevölkerung nochmals um knapp 1,2 Millionen Menschen an. 1971 überstieg die Bevölkerungszahl erstmals die Neun-Millionen-Marke. Die Siebzigerjahre waren dagegen bevölkerungsmäßig weitgehend von Stagnation geprägt. Vor allem in den zehn Jahren von 1977 bis 1987 trat die Bevölkerungsentwicklung weitgehend auf der Stelle. Ein Rückgang Anfang der Achtzigerjahre wurde zwar ausgeglichen, in den zehn Jahren nach 1977 nahm die Bevölkerung jedoch nur um rund 165.000 Menschen auf knapp 9,3 Millionen zu. Mit dem Ende des Kalten Krieges und dem Zustrom von Menschen aus Zentral- und Osteuropa änderte sich dies jedoch sehr deutlich. Die zwanzig Jahre von 1988 bis 2008 waren von einem kontinuierlichen Bevölkerungsanstieg geprägt. Die Bevölkerung nahm in dieser Zeit um fast 1,5 Millionen Menschen zu. Am 31. März 2011 wurde der bisher höchste Stand von offiziell 10.754.995 Menschen registriert. In den Jahren 1990 und 1991 wuchs die Bevölkerung jeweils um fast 200.000 Personen. Insgesamt ist in den 50 Jahren zwischen 1952 und 2002 die Bevölkerung Baden-Württembergs um knapp vier Millionen von 6,7 auf 10,7 Millionen Menschen gewachsen, das ist eine Zunahme um knapp 60 Prozent. In den Jahren 2008 und 2009 gab es einen kleinen Bevölkerungsrückgang im ansonsten von Wachstum geprägten Baden-Württemberg. Auch bisher ist die Bevölkerung stets höchstens drei Jahre in Folge geschrumpft, um dann wieder und weiter anzuwachsen. Dennoch prognostiziert das Statistische Landesamt einen Rückgang der Bevölkerung bis zum Jahr 2030 um 3,5 Prozent auf rund 10,3 Millionen Menschen. Die Studie „Wegweiser Kommune“ der Bertelsmann-Stiftung geht in einer aktuellen Prognose aus dem Jahr 2011 von einem Bevölkerungsrückgang von 0,4 Prozent für Baden-Württemberg bis 2030 (gegenüber 2009) aus, womit Baden-Württemberg nach Bayern das Flächenland mit der stabilsten Bevölkerungsgröße ist. Wappen und Flagge. Das Wappen zeigt drei schreitende Löwen auf goldenem Grund. Dies ist das Wappen der Staufer und Herzöge von Schwaben. Über dem großen Landeswappen befinden sich die sechs Wappen der historischen Landschaften, aus denen oder aus deren Teilen Baden-Württemberg gebildet worden ist. Es sind dies: Vorderösterreich (rot-weiß-rot geteilter Schild), Kurpfalz (steigender Löwe), Württemberg (drei Hirschstangen), Baden (roter Schrägbalken), Hohenzollern (weiß-schwarz geviert) und Franken (drei silberne Spitzen auf rotem Grund). Dabei sind die Wappen Badens und Württembergs etwas größer dargestellt. Schildhalter sind der badische Greif und der württembergische Hirsch. Auf dem kleinen Landeswappen ruht stattdessen eine Blattkrone. Die drei Löwen aus dem Landeswappen sind in abgewandelter Form auch im sogenannten "Baden-Württemberg-Signet" dargestellt. Es darf unverändert im gewerblichen, verbandlichen und publizistischen Bereich verwendet werden, um die Verbundenheit mit dem Land Baden-Württemberg zum Ausdruck zu bringen. Das Signet darf allerdings nicht als einziges oder zentrales Element eines Firmenlogos und auch nicht als markenmäßiger Herkunftsnachweis verwenden werden. Vor allem darf es nicht nach Art einer Marke herausgestellt werden. Die Benutzung des Landeswappens hingegen ist genehmigungspflichtig und grundsätzlich nur den Behörden gestattet. Die Landesflagge ist schwarz-gold; die Landesdienstflagge trägt zusätzlich das kleine Landeswappen. Verwaltungsgliederung. Baden-Württemberg ist seit dem 1. Januar 1973 in vier Regierungsbezirke, zwölf Regionen (mit je einem Regionalverband) sowie 35 Landkreise und neun Stadtkreise eingeteilt. Regierungsbezirke und Regionen. Die Region Donau-Iller umfasst auch angrenzende Gebiete in Bayern. Die Region Rhein-Neckar umfasst auch angrenzende Gebiete in Hessen und Rheinland-Pfalz. Stadt- und Landkreise. Zum Landkreis Konstanz gehört die Exklave Büsingen am Hochrhein, die in der Nähe von Schaffhausen liegt und völlig von Schweizer Gebiet umschlossen ist. Die Landkreise haben sich 1956 zum Landkreistag Baden-Württemberg zusammengeschlossen. Gemeinden. "Siehe auch: Liste der Städte und Gemeinden in Baden-Württemberg, Liste der größten Städte Baden-Württembergs (alle Gemeinden mit mehr als 20.000 Einwohnern) sowie Gemeindeordnungen in Deutschland" Das Land Baden-Württemberg gliedert sich in insgesamt 1101 Gemeinden (Stand: 1. Januar 2009) sowie die zwei unbewohnten gemeindefreien Gebiete Gutsbezirk Münsingen und Gemeindefreier Grundbesitz Rheinau. Die Rechte und Pflichten der Gemeinden werden vor allem in der baden-württembergischen Landesverfassung (§§ 69–76) und in der baden-württembergischen Gemeindeordnung (GemO) festgelegt. In § 1 GemO sind die Gemeinden als „Grundlage und Glied des demokratischen Staates“ beschrieben, und die „Teilnahme an der […] Verwaltung der Gemeinde“ als „Recht und Pflicht“ der Gemeindebewohner. Als ein Gemeindegebiet wird in § 7 GemO die Gesamtheit der zur Gemeinde gehörenden "Grundstücke" definiert. Diese Grundstückseinheit ist als Gemarkung im Grundbuch dokumentiert. Ferner ist festgelegt, dass alle Grundstücke Baden-Württembergs zu einer Gemeinde gehören sollen – „besondere Gründe“ rechtfertigen aber den Verbleib von Grundstücken außerhalb eines gemeindlichen Markungsverbandes. Solche „gemeindefreien Grundstücke“ existieren in Baden-Württemberg in zwei unbewohnten gemeindefreien Gebieten – Gutsbezirk Münsingen und Gemeindefreier Grundbesitz Rheinau. Die zwölf einwohnerreichsten Gemeinden sind Stuttgart, Karlsruhe, Mannheim, Freiburg, Heidelberg, Ulm, Heilbronn, Pforzheim, Reutlingen, Esslingen, Ludwigsburg und Tübingen. In § 3 GemO sind als besondere Gemeindetypen Stadtkreise (außerhalb Baden-Württembergs "Kreisfreie Stadt" genannt) und Große Kreisstädte erwähnt. Sie unterscheiden sich von den verbleibenden Gemeinden durch die ganze oder teilweise Übernahme von Kreisaufgaben. In Baden-Württemberg sind neun Gemeinden zu Stadtkreisen und 91 Gemeinden zu Großen Kreisstädten erklärt worden. Von den in § 8 GemO genannten Gemeindegebietsänderungen haben "Eingliederung" (Eingemeindung) und "Neubildung" (Gemeindefusion/Zusammenlegung) das Ende der politischen Selbständigkeit einer Gemeinde zur Folge. Umfangreiche derartige Gebietsänderungen wurden unter dem Stichwort "Gebietsreform" in den 1970er Jahren verfügt. Die Eingliederung von Tennenbronn nach Schramberg am 1. Mai 2006 war die erste Aufgabe der Selbstständigkeit einer Gemeinde seit 1977. Die alle fünf Jahre stattfindenden Kommunalwahlen wurden zuletzt am 25. Mai 2014 durchgeführt. Bei den vorherigen Wahlen im Jahr 2009 waren 18.233 Gemeinderäte und 1.960 Kreisräte zu wählen. Politik. Baden-Württemberg ist politisch bürgerlich-konservativ geprägt, die CDU und die DVP sind in Baden-Württemberg verhältnismäßig stark und haben auch die meisten Regierungen des Landes gestellt. Aus diesem Grund hatte die SPD dort stets einen schweren Stand; ihre Ergebnisse lagen bislang immer unter dem Bundesdurchschnitt. Die CDU ging bisher bei jeder Wahl als stärkste Partei hervor, während das Bundesland für die FDP das bislang einzige darstellt, bei dem sie bei Landtagswahlen noch nie an der Fünf-Prozent-Hürde scheiterte. Seit den 1980er Jahren ist Baden-Württemberg auch eine Hochburg der in Karlsruhe gegründeten Grünen, deren Wahlergebnisse im Land stets über dem Bundesdurchschnitt lagen; ihr erstmaliger Einzug in den Landtag im Jahr 1980 war gleichzeitig der erste in einem Flächenland; seit dem Erfolg bei der Landtagswahlen 2011 stellen die Grünen hier ihren ersten Ministerpräsidenten überhaupt. Während der Ministerpräsident von 1953 bis 2011 immer von der CDU gestellt wurde, waren an der Regierung teilweise die FDP/DVP beziehungsweise die SPD (Große Koalition) beteiligt. Während der 1990er Jahre waren die Republikaner im Landtag vertreten (10,9 % 1992 und 9,1 % 1996), die in diesem Bundesland ihren größten Zulauf hatten. Zuvor saß zwischen 1968 und 1972 ebenso die NPD mit 9,8 % der Wählerstimmen im Landtag. In keinem anderen der alten (westdeutschen) Bundesländer erreichten rechtsradikale Parteien derart hohe Wahlergebnisse. Die CDU erreichte bei allen Wahlen zwischen 1972 und 1988 die absolute Mehrheit im Landtag. Aufgrund des Austrittes des Landtagsabgeordneten Ulrich Maurer aus der SPD am 27. Juni 2005 und seinem Eintritt in die WASG am 1. Juli war diese im Landtag vertreten. Stefan Mappus wurde am 10. Februar 2010 zum Ministerpräsidenten gewählt, verlor allerdings seine schwarz-gelbe Regierungsmehrheit nach der Landtagswahl 2011. Die CDU selbst fuhr mit 39,0 % das zweitschlechteste Wahlergebnis in der Geschichte der Landespartei ein, die FDP schaffte nur knapp den Sprung in den Landtag (5,3 %). Die Grünen dagegen erreichten mit 24,2 % das beste Ergebnis der Partei auf Landesebene. Die SPD erreichte mit 23,1 % ihr schlechtestes Wahlergebnis überhaupt und trat als Juniorpartner in eine grün-rote Koalition ein. Das Land unterhält zwei Landesvertretungen außerhalb von Baden-Württemberg. Seit 1954 die Vertretung des Landes Baden-Württemberg beim Bund, welche ihren Sitz bis zum Umzug der Bundesregierung in der Bundesstadt Bonn hatte und heute in der Bundeshauptstadt Berlin sitzt. Im Jahre 1987 kam die Vertretung des Landes Baden-Württemberg bei der Europäischen Union dazu, welche als Bindeglied zwischen dem Bundesland Baden-Württemberg und der Europäischen Union fungiert. Baden-Württemberg und die japanische Präfektur Kanagawa pflegen seit 1989 eine bilaterale Partnerschaft. Innerhalb Europas bildet Baden-Württemberg zusammen mit den Regionen Katalonien, Lombardei und Rhône-Alpes die multilaterale Arbeitsgemeinschaft "Vier Motoren für Europa". Mit service-bw steht den Bürgern eine E-Government-Plattform zur Verfügung. Im landeseigenen Umweltinformationssystem Baden-Württemberg sind aktuelle Messergebnisse zur Luftqualität, zum Bodensee, Unwetterwarnungen, Geoinformationen, und ein Informationssystem für Wasser, Immissionsschutz, Boden, Abfall und Arbeitsschutz abrufbar. Wirtschaft. Nebeneinander von Weinbau und Industrie am Neckar Baden-Württemberg zählt zu den wirtschaftsstärksten und wettbewerbsfähigsten Regionen Europas. Insbesondere im Bereich der industriellen Hochtechnologie sowie Forschung und Entwicklung gilt Baden-Württemberg als die innovativste Region der Europäischen Union. Die Forschungsstärke spiegelt sich in den Ausgaben für Forschung und Entwicklung wider, welche 2005 bei 4,2 % des Bruttoinlandsprodukt liegen, der höchste Wert unter den EU-Regionen (NUTS 1). Gemessen am Bruttoinlandsprodukt gehört Baden-Württemberg zu den wohlhabenderen Regionen der EU mit einem Index von 129 (EU-27: 100, Deutschland: 116) (2008). Nach Hamburg und Bayern belegt Baden-Württemberg den dritten Platz im Kaufkraftvergleich mit 22.115 € pro Einwohner. Die Arbeitslosenquote betrug. Sie ist dabei in den eher ländlich geprägten Regionen traditionell niedriger als in den Städten. So betrug die Quote im Juli 2014 im Landkreis Biberach lediglich 2,5 %, im Bodenseekreis 2,6 % sowie im Alb-Donau-Kreis 2,7 %, während sie in den Stadtkreisen Mannheim mit 6,1 %, Heilbronn mit 6,2 % und insbesondere Pforzheim mit 7,6 % deutlich höher lag. Knapp 50.000 Baden-Württemberger gingen im Jahr 2010 als Grenzgänger einer Arbeit in der Schweiz nach. Aufkleber einer Werbekampagne des Landes Baden-Württemberg Seit 1999 wirbt die Landesregierung mit dem Motto „Wir können alles. Außer Hochdeutsch.“ für Baden-Württemberg als Wirtschaftsstandort und Lebensumfeld. Ziel der von der Landesregierung als äußerst erfolgreich eingeschätzten Kampagne ist es, die wirtschaftliche Leistungsfähigkeit des Landes bekannter zu machen und sie mit den kulturellen, landschaftlichen und gastronomischen Vorzügen zu assoziieren. Das Motto wurde von der Werbeagentur Scholz & Friends erfunden und zunächst dem Freistaat Sachsen angeboten, der seine Nutzung jedoch ablehnte. Landwirtschaft. Das Land weist für die Landwirtschaft höchst unterschiedliche natürliche Bedingungen auf (vgl. Abschnitt Geographie). In der Bilanz sind die tiefer gelegenen Tal- und Beckenräume des Landes ausgesprochene Gunsträume für die Landwirtschaft, hier finden sich neben Ackerbau auch Intensivkulturen wie z. B. Obst- und Weinbau, beispielsweise im Oberrhein-Tiefland, im Neckartal oder im Bodenseegebiet. Der überwiegende Teil des Landes weist mittlere Höhenlagen auf, die für den Getreidebau günstig sind, der in unterschiedlichen Kombinationen mit Grünlandwirtschaft und Futterbau auftritt. Ungünstige Wuchsklimate finden sich in den Höhengebieten des Schwarzwalds und der Schwäbischen Alb sowie in der Baar, hier herrschen Futterbau und Viehhaltung auf Grünland vor. Der allgemeine Strukturwandel der Landwirtschaft, ihre betriebliche Konzentration und die Intensivierung der Produktion, vollzieht sich in Baden-Württemberg aufgrund seiner kleinteiligeren Landwirtschaft mit einiger Verzögerung letztlich in gleicher Geschwindigkeit. Indikatoren sind z. B. Produzierendes Gewerbe. Industrie und Gewerbe beschäftigten 2005 in 8.600 Betrieben gut 1,2 Millionen Menschen, was 38,3 % der sozialversicherungspflichtig Beschäftigten darstellt. Damit ist Baden-Württemberg das deutsche Bundesland mit dem höchsten Anteil der Industriebeschäftigten und dem höchsten Industrieanteil am Bruttoinlandsprodukt. Die international hohe Wettbewerbsfähigkeit der Industriebranchen des Landes wird maßgeblich durch hohe Forschungsleistungen der Unternehmen begünstigt (Wirtschaftsanteil an Forschung und Entwicklung: 3,4 % vom Bruttoinlandsprodukt). Die drei nach Beschäftigtenzahlen wichtigsten Branchen sind Im Schwarzwald war früher die Feinmechanik sehr bedeutend, insbesondere die Uhrenindustrie sowie später die Unterhaltungselektronik (Junghans, Kienzle, SABA, Dual). Auf der Schwäbischen Alb war und ist hauptsächlich die Textilindustrie mit (Hugo Boss, Trigema und Steiff) von Bedeutung. Die Mineralölraffinerie Oberrhein in Karlsruhe ist die zweitgrößte Mineralölraffinerie in Deutschland. In Walldorf hat das größte europäische Software-Unternehmen SAP seinen Sitz. Aus Baden-Württemberg stammen die bekannten Programme VirtualBox, TeamSpeak und TeamViewer. Mit Lexware ist ein weiterer Softwareentwickler in Baden-Württemberg beheimatet und vor allem durch kaufmännische Softwarelösungen bekannt. Energie. In Baden-Württemberg gibt es zwei Kernkraftwerke, das Kernkraftwerk Philippsburg und das Kernkraftwerk Neckarwestheim. Ein drittes Kernkraftwerk in Obrigheim wurde 2005 stillgelegt. 2011 wurden die jeweils ältesten Blöcke der Kernkraftwerke Neckarwestheim und Philippsburg stillgelegt. Seitdem sind nur noch zwei Blöcke mit einer Gesamtbruttoleistung von 2868 MW in Betrieb. Die Flüsse des Landes weisen zahlreiche Laufwasserkraftwerke auf. Mitte der 1970er Jahre wurde das Rheinkraftwerk Iffezheim gebaut. Es wurde 2013 erweitert und ist seitdem mit 148 MW das größte dieser Art in Deutschland. Der Windpark Nordschwarzwald in der Nähe von Simmersfeld ist die größte Windkraftanlage des Landes. (Stand: August 2014) Medien. In Baden-Württemberg produzieren fast 50 Zeitungsverlage täglich mehr als 220 unterschiedliche Tageszeitungen mit einer Auflage von mehr als zwei Millionen Exemplaren. Im Zeitungsbereich gibt es 17 Regionalzeitungen. Die auflagenstärksten (mind. 80.000 Exemplare) sind die "Südwest-Presse", die "Stuttgarter Nachrichten", die "Schwäbische Zeitung", der "Mannheimer Morgen", die "Badische Zeitung", die "Badischen Neuesten Nachrichten", die "Rhein-Neckar-Zeitung", die "Heilbronner Stimme" und die "Stuttgarter Zeitung". Die meisten Lokalzeitungen beziehen jedoch den Mantel von einer Regionalzeitung. Über 500 Verlage in Baden-Württemberg produzieren jährlich über 10.000 Neuerscheinungen. Viele traditionsreiche Unternehmen wie beispielsweise der Ernst Klett Verlag, die Verlagsgruppe Georg von Holtzbrinck oder die Verlagsgruppe Hüthig Jehle Rehm haben ihren Stammsitz im Land. Weiterhin befindet sich in Offenburg der Sitz der Hubert Burda Media, einer der größten Verlags- und Medienkonzerne Deutschlands, der auch auf dem internationalen Markt von Bedeutung ist. In den 800 Bibliotheken des Landes werden über 15,7 Millionen Medien verfügbar gehalten. Die wichtigsten sind die Württembergische Landesbibliothek und die Badische Landesbibliothek. Der öffentlich-rechtliche Rundfunk wird vom Südwestrundfunk betrieben, der auch Klangkörper unterhält, die zu den führenden in Europa gehören: das SWR Sinfonieorchester Baden-Baden und Freiburg, das Radio-Sinfonieorchester Stuttgart, das SWR Vokalensemble Stuttgart sowie die SWR Big Band Stuttgart. Im privaten Hörfunk gibt es neben 13 Lokalsendern drei regionale Bereichssender (Radio Regenbogen, Antenne 1, Radio 7) und einen überregionalen Sender vorwiegend für junge Menschen (bigFM). Zwölf nichtkommerzielle private Hörfunkveranstalter, wie beispielsweise Bermudafunk, Querfunk oder radioaktiv, und fünf Lernradios ergänzen das Angebot. Die Sender BWeins, HD-Campus-TV und Sport in Baden TV bieten ein privates TV-Landesprogramm. Darüber hinaus gibt es 14 regionale TV-Sender, wie das Rhein-Neckar-Fernsehen, Regio TV Schwaben oder RTF.1 Neckar-Alb. Acht private bundesweite Veranstalter senden aus Baden-Württemberg. Tourismus. Pro Jahr werden im Fremdenverkehrsgewerbe Baden-Württemberg rund 49 Millionen Übernachtungen gezählt. Das mittelständisch geprägte Tourismusgewerbe trägt rund fünf Prozent zum Bruttoinlandsprodukt bei. Der Tourismus bietet etwa 200.000 Arbeitsplätze sowie 8.000 Ausbildungsplätze. Da die Arbeitsplätze standortgebunden sind, gelten sie als relativ sicher. Aussicht auf die Innenstadt von Baden-Baden im nördlichen Schwarzwald Der Schwarzwald ist insbesondere für seine romantischen Täler, Schluchten, Mühlen und die typischen Bauernhöfe sowie als Herkunftsort der Kuckucksuhr bekannt. Er ist auch wegen seines guten Wegenetzes ein beliebtes Wandergebiet. Rund um den Feldberg (1493 m), dem höchsten Berg im Schwarzwald, sowie in vielen anderen Orten des Schwarzwalds hat der Wintersport eine lange Tradition. Der Bodensee mit der Alpenkette im Hintergrund ist ebenfalls ein gut besuchtes Reiseziel und auch Naherholungsziel für die Städter; hier finden sich mit den Pfahlbauten Unteruhldingen und dem Kloster Reichenau Zeugnisse unterschiedlichster Epochen. Am See haben die Blumeninsel Mainau und die alten Städte Konstanz und Meersburg die höchsten Besucherzahlen. Nicht weit von der Region um den Bodensee liegen das Donautal sowie Oberschwaben, ein Zentrum des Barocks nördlich der Alpen mit den alten reichsstädtisch geprägten Kleinstädten Biberach an der Riß und Ravensburg. Das württembergische Allgäu lockt mit seiner schönen Landschaft und vielen Wandermöglichkeiten, ebenso wie weiter nördlich der Naturpark Schwäbisch-Fränkischer Wald. Die Schwäbische Alb ist für ihre kleinen romantischen Städte (z. B. Bad Urach), die Heidelandschaften, die ausgedehnten Wälder, die Höhlen, Burgen und Schlösser bekannt (Burg Hohenzollern, Schloss Sigmaringen). Baden-Württemberg hat rund 60 Heilbäder und Kurorte, insbesondere im Schwarzwald und in Oberschwaben. Anziehungspunkte für Städtereisende sind auch die Kurstadt Baden-Baden mit ihrer berühmten Spielbank, die von ihrer akademischen Bevölkerung geprägten alten Universitätsstädte Heidelberg (Heidelberger Schloss und Altstadt), mit 3,5 Millionen Touristen jährlich die meistbesuchte Stadt im Land, Freiburg im Breisgau (Münster und „Bächle“ in der Altstadt) und Tübingen (am Rande des idyllischen Waldes Schönbuch gelegen, auch bekannt für seine Stocherkähne auf dem Neckar), die alten Reichsstädte Esslingen am Neckar, Reutlingen und Ulm (dort steht der höchste Kirchturm der Welt) und die zentral gelegene Landeshauptstadt Stuttgart, größtenteils in einem Talkessel liegend, neben Freiburg im Breisgau die einzige Großstadt Deutschlands mit Weinbergen und Mineralquellen (in Stuttgart-Berg und Bad Cannstatt) auf dem Stadtgebiet, einer sehr hügeligen Topographie (Halbhöhenlage (Stuttgart)) und natürlich den Automobilmuseen (Mercedes, Porsche). Der Europa-Park im südbadischen Rust, Deutschlands größter Freizeitpark, zieht auch internationale Gäste an. Beliebt sind auch die badische und die schwäbische Gastronomie sowie die badischen und württembergischen Weine. Im Schwarzwaldort Baiersbronn befinden sich mit der Schwarzwaldstube und dem Restaurant Bareiss gleich zwei Restaurants, die vom Guide Michelin mit drei Sternen ausgezeichnet sind. Insgesamt befinden sich 74 Sternelokale in Baden-Württemberg. Verkehr. Karte der Flughäfen und Landeplätze in Baden-Württemberg Straßenverkehr. Die wichtigsten Autobahnen sind in Süd-Nord-Richtung die A 5 (von Basel über Karlsruhe bis Weinheim und weiter Richtung Frankfurt am Main) und die A 81 (von Singen über Stuttgart nach Würzburg). Weiter östlich stellt die A 7, die allerdings nur auf einem kurzen Abschnitt zwischen Ulm und Ellwangen durch baden-württembergisches Gebiet verläuft, eine weitere Süd-Nord-Verbindung dar. In West-Ost-Richtung haben die A 6 (von Mannheim über Heilbronn nach Crailsheim und weiter Richtung Nürnberg) und die A 8 (von Karlsruhe über Stuttgart nach Ulm) die größte Bedeutung. Besondere straßenbauliche Herausforderung war und ist der Albaufstieg, der auf 16 km Länge ca. 380 m Höhendifferenz vom Albvorland bis zur Albhochfläche überwindet. Beide West-Ost-Autobahnen liegen jedoch weitgehend in der nördlichen Hälfte des Landes, in der bergigen Südhälfte fehlt eine durchgehende West-Ost-Autobahn. Der Verkehr in diesen Richtungen wird hier durch Bundesstraßen aufgenommen, wie z. B. durch die B 31, welche durch den Südschwarzwald sowie am nördlichen Bodenseeufer entlang führt und dabei die Autobahnen 5, 81 und 96 miteinander verbindet. Letztere erschließt den äußersten Südosten des Landes. Lediglich am Rande des Hochrheins entsteht derzeit nach und nach eine neue Autobahn, die A 98, von der es bereits einige Teilstücke gibt. Gerade die Autobahnen um die Großstädte Baden-Württembergs werden vor allem während der Stoßzeiten von sehr starkem Verkehr belastet. Staus von über 25 Kilometern Länge sind auch außerhalb von Urlaubszeiten keine Seltenheit. Die meistbefahrene Kreuzung Baden-Württembergs ist die Anschlussstelle Stuttgart-Degerloch (als "Echterdinger Ei" bekannt), welches die Kreuzung der A 8 mit der autobahnähnlich ausgebauten B 27 bildet. Es liegt einige Kilometer östlich des Autobahnkreuzes Stuttgart und wird jeden Tag von 170.000 bis 180.000 Fahrzeugen befahren. Die Länge der Autobahnen im Land beträgt 1.039 km, die Länge der Bundesstraßen 4.410 Kilometer. Die Landesstraßen sind 9.893 Kilometer lang, die Kreisstraßen 12.074 Kilometer. (Stand 2007) Schienenverkehr. Das Schienennetz der Deutschen Bahn im Land umfasst 3.400 Kilometer Strecke, auf denen 6.400 Kilometer Gleise verlegt und 9.500 Weichen eingebaut sind. Rund 1.400 Bahnübergänge sind vorhanden. Auf diesem Netz finden täglich 6.500 Zugfahrten statt, die dabei 310.000 Kilometer zurücklegen. Weitere Strecken werden von anderen Eisenbahninfrastrukturunternehmen betrieben; die bedeutendsten sind die Württembergische Eisenbahngesellschaft, die Hohenzollerische Landesbahn und die Karlsruher Albtal-Verkehrs-Gesellschaft. Die Nahverkehrsgesellschaft Baden-Württemberg bestellt im Auftrag des Landes den Öffentlichen Personennahverkehr auf diesen Strecken. Das Karlsruher Modell als Innovation verbindet technologisch die Systeme Eisenbahn und Straßenbahn und wird an vielen Stellen weltweit nachgeahmt. Ein wichtiges Eisenbahnprojekt ist Stuttgart 21. Bei diesem umstrittenen Projekt geht es hauptsächlich darum, den Stuttgarter Hauptbahnhof von einem oberirdischen Kopfbahnhof in einen um 90° gedrehten unterirdischen Durchgangsbahnhof umzubauen. Außerdem soll die Schnellfahrstrecke nach Ulm gebaut und die Anbindung des Stuttgarter Flughafens an das Hochgeschwindigkeitsnetz der Deutschen Bahn erreicht werden. Das Projekt wird insgesamt mehrere Milliarden Euro kosten. Schifffahrt. Der Rhein hat bis Basel und der Neckar bis Plochingen den Status von Bundeswasserstraßen. Am Zusammenfluss in Mannheim liegt der Hafen Mannheim, einer der bedeutendsten Binnenhäfen Europas. Weitere große Häfen sind die Rheinhäfen Karlsruhe mit dem größten Ölbinnenhafen Europas, der Hafen Heilbronn und der Hafen in Kehl. Auf den Flüssen wird auch Fahrgastschifffahrt im Ausflugs- und Freizeitverkehr betrieben. Auf dem Bodensee verkehren die Autofähren, Personenschiffe und Ausflugsboote der "Weißen Flotte". Luftverkehr. Baden-Württemberg verfügt über vier Verkehrsflughäfen. Der internationale Flughafen Stuttgart ist der sechstgrößte Deutschlands. Der Flughafen Baden-Baden bei Rastatt erfuhr einen Aufschwung durch die Angebote von Billigfluglinien und ist der zweitgrößte im Bundesland. Ein weiterer Regionalflughafen befindet sich in Friedrichshafen. Die Regionen Oberrhein und Hochrhein-Bodensee profitieren zudem von den grenznahen Flughäfen Flughafen Basel-Mülhausen, Flughafen Straßburg und Flughafen Zürich. Der Black Forest Airport bei Lahr ist ein Frachtflughafen; im Personenluftverkehr hat er zudem die Lizenz als Zubringerflughafen für den Europapark Rust. Mannheim besitzt mit dem City-Airport einen bedeutenden Verkehrslandeplatz. Kultur. Baden-Württemberg beherbergt zwei Stätten des UNESCO-Welterbes, die Klosterinsel Reichenau im Bodensee und die Zisterzienserabtei Kloster Maulbronn. Außerdem hat es Anteil an den Prähistorischen Pfahlbauten um die Alpen und am Obergermanisch-Raetischen Limes, die ebenfalls zum Weltkulturerbe zählen. In der Badischen Landesbibliothek in Karlsruhe wird die Ausgabe C des Nibelungenlieds aufbewahrt. Die drei vollständigen Handschriften aus dem 13. Jahrhundert wurden gemeinsam im Juli 2009 zum UNESCO-Weltdokumentenerbe ernannt. Der Barbarastollen ist ein stillgelegter Versorgungsstollen bei Oberried in der Nähe von Freiburg im Breisgau. Als einziges Objekt in Deutschland unterliegt der Barbarastollen dem Sonderschutz nach den Regeln der Haager Konvention zum Schutz von Kulturgut bei bewaffneten Konflikten. Er dient seit 1975 als "Zentraler Bergungsort der Bundesrepublik Deutschland" zur Lagerung von fotografisch archivierten Dokumenten mit hoher national- oder kulturhistorischer Bedeutung. In Europa ist er das größte Archiv zur Langzeitarchivierung. Seit 1978 ist der Bergungsort auch in das Internationale Register der Objekte unter Sonderschutz bei der UNESCO in Paris eingetragen. Die Stadt Mannheim ist seit 2014 UNESCO City of Music. Im Süden und entlang des Rheins wird die Schwäbisch-alemannische Fastnacht gefeiert. Das Cannstatter Volksfest wird nach dem Münchner Oktoberfest als zweitgrößtes Volksfest der Welt bezeichnet. Seit 1978 werden im Land die Heimattage Baden-Württemberg veranstaltet. Religionen und Weltanschauungen. Im nördlichen Teil von Württemberg, in den Gebieten der ehemaligen Markgrafschaft Baden-Durlach und in der Kurpfalz ist die Bevölkerung überwiegend evangelisch. Die meisten anderen Gebiete, vor allem Süd- und Nordbaden sowie Oberschwaben, sind mehrheitlich römisch-katholisch. Wie überall in Deutschland gibt es auch eine wachsende Zahl keiner oder anderen Religionen (z. B. Islam) angehörender Einwohner. "Siehe auch: Erzbistum Freiburg, Bistum Mainz und Diözese Rottenburg-Stuttgart, Evangelische Landeskirche in Baden und in Württemberg, Neuapostolische Kirche Süddeutschland" Sprachen und Dialekte. Amts- und Verkehrssprache ist Deutsch. Zahlreiche weitere Sprachen und Dialekte werden von jenen gesprochen, die aus anderen Sprach- oder Mundartregionen kommen oder einen entsprechenden Migrationshintergrund haben. Das traditionelle Verbreitungsgebiet westoberdeutscher (= alemannischer) Dialektmerkmale im 19. und 20. Jahrhundert, an dem Baden-Württemberg wesentliche Anteile hat Zwischen den Mundarträumen bestehen Übergangsgebiete, die sich keinem der Räume eindeutig zuordnen lassen. Es existieren vor allem fränkisch-schwäbische (unter anderem um Calw, um Pforzheim, Strohgäu, Zabergäu), fränkisch-niederalemannische (um Baden-Baden und Rastatt) und schwäbisch-niederalemannische (Oberschwaben) Übergangsgebiete. Vor allem in diesen Gegenden wird die Unschärfe der germanischen Dialektgliederung deutlich. Neuere Entwicklungen sind das Eindringen schwäbischer Dialektmerkmale nach Heilbronn und Schwäbisch Hall. Das Land wird auch außerhalb der Landesgrenze mit (vor allem schwäbischen) Dialektsprechern assoziiert. Die Landesregierung unter Erwin Teufel griff dies 1999 auf, indem sie den Werbeslogan „Wir können alles. Außer Hochdeutsch.“ prägte. Bekannte Mundartkünstler sind z. B. die Dichter bzw. Schriftsteller Thaddäus Troll und Harald Hurst, der Volksschauspieler und Komiker Willy Reichert, der Schauspieler Walter Schultheiß und der Kabarettist Christoph Sonntag. Es gibt Fernsehsendungen im Dialekt wie z. B. Hannes und der Bürgermeister. Auch der Kinofilm bzw. die Fernsehserie "Die Kirche bleibt im Dorf" wurden in Mundart verfilmt. Eine Verschriftlichung der Mundart wie in Luxemburg steht aber nicht zur Debatte. Fußball. In der Fußball-Bundesliga spielen zurzeit mit dem VfB Stuttgart und der TSG 1899 Hoffenheim zwei Vereine aus Baden-Württemberg. Der VfB Stuttgart wurde fünf Mal Deutscher Meister und drei Mal DFB-Pokalsieger. In der 2. Bundesliga spielen der SC Freiburg, der Karlsruher SC, der SV Sandhausen und der 1. FC Heidenheim. In der 3. Liga sind die Stuttgarter Kickers, der VfB Stuttgart II, die SG Sonnenhof Großaspach und der VfR Aalen aktiv. Ehemalige Bundesligisten sind der SV Waldhof Mannheim und der SSV Ulm 1846. Zudem wurde der VfR Mannheim 1949 Deutscher Meister. Handball. Frisch Auf Göppingen gewann 1960 und 1962 den Europapokal der Landesmeister und wurde zwischen 1954 und 1972 neun Mal deutscher Meister. In der Handball-Bundesliga der Männer spielen außerdem zurzeit die Rhein-Neckar Löwen, HBW Balingen-Weilstetten und der TVB 1898 Stuttgart. In der 2. Bundesliga sind die SG BBM Bietigheim und der TV 1893 Neuhausen aktiv. In der Frauen-Bundesliga sind die SG BBM Bietigheim, Frisch Auf Göppingen und der TuS Metzingen vertreten. Basketball. In der Basketball-Bundesliga sind die Walter Tigers Tübingen, die MHP Riesen Ludwigsburg, ratiopharm Ulm und die Crailsheim Merlins beheimatet. In der ProA (zweite Basketball-Bundesliga) spielen die MLP Academics Heidelberg und die Kirchheim Knights. Eishockey. In der Deutschen Eishockey Liga spielen der siebenfache deutsche Meister Adler Mannheim und die Schwenninger Wild Wings. In der DEL2 sind die Ravensburg Towerstars, die Bietigheim Steelers, die Heilbronner Falken sowie der EHC Freiburg vertreten. Volleyball. Der VfB Friedrichshafen gewann 2007 die Volleyball Champions League und wurde je 13 Mal Deutscher Meister und Pokalsieger. In der Volleyball-Bundesliga spielen außerdem der TV Rottenburg und der TV Bühl. Die Mannschaft von Allianz MTV Stuttgart spielt in der Bundesliga der Damen, gewann den DVV-Pokal 2011 und 2015 und wurde 2015 Deutscher Vizemeister. CJD Feuerbach gewann von 1989 bis 1991 die Deutsche Meisterschaft der Frauen und wurde vier Mal Pokalsieger. Wasserball. In der Deutschen Wasserball-Liga sind der SSV Esslingen und der SV Cannstatt, der 2006 Deutscher Meister wurde, vertreten. Hockey. Erfolgreichster Verein ist der HTC Stuttgarter Kickers, welcher 2005 die Deutsche Meisterschaft und 2006 den Europapokal der Landesmeister gewann. Aktuell spielen der Mannheimer HC und der TSV Mannheim sowohl bei den Damen als auch bei den Herren in der Feldhockey-Bundesliga. Tennis. In Stuttgart finden zwei bei den Spielern sehr beliebte internationale Tennisturniere statt: Der "MercedesCup" der Männer auf der Anlage des TC Weissenhof und der "Porsche Tennis Grand Prix" der Frauen in der Porsche-Arena. Das Männerteam des TK Grün-Weiss Mannheim spielt in der 1. Bundesliga. Das Frauenteam des TEC Waldau Stuttgart wurde 2005 Sieger der Bundesliga, das des TC Weissenhof zwischen 1975 und 1989 vier Mal Deutscher Mannschaftsmeister. Baseball. In der Baseball-Bundesliga Süd spielen der Deutsche Rekordmeister Mannheim Tornados, der zweifache Deutsche Meister Heidenheim Heideköpfe, die Stuttgart Reds und die Tübingen Hawks. American Football. In der German Football League spielen die Stuttgart Scorpions, die Rhein-Neckar Bandits und die Schwäbisch Hall Unicorns. Motorsport. Der Hockenheimring zählt zu den bedeutendsten Motorsport-Rennstrecken in Deutschland. Er gehört zu den Austragungsorten für den Großen Preis von Deutschland in der Formel 1 und ist Schauplatz des Eröffnungsrennens sowie des Finales der DTM. In Holzgerlingen, Gaildorf und Reutlingen fanden Läufe zur Motocross-Weltmeisterschaft statt. In Rudersberg werden WM-Läufe mit Seitenwagen veranstaltet. In Berghaupten und Hertingen fanden Läufe zur Langbahn-Welt- und Europameisterschaft statt. Schach. In der Schachbundesliga ist Baden-Württemberg mit der OSG Baden-Baden, dem SV 1930 Hockenheim und dem SC Eppingen vertreten. Seit 2005 wird sie durchgehend von der OSG Baden-Baden angeführt. Schulen. In Baden wurde mit dem Mannheimer Schulsystem der Vorläufer des modernen Schulsystems entwickelt. Heute folgt in Baden-Württemberg nach der vierjährigen Grundschule das dreigliedrige Schulsystem mit Hauptschule, Realschule und Gymnasium mit Abitur nach der zwölften Klasse. Als baden-württembergische Sonderform sind an vielen Hauptschulen Werkrealschulen eingerichtet, die Hauptschülern die Erlangung der mittleren Reife ermöglicht. Hinzu treten sonderpädagogische Förderschulen. In ganz Baden-Württemberg gibt es lediglich drei integrierte Gesamtschulen in Freiburg, Heidelberg und Mannheim, die als Schulen besonderer Art im Schulgesetz für Baden-Württemberg eine Sondergenehmigung erhalten haben. Des Weiteren führt Baden-Württemberg als einziges Bundesland die besondere Form des „sechsjährigen Wirtschaftsgymnasiums“, welches das bundesweit einzige berufliche Gymnasium ist, das bereits mit der gymnasialen Mittelstufe beginnt. Der Besuch dauert von Klassenstufe 8 und endet in Jahrgangsstufe 13 mit der allgemeinen Hochschulreife. In den von der OECD durchgeführten PISA-Studien erreichen die Schüler Baden-Württembergs regelmäßig Spitzenplätze. Nach dem Regierungswechsel 2011 führte die Landesregierung als neue Schulform in Baden-Württemberg die Gemeinschaftsschule ein, die meist aus ehemaligen Hauptschulen (bzw. Werkrealschulen), vereinzelt aber auch aus Realschulen gebildet wurden. Zum Schuljahr 2013/14 gab es 129 Gemeinschaftsschulen im Land, weitere 81 folgen 2014. Hochschulen. Baden-Württemberg verfolgt eine dezentrale Bildungs-, Hochschul- und Forschungsinfrastruktur. Die Hochschulen sind über das ganze Land verteilt. Insgesamt liegen über ein Viertel aller Hochschulstandorte im ländlichen Raum. In Baden-Württemberg gibt es 9 staatliche Universitäten, 6 pädagogische Hochschulen (Universitäten gleichgestellt) sowie die private Zeppelin-Universität und 73 staatliche und private Hochschulen. Die baden-württembergischen Hochschulen gehören zu den renommiertesten in Deutschland. In einem Hochschulranking des Magazins "Focus" (2005) wurden sechs baden-württembergische Universitäten unter die besten zehn eingestuft. In Heidelberg befindet sich die älteste Universität in Deutschland; außerdem gibt es noch Universitäten in Freiburg, Konstanz, Mannheim, Stuttgart, Tübingen, Stuttgart-Hohenheim, Ulm, in Nachfolge der Universität Karlsruhe das Karlsruher Institut für Technologie sowie die private Zeppelin-Universität in Friedrichshafen. 2006 wurde die ehemalige Universität Karlsruhe bei der Exzellenzinitiative des Bundes und der Länder als eine von bundesweit drei zu fördernden Universitäten mit „Zukunftskonzepten“ ausgewählt. In der zweiten Runde der Exzellenzinitiative folgten 2007 die Universitäten Heidelberg, Konstanz und Freiburg als zu fördernde Hochschulen in den exklusiven Kreis der „Eliteuniversitäten“ nach, sodass zeitweise vier von insgesamt neun der durch die Exzellenzinitiative in allen drei Förderlinien geförderten deutschen Universitäten in Baden-Württemberg lagen. Im Zuge der dritten Runde der Exzellenzinitiative im Jahr 2012 verloren jedoch das Karlsruher Institut für Technologie und die Universität Freiburg diesen Status, währenddessen die Universität Tübingen erstmals diese Auszeichnung erlang. Damit liegen derzeit noch drei von insgesamt elf „Eliteuniversitäten“ in Baden-Württemberg. Die staatlichen Fachhochschulen tragen in Baden-Württemberg seit 2006 den Titel "Hochschule". Neben einer Vielzahl von weiteren Hochschulen, wie "Kunst- und Musikhochschulen" oder "pädagogischen Hochschulen" wird der tertiäre Bildungsbereich durch die Duale Hochschule Baden-Württemberg ergänzt. Bundesweit einzigartig ist die Popakademie Baden-Württemberg. In Ludwigsburg befindet sich die renommierte Filmakademie Baden-Württemberg. Betriebssystem. Zusammenhang zwischen Betriebssystem, Hardware, Anwendungssoftware und dem Benutzer Ein Betriebssystem ist eine Zusammenstellung von Computerprogrammen, die die Systemressourcen eines Computers wie Arbeitsspeicher, Festplatten, Ein- und Ausgabegeräte verwaltet und diese Anwendungsprogrammen zur Verfügung stellt. Das Betriebssystem bildet dadurch die Schnittstelle zwischen den Hardware-Komponenten und der Anwendungssoftware des Benutzers. Betriebssysteme bestehen in der Regel aus einem Kernel (deutsch: Kern), der die Hardware des Computers verwaltet, sowie speziellen Programmen, die beim Start unterschiedliche Aufgaben übernehmen. Zu diesen Aufgaben gehört unter anderem das Laden von Gerätetreibern. Betriebssysteme finden sich in fast allen Arten von Computern: Als Echtzeitbetriebssysteme auf Prozessrechnern und Eingebetteten Systemen, auf Personal Computern, Tablet Computern, Smartphones und auf größeren Mehrprozessorsystemen wie z. B. Servern und Großrechnern. Benutzerkommunikation; Laden, Ausführen, Unterbrechen und Beenden von Programmen; Verwaltung und Zuteilung der Prozessorzeit; Verwaltung des internen Speicherplatzes für Anwendungen; Verwaltung und Betrieb der angeschlossenen Geräte; Schutzfunktionen z. B. durch Zugriffsbeschränkungen. Die Gewichtung zwischen diesen Aufgaben wandelte sich im Laufe der Zeit, insbesondere wird Schutzfunktionen wie dem Speicherschutz oder begrenzten Benutzerrechten heute eine höhere Bedeutung zugemessen als noch in den 1990er Jahren. Dies macht Systeme allgemein robuster, reduziert z.B. die Zahl der Programm- und Systemabstürze und macht das System auch stabiler gegen Angriffe von außen, etwa durch Computerviren. "Dieser" Artikel behandelt den Begriff „Betriebssystem“ hauptsächlich im Kontext „allgemein zur Informationsverarbeitung verwendete Computersysteme“. Daneben sind Betriebssysteme (mit ggf. spezialisierter Funktionalität) grundsätzlich in nahezu allen Geräten im Einsatz, in denen Software betrieben wird (wie Spielecomputer, Mobiltelefone, Navigationssysteme, Maschinen der Maschinenbaubranchen u. v. a.). Auch viele Steuerungssysteme (eingebettetes System) die z. B. in Flugzeugen, Autos, Zügen, oder in Satelliten zu finden sind, besitzen spezialisierte Betriebssysteme. Definitionen und Abgrenzung. In der DIN-Sammlung 44300 wird Betriebssystem definiert mit: "Die Programme eines digitalen Rechensystems, die zusammen mit den Eigenschaften dieser Rechenanlage die Basis der möglichen Betriebsarten des digitalen Rechensystems bilden und die insbesondere die Abwicklung von Programmen steuern und überwachen." In diesem Sinne stellt das Betriebssystem selbst lediglich eine Schnittstelle für Systemfunktionen (auch Systemrufe oder Systemaufrufe genannt) bereit, die von Programmen genutzt werden können. Hierzu sind auch Boot-Loader, Gerätetreiber, bestimmte Systemdienste, Programmbibliotheken etc. erforderlich. Die meisten aktuellen Betriebssystem-Lehrbücher und Universitätsvorlesungen folgen dieser engeren Sichtweise und behandeln daher ausschließlich die Aufgaben des Kernels. Eine "noch weitere Fassung" des Begriffes, die beispielsweise auch Editoren und Compiler umfasst, geht zum Teil auf ältere Werke des deutschen Sprachraums zurück, lässt sich aber auch in aktueller Literatur noch finden. So zählen die Autoren des Informatik-Dudens auch Übersetzungsprogramme und Dienstprogramme zu den wesentlichen Komponenten eines Betriebssystems. In jüngerer Zeit kann der Linux-Namensstreit als Beispiel für die Abgrenzungsprobleme angesehen werden. Ungeachtet dessen, wie weit oder wie eng man den Begriff „Betriebssystem“ fasst, enthalten die Installationsmedien für Betriebssysteme für gewöhnlich zusätzliche Dienst- und Anwendungsprogramme. Entwicklungsstufen. Lochkarten verarbeitende Systeme (gilt sinngemäß auch für Lochstreifen) gehören mittlerweile (seit Anfang der 70er Jahre) der Vergangenheit an. Jedoch sind sie ein guter Ansatz zur Betrachtung der Systementwicklung: In diesen räumlich relativ großen Systemen gab es noch keine externen elektronischen Speichermedien. Die Programme lagen (in Maschinensprache) in Form von Lochkartenstapeln vor und wurden durch den Operator über den Lochkartenleser in den internen Speicher 'eingelesen'. Nach der „Ende-Karte“ wurde das Anwendungsprogramm gestartet, das seine Eingabedaten je nach Aufgabenstellung ebenfalls über den Kartenleser lesen (deshalb der Begriff Stapelverarbeitung, engl. "batch processing", "queued systems") und seine Ergebnisse direkt über einen Drucker und/oder über den Kartenstanzer ausgeben musste. Vor- und nachgelagert waren, mithilfe elektro-mechanischer Geräte (Kartenlocher, Mischer, Sortierer) ausgeführt, Erfassungs-, Misch- und Sortiervorgänge erforderlich. Bereits zu diesem Zeitpunkt war die interne Verarbeitung deutlich schneller als die Ausgabegeräte; das Lesen eines Lochkartenstapels (Karton mit 2000 Karten) dauerte ca. 5-10 Minuten, die Arbeitsspeichergrößen solcher Rechner lagen bei ca. 16 bis 64 KB (Beispiel siehe 360). Diese Maschinen besaßen kein konventionelles Betriebssystem, wie es heute geläufig ist. Lediglich ein Kontrollprogramm (resident monitor) wurde im Speicher gehalten und sorgte für den reibungslosen Ablauf, indem es die Kontrolle an die momentan auszuführenden Programme übergab. Der Rechner konnte stets nur ein Programm nach dem anderen ausführen. Eine Weiterentwicklung – Multiprogrammed Batch Systems – konnte zusätzliche Geräte unterstützen (Magnetbandeinheiten, erste Magnetplatten mit z. B. 7,25 MB Speichervolumen), mehrere Programme gleichzeitig ausführen (z. B. in 3 'Partitionen') sowie Programme und Daten auf externen Speichern halten. Eine schnellere Abarbeitung war möglich, da die Zeit für das Lesen und Ausgeben der Kartenstapel entfiel – und die Prozessoren schneller wurden. Hier wurden Mechanismen wie das Spooling (Zwischenausgabe von Druckerdaten auf Magnetband mit verzögertem, parallel möglichem Drucken) und die Möglichkeit des Offline-Betriebs bereits ausgiebig genutzt. Jedoch war ein Programm nötig, welches sich der Aufgaben E/A-Verwaltung, Speicherverwaltung und vor allem CPU-Scheduling etc. annimmt. Ab diesem Zeitpunkt konnte man von ersten Betriebssystemen reden. Die nächsten Schritte waren dann Folgen der jeweiligen Aufgabenbereiche, die den Systemen zukamen. Folgende Systeme sind entstanden und bis zum heutigen Tage im Einsatz: Parallele Systeme, Verteilte Systeme, Personal-Computer-Systeme, Time-Sharing-Systeme, Real-Time-Systeme und in neuester Zeit auch die so genannten Handheld-Systeme. Im PC-Bereich sind derzeit die meistgenutzten Betriebssysteme die verschiedenen Varianten von Microsoft Windows (führend bei Systemen mit GUI), BSD inkl. Apple OS X und GNU/Linux (führend bei Servern). Für spezielle Anwendungen (Beispiel: industrielle Steuerung) werden auch experimentelle Betriebssysteme für Forschungs- und Lehrzwecke eingesetzt. Neben den klassischen Varianten gibt es noch spezielle Betriebssysteme für verteilte Systeme, bei denen zwischen dem logischen System und den physikalischen System(en) unterschieden wird. Der logische Rechner besteht aus mehreren physikalischen Rechnereinheiten. Viele Großrechner, Number-Cruncher und die Systeme aus dem Hause Cray arbeiten nach diesem Prinzip. Eines der bekanntesten Betriebssysteme im Bereich verteilte Systeme ist Amoeba. "Siehe auch:" Liste von Betriebssystemen Aufgaben. Als Gerät aus der Sicht eines Betriebssystems bezeichnet man aus historischen Gründen alles, was über Ein-/Ausgabekanäle angesprochen wird. Dies sind nicht nur Geräte im herkömmlichen Sinn, sondern mittlerweile auch interne Erweiterungen wie Grafikkarten, Netzwerkkarten und anderes. Die (Unter-)Programme zur Initialisierung und Ansteuerung dieser „Geräte“ bezeichnet man zusammenfassend als Gerätetreiber. Betriebsmittelverwaltung und Abstraktion. Als Betriebsmittel oder Ressourcen bezeichnet man alle von der Hardware eines Computers zur Verfügung gestellten Komponenten, also den Prozessor (bei Mehrprozessorsystemen die Prozessoren), den physikalischen Speicher und alle Geräte wie Festplatten-, Disketten- und CD-ROM-Laufwerke, Netzwerk- und Schnittstellenadapter und andere. Die "Hardware Compatibility List" enthält alle Hardware-Produkte, die im Zusammenhang mit einem bestimmten Betriebssystem auf ihre Funktionalität hin getestet wurden. Einführendes Beispiel: Zeitgeberbausteine. Moderne Rechnersysteme besitzen Zeitgeberbausteine (Timer). In frühen PCs wurde z. B. der Baustein 8284 der Firma Intel eingesetzt. Dieser Baustein muss zunächst initialisiert werden. Er kann dann nach Ablauf einer Zeitspanne oder periodisch den Prozessor unterbrechen und ihn zur Abarbeitung einer eigenen Routine veranlassen. Neben der Initialisierung ist eine Unterbrechungsroutine zu erstellen, deren Aufruf in einer dafür geeigneten Sprache (meist Assembler) programmiert werden muss. Da Unterbrechungen asynchron auftreten, sind komplexe Verhältnisse hinsichtlich der Datenstrukturen zu berücksichtigen. Genaue Kenntnisse des Bausteins (Datenblatt), der Computerhardware (Unterbrechungsbehandlung) und des Prozessors sind erforderlich. Die einzelnen Komponenten, die an diesem Prozess beteiligt sind, fasst man unter dem Begriff Rechnerarchitektur zusammen. Virtuelle Prozessoren. Ein modernes Mehrprogrammbetriebssystem verwendet einen solchen Zeitgeberbaustein, um den normalerweise einzigen Prozessor periodisch (normalerweise im Millisekundenbereich) zu unterbrechen und eventuell mit einem anderen Programm fortzufahren (so genanntes präemptives Multitasking). Die Initialisierung und die Unterbrechungsroutine werden dabei vom Betriebssystem implementiert. Auch wenn nur ein einzelner Prozessor zur Verfügung steht, können mehrere Programme ausgeführt werden, jedes Programm erhält einen Teil der Prozessorzeit (Scheduling). Jedes Programm verhält sich, bis auf die verlangsamte Ausführungszeit, so, als hätte es einen eigenen "virtuellen Prozessor". Virtuelle Zeitgeber. Über einen Systemruf, zum Beispiel "alarm", wird jedem Programm darüber hinaus ein eigener "virtueller Zeitgeber" zur Verfügung gestellt. Das Betriebssystem zählt die Unterbrechungen des Original-Zeitgebers und informiert Programme, die den "alarm"-Systemruf verwendeten. Die einzelnen Zeitpunkte werden über eine Warteschlange verwaltet. Abstraktion. Die Hardware des Zeitgebers ist damit vor den Programmen verborgen. Ein System mit Speicherschutz erlaubt den Zugriff auf den Zeitgeberbaustein nur über den Kernel und nur über exakt definierte Schnittstellen (meist Systemrufe genannt, die über spezielle Prozessorbefehle wie TRAP, BRK, INT realisiert werden). Kein Programm kann somit das System gefährden, die Verwendung des "virtuellen Zeitgebers" ist einfach und portabel. Der Anwender oder Programmierer braucht sich nicht um die (komplexen) Details zu kümmern. Virtualisierung weiterer Betriebsmittel. So wie Prozessoren und Zeitgeber "virtualisiert" werden, ist dies auch für alle anderen Betriebsmittel möglich. Dabei werden einige Abstraktionen teilweise nur als Software implementiert, andere erfordern spezielle Hardware. Dateisysteme. Über Dateisysteme werden die Details der externen Speichersysteme (Festplatten-, Disketten- oder CD-ROM-Laufwerke) verborgen. Dateinamen und Verzeichnisse erlauben den bequemen Zugriff, die eigentlich vorhandene Blockstruktur und die Geräteunterschiede sind vollkommen unsichtbar. Interner Speicher. Der interne Speicher (RAM) wird in Blöcke (Kacheln) aufgeteilt und den entsprechenden Programmen auf Anforderung zur Verfügung gestellt. Allenfalls noch vorhandene Daten werden zuvor gelöscht. Über "virtuellen Speicher" wird bei vielen Systemen jedem Programm ein kontinuierlicher (zusammenhängender) Bereich zur Verfügung gestellt. Dieser Speicher ist physikalisch nicht notwendigerweise zusammenhängend, es können sogar unbenutzte Teile auf den externen Speicher ausgelagert sein. Der "virtuelle Speicher" eines Programms kann sogar größer als der reale Speicher sein. Netzwerk. Die Details der Netzwerkzugriffe werden verborgen, indem auf die eigentliche Hardware (Netzwerkkarte) ein Protokollstapel aufgesetzt wird. Die Netzwerksoftware erlaubt beliebig viele "virtuelle Kanäle". Auf der Ebene der Sockets (Programmierung) ist die Netzwerkkarte vollkommen unsichtbar, das Netzwerk hat viele neue Fähigkeiten (bidirektionale, zuverlässige Datenströme, Adressierung, Routing) bekommen. Bildschirm. Als Grafische Benutzeroberfläche (GUI, Abk. für engl. "Graphical User Interface") wird generell eine Bildschirmausgabe beschrieben, wenn sie über eine Eingabeaufforderung hinausgeht. Mit den richtigen Grafikkarten und Bildschirmen ist die Darstellung von geometrischen Objekten (Linien, Kreisen, Ellipsen, aber auch Schriftattributen und Farben) auf dem Bildschirm möglich, aus denen sich komplexere geometrische Elemente wie Knöpfe, Menüs, etc. Benutzeroberflächen zum einfachen Steuern von Programmen erstellen lassen. Die Grafikkarte als Hardware ist für den Programmierer und Anwender vollkommen verborgen. Erste Betriebssysteme (bis 1980). Die ersten Rechner besaßen keine Betriebssysteme. Dies lag einerseits an deren Bauweise (mechanische Rechenmaschinen wie Abacus, Rechenschieber usw.) oder an ihrem stark eingeschränkten Einsatzgebiet (Mark I, ENIAC, Colossus). Mit der Erfindung und dem Einsatz des Transistors (1947) und der Erfindung der Mikroprogrammierung 1955 durch Maurice Wilkes wurden in der Folge nicht mehr Einzelmaschinen, sondern ganze Modellreihen eingesetzt. Jeder Hersteller lieferte zu dieser Zeit sogar für verschiedene Modellreihen seiner Produkte verschiedene Betriebssysteme, so dass Programme nur auf einer bestimmten Modellreihe liefen und weder zwischen verschiedenen Computern noch über verschiedene Generationen portierbar waren. Mit der Einführung der Modellreihe 360 von IBM führte IBM 1964 das Betriebssystem 360 ein. Es war das erste Betriebssystem, das modellreihenübergreifend eingesetzt wurde. Ab 1963 wurde Multics in Zusammenarbeit von MIT, General Electric und den Bell Laboratories (Bell Labs) von AT&T entwickelt, das jedoch erst ab 1969 bis 2000 im Einsatz war. Multics wurde in I programmiert. Inspiriert von den Arbeiten an Multics startete eine Gruppe um Ken Thompson und Dennis Ritchie an den Bell Labs 1969 mit der Entwicklung von Unix. Unix wurde in den Jahren 1972–1974 bis auf wenige Teile in der höheren Programmiersprache C mit dem Ziel der Portabilität neu implementiert. Zu dieser Zeit war auch das Betriebssystem M weit verbreitet. Der C64, ein Heimcomputer der 1980er Jahre. In den 1980er Jahren wurden Heimcomputer populär. Diese konnten neben nützlichen Aufgaben auch Spiele ausführen. Die Hardware bestand aus einem 8-Bit-Prozessor mit bis zu 64 KiB RAM, einer Tastatur und einem Monitor- bzw. HF-Ausgang. Einer der populärsten dieser Computer war der Commodore C64 mit dem Mikroprozessor 6510 (einer Variante des 6502). Dieser Computer hatte ein 8 KiB-ROM-BIOS ("Basic Input/Output System"), das die Geräte Bildschirm, Tastatur, serielle IEC-Schnittstelle für Diskettenlaufwerke bzw. Drucker, Kassetteninterface initialisierte und über ein Kanalkonzept teilweise abstrahierte. Über ein 8 KiB-ROM-BASIC, das auf die Funktionen des BIOS aufsetzte, konnte das System bedient und programmiert werden. Das Betriebssystem dieses Computers kann auf der Ebene des BASIC-Interpreters als gute Hardwareabstraktion angesehen werden. Natürlich sind weder Kernel, Speicher- oder sonstiger Hardwareschutz vorhanden. Viele Programme, vor allem auch Spiele, setzten sich über das BIOS hinweg und griffen direkt auf entsprechende Hardware zu. Abstraktionsschichten im Betriebssystem des Heimcomputers C64 Die grafische Benutzeroberfläche (GUI) von Apple. Beispiel für eine grafische Benutzeroberfläche Xerox entwickelte im Palo Alto Research Center (PARC) das Smalltalk-Entwicklungssystem (Xerox entwickelte mit ALTO (1973) und Star (1981) erste Rechner mit grafischer Benutzeroberfläche). Die Firma Apple bot Xerox an, die Technologie zu kaufen; da PARC aber vor allem ein Forschungszentrum war, bestand kein Interesse an Verkauf und Vermarktung. Nachdem Apple-Chef Steve Jobs Xerox Aktienanteile von Apple anbot, wurde ihm erlaubt, einigen Apple-Entwicklern die Xerox-Demos zu zeigen. Danach war den Apple-Entwicklern auf jeden Fall klar, dass der grafischen Benutzeroberfläche die Zukunft gehörte, und Apple begann, eine eigene GUI zu entwickeln. Viele Merkmale und Prinzipien jeder modernen grafischen Benutzeroberfläche für Computer, wie wir sie heute kennen, sind originale Apple-Entwicklungen (Pull-down-Menüs, die Schreibtischmetapher, Drag and Drop, Doppelklicken). Die Behauptung, Apple habe seine GUI von Xerox „abgekupfert“ ist ein ständiger Streitpunkt; es existieren jedoch gravierende Unterschiede zwischen einem Alto von Xerox und der Lisa/dem Macintosh. Der Mac-OS-Nachfolger. Mitte der 1990er Jahre steckte Apple in einer tiefen Krise; die Firma schien kurz vor dem Ruin. Ein dringliches Problem war dabei, dass Apples Betriebssystem als veraltet betrachtet wurde und Apple sich nach Alternativen umzusehen begann. Nach dem Scheitern des wichtigsten Projektes für ein modernes Betriebssystem mit dem Codenamen Copland sah sich Apple gezwungen, Ausschau nach einem für die eigenen Zwecke verwendungsfähigen Nachfolger für das eigene Betriebssystem zu halten. Zuerst wurde vermutet, dass Apple die Firma Be Incorporated, mit ihrem auch auf Macs lauffähigen Betriebssystem BeOS, übernehmen würde. Die Übernahmeverhandlungen scheiterten jedoch im November 1996, da der frühere Apple-Manager und Chef von Be Jean-Louis Gassée im Falle einer Übernahme 300 Millionen US-Dollar und einen Sitz im Vorstand verlangte. Da Gil Amelio versprochen hatte, bis zur Macworld Expo im Januar 1997 die zukünftige Strategie in Bezug auf Mac OS zu verkünden, musste schnell eine Alternative gefunden werden. Überraschend übernahm Apple dann noch im Dezember 1996 die Firma NeXT des Apple-Gründers Steve Jobs und deren Betriebssystem NeXTStep/OPENSTEP für 400 Millionen US-Dollar. Dieses sollte die Grundlage für die nachfolgende Generation des Apple-Betriebssystems werden. Das den neuen Erfordernissen angepasste und optisch aktualisierte NeXTStep wurde dann unter dem Namen Mac OS X ein großer Erfolg. Mit der Übernahme von NeXT zog bei Apple auch eine neue Firmenkultur ein. Steve Jobs, in den 1980ern von der von ihm mitgegründeten Firma vergrault, nun "Chief Executive Officer" (CEO) von NeXT, wurde 1997 wieder Firmenchef von Apple. Avie Tevanian, auch ein NeXT-Mitarbeiter, übernahm die Entwicklungsabteilung. Jobs beendete die Lizenzierung des Betriebssystems an andere Hersteller (z. B. Power Computing) und stellte die Produktion des Newton ein. Disk Operating System (DOS). Der Ursprung von DOS liegt in M und wurde 1974 von Digital Research eingesetzt. Die Portierung auf den Motorola 68000, genannt CP/M-68k, selbst kein großer kommerzieller Erfolg, wurde zur Grundlage für TOS, das Betriebssystem des Atari ST. MS-DOS Version 1.0 erschien 1981 als Nachbildung von CP/M und wurde für IBM-PCs eingesetzt. Es setzt auf das BIOS auf und stellt Dateisystemoperationen zur Verfügung. Die ersten IBM-PCs waren ganz ähnlich wie der C64 aufgebaut. Auch sie verfügten über ein eingebautes BIOS zur Initialisierung und Abstraktion der Hardware. Sogar ein BASIC-Interpreter war vorhanden. Im Gegensatz zum BIOS wurde auf BASIC jedoch in den kompatiblen Rechnern anderer Firmen verzichtet. Der PC konnte mit seinem Intel-8088-Prozessor (16-Bit-Register) bis zu 1 MiB Speicher adressieren, die ersten Modelle waren jedoch nur mit 64 KiB ausgestattet. Diskettenlaufwerke lösten die alten Kassettenrekorder als Speichermedium ab. Sie erlauben vielfaches Schreiben und Lesen einzeln adressierbarer 512-Byte-Blöcke. Die Benutzung wird durch ein "Disk Operating System (DOS)" vereinfacht, das ein abstraktes Dateikonzept bereitstellt. Blöcke können zu beliebig großen Clustern (Zuordnungseinheit – kleinste für das Betriebssystem ansprechbare Einheit) zusammengefasst werden. Dateien (logische Informationseinheiten) belegen einen oder mehrere dieser (verketteten) Cluster. Eine Diskette kann viele Dateien enthalten, die über Namen erreichbar sind. Auf den ersten PCs war kein Speicherschutz realisiert, die Programme konnten daher an DOS vorbei direkt auf BIOS und sogar auf die Hardware zugreifen. Erst spätere PCs wurden mit dem Intel-80286-Prozessor ausgestattet, der Speicherschutz ermöglichte. MS-DOS stellte auch keinen für alle Zwecke ausreichenden Abstraktionsgrad zur Verfügung. Es ließ sich nur ein Programm gleichzeitig starten, die Speicherverwaltung war eher rudimentär. Ein Teil der Hardware wurde nicht unterstützt und musste von Programmen direkt angesprochen werden, was dazu führte, dass beispielsweise für jedes Spiel die Soundkarte neu konfiguriert werden musste. Die Performance einiger Routinen, speziell zur Textausgabe, war verbesserungswürdig. Viele Programme setzten sich daher zwangsläufig über das Betriebssystem hinweg und schrieben z. B. direkt in den Bildschirmspeicher. MS-DOS wurde mit einem Satz von Programmen (so genannten Werkzeugen) und einem Kommandointerpreter (COMMAND.COM) ausgeliefert. Microsoft Windows. 1983 begann die Firma Microsoft mit der Entwicklung einer grafischen Betriebssystem-Erweiterung („Grafik-Aufsatz“) für MS-DOS namens Windows. Das MS-DOS und BIOS-Design der PCs erlaubten keine Weiterentwicklung in Richtung moderner Serverbetriebssysteme. Microsoft begann Anfang der 1990er ein solches Betriebssystem zu entwickeln, das zunächst als Weiterentwicklung von 2 geplant war (Microsoft war zwischen 1987 und 1991 an der Entwicklung beteiligt): Windows NT 3.1 (Juli 1993). Für den Consumer-Markt brachte Microsoft am 15. August 1995 Windows 95 heraus; es setzt auf MS-DOS auf. Dieser „Consumer-Zweig“ wurde mit der Veröffentlichung von Windows Millennium (August/September 2000) abgeschlossen. Aufbau von Windows NT: Über die Hardware wurde eine Abstraktionsschicht, der "Hardware Abstraction Layer (HAL)" gelegt, auf den der Kernel aufsetzte. Verschiedene Gerätetreiber waren als Kernelmodule ausgeführt und liefen wie der Kernel im privilegierten "Kernel Mode". Sie stellten Möglichkeiten der E/A-Verwaltung, Dateisystem, Netzwerk, Sicherheitsmechanismen, virtuellen Speicher usw. zur Verfügung. Systemdienste "(System Services)" ergänzten das Konzept; wie ihre UNIX-Pendants, die daemons, waren sie in Form von Prozessen im "User-Mode" ausgeführt. Abstraktionsschichten unter Windows NT (etwas vereinfacht) Über so genannte "Personalities" wurden dann die Schnittstellen bestehender Systeme nachgebildet, zunächst für Microsofts eigenes, neues Win32-System, aber auch für 2 (ohne Grafik) und POSIX.1, also einer Norm, die eigentlich Unix-Systeme vereinheitlichen sollte. Personalities liefen wie Anwenderprogramme im unprivilegierten "User-Mode". Das DOS-Subsystem war in Form von Prozessen implementiert, die jeweils einen kompletten PC mit MS-DOS als virtuelle Maschine darstellten; darauf konnte mit einer besonderen Version von Windows 3.1, dem "Windows-on-Windows", auch Win16-Programme ausgeführt werden. "Windows-on-Windows" blendete dazu die Fenster der Win16-Programme in das Win32-Subsystem ein, das die Grafikausgabe verwaltete. Das System erlaubte daher die Ausführung von Programmen sowohl für MS-DOS wie für die älteren Windows-Betriebssysteme, allerdings unter vollkommener Kontrolle des Betriebssystems. Dies galt aber nur für die Implementierung für Intel-80386-Prozessoren und deren Nachfolger. Programme, die direkt auf die Hardware zugreifen, blieben aber außen vor. Insbesondere viele Spiele konnten daher nicht unter Windows NT ausgeführt werden, zumindest bis zur Vorstellung von WinG, das später in DirectX umbenannt wurde. Ohne die Möglichkeit eines direkten Zugriffs auf die Grafikhardware bzw. -treiber war die Programmierung von leistungsfähigen Actionspielen zunächst auf die älteren Windows-Versionen beschränkt. Windows NT erschien in den Versionen 3.1, 3.5, 3.51 und 4.0. Windows 2000 stellte eine Weiterentwicklung von Windows NT dar. Auch Windows XP, Windows Server 2003, Windows Vista, Windows Server 2008, Windows 7, Windows Server 2012, Windows 8 und Windows 10 bauen auf der Struktur von Windows NT auf. Linux (GNU/Linux). Linus Torvalds, Entwickler von Linux 1991 begann Linus Torvalds in Helsinki/Finnland mit der Entwicklung des Linux-Kernels, den er bald danach der Öffentlichkeit zur Verfügung stellte. Es läuft als portables Betriebssystem auf verschiedenen Rechnerarchitekturen, wurde aber zunächst für PCs mit Intel-80386-Prozessor entwickelt. Das in diesen Rechnern verwendete BIOS dient nur noch zum Initialisieren der Hardware und zum Starten des Bootloaders, da die Routinen des BIOS für Multitaskingsysteme wie Linux ungeeignet sind. Dies kommt zustande, da insbesondere der Prozessor durch Warten belastet wird anstatt durch eine – in der Hardware durchaus vorhandene – geschickte Unterbrechungsverwaltung "(interrupt handling)" auf Ereignisse "(events)" zu reagieren. Linux verwendet daher nach dem Starten des Systems eigene Gerätetreiber. Es verteilt die Prozessorzeit auf verschiedene Programme (Prozesse). Jeder dieser Prozesse erhält einen eigenen, geschützten Speicherbereich und kann nur über Systemaufrufe auf die Gerätetreiber und das Betriebssystem zugreifen. Die Prozesse laufen im Benutzermodus "(user mode)", während der Kernel im Kernel-Modus "(kernel mode)" arbeitet. Die Privilegien im Benutzermodus sind sehr eingeschränkt. Ein direkter Zugriff wird nur sehr selten und unter genau kontrollierten Bedingungen gestattet. Dies hat den Vorteil, dass kein Programm z. B. durch einen Fehler das System zum Absturz bringen kann. Linux stellt wie sein Vorbild Unix eine vollständige Abstraktion und Virtualisierung für nahezu alle Betriebsmittel bereit (z. B. virtueller Speicher, Illusion eines eigenen Prozessors). Billy Wilder. Billy Wilder, anfangs "Billie" Wilder, bürgerlicher Name "Samuel Wilder" (* 22. Juni 1906 in Sucha, Galizien (damals Österreich-Ungarn, heute Sucha Beskidzka in Polen); † 27. März 2002 in Los Angeles, Kalifornien) war ein US-amerikanischer Drehbuchautor, Filmregisseur und Filmproduzent österreichischer Herkunft. Wilder wirkte stilbildend für Filmkomödie und -drama und erreichte als Regisseur und Drehbuchautor sowohl von Komödien wie "Manche mögen’s heiß" und "Das Mädchen Irma la Douce" als auch von dramatischen Filmen wie "Das verlorene Wochenende, Sunset Boulevard (Boulevard der Dämmerung)" oder "Zeugin der Anklage" zeitlose Bedeutung. Sein Werk umfasst mehr als sechzig Filme, die in über fünfzig Jahren entstanden. Er wurde als Autor, Produzent und Regisseur einundzwanzig Mal für einen Oscar nominiert und sechs Mal ausgezeichnet. Allein bei der Oscarverleihung 1961 wurde er als Produzent, Drehbuchautor und Regisseur des Films "Das Appartement" dreifach ausgezeichnet, was bisher nur sieben Regisseuren gelungen ist. Herkunft. Samuel Wilder war der Sohn jüdischer Eltern. Sein Vater Max Wilder betrieb in Krakau das Hotel "City" sowie mehrere Bahnhofsrestaurants in der Umgebung. Die Mutter rief den Sohn von jeher „Billie“. Samuel Wilder nannte sich daher „Billie Wilder“ – der Nachname deutsch ausgesprochen. In den USA änderte er die Schreibweise dann zu „Billy“. Während des Ersten Weltkriegs zog die Familie 1916 aus Angst vor der herannahenden russischen Armee nach Wien. In seiner Jugend in Wien war er eng mit dem späteren Hollywood-Regisseur Fred Zinnemann befreundet, mit dem er zeitweise in dieselbe Klasse (Privatgymnasium Juranek im 8. Gemeindebezirk) ging und mit dem er ein Leben lang Kontakt hielt. Nach seiner Matura arbeitete Wilder als Reporter für die Wiener Boulevardzeitung "Die Stunde". Als er 1926 den Jazzmusiker Paul Whiteman interviewte, war dieser von ihm so begeistert, dass er ihn einlud, nach Berlin mitzukommen, um ihm die Stadt zu zeigen. Eine Woche später kam heraus, dass „Die Stunde“ Wiener Geschäftsleute und Prominente mit der Drohung erpresste, unvorteilhafte Artikel über sie zu veröffentlichen. Die Angelegenheit wurde zum größten Medienskandal der Ersten Republik in Österreich, und Wilder beschloss, in Berlin zu bleiben und für eine andere Zeitung zu arbeiten. In Berlin. a> 11, Wilders erstem Wohnort in Berlin. Wilder wohnte 1927 in Berlin-Schöneberg (Viktoria-Luise-Platz 11) zur Untermiete: „Eineinhalb Jahre. Ein winziges Zimmer mit düsterer Tapete. Wand an Wand mit einer ständig rauschenden Toilette.“ Hier begann auch seine Filmkarriere, als der Direktor einer Filmgesellschaft, Maxim Galitzenstein, sich in Unterhosen aus dem Schlafzimmer der Nachbarin in Wilders Zimmer flüchten musste und deshalb nicht umhin kam, dessen erstes Drehbuch zu kaufen. Als Ghostwriter für bekannte Drehbuchautoren wie Robert Liebmann und Franz Schulz konnte Wilder sich neben seiner Tätigkeit als Reporter eine zusätzliche Einkommensquelle erschließen. So trug er zu dem Filmklassiker "Menschen am Sonntag" (unter anderem mit Curt Siodmak, Robert Siodmak, Fred Zinnemann und Edgar G. Ulmer) bei. Gemeinsam mit Erich Kästner schrieb er 1931 das Drehbuch für "Emil und die Detektive", die Erstverfilmung von Kästners Roman – damals noch als "Samuel Wilder". Emigration und Arbeit in den USA. Unmittelbar nach der „Machtergreifung“ der Nationalsozialisten übersiedelte Wilder 1933 nach Paris, wo er sich als Ghostwriter für französische Drehbuchautoren seinen Lebensunterhalt verdiente. Hier inszenierte er auch seinen ersten Film, "Mauvaise graine" mit Danielle Darrieux. 1934 konnte er, von Joe May mit einem Besuchervisum ausgestattet, in die Vereinigten Staaten einreisen. Hier nannte er sich jetzt „Billy“ und wurde 1936 von Paramount Pictures unter Vertrag genommen. Er schrieb die Drehbücher zu Komödien wie "Ninotschka", bei dem sein Vorbild Ernst Lubitsch Regie führte, und "Enthüllung um Mitternacht", die beide 1939 veröffentlicht wurden. 1942 führte Wilder in der Komödie "Der Major und das Mädchen" mit Ginger Rogers erstmals Regie, da er mit den ständigen Änderungen an seinen Drehbüchern unzufrieden war und selbst das Heft in die Hand nehmen wollte. Wilders zweiter Film "Fünf Gräber bis Kairo" mit Franchot Tone diente 1943 als Propagandafilm gegen das NS-Regime im Zweiten Weltkrieg. Im folgenden Jahr inszenierte er mit "Frau ohne Gewissen" einen bedeutenden Klassiker des Film noir, der Barbara Stanwyck als Femme Fatale zeigte. Der Film erhielt fünf Oscar-Nominierungen, unter anderem für Wilder in der Kategorie "Beste Regie" und "Bestes adaptiertes Drehbuch". 1945 erhielt Wilder vom U.S. Army Signal Corps den Auftrag, das umfangreich vorhandene Drehmaterial des amerikanischen und britischen Militärs u.a. über die Befreiung des KZ Bergen-Belsen zu einem Kurzfilm zu verdichten. Dies war der einzige Dokumentarfilm unter seiner Aufsicht, "Die Todesmühlen (Death Mills)". Trotz aller persönlichen Betroffenheit – seine nächsten Verwandten waren im Holocaust ermordet worden – wollte er keinen „Gräuelfilm“, da er sofort erkannte: „Objektiv gesehen: So unsympathisch die Deutschen sein mögen, sie sind – und jetzt zitiere ich Wort für Wort den guten Onkel in Washington – unsere logischen Verbündeten von morgen.“ Während seine Nominierungen bei "Frau ohne Gewissen" noch erfolglos blieben, erhielt er 1946 je einen Oscar als Regisseur und Drehbuchautor für den Film "Das verlorene Wochenende". Das Drama um einen erfolglosen Schriftsteller (Ray Milland) setzte sich ungewöhnlich hart und realistisch mit den Problemen eines Alkoholikers auseinander. Kurz danach kam Wilder im Auftrag der amerikanischen Regierung im Rang eines Colonels nach Deutschland und inszenierte im kriegszerstörten Berlin 1947/48 den Film "Eine auswärtige Affäre" mit Jean Arthur und Marlene Dietrich in den Hauptrollen, der sich kritisch mit der NS-Vergangenheit von Menschen im besetzten Deutschland auseinandersetzte. Im selben Jahr führte Wilder zudem beim Filmmusical "Ich küsse Ihre Hand, Madame" mit Bing Crosby Regie. Nach 1950 war Wilder meist auch als Produzent an seinen Filmen beteiligt. Er schuf Klassiker wie "Boulevard der Dämmerung" (1950), mit Gloria Swanson als verblendeter Ex-Diva, "Das verflixte 7. Jahr" (1955) und "Manche mögen’s heiß" (1959), beide mit Marilyn Monroe, "Zeugin der Anklage" (1958), erneut mit Marlene Dietrich, sowie "Das Appartement" (1960) und "Das Mädchen Irma la Douce" (1963), beide mit Shirley MacLaine, und die Komödie "Eins, Zwei, Drei" (1962) mit James Cagney, Liselotte Pulver und Horst Buchholz in den Hauptrollen. Billy Wilders Alter Ego auf der Leinwand verkörperten Jack Lemmon und William Holden. Während Holden vor allem in dramatischen Werken wie "Boulevard der Dämmerung, Stalag 17" oder "Fedora" wirkte, war Lemmon in Komödien wie "Manche mögen’s heiß, Das Mädchen Irma la Douce, Der Glückspilz" und "Extrablatt" zu sehen. Wilders spätere Werke konnten an die Erfolge seiner Glanzzeit nicht anknüpfen. Ab Mitte der 1980er Jahre beschränkte er sich auf die Tätigkeit als Berater bei United Artists. Wilder, dessen Familie im Holocaust umkam (siehe Privatleben), war ursprünglich als Regisseur für "Schindlers Liste" im Gespräch. Aufgrund seines hohen Alters übernahm dann doch Steven Spielberg selbst die Regie. Wilder war von Spielbergs Werk tief berührt und ließ ihn das in einem Brief wissen, was Spielberg in einem Antwortbrief als große Ehre durch den Altmeister bezeichnete. Ab 1999 übernahm Billy Wilder die Schirmherrschaft über das Bonner "Billy-Wilder-Institute of Film and Television Studies oHG", das 2002 kurz vor Wilders Tod geschlossen werden musste. Billy Wilder starb am 27. März 2002 in Los Angeles im Alter von 95 Jahren an einer Lungenentzündung. Er hatte schon länger mit gesundheitlichen Problemen zu kämpfen, aber immer noch häufig Interviews gegeben. Sein Grab befindet sich im Westwood Village Memorial Park Cemetery. 2008 wurde in Wien Landstraße (3. Bezirk) die Billy-Wilder-Straße nach ihm benannt. Privatleben. Wilder war von 1936 bis 1947 mit Judith Coppicus-Iribe verheiratet. Sie hatten eine gemeinsame Tochter, Victoria (* 1939). 1949 heiratete Wilder die Schauspielerin und Sängerin Audrey Young (1922–2012). 1989 ließ Billy Wilder, der insbesondere Picasso und europäische Impressionisten sammelte, seine umfangreiche Gemäldesammlung versteigern. Der Erlös betrug 32,6 Millionen US-Dollar. Billy Wilders Mutter Gitla starb 1943 im KZ Plaszow, sein Stiefvater Bernhard (Berl) Siedlisker wurde im KZ Belzec ermordet. Namensaussprache. Billy Wilder ist als "Weilder" geläufig. Wolfgang Glück berichtet jedoch, Wilder habe sich ihm 1987 als "Wilder" bekanntgemacht und seinen Namen immer in dieser Form ausgesprochen. Der Drehbuchautor als Regisseur. Nachdem er zahlreiche Drehbücher geschrieben und sich oft über die Umsetzung geärgert hatte, entschied sich Wilder, die Regie seiner Drehbücher selbst zu übernehmen. Der Entschluss sei ihm gekommen, als sich Charles Boyer bei den Dreharbeiten zu "Das goldene Tor (Hold Back the Dawn 1941)" weigerte, ein Zwiegespräch mit einer Kakerlake zu führen, wie Wilder es im Drehbuch vorgesehen hatte, und Regisseur Mitchell Leisen danach Wilders Proteste zurückwies. Diese Szene war Wilder besonders wichtig, weil er darin Erinnerungen an seine eigene Situation verarbeitet hatte, als er 1934 in Mexicali hinter der amerikanisch-mexikanischen Grenze darauf warten musste, wieder in die USA einreisen zu dürfen, um endgültig die amerikanische Staatsbürgerschaft zu erlangen. In einem seiner späteren Filme griff Wilder das Motiv in abgewandelter Form auf, als er mit James Stewart in Lindbergh – Mein Flug über den Ozean (1957) den berühmten Piloten bei seinem Flug über den Atlantik mit einer zufällig im Cockpit mitreisenden Fliege sprechen lässt. Zuvor war es Preston Sturges als erstem Drehbuchautor gelungen, ins Regiefach zu wechseln und das strenge „Kastendenken“ des alten Hollywood zu durchbrechen. Preston Sturges verkaufte sein Drehbuch für "Der große McGinty" für 10 US-Dollar an Paramount Pictures mit der Bedingung, es selbst verfilmen zu dürfen. Der Film wurde ein Kassenschlager. Nach seinem ersten Film als Regisseur "Der Major und das Mädchen" (1942) schrieb Wilder nie wieder Drehbücher für andere. Über spätere Adaptionen seiner Werke (z. B. "Sabrina" von Sydney Pollack) äußerte er sich eher abschätzig. Billy Wilders Regiestil ist von seiner Herkunft aus dem schreibenden Fach geprägt; er glaubte wie kaum ein anderer an die Macht und Bedeutung des Drehbuches. Er ließ, wie Alfred Hitchcock, bei den Dreharbeiten kaum Änderungen zu: Er lehnte allzu extravagante Kameraeinstellungen ab, weil sie das Publikum von der Handlung ablenken könnten. Nur wenn das Publikum sich nicht mehr bewusst sei, dass überhaupt ein Kamerateam anwesend war, entstehe der Zauber eines guten Films. Dennoch war ihm die Bildgestaltung sehr wichtig. In "Das Appartement" nutzte er das Cinemascope-Breitwandformat geschickt aus, um etwa die Einsamkeit seines Protagonisten filmisch darzustellen. Er liebte den Schwarzweißfilm und nutzte ihn noch, als Farbfilm längst Standard war. Seine erfolgreichsten Filme hat er in Schwarzweiß gedreht. Grundsätze. In Volker Schlöndorffs TV-Dokumentation "Billy Wilder, wie haben Sie’s gemacht?" erläuterte Wilder diesem einige seiner Grundsätze, die beim Filmemachen zu beachten seien; so beispielsweise, wann keine Nahaufnahmen "(close-ups)" gemacht werden dürften. Ein Darsteller, der versuche, eine plötzliche Erkenntnis, einen Einfall darzustellen, sehe immer dumm aus (“looks stupid”). Auch die Nahaufnahme des Gesichts eines Menschen, der gerade eine Todesnachricht erhalte, sei unpassend. Es gebe zwei wichtige Elemente eines guten Drehbuches: die Konstruktion einer Geschichte und die Dialoge. Agatha Christie sei eine ausgezeichnete Konstrukteurin von Geschichten, aber eher schwach in ihren Dialogen gewesen. Raymond Chandler, der dagegen sehr gute Dialoge verfassen konnte, habe jedoch von der Konstruktion einer Geschichte keine Ahnung gehabt. Als sein Vorbild betrachtete Wilder Ernst Lubitsch, für den er einige Drehbücher (Ninotchka) verfasste. In seinem Büro hing ein Schild mit der Aufschrift: “How would Lubitsch have done it?” (Wie hätte Lubitsch es gemacht?) Merkmale. In der Struktur bevorzugte Billy Wilder den Aufbau der Handlung in drei Akten aus klassischen Theaterstücken. Wilder legte seine Dreiakter so an, dass die Hauptakteure am Ende des dritten Aktes eine moralische Entscheidung treffen mussten. Wilders Filme zeichnen sich durch eine straffe Handlung und spritzige, griffige Dialoge aus. In den Handlungen gelang es ihm oft die Grenzen des Unterhaltungsfilmes zu durchstoßen und schlüpfrige Details oder als anstößig geltende Themen in seinen Filmen zu realisieren, um der bigotten Gesellschaft den moralischen Spiegel vor die Nase zu halten. Dabei bediente er sich einer ausgefeilten Symbolsprache und vermeintlich harmloser Formulierungen, um das Hays Office, die Zensurstelle der amerikanischen Filmindustrie, hinters Licht zu führen. Er thematisierte gleich in seiner ersten Regiearbeit ein Liebesverhältnis eines Erwachsenen mit einer Minderjährigen, was besonders im Wortspiel des Originaltitels "The Major and the Minor (Der Major und das Mädchen)" deutlich wurde. Er ließ Männer in Frauenkleidern spielen "(Manche mögen’s heiß)" und schuf so die Grundlage, um eine Fülle anzüglicher und hintergründiger Anspielungen unterzubringen. Ehebruch kommt in zahlreichen Variationen in seinen Filmen vor, ebenso Prostitution oder Homosexualität. Seine Protagonisten sind keine strahlenden moralischen Helden, sondern oft eher Durchschnittsmenschen mit Fehlern und Schwächen, die aber aufgrund besonderer Herausforderungen in bestimmten Situationen über sich hinauswachsen. Selbstzitate. Bestimmte Versatzstücke aus seinen Filmen hat Wilder immer wieder verwendet. Als Drehbuchautor. bis 1936 unter dem Namen „Billie Wilder“ Auszeichnungen. Golden Globes Writers Guild of America gemeinsam mit Charles Brackett und D.M. Marshman Jr. gemeinsam mit Samuel L. Taylor und Ernest Lehman Directors Guild of America Cannes Film-Festival 1946 Laurel Awards British Film Academy Award Boulevard der Stars David di Donatello Deutscher Filmpreis Europäischer Filmpreis Internationale Filmfestspiele Berlin Fotogramas de Plata Sindacato Nazionale Giornalisti Cinematografici Italiani Los Angeles Film Critics Association Award Venedig Film Festival American Film Institute Walk of Fame Würdigung. Zur 60-Jahr-Feier der Filmakademie Wien stiftete Rudolf John den "Billy Wilder Award", der von der Filmakademie vergeben wird. Im Jahr 2003 legte die österreichische Post eine Sonderbriefmarke zu seinen Ehren auf. Barry Levinson. Barry Levinson (* 6. April 1942 in Baltimore, Maryland) ist ein US-amerikanischer Filmregisseur. Leben. Während seines Studiums hatte Levinson unterschiedliche Jobs beim Fernsehen in Baltimore. Um endgültig in der Film- und Fernsehbranche zu arbeiten, ging er nach Los Angeles und nahm Schauspielunterricht. Erste Jobs als Komödiant in Comedy-Clubs brachten ihn zum Schreiben von Drehbüchern. Anfang der 1970er Jahre begann er Drehbücher für Sitcoms und Kinofilme zu schreiben, die u. a. von Mel Brooks realisiert wurden. Sein Debüt als Regisseur gab er dann 1982 mit "American Diner". 1989 gewann er für "Rain Man" den Oscar für die beste Regie. Obwohl er in seiner Karriere auch immer wieder Flops wie "Toys", "Avalon" oder "Sphere – Die Macht aus dem All" landete, gelangen ihm ebenfalls häufig spektakuläre Erfolge wie "Rain Man" und "Banditen!". Viele seiner Filme spielen in der Stadt seiner Jugend Baltimore: "American Diner", "Tin Men", "Avalon" und "Liberty Heights". Bernardo Bertolucci. Bernardo Bertolucci (* 16. März 1940 in Parma, Italien) ist ein italienischer Filmregisseur. Zwischen 1962 und 2012 inszenierte er 16 Spielfilme. Sein dem Geheimnis verpflichteter Erzählstil ist oft opernhaft und melodramatisch und lässt Mehrdeutigkeiten viel Raum. Bertolucci inszeniert vielfach Bezugnahmen auf Musik, Malerei und Literatur. Zu seinen meistbeachteten Werken gehören "Der große Irrtum/Der Konformist", "Der letzte Tango in Paris", "1900" ("Novecento") sowie "Der letzte Kaiser". Diese Werke entstanden alle mit seinem langjährigen Kameramann, dem befreundeten Vittorio Storaro, der sie durch seinen spezifischen Ausleuchtungsstil mitprägte. Herkunft und Jugend. Die Familie wohnte außerhalb Parmas im ländlichen Dorf Baccanelli, wo der kleine Bernardo viel Kontakt mit den Kindern einfacher Bauern hatte. Seine Mutter war Lehrerin für Literatur, der Vater Attilio war ein landesweit bekannter Dichter und lehrte Kunstgeschichte. Bertolucci kam noch vor dem Schulalter mit Poesie in Berührung, die er alltäglich vermittelt bekam, denn die Gedichte des Vaters rankten sich oft um die häusliche Umgebung. Mit sechs Jahren begann der kleine Bernardo Gedichte zu schreiben. Daneben war der Vater als Filmkritiker für die "Gazzetta di Parma" tätig und fuhr regelmäßig nach Parma, um sich Filme anzusehen, über die er schreiben sollte. Oft nahm er Bernardo mit, der in der Folge „Parma“ mit „Kino“ gleichsetzte. Mit 15 Jahren drehte er zwei 16-mm-Amateurkurzfilme. Als die Familie nach Rom umzog, verlor er die Bezugspunkte und fühlte sich entwurzelt. Er hatte es nun mit Kindern aus dem Kleinbürgertum zu tun: "„Was als gesellschaftlicher Aufstieg gedacht war, erlebte ich als Herabstufung des Lebenswandels, denn schließlich haben die Bauern etwas Älterhergebrachtes und daher Aristokratischeres als das Kleinbürgertum.“" In den ersten Jahren in Rom lehnte er die Stadt ab. Zum Freundeskreis der Familie zählte dort der Dichter und spätere Filmemacher Pier Paolo Pasolini. Der Vater arbeitete für einen Verleger und half Pasolini 1955, dessen ersten Roman und danach auch Gedichte zu veröffentlichen. Als Belohnung für den erfolgreichen Schulabschluss durfte der junge Bertolucci 1959 einen vollen Monat in Paris verbringen, wo er öfter die Cinémathèque Française aufsuchte. Mit zwanzig habe er den Eindruck gehabt, meinte Bernardo Bertolucci, es sei sehr natürlich, Filme zu drehen. Er brach sein Studium der modernen Literatur an der Universität Rom ab und wurde Regieassistent bei Pasolinis Erstling "Accattone". Da Pasolini als Literat im Film unerfahren war und sich dessen Ausdrucksmittel erst aneignen musste, hatte Bertolucci dabei das Gefühl, der Geburt der filmischen Sprache beizuwohnen. Im Jahr darauf veröffentlichte Bertolucci einen Gedichtband, "In cerca del mistero", und erhielt dafür bei einem der angesehensten Literaturpreise Italiens, dem Viareggio, die Auszeichnung in der Sektion für das beste Erstlingswerk. Dennoch wandte er sich endgültig von der Schriftstellerei ab. Familie und Privatleben. Bernardos jüngerer Bruder Giuseppe war Theaterregisseur. Sein Vetter Giovanni ist Filmproduzent und hat diese Funktion bei einigen seiner Filme wahrgenommen. Bernardo Bertolucci lernte bei der Entstehung von "Accattone" Adriana Asti kennen, die für die nächsten Jahre seine Lebensgefährtin wurde. Sie spielte in seinem zweiten Spielfilm "Vor der Revolution" die weibliche Hauptrolle. 1980 heiratete er die britische Drehbuchautorin Clare Peploe. Seit mehreren Jahren leidet Bertolucci unter Rückenproblemen. Eine misslungene Bandscheibenoperation zwang ihn in den Rollstuhl. Er merkte, wie schlecht die Situation von Rollstuhlfahrern in Rom ist, weil auch viele öffentliche Gebäude nicht rollstuhlgängig sind, und eröffnete 2012 eine Kampagne zur Verbesserung der Lage. Politische Haltung. Ähnlich wie mehrere andere bedeutende italienische Filmregisseure auch, darunter Pasolini, Visconti und Antonioni, bekannte sich Bertolucci zum Marxismus. Er erzählte, von Kindheit an Kommunist gewesen zu sein, als er viel Zeit unter Bauern verbrachte. Zunächst aus sentimentalen Gründen; als die Polizei eines Tages einen Kommunisten erschossen hatte, entschied er sich für deren Seite. Er trat jedoch erst 1968 der Kommunistischen Partei Italiens bei. Trotz der marxistischen Einstellung sprach er sich für Individualismus aus. "„Die wichtigste Entdeckung, die ich nach den Ereignissen vom Mai 1968 machte, war, dass ich die Revolution nicht für die Armen gewollt hatte, sondern für mich. Die Welt hätte sich für mich ändern sollen. Ich entdeckte den individuellen Aspekt politischer Revolutionen.“" Er grenzte sich von jenen unter den Marxisten ab, die dem Volk dienen wollen, und fand, es sei dem Volk am besten gedient, wenn er sich selber diene, denn nur dann könne er Teil des Volkes sein. Kino, auch politisches, habe keine politischen Auswirkungen. Ende der Siebziger Jahre drückte er Schuldgefühle aus, sich nicht genügend am Leben der Partei zu beteiligen. Schöpferischer Ansatz und Stil. Zu Beginn seines filmischen Schaffens postulierte Bertolucci: "„Ich sehe keinen Unterschied zwischen Kino und Gedichten. Damit meine ich, dass es von der Idee zum Gedicht keine Vermittlung gibt, so wie keine zwischen einer Idee und einem Film besteht.“" Bereits die Idee selbst müsse poetisch sein, sonst könne keine Poesie entstehen. Später schwächte er diese Aussage dahin ab, der Film sei dem Gedicht näher als dem Roman. Als er im Alter von 15 Jahren mit einer 16-mm-Kamera bei den Bauern eine traditionelle Schweineschlachtung filmte, stach der Schlachter am Herz vorbei und das toll gewordene Tier entwand sich. Es rannte blutend über den verschneiten Hof, was selbst auf Schwarzweißmaterial eindrücklich aussah und in ihm die Überzeugung weckte, beim Drehen dem Zufall so viel Raum wie möglich zu gewähren. Die Drehbücher sah er nur als Skizzen an, die er beim Drehen an die Schauplätze ebenso anpasste wie an die Darsteller, die sich nicht in die geschriebenen Figuren verwandeln sollten. Der visuelle Stil von Bertoluccis Filmen ist gekennzeichnet von pompös langen Kamerafahrten und sehr bewusst gestalteten Farben. Bildausschnitte und Bewegungen der Kamera legte er jeweils selber fest, da er sie als Bestandteil seines Regiestils, seiner persönlichen „Handschrift“ auffasste. Sein langjähriger Kameramann Vittorio Storaro, zwischen 1969 und 1993 an acht Werken beteiligt, war nur für die Beleuchtung zuständig. Typisch für Bertoluccis Erzählstil ist es, Bezüge zu Werken der Malerei, der Oper, der Literatur und des Films herzustellen oder sie zu zitieren. Der Vorspann einiger seiner Filme besteht aus der Einblendung eines oder mehrerer Gemälde. Sämtliche Filme bis 1981 enthalten eine Tanzszene, von denen manche der Handlung eine neue Wendung geben. Die Tänze drücken politische oder sexuelle Konflikte aus, dabei stehen ausgelassener Freudentaumel und strenger Regelgehorsam einander gegenüber. Häufig wird sein Stil als der Oper verwandt beschrieben, weil er deren übertriebene, zur Schau gestellte Melodramatik und musikalische Lyrik anklingen lässt und ganze Handlungen von Verdi-Opern inspiriert sein können. Das Singen von Arien und andere Anspielungen auf Verdi dienen als ironischer Kommentar zum Geschehen. Seine Filme fallen, wenn der Genrebegriff überhaupt angemessen ist, in verschiedenste Genres. Die Schlüsse seiner Werke sind, was viele Zuschauer unbefriedigt lässt, meist offen, "„Rückzüge, Auflösungen ins Unwirkliche, um keinen Punkt setzen zu müssen.“" Die vordergründige Handlung ist von eher geringer Bedeutung, sofern sie für das Publikum überhaupt nachvollziehbar ist. Inhaltliche Schwerpunkte. Autobiographische Elemente haben einen starken Eingang in Bertoluccis Filme gefunden; dennoch entwickelte er die Drehbücher oft mit Koautoren. Er gewährte unzählige Gespräche, bevorzugt mit Filmfachzeitschriften, in denen er seine Werke und seine darin verfolgten Absichten erklärte. Oft zeigte er die Einflüsse in seinen Filmen auf, sowohl solche aus der Kunst wie aus seinem persönlichen Leben und aus seiner Psychoanalyse. Er bemühte sich, als Auteur seiner Filme wahrgenommen zu werden. Mehrdeutigkeit. In Mehrdeutigkeiten, Widersprüchen und Paradoxen sieht Bertolucci etwas Positives, weil Freiheit total sein muss, sogar wenn dies zu inkohärenten Haltungen führt. "„Wir sollten gegen das arbeiten, was wir gemacht haben. Man macht etwas, dann widerspricht man dem, dann widerspricht man dem Widerspruch und so weiter. Lebendigkeit entsteht genau kraft der Fähigkeit, sich selber zu widersprechen …“" Der Titel seines einzigen veröffentlichten literarischen Werks, des Gedichtbandes "In cerca del mistero", bedeutet "Auf der Suche nach dem Geheimnis". Diese Suche zieht sich durch sein ganzes filmisches Schaffen. Er bewegt sich sowohl in der erfahrbaren Welt und wie im Traum, lotet die Beziehung zwischen Vergangenheit und Gegenwart aus, zwischen dem, was man ist, und dem, was man zu sein hat. "„Er jongliert zwischen den Genres, Stilen und Theorien und mischt zu jedem Spiel die Karten aufs Neue.“" Er spielt mit allen Formen, meidet Einförmigkeit und versucht beständig Neues, das erstaunt und befremdet. Er möchte für sein Publikum möglichst unvorhersehbar sein und es überraschen, wie er auch sich selbst von Werken anderer gerne überraschen lässt. Überzeugt, dass ein Film erst durch den Zuschauer vollendet wird, hält er jede Deutung eines Werks für richtig. Bertolucci ist kulturell kosmopolitisch, was sich insbesondere in seinen internationalen Großproduktionen ausdrückt, die sich auf vier Kontinenten abspielen. „"Bertoluccis Protagonisten sind Gefangene, die aus ihrer Heimat ausbrechen können, aber noch in der Fremde Gefangene ihrer Sehnsucht werden.“" Identität und Doppelgängermotiv. In mathematischen Größen wäre sein Werk durch die Zahl 2 am besten umschrieben, geometrisch durch die Ellipse, die statt eines einzigen Zentrums deren zwei hat. Der Zuschauer, gewohnt seine Aufmerksamkeit auf einen Punkt zu richten, ist gezwungen, zwei Zentren zu beachten. Bertolucci stellt häufig Identitäten in Frage; wiederholt tauchen die Motive der Schizophrenie, gespaltener Persönlichkeiten und des Doppelgängers auf. Unterschiedliche Figuren führen parallele Leben oder werden von demselben Schauspieler verkörpert. Am offensichtlichsten ist das Prinzip in "Partner", das auf Dostojewskis Roman "Der Doppelgänger" basiert. Auch in der "Strategie der Spinne" spielt der gleiche Darsteller zwei Rollen, Vater und Sohn. Die beiden Figuren Olmo und Alfredo in "1900" sind am selben Tag geboren, und Bertolucci unterzieht ihre parallel geschilderten Leben einem Vergleich. In "Die Träumer" kommt ein Zwillingspaar vor, ein Bruder und eine Schwester, die voneinander nicht loskommen. Aber auch Ereignisse innerhalb eines Films finden oft in gewandelter Form zweimal statt. Manchmal enthalten die Bilder Spiegelungen, und Wirklichkeit und Einbildung bestehen nebeneinander. In Bertoluccis Universum ist eben auch nichts einzigartig. Vergänglichkeit und Tod. In Bertoluccis Universum ist nichts fest, Menschen, Gesellschaften, Situationen und die Moral sind allmählichen Verwandlungen unterworfen und vergänglich. Großen Raum nehmen Alterung und körperlicher Verfall ein. Der Tod ist nicht ein brutal eintretender Endpunkt des irdischen Lebens, sondern innerhalb des Lebens präsent als eine in zahlreiche Fragmente zerstückelte Agonie, "„ein langer, keuchender Schrei.“" Bertolucci zitierte den Ausspruch, Film zeige den Tod bei der Arbeit. Grundlage aller Poesie sei das Vergehen von Zeit. In auffallend vielen Titeln seiner Filme kommt die Zeit vor, am offensichtlichsten in "Vor der Revolution" und "1900". Der Mond in "La Luna" ist für die Gezeiten verantwortlich. Es gibt den "Letzten Tango" und den "Letzten Kaiser", und der Tod ist präsent in "Todeskampf" und "La Commare Secca". Ödipale Konflikte mit Vaterfiguren. Seine Figuren unterliegen oft einem Determinismus und können der Vergangenheit nicht entkommen. Es sind zum Beispiel junge Menschen, die aus ihrer Familie und sozialen Klasse ausbrechen wollen, aber unweigerlich nach den Mustern der Vergangenheit leben. Ihnen steht eine männliche Autoritätsfigur gegenüber, die gemischte Gefühle hervorruft und die sie letztlich ablehnen. Die aufbegehrenden Söhne erringen nur zwischenzeitliche Siege; die Strategien der Väter überdauern. Der Vatermord taucht als Motiv mehr oder minder offen in fast allen Filmen der ersten Schaffenshälfte auf. Bernardo Bertolucci hatte es in jungen Jahren mit mehreren Vaterfiguren zu tun, die auf sein Leben und Werk einen Einfluss ausübten, von dem er sich befreien wollte. Sein Vater, Attilio Bertolucci, war ein in Italien bekannter Dichter. Zwar veröffentlichte Bernardo Bertolucci einen eigenen Gedichtband, doch blieb das sein einziges literarisches Werk. Nach eigener Aussage wollte er mit dem Vater wettstreiten, doch spürte er, dass er den Kampf verlieren würde. Daher wich er auf ein anderes Gebiet, das Kino, aus. Ein anderes Mal begründete er das Ende seiner dichterischen Arbeit damit, nicht dasselbe in Gedichten und in Filmen mitteilen zu wollen. Die zweite Figur war Pier Paolo Pasolini. Er wohnte einige Jahre im selben Gebäude; der junge Bernardo war ihm befreundet und las ihm regelmäßig seine Gedichte vor; es entwickelte sich eine Beziehung wie zwischen Lehrer und Schüler. Diese setzte sich fort, als ihn Pasolini 1961 zu seinem Regieassistenten ernannte. Stilistisch blieb Pasolinis Einfluss bescheiden. Die künstlerisch beherrschende Gestalt war der französische Filmregisseur Jean-Luc Godard. Die Filme aus Bertoluccis ersten zwei Jahrzehnten sind von einer ästhetischen und politischen Auseinandersetzung mit Godard und seinem Werk geprägt. Während er Godards Einfluss in "Vor der Revolution" und "Partner" feierte, verwirklichte er in der "Strategie der Spinne" einen eigenen Stil und schritt darauf im "Großen Irrtum" zum symbolischen Vatermord. Im "Letzten Tango in Paris" schließlich karikierte er Godards und seine eigene Kinomanie in der Figur des Jungfilmers Tom. Godard radikalisierte sich Ende der Sechzigerjahre politisch und filmästhetisch und stand Bertoluccis Hinwendung zu konventionelleren Großproduktionen ablehnend gegenüber. Bertolucci nannte Ende der 1960er Jahre Pasolini und Godard seine bevorzugten Regisseure, zwei große Poeten, die er sehr bewundere, und daher wolle er gegen beide anfilmen. Denn um Fortschritte zu erzielen, und um anderen etwas geben zu können, müsse man mit jenen kämpfen, die man am meisten liebe. Frauen als Nebenfiguren. Bertolucci thematisiert häufig die Unterdrückung von Söhnen durch Väter beziehungsweise durch das Patriarchat. Im Mittelpunkt des narrativen und emotionalen Geschehens stehen männliche Figuren, während die weiblichen Rollen Ableitungen männlicher Ängste und Hassgefühle sind. Es sind oft niedere oder gar destruktive Rollen, die meist eine sexualisierte Funktion innerhalb der Erzählung einnehmen. An der Figur Caterina in "La Luna" offenbart Bertolucci seine Sicht, dass sich kreative Arbeit und Muttersein nicht erfolgreich vereinbaren lassen. Die Frauen haben in der Regel keine intellektuellen Interessen und leben für Instinkte und sinnliches Vergnügen. Es sind die männlichen Figuren, die leiden und dies Leiden geistig verarbeiten. Anfangsjahre (bis 1969). Die ersten Jahre seines filmischen Schaffens waren geprägt von der Suche nach einem eigenen Stil und eigenen Themen. Im Alter von nur 21 Jahren erhielt Bertolucci überraschend die Gelegenheit, einen ersten Film zu drehen. Nach dem Erfolg von Pasolinis Film "Accattone" war der Produzent darauf aus, eine seiner Kurzgeschichten zu verfilmen. Da sich Pasolini bereits dem Projekt Mamma Roma zugewandt hatte, beauftragte der Produzent mit der Ausarbeitung des Stoffes zu einem Drehbuch einen anderen Autor und Bertolucci, dem das dargestellte Milieu römischer proletarischer Kleinkrimineller fremd war. Dennoch bemühte er sich, den Erwartungen des Produzenten nach einem „pasolinesken“ Produkt gerecht zu werden. Nach Fertigstellung bot ihm der Produzent auch die Regie an. Bertolucci versuchte, "La Commare Secca" (1962) zu „seinem“ Film zu machen durch einen eigenen Stil, der von Pasolini unbeeinflusst sei. Besonders auffällig sind die zahlreichen Kamerafahrten, von denen der mitwirkende Kameramann behauptete, er hätte noch in keinem Film so viele durchzuführen gehabt. In dieser Zeit sah er sich nie ganz dem italienischen Kino zugehörig; näher stand er der französischen Kinematografie, die er am interessantesten fand. Mit der Presse sprach er bevorzugt auf Französisch, weil es die Sprache des Kinos sei. Bei seinem zweiten Film "Vor der Revolution" (1964), produziert von einem filmbegeisterten Mailänder Industriellen, konnte er ein eigenes, persönliches Thema behandeln: die Schwierigkeit eines Intellektuellen bürgerlicher Herkunft, gleichzeitig Marxist und für die proletarischen Massen dazusein, die Angst, auf das eigene Milieu zurückgeworfen zu werden, weil die Wurzeln so stark seien. Er habe für diese Angst vor der eigenen Feigheit noch keine Lösung gefunden, erklärte er später, die einzige Möglichkeit sei, sich der Dynamik und "„unglaublichen Vitalität“" des Proletariats anzuschließen, der echten revolutionären Kraft auf der Welt. Der Stil verrät stilistische Einflüsse von Godard und Antonioni. Das Werk wurde in Italien kaum aufgeführt und erntete dort meist ablehnende Kritiken, während das Echo der internationalen Filmkritik besser war. Beim Dreh begegnete er erstmals Vittorio Storaro, der als Kameraassistent mitwirkte. Storaro hatte den Eindruck, dass Bertolucci ein ungeheures Wissen hatte, besonders für jemanden in seinem Alter, jedoch auch viel Überheblichkeit zeigte. In den folgenden Jahren lehnte Bertolucci immer wieder Angebote ab, Italo-Western zu drehen. Er wollte keine Kompromisse eingehen und nicht wie manche andere Regisseure Filme drehen, an die sie nur halb glaubten. So vergingen mehrere Jahre, ohne dass er einen langen Spielfilm verwirklichen konnte. Aus dieser Zeit zu verzeichnen sind lediglich die Mitarbeit am Drehbuch von "Spiel mir das Lied vom Tod", eine Fernsehdoku über den Öltransport sowie der Kurzfilm "Todeskampf", ein Beitrag zum Episodenfilm "Liebe und Zorn". Das filmische Ideal, das er in den 1960er Jahren verfolgte, war ein Kino, das vom Kino handelte, die eigene Sprache reflektierte und erneuerte, im Geiste Godards. Die Filme sollten sich ihrer selbst bewusst sein und das Publikum, das von Film nichts verstehe, lehren. Seine Drehbücher verfasste er damals zusammen mit Gianni Amico, mit dem er die Weltanschauung teilte und der ihn in einer cinéphilen, experimentellen, das gewöhnliche Publikum wenig berücksichtigenden Arbeitsweise bestärkte. So entstand auch "Partner", wo er inhaltlich und formal Godard imitierte. Der wirre Film stieß auf wenig Verständnis; recht bald distanzierte er sich vom "„neurotischen“", "„kranken“" Nebenwerk. Später fand er, dass seine intensive Beschäftigung mit Filmsprache ihn zu stilistischer Arroganz verleitet hatte und dass er nach "Partner" ein großes Verlangen nach Publikum für seine Filme verspürte. Er stürzte in eine tiefe Depression und begann 1969 eine Psychoanalyse. Diese wurde zu einem kreativen Motor und half ihm, sich von, wie er es nannte, den „kranken Theorien“ zu befreien, die sein frühes Schaffen stilistisch geprägt haben. Zwischen der Analyse und der Arbeit bestand eine Ersatzbeziehung: „"Wenn ich einen Film drehe, fühle ich mich wohl und brauche keine Analyse."“ Eine erste Frucht seiner neuen Methode war "Die Strategie der Spinne", die er 1969 fürs italienische Fernsehen drehte. Erstmals war Vittorio Storaro für das Licht verantwortlich; Bertolucci sollte fortan für über zwei Jahrzehnte mit ihm arbeiten, und eine enge Freundschaft verband sie. Die beiden entwickelten eine unverwechselbare Bildsprache, Bertoluccis spezifischer visueller Stil kam erstmals unverfälscht von Godards Einfluss zur vollen Entfaltung. Dabei befasste er sich mit seinen bevorzugten Themen wie der Verknüpfung von Geschichte und Geschichtsschreibung mit der Gegenwart, dem Ringen des Sohnes mit dem Vater, gespaltenen Identitäten, Faschismus und Widerstand. Internationale Großproduktionen (1970–1976). Mit dem "Großen Irrtum", auch bekannt als "Der Konformist", betrat Bertolucci die Bühne der internationalen Großproduktionen. Der Film wurde in Frankreich und Italien in geschichtlichen Kulissen aufwändig gedreht, mit dem Star Jean-Louis Trintignant in der Hauptrolle. Wieder lotete er Italiens faschistische Vergangenheit aus und konstruierte einen psychosexuellen Erklärungsansatz für das Handeln der Hauptfigur. Das Werk zeichnet sich durch eine zeitlich fragmentierte Handlung und einen visuellen Stil aus, der inhaltliche Aussagen mittels des eingesetzten Lichts vornimmt. Der große Erfolg etablierte Bertolucci fest als Filmemacher von Weltrang. Mit dem "Großen Irrtum" begann Bertoluccis Zusammenarbeit mit Franco Arcalli, die bis zu dessen Tod 1978 andauerte. Dank Arcalli merkte er, dass er mit dem Schnitt neue Sichtweisen gewinnen kann. Da er Arcalli als stimulierend und ideenreich erlebte, der Schnitt gleichsam zu einer Revision des Drehbuchs geriet, avancierte Arcalli auch zum Drehbuchautoren. Einen weiteren Höhepunkt erreichte Bertolucci mit dem Drama "Der letzte Tango in Paris" (1972), mit Marlon Brando in der Hauptrolle. Der nur vordergründig unpolitische Film schildert den Daseinsschmerz eines Mannes im mittleren Alter und sein Leiden an der Unterdrückung des Lustprinzips in der westlichen Kultur. Wegen seiner drastischen, unverblümten Darstellung von Sex war der Film ein beherrschendes Gesprächsthema. Die Skandalisierung und Zensurversuche bewirkten einen enormen Kassenerfolg, in den USA blieb er auf Jahre hinaus der einträglichste europäische Film. Mit diesen Erfolgen im Rücken konnte Bertolucci ein Vorhaben in Angriff nehmen, das oft als größenwahnsinnig beschrieben wird: die Erzählung eines halben Jahrhunderts italienischer Geschichte im über fünfstündigen "1900". Finanziert von US-amerikanischen Filmstudios, war der Film auf sieben Millionen US-Dollar geplant und kostete letztlich über acht Millionen. Obwohl ganz in Italien angesiedelt, werden mehrere Rollen von internationalen Stars gespielt, darunter Burt Lancaster, Gérard Depardieu, Donald Sutherland, Dominique Sanda und Robert De Niro. Es ist ein Hohelied auf die bäuerliche Schicht und auf den Kommunismus. Der Film überraschte die Kritik durch seine konventionelle Form; Bertolucci wählte bewusst eine ans Massenkino angelehnte, einfache und emotionale Filmsprache, um seine Botschaft breiter streuen zu können. Wegen des politischen Gehalts mochten die Studios "1900" in den Vereinigten Staaten nicht wie vorgesehen in den Vertrieb nehmen. Um die zu veröffentlichende Fassung kam es zu einem auch gerichtlich ausgetragen Streit zwischen Bertolucci, dem Produzenten Grimaldi und den Studios. Diese setzten für die US-Version starke Kürzungen durch, werteten den Film dort kaum aus, und bei der US-Kritik stieß das Werk als Propaganda auf völlige Ablehnung. In Europa lief es nur leicht gekürzt. Bertolucci erkannte später den Widerspruch zwischen den kapitalistischen, multinationalen Produktionsbedingungen und der naiven, lokal verwurzelten utopischen Vision. Kleinere Produktionen (1977–1982). Mehrere Filmprojekte, die er erwog, scheiterten an fehlender Überzeugung von Produzenten, darunter die Verfilmung von Dashiell Hammetts Roman "Red Harvest". Er wollte seinen ersten amerikanischen Film auf Basis eines Klassikers der US-Literatur machen. Das Projekt kam für ihn nur als politischer Film in Frage, die amerikanischen Produzenten hatten jedoch kein Verständnis für seine Lesart des Romans. Bei der Dimensionierung seiner nächsten beiden Filmprojekte musste Bertolucci viel bescheidener sein. Das Drama "La Luna" (1979) um eine inzestuöse Mutter-Sohn-Beziehung entstand mit einem wesentlich kleineren Budget und wenigen Darstellern. Gedreht vor allem in Rom, teilweise auch in Parma und New York, ist es in den Hauptrollen mit US-amerikanischen Darstellern besetzt. Bertolucci wies darauf hin, dass es in diesem Werk kein ständiges Fragen nach dem Wesen von Film und Kino mehr gibt; "La Luna" schäme sich nicht des Vergnügens. Doch genau dieses Beharren auf einem konventionellen, konsumierbaren Erzählstil enttäuschte die Kritik. Noch stärker auf seine Heimatregion um Parma konzentriert blieb er in der "Tragödie eines lächerlichen Mannes" (1981), wo er die nebulöse politische Lage in Italien in den Vordergrund rückte. Bis auf Anouk Aimée mit Italienern besetzt und italienisch gesprochen, war es innerhalb des Vierteljahrhunderts seiner Zusammenarbeit mit Storaro der einzige Streifen, für den er einen anderen Kameramann beizog. Dem metafilmischen Diskurs ließ er so viel Raum wie seit "Partner" nicht mehr und verweigerte dem Publikum eine nachvollziehbare Handlung und die Identifikation mit einer Figur. Das Werk traf bei der Kritik auf sehr unterschiedliche Bewertungen – einige stellten eine resignative Haltung fest – und fand beim Publikum kaum Beachtung. Manche Filmpublizisten, die sein ganzes Werk überblicken, meinen, die "Tragödie" sei das möglicherweise unterschätzteste Werk Bertoluccis. Andere Kulturkreise (1983–1993). Zu Beginn der 1980er Jahre zeigte sich Bertolucci sehr enttäuscht über Italien und dessen politisches System. Er verlor auch sein Interesse an der Gegenwart. Das führte ihn auf die Suche nach etwas ganz Verschiedenem und der Andersartigkeit nicht-westlicher Kulturen. Als Ergebnis drehte er, wieder mit Storaro, drei Filme, in denen er seine Themen vor dem Hintergrund Chinas, Nordafrikas und des Buddhismus behandeln konnte. Diese drei Filme haben gemein, dass der Regisseur gegenüber Vaterfiguren versöhnlicher geworden war, die nun als Lehrer und Weise erschienen. Das erste Projekt war "Der letzte Kaiser" (1987), bei dem er als cineastischer Marco Polo das Leben des letzten chinesischen Kaisers Pu Yi nachzeichnete – zum ersten Mal hatte es die chinesische Regierung einer westlichen Filmproduktion erlaubt, in der Verbotenen Stadt zu drehen. Mit seinem Erfolg bei Kritik und Publikum stellt das mit Auszeichnungen überhäufte Geschichtsdrama einen weiteren Höhepunkt in Bertoluccis Karriere dar. Der darauffolgende Film "Himmel über der Wüste" (1990) führte ihn nach Marokko und in die Sahara und ist mit den Stars Debra Winger und John Malkovich bestückt. Er handelt von einem Paar, das vor der westlichen Zivilisation flüchtet und in der Begegnung mit dem Fremden und der Sahara seine Identität verliert. Die Kritik war sich uneinig, wie gut Bertolucci Themen und Figuren des Romans von Paul Bowles getroffen hatte; doch selbst einige der negativen Kritiken bescheinigten dem Werk, sein Blick auf die Landschaften und Städte Nordafrikas sei sinnlich und überwältigend. Die dritte der „exotischen“ Produktionen ist "Little Buddha" aus dem Jahre 1993, mit dem sich Bertolucci an Kinder jeden Alters wenden wollte. Es ergründet Buddhismus und Reinkarnation. Viele Kritiker empfanden das Werk als zu einfach und vermissten die Vielschichtigkeit seiner bisherigen Werke. Es war sein erster Film, der nicht um einen Konflikt politischer, psychologischer oder zwischengeschlechtlicher Art gebaut ist. Der Regisseur bezeichnete sich als skeptischen Amateur-Buddhisten, als nur an der ästhetischen und poetischen Seite dieser Philosophie interessiert. Nach dem Untergang der kommunistischen Utopie des gewohnten Raums für Träume verlustig gegangen, fand er im Buddhismus ein neues inspirierendes Feld. Die Umstellung sei ihm leichtgefallen, denn der Buddhismus habe mit Marx und Freud gemein, dass sie alle nicht Gottheiten, sondern den Menschen in den Mittelpunkt stellen. Spätwerk (ab 1994). Im Alter jenseits von fünfzig Jahren waren Konflikte mit Vaterfiguren kein wichtiges Thema mehr. Die Themen seiner früheren Filme kommen in "Gefühl und Verführung" (1995) zwar in Gestalt melancholisch zurückgezogener 68er vor, doch die Hauptfigur ist ein junges unerfahrenes Mädchen. Das nächste Werk, das Kammerspiel "Shandurai und der Klavierspieler" (1998), fand bei der Kritik viel Zustimmung, doch in Deutschland zunächst keinen Verleih. Es gelangte erst in die Kinos, als das Interesse an Bertolucci mit dem kommerziellen Erfolg der "Träumer" 2003 wieder erwachte. Die Träumer sind drei junge Menschen, die in Paris 1968 eine Dreierbeziehung leben und sich von den Ereignissen auf der Straße abkapseln. Bertoluccis Spätwerke stießen bei einem Teil der Kritik auf den Vorwurf, Film gewordene Altherrenfantasien zu sein, bei denen er sich an den Körpern junger Frauen delektiere. Nach den "Träumern" hat er fast zehn Jahre lang keinen weiteren Film vollenden können. Das Projekt "Bel Canto", die Verfilmung des gleichnamigen Romans von Ann Patchett über eine Geiselnahme in Südamerika, musste auf unbestimmte Zeit verschoben werden. 2007 wandte er sich einem anderen Vorhaben zu, einem Drama über den italienischen Musiker und Mörder Carlo Gesualdo, der im 16. Jahrhundert lebte. Erst 2012 wurde mit "Io e te" seine erste Spielfilmregiearbeit nach zehn Jahren Pause außer Konkurrenz bei den Filmfestspielen in Cannes uraufgeführt. Filmografie. → "Erweiterte Filmografie" Des Weiteren hat Bertolucci einige Kurz- und Dokumentarfilme gedreht. Auszeichnungen. Bertolucci erhielt zwei Oscars und zwei Golden Globes für Der letzte Kaiser (1987). Zudem erhielt er je eine Oscarnominierung für Der große Irrtum (1970) und Der letzte Tango in Paris (1972). Zum 75-jährigen Bestehen des Filmfestivals Venedig erhielt Bernardo Bertolucci 2007 einen Goldenen Ehrenlöwen für sein Lebenswerk  als "„vielleicht berühmtester italienischer Regisseur der Gegenwart, und einer der wichtigsten und einflussreichsten in der Geschichte des Kinos.“"  2011 wurde ihm die Ehrenpalme der Filmfestspiele von Cannes zuerkannt, ein Jahr später der Europäische Filmpreis für ein Lebenswerk. Bereits 2008 wurde für ihn ein Stern auf dem Hollywood Walk of Fame angebracht, den er jedoch erst im November 2013 einweihen konnte. Liste von Videofachbegriffen. Alphabetische Aufstellung der im Videobereich verwendeten Fachbegriffe mit deren Abkürzung. Z. Videofachbegriffe Internationale Filmfestspiele Berlin. Die Internationalen Filmfestspiele Berlin, kurz Berlinale, sind ein jährlich in Berlin stattfindendes Filmfestival und gelten als eines der weltweit bedeutendsten Ereignisse der Filmbranche. Die 65. Berlinale fand vom 5. bis 15. Februar 2015 statt, Präsident der Jury war der amerikanische Regisseur, Drehbuchautor und Produzent Darren Aronofsky. Den Hauptpreis des Festivals, den Goldenen Bären, gewann der iranische Regisseur Jafar Panahi für seinen Film "Taxi". Die 66. Berlinale wird vom 11. bis 21. Februar 2016 stattfinden. Überblick. Die im Wettbewerb erfolgreichen Filme werden von einer internationalen Jury mit dem Goldenen und den Silbernen Bären ausgezeichnet. Mehr als 400 Filme werden in verschiedenen Sektionen präsentiert. Mit mehr als 325.000 verkauften Eintrittskarten und etwa 490.000 Kinobesuchern insgesamt (inklusive akkreditierter Fachbesucher) ist die Berlinale das größte Publikumsfestival der Welt. Rund 16.000 Fachbesucher aus 130 Ländern nehmen an dem Festival teil. Etwa 3.700 Journalisten aus mehr als 80 Ländern berichten über die Zeit der Festspiele. Während der Berlinale findet zeitgleich der European Film Market (EFM) statt. Der EFM gehört zu den international wichtigsten Treffen der Filmindustrie und hat sich zu einem bedeutenden Marktplatz für Produzenten, Verleiher, Filmeinkäufer und Co-Produktionsagenten etabliert. Gegründet wurde die Berlinale im Jahr 1951. Festivaldirektor ist seit 2001 Dieter Kosslick. Seit 2002 sind die Internationalen Filmfestspiele Berlin ein Geschäftsbereich der "Kulturveranstaltungen des Bundes in Berlin GmbH". Sie erhalten eine institutionelle Förderung der Beauftragten der Bundesregierung für Kultur und Medien. Geschichte. Die Berlinale findet seit 1951, zunächst im Sommer, seit 1978 im Februar, in Berlin statt. Sie geht auf eine Initiative von Oscar Martay zurück. Martay war Film Officer der Militärregierung der Vereinigten Staaten und beaufsichtigte und förderte in dieser Funktion die Berliner Filmindustrie, unter anderem mit mehreren Darlehen der amerikanischen Militärregierung, mit denen die Finanzierung der Filmfestspiele in den ersten Jahren sichergestellt wurden. Unter dem Motto „Schaufenster der freien Welt“ eröffnete die erste Berlinale am 6. Juni 1951 mit Alfred Hitchcocks "Rebecca" im "Titania-Palast". Zum ersten Festspielleiter wurde der Filmhistoriker Alfred Bauer berufen, der nach dem Krieg die britische Militärregierung in Filmangelegenheiten beraten hatte. Im Ostteil der Stadt gab es als Reaktion auf die Berlinale das Festival des volksdemokratischen Films, auf dem hauptsächlich Filme aus dem damaligen Ostblock gezeigt wurden. Dieses Filmfest fand ebenfalls erstmals 1951, eine Woche nach dem Ende der Berlinale statt. Seit der ersten Berlinale wird der – nach einer Vorlage der Bildhauerin Renée Sintenis gestaltete – Goldene Berliner Bär verliehen. Die Preisträger wurden in den ersten Jahren teilweise durch Publikumswahl bestimmt. Nachdem die FIAPF (Fédération Internationale des Associations de Producteurs de Films) die Berlinale offiziell mit den Festivals in Cannes, Venedig und Locarno gleichgestellt hatte, änderte sich dies entsprechend den FIAPF-Richtlinien: Die Berlinale wurde zu einem "A-Festival" und berief 1956 erstmals eine internationale Jury ein, die den „Goldenen“ und die „Silbernen Bären“ vergab. Die frühe Berlinale war vor allem ein Publikums- und Glamour-Festival, auf dem sich zahlreiche Filmstars präsentierten (etwa Gary Cooper, Sophia Loren, Jean Marais, Richard Widmark, Jean Gabin, Michèle Morgan, Henry Fonda, Errol Flynn, Giulietta Masina, David Niven, Cary Grant, Jean-Paul Belmondo und Rita Hayworth). Die Ausrichtung des Festivals änderte sich ab Ende der 1960er Jahre auch aufgrund der gesellschaftlichen und politischen Polarisierung. So kam es etwa auf der Berlinale 1970 durch den Vietnamkriegs-Film "o.k." von Michael Verhoeven zu heftigem Streit, so dass die Jury zurücktrat und das Wettbewerbsprogramm abgebrochen wurde. Auf der Berlinale 1971 wurde daraufhin neben dem traditionellen Wettbewerb mit dem "Internationalen Forum des jungen Films" eine ehemalige Gegenveranstaltung in das Festival integriert, das junge und progressive Filme vorstellen sollte. Durch die Veränderungen Infolge der Ostpolitik Willy Brandts, die mit einer kulturellen Öffnung der Ostblockstaaten einherging, kamen 1974 mit „Hundert Tage nach der Kindheit“ von Sergej Solowjow und 1975 mit „Jakob der Lügner“ zum ersten Mal ein sowjetischer und ein DDR-Film ins Programm. 1976 wurde der bisherige Festivalleiter Alfred Bauer durch den Filmpublizisten Wolf Donner abgelöst. Donner führte zahlreiche Änderungen und Modernisierungen des Festivals ein, etwa die Verlegung vom Sommer in den Winter. Einer der Gründe für diese Änderung war der Termin der damaligen "Filmmesse" (des heutigen "European Film Market"), der sich im Winter weniger mit den Terminen anderer Filmmärkte überschnitt. Donner etablierte neue Sektionen wie die "Deutsche Reihe" und das "Kinderfilmfest", die ehemalige "Informationsschau" wurde zum "Panorama" in seiner heutigen Form. Seit Donners Zeit gilt die Berlinale vor allem als „Arbeitsfestival“ und weniger als Bühne für Stars und „Sternchen“. Wolf Donner wurde 1979 durch Moritz de Hadeln abgelöst, der die Berlinale bis 2001 leitete. Seit 2000 ist das Theater am Potsdamer Platz mit 1800 Sitzplätzen Hauptspielstätte. Während der Berlinale wird das Theater in "Berlinale Palast" umbenannt. Neben den Filmpremieren der Wettbewerbsfilme findet hier auch der Eröffnungsfilm und die Preisverleihung statt. Die Berliner Filmfestspiele werden seit dem 1. Mai 2001 von Dieter Kosslick geleitet. Auch unter Kosslick gab es einige Veränderungen: So wurde die neue Reihe "Perspektive Deutsches Kino" eingeführt, 2003 entstand für die Nachwuchsförderung der "Berlinale Talent Campus" und zur Berlinale 2007 wurde mit den "Berlinale Shorts" eine weitere neue Sektion vorgestellt. Wettbewerb. a> ist die Spielstätte der Wettbewerbsfilme Der Wettbewerb ist die zentrale Sektion der Filmfestspiele; im Wettbewerbsprogramm werden die Hauptpreise – der Goldene Berliner Bär und die Silbernen Bären – verliehen. Im Wettbewerb werden (entsprechend den FIAPF-Richtlinien) ausschließlich Filme gezeigt, die innerhalb der letzten 12 Monate vor Festivalbeginn produziert und noch nicht außerhalb ihrer Ursprungsländer aufgeführt wurden. Etwa 20 Filme stehen jedes Jahr im Wettbewerb. Die Nominierung der Filme sowie die Auswahl der Jurymitglieder ist Aufgabe der Festivaldirektion. Die Preisträger werden von einer internationalen Jury unter Führung eines Jury-Präsidenten gewählt und zum Ende des Festivals verkündet. Aktuelle Spielstätten des Wettbewerbs sind u. a. der Berlinale Palast am Potsdamer Platz sowie die Kinos CinemaxX, Kino International und das Haus der Berliner Festspiele. 2009 kam der Friedrichstadtpalast als Spielstätte hinzu. Jury-Präsidentin der Berlinale 2009 war die Schauspielerin Tilda Swinton. 2010 hatte dieses Amt der Regisseur Werner Herzog inne, gefolgt von Isabella Rossellini (2011), Mike Leigh (2012), Wong Kar-Wai (2013), Produzent und Drehbuchautor James Schamus (2014) und Darren Aronofsky (2015). Forum. Das "Internationale Forum des Jungen Films" (kurz: "Forum") findet seit 1971 statt; der inhaltliche Schwerpunkt liegt traditionell im Bereich des politisch engagierten Kinos. Das "Forum" geht zurück auf eine Initiative des von Gero Gandert gegründeten 1963 Vereins "Freunde der Deutschen Kinemathek". Die Gründer waren Gero Gandert, Erika Gregor, Ulrich Gregor, Heiner Roß und Manfred Salzgeber. Ulrich Gregor war von 1971 bis 1979 der Sprecher des Forums, ab dann Leiter für 20 Festivals. Das Forum bot jungen Regisseuren wie Raúl Ruiz, Derek Jarman und Peter Greenaway eine erste Gelegenheit, sich international zu präsentieren. Es gibt auch Filmen mit ungewöhnlichen Formaten eine Plattform, so etwa den überlangen Produktionen "Taiga" von Ulrike Ottinger (8 Stunden 21 Minuten) oder "Satanstango" von Béla Tarr (7 Stunden 16 Minuten). Einen weiteren Schwerpunkt des Forums bildet der außereuropäische Film. In den 1970er/80er Jahren konzentrierte man sich auf US-Independentfilme, Filme aus Lateinamerika und internationale Avantgarde-Filme. In den 1980er/90er Jahren widmete man sich dem unabhängigen Kino Asiens. Leiter des Forums ist seit 2001 der Berliner Filmjournalist Christoph Terhechte. "„Das Internationale Forum, immer noch das wichtigste Nebenprogramm der Berliner Filmfestspiele, ist für die Neugierigen unter den Cineasten schon seit Jahren zu deren Hauptprogramm geworden.“" (Peter W. Jansen). Spielstätten des Forums sind die Kinos "Delphi-Palast", "Arsenal" (mittlerweile am Potsdamer Platz), "CineStar", "CinemaxX" und "Cubix", sowie die Botschaft von Kanada. 2015 wird erstmals das Gesamtprogramm von "Forum Expanded" in der Akademie der Künste gezeigt, nachdem sie bis 1999 schon einmal Spielort der Berlinale war. Retrospektive. Die filmhistorische Retrospektive wird seit 1951 durchgeführt und seit 1977 in deutlich nichtkommerzieller Intention von der "Stiftung Deutsche Kinemathek" (heute: "Filmmuseum Berlin – Deutsche Kinemathek)" organisiert. Im Rahmen der "Retrospektive" wird jährlich eine "Hommage" veranstaltet. Leiter der "Retrospektive" ist Rainer Rother. Aktuelle Spielstätten der Retrospektive sind das "CinemaxX" und das "Zeughauskino". Nach der Vorführung gibt es häufig Gelegenheit zum Gespräch zwischen Publikum und Produzenten des Films Mehr als 4200 akkreditierte Journalisten aus rund 100 Ländern berichteten über die Berlinale 2008 Pressekonferenz nach der Vorführung eines Wettbewerbfilms Der Delphi Filmpalast ist einer der traditionsreichen Berlinale-Spielorte Panorama. Das "Panorama" gehört zum offiziellen Programm der Berlinale und wird seit 1986 veranstaltet. Vorläufer war in der Anfangszeit der Berlinale die so genannte "Informationsschau". Leiter war zunächst Manfred Salzgeber, der 1992 von Wieland Speck abgelöst wurde. Schwerpunkte sind das Arthouse-Kino und der Autorenfilm, alle Filme werden als Welt- oder Europa-Premiere gezeigt. Das Hauptprogramm bietet jährlich etwa 18 Spielfilme, zahlreiche weitere Produktionen bilden das Rahmenprogramm. Subsektionen sind die Reihen "Dokumente", "Panorama Special" und "Panorama-Kurzfilme". Inhaltlich widmet sich das Panorama eher gesellschaftlichen als direkt politischen Themen: So werden traditionell viele schwul-lesbische Filme gezeigt. Spielstätten des Panoramas sind das "CinemaxX", das "Kino International" und das "CineStar". Generation. Seit 1978 widmet die Berlinale eine Sektion speziell Kindern und Jugendlichen und zeigt dort eine aktuelle Auswahl internationaler Spiel- und Kurzfilme. Die Sektion gilt in diesem Bereich als eine der wichtigsten Markt- und kulturellen Plattformen weltweit. Die Sektion wurde 2004 durch den Jugendfilmwettbewerb "14plus" ergänzt. Der frühere Name "Kinderfilmfest" wurde zur Berlinale 2007 in "Generation" umbenannt. Entsprechend heißen die Wettbewerbe heute "Generation Kplus" und "Generation 14plus". Im Wettbewerb "Generation Kplus" verleiht eine elfköpfige Kinderjury den Gläsernen Bären an je einen Spiel- und einen Kurzfilm. Eine Internationale Jury von Filmfachleuten vergibt zudem die mit Geld dotierten Preise des Deutschen Kinderhilfswerks. Den Gläsernen Bären für den besten Spielfilm im Wettbewerb "Generation 14plus" vergibt eine siebenköpfige Jury von Jugendlichen. Die Devise, keinen "Kinderkitsch" zu zeigen, bedeutet, anspruchsvolle Filme aus der ganzen Welt ins Programm aufzunehmen, die nah am Alltag und am Erleben von Kindern und Jugendlichen bleiben und auch eine Realität abbilden, die manchmal harter Tobak ist. Mit ihrem Programm möchte die Sektion Generation für ein erweitertes Verständnis von Filmen für junge Menschen werben. Die Wettbewerbsbeiträge beschränken sich nicht auf klassische Kinder- oder Jugendfilmproduktionen; sie schließen vielmehr auch Filme ein, die zwar nicht für diese Zielgruppen konzipiert wurden, aber Kinder oder Jugendliche thematisch und formal ansprechen. Im Rahmen von "Cross Section" werden seit 2006 für Kinder und Jugendliche geeignete Filme aus den anderen Sektionen der Berlinale außer Konkurrenz in „Generation“ wiederholt und so einem Publikum unter 18 Jahren zugänglich gemacht. Seit 2008 wird "Generation" von Maryanne Redpath und Florian Weghorn geleitet. Hauptspielstätte von "Generation Kplus" war der "Zoo Palast". Seit 2012 ist das Haus der Kulturen der Welt die Hauptspielstätte von "Generation 14plus". Weitere Vorstellungen gibt es in den Kinos "Colosseum" (Prenzlauer Berg), im "Filmtheater am Friedrichshain" sowie im "Cinemaxx" am Potsdamer Platz. Berlinale Special. "Berlinale Special" ist eine 2004 neu eingeführte Reihe im offiziellen Programm, in der sowohl aktuelle Arbeiten großer Filmemacher als auch Wiederaufführungen von klassischen Werken der Filmgeschichte und Produktionen zu Festivalschwerpunkten oder aktuell-brisanten Themen gezeigt werden sollen. Aufführungsort ist der Friedrichstadt-Palast. Perspektive Deutsches Kino. a> bei der Premiere von "When a man falls in the forest" Die unter Dieter Kosslick eingeführte Sektion "Perspektive Deutsches Kino" widmet sich der aktuellen deutschen Filmproduktion und ergänzt die geschlossene Reihe "German Cinema"; gezeigt werden etwa ein Dutzend Spiel-, Dokumentar- und Experimentalfilme, die aus ca. 250 Bewerbungen ausgewählt werden. Leiterin ist Linda Söffker. Berlinale Shorts. Im Jahr 2006 wurde mit den "Berlinale Shorts" eine eigene Sektion für kurze Filme eingerichtet. Je ein Goldener und ein Silberner Bär werden seit 1955 an die besten kurzen Filme vergeben, seit 2003 von einer eigens dafür einberufenen internationalen Jury. In den "Berlinale Shorts" laufen jährlich ca. 30 Kurzfilme, die um die Bären konkurrieren. Die Sektion wird seit 2007 von Maike Mia Höhne geleitet. Kurzfilme und mittellange Filme sind darüber hinaus in den Sektionen "Generation", "Perspektive Deutsches Kino" und im "Forum expanded" zu sehen. European Film Market. Der "European Film Market (EFM)" ist wichtiger Handelsplatz für Produzenten, Verleiher, Filmeinkäufer und Co-Produktionsagenten. Als erster Filmmarkt im Jahr gehört der "EFM" neben dem "Marché du Film" in Cannes im Mai und dem "American Film Market" im November zu den drei bedeutendsten Branchentreffen der Filmindustrie. Der "EFM" ist die Nachfolgeveranstaltung der "Filmmesse". Sie wurde von 1980 bis 1987 von Aina Bellis geleitet; 1988 übernahm Beki Probst die Leitung für diese im Sinne der Filmwirtschaft an die Berlinale angegliederte Veranstaltung. Seit 2014 leitet der Niederländer Matthijs Wouter Knol den European Film Market. Die langjährige EFM-Direktorin Beki Probst steht dem EFM dabei als Präsidentin vor. Veranstaltungsort des "EFM" waren bis 2000 die Räume in der Budapester Straße, danach fand der Filmmarkt im Atrium des Debis-Hauses am Potsdamer Platz statt, das eine Fläche von rund 2.500 m² bot. Die stetige Expansion der Veranstaltung führte 2006 zum Umzug in den Martin-Gropius-Bau und das Marriott Hotel am Potsdamer Platz. Im Rahmen des "EFM" 2013 wurden 1.166 Vorführungen von 816 angemeldeten Filmen durchgeführt (davon 591 Marktpremieren). Dafür wurden vorwiegend die Kinos "CinemaxX" und "CineStar" genutzt. Es waren knapp 8.100 Teilnehmer aus 94 Ländern gemeldet. Verliehene Preise. a> war 2007 mit "Letters from Iwo Jima" zu Gast und erhielt eine Berlinale Kamera Festival-Trailer. Seit 2002 eröffnet ein 50-sekündiger Trailer („Opener“) die Vorführungen in allen Sektionen des Festivals außer der Retrospektive. Die Computeranimation entstand in Zusammenarbeit des Regisseurs Uli M Schueppel mit der Filmproduktionsfirma "Das Werk" Berlin. Bundesbeauftragter für die Stasi-Unterlagen. Die Behörde des Bundesbeauftragten für die Unterlagen des Staatssicherheitsdienstes der ehemaligen Deutschen Demokratischen Republik (BStU, im Volksmund aufgrund des langen Titels auch Gauck-Behörde genannt) verwaltet und erforscht die Akten und Dokumente des Ministeriums für Staatssicherheit (kurz "MfS" oder "„Stasi“") der DDR. Die Einrichtung der Behörde wurde von Mitgliedern der Bürgerkomitees und Freiwilligen der Bürgerrechtsbewegung im Zuge der friedlichen Revolution von 1989 erwirkt. Die Amtszeit des Bundesbeauftragten beträgt fünf Jahre, eine einmalige Wiederwahl ist gemäß § 35 Abs. 4 Stasi-Unterlagen-Gesetz (StUG) möglich. Das 1991 in Kraft getretene StUG bildet die Rechtsgrundlage der Behörde. Die Behörde ist Mitglied der Platform of European Memory and Conscience. Geschichte. Am 3. Oktober 1990 übernahm der ehemalige Rostocker Pastor Joachim Gauck das Amt des Sonderbeauftragten der Bundesregierung für die Stasi-Unterlagen. Mit Inkrafttreten des Stasi-Unterlagen-Gesetzes am 29. Dezember 1991 wurde er der Bundesbeauftragte für die Stasi-Unterlagen. Wegen ihres langen amtlichen Titels wurde die Behörde daraufhin kurz Gauck-Behörde genannt. Als Marianne Birthler die Leitung der Behörde im Oktober 2000 übernahm, hieß die Behörde in den Medien auch "Birthler-Behörde". Sie wird als "Bundesbehörde für die Stasi-Unterlagen" (BStU) bezeichnet und unterliegt heute der Dienstaufsicht durch den Bundesbeauftragten für Kultur und Medien (BKM, bekannter als Kulturstaatsminister). Es gibt keine Fachaufsicht durch ein Ministerium, die BStU berichtet regelmäßig an den Deutschen Bundestag. Der Deutsche Bundestag hat auf Vorlage der Bundesregierung im Rahmen der Fortschreibung des Gedenkstättenkonzeptes Abteilung AR (Archiv). Die Abteilung gliedert sich in das Grundsatzreferat (AR 1), das Karteireferat (AR 2), den Magazindienst (Referat AR 3), die Erschließungsreferate AR 4, AR 5 und AR 6, das Referat zur Erschließung und technischen Bearbeitung audiovisueller Medien und maschinenlesbarer Daten (AR 7) und das Referat für Kommunikation und Öffentlichkeitsarbeit (AR K). Abteilungsleiterin von AR ist Birgit Salamon. Abteilung AU (Auskunft). Die Abteilung besteht aus einem Grundsatzreferat (AU G) sowie verschiedenen Auskunftsreferaten (AU 1–6). Die Abteilung Auskunft bearbeitet die Anträge auf Akteneinsicht der Bürger, aber auch Anträge auf Überprüfung (Sicherheit, Parlamentarier u. a., Ordensangelegenheiten) für Renten-, Rehabilitations- und Wiedergutmachungsfragen. Die Anträge von Forschung und Medien werden in den Referaten AU 5 und AU 6 bearbeitet. Abteilungsleiter ist Joachim Förster. Abteilung BF (Bildung und Forschung). Die Abteilung setzt sich zusammen aus dem wissenschaftlichen Forschungsbereich (BF 1), dem Servicebereich (BF 2), u. a. verantwortlich für die hauseigene Bibliothek und Publikationen sowie dem Fachbereich politische Bildung (BF 3), der für die Information der Öffentlichkeit durch Ausstellungen und Veranstaltungen zuständig ist. Abteilungsleiter ist Helge Heidemeyer. Abteilung R (Regionale Aufgaben). In der Abteilung R sind die zwölf Außenstellen der Stasi-Unterlagen-Behörde zusammengefasst. Sie befinden sich in den früheren Bezirksstädten der DDR und verwahren die Unterlagen der Bezirksverwaltungen des Staatssicherheitsdienstes. Beirat der BStU. Gemäß § 39 StUG begleitet der Beirat die inhaltliche Arbeit des Bundesbeauftragten in beratender Funktion. Der Bundesbeauftragte unterrichtet den Beirat über grundsätzliche und andere wichtige Angelegenheiten und erörtert sie mit ihm. Dem Beirat gehören acht Mitglieder an, die vom Deutschen Bundestag gewählt werden sowie neun Mitglieder, die von den jeweiligen Landtagen in den neuen Bundesländern gewählt werden. Damit werden in Anbetracht der fachlichen Unabhängigkeit des Bundesbeauftragten eine zusätzliche Begleitung ihrer Tätigkeit ermöglicht und die besonderen Interessen der neuen Bundesländer berücksichtigt. Mitglieder im Beirat sind neben dem Vorsitzenden Richard Schröder und den stellvertretenden Vorsitzenden Ulrike Poppe und Rainer Eppelmann folgende vom Deutschen Bundestag gewählte Personen: Patrick Kurth, Markus Meckel, Horst Möller, Beatrix Philipp, Manfred Wilke und Jörn Wunderlich. Von den neuen Bundesländern wurden Ludwig Große, André Gursky, Martin Gutzeit, Ulrike Höroldt, Georg Machnik, Jörn Mothes, Frank Richter und Jürgen Schwarz benannt. Zukunft der Behörde. Schon als 1991 das Stasi-Unterlagen-Gesetz (StUG) in Kraft trat, war klar, dass die damit gegründete Bundesbehörde für die Stasi-Unterlagen ihren Aktenbestand irgendwann in das Bundesarchiv überführen würde. Da im Stasi-Unterlagen-Gesetz aber ein Unterschied gemacht wird beim Zugang zu den Täter-Unterlagen, den es im Bundesarchivgesetz nicht gibt, und weil für die Akten der Stasi-Opfer ein größerer Datenschutz besteht als im Bundesarchiv, ist diese Überführung nicht ohne Weiteres möglich. Eine Änderung des StUG und die mögliche Auflösung und Eingliederung der BStU in das Bundesarchiv wurde 2006 und 2007 öffentlich diskutiert. Der Deutsche Bundestag hat auf Vorlage der Bundesregierung im Rahmen der Fortschreibung des Gedenkstättenkonzeptes im Jahr 2008 die Einsetzung einer Expertenkommission durch den 17. Deutschen Bundestag beschlossen. Diese sollte die gesetzlich zugewiesenen Aufgaben der BStU analysieren und Vorschläge zur Zukunft der Behörde unterbreiten. Grundsätzlich haben die Regierungsparteien CDU/CSU und FDP entschieden, dass die BStU mindestens bis zum Jahr 2019 weiterarbeiten soll. Dies hatte die SPD schon in der vergangenen Legislaturperiode gefordert. Am 27. November 2014 wurde die Expertenkommission zur Zukunft der Behörde des BStU offiziell eingesetzt. „Die Struktur der Außenstellen wird zeitnah verändert, um eine effizientere Arbeit trotz zurückgehenden Personalbestandes gewährleisten zu können.“ Erste Planungen wurden inzwischen vorgenommen. Da die Außenstellen Rostock, Magdeburg, Gera und Suhl geschlossen werden sollen, hat bereits eine intensive Diskussion darüber eingesetzt. Die Schließung betrifft die Archivstandorte, vor Ort sollen Bürgerbüros die Dienstleistungen für die Bürger – Akteneinsicht, politische Bildungsarbeit, Informationsveranstaltungen etc. – weiter anbieten. Literatur. Die Behörde hat zahlreiche Dokumentationen und Analysen zu allen möglichen Aspekten rund um die DDR und deren Ministerium für Staatssicherheit veröffentlicht - Angaben dazu sind auf deren Internetseite und in der Deutschen Nationalbibliothek zu finden. Bor. Bor ist ein chemisches Element mit dem Elementsymbol B und der Ordnungszahl 5. Im Periodensystem steht es in der 3. Hauptgruppe, bzw. der 13. IUPAC-Gruppe, der Borgruppe, sowie der zweiten Periode. Das dreiwertige, seltene Halbmetall kommt in Form seiner Sauerstoffverbindungen als Borax und Kernit angereichert in einigen abbauwürdigen Lagerstätten vor. Bor existiert in mehreren Modifikationen. Amorphes Bor ist ein braunes Pulver. Vom kristallinen Bor sind mehrere allotrope Modifikationen bekannt. Borverbindungen finden vielfältige Anwendungen in verschiedenen Industriezweigen. Die Waschmittelindustrie verwendet Borverbindungen wie Natriumperborat im großtechnischen Maßstab als Bleichmittel, die Glasindustrie nutzt Bor in Form seiner Boraxverbindungen für die Produktion von Gläsern und Keramiken mit hoher Chemikalienresistenz und Temperaturwechselbeständigkeit. Elementares Bor wird in der Halbleiterindustrie zur Dotierung verwendet. Borpolymere und -keramiken spielen eine Rolle für die Herstellung hochfester Leichtbau- und feuerfester Materialien. Als Borcarbid weist es eine hohe Härte auf und wird als Schleifmittel verwendet, zum Hartlöten werden Borverbindungen als Flussmittel genutzt. In der Hydroborierung dienen Borreagenzien der Synthese organischer Feinchemikalien. Natürliches Bor besteht aus zwei stabilen Isotopen, von denen 10Bor für Neutroneneinfangreaktionen geeignet ist. Borate weisen eine geringe Toxizität gegenüber Säugetieren auf, sind aber giftig für Gliederfüßer und werden als Insektizide verwendet. Borsäure wirkt schwach antimikrobiell und es sind natürliche, Bor enthaltende Antibiotika bekannt. Bor ist ein möglicherweise essentielles Spurenelement. In der Landwirtschaft verbessert die Bordüngung die Stabilisierung der pflanzlichen Zellwände und hat eine wichtige Funktion bei der Zellteilung, Zelldifferenzierung, Zellstreckung und Gewebebildung der Pflanzen sowie im Nukleinsäurestoffwechsel, der Eiweißsynthese und beim Energiestoffwechsel. Geschichte. Borverbindungen (von "burah" über "buraq" und griech. βοραχου bzw. lat. "borax" „borsaures Natron“, „Borax“) sind seit Jahrtausenden bekannt. Im alten Ägypten nutzte man zur Mumifikation das Mineral Natron, das neben anderen Verbindungen auch Borate enthält. Seit dem 4. Jahrhundert wird Boraxglas im Kaiserreich China verwendet. Borverbindungen wurden im antiken Rom zur Glasherstellung verwendet. Erst 1808 stellten Joseph Louis Gay-Lussac und Louis Jacques Thénard Bor durch Reduktion von Bortrioxid mit Kalium, unabhängig hiervon etwas später Sir Humphry Davy durch Elektrolyse von Borsäure her. 1824 erkannte Jöns Jakob Berzelius den elementaren Charakter des Stoffes. Die Darstellung von reinem kristallisiertem Bor gelang dem amerikanischen Chemiker W. Weintraub im Jahre 1909 durch Reduktion von gasförmigem Bortrichlorid mit Wasserstoff im Lichtbogen. Vorkommen. Bor kommt in der Natur nur in sauerstoffhaltigen Verbindungen vor. Große Lagerstätten befinden sich in Bigadiç, einem Landkreis der Provinz Balıkesir im Westen der Türkei, an der Mojave-Wüste in den USA und in Argentinien. Staßfurter Kalisalze enthalten geringe Mengen vergesellschafteten Boracit. Die größten Boratminen befinden sich bei Boron (Kalifornien) (die "Kramer-Lagerstätte") und in Kırka (Türkei). Abgebaut werden die Mineralien Borax, Kernit und Colemanit. Modifikationen. Die vermutlich thermodynamisch stabilste Form ist die β-rhomboedrische Modifikation (β-Bor). Sie hat eine komplizierte Struktur mit mindestens 105 Boratomen pro Elementarzelle, wobei hier noch Boratome hinzukommen, die sich auf teilbesetzten Lagen befinden. Die Anzahl der Boratome pro Elementarzelle wird mit 114 bis 121 Atomen angegeben. Die Struktur dieser Modifikation kann man mit einem 60-Ecken-Polyeder beschreiben. Die einfachste allotrope Modifikation ist die α-rhomboedrische Form des Bors (α-Bor). Die in dieser Modifikation des Bors dominierende Struktureinheit ist das B12-Ikosaeder mit 12 Boratomen im Ikosaeder. Diese sind in Schichten angeordnet ähnlich wie in einer kubisch flächenzentrierten Packung. Die Ikosaeder einer Schicht sind durch Dreizentrenbindungen und die Ikosaeder benachbarter Schichten durch Zweizentrenbindungen miteinander verknüpft. α-tetragonales Bor (auch als γ-Bor bezeichnet), die als erstes dargestellte kristalline Form des Bors, enthält 50 Bor-Atome in der Elementarzelle (gemäß der Formel (B12)4B2), kann beispielsweise aber auch, abhängig von den Herstellungsbedingungen, als Einschlussverbindung B50C2 oder B50N2 vorliegen. Im fremdatomfreien α-tetragonalen Bor verbindet ein einzelnes Boratom immer vier B12-Ikosaeder miteinander. Jedes Ikosaeder hat Verbindungen zu je zwei einzelnen Boratomen und zehn anderen Ikosaedern. Seit der ersten Beschreibung dieser Struktur ist es nie wieder gelungen diese Modifikation rein herzustellen. Man geht mittlerweile davon aus, dass reines α-tetragonales Bor in der beschriebenen Struktur nicht existiert. Das elementare Bor ist schwarz, sehr hart und bei Raumtemperatur ein schlechter Leiter. Es kommt nicht in der Natur vor. Forscher an der ETH in Zürich stellten aus äußerst reinem Bor einen ionischen Kristall her. Dazu musste das Material einem Druck von bis zu 30 Gigapascal und einer Temperatur von 1500 °C ausgesetzt werden. Dieselbe Arbeitsgruppe veröffentlichte mittlerweile ein Addendum, wonach sie die Bindungssituation in dieser Modifikation als kovalent bezeichnen. Einem Forschungsteam an der Universität Bayreuth ist es 2011 gelungen, α-rhomboedrisches Bor eindeutig als thermodynamisch stabile Phase von Bor zu identifizieren. In Hochdrucklaboratorien wurde eine Serie unterschiedlicher Borkristalle bei Temperaturen bis zu 2300 Kelvin und Drücken bis zu 15 Gigapascal synthetisiert. Von besonderem Interesse für die Forschung und für industrielle Anwendungen, wie die Halbleitertechnik, sind hierbei α-Bor-Einkristalle. Physikalische Eigenschaften. Wegen der hohen Ionisierungsenergie sind von Bor keine B3+-Kationen bekannt. Die komplizierten Strukturen in vielen Borverbindungen und deren Eigenschaften zeigen, dass die Beschreibung der Bindungsverhältnisse als kovalent, metallisch oder ionisch stark vereinfachend sind und durch einen Molekülorbital(MO)-Ansatz ersetzt werden müssen. Die Elektronenkonfiguration 1s22s22p1 des Bors zeigt, dass nur die drei Elektronen der zweiten Schale für die Ausbildung von kovalenten Bindungen mit s, px, py und pz-Orbitalen zur Verfügung stehen. Dieser Elektronenmangel wird durch Ausbildung von Mehrzentrenbindungen, insbesondere einer Dreizentrenbindung, und Elektronenakzeptorverhalten (Lewis-Acidität) kompensiert. Es ist gelungen, eine Borverbindung mit einer Bor-Bor-Dreifachbindung herzustellen. Bor ist durchlässig für Infrarotlicht. Bei Raumtemperatur zeigt es eine geringe elektrische Leitfähigkeit, die bei höheren Temperaturen stark ansteigt. Bor besitzt die höchste Zugfestigkeit aller bekannten Elemente sowie die zweithöchste Härte, nur übertroffen von der Kohlenstoffmodifikation Diamant. Bormodifikationen haben physikalische und chemische Ähnlichkeit mit Hartkeramiken wie Siliciumcarbid oder Wolframcarbid. Chemische Eigenschaften. Bis 400 °C ist Bor reaktionsträge, bei höheren Temperaturen wird es zu einem starken Reduktionsmittel. Bei Temperaturen über 700 °C verbrennt es in Luft zu Bortrioxid B2O3. Von siedender Salz- und Fluorwasserstoffsäure wird Bor nicht angegriffen. Oxidierend wirkende, konzentrierte Schwefelsäure greift Bor erst bei Temperaturen über 200 °C an, konzentrierte Phosphorsäure hingegen erst bei Temperaturen über 600 °C. Löst man B2O3 in Wasser, so entsteht die sehr schwache Borsäure. Deren flüchtige Ester, am deutlichsten Borsäuretrimethylester, färben Flammen kräftig grün. Die Fähigkeit des Bors, über kovalente Bindungen stabile räumliche Netzwerke auszubilden, sind ein weiterer Hinweis auf die chemische Ähnlichkeit des Bors mit seinen Periodennachbarn Kohlenstoff und Silicium. Eine wichtige Forschungsdisziplin der heutigen anorganischen Chemie ist die der Verbindungen des Bors mit Wasserstoff (Borane), sowie mit Wasserstoff und Stickstoff, die den Kohlenwasserstoffen ähneln (isoelektronisch), z. B. Borazol B3N3H6 („anorganisches Benzol“). Eine Reihe organischer Borverbindungen sind bekannt, beispielsweise Boronsäuren. Physiologie. Bor ist möglicherweise ein essentielles Spurenelement, das unter anderem positiven Einfluss auf Knochenstoffwechsel und Gehirnfunktion hat. Dosen über 100 mg/Tag können Vergiftungserscheinungen hervorrufen. Pflanzen reagieren zum Teil sehr empfindlich auf Bor, so dass bestimmte sensible Pflanzen (Weiden, Obstbäume, Artischocken) bei Konzentrationen von mehr als 1 mg/l Bor zu Borchlorosen neigen (Krankheitsbild gekennzeichnet durch vermehrte Bildung von braunen Flecken) und schließlich absterben können. Pflanzen reagieren aber auch empfindlich auf zu wenig Bor. Sicherheitshinweise. Für Bor gibt es keine Hinweise auf genotoxische oder kanzerogene Wirkungen; von der Deutschen Gesellschaft für Ernährung ist kein Referenzwert für Bor als Zufuhrempfehlung aufgeführt. Elementares Bor in geringen Dosen ist nicht giftig. Einige Borverbindungen wie die Borane (Borwasserstoffverbindungen) sind hochgradig toxisch und müssen mit größter Sorgfalt gehandhabt werden. Bortrioxid, Borsäure und Borate werden mit der 30. ATP in der EU seit Sommer 2009 als fortpflanzungsgefährdend eingestuft. Nachweis. Bor lässt sich in der analytischen Chemie mit der Curcumin-Methode quantitativ in Form des rot gefärbten Komplexes Rosocyanin nachweisen. Hierzu wird eine Probe des Bor-haltigen Materials oxidativ aufgeschlossen. Die durch den Aufschluss gebildete Borsäure kann anschließend kolorimetrisch bestimmt werden. Barium. Barium (von griech. βαρύς: „schwer“, wegen der großen Dichte des Bariumminerals Baryt) ist ein chemisches Element mit dem Elementsymbol Ba und der Ordnungszahl 56. Im Periodensystem steht es in der sechsten Periode und der 2. Hauptgruppe, bzw. der 2. IUPAC-Gruppe und zählt damit zu den Erdalkalimetallen. Es wurde erstmals 1774 von Carl Wilhelm Scheele identifiziert. Barium ist im elementaren Zustand metallisch-glänzend und von silbrig-weißer Farbe. Es kommt in der Natur wegen seiner hohen Reaktivität nicht elementar vor. Metallisches Barium ist leicht entzündlich. Wasserlösliche Bariumverbindungen sind giftig. Geschichte. Erstmals wurden bariumhaltige Minerale im Jahr 1602 durch den italienischen Schuhmacher und Alchemisten Vincenzo Casciarolo untersucht, dem glänzende Steinchen auffielen, die nach dem Erhitzen im Dunkeln leuchteten. Sie wurden durch die Publikationen des Ulisse Aldrovandi einem größeren Publikum als „Bologneser Stein“ bekannt. Es handelte sich dabei um Baryt, der beim Erhitzen mit organischen Substanzen phosphoresziert. 1774 wurde von dem schwedischen Chemiker Carl Wilhelm Scheele bei der Untersuchung von Gips erstmals Bariumoxid BaO identifiziert, das zunächst "neue alkalische Erde" genannt wurde. Zwei Jahre später fand Johan Gottlieb Gahn die gleiche Verbindung bei ähnlichen Untersuchungen. Ebenfalls im 18. Jahrhundert war dem englischen Mineralogen William Withering in Bleibergwerken Cumberlands ein schweres Mineral aufgefallen, bei dem es sich nicht um ein Bleierz handeln konnte und dem er die Bezeichnung „terra ponderosa“ gab. Es ist heute als Witherit (Bariumcarbonat BaCO3) bekannt. Metallisches Barium, jedoch nicht in Reinform, wurde erstmals 1808 von Sir Humphry Davy in England durch Elektrolyse eines Gemisches aus Bariumoxid und Quecksilberoxid hergestellt. Daraufhin erfolgte die Namensgebung Barium nach dem Bariummineral Baryt. Die erste Reindarstellung des Bariums erfolgte 1855 durch Robert Bunsen und Augustus Matthiessen durch Schmelzelektrolyse eines Gemisches aus Bariumchlorid und Ammoniumchlorid. 1910 wurde von Marie Curie das schwerere Radium unter Ausnutzung seiner chemischen Ähnlichkeit mit Barium isoliert. Eine wichtige Rolle spielte das Metall auch 1938 bei den kernchemischen Experimenten Otto Hahns und Fritz Straßmanns, die Uran mit langsamen Neutronen beschossen und zu ihrem Erstaunen das viel leichtere Element Barium in den Reaktionsprodukten fanden. Dieser Befund wurde von ihnen korrekt als Spaltung des Urankerns gedeutet. Vorkommen. Barium kommt wegen seiner hohen Reaktivität in der Natur nicht elementar, sondern nur in Verbindungen vor. Mit einem Anteil von etwa 0,039 % ist Barium das 14. häufigste Element der Erdkruste. Barium wird vor allem in den Mineralen Baryt (oder Schwerspat, kristallisiertes Bariumsulfat) und Witherit (Bariumcarbonat) gefunden, und meist aus Baryt gewonnen. Die Weltjahresproduktion an Baryt ist innerhalb der letzten 30 Jahre von etwa 4,8 Millionen Tonnen (1973) auf 6,7 Millionen Tonnen (2003) gestiegen, die weltweiten Reserven werden auf etwa zwei Milliarden Tonnen geschätzt. Die deutschen Vorkommen von Bariumverbindungen liegen im Sauerland, im Harz und in Rheinland-Pfalz. Abbauwürdige Vorkommen von Bariumverbindungen gibt es weltweit: die Hauptförderländer von Barium sind die Volksrepublik China, Mexiko, Indien, Türkei, USA, Deutschland, Tschechien, Marokko, Irland, Italien und Frankreich. Gewinnung und Darstellung. Hochreines Barium wird durch Elektrolyse von geschmolzenem Bariumchlorid hergestellt und einer anschließenden Hochvakuumsublimation unterzogen. Physikalische Eigenschaften. Barium ist ein festes, paramagnetisches Erdalkalimetall, das in einem kubisch-raumzentrierten Gitter kristallisiert. Die silberweiße Farbe des metallischen Bariums wird an der Luft schnell mattgrau, weil sich eine Oxidschicht bildet. Barium weist eine grüne bis fahlgrüne Flammenfärbung auf mit den charakteristischen Spektrallinien von 524,2 und 513,7 nm. Barium hat eine Dichte von 3,62 g/cm3 (bei 20 °C) und zählt damit zu den Leichtmetallen. Mit einer Mohshärte von 1,25 ist es vergleichsweise weich und auch das weichste der Erdalkalimetalle. Der Schmelzpunkt liegt bei 727 °C, der Siedepunkt bei 1.640 °C. Das elektrochemische Standardpotenzial beträgt −2,912 V. Chemische Eigenschaften. In den chemischen Eigenschaften ähnelt es Calcium und den anderen Erdalkalimetallen. Es reagiert heftiger als die meisten anderen Erdalkalimetalle mit Wasser und mit Sauerstoff und löst sich leicht in fast allen Säuren – eine Ausnahme bildet konzentrierte Schwefelsäure, da die Bildung einer Sulfatschicht (Passivierung) die Reaktion stoppt. Barium kann deshalb als eines der unedelsten Metalle bezeichnet werden. Wegen dieser hohen Reaktivität wird es unter Schutzflüssigkeiten aufbewahrt. Es reagiert direkt mit Halogenen, Sauerstoff, Stickstoff und Schwefel. Dabei bildet es immer Verbindungen, in denen es als zweiwertiges Kation vorliegt. Beim Erhitzen an der Luft verbrennt das Metall mit der typischen grünen Flammenfärbung zu Bariumoxid. Als sehr unedles Metall reagiert Barium mit Wasser unter Wasserstoff- und Hydroxidbildung. Bariumhydroxid bildet sich auch schon beim Kontakt des Metalls mit feuchter Luft. Im Gegensatz zu anderen Erdalkalimetallen bildet Barium nur eine dünne Oxidschicht und kann sich in feuchter Luft selbst entzünden. Isotope. In der Natur kommen sieben stabile Bariumisotope vor, wobei 138Ba mit 71,8 % das häufigste Isotop ist. Des Weiteren sind von Barium 33 radioaktive Isotope mit Halbwertszeiten zwischen 10,5 Jahren bei 133Ba und 150 Nanosekunden bei 153Ba bekannt, wobei die meisten jedoch innerhalb von wenigen Sekunden zerfallen. Barium hat durchgängig Isotope von 58 bis maximal 97 Neutronen (von 114Ba bis 153Ba). Stabile Bariumisotope entstehen bei verschiedenen Zerfallsreihen, beispielsweise des 137I in 137Ba. Die radioaktiven Isotope zerfallen in Lanthan-, Xenon-, Caesium- und Iodisotope. Verwendung. Elementares Barium findet nur in kleinem Umfang Verwendung, die Produktion liegt bei nur wenigen Tonnen pro Jahr. Die wichtigste Anwendung ist diejenige als Gettermaterial in Vakuumröhren, beispielsweise von Fernsehern oder als Sonnenkollektoren. Es reagiert schnell mit unerwünschten Restgasen wie Sauerstoff, Stickstoff, Kohlenstoffdioxid oder Wasserdampf. Barium vermag auch unreaktive Gase einzuschließen und so aus der Vakuumröhre zu entfernen. Gleichzeitig besitzt das Metall bei den verwendeten Temperaturen einen niedrigen Dampfdruck. Von der Verwendung als Gettermaterial abgesehen findet Barium nur wenige Anwendungen. Mit Barium legiertes Nickel wird in Zündkerzen eingesetzt. Weiterhin wird es Bleilegierungen für Lagermetalle zugesetzt, da dies die Härte deutlich erhöht. In Verbindung mit Eisen als Bariumferrit (BaFe) findet es Verwendung als Material für Magnetbänder hoher Kapazität. Biologische Bedeutung. Pflanzen nehmen Barium aus dem Boden auf und reichern es an. Die höchste Konzentration in einer Nutzpflanze findet sich mit einem Anteil von 1 % entsprechend 10.000 ppm (Millionstel Anteilen) bei der Paranuss. Auf Barium richtiggehend angewiesen sind dagegen die Zieralgen (Desmidiaceae), eine Familie von einzelligen, etwa einen Millimeter großen Grünalgen (Chlorophyta), die in kalten, nährstoffarmen Süßgewässern, insbesondere in Hochmooren, vorkommen. In ihren Zellen befinden sich flüssigkeitsgefüllte Hohlräume, in denen sich winzige Bariumsulfatkristalle befinden. Das dazu notwendige Barium wird offenbar selektiv dem Wasser entzogen, selbst bei verschwindend geringen Konzentrationen von nur 1 ppb (Milliardstel Anteil). Auch um Größenordnungen darüber liegende Konzentrationen des leichteren Erdalkalimetalls Calcium ändern daran nichts. Umgekehrt werden für andere Organismen tödliche Bariumkonzentrationen von bis zu 35 ppm (Millionstel Anteile) toleriert. Die biologische Funktion der Kristalle ist noch unklar, eine Rolle bei der Schwerewahrnehmung wird jedoch vermutet. Dass Barium für die Pflanzen essenziell ist, zeigt sich dadurch, dass sie bei Entzug nicht mehr weiter wachsen. Auch im menschlichen Körper kommt Barium vor, der durchschnittliche Gewebeanteil liegt bei 100 ppb (Milliardstel Anteilen), in Blut und Knochen mit jeweils bis zu 70 ppb etwas niedriger. Mit der Nahrung wird täglich etwa ein Milligramm Barium aufgenommen. Sicherheitshinweise und Toxikologie. Alle wasser- oder säurelöslichen Bariumverbindungen sind giftig. Die maximale Arbeitsplatzkonzentration (MAK-Wert) liegt bei 0,5 mg/m3. Eine Dosis von 1 bis 15 Gramm ist abhängig von der Löslichkeit der jeweiligen Bariumverbindung für einen Erwachsenen tödlich. Das in der Röntgenologie verwendete wasserunlösliche Kontrastmittel Bariumsulfat, das zur Darstellung des Magen-Darm-Trakts beziehungsweise des Schluckakts in der Videokinematographie eingesetzt wird, muss deshalb frei von löslichen Bariumverbindungen sein, das heißt als Reinsubstanz zugeführt werden. Zu beachten ist hier auch die Verwechselungsmöglichkeit bei den im Sprachgebrauch der Apotheken verwendeten lateinischen Begriffen „Barium sulfuricum“ (Bariumsulfat) und „Barium sulfuratum“ (Bariumsulfid). Bariumvergiftungen erfolgen meist am Arbeitsplatz oder in der Nähe Barium-verarbeitender Industriezweige. Dabei kann Barium eingeatmet werden oder über das Trinkwasser in den Organismus gelangen. Abgelagert wird Barium in der Muskulatur, den Lungen und den Knochen, in die es ähnlich wie Calcium, jedoch schneller, aufgenommen wird. Seine Halbwertszeit im Knochen wird auf 50 Tage geschätzt. Nachdem Calcium auch an der Zellmembran der Muskulatur durch Barium ersetzt werden kann, wird – in niedriger Dosierung – deren Durchlässigkeit erhöht und die Muskelkontraktion gesteigert, was zu einer Blutdrucksteigerung und Senkung der Herzfrequenz, aber auch zu Muskelkrämpfen führen kann. Höhere Dosen führen zu Muskelschwäche bis hin zu -lähmung, die auf die Beeinträchtigung des Zentralen Nervensystems zurückgeführt wird. Herzrhythmusstörungen (Extrasystole und Kammerflimmern), Tremor, allgemeines Schwächegefühl, Schwindel, Angst und Atemprobleme können auftreten. Bei akuten wie subakuten Vergiftungen können Störungen des Magen-Darm-Trakts wie Leibschmerzen, Erbrechen und Durchfall auftreten. In hohen Konzentrationen inaktiviert Barium die passiven Kaliumkanäle in der Membran der Muskelzellen. Kalium kann so die Muskelzellen nicht mehr verlassen. Da die Natrium-Kalium-ATPase unvermindert Kalium in die Zellen pumpt, kommt es zum Abfall der Kalium-Spiegel im Blut. Die resultierende Hypokaliämie führt zu Ausfall der Muskelreflexe (Areflexie), schlaffer Muskellähmung und Atemlähmung. Erste Hilfe kann durch Zugabe von Natriumsulfat- oder Kaliumsulfatlösung erfolgen, wodurch die Bariumionen als schwerlösliches und damit ungiftiges Bariumsulfat gebunden werden. Im Krankenhaus kann Barium durch Dialyse entfernt werden. Nasschemische Methoden. Befindet sich Barium in Gesellschaft mit anderen Elementen, die ebenfalls schwerlösliche Sulfate bilden, so kann dieses Verfahren nicht angewendet werden. Trennung und Nachweis erfolgen dann, sofern nur Erdalkalielemente vorhanden sind nach dem Chromat-Sulfat-Verfahren (siehe unter Ammoniumcarbonatgruppe). Im Rahmen dieses Verfahrens wird die Bariumlösung mit Kaliumchromatlösung versetzt und es entsteht ein gelber Niederschlag von Bariumchromat. Sind noch andere Elemente mit schwerlöslichen Sulfaten vorhanden, muss ein geeigneter Kationentrenngang durchgeführt werden. Instrumentelle Methoden. Ein zum Nachweis von Barium geeignetes Verfahren ist die Atomspektroskopie. Der Nachweis von Barium und Bariumsalzen erfolgt hierbei über das charakteristische Spektrum. Gebräuchliche Gerätetypen hierzu sind beispielsweise das Flammenatomabsorptionsspektrometer oder das Atomemissionsspektrometer mit induktiv gekoppeltem Hochfrequenzplasma. Damit können selbst geringe Spuren von Barium nachgewiesen werden. Wenn kein Spektrometer vorhanden ist, kann man unter Umständen auch einfach eine Probe in eine Bunsenbrennerflamme halten, und die grüne Flammenfärbung beobachten. Die Anwendung der Flammenfärbung ist nicht möglich, wenn Elemente mit ähnlichen Flammenfarben anwesend sind. Verbindungen. Bariumverbindungen liegen fast ausschließlich in der Oxidationsstufe +II vor. Diese sind meist farblose, salzartige Feststoffe. Charakteristisch für Bariumverbindungen ist die grüne Flammenfärbung. Sauerstoffverbindungen. Es existieren zwei verschiedene Barium-Sauerstoff-Verbindungen, Bariumoxid und Bariumperoxid. Bariumoxid adsorbiert Wasser und Kohlenstoffdioxid und wird dementsprechend eingesetzt. Bariumperoxid, das aus Bariumoxid hergestellt werden kann, ist ein starkes Oxidationsmittel. Es wird in der Pyrotechnik verwendet. Bariumperoxid ist daneben ein mögliches Edukt für die Herstellung von Wasserstoffperoxid. Wird Bariumoxid in Wasser gelöst, bildet sich die starke Base Bariumhydroxid, die unter anderem als Nachweis für Carbonat-Ionen dient. Halogenverbindungen. Mit den Halogenen bildet Barium jeweils Verbindungen des Typs BaX2. Mit Ausnahme von Bariumfluorid, das in der Fluoritstruktur kristallisiert, kristallisieren sie in der Blei(II)-chlorid-Struktur. Bariumfluorid besitzt einen großen transparenten Bereich und wird in der optischen Industrie eingesetzt, das giftige und gut lösliche Bariumchlorid ist Grundstoff für andere Bariumverbindungen und dient als Fällungsmittel für Sulfat, etwa zum Nachweis oder zur Enthärtung. Verbindungen mit Oxosäuren. Bariumsulfat ist die technisch wichtigste Bariumverbindung. Es besitzt im Vergleich zu anderen Bariumverbindungen den Vorteil, auf Grund der sehr geringen Löslichkeit ungiftig zu sein. Es wird vor allem in der Erdölförderung für die Erhöhung der Dichte des Bohrschlamms eingesetzt. Daneben dient es als Füllstoff für Kunststoffe, als Röntgenkontrastmittel und wird als Anstrichfarbe eingesetzt. Bariumcarbonat ist ein wirksames Rattengift, es wird auch als Rohstoff zur Glasherstellung sowie bei der Produktion hartmagnetischer Ferrite verwendet. Bariumnitrat, Bariumiodat und Bariumchlorat werden wegen ihrer brandfördernden Eigenschaften und der grünen Flammenfärbung in der Pyrotechnik benutzt. Weitere Bariumverbindungen finden sich in der Beryllium. Beryllium ist ein chemisches Element mit dem Symbol Be und der Ordnungszahl 4. Der Name lässt sich vom Mineral Beryll, einem berylliumhaltigen Schmuckstein, ableiten ("beryllos",). Im Periodensystem steht Beryllium in der zweiten Hauptgruppe, bzw. der 2. IUPAC-Gruppe, und zählt daher zu den Erdalkalimetallen. Als Element der zweiten Periode zählt es zu den leichten Erdalkalimetallen. Bemerkenswert ist jedoch, dass es eine höhere Dichte als seine beiden Homologen Magnesium und Calcium hat. Das stahlgraue Leichtmetall ist sehr hart und spröde und wird meist als Legierungszusatz verwendet. In Verbindungen ist es zweiwertig. Geschichte. Durch einen Hinweis von Abbé R. J. Haüy isolierte der französische Chemiker Louis-Nicolas Vauquelin 1798 das Beryllium in Form seines Oxids aus den Edelsteinen Beryll und Smaragd. Kurz darauf stellte Martin Heinrich Klaproth die gleiche Verbindung her, welche er Beryllium (nach dem Mineral Beryll) nannte. Das chemische Symbol Be wurde 1814 von J.J. Berzelius eingeführt. Erst 1828 gelang es Friedrich Wöhler und Antoine Bussy, das Element durch die Reduktion des Berylliumchlorids mit Kalium darzustellen. Reines Beryllium wurde erstmals 1899 von Paul Marie Alfred Lebeau durch Schmelzflusselektrolyse von Natriumtetrafluoridoberyllat (Na2[BeF4]) hergestellt. Wegen des süßen Geschmackes der Berylliumsalze wurde in Frankreich noch bis 1957 Vauquelins Namensvorschlag "Glucinium" (griech. γλυκύς = süß) verwendet. Im Altertum und Mittelalter dienten durchsichtige Beryllstücke vielfach als Zauberglas, da es, wie heute eine Lupe, Schriftzüge und Bilder beim Lesen vergrößert. Vom Wort Beryll leitet sich die Bezeichnung "Brille" (lat.) ab, ursprünglich für ein Augenglas aus Beryll. 1945 wurde Beryllium zusammen mit dem Alphastrahler Polonium als Neutronenquelle in der Atombombe "Little Boy", die über Hiroshima abgeworfen wurde, eingesetzt. Vorkommen. Mit einem Massenanteil von 5,3 ppm in der Erdhülle steht Beryllium an 48. Stelle der Elementhäufigkeit. Das seltene Element kommt in rund 30 verschiedenen Mineralien vor. Die wichtigsten sind Bertrandit (4 BeO·2 SiO2·H2O) (Vereinigte Staaten) und Beryll (Be3Al2(SiO3)6) (Volksrepublik China, Russland und Brasilien). Die schönsten und wertvollsten beryllhaltigen Mineralien sind die Schmuck- und Edelsteine Aquamarin, Smaragd, Roter Beryll, Euklas, Gadolinit, Chrysoberyll, Phenakit und Alexandrit. Berylliumerz-Lagerstätten finden sich bevorzugt im Äquatorialgürtel. Frühere, mittlerweile erschöpfte Lagerstätten lagen nördlich zu Fuße der Hohen Tauern um Bramberg in Österreich. In den USA werden niedrighaltige Lagerstätten von Berylliumoxid-Erz in der Nevada-Wüste abgebaut. Die geschätzten Vorräte an förderbarem Beryllium liegen weltweit bei etwa 80.000 Tonnen. Herstellung. Elementares Beryllium lässt sich durch Reduktion von Berylliumfluorid mit Magnesium bei 900 °C herstellen. Die Weltjahresproduktion an Beryllium-Metall betrug 2004 etwa 100 t. Eigenschaften. Bei Raumtemperatur ist Beryllium an trockener Luft beständig, es bildet sich eine passivierende Oxidschicht, die dem Angriff kalter konzentrierter Salpetersäure widersteht. In Salzsäure wird es jedoch schnell angegriffen. An feuchter Luft überzieht es sich mit einer Schicht aus Hydroxid, die sich beim Kontakt mit Wasser ausbildet. Bei höheren Temperaturen ist die Korrosionsbeständigkeit in Wasser abhängig von den Verunreinigungen des Metalls sowie des Korrosionsmediums, zusätzlich besteht die Gefahr der Lochfraßkorrosion. Alkalilaugen greifen Beryllium unter Bildung von Beryllaten an. In heißen Gasen wie Luft, Sauerstoff, Stickstoff und Kohlenstoffdioxid tritt merkliche Korrosion erst oberhalb von 600 °C ein. Beryllium hat eine außerordentlich niedrige Poissonzahl von µ = 0,032, weist also im Zugversuch eine sehr geringe Querkontraktion auf, während andere Element-Metalle Werte von µ = 0,21 (Chrom) bis 0,44 oder 0,45 (Gold, Blei; Thallium) aufweisen. Isotope. Beryllium besitzt nur ein stabiles Isotop: 9Be. Die radioaktiven Isotope 7Be und 10Be sind kosmogen auf der Erde in Spuren vorhanden. Der Nachweis von 10Be hat wissenschaftliche Anwendungen zum Beispiel in der Geologie und Klimaforschung. Eine wichtige Anwendung in der Geologie ist die Datierung der Offenlegung von Gestein; damit lässt sich zum Beispiel der Rückzug von Gletschern datieren. Die Konzentration von 10Be zeigt eine Korrelation mit der die Erde erreichenden kosmischen Strahlung. Diese hängt von der Stärke des Erdmagnetfeldes und der Sonnenaktivität ab (hohe Be-Konzentration bei geringer Sonnenaktivität). Da es sich bevorzugt auf Aerosoloberflächen niederschlägt, korrelieren hohe Be-Konzentrationen auch mit hohen Aerosolkonzentrationen in der Luft. Hohe Konzentrationen treten in Warmzeiten, geringe in Kaltzeiten auf. Da 10Be zusammen mit den übrigen Gasen der Atmosphäre in Eisbohrkernen eingeschlossen wird, kann durch Analyse dieser Einschlüsse auch über viele Jahrtausende der Zusammenhang zwischen Sonnenaktivität und globalem Temperaturverlauf analysiert werden. Das extrem kurzlebige Isotop 8Be (Halbwertszeit etwa 10−17 Sekunden) spielt eine wichtige Rolle in der Nukleosynthese, der Entstehung der chemischen Elemente in Gestirnen. An dem kurzlebigen Isotop 11Be wurde 2008 eine kernphysikalisch interessante Besonderheit nachgewiesen: Sein Atomkern besteht aus einem relativ kompakten Rumpfkern und einem einzelnen, locker gebundenen Neutron, das diesen als Halo umgibt. Verwendung. Halbzeuge und Rohteile aus Berylliummetall werden vielfach als Sinterprodukte pulvermetallurgisch in HIP- und CIP-Verfahren hergestellt (heiß- und kaltisostatisches Pressen). Gussteile aus Beryllium finden wegen der anisotropen Eigenschaften und anderer Merkmale, wie Grobkörnigkeit, keine technische Verwendung. Prozesse für die Herstellung von Berylliummetall und für das Legieren mit Kupfer oder/und Nickel verwenden Berylliumhydroxid und Berylliumoxid als Ausgangsstoff. Ein wassergekühlter Berylliumblock dient, mit Protonen aus einem Beschleuniger bestrahlt, als Neutronenquelle zur Krebstherapie Sicherheitshinweise. Beryllium, Berylliumoxid und Berylliumsalze sind giftig und karzinogen. Beryllium kann zu Haut-, Lungen-, Milz- und Leberschäden führen. Beryllium akkumuliert sich im menschlichen Körper und führt nach jahrelanger Latenzzeit zur Bildung von Tumoren. Gefährlich ist vor allem inhaliertes Beryllium, es führt zur "Berylliose". Hierbei kommt es in der Lunge zur Bildung von charakteristischen Epitheloidzellgranulomen. Verschlucktes Beryllium ist relativ ungefährlich, da es überwiegend wieder ausgeschieden wird. Bei der Berylliumverarbeitung ist Absaugung und Abkapselung bei der Spanabnahme unbedingt erforderlich. Bei der Zerstörung berylliumoxidhaltiger elektronischer Bauteile kann Berylliumoxid freigesetzt werden, sie müssen daher entsprechend gekennzeichnet sein, was aber, insbesondere bei älteren Bauteilen, oft nicht der Fall ist. Die Auswirkungen von Beryllium auf die menschliche Gesundheit und die Umwelt wurde unter REACH im Jahr 2013 im Rahmen der Stoffbewertung von Deutschland geprüft. Dabei wurde festgestellt, dass Beryllium aufgrund seiner Einstufung als Krebserzeugend Kategorie 1B und STOT RE1 (Berylliose) die Anforderungen für SVHC-Substanzen erfüllt und entsprechend eingestuft werden sollte. Berkelium. Berkelium ist ein künstlich erzeugtes chemisches Element mit dem Elementsymbol Bk und der Ordnungszahl 97. Im Periodensystem steht es in der Gruppe der Actinoide (7. Periode, f-Block) und zählt auch zu den Transuranen. Berkelium wurde nach der Stadt Berkeley in Kalifornien benannt, in der es entdeckt wurde. Bei Berkelium handelt es sich um ein radioaktives Metall mit einem silbrig-weißen Aussehen. Es wurde im Dezember 1949 erstmals aus dem leichteren Element Americium erzeugt. Es entsteht in geringen Mengen in Kernreaktoren. Seine Anwendung findet es vor allem zur Erzeugung höherer Transurane und Transactinoide. Geschichte. So wie Americium (Ordnungszahl 95) und Curium (96) in den Jahren 1944 und 1945 nahezu zeitgleich entdeckt wurden, erfolgte in ähnlicher Weise in den Jahren 1949 und 1950 die Entdeckung der Elemente Berkelium (97) und Californium (98). Die Experimentatoren, Glenn T. Seaborg, Albert Ghiorso und Stanley G. Thompson, stellten am 19. Dezember 1949 die ersten Kerne im 60-Zoll-Cyclotron der Universität von Kalifornien in Berkeley her. Es war das fünfte Transuran, das entdeckt wurde. Die Entdeckung wurde zeitgleich mit der des Californiums veröffentlicht. Die Namenswahl folgte naheliegenderweise einem gemeinsamen Ursprung: Berkelium wurde nach dem Fundort, der Stadt "Berkeley" in Kalifornien, benannt. Die Namensgebung folgt somit wie bei vielen Actinoiden und den Lanthanoiden: Terbium, das im Periodensystem genau über Berkelium steht, wurde nach der schwedischen Stadt Ytterby benannt, in der es zuerst entdeckt wurde: "It is suggested that element 97 be given the name berkelium (symbol Bk) after the city of Berkeley in a manner similar to that used in naming its chemical homologue terbium (atomic number 65) whose name was derived from the town of Ytterby, Sweden, where the rare earth minerals were first found." Für das Element 98 wählte man den Namen "Californium" zu Ehren der Universität und des Staates Kalifornien. Als schwerste Schritte in der Vorbereitung zur Herstellung des Elements erwiesen sich die Entwicklung entsprechender chemischer Separationsmethoden und die Herstellung ausreichender Mengen an Americium für das Target-Material. Die Probenvorbereitung erfolgte zunächst durch Auftragen von Americiumnitratlösung (mit dem Isotop 241Am) auf eine Platinfolie; die Lösung wurde eingedampft und der Rückstand dann zum Oxid (AmO2) geglüht. Nach dem Beschuss im Cyclotron wurde die Beschichtung mittels Salpetersäure gelöst und erhitzt, anschließend wieder mit einer konzentrierten wässrigen Ammoniak-Lösung als Hydroxid ausgefällt und abzentrifugiert; der Rückstand wurde wiederum in Salpetersäure gelöst. Um die weitgehende Abtrennung des Americiums zu erreichen, wurde diese Lösung mit einem Gemisch von Ammoniumperoxodisulfat und Ammoniumsulfat versetzt und erhitzt, um vor allem das gelöste Americium auf die Oxidationsstufe +6 zu bringen. Nicht oxidiertes restliches Americium wurde durch Zusatz von Flusssäure als Americium(III)-fluorid ausgefällt. Auf diese Weise werden auch begleitendes Curium als Curium(III)-fluorid und das erwartete Element 97 (Berkelium) als Berkelium(III)-fluorid augefällt. Dieser Rückstand wurde durch Behandlung mit Kalilauge zum Hydroxid umgewandelt, welches nach Abzentrifugieren nun in Perchlorsäure gelöst wurde. Die weitere Trennung erfolgte in Gegenwart eines Citronensäure/Ammoniumcitrat-Puffers im schwach sauren Medium (pH ≈ 3,5) mit Ionenaustauschern bei erhöhter Temperatur. Die chromatographische Trennung konnte nur aufgrund vorheriger Vergleiche mit dem chemischen Verhalten der entsprechenden Lanthanoide gelingen. So tritt bei einer Trennung das Terbium vor Gadolinium und Europium aus einer Säule. Falls das chemische Verhalten des Berkeliums dem eines Eka-Terbiums ähnelt, sollte das fragliche Element 97 daher in dieser analogen Position zuerst erscheinen, entsprechend vor Curium und Americium. Der weitere Verlauf des Experiments brachte zunächst kein Ergebnis, da man nach einem α-Teilchen als Zerfallssignatur suchte. Erst die Suche nach charakteristischer Röntgenstrahlung und Konversionselektronen als Folge eines Elektroneneinfangs brachte den gewünschten Erfolg. Das Ergebnis der Kernreaktion wurde mit 243Bk angegeben, obwohl man anfänglich auch 244Bk für möglich hielt. Im Jahr 1958 isolierten Burris B. Cunningham und Stanley G. Thompson erstmals wägbare Mengen, die durch langjährige Neutronenbestrahlung von 239Pu in dem Testreaktor der National Reactor Testing Station in Idaho erzeugt wurden. Isotope. Von Berkelium existieren nur Radionuklide und keine stabilen Isotope. Insgesamt sind 12 Isotope und 5 Kernisomere des Elements bekannt. Die langlebigsten sind 247Bk (Halbwertszeit 1380 Jahre), 248Bk (9 Jahre) und 249Bk (330 Tage). Die Halbwertszeiten der restlichen Isotope liegen im Bereich von Millisekunden bis Stunden oder Tagen. Nimmt man beispielhaft den Zerfall des langlebigsten Isotops 247Bk heraus, so entsteht durch α-Zerfall zunächst das langlebige 243Am, das seinerseits durch erneuten α-Zerfall in 239Np übergeht. Der weitere Zerfall führt dann über 239Pu zum 235U, dem Beginn der Uran-Actinium-Reihe (4 n + 3). "→ Liste der Berkeliumisotope" Vorkommen. Das langlebigste Isotop 247Bk besitzt eine Halbwertszeit von 1380 Jahren. Aus diesem Grund ist das gesamte primordiale Berkelium, das die Erde bei ihrer Entstehung enthielt, mittlerweile zerfallen. Über die Erstentdeckung von Einsteinium und Fermium in den Überresten der ersten amerikanischen Wasserstoffbombe, Ivy Mike, am 1. November 1952 auf dem Eniwetok-Atoll hinaus wurden neben Plutonium und Americium auch Isotope von Curium, Berkelium und Californium gefunden, darunter das 249Bk, das durch den β-Zerfall in 249Cf übergeht. Aus Gründen der militärischen Geheimhaltung wurden die Ergebnisse erst später im Jahr 1956 publiziert. In Kernreaktoren entsteht vor allem das Berkeliumisotop 249Bk, es zerfällt bereits während der Zwischenlagerung (vor der Endlagerung) fast komplett zum Californiumisotop 249Cf mit 351 Jahren Halbwertszeit. Dieses zählt zum Transuranabfall und ist daher in der Endlagerung unerwünscht. Gewinnung und Darstellung. Berkelium wird durch Beschuss von leichteren Actinoiden mit Neutronen in einem Kernreaktor erzeugt. Die Hauptquelle ist der 85 MW High-Flux-Isotope Reactor (HFIR) am Oak Ridge National Laboratory in Tennessee, USA, der auf die Herstellung von Transcuriumelementen (Z > 96) eingerichtet ist. Gewinnung von Berkeliumisotopen. Berkelium entsteht in Kernreaktoren aus Uran (238U) oder Plutonium (239Pu) durch zahlreiche nacheinander folgende Neutroneneinfänge und β-Zerfälle – unter Ausschluss von Spaltungen oder α-Zerfällen. Ein wichtiger Schritt ist hierbei die (n,γ)- oder Neutroneneinfangsreaktion, bei welcher das gebildete angeregte Tochternuklid durch Aussendung eines γ-Quants in den Grundzustand übergeht. Die hierzu benötigten freien Neutronen entstehen durch Kernspaltung anderer Kerne im Reaktor. In diesem kernchemischen Prozess wird zunächst durch eine (n,γ)-Reaktion gefolgt von zwei β−-Zerfällen das 239Pu gebildet. In Brutreaktoren wird dieser Prozess zum Erbrüten neuen Spaltmaterials genutzt. Letzteres wird hierzu mit einer Neutronenquelle, die einen hohen Neutronenfluss besitzt, bestrahlt. Die hierbei möglichen Neutronenflüsse sind um ein vielfaches höher als in einem Kernreaktor. Aus 239Pu wird durch vier aufeinander folgende (n,γ)-Reaktionen 243Pu gebildet, welches durch β-Zerfall mit einer Halbwertszeit von 4,96 Stunden zu 243Am zerfällt. Das durch eine weitere (n,γ)-Reaktion gebildete 244Am zerfällt wiederum durch β-Zerfall mit einer Halbwertszeit von 10,1 Stunden letztlich zu 244Cm. Aus 244Cm entstehen durch weitere (n,γ)-Reaktionen im Reaktor in jeweils kleiner werdenden Mengen die nächst schwereren Isotope. Die Entstehung von 250Cm auf diesem Wege ist jedoch sehr unwahrscheinlich, da 249Cm nur eine kurze Halbwertszeit besitzt und so weitere Neutroneneinfänge in der kurzen Zeit unwahrscheinlich sind. 249Bk ist das einzige Isotop des Berkeliums, das auf diese Weise gebildet werden kann. Es entsteht durch β-Zerfall aus 249Cm – das erste Curiumisotop, welches einen β-Zerfall eingeht (Halbwertszeit 64,15 min). Durch Neutroneneinfang entsteht zwar aus 249Bk auch das 250Bk, dies zerfällt aber schon mit einer Halbwertszeit von 3,212 Stunden durch β-Zerfall zu 250Cf. Das langlebigste Isotop, das 247Bk, kann somit nicht in Kernreaktoren hergestellt werden, so dass man sich oftmals mit dem eher zugänglichen 249Bk begnügen muss. Berkelium steht heute weltweit lediglich in sehr geringen Mengen zur Verfügung, weshalb es einen sehr hohen Preis besitzt. Dieser beträgt etwa 160 US-Dollar pro Mikrogramm 249Bk. Das Isotop 248Bk wurde 1956 durch Beschuss mit 25-MeV α-Teilchen aus einem Gemisch von Curiumnukliden hergestellt. Seine Existenz mit dessen Halbwertszeit von 23 ± 5 Stunden wurde durch das β-Zerfallsprodukt 248Cf festgestellt. 247Bk wurde 1965 aus 244Cm durch Beschuss mit α-Teilchen hergestellt. Ein eventuell entstandenes Isotop 248Bk konnte nicht nachgewiesen werden. Das Berkeliumisotop 242Bk wurde 1979 durch Beschuss von 235U mit 11B, 238U mit 10B, sowie 232Th mit 14N bzw. 15N erzeugt. Es wandelt sich durch Elektroneneinfang mit einer Halbwertszeit von 7,0 ± 1,3 Minuten zum 242Cm um. Eine Suche nach einem zunächst vermuteten Isotop 241Bk blieb ohne Erfolg. Darstellung elementaren Berkeliums. Die ersten Proben von Berkeliummetall wurden 1969 durch Reduktion von BkF3 bei 1000 °C mit Lithium in Reaktionsapparaturen aus Tantal hergestellt. Elementares Berkelium kann ferner auch aus BkF4 mit Lithium oder durch Reduktion von BkO2 mit Lanthan oder Thorium dargestellt werden. Eigenschaften. 1,7 Mikrogramm Berkelium(Größe ca. 100 μm) Im Periodensystem steht das Berkelium mit der Ordnungszahl 97 in der Reihe der Actinoide, sein Vorgänger ist das Curium, das nachfolgende Element ist das Californium. Sein Analogon in der Reihe der Lanthanoide ist das Terbium. Physikalische Eigenschaften. Bei Berkelium handelt es sich um ein künstliches, radioaktives Metall. Es hat ein silbrig-weißes Aussehen mit einem Schmelzpunkt von 986 °C. Die bei Standardbedingungen auftretende Modifikation α-Bk kristallisiert im hexagonalen Kristallsystem in der mit den Gitterparametern "a" = 341,6 ± 0,3 pm und "c" = 1106,9 ± 0,7 pm sowie vier Formeleinheiten pro Elementarzelle, einem Metallradius von 170 nm und einer Dichte von 14,78 g/cm3. Die Kristallstruktur besteht aus einer doppelt-hexagonal dichtesten Kugelpackung (d.h.c.p.) mit der Schichtfolge ABAC und ist damit isotyp zur Struktur von α-La. Bei höheren Temperaturen geht α-Bk in β-Bk über. Die β-Modifikation kristallisiert im kubischen Kristallsystem in der Raumgruppe  mit dem Gitterparameter "a" = 499,7 ± 0,4 pm, einem Metallradius von 177 nm und einer Dichte von 13,25 g/cm3. Die Kristallstruktur besteht aus einer kubisch dichtesten Kugelpackung mit der Stapelfolge ABC, was einem kubisch flächenzentrierten Gitter (f.c.c.) entspricht. Die Lösungsenthalpie von Berkelium-Metall in Salzsäure bei Standardbedingungen beträgt −600,2 ± 5,1 kJ·mol−1. Ausgehend von diesem Wert erfolgte die erstmalige Berechnung der Standardbildungsenthalpie (Δf"H"0) von Bk3+(aq) auf −601 ± 5 kJ·mol−1 und des Standardpotentials Bk3+ / Bk0 auf −2,01 ± 0,03 V. Zwischen 70 K und Raumtemperatur verhält sich Berkelium wie ein Curie-Weiss-Paramagnet mit einem effektiven magnetischen Moment von 9,69 Bohrschen Magnetonen (µB) und einer Curie-Temperatur von 101 K. Beim Abkühlen auf etwa 34 K erfährt Berkelium einen Übergang zu einem antiferromagnetischen Zustand. Dieses magnetische Moment entspricht fast dem theoretischen Wert von 9,72 µB. Chemische Eigenschaften. Berkelium ist wie alle Actinoide sehr reaktionsfähig. Es reagiert allerdings nicht schnell mit Sauerstoff bei Raumtemperatur, was möglicherweise auf die Bildung einer schützenden Oxidschicht zurückzuführen ist. Jedoch reagiert es mit geschmolzenen Metallen, Wasserstoff, Halogenen, Chalkogenen und Penteliden zu verschiedenen binären Verbindungen. In wässriger Lösung ist die dreiwertige Oxidationsstufe am beständigsten, jedoch kennt man auch vierwertige und zweiwertige Verbindungen. Wässrige Lösungen mit Bk3+-Ionen haben eine gelbgrüne Farbe, mit Bk4+-Ionen sind sie in salzsaurer Lösung beige, in schwefelsaurer Lösung orange-gelb. Ein ähnliches Verhalten ist für sein Lanthanoidanalogon Terbium zu beobachten. Bk3+-Ionen zeigen zwei scharfe Fluoreszenzpeaks bei 652 nm (rotes Licht) und 742 nm (dunkelrot – nahes Infrarot) durch interne Übergänge in der f-Elektronen-Schale. Spaltbarkeit. Berkelium eignet sich anders als die benachbarten Elemente Curium und Californium auch theoretisch nur sehr schlecht als Kernbrennstoff in einem Reaktor. Neben der sehr geringen Verfügbarkeit und dem damit verbundenen hohen Preis kommt hier erschwerend hinzu, dass die günstigeren Isotope mit gerader Massenzahl nur eine geringe Halbwertszeit haben. Das einzig infrage kommende geradzahlige Isotop, 248Bk im Grundzustand, ist nur sehr schwer zu erzeugen, zudem liegen derzeit (9/2008) keine ausreichenden Daten über dessen Wirkungsquerschnitte vor. 249Bk ist im Prinzip in der Lage, eine Kettenreaktion aufrechtzuerhalten, und damit für einen schnellen Reaktor oder eine Atombombe geeignet. Die kurze Halbwertszeit von 330 Tagen zusammen mit der komplizierten Gewinnung und dem hohen Bedarf vereiteln entsprechende Versuche. Die kritische Masse liegt unreflektiert bei 192 kg, mit Wasserreflektor immer noch 179 kg, ein Vielfaches der Weltjahresproduktion. 247Bk kann sowohl in einem thermischen als auch in einem schnellen Reaktor eine Kettenreaktion aufrechterhalten und hat mit 1380 Jahren eine ausreichend große Halbwertszeit, um sowohl als Kernbrennstoff als auch Spaltstoff für eine Atombombe zu dienen. Es kann allerdings nicht in einem Reaktor erbrütet werden und ist damit in der Produktion noch aufwendiger und kostenintensiver als die anderen genannten Isotope. Damit einher geht eine noch geringere Verfügbarkeit, was angesichts der benötigten Masse von mindestens 35,2 kg (kritische Masse mit Stahlreflektor) als Ausschlusskriterium angesehen werden kann. Verwendung. Die Verwendung für Berkeliumisotope beruht hauptsächlich in der wissenschaftlichen Grundlagenforschung. 249Bk ist ein gängiges Nuklid zur Synthese noch schwererer Transurane und Transactinoide wie Lawrencium, Rutherfordium und Bohrium. Es dient auch als Quelle für das Isotop 249Cf, welches Studien über die Chemie des Californiums ermöglicht. Es hat den Vorzug vor dem radioaktiveren 252Cf, welches ansonsten durch Neutronenbeschuss im High-Flux-Isotope Reactor (HFIR) erzeugt wird. Eine 22-Milligramm-Probe 249Bk wurde im Jahr 2009 in einer 250-Tage-Bestrahlung hergestellt und dann in einem 90-Tage-Prozess in Oak Ridge gereinigt. Diese Probe führte zu den ersten 6 Atomen des Elements Ununseptium am Vereinigten Institut für Kernforschung (JINR), Dubna, Russland, nach einem Beschuss mit Calcium-Ionen im U400-Zyklotron für 150 Tage. Diese Synthese war ein Höhepunkt der russisch-amerikanischen Zusammenarbeit zwischen JINR und Lawrence Livermore National Laboratory bei der Synthese der Elemente 113 bis 118, die 1989 gestartet wurde. Verbindungen. Obwohl das Isotop 247Bk die längste Halbwertszeit ausweist, ist das Isotop 249Bk leichter zugänglich und wird überwiegend für die Bestimmung der chemischen Eigenschaften herangezogen. Oxide. Von Berkelium existieren Oxide der Oxidationsstufen +3 (Bk2O3) und +4 (BkO2). Berkelium(IV)-oxid (BkO2) ist ein brauner Feststoff und kristallisiert im kubischen Kristallsystem in der Fluorit-Struktur in der mit den Koordinationszahlen Cf[8], O[4]. Der Gitterparameter beträgt 533,4 ± 0,5 pm. Es ist ein gelbgrüner Feststoff mit einem Schmelzpunkt von 1920 °C. Es bildet ein kubisch-raumzentriertes Kristallgitter mit "a" = 1088,0 ± 0,5 pm. Halogenide. Halogenide sind für die Oxidationsstufen +3 und +4 bekannt. Die stabilste Stufe +3 ist für sämtliche Verbindungen von Fluor bis Iod bekannt und auch in wässriger Lösung stabil. Die vierwertige Stufe ist nur in der festen Phase stabilisierbar. Berkelium(IV)-fluorid (BkF4) ist eine gelbgrüne Ionenverbindung und kristallisiert im monoklinen Kristallsystem und ist isotyp mit Uran(IV)-fluorid. Berkelium(III)-fluorid (BkF3) ist ein gelbgrüner Feststoff und besitzt zwei kristalline Strukturen, die temperaturabhängig sind (Umwandlungstemperatur: 350 bis 600 °C). Bei niedrigen Temperaturen ist die orthorhombische Struktur (YF3-Typ) zu finden. Bei höheren Temperaturen bildet es ein trigonales System (LaF3-Typ). Berkelium(III)-chlorid (BkCl3) ist ein grüner Feststoff mit einem Schmelzpunkt von 603 °C und kristallisiert im hexagonalen Kristallsystem. Seine Kristallstruktur ist isotyp mit Uran(III)-chlorid (UCl3). Das Hexahydrat (BkCl3 · 6 H2O) weist eine monokline Kristallstruktur auf. Berkelium(III)-bromid (BkBr3) ist ein gelbgrüner Feststoff und kristallisiert bei niedrigen Temperaturen im PuBr3-Typ, bei höheren Temperaturen im AlCl3-Typ. Berkelium(III)-iodid (BkI3) ist ein gelber Feststoff und kristallisiert im hexagonalen System (BiI3-Typ). Die Oxihalogenide BkOCl, BkOBr und BkOI besitzen eine tetragonale Struktur vom PbFCl-Typ. Chalkogenide und Pentelide. Berkelium(III)-sulfid (Bk2S3) wurde entweder durch Behandeln von Berkelium(III)-oxid mit einem Gemisch von Schwefelwasserstoff und Kohlenstoffdisulfid bei 1130 °C dargestellt, oder durch die direkte Umsetzung von metallischem Berkelium mit Schwefel. Dabei entstanden bräunlich-schwarze Kristalle mit kubischer Symmetrie und einer Gitterkonstanten von "a" = 844 pm. Die Pentelide des Berkeliums (249Bk) des Typs BkX sind für die Elemente Stickstoff, Phosphor, Arsen und Antimon dargestellt worden. Ihre Herstellung erfolgt durch die Reaktion von entweder Berkelium(III)-hydrid (BkH3) oder metallischem Berkelium mit diesen Elementen bei erhöhter Temperatur im Hochvakuum in Quarzampullen. Sie kristallisieren im NaCl-Gitter mit den Gitterkonstanten 495,1 pm für BkN, 566,9 pm für BkP, 582,9 pm für BkAs und 619,1 pm für BkSb. Weitere anorganische Verbindungen. Berkelium(III)- und Berkelium(IV)-hydroxid sind beide als Suspension in 1 M Natronlauge stabil und wurden spektroskopisch untersucht. Berkelium(III)-phosphat (BkPO4) wurde als Feststoff dargestellt, der eine starke Fluoreszenz bei einer Anregung durch einen Argon-Laser (514,5 nm-Linie) zeigt. Weitere Salze des Berkeliums sind bekannt, z. B. Bk2O2S, (BkNO3)3 · 4 H2O, BkCl3 · 6 H2O, Bk2(SO4)3 · 12 H2O und Bk2(C2O4)3 · 4 H2O. Eine thermische Zersetzung in einer Argonatmosphäre bei ca. 600 °C (um eine Oxidation zum BkO2 vermeiden) von Bk2(SO4)3 · 12 H2O führt zu raumzentrierten orthorhombischen Kristallen von Berkelium(III)-oxisulfat (Bk2O2SO4). Diese Verbindung ist unter Schutzgas bis mindestens 1000 °C thermisch stabil. Berkeliumhydride werden durch Umsetzung des Metalls mit Wasserstoffgas bei Temperaturen über 250 °C hergestellt. Sie bilden nicht-stöchiometrische Zusammensetzungen mit der nominalen Formel BkH2+x (0 < x < 1). Während die Trihydride eine hexagonale Symmetrie besitzen, kristallisiert das Dihydrid in einer "fcc"-Struktur mit der Gitterkonstanten "a" = 523 pm. Metallorganische Verbindungen. Berkelium bildet einen trigonalen (η5–C5H5)3Bk-Komplex mit drei Cyclopentadienylringen, die durch Umsetzung von Berkelium(III)-chlorid mit geschmolzenem Be(C5H5)2 bei etwa 70 °C synthetisiert werden können. Es besitzt eine gelbe Farbe und orthorhombische Symmetrie mit den Gitterkonstanten "a" = 1411 pm, "b" = 1755 pm und "c" = 963 pm sowie einer berechneten Dichte von 2,47 g/cm3. Der Komplex ist bis mindestens 250 °C stabil und sublimiert bei ca. 350 °C. Die hohe Radioaktivität bewirkt allerdings eine schnelle Zerstörung der Verbindungen innerhalb weniger Wochen. Ein C5H5-Ring im (η5–C5H5)3Bk kann durch Chlor ersetzt werden, wobei das dimere [Bk(C5H5)2Cl]2 entsteht. Das optische Absorptionsspektrum dieser Verbindung ist sehr ähnlich zum (η5–C5H5)3Bk. Sicherheitshinweise. Einstufungen nach der Gefahrstoffverordnung liegen nicht vor, weil diese nur die chemische Gefährlichkeit umfassen und eine völlig untergeordnete Rolle gegenüber den auf der Radioaktivität beruhenden Gefahren spielen. Auch Letzteres gilt nur, wenn es sich um eine dafür relevante Stoffmenge handelt. Blei. Blei ist ein chemisches Element mit dem Elementsymbol Pb () und der Ordnungszahl 82. Es ist ein giftiges Schwermetall und steht in der 4. Hauptgruppe bzw. der 14. IUPAC-Gruppe (Kohlenstoffgruppe) und 6. Periode des Periodensystems. Blei ist leicht verformbar und hat einen vergleichsweise niedrigen Schmelzpunkt. Die Isotope 206Pb, 207Pb und 208Pb sind die schwersten stabilen Atome, Blei ist das schwerste stabile Element. Alle Bleiisotope haben die magische Protonenzahl 82, die diese Stabilität bewirkt. Bei 208Pb liegt sogar ein so genannter "doppelt magischer Kern" vor, weil er zusätzlich die magische Neutronenzahl 126 aufweist. Da die Bleiisotope -206, -207 und -208 die Endprodukte der drei natürlichen Zerfallsreihen radioaktiver Elemente sind, ist relativ viel Blei entstanden; es kommt deshalb in der Erdkruste im Vergleich zu anderen schweren Elementen (Quecksilber, Gold u. a.) häufig vor. Geschichte. In der frühen Bronzezeit wurde Blei neben Antimon und Arsen verwendet, um aus Legierungen mit Kupfer Bronzen zu erzeugen, bis sich Zinn weitgehend durchsetzte. Bereits die Babylonier kannten Vasen aus Blei. Die Assyrer mussten Blei ("abāru") einführen, was von Tiglat-pileser I. unter anderem als Tribut von Melidu belegt ist. Die Römer verwendeten das Metall als Material für Gefäße, als Schleudergeschoss, für Plomben (daher der Name) und Wasserleitungen. Schon der römische Autor Vitruv hielt die Verwendung von Blei für Trinkwasserrohre für gesundheitsschädlich, er empfahl, nach Möglichkeit Tonrohre zu verwenden; trotzdem waren Trinkwasserrohre aus Blei bis in die 1970er Jahre gebräuchlich, was beispielsweise auch in dem englischen Wort "plumber" („Rohrverleger“) zum Ausdruck kommt. Aus heutiger Sicht besonders bedenklich war die Zugabe von Blei als Süßmittel zum Wein (sogenannter „Bleizucker“, siehe auch Blei(II)-acetat). In Westfalen gewannen die Römer bis zu ihrem Rückzug nach der Varusschlacht Blei. Die für unterschiedliche Fundstellen typische Zusammensetzung der Isotope zeigt, dass das Blei für die Herstellung römischer Bleisärge, die im Rheinland gefunden wurden, aus der nördlichen Eifel stammt. Da manche Bleierze einen wirtschaftlich nutzbaren Anteil von Silber enthalten, war die Gewinnung von Blei und Silber schon seit der Antike oft miteinander verbunden. Die römische Bleiverarbeitung hat zu einer bis heute nachweisbaren Umweltverschmutzung geführt: Eiskerne aus Grönland zeigen zwischen dem 5. Jahrhundert v. Chr. und dem 3. Jahrhundert n. Chr. einen messbaren Anstieg des Bleigehalts in der Atmosphäre. Auch später hatte Blei eine wichtige Bedeutung. Es wurde beispielsweise zum Einfassen von Bleiglasfenstern, z. B. in Kirchen oder für das Eindecken von Bleidächern verwendet. Besonders wichtig wurde Blei vor allem nach Erfindung der Feuerwaffen für das Militär als Material für Projektile von Handfeuerwaffen. Da die Soldaten ihre Geschosse selbst herstellten, war es nicht unüblich, dass sie alles Blei stahlen, das sie finden konnten, um Geschosse daraus anzufertigen. Blei spielte auch in der Alchemie eine wichtige Rolle. Auf Grund seiner Ähnlichkeit zu Gold (ähnlich weich und schwer) galt Blei als guter Ausgangsstoff für die Goldsynthese (Synthese als Farbumwandlung von Grau nach Gelb). Das alchemistische Symbol für Blei ist eine stilisierte Sichel (♄), da es bereits seit dem Altertum als Planetenmetall dem Gott und Planeten Saturn zugeordnet wurde. Mit Beginn der industriellen Revolution wurde Blei dann in großen Mengen für die chemische Industrie, z. B. für die Schwefelsäureproduktion im Bleikammerverfahren oder die Auskleidung von Anlagen zur Sprengstoffherstellung, benötigt. Es war damals das wichtigste Nichteisenmetall. Heutzutage liegt die Menge des gewonnenen Bleis bei den Nichteisenmetallen an vierter Stelle nach Aluminium, Kupfer und Zink. Es wird vor allem für Autobatterien (Bleiakkumulatoren) verwendet (60 % der Gesamtproduktion). Vorkommen. Blei kommt in der Erdkruste mit einem Gehalt von etwa 0,0018 % vor und tritt nur selten gediegen auf. Dennoch ist es von der International Mineralogical Association (IMA) als eigenständiges Mineral anerkannt, zählt zu den Element-Mineralen und in der Strunz'schen Mineralsystematik unter der System-Nr. "1.AA.05" bzw. in der veralteten 8. Auflage unter der System-Nr. "I/A.05-20" zu finden. Weltweit konnte es bisher (Stand: 2010) an rund 130 Fundorten nachgewiesen werden, so unter anderem in Argentinien, Äthiopien, Australien, Belgien, Brasilien, Volksrepublik China, Deutschland, Finnland, Frankreich, Georgien, Griechenland, Grönland, Italien, Kanada, Kasachstan, Kirgisistan, Mexiko, der Mongolei, Namibia, Norwegen, Österreich, Polen, Russland, Schweden, Slowenien, Tschechien, der Ukraine, den US-amerikanischen Jungferninseln, im Vereinigten Königreich und den Vereinigten Staaten von Amerika (USA). An jedem Fundort weicht die Isotopenzusammensetzung geringfügig von den oben angegebenen Mittelwerten ab, so dass man mit einer genauen Analyse der Isotopenzusammensetzung den Fundort bestimmen und bei archäologischen Fundstücken auf alte Handelswege schließen kann. Auch in Gesteinsproben des mittelatlantischen Rückens sowie außerhalb der Erde auf dem Mond (im Mare Fecunditatis) konnte Blei gefunden werden. In Bleierzen ist es zumeist als Galenit (Bleisulfid PbS, "Bleiglanz") zugegen. Dieses Mineral ist auch die bedeutendste kommerzielle Quelle für die Gewinnung neuen Bleis. Weitere Bleimineralien sind Cerussit (Blei(II)-carbonat, PbCO3, auch "Weißbleierz"), Krokoit (Blei(II)-chromat, PbCrO4, auch "Rotbleierz") und Anglesit (Blei(II)-sulfat, PbSO4, auch "Bleivitriol"). Die beiden Bleiminerale mit der höchsten Bleikonzentration in der Verbindung (bis 92,8 %) sind Lithargit und Massicotit. Insgesamt sind bisher (Stand: 2010) mehr als 500 Bleiminerale bekannt. Die wirtschaftlich abbaubaren Vorräte werden weltweit auf 67 Millionen Tonnen geschätzt (Stand 2004). Die größten Vorkommen findet man in der Volksrepublik China, den USA, Australien, Russland und Kanada. In Europa sind Schweden und Polen die Länder mit den größten Vorkommen. Auch in Deutschland wurde in der nördlichen Eifel (Rescheid / Gruben Wohlfahrt und Schwalenbach; Mechernich / Grube Günnersdorf und auch Tagebau /Virginia; Bleialf), im Schwarzwald, im Harz (Goslar/Rammelsberg), in Sachsen (Freiberg/Muldenhütten), an der unteren Lahn (Bad Ems, Holzappel), sowie in Westfalen (Sauerland) in der Vergangenheit Bleierz abgebaut, verhüttet und veredelt. Die bedeutendste Quelle für Blei ist heute das Recycling alter Bleiprodukte. Daher bestehen in Deutschland nur noch zwei Primärhütten, die Blei aus Erz herstellen, die Bleihütte Binsfeldhammer in Stolberg (Rhld.) und Metaleurop in Nordenham bei Bremerhaven. Sämtliche anderen Hütten erzeugen so genanntes Sekundärblei, indem sie altes Blei (insbesondere aus gebrauchten Autobatterien) aufarbeiten. Staaten mit der größten Förderung. Die weltweit bedeutendsten Förderländer für Bleierz im Jahre 2004 waren die Volksrepublik China (950.000 Tonnen), Australien (642.000 Tonnen) und die USA (445.000 Tonnen), deren Anteil an den weltweit abgebauten 3,1 Millionen Tonnen zusammen etwa zwei Drittel betrug. In Europa sind Irland, Schweden und Polen als die größten Bleiproduzenten zu nennen. Die wichtigsten Produzenten von raffiniertem Blei (Hüttenweichblei mit 99,9 % Reinheit) sind die Volksrepublik China (1,8 Millionen Tonnen), die USA (1,2 Millionen Tonnen) und Deutschland (403.000 Tonnen), deren Anteil zusammen rund die Hälfte der weltweit erzeugten 6,7 Millionen Tonnen beträgt. Weitere bedeutende Produzenten von raffiniertem Blei in Europa sind Großbritannien, Italien, Frankreich und Spanien. Gewinnung und Darstellung. Das mit Abstand bedeutendste Bleimineral ist das Galenit. Dieses tritt häufig vergesellschaftet mit den Sulfiden anderer Metalle (Kupfer, Bismut, Zink, Arsen, Antimon u. a.) auf, die naturgemäß als Verunreinigung des Rohbleis bis zu einem Anteil von 5 % enthalten sind. Das durch Zerkleinerung, Klassierung und Flotation auf bis zu 60 % Mineralgehalt aufbereitete Erz wird in drei verschiedenen industriellen Prozessen in metallisches Blei überführt. Dabei treten die Verfahren der Röstreduktion und der Röstreaktion zunehmend in den Hintergrund und werden durch Direktschmelzverfahren ersetzt, die sich einerseits wirtschaftlicher gestalten lassen und die andererseits umweltverträglicher sind. Röstreduktionsarbeit. Dieses Verfahren verläuft in zwei Stufen, dem Rösten und der Reduktion. Beim Rösten wird das fein zerkleinerte Bleisulfid auf einen Wanderrost gelegt und 1000 °C heiße Luft hindurchgedrückt. Dabei reagiert es mit dem Sauerstoff der Luft in einer exothermen Reaktion zu Blei(II)-oxid (PbO) und Schwefeldioxid. Dieses wird über die Röstgase ausgetrieben und kann für die Schwefelsäureproduktion verwendet werden. Das Bleioxid ist unter diesen Bedingungen flüssig und fließt nach unten. Dort kann es gesintert werden. Anschließend erfolgt die Reduktion des Bleioxids mit Hilfe von Koks zu metallischem Blei. Dies geschieht in einem Schachtofen, ähnlich dem beim Hochofenprozess verwendeten. Dabei werden schlackebildende Zuschlagsstoffe wie Kalk beigefügt. Direktschmelzverfahren. Moderne Herstellungsverfahren für Blei basieren auf Direktschmelzverfahren, die auf Umweltverträglichkeit und Wirtschaftlichkeit hin optimiert wurden (z. B. das QSL-Verfahren). Vorteilhaft ist die kontinuierliche Prozessführung mit Beschränkung auf einen Reaktionsraum, der als einziger Emittent für Schadstoffe auftritt – im Vergleich dazu weisen die klassischen Produktionsverfahren das Sintern als zusätzlichen emittierenden Schritt auf. Das Rösten und die Reduktion finden parallel in einem Reaktor statt. Das Bleisulfid wird ähnlich wie beim Röstreaktionsverfahren nicht vollständig geröstet. Ein Teil des Bleis entsteht somit durch Reaktion des Bleisulfids mit Bleioxid. Da der Reaktor leicht geneigt ist, fließen Blei und bleioxidhaltige Schlacke ab. Diese passiert die Reduktionszone, in die Kohlenstaub eingeblasen und das Bleioxid so zu Blei reduziert wird. Beim Rösten wird statt Luft reiner Sauerstoff verwendet. Dadurch verringert sich das Volumen an Abgasen erheblich, die andererseits eine im Vergleich zu konventionellen Verfahren höhere Konzentration an Schwefeldioxid aufweisen. Deren Verwendung für die Schwefelsäureherstellung gestaltet sich somit einfacher und wirtschaftlicher. Raffination. Bleiknollen, elektrolytisch raffiniert, 99,989 % Das entstehende Werkblei enthält 2–5 % andere Metalle, darunter Kupfer, Silber, Gold, Zinn, Antimon, Arsen, Bismut in wechselnden Anteilen. Das Aufreinigen und Vermarkten einiger dieser Beiprodukte, insbesondere des bis zu 1 % im Werkblei enthaltenen Silbers, trägt wesentlich zur Wirtschaftlichkeit der Bleigewinnung bei. Die pyrometallische Raffination des Bleis ist ein mehrstufiger Prozess. Durch Schmelzen in Gegenwart von Natriumnitrat/Natriumcarbonat bzw. von Luft werden Antimon, Zinn und Arsen oxidiert und können als Bleiantimonate, -stannate und -arsenate von der Oberfläche der Metallschmelze abgezogen werden ("Antimonabstrich"). Kupfer wie auch eventuell enthaltenes Zink, Nickel und Kobalt werden durch Seigern des Werkbleis aus dem Rohmetall entfernt. Dabei sinkt auch der Schwefelgehalt beträchtlich. Silber wird nach dem Parkes-Verfahren ggf. durch die Zugabe von Zink und das Ausseigern der sich bildenden Zn-Ag-Mischkristalle aus dem Blei abgeschieden ("„Parkesierung“"), während die Bedeutung des älteren Pattinson-Verfahrens stark zurückgegangen ist ("siehe auch" Herstellung von Silber, Blicksilber). Bismut kann nach dem Kroll-Betterton-Verfahren durch Legieren mit Calcium und Magnesium als Bismutschaum von der Oberfläche der Bleischmelze abgezogen werden. Eine weitere Reinigung kann durch elektrolytische Raffination erfolgen, jedoch ist dieses Verfahren bedingt durch den hohen Energiebedarf kostenintensiver. Blei ist zwar ein unedles Element, welches in der elektrochemischen Spannungsreihe ein negativeres Standardpotential als Wasserstoff aufweist. Dieser hat jedoch an Bleielektroden eine hohe Überspannung, so dass eine elektrolytische Abscheidung metallischen Bleis aus wässrigen Lösungen möglich wird, siehe elektrolytische Bleiraffination. Raffiniertes Blei kommt als Weichblei bzw. genormtes Hüttenblei mit 99,9 bis 99,97 %iger Reinheit (z. B. Eschweiler Raffiné) oder als Feinblei mit 99,985 bis 99,99 % Blei (DIN 1719, veraltet) in den Handel. Entsprechend dem Verwendungszweck sind auch Bezeichnungen wie Kabelblei für die Legierung mit ca. 0,04 % Kupfer verbreitet. Aktuelle Normen wie DIN EN 12659 kennen diese noch gebräuchlichen Bezeichnungen nicht mehr. Physikalische Eigenschaften. Kubisch-flächenzentriertes Gitter des Bleis (a=494 pm). Blei ist ein unedles Metall mit einem Standardelektrodenpotential von etwa −0,13 V. Es ist allerdings edler als viele andere Gebrauchsmetalle, wie Eisen, Zink oder Aluminium. Es ist ein diamagnetisches Schwermetall (Dichte 11,3 g/cm3), das kubisch-flächenzentriert kristallisiert und damit eine kubisch dichteste Kugelpackung aufweist. Darauf gründet die ausgeprägte Duktilität des Metalls und die geringe Mohs-Härte von 1,5; natürlich vorkommendes Blei ist auf Grund von Verunreinigungen härter und weist eine Mohs-Härte von 2–2,5 auf. Es lässt sich daher leicht zu Blechen walzen oder zu Drähten formen, die jedoch wegen ihrer geringen Härte nur wenig beständig sind. Eine diamantartige Modifikation, wie sie von den leichteren Homologen der Gruppe 14 bekannt ist, tritt beim Blei nicht auf. Das liegt an der relativistisch bedingten Instabilität der Pb-Pb-Bindung und an der geringen Tendenz, vierwertig aufzutreten. Blei ist von bläulich-weißer Farbe. Es hinterlässt auf Papier einen grauen Strich. Aus diesem Grund wurde früher mit Blei geschrieben und gemalt. Der Name „Bleistift“ blieb bis heute erhalten, obwohl man seit langem dafür Graphit benutzt. Der Schmelzpunkt des Bleis liegt bei 327 °C, sein Siedepunkt bei 1740–1751 °C (Werte in Fachliteratur unterschiedlich: 1740 °C, 1746 °C, 1751 °C). Blei leitet als typisches Metall sowohl Wärme als auch Strom, dies aber deutlich schlechter als andere Metalle (vgl. elektrische Leitfähigkeit Blei: 4,8 · 106 S/m, Silber: 62 · 106 S/m). Unterhalb von 7,196 K zeigt Blei keinen elektrischen Widerstand, es wird zum Supraleiter vom Typ I. Die Schallgeschwindigkeit in Blei liegt bei etwa 1200 m/s, in der Literatur streuen die Werte etwas, wahrscheinlich bedingt durch unterschiedliche Reinheit oder Bearbeitung. Chemische Eigenschaften. An der Luft wird Blei durch Bildung einer Schicht aus Bleioxid passiviert und damit vor weiterer Oxidation geschützt. Frische Schnitte glänzen daher zunächst metallisch, laufen jedoch schnell unter Bildung einer matten Oberfläche an. In feinverteiltem Zustand ist Blei leichtentzündlich ("pyrophores Blei"). Auch in diversen Säuren ist Blei durch Passivierung unlöslich. So ist Blei beständig gegen Schwefelsäure, Flusssäure und Salzsäure, da sich mit den Anionen der jeweiligen Säure unlösliche Bleisalze bilden. Deshalb besitzt Blei für spezielle Anwendungen eine gewisse Bedeutung im chemischen Apparatebau. Löslich ist Blei dagegen in Salpetersäure (Blei(II)-nitrat ist wasserlöslich), heißer, konzentrierter Schwefelsäure (Bildung des löslichen Pb(HSO4)2-Komplexes), Essigsäure (nur bei Luftzutritt) und heißen Laugen. In Wasser, das keinen Sauerstoff enthält, ist metallisches Blei stabil. Bei Anwesenheit von Sauerstoff löst es sich jedoch langsam auf, so dass bleierne Trinkwasserleitungen eine Gesundheitsgefahr darstellen können. Wenn das Wasser dagegen viele Hydrogencarbonat- und Sulfationen enthält, was meist mit einer hohen Wasserhärte einhergeht, bildet sich nach einiger Zeit eine Schicht basischen Bleicarbonats und Bleisulfats. Diese schützt das Wasser vor dem Blei, jedoch geht selbst dann noch etwas Blei aus den Leitungen in das Wasser über. Isotope. Natürlich vorkommendes Blei besteht im Mittel zu etwa 52,4 % aus dem Isotop 208Pb, zu etwa 22,1 % aus 207Pb, zu etwa 24,1 % aus 206Pb und zu etwa 1,4 % 204Pb. Die Zusammensetzung ist je nach Lagerstätte geringfügig verschieden, so dass mit einer Analyse der Isotopenzusammensetzung die Bleiherkunft festgestellt werden kann. Das ist für historische Funde aus Blei und Erkenntnisse früherer Handelsbeziehungen von Bedeutung. Die drei erstgenannten Isotope sind stabil. Bei 204Pb handelt es sich um ein primordiales Radionuklid. Es zerfällt unter Aussendung von Alphastrahlung mit einer Halbwertszeit von 1,4 · 1017 Jahren (140 Billiarden Jahre) in 200Hg. 208Pb besitzt einen doppelt magischen Kern; es ist das schwerste stabile Nuklid. (Das noch schwerere, lange für stabil gehaltene 209Bi ist nach neueren Messungen instabil und zerfällt mit einer Halbwertszeit von (1,9 ± 0,2)· 1019 Jahren (19 Trillionen Jahre) unter Aussendung von Alphateilchen in 205Tl. Sein sehr langsamer Zerfall ist darin begründet, dass es mit Z=83 nur ein Proton mehr als die magische Protonenzahl von 82 und die magische Neutronenzahl 126 aufweist, also sehr ähnlich aufgebaut ist wie der doppelt magische Bleikern mit 208 Nukleonen). Die stabilen Isotope des natürlich vorkommenden Bleis sind jeweils die Endprodukte der Uran- und Thorium-Zerfallsreihen: 206Pb ist das Endnuklid der beim 238U beginnenden Uran-Radium-Reihe, 207Pb ist das Ende der beim 235U beginnenden Uran-Actinium-Reihe und 208Pb das Ende der beim 244Pu bzw. 232Th beginnenden Thorium-Reihe. Durch diese Zerfallsreihen kommt es zu dem Effekt, dass das Verhältnis der Bleiisotope in einer Probe bei Ausschluss eines stofflichen Austausches mit der Umwelt zeitlich nicht konstant ist. Dies kann zur Altersbestimmung durch die Uran-Blei- bzw. Thorium-Blei-Methode genutzt werden, die auf Grund der langen Halbwertszeiten der Uran- und Thoriumisotope im Gegensatz zur Radiokarbonmethode gerade zur Datierung von Millionen Jahre alten Proben tauglich ist. Außerdem führt der Effekt zu differenzierten Isotopensignaturen im Blei aus verschiedenen Lagerstätten, was zum Herkunftsnachweis herangezogen werden kann. Weiterhin existieren noch 33 instabile Isotope und 13 instabile Isomere von 178Pb bis 215Pb, die entweder künstlich hergestellt wurden oder in den Zerfallsreihen des Urans bzw. des Thoriums vorkommen, wie etwa 210Pb in der Uran-Radium-Reihe. Das langlebigste Isotop unter ihnen ist 205Pb mit einer Halbwertszeit von 153 Millionen Jahren. "→ Liste der Blei-Isotope" Verwendung. Die größten Bleiverbraucher sind die USA, Japan, Deutschland und die Volksrepublik China. Der Verbrauch ist stark von der Konjunktur in der Automobilindustrie abhängig, in deren Akkumulatoren etwa 60 % des Weltbedarfs an Blei verwendet werden. Weitere 20 % werden in der chemischen Industrie verarbeitet. Bleiklötze zur Abschirmung einer radioaktiven Strahlenquelle im Labor Strahlenabschirmung. Wegen seiner hohen Atommasse eignet sich Blei in ausreichend dicken Schichten oder Blöcken zur Abschirmung gegen Gamma- und Röntgenstrahlung; es absorbiert Röntgen- und Gammastrahlung sehr wirksam. Blei ist hierfür billiger und leichter zu verarbeiten als noch dichtere Metalle. Deshalb wird es ganz allgemein im Strahlenschutz (z. B. Nuklearmedizin, Radiologie, Strahlentherapie) zur Abschirmung benutzt. Ein Beispiel ist die Bleischürze, welche Ärzte und Patienten bei Röntgenaufnahmen tragen. Bleiglas wird ebenfalls zum Strahlenschutz verwendet. Blei wird deshalb z. B. auch für Streustrahlenraster eingesetzt. Einen besonderen Anwendungsfall stellt die Abschirmung von Gamma-Spektrometern für die Präzisionsdosimetrie dar. Hierfür wird Blei mit einer geringen Eigen-Radioaktivität benötigt. Der natürliche Gehalt an radioaktivem 210Pb wirkt sich störend aus. Er fällt umso niedriger aus, je länger der Verhüttungszeitpunkt zurückliegt, denn mit der Verhüttung werden die Mutter-Nuklide aus der Uran-Radium-Reihe (Begleiter im Erz) vom Blei abgetrennt. Das 210Pb zerfällt daher vom Zeitpunkt der Verhüttung an mit seiner Halbwertszeit von 22,3 Jahren, ohne dass neues nachgebildet wird. Deshalb sind historische Bleigegenstände wie etwa Trimmgewichte aus gesunkenen Schiffen oder historische Kanonenkugeln zur Gewinnung von strahlungsarmem Blei für die Herstellung solcher Abschirmungen begehrt. Auch gibt es noch andere Forschungseinrichtungen, die aus ähnlichen Gründen dieses alte Blei benötigen. Metall. Blei wird vorwiegend als Metall oder Legierung verwendet. Im Gegensatz zu früheren Zeiten, als Blei eines der wichtigsten und meistverwendeten Metalle war, versucht man heute, Blei durch andere, ungiftige Elemente oder Legierungen zu ersetzen. Wegen seiner wichtigen Eigenschaften, vor allem seiner Korrosionsbeständigkeit und hohen Dichte sowie seiner einfachen Herstellung und Verarbeitung, hat es aber immer noch eine große Bedeutung in der Industrie. Elemente mit einer ähnlichen oder noch höheren Dichte beispielsweise sind entweder noch problematischer (Quecksilber, Uran) oder sehr selten und teuer (Wolfram, Gold, Platin). Elektrotechnik. Das meiste Blei wird heutzutage für chemische Energiespeicher in Form von Bleiakkumulatoren (z. B. für Autos) verwendet. Ein Autoakku enthält eine Blei- und eine Blei(IV)-oxid-Elektrode sowie verdünnte Schwefelsäure (37 %) als Elektrolyt. Aus den bei der elektrochemischen Reaktion entstehenden Pb2+-Ionen bildet sich in der Schwefelsäure unlösliches Blei(II)-sulfat. Wiederaufladen ist durch die Rückreaktion von Blei(II)-sulfat zu Blei und Blei(IV)-oxid möglich. Ein Vorteil des Bleiakkumulators ist die hohe Nennspannung einer Akkuzelle von 2,06 Volt. Maschinenbau. Da Blei eine hohe Dichte besitzt, wird es als Gewicht benutzt. Umgangssprachlich gibt es deshalb die Bezeichnung „bleischwer“ für sehr schwere Dinge. Bleigewichte wurden unter anderem als Ausgleichsgewichte zum Auswuchten von Autorädern benutzt. Dies ist aber seit dem 1. Juli 2003 bei PKW-Neuwagen und seit dem 1. Juli 2005 bei allen PKW (bis 3,5 t) verboten; die Bleigewichte sind durch Zink- oder Kupfergewichte ersetzt worden. Weitere Anwendungen unter Ausnutzung der hohen Dichte sind: Bleiketten zur Straffung von Gardinen und Tauchgewichte, um beim Tauchen den Auftrieb von Taucher und Ausrüstung auszugleichen. Außerdem wird Blei als Schwingungsdämpfer in vibrationsempfindlichen (Auto-)Teilen, zur Stabilisierung von Schiffen und für Sonderanwendungen des Schallschutzes verwendet. Apparatebau. Blei ist durch Passivierung chemisch sehr beständig und widersteht u. a. Schwefelsäure und Brom. Daher wird es als Korrosionsschutz im Apparate- und Behälterbau eingesetzt. Eine früher wichtige Anwendung war das Bleikammerverfahren zur Schwefelsäureherstellung, da damals Blei das einzige bekannte Metall war, das den Schwefelsäuredämpfen widerstand. Auch frühere Anlagen und Räume zur Herstellung von Nitroglyzerin wurden an Boden und Wand mit Blei ausgekleidet. Blei wurde auch häufig zur Ummantelung von Kabeln zum Schutz vor Umwelteinflüssen benutzt, beispielsweise bei Telefonkabeln. Heute ist Blei dabei meist durch Kunststoffe, z. B. PVC, abgelöst worden, wird aber bis heute bei Kabeln in Raffinerien eingesetzt, da es auch gegen Kohlenwasserstoffe unempfindlich ist. Bauwesen. Da Blei leicht zu bearbeiten und zu gießen ist, wurde Blei in der Vergangenheit häufig für metallische Gegenstände verwendet. Zu den wichtigsten Bleiprodukten zählten u. a. Rohre. Aufgrund der Toxizität der aus dem Blei evtl. entstehenden chemischen Verbindungen (Bleivergiftung) kommen Bleirohre aber seit den 1970er Jahren nicht mehr zum Einsatz. Trotz einer gebildeten Karbonatschicht in den Rohren löst sich das Blei weiterhin im Trinkwasser. Erfahrungsgemäß wird bereits nach wenigen Metern der Grenzwert der geltenden Trinkwasserverordnung nicht mehr eingehalten. Blei zur Versiegelung einer Mauerfuge Weitere Verwendung im Gebäudebau fand Blei zur Verbindung von Steinen durch eingegossene Metallklammern oder Metalldübel, etwa um Scharniere an einen steinernen Türstock zu befestigen oder ein Eisengeländer an einer Steintreppe. Diese Verbleiungstechnik ist in der Restaurierung noch weit verbreitet. So an der Turmspitze im Wiener Stephansdom oder der Brücke in Mostar. Auch für Fensterfassungen, z. B. an mittelalterlichen Kirchenfenstern, wurde oft Blei verwendet. Blei (Walzblei) findet auch Verwendung als Dachdeckung (z. B. die Hauptkuppeln der Hagia Sophia) oder für Dachabschlüsse (z. B. bei den berühmten „Bleikammern“, dem ehemaligen Gefängnis von Venedig und im Kölner Dom) sowie zur Einfassung von Dachöffnungen. Militärtechnik. Ein wichtiger Abnehmer für Bleimetall war und ist das Militär. Blei dient als Grundstoff für Geschosse, sowohl für Schleudern als auch für Feuerwaffen. In sogenannten Kartätschen wurde gehacktes Blei verschossen. Der Grund für die Verwendung von Blei waren und sind einerseits die hohe Dichte und damit hohe Durchschlagskraft und andererseits die leichte Herstellung durch Gießen. Heutzutage wird das Blei meist von einem Mantel (daher „Mantelgeschoss“) aus einer Kupferlegierung (Tombak) umschlossen. Vorteile sind vor allem eine höhere erreichbare Geschossgeschwindigkeit, bei der ein nicht ummanteltes Bleigeschoss aufgrund seiner Weichheit nicht mehr verwendet werden kann und die Verhinderung von Bleiablagerungen im Inneren des Laufes einer Feuerwaffe. Karosseriereparatur. Vor dem Aufkommen moderner 2-Komponenten-Spachtelmasse wurden Blei oder Blei-Zinn-Legierungen aufgrund ihres geringen Schmelzpunktes zum Ausfüllen von Schad- und Reparaturstellen an Fahrzeugkarosserien genutzt. Dazu wurde das Material mit Lötbrenner und Flussmittel auf die Schadstelle aufgelötet. Anschließend wurde die Stelle wie beim Spachteln verschliffen. Dies hat den Vorteil, dass das Blei im Gegensatz zu Spachtelmasse eine feste Bindung mit dem Blech eingeht und bei Temperaturschwankungen auch dessen Längenausdehnung mitmacht. Da die entstehenden Dämpfe und Stäube giftig sind, wird dieses Verfahren heute außer bei der Restaurierung historischer Fahrzeuge kaum noch verwendet. Brauchtum. Ein alter Orakel-Brauch, den bereits die Römer pflegten, ist das Bleigießen, bei dem flüssiges Blei (heutzutage auch in Legierung mit Zinn) in kaltem Wasser zum Erstarren gebracht wird. Anhand der zufällig entstehenden Formen sollen Weissagungen über die Zukunft getroffen werden. Heute wird der Brauch noch gerne zu Neujahr geübt, um einen (nicht unbedingt ernst genommenen) Ausblick auf das kommende Jahr zu bekommen. Tauchen. Beim Tauchen werden Bleigewichte zum Tarieren verwendet; der hohe Dichteüberschuss (gut 10 g/cm³) gegenüber Wasser liefert kompakt den Abtrieb, so dass ein Taucher auch in geringer Wassertiefe schweben kann. Für die Verwendung von Blei als Gewicht ist ferner der vergleichsweise niedrige Preis begünstigend: Ausgehend von den Weltmarktpreisen für Metalle vom Juli 2013 hat Blei ein hervorragendes Preis-Gewichts-Verhältnis. Die Verwendung erfolgt in Form von Platten an den Schuhsohlen eines Panzertauchanzugs, als abgerundete Blöcke aufgefädelt auf einem breiten Hüftgurt oder – modern – als Schrotkugeln in Netzen in den Taschen einer Tarierweste. Öffnen der Gurtschnalle oder der Taschen (unten) erlaubt es, den Ballast notfalls rasch abzuwerfen. Legierungsbestandteil. Blei wird auch in einigen wichtigen Legierungen eingesetzt. Durch das Zulegieren weiterer Metalle ändern sich je nach Metall die Härte, der Schmelzpunkt oder die Korrosionsbeständigkeit des Materials. Die wichtigste Bleilegierung ist das Hartblei, eine Blei-Antimon-Legierung, die erheblich härter und damit mechanisch belastbarer als reines Blei ist. Spuren einiger anderer Elemente (Kupfer, Arsen, Zinn) sind meist in Hartblei enthalten und beeinflussen ebenfalls maßgeblich die Härte und Festigkeit. Verwendung findet Hartblei beispielsweise im Apparatebau, bei dem es neben der chemischen Beständigkeit auch auf Stabilität ankommt. Eine weitere Bleilegierung ist das Letternmetall, eine Bleilegierung mit 60–90 % Blei, die als weitere Bestandteile Antimon und Zinn enthält. Es wird für Lettern im klassischen Buchdruck verwendet, spielt heute allerdings in der Massenproduktion von Druckgütern keine Rolle mehr, sondern allenfalls für bibliophile Editionen. Daneben wird Blei in Lagern als so genanntes Lagermetall verwendet. Blei spielt eine Rolle als Legierungsbestandteil in Weichlot, das unter anderem in der Elektrotechnik Verwendung findet. In Weichloten ist Zinn neben Blei der wichtigste Bestandteil. Die Verwendung von Blei in Loten betrug 1998 weltweit etwa 20.000 Tonnen. Die EG-Richtlinie 2002/95/EG RoHS verbannt Blei seit Juli 2006 weitgehend aus der Löttechnik. Blei ist ein häufiger Nebenbestandteil in Messing. Dort hilft ein Bleianteil (bis 3 %), die Zerspanbarkeit zu verbessern. Auch in anderen Legierungen, wie z. B. Rotguss, kann Blei als Nebenbestandteil enthalten sein. Daher ist es ratsam, nach längerem Stehen das erste aus Messingarmaturen kommende Wasser wegen etwas herausgelösten Bleis eher nicht zu trinken. Bleifrei. Bleihaltige Produkte und Anwendungen werden entweder vollständig ersetzt (wie Tetraethylblei im Benzin) oder der Bleigehalt durch Grenzwerte auf einen der technischen Verunreinigung entsprechenden Wert beschränkt (z. B. Zinn und Lot). Diese Produkte werden gern „bleifrei“ genannt. Grenzwerte gibt es u. a. in der Gesetzgebung um die so genannte RoHS (Richtlinie 2002/95/EG), die 1000 ppm (0,1 %) vorsieht. Strenger ist der Grenzwert für Verpackungen mit 100 ppm (Richtlinie 94/62/EG). Der politische Wille zum Ersetzen des Bleis gilt auch dort, wo die Verwendung aufgrund der Eigenschaften technisch oder wirtschaftlich interessant wäre, die Gesundheitsgefahr gering und ein Recycling mit sinnvollem Aufwand möglich wäre (z. B. Blei als Dacheindeckung). Bleiglas. Wegen der abschirmenden Wirkung des Bleis besteht der Konus von Kathodenstrahlröhren (d. h. der „hintere“ Teil der Röhre) für Fernseher, Computerbildschirme etc. aus Bleiglas. Das Blei absorbiert die in Kathodenstrahlröhren zwangsläufig entstehenden weichen Röntgenstrahlen. Für diesen Verwendungszweck ist Blei noch nicht sicher zu ersetzen, daher wird die RoHS-Richtlinie hier nicht angewendet. Glas mit sehr hohem Bleigehalt wird wegen dieser Abschirmwirkung auch in der Radiologie sowie im Strahlenschutz (zum Beispiel in Fensterscheiben) verwendet. Ferner wird Bleiglas wegen seines hohen Brechungsindexes für hochwertige Glaswaren als sogenanntes Bleikristall verwendet. Toxizität. Elementares Blei kann vor allem in Form von Staub über die Lunge aufgenommen werden. Dagegen wird Blei kaum über die Haut aufgenommen. Daher ist elementares Blei in kompakter Form für den Menschen nicht giftig. Metallisches Blei bildet an der Luft eine dichte, schwer wasserlösliche Schutzschicht aus Bleicarbonat. Toxisch sind gelöste Bleiverbindungen sowie Bleistäube, die durch Verschlucken oder Einatmen in den Körper gelangen können. Besonders toxisch sind Organobleiverbindungen, z. B. Tetraethylblei, die stark lipophil sind und rasch über die Haut aufgenommen werden. Bleichromate stehen unter Verdacht, Krebs zu erzeugen (Kategorie 3B: „Aus In-vitro- oder aus Tierversuchen liegen Anhaltspunkte für eine krebserzeugende Wirkung vor, die jedoch zur Einordnung in eine andere Kategorie nicht ausreichen. Zur endgültigen Entscheidung sind weitere Untersuchungen erforderlich.“). Blei reichert sich selbst bei Aufnahme kleinster Mengen, die über einen längeren Zeitraum stetig eingenommen werden, im Körper an, da es sich z. B. in Knochen eingelagert und nur sehr langsam wieder ausgeschieden wird. Blei kann so eine chronische Vergiftung hervorrufen, die sich unter anderem in Kopfschmerzen, Müdigkeit, Abmagerung und Defekten der Blutbildung, des Nervensystems und der Muskulatur zeigt. Bleivergiftungen sind besonders für Kinder und Schwangere gefährlich. Es kann auch Fruchtschäden und Zeugungsunfähigkeit bewirken. Im Extremfall kann die Bleivergiftung zum Tod führen. Die Giftigkeit von Blei beruht unter anderem auf einer Störung der Hämoglobinsynthese. Es hemmt mehrere Enzyme und behindert dadurch den Einbau des Eisens in das Hämoglobinmolekül. Dadurch wird die Sauerstoff-Versorgung der Körperzellen gestört. Luft. Die Bleibelastung der Luft wird hauptsächlich durch bleihaltige Stäube verursacht. Hauptquellen für Bleistäube sind die bleierzeugende Industrie, das Verbrennen von Kohle und war bis vor einigen Jahren vor allem der Autoverkehr durch die Verbrennung bleihaltiger Kraftstoffe in Automotoren. Aus dem zugesetzten Bleitetraethyl entstanden durch Reaktion mit dem Benzin zugesetzten halogenierten Kohlenwasserstoffen Blei und Blei(II)-oxid neben geringeren Mengen an Blei(II)-chlorid und Blei(II)-bromid. Vor allem infolge des Verbotes bleihaltiger Kraftstoffe ist die Luftbelastung durch Blei in den letzten Jahren deutlich zurückgegangen. Am höchsten ist die Bleibelastung durch Bleistäube gegenwärtig für Arbeiter in bleiproduzierenden und -verarbeitenden Betrieben. Auch beim Reinigen und Entfernen alter Mennige-Anstriche durch Sandstrahlen entsteht Bleistaub. Die bei der Bleiraffination und bei der Verbrennung von Kohle entstehenden Bleioxidstäube konnten durch geeignete Filter verringert werden. Eine weitere Quelle, die mengenmäßig aber kaum ins Gewicht fällt, ist die Verbrennung von Hausmüll in Müllverbrennungsanlagen. Boden. Auch Böden können mit Blei belastet sein. Der mittlere Bleigehalt der kontinentalen Erdkruste liegt bei 15 mg/kg. Böden enthalten von Natur aus zwischen 2 und 60 mg/kg Blei, wenn sie aus bleierzhaltigen Gesteinen entstanden, kann der Gehalt deutlich höher sein. Der Großteil der Bleibelastung von Böden ist anthropogen, die Quellen dafür sind vielfältig. Der Großteil des Eintrags erfolgt über Bleistäube aus der Luft, welche mit dem Regen oder durch trockene Deposition in die Böden gelangen. Für Deutschland und das Jahr 2000 wurde der atmosphärische Eintrag in Böden auf 571 t Blei/Jahr geschätzt. Eine weitere Quelle ist belasteter Dünger, sowohl Mineraldünger (136 t Pb/a), insbesondere Ammonsalpeter, als auch Wirtschaftsdünger (182 t Pb/a). Klärschlämme (90 t Pb/a) und Kompost (77 t Pb/a) tragen ebenfalls zur Bleibelastung der Böden bei. Ein erheblicher Eintrag erfolgt auch durch Bleischrot-Munition. Bei Altlasten, wie z. B. an ehemaligen Standorten von bleiproduzierenden Industriebetrieben oder in der Umgebung von alten bleiummantelten Kabeln, kann der Boden ebenfalls eine hohe Bleibelastung aufweisen. Eine besonders große Bleiverseuchung gibt es in dem Ort Santo Amaro da Purificação in Brasilien. Wasser. Die Bleibelastung von Flüssen und Seen resultiert hauptsächlich durch Ausschwemmen von Blei aus belasteten Böden. Auch das Lösen geringer Mengen an Blei durch den Regen aus Bleiwerkstoffen, beispielsweise Dachplatten aus Blei, trägt zur Bleibelastung der Gewässer bei. Die direkte Verschmutzung von Gewässern durch die Bleiindustrie und den Bleibergbau spielt (zumindest in Deutschland) auf Grund des Baus von Kläranlagen fast keine Rolle mehr. Der Jahreseintrag von Blei in Gewässer ist in Deutschland von ca. 900 t im Jahr 1985 auf ungefähr 300 t im Jahr 2000 zurückgegangen. In Deutschland beträgt der Grenzwert seit dem 1. Dezember 2013 10 µg/l (früher 25 µg/l); die Grundlage der Messung ist eine für die durchschnittliche wöchentliche Wasseraufnahme durch Verbraucher repräsentative Probe (siehe Trinkwasserverordnung). Nahrung. Durch die Bleibelastung von Luft, Boden und Wasser gelangt das Metall über Pilze, Pflanzen und Tiere in die Nahrungskette des Menschen. Besonders hohe Bleibelastungen können in verschiedenen Pilzen enthalten sein. Auf den Blättern von Pflanzen lagert sich Blei als Staub ab, das war charakteristisch für die Umgebung von Straßen mit viel Kfz-Verkehr, als Benzin noch verbleit wurde. Dieser Staub kann durch sorgfältiges Waschen entfernt werden. Wasserleitungen aus Bleirohren können das Trinkwasser belasten. Sie sind in Deutschland erst seit den 1970er Jahren nicht mehr verbaut worden. Besonders in Altbauten in einigen Regionen Nord- und Ostdeutschlands sind Bleirohre immer noch anzufinden. Bei über 5 % der Proben des Wassers aus diesen Gebäuden lagen die Bleiwerte des Leitungswassers laut Stiftung Warentest über dem aktuellen gesetzlichen Grenzwert. Gleiches gilt für Österreich und betrifft Hauszuleitungen der Wasserversorgers und Leitungen im Haus, die Sache des Hauseigentümers sind. Aus bleihaltigem Essgeschirr kann Blei durch saure Lebensmittel (Obst, Wein, Gemüse) herausgelöst werden. Wasserleitungsarmaturen (Absperrhähne, Formstücke, Eckventil, Mischer) sind meist aus Messing oder Rotguss. Messing wird für gute Zerspanbarkeit 3 % Blei zugesetzt, Rotguss enthält 4–7 %. Ob Blei- und andere Schwermetallionen (Cu, Zn, Ni) in relevantem Ausmaß ins Wasser übertreten, hängt von der Wasserqualität ab: Wasserhärte, pH-Wert, Sauerstoff, Salzgehalt. Mit 2013 wurde der Grenzwert für den Bleigehalt im Trinkwasser herabgesetzt auf 0,01 mg/L. Grundsätzlich kann nach längerem Stehen des Wassers in der Leitung, etwa über Nacht, durch Laufenlassen der Wasserleitung von etwa einer Minute (Spülen) vor der Entnahme für Trinkwasserzwecke der Gehalt aller aus der Leitungswandung eingewanderten Ionen reduziert werden. Nachweis durch Kristallisation. Bleiionen können in einer mikroskopischen Nachweisreaktion als Blei(II)-iodid dargestellt werden. Dabei wird die Probe in verdünnter Salzsäure gelöst und vorsichtig bis zur Kristallisation eingedampft. Der Rückstand wird mit einem Tropfen Wasser aufgenommen und anschließend mit einem Kristall eines wasserlöslichen Iodids, z. B. Kaliumiodid (KI), versetzt. Es entstehen nach kurzer Zeit mikroskopisch kleine, gelbe, hexagonale Blättchen des Blei(II)-iodids. Qualitativer Nachweis im Trennungsgang. Da Blei nach Zugabe von HCl nicht quantitativ als PbCl2 ausfällt, kann es sowohl in der HCl-Gruppe als auch in der H2S-Gruppe nachgewiesen werden. Das PbCl2 kann sowohl durch Zugabe von Kaliumiodid gemäß obiger Reaktion als gelbes PbI2 gefällt werden, als auch mit K2Cr2O7 als gelbes Bleichromat, PbCrO4. Nach Einleiten von H2S in die salzsaure Probe fällt zweiwertiges Blei in Form von schwarzem PbS aus. Dieses wird nach Digerieren mit (NH4)SX und Zugabe von 4 M HNO3 als PbI2 oder PbCrO4 nachgewiesen. Instrumentelle quantitative Analytik des Bleis. Für die Spurenanalytik von Blei und seinen Organoderivaten steht eine Reihe von Methoden zur Verfügung. Allerdings werden in der Literatur laufend neue bzw. verbesserte Verfahren vorgestellt, auch im Hinblick auf die oft erforderliche Vorkonzentrierung. Ein nicht zu unterschätzendes Problem besteht in der Probenaufarbeitung. Atomabsorptionsspektrometrie (AAS). Unter den verschiedenen Techniken der AAS liefert die Quarzrohr- und die Graphitrohrtechnik die besten Ergebnisse für die Spurenanalytik von Bleiverbindungen. Häufig wird Blei mit Hilfe von NaBH4 in das leicht flüchtige Bleihydrid, PbH2, überführt. Dieses wird in eine Quarzküvette geleitet und anschließend elektrisch auf über 900 °C erhitzt. Dabei wird die Probe atomisiert und es wird unter Verwendung einer Hohlkathodenlampe die Absorbanz bei 283,3 nm gemessen. Es wurde eine Nachweisgrenze von 4,5 ng/ml erzielt. Gerne wird in der AAS auch eine Luft-Acetylenfackel (F-AAS) oder mikrowelleninduziertes Plasma (MIP-AAS) zur Atomisierung eingesetzt. Atomemissionsspektrometrie (AES). In der AES haben sich das mikrowelleninduzierte Plasma (MIP-AES) und das induktiv gekoppelte Argon-Plasma (ICP-AES) zur Atomisierung bewährt. Die Detektion findet bei den charakteristischen Wellenlängen 283,32 nm und 405,78 nm statt. Mit Hilfe der MIP-AES wurde für Trimethylblei, (CH3)3Pb+, eine Nachweisgrenze von 0,19 pg/g ermittelt. Die ICP-AES ermöglicht eine Nachweisgrenze für Blei in Trinkwasser von 15,3 ng/ml. Massenspektrometrie (MS). In der Natur treten für Blei insgesamt vier stabile Isotope mit unterschiedlicher Häufigkeit auf. Für die Massenspektrometrie wird häufig das Isotop 206Pb genutzt. Mit Hilfe der ICP-Quadrupol-MS konnte dieses Isotop im Urin mit einer Nachweisgrenze von 4,2 pg/g bestimmt werden. Photometrie. Die am weitesten verbreitete Methode zur photometrischen Erfassung von Blei ist die sog. Dithizon-Methode. Dithizon ist ein zweizähniger, aromatischer Ligand und bildet bei pH 9–11,5 mit Pb2+-Ionen einen roten Komplex dessen Absorbanz bei 520 nm (ε = 6,9·104 l/mol·cm) gemessen wird. Bismut und Thallium stören die Bestimmung und sollten vorher quantitativ gefällt oder extrahiert werden. Voltammetrie. Für die elektrochemische Bestimmung von Spuren von Blei eignet sich hervorragend die subtraktive anodische Stripping-Voltammetrie (SASV). Dabei geht der eigentlichen voltammetrischen Bestimmung eine reduktive Anreicherungsperiode auf einer rotierenden Ag-Disk-Elektrode voraus. Es folgt die eigentliche Bestimmung durch Messung des Oxidationsstroms beim Scannen eines Potentialfensters von −800 mV bis −300 mV. Anschließend wird die Messung ohne vorangehende Anreicherung wiederholt und die so erhaltene Kurve von der ersten Messung subtrahiert. Die Höhe des verbleibenden Oxidationspeaks bei −480 mV korreliert mit der Menge an vorhandenem Blei. Es wurde eine Nachweisgrenze von 50 pM Blei in Wasser ermittelt. Bleiverbindungen. Bleiverbindungen kommen in den Oxidationsstufen +II und +IV vor. Aufgrund des relativistischen Effekts ist die Oxidationsstufe +II dabei – im Gegensatz zu den leichteren Homologen der Gruppe 14, wie Kohlenstoff und Silicium – stabiler als die Oxidationsstufe +IV. Blei(IV)-Verbindungen sind deshalb starke Oxidationsmittel. In intermetallischen Verbindungen des Bleis ("Plumbide": MxPby), vor allem mit Alkali- und Erdalkalimetallen, nimmt es auch negative Oxidationsstufen bis −IV an. Viele Bleiverbindungen sind Salze, es gibt aber auch organische Bleiverbindungen, die kovalent aufgebaut sind. Ebenso wie bei Bleimetall wird heutzutage versucht, Bleiverbindungen durch andere, ungiftige Verbindungen zu substituieren. So wurde „Bleiweiß“ (basisches Blei(II)-carbonat) als Weißpigment durch Titandioxid ersetzt. Organische Bleiverbindungen. Organische Bleiverbindungen liegen fast immer in der Oxidationsstufe +4 vor. Deren bekannteste ist Tetraethylblei Pb(C2H5)4 (TEL), eine giftige Flüssigkeit, die als Antiklopfmittel Benzin zugesetzt wurde. Heute wird Tetraethylblei nur noch in Flugbenzin verwendet. Brom. Brom (griech. ' ‚Gestank‘) ist ein chemisches Element mit dem Elementsymbol Br und der Ordnungszahl 35. Im Periodensystem steht es in der 7. Hauptgruppe, bzw. der 17. IUPAC-Gruppe und gehört damit zusammen mit Fluor, Chlor, Iod, Astat und Ununseptium zu den Halogenen. Elementares Brom liegt unter Normbedingungen (Temperatur = 0 °C und Druck = 1 atm) in Form des zweiatomigen Moleküls Br2 in flüssiger Form vor. Brom und Quecksilber sind die einzigen bekannten Elemente, die unter Normbedingungen flüssig sind. In der Natur kommt Brom nicht elementar, sondern nur in verschiedenen Verbindungen vor. Die wichtigsten Verbindungen sind die Bromide, in denen Brom in Form des Anions Br− auftritt. Die bekanntesten Bromide sind Natriumbromid und Kaliumbromid. Bromide sind ein Bestandteil des Meerwassers und besitzen einige biologische Funktionen. Entdeckung. a> isolierte als Erster elementares Brom Brom wurde 1826 durch den französischen Chemiker Antoine-Jérôme Balard aus Meeresalgen der Salzwiesen bei Montpellier gewonnen und von diesem als bisher unbekannter Stoff erkannt. Bereits zwei Jahre vor Balard stellte der deutsche Chemiker Justus von Liebig 1824 unbewusst elementares Brom her. Er hatte den Auftrag, die Salzsolen von Salzhausen zu analysieren, da die Stadt ein Kurbad plante. Bei der Untersuchung dieser Sole fand Liebig eine neue Substanz, die er als Iodchlorid deutete. 13 Jahre später gab er zu, dass ihn seine nachlässige Analyse um die Entdeckung eines neuen Elements gebracht habe. Liebig schrieb dazu: „Ich kenne einen Chemiker, der, als er in Kreuznach war, die Mutterlaugen der Saline untersuchte.“ Im weiteren beschrieb er dann sein Missgeschick und schloss mit den Worten: „Seit dieser Zeit hat er keine Theorien mehr aufgestellt, wenn sie nicht durch unzweifelhafte Experimente unterstützt und bestätigt wurden; und ich kann vermelden, dass er daran nicht schlecht getan hat.“ Eine industrielle Produktion erfolgte ab 1860. Aufgrund seines stechenden Geruchs schlug Joseph Louis Gay-Lussac den Namen „Brom“ (griech. für «Bocksgestank der Tiere») vor. Vorkommen. Brom kommt in Form von Bromiden, den Salzen der Bromwasserstoffsäure, vor. Mengenmäßig finden sich die größten Vorkommen als gelöste Bromide im Meerwasser. Auch Vorkommen natürlicher Salzlagerstätten (Stein- und Kalisalze) enthalten geringe Anteile an Kaliumbromid und Kaliumbromat. Brom kann auch in der Atmosphäre in der Form von molekularem Brom und Bromoxid vorkommen und kann die atmosphärische Ozonchemie maßgeblich beeinflussen und dabei über weite Distanzen transportiert werden. Während des polaren Frühlings zerstören regelmäßig größere Konzentrationen (>10ppt) BrO fast das gesamte troposphärische Ozon. Diese Ereignisse sind mittels der DOAS Methode auch von Satelliten zu beobachten. In tropischen Regionen mit hoher Bioaktivität wurden starke Emissionen halogenierter Kohlenwasserstoffe beobachtet, die letztendlich durch Photolyse zur Bildung von BrO und zur Ozonzerstörung beitragen können. Brom ist für Tiere in Spuren essenziell. Bromid fungiert als Cofaktor bei einer Stoffwechsel-Reaktion, die notwendig zum Aufbau der Kollagen-IV-Matrix im Bindegewebe ist. Gewinnung und Darstellung. Zeitliche Entwicklung der weltweiten Bromgewinnung Die industrielle Herstellung elementaren Broms erfolgt durch Oxidation von Bromidlösungen mit Chlor. Als Bromidquelle nutzt man überwiegend Sole und stark salzhaltiges Wasser aus großer Tiefe sowie Salzseen, vereinzelt auch Meerwasser. Eine Gewinnung aus den Restlaugen der Kaligewinnung ist nicht mehr wirtschaftlich. Seit 1961 hat sich die jährlich gewonnene Menge an Brom von rund 100.000 Tonnen auf über eine halbe Million Tonnen mehr als verfünffacht. Die größten Brom-Produzenten sind die Vereinigten Staaten, China, Israel, sowie Jordanien. Im Labor kann Brom durch Umsetzung von Natriumbromid mit Schwefelsäure und Braunstein in der Hitze dargestellt werden. Das Brom wird dabei durch Destillation abgetrennt. Eigenschaften. Flüssiges Brom mit Dampf in Ampulle Physikalische Eigenschaften. Die Dichte von Brom beträgt 3,12 g/cm3. Die schwere rotbraune Flüssigkeit bildet chlorähnlich riechende Dämpfe, die giftiger sind als Chlor. Festes Brom ist dunkel, bei weiterer Abkühlung hellt es auf. In Wasser ist es mäßig, in organischen Lösungsmitteln wie Alkoholen, Kohlenstoffdisulfid oder Tetrachlorkohlenstoff sehr gut löslich. In Wasser gelöstes Brom reagiert langsam unter Zwischenbildung von Hypobromiger Säure (HBrO) und Sauerstoffabgabe zu Bromwasserstoff (HBr). Die kinetisch gehemmte Reaktion wird durch (Sonnen-)Licht beschleunigt, Bromwasser wird daher in braunen, wenig lichtdurchlässigen Flaschen aufbewahrt. Chemische Eigenschaften. Brom verhält sich chemisch wie das leichtere Chlor, reagiert aber im gasförmigen Zustand weniger energisch. Feuchtigkeit erhöht die Reaktivität des Broms stark. Mit Wasserstoff reagiert es im Gegensatz zum Chlor erst bei höheren Temperaturen unter Bildung von Bromwasserstoff (farbloses Gas). Mit vielen Metallen (z. B. Aluminium) reagiert es exotherm unter Bildung des jeweiligen Bromids. Feuchtem Brom widerstehen nur Tantal und Platin. Verwendung. Brom, Anschauungsprobe für Lehrzwecke, sicher aufbewahrt Nachweis. Bromidionen können qualitativ mit Hilfe von Chlorwasser und Hexan nachgewiesen werden. Zum nasschemischen Nachweis der Bromidionen kann man sich auch wie bei den anderen Nachweisreaktionen für Halogenide die Schwerlöslichkeit des Silbersalzes von Bromid zu Nutze machen. Das Gleiche gilt für die volumetrische Bestimmung der Halogenide durch Titration. Zur Spurenbestimmung und Speziierung von Bromid und Bromat wird die Ionenchromatografie eingesetzt. In der Polarografie ergibt Bromat eine kathodische Stufe bei −1,78 V (gegen SCE, in 0,1 l KCl), wobei es zum Bromid reduziert wird. Mittels Differenzpulspolarografie können auch Bromatspuren erfasst werden. Sicherheitshinweise. Elementares Brom ist sehr giftig und stark ätzend, Hautkontakt führt zu schwer heilenden Verätzungen. Inhalierte Bromdämpfe führen zu Atemnot, Lungenentzündung und Lungenödem. Auch auf Wasserorganismen wirkt Brom giftig. Die Aufbewahrung von Brom erfolgt in Behältern aus Glas, Blei, Monel, Nickel oder Teflon. Verbindungen. Brom bildet Verbindungen in verschiedenen Oxidationsstufen von −1 bis +7. Die stabilste und häufigste Oxidationsstufe ist dabei −1, die höheren werden nur in Verbindungen mit den elektronegativeren Elementen Sauerstoff, Fluor und Chlor gebildet. Dabei sind die ungeraden Oxidationsstufen +1, +3, +5 und +7 stabiler als die geraden. Bromwasserstoff und Bromide. Anorganische Verbindungen, in denen das Brom in der Oxidationsstufe −1 und damit als Anion vorliegt, werden Bromide genannt. Diese leiten sich von der gasförmigen Wasserstoffverbindung Bromwasserstoff (HBr) ab. Diese ist eine starke Säure und gibt in wässrigen Lösungen leicht das Proton ab. Bromide sind in der Regel gut wasserlöslich, Ausnahmen sind Silberbromid, Quecksilber(I)-bromid und Blei(II)-bromid. Besonders bekannt sind die Bromide der Alkalimetalle, vor allem das Natriumbromid. Auch Kaliumbromid wird in großen Mengen, vor allem als Dünger und zur Gewinnung anderer Kaliumverbindungen, verwendet. Bleibromid wurde früher in großen Mengen bei der Verbrennung von verbleitem Kraftstoff freigesetzt (wenn dem Benzin Dibrom-Ethan zugesetzt war um das Blei flüchtig zu machen, siehe Die Verbrennung im Motor). Bromoxide. Es ist eine größere Anzahl Verbindungen von Brom und Sauerstoff bekannt. Diese sind nach den allgemeinen Formeln BrOx (x = 1–4) und Br2Ox (x = 1–7) aufgebaut. Zwei der Bromoxide, Dibromtrioxid (Br2O3) und Dibrompentaoxid (Br2O5) lassen sich als Feststoff isolieren. Bromsauerstoffsäuren. Neben den Bromoxiden bilden Brom und Sauerstoff auch mehrere Säuren, bei denen ein Bromatom von einem bis vier Sauerstoffatomen umgeben ist. Dies sind die Hypobromige Säure, die Bromige Säure, die Bromsäure und die Perbromsäure. Sie sind als Reinstoff instabil und nur in wässriger Lösung oder in Form ihrer Salze bekannt. Interhalogenverbindungen. Brom bildet vorwiegend mit Fluor, zum Teil auch mit den anderen Halogenen eine Reihe von Interhalogenverbindungen. Bromfluoride wie Bromfluorid und Bromtrifluorid wirken stark oxidierend und fluoriend. Während Brom in den Fluor-Brom- und Chlor-Brom-Verbindungen als elektropositiveres Element in Oxidationsstufen +1 im Bromchlorid bis +5 im Brompentafluorid vorliegt, ist es in Verbindungen mit Iod der elektronegativere Bestandteil. Mit diesem Element sind die Verbindungen Iodbromid und Iodtribromid bekannt. Organische Bromverbindungen. Eine Vielzahl von organischen Bromverbindungen (auch "Organobromverbindungen") wird synthetisch hergestellt. Wichtig sind die Bromalkane, die Bromalkene sowie die Bromaromaten. Eingesetzt werden sie unter anderem als Lösungsmittel, Kältemittel, Hydrauliköle, Pflanzenschutzmittel, Flammschutzmittel oder Arzneistoffe. Zu den Organobromverbindungen gehören auch die polybromierten Dibenzodioxine und Dibenzofurane. Botanik. Die Botanik ("botaniké [epistemé]") erforscht als Pflanzenkunde (von "botáne"‚ Weide-, Futterpflanze‘) ein Teilgebiet der Biologie, die Pflanzen. Sie befasst sich mit dem Lebenszyklus, Stoffwechsel, Wachstum und Aufbau der Pflanzen; ferner mit ihren Inhaltsstoffen (siehe Heilkunde), ihrer Ökologie und ihrem wirtschaftlichen Nutzen (siehe Landwirtschaft). Die Ursprünge der Botanik gehen auf die heilkundliche Beschäftigung mit Pflanzen zurück. Von einer ersten abstrakt-wissenschaftlichen Untersuchung und Systematisierung des Pflanzenreiches zeugen die Schriften von Theophrastos aus dem 3. und 2. Jahrhundert v. Chr. Abgrenzung. Zu den Pflanzen im engeren Sinne zählen neben den Gefäßpflanzen auch die Moose und Grünalgen. Früher wurden auch Pilze, Flechten und die Prokaryoten (Bakterien und Archaeen) als Pflanzen angesehen. Obwohl man heute erkennt, dass diese (ebenso wie alle Algen außer den Grünalgen) phylogenetisch nicht näher mit den Pflanzen verwandt sind, werden Algengruppen wie Rotalgen, Braunalgen, Kieselalgen sowie Pilze und Flechten weiter in der Botanik behandelt. Prokaryoten (einschließlich der darin enthaltenen Cyanobakterien, früher als "Blaualgen" bezeichnet), sind – zusammen mit anderen Mikroorganismen – seit längerem Objekte einer eigenen Disziplin, der Mikrobiologie. Fachgebiete. Lehrbuch für den Unterricht in der Botanik (1893) Kerngebiete. Vielfach gibt es auch die Einteilung in "Allgemeine" und "Spezielle Botanik" sowie "Angewandte Botanik". Die Angewandte Botanik befasst sich insbesondere mit der Nutzung von Pflanzen in Land- und Forstwirtschaft, Gartenbau, Landschaftspflege und Umweltschutz. Barn. Das Barn b (engl. ‚Scheune‘) ist eine Maßeinheit der Fläche, die zur Angabe von Wirkungsquerschnitten in der Atom-, Kern- und Teilchenphysik verwendet wird. Das Barn ist keine SI-Einheit. Es ist in den Staaten der EU und der Schweiz eine gesetzliche Einheit für die Angabe von Wirkungsquerschnitten, also keine allgemeingültige Flächeneinheit. Übliche dezimale Teile. Kleine Wirkungsquerschnitte werden in Millibarn (mb), Mikrobarn (µb), Nanobarn (nb) oder Picobarn (pb) angegeben. Beispielsweise ist Shed. Die Einheit Shed war zur Beschreibung sehr kleiner Wirkungsquerschnitte, vor allem von Neutrino-Reaktionen, gedacht, konnte sich aber nie richtig durchsetzen. Es gilt Wortherkunft. Die Bezeichnung "barn" für die bereits übliche Wirkungsquerschnitt-Einheit 10−24 cm2 wurde im Dezember 1942 von zwei Wissenschaftlern der Purdue University eingeführt, die an der amerikanischen Kernwaffenentwicklung (Manhattan-Projekt) mitwirkten. Dabei spielte es eine Rolle, dass ein Wirkungsquerschnitt dieser Größe für Kernreaktionen erschien. Becquerel (Einheit). Im täglichen Gebrauch der Einheit ist fast immer die Verwendung eines Vorsatzes für die Größenordnung notwendig (vor allem Kilo, Mega, Giga und Tera). Die Einheit ist nach dem französischen Physiker Antoine Henri Becquerel benannt, der 1903 zusammen mit Pierre Curie und Marie Curie den Nobelpreis für die Entdeckung der Radioaktivität erhielt. Das Becquerel wurde 1975 auf dem 15. Treffen der Conférence Générale des Poids et Mesures als abgeleitete SI-Einheit mit besonderem Namen in das Internationale Einheitensystem aufgenommen. Zusammenhang mit der Halbwertszeit. Für eine bestimmte Masse formula_6 (in g) eines Isotops mit der molaren Masse formula_7 (in g/mol) und der Halbwertszeit formula_8 (in s) errechnet sich die Aktivität formula_5 (in Bq) nach der Formel Natürliches Kalium enthält 0,117 Gramm pro Kilogramm des radioaktiven Isotops 40K mit einer Halbwertszeit formula_8 von 1,277 · 109 Jahren = 4,0271472 · 1016 Sekunden und einer molaren Masse formula_7 von 39,9639987 g/mol. Daraus ergibt sich eine Aktivität von 30,346 kBq für ein Kilogramm natürliches Kalium. 40K ist die Hauptquelle natürlicher Radioaktivität in Organismen; das im menschlichen Körper enthaltene Kalium ist verantwortlich für eine Aktivität von 40 bis 60 Bq pro Kilogramm Körpergewicht, das sind bei einem durchschnittlichen Erwachsenen also fast 4000 Bq. Die daraus resultierende Belastung mit rund 0,17 mSv pro Jahr bedeutet, dass fast 10 Prozent der natürlichen radioaktiven Belastung in Deutschland (durchschnittlich 2,1 mSv pro Jahr) durch körpereigenes Kalium verursacht wird. Bezug zu anderen Einheiten. Die Einheiten Rutherford und Stat sind weitere veraltete, nicht SI-konforme Einheiten für die Aktivität. Eine Beziehung zwischen der Aktivität eines Stoffes und der schädigenden Wirkung für den Menschen ist nicht direkt herstellbar. Die unterschiedlichen Strahlenarten, die bei einem Zerfall auftreten, besitzen unterschiedliche kinetische Energien und Wirkungsquerschnitte, wodurch sie sich in ihren toxischen Wirkungen unterscheiden. Die Energiedosis unterschiedlicher Strahlungsarten wird in der Einheit Gray angegeben. Um sie hinsichtlich der schädigenden Wirkung (relative biologische Wirksamkeit) für Organismen besser vergleichen zu können, wird sie mit einem Gewichtungsfaktor multipliziert, dem Strahlungswichtungsfaktor, die sich ergebende Äquivalentdosis wird in der Einheit Sievert angegeben. Nur in Sievert angegebene Dosen sind daher ohne Kenntnis der Strahlenart miteinander vergleichbar. Unter bestimmten Bedingungen (bekanntes Radionuklid, bekannte Art der Aufnahme des Strahlers etc.) ist mit Hilfe des Dosiskonversionsfaktors eine näherungsweise Ermittlung der Äquivalentdosis aus der Aktivität des aufgenommenen Stoffes (in Becquerel) möglich. Barrel. Das Barrel (für "Fass") ist eine Maßeinheit des Raums (Flüssigkeiten, siehe Raummaß). Man unterscheidet zwischen dem Imperialen (d. h. britischen) und (US-)amerikanischen Barrel sowie zwischen dem Barrel für Erdölprodukte und dem für Brauereiprodukte (Bier). Erdölindustrie. Heringsfass mit einem Fassungsvermögen von 159 Litern, wurde gereinigt und danach zum Abfüllen von Erdöl wiederverwendet Der Ort im europäischen Kulturkreis, an dem zuerst Erdöl gewonnen wurde, war Pechelbronn im Elsass. Die dortige Erdpechquelle ist seit 1498 belegt. Das aus den so genannten Pechelbronner Schichten stammende Erdöl wurde zunächst medizinisch bei Hauterkrankungen benutzt. Die kommerzielle Nutzung aber begann 1735 und endete 1970. Generationen von Technikern besuchten das Gebiet, um das Fördern und Raffinieren von Erdöl zu lernen. Von dort stammt auch die Methode, Erdölprodukte (Rohprodukte, medizinische Pr., Lampenöl, Schmieröl) in Fässer abzufüllen. Unter den im Großhandel genormten Fässern wählte man nicht Wein- oder Bierfässer, sondern gereinigte Heringstonnen. Gesalzener Hering wurde damals in großen Mengen in Fässern ins Binnenland verkauft, so dass diese Fässer günstig erworben werden konnten. Um Verwechslungen und spätere Befüllung mit Nahrungsmitteln zu verhindern, wurde der Fassboden blau gestrichen. Mit zunehmender Produktion wurden bei örtlichen Küfern Fässer der eingeführten Größe bestellt. Nachdem 1858/59 in Wietze und anschließend 1859 in den USA in Titusville, Pennsylvania die ersten Erdölquellen erbohrt wurden, übernahmen die Unternehmer nicht nur die Techniken aus Pechelbronn, sondern ließen auch von örtlichen Küfern Tonnen aus Eichenholz in den Abmessungen wie in Pechelbronn herstellen. Neben den alten Maßen der Heringstonne von 158,987 Litern übernahmen die US-Produzenten auch die Angewohnheit, den Fassboden blau zu streichen. Die zwei massiven Eisenringe um das Fass werden "Sicken" genannt, auf ihnen konnten "Rollsickenfässer" gerollt werden. a> drum) fasst keineswegs genau ein Barrel, sondern etwa 205 bis 216,5 Liter, also ca. ⅓ mehr. Die Abmessungen betragen dabei etwa 585 mm Durchmesser bei einer Höhe von 880 mm. Komplexität und Vielfalt alter Fassgrößen. Hier geht es um das englische Muid. Die Vergleichsmaße im Zitat unterscheiden sich von Land zu Land und sogar von Region zu Region stärker noch als das Barrel. Das Muid (lat. ' ‚reichlich‘) reichte von 268 Liter in Paris bis 1500 Liter in Skandinavien. Gebräuchlich ist das Muid heute nur noch als die 1300-Litergröße in Châteauneuf-du-Pape. Begriffe, Einheiten und Umrechnungsfaktoren. Die Einheitenzeichen für Barrel sind: bl., bbl. (US-Volumen) bzw. bl. Imp., bbl. Imp. (Imperial-Volumen). Die Abkürzung bbl. steht für "blue barrel", ein blau gekennzeichnetes Fass mit genormtem Inhalt. Erdöl- und Gasindustrie. Im internationalen Gebrauch wird das US-amerikanische Barrel mit 158,987 Litern verwendet. Das imperiale Barrel wird nicht verwendet. Bushel. Ein Bushel (englisch für Scheffel) ist ein ursprünglich aus England stammendes Raummaß, das in vier Peck (pk.) unterteilt war. In Gebrauch ist heute noch ein davon abgeleitetes äquivalentes Getreidemaß (Nominal) desselben Namens in den Vereinigten Staaten, insbesondere im Getreidehandel. Name. "Bushel" ist eine Anglifizierung von altfranzösisch ' und ' „Fässchen“. Britisches Bushel. Ein britisches Bushel wird mit „Imp.bu.“ oder „Imp.bsh.“ abgekürzt ("Imperial"). 1 Imp.bsh. = 8 Imp.gal. = 64 Imp.pt = 2219,3556 cubic inch = 36,3687 Liter 1 chaldron = 4 Imp.quarter = 32 Imp.bsh = 256 Imp.gal. = 2048 Imp.pt. US-amerikanisches Bushel. Ein Bushel wird durch den Korb rechts unten dargestellt Ein US-amerikanisches Bushel wird mit „US.bu.“ oder „US.bsh.“ abgekürzt. 1 US.bsh. = 4 peck = 32 dry quart = 64 dry pint = 2150,42 cubic inch = 35,2391 Liter 5548389 US.bsh. = 5376050 Imp.bsh. = 11931366673,38 cubic inch = 195520,069 m³ Definition eines Bushel als Verrechnungseinheit für Getreide. Im Handel (z. B. an Warenterminbörsen) wird das Bushel heute als äquivalentes Gewichtsmaß verwendet. Die Masse eines Bushels hängt von Art und Feuchte des Getreides ab. Da die USA zu den größten Getreideerzeugern zählen, ist die Einheit "„bushel“" als Maß zur Bestimmung der Masse einer Getreidemenge weltweit von Bedeutung. Wenn heutzutage Getreidepreise pro Scheffel angegeben werden, ist damit dieses "„bushel“" gemeint. Ein "„bushel“" (als Masseneinheit) einer bestimmten Getreideart entspricht der Masse, die eine Getreidemenge mit dem Volumen eines "„bushel“" (als Volumeneinheit) aufweist, unter der Voraussetzung einer definierten Schüttdichte und Feuchtigkeit. Die Masse, die der Menge eines "„bushel“" Getreide entspricht, wird bezeichnet als "„standard weight per bushel“" oder als "„standard bushel weight“" oder auch als "„standard weight“". Die Basisfeuchte (= Bezugsfeuchte), bei der das "„standard bushel weight“" festzustellen ist, wird als "„standard moisture“" bezeichnet. Im metrischen Maßsystem ist die Verrechnungseinheit "„bushel“" (als Maß für die Bestimmung einer Getreidemenge) vergleichbar mit der sogenannten Trockenmasse bei Getreide, die anhand der tatsächlichen Masse und Feuchtegehalts sowie der Basisfeuchte der Trockenmasse berechnet wird. Bestimmung der Verrechnungsmenge in Bushel. Im nächsten Schritt wird die Trockenmasse durch das "„standard weight per bushel“" dividiert und man erhält die Anzahl der "„bushel“". Bushel als Grundlage zur Bestimmung der Schüttdichte von Getreide. Der Getreidepreis für eine bestimmte Menge ist nicht nur abhängig von der Trockenmasse (bezogen auf eine Basisfeuchte), sondern unter anderem auch von der Schüttdichte, die bei Getreide im deutschen Sprachraum als Hektolitergewicht bezeichnet wird. Die Feststellung der Schüttdichte ist die einzige Anwendung, bei der die Maßeinheit "„bushel“" als Raummaß verwendet wird. Hier wird ein Hohlmaß mit dem Rauminhalt von einem "„bushel“" mit Getreide gefüllt, das die Basisfeuchte aufweist. Das festgestellte Gewicht ergibt ein Maß für die Schüttdichte und wird als "„test weight/bu“" oder auch als "„test weight“" bezeichnet. Im Idealfall stimmt das "„test weight/bu“" mit dem "„standard weight/bu“" überein. Bushel als Grundlage von Flächenerträgen. In Nordamerika wird der Flächenertrag (Englisch: „yield“) von Getreide als "„bushel/acre“" angegeben. Bei der Umrechnung von "„bushel/acre“" zur metrischen Flächenertragseinheit „dt/ha“ ist zu beachten, dass dies zunächst für die angegebene Basisfeuchte ("„standard moisture“") der jeweiligen Getreideart gilt und bei anderen Basisfeuchten für die Zieleinheit „dt/ha“ entsprechend umzurechnen ist. British thermal unit. Die British thermal unit ist eine Einheit der Energie. Ihr Einheitenzeichen ist Btu oder BTU, ihr Formelzeichen "W". Die Btu gehört nicht zum internationalen Einheitensystem (SI) und ist definiert als die Wärmeenergie, die benötigt wird, um ein britisches Pfund Wasser um 1 Grad Fahrenheit zu erwärmen. Da auf Grund der temperaturabhängigen Wärmekapazität diese Energie je nach Temperatur des Wassers unterschiedlich ist, existieren mehrere Definitionen der Btu. Die International (Steam) Table Btu wurde nach der International (Steam) Table Kalorie (calIT) als 1055,05585262 Joule definiert. Bei der Spezifizierung von Wärmepumpen (speziell Klimaanlagen) wird oft bei Importgeräten die Kühlleistung (fehlerhaft) in Btu angegeben. Gemeint ist hier BTU pro Stunde (BTU/h). Auch für zu kühlende Geräte von Rechenzentren wird die in Wärme abgegebene Verlustleistung in BTU/h angegeben. Der Erdgas-Verbrauch wird manchmal auch in mmBTU (million British thermal units; mm kommt von tausend tausend) angegeben. 1 mmBTU entspricht 26,4 Kubikmeter Gas, basierend auf einem Energieinhalt von 40 MJ/m³ (11 kWh/m³). Von Btu abgeleitet ist die Einheit Quad (quadrillion British thermal units). Benoît Mandelbrot. Benoît B. Mandelbrot (* 20. November 1924 in Warschau; † 14. Oktober 2010 in Cambridge, Massachusetts) war ein französisch-US-amerikanischer Mathematiker. Mandelbrot leistete Beiträge zu einem breiten Spektrum mathematischer Probleme, einschließlich der theoretischen Physik, der Finanzmathematik und der Chaosforschung. Am bekanntesten aber wurde er als Vater der fraktalen Geometrie. Er beschrieb die Mandelbrot-Menge und prägte den Begriff „fraktal“. Mandelbrot trug selbst stark zur Popularisierung seiner Arbeiten bei, indem er Bücher schrieb und Vorlesungen hielt, die für die Allgemeinheit bestimmt waren. Mandelbrot verbrachte die meiste Zeit seiner Karriere an IBMs Thomas J. Watson Research Center, wo er die Position eines IBM Fellows innehatte. Später wurde er Sterling Professor für Mathematik () an der Yale University. Er war ferner wissenschaftlicher Mitarbeiter am Pacific Northwest National Laboratory, der Universität Lille I, dem Institute for Advanced Study und dem Centre national de la recherche scientifique. Mandelbrot lebte bis zu seinem Tode in den Vereinigten Staaten. Frühes Leben. Die nach Mandelbrot benannte Menge mit eingefärbter Umgebung Mandelbrot wurde in Polen in einer litauisch-jüdischen Familie mit akademischer Tradition geboren. Seine Mutter war Ärztin, sein Vater Kleiderhändler. Als Junge wurde Mandelbrot von zwei Onkeln in die Mathematik eingeführt, von denen einer, Szolem Mandelbrojt, am Collège de France Mathematik lehrte. Im Jahr 1936 übersiedelte die Familie nach Paris, um der sich ankündigenden Bedrohung durch die Nationalsozialisten zu entgehen. Mandelbrot besuchte bis zum Ausbruch des Zweiten Weltkriegs das in Paris. Er erwarb den Ruf einer mathematischen Hochbegabung durch seine Fähigkeit, Aufgaben als geometrische Probleme zu visualisieren. Bei einem nationalen Test löste er eine Rechenaufgabe als einziger Schüler in Frankreich. Nach eigener Angabe versuchte er dazu gar nicht erst, das komplizierte Integral zu berechnen, sondern erkannte, dass der Aufgabe eine Kreisformel zugrunde lag und transformierte die Koordinaten, um den Kreis in der Lösung einzusetzen. Seine Familie flüchtete vor der deutschen Besatzung ins Vichy-Frankreich, nach Tulle, wo ihn der Rabbiner von Brive-la-Gaillarde bei seiner Schulausbildung unterstützte. Von 1945 bis 1947 studierte er Ingenieurwissenschaften an der École Polytechnique bei Gaston Julia und Paul Lévy. Anschließend absolvierte er ein Studium der Aeronautik am California Institute of Technology, das er 1949 mit einem Master abschloss. Nach seinem Studium kehrte Mandelbrot nach Frankreich zurück und promovierte 1952 an der Universität von Paris im Fach Mathematik. Von 1949 bis 1957 war er wissenschaftlicher Mitarbeiter am Centre national de la recherche scientifique. Während dieser Zeit verbrachte Mandelbrot ein Jahr am Institute for Advanced Study in Princeton (New Jersey), wo er von John von Neumann unterstützt wurde. 1955 heiratete Mandelbrot Aliette Kagan, zog mit ihr nach Genf und anschließend zurück nach Frankreich. Nach einem Jahr an Université Lille Nord de France trat Mandelbrot 1958 in die Forschungsabteilung im Thomas J. Watson Research Center bei IBM ein und wurde dort 1975 zum IBM-Fellow ernannt, eine Auszeichnung, die ihm weitgehende Freiheiten für seine Forschungen ermöglichte. Wissenschaftliche Karriere. Mandelbrot bei einer Rede 2007 Ab 1951 veröffentlichte Mandelbrot Arbeiten über Probleme der Mathematik, aber auch über Probleme angewandter Gebiete wie der Informationstheorie, Wirtschaftswissenschaften und Strömungsmechanik. Er war zunehmend davon überzeugt, dass eine Vielzahl von Problemen in diesen Gebieten von zwei zentralen Themen bestimmt seien, nämlich „fat tail“-Wahrscheinlichkeitsverteilungen und selbstähnlichen Strukturen. Mandelbrot fand heraus, dass die Preisschwankungen der Finanzmärkte nicht durch eine Normalverteilung, sondern durch eine Lévy-Verteilung beschrieben werden können, die theoretisch eine unendliche Varianz aufweist. Zum Beispiel zeigte er, dass die Baumwollpreise seit 1816 einer Lévy-Verteilung mit dem Parameter formula_1 folgen, während formula_2 einer Gaußverteilung entsprechen würde (siehe auch alpha-stabile Verteilungen). So lieferte er auch eine mögliche Erklärung für das Equity Premium Puzzle. Mandelbrot wandte diese Ideen auch im Bereich der Kosmologie an. 1974 schlug er eine neue Erklärung für das Olberssche Paradoxon des dunklen Nachthimmels vor. Er zeigte, dass sich das Paradoxon auch ohne Rückgriff auf die Urknall-Theorie vermeiden lässt, wenn man eine fraktale Verteilung der Sterne im Universum annimmt, in Analogie zum sogenannten Cantor-Staub. 1975 prägte Mandelbrot den Begriff "fraktal", um derartige Strukturen zu beschreiben. Er veröffentlichte diese Ideen in dem Buch "Les objets fractals, forme, hasard et dimension" (1975; eine englische Übersetzung "Fractals: Form, Chance and Dimension" wurde 1977 veröffentlicht). Mandelbrot entwickelte damit Ideen des tschechischen Geografen, Demografen und Statistikers Jaromír Korčák (1895–1989) weiter, die dieser in dem Artikel "Deux types fondamentaux de distribution statistique" veröffentlicht hatte (1938; deutsch "Zwei Grundtypen der statistischen Verteilung"). Während seiner Anstellung als Gastprofessor für Mathematik an der Harvard University 1979 begann Mandelbrot mit dem Studium der fraktalen Julia-Mengen, die gegenüber bestimmten Transformationen in der komplexen Ebene invariant sind und die zuvor von Gaston Julia und Pierre Fatou untersucht wurden. Diese Mengen werden durch die iterative Formel formula_3 erzeugt. Mandelbrot benutze Computerplots dieser Menge, um ihre Topologie in Abhängigkeit von dem komplexen Parameter formula_4 zu untersuchen. Dabei entdeckte er die Mandelbrot-Menge, die nach ihm benannt ist. Mandelbrot bei seiner Dankesrede nach der Beförderung zum Offizier der Ehrenlegion, 2006 1982 erweiterte Mandelbrot seine Ideen und publizierte sie in seinem wohl bekanntesten Buch "The Fractal Geometry of Nature" (die deutsche Übersetzung erschien 1987 unter dem Titel "Die fraktale Geometrie der Natur"). Dieses einflussreiche Buch machte Fraktale einer breiteren Öffentlichkeit bekannt und brachte auch viele der Kritiker zum Schweigen, die Fraktale bis dahin als Programmier-Artefakt abgetan hatten. Mandelbrot verließ IBM 1987 nach 35 Jahren Firmenzugehörigkeit, nachdem IBM beschlossen hatte, seine Abteilung für Grundlagenforschung aufzulösen. Er arbeitete dann in der mathematischen Abteilung der Yale University, wo er 1999 im Alter von 75 Jahren seine erste unbefristete Professorenstelle übernahm. Als er 2005 emeritierte, war er Sterling Professor für Mathematik. Seine letzte Anstellung trat Mandelbrot 2005 als Battelle Fellow am Pacific Northwest National Laboratory an. Seine jüngste Veröffentlichung zu fraktalen mathematischen Strukturen an den Finanzmärkten "Fraktale und Finanzen" bekam den Wirtschaftsbuchpreis der Financial Times Deutschland. Fraktale und Rauheit in der Natur. Mandelbrot wurde als Visionär und als unabhängiger Geist (engl.) bezeichnet. Sein allgemeinverständlicher und leidenschaftlicher Schreibstil und seine Betonung bildlicher geometrischer Anschauung machten insbesondere sein Buch auch für Nichtwissenschaftler zugänglich. Das Buch löste ein breites öffentliches Interesse an Fraktalen und Chaostheorie aus. Tod. Mandelbrot starb im Alter von 85 Jahren an Bauchspeicheldrüsenkrebs. Der Mathematiker Heinz-Otto Peitgen bezeichnete Mandelbrot anlässlich seines Todes als eine der wichtigsten Persönlichkeiten der letzten 50 Jahre für die Mathematik und deren Anwendung in der Naturwissenschaft. Der französische Staatspräsident Nicolas Sarkozy würdigte Mandelbrot als einen großen und originellen Geist, dessen Arbeit vollständig jenseits des wissenschaftlichen Mainstreams verlief. Die Zeitschrift The Economist wies zudem auf seine Berühmtheit jenseits der Wissenschaft hin und nannte ihn den Vater der fraktalen Geometrie. Auswahl der Ehrungen. 1990 wurde Mandelbrot als Ritter in die französische Ehrenlegion aufgenommen und 2006 zum Offizier befördert. 2000 wurde der kleine Asteroid (27500) Mandelbrot nach ihm benannt. Im Mai 2010 bekam Mandelbrot die Ehrendoktorwürde der Johns Hopkins University verliehen. Bund für Umwelt und Naturschutz Deutschland. Der Bund für Umwelt und Naturschutz Deutschland e. V. (BUND) ist eine nichtstaatliche Umwelt- und Naturschutzorganisation mit Sitz in Deutschland. Er ist das deutsche Mitglied des internationalen Naturschutznetzwerkes Friends of the Earth. Der Verein wurde am 20. Juli 1975 als "Bund für Natur- und Umweltschutz Deutschland" von einundzwanzig Umweltschützern, darunter Bodo Manstein (1. Vorsitzender), Horst Stern, Bernhard Grzimek, Hubert Weinzierl, Gerhard Thielcke, Herbert Gruhl, Hubert Weiger sowie Enoch zu Guttenberg unter maßgeblicher Mithilfe des Bundes Naturschutz in Bayern in Marktheidenfeld gegründet. 1977 erfolgte die Umbenennung des Vereins in "Bund für Umwelt und Naturschutz Deutschland". Derzeitiger Vorsitzender ist seit dem 1. Dezember 2007 Hubert Weiger. Der BUND ist mit rund 538.000 Mitgliedern, Spendern und Förderern (Stand 2014) einer der großen Umweltverbände Deutschlands. Vom Staat ist der Verein als Umwelt- und Naturschutzverband (im Rahmen des Bundesnaturschutzgesetzes) anerkannt und muss daher bei Eingriffen in den Naturhaushalt angehört werden. Außerdem verfügt er aus dem Umwelt-Rechtsbehelfsgesetz über ein Verbandsklage-Recht. An Beiträgen, Zuwendungen und Spenden kamen 2014 21,0 Millionen Euro (2013 19,4 Millionen Euro, 2012 17,93 Millionen Euro) zusammen. Spenden – der Verein ist als gemeinnützig anerkannt – und Mitgliedsbeiträge machen etwa zwei Drittel der Gesamteinnahmen aus. Der BUND sieht sich seit Jahren in der Rolle des kritischen Mahners und Beobachters, der umweltpolitische Defizite aufdeckt, politischen Lobbyismus leistet und die Öffentlichkeit aufklärt. Er fragt etwa danach, wie erneuerbare Energien ausgebaut werden können, wie Flüsse und Seen vor Schadstoffen geschützt werden können, wie Strahlenbelastungen reduziert werden können und wie der Naturschutz forciert werden kann. Der Verein fordert eine Kehrtwende in der Agrarpolitik. Aktionen und Kampagnen auf regionaler, nationaler und internationaler Ebene führten zur Erhaltung von Moorgebieten, zur Mobilmachung gegen die Atomkraft und zur Werbung für umwelt- und gesundheitsverträgliche Produkte. Organisation. Der BUND ist – wie die Bundesrepublik – föderal organisiert. Neben dem Bundesverband gibt es 16 Landesverbände (der bayerische Landesverband führt den Namen „Bund Naturschutz in Bayern e. V.“) und über 2000 regionale Kreis- und Ortsgruppen, die sich mit lokalen ökologischen Problemen beschäftigen. Ehrenamtliche Facharbeitskreise auf Bundes- und Landesebene befassen sich etwa mit der Bio- und Gentechnologie, dem Bodenschutz, umweltfreundlichen Energien, gesundheitlichen und rechtlichen Fragen. Neben den ehrenamtlichen gibt es einige fest angestellte Mitarbeiter, vor allem in der Bundesgeschäftsstelle und in den Landesgeschäftsstellen. Ältester Landesverband im BUND-Bundesverband ist der "Bund Naturschutz in Bayern", der 1913 in Bayern gegründet wurde. Zweitältester Landesverband ist der "BUND Bremen", der aus der "Bremer Naturschutzgesellschaft" hervorging, die ihrerseits aus einem 1914 in Bremen gegründeten Vogelschutzverein entstanden war. Der Bundesverband wie auch die Landesverbände sind jeweils eigenständige Vereine, während die Regional- und Ortsgruppen rein rechtlich Bestandteile ihres Landesverbands sind. Ein Mitglied des BUND ist somit immer sowohl Mitglied im Bundesverband als auch im entsprechenden Landesverband. Neben den „Vollmitgliedern“ kennt der BUND die „Fördermitglieder“, die regelmäßig spenden, aber nicht an der Verbandsdemokratie teilnehmen. Der Verband ist intern von unten nach oben organisiert, d. h. die Mitglieder einer Verbandsebene wählen jeweils aus ihrer Mitte die Amtsträger und die Vertreter (Delegierten) für die nächsthöhere Ebene; Mitglieder- und Delegiertenversammlungen sind öffentlich. Den Landesvorständen und dem Bundesvorstand gehören neben den direkt gewählten Mitgliedern außerdem auch je ein Vertreter der BUNDjugend, der Facharbeitskreise („wissenschaftlicher Rat“) sowie der Regional-/Landesverbände („Landesrat“/„Verbandsrat“) an. Auf Bundesebene koordinieren sich der Vorstand, der wissenschaftliche Beirat und der Verbandsrat im "Gesamtrat". Selbstständig innerhalb des BUND agiert die BUNDjugend mit ihren Untergliederungen in den Bundesländern (in Bayern die „Jugendorganisation Bund Naturschutz“) und den einzelnen Jugendgruppen. Der BUND ist seit 1989 die deutsche Sektion des Europäischen Umweltnetzwerkes Friends of the Earth Europe und des weltweiten Netzwerkes Friends of the Earth. Der BUND ist Einsatzstelle für Teilnehmer des FÖJ (Freiwilliges Ökologisches Jahr) und des BFD (Bundesfreiwilligendienst); es gibt Stellen beim Bundesverband, bei den Landesverbänden und bei der BUNDjugend. Facharbeitskreise. Es gibt 20 Bundes-Arbeitskreise, in denen sich ehrenamtliche Mitglieder – oft renommierte Wissenschaftler – mit aktuellen Fragen des Umweltschutzes beschäftigen. Zu den Aufgaben der Arbeitskreise gehört die Teilnahme an Anhörungen des Bundestages, die Prüfung neuer Gesetze und das Erarbeiten umweltfreundlicher Konzepte. Darüber hinaus organisieren die Arbeitskreise Seminare und Tagungen und geben ihr Wissen in Informationsbroschüren weiter. Die Landesverbände haben im Rahmen ihrer Möglichkeiten ebenfalls Facharbeitskreise mit ähnlichen Themen. Die Sprecher der Arbeitskreise bilden den "Wissenschaftlichen Beirat" des BUND, der den Bundesvorstand fachlich berät. Der Vorsitzende des Beirats ist kraft Satzung Mitglied des Bundesvorstands. Mitgliedschaften, Kooperationen. Der BUND kooperiert bzw. kooperierte mit Ziele. Der BUND setzt sich für die Erhaltung der natürlichen Lebensgrundlagen ein. Im Einzelnen steht er unter anderem für Aktivitäten und Projekte. Informationsstand des BUND zum Thema Gentechnik, 2007 in Karlsruhe Kampagnen gegen Großprojekte. Als Interessenvertreter des Umwelt- und Naturschutzes ist der Bund verschiedentlich insbesondere gegen Großprojekte vorgegangen. So war etwa zum Weltjugendtag 2005 eine Abschlussmesse des Papstes Benedikt XVI. ursprünglich bei Hangelar geplant. Der BUND reichte einen Widerspruch gegen die behördliche Genehmigung ein. Eine vorherige Kampfmittelräumung auf dem Gelände des Flugplatzes Hangelar, der geplante „Papst-Hügel“ und der Wegebau für die Großveranstaltung würden Fauna und Flora im Naturschutzgebiet Hangelarer Heide zu stark belasten. Die Veranstalter verlegten den Schlussgottesdienst auf das Marienfeld in Kerpen. Im Februar 2003 reichte der BUND zusammen mit dem NABU beim Hamburgischen Oberlandesgericht eine Klage gegen den geplanten Offshore-Windpark Butendiek ein. Für den Standort seien genug ökologisch sinnvollere Alternativen vorhanden. Die Klage wurde abgewiesen mit der Begründung, dass BUND und NABU als Klagende keine Verletzung eigener Rechte geltend machen könnten. Ein Sprecher des Bundesumweltministeriums kritisierte die Klage und erklärte, dass der Bau des Windparks vielmehr positive Auswirkungen auf die Natur haben werde, da beispielsweise die Fischerei in dessen Umkreis eingeschränkt werde. Kritik. Dem BUND wurde mehrfach die vorzeitige Rücknahme von Klagen gegen naturbedrohende Bauvorhaben aufgrund finanzieller Vorteile vorgeworfen. So warf Der Spiegel der Organisation erstmals im Jahr 1997 „Ablasshandel“ vor. Der BUND Thüringen habe 1996 nach einer zweckgebundenen Spende der VEAG in Höhe von 7 Millionen DM eine Klage gegen das Pumpspeicherwerk Goldisthal fallen gelassen. Nach Darstellung des BUND waren die Erfolgsaussichten der Klage gering, gleichwohl stehe der Landesverband Thüringen dem Pumpspeicherwerk aus Naturschutzsicht weiter kritisch gegenüber. Das Geld wurde zur Gründung der Naturstiftung David eingesetzt. Neben dem Spiegel kritisierten auch der NDR und das Magazin Panorama Zugeständnisse des BUND und anderer Umweltverbände nach finanziellen Ausgleichsleistungen erneut als „Ablasshandel“ und „Tauschgeschäfte“. So hatte der BUND Niedersachsen (zusammen mit dem WWF) 2006 eine Klage gegen die geplante Emsvertiefung für die Überführung von Kreuzfahrtschiffen zurückgezogen, nachdem in einem Vergleich die Zahlung von 9 Millionen Euro in ein neu geschaffenes Sondervermögen "Emsfonds" vereinbart wurde. Über die Verwendung dieser Mittel für Projekte im Ems-Dollart-Gebiet entscheidet ein neugeschaffenes sechsköpfiges Gremium, das auf Dauer mit einem Mitglied des BUND besetzt ist. Der BUND Schleswig-Holstein hatte 2008 ein Klageverfahren gegen den Ausbau des Lübecker Flughafens beendet, nachdem Kompensationsleistungen in eine Naturschutz-Stiftung für die „Grönauer Heide“ ausgehandelt worden waren. Im Jahr 2011 zog der BUND Niedersachsen eine Klage gegen den geplanten Offshore-Windpark „Nordergründe“ vor Wangerooge zurück, nachdem in einem Vergleich die Zahlung von rund 800.000 Euro vereinbart wurde, die später in einen zweckgebundenen, vom BUND verwalteten Fonds fließen sollten. Der Mitbegründer des Verbandes Enoch zu Guttenberg begründete im Mai 2012 seinen Austritt unter anderem mit dem Verdacht der Käuflichkeit des BUND. Seiner Überzeugung nach sei es vor allem um finanzielle Vorteile gegangen, als der BUND Klagen gegen den Windpark in Nordergründe und die Elbvertiefung zurückgezogen und dafür von den Betreibern Stiftungsgelder erhalten habe. Außerdem lehnte er die seiner Meinung nach landschaftszerstörenden Windkraftanlagen außerhalb bebauter Flächen ab. Der BUND habe sein Ziel – die Natur und deren Schutz – verfehlt. Der BUND wies die Vorwürfe der Bestechlichkeit mehrfach zurück: Im Rahmen von Vergleichen seien sinnvolle Lösungen gefunden worden, die zu naturverträglicheren Planungen geführt hätten. Vergleiche gegen Geld würden zudem nur einen minimalen Anteil an den Verbandsklagen des BUND ausmachen. Die Organisation befürworte den Ausbau der erneuerbaren Energien grundsätzlich und gehe nur in Einzelfällen gerichtlich gegen offenkundige Fehlplanungen vor. Beim Windpark Nordergründe seien neben einer geringeren Anlagenzahl deutlich reduzierte Umweltauswirkungen und umfangreiche Monitoringmaßnahmen zu den Auswirkungen auf den Vogelzug erreicht worden. Auch zum – nicht realisierten – Flughafenausbau in Lübeck sei ein Umfang an Eingriffsminderungen und Kompensationsleistungen ausgehandelt worden, der über eine Klage niemals hätte erreicht werden können. Verleihung von Umweltpreisen. Von 1980 bis 1991 verlieh der BUND die nach dem ersten Vorsitzenden benannte Bodo-Manstein-Medaille für besondere Verdienste im Natur- und Umweltschutz. Auf der Medaille war zu seinem Gedenken das Porträt Bodo Mansteins abgebildet; der Mediziner und Umweltschützer der ersten Stunde war zum Zeitpunkt der ersten Verleihung bereits verstorben. Seit 2003 zeichnet die BUND NRW Naturschutzstiftung den Schmetterling des Jahres aus. Es soll damit – wie bei vielen anderen Arten des Jahres – auf die zunehmende Gefährdung der Schmetterlinge und ihre Bedeutung hingewiesen werden. Seit 2009 verleiht der BUND Hessen den Eduard-Bernhard-Preis an Menschen, die sich durch starkes Engagement für Umwelt und Naturschutz auszeichnen. Der Bund Naturschutz in Bayern verleiht seit 1970 die Bayerische Naturschutzmedaille für besonderes Engagement im BN. Mit der Karl-Gayer-Medaille ehrt der Bund Naturschutz Bayern – in Abstimmung mit der Arbeitsgemeinschaft Naturgemäße Waldwirtschaft – seit 1977 Personen, die sich um die naturgemäße Waldwirtschaft verdient gemacht haben. Die höchste Auszeichnung Bayerns im Naturschutzbereich ist der Bayerische Naturschutzpreis des Bund Naturschutz, der seit Anfang der 1970er Jahre verliehen wird. Der BUND Berlin vergibt seit 2005 den Berliner Umweltpreis in den Kategorien „Umweltengagement“, „Kinder und Jugend“ und „Wirtschaft und Innovation“. Der BUND Baden-Württemberg zeichnet seit 2007 Naturschützer mit dem Gerhard-Thielcke-Naturschutzpreis aus. Der Naturschutzpreis entstand zum 75. Geburtstag des BUND-Ehrenvorsitzenden und Mitbegründers Gerhard Thielcke, der auch die Vergabe-Kriterien formuliert hat. Der Arbeitskreis Energie des BUND Nordrhein-Westfalen vergibt seit 2009 den mit 1000 Euro dotierten BUND-Energiepreis für umweltfreundlichen Umgang mit Energie. Für den Preis können sich vorzugsweise BUND-Gruppen bewerben, aber auch Bürgerinitiativen, Einzelpersonen und Firmen, sofern das Projekt einen direkten Nutzen für die Umwelt hat, innovativ ist und zum Nachmachen animiert. Natur & Umwelt Service und Verlags GmbH. Die Natur & Umwelt Service und Verlags GmbH wurde 1977 gegründet und ist eine hundertprozentige Tochter des BUND. Sie ist Dienstleisterin im Versand und Projektmanagement für den BUND, übernimmt aber auch Funktionen für externe Auftraggeber. Zum Beispiel wickelt sie seit 2002 für das Bundesumweltministerium den Wettbewerb "Don Cato" ab, der Kinder mit Fragen des Natur- und Umweltschutzes vertraut machen soll. Darüber hinaus betreibt sie den BUNDladen, in dessen Internetshop und Katalog "Schön" ökologische Artikel angeboten werden. Corporate Design. Der ursprüngliche Name "Bund für Natur- und Umweltschutz Deutschland" wurde 1977 in die heutige Form geändert, so dass aus der Abkürzung "BNUD" das Apronym "BUND" entstand, das Teil der Corporate Identity des Vereins wurde. Dessen Logo zeigt links neben dem Schriftzug BUND ein grafisches Element, das den Erdball symbolisieren soll, der von zwei schützenden Händen umschlossen wird. Der BUND ist deutsches Mitglied des internationalen Naturschutznetzwerkes Friends of the Earth, weswegen der Zusatz "Friends of the Earth Germany" (vormals: "Freunde der Erde") Element der heutigen Marke des Vereins ist. Betäubungsmittelgesetz (Deutschland). Das Betäubungsmittelgesetz (BtMG), ehemals Opiumgesetz (s. u.), ist ein deutsches Bundesgesetz, das den generellen Umgang mit Betäubungsmitteln regelt. Die Anlagen sind jeweils dreispaltig aufgebaut. Spalte 1 enthält die Internationalen Freinamen (INN) der Weltgesundheitsorganisation (etwa Amphetamin), Spalte 2 andere nicht geschützte Stoffbezeichnungen, wie Kurzbezeichnung oder Trivialnamen (etwa Amphetamin) und Spalte 3 die chemische Stoffbezeichnung (etwa ("RS")-1-Phenylpropan-2-ylazan). Tatbestand. Betäubungsmittel im Sinne des BtMG und Drogen sind nicht gleichzustellen. Alkohol, Nikotin und Coffein werden vom BtMG, weil sie nicht in die Anlagen aufgenommen wurden, nicht erfasst. Sie sind daher in Deutschland legale Drogen. Aber auch andere berauschende Substanzen verschiedener Pflanzen (bspw. Stechapfel und Engelstrompeten) sowie von Pilzen wie dem Fliegenpilz unterliegen nicht dem BtMG. Die Vorschriften des Gesetzes regeln die Herstellung, das Inverkehrbringen, die Einfuhr und die Ausfuhr von Betäubungsmitteln nach Anlage I, II und III. Für diese Tätigkeiten bedarf es einer Erlaubnis, die das Bundesinstitut für Arzneimittel und Medizinprodukte erteilen kann (§ 3 BtMG). Ferner werden der Betrieb von Drogenkonsumräumen geregelt (§ 10a BtMG), die Vernichtung von Betäubungsmitteln und die Dokumentation des Verkehrs. Das Betäubungsmittelgesetz ist eine Folge der durch die Ratifikation des Einheitsabkommens über die Betäubungsmittel 1961 sowie anderer ähnlicher Abkommen entstandenen Verpflichtung Deutschlands, die Verfügbarkeit mancher Drogen gemäß den Bestimmungen des Übereinkommens einzuschränken. Der Prohibition unterliegen die Stoffe nach Anlage I (illegale Drogen), deren Besitz und Erwerb nur durch Sondererlaubnis durch das BfArM für wissenschaftliche Zwecke möglich ist oder von einer zuständigen Stelle zur Untersuchung oder Vernichtung entgegengenommen wird. Es handelt sich bei den in den Anhängen aufgeführten Substanzen um so genannte "res extra commercium", zu deutsch "nicht handelbare Sachen". Werden sie in das Bundesgebiet eingeführt, so hat nur der Staat das Recht, den Besitz an diesen Substanzen durch Sicherstellung oder Beschlagnahme auszuüben. Grundsätzlich gehört das Betäubungsmittelgesetz in die Kategorie der Verwaltungsgesetze, da Regelungsmaterie der Verkehr der Betäubungsmittel ist. Durch die häufig angewendeten Strafvorschriften in den §§ 29–30a BtMG ist es aber zugleich eines der wichtigsten Gesetze im Bereich des Nebenstrafrechts. Für die Einfuhr und Ausfuhr der Grundstoffe zahlreicher Betäubungsmittel (insbesondere synthetischer Drogen wie Amphetamin) gilt das Grundstoffüberwachungsgesetz. Geschichte. Das Betäubungsmittelgesetz ist der unmittelbare Nachfolger des in der Weimarer Republik erlassenen Opiumgesetzes vom 10. Dezember 1929 (RGBl. I S. 215). Nach der Umformulierung des Kurztitels und umfangreichen inhaltlichen Änderungen durch Gesetz vom 22. Dezember 1971 (BGBl. I S. 2092) wurde am 10. Januar 1972 eine Neubekanntmachung (BGBl. I S. 1) herausgegeben. Die aktuelle Fassung des BtMG datiert auf den 28. Juli 1981 (BGBl. I S. 681); deren Wortlaut wurde zuletzt am 1. März 1994 neu bekannt gemacht (BGBl. I S. 358). Gefährdungspotential. Grundüberlegung zum Betäubungsmittelgesetz ist die Feststellung durch einmaligen, mehrmaligen oder anhaltenden Genuss von Betäubungsmitteln. Sämtliche Pharmaka, welche eine solche irreversible Schädigung erwarten lassen, sind oder werden den Beschränkungen des Betäubungsmittelgesetzes unterworfen. Damit werden auch neue Designerdrogen erfasst. Daneben gilt eine zusätzliche Gefährdung durch medizinisch nicht sachgerechte Zubereitung und Verabreichung von Betäubungsmitteln. Weiter wird durch den Genuss von Betäubungsmitteln ein Gefährdungspotential für Dritte mobilisiert, wenn der Suchtkranke sein Handeln Vom Opiumgesetz zum Betäubungsmittelgesetz. Bis zur Mitte der 1960er Jahre war die Drogenpolitik im Verhältnis zu anderen Bereichen der Politik ein äußerst kleiner und gesellschaftlich kaum beachteter Politikbereich. Wohl vor allem auf Grund der geringen Zahl der sozial auffälligen Drogenkonsumenten blieb das Opiumgesetz weithin papierenes Gesetz ohne akute Verfolgungsrealität. Entsprechend niedrig war die Zahl der auf Grund des Opiumgesetzes verurteilten Personen. Anfangs der sechziger Jahre des 20. Jahrhunderts lag diese Zahl zwischen 100 und 150 pro Jahr, das heißt zwei bis drei Verurteilungen pro Woche in der ganzen Bundesrepublik Deutschland. Ende der sechziger Jahre änderte sich der Stellenwert der Drogen- und speziell der Cannabispolitik schlagartig. Dies geschah vor dem Hintergrund der internationalen Entwicklung (internationale Abkommen) und vor allem dem in den USA wahrgenommenen „Jugend-Drogen-Problem“. In Deutschland vermittelte die Presse nach dem reißerischen Vorbild in den Vereinigten Staaten von Amerika ab Ende der sechziger Jahre den Eindruck einer gewaltigen „Haschisch- und Drogenwelle“, die das Land zu überrollen drohte. Gleichzeitig wurde in der öffentlichen Meinung das Bild eines dramatischen sozialen Problems vorgezeichnet, das zudem mit dem vermutlich wichtigsten innenpolitischen Ereignis jener Zeit in Verbindung gebracht wurde, nämlich der hauptsächlich von Studenten getragenen Protestbewegung, die sich während der großen Koalition aus CDU/CSU und SPD von 1966 bis 1969 als „Außerparlamentarische Opposition (APO)“ formiert hatte. Bei der Gesamtbetrachtung der historischen Entwicklung vom Opiumgesetz zum Betäubungsmittelgesetz ist zu beachten, dass die Bundesrepublik Deutschland nicht frei ist, welche Ziele sie im Bereich der Drogenpolitik verfolgen will. Sie ist vielmehr durch eine Reihe von Übereinkommen im Rahmen der Vereinten Nationen (UNO) gebunden. Es handelt sich hierbei um das Einheitsabkommen über die Betäubungsmittel vom 30. März 1961 über Suchtstoffe in der Fassung des Protokolls vom 25. März 1972 zur Änderung des Einheitsabkommens über die Betäubungsmittel von 1961 (sogenannte Single-Convention) und um das Übereinkommen vom 21. Februar 1971 über psychotrope Stoffe (Konvention über psychotrope Substanzen). Vor diesem Hintergrund hat der Gesetzgeber (Deutscher Bundestag und Bundesrat) im Dezember 1971 das Opiumgesetz vom 10. Dezember 1929, das vor allem die verwaltungsmäßige Kontrolle der medizinischen Versorgung der Bevölkerung mit Opium, Morphium und anderen Betäubungsmitteln regelte, durch ein neues „Gesetz über den Verkehr mit Betäubungsmitteln (Betäubungsmittelgesetz, BtMG)“ ersetzt. Dem neuen Gesetz vom 22. Dezember 1971, das am 10. Januar 1972 nach redaktionellen Änderungen neu bekanntgegeben wurde, liegt eine abstrakt-typologische Täterklassifizierung zugrunde, so dass nach der Vorstellung des Gesetzgebers jedem Tätertypus eine Sanktionsstufe zugeordnet werden kann, wobei die Höchststrafe von drei auf zehn Jahre heraufgesetzt wurde. Der Gesetzgeber ermächtigte in § 1 Abs. 2 bis 6 BtMG die Bundesregierung (Exekutive) durch Rechtsverordnung weitere Stoffe den betäubungsmittelrechtlichen Vorschriften zu unterstellen. Die Tatsache, dass nicht nur der Gesetzgeber, sondern ein Verordnungsgeber der Exekutive Straftatbestände schaffen kann, die mit hohen Freiheitsstrafen (seit dem 25. Dezember 1971 bis zu zehn Jahren, seit dem 1. Januar 1982 sogar Höchststrafen bis zu 15 Jahren) geahndet werden können, hat in den vergangenen Jahren immer wieder heftige und kontroverse Debatten im Kreise der Verfassungs- und Strafjuristen ausgelöst. Die Vereinbarkeit der Strafvorschriften des Betäubungsmittelgesetzes mit dem Grundgesetz ist zudem umstritten, weil einerseits Grundrechtsbegrenzungen nur unter strikter Wahrung des Verhältnismäßigkeitsgebotes erfolgen dürfen und andererseits die strafbewehrte Drogenprohibition kaum geeignet scheint, das gesetzgeberische Ziel (Verfügbarkeit der in den Anlagen aufgeführten Stoffe zu unterbinden) zu erreichen. Mit dem Gesetz zur Neuordnung des Betäubungsmittelrechts vom 28. Juli 1981 (BGBl. I S. 681), das am 1. Januar 1982 in Kraft trat, wurde nicht nur für die besonders schweren Fälle eine Erhöhung der Strafobergrenze von 10 auf 15 Jahren Freiheitsstrafe vorgenommen, sondern auch die Definition der Betäubungsmittel geändert. In § 1 Abs. 1 BtMG wurde der Anwendungsbereich des Gesetzes auf die in den Anlagen I bis III genannten Stoffe und Zubereitungen beschränkt. Betäubungsmittel im Sinne des Gesetzes sind nur die in den Anlagen I bis III genannten Stoffe und Zubereitungen (Positivliste). Die in den Anlagen I bis III genannten Stoffe und Zubereitungen sind Teil des Gesetzes. „Cannabis-Beschluss“. Am 9. März 1994 erging der so genannte Cannabis-Beschluss des Bundesverfassungsgerichts, demzufolge bei geringfügigen Verstößen gegen das BtMG durch den Erwerb, Besitz usw. von geringen Mengen Cannabis zum Eigenverbrauch nach Ermessen der Strafverfolgungsbehörden von einem Strafverfahren abgesehen werden kann. In der Praxis wird dies in verschiedenen Bundesländern stark unterschiedlich gehandhabt, da insbesondere nicht einheitlich festgelegt ist, was eine „geringe Menge“ ist. § 30c BtMG (Vermögensstrafe). Da der § 30c BtMG sich auf Strafgesetzbuch (StGB) bezieht und das Bundesverfassungsgericht mit Urteil vom 20. März 2002 die Vermögensstrafe und somit den StGB für mit Abs. 2 GG unvereinbar und für nichtig erklärte, ist im Ergebnis auch § 30c BtMG nicht anwendbar. Rechtsverwandtschaften. Überblick über das deutsche Betäubungsmittelrecht Thematisch verwandt sind sowohl die gesetzlichen Regelungen zu Grundstoffen als auch zu Medikamenten. Schweiz und Österreich. Das Schweizer Betäubungsmittelgesetz, wird BetmG abgekürzt. In Österreich existiert das Suchtmittelgesetz. BRD. BRD wird für die Bundesrepublik Deutschland als eine nicht offizielle Abkürzung verwendet, mitunter im wissenschaftlichen und insbesondere politischen Kontext analog zum Kürzel „DDR“ während der Epoche von 1949 bis 1990. Amtliche Verlautbarungen der Bundesrepublik beinhalten dagegen diese Abkürzung seit Anfang der 1970er-Jahre nicht mehr. Abkürzung in der Bundesrepublik Deutschland. „Die Bundesrepublik Deutschland setzt – unbeschadet der Tatsache, daß ihre Gebietshoheit gegenwärtig auf den Geltungsbereich des Grundgesetzes beschränkt ist – das Deutsche Reich als Völkerrechtssubjekt unter Wahrung seiner rechtlichen Identität fort. Statt der ausdrücklichen Bezeichnung ‚Bundesrepublik Deutschland‘, die das Grundgesetz festgelegt hat, sollte daher die Kurzform ‚Deutschland‘ immer dann gebraucht werden, wenn die Führung des vollständigen Namens nicht erforderlich ist. […] Die Abkürzung ‚BRD‘ oder die Bezeichnung ‚Bundesrepublik‘ ohne den Zusatz ‚Deutschland‘ sollten nicht benutzt werden. […] Das 1945 von der Sowjetunion besetzte Gebiet Deutschlands westlich der Oder-Neiße-Linie mit Ausnahme Berlins wird im politischen Sprachgebrauch als ‚Sowjetische Besatzungszone Deutschlands‘, abgekürzt als ‚SBZ‘, in Kurzform auch als ‚Sowjetzone‘ bezeichnet. Es ist nichts dagegen einzuwenden, daß auch die Bezeichnung ‚Mitteldeutschland‘ verwendet wird.“ Anfang der 1970er-Jahre begann eine Kontroverse um die Abkürzung, als in einigen Bundesländern der Gebrauch untersagt wurde, da sie durch die häufige Verwendung in der DDR als „kommunistische Erfindung“ und „Agitationsformel“ verfemt sei. Mit der Vermeidung der Abkürzung "BRD" wollte sich die bundesdeutsche Seite vom Sprachgebrauch in der DDR abgrenzen und verhindern, dass west- und ostdeutscher Staat durch analoge Abkürzungen auf eine Stufe gestellt werden. Die Bundesrepublik Deutschland betrachtete sich trotz aller Lockerungen im deutsch-deutschen Verhältnis stets als völkerrechtlich einzig legitimer deutscher Staat (keine völkerrechtliche Anerkennung der DDR), da nur die Regierung der Bundesrepublik Deutschland aus demokratischen Wahlen hervorging. Die Bezeichnung „Deutschland“ beanspruchte sie für Gesamtdeutschland und damit stellvertretend für sich selbst. Durch die fortdauernde Verwendung dieses Begriffs sollte die Existenz einer deutschen Nation – "Deutschland als Ganzes" – im öffentlichen Bewusstsein gehalten werden, um das Staatsziel der Wiedervereinigung nicht zu gefährden. Am 31. Mai 1974 empfahlen dann die Regierungschefs des Bundes und der Länder, „dass im amtlichen Sprachgebrauch die volle Bezeichnung ‚Bundesrepublik Deutschland‘ verwendet werden“ solle. Seit dem 4. Oktober 1976 gibt es einen Runderlass des Kultusministers von Schleswig-Holstein (NBl. KM. Schl.-H. S. 274), der die Abkürzung "BRD" für nicht „wünschenswert“ erklärt. Verwaltungsrechtlich lässt sich die Unerwünschtheit aufgrund der Meinungsfreiheit nicht durchsetzen. Dennoch wurde die Schreibweise „BRD“ bis in die 1990er-Jahre hinein an einigen westdeutschen Schulen als Schreibfehler gewertet. Im Jahr 1977 nahm die GfdS die Abkürzung "BRD" in die Liste der Wörter des Jahres in Bezug zur politischen Kontroverse um die Abkürzung in den 1970er-Jahren auf. Andreas von Schoeler, parlamentarischer Staatssekretär im Bundesministerium des Innern, gab am 30. November 1979 dem Deutschen Bundestag die Auskunft, dass von dem Gebrauch des Akronyms „BRD“ Abstand zu nehmen sei. Nachdem schon in den siebziger Jahren die Kultusministerien einzelner Länder darauf hingewiesen hatten, dass die volle Bezeichnung „Bundesrepublik Deutschland“ im Schulunterricht benutzt werden sollte, fasste die Kultusministerkonferenz (KMK) in ihrer 202. Plenarsitzung am 12. Februar 1981 den Beschluss, die Abkürzung "BRD" in Schulbüchern und kartographischen Werken für den Schulunterricht nicht mehr zu verwenden. Der Beschluss der Kultusministerkonferenz wurde in der Folge von einzelnen Ländern durch Bekanntmachung in ihren Amtsblättern in Landesrecht umgesetzt, so unter anderem in Baden-Württemberg am 14. April 1981 und in Schleswig-Holstein am 4. August 1981. Die amtliche Auffassung zu "BRD" ist einer der wenigen Fälle (siehe auch Orthographie), in dem auf diese Weise versucht wurde, direkt in den bundesdeutschen Sprachgebrauch einzugreifen. Die linksterroristische Rote Armee Fraktion benutzte ebenso die Abkürzung "BRD". In den 1980er-Jahren verband sich im Zusammenhang mit der Flick-Affäre der „gekauften Republik“ das Kürzel auch mit dem polemischen politischen Schlagwort „Bananenrepublik Deutschland“. Abkürzung in der Deutschen Demokratischen Republik. In der Deutschen Demokratischen Republik wurde die Bundesrepublik in den ersten beiden Jahrzehnten der deutschen Teilung meist "Westdeutschland" genannt. Die SED-Führung vermied damit die amtliche Bezeichnung "Bundesrepublik Deutschland". In offiziellen Schreiben wurden daher zeitweise auch die Bezeichnungen „westdeutsche Bundesrepublik“ und „Deutsche Bundesrepublik“ (DBR) gebraucht. Daraus kam vor allem die Analogie zum Staatsnamen "Deutsche Demokratische Republik" (DDR) zum Vorschein, um die von der Sowjetunion postulierte Zwei-Staaten-Theorie zu betonen und den Begriff "Deutschland" für eine gesamtdeutsche Nation offenzuhalten. Als Reflex darauf, dass diese Bezeichnung dann auch in der Bundesrepublik sogar teils von Vertriebenenpolitikern verwendet wurde, wies die Bundesregierung in ihren Bezeichnungsrichtlinien von 1961 „Deutsche Bundesrepublik“ als „terminologisches Pendant zur ‚Zweistaatentheorie‘“ aus, wodurch die Bezeichnung als „inkorrekt“ und „grundsätzlich zu vermeiden“ gebrandmarkt wurde. Auch die ostdeutsche Literatur nahm diese Bezeichnung auf. Dies änderte sich jedoch 1968 mit dem Inkrafttreten der neuen DDR-Verfassung, mit der sich die Deutsche Demokratische Republik vom Ziel der Wiedervereinigung verabschiedete. Seither wurde in der DDR für die Bundesrepublik neben der amtlichen Staatsbezeichnung "Bundesrepublik Deutschland" offiziell verstärkt die Abkürzung "BRD" verwendet. Dies sollte die Gleichberechtigung der beiden Staaten ausdrücken, aber die Bezeichnung verbreitete sich auch im allgemeinen Sprachgebrauch. Konsentierte bundesdeutsche Abkürzungen. In den alten Bundesländern wurden bis zur Deutschen Einheit und werden teilweise auch danach die Abkürzungen "BR Deutschland" (auch "BRep Deutschland"), "BR Dt.", "BR Dtl.", "BRDt.", "BRep.Dtschl.", "BRep. Dtschld.", "B’Rep. Dt.", "B.Rep. Dtld.", "BRep.D", "BR Dtld." oder vereinzelt – soweit kontextbezogen – einfach "BRep." und "Dtld." bevorzugt; eine Verwendung des Kürzels "BRD" war und ist von offizieller Seite nicht erwünscht ("siehe auch Abschnitt" „Heutige Verwendung“). Im mündlichen Sprachgebrauch war der Kurzname "Bundesrepublik" für die Bundesrepublik Deutschland gebräuchlich. Kfz-Nationalitätszeichen. Mit der Gründung der Bundesrepublik Deutschland und der DDR entstand ein Streit über die Zuteilung des bisherigen Kraftfahrzeug-Nationalitätszeichens "D" für Deutschland, auch „D-Schild“ genannt. Die Deutsche Demokratische Republik war mit der Zuteilung von „DDR“ einverstanden, verlangte aber von der Bundesrepublik die Verwendung der Abkürzung „BRD“ als Folge der Teilung. Aufgrund des Alleinvertretungsanspruches und der (Teil-)Identität mit dem Deutschen Reich bestand die Bundesrepublik aber weiterhin auf dem "D" als Kennzeichen und konnte sich international auch durchsetzen. Um übrigen Forderungen nach einer Abkürzung "BRD" entgegenzutreten, wurde deren Verwendung im amtlichen Schriftverkehr der Bundesrepublik Deutschland verboten und war im allgemeinen Sprachgebrauch nicht erwünscht. In der DDR wurde ab dem 1. Januar 1974 das Nationalitätskennzeichen "DDR" vorgeschrieben, vorher wurde auch dort das Zeichen "D" verwendet. Dieser Umstand führte zur Namensgebung des westdeutschen Fernsehmagazins "Kennzeichen D", das über Aktuelles in Ost und West berichtete. Vereinzelt tauchten Fahrzeuge mit einem Länderkennzeichen „BRD“ als politische Meinungsäußerung auf, teilweise zusätzlich mit dem D-Schild. Internationale Abkürzungen. International waren und teilweise sind die entsprechenden Abkürzungen wie FRG (für "Federal Republic of Germany") im Englischen und RFA "(République Fédérale d’Allemagne)" im Französischen üblich. Die russische Abkürzung ФРГ (für "Федеративная Республика Германия, Federatiwnaja Respublika Germanija") ist auch heute noch sehr gebräuchlich. Heutige Verwendung. Seit dem Ende des Kalten Krieges Ende des 20. Jahrhunderts und mit der deutschen Wiedervereinigung hat die Diskussion um die Abkürzung "BRD" ihre Brisanz verloren. So setzt der Duden seit den 1990er-Jahren „BRD“ mit „Bundesrepublik Deutschland“ gleich, während er zu Zeiten des Kalten Krieges noch darauf bestand, dass es sich um eine „nichtamtliche Abkürzung“ handelte. Seitdem verwendet zuweilen auch die dem Bundesinnenministerium unterstellte Bundeszentrale für politische Bildung auf ihren Webseiten und bei der Veröffentlichung wissenschaftlicher Publikationen die nicht unumstrittene Abkürzung "BRD". Regelmäßig wird die Abkürzung auch in den Medien verwendet, z. B. in der "Frankfurter Allgemeinen Zeitung", in der "Süddeutschen Zeitung" oder in der "Welt", auch wenn sie sich inzwischen auf das vereinte Deutschland bezieht. Gelegentlich wird heute noch von Rechtsextremisten wie Horst Mahler sowie von Nationalisten die Abkürzung "BRD" verwendet, um darzustellen, dass aus ihrer Sicht die Bundesrepublik Deutschland zum einen vermeintlich nur einen Teil Deutschlands (jenes in den Grenzen von 1937) umfasse – in revanchistischen Kreisen misst man dem deutsch-polnischen Grenzvertrag zu den ehemaligen deutschen Ostgebieten von 1990 keine Bedeutung zu – und zum anderen kein souveräner Staat sei, sondern lediglich eine „Organisationsform einer Modalität der Feindmächte des Deutschen Reiches“ "(OMF-BRD)" – in Anlehnung an den von Carlo Schmid 1948 geprägten Begriff der „Organisationsform einer Modalität der Fremdherrschaft“. Außerdem wird das Kürzel verwendet in Darstellungen, die die Bundesrepublik als illegitimen Staat ansehen, dessen Regierung so genannte „Kommissarische Reichsregierungen“ gegenübergestellt werden. Ähnlicher Streitfall. Eine vergleichbar ideologisch geführte Diskussion gab es um die Begriffe "Berlin (West)", "West-Berlin" und "Westberlin" mit der Abkürzung "WB". Die in Berlin (West) und der Bundesrepublik Deutschland („Westdeutschland”) benutzte Klammerkonstruktion sollte die Einheit der Stadt Berlin, die in zwei Teile geteilt war, klarstellen. Seitens der DDR wurde durch die Zusammenschreibung „Westberlin“ versucht, den Eindruck eines eigenständigen geographischen (wie z. B. Westindien) und politischen Gebietes ("„Selbständige politische Einheit Westberlin“") zu schaffen, und dieses von "Berlin, Hauptstadt der Deutschen Demokratischen Republik" abzugrenzen. Ebenso ergab sich eine politische Debatte um den Begriff „Westdeutschland“ oder auch hinsichtlich dessen, dass die DDR nicht Ausland zur Bundesrepublik sein könne, um die Abkürzung „DDR“, die z. B. in der Springer-Presse nur in Anführungszeichen verwendet wurde. Berlin-Alt-Treptow. Alt-Treptow ist ein Berliner Ortsteil und einer der Namensgeber seines Bezirks Treptow-Köpenick. Alt-Treptow grenzt im Südwesten an den Ortsteil Neukölln, im Nordwesten an Kreuzberg, im Nordosten an Friedrichshain sowie nach Südosten an Plänterwald. Es ist ein alter Knotenpunkt der Straßen-, Wasser- und Schienenwege der Stadt Berlin. Geschichte. In dem Gebiet sind einige Spuren von Jägern und Sammlern aus der Mittelsteinzeit überliefert. Eines der ältesten Spuren ist eine facettierte Hammeraxt aus dem Neolithikum, die im Schlesischen Busch gefunden wurde. Die Facettierung weist darauf hin, dass sie der mitteldeutschen Schnurkeramik zuzurechnen ist. Eine erste dauerhafte Besiedlung des Gebiet im heutigen Alt-Treptow konnte auf das 6. oder 7. Jahrhundert von Slawen (Wenden) datiert werden. Der Name bezog sich anfangs wohl auf die Flusserweiterung südlich des Rummelsburger Sees und hatte verschiedene Varianten (Trebow, Trebkow, Trebikow, Trepkow). Im Laufe der Zeit ging die Bezeichnung auf eine Fischereisiedlung über, die sich in dem waldreichen Gebiet an einer fischreichen Stelle angesiedelt hatte. Die Bewohner nannten die Siedlung ausweislich einer Kämmereirechnung aus dem Jahr 1568 „Der Trebow“. Einige Quellen führen als Ursprung für den Wortstamm die slawischen Worte „drewo“ (‚Laubholz‘) bzw. „drewko“ (‚kleines Laubholz‘) an, während andere Quellen auf das Wasser („Treptau“) abzielen. Überlieferungen zufolge befindet sich heute an der Stelle das Gasthaus "Zenner". Die Rechnung führt weiterhin aus, dass die Bewohner für das Recht, Fischerei zu betreiben, 24 Groschen Wasserzins und 32 Groschen Heidegeld für die Bienenzucht an die Stadt entrichten mussten. 1590 führt ein Protokoll der Stadt aus: „An Trebkow … hat der Rath zu Cölln ein Heußlein und an dem Fließ, so von Rixdorf in die Spree gehet, zwo mehr“. Weitere Ansiedlungen sind nicht bekannt, zumal die Gegend vor der Stadtmauer als unsicher galt. Der Floßgraben, später als "Landwehrgraben" bezeichnet, heute verläuft dort der Landwehrkanal, bildete die Stadtgrenze von Berlin und diente zur Entwässerung der Feldmark. Südlich dieses Grabens erstreckte sich die Cöllnische Heide, früher auch "Mirica" genannt. Markgraf Otto III. von Brandenburg hatte dieses Gebiet entlang der Spree mit allen Rechten und Nutzungen der Bürgerschaft Cölln als vererbbaren Besitz überschrieben, verfügte die damals noch junge Stadt über wenig Bauholz. Zum nördlichen Teil, auch Vorderheide oder Birkheide genannt, gehörte auch das heutige Alt-Treptow; der südliche Teil, einschließlich der 1435 vom Johanniterorden erworbenen Spreeheide (auch "Hinterheide" genannt) dehnte sich bis zum Köpenicker Forst aus, die Grenze bildete das sogenannte "Kannefließ". Dieses Gebiet entspricht ungefähr dem heutigen Ortsteil Baumschulenweg. Bei der Vereinigung von Alt-Berlin, Cölln, Friedrichswerder, Dorotheenstadt und Friedrichstadt zur "Königlichen Haupt- und Residenzstadt Berlin" 1709 kam die bis dahin auch als "Stadtforst" bezeichnete Cöllnische Heide zu Berlin. Vorwerk Treptow. Um 1261 überließ der Ritter Rudolf von Stralau das Vorwerk Treptow, als dessen Vorbesitzer Templer genannt werden und das bis ins 19. Jahrhundert noch als "Burgwall" bezeichnet wurde, der Stadt Cölln. 1568 findet es sich dort auf einer Kämmereirechnung unter dem Namen "Trebow," mit der die Existenz eines Fischerhauses belegt wird. Dieses lag vermutlich an der Mündung des bis heute existierenden Heidekampgrabens und war wahrscheinlich auch der Fischereibetrieb, der ab 1602 von der Stadt Cölln getragen wurde und die dort einen Fischer anstellte. Im 17. Jahrhundert finden sich in den Kämmereirechnungen der Stadt Cölln keine Erwähnungen, sodass zu vermuten ist, dass dieser Betrieb im Zuge des Dreißigjährigen Kriegs aufgegeben wurde. Stattdessen eröffnet 1653 "Erdtmann Schmoll", kurfürstlicher Küchenmeister, einen Wein- und Bierausschank. 1707 kam es durch den ehemaligen Cöllner Bürgermeister "Johann Lauer" zu einer Neuansiedlung mit Stallung, Scheune und Nebengebäude; dieser Flecken wurde als "Vorwerck Trepkow" oder "Vorwerk Treptow" bezeichnet. Er plante, die Siedlung für die kommenden neun Jahre für eine Pacht von 40 Talern pro Jahr zu bewirtschaften. Aus gesundheitlichen Gründen musste er die Siedlung nach vier Jahren jedoch wieder abgeben, woraufhin der Magistrat einen anderen Pächter suchen musste. 1727 eröffnete der damalige Förster einen weiteren Bierausschank und trug damit dem Trend Rechnung, dass immer mehr Berliner die Region vor den Toren der Stadt für Ausflüge und zur Freizeitgestaltung nutzten. 1730 war die Ansiedlung schon erweitert um ein Backhaus, ein Brauhaus und eine Windmühle. Vier Jahre später erweitere der Förster das Gebäude, die "Spreebudike", um eine Kegelbahn, eine Kaffeeschenke und ein zweites Stockwerk. Auf diesem Areal stand später auch das Gasthaus "Zenner". Erweitert um sechs Grundstücke, die 1779 Siedlern zugesprochen wurden, wurde die Ansiedlung als "Kolonie Treptow" bezeichnet. Die Kolonisten betrieben ebenfalls Ausflugslokale und prägten das geflügelte Wort „Hier können Familien Kaffee kochen“. Bereits 1752 entstanden am damaligen Floßgraben auf der Treptower Seite zwei Lohmühlen (Lutze und Busset) im Gebiet der heutigen Lohmühlenstraße. Diese war damals eher ein ausgetretener Pfad, der sich 1783 erstmals als Kohlhorstweg auf einer Karte eingezeichnet findet, vom Schlesischen Tor nach Rixdorf führend. Gutsbezirk Treptow. Das Gebiet trug 1808 die amtliche Bezeichnung "Gutsbezirk Treptow." Hierzu gehörten das Alte Vorwerk aus dem Jahr 1779, die drei Doppelhäuser der sächsischen Kolonisten sowie die Gaststätte "Spreebudike". Dieser Komplex wurde 1817 aufgelöst; dort entstand 1821/1822 das "Magistrats-Kaffeehaus Treptow," später dann das heutige "Zenner." Im Jahr 1823 beschloss der Magistrat, große Teile der Cöllnischen Heide abzuholzen. Als Grund gab man an, dass der Forst unrentabel geworden sei und darüber hinaus der Diebstahl an Bau- und Brennholz übernommen habe. Die Kämmereikasse erhoffte sich Einnahmen in Höhe von rund 100.000 Talern; offiziell überliefert sind 99.825 Taler, während andere Quellen von nur 83.325 Talern sprechen. Ausgenommen wurden nur der Schlesische Busch und der Alte Treptower Park. Die freigewordenen Flächen wurden anschließend vom Magistrat vermarktet, wobei es hier zu Grundstücksspekulationen gekommen sein soll. Bauern, die auf den zuvor kommunalen Flächen Ackerbau und Viehzucht betrieben hatten, beriefen sich auf ein Gewohnheitsrecht und forderten vom Magistrat Ersatzansprüche. 1840 war die Rodung abgeschlossen, und da in der Folge die privaten Grundstücke auch erschlossen werden mussten, wurden 1842 erstmals Straßen benannt: der "Lohmühlen-Weg" (heute: Lohmühlenstraße), der nach der Familie Bouché benannte "Bouché-Weg" (heute: Bouchéstraße), der "Kiefholz-Weg" (heute: Kiefholzstraße), die "Elsen-Allee" (heute: Elsenstraße), die "Treptower Allee" (heute: Puschkinallee), die "Park-Allee" (heute: Bulgarische Straße) und die Neue-Krug-Allee. Der Bereich westlich der "Köpenicker Landstraße" (heute: Am Treptower Park) bis zu den später gelegten Eisenbahngleisen und zwischen "Elsen-Allee" und "Bouché-Weg" wurde als Exerzierplatz für die Berliner Garnison der Preußischen Armee genutzt. Wald, Heide und die Spree waren schon seit dem 18. Jahrhundert Anziehungspunkte für Ausflügler aus Berlin. Seit 1864 gab es dann auch Dampfschifffahrten zwischen der Anlegestelle Jannowitzbrücke und Treptow. Das "Zenner" entwickelte sich zu einem Sammelpunkt der Ausflügler, weitere Kaffee-, Bier- und Gartenlokale kamen hinzu und Treptow wurde zu einem beliebten Ausflugsziel der Berliner. Als Wohnort war der Gutsbezirk Treptow jedoch lange Zeit nicht beliebt, da der Untergrund sich nicht zum Bauen eignete. Treptow liegt im Tal der Oberspree und ist Teil des Berliner Urstromtals. Es gab zur damaligen Zeit noch alte vertorfte Spreearme und sumpfigen Boden. Im Herbst und Frühjahr waren große Teile Überschwemmungsgebiet. Straßen und Bahnstrecken wurden deshalb auf Dämmen geführt. Dies änderte sich mit der Rodung der Cöllnischen Heide. Erstmals findet sich 1842 die Bezeichnung "Lohmühlenweg" in einem amtlichen Dokument. Die nach der Abholzung der Cöllnischen Heide entstehenden Grundstücke waren vom Boden her gut für den Pflanzenanbau geeignet, sodass sich entsprechende Betriebe ansiedelten. Um 1875 waren auf dem Gebiet zwischen der heutigen Lohmühlen- und der Elsenstraße, westlich des Exerzierplatzes und der Berlin-Görlitzer Bahnlinie, die in den 1860er Jahren gebaut wurde, hauptsächlich Gärtnereien angesiedelt. Östlich der Bahnlinie, an der heutigen Jordanstraße, befanden sich die Gebäude der 1850 gegründeten "Chemischen Fabrik von Dr. phil. Jordan," dem ersten Industriebetrieb Treptows. Später hatte die "Actien-Gesellschaft für Anilin-Fabrikation" (Agfa) dort ihren Sitz. Zwischen der Treptower Chaussee und der Spree, nach Norden hin am Landwehrkanal gelegen, siedelte sich 1859 die Fabrik für Landmaschinen von Carl Beermann an. Seine Söhne, die Gebrüder Hermann und Georg Beermann, verlegten 1872 den erweiterten Firmensitz in die Eichenstraße. 1924 wurde die Beermannsche Fabrikationsstätte von der "Allgemeinen Berliner Omnibus-Aktien-Gesellschaft" (ABOAG) übernommen und für den Bau und die Reparatur von Autobussen genutzt. An diese evangelische Unternehmerfamilie jüdischer Herkunft erinnerte von 1904 bis 1938 die Beermannstraße, die seit 1947 wieder diesen Namen trägt. Nach 1860 übernahm die "Lederfabrik Kampffmeyer" (später: "Firma Dr. M. J. Salomon & Co.)" eine der beiden dort vorhandenen Lohmühlen, nämlich die Bussetsche Lohmühle. Die 1866 als Handwerksbetrieb gegründete Firma "Ehrich & Graetz" stellte bis 1902 vor allem Petroleumlampen her und entwickelte sich zu einem international gefragten Unternehmen für Gasbeleuchtungstechnik und Gasbrenngeräte. Mit ihren Grätz-Laternen trug die Firma maßgeblich zur ersten Berliner Straßenbeleuchtung bei. Von 1907 bis 1962 trug die bedeutendste Einkaufsstraße Alt-Treptows den Namen Graetzstraße, nunmehr erinnert diese an den 1943 hingerichteten Treptower Arbeiter und Widerstandskämpfer Karl Kunger. Landgemeinde Treptow. Am 22. Januar 1876 wurde der Gutsbezirk Treptow durch einen königlichen Erlass in die Landgemeinde Treptow umgewandelt, die dem Landkreis Teltow angehörte. Das Gebiet entsprach etwa den heutigen Ortsteilen Treptow, Plänterwald und Baumschulenweg. 1876 bestand die Landgemeinde aus 37 Grundstücken und hatte 567 Einwohner. Die seit der Mitte des 19. Jahrhunderts entstandenen ersten Industrieansiedlungen brachten zusätzliche finanzielle Mittel, sodass Treptow nicht nur vom Ausflugsverkehr profitierte. Zwischen 1876 und 1878 legte Gustav Meyer den Treptower Park an. Aufgrund der gestiegenen Popularität der Landgemeinde wurde 1878 eine Pferdebahn vom Spittelmarkt bis nach Alt-Treptow eingerichtet. Im Zuge der Vorbereitung der Großen Berliner Gewerbeausstellung 1896 kam es in der Landgemeinde Treptow zu zahlreichen Infrastrukturänderungen und -verbesserungen. Viele Straßen wurden angelegt und befestigt, der öffentliche Nahverkehr wurde ausgebaut. Im Jahr 1895 wurde zwischen Treptow und Stralau, etwas nördlich von der heutigen Insel der Jugend, der eingleisige Spreetunnel Stralau–Treptow gebaut. Er war ein erster Versuch für den Bau einer städtischen Untergrundbahn in Berlin. Der Tunnel hatte eine Länge von 454 Metern, davon verliefen 200 Meter unter der Spree; der tiefste Punkt der Röhre lag zwölf Meter unter dem Wasserspiegel. Am 17. Juli 1899 fand eine erste Probefahrt statt, am 18. Dezember wurde der reguläre Betrieb der sogenannten Knüppelbahn aufgenommen. 1931 wurde der Bahnverkehr wegen gefährdeter Verkehrssicherheit eingestellt. Danach durfte der Tunnel noch von Fußgängern benutzt werden, im Zweiten Weltkrieg diente er als Luftschutzraum. Am 26. Februar 1945 wurde er zerstört und geflutet. Aus Anlass der Gewerbeausstellung wurde auch eine (zunächst nur temporär vorgesehene) Sternwarte gebaut, ausgestattet mit dem bis heute längsten Linsenfernrohr der Welt (21 Meter Länge). Sie wird nach ihrem Mitgründer Friedrich Simon Archenhold Archenhold-Sternwarte genannt. In der Lohmühlenstraße 52 entstand 1899 zwischen der Heidelberger Straße und der Isingstraße das Gebäude, in dem sich bis 1945 das Postamt Berlin SO 36 befand. Es war für fast den gesamten Ortsteil Treptow und große Teile von Kreuzberg zuständig und wurde im Zweiten Weltkrieg zerstört. Im nördlichen Teil wurden in der zweiten Hälfte des 19. Jahrhunderts die Mietshäuser des Wilhelminischen Rings gebaut. Ebenfalls 1899 zog die Lampen-Fabrik Ehrich & Graetz OHG in den neu gebauten Gebäudekomplex in der Elsenstraße um. Von 1902 bis 1903 wurde der Rixdorfer Stichkanal ausgehoben, der an der heutigen Lohmühlenbrücke begann und bis zur Ringbahn verlief. 1912 bis 1913 wurde er bis zum Teltowkanal verlängert und heißt heute Neuköllner Schifffahrtskanal. Durch den Bau des Kanals senkte sich der Grundwasserspiegel um durchschnittlich etwa zwei Meter, teilweise mehr. Durch die Inbetriebnahme von vielen Tiefbrunnen sank das Grundwasser noch weiter. Der Standort wurde für die Gärtnereien aufgrund der gestiegenen Bewässerungskosten wirtschaftlich uninteressant, die Grundstücke ließen sich jedoch gewinnbringend verkaufen. Nachdem innerhalb kurzer Zeit viele Gärtnereien ihre Betriebe verlegt oder aufgegeben hatten, entstanden an der Lohmühlenstraße Holzlagerplätze, Sägewerke, Zimmereien und Baustoffgroßhandlungen, später auch Kohlenlagerplätze der "Hedwigshütte Kohlen- und Kokswerke AG". Die Lage am Landwehrkanal war gut geeignet, die Bau- und Brennstoffe bis in die Nähe des Stadtkerns zu transportieren. Die Metallwaren- und Laternenfabrik "Fritz Weber & Co." als „Laternen-Weber“ bekannt, begann 1907 in der Graetzstraße 68 (heute Karl-Kunger-Straße) mit der Produktion. Auch der Fabrikkomplex an der Jordanstraße entwickelte sich weiter. 1901 wurden die noch bestehenden Gebäude zwischen der Jordanstraße und dem Görlitzer Damm, zur Lohmühlenstraße hin, erbaut. 1905 waren bei der "Agfa Treptow" fast 2000 Arbeitnehmer beschäftigt. Im Ersten Weltkrieg wurde dort unter anderem auch Giftgas hergestellt. Um die Jahrhundertwende begann die Verlagerung großer Teile der Produktion in die "Agfa-Film- und Farbenfabrik" in Wolfen bei Bitterfeld. Ab 1908 wandelte sich der Exerzierplatz zwischen Elsenstraße und Bouchéstraße in ein Kasernengelände für die Kavallerie-Telegraphen-Schule und das Königlich Preußische Telegraphen-Bataillon Nr. 1. Bildung des Bezirks Treptow. Die Landgemeinde Treptow hatte auf Grund ihres starken Wachstums finanzielle Probleme, vor allem durch die notwendig gewordenen Infrastrukturmaßnahmen. Schon seit 1910 stand die Eingemeindung in die Stadt Berlin zur Debatte. Nach dem Ersten Weltkrieg verschärften sich diese Probleme zusehends. 1920 wurde der Bezirk Treptow gebildet und nach Groß-Berlin eingemeindet. Er reichte südlich bis Bohnsdorf. Der Ortsteil Treptow umschloss dabei das Gebiet zwischen Kreuzberg, Neukölln, Stralau und der Ringbahn zuzüglich des Treptower Parks. Dieser Ortsteil trägt heute die Bezeichnung "Alt-Treptow." Zwischen den Weltkriegen. Auf dem Kasernengelände, nach dem Ersten Weltkrieg formal dem Berliner Polizeipräsidenten unterstellt, wurde in den 1920er Jahren die Polizei untergebracht. Im Jahr 1925 wurden ehemalige Hallen der Landmaschinenfabrik der Gebrüder Beermann von der "Allgemeinen Berliner Omnibus-Actiengesellschaft" (ABOAG) erworben und als Betriebshof für den Omnibusbetrieb verwendet. Das Gelände zwischen der Hoffmannstraße und der Spree gegenüber dem Bahnhof Treptow diente bis 1926 als Holzlagerplatz der Firma Kempfer und Lucke. In diesem Jahr wechselte es den Besitzer und der AEG-Konzern errichtete dort das Apparatewerk Treptow. Im Agfa Firmenkomplex verblieben in den 1930er Jahren noch Agfa-Foto und Verkaufseinrichtungen des "I.G.-Farben-Konzerns." Ab 1934 zog dort die Waffenfabrik Treptow der "Gustav Genschow und Co. AG" ein. Nach der „Machtergreifung“ der Nationalsozialisten wurde auf dem Gelände der Kaserne die „Heereswaffenmeisterschule“ der Wehrmacht untergebracht, die hier Waffen und Munition zur Panzerabwehr erprobte. Gebäude des ehemaligen Rüstungsbetriebs Fritz Weber und Co. Kiefholz- Ecke Lohmühlenstraße (2005) Von 1935 bis 1940 wurde an der Ecke Kiefholz-/Lohmühlenstraße ein neuer Fabrikkomplex für das Unternehmen "Fritz Weber & Co." errichtet. Weber selbst war Wehrwirtschaftsführer und Mitglied der NSDAP. Es wurden dort von mehr als 2300 Arbeitern und Angestellten Kriegsmaterialien gefertigt. Zwangsarbeiter wurden beschäftigt, die aus den ebenfalls in der Lohmühlenstraße gelegenen Zwangsarbeiterlagern („Ostarbeiterlager Lohmühlenstraße 23/24“ und „Ausländerlager Lohmühlenstraße 55“) rekrutiert wurden. Die "Kistenfabrik Reschke" übernahm 1931 den Standort der "Dr. M. J. Salomon & Co." Zeit der DDR. Alter Grenzwachturm am Schlesischen Busch, 2005 Im Treptower Park befindet sich das Sowjetische Ehrenmal, das von Juni 1946 bis 1949 erbaut und am 8. Mai 1949 eingeweiht wurde. Die sowjetische Denkmal-Bauverwaltung hatte sich in dem nahen Kasernengelände Am Treptower Park bis 1951 einquartiert. Polizeikräfte waren ebenfalls wieder auf dem Gelände stationiert; nach 1949 die Volkspolizei. Im Jahr 1962 übernahmen die DDR-Grenztruppen die Kaserne. Die Gebäude des "Apparatewerks Treptow" der AEG dienten in der DDR dem Stammbetrieb des "Volkseigenen Kombinats Elektro-Apparate-Werke Berlin-Treptow" (EAW). Im ehemaligen Agfa-Firmenkomplex an der Jordanstraße waren nach der "Waffenfabrik Treptow" später der "VEB Steremat" und Abteilungen des "Großhandelsbetriebs Sport und Kulturwaren" ansässig. Der "Rüstungsbetrieb Weber" wurde nach 1945 enteignet. In dem Komplex Lohmühlen-/Kiefholzstraße siedelte sich der Fertigungsbereich 3 des "VEB Berliner Werkzeugmaschinenfabrik" (BWF) an. Die Mauer. Fischerei an der Oberen Freiarchenbrücke, 1987 Am 13. August 1961 wurde die Grenze zwischen Alt-Treptow und den West-Berliner Bezirken Kreuzberg und Neukölln hermetisch abgeriegelt. Zwischen dem 13. und 23. August 1961 gab es für zehn Tage an der Puschkinallee und an der Elsenstraße Grenzübergänge nach Kreuzberg bzw. Neukölln. Die Berliner Mauer verlief, um wenige Meter nach hinten versetzt, entlang des Flutgrabens, des Landwehrkanals, der Harzer Straße, der Bouchéstraße, der Heidelberger und der Treptower Straße zur Kiefholzstraße. Kurioserweise lag das nordöstlichste Gebäude des Bezirks, die Fischerei an der Oberen Freiarchenbrücke, somit jenseits der Mauer und war nur vom Westen aus zugänglich. Die Wachtürme waren so angeordnet, dass der Todesstreifen von dort aus durchgängig einzusehen war. Als einer der wenigen in der Stadt ist der – eher untypische – Turm der ehemaligen Führungsstelle im „Schlesischen Busch“ erhalten geblieben. An der Görlitzer Bahn erlaubte ein Tor in der Mauer den Transit von Güterwagen zwischen dem in Neukölln gelegenen Güterbahnhof Berlin-Treptow und auf dem Gelände des Görlitzer Bahnhofs verbliebenen Gewerbebetrieben. Dieser Übergang war mit einer Beschaubrücke und zwei flankierenden Wachtürmen gesichert. Der Streifen zwischen dem Kanal und der Mauer wurde, insbesondere im etwas breiteren Abschnitt zwischen der über den Flutgraben führenden Treptower Brücke und der Bahntrasse, von den mit Grünanlagen damals nicht verwöhnten Kreuzbergern gern zum Sonnenbaden, in den letzten Jahren des Bestehens der Mauer sogar als „wilder Zeltplatz“, genutzt. Der provisorische Fußgängersteg an der Stelle der ehemaligen Wiener Brücke verlor mit dem Mauerbau seine Funktion. Die Balkone der auf dieser Seite der Lohmühlenstraße gelegenen Häuser öffneten sich zum Todesstreifen hin bzw. ragten in diesen hinein. Am "Lohmühlenplatz" wurde dem Westen 1988 im Rahmen eines Gebietsaustausches zwischen der DDR und West-Berlin ein Stück des Bezirks abgetreten, was für West-Berliner über die Lohmühlenbrücke eine bessere Zufahrt zum Neuköllner Gebiet um die "Harzer Straße" ermöglichte. Am 11. Juni 1962 gelang 55 Ost-Berlinern die Flucht durch einen etwa 75 Meter langen Tunnel, der von einem Lokal an der Ecke Heidelberger/Elsenstraße gegraben wurde. Dieser Tunnel wurde im Oktober 2004 bei Bauarbeiten wiederentdeckt. Auch andere Fluchtwillige nutzten die günstige Lage des schmalen Todesstreifens an der beidseitig bebauten Heidelberger Straße. So gelang am 17. März 1962 eine Flucht mit Hilfe einer Leiter, 1963 wurde bei einem Fluchtversuch mit einem Schützenpanzer der Flüchtende durch Schüsse schwer verletzt. Eine spektakuläre Flucht gelang 1983 über die Bouchéstraße an einem Seil von Haus zu Haus. Nahe der Kiefholzstraße Ecke Treptower Straße befand sich das zweite, ebenfalls streng bewachte Tor für die Übergabezüge nach Kreuzberg. Nach dem Mauerfall. Das Kasernengelände zwischen Elsenstraße und Bouchéstraße wurde 1990 von der Bundeswehr übernommen. In einem Teil der Kaserne wurden Asylsuchende untergebracht. Von 1996 bis 1999 wurden die Gebäude der Kaserne denkmalgerecht saniert, seitdem ist ein Teil des Bundeskriminalamtes und des Verfassungsschutzes dort untergebracht. Die Hallen der ehemaligen "Landmaschinenfabrik Gebrüder Beermann" dienten noch bis 1993 als Betriebshof für den Omnibusbetrieb, heute dienen sie unter dem Namen Arena Berlin als Ort für Großveranstaltungen. Der Industriekomplex Lohmühlen-/Kiefholzstraße südlich der Lohmühleninsel wurde nach 1990 rekonstruiert und steht unter Denkmalschutz. Dort haben sich Firmen aus dem Bereich des Kommunikationsdesigns angesiedelt. 1992 erfolgte die Sanierung des denkmalgeschützten Agfa-Komplexes an der Jordanstraße durch eine private Stiftung. Die letzten russischen Truppen wurden 1994 im Treptower Park verabschiedet. 1997 wurde der Ortsteil Plänterwald gebildet. Dafür trat Alt-Treptow mehr als zwei Drittel seines Gebietes an diesen Ortsteil ab. Ebenfalls in den 1990er Jahren wurden die "Treptowers" auf dem ehemaligen Gelände des "Apparatewerks Treptow" des AEG-Konzerns errichtet, deren höchstes Gebäude mit 17 Stockwerken und 125 Metern Höhe die Traufhöhe der umliegenden Bebauung deutlich übersteigt und damit eine Landmarke in diesem Gebiet darstellt. Einzelnachweise. AltTreptow Berlin-Schöneberg. Schöneberg ist ein Ortsteil im Berliner Bezirk Tempelhof-Schöneberg. Bis Ende 2000 gab es einen eigenständigen Bezirk Schöneberg, der neben dem namensgebenden Ortsteil noch den Ortsteil Friedenau umfasste. Der Bezirk Schöneberg wurde am 1. Januar 2001 im Rahmen einer Verwaltungsreform mit dem damaligen Bezirk Tempelhof fusioniert. Da Tempelhof mehr Einwohner und eine größere Fläche als Schöneberg hat, wurde Tempelhof bei der Wahl des Namens für den neu formierten Bezirk Tempelhof-Schöneberg an die erste Stelle des Namens gestellt. Geografie. Schöneberg ist ein dicht bebauter innerstädtischer Ortsteil von Berlin und liegt am Übergang des Berlin-Warschauer Urstromtals zur Hochfläche des Teltow. Der damit verbundene Anstieg ist an mehreren Stellen im Ortsteil wahrnehmbar, vor allem auf der Hauptstraße zwischen U-Bahnhof Kleistpark und dem Kaiser-Wilhelm-Platz. Auf Schöneberger Gebiet erstreckt sich außerdem der östliche Ausläufer eines Nebenarms der glazialen Rinne der Grunewaldseenkette, der im Rudolph-Wilde-Park gut sichtbar ist. Im Norden grenzt Schöneberg an Tiergarten, im Osten an Kreuzberg und Tempelhof, im Süden an Steglitz, im Westen an Friedenau und Wilmersdorf sowie im Nordwesten an Charlottenburg. Gründung und Namensherkunft. Schöneberg wurde wahrscheinlich im ersten Drittel des 13. Jahrhunderts als breites Straßendorf durch deutsche Siedler gegründet. Der Siedlungskern Schönebergs lag entlang der Hauptstraße zwischen der heutigen Dominicus- und Akazienstraße. Die Dorfkirche Schöneberg lag auf der nördlichen Straßenseite der Dorfmitte. Das Dorf wurde urkundlich erstmals am 3. November 1264 erwähnt, als Markgraf Otto III. dem Nonnenkloster zu Spandau fünf Hufen Land im Dorf Schöneberg („villa sconenberch“) schenkte. Obwohl Schöneberg auf einer leichten Erhebung am Nordrand des Teltow liegt, geht der Name wahrscheinlich nicht auf diesen „Berg“ zurück, sondern ist ein sogenannter „Wunschname“. Anders als früher dargestellt, war die deutsche Ostsiedlung nicht auf einen ostwärts drängenden Bevölkerungsüberschuss zurückzuführen. Um zum Zwecke der Herrschaftsbildung Siedler anzulocken, warben die Lokatoren für die zu gründenden Dörfer u. a. mit Wunschnamen. Typisch sind Ortsnamen mit "Schön-, Licht-, Grün-, Rosen-, Sommer-" und "Reichen-" in vielen Varianten. Eine Namensübertragung vom Heimatort der Zuzügler ist wenig wahrscheinlich, weil die Wunschnamen weit verbreitet waren. Im Landbuch Karls IV. (1375) wird "Schonenberge/Schonenberch/Schonenberg" mit 50 Hufen erwähnt, davon zwei Pfarrhufen und eine Kirchenhufe. Der Bürger Reiche "(Ryke/Rike)" aus Cölln und sein Bruder hatten zehn abgabenfreie Hufen, die sie selbst bewirtschaften, desgleichen der Cöllner Bürger "Parys" mit zwölf Hufen. Die Rechte auf Abgaben und Leistungen waren unter zahlreichen Berechtigten stark aufgeteilt. "Parys" hatte offenbar die meisten Rechte. Es gab 13 Kossätenhöfe und einen Krug. In den Jahren 1591, 1652 und 1721 wurde ein Setzschulze erwähnt, zunächst mit vier, später mit drei Freihufen. 1652 endete die Grundherrschaft des Spandauer Nonnenklosters. Schöneberg von 1700 bis 1870. Um 1750 ließ Friedrich II. entgegen dem Willen der Schöneberger direkt anschließend an Schöneberg ein zweites Dorf für die Ansiedlung böhmischer Weber errichten. Dieses wurde "Neu-Schöneberg" genannt und erstreckte sich an der Hauptstraße bis zur heutigen Grunewaldstraße. Erst als im Siebenjährigen Krieg am 7. Oktober 1760 abziehende russische Truppen Schöneberg niederbrannten, kamen sich deutsche und böhmische Schöneberger näher, als zum Überleben nachbarschaftliche Hilfe notwendig war. Aber erst 1874 erfolgt unter Gemeindevorsteher Adolf Feurig der Zusammenschluss von Alt- und Neu-Schöneberg zu einer Gemeinde. "Das große Feld" war ein Gebiet östlich der heutigen Naumannstraße, auf dem Schöneberger Bauern Kartoffeln und Getreide anbauten. Es wurde 1828 vom preußischen Militär aufgekauft. 1830 wurde eine Pferderennbahn erbaut, die aber schon 1841 dem Eisenbahnbau weichen musste. In der Mitte des 19. Jahrhunderts wuchs die Stadt Berlin über ihre Grenzen in das Schöneberger Gebiet hinein. Trotz Protesten Schönebergs wurde auf Anordnung des Königs Wilhelm I. das Gebiet bis zum südlichen Ende der Potsdamer Straße zum 1. Januar 1861 nach Berlin eingemeindet und bildete dort fortan die "Schöneberger Vorstadt". Die Einwohnerzahl Schönebergs sank durch diese Maßnahme von über 8.000 auf 2.700. Schöneberg im Kaiserreich. Nach der Reichsgründung im Jahr 1871 stieg die Einwohnerzahl Schönebergs rasant an: 1871 waren es 4.555, im Jahr 1900 bereits 95.998 und im Jahr 1919 schon 175.093 Einwohner. Viele der ehemaligen Schöneberger Bauern wurden reich, indem sie ihre Felder in begehrtes Bauland umwandelten und verkauften. Man nannte sie die „Millionenbauern“. Innerhalb weniger Jahrzehnte wurde so aus einem märkischen Dorf eine Großstadt. Am 1. April 1898 bekam Schöneberg die lange ersehnten Stadtrechte verliehen. Exakt ein Jahr später schied es als Stadtkreis aus dem Landkreis Teltow aus. 1898 wurde Rudolph Wilde Bürgermeister (seit 1902 Oberbürgermeister). Unter Wilde gab es erste Planungen für den Bau des Schöneberger Rathauses auf der trockenen Fläche des Mühlenberges neben einem sumpfigen Fenn, das einige Jahre zuvor trockengelegt und zum „Stadtpark“ umgestaltet wurde. Zur Trockenlegung verwendeten die Ingenieure den Aushub aus den Baugruben der Schöneberger Untergrundbahn. Sie verlief als erste kommunale U-Bahn überhaupt mit fünf Stationen zwischen Nollendorf- und Innsbrucker Platz. Damit war Schöneberg nach Berlin die zweite Stadt in Deutschland mit einer U-Bahn. Die U-Bahn sollte die rasant wachsende Stadt und das gezielt für ein großbürgerliches Publikum konzipierte Bayerische Viertel vernetzen und die Attraktivität Schönebergs erhöhen. Sie wurde im Todesjahr Wildes 1910 fertiggestellt. Unter Wildes Nachfolger Alexander Dominicus kam 1914 der Rathausbau zum Abschluss, nachdem bereits zwei Jahre zuvor der Stadtpark fertiggestellt war. Der Rathausvorplatz bekam den Namen "Rudolph-Wilde-Platz". Nach Entwürfen des langjährigen Stadtbaurats Paul Egeling entstanden zwischen 1895 und 1914 weitere bedeutende Bauten, darunter zahlreiche Schulen, Feuerwachen und Verwaltungsgebäude sowie das 1906 eröffnete Auguste-Viktoria-Krankenhaus (AVK). Im November 1910 wurde der Berliner Sportpalast des Architekten Hermann Dernburg an der Potsdamer Straße eröffnet, in dem ab 1911 die Sechstagerennen stattfanden. Die Halle wurde 1973 abgerissen. Einen ersten Teil der Selbstverwaltungsrechte verlor Schöneberg wieder am 1. April 1912 mit der Einführung des Zweckverbandes Groß-Berlin, dessen Aufgabe die einheitliche Entwicklung von Verkehr, Bebauung und Erholungsfläche in seinem Gebiet war. Von 1912 bis 1920 lautete der amtliche Name der Stadt "Berlin-Schöneberg." Zwischen den Weltkriegen. Mit der Bildung von Groß-Berlin am 1. Oktober 1920 verlor Schöneberg seine Selbstständigkeit und bildete von da an gemeinsam mit Friedenau den 11. Berliner Verwaltungsbezirk „Schöneberg“. Seit einer Änderung der Bezirksgrenzen im Jahr 1938 gehörte das gesamte Gebiet südlich der Kurfürstenstraße wieder – wie schon bis 1861 – zu Schöneberg. Gleichzeitig wurde auch das bis dahin zu Charlottenburg gehörende Gebiet zwischen dem Nollendorfplatz und der Nürnberger Straße in den Bezirk Schöneberg eingegliedert. Das Schöneberger Gebiet östlich der Anhalter Bahn, das ursprünglich bis etwa zur Gontermannstraße reichte, kam 1937 zu Tempelhof. Zweiter Weltkrieg. Durch die Luftangriffe der Alliierten im Zweiten Weltkrieg wurden insbesondere der Norden und der Westen Schönebergs stark zerstört; etwa ein Drittel des gesamten Wohnungsbestandes ging verloren. Historische Bekanntheit erlangte die berüchtigte Sportpalastrede von Propagandaminister Goebbels am 18. Februar 1943. In der Schlacht um Berlin wurde Schöneberg in den letzten Apriltagen 1945 von Truppen der Roten Armee eingenommen. Nachkriegszeit. Schöneberg gehörte von 1945 bis 1990 zum Amerikanischen Sektor von Berlin. Im Rathaus Schöneberg hatten während der Teilung Berlins das Berliner Abgeordnetenhaus und der Senat von West-Berlin ihren Sitz. Im Rathaus-Turm befindet sich die Freiheitsglocke, die von gesammelten Spenden der Zivilbevölkerung der USA für die Berliner gestiftet wurde. Das Rathaus, der Rudolph-Wilde-Platz und die darauf zulaufenden Straßen waren der Ort vieler Kundgebungen und des Staatsbesuches des US-Präsidenten John F. Kennedy. Dort hielt er am 26. Juni 1963 seine Rede mit dem berühmten Zitat „Ich bin ein Berliner“. Zu seinen Ehren wurde der Rudolph-Wilde-Platz im selben Jahr in "John-F.-Kennedy-Platz" umbenannt; der Stadtpark erhielt daraufhin den Namen "Rudolph-Wilde-Park." Der Alliierte Kontrollrat für ganz Deutschland hatte seinen Sitz im Gebäude des Kammergerichts im Heinrich-von-Kleist-Park. Vom 8. Mai 1945 bis zur Gründung der beiden deutschen Staaten 1949 war dieser Kontrollrat die oberste Regierungsgewalt in Deutschland. Später war dort die „Alliierte Luftsicherheitszentrale“ untergebracht. Seit der Wiedervereinigung Deutschlands wird das Gebäude wieder für die höchsten Gerichte Berlins genutzt. Seit 1946 wurden aus Schöneberg die Rundfunkprogramme des RIAS Berlin (Rundfunk im amerikanischen Sektor) gesendet. Zunächst als Drahtfunk aus dem Telegrafenamt in der Winterfeldtstraße, ab 1948 aus dem Funkhaus in der Kufsteiner Straße 69 am heutigen Hans-Rosenthal-Platz in der Nähe des Rudolph-Wilde-Parks. Bis 1990 war diese Informationsquelle für die DDR-Bevölkerung von großer Bedeutung und die Adresse sehr bekannt. Heute wird dort das Programm von Deutschlandradio Kultur produziert. Das Haus mit dem denkmalgeschützten „RIAS“-Schriftzug ist weit sichtbar. Bis 1959 befand sich an der Badenschen Straße in unmittelbarer Nähe zum Rathaus Schöneberg die Deutsche Hochschule für Politik, die jedoch mit ihrer Integration in das Otto-Suhr-Institut der Freien Universität Berlin nach Dahlem zog. Seit 1971 hat die neu gegründete Fachhochschule für Wirtschaft Berlin dort ihren Hauptsitz. Bis 1966 wurden mehr als 22.000 Wohnungen neu errichtet. Ende der 1970er Jahre sollten viele Altbauten entlang der Berlin-Potsdamer Eisenbahn dem geplanten Weiterbau der Westtangente weichen, was durch das Engagement der Anwohner verhindert werden konnte. Anfang der 1980er Jahre war die Gegend um den Winterfeldtplatz und die Potsdamer Straße einer der Hauptschauplätze der Auseinandersetzungen zwischen Hausbesetzern und der Berliner Polizei. Aktuell hat Schöneberg Einwohner (Stand:). Stadtquartiere. Übersichtskarte von Schöneberg mit den Stadtquartieren Bayerisches Viertel. Im Schöneberger Westen liegt das Bayerische Viertel. Es wurde während der Amtszeit des Schöneberger Oberbürgermeisters Rudolph Wilde in den Jahren vor dem Ersten Weltkrieg erbaut. Schöneberg überließ die Entwicklung des Bayerischen Viertels der Berlinischen Bodengesellschaft, die 1890 von dem Unternehmer Salomon Haberland und seinem Sohn Georg gegründet wurde. In seinem Ursprungszustand prägten elegante Fassaden im süddeutschen Renaissancestil das Viertel, dessen Straßen teilweise nach bayerischen Städten benannt sind. Viele prominente Persönlichkeiten wie Albert Einstein lebten hier. Aufgrund seines hohen jüdischen Bevölkerungsanteils wurde das Bayerische Viertel auch „Jüdische Schweiz“ genannt. In Erinnerung daran findet man heute außer Gedenk- und Hinweistafeln auch seit 1993 das an achtzig Straßenbeleuchtungsmasten installierte Denkmal „Orte des Erinnerns im Bayerischen Viertel – Ausgrenzung und Entrechtung, Vertreibung, Deportation und Ermordung von Berliner Juden in den Jahren 1933 bis 1945“ von Renata Stih und Frieder Schnock. Das Bayerische Viertel wurde im Zweiten Weltkrieg stark zerstört und ist größtenteils im typischen Baustil der 1950er Jahre wiederaufgebaut worden. Rote Insel. Die Rote Insel hat sich – eingeschlossen von mehreren Bahnstrecken – im Schöneberger Osten herausgebildet und weist traditionell eine politisch „rote“ – also eine eher linke – Orientierung seiner Arbeiterbevölkerung auf. Die frühere Wohnbevölkerung der 1930er und 1940er Jahre leistete zum Teil erheblichen Widerstand gegen den Nationalsozialismus. Baugeschichtliche Bedeutung haben die Königin-Luise-Gedächtniskirche von 1912 und der markante Schöneberger Gasometer. Das Industriedenkmal überragt als architektonische Landmarke die gesamte Rote Insel. Der Alte Zwölf-Apostel-Kirchhof gehört zu den kunst- und kulturgeschichtlich bedeutendsten Begräbnisplätzen Berlins und ist unter anderem letzte Ruhestätte für Friedrich von Falz-Fein, dem Gründer des heute noch bestehenden Naturreservats Askanija-Nowa in der Ukraine. Der 2012 eröffnete Ost-West-Grünzug mit dem zentralen Alfred-Lion-Steg bindet die Insel über die Gleisanlagen hinweg an Tempelhof und die Schöneberger Schleife an den Park am Gleisdreieck an. Wittenbergplatz und Tauentzienstraße. In dem großstädtisch geprägten Quartier um den Wittenbergplatz im Schöneberger Nordwesten dominiert der gehobene Einzelhandel mit dem KaDeWe als deutschlandweit führendem Kaufhaus an der Tauentzienstraße. Das Gebiet ist Teil der Berliner City West. Am unweit gelegenen Viktoria-Luise-Platz befinden sich die Schulen des Lette-Vereins. Ceciliengärten. Beispielhaften Städtebau kann man noch heute in den Ceciliengärten anhand des – in den 1920er Jahren entstandenen und inzwischen denkmalgeschützten – Stadtquartiers begutachten. Der Fassadenschmuck der Gebäude mit den lebensnahen Darstellungen von kindlichem Alltag und dem seinerzeit modernen Verkehr sowie die Formensprache der Türgestaltungen machen die Ceciliengärten zu einem öffentlichen Freilichtmuseum des Art Déco. Der als Gartenbaudenkmal ausgewiesene zentrale Platz mit dem großen Fontänen-Springbrunnen, dem kleinen "Fuchsbrunnen" von Max Esser und den zwei Frauenstandbildern "Der Morgen" und "Der Abend" des Künstlers Georg Kolbe vervollständigen die Anlage. Die im April und Mai jeden Jahres rosafarben blühenden japanischen Kirschbäume bilden ein ansehnliches Blütendach über der Straße und machen der stadtbekannten Britzer Baumblüte Konkurrenz. Nollendorfplatz. Im Kiez um die Fuggerstraße, die Motzstraße und den Nollendorfplatz befinden sich zahlreiche Kneipen, Bars und Läden, die sich überwiegend an ein homosexuelles Publikum richten. Jährlich an einem Wochenende im Juni findet in diesem Teil Berlins das lesbisch-schwule „Motzstraßenfest“ statt, das mit einer Mischung aus Informationsständen gleichgeschlechtlicher Gruppen, Show-Bühnen sowie Imbiss- und Verkaufsbuden mittlerweile tausende Besucher anzieht und sich zu einer Touristenattraktion entwickelt hat. Hauptstraße und Potsdamer Straße. Die Gewerbetreibenden der einstmals bedeutenden und in der Nachkriegszeit immer unattraktiver gewordenen Potsdamer Straße bemühen sich, das Image als Einkaufsstraße zu verbessern. In der Hauptstraße, dem historischen Zentrum Schönebergs, findet man immer weniger Geschäfte für den täglichen Bedarf. Die von der Hauptstraße abzweigende Akazienstraße mit der Belziger Straße, der sich anschließenden Goltzstraße und dem Kiez um den Winterfeldtplatz mit dem großen Wochenmarkt bilden dazu mit vielen Cafés und Kneipen, Kunsthandwerksbetrieben ein sehr vitales Gegenstück. Dieses Kiezzentrum reicht in östlicher Richtung über den Kaiser-Wilhelm-Platz bis zur Roten Insel. Der Kaiser-Wilhelm-Platz an der Schöneberger Hauptstraße wurde 2007 umgestaltet und mit einem neuen Brunnen ausgestattet. Im Haus Potsdamer Straße 188–190 befand sich bis Ende August 2008 die Hauptverwaltung der Berliner Verkehrsbetriebe (BVG). Kielgan-Viertel. Das heute nur noch rudimentär erkennbare Kielgan-Viertel nördlich des Nollendorfplatzes war geprägt durch mehrere kleine Stichstraßen und eine Bebauung mit Landhäusern und Stadtvillen. Nach starken Kriegszerstörungen sind heute nur noch wenige der originalen Bauten erhalten, darunter die Villa Ahornstraße 4, in der sich die Botschaft von Kroatien befindet. Dominicusstraße und Sachsendamm. An der Martin-Luther- und der Dominicusstraße dominiert rund um den John-F.-Kennedy-Platz die öffentliche Verwaltung mit dem Bezirksamt, den Senatsverwaltungen für Wirtschaft, Technologie und Frauen sowie Justiz (Nordsternhaus), am Heinrich-von-Kleist-Park, Landesverfassungsgericht und Kammergericht. Gewerbegebiete befinden sich in der Alboinstraße, am Werdauer Straße, an der Naumannstraße und mit Möbel Kraft auf dem Gelände des ehemaligen Radstadions. Die Ansiedlungen von "Bauhaus" und "Ikea" auf dem Gelände des ehemaligen RAW-Tempelhof sowie der Neubau eines Supermarktes auf dem Gelände des ehemaligen Prälat Schöneberg versprechen auch im Gebiet nördlich des Sachsendamms eine neue Entwicklung. Fördernd für die Erschließung des gesamten Gebietes der „Schöneberger Linse“ (Bezeichnung des Gebietes der sich erweiternden und wieder schließenden Trassenführung der Ringbahn und des Sachsendamms) ist auch der neue Bahnhof Südkreuz, ehemals "Papestraße", sowie die Gründung einer Interessengemeinschaft der Grundstückseigentümer der „Schöneberger Linse“. Südgelände. Für das Schöneberger Südgelände zwischen dem Sachsendamm und der Grenze zum Ortsteil Steglitz existierten bereits zur Kaiserzeit Pläne für eine umfangreiche Bebauung. Diese wurden jedoch nicht realisiert; es wurde 1928 lediglich der S-Bahnhof Priesterweg fertiggestellt. Auf den unbebauten Flächen des Südgeländes entstand das bis heute größte zusammenhängende Kleingartengelände Berlins. Am westlichen Rand des Südgeländes entstand Ende der 1930er Jahre die Siedlung am Grazer Damm, ein Beispiel für die Wohnungsbauarchitektur während der Zeit des Nationalsozialismus. Im Osten des Südgeländes erstreckten sich die weitläufigen Anlagen des Rangierbahnhofs Tempelhof entlang der Anhalter und Dresdener Bahn. Nach dem Zweiten Weltkrieg wurde ein großer Teil der Bahnanlagen stillgelegt und allmählich von der Natur zurückerobert. Auf diesen Flächen befindet sich heute der Natur-Park Schöneberger Südgelände. Direkt westlich der S-Bahn-Strecke Südkreuz – Priesterweg liegt der Hans-Baluschek-Park. Südlich des Prellerwegs liegt der Insulaner, ein in den Jahren nach dem Zweiten Weltkrieg aufgeschütteter Trümmerberg. An seinem Fuße befindet sich das 1965 eröffnete Planetarium am Insulaner, sowie das „Sommerbad am Insulaner“ und auf seinem Gipfel die 1963 eröffnete Wilhelm-Foerster-Sternwarte. Siedlung Lindenhof. a> mit dem Ostteil des Lindenhofteichs Die Siedlung Lindenhof im äußersten Südosten Schönebergs ist ein Beispiel für den genossenschaftlichen Wohnungsbau der 1920er Jahre. Ihr Bau wurde durch den sozialdemokratischen Schöneberger Stadtbaurat Martin Wagner maßgeblich vorangetrieben. Die Siedlung sollte das Konzept der genossenschaftlichen Selbsthilfe mit städtebaulichen Anleihen aus der Gartenstadtidee verbinden. Die Martin-Wagner-Brücke über den Lindenhofsee ist die einzige Schöneberger Brücke, die über ein Gewässer führt. In der Nachbarschaft der Siedlung liegen das Gartendenkmal Alboinplatz und der II. Städtische Friedhof Eythstraße. Wirtschaft. Im Ortsteil dominieren kleine und mittlere Unternehmen in den Bereichen Handel, Dienstleistungen sowie der Gastronomie und Hotellerie. Eisenbahn. Mit dem 2006 eröffneten Bahnhof Südkreuz hat Schöneberg eine direkte Anbindung an den Fern- und Regionalverkehr der Deutschen Bahn. Der Bahnhof wird unter anderem von der ICE-Linie Hamburg – Berlin – Leipzig – München bedient. S-Bahn. Schöneberg wird von der Wannseebahn (Linie S1), der Dresdener Vorortbahn (Linie S2), der Anhalter Vorortbahn (Linie S25) sowie der Berliner Ringbahn (Linien S41, S42, S46 und S47) bedient. Wichtige Knotenpunkte sind die S-Bahnhöfe Schöneberg und Südkreuz. U-Bahn. Schöneberg wird von den U-Bahnlinien U1, U2, U3, U4 und U7 bedient. Wichtige Knotenpunkte und auch von besonderer architektonischer Bedeutung sind die U-Bahnhöfe Wittenbergplatz und Nollendorfplatz. Östlich des Nollendorfplatzes verläuft die U-Bahn-Linie U2 als Hochbahn. Die dadurch erforderlich gewordene Hausdurchfahrt am Dennewitzplatz war bis zur Zerstörung des „durchfahrenen“ Hauses im Zweiten Weltkrieg ein vielbeachtetes Kuriosum. Die Linie U4, hervorgegangen aus der Schöneberger Untergrundbahn, liegt vollständig auf Schöneberger Gebiet. Eine Besonderheit bildet der U-Bahnhof Rathaus Schöneberg, der oberirdisch liegt und Fenster zum Rudolph-Wilde-Park hat. Individualverkehr. Die Stadtautobahnen A 100 (Stadtring) und A 103 sind im Autobahnkreuz Schöneberg miteinander verknüpft. Die A 100 unterquert westlich des Autobahnkreuzes in einem 270 Meter langen Tunnel den Innsbrucker Platz. Weitere wichtige Verkehrsachsen sind der sogenannte „Generalszug“ Tauentzienstraße – Kleiststraße – Bülowstraße, der Straßenzug An der Urania – Martin-Luther-Straße – Dominicusstraße – Sachsendamm sowie die Bundesstraße 1 auf dem Straßenzug Potsdamer Straße – Hauptstraße (– Dominicusstraße – A 103). Der Hobrechtplan sah ursprünglich eine gradlinige Weiterführung der Bülowstraße in Richtung Osten vor. Die Eisenbahnanlagen auf dem Gleisdreieck-Gelände dehnten sich jedoch so schnell aus, dass der Generalszug nach Süden verschoben werden musste, um das Bahngelände unter den Yorckbrücken durchqueren zu können. Die so entstandene Kurve der Bülowstraße, der „Bülowbogen“, gab der ARD-Fernsehserie "Praxis Bülowbogen" ihren Namen. Die Aufweitung und der überbreite Grünstreifen im Kreuzungsbereich An der Urania/Lietzenburger Straße gehen auf mittlerweile aufgegebene Pläne für eine autobahnähnliche Hochstraße zurück. Im Rahmen des „Planwerks Innenstadt“ gibt es Überlegungen, diesen Bereich umzugestalten. Weitere Relikte der Verkehrsplanung der Nachkriegszeit findet man in der Hohenstaufenstraße und Pallasstraße. Dieser Straßenzug sollte nach einer mittlerweile aufgegebenen Planung durchgehend mehrstreifig ausgebaut werden. Zu diesem Zweck sollte auch das Haus Hohenstaufenstraße 22 abgerissen werden; es steht jedoch bis heute auf der geplanten Trasse der Hohenstaufenstraße und muss engkurvig umfahren werden. Von den unvollendeten Ausbauplänen für die Pallasstraße zeugt auch die vom Straßenverkehr nicht benutzte nördliche Unterfahrung des Pallasseums. Sport. Der in Schöneberg ansässige Fußballverein FC Internationale Berlin wendet sich gegen die Kommerzialisierung des Fußballspiels. Einstmals oder jetzt in Schöneberg lebende Persönlichkeiten. a>, Haberlandstraße 8 (früher Nr. 5) Einzelnachweise. Schoneberg Schoneberg Brian Eno. Brian Peter George St. John le Baptiste de la Salle Eno (* 15. Mai 1948 in Woodbridge, Suffolk) ist ein britischer Musiker, Musikproduzent, Musiktheoretiker und bildender Künstler. Er gilt als Innovator in vielen Bereichen der Musik. Ausbildung. Eno besuchte das St. Joseph’s College, Birkfield, Ipswich, die Ipswich Art School und die Winchester School of Art, die er 1969 abschloss. In der Kunstschule begann er Kassettengeräte als Musikinstrumente zu benutzen und spielte zum ersten Mal in Bands. Dabei wurde er von einem seiner Lehrer, dem Maler Tom Phillips, ermutigt. Dieser vermittelte ihm auch den Kontakt zu Cornelius Cardews "Scratch Orchestra". Die erste veröffentlichte Aufnahme, an der Eno beteiligt war, entstand für die Deutsche Grammophon, die Cardews "The Great Learning" (im Februar 1971 aufgenommen) herausbrachte. Die 1970er und 1980er Jahre. Eno begann seine Karriere 1971 als Mitbegründer von Roxy Music, für die der selbsternannte „Nicht-Musiker“ Keyboards und Synthesizer spielte. Besonders auffällig war seine an den Glam-Rock-Chic angelehnte campige Aufmachung mit Federboa, Plateauschuhen und Glitzertüchern, die er mit exaltierten Bewegungen auf der Bühne kombinierte. Gleich nach dem zweiten Album "For Your Pleasure" 1973 stieg er bei Roxy Music wieder aus und nahm eine Reihe von eigenen Alben auf, die zunächst vom Glam Rock, dann jedoch immer mehr ambient-geprägt waren. Enos Soloalben von 1973 bis 1977 ("Here Come the Warm Jets", "Taking Tiger Mountain (By Strategy)", "Another Green World" und "Before and After Science") zeigen ihn als experimentierfreudigen und innovativen Popmusiker, der beinahe keine Grenzen außerhalb seiner jungenhaften Stimme kennt. Mit seinen ersten Ambient-Arbeiten popularisierte er eine von Robert Fripp entwickelte und als Frippertronics bezeichnete Methode zur Klangerzeugung, mittels der Tonbandaufnahmen diverser Musiker, v. a. aus der Minimalszene, modifiziert wurden. Es handelt sich hier um zwei Tonbandmaschinen, die in einem Rückkopplungssystem wie ein Bandecho miteinander verbunden sind, wobei die Entfernung der Maschinen zueinander die Frequenz des Echoimpulses bestimmt. Zusammen mit Fripp veröffentlichte er die Alben "(No Pussyfooting)" (1973) und "Evening Star" (1975). Mit seiner Veröffentlichung "Ambient 1: Music for Airports" (1978), die angeblich u. a. von einem negativen Hörerlebnis am Bonn inspiriert worden sein soll, hat er den Musikstil „Ambient“ getauft und fortan geprägt. Diesen Stil führt er überwiegend bis heute fort. Eno arbeitete als Musiker und Produzent mit verschiedenen anderen Künstlern. So ist er auf der „Berlin-Trilogie“ – "Low" (1977), "Heroes" (1977) und "Lodger" (1979) – von David Bowie zu hören. 1978 produzierte er Devos "Q: Are We Not Men? A: We Are Devo" und die legendäre Kompilation der New-Yorker No-Wave-Szene, No New York. Er produzierte drei Alben der Talking Heads mit "Remain in Light" (1980) als Höhepunkt. Sein Album mit David Byrne (Talking Heads) mit dem Titel "My Life in the Bush of Ghosts" von 1981 ist eines der ersten Nicht-Rap-/Hip-Hop-Alben, das umfangreiches Sampling enthält. Im Jahr 1984 produzierte er U2s "The Unforgettable Fire" und arbeitete später noch weiter für die Band als Produzent auf "The Joshua Tree" (1987), "Achtung Baby" (1991), "Zooropa" (1993), "All That You Can’t Leave Behind" (2000) und "No Line on the Horizon" (2009). Die 1990er Jahre. In den 1990er Jahren produzierte Eno so unterschiedliche Künstler wie den Real-World-Künstler Geoffrey Oryema bis zur Band James, ebenso die Sängerin Jane Siberry und die Performance-Künstlerin Laurie Anderson, mit der er auch die Ausstellung "Self Storage" (1995) gestaltete. 1994/1995 arbeitete Eno wieder mit David Bowie an dessen Album "Outside". Seit dieser Zeit ist Eno auch „Visiting Professor“ am Londoner Royal College of Art. 1994 wurde Eno von Entwicklern des Microsoft-Chicago-Projekts gebeten, die Startmelodie für Windows 95 zu komponieren. Dies geschah dann ironischerweise auf seinem Apple Macintosh. Im Jahr 1996 gehörte Brian Eno zu den Gründern der Long Now Foundation, die ein Bewusstsein für die Wichtigkeit langfristigen Denkens fördern will. Er trat 1998 eine Honorarprofessur an der Berliner Universität der Künste an. Im August des gleichen Jahres trat Eno anlässlich der Eröffnung einer Ausstellung "Brian Eno: Future Light – Lounge Proposal" in der Kunst- und Ausstellungshalle der Bundesrepublik Deutschland zweimal auf, und beide Auftritte wurde per Webcast live übertragen. Die 2000er Jahre. Brian Eno gründete Anfang 2004 gemeinsam mit Peter Gabriel die Magnificent Union of Digitally Downloading Artists ("Mudda"). Er ist zudem Co-Produzent des 2006 erschienenen Albums "Surprise" von Paul Simon. 2006 veröffentlicht Brian Eno die DVD "77 Million Paintings" mit einem generativen Computerprogramm. Er nutzte den Computer, um – basierend auf realen Gemälden – 77 Millionen visuelle Darstellungen als „Originale“ mittels Überblendungen zu generieren und kombinierte diese mit ebenfalls aus Sound-Layern generierter Musik. a> beleuchtet am 30. Mai 2009 Als Produzent begann er 2006 seine Arbeit am vierten Album "Viva la Vida or Death and All His Friends" der Band Coldplay, welches im Frühjahr 2008 erschien und von Eno zusammen mit Markus Dravs und Rik Simpson produziert wurde. U2 meldeten Anfang Juni 2007 auf ihrer offiziellen Website, dass sich Eno zusammen mit Daniel Lanois zur Aufnahme eines neuen U2-Albums im Studio in Marokko eingefunden habe. Das aus dieser Zusammenarbeit entstandene Album "No Line on the Horizon" wurde im Februar 2009 veröffentlicht. 2006 gestaltete Eno exklusiv für Nokia die Klingel- und Signaltöne des Mobiltelefons "8800 Sirocco Edition". Zusammen mit dem Musiker und Softwaredesigner Peter Chilvers entwickelte er auch die beiden Programme "Bloom" und "Trope" für das iPhone. Beide Programme sowie das von Chilvers auf Basis von Enos Ideen entwickelte "Air" erzeugen zufallsbasierte unendliche Musikstücke wie bereits "77 Million Paintings". Im Mai und Juni 2009 gestaltete er das zweite "Sound and Light Festival" in dessen Rahmen u. a. das Sydney Opera House angestrahlt wurde. 2009 lieferte er den Soundtrack zu Peter Jacksons Film "In meinem Himmel" (The Lovely Bones). 2010 veröffentlichte die Indietronic Band MGMT ein Lied mit dem Titel "Brian Eno". Im November 2010 erschien Enos Album "Small Craft on a Milk Sea" bei Warp Records. Anfang Juli 2011 erschien das in Zusammenarbeit mit dem britischen Dichter Rick Holland entstandene Album "Drums Between the Bells" ebenfalls bei Warp. Im November 2012, wiederum bei Warp, erschien mit dem Album "Lux" Brian Enos erstes Solowerk nach sieben Jahren. Die knapp 75-minütige Komposition wurde original konzipiert im Rahmen einer Installation im Reggia di Venaria Reale nahe Turin und war dort auch erstmals zu hören, ehe sie wenige Tage vor ihrer kommerziellen Veröffentlichung (und in Anspielung auf "Music for Airports") im Tokioter Flughafen Haneda gespielt wurde. Das Album erhielt überwiegend positive Kritiken und es wurde auf Parallelen zu Enos frühen Ambient-Werken, insbesondere "Thursday Afternoon", hingewiesen. BASIC. BASIC ist eine imperative Programmiersprache. Sie wurde 1964 von John G. Kemeny und Thomas E. Kurtz am Dartmouth College entwickelt und verfügte in ihrer damaligen Form noch nicht über die Merkmale der strukturierten Programmierung, sondern arbeitete mit Zeilennummern und Sprungbefehlen (GOTO). Mittlerweile gibt es eine Vielzahl verschiedener BASIC-Dialekte, von denen einige der jüngeren alle Elemente höherer Programmiersprachen aufweisen, so etwa Objektorientierung. Das Akronym „BASIC“ steht für „Beginner’s All-purpose Symbolic Instruction Code“, was so viel bedeutet wie „symbolische Allzweck-Programmiersprache für Anfänger“. Die Abkürzung als Wort gesehen bedeutet außerdem „grundlegend“. Dies zeigt das Design-Ziel klar: Eine einfache, für Anfänger geeignete Programmiersprache zu erschaffen. Außer in manchen Produktnamen wird das Wort „BASIC“ grundsätzlich in Großbuchstaben geschrieben. Geschichte. BASIC wurde 1964 von John G. Kemeny und Thomas E. Kurtz am Dartmouth College entwickelt, um den Elektrotechnikstudenten den Einstieg in die Programmierung gegenüber Algol und Fortran zu erleichtern. Am 1. Mai 1964 um vier Uhr Ortszeit, New Hampshire, liefen die ersten beiden BASIC-Programme simultan auf einem GE-225-Computer von General Electric im Keller des Dartmouth College. BASIC wurde dann viele Jahre lang von immer neuen Informatikstudenten an diesem College weiterentwickelt, zudem propagierten es Kemeny und Kurtz ab den späten 1960er Jahren an mehreren Schulen der Gegend, die erstmals Computerkurse in ihr Unterrichtsprogramm aufnehmen wollten. BASIC war entsprechend dem Wunsch seiner „Väter“ für die Schulen kostenlos, im Gegensatz zu fast allen anderen damals üblichen Programmiersprachen, die meist mehrere tausend Dollar kosteten. Viele der damaligen großen Computerhersteller (wie etwa DEC) boten wegen der leichten Erlernbarkeit der Sprache und ihrer lizenzgebührfreien Verwendbarkeit bald BASIC-Interpreter für ihre neuen Minicomputer an; viele mittelständische Unternehmen, die damals erstmals in größerer Zahl Computer anschafften, kamen so mit BASIC in Berührung. Einige der so mit BASIC vertrauten Schüler, Studenten und im Mittelstand tätigen Programmierer waren etwas später in der kurzlebigen Bastelcomputer-Szene Mitte der 1970er Jahre aktiv, die den kommerziellen Microcomputern vorausging, und machten BASIC dort bekannt; kaum eine andere damals verbreitete Hochsprache eignete sich so gut wie (ein abgespecktes) BASIC für den extrem beschränkten Speicherplatz dieser ersten Microcomputer. Seinen Höhepunkt erlebte BASIC Ende der 1970er und Anfang der 1980er Jahre mit den aus den Bastelcomputern hervorgegangenen ersten Heimcomputern, die nahezu alle als Benutzeroberfläche und Programmierumgebung einen BASIC-Interpreter besaßen. Prominente Beispiele sind Sinclair ZX80 und ZX81, der Tandy TRS 80, der 4A, der Amstrad CPC, der Apple II, die Atari 8-Bit-Heimcomputer oder der meistverkaufte Heimcomputer aller Zeiten, der Commodore 64. Aber auch die Vorläufer der Personalcomputer, wie zum Beispiel von Philips, konnten mit M-BASIC interpretierend oder kompiliert arbeiten. Die weitaus meisten dieser BASICs stammten von Microsoft. BASIC war Microsofts erstes und in den frühen Jahren wichtigstes Produkt, mehrere Jahre bevor mit MS-DOS das erste Betriebssystem dieser Firma auf den Markt kam. Praktisch alle Besitzer von Heimcomputern hatten damals zumindest Grundkenntnisse in BASIC, da die meisten Rechner beim Einschalten den BASIC-Interpreter starteten, welcher das Laden weiterer Programme unter Verwendung von BASIC-Befehlen erlaubte. Auch als Mitte der 1980er Jahre grafische Benutzeroberflächen mit dem Macintosh, Amiga und dem Atari ST Einzug hielten, wurden bei diesen weiter BASIC-Interpreter mitgeliefert. Zudem gab es zusätzliche käufliche Versionen von BASIC-Dialekten. Mittels Compilern konnten einige BASIC-Dialekte direkt in deutlich schnellere Maschinenprogramme übersetzt bzw. unter Umgehung des Interpreters direkt in Aufruflisten der zugrundeliegenden Interpreter-Funktionen übersetzt werden. Das seit 1981 verbreitete MS-DOS enthielt ebenfalls einen BASIC-Interpreter – zunächst BASICA bzw. GW-BASIC, später QBasic – der in Deutschland an vielen Schulen eine Rolle im Unterricht der Informatik spielte. Zu dieser Zeit setzte aber ein Wandel ein, weil andere Hochsprachen wie beispielsweise C für die Heimcomputer verfügbar wurden oder die Ressourcen des jeweiligen Systems vom mitgelieferten BASIC-Interpreter nur unzulänglich unterstützt wurden, was den Programmierer dazu zwang, sich mit Assembler vertraut zu machen. Durch die Umsetzung als Interpreter-Sprache waren die frühen BASIC-Dialekte außerdem deutlich langsamer als die meisten anderen, in der Regel compilerbasierten Hochsprachen. Dies machte es besonders für zeitkritische Anwendungen unattraktiv bzw. führte zur Verwendung von Unterprogrammen in Maschinensprache, die oft mit POKE-Anweisungen von BASIC aus in den Hauptspeicher geschrieben wurden. Solche Programme waren natürlich nicht portabel. Deshalb und wegen der Zersplitterung in unzählige Dialekte gilt BASIC als fast nicht portabel. Wo die Unterprogrammtechnik von BASIC um Funktionen und Prozeduren erweitert wurde, konnte häufig auf die zwingenden Zeilennummern und die Sprunganweisung "GOTO" verzichtet werden. Der viel kritisierte sogenannte Spaghetticode (unübersichtlicher, insbesondere wegen überraschender Sprünge schwer nachvollziehbarer Quellcode), konnte zugunsten einer strukturierten und funktionsorientierten Programmierung vermieden werden. Mit der Zeit nahm der Anteil der Menschen, die einen Computer nur bedienen, aber nicht selbst programmieren mussten immer mehr zu. Ein großer Teil der Anwender nutzte deshalb nun am Computer überwiegend vorhandene Programme wie Textverarbeitungen, Tabellenkalkulationen und Datenbanken anstatt selbst die erforderliche Software mit einer Programmiersprache wie BASIC oder Visual Basic for Applications zu entwickeln. Ein weiterer Grund dafür, dass BASIC zwischenzeitlich fast in Vergessenheit geraten war, war auch, dass nach dem Zusammenbruch der großen Heim- und Bürocomputer-Hersteller Atari und Commodore der Markt von Windows-PCs dominiert wurde. Mit Ausnahme des IBM PCs war bei den IBM kompatiblen PCs kein BASIC-Interpreter im ROM inbegriffen, mit dem man Programme hätte ohne weitere Software selbst schreiben können. Für einige Bereiche setzte sich zeitweilig in der Lehre Pascal oder C als erste gelehrte Programmiersprache durch. Mit Einführung von objektorientierten Sprachelementen wurde ein weiterer Versuch unternommen, Visual Basic mit anderen objektorientierten Programmiersprachen wie C++ gleichziehen zu lassen. Die Nutzung von Basic heute. Microsoft besann sich auf die eigene Tradition und führte das kommerzielle Visual Basic für die schnelle Entwicklung von Windows-basierten Anwendungen ein. Der Code wurde nicht mehr zur Laufzeit interpretiert, sondern von einem Compiler während der Programmentwicklung in maschinennahen Bytecode beziehungsweise in späteren Versionen sogar in nativen Maschinencode übersetzt. Durch diese Maßnahme konnte die Geschwindigkeit und die Stabilität der Programmausführung deutlich gesteigert werden. Da auch die Geschwindigkeit der Computer immer mehr zunahm, wurde Visual Basic außerdem für professionelle Entwicklungen immer interessanter. Aber erst mit Visual Basic ab Version 5 erzielte Microsoft deutliche Erfolge in Bezug auf die Verarbeitungsgeschwindigkeit, die aber den zuvor verlorenen Boden nicht wieder rückgewinnen konnten. Besonders in Europa hat sich Visual Basic in der Entwicklergemeinschaft nur in begrenztem Maße behaupten können. Es bot zwar eine bessere und viel einfachere Anbindung an Windows als jede andere Programmiersprache, war aber langsamer. Erst mit der Implementierung von Visual Basic innerhalb des .NET-Systems gelang es, einige strukturelle Schwächen von BASIC zu überwinden. Gleichzeitig aber bedeutete dieser Schritt das Ende von Visual Basic als eigenständige Programmiersprache. Innerhalb des.NET-Systems handelt es sich bei Visual Basic.NET nur noch um eine Sprach-Implementierung neben anderen. Mit Einführung der JIT-Compiler und.NET als Basis für alle Microsoft-Sprachen besteht zwischen der Verarbeitungsgeschwindigkeit von BASIC und anderen Programmiersprachen unter.NET kein großer Unterschied mehr. BASIC wird in vielen Microsoft Office-Produkten von Microsoft und auch in einigen weiteren Anwendungen als VBA erfolgreich zur internen Makro-Programmierung eingesetzt. Viele Softwarehersteller bieten ebenfalls auf BASIC basierende Programmiersprachen zur internen Makro-Programmierung ihrer Produkte an. Das Ziel einer plattformunabhängigen Programmiersprache hat sich nie erfüllt. Im Gegensatz zum gut standardisierten C entstanden von BASIC hunderte Dialekte, die allesamt bis auf gewisse grundsätzliche Ähnlichkeiten inkompatibel zueinander sind. Die Gemeinsamkeiten beschränken sich auf die reine Datenverarbeitung, während jeder Hersteller im Zuge der gleichzeitig rasant verlaufenden Hardware-Entwicklung seine eigenen, auf die jeweilige Hardware abgestimmten Befehle für Ein- und Ausgabe implementierte. Gut strukturierte BASIC-Programme im Quelltext lassen sich häufig jedoch einfach und schnell auf die unterschiedlichsten Systemen übertragen. BASIC gilt heute als eine der leicht erlernbaren und nach C und C++ weitverbreitetsten Programmiersprachen. Programmiersprache. Zeilennummer: Ein fortlaufender Wert, der i. d. R. in 10er-Schritten ansteigt, damit später nachträglich Zeilen (mit Befehlen) hinzugefügt werden können, die dann dazwischen liegende Nummern erhalten. Diese Zahlen sind, um einzelne Befehle im Interpreter auszuführen, aber nicht dringend notwendig. Befehl: Ein beliebiger Befehl wie codice_1. Parameter: Ein oder mehrere Werte, die einem Befehl übergeben werden können. Die Zuweisung von Werten ist in Beispiel 2 unten gezeigt. Die Variable, der ein Wert zugewiesen werden soll, steht vor dem Gleichheitszeichen; der Ausdruck, dessen Wert der Variablen zugewiesen werden soll, steht dahinter. INPUT [Text], Variable1 [,Variable2...] - Per Eingabe werden der/den Variablen Werte zugewiesen auf dem Bildschirm steht Text PRINT [Text] - auf dem Bildschirm wird ein Text ausgegeben LOCATE X,Y - Legt die aktuelle Schreibposition des Cursors fest. PSET X,Y - Zeichnet einen Punkt auf dem Bildschirm LET [Aufgabe] gibt dem Computer eine Anweisung Programmierbeispiel. Das folgende Beispiel zeigt einen typischen BASIC-Code. Viele Befehle, die sich in neueren Sprachen und neueren BASIC-Dialekten etabliert haben, gibt es bei dem im Beispiel verwendeten BASIC noch nicht. Dadurch war der Programmierer gezwungen, unstrukturiert zu programmieren. Ein Vorteil auch alter BASIC-Dialekte war allerdings, dass man damit Zeichenketten einfach verarbeiten konnte (siehe die Zeilen 70 – 90 im Beispielprogramm). 10 INPUT "Geben Sie bitte Ihren Namen ein"; A$ 20 PRINT "Guten Tag, "; A$ 30 INPUT "Wie viele Sterne möchten Sie?"; S 40 FOR I = 1 TO S 50 S$ = S$ + "*" 70 INPUT "Möchten Sie noch mehr Sterne?"; Q$ 80 IF LEN(Q$) = 0 THEN GOTO 70 100 IF (L$ = "J") OR (L$ = "j") THEN GOTO 30 120 FOR I = 1 TO 200 Standards. Die meisten existierenden Interpreter und Compiler halten sich allerdings nicht oder nur teilweise an diese Vorgaben. BASIC-Dialekte. Neben den Standardbefehlen gibt es bei fast allen Interpretern zusätzliche Funktionalitäten und Spracherweiterungen um die entsprechende Plattform vollständig und effektiver zu nutzen. Ein so erweiterter Befehlssatz wird als "BASIC-Dialekt" bezeichnet, siehe Liste der BASIC-Dialekte. Body-Mass-Index. Der Body-Mass-Index (BMI) – auch "Körpermasseindex (KMI)", "Körpermassenzahl (KMZ)" oder "Quetelet-Kaup-Index" – ist eine Maßzahl für die Bewertung des Körpergewichts eines Menschen in Relation zu seiner Körpergröße. Sie wurde 1832 von Adolphe Quetelet sowie nach dem ersten Weltkrieg von Ignaz Kaup entwickelt. Der BMI bezieht die Körper-Masse (engl. "mass", umgangssprachlich "Gewicht") auf das Quadrat der Körpergröße. Der Wert „Quadrat der Körpergröße“ steht in keinem Zusammenhang mit der Körperoberfläche. Der BMI ist lediglich ein grober Richtwert, da er weder Statur und Geschlecht noch die individuelle Zusammensetzung der Körpermasse aus Fett- und Muskelgewebe eines Menschen berücksichtigt. Berechnung. wobei formula_2 die Körpermasse (in Kilogramm) und formula_3 die Körpergröße (in Metern) angibt. Bei Erwachsenen. Werte von normalgewichtigen Personen liegen gemäß der Adipositas-Klassifikation der Weltgesundheitsorganisation zwischen 18,5 kg/m² und 24,99 kg/m², ab einer Körpermassenzahl von 30 kg/m² gelten übergewichtige Personen als behandlungsbedürftig. Gewichtsklassen in Abhängigkeit von Körpermasse und Körpergröße (nach nebenstehenden BMI-Angaben) Alter und Geschlecht spielen bei der Interpretation des BMI eine wichtige Rolle. Männer haben in der Regel einen höheren Anteil von Muskelmasse an der Gesamtkörpermasse als Frauen. Deshalb sind die Unter- und Obergrenzen der BMI-Werteklassen bei Männern etwas höher als bei Frauen. So liegt das Normalgewicht bei Männern laut Deutscher Gesellschaft für Ernährung im Intervall von 20 bis 25 kg/m², während es sich bei Frauen im Intervall von 19 bis 24 kg/m² befindet. Für die Beurteilung eines Untergewichts wird auch der Broca-Index verwendet, etwa bei Magersucht. Die diagnostischen Kriterien der Magersucht sehen bei Erwachsenen einen BMI von ≤ 17,5 kg/m² vor, bei Kindern und Jugendlichen einen BMI unterhalb der 10. Alters-Perzentile. Bei Kindern. Der BMI kann auch bei Kindern und Kleinkindern als Maß für die gesunde Entwicklung des Kindes verwendet werden. Der BMI wird nach derselben Formel wie der BMI von Erwachsenen errechnet, jedoch wird bei Kindern unter 25 Monaten die Länge im Liegen anstelle der Höhe im Stehen herangezogen. Diese kann um bis 0,7 cm länger sein als die Höhe im Stehen, daher weisen die BMI-Normalwerte hier in den Tabellen einen charakteristischen Knick auf. Der BMI des Kindes wird in Tabellen mit den Daten anderer Kinder desselben Alters verglichen. Die WHO gibt BMI–Tabellen für Jungen und Mädchen heraus. Als übergewichtig gilt ein Kind mit mehr als +1 Standardabweichung SD (entsprechend einem BMI von über 25 bei einem Erwachsenen), als adipös mit mehr als +2 SD (entsprechend einem BMI von über 30 bei einem Erwachsenen). Für Kinder unter fünf Jahren gibt es entsprechende Tabellen der WHO. Eine weitere Berechnungsmöglichkeit ist, nach so genannten Perzentilkurven zu gehen, wobei der ideale BMI auf dem Durchschnitt der vorhandenen Werte liegt. Als adipös gilt das Kind, wenn es einen höheren BMI als 97 % (97. Altersperzentil) seiner Altersgenossen hat, untergewichtig, wenn nur 3 % (3. Altersperzentil) oder weniger einen niedrigeren BMI haben. Das Problem dieser Berechnungsgrundlage ist, dass sich damit auch die Definition für Unterernährung verschieben würde, wenn sich der Ernährungszustand der Kinder in einer Gesellschaft insgesamt verändert, zum Beispiel durch eine Hungersnot viele Kinder unterernährt sind, oder wenn es viele übergewichtige Kinder gibt. Wenn laut Definition immer genau 15 % aller Kinder übergewichtig sind, kann man zum Beispiel nicht zu der Aussage kommen, 25 % aller Kinder seien übergewichtig. Die Grenzwerte eines angemessenen BMI beziehen sich stark auf den Entwicklungsstand des Kindes. So wird zum Beispiel das rasche Längenwachstum in der Anfangsphase der Pubertät und Ähnliches abgebildet. Macht ein Kind diese Entwicklungsphasen früher oder später durch als der Durchschnitt, so kann trotz Normalgewicht auch ein entsprechend der Altersgruppe zu hoher oder zu niedriger BMI vorliegen. Sterblichkeit. Der Zusammenhang zwischen Sterblichkeit und BMI wird unter Wissenschaftlern kontrovers diskutiert. Eine Metaanalyse von Katherine M. Flegal kam zu dem Ergebnis, dass Übergewichtige eine 6 % geringere Sterbewahrscheinlichkeit haben als Normalgewichtige. Und dies obwohl ein höherer BMI mit Erkrankungen korreliert. Man spricht hier vom Adipositas-Paradoxon. Andere Wissenschaftler warfen Flegal vor, Effekte wie Rauchen oder Krankheiten nicht ausreichend berücksichtigt zu haben. Rauchen schädigt die Gesundheit und reduziert gleichzeitig das Gewicht. Eine Studie an gesunden Weißen, die niemals geraucht hatten, kam zu dem Ergebnis, dass Menschen mit einem BMI zwischen 20 und 25 die geringste Sterblichkeit haben. Dem widersprachen Flegal und andere. Große Gruppen auszusortieren führt zu statistischen Fehlern. Fazit: Bei welchem BMI die Sterblichkeit am geringsten ist, ist noch nicht endgültig geklärt. Geschichte. Der BMI wurde 1832 von dem belgischen Mathematiker Adolphe Quetelet entwickelt. Die Bezeichnung Body-Mass-Index (BMI) entstammt einem 1972 veröffentlichten Artikel von Ancel Keys. Keys empfahl den BMI allerdings nur für den statistischen Vergleich von Populationen, nicht für die Beurteilung der Übergewichtigkeit von Einzelpersonen. Bedeutung gewann der BMI durch den Einsatz bei US-amerikanischen Lebensversicherern, die diese einfache Einstufung benutzen, um Prämien für Lebensversicherungen so zu berechnen, dass zusätzliche Risiken durch Übergewicht berücksichtigt werden. Seit Anfang der 1980er Jahre wird der BMI auch von der Weltgesundheitsorganisation WHO verwendet. Die jetzige BMI-Klassifikation der WHO besteht im Wesentlichen seit 1995. In einigen deutschen Bundesländern (z. B. Baden-Württemberg und Nordrhein-Westfalen) wird der Body-Mass-Index als Kriterium für die Verbeamtung im öffentlichen Dienst herangezogen. Personen mit zu hohem oder zu niedrigem BMI werden nicht verbeamtet. Diese Regelung wurde verschiedentlich stark kritisiert. Kritik. Die Verwendung des BMI für die Diagnose von Untergewicht oder von körperfettbedingtem Übergewicht anhand fest definierter Grenzwerte ist sehr umstritten. Denn ein relativ hohes Körpergewicht und damit ein hoher BMI können auch durch viel Muskelmasse, höhere Knochendichte, stärkere Knochen- und Gelenkdurchmesser, größere Schulterbreite (bei Personen mit gleicher Körpergröße durchaus im Dezimeterbereich) und viele andere Faktoren verursacht sein. Besonders stark trifft dies bei Sportlern zu. Austrainierte Kraftsportler ohne viel Körperfett haben allein aufgrund ihrer Muskelmasse einen hohen BMI. Ausdauersportler (5km-Lauf, 10km-Lauf, Marathonlauf), die an den olympischen Spielen 1960 in Rom teilnahmen, haben einen BMI von 20–21, Kraftsportler (Gewichtheber, Speer-, Hammer- und Diskuswerfer, Kugelstoßer) einen BMI von 26–29. Daher wird für die medizinische Diagnose von Unter- und Übergewicht der Maßstab dessen, was als normalgewichtig gilt, gegebenenfalls angepasst. So wurde beispielsweise für Querschnittgelähmte eine Senkung der Grenze zwischen Normal- und Übergewicht von 30 kg/m² auf 22 kg/m² gefunden. In der "anthropometrischen Geschichte" und Historischen Anthropologie wird der mittlere Body-Mass-Index von Bevölkerungsgruppen, ähnlich wie die Körpergröße, als Indikator für den Lebensstandard verwendet. Anhand von historischen Daten, die zum Beispiel bei Rekrutenmusterungen erhoben wurden, sind Rückblicke in die Vergangenheit möglich. In weiter zurückliegende Zeiten führen Schätzungen des BMI zurück, die an Knochen aus archäologischen Zusammenhängen durchgeführt wurden. An ihnen kann eingeschätzt werden, dass die durchschnittliche Ernährung im frühen Mittelalter Europas recht gut war. Andere Indizes. Neben dem BMI existieren eine Reihe weiterer Indizes. Am bekanntesten sind der Broca-Index und der Ponderal-Index. Der Körperbau-Entwicklungsindex von Wutscherk soll sich sogar zu einer biologischen Altersbestimmung eignen. Einer über acht Jahre laufenden Studie der Münchener Ludwig-Maximilians-Universität mit über 11.000 Probanden zufolge ist für die Bewertung von gesundheitlichen Risiken das Verhältnis von Bauchumfang zur Körpergröße („Waist-to-height ratio“, WHtR) besser geeignet, da hier genauere Rückschlüsse auf den gesundheitlich bedenklichen Bauchfettanteil gezogen werden können. Im Unterschied zum BMI stellt der Area Mass Index (AMI) das Verhältnis der Körpermasse (ugs.: Körpergewicht) zur tatsächlichen Körperoberfläche dar, wobei die Körperoberfläche vom individuellen Körperbau (Statur) und dem Geschlecht einer Person abhängt. Eine Studie des Instituts für Ernährungsforschung Potsdam-Rehbrücke und der Medizinischen Klinik IV der Universität Tübingen im Jahre 2012 kam zu dem Ergebnis, dass der BAI dem BMI in seiner Aussagekraft unterlegen ist und der BMI demgegenüber in engerer Beziehung zur Körperfettverteilung steht – insbesondere bei Männern. Der gemessene Taillenumfang habe dagegen, der gleichen Studie zufolge, eine noch höhere Aussagekraft über den prozentualen Körperfettanteil als der BMI oder der BAI. Auch bei der Abschätzung des Diabetesrisikos war der BMI dem BAI überlegen, allerdings hatte auch hier der Taillenumfang wieder eine noch höhere Aussagekraft. Der BAI komme laut der Studie somit nicht als Alternative zum BMI in Betracht, das Messen des Taillenumfangs als Ergänzung zur Bestimmung des BMI sei dagegen sinnvoll. Das ursprünglich primär als körperästhetisches Maß eingeführte Taille-Hüft-Verhältnis sowie auch das Maß der Körperoberfläche nach der Mosteller-Formel sollen ebenfalls eine Abschätzung des Körperfettanteils ermöglichen. Als eher kommerziell orientiert sind sogenannte Vitalanalysen anzusehen. Der Energie-Masse-Index (EMI) bewertet das fett- und wasserfreie Körpergewicht eines Menschen in Relation zum Quadrat seiner Körpergröße. Mit dem EMI sind Rückschlüsse auf den Schwierigkeitsgrad hinsichtlich einer Reduktion von Körperfett, auf die Bedeutung des Muskulaturaufbaus und auf den Energiebedarf möglich. Bruchspaltanästhesie. Die Bruchspaltanästhesie ist ein medizinisches Verfahren zur örtlichen Betäubung von Frakturen. Sie findet Anwendung bei Behandlung von Radiusfrakturen, wenn eine Allgemeinanästhesie nicht möglich oder erforderlich ist. Es wird hierbei ein Lokalanästhetikum perkutan mit einer Kanüle direkt in den Bruchspalt gespritzt. Bill Murray. William James „Bill“ Murray (* 21. September 1950 in Wilmette, Illinois) ist ein US-amerikanischer Schauspieler, Regisseur, Komödiant und Produzent. Murray ist einem breiten Publikum durch eine Reihe erfolgreicher Filmkomödien in den 1980er Jahren bekannt geworden, wobei seine Arbeit mit dem Regisseur Ivan Reitman herausragt. Ab den 1990er Jahren erweiterte Murray sein Repertoire um tragikomische und ernsthafte Rollen, für welche er zunehmend auch von der Filmkritik gewürdigt wurde. Murray hat sich eine treue Fangemeinde erarbeitet, in der er Kultstatus genießt. Leben. Bill Murray wurde in einem Vorort von Chicago als viertes von neun Kindern geboren und wuchs in einfachen Verhältnissen auf. Seine Eltern waren irischer Abstammung. Murray wurde römisch-katholisch erzogen. Schon früh begann er mit seinem Bruder Brian zusammen als Golfcaddy zu arbeiten, um seine Ausbildung bezahlen zu können. Als Teenager spielte er in einer Rockband und in der High School gehörte er einer Theatergruppe an. Während seiner Zeit am College verdiente er sein Geld als Dealer mit Marihuana. Im Alter von 21 Jahren wurde er deswegen verhaftet und bekam eine Bewährungsstrafe. Murray begann an der römisch-katholischen Regis University in Denver, Colorado, Medizin zu studieren, brach das Studium jedoch bald ab und kehrte wieder nach Illinois zurück. Im Jahr 2007 verlieh ihm die Regis University die Ehrendoktorwürde. Mit Miguel Ferrer, Bill Mumy und ihrer gemeinsamen Band "The Jenerators" spielt er noch vereinzelt Club-Konzerte. Bill Murray war zweimal verheiratet, von 1981 bis 1996 mit Margaret Kelly und von 1997 bis 2008 mit Jennifer Butler. Aus den beiden Ehen hat er sechs Söhne. Drei seiner Geschwister (John, Joel und Brian) sind ebenfalls Schauspieler. Saturday Night Live. Mitte der 1970er brach Murray sein Medizinstudium ab und schloss sich dem Improvisationstheater Second City an. Er gehörte zum Ensemble der 1975–76 ausgestrahlten TV-Show "Saturday Night Live with Howard Cosell". Ab 1977 war er fester Bestandteil des Autoren- und Darstellerteams der legendären TV-Sendung "Saturday Night Live" und erhielt seinen ersten Emmy. Schauspielerei. Im Jahr 1976 gab Murray sein Spielfilmdebüt in Paul Mazurskys "Ein Haar in der Suppe" in einer kleinen Nebenrolle, allerdings ohne Nennung im Abspann. 1979 begann die Zusammenarbeit mit Ivan Reitman mit der Hauptrolle in dessen Film "Babyspeck und Fleischklößchen". Reitman war es auch, der Murray mit den Komödien "Ich glaub’, mich knutscht ein Elch!" und "Ghostbusters – Die Geisterjäger" zum Durchbruch verhalf. Weitere große Erfolge konnte Murray mit "Caddyshack", "Tootsie" und der Dickens-Adaption "Die Geister, die ich rief" verbuchen. 1989 folgte mit "Ghostbusters II" ein weiterer sehr erfolgreicher Reitman-Film. 1993 spielte Murray in "Und täglich grüßt das Murmeltier" einen Reporter, der denselben Tag immer wieder von neuem erlebt. Diese Rolle ist bis heute eine seiner bekanntesten und beliebtesten. Nach einer kleinen Flaute ab Mitte der 1990er gelang ihm 1999 mit der gesellschaftskritischen Komödie "Rushmore", seinem ersten Film mit Wes Anderson, ein Comeback. Seitdem gehört er zum festen Schauspielerensemble von Wes Anderson. Obwohl Murrays Rolle in Rushmore wieder eine komische war, bekam er insgesamt sieben Preise dafür, darunter den Preis der Los Angeles Film Critics Association. Ebenfalls recht erfolgreich war seine zweite Zusammenarbeit mit Anderson, die Tragikomödie "The Royal Tenenbaums" im Jahr 2001. Ein Höhepunkt seiner Karriere war der Film "Lost in Translation" (2003) von Sofia Coppola. Für diese Rolle erhielt er u. a. einen Golden Globe sowie eine Oscar-Nominierung. 2004 folgte mit dem kommerziellen Flop "Die Tiefseetaucher" ein weiterer Anderson-Film. Darauf folgte 2005 die ihm von Jim Jarmusch auf den Leib geschriebene Hauptrolle in dem Film "Broken Flowers", in dem er sich als eingefleischter Junggeselle eher widerwillig auf die Suche nach der Mutter seines angeblichen (19 Jahre alten) Sohnes quer durch die Vereinigten Staaten auf den Weg macht. In der Zombie-Komödie "Zombieland" aus dem Jahr 2009, die in Teilen auch als eine Hommage an den Schauspieler interpretiert werden kann, verkörpert Murray sich selbst. Regiearbeit. Mit dem Remake "Ein verrückt genialer Coup" lieferte Murray 1990 seine erste Regiearbeit ab, die nach eigenen Angaben auch seine letzte bleiben soll. Besonderheit. Bill Murray hat keinen Agenten; um mit ihm in Kontakt zu treten, muss man eine Nachricht auf einem Anrufbeantworter hinterlassen. Synchronstimme. Seine deutsche Synchronstimme stammt zumeist von Arne Elsholtz. In früheren Filmen wurde er aber auch z. B. von Manfred Lehmann, Manfred Seipold und Sigmar Solbach synchronisiert. Billy Bob Thornton. William Robert „Billy Bob“ Thornton (* 4. August 1955 in Hot Springs, Arkansas) ist ein US-amerikanischer Schauspieler, Theater-und Drehbuchautor, Regisseur und Sänger. Leben. Thornton hatte seine erste Fernsehrolle in der NBC-Sitcom "Küß’ mich, John" an der Seite von John Ritter und Markie Post. Kritiker wurden zum ersten Mal auf ihn aufmerksam, als er in "One False Move" in die Rolle eines Bösewichts schlüpfte. Kleinere Rollen hatte er in den Filmen "Indecent Proposal", "On Deadly Ground" und "Tombstone". 1996 schrieb er den Film "Sling Blade – Auf Messers Schneide", bei dem er Regie führte und auch mitspielte. Dieser ist eine Erweiterung des Kurzfilms "Some Folks Call It a Sling Blade". Es geht dabei um einen geistig Behinderten namens Karl Childers. Dieser Film machte ihn zum Star: Für das Drehbuch gewann Thornton einen Academy Award, außerdem wurde er in der Kategorie Bester Schauspieler nominiert. 1997 und 2002 gewann er je einen Chlotrudis Award als "Bester Schauspieler". Thornton begann nebenbei eine Karriere als Sänger in dem Rock-’n’-Roll-Stil "Americana". Er veröffentlichte bereits vier CDs: "Private Radio" (2001), "The Edge of the World" (2003), "Hobo" (2005) und "Beautiful Door" (2007). 2008 gründete er mit zwei Freunden die Band "The Boxmasters", die inzwischen drei CDs veröffentlicht hat. Seine deutschen Synchronstimmen sind meistens Joachim Tennstedt oder Gudo Hoegel. Billy Bob Thornton ist zum sechsten Mal verheiratet. Von 1978 bis 1980 war er mit Melissa Lee Gatlin verheiratet. Mit ihr hat er eine Tochter. 1986 ehelichte er die Schauspielerin Toni Lawrence. Das Paar trennte sich 1988. Von 1990 bis 1992 war Thornton mit der Schauspielerin Cynda Williams verheiratet. 1993 trat er mit dem Playboy Model Pietra Dawn Cherniak vor den Traualtar. Das Paar trennte sich 1997. Aus dieser Ehe gingen zwei Söhne hervor. Von 2000 bis 2003 war Thornton mit der Schauspielerin Angelina Jolie verheiratet, der er den Song "Angelina" widmete. Am 22. Oktober 2014 heiratete er seine langjährige Lebensgefährtin Connie Angland. Das Paar hat eine Tochter. Diskografie. Billy Bob Thornton 2007 in San Francisco Bonsai. (jap.) ist die japanische Variante einer alten fernöstlichen Art der Gartenkunst, bei der Sträucher und Bäume in kleinen Gefäßen oder auch im Freiland zur Wuchsbegrenzung gezogen und ästhetisch durchgeformt werden. Diese Kunstform entstand wahrscheinlich in China, wo sie Penjing genannt wird. Eine weitere Form sind die Miniatur-Wohnlandschaften der vietnamesischen Hòn Non Bộ. Eigenständige Traditionen, die meist auch als "Bonsai" bezeichnet werden, gibt es im indonesischen Raum, zum Beispiel auf Bali. Im Westen entwickeln sich Varianten, die vor allem auf dem Einbezug einheimischer Arten (Olivenbäume in Italien und Spanien, Ponderosa-Kiefern in den USA) beruhen. Begriffsbestimmung. Das japanische Wort "bonsai" (, dt. „Anpflanzung in der Schale“) geht zurück auf den chinesischen Begriff 盆栽 "pénzāi". So wurde ein Aspekt innerhalb der Kunstform der "penjin" genannt ((,)). Das Wort "bonsai" besteht aus den beiden Wörtern "bon" „Schale“ und "sai" „Pflanze“. "Penzai" entsprechen nur teilweise "shumu penjing", wie ohnehin die Grenzen dieser Begriffe fließend sind. So kann die Abbildung ganz oben im Artikel durchaus als "penzai", aber auch als "shanshui penjin" bezeichnet werden, da der Stein als Felskuppe interpretiert werden kann. In Japan verlegte sich der Schwerpunkt von Landschaftsgestaltungen ganz auf die Baumgestaltung; es existiert zwar der Begriff "saikei", der Miniaturlandschaften mit kleinen Holzpflanzen bezeichnet, diese haben aber keineswegs den Stellenwert der chinesischen Penjin. Es werden auch Gartenbäume nach den formalen Kriterien von Bonsai gestaltet. Geschichte. Die heute bekannten Bonsai sind häufig im japanischen Stil gestaltet, der sich Anfang des 20. Jahrhunderts herausbildete. Doch die Bonsaikunst ist viel älter und entstammt der Gartenkunst des Kaiserreiches China. China. Höfische Gesellschaft der Ming-Zeit, mit Penjing im Vordergrund In der frühen Han-Dynastie (206–220 n. Chr.) wurden bereits künstliche Landschaften mit Seen, Inseln und bizarren Felsformationen in Palastgärten der Kaiser nachgestaltet, auch die Topfpflanzen-Kultur war bereits bekannt. Der Mythologie nach lebte in dieser Zeit der Zauberer Jiang-Feng, der die Fähigkeit besaß, ganze Landschaften mit Felsen, Wasser, Bäumen, Tieren und Menschen verkleinert auf ein Tablett zaubern zu können. In dieser Zeit entstand offenbar die Kunst des "Penjing" – auch wenn einige der Bäume zwei und mehr Meter hoch waren und in großen Schalen im Garten gepflegt wurden. In der Tang-Dynastie (618–907) findet sich die älteste bekannte Darstellung eines Penjing, einer Miniaturlandschaft mit grazilen Bäumchen und Felsen, in den Grabkammern des Prinzen Zhang Huai. Diese Epoche galt als sehr kunstsinnig, Poeten und Maler wandten sich insbesondere der Natur zu. Die Song-Dynastie (960–1279) brachte die Penjing-Kultur zu einer ersten Blüte. Als besonders beliebt galten nun knorrige Bäume, vor allem Kiefern, die aus Baumwurzeln gezogen wurden. Parallel dazu bildete sich die Kunst des "Suiseki" heraus, das ohne Bäume auskommt und schön geformte Steine auf wassergefüllten Tabletts platziert. So werden Eindrücke von Küstenlinien oder dramatischen Felslandschaften im Hochgebirge hervorgerufen. Das zeitgenössische Buch "Yunlin Shipu" zählt 116 Steinarten auf, die zur Gestaltung verwendet werden können. In der Yuan-Dynastie (1280–1368) waren Miniatur-Penjing besonders beliebt. Der Grundsatz, „im Kleinen zugleich das Große“ zu erblicken (He-Nian, ein Dichter, verfasste eine Reihe Gedichte über die „winzigen“ Penjing des Mönches Yun Shangren, daraus das Zitat), wurde in den darauffolgenden Jahrhunderten zu einem wichtigen Leitsatz. Seit Ende der Ming-Dynastie (1368–1644) werden Einzelbäume und Schalenlandschaften vermutlich erstmals als "penjing" bezeichnet. In dieser Zeit wurde eine Reihe von Büchern verfasst. Die damals sehr populäre chinesische Landschaftsmalerei gab der Penjing-Kunst neue Impulse. Man bezeichnete sie als „dreidimensionale Gemälde“, „stumme Gedichte“ oder „lebende Skulpturen“, meist waren sie etwa einen halben Meter groß, so dass sie noch auf einem Teetischchen platziert werden konnten – dann galten sie als besonders kostbar. Es heißt, wer erfolgreich einen Bonsai gezogen und gepflegt hat, müsse sich keine Sorgen um das Wohl seiner Seele nach dem Tod machen. Japan. Im 10./11. Jahrhundert brachten buddhistische Mönche die Bonsaikunst nach Japan. Dort entwickelte sich der Bonsai-Stil lange Zeit parallel zu China. In der Edo-Zeit erfuhr die Mode der Topfkultivierung von Pflanzen und Bäumen einen starken Aufschwung, nicht zuletzt durch das Vorbild des damaligen Shogun Tokugawa Iemitsu (1604–1651). Damals sammelte man vor allem Pflanzen, deren Blüten und Blätter auffällige Mutationen hervorgebracht hatten und so in der Natur nicht vorkamen. Viele dieser Bäume wiesen Krümmungen und Biegungen auf, die heute unnatürlich erscheinen („Oktopus-Stil“, einige Exemplare aus der Iemitsu-Sammlung sind bis heute erhalten). Diese seltenen Pflanzen wurden bald zu Spekulationsobjekten, ganz ähnlich wie beim holländischen Tulpenfieber. Gegen Ende der Edo-Periode kam das Shogunat ins Wanken. Vor allem die Bunjin (jap., chin. "wénrén" „Mann des Wortes“, wird aber meist mit „Literat“ übersetzt) taten sich von Kyōto und Ōsaka aus als Organisatoren von Demonstrationen und anderen anti-monarchistischen Aktionen hervor. Sie wandten sich auch gegen die sehr artifizielle Bonsai-Kultur jener Zeit, und aufgrund ihrer Beschäftigung mit chinesischer Malerei und Literatur fanden sie zu einem neuen Stil, den "Bunjingi" (Der Name ist in Anlehnung an den „Literaten-Stil“ der chinesischen Kunst entstanden). Sie bevorzugten heimische Arten wie Kiefern und Ahorne und nahmen die Natur zum Vorbild für ihre Gestaltungen. In der damaligen kunsttheoretischen Literatur (beispielsweise im chinesischen "Senfkorngarten", im "Yuo Hikusai-gafu" und im "Kaishi-en-kaden") wurden die heute bekannten Stilformen wie Kengai und Chokkan bereits formuliert. Besonders in der Kaiserstadt Kyōto und in Ōsaka war der Stil bei Gelehrten sehr beliebt, und galt als antinational und avantgardistisch. Während die Herrschenden eine Politik der Isolierung betrieben und eine Reise nach China bei Todesstrafe verboten war, formten sich die japanischen Gelehrten ihr eigenes kleines China aus Felssteinen und Pflanzen nach. Dabei wurden die Bäume immer stärker zum Ausdruck ihrer Vorstellung von einem Leben, in dem man seine Ideale kompromisslos verwirklichen kann. Anfang der Meiji-Zeit entdeckte auch die Tokioter Oberschicht ihre Liebe zum Bonsai. Das Gestaltungsideal war jedoch nicht länger die Form natürlich wachsender Bäume, sondern ihre Nähe zur chinesischen Malerei. Bonsai wurden in Teehäusern ausgestellt und erreichten allmählich auch die unteren Schichten der Bevölkerung. Nach dem Sieg im Krieg gegen China und Russland verkörperten sie wieder den Geist des Revolutionären in einem Klima des von oben verordneten Nationalismus und avancierte endgültig zur Kunstform, die auch auf Ausstellungen gezeigt wurde. Man wollte „ein Kunstwerk schaffen, das natürlicher als die Natur selbst ist, wobei stets die Schönheit der Natur als Vorbild dient“. Gegen Ende der Meiji-Zeit formte sich das noch heute gültige Gestaltungsideal aus, wonach Bunjingi einen hohen, geschwungenen Stamm und wenig Äste aufweisen sollen. 1867 stellte Japan auf der Weltausstellung in Paris erstmals Bonsai einer westlichen Öffentlichkeit vor. Nach dem Zweiten Weltkrieg verbreitete sich Bonsai als Hobby in der ganzen Welt. Die Bonsai-Kultivierung. Der Bonsai-Baum ist ein in einem Pflanzgefäß gezogenes Bäumchen, das durch Kulturmaßnahmen (Formschnitt, Wurzelschnitt, Blattschnitt, Drahtung) klein gehalten wird und in künstlerischer Gestaltung in eine gewünschte Wuchsform gebracht wird. Diese folgt den Prinzipien des Wabi und Sabi der Zen-Kultur und den – teils konfuzianisch, teils taoistisch beeinflussten – Baumdarstellungen der klassischen chinesischen Malerei. In Japan werden Bonsai im Garten oder in der Tokonoma, einer gestalterisch hervorgehobenen Nische im Zimmer aufgestellt. Bonsaibäume können bei guter Pflege viele hundert Jahre alt und sehr wertvoll werden. Im Westen wird unter Bonsai im Allgemeinen nur der "Bonsai-Baum" verstanden. Bonsai, in Japan eingebettet in eine Natur- und Weltanschauung, wird damit auf Formales und Ästhetisches reduziert. Der kulturelle Hintergrund der japanischen Vorbilder wird zwar wahrgenommen und unterschiedlich stark reflektiert, spielt aber insgesamt eine untergeordnete Rolle. Gehölzarten für Bonsai. Für Bonsai eignen sich nahezu alle verholzenden, kleinblättrigen oder kleinnadligen Baum- und Straucharten. Traditionell werden in Japan Kiefern (zum Beispiel Mädchen-Kiefer, "Pinus parviflora"), Wacholder, Ahorne (Dreispitz-Ahorn, "Acer buergerianum", und Fächer-Ahorn, "Acer palmatum"), asiatische Ulmenarten (besonders die Chinesische Ulme, "Ulmus parviflora"), Azaleen, Fruchtbäume wie Kulturapfel oder Japanische Aprikose (') verwendet. In Mitteleuropa verwendet man vorwiegend einheimische Gehölze, die an das regionale Klima angepasst sind, aber auch importierte winterharte Pflanzen aus Japan und anderen Ländern. Beliebt sind kleinblättrige Ahornarten – unter ihnen die rotblättrigen japanischen Ahornsorten – sowie Kiefern, Fichten, Buchen und Wacholder. Allerdings werden einheimische Bonsai, besonders kleinere Exemplare, vor starken Frösten geschützt, indem sie beispielsweise im Boden eingesenkt oder mit einer Mulchschicht bedeckt werden. Bereits Luftfrost könnte zum Durchfrieren des Schaleninhalts führen, dagegen stehen Bäume in der Natur nur sehr selten in dauerhaft gefrorenem Boden. Im Zuge der Verbreitung der Bonsaikultur im westlichen Kulturkreis wurden die Bonsaitechniken auch auf verholzende Zimmerpflanzen (englisch "indoor plants") übertragen, sodass heute zwischen "Indoor" und "Outdoor" unterschieden wird. Die Kultur von Indoors ist problematisch, da man ihnen die dringend benötigten Lebensbedingungen (durchgehend 2000–3000 Lux 12 Stunden am Tag, Luftfeuchte bei 70–90 Prozent bei einer Temperatur von etwa 15–30 °C) in normalen Haushalten kaum bieten kann und die Pflanzen folglich kränkeln oder eingehen. Schwierig ist erfahrungsgemäß die Zimmerkultur des Fukientees (', im Handel oft als "Carmona"-Bonsai bezeichnet) und des Junischnees ('). Einzig kleinblättrige Arten der Gattung Ficus haben sich als so robust und anpassungsfähig erwiesen, dass sie problemlos als Indoor-Bonsai gehalten werden können. Sie gelten heute als die typischen Anfängerpflanzen. Bonsai können aus Sämlingen, aus Jungpflanzen und aus in der Natur gesammelten Pflanzen (Yamadori) geformt werden. Oft eignen sich auch Baumschulpflanzen oder Containerpflanzen aus dem Gartencenter. Genetisch unterscheiden sich Bonsai-Bäume nicht von gewöhnlichen Pflanzen. Daher gibt es auch keine Bonsaisamen. Allein durch die Kulturmaßnahmen behält der Bonsai-Baum seine charakteristische Größe. Findlinge bzw. Yamadori. Neben der Vermehrung aus Samen, Stecklingen oder dem Weiterentwickeln von Baumschulpflanzen bietet sich auch das Ausgraben von Bäumen, so genannten Findlingen, an. Besonders wild aussehende Bäume (zum Beispiel aus dem Hochgebirge) werden "Yamadori" genannt. Ein Übersiedeln eines alten Gewächses kann sich aber aufwändig gestalten und erfordert Erfahrung, jedoch kann diese Art der Rohpflanzengewinnung zu besonders schönen und interessanten Bonsai führen. Bevor man sich einen Findling aneignet, muss unbedingt die Erlaubnis des Grundeigentümers oder des jeweiligen Besitzers eingeholt werden und allenfalls umweltschutzrechtliche Aspekte geklärt werden. Einen Baum ohne Erlaubnis des Eigentümers oder Besitzers auszugraben ist illegal (Waldfrevel) und kann strafrechtlich und auch zivilrechtlich verfolgt werden. Im Westen sind ökologische Folgen der Yamadori-Suche heute noch vernachlässigbar, in Japan dagegen wurden auf diese Weise über lange Zeit ganze Gebiete geplündert (etwa von Wacholdern). Miniatur-Bonsai/Mame. Mame-Bonsai sind nur wenige (höchstens 20) Zentimeter groß. Diese Art von Bonsai erfordert langjährige Erfahrung, da es wesentlich schwerer ist, solche Bonsai zu pflegen (Gefahr der Austrocknung, Schwierigkeiten der Gestaltung). Meistens kann man diese Form von Bonsai nicht sehr lange in dieser Größe halten, oft werden sie dann zu größeren Bonsai weiterentwickelt. Gestaltungsrichtlinien. Zur Bonsaigestaltung bestehen unterschiedliche und teils einander widersprechende Ansichten über die einzelnen Stilelemente, die sich insbesondere auf die Stammform, die Astanordnung, Feinverzweigung und die passende Schale beziehen. Abweichende Standpunkte in unterschiedlichen Regionen und Epochen sowie uneinheitliche Leitlinien zahlreicher Verbände und Vereine führten zu den verschiedenartigen Gestaltungsrichtlinien für Bonsai. Gemeinsam ist ihnen im Allgemeinen, dass ein Bonsai als lebende, dreidimensionale Skulptur, entweder wie ein miniaturisierter freiwachsender Baum oder aber eine stilisierte Interpretation eines solchen Baums auf den Betrachter wirken soll. Oft sind die festgelegten Gestaltungsrichtlinien für Bonsai bei Wettbewerben und zur finanziellen Wertbestimmung von entscheidender Bedeutung. Dabei ist auch die Gesamterscheinung und Individualität des Baumes im Rahmen der Gestaltungsregeln von großem Einfluss. Viele exzellente und teure Bonsai weisen dagegen nur eine begrenzte Treue zu den strengen Gestaltungsrichtlinien auf, imponieren jedoch durch ihre Einzigartigkeit und Komplexität, was häufig nur ohne Berücksichtigung der Grundregeln möglich ist. Die Gestaltungsregeln für Bonsai werden in der Fachliteratur und bei Verbänden oft und kontrovers diskutiert. Grundschnitt und Erhaltungsschnitt. Der erste Schnitt ist der Gestaltungs- oder Grundschnitt. Hierbei legt man die Gestaltungsform fest. Im Erhaltungsschnitt wird eine dichter werdende Verzweigung angestrebt. Ein regelmäßig durchgeführter Schnitt sorgt für einen kompakten Wuchs, für eine feine Verzweigung, beziehungsweise eine ausreichende Dichte. Dabei werden die aus der Gestaltungsform hinauswachsenden Triebe zurückgenommen. Wird wenig zurückgeschnitten, so wird weniger Wachstum angeregt, als bei einem seltenen, dafür aber starken Rückschnitt. Der jeweilige Neuaustrieb hängt wesentlich von der Jahreszeit ab. Einheimische Arten treiben zumeist im Frühjahr oder im Juni aus. Bei der Entfernung alter Zweige, man spricht dann vom mehrjährigen Holz, werden besonders sogenannte schlafende Knospen zum Austrieb angeregt, was eine Erneuerung aus dem Inneren der Baumkrone bewirkt. Das Entfernen der Pfahlwurzel fördert die Verzweigung des Wurzelballens, sodass sich ein feines, gleichmäßiges Wurzelsystem bildet. Auch der Standort der Pflanze ist von Bedeutung. An einem zu dunklen Standort wird sie Langtriebe, die sogenannten Strecktriebe hervorbringen. Meist gibt es kaum Kompromisse in Bezug auf die Lichtbedürfnisse der einzelnen Arten. Drahtung. Drahtung und Formung eines Bonsais Außer durch die traditionelle Methode des „Zurückschneidens und Wachsenlassens“, können die Äste auch durch Spanndrähte geformt werden. Traditionell wurden Palmfaserschnüre verwendet. Heute wendet man meist die Methode der Drahtung an. Dazu werden der Stamm, die Äste oder die Zweige (je nachdem, welchen Teil des Baumes man korrigieren möchte) spiralig mit eloxiertem Aluminium- oder weichgeglühtem Kupferdraht umwickelt und vorsichtig in Form gebogen. Blattschnitt. Durch einen Blattschnitt wird ein ‚künstlicher Herbst‘ vorgetäuscht. Er wird besonders in starkwüchsigen Zonen des Baumes angewandt, um ihn zur verstärkten Bildung von Seitentrieben anzuregen und die Feinverzweigung zu fördern. Zudem sind die neu ausgetriebenen Blätter meist etwas kleiner und wirken dadurch harmonischer zur Bonsaigröße. Zum Schutz der Knospe wird dabei in der Blattachsel der Stiel stehen gelassen. Beim Austrieb der Knospe fällt der Stiel später ab. Entrinden. Durch das Entrinden von Stamm- oder Astpartien (in der Fachsprache "Shari" für Stammpartien, beziehungsweise "Jin" für Aststümpfe genannt) erhält der Bonsai das Erscheinungsbild eines gealterten Baumes. Dabei kann das freigelegte Holz auch mit Werkzeugen wie Messer, Fräsen und Meißel weiterbearbeitet und gestaltet werden. Meist werden die bearbeiteten Partien abschließend mit einem Präparat auf Basis von Schwefelkalk behandelt. Das Mittel dient zur Sterilisation und zum Bleichen der Oberflächen. Abmoosen. Durch das sogenannte Abmoosen wird eine „Verkürzung“ der Bäume erreicht. Dazu wird die Rinde eines Pflanzenteils, z. B. eines Astes, bis auf das Kambium in einem 2 bis 4 cm breiten Streifen ringförmig abgeschält. Anschließend wird der rindenfreie Ring mit einem Substrat sowie einer Folie umhüllt und regelmäßig befeuchtet. Nach der Bildung von Wurzelmaterial kann der betreffende Pflanzenteil abgetrennt und als eigenständige Pflanze weiter kultiviert werden. Anplatten. Durch das Anplatten von Ästen oder Zweigen, vorzugsweise am Stamm der Ausgangspflanze, können Äste und Zweige einem gewählten Teil der Pflanze zugefügt werden. Die Schale. Was für das Bild der Rahmen, ist für den Bonsai die Schale. Sie stellt also einen weiteren wesentlichen Bestandteil des Gesamtkunstwerks Bonsai dar, und muss entsprechend zu jedem Baum individuell und sorgfältig ausgesucht werden. In manchen Fällen wird eine Schale auch extra für einen Baum in Handarbeit hergestellt. Für würdevolle alte Kiefern im aufrechten Stil bieten sich beispielsweise rechteckige Schalen in unglasierten Erdtönen an, für blühende oder zart gebaute Bäume würde man eher runde oder ovale Formen in hellen Tönen wählen. Kaskaden und Halbkaskaden wachsen in tieferen Schalen, da sonst das optische Gleichgewicht nicht stimmt und der Baum zu kippen scheint. Für Literatenformen werden oft runde Schalen (sogenannte Trommelschalen) benutzt. Bei der Auswahl der Schale ist zu beachten, dass diese nicht im Mittelpunkt stehen soll, sondern der Bonsai. Eine „zu schöne“ oder zu auffällige Schale lenkt von dem Bonsai ab und erfüllt somit nicht ihren Zweck. Ausnahmen bilden die kleinsten Bonsai, "Mame": Hier werden mit Vorliebe sehr bunte und auffällige Schalen verwendet. Begrenzter Wurzelraum. Da das Wurzelwachstum durch die Bonsaischale begrenzt wird, steht dem Baum nur wenig Raum zur Bildung zusätzlicher Wurzeln zur Verfügung. Um dennoch ausreichend Wachstum zu erhalten, ist wesentlich intensivierte Düngung erforderlich. Falls hierfür anstatt moderner mineralischer Substrate klassische Erdmischungen eingesetzt werden, ist eine der Baumart entsprechende, genau gesteuerte Wasserzufuhr notwendig, da das begrenzte Erdvolumen nur wenig Wasser speichert bzw. übermäßiges Gießen nur begrenzt abgefangen wird, so dass die Gefahr von Wurzelfäule oder düngerbedingter Versalzung der Erdmischung besteht. Daher ist der Einsatz mineralischer Substrate auf dem Vormarsch. Schädlinge und Krankheiten. Die Folgen eines Befalls, wie z. B. Blatt- oder Astverluste, fallen aufgrund der Baumgröße und der detaillierten Gestaltung stärker ins Gewicht als bei größeren Pflanzen. Die frühzeitige und fachgerechte Bekämpfung des Befalls ist hier besonders wichtig, wobei Ausfälle z.T. jedoch auch als Gestaltungsmerkmal genutzt werden können. Tokonoma. Zur traditionellen Ausstellungssituation in der Tokonoma gehören: Ein Rollbild im Hintergrund, das den Baum um eine weitere Dimension ergänzt (zu Kiefern passen ruhige Bergmotive, zu Ahornen auch Tierszenen), ein Tischchen oder eine lackierte Baumscheibe sowie eine „Akzentpflanze“, die als Kontrapunkt fungiert und das Thema der Szene vertieft und unterstützt (meist Gras, Bambus, kleinwüchsige Stauden in einem flachen Schälchen). Aus dieser Form der Aufstellung ergibt sich auch die im japanischen Gestaltungsstil erforderliche Wahl einer Vorderseite (Betrachtungsseite) des Bonsais. Auf der jährlich in Tokio stattfindenden "Kokufu-ten", der größten Bonsai-Schau Japans, werden seit 1933 die besten Bäume des Landes prämiert. Schon die Einladung zur Ausstellung gilt als große Ehre. Europäische Ausstellungssituation. In Europa hingegen werden Bonsai in der Regel nicht in Tokonoma aufgestellt. Eine ausgewählte Vorderseite ist darum oft weniger wichtig, ebenso die in Japan häufigen Begleitdekorationen (sogenannte Beisteller, kleine Figuren und Rollbilder). Ähnlich wie in chinesischen und japanischen Gärten werden auch Bäume gestaltet, die von allen Seiten betrachtet werden können. In vielen Ausstellungen dominiert aber nach wie vor ein traditionelles Schema, die Bäume werden auf längs aneinandergereihten Tischen vor Stellwänden präsentiert. Formkunde des asiatischen Bonsaistils. Die asiatischen Formen der Bonsaigestaltung leiten sich aus fast zweitausendjähriger Tradition ab, die heute noch Anwendung finden. Im Laufe des 20. Jahrhunderts entwickelten sich die heutigen Gestaltungsformen für den Bonsai. Dies gilt jedoch hauptsächlich für japanische Bonsai. In der europäischen Bonsaigestaltung haben sich nach einer anfänglichen Phase der reinen Adaption japanischer Formsprache allmählich Schwerpunkte gebildet: Neben den Verfechtern einer traditionellen Gestaltungsauffassung hat sich beispielsweise eine „naturalistische Bonsaigestaltung“ entwickelt, in der die Bonsai Bäumen in der freien Natur möglichst ähnlich sehen sollen. Daneben gibt es Gestaltungen, die von chinesischen Penjing beeinflusst sind, vereinzelt auch experimentelle, künstlerisch freie Gestaltungen. Die Gestaltungsziele weichen wesentlich voneinander ab: Während der in Europa vermittelte japanische Stil hauptsächlich auf die Einhaltung bestimmter formaler Vorgaben abzielt (s.u.), konzentriert sich der naturalistische Stil auf die Gestaltung interessanter naturnaher Formen. Künstlerisch freie Arbeiten benutzen den Bonsai dagegen als Gestaltungselement in einem weiteren Zusammenhang. In allen Fällen wird der Bonsai intensiv gestaltet, jedoch mit unterschiedlichem Fokus. Sōkan. Eine weitere Variante ist auch der "Dreifachstamm" (, "sankan") oder „Vater, Mutter und Sohn“. Bielefeld. a> und Blick auf die Innenstadt Niederwall am Rand der Altstadt, Wasserspiele über dem Stadtbahntunnel Bielefeld (ostwestfälisch "Builefeld", "Bielefeld", "Beilefeld" oder "Builefeild") ist eine kreisfreie Großstadt im Regierungsbezirk Detmold im Nordosten Nordrhein-Westfalens. Mit knapp 330.000 Einwohnern (Stand 31. Dezember 2014) ist sie die größte Stadt der Region Ostwestfalen-Lippe und deren wirtschaftliches Zentrum. In der Landesplanung ist Bielefeld als Oberzentrum eingestuft. Auf der Liste der größten deutschen Städte steht sie an 18. Stelle. Die erste Erwähnung lässt sich auf den Anfang des 9. Jahrhunderts datieren, als Stadt wird sie erstmals 1214 bezeichnet. Am Nordende eines Quertals des Teutoburger Waldes gelegen, sollte die Kaufmannsstadt den Handel in der Grafschaft Ravensberg fördern, deren größter Ort sie wurde. Bielefeld war lange Zeit das Zentrum der Leinenindustrie. Heute ist die Stadt vor allem Standort der Nahrungsmittelindustrie, von Handels- und Dienstleistungsunternehmen, der Druck- und Bekleidungsindustrie und des Maschinenbaus. Überregional bekannt sind ihre Universität, die v. Bodelschwinghschen Stiftungen Bethel, die Dr. August Oetker KG, die Laborschule Bielefeld und das Oberstufen-Kolleg Bielefeld, das Theater Bielefeld sowie der Sportverein Arminia Bielefeld. Geographische Lage. Bielefeld liegt auf der Wasserscheide zwischen Weser und Ems. Das Stadtgebiet gehört drei unterschiedlichen Naturräumen an. Der Norden und Nordosten einschließlich des Stadtzentrums sind in die Hügellandschaft der Ravensberger Mulde eingebettet. Unmittelbar südlich schließt sich der Gebirgszug des Teutoburger Waldes an, der Bielefeld von Westnordwest nach Ostsüdost durchzieht. Eine wichtige Verkehrsader war seit jeher der Bielefelder Pass, von dem aus sich der Stadtbezirk Gadderbaum mit Bethel in die Längstäler des Kammgebirges hinein erstreckt. Der Süden gehört zur Münsterschen Tieflandsbucht, deren Randbereich östlich des Bielefelder Passes das Sandgebiet der Senne bildet, in der neben Teilen des Stadtbezirks Brackwede die Stadtbezirke Senne und Sennestadt liegen. In der Innenstadt fließt der Lutterbach. In der Literatur wird Bielefeld deshalb auch ab und an als am Lutterbach liegend beschrieben. Dieser Bachlauf wurde im 15. Jahrhundert von der im Stadtteil Quelle entspringenden, Richtung Gütersloh fließenden Lutter abgezweigt. 2004 erfolgte eine Freilegung am Gymnasium am Waldhof. Die nördlichen Stadtteile Bielefelds liegen in einer sanft welligen Landschaft des Ravensberger Hügellandes mit Feldern, Wiesen, Bächen sowie kleinen Flüssen. Hier befindet sich der künstlich angelegte Obersee, der die größte Wasserfläche der Stadt darstellt und zur Regulierung des Johannisbaches angelegt wurde. Der nordöstliche Teil der Stadt entwässert über die Aa in die Weser, während das Wasser aus dem südwestlichen Teil der Ems zufließt. Die Wasserscheide bildet der fast völlig bewaldete Höhenzug des Teutoburger Waldes. Er dient als Naherholungsgebiet für die Bevölkerung der Großstadt. Durch den Teutoburger Wald führen zahlreiche Wanderwege inmitten des Bielefelder Stadtgebiets. Der bekannteste unter ihnen ist der Hermannsweg, der vom Hermannsdenkmal bei Detmold über die Sparrenburg nach Rheine führt. Die südlich des Teutoburger Waldes liegende Senne ist aus eiszeitlichen Sandablagerungen entstanden, von deren Heideflächen nur noch Reste im Stadtgebiet von Bielefeld erhalten sind. Heute wird dieses Gebiet von Äckern, Grünland und kleinen Wäldern, jedoch auch von Trockenrasen, Bruchwäldern und Feuchtwiesen geprägt. Markierung des 52. nördlichen Breitengrads Der höchste Punkt im Stadtgebiet liegt auf der Bergkuppe "Auf dem Polle" in Lämershagen auf, der niedrigste in Brake an der Aa an der Grenze nach Herford auf. Das Rathaus steht auf einer Höhe von 114 Metern. Bielefeld hat, nach dem Höhenprofil geschieden, damit Anteil an zwei verschiedenartigen Landschaften, dem höheren Hügelland des Ravensberger Berglandes im Norden und dem Flachland der Westfälischen Bucht im Süden. Durch das Stadtgebiet führt der 52. nördliche Breitengrad. Er wird am Hermannsweg durch einen Markierungsstein gekennzeichnet. Die nächstgelegenen Großstädte sind Hannover (100 Kilometer nordöstlich), Osnabrück (45 Kilometer nordwestlich), Münster (65 Kilometer westlich), Hamm (60 Kilometer südwestlich) und Paderborn (40 Kilometer südöstlich). Bielefeld liegt in einem Verdichtungsgebiet, das sich entlang der Bahnstrecke Hamm–Minden und der parallel verlaufenden Autobahn 2 von Gütersloh über Bielefeld und Herford bis Minden erstreckt. Geologie. In geologischer Hinsicht ist das Stadtgebiet dreigeteilt in einen südlichen Teil, der in der Westfälischen Bucht liegt, das Gebiet des Teutoburger Waldes, und einen nördlichen Teil, der im Ravensberger Hügelland liegt. Das Hügelland besteht im Wesentlichen aus 1000 bis 2000 Meter mächtigen Schichten von Tonmergel-, Kalk- und Sandsteinen des Erdmittelalters (Trias, Jura und Kreide). Charakteristisch für das Hügelland sind die zahlreichen Sättel, Mulden (zum Teil auch von Menschenhand ausgebaut, siehe Siek), Horste und Gräben. Im Teutoburger Wald wurden diese Gesteine in geomorphologischen Prozessen besonders deutlich herausgehoben und dann wie auch im Ravensberger Hügelland in die bereits genannten zahlreiche Sättel, Mulden, Horste und Gräben zerlegt. Der Osning wird daher auch als Bruchfaltengebirge charakterisiert. Die ehemals ungestört übereinander folgenden Gesteinsschichten sind im Osning daher heute nebeneinander oder gar in überkippter Lagerung anzutreffen. Von diesen Prozessen unbeeinflusst lagern im tieferen Untergrund die Gesteine des Erdaltertums (Devon, Karbon und Zechstein). Die Oberfläche des gesamten flacheren Stadtgebiets ist durch Lockergesteine des Eiszeitalters (Sand, Kies, Löss, Geschiebemergel) bestimmt. Während allerdings im verglichen mit dem nördlichen Hügelland eher flachen Süden (insbesondere in der Senne) die Sande und Kiese dominieren und nur am Rand des Teutoburger Waldes Löß zu finden ist, findet sich im Ravensberger Hügelland insbesondere in den Tälern eine fast durchgehende Bedeckung mit einer fruchtbaren, etwa 1 Meter mächtigen Lößschicht. Dieser Löß wurde im Quartär angelagert und verwitterte im Laufe der Zeit zu fruchtbaren Parabraunerden. Da sich unter dem Löß wasserundurchlässige Schichten befinden, sind insbesondere die Täler des Hügellandes feucht. Die hier vorherrschenden staunassen Pseudogleyen, die oft in den charakteristischen Sieken zu finden sind, eignen sich vielfach nur als Grünland. An der Grenze zum Münsterland haben sich aus den Schmelzwassersanden des Eiszeitalters Podsole entwickelt. Wie auch im Ravensberger Hügelland mit seinen Sieken und Plaggeneschen hat die historische Landbautechnik Einfluss auf die Böden im südlichen Stadtgebiet. Durch landwirtschaftliche Nutzung (teilweise auch Plaggenauftrag) haben sich teilweise tiefreichende Humusböden gebildet. In den Hanglagen des Osnings konnte sich eine tiefgründige Bodenbedeckung nicht halten. Hier dominieren die Festgesteine, die überwiegend eine dünne Humusschicht tragen und nur an wenigen Stellen direkt an die Oberfläche treten. Eine Bedeckung dieser Gesteine ist im Kammbereich nur flachgründig. Im nordöstlichen Kammbereich und in einigen dem Kamm südwestlich vorgelagerten Kuppen, wie dem Käseberg und dem Bokelberg, finden sich vorwiegend flachgründige, steinige, tonig-lehmigen Kalkstein-Verwitterungsböden (Rendzinen). Im Bereich des südwestlichen Kammes finden sich eher flachgründige nährstoffarme, saure und steinige Heideböden (Podsole), die durch Verwitterung der Sandsteine des Erdmittelalters entstanden sind. Ausdehnung und Nutzung des Stadtgebiets. Bielefeld ist als „Kleine Großstadt“ klassifiziert und bedeckt eine Fläche von 257,91 Quadratkilometern. Die größte Ausdehnung des Stadtgebiets beträgt in Nord-Süd-Richtung 22 und in West-Ost-Richtung 19 Kilometer. Die Flächennutzung in Bielefeld ist der folgenden Tabelle zu entnehmen. Der Anteil an der Landwirtschaftsfläche ist um etwa fünf Prozentpunkte höher als bei vergleichbaren Städten in NRW. Rund 7,5 Prozent der Stadtfläche sind als Naturschutzgebiet ausgewiesen. Von den Waldgebieten gehören 2256 ha zum Bielefelder Stadtwald. Nachbargemeinden. Spenge, Enger und Herford (alle Kreis Herford), Bad Salzuflen, Leopoldshöhe und Oerlinghausen (alle Kreis Lippe) sowie Schloß Holte-Stukenbrock, Verl, Gütersloh, Steinhagen, Halle (Westf.) und Werther (Westfalen) (alle Kreis Gütersloh). Stadtgliederung. Das Stadtgebiet Bielefelds ist in zehn Stadtbezirke eingeteilt. Jeder Stadtbezirk hat eine von der Bevölkerung gewählte Bezirksvertretung, die aus bis zu 19 Mitgliedern besteht. Vorsitzender der Bezirksvertretung ist der Bezirksbürgermeister (bis 2010 Bezirksvorsteher). Die Stadtbezirke sind wiederum amtlich in 92 Statistische Bezirke gegliedert. Im alltäglichen Sprachgebrauch wird für Ortsangaben in Bielefeld üblicherweise eine informelle Einteilung in Stadtteile verwendet. Diese Stadtteile entsprechen oftmals den ehemals selbständigen Gemeinden, die bei den Gebietsreformen von 1930 und 1973 nach Bielefeld eingemeindet wurden. Lage der Stadtbezirke im Stadtgebiet Klima. Das Klima in Bielefeld wird durch die Lage im ozeanisch-kontinentalen Übergangsbereich Mitteleuropas und durch seine Lage am Teutoburger Wald bestimmt. Das Gebiet liegt überwiegend im Bereich des subatlantischen Seeklimas mit teils temporären kontinentalen Einflüssen. Die Winter sind unter atlantischem Einfluss meist mild, die Sommer mäßig warm, die Niederschläge relativ gleichmäßig verteilt. Die Jahresmitteltemperatur in der Mitte liegt bei etwa 8,5 °C und im in der Westfälischen Bucht liegenden Süden des Stadtgebiets bei etwa 9 °C. In den Höhenlagen des Osnings ist sie deutlich niedriger und liegt bei etwa 7,5 bis 8 °C. Die Niederschläge sind maßgeblich durch die Lage am Teutoburger Wald beeinflusst. Insgesamt ist Bielefeld neben den Städten im Bergischen- und Siegerland eine der niederschlagsreichsten Großstädte Nordrhein-Westfalens. Die Jahresniederschläge liegen in allen Monaten deutlich über dem Landesschnitt. Die Niederschlagsmengen schwanken jedoch je nach Lage jährlich meist zwischen etwa 800 und 1000 Millimeter. Im Bereich des Stadtzentrums liegt der Jahresniederschlag bei etwa 890 Millimeter. Da die vorherrschenden Winde meist aus Richtung Südwesten wehen und dabei feuchte Luft vom Atlantik mitbringen, kommt es an der Luvseite des Teutoburger Waldes, der die erste Barriere am Rand des Weserberglandes darstellt, zu ausgeprägtem Steigungsregen. Daher erreichen die Jahresniederschläge im und am Südrand des Osning Werte bis deutlich über 1000 Millimeter. Die weiter in der Westfälischen Bucht gelegenen Orte im südlichen Stadtgebiet sind regenärmer. Hier liegt der Jahresniederschlag bei nur noch 750 Millimeter. Niedriger sind die Jahresniederschläge mit etwa 800 Millimetern auch in den geschützten Lagen im Aatal im Ravensberger Hügelland und im Lee des Osning. Für weitere konkrete monatliche Werte insbesondere für die Monatstemperaturen wird auf die in vergleichbarer naturräumlicher Lage liegenden und nahen Städte Herford (vergleichbar mit dem Norden Bielefelds) und Gütersloh (vergleichbar mit den südlichen Stadtbezirken) verwiesen. Geschichte. Bereits zur Mitte des 9. Jahrhunderts wurde der Ort erwähnt, als dem Kloster Corvey ein Mansus "in Bylanuelde" übertragen wurde. Die erste Erwähnung der Stadt Bielefeld stammt aus dem Jahr 1214. Bielefeld gehörte zu den zahlreichen Stadtgründungen des Hochmittelalters und entstand mit der Absicht, die Herrschaft des Landesherrn zu sichern, da sie an der Südgrenze der Grafschaft Ravensberg lag. Die Landesherren wollten den Ort als Kaufmannsstadt und Hauptstadt der Grafschaft ausbauen. Aufgrund seiner Lage an der Kreuzung mehrerer alter Handelswege und an einem wichtigen Pass durch den Teutoburger Wald entwickelte sich Bielefeld schnell zum Wirtschafts- und Finanzzentrum der Grafschaft Ravensberg. Um 1240 begann der Bau der Sparrenburg, die nach ihrer Fertigstellung als Wohnsitz des Landesherrn und seines Gefolges diente. Außerdem sollte die Burg die Stadt und den Pass über die Berge des Teutoburger Waldes schützen. Ab 1293 entstand die Neustadt. Bei den Bewohnern, überwiegend Kaufleute und Handwerker, wuchs der Wohlstand, nicht zuletzt durch den Beitritt zur Hanse im 15. Jahrhundert. Im Vorfeld und im Verlauf des Dreißigjährigen Krieges (1618–1648) wurde die Sparrenburg nacheinander von holländischen, spanischen, schwedischen und französischen Truppen besetzt. In den Jahren 1636 und 1637 wütete die Pest in Bielefeld und forderte rund 350 Opfer. Im 17. Jahrhundert begann die Entwicklung Bielefelds zur „Leinenstadt“, was in der damaligen Zeit vor allem Leinenhandel bedeutete. Die Bauern des Ravensberger Landes bauten auf ihren Ackerflächen anstatt Korn vorzugsweise den staatlich subventionierten Flachs an und verarbeiteten diesen in Heimindustrie zu Linnen oder Leinen. Der Leinenhandel führte zu einem gewissen Wohlstand in der Stadt. Um 1830 geriet das Bielefelder Leinenhandwerk in eine schwere Krise, da in Irland, England und Belgien mit der Produktion maschinell gewebter Stoffe begonnen wurde. Die wirtschaftliche Not vieler Bielefelder führte zu Unruhen während der Revolution von 1848. Darüber hinaus verließen viele Menschen ihre Heimat in Ostwestfalen und wanderten nach Amerika aus. Um 1860 entwickelte sich die Tabakproduktion im Ravensberger Land. Die Tabakfabrik Gebr. Crüwell in Bielefeld, eine der bedeutendsten ihrer Art in Deutschland, vergab bestimmte Arbeiten in Heimproduktion, so dass die Landbevölkerung neue Verdienstquellen fand. Als 1847 die Anbindung an die Cöln-Mindener Eisenbahn fertiggestellt war, entwickelten sich alsbald Fabriken. Mit der Ravensberger Spinnerei entstand ein Unternehmen, das sich zur größten Flachsspinnerei Europas entwickelte. Schon im Jahr 1870 war Bielefeld das Zentrum der Textilindustrie in Deutschland. 1867 wurden die Von Bodelschwinghschen Anstalten Bethel im heutigen Stadtteil Gadderbaum gegründet. Neben der Textilindustrie entwickelte sich der Maschinenbau. Heute ist Bielefeld der fünftgrößte Maschinenbaustandort Deutschlands. Zum Ende des 19. Jahrhunderts wurde die Nahrungsmittelindustrie für Bielefeld bedeutsam. Mit dem Oetker-Konzern beherbergt die Stadt einen der europaweit größten Vertreter dieser Branche. 1938 wohnten in Bielefeld rund 900 Bürger jüdischen Glaubens. Die jüdische Gemeinde verfügte über eine prächtige, im Jahr 1905 eingeweihte Synagoge in der Turnerstraße; sie wurde am 9. November 1938 in der Reichspogromnacht von den Nazis niedergebrannt. Viele Juden flohen ins Ausland. Von den insgesamt 460 deportierten Juden überlebten nur rund 60 den Holocaust. Der schwerste Luftangriff auf die Stadt im Zweiten Weltkrieg erfolgte am 30. September 1944. Er kostete 649 Menschen das Leben und zerstörte den größten Teil der Altstadt und viele historische Bauten. Am 4. April 1945 wurde die „Festung“ Bielefeld durch amerikanische Truppen eingenommen. Vorausgegangen waren zweitägige schwere Kämpfe in den Waldgebieten südlich der Stadt. Dem Mut einiger Bielefelder Bürger ist es zu verdanken, dass bei dem Vormarsch der amerikanischen Truppen weiteres Blutvergießen verhindert wurde. Der Brackweder Bürgermeister Herrmann Bitter öffnete am 3. April 1945 den Amerikanern die Panzersperren und wurde daraufhin vom NSDAP-Kreisleiter erschossen. Als die amerikanischen Verbände am 4. April 1945 Richtung Innenstadt vorrückten, fuhr der evangelische Pastor Karl Pawlowski auf seinem Fahrrad die kampfbereiten deutschen Abwehrstellungen entlang und bewog die Soldaten zum Abzug. Daraufhin wurde Bielefeld ohne Gegenwehr eingenommen. Als die ersten amerikanischen Jeeps durch Bielefeld fuhren, wehte schon eine weiße Fahne vom Rathaus. Während des Krieges kamen in Bielefeld mehr als 1300 Menschen durch Bomben ums Leben. Zerstörte historische Bausubstanz wurde nach dem Krieg durch moderne Bauten ersetzt. Die Industrie wurde binnen weniger Jahre wieder aufgebaut und der Wirtschaftsaufschwung begann. Die Textilindustrie verlor jedoch immer mehr an Bedeutung, während sich die Stadt zu einem Dienstleistungszentrum entwickelte. Eine städtebauliche Besonderheit der Nachkriegszeit bildet die Planstadt Sennestadt. Im Jahr 1969 wurde die Universität Bielefeld gegründet. Eingemeindungen. Entwicklung des Stadtgebietes seit Anfang des 20. Jahrhunderts Im Jahr 1828 wurde das Gut Niedermühlen in die Feldmark der Stadt Bielefeld eingegliedert. Am 1. April 1900 wurden Teile der Gemeinde Gadderbaum sowie das Gebiet der Sparrenburg nach Bielefeld eingegliedert. Am 31. Januar 1907 folgten Teile der Gemeinde Quelle sowie der Hof Meyer zu Olderdissen und der Schildhof. Am 1. Oktober 1930 kamen die Gemeinden Schildesche Dorf, Sieker und Stieghorst sowie Teile der Gemeinden Gellershagen, Großdornberg, Heepen, Hoberge-Uerentrup, Oldentrup, Schildesche Bauerschaft und Theesen aus dem Kreis Bielefeld zur Stadt Bielefeld. 54 ha der Gemeinde Babenhausen kamen am 31. Dezember 1961 und 56 ha der Gemeinde Brake am 1. Januar 1965 hinzu. Die bislang umfangreichste Gebietsreform, geregelt im Gesetz zu Neugliederung des Raums Bielefeld, trat zum 1. Januar 1973 in Kraft. Aus dem Kreis Bielefeld kamen die Städte Brackwede und Sennestadt sowie die Gemeinden Gadderbaum, Senne I, Babenhausen, Großdornberg, Hoberge-Uerentrup, Kirchdornberg, Niederdornberg-Deppendorf, Altenhagen, Brake, Brönninghausen, Heepen, Hillegossen, Lämershagen-Gräfinghagen, Milse, Oldentrup, Ubbedissen, Jöllenbeck, Theesen und Vilsendorf zu Bielefeld; außerdem aus dem Kreis Halle (Westf.) die Gemeinde Schröttinghausen. Der Kreis Bielefeld wurde aufgelöst. Einwohnerentwicklung. Die Bevölkerungszahl Bielefelds überschritt 1930 in den damaligen Grenzen die Marke von 100.000 und machte die Stadt damit zur Großstadt. In der Nachkriegszeit stieg die Bevölkerungszahl bis 1961 auf über 175.000, von denen etwa 60.000 als Flüchtlinge und Vertriebene nach dem Zweiten Weltkrieg nach Bielefeld gekommen waren. Nach einem leichten Rückgang bis 1972 wuchs die Einwohnerzahl 1973 durch die Eingemeindung fast aller zum Kreis Bielefeld gehörenden Orte, darunter Brackwede mit 39.856, Sennestadt mit 20.187 und Senne I mit 17.421 Einwohnern (Bevölkerungszahlen von 1970), auf mehr als 320.000. Am 31. Dezember 2014 betrug die amtliche Einwohnerzahl nach Fortschreibung des Landesamtes für Datenverarbeitung und Statistik Nordrhein-Westfalen 329.782 (nur Hauptwohnsitze und nach Abgleich mit den anderen Landesämtern). Das ist die bislang höchste Einwohnerzahl der Stadt. Damit steht Bielefeld unter den deutschen Großstädten an 18. und in Nordrhein-Westfalen an achter Stelle. Kommunalpolitik. 1994 wurde in Bielefeld die Doppelspitze in der Stadtverwaltung aufgegeben. Seitdem gibt es nur noch den hauptamtlichen Oberbürgermeister. Dieser ist oberster Repräsentant der Stadt, Vorsitzender des Rates und Leiter der Stadtverwaltung. Er wird seit 1999 direkt von den Wahlberechtigten gewählt. Seit 2009 bekleidet Pit Clausen von der SPD das Amt. Er wurde am 15. Juni 2014 in einer Stichwahl mit 55,86 % der gültigen Stimmen als Oberbürgermeister bestätigt, sein Herausforderer Andreas Rüther (CDU) erhielt 44,14 %. Die Wahlbeteiligung lag bei 31,24 %. In seiner repräsentativen Funktion wird er vertreten durch Andreas Rüther sowie Karin Schrader. Der Rat der Stadt Bielefeld hat unter Einbeziehung des Oberbürgermeisters, der von Amts wegen eine Stimme besitzt, in der neuen Wahlperiode 67 Mitglieder. Die Stellvertreter des Oberbürgermeisters sind Bürgermeisterin Karin Schrader (SPD) und Bürgermeister Andreas Rüther (CDU). Die Schulden der Stadt Bielefeld, ihrer Eigenbetriebe und ihrer Beteiligungen betrugen Ende 2012 1,639 Milliarden Euro. Das sind pro Einwohner 5004 Euro. Die SPD beschloss, für die Wahlperiode 2014–2020 keinen Koalitionsvertrag abzuschließen. Sie möchte mit wechselnden Partnern regieren. Wappen. Blasonierung: "Das Stadtwappen zeigt im goldenen Feld unter einem roten, zinnenbewehrten und mit zwei Mauertürmchen bestandenen offenen Mauerbogen einen silbernen Schild mit drei roten Sparren." In der Grundform gibt es dieses Wappen seit 1263; damals galt es als Wappen der Altstadt. Als 1520 die Alt- mit der Neustadt vereinigt wurde, wurde das Wappen offizielles Wappen der nun vereinigten Stadt. Bis ins 19. Jahrhundert hat sich daran nichts geändert, doch dann kamen Löwen innerhalb von Wappen immer mehr in Mode, so dass das Wappen von da an von zwei Löwen getragen wurde. Seit 1973 ist das Wappen in Schildform und ohne Löwen das offizielle Wappen der Stadt Bielefeld. Der Schild mit den Sparren entspricht dem Wappen der Grafschaft Ravensberg, deren Hauptstadt Bielefeld einst war. Die Türme zeigen einen äußeren Teil der Außenmauer. Städtepartnerschaften. Bei einem Besuch von Bildungsfachleuten aus dem englischen Rochdale bei Gewerkschaftsvertretern in Bielefeld kam den Beteiligten die Idee einer Städtepartnerschaft, die 1953 eingegangen wurde. Als Symbole der Partnerschaft sind in Rochdale eine Brücke und in Bielefeld der Park vor der Ravensberger Spinnerei nach der jeweiligen Partnerstadt benannt. An der Nicolaikirche in Bielefeld steht darüber hinaus eine englische Telefonzelle. Der Stadtbezirk Brackwede unterhält seit 1958 eine Partnerschaft mit Enniskillen in Nordirland. Ausgangspunkt der Partnerschaft war der Auftritt der "Royal-Inniskilling-Dragoon-Guards" auf dem Brackweder Schützenfest 1957. Zum Zeichen der Freundschaft wurde eine Straße in Brackwede nach der Partnerstadt benannt. Regelmäßige Schüleraustausche des Brackweder Gymnasiums mit der "Portora Royal School" gehören zum Partnerschaftsprogramm. Die Folklore-Gruppe "Cercle Celtic" aus dem französischen Concarneau hatte 1967 einen Auftritt in der damals noch eigenständigen Gemeinde Senne. 1973 entwickelten sich die geschlossenen Freundschaften zu einer festen Partnerschaft mit dem heutigen Stadtbezirk. In den Städten sind heute Straßen nach der jeweiligen Partnerstadt benannt. Der Bielefelder Gerhard Hoepner pflegte privat Kontakt zu Andreas Meyer, der ins israelische Nahariya ausgewandert war. Daraus entwickelte sich 1980 eine Städtepartnerschaft. Heute gibt es in Bielefeld ein Fenster zwischen den beiden Rathäusern und eine Straße, die nach der Partnerstadt benannt sind. In Nahariya konnte eine Kirche aus dem 6. Jahrhundert mit Spenden aus Bielefeld restauriert werden. Daher wird sie heute "Bielefelder Kirche" genannt. Das Gymnasium Heepen und die Amalschule in Nahariya pflegen ebenfalls eine Partnerschaft. Als Folge eines Beschlusses des Bundestages zur militärischen Nachrüstung im Winter 1983/84 nahm Bielefeld Kontakt zur russischen Stadt Weliki Nowgorod auf. Aus dem Briefkontakt entwickelte sich eine Städtepartnerschaft, die 1987 eingegangen wurde. Eine Straße im neuen Bahnhofsviertel und eine Eiche an der Sparrenburg wurden nach der Partnerstadt benannt. In den 1990er-Jahren wurden viele Hilfstransporte in die russische Partnerstadt unternommen. Noch heute werden soziale Projekte in Weliki Nowgorod finanziell unterstützt. Regelmäßig tauschen sich Schulen und Universitäten aus. Die Deutsch-Polnische Gesellschaft in Bielefeld initiierte 1991 eine Partnerschaft mit der polnischen Stadt Rzeszów. Schulen und Universitäten der Städte tauschen sich regelmäßig aus. Seit 1984 pflegt Bielefeld Kontakte mit Estelí in Nicaragua, die 1995 zu einer festen Städtepartnerschaft ausgebaut wurden. Die Stadt wurde 1998 durch einen Hurrikan verwüstet und konnte mithilfe von Spendengeldern aus Bielefeld und anderen Partnerstädten wieder aufgebaut werden. Die Partnerschaft wird von den Bielefelder Schulen gestützt, die mit den Schulen in Estelí gemeinsame Projekte durchführen. Bielefeld hat Patenschaften für die ehemals ostdeutschen Städte Gussew (früher Gumbinnen/Ostpreußen) in Russland sowie Wiązów (früher Wansen/Schlesien) und Ziebice (früher Münsterberg/Schlesien) in Polen übernommen. Den heimatvertriebenen Bewohnern dieser Städte gewährte Bielefeld nach dem Zweiten Weltkrieg Hilfe bei der sozialen und wirtschaftlichen Eingliederung. Bundespolitik. Bielefeld befindet sich im Bundestagswahlkreis "132 Bielefeld - Gütersloh II". Bei der Bundestagswahl 2013 konnte Christina Kampmann (SPD) das Direktmandat gewinnen. Über die Landesliste ihrer Partei zogen außerdem aus Bielefeld Britta Haßelmann (Bündnis 90/Die Grünen) und Lena Strothmann (CDU) in den Bundestag ein. Landespolitik. Bei Wahlen zum Landtag von Nordrhein-Westfalen bilden die Stadtbezirke Mitte, Schildesche und Gadderbaum den Wahlkreis "92 Bielefeld I" sowie die Stadtbezirke Heepen, Brackwede, Stieghorst, Sennestadt und Senne den Wahlkreis "93 Bielefeld II". Die Stadtbezirke Dornberg und Jöllenbeck gehören zusammen mit Borgholzhausen, Halle, Steinhagen, Versmold und Werther zum Wahlkreis "94 Gütersloh I – Bielefeld III". Die Direktmandate bei der Landtagswahl 2010 gewannen Günter Garbrecht (SPD) im Wahlkreis 92, Regina Kopp-Herr (SPD) im Wahlkreis 93 und Georg Fortmeier (SPD) im Wahlkreis 94. Außerdem zog aus Bielefeld Matthias Bolte (Grüne) über die Landesliste seiner Partei in den Landtag ein. Sehenswürdigkeiten. St. Jodokus mit anstoßendem Klostergebäude Sakralbauten. Die Altstädter Nicolaikirche ist die älteste der Bielefelder Stadtkirchen. Sie war ursprünglich eine dreischiffige gotische Hallenkirche, die Anfang des 14. Jahrhunderts vergrößert und zur Bürger-/Kaufmannskirche ausgebaut wurde. Zuvor wurde sie 1236 vom Paderborner Bischof Bernard zur eigenständigen Pfarrkirche erhoben. Viermal täglich (um 9:58, 12:58, 15:58 und 18:58 Uhr) erklingt ein Glockenspiel. Der wertvollste Besitz dieser Kirche ist ein Antwerpener Retabel, das mit neun geschnitzten Szenen und über 250 Schnitzfiguren verziert ist. In ihrer heutigen Form ist die Kirche bis auf den unteren Teil des Turmes ein Neubau, der in Anlehnung an die am 30. September 1944 zerstörte Vorgängerkirche entstanden ist. Die Kirche verfügt über ein kleines Museum, in dem unter anderem Überbleibsel aus der Zeit vor dem Zweiten Weltkrieg sowie alte Fotografien gezeigt werden. Die Neustädter Marienkirche ist eine hochgotische Hallenkirche mit zwei Türmen aus dem Jahr 1293. Die Türme wurden jedoch erst Anfang des 16. Jahrhunderts mit gotischen Turmhelmen ergänzt und damit vollendet. Die gotischen Turmhelme wurden später bei einem Sturm zerstört und durch barocke Hauben ersetzt. Diese Kirche ist aus kunsthistorischer Sicht das wertvollste Baudenkmal Bielefelds und hat eine Länge von 52 Metern sowie eine Höhe von 78 Metern. Im Jahr 1553 war sie Ausgangspunkt der Reformation in Bielefeld. Im Gotteshaus befindet sich ein wertvoller Flügelaltar mit 13 verschiedenen Bildern, der sogenannte Marienaltar. Die Bilder wurden von einem anonymen Maler im Jahr 1400 geschaffen. Auf ihnen sind Situationen wie Himmel und Erde, Gott und Mensch oder Christus und Maria zu sehen. Die Kirche diente eine Zeit lang als Grablege der Grafen von Ravensberg. An der Nordseite des Chores befindet sich die Tumba des Grafen Otto III. von Ravensberg und seiner Gemahlin Hedwig zur Lippe, die wohl kurz nach 1320 entstanden ist. Auf der Südseite ist die Tumba des Grafen Wilhelm II. († 1428) und seiner Gemahlin Adelheid von Tecklenburg († 1429). Zur weiteren Ausstattung gehören ein spätgotisches Kruzifix vom Anfang des 16. Jahrhunderts und eine geschnitzte Kanzel, die von 1681 bis 1683 vom Bielefelder Meister Bernd Christoph Hattenkerl geschaffen wurde. Im Zweiten Weltkrieg wurde die Kirche schwer beschädigt. Unter anderem wurden bei einem Luftangriff die bis dato barocken Turmhelme zerstört. Nach dem Krieg wurden diese 1965 in gotischer Form neu errichtet und erhielten ihre extrem spitze Form. Mitten in der Altstadt steht die im 16. Jahrhundert entstandene Süsterkirche. An dieser Stelle wurde es im Jahr 1491 zwölf Augustinerinnen gestattet, ein eigenes Kloster zu gründen. Sie widmeten sich der Kranken- und Armenversorgung. Im Jahr 1616 wurde das Kloster jedoch aufgrund mangelnder Wirtschaftlichkeit aufgegeben und an die Stadt übergeben. Heute ist sie die Kirche der einzigen evangelisch-reformierten Kirchengemeinde Bielefelds. Von den sich anschließenden Gebäuden des ehemaligen Klosters zum Marienthal blieb nur das Haus "Süsterplatz 2" erhalten. Der quadratische zweigeschossige Bau mit Satteldach entstand im Kern bereits zwischen 1500 und 1600 und dient heute als Pfarrhaus. Im 18./19. Jahrhundert wurde er unter Veränderung der Geschosshöhen durchgreifend umgebaut. Der Vordergiebel zum Süsterplatz wurde dabei in neugotischen Formen dekoriert. Die katholische Pfarrkirche St. Jodokus war ursprünglich die Kirche eines Franziskanerklosters und wurde 1511 erbaut. Zunächst (ab 1498) befand sich dieses Kloster am Jostberg, wurde dort jedoch schon 1507 aufgrund von Schwierigkeiten bei der Wasserversorgung wieder aufgegeben und an den heutigen Klosterplatz verlegt. Von dem alten Kloster am Jostberg sind noch Ruinen erhalten. Das Franziskanerkloster in der Altstadt blieb auch nach der Reformation bestehen. Als die übrigen Kirchen in der Stadt die Reformation annahmen, versahen die Franziskaner die Seelsorge für die wenigen im Ravensberger Land verbliebenen Katholiken. Das Kloster wurde 1829 aufgelöst, die Pfarrseelsorge übernahmen Diözesanpriester. Im Innern der Kirche, die bis heute Pfarrkirche ist, befinden sich die „Schwarze Madonna“ von 1220, eine Holzplastik des heiligen Jodokus von 1480 sowie die Ikonenwand von Saweljew aus dem Jahr 1962. Die Kirche Heilig Geist an der Spandauer Allee im Bielefelder Ortsteil Dornberg gilt als ein Kleinod unter den modernen Kirchen im ostwestfälischen Raum. Sie wurde Anfang der 1990er-Jahre in Bielefeld-Dornberg als Nachfolgekirche der beiden für die wachsende Gemeinde zu klein gewordenen Kirchen "Heilig Geist im Wellensiek" und "Heilige Familie", Bielefeld-Uerentrup, erbaut. Profanbauten. Der Alte Markt bildet das Herzstück der Bielefelder Altstadt. An seiner Nordseite befindet sich das Theater am Alten Markt. Der äußerlich unscheinbare Bau lässt kaum erahnen, dass in ihm noch umfangreiche Reste des mittelalterlichen Rathauses stecken. Das Altstädter Rathaus wurde 1424 erstmals urkundlich erwähnt. Der erste Rathausbau ist an dieser Stelle vermutlich bereits im 13. Jahrhundert entstanden. Von ihm dürften noch Teile im jetzigen Kellergeschoss vorhanden sein. 1538 wurde mit einem Neu- bzw. Erweiterungsbau begonnen, der spätestens 1569 vollendet war. Dabei handelte es sich um einen zweigeschossigen Bruchsteinbau über hohem Sockelgeschoss mit zwei in Werkstein ausgeführten Schaugiebeln. Der auf einer Zeichnung des 19. Jahrhunderts überlieferte westliche Staffelgiebel war in Anlehnung an das Münsteraner Rathaus und das nahe gelegene Crüwellhaus noch in spätgotischen Formen gestaltet. Über dem schon Renaissanceformen aufweisenden Hauptportal an der Niedernstraße war ein 1562 bezeichnetes Adam-und-Eva-Relief (jetzt im Foyer des Neuen Rathauses) angebracht. 1820–1821 erfolgte ein durchgreifender Umbau und die Erhöhung des Wandkastens, um das Innere besser nutzen zu können. Dabei wurden die beiden Giebel abgebrochen. Anschließend wurde der Außenbau in klassizistischen Formen dekoriert und der Haupteingang mit Freitreppe an die Marktseite verlegt. Das hohe Satteldach wurde außerdem durch ein niedriges Krüppelwalmdach ersetzt. Nach der Erbauung des Neuen (heute „Alten“) Rathauses am Niedernwall im Jahre 1904 diente es nur noch als Sitz untergeordneter Behörden und der Stadtbibliothek. 1906 wurde ein Arkadengang an der Niedernstraße, der sogenannte Hochzeitsbogen, für den Fußgängerverkehr eingebaut. Am 30. September 1944 wurde der Bau mehrfach von Brandbomben getroffen und ist völlig ausgebrannt. Ab 1949 wurde das Alte Rathaus von Hanns Dustmann unter weitgehender Verwendung des spätmittelalterlichen Wandkastens wiederaufgebaut. Seitdem wird es als „Theater am Alten Markt“ und als Volkshochschule „Die Brücke“ genutzt. Um beide Einrichtungen unterbringen zu können, wurde im Norden ein niedrigerer Erweiterungsbau angefügt. Bei der Wiederherstellung der Fassaden wurde das klassizistische Dekor entfernt und das Äußere in schlichten Formen gestaltet, so dass das noch weitgehend aus dem Spätmittelalter stammende Gebäude heute wie ein Nachkriegs-Neubau erscheint, der noch deutliche Anklänge an die so genannte Heimatschutzarchitektur zeigt. Der jetzige Bau ist ein zweigeschossiger Putzbau von sieben Achsen mit hohem, von zahlreichen Gauben belebtem Walmdach. An der zur Niedernstraße hin orientierten Schmalseite befindet sich der als Laubengang gestaltete Hochzeitsbogen und an der Marktseite ein schlichtes Portal mit doppelläufiger Freitreppe. Die östlichen drei Joche des Kellergewölbes wurden 1995 saniert und dienen seitdem als Weinstube. Die Kreuzgratgewölbe sind noch zum Teil mit den Schlusssteinen von 1538 versehen, die sich allerdings nicht mehr an ursprünglicher Stelle befinden. Bürgerliche Wohnbauten. Von den zu Beginn des Zweiten Weltkrieges noch in größerer Zahl vorhandenen bürgerlichen Wohnbauten des späten Mittelalters und der frühen Neuzeit sind nur wenige erhalten, jedoch befinden sich noch zahlreiche Villen und Straßenzüge der Gründerzeit und der Wende zum 19. Jahrhundert in der Stadt, auch in den Stadtteilen ist die Bebauung in Teilen älter als in der Innenstadt. Das derzeit älteste bekannte Bürgerhaus ist das Haus Müller in der Obernstraße. Es wurde nach dendrochronologischer Datierung 1485 errichtet. 1592 kam es zu einem umfassenden Umbau, bei dem es unter anderem mit einem neuen reich beschnitzten Fachwerk-Giebel versehen wurde. Von 1991 bis 1993 wurde das Gebäude durchgreifend erneuert und durch einen modernen Anbau ergänzt. Obwohl auch historische Befunde beseitigt wurden, ist die ursprüngliche Aufteilung des Inneren mit Diele, den seitlichen Stubeneinbauten und dem unterkellerten Saal bis heute nachvollziehbar geblieben. Das zugehörige Hinterhaus "Welle 55", das mit dem Vordergebäude durch eine hölzerne Brücke verbunden ist, dürfte im 17. Jahrhundert errichtet worden sein. Ebenfalls noch aus dem Spätmittelalter stammt das Haus "Obernstraße 32". Das schlichte zweigeschossige Giebelhaus mit Krüppelwalmdach wird im Äußeren wesentlich durch einen Umbau aus der Mitte des 19. Jahrhunderts geprägt. Die ältesten Teile entstanden bereits im frühen 16. Jahrhundert. Einer der bekanntesten Wohnbauten ist das ab 1530 errichtete "Crüwell-Haus" (Obernstraße 1). Der spätgotische Stufengiebel entstand nach dem Vorbild Münsteraner Bauten. Ähnliche, jedoch später entstandene Beispiele gibt es in Herford (Bürgermeisterhaus, bezeichnet 1538) und Lemgo (Haus Wippermann 1576). Die Front wurde 1901 erneuert und im Erdgeschoss mit Ladeneinbauten versehen. Im Zweiten Weltkrieg ausgebrannt, wurde das Haus 1948/49 von Paul Griesser unter Erhaltung der historischen Fassade neu errichtet. Beim Wiederaufbau wurden anstelle der großen Schaufenster kleinere Kreuzstockfenster eingesetzt. Im Treppenhaus befinden sich etwa 7000 historische Delfter Kacheln aus dem 16. bis 18. Jahrhundert. Es handelt sich wohl um die größte Sammlung dieser Art in Nordwestdeutschland. Vom "Battig-Haus" (Alter Markt 3) blieb nach schwerer Kriegszerstörung nur der 1680 bezeichnete Volutengiebel erhalten, der in den von Paul Griesser errichteten Komplex der Lampe-Bank einbezogen wurde. Die Schaufront ist noch stark von der so genannten „Weserrenaissance“ beeinflusst, die Art der Staffelfüllungen ist jedoch schon dem Barock verpflichtet. Beim Wiederaufbau nach 1945 wurde die Fassade erhalten, wobei die Schaufenster durch kleinere Öffnungen ersetzt wurden. An der "Obernstraße 38" befindet sich ein Fachwerkbau mit klassizistischer Fassade, die dem älteren Hauskörper in der 1. Hälfte des 19. Jahrhunderts vorgeblendet wurde. Die Erdgeschosszone ist in jüngerer Zeit durch Ladeneinbauten verändert worden. Wesentlich mehr Wohngebäude haben den Krieg außerhalb der Innenstadt überdauert. So liegen westlich des Ostwestfalendamms einige Straßenzüge mit nahezu durchgängiger denkmalgeschützter Bebauung aus Villen und Bürgerhäusern. Zu nennen sind hier vor allem die Große-Kurfürsten-Straße, der Goldbach sowie Werther- und Dornberger Straße. Häufig handelt es sich dabei um Wohnstätten ehemaliger Unternehmer wie die Villa Bozi. Ebenso befinden sich in sogenannten "Musikerviertel" zwischen Detmolder Straße und Sparrenburg zahlreiche Gebäude gleicher Art. Im Osten der Innenstadt befinden sich Ensembles aus der Zeit um 1900, so zum Beispiel an der Diesterweg- und Fröbelstraße. Teilweise bis ins Mittelalter zurückgehende Bebauung findet sich in den Kernen der Stadtteile Heepen und Schildesche. Adelshöfe. Als Keimzelle der Stadt gilt der an der Welle gelegene "Waldhof". Er soll aus einem der Höfe hervorgegangen sein, die bereits vor der Stadtgründung bestanden. Das lang gestreckte Gebäude stammt im Kern sicher noch aus dem Mittelalter und wurde im 16. Jahrhundert umgebaut. Damals entstand die 1585 bezeichnete Utlucht mit Volutengiebel. Der östliche Gebäudeteil besaß bis zum Zweiten Weltkrieg ein Fachwerk-Obergeschoss. Am Klosterplatz befindet sich der auch als Woermanns Hof bezeichnete "Korff-Schmisinger Hof". Das mit Fächerrosetten versehene und reich beschnitzte Fachwerk-Obergeschoss soll um 1640 entstanden sein. Beim Bau der Klosterplatzschule wurde der ehemals etwa doppelt so lange Bau erheblich verkürzt. In unmittelbarer Nähe liegt der Wendtsche Hof. Der zweigeschossige Bau entstand im 16. Jahrhundert und wurde im 19. und frühen 20. Jahrhundert mehrfach verändert. Die rückwärtigen Teile wurden weitgehend in Fachwerk erneuert. Im Innenhof befindet sich ein polygonaler Treppenturm. Der 1540 bezeichnete Spiegelshof ist ein zweigeschossiger verputzter Bruchsteinbau im Stil der so genannten Weserrenaissance. Die Schmalseiten werden von Radzinnengiebeln geschmückt. Das Treppenhaus wurde 1682 angefügt. Das Innere wurde im Laufe der Zeit immer wieder verändert; im hinteren Teil des Gebäudes blieb dennoch ein unterkellerter Saal mit Balkendecke erhalten. Heute beherbergt Spiegels Hof das Naturkunde-Museum. Eine noch aufwendigere Fassade besitzt der "Grestsche Hof". Er wurde vermutlich in der zweiten Hälfte des 16. Jahrhunderts vielleicht auf den Fundamenten eines Stadtmauerturmes erbaut. Der prachtvolle Renaissancebau bildet seit 1870 den Nordflügel des Ratsgymnasiums. Zu dieser Zeit wurde der Dachbereich verändert. Als zweigeschossiger Putzbau präsentiert sich "Meinders Hof" (Obernstraße 40). Das originelle barocke Eingangsportal ist mit der Jahreszahl 1669 beschriftet. Weitere Veränderungen erfolgten im 19. Jahrhundert. Im Inneren des Erdgeschosses blieben ein 1670 datierter Kamin und Reste von barocken Stuckdecken erhalten. Wiederverwendete Reste zerstörter Bauten. "Alter Markt 5." Den schlichten Nachkriegsbau ziert ein 1593 bezeichneter Volutengiebel in Formen der Weserrenaissance, der ursprünglich zu Obernstraße 29 (Brünger) gehörte. Der kriegsbeschädigte Ursprungsbau wurde 1962 unter Sicherstellung des Giebels abgebrochen. Zunächst auf den städtischen Bauhof verbracht, wurde er 1976 an seinem jetzigen Standort aufgestellt. Er ist in Einzelformen mit Markt 32 in Bad Salzuflen verwandt. "Niedernstraße 3." In den schlichten Nachkriegsbau wurde ein mittelalterlicher Keller mit Tonnengewölbe integriert. "Obernstraße 36" (Sparkasse). Dem 1975 entstandenen Gebäude wurde ein Dreiecksgiebel (bezeichnet 1606) vom ehemaligen Haus Obernstraße 9 vorgeblendet. Die "55er-Kaserne" an der Hans-Sachs-Straße wurde 1775/77 auf dem Gelände des Hatzfeldschen Adelshofes errichtet. Dabei wurden Verblendsteine von den Festungsmauern der Sparrenburg verwendet. Es ist ein lang gestreckter Massivbau, dessen Mittelrisalit ein Wappen krönt. Bei der Erweiterung von 1850 wurde der Hauptflügel um ein Mezzaningeschoss erhöht. Stadtmauer. Von der im 13. Jahrhundert errichteten Stadtmauer der Altstadt sind Fundamentreste als Inszenierung im sogenannten Welle-Haus zu besichtigen. Die Reste wurden im Rahmen des Projekts Archäo Welle freigelegt und museal aufbereitet. Im ehemaligen Grestschen Hof (siehe dort) sind Teile eines sehr starken viereckigen Mauerturmes verbaut. In der seit dem frühen 14. Jahrhundert befestigten Neustadt ist außerdem der Stumpf eines mittelalterlichen "Schalenturmes" im Garten eines Hauses an der Kesselstraße vorhanden. Mit dem Aufkommen der Feuerwaffen kam es zur Anlage eines einheitlichen Befestigungssystems um Alt- und Neustadt mit mehreren Rondellen zwischen 1539 und 1545. Ein mehrere Meter langes Mauerstück davon, das die Einmündung von Vossbach und Lutter in den Stadtgraben sichern sollte, ist hinter dem Haus Kreuzstraße 38 (derzeit Verwaltungsgebäude des Naturkundemuseums) erhalten. Auf der Mauerkrone stehen die zwei letzten Exemplare der ab 1856 installierten Gaslaternen. Weitere Bauten. Die "Sparrenburg" ist das bekannteste Baudenkmal und Wahrzeichen der Stadt. Sie wurde neuesten Erkenntnissen zufolge um 1200 erbaut und verfügt über einen 37 Meter hohen Burgturm sowie über unterirdische Gänge, die im Rahmen einer Führung besichtigt werden können. Der Turm kann von April bis Oktober von 10 bis 18 Uhr bestiegen werden. Am 22. September 2006 belegte die Sparrenburg Platz 17 bei einem vom ZDF ausgelobten Wettbewerb, in dem die beliebtesten deutschen Plätze gewählt wurden. Unweit entfernt befindet sich die Römische Kreisgrabenanlage auf der Sparrenberger Egge. Im Jahr 1535 wurde Niemöllers Mühle, eine oberschlächtige Wassermühle im Bielefelder Stadtteil Quelle, erstmals erwähnt. Sie ist seit der Restaurierung 1994 wieder funktionstüchtig. Im Ravensberger Park steht die Weiße Villa. Das Gebäude erinnert an die zahlreichen Potsdamer Turmvillen im italienischen Landhausstil, zum Beispiel die Villa Schöningen. Wenige Schritte daneben befindet sich die ehemalige Direktorenvilla der Ravensberger Spinnerei, die heute das Museum Huelsmann beherbergt. In den Nordpark wurde ein heute als Café genutzter kleiner Pavillon umgesetzt, der um 1830 errichtet wurde und einem Schüler des berühmten Baumeisters Karl Friedrich Schinkel zugerechnet wird. Rathaus, Stadttheater und Stadtbahn-Haltestelle heute Das "Alte Rathaus" wurde 1904 erbaut und ist heute repräsentativer Sitz des Bielefelder Oberbürgermeisters. Der größte Teil der Verwaltung befindet sich im "Neuen Rathaus", das direkt daneben liegt. An der Fassade des Alten Rathauses finden sich verschiedene Baustile, unter anderem Elemente der Gotik und der Renaissance. Das Stadttheater bildet baulich eine Einheit mit dem Alten Rathaus. Es wurde ebenfalls im Jahr 1904 eingeweiht und verfügt über eine bemerkenswerte Jugendstilfassade des Architekten Bernhard Sehring. Es ist das größte Theater der Stadt. 2005–2006 wurde es von Grund auf renoviert. Auf dem Altstädter Kirchplatz befindet sich das 1909 von Hans Perathoner geschaffene Leineweberdenkmal, eine Brunnenanlage, die an Bielefelds wirtschaftliche Anfänge in der Leinenverarbeitung erinnern soll. An ein Schloss erinnert die Architektur der von 1855 bis 1857 erbauten Ravensberger Spinnerei, die im 19. Jahrhundert Europas größte Flachsspinnerei war. Heute sind die Volkshochschule, das Historische Museum Bielefeld, ein städtisches Medienzentrum und eine Diskothek in ihr untergebracht. Ihr vorgelagert befinden sich der Rochdale- und der Ravensberger Park, die als Open-Air-Bühne dienen. "Ehemalige Werkkunstschule", Am Sparrenberg 2. 1913 von Stadtoberbaurat Friedrich Schultz im Sinne der Reformschulbauten des Henry van de Velde errichtet. Von 1926 bis 1927 entstand das von Friedrich Schultz entworfene Freibad an der Wiesenstraße. Neben der großen zentralen Tribüne und der 100-m-Bahn weist es eine besondere Achsensymmetrie auf. Dazu gehörte seinerzeit auch ein Casinogebäude als Gartenrestaurant an der Bleichstraße. Zufahrt, Sprungturm und Casino liegen in einer eigenen Symmetrieachse. Wegen dieser Besonderheiten sind die historischen Teile des Wiesenbades heute als Denkmal geschützt. "Haus der Technik" (Stadtwerke), Jahnplatz 5. Der Stahlskelettbau in Backsteinverblendung wurde 1929 von dem Berliner Architekten Heinrich Tischer als erstes „Hochhaus“ der Stadt im Stil der Neuen Sachlichkeit errichtet. Der flach gedeckte, turmartige Hauptbau wurde ursprünglich von einem gläsernen Aufsatz bekrönt. Bei einem Luftangriff am 24. Februar 1945 wurde das Gebäude stark in Mitleidenschaft gezogen. Die oberen Geschosse des Turmbaus wurden wegen Einsturzgefahr wenige Wochen später gesprengt. Beim Wiederaufbau bis 1950 wurde in Anlehnung an die ursprüngliche Form auf den gläsernen Turmaufsatz verzichtet. Der obere Abschluss wurde leicht verändert und um ein Geschoss erhöht. 2012 wurde schließlich der für das Gebäude so charakteristische Lichtturm wiederhergestellt. "Gloria-Palast", Niedernstraße 12. Ehemaliges Filmtheater, 1927–1928 von Wilhelm Kreis im Stil der Neuen Sachlichkeit errichtet. Das Gebäude wurde 1944 bei der Bombardierung stark beschädigt. Bei der Wiederherstellung 1948 wurde das große Milchglasfenster über dem Eingang durch drei Fenstertüren mit vorgelegtem Balkon ersetzt. Das Innere wurde später in mehrere Kinosäle unterteilt, dabei ging die qualitätsvolle Innenausstattung verloren. Im Jahr 2000 wurde das Kino geschlossen und das Gebäude nochmals für die anschließende Nutzung als Ladengeschäft umgebaut, wobei die Fassade in den ursprünglichen Zustand zurückversetzt wurde. Der Palast ist einer der wenigen Vertreter der Neuen Sachlichkeit in Bielefeld und zudem der erste Kinobau der Stadt, dessen Zweckbestimmung äußerlich klar erkennbar ist. Die "Kunsthalle" wurde von 1966 bis 1968 nach den Plänen des internationalen Stararchitekten Philipp C. Johnson erbaut. Das Gebäude selbst ist ein roter Sandsteinkubus. Der Eigenbesitz der Kunsthalle zeigt die Kunst des 20. Jahrhunderts, daneben finden regelmäßig Wechselausstellungen zu den verschiedensten Themen statt. Der Kunsthalle vorgelagert ist eine kleine Parkanlage mit Wasserspiel und verschiedenen Plastiken. Es gibt auch ein Café mit einer Außenterrasse. Der denkmalgeschützte Ostmannturm ist ein heute als Studentenwohnheim genutzter Rest der industriellen Bebauung im nach ihm benannten Ostmannturmviertel. Grünflächen und Naherholung. Teile Bielefelds liegen im Naturpark TERRA.vita sowie im Eggegebirge. Der sich über das Stadtgebiet erstreckende Höhenzug bietet viele Möglichkeiten der Naherholung. Hier liegt gleichzeitig der höchste Flächenanteil der Naturschutzgebiete, weitere wesentliche Teile liegen besonders in den angrenzenden Gebieten von kleinen Bachläufen und in Teilen der Senne. Im oder am Teutoburger Wald liegen der Botanische Garten Bielefeld mit Alpinum, Bambusgärten, einem Steingarten, einer Rhododendron- und Azaleensammlung, einem Arznei- und Gewürzgarten, einem Heidegarten, Buchenwaldflora und rund 200 Arten der roten Liste sowie der 1928 gegründete Heimat-Tierpark Olderdissen, der über 430 Tiere aus 100 heimischen Tierarten beherbergt. Der Obersee ist ein Stausee im Ortsteil Schildesche im Norden der Stadt. Rund um diesen See befindet sich eine 80 Hektar große Grünanlage. Die aus historischen Gebäuden bestehende Gaststätte "Seekrug" ist ein beliebtes Ausflugsziel. Geplant war auch ein "Untersee" auf der östlichen Seite des Eisenbahnviadukts als Freizeitanlage. Diese Planungen werden zurzeit unter anderem aus Kosten- und Naturschutzgründen nicht weiter verfolgt. Als größere Parks in der Innenstadt sind der Bürgerpark in direkter Nachbarschaft zur Rudolf-Oetker-Halle, der "Ravensberger Park" und der – der englischen Partnerstadt gewidmete – "Rochdale Park" rund um die Ravensberger Spinnerei sowie der Nordpark mit altem Baumbestand zu nennen. In diesen Park wurde nach dem Krieg aus einem Privatgarten das heutige Gartenhaus versetzt, das von einem Schüler Schinkels 1830 errichtet wurde. Seit 2014 ist der Winzersche Garten am Johannisberg wieder zugänglich. Seit 2003 gibt es einen Japanischen Garten im Stadtbezirk Gadderbaum. Der 1912 eröffnete Sennefriedhof gehört mit knapp 100 ha Fläche zu den größten Friedhöfen Deutschlands. Durch seine besondere Lage in der Naturlandschaft Senne und die außergewöhnliche Größe sind in vielen Bereichen des Sennefriedhofes ökologische Nischen entstanden. So stehen hier 20 der 98 kartierten Moosarten der Roten Liste des Landes Nordrhein-Westfalen. Grabmäler, die von Künstlern wie Käthe Kollwitz, Georg Kolbe, Peter August Böckstiegel und Hans Perathoner gestaltet wurden, deuten auf den kulturellen Wert der Anlage hin. Der Johannisfriedhof wurde 1874 als Erweiterung des Friedhofs am Jahnplatz angelegt. Hier sind bedeutende Persönlichkeiten aus Bielefeld und Umgebung wie August Oetker und Carl Bertelsmann begraben. Unter den Naturdenkmälern sind vor allem die im Jahr 1648 am Papenmarkt gepflanzte Friedenslinde mit einem Stammumfang von nahezu sechseinhalb Metern, eine Höhle (Zwergenhöhle) im Stadtteil Senne und ein Findling von vier Metern Höhe und einem Gewicht von einhundertsiebzehn Tonnen an der Straße Am Wellbach zu nennen. Religionsgemeinschaften. In Bielefeld waren im Mai 2002 insgesamt 152.092 Personen evangelisch, 52.965 römisch-katholisch, und 117.556 gehörten einer anderen Religionsgemeinschaft an oder waren konfessionslos. Christen. Bielefeld gehörte seit seiner Gründung zum Bistum Paderborn und war dem Archidiakonat in Lemgo unterstellt. Pfarrkirche war seit der Abpfarrung von der Peter-und-Pauls-Kirche in Heepen 1236 die Altstädter Nicolaikirche, seit Ende des 13. Jahrhunderts entstand eine weitere Pfarrgemeinde in der "Neustadt" unterhalb der Sparrenburg. In der Nachbarschaft bestanden in Dornberg (St. Peter) und bei der Stiftskirche Schildesche noch ältere Kirchspiele. Protestanten. Ausgehend von der Neustädter Marienkirche verbreitete sich um 1553 Luthers Reformation in der Stadt und der gesamten Grafschaft Ravensberg. 1649 fiel die Grafschaft endgültig an das Haus Brandenburg, und nach dem geltenden Gesetz "Cuius regio, eius religio" mussten die Untertanen die Religion des Landesherrn übernehmen. Bis auf das Franziskanerkloster wurden alle Pfarr- und Stiftskirchen protestantisch. Der Große Kurfürst Friedrich Wilhelm (1620–1688) war Anhänger des Calvinismus und verfügte durch eine Verordnung, dass in Stadt und Land reformierter Gottesdienst zu halten sei. In den folgenden Jahren nahm die Zahl der Reformierten stark zu. Nachdem in ganz Preußen 1817 die Union der lutherischen und reformierten Gemeinden vollzogen war, vereinigten sich auch in Bielefeld beide protestantischen Gemeinden zu einer evangelischen Gemeinde. Die Industrialisierung Bielefelds zog viele Menschen aus dem reformierten Lippe in die Stadt, wo sie eher Arbeit fanden als in ihrer bäuerlichen Heimat. Die Stadt wurde im 19. Jahrhundert Sitz einer Kreissynode mit einem Superintendenten innerhalb der Evangelischen Kirche in Preußen beziehungsweise deren westfälischer Kirchenprovinz. Daraus entstand der heutige Kirchenkreis Bielefeld. 1949 wurde die Verwaltung der nunmehr als Evangelische Kirche von Westfalen bezeichneten Landeskirche von Münster (Westfalen) nach Bielefeld verlegt. Heute umfasst der Kirchenkreis Bielefeld 33 evangelische Kirchengemeinden innerhalb der Stadt. Einige Gemeinden im südlichen Stadtgebiet Bielefelds (Brackwede, Senne und Sennestadt) gehören jedoch zum Kirchenkreis Gütersloh. Die meisten Gemeinden des Kirchenkreises Bielefeld verstehen sich als evangelisch-lutherisch, eine Ausnahme ist die evangelisch-reformierte Gemeinde in der Süsterkirche. Neben den Gemeinden der evangelischen Landeskirche besteht auch eine Gemeinde der altkonfessionellen Selbständigen Evangelisch-Lutherischen Kirche sowie Gemeinden evangelischer Freikirchen. So gibt es mehrere mennonitische Gemeinden, eine Adventistengemeinde, mehrere Evangelisch-Freikirchliche Gemeinden (Baptisten) sowie eine Evangelisch-methodistische Kirche. Katholiken. Die Zahl der Katholiken, hauptsächlich in den adeligen Häusern in Tatenhausen und Holtfeld, war infolge der Reformation auf ganz wenige zurückgegangen. Die Franziskaner an St. Jodokus in Bielefeld waren jetzt Seelsorger für das gesamte Ravensberger Land; 1696 gründeten sie eine Außenstelle "(Residenz)" in Stockkämpen. Nach der Aufhebung des Klosters Bielefeld 1829 wurde die Seelsorge von Weltpriestern übernommen. Im 19. Jahrhundert zogen infolge der Industrialisierung wieder Angehörige der römisch-katholischen Konfession in nennenswerter Anzahl in die Stadt. 1890 waren von den rund 40.000 Einwohnern Bielefelds etwa 4600 katholisch. Sie gehören bis heute zum Bistum Paderborn, das 1930 zum Erzbistum erhoben wurde. 1908–1910 wurde die St.-Joseph-Kirche neu errichtet, 1933–1934 die Liebfrauenkirche. Nach dem Zweiten Weltkrieg gab es einen weiteren Zuwachs an Katholiken, die Mehrzahl davon waren Kriegsflüchtlinge aus den deutschen Ostgebieten. In den 1950er-Jahren wurden rund zehn neue Pfarrkirchen gebaut. Bielefeld wurde Sitz eines Dekanats, zu dem bis 2006 alle Pfarrgemeinden der Stadt gehörten. Am 1. Juli 2006 wurden die bisherigen Dekanate Bielefeld und Lippe zum neuen Dekanat Bielefeld-Lippe mit Sitz in Bielefeld zusammengelegt. Andere Konfessionen. Heute gibt es eine Vielfalt weiterer christlicher Konfessionen und Religionsgemeinschaften in der Stadt. Dazu gehören mehrere neuapostolische Kirchengemeinden, eine griechisch-orthodoxe Gemeinde, zwei russisch-orthodoxe, davon eine im Stadtbezirk Sennestadt und eine in Schildesche, zwei serbisch-orthodoxe Gemeinden (in Sennestadt und in Dornberg), eine ukrainische griechisch-katholische Gemeinde im Ortsteil Hillegossen und die Zeugen Jehovas. Juden. Die Synagoge Beit Tikwa (Hoffnungshaus) an der Detmolder Straße Der erste dokumentarische Nachweis über die Ansiedlung von Juden in der Stadt stammt von einer Urkunde aus der Mitte des 14. Jahrhunderts. Während der Pestepidemie von 1348 bis 1350 wurden die Juden in Deutschland verfolgt, weil sie angeblich die Brunnen vergiftet hätten, und wie in zahlreichen anderen Städten aus Bielefeld vertrieben. Der Graf von Ravensberg, Wilhelm von Jülich, gestattete den Juden 1370 die Rückkehr und verbürgte sich für ihre Sicherheit. Mitte des 16. Jahrhunderts wurde den Juden abermals der Aufenthalt in der gesamten Grafschaft verboten. Erst am Ende des Jahrhunderts durften sich jüdische Kaufleute gegen Zahlung einer Gebühr wieder in Bielefeld niederlassen. Als 1649 die Hohenzollern, Landesherren in Brandenburg, die Grafschaft Ravenberg in Besitz nahmen, gab es keine Judenverfolgungen mehr. Um 1720 bestand die jüdische Gemeinde der Stadt aus 30 Personen, und 1723 wurden alle Juden verpflichtet, vom Land in die Städte zu ziehen. Für das Wohnrecht in Bielefeld mussten die Juden in jedem Quartal sogenannte Schutz- oder Rekrutengelder bezahlen. Blieb die Zahlung aus oder wurde ein Jude mittellos, so konnte er nach preußischem Recht aus dem Land gewiesen werden. Die Zahlungen waren für die Landesherren so wichtig, dass sie die den Juden gestatteten Handelssparten schützten. Unter Napoleon im Jahr 1808 bekamen die Juden im Königreich Westfalen die gleichen Bürgerrechte wie die Christen, außerdem sollten sie ihrem Namen einen Beinamen hinzufügen. Die mit dem Bürgerrecht verbundene Freizügigkeit bewog viele Juden, in das Ravensberger Land zu ziehen. So wuchs die jüdische Gemeinde bis 1825 auf 134 Personen. Nach dem Ende von Napoleons Herrschaft wurden einige Rechte der Juden wieder eingeschränkt. Erst mit der Reichsgründung 1871 wurden alle Beschränkungen der Juden im Norddeutschen Bund aufgehoben. Seit Beginn des 19. Jahrhunderts gab es in Bielefeld eine jüdische Volksschule, und ab 1876 durften die jüdischen Kinder die öffentlichen städtischen Schulen besuchen. Die erste Synagoge wurde 1847 am Klosterplatz errichtet, erwies sich aber schon bald als zu klein. Die Gemeinde zählte 1874 rund 350 Mitglieder und um die Jahrhundertwende fast 1000 Personen. Im Herbst 1905 wurde eine neue Synagoge an der Turnerstraße fertiggestellt, die 450 Männern und 350 Frauen Platz bot. Während der Pogromnacht 1938 wurde sie von den Nationalsozialisten zerstört. Dem Holocaust fielen insgesamt 460 der rund 900 Juden in Bielefeld zum Opfer. Vom Bielefelder Hauptbahnhof wurden insgesamt 1849 Juden deportiert. Mit einem Mahnmal auf dem Platz vor dem Hauptbahnhof wird ihrer seit 1998 namentlich gedacht. Bielefeld hat heute wieder eine jüdische Gemeinde mit rund 250 Mitgliedern. Seit September 2008 verfügt die Jüdische Kultusgemeinde Bielefeld K.d.ö.R. über eine neue Synagoge. Sie ist durch den Umbau der ehemaligen evangelischen Paul-Gerhardt-Kirche an der Detmolder Straße entstanden. Muslime. Die Vatan-Moschee (Heimat-Moschee) in Bielefeld Die meisten Muslime in Bielefeld sind türkischer Herkunft. Während der Wirtschaftswunderzeit wurden in Deutschland dringend Arbeiter gesucht. Nach Anwerbevereinbarungen mit Italien (1955), Spanien und Griechenland (1960) schloss die Bundesrepublik 1961 ein entsprechendes Abkommen mit der Türkei. Seitdem leben viele türkeistämmige Menschen hier schon in der dritten oder vierten Generation. Im Jahr 2004 wurde im Stadtteil Brackwede die Vatan-Moschee fertiggestellt. Der Gemeinde gehören hier rund 350 Mitglieder an. Jesiden. In Bielefeld gibt es eine jesidische Gemeinde mit einem Gemeindezentrum im Stadtteil Baumheide. Museen. Die rund 20 Museen in Bielefeld zeigen neben der Kunst und den Historischen Sammlungen auch die Industriekultur; ebenso greifen sie andere Themen auf. Das Historische Museum zeigt die Geschichte der Stadt Bielefeld und der Region Ostwestfalen-Lippe, insbesondere die Industriegeschichte. Es ist in einigen Hallen der ehemaligen Ravensberger Spinnerei untergebracht, wodurch es den Besucher in die Zeit der Industrialisierung eintauchen lässt. Es wurde hier 1994 eröffnet, die Sammlung greift auf Vorläuferinstitutionen bis auf die Zeit von 1867 zurück. Die Kunsthalle Bielefeld wurde 1966–1968 durch den Amerikaner Philip Johnson erbaut, da es in Bielefeld kein Gebäude für ein reines Kunstmuseum gab. Die Kunsthalle ist der einzige europäische Museumsbau des bekannten Architekten; sie zeigt vorwiegend moderne Kunst aus dem 20. und 21. Jahrhundert. Des Weiteren findet sich in Bielefeld das Museum Huelsmann. Es ist ein Museum für Kunstgewerbe, wurde 1995 eröffnet und zeigt unter anderem Porzellan und Schmuck, bis hin zu wissenschaftlichen Geräten, wie Sonnenuhren. Im Spiegelshof ist das Naturkunde-Museum Bielefeld (namu) untergebracht und zeigt den Aufbau der Erdkruste, einheimische Minerale, Fossilien und vieles mehr. Das Bauernhausmuseum im Teutoburger Wald westlich der Innenstadt (nahe Tierpark Olderdissen) ist das älteste Freilichtmuseum Westfalens und zeigt einige gut erhaltene Bauerngebäude aus der Region Ostwestfalen-Lippe und eine Bockwindmühle. Das Hauptgebäude des Museums brannte 1995 vollständig ab und wurde 1998 durch den historischen "Hof Möllering" ersetzt. Zeitgenössische Kunst zeigt das Museum Waldhof in Form von Malerei, Bildhauerkunst, Fotografie und Zeichnungen. Das Deutsche Fächermuseum zeigt Fächer sowie entsprechende Accessoires und beherbergt eine Fachbibliothek. Das Museum Wäschefabrik befindet sich in einer im Original erhaltenen Wäschefabrik. Die Wäschefabrik "Juhl & Helmke" wurde 1913 errichtet und 1938 unter dem Druck der Judenverfolgung an die Gebrüder Winkel aus Dresden verkauft. Bis 1980 wurde hier von den "Wäschefabrik Gebr. Winkel" Aussteuerwäsche (Tischwäsche, Leibwäsche, Hemden, Blusen) produziert. Die mit der gesamten Inneneinrichtung und der Unternehmerwohnung erhaltene Fabrik wurde 1987 unter Denkmalschutz gestellt. 1997 wurde das Gebäude als Museum wieder geöffnet. Der "Museumshof Senne" besteht aus fünf Fachwerkhäusern, die zusammen eine alte westfälische Hofanlage bilden. Das älteste Gebäude stammt aus dem Jahre 1607, das jüngste aus dem Jahr 1903. Das "Pädagogische Museum" ist in der Universität untergebracht. Es enthält unter anderem viele historische Schulmöbel, Lehrer- und Schülerarbeitsgeräte und Anschauungsobjekte. Außerdem befindet sich in ihm eine historische Schulbuchsammlung. Das Museum Osthusschule ist in einer ehemaligen Schule aus dem Jahr 1895 im Stadtbezirk Senne untergebracht. Es verfügt über einen kompletten historischen Klassenraum aus der Zeit um 1900. Die "Historische Sammlung" gehört zu den von Bodelschwinghschen Anstalten und verdeutlicht die Baugeschichte und Entwicklung Bethels. Ferner gibt es in Bielefeld ein Krankenhausmuseum. Die Ausstellung Archäo Welle zeigt ein Bodendenkmal mit Resten der Stadtmauer, Brunnen und Häusern. Es handelt sich dabei um einen ständig offenen Ausstellungsraum in einem Neubau an der "Welle". Theater. Theater am Alten Markt (TAM) Das städtische Theater Bielefeld bietet Musiktheater, Tanztheater und Schauspiel. Spielstätten sind das 1904 eingeweihte "Stadttheater" des Architekten Bernhard Sehring mit einer bemerkenswerten Jugendstilfassade und das "Theater am Alten Markt" (TAM). Im ersten und zweiten Stock des TAM befinden sich das "TAM zwei" und das im Februar 2011 eröffnete "TAM drei", dort werden hauptsächlich Stücke zeitgenössischer Autoren aufgeführt. An der Ritterstraße befindet sich die Komödie Bielefeld. Vorwiegend an Kinder und Jugendliche richten sich das "Alarmtheater", das "Theaterhaus an der Feilenstraße" und das "Zentrum Bielefelder Puppenspiele". Das "Alarmtheater" im westlichen Teil des Zentrums spielt seit 1993 Stücke für Kinder und Jugendliche; es werden aber auch andere Stücke präsentiert. Überregional bekannt geworden ist das Alarmtheater durch seine Aufsehen erregenden Inszenierungen mit großen Gruppen von Jugendlichen zu den Themen Sucht- und Gewaltprävention und Migration. Das "Theaterhaus in der Feilenstraße" bietet anspruchsvolle Stücke für Kinder und Jugendliche, aber auch Stücke für Erwachsene. Es wird neben Gastauftritten von zwei Theatergruppen bespielt, dem Mobilen Theater und dem Trotz Alledem Theater. Im "Zentrum Bielefelder Puppenspiele" finden Aufführungen für Kinder statt. Die Bühne wird von zwei Theatergruppen bespielt. Zudem existiert mit den Kammerpuppenspielen im Kamp ein weiteres Puppenspieltheater. Das "Theaterzentrum Tor 6" im ehemaligen Dürkopp-Werk ist seit 2000 Heimat des "Theaterlabors", das seit 1983 eigenständig Theaterstücke entwirft. Musik. Es gibt drei sinfonische Orchester: die 1901 gegründeten "Bielefelder Philharmoniker" mit Sitz im Theater Bielefeld, das Anfang 2003 gegründete unabhängige und selbstverwaltete "Freie SinfonieOrchester Bielefeld" und die "Jungen Sinfoniker", das Jugendsinfonieorchester der Region Ostwestfalen-Lippe. Die 1989 gegründete "Cooperative neue Musik" organisiert Konzerte mit der Musik des 20. Jahrhunderts. Überregionale Bekanntheit besitzt der Bielefelder Kinderchor. Der 1932 gegründete Chor ist besonders für seine Weihnachtskonzerte und -aufnahmen bekannt. Das unter Mitwirkung des Chors entstandene Weihnachtsalbum der Mannheim Steamroller, "Christmas In The Aire", erzielte Platz 3 der US-Billboardcharts. Die Musik- und Kunstschule der Stadt Bielefeld (MuKu) zählt mit ihren 6000 Schülern zu den größten ihrer Art in Deutschland. Sie wurde 1956 gegründet und ist heute in einem Jugendstilgebäude (1913) am Fuße der Sparrenburg beheimatet, das für die 1906 gegründete staatlich-städtische Handwerker- und Kunstgewerbeschule erbaut wurde. Der "Musikverein der Stadt Bielefeld" wurde 1820 gegründet. Dreimal pro Saison tritt er mit europäischen Oratorien in der Rudolf-Oetker-Halle auf. Der 1890 gegründete "Oratorienchor der Stadt Bielefeld" (bis 1978 "Volkschor Bielefeld") führt etwa zweimal im Jahr Konzerte in der Rudolf-Oetker-Halle auf. Neben den großen Standardwerken der kirchlichen und weltlichen Chormusik kommen dabei auch immer wieder Stücke etwas abseits des in heutigen Konzertsälen Gewohnten zur Aufführung. Der 1977 von Werner Hümmeke gegründete "Universitätschor Bielefeld" der Universität Bielefeld inszeniert überwiegend Chor- und Solowerke mit orchestraler Begleitung. Seit einigen Jahren finden etwa zweimal im Jahr Konzerte in der Rudolf-Oetker-Halle statt. Von ehemaligen Mitgliedern des Universitätschors wurde 2006 der "Konzertchor Bielefeld" gegründet. Ein weiterer Bielefelder Chor sind die "Young Voices Bielefeld" mit einer Altersspanne zwischen 6 und 34 Jahren. Zum Repertoire gehören geistliche und weltliche Lieder, Rock und Popsongs. Veranstaltungsorte. Bielefeld verfügt über mehrere moderne Hallen. Diese werden vielfältig genutzt, zum Beispiel für Konzerte, Messen, Ausstellungen oder Opern. Die größte ist die Seidensticker Halle mit einem Fassungsvermögen von 7500 Zuschauern. Sie wurde 1993 als moderne Großsporthalle eröffnet und bietet neben diversen Sportveranstaltungen (Hallenfußball, Handball etc.) auch Platz für Konzerte internationaler Stars. Eine der modernsten Hallen ihrer Art ist die Stadthalle Bielefeld mit Platz für bis zu 4500 Zuschauer. Sie bietet sich durch ihre Multifunktionalität für Veranstaltungen jeglicher Art an. Von Konferenzen über Messen und Kabarettveranstaltungen bis hin zu Konzerten findet hier fast jede Veranstaltungsart statt. Im Westen Bielefelds liegt die Rudolf-Oetker-Halle. Sie gilt als eines der schönsten Konzerthäuser der Welt für klassische Musik und wird für ihre Akustik gerühmt. Die Halle wurde 1930 eröffnet und verfügt über 1561 Plätze im Großen Saal und 300 Plätze im Kleinen Saal. Der "Ringlokschuppen" ist in seiner heutigen Nutzungsform noch recht neu. Er wurde 2003 als Halle für Konzerte und viele andere Veranstaltungen eröffnet. An Wochenenden fungiert er als Diskothek. Das 1905 errichtete Gebäude diente ursprünglich als Wartungsschuppen für Dampf- und später auch Diesellokomotiven. Gerade das macht das Flair der Halle aus, denn sie verbindet alte mit moderner Baukunst. Die Zuschauerkapazität beträgt 2500. Unter der Kreuzung Detmolder Straße/Niederwall befindet sich der Bunker Ulmenwall; er war 1939 als Sanitätsbunker eingerichtet worden. In der Nachkriegszeit betrieb das Jugendamt bis 1996 dort ein Kulturzentrum, das sich zunehmend in einen Jazzkeller verwandelte. Seit 1996 ist der Veranstaltungsort in der Trägerschaft des eigens dafür gegründeten Vereins. In dieser einzigartigen intimen Atmosphäre, wo die Zuschauer bis auf Tuchfühlung an die Künstler herankommen, haben viele international berühmte Musiker Konzerte vor kleinem Publikum gegeben, beispielsweise Archie Shepp, John Surman, Gunter Hampel, Albert Mangelsdorff, aber auch unbekannte und lokale Künstler finden hier eine ideale Plattform. Außerdem ist der Bunker Ulmenwall seit 1987 Veranstaltungsort für Vorträge des Datenschutzvereins Digitalcourage (vormals FoeBuD) zu gesellschaftlichen und technischen Themen. Das Jugend- und Kulturzentrum Niedermühlenkamp, kurz KAMP, war ein beliebter Veranstaltungsort für Konzerte, Partys und ähnliche Veranstaltungen. Das Musikmagazin Intro zeichnete es 2004 als siebtbesten Musikclub Deutschlands aus. Der Nutzungsvertrag mit dem "Kulturkombinat Kamp" e.V. wurde 2013 nicht vom Hausträger, den Falken Bielefeld, verlängert, was das Aus für die Kulturarbeit bedeutete. Das Kulturkombinat veranstaltet seitdem in größeren Abständen Konzerte und Partys an wechselnden Bielefelder Veranstaltungsorten, vor allem im "Forum Bielefeld" und im Bunker Ulmenwall. Für Lesungen, Ausstellungen und die Bielefelder Literaturtage werden auch die Räumlichkeiten der Stadtbibliothek genutzt. Neues Bahnhofsviertel, links das Cinemaxx Kinos. Bielefeld besitzt außer den zwei Multiplex-Kinos "CinemaxX", mit 2648 Plätzen das größte Kino in der Region Ostwestfalen-Lippe, und "Cinestar" mit 2315 Plätzen nur noch wenige kleinere Kinos. Die „traditionellen“ Filmtheater haben inzwischen allesamt geschlossen, so z. B. das "Movie" im Leineweberhaus am Bahnhofsvorplatz, in dem sich heute eine Diskothek mit demselben Namen befindet. Die "Kamera", die 1950 von Carl Aul im "Haus der Technik" gegründet wurde und 1957 in die Feilenstraße umzog, besitzt drei Säle und ist eines der höchstdekorierten Programmkinos der Republik. Ein weiteres Programmkino ist das "Lichtwerk" im Ravensberger Park mit drei Sälen und Freilichtkino-Veranstaltungen im Sommer. In der Aula der Realschule Brackwede finden an zwei Tagen der Woche Filmvorführungen des "Melodie-Filmtheaters" statt. Das kleinste Kino ist das aus der ehemaligen Kinogruppe des Arbeiterjugendzentrums hervorgegangene "Offkino" in den ehemaligen Räumen des Lichtwerks im Filmhaus. Sport. Grasbahnrennen auf dem Leineweberring in Bielefeld Das sportliche Aushängeschild der Stadt ist der DSC Arminia Bielefeld. Die Fußballer des 1905 gegründeten Vereins stiegen 1970 erstmals in die Bundesliga auf und gehörten der höchsten deutschen Spielklasse nach mehreren Ab- und Aufstiegen wieder zwischen der 05 und 2008/09 an. In der Saison 16 ist die Arminia wieder in der zweiten Bundesliga aktiv. Der DSC Arminia trägt seine Heimspiele in der SchücoArena aus. Bis 2004 offiziell und im Volksmund auch weiterhin "Alm" genannt, verfügt das am westlichen Rand der Innenstadt gelegene reine Fußballstadion seit dem Abschluss der Umbauarbeiten im Jahre 2008 über 27.300 Plätze. Ein weiterer traditionsreicher Fußballverein ist der VfB Fichte Bielefeld, dessen Stammverein VfB 03 bis in die 1950er-Jahre ein ebenbürtiger Lokalrivale des DSC Arminia war. Der VfB Fichte spielt in der Westfalenliga und trägt seine Heimspiele im Stadion Rußheide aus. Dieses Multifunktionsstadion mit 12.000 Plätzen wird auch für die Leichtathletik und von den Bielefeld Bulldogs, einem American-Football-GFL2-Club (German Football League 2) genutzt. Mit Arminia Bielefeld und dem VfL Theesen besitzt die Stadt zwei Fußballvereine in der U-19-Bundesliga (Staffel West). Jedes Jahr im Januar veranstaltet der "TuS Jöllenbeck" unter dem Motto „Weltklasse in Jöllenbeck“ das Internationale Frauen-Hallenfußball-Turnier, eines der bestbesetzten Hallenfußballturniere Europas, an dem nationale und internationale Spitzenvereine des Frauenfußballs teilnehmen. Der "VfL Theesen" im Bielefelder Norden sorgt mit der größten Fußball-Jugendabteilung im Kreis für den Nachwuchs. Beachtenswert ist dort das regelmäßige internationale Pfingst-Jugendturnier, zu dem Jugendmannschaften aus Bundesligavereinen und sogar Jugend-Nationalmannschaften aus der ganzen Welt anreisen. Der Radsport hat in Bielefeld eine lange Tradition. Das zeigt unter anderem die häufige Rolle als Etappen- (elfmal), Start- (einmal) oder Zielort (zehnmal) der Deutschland Tour. Auf der Bielefelder Radrennbahn, an der Heeper Straße im Stadtbezirk Mitte gelegen, werden unter anderem regelmäßig Steherrennen veranstaltet. Die höchstklassigen Bielefelder Handballteams sind das Herren- sowie Damenteam des TuS 97 Bielefeld-Jöllenbeck sowie die Herren der TSG Altenhagen-Heepen (zuvor 2014 aus der 3. Liga abgestiegen), die jeweils in der Oberliga Westfalen antreten. Die TSG trägt die Heimspiele in der Sporthalle am Gymnasium Heepen oder in der Seidensticker Halle und der TuS 97 in der Sporthalle der Realschule Jöllenbeck aus. Die Damen der TSVE Dolphins Bielefeld spielen in der Saison 2008/09 in der 2. Basketball-Bundesliga. Die TSVE-Herren spielen Basketball in der Regionalliga West. Beide Teams tragen ihre Heimspiele in der Sporthalle I der Carl-Severing-Schulen an der Heeper Straße aus. Die Herren des Telekom Post SV Bielefeld spielen in der Saison 2008/09 in der Volleyball-Regionalliga. Die Heimspiele finden in der Almhalle an der Melanchthonstraße statt. Der bedeutendste Schachverein der Stadt ist der Bielefelder SK, der in den 1990er-Jahren der Schachbundesliga angehörte. In der Saison 2008/09 spielt der Verein in der NRW-Klasse. Die Eishockey-Damen des SV Brackwede spielen in der 2. Liga Nord und tragen ihre Heimspiele auf der Oetker-Eisbahn an der Duisburger Straße in Brackwede aus. Dort trainiert auch die Eiskunstlaufabteilung des DSC Arminia. An der Eckendorfer Straße im Stadtbezirk Heepen befindet sich der Leineweberring, hier veranstaltet der DMSC Bielefeld internationale Motorrad-Grasbahnrennen. Bielefeld besitzt mehrere Schwimmsportstätten, so u. a. das Freibad Jöllenbeck, das Freibad Schröttinghausen, das Ishara, das AquaWede, das Freibad Hillegossen, das Freibad Brackwede, das Freibad Dornberg, das Senner Waldbad sowie das Wiesenbad. Der 1. Snooker & Billard Club Bielefeld e. V., gegründet 1989, hat sein Vereinsheim in Bielefeld-Stieghorst. Das Vereinsheim gilt mit einem Spielbereich von 450 m² und zurzeit 12 Profi-Snooker-Tischen als das größte private Vereinsheim in Europa. Volks- und Straßenfeste, Märkte. Im Mai findet in der Altstadt der "Leinewebermarkt" statt, ein großes mehrtägiges Volksfest mit umfangreichem kulturellen Programm auf mehreren Bühnen. Beim Bielefelder "Carnival der Kulturen" (Anfang Juni, seit 1997) studieren viele in- und ausländische Künstlergruppen Choreographien ein und ziehen durch die Straßen der Stadt. Der "Christopher Street Day" findet seit 1994 zu wechselnden Terminen von Ende Juni bis Mitte August (seit 1994) statt. Jedes Jahr im Juli ist die Sparrenburg Schauplatz des mittelalterlichen "Sparrenburgfestes". Von der ersten Adventswoche bis zum 30. Dezember findet in den Einkaufszonen der Innenstadt ein "Weihnachtsmarkt" statt. Weitere Veranstaltungen des Einzelhandels in der Altstadt sind ein "Autosalon La Strada" im Mai und ein "Weinmarkt" im September. In den einzelnen Stadtteilen finden darüber hinaus ebenfalls regelmäßige Veranstaltungen statt, zum Beispiel der Weihnachtsmarkt am Siegfriedplatz, der Stiftsmarkt in Schildesche oder der Schweinemarkt in Brackwede. Kunst, Musik, Film, Literatur. Die "Nachtansichten" ist die Nacht der Museen, Kirchen und Galerien. In dieser einen Nacht Ende April haben diverse Museen, Galerien und Kirchen geöffnet. Dazu gibt es ein umfangreiches Rahmenprogramm. Jährlich im Sommer (zum 25. Mal im Jahr 2015) wird das "Tanzfestival Bielefeld" durchgeführt, bei dem über zwei Wochen Tanzkurse mit öffentlichen Ergebnisvorführungen und professionelle Tanzveranstaltungen geboten werden. Am zweiten Wochenende nach den Sommerferien finden alljährlich die "Offenen Ateliers Bielefeld" statt, an denen die Künstlerinnen und Künstler ihre Ateliers für Besucher öffnen. Die "Nacht der Klänge" bietet seit 2004 eine Vielzahl an unterschiedlichen Klangerlebnissen an teilweise außergewöhnlichen Orten des Gebäudes der Universität Bielefeld. In der Stadtbibliothek Bielefeld finden seit 1996 die "Bielefelder Literaturtage" statt. Seit 1989 veranstaltet die hier ansässige Murnaugesellschaft das "Film- und Musikfestival", bei dem eine Woche lang Stummfilme und Live-Musik an verschiedenen Spielorten aufgeführt werden. Zu wechselnden Terminen im Jahr findet der "Kneipenkult" statt, bei dem eine einwöchige Konzertreihe lokaler Bands nacheinander in mehreren Bielefelder Gaststätten durchgeführt wird. Seit 2005 gibt es in Bielefeld unregelmäßig das "Honky Tonk Festival". Gesellschaft und Wissenschaft. Die deutschen Big Brother Awards, Negativpreise zu den Themen Überwachung, Freiheitsrechte und Datenschutz, werden seit 2000 jährlich in Bielefeld vom Verein Digitalcourage vergeben. Da der Verein außerdem seit seiner Gründung 1987, damals noch unter dem Kürzel "FoeBuD", selbst in der Stadt ansässig ist und hier viele weitere Aktionen getragen hat, ist Bielefeld in den Medien des Öfteren mit dem Thema Datenschutz in Verbindung gebracht worden. Auch die erste Freiheit statt Angst-Demonstration fand 2006 hier statt. Seit 2008 transportiert im mehrjährigen Rhythmus das Wissenschaftsfest "Geniale" akademische Fragen und Forschungsfelder aus den Bielefelder Hochschulen auf Straßen und Plätze der Stadt. Spiel- und Kinderveranstaltungen. Seit 2002 ist das Kinderkulturfest "Wackelpeter" im Ravensberger Park Teil des Veranstaltungsangebots in den Sommerferien. Seit 1995 findet jedes Jahr im November die Spielewelt in Bielefeld, eine der größten deutschen Messen für Brett- und Gesellschaftsspiele zum Mitmachen und Ausprobieren, statt. Sportveranstaltungen. Der "Hermannslauf" ist ein traditioneller Volkslauf vom Hermannsdenkmal in Detmold über die Höhen des Teutoburger Waldes bis zur Sparrenburg in Bielefeld. Eine weitere jährliche und noch jüngere Veranstaltung ist im Spätsommer der "Stadtwerke Run & Roll Day", eine Laufveranstaltung für Läufer und Rollerskater auf der Stadtautobahn Ostwestfalendamm. In der Regel im Mai findet im Stadtteil Brackwede der "Große Preis der Sparkasse" statt, ein Radrennen. Regionale Spezialitäten. In Bielefeld gibt es traditionell die westfälischen Spezialitäten. Dazu gehört zum Beispiel Pumpernickel, ein Roggenbrot, das nicht gebacken, sondern im Dampf gegart wird. Weitere typisch westfälische Spezialitäten sind der westfälische Pickert, westfälischer Schinken und der Weizenkorn. Eine Bielefelder Spezialität ist die "Bielefelder Luft", ein Schnaps aus Korn und Pfefferminz. Bielefeldverschwörung. Der Informatiker Achim Held veröffentlichte im Jahr 1994 im Usenet einen satirischen Beitrag mit dem Titel "Die Bielefeld-Verschwörung", in dem er die Existenz Bielefelds anzweifelte und deren Vortäuschung als Verschwörung bezeichnete. Im Internet hält sich dieser Scherz bis heute in Form der erstmals formulierten Antwort darauf als Aussage von Joerg Pechau: „Bielefeld gibt es nicht“. Die Stadt nahm darauf anlässlich ihrer 800-Jahr-Feier im Jahr 2014 Bezug, indem sie die Feierlichkeiten unter das Motto stellte "800 Jahre Bielefeld – Das gibt's doch gar nicht!" Wirtschaft. Grundlage der wirtschaftlichen Entwicklung in Bielefeld ist die seit dem 9. Jahrhundert hier nachweisbare Leinenweberei. 1309 schließen sich die Kaufleute der Wollweber und Tuchhändler zur „Johannisbrüderschaft“ zusammen. Mit dem Eisenbahnanschluss im Jahr 1847 begann die Industrialisierung Bielefelds. Der Hauptgrund war die jetzt mögliche preisgünstige Lieferung von Kohle aus dem Ruhrgebiet, die für den Betrieb der Dampfmaschinen benötigt wurde. Die erste Fabrik gründeten 1851 die Gebrüder Bozi mit der "Spinnerei Vorwärts" direkt an der Linie der Köln-Mindener-Eisenbahn. 1854 wurde die Ravensberger Spinnerei von Hermann Delius gegründet, die danach eine Zeit lang zur größten Maschinenspinnerei Europas aufstieg. Das Unternehmen zog sich später vom Markt zurück, der stadtbildprägende Bau steht heute unter Denkmalschutz. 1862 entstand die "Mechanische Weberei", in der die erzeugten Garne zu hochwertigen Stoffen weiterverarbeitet wurden. 1870 liefen rund 11 Prozent aller Spindeln und Webstühle Deutschlands in Bielefeld. Der nächste Schritt war um 1900 die industrielle Fertigung von Tisch- und Bettwäsche, Oberhemden und Blusen. Inzwischen waren metallverarbeitende Firmen entstanden, in denen die benötigten Maschinen entwickelt und gefertigt wurden, dazu gehören unter anderen die Dürkopp-Werke und die "Kochs Adler Nähmaschinen Werke". Bei Dürkopp wurden zunächst Nähmaschinen und später Fahrräder, Motorräder, Autos, Lastwagen und Autobusse hergestellt. Der Apotheker August Oetker hatte Ende des 19. Jahrhunderts die Idee, abgepacktes Backpulver industriell herzustellen. Sein Konzept war so erfolgreich, dass aus seiner Apotheke im Laufe der Zeit ein Unternehmen von Weltruf wurde. Im Jahr 1900 baute Oetker die erste Fabrik und verkaufte 1906 bereits 50 Millionen Päckchen Backin. Heute wird die Wirtschaft der Stadt durch das verarbeitende Gewerbe mit den Sparten Nahrungs- und Genussmittel, Metallverarbeitung, Maschinenbau, Chemie und Bekleidung bestimmt. Die wichtigsten Firmen sind August Oetker, Böllhoff, Dürkopp-Adler, Gildemeister, ThyssenKrupp, Droop & Rein (Starrag Group), Schüco, Goldbeck und Seidensticker. Der Handel ist unter anderen mit Marktkauf Holding, JAB Anstoetz und servicegroup vertreten und im Dienstleistungssektor sind Kühne + Nagel, Piening Personalservice, TNS Emnid, TNS Infratest, Itelligence und ruf zu nennen. Bedeutende Arbeitgeber sind darüber hinaus die Bereiche Bildung und Erziehung, die Universität, Fachhochschulen und Schulen, sowie das Gesundheits- und das Sozialwesen, hier vor allem die Von Bodelschwinghsche Stiftungen Bethel mit 8.500 Arbeitsplätzen in Bielefeld größter Arbeitsgeber der Stadt. Von den rund 126.000 sozialversicherten Beschäftigten in der Stadt pendeln rund 40 Prozent aus dem Umland nach Bielefeld ein. a>, Treffpunkt aller Stadtbahnen und der meisten Buslinien Schienen- und Busverkehr. Bielefeld liegt an der elektrifizierten Hauptbahn Köln–Dortmund–Hannover (viergleisige Bahnstrecke Hamm–Minden) der ehemaligen "Köln-Mindener Eisenbahn-Gesellschaft". Im Stadtteil Schildesche überquert die Strecke auf dem nördlichsten Viadukt Deutschlands (Schildescher Viadukt) das Tal des Johannisbachs. Die Strecke trifft in Löhne auf die internationale Bahnstrecke Richtung Amsterdam (Bahnstrecke Löhne–Rheine, Anschlussgleis ab Herford). Am Hauptbahnhof zweigt eine Nebenbahn nach Lemgo bzw. Altenbeken (ehemalige Bahnstrecke Bielefeld–Hameln „Begatalbahn“) ab. Am Bahnhof Brackwede zweigen eingleisige Nebenstrecken in Richtung Osnabrück (Bahnstrecke Osnabrück–Brackwede „Haller Willem“) und Paderborn („Senne-Bahn“ über Hövelhof) ab. Im Stadtgebiet gibt es elf Bahnhöfe beziehungsweise Haltepunkte. Östlich des Stadtzentrums an der Bahnstrecke nach Lemgo liegt der Containerbahnhof Bielefeld Ost. Am Bahnhof Brackwede gibt es einen internationalen Busbahnhof für Fernbuslinien. Von hier bestehen zahlreiche Fernbusverbindungen mit Zielen innerhalb Deutschlands und Europas. Den öffentlichen Personennahverkehr bedienen vier Stadtbahnlinien, Regionalbahnen und Busse. Die Stadtbahn Bielefeld fährt im Innenstadtbereich unterirdisch. Alle Stadtbahnen halten an den U-Bahnhöfen Hauptbahnhof und Jahnplatz sowie am Rathaus. Am Wochenende (Fr/Sa, Sa/So) und vor Feiertagen fahren Nachtbusse auf einem besonderen Nacht- und Frühverkehrsnetz (sonntags bis 8:30 Uhr). In allen Stadtbahnen, Regionalbahnen und Bussen (ausgenommen Nachtbusse) gilt der „Sechser-Tarif“ der OWL Verkehr GmbH. Bielefeld ist heute als größte Stadt Deutschlands in kein S-Bahn-Netz eingebunden. Straßenverkehr. Durch das Stadtgebiet Bielefelds führen die Bundesautobahnen A 2 und A 33 sowie die Bundesstraßen B 61, B 66 und B 68, wobei Letztere mit der Fertigstellung der A 33 im Bereich Bielefeld nicht mehr als Bundesstraße gewidmet sein wird. In den 1950er-Jahren wurden für die Hauptverbindungen in Richtung Gütersloh, Herford, Lippe und Werther leistungsfähige Straßen geplant, die zum Teil bestehende Straßenzüge verwenden und zum Teil über neue Trassen verlaufen sollten. Die Neubaustücke waren weitgehend anbaufrei vorgesehen. Etwa ein Jahrzehnt später wurden die geplanten Straßenzüge als Autobahn vorgesehen. Bislang wurde davon lediglich der Ostwestfalendamm im Zuge der B 61 zwischen den Stadtbezirken Brackwede und Mitte verwirklicht (B 61n), der als Autobahnzubringer zur A 33 dient. Immer noch vorgesehen, aber durchaus umstritten, sind Schnellstraßen im Zuge der B 66 im Osten und der Ostwestfalenstraße (L 712) im Nordosten der Stadt. Weitergehende Planungen wurden verworfen und sollen in der nächsten Zeit aus dem Flächennutzungsplan gestrichen werden. Flugverkehr. Der nächstgelegene internationale Flughafen ist der Lippstadt, der in 45 km Entfernung südwestlich von Bielefeld liegt und über die A 33 zu erreichen ist. Im Süden der Stadt im Stadtbezirk Senne liegt in der Nähe der A 2 der Flugplatz Bielefeld. Er verfügt über eine 1256 m lange, befestigte Start-und-Lande-Bahn sowie über eine Startstrecke für den Segelflug. Der Flughafen wird für den Geschäftsflugverkehr sowie von mehreren Luftsportvereinen genutzt. Fahrradverkehr. Bielefeld ist Mitglied in der Arbeitsgemeinschaft fahrradfreundliche Städte und Gemeinden in Nordrhein-Westfalen und hat einen Fahrradbeauftragten. Am Hauptbahnhof befinden sich eine Fahrradstation mit Parkhaus, ein Rad-Center mit Werkstatt und Verkauf sowie eine Geschäftsstelle des Allgemeinen Deutschen Fahrrad-Clubs. Öffentliche Einrichtungen. Diakonissenhaus Sarepta (Bethel), Neogotik 1872–1875 In der Stadt befinden sich die Handwerkskammer Ostwestfalen-Lippe und die Industrie- und Handelskammer Ostwestfalen zu Bielefeld. Zu den elf Krankenhäusern der Stadt gehören unter anderem die Städtischen Kliniken Mitte einschließlich der dazugehörigen Kliniken an der Rosenhöhe und das Evangelische Krankenhaus Bielefeld, das aus dem Johanneskrankenhaus und den Kliniken Gilead und Mara besteht. Weitere evangelische Einrichtungen sind die Von Bodelschwinghschen Stiftungen mit dem Hauptsitz im Stadtteil Bethel und das Evangelische Johanneswerk. In katholischer Trägerschaft besteht weiter das Franziskushospital Bielefeld. Darüber hinaus ist Bielefeld der Hauptsitz des Arbeitskreises Down-Syndrom e. V., der seit mehr als 30 Jahren bundesweite Beratung und Information zum Thema Trisomie 21 anbietet. Auch der Deutsche Sauna-Bund hat seinen Sitz in der Stadt. In Bielefeld befinden sich das Amtsgericht Bielefeld, das Arbeitsgericht Bielefeld und das Landgericht Bielefeld. Als Verkehrsbehörde des Landes Nordrhein-Westfalen verwaltet die Straßen.NRW die Verkehrswege in Ostwestfalen und Lippe. Die Bielefelder Niederlassung des Bau- und Liegenschaftsbetriebs NRW (BLB.NRW) betreut sämtliche Landesimmobilien in Ostwestfalen-Lippe. An der Stapenhorststraße befindet sich ein Standort der Bezirksregierung Detmold und an der Ravensberger Straße hat die Bundesanstalt für Immobilienaufgaben eine Niederlassung. Medien. In Bielefeld hat der WDR sein Studio Bielefeld eingerichtet. Hier werden die Regionalprogramme in Radio und Fernsehen für Ostwestfalen-Lippe produziert und ausgestrahlt. Im Gebäudezentrum finden wechselnde Kunstausstellungen statt. Als Tageszeitungen erscheinen in Bielefeld die Neue Westfälische und das Westfalen-Blatt. Seit dem 2. Juni 1991 ist das Lokalradio Radio Bielefeld in der ganzen Stadt auf 98,3 MHz und 97,6 MHz zu empfangen. Mit 50 Watt sendet außerdem das Campusradio Hertz 87,9 in weite Teile der Stadt und das nichtkommerzielle Einrichtungsradio Antenne Bethel ist im Stadtteil Gadderbaum werktäglich von 18 bis 19 Uhr auf 94,3 MHz zu hören. Am 17. November 2005 startete der lokale Fernsehsender Kanal 21, der sein Programm seit Juli 2009 beim landesweiten TV-Lernsender nrwision ausstrahlt. nrwision bündelt in seiner Mediathek diese und viele weitere Fernsehsendungen aus Bielefeld bzw. von Fernsehmachern aus Bielefeld. Im Ortsteil Brackwede befindet sich das Medienarchiv Bielefeld, das sich zum Ziel gesetzt hat, Spiel- und Dokumentarfilme sowie Tondokumente für spätere Generationen zu erhalten. Der Bestand des Archivs umfasst 2015 etwa 9100 Filme auf ca. 45.000 Rollen und mehrere tausend Magnetbänder. Es erscheinen in Bielefeld regelmäßig verschiedene Anzeigenblätter, darunter im Panorama-Verlag des Westfalen-Blattes "OWL am Mittwoch" und "OWL am Sonntag". Deren Gesamtdruckauflage beträgt – gemeinsam mit Schwesterblättern im Raum Ostwestfalen – knapp eine Million Exemplare. Seit 1989 erscheint alle 14 Tage die Stadtillustrierte "ULTIMO", seit 1996 auch in Form einer Internetausgabe. Seit 1998 hat die Redaktion der wöchentlich erscheinenden Zeitung Sixth Sense der Britischen Streitkräfte in Deutschland ihren Sitz in Bielefeld. Die etwa 80 Seiten starke Zeitung hat eine Auflage von 9000 bis 12.000 Exemplaren. Im Jahr 2000 startet das Internetangebot "WebWecker", das ebenfalls Themen rund um das Bielefelder Stadtleben behandelt. Auch einige Blogs befassen sich mit dem Bielefelder Stadtgeschehen, etwa das hauptsächlich auf Themen rund um den Fußballverein Arminia Bielefeld spezialisierte "blog5". Bildung. a>, eines von zehn Bielefelder Gymnasien An der 1969 gegründeten Universität Bielefeld sind circa 22.000 Studenten eingeschrieben. Das Hauptgebäude aus den 1970er-Jahren ist eines der größten Bauwerke in Europa. Zurzeit entstehen mehrere Ersatz- und Erweiterungsbauten. Vorgesehen ist eine Grundsanierung des Uni-Hauptgebäudes in den nächsten 10 Jahren. Die Fachhochschule Bielefeld besitzt Abteilungen in Bielefeld, Minden und Gütersloh. Am Standort Bielefeld werden zahlreiche Studiengänge aus den Feldern Ingenieurwissenschaften, Gestaltung, Soziales/Pflege/Gesundheit und Wirtschaft angeboten. An der 1971 gegründeten Fachhochschule sind circa 6600 Studenten eingeschrieben. Die Fachhochschule für öffentliche Verwaltung Nordrhein-Westfalen hat seit 1976 in Bielefeld eine Abteilung für die Studiengänge Kommunaler Verwaltungsdienst, Staatlicher Verwaltungsdienst und Polizeivollzugsdienst. In der Stadt gibt es 47 Grundschulen, elf Hauptschulen, 16 Förderschulen, zehn Realschulen, vier Gesamtschulen, zehn Gymnasien, eine Waldorfschule, eine heilpädagogische Waldorfschule, sieben Berufsbildende Schulen, neun Privatschulen, eine Musikschule, eine Kunstschule, zwei staatliche Versuchsschulen (Oberstufen-Kolleg und Laborschule), das staatliche Westfalen-Kolleg Bielefeld als Institut zur Erlangung der Hochschulreife und zwei Fachschulen (Diätlehranstalt, Fachschule für Altenpflege). Der Standort Bielefeld der 2007 gegründeten Bethel wurde am 13. Februar 2009 geschlossen. Dort wurde der Studiengang Evangelische Theologie angeboten. Der Standort Wuppertal blieb erhalten. Vorgängereinrichtung war die 1905 gegründete Kirchliche Hochschule Bethel, die auf die Ideen Friedrich von Bodelschwinghs zurückging. Die Fachhochschule der Diakonie wurde 2006 von den v. Bodelschwinghschen Anstalten Bethel, dem Johanneswerk sowie weiteren diakonischen Trägern gegründet. Sie bietet Studiengänge im Sozial- und Gesundheitsbereich sowie eine Ausbildung zum Diakon an. Die Fachhochschule des Mittelstands Bielefeld wurde im Jahr 2000 in privater Trägerschaft gegründet und bietet speziell auf den Mittelstand ausgerichtete, staatlich anerkannte Studiengänge aus den Bereichen Medien, Journalismus, Marketing, Informatik und Wirtschaft an. Die private und staatlich anerkannte Fachhochschule der Wirtschaft hat seit 2001 einen Standort mit dem Fachbereich Wirtschaft in Bielefeld. Wasserversorgung. Die geringe Verfügbarkeit von Oberflächenwasser gab schon im frühen 20. Jahrhundert Anlass zu einem nachhaltigen Kreislaufsystem der Wasserversorgung: Die Brunnen der Bielefelder Trinkwasserversorgung befinden sich in der Senne, unter deren durchlässigem Sandboden sich reichlich Grundwasser ansammelt. Als Endstufe der Abwasserentsorgung wurden im Feuchtgebiet zwischen Heepen und Milse Rieselfelder angelegt. Unterhalb der Rieselfelder wird der Aa Wasser entnommen und in die Senne gepumpt, um das dortige Grundwasserdepot zu ergänzen. Ehrenbürger. Hermann Delius – Ehrenbürger der Stadt Bielefeld Die Stadt Bielefeld hat seit 1856 zehn Personen das Ehrenbürgerrecht verliehen. Zu ihnen zählen unter anderen Baryonyx. "Baryonyx" ist ein zweibeiniger Dinosaurier aus der Familie Spinosauridae, der in der Unterkreide (Barremium) lebte. Ein nahezu vollständiges Skelett wurde in England gefunden, es gilt als eines der am besten erhaltenen Fossilien von Theropoden (fleischfressende Dinosaurier) in Europa. Er erreichte eine Länge von etwa 8,5 Metern; charakteristische Merkmale schließen den krokodilähnlichen Schädel und eine ungewöhnlich große Klaue an beiden Daumen der Vordergliedmaßen mit ein. Er ernährte sich von Fisch und anderen Dinosauriern, laut chemischen Analysen von Zähnen war er möglicherweise teils wasserlebend. Das gut erhaltene Skelett aus England gehört zu den wichtigsten Fundstücken von Spinosauriden. Fossil erhaltene Mageninhalte ermöglichten erstmals die heute allgemein akzeptierte Annahme, dass sich diese Gruppe von Fischen ernährte. Körperbau. Größenvergleich zwischen "Baryonyx" und Mensch "Baryonyx" wird je nach Quelle mit 8,2 bis 8,5 Meter Länge angegeben, sein Gewicht wird auf 1700 bis 2000 Kilogramm geschätzt. Da das vollständigste Skelett wahrscheinlich von einem noch nicht ausgewachsenen Tier stammt, könnte ein ausgewachsener "Baryonyx" größer gewesen sein. Der 91 Zentimeter lange Schädel ist proportional lang, schmal und krokodilartig flach gebaut, wie bei anderen Spinosauriden. Er hatte im Oberkiefer 32 und im Unterkiefer 64 Zähne – etwa doppelt so viele wie bei nicht-spinosauriden Theropoden. Die Zahnkronen waren konisch geformt und wiesen an den Schneidekanten sehr feine Sägungen auf, ungefähr sieben pro Millimeter. Damit unterscheiden sie sich markant von typischen Zähnen nicht-spinosaurider Theropoden, die als seitlich abgeflachte, klingenartige Reißzähne mit groben Sägungen ausgebildet waren. An der Schnauzenspitze griffen die Zähne stark ineinander ("terminal rosette"). Als kennzeichnend für "Baryonyx" innerhalb der Spinosauridae gelten die verschmolzenen Nasenbeine, merkliche querverlaufende Einschnürungen der Kreuzbein- sowie der Schwanzwirbel, eine speziell ausgebildete Gelenkverbindung zwischen Schulterblatt und Rabenbein (Coracoid), der ausladende distale Rand der Schambein-Schaufel ("pubic blade") und die nur sehr flache Eindellung des Wadenbeins. Seine Halswirbel waren vergleichsweise lang und mit kurzen Fortsätzen versehen. "Baryonyx" hatte drei Finger; der Daumen wies eine verlängerte, beim Holotypus 31 Zentimeter lange Kralle auf. Zuzüglich ihres nicht erhaltenen Überzuges aus Keratin wäre sie deutlich größer gewesen. Sein Oberarmknochen war sehr kräftig gebaut und an beiden Enden sehr breit und stark abgeflacht. Im Gegensatz zu anderen Spinosauriden ist für ihn kein Rückensegel nachgewiesen. Da ein starker Größenunterschied zwischen Vorderbeinen und Hinterbeinen bestand, vermutet man eine bipede (zweibeinige) Fortbewegungsweise. Die im Vergleich zu anderen Theropoden sehr starke Ausbildung der Vorderbeine, speziell des Oberarmknochens, könnte jedoch auch darauf hindeuten, dass er sich gelegentlich auf vier Beinen (quadruped) bewegte oder rastete. Fundgeschichte. Der Hobby-Paläontologe William J. Walker entdeckte im Januar 1983 in einer Tongrube in Surrey (England) eine der 30 Zentimeter langen Krallen, das erste bekannte Fossil von "Baryonyx". Er benachrichtigte das British Museum of Natural History; dieses barg im Mai und Juni 1983 in der Nähe der ursprünglichen Fundstelle ein nahezu komplettes Skelett von "Baryonyx" (Exemplarnummer BMNH 9951), dem lediglich der Großteil des Schwanzes fehlte. Die Knochen lagen größtenteils im natürlichen anatomischen Zusammenhang; Verschiebungen und Beschädigungen von Knochen sind größtenteils auf den Einsatz einer Planierraupe bei der Bergung zurückzuführen. Der Fund zog schnell ein großes Medieninteresse auf sich, was ihn einer breiten Öffentlichkeit bekannt machte. BMNH 9951 gilt als eines der bedeutendsten Fossilien Englands, bis 1983 war ein teilweise erhaltener "Eustreptospondylus" der einzige nennenswerte Fund eines Theropoden aus England. Rund drei Jahre später folgte die Erstbeschreibung als "Baryonyx walkeri" durch die britischen Paläontologen Alan Charig und Angela Milner. "Baryonyx" bedeutet „schwere Klaue“ (aus dem Altgriechischen, "barys"=schwer, "onyx"=Klaue), das Art-Epitheton "walkeri" ehrt William J. Walker. Ebenfalls aus England stammen isoliert gefundene Zähne und Wirbel, die jedoch nicht sicher "Baryonyx" zugeordnet werden können. Alle bisherigen englischen Funde stammen aus der Wealden-Gruppe, einer bedeutenden Fossillagerstätte Südenglands, und werden auf die Zeit des Hauterivium bis Aptium datiert. Weitere, zweifelsfrei von "Baryonyx" stammende Funde entdeckte man vor allem in Spanien: 1995 beschrieben Paläontologen Schädelreste von "Baryonyx" aus dem Barremium der Encisco-Gruppe in der spanischen Provinz La Rioja, 2001 wurde von einem teilweise erhaltenen Schädel aus dem Hauterivium der Provinz Burgos berichtet. Portugiesische Fundstücke aus dem 19. Jahrhundert, ursprünglich als Überreste eines Krokodils namens "Suchosaurus" gedeutet, wurden 2007 "Baryonyx" zugeschrieben. Sie stammen aus Barremiumschichten in der Umgebung von Lissabon. Ernährung. Der Schädel von "Baryonyx" und anderen Spinosauriden zeigt eine Reihe von Merkmalen, die Piscivorie (Ernährung von Fischen) vermuten lassen. Die krokodilähnliche Schnauze war lang, flach und schmal, sie hätte somit weniger Widerstand beim Eintauchen ins Wasser gehabt. Die schmale Schnauze und ein knöchernes Gaumendach verminderten torsionale Belastungen, wie sie von zappelnden Fischen ausgehen. Die allgemeine Schädelmechanik von "Baryonyx" ähnelt mehr der des piscivoren Gavial-Krokodils als der von normalen Theropoden. Ein Knochenkamm der Spinosauriden, der sich dorsal über den gesamten Schädel zieht, ist zudem ein Indiz für eine ausgeprägte Nackenmuskulatur, die notwendig ist, um die Schnauze gegen den Wasserwiderstand durch das Wasser zu ziehen und den Kopf schnell zurückzuziehen. Die verlängerten konischen Zähne, die nur sehr feine Sägekanten besitzen, eigneten sich vor allem zum Zupacken und Festhalten der gesamten Beute und unterscheiden sich dadurch von den Zähnen der Fleischfresser, die nach dem Zupacken Teile der Beute abreißen bzw. schneiden müssen. Weit verbreitet ist die Vorstellung eines "Baryonyx", der ähnlich einem Fischreiher am Ufer oder im seichten Wasser auf Fische lauerte. Womöglich ergriff er auch mit seinen 30 Zentimeter langen Krallen Fische. Die ungewöhnlich großen Vorderextremitäten wiesen auch Knochenkämme als Ansatz für Muskulatur auf; "Baryonyx" Arme waren wohl ungemein kräftig. Womöglich wurde ihre Kraft in Verbindung mit der Klaue bei der Jagd auf größere, landbewohnende Tiere verwendet. Ebenso dienten sie vielleicht zum Aufreißen der Beute. Im nahezu kompletten Skelett aus England erhielten sich im Hinterleib fossile Mageninhalte: die von Magensäure angegriffenen Schuppen und Zähne eines Fisches ("Lepidotes") und die Knochen eines jungen "Iguanodon" (eines in Europa häufig gefundenen, pflanzenfressenden Dinosauriers). Der Fund bestätigt die Vermutung, dass sich "Baryonyx" piscivor ernährt hat – die These reiner Piscivorie wird jedoch durch den Fund von "Iguanodon" als Mageninhalt widerlegt. Flugsaurier (Pterosauria) gelten ebenfalls als Beutetiere von Spinosauriden, dies schließt man aus Bissspuren in Flugsaurier-Knochen. Meist vermuten Paläontologen eine gemischte, opportunistische Ernährung, die Fisch und Landwirbeltiere einschließt, ähnlich wie bei heutigen Krokodilen. Eine Reihe spanischer Paläontologen spekuliert über ein weit weniger fischlastiges Nahrungsspektrum; sie berufen sich auf Funde von Zähnen baryonychiner Theropoden aus der spanischen Provinz Teruel: Fossile Wasserflöhe in einem Stadium zur Überdauerung von Trockenzeiten aus dieser Region zeigen auf, dass es keine größeren, permanenten Gewässer gab. Dies erklärt auch die Abwesenheit größerer Fische. Somit ernährte sich "Baryonyx" oder ein naher Verwandter in der Unterkreide von Teruel nicht von Fischen. Im Hinterleib von "Baryonyx" wurden Gastrolithen (verschluckte Steine im Magen) gefunden. Bei einigen Tiergruppen erfüllen sie diverse Zwecke, bei "Baryonyx" geht man von versehentlichem Verschlucken aus. Semiaquatische Lebensweise? Einer neueren Studie zufolge waren Spinosauriden semiaquatisch, also teilweise wasserbewohnend. Forscher um Romain Amiot untersuchten das Mineral Apatit aus den Zähnen von Spinosauriden auf das Verhältnis zwischen zwei Isotopen des Sauerstoffs, Sauerstoff-16 und Sauerstoff-18. Die Analyse zeigt ein Verhältnis der beiden Isotope, wie man es typischerweise bei im Wasser lebenden Tieren findet. Das Isotopenverhältnis ist bei Land- und Wassertieren unterschiedlich, da der Körper von Landtieren Wasser durch Verdunstung verliert, wobei sich das schwerere Sauerstoff-18-Isotop im Körper anreichert. Eine semiaquatische Lebensweise erschien den Forschern als plausibelste Erklärung für das Verhältnis der Isotope. Einen Hinweis auf schwimmende Fortbewegung liefern Spuren eines Theropoden aus La Rioja: Sie zeigen, dass ein bipeder Theropode in etwa drei Meter hohem Wasser schwamm; dabei erhielten sich Kratzspuren der Hinterbeine im Sediment. Allerdings zeigt der Körperbau von "Baryonyx" keine Anpassung an ein semiaquatisches Verhalten, daher verneinen Paläontologen zumeist eine allzu stark ans Wasser gebundene Lebensweise. Sein Körperbau entspricht dem eines landbewohnenden Läufers. Es sind weitere Forschungen notwendig, um die Thesen von Romain Amiot und Kollegen zu untermauern. Paläoökologie. Die Fossilien aus Großbritannien fanden sich in den Ablagerungen der Wealden-Gruppe, welche in der Kreidezeit größtenteils ein ausgedehntes Feuchtgebiet mit Flüssen und einem großen Süßwassersee, dem Wealden Lake, darstellte. Das Klima war für heutige Verhältnisse subtropisch. Die spanischen Fundstücke lagen in Gebieten, welche in der Kreidezeit von Seen bedeckt waren, die portugiesischen Fossilien kommen wohl aus dem Gebiet einer Lagune. In solcher Umgebung wäre Piscivorie gut möglich gewesen. Einer der häufigsten europäischen Dinosaurier war zu dieser Zeit "Iguanodon", welcher nachweislich zum Nahrungsspektrum von "Baryonyx" gehörte. Ebenso lebte er zusammen mit einer Reihe anderer, etwa gleich großer Theropoden, beispielsweise "Neovenator" und "Eotyrannus". Man kann davon ausgehen, dass er durch seine womöglich semiaquatische Lebensweise und piscivore Ernährung Konkurrenz mit diesen typischen Theropoden vermied und eine besondere ökologische Nische einnahm. Ein Beispiel hierfür aus heutiger Zeit ist die Koexistenz des vornehmlich piscivoren Australien-Krokodils und des stärker auf Säugetiere und Vögel spezialisierten Leistenkrokodils in australischen Flüssen. Systematik. a>", einem nahen Verwandten von "Baryonyx"a>" Bei der Erstbeschreibung schlug man eine eigene Familie (Baryonychidae) für die Gattung "Baryonyx" vor, heute stellt man sie in die Familie Spinosauridae. Die Spinosauridae definiert sich über Synapomorphien (Gemeinsamkeiten) im Bau von Schädel sowie in der Anzahl und Größe der Zähne. "Baryonyx" wird seit 1998 der Unterfamilie Baryonychinae zugeteilt, welche der Spinosaurinae mit "Irritator" und "Spinosaurus" gegenübersteht. Die Baryonychinae spaltete sich vor vermutlich mehr als 130 Millionen Jahren von der Spinosaurinae ab. Ihre Synapomorphien sind eine größere Anzahl von Zähnen und stark gekielte Rückenwirbel. 1998 wurde "Suchomimus" aus Afrika erstbeschrieben; er ähnelt "Baryonyx" sehr stark und wird zusammen mit diesem innerhalb der Baryonychinae eingeordnet. Einige Paläontologen halten "Baryonyx" und "Suchomimus" für ein und dieselbe Gattung, der Großteil nutzt die auch von anderen Wissenschaftlern bestätigte Trennung von "Suchomimus" und "Baryonyx" innerhalb der Baryonychinae. Neuere Studien sehen auch die Megaraptora als "Baryonyx" sehr nahe: Fossilien der Megaraptora wurden in Australien und Südamerika gefunden und zeigen eine Reihe von Merkmalen, die eine Verwandtschaft mit "Baryonyx" und "Suchomimus" vermuten lassen; unter anderem besaßen auch die Megaraptora eine stark verlängerte Kralle am Daumen der Vordergliedmaße. Die einzige anerkannte Art der Gattung "Baryonyx" ist "Baryonyx walkeri", jedoch deuten etliche Funde isolierter Zähne auf verschiedene Arten hin. Sie ähneln den Zähnen von BMNH 9951 sehr stark, zeigen aber leichte Unterschiede. Es ist nicht klar, ob diese Unterschiede auf verschiedene Arten oder individuelle Unterschiede zurückzuführen sind, daher wurde bisher für uneindeutige Funde eine Klassifizierung als "Baryonyx" sp. (nicht näher definierte Art von "Baryonyx") oder baryonychine Überreste bevorzugt. Nachdem der Paläontologe Eric Buffetaut die 1841 beschriebene Art "Suchosaurus girardi" 2007 als Synonym von "Baryonyx" erkannte, müsste die Gattung "Baryonyx" gemäß den Regeln des ICZN fortan "Suchosaurus" heißen (Prioritätsregel). Da jedoch der Holotypus von "Suchosaurus" nur ein isolierter Zahn ist, von "Baryonyx" hingegen ein nahezu vollständiges Skelett, wird weiterhin der Gattungsname "Baryonyx" verwendet. Dubios bleibt die Zuordnung der zweiten "Suchosaurus"-Art; der englische "Suchosaurus cultridens" ist wohl auch ein Spinosauride, kann jedoch nicht eindeutig "Baryonyx" zugeordnet werden. Paläobiogeographie. Die Evolution von "Baryonyx" wird oft durch allopatrische Artbildung erklärt. Zur Zeit der Unterkreide waren der damalige Nordkontinent Laurasia (Europa, Asien, Nordamerika) und der Südkontinent Gondwana (Afrika, Südamerika, Indien, Australien, Antarktis) durch den Tethys-Ozean getrennt. Es scheint sicher, dass sich die Baryonychinae und ihr ältester bekannter Vertreter "Baryonyx" in Europa entwickelten. Basale (urtümliche) Spinosauriden aus Afrika wanderten somit vor der Trennung der beiden Kontinente nach Europa aus und entwickelten sich aufgrund geographischer Isolation zur Baryonychinae. Dies wird gestützt durch Funde von baryonychinen Zähnen aus dem Hauterivium von Spanien und England, welche älter sind als alle afrikanischen Überreste von Baryonychinen. Die in Gondwana verbliebenen, basalen Spinosauriden entwickelten sich zur Spinosaurinae mit "Irritator" und "Spinosaurus". Der geologisch jüngere "Suchomimus" scheint aufgrund einiger Synapomorphien von "Baryonyx" abzustammen oder mit diesem einen gemeinsamen Vorfahr zu teilen, lebte jedoch in Gondwana. Man nimmt an, dass durch eine nicht näher definierte Begebenheit Vorfahren von "Suchomimus" nach Gondwana gelangten, oder dass die Iberische Halbinsel (Spanien & Portugal) eine Landbrücke durch die Tethys bildete. Aufgrund unzureichender Fossilbelege bleibt die Evolution der Spinosauridae unklar. In der Populärkultur. Lebendmodell von "Baryonyx" im British Museum of Natural History, London "Baryonyx" erregte nach seiner Entdeckung 1983 großes öffentliches Aufsehen; anfänglich wurde angenommen, die verlängerte Kralle sei eine normale Kralle des Fußes, und in einer Pressemitteilung wurde von einem gigantischen Tyrannosauriden ausgegangen. Erstmals an die Öffentlichkeit gelangte die Nachricht am 19. Juli 1983, und der Dinosaurier erhielt in der Folge Spitznamen wie „Claws“, „Big Claws“ oder „Superclaws“. Die Zeitung "The Guardian" etwa titelte mit "„Dinosaur find of the century“" („Dinosaurier-Fund des Jahrhunderts“), die sehr bekannte Zeitung "The Times" veröffentlichte am 20. Juli 1983 den Artikel "„Fossil-hunter unearths Surrey dinosaur“" („Fossilien-Jäger entdeckt Surrey-Dinosaurier“), am folgenden Tag erschien die Schlagzeile "„New chapter for Dinosaur“" („Neues Kapitel für Dinosaurier“). Auch später noch erschien "Baryonyx" in der britischen Presse: Am 27. November 1986 titelte "The Guardian" im Anschluss an die Erstbeschreibung „"Claypit dinosaur claws takes on plumber's name"“ („Dinosaurier erhält den Namen eines Klempners“, Anspielung auf das Art-Epitheton "walkeri" und den Beruf von William J. Walker). Ebenso ist "Baryonyx" ein populärer Dinosaurier in Ausstellungen; Skelettreplikate und Lebendrekonstruktionen sind in zahlreichen Museen und Dinosaurier-Parks zu finden. Bodensee. Unter der Bezeichnung Bodensee fasst man die drei Gewässer Obersee (den eigentlichen Bodensee), Untersee und Seerhein zusammen. Hydrologisch gesehen handelt es sich beim Bodensee um zwei Seen und einen sie verbindenden Fluss. Der See liegt im nördlichen Alpenvorland und wird vom Rhein durchflossen. An ihn grenzen Deutschland, Österreich und die Schweiz. Während im Untersee eine anerkannte Grenzziehung zwischen Deutschland und der Schweiz existiert, wurde von den Anrainerstaaten im Obersee nie eine einheitliche Grenze festgelegt. Der Artikel behandelt nicht nur die Gewässer an sich, sondern auch die umgebende Bodenseeregion, die sich je nach räumlicher Definition weit ins Hinterland erstreckt. Namensgeschichte. Nach dem Ende der letzten Eiszeit vor circa 10.000 Jahren waren Ober- und Untersee noch in einem See verbunden. Die Tiefenerosion des Hochrheins ließ den Seespiegel nach und nach absinken und die Konstanzer Schwelle hervortreten. Die beiden Seen trugen in der Antike noch unterschiedliche Namen, danach entwickelte sich aus unbekannten Gründen der gemeinsame Name. Der römische Geograph Pomponius Mela erwähnt als Erster um das Jahr 43 n. Chr. den Obersee als "Lacus Venetus" und den Untersee als "Lacus Acronius", die beide vom Rhein durchflossen werden. Der Naturforscher Plinius der Ältere bezeichnet den gesamten Bodensee um 75 n. Chr. erstmals als "Lacus Raetiae Brigantinus" nach dem damaligen römischen Hauptort am See, "Brigantium" (Bregenz). Dieser Name stammt von dem ursprünglich hier ansässigen keltischen Stamm der Brigantier. Bei Ammianus Marcellinus ist später die Form "Lacus Brigantiae" zu finden. Die heutige deutsche Bezeichnung „Bodensee“ leitet sich vom Ortsnamen Bodman ab, der auf althochdeutsch wohl ursprünglich "Bodamon" lautete. Er bedeutete "Auf den Böden", bezeichnete also einen Ort auf einer ebenen Fläche am See. Dieser am Westende des Überlinger Sees gelegene Ort war im frühen Mittelalter für eine gewisse Zeit als fränkische Königspfalz, alemannischer Herzogssitz und Münzstätte von überregionaler Bedeutung, weshalb der Name auf den See übertragen worden sein dürfte („See, an dem Bodman liegt“ = Bodman-See). In den lateinischen Schriftquellen ist der Name ab 833/834 n. Chr. in der latinisierten Form "lacus potamicus" bezeugt. Daher wurde der eigentlich von der Pfalz Bodman (latinisiert auch "Potamum") stammende Name von den klösterlichen Gelehrten wie Walahfrid Strabo fälschlich auf das griechische Wort "potamos" für „Fluss“ zurückgeführt und als "Fluss-See" gedeutet. Dabei mag auch der Gedanke an den Rhein, der den See durchfließt, eine Rolle gespielt haben. Wolfram von Eschenbach bezeichnet ihn auf mittelhochdeutsch als Bodemen- oder Bodemsee. was sich schließlich zum heutigen Namen "Bodensee" weiterentwickelt hat. Man vergleiche auch den Namen des Bodanrücks, des Höhenzugs zwischen Überlinger See und Untersee, und die Geschichte der Familie Bodman. Die deutsche Bezeichnung "Bodensee" wurde von zahlreichen anderen Sprachen übernommen, siehe z. B. nl. "Bodenmeer", dän. "Bodensøen", norw. "Bodensjøen", schw. "Bodensjön", isl. "Bodenvatn", finn. "Bodenjärvi", estn. "Bodeni järv", lit. "Bodeno ežeras", lett. "Bodenezers", russ. "Боденское озеро", poln. "Jezioro Bodeńskie", tschech. "Bodamské jezero", slowak. "Bodamské jazero", ung. "Bodeni-tó", bulg. "Боденско езеро", ukr. "Боденське озеро", kroat. "Bodensko jezero", alban. "Liqeni i Bodenit". Auch in vielen asiatischen Sprachen heißt der Bodensee so, z. B. aserbaidschan. "Boden gölü", tatarisch "Боден күле", marathi बोडन से "Bōdana sē", mandarin, kor. 보덴 호 "Boden-ho", jap. "Bōden-ko". Lage des Bodensees im Herzogtum Schwaben (gelb), 911–1268 Nach dem Konzil von Konstanz im 15. Jahrhundert verbreitete sich im (katholisch-) romanischen Sprachraum der alternative Name "Lacus Constantinus" – eine schon 1187 als "Lacus Constantiensis" bezeugte Form – mit Bezug auf die am Ausfluss des Rheins aus dem Obersee liegende Stadt Konstanz, die ihren Namen "(Constantia)" wiederum wohl dem römischen Kaiser Constantius Chlorus (um 300 n. Chr.) verdankt, also frz. "Lac de Constance", ital. "Lago di Costanza", port. "Lago de Constança", span. "Lago de Constanza", rumän. "Lacul Constanța", griech. "Λίμνη της Κωνσταντίας – Limni tis Konstantias". Auf französischen Einfluss gehen arab. بحيرة كونستانس "buħaira Konstans" und wohl auch türk. "Konstanz gölü" zurück. Auch im romanisch beeinflussten Englisch fasste der Name als "Lake Constance" Fuß und wurde seitdem von dort in weitere Sprachen exportiert, z. B. hebr. ימת קונסטנץ "yamat Konstanz", kiswahili "Ziwa la Konstanz". In manchen Sprachen existieren beide Formen nebeneinander: z. B. rätoromanisch "Lai da Constanza" neben "Lai Bodan", esperanto "Konstanca Lago" neben "Bodenlago". Die poetische Bezeichnung „Schwäbisches Meer“ haben Autoren der frühen Neuzeit und der Aufklärung von antiken Autoren, möglicherweise Tacitus übernommen. Allerdings lag dieser Übernahme ein Irrtum zu Grunde (ähnlich wie etwa auch beim Teutoburger Wald und dem Taunus): Die Römer hatten nämlich nicht den Bodensee, sondern die Ostsee manchmal als "Mare Suebicum" bezeichnet. In Zeiten, als die Römer die von ihnen so genannten „germanischen Sueben“ auch in der Nähe eines Meeres verortet hatten, war dies verständlich. Die Autoren der Frühneuzeit übersahen dies und übernahmen die Bezeichnung für den größten See mitten im ehemaligen Herzogtum Schwaben, zu dem unter anderem auch Teile der heutigen Schweiz gehörten. Eckdaten zur Geschichte. Aus der Altsteinzeit sind keine Funde in unmittelbarer Seenähe bekannt, da die Bodenseegegend lange Zeit vom Rheingletscher bedeckt war. Fundstellen von Steinwerkzeugen (Mikrolithen) belegen, dass Jäger und Sammler des Mesolithikums (Mittelsteinzeit, 8000–5500 v. Chr.) die Bodenseeregion aufgesucht haben, ohne dort jedoch zu siedeln. Nur Jagdlager sind nachgewiesen. Die frühesten neolithischen Bauern, die der Bandkeramik angehören, haben dort ebenfalls keine Spuren hinterlassen, denn das Alpenvorland lag abseits der Wege, auf denen sie sich im 6. vorchristlichen Jahrtausend ausgebreitet hatten. Dies änderte sich erst im mittleren und späten Neolithikum mit den Ufersiedlungen, den sogenannten Pfahlbauten und Feuchtbodensiedlungen, die sich nun hauptsächlich am Überlinger See, an der Konstanzer Bucht und am Obersee nachweisen lassen. Bei Unteruhldingen ist ein solches Pfahlbaudorf rekonstruiert worden und heute als Museum zugänglich. Vom Beginn der Frühbronzezeit sind Grabfunde aus Singen am Hohentwiel zu nennen. Uferrandsiedlungen wurden während der Jungsteinzeit und der Bronzezeit (bis 800 v. Chr.) mit Unterbrechungen immer wieder errichtet. In der nachfolgenden Eisenzeit brechen sie ab. Die Besiedlung der Bodenseeufer in der Hallstattzeit wird eher durch Grabhügel bezeugt, die heute meist unter Wald liegen, da sie dort vor der Zerstörung durch die Landwirtschaft geschützt waren. Seit der späten Hallstattzeit wird die Bevölkerung am Bodensee als Kelten bezeichnet. In der Latènezeit ab 450 v. Chr. nimmt die Fundstellendichte ab, was zum Teil daran liegt, dass keine Grabhügel mehr errichtet werden. An ihrem Ende sind erstmals schriftliche Nachrichten über den Bodenseeraum erhalten. So werden als Bodenseeanrainer die Helvetier im Süden, die Räter wohl im Bereich des Alpenrheintals und die Vindeliker im Nordosten genannt. Wichtigste Orte am See waren Bregenz (keltisch "Brigantion") und das heutige Konstanz. Im Verlauf des römischen Alpenfeldzugs 16/15 v. Chr. wurde das Bodenseegebiet ins Römische Reich eingegliedert. Dabei kam es auch zu einer Seeschlacht auf dem Bodensee. Der Geograph Pomponius Mela erwähnt als Erster um das Jahr 43 n. Chr. den Bodensee als "Lacus Venetus" (Obersee) und "Lacus Acronius" (Untersee), die beide vom Rhein durchflossen würden. Plinius der Ältere bezeichnet den Bodensee erstmals als "Lacus Brigantinus". Wichtigster römischer Ort wurde Bregenz, das bald römisches Stadtrecht bekam und später zum Sitz des Präfekten der Bodenseeflotte wurde. Die Römer waren auch in Lindau, besiedelten dort allerdings nur die Hügel rund um Lindau, da am Ufer Sumpfgebiet war. Weitere römische Städte waren Constantia (Konstanz) und Arbor Felix (Arbon). Nach dem Rückzug des Römischen Reiches auf die Rheingrenze im 3. Jahrhundert n. Chr. besiedelten allmählich Alemannen die Nordufer des Bodensees, später auch die Südufer. Nach deren Christianisierung wuchs die kulturelle Bedeutung der Region durch die Gründung der Abtei Reichenau und des Bischofssitzes Konstanz. Unter der Herrschaft der Staufer wurden am Bodensee Reichstage abgehalten. Außerdem kam es in Konstanz zum Friedensschluss zwischen dem Staufischen Kaiser und dem Lombardenbund. Eine wichtige Rolle kam dem Bodensee auch als Umschlagplatz für Waren im deutsch-italienischen Handel zu. Während des Dreißigjährigen Kriegs kam es beim Seekrieg auf dem Bodensee 1632–1648 zu diversen Auseinandersetzungen um die Vorherrschaft über das Bodenseegebiet. Nach den Koalitionskriegen (1798–1802), von denen die Bodenseeregion ebenfalls betroffen war, kam es zur Neuordnung der staatlichen Verhältnisse. Bodensee auf historischen Landkarten. Karte der Bodenseeregion von 1540 Gliederung. Der Bodensee liegt im Alpenvorland. Die Uferlänge beider Seen beträgt 273 km. Davon liegen 173 km in Deutschland (Baden-Württemberg 155 km, Bayern 18 km), 28 km in Österreich und 72 km in der Schweiz. Der Bodensee ist, wenn man Obersee und Untersee zusammenrechnet, mit 536 km² nach dem Plattensee (594 km²) und dem Genfersee (580 km²) flächenmäßig der drittgrößte, gemessen am Wasservolumen (48,5 km³) nach dem Genfersee (89 km³) der zweitgrößte See Mitteleuropas und erstreckt sich zwischen Bregenz und Stein am Rhein über 69,2 km. Sein Einzugsgebiet beträgt rund 11.500 km² und reicht im Süden bis nach Italien. Die Fläche des Obersees beträgt 473 km². Er erstreckt sich zwischen Bregenz und Bodman-Ludwigshafen über 63,3 km und ist zwischen Friedrichshafen und Romanshorn 14 km breit; an seiner tiefsten Stelle zwischen Fischbach und Uttwil misst er 251,14 m. Die drei kleinen Buchten des Vorarlberger Ufers haben Eigennamen: Vor Bregenz liegt die Bregenzer Bucht, vor Hard und Fußach die Fußacher Bucht und westlich davon der Wetterwinkel. Weiter westlich, bereits in der Schweiz, befindet sich die Rorschacher Bucht. Nördlich, auf bayerischer Seite, ist die Reutiner Bucht. Der Bahndamm vom Festland zur Insel Lindau und die Seebrücke für den Autoverkehr grenzen vom Bodensee den so genannten „Kleinen See“ ab, der zwischen dem Lindauer Ortsteil Aeschach und der Insel liegt. Der nordwestliche, fingerförmige Arm des Obersees heißt Überlinger See. Im allgemeinen Sprachgebrauch wird der Überlinger See als eigenständiger Seeteil betrachtet, die Grenze zwischen Obersee und Überlinger See verläuft in etwa entlang der Linie zwischen der Südostspitze des Bodanrücks (das zur Stadt Konstanz gehörende „Hörnle“) und Meersburg. Östlich vor Konstanz liegt der sogenannte Konstanzer Trichter zwischen dem deutschen und dem Schweizer Ufer. Obersee und Untersee sind durch den Seerhein miteinander verbunden. Der Untersee, der vom Obersee bzw. von dessen nordwestlichem Arm Überlinger See durch die große Halbinsel Bodanrück abgetrennt ist, weist eine Fläche von 63 km² auf. Er ist durch die Endmoränen verschiedener Gletscherzungen und Mittelmoränen geprägt und stark gegliedert. Diese Seeteile haben eigene Namen. Nördlich der Insel Reichenau befindet sich der Gnadensee. Westlich der Insel Reichenau, zwischen der Halbinsel Höri und der Halbinsel Mettnau befindet sich der Zeller See. Nördlich der Mettnau liegt der Markelfinger Winkel. Die Drumlins des südlichen Bodanrücks setzen sich am Grund dieser nördlichen Seeteile fort. Südlich der Reichenau erstreckt sich von Gottlieben bis Eschenz der Rheinsee mit seiner zum Teil ausgeprägten Rheinströmung. Früher wurde dieser Seeteil nach dem Ort Berlingen "Bernanger See" genannt. Auf den meisten Karten ist der Name des Rheinsees auch deshalb nicht aufgeführt, weil sich dieser Platz am besten für die Beschriftung des Untersees eignet. Entstehung und Zukunft. Das Becken des Bodensees wurde wesentlich während der Würm-Eiszeit durch den aus dem alpinen Rheintal austretenden Rheingletscher geformt, in dessen fluvioglazial erodiertem Zungenbecken der heutige Bodensee liegt. Dieser kann insofern als würmglazialer Zungenbeckensee oder Gletscherrandsee bezeichnet werden. Nach der Eiszeit bestand der Bodensee zuerst als "ein" See. Der Seerhein und die damit verbundene Trennung in zwei Seen entstand vor mehreren tausend Jahren durch die rheinische Erosion, die den Seespiegel absenkte und das heutige Seerheintal trockenlegte. Wie jeder glaziale See wird auch der Bodensee durch Sedimentation in geologisch naher Zukunft verlanden. Dieser Prozess lässt sich am besten an den Mündungen größerer Flüsse, vor allem der des Alpenrheins, beobachten. Die Verlandung wird beschleunigt durch die stets weitergehende rheinische Erosion und die damit verbundene Absenkung des Seespiegels. Zuflüsse. Die Mündung des Alpenrheins in den Bodensee Hauptzufluss des Obersees ist der Alpenrhein. Der Alpenrhein und der Seerhein vermischen sich nur bedingt mit den Seewässern und durchströmen die Seen in meist gleich bleibenden Bahnen. Daneben gibt es zahlreiche kleinere Zuflüsse (236). Die wichtigsten Nebenzuflüsse des Obersees sind (entgegen dem Uhrzeigersinn) Dornbirner Ach, Bregenzer Ach, Leiblach, Argen, Schussen, Rotach, Seefelder Aach, Stockacher Aach, Salmsacher Aach, Aach (bei Arbon), Steinach, Goldach und Alter Rhein. Abfluss des Obersees ist der Seerhein, der wiederum Hauptzufluss des Untersees ist. Wichtigster Nebenzufluss des Untersees ist die Radolfzeller Aach. Da der Alpenrhein Geschiebe aus den Bergen mitbringt und dieses Material dort sedimentiert, wird die Bregenzer Bucht in einigen Jahrhunderten verlanden. Für die Verlandung des gesamten Bodensees schätzt man einen Zeitraum von zehn- bis zwanzigtausend Jahren. Abflüsse, Verdunstung, Wasserentnahme. Abfluss des Untersees ist der Hochrhein mit dem Rheinfall von Schaffhausen. Sowohl die Niederschlagsmenge von durchschnittlich 0,45 km³/a als auch die Verdunstung von durchschnittlich 0,29 km³/a verändern netto den Pegel des Bodensees wenig, verglichen mit dem Einfluss der Zu- und Abflüsse. Weitere Seewassermengen werden durch die städtischen Wasserwerke rund um den See und die Bodensee-Wasserversorgung entnommen, siehe Abschnitt Trinkwassergewinnung. Inseln. Im Bodensee liegen zehn Inseln größer als 2000 m². Die mit Abstand größte Insel ist die Reichenau, die zur Gemeinde Reichenau gehört. Das ehemalige Kloster Reichenau zählt, auch aufgrund dreier früh- und hochmittelalterlicher Kirchen, zum Welterbe der UNESCO. Die Insel ist auch durch intensiv betriebenen Anbau von Obst und Gemüse bekannt. Die Insel Lindau ganz im Osten des Obersees ist die zweitgrößte Insel. Auf ihr befindet sich sowohl die Altstadt als auch der Hauptbahnhof der Stadt Lindau. Die drittgrößte Insel ist die Mainau im Südosten des Überlinger Sees. Die Eigentümer, die Familie Bernadotte, haben die Insel als touristisches Ausflugsziel eingerichtet und dafür botanische Anlagen und Tiergehege geschaffen. Relativ groß aber unbesiedelt und (als Naturschutzgebiet) unzugänglich sind zwei Inseln vor dem Wollmatinger Ried: (Triboldingerbohl mit 13 ha und Mittler oder Langbohl mit 3 ha). Halbinseln. In den Bodensee ragen einige Halbinseln unterschiedlicher Größe. Ufer. Das Ufer des Bodensees besteht überwiegend aus Kies. An einigen Stellen findet man aber auch echten Sandstrand, so am Rohrspitz im österreichischen Abschnitt des Sees, am DLRG-Strand in Langenargen und bei der Marienschlucht. Nach den Angaben der Internationale Gewässerschutzkommission für den Bodensee beträgt die grobe Uferlänge 273 km. Dieser Wert steigt beliebig mit der Verringerung des Abstandes zwischen den zur Approximation der Uferlinie verwendeten Punkten (siehe Messung von Küstenlängen). Vor allem durch Regen und die Schneeschmelze in den Alpen verändert sich der Wasserzufluss ständig. Die Oberfläche liegt im Mittel circa (in der Schweiz erfolgt die absolute Angabe geringfügig höher in [m ü. M.]). Die mehr oder minder regelmäßigen saisonalen Schwankungen des Wasserpegels führen außerdem zu geringfügig unterschiedlich langen Ufern und zu unterschiedlich belebten Uferzonen (je nach Hoch- und Niedrigwasser). Der Artikel Uferlinie des Bodensees nennt Orte, Ortsteile, Ansiedlungen, Gebäude, Landmarken, Gewässereinmündungen etc. entlang der gesamten Uferlinie des Sees. Klima der Region. Wellengang bei Föhn-Wind am See Zugefrorene Wasserfläche, Schlittschuhlauf im "Markelfinger Winkel" Das Bodenseeklima ist durch milde Temperaturen mit gemäßigten Verläufen (durch die ausgleichende und verzögernde Wirkung des Wasservolumens) gekennzeichnet. Es gilt allerdings – aufgrund des ganzjährigen Föhneinflusses, häufigen Nebels im Winterhalbjahr und auftretender Schwüle im Sommer – als Belastungsklima. Der Bodensee gilt bei Wassersportlern aufgrund der Gefahr starker Sturmböen bei plötzlichen Wetterwechseln als nicht ungefährliches und anspruchsvolles Binnenrevier. Gefährlichster Wind ist der Föhn, ein warmer Fallwind aus den Alpen, der sich insbesondere durch das Rheintal auf das Wasser ausbreitet und bei teils orkanartigen Windstärken typische Wellenberge mit mehreren Metern Höhe vor sich hertreiben kann. Ähnlich gefährlich sind die für Ortsunkundige u. U. völlig überraschend auftretenden Sturmböen bei Sommergewittern. Sie fordern immer wieder Opfer unter den Wassersportlern. Bei einem Sturm im Juli 2006 während eines Gewitters wurde eine Wellenhöhe von bis zu 3,50 Metern erreicht. Der Bodensee ist für Sturmwarnungen in drei Warnregionen (West, Mitte, Ost) aufgeteilt. Für jede Region kann eine "Starkwind"- oder "Sturm"warnung ausgegeben werden. Eine Starkwindwarnung erfolgt bei erwarteten Windböen zwischen 25 und 33 Knoten beziehungsweise 6 bis 8 Windstärken nach der Beaufortskala. Eine Sturmwarnung kündigt die Gefahr von Sturmwinden mit Geschwindigkeiten ab 34 Knoten beziehungsweise 8 Windstärken nach der Beaufortskala an. Um diese Warnungen bekannt zu machen, sind rund um den See orangefarbige Blinkscheinwerfer installiert, die bei Starkwindwarnung mit einer Frequenz von 40 Mal pro Minute, bei Sturmwarnung 90 Mal pro Minute blinken. Dabei kann es wegen unterschiedlich geregelter Zuständigkeiten und Einschätzungen durchaus vorkommen, dass am Schweizer Ufer des Obersees schon Sturmwarnung einsetzt, am deutschen oder österreichischen Ufer aber noch nicht (und umgekehrt). Die Bodenseeschiffe und die Fähren signalisieren eine Sturmwarnung durch einen am Masten hochgezogenen "Sturmballon". Ein Jahrhundertereignis ist die Seegfrörne des Bodensees, wenn Untersee, Überlinger See und Obersee komplett zugefroren sind, so dass man den See überall sicher zu Fuß überqueren kann. Die drei letzten so genannten Seegfrörne waren im Jahr 1963, 1880, 1830. Bestimmte Teile des Untersees frieren hauptsächlich aufgrund der geringen Wassertiefe und der geschützten Lage häufiger zu, wie z. B. der sogenannte "Markelfinger Winkel" zwischen der Gemeinde Markelfingen und der Halbinsel Mettnau. Pegelstände. Die Pegelstände werden unter anderem in Konstanz, Romanshorn und Bregenz ermittelt. Das Pegelhäuschen Konstanz befindet sich an der Hafenausfahrt direkt unterhalb der Statue der Imperia. Pegelstände bzw. Wasserstandsangaben sind Relativmaße und beziehen sich auf den jeweiligen Pegelnullpunkt. Der Romanshorner Pegel (Schweiz) gibt die Höhe des Wasserspiegels als Meter über Meer bezogen auf den Repère Pierre du Niton wieder, der Pegelnullpunkt in Bregenz (Österreich) liegt bei bezogen auf Molo Sartorio/Triest 1875 (+ 7 cm gegenüber der Schweiz) und der Konstanzer Pegel ist definiert auf (bezogen auf den Meeresspiegel Amsterdam, + 32 cm gegenüber der Schweiz). So zeigen die Pegel in Konstanz und Bregenz bei Mittelwasserstand jeweils 3,56 m, der Romanshorner Pegel 395,77 m an. Zur Umrechnung der Pegel gilt: "„Pegel Romanshorn“ minus 392,21 = „Pegel Konstanz/Bregenz“ in Metern". Die Tiefenangaben in den offiziellen Seekarten des Bodensees sind auf den Pegel Konstanz bezogen. Dessen Pegelnull ist. Die offizielle Hochwassermarke liegt bei einem Pegel von 4,80 Metern. Die Pegel sind starken witterungsbedingten (Winddrift) und jahreszeitlichen Schwankungen ausgesetzt. Der Bodensee hat keinen Damm und keine Schleuse am Abfluss, daher ist eine künstliche Regulierung des Wasserstands nicht möglich. Die Pegelstände weisen im Jahresverlauf typische saisonale Schwankungen auf. Das Mittelwasser erreicht im Januar ca. 3 Meter, steigt im Juni/Juli/August auf ca. 4,2 Meter und fällt zum Dezember hin auf ca. 3 Meter. Langfristig gesehen lag der durchschnittliche Wasserstand in der ersten Hälfte des 20. Jahrhunderts um 10 cm höher als in der zweiten Hälfte. Die Uferlinie des Bodensees bei Mittelwasserstand wurde zuletzt 2006 von der Internationalen Gewässerschutzkommission für den Bodensee festgelegt. Hochwasser. Stele in Lochau-Hörbranz zur Erinnerung an die Jahre mit Hochwasser des Bodensees. Die jahreszeitlich "höchsten Wasserstände" entstehen meist im Frühjahr/Sommer nach der Schneeschmelze über 3.000 m in den Alpen. Zusätzliche starke Regenfälle im Sommer im Einzugsgebiet des Alpenrheins (Schweiz), der Bregenzer Ach (Bregenzer Wald) und von Schussen und Argen (Oberschwaben) können den Wasserzufluss noch erhöhen und zu Hochwasser führen. Erste Warnungen werden von den Behörden ab einem Pegelstand von 4,50 m in Konstanz abgegeben. Bei 4,80 m Pegelstand ist die Hochwasservorwarnstufe erreicht, und es können kleinere Schäden vorkommen. Die kritische Grenze liegt bei Wasserständen ab 5 Meter. Die absolut höchsten Wasserstände am Pegel Konstanz wurden gemessen mit Das "Hochwasser vom 7. Juli 1817" ging zurück auf den Ausbruch des Tambora-Vulkans im Jahr 1815, der Asche und Schwefelteilchen in die Atmosphäre brachte. Dies führte im Jahr 1816 zu viel Regen und Schnee. Im Jahr 1817 schmolz der Schnee aus den Jahren 1815 und 1816 und verursachte dieses außergewöhnliche Hochwasser des Bodensees. Eine schwarze Tafel an der Wand des Hauses Marktstätte 16 in Konstanz in Wadenhöhe erinnert an diese Flut. Beim "Hochwasser von 1890" trat das Wasser in Konstanz über das Hafenbecken hinaus und reichte bis zu den Güterabfertigungsgebäuden der Hafenstraße. Das "Hochwasser vom Mai/Juni 1999" war das stärkste der jüngeren Vergangenheit. Innerhalb eines Tages stieg der Pegel um bis zu 47 cm an. Durch Aufschwimmen wurde dabei der Landesteg von Hagnau zerstört. In Stein am Rhein wurden Holzstege für die Fußgänger in den ufernahen Straßen errichtet. Das Anlegen der Schiffe in Bregenz und Konstanz war erschwert. Durch die starken Zuflüsse aus den Alpen nach Unwettern werden Baumstämme und anderes Treibgut in den Bodensee geschwemmt, hauptsächlich durch Alpenrhein, Bregenzer Ach und Argen. Das Treibgut kann auf dem See teppichartige Ansammlungen bilden und lagert sich am Ufer an, so zwischen Lindau und Langenargen und besonders um Wasserburg und in der Bregenzer Bucht. Es kann die Bodenseeschifffahrt ernsthaft behindern. Treibgutteppiche gab es in den Jahren 1999 und 2005. Niedrigwasser. Beim "Niedrigwasser vom Februar 1858" fiel die Konstanzer Bucht nahezu trocken. Ein Fest wurde zu diesem Ereignis gefeiert. Auf dem trockenen Grund waren Buden aufgestellt. Beim "Jahrhundertniedrigwasser 1972" wurde auf einem hierbei auf den Namen "Freistaat Reichenau" getauften Inselchen ein Fest gefeiert und ein Granitstein gesetzt. Es handelt sich um eine nur bei starkem Niedrigwasser sichtbar werdende Kiesbank, den so genannten "Kaiserdamm" zwischen der Mettnau und der Reichenau, der zugleich die Grenze zwischen Untersee und Gnadensee bildet. Als Nebenwirkung extremen Niedrigwassers haben die Fische weniger Fläche zum Laichen und die Brutgebiete der Wasservögel werden knapp. Wissenschaftler versuchen, die möglichen Ursachen der tendenziell deutlich sinkenden Wasserstände neu zu bewerten: So stellen die Forscher seit 1999 eine Absenkung des durchschnittlichen Pegels um 80 Zentimeter fest. Als Ursachen hierfür werden der Klimawandel, aber auch (neue) Wasserkraft-Staubecken am Alpenrhein genannt. Allerdings muss hier in Betracht gezogen werden, dass 1999 ein Hochwasserjahr war, während im Winter 2005/06 der Wasserstand ungewöhnlich gering war. Somit sind diese 80 cm die Differenz der durchschnittlichen Pegelstände zweier Extremjahre und daher von eher geringer Aussagekraft. Wassertemperatur. Die mittlere Wassertemperatur beträgt im Juli 20 °C, im Oktober 15 °C – nach mehreren Hitzetagen kann sie aber auch bis über 25 °C ansteigen. Die Durchschnittstemperatur des Sees hat sich durch die Globale Erwärmung im Zeitraum 1990 bis 2014 verglichen mit dem Zeitraum 1962 bis 1989 um ca. 0,9 °C erwärmt, eine weitere Erwärmung um 2 bis 3 °C gilt als wahrscheinlich. Damit einher geht eine schlechtere Durchmischung des Wassers, wodurch tieferer Wasserschichten weniger Sauerstoff erhalten, sowie eine Veränderung der Artenzusammensetzung, mit einer Begünstigung nicht-heimischer Spezies. Eine 2015 erschienene Studie nennt verschiedene negative Folgen eines Temperaturanstieges in Seen. Demnach kann eine Zunahme der Gewässertemperaturen vermehrt Algenblüten auslösen, einen Anstieg der Methanemissionen auslösen, den Wasserspiegel absenken, was wiederum die Versorgungssicherheit mit Trinkwasser gefährden kann, bedeutende ökonomische Verluste bewirken sowie negative Auswirkungen auf das Ökosystem haben, die bis zu dessen vollständiger Zerstörung reichen können. Der Hochwassernachrichtendienst am Bayerischen Landesamt für Umwelt veröffentlicht im Internet eine stündlich aktualisierte Temperaturkurve. Tiefenbereiche. Die Tiefenbereiche des Bodensees sind von der Wasseroberfläche bis zum Seegrund in verschiedene Sektionen aufgeteilt. Vom Ufer aus gesehen sind dies der "Hang", bis ca. 3–5 Meter Tiefe, gebildet von der Erosion durch Wellenschlag. Im Winter, bei Tiefwasserstand, liegt dieser Bereich mehrheitlich trocken. Bis ca. 20 Meter folgt anschließend die "Wysse", abgeleitet von der Farbe "Weiß". Durch Wellengang aufgewirbelter Ton und Mergel gibt dem See in diesem Bereich eine weißliche Tönung. "Halde" wird die steil abfallende Moränenflanke genannt, die bis ca. 100 Meter folgt. Ab ca. 150 Meter wird der Seegrund "Schweb" genannt, die abfallenden Grundsektionen um 200 Meter nennt man "Tiefhalde" und der unterste Seegrund bei rund 250 Metern heißt "Tiefer Schweb". Das aktuell durchgeführte Projekt Tiefenschärfe will mit der hochauflösenden Vermessung des Bodensees ein detailgetreues 3D-Modell des Seebeckens erstellen. Erdkrümmung. Blick von Bregenz über den Obersee Aufgrund der Erdkrümmung verfügt der Bodensee in seiner Südost-Nordwest-Ausdehnung (65 km) über eine Aufwölbung der Oberfläche von rund 80 m. Aus menschlicher Perspektive ist es daher in Ufernähe auch bei bester Fernsicht nicht möglich, vom Westufer des Obersees aus (z. B. Konstanz) Objekte an seinem Ostufer (z. B. Bregenz; 46 km Luftlinie = 41 m Höhe der Aufwölbung) zu erblicken, die sich auf der Höhe des Ufers befinden. Territoriale Zugehörigkeit. Anrainerstaaten sind die Schweiz (Kantone Thurgau, St. Gallen und Schaffhausen), Österreich (Bundesland Vorarlberg) sowie Deutschland (Bundesländer Baden-Württemberg und Bayern). Seit 1972 kooperieren die an den See angrenzenden Länder und Kantone in den Gremien der Internationalen Bodensee Konferenz (IBK). Diese hat das Ziel, die Bodenseeregion als attraktiven Lebens-, Natur-, Kultur- und Wirtschaftsraum zu erhalten, zu fördern und die regionale Zusammengehörigkeit zu stärken. Der Konstanzer Trichter im Obersee, der Seerhein sowie der Untersee sind durch Grenzverträge zwischen Baden und der Schweiz (20. und 31. Oktober 1854 sowie 28. April 1878) und zwischen dem Deutschen Reich und der Schweiz (24. Juni 1879) klar aufgeteilt. Der Überlinger See zählt vollständig zum deutschen Hoheitsgebiet. Im westlichen Abschnitt des Obersees zwischen Konstanz und dem heutigen Kreuzlingen, vom Strand bis zum Konstanzer Trichter, gibt es seit dem 16. Jahrhundert eine komplizierte Grenzziehung, die mit der Übereinkunft von 1878 fixiert wurde. Der Rest des Obersees bleibt vorläufig die einzige Gegend in Europa, in der zwischen den Nachbarstaaten nie Grenzen festgelegt wurden. Hier gibt es unterschiedliche Rechtsauffassungen, die alle auf Gewohnheitsrecht zurückgeführt werden. Die auf Karten oft zu sehende Grenzziehung in Seemitte beruht auf der so genannten "Realteilungstheorie", nach der 32 % der Seefläche auf die Schweiz und 9,7 % auf Österreich entfallen. Die andere gängige Auffassung ist die "Haldentheorie", nach der das Gebiet des Obersees außerhalb des Uferstreifens als Kondominium gemeinschaftliches Hoheitsgebiet aller Anrainer ist. Klar und unstrittig war und ist, dass auch in einem Bereich in unmittelbarer Ufernähe der entsprechende Staat Hoheitsrechte ausüben kann. Bei kleineren Gewässern ergibt sich daraus zwangsläufig die Realteilung mit einer Grenzziehung in Gewässermitte, was allgemein auch für größere Gewässer praktiziert wird. Herbststimmung vor Lindau (Blickrichtung Schweizer Ufer) Für den Bodensee werden die einzelstaatlichen Rechtsvorschriften der Anrainerstaaten faktisch bereits seit den 1890er Jahren eng abgestimmt und in der Regel wortgleich erlassen. Darüber hinaus wird durch internationale Bevollmächtigtenkonferenzen und internationale Kommissionen eine einheitliche Anwendung und ggf. auch Fortschreibung sichergestellt. Dies betrifft je nach Gegenstand der Regelungen zum Teil auch die Länder bzw. Kantone. Nach der im Wesentlichen von der Schweiz getragenen Auffassung der "Realteilungstheorie" widerspricht eine solche Abstimmungspraxis nicht der allgemein üblichen gewohnheitsrechtlichen Realteilung. Andererseits lässt sich aus dieser Praxis auch die insbesondere von Österreich vertretene Auffassung gewohnheitsrechtlich ableiten, dass die Wasserfläche des Obersees mit Ausnahme des Bereiches von weniger als 25 m Tiefe, in diesem Zusammenhang als "Hoher See" bezeichnet, als Kondominium gemeinschaftlich verwaltetes Hoheitsgebiet aller drei Staaten ist. Diese Auffassung wird wegen ihrer Beschränkung auf die Seefläche innerhalb des als Halde bezeichneten Tiefenbereiches als "Haldentheorie" bezeichnet. Sie gilt insofern als Erweiterung der so genannten Kondominiumstheorie ohne die exakte Definition des Uferstreifens. Insgesamt scheint die Haldentheorie gegenüber der Realteilungstheorie langsam an Boden zu gewinnen. So hat das Land Vorarlberg 1984 bei einer Neufassung seiner Verfassung den Hohen See in Artikel 2 explizit als Bestandteil des Landesgebietes festgeschrieben, ergänzt durch die Einschränkung "„im Gebiet des Hohen Sees ist die Ausübung von Hoheitsrechten des Landes durch ebensolche Rechte der anderen Uferstaaten beschränkt“". Dies wird von Vorarlberger Seite lediglich als „Klarstellung“ aufgefasst, und offenbar wurde dieser Verfassungsänderung von den anderen Beteiligten nicht widersprochen. Ebenfalls gehen die deutschen Länder von der hier ohne genauere Unterscheidung auch als "Kondominiumstheorie" bezeichneten Haldentheorie aus. Die Rechtsprechung ist allerdings uneinheitlich, auch deswegen, weil eine Entscheidung zwischen den Theorien in der Praxis wegen der engen Abstimmung der Anrainer nur sehr selten notwendig wird. Flora. Bis ins 19. Jahrhundert hinein galt der Bodensee als naturbelassenes Gewässer. Seitdem wurde die Natur stark durch Rodungen und die Bebauung zahlreicher Uferteile beeinflusst. Dennoch sind einige naturnahe Bereiche vor allem in den Naturschutzgebieten erhalten geblieben oder wurden renaturiert. Daher weist die Bodenseeregion einige Besonderheiten auf. Dazu zählen die große Waldlandschaft am Bodanrück, das Vorkommen des Lungen-Enzians und der Knabenkraut-Arten aus den Gattungen "Dactylorhiza" und "Orchis" im Wollmatinger Ried sowie das der Sibirischen Schwertlilie "(Iris sibirica)" im Eriskircher Ried, das daher seinen Namen erhalten hat. Vögel. Der Bodensee ist mit seinen Naturschutzgebieten, wie dem Wollmatinger Ried oder der Halbinsel Mettnau, auch die Heimat vieler Vogelarten. 412 Arten sind bislang nachgewiesen. Singvögel. Die zehn häufigsten Brutvogelarten am Bodensee sind nach einer Erhebung in den Jahren 2000 bis 2003 in absteigender Reihenfolge: Amsel, Buchfink, Haussperling, Kohlmeise, Mönchsgrasmücke, Star, Rotkehlchen, Zilpzalp, Grünfink und Blaumeise. Wasservögel. Blässhuhn in Hard am Bodensee Im Frühjahr ist der Bodensee ein bedeutendes Brutgebiet, vor allem für Blässhuhn und Haubentaucher. Aufgrund der stark schwankenden Wasserstände bevorzugen manche Arten jedoch andere Brutgebiete. Als typische Wasservögel werden Löffelente, Schellente, Gänsesäger, Tafelente, Graureiher, Spießente, Reiherente und Stockente genannt. Überwinterung. Der Bodensee ist ein wichtiges Überwinterungsgebiet für rund 250.000 Vögel jährlich. Vogelarten wie der Alpenstrandläufer, der Große Brachvogel und der Kiebitz überwintern am Bodensee. Mitte Dezember 2014 hielten sich am See 56.798 Reiherenten, 51.713 Blässhühner, 43.938 Tafelenten auf. Im November/Dezember sind etwa 10.000 bis 15.000 Kolbenenten und 10.000 Haubentaucher am Bodensee. Rast der Zugvögel. Auf dem Zug im Spätherbst finden sich auf dem See auch zahlreiche Seetaucher ein (Pracht- und Sterntaucher, einzelne Eistaucher). Dem Bodensee kommt auch als Rastgebiet während des Vogelzuges eine große Bedeutung zu. Der Vogelzug verläuft dabei oft unauffällig und ist am ehesten bei besonderen Wetterlagen als sichtbarer Tagzug erkennbar. Erst bei länger anhaltenden, großräumigen Tiefdrucklagen kommt es nicht selten zu einem Stau mit großen Ansammlungen von Zugvögeln. Dies lässt sich im Herbst oft gut am Eriskircher Ried am nördlichen Bodensee beobachten. Hier stößt der Breitfrontzug direkt an den See und Vögel versuchen dann dem Ufer entlang Richtung Nordwest zu ziehen. Die Bedeutung des Bodensees als wichtiges Rast- und Überwinterungsgebiet wird unterstrichen durch das "Max-Planck-Institut für Ornithologie – Vogelwarte Radolfzell", das als Beringungszentrale für die deutschen Bundesländer Bayern, Baden-Württemberg, Berlin, Rheinland-Pfalz und das Saarland sowie für Österreich zuständig ist und den Vogelzug erforscht. Diskussion um die Kormorane. Im Dezember 2014 wurden 1.389 Kormorane gezählt. Der Internationale Bodensee-Fischereiverband (IBF) schätzt den Nahrungsbedarf der Kormorane am Bodensee auf jährlich 150 Tonnen Fische. Fische. Der Bodenseefelchen ("Coregonus wartmanni"), der aufgrund seines großen Vorkommens im Bodensee nach diesem benannt wurde, wird oft ganz oder als Filet (nach Müllerin Art) in den Fischlokalen rund um den Bodensee ähnlich wie die sonst bekannten Forellen zubereitet. Oft wird er auch geräuchert angeboten. Die ehemals im Bodensee endemischen Fischarten Bodensee-Kilch ("Coregonus gutturosus") und Bodensee-Tiefensaibling ("Salvelinus profundus") gelten als verschollen. Neozoen. Seit Jahren siedeln sich Neozoen im Ökosystem Bodensee an und gefährden oder verdrängen zum Teil einheimische Arten. Neozoen sind neue Tiere bzw. fremde Arten, die sich in einem neuen Umfeld behaupten und vermehren. Im Bodensee werden die Neozoen seit 1955 und von Jahr zu Jahr mit mehr Arten nachgewiesen. Einige werden als blinde Passagiere an der Außenhaut von Booten aus anderen Gewässern eingeschleppt. Andere haben sich seit Eröffnung des Main-Donau-Kanals aus dem Schwarzen Meer oder aus der Donau vorgearbeitet. Weitere wurden ausgesetzt. Bekanntere Neozoen. Auch die Regenbogenforelle ("Oncorhynchus mykiss") zählt zu dieser nicht heimischen Fauna. Sie wurde um 1880 zur Bereicherung der heimischen Fauna und aus wirtschaftlichen Überlegungen im Bodensee eingesetzt. Zu den gebietsfremden Tierarten zählen die Dreikantmuschel ("Dreissena polymorpha"), die ausgehend vom Schwarzmeergebiet, seit Ende des 18. Jahrhunderts fast ganz Europa erobert und zwischen 1960 und 1965 in den Bodensee eingeschleppt wurden. Nach einer Massenvermehrung während der 1980er Jahre im Rhein und zuvor in größeren Seen ist die Art heute wieder im Rückgang begriffen. Probleme traten durch die Dreikant- oder Wandermuschel unter anderem dadurch auf, dass der Besatz Wasserentnahmerohre verstopfte. Außerdem kann die Art den heimischen Großmuscheln zum Verhängnis werden, weil sie in Nahrungskonkurrenz tritt. Heute ist laut Aussage des Instituts für Seenforschung (ISF) die Dreikantmuschel aber auch eine wichtige Nahrungsbasis für überwinternde Wasservögel. Tatsächlich hat die Anzahl der Überwinterer sich in rund 30 Jahren mehr als verdoppelt. Der Große Höckerflohkrebs ("Dikerogammarus villosus") breitete sich seit 2002 ausgehend von zwei Uferabschnitten bei Hagnau und Immenstaad, über das Ufer des Überlinger Sees (2004), die des ganzen Obersees (2006) auf beinahe das ganze Bodensee- und Rheinseeufer (2007) aus. Als „Killer shrimp“ eilt ihm der schlechte Ruf eines gefräßigen Räubers von Fischlarven und Fischeiern voraus. Jüngstes Beispiel ist die nur sechs bis elf Millimeter kleine Schwebegarnele ("Limnomysis benedeni"), die 2006 im vorarlbergischen Hard aufgefunden wurde und heute fast im ganzen Bodensee zu finden ist. Sie stammt aus den Gewässern rund um das Schwarze Meer. Sie ist vermutlich zunächst von Schiffen donauaufwärts transportiert worden, bevor sie sich im Rheinsystem verbreiten konnte und in den Bodensee gelangte. Die Schwebegarnelen, die im Winter an manchen Stellen in Schwärmen von mehreren Millionen Tieren auftreten, sind schon jetzt ein einflussreiches Glied der Nahrungskette im Bodensee. Sie verzehren abgestorbenes Tier- und Pflanzenmaterial sowie Phytoplankton, werden aber auch selbst von Fischen gefressen. Heute findet sich im westlichen Bodensee vor allem der aus Nordamerika stammende Kamberkrebs ("Orconectes limosus"), der Mitte des 19. Jahrhunderts zur Ertragssteigerung in europäische Gewässer eingesetzt wurde, vereinzelt die Chinesische Wollhandkrabbe ("Eriocheir sinensis") und in den Zuflüssen des Sees den Signalkrebs ("Pacifastacus leniusulus"). Da diese Großkrebsarten zwar selbst gegen die Krebspest immun sind, den Erreger aber weiterverbreiten, geht von ihnen eine große Gefahr für die heimischen Arten wie Edelkrebs, Dohlenkrebs oder Steinkrebs aus. Die Tiere sind oft anspruchslos, vermehren sich schnell und leben räuberisch, so dass sie auch für verschiedene Kleinfischarten eine Bedrohung darstellen. Im ISF wird seit 2003 systematisch zum Thema geforscht. Naturschutzgebiete. Der Konstanzer Landrat Ludwig Seiterich setzte sich stark für den Naturschutz ein, die Landschaftsschutzgebiete Bodanrück und Höri sind sein Verdienst, er war auch wesentlich an der Ausweisung des Naturschutzgebietes Bodenseeufer beteiligt. Obersee. Das größte Naturschutzgebiet des Bodensees ist das Rheindelta, das sich entlang des Bodenseeufers zwischen der Mündung des alten Rheinlaufes bis zur Dornbirner Ach bei Hard erstreckt. Seit ihm ab 1982 internationale Bedeutung zukommt, wurden dort 340 Vogelarten beobachtet. Auf der Schweizer Seite des Alten Rheins liegt das "Naturschutzgebiet Altenrhein". Am Bodensee gibt es viele weitere Naturschutzgebiete, die hier vom Rheindelta an gegen den Uhrzeigersinn (entsprechend der Fließrichtung des Rheines durch den Bodensee) zum Teil aufgelistet werden. Das "Naturschutzgebiet Wasserburger Bucht" zwischen Nonnenhorn und Wasserburg hat einen dichten Schilfgürtel bewahrt. Das Gebiet des Flusses Argen zwischen Zusammenfluss von Oberer und Unterer Argen und der Mündung in den Bodensee. Das "Eriskircher Ried", das seit 1939 geschützt ist, ist das größte Naturschutzgebiet am Nordufer und liegt zwischen Rotachmündung bei Friedrichshafen und Schussenmündung bei Eriskirch. Eine besondere Bedeutung hat das Gebiet für den Haubentaucher, der dort bevorzugt nistet, und die Singschwäne. Auch die vorgelagerte Flachwasserzone ist seit 1983 unter Schutz gestellt. Zwischen Fischbach und Immenstaad liegt am (ehemalig badischen) Grenzbach ein sehr kleines Naturschutzgebiet. Überlinger See. Die "Seefelder Aachmündung" bei Unteruhldingen zwischen Unteruhldingen (Pfahlbauten) und Seefelden. Die vier großen Naturschutzgebiete in Baden-Württemberg tragen Bezeichnungen, die sich aus dem Wort Naturschutzgebiet Bodenseeufer und der näheren lokalen Bezeichnung des Naturschutzgebietes zusammensetzen. Die erläuternden Zusatzbezeichnungen in Klammern sind: (Bodman-Ludwigshafen), (Untere Güll), (Konstanz), (Markelfingen). Das "Naturschutzgebiet Aachried" um die Stockacher Aachmündung zwischen Bodman und Ludwigshafen, das auch "Naturschutzgebiet Bodenseeufer (Bodman-Ludwigshafen)" genannt wird, ist etwas kleiner und daher auch weniger beachtet. Bedeutung kommt ihm jedoch als Überwinterungsplatz für Eisvogel, Regenpfeiferartige, besonders für die Samtente und den Ohrentaucher, zu. Im Mündungsgebiet und Flachwasser brüten mehr als 50 Vogelarten. Zum Naturschutzgebiet Bodenseeufer (Konstanz) gehören auch am Südufer des Überlinger Sees die Partien zwischen Wallhausen und Dingelsdorf sowie Dingelsdorf und Litzelstetten. Dann folgt das Naturschutzgebiet Bodenseeufer (Obere und Untere Güll) zwischen Litzelstetten, der Insel Mainau und Egg. Untersee. Das Wollmatinger Ried bei Konstanz ist seit 1973 Europareservat und seit 1976 "Feuchtgebiet von internationaler Bedeutung". Durch seine Lage am Seerhein ist es eine wichtige Brutzone und darf daher teilweise nur bei Führungen betreten werden. Naturbelassene Gebiete am Schweizer Ufer des Untersees befinden sich zwischen Konstanz und Gottlieben, weiter das Naturschutzgebiet „Espenriet“ zwischen Gottlieben und Ermatingen sowie das „Wasser- und Zugvogelreservat Untersee und Rhein“ oberhalb der Rheinbrücke in Stein am Rhein. Zum Naturschutzgebiet Bodenseeufer (Konstanz) gehören auch die Naturschutzgebiete des Untersees bei Horn (Hornspitze) sowie um Gaienhofen, Wangen, Öhningen. Zeller See. Der Halbinsel Mettnau mit dem Naturschutzgebiet Mettnau sowie dem Mündungsgebiet der Radolfzeller Aach am Zeller See kommt als Brutzone für Enten regionale Bedeutung zu. Der große Ententeich der Mettnau entstand zufällig bei Aufschüttungsarbeiten. An der Mündung befindet sich ein Schlafplatz für Bergpieper. Gnadensee. Der Streifen zwischen Bahntrasse und Autostraße zwischen Radolfzell, Markelfingen und Allensbach hat den Charakter eines Naturschutzgebietes. Wracks auf dem Bodenseegrund. Nach einer Kollision mit der "Stadt Zürich" liegt das Wrack der "Jura" seit 1864 in 45 Meter Tiefe vor dem schweizerischen Ufer. Im Obersee wurden Anfang des 20. Jahrhunderts vier Schiffe nach ihrer Außerdienststellung versenkt: im Jahr 1931 die "Baden", vormals "Kaiser Wilhelm", 1932 die "Helvetia", 1933 die "Säntis" und 1934 die "Stadt Radolfzell". Der Rumpf der ausgebrannten "Friedrichshafen" wurde 1944 vor der Argen-Mündung in 100 bis 150 Meter Seetiefe versenkt. Wasserqualität. Heute hat der Bodensee eine sehr gute Wasserqualität. Nach dem Zweiten Weltkrieg war eine zunehmende Verunreinigung des Bodensees festzustellen, die ab 1959 zu konkreten Maßnahmen führte. Die Internationale Gewässerschutzkommission für den Bodensee (IGKB) stellte 1963 den Phosphateintrag als Hauptursache einer bereits erkennbaren Eutrophierung fest. Ursachen des Phosphateintrags waren Düngemittelausschwemmungen und kommunale Abwässer, die durch Fäkalien und in zunehmendem Maße durch Phosphate aus Waschmitteln belastet waren. Die dabei relevante Fläche ist das gesamte 11.000 km² große hydrologische Einzugsgebiet des Bodensees. Besonders in den 1970er Jahren wurden hier in großem Umfang Kläranlagen errichtet, die Phosphatreinigungsleistung der vorhandenen Anlagen wurde verbessert. 1975 wurden in Deutschland Höchstmengen für Phosphate durch das Wasch- und Reinigungsmittelgesetz verordnet, 1986 brachte die Waschmittelindustrie durch den Einsatz von Zeolithen vollständig phosphatfreie Waschmittel auf den Markt. Die Einträge aus der Landwirtschaft lassen sich nur durch eine Extensivierung im Einzugsgebiet langfristig verringern, entsprechende gesetzliche und Förder-Maßnahmen wurden umgesetzt. Trotz dieser Maßnahmen erreichte die Phosphorkonzentration im Bodensee um 1980 das Zehnfache des natürlichen Wertes. In den frühen 1980er Jahren wurden in Grundnähe zeitweise gefährlich niedrige Sauerstoffkonzentrationen gemessen (eine vollständige Sauerstofffreiheit des Seegrundes führt zum Umkippen eines Sees). Seit 1979 ging die Phosphorkonzentration wieder zurück und hat mittlerweile fast wieder den natürlichen Wert erreicht. Die nicht ganz so bedeutsame Nitratkonzentration liegt nach einem kontinuierlichen Anstieg bis 1985 seither konstant bei ca. 4,4 g/m³. Durch die bessere Wasserqualität wird der See wieder zu einem nährstoffarmen Voralpensee, der er ursprünglich einmal war. Dies hat allerdings auch negative Auswirkungen auf die Fischerei: Die Fische werden aufgrund der nun herrschenden Nährstoffarmut nicht mehr so groß wie früher, was geringere Erträge bedeutet. Dafür sind die bestehenden Fischpopulationen jedoch stabiler. Ein Indiz für die Gesundung des biologischen Gleichgewichts im See stellt das Wiedererstarken der Seeforelle dar, deren Bestände sich seit der Verbesserung der Wasserqualität merklich erhöht haben. Wirtschaft der Region. Von Bedeutung für das wirtschaftliche Gefüge der Anrainer sind heutzutage vor allem die Funktionen des Bodensees als Transportweg, als Erholungsgebiet und als Trinkwasserspeicher. Im Bereich des Primärsektors spielt vor allem der Weinbau eine gewisse Rolle. Die Fischerei hingegen hat ihre führende Rolle verloren. Die größten Industriestandorte sind Friedrichshafen (Metallverarbeitung) und Bregenz (Textilindustrie). Wichtigste Dienstleistungsstandorte sind Konstanz, Bregenz, Friedrichshafen und Lindau. Obst- und Weinbau. Durch die Wassermenge des Bodensees wird das regionale Klima ausgleichend beeinflusst (siehe Artikel Bodenseeklima). 2011 gab es rund um den See etwa 1600 Obstbaubetriebe. Die "Marktgemeinschaft Bodenseeobst" erwartete für die Saison dieses Jahres eine Ernte von insgesamt 280.000 Tonnen Äpfel. Bei einer bundesweiten Produktion von rund 900.000 Tonnen, bedeutet dies, dass fast jeder dritte deutsche Apfel vom Bodensee stammt. „Obst vom Bodensee“ ist dabei nicht nur eine regionale Warenbezeichnung, sondern auch der Name eines Unternehmens, dessen genossenschaftlich oder in Vereinen organisierte Gesellschafter rund 8000 Hektar Anbaufläche bewirtschaften. Neben dem Kulturapfel spielt der Weinbau eine wichtige Rolle in der "Obstregion Bodensee": Es können Weine der Rebsorten Spätburgunder, Müller-Thurgau und Weißburgunder angebaut werden. Aufgrund der regionalen politischen Grenzen gehören diese Weine gleicher Sorten jedoch zu verschiedenen Weinbaugebieten; ihre Ähnlichkeiten innerhalb der Region sind jedoch größer als jene mit den Eigenschaften der Weine aus den teils weit entfernten Stamm-Anbaugebieten. Die Region weist das höchstgelegene deutsche Weinbaugebiet mit Lagen in einer Höhe von 400 bis 560 m ü. NN auf. Namentlich bezeichnete Weinbaugebiete um den Bodensee sind der Bereich "Bodensee" des "Weinbaugebiets Baden", die Bereiche "Württembergischer Bodensee" und "Bayerischer Bodensee" des "Weinbaugebiets Württemberg", die Regionen "Rheintal" (im Kanton St. Gallen) und "Untersee" (im Thurgau) im Weinbaugebiet "Ostschweiz" sowie für einzelne Betriebe in Vorarlberg die kleinste österreichische Weinbauregion "Bergland Österreich". Internationaler Bodensee-Fischereiverband. Im Internationalen Bodensee-Fischereiverband (IBF) sind Berufsfischer und -fischerinnen aus Deutschland, Schweiz und Österreich zusammengeschlossen. Der Umsatz der rund 150 Berufsfischer am Bodensee, davon rund 100 in Baden-Württemberg und 16 in Vorarlberg, dürfte damit in der Größenordnung von 3 Mio. Euro liegen. Die Zahl der Fischer-Patente ist rückläufig: In den 1990er-Jahren waren es 175 Fischer-Patente, in den 2010er-Jahren 116 Fischer-Patente. Fischarten. Hauptarten sind der Blaufelchen mit 57 %, andere Felchen (Gangfische und Sandfelchen) mit 19 % und der Flussbarsch (regional Kretzer oder Egli) mit 17 %. Dazu kommen 4 % Weißfische wie Brachse und 3 % sonstige wie Seeforelle, Aal, Hecht und Seesaibling. Fischertrag. Die Bedeutung der Bodenseefischerei ist mittlerweile relativ gering, obwohl die Fangerträge sich seit Mitte der 1950er-Jahre im langjährigen Mittel kaum verändert haben. So wurden im Fünfjahreszeitraum 1996–2000 durchschnittlich 1.130 t Fisch pro Jahr gefangen. Dieser Fang deckt bei 1,5 kg Jahresverzehr pro Person den Süßwasserfischbedarf von ca. 750.000 Menschen. Der Fischfang im Jahr 2015 war der schlechteste seit 1954. Das schlechte Fangergebnis wird zurückgeführt auf die Kombination von niedrigem Nährstoffgehalt des Wassers, hohe Wassertemperaturen, Kieselalgenblüte und die Invasion der Stichlinge. Bodenseefischereiverordnung. Die Fischerei im Bodensee ist seit 1893 einheitlich geregelt durch ein Abkommen zwischen den Anliegerstaaten (auf deutscher Seite die Bundesländer). Die entsprechenden Verordnungen schreiben Schonzeiten und Mindestgrößen für gefangene Fische vor und spezifizieren zugelassene Fanggeräte z. B. durch Maschenweiten, Netzgrößen und -anzahl usw. Darüber hinaus existiert eine Internationale Bevollmächtigtenkonferenz, die für eine einheitliche Anwendung sowie die Fortschreibung der Regelungen sorgt. Fischschutz. Besatzfische u. a. für den Bodensee und seine Zuflüsse werden von den Anliegerländern und -kantonen in den Fischbrutanstalten Langenargen und Nonnenhorn, im Landesfischereizentrum Hard und der Fischzuchtanlage Rorschach gezüchtet. Zu diesem Zweck wird Laichfischfang betrieben. Die Eutrophierung des Bodensees in den 1960er- bis 1990er-Jahren hatte Einfluss auf das Vorkommen der einzelnen Arten sowie auf die Größe der Fische. So wurden bei unveränderter Mindestgröße nun Blaufelchen gefischt, die sich noch nicht hatten fortpflanzen können, was zu erheblichen Ertragsschwankungen führte. Durch Heraufsetzung der Mindestgröße konnte das Problem zunächst behoben werden. Die Fangerträge bei Barschen stiegen aufgrund deren Vermehrung an, was andererseits möglicherweise das Vorkommen des Hechtbandwurms in Barschen und Hechten gefördert hat. Mittlerweile normalisiert sich die Situation insgesamt wieder. Für die Barschpopulation wird noch ein weiterer Rückgang erwartet. Ähnliche Probleme gab es bei den Seeforellen, deren Bestand zwischenzeitlich durch Baumaßnahmen an den Zuflüssen dezimiert war. Insbesondere die Einrichtung von Fischtreppen und der Besatz der Zuflüsse brachte Verbesserungen. Fischimport. Die Berufsfischer fürchten jedoch bei einem weiteren Rückgang des Phosphatgehaltes im Bodensee auf unter 8 mg/m³ Gesamtphosphor deutliche Einbußen, da dann auch ein Ertragsrückgang bei Felchen zu erwarten ist. Der am Bodensee wieder häufiger werdende Kormoran wird von den Fischern naturgemäß als „Plage“ gesehen. Ferner wird die wirtschaftliche Lage der Bodenseefischer durch Importe von Felchen aus Vietnam, Russland und Kanada geschmälert. Überblick. Die Gesamtheit aller Anbieter im öffentlichen Schiffsverkehr auf dem Bodensee wird auch als Weiße Flotte bezeichnet. Die Kursschifffahrt wird geprägt von den beiden Autofähren (Konstanz-Meersburg und Friedrichshafen-Romanshorn), der Katamaranverbindung Konstanz-Friedrichshafen und den überwiegend saisonal verkehrenden Personenschiffen. Daneben gibt es ein dichtes Angebot an Sonderfahrten (Brunch- und Dinnerfahrten, Tanz- und Partyfahrten, Fahrten zu bestimmten Ereignissen, themenbezogene Fahrten u. a.). Die private Schifffahrt wird zum Einen geprägt von den Fischern, zum Anderen von den in der warmen Jahreszeit verkehrenden Privatbooten (Segelschiffe, Yachten u. ä.). In manchen Häfen kann man Tret- und Ruderboote ausleihen. Fast überall am Bodenseeufer existieren Verkehrswege aller Art. Neben zahlreichen Fuß- und Radwegen sind nahezu alle Uferbereiche gut an das öffentliche Straßen- und Schienennetz angeschlossen. Mit der Bahn nicht direkt zu erreichen sind vor allem die Uferorte der Höri, das Südufer des Überlinger Sees, das Ufer zwischen Uhldingen und Friedrichshafen (mit Meersburg) sowie die Gegend zwischen den Rheinmündungen. Die Ufer von Obersee und Untersee werden fast überall von überregionalen Straßen begleitet. Ausnahmen bilden vor allem die Höri und das unzugängliche Südufer des Überlinger Sees. Die überregionalen Straßen führen vielerorts durch die Ufergemeinden, da Umgehungsstraßen oft nicht vorhanden sind. Von größeren Straßenbauten ist das Bodenseeufer bisher wenig tangiert worden. Vierspurige Straßentrassen gibt es bisher nur bei Radolfzell (B 33 / A 81), Stockach (A 98), Konstanz/Kreuzlingen (A 7), Rorschach (A 1), Bregenz (A 14) und Lindau (A 96). Sie verlaufen alle nicht direkt entlang des Ufers, genauso wie die größeren Bauten für zweispurige Umgehungsstraßen (A 1.1 bei Arbon, B 31 bei Lindau und zwischen Meersburg und Überlingen). Kursschifffahrt. In der nach Fahrplänen verkehrenden Kursschifffahrt ist zu unterscheiden zwischen ganzjährigen Linien, die eher auf die Bedürfnisse der Anwohner und Pendler zum Bspl. in die Schweiz, ausgerichtet sind, und saisonalen "Kursen" (das ist planmäßiger Linienverkehr im Unterschied zu Rundfahrten, in der Regel von Frühjahr bis zum Spätherbst), deren zahlenmäßig bedeutsame Zielgruppe eher die Ausflugstouristen des Sommerhalbjahrs darstellen. Weiter gibt es mehrere kleinere Anbieter von Kursschifffahrt. Alle diese Anbieter befördern Personen und Fahrräder. Die meisten dieser Verbindungen sind nur im Sommerhalbjahr in Betrieb. Ein schwimmendes Technikdenkmal ist das Dampfschiff Hohentwiel, das zwar nicht mehr Kurs fährt, aber viele Gesellschaftsfahrten macht und zur Festspielzeit den Zubringerverkehr nach Bregenz mit viel Nostalgie bereichert. Die Hohentwiel lief 1913 in Friedrichshafen als Yacht der württembergischen Könige vom Stapel, wurde 1962 von der Bundesbahn ausgemustert und 1988 erfolgreich restauriert. Sie ist heute einer der letzten Raddampfer mit Originalmaschine in Europa; Heimathafen ist das österreichische Hard. Eisenbahn. Die Bodenseegürtelbahn (siehe Hauptartikel dort) auf der Nordseite des Sees entstand zwischen 1870 und 1900 aus der Verbindung von Endpunkten der Bahngesellschaften der Länder Baden, Württemberg und Bayern. Sie wird heute im Schienenpersonennahverkehr von zwei Linien, wie dem Seehänsele, bedient, auf denen unterschiedliche Züge eingesetzt werden. Teilstücke im Osten und Westen des Sees sind in andere Netze eingebunden. Die gesamte Strecke Radolfzell–Lindau wird durchgängig noch von zwei Zugpaaren täglich befahren. Auf der Ost- und Südseite schließen in Österreichs Bundesland seit 1991 der Verkehrsverbund Vorarlberg und in der Schweiz die Strecken Romanshorn–Rorschach (1869) und Romanshorn–Konstanz (1871) an. Wichtig sind dort auch die Verbindungen via Kreuzlingen in die Schweiz und nach Süden. Eine technische Besonderheit war vor 1976 der Transport ganzer beladener Eisenbahnwagen (Güter- oder Personen-) im Trajektverkehr (siehe oben bei Fähren). Freizeit, Tourismus, Sport. Für die Region ist die Tourismusindustrie ein wichtiger Wirtschaftsfaktor: Der jährliche Umsatz beträgt in etwa 1,8 Mrd. €, dabei tragen die Übernachtungs- sowie Tagesgäste jeweils zur Hälfte des touristischen Umsatzes bei. Ausschlaggebend sind eine ausgeprägte touristische Infrastruktur sowie ein Netz an Attraktionen und Ausflugszielen. Von übergeordneter Bedeutung sind dabei insbesondere die Städte Konstanz, Überlingen, Meersburg, Friedrichshafen und Lindau, aber auch der Rheinfall bei Schaffhausen, die Insel Mainau, die Wallfahrtskirche Birnau, Burgen und Schlösser wie Schloss Salem oder die Burg Meersburg, die gesamte Museenlandschaft, wie beispielsweise das Zeppelin Museum, das Dornier Museum, das Seemuseum (Kreuzlingen), das Jüdische Museum Hohenems sowie die UNESCO-Welterbestätten Insel Reichenau und die prähistorischen Pfahlbauten in Unteruhldingen. Im Osten, wo die Voralpen dem Obersee sehr nahe kommen, gibt es einige Seilbahnen, deren Talstationen recht nahe am Ufer liegen. Bei der Bergfahrt hat man so Aussicht auf den See. Die bekannteste Seilbahn am Bodensee ist die Pfänderbahn, die in Bregenz ihre Talstation hat. Rund um den Bodensee verläuft der Bodensee-Rundweg und der Bodensee-Radweg. Über dem See kreisen seit 2001 wieder Zeppeline neuer Technologie bei regelmäßigen Rundfahrten ab dem Heimatflughafen Friedrichshafen. In Zusammenarbeit mit den touristischen Leistungsträgern, Tourismusorganisationen und den öffentlichen Institutionen in Deutschland, Österreich, der Schweiz und Liechtenstein übernimmt die Internationale Bodensee Tourismus GmbH (IBT GmbH) die touristische Vermarktung des Bodenseeraums. Bootsport, Freizeitschifffahrt. Rechtliche Grundlage für die gesamte Schifffahrt auf dem See ist die "Verordnung über die Schifffahrt auf dem Bodensee", kurz Bodensee-Schifffahrtsordnung. Sie wird auf dem Bodensee sowie auf dem Hochrhein durch die deutsche Wasserschutzpolizei, die schweizerische und die österreichische Seepolizei überwacht. Für den Bodensee gibt es ein eigenes Bodenseeschifferpatent. Es wird in Deutschland von den Schifffahrtsämtern des Kreises Konstanz, des Bodenseekreises und des Kreises Lindau vergeben, in der Schweiz von den kantonalen Behörden und in Österreich durch die Bezirkshauptmannschaft Bregenz. Für Sportschiffer sind die Kategorien A für Motorboote über 4,4 kW Leistung und D für Segelboote über 12 m² Segelfläche sowie kurzzeitige Gast-Lizenzierungen von Interesse. Unabhängig davon, ob für ein Boot ein Bodenseeschifferpatent erforderlich ist, müssen alle Boote mit Maschinenantrieb (einschließlich Elektromotoren) oder mit Wohn-, Koch- oder sanitärer Einrichtung, bei der zuständigen Schifffahrtsbehörde für den Bodensee zugelassen werden. Die Bedeutung der Freizeitschifffahrt ist enorm. Anfang 2009 waren 57.000 so genannte Vergnügungsfahrzeuge für den Bodensee zugelassen. Weil die Zulassung aber generell für drei Jahre erteilt wird, entsprechen diese Zahlen nicht der Menge der tatsächlich am Bodensee befindlichen Boote. Die große wirtschaftliche Bedeutung des Wassersports zeigt eine Studie der Internationalen Wassersportgemeinschaft Bodensee, die die vom Wassersport herrührende Beschäftigung auf 1.600 Beschäftigte und die wirtschaftlichen Umsätze auf 270 Millionen Euro schätzt. In der Freizeit bietet der Bodensee eine Fülle von Möglichkeiten im Bereich Wassersport. Über 100 Vereine sind dem Segelsport verbunden und veranstalten Regatten, bei denen dem sportlichen Wettkampf auf dem Wasser gefrönt wird. Der Betrieb von Wassermotorrädern wurde mit der seit Januar 2006 geltenden revidierten Bodensee-Schifffahrts-Ordnung zum Schutz von Flora, Fauna und Badegästen verboten. Alljährlich zu Maria Himmelfahrt findet seit 1979, initiiert von Ferdinand Andreatta, die größte Schiffsprozession Europas auf dem Bodensee statt. Ebenso jedes Jahr (Frühsommer) startet ab Lindau die spektakuläre Rund-Um-Segelregatta – über Meersburg, Überlingen, Romanshorn wieder zurück nach Lindau. In Konstanz findet seit 2009 wieder jährlich das Wassersport- und Segelfestival Internationale Bodenseewoche statt. Surfen und Kitesurfen. Aufgrund des seltenen Auftretens stetiger Winde können diese Sportarten nur zeitweise bei besonderen Windsituationen wie Föhn oder starkem Westwind und/oder nur in gewissen Seeabschnitten, z. B. der Bregenzer Bucht, betrieben werden. Das Kitesurfen ist zudem nur in bestimmten Zonen erlaubt, am deutschen Ufer außerdem nur mit einer Sondergenehmigung durch die Schifffahrtsämter, am österreichischen Ufer derzeit gar nicht. In den letzten Jahren hat sich das Westufer der Insel Reichenau im Untersee wegen dort meist aus West oder Südwest kommender Winde als ganzjährig nutzbares Surfrevier etabliert. Die durchschnittlichen Windgeschwindigkeiten schwanken zwischen vier und sieben Knoten bzw. zwei und drei Bft (in Bregenz bzw. in Friedrichshafen). Tauchen. Das Tauchen im Bodensee gilt zugleich als attraktiv und anspruchsvoll. Die meisten Tauchgebiete befinden sich im nördlichen Teil des Sees (Überlingen, Ludwigshafen, Marienschlucht und andere), einige wenige auch im Süden. Die Gebiete sollten ausschließlich von erfahrenen Tauchern unter Führung einer der örtlichen Tauchschulen oder eines gebietserfahrenen Tauchers betaucht werden, an der Teufelstisch genannten Felsnadel im See vor der Marienschlucht ist Tauchen sogar nur nach Genehmigung durch das Landratsamt Konstanz erlaubt. Interessante Wracks und größere Fische befinden sich meist in Tiefen, die von Sporttauchern üblicherweise nicht erreicht werden. Das bekannteste Süßwasser-Wrack Europas ist sicher der Raddampfer "Jura", der vor Bottighofen auf 39 Meter Tiefe liegt. Der Kanton Thurgau, das Amt für Archäologie in Frauenfeld, hat die "Jura" als Unterwasser-Industriedenkmal unter Schutz gestellt. Derartige Tauchgänge zählen zum Tec-Diving. Doch auch bei weniger großen Tiefen ist zu beachten, dass das Wasser im Bodensee – auch im Sommer – bereits ab zehn Metern Tiefe unter 10 °C kalt ist, was entsprechend kaltwassertaugliche Atemregler erfordert, die bei derartigen Temperaturen nicht vereisen. Um die Sicherheit des Tauchens im Bodensee zu erhöhen und sicherzustellen, dass der Bodensee als Tauchgewässer erhalten bleibt, hat sich eine Gruppe von Tauchern verschiedener Organisationen zum "Arbeitskreis Sicheres Tauchen im Bodensee" (AST e. V.) zusammengefunden. Seit 2006 ist das Tauchen innerhalb des für die Schifffahrt gekennzeichneten Fahrwassers, z. B. im Hochrhein oder Seerhein, verboten. Schwimmen. Steilabfall vom flachen ins tiefe Wasser in Meersburg an der westlichen Ecke der Seepromenade. Schwimmen im See ist in der Regel von Mitte Juni bis Mitte September gut möglich. Die Wassertemperaturen erreichen dann je nach Wetterlage 19 °C bis 25 °C. Innerhalb eines Tages sind bei entsprechender Sonneneinstrahlung Differenzen bis zu 3 °C möglich, so dass der See speziell an lauen Sommerabenden zum Baden einlädt. Die für den Bodensee typischen Stürme vermengen die wärmeren Oberflächenwasser- mit den kälteren tieferen Wasserschichten. Dadurch sinkt dann die Wassertemperatur auch während der Badesaison markant. Ein Gefahrenbereich beim Schwimmen ist, dass die Flachwasserzone des Seeuferbereiches unvermittelt aufhört und am sogenannten „Felsen“ des Uferbereichs steil abfällt. Dieser Abfall des Felsens ist z. B. von der Seepromenade in Meersburg aus gut zu sehen und an der Trennungslinie von der helleren zu der dunkleren Farbe des Wassers zu erkennen. Ein weiterer Gefahrenbereich sind die außerhalb der amtlich ausgewiesenen Badebereiche von den Fischern (auch im Flachwasser) zum Fischfang ausgelegten Netze. Wegen der Lebensgefahr beim Überschwimmen der Netze ist ein Sicherheitsabstand von mindestens 30 Meter einzuhalten. "Stellnetze" werden markiert durch orangefarbene Bojen an den Netzenden und weiße Schwimmkörpern zwischen den orangefarbenen Endbojen. Der Gesamtverlauf von "Großreusen", auch Trappnetze genannt, ist durch mehrere orangefarbene Bojen gekennzeichnet. Extremschwimmen. Am 22. Juli 2013 schwamm der Extremsportler Christof Wandratsch mit Begleitboot ohne Pause die 66 Kilometer und 670 Meter lange Strecke längs durch den Bodensee von Bodman nach Bregenz. Er benötigte dafür 20 Stunden und 41 Minuten. Während der Stunden 12 bis 15 kam er wegen starker Strömung kaum vorwärts. Unvorhersehbare Naturgewalten wie Windböen und hohe Wellen können auf dieser langen Strecke und in dieser langen Zeit zum Abbruch des Durchschwimmens zwingen. Unfalltote. Seit 1947 wird von den Polizeibehörden der Bodensee-Anrainerstaaten eine gemeinsame Liste der Vermissten und Toten nach Boots-, Schiffs- und Paddelbootsunfällen, Flugzeugabstürzen, Arbeits-, Surf- und Badeunfällen, sowie weiteren ungeklärten Fällen geführt. Tödliche Tauchunfälle ereignen sich im Überlinger See mit seinen steil abfallenden Ufern. Berichtet wird über den gesamten Bodensee mit dem 21 Kilometer Hochrheinabschnitt bis Schaffhausen. Zuständige Wasserschutzpolizeien in den drei Staaten sind Lindau, Vorarlberg, St. Gallen, Thurgau, Schaffhausen und Baden-Württemberg (Wasserschutzpolizeistationen in Konstanz, Überlingen und Friedrichshafen). Nicht alle Opfer können geborgen werden. Im Obersee handelt es sich bei den vermissten Personen eher um Opfer von Unfällen mit Wasserfahrzeugen, im Untersee und Hochrhein eher um Vermisste durch Badeunfälle. Trinkwassergewinnung. Jährlich werden dem Bodensee rund 180 Millionen Kubikmeter Wasser durch 17 Wasserwerke zur Trinkwasserversorgung von insgesamt ca. 4,5 Millionen Menschen in den Anrainerstaaten Deutschland und Schweiz entnommen. Bemerkenswert ist dabei, dass insgesamt immer noch mehr Wasser natürlich verdunstet, als für die Trinkwassergewinnung entnommen wird. Größter Wasserversorger ist der Zweckverband Bodensee-Wasserversorgung (BWV) mit Sitz in Stuttgart, dessen Wasserentnahme sich im offenen Wasser bei Sipplingen befindet. Von der BWV werden etwa 4 Millionen Bürger in großen Teilen von Baden-Württemberg (bis Bad Mergentheim ganz im Nordosten des Bundeslandes) versorgt. Ihr Anteil mit einer Entnahme von etwa 135 Millionen Kubikmetern pro Jahr beträgt ungefähr 75 % der gesamten Trinkwasserentnahme. Andere Wasserwerke versorgen z. B. die Bewohner von Friedrichshafen (D), Konstanz (D), St. Gallen (CH) und Romanshorn (CH; seit 1894 und damit ältestes Wasserwerk am Bodensee). Bebauung oder Naturschutz. Die bebaute Fläche in den städtischen Gebieten rund um den Bodensee hat sich seit den 1920er-Jahren bis Anfang 2000 sehr stark ausgedehnt. Weitere Eingriffe in die Bodenseelandschaft entstanden durch Aufschüttung (z. B. Fährhafenbau für die Autofähre Konstanz–Meersburg, Zeltplatz Überlingen-Goldbach u. a.). Andererseits wurden trotz Industrialisierung, Intensivierung des Tourismus und Ausbau der Verkehrsinfrastruktur auch Naturschutzzonen eingerichtet und der Gewässerschutz vorangetrieben. Vorgeschichtliche Zeit. Überregionale kulturgeschichtliche Bedeutung besitzen die Ufersiedlungen mit Feuchtbodenerhaltung, in denen Teile von Holzbauten, Pflanzenreste, Textilien usw. außergewöhnlich gut erhalten sind. Am Bodensee reichen sie vom Jungneolithikum (4. Jahrtausend v. Chr.) bis in die Urnenfelderzeit (bis 800 v. Chr.). Pfahlbauten. Eine Auswahl von Fundstellen ist zusammen mit anderen Prähistorischen Pfahlbauten um die Alpen seit 2011 als UNESCO-Weltkulturerbe anerkannt. Am deutschen Bodenseeufer sind über 70 Siedlungsplätze bekannt, die unter anderem vom Landesdenkmalamt Baden-Württemberg durch seine ständige Arbeitsstelle in Hemmenhofen erfasst und betreut werden. Denkmalgeschützte Reste von unsichtbaren Pfahlbauten unter Wasser gibt es in Litzelstetten-Krähenhorn, Wollmatingen-Langenrain, Konstanz-Hinterhausen, Öhningen, Gaienhofen, Allensbach und Bodman-Ludwigshafen. Eine Rekonstruktion einer derartigen Pfahlbausiedlung findet man im Pfahlbaumuseum Unteruhldingen. Dieses 23 Pfahlbauhäuser umfassende Freilichtmuseum zeigt anschaulich den Alltag in der Jungsteinzeit und der Bronzezeit. In vier nachgebauten Dörfern können Besucher erleben, wie es bei den ersten Bauern, Händlern und Fischern am Bodensee ausgesehen hat. Eisenzeit. In der Eisenzeit gehörte der Bodensee zum keltischen Kulturraum, wurde in den Jahrzehnten um Christi Geburt aber von den Römern erobert. Römische Zeit. Unter den Römern bestand um 200 bis 300 n. Chr. eine Seeuferstraße „von Brigantium (Bregenz) über Arbor Felix (Arbon) nach Constantia (Konstanz)“. Ab 260 n. Chr. besiedelten die Alemannen das Gebiet bis zum nördlichen Seeufer. Zeit der Christianisierung. Das Bistum Konstanz entstand Ende des 6. Jahrhunderts durch die Verlegung des Bischofssitzes von Windisch nach Konstanz. In dessen Einflussgebiet bemühte sich das Kloster St. Gallen um Theologie und Sprachwissenschaften, um Heilkunde und Geschichte, um Dichtung und Musik. Was hier geschah, hatte Einfluss auf die ganze abendländische Geisteswelt. Viele kulturelle Strömungen jener Zeit lassen sich auf das Kloster St. Gallen zurückführen. Auch das Kloster Reichenau auf der gleichnamigen Insel im Bodensee hatte bis zum 13. Jahrhundert seine Bedeutung als Zentrum deutscher Gelehrsamkeit. Schließlich ist das Kloster Mehrerau zu erwähnen: Das von Zisterziensern geführte Kloster am Bodensee galt in der Reformationszeit als Hochburg des Katholizismus. Theater und Musik. Die einzigen öffentlichen Ensembletheater in den Städten am See sind das Stadttheater Konstanz, eines der ältesten deutschen Stadttheater, und das Vorarlberger Landestheater in Bregenz. Zur Theaterlandschaft Bodensee gehört jedoch auch das schweizerische Theater St. Gallen. Symphonieorchester der Bodenseeregion sind die Südwestdeutsche Philharmonie Konstanz, das Symphonieorchester Vorarlberg mit Sitz in Bregenz und das Sinfonieorchester St. Gallen. Die größten Festspiele der Bodenseeregion sind das Bodenseefestival mit Schwerpunkt Friedrichshafen und die im Sommer stattfindenden Bregenzer Festspiele, die durch das „Spiel auf dem See“ ein internationales Publikum anziehen. Weitere bekannte Festivals sind Rock am See (Konstanz), SummerDays Festival (Arbon) und das Zeltfestival Kulturufer Friedrichshafen. Bildende Kunst. Einige bekannte Maler hatten ihren Wohnsitz am Bodensee und bildeten diesen in zahlreichen Werken ab. Im 20. Jahrhundert sind vor allem Otto Dix und Adolf Dietrich, beide Künstler der Neuen Sachlichkeit, zu nennen. Eine Reihe weiterer Künstler ließen sich am Bodensee nieder, so z. B. Max Ackermann, Waldemar Flaig, Erich Heckel und Rudolf Schmidt-Dethloff. Aber auch zahlreiche namhafte, einheimische Künstler wie Heinrich Hauber, Fritz Mühlenweg, Carl Roesch oder Rudolf Wacker prägten das Kunstschaffen in der Region. Die Bilder der Bodenseemaler sowie andere Gemälde, die den Bodensee abbilden, sind in zahlreichen Museen wie z. B. dem Zeppelin Museum in Friedrichshafen und dem Neuen Schloss in Meersburg ausgestellt. Der in Bodman ansässige Bildhauer Peter Lenk machte überregional mit skandalträchtigen Skulpturen Schlagzeilen. Großformatige Werke von Lenk schmücken das Seeufer in Konstanz, Überlingen und Meersburg. Schriftsteller. Eine Reihe bekannter Schriftsteller lebten und arbeiteten zumindest zeitweise am Bodensee, darunter Annette von Droste-Hülshoff in Meersburg, Joseph Victor von Scheffel in Radolfzell und Hermann Hesse in Gaienhofen. Martin Walser ist der bekannteste derzeit am Bodensee lebende Schriftsteller. Seine Bücher spielen teilweise am Bodensee, wie z. B. seine Novellen "Ein fliehendes Pferd" oder "Ein springender Brunnen" (über seine Jugendzeit in Wasserburg). Das Museum im Malhaus in Wasserburg bietet eine Dauerausstellung zum Leben und Werk Martin Walsers. Im Besonderen sind dies Erinnerungen an seine Kinder- und Jugendzeit in Wasserburg. Der Bodensee-Literaturpreis der Stadt Überlingen wird an Schriftsteller mit Bezug zur Bodenseeregion vergeben. Einzelnachweise. SBodensee Geschichte von Bündnis 90/Die Grünen. Die Geschichte von Die Grünen hat zwei unterschiedliche Wurzeln: In Westdeutschland und West-Berlin entsprang die Grüne Partei der Umweltbewegung sowie den neuen sozialen Bewegungen der 1970er Jahre und wurde am 13. Januar 1980 in Karlsruhe als Partei gegründet. In der DDR schlossen sich 1990 die Gruppierungen der Bürgerrechtsbewegung, die maßgeblich die friedliche Revolution von 1989 getragen hatten, zum Bündnis 90 zusammen. Die Grünen und das Bündnis 90 vereinigten sich 1993 zur gemeinsamen Partei Bündnis 90/Die Grünen. Die Grüne Partei in der DDR, die neben der Grünen Liga die ostdeutsche Ökologiebewegung repräsentierte, hatte sich bereits am 3. Dezember 1990 mit den westdeutschen Grünen zu einer gesamtdeutschen Partei zusammengeschlossen. Bereits 1979 war mit der Bremer Grünen Liste erstmals eine grüne Landesliste in ein Parlament eingezogen, 1983 gelang dies den Grünen zum ersten Mal bei einer Bundestagswahl. Die Grünen waren damit die erste auf Bundesebene erfolgreiche Parteineugründung seit 1950. Von 1985 bis 1987 stellten sie mit Joschka Fischer in Hessen erstmals einen Landesminister. Die Aufbau- und Etablierungsphase der Grünen war stark von einem innerparteilichen Gegensatz zwischen den radikalen sogenannten „Fundis“ und „Ökosozialisten“ auf der einen sowie den pragmatischen „Realos“ auf der anderen Seite geprägt. Darüber hinaus bestimmten neben dem Thema Umweltschutz parteispezifische Besonderheiten das Bild der Grünen, so das Rotationsprinzip, die Trennung von Amt und Mandat sowie eine Frauenquote. Das Jahr 1990 bedeutete nicht nur wegen der Ereignisse in der DDR und der Wiedervereinigung eine Wende in der Geschichte der Partei. Bei der Bundestagswahl 1990 scheiterte die Grüne Partei, die der Wiedervereinigung skeptisch bis ablehnend gegenüberstand, in Westdeutschland an der Fünf-Prozent-Hürde. Dagegen war das in Ostdeutschland angetretene Bündnis 90 als Bundestagsgruppe im Parlament vertreten. 1990/91 verließen zahlreiche Vertreter des linken Flügels die Partei. In den folgenden Jahren reorganisierte sie sich und veränderte durch die Fusion von Grünen und Bündnis 90 zusätzlich ihr Gesicht. 1994 gelang der Wiedereinzug in den Bundestag. Nach der Bundestagswahl 1998 wurde Bündnis 90/Die Grünen im Kabinett Schröder erstmals Regierungspartei in einer rot-grünen Koalition auf Bundesebene, die in der Wahl 2002 bestätigt wurde. Die Beteiligung Deutschlands am Kosovokrieg sowie an Militäreinsätzen in Afghanistan führten die Partei, zu deren wesentlichen Wurzeln traditionell der Pazifismus gehörte, jedoch vor eine Zerreißprobe. Seit den Neuwahlen 2005 sind Bündnis 90/Die Grünen wieder eine Oppositionspartei. Neue Soziale Bewegungen und bürgerliche Umweltschützer. In der alten Bundesrepublik Deutschland entstand in der zweiten Hälfte der 1970er Jahre ein breites Spektrum neuer sozialer Bewegungen. Wichtige Strömungen waren die Umwelt-, Friedens-, Menschenrechts-, Dritte-Welt-, die Frauenbewegung und die Hausbesetzerbewegung. Zur stärksten Kraft entwickelte sich jedoch die Anti-Atomkraft-Bewegung. Die Integrationskraft des etablierten Parteiensystems hatte deutlich nachgelassen, denn nirgends, auch nicht innerhalb der SPD, konnten die Atomkraftgegner nennenswerten Einfluss gewinnen, obwohl der Bau von Atomkraftwerken von großen Teilen der Bevölkerung abgelehnt wurde. Die Alternativbewegung trat deshalb zunächst als außerparlamentarische Opposition mit geringem Institutionalisierungsgrad auf. Die neuen sozialen Bewegungen waren wiederum im Gefolge der Studentenbewegung der 1960er Jahre entstanden, auch wenn sie sehr viel breitere Bevölkerungsschichten mobilisieren konnten. Der spätere parlamentarische Erfolg der Grünen kann somit auch als Marsch durch die Institutionen der 68er-Generation begriffen werden, der schon 1967 von Rudi Dutschke gefordert worden war. In dieser Tradition war ein großer Teil der neuen sozialen Bewegungen politisch bei der Neuen Linken zu verorten. Eine Minderheit politischer Aktivisten war in den sogenannten K-Gruppen organisiert, kommunistischen Splittergruppen wie dem Kommunistischen Bund (KB), dem Kommunistischen Bund Westdeutschland (KBW) und der Kommunistischen Partei Deutschlands (KPD). Für sie waren ökologische Probleme unmittelbare Folge kapitalistischer Produktionsverhältnisse. In scharfer Abgrenzung zu den K–Gruppen gehörten anarchistische Gruppierungen der Spontis zur undogmatischen Linken, die ebenfalls Einfluss auf die Entwicklung der Grünen nehmen sollte. Nicht zu unterschätzen ist der Einfluss enttäuschter ehemaliger Sozialdemokraten, die die SPD aus Protest gegen die Verteidigungs- und Atompolitik Helmut Schmidts verließen. Im Prozess der Herausbildung einer ökologisch orientierten Wahlalternative traf sich das linke Spektrum mit bürgerlichen und konservativen Kräften, die sich in Naturschutzorganisationen und seit Ende der 1960er Jahre verstärkt in lokalen Bürgerinitiativen artikulierten. Große traditionelle Umweltorganisationen waren z. B. der Deutsche Bund für Vogelschutz (gegründet 1899, heute NABU), der Deutsche Heimatbund als Dachverband der Heimatvereine (1904), die Schutzgemeinschaft Deutscher Wald (1947), der Weltbund zum Schutz des Lebens (in Deutschland seit 1960) sowie die ursprünglich sozialistisch, später sozialdemokratisch geprägten Naturfreunde (1895). 1963 kam der WWF hinzu, 1971 der Bund für Umweltschutz und 1975 wurde der Bund für Umwelt und Naturschutz Deutschland (BUND) gegründet. Als Dachverband der großen Naturschutzorganisationen existierten seit 1950 der Deutsche Naturschutzring und für die Bürgerinitiativen im Umweltschutzbereich seit 1972 der Bundesverband Bürgerinitiativen Umweltschutz (BBU). Viele der konservativen Umweltschützer waren christlich geprägt, um die Bewahrung der Schöpfung besorgt und hatten die christliche Soziallehre verinnerlicht. Die Neuen Linken und die konservativen Umweltschützer, insbesondere die nach dem Krieg geborenen, einte ein postmaterialistischer Wertewandel. Besonders die Ökologiebewegung stellte den linearen Fortschrittsbegriff in Frage und übte prinzipielle Technik- und Zivilisationskritik. Im Gegensatz zu den Milieus der etablierten Parteien ließ sich die Trägergruppe der neuen sozialen Bewegungen weniger durch ihre Partikularinteressen eingrenzen, sondern bildete eine auf universelle Werte ausgerichtete Wertegemeinschaft. Damit war ein Bedeutungsverlust klassischer Themen der Politik wie Wirtschaftswachstum und Finanzstabilität zugunsten neuerer Politikfelder wie dem Umweltschutz oder allgemeinen Fragen nach Lebensqualität, Selbstverwirklichung oder Gleichstellung verbunden. Somit ließ sich das soziopolitische Milieu der entstehenden grünen Parteien nur bedingt in das etablierte rechts–links–Schema einordnen. Überwiegend verkörperte die neue politische Bewegung aber eine libertäre postmaterialistisch–ökologische Linke, die sich von der traditionellen, auf verteilungspolitische Fragen ausgerichteten und stärker ideologisch ausgerichteten Linken abgrenzen ließ. Eine Initialzündung für die aufkommende Ökologiebewegung war der Bericht „Grenzen des Wachstums“ des Club of Rome, der 1972 erschien und erstmals Umweltthemen ins Zentrum des allgemeinen Bewußtseins rückte. Es folgte eine Reihe weiterer Bücher, die die Auseinandersetzung mit dem Thema vorantrieben, darunter 1975 „Ende oder Wende“ des früheren SPD-Bundesministers für wirtschaftliche Zusammenarbeit, Erhard Eppler, und „Ein Planet wird geplündert“ des CDU-Bundestagsabgeordneten Herbert Gruhl sowie 1977 „Small is Beautiful“ von Ernst Friedrich Schumacher und die 1980 veröffentlichte Studie Global 2000. Erste lokale Wahlbündnisse (1977). Nachdem ein erstes Atomkraftwerk in Wyhl am Kaiserstuhl von der örtlichen Bevölkerung verhindert worden war, kam es 1976/77 zu einer Eskalation in der Unterelbe-Region. Bei Hamburg gab es bereits Atomkraftwerke in Krümmel, Stade und Brunsbüttel, als von der schleswig-holsteinischen CDU-Landesregierung zusammen mit der SPD-geführten Bundesregierung unter Helmut Schmidt Brokdorf als weiterer Standort durchgesetzt wurde. Dessen Baubeginn führte zur bundesweiten Massenmobilisierung und zur „Schlacht um Brokdorf“, während der es in hohem Maß zu Gewaltaktionen von Polizei und Demonstranten kam. Die Wahlerfolge linker Wahlbündnisse unter Einschluss von Umweltschützern bei den französischen Kommunalwahlen im März 1977 verstärkten auch innerhalb der westdeutschen Linken Überlegungen, sich an Wahlen zu beteiligen und dabei die außerparlamentarische Zusammenarbeit mit bürgerlichen Umweltschützern etwa in der Anti-AKW Bewegung parlamentarisch fortzusetzen, zumal angesichts der massiven Polizeimaßnahmen im Zusammenhang mit den Anti-AKW Protesten der außerparlamentarische Widerstand nicht mehr steigerungsfähig erschien. Dabei kam es zu Auseinandersetzungen mit einem sich strikt antiparlamentarisch verstehenden Teil der Neuen Linken, aber auch mit politischen Gruppen, die eher den Aufbau einer sozialistisch ausgerichteten Partei wünschten. Zunächst entstanden örtliche Wählergemeinschaften und Wahlbündnisse. Die ersten Kandidaturen gab es am 23. Oktober 1977 bei Wahlen zu den Kreistagen in Niedersachsen, die in einigen Landkreisen im Zuge der kommunalen Neugliederung erforderlich wurden. Im Landkreis Hildesheim erreichte die Grüne Liste Umweltschutz (GLU), die sich im November 1977 mit der kurz zuvor in Niedersachsen gegründeten „Umweltschutzpartei“ verbunden hatte, einen Sitz im Kreistag. Sie hatte ein eher konservatives Selbstverständnis und distanzierte sich insbesondere von linken Atomkraftgegnern deutlich. Im Landkreis Hameln-Pyrmont trat die „Wählergemeinschaft – Atomkraft Nein Danke“ an. Ihre Gründung ging auf die „Bürgerinitiativen gegen Atomkraft Weserbergland“ zurück, die sich gegen den Bau eines Atomkraftwerks in der im Landkreis gelegenen Gemeinde Grohnde richteten und am 19. März 1977 20.000 Atomkraftgegner zu einer Demonstration mobilisiert hatte. Auch sie erreichte mit 2,3 Prozent einen Sitz im Kreistag. Grüne und bunte Listen treten bei Landtagswahlen an (1978). 1978 setzte sich die Entwicklung zur Teilnahme an Wahlen fort, die von Konflikten zwischen linken „Bunten“ bzw. „Alternativen Listen“ auf der einen sowie konservativ orientierten „grünen Listen“ oder „Umweltlisten“ auf der anderen Seite geprägt war. Regelmäßig kam es zu Meinungsverschiedenheiten, inwiefern K-Gruppen-Mitglieder in die gemeinsame Arbeit einbezogen werden sollten. Bei den Landtagswahlen am 4. Juni 1978 in Niedersachsen kandidierte die Grüne Liste Umweltschutz (GLU) und wurde mit 3,86 % auf Anhieb zur viertstärksten Partei. Bei den Bürgerschaftswahlen in Hamburg am selben Tag konkurrierten die mit Protagonisten des KB besetzte „Bunte Liste – Wehrt euch“ und die Hamburger GLU. Die Bunte Liste erzielte 3,5 Prozent und die GLU 1,1 Prozent. Der ehemalige umweltpolitische Sprecher der CDU-Bundestagsfraktion Herbert Gruhl verließ aufgrund von unüberbrückbaren Differenzen in der Umweltpolitik im Juli 1978 zusammen mit einigen anderen Unionspolitikern, vor allem aus der Jungen Union, die CDU und gründete die Grüne Aktion Zukunft (GAZ). Da er sein Bundestagsmandat behielt, wird er oft als erster Abgeordneter der Grünen im Bundestag bezeichnet. Interview mit Jutta Ditfurth (1987) Bei der Landtagswahl am 8. Oktober 1978 in Hessen konkurrierte die bürgerliche Grüne Aktion Zukunft mit der Grünen Liste Hessen (GLH). Diese war von Jutta Ditfurth gegründet worden, die später neben Thomas Ebermann und Rainer Trampert zur Symbolfigur des linken Flügels der grünen Partei wurde. Mit 0,9 Prozent blieb das Ergebnis der GAZ deutlich hinter den Erwartungen ihres Gründers Herbert Gruhl zurück, der gehofft hatte mit einem Ergebnis von sechs Prozent die FDP beerben zu können. Auch die GLH scheiterte mit 1,1 Prozent klar an der Fünf-Prozent-Hürde. Spitzenkandidat der GLH war Alexander Schubart, Frankfurter Magistratsdirektor und ehemaliges SPD-Mitglied. Auf Listenplatz 7 wurde als Vertreter der Frankfurter Sponti-Szene Daniel Cohn-Bendit gewählt. Seine Bewerbungsrede, in der er für den Fall des Wahlerfolges die Legalisierung von Haschisch und die Übernahme des Innenministeriums ankündigte, sorgte für Schlagzeilen. Auf Listenplatz 8 kandidierte der Bioladenbesitzer, Schwulenaktivist und spätere Bundestagsabgeordnete der Grünen Herbert Rusche aus Offenbach. Bei der Landtagswahl am 15. Oktober 1978 in Bayern bildeten die Aktionsgemeinschaft Unabhängiger Deutscher (AUD), die GAZ und die von ehemaligen CSU-Mitgliedern gegründete „Grüne Liste Bayern“ (GLB) ein Wahlbündnis, das sich erstmals den Namen „Die Grünen“ gab. Die ursprünglich nationalkonservative AUD (in Hessen „Aktion Umweltschutz und Demokratie“) hatte mit dem Thema „Lebensschutz“ seit Mitte der 1970er Jahre auch die Umweltpolitik als Thema und konnte prominente Persönlichkeiten als Kandidaten gewinnen, wie den Düsseldorfer Künstler Joseph Beuys, der bei der Bundestagswahl 1976 als parteiloser Spitzenkandidat angetreten war. Die Grünen kamen auf landesweit 1,8 Prozent. Ihr bestes Ergebnis erzielten sie in Freising, wo sie 4,8 Prozent der Erst- und 3,7 Prozent der Zweitstimmen erhielten. Europawahl, Einzug in ein Landesparlament und Vorbereitung der Parteigründung (1979). a> auf einer Pressekonferenz nach der Bundestagswahl 1983. Die Alternative Liste für Demokratie und Umweltschutz (AL) erreichte bei den Wahlen zum Abgeordnetenhaus am 18. März 1979 in Berlin (West) 3,7 Prozent und war mit 10 Abgeordneten in vier Bezirksverordnetenversammlungen vertreten. Die AL war am 5. Oktober 1978 gegründet worden. An der Versammlung nahmen etwa 3.500 Personen teil. Der an der Gründung beteiligte Rechtsanwalt Otto Schily hatte vergebens versucht, einen Unvereinbarkeitsbeschluss mit maoistischen K-Gruppen herbeizuführen. Die Grüne Liste Schleswig-Holstein (GLSH) erzielte am 29. April 1979 2,4 Prozent der Stimmen bei der Landtagswahl. Für die Europawahl am 10. Juni 1979 kam es am 17./18. März in Frankfurt auf Initiative des Bundesverbands Bürgerinitiativen Umweltschutz (BBU), in dem seit 1972 die bürgerliche Umweltinitiativen organisiert waren, zur Bildung der gemeinsamen Wahlliste „Sonstige Politische Vereinigung (SPV)-Die Grünen“ aus GLU-Niedersachsen, Grüne Liste Schleswig-Holstein, AUD, GAZ, der Freien Internationalen Universität, der Aktion Dritter Weg (A3W) sowie Vertretern weiterer Bürgerinitiativen. Anders als bei Bundestagswahlen war für die Teilnahme Sonstiger Politischer Vereinigungen an der Europawahl keine formelle Parteigründung nötig. Zu Vorsitzenden wurden Herbert Gruhl (GAZ), August Haußleiter (AUD) und Helmut Neddermeyer (GLU) gewählt. Spitzenkandidatin wurde Petra Kelly, die im selben Jahr aus der SPD ausgetreten war. Weitere Kandidaten waren Roland Vogt, Baldur Springmann, Joseph Beuys, Georg Otto, Eva Quistorp und Carl Amery, unter den Ersatzkandidaten waren Herbert Gruhl, Milan Horáček, Dieter Burgmann und Wilhelm Knabe. Die Liste wurde im Wahlkampf u. a. von Heinrich Böll und Helmut Gollwitzer unterstützt. Die SPV–Die Grünen erzielte mit 900.000 Stimmen 3,2 Prozent. Dieser Wahlerfolg bewirkte eine entscheidende Verschiebung des Kräfteverhältnisses zwischen dem bürgerlichen und dem alternativen Lager und hatte andererseits eine Initialfunktion für die Gründung von Wahlinitiativen für die Kommunalwahlen am 30. September 1979 in Nordrhein-Westfalen, wo in Bielefeld (Bunte Liste 5,6 Prozent), Münster (Grüne Alternative Liste 6,0 Prozent), Leverkusen (5,0 Prozent), Datteln (9,9 Prozent) und Marl (Wählergemeinschaft Die Grünen 8,9 Prozent) der Einzug in die Kommunalparlamente gelang. In Köln (4,0 Prozent) erreichte die Kölner Alternative Sitze in zwei Bezirksvertretungen. In Ahaus, dem geplanten Standort eines Atommüllzwischenlagers, erzielte eine von Atomkraftgegnern gegründete Wählergemeinschaft 25,5 Prozent. Am 30. September 1979 fand in Sindelfingen bei Stuttgart ein Treffen von 700 Anhängern der ökologischen Bewegung statt, das in der Gründung der Grünen in Baden-Württemberg als erstem Landesverband resultierte. Die Bremer Grüne Liste (BGL) gewann am 7. Oktober 1979 mit 5,1 Prozent als erste grüne Wählervereinigung in der Bundesrepublik Mandate in einem Landesparlament, der Bürgerschaft. Die BGL bestand überwiegend aus ehemaligen SPD-Mitgliedern um Olaf Dinné. Die gleichfalls kandidierende Alternative Liste erhielt 1,4 Prozent. Auf einer öffentlichen Veranstaltung in der Bremer Stadthalle hatte zuvor Rudi Dutschke vergeblich die Spaltung zwischen „Grünen“ und „Alternativen“ zu verhindern versucht. Im November 1979 fand ein zweiter Bundeskongress der SPV-Die Grünen in Offenbach statt, auf dem die Parteigründung für Januar 1980 beschlossen wurde. Dies sollte nicht als Neu-, sondern als Umgründung der SPV-Die Grünen geschehen, um die Wahlkampfkostenerstattung von der Europawahl in Höhe von 4,5 Millionen Mark zur Finanzierung des Parteiaufbaus verwenden zu können und die linken Listen nicht als Gründungsmitglieder aufnehmen zu müssen. Allerdings wurde den Mitgliedern der Alternativen die Möglichkeit eröffnet, bis zum 20. Dezember 1979 in die SPV-Die Grünen einzutreten, um am Karlsruher Gründungskongress teilzunehmen, und ein Antrag von Baldur Springmann, eine Mitgliedschaft in der SPV-Die Grünen nicht zuzulassen, wenn gleichzeitig eine Mitgliedschaft in einer anderen, insbesondere einer kommunistischen Organisation bestand, wurde abgelehnt. Daraufhin schnellte die Mitgliederzahl innerhalb von knapp zwei Monaten von 2.800 auf 12.000 in die Höhe. Noch bevor sich der Bundesverband konstituierte, wurde am 16. Dezember 1979 in Hersel bei Bonn ein Landesverband in Nordrhein-Westfalen gegründet. Parteigründung (1980). Auf der Bundesversammlung am 12. und 13. Januar 1980 in Karlsruhe wurde die Partei „Die Grünen“ gegründet. Der Streit über die Mitarbeit von Mitgliedern kommunistischer Organisationen drohte dabei, die Gründung scheitern zu lassen. Die Vereinbarkeit der Mitgliedschaft bei den Grünen mit der Mitgliedschaft in anderen Parteien wurde schließlich ausgeschlossen – u. a. gegen den Protest von Rudolf Bahro, der deshalb auf der Versammlung seinen Parteieintritt erklärte. Umstritten war auch wieder die Teilnahme von Delegierten der Bunten Listen, als deren Sprecher u. a. der Hamburger Henning Venske auftrat. Die Diskussion des Programms und die Wahl eines Vorstandes wurden auf die nächste Bundesversammlung vertagt, die im März 1980 in Saarbrücken stattfinden sollte. Bis dahin wurde der bisherige Vorstand der SPV-Die Grünen in seinem Amt bestätigt und das Europawahlprogramm zur Arbeitsgrundlage gemacht. Die Bundesversammlung in Saarbrücken am 22./23. März 1980 wählte August Haußleiter, Petra Kelly und Norbert Mann zu Parteisprechern, Rolf Stolz zum Schriftführer und Grete Thomas zur Schatzmeisterin. Die Versammlung verabschiedete ein Grundsatzprogramm, bei dessen Formulierung sich die links-alternativen gegen die bürgerlich-ökologischen Kräfte in allen wichtigen Fragen durchsetzen konnten. So enthielt das Programm unter anderem Forderungen nach Stilllegung aller Atomanlagen, einseitiger Abrüstung, Auflösung der Militärblöcke NATO und Warschauer Pakt, 35-Stunden-Woche bei vollem Lohnausgleich sowie Abschaffung des § 218 StGB. Diese Programmatik wurde von dem konservativen Flügel um Herbert Gruhl als Niederlage empfunden. Das Bundesprogramm, wie zuvor schon das Europawahlprogramm der SPV-Die Grünen, beschrieb die neue Partei als „ökologisch, sozial, basisdemokratisch und gewaltfrei“. Das Selbstverständnis war das einer „Anti-Parteien-Partei“ (Petra Kelly). Die Grünen verstanden sich weniger als Partei, sondern als Bewegung, wobei die Parteigründung als parlamentarisches, zweites Spielbein gesehen wurde. Umstritten war besonders, ob die Präsenz in den Parlamenten lediglich als Bühne dieser Bewegung genutzt werden sollten oder ob man auf tatsächliche Regierungsmacht zielen sollte. Dieser Streit zwischen „Fundis“ und „Realos“ sollte die parteiinterne Debatte der nächsten Jahre bestimmen. Auf der Bundesversammlung in Dortmund am 21. und 22. Juni 1980 trat August Haußleiter, der in verschiedenen Medien wegen nationalistischer Äußerungen in den 1950er Jahren hart angegriffen worden war, aus Rücksicht auf die neue Partei als Parteisprecher zurück. Die Schatzmeisterin Grete Thomas, von der bekannt geworden war, dass sie ein anderes Parteimitglied, welches sie im Verdacht hatte, ein Agent des Verfassungsschutzes zu sein, durch einen Detektiv hatte beobachten lassen, wurde abgewählt. Als Nachfolger von Haußleiter setzte sich Dieter Burgmann, Landesvorsitzender der AUD-Bayern, gegen Herbert Gruhl und Otto Schily, der im letzten Wahlgang Burgmann dadurch unterstützte, indem er auf eine weitere Kandidatur verzichtete, durch. Weitere Vorstandsmitglieder wurden Helmut Lippelt, Halo Saibold, Christiane Schnappertz, Ursula Alverdes und Erich Knapp. Jan Kuhnert unterlag bei den Wahlen Bettina Hoeltje. Schatzmeisterin wurde Eva Reichelt. Damit war der Gründungsprozess mit der Wahl eines vollständigen Bundesvorstandes abgeschlossen. Nach seiner Niederlage auf dem Dortmunder Parteitag zog sich der konservative Flügel um Herbert Gruhl und Baldur Springmann aus der Partei zurück. Gruhl begründete seinen Austritt in einem Interview des NDR mit seiner Ablehnung der Basisdemokratie, die damals auch das Rotationsprinzip beinhaltete. Gruhl gründete daraufhin in München die konservative Ökologisch-Demokratische Partei (ÖDP), die jedoch oberhalb der kommunalen Ebene relativ bedeutungslos blieb. Nach den Parteitagen 1980 bildeten sich die kurzlebige Gruppe "Basisdemokratische undogmatische Sozialist/inn/en in den Grünen" (BUS) rund um Kuhnert, Ditfurth, Eckhard Stratmann-Mertens und andere. Die BUS verstand sich als ökologisch-basisdemokratisches Gegengewicht zum instrumentellen Partei-, Demokratie- und Ökologieverständnis der aus dem Kommunistischen Bund hervorgegangenen Gruppe Z. Die Gruppe Z hatte erfolgreich Bettina Hoeltje bei den Vorstandswahlen unterstützt. Die Mitglieder der BUS zerstreuten sich in der Phase bis 1990 unter die Ökosozialisten, Radikalökologen und Ökolibertären Letztlich hatten die Ökosozialisten sowohl programmatisch, als auch personell die Oberhand gewonnen und dominierten die Partei bis zu ihrem Auszug 1990. Erste Bundestagswahl (1980). Am 5. Oktober 1980 traten Die Grünen das erste Mal bei einer Bundestagswahl an, scheiterten aber mit enttäuschenden 1,5 Prozent der Zweitstimmen deutlich an der Fünf-Prozent-Hürde. Viele Anhänger der Grünen hatten noch die SPD mit Bundeskanzler Helmut Schmidt als „Kleineres Übel“ gewählt, um einen Kanzler Franz Josef Strauß von der CSU zu verhindern. Landtagswahlen und außerparlamentarische Aktionen (1980–1983). Nur gut zwei Monate nach der Parteigründung zogen die Grünen mit 5,3 Prozent in den Landtag von Baden-Württemberg ein, wo es ihnen verwehrt blieb, eine eigene Fraktion zu bilden, was man ihnen dann aber bei der nächsten Wahl zugestand, als sie mehr Mandate als die FDP erreichten. Im Saarland und in Nordrhein-Westfalen scheiterten grüne Listen kurz nach dem Erfolg von 1980 in Baden-Württemberg. Nach der enttäuschenden Bundestagswahl 1980 nahmen sie in Berlin, Niedersachsen, Hamburg, Hessen sowie bei einer Neuwahl wieder in Hamburg die Fünf-Prozent-Hürde deutlich, nur in Bayern verfehlten sie diese knapp. Die Gründungsphase der grünen Partei fiel mit dem Höhepunkt der Friedensbewegung zusammen. Im Dezember 1979 hatte der Bundestag dem NATO-Doppelbeschluss zugestimmt. 1983 wurde die Zahl der Aktivisten auf 300.000 bis 500.000 in etwa 4.000 Einzelinitiativen geschätzt. Die Friedensdemonstrationen wurden zu immer größeren Massenveranstaltungen: Am 10. Oktober 1981 demonstrierten 300.000 Menschen, am 10. Juni 1982, anlässlich des Besuchs des amerikanischen Präsidenten Ronald Reagan, 500.000 und am 22. Oktober 1983 wiederum eine halbe Million auf den Bonner Hofgartenwiesen gegen die Nachrüstung. Am gleichen Tag nahmen bundesweit etwa 1,3 Millionen Menschen an Aktionen gegen die Nachrüstung teil, darunter 200.000 an einer Menschenkette von Stuttgart nach Neu-Ulm. Auch die Ostermärsche mobilisierten in diesen Jahren regelmäßig Hunderttausende. Die Veranstaltung Künstler für den Frieden am 11. September 1982 im Bochumer Ruhrstadion besuchten 200.000 Menschen. Als der Bundestag am 22. November 1983 die Stationierung amerikanischer Mittelstreckenraketen in Deutschland diskutierte, wurde dies von weiteren Großdemonstrationen im Heißen Herbst begleitet, doch alle etablierten Parteien unterstützten den Wettrüstungskurs. Nach der Niederlage durch die Entscheidung des Bundestages verlor die Friedensbewegung rasch an Bedeutung. Im November 1981 begann der Bau der Frankfurter Startbahn West. Bei den Protesten kam es durch kleinere militante Gruppen von Autonomen zu extrem gewaltsamen Auseinandersetzungen mit der Polizei. Dies wiederholte sich unter anderem bei Demonstrationen gegen das Kernkraftwerk Brokdorf sowie gegen die geplante Wiederaufarbeitungsanlage Wackersdorf. Die Gewaltakte schadeten dem Ansehen der Umweltbewegung und die Unterstützung breiterer Bevölkerungsgruppen schwand zusehends. Die Grünen im Bundestag. 1 Ergebnis in den alten Bundesländern2 Ergebnis in den neuen Bundesländern Die erste Bundestagsfraktion (1983–1987). Am 17. September zerbrach die sozialliberale Koalition. Die Friedens- und die Umweltbewegung waren inzwischen Massenbewegungen geworden und brachten den Grünen einen starken Wählerzuwachs bei der vorgezogenen Bundestagswahl am 6. März 1983. Keine Rolle bei der Wahl spielten konkurrierende Umweltparteien. Die ÖDP trat nur in Bayern mit einer Landesliste an und erhielt lediglich rund 11.000 Stimmen. Mit 5,6 Prozent der Zweitstimmen gewannen die Grünen 28 Abgeordnetensitze. Damit schaffte zum ersten Mal seit Mitte der 1950er Jahre eine neu gegründete Partei den Sprung in den Bundestag. Mit dem Einzug der Grünen waren im Bundestag erstmals seit 1961 wieder vier Parteien vertreten. Mit dem Landesgeschäftsführer der Grünen Hessen Herbert Rusche zog der erste sich öffentlich bekennende schwule Bundestagsabgeordnete in den Bundestag ein. Im Oktober 1983 besuchten Petra Kelly, Otto Schily, Antje Vollmer, Gert Bastian, Dirk Schneider, Gustine Johannsen und Lukas Beckmann die DDR. Dabei unterzeichneten sie einen persönlichen Friedensvertrag mit Erich Honecker der beide Seiten verpflichten sollte, sich für den Beginn einseitiger Abrüstung im eigenen Land einzusetzen. Petra Kelly trug dazu einen Pullover mit dem Aufdruck "Schwerter zu Pflugscharen" und fragte Honecker, warum er in der DDR verbiete, was er im Westen unterstütze. Alternative Parteistrukturen. Als „Anti-Parteien-Partei“ und „grundlegende Alternative zu den herkömmlichen Parteien“, die die Vorgaben des Parteiengesetzes freilich einhalten musste, experimentierten die Grünen mit Parteistrukturen, die eine Funktionärskaste von Berufspolitikern verhindern sollte, wie sie die Grünen in allen etablierten Parteien kritisierten. Als „Bewegungspartei“ sollten die Grünen ausdrücklich nicht mehr sein als ein parlamentarisches Spielbein, während die außerparlamentarische Opposition das Standbein bleiben sollte. Die an einem latenten Antiparlamentarismus der Neuen Linken und grundsätzlicher Kritik an der repräsentativen Demokratie orientierte Basisdemokratie war für die Grünen der 1980er Jahre nicht nur eine gesamtgesellschaftliche Forderung, sondern sollte auch innerhalb der Grünen Partei vorgelebt werden. Deshalb sollten ihre politischen Repräsentanten stets an den Willen der dezentral organisierten Parteibasis rückgebunden sein und einer ständigen Kontrolle unterliegen. So wurde den Parlamentariern von der Parteibasis lediglich ein imperatives Mandat erteilt. Tatsächlich spielte das, verfassungsrechtlich nicht haltbare, imperative Mandat von Anfang an keine Rolle Alle Sitzungen, selbst die der Bundestagsfraktion, wurden zunächst öffentlich abgehalten. Entscheidungen sollten nach dem Konsensprinzip getroffen werden. Beide Prinzipien erwiesen sich nicht zuletzt aufgrund der Heterogenität der Grünen und ihrer Streitkultur als nicht durchzuhalten. Um Ämterhäufung und Machtkonzentration zu vermeiden, verfolgten die Grünen lange eine strikte Trennung von Amt und Mandat, die erst 2003 gelockert wurde. Statt eines Parteivorsitzenden gab es drei gleichberechtigte Vorstandssprecher. Konsequenterweise führten die Grünen lange Zeit keine personalisierten Wahlkämpfe. Zu den rigiden Vorbeugungsmaßnahmen gegen bürokratische Verkrustungen einer politischen Klasse gehörte, dass in den Anfangsjahren alle Parteiämter ehrenamtlich ausgeübt werden mussten. In Verbindung mit der Trennung von Amt und Mandat führte dies dazu, dass professionell arbeitende Politiker mit bezahlten Mitarbeitern in den Fraktionen einem unbezahlten, schlecht ausgestatteten und kaum in die parlamentarische Arbeit eingebundenen Parteivorstand gegenüberstanden. Da sich dieses Konzept als wenig tragfähig erwies, konnten seit 1987 Mitglieder des Bundesvorstandes eine Vergütung beantragen. Doch noch 1988 standen 24 Parteiangestellte etwa 200 Fraktionsmitarbeitern gegenüber, so dass die Parteivorstände notorisch im Schatten der Fraktionen standen. Ein Element zur Verhinderung professionalisierter parlamentarischer Eliten bestand darin, dass ein Großteil der Diäten an den Öko-Fonds der Partei abzuführen waren und anfangs nur ein einem Facharbeitergehalt entsprechender Betrag persönlich behalten werden durfte. Dieser betrug 1.950 plus 500 Mark für jede zu unterhaltende Person. Noch heute spielen die Mandatsträgerbeiträge bei den Grünen eine größere Rolle, als bei anderen Parteien und machten 2008 gut 20 Prozent der gesamten Einnahmen der Partei aus. Keine organisatorische Besonderheit der Grünen hat inner- wie außerhalb der Partei für so viel Diskussionen gesorgt, wie das nur wenige Jahre angewandte Rotationsprinzip. Abgeordnete hatten dem Beschluss einer Bundesversammlung von 1983 zufolge ihr Mandat bereits nach der Hälfte der Legislaturperiode für einen Nachrücker, der zuvor in einer Bürogemeinschaft mit dem gewählten Abgeordneten arbeitete, freizumachen. Schon in der ersten Wahlperiode nach dem Einzug in den Bundestag kam es zu verschiedenen Problemen bei der Handhabung des Rotationsprinzips. Petra Kelly und Gert Bastian weigerten sich zu rotieren, andere überließen widerwillig einer vermeintlichen oder tatsächlichen zweiten Garde die Abgeordnetenplätze. Ganz ähnlich verhielt es sich mit der ebenfalls eingeführten Rotation an der Parteispitze. Schon 1986 wurde die zweijährige durch eine vierjährige Rotation ersetzt. In der folgenden Legislaturperiode rotierten nur noch die Abgeordnete des Hamburger und des Berliner Landesverbands. Die langlebigste Neuerung war die Frauenquote auf alle Ämter und Wahllisten, um eine gleichberechtigte Teilhabe von Frauen in der Politik zu erreichen. Aufsehen erregte der am 3. April 1984 gewählte rein weibliche Vorstand der Bundestagsfraktion mit Annemarie Borgmann, Waltraud Schoppe, Antje Vollmer, Christa Nickels, Heidemarie Dann und Erika Hickel. Das Männer-Frauen-Verhältnis lag in der 10. Legislaturperiode bei 18:10. In sämtlichen späteren grünen Fraktionen gab es mehr Frauen als Männer. Viele der parteiinternen Experimente der Grünen wurden rasch wieder fallengelassen oder stark relativiert. Schnell hatte sich gezeigt, dass die Basisdemokratie statt einer Elite von Berufspolitikern informelle Eliten der verschiedenen Strömungen begünstigte, die der innerparteilichen Kontrolle weitgehend entzogen war. Zudem bildete sich durch die gewollte amateurhafte Parteistruktur eine so nicht beabsichtigte Schicht besonders aktiver Mitglieder heraus, die über ausreichend Zeit und finanzielle Unabhängigkeit verfügte. Dazu gehörten neben Mitarbeitern des öffentlichen Dienstes Studenten und nicht zuletzt arbeitslose Akademiker. Gesellschaftspolitische Diskussionen. Der Erfolg der Grünen führte zu heftigen gesellschaftspolitischen Diskussionen, denn von den etablierten gesellschaftlichen Kräften wurde er als Angriff und Gefahr für das bestehende System gesehen. Die Grünen mussten sich nicht nur des Vorwurfes erwehren, deutschlandfeindlich und systemkritisch zu sein. Vielmehr wurde ihnen ein gespaltenes Verhältnis zum Gewaltmonopol des Staates sowie eine Nähe zum Terrorismus der Rote Armee Fraktion in den 1970er Jahren unterstellt. Angeführt wurde beispielsweise der Umstand, dass Otto Schily und Christian Ströbele als profilierte Strafverteidiger in den 1970er Jahren Terroristen verteidigt hatten. Ein Nachhall dieser Fragen erfolgte 2001, als Joschka Fischer seine Vergangenheit als Frankfurter Straßenkämpfer vorgeworfen wurde und versucht wurde, daraus politisches Kapital zu schlagen. Im Zuge der Landtagswahl 1985 kam in Nordrhein-Westfalen ein sogenannter „Kindersexskandal“ in die Schlagzeilen. Eine Arbeitsgruppe des Landesverbandes forderte eine Streichung des Sexualstrafrechtes (inkl. § 176 StGB), dies wurde in einem Beschluss mit 76:53 Stimmen angenommen und kam in eine erste Version des Wahlprogramms der Grünen. Flügelkämpfe 1983–1989. Seit dem Auszug der bürgerlichen Kräfte 1980/81 dominierten die Ökosozialisten die Partei. Neben der an den Rand gedrängten bürgerlichen Strömung bildete sich besonders in Baden-Württemberg 1983 eine Gruppe sogenannter Ökolibertärer, die anthroposophisch und humanistisch geprägt waren. Die Ökolibertären lehnten zwar blinde Fortschrittsgläubigkeit ab, hielten aber das Wirtschaftssystem der Bundesrepublik für reformierbar, befürworteten das parlamentarische System der Bundesrepublik und wollten möglichst wenig Staatseingriffe. Sie sprachen sich bereits in den 1980er Jahren für Koalitionen mit der CDU aus. Ihre wichtigsten Protagonisten waren Wolf-Dieter Hasenclever und Winfried Kretschmann. Als noch kontroverser erwies sich jedoch seit der ersten rot-grünen Koalition in Hessen 1983 der erbittert geführte Streit um die eigene Stellung zum bundesrepublikanischen System und insbesondere um eine grüne Regierungsbeteiligung. Jenseits des Links-Rechts-Schemas vertraten dabei die sogenannten „Fundis“ (abgeleitet von Fundamentalisten) im Wesentlichen eine radikal systemkritische Position und lehnten Kompromisse mit den etablierten Parteien und damit auch mögliche Regierungsbeteiligungen ab. Unter den Fundis zielten die Radikalökologen auf eine Überwindung des Systems durch Deindustrialisierung ab. Die Nuklearkatastrophe von Tschernobyl vom 26. April 1986 und der Bruch der hessischen Koalition im Februar 1987 beförderten die Strömung der Fundis, was sich unter anderem in einer stärkeren Repräsentanz im dreiköpfigen Bundesvorstand niederschlug. Die in der Bundestagsfraktion und in den meisten Landtagsfraktionen dominierenden „Realos“ (abgeleitet von Realpolitikern) strebten dagegen zunehmend Arrangements mit den Etablierten Parteien und mögliche Koalitionen an, um Reformen im Sinne grüner Politik auch in Ansätzen durchzusetzen, wofür sie auch verstärkt zu Kompromissen bereit waren. Vordenker der Flügel waren Joschka Fischer sowie Hubert Kleinert auf der Seite der Realos und Jutta Ditfurth auf Seite der Fundis. Die beiden Flügel erwiesen sich als annähernd gleich stark und drohten zunehmend, sich gegenseitig zu blockieren oder gar die Partei zu spalten, da aus den Sachfragen immer mehr Machtfragen wurden. Das wirkungsvollste Bindeglied der widersprüchlichen Strömungen war letztlich die Fünf-Prozent-Sperrklausel des bundesdeutschen Wahlrechts, denn beide Parteiflügel mussten fürchten, nicht stark genug zu sein, um diese alleine überwinden zu können. 1988 versuchte eine „Grüner Aufbruch“ genannte Gruppe um Antje Vollmer, Ralf Fücks und Christa Nickels über die das Medienbild der Grünen beherrschenden Flügelkämpfe hinweg eine gemeinsame grüne Politik zu betreiben und zu vermitteln. Nach einem ergebnislosen Perspektivkongress, der zu einem Kompromiss zwischen den politischen Vorstellungen der verschiedenen Strömungen hätte führen sollen, bildete sich mit dem „Linken Forum“ um Ludger Volmer, Jürgen Reents und Eckart Stratmann eine weitere innerparteiliche Richtung. Dieses stimmte inhaltlich weitgehend mit den Ökosozialisten überein, da sie ein kapitalistisches Wirtschaftssystem letztlich für unvereinbar mit ökologischem Wirtschaften hielten, strategisch befürworteten sie aber Regierungsbeteiligungen wie die Realos. Noch im Dezember 1988 schloss zudem der Grüne Aufbruch ein Bündnis mit den Realos, verhalf aber im Januar 1989 dem Ökosozialisten Thomas Ebermann zur Wahl als einer der Sprecher der Bundestagsfraktion gegen den Realo Otto Schily. Im November 1989 zog Schily die Konsequenz aus den sich hinziehenden Auseinandersetzungen um Vorwürfe wie Profilierungssucht und Berufspolitikertum. Er trat aus der Partei aus und wechselte zur SPD. Erste rot-grüne Koalitionen auf Landesebene (1985–1990). Auf landespolitischer Ebene hatte es 1982 in Hamburg Verhandlungen zwischen der SPD und der Grün-Alternativen Liste gegeben, die jedoch weder zu einer politischen Zusammenarbeit noch zu einer Koalitionsregierung beider Parteien führten. In Hessen kam es dagegen ab Juni 1984 zur Tolerierung einer SPD-Minderheitsregierung durch die Grünen. Im September 1984 bot Oskar Lafontaine, der Ministerpräsident des Saarlands, als erster SPD-Spitzenpolitiker den Grünen eine Koalition für den Fall an, dass es nach der Landtagswahl eine entsprechende rechnerische Mehrheit gäbe. Da die Grünen deutlich an der Fünf-Prozent-Hürde scheiterten und die SPD mit absoluter Mehrheit in den Landtag einzog, kam es dazu jedoch nicht. Ebenfalls 1984 kam es zu Erfolgen bei der Europawahl und zu ersten Formen von Zusammenarbeit mit der SPD auf kommunaler Ebene. Am 12. Dezember 1985 wurde in Hessen die – nicht nur in Deutschland – erste rot-grüne Koalition besiegelt. Joschka Fischer wurde Umweltminister. Bekannt wurde er als sogenannter Turnschuh-Minister, da er bei seiner Vereidigung am 12. Dezember 1985 in Turnschuhen erschien. Bereits nach 452 Tagen, am 9. Februar 1987 zerbrach die Koalition an dem Streit über die Genehmigung für das Hanauer Nuklearunternehmen Alkem. 1984 hatten die Grünen das Haus Wittgenstein in Roisdorf bei Bonn erworben, um dort eine "Zukunftswerkstatt" als Zentrum für eine neue politische Kultur einzurichten. Bei dem dazu erforderlichen Umbau kam es zu steuerlichen Unregelmäßigkeiten. Auf einer außerordentlichen Bundesversammlung in Karlsruhe im Dezember 1988 sprach sich die Mehrheit der Delegierten wegen der Unregelmäßigkeiten für den Rücktritt des Bundesvorstandes aus, der die Vorwürfe nicht hatte ausräumen können. Daraufhin traten die drei Parteisprecher Jutta Ditfurth, Regina Michalik und Christian Schmidt von ihren Ämtern zurück. Nach der Berliner Abgeordnetenhauswahl vom 29. Januar 1989 kam es zu einer zweiten rot-grünen Koalition in Berlin. Diese brach am 15. November 1990 auseinander, weil der damalige Innensenator Erich Pätzold (SPD) die Räumung besetzter Häuser in der Mainzer Straße veranlasst hatte. Mit besonderer Aufmerksamkeit wurde der Senat Momper beobachtet, weil in seine Amtszeit der Fall der Berliner Mauer fiel. Die zweite Bundestagsfraktion (1987–1990). Die Flügelkämpfe verhinderten nicht den weiteren bundespolitischen Erfolg. Unter einem von Fundis beherrschten Bundesvorstand mit Jutta Ditfurth und Rainer Trampert erreichten die Grünen bei der Bundestagswahl am 25. Januar 1987 mit 8,3 Prozent der Zweitstimmen insgesamt 44 Mandate. Auch in Hessen legten die Grünen weiter zu. Am 25. April 1987 durchsuchte die Polizei die Geschäftsstelle in Bonn und beschlagnahmte Flugblätter zum Boykott der Volkszählung sowie am 30. April wegen des Aufrufs zum Boykott auch die Geschäftsstellen in München und Trier. Mit dem 3. Oktober 1990 und der Auflösung der Volkskammer wurden sieben benannte Mitglieder der Volkskammerfraktion Bündnis 90/Grüne Mitglieder der grünen Bundestagsfraktion. Die Bürgerbewegung in der DDR bis zu den ersten Landtagswahlen (1989/1990). Das Bündnis 90 hatte seine Wurzeln in der Friedens- und Bürgerrechtsbewegung der DDR. Es wurde 1990 zunächst als Listenvereinigung der Bürgerbewegungen Neues Forum, Demokratie Jetzt, Initiative Frieden und Menschenrechte zur ersten freien Volkskammerwahl gebildet und gründete sich 1991 als eigenständige Partei, die große Teile der drei Bürgerbewegungen vereinigte. Zwischen Mitgliedern der Grünen wie beispielsweise Petra Kelly und oppositionellen Gruppen in der DDR hatte es bereits vor der Wende Kontakte gegeben. Diese führten nach der Wende zur Zusammenarbeit von Bürgerbewegungen und Grünen. Wenige Tage nach dem Fall der Mauer, am 24. November 1989, gründete sich die Grüne Partei in der DDR. Bei der Volkskammerwahl am 18. März 1990, bei der es keine Sperrklausel gab, entfielen auf das Bündnis 90 2,9 Prozent, auf die Listenverbindung der Grünen und des Unabhängigen Frauenverbandes 2,0 Prozent. Dieses Ergebnis musste enttäuschen, waren im Bündnis 90 doch die meisten der Kräfte vereinigt, die am Zusammenbruch des SED-Regimes maßgeblich mitgewirkt hatten. Dem Wunsch der Bevölkerung nach einer möglichst raschen und reibungslosen Vereinigung sowie dem professionellen, wesentlich über die bundesdeutschen Medien ausgetragenen Wahlkampf der westlichen Parteiapparate, die sich auch noch auf die übernommenen Strukturen, teilweise auf das Personal sowie auf das Vermögen der ehemaligen Blockparteien stützten, hatte das Bündnis 90 außer der hohen Reputation seiner Protagonisten letztlich wenig entgegenzusetzen. Elf Tage nach der deutschen Vereinigung, am 14. Oktober 1990, fanden die ersten Landtagswahlen statt. Das Bündnis 90 und die Grünen zogen in vier der fünf Landesparlamente ein. In Brandenburg erreichten sie zusammen 12 Prozent. Allerdings verfehlten die Grünen mit 2,8 den Einzug in das Parlament. Das Bündnis 90 bildete dagegen mit SPD und FDP eine Regierungskoalition. Matthias Platzeck, der später zur SPD wechselte und Ministerpräsident wurde, und Marianne Birthler, später Bundesbeauftragte für die Unterlagen des Staatssicherheitsdienstes der ehemaligen Deutschen Demokratischen Republik, übernahmen die Ressorts für Umwelt, Naturschutz und Raumordnung bzw. für Bildung, Jugend und Sport. In Mecklenburg-Vorpommern erzielten Grüne, Neues Forum und Bündnis 90 zwar insgesamt 9,3 Prozent, da sie hier aber in Erwartung höherer Stimmanteile jeweils alleine antraten, scheiterten alle drei an der Fünf-Prozent-Hürde. West-Grüne von der Wiedervereinigung überrascht. Für die Mehrheit der Grünen gab es vor dem Mauerfall keine Deutsche Frage. Die Zweistaatlichkeit wurde noch bis zur Volkskammerwahl 1990 nicht in Frage gestellt und am 14. November 1989 rief der Bundesvorstand die Bundesregierung dazu auf, die DDR völkerrechtlich anzuerkennen und damit die Zweistaatlichkeit festzuschreiben. Einer Wiedervereinigung stand man auch dann noch skeptisch bis ablehnend gegenüber, als klar war, dass diese kommen würde. Im März 1990 lautete nach längerer Debatte der Minimalkonsens innerhalb der Bundestagsfraktion, dass die Grundlagen für ein Festhalten an der Zweistaatlichkeit entfallen seien, aber ein „Nationalstaat kein wünschenswertes Ordnungsprinzip für die beiden deutschen Staaten“ sei. Auf der Bundesversammlung Ende März 1990 nahm die Partei Abschied von der Zweistaatlichkeitsposition. Stattdessen wollte man sich aktiv in den Einheitsprozess einmischen und sich dabei für Entmilitarisierung, ökologischen Umbau und eine breite Verfassungsdiskussion über eine neue gesamtdeutsche Verfassung einsetzen. Die Währungs-, Wirtschafts- und Sozialunion wurde von den Grünen als „Vollzug der Unterwerfung“ kritisiert. Auf dem Dortmunder Parteitag im Juni 1990 bekräftigten die Grünen diese ablehnende Haltung. Die Währungsunion sei ein „Dokument der Einverleibung“ und des „bloßen Anschlusses der DDR an die BRD“. Ebenso wurde der Einigungsvertrag abgelehnt. Hans-Christian Ströbele bezeichnete ihn auf dem Bayreuther Parteitag im September 1989 als „größte Landnahme der deutschen Industrie seit den Kolonialkriegen, sieht man mal von der Nazi-Zeit ab“. Bundestagswahl 1990: West-Grüne scheitern, Bündnis 90 wird Bundestagsgruppe. Gemeinsame Pressekonferenz der Grünen aus Ost und West 1990 Bei der Bundestagswahl am 2. Dezember 1990 warb die Partei mit dem Slogan „Alle reden von Deutschland. Wir reden vom Wetter“ und verfehlten damit die öffentliche Debatte völlig. Da die Stimmen bei dieser Wahl in den alten Bundesländern mit dem ehemaligen West-Berlin und in den neuen Bundesländern einschließlich Ost-Berlins in getrennten Wahlgebieten ausgezählt wurden, scheiterten die Grünen mit 4,8 Prozent im Westen an der Fünf-Prozent-Hürde. Die einmalig für diese Bundestagswahl geltende Sonderregelung war erst sechs Wochen vor der Wahl nach einer Klage vor dem Bundesverfassungsgericht durchgesetzt worden. Geklagt hatten die Grünen, da die Grünen sich im Unterschied zu den anderen Parteien noch nicht mit ihren politischen Verbündeten in Ostdeutschland, den neu entstandenen Bürgerbewegungen, vereinigt hatten. Nun waren sie die einzigen, denen die Regelung den Einzug in den Bundestag verbaute. Bei einer gesamtdeutschen Zählung hätte das Ergebnis für Grüne und Bündnis 90 bei 5,1 Prozent gelegen, so dass beide zusammen in Fraktionsstärke in den Bundestag eingezogen wären. Immerhin profitierte das Bündnis 90 davon, dass aufgrund des Urteils in Ostdeutschland auch Listenvereinigungen zur Wahl antreten konnten und so auf 6,0 Prozent kam. Da das Bündnis 90 mit acht Abgeordneten weniger als fünf Prozent der Bundestagsmandate stellte, erhielt es nicht den Status einer Fraktion, sondern den einer Bundestagsgruppe. Diese versuchte im Bundestag, die Vereinigung als echten Neubeginn zu gestalten. Vergeblich beantragte sie die Errichtung eines Verfassungsrates sowie die Zählung der Legislaturperioden des Bundestages neu zu beginnen, um der historischen Situation in Deutschland Rechnung zu tragen. Eine neue Verfassung hätte nach Vorstellungen des Bündnis 90 unter anderem dem Datenschutz, der Frauengleichstellung und Diskriminierungsverboten für Homosexuelle und Behinderte Verfassungsrang eingeräumt. Besonderes Augenmerk legten die Bürgerrechtler des Bündnis 90 auf die Aufarbeitung der DDR-Geschichte. Auf ihren Gesetzesentwurf von 1991 geht das Stasi-Unterlagen-Gesetz zurück. Joachim Gauck wurde Bundesbeauftragter für die Unterlagen des Staatssicherheitsdienstes der ehemaligen Deutschen Demokratischen Republik. Im Oktober 2000 wurde Marianne Birthler seine Nachfolgerin. Beide gehörten der Bundestagsgruppe von Bündnis 90 an. Reorganisation der Grünen und Auszug des linken Flügels (1990–1993). Die Wahlniederlage war ein Schock für die Partei und es wurde für möglich gehalten, dass sie das Ende der Grünen bedeuten würde. Die Parteilinken hatten sich mit ihrem gegenüber der Wiedervereinigung kritischen Kurs bei der Wahlkampfstrategie durchgesetzt – nun wurden sie verantwortlich gemacht für das Debakel. Zudem schwelte noch immer der Konflikt über das Selbstverständnis der Partei inklusive der offenen Machtfrage. Auf dem Bundesparteitag im April 1991 in Neumünster wurden die Konsequenzen diskutiert. Erstmals bekannten sich die Grünen zur parlamentarischen Demokratie und definierten sich als Reformpartei. Die Parteistrukturen wurden professionalisiert, so wurde beschlossen, die Parteisprecher in Zukunft zu bezahlen. Systemoppositionelle Schlagworte, wie das von der „Anti-Parteien-Partei“, wurden aus dem Programm genommen. Auf die realpolitische Wende folgte eine Austrittswelle linker Grüner. Jutta Ditfurth gründete die Partei Ökologische Linke, die jedoch bedeutungslos blieb. Sie gab die neue Zeitschrift „Ökolinx“ heraus und setzte sich in verschiedenen Publikationen äußerst kritisch mit der weiteren Entwicklung der Grünen und Teilen der neuen sozialen Bewegungen auseinander. Zur PDS wechselten unter anderen Jürgen Reents, Harald Wolf und die später als langjährige inoffizielle Mitarbeiter des Ministeriums für Staatssicherheit enttarnten Dirk Schneider und Klaus Croissant. Andere linke Protagonisten wie Rainer Trampert, Thomas Ebermann, Christian Schmidt, Verena Krieger oder Regula Schmidt-Bott traten aus den Grünen aus, ohne sich einer anderen Partei anzuschließen. Verschiedene, sich teilweise gegenseitig beeinflussende Faktoren sorgten also 1990/91 für eine deutliche programmatische, personelle und strategische Verschiebung zugunsten der Realos: Die verlorene Bundestagswahl erhöhte den Druck zu einer Professionalisierung, der Zusammenbruch der realsozialistischen Staaten hatte linke Utopien diskreditiert, mit dem Auszug zahlreicher Ökosozialisten und Radikalökologen war diese Strömung extrem geschwächt und schließlich erwuchs mit der PDS erstmals Konkurrenz links der Partei. Zur Stärkung der Realos trugen ab 1993 auch die Mitglieder des ostdeutschen Partners Bündnis 90 bei, das überwiegend aus unideologischen Pragmatikern bestand und deren Bundestagsgruppe stärker im Fokus stand, als die abgewählten Grünen. In den Ländern wurde der realpolitische Kurs 1990/91 durch drei Regierungsbeteiligungen in Niedersachsen, Hessen und Bremen bekräftigt. Zusammenschluss von Bündnis 90 und Grünen (1993). Die ostdeutschen Grünen, die sich für die Bundestagswahl 1990 an der Listenverbindung "Bündnis 90/Grüne – BürgerInnenbewegung" beteiligten und mit zwei Abgeordneten im Bundestag vertreten war, vereinigten sich mit ihrer westdeutschen Schwesterpartei am 3. Dezember 1990, dem Tag nach der ersten gesamtdeutschen Bundestagswahl. Erst am 21. September 1991 gründete sich das Bündnis 90 formell als Partei, wobei nur etwa die Hälfte der Mitglieder des Neuen Forums der neuen Partei beitrat. Eine Woche später vereinigten sich die Bürgerbewegungen und die Grünen in Sachsen zur Partei "Bündnis 90/Die Grünen in Sachsen". Diese sächsische Partei sah sich als Vorreiter einer bundesweiten Vereinigung von Bürgerbewegungen und Grünen. Zwei in Berlin stattfindende Bundesdelegiertenkonferenzen beschlossen schließlich Anfang bzw. Mitte Mai 1992 die Aufnahme von Verhandlungen beider Parteien zum Zwecke einer Zusammenschließung; die Verhandlungen begannen im Juni 1992. Am 23. November 1992 wurde schließlich der Assoziationsvertrag unterzeichnet, der am 17. Januar 1993 in Hannover auf zwei gleichzeitig stattfindenden Bundesversammlungen angenommen wurde. Nachdem Urabstimmungen im April 1993 auf beiden Seiten deutliche Mehrheiten zu Gunsten der Vereinigung erbrachten, wurde der Assoziationsvertrag am 14. Mai 1993 während des Vereinigungsparteitages in Leipzig in Kraft gesetzt. Einige Mitglieder von Bündnis 90 verließen aus Kritik an der Vereinigung die Partei, darunter Matthias Platzeck (ging zur SPD), Günter Nooke (ging zur CDU). Um zu demonstrieren, dass der kleinere Partner aus dem Osten (zur Zeit der Vereinigung etwa 2.600 Mitglieder) nicht einfach der zahlenmäßig übermächtigen West-Partei (etwa 37.000 Mitglieder) einverleibt werden sollte, wurde der Name Bündnis 90 vorangestellt. Dem Mitspracherecht von Bündnis 90 wurde versucht Rechnung zu tragen, indem Ost-Quoten für Bundesgremien geschaffen wurden – was wiederum Ost-Grüne der ersten Stunde als Affront verstanden. Obwohl die Ostdeutschen in den Parteigremien formal überrepräsentiert waren und dem Bündnis 90 durch die Bundestagsgruppe besonderes Gewicht zukam, zeigte sich doch bald, dass die etablierten Politiker aus dem Westen das Sagen in der Partei hatten. Hinzu kam, dass die meist wertkonservativen ostdeutschen Bürgerrechtler von der Diskussions- und Streitkultur der überwiegend linken westdeutschen Alternativen befremdet waren. Einige prominente Mitglieder verließen im Laufe der folgenden Jahre die Partei und suchten eine neue politische Heimat oder zogen sich ganz aus der Politik zurück. Bereits 1990 strebte der damalige ÖDP-Vorsitzende Hans-Joachim Ritter ein Zusammengehen mit den Grünen und dem Bündnis 90 an, das allerdings nicht zustande kam. Während Teile des Bündnis 90 der ÖDP aufgeschlossen gegenüberstanden, scheiterte das Dreierbündnis am Widerstand der westdeutschen Grünen. Wahlen und Regierungsbeteiligungen 1990–1994. In den Ländern zeigte sich bald, dass der Untergang der Grünen Partei nach der Bundestagswahl 1990 voreilig prognostiziert worden war. In Niedersachsen hatte nach den Landtagswahlen im Mai 1990, also bereits einige Monate vor der Bundestagswahl, eine rot-grüne Koalition unter Gerhard Schröder die bisherige schwarz-gelbe Regierung abgelöst, in der Jürgen Trittin Minister für Bundes- und Europaangelegenheiten und Waltraud Schoppe Frauenministerin wurden. Anfang 1991 kam es in Hessen zu einer Neuauflage der rot-grünen Koalition, in der Joschka Fischer erneut Umweltminister wurde. In Bremen kamen die Grünen im September 1991 auf 11,4 Prozent und bildeten mit SPD und FDP die erste Ampelkoalition. In Baden-Württemberg erwog Ministerpräsident Teufel als erster hochrangiger Unionspolitiker eine schwarz-grüne Koalition, zu der es dann allerdings trotz rechnerischer Möglichkeit nicht kam. Bis auf Schleswig-Holstein, das Saarland, Mecklenburg-Vorpommern und Brandenburg, wo jedoch Bündnis 90 an der Regierung beteiligt war, waren die Grünen Anfang der 1990er Jahre in allen Landesparlamenten vertreten. In Schleswig-Holstein scheiterten die Grünen dabei 1992 mit 4,97 Prozent an lediglich 398 Stimmen. Die Vereinigung von Grünen und Bündnis 90 sowie insbesondere der Auszug des linken Parteiflügels brachte bei den folgenden Landtagswahlen im Westen deutliche Gewinne. In Hamburg verbesserte sich die GAL im September 1993 um 6,3 Prozentpunkte auf 13,5 Prozent. In Niedersachsen schieden die Grünen zwar im März 1994 aus der Landesregierung aus, dies aber nur, weil die SPD die absolute Mehrheit erzielte. Sie selbst legten um 1,4 Prozentpunkte zu. Die Europawahl 1994 brachte mit 10,1 Prozent erstmals ein zweistelliges Wahlergebnis auf Bundesebene. In Ostdeutschland zeigte sich jedoch, dass dort die Vereinigung mit den West-Grünen ein wesentliches Identitätsproblem gebracht hatte. Zwischen Juni und Oktober 1994 wurde Bündnis 90/Die Grünen mit herben Verlusten aus vier der fünf ostdeutschen Landesparlamenten herausgewählt. Nur in Sachsen-Anhalt schaffte die Partei mit 5,1 Prozent denkbar knapp den Einzug in den Landtag und beteiligte sich an einer höchst umstrittenen rot-grünen Minderheitsregierung unter Tolerierung der PDS, dem sogenannten Magdeburger Modell. Die Bundestagsfraktion 1994–1998. Bei der Bundestagswahl 1994 errang die inzwischen gesamtdeutsche Partei Bündnis 90/Die Grünen mit 7,3 Prozent insgesamt 49 Mandate im wegen der Wiedervereinigung vergrößerten Bundestag. Joschka Fischer gab sein hessisches Ministeramt auf und wurde zusammen mit Kerstin Müller Fraktionssprecher. Mit Antje Vollmer stellten die Grünen zum ersten Mal eine Bundestagsvizepräsidentin. Vor der Wahl wurden Bedingungen für eine mögliche Koalition mit der SPD festgelegt. Bereits seit November 1994 zeichnete sich ein Konfliktfeld an, das die innerparteiliche Debatte der kommenden Jahre bestimmen sollte. Gerd Poppe forderte als außenpolitischer Sprecher der neuen Bundestagsfraktion militärische Einsätze in Jugoslawien. Das Massaker in der UN-Schutzzone Srebrenica im Juli 1995 markiert in dieser Auseinandersetzung eine Wende, ohne dass es zu einer einheitlichen Position der Partei gekommen wäre. In der Abstimmung über die NATO-Osterweiterung im März 1998 stimmten 14 Grüne mit Ja, sechs mit Nein und 25 enthielten sich. Wahlen und Regierungsbeteiligungen auf Landesebene 1994–1998. 1995 und 1996 erzielten die Grünen in Hessen, Bremen, Nordrhein-Westfalen, Berlin und Baden-Württemberg, also auch in drei Flächenländern, zweistellige Ergebnisse. Dadurch wurde in Hessen erstmals eine rot-grüne Regierung durch die Wähler bestätigt. In den bisherigen grünen Problemländern Nordrhein-Westfalen und Schleswig-Holstein kam es ebenfalls zu Koalitionen mit der SPD. Im September 1997 erreichten sie in Hamburg mit 13,9 Prozent ihr für lange Zeit bestes Ergebnis auf Landesebene. Auch hier kam es zu einer Regierung mit der SPD. Zu diesem Zeitpunkt waren die Grünen an fünf Landesregierungen beteiligt, allerdings wurde diejenige in Sachsen-Anhalt im April 1998 abgewählt. Am Ende der Bundestagslegislaturperiode war Bündnis 90/Die Grünen in allen westdeutschen, aber in keinem ostdeutschen Landtag vertreten. Die Partei war zu einer reinen Westpartei geworden. Vorgeschichte (bis 1988). Vor der Gründung des GAJB unterhielt die Bundespartei eine Bundesjugendkontaktstelle, die als Koordinationsstelle für eine lose Vernetzung junger Mitglieder und Sympathisanten der Partei Die Grünen diente. Relativ unabhängig von den Grünen formierte sich dann Ende der 1980er Jahre ein Netzwerk grüner, alternativer, bunter und autonomer Jugendgruppen, das sich "GA-BA-Spektrum" nannte. Grüne Kreise kommentierten den Zusammenschluss damals kritisch. Zu nennenswerten politischen Initiativen des Netzwerks kam es nach zwei Bundeskongressen 1987 nicht. GAJB und GRÜNE JUGEND. 1994 wurde in Hannover die bundesweite Jugendorganisation Grüne Jugend, damals noch unter dem Namen "Grün-Alternatives Jugendbündnis", gegründet. Die damals den Grünen noch nahestehenden Jungdemokraten bekamen somit Konkurrenz. Landesverbände existierten seit 1991. Die Grüne Jugend wurde 2001 eine Teilorganisation der Partei. Heinrich-Böll-Stiftung. 1996/97 wurden die drei bis dahin im Stiftungsverband Regenbogen zusammengeschlossenen, aber eigenständigen Parteistiftungen Buntstift (Göttingen), Frauen-Anstiftung (Hamburg) und Heinrich-Böll-Stiftung (Köln) zur heutigen Heinrich-Böll-Stiftung vereinigt. In der Buntstift-Föderation waren die verschiedenen Stiftungen der grünen Landesverbände organisiert. Hatten in den 1980er Jahren die Grünen die Parteistiftungen anderer Parteien noch heftig bekämpft, so änderte sich ihr Kurs, nachdem sie vor dem Bundesverfassungsgericht mit einer Klage scheiterten. Gründe für die Kritik an den politischen Stiftungen waren und sind die mangelnde Transparenz ihres Wirkens als nicht unabhängige, sondern parteigebundene Stiftungen und vor allem das Problem ihrer Finanzierung, denn sie erhalten – bei weniger Kontrolle und Transparenz – viel mehr staatliche Mittel als die Parteien selbst. Nach der Niederlage vor Gericht gingen die Grünen den Weg, ebenfalls an den Vorteilen von Stiftungen teilzuhaben, anstatt diesen Vorteil nur den etablierten Parteien zu belassen. Wahlkampf und Regierungsbildung. In dem Lagerwahlkampf zur Bundestagswahl 1998 standen als Alternativen die Fortsetzung der schwarz-gelben Koalition oder das „Generationsprojekt“ der rot-grünen Koalition gegenüber. Aufgrund der guten Wahlergebnisse der jüngeren Zeit und der spürbaren Wechselstimmung in Deutschland nach 16 Jahren Kohl-Regierung gingen die Grünen siegesgewiss in den Wahlkampf. Die Regierungsfähigkeit der Grünen wurde jedoch nach ihrer Bundesdelegiertenkonferenz am 8. Mai 1998 in Magdeburg massiv in Frage gestellt. Die Berichterstattung der Medien konzentrierte sich auf den sogenannten Fünf-Mark-Beschluss, demzufolge bei einer grünen Regierungsbeteiligung der Benzinpreis durch eine deutliche Erhöhung der Mineralölsteuer schrittweise auf 5 DM pro Liter angehoben werden sollte. Dass sich die Fünf-Mark-Forderung im endgültigen Wahlprogramm nicht mehr fand, konnte das geweckte öffentliche Misstrauen nur teilweise beschwichtigen. 6,7 Prozent am Wahlabend, dem 27. September 1998, waren denn auch ein eher bescheidenes Ergebnis gemessen an denen der letzten Jahre bei Landtagswahlen. Gegenüber der letzten Bundestagswahl verloren die Grünen leicht um 0,6 Prozentpunkte. Trotzdem reichte es für eine Mehrheit mit der auf 40,9 Prozent verbesserten SPD. Ende Oktober wurden die Koalitionsverhandlungen abgeschlossen und dem Ergebnis von einer Bundesdelegiertenkonferenz zugestimmt. Am 27. Oktober wurden Joschka Fischer als Außenminister, Andrea Fischer als Gesundheitsministerin und Jürgen Trittin als Umweltminister vereidigt. Fischer wurde zudem Vizekanzler. Die Fraktion wurde von Kerstin Müller und Rezzo Schlauch geführt, parlamentarische Staatssekretäre wurden Ludger Volmer (Außenministerium), Christa Nickels (Gesundheit), Simone Probst, Gila Altmann (beide Umwelt) und Uschi Eid (wirtschaftliche Zusammenarbeit und Entwicklung). Nach dem BSE-Skandal im Januar 2001 kam es zu einer Kabinettsumbildung: Andrea Fischer trat zurück und wurde durch die SPD-Politikerin Ulla Schmidt ersetzt, dafür beerbte die bisherige grüne Bundesvorstandssprecherin Renate Künast den Landwirtschaftsminister Funke (SPD). Christa Nickels schied als Staatssekretärin aus dem Kabinett aus, dafür traten Matthias Berninger (Verbraucherschutz, Ernährung und Landwirtschaft) und Margareta Wolf (Wirtschaft und Technologie) ein. Kosovokrieg, Einsatz in Afghanistan, Irakkrieg (1999, 2001, 2002). Bundesaußenminister Joschka Fischer in Banda Aceh (2005) Nur sechs Monate nach dem Regierungsantritt, am 24. März 1999, begann der Kosovokrieg. Die rot-grüne Regierung trug diesen nicht nur mit, sondern war mit Bundeswehreinheiten unmittelbar daran beteiligt. Besondere Verantwortlichkeit kam dabei dem grünen Außenminister Fischer zu. Zu einer erneuten Zerreißprobe kam es durch den Krieg in Afghanistan ab 2001. Aufgrund der uneindeutigen Haltung der grünen Bundestagsfraktion sah sich Kanzler Schröder genötigt, die Vertrauensfrage zu stellen und diese mit der Abstimmung über die Beteiligung der Bundeswehr am Krieg in Afghanistan zu verbinden. Acht Grüne, die ursprünglich gegen den Einsatz der Bundeswehr stimmen wollten, teilten ihre Stimmen in vier Ja- und vier Nein-Stimmen auf, um die Koalition nicht scheitern zu lassen. Über die Zulässigkeit und die Redlichkeit eines solchen, mit einer Sachfrage verbundenen Vertrauensantrags entwickelte sich innerhalb der bündnisgrünen Partei, wie auch in der Öffentlichkeit eine heftige Diskussion. Zum dritten Mal musste die rot-grüne Koalition vor Ausbruch des Irakkriegs über einen Kampfeinsatz der Bundeswehr entscheiden. In diesem Fall verweigerte die Bundesregierung eine Kriegsteilnahme an der Seite der USA als Teil der sogenannten Koalition der Willigen. Die bedingungslose Ablehnung des Irakkriegs war maßgeblich auf den grünen Koalitionspartner zurückzuführen und trug wesentlich zu dem lange Zeit nicht erwarteten Wahlsieg bei der Bundestagswahl 2002 bei. Grüne Akzente in der Bundesregierung. Renate Künast, Bundesministerin für Verbraucherschutz, Ernährung und Landwirtschaft 2001–2005. In der Legislaturperiode 1998–2002 wurden unter anderem die Ökosteuer (allerdings in einer gegenüber grünen Vorstellungen reduzierten Form), einige Reformen des Staatsbürgerschaftsrechts bezüglich der Erleichterung von Einwanderung, die Möglichkeit eingetragener Lebenspartnerschaften, der langfristige Ausstieg aus der Atomenergie, das 100.000-Dächer-Programm (Solarstromsubvention) und das Erneuerbare-Energien-Gesetz (EEG; wirtschaftliche und wissenschaftliche Förderung von Wind- und Solarenergie, Biomasse sowie Erdwärme) beschlossen. Auf Vorschlag von Renate Künast wurde das vormalige Landwirtschaftsministerium um den Aufgabenbereich des Verbraucherschutzes erweitert und in Bundesministerium für Verbraucherschutz, Ernährung und Landwirtschaft umbenannt. Künast leitete die sogenannte Agrarwende ein, die unter anderem auf eine starke Orientierung am Verbraucherschutz, Förderung der ökologischen Landwirtschaft und des Tierschutzes in der Landwirtschaft abzielte. Eine der Maßnahmen war die Einführung des deutschen Bio-Siegels im September 2001. Kritik an der grünen Regierungsführung. Der Kosovokrieg führte zur inneren Zerrissenheit der bis dahin strikt pazifistischen Partei. Auf einem Parteitag in Bielefeld im Mai 1999 wurde der Antrag, die Kampfhandlungen sofort zu beenden, zwar abgelehnt, die vorangegangene Debatte verlief aber erbittert und teilweise hasserfüllt. Joschka Fischer wurde mit Sprechchören als „Kriegstreiber“ beschimpft und mit einem Farbbeutel beworfen, der sein Ohr so traf, dass er einen Trommelfellriss erlitt. Mit dem Bielefelder Parteitagsbeschluss zum Kosovokrieg war zwar das drohende vorzeitige Ende der rot-grünen Koalition verhindert worden, durch die Partei ging aber ein tiefer Graben. Viele Mitglieder traten aus, in Hamburg verließen einige Bürgerschaftsabgeordnete der GAL und bildeten eine eigene Regenbogen-Fraktion. Die innerparteiliche Opposition bildete eine Bewegung namens „Basisgrün“, die sogar dazu aufrief, bei der Europawahl 1999 nicht die Grünen zu wählen. In diesem Zusammenhang verließen unter anderem Willi Hoss, Monika Knoche, Herbert Rusche und Christian Schwarzenholz die Partei. Die Mitgliederzahl sank zwischen 1998 und 2002 von fast 52.000 auf unter 44.000, stieg dann aber langsam wieder an und lag 2005 bei gut 45.000. Einige Mitglieder, wie der frühere grüne Bundestagsabgeordnete Christian Simmert, kritisierten ihrer Meinung nach undemokratische Methoden bei der Überzeugungsarbeit, mit der Abweichler vom Regierungskurs zurück auf Linie gebracht werden sollten. In dieser Situation veröffentlichten 1999 40 junge Parteimitglieder unter 30 Jahren – darunter Cem Özdemir, Katrin Göring-Eckardt, Tarek Al-Wazir, Matthias Berninger und Ekin Deligöz – ein Strategiepapier, in dem sie sich genervt von den „Lebensirrtümern“ der 68er-Generation zeigten. Stattdessen sprachen sie sich für eine grundlegende Neupositionierung der Partei auf der Basis eines verantwortungsvollen Liberalismus, für pragmatische Politik sowie für eine Aussöhnung mit der Sozialen Marktwirtschaft ein. Von der Politikwissenschaft wurde bezüglich der ersten Amtsperiode eine durch die Parteistrukturen fehlende Regierungsfähigkeit, insbesondere fehlende Strategie- und Konzeptfähigkeit der Grünen kritisiert. Insgesamt wurde Bündnis 90/Grünen vorgeworfen „in der Regierung erstarrt“, solide, aber langweilig geworden zu sein, sich als Partei überlebt und ihr Profil verloren zu haben. Der Parteienforscher Joachim Raschke, der sich in mehreren umfangreichen Büchern intensiv mit den Grünen beschäftigt hat, stellte der Regierungsarbeit nach zwei Jahren ein vernichtendes Urteil aus. Der Partei fehle eine Regierungskonzeption, sie schwanke zwischen Radikalismus und kleinlautem Realismus, das veraltete Parteiprogramm und die Parteistrukturen seien regierungsuntauglich, ihnen fehle ein strategisches Zentrum. Bereits 2004 befand Raschke jedoch, die Partei habe ihre Krise produktiv genutzt und viele der strukturellen Problem behoben oder gemildert, nachdem Fritz Kuhn und Renate Künast Parteivorsitzende geworden waren und die Partei ihre Strukturen reformiert hatte. Die Grünen, so eine weitere Kritik während der rot-grünen Jahre, hätten sich durch eine Abhängigkeit von Joschka Fischer in „einer Art babylonischer Gefangenschaft“ befunden. Fischer war jahrelang der beliebteste deutsche Politiker und hatte die Richtung der grünen Partei maßgeblich beeinflusst. Als weiteres Manko wurde vielfach angeführt, dass die Grünen ein programmatisches Defizit in der Wirtschafts- und Sozialpolitik hätten. Niederlagenserie bei Landtagswahlen 1998–2002. Bündnis 90/Die Grünen verloren bei sämtlichen 14 Landtagswahlen sowie der Europawahl, die in den ersten vier Regierungsjahren stattfanden, nachdem sie bereits im Wahljahr 1998 bei allen vier Landtagswahlen und auch bei der Bundestagswahl selbst Verluste hatten hinnehmen müssen (vgl. Die Grünen). Besonders stark waren die Stimmeinbußen gerade in den grünen Hochburgen Hamburg, Bremen, Berlin, Baden-Württemberg und Hessen. Neues Grundsatzprogramm und innerparteiliche Strukturänderungen. Insgesamt erlebten die Grünen nach 1998 einen Praxisschock, der ihnen deutlich vor Augen führte, wie fern der Regierungsrealität ihr Programm und ihre innerparteilichen Strukturen waren. Auf die harsche öffentliche Kritik reagierte die Partei noch vor der Bundestagswahl 2002 mit beträchtlichen Kurskorrekturen. Erste Schritte dazu wurden auf der Bundesdelegiertenkonferenz in Münster im Juni 2000 unternommen. Zum strategischen Zentrum wurde der Parteirat, nachdem für diesen die Trennung von Amt und Mandat aufgehoben wurde, so dass die wichtigsten Akteure der Bundesregierung, der Fraktion, des Bundesvorstands und der Länder nun ein gemeinsames Gremium hatten. Mit Renate Künast und Fritz Kuhn wurden neue Parteisprecher gewählt. Nachdem Künast in das Bundeskabinett eingetreten war, übernahm Claudia Roth ihre Position. Im März 2002 wurde nach dreijähriger Debatte das neue Grundsatzprogramm „Die Zukunft ist grün“ beschlossen, das an die Stelle des Bundesprogramms aus dem Jahr 1980 trat. Das Grundsatzprogramm des Jahres 2002 ist homogener, argumentativ ausgefeilter und deutlich weniger systemkritisch, als das antikapitalistisch ausgerichtete von 1980. Zudem kam dem mit 90 Prozent Zustimmung verabschiedeten Grundsatzprogramm innerparteilich eine hohe Integrationsfunktion zu. Mit diesem Programm passten die Grünen ihr Programm der Regierungsrealität an, indem sie sich unter anderem vom strikten Pazifismus früherer Jahre verabschiedeten und völkerrechtlich legitimierte Gewalt gegen Völkermord und Terrorismus nicht länger kategorisch ausschlossen. Auch sozialistisch geprägte Forderungen in der Wirtschaftspolitik sind nicht mehr zu finden. Zu einem großen Problem für die Grünen entwickelte sich die Visa-Affäre um Missbrauchsfälle bei der Vergabe von Visa in verschiedenen deutschen Botschaften und Konsulaten aufgrund des Volmer-Erlasses. Die Opposition nutzte wenige Monate vor der Bundestagswahl den eingerichteten Untersuchungsausschuss, bei dem mit den Befragungen von Joschka Fischer und Ludger Volmer erstmals eine Sitzung live im Fernsehen übertragen wurde, erfolgreich, die hohe Reputation des Außenministers zu beschädigen. Das öffentliche Bild der Grünen in der zweiten Regierungsperiode. Wurde die erste Legislaturperiode der rot-grünen Regierung von den deutschen Kriegseinsätzen erschüttert, die vor allem für die Grünen die wohl schlimmsten Konflikte ihrer Geschichte zur Folge hatten, so verlief die zweite Legislaturperiode für Bündnis 90/Die Grünen relativ ruhig. Nun war der Umbau des Sozialstaates das umstrittenste Handlungsfeld der Bundesregierung und dies wurde sehr viel stärker mit den Sozialdemokraten verbunden. Bündnis 90/Die Grünen hatten mit ihren Zugewinnen bei der Wahl die Fortsetzung der Koalition gesichert, Joschka Fischer avancierte über Jahre zum beliebtesten Politiker der Bundesrepublik, die Grünen galten nun als solide Regierungspartei und schwammen bei allen Landtagswahlen dieser Regierungsperiode auf einer Erfolgswelle. In Meinungsumfragen lagen die Grünen konstant um 10 Prozent und fielen erst zurück, als die SPD in einem Schlussspurt vor der Bundestagswahl 2005 stark aufholte. Dass die Partei gerade in der heftig umstrittenen Wirtschafts- und Sozialpolitik profillos blieb, trug einerseits zur Beruhigung in der und um die Partei bei, sorgte andererseits aber auch dafür, dass sie als zunehmend unbedeutend betrachtet wurde. Die Partei galt nun manchem als in der Regierung erstarrt, ihre Debatten als langweilig. Landtags- und Europawahlen 2002–2005. Hatte Bündnis 90/Die Grünen bei allen Wahlen während der Legislaturperiode 1998 bis 2002 Stimmen verloren, so gewannen sie nach der Bundestagswahl bei sämtlichen zehn folgenden Wahlen bis 2005 hinzu. Bei der Europawahl 2004 konnte die Partei mit 11,9 Prozent und einem Zugewinn von 5,5 Prozent den größten Wahlerfolge ihrer bisherigen Geschichte feiern. In den Berliner Bezirken Mitte, Pankow und Friedrichshain-Kreuzberg wurde sie stärkste Partei. In einigen Stadtteilen von Großstädten wie zum Beispiel in St. Pauli in Hamburg oder in Berlin-Kreuzberg erreichten sie mit 57,8 Prozent beziehungsweise 52 Prozent die absolute Mehrheit. In Hamburg kamen sie landesweit deutlich über die Marke von 20 Prozent. Bei den Landtagswahlen am 19. September 2004 in Sachsen erreichten die Grünen 5,1 Prozent und zogen damit das erste Mal seit 1998 wieder in ein Landesparlament auf dem Gebiet der ehemaligen DDR ein. Bei den zeitgleichen Wahlen in Brandenburg verfehlte die Partei trotz Stimmenzuwächsen den Wiedereinzug ins Landesparlament. 1998 waren die Grünen auch in Sachsen-Anhalt an der Fünf-Prozent-Hürde gescheitert, nachdem sie schon vorher aus den anderen ostdeutschen Landesparlamenten gefallen waren. Erst bei der Landtagswahl in Schleswig-Holstein im Februar 2005 stagnierten die Grünen und schieden aus der Regierung aus, nachdem Heide Simonis nicht als Ministerpräsidentin bestätigt wurde. Bei den Landtagswahlen am 22. Mai 2005 in Nordrhein-Westfalen verloren die Grünen 0,9 Prozentpunkte. Da die SPD Stimmenverluste hinnehmen musste, führt dies zum Ende der vorerst letzten rot-grünen Landesregierung. Die erste Wahlperiode in der Opposition (2005–2009). Die verlorene Landtagswahl in Nordrhein-Westfalen nahm Gerhard Schröder zum Anlass, um ein Jahr vorgezogene Neuwahlen anzustreben und die Vertrauensfrage im Bundestag zu stellen. Presseberichten zufolge fiel die Entscheidung, Neuwahlen anzustreben, durch eine Absprache zwischen Bundeskanzler Gerhard Schröder und dem SPD-Partei- und Fraktionsvorsitzenden Franz Müntefering, an welcher die Grünen im Vorfeld nicht direkt beteiligt waren. Joschka Fischer berichtete in seinen Memoiren, Schröder habe ihm nur einmal im April angedeutet, er erwäge im Fall einer Wahlniederlage in NRW Neuwahlen, und ihn dann unmittelbar vor deren Ankündigung durch Müntefering telefonisch unterrichtet. Im Wahlkampf zur Bundestagswahl 2005 gingen Bündnis 90 und SPD auf Distanz zueinander. Eine Fortsetzung der rot-grünen Koalition erschien aufgrund der Umfragen unwahrscheinlich. Dazu kamen auf beiden Seiten zunehmende inhaltliche, strategische und persönliche Konflikte. Bei der Bundestagswahl verlor Bündnis 90/Die Grünen, auch wegen der fehlenden Machtoption, gegenüber der letzten Bundestagswahl leicht. Auch wenn die SPD weniger Stimmenverluste als erwartet zu verkraften hatte und CDU/CSU deutlich hinter ihren Erwartungen zurückblieb, konnte die rot-grüne Bundesregierung wie erwartet nicht weiterregieren. Mit dem Ausscheiden aus der Bundesregierung waren die Grünen bis zur Bürgerschaftswahl in Bremen im Mai 2007, welche in die Bildung einer rot-grünen Koalition (der ersten Neuauflage von Rot-Grün auf Landesebene) mündeten, weder in der Bundes- noch in einer Landesregierung vertreten. Durch das Bundestagswahlergebnis erhielt die Debatte über Die Grünen und den Unionsparteien auf Landes- oder Bundesebene neuen Aufschwung. Schwarz-Grüne Koalitionen auf kommunaler Ebene gab und gibt es rund ein Dutzend, darunter in Köln und Kiel, welche jedoch beide gescheitert sind. 2008 ging die Partei in Hamburg das erste schwarz-grüne Bündnis auf Landesebene ein, welches jedoch 2010 nach dem Rücktritt von Ole von Beust (CDU) scheiterte. Im Vorfeld der Bundestagswahl 2009 erzielte Bündnis 90/Die Grünen mehrere Wahlerfolge, die dazu führten, dass sie in Thüringen und Brandenburg in den Landtag zurückkehren konnte. Im selben Jahr gingen die Grünen im Saarland die bundesweit erste Jamaikakoalition ein. Die zweite Wahlperiode in der Opposition (2009–2013). Obwohl die Partei 2009 bei der Bundestagswahl auf 10,7 Prozent der Stimmen kam, verblieb sie auf Grund des schwachen Abschneidens der SPD und der Mehrheit für CDU/CSU und FDP in der Opposition. 2011 kehrte sie in die Landtage von Sachsen-Anhalt und Rheinland-Pfalz zurück. Nachdem sie im selben Jahr erstmals in den Landtag von Mecklenburg-Vorpommern einziehen konnte, sind die Grünen seither erstmals in allen 16 Landtagen gleichzeitig vertreten. Ihren größten Erfolg erzielte Bündnis 90/Die Grünen bei der Landtagswahl in Baden-Württemberg am 27. März 2011. Die Grünen landeten auf dem zweiten Platz. Zusammen mit der SPD schafften sie es, die CDU-FDP-Koalition unter Stefan Mappus abzulösen. Mit Winfried Kretschmann wurde erstmals ein Grünenpolitiker Ministerpräsident eines deutschen Bundeslandes. Einzelnachweise. Die Grunen Die Grunen Die Grunen Basilikum. Das Basilikum ("Ocimum basilicum"), auch "Basilie", "Basilienkraut" oder "Königskraut" genannt, ist eine Gewürzpflanze aus der gleichnamigen Gattung Basilikum ("Ocimum") der Familie der Lippenblütler. Vegetative Merkmale. Die verschiedenen Kulturformen unterscheiden sich in Blattfarbe, Größe, Aroma, Wachstumsart und Ansprüchen. Basilikum wird in den gemäßigten Breiten meist als einjährige Pflanze kultiviert. Es ist eine aufrecht wachsende, einjährige bis ausdauernde krautige Pflanze, die Wuchshöhen von 20 bis 60 Zentimetern erreicht. Alle Pflanzenteile duften aromatisch. Stängel, Blütenhüllblätter und oft die Laubblätter sind behaart (Indument). Die kreuzgegenständigen Laubblätter sind in Blattstiel und Blattspreite gegliedert. Die kurzen Blattstiele weisen eine Länge von 5 bis 20 Millimeter auf. Die einfache Blattspreite ist oft eiförmig mit einer Länge von 1,5 bis 5 Zentimetern sowie einer Breite von 0,8 bis 3,2 Zentimetern. Der Blattrand ist glatt. Generative Merkmale. a>e Blüten mit den vier Staubblättern Die Blütezeit reicht hauptsächlich von Juni bis September. Der vielblütige ährige Blütenstand enthält auch zwei- bis dreiblütige Zymen. Der Blütenstiel ist 2,5 Millimeter lang. Die zwittrige Blüte ist zygomorph und fünfzählig mit doppelter Blütenhülle. Die fünf Kelchblätter sind glockenförmig verwachsen und weisen die gleiche Farbe wie die Laubblätter auf. Der Kelch ist während der Anthese 1,5 bis 3 Millimeter lang und vergrößert sich bis zur Fruchtreife auf etwa 9 Millimeter. Die fünf Kronblätter sind zu einer 8 bis 9 Millimeter langen Krone verwachsen. Die Kronröhre weist eine Länge von etwa 3 Millimeter auf. Die breite, mehr oder weniger flache Oberlippe ist vierlappig, etwa 3 Millimeter lang und etwa 4,5 Millimeter breit. Die Unterlippe ist etwa 6 Millimeter groß. Es sind zwei ungleiche Paare von Staubblättern vorhanden, die mit der Krone verwachsen sind, aber untereinander frei sind. Die Staubbeutel öffnen sich mit einem Längsschlitz. Der Fruchtknoten ist oberständig. Der Griffel endet in einer zweilappigen Narbe. Die Frucht ist 1,5 bis 2 Millimeter lang und vom vergrößerten Kelch eingehüllt. Inhaltsstoffe. Gehalt und Zusammensetzung des ätherischen Öls sind je nach Sorte, Herkunft und Erntezeitpunkt stark unterschiedlich. Der Gehalt schwankt zwischen 0,04 und 0,70 %, wobei das Deutsche Arzneibuch einen Mindestgehalt von 0,4 % vorschreibt (bezogen auf die Trockensubstanz). Die wichtigsten Bestandteile des ätherischen Öls sind dabei Linalool mit bis zu 85 % Anteil, Estragol mit bis zu 90 % und Eugenol mit bis zu 20 %. Weiterhin sind andere Monoterpene wie Ocimen und Cineol enthalten, Sesquiterpene und Phenylpropane. Außer ätherischem Öl sind noch Gerbstoffe, Flavonoide, Kaffeesäure und Äsculosid in nennenswerten Mengen enthalten. Verbreitung. Das natürliche Verbreitungsgebiet des Basilikums umfasst das tropische Afrika und Asien. Systematik. Der Artname "Ocimum basilicum" wurde 1753 durch Carl von Linné in "Species Plantarum" erstveröffentlicht. Es gibt eine Anzahl von Sorten, die sich in Größe, Blattform, Blattfarbe und Duft unterscheiden. 'Opal' ist eine rotblättrige Sorte. Häufig angebaute Sorten sind 'Großes Grünes', 'Genoveser' und 'Opal'. Die Sorte 'Cinnamon' hat einen zimtartigen Duft und wird auch Zimtbasilikum genannt. Die Sorte 'Lemon' oder Zitronenbasilikum hat einen zitronen-thymian-ähnlichen Duft. Busch- oder Zwergbasilikum ist eine nur 15 cm hohe Zierform. Das Art-Epitheton "basilicum" geht auf das griechische Wort für königlich zurück und deutet an, dass das Basilikum als königliches Gewürz angesehen wurde. Weitere deutsche Bezeichnungen für Basilikum sind Basilienkraut, Königskraut, Josefskraut, Suppenbasil, Braunsilge und Deutscher Pfeffer. Verbreitung. Die Herkunft des Basilikums ist heute nicht mehr feststellbar. Als Herkunftsgebiet wird Nordwest-Indien vermutet. In Vorderindien wurde Basilikum bereits rund 1000 v. Chr. als Gewürz-, Heil- und Zierpflanze kultiviert. Funde in Pyramiden belegen den Anbau in Ägypten bereits im Altertum. Die Bezeichnung ist latinisiert aus dem Griechischen übernommen, in Griechenland gibt es bis heute zahlreiche Volkssagen um das Basilikum und dessen Herkunft. Neben der griechischen wird Basilikum traditionell auch in der italienischen Küche häufig verwendet. Nach Deutschland dürfte das Basilikum im 12. Jahrhundert n. Chr. gekommen sein. Anbau und Ernte. Der Anbau erfolgt großteils in subtropischen Gebieten, aber auch in den Tropen und gemäßigten Breiten. Basilikum wird im Freiland wie im Gewächshaus angebaut. Er wird als Topf- und Bundware angebaut. Im Freiland benötigt Basilikum lockere, wasserdurchlässige, sich gut erwärmende Böden. Der Boden-pH-Wert liegt optimalerweise zwischen 6,5 und 7,2. Basilikum ist eine wärmebedürftige Pflanze, unter 12 °C findet praktisch kein Wachstum statt, dafür steigt der Pilzbefall stark an. In Deutschland kommt Freilandware zwischen etwa Ende Juni und Anfang Oktober auf den Markt, Gewächshausware das ganze Jahr. Für die Sortierung wie die Verpackung gibt es keine „speziellen Vorschriften“. Bundware sind häufig 30 bis 40 g schwere, in Folie verpackte Bunde. Im Gewächshaus wird vor allem Topfware angebaut. Die Kultur dauert zwischen 40 Tagen im Sommer und 80 bis 100 Tagen im Winter. Aber auch als Topfpflanze ist er gut haltbar. Abgeschnittene Triebe, welche in Wasser eingelegt werden, bilden nach wenigen Wochen neue Wurzeln aus. Auf diese Weise kann Basilikum auch in Privathaushalten günstig und ohne großen Aufwand vermehrt werden. Krankheiten und Schädlinge. Bedeutendste Virenerkrankung ist das Luzernemosaikvirus ("alfalfa mosaic virus"), das Blattvergilbungen auslöst. Bei den Pilzerkrankungen steht die Blattfleckenkrankheit (ausgelöst durch "Septoria"-Arten) an erster Stelle, die während Regenperioden auftritt. Daneben ist im Freiland wie im Gewächshaus die Fusarium-Welke ("Fusarium oxysporum") von Bedeutung. An tierischen Schädlingen sind solche von Bedeutung, die an den Blättern fressen: Raupen der Ampfereule ("Acronycta rumicis"), Gemeine Wiesenwanzen ("Lygus pratensis") und Schnecken. Küche. Die frischen wie die getrockneten Blätter werden als Küchengewürz verwendet. Basilikum ist in der südeuropäischen, besonders der italienischen Küche eines der meist verwendeten Gewürze. Beim Trocknen ergeben sich allerdings Verluste des Aromas. Basilikum wird auch in der Fleischkonservenindustrie verwendet. Basilikummazerat und -destillat sind Bestandteil mancher Kräuterliköre. Das ätherische Öl wird in der Kosmetikindustrie für Duftmischungen eingesetzt. Das feine Aroma der Blätter passt hervorragend zu Tomaten. Basilikum ist fast immer Bestandteil des Pestos. Aufgequollene Samen (Basil seeds) werden, ähnlich wie Mexikanische Chia, in manchen Modegetränken verwendet. Medizinische Bedeutung. Die pharmazeutische Droge wird als "Basilici herba" (lat.: "des Basilikums Kraut oder Pflanze") bezeichnet. Basilikum wird in der Volksmedizin, vor allem im mediterranen Raum, bei Appetitlosigkeit (Stomachikum), bei Blähungen und Völlegefühl (Karminativum) und seltener als Diuretikum, Laktagogum und bei Rachen-Entzündungen zum Gurgeln eingesetzt. Das ätherische Öl besitzt anthelmintische (entwurmende) und antiphlogistische (entzündungshemmende) Eigenschaften und hemmt die Bildung von Magengeschwüren. Es sind zwar bei Einnahme therapeutischer Dosen keine Nebenwirkungen bekannt. Aufgrund des Gehaltes an Estragol wird eine arzneiliche Anwendung jedoch für nicht vertretbar angesehen. Das Bundesinstitut für Risikobewertung stellte 2002 im Tierversuch fest, dass Estragol cancerogene Wirkungen und in In-vitro- und In-vivo-Untersuchungen genotoxische Effekte zeigen, wobei die Datenlage für eine endgültige wissenschaftliche Bewertung unzureichend ist. Die Kommission E kam zu folgender Beurteilung: "Da die Wirksamkeit bei den beanspruchten Anwendungsgebieten nicht belegt ist und aufgrund der Risiken kann eine therapeutische Anwendung nicht vertreten werden. Gegen die Verwendung als Geruchs- und Geschmackskorrigens bis 5 % in Zubereitungen bestehen keine Bedenken." Beifuß. Der Beifuß oder Gemeine Beifuß ("Artemisia vulgaris"), auch Gewürzbeifuß oder Gewöhnlicher Beifuß genannt, ist eine Pflanzenart aus der Gattung "Artemisia" in der Familie der Korbblütler (Asteraceae, veraltet Compositae). Weitere deutsche Trivialnamen sind Besenkraut, Fliegenkraut, Gänsekraut, Johannesgürtelkraut, Jungfernkraut, Sonnenwendkraut, Weiberkraut, Wilder Wermut oder Wisch'". Vom Beifuß gibt es eine europäische ("Artemisia vulgaris" var. "vulgaris") und eine asiatische Varietät ("Artemisia vulgaris" var. "indica"), die sich geringfügig in der Zusammensetzung des ätherischen Öls unterscheiden. Die Pollen des Beifuß sind ein häufiger und bekannter Auslöser allergischer Reaktionen. Beschreibung. Die ausdauernde krautige Pflanze erreicht Wuchshöhen von 60 Zentimeter bis zu 2 Meter. Die meist aufrechten Stängel sind höchstens spärlich behaart. Die fiederteiligen Laubblätter sind derb, meist 2,5 bis 5 (selten bis zu 10) Zentimeter lang und 2 bis 3 Zentimeter breit. Die Blattoberseite ist grün, die Unterseite auf Grund von Behaarung grau-weißlich. In endständigen, rispigen Blütenständen stehen viele körbchenförmige Teilblütenstände zusammen. Die unscheinbaren, weißlich-grauen, gelblichen oder rotbraunen Blütenkörbchen weisen eine Höhe von 2,5 bis 3,8 Millimeter und einen Durchmesser von 2 bis 3 Millimeter auf. Die Blütenkörbchen enthalten nur fertile, radiärsymmetrische Röhrenblüten, außen sieben bis zehn weibliche und innen (selten fünf bis) acht bis 20 zwittrige. Die eiförmigen Hüllblätter sind filzig behaart. Die gelblichen bis rötlich-braunen Röhrenblüten sind 1 bis 3 Millimeter lang. Die glatten, dunkelbraunen bis schwarzen, ellipsoiden Achänen sind 0,5 bis 1 Millimeter lang und 0,1 bis 0,3 Millimeter breit. Die Blütezeit erstreckt sich von Juli bis September. Die Fruchtreife beginnt ab September. Die Chromosomenzahl beträgt 2n = 18, 36, 40 oder 54. Ökologie. Der Beifuß ist ein ausdauernder, kurzlebiger Hemikryptophyt, er wurzelt 60 bis 155 cm tief. Die Blüten unterliegen der Windbestäubung, die Pollenfreisetzung erfolgt morgens zwischen 6 und 11 Uhr; er blüht schon im ersten Lebensjahr. Der blühende Beifuß ist ein bedeutender Auslöser für Heuschnupfen. Die Früchte sind nur 1,5 mm lange und 0,1 mg schwere, kahle Achänen ohne Pappus, ihre Hüllblätter bilden von der Funktion her eine Kapsel, die sich bei Trockenheit öffnet und durch den Wind ausgestreut wird. Daneben erfolgt eine Bearbeitungsausbreitung z. B. durch Kleinvögel. Die ganze Pflanze kann pro Jahr bis maximal etwa 500.000 Früchte produzieren. Die Samen sind langlebige Lichtkeimer. Vorkommen. Der Beifuß ist ein typisches „Hackfrucht-Unkraut“ und verbreitete sich vermutlich zusammen mit dem neolithischen Ackerbau. In Mitteleuropa findet er sich seit der Bandkeramik. Die ursprüngliche Verbreitung des Beifuß ist heute nicht mehr zu bestimmen, nachdem er durch den Menschen über fast alle nördlichen Gebiete der Erde verbreitet wurde. Auf nährstoffreichen Böden, vor allem Ruderalfluren, kommt der Beifuß wild vor. Er ist eine Artemisietea-Klassencharakterart. Der Beifuß ist in allen Bundesländern Österreichs und Deutschlands häufig anzutreffen. In den Allgäuer Alpen steigt er auf der Haldenwanger Alpe in Bayern bis zu Meereshöhe auf. Der Anbau zur Gewinnung von Öl für die Parfümindustrie findet in Nordafrika (Algerien, Marokko) und Südeuropa (Frankreich, Balkan) statt. Systematik. "Artemisia vulgaris" wurde 1753 von Carl von Linné in "Species Plantarum" erstveröffentlicht. Synonyme für "Artemisia vulgaris" sind "Artemisia opulenta" Pamp., "Artemisia samamisica" Besser und "Artemisia superba" Pamp. Nutzung. Die Erntezeit reicht von Juli bis Oktober. Solange die Blütenkörbchen noch geschlossen sind, schneidet man die oberen Triebspitzen. Sobald sich diese öffnen, werden die Blätter bitter und eignen sich nicht mehr zum Würzen. Die Erntezeit für die Wurzel ist der Spätherbst. Beifuß gehört zu den traditionellen Grutbier-Kräutern und wird als Gewürzpflanze zu fetten, schweren Fleischgerichten benutzt. Die enthaltenen Bitterstoffe regen die Bildung von Magensaft und Gallenflüssigkeit an und unterstützen so die Verdauung. Durch Wasserdampfdestillation wird aus den getrockneten Pflanzen Parfümöl („Essence d’Armoise“) gewonnen. Beifuß wird auch phytotherapeutisch eingesetzt. Einige Inhaltsstoffe (beispielsweise Thujon) sind giftig und machen längere Anwendungen oder hohe Gaben bedenklich. Wegen der Giftigkeit seiner ätherischen Öle wird vor der Verwendung des Beifuß in der Aromatherapie gewarnt. Die Droge nennt man "Artemisiae herba" oder "Herba Artemisiae", es sind die getrockneten, während der Blütezeit gesammelten Stängelspitzen mit den Blütenkörbchen. In der traditionellen chinesischen Medizin findet er Verwendung in der Moxa-Therapie. Name. Der deutsche Name Beifuß (althochdeutsch pīpōʒ, mittelhochdeutsch bībuoʒ) wird von dem althochdeutschen Verb bōʒen „stoßen, schlagen“ abgeleitet. Der Zusammenhang ist unklar, gegebenenfalls besteht er darin, dass die Blätter zur Verwendung gestoßen wurden oder aufgrund ihrer nachgesagten abstoßenden Wirkung auf sogenannte dunkle Mächte. Verwandt ist auch Amboss. Die volksetymologische Umdeutung zu Fuß (sichtbar bereits an der mittelhochdeutschen Nebenform bīvuoʒ) steht in Zusammenhang mit einem Aberglauben, wonach Beifuß beim Laufen Ausdauer und Geschwindigkeit verleihen würde, wie bereits Plinius berichtete. Der Name der ukrainischen Stadt Tschornobyl (besser bekannt unter dem russischen Namen Tschernobyl), in der sich am 26. April 1986 eine der schwersten Nuklearkatastrophen der Geschichte ereignete, bedeutet auf Deutsch „Beifuß“. Trivialnamen. Im deutschsprachigen Raum werden oder wurden für diese Pflanzenart, zum Teil nur regional, auch die folgenden weiteren Trivialnamen verwandt: Beifess (Siebenbürgen), Beipes (Erzgebirge), Beiposs (mittelhochdeutsch), Beiras (mittelhochdeutsch), Beivoss, Beiweich (mittelhochdeutsch), Bibes (althochdeutsch), Biboess (mittelhochdeutsch), Bibot (Altmark, althochdeutsch), Biboz, Bibs (Inselberg), Bibus (mittelhochdeutsch), Biefes (Eifel, Altenahr), Bifaut (Pommern), Bifood (Holstein), Bifoss (mittelniederdeutsch), Bifot (Pommern, Mecklenburg), Bigfood (Holstein), Bivoet, Bivuz (mittelhochdeutsch), Biwes (Ruhla), Bletechan (mittelhochdeutsch), Buchen (mittelhochdeutsch), Buck, Buckela (Bern), Bucken, Budschen, Bugel (mittelhochdeutsch), Bugga (mittelhochdeutsch), Buggel (mittelhochdeutsch), Buggila (mittelhochdeutsch), Bybot (mittelniederdeutsch), Byfas (mittelniederdeutsch), Byfass (mittelniederdeutsch), Byfoss (mittelniederdeutsch), Byfus, Byssmolte (mittelhochdeutsch), Byvoet (mittelniederdeutsch), Bywt, Flegenkraut (Altmark), Gänsekraut (Schlesien), Gurtelkraut (mittelhochdeutsch), Hermalter (mittelhochdeutsch), Himmelker (mittelhochdeutsch, bereits um 1519 erwähnt), Himmelskehr, St. Johannisgürtel (Österreich, Schweiz), St. Johanniskraut (Vorarlberg), Jungfernkraut (Altmark), Männerkrieg, Magert (Bremen), Melcherstengel (Augsburg), Müggerk (Ostfriesland, Oldenburg), Muggart, Muggerk (Oldenburg), Muggert (Ostfriesland), Mugwurz, Muterkraut, Muzwut, Peifos, Peipoz, Pesenmalten (mittelhochdeutsch), Pesmalten, Peypoz (althochdeutsch), Pipoz (althochdeutsch), Puckel (mittelhochdeutsch), Puggel (mittelhochdeutsch), Gross Reinfarn (mittelhochdeutsch), Reynber (mittelhochdeutsch), Siosmelta (althochdeutsch), Schossmalten (Salzburg, Linz), Sonnenwendel, Sonnenwendgürtel, Sunbentgürtel, Sunibentgürtel (mittelhochdeutsch), Suniwendgürtel (mittelhochdeutsch), Sunnenwendelgürtel, Weiberkraut, Weibpass (mittelhochdeutsch), Wermet (Bern), Wermut (mittelhochdeutsch), Wipose (mittelhochdeutsch), Wisch (Eifel) und Wil Wurmbiok (Wangerooge). Pharmazie- und Botanikgeschichte. Unklar und umstritten bleibt, welche Pflanzen-Arten in den Heilpflanzen-Büchern der antiken und mittelalterlichen Autoren mit den Namen „Artemisia“, „Biboz“, „Peipoz“, „Peyfues“ und „Bucken“ gemeint waren. Durch Abbildung und Beschreibung wurde diesen Namen erst ab der Wende vom 15. zum 16. Jh. die Pflanzen-Art Beifuß ("Artemisia vulgaris") sicher zugeordnet. Als „Mutter aller Kräuter“ bezeichnet (Macer floridus 11. Jh.), galt der Beifuß als Hauptmittel zur Behandlung von Frauenkrankheiten. In zweiter Linie sollte er Verdauungsstörungen und Harnstauung heilen. Beifuß in Ritus und Mythologie. Nach Plinius sollten Wanderer, die „Artemisia“ bei sich tragen, auf der Reise nicht müde werden. Im Deutschen Macer floridus (13. Jh.) wurde zwischen einem Beifuß mit rotem Stiel und einem Beifuß mit weißem Stiel unterschieden. Die Blätter des rotstieligen Beifuß, nach unten abgestreift, sollten bei verspäteter Menstruation helfen, die des weißstieligen, nach oben abgestreift, bei zu lange dauernder Menstruation. Besondere Beziehung sollte der Beifuß zur Sommer-Sonnenwende haben. Daher rühren seine Benennungen „Sunbent Gürtel“, „Sant Johans Kraut“ und „Himmelker“. Umgürtert mit einem Kranz aus Beifuß wurde das Johannisfeuer umtanzt. Dieser Kranz wurde anschließend „zusammen mit allen Anfeindungen“ ins Feuer geworfen. Der Beifuß ist das erste der neun Kräuter in dem altenglischen Text Nine Herbs Charm, Näheres siehe dort. Beifuß galt im Mittelalter als sehr wirksames Mittel gegen und für Hexerei. Beigemischt war es Bestandteil vieler sogenannter magischer Rezepturen. Am Dachfirst mit den Spitzen nach unten geheftet, wehrt Beifuß angeblich Blitze ab und hält Seuchen fern. Ähnliches gilt für die "Thorellensteine" oder auch "Narrenkohle" genannt, die man dem Glauben nach am Johannestag an den Wurzeln der Pflanze findet. Beifußwurzeln gegen Epilepsie. Im 19. Jh. (1824 - ca. 1900) wurden Beifußwurzeln in Deutschland zur Behandlung der Epilepsie eingesetzt. Im Bundesanzeiger Nr. 122 vom 6. Juli 1988 veröffentlichte die Kommission E des ehemaligen Bundesgesundheitsamtes eine (Negativ-)Monographie über Beifuß-Kraut und Beifuß-Wurzel. Darin wird eine therapeutische Anwendung nicht empfohlen. Bohnenkräuter. Die Bohnenkräuter ("Satureja") sind eine Pflanzengattung innerhalb der Familie der Lippenblütler (Lamiaceae). Beschreibung. Die Bohnenkraut-Arten sind zweijährige oder ausdauernde krautige Pflanzen oder Zwergsträucher. Die Stängel sind meist aufrecht. Die Blätter sind lineal bis schmal-lanzettlich, der Blattrand ist ganzrandig oder trägt seichte Zähne. Meist sind die Blätter nicht in Stängel- und Hochblätter differenziert. Die Blüten stehen in lockeren bis dichten, dann jedoch armblütigen Teilblütenständen. Die Blüten sind zygomorph. Der Kelch ist röhren- bis glockenförmig, etwas undeutlich 10- (selten bis 13-)nervig und hat fünf fast gleiche Zähne, selten ungleiche. Der Kelchschlund ist meist behaart. Die Krone ist zweilippig mit gerader Kronröhre. Die Farbe reicht von violett über rötlich bis weißlich. Die Oberlippe ist flach und ganzrandig oder ausgerandet. Die Unterlippe besteht aus drei Lappen, die meist abgerundet sind. Von den vier fruchtbaren Staubblättern sind zwei länger, zwei kürzer. Sie liegen der Oberlippe mehr oder weniger an und sind gebogen. Sie sind – wie auch der Griffel – kürzer oder nur ein wenig länger als die Oberlippe. Die Griffeläste sind annähernd gleich lang. Die Teilfrüchte sind eiförmig und leicht behaart. Systematik und Verbreitung. Die Gattung "Satureja" wurde 1753 durch Carl von Linné aufgestellt. Als Lectotypusart wurde durch N. L. Britton und A. Brown "Satureja hortensis" festgelegt. Die Gattung "Satureja" gehört zur Subtribus Menthinae der Tribus Mentheae in der Unterfamilie Nepetoideae innerhalb der Familie der Lamiaceae. Die Gattung "Satureja" ist vorwiegend in den gemäßigten Gebieten sowie in den tropischen Gebirgen beheimatet. Etwa zwölf Arten kommen in Europa vor. In Mitteleuropa ist keine heimisch. Nutzung. Das Sommer-Bohnenkraut ("Satureja hortensis"), auch Gartenbohnenkraut genannt, und das Winter-Bohnenkraut ("Satureja montana"), auch Berg-Bohnenkraut genannt, werden als Gewürz bzw. Küchenkraut besonders für Bohnengerichte verwendet. Die feingehackten Blätter sind sehr aromatisch und finden in Füllungen, Suppen, Omelettes und Salaten Verwendung. In alten Rezepten wird Bohnenkraut auch „Saturei“ genannt. Blues. Blues ist eine vokale und instrumentale Musikform, die sich in der afroamerikanischen Gesellschaft in den USA Ende des 19., Anfang des 20. Jahrhunderts entwickelt hat. Der Blues bildet die Wurzel eines Großteils der populären nordamerikanischen Musik. Jazz, Rock, Rock ’n’ Roll und Soul sind nah mit dem Blues verwandt. Selbst in aktuellen Stilrichtungen wie Hip-Hop ist ein Nachhall des Blues zu spüren. Eine häufig auftretende Bluesform hat zwölf Takte, die Melodie wird mit drei Akkorden (harmonische Grundfunktion) begleitet. Das Wort "Blues" leitet sich von der bildhaften englischen Beschreibung "I’ve got the blues" bzw. "I feel blue" („ich bin traurig“) ab. Wurzeln, Geschichte, Entwicklung. Frühe Formen des Blues entstanden in den südlichen Teilen der Vereinigten Staaten im späten 19. und frühen 20. Jahrhundert. Der Blues ist eine eigenständige Form schwarzer US-amerikanischer Folklore, die sich nicht ausschließlich auf andere afroamerikanische Musikformen wie Gospel, Negro Spiritual und Worksongs (dazu gehören auch "Fieldholler") zurückführen lässt. Der Blues enthält Elemente afrikanischer, europäischer und karibischer Musik. Frühe Blues-Formen sind bereits in Vaudeville- und Minstrel-Shows des späten 19. Jahrhunderts dokumentiert. In der Frühphase war der Blues nur ein Teil des Repertoires afroamerikanischer Musiker. Er wurde ergänzt durch Tages-Schlager, Ragtime, Country-Songs und zeitgenössische Popmusik. Die Musiker dieser Zeit waren eher „Songster“ als „Blueser“. Blues war Unterhaltungsmusik der Farbigen und seine Interpreten spielten auf House- und Rent-Partys oder öffentlichen Veranstaltungen. Erst mit der einsetzenden Kommerzialisierung durch die Plattenlabels in den 1920er Jahren erfolgte eine Spezialisierung auf Blues-Songs. Um 1910 hatte sich das Wort ‚Blues‘ zum allgemeinen Sprachgebrauch entwickelt. Sängerinnen wie Bessie Smith, Ma Rainey oder Alberta Hunter machten den Blues unter den Afroamerikanern sehr populär. Der schwarze Musiker und Komponist W. C. Handy (1873–1958) trug wesentlich dazu bei, den Blues populär zu machen. In der Zeit von 1911 bis 1914 wurde durch die Veröffentlichung von Handys „Memphis Blues“ (1912) und besonders seines „St. Louis Blues“ (1914) das Interesse vieler Menschen geweckt. Als einer der ersten notierte und arrangierte er Bluesstücke für Musiker und Sänger. Morton Harvey nahm den "Memphis Blues" als erste Vokal-Bluesplatte bei Victor Records (Nr.17657) auf, veröffentlicht im Januar 1915. Als erste Bluesaufnahme eines schwarzen Interpreten gilt "That Thing Called Love" von Mamie Smith, die vom Okeh-Plattenlabel im Februar 1920 herausgebracht wurde. Im August 1920 nahm Smith den Titel "Crazy Blues" auf, der sich als erster gesungener Bluestitel in den Hitparaden platzieren konnte und zu einem Millionseller wurde, im ersten Monat wurden rund 75.000 Platten verkauft und damit wurde der Begriff "Blues" weit verbreitet. Als wichtigste Gestalt des Delta-Blues gilt vielfach Robert Johnson, allerdings war er innerhalb des Country- bzw. Delta-Blues eine bedeutungslose Figur, sein Ruhm geht ausschließlich zurück auf die Phase der Wiederentdeckung des Blues durch das weiße Publikum in den 1950er und 1960er Jahren. Als Vater des Delta Blues und zentrale Figur wird jedoch häufig Charley Patton angeführt, der viele spätere Interpreten entscheidend beeinflusste. Aufgrund der Migration vieler Schwarzer aus dem Süden in den Norden der USA, vor allem in die großen Städte wie Chicago und Detroit, wurde der dort populäre Jazz durch den Urban Blues entscheidend geprägt und erweitert. In den 1940ern und den 1950ern kam es in den großen Städten des Nordens – vor allem in Chicago – umgekehrt auch zu einer zunehmenden Verfeinerung des in den Südstaaten populären Country Blues. Zu stilistischen Weiterentwicklungen führte hier auch der Einsatz von Verstärkern (elektrischer Blues), der für Künstler wie Memphis Minnie, Muddy Waters, John Lee Hooker und Howlin’ Wolf charakteristisch war. In den 1950er Jahren war der archaische, akustische Country Blues in der Folkbewegung wieder populär geworden. Großen Einfluss auf den wachsenden Bekanntheitsgrad des Blues in Europa hatte das American Folk Blues Festival, bei dem Größen wie John Lee Hooker, T-Bone Walker und Jimmy Reed auftraten. Aber der elektrische, aktuelle Blues wurde seit Mitte der 1940er Jahre in den USA auch von Radio-DJs, besonders Alan Freed, in ihren Sendungen gespielt. Über das Radio erreichte er auch weiße Jugendliche, die ihn sonst aufgrund der Segregation nicht zu hören bekamen. Aus einer Verschmelzung mit raueren Spielformen des Country wie Honky Tonk entstand schließlich der Rock ’n’ Roll. a> beim Long Beach Blues Festival am 31. August 1997 Die gesellschaftliche Veränderung in den 1960er Jahren führte besonders unter den jungen US-Amerikanern, aber auch jungen Briten zu einem verstärkten Interesse an afroamerikanischer Musik, und der Blues wurde auch für weiße Musiker interessant. Hierbei spielten neben den zahlreicher werdenden Live-Auftritten auch in dieser Zeit neu gegründete Plattenlabel eine Rolle, die in den 1920er bis 1940er Jahren auf 78 rpm Schallplatten aufgenommene Einspielungen auf Plattensamplern (LPs) wiederveröffentlichten (z. B. Mamlish, Origin Jazz Library (OJL), Yazoo) oder Neuaufnahmen ‚wiederentdeckter‘ Künstler veröffentlichten (z. B. Arhoolie, Biograph, Blue Goose, Prestige/Bluesville, Delmark). Viele Rockbands der 1960er Jahre, besonders in Großbritannien, nahmen den Blues als Basis für ihre Musik und reimportierten ihn während der so genannten „British Invasion“ Mitte der 1960er Jahre in die USA. Auch hier wurde er wieder von zumeist weißen Rockmusikern aufgegriffen (z. B. Butterfield Blues Band, Canned Heat und Johnny Winter). Populäre Musiker und Bands wie The Doors, Led Zeppelin, Jimi Hendrix, Eric Clapton, Alvin Lee, Peter Green, The Rolling Stones und Rory Gallagher waren sowohl vom akustischen als auch vom elektrischen Blues beeinflusst und leiteten davon ihren eigenen Stil ab, den Bluesrock. In Deutschland führten in den frühen 1970er Jahren z. B. Al Jones Bluesband, Frankfurt City Blues Band und Das dritte Ohr die Tradition von Muddy Waters oder B. B. King fort. Später wurden Bands wie die Mojo Blues Band (aus Wien) oder die Blues Company populär. Die 1968 gegründete Band Das dritte Ohr war eine der ersten Bands, die den Blues in deutscher Sprache vortrug. Besonders in der DDR wurde deutschsprachiger Blues gepflegt, so zum Beispiel von Hansi Biebl, Jürgen Kerth, Klaus Renft und der Gruppe Engerling (siehe auch Blueserszene). Der Blues ist in der afroamerikanischen Community als populäre Musikform längst von anderen Stilen wie Soul, Hip-Hop oder R'n'B abgelöst worden, jedoch lebt er in der Arbeit weißer, wie auch afroamerikanischer Künstler wie Robert Cray, Stevie Ray Vaughan, Bonnie Raitt und anderer weiter. Texte. Bluestexte sind in der Regel in der Ich-Form verfasst, das heißt, der Autor oder Sänger erzählt von tatsächlichen oder fiktiven eigenen Erlebnissen. Diese sind aber meist so stark verallgemeinert, dass eine Identifikation des Hörers mit dem Sänger nicht ermöglicht wird. Häufig handeln die Texte von Diskriminierung, Verrat, Verbrechen, Resignation, unerwiderter Liebe, Arbeitslosigkeit, Hunger, finanzieller Not, Heimweh, Einsamkeit und Untreue. Oftmals handelt es sich dabei jedoch um formelhafte Wendungen, die der Sänger dem gegebenen Anlass anpasst und verändert. Das Klischee vom Blues als vor allem trauriger Musik, das er in der Zeit der Wiederentdeckung in den 50er und 60er Jahren durch das neue weiße Publikum erfuhr, hängt dem Blues bis heute nach. Tatsächlich ist die Mehrzahl aller Bluesstücke jedoch eher beschwingt und tanzbar und artikuliert in den Texten ebenso häufig negative wie positive Stimmungen. So gibt es auch viele heitere, witzige und optimistische Bluesstücke. Noch 1919 sprach W.C. Handy von Bluesstücken als "„happy-go-lucky songs“". Doch das thematische Spektrum des Blues ist weitaus größer und facettenreicher. Thematisiert werden ebenso Religion, Politik (so z. B. der Hitler Blues, den „The Florida Kid“ Ernest Blunt im Jahr 1940 bei Bluebird Records einspielte), Frauenrechte, tyrannische Vorgesetzte, Sex und herber Sexismus. Diese letzte Spielart des derb-vulgären Blues entstand in den 20er und 30er Jahren und wird als Hokum-Blues bezeichnet. Er wurde oft in den Work-Camps des amerikanischen Südens von reisenden Musikern zur Unterhaltung der Arbeiter gesungen. Zu den Hokum-Blues-Musikern zählen u. a. Bo Carter und die Hokum Boys (Tampa Red und Georgia Tom), die mit dem Titel „It’s tight like that“ einen Hit in den 20ern landen konnten. Die frühen Bluesstücke waren von unregelmäßiger Rhythmik und folgten dem Sprachrhythmus. Die Wiederholung der ersten Zeile hat den Zweck, dem Sänger bei Stegreifinterpretationen mehr Zeit für die Erfindung der dritten Zeile zu geben. Außerdem wird hiermit ein Spannungsverhältnis aufgebaut, das sich erst mit der verzögert gesungenen dritten Zeile auflöst. Die Texte in Bluesstücken scheinen oft nicht zur Musik zu passen, doch der Sänger kann bestimmte Silben hervorheben und andere unterdrücken, so dass der Rhythmus stimmt. Der Sänger kann die Töne ebenfalls so variieren, dass sie zum Bass und zur Begleitung passen. Das Blues-Schema. Als drittletzter Akkord kann auch die Dominante statt der Subdominante gespielt werden. Dieses Schema wurde im Laufe der Zeit stark erweitert und modifiziert. Neben der zwölftaktigen Standardform gibt es sehr viele weitere Bluesschemata. Beispiele dafür sind das 8-Takt-Blues-Schema, das 12-Takt-Melodisch-Moll-Blues-Schema, bei dem Tonika und Subdominante jeweils Moll-Akkorde sind, die Dominante allerdings ein Dur-Dominantseptakkord, oder das 12-Takt-Standard-Jazz-Blues-Schema. Wird im 2. Takt des Blues-Schemas anstelle der Tonika die Subdominante gespielt, so spricht man von einem Quick Change. Der Turnaround kündigt das Ende des Blues-Schemas an und führt melodisch und rhythmisch zum Anfang des Schemas zurück. Der Turnaround kann entweder 1-taktig oder 2-taktig gespielt werden. Bei einem 2-taktigen Turnaround wird häufig in Takt 12 die Dominante anstatt der Tonika gespielt. Im Jazz ist der Blues eigentlich nur noch als Harmonie-Folge bekannt (wie die Rhythm-Changes von G. Gershwin). Häufig wird die klassische Blues-Form um die gängige Jazz-Kadenz II-V-I und um Jazz-Akkorde erweitert und verändert. Am nächsten kamen sich Jazz und Blues Anfang der 40er Jahre des 20. Jahrhunderts. Insbesondere Charlie Christian auf Jazz-Seite und T-Bone Walker als Vertreter des Blues brachten diese beiden Musikstile sehr eng zusammen. Melodik/Instrumentierung. Der melodische Aufbau einer Strophe entspricht dem inhaltlichen. Typisch sind die so genannten Blue Notes. Diese Töne haben im chromatischen zwölftönigen System keinen Platz, weil sie aus der afrikanischen Pentatonik kommen. Es handelt sich im Wesentlichen um zwei Töne: ein Ton zwischen kleiner und großer Terz und einer zwischen verminderter und reiner Quinte, jeweils bezogen auf den Grundton. Die kleine Septime ist streng genommen keine "blue note". Siehe dazu auch den Artikel über die Bluestonleiter. Seit Beginn der 1920er Jahre entwickelte sich die (akustische) Gitarre zum stilprägenden Instrument des Delta Blues. Bis dahin wurden Blues häufig von Tanz-Orchestern gespielt. Bei der Besetzung gab es offenbar keine festen Vorgaben, wenn auch die Klarinette, die Fiddle sowie das Banjo in vielen Orchestern dieser Art vertreten gewesen sein dürften. Für die Basslage wurde entweder eine Tuba, ein Tonnenbass oder der Jug eingesetzt. Das häufig gezeichnete Bild des einsamen Blues-Sängers, der nur von seiner Gitarre begleitet den Blues singt, ist ein Klischee. Gemeinsame Auftritte mit anderen Blues-Sängern waren genau so häufig wie Soloauftritte. Gitarren wurden seit Ende des 19. Jahrhunderts durch die industrielle Produktion und den Versandhandel selbst im rückständigen Delta erschwingliche Begleitinstrumente. Hinzu kam, dass Gitarren mit den klimatischen Extrembedingungen im feucht-heißen Süden der USA besser zurechtkamen als bspw. Piano oder Banjo. Gespielt wurden fast ausschließlich offene Stimmungen. Die heutige Standardstimmung der Saiten nach E-A-d-g-h-e' begann sich erst später bei den Blues-Musikern durchzusetzen. Barockmusik. Die Periode der Barockmusik in der abendländischen Kunstmusik, auch bezeichnet als Generalbasszeitalter, schließt sich an die Renaissance an und erstreckt sich vom Beginn des 17. bis etwa zur Mitte des 18. Jahrhunderts. Sie zählt heute zur sog. Alten Musik. Häufig werden Johann Sebastian Bach und Georg Friedrich Händel als Vollender des musikalischen Barocks betrachtet. Bei den Bachsöhnen und ihrem Umkreis etablierte sich bereits ab den 1730er Jahren der so genannte empfindsame Stil, der über die Vorklassik der Mannheimer Schule zur Wiener Klassik mit Haydn und Mozart führte. Charakterisierung. Zu Beginn des 17. Jahrhunderts aufkommende Merkmale, die als Beginn eines neuen Musikzeitalters betrachtet werden können, sind außer dem Generalbass die Monodie (Sologesang oder -instrumentalstimme mit Begleitung) und die neu entstandenen Gattungen Oper sowie später Instrumentalkonzert und Oratorium. Form. Der Lautenspieler. Ölgemälde von Michelangelo Caravaggio (um 1595) Während des Barocks emanzipierte sich die – vorher streng an den Gesang gekoppelte – Instrumentalmusik. Dies zeigt sich im "konzertanten Prinzip", dem bewegten Zusammenwirken und quasi Wetteifern von Stimmen (vokal wie instrumental). Es entstand das Concerto grosso, das den Wechsel zwischen einer konzertierenden Sologruppe (Concertino) und Orchester (Tutti, Ripieno) bezeichnet. Anstelle der Solistengruppe tritt im Solokonzert ein einzelner Solist auf. Weitere musikalische Formen, die sich im Barockzeitalter ausbildeten, waren etwa Suite, Fuge, Sonate, Kantate und Oratorium. Opern hatten im 18. Jahrhundert einen sehr großen Stellenwert. Einerseits dienten sie höfischer Repräsentation, andererseits waren sie – vor allem in Venedig, wo es zahlreiche öffentliche Opernunternehmen gab – gleichsam Volksspektakel. In Italien war es üblich, bekannte Arien in neue Opern zu übernehmen. Bei Wiederaufführungen wurden Opern häufig an Sänger angepasst und Teile ausgetauscht. So kam es zu sogenannten Pasticci. Insbesondere in Frankreich stellte man aus den instrumentalen Zwischenspielen Suiten zusammen, die weite Verbreitung fanden. Ausdruck. Die musikalische Sprache und Melodienbildung beruhte auf einem reichhaltigen System von "Figuren", die einer musikalischen Rhetorik entsprachen und an „Affekte“ gekoppelt waren, das heißt, menschliche Gemütszustände aufzuzeigen versuchten. Als nur eines unter vielen möglichen Beispielen sei die chromatisch absteigende Basslinie ("passus duriusculus") genannt, die gerne verwendet wurde, wenn ein Klagegesang zu komponieren war. Besonders im Frühbarock wurde die venezianische Mehrchörigkeit – das Musizieren unter Einbeziehung der räumlichen Verteilung – weitergeführt. Struktur. Die bereits im Mittelalter entstandene und in der Renaissance zu ihrer Vollendung geführte Polyphonie, also das Zusammenklingen selbstständig geführter Melodielinien, fand breite Verwendung im Barock. Oft wurde diese polyphone Struktur imitatorisch komponiert, beispielsweise in Fugen. Zu den Melodiestimmen trat meist der Generalbass, eine in einer besonderen Ziffernnotation aufgezeichnete, durchgehende und improvisatorische Begleitung durch mehrstimmige Instrumente wie Orgel, Cembalo oder Laute, häufig verstärkt durch ein weiteres Bassinstrument wie Cello, Kontrabass oder seltener Fagott. Der gesamte Konzertsatz wurde durch das Eröffnungsmotiv melodisch wie rhythmisch geprägt; Ritornelle des Tutti gliederten den Gesamtablauf. Eine beständige Wiederholung rhythmischer und melodischer Kleinmotive (Motorik) führte zu einer festen Betonungsordnung und Akzentgliederung. Als charakteristische Schlusswendungen zur formalen Gliederung und Abgrenzung klarer Tonartenbereiche (Dur- und Moll-Tonarten) dienten Kadenzen. Klangtheorie. Die Barockmusik wurde durch die Erkundung der Chromatik geprägt. Der Tendenz der Renaissance folgend werden die früher gebräuchlichen Kirchentonarten in der Kompositionspraxis und in der Musiktheorie auf die beiden Tongeschlechter Dur und Moll und die beiden bis heute geläufigen Skalen reduziert. Aus den in der Renaissance aufgekommenen mitteltönigen Stimmungen wurden später die temperierten Stimmungen entwickelt, um das Spiel in vielen Tonarten ohne extrem scharf klingende Intervalle zu ermöglichen. Es werden zunehmend Tonarten mit mehreren Vorzeichen verwendet, und - anders als noch in der Hochrenaissance üblich - werden Alterationen grundsätzlich immer vom Komponisten notiert. Instrumente. Viele der noch heute gebräuchlichen Instrumente wurden in der Barockzeit entwickelt. Die barocken Formen dieser Instrumente unterscheiden sich jedoch im Klang beträchtlich von ihren Nachfahren, da ein anderes Klangideal vorlag, bei dem Instrumente an die menschliche Stimme erinnern sollten. Streichinstrumente (Barockvioline), aber auch Holzbläser klangen allgemein leiser, weniger strahlend und tragfähig, dafür aber weicher und modulationsfähiger in der Klangfarbe. Der große Instrumentenreichtum der Renaissance schwand im Barock. Bei den Flöten konnte sich die Blockflöte noch längere Zeit als Soloinstrument in Diskantlage behaupten, ehe sie von der Traversflöte verdrängt wurde. Die Rohrblattinstrumente der Renaissancezeit verschwanden vollständig. Aus dem Pommer wurde die wesentlich leisere Oboe entwickelt. Bassdulzian und Rankett, die noch im Frühbarock eingesetzt wurden, wurden später vom aus dem Dulzian entwickelten Fagott abgelöst. An Instrumenten mit einfachem Rohrblatt setzte sich weiters das Chalumeau durch (nicht zu verwechseln mit der Schalmei der Renaissance). Bei den Blechblasinstrumenten wurden die Posaune und zunächst auch der Zink übernommen. Letzterer wurde bis zur Jahrhundertmitte vor allem in der Kirchenmusik eingesetzt. Bei den Streichinstrumenten verschwanden Liren, Rebecs, Fideln und zuletzt auch die Gamben und wurden durch die Violinenfamilie ersetzt. Bei den Zupfinstrumenten wurden Harfe und Laute übernommen und weiterentwickelt. In Italien kam die aus der Mandora entwickelte Mandoline auf. Von den Schlaginstrumenten der Renaissance wurde nur die Pauke übernommen. Dafür gab es in dieser Zeit aber einige kuriose Erscheinungen wie das pantalonische Cymbal in Sachsen und das Salterio in Italien, das sogar eine gewisse Breitenwirkung erlangte. Vor allem in der französischen Barockmusik wurden gelegentlich ältere Instrumente wie die Drehleier oder leise klingende Sackpfeifen eingesetzt. Das auf Streichinstrumenten aufgebaute und mit Blasinstrumenten ergänzte Orchester, darunter zum Beispiel die berühmte "Kurfürstlich-Sächsische und Königlich-Polnische Kapelle" in Dresden und Warschau, begann sich zu standardisieren – in schrittweiser Abkehr von den freien und wechselnden Instrumentalbesetzungen der Renaissance. Tasteninstrumente wie Cembalo und Orgel erfuhren eine Erweiterung ihres Umfangs und ihrer Register und eine Verbesserung ihrer Mechanik. Bedeutende Vertreter. Vgl. auch die Liste von Barockkomponisten. Frühbarock. Zu Beginn des Barocks steht Claudio Monteverdi (1567–1643), der mit kompositionstechnischen Innovationen und der Weiterentwicklung junger Musikgattungen Pionierarbeit leistete. Er kombinierte als einer der ersten Komponisten die sich in der Spätrenaissance abzeichnenden neuen Entwicklungen. Vor allem auf dem Gebiet der Dissonanzbehandlung war er geradezu ein Vordenker. Heinrich Schütz (1585–1672) nahm sich den neuen italienischen Stil zum Vorbild und verband ihn mit den Ausdrucksformen der deutschen Sprache, was ihm als erstem deutschem Komponisten europäischen Ruf einbrachte. Zusammen mit Schütz übte Jan Pieterszoon Sweelinck (1562–1621) großen Einfluss aus, der sich in den Werken ihrer Schüler teilweise niederschlug. In der Folge wurden einige Instrumental- und Vokalformen unter anderem von Girolamo Frescobaldi (1583–1643), Giacomo Carissimi (1605–1674) und Johann Heinrich Schmelzer (1623–1680) maßgeblich geprägt. Hochbarock. Das französische Musikleben des späten 17. Jahrhunderts wurde maßgeblich von Jean-Baptiste Lully (1632–1687) am Hofe Ludwigs XIV. geprägt. Die eingängige Musik Lullys, die vor allem die Tanzbegeisterung dieser Epoche befriedigte, prägte den „Barock“ das höfische Leben. Als typisch französische musikalische Form sei die Suite genannt, die oftmals durch eine französische Ouvertüre eingeleitet wurde. Große Bedeutung hatte auch das Ballett. Im Gegensatz zum populären, tanzbetonten Stil Lullys stand im Hochbarock die eher intellektuelle und vielleicht „progressive“ italienische Musik, deren vornehmster Vertreter Arcangelo Corelli (1653–1713) war, im Vordergrund. In Deutschland wurde die Musik vor allem von den Komponisten der norddeutschen Orgelschule geprägt, deren repräsentativster Vertreter Dietrich Buxtehude (1637–1707) war. Aus dem geistlichen Konzert entstand hier die Kantate. In England entwickelte sich unter Henry Purcell (1659–1695) und anderen ein eigener Stil. Spätbarock. Entwickelte sich im Hochbarock die Musik noch unabhängig in verschiedenen Regionen Europas, so zeichnete sich der Spätbarock durch eine grenzübergreifende Verbreitung der Stile aus. Im deutschen Raum trieb Georg Philipp Telemann (1681–1767) diese Entwicklung voran und wurde schließlich zur „Ikone“ unter den Tonkünstlern. Weitere berühmte deutsche Tonschöpfer des Spätbarock waren Carl Heinrich Graun und Johann Adolph Hasse. Heutzutage gilt Johann Sebastian Bach (1685–1750) vielen als „Vollender“ des Spätbarocks. Zu Lebzeiten war er jedoch weit weniger berühmt als die oben genannten und eher als Orgelvirtuose geschätzt denn als Komponist. Stilistisch schließt ein großer Teil seiner Musik sich eher dem Hochbarock als dem Spätbarock an. Der italienische Violinist und Komponist Antonio Vivaldi (1678–1741), der im 20. Jahrhundert zu neuer Popularität fand, beeinflusste mit seiner Konzertform viele weitere Musiker. Besonders im Spätbarock erfreuten sich Opern großer Beliebtheit. In England war vor allem Georg Friedrich Händel (1685–1759) in diesem Bereich produktiv. Mit dem Tod Telemanns und anderer letzter Vertreter der deutschen Barockmusik in den 1770er Jahren schwand auch die Popularität des empfindsamen und des galanten Stils zugunsten der Wiener Klassik. Komponisten im Barockstil hat es aber bis zum Ende des 18. Jahrhunderts gegeben, z. B. den zu Lebzeiten in England sehr beliebten Niederländer Pieter Hellendaal. Geistiger Hintergrund. Typisch für die Zeit des Barocks ist der Absolutismus, der seinen reinsten Ausdruck am Hofe Ludwig XIV. fand und dessen kulturelles Schaffen in ganz Europa imitiert wurde. Die Kultur blühte unter feudalistischer Förderung auf, und in Bauwerken, Gartenanlagen und anderem wurde das Repräsentative und Monumentale bis hin zum Übertriebenen angestrebt. Die Bezeichnung dieser Epoche stammt vom portugiesischen „barroca“ – einem vieldeutigen Begriff, der u. a. Tongefäße, aber auch Lehm/Geröll bedeutet. Hingegen ist „barocca“ die spätere italienische Variante – hier bereits ausschließlich als Bezeichnung der barocken Epoche. Der Ausdruck Barock ist auf jeden Fall eine eher unfreundliche Titulierung, die erst in nachbarocker Zeit zum Namen besagter Epoche wurde. Frischs "Deutsch=Französisches Wörterbuch" („andere Auflage“, 1719) bezeichnet „baroque“ als eine Perle, „die nicht gantz rund“ sei. Ansonsten fühlte sich der Zeitgenosse des Barocks als ein Vertreter einer modernen, aufgeschlossenen, „galanten“ Zeit. Problematisch ist die Tatsache, dass der Stilbegriff „Barock“ für recht verschiedene Zeitströmungen steht. Das Frühbarock neigte eher zum Derben, Rauen – völlig im Gegensatz zur Galanterie des Hochbarocks. Die Bezeichnung „Spätbarock“ ist ebenfalls problematisch, weil diese spätere Epochen überschneidet, die eigentlich einen eigenen Namen haben (Régence, Rokoko). In den Künsten der Barockzeit interessierte man sich insbesondere dafür, die verschiedenen menschlichen Stimmungen (Affekte) zum Ausdruck zu bringen und in festen Formen zu repräsentieren. Eine besondere Vorliebe hatte man für die Allegorie, damals im deutschsprachigen Raum auch als „Sinnbildniß“ bezeichnet. Die Ideale der Galanterie waren eigentlich moralphilosophisch gemeint. Es ging dabei schlicht um die Regelung menschlichen Zusammenlebens: Rücksicht, Zuvorkommenheit, Höflichkeit, Duldsamkeit. Doch schon damals interpretierten „leichtlebige“ Gemüter das Wesen des Galanten zu einer Lebensweise um, die darauf bedacht war, das jeweils andere Geschlecht mit vorgeschütztem Anstand für sich einzunehmen. Religiöse Schwärmer nahmen dies wiederum zum Anlass, bekennend galanten Damen und Herren generell sündhafte Absichten zu unterstellen. Hier zeigt sich das Widersprüchliche des Barocks: Auf der einen Seite steht es für Lebensfreude, Lust – andererseits stößt man auch immer wieder auf streng asketische Haltungen (siehe u. a. Pietismus). Mit dem Tode des Sonnenkönigs (1715) schien sich dann das Zeitgefühl verändert zu haben. In der Mode schlugen ab etwa 1715 völlig neue Akzente durch: der Barock verabschiedete sich langsam und es bahnt sich der Regence-Stil an – um die Mitte des Jahrhunderts abgelöst vom Rokoko, jedoch verschwimmen im musikhistorischen Bereich die Begriffe „Barock“ und „Rokoko“. Wiederentdeckung. Nach dem Ende des Barockzeitalters wurde Barockmusik als veraltet betrachtet und nicht mehr aufgeführt. Lediglich die Musik von Händel, besonders die Oratorien gerieten nicht in Vergessenheit und wurden auch Ende des 18. und zu Beginn des 19. Jahrhunderts aufgeführt. Zur gleichen Zeit begannen sich mehrere Musikliebhaber mit älterer Musik zu beschäftigen. Zu nennen sind etwa Raphael Georg Kiesewetter, Simon Molitor oder Johann Nikolaus Forkel. Ein wichtiger Meilenstein für die Wiederentdeckung von Johann Sebastian Bach war die Wiederaufführung der "Matthäuspassion" durch Felix Mendelssohn Bartholdy im Jahre 1829. Andere Komponisten mussten bis ins 20. Jahrhundert auf ihre Entdeckung warten, etwa Vivaldi, von dem man bis in die 1920er Jahre kaum mehr kannte als "Die vier Jahreszeiten". Heutige Sichtweise. Mit der Wiederentdeckung von Bach durch Mendelssohn begann die bis heute andauernde Berühmtheit und Wertschätzung von J.S. Bach. Vielen gelten seine Werke heute als Inbegriff und teilweise "Vollendung" des Barocks. Jedoch war Bach zu Lebzeiten kaum außerhalb von Sachsen und Thüringen bekannt. Im 20. Jahrhundert wurden zunehmend auch Kompositionen anderer Tonschöpfer des Barocks bekannt. Dennoch verhalf vor allem das populäre Interesse an Bach der Barockmusik zum Wiederaufleben. Hugo Riemann und Guido Adler vermieden die durch die Architektur und bildende Kunst geprägte Epochenbezeichnung „Barock“ (wie auch den Begriff der „Renaissance“) und versuchten eine rein stilgeschichtliche Typisierung vorzunehmen. Bei Riemann heißt „Barock“-Musik „Musik des Generalbasszeitalters“. Im von Adler herausgegebenen „Handbuch der Musikgeschichte“ wird der Begriff des „Barockstils“ nur in einem kurzen Kapitel von Arnold Schering verwendet. Heute, 2015, wird Barockmusik im Wesentlichen in der so genannten historischen Aufführungspraxis interpretiert. Interpreten von Barockmusik sind sich heutzutage dieser Erkenntnisse bewusst, auch wenn man im Einzelfall Kompromisse bezüglich der angewendeten Mittel eingeht oder auch bewusst anders entscheidet. Auch das barocke Repertoire öffnete sich mit der historischen Aufführungspraxis, die anfangs belächelt wurde und sich erst etwa in den 1970er Jahren durchsetzte, immer weiter. Heute werden weltweit ähnlich viele Tonträger der Alten Musik – darunter insbesondere des Barocks – wie der klassischen Musik nachfolgender Epochen verkauft. "Siehe auch: Liste von Barockinterpreten" Siehe auch. ! Berliner Mauer. Die Berliner Mauer aus „Augenhöhe“, 1985 Die Berliner Mauer war während der Teilung Deutschlands ein hermetisch abriegelndes Grenzbefestigungssystem der Deutschen Demokratischen Republik (DDR), das mehr als 28 Jahre, vom 13. August 1961 bis zum 9. November 1989, bestand. Es trennte nicht nur die Verbindungen im Gebiet Groß-Berlins zwischen dem Ostteil („Hauptstadt der DDR“) und dem Westteil der Stadt, sondern umschloss völlig alle drei Sektoren des Westteils und unterbrach damit auch seine Verbindungen zum Berliner Umland, das im DDR-Bezirk Potsdam lag. Von der Berliner Mauer ist die ehemalige innerdeutsche Grenze zwischen West- (alte BRD) und Ost-Deutschland (DDR) zu unterscheiden. Die Berliner Mauer als letzte Aktion der Teilung der durch die Nachkriegsordnung der Alliierten entstandenen Viersektorenstadt Berlin war Bestandteil und zugleich markantes Symbol des Konflikts im Kalten Krieg zwischen den von den Vereinigten Staaten dominierten Westmächten und dem sogenannten Ostblock unter Führung der Sowjetunion. Durch einen Beschluss der politischen Führung der Sowjetunion Anfang August 1961 und mit einer wenige Tage später ergehenden Weisung der DDR-Regierung errichtet, ergänzte die Berliner Mauer die 1378 Kilometer lange innerdeutsche Grenze zwischen der DDR und der Bundesrepublik Deutschland, die bereits mehr als neun Jahre vorher „befestigt“ worden war, um den Flüchtlingsstrom zu stoppen. Für die DDR-Grenzsoldaten galt seit 1960 in Fällen des „ungesetzlichen Grenzübertritts“ der Schießbefehl, der erst 1982 formell in ein Gesetz gefasst wurde. Bei den Versuchen, die 167,8 Kilometer langen und schwer bewachten Grenzanlagen in Richtung West-Berlin zu überwinden, wurden nach derzeitigem Forschungsstand (2009) zwischen 136 und 245 Menschen getötet. Die genaue Zahl der Todesopfer an der Berliner Mauer ist nicht bekannt. Die Berliner Mauer wurde am Abend des 9. November 1989 im Zuge der politischen Wende geöffnet. Diese wurde unter dem wachsenden Druck der mehr Freiheit fordernden DDR-Bevölkerung vollzogen. Der Mauerfall ebnete den Weg, der innerhalb eines Jahres zum Zusammenbruch der SED-Diktatur, zur Auflösung der DDR und gleichzeitig zur staatlichen Einheit Deutschlands führte. Sprachliche Aspekte. In der DDR wurde die Mauer als „befestigte Staatsgrenze“ oder (propagandistisch) als „antifaschistischer Schutzwall“ bezeichnet (von Horst Sindermann geprägt). Hauptzweck war die Verhinderung der Flucht aus der DDR durch deren Einwohner, die dort als „ungesetzlicher Grenzübertritt“ "(Republikflucht)" unter Strafe stand. Da die Mauer auch in dem ganzen West-Berlin umgebenden Gebiet der DDR errichtet wurde, war der Westteil der Stadt fortan eine von Mauern umgebene westliche Insel, auch „Schaufenster der freien Welt“ genannt. 1945–1949. Nach dem Ende des Zweiten Weltkriegs wurde Deutschland 1945 gemäß den EAC-Zonenprotokollen beziehungsweise den Vereinbarungen der Konferenz von Jalta in vier Besatzungszonen aufgeteilt, die von den alliierten Siegermächten USA, UdSSR, Großbritannien und Frankreich kontrolliert und verwaltet werden sollten. Analog wurde Groß-Berlin als ehemalige Reichshauptstadt in vier Sektoren geteilt. Im Sommer 1945 wurden Demarkationslinien zwischen den Besatzungszonen, die sogenannten „Zonengrenzen“ gezogen. Teilweise wurden Schlagbäume und weiß-gelbe Holzpfeiler errichtet sowie Farbmarkierungen an Bäumen vorgenommen. Es war nun eine Genehmigung erforderlich, um die Zonengrenze zu überschreiten, nur für Pendler und Bauern wurde ein "kleiner Grenzverkehr" eingeführt. Auf Befehl der Sowjetischen Militäradministration in Deutschland (SMAD) wurde in der Sowjetischen Besatzungszone (SBZ) eine Grenzpolizei aufgebaut, die am 1. Dezember 1946 erstmals aktiv wurde, Bestimmungen für den Gebrauch der Schusswaffe wurden erlassen. Für Reisen zwischen der SBZ und den Westzonen mussten nun "Interzonenpässe" beantragt werden. Erste Grenzanlagen wurden auf der Ostseite errichtet, insbesondere in Waldgebieten Stacheldraht-Hindernisse, an grenzüberschreitenden Straßen und Wegen Straßensperren. Wenig später begann auf verschiedensten Ebenen der Kalte Krieg zwischen dem Westen und dem sich entwickelnden Ostblock. Zunächst folgte in der Auseinandersetzung des Kalten Kriegs ein gegenseitiger Schlagabtausch zwischen den westlichen Alliierten und der Sowjetunion. Das erste unlösbare Zerwürfnis waren die Reparationsleistungen, die noch gemeinsam tagenden vier Alliierten kamen über sie in Streit. Da die UdSSR inzwischen sah, dass sie aus ihrer Zone ihren Bedarf an Reparationszahlungen nicht decken konnte, forderte sie 1946/1947 auf verschiedenen alliierten Konferenzen eine Beteiligung an den Reparationen aus dem Ruhrgebiet, sonst könne sie nicht einer im Potsdamer Abkommen geplanten wirtschaftlichen Einheit zustimmen. Nur Frankreich akzeptierte dies, die USA und Großbritannien nicht. Von der Londoner Sechsmächtekonferenz im Februar 1948, auf der die Westmächte unter anderem über einen separaten Staat im Westen Deutschlands erstmals Verhandlungen abhielten, war die Sowjetunion ausgeschlossen, sie wurde nicht eingeladen. Daraufhin zog sich die Sowjetunion im März aus der obersten Behörde der Alliierten in Deutschland, dem Kontrollrat zurück, wodurch es keine gemeinsame interalliierte Kontrolle über Deutschland mehr gab. Es folgte Anfang Juni durch die Westmächte, nachdem Frankreich seine Opposition aufgab, die Bildung der Trizone aus den drei Westzonen und einige Tage später begann ab Juni 1948 in dieser neuen vereinigten Zone und in den Berliner Westsektoren die Einführung der D-Mark (West). Das Resultat in Deutschland war eine erste Spaltung der politischen und wirtschaftlichen Einheit in zwei sich gegenüberstehende Zonen mit zwei unterschiedlichen Währungen. Groß-Berlin war nun in zwei Währungsgebiete geteilt. Dies schuf unter anderem erste Probleme wenn Wohn- und Arbeitsort der Einwohner Berlins im jeweils anderen Gebiet lagen. Die Sowjetunion reagierte nun mit der Berlin-Blockade die vom 24. Juni 1948 bis zum 12. Mai 1949 andauerte und die in die erste Berlin-Krise führte. Eine weitere Auswirkung das Kalten Kriegs war, dass Groß-Berlin sich zu einem zentralen Gebiet von gegenseitigen Bespitzelungen der Nachrichtendienste aus Ost und West entwickelte. 1949–1959. Unmittelbar nach dem Ende der sowjetischen Blockade wurde auf dem Gebiet der Trizone am 23. Mai 1949 die Bundesrepublik Deutschland gegründet. Am 7. Oktober desselben Jahres folgte in der SBZ ebenfalls die Gründung eines Staates, der Deutschen Demokratischen Republik. Formal hatte Berlin den Status einer bezüglich deutschen Militärs entmilitarisierten Viersektorenstadt und war unabhängig von den beiden deutschen Staaten, was jedoch in der Praxis wenig Bedeutung hatte. West-Berlin näherte sich in vielem dem Status eines Bundeslandes an und wurde von bundesdeutscher Seite auch als solches betrachtet, allerdings wurde später im Rahmen der Entspannungspolitik und der Ostverträge darauf verzichtet, in West-Berlin Sitzungen des Deutschen Bundestags, des Bundesrats und der Bundesversammlung stattfinden zu lassen. Bei der Gründung der DDR wurde ganz Berlin zu deren Hauptstadt erklärt. Die Bezeichnung "Hauptstadt der Deutschen Demokratischen Republik" für den Ostteil der Stadt wurde erst in den 1960er Jahren eingeführt. Zunächst trug der östliche Teil den propagandistischen Namen "Demokratischer Sektor". Seit Bestehen der DDR flüchteten Bürger in die Bundesrepublik, wobei auch außergewöhnliche und oft lebensgefährliche Fluchtmöglichkeiten ergriffen wurden. Im Jahr 1952 begann die DDR die deutsch-deutsche Grenze mittels Zäunen, Bewachung und Alarmvorrichtungen zu sichern und richtete auch eine fünf Kilometer breite Sperrzone ein, die nur mit einer Sondergenehmigung – typischerweise für Anwohner – betreten werden durfte. In Richtung der Grenze gab es wiederum einen 500 Meter breiten Schutzstreifen, an den sich unmittelbar an der Grenze ein zehn Meter breiter Kontrollstreifen anschloss. „Unzuverlässige“ Bewohner wurden aus dem Grenzgebiet – beispielsweise in der „Aktion Ungeziefer“ – zwangsumgesiedelt. Bahnhof Potsdam Pirschheide im Jahr 2009 mit Bezeichnung „Hbf“ Ebenfalls seit 1952 gab es von der SED-Führung Überlegungen, die Grenze zu den Westsektoren abzuriegeln. Zum einen fehlte damals aber eine Zustimmung der Sowjetunion, zum anderen wäre eine Abriegelung aus verkehrstechnischen Gründen kaum möglich gewesen: Zwar ließ die SED-Führung bereits 1956 den – derzeit weitgehend verfallenen – Bahnhof Potsdam Pirschheide zum Bahnhof Potsdam-Süd ausbauen, der Anfang der 1960er Jahre in Hauptbahnhof umbenannt wurde (was aktuell – Stand Ende 2014 – durch das verwitterte Schild „Potsda… Hbf“ erkennbar ist), aber vor der vollständigen Fertigstellung des Berliner Außenringes (BAR) im Mai 1961, eines Eisenbahnringes der eine Umfahrung der Westsektoren Berlins und Anschluss an die sie kreuzenden Radialstrecken zum Bahnhof Birkenwerder, Bahnhof Hennigsdorf (b Berlin), Bahnhof Falkensee und Albrechtshof, Bahnhof Staaken Kr. Nauen, Bahnhof Potsdam Stadt, Bahnhof Mahlow und letztlich den Anschluss an die Görlitzer Bahn ermöglichte, war die Deutsche Reichsbahn auf Fahrten durch die Westsektoren angewiesen. Das einzige Verkehrsprojekt, das zu diesem Zeitpunkt einen tatsächlich unabhängigen Verkehr ermöglichte, ohne das Gebiet der Westsektoren zu nutzen, war der mit beachtlicher Leistung von 1950 bis 1952 entstandene Havelkanal. Gleichwohl wurden auf vielen in die Westsektoren führenden Straßen, in Eisenbahnen und anderen Verkehrsmitteln durch die Volkspolizei intensiv Personenkontrollen durchgeführt, um u. a. Fluchtverdächtige („Republikflüchtlinge”) und Schmuggler aufzugreifen. Jedoch waren die 45,1 Kilometer lange Sektorengrenze als Stadtgrenze zwischen West- und Ost-Berlin und die Grenze zum Umland mit etwa 120 Kilometern kaum vollständig zu kontrollieren, sie wirkten daher wie ein Schlupfloch durch die zunächst weiterhin offen bleibende Grenze. So flohen von 1945 bis zum Bau der Berliner Mauer insgesamt etwa 3,5 Millionen Menschen, davon zwischen 1949 und 1961 rund 2,6 Millionen Menschen aus der sowjetischen Besatzungszone und der späteren DDR sowie Ost-Berlin. Außerdem war auch für viele Menschen aus Polen und der Tschechoslowakei Berlin ein Tor zur Flucht in den Westen. Da es sich bei den Flüchtlingen oft um gut ausgebildete junge Leute handelte, bedrohte diese Abwanderung die Wirtschaftskraft der DDR und letztlich den Bestand des Staates. 1959–1961. Die Sowjetunion verfolgte das Ziel, West-Berlin zu einer Freien Stadt zu wandeln, eine Anerkennung der DDR durch die Bundesrepublik und einen Friedensvertrag zu erreichen. Im Falle einer Ablehnung drohte sie den Westmächten damit, der DDR die Kontrolle aller Wege zwischen dem Bundesgebiet und den Westsektoren Berlins zu übertragen. Die Bundesregierung wies die Forderungen, die Teil des Chruschtschow-Ultimatums waren, am 5. Januar 1959 zurück. Eine Aufgabe ihrer Position in Berlin lehnten die Vereinigten Staaten ebenso ab. Dies führte zum Scheitern dieser längerfristigen Versuche der Sowjetunion. Während dieser drei Jahre (1959–1961) spitzte sich zudem die Lage wieder zu, die DDR geriet auf fast allen Gebieten in eine erneute, aber noch tiefere Krise als 1952/1953. Bei der ersten Krise in der DDR von 1952 bis 1953 sprang die UdSSR noch ein und verzichtete auf einen Teil von Zahlungen beispielsweise bei der Übergabe der Sowjetische Aktiengesellschaften an die DDR, leistete zusätzliche Lieferungen von Getreide, Erz und Koks. Nach dem Volksaufstand erfolgte noch ein weiterer Verzicht auf Zahlungen und es kam erneut zu Warenlieferungen. Jedoch bei der jetzigen Krise, entstanden unter anderem durch Fehler bei der Kollektivierung der Landwirtschaft, blieb eine Unterstützung der Sowjetunion für die DDR durch zusätzliche Lieferungen oder Zahlungen aus. Die Informationen zur Krise sind unter anderem selbst durch Meldungen des MfS an die Partei- und Staatsführung dokumentiert. Ein weiteres Problem waren die sogenannten „Grenzgänger“, deren Zahl im Frühjahr 1961 einen Höchststand erreichte. Etwa 50.000 Ost-Berliner und Bewohner des Umlands arbeiteten legal in Westsektoren Berlins, wo ihnen ein Teil ihres Arbeitseinkommens in D-Mark-West ausgezahlt wurde. Im Unterschied zu ihren Mitbürgern in der DDR konnten sie dadurch Urlaubsreisen nach Westdeutschland oder ins westliche Ausland sowie die Anschaffung hochwertiger „Westwaren“ finanzieren. Die SED empfand die Existenz der in den "Aufbau des Sozialismus" nicht integrierbaren Grenzgänger als ständiges Ärgernis. Zur Lösung des Problems der Grenzgänger wollte der Magistrat im Ostsektor mit der Stadtverwaltung in den Westsektoren eine gemeinsame Kommission gründen, jedoch lehnte der Regierende Bürgermeister Willy Brandt Gespräche ab: Daraufhin wurden am 4. August 1961 die Grenzgänger per Verordnung durch den Ostberliner Magistrat angewiesen, sich registrieren zu lassen und Mieten sowie andere Abgaben künftig in DM-West zu zahlen. Zudem stieg in diesen letzten Jahren vor dem Mauerbau die Zahl der Flüchtlinge in den Westen – auch von gut ausgebildeten Fachkräften – rapide an, was die ökonomische Krise der DDR erheblich verstärkte. Die Hälfte der Flüchtlinge war unter 25 Jahre alt. Der Mangel an Arbeitskräften war inzwischen so schwerwiegend, dass die DDR gefährdet war, ihre Wirtschaft nicht mehr aufrechterhalten zu können, denn allein im Ostteil Berlins fehlten 45.000 Arbeitskräfte. Der DDR drohte sowohl ein personeller wie intellektueller Aderlass. Diese Fluchtwelle erreichte 1961 ebenfalls Höchstwerte. Im Monat Juli waren es schon 30.000 und am 12. August 1961, also an einem einzigen Tag, flüchteten 3.190 Personen. Mauerbau. a> während der Pressekonferenz am 15. Juni 1961 Mauerbau, Aufstellen von Betonblöcken, 1961 Die Entscheidung zur Schließung der Sektorengrenze fiel bei einer Besprechung zwischen Chruschtschow und Ulbricht am 3. August 1961 in Moskau, nachdem sich die sowjetische Führung seit Mitte der 1950er Jahre lange gegen ein solches Vorhaben verwahrt hatte. Das Vorhaben des Mauerbaus, beziehungsweise wörtlich, der Sicherung der Westgrenze wurde dann auf der Tagung der politischen Führungschefs der Staaten des Warschauer Vertrages vom 3. bis 5. August 1961 beschlossen. Die Mauer sollte den Machthabern des Ostblocks dazu dienen, die umgangssprachlich so bezeichnete „Abstimmung mit den Füßen“, weg aus dem „sozialistischen Arbeiter- und Bauernstaat“, endgültig durch Abriegelung der Grenzen zu stoppen. Ulbricht war damit der erste, der den Begriff „Mauer“ in diesem Bezug öffentlich verwendete – zwei Monate, bevor sie überhaupt stand. Über den Bau der Mauer war zu jenem Zeitpunkt jedoch noch nicht entschieden. Zwar wurden die westlichen Alliierten durch Gewährsleute über die Planung „drastischer Maßnahmen“ zur Abriegelung von West-Berlin informiert, vom konkreten Zeitpunkt und Ausmaß der Absperrung gaben sie sich jedoch öffentlich überrascht. Da ihre Zugangsrechte nach West-Berlin nicht beschnitten wurden, griffen sie nicht militärisch ein. Die Außenminister der drei Westmächte und der Bundesrepublik beschlossen am 7. August in Paris, vorbereitende Maßnahmen zu treffen, um einer kritischen Situation in Berlin begegnen zu können. In der veröffentlichten Erklärung der Teilnehmerstaaten des Treffens des Warschauer Pakts wurde vorgeschlagen, „an der Westberliner Grenze der Wühltätigkeit gegen die Länder des sozialistischen Lagers den Weg zu verlegen und um das Gebiet Westberlins eine verlässliche Bewachung und wirksame Kontrolle zu gewährleisten.“ Am 7. August kündigte Ministerpräsident Chruschtschow in einer Rundfunkrede eine Verstärkung der Streitkräfte an der sowjetischen Westgrenze und die Einberufung von Reservisten an. Am 11. August billigte die Volkskammer der DDR die Ergebnisse der Moskauer Beratung und fasste einen „Beschluss zu Fragen des Friedensvertrages”. In ihm wurde der Ministerrat mit einer vage gehaltenen Formulierung beauftragt, „alle Maßnahmen vorzubereiten und durchzuführen, die sich auf Grund der Festlegungen der Teilnehmerstaaten des Warschauer Vertrages und dieses Beschlusses als notwendig erweisen”. a>angehöriger sichern den Mauerbau, August 1961 Ulbricht lud am 12. August zu 16 Uhr Mitglieder des SED-Politbüros, Minister und Staatssekretäre, die Vorsitzenden der Blockparteien und den Oberbürgermeister von Ost-Berlin zu einem „Beisammensein” in das Gästehaus der DDR-Regierung am Großen Döllnsee, rund 80 km nördlich von Berlin, ein, wo sie von der Außenwelt abgeschnitten und unter Kontrolle waren. Er verschwieg zunächst den Zweck des Treffens, lediglich die Mitglieder des SED-Politbüros waren bereits am 7. August eingeweiht worden. Gegen 22 Uhr lud Ulbricht zu einer „kleinen Sitzung“ ein. Auf ihr teilte er seinen Gästen mit: „Aufgrund der Volkskammerbeschlüsse werden heute Nacht zuverlässige Sicherungen an der Grenze vorgenommen.” In dem von den Mitgliedern des Ministerrates ohne Widerspruch unterschriebenen Beschluss hieß es: „Zur Unterbindung der feindlichen Tätigkeit der revanchistischen und militaristischen Kräfte Westdeutschlands und Westberlins wird eine solche Kontrolle an den Grenzen der Deutschen Demokratischen Republik einschließlich der Grenze zu den Westsektoren von Groß-Berlin eingeführt, wie sie an den Grenzen jedes souveränen Staates üblich ist. Es ist an den Westberliner Grenzen eine verläßliche Bewachung und eine wirksame Kontrolle zu gewährleisten, um der Wühltätigkeit den Weg zu verlegen.” Ulbricht hatte die Anweisungen für die Grenzschließung schon vor dem Eintreffen der Gäste unterschrieben. Honecker hatte sie ausgearbeitet und war längst auf dem Weg in das Ost-Berliner Polizeipräsidium, die Einsatzzentrale für die Abriegelung der Grenze zu West-Berlin, die „Operation Rose“. In der Nacht vom 12. auf den 13. August 1961 begannen die NVA, 5000 Angehörige der Deutschen Grenzpolizei (Vorläufer der Grenztruppen), 5000 Angehörige der Schutz- und kasernierten Volkspolizei und 4500 Angehörige der Betriebskampfgruppen die Straßen und Gleiswege nach West-Berlin abzuriegeln. Dabei waren vonseiten der NVA die 1. motorisierte Schützendivision sowie die 8. motorisierte Schützendivision unter maßgeblicher Beteiligung von Einheiten aus Prora als zweite „Sicherungsstaffel“ in einer Tiefe von ca. 1000 Metern hinter der Grenze eingesetzt. Auch sowjetische Truppen hielten sich in Gefechtsbereitschaft und waren an den alliierten Grenzübergängen präsent. Alle noch bestehenden Verkehrsverbindungen zwischen den beiden Teilen Berlins wurden unterbrochen. Dies betraf allerdings nur noch die U-Bahn und die S-Bahn. Allerdings waren die West-Berliner S-Bahn- und U-Bahn-Linien auf den Tunnelstrecken unter Ost-Berliner Gebiet nur insoweit betroffen, dass die Stationen abgesperrt wurden und ein Ein- bzw. Ausstieg nicht mehr möglich war. Die Züge fuhren ab dem 13. August abends ohne planmäßigen Halt durch die zu sogenannten „Geisterbahnhöfen“ gewordenen Stationen. Nur die den Bahnhof Friedrichstraße berührenden Linien hatten einen Halt zum Erreichen der dort eingerichteten Grenzübergangsstelle. Erich Honecker war als damaliger ZK-Sekretär für Sicherheitsfragen für die gesamte Planung und Umsetzung des Mauerbaus politisch im Namen der SED-Führung verantwortlich. Der 13. August 1961 wird als „Tag des Mauerbaus“ bezeichnet, doch eigentlich wurde an diesem Tag nur die Sektorengrenze abgeriegelt. Als Grenzsicherung wurden an diesem und den Folgetagen an einigen Stellen Mauern errichtet, an anderen wurden Zäune aufgestellt und Stacheldraht gezogen. Auf der Südseite der Bernauer Straße an der Grenze zwischen den Bezirken Mitte und Wedding gehörte der Bürgersteig zu West-Berlin, während die Gebäude auf Ost-Berliner Gebiet standen. In solchen Fällen wurden die Hauseingänge zugemauert. Die Bewohner gelangten nur noch über die Hinterhöfe zu ihren Wohnungen. In den Tagen nach der Abriegelung der Sektorengrenze kam es zu vielen Fluchtversuchen, die später durch z. B. das Zumauern der Fenster, die sich an der Sektorengrenze nach West-Berlin öffneten, und den weiteren Ausbau der Grenzsicherungsanlagen erschwert wurden. Die Abriegelung brachte auch skurrile Situationen mit sich, vor allem im Bereich der Exklaven, wo es Jahre später teilweise auch zu Gebietsaustauschen kam. So wurde das Lenné-Dreieck am Potsdamer Platz, obwohl zu Ost-Berlin gehörend, bei Errichtung der Mauer ausgespart. Mangels Befugnissen der West-Berliner Behörden entwickelte sich das Terrain zeitweise zu einem faktisch rechtsfreien Raum. Die sowjetische Regierung erklärte am 24. August, dass die Luftkorridore nach West-Berlin zur Einschleusung westdeutscher „Agenten, Revanchisten und Militaristen“ missbraucht würden. West-Berlin gehöre nicht zur Bundesrepublik; deshalb könne sich die Kompetenz von Amtsstellen der Bundesrepublik nicht auf Berlin erstrecken. Bis zum September 1961 desertierten allein von den eingesetzten Sicherungskräften 85 Mann nach West-Berlin, außerdem gab es 216 gelungene Fluchtversuche von 400 Menschen. Unvergessen sind bekannt gewordene Bilder von Flüchtlingen, die sich an Bettlaken aus Häusern in der Bernauer Straße abseilten, einer alten Frau, die sich in ein Sprungtuch der West-Berliner Feuerwehr fallen ließ, und dem den Stacheldraht überspringenden jungen Grenzpolizisten Conrad Schumann. Westdeutsche und West-Berliner Reaktionen. Bundeskanzler Konrad Adenauer rief noch am selben Tag über Radio die Bevölkerung zu Ruhe und Besonnenheit auf und verwies auf nicht näher benannte Reaktionen, die gemeinsam mit den Alliierten folgen würden. Erst am 22. August, neun Tage nach dem Mauerbau, besuchte er West-Berlin. Auf politischer Ebene protestierte allein der Regierende Bürgermeister Willy Brandt energisch – aber letztlich machtlos – gegen die Einmauerung West-Berlins und die endgültig scheinende Teilung der Stadt. Die westdeutschen Bundesländer gründeten noch im selben Jahr die Zentrale Erfassungsstelle der Landesjustizverwaltungen in Salzgitter, um Menschenrechtsverletzungen auf dem Gebiet der DDR zu dokumentieren und so zumindest symbolisch dem Regime Einhalt zu gebieten. Am 16. August 1961 kam es zu einer Protestdemonstration von Willy Brandt und 300.000 West-Berlinern vor dem Rathaus Schöneberg. Im offiziellen Sprachgebrauch des Senats wurde die Mauer bald nur noch als Schandmauer bezeichnet. Alliierte Reaktionen. US-Soldaten und DDR-Volkspolizisten, Oktober 1961 a> an der Berliner Mauer, 1969 Die Reaktionen der Westmächte auf den Mauerbau kamen zögerlich und sukzessive: Nach 20 Stunden erschienen Militärstreifen an der Grenze. Nach 40 Stunden wurde eine Rechtsverwahrung an den sowjetischen Kommandanten Berlins geschickt. Nach 72 Stunden gingen diplomatische Proteste der Alliierten – um der Form Genüge zu tun – direkt in Moskau ein. Es gab immer wieder Gerüchte, dass die Sowjets den westlichen Alliierten vorher versichert hätten, deren Rechte an West-Berlin nicht anzutasten. US-Präsident John F. Kennedy reagierte zunächst nur zurückhaltend, stand aber zur „freien Stadt“ Berlin. Er reaktivierte General Lucius D. Clay, den „Vater der Berliner Luftbrücke“, und schickte ihn zusammen mit dem US-Vizepräsident Lyndon B. Johnson nach West-Berlin. Am 19. August 1961 trafen die beiden in der Stadt ein. Die amerikanischen Kampftruppen in der Stadt wurden verstärkt: 1.500 Mann der 8. US-Infanteriedivision fuhren aus Mannheim kommend über die Transitstrecke durch die DDR nach West-Berlin. Bei ihrer Ankunft in der Stadt wurden die Truppen von den Menschen mit so großem Jubel begrüßt, dass die US-Mission nach Washington schrieb, man fühle sich an die Begeisterung bei der Befreiung Frankreichs im Zweiten Weltkrieg erinnert. Beides machte der verunsicherten West-Berliner Bevölkerung klar, dass die Vereinigten Staaten zu ihren Rechten in der Stadt stehen würden. Die Amerikaner wiesen Versuche der Volks- und Grenzpolizei energisch zurück, alliierte Offiziere und Angestellte kontrollieren zu wollen. Schließlich wirkte Marschall Iwan Konew, Oberkommandierender der Gruppe der Sowjetischen Streitkräfte in Deutschland (GSSD), mäßigend auf die DDR-Funktionäre ein. Zu einer direkten Konfrontation zwischen amerikanischen und sowjetischen Truppen kam es am 27. Oktober 1961 am Checkpoint Charlie auf der Friedrichstraße, als – infolge von Unstimmigkeiten – jeweils 30 Kampfpanzer der amerikanischen und sowjetischen Armee unmittelbar am Grenzstreifen einander gegenüber auffuhren. Am nächsten Tag wurden allerdings beide Panzergruppen wieder zurückgezogen. Dieses „kalte Scharmützel“ hatte aber enorme politische Bedeutung, weil es den Amerikanern auf diese Weise gelungen war, zu belegen, dass die UdSSR und nicht die DDR für den Ostteil Berlins verantwortlich war. Beide Seiten wollten den Kalten Krieg nicht wegen Berlin eskalieren lassen oder gar einen Atomkrieg riskieren. Der US-amerikanische Außenminister Dean Rusk sprach sich in einem Fernsehinterview am 28. Februar 1962 für die Schaffung einer internationalen Behörde zur Überwachung des freien Zugangs nach Berlin und gegen eine Anerkennung der DDR aus, und am 24. April erklärte Rusk, die US-Regierung halte den freien Zugang nach Berlin mit Befugnissen der DDR-Behörden an den Zugangswegen für unvereinbar. Der bundesdeutsche Außenminister Heinrich von Brentano und der französische Staatspräsident Charles de Gaulle wiederum sprachen sich in Pressekonferenzen gegen eine internationale Zugangskontrollbehörde für Berlin aus. Im Juni 1963 besuchte US-Präsident John F. Kennedy Berlin. Vor dem Rathaus Schöneberg hielt er eine Rede über die Mauer, in der er die historischen Worte „Ich bin ein Berliner“ sprach. Dieser symbolische Akt bedeutete den West-Berlinern – insbesondere in Anbetracht der amerikanischen Akzeptanz beim Bau der Mauer – viel. Für die Westalliierten und die DDR bedeutete der Mauerbau eine politische und militärische Stabilisierung, der Status quo von West-Berlin wurde festgeschrieben – die Sowjetunion gab ihre im Chruschtschow-Ultimatum noch 1958 formulierte Forderung nach einer entmilitarisierten, „freien“ Stadt West-Berlin auf. Am 22. August 1962 wurde die sowjetische Kommandantur in Berlin aufgelöst. Am 28. September 1962 erklärte der US-amerikanische Verteidigungsminister Robert McNamara in Washington, dass der freie Zugang nach Berlin mit allen Mitteln zu sichern sei. Die Außenminister der drei Westmächte und der Bundesrepublik kamen am 12. Dezember 1962 in Paris überein, dass der Sowjetunion keine neuen Vorschläge zur Berlin-Frage gemacht werden sollten. Anlässlich eines Arbeitsbesuches von Bundeskanzler Ludwig Erhard am 11. Juni 1964 in Paris bot der französische Präsident Charles de Gaulle für den Fall eines militärischen Konflikts um Berlin oder die Bundesrepublik den sofortigen Einsatz französischer Atomwaffen an. Die Regierungen der drei Westmächte bekräftigten in einer gemeinsamen Erklärung am 26. Juni 1964 zum Freundschaftsvertrag zwischen der Sowjetunion und der DDR vom 12. Juni 1964 ihre Mitverantwortung für ganz Berlin. Geteiltes Land. Der Bau der Mauer machte Berlin bald vom einfachsten Platz für einen unbefugten Übertritt von Ost- nach Westdeutschland zum schwierigsten. West-Berliner durften bereits seit dem 1. Juni 1952 nicht mehr frei in die DDR einreisen, nach Errichtung der Mauer konnten sie ab 26. August 1961 Ost-Berlin nicht mehr besuchen. Nach langen Verhandlungen wurde 1963 das Passierscheinabkommen getroffen, das mehreren hunderttausend West-Berlinern zum Jahresende ein Wiedersehen mit ihrer Verwandtschaft im Ostteil der Stadt ermöglichte. Die DDR verbot ab dem 13. April 1968 Ministern und Beamten der Bundesrepublik den Transit nach West-Berlin durch ihr Gebiet. Am 19. April 1968 protestieren die drei Westmächte gegen diese Anordnung. Am 12. Juni 1968 führte die DDR die Pass- und Visumpflicht für den Transitverkehr zwischen West-Berlin und der Bundesrepublik Deutschland ein. Als Reaktion auf die von der DDR eingeführten Visumgebühren im Berlin-Verkehr beschloss der NATO-Rat, künftig bei Reisegenehmigungen für DDR-Funktionäre in NATO-Staaten eine Gebühr zu erheben. Am 8. Februar 1969 erließ die DDR-Regierung mit Wirkung ab dem 15. Februar ein Durchreiseverbot für die Mitglieder der nach West-Berlin einberufenen Bundesversammlung sowie für Bundeswehrangehörige und Mitglieder des Verteidigungsausschusses des Deutschen Bundestages. Die sowjetische Regierung protestierte gegen die Wahl des Bundespräsidenten in West-Berlin. Am 5. März 1969 wurde Gustav Heinemann in West-Berlin zum Bundespräsidenten gewählt. a> kurz vor der Räumung 1988 Die drei Westmächte schlugen der Sowjetunion am 15. Dezember 1969 Vier-Mächte-Gespräche über eine Verbesserung der Situation in Berlin und auf den Zugangswegen nach Berlin vor. 1971 sicherte das Viermächteabkommen über Berlin die Erreichbarkeit West-Berlins und beendete die wirtschaftliche Bedrohung durch Schließung der Zufahrtsrouten. Ferner bekräftigten alle vier Mächte die gemeinsame Verantwortung für ganz Berlin und stellten klar, dass West-Berlin kein Bestandteil der Bundesrepublik sei und nicht von ihr regiert werden dürfe. Während die Sowjetunion den Vier-Mächte-Status jedoch nur auf West-Berlin bezog, unterstrichen die Westalliierten 1975 in einer Note an die Vereinten Nationen ihre Auffassung vom Viermächtestatus über Gesamt-Berlin. Ab Anfang der 1970er Jahre wurde mit der durch Willy Brandt und Erich Honecker eingeleiteten Politik der Annäherung zwischen der DDR und der Bundesrepublik Deutschland (→ Neue Ostpolitik) die Grenze zwischen den beiden Staaten etwas durchlässiger. Die DDR gewährte nun Reiseerleichterungen, vornehmlich für „unproduktive“ Bevölkerungsgruppen wie Rentner, und vereinfachte für Bundesbürger aus grenznahen Regionen Besuche in der DDR. Eine umfassendere Reisefreiheit machte die DDR von der Anerkennung ihres Status als souveräner Staat abhängig und verlangte die Auslieferung von nicht rückkehrwilligen DDR-Reisenden. Die Bundesrepublik erfüllte aufgrund des Grundgesetzes diese Forderungen nicht. Die DDR-Propaganda bezeichnete die Mauer wie auch die gesamte Grenzsicherung zur Bundesrepublik als "antifaschistischen Schutzwall", der die DDR vor „Abwanderung, Unterwanderung, Spionage, Sabotage, Schmuggel, Ausverkauf und Aggression aus dem Westen“ schützen sollte. Zur Propagierung dieser Darstellung gehörte das Veranstalten von Schauprozessen, wovon der gegen Gottfried Strympe 1962 mit einem Justizmord endete. Die Sperranlagen richteten sich hauptsächlich gegen die eigenen Bürger. Dieser Umstand durfte in der Öffentlichkeit der DDR ebenso wenig thematisiert werden wie die Tatsache der massenhaften „Republikfluchten“. Zwischen dem 13. August 1961 und dem 9. November 1989 gab es 5075 gelungene Fluchten nach West-Berlin oder Westdeutschland, davon 574 Fahnenfluchten. Mauerfall. a> bei seiner berühmten Berliner Rede mit Appell zur Öffnung des Brandenburger Tors am 12. Juni 1987 Die Berliner Mauer fiel in der Nacht von Donnerstag, dem 9. November, auf Freitag, den 10. November 1989, nach über 28 Jahren ihrer Existenz. Die Vorbereitung einer von Seiten der DDR-Regierung kontrollierten Öffnung der Mauer begannen bereits im Oktober 1989: Walter Momper, damals Regierender Bürgermeister von West-Berlin, wusste nach eigenen Angaben seit dem 29. Oktober aus einem Gespräch mit Ost-Berlins SED-Chef Günter Schabowski und Ost-Berlins Oberbürgermeister Erhard Krack davon und traf seinerseits entsprechende Vorbereitungen für eine Öffnung der Mauer im Dezember 1989. Zur Öffnung der Mauer führten zum einen Massenkundgebungen in der Wendezeit und die Forderung nach Reisefreiheit in der damaligen DDR, zum anderen die anhaltende sogenannte „Republikflucht“ großer Bevölkerungsteile der DDR in die Bundesrepublik Deutschland über das Ausland, teils über Botschaften in verschiedenen Hauptstädten damaliger Ostblockstaaten (unter anderem Prag und Warschau), teils über die in Ungarn seit dem 11. September 1989 offene Grenze zu Österreich und seit Anfang November direkt über die Tschechoslowakei. Nachdem der am 6. November 1989 veröffentlichte Entwurf eines neuen Reisegesetzes auf scharfe Kritik gestoßen war und die tschechoslowakische Führung auf diplomatischem Wege zunehmend schärfer gegen die Ausreise von DDR-Bürgern über ihr Land protestierte, beschloss das Politbüro des Zentralkomitees der SED am 7. November, eine Regelung für die ständige Ausreise vorzuziehen. Am Morgen des 9. November erhielt Oberst Gerhard Lauter, Hauptabteilungsleiter für Pass- und Meldewesen im Innenministerium, die Aufgabe, ein neues Reisegesetz zu erarbeiten. Der entsprechende Entwurf, der zusätzlich einen Passus zu Besuchsreisen enthielt, wurde am 9. November vom Politbüro bestätigt und in Richtung Ministerrat weitergeleitet. Im weiteren Geschäftsgang wurde zu dem Beschlussentwurf eine Vorlage an den Ministerrat erstellt, die zwar noch am selben Tag bis 18 Uhr im Umlaufverfahren gebilligt, aber erst am 10. November um 4 Uhr morgens als Übergangsregelung über die staatliche Nachrichtenagentur ADN veröffentlicht werden sollte. DDR-Propagandaparade zum 25. Jahrestag des Mauerbaus am 13. August 1986, drei Jahre vor deren Öffnung Allerdings legte das Justizministerium der DDR am 9. November Einspruch ein. Parallel zum Umlaufverfahren wurde die Ministerratsvorlage am Nachmittag des 9. November im Zentralkomitee behandelt und leicht abgeändert. Die handschriftlich entsprechend abgeänderte Ministerratsvorlage übergab Egon Krenz an das SED-Politbüro-Mitglied Günter Schabowski, bevor dieser zu der angesetzten Pressekonferenz über die Ergebnisse der ZK-Tagung ging, ohne ihn explizit über die beschlossene Sperrfrist bis 4 Uhr morgens zu informieren. Schabowski war bei den vorangegangenen Beratungen in Politbüro und ZK nicht anwesend gewesen. Westdeutsche und West-Berliner Rundfunk- und Fernsehsender verbreiteten sogleich, die Mauer sei „offen“ (was zu diesem Zeitpunkt noch nicht in die Praxis umgesetzt war). Mehrere Tausend Ost-Berliner zogen zu den Grenzübergängen und verlangten die sofortige Öffnung. Zu diesem Zeitpunkt waren weder die Grenztruppen noch die für die eigentliche Abfertigung zuständigen Passkontrolleinheiten (PKE) des Ministeriums für Staatssicherheit oder die sowjetische Armee in Berlin darüber informiert, was eine gewisse Gefahr eines – möglicherweise bewaffneten – Eingreifens bedeutete. Um 21:15 Uhr passierten als erste die DDR-Bürgerinnen Annemarie Reffert und ihre 16-jährige Tochter mit ihrem Pkw und ihren Personalausweisen den Grenzübergang Helmstedt-Marienborn. Da die Grenzsoldaten nicht informiert waren, wurden sie unter mehrmaligem Hinweis auf Schabowskis Verkündigung von einer Kontrollstelle zur nächsten weitergereicht und konnten passieren. Der Deutschlandfunk berichtete davon unmittelbar danach in einer Kurzmeldung. Um den großen Druck der Menschenmassen zu mindern, wurde am Grenzübergang Bornholmer Straße um 21:20 Uhr den ersten Ostdeutschen dort erlaubt, nach West-Berlin auszureisen. Dabei wurden die Ausreisenden kontrolliert und Personalausweise mancher als ungültig gestempelt, die Inhaber sollten damit ausgebürgert werden. Um 21:30 Uhr brachte auch der Radiosender RIAS erste Reportagen von offenen Grenzübergängen. Über diesen Grenzübergang gelangten zwischen 23:30 Uhr und 0:15 Uhr schätzungsweise 20.000 Menschen nach West-Berlin. a> werden DDR-Bürger begrüßt, 10. November 1989 Anders als von den meisten Historikern dargestellt, behauptet ein 2009 im ZDF gesendeter Dokumentarfilm, der Grenzübergang Waltersdorfer Chaussee sei der erste offene Grenzübergang gewesen. Der Kommandant, Oberstleutnant Heinz Schäfer, sei direkt nach Schabowskis Pressekonferenz zu „seinem“ Grenzübergang gefahren, habe die Sicherungsanlagen abschalten lassen und seinen Grenzsoldaten befohlen, Ausreisewillige auch wirklich durchzulassen. Auch habe er sofort seinen Soldaten alle scharfe Munition abgenommen. Gegen 20:30 Uhr habe er den zwischen Rudow und Schönefeld gelegenen Kontrollpunkt geöffnet. DDR-Bürger berichten, dass sie am 9. November gegen 20:30 Uhr mit ihren Fahrrädern zum nahe gelegenen Grenzübergang an der Waltersdorfer Chaussee gefahren seien. Mit einem Ausreise-Stempel im Pass durften beide nach West-Berlin ausreisen; sie mussten kurioserweise ihre Fahrräder an der Grenze zurücklassen. Auf Westseite wollen mehrere Augenzeugen ebenfalls ab 20:30 Uhr den zunehmenden Grenzverkehr nach West-Berlin beobachtet haben. In umgekehrter Richtung, als Heimkehrer von einem genehmigten Tagesaufenthalt in West-Berlin zurückkommend, erzählt ein DDR-Bürger, dass er von den unbewaffneten Grenzsoldaten durchgewunken worden sei. Auf die Bitte um eine Zählkarte für die nächste Ausreise sei ihm beschieden worden, eine solche würde er nicht mehr brauchen. Diese Darstellung wird von anderen Historikern mit Hinweis auf Mängel an der wissenschaftlichen Herangehensweise und der Darstellung widersprechender Stasiunterlagen angezweifelt. Bis Mitternacht waren alle Grenzübergänge im Berliner Stadtgebiet offen. Auch die Grenzübergänge an der West-Berliner Außengrenze sowie an der innerdeutschen Grenze wurden in dieser Nacht geöffnet. Bereits am späten Abend verfolgten viele die Öffnung der Grenzübergänge im Fernsehen und machten sich teilweise dann noch auf den Weg. Der große Ansturm setzte am Vormittag des 10. November 1989 ein, da die Grenzöffnung um Mitternacht vielfach „verschlafen“ wurde. Die DDR-Bürger wurden von der Bevölkerung West-Berlins begeistert empfangen. Die meisten Kneipen in der Nähe der Mauer gaben spontan Freibier aus und auf dem Kurfürstendamm gab es einen großen Volksauflauf mit hupendem Autokorso und wildfremden Menschen, die sich in den Armen lagen. In der Euphorie dieser Nacht wurde die Mauer auch von vielen West-Berlinern erklommen. Noch in der Nacht ordnete der Regierende Bürgermeister Walter Momper als Sofortmaßnahme die Schaffung zusätzlicher Aufnahmemöglichkeiten für Übersiedler sowie die Auszahlung des Begrüßungsgeldes über 100 DM auch durch die Sparkasse West-Berlins an. Einige Zeit nach Bekanntwerden der Nachricht von Schabowskis Pressekonferenz unterbrach der Bundestag in Bonn am Abend seine laufende Sitzung. Nach einer Pause gab Kanzleramtsminister Rudolf Seiters eine Erklärung der Bundesregierung ab, Vertreter aller Bundestagsfraktionen begrüßten in ihren Beiträgen die Ereignisse. Im Anschluss erhoben sich die anwesenden Abgeordneten spontan von ihren Sitzen und sangen die Nationalhymne. Nach Angaben des West-Berliner Staatssekretärs Jörg Rommerskirchen und des "Bild"-Journalisten Peter Brinkmann war ihnen der Mauerfall bereits am Vormittag des 9. November bekannt. Rommerskirchen habe von Brinkmann einen vertraulichen Hinweis erhalten, dass es noch an diesem Tag zu einer Öffnung der Mauer kommen werde. Daraufhin habe man in West-Berlin im Eiltempo entsprechende Vorbereitungen getroffen. Entwicklung nach dem Mauerfall. Berliner Mauer am 12. November 1989 (aus Richtung West-Berlin gesehen) Wachturm Typ BT-11 im ehemaligen Todesstreifen (vom damaligen Originalstandort leicht versetzt) Die Mauer wurde nach dem 9. November 1989 zunächst weiter in unveränderter Intensität bewacht, unkontrollierte Grenzübertritte durch den Mauerstreifen wurden zunächst meist verhindert. In den ersten Wochen versuchten die Grenztruppen, die von den Mauerspechten geschlagenen Löcher zu reparieren. Bereits für das Wochenende nach dem 9. November kündigte die DDR überraschend die Öffnung von zehn neuen Grenzübergängen an; darunter einige an besonders symbolträchtigen Orten wie dem Potsdamer Platz, der Glienicker Brücke und der Bernauer Straße, am 22. Dezember 1989 folgte auch die Öffnung am Brandenburger Tor (in Gegenwart des Bundeskanzlers und des Ministerpräsidenten der DDR). An diesen Übergängen versammelten sich Menschenmengen, die auf die Öffnung warteten und jedes herausgehobene Betonelement bejubelten. Bundesbürger und West-Berliner durften erstmals am 24. Dezember 1989 ab 0:00 Uhr visumfrei in die DDR einreisen; bis zu diesem Zeitpunkt hatten noch die alten Regelungen bezüglich Visumpflicht und Mindestumtausch gegolten. In den Wochen zwischen dem 9. November und dem 23. Dezember hatten die DDR-Bürger daher in gewisser Weise „größere Reisefreiheit“ als die Westdeutschen. Die Bewachung der Mauer wurde jedoch mit der Zeit immer lockerer; das unkontrollierte Überschreiten der Grenze durch die immer größer werdenden Löcher wurde zunehmend toleriert. Parallel dazu änderte sich die Praxis an den Übergängen hin zu nur noch stichprobenartiger Kontrolle des Verkehrsstroms. Der Prozess verstärkte sich besonders nach der Wahl zur Volkskammer am 18. März 1990. Bis zum 30. Juni 1990 wurden weitere neue Grenzübergänge nach West-Berlin geöffnet. Mauer am Grenzübergang Dreilinden am 3. Oktober 1990 Am 1. Juli 1990, dem Tag des Inkrafttretens der Währungsunion, wurden die Bewachung der Mauer und sämtliche Grenzkontrollen eingestellt. Bereits am 13. Juni 1990 hatte in der Bernauer Straße der offizielle Abriss begonnen. Inoffiziell begann der Mauerabriss an der Bornholmer Straße wegen Bauarbeiten an der Eisenbahn. Daran beteiligt waren insgesamt 300 DDR-Grenzsoldaten sowie – nach dem 3. Oktober 1990 – 600 Pioniere der Bundeswehr. Diese waren mit 175 Lastwagen, 65 Kränen, 55 Baggern und 13 Planierraupen ausgerüstet. Der Abriss der innerstädtischen Mauer endete offiziell am 30. November 1990. Bis dahin fielen nach Schätzungen der Grenztruppenführung insgesamt rund 1,7 Millionen Tonnen Bauschutt an. Allein in Berlin wurden 184 km Mauer, 154 km Grenzzaun, 144 km Signalanlagen und 87 km Sperrgräben entfernt. Übrig blieben sechs Abschnitte, die als Mahnmal erhalten werden sollten. Der Rest der Mauer, insbesondere an der Berlin-brandenburgischen Landesgrenze, verschwand bis November 1991. Bemalte Mauersegmente mit künstlerisch wertvollen Motiven wurden in Auktionen 1990 in Berlin und Monte Carlo versteigert. Einige der Mauersegmente finden sich heute an verschiedenen Orten der Welt. So sicherte sich der US-Geheimdienst CIA für seinen Neubau in Langley (Virginia) einige künstlerisch verzierte Mauersegmente. In den Vatikanischen Gärten wurden im August 1994 einige Mauersegmente mit der aufgemalten Sankt-Michaels-Kirche aufgestellt. Ein weiteres Teilstück der Mauer kann im Haus der Geschichte in Bonn besichtigt werden. Ein Segment steht in der Königinstraße am Englischen Garten in München, eines am Stabsgebäude der Panzerbrigade 21 „Lipperland“ in Augustdorf, weitere in einem Neubaugebiet in Weiden in der Oberpfalz, am Gymnasium Grafing und in einem Vorgarten in Essen-Rüttenscheid. Weitere stellt das Friedensmuseum im französischen Ort Caen in der Normandie und das Imperial War Museum in London aus. Auch am Deutschen Eck in Koblenz befinden sich drei Mauerstücke der Berliner Mauer. Das Mauersegment gegenüber dem Europäischen Informationszentrum in Schengen in unmittelbarer Nähe zum Dreiländereck Luxemburg–Deutschland–Frankreich erinnert daran, dass innerhalb Europas Freizügigkeit der Normalfall sein sollte. Alle Örtlichkeiten in den drei Staaten, die von diesem Segment aus zu sehen sind, können aufgrund des Schengener Abkommens unbehindert von Grenzkontrollen spontan aufgesucht werden. Historische Bedeutung des Mauerfalls. Der Mauerfall am 9. November 1989 markierte das Ende einer Epoche, indem er die sichtbarste Erscheinung im Fall des ganzen „Eisernen Vorhangs“ und des kommunistischen Systems in Osteuropa darstellte, was die Wiedervereinigung Deutschlands und die Überwindung der Teilung Europas ermöglichte. Struktur der Berliner Grenzanlagen. Die Berliner Mauer wurde ergänzt durch ausgedehnte Befestigungen der Grenze zur Bundesrepublik und – in geringerem Umfang – anderer Westgrenzen der Staaten des Warschauer Paktes, wodurch der sogenannte Eiserne Vorhang materielle Gestalt annahm. Wie die übrige innerdeutsche Grenze wurde auch die Berliner Mauer über weite Strecken mit umfangreichen Systemen von Stacheldrahthindernissen, Gräben, Panzerhindernissen, Kontrollwegen und Postentürmen versehen. Allein etwa 1000 Diensthunde waren in Hundelaufanlagen bis Anfang der 1980er Jahre eingesetzt. Dieses System wurde über Jahrzehnte ständig ausgebaut. Dazu gehörte, dass nahe an der Mauer stehende Häuser, deren Bewohner zwangsweise umgesiedelt worden waren, gesprengt wurden. Noch am 28. Januar 1985 wurde an der Bernauer Straße sogar die Versöhnungskirche gesprengt. Das führte dazu, dass sich letztlich eine breite, nachts taghell beleuchtete Schneise durch die einst dicht bebaute Stadt zog. Von der 167,8 Kilometer langen Grenze um West-Berlin lagen 45,1 km direkt in Ost-Berlin und 112,7 km im ostdeutschen Bezirk Potsdam. Hierbei sind zum Teil die Öffnungen der Grenzübergänge mit enthalten. 63,8 km des Grenzverlaufs lagen in bebautem, 32 km in bewaldetem und 22,65 km in offenem Gelände, 37,95 km der Grenze lag in oder an Flüssen, Seen und Kanälen. Die absolute Länge der Vorderlandgrenzanlagen in Richtung West-Berlin betrug dabei 267,3 km und die der Hinterlandgrenzanlagen in Richtung DDR 297,64 km. Für die ostdeutschen Grenzsoldaten galt der Artikel 27 des Grenzgesetzes von 1982, wonach der Einsatz der Schusswaffe zur Verhinderung eines Grenzdurchbruches die äußerste Maßnahme der Gewaltanwendung gegen Personen war. Dies wird meist als Schießbefehl bezeichnet. Vor hohen Feiertagen oder Staatsbesuchen wurde der Einsatz der Schusswaffe ausdrücklich untersagt, um eine negative Westpresse zu vermeiden. Von West-Berlin wurde die Grenze von der West-Berliner Polizei und alliierten Militärstreifen beobachtet. Auffällige Aktivitäten wurden dokumentiert; auch um Einschleusungen von Spionen und Agenten nach West-Berlin zu verhindern. Später stellte sich heraus, dass es dennoch versteckte Mauerdurchgänge gab, die vom MfS genutzt wurden. Aufbau der Grenzanlagen. Schematischer Aufbau der Berliner Mauer in den 1980er Jahren Blumenschalensperre zur Durchfahrtssicherung an der Ecke Dolomitenstraße und Esplanade Die Grenzanlagen entstanden in mehreren Etappen. Am 13. August 1961 unterbanden Stacheldraht und Bewachung das einfache Wechseln zu oder aus den Westsektoren von Groß-Berlin. Ab dem 15. August wurde mit Betonelementen und Hohlblocksteinen die erste Mauer aufgebaut. Im Juni 1962 kam die sogenannte „Hinterlandmauer“ hinzu. 1965 ersetzten zwischen Stahl- oder Betonpfosten eingelassene Betonplatten die bisherigen Bauteile. Als ihr oberer Abschluss wurde eine Betonröhre aufgesetzt. Schließlich kam im Jahr 1975 als „dritte Generation“ die „Grenzmauer 75“ zum Einsatz, die nach und nach vollständig das vorige Grenzbauwerk ablöste. Die moderneren Stahlbetonelemente des Typs „Stützwandelement UL 12.41“ mit 3,60 Meter Höhe wurden im VEB Baustoffkombinat Neubrandenburg mit Sitz in Malchin hergestellt. Sie waren einfach aufzubauen und resistenter gegen Umwelteinflüsse und Grenzdurchbrüche. Die Gesamtbreite dieser Grenzanlagen war abhängig von der Häuserbebauung im Grenzgebiet und betrug von etwa 30 Meter bis etwa 500 Meter (am Potsdamer Platz). Minenfelder und Selbstschussanlagen wurden an der Berliner Mauer nicht aufgebaut (dies war aber in der DDR nicht allgemein bekannt), jedoch an der innerdeutschen Grenze zur Bundesrepublik. Der Aufbau der von den Grenztruppen intern als "Handlungsstreifen" bezeichneten Grenze wurde als Militärgeheimnis behandelt und war den meisten DDR-Bürgern daher nicht genau bekannt. Die Grenzsoldaten waren zum Stillschweigen verpflichtet. Jeder Zivilist, der auffälliges Interesse an Grenzanlagen zeigte, lief mindestens Gefahr, vorläufig festgenommen und zum nächsten Polizeirevier oder Grenzkommando zur Identitätsfeststellung gebracht zu werden. Eine Verurteilung zu einer Haftstrafe wegen Planung eines Fluchtversuchs konnte folgen. An Stellen, die aufgrund von Bebauung oder Verkehrsführung – beziehungsweise wegen des Geländezuschnitts – schwieriger zu sichern waren, begann das „Grenzgebiet“ auf DDR- und Ost-Berliner Seite schon vor der Hinterlandmauer und war dann Sperrgebiet. Dieses durfte nur mit einer Sondergenehmigung betreten werden. Das bedeutete für Anwohner eine starke Einschränkung der Lebensqualität. Als „Vorfeldsicherung“ sollten bauliche Maßnahmen (Mauern, Zäune, Gitter, Stacheldraht, Durchfahrtssperren, Übersteigsicherungen), Sichthilfen (Leuchten, weiße Kontrastflächen) und Warnhinweise das unbefugte (beziehungsweise unbemerkte) Betreten oder Befahren dieses Gebietes verhindern. Einblickmöglichkeiten für Unbefugte wurden mit Sichtblenden verbaut. Im grenznahen Ost-Berliner Stadtgebiet nahe dem Brandenburger Tor wurde regelmäßig eine verdeckte sogenannte „Tiefensicherung“ durch zivile Kräfte des Ministeriums für Staatssicherheit durchgeführt, um möglichst frühzeitig und außerhalb der Sichtmöglichkeit des Westteils potentielle Grenzdurchbrüche und besondere Lagen (Demonstrationen oder andere unerwünschte Menschenansammlungen) aufzuklären und zu unterbinden. Ein Gebäude nördlich des Brandenburger Tors wurde von der Hauptabteilung 1 des MfS genutzt, der zuständigen Abteilung zur Überwachung der Grenztruppen der DDR. Es wurde später abgerissen, um Platz zu schaffen für das Jakob-Kaiser-Haus. Personeller Aufbau und Ausstattung des Grenzkommandos Mitte. Für den Schutz der Grenze zu West-Berlin war in der DDR das Grenzkommando Mitte der Grenztruppen der DDR zuständig, dem nach Angaben des MfS vom Frühjahr 1989 11.500 Soldaten und 500 Zivilbeschäftigte angehörten. Es bestand neben dem Stab in Berlin-Karlshorst aus sieben Grenzregimentern, die in Treptow, Pankow, Rummelsburg, Hennigsdorf, Groß-Glienicke, Babelsberg und Kleinmachnow stationiert waren, sowie den Grenzausbildungsregimentern GAR-39 in Wilhelmshagen und GAR-40 in Oranienburg. Jedes Grenzregiment besaß fünf direkt geführte Grenzkompanien, außerdem je eine Pionier-, Nachrichten-, Transportkompanie, Granatwerfer- und Artilleriebatterie, einen Aufklärungs- und einen Flammenwerferzug sowie eine Diensthundestaffel und unter Umständen eine Bootskompanie und Sicherungszüge bzw. -kompanien für die Grenzübergangsstellen. Das Grenzkommando Mitte verfügte über 567 Schützenpanzerwagen, 48 Granatwerfer, 48 Panzerabwehrkanonen und 114 Flammenwerfer sowie 156 gepanzerte Fahrzeuge bzw. schwere Pioniertechnik und 2295 Kraftfahrzeuge. Zum Bestand gehörten außerdem 992 Hunde. An einem normalen Tag waren etwa 2300 Soldaten direkt an der Grenze und im grenznahen Raum eingesetzt. Bei sogenannter „verstärkter Grenzsicherung“, die beispielsweise 1988 wegen politischer Höhepunkte oder schlechter Witterungsbedingungen etwa 80 Tage galt, waren dies etwa 2500 Grenzsoldaten, deren Anzahl in besonderen Situationen weiter aufgestockt werden konnte. Gewässergrenzen. Die äußere Stadtgrenze West-Berlins verlief an mehreren Stellen durch schiffbare Gewässer. Der Grenzverlauf war dort durch eine vom West-Berliner Senat errichtete Kette aus runden, weißen Bojen mit der (an der Stadtgrenze nicht ganz zutreffenden) Aufschrift „Sektorengrenze“ gekennzeichnet. West-Berliner Fahrgastschiffe und Sportboote mussten darauf achten, sich auf der West-Berliner Seite der Bojenkette zu halten. Auf der DDR-Seite der Grenze wurden diese Gewässer von Booten der Grenztruppen der DDR patrouilliert. Die Grenzbefestigungen der DDR befanden sich jeweils auf dem DDR-seitigen Ufer, was teilweise große Umwege erzwang und die Ufer mehrerer Havelseen „vermauerte“. Der größte Umweg befand sich am Jungfernsee, wo die Mauer bis zu zwei Kilometer vom eigentlichen Grenzverlauf entfernt stand. An mehreren Stellen verlief der Grenzstreifen durch ehemalige Wassergrundstücke und machte sie so für die Bewohner unbrauchbar; so am Westufer des Groß Glienicker Sees und am Südufer des Griebnitzsees. Bei den Gewässern an der innerstädtischen Grenze verlief diese überall direkt am westlichen oder östlichen Ufer, sodass dort keine Markierung des Grenzverlaufs im Wasser existierte. Die eigentliche Mauer stand auch hier jeweils am Ost-Berliner Ufer. Dennoch wurden die zu Ost-Berlin gehörenden Gewässer selbst ebenfalls überwacht. Auf Nebenkanälen und -flüssen wurde die Lage dadurch zum Teil unübersichtlich. Manche Schwimmer und Boote aus West-Berlin gerieten versehentlich oder aus Leichtsinn auf Ost-Berliner Gebiet und wurden beschossen. Dabei gab es im Laufe der Jahrzehnte mehrere Tote. An einigen Stellen in der Spree gab es Unterwassersperren gegen Schwimmer. Für Flüchtlinge war es nicht klar zu erkennen, wann sie West-Berlin erreicht hatten, sodass für sie noch nach dem Überwinden der eigentlichen Mauer die Gefahr bestand, ergriffen zu werden. Grenzübergänge. An der gesamten Berliner Mauer gab es 25 Grenzübergangsstellen (GÜSt), 13 Straßen-, vier Eisenbahn- und acht Wasserstraßengrenzübergangsstellen. Dies waren etwa 60 Prozent aller Grenzübergänge zwischen der DDR und der Bundesrepublik bzw. West-Berlin. Für den Straßen-Transitverkehr gab es nur zwei Berliner Grenzübergänge, indem Dreilinden, bis 1987 Staaken und danach Heiligensee benutzt werden konnten. Die Grenzübergangsstellen waren auf DDR-Seite sehr stark ausgebaut. Es wurde mitunter sehr scharf bei der Ein- und Ausreise von den DDR-Grenzorganen und dem DDR-Zoll kontrolliert. Für die Sicherung und Überwachung des Reiseverkehrs einschließlich Fahndung und Festnahmen an den Grenzübergangsstellen waren die Passkontrolleinheiten (PKE) der Hauptabteilung VI des MfS zuständig, die ihren Dienst in Uniformen der Grenztruppen der DDR versahen. Sie arbeiteten mit den für die äußere Sicherheit und die Verhinderung von Grenzdurchbrüchen zuständigen Einheiten der Grenztruppen und Mitarbeitern der Zollverwaltung, die die Sach- und Personenkontrolle vornahmen, zusammen. Auf West-Berliner Seite hatten die Polizei und der Zoll Posten. Dort gab es in der Regel keine Kontrollen im Personenverkehr. Nur an den Transitübergängen wurden die Reisenden statistisch erfasst (Befragung nach dem Ziel), gelegentlich bei entsprechendem Anlass zur Strafverfolgung auch kontrolliert (Ringfahndung). Der gesamte Güterverkehr unterlag wie im Auslandsverkehr der Zollabfertigung. Beim Güterkraftverkehr war es bei einer westdeutschen Warenanlieferung in Ost-Berlin nicht möglich, von Ost- nach West-Berlin über Grenzübergangsstellen zu fahren, sondern man musste ganz außen herum und einen von den zwei West-Berliner Transitübergängen benutzen. Das waren Dreilinden (BAB 115) und bis 1987 Staaken (B 5), danach Heiligensee über die BAB 111. Demzufolge war es dann eine sogenannte „Ausreise aus der DDR“; bei der Kontrolle wurde der Westdeutsche wie ein ausländischer Lkw sehr gründlich durchsucht. Im Personenverkehr mit der Bundesrepublik wurden von westdeutscher Seite nur statistische Erhebungen gemacht. Beim Güterverkehr musste über den "Warenbegleitschein" der Lkw vom Zoll verplombt und statistisch erfasst werden. Beim Übergang Staaken konnte über die B 5 die einzige Möglichkeit genutzt werden, mit Fahrzeugen durch die DDR zu fahren, die nicht für den Verkehr auf der Autobahn zugelassen waren (z. B. Fahrrad, Moped, Traktor usw.). Allerdings musste die 220 Kilometer lange Strecke bei Tageslicht bis Lauenburg ohne Unterbrechung (Übernachtung, längere Pausen) bewältigt werden. Mit der Freigabe der Autobahn A 24 im Jahr 1982 wurde der Fahrrad-Transit nicht mehr zugelassen. Am Checkpoint Bravo (Dreilinden) und Checkpoint Charlie (Friedrichstraße) hatten die alliierten Besatzungsmächte Kontrollpunkte eingerichtet, wobei der Letztere jedoch nur für Diplomaten und ausländische Staatsangehörige, nicht für Bundesbürger und West-Berliner benutzbar war. Mit der Währungsunion am 1. Juli 1990 wurden alle Grenzübergänge aufgegeben. Einige Reste der Anlagen blieben als Mahnmal erhalten. Kosten. Der Bau und der ständige Ausbau sowie die jahrzehntelange Unterhaltung der stark bewachten Berliner Mauer war eine große wirtschaftliche Belastung für die DDR. Von den zwischen 1961 und 1964 insgesamt anfallenden Kosten von 1,822 Milliarden Mark der DDR für den Aufbau und Betrieb der Grenzanlagen entfielen 400 Millionen Mark (22 %) auf die Berliner Mauer. Maueropfer. Über die Zahl der "Mauertoten" gibt es widersprüchliche Angaben. Sie ist bis heute nicht eindeutig gesichert, weil die Todesfälle an der Grenze von den Verantwortlichen der DDR-Staatsführung systematisch verschleiert wurden. Die Berliner Staatsanwaltschaft gab im Jahr 2000 die Zahl der nachweislich durch einen Gewaltakt an der Berliner Mauer umgekommenen Opfer mit 86 an. Wie schwierig genaue Aussagen auf diesem Gebiet sind, wird auch dadurch deutlich, dass die "Arbeitsgemeinschaft 13. August" ihre Zahl der Mauertoten seit 2000 von 238 auf 138 korrigiert hat. Zwischen Oktober 2005 und Dezember 2007 arbeitete ein vom ‚Verein Berliner Mauer‘ und vom Zentrum für Zeithistorische Forschung Potsdam getragenes Forschungsprojekt mit dem Ziel, die genaue Zahl der Maueropfer zu ermitteln und die Geschichten der Opfer auch für die Öffentlichkeit zugänglich zu dokumentieren. Der Beauftragte der Bundesregierung für Kultur und Medien förderte das Projekt. In der am 7. August 2008 veröffentlichten Bilanz wurde dargelegt, dass von den 374 überprüften Fällen "136" die Kriterien „Maueropfer“ erfüllen. Die Opfer waren vornehmlich fluchtwillige Bürger der DDR (98 der 136 Fälle), unter 30 Jahren (112 Fälle), männlich (128 Fälle) und kamen in den ersten acht Jahren der Mauer (90 Fälle) ums Leben. Weiterhin wurden 48 Fälle identifiziert, bei denen Menschen im Umfeld von Kontrollen an Grenzübergängen in Berlin – meist an einem Herzinfarkt – starben. Unter den ausgeschlossenen 159 Fällen sind 19 Fälle, die in anderen Publikationen als Maueropfer geführt werden. Nach der Veröffentlichung der Zwischenbilanz kam es zu einer Kontroverse um die Zahl der Opfer und die Methoden der Erforschung der Geschehnisse an der Mauer. Die "Arbeitsgemeinschaft 13. August", die damals wieder von 262 Maueropfern ausging, warf dem Forschungsprojekt vor, die Zahl der Opfer aus politischen Gründen bewusst „kleinzurechnen“. Der Arbeitsgemeinschaft, an deren Recherchen keine Historiker beteiligt sind, wurde hingegen vorgeworfen, auf ihren Listen viele Fälle aufzuführen, die ungeklärt seien, nicht nachweislich mit dem Grenzregime im Zusammenhang stünden oder inzwischen sogar widerlegt worden seien. Das erste Todesopfer war Ida Siekmann, die am 22. August 1961 beim Sprung aus einem Fenster in der Bernauer Straße tödlich verunglückte. Die ersten tödlichen Schüsse fielen am 24. August 1961 auf den 24-jährigen Günter Litfin, der am Humboldthafen von Transportpolizisten bei einem Fluchtversuch erschossen wurde. Peter Fechter verblutete am 17. August 1962 im Todesstreifen an der Zimmerstraße. Im Jahre 1966 wurden zwei Kinder im Alter von 10 und 13 Jahren im Grenzstreifen durch insgesamt 40 Schüsse getötet. Das letzte Opfer von Todesschüssen an der Mauer war Chris Gueffroy am 6. Februar 1989. Der letzte tödliche Zwischenfall an der Grenze ereignete sich am 8. März 1989, als Winfried Freudenberg bei einem Fluchtversuch mit einem defekten Ballon in den Tod stürzte. Einige Grenzsoldaten starben ebenfalls bei gewalttätigen Vorfällen an der Mauer. Der bekannteste Fall ist die Tötung des Soldaten Reinhold Huhn, der von einem Fluchthelfer erschossen wurde. Diese Vorfälle wurden von der DDR propagandistisch genutzt und als nachträgliche Begründung für den Mauerbau herangezogen. Es mussten sich geschätzt rund 75.000 Menschen wegen „Republikflucht“ vor DDR-Gerichten verantworten. Republikflucht wurde nach § 213 Strafgesetzbuch der DDR mit Freiheitsstrafen bis zu acht Jahren geahndet. Wer bewaffnet war, Grenzanlagen beschädigte oder als Armeeangehöriger oder Geheimnisträger bei einem Fluchtversuch gefasst wurde, kam selten mit weniger als fünf Jahren Gefängnis davon. Wer Hilfe zur Republikflucht leistete, konnte mit lebenslangem Freiheitsentzug bestraft werden. Mauerschützenprozesse. Die juristische Aufarbeitung des Schießbefehls in sogenannten „Mauerschützenprozessen“ dauerte bis zum Herbst 2004. Zu den angeklagten Verantwortlichen gehörten unter anderem der Staatsratsvorsitzende Honecker, sein Nachfolger Egon Krenz, die Mitglieder des Nationalen Verteidigungsrates Erich Mielke, Willi Stoph, Heinz Keßler, Fritz Streletz und Hans Albrecht, der SED-Bezirkschef von Suhl, sowie einige Generäle wie der Chef der Grenztruppen (1979–1990) Generaloberst Klaus-Dieter Baumgarten. Insgesamt kam es in Berlin zu 112 Verfahren gegen 246 Personen, die sich als Schützen oder Tatbeteiligte vor Gericht verantworten mussten. Etwa die Hälfte der Angeklagten wurde freigesprochen. 132 Angeklagte wurden wegen ihrer Taten oder Tatbeteiligungen zu Freiheits- oder Bewährungsstrafen verurteilt. Darunter waren 10 Mitglieder der SED-Führung, 42 führende Militärs und 80 ehemalige Grenzsoldaten. Dazu kamen 19 Verfahren mit 31 Angeklagten in Neuruppin, die für 19 Todesschützen mit Bewährungsstrafen endeten. Für den Mord an Walter Kittel wurde der Todesschütze mit der längsten Freiheitsstrafe von zehn Jahren belegt. Im Allgemeinen bekamen die Todesschützen Strafen zwischen 6 und 24 Monaten auf Bewährung, während die Befehlshabenden mit zunehmender Verantwortung höhere Strafen bekamen. Im August 2004 wurden Hans-Joachim Böhme und Werner Lorenz vom Landgericht Berlin als ehemalige Politbüro-Mitglieder zu Bewährungsstrafen verurteilt. Der letzte Prozess gegen DDR-Grenzsoldaten ging am 9. November 2004 – genau 15 Jahre nach dem Fall der Mauer – mit einem Schuldspruch zu Ende. Gedenken. Zum Gedenken an die Opfer der Berliner Mauer wurden sehr unterschiedlich gestaltete Mahnmale errichtet. Kleinere Kreuze oder andere Zeichen des Gedenkens dienen der Erinnerung an erschossene Flüchtlinge. Sie befinden sich an verschiedenen Stellen der ehemaligen Grenze und gehen meist auf private Initiativen zurück. Ein bekannter Gedenkort sind die Weißen Kreuze am Spreeufer neben dem Reichstagsgebäude. Über die Art und Weise des Gedenkens gab es wiederholt öffentliche Auseinandersetzungen; so auch Ende der 1990er Jahre bezüglich der Gedenkstätte in der Bernauer Straße. Einen Höhepunkt erreichte die öffentliche Debatte beim Streit um das in der Nähe des Checkpoint Charlie errichtete und später geräumte Freiheitsmahnmal. Der Berliner Senat begegnete dem Vorwurf, kein Gedenkkonzept zu besitzen, mit der Einberufung einer Kommission, die im Frühjahr 2005 Grundzüge eines Gedenkkonzepts vorstellte. Am 20. Juni 2006 legte der Senat ein daraus entwickeltes integriertes „Gesamtkonzept zur Erinnerung an die Berliner Mauer“ vor, das unter anderem eine Erweiterung der Gedenkstätte an der Bernauer Straße vorsieht. Im Invalidenpark, zwischen dem Bundesministerium für Verkehr, Bau und Stadtentwicklung und der "Scharnhorststraße" wurde Mitte der 1990er Jahre eine lange Mauer gestaltet, die in einem Wasserbecken versinkt, die der Gartenarchitekt Christoph Girot als "Versunkene Mauer" bezeichnet, was zum einen an die früher hier vorhandene Gnadenkirche, zum anderen an die Berliner Mauer erinnern soll. Mauermuseum im Haus am Checkpoint Charlie. Das Mauermuseum am Checkpoint Charlie wurde 1963 direkt vor der Grenze vom Historiker Rainer Hildebrandt eröffnet und wird von der "Arbeitsgemeinschaft 13. August" betrieben. Es gehört zu den meistbesuchten Berliner Museen. Das Mauermuseum veranschaulicht das Grenzsicherungssystem an der Berliner Mauer und dokumentiert geglückte Fluchtversuche und ihre Fluchtmittel wie Heißluftballons, Fluchtautos, Sessellifte und ein Mini-U-Boot. Nach dem Tod des Gründers leitet seine Witwe, Alexandra Hildebrandt, das Museum. Gedenkstättenensemble Berliner Mauer in der Bernauer Straße. Seit dem 13. August 1998 besteht an der Bernauer Straße zwischen den ehemaligen Bezirken Wedding und Mitte die Gedenkstätte Berliner Mauer. Sie umfasst ein erhaltenes Teilstück der Grenzanlagen, das "Dokumentationszentrum Berliner Mauer" sowie die Kapelle der Versöhnung. Die Gedenkstätte ist aus einem 1994 vom Bund ausgelobten Wettbewerb hervorgegangen und wurde nach langen und heftigen Diskussionen am 13. August 1998 eingeweiht. Sie stellt einen durch künstlerisch-gestalterische Mittel ergänzten neu aufgebauten Mauerabschnitt am Originalort dar. Das Dokumentationszentrum, das von einem Verein getragen wird, wurde am 9. November 1999 eröffnet. 2003 wurde es durch einen Aussichtsturm ergänzt, von dem die Maueranlagen der Gedenkstätte gut einsehbar sind. Neben einer aktuellen Ausstellung (seit 2001 unter dem Titel "Berlin, 13. August 1961") gibt es unterschiedliche Informationsmöglichkeiten zur Geschichte der Mauer. Außerdem werden Seminare und andere Veranstaltungen angeboten. Die Kapelle der Versöhnung der Evangelischen Versöhnungsgemeinde wurde am 9. November 2000 eingeweiht. Das Bauwerk ist ein ovaler Stampflehmbau und wurde über den Fundamenten des Chores der 1985 gesprengten Versöhnungskirche errichtet. Das von Thomas Flierl erarbeitete „Gesamtkonzept zur Erinnerung an die Berliner Mauer“ sieht vor, die Gedenkstätte in der Bernauer Straße noch zu erweitern und einen Teil des ehemaligen Stettiner Bahnhofs an der Gartenstraße mit einzubeziehen. Am 11. September 2008 beschloss das Abgeordnetenhaus von Berlin, zum Jahrestag des Falls der Berliner Mauer am 9. November 2008 die Gedenkstätte Berliner Mauer und die Erinnerungsstätte Notaufnahmelager Marienfelde in der landeseigenen Stiftung Berliner Mauer zusammenzufassen. Geschichtsmeile Berliner Mauer. Die "Geschichtsmeile Berliner Mauer" ist eine viersprachige Dauerausstellung, die aus 21 Informationstafeln besteht. Diese stehen über den innerstädtischen Grenzverlauf verteilt und enthalten Fotografien und Texte zu Ereignissen, die sich am Standort der Tafeln zugetragen haben, beispielsweise wird auf geglückte oder missglückte Fluchten hingewiesen. Diese in der Innenstadt schon länger bestehende "Geschichtsmeile Berliner Mauer" wurde 2006 durch weitere Informationstafeln auch im Außenbereich fortgesetzt. 25. Jahrestag des Mauerfalls. Zum 25. Jahrestag des Mauerfalls markierten 6.880 weiße Ballons einen Teil des ehemaligen Mauerverlaufs als Kunstinstallation "Lichtgrenze" vom 7. bis 9. November 2014. Nutzung. Die breite Trasse zwischen den beiden früheren Mauerlinien wird im heutigen Sprachgebrauch „Grenzstreifen“ oder „Mauerstreifen“ genannt. Er ist noch heute an vielen Stellen gut erkennbar, teilweise durch große Brachflächen wie an Teilen der Bernauer Straße und zwischen den Ortsteilen Mitte und Kreuzberg entlang der Kommandantenstraße, Alten Jakobstraße, Stallschreiberstraße, Alexandrinenstraße und Sebastianstraße. Andernorts in der zusammenwachsenden Stadt ist der Grenzverlauf hingegen nur noch schwer auszumachen. Die ganze Brutalität der Teilung lässt sich nirgendwo mehr nachvollziehen, auch nicht an Stellen, wo Reste der Mauer konserviert sind. In der ansonsten dicht bebauten Berliner Innenstadt wurde der Mauerstreifen durch Verkauf und Bebauung meist schnell einer Nachnutzung für städtische Zwecke zugeführt. Daneben gibt es aber auch vielfältige andere Formen der Nachnutzung. Im Ortsteil Prenzlauer Berg wandelte sich ein Abschnitt zum Mauerpark. Das innerstädtische Stück am östlichen Teltowkanal wurde mit der Trasse der Bundesautobahn 113 vom Berliner Stadtring nach Schönefeld überbaut. Der Streit um die Rückgabe der Mauergrundstücke ist indes noch nicht abgeschlossen. Die Eigentümer von Grundstücken auf dem späteren Mauerstreifen waren nach dem Mauerbau zwangsenteignet und die Bewohner umgesiedelt worden. Die Frage der Rückgabe und Entschädigung der Betroffenen fand keinen Eingang in den am 31. August 1990 unterzeichneten Einigungsvertrag. Erst das "Gesetz über den Verkauf von Mauer- und Grenzgrundstücken an die früheren Eigentümer" (Mauergrundstücksgesetz) vom 15. Juli 1996 regelte, dass ein enteigneter Eigentümer sein Objekt nur dann zurückerhält, wenn er dafür 25 Prozent des aktuellen Verkehrswertes bezahlt und der Bund sie nicht für dringende eigene öffentliche Zwecke verwenden oder im öffentlichen Interesse an Dritte veräußern will. In diesem Fall entschädigt der Bund die ehemaligen Eigentümer mit 75 Prozent des Grundstückswertes. Berliner Mauerweg. Entlang des Mauerstreifens um das gesamte frühere West-Berlin verläuft der Berliner Mauerweg, dessen Einrichtung das Berliner Abgeordnetenhaus am 11. Oktober 2001 beschlossen hatte. Dieser Rad- und Fußweg entlang der 160 Kilometer langen Trasse der ehemaligen Grenzanlagen ist größtenteils gut ausgebaut und seit 2005 nahezu vollständig. Bis auf kleinere Abschnitte ist die Strecke durchgehend asphaltiert. Der Mauerweg führt überwiegend auf dem ehemaligen Zollweg (West-Berlin) oder auf dem so genannten Kolonnenweg, den die DDR-Grenztruppen für ihre Kontrollfahrten angelegt hatten. Wo es durch neuere Bebauung oder Eigentumsrechte nötig war, verläuft er auf neu angelegten Wegen im Grenzbereich oder über parallel zur Grenze verlaufende öffentliche Verkehrsflächen. An der Dresdener Bahn in der Gemeinde Blankenfelde-Mahlow ist der Mauerweg derzeit unterbrochen. Beim Ausbau der Bahnstrecke soll eine Unterführung realisiert werden. Der Berliner Mauerweg kennzeichnet den Verlauf der ehemaligen DDR-Grenzanlagen zu West-Berlin. Er führt über rund 160 Kilometer um die einstige Halbstadt herum. Historisch interessante Abschnitte, in denen sich noch Mauerreste oder Mauerspuren auffinden lassen, wechseln mit landschaftlich reizvollen Strecken. Der Berliner Mauerweg ist ausgeschildert und in regelmäßigen Abständen mit Übersichtsplänen zur Orientierung ausgestattet. An Infostelen mit Fotografien und Texten werden mehrsprachige Informationen über die Teilung Deutschlands und die Berliner Mauer gegeben und Ereignisse am jeweiligen Standort geschildert oder auf Mauerreste vor Ort hingewiesen. An 29 Standorten entlang des Weges wird an die Toten der Berliner Mauer erinnert. Organisatorisch ist der Berliner Mauerweg in 14 Einzelstrecken mit sieben bis 21 Kilometern Länge gegliedert. Hauptsächlich im Stadtzentrum ist der Mauerverlauf zudem mit einer doppelten Reihe Kopfsteinen gepflastert. Reste der Maueranlagen nach dem Abriss. Deutlich mehr und häufig längere Teilstücke sind von der Hinterlandmauer erhalten geblieben, die den Grenzstreifen auf Ost-Berliner Seite abschloss. Sie liegen zumeist abseits von Straßen und Plätzen und standen daher Bauvorhaben der Nachwendezeit nicht im Wege. Diese Mauerreste sind nur zum Teil denkmalgeschützt. Erhaltene Abschnitte, an denen die sonst niedrigere Hinterlandmauer die gleiche Höhe wie die Grenzmauer („vorderes Sperrelement“) aufwies, werden heute häufig irrtümlich für Reste des vorderen Sperrelements gehalten. Dies gilt neben Fragmenten der Hinterlandmauer am Leipziger Platz und der Stresemannstraße auch für den umfangreichsten erhaltenen Mauerabschnitt, der sich mit 1,3 Kilometern Länge parallel zu Mühlenstraße und Spree vom Ostbahnhof bis zur Oberbaumbrücke hinzieht. Dieser Abschnitt ist – für die Hinterlandmauer untypisch – mit aufgesetzten Betonröhren versehen, denn eine „feindwärtige“ Grenzmauer gab es an dieser Stelle nicht, da die Grenze auf der gegenüberliegenden Spreeseite verlief. 1990 wurde er von internationalen Künstlern zur „East Side Gallery“ gestaltet und 1991 unter Denkmalschutz gestellt. Weitere Reste der Hinterlandmauer finden sich beispielsweise am Mauerpark, entlang der Bernauer Straße, auf dem Gelände des ehemaligen Stettiner Bahnhofs und auf dem Invalidenfriedhof. Auf einem unbebauten Gelände in der Nähe des ehemaligen Grenzübergangs Chausseestraße ist ein Abschnitt der Hinterlandmauer mit originalem Zufahrtstor zum Grenzstreifen erhalten geblieben. Mauer und Tor sind allerdings in schlechtem Zustand; sie stehen nicht unter Denkmalschutz. Der Berliner Mauerweg führt auch an ehemaligen Gewässersperren vorbei. So kann man an der Grenze zwischen Nordbahn und Schildow etwas südlich der Alten Hermsdorfer Straße noch die Reste der Sperre am Kindelfließ erkennen. Ebenso finden sich noch Reste der Gewässersperre am Tegeler Fließ zwischen Schildow und Berlin-Lübars. In den 1990er Jahren entwickelte sich in der Berliner Politik eine Diskussion darüber, wie der einstige Mauerverlauf im Stadtbild sichtbar gemacht werden könnte. Vorgeschlagen wurden unter anderem eine Doppelreihe in den Straßenbelag eingelassener quadratischer Pflastersteine, ein in den Bodenbelag eingelassenes Bronzeband und eine Markierung der Grenzmauer und der Hinterlandmauer durch verschiedenfarbige Streifen. Alle drei Varianten wurden am Abgeordnetenhaus zu Anschauungszwecken jeweils auf einem kurzen Stück ausgeführt. Als Ergebnis dieser Diskussion wurden vor allem im Innenstadtbereich an mehreren Stellen ungefähr acht Kilometer des Grenzmauerverlaufs durch eine Doppelreihe Pflastersteine markiert. In unregelmäßigen Abständen eingelassene Bronzestreifen tragen die – von der ehemaligen West-Berliner Seite lesbare – einfache Beschriftung „Berliner Mauer 1961–1989“. An herausgehobenen Stellen wie dem Leipziger Platz wird auf dieselbe Weise auch der Verlauf der Hinterlandmauer gekennzeichnet. Sonstiges. Mauersegment am Landtag in Kiel Ausstellungen. Ausstellung Berliner Mauer in den Potsdamer Platz Arkaden in Berlin Literatur. Tag des Mauerbaus 13. August 1961 Tag des Mauerfalls 9. November 1989 Bosporus. Der Bosporus („Rinderfurt“, von ' „Rind, Ochse“ und ' „Weg, Furt“; türkisch Boğaz „Schlund“, bzw. "Karadeniz Boğazı" für „Schlund des Schwarzen Meeres“; veraltet „Straße von Konstantinopel“) ist eine Meerenge zwischen Europa und Asien, die das Schwarze Meer (in der Antike: Pontos Euxeinos) mit dem Marmarameer (in der Antike: Propontis) verbindet; daher stellt er einen Abschnitt der südlichen innereurasischen Grenze dar. Auf seinen beiden Seiten befindet sich die Stadt Istanbul, deren Geografie er maßgeblich prägt. Der Bosporus hat eine Länge von ca. 30 Kilometern und eine Breite von 700 bis 2500 Metern. In der Mitte variiert die Tiefe zwischen 36 und 124 Metern (bei Bebek). Innerhalb des Bosporus liegt auf der westlichen Seite das" Goldene Horn," eine langgezogene Bucht und ein seit langem genutzter natürlicher Hafen. Die Durchfahrtsrechte für die internationale Schifffahrt wurden 1936 im Vertrag von Montreux geregelt. Entstehung. 1997 sorgten die amerikanischen Meeresbiologen William Ryan und Walter C. Pitman mit ihrer Sintflut-Hypothese für Aufsehen. Sie besagt, dass der Bosporus nur etwa 7500 Jahre alt ist. Davor sei das Schwarze Meer ein Binnengewässer etwa 120 Meter unter dem heutigen Meeresspiegel gewesen. Im Laufe der holozänen Meerestransgression durch Abschmelzen eiszeitlicher Gletscher sei etwa im sechsten Jahrtausend v. Chr. das Mittelmeer über das Marmarameer und Bosporus in das Schwarze Meer eingebrochen. Der sehr ebene Grund der tief in den Fels eingeschnittenen, relativ breiten Wasserstraße wird als Indiz für die sehr große Strömungsgeschwindigkeit des Wassers bei seiner Entstehung interpretiert. Sowohl Zeitpunkt als auch Ablauf dieses Ereignisses werden sehr kontrovers diskutiert. Umweltforscher aus den USA und Kanada (Teofilo Abrajano, Rensselaer Polytechnic Institute, Ali Aksu, University of Newfoundland) führten Analysen der Sedimente im Marmarameer durch, die die Sintflut-Hypothese ihrer Ansicht nach widerlegen. Demnach strömt das Wasser schon seit dem Ende der letzten Eiszeit kontinuierlich aus dem Schwarzen Meer ins Mittelmeer. Wasserströmung. Aus dem Schwarzen Meer fließt ein kräftiger Oberstrom, und in etwa 40 Meter Tiefe ein schwächerer Unterstrom in entgegengesetzter Richtung, angetrieben durch die höhere Dichte des Mittelmeerwassers; der Salzgehalt ist im Mittelmeer etwa doppelt so hoch wie im Schwarzen Meer. Das Mittelmeer ist ein arides (trockenes) Meer – die Verdunstung übersteigt den Wasserzufluss aus den einspeisenden Flüssen. Dagegen ist der Wasserzufluss in das Schwarze Meer aus seinen einspeisenden Flüssen größer als die Verdunstung. Wegen der wasserreichen Zuflüsse in das Schwarze Meer (besonders die Donau, aber unter anderem auch Dnepr, Dnister, Don, Südlicher Bug) beträgt der Wasserüberschuss des Schwarzen Meeres etwa 300 km³ pro Jahr. Das Wasser aus dem Schwarzen Meer fließt über das Marmarameer und die Dardanellen in die Ägäis und das Mittelmeer - mit einer durchschnittlichen Geschwindigkeit von 3 Knoten (stellenweise bis 8 Knoten). In der frühen Antike konnten die Griechen mit ihren Schiffen vom späten Frühling bis in den Sommer nicht durch den Bosporus segeln. Während dieser Zeit bliesen Nordostwinde, die Strömungsgeschwindigkeit erhöhte sich dann auf durchschnittlich 4 Knoten, dagegen konnten die griechischen Schiffe nicht kreuzen. Auch ihre Rudergeschwindigkeit reichte nicht aus, um gegen die Strömung anzukommen. Erst mit dem Aufkommen stärkerer Ruderboote (Pentekontere) konnten die Griechen ganzjährig mit ihren Schiffen durch den Bosporus ins Schwarze Meer gelangen. Am Bosporus herrschen Winde aus Nord bis Nordost vor. Die Gezeiten sind sehr schwach. Bei seltenen Südwinden dreht sich die Wasserströmung an der Oberfläche gelegentlich nach Norden. Bedeutung. Der "Bosporus" (türkisch: "İstanbul Boğazı)" gilt als eine der weltweit wichtigsten Wasserstraßen, er ermöglicht bedeutenden Küstenstreifen der Anrainerstaaten des Schwarzen Meeres – darunter Russland, die Türkei, die Ukraine, Rumänien, Bulgarien und Georgien – den maritimen Zugang zum Mittelmeer und damit Zugang zum internationalen Seehandel. Neben Agrargütern und Industrieprodukten hat nicht zuletzt das Erdöl einen entscheidenden Anteil am großen Transportvolumen auf diesem Weg. Insbesondere die Anrainerstaaten am östlichen Schwarzen Meer sowie deren durch Pipelines angebundenes Hinterland gelten als Erdöl-Lieferanten des 21. Jahrhunderts, zugleich aber politisch auch als Unruhe-Regionen. Nach einer Greenpeace-Aktion, die auf das Unfallrisiko für den Schiffsverkehr aufmerksam machte, wurden Ende 2002 die Auflagen zur Durchfahrt für Öltanker verschärft. Im Jahr durchfahren etwa 50.000 Schiffe diese Meerenge. Im Jahr der Unterzeichnung des "Vertrages von Montreux" (1936) waren es lediglich 4.500 pro Jahr. Im April 2012 äußerte der türkische Ministerpräsident Erdoğan Pläne seiner Regierung, den Bosporus durch den parallel zu bauenden Istanbul-Kanal entlasten zu wollen. Geschichte. Bereits in den antiken Sagen wurde der Bosporus erwähnt. Jason musste auf seiner Fahrt nach Kolchis die lebensgefährlichen Symplegaden passieren - zwei mythologische Felseninseln, die an der Einmündung des Bosporus in das Schwarze Meer liegen. Der Name Bosporus (Kuh- oder Ochsenfurt) stammt daher, dass hier nach der Sage die in eine Kuh verwandelte Io auf ihrer Flucht hinüberschwamm. Als die Bezeichnung Bosporus im Altertum auch für andere Meerengen verwendet wurde, nannte man die Straße von Konstantinopel "Thrakischen Bosporus" (Thraci scheu Bosporus) - zur Unterscheidung vom "Cimerischen Bosporus" oder "Kimmerischen Bosporus" (Straße von Kertsch). Der persische König Dareios I. ließ im 6. Jahrhundert v. Chr. die Schiffbrücke über den Bosporus bauen, der so sein angeblich 700.000 Mann starkes Heer für seinen Feldzug gegen die Skythen übersetzte. Die Großmächte, die im Laufe der Geschichte den Bosporus kontrollierten (Oströmisches Reich, Osmanisches Reich), strebten damit auch eine Kontrolle über das Schwarze Meer an. So ließ Sultan Bayezid I. 1390 die Gelibolu-Schiffswerft errichten, um den Bosporus und damit die Schifffahrtsroute zwischen Konstantinopel (heute Istanbul) und dem Schwarzen Meer zu kontrollieren. Konstantinopel war zu dieser Zeit noch nicht osmanisch. Für diesen Zweck führte er auch Schiffsinspektionen für alle Schiffe ein, die den Bosporus durchfahren wollten, und verweigerte gegebenenfalls auch die Durchfahrt. Zum Zwecke der Kontrolle des Bosporus wurde auch die Festung Anadolu Hisarı (auf der asiatischen Seite) errichtet. Später ließ Mehmed II. als Vorbereitung auf die Belagerung und Eroberung Konstantinopels die Festung Rumeli Hisarı (auf der europäischen Seite) errichten - genau gegenüber der Festung Anadolu Hisarı. Danach hatte das osmanische Reich die volle Kontrolle über den Zugang zum Schwarzen Meer und kämpfte um dessen volle Kontrolle. Für eine gewisse Zeit wurde Schiffen, die unter der Flagge der Republik Venedig bzw. der Republik Genua fuhren, die freie und ungehinderte Durchfahrt zu ihren Kolonien im Schwarzen Meer gewährt; später mussten sie eine Reisegenehmigung (izn-i sefine) erwerben und eine Steuer entrichten. Nach 1484 (nach der Eroberung von Kili und Akkirman unter Bayezid II.) wurde dann aber allen Schiffen unter ausländischer Flagge die Durchfahrt durch den Bosporus verwehrt. Wegen der vollständigen Isolierung des Schwarzmeerraumes vom internationalen Handel wurde diese Region im 16. Jahrhundert zum internen Meer des Osmanischen Reiches. Anfangs war die gesamte Schwarzmeerküste osmanisch beherrscht. Eine privilegierte Flotte von 120 Schiffen (Unkapani kapan-i dakik; je 175 t Ladung) transportierte im Auftrag des Reiches Getreide aus dem Donaudelta und von der anatolischen Schwarzmeerküste. Zusätzlich waren Handelsschiffe auf eigene Rechnung unterwegs, die für jede Reise einen Antrag stellen mussten. Später eroberte Russland Teile der nördlichen Schwarzmeerküste (1739 Festung Asow, 1769 Taygan, 1778 Gründung der Hafenstädte Kerson und 1794 Odessa, 1783 russische Eroberung der Krim), und es gab einen Freihandel mit diesen Gebieten, der besonders von den Griechen aus der Ägäis (damals unter osmanischer Herrschaft) betrieben wurde. Die Kapitäne der auslaufenden Schiffe mussten dafür bürgen, dass die gesamte Besatzung wieder zurückkehrte, da in der russischen Flotte ein großer Bedarf an qualifizierten (griechischen) Seeleuten bestand und sie sich bereits zu einem großen Teil aus griechischen Seeleuten aus dem osmanischen Herrschaftsbereich rekrutiert hatte. Der Kapitän musste in späteren Jahren sogar eine Bürgschaftsurkunde (Geldbürgschaft) seiner Heimatgemeinde vorlegen bzw. einen vermögenden Bürgen in Istanbul vorweisen. Die Fälle von (angeblich) unterwegs verstorbenen – und deshalb nicht mehr zurückkehrenden – Seeleuten wurden streng untersucht. Dieser Status blieb bis 1774 erhalten, als der Friede von Küçük Kaynarca geschlossen wurde. Bis zum Anfang des 18. Jahrhunderts hatte das Osmanische Reich allen Schiffen unter fremder Flagge, einschließlich der Handelsschiffe, auch dem kleinsten Boot, die Zufahrt zum Schwarzen Meer versagt. So blieb die Region unter totaler osmanischer Kontrolle. Nach 1774 durften russische Schiffe den Bosporus passieren und um 1800 auch die Schiffe anderer europäischer Staaten (1783 Österreich, 1802 Frankreich und Großbritannien). Den russischen Schiffen war jedoch der Transport bestimmter Güter durch den Bosporus untersagt. Insbesondere wollten die Osmanen verhindern, dass Getreide weitertransportiert wurde, da sie selber einen großen Bedarf dafür hatten. Russischen Kriegsschiffen wurde jedoch die Durchfahrt durch den Bosporus streng verwehrt, auch als man versuchte, die Durchfahrt für russische Kriegsschiffe ohne Bewaffnung zu erbitten. Diese sollte als getrennte Ladung auf Handelsschiffen durch den Bosporus transportiert werden. Das Verbot der Durchfahrt von russischen Kriegsschiffen wurde erstmals gelockert, als Russland dem Osmanischen Reich seine militärische Hilfe anlässlich Napoleons Ägyptenfeldzug (1798 bis 1801) anbot. Das Osmanische Reich gestattete russischen Kriegsschiffen für die Dauer des Krieges die Durchfahrt. Als der 7. russisch-türkische Krieg (1806 bis 1812) ausbrach, schlossen die Osmanen einen Beistandspakt mit Großbritannien (1809 in Kala-i Sultaniye) - für den Fall eines französischen Angriffs. Dabei wurde den britischen Kriegsschiffen das Recht gewährt, bis zum südlichen Eingang des Bosporus zu fahren. Im Vertrag von Hünkâr İskelesi (1833) wurde russischen Schiffen ein Durchfahrtsrecht gewährt, und die osmanische Regierung verpflichtete sich, im Falle eines Krieges den Bosporus für Schiffe aller Länder zu schließen. Wegen des lautstarken Protestes von Großbritannien und Frankreich hielt dieser Vertrag aber nicht lange. Entsprechend dem Londoner Vertrag von 1841 musste der Bosporus in Friedenszeiten für alle Kriegsschiffe geschlossen bleiben - lediglich kleineren Kriegsschiffen verbündeter Nationen durfte die Durchfahrt gewährt werden - nach der Genehmigung durch einen speziellen Beauftragten. Somit wurde die Frage der Bosporusdurchfahrt eine Angelegenheit der Großmächte. In den folgenden Krimkrieg (1853 bis 1856) traten Frankreich und Großbritannien auf der Seite des Osmanischen Reiches ein und schickten ihre Kriegsflotten in das Schwarze Meer. Nach dem Krimkrieg (Dritter Pariser Frieden - 1856) hatte der Bosporus den Status einer internationalen Wasserstraße, blieb aber für Kriegsschiffe geschlossen. Dem Osmanischen Reich und Russland war das Unterhalten einer Kriegsflotte im Schwarzen Meer untersagt. Mit dem Londoner Vertrag von 1871 wurde Russland jedoch eine Kriegsflotte im Schwarzen Meer gestattet, und verbündeten Ländern wurde die Bosporusdurchfahrt von Kriegsschiffen während Friedenszeiten erlaubt. Dieser Status blieb bis zum Ersten Weltkrieg erhalten. Im Vertrag von Edirne, der nach den griechischen Unruhen (1921), angestachelt von Großbritannien, Frankreich und Russland, geschlossen wurde, wurde den Handelsschiffen aller Länder die freie Durchfahrt durch den Bosporus gewährt. Im Meerengenabkommen, das am 20. Juli 1936 in Montreux unterzeichnet wurde, wurden der Türkei die Hoheitsrechte für den Bosporus zuerkannt, die internationalen Durchfahrtsrechte geregelt und das Recht zur Sperrung der Meerenge durch die Türkei im Kriegsfall. Unterzeichnerstaaten waren die Türkei, Großbritannien, Frankreich, Japan, UdSSR, Bulgarien, Rumänien, Griechenland und Jugoslawien. Italien trat erst 1938 dem Abkommen bei. Historische Verteidigungsanlagen (nach Meyers Lexikon 1888). "Die Küstenwerke des Bosporus, die diesen gegen einen aus dem Schwarzen Meere kommenden Feind verteidigen sollen, bestehen aus vier Gruppen. Die nördlichste Gruppe reicht bis zur Vöjükbucht auf der europäischen und bis Fil-Burun auf der kleinasiatischen Seite und enthält auf der 3,5 km langen und 3 bis 1 km breiten Strecke auf rumelischer Seite 5 Küstenwerke und zwar das Fort Rumeli-Feneri-Kalesst nebst einer Batterie, die Batterie Tapas-Vurun, das Fort Gharibdsche, das hochliegende Fort Vöjük-Liman mit insgesamt 97 Geschützen, und auf anatolischen Seite drei, nämlich das moderne Fort Anadoli-Feneri-Kalessi, die Poirasbatterie und das moderne Fort Fil-Burun mit insgesamt 64 Geschützen. Die zweite Befestigungsgruppe, mit den wichtigsten Werken, reicht bis zur Böjükderebai und deckt den nur 570–740 m breiten Fahrwasserabschnitt; hier stehen außer den alten halbverfallenen Genueserschlössern Numeli-Kawak und Anadoli-Kawak acht Werke mit mindestens 198, wahrscheinlich aber mehr Geschützen; unter diesen Werken sind besonders zu nennen auf europäischer Seite die neue Batterie von Numeli-Kawak mit 6 schweren gezogenen Geschützen, das Fort von Tali-Tabia mit 30 glatten Geschützen in sehr guter Aufstellung unmittelbar über dem Meeresspiegel, die Batterie von Dikili und das "Fort Mezar-Vurun;" auf asiatischer Seite das alte "Fort Anadoli-Kawak" mit 11 Kruppschen Geschützen von 15 bis 28 cm Kaliber, das neue Fort Iuscha, die alte Riesenburg, mit 8 Kruppschen Geschützen und das ganz moderne "Fort Madschiar-Kalessi", das wichtigste Küstenwerk des ganzen B., mit 30 Kruppschen Kanonen von 15 bis 28 cm Kaliber, die in 8 m Höhe über dem Meeresspiegel stehen. Im dritten Abschnitt zwischen Bo'zükdere und Therapia liegen das Fort Alti-Agatsch und die modernen Batterien von Therapia- und Kiridj-Burun, die mit weittragenden Geschützen den 4 km entfernten Pass Kawak enfilieren. Dieser Pass zwischen Rumeli- und Anadoli-Kawak ist die wichtigste Stelle der Verteidigung; er soll mit drei Die innerste Verteidigungslinie, die vierte Gruppe der Küstenwerke, liegt in dem schmalen (nur 670 in breiten) Pass zwischen den aus dem 14. Jahrh, stammenden, der Neuzeit angepassten festen Schlössern Rumeli-Hissar und Anadoli-Hissar, deren jedes etwa 20 Geschütze führt, aber Platz für ungefähr die doppelte Zahl hat. Auch zwischen diesen Werken soll eine Minensperre gelegt werden, indessen ist hier der Strom ziemlick stark, 5 - 6 Seemeilen in der Stunde, wodurch die Minen, wenn sie trieben, leicht für Konstantinopel gefährlich werden konnten. Vom Fort Rumeli-Hissar führt ein unterseeisches Telegraphenkabel über den B. nach Kandillü. Im ganzen sollen in diesen Küstenbefestigungen des Bosporus nicht weniger als 534 Geschütze, und zwar 304 auf europäischer und 230 auf kleinasiatischer Seite, aufgestellt sein, darunter 40 schwere Kanonen von Krupp und 50 schwere Mörser. So gut wie unvorbereitet ist die Verteidigung des Bosporus nach dem Marmarameere hin; allerdings sind bei Konstantinopel drei Küstenbatterien, die mit 150 Geschützen bewaffnet werden könnten; es sind dies die Batterie vor dem Arsenal in Tophane mit 18 Kanonen und 6 Mörsern (hat Platz für 96 Geschütze), ferner die Batterie auf der nördlichen Höhe des Serailhügels, die für etwa 40 Geschütze bestimmt ist, und endlich auf asiatischer Seite in Ekutari eine Batterie in der Nähe des alten Leanderturms, für 9-14 Geschütze. Davon ist aber nur die Salutbatterie in Tophane -mit 6 Bronzekanonen- in gebrauchsfähigem Zustand." Schiffsunfälle. Der Bosporus ist Tag und Nacht für den internationalen Schiffsverkehr geöffnet. Er ist einer der weltweit meistbefahrenen Seewege, da er die einzige Verbindung zwischen dem Schwarzen Meer und dem Mittelmeer ist. In den letzten 30 Jahren hat die Größe und Anzahl der durchfahrenden Schiffe durch diese schwierige, überfüllte und potentiell gefährliche Wasserstraße kontinuierlich zugenommen. Pro Jahr passieren 5.500 Tanker den Bosporus und transportieren dabei 2 Mio. Barrel Öl pro Tag. Die Meeresströmung und Dunkelheit stellen die Hauptursache für Schiffsunfälle in dem engen S-förmigen Kanal dar, der eher einem Fluss als einer internationalen Wasserstraße ähnelt. Unfallschwerpunkte sind die beiden Stellen, an denen die Schiffe eine scharfe Kurve fahren müssen (80° bei Yeniköy, 70° bei Umuryeri) – in der 2 km langen, engsten Stelle des Bosporus. Insgesamt müssen die Schiffe bei der Passage des Bosporus zwölfmal den Kurs ändern. Am engsten Punkt (Kandilli, 700 m eng), muss der Kurs um 45° geändert werden; die Strömung kann hier 7 bis 8 Knoten betragen. Wegen der starken Kursänderungen in dem engen Gewässer ist der Blick auf die Fahrrinne versperrt und somit der entgegenkommende Schiffsverkehr nicht einzusehen. So ist bei dem kilometerlangen Bremsweg der heutigen großen Tanker ein vorausschauendes Fahren auf Sicht unmöglich. Hinzu kommt ein reger Fährverkehr zwischen europäischer und asiatischer Seite der Millionenstadt Istanbul, der die Fahrrinne kreuzt. Bei den meisten Unfällen haben die Schiffe ihre Manövrierfähigkeit verloren, während sie mit der Strömung fuhren und durch scharfe Kurven manövrieren mussten. Bei den Unfällen, die sich während der Nacht ereigneten, gab es im Durchschnitt doppelt so viele Opfer wie bei Unfällen am Tag. Von 1953 bis 2002 gab es 461 Schiffsunfälle im Bosporus, wobei es sich meistens um Kollisionen handelte. Seit der Einführung des Traffic Separation Scheme (TSS, dt: Betriebsverfahren zur Verkehrstrennung) 1994, das auch von der Internationalen Seeschifffahrts-Organisation gebilligt wurde, sank die Anzahl der Schiffskollisionen sehr stark. Es gab danach nur noch 82 Zwischenfälle - meistens Strandung oder auf Grund laufen. Jedoch erfüllen nicht alle Schiffe die Kriterien zur TSS - wegen des Schiffstyps, ihrer Größe oder ihrer Manövrierfähigkeit. Das "Traffic Separation Scheme" definiert eine durch Koordinaten genau festgelegte Trennlinie (traffic separation line) zwischen dem nordwärts bzw. südwärts gerichteten Verkehr. Die größte Ölpest ereignete sich 1994, als der griechisch-zypriotische Tanker Nassia auf dem Weg von Russland nach Italien mit 56.000 t Rohöl an Bord mit dem unbeladenen Frachter Shipbroker kollidierte - an der nördlichen Einfahrt in den Bosporus. Dabei kamen 30 Personen um; 20.000 t Rohöl liefen in den Bosporus, wo es fünf Tage lang brannte und entsprechende Umweltschäden hinterließ. Der Bosporus musste gesperrt werden. Es stauten sich über 200 Schiffe. Als Konsequenz aus den Unfällen und um die Passage zu entlasten, brachte die türkische Regierung 2011 die Idee ins Spiel, bei Silivri den Istanbul-Kanal, mit 150 Metern Breite und etwa 50 Kilometern Länge, zu errichten. Schiffspassage. Satellitenaufnahme von Istanbul mit eingetragenen Stadtteilen Die Verfahren für die Schiffspassage des Bosporus sind getrennt für die Durchfahrten nach Süden bzw. nach Norden in dem Vorschriftenwerk "Bosphorus Passage Procedure" geregelt (auf welchen Frequenzen und an welchen Positionen die Stationen "Turkeli Control Station", "Kavak Pilot", "Bosphorus Pilot" und "Istanbul Control Station" gerufen werden müssen und an welchen Stellen Positionsmeldungen abgesetzt werden müssen). Der Erstkontakt muss vom Schiff aus jeweils 30 NM vor der Einfahrt in den Bosporus aufgenommen werden – bei Annäherung aus Norden 30 NM vor dem "Turkeli-Leuchtturm", bei Annäherung aus Süden 30 NM vor "Haydarpasa Break Water". Die Genehmigung zur Durchfahrt muss über Funk vom "Traffic Control Center" (dt. Verkehrskontrollzentrum) eingeholt werden. Segelschiffe mit einer Wasserverdrängung von über 500 t müssen spätestens 24 Stunden vor der Passage einen Segelplan abgeben. Türkische Schiffe mit einer Länge von über 150 m sind angehalten, für die Durchfahrt des Bosporus einen Lotsen an Bord zu nehmen. Für den übrigen Transit-Schiffsverkehr besteht keine Lotsenpflicht, wird aber von den türkischen Behörden stark empfohlen. Schiffe mit Lotsen an Bord haben Vorrang bei der Einfahrt in den Bosporus. Zwischen 17:30 Uhr und 7:30 (Nacht) Uhr wird nur einem Schiff mit einer Gesamtlänge über 250 m die Bosporusdurchfahrt genehmigt (in der Reihenfolge der Ankunft an der Bosporuseinfahrt). Tankern wird in dieser Zeit die Durchfahrt nur gestattet, wenn sie in Begleitung eines Schleppers fahren. Ansonsten müssen sie bis zum Anbruch des nächsten Tageslichtes warten. Schiffen mit einer Gesamtlänge über 200 m bzw. einem Tiefgang über 15 m wird die Durchfahrt während des Tages empfohlen. Für Schiffe mit gefährlichen Gütern ist die Durchfahrt an einigen Stellen gesperrt, solange sich gleichzeitig ein Schiff mit ähnlichen gefährlichen Gütern im Gegenverkehr befindet. Bei Sichten unter 2 NM muss das Schiffsradar eingeschaltet sein. Bei Sichtweiten unter 1 NM dürfen Schiffe mit gefährlichen Gütern und große Schiffe nicht in den Bosporus einfahren. Bei Sichten unter 0,5 NM wird der Verkehr in beide Richtungen eingestellt. Schiffe dürfen nicht am Schlepptau eines anderen Schiffes den Bosporus passieren, außer sie werden von einem Schlepper gezogen. Die normale Geschwindigkeit darf 10 Knoten nicht übersteigen, außer wenn es zum Zwecke einer ausreichenden Steuerung erforderlich ist – nach vorheriger Genehmigung. Der Abstand zum vorausfahrenden Schiff darf 1600 yards nicht unterschreiten. Vor einer Verringerung der eigenen Geschwindigkeit sind die nachfolgenden Schiffe zu informieren. Brücken und Tunnel. Über den Bosporus führen zwei Hängebrücken, die Bosporus-Brücke (1973) und die Fatih-Sultan-Mehmet-Brücke (1988). Die Hängebrücken verbinden Europa mit Asien. Beide sind mehrspurig für den Straßenverkehr ausgebaut und bei der Auffahrt Richtung asiatische Seite mautpflichtig. Im Oktober 2013 wurde ein Eisenbahntunnel unter dem Bosporus eröffnet, welcher die europäische mit der kleinasiatischen Seite Istanbuls verbindet. Das Projekt ist unter dem Namen Marmaray bekannt. Seit 2013 befindet sich mit der Yavuz-Sultan-Selim-Brücke am Nordausgang des Bosporus eine dritte Brücke offiziell in Bau. Am südlichen Ende des Bosporus wurde zudem im Februar 2011 mit den Bauarbeiten zum Avrasya Tüp Tüneli ("Eurasien-Tunnel") begonnen. Dieser soll ab Dezember 2016 der erste Straßentunnel unter dem Bosporus sein, und den westlichen ("Kennedy Caddesi") und östlichen Teil ("Harem İskele Caddesi") der Schnellstraße D100 verbinden. Im Februar 2015 wurde ein weiteres Tunnelprojekt als Straßen- und Eisenbahnverbindung angekündigt. Freileitungskreuzungen. 1954 wurde auf der Höhe der Stadtteile Arnavutköy in Europa und Kandilli in Asien die erste Freileitung über den Bosporus mit einer 154-kV-Leitung gezogen. 1983 wurde eine weitere Freileitung für 420 kV über den Bosporus gezogen, der 1997 eine dritte Freileitungskreuzung für jeweils vier Drehstromkreise zu je 420 kV folgte. Vorausschauend sind die Masten dieser Freileitungsquerung schon für 800 kV ausgelegt. Da die Durchfahrtshöhe auf dem Bosporus 73 m beträgt, müssen die Masten dieser Freileitungskreuzung sehr hoch sein. Allerdings kommt die gebirgige Topografie dem Leitungsbau zugute. Die Masten der 1997 fertiggestellten Bosporuskreuzung ragen 160 m hoch. Buenos Aires. Buenos Aires (frühere Schreibweise "Buenos Ayres"; offiziell "Ciudad Autónoma de Buenos Aires"/"Autonome Stadt Buenos Aires") ist die Hauptstadt und Primatstadt, also das politische, kulturelle, kommerzielle und industrielle Zentrum Argentiniens. Ihre Gründer benannten sie nach der Heiligen "Santa María del Buen Ayre" (für "Heilige Maria der Guten Luft"). Die offiziell nur 202 Quadratkilometer große Stadt bildet den Kern einer der größten Metropolregionen Südamerikas, dem Gran Buenos Aires mit etwa 13 Millionen Einwohnern. Sie streckt sich heute rund 68 Kilometer von Nordwest nach Südost und etwa 33 Kilometer von der Küste nach Südwesten aus. Sie wird oft als „Wasserkopf“ Argentiniens bezeichnet, da sich hier fast alle wichtigen Institutionen des Landes befinden und in der Stadt und vor allem in der Umgebung etwa ein Drittel aller Argentinier wohnt. Zudem ist sie als einzige Stadt Argentiniens als „Capital Federal“ autonom, also nicht an eine bestimmte Provinz gebunden. Sie ist ein wichtiges kulturelles Zentrum und wurde 2005 durch die UNESCO mit dem Titel "Stadt des Designs" ausgezeichnet. Geographische Lage. Satellitenaufnahme (Buenos Aires liegt rechts unten) Die Stadt Buenos Aires liegt am "Río de la Plata", einer trichterförmigen Mündung der Flüsse Río Paraná und Río Uruguay in den Atlantik, an der Ostküste des südamerikanischen Kontinents durchschnittlich 25 Meter über dem Meeresspiegel. Das Wasser des Río de la Plata in Buenos Aires ist durch den hohen Eintrag von lehmigem Schlamm trüb. Das Revier weist nur geringe Tiefen auf, im Allgemeinen unter 20 Meter, so dass beispielsweise Schiffe mit größerem Tiefgang in der Region ausgebaggerte Fahrrinnen benutzen müssen. Westlich und südlich von Buenos Aires erstrecken sich die "Pampas", das landwirtschaftlich fruchtbarste Gebiet von Argentinien. Stadtgliederung. Verwaltungsbezirke und Stadtteile von Buenos Aires Buenos Aires ist in 48 Stadtteile gegliedert. Agronomía, Almagro, Balvanera, Barracas, Belgrano, Boedo, Caballito, Chacarita, Coghlan, Colegiales, Constitución, Flores, Floresta, La Boca, La Paternal, Liniers, Mataderos, Monte Castro, Montserrat, Nueva Pompeya, Núñez, Palermo, Parque Avellaneda, Parque Chacabuco, Parque Chas, Parque Patricios, Puerto Madero, Recoleta, Retiro, Saavedra, San Cristóbal, San Nicolás, San Telmo, Vélez Sársfield, Versalles, Villa Crespo, Villa del Parque, Villa Devoto, Villa General Mitre, Villa Lugano, Villa Luro, Villa Ortúzar, Villa Pueyrredón, Villa Real, Villa Riachuelo, Villa Santa Rita, Villa Soldati, Villa Urquiza. Im Zuge der Dezentralisierung wurden 15 "Centros de Gestión y Participación Comunal" (CGCP, deutsch etwa: Kommunalzentren der Verwaltung und Bürgerbeteiligung) gegründet, die von 1 bis 15 durchnummeriert sind. In allen CGPCs kann man städtische Formalitäten erledigen, etwa Steuern und Bußgelder bezahlen oder standesamtliche Vorgänge wie Heiraten und Geburtsscheinausstellungen vornehmen. Klima. Buenos Aires befindet sich in der subtropischen Klimazone und hat nach Köppen ein feucht-subtropisches Klima (effektive Klimaklassifikation: Cfa). Die durchschnittliche Jahrestemperatur beträgt 17,73 Grad Celsius, die Jahresniederschlagsmenge 1214,6 Millimeter im Durchschnitt. Der wärmste Monat ist der Januar mit durchschnittlich 23,7 Grad Celsius, der kälteste der Juli mit 10,5 Grad Celsius. Selbst im argentinischen Winter sinken die Temperaturen nur selten unter null Grad, Schnee gab es bisher nur in wenigen Ausnahmefällen, so zum Beispiel 1918, im Juli 2007 und im Juli 2010. Der meiste Niederschlag fällt im Monat März mit 153,9 Millimeter im Mittel, der wenigste im Juni mit durchschnittlich 50,0 Millimeter. Ökologische Probleme. Als Megastadt hat Buenos Aires mit zahlreichen ökologischen Problemen zu kämpfen. Zwar gibt es vor allem wegen des relativ windigen Wetters kaum Smog in der Stadt, dennoch erreicht die Schadstoffbelastung der Luft durch die mangelhaft gefilterten Industrie- und Autoabgase in einigen Außenbezirken und Vorstädten, zum Beispiel in Lanús, oft kritische Werte, die zu erhöhten Lungenkrebsraten führen. Dazu trägt in erheblichem Maße das hohe Verkehrsaufkommen bei. In den sehr engen, von hohen Häuserfronten gesäumten Straßen ist zudem die Frischluftzufuhr (zum Beispiel vom Meer) sehr gering. Straßen- und Hofbepflanzungen wurden beim Zuschnitt der Flächen selten eingeplant, so dass deren staubbindende Kraft kaum vorhanden ist. Problematisch ist ebenfalls, dass die Stadt und der sie umgebende Ballungsraum nur relativ wenige Parks, Wasserflächen oder offene Grünflächen besitzt und das Umland durch immer weiter in die Peripherie ausholende Bauprojekte (zum Beispiel Country Clubs) ebenfalls zugebaut wird. Ein weiteres Problem ist die Belastung des Río de la Plata und seiner Zuflüsse in der Stadt durch Abwässer. Die durch die Stadt fließenden Flüsse Riachuelo und "Río de la Reconquista" sind hochgradig verschmutzt und lassen kein biologisches Leben mehr zu. Eine Renaturierung zumindest des Riachuelo war in den 1990er Jahren zwar geplant, das Vorhaben lässt jedoch weiterhin auf sich warten. Im Río de la Plata selbst konnte bis etwa 1980 noch gebadet werden (es gab einen Badestrand in Quilmes), heute ist dies jedoch wegen der Verschmutzung des Wassers nicht mehr möglich, nachdem es mehrere Todesfälle in den 1980er Jahren gab. Auf der gegenüberliegenden Seite des Río de la Plata in Uruguay ist es aber noch problemlos möglich. Ein großes Problem war von jeher die Müllentsorgung. Früher wurde der Müll dezentral, oft sogar in den Heizanlagen der Wohnhäuser verbrannt, was aber ab der Erreichung einer bestimmten Größe der Stadt wegen der Schadstoffbelastung nicht mehr ohne weiteres möglich war. Heute landet ein Großteil des Mülls auf einer ringförmig um die Stadt gelegenen Mülldeponie, die begrünt und teilweise parkähnlich ausgestaltet wird und "Cinturón Ecológico" (ökologischer Gürtel) genannt wird. Kritisiert wird an dem Vorhaben, dass das Grundwasser durch die im Müll vorkommenden Schadstoffe (z. B. Schwermetalle) verschmutzt werden kann. So werden zum Teil erhöhte Krebsraten in den angrenzenden Wohngebieten beobachtet. Gründung der Stadt (1536–1541). Buenos Aires kurz nach seiner Gründung 1536 Der Konquistador Juan Díaz de Solís entdeckte 1516 den Río de la Plata, seine Expedition wurde aber durch einen Indianerangriff in der Nähe des heutigen Tigre zu einem blutigen Ende gebracht, bei dem Solís auch selbst umkam. Buenos Aires wurde am 2. Februar 1536 von Pedro de Mendoza mit dem Namen "Puerto de Nuestra Señora Santa María del Buen Ayre" („Hafen unserer lieben Frau [der Heiligen] Maria der guten Luft“) gegründet. Der Name wurde von Mendozas Kaplan ausgewählt, der ein Verehrer der "Virgen de Bonaria" (Jungfrau der guten Luft) von Cagliari, Sardinien war. Nach anderer Überlieferung wurde der Name aufgrund der günstigen Winde im Río de la Plata ausgesucht. Eine plausiblere Erklärung für den Bezug auf „gute Lüfte“ ist, dass der Hafen zur Zeit der Stadtgründung, von Norden kommend, eine der ersten malariafreien Stationen im Osten Südamerikas war. Auch der Name der Virgen de Bonaria geht auf einen solchen Ort auf dem von malariaverseuchten Sümpfen durchzogenen Sardinien zurück (vgl. Bonaria – Malaria). Der Ort von Mendozas Stadtgründung liegt auf dem Gebiet des heutigen Stadtteils San Telmo. Mendoza befehligte etwa 1.600 Mann, die auf 16 Schiffen anlandeten. Da sie erst im Spätsommer ankamen, war es zu spät, um Getreide anzupflanzen. Die lokalen Querandí-Indianer waren Jäger und Sammler und wurden von den Spaniern gezwungen, Essen für Mendozas Truppen zu beschaffen. Sie reagierten daraufhin mit wiederholten Angriffen. Mendozas Siedler mussten 1541 den Ort aufgeben. An diesen Expeditionen beteiligte sich der Straubinger Patriziersohn Ulrich Schmidl, der zum Chronisten der Ereignisse und frühem Historiker der Stadt wurde. Er gilt bisweilen als einer der Mitbegründer der Stadt. Zweite Gründung der Stadt (1580–1776). Erst 1580 wurde die Stadt von Juan de Garay mit dem Namen "Ciudad de la Santísima Trinidad y Puerto Santa María de los Buenos Aires" („Stadt der Heiligen Dreifaltigkeit und Hafen der Heiligen Maria der guten Lüfte“) wiedergegründet. Zwischenzeitlich waren mehrere Stadtgründungen auf dem Gebiet des heutigen Argentiniens vollzogen worden, die aufgrund der Besiedelung von Peru her alle im Nordwesten liegen. Die älteste durchgängig bewohnte Stadt des Landes ist daher Santiago del Estero im Nordosten des heutigen Argentinien. Buenos Aires hing seit seinen frühen Tagen stark von der Viehzucht in der die Stadt umgebenden Pampa und vom Handel mit Spanien ab. Die spanische Administration des 17. und des 18. Jahrhunderts verlangte allerdings, dass alle Waren, die nach Europa geschickt wurden, zunächst nach Lima in Peru gebracht werden mussten, um die Waren zu versteuern. Der weite Umweg löste aber einen steigenden Unmut bei den Händlern in Buenos Aires gegenüber Spanien aus und so entwickelte sich der Schmuggel sehr gut. Karl III. von Spanien erkannte diese steigende Instabilität seiner Macht und lockerte während seiner Regierung (1759–1788) zunächst die Handelsbestimmungen und erklärte schließlich Buenos Aires zu einem offenen Hafen. Hauptstadt des Vizekönigreichs Río de La Plata (1776–1810). 1776 wurde Buenos Aires schließlich zur Hauptstadt des Vizekönigreichs des Río de la Plata, das aus dem Vizekönigreich Peru ausgegliedert wurde. Die Bevölkerung der Stadt stieg unter anderem auch durch die Einfuhr von Sklaven aus Afrika stark an, zwischen 1778 und 1815 betrug der Anteil der schwarzen Bevölkerung etwa ein Drittel. Während der Zeit der Koalitionskriege, bei denen Spanien als Alliierter Frankreichs Gegner des Vereinigten Königreiches war, besetzten am 27. Juni 1806 britische Truppen unter General William Carr Beresford nach zweitägigen Kämpfen die Stadt. Die Bewohner leisteten jedoch Widerstand und am 4. August eroberten einheimische Kräfte unter Santiago de Liniers die Stadt zurück. Liniers konnte auch eine weitere Belagerung durch die Briten abwehren, die am 7. Juli 1807 mit der Kapitulation General John Whitelockes endete. Die Tatsache, dass die Besetzungen nicht an der Gegenwehr der spanischen Truppen, sondern am erbitterten Widerstand seitens der Bevölkerung gescheitert waren, bestärkte die Nationalisten in ihren Ambitionen. Sie bereiteten die Unabhängigkeit des Landes vor, indem sie immer weitergehende Zugeständnisse des Vizekönigs an lokale Bürgervereinigungen, den so genannten "Cabildos Abiertos" erlangten. Unabhängigkeitskampf und Rosas Diktatur (1810–1880). Am 25. Mai 1810 vertrieben bewaffnete Bürger der Stadt Buenos Aires den Vizekönig Baltasar Hidalgo de Cisneros y la Torre. Am 9. Juli 1816 erklärte der Kongress von Tucumán formell die Unabhängigkeit der Vereinigten Provinzen des Río de la Plata. Nach der Unabhängigkeitserklärung entbrannte ein Streit zwischen den Unitariern, die einen von Buenos Aires aus geführten Zentralstaat wollten und den Föderalisten, die eine starke Unabhängigkeit der einzelnen Provinzen verfolgten. 1829 übernahm der Föderalist Juan Manuel de Rosas als Gouverneur die Herrschaft über Buenos Aires. Im März 1835 wurde er abermals zum Gouverneur und Generalkapitän gewählt. Zeitweilig ließ sich Rosas außerordentliche Gewalt übertragen und erhielt damit faktisch die Gewalt eines Diktators. Er führte die Republik bis 1852, als er in der Schlacht von Monte-Caseros durch Truppen Brasiliens, Uruguays und des Don Justo José de Urquiza geschlagen wurde. Mit dem Sturz Rosas öffnete sich die Stadt für Einwanderer aus Europa. Im Jahre 1853 weigerte sich die Stadt und die Provinz Buenos Aires am konstitutionellen Kongress teilzunehmen und trennte sich von Argentinien. 1859 trat Buenos Aires dem 1853 gegründeten "Argentinischen Bund" (Federación Argentina) bei. Hauptstadt Argentiniens (1880–1976). 1880 wurde die Stadt Buenos Aires unter Julio Argentino Roca von der gleichlautenden Provinz abgetrennt und gleichzeitig zur Hauptstadt Argentiniens erklärt. 1890 war Buenos Aires die größte und wichtigste Stadt in Lateinamerika. Um die Jahrhundertwende betrug die Einwohnerzahl nahezu eine Million. Durch viele italienische Auswanderer hat sich in dieser Zeit die Mischsprache Cocoliche herausgebildet, die zeitweise von über 40 Prozent der Bevölkerung gesprochen wurde. 1913 wurde unter der Avenida de Mayo die erste U-Bahn-Strecke eröffnet. Die U-Bahn von Buenos Aires blieb die erste und einzige in Lateinamerika bis zur Eröffnung der U-Bahn von Mexiko-Stadt im Jahre 1969. Für die Jahrhundertfeiern der Unabhängigkeit Argentiniens wurden im Stadtzentrum einige Diagonalen in das Straßensystem und die Avenida 9 de Julio geschlagen. Der Plan war aber ursprünglich wesentlich ambitionierter, als er schließlich durchgeführt wurde. 1919 gab es unter der Regierung von Hipólito Yrigoyen einen Arbeiteraufstand, der durch Militärgewalt niedergeschlagen wurde. Die Ereignisse gingen als "La Semana Trágica" (die tragische Woche) in die Geschichte von Buenos Aires und von Argentinien ein. In den 1930er-Jahren wurden einige große Avenidas durch das Stadtzentrum gezogen, so die Avenidas Santa Fe, Córdoba und Corrientes, die heute noch Hauptschlagadern des Straßenverkehrs sind. Nach dem Zweiten Weltkrieg hatte die wachsende Stadt viele vormalige Vororte erreicht und einverleibt. Die Stadt beherbergte zu dieser Zeit etwa ein Drittel der argentinischen Bevölkerung. Militärdiktatur (1976–1983). a>, in der – während der reguläre Ausbildungsbetrieb weiterlief – etwa 5.000 Menschen gefoltert und ermordet wurden. Sie ist heute eine Gedenkstätte. a>es an der "Plaza San Martín" 1976 kamen nach dem Sturz der Präsidentin Isabel Martínez de Perón die Militärs unter Leitung von Jorge Rafael Videla in Argentinien an die Macht. Während der Diktatur von 1976 bis 1983 "verschwanden" 20.000 bis 30.000 Menschen spurlos (die "Desaparecidos"), die in Opposition zu den Militärs standen oder auch nur in diesen Verdacht geraten waren. Im Stadtteil Palermo wurde damals in einer Ausbildungseinrichtung der Marine (der Escuela de Mecánica de la Armada) das größte Geheimgefängnis und Folterzentrum des Landes eingerichtet. Etwa 5000 Menschen wurden dort während der Zeit der Diktatur gefoltert und anschließend fast immer ermordet, oft durch Abwerfen der betäubten, entkleideten Opfer aus Militärflugzeugen über dem nahen Río de la Plata oder dem Atlantik. Auf diesen wöchentlich durchgeführten "Todesflügen" („vuelos de la muerte“) starben bis zu 2000 Menschen, sie wurden erst 1996 durch den Journalisten Horacio Verbitsky öffentlich bekannt. Nach einer gewissen Zeit der Militärherrschaft wurde klar – obwohl dies offiziell bis zum Ende der Diktatur abgestritten wurde – dass die Regierung hinter dem spurlosen Verschwinden der zahlreichen Vermissten stand. Ab April 1977 protestierten daher jede Woche eine Anzahl an Müttern von "Verschwundenen" (die Madres de Plaza de Mayo) auf der Plaza de Mayo vor dem Präsidentenpalast Casa Rosada, womit sie selbst in Lebensgefahr gerieten. Redemokratisierung und wirtschaftlicher Aufschwung (1983–1998). Kongresspalast spiegelt sich in der Kongressbibliothek Nach dem verlorenen Falkland-Krieg konnten sich die Militärs nicht mehr an der Macht halten, und so gab es wieder demokratische Wahlen. Als erster Präsident dieser neuen Ära wurde Raúl Alfonsín gewählt. Mit Wiedereinzug der Demokratie in Argentinien, der 1:1-Bindung des argentinischen Pesos an den Dollar und mit den neoliberalen Reformen während der Präsidentschaft von Carlos Menem begann die argentinischen Wirtschaft mit einem steilen Aufschwung, der sich auch durch verstärkte Bautätigkeit in der Stadt Buenos Aires manifestierte. Vor allem im Stadtteil Retiro wurden viele neue Hochhäuser gebaut. Am 17. März 1992 zerstörte eine Autobombe die israelische Botschaft im Stadtteil Retiro und tötete 29 Menschen und verletzte 242. Auf das Attentat folgte am 18. Juli 1994 das schwerste Attentat in der argentinischen Geschichte, ein Anschlag auf eine jüdische Einrichtung mit 85 Toten und mehr als 300 Verletzten. Über Jahre hinweg wurde das Attentat auf die AMIA ("Asociación Mutual Israelita Argentina", etwa „Israelisch-Argentinischer Verein auf Gegenseitigkeit“) genannte Sozialkasse der jüdischen Argentinier nicht aufgeklärt, was vor allem an den Jahrestagen des Anschlags zu politischen Protesten geführt hat, in denen den staatlichen Institutionen fehlendes Engagement vorgeworfen wird. Am 25. Oktober 2006 veröffentlichte die untersuchende Staatsanwaltschaft ein Gutachten, in dem die Schuld der früheren iranischen Regierung angelastet und auf die Hisbollah als Ausführende hingewiesen wurde; es wurden internationale Haftanträge für acht Mitglieder der früheren iranischen Regierung gestellt. Beide Attentate hinterließen Narben in der Stadt und führten dazu, dass die jüdischen Einrichtungen neben den Regierungsgebäuden wohl die am stärksten bewachten Gebäude der Stadt sind. Buenos Aires hat mit rund 180.000 die größte Zahl jüdischer Einwohner aller Städte Lateinamerikas. Argentinien-Krise und langsame wirtschaftliche Erholung (seit 1998). Während der Wirtschaftskrise zwischen 1998 und 2003 war Buenos Aires das Zentrum teils gewalttätiger Demonstrationen, von denen die größte am 19. und 20. Dezember 2001 stattfand (das so genannte Cacerolazo) und zum Rücktritt des Staatspräsidenten Fernando de la Rúa führte. Außerdem sind seit 1999 die so genannten Piqueteros aktiv, die die wichtigsten Zufahrten der Stadt bis heute (Anfang 2005) in unregelmäßigen Abständen mit Straßensperren blockieren. Sie sind seit 2003 zu einem wichtigen Machtfaktor auch auf nationaler Ebene geworden. Am 30. Dezember 2004 ereignete sich das bisher schwerste Feuer in der Stadt: Bei einem Großbrand in der Diskothek República Cromañón kamen 194 Menschen ums Leben. Als Folge dieses Unfalls wurde der damalige Bürgermeister der Stadt, Aníbal Ibarra, beurlaubt und wegen schlechter Amtsführung angeklagt, da er für die Fehler der Brandschutzkontrollen verantwortlich gemacht wurde. Am 7. März 2006 beschloss das Gericht des argentinischen Repräsentantenhaus die Absetzung von Ibarra und die Übertragung des Bürgermeisteramtes auf seinen bisherigen Stellvertreter Jorge Telerman. Am 24. Juni 2007 wurde der Kandidat der konservativen Partei "PRO", der Geschäftsmann Mauricio Macri (u. a. Präsident des Sportvereins Boca Juniors) zum neuen Bürgermeister gewählt. Er schlug in der Stichwahl "Daniel Filmus" (PJ) mit 61 % der abgegebenen Stimmen, nachdem der bisherige Bürgermeister Telerman schon in der ersten Runde als Dritter ausgeschieden war. Macri trat das Amt jedoch erst am 10. Dezember 2007 an. Seit 2006 wird die Stadt in 15 Einzelgemeinden "(comunas)" mit autonomen Regierungen aufgeteilt. Als Stichtag für die Fertigstellung des Übergangsprozesses wurde der 10. August 2008 festgelegt. Einwohnerentwicklung. 1833 betrug die Bevölkerung der Stadt Buenos Aires knapp 60.000, im Jahre 1869 waren es etwa 180.000 Menschen. 1890 war Buenos Aires die größte und wichtigste Stadt in Lateinamerika mit einer Bevölkerung von etwa 661.000 Einwohnern. Bedingt durch die starke Einwanderungswelle aus Europa zählt die Stadt 1914 schon etwa 1,6 Millionen Einwohner. 2001 beträgt die Einwohnerzahl der Autonomen Stadt Buenos Aires knapp 2,8 Millionen Einwohner. Die Stadt und die sie umgebenden Vororte haben zusammen 13,1 Millionen Einwohner. Damit ist „Gran Buenos Aires“ die größte Metropolregion in Argentinien und nach São Paulo die zweitgrößte in ganz Südamerika. Die Bevölkerung ist überwiegend spanischen und italienischen Ursprungs. Andere Einwanderer kamen aus anderen Ländern Europas wie Deutschland, Irland, Portugal, Frankreich und England. Syrer und Libanesen sowie Armenier spielen seit dem Beginn des 20. Jahrhunderts eine zunehmend wichtige Rolle im Handel und öffentlichen Leben. Seit der zweiten Hälfte des 20. Jahrhunderts nahmen Einwanderer aus Bolivien, Peru und Paraguay zu. In den 1990er Jahren gab es eine kleine Einwanderungswelle aus Rumänien und der Ukraine. Die jüdische Gemeinde von Buenos Aires umfasst ca. 250.000 Mitglieder und ist damit die größte in Südamerika. Die meisten von ihnen sind Ashkenazy aus Nord- und Osteuropa (Russland, Deutschland, Polen), die sephardischen Juden stammen überwiegend aus Syrien. Die ersten ostasiatischen Einwanderer kamen aus Japan. Diese waren bekannt als Blumenzüchter bzw. als Inhaber von Textilreinigungen. Seit den 1970er Jahren kamen dagegen überwiegend Chinesen und Koreaner. Letztere verdienen ihren Lebensunterhalt hauptsächlich mit kleinen Supermärkten. Der Anteil der Nachkommen nicht-spanischer Einwanderer ist in Buenos Aires wesentlich höher als im restlichen Argentinien. Die Bevölkerung von Buenos Aires (Porteños resp. Porteñas genannt, sofern in Buenos Aires geboren) spricht heute fast ausschließlich spanisch und die überwältigende Mehrheit der Einwohner ist römisch-katholisch. Deutsche Einwanderer sprechen untereinander das so genannte Belgranodeutsch. Die folgende Übersicht zeigt die Einwohnerzahlen nach dem jeweiligen Gebietsstand. Bis 1943 handelt es sich meist um Schätzungen, von 1947 bis 2001 um Volkszählungsergebnisse und 2005 um eine Berechnung. Die Einwohnerzahlen beziehen sich auf die eigentliche Stadt ohne den Vorortgürtel. Die Bevölkerungsdichte ist mit 14.308 Einwohner pro km² etwa drei bis vier Mal größer als in Berlin und sogar etwas höher als in den 23 Stadtbezirken Tokios. Zu berücksichtigen ist dabei, dass eine Bevölkerungszunahme im nur 202 Quadratkilometer großen Stadtgebiet inzwischen nahezu ausgeschlossen ist. Die Bevölkerungsentwicklung vollzieht sich heute hauptsächlich in den Vororten, die in der Provinz Buenos Aires liegen. Die Zusammensetzung der Bevölkerung ist wie folgt: 88,9 % Weiße, 7 % Mestizen, 2,1 % Asiaten und 2 % Schwarze. Die Bevölkerung der Stadt ist relativ alt: 17 % der Einwohner sind unter 15, dagegen 22 % über 60. Damit ähnelt die Altersstruktur der europäischer Städte. Zwei Drittel der Einwohner leben in Mehrfamilienhäusern und 30 % in Einfamilienhäusern. 4 % leben in sehr einfachen Unterkünften, unter anderem in den "Villas miserias" (informelle Siedlungen), von denen die bekannteste die Villa 31 im Stadtviertel Retiro ist. Die Armutsrate betrug 2007 8,4 % für die Stadt und 20,6 % für die Metropolregion. Von den 1,2 Mio. Erwerbstätigen waren 2001 die meisten im Dienstleistungssektor beschäftigt. Der öffentliche Dienst beschäftigte nur 6 %, obwohl Buenos Aires als Hauptstadt Sitz der Verwaltung und Ministerien ist. 10 % waren im produzierenden Gewerbe beschäftigt. Kultur und Sehenswürdigkeiten. Avenida de Mayo im Zentrum Oft als „Paris Südamerikas“ bezeichnet, ist die Kultur der Hauptstadt sehr europäisch geprägt. Neben den unten genannten Einrichtungen gibt es diverse Orchester und Chöre. Häuser von Künstlern und Kunstsammlern wurden oft in Museen umgewandelt, die wichtigsten sind unten näher erläutert. Des Weiteren findet man zahlreiche Bibliotheken, einen Zoo, einen Botanischen Garten sowie Kirchen und andere religiöse Stätten, viele von ihnen auch architektonisch interessant. Theater. Das bekannteste Theater der Stadt ist das Teatro Colón, eines der berühmtesten Opernhäuser der Welt, welches nach umfangreichen Renovierungen im Jahr 2010 wiedereröffnet wurde. Neben diesem Theater existiert aber in Buenos Aires eine große Theater- und Musical-Szene, insgesamt gibt es 187 Theatersäle in der Stadt, darunter das Teatro Cervantes, das Nationaltheater des Landes, das über 100 Jahre alte Teatro Avenida oder das Teatro Coliseo. Es wird behauptet, dass Buenos Aires über mehr Theatersäle verfügt als jede andere Stadt in der Welt. Zum Vergleich: New York hat ca. 135 Säle, Paris etwa 150. Viele der Theater befinden sich an der Avenida Corrientes, die deshalb gerne auch als Broadway von Buenos Aires bezeichnet wird. Auch die Zahl der Theaterstücke ist beeindruckend. Außer im Hochsommer hat man zu jeder Zeit die Auswahl zwischen etwa 400 verschiedenen großen und kleinen Theateraufführungen. Tango. Tango in den Straßen von Buenos Aires Buenos Aires ist die Welthauptstadt des Tangos. Sowohl Uruguay als auch Argentinien nehmen für sich in Anspruch, Geburtsort des Tangos zu sein. In Buenos Aires entwickelte er sich in den Vororten der Stadt, vor allem in den Bordellen von "Junin y Lavalle" und in den ärmeren Vororten, den "Arrabales". Jedes Jahr wird in Buenos Aires ein Tangofestival und die Tango-Weltmeisterschaft abgehalten. Die berühmtesten und bekanntesten Tango-Künstler der Stadt treten Ende Februar/Anfang März auf. Es finden mehr als 70 Konzerte an verschiedensten Veranstaltungsorten (in den großen Theatern, wichtigsten Bars, aber auch Open-Air-Veranstaltungen) statt. Es gibt zahlreiche Tango-Shows – als Touristenattraktion auf der Straße, z. B. dem Caminito im Stadtteil La Boca. Getanzt wird in zahlreichen Milongas in der ganzen Stadt. Der berühmteste Tangosänger und -Komponist der Stadt ist Carlos Gardel, im Stadtteil Abasto finden sich ein ihm gewidmetes Museum, eine Statue zu seinen Ehren und zahlreiche Tangogeschäfte. Museen. Eines der bedeutendsten Museen ist das Museo Nacional de Bellas Artes (Nationalmuseum der Bildenden Künste). Zu sehen ist internationale Kunst vom Mittelalter bis zum 20. Jahrhundert wie auch argentinische Künstler sowie Fotografien und Plastiken. Das zweite bedeutende Nationalmuseum ist das Museo Nacional de Arte Decorativo. Es beherbergt eine umfangreiche Sammlung an Gemälden, Skulpturen, Mobiliar und ostasiatischer Kunst. Das "Museo de Arte Español Enrique Larreta" besitzt eine Sammlung des argentinischen Hispanisten und Schriftstellers Enrique Larreta: unter anderem Spanische Malerei, Skulpturen, Möbel und Keramiken aus dem 16. und 17. Jahrhundert, Werke des Mittelalters und vom Beginn des 20. Jahrhunderts. Das Museo de Arte Hispano Fernández Blanco zeigt Iberoamerikanische Kolonialkunst, darunter unter anderem: Malerei der Schule von Cuzco, Silberarbeiten aus Peru und vom Río de la Plata, religiöse Bildwerke aus Quito, Möbel aus Brasilien und dekorative Künste der republikanischen Periode. Im Jahre 2001 wurde das Museo de Arte Latinoamericano de Buenos Aires (MALBA) für die Sammlung des argentinischen Geschäftsmannes Eduardo Costantini eröffnet. Es zeigt mehr als 200 Arbeiten von etwa 80 Künstlern, darunter Schlüsselwerke der Kunst Lateinamerikas aus dem 20. Jahrhundert und führt auch spezielle Ausstellungen und Programme durch. In einem umgebauten Tabakspeicher im Viertel San Telmo befindet sich das Museo de Arte Moderno. Es beherbergt eine Sammlung zeitgenössischer Kunst Argentiniens und Werke herausragender internationaler Künstler des 20. Jahrhunderts. Interessant ist auch das Museo de Esculturas Luis Perlotti, das Museum im Haus des argentinischen Bildhauers Luis Perlotti mit einer Sammlung von fast 1.000 Werken, die der Stadt Buenos Aires im Jahre 1976 geschenkt wurden. Die Geschichte Argentiniens wird im Historischen Nationalmuseum in San Telmo erläutert. Weitere Museen sind das Naturwissenschaftliche Museum, das Historische Museum der Stadt Buenos Aires, das Architektur- und Design-Museum (MARQ), das "Museum der Boca-Leidenschaft" (für die Fans des Fußballclubs Boca Juniors) und das "Museo Evita", zum Gedenken an Eva Perón. Bedeutende Straßen und Bauwerke. Seit Beginn des 20. Jahrhunderts ist das Stadtbild stark verändert worden. Die Plaza de Mayo im östlichen Bereich von Buenos Aires war Ausgangspunkt der ursprünglichen Besiedlung und stellte in Form eines Halbkreises den städtischen Kern dar. Hier steht auch die Hauptkirche der Katholiken in Buenos Aires, die Catedral Metropolitana. Seit den 1950er-Jahren sind außerhalb der Stadt Geschäftszentren und andere Einrichtungen angewachsen. Theater, Hotels, Restaurants sowie Finanz-, Geschäfts- und Regierungsbüros und einige luxuriöse Wohnkomplexe liegen konzentriert nördlich und westlich des Plaza-Gebiets. Eine der Hauptachsen ist die 1,6 km lange Avenida de Mayo, die von der Casa Rosada (Sitz des Staatspräsidenten) an der Plaza de Mayo zur Plaza del Congreso mit dem Gebäude des Nationalkongresses verläuft. Hier fließt sie dann mit der Avenida Rivadavia zusammen und setzt sich in westliche Richtung über weitere 40 Kilometer fort. Um den Bau der Prachtstraße gab es seinerzeit viele Unstimmigkeiten, erst zwölf Jahre nach der ersten Idee konnte die Avenida eingeweiht werden. Heute sind hier viele architektonisch wichtige Gebäude zu bewundern. Als „Straße, die niemals schläft“, wird die Avenida Corrientes bezeichnet. Sie verläuft in west-östlicher Richtung vom Geschäftszentrum San Nicolás bis Chacarita. Entlang der Straße finden sich viele Theater, darunter das Teatro Ópera, weswegen sie auch als „Broadway von Buenos Aires“ angesehen wird. Im Norden von Buenos Aires finden sich Großteile der städtischen Parks, die beiden Rennstrecken und das Polo-Stadion der Stadt sowie Wohnbezirke der Mittel- und Oberschicht. Die nördliche Ausweitung der wohlhabenderen Viertel hat die Grenze des Hauptstadtbezirks überschritten und dehnt sich nach Martínez, Olivos, San Isidro und Vicente López aus. Weitere bedeutende Sehenswürdigkeiten von Buenos Aires sind der Friedhof von Recoleta, wo unter anderem Eva Perón begraben liegt, der Obelisk von Buenos Aires auf der Avenida 9 de Julio, der breitesten Straße der Welt, die Plaza General San Martín im Stadtteil Retiro, die Florida-Straße zum Einkaufen, das alte Hafengebiet Puerto Madero mit den restaurierten Speichern, der alte Stadtteil San Telmo mit seinen malerischen Straßen und dem Antiquitätenmarkt, der ehemalige Zentralmarkt Abasto, wo heute ein Einkaufszentrum untergebracht ist und das Künstlerviertel La Boca, das bekannt für seine farbenprächtigen Hausfassaden ist und als einer der Geburtsorte des Tangos gilt. Des Weiteren findet man diverse Einkaufszentren, wie das Patio Bullrich und die Galerías Pacífico. Sport. Besonders im Fußball und in den Pferdesportarten dominiert die Hauptstadt den Sportbetrieb des Landes weitgehend. Im Fußball residieren in der Stadt die zwei erfolgreichsten Erstligavereine Argentiniens: Rekordmeister CA River Plate und CA Boca Juniors, der Erzrivale von River. Das Derby zwischen beiden Vereinen wird Superclásico genannt. Weitere wichtige Vereine sind CA Independiente und Racing Club, beide aus der Vorstadt Avellaneda. Ihre Stadien trennen dort nur einige hundert Meter. Des Weiteren ist der CA San Lorenzo de Almagro aus dem Stadtviertel Almagro zu nennen. Buenos Aires wird oft als die Hauptstadt des Fußballs in Argentinien angesehen, mit 14 Stadien, die jeweils mehr als 30.000 Zuschauern Platz bieten. Dies zeigt sich auch dadurch, dass in der höchsten Argentinischen Fußballliga allein 13 Mannschaften von insgesamt 20 aus dem Großraum Buenos Aires stammen. Berühmt ist aber auch die Hooliganszene der „Barras Bravas“ in Buenos Aires. Zahlreiche Stadtderbys sind immer wieder Schauplatz von Fanausschreitungen und gewalttätigen Auseinandersetzungen mit anderen Fangruppierungen oder der Polizei, bei denen manchmal auch Menschen zu Tode kommen. Die Hooliganszene reicht zumeist bis tief in die Netzwerke der Vereine hinein und übt oftmals einen großen Einfluss auf die wichtigen Entscheidungen der Clubs aus. Pferderennen sind in der Stadt wahrscheinlich die zweitbeliebteste Sportart. Die beiden bekanntesten Rennbahnen "(Hipódromos)" befinden sich im Stadtviertel Palermo (Hipódromo Argentino de Palermo) sowie im Vorort San Isidro. Auch andere Sportarten „zu Pferde“ erfreuen sich höchster Beliebtheit: Die Oberschicht vergnügt sich am Wochenende zum Beispiel beim Polo. Weitere beliebte Sportarten in der Stadt sind Rugby und Hockey. Im ebenfalls beliebten Basketball kommen die dominierenden Mannschaften dagegen aus dem Landesinneren. Dasselbe gilt für die aktuellen Tennisprofis. Buenos Aires war dreimal Kandidat für die olympischen Sommerspiele: 1956, 1968 und 2004. 1951 fanden hier die ersten Panamerikanischen Spiele statt und Buenos Aires war Gastgeber, bzw. Austragungsort diverser Weltmeisterschaften, z. B. im Volleyball 1982 und 2002 und im Fußball 1978. 1938 richtete die Stadt die erste Dreiband-Weltmeisterschaft Südamerikas aus. Es war gleichzeitig die letzte WM vor dem Zweiten Weltkrieg. Nach Kriegsende war sie erneut Gastgeberin in den Jahren 1948, 1952, 1960, 1965, 1972 und zuletzt 1980. Gastronomie und kulinarische Spezialitäten. In Buenos Aires befinden sich über 3.500 Restaurants die einheimische wie internationale Küche anbieten. Dem Gast werden im Lokal so unterschiedliche Gerichte wie die antarktische Königskrabbe "(Centolla)" und die würzigen Teigtaschen (Empanadas) serviert. Klassiker sind jedoch die schmackhaften Pasta der italo-argentinischen Küche und das kreolische am offenen Holzfeuer gebratene Fleisch (Asado). Kenner versichern nachhaltig, dass argentinische Steaks nach wie vor die besten der Welt sind – allerdings sollte man es „al punto“ bestellen, sonst wird es durchgebraten serviert. Lendenbraten-Steaks werden als "Bife de Lomo" bezeichnet und häufig längsgeschnitten (nicht als Medaillon) auf der "Parrilla" (argentinischer Grill mit v-förmigen Grillstäben, die ein Abtropfen der austretenden Flüssigkeit auf die Glut durch Ableitung verhindern) zubereitet. Auf den Weinkarten der Restaurants stellen zahlreiche große Kellereien eine wechselnde Auswahl ihrer Gewächse vor. Die sehr verschiedenartigen Cuvées, Provenienzen, Rebsorten und Jahrgänge decken eine breite Geschmacksskala ab. Die gängigsten angebotenen Weine sind Cabernet Sauvignon, Malbec und Syrah. Vereinzelt (und immer häufiger) werden auch Weine wie Tannat oder Bonarda angeboten. Fast alle Weine kommen aus den Provinzen Mendoza, San Juan, aber auch aus der Provinz Salta. Parks. Der Freizeitpark „Tierra Santa“ ist ein einzigartiges „Disneyland des Glaubens“ und enthält mit diversen Replika von der Klagemauer bis hin zum Berg Golgota eine Vielfalt von Nachbildungen bekannter Glaubensdenkmäler. Der Parque Natural y Reserva Ecológica Costanera Sur ist ein Naturschutzpark. Bis Mitte des letzten Jahrhunderts befand sich an dieser Stelle ein Strandbad, das aufgrund der zunehmenden Verschmutzung des Rio Plata aufgegeben wurde; die Gewässer vor der Costanera wurden in den 1970ern aufgeschüttet, um Land für ein neu zu errichtendes, städtisches Verwaltungsviertel zu gewinnen. Das Projekt wurde 1984 aufgegeben. Nun übernahm die Natur das neugewonnene Land, das 1989 zum Naturschutzgebiet erklärt wurde. Die Parkwege stehen Besuchern tagsüber offen. Wirtschaft. Die Skyline im Stadtteil Puerto Madero Die Stadt ist als wichtigster Seehafen Argentiniens das Handelszentrum des Landes. Die Hafenanlagen und Schiffsbecken erstrecken sich über rund acht Kilometer entlang des Río de la Plata und beherbergen um Puerto Nuevo herum die wichtigsten Hafeneinrichtungen. Parallel zur modernen Verkehrsentwicklung (zum Beispiel 16-spurige Autobahnen) lief der Aufschwung der Stadt zum wichtigsten Industriezentrum des Landes. Der überwiegende Teil der Industrieanlagen des Landes wurde in Buenos Aires gebaut, seit 1930 zunehmend auch in den Vororten des großräumigen Einzugsgebiets. In der Metropolregion befinden sich knapp die Hälfte aller argentinischen Industriebetriebe, über 26.000 allein im Bundesdistrikt und mindestens die doppelte Zahl in den Vorstädten. Hauptstandorte der Industrie sind die Stadtbezirke im Südosten, besonders die zu Gran Buenos Aires gehörenden Verwaltungsbezirke Avellaneda und Lanús. Dort enden auch die großen Erdgasleitungen aus Patagonien. Auf den Finanzbezirk um die Kreuzung der Straßen Bartolomé Mitre und San Martín konzentrieren sich die Hauptniederlassungen internationaler und nationaler Banken sowie die Argentinische Zentralbank, die Wertpapierbörse und die Getreidebörse. Entlang der Florida-Straße und der Avenida Santa Fe sind die größten Einzelhandelsgeschäfte und Boutiquen zu finden. Im südlichen Teil der Stadt liegen Fleischverpackungs- und andere nahrungsmittelverarbeitende Industrien, Erdölraffinerien und chemische Industrien. Fahrzeugbauindustrie und verschiedene Leichtindustrien, wie Druckunternehmen und Textilfabriken, sind im Westen und Norden der Hauptstadt angesiedelt. Auf Grund der Umweltverschmutzung ist die Stadtverwaltung bemüht, Fabriken aus der Innenstadt an die Peripherie zu verlegen, wo einige Industrie- und Gewerbeparks entstanden sind. Die Angestellten und Arbeiter der ausgesiedelten Industrie zogen auf Grund der jetzt langen Arbeitswege ihren Arbeitgebern nach. Das Bruttoinlandsprodukt von Buenos Aires betrug 2006 nahezu ein Viertel Argentiniens, nämlich 84,7 Mrd. US$ (angepasst an Kaufkraft). Die Metropolregion liegt damit auf Platz 13 im Vergleich aller Städte weltweit. Der "Human Development Index" betrug 1998 0,923, was international betrachtet, recht hoch ist. In der Stadtmitte von Buenos Aires gab es 1927 erst fünf Hochhäuser, heute jedoch werden die Straßenzüge im Zentrum von Hochhäusern gezeichnet. Das Abwassersystem im Großraum der Stadt jedoch ist seit den 1940er Jahren kaum erweitert worden, obwohl Millionen von Menschen zugewandert sind. Der etwa drei Quadratkilometer umfassende Stadtkern liegt etwas nördlich der Plaza de Mayo, des alten Mittelpunkts von Buenos Aires. Hier hat sich ein Zentraler Geschäftsbezirk mit allen Kennzeichen des Zentrums einer Weltstadt herausgebildet: Büro- und Bankhochhäuser, Versicherungen, Verlagswesen, gehobener Dienstleistungsbereich, moderne Ladenpassagen, Vergnügungsviertel, Verkehrschaos, wenige Grünflächen und Abwanderung der Wohnbevölkerung. Fernverkehr. Eingang zur U-Bahn "(Subte)" im Bahnhof "Retiro" Buenos Aires verfügt über zwei Passagierflughäfen. Der internationale Flughafen Aeropuerto Internacional Ministro Pistarini de Ezeiza liegt am Rande der Vorstadt Ezeiza (etwa 30 bis 40 Kilometer außerhalb des Stadtzentrums) und wird oft nur „Ezeiza“ genannt. Der zweite Flughafen Aeroparque Jorge Newbery liegt direkt am Ufer des Río de la Plata etwa fünf Kilometer vom Finanzbezirk im Zentrum der Stadt entfernt. Dieser Flughafen wird kurz Aeroparque genannt und bedient nur nationale und Flüge in die Nachbarländer Argentiniens. Buenos Aires verfügt über einen großen Hafen, der auch für große Container- und Tankschiffe geeignet ist. Um diesen den Zugang zu ermöglichen wird regelmäßig eine Fahrrinne im Río de la Plata ausgebaggert. Des Weiteren gibt es in unmittelbarer Nähe des Wirtschafts- und Finanzzentrums einen Fährhafen mit mehrmals täglichen Verbindungen nach Colonia und Montevideo in Uruguay. Zug Buenos Aires–Tucumán im Bahnhof von S. M. de Tucumán Im Jahre 1857 bekam Buenos Aires Anschluss an die Eisenbahn. Die Fernverbindungen der Eisenbahn kamen in den 1990er-Jahren wegen maroder Strecken und fehlender Investoren fast zum Erliegen. Heute werden wieder einige Städte der Provinz Buenos Aires (unter anderem die Badeorte Mar del Plata und Villa Gesell sowie die Hafenstadt Bahía Blanca), aber auch weiter entfernte Städte wie Posadas, Santa Rosa de Toay, Córdoba, Rosario und San Miguel de Tucumán angefahren. Da der Personenverkehr mit der Eisenbahn in Argentinien wegen der im Vergleich zu den Überlandbussen geringen Geschwindigkeit und des mangelnden Komforts mittlerweile eine untergeordnete Rolle spielt, verfügt Buenos Aires mit dem Terminal de Ómnibus de Retiro über einen sehr großen Busbahnhof. Um die hohen christlichen Feiertage, wie Ostern oder Weihnachten verlassen hunderttausende die Stadt, die meisten mit dem Reisebus. Nahverkehr. Inneres eines U-Bahnwaggons der Linie Subte A Die Straßen in der Stadt sind weitestgehend nach dem Schachbrettmuster angelegt und zumeist Einbahnstraßen. Für die Jahrhundertfeier der Unabhängigkeit 1916 war geplant, dieses Straßensystem durch ein System von Diagonalen, wie in La Plata zu ergänzen. Von den großzügigen Planungen wurden lediglich die Avenida 9 de Julio, sowie die "Diagonal Norte" und "Diagonal Sur" die beide an der Plaza de Mayo beginnen, realisiert. Buenos Aires verfügt über ein radial von der Stadt wegführendes Autobahnsystem. Die Autobahnen beginnen an der Ringautobahn "General Paz". Es gibt eine Autobahn, die bis in das Zentrum der Stadt hineinführt. Diese durchschneidet – auf Betonstelzen gebaut – die komplette Stadt von West nach Ost und bindet unter anderem den internationalen Flughafen Ezeiza an das Zentrum an. Buenos Aires ist über mehrere Kopfbahnhöfe an das nationale Eisenbahnnetz angebunden. Die drei bedeutendsten Bahnhöfe befinden sich im Stadtteil Retiro. Weitere wichtige Bahnhöfe liegen in den Stadtteilen Constitución, La Boca (Bahnhof "Buenos Aires") und Balvanera ("Once" und "Federico Lacroze"). Bei all diesen Bahnhöfen handelt es sich vorrangig um Nahverkehrsbahnhöfe, die von den Vorortbahnen von Buenos Aires bedient werden. Von Constitución, Once und Retiro aus gibt es jedoch auch einige Fernverbindungen. Am 1. Dezember 1913 wurde der erste Streckenabschnitt der U-Bahn in Buenos Aires eröffnet. Sie ist damit die älteste U-Bahn Lateinamerikas und die dreizehnte U-Bahn der Welt. Sie verkehrt heute auf einem Netz von sechs Linien mit einer Länge von 52,3 Kilometern und 74 Stationen. Ein Ausbau auf 89 km Länge ist bis 2011 geplant. Täglich benutzen 1,3 Mio. Menschen die U-Bahn, Tendenz steigend. Um die Schadstoffemission in der Stadt durch Busse zu verringern, soll das Liniennetz stark ausgebaut werden. Eine relativ drastische Fahrpreiserhöhung im Jahre 2011 wirkt sich allerdings, was die Nutzungsfrequenz anbetrifft, kontraproduktiv aus. Nachdem eine elektrische Straßenbahn zwischen dem 22. April 1897 und dem 31. Dezember 1964 in der Stadt im Betrieb war, wurde am 27. August 1987 eine neue Linie als "Premetro" eröffnet. Sie umfasst ein Netz von 7,4 Kilometern und verbindet die südlichen Stadtteile mit dem Zentrum. Außerdem gibt es seit Juli 2007 eine kurze, bislang vier Stationen umfassende Linie im Stadtteil Puerto Madero, die in mehreren Etappen erweitert werden soll und dann die Bahnhöfe "Retiro" und "Buenos Aires" mit der Fährstation für Fahrten nach Uruguay verbinden wird. Trolleybusse verkehrten in Buenos Aires zwischen dem 4. Juni 1948 und dem 30. April 1966 und sind heute vollkommen außer Betrieb gestellt. Der öffentliche Personennahverkehr wird hauptsächlich mit dieselbetriebenen Bussen, den sog. „Colectivos“ bewältigt. Das Busliniennetz umfasst mehr als 150 Linien, die linienbezogen von privaten Firmen betrieben werden. Wegen der niedrigen Fahrpreise, des ausgedehnten Netzes und der bis weit in die Nachtstunden hinein stattfindenden Bedienung sind sie stark frequentiert, sorgen aber – wie der übrige Kraftfahrzeugverkehr auch – für eine erhebliche Schadstoff- und Lärmemission. Durch die regelmäßigen Staus auf den Straßen der Stadt bei nur wenigen Busspuren ist das Einhalten eines Fahrplans beinahe nicht möglich und wird realistischerweise auch nicht ernsthaft von den Fahrgästen erwartet. Für den individuellen, öffentlichen Nahverkehr stehen etwa 40.000 Taxis zur Verfügung. Dies entspricht einem Verhältnis von einem Taxi je 72 Einwohnern der Hauptstadt. (Zum Vergleich: New York City hat mit 8.168.388 Einwohnern nur etwa 12.000 Taxis. Dies entspricht einem Verhältnis von einem Taxi je 681 Einwohnern.) Da sie auch für argentinische Verhältnisse recht günstig sind, sind sie durchaus eine Alternative zu Bus oder U-Bahn. Jedoch werden die Lizenzen nicht sehr gründlich überprüft und es existieren Berichte über organisierte Kriminalität auf den Strecken zu den Flughäfen und anderen wichtigen Zielen. Bildung. An der Plaza de Mayo im Stadtzentrum konzentrierten sich einst die Bildungseinrichtungen. Inzwischen sind sie auch im Norden der Stadt zu finden. Die im Jahre 1821 eröffnete staatliche Universität von Buenos Aires wurde teilweise nahe dem Flussufer auf einem neuen Campus untergebracht. Einige Fakultäten sind allerdings im Stadtzentrum, so die juristische, die medizinische, die Ingenieurs- und die Wirtschafts-Fakultät. Die Universität besitzt aber inzwischen auch weitere Filialen in den Vororten der Stadt, zum Beispiel in Martínez (Departamento San Isidro). Die Nationalbibliothek ist in den neuen Stadtvierteln im nördlichen Bereich der Stadt zu finden, wo auch die 1964 gegründete private Universität von Belgrano ihren Sitz hat. Nach dem Sturz Juan Domingo Peróns im Jahr 1955 wurde Jorge Luis Borges Direktor der Nationalbibliothek; Borges Erblindung war um diese Zeit soweit fortgeschritten, dass die Ärzte ihm Lesen und Schreiben verboten. In einem Gedicht sprach er von „Gottes glänzender Ironie“, ihm gleichzeitig achthunderttausend Bücher und die Dunkelheit zu schenken. Als Perón 1973 wieder an die Macht kam, legte Borges sein Direktorenamt nieder. Zu den weiteren Bildungseinrichtungen in Buenos Aires gehören die Nationale Hochschule der Schönen Künste (eröffnet 1904), das Nationale Musikkonservatorium (eröffnet 1924), die Katholische Universität von Argentinien (eröffnet 1958) und die Nationale Technologische Universität (eröffnet 1959). Presse. In Buenos Aires erscheinen unter anderem folgende Tageszeitungen: Clarín, La Nación, Buenos Aires Herald, 12, Perfil, La Prensa, Crónica und Tiempo Argentino sowie die deutschsprachige Wochenzeitung Argentinisches Tageblatt. Bekannte Einwohner. In Buenos Aires wurde eine Vielzahl bekannter Persönlichkeiten geboren, so unter anderem Norma Aleandro (Schauspielerin), Jorge Luis Borges (Schriftsteller), Jorge Mario Bergoglio (seit 13. März 2013 als Franziskus Papst der römisch-katholischen Kirche), Benito Quinquela Martín (Maler), Bernardino Rivadavia (erster argentinischer Präsident), Gabriela Sabatini (Tennisspielerin), Sky du Mont (Schauspieler und Autor), Martha Argerich (Pianistin), Máxima der Niederlande (Königin) und Daniel Barenboim (Pianist und Dirigent). Zu den internationalen Persönlichkeiten, die in Buenos Aires leben bzw. gelebt haben, gehören: Marcel Duchamp (Künstler), Pablo Neruda (Dichter), Antoine de Saint-Exupéry (Schriftsteller und Pilot), Christian Kracht (Schriftsteller), Francis Ford Coppola (Regisseur), Slavoj Žižek (Philosoph) und Witold Gombrowicz (Schriftsteller). Einzelnachweise. Buenos Aires Bremen. Die Stadtgemeinde Bremen ist die Hauptstadt des Landes Freie Hansestadt Bremen (kurz auch „Bremen“,). Zu dem Zwei-Städte-Staat gehören die beiden Großstädte Bremen und das 53 km nördlich gelegene Bremerhaven. Die Stadtgemeinde Bremen ist mit rund 550.000 Einwohnern die zehntgrößte Stadt in Deutschland. Bremen gehört zur Europäischen Oldenburg, einer von insgesamt elf Europäischen Metropolregionen in Deutschland. Das Stadtbremische Überseehafengebiet Bremerhaven ist eine Exklave der Stadt Bremen innerhalb von Bremerhaven. Geographie. Bremen liegt zu beiden Seiten der Weser, etwa 60 Kilometer vor deren Mündung in die Nordsee bzw. deren Übergang in die Außenweser bei Bremerhaven. In Höhe der Bremer Altstadt geht die "Mittelweser" in die "Unterweser" über, die ab dem Bremer Hafengebiet zur Seeschifffahrtsstraße ausgebaut ist. Die von der Ochtum durchzogene Landschaft links der Unterweser wird als Wesermarsch bezeichnet, die Landschaft rechts der Unterweser gehört zum Elbe-Weser-Dreieck. Die Lesum, mit ihren Quellflüssen Wümme und Hamme, die Schönebecker und die Blumenthaler Aue bilden von hier aus die Zuflüsse der Weser. Das Stadtgebiet ist etwa 38 Kilometer lang und 16 Kilometer breit. Bremen ist bezogen auf die Fläche "(siehe: Liste der flächengrößten Städte und Gemeinden Deutschlands)" die dreizehntgrößte Stadt Deutschlands und bezogen auf die Einwohnerzahl nach Hamburg die zweitgrößte Stadt im Nordwesten Deutschlands und die zehntgrößte in ganz Deutschland "(siehe: Liste der Großstädte in Deutschland)". Bremen liegt etwa 50 Kilometer östlich von Oldenburg (Oldenburg), 110 Kilometer südwestlich von Hamburg, 120 Kilometer nordwestlich von Hannover, 100 Kilometer nördlich von Minden und 105 Kilometer nordöstlich von Osnabrück. Ein Teil des Bremerhavener Hafengeländes, das "Stadtbremische Überseehafengebiet", bildet eine Exklave der Stadt Bremen. Nachbargemeinden. Die Stadt Bremen (Einwohner) ist ganz von niedersächsischem Staatsgebiet umschlossen (mit Ausnahme der Exklave Stadtbremisches Überseehafengebiet Bremerhaven, die vom Stadtgebiet Bremerhavens umgeben ist). Im Westen grenzen die kreisfreie Stadt Delmenhorst (75.672 Einwohner) sowie der Landkreis Wesermarsch (93.725 Einwohner) mit den Gemeinden Lemwerder, Berne und Elsfleth an, im Norden der Landkreis Osterholz (112.587 Einwohner) mit den Gemeinden Schwanewede, Ritterhude und Lilienthal, im Osten der Landkreis Verden (134.084 Einwohner) mit den Gemeinden Ottersberg, Oyten, Achim und im Süden der Landkreis Diepholz (215.648 Einwohner) mit den Gemeinden Weyhe und Stuhr. Diese Ansammlung von Gemeinden wird als „Speckgürtel“ bezeichnet, da ein Teil ihrer Einwohner Einkünfte im Bundesland Bremen bezieht, aber Einkommensteuer, Grundsteuer und andere Abgaben an den Staat in Niedersachsen bezahlt. Die nächstgrößeren Städte im Umkreis von etwa 50 km sind im Westen die Stadt Oldenburg (160.279 Einwohner) und im Norden die Seestadt Bremerhaven (114.506 Einwohner). Für die Agglomeration Bremen wurden knapp 850.000 Einwohner gezählt, für die weiter gefasste Metropolregion Bremen/Oldenburg über 2,37 Millionen. Von den 239.063 sozialversicherungspflichtig Beschäftigten in der Stadt Bremen pendeln 103.206 beziehungsweise 43,2 % aller Beschäftigten von außerhalb ein. Von den 168.443 sozialversicherungspflichtig Beschäftigten, die in der Stadt Bremen wohnen, pendeln 32.586 zu und von ihrem Arbeitsplatz außerhalb der Stadtgemeinde. Stadtgliederung. Das Stadtgebiet Bremens ist in fünf Stadtbezirke eingeteilt. Von den insgesamt 88 Ortsteilen sind vier direkt einem Stadtbezirk zugeordnet, die anderen sind in 18 Stadtteilen zusammengefasst, die ihrerseits den Stadtbezirken zugeordnet sind. Oberneuland ist aufgrund seiner hohen Einwohnerzahl ein Stadtteil, obwohl es nicht aus mehreren Ortsteilen besteht. Die Namen der Stadt- und Ortsteile gehen weitgehend auf historisch gewachsene Bezeichnungen zurück. Für bestimmte örtliche Verwaltungsaufgaben sind 17 Ortsämter zuständig, davon vier als gemeinsame Ortsämter für jeweils mehrere Stadt- bzw. Ortsteile. Für die Stadtteile und selbständigen Ortsteile ist auf kommunalpolitischer Ebene jeweils ein Beirat zuständig. Ausnahme: Die Ortsteile des Stadtteils "Häfen" werden aufgrund ihrer geringen Einwohnerzahl von anderen Beiräten betreut oder sind beiratsfrei. Die 22 Beiräte werden alle vier Jahre von den Bürgern direkt gewählt und tagen mehrmals im Jahr öffentlich. Die Befugnisse des Beirats sind ähnlich beschränkt wie die der Bezirksversammlung oder Bezirksverordnetenversammlung anderer Stadtstaaten. Zur Stadt Bremen gehört auch das etwa 8 km² große stadtbremische Überseehafengebiet, für das die Stadt Bremerhaven im Rahmen von Verträgen mit der Stadt Bremen als Gemeindeverwaltung zuständig ist. Derzeit bestehen Verträge über die Müllabfuhr sowie über Brandschutz, Hilfeleistung und Rettungsdienst. Das Gebiet gehört zum Stadtteil "Häfen", ist aber aufgrund der fehlenden geografischen Nähe zu anderen Bremer Ortsteilen keinem Beirat zugeordnet. Damit ist das Überseehafengebiet der einzige Ortsteil der Stadtgemeinde Bremen, in dem die Bürger keinen Beirat wählen. Gewässer. Die Bundeswasserstraße der Weser, die durch die Innenstadt fließt, stellt eine geschichtlich gewachsene Grenze dar: So wird noch heute in vielen Bezeichnungen unterschieden zwischen „links der Weser“ (südliches Stadtgebiet) und „rechts der Weser“. Geographisch, historisch und für das Alltagsleben bedeutsam ist die Grenze zwischen Bremen-Stadt und Bremen-Nord entlang der Lesum, einem Nebenfluss der Weser. Südlich der Lesum ist Marsch, das "Werderland", nördlich davon Geest, die "Bremer Schweiz". Die politische Grenze des Stadtbezirks Bremen-Nord liegt allerdings etwas weiter südlich. Ein weiterer Nebenfluss der Weser, die Ochtum, bildet die natürliche südliche Grenze der Stadtgemeinde Bremen. Die Wümme fließt durch Borgfeld und ist dann Grenzfluss bis zur Mündung (zusammen mit der Hamme) in die Lesum. Naturschutzgebiete. Bremen hat 18 Naturschutzgebiete, die eine Gesamtfläche von 2126,9 ha und damit 6,69 % der Stadtfläche ausmachen. Zu den größten gehören die Borgfelder Wümmewiesen (677 ha), die Ochtumniederung bei Brokhuchting (375 ha), das Werderland (330,7 ha) und das westliche Hollerland (Leherfeld) mit Erweiterung (293 ha). Erhebungen in Bremen. Die Innenstadt liegt auf einer Weserdüne, die am Bremer Dom eine natürliche Höhe von erreicht; der höchste Punkt mit liegt östlich davon beim Polizeihaus (Am Wall 196). Die mit höchste natürliche Erhebung in der heutigen Stadtgemeinde Bremen (und auch in der Freien Hansestadt Bremen) befindet sich dagegen im Friedehorstpark des nordwestlich gelegenen Stadtteils Burglesum. Damit hat (die Freie Hansestadt) Bremen die niedrigste höchste natürliche Erhebung aller Bundesländer. Der Gipfel der Mülldeponie im Ortsteil Hohweg des Bremer Stadtteils Walle, der unterschiedlichen Angaben zufolge zwischen und hoch ist, überragt die Parkerhebung. Klima. Bremen liegt in der gemäßigten Zone mit deutlichen maritimen Einflüssen. Der wärmste Monat ist der Juli mit durchschnittlich 16,8 °C und der kälteste der Januar mit 0,8 °C. Die Niederschläge fallen über das ganze Jahr verteilt. Im Laufe eines Jahres fallen durchschnittlich 693,9 mm Niederschlag, wobei die Abweichungen recht ausgeprägt sind. So fielen zwischen 1961 und 1990 in Farge 638,8 mm, in Strom hingegen 753,2 mm pro Jahr, meist als Regen. Die Niederschlagsmengen in Form von Schnee sind hingegen eher gering. Im Durchschnitt liegt an weniger als fünf Tagen im Jahr Schnee, dabei wurde 1979 mit fast 700 mm die höchste gemessene Schneehöhe erreicht. Im Herbst kann es zu Stürmen und Unwettern kommen, dabei können auch Sturmfluten auftreten, wie 1976 oder 1990. Umweltsituation. Nach einer vom Institut für Weltwirtschaft der Universität Kiel im Jahr 2012 erstellten Untersuchung lag Bremen im Städtevergleich hinsichtlich der Umweltsituation auf hinteren Rängen. Beim „Umweltkapital“ landete es auf Platz 66 der 100 größten kreisfreien Städte. Dabei wurden mehrere Indikatoren erfasst und deutschlandweit miteinander verglichen: Luftqualität (Feinstaubbelastung, Ozonbelastung, Stickstoffdioxidbelastung), Flächennutzung (Anteil Siedlungs- und Verkehrsfläche, Anteil naturbelassene Fläche) und Abfallmanagement (Hausmüllaufkommen, Recyclingquote). Beim Feinstaub und bei der Ozonbelastung wurde im Gegensatz zur Stickstoffdioxidbelastung nicht die Durchschnittskonzentration, sondern die Zahl Tage mit Grenzwertüberschreitungen als Maßstab verwendet. Der Indikator „naturbelassene Fläche“ ist nicht definiert. Andererseits ist zu bedenken, dass ein Großteil der elektrischen Energie in der Stadt Bremen aus fossilen Brennstoffen erzeugt wird, was einen relativ höheren CO2-Ausstoß zur Folge hat. In der Stadt Bremen werden die Luftschadstoffe seit 1987 durch das Bremer Luftüberwachungssystem (BLUES) gemessen. Der Straßenlärm wurde erstmals im Jahre 1977 durch ein Lärmkataster systematisch erfasst. Ein Umweltinformationssystem bietet eine detaillierte Zustandsbeschreibung zu verschiedenen Themen wie Naturschutzgebieten und Gewässerqualität. Name. Der Ortsname ist im 9./10. Jahrhundert bezeugt als "Brema", "Bremae", "Bremun"; die letztere Form, Grundlage der heutigen Gestalt des Namens, wird als lokativisch verwendeter Dativ des Plurals des altsächsischen/mittelniederdeutschen Wortes "brem" ‚Einfassung, Rand (des Landes/des Wassers/der Düne)‘ gedeutet. Von den ersten Siedlungen bis zur Christianisierung. Zwischen dem 1. und dem 8. Jahrhundert n. Chr. entstanden an der Weser erste Siedlungen, die auf einer langen Düne Schutz vor Hochwasser und gleichzeitig guten Zugang zu einer Furt boten. Bereits 150 n. Chr. erwähnte der alexandrinische Geograph Claudius Ptolemaeus eine dieser Siedlungen ("Fabiranum", auch "Phabiranum" geschrieben). Bistum. Als Bischofsstadt und Kaufmannssiedlung reicht Bremens Geschichte bis ins 8. Jahrhundert zurück. Sie war aber zunächst noch unsicheres Missionsgebiet. So schrieb der Missionar Willehad 782: „… hat man uns aus Bremen vertrieben und zwei Priester erschlagen.“ Die Stadt wurde 787 von Karl dem Großen zum Bischofssitz erhoben Seit 845 Erzbistum, erlangte Bremen unter Erzbischof Adalbert von Bremen (1043–1072) erstmals Einfluss auf Reichsebene. Reichsfreiheit und Hanse. Mit dem Gelnhauser Privileg Kaiser Friedrich Barbarossas von 1186 wurde Bremen Reichsstadt (im Volksmund "freie Reichsstadt"), nicht jedoch reichsunmittelbar. 1260 trat die Stadt der Hanse bei, war in der Hanse aber zeitweise ein unsicherer Bündnispartner. Durch den mit der Mitgliedschaft im Hansebund verbundenen Freihandel blühte Bremen auf, wovon bis heute prächtige Baudenkmale zeugen. Die vermehrt zu wirtschaftlicher Bedeutung gelangende Stadt schüttelte teilweise die kirchlich dominierte Herrschaft des Bistums Bremen ab und errichtete als Zeichen ihrer weltlichen Freiheit den Roland (1404) und ihr Rathaus (1409) auf dem Bremer Marktplatz, welche heute zum UNESCO-Welterbe zählen. Ausdehnung der Stadt, Versuch einer territorialen Expansion. Zum Schutz des zwischen 1574 und 1590 angelegten Weserhafens wurde am Westufer der Weser die befestigte Neustadt angelegt. Die Weser versandete jedoch zunehmend, und für die Handelsschiffe wurde es immer schwieriger, an der seit dem 13. Jahrhundert als Hochseekai genutzten Schlachte anzulegen. Von 1619 bis 1623 bauten deshalb im flussabwärts gelegenen Vegesack niederländische Konstrukteure den ersten künstlichen Hafen Deutschlands. Reichsunmittelbarkeit. Während des Dreißigjährigen Krieges konnte Bremen die Anerkennung seiner Reichsunmittelbarkeit durch das Linzer Diplom erreichen, das von Kaiser Ferdinand III. ausgestellt wurde. Diese Reichsunmittelbarkeit blieb dennoch bedroht. So musste Bremen durch Konzessionen 1741 im 2. Stader Vergleich mit dem Kurfürstentum Braunschweig-Lüneburg eine Einigung über die Herrschaftsansprüche und das Kontributionsrecht erreichen. 1783 begannen Bremer Kaufleute einen direkten Transatlantikhandel mit den USA. 1802 beauftragte die Stadt den Landschaftsgärtner Isaak Altmann, die frühere Stadtbefestigung in die heutigen Wallanlagen umzugestalten. Französische Besetzung, Ende der Torsperre, Erwerb Bremerhavens. 1811 ließ Napoleon Bremen besetzen und integrierte es als Hauptstadt des Département des Bouches du Weser in den französischen Staat. Nach ihrer Niederlage in den Befreiungskriegen verließen die französischen Truppen 1814 Bremen. Im 19. Jahrhundert hatte Bremen wesentlichen Anteil an der Entwicklung des deutschen Überseehandels. Auf der Werft von Johann Lange wurde 1817 das erste von Deutschen gebaute Dampfschiff gebaut. Der Raddampfer "Die Weser" verkehrte als Passagier- und Postschiff zwischen Bremen, Vegesack, Elsfleth und Brake, später auch Geestemünde bis 1833. Wegen der zunehmenden Versandung der Weser wurde 1827 die Siedlung Bremerhaven als Außenposten auf einem vom Königreich Hannover angekauften Grund angelegt. Den Vertrag zum Erwerb des Hafengeländes unterzeichneten am 11. Januar 1827 für Hannover Friedrich von Bremer und der Bremer Bürgermeister Johann Smidt. Das Schließen der Stadttore bei Sonnenuntergang, die Torsperre, wurde 1848 abgeschafft und bot damit Raum für die industrielle Entwicklung der Stadt. Die gemeinschaftlich von der Freien Hansestadt Bremen und den Königlich Hannoverschen Staatseisenbahnen finanzierte Bahnstrecke Wunstorf–Bremen ging 1847 in Betrieb. Nach großzügiger Eindeichung des umliegenden Marschlandes begann 1853 in den Vorstädten die bis ins 20. Jahrhundert für Bremen typische Reihenhausbebauung mit sogenannten Bremer Häusern. Industrialisierung. Lag die Einwohnerzahl 1812 noch bei rund 35.000, so überschritt sie 1875 die Grenze von 100.000, wodurch Bremen zu einer "Großstadt" wurde. 1911 hatte die Stadt bereits 250.000 Einwohner. 1857 erfolgte die Gründung des Norddeutschen Lloyds, später auch anderer Schifffahrtsgesellschaften. 1867 wurde Bremen Gliedstaat des Norddeutschen Bundes und 1871 des Deutschen Kaiserreichs. Aufgrund der Seehäfen blieben die Hansestädte Bremen, Hamburg und Lübeck auch nach 1870/71 zunächst noch Zollausland. Sie traten erst 1888 dem Deutschen Zollverein bei. Die Freihäfen von Bremen und Hamburg blieben aber danach außerhalb des deutschen Zollgebiets. 1886 bis 1895 wurde durch eine großzügige Korrektur der Fahrrinne die Schiffbarkeit der Weser für Seeschiffe bis Bremen gesichert. Die Stadt entwickelte sich zum Umschlagplatz für vielerlei Waren. 1890 fand auf dem Gelände des Bürgerparks die Nordwestdeutsche Gewerbe- und Industrieausstellung statt. Die wirtschaftliche Entwicklung Bremens schritt in der Weimarer Republik fort. Auf dem Flughafen begannen 1920 Linienflüge. 1928 wurde die Columbuskaje in Bremerhaven eingeweiht. Von hier ausgehend gewann das Passagierschiff "Bremen" des Norddeutschen Lloyd das Blaue Band für die schnellste Atlantiküberquerung. Mit der wirtschaftlichen Bedeutung wuchs auch die Einwohnerzahl beträchtlich. 1939 verlor Bremen die Stadt Bremerhaven (außer dem Überseehafengebiet), die mit dem preußisch-hannoverschen Wesermünde vereinigt wurde. Das stadtbremische Gebiet wurde dafür um Bremen-Nord (dort gehörte nur Vegesack schon vorher zu Bremen), Hemelingen, Arbergen und Mahndorf vergrößert. Einige Randgemeinden wurden dabei schlicht vergessen (Beckedorf). Andere Zuweisungen, welche die amerikanische Besatzungsadministration nach 1945 vorgeschlagen hatte, lehnte der Bürgermeister Kaisen ab (Syke, Weyhe, Stuhr). Diktatur und Zweiter Weltkrieg. Anfang 1933 hatte die Jüdische Gemeinde im Lande Bremen 1.438 Mitglieder. Während der Novemberpogrome 1938 wurden Geschäfte und Privathäuser geplündert sowie der jüdische Friedhof verwüstet. Dabei wurden fünf Juden ermordet sowie Hunderte verhaftet. SA-Trupps zerstörten die beiden Bremer Synagogen. Bis 1941 gelang es etwa 930 Bremer Juden, das nationalsozialistische Deutschland zu verlassen. Im Herbst 1941 wurden 50 Kinder während eines „Schulausflugs“ in ein Konzentrationslager verschleppt. Am 18. November 1941 wurden 440 Juden ins Ghetto Minsk deportiert und 434 von ihnen am 28. oder 29. Juli 1942 ermordet. Schon 1933 wurde das erste Arbeitslager Mißler errichtet, in dem zunächst 170 Häftlinge interniert wurden, meist Kommunisten und Sozialdemokraten. Spätere Lager waren für Zwangsarbeiter vorgesehen, wie etwa das Lager Farge, das zum Bau des U-Boot-Bunkers Valentin ab etwa Oktober 1943 für 13.000 polnische, französische und sowjetische Kriegsgefangene errichtet wurde. Hinzu kamen Konzentrationslager im Umkreis von Bremen, wie das KZ Bahrsplate. Im Zweiten Weltkrieg erlitt Bremen schwere Zerstörungen. Insbesondere das nordwestliche Stadtgebiet mit den Werften AG Weser, Bremer Vulkan und Vegesacker Werft, der am Flughafen angesiedelte Focke-Wulf-Flugzeugbau sowie die Werke des Borgward-Konzerns in Hastedt und Sebaldsbrück waren im Luftkrieg des Zweiten Weltkriegs Ziel alliierter Bomber. Bei 173 Angriffen wurden 62 % der städtebaulichen Substanz zerstört, dabei kamen rund 4.000 Menschen ums Leben. Mit dem Einmarsch britischer Truppen am 26. April 1945 endete die nationalsozialistische Gewaltherrschaft. Bundesland, Verluste historischer Bausubstanz. Um als "Port of Embarkation" den Nachschub für die US-Truppen zu sichern, wurde das in der Britischen Besatzungszone gelegene Bremen mit Bremerhaven zur US-amerikanische Exklave. Von 1945 bis 1965 war Wilhelm Kaisen Präsident des Senats. 1947 gaben sich die Bremer Bürger die "Verfassung der Freien Hansestadt Bremen". 1949 wurde Bremen ein Land der Bundesrepublik Deutschland. Die Vergangenheit konnte sich im Baubestand durch Restaurierung oder Wiederaufbau nur bedingt gegenüber dem modernen Städtebau behaupten. Vor allem um den Marktplatz sind repräsentative alte Gebäude erhalten geblieben oder restauriert worden. Den Eindruck eines mittelalterlichen Altstadtquartiers vermittelt nur noch der Schnoor, das einstige Fischerviertel. 2004 wurden das Rathaus und der steinerne Roland zum UNESCO-Weltkulturerbe erklärt. Am 25. Mai 2009 erhielt die Stadt den von der Bundesregierung verliehenen Titel „Ort der Vielfalt“. Überseestadt: Entstehung eines neuen Stadtviertels. Im Hafenareal baut Bremen seit 2000 das neue Stadtviertel Überseestadt, das mit 300 Hektar dreimal so groß wie die Bremer Altstadt ist und damit zu den größten städtebaulichen Projekten Europas zählt. Dazu wurde 1998 das Becken des Überseehafens mit drei Millionen Kubikmeter Sand aus der Außenweser verfüllt und überbaut. Bevölkerungsentwicklung. 1969 erreichte die Einwohnerzahl mit 607.184 ihren historischen Höchststand. Bis Ende 1986 ging die Zahl der Erstwohnsitze auf 521.976 zurück. Im Zuge der Wiedervereinigung wuchs die Bevölkerung schnell auf 554.377 im Dezember 1992. Bis Ende des Jahrhunderts sank die Zahl der Erstwohnsitze wieder auf 540.330. Am 31. Dezember 2014 waren 551.767 Einwohner gemeldet. Verfassung. Grundlage des bremischen Staatsrechts ist die Landesverfassung der Freien Hansestadt Bremen vom 21. Oktober 1947. Die Volksvertretung des Landes Bremen ist die Bremische Bürgerschaft, welche von den Bürgern auf vier Jahre gewählt wird. Die Wahl erfolgt dabei nach dem Verhältniswahlrecht in zwei getrennten Wahlbereichen, wobei 68 Abgeordnete in Bremen und 15 Abgeordnete in Bremerhaven gewählt werden. Die im Wahlbereich Bremen gewählten Abgeordneten bilden gleichzeitig die kommunale Volksvertretung der Stadtgemeinde Bremen, die "Stadtbürgerschaft", während die Stadtgemeinde Bremerhaven eine separate kommunale Volksvertretung, die Stadtverordnetenversammlung, wählt. An der Spitze der Stadt- und Landesverwaltung steht die Bremer Landesregierung, der "Senat." Präsident des Senats und Bürgermeister ist seit dem 15. Juli 2015 Carsten Sieling (SPD). Auch der Stellvertreter des Präsidenten des Senats wird als Bürgermeister bezeichnet. Dem Bremer Senat als Landesregierung gehören gegenwärtig sieben Mitglieder (4 SPD, 3 Die Grünen) an. Die Mitglieder des Senats "(Senatoren)" sind sowohl den Ministern der Flächenländer wie auch den Dezernenten anderer Großstädte vergleichbar. Sie leiten für das Land ihre Landesbehörden und für die Stadt Bremen die ihrem Fachbereich zugehörigen kommunalen Behörden. → "Siehe auch: Liste Bremer Bürgermeister | Liste der Bremer Senatoren | Liste der Arbeitssenatoren von Bremen | Liste der Bausenatoren von Bremen | Liste der Bildungssenatoren von Bremen | Liste der Finanzsenatoren von Bremen | Liste der Gesundheitssenatoren von Bremen | Liste der Innensenatoren von Bremen | Liste der Justizsenatoren von Bremen | Liste der Sozialsenatoren von Bremen | Liste der Umweltsenatoren von Bremen | Liste der Wirtschaftssenatoren von Bremen | Liste der Fraktionsvorsitzenden der Bremischen Bürgerschaft | Wahlergebnisse und Senate in Bremen" Wappen. Das Wappen der Hansestadt Bremen zeigt auf rotem Grund einen schräg nach rechts aufgerichteten, mit dem Bart nach links gewandten silbernen Schlüssel gotischer Form („Bremer Schlüssel“). Auf dem Schild ruht eine goldene Krone, welche über dem mit Edelsteinen geschmückten Reif fünf Zinken in Blattform zeigt („Mittleres Wappen“). Beim Kleinen Wappen wird lediglich der Schlüssel ohne Krone abgebildet. Das große Wappen hingegen hat darüber hinaus noch eine Konsole beziehungsweise ein bandartiges Fußgestell, auf dem der Schild ruht. Der Schild wird von zwei aufgerichteten rückwärts schauenden Löwen mit den Vorderpranken gehalten. Die Bedeutung des Wappens. Siegel der Stadt Bremen 1366–1834 Der Schlüssel ist das Attribut des Apostels Petrus, des Schutzpatrons des Bremer Doms. Er taucht als Wappensymbol bereits 1366 im Stadtsiegel Bremens auf. Im Laufe der Geschichte veränderte sich die Form des Schlüssels mehrmals. Auch zeigte das Stadtwappen teilweise den Heiligen Petrus mit dem Schlüssel. Die Formen außerhalb des Wappenschildes veränderten sich ebenfalls mehrmals. So erscheinen etwa die Löwen erstmals 1618 auf dem großen Wappen. In seiner heutigen Form geht das Wappen auf die Wappenordnung von 1891 zurück. Im Bremer Volksmund wird eine Verbindung zum Wappen der Stadt Hamburg hergestellt, indem spöttisch gesagt wird: „Hamburg ist das Tor zur Welt, aber Bremen hat den Schlüssel dazu.“ Das Siegel. Das älteste Stadtsiegel in Bremen (1229–1365) zeigt links Bischof Willehad rechts Karl den Großen. Das folgende Stadtsiegel (1366–1834) zeigt, nebeneinander auf einer Bank sitzend, links den Kaiser mit Krone, Zepter und Reichsapfel und rechts davon den Heiligen Petrus mit Tiara Schwert und Schlüssel. Flagge. Die Flagge Bremens ist mindestens achtmal rot und weiß gestreift und am Flaggenstock gewürfelt. Sie wird umgangssprachlich auch als "Speckflagge" bezeichnet. Die Staatsflagge enthält in der Mitte das Flaggenwappen mit Schlüssel und drei Löwen. Die Dienstflagge führt nur das Schlüsselwappen. Die Flagge Bremens trägt die Farben der Hanse, Rot und Weiß. Allgemeine Entwicklungen. Besondere Bedeutung hat für Bremen von jeher der Außenhandel. Auch wenn der Schwerpunkt des Warenumschlags in der Bremerhaven inzwischen in Bremerhaven liegt, hat Bremen daran durch das stadtbremische Überseehafengebiet Bremerhaven noch Anteil. Die Palette der verschiedenen Handelsgüter, die hier im- und exportiert werden, erstreckt sich von Fisch-, Fleisch- und Molkereiprodukten über traditionelle Rohstoffe wie die an der Bremer Baumwollbörse gehandelte Baumwolle, Tee, Reis und Tabak bis hin zu Wein und Zitrusfrüchten. Während der Hafenumschlag von der halbstaatlichen BLG Logistics Group vorgenommen wird, sind in den Kontoren Großhändler wie C. Melchers, Otto Stadtlander und Atlanta zu finden. Bremen ist ein wichtiger Standort der Automobil-, Schiffbau-, Stahl-, Elektronik- und Nahrungsmittelindustrie. Das Unternehmen Daimler AG ist der größte private Arbeitgeber der Stadt und fertigt in seinem Mercedes-Benz-Werk im Stadtteil Sebaldsbrück, das bis 1963 der Borgward GmbH gehörte, unter anderem die Automodelle der C-Klasse, das T-Modell und den Roadster SL. Darüber hinaus haben sich zahlreiche Zulieferunternehmen in unmittelbarer Nähe angesiedelt. Das größte von ihnen ist die Hella Fahrzeugkomponenten GmbH aus der Hella-Gruppe. Außerdem befindet sich in Sebaldsbrück ein großes Bahnwerk der Deutschen Bahn. Schiffbau- und Stahlindustrie haben in den vergangenen Jahrzehnten einen Strukturwandel durchgemacht. Viele Unternehmen, darunter die beiden großen Werften AG Weser und Bremer Vulkan, haben ihn nicht überlebt; die Stahlwerke Bremen wurden von Arcelor (seit 2006: ArcelorMittal) übernommen. Die Luft- und Raumfahrtindustrie hingegen hat sich mit gewandelt und prägt heute Bremen als Dienstleistungs- und High-Tech-Standort. So entwickelte sich an der Universität in den letzten Jahren einer der größten deutschen Technologieparks, in dem aktuell rund 6.000 überwiegend hochqualifizierte Menschen Beschäftigung finden. Bremen ist international bekannt als bedeutender Luftfahrt- und Weltraumtechnologiestandort. Die Endmontage der Flügel der Airbusflugzeuge findet in Bremen statt, bei Airbus Defence and Space und Unternehmen der OHB-Technology-Gruppe entstehen Module und Bauteile für weltraumtaugliche Laboratorien, Trägerraketen und Satellitensysteme. Rheinmetall und Atlas Elektronik entwickeln in Bremen Elektronik für militärische und zivile Anwendungen. Bremen hat eine führende Position in der Lebensmittelbranche. Neben der Brauerei Beck & Co. haben hier Vitakraft, Nordmilch, die Könecke Fleischwarenfabrik und der Schokoladenhersteller Hachez ihren Hauptsitz. Mondelēz International hat hier seine deutsche Zentrale. Kellogg’s hat im ersten Quartal 2015 den Hauptsitz seiner deutschen Gesellschaft von Bremen nach Hamburg verlegt, betreibt in Bremen aber weiterhin eine Produktionsstätte. Wirtschaftsdaten. 2005 waren in der Stadt Bremen in den Wirtschaftssektoren bei den Dienstleistungen 44,7 %, im Handel 26,4 %, im gesamten Tertiärsektor 71,1 %, im produzierenden Gewerbe 28,9 % und in der Landwirtschaft 0,1 % tätig. Verkehr. Touristische Angebote am Torfhafen in Findorff Nutzung der Wasserwege. Die Schifffahrt hatte in Bremen über Jahrhunderte hinweg eine prägende Bedeutung. Trotz des Strukturwandels stellt sie auch heute noch einen wichtigen Wirtschafts- und Arbeitsmarktfaktor dar. Zu den stadtbremischen Häfen, die durch die Nähe zum Güterverkehrszentrum noch regelmäßig genutzt werden, zählen neben dem Neustädter Hafen auch die Handelshäfen, der Hohentorshafen, die Industriehäfen und die stadtbremischen Häfen in Bremerhaven. Für den Binnenschiffsverkehr existieren noch, vom Stadtzentrum aus flussaufwärts, der Werra-, der Fulda- und der Allerhafen. Auf dem Gelände des verfüllten Überseehafens und auf den Industriebrachen rundherum entsteht ein neues Viertel, die Überseestadt. Um auch bei immer größer werdenden Schiffen weiter am Seehandel teilhaben zu können, beteiligt sich Bremen zusammen mit dem Land Niedersachsen am Projekt JadeWeserPort in Wilhelmshaven, einem Hafen für größte Containerschiffe. Bremen-Nord ist über drei Autofähren mit dem Landkreis Wesermarsch in Niedersachsen auf dem anderen Weserufer verbunden. Zudem gibt es auf stadtbremischen Gebiet zwei weitere Personenfähren. Von touristischer Bedeutung ist die Nutzung der Bremer Gewässer durch Fahrgastschiffe und Torfkähne. Ab und in Bremen werden regelmäßig (in der warmen Jahreszeit) Schifffahrten auf der Weser, der Hunte bis Oldenburg (Oldb), der Aller bis Verden und der Lesum und der Hamme bis Worpswede sowie Hafenrundfahrten in Bremer Häfen angeboten. Torfkähne starten vor allem vom Torfhafen am Ende des Torfkanals in Findorff aus. Die netzartig angelegten Wasserwege im Nordosten Bremens werden auch von einer Vielzahl von Kanu- und Kajakvereinen genutzt. Luftverkehr. Vergleich internationaler Flughäfen in Deutschland Im Süden Bremens befindet sich der internationale Flughafen Bremen (BRE). Dieser Luftverkehrsstandort ist seit dem Jahre 1909 dort angesiedelt. Um das Terminalgebäude entstand seit 1995 ein Airport-Center mit zahlreichen Niederlassungen von teilweise internationalen Unternehmen. Ein neues Flughafen-Terminal wurde nach Plänen des Architekten Gert Schulze 2001 eingeweiht. Das Passagieraufkommen lag im Jahre 2006 bei 1,7 Millionen Fluggästen. Zugleich sank die Zahl der Flüge 2006 mit 40.419 auf den niedrigsten Wert seit 1988. Eine Steigerung wurde durch die Fluggesellschaft Ryanair erzielt, die von Bremen aus neue Ziele in Europa direkt anfliegt. Im Jahr 2008 wurden 2,5 Millionen Passagiere abgefertigt. Durch Einsatz größerer Maschinen und bessere Kapazitätsplanung ist die Zahl der Flüge trotz steigender Passagierzahlen seit 1965 nie über 60.000 im Jahr gestiegen. Es besteht nur ein beschränkter Nachtbetrieb, das letzte Flugzeug landet planmäßig um 23 Uhr. Die Stoßzeiten sind morgens und abends. Der Flughafen kann über die A 281 erreicht werden. Vom Hauptbahnhof führt eine Straßenbahn der Linie 6 direkt zum Terminal. Am Bremer Flughafen befindet sich außerdem die Verkehrsfliegerschule der Lufthansa. Eisenbahn. Der Hauptbahnhof ist ein Fernverkehrsknoten der Bahnhofskategorie 2. Hier treffen die Hauptstrecken von Hamburg ins Ruhrgebiet, nach Bremerhaven, nach Hannover, nach Vegesack und nach Oldenburg (–Leer) aufeinander. Bremen ist über die ICE-Linie Bremen–München sowie über die IC-Linien Hamburg–Köln / Rollbahn und Oldenburg–Leipzig in das Fernverkehrsnetz der DB eingebunden. In Bremen gibt es für den Personenverkehr 19 Bahnhöfe und Haltepunkte. Der Rangierbahnhof im Stadtteil Gröpelingen wurde am 12. Juni 2005 als solcher stillgelegt, der örtliche Güterverkehr Bremens wird in dessen noch betriebenen Resten sowie an den Hafenbahnhöfen und am Werksbahnhof der Klöckner-Hütte (ArcelorMittal Bremen) abgefertigt. Der ehemalige nordwestlich des Hauptbahnhofes gelegene Güterbahnhof ist abgebrochen worden. Durch den Ausbau des Container-Terminals in Bremerhaven ist jedoch wieder eine Zunahme des Güterverkehrs zu verzeichnen. Öffentlicher Personennahverkehr. Straßenbahn der BSAG in den Farben der Speckflagge Es bestehen RegionalExpress-Verbindungen nach Bremerhaven, Hannover, Hamburg, Osnabrück und Oldenburg–Norddeich Mole und eine RegionalBahn-Verbindung durch die Lüneburger Heide nach Uelzen (über Langwedel, Visselhövede und Soltau). Die Bahnstrecke nach Hamburg wird von Metronom-Zügen bedient (→ Hanse-Netz). Seit 12. Dezember 2010 betreibt die Nordwestbahn (NWB) im Auftrag des Niedersachsen (ZVBN) die ersten drei Linien der Niedersachsen (RS 2: Bremerhaven-Lehe–Bremerhaven-Hbf–Bremen-Hbf–Twistringen; RS 3: Bad Zwischenahn–Oldenburg-Hbf–Hude–Delmenhorst–Bremen-Hbf; RS 4: Nordenham–Hude–Delmenhorst–Bremen-Hbf). Am 11. Dezember 2011 ist die vierte Regio-S-Bahn-Linie in Betrieb gegangen (RS 1: Bremen-Farge–Vegesack–Bremen Hbf–Verden). Der 1961 eingestellte Personenverkehr auf der Strecke der Bahnstrecke Bremen-Farge–Bremen-Vegesack in Bremen-Nord wurde im Dezember 2007 mit Dieseltriebwagen der NordWestBahn im Halbstundentakt wieder aufgenommen. Diese Strecke wurde 2011 elektrifiziert und ist seit dem 11. Dezember 2011 Teil der S-Bahn-Linie RS 1. Den öffentlichen Personennahverkehr (ÖPNV) innerhalb des Stadtgebiets bedienen acht Straßenbahn- und 44 Buslinien der Bremer Straßenbahn AG (BSAG). Die meisten Ortsteile Bremens und einzelne niedersächsische Vororte sind mit einem dichten Takt an das ÖPNV-Netz angeschlossen. Für den Verkehr zwischen Bremen-Stadt und Bremen-Nord hat die Eisenbahn hohe Bedeutung. Es gibt Bestrebungen, Straßenbahnlinien bis in das Umland zu verlängern und auf den bestehenden Eisenbahnstrecken den Takt zu verdichten, um die Vororte besser anzubinden. Der Regionalverkehr wird durch Buslinien anderer Verkehrsbetriebe und Unternehmen betrieben. Sowohl Stadt- als auch Regionalverkehrsunternehmen haben sich im Niedersachsen (VBN) zusammengeschlossen. Straße. Die Hochstraße Breitenweg unweit des Hauptbahnhofs Auch an das Fernstraßennetz ist Bremen gut angebunden. Insgesamt beträgt die Länge der Autobahnen auf dem Gebiet von Bremen (Stadt) ca. 50 bis 60 km. Das südliche Stadtgebiet Bremens wird von der Bundesautobahn A 1 Rhein-Ruhr–Hamburg berührt. Im Südosten der Stadt, am Bremer Kreuz, wird die A 1 von der A 27 Hannover (Walsrode)–Bremerhaven bzw. Cuxhaven gekreuzt. Diese Autobahn führt durch das östliche Stadtgebiet von Südosten nach Nordwesten. Im Norden zweigt die A 270 von der A 27 in Ihlpohl ab und führt auf einer Länge von 10 km bis nach Bremen-Farge. In Gröpelingen ist der erste Teil der A 281 vom Dreieck Bremen-Industriehäfen bis Bremen-Burg-Grambke fertiggestellt. Auf der anderen Weserseite wurde der Abschnitt vom Güterverkehrszentrum bzw. Neustädter Hafen bis zum Flughafen bzw. bis zur Airport-Stadt im Januar 2008 dem Verkehr übergeben. Wahrzeichen der neuen Autobahnverbindung ist eine Schrägseilbrücke mit 50 m hohen Pylonen in der Nähe des Flughafens. Bis 2013 sollen die beiden Teilstücke mit einem unter der Weser entlang führenden Tunnel verbunden werden, außerdem ist die Verlängerung bis zur A 1 vorgesehen. Damit wäre der Autobahnring um Bremen geschlossen, der die innerörtlichen Straßen von Durchgangsverkehr entlasten soll. Im Westen führt die A 28 nach Oldenburg, außerdem bindet sie den Stadtteil Huchting an die A 1 an. Die A 1 ist auf gesamter Länge sechsspurig ausgebaut und soll im weiteren Bedarf achtspurig ausgebaut werden. Die A 27 ist zwischen Bremen-Überseestadt (Bundesstraße B 6) und Bremen-Nord (A 270) ebenfalls sechsspurig ausgebaut. Der Abschnitt zwischen Bremen-Überseestadt und dem Bremer Kreuz ist vierspurig und soll im weiteren Bedarf sechsspurig ausgebaut werden. Die Bundesautobahnen A 270 und A 281 sind durchgehend vierspurig. Auf den Bundesautobahnen A 270 und A 281 gilt – in erster Linie aus Lärmschutzgründen – durchgehend ein Tempolimit von 80 km/h. Auf der A 1 wird der Verkehr durch eine automatische Verkehrsbeeinflussungsanlage gesteuert. Je nach Verkehrsbelastung beträgt die zugelassene Höchstgeschwindigkeit 60, 80, 100 oder 120 km/h (auf der Weserbrücke max. 100 km/h aufgrund der provisorischen Achtstreifigkeit und der damit verbundenen Einengung der einzelnen Fahrstreifen). Schneller als 120 km/h bzw. keine Begrenzung werden nie angezeigt, auch nachts nicht, da Bremen als erstes Bundesland eine allgemeine maximale Tempobegrenzung von 120 km/h eingeführt hat. Entsprechend gilt auf der A 27 in Bremen durchgängig ein Tempolimit von 120 km/h. Außerdem führen die Bundesstraßen B 6 (in Nord-Süd-Richtung), B 74 und B 75 (in West-Ost-Richtung) durch Bremen. Die B 6/B 75 war zwischen der A 27 und A 28 einst als A 282 geplant. Ein Ausbau dieses Abschnitts zur vollwertigen Autobahn ist derzeit aber eher unwahrscheinlich. Gleichwohl kann Bremen seit der Fertigstellung der Autobahndreiecke Stuhr und Delmenhorst auf Autobahnen und Schnellstraßen kreuzungsfrei umrundet werden. Mit der Vollendung der A 281 wird es auch einen geschlossenen Autobahnring um Bremen geben. Im Zuge der Fertigstellung der A 281 erhält auch die B 212 eine neue Streckenführung: Sie wird künftig im Westen Bremens an der A 281 enden und den Landkreis Wesermarsch besser mit Bremen verbinden. Der Plan aus den 1970er Jahren, die A 5 von nördlich Gießen (bzw. Frankfurt am Main) über Bremen Richtung Nordenham zu verlängern, wurde endgültig aufgegeben. Die A 5 sollte die B 75 zwischen Huchting und Grolland kreuzen. Die Hauptverbindungsstraßen der Stadtteile für den Autoverkehr sind die im Jahre 1914 durch Beschluss der Bürgerschaft in "Heerstraßen" umbenannten Chausseen. Die Deutsche Märchenstraße ist eine Ferienstraße, die von Hanau nach Bremen zu den Bremer Stadtmusikanten führt. Fahrrad. Bremen wird durch die Radfernwege Radfernweg Hamburg–Bremen, Bremen–Osnabrück (Brückenradweg) und Wümme-Radweg erreicht. Zudem ist die Stadt eine wichtige Station auf dem Weserradweg, der die Weser von ihrem Entstehungsort bis nach Bremerhaven begleitet und ein beliebtes Urlaubsprogramm darstellt. Unter den deutschen Städten mit über 500.000 Einwohnern hat Bremen mit über 22 % der Wege einen großen Radverkehrsanteil; Bremen gilt als Fahrradstadt. Bremen soll auch die meisten Radwegkilometer pro Einwohner unter den deutschen Großstädten haben. Öffentliche Einrichtungen. Der Senat der Freien Hansestadt Bremen und seine Behörden sind für Angelegenheiten des Landes und der Stadt zuständig. Viele regional gegliederte deutsche Organisationen haben eine Niederlassung in Bremen. Bedingt durch die Bedeutung für den Außenhandel sind in Bremen auch etwa 40 Konsulate und Honorarkonsulate zu finden. Die Polizei Bremen ist die Ortspolizei in Bremen und auch die Landespolizei der Freien Hansestadt Bremen. Die Feuerwehr Bremen besteht aus der Berufsfeuerwehr verteilt auf sechs Feuer- und Rettungswachen (FW 1 bis 6) und fünf weiteren Rettungswachen. Sie wird durch 20 Freiwillige Feuerwehren der Stadt- bzw. Ortsteile unterstützt. Die Scharnhorst-Kaserne befindet sich im Ortsteil Huckelriede. Bildung, Wissenschaft und Forschung. Der Campus der Universität Bremen Campus der Jacobs University Bremen Schulen. Der Unterricht in der Primarstufe erfolgt in 74 Bremer Grundschulen. Der Sekundärbereich ist seit 2010 zweigliedrig. 33 Oberschulen bieten sämtliche klassische Schulabschlüsse: die Berufsbildungsreife und die mittlere Reife nach der Klasse 10, die Fachhochschulreife nach der Klasse 12 sowie das Abitur zumeist nach der Klasse 13. Die acht Gymnasien im Bremer Stadtgebiet bieten dagegen das Abitur nach der Klasse 12. Daneben gibt es noch fünf Schulzentren für den Sekundarbereich II mit gymnasialer Oberstufe und Berufsschule. Informationen zu den einzelnen Schulen sind in den Artikeln über die Bremer Stadt- und Ortsteile enthalten. Universitäten und Hochschulen. In Bremen gibt es die Universität Bremen, die Hochschule Bremen, die Hochschule für Künste sowie die private Jacobs University Bremen. Institute. Bremen mit Bremerhaven wurden vom Stifterverband für die Deutsche Wissenschaft zur „Stadt der Wissenschaft 2005“ (bei 36 deutschen Städten als Mitbewerber) gewählt. Mit dem Thema „System Erde“ gehörte Bremen zu den zehn deutschen Städten, die im Wissenschaftsjahr 2009 als Treffpunkt der Wissenschaft ausgezeichnet wurden. Medien. Bremen ist Sitz von Radio Bremen, der kleinsten Rundfunkanstalt der ARD. Radio Bremen produziert diverse Fernsehsendungen im „Radio Bremen TV“ und betreibt vier Hörfunkwellen – eine davon gemeinsam mit dem NDR (Nordwestradio), eine weitere mit dem WDR und dem RBB (Funkhaus Europa). Als privates Pendant ist Energy Bremen in der Hansestadt mit einem Radioprogramm ansässig; zusätzlich gibt es im Sendegebiet die Radiosender radio ffn, Hit-Radio Antenne Bremen und Motor FM. Außerdem unterhalten die privaten Fernsehsender RTL und Sat1 Korrespondentenbüros in Bremen und produzieren von hier aus ein halbstündiges Regionalmagazin für Bremen und Niedersachsen. Beim Bürgerrundfunk Bremen können Bürgerinnen und Bürger aus Bremen kostenlos eigene Radio- und TV-Sendungen gestalten. Von Anfang September 2007 bis Juni 2013 gab es in Bremen den privaten Fernsehsender center.tv. Er produzierte täglich zwei Stunden aktuelle Live-Sendungen aus Bremen. Als Tageszeitungen erscheinen der "Weser-Kurier" und die fast identischen "Bremer Nachrichten", letztere ist dem Titel nach die drittälteste noch erscheinende Tageszeitung Deutschlands. Montags und donnerstags liegt dem Weser-Kurier und den Bremer Nachrichten jeweils der "Stadtteil-Kurier" (Sechs Ausgaben: Nordost, Südost, Mitte, Links der Weser, West und Huchting) bei. In Bremen-Nord erscheint von Montag bis Sonnabend die Regionalausgabe "Die Norddeutsche", die unter dem Namen "Norddeutsche Volkszeitung" seit 1885 eine eigenständige Tageszeitung war. Mit einer eigenständigen Ausgabe für den Großraum Bremen erscheint außerdem die "Bild". Vorübergehend gab es eine eigenständige Bremen-Ausgabe der "tageszeitung" ("taz"), diese wurde jedoch nach einigen Jahren aus finanziellen Gründen eingestellt und in die "taz nord" eingegliedert, die gegenwärtig neben der Mantelzeitung aus drei Seiten allgemeinem Regionalteil und einer Wechselseite jeweils für die Länder Bremen und Hamburg besteht. Auch die Tageszeitung Die Welt versuchte mit einem Regionalteil die Medienlandschaft zu bereichern und neue Leser zu gewinnen, reduzierte den Umfang jedoch inzwischen auf wenige Seiten für die norddeutsche Region. In Bremen erscheinen ferner drei kostenlose Wochenblätter, die durch Anzeigen finanziert werden: der "Bremer Anzeiger", der "Weser-Report" sowie in Bremen-Nord "Das BLV". Mit "Bremer", "Prinz Bremen", "Bremen-Magazin", dem Stadtmagazin "Mix", "BIG Bremen" und "Bremborium" und dem "Nordanschlag" in Bremen-Nord erscheinen außerdem eine Reihe unabhängiger Stadtmagazine. Hinzu kommen die Kultur- und Gesellschaftszeitschriften "Foyer" und "Brillant" sowie zahlreiche kleinere Publikationen mit stark lokalem Charakter in einzelnen Stadtteilen. Ferner sind alle großen Nachrichtenagenturen und die meisten großen Tageszeitungen Nordwestdeutschlands sowie zahlreiche Radiosender mit Korrespondentenbüros oder Regionalredaktionen vertreten. Ver- und Entsorgung. Traditionell war Bremen in allen Bereichen der Ver- und Entsorgung weitgehend autonom. Steigende Anforderungen an die Versorgungsqualität haben diese Autonomie nach 1945 zunächst verbessert und nach 1995 erneut beschränkt. Bauwerke. → "Siehe auch: Bremer Denkmale • Liste der Denkmale und Standbilder der Stadt Bremen • Liste der Brunnen der Stadt Bremen • Liste bedeutender Bremer Bauwerke • Liste der Wandbilder in Bremen • Liste der höchsten Bauwerke in Bremen" Rund um den Marktplatz. Der Roland ist Mittelpunkt und ein Wahrzeichen der Stadt. Der originale Kopf des Roland ist im Focke-Museum ausgestellt. Während des Zweiten Weltkrieges wurde er aus Furcht vor Zerstörung durch Bombenangriffe durch eine Kopie ersetzt. Sein Blick ist auf den Dom St. Petri gerichtet, der für Besucher das Dom-Museum und den Bleikeller bereithält. Neben dem Roland steht das Rathaus, in dessen Ratskeller Wein serviert und verkauft wird. Roland und Rathaus gehören zum UNESCO-Welterbe. An der Westmauer des Rathauses sind die Bremer Stadtmusikanten, ebenfalls ein Wahrzeichen der Stadt, zu finden. Hier endet die Deutsche Märchenstraße. Es schließt sich die ehemalige Ratskirche Unser Lieben Frauen an. In Verbindung mit dem alten Rathaus steht das Neue Rathaus, das nach Plänen von Gabriel von Seidl im Stil der Neorenaissance gebaut und 1913 eingeweiht wurde. Hier befindet sich die Senatskanzlei, also die Regierungszentrale von Bremen. Auf der gegenüberliegenden Seite des Marktplatzes befindet sich der Schütting, das Haus der Kaufleute. Die Ostseite des Platzes nimmt das Gebäude der Bremischen Bürgerschaft ein, an der Westseite steht eine Reihe von vier Gebäuden aus dem 18. und 19. Jahrhundert. Zwischen dem Schütting und der Bremer Baumwollbörse öffnet sich die Böttcherstraße, ein zwischen 1922 und 1931 entstandenes Gesamtkunstwerk. Sie führt zur Martinikirche an der Weser. In Würdigung des Bauensembles, das von den Bremern gern als "gute Stube" bezeichnet wird, gibt die Deutsche Post AG in der Serie "Deutschlands schönste Panoramen" einen Briefmarkenzusammendruck im Wert von zweimal 60 Eurocent heraus. Der Zusammendruck aus dem Designbüro Klein und Neumann KommunikationsDesign erscheint am 6. Juni 2014. Die Kirchen in der Altstadt. Von den Bremer Kirchen aus der Zeit der Gotik ist durch den Zweiten Weltkrieg nur die Ansgarikirche nicht erhalten. Am Weserufer. In Höhe der Martinikirche beginnt die Schlachte, die in den 1990er Jahren sanierte historische Uferpromenade mit zahlreichen gastronomischen Angeboten. Gegenüber auf der Halbinsel zwischen der Weser und der Kleinen Weser liegt der Teerhof, auf dem sich neben dem Museum Weserburg und der "Gesellschaft für aktuelle Kunst" (GAK) in den 1990er Jahren errichtete Wohnbebauung befindet. Einige Kilometer flussabwärts war der Space Park im Stadtteil Gröpelingen zu finden, der im Dezember 2003 auf dem ehemaligen Gelände der Werft AG Weser eröffnet und nach einem Jahr wieder geschlossen wurde. Dessen Gebäude wurde als Einkaufszentrum "Waterfront" umgebaut. Als Landmarke ist im Stephaniviertel die Jugendherberge Bremen bzw. das "Haus der Jugend" deutlich erkennbar. Das Schnoorviertel. Der Schnoor ist ein mittelalterliches Gängeviertel in der Altstadt Bremens und wahrscheinlich der älteste Siedlungskern. Das Quartier verdankt seine Bezeichnung dem alten Schiffshandwerk. Die Gänge zwischen den Häusern standen oft in Zusammenhang mit Berufen oder Gegenständen: So gab es einen Bereich, in welchem Seile und Taue hergestellt wurden (Schnoor = Schnur), und einen benachbarten Bereich, in dem Draht und Ankerketten gefertigt wurden (Wieren = Draht). Zahlreiche Häuser aus dem 17. und 18. Jahrhundert sind noch erhalten und vermitteln einen romantischen Eindruck vom Leben in früheren Zeiten. In den Jahren 1856/57 wurde hier das Dienstgebäude der Landherren errichtet, und erst am 19. September 1945 wurde die Stellung des Landherren aufgehoben. Die Weserrenaissance und die Neorenaissance. Aus der Zeit der Weserrenaissance ist in Bremen eine Anzahl von Gebäuden erhalten geblieben, u. a. zählen dazu: Das Bremer Rathaus (Kernbau aus der Gotik) von 1612 und der Schütting von 1538 – beide am Markt, die Stadtwaage von 1587 und das Essighaus von 1618 – beide in der Langenstraße – und das Gewerbehaus am Ansgariikirchhof von 1620. Im 19./20. Jahrhundert wurden u. a. historisierend im Stil der Neorenaissance das Postamt 1 an der Domsheide (1879), die Bremer Baumwollbörse (1902) und die Bremer Bank am Domshof (1905) errichtet. Das Bremer Haus. Das Bremer Haus ist ein Reihenhaustyp, der in England seine Wurzeln hat. Es war, in verschiedenen Größen, für alle sozialen Bevölkerungsgruppen gedacht und bestimmte seit der Mitte des 19. Jahrhunderts bis in die 1930er Jahre den Wohnungsbau in Bremen. In den Stadtteilen Schwachhausen, Steintor, Ostertor und der Neustadt findet man hauptsächlich den großen Typ, der für wohlhabendere Bürger errichtet wurde, in Arbeitervierteln wie Walle und Gröpelingen den kleinsten mit 1–2 vollen Etagen und niedrigeren Geschosshöhen. Bremen-Nord. Als Baudenkmäler in Bremen-Nord sind unter anderem in Vegesack das "Havenhaus" am Vegesacker Hafen sowie einige Packhäuser aus dem 19. Jahrhundert, darunter das "Kitohaus", zu nennen. Am Vegesacker Ufer der Lesum liegt außerdem das Schulschiff Deutschland. Sehenswert sind weiter das Schloss Schönebeck, die Wasserburg Haus Blomendal sowie der U-Boot-Bunker Valentin im Ortsteil Farge. Auch sehenswert ist die " 'Skyline' " von Blumenthal: die Türme der katholischen Kirche "St. Marien", der evangelisch-lutherischen "Martin-Luther-Kirche" und der evangelisch-reformierten Kirche und der Wasserturm, alle im Zeitalter des neugotischen Bauens im Stil der Backsteingotik entstanden. Theater. Das Theater Bremen ist ein städtisches Theater der Freien Hansestadt Bremen mit Aufführungen von Opern, Operetten, Musicals, Schauspielen und Tanztheater. Es besteht aus mehreren Spielstätten – das größte unter ihnen ist das Theater am Goetheplatz im Viertel. 2007 wurde das Theater Bremen unter Klaus Pierwoß zum "Opernhaus des Jahres" gewählt. Darüber hinaus besitzt Bremen eine vielfältige Theaterszene mit zahlreichen, etablierten Theatern in freier oder privater Trägerschaft. Bei der bremer shakespeare company im Theater am Leibnizplatz ist der Name Programm. Das Travestietheater von Madame Lothár im Schnoor war eine bremische Institution. Inszenierungen moderner Stücke sind im Jungen Theater zu sehen. Als Kinder- und Jugendtheater ist das Theaterhaus Schnürschuh bekannt geworden. 1976 gegründet, finden dort außerdem Lesungen und Musikveranstaltungen statt. Weiter besitzt Bremen ein eigenes Straßentheaterfestival "La Strada". Es besteht seit 1994 und zieht jährlich bis zu 100.000 Zuschauer in die Stadt. Museen. Die Museumslandschaft in Bremen ist vielfältig. Klassik. Die Bremer Philharmoniker wurden 1825 von der "Gesellschaft für Privatkonzerte," heute "Philharmonische Gesellschaft Bremen," gegründet und sind das offizielle Orchester der Freien Hansestadt Bremen. Ihr Tätigkeitsspektrum umfasst neben der Bespielung des Musiktheaters im Theater Bremen die Veranstaltung einer Serie von Abonnementkonzerten und diverser Sonder- und Benefizkonzerte sowie ein weitreichendes Engagement im Bereich der musikalischen Nachwuchsförderung. Seit 2002 ist das Orchester als erste deutsche Orchester-GmbH mit privater Mehrheitsbeteiligung aufgestellt, Gesellschafter sind die Philharmonische Gesellschaft Bremen (26 %) und die Orchestermusiker, organisiert im Bremer Philharmoniker e. V. (26 %) sowie die Freie Hansestadt Bremen (26 %) und das Theater Bremen (22 %). Intendant der Bremer Philharmoniker ist Christian Kötter-Lixfeld, Generalmusikdirektor ist seit 2007 Markus Poschner. Die Deutsche Kammerphilharmonie Bremen, die seit 1992 ihren Sitz in Bremen hat, gehört zu den weltweit führenden Kammerorchestern. Künstlerischer Leiter ist seit 2004 der estnische Dirigent Paavo Järvi. Räumlich ist das Kammerorchester seit März 2007 in der Gesamtschule Bremen-Ost untergebracht, wo es unter anderem über mehrere Gruppenproberäume und einen Konzertsaal für bis zu 450 Zuhörer verfügt. Der Haupt-Veranstaltungsort für "klassische" Musik in Bremen ist das 1928 erbaute Haus "Die Glocke" neben dem Dom. Herbert von Karajan zählte die Glocke zu den drei besten Konzerthäusern Europas. Im Theater am Goetheplatz finden unter der Regie des "Theater Bremen" regelmäßige Opern- und Operettenaufführungen statt. Der Fachbereich Musik der Hochschule für Künste Bremen mit der 1986 gegründeten Akademie für Alte Musik leistet neben der künstlerischen Ausbildung durch zahlreiche Konzerte und Veranstaltungen im Konzertsaal und in der Galerie einen wichtigen Beitrag zum vielfältigen kulturellen Leben der Hansestadt. Musicaltheater. Im "Musical Theater Bremen" findet man die Kombination aus Musik und Theater. Populäre Musik. a>, Biergarten und Ort regelmäßiger Jazzveranstaltungen. Aus Bremen kommen die Deutschrock-Band Wolfsmond "(Wie der Wind so frei)," die Indie-Rock Band Trashmonkeys, die sich inzwischen auch in England einen Namen gemacht hat, sowie die Sixties-Beatgruppe The Yankees "(Halbstark)." Der deutsche Schlagersänger Ronny "(Oh my Darling, Caroline)," der sich auch als Entdecker und Produzent des holländischen Kinderstars Heintje "(Mama)" in den 1960er Jahren einen Namen gemacht hat, kommt ebenfalls aus Bremen. Hier lebt auch der Textdichter dieser und vieler weiterer berühmter Interpreten, Hans Hee. Bei Radio Bremen produzierte Michael Leckebusch ab 1965 mit dem "Beat-Club" eine der ersten richtungsweisenden TV-Musiksendungen der Nachkriegszeit. Die Moderatoren Uschi Nerke und Gerd Augustin erzielten regelmäßig am Sendetermin am Samstagnachmittag hohe Einschaltquoten bei jugendlichen Zuschauern. Die Sendung entwickelte sich in einem nicht unerheblichen Maße zu einem Phänomen der Jugendkultur im Deutschland. Im Anschluss an den "Beat-Club" wurde u. a. der "Musikladen" oder "Extratour" produziert. Auch einige Rap-Musiker sind gebürtige Bremer Bürger, so Shiml, MontanaMax, JokA und Lady Bitch Ray. Der Soulsänger Flo Mega, der durch seinen Auftritt beim Bundesvision Song Contest bekannt geworden ist, kommt auch aus Bremen. Avantgarde. In der Jazz- und Avantgardemusik erlangte der Trompeter Uli Beckerhoff Bekanntheit. Parks. → "Siehe auch bei den einzelnen Stadtteilen" Stadtbezirk Bremen-Mitte. Die "Bremer Wallanlagen" sind nach Plänen von Isaak Altmann ab 1805 hervorgegangen aus der bis zum 17. Jahrhundert erbauten Bremer Stadtmauer und der dann folgenden Befestigungsanlagen. Sie sind nicht nur Bremens älteste, sondern auch die erste öffentliche Parkanlage in Deutschland, die durch eine bürgerliche Volksvertretung realisiert wurde. In der Windmühle befindet sich heute ein Restaurant. Die meisten Bremer Windmühlen sind Stationen der Niedersächsischen Mühlenstraße. Die "Pauliner Marsch" ist mit 54 Hektar Bremens größter Sportpark und ein Grünzug. Sie liegt direkt an der Weser östlich vom Weserstadion und auf der anderen Weserseite. Hier ist auch die Heimat von Werder Bremen. Stadtbezirk Bremen-Ost. Der "Bürgerpark" ist der größte privat finanzierte Stadtpark in Deutschland. Er schließt sich hinter dem Bahnhof direkt an die Bürgerweide an und geht in den Stadtwald über, mit dem zusammen er 202 Hektar umfasst. Der Bürgerpark wurde in den 1860er Jahren vom Landschaftsgärtner Wilhelm Benque angelegt. Südwestlich an den Bürgerpark schließt sich der Nelson-Mandela-Park mit dem Antikolonialdenkmal an. Der "Stadtwald" ist vom Bürgerpark durch eine Eisenbahnlinie getrennt. Die Finnbahn wird täglich von bis zu 500 Läufern genutzt. Der "Stadtwaldsee (Unisee)", die "Uniwildnis" und das Universum Bremen schließen nördlich direkt an den Stadtwald an. Der "Rhododendron-Park" bietet auf einer Fläche von 46 Hektar eine einzigartige Sammlung an Rhododendren und Azaleen. 500 von den weltweit 1000 verschiedenen Rhododendronwildarten wachsen in diesem Park und dem hier stehenden grünen Science-Center Botanika. Der Park wurde um 2000 durch einen Themenpark erweitert. "Der Botanische Garten" ist 3,2 Hektar groß und liegt im Rhododendron-Park. Er ist 1937 an diesem Standort neu aufgebaut worden. Die "Oberneulander Parks" sind zumeist Grünanlagen im englischen Stil um die Herrenhäuser verschiedener Landgüter. Dazu zählen "Höpkens Ruh" mit 7 Hektar Fläche und daneben "Muhles Park", dann "Heinekens Park" mit 2,7 Hektar und "Ichons Park" – beide nach Plänen von Gottlieb Altmann –, "Menke Park" und "Park Gut Hodenberg" nach Plänen von Gartenarchitekt Christian Roselius, "Hasses Park" nach Plänen von Wilhelm Benque sowie der "Park Holdheim". Der "Achterdiekpark" in Oberneuland entstand ab 1969. Der Park selbst ist 8 Hektar groß und umfasst sieben Teiche. "Der Achterdiekpark e. V." betreut die Anlage. Die anschließenden Grünflächen am "Achterdieksee" und der Bundesautobahn 27 entstanden beim Bau der Vahr in den 1960er Jahren. Sie sind 31 Hektar groß. Eine Golfanlage befindet direkt neben den Grünzonen. Stadtbezirk Bremen-Süd. Die "Neustadtswallanlagen" auf der linken Weserseite sind ab 1805 auf der Befestigungsanlage der Neustadt entstanden. Geblieben ist davon nur eine nicht durchgängige 16 Hektar große Parkanlage vom Hohentorshafen bis zur "Piepe". Der markante "Centaurenbrunnen" steht seit 1958 gegenüber der Schule am Leibnizplatz. Der "Park links der Weser", 223 Hektar groß, entstand aufgrund der Initiative des gleichnamigen Vereins zwischen Huchting und Grolland als Landschaftspark ab 1975. Der Flusslauf der Ochtum, die wegen des Flughafens verlegt wurde, stellt das wichtigste Element dieses Parks dar. Die "Grünanlage am Sodenmattsee" ist 1960 in Huchting entstanden, als Sand für den Straßenbau benötigt wurde. Heute ist der Park 19 Hektar groß. Der "Weseruferpark Rablinghausen" – eine 22 Hektar große maritime Meile – liegt direkt an der linken Weserseite und erstreckt sich von Rablinghausen bis zum "Lankenauer Höft". Stadtbezirk Bremen-West. Der "Waller Park" von 1928 in Verbindung mit dem "Waller Friedhof" von 1875 stellt den größten zusammenhängenden Park im Bremer Westen dar. Das "Blockland" ist nicht nur ein Ortsteil, sondern ein 30 Quadratkilometer großes Landschaftsgebiet der Wümmeniederung mit Naturschutzgebieten an der linken Seite der Wümme, mit dem Wümme-Radweg und vielen Ausflugslokalen. Der "Grünzug West" verbindet seit 1953 die Stadtteile Gröpelingen und Walle. Stadtbezirk Bremen-Nord. Knoops Park mit der Lesum "Knoops Park" in St. Magnus (Bremen-Nord) am Rande der "Bremer Schweiz" aus dem 19. Jahrhundert, stammt von Wilhelm Benque. Der 60 Hektar große Park ist eine Mischung aus englischem Park und italienischem Renaissance-Garten. "Wätjens Park" in Blumenthal ist 35 Hektar groß. Er entstand ab 1850 als Park um "Wätjens Schloss" für den Reeder Wätjen nach Plänen von Isaak Altmann. Der Park verkam und wird seit 1999 saniert. Der Naturpark um "Schloss Schönebeck" in Vegesack mit malerischen Wegen im Tal der Schönebecker Aue umfasst 30 Hektar. Mittendrin befindet sich die bremische Ökologiestation. Der "Stadtgarten Vegesack" mit der Weserpromenade wird auch als "Garten am Fluss" bezeichnet. Nur 2 Hektar groß, hat er eine fast 1 Kilometer lange maritime Promenade mit auch exotischen Gehölzen, die von der Strandlust bis zum ehemaligen Werftgelände vom Bremer Vulkan führt. Friedhöfe in Bremen. Kapelle auf dem Osterholzer Friedhof Das gemeinsame Krematorium aller Bremer Friedhöfe befindet sich auf dem Friedhof Huckelriede. Es gibt 13 städtische Friedhöfe. Regelmäßige Veranstaltungen. Im Laufe jeden Jahres wechseln sich auf den Plätzen in der Stadtmitte die Losbuden der Bürgerpark-Tombola und Fahrgeschäfte der Osterwiese, des Freimarktes und des Weihnachtsmarktes ab. Beim Freimarkt – der sogenannten Fünften Jahreszeit – handelt es sich um eines der ältesten Volksfeste Deutschlands, das erstmals im Jahr 1035 abgehalten wurde. Er findet alljährlich im Herbst auf der Bürgerweide, unmittelbar hinter dem Hauptbahnhof statt. Die Verantwortlichen nehmen für sich in Anspruch, die größte Veranstaltung dieser Art in Norddeutschland zu organisieren. Der „Kleine Freimarkt“ findet vor dem Rathaus zeitgleich mit dem „großen“ Freimarkt statt. Im Rahmen des zweiwöchigen Freimarktes wird seit 1967 auch ein Umzug durch die Stadt veranstaltet Je einmal im Monat verkehren die Museumsstraßenbahn-Linien 15 und 16. Zu den Attraktionen gehören auch die regelmäßigen Führungen durch die Altstadt. Die meisten Stadtführungen und -rundfahrten werden von der Bremer Tourismus-Zentrale organisiert, zu verschiedenen Themen und in mehreren Sprachen angeboten. Einige Veranstalter bieten auch sogenannte „Nachtwächter-Rundgänge“ an, die meist durch einige mittelalterlich anmutende Straßen führen. Bedeutend sind die Bremer Eiswette am Dreikönigstag und das Bremer Schaffermahl im Februar. Aus der Vielzahl der kulturellen Veranstaltungen ragen der Bremer Karneval im Februar, das Freiluftfestival Breminale am Osterdeich, das Internationale Literaturfestival sowie das Musikfest Bremen im September heraus. Eine viele Besucher anlockende Veranstaltung mit sportlichem Hintergrund ist das stets im Januar stattfindende Bremer Sechstagerennen. September 2009 fand erstmals die "Maritime Woche an der Weser" statt. In Bremen-Nord finden regelmäßig Volksfeste und kulturelle Veranstaltungen rund um den "Vegesacker Hafen" statt. So das "Vegesacker Hafenfest", das "Festival Maritim", das Rock den Deich Festival und der zweimal jährlich stattfindende Loggermarkt. Eines der ältesten Volksfeste in Bremen-Nord ist der "Vegesacker Markt". Kulturpreise. Die "Senatsmedaille für Kunst und Wissenschaft" wurde seit 1938 und erneut seit 1952 vom Bremer Senat verliehen. Der Literaturpreis der Stadt Bremen wurde von 1954 bis 1960 vom Senat und seit 1962 durch die vom Senat erfolgte Gründung der "Rudolf-Alexander-Schröder-Stiftung" vergeben. Zusätzlich wird seit 1977 ein Förderpreis verliehen. Der Bremer Kunstpreis wird seit 1955 an Künstler im deutschsprachigen Raum verliehen. Er hieß bis 1983 "Kunstpreis der Böttcherstraße". Der Stifterkreis ist seit 1983 ein Zusammenschluss von Mitgliedern des Kunstvereins Bremen. Der Kultur- und Friedenspreis der Villa Ichon wird seit 1983 von dem Verein der Freunde und Förderer der Villa Ichon jährlich verliehen für Werk oder Wirken als Bekenntnis zum Frieden und von hohem kulturellen Rang. Der Hannah-Arendt-Preis wird seit 1995 von der Heinrich-Böll-Stiftung und dem Bremer Senat vergeben für Personen, die zu öffentlichem politischen Denken und Handeln beitragen. Der Kurt-Hübner-Preis wird seit 1996 vom Verein "Bremer Theaterfreunde" verliehen an Ensemblemitglieder des Theater Bremens für besondere künstlerische Leistungen. Der Bremer Musikfest-Preis wird seit 1998 für herausragende Musikkünstler vergeben. Zusätzlich wird zusammen mit dem Deutschlandfunk der "Förderpreis Deutschlandfunk" für begabte Nachwuchskünstler verliehen. Der Bremer Filmpreis wird seit 1999 für langjährige Verdienste um den europäischen Film von der "Kunst- und Kultur-Stiftung" der Sparkasse Bremen vergeben. Der Heinrich-Schmidt-Barrien-Preis wurde seit 2000 vom "Bremer Kulturverein Freizeit 2000" uns seit 2007 vom "Freundeskreis „Dat Huus op’n Bulten“" an Personen und Institutionen verliehen, die sich besonders um den Erhalt der niederdeutschen Sprache verdient gemacht haben. Der Radio Bremen Krimipreis wird seit 2001 für Autoren qualitativ herausragender Werke der Kriminalliteratur von Radio Bremen auf dem Krimifestival verliehen. In der "Mall of Fame", als inoffizieller Name einer Fußgängerzone in Bremen, werden seit 2003 die Handabdrücke verschiedener Prominenter eingelassen. Der private Feature-Preis des Bremer Hörkinos für Autoren besteht seit 2007. Der "Bremer Stadtmusikantenpreis" wird seit 2009 verliehen. Der undotierte Preis wird in den vier Kategorien "Bürgerschaftliches Engagement" (Senat), "Medien" (Radio Bremen und Weser-Kurier), "Kultur" (Internationalen Kulturform) und "Tourismus/Stadtmarketing" (Verkehrsverein Bremen) vergeben. Bremensien. Als Bremensien werden auch Begebenheiten und Bräuche in Bremen bezeichnet wie der "Bremer Freimarkt" (seit 1035), die "Schaffermahlzeit" (seit 1545), die "Bremer Eiswette" (seit 1829), das "Kohl- und Pinkelessen", das "Domtreppenfegen" (seit etwa 1890), die "Große Mahlzeit" der "Januargesellschaft" (seit dem 15. Jh.) oder das "Bremer Tabak-Collegium" (seit Anfang der 1950er Jahre). Der "Bremer Kunstpreis" (seit 1985), der "Bremer Karneval" (seit 1986), die "Breminale" (seit 1987), der "Bremer Solidaritätspreis" (seit 1988), der "Bremer Musikfest-Preis" (seit 1998), der "Bremer Filmpreis" (seit 1999) und der "Bremen-Marathon" (seit 2005). Nachtleben. Vor allem am Wochenende tummeln sich in der Innenstadt Einheimische und Touristen, Jugendliche und Studenten in zahlreichen Diskotheken, Clubs, Bars und Lounges. Zu den traditionsreichen Diskotheken gehören das StuBu und die Lila Eule. Im Umfeld des Bahnhofs gibt es viele Angebote für tanzfreudige Menschen, etwa im Gebäude des ehemaligen Postamtes 5. Hauptanlaufpunkte für gesellige Treffen sind die Altstadt mit dem Weserufer Schlachte, wo im Sommer zahlreiche Biergärten entlang der Weser geöffnet sind, das sogenannte Viertel – ein Gebiet der Stadtteile "Steintor" und "Ostertor" mit hoher Kneipendichte – sowie die Bahnhofsvorstadt mit der "Diskomeile" Nachdem es in einigen Jahren wiederholt zu Gewaltkriminalität und Drogendelikten im Gebiet zwischen Bahnhof und Diskomeile gekommen war, trat im Februar 2009 ein Waffenverbot in der Zeit von 20:00-08:00 in Kraft, welches das Mitführen von Schusswaffen – auch bei Besitz eines Waffenscheins –, Messern und anderen als Waffe benutzbaren Gegenständen als Ordnungswidrigkeit ahndet. Filmtheater. In Bremen gibt es (Stand 2010) acht Filmtheater mit 38 Kinosälen und insgesamt 10.215 Plätzen. Drei Filmtheater sind davon Multiplex-Kinos mit zusammen 32 Sälen. Sport. → "Zu den sportlichen Aktivitäten in den Stadtteilen siehe dort." Bremen beheimatet als Großverein den Fußballbundesligisten Werder Bremen, der auch eine starke Schach- und Tischtennis-Abteilung hat. Die Weserstars Bremen spielen in der Eishockey-Regionalliga. Der Grün-Gold-Club Bremen ist Welt- und Europameister im Formationstanzen Latein. Für den Freizeitsport bieten sich der Bürgerpark mit dem Stadtwald, das Werdergebiet an beiden Seiten der Weser, der Park links der Weser sowie zahlreiche Wassersportanlagen auf den Nebenarmen der Weser und auf dem Stadtwaldsee an. Die Stadthalle ist als Veranstaltungsort des Bremer Sechstagerennens bekannt. Die Stadthalle ist Austragungsort weiterer Sportwettkämpfe, auch manche Heimspiele der Handball-Zweitligamannschaft Baden aus der Nachbarstadt Achim fanden hier in der Saison 2007/08 statt. Seit 1907 gibt es in Bremen-Vahr an der Vahrer Straße eine Galopp-Rennbahn mit einem Trainingszentrum für Pferde und Reiter. Seit 2008 gibt es im Turnier-Tanz-Club (TTC) Gold und Silber e. V. Bremen mit Unterstützung des Behinderten-Sportverbandes Bremen e. V. und des Landestanzsportverbandes Bremen e. V. das Angebot Rollstuhltanz. Religions- und Weltanschauungsgemeinschaften. Im Jahr 2005 sind im Lande Bremen 43,8 % der Bürger in den protestantischen Kirchen, 12,4 % in der römisch-katholischen Kirche und 43,9 % der Bürger sind konfessionslos oder in sonstigen Gemeinschaften. Eine aktuelle Übersicht der Religionsgemeinschaften bietet der "Bremer Stadtplan der Religionen". Christentum. a> in Bremen (Zeichnung 1839, Altstadtkirche 1944 zerstört) Evangelische Landeskirche. Die einzelnen Gemeinden in der Stadt haben deutliche Unterschiede in Tradition und religiösem Leben. Dem trägt die Bremische Evangelische Kirche (BEK) Rechnung, indem sie ihren Gemeinden ein großes Maß an Autonomie gewährt, ihrer Verfassung den Grundsatz der „Glaubens-, Gewissens- und Lehrfreiheit“ vorangestellt hat (→ Präambel der Verfassung der BEK). Die "Bremische Evangelische Kirche" ist ein freiwilliger Zusammenschluss der meisten bremischen Einzelgemeinden und fungiert als Körperschaft des öffentlichen Rechts als „Dach“ jener Einzelgemeinden. An ihrer Spitze steht auch kein Bischof, wie in den meisten anderen Landeskirchen, sondern ein „Präsident“ bzw. eine „Präsidentin des Kirchenausschusses“ (ein Nicht-Theologe bzw. -Theologin) und ein „Schriftführer des Kirchenausschusses“ (ein Theologe). Dem Kirchenausschuss obliegen zentrale verwaltungs- und dienstrechtliche Aufgaben. Er wird vom Kirchentag, der parlamentarischen Vertretung aller Mitgliedsgemeinden (Synode), für jeweils sechs Jahre gewählt. Der "Bremischen Evangelischen Kirche" gehören 242.386 Mitglieder an (Ende 2005). Zur "Bremischen Evangelischen Kirche" gehört neben den meisten stadtbremischen Gemeinden auch die "Vereinigte Protestantische Gemeinde Bremerhaven". Der 32. Deutsche Evangelische Kirchentag fand vom 20. bis 24. Mai 2009 in Bremen statt. Römisch-Katholische Kirche. Nach den Umbrüchen der Reformation entstand ab 1648 in Bremen auch wieder eine römisch-katholische Gemeinde, die 1931 Sitz eines Dekanats wurde. Das Dekanat Bremen (Südlich der Lesum) gehört zum Bistum Osnabrück, das Dekanat Bremen-Nord gehört zum Bistum Hildesheim. Das katholische Stadtdekanat Bremen besteht aus fünf Pfarreienverbänden: Stadtmitte (St. Johann), Häfen/Walle (St. Marien), Huchting/Woltmershausen (St. Franziskus), Schwachhausen/Horn/Oberneuland (St. Katharina) und Arsten/Habenhausen (St. Raphael). Als „Dach“ aller katholischen, übergemeindlichen Einrichtungen fungiert der Katholische Gemeindeverband Bremen. Er unterhält aus Spenden mehrere katholische Schulen und Kindertagesstätten. Mit dem „Apostolat des Meeres“, der katholischen Seemannsmission Stella Maris, richtet sich der Gemeindeverband an die Seeleute der Hafenstadt Bremen. Ein katholisches Krankenhaus besteht mit dem St.-Joseph-Stift. Im Jahr 2002 wurde mit dem Birgittenkloster Bremen der erste Schwesternkonvent seit der Reformation in der Hansestadt gegründet. Die katholische Kirche in Bremen umfasst 62.300 Mitglieder (11,42 %). Freikirchen. 1845 kam es zur Gründung der ersten Bremer Baptisten als Baptistengemeinde. Heute gibt es auf dem Gebiet in Bremen sechs Evangelisch-Freikirchliche Gemeinden, darunter auch eine englischsprachige internationale Baptistengemeinde. Eine Brüdergemeinde ist in der Wilhelm-Busch-Siedlung in der Vahr angesiedelt. Ab 1849 entstand in Bremen eine bischöfliche Methodistenkirche, die von hier aus eine Missionstätigkeit in Deutschland ausübte (heute: Frankfurt am Main). Rückwanderer aus Amerika sammelten sich ab 1896 zu einer lutherischen Gemeinde, eine der Wurzeln der heutigen evangelisch-lutherischen Bethlehemsgemeinde, die zum Kirchenbezirk Niedersachsen-West in der Selbständigen Evangelisch-Lutherischen Kirche gehört. In den 1950er Jahren trennte sich die Bremer Elim-Gemeinde vom Bund Evangelisch-Freikirchlicher Gemeinden und schloss sich der Pfingstbewegung an. Die Gemeinde, die heute über drei Gemeindezentren im Bremer Stadtgebiet verfügt, ist Trägerin des "Sozialwerks Grambke". Neben verschiedenen Sozialeinrichtungen betreibt dieses Sozialwerk auch eine Schule. Es gibt eine Reihe weiterer freikirchlicher Gemeinschaften, unter anderem eine Mennonitengemeinde, Siebenten-Tags-Adventisten, eine Gemeinde Gottes, eine Freie evangelische Gemeinde und eine Gemeinde im Mülheimer Verband. Viele landeskirchliche und freikirchliche Gemeinden arbeiten in Bremen auf der Ebene der Evangelischen Allianz zusammen und betreiben verschiedene diakonische Einrichtungen, zum Beispiel das "Mutter-Kind-Haus Bremen-Findorff" und das Seelsorgezentrum an der Martini-Kirche. Weitere christliche Religionsgemeinschaften. Auch die Altkatholiken (Hl. Messen in der röm.-kath. Kirche am Krankenhaus St. Joseph-Stift), die Apostolische Gemeinschaft, die Christengemeinschaft (Michael-Kirche am Rembertiring), die Kirche Jesu Christi der Heiligen der Letzten Tage, die Neuapostolische Kirche, die Russisch-Orthodoxe Kirche (Gottesdienste in der kath. St.-Bonifatius-Kirche in Findorff) sowie Jehovas Zeugen sind mit Gemeinden im Stadtgebiet vertreten. Judentum. Die jüdische Gemeinde hat eine Synagoge und ein Gemeindezentrum in der Schwachhauser Heerstraße. Die alte Synagoge stand bis zu ihrer Zerstörung während der Novemberpogrome 1938 in der Dechanatstraße hinter dem Postamt 1. Der Friedhof der israelitischen Gemeinde in Bremen liegt in der Deichbruchstraße im Ortsteil Hastedt. In Schwachhausen an der Beckfeldstraße liegt der 2008 gegründete Neue Jüdische Friedhof. Dieser Friedhof erhielt 2012 eine eigene Trauerhalle. Islam. Die Muslime sind in mehreren Gemeinden organisiert. Ihre größte Moschee ist die Fatih-Moschee in Gröpelingen. Mit 360 Salafisten gilt der Anteil von Islamisten unter den Muslimen in Bremen 2015 als relativ hoch. Bahá'i. Seit 1965 gibt es in Bremen eine Bahá'i-Gemeinde, die sich seit 2000 in ihrem Gemeindezentrum Am Wandrahm 7 trifft. Buddhismus und Hinduismus. Schließlich leben in Bremen Angehörige asiatischer Religionsgemeinschaften in weniger festgefügten Organisationsformen, zum Beispiel Buddhisten und Hindus. Ihre Zahl wird im Zensus von 2011 mit 3,2 % der Gesamtbevölkerung angegeben. Die indische Gemeinde gründete 2011 den hinduistischen "Sri Varasiththivinayakar Tempel" in der Föhrenstraße. Die thailändische Gemeinde gründete 2012 den buddhistischen Tempel "Wat Buddha Metta Parami" in der Heidbergstraße. Konfessionslose. Nach dem Zensus vom 9. Mai 2011 gehören 38,9 % der Bevölkerung im Land Bremen keiner öffentlich-rechtlichen Religionsgesellschaft an, sind also in der Regel konfessionsfrei. Der Humanistische Verband Bremen e. V. im Humanistischen Verband Deutschlands (HVD) ist eine Weltanschauungsgemeinschaft nichtreligiöser Menschen. Der HVD Bremen vertritt die Interessen von Menschen, die keiner Konfession angehören. Darüber hinaus werden seit vielen Jahren eine Humanistische Jugendfeier, weltliche Hochzeiten und die Ausgestaltung von Trauerfeiern angeboten und öffentliche Vorträge zu aktuellen Themen veranstaltet. Mundarten/Sprachen. In Bremen wird Standarddeutsch gesprochen, daneben nur noch selten Niederdeutsch. Das Bremer Platt als eigene Mundart ist nicht mehr in seiner Reinform zu hören, da es sich inzwischen mit dem Platt des Umlandes gemischt hat. In die in Bremen gesprochene Umgangssprache haben viele Elemente des „Bremer Snak“ Eingang gefunden. Der „Bremer Snak“ ist der bremische Dialekt des Missingsch, einer Mischsprache zwischen deutscher Standardsprache und Niederdeutsch. Kulinarische Spezialitäten. Eine der bekanntesten Bremer Spezialitäten ist Kohl und Pinkel. In Bremen wird der Grünkohl als „Braunkohl“ bezeichnet, weil die regional angebaute Kohlsorte rote Pigmente in den Blättern hat. Deshalb erhält der Kohl durch das Kochen eine bräunliche Färbung und schmeckt würziger. Ein beliebtes Bremer Wintergebäck ist der Klaben. Dieses „urbremische Gebäck“ ist ein schwerer Stollen, das Wort „Klaben“ weist auf die gespaltene Form hin. Er wird zumeist Anfang Dezember gebacken, und zwar in solchen Mengen, dass er bis Ostern reicht. Im Gegensatz zum Stollen wird Klaben nach dem Backen nicht mit Butter bestrichen und gezuckert. Weitere beliebte Süßigkeiten sind Bremer Babbeler (ein langes Lutschbonbon) und Bremer Kluten (Zucker mit Pfefferminz und Schokolade). Ehrenbürger. Zu den bekanntesten Ehrenbürgern der Stadt Bremen gehören u. a. der Reichskanzler Otto von Bismarck, der Verleger Anton Kippenberg, der Nachkriegspräsident des Senats Wilhelm Kaisen und der Dichter, Übersetzer und Architekt Rudolf Alexander Schröder. Zuletzt wurden Annemarie Mevissen, Barbara Grobien und Klaus Hübotter ausgezeichnet. Söhne und Töchter der Stadt Bremen. Als Bremer weit über ihren Geburtsort hinaus bekannt geworden sind Freie Hansestadt Bremen. Die Freie Hansestadt Bremen (, Abkürzung "HB") ist das flächenkleinste Land der Bundesrepublik Deutschland. Es handelt sich – entgegen dem Volksmund – "nicht" um einen Stadtstaat, sondern um einen in Deutschland einmalig vorzufindenden "Zwei-Städte-Staat". Dieser besteht aus den beiden Großstädten (gesetzliche bremische Bezeichnung: "Stadtgemeinden") Bremen und Bremerhaven, in denen zusammen mehr als 660.000 Einwohner wohnhaft sind. Die Freie Hansestadt Bremen ist als Land in seiner Gesamtheit Teil der Oldenburg. Lage. Das Land Bremen liegt in Nordwestdeutschland am Unterlauf und Mündungstrichter der Weser und umfasst die beiden 53 km voneinander entfernten Städte Bremen (ca. 325 km²) und Bremerhaven (seit 2010 ca. 94 km²), die durch niedersächsisches Gebiet voneinander getrennt sind. Bremerhaven grenzt zusätzlich noch im Westen an die Nordsee. Das Land Bremen wird durch die niedersächsischen Landkreise Osterholz, Verden, Diepholz, Wesermarsch, Cuxhaven und die Stadt Delmenhorst begrenzt. Naturräume. Naturräumlich ist die Freie Hansestadt Bremen fünf naturräumlichen Haupteinheiten zuzuordnen: den Wesermarschen, der Wümmeniederung, der Wesermünder Geest, der Thedinghäuser Vorgeest sowie dem Verdener Wesertal. Naturbelassene Flächen finden sich vor allem entlang der Flüsse Wümme, Lesum, Ochtum und Geeste mit unter Naturschutz stehenden Marschwiesen und Altarmen. Die Marsch- wie auch die Geestflächen werden landwirtschaftlich genutzt und dienen als Naherholungsgebiete für die Stadtbevölkerung. Bremen hat 20 Naturschutzgebiete mit insgesamt 3546 ha, die rund 8,5 Prozent der Landesfläche ausmachen. Flüsse. Der landschaftsprägende Fluss Weser ist in ganzer Länge eine Bundeswasserstraße und an seinen Ufern innerhalb der Freien Hansestadt Bremen überwiegend stark befestigt. Die Gezeiten in der Nordsee beeinflussen den Wasserstand in der Weser, teilweise auch die lokalen Wetterverhältnisse und prägen Fauna und Flora im Land Bremen. Durch den Ausbau der Unterweser im 19. Jahrhundert kam es in der Folge zur Tiefenerosion im Verlauf und oberhalb des ausgebauten Flusses mit erheblichem Sandaustrag. Um ein Fortschreiten der Sohlenerosion zu verhindern, wurde Anfang des 20. Jahrhunderts in Bremen-Hastedt das Weserwehr gebaut. Infolge der Weserkorrektion und weiterer Vertiefungen des Schiffahrtsweges stieg der Tidenhub von zuvor etwa 1 m auf bis zu heute 5 m in der Stadt Bremen, was auch die Strömungsgeschwindigkeit erhöhte. Die Ansiedlung hat sich im Laufe der Geschichte hauptsächlich entlang der Flüsse entwickelt. Die stärkste Versiegelung des Bodens ist daher an den Ufern der Weser und den unmittelbar angrenzenden Stadtteilen zu finden. Die Häfen machen mit über 30 km² einen erheblichen Teil der Landesfläche aus. Seen. Größter Binnensee ist der Sportparksee Grambke mit 40 ha. Erhebungen. Die mit höchste natürliche Erhebung befindet sich im Friedehorstpark in Bremen-Burglesum. Damit hat Bremen die niedrigste höchste natürliche Erhebung aller Bundesländer. Der Gipfel der Mülldeponie im Ortsteil Hohweg des Bremer Stadtteils Walle, der unterschiedlichen Angaben zufolge zwischen und hoch ist, überragt allerdings die Parkerhebung. → "weitere Erhebungen in den Stadtgemeinden Bremen und Bremerhaven" Wald. Das größte geschlossene Waldgebiet des insgesamt waldarmen Landes liegt in den Bremer Ortsteilen Farge und Lüssum-Bockhorn. Davon wird der größte Teil vom Tanklager Farge eingenommen, welches nicht öffentlich zugänglich ist. Schienen und Straßen. Die Landschaft wird an vielen Stellen von Hauptverkehrsstrecken durchschnitten, darunter die Bundesautobahn A 27, die von Hannover über Bremen und Bremerhaven nach Cuxhaven führt, und von mehreren Eisenbahnstrecken. Ethnische Zusammensetzung. Die Bevölkerung bestand ursprünglich aus Chauken und zuwandernden Friesen. Um 250 v. Chr. drangen Sachsen in den heutigen Bremer Raum ein und vermischten sich mit den bereits ansässigen Volksgruppen. Ab 100 v. Chr. findet für diese Siedler der Begriff "Nordseegermanen" Verwendung, zu denen die Angeln, Chauken, Friesen, Sachsen und Warnen gehören. Ab dem 3. Jahrhundert n. Chr. ist die Bezeichnung Sachsen nachweisbar. Die ethnische Zusammensetzung hat sich jedoch durch Zuwanderung in ihrer Zusammensetzung stark verändert, wobei eine Besonderheit die Zuwanderung von Polen im 19. Jahrhundert darstellt. Bremerhaven war damals einer der Auswanderhäfen. Bei den Polen handelte sich um Emigranten die nach Nordamerika auswandern wollten, wobei sich die meisten ohne Visum einschifften. Wer auf Ellis Island abgewiesen wurde, musste mit dem nächsten Schiff zurück nach Europa und kam dann wieder in einem der Auswandererhäfen an. Von dort aus konnte viele allerdings oft nicht mehr zurück in ihren Heimatort und strandeten. Nach dem Zweiten Weltkrieg sind viele Heimatvertriebene hinzugekommen, vornehmlich aus Ostpreußen, Posen und Pommern, zu einem geringeren Anteil auch aus der Tschechoslowakei. In den 1960er und 1970er Jahren kamen vor allem Gastarbeiter aus dem Mittelmeerraum sowie Westafrikaner in die Freie Hansestadt Bremen. Seit Öffnung des Eisernen Vorhangs stammen die meisten Zuwanderer aus Mittel- und Osteuropa und dem Nahen und Mittleren Osten. Sprache. In Bremen wird überwiegend Hochdeutsch und Bremer Dialekt gesprochen. Weit verbreitet ist "Missingsch", ein Hochdeutsch mit Einflüssen aus dem Niederdeutschen, das hier "Bremer Schnack" genannt wird. Die niederdeutsche Sprache selbst, das "Plattdüütsch", ist auch in Bremen noch beheimatet, allerdings seit einigen Jahrzehnten stark im Rückzug begriffen – nur noch wenige sprechen Niederdeutsch im Alltag. Für den Erhalt des Niederdeutschen setzt sich das Institut für niederdeutsche Sprache ein. In Familien mit Migrationshintergrund sind daneben noch die jeweiligen Heimatsprachen verbreitet (vor allem Russisch, Polnisch, Türkisch und Arabisch). Bevölkerungsentwicklung. Bevölkerungsentwicklung der Stadt Bremen, Bremerhaven und des Landes Bremen 1945–2010 Nach dem Zweiten Weltkrieg hatte die Freie Hansestadt Bremen und gleichermaßen beide Stadtgemeinden von 1946 bis 1960 einen Bevölkerungszuwachs von rund 47 % bei zusätzlichen 222.886 Einwohnern. Der Höchststand der Einwohnerzahl wurde in Bremen 1971 mit 594.591 Einwohnern erreicht und in Bremerhaven 1973 mit 144.578 Einwohnern. Danach sank die Einwohnerzahl bis 2000 kontinuierlich; in Bremen noch gemäßigt um rund 8 %, im von Wirtschaftskrisen betroffenen Bremerhaven sehr stark um 21,5 %. Allerdings nimmt Einwohnerzahl in der Stadt Bremen seit 2001 wieder zu. Ausländeranteil. 1961 lag der Ausländeranteil an der Bevölkerung in der Freien Hansestadt Bremen wie auch in den beiden Stadtgemeinden bei 1 %, 1970 belief er sich auf 3,3 %, 1980 auf 6,9 % und 1990 auf 10 % wobei der Anteil in der Stadtgemeinden Bremen und Bremerhaven bei 10,4 % bzw. 8,4 % lag. Bis 2006 ist der Ausländeranteil auf Landesebene auf 12,4 %, wobei der Anteil in Bremen bei 12,9 % und in Bremerhaven bei 10 % lag, gestiegen. Umlandentwicklung. Beachtlich und überproportional ist das Bevölkerungswachstum der unmittelbaren Nachbargemeinden der beiden Städte. Geschichte. Landgebiete der Reichsstadt Bremen (rote Schrift) im 14. bis 18. Jh., dazu das Weserdelta Name. Der Name Bremen (lateinisch "Brema") könnte soviel bedeuten wie "am Rande liegend" (altsächsisch "Bremo" bedeutet "Rand" bzw. "Umfassung") und bezieht sich möglicherweise auf den Rand der Bremer Düne. Der Stadt- bzw. Staatsname wandelte sich. Im Mittelalter bezeichnete sich die Stadt als "civitas Bremensis", also als Stadt Bremen und dieses auch noch nach 1646. Wenn die verfassungsrechtliche Stellung Bremens betont werden sollte, führte sie nach dem Erhalt der Reichsstadturkunde (Linzer Diplom) ab 1646 den Titel "Kayserliche und deß heiligen Römischen Reichs Freye Stadt (und Ansestadt) Bremen". Nach der Kaiserzeit wurde Bremen ab 1806 bzw. dann 1815 als souveräner Staat im Deutschen Bund zur "Freyen Hansestadt Bremen" bzw. ab 1871 als Bundesstaat im Deutschen Kaiserreich zur "Freien Hansestadt Bremen". Zwischen 1810 und 1813 wurde Bremen als "Bonne ville de l’Empire français" des Französischen Kaiserreichs bezeichnet. Seit 1949 ist das Land Bremen die "Freie Hansestadt Bremen" in der Bundesrepublik Deutschland. Mittelalter und Frühe Neuzeit. Nach der Gründung des Bistums Bremen entstand die heutige Stadt Bremen neben dem Bischofssitz, der Domburg, zunächst als Marktort, dann als Stadt unter der Hoheit der Bischöfe. Durch das Gelnhauser Privileg von 1186 unterstellte Kaiser Friedrich I. Barbarossa die Stadt der "iustitia imperialis", „kaiserlichen Gerechtigkeit“. Seither unterstand Bremen als städtisches Gemeinwesen in weltlichen Dingen eigentlich nicht mehr dem Erzbischof. Diese Weichenstellung in Richtung Freie Reichsstadt geschah allerdings zu einem Zeitpunkt, da die Position der Bürger gegenüber dem Erzbischof noch schwach war und ein anderer Konflikt im Vordergrund stand; Heinrich der Löwe war 1181 nach England ins Exil gegangen, nachdem ihm wegen seiner Opposition gegen Kaiser Friedrich I. die Herzogswürde über das Stammesherzogtum Sachsen (und ebenso Bayern) entzogen worden war. Die Herzogswürde für dessen westlichen Teil bis zur Weser war dem Erzbischof von Köln übertragen worden, die für den Osten den Askaniern. Zu den in der Urkunde erwähnten Zeugen gehörten aus Bremen bezeichnenderweise nur der Erzbischof und der Vogt, aber kein Vertreter der Bürger. Fortan schwankte das Verhältnis zwischen der Stadt auf der einen Seite, Erzbischof und Domkapitel auf der anderen Seite laufend zwischen Gleichberechtigung und Bevormundung, zwischen Kooperation und Konkurrenz. Der Bremer Erzbischof Gerhard II. zur Lippe versuchte, mit der Witteborg die Unterweser zu kontrollieren, und erlitt dabei 1222 eine militärische Niederlage durch die Stadt, die diese Burg eroberte und zerstörte. Eine Bedrohung für die Emanzipation der Stadt bildete die "Konstitution von Ravenna" Kaiser Friedrichs II. von 1232, in der er, wohl vor Allem wegen seiner Konflikte mit italienischen Städten, die Selbstbestimmung der Bischofsstädte und sogar die Zünfte verbieten wollte. Erzbischof Gerhard II. suchte damals allerdings zunächst die Unterstützung der Bürger für seinen Stedingerkrieg. Dafür gewährte er ihnen 1233 steuerliche und rechtliche Erleichterungen und sicherte der Stadt zu, gegen ihren Willen keine Burgen mehr an der Weser zu bauen. Der Vertrag wurde sogar durch Friedrichs Sohn und Mitregenten Heinrich VII. betätigt. Erst nach dem Sieg über die Stedinger ging der Erzbischof 1246 mit seinen "Gerhardschen Reversalen" daran, die Stadt an die kurze Leine zu nehmen. Unter anderem wurden „die Bürgermeister und die Gemeinde aller Bürger“ genötigt, die "wilcore" genannten ersten eigenständigen Statuten der Stadt zu widerrufen. Seine Anordnung, die erzbischöflichen Dienstmannen der städtischen Gerichtsbarkeit zu entziehen, trug wohl mit dazu bei, dass ein halbes Jahrhundert später aus einem einzelnen Streitfall heraus der erzbischöfliche Palast von Bürgern gestürmt wurde und in Flammen aufging. Mit dem seit 1303/09 kodifizierten Bremer Stadtrecht schuf sich die Stadt dann dauerhaft ein eigenes Rechtssystem. Aber völlig beendet war die Bevormundung noch lange nicht. Das Privileg Karls V. von 1541 erlaubte es zwar den städtischen Amtsträgern, sich in der Rechtsprechung über den erzbischöflichen Vogt hinwegzusetzen, aber dessen Amt blieb noch bestehen. Der Hanse trat Bremen relativ zögerlich bei. Die Mitgliedschaft war zudem mehrmals gefährdet. Teilweise ging Bremen, um es sich nicht ganz mit den Friesen zu verderben, nicht energisch genug gegen Seeräuber vor. Teilweise kam es durch Bürgermeister anderer Hansestädte zu negativen Reaktionen, wenn ihnen bekannte Bremer Bürgermeister entmachtet wurden. Die von der Stadt erworbenen Landgebiete gehören heute großenteils zur Stadtgemeinde Bremen, sofern sie nicht im 17. Jahrhundert wieder verloren gingen. Manche, wie etwa das Vieland, waren zunächst von Stadt und Domkapitel gemeinsam regiert worden. Versuche der Stadt, ihre Macht entlang der Unterweser auszudehnen, erlitten schwere Rückschläge wie den Verlust der Vredeborg. Erst im 17. bzw. 19. Jahrhundert gelang es, Vegesack und Bremerhaven als Vorhäfen zu gründen – beide wurden dringend gebraucht, weil die Unterweser versandete und immer schwieriger mit Seeschiffen zu befahren war. Das Erzbistum dagegen erwarb weltlichen Territorialbesitz in größerer Entfernung von der Stadt. Schließlich beherrschte es große Teile des Elbe-Weser-Dreiecks. Dieses Gebiet gehört nicht zu den Vorläufern der heutigen Freien Hansestadt Bremen. Die Erzbischöfe residierten zunehmend nicht mehr in Bremen, sondern in Bremervörde. Infolge der Reformation wurde dieses Erzstift Bremen säkularisiert und auf dem Westfälischen Frieden 1648 zum Herzogtum Bremen. Zusammen mit dem Herzogtum Verden kam es im Umweg über schwedische und dänische Hoheit schließlich zum Kurfürstentum Braunschweig-Lüneburg, dem späteren Königreich Hannover. Innerhalb der Bremer Stadtbefestigung besaß das Erzstift und spätere Herzogtum Bremen die Domfreiheit. 19. Jahrhundert. Beim Reichsdeputationshauptschluss von 1803, drei Jahre vor der Auflösung des Heiligen Römischen Reiches, war Bremen eine der sechs Reichsstädte, die nicht mediatisiert wurden, sondern ihre Eigenständigkeit behielten. Außerdem gewann es die bis dahin mit dem Herzogtum Bremen unter hannöverscher Hoheit stehende Domfreiheit zurück. Nach der Annexion Nordwestdeutschlands durch das napoleonische Frankreich war Bremen von 1811 bis 1814 Hauptstadt des französischen Departements der Wesermündungen ("Département des Bouches du Weser"). Von 1815 bis 1866 war Bremen im Deutschen Bund ein souveräner Staat. Wegen der Versandung der Weser wurde 1827 ein zweiter Vorhafen gegründet, aus dem die Stadt Bremerhaven entstand. Nach der 49 gab sich Bremen 1849 eine liberale Verfassung, die 1854 durch eine konservative Verfassung mit einem Achtklassenwahlrecht abgelöst wurde. Von 1866 bis 1871 war Bremen ein Gliedstaat im Norddeutschen Bund und bis 1918 im Deutschen Kaiserreich. Bremer Räterepublik. Die Freie Hansestadt Bremen seit 1800 Am Ende des Ersten Weltkriegs übernahm im Zuge der Novemberrevolution ein Arbeiter- und Soldatenrat am 15. November 1918 die Macht in Bremen, oberstes Organ der Exekutive wurde jedoch ein gemeinsamer Ausschuss von Rätevertretern und Senatoren. Die Bremer Räterepublik, erst am 10. Januar 1919 ausgerufen, wurde am 4. Februar desselben Jahres durch eine vom Rat der Volksbeauftragten des Reiches angeordnete militärische Intervention beendet. Weimarer Republik. Danach wurde eine provisorische Regierung des Stadtstaates eingesetzt. Diese ließ am 9. März 1919 in allgemeiner und freier Wahl die Bremer Nationalversammlung wählen, die 1920 eine neue, parlamentarische Landesverfassung verabschiedete, mit einem allgemeinen und gleichen Wahlrecht. Damit hatte sich auch das Frauenwahlrecht durchgesetzt. Nationalsozialismus. Mit dem Regierungsantritt der NSDAP in der Freien Hansestadt Bremen am 6. März 1933, einen Tag nach der Reichstagswahl, begann die Phase Bremens im Nationalsozialismus. Die zwölfjährige Zeit war geprägt durch Unterdrückung und Verfolgung von Demokraten und Minderheiten. Es wurden mehrere Arbeitslager errichtet, in denen Kriegsgefangene und Regimegegner unter schwersten Bedingungen Zwangsarbeit leisten mussten und dabei zu tausenden ihr Leben verloren. Wie die übrigen deutschen Länder verlor die Freie Hansestadt Bremen durch das Gesetz über den Neuaufbau des Reichs vom 30. Januar 1934 ihre staatlichen Hoheitsrechte. Als Hansestadt Bremen wurde das Land dem "Gau Weser-Ems" unter dem Gauleiter Carl Röver zugeteilt. Durch die "Vierte Verordnung über den Neuaufbau des Reichs" vom 28. September 1939 musste die Hansestadt Bremen die Stadtgemeinde Bremerhaven mit Ausnahme der dortigen Häfen an die preußische Provinz Hannover abtreten. Bremerhaven wurde so ein Teil von Wesermünde, welches 1924 aus Geestemünde und Lehe gebildet worden war. Im Austausch dafür bekam die Hansestadt Bremen große Teile des Kreises Blumenthal, wodurch Bremen-Nord seine heutige Ausdehnung gewann. Dazu kamen noch Hemelingen, Arbergen und Mahndorf. Zweiter Weltkrieg. Im Zweiten Weltkrieg kam es in Bremen (173 Luftangriffe) und in Wesermünde (52 Angriffe) zu schweren Zerstörungen. In Bremen war schließlich 59 % der städtebaulichen Substanz zerstört. In Wesermünde betrug der Anteil 56 %, wobei Alt-Bremerhaven alleine fast vollständig zerstört war. Durch Luftkrieg kamen in Bremen rund 4.000 Menschen ums Leben, in Wesermünde mehr als 1.100 Menschen. Nach 1945. Nach Kriegsende wurde Bremen Hafen der Streitkräfte der USA. Die Hansestadt Bremen als auch die Stadt Wesermünde gehörten zur amerikanischen Besatzungszone und waren umgeben von der britischen Zone, wobei Wesermünde vom Jahreswechsel 1945/46 bis zum 31. März 1947 zwischenzeitlich zur britischen Zone gehörte und am 10. März 1947 zu Bremerhaven umbenannt wurde. Abgesehen von dieser offiziellen Zuordnung war Bremen zeitweise sowohl ein Teil der amerikanischen wie auch der britischen Zone. Dem Länderrat der amerikanischen Zone gehörte die Hansestadt Bremen an, solange dieser bestand. Im ersten Zonenbeirat der britischen Zone (6. März 1946 bis 30. April 1947) mit sechs Ländervertretern und zehn Ressortvertretern wurde der Vertreter der vier kleineren Länder turnusgemäß auch von der Hansestadt Bremen gestellt, im zweiten Zonenbeirat der britischen Zone (10. Juni 1947 bis 29. Juni 1948) aus 37 Länderdelegierten war die Hansestadt Bremen nicht mehr vertreten. Indem die Hansestadt Bremen und die Stadt Bremerhaven in ihren Grenzen von 1939 nach Kriegsende zur Amerikanischen Exklave und da heraus zur Freien Hansestadt Bremen wurden, umfasst der Zwei-Städte-Staat seit seiner Neukonstitution im Januar/Februar 1947 ein größeres Territorium als zur Zeit des Deutschen Reiches (1871: 255,25 km², 1939: 325,42 km², 1947: 404,28 km²). Heute. Seit Gründung der Bundesrepublik ist es eine Konstante der Bremer Politik, die Selbständigkeit als Stadtstaat zu erhalten. Wirtschaftspolitisch ist seit den 1970ern eine Umstrukturierung zu meistern. Der Niedergang der Werftenindustrie (AG Weser, Bremer Vulkan) und ein Bedeutungsrückgang der stadtbremischen Häfen, machte es erforderlich, weitere wirtschaftliche Standbeine zu finden und ein Profil als Wirtschafts- und Wissenschaftsstandort mit Schwerpunkten in der Luft- und Raumfahrttechnik sowie in der Logistik zu schärfen. Nach der Einkommensteuerreform von 1970 werden Steuern nunmehr nicht mehr an den Arbeitsstandort, sondern an den Standort des Wohnsitzes des Steuerpflichtigen abgeführt. Die zunehmende Anzahl der im niedersächsischen Umland wohnenden und dort steuerzahlenden bremischen Beschäftigten (2006: 130.000; im Saldo von Bremen/Niedersachsen noch 100.000 Beschäftigte) führt zu einer Finanzkrise, die Bremens Selbständigkeit bedroht. 1986 bzw. 1992 hat das Bundesverfassungsgericht zwar beschlossen, dass die Steuergesetzgebung so erfolgen muss, dass der „Andersartigkeit der Stadtstaaten“ Rechnung getragen wird. Außer den vorübergehenden Zuwendungen des Bundes von 1994 bis 2004 in Höhe von 8,5 Milliarden Euro und seit etwa 2008 bis 2016 in Höhe von 2,7 Milliarden Euro erfolgte jedoch noch keine dauerhafte Regelung zur Behebung des Haushaltsnotstandes. Durch den Staatsvertrag mit Niedersachsen zur Luneplate vom 5. Mai 2009, der am 1. Januar 2010 in Kraft getreten ist, wuchs die Fläche des Bundeslandes um 14,95 km² auf 419,23 km². Staatsaufbau. Laut der Verfassung der Freien Hansestadt Bremen führt der Bremische Staat den Namen Freie Hansestadt Bremen und ist Glied der deutschen Republik und Europas (Art. 64 BremLV). Laut Art. 65 bekennt sich der Bremische Staat zu Demokratie, sozialer Gerechtigkeit, Freiheit, Schutz der natürlichen Umwelt, Frieden und Völkerverständigung. Alle Macht geht in Bremen vom Volke aus. Aufbau und Struktur. Die Legislative bildet die Bremische Bürgerschaft. Sie ist mit 83 Abgeordneten das Landesparlament und als Stadtbürgerschaft mit den 68 Bremer Abgeordneten zugleich für die kommunalen Angelegenheiten der Stadtgemeinde Bremen zuständig. Die Mitglieder der Bürgerschaft werden in den Wahlbereichen Bremen und Bremerhaven auf vier Jahre gewählt. Außerdem steht die Legislative dem Volke in Volksabstimmungen zu. Für die kommunalen Angelegenheiten der Stadt Bremerhaven ist die Bremerhavener Stadtverordnetenversammlung mit 48 Stadtverordneten zuständig. Parteien. Bremen ist seit Kriegsende das einzige Bundesland, in dem die SPD bei jeder Landtagswahl zur stärksten Partei gewählt wurde, immer an der Regierung beteiligt war und seit Juli 1945 immer den Präsidenten des Senats stellt. Die Wahlergebnisse der CDU lagen bei jeder Wahl unter ihrem Bundesdurchschnitt. Zwischen 1946 und 1967 waren noch die Deutsche Partei (DP) und von 1951 bis 1955 der BHE bzw. Bund der Heimatvertriebenen und Entrechteten (GB/BHE) in der Bürgerschaft vertreten. Beide Parteien gingen in der CDU auf. Die liberale Bremer Demokratische Volkspartei (BDV) mit Bürgermeister Theodor Spitta war zwischen 1945 und 1951 eine einflussreiche bürgerliche Partei. Sie wurde 1951 Teil der FDP. Seit Mitte der 1990er Jahre liegen die Resultate der FDP meist unter denen anderer Bundesländer. Die KPD war von 1947 bis 1956 in der Bürgerschaft vertreten. Die DKP erzielte 1971 mit 3,1 % ihr bestes Landtagswahlergebnis in Bremen. Bei der Bürgerschaftswahl in Bremen 2007 kam die Linke mit 8,4 % erstmals in ein westdeutsches Landesparlament. 1979 gelang der Bremer Grünen Liste, Vorläuferpartei der Grünen, der Einzug in die Bremische Bürgerschaft. Den Grünen gelangen seit 1987 (mit Ausnahme von 1999) stets Wahlergebnisse im zweistelligen Bereich. Begünstigt durch die Struktur als Stadtstaat und das Wahlrecht, bei dem beide Städte getrennte Wahlgebiete mit getrennt geltender Fünf-Prozent-Hürde bilden, erzielten auch Splitterparteien außerhalb des linken Spektrums meistens gute Ergebnisse. So hatte die rechtsextreme DVU – insbesondere in Bremerhaven – höheren Zulauf, der ab 1987 einen Sitz und ab 1991 für Fraktionsstärke in der Bürgerschaft reichte. Nach dem die DVU 1995 nicht mehr in der Bürgerschaft vertreten war, gelang der Einzug wieder 1999 aufgrund der Überwindung der Fünf-Prozent-Hürde in Bremerhaven mit einem Sitz bis zum Jahr 2011. Von 1995 bis 1999 war die als rechte SPD-Abspaltung hervorgegangene Partei Arbeit für Bremen und Bremerhaven mit 10,7 % und zwölf Abgeordneten in der Bürgerschaft vertreten. Der Partei Rechtsstaatlicher Offensive gelang 2003 ein Wahlergebnis von landesweit 4,4 %, wobei mit 4,8 % in Bremerhaven der Einzug in die Bürgerschaft knapp misslang. Die rechtspopulistische Wählergemeinschaft Bürger in Wut zog vier Jahre später mit 5,29 % Stimmenanteil in Bremerhaven mit einem Mandat in die Bürgerschaft ein. Exekutive – Landesregierung. Die Exekutive bildet der Senat der Freien Hansestadt Bremen: Er ist die Landesregierung der Freien Hansestadt Bremen. Die einzelnen Senatsmitglieder werden von der Bürgerschaft mit der Mehrheit der abgegebenen Stimmen für die Dauer der Wahlperiode der Bürgerschaft gewählt. Dabei wird zunächst der Präsident des Senats in einem gesonderten Wahlgang in geheimer Abstimmung gewählt. Zu weiteren Mitgliedern des Senats können Staatsräte, deren Zahl ein Drittel der Zahl der Senatoren nicht übersteigen darf, auf Vorschlag des Senats gewählt werden (Art. 108). Im Vergleich zu den anderen Landesregierungen ist der Charakter des Senats als Kollegialorgan ausgeprägt; der Präsidenten des Senats hat keine formale Richtlinienkompetenz. Die Senatsmitglieder können nicht gleichzeitig der Bürgerschaft angehören. Bremen. Die kommunalen Organe der Stadtgemeinde Bremen sind mit den staatlichen Organen der Freien Hansestadt Bremen weitgehend personalidentisch. Die im Wahlbereich Bremen gewählten Abgeordneten der Bremischen Bürgerschaft sind gleichzeitig Mitglieder der kommunalen Volksvertretung Bremens (Stadtbürgerschaft); Verschiebungen können sich dadurch ergeben, dass EU-Ausländer nur auf die Zusammensetzung der Stadtbürgerschaft, nicht aber auf die Zusammensetzung des Landesparlaments Einfluss nehmen können. Der Senat des Landes ist zugleich Organ der Stadtgemeinde Bremen. Bremerhaven. Das Landesrecht sieht in den Artikeln 145 bis 148 der Landesverfassung der Freien Hansestadt Bremen einen losen Rahmen für die Gemeindeverfassung vor. Bremerhaven hat sich gem. Artikel 144 der Landesverfassung durch das "Ortsgesetz der Stadt Bremerhaven" vom 4. November 1947 die "Verfassung der Stadt Bremerhaven" gegeben. Die Stadtverordnetenversammlung der Stadt beschließt über alle Stadtangelegenheiten. Die Aufsicht der Freien Hansestadt Bremen beschränkt sich gem. Artikel 147 „auf die Gesetzmäßigkeit der Verwaltung“ (Rechtsaufsicht). Bremerhaven besitzt als Spitze der Verwaltung einen Magistrat mit einem Oberbürgermeister, dem Bürgermeister als Stellvertreter und den Stadträten. Bremerhaven hat einige Gestaltungsrechte zum Beispiel im Schul- und Polizeiwesen, die in anderen Bundesländern auf Landesebene ausgeübt werden. Judikative – Richter. Die Judikative, die richterliche Gewalt, wird von unabhängigen Richtern ausgeführt (Art. 135). Die Mitglieder der Gerichte werden von einem Ausschuss gewählt, der aus drei Mitgliedern des Senats, fünf Mitgliedern der Bürgerschaft und drei Richtern gebildet wird (Art. 136). Für Fragen, die die Bremische Verfassung betreffen, wurde ein Staatsgerichtshof eingerichtet. Der Staatsgerichtshof besteht aus dem Präsidenten des Oberverwaltungsgerichts der Freien Hansestadt Bremen oder seinem Stellvertreter sowie aus sechs gewählten Mitgliedern, von denen zwei rechtsgelehrte bremische Richter sein müssen. Die gewählten Mitglieder werden von der Bürgerschaft unverzüglich nach ihrem ersten Zusammentritt für die Dauer ihrer Wahlperiode gewählt und bleiben im Amt, bis die nächste Bürgerschaft die Neuwahl vorgenommen hat. Bei der Wahl soll die Stärke der Fraktionen nach Möglichkeit berücksichtigt werden. Die gewählten Mitglieder dürfen nicht Mitglieder des Senats oder der Bürgerschaft sein. Wiederwahl ist zulässig (Art. 139). Länderfusion und Verhältnis zu Niedersachsen. Die Abgrenzung zwischen Bremen und Niedersachsen wurde nach dem Zweiten Weltkrieg unter US-amerikanischer Militärregierung im Einvernehmen mit Bremen und dem Bremer Bürgermeister Wilhelm Kaisen gegenüber der Abgrenzung von 1938/39 verändert. Dabei wurde die angebotene Erweiterung des Umlandes aus politischem Kalkül nicht aufgegriffen. Immer wieder wird eine Fusion mehrerer norddeutscher Länder diskutiert. So wurde ein Zusammenschluss der Länder Niedersachsen und Bremen thematisiert. Eine Fusion stößt traditionell und insbesondere in Bremen, jedoch auch in Niedersachsen, auf Ablehnung. Zwischen Bremen und Niedersachsen kam es wiederholt zu Irritationen, die häufig auf von Bremer Seite als ungünstig empfundene Aspekte der Raumordnungs- und Wirtschaftsplanung niedersächsischer Umlandkommunen basierten, in denen große Gewerbegebiete in Konkurrenz zur Bremer Wirtschaft entstanden. Aber auch sogenannte „Bremer Alleingänge“ in der Infrastrukturplanung wurden kritisiert. Bremen in Europa. Mit der Verbindung zur Europäischen Politik und Verwaltung ist die Europaabteilung der Bevollmächtigten der Freien Hansestadt Bremen beim Bund, für Europa und Entwicklungszusammenarbeit betraut. Staatsrätin für Bundes- und Europaangelegenheiten und für Entwicklungszusammenarbeit ist Ulrike Hiller (SPD). Bremen wird durch die beiden Abgeordneten Joachim Schuster (SPD) und Helga Trüpel (B90/Die Grünen) im Europäischen Parlament vertreten. Das Land Bremen erhält Förderungen aus den Strukturfonds der Europäischen Union, dem Europäischen Sozialfonds (ESF). Dieser wird vom Senator für Wirtschaft, Arbeit und Häfen verwaltet. Mit den Mitteln werden in Programme und Projekte in Bremen und Bremerhaven zur Armutsbekämpfung und sozialräumliche gezielte Beschäftigungsförderung (BAP) durchgeführt. Hoheitszeichen. Bremen besitzt insgesamt vier Staatsflaggen. Die Staatsflagge mit mittlerem Wappen unterscheidet sich von der mit Flaggenwappen zusätzlich durch die Anzahl ihrer Streifen. Das Flaggenwappen auf der Staatsflagge ist nicht mit dem großen Landeswappen zu verwechseln. Die Behörden greifen meist auf eine Flagge mit Wappen zurück. Die Staatskanzlei Bremen kam dem Wunsch von Privatpersonen, Vereinen und Unternehmen, ihre Zugehörigkeit oder Verbundenheit zu „ihrem Land“ zu dokumentieren, mit einem eigens entwickelten Wappenzeichen nach, da die Landeswappen an sich ausschließlich von den Behörden geführt werden dürfen. Senatsmedaillen. Orden zu verleihen oder zu tragen ist nicht bremischer Brauch. In Bremen gibt es aber verschiedene Ehrenmedaillen. Hafen- und Seewirtschaft. → "siehe Hafen- und Seewirtschaft" Aufgrund der Bremerhaven ist das Land Bremen Deutschlands Außenhandelsstandort Nummer zwei, gleich nach Hamburg. Die Palette der verschiedenen Handelsgüter die hier im- und exportiert werden, erstreckt sich von Fisch-, Fleisch- und Molkereiprodukten über traditionelle Rohstoffe wie Tee, Baumwolle (siehe Bremer Baumwollbörse), Reis und Tabak bis hin zu Wein und Zitrusfrüchten. Besondere Bedeutung besitzt Bremen für den Kaffeeimport und den Autoexport. Der Seehafen Bremerhaven ist mit Abstand der weltweit größte Umschlagplatz für Automobile. Große Unternehmen. In Bremen befinden sich ein Daimler-Werk, Airbus-Produktion und Raumfahrt- (EADS, OHB Technology) sowie Lebensmittelindustrie (Kraft Foods, Hachez, Brauerei Beck & Co., Kellogg’s, Melitta-Kaffee). Wirtschaftsleistung. Verglichen mit dem Bruttoinlandsprodukt der Europäischen Union erreichte Bremen 2006 einen Index von 156,9 (EU-27: 100). 2014 betrug die Wirtschaftsleistung in der Freien Hansestadt Bremen gemessen am Bruttoinlandsprodukt rund 30 Milliarden Euro. Bremen hat die höchste Pro-Kopf-Verschuldung aller deutschen Bundesländer. Bremerhaven ist ein wichtiger Standort der Offshore-Windenergie-Aktivitäten in Deutschland. Energieversorgung. In der Freien Hansestadt Bremen werden mehrere Kraftwerke mit fossilen Brennstoffen betrieben, die auch das niedersächsische Umland mit elektrischem Strom versorgen. In den beiden Städten Bremen und Bremerhaven ist jeweils eine Müllverbrennungsanlage in Betrieb, deren Abwärme für Fernheizung genutzt wird. Bereits in den 1990er Jahren begann die Entwicklung der Erneuerbaren Energien. Bis 2013 wurden im Land selbst und in den umliegenden niedersächsischen Gemeinden Windkraftanlagen mit einer Gesamtleistung von rund 195 MW angeschlossen, womit die Region hinsichtlich der Leistung pro Fläche eine Spitzenstellung in Deutschland einnimmt. Nach Angaben der Bundesnetzagentur waren Ende 2012 in der Freien Hansestadt Bremen 77 Windkraftanlagen mit einer Leistung von insgesamt 149 MW in Betrieb, was etwa 355 kW je km² Landesfläche bedeutet. Schiffsverkehr. Bremen und Bremerhaven bilden zusammen den zweitgrößten Seehafen Deutschlands. Schwerpunkte sind hierbei insbesondere der Autoumschlag, Containerterminal und Fischereihafen in Bremerhaven sowie der Neustädter Hafen in Bremen. Im der Freien Hansestadt Bremen bestehen mehrere Fährverbindungen über die Weser. Diese Verbindungen bestehen zwischen Bremerhaven und Nordenham, zwischen Bremen-Farge und Berne, zwischen Bremen-Blumenthal und Motzen, sowie zwischen Bremen-Vegesack und Lemwerder. Eisenbahn. Bremen und Bremerhaven sind durch eine elektrifizierte zweigleisige Haupteisenbahnlinie miteinander verbunden. Von Bremen Hauptbahnhof aus führen ferner Verbindungen nach Hamburg, Hannover, Uelzen, ins Ruhrgebiet, nach Delmenhorst–Oldenburg/–Osnabrück/-Nordenham und in den Stadtteil Vegesack, von wo aus die Farge-Vegesacker Eisenbahn den Stadtteil Blumenthal erschließt. Von Bremerhaven Hauptbahnhof aus führen Eisenbahnverbindungen nach Cuxhaven und nach Bremervörde/Hamburg. Der Bremer Hauptbahnhof ist in die zweithöchste deutsche Bahnhofskategorie eingestuft. Insgesamt gibt es in der Freien Hansestadt Bremen 27 Haltepunkte der Eisenbahn für den Personenverkehr sowie mehr als zehn Güter- und Rangierbahnhöfe. Bis 2001 war die Freie Hansestadt Bremen in das Fernverkehrsnetz der Deutschen Bahn eingebunden. Seitdem ist nur noch der Hauptbahnhof Bremen für den nationalen und internationalen Fernverkehr erreichbar, die übrigen Verbindungen gehören zum Regionalverkehr. Die Hauptbahnhöfe Bremen und Bremerhaven sind Durchgangsbahnhöfe. Straßen. Beide Landesteile werden durch die Autobahn A 27 miteinander verbunden. Im Norden der Stadt Bremen verläuft die A 270 und im Stadtgebiet selbst ist derzeit der weitere Ausbau der A 281 geplant. Ferner tangiert die A 1 die Stadt Bremen. Die Freie Hansestadt Bremen ist das erste und bisher einzige Bundesland mit einem durchgehenden Tempolimit von 120 km/h auf den durch das Hoheitsgebiet führenden Autobahnen. Flugverkehr. Das Land Bremen verfügt über zwei Flugplätze. In Bremen-Neuenland befindet sich der internationale Flughafen Bremen, in Bremerhaven-Luneort ein kleinerer, der Verkehrslandeplatz Bremerhaven-Luneort. Der Flugplatz in Bremerhaven soll allerdings aufgegeben werden, um zusätzliche Flächen für die Windkraftindustrie zu erschließen. Bildung, Wissenschaft und Forschung. Bremen und Bremerhaven wurden vom Stifterverband für die Deutsche Wissenschaft zur "Stadt der Wissenschaft 2005" gewählt. Sport. → "Sportanlagen und Sportvereine sind zu finden in den Artikeln zu den Stadt- bzw. Ortsteilen von Bremen und Bremerhaven." Der Sport in der Freien Hansestadt Bremen wird in rund 450 Bremer und Bremerhavener Sportvereinen mit rund 160.000 Mitgliedern betrieben. Er wird vertreten durch den Landessportbund Bremen (LSB) als Dachverband, den Kreissportbünden Bremen, Bremen-Nord und Bremerhaven und den um die 50 Sportfachverbänden. Der Breitensport ist ein besonderes Anliegen. Organisatorisch sind Bremer und Bremerhavener Sportvereine oft eng mit denen aus Niedersachsen verzahnt. Der älteste, noch bestehende Verein Vorwärts in Bremen wurde 1846 als Arbeiterbildungsverein von Zigarrenmachern gegründet und hatte seinen Sitz von 1853 bis 1973 im Haus Vorwärts. Der älteste Verein in Bremerhaven wurde 1859 vom Pädagogen Dr. Justus Lion als Turnverein Bremerhaven gegründet, woraus 1919 der ATS Bremerhaven (ATSB) und 1972 der OSC Bremerhaven mit rund 4.500 Mitgliedern (2013) hervorging. Der größte und erfolgreichste Verein in Bremen ist der SV Werder Bremen mit rund 40.000 Mitgliedern (2013), gefolgt von Bremen 1860 mit ca. 6.000 Mitgliedern (1995). Religion. Nach einer Statistik der Evangelischen Kirche in Deutschland gehörten 53,6 % der Bremer im Jahre 2009 einer der beiden großen christlichen Religionsgemeinschaften an. Evangelische Kirche. Die Mehrheit der christlich gebundenen Bevölkerung bekennt sich zur evangelischen Kirche (Bremische Evangelische Kirche in Bremen und Bremerhaven-Mitte). Diese Landeskirche hat sowohl eine lutherische wie auch eine reformierte Tradition und ist somit eine unierte Kirche. Daneben gehören viele Christen in den übrigen Teilen Bremerhavens, die früher zum Königreich Hannover gehörten, zur Evangelisch-lutherischen Landeskirche Hannovers. 2009 gehörten 40,2 % zu einer Gliedkirche der EKD. Katholische Kirche. Die römisch-katholischen Christen gehören zum Dekanat Bremen des Bistums Osnabrück (Bremen/südlich der Lesum) und zu den Dekanaten Bremerhaven und Bremen Nord des Bistums Hildesheim (Bremerhaven und Bremen Nord/nördlich der Lesum). Der Anteil der Katholiken beläuft sich insgesamt auf 12,2 %. Altkatholische Kirche. Es gibt eine Gemeinde der Altkatholischen Kirche, die zur Theresiendomgemeinde in Nordstrand gehört. Altkatholische Messen werden in der römisch-katholischen Kirche am Krankenhaus St.-Joseph-Stift abgehalten. Freikirchen. Daneben gibt es in Bremen noch eine Reihe von Freikirchen, darunter die Apostolische Gemeinschaft, die Neuapostolische Kirche und die Siebenten-Tags-Adventisten. Zeugen Jehovas. Ebenso sind die Zeugen Jehovas mit Gemeinden im Stadtgebiet vertreten. Judentum. In Bremen-Schwachhausen befindet eine Synagoge. In Hastedt ist der alte Jüdische Friedhof Deichbruchstraße und am Riensberg zwischen der H.-H.-Meier-Allee und der Beckfeldstraße (Zugang) wurde im November 2008 der neue Jüdische Friedhof fertig gestellt. In Bremerhaven gibt es die "Jüdische Gemeinschaft Bremerhaven". Islam. Die Muslime sind in eine Vielzahl von Gemeinden und Vereinen organisiert. Die größte Moschee ist die "Fatih-Moschee" in Bremen - Gröpelingen. In Bremerhaven befinden sich u.a. die Moschee "Merkez Camii" in Lehe. Sonstige. Schließlich leben in Bremen Angehörige asiatischer Religionsgemeinschaften in weniger festgefügten Organisationsformen, z. B. Buddhisten. Einzelnachweise. Bremen Bremen Bremen Bremen Bremen Bremen Baseball. Baseball (amerikanischer Schlagball) ist eine Ball- und Mannschaftssportart US-amerikanischer Herkunft. Ziel des Spiels ist es, mehr Punkte (Runs) zu erzielen als der Gegner. Das Spiel ist nach neun Durchgängen (Innings) beendet. Verbreitung. Baseball ist die traditionsreichste US-amerikanische Sportart. Baseball wird heute in zahlreichen weiteren Ländern betrieben, besonders intensiv in Ostasien und der Karibik, aber auch in Deutschland, Österreich und der Schweiz. Spielprinzip und grundsätzliche Regeln. "Es folgen die wichtigsten Regeln und eine Zusammenfassung des Spielprinzips. Mehr Details enthält der Artikel Baseballregeln." Das Spiel Brennball ist eine stark vereinfachte Variante von Baseball und kann als Ausgangspunkt für das Verständnis des Baseballs dienen. Auch Cricket ist, trotz vieler Abweichungen im Detail, relativ eng mit dem Baseball verwandt. Baseball wird von zwei Teams zu je neun Spielern gespielt. Mehrfach abwechselnd hat ein Team das Schlagrecht "(Offense)" und kann "Runs" (Punkte) erzielen, während das andere Team in der Verteidigung "(Defense)" das Feld verteidigt und den Ball schnell unter Kontrolle zu bringen versucht. Ziel des Spiels ist es, mehr "Runs" zu erzielen als der Gegner. Die Spieler der "Offense" versuchen, den von der "Defense" geworfenen Ball zu schlagen und anschließend gegen den Uhrzeigersinn den nächsten sicheren Standpunkt "(Base)" zu erreichen. Wenn die Spieler der "Defense" den Ball schneller unter Kontrolle bringen, können sie dies verhindern und der Spieler der "Offense" scheidet aus. Wenn ein Spieler der "Offense" den Ball nicht trifft oder sich nicht auf einer "Base" befindet, kann er durch Berührung mit dem Ball aus dem Spiel genommen werden "(out)". Ein "Run" wird erzielt, wenn ein Spieler der Offense alle drei Bases passiert und seinen Ausgangsstandpunkt "(Home Plate)" wieder erreicht hat. Wenn vom Team der Offense drei Spieler "out" sind, wechseln beide Mannschaften. Ein Durchgang (eine Mannschaft spielt Offense und Defense) wird als "Inning" bezeichnet. Nach neun Innings endet das Spiel. Spielfeld. Das Spielfeld besteht aus zwei Teilen und wird in der Regel durch eine Umzäunung begrenzt. Das so genannte "Fair Territory" hat normalerweise etwa die Form eines Viertelkreises, dessen gerade Kanten als Seitenauslinien "(Foul Lines)" zwischen 90 und 120 Meter lang sind. Der Bereich außerhalb der "Foul Lines" wird als "Foul Territory" bezeichnet (in der nebenstehenden Zeichnung blau dargestellt). Die meisten Aktionen finden im "Infield" statt (in der Zeichnung oliv), einem Quadrat in der Spitze des Viertelkreises von 90 Fuß (27,43 m) Kantenlänge, dessen Ecken durch die drei "Bases" und die "Home Plate" markiert sind. Der Rest des "Fair Territories" heißt "Outfield" (in der Zeichnung grün dargestellt). Die Amerikaner nennen das Spielfeld wegen der Rautenform des "Infields" auch "Diamond" (Diamant, Raute, "Karo" bei Spielkarten). Innings und Spieldauer. Ein Spielabschnitt heißt Inning und besteht aus zwei "Half Innings" (Top & Bottom). Dabei ist im ersten Halbinning immer die Auswärtsmannschaft "Offense". Im zweiten Halbinning ist dann die Heimmannschaft am Schlag. Beide Mannschaften dürfen dabei in ihrem offensiven Halbinning jeweils so lange schlagen, bis drei ihrer Spieler ’out’ sind. Die Spieler der Offense treten in einer vor dem Spiel von ihrer Mannschaft festgelegten und den Schiedsrichtern bekanntgegebenen Reihenfolge (Batting Order) einzeln gegen den Pitcher an. Die Batting Order ist als eine Rotation zu verstehen, das heißt nach dem neunten Spieler der Batting Order geht wieder der erste Spieler an den Schlag. Dabei wird die Batting Order am Beginn eines Halbinnings nicht von vorne begonnen, sondern es schlägt der Spieler, der auf der Liste unter dem zuletzt (im vorigen Inning) schlagenden Spieler seiner Mannschaft steht. (Ausnahme: Das dritte "out" war ein anderer Runner, z. B. durch Pick-Off und der Batter selbst ist nicht "out". In diesem Fall ist der Batter im nächsten Inning wieder am Schlag.) Ein Spiel besteht im Regelfall aus neun solcher "Innings". Führt die Heimmannschaft am Ende des achten Innings, und erzielen die Gäste in ihrem Teil des neunten nicht genügend Runs, um mindestens gleichzuziehen, so wird auf das zweite Halbinning – welches ohnehin nur noch Ergebniskosmetik liefern könnte – verzichtet, und das Spiel ist entschieden. Steht es nach der festgelegten Zahl von Innings unentschieden, so wird so lange jeweils um ein weiteres volles Inning verlängert "(Extra Inning)", bis eine Mannschaft gewinnt oder das Wetter, der Mangel an Pitchern oder auf unbeleuchteten Plätzen die Dunkelheit zum Abbruch bzw. zur Unterbrechung des Spiels führen. Erläuterung zu einer typischen Boxscore-Anzeige im Baseballsport. In Japan und im "Spring Training" wird ein Spiel nach einer festgelegten Anzahl von Extra Innings als Unentschieden gewertet. In einigen Wettbewerben mit relativ großen Unterschieden in der Spielstärke der beteiligten Mannschaften – darunter die Olympischen Spiele – wird ein Spiel vorzeitig beendet, wenn eine Mannschaft eine bestimmte Anzahl von Runs in Führung liegt. Diese Regelung verhindert, dass die bessere Mannschaft übermäßig lange am Schlag bleibt, weil es der schlechteren Mannschaft nicht gelingt, innerhalb eines vernünftigen Zeitraums die nötigen drei 'out’ zu erzielen. In deutschen Ligen werden teilweise auch "Double Header" gespielt, also zwei Spiele hintereinander. Je nach Liga sind in Deutschland 2×5, 2×7, 1×7 oder 1×9 Innings üblich. Seit 2008 werden in der deutschen Bundesliga Double Header mit 2×9 Innings gespielt. In der US-amerikanischen "Major League Baseball" werden immer mindestens neun Innings gespielt (achteinhalb, wenn die Heimmannschaft in Führung liegt). Wenn ein Spiel abgesagt oder unterbrochen wird, etwa aufgrund schlechter Wetterverhältnisse, wird es an einem anderen Spieltag nachgeholt bzw. zu Ende gespielt, und zwar zusätzlich zu dem ursprünglich an diesem späteren Spieltag angesetzten Spiel (Double Header). Der Schiedsrichter entscheidet, ob ein Spiel wegen schlechter Wetterverhältnisse oder aus anderen Gründen abgesagt oder unterbrochen wird. In den Baseball-Ligen unterhalb der Major Leagues (die so genannten "Minor Leagues") werden Spiele hingegen unter bestimmten Umständen, etwa bei schlechten Wetterverhältnissen, vorzeitig beendet und die aktuell führende Mannschaft zum Sieger erklärt. Es müssen allerdings mindestens fünf Innings gespielt worden sein (viereinhalb, wenn die Heimmannschaft in Führung liegt), anderenfalls wird das Spiel auch hier unterbrochen und zu einem anderen Zeitpunkt fortgesetzt. Auch in den Minor Leagues werden abgesagte Spiele im Rahmen eines "Double Headers" nachgeholt, allerdings werden beide Spiele auf sieben Innings verkürzt. Wenn ein Spiel dagegen "unterbrochen" wird (dies geschieht beispielsweise dann, wenn weniger als fünf Innings gespielt wurden, aber das Spiel aufgrund schlechter Wetterverhältnisse nicht fortgesetzt werden kann), dann wird das unterbrochene Spiel an einem der darauf folgenden Spieltage zu Ende gespielt, und danach findet das ursprünglich angesetzte Spiel in voller Länge statt. In den Minor Leagues werden im Gegensatz zu den Major Leagues auch heute noch recht häufig Spiele wegen schlechten Wetters abgesagt oder unterbrochen. Dies liegt zum Teil daran, dass die Stadien schlechter ausgestattet sind (keine Überdachung, schlechtere Beleuchtung, schlechterer Windschutz) oder die Spielfelder eine schlechtere Qualität besitzen (der Boden weicht bei Regen leichter auf). Die Eintrittskarten der Zuschauer verlieren bei abgesagten Spielen nicht ihre Gültigkeit, sondern können für den nächsten Spieltag eingelöst werden. Pitcher vs. Batter. Pitcher (Mound) Batter (rechts unten) Im Mittelpunkt des Spiels steht das Duell zwischen einem Batter der "Offense" und dem Pitcher der Feldmannschaft. Die Spieler der "Offense" treten in einer vorher festgelegten Reihenfolge ("Batting Order" oder auch "Lineup" genannt) einzeln gegen den Pitcher an. Dieser versucht, den Ball aus gut 18 m so durch die Strike Zone zu seinem Catcher zu werfen, dass der "Batter" ihn mit seinem Schläger nicht oder nur schwach schlagen kann. Die "Strike Zone" ist der Bereich über der 43 cm breiten "Home Plate", der oben und unten durch Brust- und Kniehöhe des Batters begrenzt ist. Gelingt es dem Pitcher, dreimal in die Strike Zone zu werfen, ohne dass der Batter den Ball trifft, ist der Batter out (sogenanntes "Strike Out". Vom Schiedsrichter hört man in diesem Fall vielfach: „Strike three; he’s out.“). Für einen Strike muss der Ball allerdings nicht völlig verfehlt werden. Der Pitcher bekommt auch einen "Strike" zugesprochen, falls der Batter ein "Foul" schlägt. Wenn der Batter den Ball gerade noch eben – meist von unten – leicht trifft und dieser dann außerhalb des Spielfeldes aufkommt, etwa außerhalb der Seitenlinien, hinter der "Home Plate" oder auf der Tribüne, so ist dies ein "Foul" (dieser Begriff ist dabei nicht im Sinne einer Unsportlichkeit oder Regelwidrigkeit zu verstehen). Ein aus dem Stadion geschlagener Ball ist ebenfalls ein Foul, wenn er das Stadion nicht im Bereich des Spielfeldes, sondern links oder rechts davon verlassen hat. Der geschlagene Ball ist allerdings erst "Foul", wenn er außerhalb des Spielfelds den Boden berührt hat. Solange er sich in der Luft befindet, ist der Ball im Spiel und kann von einem Spieler der verteidigenden Mannschaft gefangen werden "(Fly out)". Dies kann zu spektakulären Situationen führen, wenn ein Spieler der verteidigenden Mannschaft bis zur Tribünenabsperrung läuft und hochspringt, um den Ball zu fangen, bevor er auf der Tribüne landet. Eine wichtige Ausnahme dieser Regelung ist, dass ein "Foul" niemals als dritter Strike und somit als "Strikeout" zählen kann. Schlägt der Batter beim Stand von zwei "Strikes" ein "Foul", bleibt es bei zwei "Strikes" und der Wurf wird wiederholt. Gesondert behandelt wird allerdings der so genannte "Foul tip". Ein "Foul tip" zählt im Gegensatz zum "Foul" immer als Strike. Dieser wird gegeben, wenn der Batter den Ball nur hauchdünn trifft, sodass er in einer Linie in Richtung des "Catchers" weiterfliegt und dann direkt von diesem gefangen wird. Der Ball darf nur minimal abgelenkt werden und muss als erstes den Handschuh des Catchers berühren. Fliegt der Ball durch einen stärkeren Treffer dagegen in hohem Bogen in die Luft, bevor der Catcher ihn fängt, handelt es sich um ein "Fly out". Trifft der Pitcher nicht in die "Strike Zone", so ist dies ein "Ball" (englische Aussprache). Hat allerdings der Batter bei einem solchen "Ball" geschlagen und diesen nicht getroffen, so zählt dies als "Strike" zu seinem Nachteil, obwohl die "Strike Zone" verfehlt wurde. Sieht der Batter indessen noch rechtzeitig, dass der Ball doch kein "Strike" sein wird, und hält mit dem Schwung ein "(Checked Swing)", so bleibt der Wurf ein "Ball". Der Schläger darf hierbei nur soweit geschwungen werden, bis er eine gerade Linie vom Batter weg darstellt. Da dies vom Home Base Umpire (Schiedsrichter) nicht immer klar gesehen werden kann, werden die 1st oder 3rd Base Umpires um ihr Urteil gefragt, da sie oft einen besseren Einblick auf den Schwung des Schlägers haben. Die Kunst des Pitchers besteht andererseits darin, den Bällen einen Effet mitzugeben ("Curveball", "Slider", "Sinking Ball", etc.), so dass es dem Batter erschwert wird, einzuschätzen, ob der Pitch regelgerecht ist. So erlebt man es häufig, dass der Batter seine Schlagbewegung anhält, um dann vom Schiedsrichter (Umpire) belehrt zu werden, dass er einen Strike hat passieren lassen. Auch ein langsamer Wurf "(Changeup)" kann das Timing des Batters durcheinanderbringen, wenn er mit einem schnellen Pitch rechnet. Unterlaufen dem Pitcher gegen einen "Batter" vier "Balls", so darf dieser auf die erste Base vorrücken. Das nennt man gemeinhin einen "Walk" (regelkorrekt: "Base on Balls"), weil der Batter in diesem Fall zur ersten Base gehen kann. Sollte auf dieser Base schon ein "Runner" stehen, so darf dieser auf die zweite Base vorrücken, da auf jeder Base jeweils nur ein Spieler stehen darf. Sind alle Bases besetzt "(Bases loaded)", dann kostet ein "Walk" zugleich einen Punkt "(Run)", da alle "Runner" eine Base weiterrücken, der Spieler auf dem dritten Base also die "Home Plate" erreicht und somit einen "Run" erzielt. Der Walk wird nicht selten auch bewusst (siehe Strategie) eingesetzt (Intentional Walk), wenn man gegen einen als hochklassig bekannten Batter – mit hohem Trefferdurchschnitt "(Batting Average)" und vielen Home Runs – lieber nicht pitchen möchte; dies gilt erst recht, wenn schon Bases besetzt sind und es zu mehreren Runs kommen könnte. Auf Zeichen seines Trainers "(Manager)" bewegt sich der Catcher, nachdem der Ball geworfen wurde, einen Meter neben die "Home Plate" und fängt dort vier vom Pitcher bewusst an der Homeplate vorbeigeworfene Bälle. Geschlagener Ball. Batter beim Schlagen eines Balles Die interessantesten Situationen entstehen dann, wenn der Batter den Ball trifft und zurück ins Feld schlägt. Dadurch wird er zum "Runner" (Läufer) und muss zur ersten Base laufen. Wird sein geschlagener Ball von einem Feldspieler direkt aus der Luft gefangen "(Fly Ball)", ist der Schlagmann selbst sofort "out" "(Fly Out)". Dabei ist es unerheblich, ob der Ball im Fair- oder Foul Territory gefangen wurde. Andere Runner auf dem Feld, die bereits vor dem Fly Out ihre Base verlassen hatten, müssen zu dieser zurückkehren und dürfen diese erst verlassen und zur nächsten "Base" laufen, nachdem der Ball im Handschuh des Feldspielers gelandet ist („Tag up“). Erzielt ein Läufer daraufhin einen Punkt, nennt man den (gefangenen) Flugball "Sacrifice Fly" (wörtlich „Opferflugball“), weil durch das „Opfer“ des Schlagmanns ("out" zu sein) der Mitspieler zur Home Plate vorrücken konnte. Das "out" kann auch erzielt werden, wenn der mit dem Schläger nur gestreifte Ball steil hoch und dann hinter die Auslinie fliegt "(foul pop)". Der Ball ist dann im "Foul Territory" und etwaige Runner dürfen nicht weiterlaufen, die Verteidigung – meist der "Catcher" – darf den Ball jedoch dort fangen und damit das "Fly Out" machen. Dabei ist schon mancher Spieler, der sich ganz lang machen wollte, über die Barriere am Spielfeldrand den Zuschauern vor die Füße gefallen. Nach einem erfolgreichen Fang dürfen die "Runner" jedoch, wie bei jedem "Fly Out", laufen, sofern sie ein "Tag up" gemacht haben. Der neue Runner ist ebenfalls out, wenn ein Feldspieler den Ball vom Boden („Ground Ball“) aufnimmt und zum ersten Baseman wirft und dieser den Ball fängt, während er das erste Base berührt und bevor der Batter/Runner selbst dort ankommt "(Ground Out)". Der Feldschiedsrichter "(Field Umpire)" entscheidet zwischen "safe" oder "out". Jeder Runner, der "out" ist, muss das Spielfeld verlassen und wieder auf der Spielerbank „(Dugout)“ Platz nehmen, bis er wieder neu als Batter an die Reihe kommt. Jeder Runner, der gerade keine Base berührt, ist auch "out", wenn er von einem Feldspieler mit dem Ball selbst oder mit dem Handschuh berührt wird, in dem sich der Ball befindet "(Tag Out)". Das trifft nicht in den Fällen zu, in denen Läufer eine oder mehrere Bases vorrücken dürfen, ohne Gefahr zu laufen, "out" gemacht zu werden. Ein häufiges Beispiel hierfür ist ein Base on Balls mit Läufern auf den Bases. Hier dürfen die Läufer zur nächsten Base vorrücken und können dabei nicht "out" gemacht werden. Wird ein Runner von einem geschlagenen Ball im Fair Territory getroffen, ist er "out". Dies trifft nicht zu, wenn der Ball schon an einem verteidigenden Spieler vorbeigegangen ist, der diesen Ball hätte spielen können. Der Batter bekommt in diesem Fall die erste Base zugesprochen. Ein Runner ist "safe", wenn er eine Base erreicht, bevor die Feldmannschaft den Ball dorthin bringen kann. Er kann jederzeit versuchen, auch zwei oder drei Bases auf einmal weiter zu laufen, es darf sich allerdings höchstens ein Runner auf jeder Base befinden. Ein Runner ist auch automatisch "out", wenn er einen vor ihm laufenden Runner überholt. Ein Schlag, der gut genug ist (fest oder locker geschlagen), um den Batter aus eigener Kraft eine Base erreichen zu lassen, wird "Hit" genannt. Schafft es der Batter durch seinen eigenen Schlag auf die erste Base, hat er ein "Single" erzielt. Schafft er es zur zweiten oder dritten Base, erzielt er entsprechend ein "Double" beziehungsweise "Triple". Ein Runner bleibt an einer Base, die er "safe" erreicht hat, bis ein neuer Batter zum Duell gegen den Pitcher antritt. Durch dessen Schlag können alle Runner dann weiter vorrücken oder sogar einen Run erzielen, in dem sie wieder sicher an der "Home Plate" ankommen. Schlägt ein "Batter" den Ball über den Außenzaun hinweg, so nennt man das einen "Home Run". Der Batter und alle eventuell sich gerade auf den Bases befindenden Runner dürfen die Bases in aller Ruhe ablaufen und je einen Run erzielen. Ein Schlagmann kann folglich mit einem "Home Run" maximal vier Punkte für seine Mannschaft verbuchen, nämlich für die "Runner" auf der ersten, zweiten und dritten "Base" und für sich selber. Diese Maximalausbeute hat den Namen "Grand Slam Homerun". Ein Home Run ist auch dann möglich, wenn der Ball das Feld nicht verlässt (ein sog. "inside the park homerun"). Dieser Fall ist jedoch sehr selten, weil dazu einerseits ein Batter der läuferischen Spitzenklasse (der auch ein exzellenter Kurzstreckler wäre) und zudem ein "Hit" nötig wären, bei dem sich der Ball extrem schwer unter Kontrolle bringen lässt. Meist sind dies Bälle in die wirklich hinterste Ecke des Feldes, nicht zuletzt solche, die erst nach dem Auftreffen im „Fair Territory“ ins "Foul Territory" rollen und damit der Regel nach "live", also noch im Spiel und nicht "foul" sind. Oft wirken dabei auch besondere, für die Verteidigung unglückliche, Umstände mit, etwa ein Verspringen des Balles in eine nicht zu erwartende Richtung (sogenannter „bad hop“). Allerdings ist nicht jeder Ball, der im Feld landet, damit auch schon ein "Hit", auch wenn der Batter die erste Base erreicht. Wäre der Schlag für die Verteidigung leicht abzufangen gewesen, so spricht man von einem "error" (leichter Fehler), etwa wenn ein nicht sonderlich hart geschlagener Ball direkt auf einen Verteidiger "(Fielder)" zufliegt und dieser ihn dennoch nicht fängt. Ob ein Error – also kein Hit – vorliegt, entscheidet übrigens keiner der Schiedsrichter "(Umpire)", sondern ein dafür bestellter Spielschreiber "(Official Scorer)". Es sollen nicht selten schon Spieler recht unglücklich mit dessen Entscheidung gewesen sein, gehen Errors doch zu Lasten ihrer Schlagstatistik "(Batting Average)". Auch wird kein Hit vergeben, wenn die Verteidigung den geschlagenen Ball unter Kontrolle gebracht, dann aber nicht den Batter ausmachen wollte, sondern das Out an einem vorauslaufenden Runner versucht. In diesem Fall spricht man von "Fielder’s Choice" (Wahl des Feldspielers), da ja im Regelfall der Batter das leichtere out ist. Anders als die Runner kann er sich nicht schon vor dem Schlag von der Base lösen und hat somit einen längeren Weg zurückzulegen. Für den Spielstand selbst ist die Frage nach Hit oder nicht jedoch nicht von Bedeutung. Base Stealing. Ein Runner kann jederzeit versuchen, die nächste Base zu „stehlen“, also sie zu erlaufen, auch wenn der Ball vom Batter gar nicht geschlagen wurde. Eine typische Gelegenheit ist, wenn der Pitcher seine Wurfbewegung begonnen hat. Diese darf nicht unterbrochen werden. Der Runner versucht, eher an der nächsten Base anzukommen als der Ball, der vom "Pitcher" zum "Catcher" und von da aus zu der entsprechend angelaufenen "Base" geworfen wird. Nicht zuletzt deshalb ist ein guter "Catcher" für eine erfolgreiche "Defense" von großer Bedeutung, denn er muss mögliche Spielzüge im Voraus erkennen und entscheiden, wohin der Ball am besten gespielt werden sollte, falls mehrere Gegner auf den Bases sind. Er muss erkennen, wo am leichtesten ein "Out" zu machen ist oder aber wo dies gerade am dringendsten benötigt wird. Natürlich muss er den Ball dann auch schnell und präzise dorthin werfen. Erfüllt er seine Aufgabe, so ist es durchaus möglich, mehrere Runner in einem Spielzug "out" zu machen ("Double Play" oder, sehr selten, "Triple Play"). Als taktisches Mittel ist "Base Stealing" vor allem bei einem knappen Spielstand, besonders bei Gleichstand, interessant; dies zumal in den späten Innings, weil so durchaus ein Spiel gewonnen werden kann, etwa wenn der stärkere Teil des eigenen "Batting Order" noch folgt und man hoffen darf, ein Batter werde für einen guten Hit sorgen können. Schafft es der Runner auf diese Weise etwa von der ersten auf die zweite Base, dann kann durchaus ein folgender langer Single genügen, um das Spiel zu gewinnen. Schiedsrichter. Der Plate Umpire zeigt an, dass der letzte Pitch ein Strike war. Schiedsrichter heißen beim Baseball "Umpire". Umgangssprachlich werden sie auch mit "Ump" oder "Blue" angesprochen. Letzteres ist auf die traditionell blauen Hemden der Umpire zurückzuführen. Ein Spiel wird in der Regel von zwei Schiedsrichtern geleitet. In den amerikanischen Profiligen sind vier "Umpire" (für jedes "Base" einen) an der Tagesordnung. Während der "Play-offs", also der Meisterschaftsrunde der MLB, werden sogar sechs Schiedsrichter eingesetzt, das heißt ein Schiedsrichter zusätzlich an den Foullines, um auch im "Outfield" auf oder um die "Foulline" auftreffende Bälle sicher zu bewerten und die Entscheidung "Fair Ball" oder "Foul Ball" fällen zu können. Der Hauptschiedsrichter "(Plate Umpire)" steht immer hinter dem "Home Plate", wo er entscheidet, ob der "Pitcher" einen "Strike" oder einen "Ball" geworfen hat. Obwohl der "Plate Umpire" im Zweifelsfall das letzte Wort hat, vergewissert er sich mitunter bei seinen Kollegen, bevor er seine Entscheidung fällt. Dies gilt beispielsweise bei der Frage, ob der Batter nur zum Schlag angesetzt hat "(Checked Swing)" oder ob er versucht hat, den Ball zu schlagen. Er muss außerdem entscheiden, ob ein Runner die "Home Plate" sicher erreicht, also einen Run erzielt hat. Der oder die anderen Schiedsrichter arbeiten im Feld. Wenn es nur einen oder zwei Feldschiedsrichter gibt, müssen diese jeweils in die Nähe derjenigen Base laufen, an der sie die nächste Aktion erwarten und somit eine gute Position und Entfernung zum "Base" wichtig ist. Auf Grund der vielen zu treffenden Tatsachenentscheidungen einerseits und des sehr umfangreichen Regelwerkes mit unzähligen Sonderregelungen andererseits werden unerfahrene "Umpire" (vor allem in niederen deutschen Ligen) in Diskussionen verwickelt. Während Proteste der Spieler und Trainer beispielsweise beim Fußball so gut wie nie zu einer nachträglichen Änderung der Entscheidung führen, kann es beim Baseball (wie auch beim Football) zu einer Entscheidungsänderung kommen. Bei Protesten kann es passieren, dass die Trainer der Teams zusammen mit den "Umpire" und eventuell auch dem Scorer, möglicherweise auch unter Zuhilfenahme des Regelbuches, die vergangene Spielsituation rekapitulieren und im Falle der Feststellung einer offensichtlichen Fehlentscheidung am Ende vom "Umpire in Chief" (oder auch "Crew Chief") eine andere als die ursprüngliche Entscheidung getroffen wird. Ab der Saison 2014 wurde in der amerikanischen Profiliga der Videobeweis im Baseball als Letzte der 4 großen amerikanischen Sportarten (Baseball, Basketball, Football und (Eis-)Hockey) eingeführt. Hierfür wurde in New York ein Kontrollzentrum eingerichtet, in dem ein Schiedsrichter jeweils maximal 4 Spiele des Ligabetriebs gleichzeitig beobachtet und im Falle eines Einspruchs durch einen Manager eines Teams mittels Videoaufnahmen über die Spielsituation entscheidet. Die Manager der Teams dürfen bis zum 6. Inning maximal zweimal Einspruch gegen eine Tatsachenentscheidung aus einem von der Ligastelle definierten Katalog von Entscheidungen erheben (das zweite Mal nur bei erfolgreichem ersten Einspruch). In diesem Fall geht die Entscheidungsgewalt auf den Schiedsrichter im New Yorker Kontrollzentrum über, der die Entscheidung der Feldschiedsrichter bestätigen, widerrufen oder als nicht bewertbar (nonconclusive) einordnen kann. Diese Entscheidung ist bindend und kann nicht von einem Feldschiedsrichter geändert werden. Ab dem 7. Inning obliegt die Entscheidung, ob ein Videobeweis zur Hilfe genommen wird, bei den Feldschiedsrichtern. Scorer. Ein "Scorer" am Spielfeldrand protokolliert alle Aktionen und Spielzüge auf einem vorgefertigten Formular, dem Scoresheet. Das ausgefüllte Scoresheet dient nicht nur als Spielbericht. Auf der Basis der Scoring-Aufzeichnungen werden zudem umfangreiche Statistiken erstellt, die Auskunft über Spielstärke von Mannschaften und Einzelspielern geben. Ball. Der Ball hat einen Durchmesser von etwa 7,4 cm, der Umfang muss mindestens 22,8 cm (9 inches) und darf höchstens 23,5 cm (9 1/4 inches) betragen. Das Gewicht soll nicht weniger als 141,7 g (5 ounces) und nicht mehr als 148,8 g (5 1/4 ounces) sein. Er ist also etwas größer als ein Tennisball. Der Baseball ist von zwei Stücken weißem Leder umhüllt, die mit roten Fäden zusammengenäht sind. Er ist nicht mit Luft aufgepumpt, sein Inneres besteht aus einem Korkkern und äußerst dicht darum gewickeltem Faden. Dadurch wird der Ball sehr hart, weshalb die Schlagmänner "(Batter)" schon lange Schutzhelme und die "Catcher" und "Plate Umpires" stabile Schutzmasken tragen. Nicht zuletzt wegen dieser Härte des Balls kommt es manchmal zu – oft handgreiflichen – Kontroversen "(Charging the Mound)", wenn ein vom "Pitcher" geworfener Ball den "Batter" zum Ausweichen zwingt "(Brushback Pitch)" oder am Körper oder gar an Hals oder Kopf trifft "(Beanball/Hit by Pitch)". Da man jedem Pitcher soviel Präzision zutraut, dass er dies vermeiden kann, unterstellen die Gegner in solchen Fällen schnell Absicht (etwa Revanche wegen eines vom Pitcher gesehenen unfairen Verhaltens des Batters). Die in Profispielen verwendeten Bälle – insbesondere solche, mit denen herausragende Schläge erreicht wurden – gelten als begehrte Sammelstücke bei Fans auf der ganzen Welt. Anders als etwa im Fußball dürfen in den höheren Ligen auf die Tribüne geschlagene Bälle (z. B. Homeruns oder auch Foul Balls) von den Zuschauern als Souvenir behalten werden. In manchen Stadien werfen die einheimischen Fans jedoch einen Homerun-Ball des Gegners wieder auf das Feld zurück, um ihren Unmut auszudrücken. Schläger. Ein Baseballschläger besteht aus Holz oder einer Aluminiumlegierung. Selten sind auch Schläger aus Carbon anzutreffen. In Profiligen und in der deutschen ersten und zweiten Bundesliga dürfen ausschließlich Holzschläger verwendet werden, in den meisten anderen Amateurligen sind auch Schläger aus anderen Materialien erlaubt. In den US-amerikanischen Colleges sind Aluminiumschläger vorgeschrieben. Zum Warmschwingen wird ein Gewichtsring ("Bat Weight", inoffiziell meist "Doughnut" genannt) oder ein „Batsock“ (ein kurzer, schwerer Schlauch, der die gleiche Funktion wie der "Doughnut" hat) verwendet. Dieser wird auf den Schläger geschoben, um beim Warm-Up direkt vor dem Schlagversuch ein höheres Gewicht am Schläger zu bekommen. Er bewirkt, dass der Schläger sich ohne den "Doughnut" leichter anfühlt und die Schlaggeschwindigkeit zunimmt. Handschuhe. Jeder Spieler der Feldmannschaft trägt zum Fielden (Aufnehmen) oder zum Fangen einen Lederhandschuh, welcher das leichte und schmerzfreie Fangen des Balles ermöglicht. Die im Infield stehenden Spieler tragen, auf Grund der Schnelligkeit im Infield, einen etwas kleineren Handschuh als jene drei Outfielder. Nur der Fanghandschuh des "First Baseman" ist etwas größer als jene der Anderen. Der "Catcher" trägt einen besonders gepolsterten Handschuh "(Mitt)", um die vom "Pitcher" teilweise sehr hart geworfenen Bälle zu fangen. Der Schlagmann trägt gewöhnlich ein Paar dünne Lederhandschuhe "(Batting Gloves)", um Blasen an den Fingern zu vermeiden, einen besseren Griff zu haben und die Vibration beim Auftreffen des Baseballs auf den Schläger zu mindern, was wiederum Schmerzen erspart. Manche Schlagmänner benutzen auch nur einen oder gar keinen Schlaghandschuh. Schlaghelm. Batter und Runner tragen Kunststoffhelme (oder auch Glasfaserhelme), um vor Kopftreffern mit dem Ball geschützt zu sein. Auf der dem Pitcher zugewandten Seite bedecken diese auch das Ohr, im Jugendbaseball sogar beide Ohren. Catcher-Ausrüstung. Der Catcher trägt zusätzliche Schutzausrüstung, da er hinter dem Batter in der Hocke sitzt und vor nicht getroffenen oder abgefälschten Bällen geschützt sein muss. Seine Ausrüstung besteht aus einem noch größeren und stark gepolsterten, fingerlosen Fanghandschuh, einer Gesichtsmaske, einem Helm, einem Brustschutz, einem Genitalschutz und Knie- und Schienbeinschützern. Helm und Gesichtsmaske können leicht abgeworfen werden, etwa wenn der Catcher einen "Fly Ball" fangen muss und dafür freie Sicht braucht. Der hinter ihm leicht in der Hocke stehende Plate Umpire ist ähnlich geschützt, trägt aber keinen Handschuh. Außerdem wird die Schutzbekleidung vom Plate Umpire unter der Kleidung getragen. Softball. Softball ist eine Variante von Baseball. Dabei wird der Ball vom Pitcher nicht von oben geworfen, sondern mit einer Kreisbewegung von unten. Einige Regeln unterscheiden sich vom Baseball, das Spielprinzip ist aber identisch. Baseball wird zur Unterscheidung vom Softball manchmal auch "Hardball" genannt. Das Spielfeld beim Softball ist etwa ein Drittel kleiner als beim Baseball. Ebenso sind die Bases nur 60 Fuß (18,29 m) voneinander entfernt. Die Schläger sind meistens etwas dünner und leichter. Der Name des Spiels ist irreführend: Der Ball selbst ist größer als ein Baseball, aber genauso hart. Er kann nur wegen seiner Größe nicht ganz so hart geworfen und geschlagen werden. In den USA wird freizeitmäßig von Erwachsenen vorwiegend Softball gespielt, Baseball dagegen von Profis und männlichen Schülern und Studenten; Damen spielen meist Softball. In Deutschland spielen Männer Baseball und Frauen Softball. Es gibt zwei Versionen von Softball, "Fastpitch Softball" und "Slowpitch Softball". Fastpitch Softball. Beim "Fastpitch Softball" kann der Ball beliebig hart geworfen werden. Diese Variante wird üblicherweise von den Damen in Schulen und Universitäten, sowie von Damen und Herren in ambitionierten Amateurligen gespielt, auch in allen deutschen Damenligen. Damen Fastpitch Softball ist seit 1996 olympische Disziplin. Neben den USA (Olympiasieger 1996, 2000, 2004) gehören Japan (Olympiasieger 2008) und Australien zu den besten Nationalteams der Welt. Slowpitch Softball. "Slowpitch Softball" ist die „Freizeitvariante“ des Softball, bei dem der vom Pitcher geworfene Ball einen deutlichen Bogen beschreiben muss. Der Ball muss unterhalb der Gürtellinie des Werfers losgelassen werden und auf dem Weg zum Schlagmann über Kopfhöhe fliegen, er beschreibt im Flug also einen „hohen Bogen“ – was ihn unter Umständen schwer zu treffen macht, denn er kann wegen des Bogens sehr steil in die Schlagzone fliegen. Base Stealing und einige andere Variationen sind beim Slowpitch Softball nicht erlaubt. Slowpitch Softball wird in Deutschland kaum betrieben. Keine Begrenzung der Spieldauer. Baseballspiele haben keine Zeitbegrenzung. Es wird eine festgelegte Zahl von Spielabschnitten (Innings) gespielt. Ein Unentschieden ist nicht möglich, da bei Gleichstand nach Absolvieren der neun bzw. sieben Innings so lange einzelne "Extra Innings" gespielt werden, bis ein Sieger feststeht. In der japanischen Profiliga wurde dies geändert; hier kann ein Spiel nach drei "Extra Innings" unentschieden enden. Es ist im Baseball nicht möglich, durch besondere Spielweise eine Führung „über die Zeit zu retten“. In der Major League Baseball (MLB) wird für die Tabelle nur die reine Zahl der Spiele (gewonnen/verloren) gezählt. Es ist dennoch schon mehrfach vorgekommen, dass es zum Saisonende Gleichstand zwischen zwei Clubs gab und dann noch ein "One Game Playoff" (Entscheidungsspiel), bzw. eine Best-of-three-Serie in der National League vor 1969, um die Teilnahme an den Play-offs ausgetragen werden musste. Bei der in der Major League Baseball aufwendig geführten Statistik (Hits, Runs, Home Runs, Stolen Bases bzw. beim Pitching Strikeouts und Walks, um nur einen Teil zu nennen) wäre ein Gleichstand in der Abschlusstabelle unwahrscheinlich, würde man all dies werten, zumal bei der hohen Zahl von in der Regel 162 Spielen pro Saison. In Deutschland gibt es „Gnadenregeln“ "(Mercy Rules)", nach denen bei deutlichem Vorsprung einer Mannschaft das Spiel vorzeitig beendet werden kann. Auch können die Landesverbände in den Ligen unterhalb der Verbandsliga die Spieldauer begrenzen – aber auch in diesem Fall muss bei Spielende ein Sieger feststehen. Verbindung von Mannschafts- und Individualsportart. Baseball gilt gemeinhin als Mannschaftssport. Beim Duell gegen den Pitcher tritt ein Batter einzeln an. Seine Mitspieler können seine Leistung oder den Erfolg seines Einsatzes nicht beeinflussen. Aus dieser Perspektive lässt sich Baseball auch als Kombination aus Mannschafts- und Individualsport verstehen. Strategie, Wiederholung der Ausgangssituation. Das Spielprinzip von Baseball baut auf dem Duell zwischen Pitcher und Batter auf. Die Ausgangs- und Randbedingungen für diesen Zweikampf (z. B. Links- oder Rechtshänder, welche Bases sind besetzt, wie viele Strikes, wie viele Balls, wie viele Outs) wiederholen sich im Laufe eines Spieles viele Male. Das erhöht die Bedeutung von strategischen Mitteln im Vergleich zu Sportarten, in denen aufgrund variabler Situationen eher intuitiv bis taktisch gehandelt wird. Daraus resultiert auch die Möglichkeit, statistische Mittel auf die Bewertung der Leistungsfähigkeit eines Spielers oder einer Mannschaft anzuwenden. Beispielsweise entspricht der "Schlagdurchschnitt" "(Batting Average)" der Zahl der geglückten Schläge "(Base Hits)" dividiert durch die Zahl der Schlagversuche "(At Bats)". Er gilt bei ausreichend großer Anzahl von Messungen als halbwegs aussagekräftiger Parameter zur Fähigkeit eines Batters. Neben diesen traditionellen, eher intuitiven Statistiken, versucht die moderne Denkschule der "Sabermetrics" stärker für Sieg oder Niederlage aussagekräftige Statistiken durch mathematische Analysen zu begründen. Pitcherwechsel. Typische taktische Mittel sind etwa das Einwechseln eines anderen Pitchers, wenn ein bestimmter Batter an den Schlag kommt – z. B. die Einwechslung eines linkshändigen Pitchers gegen einen linkshändigen Batter – oder in der Offensive das Einwechseln eines Ersatzmannes als Batter "(Pinch Hitter)". Auch ein anderer (schnellerer) Läufer "(Pinch Runner)" ist oft erwünscht, etwa bei einem knappen Spielstand, um den entscheidenden Run zu machen oder eine Base zu stehlen. Herb Washington, der ausschließlich als pinch runner eingesetzt wurde, bestritt auf diese Weise 131 MLB-Spiele. Intentional Walk. Hiermit bezeichnet man das bewusste Werfen von vier "Balls" durch den Pitcher, um nicht gegen einen Batter pitchen zu müssen, den die verteidigende Mannschaft als besonders gefährlich einschätzt. Der Pitcher lässt damit den Batter mit Absicht zur ersten Base vorrücken, ohne ihm einen Hit zu ermöglichen. Diese Taktik wird oft gegen Spielende und bei Punktegleichstand oder einer knappen Führung eingesetzt, insbesondere dann, wenn nur noch ein oder zwei Outs nötig sind, um das Inning für die verteidigende Mannschaft zu beenden. In diesen Situationen ist es besonders wichtig, einen Punkt der gegnerischen Mannschaft zu verhindern. Mit dem Intentional Walk vermeidet der Pitcher die Konfrontation mit einem besonders starken Batter, gibt der gegnerischen Mannschaft aber durch den zusätzlichen Baserunner die Möglichkeit, bei einem nachfolgenden Hit noch mehr Runs zu erzielen. Ein Intentional Walk wird nur sehr selten eingesetzt, wenn alle Bases leer sind oder der Baserunner, der der Home Plate am nächsten ist, durch den Walk eine weitere Base vorrücken würde, denn dadurch erhöht sich die Wahrscheinlichkeit, dass die gegnerische Mannschaft bei einem darauf folgenden Hit einen Punkt erzielt. Bevorzugt wird er dagegen eingesetzt, wenn sich bereits Baserunner auf der zweiten oder dritten Base befinden, die erste Base aber unbesetzt ist. Dadurch ergibt sich für die verteidigende Mannschaft die gute Möglichkeit für ein Double Play, da dieses bei einer besetzten ersten Base am wahrscheinlichsten ist. Bunt. Als "Bunt" bezeichnet man eine spezielle Schlagtechnik. Dies ist – fast nur – ein „Wegschieben“ des Balls, wobei der Batter blitzschnell die typische Schlaghaltung aufgibt und den Schläger in eine Schräghaltung bringt, um den Ball fast nur „abtropfen“ zu lassen. Der Ball bleibt dabei meist im "Infield". Andererseits gehört es zur Taktik der Defensive, in Situationen, die nach einem "Bunt"-Versuch „riechen“, sehr eng zum Infield hin aufzurücken, um den Ball möglichst schnell aufzunehmen und um die Laufwege zu verkürzen. Für den Batter ist der Versuch eines Bunts ein Risiko, wenn er bereits zwei Strikes hinnehmen musste. Ein Bunt, der im "Foul territory" landet, zählt im Gegensatz zu einem normal geschlagenen Foul immer als Strike. Ziel des "Bunt" als Spielzug ist es, in knappen Situationen (etwa Gleichstand im achten oder neunten Inning) mit allen Mitteln einen "Run" zu erzielen oder wenigstens wesentlich vorzubereiten. Mit dem "Bunt" geht es vor allem darum, den Ball an eine Stelle zu befördern, wo es für die Gegner gerade lange genug dauert, ihn aufzunehmen und gegebenenfalls weiterzugeben, damit der/die eigenen Runner eine Base aufrücken können. Sehr häufig ist dabei der "Sacrifice Bunt", weil der Batter zwar wie üblich versucht, die erste Base zu erreichen, was ihm bei dem eben typischerweise kurz angelegten Ball oft nicht gelingt, da dieser doch recht schnell dorthin kommt und so dort ein out gemacht werden kann. Hat einer seiner Mitspieler unterdessen als Runner die nächste Base besetzt, ist der Zweck des "Sacrifice" erreicht. Der Batter hat sich also für die bessere Position seiner Mannschaftskameraden „geopfert“. Squeeze Play. In manchen Fällen wird der "Suicide Squeeze" angewandt. Dies bedeutet, dass der Läufer aus dem Lead der dritten Base mit der Pitchbewegung in Richtung Homeplate losläuft – also noch bevor der Ball die Wurfhand des Pitchers verlassen hat. Der Batter muss nun mit aller Gewalt versuchen, den Ball ins Feld zu befördern, damit der Run zählt – auch wenn der Pitch weit an der "Strike Zone" vorbeigeht, wird er versuchen, diesen noch irgendwie zu treffen. In den meisten Fällen versucht der Batter den Ball zu bunten. Gelingt es dem Batter nicht, den Ball ins Feld zu befördern, hat man in einer „Selbstmordaktion“ gewissermaßen seinen Runner geopfert, da der Catcher nun einfach den Runner mit dem Ball berühren muss, bevor dieser die Homeplate erreicht. Bei einem "Safety Squeeze" beginnt der Runner aus dem Lead der dritten Base erst nach dem Bunt in Richtung Homeplate loszulaufen. Meistens wartet er, bis er Gewissheit hat, dass der Ball in einer Region ist, die es der Defense schwierig macht, das "out" an der Home Plate zu erreichen. Keine Strafen. Mit wenigen Ausnahmen gibt es im Baseball keine Strafen. Im Falle regelwidriger Handlungen eines Spielers lassen die Schiedsrichter meist das Spiel von der Situation aus wieder aufnehmen, die ohne regelwidrige Handlungen herbeigeführt worden wäre. Fouls (nicht "Foul Balls", sondern Fouls im Sinne von gezielt eingesetzten, regelwidrigen Unsportlichkeiten) sind im Baseball recht selten. Dennoch kommt es in Begegnungen nicht selten zu Diskussionen, bei denen einzelnen Spielern vorgeworfen wird, sich unsportlich verhalten zu haben. Obwohl Baseball prinzipiell ein körperkontaktloser Sport ist, geben Situationen, bei denen sich Gegenspieler rempeln oder behindern, Anlass zu Auseinandersetzungen. Man kann sich leicht vorstellen, dass bei beiden Situationen der Unterschied zwischen einem fairen und einem übertriebenen Einsatz – oder sogar bewussten Attackieren – nicht immer einfach ist. Bei grob regelwidrigem Verhalten kann ein Spieler vom Feld gestellt werden "(Ejection)". Verweise vom Feld bzw. aus dem Spiel können auch gegen Spieler auf der Bank oder gegen Trainer bzw. Manager ausgesprochen werden, die sich unsportlich verhalten (z. B. Beleidigungen oder Pöbeln). Die Umpire können auch Pitcher des Feldes verweisen, die entweder ihrer Ansicht nach absichtlich oder im Laufe des Spiels häufiger Batter abgeworfen haben. Das Treffen des Batters mit dem Ball durch den Pitcher wird als Hit by Pitch bezeichnet. Terminologie in Deutschland. Baseball hat, wie jede andere Sportart, seine eigene Terminologie. Praktisch alle Fachbegriffe stammen aus dem Ursprungsland USA und werden in deutschsprachigen Ländern unverändert verwendet. Einzelne Versuche, Fachbegriffe einzudeutschen, schlugen fehl. Heute ist die starke Anglifizierung der Baseball-Sprache in Deutschland grundsätzlich akzeptiert. In anderen Ländern wie den Niederlanden oder Frankreich haben Begriffe in der Landessprache die englischen weitgehend ersetzt. Einfluss auf die amerikanische Sprache. In seinem Herkunftsland USA hat Baseball durch seine Historie die englische Alltagssprache beeinflusst, so dass heute einige Fachbegriffe in anderem Kontext verwendet werden. "to touch base" bedeutet so viel wie "kurzen Kontakt aufnehmen", "to throw someone a curve ball" bedeutet "jemanden auf dem falschen Fuß erwischen", wohingegen ein "soft ball" eine (beabsichtigt) einfach Frage ist und "to go to bat" heißt (in entsprechendem Zusammenhang) "sich einsetzen, etwas bewegen", auch "to go to bat for someone": "jemandem helfen; sich für ihn einsetzen". Auch diverse Lebensweisheiten werden oft mit Baseballausdrücken formuliert; "keep your eye on the ball" bedeutet beispielsweise "lass dich nicht ablenken". In Kalifornien und einigen anderen US-Bundesstaaten gibt es seit gut zehn Jahren eine Gesetzgebung unter dem Motto „three strikes and you’re out“, die den Richtern bei jedem zum dritten Mal straffällig gewordenen Täter die Verhängung einer lebenslangen Freiheitsstrafe zwingend vorschreibt, auch wenn es sich um kleinere Delikte handelt. Baseball hatte in den USA bis in die 1970er Jahre eine so hohe Popularität gegenüber American Football und Basketball, dass mit den generischen Begriffen "Ballplayer", "Ballgame" und "Ballpark" auch heute noch ein "Baseballspieler", ein "Baseballspiel" bzw. ein "Baseballstadion" bezeichnet wird. Baseball kommt in der amerikanischen Jugendsprache eine ganz besondere Rolle als Grundlage von Metaphern für romantische und sexuelle Aktivität zu. Dabei wird der Grad der Aktivität durch Bezüge auf die Bases im Baseball zum Ausdruck gebracht. So redet man zum Beispiel davon, mit dem Partner auf der „First Base“ gewesen zu sein, wenn man sich geküsst hat, „Second Base“ steht in der Regel für intensives Berühren des Körpers und „Third Base“ für Oralverkehr, während das Erreichen der „Fourth Base“ oder ein „Homerun“ für vollzogenen Geschlechtsverkehr steht. Diese Metaphern sind in Amerika so weit verbreitet, dass sie allgemein verständlich sind, durch ihre harmlose, quasi-euphemistische Natur dabei aber problemlos ‚aussprechbar‘ bleiben. Die Anspielungen werden deswegen auch in Schulen zur Sexualerziehung eingesetzt. Spielbetrieb in Deutschland. Heute sind knapp 30.000 Spieler in Deutschland aktiv. In Europa wird mit dem hierzulande im Sportbetrieb allgemein üblichen Auf- und Abstieg gespielt, während dieses in den USA praktisch unbekannt ist. Hinzu kommen Nachwuchsligen in den Altersklassen (Klein-)Kinder (B-Ball) (3-6 Jahre), Kinder (T-Ball) (4–8 Jahre), Schüler (9–12 Jahre), Jugend (13–15 Jahre) und Junioren (16–18 Jahre). Im Softball gibt es die Altersklassen der Kinder (5–9 Jahre), Schülerinnen (10–13 Jahre), Jugend (14–16 Jahre) und Juniorinnen (17–19 Jahre). Parallel zum Ligabetrieb fand bisher der DBV-Pokal statt. In diesem im k.-o.-System ausgetragenen Wettbewerb wurde der Pokalsieger ermittelt. Qualifiziert waren jeweils die Gewinner der Pokalwettbewerbe der Landesverbände. Der DBV-Pokal wurde 2006 letztmals ausgetragen. Nach einem massiven Wachstum während der 1990er Jahre ist die quantitative Entwicklung des Baseball in Deutschland seit etwa 2004 rückläufig. Die Mehrzahl der deutschen Baseball-Vereine besitzen keine stabilen Führungs- und Mitgliederstrukturen. Sie sind von einem oder wenigen engagierten Ehrenamtlichen abhängig und nach deren Weggang häufig in ihrer Existenz gefährdet. Ebenso kann der Abstieg einer Mannschaft die Existenz eines gesamten Vereins gefährden. In den landesweiten Massenmedien ist deutscher Baseball praktisch nicht präsent. Der Versuch, eine deutsche Baseball-Liga durchgängig im Fernsehen zu präsentieren (1990 durch den DSF-Vorgänger Tele 5), schlug fehl. Dies lag unter anderem auch daran, dass Baseball grundsätzlich nur mit hohem Aufwand fernsehgerecht einzufangen ist (Zahl der Kameras, etc.). Spiele der amerikanischen Profiligen (National und American League bilden zusammen die Major League Baseball) wurden aber von einigen Bezahlfernsehsendern angeboten. Eine sehr ausführliche Berichterstattung, auch mit live-Spielen, bot in Deutschland der Sender ESPN America. Seit dessen Einstellung berichtet der Pay-TV-Sender Sport1 US über die Major League Baseball (MLB) und zeigt ein bis zwei Spiele pro Woche live. Zusätzlich kann man mit einem Abo des Streamingdienstes mlb.tv sämtliche Spiele der amerikanischen Profivereine live empfangen. Aufgrund der mangelnden Medienpräsenz ist das Interesse von möglichen Sponsoren in der Regel gering und meist regional beschränkt. In vielen Fällen von finanzieller Unterstützung rechnen privatrechtliche Unternehmen nicht mit einer Werbewirkung, es handelt sich daher eher um Mäzenatentum. Qualitativ entwickelt sich der Baseball-Sport in Deutschland stetig weiter. Die jüngsten Erfolge bei europäischen Meisterschaften (insbesondere in der Jugend) zeigen die steigende Leistungsfähigkeit des deutschen Baseball. Bei der Europameisterschaft 2010 konnte die deutsche Herren-Nationalmannschaft den dritten Platz erringen. Der Deutsche Meister von 2009, die Heidenheim Heideköpfe, erreichten im Europacup 2010 das Endspiel, das mit 1:2 nach 10 Innings, also nach einer Verlängerung, verloren wurde. Der Bundesverband DBV und seine Landesverbände nutzen für ihre Organisation in großem Umfang das Internet. Spielbetrieb in Österreich. Heute sind knapp 3.000 Spieler in Österreich aktiv. Hinzu kommen noch diverse Nachwuchsligen in den Altersklassen Jugend (13–15 Jahre), Schüler (11–12 Jahre) und Kinder (7–10 Jahre), sowie die Österreichischen Nachwuchsmeisterschaften (Junioren, Jugend, Schüler, Kinder). Weltweite Verbreitung. Baseball gilt nicht nur in den USA als Nationalsport, sondern auch in vielen lateinamerikanischen und ostasiatischen Ländern wie Mexiko, Kuba, der Dominikanischen Republik, Venezuela, Puerto Rico, Japan, Republik Korea (Südkorea), Philippinen und Taiwan. In Europa gab es in den letzten 20 Jahren eine beachtliche Entwicklung. Professionelle Ligen gibt es in Italien seit 1948 und den Niederlanden seit 1922. In Finnland gibt es seit 1922 eine Variante des Baseball „Pesäpallo“ genannt (siehe Hauptartikel hierzu). Pesäpallo wird auch von Frauen gespielt. Baseball in Nordamerika heute. In den USA selbst hat der einst alles beherrschende Baseball nach dem Zweiten Weltkrieg allmählich immer mehr Zuschauer an American Football und in den letzten Jahrzehnten auch an Basketball verloren und wurde in den 1970er Jahren durch American Football von der Spitzenposition verdrängt. Die durch wiederholte Streiks erkämpften extremen Spielergehälter sowie undurchsichtige Deals und Ligaumstrukturierungen der Klubbesitzer haben dem Ansehen des Baseballs in den 1990er Jahren sehr geschadet. Der Sport hat aber immer noch eine große und treue Fanbasis und eine tiefe Verankerung in der US-amerikanischen Kultur. Unter US-Bürgern belegt Baseball heute, hinter American Football, den zweiten Platz der Lieblingssportarten. Das gemeinsame Baseballspielen oder -schauen gilt weithin immer noch als "das" Vater-Sohn-Erlebnis schlechthin und als "America’s Favorite Pastime" (Amerikas liebste Freizeitbeschäftigung). Ein Vorteil des Baseballs ist, dass die Anzahl der Spiele einer Baseball-Mannschaft pro Saison sehr viel höher ist als in anderen Sportarten (162 Spiele in der regulären Saison), sodass die Eintrittspreise gewöhnlich niedriger angesetzt werden können und auch Fans aus den unteren Einkommensklassen ab und zu ins Stadion kommen können. Des Weiteren ist es von Vorteil, dass die Saison hauptsächlich im Sommer ausgetragen wird und Baseball somit nicht direkt mit der NFL, NBA und NHL konkurriert. So besuchen jährlich über 110 Millionen Zuschauer die Spiele der Profiligen MLB und MiLB, so viele wie in keiner anderen Sportart in den USA. Nach Gesamtzuschauerzahlen sind die dreißig Teams der Major League Baseball immer noch die meist besuchte Sportliga der Welt, auch wenn die Zuschauerzahlen pro Spiel inzwischen von mehreren anderen Sportarten (so der NFL aber auch der deutschen Fußball Bundesliga) überboten wurden. Die bekanntesten Profiligen in den USA werden von der Major League Baseball, kurz MLB, organisiert. Unterhalb dieser Ligen befinden sich die Minor Leagues, ebenfalls Profiligen, deren Teams meist mit je einem Major-League-Team eng assoziiert sind und ihnen als Talentpool dienen. Daneben gibt es noch unabhängige Ligen, in denen professionell Baseball gespielt wird. Meistens spielen dort Profis, die in einem MLB-Team keinen Vertrag mehr bekommen oder aus den Minor Leagues entlassen wurden. Die meisten US-Spieler in Deutschland kommen ebenfalls aus diesem Pool. Ähnlich wie bei anderen Sportarten in den USA wird Amateur-Baseball hauptsächlich von Schulen und Universitäten betrieben. Die Universitäten spielen im traditionellen „Arbeitersport“ Baseball aber seit dem Ersten Weltkrieg eine viel geringere Rolle als in den einst „elitären“ Sportarten Football und Basketball. Oft werden die besten High-School-Spieler direkt von den professionellen Teams verpflichtet, was die Qualität der College-Ligen beeinträchtigt. Während der letzten Jahre ist jedoch ein gegenteiliger Trend zu beobachten. Geführt von den Oakland Athletics und den Boston Red Sox gehen immer mehr Vereine dazu über, College-Spieler den High School-Spielern vorzuziehen. Hauptkritikpunkte am Collegelevel sind, dass man aus Kostengründen mit Aluminiumschlägern spielt und es eine einheitliche Regel zu Gunsten des Designated Hitters gibt. Der Jugendbereich wird von mehreren Organisationen abgedeckt, die bekannteste ist die Little League. Hier spielen Jungen und Mädchen zwischen 5 und 18 Jahren in sechs Altersklassen Softball und Baseball. Dabei wird häufig mit angepassten Regeln gespielt, so etwa auf kleineren Feldern und mit weniger Körperkontakt. Baseball in Japan. In Japan wurde der Baseball 1872 durch den Englischprofessor Horace Wilson eingeführt. Um die Jahrhundertwende begann mit der Verbreitung an den Universitäten der Aufstieg des Baseball zum Nationalsport – neben Sumō und, in jüngerer Zeit, Fußball. In den 1920er Jahren begann der professionelle Ligabetrieb, daneben werden seit 1915 zweimal im Jahr Oberschulturniere im Kōshien ausgetragen, die nationale Aufmerksamkeit erhalten. Baseball in Mexiko. Baseball ist eine sehr beliebte Sportart in Mexiko. Obwohl die Ursprünge des Sports in Mexiko zwischen den 1870er und 1890er Jahren liegen, wurde die erste Profiliga erst 1925 gegründet, die Liga Mexicana de Béisbol (LMB). 2009 spielte die Liga mit 16 Mannschaften in 2 Divisionen. Eine weitere Profiliga, die Liga Mexicana del Pacífico (LMP) wurde 1945 gegründet. Darüber hinaus gibt es viele regionale Ligen die als Talentsichtung und -förderung für die Profiligen dienen. Baseball in Kuba. Das nationale kubanische System des Baseball besteht nicht aus einer einzelnen Liga, sondern es ist ein Überbau verschiedener Ligen und Serien unter dem Dach der "Kubanischen Baseballföderation". Die Föderation organisiert die nationalen Meisterschaften und die Auswahl für die kubanische Baseballnationalmannschaft. Baseball bei Olympischen Spielen. Baseball ist eine olympische Sportart und war von 1992 bis 2008 – jeweils gemeinsam mit Softball – im Programm der Olympischen Spiele. Die weltbesten Spieler nehmen jedoch nicht an den olympischen Turnieren teil, da die Profiligen bisher nicht bereit sind, dafür ihren Spielbetrieb zu unterbrechen. Beim Baseball ist, im Gegensatz zu den meisten anderen Teamsportarten, eine im Frühling beginnende und im Herbst endende Saison ohne Sommerpause üblich, sodass sich Olympia nur schlecht einfügt. Dopingskandale beim US-Profibaseball und eine als allzu lax empfundene Haltung der Ligabosse zu diesem Problem schaden zudem dem internationalen Ruf der Sportart. So entschied das IOC am 8. Juli 2005, dass Baseball und auch Softball weiterhin gemäß Artikel 46 der Olympischen Charta „olympische Sportart“ bleiben, aber 2012 in London nicht ausgetragen werden. Damit sind Baseball und Softball die ersten aus dem Programm gestrichenen Sportarten seit 1936, als Polo gestrichen wurde. Diese Entscheidung war vor allem gedacht, um Platz zu schaffen für neue Sportarten (u. a. Rugby, Golf, Karate und Squash), allerdings fand dann keine dieser Sportarten die nötige Mehrheit. 2008 in Peking gab es noch ein olympisches Baseball- bzw. Softballturnier, bei der IOC-Sitzung 2009 wurde der Antrag auf Wiederaufnahme ins Programm für die Olympischen Sommerspiele 2016 jedoch abgelehnt. Baseball-Weltmeisterschaft. Die International Baseball Federation (IBAF) arbeitete seit 2003 mit der MLB daran, zukünftig eine echte Weltmeisterschaft für Nationalmannschaften nach dem Vorbild der Fußball-Weltmeisterschaft zu veranstalten, zu der dann wirklich die besten Spieler jedes Landes kommen sollen. Diese sollte zum ersten Mal 2006 oder 2007 und danach mindestens alle vier Jahre stattfinden, jeweils etwa zwei Wochen dauern und Nationalmannschaften von allen Kontinenten umfassen. Um den Ligabetrieb nicht unterbrechen zu müssen, soll sie jeweils im März in einer zu dieser Jahreszeit ausreichend warmen Region stattfinden. Das erste Turnier sollte in den USA abgehalten werden, wobei dann nur in Stadien gespielt würde, die entweder im südlichen Teil der USA liegen oder überdacht sind. Aus finanziellen und organisatorischen Gründen musste man aber von einer in einem einzigen Land stattfindenden Meisterschaft abrücken. Von 3. bis 20. März 2006 fand in Tokio (Japan), San Juan (Puerto Rico), Orlando, Phoenix, Anaheim und San Diego (Vereinigte Staaten) zum ersten Mal die "World Baseball Classic" (ausgerichtet von der MLB) statt, aus dem die Mannschaft Japans als Sieger hervorging. Auch die zweite Auflage dieser Veranstaltung im Jahre 2009 konnte die Mannschaft aus Japan für sich entscheiden. Die dritte „World Baseball Classic“-Weltmeisterschaft fand im März 2013 statt. Baseball-Europameisterschaft. Europameisterschaften im Baseball werden seit 1954 ausgetragen und vom europäischen Baseball-Dachverband CEB ausgerichtet. 2007 diente die EM gleichzeitig als Olympiaqualifikation der europäischen Teams für Peking 2008. Die letzte EM fand 2010 in Deutschland statt. Mit zwei Ausnahmen wurden alle bisherigen Europameisterschaften von den Teams aus den Niederlanden und aus Italien gewonnen. Historische Entwicklung. In England ist erstmals 1744 ein Spiel unter dem Namen "base ball", das sich wahrscheinlich aus Vorläufern des Cricket entwickelt hat, belegt. Die weitverbreitete These, es habe sich aus dem englischen Spiel "Rounders" entwickelt, ist mittlerweile widerlegt. Baseball in den USA. Der erste dokumentiert gegründete Verein in den USA waren die "New York Knickerbockers" 1845. Das erste Profi-Team, die "Cincinnati Red Stockings" (die heutigen "Cincinnati Reds"), wurde am 1. Juni 1869 gegründet. In New York wurde 1876 die National League von Teams aus Cincinnati, Chicago, Boston, St. Louis, Hartford, Louisville, New York und Philadelphia gegründet. In den ersten Jahren des Profibetriebs gab es noch eine ganze Reihe anderer, kurzlebiger Ligen. 1901 wurde dann die American League gegründet, zunächst als Konkurrenz. Beide Ligen gelten bis heute als die Major Leagues. Die größten Helden der Major Leagues werden in der Baseball Hall of Fame geehrt, die sich in Cooperstown im Bundesstaat New York befindet. Seit 1903 kooperierten die beiden Ligen und tragen jährlich als Finale die World Series aus. Historische Entwicklung in Deutschland. Die älteste Beschreibung des Spiels findet sich bei Johann Christoph Friedrich GutsMuths aus dem Jahr 1796. Das erste offizielle Baseballspiel auf deutschem Boden fand bei den Olympischen Spielen 1936 in Berlin statt. Damals verfolgte die größte und bis jetzt nicht einmal mehr annähernd erreichte Rekordkulisse von mehr als 90.000 Zuschauern ein Demonstrationsspiel zwischen zwei US-Teams im Berliner Olympiastadion. Begünstigt durch die Anwesenheit US-amerikanischer Truppen in Deutschland entwickelte sich in den 1950er Jahren eine deutsche Baseball-Gemeinde. In den Jahren nach 1968 kam der Baseballsport in Deutschland praktisch zum Erliegen und fand nur in einer deutsch-amerikanischen Liga statt, in der High-School- und Armeemannschaften spielten. Erst in den frühen 1980ern entwickelte sich der Sport wieder. 1982 wurde wieder eine Deutsche Meisterschaft eingeführt. Der deutschen Nationalmannschaft gelang es zwischen 1989 und 2005 nicht, sich dauerhaft in der europäischen Elite festzusetzen: Sie pendelte mehrmals zwischen A- und B-Pool hin und her. Im Jahr 2005 erreichte das Team allerdings den vierten Platz bei der EM und konnte sich damit erstmals nach dreißig Jahren für eine Weltmeisterschaft (im Jahre 2007) qualifizieren, wo mit einem Erfolg gegen Thailand (2:0) auch der erste Sieg bei einer WM gelang. 2007 konnte der 4. Platz bei der EM wiederholt werden, wodurch auch die erneute Qualifikation für die WM (2009) erreicht wurde. 2010 wurde bei der EM im eigenen Land sogar der dritte Platz erreicht. Entwicklung in der Schweiz. Baseball wird in der Schweiz seit 1980 gespielt. Im Sommer 1980 begann sich eine Gruppe von Gleichgesinnten regelmäßig zum Baseball auf der Zürcher Allmend zu treffen. Trainiert wurde auf der Anlage der Hammerwerfer, deren Netz diente gleich als Backstop. Ein Dodge Challenger, fahrbarer Untersatz eines Mitglieds, verlieh der Gruppe den Namen Challengers. Im November verabredeten sich die Challengers mit einer Gruppe, die sich White Sox nannte, in Reussbühl LU zum ersten Baseballspiel in der Schweiz. Das Spiel musste jedoch vorzeitig abgebrochen werden. Nicht etwa wegen einsetzendem Schneefall: Die Bälle gingen aus. Am 5. Dezember 1980 wurde mit dem "Challengers Baseball Club" offiziell der erste Baseballverein in Zürich gegründet. Dessen Exponenten waren im folgenden Jahr auch an der Gründung des Schweizerischen Baseball und Softball Verbandes (SBSV) beteiligt. Die Challengers gewannen anlässlich der Premiere des nationalen Championats 1982 den Schweizer Meistertitel. Sonstiges. Als angeblich genuin US-amerikanische Sportart hat Baseball, das auch immer wieder mit Begriffen wie Unschuld und Idylle verbunden wurde, auch Eingang in das Werk zahlreicher US-amerikanischer Schriftsteller gefunden, wie z. B. um die Wende vom 19. zum 20. Jahrhundert und in der ersten Hälfte des 20. Jahrhunderts Ring Lardner, Charles E. van Loan, Gerald Beaumont oder Damon Runyon (die auch für Blätter wie die "Saturday Evening Post" entsprechende Kurzgeschichten verfassten) oder in neuerer Zeit Bernard Malamud, Robert Coover, John Grisham, Chad Harbach oder Philip Roth. Teilweise werden in diesen Werken auch Auswüchse wie Bestechungsskandale oder exzessiver Starkult thematisiert. In vielen Baseballspielen findet in der Mitte des siebten Innings ein "Seventh-inning stretch" statt, in dem die Zuschauer sich für ca. zehn Minuten strecken können. Traditionell wird hierbei das Lied "Take Me Out to the Ball Game" gesungen. Basketball. Basketballspiel auf einem Freiplatz in Peking Basketball ist eine meist in der Halle betriebene Ballsportart, bei der zwei Mannschaften versuchen, den Ball in den jeweils gegnerischen Korb zu werfen. Die Körbe sind 3,05 Meter hoch an den beiden Schmalseiten des Spielfelds angebracht. Eine Mannschaft besteht aus fünf Feldspielern und bis zu sieben Auswechselspielern, die beliebig oft wechseln können. Jeder Treffer in den Korb aus dem Spiel heraus zählt je nach Entfernung zwei oder drei Punkte. Ein getroffener Freiwurf zählt einen Punkt. Es gewinnt die Mannschaft mit der höheren Punktzahl. Basketball wurde im Jahr 1891 vom kanadischen Trainer James Naismith als Hallensport erfunden. Seit 1936 ist die Sportart olympisch. Heute hat der Basketballsport global, insbesondere in den USA, China und Südeuropa einen hohen Stellenwert. Alle vier Jahre findet in einem jeweils anderen Land eine Basketball-Weltmeisterschaft statt, die vom Weltbasketballverband FIBA veranstaltet wird. Laut FIBA spielen etwa 450 Millionen Menschen weltweit Basketball. Die erfolgreichsten Athleten der Teamsportart Basketball zählen international zu den höchstbezahlten Profisportlern. Die Erfindung des Basketballspiels. James Naismith (rechts außen) als Trainer der Mannschaft der Universität von Kansas, 1899 Basketball zählt zu den wenigen Sportarten, die von einer Einzelperson erfunden wurden. Der kanadische Arzt und Pädagoge James Naismith entwickelte das Ballspiel im Jahr 1891 in Springfield (Massachusetts) als Hallensport für seine Studenten. Naismith hatte erkannt, dass die Kampfbetontheit in anderen Ballsportarten daher kommt, dass sich das ganze Geschehen in derselben Ebene abspielt (so z. B. im American Football). Er suchte eine weniger kämpferische Sportart mit einem geringen Verletzungsrisiko, um die 18 Studenten der Klasse im Winter abzulenken. Deshalb verlagerte er die Körbe (engl.) in eine andere Ebene, 1½ Meter über den Spielern. Der Hausmeister "Pop Stabbins" befestigte damals Pfirsichkörbe an den 10 Fuß hohen Balkonen (Empore) der YMCA Training School in Springfield. Die damals mehr zufällig bestimmte Aufhängehöhe entspricht 3,05 Meter und ist bis heute international gültig. Um zu verhindern, dass Zuschauer von der Galerie aus Korbwürfe beeinflussen können, wurde hinter jedem Korb ein Brett montiert. Die Schulsekretärin Lyons half Naismith bei der Erstellung der 13 Grundregeln, die bis heute fast unverändert geblieben sind. Das erste offizielle Basketballspiel fand am 20. Januar 1892 in Springfield statt. In den beiden Spielhälften, mit einer Halbzeitpause von fünf Minuten, wurde meist nur ein einziger Treffer erzielt. Trotz dieser niedrigen Trefferquote setzte sich das von James Naismith entwickelte Ballspiel in den USA durch. Bereits im folgenden Jahr wurde Frauen-Basketball am Smith College eingeführt. Senda Berenson Abbott hat den Frauen-Basketball zu dieser Zeit sehr geprägt, indem sie die von James Naismith entwickelten Grundregeln veränderte und den Frauen anpasste. Am 22. März 1893 fand das erste Basketballspiel der Frauen am Smith College statt. Senda Berenson veröffentlichte daraufhin ein auf Frauen-Basketball spezialisiertes Magazin. College-Basketball. "Kent Benson", Basketballspieler der Indiana University Bloomington beim Hakenwurf (engl. "hook shot") Schon bald nach der Erfindung von Basketball im Jahr 1891 konnte sich diese Sportart an Colleges und Universitäten in den USA durchsetzen. Das erste Basketballspiel zwischen zwei College-Mannschaften fand am 8. April 1893 in Beaver Falls in Pennsylvania statt. Das "Geneva College" konnte an diesem Tag gegen den "New Brighton YMCA" gewinnen. Die ersten Basketballspiele wurden zunächst mit sieben oder neun Spielern je Mannschaft ausgetragen. Am 18. Januar 1896 fand das erste Spiel mit dem aktuellen Spielsystem von lediglich fünf Spielern in Iowa City statt, die University of Chicago gewann dieses Spiel mit 15:12 Punkten gegen die University of Iowa. In den nächsten Jahren wurde College-Basketball innerhalb der USA immer populärer. Die anerkanntesten Universitäten (so z. B. die Columbia University) und Colleges hatten ihre Mannschaften gesponsert und unterstützt. Aufgrund der zahlreichen College-Mannschaften wurde im Jahr 1906 der Freiwilligenverband „National Collegiate Athletic Association“ (kurz. "NCAA") in Chicago gegründet. Die erste NCAA-Landesmeisterschaft der Männer wurde vor 5500 Zuschauern im Jahr 1939 in Evanston (Illinois) ausgetragen. Die University of Oregon besiegte im Finale die gegnerische Mannschaft der Ohio State University mit 46:33. Auch der Frauen-Basketball hat sich an Colleges und Universitäten weiterentwickelt. Im Jahr 1926 hat die Amateur Athletic Union die erste Basketballmeisterschaft für Frauen organisiert. Seither finden jährlich NAIA-Meisterschaften der Frauen statt. In den 1930er Jahren wurden auch immer mehr Basketballturniere zwischen Frauen und Männern veranstaltet. Hierbei wurden jedoch immer die für den Männer-Basketball vorgeschriebenen Regeln verwendet. Der College-Basketball hat in den Jahren 1948 bis 1951 an Glaubwürdigkeit und Popularität verloren. Dies lag vor allem an den zahlreichen Manipulationsskandalen (so genanntes), in die professionelle Mannschaften verwickelt waren. Entstehung der ersten Mannschaften. Die "Buffalo Germans", Gewinner der Panamerikanischen Meisterschaften im Jahr 1903 In den darauffolgenden Jahren wurde zunächst mit "Paneel-Bällen", die heutigen Volleybällen ähnelten, gespielt. Da damals noch die Regel galt, dass ein außerhalb des Spielfeldes gelandeter Ball in den Besitz desjenigen Teams gelangt, das ihn zuerst erreicht, sprangen die Spieler oft ohne Rücksicht auf die Zuschauer in die Ränge. Damit der Ball gar nicht erst ins Aus gelangen konnte, ging man dazu über, das Basketballfeld mit einem Käfig aus Hühnerdraht zu umzäunen. Diese „Basketball-Käfige“ gaben der Sportart ihren Spitznamen „“ (dt. Käfigspiel). Wie unangenehm das Spielen in den Käfigen war, beschrieb Barney Sedran, ein Spieler der New York Whirlwinds: "„Die meisten von uns hatten ständig Schnittwunden, und der Court war mit Blut bedeckt.“" Zu Beginn des 20. Jahrhunderts bildeten sich zwei berühmte Mannschaften, die später in die Naismith Memorial Basketball Hall of Fame aufgenommen wurden. Die Buffalo Germans zählten zu den stärksten Mannschaften am YMCA. Im Jahr 1904 haben die Germans bei den III. Olympischen Spielen in St. Louis demonstriert, da Basketball nicht offiziell beim IOC anerkannt wurde. Neben den Germans waren die Original Celtics eine der einflussreichsten Mannschaften. In den 1920er Jahren wurden die Germans und die Celtics durch andere Mannschaften wie die "New York Renaissance" oder die "Cleveland Rosenblums" abgelöst. Im Jahr 1925 wurde die "American Basketball League" (kurz: ABL) eingeführt, die in manchen Bereichen das Basketballspiel veränderte. Der Hühner- bzw. Metalldraht wurde abgeschafft und durch Seile ersetzt. Des Weiteren wurde das Rückbrett (engl.) hinter den Körben offiziell eingeführt. Die Entstehung der NBA. Am 6. Mai 1946 wurde die "Basketball Association of America" (kurz. BAA) gegründet. Walter Brown, der damalige Präsident der Boston Bruins, und Edward Gottlieb zählen zu den Gründungsmitgliedern dieser Liga. Die "Philadelphia Warriors" (später Golden State Warriors) gewannen die erste Finalserie der Liga mit 4:1 Siegen gegen die "Chicago Stags". Im Jahr 1949 wurde diese Liga in „National Basketball Association“ (kurz NBA) umbenannt. Die bekanntesten Spieler der 1940er Jahre waren Bob Davies und George Mikan. Der amerikanische Unternehmer Fred Zollner hat als Eigentümer der Fort Wayne Pistons (später Detroit Pistons) viele Änderungen im Basketball-Bereich eingeführt. Seit dem Jahr 1952 wurde seine Mannschaft mit einem Team-Flugzeug zu den Basketball-Spielen transportiert. Er half der BAA und der NBA finanziell und war an wichtigen Regeländerungen (z. B. Wurfuhr) beteiligt. Am 1. Oktober 1999 wurde er als Förderer in die aufgenommen. Basketball heute. Einen großen Fortschritt in der weltweiten Wahrnehmung machte der Basketball im Jahr 1992, als bei den Olympischen Spielen in Barcelona erstmals Profis zugelassen waren und die amerikanische Nationalmannschaft (auch „Dream Team“ genannt) ihren legendären Siegeszug antrat. In den nachfolgenden Jahren wurde die Präsenz von Basketball in den Medien immer mehr verstärkt. Namhafte Basketballspieler wie Michael Jordan repräsentierten diese Sportart in bekannten Werbekampagnen oder auf den Titelseiten verschiedener Magazine. Der Basketballsport ist in vielen Ländern der Welt verbreitet. Die meisten europäischen Länder besitzen eine eigene Basketball-Liga und in vielen Ländern finden immer mehr Training-Camps statt, die dem normalen Spieler das Grundprinzip und die Spielweise beibringen. Neben den Meisterschaften und Spielen gibt es auch zahlreiche Events (z. B. die „And1 Mixtape“-Tour), die von Firmen gesponsert werden und der Unterhaltung dienen. Basketball international. a>, deutscher Nationalspieler bei einem Spiel von Saski Baskonia gegen Montepaschi Siena. Zu Beginn des 20. Jahrhunderts wurde Basketball in verschiedenen Ländern der Welt vorgestellt. Bereits 1893 fand in Paris das erste Spiel auf französischem Boden statt. Im Jahr 1902 wurden erstmals die von James Naismith verfassten Regeln in die deutsche Sprache übersetzt. Vier Jahre später wurde Basketball in Italien eingeführt. Im Jahr 1913 wurde die Ballsportart in Puerto Rico freundlich empfangen und gefeiert. In den darauffolgenden Jahren wurde Basketball in vielen weiteren Ländern präsentiert (u. a. 1916 in Bulgarien und 1917 in Albanien sowie in Griechenland). Im Jahr 1923 fand in der Sowjetunion die erste nationale Meisterschaft der Herren statt. Bis zum Ende der 1920er Jahre erfreute sich Basketball einer steigenden Beliebtheit. Im Jahr 1930 fand vom 6. bis 14. Dezember die erste Kontinental-Meisterschaft der Herren in Südamerika statt, bei der sich Uruguay gegen Argentinien durchsetzen konnte. Der erste Schritt für die internationale Akzeptanz dieser Sportart wurde im Jahr 1930 gelegt, als das Internationale Olympische Komitee (kurz: IOC) Basketball als Olympischen Sportart aufnahm. 1932 gründeten acht Nationalverbände in Genf den Basket-Weltballverband FIBB in Genf gegründet, ab 1935–1986 Fédération Internationale de Basketball Amateur [FIBA] (siehe "Verbände und Ligen"). Der Weltbasketballverband kontrolliert die internationalen Meisterschaften und das Olympische Turnier und legt die internationalen Regeln fest. 1958 führte die FIBA den Europapokal der Landesmeister (Männer) und 1959 der Landesmeister (Frauen) ein. Ab 1932 hielt Basketball auch in Deutschland Einzug, zuerst durch Hugo Murero an der Heeressportschule Wünsdorf, danach in Breslau und Gera sowie ab 1933 in Bad Kreuznach durch Hermann Niebuhr. Er hatte als Lehrer an der Deutschen Schule in Istanbul Basketball kennengelernt. Er gründete 1935 die erste Basketball-Abteilung beim "„Vfl 1848 Bad Kreuznach“". Ebenfalls 1935 beteiligte sich eine deutsche Hochschulauswahl am Basketballturnier der Akademischen Weltspiele in Budapest. 1936 nahm Deutschland erst in letzter Minute am ersten Olympischen Basketballturnier in Berlin teil; alle drei Spiele gingen verloren. 1939 fand die erste Deutsche Meisterschaft der Männer in Hamburg statt. Den Titel gewann der Luftwaffen-Sport-Verein (LSV) Spandau. Deutschland bestritt von 1936 bis 1942 19 Länderspiele, 4 Begegnungen wurden gewonnen. Basketball unterstand im Dritten Reich dem Fachamt 4 Handball/Basketball des Deutschen, später Nationalsozialistischen Reichsbundes für Leibesübungen. Nach dem Ende des Zweiten Weltkrieges fanden bereits im Herbst 1945 erste Basketballspiele statt. Nach zwei Vorgängerorganisationen wurde am 1. Oktober 1949 in Düsseldorf der „Deutscher Basketball Bund“ (DBB) als eigenständige Organisation in der Bundesrepublik gegründet. Dieser nationale Verband ist seitdem für die Ausrichtung der deutschen Basketballmeisterschaft verantwortlich. In der DDR bestand zuerst die Sektion Basketball, ab 1958 der Deutsche Basketball-Verband. 1953 entsandten beide Verbände eine gesamtdeutsche Mannschaft zur Männer-Europameisterschaft in Moskau. Mit der Gründung der Basketball-Bundesliga (kurz BBL) im Jahr 1966 wurde erstmals eine professionelle Basketball-Liga in Deutschland eingeführt. Deutschland gewann 1993 mit 71:70 in München gegen Russland die Europameisterschaft. Basketball wurde im Jahr 1936 bei den Olympischen Sommerspielen 1936 in Berlin offiziell gespielt. Das Spiel wurde in zwei Spielhälften mit je 20 Minuten aufgeteilt und auf Tennisplätzen des Reichssportfeldes praktiziert. Im Finale konnte sich die amerikanische Nationalmannschaft mit 19:8 gegen Kanada durchsetzen. Im Jahr 1950 fand die erste offizielle „Basketball-Weltmeisterschaft der Herren“ in Buenos Aires, Argentinien statt. Die argentinische Basketballmannschaft konnte sich im Finale gegen die USA durchsetzen. Drei Jahre später fand in Santiago de Chile auch die erste offizielle „Basketball-Weltmeisterschaft der Frauen“ statt. Hier konnte sich das Team aus den USA gegen die Gastgeber behaupten. Seit 1976 (Montreal) spielen auch die Basketball-Frauen um olympische Medaillen. Der Basketballsport hat heute in zahlreichen europäischen Ländern (z. B. in Spanien, den baltischen Staaten, auf dem Balkan oder Griechenland) und auch südamerikanischen Ländern (z. B. in Brasilien oder Argentinien) einen hohen Stellenwert. Bei der Basketball-Weltmeisterschaft 2006 der Herren in Japan gewann die spanische Basketballmannschaft mit 70:47 gegen die Mannschaft aus Griechenland. Bei den vorherigen Basketball-Weltmeisterschaften waren Länder wie Serbien und Kroatien, Jugoslawien oder bei Frauen und Männern Russland bzw. die Sowjetunion sehr erfolgreich. Spielball. Der Spielball ist im Laufe der letzten hundert Jahre entwickelt und verbessert worden. In den ersten beiden Jahren des Basketballs wurde mit "Paneel-Bällen" gespielt. Diese Paneel-Bälle waren mit aktuellen Volleybällen vergleichbar. Von 1894 bis in die 1940er Jahre wurden geschnürte Basketbälle bei Wettkämpfen und Spielen verwendet. Hierbei war bereits die „typische“ Form der Linien des Basketballs zu erkennen. Der aktuelle Basketball besteht aus synthetischem Material oder Leder sowie Nylon-Fäden. Bei Wettkämpfen für Männer hat der offizielle Spielball einen Umfang von 749 bis 780 Millimeter (Größe 7) und ein Gewicht von 567 bis 650 Gramm. In den deutschen Damen-Basketball-Ligen wird seit der Saison 2004/05 mit einem Ball gespielt, der einen Umfang von 724 bis 737 Millimeter (Größe 6) hat und 510 bis 567 Gramm wiegt. Bekleidung. In der ersten Hälfte des 20. Jahrhunderts trugen die Spieler Trikots aus Wolle und Stoffhosen. Außerdem war das Tragen von Knie-, Ellenbogen- und Schienbeinschonern während des Spiels Pflicht. Dies lag vor allem an der harten Spielweise und dem schlechten Zustand der Arenen. In den 1960er Jahren hat sich die Bekleidung der Spieler erheblich verändert. Die Trikots wurden komfortabler und freier, und die Stoffhosen wurden durch bequeme kurze Shorts ersetzt. Auch die Basketballschuhe haben sich seither verändert. Zunächst trugen die Spieler unpraktische Lederschuhe. In den 1980er Jahren wurden die ersten Stars von Sportartikel-Herstellern wie Nike, Adidas, Puma oder Converse vertraglich verpflichtet. Spielprinzip. Das Ziel des Spiels besteht darin, den Spielball dribbelnd (den Ball auf den Boden tippen) oder per Passspiel in die gegnerische Spielhälfte zu bewegen und dort in den gegnerischen Korb zu werfen. Der Basketball muss von oben in den Korb fallen, der in einer Höhe von 3,05 Metern hängt. Dabei kann der Ball auch über das Brett gespielt werden. Ein erfolgreicher Korbwurf, Korbleger oder Dunking wird im Normalfall mit zwei Punkten gewertet. Ein Korbwurf von jenseits der Drei-Punkte-Linie zählt drei Punkte, ein Freiwurf einen Punkt. Sieger des Wettkampfes ist diejenige Mannschaft, die nach Ablauf der Spielzeit mehr Punkte erzielt hat als der Gegner. Bei einem Gleichstand wird eine Verlängerung von fünf Minuten gespielt. Das wird solange wiederholt, bis ein Sieger feststeht. Spielfeld. Basketballspiele werden immer auf einem rechteckigen Spielfeld mit einer harten Oberfläche ausgetragen. Für die offiziellen Hauptwettbewerbe der FIBA muss die Abmessung des Spielfeldes 28 Meter mal 15 Meter betragen. Mannschaften. Auf dem Feld spielen zwei Mannschaften mit je fünf Feldspielern. Die Anfangsformation einer Mannschaft wird auch als (deutsch: "Startende Fünf" oder kürzer "Erste Fünf") bezeichnet. Das müssen nicht immer die fünf leistungsstärksten und besten Spieler des Teams sein. Allerdings gilt es als unbedingt notwendig, über eine starke und ausgeglichen besetzte Bank zu verfügen. Häufig sind Bankspieler Routiniers oder Rollenspieler, die in kritischen Situationen für die notwendigen – und in diesem Moment benötigten – Impulse im Spiel sorgen sollen. Dies kann z. B. durch Dreipunktwürfe, schnelles Spiel, Ballsicherung, spezielle Verteidigungsaufgaben oder einfach eine starke Reboundpräsenz erreicht werden. Spieler können unbegrenzt oft gewechselt werden. Ein Wechsel ist während jeder Spielunterbrechung möglich. Positionen. In der Entstehungsgeschichte des Basketballs wurden die Spieler in "„Angreifer“" () und "„Verteidiger“" () eingeteilt. Mit der steigenden Popularität der Sportart und dem Einführen von neuen Regeln haben sich für die fünf Spieler spezielle Aufgabenbereiche entwickelt. Die Startaufstellung der fünf aktiven Feldspieler besteht meistens aus einem körperlich großen Akteur, dem Center, zwei Forwards und zwei Guards. Es sind aber auch verschiedene andere Variationen möglich, z. B. der Einsatz von drei Guards (das sogenannte „“, da Guards üblicherweise die kleineren Spieler sind), wie häufig von den Detroit Pistons unter Chuck Daly praktiziert, oder aber das Spielen mit zwei Centern, wie es die Houston Rockets Mitte der 1980er taten und die San Antonio Spurs noch immer tun. Im deutschen Basketball kommt es jedoch des Öfteren vor, dass man dieses System etwas abwandelt, es wird meist mit zwei Centern, zwei Flügelspielern (forwards) und einem Aufbauspieler (guard) gespielt. Der Center ist meist der größte und körperlich stärkste Spieler einer Mannschaft. Er agiert meistens in der Zone und muss möglichst viele Rebounds holen. Die Guards "(Aufbauspieler)" werden in „Shooting Guard“ und „Point Guard“ unterteilt. Der Shooting Guard ist auf Distanzwürfe "(Drei-Punkte-Wurf)" spezialisiert, während der Point Guard als Spielmacher (Playmaker) "(siehe Begriffe)" über den Spielzug seiner Mannschaft entscheidet. Die Forwards "(Flügelspieler)" werden auch in zwei weitere Positionen unterteilt: „Small Forward“ und „Power Forward“. Hierbei liegt der größte Unterschied zwischen den beiden Positionen in der Größe der Spieler. Beide Forwards sind Angriffsspieler, die wie der Center in der Zone agieren und versuchen, möglichst viele Treffer im Angriffsraum zu erzielen. Die Positionen werden vom kleinsten Spieler bis zum größten Spieler durchnummeriert, von #1 (Point Guard) bis #5 (Center). Schiedsrichter. Ein Spiel wird grundsätzlich von zwei Schiedsrichtern geleitet. In der NBA, der NCAA und vielen „höheren“ nationalen und internationalen Ligen bzw. Wettbewerben kommen jedoch drei Schiedsrichter zum Einsatz. Alle Schiedsrichter sind gleichberechtigt und haben nur unterschiedliche Beobachtungsbereiche und Verantwortungen, die aber permanent wechseln. Maßgeblich ist hierbei die Position des Balls auf dem Spielfeld. Bei der "Zwei-Schiedsrichter-Technik" ist ein Unparteiischer "vorderer Schiedsrichter". Seine Position ist hinter der Grundlinie der verteidigenden Mannschaft. Sein Kollege nimmt als "folgender Schiedsrichter" eine Position hinter dem Angriff etwa drei Meter vom Ball entfernt ein, wobei er sich im Bereich von der linken Auslinie bis etwa zur Spielfeldmitte aufhalten muss. Außer den Schiedsrichtern gibt es noch ein Kampfgericht am so genannten Anschreibetisch. Hier sitzen Zeitnehmer (bei jedem Pfiff wird die Zeit gestoppt), 24-Sekunden Zeitnehmer (man hat nur 24 Sekunden für einen Angriff) und Anschreiber (alle Punkte und Fouls werden protokolliert). Zeiteinteilung. Ein Basketballspiel besteht regulär aus Vierteln. In den Verbänden, die zur FIBA gehören, hat jedes Viertel eine Dauer von zehn Minuten. In der NBA werden pro Viertel zwölf Minuten gespielt. Steht es am Ende des vierten Viertels unentschieden, gibt es Verlängerungen zu je fünf Minuten (engl.), bis eine Mannschaft als Sieger feststeht. Ursprünglich spielte man zwei Halbzeiten mit je zwanzig Minuten. Die neue Zeiteinteilung ist eine Übernahme aus der NBA, in der schon länger vier Viertel gespielt werden. Eine Ausnahme bildet die US-amerikanische Collegeliga der NCAA, bei der nach wie vor zwei Halbzeiten gespielt werden. Anders als z. B. beim Fußball wird hier nur die reine Spielzeit gezählt, die Zeit wird bei Spielunterbrechungen gestoppt, sobald der Schiedsrichter das Spiel unterbricht (z. B. bei Fouls oder Ausbällen). Die tatsächliche Dauer eines Spieles beträgt in der Regel 80 bis 100 Minuten. Nach jedem Viertel und jeder Verlängerung gibt es eine Pause von zwei Minuten, die Halbzeitpause nach dem zweiten Viertel dauert fünfzehn Minuten (FIBA). Punktgebung. Für einen erfolgreichen Wurf werden im Normalfall zwei Punkte berechnet. Ein Wurf, bei dem sich der werfende Spieler hinter der so genannten Drei-Punkte-Linie befindet, bringt seiner Mannschaft drei Punkte. Die Drei-Punkte-Linie ist 6,75 Meter (seit Saison 2010/11) vom Mittelpunkt des Korbes (NBA: 7,24 m) entfernt. Bei einem Foul während eines Korbwurfversuches bekommt der gefoulte Spieler die gleiche Anzahl an Freiwürfen, wie Punkte mit einem erfolgreichen Wurf möglich gewesen wären. Der Freiwurf erfolgt von der Freiwurflinie (englisch) aus, die in 5,80 Meter Entfernung parallel zur Endlinie verläuft. Ein erfolgreicher Freiwurf zählt immer einen Punkt. Wird ein Spieler unmittelbar während eines Wurfversuchs gefoult und ist der Versuch trotz des Fouls erfolgreich, werden diese Punkte regulär gezählt und der Spieler erhält zusätzlich einen Bonusfreiwurf. Somit hat er die Möglichkeit, 3 (bzw. 4) Punkte zu erzielen. Angriff. Im Angriff (engl.) gibt es zahlreiche Varianten. Oft werden sogenannte Systeme gespielt. Dabei handelt es sich um Varianten eines eingespielten Spielzugs, in dem jeder Angreifer einen bestimmten Laufweg hat. Ziel ist es durch das Stellen von Blocks usw. einem Spieler einen freien Wurf zu ermöglichen. Gegen eine Zonenverteidigung wird die angreifende Mannschaft versuchen, eine Überzahlsituation auf einer Seite zu schaffen. Oder sie versucht viele Verteidiger auf eine Seite zu locken, um einen freien Spieler auf der anderen Seite zu erhalten. Gegen eine Mannverteidigung kann der Angreifer versuchen, sich möglichst von dem ballführenden Spieler fernzuhalten. So bindet er seinen eigenen Verteidiger und ermöglicht dem Ballführenden eine 1-gegen-1-Situation. Ein Beispiel ist die „Isolation“, wobei der Ballführer den Spielzug ansagt und alle Mitspieler ihren Mann nach außen drängen, sodass der ballführende Spieler nur gegen seinen direkten Gegenspieler („eins gegen eins“) zum Korb ziehen kann. Verteidigung. Der Spieler "Oscar Torres" blockt den Ball des Gegners. Auf das System der Verteidigung (engl.) bezogen unterscheidet man grundsätzlich die Zonen- von der Mannverteidigung. Bei der Zonenverteidigung handelt es sich um eine Raumdeckung. Vereinfacht gesagt hat dabei jeder Verteidiger ein bestimmtes Gebiet (z. B. vorne rechts) zu verteidigen. Vorteil ist ein sehr kompaktes Zentrum. Es wird deshalb für den Gegner schwieriger, Punkte in der Nähe des Korbes zu erzielen. Nachteilig ist die Verteidigung von Fernwürfen (z. B. Dreier). Außerdem kann der Gegner durch geschicktes Überlagern versuchen, auf einer Seite gezielt eine Überzahlsituation herbeizuführen. Bei der Mannverteidigung ist jedem Angreifer ein Verteidiger zugeordnet. Demgemäß wird ein freier Wurf von draußen schwieriger. Allerdings ist das Zentrum nicht voller Verteidiger, was den Zug zum Korb einfacher macht. Schließlich gibt es noch Mischformen, die allerdings eher selten praktiziert werden. So könnte man bspw. mit vier Mann eine Zone spielen, während einer den gegnerischen Aufbauspieler Mann zu Mann verteidigt. Das bietet sich an, wenn der Gegner einen überragenden Spieler besitzt. Spielregeln. Der Sprungball im Mittelkreis eröffnet das Spiel. Die im folgenden Abschnitt beschriebenen Spielregeln beziehen sich auf die offiziellen FIBA-Regeln. Unterschiede zu Regeln anderer Ligen, wie die der NBA oder NCAA, werden hier nicht berücksichtigt. Sprungball. Nach den FIBA-Regeln beginnt jedes Spiel mit einem Sprungball, um so den ersten Ballbesitz zu entscheiden. Dabei wirft einer der Schiedsrichter den Spielball im Mittelkreis zwischen zwei gegnerischen Spielern in die Höhe, die Spieler versuchen anschließend den fallenden Ball einem Mitspieler zuzuspielen. In den nachfolgenden Vierteln wechselt der Ballbesitz und wird mit einem Richtungspfeil am Kampfgericht angezeigt. In der NBA wird der Sprungball auch bei anderen Spielsituationen eingesetzt, beispielsweise nach einem Doppelfoul mit Freiwürfen, allgemein wenn der Ballbesitz unklar ist. Der Sprungball wird dann nicht im Mittelkreis, sondern in dem Kreis (siehe Spielfeld), welcher der letzten Spielsituation am nächsten ist, ausgeführt. Fouls. "Hauptartikel: Foul (Basketball)" Man unterscheidet zwischen persönlichen, technischen, unsportlichen (früher absichtlichen) und disqualifizierenden Fouls. Technische Fouls gibt es für technische Fehler, administrative Vergehen und Disziplinlosigkeit von Spielern und Trainern. Vergehen dieser Art sind beispielsweise Meckern, zu viele Spieler auf dem Feld, Hängen am Ring, Stören des Gegners durch Gestik und Mimik (z. B. Klatschen oder Schreien während des Wurfversuchs) oder heftiges Schwingen mit den Ellbogen, auch wenn kein Kontakt entsteht Unsportliche Fouls werden verhängt, wenn der Kontakt sehr hart ist, oder der Spieler keine Aussicht hat, den Ball zu spielen und es zum Kontakt kommt (z. B. Stoß mit beiden Händen in den Rücken). Seit 2008 wird bei einem Schnellangriff (englisch:) ein Kontakt von der Seite und von hinten ebenfalls als unsportliches Foul gewertet. Disqualifizierende Fouls werden wegen grober Unsportlichkeit (Tätlichkeit, Beleidigung etc.) ausgesprochen. Ein Foul, bei dem die Verletzung des Gegners in Kauf genommen wird, führt je nach Schwere zu einem unsportlichen oder disqualifizierendem Foul. 1998 ist das „Vorteil-Nachteil-Prinzip“ in die Basketballregeln mit aufgenommen worden, z. B. muss das Berühren des Gegners mit den Händen kein Foul sein. Die Schiedsrichter müssen entscheiden, ob der Spieler, der den Kontakt verursacht hat, einen unfairen Vorteil davon hat (siehe „Fouls“ bzw. Artikel 33.10 der offiziellen Basketballregeln von 2008). Der Schiedsrichter zeigt mit seiner Faust in die Höhe und mit der anderen Hand auf den foulenden Spieler. Der Verteidiger begeht ein Foul durch Halten, Blockieren, Stoßen, Rempeln, Beinstellen und indem er die Bewegung eines Gegenspielers durch Ausstrecken von Hand, Arm, Ellbogen, Schulter, Hüfte, Bein, Knie oder Fuß behindert. Hat der verteidigte Angreifer gerade keinen Ball, ist durchaus ein gewisses Schieben und Zerren erlaubt. Hat der verteidigte Angreifer den Ball, sind die Möglichkeiten des Verteidigers eingeschränkt. Der angreifende Spieler darf nicht gestoßen werden, es sei denn, dieser sucht gezielt den Körperkontakt. In diesem Fall darf der Angreifer nicht mit Beinen oder Armen behindert werden, sondern nur mit dem Körper. Gute Verteidiger sind so schnell, dass sie den Angreifer ohne den Einsatz der Arme abdrängen, vielleicht sogar zum Rückwärtslaufen bringen können. Ein Angreifer mit Ball begeht ein Foul, wenn es mit einem in legaler Verteidigungsposition stehenden oder sich rückwärts bewegenden Verteidigungsspieler zu einem Kontakt kommt (offensives Foul) und der Angreifer dadurch einen unfairen Vorteil bekommt. Typische Offensivfouls sind illegale Kontakte mit dem Ellenbogen, Wegstoßen des Gegners mit dem Unterarm oder wenn der Angreifer mit der Schulter voran in den Gegenspieler läuft. Ein Angreifer ohne Ball begeht ein Foul, wenn er einen „bewegten Block“ (englisch: oder) setzt. Stehende Blocks hingegen sind im Basketball erlaubt (im Gegensatz zum Fußball, wo das sogenannte „Auflaufenlassen“ als Foul gewertet wird). Ein weiterer Unterschied zum Foul eines Verteidigers ist, dass bei Offensivfouls (Foul der ballführenden Mannschaft) keine Freiwurfstrafen verhängt werden (Ausnahme: unsportliches Offensivfoul). Sie zählen allerdings zu den Teamfouls. Ein disqualifizierendes Foul oder zwei unsportliche Fouls führen zum Spielausschluss. Der Disqualifizierte muss die Halle sofort verlassen oder in der Mannschaftskabine das Ende des Spiels abwarten. Fünf persönliche oder technische Fouls führen zum Verlust der Spielberechtigung für das laufende Spiel (NBA: sechs Fouls). Zwei technische Fouls gegen einen Trainer, ein technisches Foul gegen einen Trainer und zwei technische Fouls gegen die Bank oder drei technische Fouls gegen die Bank führen zur Disqualifikation des Trainers. Zu beachten ist, dass es sich um persönliche Strafen handelt. An der Anzahl der Spieler auf dem Feld ändert sich nichts. Grundsätzlich führt ein Foul beim erfolglosen Korbversuch je nach Position des Gefoulten zu zwei oder drei Freiwürfen. Bei einem Korberfolg mit Foul – sprich der Angreifer wird bei der Korbwurfaktion gefoult – erhält der Gefoulte die Punkte und zusätzlich einen Bonusfreiwurf. Ein Foul ohne Korbversuch führt grundsätzlich nicht zu Freiwürfen. Ausnahme: Ab dem 5. Mannschaftsfoul (alle persönlichen und technischen Fouls aller Spieler eines Teams pro Viertel, Foulgrenze) gibt es pro Verteidiger-Foul grundsätzlich zwei Freiwürfe (früher gab es in dieser Situation 1 + 1 Freiwürfe, d. h., nur wenn der erste ein Treffer war, gab es einen zweiten). Zeitübertretungen. Jeder Angriff darf maximal 24 Sekunden dauern (u. a. in Deutschland, USA; 30 oder 45 Sekunden sind nur in wenigen Ländern erlaubt), die auf einer Wurfuhr heruntergezählt werden. Die Zeit wird dabei neu gestartet, wenn der Schiedsrichter „absichtliches Spielen des Balles mit dem Fuß“ pfeift. Außerdem startet die Zeit nach jeder Ringberührung des Balles von neuem. Schließlich führt auch ein Ballwechsel, (Verteidiger erobert den Ball und wird zum Angreifer, sogenannter „Steal“) sowie ein Foul der verteidigenden Mannschaft zum Neustart der 24-Sekunden-Uhr. Hingegen führt eine Ausball-Entscheidung ohne Wechsel des Ballbesitzes nicht zum Neustart. Zu spektakulären Szenen führt folgende Besonderheit: Ein Korb zählt, wenn ein Spieler den Ball vor Ablauf der 24-Sekunden-Uhr abwirft. Das Signal ertönt dann, während der Ball sich in der Luft befindet (auch ein in der letzten Sekunde des Spieles abgeworfener Ball zählt, obwohl er den Korb erst nach Ablauf der Spielzeit erreicht). Im amerikanischen College-Basketball hat man für einen Angriff 35 Sekunden Zeit, was zu weniger Punkten als im Profi-Basketball führt. Bekommt eine Mannschaft den Ball oder gab es einen Einwurf, so muss sie innerhalb von acht (bei 24 Sekunden) Sekunden den Ball in die gegnerische Hälfte bringen. Gelingt ihr das nicht, gibt es einen Einwurf für den Gegner an der Mittellinie. Während eines Angriffs dürfen sich die Spieler der angreifenden Mannschaft nicht länger als drei Sekunden ununterbrochen in der gegnerischen Zone (im Freiwurfraum) aufhalten, unabhängig davon, ob der jeweilige Spieler im Ballbesitz ist oder nicht. Hier ist aber anzumerken, dass kein Schiedsrichter die drei Sekunden mit der Uhr stoppt. Sie werden (wie die 8-Sekunden) „im Kopf“ gezählt oder nach Gefühl entschieden. Auf hochklassigem Niveau wird selten aufgrund dieser Regel gemaßregelt. Mittlerweile sind die Schiedsrichter angewiesen, den 3-Sekunden-Verstoß nicht zu ahnden, wenn ein Angreifer zwar mehr als drei Sekunden in der Zone steht, aber während dieser Zeit nicht aktiv ins Spiel eingreift. Wenn ein Spieler den Ball erhält, nachdem er bereits drei Sekunden oder länger in der Zone gestanden hat, ist dies eine Regelübertretung. Nachsicht wird mit einem Spieler geübt, wenn dieser zwei Sekunden in der Zone ist, aber er sofort auf den Korb wirft oder zum Korbleger ansetzt. Ein Spieler darf beim Einwurf den Ball nur maximal fünf Sekunden festhalten, bis er den Einwurf ausführt. Im Spiel muss er nach fünf Sekunden einen Korbwurf machen, anfangen zu dribbeln oder den Ball abgeben, wenn er nah bewacht wird. Sollte eine dieser Regeln verletzt werden, so erhält die gegnerische Mannschaft den Ball durch Einwurf an der nächstgelegenen Auslinie. Aus. Auf Aus wird entschieden, wenn Ball oder ballführender Spieler auf oder außerhalb der Auslinie den Boden berühren. Der Ball ist hingegen nicht im Aus, wenn er sich außerhalb der Auslinie in der Luft befindet. Ein Spieler, der innerhalb des Spielfelds abspringt, kann ihn ins Spiel zurückpassen, solange Spieler oder Ball nicht den Boden berühren. Rückspiel. Der Argentinier Luis Scola und der Litauer Paulius Jankūnas bei einem Länderspiel. Bei einem Angriff darf der Spielball von keinem Spieler der ballführenden Mannschaft von der gegnerischen Hälfte (Vorfeld) in die eigene Spielfeldhälfte (Rückfeld) zurückgespielt werden. Geschieht dies doch, ist das ein Regelverstoß, das sogenannte „Rückspiel“ (engl. "backcourt violation"). Als Rückspiel wird dabei jede Ballbewegung über die Mittellinie gewertet, es ist also egal, ob gepasst oder gedribbelt wurde. Der Ball ist bei einem Dribbling erst dann im Vorfeld, wenn sowohl Ball als auch beide Füße des Dribbelnden Kontakt mit dem Vorfeld haben. Ein Verstoß dagegen wird mit einem Einwurf der gegnerischen Mannschaft von der Seitenlinie her bestraft; dies nächst der Stelle, an der der Spieler den Ball im Rückfeld berührt. Ausnahmen: Es ist kein Rückspiel, wenn ein Verteidiger den Ball ins Rückfeld der angreifenden Mannschaft zurücktippt (beim „Tippen“ des Balles wechselt nicht der Ballbesitz) oder der Ball von einem angreifenden Spieler ins Rückfeld gepasst und von einem gegnerischen Spieler abgefangen wird (der Einwurf entfällt hier logischerweise, da der Ballbesitz sowieso wechselt). Es gilt nicht als Rückspiel, wenn ein Spieler im Vorfeld abspringt und den Ball im Flug zurück ins Vorfeld spielt. Des Weiteren darf ein Verteidiger im Vorfeld abspringen, den Ball fangen und in seinem Rückfeld landen. Dagegen darf er nicht in dieser Situation den Ball zu einem Mitspieler tippen bzw. passen. Schrittfehler. Der ballführende Spieler muss dribbeln (den Ball auf den Boden tippen), wenn er sich fortbewegen will. Tut er dies nicht, wird auf Schrittfehler (travelling) entschieden und der Gegner bekommt Einwurf an der Seitenlinie. Nach den FIBA-Regeln muss zuerst gedribbelt werden, die NBA-Regeln erlauben, zuerst den Schritt und dann das Dribbling zu machen. Nachdem er aufhört zu dribbeln und noch in der Bewegung, d. h. beim Laufen ist, darf er noch zwei Bodenkontakte mit den Füßen haben, bevor er passt oder auf den Korb wirft. Dabei darf das Standbein zum Zwecke des Passes oder Wurfes angehoben, aber nicht wieder aufgesetzt werden (z. B. beim aufgelösten Sternschritt). Doppeldribbling. Sobald ein Angreifer den Ball nach einem Dribbling (Tippen des Balles auf den Boden) aufnimmt, darf er nicht erneut zum Dribbling ansetzen. Ein Verstoß gibt Einwurf für den Gegner von der Seitenlinie. Eine andere Version hiervon ist Carrying: In diesem Fall dreht der Spieler während des Dribbelns seine Hand um, sodass die Hand unter dem Ball ist. Die Folgen sind dieselben wie beim normalen Doppeldribbling. Das sogenannte „Fumbling“ zählt nicht als Dribbling. Dabei tippt der Ball zwar auf dem Boden auf, aufgrund der fehlenden Ballkontrolle ergibt sich daher aber keine Regelübertretung. Nur in der grünen Flugphase ist es erlaubt den Ball zu blocken, danach wäre es. Es ist nur erlaubt, einen vom Gegner gezielt auf den Korb geworfenen Ball aus der Luft zu fangen oder zu blocken, solange er sich in der Aufwärtsbewegung befindet. Hat er den Scheitelpunkt seines Fluges erreicht oder befindet sich bereits im Sinkflug und vollständig über Ringniveau, muss der Ball erst den Korb berühren, bevor er wieder frei spielbar ist. Etwas anderes gilt nur, wenn der Ball offensichtlich danebengeht. Anfangs gab es diese Regel nicht und so gingen sehr groß gewachsene Spieler dazu über, sich unter den eigenen Korb zu stellen und alle Würfe abzufangen. Eine weitere Form des liegt darin, den Ball zu blocken, nachdem er das Brett berührt hat und er sich vollständig über Ringniveau befindet. Berührt ein Ball bei einem Korbwurf das Brett, ist er nicht frei, außer es ist offensichtlich, dass er danebengeht. Dabei ist es im Gegensatz zum Wurf ohne Brett egal, ob er sich noch in der Aufwärts- oder schon in der Abwärtsbewegung befindet. Ein Spieler begeht bei einem Freiwurf, wenn er den Ball auf dem Flug zum Korb berührt, bevor dieser den Ring berührt. Auch das Greifen ins Netz oder Schlagen ans Brett durch einen Verteidiger, der dadurch einen Korb verhindert, kann man im weiteren Sinne als bezeichnen. Folge von ist, dass der angreifenden Mannschaft der Korbversuch als Korberfolg gewertet wird. Die angreifende Mannschaft kann auch gepfiffen bekommen, die Voraussetzungen sind die gleichen. Das nennt man dann '. Fußspiel. Als Fußspiel bezeichnet man das Berühren des Balles mit dem Fuß, Knie oder Bein. Wird das Fußspiel von einem Defensivspieler begangen, wird die Shot Clock, sofern mehr als 10 Sekunden vergangen sind, auf 14/24 Sekunden gesetzt (14 im Vorfeld, 24 im Rückfeld). Sind nicht mehr als 10 Sekunden vergangen, spielt man mit der bestehenden Zeit weiter. Sofern dagegen ein Offensivspieler das Fußspiel begeht, bekommt die gegnerische Mannschaft den Ball und die vollen 24 Sekunden eines neuen Angriffs. Entwicklung der Basketballregeln. Grundsätzlich wird weltweit nach den jeweils gültigen FIBA-Regeln gespielt. In der NBA sind eigene Regeln gültig, die sich ebenfalls historisch entwickelt haben und die auf die besonderen US-amerikanischen Anforderungen des Profi-Sports (z. B. Unterbrechungen des Spiels für TV-Werbeeinblendungen) ausgerichtet sind. Bei internationalen Turnieren (z. B. Olympischen Spielen), die unter der Kontrolle der FIBA ausgerichtet werden, müssen sich alle NBA-Profis auf die FIBA-Regeln umstellen. Spielregeln der FIBA und anderer Ligen. Neben den Ligen, die nach den internationalen FIBA-Regeln spielen, gibt es vor allem in der nordamerikanischen Liga leicht abweichende Regeln. Diese Abweichungen resultierten meist aus dem Grund, das Spiel attraktiver für die Zuschauer zu gestalten oder sind historisch gewachsen. Die italienische Basketballspielerin "Sara Giauro" bei einem "Drei-Punkte-Wurf". FIBA. Die 5 Kontinentalverbände der FIBA. Der Weltbasketballverband wurde am 18. Juni 1932 in Genf unter dem Namen „FIBA“ "(Fédération Internationale de Basketball Amateur)" gegründet. Die Gründungsmitglieder waren Argentinien, Griechenland, Italien, Lettland, Portugal, Rumänien, Schweiz und Tschechoslowakei; seit 2002 hatte die FIBA ihren Sitz in Genf. Zwei Jahre zuvor wurde die Sportart „Basketball“ offiziell von dem Internationalen Olympischen Komitee anerkannt. Seit dem Jahr 1950 findet in einem zeitlichen Abstand von vier Jahren ein FIBA-Turnier für Männer statt. Im Jahr 1953 wurde dieses Event auch für Frauen eingeführt. Im Jahr 1989 hat der Weltbasketballverband die Freigabe für professionelle Spieler erteilt. Seither vertreten internationale Basketballspieler wie Dwyane Wade oder Tim Duncan ihre Nationalmannschaft bei den Olympischen Sommerspielen. Ligen. NBA-Teams, Conferences und DivisionsWestern ConferenceEastern Conference Die erste offizielle Basketballliga wurde von drei Konzernen (General Electric, Firestone, Goodyear) im Jahr 1937 unter dem Namen „National Basketball League“ (kurz. NBL) gegründet. Diese Liga wurde im Jahr 1949 aufgelöst und in die „National Basketball Association“ (kurz. NBA) umbenannt. Doch zuvor spielten bekannte Spieler wie Bob Davies noch in der „Basketball Association of America“ (kurz. BAA). Diese Liga brachte im Gründungsjahr 1946 viele neue Arenen sowie einen höheren Bekanntheitsgrad. Die NBA ist zurzeit die populärste Basketball-Profiliga der Welt. Dreißig Mannschaften aus insgesamt sechs Divisions "(Atlantic, Central, Southeast, Northwest, Pacific, Southwest)" spielen in der regulären Saison (Regular Season) um den Einzug in die Playoffs. In den Playoffs treten die jeweils acht besten Mannschaften der Western und Eastern Conference in einem K.-o.-System gegeneinander an (siehe National Basketball Association). Aufgrund der wachsenden Popularität des Frauen-Basketballs wurde am 24. April 1996 die Women’s National Basketball Association (kurz. WNBA) gegründet. Deutsche Verbände. Sitz des Deutschen Basketball Bundes (DBB) ist Hagen (Westfalen). Der Präsident des DBB ist seit dem Jahr 2006 Ingo Weiss. Internationale Verbände. a>, Trainer der deutschen Nationalmannschaft von 2003-2011 Varianten. Verschiedene Varianten und Abwandlungen des Basketballs sind u.a. bekannt: Korbball, Korfball, Mini-Basketball, Netball, Show-Basketball, Wasser-Basketball, Slamball Streetball. Das so genannte Streetball ist eine Abwandlung des Basketballs. Es erfreut sich seit den 1990er Jahren als Freizeitsportart immer größerer Beliebtheit. Im Unterschied zum klassischen Basketball wird hier meistens drei gegen drei auf nur einen Korb gespielt und findet im Freien statt, wobei sich die Regeln zusätzlich noch vom „normalen“ Basketball unterscheiden. Aufgrund der geringeren Zahl an Spielern pro Mannschaft liegt ein höheres Gewicht auf den direkten Zweikämpfen und damit den Fähigkeiten in der Ballbehandlung. Einradbasketball. Der Einradbasketball wird vor allem bei Wettbewerben der "„International Unicycling Federation“" (kurz IUF) gespielt. Die Teilnehmer müssen den Basketball auf ihrem Einrad so oft wie möglich in den gegnerischen Korb werfen. In dieser Variante werden die gleichen Regeln verwendet wie beim normalen Basketball. Rollstuhlbasketball. Der Rollstuhlbasketball wurde im Jahr 1946 in den USA erfunden, da einige Basketballspieler ihren Sport trotz Kriegsverletzungen betreiben wollten. Die "International Wheelchair Basketball Federation" ist der internationale Dachverband. Rollstuhlbasketball zählt seit den Paralympics 1960 in Rom zu den paralympischen Sportarten. Die deutschen Rollstuhlbasketballer sind im Deutschen Rollstuhl-Sportverband (DRS) organisiert. Beachbasketball. Das zunächst in den USA als Trainingsvariante des Basketballs entwickelte Beachbasketball erfreut sich seit einigen Jahren einer wachsenden Popularität. Dabei wird in Deutschland anders als in den USA auf zwei Körbe in einem verkleinerten Spielfeld gespielt. Die Deutsche Meisterschaft im Beachbasketball wird jährlich in Cuxhaven ausgetragen. Film. Der erste Film mit einer Basketball-Thematik erschien im Jahr 1979 unter dem Titel "„The Fish That Saved Pittsburgh“". In dieser Komödie spielten sehr bekannte Basketballspieler wie Julius Erving oder Kareem Abdul-Jabbar die Hauptrollen. Im Jahr 1987 wurde der Film „Freiwurf“ (eng.) in den Kinos veröffentlicht. In diesem Sportdrama spielten bekannte Schauspieler wie Gene Hackman, Barbara Hershey oder Dennis Hopper die Hauptrolle. Der Film handelt von einer hoffnungslosen High School Mannschaft, die sich durch die Hilfe von Coach Norman Dale (gespielt von Gene Hackman) zu einem Titelfavoriten entwickeln. Der Film wurde von der Presse positiv aufgenommen und war in zwei Kategorien für den Oscar nominiert. Durch den großen Erfolg der amerikanischen Basketballmannschaft bei den Olympischen Sommerspielen 1992 in Barcelona und die Siegesserie von Basketballlegende Michael Jordan mit den Chicago Bulls entstand in den 1990er Jahren ein Boom an Filmen mit Basketball-Thematik. Im Jahr 1992 erschien die Filmkomödie „Weiße Jungs bringen’s nicht“, mit den Schauspielern Wesley Snipes und Woody Harrelson in der Hauptrolle, in den Kinos. Zwei Jahre später werden zwei weitere Filme und eine Dokumentation mit einer Basketballthematik in den Kinos veröffentlicht. In dem Filmdrama „Above the Rim – Nahe dem Abgrund“ spielt Tupac Shakur die Rolle des skrupellosen Ganganführers Birdie, der den hoffnungsvollen jungen Spieler Kyle in seiner Mannschaft haben will. In dem Film "„Blue Chips“" geht es um den Coach Pete Bell (gespielt von Nick Nolte) und seine Basketball-Mannschaft, die durch das Brechen der Regeln zur Siegermannschaft aufsteigen wollen. Die Basketballspieler Bob Cousy und Shaquille O’Neal spielten in diesem Film eine Nebenrolle. Der Dokumentarfilm „Hoop Dreams“ befasst sich mit zwei afroamerikanischen Jungen, die aus ihrem schlechten Leben in dem Ghetto fliehen wollen, um professionelle Basketballspieler zu werden. Diese Dokumentation wurde mit zahlreichen Preisen ausgezeichnet und war im Jahr 1995 für den Oscar nominiert. Mitte der Neunziger Jahre erschienen weitere bekannte Basketball-Filme wie die Komödie „Eddie“ oder der Animationsfilm „Space Jam“. Im Jahr 1998 veröffentlichte der Regisseur David Zucker die Filmkomödie „Die Sportskanonen“. In diesem Film erfinden die Freunde Joe Cooper und Doug Remer die Sportart „Baseketball“, eine Mischung aus Baseball und Basketball. Eine große Popularität unter Basketball-Fans erzielte der Film „Spiel des Lebens“. Der Film wurde von dem Regisseur Spike Lee gedreht und mit namhaften Schauspielern wie Denzel Washington oder Milla Jovovich belegt. Im Jahr 2005 kam der Film „Coach Carter“ in die deutschen Kinos, der auf einer wahren Begebenheit beruht. Videospiel. Im Jahr 1979 wurde das erste Basketballvideospiel für den Atari veröffentlicht. Das Spiel konnte man damals mit einem sogenannten Trackball gegen den Computer oder einen anderen Mitspieler spielen. Im Jahr 1989 wurde von dem Spieleentwickler Electronic Arts eine Serie gegründet, die zwei verschiedene Mannschaften gegenüberstellt. Der erste Teil dieser Serie erschien unter dem Titel "„Lakers versus Celtics“" auf dem PC und Sega Mega Drive. In diesem Spiel konnte man erstmals NBA-Stars wie Larry Bird, Kareem Abdul-Jabbar oder Magic Johnson spielen. Durch den großen Erfolg ermutigt, veröffentlichte Electronic Arts im Jahr 1991 den Nachfolger „Bulls versus Lakers and the NBA Playoffs“. Das Sportspiel besaß 16 Originalmannschaften der Playoffs aus der vorherigen Saison und konnte mit einem weiteren Mitspieler gespielt werden. Ein Jahr später kam das Spiel "„Team USA Basketball“" auf den weltweiten Markt. Der Spieler konnte aus insgesamt vierzehn Internationalen Mannschaften (u. a. Australien, Angola, China) eine aussuchen und mit dieser gegen andere Mannschaften antreten. Im folgenden Jahr veröffentlichte der Spieleentwickler Midway das sehr beliebte und erfolgreiche Basketballspiel NBA Jam. Das Spielprinzip unterschied sich sehr von den anderen Basketballspielen, die auf eine realistische Spielweise setzten. Im Jahr 1995 veröffentlichte der Spieleentwickler Electronic Arts den ersten Teil der NBA-Live-Serie für das Super Nintendo, Sega Mega Drive und den PC. Die Serie bot Originallizenzen der NBA und eine auf die Systeme angepasste Grafikengine. Innerhalb der nächsten Jahre entwickelte sich „NBA Live“ zu einer der beliebtesten Basketball-Videospielreihe der Welt. Neben der NBA-Live-Reihe veröffentlicht EA Sports auch „NBA Street“. Diese Reihe bietet neben den Originallizenzen eine unrealistische Spielweise, die sehr an die NBA-Jam-Serie erinnert. Nach der 2009 erschienenen Version NBA Live 10 wurde die Serie eingestellt und EA begann die Entwicklung einer neuen Basketballsimulation die NBA Elite heißen sollte. Nach mehreren Verschiebungen des Veröffentlichungstermins wurde die Entwicklung komplett eingestellt, so dass es für die Saison 2010/11 keine Version von EA gab. Seit 2005 gibt es eine weitere Spielserie, welche von 2K Games produziert wird. Sie nennt sich NBA2K und entwickelte sich seit dem Start zum größten Konkurrenten der EA-Sports Serie. Neben einer realistischen Simulation bietet das Spiel auch alle Lizenzen der NBA sowie einen Modus der es den Benutzer ermöglicht einen eigenen Profispieler zu erstellen. Die neuste Version heißt NBA 2K14. Bundesvereinigung der Deutschen Arbeitgeberverbände. Die Bundesvereinigung der Deutschen Arbeitgeberverbände e. V. (BDA) ist der arbeits- und sozialpolitische Spitzenverband der gesamten deutschen Wirtschaft und hat ihren Sitz in Berlin (von 1951 bis 1999 in Köln). Die BDA vertritt als einzige Vereinigung die Interessen aller Branchen der privaten gewerblichen Wirtschaft in Deutschland. Geschichte. Die Arbeitgeberverbände entstanden in Reaktion auf die Gewerkschaften. Schon 1869 gründete sich der Deutsche Buchdruckerverein als erster und ältester Arbeitgeberverband. Im April 1904 kam es zur Gründung der Hauptstelle der deutschen Arbeitgeberverbände mit Sitz in Berlin und 1913 zur „Vereinigung der Deutschen Arbeitgeberverbände“. Dieser entstand aus einer Fusion zweier rivalisierender Spitzenverbände, der Hauptstelle deutscher Arbeitgeberverbände (gegründet 1904 als Vertretung der schwerindustriellen Arbeitgeber) und dem Verein deutscher Arbeitgeberverbände (gegründet 1904 als Vertretung der Arbeitgeber in der verarbeitenden Industrie). 1920 waren bereits Betriebe mit 8 Millionen Mitarbeitern in Arbeitgeberverbänden organisiert. Nach der Machtergreifung der NSDAP lösten sich die Arbeitgeberverbände unter dem Druck der Nationalsozialisten auf. Nach dem Zweiten Weltkrieg blieben die Arbeitgeberverbände in der Sowjetischen Besatzungszone bzw. DDR verboten. In den Westsektoren knüpfte man an die Traditionen der Zeit vor 1933 an. 1947 wurde die Arbeitsgemeinschaft der Arbeitgeber der Westzone gebildet, aus der 1948 das Zentralsekretariat der Arbeitgeber des Vereinigten Wirtschaftsgebietes wurde. Noch vor Inkrafttreten des Grundgesetzes fand im Januar 1949 die konstituierende Sitzung der sozialpolitischen Arbeitsgemeinschaft der Arbeitgeberverbände des vereinigten Wirtschaftsgebietes mit Sitz in Wiesbaden durch Vertreter von 23 fachlichen und acht fachübergreifenden Arbeitgeberverbänden statt. Nachdem sich Ende 1949 auch die Verbände auf dem Gebiet der ehemaligen Französischen Besatzungszone angeschlossen hatten, wurde im November 1950 der Name „Bundesvereinigung der Deutschen Arbeitgeberverbände“ festgelegt. Mit dem Aufbau von Verbandsstrukturen nach westdeutschen Vorbild in den Neuen Bundesländern 1990 etablierte sich die BDA als gesamtdeutscher Arbeitgeberverband. 1999 folgte die BDA dem Umzug der Regierung nach Berlin und zog an die Spree. Dort teilt sie sich das Haus der Deutschen Wirtschaft in der Breiten Straße 29 mit dem Bundesverband der Deutschen Industrie und dem Deutschen Industrie- und Handelskammertag. Organisation. Unter dem Dach der Bundesvereinigung der Deutschen Arbeitgeberverbände (BDA) sind die deutschen Arbeitgeberverbände zusammengefasst. Ihre Mitglieder sind 14 überfachliche Landesvereinigungen (gemeinsame Landesvereinigungen zwischen Berlin und Brandenburg sowie Hamburg und Schleswig-Holstein) mit jeweils überfachlichen Regionalverbänden sowie 52 Bundesfachspitzenverbände mit jeweiligen Landes- und regionalen Fachverbänden aus den Bereichen Industrie, Dienstleistung, Finanzwirtschaft, Handel, Verkehr, Handwerk und Landwirtschaft. Insgesamt sind circa eine Million Unternehmen mittelbar Mitglied der BDA. Diese beschäftigen rund 70 Prozent aller Arbeitnehmer. Auf europäischer Ebene besteht die Businesseurope (ehemals "Union des Confédérations de l'Industrie et des Employeurs d'Europe"). International ist die BDA in der International Organisation of Employers vertreten. Der größte Arbeitgeber in Deutschland, die öffentliche Hand, gehört allerdings nicht zu den Arbeitgeberverbänden. Auf europäischer Ebene besteht als Interessenvertretung das Centre Européenne de l'Enterprise Public als Dachverband. Die BDA ist ein eingetragener Verein nach § 21 BGB. Sie ist als Berufsverband mit dem Zweck, die Interessen der Arbeitgeber in unserer pluralistischen Gesellschaft zu vertreten, dem Gemeinwohl verpflichtet und daher steuerbefreit. Die wichtigsten Organe der BDA sind die Mitgliederversammlung, der Vorstand, das Präsidium, die Hauptgeschäftsführung und die Ausschüsse. Die Mitgliederversammlung, die jährlich stattfindet, wählt den Präsidenten auf zwei Jahre, das Präsidium sowie Mitglieder des Vorstandes und ist verantwortlich für den Haushalt und die Beitragsordnung. Der Vorstand nimmt neue Mitglieder auf, setzt Ausschüsse ein und gibt einstimmig tarifpolitische Empfehlungen ab. Er bestimmt die grundlegenden Richtungsentscheidungen. Das Präsidium handelt in dem vom Vorstand gesteckten Rahmen und ist das zentrale Entscheidungsorgan. Es besteht aus dem Präsidenten, acht Vizepräsidenten einschließlich des Schatzmeisters und 42 weiteren Mitgliedern und repräsentiert die gesamte Bandbreite der deutschen Wirtschaft. Präsident und Vizepräsidenten bilden gemäß § 26 BGB den juristischen Vorstand der BDA. Die Hauptgeschäftsführung wird auf Vorschlag des Präsidenten vom Vorstand berufen. Der Hauptgeschäftsführer und zwei Mitglieder der Hauptgeschäftsführung leiten die laufenden Geschäfte in enger Absprache mit dem Präsidenten. Zudem bestehen 75 Ausschüsse und Arbeitskreise, die sich mit Sachfragen beschäftigen, darunter vier gemeinsame mit dem Bundesverband der Deutschen Industrie. Ihre Vorschläge und Stellungnahmen sind Grundlage für die Entscheidungen von Vorstand und Präsidium. Aufgaben. Der Verband ist Ansprechpartner für Unternehmen, Politik und Medien. Für ihre Mitglieder vertritt die BDA die unternehmerischen Interessen in der politischen Willensbildung. Ihr stehen dabei die Legislative, die Exekutive, Gewerkschaften, gesellschaftliche Gruppen und die Öffentlichkeit gegenüber. Die BDA berät die Entscheidungsträger von den ersten Gesetzes-Entwürfen im Ministerium über die parlamentarischen Beratungen und Ausschuss-Sitzungen bis zur abschließenden Behandlung im Bundesrat. Durch das Erstellen von Konzepten in ihren Themenbereichen nimmt sie Einfluss auf die gesellschaftliche Willensbildung. In verschiedenen Gremien werden neue Positionen erarbeitet und Informationen aufbereitet. Sie ist auch in den Selbstverwaltungsorganen aller Sozialversicherungen vertreten. Die BDA deckt die Themenfelder Beschäftigungspolitik, Soziale Sicherung, Arbeitsrecht, Tarifpolitik, Bildung, Europapolitik, Gesellschaftspolitik und Volkswirtschaft ab. Dieses schlägt sich auch in ihrer Abteilungsstruktur nieder. Darüber hinaus bietet die BDA ihren Mitgliedern umfangreiche Informationsdienste. Sie informiert frühzeitig über gesetzliche Entwicklungen und bewertet getroffene politische Entscheidungen sowie arbeitsrechtliche Urteile insbesondere in Hinblick auf ihre Folgen für die Unternehmen. Dazu versendet sie jährlich 1.000 Informationsrundschreiben und bearbeitet 15.000 Anfragen pro Jahr. Der Widerstand gegen den Schutz von Whistleblowern. Roland Wolf, Geschäftsführer und Leiter der Abteilung Arbeitsrecht des BDA, sprach sich bei einer öffentlichen Anhörung im Bundestag am 16. März 2015 gegen ein vorgeschlagenes Whistleblower-Schutzgesetz für Deutschland aus. Einflussnahme auf die politische Bildung. Im Juli 2015 erließ das Bundesministerium des Innern (BMI) ein vorläufiges Vertriebsverbot gegen die von der Bundeszentrale für politische Bildung (bpb) herausgegebene Publikation „Ökonomie und Gesellschaft“ aus der Schriftenreihe „Themen und Materialien“. Das Verbot erfolgte auf Initiative der BDA und mit der Begründung eines Verstoßes gegen den Beutelsbacher Konsens. Der Wissenschaftliche Beirat der bpb kam nach Überprüfung der Vorwürfe zu dem Schluss, die Publikation sei unproblematisch; der BDA habe seine Vorwürfe in skandalisierender Absicht mit "verkürzenden" und "verfälschenden" Zitaten belegt; so sei beispielsweise ohne Kenntlichmachung direkt aus Materialien zitiert worden. Der Vorstand der Deutschen Gesellschaft für Soziologie kritisierte die Maßnahmen des BMI und "verwehrt sich gegen den massiven Eingriff des Ministeriums in die Freiheit der Wissenschaft"; weiter kritisiert er den "politischen Vorstoß der BDA", der "das Gebot der Wissenschaftsorientierung von Bildung" ignoriere. Auch die Gewerkschaft IG Metall kritisierte den Vorgang als "Skandal". Biochemie. a>, die bisher nur von lebenden Organismen bekannt waren, aus anorganischen Ausgangsverbindungen zu synthetisieren. Die Biochemie (von griechisch βιοχημεία "biochēmeia", „die Chemie des Lebens“), früher auch Physiologische Chemie genannt, ist die Lehre von chemischen Vorgängen in Lebewesen, dem Stoffwechsel. Chemie, Biologie und Medizin sind in der Biochemie eng miteinander verzahnt. Die Aufklärung und Heilung von Stoffwechselkrankheiten, z. B. Hormonmangel (z. B. Diabetes), Vitaminmangel wurden durch die Biochemie möglich. Ärzte können manche Krankheitsursachen durch Enzymtests schneller auffinden. Gegenstand. a> – einem weit verbreiteten Biomolekül Im Zuge dessen konzentrieren sich die Betrachtungen auf die Stoffgruppen der Nukleinsäuren, Proteine, Lipide und Kohlenhydrate sowie deren Derivate, welche im Allgemeinen als Biomoleküle bezeichnet werden. Der überwiegende Teil der biochemisch wichtigen Vorgänge spielen sich in Lebewesen und somit in wässrigem Milieu ab. Methoden. In der Biochemie wird eine Vielzahl von Methoden aus verschiedenen Gebieten angewandt. Die klassische Biochemie bedient sich vor allem der analytischen Chemie, organischen Chemie, physikalischen Chemie und der Physik. Wichtige Techniken sind dabei (Ultra-)Zentrifugation, Ultraschallaufschluss, SDS-Gelelektrophorese, Chromatographie, Elektrophorese, Spektroskopie, radioaktive Markierung (Tracer (Nuklearmedizin)), Isotopentechniken, Kristallisation, potentiometrische, elektrometrische, polarographische und manometrische Techniken, Zellwandaufbruch durch Abkühlung, der Ames-Test in den letzten Jahrzehnten kamen dazu auch molekularbiologische Methoden und Methoden aus der Informatik, der Mikrobiologie und anderen Fächern. Hinzu kommt in der modernen Biochemie stets die quantitative Auswertung der Ergebnisse mit mathematischen Methoden und die Bildung von formalen Theorien mit Hilfe der Mathematik. Geschichte. Justus von Liebig in seinem Labor im Jahre 1840, einer Zeit, in der das Fach Biochemie noch "Physiologische Chemie" genannt wurde. Sechs Jahre später entdeckte von Liebig die Aminosäure "Tyrosin". Im 19. Jahrhundert begann man, sich für die chemische Zusammensetzung von Gallensteinen zu interessieren. Auch klinische Bezüge zum Auftreten der Steine, bevorzugt bei Frauen und bei Adipositas, werden hergestellt und systematisch untersucht. Die frühen Biochemiker empfehlen zur Prävention Pflanzenkost. a> erhielt für seine biochemischen Forschungen 1907 den Nobelpreis. Mehr als zehn Versuchshunde brauchte Frederick Banting, bis Insulin 1921 als Heilmittel bei Diabetes nachgewiesen und entdeckt war. Anfänge. Seit Beginn des 19. Jahrhunderts wurden von organischen Chemikern die ersten Stoffe aus dem Tier- und Pflanzenreich systematisch untersucht. Es konnte von biologischem Material durch die Elementaranalyse der Kohlenstoff-, Wasserstoff-, Stickstoff- und Schwefelgehalt bestimmt werden. Ab 1860 konnten chemische Strukturformeln von Stoffen aus der elementaren Zusammensetzung durch gedankliche Kombination ermittelt werden, nun begann eine gründliche Suche nach den biologischen Körpern in Organismen. Die Suche war aufgrund der sehr geringen Stoffmenge von Biomolekülen und der mangelhaften Nachweismethoden – selbst die Elementaranalyse benötigte größere Stoffmengen – sehr zeitraubend und nicht immer erfolgreich. Erst mit Verbesserung der analytischen Geräte ab 1950 wurde die Suche und Strukturaufklärung von Biomolekülen einfacher. Proteine und Fette. Fette wurden von Eugène Chevreul und später von Heinrich Wilhelm Heintz untersucht. Gerardus Johannes Mulder konnte aus dem Fibrin des Blutes einen gelantinösen Niederschlag herstellen und gab ihm den Namen Protein. Louis-Nicolas Vauquelin untersuchte die Zusammensetzung der Haare und fand dort die chemischen Elemente Kohlenstoff, Wasserstoff, Stickstoff, Sauerstoff und Schwefel. Aminosäure. Pierre Jean Robiquet und Louis-Nicolas Vauquelin fanden auch die erste Aminosäure, die sie im Jahre 1805 isolierten: Asparagin. Joseph Louis Proust entdeckte Leucin (1818), Justus von Liebig Tyrosin (1846). Zwischen 1865 und 1901 wurden weitere 12 Aminosäuren entdeckt, davon entdeckte Ernst Schulze drei neue Aminosäuren: Glutamin, Phenylalanin und Arginin. Erste Peptidsynthesen wurden von Emil Fischer ab 1901 unternommen. Justus Liebig erkannte, dass in der Hefe ein besonderer Stoff enthalten sein musste, der die Gärung auslöst. Er nannte diesen Stoff "Bios". Zum ersten Mal verwendet wurde der Begriff "Biochemie", als Vinzenz Kletzinsky (1826–1882) im Jahre 1858 sein "Compendium der Biochemie" in Wien drucken ließ. Felix Hoppe-Seyler (Milchsäure aus Glykogen,Oxidations- und Reduktionsfermenten, Hämoglobin), Georg Carl Ludwig Sigwart (Analysen von Gallen- und Harnsteinen), Anselme Payen (1833:Amylase), Julius Eugen Schlossberger (Kreatin, Hämocyanin) erweiterten die biochemischen Kenntnisse. Enzyme. Entdeckt wurde Amylase (damals noch Diastase) 1833 vom französischen Chemiker Anselme Payen in einer Malzlösung. Damit war Diastase das erste Enzym, das man gefunden hat. Anfang des 19. Jahrhunderts war auch bekannt, dass bei der Gärung von abgestorbenen Organismen der Sauerstoff aus der Luft nötig ist, ferner Temperatur und Wasser auf diesen Prozess einen Einfluss hatten. Bei toten Tieren und Menschen setzt die Fäulnisbildung zuerst an den Stellen ein, die mit der Luft in Berührung kommen. Auch bei pflanzlichen Stoffen, der Bildung von Alkohol aus einer Traubensaftlösung oder der Versäuerung von Milch erkannten Chemiker Gärungsprozesse. Der Körper, der diese Prozesse begünstigte, wurde "Ferment" genannt. Eduard Buchner entdeckte 1896 die zellfreie Gärung. James Batcheller Sumner isolierte 1926 das Enzym der Schwertbohne und behauptete, dass alle Enzyme Proteine sein müssten. John Howard Northrop isolierte wenige Jahre später Pepsin, Trypsin und Chymotrypsin in kristalliner Form und konnte Sumners Hypothese bestätigen. Nukleinsäure. Der Physiologe Friedrich Miescher hatte 1870 die Nucleoproteide im Zellkern entdeckt. Albrecht Kossel entdeckte die Nukleinsäure Adenin (1885). Weitere Nukleinsäuren erhielt er aus tierischem Extrakt, und zwar Guanin, Xanthin (1893), Thymin (1894), Cytosin und Uracil (1903). Emil Fischer gelangen die ersten Synthesen des Adenins,Theophyllins, Thymins und Uracils (1897–1903). Phoebus Levene untersuchte die Verknüpfung von einer Nukleinsäure mit einer Pentose und einem Phosphat zum Mono-Nukleotid (1908). Kohlenhydrate. Kohlenhydrate sind ein wichtiger Bestandteil unserer Nahrung, sie wurden daher zeitig von Biochemikern untersucht. Sowohl Stärke als auch Zucker werden zu Glucose abgebaut und bei einem Überangebot in der Leber als Glykogen gespeichert. Ein konstanter Blutzuckergehalt ist für das Gehirn und die Muskeln lebensnotwendig. Adolf von Baeyer gab 1870 bereits eine erste Formel zur Glucose an. Emil Fischer machte ab 1887 umfangreiche Forschungen zur Aufklärung der chemischen Strukturen von Zuckern mit Phenylhydrazin zu gut kristallisierbaren Osazonen. Im Jahr 1893 konnte er durch Umwandlung von Glucose mit Methanol zu Methylglykosid – das die Fehlingsche Lösung nicht reduzierte – beweisen, dass die Aldehydgruppe im Ring mit einer Hydroxygruppe verknüpft (glycosidisch) ist. Später (1922) folgerte Burckhardt Helferich, dass die Glucose in einem Sechsring (1,5-glykosidisch statt 1,4-glykosidisch) vorliegen musste. Weitere wichtige Arbeiten zur Zuckerchemie und deren strukturelle Darstellung leistete Norman Haworth; er synthetisierte auch erstmals das Vitamin C (bei Mangel tritt Skorbut auf), ein Säurederivat eines Zuckers. Vitamine. Durch mangelhafte Ernährung starben zu Beginn des 20. Jahrhunderts noch viele Menschen. Im Jahr 1882 untersuchte Gustav von Bunge Ratten und Mäuse, die er nur mit Eiweiß, Kohlenhydraten und Fetten fütterte, deren Nahrung aber keine weiteren Beimischungen enthielten. Die Tiere starben. Menschen benötigen neben Eiweiß, Kohlenhydraten, Fetten noch Vitamine. Viele Vitamine wurden zu Beginn des 20. Jahrhunderts aufgefunden. Die Strukturaufklärung des Cholesterins (und damit der Gruppe der Steroide) durch Adolf Windaus war für die Strukturaufklärung und Bildung von Vitamin D (bei dessen Mangel Rachitis auftritt) bedeutsam. Windaus war auch mit der Aufklärung der Summenformel und Struktur von Vitamin B1 befasst. Sir Frederick Gowland Hopkins, ein Pionier der Biochemie in Großbritannien und Casimir Funk, der das Wort "Vitamin" prägte, leisteten bedeutende Forschungen zur Entdeckung des Vitamin B1 (bei Mangel tritt Beri-Beri auf). Hopkins entdeckte auch zwei essentielle Aminosäuren und wurde dafür 1929 mit dem Nobelpreis ausgezeichnet. Im Jahre 1926 entdeckte Otto Warburg das Atmungsferment Cytochromoxidase, ein Ferment im Zitronensäurezyklus und für Redoxvorgänge der Zelle, wofür er 1931 den Nobelpreis erhielt. Hormone. Stoffgruppen, die in menschlichen Organen produziert werden, nennt man nach Ernest Starling Hormone. Thomas Addison entdeckte 1849 eine Krankheit, die ihren Ursprung in den Nebennieren hat. T. B. Aldrich und Takamine Jōkichi (1901) extrahierten einen Stoff, den sie Adrenalin nannten, aus tierischen Nieren. Aldrich ermittelte die Summenformel und Friedrich Stolz gelang die chemischen Synthese (1904). Damit gelang der Biochemie 1904 erstmals die künstliche Herstellung eines Hormons. Die Kropfbildung ist eine weitere hormonelle Krankheit der Schilddrüse, die seit 1820 nach Jean-Francois Coindet durch Iodgaben gemildert werden konnte. Erst 1915 glückte Edward Calvin Kendall die Isolierung einer kristallinischen Substanz der Schilddrüse. Er hielt sie fälschlicherweise für ein Oxindolderivat und nannte sie daher Thyroxin. Synthetisch wurde Thyroxin seit 1926 von Charles Robert Harington darstellbar. Im Jahre 1935 isolierte Ernst Laqueur aus Stierhoden das von ihm so benannte Sexualhormon Testosteron. Auch von Adolf Butenandt wurden die Geschlechtshormone untersucht. Im Jahr 1929 isolierte er mit Estron eines der weiblichen Sexualhormone. Zwei Jahre später isolierte er mit Androsteron ein männliches Geschlechtshormon. Im Jahr 1934 entdeckte er das Hormon Progesteron. Durch seine Forschung wurde gezeigt, dass die Geschlechtshormone eng mit Steroiden verwandt sind. Seine Untersuchungen auf dem Gebiet der Sexualhormone ermöglichte die Synthese von Cortison sowie andere Steroide. Dies führte schließlich zur Entwicklung von modernen Verhütungsmitteln. Der Mangel des Bauchspeichelhormons konnte durch Gabe von Rinder-Insulin 1920 durch Frederick Banting und Best gelindert werden. Erst 1953 wurde die Aminosäuresequenz von Insulin durch Frederick Sanger aufgeklärt. Wichtige Forschungsgebiete der modernen Biochemie. In Lehrbüchern der Biochemie werden die Prozesse der Gärung von Zucker zu Ethanol und Milchsäure sowie der Aufbau von Glucose zu Glykogen ausführlich beschrieben. Diese Umwandlungen werden unter dem Stichwort Glykolyse zusammengefasst. Die Energiegewinnung in lebenden Zellen erfolgt über den Abbau von Fetten, Aminosäuren und Kohlenhydraten über Oxalacetat zu Citrat durch Acetyl-S-CoA unter Freisetzung von Kohlendioxid und Energie. Acetyl-S-CoA enthält ein wasserlösliches Vitamin – die Pantothensäure. Dieser Prozess wurde von H. Krebs 1937 untersucht und wird Citratzyklus genannt. Oxidationen von Biomolekülen in Zellen verlaufen über mehrere Enzyme an denen das Vitamin B2 beteiligt ist. Dieser Prozess wird in Lehrbüchern als oxidative Phosphorylierung oder Atmungskette beschrieben. Ein weiterer sehr wichtiger biochemischer Prozess ist die Photosynthese. Kohlenstoffdioxid aus der Luft und Wasser wird durch Strahlungsenergie durch das Pigment Chlorophyll in Pflanzenzellen in Kohlenhydrate und Sauerstoff überführt. Im menschlichen und tierischen Organismen wird überschüssige Energie aus der Nahrung in Form von Fetten gespeichert. Bei Energiemangel der Zellen werden diese Fette wieder abgebaut. Dieser Prozess erfolgt über die Oxidation von Fettsäuren mittels Acetyl-CoA. Bei Krankheiten (schwere Diabetes) oder extremen Nahrungsmangel greifen Zellen auch auf Aminosäuren zur Energiegewinnung zurück. Dabei werden Proteine zu Aminosäuren und diese zu Kohlendioxid abgebaut. Der Harnstoffzyklus beschreibt die ablaufenden Umwandlungen. In pflanzlichen und tierischen Zellen können Kohlenhydrate aus anderen Stoffen – beispielsweise der Milchsäure oder aus Aminosäuren – biochemisch aufgebaut werden. Die Untersuchungen zu den einzelnen biochemischen Schritten werden in Gluconeogenese untersucht. Ferner wurden die Biosynthesen von Aminosäuren, Nucleotiden, Porphyrinen, der Stickstoffzyklus in Pflanzen gründlich untersucht. Ein weiterer Teilbereich der biochemischen Forschung ist die Resorption und der Transport von Stoffwechselprodukten durch das Blutplasma. Die Weitergabe der gespeicherten Information im Zellkern auf der DNA (genauer: bestimmter Abschnitte der DNA, den Genen) zur Herstellung von Enzymen verläuft über die Replikation, Transkription und Proteinbiosynthese. Dies ist ein sehr wichtiges Gebiet der synthetischen Biochemie (Biotechnologie), da Bakterien auf ihrer zyklischen DNA (Plasmiden) dazu gebracht werden können, bestimmte Enzyme zu produzieren. Einzelne Proteine können mittels Gel-Elektrophorese nachgewiesen werden. Durch den Edman-Abbau kann die Aminosäure-Sequenz des Proteins bestimmt werden. Gliederung. Je nach Betrachtungswinkel wird die Biochemie in Bezug auf menschliche Erkrankungen als medizinische Biochemie, in Bezug auf Ökosysteme ökologische Biochemie, in Bezug auf Pflanzen als Pflanzenbiochemie, in Bezug auf das Immunsystem als Immunbiochemie und in Bezug auf das Nervensystem als Neurochemie bezeichnet. Ebenso wird die Biochemie nach Stoffgruppen eingeteilt, z. B. Proteinchemie, Nukleinsäurebiochemie, Kohlenhydratbiochemie und Lipidbiochemie. Small molecules werden von der Naturstoffchemie behandelt. Die Enzymologie und die Signaltransduktion stellen Sonderbereiche der Biochemie dar. Die Biophysikalische Chemie untersucht Biomoleküle und Lebewesen mit Methoden der physikalischen Chemie Studium. Neben dem reinen Biochemie-Studium besteht die Möglichkeit, die Fachrichtungen Chemie oder Biologie zu studieren und während des Studiums den Fächerkanon Biochemie zu vertiefen. Eine Spezialisierung erfolgt üblicherweise durch Biochemie als Wahlpflichtfach bzw. Hauptfach sowie die Anfertigung einer Diplom-, Bachelor- oder Masterarbeit im Bereich der Biochemie. Diese Variante bietet den Vorteil, dass sich Studienanfänger nicht direkt für ein reines Biochemie-Studium entscheiden müssen. Vielmehr haben sie die Möglichkeit, im Grundstudium verschiedene Fächer kennenzulernen, um sich dann während des Hauptstudiums zu spezialisieren, z. B. in Biochemie. Die Möglichkeit dazu ist an vielen Universitäten gegeben und die Regelstudienzeiten entsprechen denen der reinen Biochemie-Studiengänge. Bei den Bachelor- und Masterstudiengängen hat sich inzwischen im Bereich der Biowissenschaften eine Vielfalt von Studiengängen mit unterschiedlichen Namen und Spezialisierungen etabliert. Ihnen ist gemeinsam, dass sie besonderen Wert auf die molekularen Grundlagen legen und einen hohen Praxisanteil in der Ausbildung haben (siehe Weblinks). Der Facharzt für Biochemie. Es besteht auch die Möglichkeit, nach einem absolvierten Medizinstudium in Deutschland als "Facharzt für Biochemie" tätig zu werden. Hierfür bedarf es einer vierjährigen Weiterbildungszeit. Auf diese anrechenbar ist Am 31. Dezember 2010 waren 102 Fachärzte für Biochemie registriert, von denen einer niedergelassen war. 52 übten keine ärztliche Tätigkeit aus. Die Zahl der ärztlich tätigen registrierten Fachärzte für Biochemie reduzierte sich innerhalb des Jahrzehntes 2000–2010 um fast 50 %. Biotechnologie. Die Biotechnologie ("bíos" ‚Leben‘; auch als Synonym zu Biotechnik und kurz als Biotech) ist eine interdisziplinäre Wissenschaft, die sich mit der Nutzung von Enzymen, Zellen und ganzen Organismen in technischen Anwendungen beschäftigt. Ziel ist die Entwicklung neuer oder effizienterer Verfahren zur Herstellung von chemischen Verbindungen, die Entwicklung von Diagnosemethoden und anderes. In der Biotechnologie werden Erkenntnisse aus vielen Bereichen, wie vor allem Mikrobiologie, Biochemie (Chemie), Molekularbiologie, Genetik, Bioinformatik und den Ingenieurwissenschaften mit der Verfahrenstechnik (Bioverfahrenstechnik) genutzt. Die Grundlage bilden chemische Reaktionen, die von freien oder in Zellen vorliegenden Enzymen katalysiert werden (Biokatalyse oder Biokonversion). Klassische biotechnologische Anwendungen wurden bereits vor Jahrtausenden entwickelt, wie z. B. die Herstellung von Wein und Bier mit Hefen und die Verarbeitung von Milch zu verschiedenen Lebensmitteln mit Hilfe bestimmter Mikroorganismen oder Enzyme. Die moderne Biotechnologie greift seit dem 19. Jahrhundert zunehmend auf mikrobiologische und seit Mitte des 20. Jahrhunderts zunehmend auch auf molekularbiologische, genetische bzw. gentechnische Erkenntnisse und Methoden zurück. Dadurch ist es möglich, Herstellungsverfahren für chemische Verbindungen, z. B. als Wirkstoff für die Pharmazeutik oder als Grundchemikalie für die chemische Industrie, Diagnosemethoden, Biosensoren, neue Pflanzensorten und anderes zu entwickeln. Biotechnische Verfahren können vielfältig in unterschiedlichsten Bereichen angewendet werden. Teilweise wird versucht, diese Verfahren nach Anwendungsbereichen zu sortieren, wie z. B. Medizin (Rote Biotechnologie), Pflanzen bzw. Landwirtschaft (Grüne Biotechnologie) und Industrie (Weiße Biotechnologie). Teilweise wird auch danach unterschieden, auf welche Lebewesen die Methoden angewendet werden, wie etwa in der Blauen Biotechnologie, die sich auf Anwendungen in Meereslebewesen bezieht. Geschichte. Bereits seit Jahrtausenden gibt es biotechnische Anwendungen, wie z. B. die Herstellung von Bier und Wein. Die biochemischen Hintergründe waren dabei weitestgehend ungeklärt. Mit den Fortschritten in verschiedenen Wissenschaften, wie vor allem der Mikrobiologie im 19. Jahrhundert, wurde die Biotechnik wissenschaftlich bearbeitet, also die Biotechnologie entwickelt. So wurden optimierte oder neue biotechnische Anwendungsmöglichkeiten erschlossen. Weitere wichtige Schritte waren die Entdeckung der Desoxyribonucleinsäure (DNA oder DNS) in den 1950ern, das zunehmende Verständnis ihrer Bedeutung und Funktionsweise und die anschließende Entwicklung molekularbiologischer und gentechnischer Labormethoden. Erste biotechnische Anwendungen. Die ältesten Anwendungen der Biotechnik, die schon seit über 5.000 Jahren bekannt sind, sind die Herstellung von Brot, Wein oder Bier (alkoholische Gärung) mit Hilfe der zu den Pilzen gehörenden Hefe. Durch die Nutzung von Milchsäurebakterien konnten zudem Sauerteig (gesäuertes Brot) und Sauermilchprodukte wie Käse, Joghurt, Sauermilch oder Kefir hergestellt werden. Eine der frühesten biotechnischen Anwendungen abseits der Ernährung war die Gerberei und Beize von Häuten mittels Kot und anderen enzymhaltigen Materialien zu Leder. Auf diese Produktionsverfahren bauten große Teile der Biotechnik bis in das Mittelalter auf, um 1650 entstand ein erstes biotechnisches Verfahren zur Essigherstellung. Entwicklung der Mikrobiologie. Louis Pasteur isolierte erstmals Essigsäurebakterien und Bierhefen. Die moderne Biotechnologie basiert wesentlich auf der Mikrobiologie, die in der zweiten Hälfte des 19. Jahrhunderts entstand. Vor allem die Entwicklung von Kultivierungsmethoden, der Reinkultur und der Sterilisation durch Louis Pasteur legten Grundsteine zur Untersuchung und Anwendung (Angewandte Mikrobiologie) von Mikroorganismen. Im Jahre 1867 konnte Pasteur mit diesen Methoden Essigsäurebakterien und Bierhefen isolieren. Um 1890 entwickelten er und Robert Koch erste Impfungen auf der Basis isolierter Krankheitserreger und setzten damit die Grundlage für die Medizinische Biotechnologie. Der Japaner Jōkichi Takamine isolierte als erster ein einzelnes Enzym für die technische Verwendung, die Alpha-Amylase. Wenige Jahre später nutzte der deutsche Chemiker Otto Röhm tierische Proteasen (eiweißabbauende Enzyme) aus Schlachtabfällen als Waschmittel und Hilfsstoffe für die Lederherstellung. Biotechnologie im 20. Jahrhundert. Die großtechnische Herstellung von Butanol und Aceton durch Fermentation des Bakteriums "Clostridium acetobutylicum" wurde 1916 von dem Chemiker und späteren israelischen Staatspräsidenten Charles Weizmann beschrieben und entwickelt. Es handelte sich hierbei um die erste Entwicklung der Weißen Biotechnologie. Das Verfahren wurde bis zur Mitte des 20. Jahrhunderts angewendet, danach aber durch die wirtschaftlichere petrochemische Synthese aus der Propen-Fraktion des Erdöls abgelöst. Die Herstellung von Citronensäure erfolgte ab dem Jahr 1920 durch Oberflächenfermentation des Pilzes "Aspergillus niger". Im Jahre 1957 wurde erstmals die Aminosäure Glutaminsäure mit Hilfe des Bodenbakteriums "Corynebacterium glutamicum" produziert. Alexander Fleming auf einer Briefmarke 1928/29 entdeckte Alexander Fleming im Pilz "Penicillium chrysogenum" das erste medizinisch verwendete Antibiotikum Penicillin. 1943 folgte das Antibiotikum Streptomycin durch Selman Waksman, Albert Schatz und Elizabeth Bugie. Im Jahr 1949 wurde die Herstellung von Steroiden in industriellen Maßstab umgesetzt. Anfang der 1960er Jahre wurden Waschmitteln erstmals biotechnisch gewonnene Proteasen zur Entfernung von Eiweißflecken zugesetzt. In der Käseherstellung kann das Kälberlab seit 1965 durch das in Mikroorganismen hergestellte Rennin ersetzt werden. Ab 1970 konnten biotechnisch Amylasen und andere stärkespaltende Enzyme hergestellt werden, mit denen z. B. Maisstärke in den sogenannten „high-fructose corn syrup“, also Maissirup, umgewandelt und als Ersatz für Rohrzucker (Saccharose), z. B. in der Getränkeherstellung, verwendet werden konnte. Moderne Biotechnologie seit den 1970er Jahren. Strukturmodell eines Ausschnitts aus der DNA-Doppelhelix (B-Form) mit 20 Basenpaarungen Aufklärung der DNA-Struktur. 1953 klärten Francis Crick und James Watson die Struktur und Funktionsweise der Desoxyribonucleinsäure (DNA) auf. Damit wurde der Grundstein für die Entwicklung der modernen Genetik gelegt. Seit den 1970er Jahren kam es zu einer Reihe von zentralen Entwicklungen in der Labor- und Analysetechnik. So gelang 1972 den beiden Biologen Stanley N. Cohen und Herbert Boyer mit molekularbiologischen Methoden die erste in-vitro-Rekombination von DNA (Veränderung von DNA "im Reagenzglas"), sowie die Herstellung von sogenannten Plasmidvektoren als Werkzeug zur Übertragung (ein Vektor) von Erbgut, z. B. in Bakterienzellen. César Milstein und Georges Köhler stellten 1975 erstmals monoklonale Antikörper her, die ein wichtiges Hilfsmittel in der medizinischen und biologischen Diagnostik darstellen. Seit 1977 können rekombinante Proteine (ursprünglich aus anderen Arten stammende Proteine) in Bakterien hergestellt und in größerem Maßstab produziert werden. Im Jahr 1982 wurden erste transgene Nutzpflanzen mit einer gentechnisch erworbenen Herbizidresistenz erzeugt, so dass bei Pflanzenschutzmaßnahmen das entsprechende Herbizid die Nutzpflanze verschont. Im selben Jahr gelang die Erzeugung von Knock-out-Mäuse für die medizinische Forschung. Bei ihnen ist ein (oder mehrere) Gen inaktiviert, um so dessen Funktion bzw. die Funktion des homologen Gens beim Menschen zu verstehen und zu untersuchen. Genomsequenzierungen. Im Jahr 1990 startete das Humangenomprojekt, welches das Ziel, das gesamte menschliche Genom (3,2 × 109 Basenpaare (bp)) zu entschlüsseln und zu sequenzieren, bis 2001 (bzw. 2003 in den angestrebten Maßstäben) erreichte. Die Sequenziertechnik basiert direkt auf der 1975 entwickelte Polymerase-Kettenreaktion (PCR), die eine schnelle und mehr als 100.000-fache Vermehrung bestimmter DNA-Sequenzen ermöglichte, um so ausreichende Mengen dieser Sequenz, z. B. für Analysen, zur Verfügung zu haben. Bereits 1996 war das erste Genom, das der Bäckerhefe ("Saccharomyces cerevisiae") (2 × 107 bp) vollständig aufgeklärt. Durch die rasante Weiterentwicklung der Sequenziertechnik konnten weitere Genome, wie im Jahr 1999 das der Taufliege "Drosophila melanogaster" (2 × 108 bp), relativ schnell sequenziert werden. Die Bestimmung von Genomsequenzen führte zur Etablierung weiterer, darauf basierender Forschungsgebiete, wie der Transkriptomik, Proteomik, Metabolomik und der Systembiologie und zu einer Bedeutungszunahme, z. B. der Bioinformatik. Anwendungen der Gentechnik. 1995 kam mit der Flavr-Savr-Tomate das erste transgene Produkt auf den Markt und wurde in den USA und Großbritannien zum Verkauf zugelassen. Im Jahr 1996 erfolgten erste Versuche der Gentherapie beim Menschen und 1999 wurden humane Stammzellen erstmals in Zellkultur vermehrt. Im gleichen Jahr überschritt das Marktvolumen rekombinant hergestellter Proteine in der Pharmaindustrie erstmals den Wert von 10 Milliarden US-$ im Jahr. Das geklonte Schaf "Dolly" wurde 1998 geboren. Durch die neu entwickelten gentechnischen Methoden boten sich der Biotechnologie neue Entwicklungsmöglichkeiten, die zur Entstehung der Molekularen Biotechnologie führten. Sie bildet die Schnittstelle zwischen der Molekularbiologie und der klassischen Biotechnologie. Wichtige Techniken sind z. B. die Transformation bzw. Transduktion von Bakterien mit Hilfe von Plasmiden oder Viren. Dabei können gezielt bestimmte Gene in geeignete Bakterienarten eingeschleust werden. Weitere Einsatzgebiete der molekularen Biotechnologie sind analytische Methoden, zum Beispiel zur Identifikation und Sequenzierung von DNA- oder RNA-Fragmenten. Zweige der Biotechnologie. Biotechnologie ist ein sehr weit gefasster Begriff. Entsprechend den jeweiligen Anwendungsbereichen wird sie daher in verschiedene Zweige unterteilt. Zum Teil überschneiden sich diese Zweige, so dass diese Unterteilung nicht immer eindeutig ist. Teilweise sind die Bezeichnungen noch nicht etabliert oder werden unterschiedlich definiert. Die Grüne Biotechnologie betrifft pflanzliche Anwendungen, z. B. für landwirtschaftliche Zwecke. Die Rote Biotechnologie ist der Bereich, der sich mit medizinisch-pharmazeutischen Anwendungen, wie z. B. der Herstellung von Medikamenten und Diagnostika befasst. Die Weiße Biotechnologie oder "Industrielle Biotechnologie" umfasst biotechnologische Herstellungsverfahren, vor allem zur Herstellung chemischer Verbindungen in der Chemieindustrie, aber auch Verfahren in der Textil- oder Lebensmittelindustrie. Weniger gängig sind die Einteilungen in die Bereiche Blaue Biotechnologie, welche sich mit der Nutzung von Organismen aus dem Meer befasst, und die Graue Biotechnologie, welche sich mit biotechnologischen Prozessen im Bereich der Abfallwirtschaft (Kläranlagen, Dekontamination von Böden und Ähnliches) befasst. Unabhängig von dieser Einteilung gibt es die als "konventionelle" Form bezeichnete Biotechnologie, die sich mit Abwasserreinigung, dem Kompostieren sowie weiteren ähnlichen Anwendungen befasst. Organismen. a>" stellt einen der am häufigsten genutzten Organismen der Biotechnologie dar. In der modernen Biotechnik werden mittlerweile sowohl Bakterien als auch höhere Organismen wie Pilze, Pflanzen oder tierische Zellen verwendet. Häufig verwendete Organismen sind oft bereits genau erforscht, wie etwa das Darmbakterium "Escherichia coli" oder die Backhefe "Saccharomyces cerevisiae", bzw. gut erforschte Organismen werden häufig für biotechnische Anwendungen eingesetzt, weil sie gut bekannt sind und bereits Methoden zu ihrer Kultivierung oder auch gentechnischen Manipulation entwickelt wurden. Einfache Organismen können zudem mit weniger Aufwand genetisch modifiziert werden. Zunehmend werden aber auch höhere Organismen (mehrzellige Eukaryoten) in der Biotechnik verwendet. Grund hierfür ist etwa die Fähigkeit, posttranslationale Veränderungen an Proteinen vorzunehmen, die z. B. bei Bakterien nicht stattfinden. Ein Beispiel dafür ist das Glykoprotein-Hormon Erythropoetin, unter der Abkürzung "EPO" als Dopingmittel bekannt. Allerdings wachsen eukaryotische Zellen langsamer als Bakterien und sind auch aus anderen Gründen schwieriger zu kultivieren. Teilweise können Pharmapflanzen, die im Feld, im Gewächshaus oder im Photobioreaktor kultiviert werden, eine Alternative zur Herstellung dieser Biopharmazeutika sein. Bioreaktoren. Vor allem Mikroorganismen können in sogenannten Bioreaktoren oder auch Fermenter kultiviert werden. Dieses sind Behälter, in denen die Bedingungen gesteuert und optimiert werden können, so dass die kultivierten Organismen die gewünschten Stoffe produzieren bzw. in höheren Konzentrationen produzieren. In den Reaktoren können verschiedene Parameter, wie z. B. pH-Wert, Temperatur, Sauerstoffzufuhr, Stickstoffzufuhr, Glukosegehalt oder Rührereinstellungen geregelt werden. Da die einsetzbaren Organismen sehr unterschiedliche Ansprüche haben, stehen dementsprechend sehr unterschiedliche Fermentertypen zur Verfügung, z. B. Rührkesselreaktoren, Schlaufenreaktoren, Airliftreaktoren, sowie lichtdurchlässige Photobioreaktoren zur Kultivierung von Photosynthese-Organismen wie Algen und Pflanzen. Anwendungen. "Siehe entsprechende Absätze in den Artikeln: Weiße Biotechnologie, Rote Biotechnologie, Grüne Biotechnologie, Graue Biotechnologie und Blaue Biotechnologie" Perspektive. Viele Anwendungen der Biotechnologie basieren auf dem guten Verständnis der Funktionsweise von Organismen. Durch neue Methoden und Ansätze, wie z. B. der Genomsequenzierung und daran angeschlossene Forschungsbereiche wie Proteomics, Transcriptomics, Metabolomics, Bioinformatik etc., wird dieses Verständnis immer weiter ausgebaut. So werden immer mehr medizinische Anwendungen möglich, in der Weißen Biotechnologie können bestimmte chemische Verbindungen, z. B. für pharmazeutische Zwecke oder als Grundstoff der chemischen Industrie, erzeugt werden und Pflanzen können für bestimmte Umweltbedingungen oder ihren Nutzungszweck optimiert werden. Häufig können auch bisherige Anwendungen durch vorteilhaftere biotechnische Verfahren ersetzt werden, wie z. B. umweltbelastende chemische Herstellungsverfahren in der Industrie. Es wird daher erwartet, dass das Wachstum der Biotechnologie-Branche sich in Zukunft fortsetzen wird. B. B bzw. b (gesprochen:) ist der zweite Buchstabe des klassischen und modernen lateinischen Alphabets. Er ist ein Konsonant. Der Buchstabe B hat in deutschen Texten eine durchschnittliche Häufigkeit von 1,89 %. Er ist damit der 16.-häufigste Buchstabe in deutschen Texten. Aussprache im Deutschen. Der Buchstabe B in verschiedenen Schriftarten Die grundlegende Aussprache ist der stimmhafte bilabiale Plosiv [b]: "Baum, Baby, Liebe, Robbe". Unter bestimmten Bedingungen wird b als stimmloser bilabialer Plosiv [p] ausgesprochen: "lieb, liebt, robbt, hübsch", oder „neutral“ [b/p]: "lesbisch". Dem Graphem "B/b" ist grundsätzlich das Phonem /b/ zugeordnet, das in der Regel als bilabialer Verschlusslaut realisiert wird. Dieser ist im Gegensatz zu seinem Gegenüber /p/ Lenis, stimmhaft und nicht-aspiriert. "B/b" gehört damit zu den Obstruenten "(bcdfgkpqsßtvwxz)," die im Deutschen einen stimmhaft-stimmlos- bzw. Lenis-Fortis-Partner haben: b/p. Am Wort- und Silbenende sowie vor anderen stimmlosen Obstruenten wird "B/b" als sein Fortis-Gegenüber "P/p" gesprochen "(lieb, lieblich, liebt, robbt, hübsch)". Wenn bei verwandten Wortformen stimmloses [p] gesprochen wird, nennt man dies Auslautverhärtung: "lieb" [-p], "lieblich" [-pl-], "liebt" [-pt] zu "Liebe" [-b-], "robbt" [-pt-] zu "robben" [-b-]; dagegen ist "hübsch" [-pʃ] ohne stimmhafte Entsprechung, also keine Auslautverhärtung. "Nach" einigen stimmlosen Obstruenten fällt die Aussprache des "b" fast mit der von "p" zusammen: "lesbisch". Hier liegt der realisierte Laut zwischen einem b- und p-Laut (nicht-aspiriert, mehr oder weniger stimmlos). Phonologisch gesehen findet in den genannten Fällen, in denen die Aussprache von der grundlegenden Aussprache abweicht (z. B. bei der Auslautverhärtung), eine Neutralisation statt, das heißt die Opposition stimmhaft-stimmlos bzw. Lenis-Fortis ist in diesen Positionen aufgehoben (sie hat hier keine bedeutungsunterscheidende Funktion mehr). In einigen Dialekten wird es im Wortinneren und manchmal auch am Wortanfang als Reibelaut gesprochen, wie der stimmhafte labiodentale Frikativ [v] oder der stimmhafte bilabiale Frikativ [β]. Herkunft. Die protosemitische Urform des Buchstabens stellt den Plan eines Hauses mit Ausgang dar. Die Phönizier gaben dem Buchstaben den Namen Bet (Haus), bis zum 9. Jahrhundert v. Chr. hatte sich der Buchstabe stark abstrahiert. Bereits Bet hatte den Lautwert [b]. Je nach Schreibwerkzeug konnte der Buchstabe sehr eckig oder abgerundet geschrieben werden. Die Griechen übernahmen den phönizischen Buchstaben, versahen ihn mit einer zusätzlichen Rundung und nannten ihn Beta. Den Lautwert behielten sie bei. Die Etrusker übernahmen diesen Buchstaben als B, ohne ihn zu modifizieren. Da die etruskische Sprache allerdings keine stimmhaften Verschlusslaute wie [b] enthielt, verwarfen sie den Buchstaben nach kurzer Zeit. Die frühgriechische Schrift wurde von rechts nach links geschrieben. Als die Griechen die Schreibrichtung wechselten, spiegelten sie auch das Beta. Als die Römer das lateinische Alphabet schufen, das ebenfalls von links nach rechts geschrieben wird, orientierten sie sich am griechischen Beta und übernahmen es ohne weitere Modifikationen. Baskenland. Baskisches Sprachgebiet am Golf von Biskaya, hell – geringer Anteil an Baskisch-Sprechern,dunkelblau – hoher Anteil an Baskisch-Sprechern a>" mit dem französischen Baskenland und der Provinz Béarn Bauernhöfe im baskisch geprägten Norden Spanisch-Navarras Das Baskenland (oder,) ist eine Region an der Atlantikküste in der Grenzregion der Staaten Spanien und Frankreich. Es umfasst in Spanien die drei Provinzen der Autonomen Gemeinschaft Baskenland sowie die Provinz Navarra und in Frankreich das "nördliche" Baskenland im Westen des Départements Pyrénées-Atlantiques. Die Ausdehnung des Baskenlandes ist politisch und gesellschaftlich umstritten und steht im Spannungsfeld von baskischem, spanischem und französischem Nationalismus. Besondere Kontroversen gibt es um die Zugehörigkeit Navarras zum Baskenland, da im Süden dieser Provinz ebenso wie im Süden der Provinz Alava der Anteil der Baskisch-Sprecher an der Gesamtbevölkerung deutlich geringer ist (siehe Karte „baskisches Sprachgebiet“). Das Baskenland ist benannt nach dem Volk der Basken, Eigenbezeichnung "Euskaldunak", die mittlerweile auch wieder zu einem beträchtlichen Teil Sprecher der im spanischen Baskenland seit etwa 1980 wieder geförderten baskischen Sprache (baskisch "Euskara" oder "Euskera") sind. Geografie. Das Baskenland wird auf der Seeseite durch das kantabrische Meer (Golf von Biskaya) begrenzt, im Süden durch den Ebro. In seinen Anteilen am Ebro-Tiefland ist der baskische Bevölkerungsanteil allerdings sehr gering. Landschaftlich besteht das Baskenland im Wesentlichen aus dem Übergang der Pyrenäen (bask. "Pirinioak") in das Kantabrische Gebirge (bask. "Kantauriar mendilerroa"). Südlich der Pyrenäen fällt das Land nur langsam zum Ebrobecken ab. Auf der Nordseite liegt das Talniveau dagegen bis ins Gebirge hinein nur bei. Der höchste Gipfel des Baskenlandes ist die "Tafel der drei Könige" (bask. "Hiru Erregeen Mahaia") mit am Dreiländereck () von Navarra (E), Aragón (E) und Béarn (F). Es folgen der hohe Orhi an der Grenze Navarras mit dem französischen Baskenland (somit höchster Berg innerhalb des Baskenlandes) und der hohe Aitxuri in Gipuzkoa. In den Tälern der Provinzen Bizkaia und Gipuzkoa drängen sich zahlreiche Städte, außerhalb der verwinkelten Altstädte industriell geprägt. Im Westen und Südwesten grenzt das Baskenland an die spanischen autonomen Gemeinschaften Kantabrien und Kastilien-León, im Süden an die spanische autonome Gemeinschaft La Rioja, im Südosten an die spanische autonome Gemeinschaft Aragonien, im Norden an das französische Département Landes und im Nordosten an die historische Provinz Béarn, mit der zusammen der französische Teil des Baskenlandes heute das Département Pyrénées-Atlantiques bildet. Das Klima ist auf der Nordseite der inneriberischen Gebirge zu jeder Jahreszeit mild und deutlich vom nahen Atlantik und somit feuchtgemäßigtem maritimem Klima geprägt. Aus diesem Grund ist das Baskenland im Vergleich zum Landesinneren sehr grün und vegetationsreich. Das Ebrobecken ist dagegen eher kontinental geprägt, vergleichsweise niederschlagsarm und im Sommer mitunter extrem heiß. Politische Gliederung. Im heutigen baskischen Sprachgebrauch wird die Gesamtheit der historischen Gebiete des Baskenlandes, die heute zu Spanien und Frankreich gehören, als "Euskal Herria" bezeichnet, während die Bezeichnung "Euskadi" vor allem für die Autonome Region Baskenland verwendet wird. Die südlichen (spanischen) Gebiete des Baskenlandes werden baskisch auch "Hegoalde", die nördlichen (französischen) Teile "Iparralde" genannt. Bevölkerung. Soweit sich feststellen lässt, bewohnten Sprecher der – isolierten – baskischen Sprache oder deren Vorläufer schon das heutige Baskenland, als die indogermanischen Sprachen sich über Europa ausbreiteten und dabei verzweigten. Siehe hierzu auch Vaskonische Hypothese. Von den 2,7 Mio. Einwohnern des Baskenlandes sprechen nur 700.000 bis 800.000 die baskische Sprache. Allein im kleinen französischen Teil sind es etwa 82.000 von 246.000 Einwohnern, in der Autonomen Gemeinschaft Baskenland 27 % der 2.123.000 Einwohner. Dabei unterscheidet sich die Anzahl Baskisch-Sprecher in den drei Provinzen erheblich. Während in Gipuzkoa ca. 44 % der Einwohner angeben zuhause baskisch zu sprechen, sind es in Bizkaia knapp 17 % und in der Provinz Álava nur ca. 6 %. In der Autonomen Gemeinschaft Navarra sind es insgesamt etwa 12 % der 600.000 Einwohner. Dabei ist ein starkes Nord-Südgefälle zu verzeichnen; im Norden sind über 75 % Baskisch-Sprecher, während in der Mitte etwa 15-25 % und im Süden weniger als 5 % baskisch sprechen. Die Zahl der Personen, die sich überwiegend als Basken definieren, ist ein wenig höher. Anteil baskischsprechender Bevölkerung in Navarra nach Gemeinden Während die Basken sprachlich isoliert sind, legen genetische Untersuchungen nahe, dass die Vorfahren der heutigen europäischen Sprecher indogermanischer Sprachen zu drei Vierteln die Genvarianten trugen, die bei heutigen Basken üblich sind. Ein Beispiel ist die Blutgruppenvariante Rhesus-negativ (D-), bei den Basken dominierend, unter den übrigen Europäern häufig, bei Nichteuropäern extrem selten. Den biochemischen Befunden entspricht die phänotypische Unauffälligkeit der Basken unter den übrigen Europäern. Die Basken gelten traditionell als eigenwillig. Ihr Selbstbewusstsein äußert sich unter anderem in der soliden Bauweise der Bauernhäuser, die südlich der Pyrenäen nicht selten Ähnlichkeit teils zu alpinen Eindachhöfen, teils zu solchen des Jura aufweisen. In den Städten äußern sich die lebhaften politischen Auseinandersetzungen der letzten Jahrzehnte in den weit verbreiteten politischen Wandmalereien. Zur sportlichen Tradition der Basken gehört neben archaischen Kraftwettbewerben wie Baumstammwerfen und Mühlsteinstemmen besonders das Ballspiel Pelota. In nahezu jedem Dorf gibt es einen Pelotaplatz ("Frontón") mit der charakteristischen, sehr hohen Prallwand aus Stein. In den Küstengebieten tief verwurzelt ist auch der Rudersport, an vielen Orten werden folkloristisch geprägte Ruderregatten veranstaltet. Die Seefahrt hat bei den Basken eine Jahrhunderte alte Tradition. Schon im 15. Jahrhundert unternahmen baskische Walfänger ausgedehnte Expeditionen nach Neufundland. Dort verbrachten die Fischer den Sommer damit Fische zu fangen und vor Ort weiterzuverarbeiten. Eine Besonderheit ist bis heute der Bacalao, ein Stockfisch der eine kulinarische Spezialität der Region ist und in keiner Pintxosbar in San Sebastián, Bilbao oder Vitoria fehlt. Im ausgehenden 19. Jahrhundert gab es an den Küsten eine ausgeprägte Fischfangbewegung. Es wurden unterschiedliche Boote genutzt, die teilweise mit Segeln, teilweise mit Rudern angetrieben wurden. Die Boote wurden aus Eiche und Kiefer hergestellt. Diese Holzarten konnten in den bergigen Küstengebieten aus dem reichhaltigen Waldbestand gewonnen werden. Im ausgehenden 19. Jahrhundert war die Fischerei auf das Küstengebiet konzentriert. Durch verschiedene Bootsarten konnten die Fischgründe perfekt ausgeschöpft werden. Dabei kamen Boote zum Einsatz, die eine Besatzung von bis zu 18 Mann hatten und sowohl mit Rudern als auch mit Segeln angetrieben wurden. Mit dem Aufkommen der Dampf- und Motorschifffahrt gingen viele Konstruktionskonzepte verloren. Denn die Fischer bauten sich ihre Boote selbst. Grundlage dafür waren ihre Erfahrungen und die Erkenntnisse ihrer Vorfahren. Mit der Professionalisierung der Bootskonstruktion entstanden im ganzen Baskenland Werften. Dadurch wurden im Laufe der Jahre die Schiffe immer universeller hergestellt. Die Folge war, dass sich das Erscheinungsbild der Fischerboote denen in anderen Küstenstreifen angeglichen hat. Baskische Fischer sind heute auf allen Weltmeeren unterwegs und fangen insbesondere jungen Thunfisch. Echter Bonito ("Bonito del Norte" genannt) zählt zu den bevorzugten Fangtieren. Vorgeschichte. Das älteste im Baskenland gefundene menschliche Skelett stammt aus der Zeit um 7000 v. Chr. Um 3500 v. Chr. begann dort das Neolithikum und um 2000 v. Chr. mit der frühen Bronzezeit das Zeitalter der Metalle. Um 900 v. Chr. wanderten Kelten in das Land ein und ließen sich im mediterranen Baskenland nieder. Zeit des Römischen Reiches. Ab 178 v. Chr. begann die Romanisierung des Baskenlandes, die jedoch im atlantischen Raum nur teilweise vollzogen wurde. 75/74 v. Chr. wurde die Stadt "Pompaelo" (heute Pamplona) von Pompeius gegründet. Im 2. Jahrhundert erfolgte in Aquitanien die Gründung der römischen Provinz "Novempopulania". Während des 3.–5. Jahrhundert kam es zu einer Krise in den römisch-baskischen Beziehungen und Aufständen der Landbevölkerung ("bagaudae"). In den Randgebieten des Baskenlandes wurden römische befestigte Städte angelegt. Im 4./5. Jahrhundert begann die Christianisierung des Baskenlandes, die erst im Spätmittelalter abgeschlossen war. Frühes Mittelalter. Während der Völkerwanderung zogen seit 409 Sweben, Alanen und Westgoten durch das Baskenland; Ende des 5. Jahrhunderts stabilisierten sich die Herrschaftsgebiete der neuen Nachbarvölker, der Westgoten im Süden und der Franken im Norden, zweier Nationen, die nach der Herrschaft über das Baskenland strebten. Die Westgoten versuchten diese seit dem 6. Jahrhundert zu erringen, u. a. durch die Gründung von "Victoriaco" (581; heute Vitoria-Gasteiz) und die Anlage der Festung Olite (621). Die Bemühungen der Franken resultierten in der Gründung der Grafschaft Vasconia (später "Gascogne") zu Beginn des 7. Jahrhunderts innerhalb Aquitaniens bzw. des Frankenreiches. Anfang des 8. Jahrhunderts drangen auch die Mauren in die Randgebiete des südlichen Baskenlandes vor. Die Basken ließen sich diese Politik der Aufteilung ihres Gebietes nicht so ohne weiteres gefallen, so überfielen sie 778 in der Schlacht von Roncesvalles ein vom Markgrafen Roland geführtes fränkisches Heer. Königreich von Pamplona. Von 816 bis 851 herrschte Iñigo Arista über das christliche Pamplona, vom 9. bis 11. Jahrhundert bildeten sich innerhalb des navarrischen Einflussbereichs die Grafschaften Bizkaia, Álava und Gipuzkoa und der Vizegrafschaften Labourd und Soule heraus. 905 begründete König Sancho I. Garcés aus diesen die erbliche Monarchie von Pamplona, die auch als Königreich Navarra bekannt wurde. Zwischen 1000 und 1035 erreichte das Königreich Pamplona unter König Sancho dem Großen ("Sancho el Mayor"), dem „König aller Basken“, den Höhepunkt seiner Macht, bevor es nach dem Tod des Königs unter seinen Söhnen geteilt wurde. 1076 löste sich das Königreich auf; Gipuzkoa, Álava und Bizkaia fielen an Kastilien, das Kerngebiet Navarras an Aragonien. Hoch- und Spätmittelalter. Ab 1090 begann man, am Jakobsweg, dem Pilgerweg nach Santiago de Compostela, Städte zu gründen. Unter den ersten Städten im Baskenland waren Sangüesa und Estella. Nach dem Tod des kinderlosen aragonesischen Königs Alfons I. im Jahre 1134 wurde das Königreich Navarra erneut unabhängig, auch Gipuzkoa, Alava und Bizkaia gerieten wieder unter navarrischen Einfluss. Im 12. Jahrhundert begannen in Navarra und Alava weitere Stadtgründungen aus wirtschaftlichen und militärischen Gründen, u. a. Vitoria-Gasteiz im Jahr 1181. Im Jahre 1152 geriet Aquitanien unter englische Herrschaft, da die englischen Könige durch Heiratsverbindung zu Herzögen von Aquitanien wurden. In der Folge erhielt Bayonne 1174 die Stadtrechte. Im Zeitraum von 1179 bis 1200 fielen Bizkaia, Alava und Gipuzkoa dagegen endgültig an Kastilien. 1181 gründete der König von Navarra die Stadt San Sebastián, um den Seehandel im Königreich zu verstärken. Indessen erzielten die Engländer weitere Erfolge: 1193 wurde Labourd direkt der englischen Verwaltung unterstellt, 1253 wurde der Herrschaftsbereich auf Soule ausgedehnt. Auch Navarra dehnte sich weiter aus, denn zwischen 1194 und 1249 wurden die Territorien Niedernavarras in das Königreich integriert. 1234 dann geriet Navarra mit König Theobald I. unter französischen Einfluss. Im 13. und 14. Jahrhundert erfolgten an der baskischen Küste und an den wichtigsten Handelsstraßen in Bizkaia und Gipuzkoa weitere Stadtgründungen, beispielsweise wurde im Jahr 1300 Bilbao gegründet. 1285 fiel Navarra unter Philipp IV. dem Schönen, König von Frankreich und Navarra, an ersteres. Dieser Zustand wurde bereits 1328 nach dem Tode Karls des IV. wieder aufgehoben, doch Navarra blieb unter dem Einfluss des französischen Adels. Zwischen 1362 und 1379 verloren die Könige von Navarra dann sämtliche französischen Besitzungen. Im 14. und 15. Jahrhundert trat im Baskenland eine schwere Wirtschafts- und Sozialkrise auf, auch wurde der Höhepunkt der Bandenkriege zwischen den Ahaide Nagusiak und den Parientes Mayores erreicht. Infolgedessen wurden die Hermandades (Polizeitruppen zur Bekämpfung der Banden) eingerichtet und zahlreiche weitere Städte zum Schutz vor den Banden gegründet. Nach dem Sieg der Hermandades wurden die feudalen und vorfeudalen Eliten im atlantischen Baskenland entmachtet. Doch bald rutschte das Land wieder in eine weitere Krise, nämlich den Bürgerkrieg um die Thronfolge des Königreichs Navarra von 1447 bis 1452. Indessen verlor England 1449 und 1451 Labourd bzw. Soule an Frankreich. Frühe Neuzeit. Arrasate (Mondragon), Eingang zur Altstadt 1512 fiel Navarra einmal mehr an Kastilien, nachdem Ferdinand der Katholische das Königreich besetzt und an seinen Staat angeschlossen hatte. Im Jahre 1530 zogen sich die kastilischen Truppen bereits wieder aus Niedernavarra zurück, die navarrischen Monarchie wurde in Niedernavarra fortgesetzt und 1620 definitiv mit der französischen Krone vereinigt. Im 15. und 16. Jahrhundert erholte sich das ganze Baskenland wirtschaftlich, da die eisenschaffende Industrie einen Aufschwung erlebte. Im 16. Jahrhundert wurde Bizkaia so zum wichtigsten Eisenlieferanten Westeuropas. Auch entwickelte sich die Hochseefischerei sehr gut, baskische Fischer begannen im Nordatlantik zu fischen. Ein weiterer Faktor war die Zunahme des Seehandels und des Schiffbaus. 1511 wurde das "Konsulat und Handelshaus von Bilbao" gegründet. Im 17. Jahrhundert traten jedoch wirtschaftliche und soziale Veränderungen ein: Die europäischen Nachfrage nach baskischem Eisen ging zurück. Gleichzeitig trat im atlantischen Baskenland die Maisrevolution auf und wurden die Fischfanggründe im Nordatlantik verloren. Dafür wurde Bilbao zum wichtigsten Hafen für die kastilische Wollausfuhr, außerdem erlebte Bayonne Ende des 17. Jahrhunderts seine Blütezeit in Handel und Schiffbau. Im 17. und 18. Jahrhundert begannen die Zentralregierungen Frankreichs und Spaniens, die baskischen Freiheiten einzuschränken; infolgedessen traten zahlreiche Matxinada genannte Volksaufstände auf. Um 1700 begann der Aufstieg des Handelsbürgertums von San Sebastián, Bilbao und Bayonne, besonders dank der Kontrolle des internationalen Handels. Dies führte im Jahre 1728 zur Gründung der "Königlichen Handelsgesellschaft Gipuzkoa-Caracas" ("Real Compañía Guipuzcoana de Caracas"), deren Blütezeit sich bis 1740 erstreckte. Im 18. Jahrhundert begann ein neuerlicher Wirtschaftsaufschwung: Bayonne, Saint-Jean-de Luz, Pasaia (Gipuzkoa) und Zorroza (bei Bilbao) erlebten eine weitere Blütezeit im Schiffbau, ein weiterer Aufschwung des Handels und der eisenschaffenden Industrie setzte ein. Andererseits findet sich in dieser Zeit der Höhepunkt der Maisrevolution. 1765 wurde die "Königliche Gesellschaft der Freunde des Baskenlandes" ("Real Sociedad Bascongada de Amigos del País") gegründet, die nach 1785 allerdings in die Bedeutungslosigkeit zurückfiel. Ende des 18. Jahrhunderts wurde das Baskenland wieder von einer schweren strukturellen Krise in Landwirtschaft, Handel und Industrie erschüttert. 1789 – Beginn des 20. Jahrhunderts. Nachdem 1789 in Frankreich die Französische Revolution erfolgreich gewesen war, wurden im nördlichen Baskenland die traditionellen Institutionen und Sonderrechte abgeschafft. 1790 wurde dafür das Départements der Unteren Pyrenäen ("Basses-Pyrénées", seit 1969 "Pyrénées Atlantiques") gebildet, zu dem das nördliche Baskenland und die Region des Béarn gehören. Von 1793 bis 1795 fand dann der Krieg zwischen dem revolutionären Frankreich und der spanischen Monarchie statt, Teile des südlichen Baskenlandes wurden zeitweilig durch französische Truppen besetzt. Zwischen 1808 und 1813 wehrte sich Spanien im Volkskrieg gegen Napoleon (Spanischer Unabhängigkeitskrieg; "Francesada"), wobei auch rege Guerilla-Aktivität im Baskenland stattfand. Während der liberalen "Drei konstitutionellen Jahre" ("Trienio Constitucional") von 1820 bis 1823 wurden die baskischen "Fueros" allmählich abgeschafft, infolgedessen entstanden Guerilla-Bewegungen. Im April 1823 erfolgte die Invasion eines französischen Heeres und die Restauration des Absolutismus und der "Fueros". Im darauf folgenden Jahrzehnt, der sogenannten "Ominösen Dekade" ("Ominosa Década") wurden die Fueros dennoch häufig verletzt. Daran schloss sich der erste Karlistenkrieg von 1833 bis 1839 an, während dem die Karlisten das Baskenland mit Ausnahme der Städte beherrschten. Auch der Frieden wurde im Baskenland geschlossen, dies durch den Kompromiss des Abkommens von Bergara ("Convenio de Bergara"). 1836 erließ der spanische Wirtschaftsminister Mendizábal ein Desamortisierungsgesetz (Abschaffung von Kommunal- und klerikalem Land), das im Baskenland erst nach Kriegsende wirksam wurde. 1841 wurde Navarra durch das "Ley Paccionada" endgültig in den spanischen Staat integriert, woraufhin auch die Fueros endgültig aufgegeben wurden, dies im Gegenzug gegen weitgehende fiskale Autonomie. In der Mitte des 19. Jahrhunderts begann in Bizkaia und Gipuzkoa die Industrialisierung, die Folge waren Fortschritte im Bergbau und in der metallurgischen Industrie; auch wurden erste Hochöfen und Papierfabriken errichtet sowie die "Banco de Bilbao" gegründet (1875). In der Mitte des 19. Jahrhunderts setzte auch der Tourismus in Bayonne, San Sebastián und anderen Küstenorten ein. 1855 wurde ein weiteres spanisches Gesetz zur Desamortisation von Gemeinschaftsland erlassen. 1855 bis 1864 wurden die ersten Bahnlinien angelegt und damit die baskischen Territorien infrastrukturell in die Wirtschaften Spaniens und Frankreichs integriert. Auch im zweiten Karlistenkrieg zwischen 1872 und 1876 wurde das Baskenland mit Ausnahme der Städte von den Karlisten beherrscht. Nachdem diese Partei unterlegen war, wurden die Fueros in Alava, Bizkaia und Gipuzkoa abgeschafft; dafür wurde 1878 in diesen Gebieten durch die "Wirtschaftlichen Übereinkommen" ("Conciertos Económicos") die fiskale Autonomie eingerichtet. Von 1878 bis 1910 diente der Eisenerzabbau in Bizkaia als Motor der Industrialisierung im atlantischen Baskenland, so wurden bedeutende metallurgische Unternehmen ("Forges de l’Adour" 1881, "Altos Hornos de Vizcaya" 1902), Werften ("Euskalduna" 1900) und Banken ("Banco de Vizcaya" 1901) gegründet, außerdem erfolgte eine Bevölkerungsexplosion in den Küstengebieten. Ab 1879 entstand die Arbeiterbewegung in Bizkaia durch die Gründung der "Sozialistischen Arbeiterpartei Spaniens" (PSOE) (1879) und der sozialistischen Gewerkschaft UGT (1888). Konträr entstand ab 1893 die Bewegung des baskischen Nationalismus durch Sabino Arana Goiri, so wurden die "Baskischen Nationalistische Partei" (EAJ-PNV) (1895) und die nationalistische Arbeitergewerkschaft ELA-SOV (1911; später ELA-STV) gegründet. Von Bilbao ausgehend, breitete sich die Ideologie des baskischen Nationalismus allmählich in der ganzen Region aus. Auch wirtschaftlich kamen neue Möglichkeiten auf, dies durch die Erschließung von Stromquellen durch Wasserkraft im Jahre 1901, die Anlage der bedeutsamsten Stauanlagen Europas im Baskenland und in Kastilien durch baskische Unternehmen. 20. Jahrhundert. Das frühe 20. Jahrhundert im Baskenland war geprägt durch das großräumigere Erwachen des baskischen Nationalbewusstseins, so wurde 1917 die Gesellschaft für Baskische Studien ("Eusko Ikaskuntza") und 1918 die Königliche Akademie der Baskischen Sprache ("Euskaltzaindia") gegründet. Doch auch Geschehnisse von internationalen Ausmaßen hatten ihre Wirkung auf die Region; so ließen im Ersten Weltkrieg 6.000 Soldaten aus dem nördlichen Baskenland ihr Leben. Die Weltwirtschaftskrise löste in der ersten Hälfte der Dreißigerjahre eine schwere Wirtschafts- und Finanzkrise im Baskenland aus. Am 14. April 1931 wurde im baskischen Ort Eibar die demokratische Zweite Spanische Republik ausgerufen. Doch am 17. Juli 1936 fand ein Militäraufstand statt und der Spanische Bürgerkrieg begann. Pamplona war durch den Carlismus eines der wichtigsten Zentren der republikfeindlichen Verschwörung. Die Rebellen konnten in Navarra und Álava innerhalb weniger Tage die Macht an sich reißen; im September fiel auch Gipuzkoa. Lediglich Bizkaia blieb auf Seiten der Republik. Am 1. Oktober 1936 wurde vom spanischen Parlament das baskische Autonomiestatut angenommen; José Antonio Aguirre wurde "Lehendakari", d. h. Präsident der Regierung von "Euskadi", das Alava, Bizkaia und Gipuzkoa umfassen sollte. Am 26. April 1937 erfolgte im Zuge des Bürgerkrieges die Bombardierung der baskischen Symbolstadt Gernika durch die Flugzeuge der deutschen Legion Condor als Hilfstruppen des aufständischen spanischen Militärs. Mitte Juni 1937 gelang den antirepublikanischen Rebellen die Eroberung Bizkaias, die baskischen Truppen ergaben sich durch den mit den Franquisten ausgehandelten Pakt von Santoña kampflos und erhielten daraufhin eine bessere Behandlung als andere Gefangene. Jedoch wurden Bizkaia und Guipuzkoa zu „Verräterprovinzen“ erklärt und ihnen ihre fiskalen Sonderrechte der "Conciertos Económicos" entzogen. Damit war der Spanische Bürgerkrieg im Baskenland beendet (im übrigen Spanien am 1. April 1939), die franquistische Diktatur wurde eingerichtet. Dorf im nördlichen Navarra, Spanien Im Zweiten Weltkrieg wurde die französische Atlantikküste von Juni 1940 bis zum August 1944 durch die deutsche Wehrmacht besetzt, was Labourd und das westliche Niedernavarra einschloss. Nach dem Zweiten Weltkrieg erfolgte von 1959 bis 1973 ein Wirtschaftsaufschwung in Spanien, der in den vier Provinzen des südlichen Baskenlandes durch starken Industrialisierungsschub gekennzeichnet wurde. Aufgrund hoher Einwanderung ereignete sich in Bizkaia, Gipuzkoa, Vitoria und Pamplona eine Bevölkerungsexplosion; vielerorts gerieten die Basken in die Minderheit. 1959 entstand dann die radikal-nationalistische Gruppe ETA ("Euskadi ta Askatasuna" = "Das Baskenland und dessen Freiheit") mit dem Ziel der Befreiung, der Loslösung und Unabhängigkeit des Baskenlandes von Spanien durch den bewaffneten Kampf. Seit 1961 verübte die ETA Sabotageakte, 1968 gab es das erste Todesopfer. In diese Zeit fällt auch der Beginn der Teilnahme verschiedener kleiner baskisch-nationalistischer Parteien an den Wahlen im nördlichen Baskenland (ab 1963). Nach dem Prozess von Burgos gegen 15 ETA-Mitglieder im Dezember 1970 erstarkte die Bewegung weiter, da die als Schauprozess der Diktatur geplante Gerichtsverhandlung der ETA stattdessen weltweit Sympathien einbrachte. Drei Jahre später, am 20. Dezember 1973 erfolgte das bis dahin spektakulärste Attentat der ETA, bei dem der spanische Ministerpräsident Luis Carrero Blanco durch die ETA ermordet wurde. Ab 1973 trat auch die linksnationalistische Gruppe "Iparretarrak" durch Brand- und Bombenanschläge im nördlichen Baskenland auf den Plan. Am 20. November 1975 endete durch den Tod des spanischen Diktators Francisco Franco die nationalistische Diktatur. Im gleichen Jahr wurde der Kampf gegen die ETA begonnen, bei dem vom spanischen Staat unterstützte Gruppen gegen die ETA kämpften. Dieser Kampf forderte Dutzende von Todesopfern, seinen Höhepunkt erreichte er 1983–1987 durch die GAL (Grupos Antiterroristas de Liberación). Die meisten Anschläge traten im nördlichen Baskenland auf. 1976 wurde die "Taktischen Alternative KAS" konstituiert, der verschiedene legale und illegale linksnationalistische Organisationen beitraten, u. a. die ETA und die Gewerkschaft LAB. Ende 1978 wurde innerhalb der KAS Gründung die Wahlplattform "Herri Batasuna" gegründet, die seitdem an Wahlen teilnimmt. Mittlerweile waren 1976 bis 1977 alle der beinahe 600 inhaftierten ETA-Mitglieder amnestiert worden. Gleichzeitig wurden die 1937 entzogenen "Conciertos Económicos" in Bizkaia und Gipuzkoa wiederhergestellt. Dennoch führte die ETA 1978 bis 1980 eine weitere Serie von gewalttätigen Anschlägen durch, der Kampagne fielen 253 Personen zum Opfer. Am 6. Dezember 1978 wurde im Baskenland über den spanischen Verfassungsentwurf abgestimmt. In Alava, Bizkaia und Gipuzkoa wurde der Entwurf deutlich abgelehnt, in Navarra gab es eine knappe Mehrheit für die Vorlage. Im folgenden Jahr, am 25. Oktober 1979, gab es eine Volksabstimmung über das baskische Autonomiestatut in Alava, Bizkaia und Gipuzkoa, die die spanische autonome Region "Euskadi" bilden. Das Estatuto de Guernica (Baskisches Autonomiestatut), welches in elfmonatigen, zähen Verhandlungen durch den Consejo General Vasco (Baskischer Generalrat, Vorläufer der baskischen Landesregierung, Vorsitz: Ramón Rubial später Carlos Garaikoetxea) der Zentralregierung abgerungen wurde und die von Franco abgeschaffte vollständige Finanzautonomie wieder einführte, wurde mit einer Mehrheit von 90 Prozent bei einer Wahlbeteiligung von 60 Prozent von der baskischen Bevölkerung befürwortet. Ab 1980 gab es alle vier Jahre Wahlen zum Parlament von Euskadi, wobei die EAJ-PNV ständig stärkste Partei ohne absolute Mehrheit ist. 1982 wurde auch die spanische autonome Region Navarra eingerichtet, die Wahlen zum Parlament von Navarra zeigen jedoch noch immer ein deutliches Übergewicht der nichtbaskischen Parteien. Ende 1986 wurden erste Kontakte zwischen der spanischen Regierung und der ETA geknüpft, dies mit dem Ziel, den baskischen Konflikt auf dem Verhandlungsweg beizulegen. Im Januar 1988 wurde der Antiterrorismus-Pakt von Ajuria Enea von allen im baskischen Parlament vertretenen Parteien des südlichen Baskenlandes mit Ausnahme von "Herri Batasuna" unterzeichnet. Aktuelle politische Lage in der Autonomen Gemeinschaft Baskenland. Bahnhof Atxuri in Bilbo (Bilbao) Nach einem mit Unterstützung von PP und PSOE neu erlassenen Parteiengesetz wurde die linke Unabhängigkeitspartei Batasuna 2003 gerichtlich verboten. Nach einer Suspendierung folgte im September 2008 die traditionsreiche linksnationalistische Partei EAE-ANV, die unter der Diktatur Francos 1939 schon einmal verboten worden war, und die junge kommunistische Partei PCTV-EHAK. Ihnen wird vorgeworfen, die ETA unterstützt zu haben. Das "Batasuna"-Verbot wurde zwar vom Europäischen Gerichtshof für Menschenrechte geprüft, am 30. Juni 2009 jedoch einstimmig für menschenrechtskonform erklärt. Nach dem Verbot von Batasuna, Herri Batasuna und Euskal Herritarrok (die nachträglich auch verboten worden sind) wurde auch die Teilnahme von ANV und EHAK, durch die Suspendierung von Januar bzw. Februar 2008, an den spanischen Parlamentswahlen vom 9. März 2008 unterbunden. Verboten wurde ohne Parteiverbotsverfahren auch die Partei Askatasuna (Freiheit), obwohl die sogar 2001 in Konkurrenz zu Batasuna kandidiert hatte und auf ihr keinerlei ehemalige Kandidaten der zuvor verbotenen Parteien zu finden waren. Nach heftiger internationaler Kritik an dem Parteiengesetz und angesichts des bevorstehenden Richterspruchs des Menschenrechtsgerichtshofs in Straßburg, kassierte das spanische Verfassungsgericht im Mai erstmals das Verbot einer neuen Wählerliste. Das Verbot hatte zuvor auf Antrag der Regierung der Oberste Gerichtshof ausgesprochen, weil angeblich auch hinter der neuen Liste die Partei Batasuna stehen soll. Die „Iniciativa Internacionalista – La Solidaridad entre los pueblos“ (II-SP) kann nun doch zu den Europaparlamentswahlen antreten. Kurz zuvor hatte sich auch der UN Sonderbeauftragte für Menschenrechte darüber „beunruhigt“ gezeigt, „welche Vielfalt an Bestimmungen“ des Parteigesetzes in Spanien Verbote ermöglichten. “Schwammige Formulierungen„, so Martin Scheinin “können so interpretiert werden, dass sie auch auf jede politische Partei zutreffen, die mit friedlichen Mitteln ähnliche politische Ziele verfolgt, wie terroristische Gruppen“. Die Institution, die Spanien auch wegen Folter rügt, kritisiert, Strafrechtsbestimmungen zu Terrorismus seien zum Teil vage. Es existiert nun neben der spanischen Partei II-SP, zu deren Wahl die verbotene Partei Batasuna aufruft, noch mit Aralar eine Abspaltung von Batasuna. Nun haben die etwa 200.000 Wähler der linken Unabhängigkeitsbewegung eine Wahlmöglichkeit, auch wenn sich auf der Liste kein Baske befindet. Aralar wird vom Großteil der baskischen Linken als spalterisch abgelehnt. Am 24. März 2006 verkündet die ETA eine einseitige Waffenruhe zur Aufnahme von Friedensgesprächen mit der spanischen Regierung. Mit einem am 30. Dezember 2006 verübten Sprengstoffanschlag auf den Flughafen Barajas in Madrid hatte die ETA die Waffenruhe allerdings noch im gleichen Jahr gebrochen, dabei kamen zwei Menschen ums Leben. Die Regierung setzte daraufhin die Friedensverhandlungen mit der baskischen Untergrundorganisation bis auf Weiteres aus. Ihrerseits hob die ETA den „Waffenstillstand“ mit Wirkung ab 6. Juni 2007 auf. Seitdem kam es wieder zu einer Vielzahl von Anschlägen. Am 28. September 2007 kündigte Juan José Ibarretxe, Ministerpräsident der spanischen Autonomen Gemeinschaft Baskenland, an, im Oktober 2008 eine Volksbefragung über die politische Zukunft der Region abzuhalten. Er begründete sein Vorgehen mit den Worten: „Die Gewalt kann uns nicht davon abhalten, politische Initiativen zur Lösung des politischen Konflikts beizusteuern“ Damit griff Ibarretxe seinen Unabhängigkeitsplan von 2001 wieder auf, der 2004 vom baskischen Parlament angenommen und dann im Jahr 2005 vom spanischen Parlament mit deutlicher Mehrheit abgelehnt wurde. Auch der neue Volksbefragungsplan stieß erwartungsgemäß auf starke Ablehnung bei den wichtigsten spanienweit organisierten Parteien PSOE und Partido Popular (PP) und deren baskischen Ablegern PSE-EE (PSOE) und PP Pais Vasco. Am 4. Oktober 2007 wurden bei einem polizeilichen Großeinsatz, 22 Politiker aus der Führungsspitze der für illegal erklärten Partei Batasuna verhaftet. Diese vom spanischen Ermittlungsrichter Baltasar Garzón geleitete Aktion kann als Reaktion auf die gescheiterten Friedensverhandlungen mit ETA und den neuen Volksbefragungsplan von Ibarretxe gewertet werden. Zudem wollte die regierende PSOE vor den Wahlen (2008) und gegenüber der Kritik der oppositionellen PP Härte demonstrieren. Am 29. Dezember 2007 demonstrierten anlässlich eines Freundschaftsspiels "Euskal Herria" – "Catalunya" im Stadion des Erstligisten Athletic Bilbao mehrere Tausend Basken und Katalanen für die offizielle Zulassung der baskischen und katalanischen Fußballnationalmannschaften, auch Forderungen nach Unabhängigkeit dieser Regionen wurden vielfach artikuliert. Offizielle Vertreter der Regierungen von Galicien, Katalonien und Baskenland unterzeichneten eine Erklärung ("Declaración de San Mamés"), in der sie sich für die offizielle Zulassung eigener nationaler Sportauswahlen aussprechen. Die Forderung wird von der Madrider Regierung abgelehnt. Am 7. März 2008, zwei Tage vor den spanischen Parlamentswahlen, wurde der Kommunalpolitiker der regierenden Sozialisten Isaias Carrasco in seinem baskischen Heimatort von einem ETA-Attentäter erschossen. Auch nach den Wahlen setzt ETA die aktuelle Anschlagsserie fort. Am 27. Mai 2008 beschloss das baskische Parlament eine unverbindliche Volksbefragung für den 25. Oktober desselben Jahres, in der sich die Bevölkerung über eine mögliche Vorgehensweise zur Konfliktlösung äußern soll. Auf die Normenkontrollklage der Zentralregierung erklärte das Verfassungsgericht am 11. September 2008 das baskische Gesetz über das Referendum für verfassungswidrig und nichtig. Damit erreichten die spanienweit organisierten Parteien PP, PSE-EE zusammen, erstmals seit Einführung der Demokratie, eine Sitzmehrheit im Parlament der Autonomen Gemeinschaft Baskenland. Dem Aufruf, gegen den Wahlausschluss der Linksseparatisten mit der Abgabe von ungültigen Stimmen für die verbotenen Listen zu protestieren, kamen etwa 101.000 Wähler nach, was 8,84 % der Stimmen entsprach. Die Wahlbeteiligung lag etwa 3,2 % unter der von 2005. Das Wahlbündnis aus PSOE und PP wählte am 5. Mai 2009 den Sozialisten Patxi López zum Lehendakari (Präsidenten des Baskischen Parlaments), womit die drei Jahrzehnte dauernde Regierungszeit der Nationalisten beendet wurde. Bettina von Arnim. Bettina v. Arnim, Gemälde um 1890 Bettina von Arnim (geborene "Elisabeth Catharina Ludovica Magdalena Brentano", auch "Bettine"; * 4. April 1785 in Frankfurt am Main; † 20. Januar 1859 in Berlin) war eine deutsche Schriftstellerin und bedeutende Vertreterin der deutschen Romantik. Jugend. Bettina Brentano war das siebte von zwölf Kindern des Großkaufmanns Peter Anton Brentano und seiner zweiten Frau Maximiliane von La Roche. Die aus Italien stammende altadelige Familie war begütert. Sie besaß das später von Bettinas Brüdern geleitete "Haus zum Goldenen Kopf", die Zentrale einer blühenden Ex- und Importfirma, von der Bettina ein beträchtliches Erbe zufiel. 1793 starb Bettinas Mutter. Die Tochter wurde deswegen bis zu ihrem 13. Lebensjahr in der Ursulinenschule Fritzlar erzogen. Nach dem Tod des Vaters lebte sie ab 1797 bei ihrer Großmutter Sophie von La Roche in Offenbach am Main, später in Frankfurt am Main. Ihre Schwester Kunigunde Brentano war mit dem Rechtsgelehrten Friedrich Karl von Savigny verheiratet und lebte in Marburg, wo Bettina einige Zeit bei ihnen wohnte. 1810 folgte sie den Savignys nach Berlin. Auf dieser Reise traf sie am 8. Mai in Wien ein und wohnte dort bei ihrer Schwägerin Antonie Brentano, die sie Ende Mai mit Ludwig van Beethoven bekannt machte. Folgt man ihren eigenen Briefen und Erinnerungen, so ist sie Beethoven nur drei Mal begegnet, ehe sie die Stadt am 3. Juni wieder verließ und mit der Familie Savigny nach Prag weiterreiste. Diese Begegnung hat sie jedoch maßgeblich geprägt. Ehe mit Achim von Arnim. 1811 heiratete Bettina Brentano Achim von Arnim, den sie bereits in Frankfurt als Freund und literarischen Arbeitskollegen ihres Bruders Clemens Brentano kennengelernt hatte. Die Arnims waren bis zu seinem plötzlichen Tod 1831 zwanzig Jahre verheiratet. Das Paar lebte überwiegend getrennt – während Bettina in Berlin lebte, bewirtschaftete Achim das Gut Wiepersdorf. Soziale und literarische Arbeit. Bettina von Arnims literarisches und soziales Engagement trat erst nach dem Tod ihres Mannes 1831, dessen Werke sie herausgab, ins Licht der Öffentlichkeit. Die neue Autonomie, die der Witwenstand ermöglichte, führte zu einer Verstärkung ihres öffentlichen Wirkens. Bei der Choleraepidemie in Berlin engagierte sie sich für soziale Hilfsmaßnahmen in den Armenvierteln und pflegte Erkrankte. Sie schrieb das sozialkritische Buch "Dies Buch gehört dem König" (1843). Das aus fiktiven Dialogen zwischen der Mutter Goethes und der Mutter des preußischen Königs bestehende Werk wurde in Bayern verboten. Der spätere Kunst- und Kulturhistoriker Jacob Burckhardt (1818–1897) studierte 1841–1843 in Berlin, wurde von Bettina von Arnim empfangen und beschrieb diese in einem Brief an seine Schwester Louise am 29. Januar 1842 wie folgt: „Ein 54jähriges Mütterchen, klein aber von schöner Haltung, mit wahrhaften Zigeunerzügen im Angesicht, aber so wunderbar interessant, wie selten ein weiblicher Kopf; schöne, echte kastanienbraune Locken, die braunsten, wundersamsten Augen, die mir je vorgekommen sind.“ In der Ernüchterung, die der gescheiterten Revolution von 1848 folgte, verfasste sie 1852 die Fortsetzung "Gespräche mit Dämonen", in der sie für die Abschaffung der Todesstrafe und die politische Gleichstellung von Frauen und Juden eintritt. Ihre weitreichende Korrespondenz zur Ermittlung statistischer Angaben für ihr "Armenbuch" erregte großes Aufsehen. Das Buch wurde bereits vor seinem Erscheinen von der preußischen Zensur verboten, da man Bettina von Arnim verdächtigte, den Weberaufstand mit angezettelt zu haben. Sie stand den Ideen der Frühsozialisten nahe; 1842 traf sie mit Karl Marx zusammen, hielt jedoch an der Idee eines "Volkskönigs" fest. Der König sollte erster Bürger einer Gemeinschaft von Bürgern sein und mit ihnen den Staat erschaffen, in dem sie leben wollten. Tod und Nachwirkung. 1854 erlitt Bettina von Arnim einen Schlaganfall, von dem sie sich nie mehr erholte. Am 20. Januar 1859 starb sie im Kreise ihrer Familie, zu ihrer Seite das von ihr gefertigte Goethe-Monument. Sie wurde neben ihrem Mann an der Kirche von Wiepersdorf beigesetzt. 1985 wurde aus Anlass ihres 200. Geburtstages in Berlin die Bettina-von-Arnim-Gesellschaft gegründet. Sie hat das Ziel, Leben und Werk der Autorin einer breiteren Öffentlichkeit bekannt zu machen. Die Gesellschaft schreibt alle drei Jahre einen undotierten Forschungspreis aus und gibt das "Internationale Jahrbuch der Bettina-von-Arnim-Gesellschaft" heraus. Sie war ab 1992 auf dem 5-DM-Schein der letzten D-Mark-Banknotenserie abgebildet. An der Ursulinenschule in Fritzlar, an der Bettina von Arnim Internatsschülerin war, wird seit 2002 das "Bettina-von-Arnim-Forum" veranstaltet. Kontakte. Das Petrihaus im Brentanopark in Frankfurt-Rödelheim Goethe. 1806 begann die lange währende Freundschaft Bettina Brentanos mit Goethes Mutter Katharina Elisabeth Goethe. Der Dichter hatte auf die ihm schwärmerisch erscheinenden Briefe Bettinas zunächst nicht geantwortet. Doch ein Jahr später durfte sie in Weimar erstmals den von ihr extrem verehrten Johann Wolfgang Goethe besuchen. Es begann ein Briefwechsel zwischen den beiden, der nach Goethes Tod unter dem Titel "Goethes Briefwechsel mit einem Kinde" berühmt wurde. 1811, im Jahr ihrer Heirat, kam es nach einer öffentlichen Auseinandersetzung zwischen ihr und Goethes Ehefrau Christiane zum Bruch mit Goethe. In einer Gemäldeausstellung des Goethe-Vertrauten Johann Heinrich Meyer hatte sich Bettina von Arnim abfällig über die Werke von „Kunschtmeyer“ geäußert. Christiane riss ihr daraufhin die Brille von der Nase, und Bettina nannte Christiane eine „wahnsinnige Blutwurst“. Goethe verbot Bettina von Arnim und ihrem Ehemann fortan sein Haus. Als er das Ehepaar ein Jahr später in Bad Teplitz traf, nahm er von ihnen keine Notiz und schrieb seiner Frau: „Ich bin sehr froh, daß ich die Tollhäusler los bin.“ Wiederholte Briefe, in denen Bettina ihn verzweifelt um erneute Kontaktaufnahme bat, ließ er unbeantwortet. Beethovens „Unsterbliche Geliebte“? Bislang konnte nicht bewiesen werden, dass unter den vielen Kandidatinnen, die bisher diskutiert wurden, Bettina von Arnim die „Unsterbliche Geliebte“ Beethovens war. Edward Walden glaubt in seinem Buch "Beethoven’s Immortal Beloved" (2011) Anhaltspunkte dafür gefunden zu haben. Er stützt sich dabei im Wesentlichen auf zwei angeblich von Beethoven an Bettina geschriebene Briefe, die allerdings in der Beethovenforschung – ebenso wie einige Briefe, die Bettina von Goethe erhalten haben will – als Fälschungen angesehen und daher nicht anerkannt werden. Walden selbst räumt ein: „Falls dieser Brief an Bettina echt ist, wäre es schlüssig bewiesen, daß Bettina die "Unsterbliche Geliebte" war, aber das Original ist verschollen, und seine Authentizität wird heutzutage stark angezweifelt. […] Ihre [Bettinas] Vertrauenswürdigkeit und ihre Wahrheitsliebe gelten heute als zweifelhaft.“ Werk und Beurteilung. Scherenschnitt „Jagdszene“ von Bettina von Arnim Bettina von Arnim gab ihre Briefwechsel mit Johann Wolfgang von Goethe, Karoline von Günderrode, Clemens Brentano, Philipp von Nathusius und Friedrich Wilhelm IV. von Preußen in zum Teil sehr stark bearbeiteter Form heraus. Diese Briefbücher, die nach den Grundsätzen der romantischen Poetik komponiert waren, wurden von den Lesern oft für authentische Dokumente gehalten, was zu Fälschungsvorwürfen gegen Bettina von Arnim führte. Insbesondere das 1835 erschienene Buch "Goethes Briefwechsel mit einem Kinde" wurde ein Verkaufserfolg und beeinflusste das Goethe-Bild der Folgezeit stark, besonders unter den Romantikern. Die Originalbriefe wurden im Jahr 1929 publiziert. In dem Briefroman "Die Günderode" verarbeitete sie die Monate ihrer Freundschaft mit Karoline von Günderrode im Jahr 1804 und deren Freitod. Bettina von Arnim erfuhr und erfährt sehr unterschiedliche Beurteilungen. Zeitgenossen beschrieben sie als „grillenhaftes, unbehandelbares Geschöpf“, als koboldhaftes Wesen. Man sieht sie aber auch als emanzipierte, vielbegabte und neugierige Frau, die sich erfolgreich für persönliche Unabhängigkeit und geistige Freiheit einsetzte, für sich wie auch für andere Menschen. Literarische Rezeption. Bettina von Arnims Leben und insbesondere ihre Beziehung zu Goethe werden sehr ausführlich von Milan Kundera in seinem Roman "Die Unsterblichkeit" behandelt. Kundera sieht Bettina als Frau, die zeitlebens versuchte, durch Kontakt zu herausragenden Persönlichkeiten ihrer Zeit und der Suggestion einer tiefen emotionalen Beziehung zu ihnen eigenen Ruhm zu erwerben. Illustriert wird diese Interpretation hauptsächlich durch die Analyse ihres Briefverkehrs mit Goethe, der von ihr bei der Veröffentlichung vorgenommenen Änderungen und des öffentlichen Streits mit Christiane Goethe. Sarah Kirsch zeichnet im "Wiepersdorf-Zyklus", der während einer Arbeitswoche im „[v]olkseigenen Schloß“ entstand, ein Bild ihres persönlichen Lebensgefühls in der DDR der 1970er Jahre. Rahmenhandlung ist der Aufenthalt einer an die Autorin erinnernden Schriftstellerin, in dem „[e]hrwürdige[n] schöne[n] Haus [m]it dem zwiefachen Dach“. Im zweiten Teil stellt sie der Wiepersdorfer Szenerie „[d]ie schönen Fenster im Malsaal“, „außen“ „[m]aifrischer Park“ mit den „lächeln[den]“ „Steinbilder[n]“ die Enge ihrer Hochhauswohnung „in der verletzenden viereckigen Gegend“ gegenüber und spricht bewundernd die Gutsherrin an: „Bettina! Hier [h]ast du mit sieben Kindern gesessen […] ich sollte mal an den König schreiben“. Im neunten Teil fokussiert die Dichterin, in Anspielung auf Bettinas Briefe an Friedrich Wilhelm IV. von Preußen, die Ähnlichkeiten der privaten und politischen Situation: „Bettina, es ist alles beim alten. Immer sind wir allein, wenn wir den Königen schreiben [d]enen des Herzens und jenen des Staates“. In Christa Wolfs Roman "Kein Ort. Nirgends" (1979) ist Bettina von Arnim Teil der Winkeler Gesellschaft, in der 1804 die (fiktive) Begegnung von Heinrich von Kleist mit Karoline von Günderrode stattfindet. Bettina von Arnim ist die weibliche Protagonistin in "Das Erlkönig-Manöver" (2007) von Robert Löhr. Der historische Roman stellt vor allem ihre Zerrissenheit zwischen ihrem Idol Goethe und ihrem späteren Ehemann Achim von Arnim dar. Zitate. „Es ist wahr, […], in mir ist ein Tummelplatz von Gesichten, alle Natur weit ausgebreitet, die überschwenglich blüht in vollen Pulsschlägen, und das Morgenrot scheint mir in die Seele und beleuchtet alles. Wenn ich die Augen zudrücke mit beiden Daumen und stütze den Kopf auf, dann zieht diese große Naturwelt an mir vorüber, was mich ganz trunken macht. Der Himmel dreht sich langsam, mit Sternbildern bedeckt, die vorüberziehen; und Blumenbäume, die den Teppich der Luft mit Farbenstrahlen durchschießen. Gibt es wohl ein Land, wo dies alles wirklich ist? Und seh ich da hinüber in andre Weltgegenden?“ „Wer ist des Staates Untertan? Der Arme ists! – Nicht der Reiche auch? – Nein, denn seine Basis ist Selbstbesitz und seine Überzeugung, daß er nur sich angehöre! – Den Armen fesseln die Schwäche, die gebundenen Kräfte an seine Stelle. – Die Unersättlichkeit, der Hochmut, die Usurpation fesseln den Reichen an die seine. Sollten die gerechten Ansprüche des Armen anerkannt werden, dann wird er mit unzerreißbaren Banden der Blutsverwandtschaft am Vaterlandsboden hängen, der seine Kräfte der Selbsterhaltung weckt und nährt, denn die Armen sind ein gemeinsam Volk, aber die Reichen sind nicht ein gemeinsam Volk, da ist jeder für sich und nur dann sind sie gemeinsam, wenn sie eine Beute teilen auf Kosten des Volkes.“ Auf diesem Hügel überseh ich meine Welt! Hinab ins Tal, mit Rasen sanft begleitet, Vom Weg durchzogen, der hinüber leitet, Was ist's, worin sich hier der Sinn gefällt? Auf diesem Hügel überseh ich meine Welt! Erstieg ich auch der Länder steilste Höhen, Von wo ich könnt die Schiffe fahren sehen Und Städte fern und nah von Bergen stolz umstellt, Nichts ist's, was mir den Blick gefesselt hält. Auf diesem Hügel überseh ich meine Welt! Ich sehnte mich zurück nach jenen Auen, Wo Deines Daches Zinne meinem Blick sich stellt, Denn der allein umgrenzet meine Welt. Belle Boyd. Maria Isabella Boyd auch Belle Boyd wurde "La Belle Rebell" genannt (* 4. Mai 1844 in Bunker Hill, Virginia; † 11. Juni 1900). Sie spionierte für die Südstaaten im Amerikanischen Bürgerkrieg, indem sie General Thomas "Stonewall" Jackson über die Truppenbewegungen der Nordstaaten informierte. BeOS. BeOS, Be Operating System, ist ein Betriebssystem des Unternehmens Be Incorporated und wurde von Be in späteren Versionen aufgrund seiner Multimedia-Fähigkeiten auch häufig als „Media OS“ bezeichnet. Gegenüber Konkurrenzprodukten wie Windows, Mac OS oder Linux konnte es sich nicht durchsetzen. System. Bei BeOS handelt es sich um ein Einbenutzersystem mit einem modularen Hybridkernel für X86- (mindestens Pentium) und PowerPC-Prozessoren (PowerPC 603 und 604, G3 nur auf Upgradekarten). Es unterstützt Mehrprozessorsysteme mit bis zu acht Prozessoren und ist multitasking- und multithreadingfähig. BeOS verwendet ein eigenes BeFS genanntes 64-Bit-Journaling-Dateisystem. BeOS ist jedoch auch in der Lage, auf Partitionen, die mit den Windows-Dateisystemen FAT16, FAT32 oder dem Mac-OS-Dateisystem HFS formatiert sind, lesend und schreibend zuzugreifen. Auf Partitionen, die mit dem Windows-Dateisystem NTFS oder dem Linux-Dateisystem ext2 formatiert sind, kann lesend zugegriffen werden. Zudem verfügt BeOS über einen Speicherschutz, der verhindert, dass ein abgestürztes Programm das gesamte System beeinträchtigt. Dies war bei Erscheinen von BeOS eine echte Neuerung im Heimanwenderbereich, verfügten doch die beiden damals populärsten Betriebssysteme Windows 95 und Mac OS (bis 9) eben nicht über diese Technik. BeOS brachte mit "bootman" seinen eigenen Bootmanager mit, der komplett in den Master Boot Record passt. Er kann keine Dateisysteme lesen und lädt daher ein Betriebssystem so, als ob es direkt gestartet würde, dadurch kann "bootman" nahezu jedes Betriebssystem starten. BeOS verzichtete auf die Trennung von Kernel und grafischer Oberfläche. Developer Release. Software-Entwickler erhielten Developer Releases (DR) zusammen mit der BeBox und bekamen dann das jeweils neueste Developer Release zugesandt. Die früheren Developer Releases laufen nur auf der BeBox von Be, erst ab der DR-Version 8.2 wird auch der Power Macintosh unterstützt. Die erste offiziell erhältliche Version war DR6; DR5 wurde nur an wenige speziell ausgewählte Firmen ausgeliefert. Die DR9 wurde im Mai 1997 auf der BeDC (Be Developer Conference) verteilt und danach an alle registrierten Entwickler verschickt. Die DR9 trägt auch den Namenszusatz AADR, was für "advanced access preview release" steht, da dies die letzte Version ist, die nur für Entwickler gedacht war und nahezu identisch ist mit der kurze Zeit später erschienenen Preview Release 1. Die DR9 brachte gegenüber der DR8 einige tiefgreifende Änderungen mit sich. So wurde das Dateisystem zu einem 64-Bit-Dateisystem erweitert, was Dateien größer als 2 GB erlaubt, und um Journaling-Funktionen ergänzt. DR6 und frühere Versionen laufen heute nur noch auf ganz wenigen BeBoxen, da deren Bootloader für spätere Versionen geändert wurde. BeBoxen, die auf diese Weise aktualisiert wurden, können die alten Versionen daher nicht mehr betreiben. Preview Release. CD des Preview Release 2 Die Preview Release 1 (PR1) von BeOS, die vor Erscheinen der Preview Release 2 einfach nur als Preview Release bezeichnet wurde, erschien im Juli 1997 und basiert weitgehend auf der zuvor an Entwickler gelieferten DR9. Die PR1 brachte aber dennoch gegenüber den Developer Releases weitere Neuerungen, wie die Unterstützung für AppleTalk, PostScript-Drucker, Unicode und softwareseitiges OpenGL. Der Preis für den "Full Pack" (CD mit Handbuch und zwei Updates) der Preview Release 1 betrug 49,95 US-Dollar. Es gab aber auch einen so genannten "Trial Pack," der aus einer auf CD gelieferten, uneingeschränkt lauffähigen Preview Release besteht und für 10 US-Dollar erhältlich war. Die ab Oktober 1997 erhältliche Preview Release 2 war ab November 1997 auch zum kostenlosen Download auf der Internetseite von Be verfügbar. Laut Angaben von Be wurde diese, bis sie mit Erscheinen von Release 3 nicht mehr verfügbar war, insgesamt mehr als 1 Million mal heruntergeladen. Release 3. Das im März 1998 erschienene BeOS 3 ist die erste Version, die auch für die x86-Architektur erhältlich war. Diese kostete anfangs 69,95 US-Dollar (als Einführungspreis), später 99,95 US-Dollar. Es folgte Version 3.1, die weitere Treiber enthält und das Lesen von FAT16-Dateisystemen erlaubt und Festplattenlaufwerke, die 8 GB oder mehr umfassen, unterstützt. BeOS 3.2 bringt erneut weitere Treiber speziell für die x86-Architektur. Auf Basis von Release 3.2 erschien auch eine Live-CD für x86, die für 10 US-Dollar (in Deutschland für 10 DM) erhältlich war. Release 4. BeOS 4 erschien im Dezember 1998 und kostete 99,95 oder 69,95 US-Dollar (bei Bestellung über Bes Webseite). Es bringt gegenüber der Vorgängerversion erneut zusätzliche Treiber und Unterstützung für die gängigsten SCSI-Kontroller auf der x86-Plattform – von Adaptec und Symbios Logic. Eine weitere grundlegende Neuerung ist der Wechsel des Compilers der Version für x86-Prozessoren vom CodeWarrior zum EGCS, da dieser den Code besser für x86-Prozessoren optimiert. Dies machte es erforderlich, dass alle für Release 3 geschriebenen Programme entsprechend angepasst und neu compiliert werden mussten, da auch das gesamte BeOS für x86 mit diesem Compiler übersetzt worden war. Eine weitere Neuerung war der Umstieg vom bisher verwendeten Linux Loader (LILO) auf den BeOS-Bootmanager "bootman". Im Februar 1999 machte das Unternehmen Be allen Computerherstellern das Angebot kostenlose BeOS-Lizenzen zu erhalten. Dieses Angebot galt jedoch nur, wenn die Rechner die Möglichkeit boten wahlweise Windows oder BeOS zu booten, die beide auf Festplatte installiert sein mussten. Dieses Angebot wurde von verschiedenen Computerherstellern wahrgenommen, so etwa von Fujitsu und Hitachi. Version 4 sollte eine Aktualisierung auf Version 4.1 folgen, doch stattdessen erhielt die Folgeversion, da sie erhebliche Neuerungen enthält, die Versionsnummer 4.5 und erschien etwas verspätet im Juni 1999. So bietet Version 4.5 erstmals experimentelle Unterstützung für USB und PCMCIA, bringt einen eigenen Mediaplayer mit, und es wird erneut die Anzahl der unterstützten Hardware erhöht, nicht unterstützte Grafikkarten können nun aber mittels eines VESA-Treibers angesprochen werden. Ebenfalls mit BeOS 4.5 erschien ein experimentelles Programm namens "World O' Networking" (WON), das auf der BeOS 4.5-und BeOS 5-CD mitgeliefert wurde und bis zum Erscheinen von BeOS 5 auch von Bes FTP-Server heruntergeladen werden konnte. Dieses Programm erlaubte es, auf Windows-Rechner über das Netzwerk zuzugreifen. Es folgten noch Updates auf Version 4.5.1 und 4.5.2, die hauptsächlich Bugfixes enthielten, aber auch ein paar neue Treiber enthalten. Release 5. Die letzte von Be entwickelte und veröffentlichte Version war BeOS 5. Sie erschien im März 2000 als „Professional“ und als „Personal Edition“. Die „Professional“ Variante von BeOS 5 wurde in Deutschland ab August 2000 vom Unternehmen Koch Media mit deutschem Handbuch und einer weiteren CD mit Free- und Shareware für 169 DM (etwa 85 €) vertrieben. Die „Personal Edition“ ist eine Gratisversion zur privaten Nutzung, die zuerst nur auf Windows, dann auch auf Linux installiert und von dort gestartet werden kann. Dazu legt das Installationsprogramm eine Image-Datei an. In dieser Image-Datei ist das Abbild eines mit dem BeFS-Dateisystem formatierten Datenträgers mitsamt BeOS-Installation enthalten. Das in der Image-Datei enthaltene BeOS kann mit dem BeOS-Bootmanager "bootman" gestartet werden, der entweder auf Diskette oder im MBR untergebracht werden kann, oder mit einem Startskript aus dem bereits laufenden Dateisystem (was jedoch Schwierigkeiten bei der Hardwareerkennung bereiten kann). Die kostenlose „Personal Edition“ wurde auch von verschiedenen Computer-Magazinen auf der Heft-CD mitgeliefert. Dadurch vergrößerte sich die Nutzerzahl schnell, der kommerzielle Erfolg blieb jedoch aus. Für BeOS 5 erschienen dann noch die Updates 5.0.1, 5.0.2 (nur Professional) und 5.0.3. Nach der Übernahme von Be durch Palm gab es Gerüchte um ein BeOS 5.1; dieses wurde jedoch nie veröffentlicht. Nachdem dann das Unternehmen Be von Palm übernommen worden war, war klar, dass BeOS 5.1 nicht erscheinen würde. Es entstanden verschiedene auf BeOS 5.0.3 aufbauende Varianten, die zusätzliche Treiber und Software enthalten. Beispiele dafür sind "BeOS Max" und die "BeOS Developer Edition." Diese Distributionen verstoßen jedoch gegen die Lizenz von BeOS 5 Personal Edition, welche besagt, dass BeOS nicht in veränderter Form weitergegeben werden darf. Anwendungen. BeOS bringt standardmäßig bereits verschiedene Anwendungen mit, etwa den Browser NetPositive, einen Mediaplayer, einen Bildbetrachter (ShowImage), ein E-Mail-Programm (BeMail) und einen Webserver (PoorMan). Zusätzlich bringt BeOS mit SoftwareValet ein Programm mit, das es erlaubt, auf einfache Weise neue Software zu installieren, die in entsprechenden Archiven mit der Endung ".pkg" untergebracht ist. Des Weiteren existieren viele verschiedene Free- und Shareware-Programme, da Be schon früh freie Entwickler für BeOS begeistern konnte. Beispiele für derartige Software sind AbiWord und BeZilla (Mozilla-Portierung). Im April 1996 erschien mit CodeWarrior eine Integrierte Entwicklungsumgebung für BeOS. Ab BeOS 3 gibt es auch von größeren kommerziellen Anbietern verschiedene Software für BeOS, so existieren mit BeBasic und Gobe Productive zwei Office-Pakete für BeOS. Insbesondere Gobe Productive von ehemaligen Mitarbeitern der Apple Works Suite hatte sehr innovative Ansätze. Weitere Software folgte, etwa der Browser Opera. Das Unternehmen BeatWare bot gleich mehrere ihrer Produkte für BeOS an, nämlich das E-Mail-Programm Mail-It, den FTP-Client Get-It und das Grafikprogramm e-Picture. Bei Erscheinen der kostenlosen Personal Edition von BeOS 5 gab BeatWare bekannt, dass Mail-It und Get-It ebenfalls kostenlos erhältlich sind. Von Adamation gab es einen der ersten Home-Videoeditoren, Personal Studio. Viele weitere kommerzielle Programme gab es insbesondere aus dem Multimediabereich. Videoschnittprogramme (VideoWave), Animationssoftware (Cinema 4D) oder Software zur Audiobearbeitung, etwa Nuendo von Steinberg, waren angekündigt und wurden teilweise auch auf Messen vorgeführt, erschienen jedoch größtenteils nie in einer endgültigen Version. Von der mittlerweile etablierten IK Multimedia existieren Ports von T-Racks und Groovemaker, nachdem man sich auf der Musikmesse in Frankfurt von den Qualitäten des Systems überzeugte. Die Hersteller waren von der generellen Überlegenheit des Systems überzeugt, allerdings vermochte es die Führung von Be Inc. nicht, den notwendigen Support für die Softwarehersteller zu bieten. Der strategische Richtungswechsel auf BeIA war somit für die meisten Unternehmen der Grund, trotz Vorstellung der Produkte auf dem BeOS auf der Cebit, der Musikmesse in Frankfurt oder in Arnheim die Entwicklung einzustellen. Auf einer Entwicklermesse in Frankfurt zeigte sich jedoch deutlich der hohe Latenz- und Geschwindigkeitsunterschied zu Windows-basierten Systemen. Geschichte. BeOS wurde ursprünglich für ein Mehrprozessor-System auf Basis des AT&T Hobbit-Prozessors entwickelt. Die Verwendung von zwei Prozessoren gehörte zur Firmenphilosophie, der Slogan „One processor per person is not enough“ drückte dies aus. Schon dieses System trug den Namen BeBox. Noch während der Entwicklung von BeOS wurde die Produktion dieses Prozessors von AT&T eingestellt. Die BeBox wurde daher auf Basis des damals noch jungen RISC-Prozessors PowerPC neu entwickelt. Die erste erschienene BeBox besitzt zwei dieser Prozessoren vom Typ 603 mit je 66 MHz. Das Design ist jedoch sehr unglücklich, da der verwendete Prozessor-Kontroller nur zwei Prozessoren oder einen Prozessor und dessen 2nd-Level-Cache verwalten kann. Dieses Problem wurde auch mit der zweiten BeBox auf Basis von zwei Prozessoren vom Typ 603e mit je 133 MHz nicht vollständig gelöst. Später wurde das System auf Apple Macintosh und dann auf Intel-kompatible Rechner portiert. Als die BeBox zusammen mit der ersten Entwicklerversion von BeOS im Oktober 1995 auf der Bildfläche erschien – sie konnte nur über die Internetseite von Be bestellt werden – wurden die Geeks als erste Zielgruppe anvisiert. Diese sollten das System nehmen und mit der Unterstützung von Be daraus machen, was auch immer sie wollten. Im Vergleich zu anderen Systemherstellern bot Be den Entwicklern einen besseren Support, guten Kontakt, und den Entwicklerwünschen wurde schnell entsprochen. Das System sprach damals auch viele Amiga-Entwickler und -Nutzer an, von denen viele auf der Suche nach einer neuen Plattform waren. Noch im Mai 1996 wurde auf dem deutschen Amiga-Meeting in Burlafingen die "DeBUG" (Deutsche BeBox User Group, später Deutsche Be User Group) gegründet, die bis heute besteht. Im Sommer 1996 wurde BeOS als Kandidat für die Mac-OS-Nachfolge gehandelt, was im Wesentlichen darauf zurückzuführen war, dass das System mittlerweile auf den Macintosh-Rechnern von Apple lief und eben jene Funktionen bot, die dem klassischen Mac OS zu einem modernen Betriebssystem fehlten. Noch 1997 konnte man auf der Webseite von Be lesen, dass BeOS als Betriebssystem entwickelt wurde, welches den alten Ballast abschüttelt und das beste aus der Welt von Unix, Mac OS und AmigaOS aufgreift, auch wenn vom AmigaOS erst sehr spät einige Ideen – hauptsächlich auf Druck der Entwicklergemeinde – übernommen wurden. Dazu gehörte zum Beispiel das vom Amiga bekannte „DataTypes“-System. Durch die Aufgabe der eigenen Hardware (BeBox) im Januar 1997 gehörte die Mehrprozessorphilosophie der Vergangenheit an, da weder bei Macs noch bei PCs Mehrprozessorsysteme üblich waren. Aber dennoch läuft das System bis heute auf mehreren Prozessoren. Im Jahr 1998 präsentierte sich BeOS mit dem Intel-Port als komplett neues, multimediataugliches Betriebssystem. Dies ging so weit, dass sogar behauptet wurde, das System sei von Grund auf für Multimedia entwickelt worden, auch wenn zwei Jahre vorher Multimedia noch kein explizites Thema für BeOS war. Auch für die Entwicklergemeinde hatte sich einiges geändert. Der Erfolgsdruck auf Seiten des Herstellers wurde spürbar. Be erwies sich als sehr unstet, und die oft auftretenden Zielwechsel hatten spürbare Auswirkungen: 1998 hatten sowohl Entwickler- wie auch Nutzergemeinde mindestens zweimal komplett gewechselt, auch das System war in vielen Komponenten immer wieder verworfen und neu entwickelt worden. 1999 sah dennoch nach einem erfolgreichen Jahr für BeOS aus, das System erlangte nach und nach mehr Reife, die Hardwareunterstützung erreichte akzeptable Ausmaße. Die großen Hoffnungen bewahrheiteten sich jedoch nicht, gerade die großen Softwarehersteller zögerten, Software, beispielsweise zur Text- und Grafikverarbeitung, zu portieren. Die letzte unter der Leitung von Be erschienene Version war BeOS 5 aus dem Jahr 2000. Diese erschien sowohl als „Professional Edition“, die kommerziell vertrieben wurde, als auch als kostenlose „Personal Edition“, die auch von verschiedenen Computer-Magazinen auf der Heft-CD mitgeliefert wurde. Durch diese Version vergrößerte sich die Nutzerzahl stark, der kommerzielle Erfolg blieb jedoch aus. Dennoch hatten einige Firmen aus dem Multimediabereich bereits Portierungen ihrer Produkte angekündigt. Überraschend kam dann ein erneuter Kurswechsel von Be: BeOS als eigenständiges Produkt wurde aufgegeben zugunsten von BeIA, einem Betriebssystem für sogenannte Internet Appliances. BeOS sollte nur noch als Entwicklungsplattform für BeIA dienen und nur in sehr eingeschränktem Maße – wie es die Entwicklung von BeIA erforderte – weiter gewartet und veröffentlicht werden. Dies führte dazu, dass nicht nur viele Anwender, sondern vor allem die professionellen Anbieter BeOS den Rücken kehrten – noch bevor ihre Anwendungen fertig portiert waren. Das Unternehmen Be musste dann 2001 Gläubigerschutz beantragen, da das Geschäft mit den Internet Appliances so schnell vorbei war, wie es begonnen hatte. Sehr zügig wurden alle geistigen Besitztümer von Be an das Unternehmen Palm verkauft und die Entwicklung von BeOS offiziell eingestellt. Haiku (OpenBeOS). Mit dem Ende von Be und der Tatsache, dass Palm an einer Weiterentwicklung nicht interessiert war, begann die Entwicklung von Haiku (damals noch unter dem Namen "„OpenBeOS“"), einer Implementierung als Open Source. Mittlerweile wird ein bootfähiges Image der Alphaversion von Haiku angeboten. ZETA. Im Gegensatz zum von Grund auf neu entwickelten Haiku war das Betriebssystem ZETA, das am 3. November 2003 auf den Markt kam und bis April 2007 erhältlich war, eine direkte Weiterentwicklung, die den originalen Quelltext von BeOS verwendet. Es handelt sich also um ein proprietäres Betriebssystem, mit dem kommerzielle Ziele angestrebt wurden. Es wurde bis Anfang 2006 vom Mannheimer Unternehmen yellowTAB herausgegeben und nach dessen Insolvenz durch das Unternehmen Magnussoft übernommen, das Anfang 2007 mit ZETA 1.5 die voraussichtlich letzte Version veröffentlichte. Magnussoft stellte die Weiterentwicklung aufgrund der schlechten Verkaufszahlen ein. Als anschließend Hauptentwickler Bernd Korz öffentlich Überlegungen über eine Freigabe des unter seiner Leitung entstandenen Quellcodes anstellte, meldete sich ein Vertreter von Access, Inc., Inhaber der BeOS-Rechte, zu Wort und erklärte, Bernd Korz habe nie eine Lizenz zur Nutzung des BeOS-Quelltextes besessen. Mithin sei ZETA ein illegales Derivat. Magnussoft reagierte, indem es ZETA „vorläufig“ vom Markt nahm. BlueEyedOS. BlueEyedOS versuchte aufbauend auf dem Linux-Kernel und einem X-Server ein System unter LGPL zu erstellen, das sowohl optisch als auch von den Schnittstellen kompatibel zu BeOS ist. Die Arbeit an BlueEyedOS begann am 1. Juli 2001 unter dem Namen "BlueOS" und wurde im Februar 2005 eingestellt. Cosmoe. Cosmoe wurde von Bill Hayden als ein Open-Source-Betriebssystem entworfen, das auf dem Quellcode von AtheOS basiert, jedoch als Kernel nicht den ursprünglichen AtheOS-Kernel, sondern den Linux-Kernel verwendet. Es ähnelt optisch BeOS. Das Ziel des Projekts war jedoch, dass es auch Sourcecode-kompatibel zu BeOS wird. Cosmoe unterliegt der GPL und LGPL. Die letzte Version 0.7.2 wurde am 17. Dezember 2004 veröffentlicht. Projektautor Hayden erklärte im Dezember 2006 in einem Interview, dass er seit längerer Zeit nicht mehr an dem Betriebssystem gearbeitet habe und dass er es begrüßen würde, wenn ein Nachfolger die Entwicklung weiterführen würde. In einem Posting vom 6. Februar 2007 erklärte er, dass er die Entwicklung wieder aufgenommen habe. Am Ende desselben Monats verbreitete er zudem, die Veröffentlichung von Version 0.8 stehe unmittelbar bevor. Diese ist jedoch ausgeblieben, sodass Cosmoe als verwaist angesehen werden muss. ZevenOS. ZevenOS griff 2008 zumindest optisch den Ansatz von BlueEyedOS wieder auf, ein Linux-System als Betriebssystem-Grundlage zu verwenden (Details Liste von Linux-Distributionen). Bevölkerung. Der Begriff Bevölkerung wird als Bezeichnung für die menschliche Population innerhalb geografischer Grenzen verwendet und unterscheidet sich von abstammungsbezogenen Gruppierungen wie Stamm, Volk und Ethnie. In der Wissenschaft ist die Bevölkerung das primäre Untersuchungsobjekt der Demografie, die sich mittels statistischer Methoden der Struktur und Entwicklung der Bevölkerung nähert. Die räumliche Verteilung der Bevölkerung in einem bestimmten Raum wird dabei sowohl von der "Demografie" wie auch der Bevölkerungsgeografie untersucht, die historische Entwicklung von Bevölkerungen von der Bevölkerungsgeschichte. Bis zum 18. Jahrhundert bedeutete "Bevölkerung" nicht die Populationsbestandsaufnahme, sondern war eine eingedeutschte Form des aus dem Französischen abgeleiteten Begriffes Peuplierung (orig. "Peuplement", auch: Pöblierung), der die Populationsanreicherung, -verdichtung und -wandlung als demografischen Prozess im Allgemeinen und als Gegenstand der (zumeist absolutistisch geprägten) Bevölkerungspolitik im Besonderen bezeichnete. Bevölkerung in Deutschland nach öffentlichem Recht. Nach dem öffentlichen Recht der Bundesrepublik Deutschland gilt eine Person als Einwohner Deutschlands, die in einer Gemeinde oder territorialen Einheit ihren ständigen Wohnsitz hat oder dort wohnberechtigt ist; dies schließt die gemeldeten Ausländer ein. Allerdings lassen sich hierbei mehrere Bevölkerungsbegriffe unterscheiden, die im Folgenden etwas näher erläutert werden. Je nachdem, welchen Begriff eine Kommune oder Region bei der Nennung der Einwohnerzahlen verwendet, kann es somit zu sehr unterschiedlichen Gesamtzahlen kommen. Insbesondere wird bei vielen Städten derjenige Begriff als Einwohnerzahl verwendet, welcher die höchste Einwohnerzahl der Stadt darstellt. Ortsanwesende Bevölkerung. Dieser heute meist nicht mehr verwendete Begriff beinhaltet alle Einwohner, die sich an einem bestimmten Stichtag an dem maßgebenden Ort aufgehalten haben. Dies führt vor allem zu Problemen bei Personen, die sich auf Reisen befanden und somit gelegentlich sowohl an ihrem Aufenthaltsort und oftmals auch noch an ihrem eigentlichen Wohnort gezählt wurden (Doppelzählung). Wohnbevölkerung. Unter Wohnbevölkerung versteht man alle Einwohner, die am maßgebenden Ort ihre alleinige Wohnung haben oder bei Einwohnern, die mehrere Wohnsitze haben, nur diejenigen, die vom maßgebenden Ort aus ihrer Arbeit oder Ausbildung nachgehen. Es zählen also nur solche Personen als Einwohner, die am maßgebenden Ort ihren "überwiegenden Aufenthalt" haben. Die Frage, ob es sich hierbei um die Haupt- oder Nebenwohnung handelt ist hier nicht maßgebend. Da in Universitätsstädten die Studenten meist nur mit einer Nebenwohnung gemeldet waren, war dies unerheblich. Sie zählten bei der "Wohnbevölkerung" mit, weil sie in der Regel in der Universitätsstadt ihren überwiegenden Aufenthalt haben. Die "Wohnbevölkerung" kommt im geltenden Melderecht nicht mehr vor. Bevölkerung am Ort der Hauptwohnung. Dieser heute von den meisten Statistischen Ämtern verwendete Begriff umfasst alle Bewohner, die am maßgebenden Ort ihre alleinige Wohnung haben, oder bei Einwohnern mit mehreren Wohnungen, die Hauptwohnung. Man geht also davon aus, dass die Hauptwohnung auch der „überwiegende Aufenthalt“ einer Person ist, wobei hiernach nicht mehr gefragt wird. Alle Personen mit Nebenwohnungen werden somit nicht mitgezählt. Da Studenten – wie beim Begriff „Wohnbevölkerung“ ausgeführt – oftmals nur einen Zweitwohnsitz in der Universitätsstadt haben, zählen sie somit nicht zu den Einwohnern dazu. Viele Städte versuchen daher mit besonderen Angeboten (etwa kostengünstigeres Fahren mit öffentlichen Verkehrsmitteln) die Studenten dazu zu bewegen, dass sie ihren Wohnsitz zur Hauptwohnung erklären. Die „amtlichen“ Bevölkerungszahlen werden von den Statistischen Landesämtern ermittelt. Die Feststellung der Bevölkerungszahlen erfolgt nach dem Gesetz über die Statistik der Bevölkerungsbewegung und die Fortschreibung des Bevölkerungsstandes in der Fassung der Bekanntmachung vom 14. März 1980 (BGBl. I S. 308) zuletzt geändert durch Artikel 2 des Gesetzes zur Änderung des Melderechtsrahmengesetzes und anderer Gesetze vom 25. März 2002 (BGBl. I S. 1186), auf der Grundlage der Volkszählung vom 25. Mai 1987 nach den Ergebnissen der Statistik der natürlichen Bevölkerungsbewegung und der Wanderungsstatistik. Erhebungsunterlagen der Statistik der natürlichen Bevölkerungsbewegung sind die Meldungen der Standesämter über Geburten und Sterbefälle; Erhebungsunterlagen der Wanderungsstatistik sind die Mitteilungen der Einwohnermeldeämter über Zu- und Fortzüge, sowie Statusänderungen. Für die Zuordnung von Personen mit mehreren Wohnungen ist der Ort der Hauptwohnung maßgeblich. Hauptwohnung ist nach § 12 des Melderechtsrahmengesetzes vom 16. August 2001 (BGBl. I S. 1429) und nach § 16 des Meldegesetzes für das Land Nordrhein-Westfalen vom 13. Juli 1982 (GV. NRW. S. 474), geändert durch das Gesetz vom 14. März 1988 (GV. NRW. S. 160) bei verheirateten Personen, die nicht dauernd getrennt von ihrer Familie leben, die vorwiegend benutzte Wohnung der Familie, bei allen übrigen Personen deren vorwiegend benutzte Wohnung. Wohnberechtigte Bevölkerung. Dieser weitestgehende Begriff umfasst alle Einwohner, die mit Haupt- und Nebenwohnungen am maßgebenden Ort gemeldet sind, weil alle jene Einwohner amtlich gemeldet und somit „berechtigt“ sind, an diesem Ort zu wohnen. Diese Einwohnerzahlen ergeben jedoch ein vollständig falsches Bild der Gesamtbevölkerung, weil Personen mit mehreren Wohnsitzen auch entsprechend mehrfach gezählt werden. Würde man die entsprechenden Einwohnerzahlen aller Städte und Gemeinden eines Landes addieren, so hätte dieses bedeutend mehr Einwohner. Dennoch verwenden viele Städte den Einwohnerbegriff im Sinne der „wohnberechtigten Bevölkerung“, um die Gesamtzahl der Einwohner entsprechend zu erhöhen. Bei Großstädten kann das mitunter mehrere Tausend Einwohner mehr bedeuten. Ausländische Bevölkerung. Dieser Begriff umfasst jene Personen, die im zentralen Melderegister erfasst sind, aber nicht die inländische, sondern eine ausländische Staatsbürgerschaft besitzen. Börse. Eine Börse ist ein nach bestimmten Regeln organisierter Markt vertretbarer Sachen. Gehandelt werden kann zum Beispiel mit Wertpapieren (etwa Aktien, Anleihen), Devisen, bestimmten Waren (z. B. Metalle und andere Rohstoffe) oder mit hiervon abgeleiteten Rechten. Die Börse führt Angebot und Nachfrage – vermittelt durch Makler (während definierter Handelszeiten) – marktmäßig zusammen und gleicht sie durch (amtliche) Festsetzung von Preisen (Kurse) aus. Die Feststellung der Kurse oder Preise der gehandelten Objekte richtet sich laufend nach Angebot und Nachfrage. Hintergründe. Eine Börse dient der zeitlichen und örtlichen Konzentration des Handels von fungiblen Gütern unter beaufsichtigter Preisbildung. Ziele sind eine gesteigerte Markttransparenz für Wertpapiere, die Steigerung der Effizienz und der Marktliquidität, die Verringerung der Transaktionskosten sowie der Schutz vor Manipulationen. Anders als im so genannten außerbörslichen Handel "over the counter" (OTC-Handel) wird börslicher Handel börsenaufsichtsrechtlich durch staatliche Aufsichtsämter (in Deutschland: die Bundesanstalt für Finanzdienstleistungsaufsicht (BaFin)) sowie durch die Handelsüberwachungsstellen der Börsen kontrolliert. Durch den in der ISO 10383 geregelten Market Identifier Code ist jede Börse genau wie jede andere Handelsplattform weltweit eindeutig identifizierbar. Für An- und Verkäufer von Finanzprodukten übernehmen die Börsen die wichtige Funktion der zentralen Gegenpartei (Central counterparty). Namensherkunft. Der Begriff "Börse" im Sinne eines Geldbeutels stammt vom mittellateinischen "bursa" „Ledertasche, Geldsäckchen“ ab, das letztlich auf altgriechisch "βύρσα (býrsa)" zurückgeht, das abgezogene Tierhaut bzw. Fell bezeichnete. Von der Antike bis zum Mittelalter lässt sich also ein Bedeutungswandel vom Material zum daraus bestehenden Behältnis an sich feststellen. Einige Historiker bringen den Begriff in Verbindung mit Byrsa, einer mauergeschützten Festung über dem Hafen der antiken Stadt Karthago im heutigen Tunesien. Die Bezeichnung der Börse als eines Treffpunktes für Händler entstand spätestens zur Zeit des europäischen Frühkapitalismus im 16. Jahrhundert. Die in Brügge ansässige Kaufmannsfamilie "van der B(e)urse", deren Wappen drei Geldbeutel zeigt, unterhielt in ihrem Haus regelmäßig stattfindende geschäftliche Zusammenkünfte mit — vor allem italienischen — Kaufleuten. So ging das niederländische Wort "borse" vom Haus über auf die Treffen selbst und wurde in den darauffolgenden Jahren auch in anderen europäischen Sprachen übernommen, wo es noch heute gebraucht wird, so frz. "bourse", dän. "børs", ital. "borsa", dt. "Börse" u. a. Börsenformen. Die klassische Form der Börse ist die Präsenzbörse (auch Parketthandel genannt). Dort treffen sich die Makler in persona und schließen durch Gespräche ihre Geschäfte ab. Dies geschieht entweder im Eigenhandel oder im Auftrag ihrer Kunden. Bei Computerbörsen wie beim vollekeltronischen Handelsplatz Xetra übernimmt ein "Computerprogramm" die Berechnungen und die Kommunikation. Hier werden Eingaben über Computermasken gemacht, das Computersystem wickelt den Handel ab und errechnet die Kurse (z. B. den Tagesdurchschnitt). Der Hauptanteil des Umsatzes wird gegenwärtig weltweit über computergestützte Börsen abgewickelt, wobei teilweise die Makler selbst am Bildschirm sitzen. Für die Abwicklung von Lieferung und Zahlung haben sich zwischen den Marktteilnehmern teilweise nicht-kodifizierte (festgeschriebene) Usancen gebildet. Daneben wurden in der letzten Zeit in Deutschland auch Anweisungen der Bundesanstalt für Finanzdienstleistungsaufsicht über die Mindestanforderungen im Handel mit Wertpapieren veröffentlicht (z. B. Aktien oder Obligationen). Börsenpflichtblätter. Verschiedene Kapitalmarktregeln verlangen eine Publikation bestimmter Vorgänge, die für das Börsengeschehen relevant sind. Börsennotierte Unternehmen und Wertpapieremittenten müssen alle Bekanntmachungen, die gesetzlich vorgeschrieben sind, in den Pflichtblättern der entsprechenden Börsen veröffentlichen. Die Zulassungsstelle einer Börse bestimmt gemäß Abs. 5 Börsengesetz mindestens drei inländische Tageszeitungen mit überregionaler Verbreitung als "überregionale Börsenpflichtblätter". Daneben kann sie weitere (regionale) Börsenpflichtblätter benennen. Handelszeiten. Bei den Handelszeiten an allen Börsen wird unterschieden zwischen dem Parketthandel und dem Computerhandel (wie zum Beispiel Xetra). Kleinere Börsen verfügen oftmals nur über den Parketthandel. Der Parketthandel beginnt an den Börsen Frankfurt und Stuttgart um 08:00 Uhr Ortszeit (bezogen auf Deutschland), an den Börsen Berlin, Düsseldorf und München ebenfalls um 08:00 Uhr, er endet um 20:00 Uhr Ortszeit und in Stuttgart um 22:00 Uhr. Der Xetra beginnt um 9:00 Uhr und endet bereits um 17:30 Uhr Ortszeit. Die Handelszeiten der NASDAQ, der größten elektronischen Börse in den USA, und der NYSE sind von 9:30 bis 16:00 New Yorker Ortszeit (EST), was 15:30 bis 22:00 Uhr deutscher Zeit (MEZ) entspricht. Die Tokioter Börse hat ihre Handelszeiten von 9:00 Uhr bis 11:30 Uhr und 12:30 Uhr bis 15:00 Uhr Ortszeit (entspricht 1:00 Uhr bis 3:30 Uhr und 4:30 Uhr bis 7:00 Uhr MEZ). Wichtige Handelsplätze. Nach Marktkapitalisierung und Handelsumsätzen gemessen ist der wichtigste Handelsverbund für den CEE-Raum die CEE Stock Exchange Group. Danach folgt die polnische Warschauer Börse, die bezüglich der Marktkapitalisierung bereits größer ist als die Wiener Börse – betrachtet man diese eigenständig. Die weltweiten Börsen sind mit einem täglichen Transaktionsvolumen von etwa 2 Billionen US-Dollar ein entscheidender Faktor der Weltwirtschaft. Börsenplatz Deutschland. In Deutschland gibt es acht Wertpapierbörsen, eine Devisenbörse, eine Wertpapierterminbörse und eine Warenterminbörse. Die wichtigste Börse in Deutschland ist die Frankfurter Wertpapierbörse (FWB), einschließlich der Handelsplätze Xetra und Börse Frankfurt. Ein Großteil des Aktienhandels in Deutschland wird über die Handelsplätze Xetra und Börse Frankfurt abgewickelt (März 2008: Anteil am Handel mit deutschen Aktien rund 98 Prozent, bei ausländischen Aktien rund 84 Prozent). Ausgehend vom Handel mit Sorten und Wechselbriefen im 16. und 17. Jahrhundert und dem ab 1820 beginnenden Aktienhandel hat sich die FWB seitdem zu einer der führenden internationalen Börsen für Aktien und Anleihen entwickelt. Trägerin und Betreiberin ist die Deutsche Börse AG. Außerdem gibt es in Deutschland noch sieben weitere Wertpapierbörsen (die bis auf Tradegate und European Energy Exchange auch als Regionalbörsen bezeichnet werden). Unter diesen ist die Börse Stuttgart (Baden-Württembergische Wertpapierbörse) mit einem durchschnittlichen Anteil von 34 Prozent am Orderbuchumsatz des deutschen Parketthandels zweitgrößter Handelsplatz. Von besonderer Bedeutung ist der Handel von verbrieften Derivaten, wie Optionsscheinen (Handelssegment Euwax). An den Wertpapierbörsen in Hamburg und Hannover, die unter der gemeinsamen Träger- und Betreibergesellschaft Börsen AG den dritten Rang der deutschen Börsen einnehmen, nimmt hingegen der Fondshandel eine bedeutende Stellung ein. 1897 gab es noch folgende Börsen in Deutschland: Berlin, Breslau, Danzig, Düsseldorf, Elbing, Essen, Frankfurt am Main, Gleiwitz, Halle an der Saale, Königsberg, Magdeburg, Memel, Posen, Stettin (alle Preußen), München, Augsburg (Bayern), Leipzig, Dresden, Zwickau, Chemnitz (Sachsen), Stuttgart (Württemberg), Mannheim (Baden), Mülhausen, Straßburg (Elsaß-Lothringen), Bremen, Hamburg, Lübeck. Von den Nationalsozialisten wurden 1934 die bisher 21 deutschen Börsen zu 9 Börsen zusammengefasst: Berlin, Breslau, Hannover, Stuttgart, Hamburg (Bremen und Lübeck gingen in dieser Börse auf), die Sächsische oder Mitteldeutsche Börse in Leipzig (Dresden, Zwickau, Halle und Chemnitz gingen in dieser Börse auf), die Rheinisch-westfälische Börse in Düsseldorf (Essen und Köln gingen in dieser Börse auf), die Rhein-Mainische Börse in Frankfurt (mit Mannheim) und die Bayerische Börse in München (mit Augsburg). Börsenplatz USA. Die wichtigsten Börsen in den USA sind die NYSE Amex (früher American Stock Exchange), die Chicago Mercantile Exchange (CME), die National Association of Securities Dealers Automated Quotations (NASDAQ), die New York Mercantile Exchange (NYMEX) und die New York Stock Exchange (NYSE). Älteste amerikanische Börse ist die 1790 gegründete Philadelphia Stock Exchange. Dark Trade. Der überwiegende Teil des Handels findet außerbörslich statt. In Deutschland rund die Hälfte, in den USA etwa zwei Drittel des Gesamtvolumens. Ein erheblicher Teil der Transaktionen geschieht verdeckt und nicht öffentlich. Dark Pools sind eine spezielle Form von Handelsplätzen die dazu dienen, Auftragsbestand und Marktteilnehmer zu verdunkeln. Diese Intransparenz liegt insbesondere im Interesse institutioneller Investoren. In den USA hat sich der Anteil reiner Dark Pools am abgewickelten Volumen in den Jahren 2008 bis 2014 von 8 % auf 15 % fast verdoppelt. Da diese Handelsform einem Kundenbedürfnis entspricht, werden Dark Pools auch an den regulären Börsen angeboten, so betreibt die Schweizer Börse "SIX Liquidnet Service" und die Deutsche Börse "Xetra Midpoint". Auch Großbanken wie UBS und Credit Suisse betreiben eigene Dark Pools. Historische Entwicklung. Im Frankreich des 12. Jahrhunderts wurden die "courretiers de change" mit der Verwaltung und Regulierung der Schulden von landwirtschaftlichen Gemeinden im Namen der betroffenen Banken tätig. Weil diese Männer auch mit Schulden handelten, können sie als die ersten Makler bezeichnet werden. Nach einem weit verbreiteten Irrglauben trafen sich im späten 13. Jahrhundert Rohstoffhändler in Brügge im Haus eines Mannes namens Van der Beurze, aus dem im Jahre 1409 die "Brugse Beurse" entstanden sein soll. Bis dahin war es ein informelles Treffen, aber eigentlich hatte die Familie Van der Beurze ein Gebäude in Antwerpen, wo diese Versammlungen stattfanden. Gründungen einzelner Börsen. Die erste Börse wurde 1531 in Antwerpen gegründet, die Augsburger Börse entstand 1540 als erste in Deutschland. Das erste offizielle Börsengebäude der Welt wurde 1613 in Amsterdam eröffnet. Baryon. Baryonen (von altgriechisch "barýs" ‚schwer‘, ‚gewichtig‘, analog zu den „leichten“ Leptonen und den „mittelschweren“ Mesonen) sind Teilchen, die aus jeweils drei Quarks (bzw. Antibaryonen aus jeweils drei Antiquarks) bestehen. Über diese unterliegen sie der starken Wechselwirkung, d. h. sie gehören zu den Hadronen, zusammen mit den Mesonen, die jeweils aus einem Quark und einem Antiquark zusammengesetzt sind. Darüber hinaus unterliegen Baryonen der schwachen Wechselwirkung, der Gravitation und, sofern sie geladen sind, auch der elektromagnetischen Kraft. Baryonen sind Fermionen, d. h., sie haben halbzahligen Spin und werden beschrieben durch die Fermi-Dirac-Statistik, wodurch sie dem Paulischen Ausschließungsprinzip (Pauli-Prinzip) gehorchen. Zur Klasse der Baryonen gehören unter anderem das Proton und das Neutron (Sammelbegriff: Nukleonen) sowie eine Reihe weiterer, schwererer Teilchen, die sogenannten Hyperonen. Das Proton (bzw. Antiproton) ist das einzige Baryon, das als freies Teilchen stabil ist, da es das leichteste Baryon mit der Baryonenzahl 1 (bzw. −1) ist und diese nach dem Standardmodell der Elementarteilchenphysik eine absolute Erhaltungsgröße ist. Das Neutron dagegen zerfällt, wenn es nicht im Atomkern mit anderen Protonen und Neutronen gebunden ist. Allgemeines. Im Jahr 1964 gelang es Murray Gell-Mann und Yuval Ne’eman, die bekannten Baryonen aufgrund gruppentheoretischer Überlegungen in bestimmten Schemata (den "Achtfachen Weg", engl.: "Eightfold way") anzuordnen. In diesen ist die x-Achse durch die dritte Komponente des Isospins und die y-Achse durch die Strangeness gegeben; diagonal dazu kann man die Achsen elektrische Ladung und Hyperladung legen. An der Lage der Achsen lässt sich die experimentell bestätigte Gell-Mann-Nishijima-Formel ablesen. Aus dem Modell wurde ein zusätzliches, damals noch unbekanntes Baryon mit dem Quark-Inhalt "sss" postuliert. Die spätere Entdeckung des Omega-Baryons bei der vorhergesagten Masse und mit den vorhergesagten Eigenschaften war einer der frühen Erfolge des Quark-Modells. Die Baryonen sind aus jeweils drei fundamentalen Teilchen aufgebaut, die Gell-Mann Quarks nannte. Alle Quarks sind Fermionen mit Spin 1/2. Die ursprüngliche Quark-Hypothese ging von drei verschiedenen Quarks aus, dem up-, dem down- und dem strange-Quark (u-, d- und s-Quarks). Das up- und das down-Quark werden aufgrund ihrer ähnlichen Massen zu einem Isospindublett zusammengefasst. Von ihnen unterscheidet sich das strange-Quark vorrangig durch seine größere Masse und eine Eigenschaft, die Strangeness genannt wird. Die Ladung des u-Quarks ist das 2/3-fache der Elementarladung, die Ladung von d- und s-Quark das (−1/3)-fache der Elementarladung. Die Idee ist jetzt, dass jede Möglichkeit, drei Quarks zusammenzusetzen, einem Baryon entspricht, wobei die Eigenschaften der Quarks die Eigenschaften des Baryons bestimmen. Zunächst lassen sich die Spins der drei Quarks zu einem Gesamtspin formula_1 von 1/2 oder von 3/2 koppeln. Im ersten Fall gibt es begrenzt durch das Pauli-Prinzip acht Möglichkeiten ("Baryonoktett"), im zweiten Fall sind es zehn ("Baryondekuplett"). Da davon ausgegangen wird, dass die Quarks im Grundzustand keinen relativen Gesamt-Bahndrehimpuls haben, ist die Parität formula_2 aller Baryonen positiv. Das Baryon-Oktett ("JP = 1/2+"). u- und d-Quarks können wir zusammenschließen zu den Kombinationen "uud" und "udd" (die Kombinationen "uuu" und "ddd" sind durch das Pauliprinzip verboten). Tatsächlich gibt es in der Natur zwei nicht-strange Spin-1/2-Baryonen, das Proton und das Neutron. Die Kombination "uud" hat eine Gesamtladung von 1, daher ordnen wir sie dem Proton zu, entsprechend ist das Neutron das "udd"-Teilchen. Die Isospins der drei Quarks koppeln jeweils zu ±1/2, daher bilden Proton und Neutron ein Isospindublett (anschaulich: da beide Kombinationen "ud" enthalten, vererbt sich der Isospin direkt aus dem überzähligen dritten Quark). Für die strangen Baryonen stehen die Kombinationen "uus", "uds" und "dds" zur Verfügung. Die Isospins der beiden nicht-strangen Quarks koppeln dabei zu einem Triplett, den Sigma-Baryon, und einem Singulett, dem Lambda-Baryon. Das Baryon-Dekuplett ("JP = 3/2+"). Ähnlich lässt sich auch das Dekuplett erklären, wobei hier auch symmetrische Quark-Kombinationen erlaubt sind, z. B. das Δ++ mit "uuu". Das Pauli-Prinzip verlangt hierfür allerdings die Einführung eines weiteren Freiheitsgrades, der sogenannten Farbe. Es postuliert nämlich, dass Wellenfunktionen von Fermionen antisymmetrisch sein müssen. Dies bedeutet im Fall des Baryons, dass die Wellenfunktion ein Minuszeichen erhält, sobald man die Quantenzahlen zweier der drei beteiligten Teilchen vertauscht. Die bisher zusammengesetzte Wellenfunktion des Δ++ wäre also symmetrisch. Um das Pauli-Prinzip zu erfüllen, muss daher eine weitere Quantenzahl für die Quarks postuliert werden, die Farbe: sie kann die Zustände „rot“, „grün“ und „blau“ annehmen. Wir postulieren ferner, dass sich die Quarks im Farbraum stets zu einer antisymmetrischen Wellenfunktion zusammenschließen, d. h. anschaulich, dass das entstehende Teilchen stets „weiß“ ist, z. B. im Baryon durch Zusammenschluss eines „roten“, eines „grünen“ und eines „blauen“ Quarks. Massenaufspaltung. Da sich die verschiedenen Zeilen der Multipletts durch die Anzahl der strange-Quarks unterscheiden (die Strangeness nimmt jeweils nach unten hin zu), liefert der Massenunterschied zwischen dem strange- und den nicht-strange Quarks ein Maß für die Massenaufspaltung der einzelnen Isospinmultipletts. Ferner existiert eine grundlegende Aufspaltung zwischen den Massen in Oktett und Dekuplett, die auf die (farbmagnetische) Spin-Spin-Wechselwirkung zurückzuführen ist. So hat z. B. die Quarkkombination (uus) je nach Spin unterschiedliche Massen (formula_3 mit Spin 1/2 hat m = 1189,37 MeV/c2 und formula_4 mit Spin 3/2 hat m = 1382,8 MeV/c2); in der nebenstehenden Abbildung des Dekupletts wird diese Unterscheidung nicht dargestellt. Die geringe Massenaufspaltung innerhalb der Isospinmultipletts (z. B. Proton-Neutron-Aufspaltung etwa 1,3 MeV/c2) lässt sich teilweise über die unterschiedliche Ladung der beteiligten Quarks erklären. Weitere Baryonen. Heute ist bekannt, dass es außer den bisher erwähnten leichten Quarks noch drei weitere, schwerere Quarks gibt ("charm", "bottom" und "top"). Mit ihnen können weitere Baryonen erzeugt werden. Indem man z. B. beim Lambda-Teilchen ("uds") das strange-Quark durch ein charm-Quark ersetzt, erhält man das formula_5 mit einer um etwa 1200 MeV/c² größeren Masse. Neben den beschriebenen Grundzuständen der Baryonen gibt es noch eine riesige Zahl an Anregungszuständen, die sogenannten Baryonresonanzen. Baryonenzahl. Experimentell beobachtet man, dass die Anzahl der Baryonen minus der Anzahl der Antibaryonen erhalten bleibt. Daher ordnet man den Baryonen die Baryonenzahl B=+1 zu und den Antibaryonen B=−1, entsprechend den Quarks B=+1/3 und den Antiquarks B=−1/3. Die Baryonenzahl ist eine additive Quantenzahl, d. h. für Systeme mehrerer Teilchen addieren sich die Quantenzahlen der einzelnen Konstituenten zur Quantenzahl des Gesamtsystems. Im Unterschied zu anderen erhaltenen Quantenzahlen ist für die Baryonenzahl keine zugehörige Symmetrie bekannt. In Theorien, die über das Standardmodell der Teilchenphysik hinausgehen, ist die Baryonenzahl im Allgemeinen auch nicht erhalten. Prozesse, die die Baryonenzahlerhaltung verletzen, müssen in solchen Theorien aber extrem selten sein, um nicht in Widerspruch zu experimentellen Resultaten zu geraten, insbesondere zur mittleren Lebensdauer des Protons von mehr als 2,1·1029 Jahren. Stand der Forschung. Das oben ausgeführte Modell für die Baryonzusammensetzung ist nach dem aktuellen Stand der Forschung unvollständig. Man vermutet heute, dass Masse, Spin und andere Eigenschaften der Baryonen sich "nicht" direkt aus den Eigenschaften der beteiligten Quarks ablesen lassen; so macht z. B. der Spin der drei Quarks im Proton nur etwa ein Viertel seines Gesamtspins aus („Spinrätsel“, „Spinkrise“). Seit den 1970er Jahren existiert mit der Quantenchromodynamik (QCD) eine Quantenfeldtheorie für die starke Wechselwirkung, also die Wechselwirkung zwischen den Quarks. Diese Theorie ist allerdings schwierig zu handhaben und insbesondere in niedrigen Energiebereichen nicht störungstheoretisch behandelbar. Stattdessen finden hier möglichst feinmaschige diskrete Gitter Verwendung (Gittereichtheorie). Ein Beispiel ist die Berechnung der Baryonenmassen im Verhältnis zueinander. Die größte ungelöste Frage ist immer noch, wie sich aus den Grundlagen der QCD der bisher nur postulierbare Farbeinschluss (engl.: "Confinement") herleiten lässt. Dies ist die oben beschriebene Tatsache, dass in der Natur beobachtbare Teilchen stets „weiß“ sind, was insbesondere die Unbeobachtbarkeit freier Quarks zur Folge hat. Zur theoretischen Behandlung ist man daher auf effektive Theorien oder Quark-Modelle angewiesen. Eine häufig beobachtete Eigenart solcher Quark-Modelle ist die Vorhersage von weit mehr Baryonzuständen als den bisher beobachteten. Die Suche nach solchen fehlenden Resonanzen (engl.: "missing resonances") ist eines der Hauptbetätigungsfelder der experimentellen Forschung an Baryonen. Daneben findet Forschung an den elektroschwachen Eigenschaften (z. B. Formfaktoren) und den Zerfällen von Baryonen statt. Baryonische Materie in der Kosmologie. Als Baryonische Materie bezeichnet man in der Kosmologie und der Astrophysik die aus Atomen aufgebaute Materie, um diese von dunkler Materie, dunkler Energie und elektromagnetischer Strahlung zu unterscheiden. Im sichtbaren Universum gibt es mehr Baryonen als Antibaryonen, diese Asymmetrie nennt man Baryonenasymmetrie. Buddhismus. Der Buddhismus ist eine Lehrtradition und Religion, die ihren Ursprung in Indien findet. Sie hat weltweit je nach Quelle zwischen 230 und 500 Millionen Anhänger – und ist damit die viertgrößte Religion der Erde (nach Christentum, Islam und Hinduismus). Der Buddhismus ist hauptsächlich in Süd-, Südost- und Ostasien verbreitet. Etwa die Hälfte aller Buddhisten lebt in China. Die Buddhisten berufen sich auf die Lehren des Siddhartha Gautama, der in Nordindien lebte, nach den heute in der Forschung vorherrschenden Datierungsansätzen im 6. und möglicherweise noch im frühen 5. Jahrhundert v. Chr. Er wird als der „historische Buddha“ bezeichnet, um ihn von den mythischen Buddha-Gestalten zu unterscheiden, die nicht historisch bezeugt sind. „Buddha“ (wörtlich „Erwachter“) ist ein Ehrentitel, der sich auf ein Erlebnis bezieht, das als Bodhi („Erwachen“) bezeichnet wird. Gemeint ist damit nach der buddhistischen Lehre eine fundamentale und befreiende Einsicht in die Grundtatsachen allen Lebens, aus der sich die Überwindung des leidhaften Daseins ergibt. Diese Erkenntnis nach dem Vorbild des historischen Buddha durch Befolgung seiner Lehren zu erlangen, ist das Ziel der buddhistischen Praxis. Dabei wird von den beiden Extremen Askese und Hedonismus, aber auch generell von Radikalismus abgeraten, vielmehr soll ein Mittlerer Weg eingeschlagen werden. Entwicklung. a> auch für den Buddha selbst steht Der Buddhismus entstand auf dem indischen Subkontinent durch Siddhartha Gautama. Der Überlieferung zufolge erlangte er im Alter von 35 Jahren durch das Erlebnis des „Erwachens“ eine Aufeinanderfolge von Erkenntnissen, die es ihm ermöglichten, die buddhistische Lehre zu formulieren. Bald danach begann er mit der Verbreitung der Lehre, gewann die ersten Schüler und gründete die buddhistische Gemeinde. Bis zu seinem Tod im Alter von 80 Jahren, mit dem bei ihm nach buddhistischer Vorstellung das endgültige Nirwana ("Parinirvana", „Verlöschen“) eintrat, wanderte er lehrend durch Nordindien. Von der nordindischen Heimat Siddhartha Gautamas verbreitete sich der Buddhismus zunächst auf dem indischen Subkontinent, auf Sri Lanka und in Zentralasien. Insgesamt sechs buddhistische Konzile trugen zur „Kanonisierung“ der Lehren und, gemeinsam mit der weiteren Verbreitung in Ost- und Südostasien, zur Entwicklung verschiedener Traditionen bei. Der nördliche Buddhismus (Mahayana) erreichte über die Seidenstraße Zentral- und Ostasien, wo sich weitere Traditionen wie etwa Chan (China), Zen (Japan) und Amitabha-Buddhismus (Ostasien) entwickelten. In die Himalaya-Region gelangte der Buddhismus auch direkt aus Nordindien; dort entstand der Vajrayana (Tibet, Bhutan, Nepal, Mongolei u. a.). Aspekte des Buddhismus drangen auch in andere religiöse Traditionen ein oder gaben Impulse zu deren Institutionalisierung (vgl. Bön und Shintō bzw. Shinbutsu-Shūgō). Von Südindien und Sri Lanka gelangte der südliche Buddhismus (Theravada) in die Länder Südostasiens, wo er den Mahayana verdrängte. Der Buddhismus trat in vielfältiger Weise mit den Religionen und Philosophien der Länder, in denen er Verbreitung fand, in Wechselwirkung. Dabei wurde er auch mit religiösen und philosophischen Traditionen kombiniert, deren Lehren sich von denen des ursprünglichen Buddhismus stark unterscheiden. Lehre. Grundlage der buddhistischen Praxis und Theorie sind die Vier Edlen Wahrheiten: Die Erste Edle Wahrheit, dass das Leben in der Regel vom Leid (dukkha) über Geburt, Alter, Krankheit und Tod geprägt ist; die Zweite Edle Wahrheit, dass dieses Leid durch die Drei Geistesgifte Gier, Hass und Verblendung verursacht wird; die Dritte Edle Wahrheit, dass zukünftiges Leid durch die Vermeidung dieser Ursachen nicht entstehen kann bzw. aus dieser Vermeidung Glück entsteht und die Vierte Edle Wahrheit, dass die Mittel zur Vermeidung von Leid, und damit zur Entstehung von Glück, in der Praxis der Übungen des Edlen Achtfachen Pfades zu finden sind. Diese bestehen in: Rechter Erkenntnis, rechter Absicht, rechter Rede, rechtem Handeln, rechtem Lebenserwerb, rechter Übung, rechter Achtsamkeit und rechter Meditation, wobei mit "recht" die Übereinstimmung der Praxis mit den Vier Edlen Wahrheiten, also der Leidvermeidung gemeint ist. Nach der buddhistischen Lehre sind alle unerleuchteten Wesen einem endlosen leidvollen Kreislauf (Samsara) von Geburt und Wiedergeburt unterworfen. Ziel der buddhistischen Praxis ist, aus diesem Kreislauf des ansonsten immerwährenden Leidenszustandes herauszutreten. Dieses Ziel soll durch die Vermeidung von Leid, also ethisches Verhalten, die Kultivierung der Tugenden (Fünf Silas), die Praxis der „Versenkung“ (Samadhi, vgl. Meditation) und die Entwicklung von Mitgefühl (hier klar unterschieden von Mitleid) für alle Wesen und allumfassender Weisheit (Prajna) als Ergebnisse der Praxis des Edlen Achtfachen Pfades erreicht werden. Auf diesem Weg werden Leid und Unvollkommenheit überwunden und durch Erleuchtung (Erwachen) der Zustand des Nirwana, der Leidlosigkeit bzw. der Zustand des Glücks realisiert. Indem jemand Zuflucht zum Buddha (dem Zustand), zum Dharma (Lehre und Weg zu diesem Zustand) und zur Sangha (der Gemeinschaft der Praktizierenden) nimmt, bezeugt er seinen Willen zur Anerkennung und Praxis der Vier Edlen Wahrheiten und seine Zugehörigkeit zur Gemeinschaft der Praktizierenden des Dharma. Die Sangha selbst unterteilt sich in die Praktizierenden der Laien-Gemeinschaft und die ordinierten der Mönchs- bzw. Nonnenorden. Siddhartha Gautama. Die Lebensdaten Siddhartha Gautamas gelten traditionell als Ausgangspunkt für die Chronologie der südasiatischen Geschichte, sie sind jedoch umstritten. Die herkömmliche Datierung (563–483 v. Chr.) wird heute kaum noch vertreten. Die neuere Forschung geht davon aus, dass Siddhartha nicht 563 v. Chr. geboren wurde, sondern mehrere Jahrzehnte, vielleicht ein Jahrhundert später. Die gegenwärtig vorherrschenden Ansätze für die Datierung des Todes schwanken zwischen ca. 420 und ca. 368 v. Chr. Nach der Überlieferung wurde Siddhartha in Lumbini im nordindischen Fürstentum Kapilavastu, heute ein Teil Nepals, als Sohn des Herrscherhauses von Shakya geboren. Daher trägt er den Beinamen "Shakyamuni", „Weiser aus dem Hause Shakya“. Im Alter von 29 Jahren wurde ihm bewusst, dass Reichtum und Luxus nicht die Grundlage für Glück sind. Er erkannte, dass Leid wie Altern, Krankheit, Tod und Schmerz untrennbar mit dem Leben verbunden ist, und brach auf, um verschiedene Religionslehren und Philosophien zu erkunden, um die wahre Natur menschlichen Glücks zu finden. Sechs Jahre der Askese, des Studiums und danach der Meditation führten ihn schließlich auf den Weg der Mitte. Unter einer Pappel-Feige in Bodhgaya im heutigen Nordindien hatte er das Erlebnis des Erwachens (Bodhi). Wenig später hielt er in Isipatana, dem heutigen Sarnath, seine erste Lehrrede und setzte damit das „Rad der Lehre“ (Dharmachakra) in Bewegung. Danach verbrachte er als ein Buddha den Rest seines Lebens mit der Unterweisung und Weitergabe der buddhistischen Lehre, des Dharma, an die von ihm begründete Gemeinschaft. Diese Vierfache Gemeinschaft bestand aus den Mönchen (Bhikkhu) und Nonnen (Bhikkhuni) des buddhistischen Mönchtums sowie aus männlichen Laien (Upāsaka) und weiblichen Laien (Upasika). Mit seinem (angeblichen) Todesjahr im Alter von 80 Jahren beginnt die buddhistische Zeitrechnung. Geschichte und Verbreitung des Buddhismus. a>, Indien (3. Jh. v. Chr.) Buddha-Statue bei Avukana in Sri Lanka a> wurde 1885 erstmals verwendet und ist seit 1950 internationales Symbol des Buddhismus. Die ersten drei Konzile. Drei Monate nach dem Tod des Buddha traten seine Schüler in Rajagarha zum ersten Konzil ("sangiti") zusammen, um den Dhamma (die Lehre) und die Vinaya (die Mönchsregeln) zu besprechen und gemäß den Unterweisungen des Buddha festzuhalten. Die weitere Überlieferung erfolgte mündlich. Etwa 100 Jahre später fand in "Vesali" das zweite Konzil statt. Diskutiert wurden nun vor allem die Regeln der Mönchsgemeinschaft, da es bis dahin bereits zur Bildung verschiedener Gruppierungen mit unterschiedlichen Auslegungen der ursprünglichen Regeln gekommen war. Während des zweiten Konzils und den folgenden Zusammenkünften kam es zur Bildung von bis zu 18 verschiedenen Schulen (Nikaya-Schulen), die sich auf unterschiedliche Weise auf die ursprünglichen Lehren des Buddha beriefen. Daneben entstand auch die Mahasanghika, die für Anpassungen der Regeln an die veränderten Umstände eintrat und als früher Vorläufer des Mahayana betrachtet werden kann. Die ersten beiden Konzile sind von allen buddhistischen Schulen anerkannt. Die anderen Konzilien werden nur von einem Teil der Schulen akzeptiert. Die Historizität der Konzile wird vom Sinologen Helwig Schmidt-Glintzer allerdings als unwahrscheinlich eingestuft. Im 3. Jahrhundert v. Chr. trat in Pataliputra (heute Patna), unter der Schirmherrschaft des Königs Ashoka und dem Vorsitz des Mönchs "Moggaliputta Tissa", das 3. Konzil zusammen. Ziel der Versammlung war es, sich wieder auf eine einheitliche buddhistische Lehre zu einigen. Insbesondere Häretiker sollten aus der Gemeinschaft ausgeschlossen und falsche Lehren widerlegt werden. Im Verlauf des Konzils wurde zu diesem Zweck das Buch "Kathavatthu" verfasst, das die philosophischen und scholastischen Abhandlungen zusammenfasste. Dieser Text wurde zum Kernstück des Abhidhammapitaka, einer philosophischen Textsammlung. Zusammen mit dem Suttapitaka, den niedergeschriebenen Lehrreden des Buddha, und dem Vinayapitaka, der Sammlung der Ordensregeln, bildet es das in Pali verfasste Tipitaka (Sanskrit: Tripitaka, deutsch: „Dreikorb“, auch Pali-Kanon), die älteste große Zusammenfassung buddhistischen Schriftgutes. Nur diese Schriften wurden vom Konzil als authentische Grundlagen der buddhistischen Lehre anerkannt, was die Spaltung der Mönchsgemeinschaft besiegelte. Während der Theravada, die "Lehre der Älteren," sich auf die unveränderte Übernahme der ursprünglichen Lehren und Regeln einigte, legte die Mahasanghika keinen festgelegten Kanon von Schriften fest und nahm auch Schriften auf, deren Herkunft vom Buddha nicht eindeutig nachgewiesen werden konnte. Ausbreitung in Südasien und Ostasien. In den folgenden Jahrhunderten verbreitete sich die Lehre in Süd- und Ostasien. Während der Regierungszeit des Königs Ashoka (3. Jahrhundert v. Chr.) verbreitete sich der Buddhismus über ganz Indien und weit darüber hinaus. Auch Teile von Afghanistan gehörten zu seinem Reich. Im Grenzgebiet zu Pakistan entstand dort, beeinflusst von griechischen Bildhauern, die mit Alexander dem Großen ins Land gekommen waren, in Gandhara die graeco-buddhistische Kultur, eine Mischung von indischen und hellenistischen Einflüssen. In deren Tradition entstanden unter anderem die Buddha-Statuen von Bamiyan. Ashoka schickte Gesandte in viele Reiche jener Zeit. So verbreitete sich die Lehre allmählich über die Grenzen jener Region, in welcher der Buddha gelebt und gelehrt hatte, hinaus. Im Westen reisten Ashokas Gesandte bis in den Nahen Osten, Ägypten, zu den griechischen Inseln und nach Makedonien. Über Sri Lanka gelangte die Buddha-Lehre in den folgenden Jahrhunderten zum malayischen Archipel (Indonesien, Borobudur) und nach Südostasien, also Kambodscha (Funan, Angkor), Thailand, Myanmar (Pegu) und Laos. Im Norden und Nordosten wurde der Buddhismus im Hochland des Himalaya (Tibet) sowie in China, Korea und in Japan bekannt. Zurückdrängung in Indien. Während der Buddhismus so weitere Verbreitung fand, wurde er in Indien ab dem 10. Jahrhundert allmählich zurückgedrängt. Zum einen wandten sich viele Menschen dem Hinduismus zu, und zum anderen war es relativ leicht, die Dharma-Anhänger durch Tötung der Mönche entscheidend zu schwächen und dann zwangsweise zu islamisieren. Deshalb gehörten die letzten Hochburgen des Buddhismus auf dem indischen Subkontinent (Sindh, Bengalen) auch schnell zu den islamisierten Gebieten. Auch auf dem malayischen Archipel (Malaysia, Indonesien) sind heute (mit Ausnahme Balis) nur noch Ruinen zu sehen, die zeigen, dass hier einstmals buddhistische Kulturen geblüht hatten. Weiterentwicklung. Eine vielfältige Weiterentwicklung der Lehre war durch die Worte des Buddha vorbestimmt: Als Lehre, die ausdrücklich in Zweifel gezogen werden darf, hat der Buddhismus sich natürlicherweise mit anderen Religionen vermischt, die auch Vorstellungen von Gottheiten kennen oder die die Gebote der Enthaltsamkeit weniger streng oder gar nicht handhabten. Der Theravada („die Lehre der Ältesten“) hält sich an die Lehre des Buddha, wie sie auf dem Konzil von Patna festgelegt wurde. Er ist vor allem in den Ländern Süd- und Südostasiens (Sri Lanka, Myanmar, Thailand, Laos und Kambodscha) weit verbreitet. Der Mahayana („das große Fahrzeug“) durchmischte sich mehr mit den ursprünglichen Religionen und Philosophien der Kulturen, in denen der Buddhismus einzog. So kamen z. B. in China Elemente des Daoismus hinzu, wodurch schließlich die Ausprägung des Chan-Buddhismus und später in Japan Zen entstand. Insbesondere der Kolonialismus des 19. Jahrhunderts hat paradoxerweise in vielen Ländern Asiens zu einer Renaissance des Buddhismus geführt. Die Schaffung einer internationalen buddhistischen Flagge 1885 ist dafür ein symbolischer Ausdruck. Besonders den Initiativen von Thailand und Sri Lanka ist die 1950 erfolgte Gründung der World Fellowship of Buddhists (WFB) zu verdanken. Heutige Verbreitung in Asien. Heute leben weltweit näherungsweise 450 Millionen Buddhisten. Diese Zahl ist jedoch nicht verbindlich, da es starke Schwankungen zwischen einzelnen Statistiken gibt. Die Länder mit der stärksten Verbreitung des Buddhismus sind China, Bhutan, Japan, Kambodscha, Laos, Mongolei, Myanmar, Sri Lanka, Südkorea, Taiwan, Thailand, Tibet und Vietnam. In Indien beträgt der Anteil an der Bevölkerung heute weniger als ein Prozent. Neuerdings erwacht jedoch wieder ein intellektuelles Interesse an der buddhistischen Lehre in der gebildeten Schicht. Auch unter den Dalit („Unberührbaren“) gibt es, initiiert durch Bhimrao Ramji Ambedkar, den „Vater der indischen Verfassung“, seit 1956 eine Bewegung, die in der Konversion zum Buddhismus einen Weg sieht, der Unterdrückung durch das Kastensystem zu entkommen. Situation in anderen Erdteilen. Seit dem 19. und insbesondere seit dem 20. Jahrhundert wächst auch in den industrialisierten Staaten Europas, den USA und Australien die Tendenz, sich dem Buddhismus zuzuwenden. Im Unterschied zu den asiatischen Ländern gibt es im Westen die Situation, dass die zahlreichen und oft sehr unterschiedlichen Ausprägungen der verschiedenen Lehrrichtungen nebeneinander in Erscheinung treten. Organisationen wie die 1975 gegründete EBU (Europäische Buddhistische Union) haben sich zum Ziel gesetzt, diese Gruppen miteinander zu vernetzen und sie in einen Diskurs mit einzubeziehen, der einen längerfristigen Prozess zur Inkulturation und somit Herausbildung eines europäischen Buddhismus begünstigen soll. Ein weiteres Ziel ist die Integration in die europäische Gesellschaft, damit die buddhistischen Vereinigungen ihr spirituelles, humanitäres, kulturelles und soziales Engagement ohne Hindernisse ausüben können. In vielen Ländern Europas wurde der Buddhismus gegen Ende des 20. Jahrhunderts öffentlich und staatlich als Religion anerkannt. In Europa erhielt der Buddhismus zuerst in Österreich die volle staatliche Anerkennung (1983). In Deutschland und der Schweiz ist der Buddhismus staatlich nicht als Religion anerkannt. Grundlagen des Buddhismus. Der lehrende Buddha Shakyamuni (China, 12. Jahrhundert) In seiner ursprünglichen Form, die aus der vorliegenden ältesten Überlieferung nur eingeschränkt rekonstruierbar ist, und durch seine vielfältige Fortentwicklung ähnelt der Buddhismus teils einer in der Praxis angewandten Denktradition oder Philosophie. Der Buddha selbst sah sich weder als Gott noch als Überbringer der Lehre eines Gottes. Er stellte klar, dass er die Lehre, Dhamma (Pali) bzw. Dharma (Sanskrit), nicht aufgrund göttlicher Offenbarung erhalten, sondern vielmehr durch eigene meditative Schau (Kontemplation) ein Verständnis der Natur des eigenen Geistes und der Natur aller Dinge gewonnen habe. Diese Erkenntnis sei jedem zugänglich, der seiner Lehre und Methodik folge. Dabei sei die von ihm aufgezeigte Lehre nicht dogmatisch zu befolgen. Im Gegenteil warnte er vor blinder Autoritätsgläubigkeit und hob die Selbstverantwortung des Menschen hervor. Er verwies auch auf die Vergeblichkeit von Bemühungen, die Welt mit Hilfe von Begriffen und Sprache zu erfassen, und mahnte gegenüber dem geschriebenen Wort oder feststehenden Lehren eine Skepsis an, die in anderen Religionen in dieser Radikalität kaum anzutreffen ist. Von den monotheistischen Religionen (Judentum, Christentum, Islam) unterscheidet der Buddhismus sich grundlegend. So kennt die buddhistische Lehre weder einen allmächtigen Gott noch eine ewige Seele. Das, und auch die Nichtbeachtung des Kastensystems, unterscheidet ihn auch von Hinduismus und Brahmanismus, mit denen er andererseits die Karma-Lehre teilt. In deren Umfeld entstanden, wird er mitunter als eine Reformbewegung zu den vedischen Glaubenssystemen Indiens betrachtet. Mit dieser antiritualistischen und antitheistischen Haltung ist die ursprüngliche Lehre des Siddhartha Gautama sehr wahrscheinlich die älteste hermeneutische Religion der Welt. Die Lehre: Dharma. a>. Richtig übersetzt, hiesse es "Nicht-Hass" anstelle von "Liebe". Die Vier Edlen Wahrheiten und der Achtfache Pfad. Kern der Lehre des Buddha sind die von ihm benannten "Vier Edlen Wahrheiten", aus der vierten der Wahrheiten folgt als Weg aus dem Leiden der "Achtfache Pfad". Im Zentrum der „Vier edlen Wahrheiten“ steht das Leiden (dukkha), seine Ursachen und der Weg, es zum Verlöschen zu bringen. Der Achtfache Pfad ist dreigeteilt, die Hauptgruppen sind: Die Einsicht in die Lehre, ihre ethischen Grundlagen und die Schwerpunkte des geistigen Trainings (Meditation/Achtsamkeit). Das bedingte Entstehen. Die „bedingte Entstehung“, auch „Entstehen in Abhängigkeit“ bzw. „Konditionalnexus“ (Pali: Paticcasamuppada, Sanskrit: Pratityasamutpada), ist eines der zentralen Konzepte des Buddhismus. Es beschreibt in einer Kette von 12 miteinander verwobenen Elementen die Seinsweise aller Phänomene in ihrer dynamischen Entwicklung und gegenseitigen Bedingtheit. Die Essenz dieser Lehre kann zusammengefasst werden in dem Satz: „Dieses ist, weil jenes ist“. Ursache und Wirkung: Karma. "Kamma" (Pali) bzw. "Karma" (Sanskrit) bedeutet „Tat, Wirken“ und bezeichnet das sinnliche Begehren und das Anhaften an die Erscheinungen der Welt (Gier, Hass, Ich-Sucht), die Taten, die dadurch entstehen, und die Wirkungen von Handlungen und Gedanken in moralischer Hinsicht, insbesondere die Rückwirkungen auf den Akteur selbst. Es entspricht in etwa dem Prinzip von Ursache und Wirkung. Karma bezieht sich auf alles Tun und Handeln sowie allen Ebenen des Denkens und Fühlens. All das erzeugt entweder gutes oder schlechtes Karma oder kann karmisch gesehen neutral sein. Gutes wie schlechtes Karma erzeugt die Folge der Wiedergeburten, das Samsara. Höchstes Ziel des Buddhismus ist es, diesem Kreislauf zu entkommen, indem kein Karma mehr erzeugt wird – Handlungen hinterlassen dann keine Spuren mehr in der Welt. Im Buddhismus wird dies als Eingang ins Nirwana bezeichnet. Da dieses Ziel in der Geschichte des Buddhismus oft als unerreichbar in einem Leben galt, ging es, besonders bei den Laien, mehr um das Anhäufen guten Karmas als um das Erreichen des Nirwana in diesem Leben. Gekoppelt daran ist der Glaube, dass das erworbene Verdienst (durch gute Taten, zeitweiligen Beitritt in den Sangha, Spenden an Mönche, Kopieren von Sutras und vieles mehr) auch rituell an andere weitergegeben werden könne, selbst an Verstorbene oder ganze Nationen. Der Kreislauf des Lebens: Samsara. Der den wichtigen indischen Religionen gemeinsame Begriff "Samsara", „beständiges Wandern“, bezeichnet den fortlaufenden Kreislauf des Lebens aus Tod und Geburt, Werden und Vergehen. Das Ziel der buddhistischen Praxis ist, diesen Kreislauf zu verlassen. Samsara umfasst alle Ebenen der Existenz, sowohl jene, die wir als Menschen kennen, wie auch alle anderen, von den Höllenwesen (Niraya Wesen) bis zu den Göttern (Devas). Alle Wesen sind im Kreislauf des Lebens gefangen, daran gebunden durch Karma: ihre Taten, Gedanken und Emotionen, durch Wünsche und Begierden. Erst das Erkennen und Überwinden dieser karmischen Kräfte ermöglicht ein Verlassen des Kreislaufs. Im Mahayana entstand darüber hinaus die Theorie der Identität von Samsara und Nirwana (in westlich-philosophischen Begriffen also Immanenz statt Transzendenz). Nicht-Selbst und Wiedergeburt. Die Astika-Schulen der indischen Philosophie lehrten das „Selbst“ (p. "attā", skt. "ātman"), vergleichbar mit dem Begriff einer persönlichen Seele. Der Buddha verneinte die Existenz von ātta als persönliche und beständige Einheit. Im Gegensatz dazu sprach er von dem „Nicht-Selbst“ (p. "anattā", skt. "anātman"). Die Vorstellung von einem beständigen Selbst ist Teil der Täuschung über die Beschaffenheit der Welt. Gemäß der Lehre des Buddhas besteht die Persönlichkeit mit all ihren Erfahrungen und Wahrnehmungen in der Welt aus den Fünf Gruppen, (p. "khandhā", skt. "skandhas"): Körper, Empfindungen, Wahrnehmungen, Geistesregungen und Bewusstsein. Das Selbst ist aus buddhistischer Sicht keine konstante Einheit, sondern ein von beständigem Werden, Wandeln und Vergehen gekennzeichneter Vorgang. Vor diesem Hintergrund hat das zur Zeit des Buddha bereits existierende Konzept der "Wiedergeburt", "punabbhava", (p.; "puna" ‚wieder‘, "bhava" ‚werden‘) im Buddhismus eine Neudeutung erfahren, denn die traditionelle vedische Reinkarnationslehre basierte auf der Vorstellung einer Seelenwanderung. Wiedergeburt bedeutet im Buddhismus aber nicht individuelle Fortdauer eines dauerhaften Wesenskernes, auch nicht Weiterwandern eines Bewusstseins nach dem Tode. Vielmehr sind es unpersönliche karmische Impulse, die von einer Existenz ausstrahlend eine spätere Existenzform mitprägen. Das Erwachen (Bodhi). "Bodhi" ist der Vorgang des „Erwachens“, oft ungenau mit dem unbuddhistischen Begriff „Erleuchtung“ wiedergegeben. Voraussetzungen sind das vollständige Begreifen der „Vier edlen Wahrheiten“, die Überwindung aller an das Dasein bindenden Bedürfnisse und Täuschungen und somit das Vergehen aller karmischen Kräfte. Durch Bodhi wird der Kreislauf des Lebens und des Leidens (Samsara) verlassen und Nirwana erlangt. Verlöschen: Nirwana. "Nirwana" (Sanskrit) bzw. Nibbana (Pali) bezeichnet die höchste Verwirklichungsstufe des Bewusstseins, in der jede Ich-Anhaftung und alle Vorstellungen/Konzepte erloschen sind. Nirwana kann mit Worten nicht beschrieben, es kann nur erlebt und erfahren werden als Folge intensiver meditativer Übung und anhaltender Achtsamkeitspraxis. Es ist weder ein Ort – also nicht vergleichbar mit Paradies-Vorstellungen anderer Religionen – noch eine Art Himmel und auch keine Seligkeit in einem Jenseits. Nirwana ist auch kein nihilistisches Konzept, kein „Nichts“, wie westliche Interpreten in den Anfängen der Buddhismusrezeption glaubten, sondern beschreibt die vom Bewusstsein erfahrbare Dimension des Letztendlichen. Der Buddha selbst lebte und unterrichtete noch 45 Jahre, nachdem er Nirwana erreicht hatte. Das endgültige Aufgehen oder „Verlöschen“ im Nirwana nach dem Tod wird als Parinirvana bezeichnet. Meditation und Achtsamkeit. Weder das rein intellektuelle Erfassen der Buddha-Lehre noch das Befolgen ihrer ethischen Richtlinien allein reicht für eine erfolgreiche Praxis aus. Im Zentrum des Buddha-Dharma stehen daher Meditation und Achtsamkeitspraxis. Von der Atembeobachtung über die Liebende-Güte-Meditation (metta), Mantra-Rezitationen, Gehmeditation, Visualisierungen bis hin zu thematisch ausgerichteten Kontemplationen haben die regionalen buddhistischen Schulen eine Vielzahl von Meditationsformen entwickelt. Ziele der Meditation sind vor allem die Sammlung und Beruhigung des Geistes (samatha), das Trainieren klar-bewusster Wahrnehmung, des „tiefen Sehens“ (vipassana), das Kultivieren von Mitgefühl mit allen Wesen, die Schulung der Achtsamkeit sowie die schrittweise Auflösung der leidvollen Ich-Verhaftung. Achtsamkeit (auch Bewusstheit, Vergegenwärtigung) ist die Übung, ganz im Hier und Jetzt zu verweilen, alles Gegenwärtige klarbewusst und nicht wertend wahrzunehmen. Diese Hinwendung zum momentanen Augenblick erfordert volle Wachheit, ganze Präsenz und eine nicht nachlassende Aufmerksamkeit für alle im Moment auftauchenden körperlichen und geistigen Phänomene. Buddhistische Schulen. Es gibt drei Hauptrichtungen des Buddhismus: Hinayana („Kleines Fahrzeug“), aus dessen Tradition heute nur noch die Form des Theravada („Lehre der Älteren“) existiert, Mahayana („Großes Fahrzeug“) und Vajrayana (im Westen meist als Tibetischer Buddhismus bekannt oder irreführender Weise als „Lamaismus“ bezeichnet). In allen drei Fahrzeugen sind die monastischen Orden Hauptträger der Lehre und für deren Weitergabe an die folgenden Generationen verantwortlich. Üblicherweise gilt auch der Vajrayana als Teil des großen Fahrzeugs. Der Begriff Hinayana wurde und wird von den Anhängern der ihm zugehörigen Schulen abgelehnt, da er dem Mahayana entstammt. Theravada. Die Betonung liegt im Theravada auf dem Befreiungsweg des einzelnen aus eigener Kraft nach dem Arhat-Ideal und der Aufrechterhaltung und Förderung des Sangha. Theravada ist vor allem in den Ländern Süd- und Südostasiens (Sri Lanka, Myanmar, Thailand, Laos und Kambodscha) verbreitet. Hinayana. Der "Hinayana-Buddhismus" (Sanskrit, n., हीनयान, hīnayāna, „kleines Fahrzeug“) bezeichnet einen der beiden großen Hauptströme des Buddhismus. Hinayana ist älter als die andere Hauptrichtung, der Mahayana. Im Hinayana strebt ein Mensch nach dem Erwachen, um selbst nicht mehr leiden zu müssen. Hinayana bezieht sich also nur auf eine Person, die danach strebt, vollkommen zu sein. In diesem Aspekt unterscheidet er sich vom Mahayana, in dem versucht wird, auch andere Lebewesen zum Erwachen zu führen. Mahayana. Der "Mahayana-Buddhismus" („großes Fahrzeug“) geht im Kern auf die Mahasanghika („große Gemeinde“) zurück, eine Tradition, die sich in der Folge des zweiten buddhistischen Konzils (etwa 100 Jahre nach dem Tod des Buddha) entwickelt hatte. Der Mahayana verwendet neben dem Tripitaka auch eine Reihe ursprünglich in Sanskrit abgefasster Schriften („Sutras“), die zusammen den Sanskrit-Kanon bilden. Zu den bedeutendsten Texten gehören das Diamant-Sutra, das Herz-Sutra, das Lotos-Sutra und die Sutras vom reinen Land. Ein Teil dieser Schriften ist heute nur noch in chinesischen oder tibetischen Übersetzungen erhalten. Im Unterschied zur Theravada-Tradition, in der das Erreichen von Bodhi durch eigenes Bemühen im Vordergrund steht, nimmt im Mahayana das Bodhisattva-Ideal eine zentrale Rolle ein. Bodhisattvas sind Wesen, die als Menschen bereits Bodhi erfuhren, jedoch auf das Eingehen in das Parinirvana verzichteten, um stattdessen allen anderen Menschen, letztlich allen Wesen, zu helfen, ebenfalls dieses Ziel zu erreichen. Bedeutende Schulen des Mahayana sind beispielsweise die des Zen-Buddhismus, des Nichiren-Buddhismus und des Amitabha-Buddhismus. Vajrayana. a>, die Verkörperung der Worte des Buddha "Vajrayana" („Diamantfahrzeug“) ist eigentlich ein Teil des Mahayana. Im Westen ist er meist fälschlicherweise nur als Tibetischer Buddhismus oder als Lamaismus bekannt, tatsächlich ist er jedoch eine Sammelbezeichnung für verschiedene Schulen, die außer in Tibet auch in Japan, China und der Mongolei (geschichtlich auch in Indien und Südostasien) verbreitet sind. Er beruht auf den philosophischen Grundlagen des Mahayana, ergänzt diese aber um tantrische Techniken, die den Pfad zum Erwachen deutlich beschleunigen sollen. Zu diesen Techniken gehören neben der Meditation unter anderem Visualisierung (geistige Projektion), das Rezitieren von Mantras und weitere tantrische Übungen, zu denen Rituale, Einweihungen und Guruyoga (Einswerden mit dem Geist des Lehrers) gehören. Diese Seite des Mahayana legt besonderen Wert auf geheime Rituale, Schriften und Praktiken, welche die Praktizierenden nur schrittweise erlernen. Daher wird Vajrayana innerhalb des Mahayana auch „esoterische Lehre“ genannt, in Abgrenzung von „exoterischen Lehren“, also öffentlich zugänglichen Praktiken wie dem Nenbutsu des Amitabha-Buddhismus. Der tibetische Buddhismus legt besonderen Wert auf direkte Übertragung von Unterweisungen von Lehrer zu Schüler. Eine wichtige Autorität des tibetischen Buddhismus ist der Dalai Lama. Der Tibetische Buddhismus ist heute in Tibet, Bhutan, Nepal, Indien, Ladakh, Sikkim, der Mongolei, Burjatien, Kalmückien sowie in Tuwa und in der Republik Altai, verbreitet. Etwa im 9. Jahrhundert verbreitete sich der Vajrayana auch in China. Als eigene Schule hielt er sich nicht, hatte aber Einfluss auf andere Lehrtraditionen dort. Erst in der Qing-Zeit wurde der Vajrayana der Mandschu unter Förderung der tibetischen Richtungen wieder eine staatliche Religion. Er wurde noch im gleichen Jahrhundert seiner Einführung in China nach Japan übertragen. Dort wird Vajrayana in der Shingon-Schule gelehrt. Mikkyō (jap. Übersetzung von Mizong) hatte aber Einfluss auf Tendai und alle späteren Hauptrichtungen des japanischen Buddhismus. Buddhistische Feste und Feiertage. Entzündung von Räucherstäbchen in einem Tempel in MalaysiaVesakh-Prozession in Indonesien Jahrestag der Geburt des Buddha in Südkorea Buddhistische Zeremonien, Feste und Feiertage werden auf unterschiedliche Art und Weise zelebriert. Einige werden in Form einer Puja gefeiert, was im Christentum etwa einer Andacht – ergänzt durch eine Verdienstübertragung – entsprechen würde. Andere Feste sind um eine zentrale Straßenprozessionen herum organisiert. Diese können dann auch Volksfest-Charakter mit allen dazugehörigen Elementen wie Verkaufsständen und Feuerwerk annehmen. Im Japan zum Beispiel werden sie dann Matsuris genannt. Die Termine für die Feste richteten sich ursprünglich hauptsächlich nach dem Lunisolarkalender. Heute sind dagegen einige auf ein festes Datum im Sonnenkalender festgelegt. Bonaventura Cavalieri. Bonaventura Francesco Cavalieri (* 1598 wahrscheinlich in Mailand; † 3. Dezember oder 30. November 1647 in Bologna; mit Gelehrtennamen "Cavalerius") war ein italienischer Jesuat, Mathematiker und Astronom. Leben. Bonaventura Cavalieri arbeitete auf dem Gebiet der Geometrie und lehrte an der Universität Bologna. Gleichzeitig war er Prior eines Jesuatenklosters. Seine Berechnungen von Oberflächen und Volumina nehmen Methoden der Infinitesimalrechnung vorweg. Bekannt wurde Cavalieri hauptsächlich durch das "Prinzip der Indivisibilien". Dieses Prinzip war in einer Vorform bereits 1604 und 1615 von Johannes Kepler verwendet worden. In der frühen Version von 1635 wird angenommen, dass eine Linie aus einer unendlichen Zahl von Punkten ohne Größe besteht, eine Oberfläche aus einer unendlichen Zahl von Linien ohne Breite und ein Körper aus einer unendlichen Zahl von Oberflächen ohne Höhe. Als Reaktion auf Einwände formulierte er das Prinzip neu und veröffentlichte es so 1647 mit einer Verteidigung der Theorie. 1653 wurden seine Werke mit späteren Korrekturen neu herausgegeben. Das Cavalierische Prinzip besagt, dass zwei Körper das gleiche Volumen haben, wenn alle ebenen Schnitte den gleichen Flächeninhalt besitzen, die parallel zu einer vorgegebenen Grundebene und in übereinstimmenden Abständen ausgeführt werden. Stefano degli Angeli (1623–1697) war sein Schüler. Er wünschte sich Michelangelo Ricci und Evangelista Torricelli als Herausgeber seiner nachgelassenen Schriften. Torricelli starb aber kurz vor ihm und Ricci fand keine Zeit. Sie wurden erst 1919 veröffentlicht. Bibel. Als Bibel (altgr. "biblia" „Bücher“; daher auch Buch der Bücher) bezeichnet man eine Schriftensammlung, die im Judentum und Christentum als Heilige Schrift mit normativem Anspruch für die ganze Religionsausübung gilt. Die Bibel des Judentums ist der dreiteilige Tanach, der aus der Tora (Weisung), den Nevi’im (Propheten) und Ketuvim (Schriften) besteht. Diese Schriften entstanden seit etwa 1200 v. Chr. im Kulturraum der Levante und Vorderen Orient und wurden bis 135 n. Chr. kanonisiert. Das Christentum hat alle Bücher des Tanach übernommen, anders angeordnet und als Altes Testament (AT) seinem Neuen Testament (NT) vorangestellt. Beide Teile wurden bis zum 3. Jahrhundert kanonisiert; spätere christliche Konfessionen haben diesen Kanon leicht abgewandelt. Die zweiteilige christliche Bibel ist das am häufigsten gedruckte und publizierte, in die meisten Sprachen übersetzte schriftliche Werk der Welt. Der Islam erkennt die jüdische und die christliche Bibel als gültiges, jedoch von Menschen teilweise verfälschtes Offenbarungszeugnis Allahs an. Bezeichnung. Der Ausdruck „Bibel“ stammt vom griechischen Neutrum "βιβλίον" („Papyrus-Rolle“), abgeleitet von "bíblos" oder "býblos" („Papyrusstaude“, „Papyrusbast“). Byblos hieß die phönizische Hafenstadt, die in der Antike ein Hauptumschlagplatz für Bast war, aus dem die Papyrusrollen hergestellt wurden. Der Plural "biblia" („Schriftrollen, Bücher“) wurde im Kirchenlatein irrtümlich als Singular eines lateinischen Femininums aufgefasst. „Biblia“ wurde im Christentum Synonym des ebenfalls weiblichen Ausdrucks „Heilige Schrift“ (, "hagia graphae"), der hier AT und NT bezeichnet. Die nationalen Sprachen übernahmen das Wort; im Deutschen wurde es zu "Bibel". Deutschsprachige Wörterbücher definieren das Wort daher als „Gesamtheit der Bücher des Alten und Neuen Testaments“. Handschriften. Ausschnitt der Jesajarolle, eine der ältesten und besterhaltenen Bibelhandschriften, ca. 180 v. Chr. Antike Handschriften bestanden aus aufgerolltem Papyrus oder Leder, das mit ruß- und harzhaltiger Olivenöltinte beschrieben wurde. Eine solche Rolle konnte nur begrenzte Inhalte aufnehmen. Die ältesten bekannten Handschriften mit Fragmenten zu allen Büchern des Tanach fand man unter den Schriftrollen vom Toten Meer (etwa 200 v. Chr. bis 100 n. Chr.), darunter auch die älteste fast vollständige Einzelrolle, eine 7,34 Meter lange Niederschrift des Buchs Jesaja (um 180 v. Chr.). Die meisten dieser Handschriften sind in Hebräisch verfasst worden, Teile davon in Aramäisch, manche in Griechisch. Im 1. Jahrhundert n. Chr. entstand mit dem Kodex eine Handschriftenform, die auch längere Texte und Zusammenstellungen mehrerer Schriften aufnehmen konnte. Kodices konnten ebenfalls aus Papyrus oder Pergament gefertigt sein. Mit der endgültigen Kanonisierung des Tanach um 135 ergab sich die Notwendigkeit einer einheitlichen Fassung und Vokalisierung der hebräischen Konsonantenschrift. Damit begann die tausendjährige Arbeit der Masoreten. Auf ihrer Textvereinheitlichung beruhen die ersten vollständigen hebräischen Bibelhandschriften des Mittelalters, allen voran der Codex Leningradensis von 1008. Diese Version des Tanach galt seit der Renaissance als gemeinsame Urform all seiner späteren Übersetzungen. Die ältesten vollständigen masoretischen Handschriften des Tanach bilden auch die Grundlage der heutigen wissenschaftlich anerkannten hebräischen Bibelausgaben. Der Fund ausrangierter Bibelfragmente in der Geniza von Kairo um 1850, vor allem aber der Schriftrollen vom Toten Meer (1947–1956 und 1961) widerlegte die Annahme eines einheitlichen hebräischen „Urtextes“: Vor und nach seiner Kanonisierung existierten mehrere voneinander abweichende Textvarianten parallel zueinander, neben der Septuaginta vor allem der Samaritanische Pentateuch (4. Jahrhundert v. Chr.). Hinter allen bekannten Textfassungen der Bibel und den meisten ihrer Einzelschriften standen mehrere Autoren und Redaktoren. Die gemeinsame Version der Masoreten stand erst am Ende, nicht am Anfang dieses Traditionsprozesses. Gleichwohl bestätigten die neuen Schriftfunde die große Übereinstimmung der masoretischen Versionen mit den 1000 Jahre älteren hebräischen Bibeltexten. Kanonisierung. „Kanon“ bedeutet „Richtschnur“ oder „Richtmaß“ und meint hier die festgelegte Liste jener Bücher, die in einer bestimmten religiösen Gemeinschaft als normatives Wort Gottes gelten. Mit einer gewissen Eigendynamik tendierte die Sammlung von Schriften mit autoritativem theologischen Anspruch zu einem verbindlichen Abschluss ihres Umfangs und ihrer Inhalte. Diesen Prozess nennt man „Kanonisierung“. Die Anfänge der Kanonisierung lagen in der vorexilischen Königszeit der Reiche Israel und Juda: So berichtet 1. Kön 22 von der Auffindung eines „Gesetzbuchs“ im Jerusalemer Tempel, das den judäischen König Josia 621 v. Chr. zu einer jahwistischen Kultreform und Abschaffung des Synkretismus veranlasst haben soll. Gemeint war das 5. Buch Mose (lat. „Deuteronomium“), das seinerseits in vieler Hinsicht die Gebotsoffenbarung am Sinai (2.–3. Buch Mose) aktualisierend wiederholt. Spätestens seit dem Wiederaufbau des Tempels 539 v. Chr. war die Tora als erster und wichtigster Teil der hebräischen Bibel kanonisch. Nach der Meinung des Schriftstellers Flavius Josephus umfasste dieser Kanon nur 22 Bücher nach der Anzahl der Buchstaben des hebräischen Alphabets und laut des griechischen 4. Esrabuchs der Septuaginta 24 Bücher, nach der doppelten Zahl der Zwölf Stämme Israels. Dabei wurden vermutlich dieselben Schriften verschieden unterteilt. Für die Samaritaner bildete ihre eigene Tora bei ihrer Abspaltung im 4. Jahrhundert v. Chr. vom Judentum das einzige, maßgebende Gotteswort. Jüdische Bibel (Tanach). Der "Tanach" oder "Tenach" (; die jüdische Bibel), ein Akronym aus den drei Anfangsbuchstaben seiner Teile, wurde überwiegend auf Hebräisch, kurze Passagen auch auf Aramäisch verfasst. Sein Kanon aus 24 Büchern wird im Midrasch Kohelet Rabbah (hebr. קהלת רבה) erwähnt. Seine Kanonisierung wurde nach der Zerstörung des zweiten Jerusalemer Tempels im Jahr 70 n. d. Z. und der Niederlage im letzten jüdischen Krieg gegen die Römer 135 n. d. Z. abgeschlossen. Tora. Die „Weisung“ oder „Lehre“ ("Tora") bildet den ersten Teil des Tanach. Aus der hebräischen Torarolle, ohne Teamim oder Nikud, wird abschnittweise in der Synagoge vorgelesen. Der Vorlesungszyklus beginnt und endet im Herbst mit dem Torafreudenfest. Die 54 Wochenabschnitte werden Paraschot bzw. Paraschijot "פרשיות" (hebr. "Einteilung„) oder Sidrot "סדרות" (aramäisch „Ordnung“) genannt. Der masoretische Text der Tora ist Teil der jüdischen Tradition, auch Mündliche Tora genannt, und wurde in die fünf Bücher Moses aufgeteilt. Diese Einteilung erfolgte nach bestimmten inhaltlichen Gesichtspunkten: Jeder Bericht in den Büchern hat einen klaren Anfang und eine deutliche Zäsur am Ende, ist aber trotzdem mit den anderen verbunden. Die Büchern Moses werden in Buchform auch "Chumasch" oder, im christlichen Bezug, "Pentateuch" (griechisch „fünf Buchrollen“) genannt. Die Tora umfasst die Geschichte der Schöpfung und der Israeliten seit den Erzvätern (ab Gen 12), Israels Auszug aus Ägypten (Ex 1-15), dem Empfang der Gebote durch Mose (Ex 19 ff.) und dem Zug ins verheißene Land (Lev-Num). Der Begriff „Tora“ bedeutet „Lehre, Weisung“ und bezieht sich nicht nur auf die Mitzwot (Gebote Gottes), den ethischen Monotheismus und die jüdische Kultur, sondern auf die gesamte Ordnung der Schöpfung. Sie nimmt Bezug auf älteste erzählerische Stoffe und Traditionen, die vermutlich im Verlauf von Wanderungsbewegungen semitischer Völker im Allgemeinen und der Hebräer im Besonderen vom Zweistromland über Kanaan nach und aus Ägypten entstanden. Die Hebräer wurden spätestens 1200 v. d. Z. im Kulturland Kanaan sesshaft. Diese Stoffe und Traditionen wurden über Jahrhunderte zunächst mündlich tradiert. Ihre Verschriftung und Zusammenstellung ist für frühestens um 1000 v. d. Z. herum belegbar, nachdem die Zwölf Stämme Israels ein Staatswesen mit Saul als erstem König Israels wählten. Die Tora wurde nach der Rückkehr aus dem Babylonischen Exil (539 v. d. Z.) bis spätestens 400 v. d. Z. kanonisiert. Neviim. a>, 10. Jh. n. d. Z. Diese Bücher erzählen in chronologischer und religiöser Ordnung die Geschichte Israels vom Tod Moses, der Landverteilung an die zwölf Stämme Israels bis zur Zerstörung des ersten Jerusalemer Tempels (586 v. d. Z.). Die Neviim beginnen mit der Unterordnung Josuas, der Sohn Nuns, unter die Autorität Moses und schließt mit Maleachi als letztem Propheten mit der Rückbindung an die Tora. Die drei Propheten Jesaja, Jeremia, Ezechiel, sind nach Analogie der drei Erzväter jeweils einem Buch zugeteilt; die übrigen Propheten bilden als Analogie zu den zwölf Söhnen Jakobs das Zwölfprophetenbuch. Die Prophetenbücher wurden frühestens im 4. Jahrhundert v. d. Z. kanonisiert. Am Schabbat und an den Feiertagen wird nach der Toravorlesung in der Synagoge jeweils in der Haftara ein Abschnitt aus den Newiim vorgelesen. Ketuwim. In diesen Werken ist eher wörtliche Rede von Menschen als von Gott überliefert. Sie sind vermutlich alle nach dem Exil und später als die vorherigen Propheten entstanden, überwiegend anzunehmen ab 200 v. d. Z. Einige könnten vor oder parallel zu den zwölf kleinen Propheten entstanden sein. Dennoch ist ihre Bedeutung diesen nachgeordnet. Das zweite Chronikbuch endet mit dem Ausblick auf den Neubau des 3. Jerusalemer Tempels und die Anerkennung JHWHs als Herrn der ganzen Erde. Ihre Kanonisierung geschah vermutlich spät. Für das Buch Daniel wird von Bibelkritikern eine Kanonisierung erst für 135 n. d. Z., zusammen mit dem Abschluss des Tanach, angenommen. AT. Datei:TextsOT.PNG|hochkant=1.5|mini|Beziehungen verschiedener Manuskripte des AT untereinander verdeutlichen das Kompilat. Gestrichelte Linien illustrieren Manuskripte die zur Korrektur der Hauptquelle dienten. Einzelne Buchstaben stehen für Standardbezeichnungen, darunter: א Urchristentum. Das hellenistische Judentum hatte den noch nicht kanonisierten Tanach bis 250 v. Chr. in die griechische Verkehrssprache, die Koiné, übersetzt. Diese Septuaginta genannte Übersetzung lag auch dem Urchristentum großenteils schon vor, wurde um 100 n. Chr. abgeschlossen und bildete dann die Grundlage für das christliche AT. Konfessionelle Kanonunterschiede. Diese sogenannten deuterokanonischen Schriften wurden in die Vulgata, die lateinische Übersetzung der Septuaginta aufgenommen. Daher enthält das römisch-katholische AT 46 Bücher. Der orthodoxe Bibelkanon umfasst zudem das Gebet des Manasse, ein sogenanntes 1. Buch Esra, so dass das hebräische Esra-Buch als 2. Buch Esra gilt, 3. Makkabäer, Psalm 151, 4. Makkabäer und in den slawischen Kirchen eine Esra-Apokalypse (auch bekannt als 4. Esra). Die evangelischen Kirchen dagegen erkennen im Anschluss an die Lutherbibel nur den Tanach als kanonisch an, teilen ihn aber in 39 Bücher ein (mit dem NT also 66) und ordnen sie anders an. In dieser Form blieb der jüdische Kanon im Protestantismus gültig. Martin Luther stellte weitere von ihm übersetzte Schriften der Septuaginta als „Apokryphen“ ans Ende des AT und bewertete sie als „der Heiligen Schrift nicht gleich gehalten und doch nützlich und gut zu lesen“. In überkonfessionellen oder ökumenischen Bibelübersetzungen stehen diese Bücher optisch abgesetzt am Ende des AT. Handschriften. Reste von Papyruskodices mit griechischen alt- und neutestamentlichen Texten stammen aus dem 2. und 3. Jahrhundert: Das älteste bekannte Fragment des NT überhaupt ist der Papyrus Papyrus 52 aus einem Kodex mit einem Text aus dem Johannesevangelium, entstanden etwa um 125. Neutestamentliche Texte in Rollenform sind bisher nicht gefunden worden. Die ältesten bekannten Codices, die das ganze AT und ganze NT enthalten, sind der Codex Sinaiticus und der Codex Vaticanus aus dem vierten und der Codex Alexandrinus aus dem fünften Jahrhundert. Sprache. Das NT umfasste zur Zeit seiner endgültigen Begrenzung (um 400) 27 griechische Einzelschriften. Alle zusammen erreichen insgesamt nur ein starkes Viertel des Umfangs des AT. Diese 27 Bücher entstanden wohl überwiegend zwischen 70 und 100 n. Chr. im Urchristentum. Sie sind fast durchgängig in der damaligen Umgangssprache, der griechischen Koiné, verfasst. Zudem enthalten sie einige aramäische Begriffe und Zitate. Aramäisch war die damalige Umgangssprache in Palästina und die Muttersprache Jesu. Einteilung. Das NT besteht aus fünf erzählenden Schriften, nämlich den vier Evangelien sowie der apokalyptischen Offenbarung des Johannes. Die Evangelien verkünden Jesus von Nazaret nacherzählend als den im AT verheißenen Messias und bezeichnen ihn daher wie auch alle übrigen NT-Schriften als Jesus Christus. Die Apostelgeschichte erzählt von der Ausbreitung des Christentums von der Gründung der Jerusalemer Urgemeinde an bis nach Rom. Dabei bezieht sie sich ständig auf biblische Überlieferung. Die Briefe geben Antworten auf Glaubensfragen und Rat in praktischen Konflikte der verschiedenen Gemeinden. Bei der Kanonisierung des NT bestätigte die Alte Kirche auch die Bücher des Tanach als „Wort Gottes“. Fast alle christlichen Konfessionen erkennen die 27 NT-Schriften als kanonisch an. Die syrisch-orthodoxen Kirchen erkennen einige davon nicht an. Die Johannesoffenbarung wird auch in den anderen orthodoxen Kirchen nicht öffentlich verlesen. Verhältnis zum AT. Das Christentum nannte die viel ältere jüdische Sammlung heiliger Schriften „Altes“ Testament im Verhältnis zu seinem „Neuen“ Testament. Der lateinische Begriff "testamentum" übersetzt den griechischen Ausdruck "diatheke", der seinerseits das hebräische "berith" (Bund, Verfügung) übersetzt. Er steht nicht wie in der antiken Umwelt für ein zweiseitiges Vertragsverhältnis, sondern für eine einseitige unbedingte Willenserklärung. Dies bezieht sich im AT auf Gottes Taten und Bekundungen in der menschlichen Geschichte, besonders auf seinen Bundesschluss mit dem ganzen Volk Israel am Berg Sinai nach der Offenbarung der Gebote. Ihm gehen Gottes Schöpfungsbund mit Noach, die Berufung Abrahams zum „Vater vieler Völker“ und der Bund mit Mose zur Befreiung des Volkes Israel aus der Sklaverei voraus. Zudem wird in der Prophetie ein „neuer Bund“ verheißen, der alle Völker einbeziehen werde. Für die Urchristen hat sich diese Verheißung in Jesus Christus als dem sterblicher Mensch gewordenen Wort Gottes erfüllt. In seinem Tod und seiner Auferstehung wurde für sie Gottes „letzter Wille“ offenbar. Dieser ersetzte Gottes Bund mit dem jüdischen Volk aber nicht, sondern erfüllte und bekräftigte ihn so endgültig. Jesus Christus habe die Tora in seiner Lebenshingabe erfüllt, so dass seine Auslegung maßgebend geworden sei. Darum bekräftigten die Urchristen einerseits die Geltung aller Gebote (Mt 5,17-20), andererseits ihre Begrenzung auf die Zehn Gebote in Jesu Auslegung, also die Konzentration auf die Gottes- und Nächstenliebe. Daher hoben sie viele andere Toragebote auf oder relativierten sie. Schon die Judenchristen und Heidenchristen der Paulusgemeinden deuteten die Tora und ihre Rolle für den eigenen Glauben verschieden. Die Alte Kirche bewahrte den ganzen Tanach als Gottes endgültige, schriftlich fixierte Offenbarung, so dass er im Christentum Gottes Wort blieb. Die Gegenüberstellung von „altem“ und „neuem“ Bund ist besonders auf den Exodus Israels und die Kreuzigung und Auferstehung Jesu bezogen. Sie werden gemeinsam als jene Taten Gottes aufgefasst, in denen er sein volles Wesen zeigt. Sein „letzter Wille“ widerspricht seinem „ersten Willen“ nicht, sondern bestätigt und erneuert ihn für die ganze Welt. In der Christentumsgeschichte wurde „alt“ jedoch bis 1945 meist als „veraltet“, „überholt“ und somit als Herabsetzung und Entwertung des Judentums gedeutet. Dieses galt als verblendete, zum Untergang bestimmte Religion. Das Selbstopfer Jesu Christi am Kreuz habe die Sinaioffenbarung, die Kirche habe das erwählte Volk Israel „abgelöst“; Gott habe Israel „enterbt“ und den Christen die Verheißungen übergeben, so dass Heil nur noch in der Taufe liege (siehe Substitutionstheologie). Erst nach dem Holocaust begann ein grundsätzliches Umdenken. Seit den 1960er-Jahren übersetzten viele Theologen „Altes“ als „Erstes“ Testament oder ersetzten den Begriff durch „Hebräische“ oder „Jüdische Bibel“, um Vorrang und Weitergeltung des Bundes Gottes mit Israel/dem Judentum zu betonen und die Abwertung seiner Religion und Bibelauslegung zu überwinden. Heute stimmen fast alle christlichen Konfessionen darin überein, dass beide Teile gleichberechtigt die christliche Bibel ausmachen und ihre Deutung wechselseitig aufeinander angewiesen ist. Die christliche Exegese interpretiert AT-Texte aus ihrem Eigenkontext, um eine voreilige Deutung vom NT her zu vermeiden. So sprach der Alttestamentler Walther Zimmerli von einem auch durch das NT nicht abgegoltenen „Verheißungsüberschuss“ des AT, den gerade Jesus Christus selbst durch seine anfängliche Erfüllung bekräftigt habe. Normativer Anspruch als „Wort Gottes“. Die meisten Richtungen im Christentum lehren, dass Gott die biblische Überlieferung lenkte und inspirierte, ihre Schreiber also vom Heiligen Geist bewegt und vor schwerwiegenden Fehlern bewahrt wurden. Sie fassen den Text ihrer Bibel aber nicht vollständig als direktes Ergebnis göttlicher Eingebung oder göttlichen Diktats auf, sondern als menschliches Zeugnis, das Gottes Offenbarungen enthält, reflektiert und weitergibt. Im Katholizismus und in lutherischer Orthodoxie galt lange Zeit die Theorie der Verbalinspiration. Manche Evangelikale setzen den Bibeltext unmittelbar mit Gottes Offenbarung gleich und schreiben seinem Wortlaut daher eine „Irrtumsfreiheit“ "(Inerrancy)" zu. Diese Auffassung wird oft als Biblizismus oder biblischer Fundamentalismus bezeichnet. Er reagiert auf die als Angriff auf den Glauben empfundene historische Historisch-kritische Methode seit der Aufklärung. Für alle Christen ist Jesus Christus, seine Person und sein Werk, das maßgebende, alle äußeren Worte erhellende Zentrum der Bibel. Seine Kreuzigung und Auferstehung gelten für sie als Wendepunkt der Heilsgeschichte. Eine Analyse des Verhältnisses von „Bibel“ und „Wort Gottes“ stützt sich auf die Aussagen der Bibel und zeigt, dass der Begriff „Wort Gottes“ in der Bibel in dreifacher Weise vorkommt: für prophetische Aussprüche, für die zentrale Heilsbotschaft (d. h. das „Evangelium“) und manchmal für Jesus Christus. Für römische Katholiken erlangte die Bibel ihre Autorität als Wort Gottes erst durch das Lehramt des Papstes, der auch den Bibelkanon endgültig festgelegt habe. Für sie ist die Überwindung der Erbsünde durch Jesu stellvertretendes Sühneopfer, daraufhin das Zusammenwirken von menschlicher Bemühung und Gottes Gnadenangebot (Synergismus) zentraler Inhalt der Bibel und Maßstab ihrer Auslegung. Demnach haben sich alle Glaubensäußerungen, Bekenntnisschriften und Dogmen an der Bibel zu messen und sollen ihr daher nicht widersprechen. In der katholischen Kirche ist das päpstliche Lehramt die maßgebende und letzte Autorität zur Schriftauslegung; zudem wird die "Kirchliche Tradition" oft als gleich mit der Bibel angesehen. Die evangelische Kirche lehnt dieses übergeordnete Amt und die starke Stellung der Tradition ab, da beides nicht biblisch begründet sei. Hier gibt es faktisch keine einheitliche Lehre, da die Schriftauslegung nach den lutherischen und reformierten Bekenntnisschriften letztlich Sache des Heiligen Geistes bleibt. Dieser offenbare die Wahrheit des Wortes Gottes dem einzelnen Gewissen des Gläubigen. Judentum. Das Judentum hat Übersetzungen der hebräischen Bibel in verschiedene Sprachen geschaffen. Die bekannteste in deutscher Sprache ist jene von Martin Buber und Franz Rosenzweig in vier Bänden: Die Schrift (ab 1925). Rund hundert Jahre früher machte sich das Team von Leopold Zunz daran, den Tanach ins Deutsche zu übersetzen. Im 20. Jahrhundert sind weitere deutsche Ausgaben entstanden, z. B. jene von Naftali Herz Tur-Sinai. Christentum. Während die Orthodoxen Kirchen seit etwa 200 n. Chr. Bibeln in der Landessprache verwendeten, war für die katholische Kirche seit dem Ausgang des Altertums die lateinische Bibelübersetzung des Hieronymus, die sogenannte Vulgata, maßgebend, auch wenn immer wieder Bibeln in die jeweilige Volkssprache übersetzt wurden. Allerdings war die Vulgata selbst ursprünglich auch eine Übersetzung in die Volkssprache, denn als sie entstand, war Latein noch Umgangssprache. Die Wandlung des Lateinischen zu den romanischen Sprachen machte die westliche Bibel dann nicht mehr mit, und auch in den germanischen und keltischen Gebieten Westeuropas wurde die Bibel fast nur auf Lateinisch verbreitet. Bereits im 4. Jahrhundert übersetzte der gotische Bischof Wulfila die Bibel ins Gotische, die nach ihm benannte Wulfilabibel. Wulfila war allerdings nicht katholisch, sondern Arianer. Im Spätmittelalter entstand eine Reihe von Bibelübersetzungen. Besonders die Reformatoren, aber auch schon einige ihrer Vorläufer (Petrus Waldes, John Wycliff und Jan Hus) sahen den direkten Zugang zur Bibel in der Landessprache als wesentlich für den christlichen Glauben an. Durch die Übersetzungen der Reformatoren Luther und Zwingli in den Jahren 1522 bis 1534 wurde die Bibel zum ersten Mal einer größeren Leserschaft im deutschen Sprachraum zugänglich. Maßgeblichen Beitrag dazu leistete die Erfindung des Buchdrucks. Die Lutherbibel wurde Grundlage einerseits für die weite Verbreitung der Bibel in Deutschland, andererseits für ihre kritische Lektüre vor allem seit der Aufklärung und hatte auch eine große Bedeutung für die Entwicklung der deutschen Schriftsprache. Gedruckt wurde sie in der Schwabacher Schrift. Als Reaktion auf die volkssprachlichen Bibelübersetzungen der Reformierten entstanden auch katholische Übersetzungen, die sogenannten Korrekturbibeln. Heute gibt es eine gute und vor allem große Auswahl an Bibelübersetzungen in deutscher Sprache. Neben der klassischen (inzwischen mehrfach überarbeiteten) Lutherbibel sind erwähnenswert: die sehr wortgetreue, tendenziell wortkonkordante Elberfelder Übersetzung, die ebenfalls recht wortgetreue und etwas besser lesbare Zürcher Bibel, die katholische (bzw. für die Psalmen und das NT katholisch-evangelische) Einheitsübersetzung, die eine verständliche Sprache und gute Brauchbarkeit für liturgische Zwecke aufweist, und die modernen Übertragungen „Gute Nachricht Bibel“ und „Hoffnung für Alle“, die die alten Texte durch eine freiere Übersetzung in eine zeitgemäße und sehr gut verständliche Sprache übertragen haben. Zudem sind in den letzten Jahren noch weitere freie Übersetzungen hinzugekommen, nämlich die „Neues Leben“-Übersetzung und die Basisbibel. Eine Sonderrolle nimmt die Schlachter-Bibel ein, die Genauigkeit mit einer gut verständlichen Sprache vereint, teilweise aber eine sehr umstrittene Wortwahl bietet. Die heute in allen christlichen Bibelausgaben übliche und weitestgehend einheitliche Einteilung des Textes in Kapitel und Verse ist spät entstanden. Die Kapiteleinteilung führte Stephen Langton, Erzbischof von Canterbury, 1205 in die Vulgata ein. Die Verseinteilung des NT wurde 1551 in Genf erstmals von dem Pariser Buchdrucker Robert Estienne (dt.: Stephanus) an einer griechischen und lateinischen Bibelausgabe durchgeführt. Ohne die sieben deuterokanonischen Bücher umfasst die Bibel 66 Bücher mit 1189 Kapiteln und mehr als 31150 Versen. Bibelkritik. Im Judentum setzt die Bibelkritik erst spät ein. Im Christentum gibt es seit etwa 1700 immer wieder Diskussionen darüber, inwiefern die biblischen Erzählungen als historische Berichte gelten können. Dabei treffen verschiedene Auffassungen aufeinander. Die biblischen Texte als historische Dokumente. Auf Grund von Bibeltexten wie dem Beginn des Lukasevangeliums oder dem Ende des Johannesevangeliums betrachten konservative Theologen Bibeltexte als historische Berichte. Die Haltung zur Bibel wird dann auch in Glaubensbekenntnissen festgehalten, etwa in der "Basis der Evangelischen Allianz" von 1970: Demnach ist die Bibel als inspirierte Heilige Schrift „in allen Fragen des Glaubens und der Lebensführung“ „völlig zuverlässig“. Ein Teil der evangelikalen Bewegung formuliert noch schärfer und sagt, dass die Bibel „in allem, was sie lehrt, ohne Irrtum oder Fehler“ sei, und schließt dabei auch „Aussagen im Bereich der Geschichte und Naturwissenschaft“ mit ein "(Biblischer Fundamentalismus)". Die biblischen Texte als Glaubenszeugnisse. Die in der Neuzeit entwickelte historisch-kritische Exegese versucht, die jeweilige literarische Form der Texte der Bibel zu erfassen, im Rahmen der Literar- und Formkritik. Demnach erzähle die Bibel nicht Geschichte, sondern Heilsgeschichte. Der historische Gehalt der biblischen Erzählungen wird dann in ihren verschiedenen Teilen sehr unterschiedlich beurteilt; einem Teil der Bibel wird hohe geschichtliche Zuverlässigkeit zugeschrieben. Die Evangelien verstehen sich nach Meinung der Historisch-Kritischen als „Frohe Botschaft“. Ihr Ziel sei, den Glauben an den „auferstandenen Jesus Christus“ zu bezeugen. Den Evangelien sei zwar historisch zuverlässiges Material zu entnehmen, wichtiger aber sei es, die Glaubensbotschaft der Evangelien verständlich und lebendig zu machen. Weitere Zugänge zur Bibel. Nichttheologische Wissenschaftler verstehen die Bibel häufig als ein literarisches Werk. Gattungsgeschichtlich gehören die Texte in die literarischen Kategorien Prolog, Liebeslied, Hymnus, Paradoxon, Monolog, Dialog, Rätsel, Ellipse, Gebet, Gleichnis, Parabel, Gedicht, Brief und Geschichtsschreibung. Die Texte stellen eine wertvolle Quellensammlung für die Erforschung ihrer jeweiligen Entstehungszeit dar. Die Historizität der Erzählungen selbst wird von einigen als relativ gering eingeschätzt. Weniger weit verbreitet ist der Glaube, bei der Bibel handele es sich um ein magisches Buch, mit welchem wichtige Ereignisse in der Zukunft vorhergesehen werden könnten. Manche Menschen haben einige Zeit ihres Lebens damit verbracht, den vermuteten "Bibelcode" zu entschlüsseln, um an die geheimen Botschaften zu gelangen. Bislang ist die Existenz eines solchen Kodes nicht bewiesen. Daneben gibt es eine Bibelkritik, deren Thema unter anderem die in der Bibel vertretenen moralisch-ethischen Auffassungen und die Gewalt in der Bibel sind. Islam. Daher sind viele Muslime mit wichtigen Inhalten der Bibel vertraut, wenn auch in koranischer Version, die oft den biblischen Wortlaut verkürzt, verändert, paraphrasiert und von seinem Eigenkontext löst. Diese interpretierende Wiedergabe ist für sie maßgebend, entsprechend dem Anspruch des Korans, der sich als endgültige Offenbarung Allahs versteht, die alle früheren Offenbarungen aufnimmt und ihre Wahrheit wiederherstellt. Der Koran sieht in den biblischen Geschichten, die er nacherzählt, Mohammeds Kommen und seine Berufung zum „Siegel der Propheten“ Gottes vorgebildet und prophezeit. Huseyn al-Dschisri deutete 114 Stellen in der Bibel – vor allem den "paraklētos" („Beistand“, „Fürsprecher“) in;;  – als Hinweise auf Mohammeds Prophetentum. Parallelen zur Urgeschichte der hebräischen Bibel sind im Koran Der Koran nennt 20 Figuren der Bibel, die dort nicht alle als Propheten gelten, als Vorläufer Mohammeds. Besonders Abraham, der „Freund Gottes“, ist für den Koran Vorbild des wahren Gläubigen. Er habe – wie auch nachbiblische jüdische Überlieferung erzählt – erkannt, dass Gott mächtiger als Gestirne ist (Sure 6,78 f). Die ihm folgten, ohne Juden oder Christen zu werden "(Hanifen)", sind den Muslimen gleichwertig (Sure 21,51–70). Ihm wurde auch im Koran ein Sohn verheißen, den er opfern sollte (Sure 37,99–113). Dabei deuten die Muslime diese Geschichte nicht auf Isaak, sondern auf Ismael, den von der Magd Hagar geborenen ältesten Sohn Abrahams, der als Stammvater der Araber gilt. Abraham und Ismael sollen, gemäß Sure 2,125 die Kaaba als "erstes" Gotteshaus in Mekka gegründet haben. Von Joseph, Jakobs zweitjüngstem Sohn, erzählt Sure 12. Moses wird in 36 Suren erwähnt: Er ist auch im Koran der mit Gott unmittelbar redende Prophet (Sure 4,164), der sein Volk Israel aus Ägypten befreite und ihm die Tora vermittelte. Die Zehn Gebote liegen Sure 17,22–39 zugrunde. König David empfängt und übermittelt als Prophet die Psalmen; Salomos große Weisheit preist Sure 21,78 ff. Von den Figuren des NT stellt der Koran "Maryam" (Maria – Mutter Jesu), "Johannes den Täufer" (Sure 3,38–41; 19,2–15; 21,89 f.) und "Isa bin Maryam" („Jesus, der Sohn der Maria“) besonders heraus. Letzterer hat die Aufgabe, das Volk Israel zum Gesetzesgehorsam zurückzurufen und den Christen das Evangelium als schriftliche Offenbarungsurkunde zu vermitteln. Er verkündet wie Mohammed Gottes kommendes Endgericht, aber nur als Mensch, der nicht gekreuzigt wurde (Sure 4,157). Seine Auferstehung wird daher nur angedeutet. Die jungfräuliche Geburt wird im Koran aber ebenso bezeugt, wie Jesus als der verhießene Messias, das Wort Gottes und ein Mensch frei von Sünde. Als Gesandte Gottes sind diese Propheten im Koran moralische Autoritäten, sodass er von ihren in der Bibel geschilderten dunklen Seiten (z. B. Davids Ehebruch und Mord) nichts berichtet. Verbreitung und Sammlungen. Die Bibel ist das meistgedruckte, am häufigsten übersetzte und am weitesten verbreitete Buch der Welt. Es existieren Gesamtübersetzungen in 511 Sprachen und Teilübersetzungen in 2650 Sprachen. Allein 2014 wurden weltweit fast 34 Millionen vollständige Bibeln verbreitet. Zur Verbreitung biblischer Erzählungen tragen auch Bilderbibeln bei, also szenische Bildfolgen biblischer Geschichten mit oder ohne Text und Erläuterungen. Sie umfassen sowohl illustrierte wie lose oder gebundene Bildfolgen. Dazu gehören an Analphabeten, Mittellose und Kinder adressierte Armenbibeln und Kinderbibeln. Historische Bibeln werden in Bibelmuseen bewahrt und gesammelt, darunter die British Library, Württembergische Landesbibliothek, die Herzog August Bibliothek in Wolfenbüttel und weitere. Byzantinisches Reich. Das Byzantinische Reich, verkürzt auch nur Byzanz, oder (aufgrund der historischen Herkunft) das Oströmische Reich bzw. Ostrom, war ein Kaiserreich im östlichen Mittelmeerraum. Es entstand in der Spätantike nach der Reichsteilung von 395 aus der östlichen Hälfte des Römischen Reiches und endete mit der Eroberung von Konstantinopel durch die Osmanen im Jahr 1453. Das Reich erstreckte sich um 550 bis zur Arabischen Halbinsel und nach Nordafrika bis zum Atlantik, war aber seit dem 7. Jahrhundert weitgehend auf Kleinasien und Südosteuropa beschränkt und wurde von der Hauptstadt Konstantinopel aus regiert, das auch „Byzanz“ genannt wurde. Die Geschichte des Byzantinischen Reiches war von einem Abwehrkampf an den Grenzen gegen äußere Feinde geprägt, der die Kräfte des Reiches erheblich beanspruchte. Dabei wechselten sich bis in die Spätzeit, als das Reich keine ausreichenden Ressourcen mehr hatte, Phasen der Expansion (nach Gebietsverlusten im 7. Jahrhundert Eroberungen im 10. und 11. Jahrhundert) mit Phasen des Rückzugs ab. Im Inneren kam es (besonders bis ins 9. Jahrhundert) immer wieder zu unterschiedlich stark ausgeprägten theologischen Auseinandersetzungen sowie zu vereinzelten Bürgerkriegen, doch blieb das an römischen Strukturen orientierte staatliche Fundament bis ins frühe 13. Jahrhundert weitgehend intakt. Kulturell hat Byzanz der Moderne bedeutende Werke aus Literatur und Kunst hinterlassen. Byzanz spielte auch aufgrund des stärker bewahrten antiken Erbes eine wichtige Mittlerrolle. Hinsichtlich der Christianisierung Osteuropas, bezogen auf den Balkanraum und Russland, war der byzantinische Einfluss ebenfalls von großer Bedeutung. Die Gebietsveränderungen des Byzantinischen Reiches Begriffsbestimmung und Begriffsgeschichte. Der Byzantinist Georg Ostrogorsky charakterisierte das Byzantinische Reich als eine Mischung aus römischem Staatswesen, griechischer Kultur und christlichem Glauben. Die von der Hauptstadt abgeleitete Bezeichnung "Byzantinisches Reich" ist nur in der modernen Forschung üblich, wurde aber nicht von den damaligen Zeitgenossen benutzt, die statt von „Byzantinern“ weiterhin von „Römern“ (in der modernen Forschung wiedergegeben als „Rhomäer“) oder (im lateinischen Westen) von „Griechen“ sprachen. Neben dieser traditionellen Periodisierung existieren auch teils davon abweichende Überlegungen; so setzt sich in der neueren Forschung zunehmend die Tendenz durch, die im engeren Sinne „byzantinische“ Geschichte erst ab dem späten 6. oder 7. Jahrhundert beginnen zu lassen und die Zeit davor noch der (spät-)römischen Geschichte zuzurechnen. Allerdings ist diese Position nicht unumstritten. Die Byzantiner – und die Griechen bis ins 19. Jahrhundert hinein – betrachteten und bezeichneten sich selbst als „Römer“ ("Rhōmaîoi", zeitgenössische Aussprache "Romäi", siehe Rhomäer), das Wort „Griechen“ ("Héllēnes/Éllines") wurde fast nur für die vorchristlichen, paganen griechischen Kulturen und Staaten verwendet. Um 1400 jedoch bezeichneten sich die Byzantiner zunehmend als „Hellenen“. Die heute üblichen Bezeichnungen „Byzantiner“ und „Byzantinisches Reich“ sind modernen Ursprungs. Zeitgenossen sprachen stets von der "Basileía tōn Rhōmaíōn/Vasilía ton Romäon" ‚Reich der Römer‘ oder der "Rhōmaikḗ Autokratoría/Romaikí Aftokratoría" ‚Römische Selbstherrschaft‘, ‚Römisches Kaiserreich‘. Nach ihrem Selbstverständnis waren sie nicht die Nachfolger des Römischen Reiches – sie "waren" das Römische Reich. Deutlich wird dies auch dadurch, dass die Bezeichnungen „Oströmisches“ und „Weströmisches Reich“ modernen Ursprungs sind und es nach zeitgenössischer Auffassung nur ein Reich unter zwei Kaisern gab, solange beide Reichsteile existierten. Staatsrechtlich war das auch korrekt, da es keinen Einschnitt wie im Westen gegeben hatte und Byzanz in einem intakten, an die Spätantike erinnernden Zustand fortlebte, der sich erst nach und nach veränderte und zu einer Gräzisierung des Staates unter Herakleios führte. Allerdings war bereits vorher die vorherrschende Identität des Oströmischen Reiches griechisch. Altgriechisch und seit der Wende um 600 das Mittelgriechische, lautlich mit dem heutigen Griechisch schon fast identisch, ersetzte nicht nur seit Herakleios Latein als Amtssprache, sondern war auch die Sprache der Kirche, Literatursprache (bzw. Kultursprache) und Handelssprache. Resultierend aus diesen Wurzeln war das Reich zunächst geprägt von hellenistischer Kultur, römischem Staatswesen und christlicher Religion. Das Oströmische und Byzantinische Reich verlor seinen römisch-spätantiken Charakter erst im Laufe der arabischen Eroberungen im 7. Jahrhundert. Es sah sich zeit seines Bestehens als unmittelbar und einzig legitimes, weiterbestehendes Römisches Kaiserreich und leitete daraus einen Anspruch auf Oberhoheit über alle christlichen Staaten des Mittelalters ab. Dieser Anspruch war zwar spätestens seit etwa dem Jahr 600 nicht mehr durchsetzbar, wurde aber in der Staatstheorie konsequent aufrechterhalten. Die Spätantike: Das Oströmische Reich. Kaiser Konstantin I. der Große Die Wurzeln des Byzantinischen Reiches liegen in der römischen Spätantike (284 bis 641). Das Byzantinische Reich stellte keine Neugründung dar, vielmehr handelt es sich um die bis 1453 weiter existierende östliche Hälfte des 395 endgültig geteilten Römerreichs, also um die direkte Fortsetzung des "Imperium Romanum." Die damit verbundene Frage, wann die byzantinische Geschichte konkret beginnt, ist nicht eindeutig zu beantworten, da verschiedene Ansätze möglich sind. Vor allem in der älteren Forschung wurde als Beginn oft die Regierungszeit Kaiser Konstantins des Großen (306 bis 337) angesehen. Zum einen begünstigte dieser als erster römischer Kaiser aktiv das Christentum ("konstantinische Wende"). Zum anderen (und vor allem) schuf er die spätere Hauptstadt des Byzantinischen Reiches: Zwischen 325 und 330 ließ er die alte griechische Polis Byzanz großzügig ausbauen und benannte sie nach sich selbst in Konstantinopel um. Der alte Name „Byzanz“ lebte allerdings parallel dazu weiter und wurde in der Neuzeit rückblickend auf das ganze Reich ausgedehnt. Bereits zuvor hatten sich Kaiser Residenzen gesucht, die näher an den bedrohten Reichsgrenzen lagen und/oder besser zu verteidigen waren als Rom, das spätestens nach der kurzen Herrschaft des Kaisers Maxentius in der Regel nicht mehr Sitz der Kaiser, sondern nur noch ideelle Hauptstadt war. Allerdings erhielt Konstantinopel im Unterschied zu anderen Residenzstädten einen eigenen Senat, der unter Konstantins Sohn Constantius II. dem römischen formal gleichgestellt wurde. Mehr und mehr entwickelte sich die Stadt zum verwaltungsmäßigen Schwerpunkt des östlichen Reichsteils. Gegen Ende des 4. Jahrhunderts kam sogar die Bezeichnung "Nova Roma" (Neues Rom) auf, im bewussten Gegensatz zur alten Hauptstadt, die allerdings weiterhin der Bezugspunkt der Reichsideologie blieb. Seit der Zeit des Kaisers Theodosius I. war Konstantinopel dann die dauerhafte Residenz der im Osten regierenden römischen Kaiser. Nach Konstantins Tod 337 gab es zumeist mehrere "Augusti" im Imperium, denen die Herrschaft über bestimmte Reichsteile oblag. Dabei wurde allerdings zugleich die Einheit des "Imperium Romanum" nie in Frage gestellt, vielmehr handelte es sich um ein Mehrkaisertum mit regionaler Aufgabenteilung, wie es seit Diokletian üblich geworden war. Den Osten regierten Constantius II. (337 bis 361), Valens (364 bis 378) und Theodosius I. (379 bis 395). Nach dem Tod des Theodosius, der 394/395 als letzter Kaiser kurzzeitig faktisch über das gesamte Imperium herrschte, wurde das Römische Reich 395 erneut in eine östliche und eine westliche Hälfte unter seinen beiden Söhnen Honorius und Arcadius aufgeteilt. Solche „Reichsteilungen“ hatte es zwar schon oft gegeben, aber diesmal erwies sie sich als endgültig: Arcadius, der in Konstantinopel residierte, gilt daher manchen Forschern als erster Kaiser des Oströmischen beziehungsweise "Frühbyzantinischen Reiches." Dennoch galten weiterhin alle Gesetze in beiden Reichshälften (sie wurden meist im Namen beider Kaiser erlassen), und der Konsul des jeweils anderen Teiles wurde anerkannt. Im späten 4. Jahrhundert, zur Zeit der beginnenden sogenannten Völkerwanderung, war zunächst die östliche Reichshälfte Ziel germanischer Kriegerverbände wie der West- und der Ostgoten. In der Schlacht von Adrianopel erlitt das oströmische Heer 378 eine schwere Niederlage gegen meuternde (West-)Goten, denen dann 382 von Theodosius I. südlich der Donau als formal reichsfremde "foederati" Land zugewiesen wurde. Seit Beginn des 5. Jahrhunderts richteten sich die äußeren Angriffe dann aber zunehmend auf das militärisch und finanziell schwächere Westreich, das zugleich in endlosen Bürgerkriegen versank, die zu einem langsamen Zerfall führten. Im Osten konnte hingegen weitgehende innenpolitische Stabilität bewahrt werden. Nur vereinzelt musste sich Ostrom der Angriffe des neupersischen Sassanidenreichs erwehren, des einzigen gleichrangigen Konkurrenten Roms, mit dem aber zwischen 387 und 502 fast durchgängig Frieden herrschte. 410 wurde die Stadt Rom von meuternden westgotischen "foederati" geplündert, was eine deutliche Schockwirkung auf die Römer hatte, während die östliche Reichshälfte, abgesehen vom Balkanraum, weitgehend unbehelligt blieb und vor allem den inneren Frieden ("pax Augusta") alles in allem wahren konnte. Ostrom versuchte mitunter durchaus, das Westreich zu stabilisieren. So wurde die erfolglose Flottenexpedition gegen die Vandalen 467/468 (siehe Vandalenfeldzug) wesentlich von Ostrom getragen. Doch letztlich war der Osten zu sehr mit der eigenen Konsolidierung beschäftigt, um den Verfall des Westreichs aufhalten zu können. Im späteren 5. Jahrhundert hatte auch das Ostreich mit schweren Problemen zu kämpfen. Einige politisch bedeutsame Positionen wurden von Soldaten, nicht selten Männer „barbarischer“ Herkunft, dominiert (insbesondere in Gestalt des "magister militum" Aspar), die immer unbeliebter wurden: Es drohte die Gefahr, dass auch in Ostrom, so wie es bereits zuvor im Westen geschehen war, die Kaiser und die zivile Administration dauerhaft unter die Vorherrschaft mächtiger Militärs geraten würden. Unter Kaiser Leo I. (457–474) versuchte man daher, die vor allem aus "foederati" bestehende Gefolgschaft Aspars zu neutralisieren, indem man gegen sie insbesondere Isaurier, die Bewohner der Berge Südostkleinasiens waren, also Reichsangehörige, ausspielte. Leo stellte zudem eine neue kaiserliche Leibgarde auf, die "excubitores", die dem Herrscher persönlich treu ergeben waren; auch unter ihnen fanden sich viele Isaurier. In Gestalt von Zeno konnte einer von ihnen 474 sogar den Kaiserthron besteigen, nachdem Aspar 471 ermordet worden war. Auf diese Weise gelang es den Kaisern zwischen 470 und 500 schrittweise, das Militär wieder unter Kontrolle zu bringen. Denn unter Kaiser Anastasios I. konnte dann bis 498 auch der gewachsene Einfluss der Isaurier unter großen Kraftanstrengungen wieder zurückgedrängt werden. In der neuesten Forschung (z. B. Brian Croke; Mischa Meier) wird dabei die Ansicht vertreten, dass die Ethnizität der Beteiligten bei diesem Machtkampf in Wahrheit eine untergeordnete Rolle gespielt habe: Es sei nicht etwa um einen Konflikt zwischen „Barbaren“ und „Römern“, sondern vielmehr um ein Ringen zwischen dem kaiserlichen Hof und der Armeeführung gegangen, in dem sich die Kaiser zuletzt durchsetzen konnten. Das Heer blieb zwar auch weiterhin von auswärtigen, oft germanischen, Söldnern geprägt; der Einfluss der Feldherren auf die Politik war fortan allerdings begrenzt, und die Kaiser gewannen wieder stark an Handlungsfreiheit. Etwa zur gleichen Zeit endete im Westen das Kaisertum. Der machtlose letzte weströmische Kaiser Romulus Augustulus wurde im Jahr 476 von dem Heerführer Odoaker abgesetzt (der letzte von Ostrom anerkannte Kaiser war allerdings Julius Nepos, der 480 in Dalmatien ermordet wurde). Der Ostkaiser war fortan "de iure" wieder alleiniger Herr über das Gesamtreich, wenngleich die Westgebiete faktisch verloren waren. Die meisten Reiche, die sich nun unter Führung von nichtrömischen "reges" auf den Trümmern des zerfallenen Westreichs bildeten, erkannten den (ost-)römischen Kaiser aber lange Zeit zumindest als ihren nominellen Oberherrn an. Kaiser Anastasios I. stärkte um die Wende zum 6. Jahrhundert auch die Finanzkraft des Reiches, was der späteren Expansionspolitik Ostroms zugutekam. 545. Die zu einer Gruppe von spätantiken Kaiserbildern gehörende Darstellung zeigt den amtierenden Kaiser Justinian mit seinem Gefolge. Im 6. Jahrhundert eroberten unter Kaiser Justinian (527–565) die beiden oströmischen Feldherren Belisar und Narses große Teile der weströmischen Provinzen – Italien, Nordafrika und Südspanien – zurück und stellten damit das "Imperium Romanum" für kurze Zeit in verkleinertem Umfang wieder her. Doch die Kriege gegen die Reiche der Vandalen und Goten im Westen und gegen das mächtige Sassanidenreich unter Chosrau I. im Osten, sowie ein Ausbruch der sogenannten Justinianischen Pest, die ab 541 die ganze Mittelmeerwelt heimsuchte, zehrten erheblich an der Substanz des Reiches. Während der Regierungszeit Justinians, der als letzter "Augustus" Latein zur Muttersprache hatte, wurde auch die Hagia Sophia erbaut, für lange Zeit die größte Kirche der Christenheit und der letzte große Bau des Altertums. Ebenso kam es 534 zur umfassenden und wirkmächtigen Kodifikation des römischen Rechts (das später so genannte "Corpus iuris civilis"). Auf dem religionspolitischen Sektor konnte der Kaiser trotz großer Anstrengungen keine durchschlagenden Erfolge erzielen. Die andauernden Spannungen zwischen orthodoxen und monophysitischen Christen stellten neben der leeren Staatskasse, die Justinian hinterließ, eine schwere Hypothek für seine Nachfolger dar. Justinians lange Herrschaft markiert eine wichtige Übergangszeit vom spätantiken zum mittelbyzantinischen Staat, auch wenn man Justinian, den „letzten römischen Imperator“ (G. Ostrogorsky), insgesamt sicherlich noch zur Antike zu zählen hat. Unter seinen Nachfolgern nahm dann auch die Bedeutung und Verbreitung der lateinischen Sprache im Reich immer weiter ab, und Kaiser Maurikios gab mit der Einrichtung der Exarchate in Karthago und Ravenna erstmals den spätantiken Grundsatz der Trennung von zivilen und militärischen Kompetenzen auf, wenngleich er im Kerngebiet des Reiches noch an der herkömmlichen Verwaltungsform festhielt. Ab der zweiten Hälfte des 6. Jahrhunderts brachten leere Kassen und an allen Fronten auftauchende Feinde das Reich erneut in ernste Schwierigkeiten. In der Regierungszeit von Justinians Nachfolger Justin II., der 572 einen Krieg mit Persien provozierte und infolge seiner Niederlage einen Nervenzusammenbruch erlitt und dem Wahnsinn verfiel, besetzten die Langobarden bereits ab 568 große Teile von Italien. Währenddessen drangen die Slawen seit etwa 580 in den Balkanraum ein und besiedelten ihn bis zum Ende des 7. Jahrhunderts größtenteils. Mit dem gewaltsamen Tod des Kaisers Maurikios im Jahr 602, der 591 einen vorteilhaften Frieden mit den Sassaniden hatte schließen können und energisch gegen die Slawen vorgegangen war, eskalierte die militärische Krise. Seit 603 erlangten die sassanidischen Perser unter Großkönig Chosrau II. zeitweilig die Herrschaft über die meisten östlichen Provinzen. Bis 620 hatten sie sogar Ägypten und Syrien, und somit die reichsten oströmischen Provinzen, erobert, und standen 626 sogar vor Konstantinopel. Ostrom schien am Rande des Untergangs zu stehen, da auf dem Balkan auch die Awaren und ihre slawischen Untertanen auf kaiserliches Gebiet vordrangen. Begünstigt wurden diese Vorgänge noch durch einen Bürgerkrieg zwischen dem seit 602 regierenden Kaiser Phokas und seinem Rivalen Herakleios. Letzterer konnte sich im Jahr 610 durchsetzen und nach hartem Kampf auch die Wende im Krieg gegen die Perser herbeiführen. In mehreren Feldzügen drang er seit 622 auf persisches Gebiet vor und schlug ein sassanidisches Heer Ende 627 in der Schlacht bei Ninive entscheidend. Persien war nun auch an anderen Fronten bedroht; es schloss Frieden mit Ostrom, räumte die seit 603 eroberten Gebiete und versank aufgrund interner Machtkämpfe bald im Chaos. Nach dieser gewaltigen Anstrengung waren die Kräfte des Oströmischen Reichs jedoch erschöpft. Die Senatsaristokratie, die ein wesentlicher Träger der spätantiken Traditionen gewesen war, war zudem bereits unter Phokas stark geschwächt worden. Die Herrschaft über den größten Teil des Balkans blieb verloren. Herakleios ließ den Sieg über die Perser und die Rettung des Imperiums dennoch aufwändig feiern. Doch der oströmische Triumph war von kurzer Dauer. Der militärischen Expansion der durch ihren neuen muslimischen Glauben angetriebenen Araber, die in den 630er-Jahren einsetzte, hatte das Reich nach dem langen und kräftezehrenden Krieg gegen Persien nicht mehr viel entgegenzusetzen. Herakleios musste erleben, wie die eben erst von den Sassaniden geräumten Orientprovinzen erneut verloren gingen; diesmal für immer. In der entscheidenden Schlacht am Jarmuk am 20. August 636 unterlagen die Oströmer einem Heer des zweiten Kalifen Umar ibn al-Chattab, und der ganze Südosten des Reichs, einschließlich Syriens, Ägyptens und Palästinas, ging bis 642 vollständig verloren; bis 698 verlor man auch "Africa" mit Karthago. Das 7. Jahrhundert: Vom Oströmischen zum Byzantinischen Reich. Nach 636 stand Ostrom am Rand des Abgrunds. Im Gegensatz zu seinem langjährigen Rivalen, dem Sassanidenreich, das trotz heftiger Gegenwehr 642/651 unterging, konnte sich das Oströmische bzw. Byzantinische Reich aber immerhin erfolgreich gegen eine vollständige islamische Eroberung verteidigen. Die kaiserlichen Truppen, die bisher die vorderorientalischen Provinzen verteidigt hatten, mussten sich aber nach Kleinasien zurückziehen, das von arabischen Angriffen heimgesucht wurde "(Razzien)." Im Verlauf des 7. Jahrhunderts verlor Byzanz infolge der islamischen Expansion zeitweilig sogar die Seeherrschaft im östlichen Mittelmeer (Niederlage bei Phoinix 655) und konnte zudem auch Kleinasien nur mit Mühe halten, während auf dem Balkan Slawen und Bulgaren das Reich bedrängten und die kaiserliche Herrschaft hier auf einige wenige Orte begrenzten. So waren die Oströmer um 700 im Wesentlichen auf Kleinasien, das Umland der Hauptstadt, einige Gebiete in Griechenland sowie in Italien zurückgeworfen. Was das Reich an Gebieten verlor, gewann es indes an innerer Gleichförmigkeit. Die antike Zivilisation war seit Jahrhunderten von der Existenz zahlreicher größerer und kleinerer Städte – "póleis" – geprägt gewesen; diese Zeit endete nun. Die meisten Städte wurden aufgegeben oder schrumpften auf die Größe von befestigten Dörfern, den sogenannten "kastra." Die verlorenen südlichen und orientalischen Provinzen unterschieden sich kulturell erheblich vom Norden und gehörten seit dem 5. Jahrhundert mehrheitlich den orientalisch-orthodoxen, monophysitischen Kirchen an, die mit der griechisch-orthodoxen Kirche der nördlichen Provinzen seit 451 im Streit lagen. Dieser Konflikt war vielleicht einer der Gründe für die baldige Akzeptanz der neuen muslimischen Herren in Syrien und Ägypten (was aber in der neueren Forschung wieder stark umstritten ist). Der unter kaiserlicher Kontrolle verbliebene Norden des Reiches gelangte jedenfalls zu größerer Geschlossenheit und höherer Kampfbereitschaft. Der Preis für das Überleben war jedoch der dauerhafte Verlust von zwei Dritteln des Reiches und der meisten Steuereinkünfte. Indem bereits Herakleios Griechisch, das in den verbliebenen Reichsgebieten ohnehin die dominierende Sprache war, zur alleinigen Amtssprache machte, vollzog er einen wichtigen Schritt auf dem Weg zum Byzantinischen Reich des Mittelalters. Viele Forscher sehen daher erst in diesem Kaiser, der den Titel "Imperator" ablegte und sich fortan offiziell "Basileus" nannte, zugleich den letzten (ost-)römischen und auch den ersten byzantinischen Kaiser. Einigkeit besteht darin, dass das 7. Jahrhundert insgesamt einen tiefen Einschnitt in der Geschichte des Reiches markiert. Strittig ist nur, ob man die drei Jahrhunderte davor noch zur römischen oder bereits zur byzantinischen Geschichte zählen soll; indem man diese Zeit heute als Spätantike bezeichnet und als Transformationsepoche versteht, hat die Frage nach dem „Beginn“ von Byzanz aber erheblich an Relevanz eingebüßt. Fest steht, dass sich mit der oströmischen Geschichte bis Herakleios neben Byzantinisten auch viele Althistoriker befassen, nicht aber mit den folgenden Jahrhunderten, die das Arbeitsfeld der Byzantinistik darstellen. Historische Karte des Byzantinischen Reiches vom 6. bis zum 9. Jahrhundert aus Droysens Historischem Handatlas, 1886 Die überkommenen spätantiken Strukturen von Staat und Gesellschaft waren der radikal veränderten Situation vielfach nicht mehr angemessen. Es verwundert ohnehin, dass Byzanz den nachfolgenden Jahrzehnte andauernden Kampf ums Überleben gegen eine enorme feindliche Übermacht überstand. Ein wichtiger Faktor dafür war – neben wiederholten innerarabischen Streitigkeiten und den geographischen Besonderheiten Kleinasiens – wohl das neue System von Militärprovinzen, der sogenannten "Themen". Die Themen wurden sehr wahrscheinlich erst nach der Regierungszeit des Herakleios geschaffen (anders noch die ältere Forschung), um den ständigen Angriffen und dem Verfall des städtischen Lebens außerhalb der Hauptstadt zu begegnen. Insgesamt gilt für diese Phase: Tendenzen, die bereits seit langem vorhanden waren, kamen nach 636 in vielen Bereichen von Staat und Gesellschaft voll zum Tragen. Zugleich endeten zahlreiche Traditionsstränge – die spätantike Phase des Oströmischen Imperiums gelangte an ihr Ende, und es entstand das Byzantinische Reich des Mittelalters. Die Zeit von der Mitte des 7. bis ins späte 8. Jahrhundert war weitgehend von schweren Abwehrkämpfen geprägt, in denen die Initiative fast ausschließlich bei den Feinden von Byzanz lag. Kaiser Konstans II. verlegte seine Residenz von 661 bis 668 ins sizilianische Syrakus, vielleicht, um von dort aus die Seeherrschaft gegen die Araber zu sichern, doch kehrten seine Nachfolger wieder in den Osten zurück. Im Jahr 681 musste Kaiser Konstantin IV. Pogonatos das neugegründete Bulgarenreich auf dem Balkan anerkennen. Um 678 soll es zu einer ersten Belagerung Konstantinopels durch die Araber gekommen sein, die durch den Einsatz des sogenannten Griechischen Feuers, das sogar auf dem Wasser brannte, zurückgeschlagen werden konnten. In der modernen Forschung werden die erst späteren Quellenberichte jedoch zunehmend angezweifelt; wahrscheinlicher sind wellenartige Angriffe und Seeblockaden, aber keine regelrechte Belagerung der Hauptstadt. Das Reich blieb in der Folgezeit auf Kleinasien beschränkt, hinzu kamen noch Gebiete auf dem Balkan und in Italien sowie bis 698 in Nordafrika. Das 8. und 9. Jahrhundert: Abwehrkämpfe und Bilderstreit. Die Themen in den 650er-Jahren Kaiser Justinian II., in dessen Regierungszeit Byzanz wenigstens teilweise wieder in die Offensive ging, war der letzte Monarch der herakleischen Dynastie. Im Rahmen einer später oft wiederholten Praxis wurden slawische Siedler vom Balkan nach Kleinasien deportiert und dort angesiedelt. Ziel war eine Stärkung der Grenzverteidigung, es kam in der Folgezeit aber auch immer wieder zu Desertionen; ebenso wurden teils Bevölkerungsgruppen von Kleinasien auf den Balkan transferiert. Justinian fiel 695 jedoch einer Verschwörung zum Opfer, wurde verstümmelt (ihm wurde die Nase abgeschnitten) und ins Exil geschickt, wo er eine Prinzessin aus dem Volke der turkischen Chasaren heiratete. Er gelangte schließlich mit bulgarischer Unterstützung wieder an die Macht, bevor er 711 umgebracht wurde. Die bedrohlichste Belagerung Konstantinopels durch die Araber fand 717–718 statt; nur dank der Fähigkeiten Kaiser Leos III., der erfolgreichen Flottenoperationen (wobei die Byzantiner das Griechische Feuer einsetzten) und eines extrem harten Winters, der den Arabern schwer zu schaffen machte, konnte sich die Hauptstadt halten. 740 wurden die Araber bei Akroinon von den Byzantinern entscheidend geschlagen. Wenngleich die Abwehrkämpfe gegen die Araber weitergingen, war die Existenz des byzantinischen Reiches nun nicht mehr ernsthaft von ihnen gefährdet. Auf dem Balkan war Byzanz währenddessen in schwere Kämpfe mit den Slawen verwickelt, die nach dem Zerfall des Awarenreiches in die byzantinischen Gebiete einrückten. Weite Teile des Balkans waren dem byzantinischen Zugriff entzogen, doch gelang es in der Folgezeit Griechenland, nach und nach von den Slawen Gebiete zurückzugewinnen, die seit dem 7. Jahrhundert in die "Sklaviniai" eingezogen waren. Dafür erwuchs dem Reich ein neuer Gegner in Gestalt der Bulgaren, die nun erfolgreich eine eigene Staatsbildung anstrebten. Kaiser Leo III. soll 726 den sogenannten Bilderstreit entfacht haben, der über 110 Jahre andauern sollte und mehrmals Bürgerkriege aufflackern ließ. Allerdings sind die Schriften der bilderfeindlichen Autoren nach dem Sieg der Ikonodulen vernichtet worden, sodass die Quellen für diese Zeit fast ausschließlich aus der Perspektive des Siegers geschrieben wurden und dementsprechend problematisch sind. Ausgelöst durch einen Vulkanausbruch in der Ägäis habe demnach Leo 726 die Christus-Ikone über dem Chalketor am Kaiserpalast entfernt. In der neueren Forschung wird dies bisweilen bezweifelt, denn aufgrund der tendenziösen Quellen sei oft unklar, welche Schritte Leo genau unternommen hat; eventuell seien spätere Handlungen in die Zeit Leos projiziert worden. Insofern kann nicht einmal eindeutig geklärt werden, wie scharf ausgeprägt Leos Bilderfeindschaft tatsächlich gewesen ist. Leo und seine direkten Nachfolger sind aber anscheinend keine Anhänger der Ikonenverehrung gewesen. Ihre militärischen Erfolge ermöglichten es diesen Kaisern offenbar, ohne größeren Widerstand Ikonen (die in der Ostkirche allerdings damals noch keine so große Rolle wie heute spielten) durch Kreuzesdarstellungen zu ersetzen, die von allen Byzantinern anerkannt werden konnten. Dass die Abkehr von der Bilderverehrung durch Einflüsse aus dem islamischen Bereich angeregt wurde, wird heute oft sehr skeptisch gesehen. Denn die ikonoklastischen Kaiser waren auch überzeugte Christen, die eben deshalb die Ikonen ablehnten, weil sich ihrer Meinung nach das göttliche Wesen nicht einfangen ließ. Zudem war das Kreuz, das die Ikonen ersetzen sollte, im islamischen Bereich geächtet. Die moderne Forschung geht auch nicht mehr davon aus, dass Leo ein regelrechtes Bilderverbot erließ oder dass es gar zu schweren Unruhen kam, wie die späteren ikonodulen Quellen unterstellen. Offenbar wurde diese erste Phase des Bilderstreits nicht mit der Härte geführt wie die zweite Phase im 9. Jahrhundert. Leo führte im Inneren mehrere Reformen durch und war auch militärisch sehr erfolgreich. So ging er in Kleinasien offensiv gegen die Araber vor, wobei sein Sohn Konstantin sich als fähiger Kommandeur erwies. Als Konstantin seinem Vater schließlich 741 als Konstantin V. auf den Thron nachfolgte, schlug er den Aufstand seines Schwagers Artabasdos nieder. Konstantin war ein Gegner der Bilderverehrung und schrieb zu diesem Zweck sogar mehrere theologische Abhandlungen. Durch das Konzil von Hiereia 754 sollte die Bilderverehrung auch formal abgeschafft werden, doch ergriff Konstantin nur wenige konkrete Maßnahmen und verbot sogar explizit Vandalismus kirchlicher Einrichtungen. Obwohl militärisch sehr erfolgreich (sowohl gegen Araber als auch gegen die Bulgaren), wird Konstantin in den erhaltenen byzantinischen Quellen als grausamer Herrscher beschrieben – zu Unrecht und offenbar aufgrund seiner Einstellung gegen die Ikonen. Denn andere Quellen belegen nicht nur seine relative Beliebtheit in der Bevölkerung, sondern auch sein immenses Ansehen im Heer. Innenpolitisch führte Konstantin mehrere Reformen durch und scheint eine eher gemäßigte bilderfeindliche Politik betrieben zu haben. Mehrere politische Gegner, die der Kaiser bestrafen ließ, wurden wohl erst im Nachhinein zu Märtyrern verklärt, die angeblich wegen ihrer bilderfreundlichen Position getötet wurden. Konstantin war also kein gnadenloser Bilderstürmer, wie in der älteren Forschung mit Bezug auf die ikonodulen Berichte angenommen wurde. Konstantins religionspolitischem Kurs folgte auch sein Sohn Leo IV., doch dieser musste sich mehrerer Umsturzversuche erwehren und starb nach nur fünfjähriger Herrschaft 780. Für seinen minderjährigen Sohn Konstantin VI. übernahm dessen Mutter Irene die Regentschaft; bald allerdings zeigte sich, dass diese nicht beabsichtigte, die Macht abzugeben. Konstantin wurde später geblendet und starb an den Folgen. Irene betrieb wieder eine bilderfreundliche Politik. Unter ihrer Herrschaft erlebte der universale Anspruch des byzantinischen Kaisertums mit der Kaiserkrönung Karls des Großen schweren Schaden. 802 wurde Irene, die politisch eher ungeschickt agiert hatte, gestürzt, womit die durch Leo III. begründete "Syrische Dynastie" (nach dem Herkunftsland Leos III.) endete. Außenpolitisch war auf dem Balkan gegen die Bulgaren vorerst wenig auszurichten. 811 wurde sogar ein byzantinisches Heer unter Führung Kaiser Nikephoros’ I. durch den Bulgarenkhagan Krum vernichtet, Nikephoros fiel im Kampf. Erst Leo V. konnte sich mit Khan Omurtag vertraglich einigen. Leo V. war es auch, der 815 erneut einen bilderfeindlichen Kurs einschlug und so die zweite Phase des Ikonoklasmus einleitete. Im 9. und vor allem im 10. Jahrhundert wurden einige bedeutende außenpolitische Erfolge erzielt, auch wenn unter der amorischen Dynastie (ab der Thronbesteigung Michaels II. 820) Byzanz zunächst Gebietsverluste hinnehmen musste (Kreta und Sizilien an die Araber). Unter Michaels Sohn und Nachfolger, Theophilos, kam es schließlich zu einem letzten Aufflackern des Bilderstreits, welcher aber unter Michael III. (842–867), dem letzten Kaiser der Amorischen Dynastie, 843 endgültig überwunden wurde. In Michaels Regierungszeit vollzog sich die Annahme des Christentums durch die Bulgaren – und zwar in dessen östlicher Form, womit die byzantinische Kultur, die nun immer mehr aufblühte, auch zur Leitkultur für das Bulgarische Reich wurde. Der Bilderstreit wurde endgültig beendet, während in Kleinasien mehrere Siege über die Araber gelangen. Flottenexpeditionen nach Kreta und sogar Ägypten wurden unternommen, blieben aber erfolglos. Byzanz hatte die Phase der reinen Abwehrkämpfe damit überwunden. Die makedonische Dynastie. Michael III. erhob 866 Basileios zum Mitkaiser, doch ließ Basileios Michael im folgenden Jahr ermorden, bestieg selbst den Thron und begründete damit die Makedonische Dynastie. Michaels Andenken wurde stark verunglimpft – zu Unrecht, wie die neuere Forschung betont. Kulturell erlebte Byzanz jedoch wieder eine neue Blüte (sogenannte "Makedonische Renaissance") wie etwa zur Zeit Konstantins VII., der von Romanos I. Lakapenos zunächst von den Regierungsgeschäften ausgeschlossen worden war. Außenpolitisch gewann das Reich zudem nach und nach an Boden: Unter Nikephoros II. Phokas wurde Kreta zurückerobert; die Grenzsicherung im Osten lag nun weitgehend in den Händen der "Akriten." Johannes I. Tzimiskes, der wie Nikephoros II. nur als Regent für die Söhne Romanos’ II. regierte, weitete den byzantinischen Einfluss bis nach Syrien und kurzzeitig sogar bis nach Palästina aus, während die Bulgaren niedergehalten wurden. Byzanz schien wieder auf dem Weg zur regionalen Hegemonialmacht zu sein. Das Reich in seinem Machtzenit in der mittelbyzantinischen Zeit in den Grenzen beim Tode des Kaisers Basileios II. im Jahr 1025 (einschließlich „Protektorate“) Das Reich erreichte unter den makedonischen Kaisern des 10. und frühen 11. Jahrhunderts seinen Machthöhepunkt. Durch die im Jahr 987 vollzogene Heirat der Schwester von Kaiser Basileios II. mit dem ruthenischen Großfürsten Wladimir I. breitete sich der orthodoxe Glaube allmählich auf dem Gebiet der heutigen Staaten Ukraine, Weißrussland und Russland aus. Die russische Kirche unterstand dem Patriarchen von Konstantinopel. Basileos II. eroberte in jahrelangen Kämpfen das Erste Bulgarische Reich, was ihm den Beinamen "Bulgaroktónos" („Bulgarentöter“) einbrachte. Im Jahr 1018 wurde Bulgarien eine byzantinische Provinz, und auch im Osten wurde Basileios expansiv tätig. Trotzdem durchlief das Byzantinische Reich bald darauf eine Schwächeperiode, die in hohem Grade durch das Wachstum des Landadels verursacht wurde, der das Themensystem untergrub. Ein Problem dabei war, dass das stehende Heer durch teils unzuverlässige Söldnerverbände ersetzt wurde und ersetzt werden musste (was sich 1071 in der Schlacht bei Manzikert gegen türkische Seldschuken bereits bitter rächen sollte). Bloß mit seinen alten Feinden, wie dem Kalifat der Abbasiden konfrontiert, hätte es sich vielleicht erholen können, aber um die gleiche Zeit erschienen neue Eindringlinge: die Normannen, die Süditalien eroberten (Fall von Bari 1071), und die Seldschuken, die hauptsächlich an Ägypten interessiert waren, aber auch Raubzüge nach Kleinasien, dem wichtigsten Rekrutierungsgebiet für die byzantinische Armee, unternahmen. Nach der Niederlage von Kaiser Romanos IV. im Jahr 1071 bei Mantzikert gegen Alp Arslan, den seldschukischen Sultan, ging der Großteil Kleinasiens verloren, unter anderem auch, da innere Kämpfe um den Kaiserthron ausbrachen und keine gemeinsame Abwehr gegen die Seldschuken errichtet wurde. Die bedeutendste Provinz ging aber nicht unmittelbar nach der Niederlage verloren, vielmehr begann der Einfall der Seldschuken erst drei Jahre danach, als der neue Kaiser sich nicht an die Abmachungen hielt, die zwischen Romanos VI. und dem Sultan getroffen worden waren. Dies lieferte den Seldschuken einen Vorwand zur Invasion. Die Zeit der Komnenenkaiser. Das Byzantinische Reich um 1081, nach der türkisch-seldschukischen Landnahme Kleinasiens, die der byzantinischen Niederlage bei Manzikert 1071 gefolgt war Das nächste Jahrhundert der byzantinischen Geschichte wurde durch die Dynastie Alexios I. Komnenos, geprägt, der 1081 an die Macht gelangte und anfing, die Armee auf Basis eines Feudalsystems wiederherzustellen. Es gelangen ihm bedeutende Fortschritte gegen die Seldschuken und auf dem Balkan gegen die ebenfalls turkvölkischen Petschenegen. Sein Ruf nach westlicher Hilfe brachte ungewollt den Ersten Kreuzzug hervor, denn statt der Söldner, um die der Kaiser gebeten hatte, kamen selbstständige Ritterheere, die unabhängig von seinen Befehlen agierten. Alexios verlangte zwar, dass jeder der Kreuzfahrerfürsten, der mit seinem Heer durch Byzanz zu ziehen gedachte, ihm den Lehenseid leisten sollte. Doch obwohl diese Unterwerfung von den meisten Kreuzfahrerfürsten akzeptiert und der Lehenseid geleistet wurde, vergaßen sie den Schwur gegenüber Alexios recht bald. Weiterhin gestalteten sich die Beziehungen nach dem Ersten Kreuzzug, in dessen Verlauf es bereits zu jenen Spannungen gekommen war, zunehmend feindselig. Für weiteren Konfliktstoff sorgte der Briefwechsel zwischen dem fatimidischen Herrscher Ägyptens und dem byzantinischen Kaiser Alexios. In einem Brief, den Kreuzfahrer zu lesen bekamen, distanzierte sich Kaiser Alexios ausdrücklich von den lateinischen Eroberern des Heiligen Landes, was verständlich war angesichts der traditionell guten und strategisch wichtigen Beziehungen zwischen den Fatimiden und Byzanz, aber auch dadurch begründet war, dass den Byzantinern das Konzept eines „Heiligen Krieges“ eher fremd war. Ab dem 12. Jahrhundert wurde paradoxerweise die Republik Venedig – einst bis etwa ins 9. Jahrhundert selbst ein Vorposten byzantinischer Kultur im Westen – zu einer ernsten Bedrohung für die Integrität des Reiches. Die gegen militärische Unterstützung beim Kampf gegen Normannen und Seldschuken verliehenen Handelsvorrechte versuchte Manuel durch Verhaftung aller Venezianer zurückzunehmen. In ähnlicher Weise versuchten die Kaiser gegen die übrigen italienischen Händler vorzugehen. 1185 wurden zahlreiche "Lateiner" in einem pogromartigen Massaker umgebracht. Im selben Jahr erhoben sich die Bulgaren nördlich des Balkangebirges unter der Führung der Asseniden und konnten 1186 das zweite bulgarische Reich errichten. Dennoch erlebte Byzanz in dieser Zeit auch eine kulturelle Blüte. Unter Kaiser Johannes II. Komnenos (1118–1143), dem Sohn des Alexios I., und dessen Sohn Manuel I. Komnenos (1143–1180) gelang es, die byzantinische Stellung in Kleinasien und auf dem Balkan zu festigen. Manuel I. Komnenos hatte sich nicht nur mit den Angriffen des normannischen Königreiches in Süditalien und dem Zweiten Kreuzzug (1147–1149) auseinanderzusetzen, er betrieb auch eine ehrgeizige Westpolitik, die auf territoriale Gewinne in Italien und Ungarn abzielte; dabei geriet er auch in Konflikt mit Kaiser Friedrich I. Barbarossa. Im Osten konnte er gegen die Seldschuken Erfolge erzielen. Sein Versuch, ihr Reich völlig zu unterwerfen, endete allerdings in der Niederlage bei Myriokephalon 1176. Das Byzantinische Reich am Ende der komnenischen Periode in den Grenzen von 1185 In der Folge konnten die Seldschuken ihre Macht auf die benachbarten muslimischen Reiche (unter anderem das Reich der ebenfalls türkischen Danischmenden) in Kleinasien und auch gegen Byzanz zur Mittelmeerküste hin ausdehnen. Andronikos I., der letzte Komnenenkaiser, errichtete eine kurze, aber brutale Schreckensherrschaft (1183–1185), in deren Folge aber auch das von Alexios I. begründete Regierungssystem, das vor allem auf der Einbindung der Militäraristokratie beruhte, zusammenbrach. Damit verkamen auch die schlagkräftigen und straff organisierten Streitkräfte, mit denen das Reich unter Alexios, Johannes und Manuel ein letztes Mal erfolgreich in die Offensive gegangen war. Das Reich wurde unter den nachfolgenden Kaisern aus dem Hause der Angeloi von schweren inneren Krisen erschüttert, die schließlich dazu führten, dass sich Alexios IV. an die Kreuzfahrer wandte und sie dazu bewog, für ihn und seinen Vater um den Thron zu kämpfen. Als die erhoffte Bezahlung ausblieb, kam es zur Katastrophe: Unter dem Einfluss Venedigs eroberten und plünderten die Ritter des vierten Kreuzzugs 1204 Konstantinopel und gründeten das kurzlebige Lateinische Kaiserreich. Dies bewirkte eine dauerhafte Schwächung der byzantinischen Macht und sorgte dafür, dass sich die Kluft zwischen den orthodoxen Griechen und den katholischen "Lateinern" weiter vertiefte. Die spätbyzantinische Zeit. Nach der Eroberung Konstantinopels durch die Teilnehmer des Vierten Kreuzzugs 1204 entstanden drei byzantinische Nachfolgestaaten: das Kaiserreich Nikaia, wo Kaiser Theodor I. Laskaris im Exil die byzantinische Tradition aufrechterhielt, das Despotat Epirus und das Kaiserreich Trapezunt, das sich unter den Nachkommen der Komnenen bereits vor der Eroberung Konstantinopels abgespalten hatte. Theodoros I. Laskaris und seinem Nachfolger Johannes III. Dukas Batatzes gelang es, in Westkleinasien ein wirtschaftlich blühendes Staatswesen aufzubauen und die Grenze zu den Seldschuken, die sich seit ihrer Niederlage gegen die Mongolen 1243 im Niedergang befanden, zu stabilisieren. Gestützt auf diese Machtbasis konnten die Laskariden erfolgreich auch in Europa expandieren, Thrakien und Makedonien erobern und die Konkurrenten um die Rückgewinnung Konstantinopels (das Reich von Epiros, das nach einer Niederlage gegen die Bulgaren 1230 stark geschwächt war, und das Bulgarenreich, das auch durch einen Mongoleneinfall 1241 stark beeinträchtigt wurde) aus dem Feld schlagen. Die Reichsgrenze von 1270 (einschließlich der abhängigen Despotate Epirus und Thessalien) stellte die größte territoriale Ausdehnung des Byzantinischen Reiches nach dessen Restauration 1261 unter den Palaiologen dar Nach der kurzen Regierung des hochgebildeten Theodoros II. Laskaris übernahm der erfolgreiche Feldherr Michael VIII. Palaiologos die Regentschaft für den minderjährigen Johannes IV. Laskaris, den er schließlich blenden und in ein Kloster schicken ließ, und begründete so die neue Dynastie der Palaiologen, die das Reich bis zu seinem Untergang regieren sollte. Kaiser Michael VIII. konnte eine Allianz seiner Gegner (Despotat Epiros, Fürstentum Achaia, Königreich Sizilien, Serbien und Bulgarien) in der Schlacht bei Pelagonia in Makedonien 1259 besiegen und durch einen glücklichen Zufall Konstantinopel 1261 zurückerobern. Das Reich war somit wiederhergestellt, aber große Teile des ehemaligen Reichsgebietes unterstanden nicht mehr der Kontrolle der Reichsregierung, denn die Herrscher, die sich nach dem Zusammenbruch im Jahr 1204 in diesen Teilgebieten etabliert hatten, waren nicht geneigt, sich Konstantinopel unterzuordnen. Auch Konstantinopel war nicht mehr die glanzvolle Metropole von einst: Die Einwohnerzahl war erheblich geschrumpft, ganze Stadtviertel waren verfallen, und beim Einzug des Kaisers waren zwar noch reichlich die Spuren der Eroberung von 1204 zu sehen, aber nirgendwo sah man Zeichen des Wiederaufbaus. Byzanz war nicht mehr die potente Großmacht, sondern nur noch ein Staat von höchstens regionaler Bedeutung. Zudem war die Kluft zwischen den Byzantinern und den Lateinern erheblich vergrößert worden. Michael VIII. Palaiologos’ Hauptsorge galt aber nun der Sicherung des europäischen Besitzstandes und vor allem der Hauptstadt gegen erneute Kreuzzugsversuche aus dem Westen (vor allem durch Karl I. von Anjou, der die Staufer in Unteritalien ablöste); deshalb ging Michael VIII. 1274 auch die innenpolitisch höchst umstrittene Union von Lyon mit der Westkirche ein, um den Papst von der Unterstützung von Kreuzzügen abzuhalten. Als Karl I. von Anjou dennoch einen Angriff vorbereitete, setzte die byzantinische Diplomatie 1282 erfolgreich einen Aufstand in Sizilien in Gang, die Sizilianische Vesper. Daneben aber vernachlässigten die Palaiologen die Grenzverteidigung im Osten, was den verschiedenen türkischen Fürstentümern die Expansion in das byzantinische Kleinasien ermöglichte, das in den 1330er-Jahren dem Reich sukzessive verloren ging. Beträchtliche sozial-ökonomische Verwerfungen in Europa um 1347 durch den Ausbruch der großen Pestpandemie, auch „Schwarzer Tod“ genannt (Ausbreitungsgebiet in den Jahren 1347–1353) Während sich in Kleinasien auf dem ehemaligen byzantinischen Reichsgebiet verschiedene souveräne türkische Fürstentümer (Mentesche, Aydin, Germiyan, Saruhan, Karesi, Teke, Candar, Karaman, Hamid, Eretna und die Osmanen in Bithynien) im Zuge der Auflösung des Sultanats der Rum-Seldschuken etablierten, stießen die Palaiologen in einer letzten, kraftvollen Offensive gegen die lateinische Herrschaft in Griechenland, und annektierten bis 1336 ganz Thessalien und 1337 das durch die Familie Orsini dominierte Despotat Epirus. Unterdessen sah sich Kaiser Johannes V. Palaiologos mit den dramatischen Folgen der Großen Pestpandemie, auch „Schwarzer Tod“ genannt, in den Jahren 1347 bis 1353 konfrontiert, die das Fundament des Staates erschütterten, zudem leistete sich das Reich mehrere Bürgerkriege, die längsten (1321–1328) zwischen Andronikos II. Palaiologos und seinem Enkel Andronikos III. Palaiologos. Diesem Vorbild folgend, trugen ebenso Johannes V. Palaiologos und Johannes VI. Kantakuzenos mehrere Machtkämpfe (1341–1347 und 1353–1354) gegeneinander aus; dabei suchten beide Parteien die Hilfe der Nachbarn (Serben, Bulgaren, aber auch Aydın und Osmanen). Dies ermöglichte dem Serbenreich unter Stefan IV. Dušan den Aufstieg zur beherrschenden Macht des Balkans in den Jahren 1331–1355. So gerieten die Bulgaren nach der Schlacht bei Küstendil 1330 in ein Abhängigkeitsverhältnis zu Serbien, außerdem errang Stefan bis 1348 die Hegemonie über weite Teile Makedoniens, Albaniens, Despotat Epirus und Thessaliens, die zuvor unter der Suzeränität des Kaisers gestanden hatten. Mit seiner Krönung zum Zaren der Serben und Selbstherrscher der Rhōmaíoi beanspruchte dieser auch den byzantinischen Kaiserthron und die Herrschaft über Konstantinopel. Es gelang ihm aber nicht einmal, die zweite byzantinische Hauptstadt Thessaloníki zu erobern, und sein Großserbisches Reich zerfiel bereits nach seinem Tod 1355 in ein Konglomerat mehr oder weniger unabhängiger serbischer Fürstentümer (Despotate). Während also die christliche Staatenwelt des Balkans zerstritten war und sich gegenseitig befehdete, setzten sich seit 1354 die Osmanen in Europa fest und expandierten in das byzantinische Thrakien, das sie in den 1360er-Jahren großteils eroberten. Ein präventiver Schlag des südserbischen Königs Vukašin Mrnjavčević im Bund mit dem bulgarischen Zaren Iwan Schischman von Weliko Tarnowo gegen das Zentrum der osmanischen Herrschaft in Europa, Adrianopel, endete, trotz zahlenmäßiger Überlegenheit, in der Niederlage an der Mariza 1371. Der Sieg über die beiden slawischen Balkanmächte brachte dem Sultan Teile Südbulgariens, das serbische Makedonien und die Hegemonie über weite Teile des Balkans ein. Schließlich zwang er 1373 den bulgarischen Herrscher, das Supremat der Osmanen anzuerkennen. Diesem Beispiel folgten das zu einem Kleinstaat gewordene Byzanz (Konstantinopel samt Umland, Thessaloniki mit Umland, Thessalien, einige Ägäisinseln, Despotat Morea) und das Nordserbische Reich des Fürsten Lazar Hrebeljanović, der ebenfalls ein Vasall der Osmanen wurde. Mehrmals ersuchte Byzanz den Westen um Hilfe und bot dafür sogar die Kirchenunion an, so 1439 auf dem Konzil von Ferrara und Florenz, was jedoch am Widerstand der byzantinischen Bevölkerung scheiterte („Lieber den Sultansturban als den Kardinalshut“). Das Byzantinische Reich zwischen dem Serbischen Reich im Westen und dem Osmanischen Reich im Osten. Die Karte der politischen Lage des Balkans um 1355 verdeutlicht den für Byzanz katastrophalen Zusammenbruch seiner territorialen Basis durch das vollständige Wegbrechen der äußeren Peripherie von 1270. Nach der Schlacht auf dem Amselfeld 1389 und der Niederlage der westlichen Kreuzfahrer bei Nikopolis 1396 schien die Lage des Reiches aussichtslos. Erst die vernichtende Niederlage der Osmanen gegen Tamerlan, der den Byzantinern wohlgesinnt war (bei dem Versuch Konstantinopel 1402 zu belagern, erschienen Tamerlans Unterhändler in Sultans Bayezid I. Lager und forderten ihn auf, dem christlichen Kaiser seine Gebiete zurückzugeben, die er ihm „gestohlen“ habe), bei Angora 1402 und das als Resultat der Schlacht entstandene Chaos im Osmanenreich gewährten den Griechen eine letzte Atempause. Doch die Möglichkeit, den Todesstoß durch die Osmanen abzuwenden, hatte das Reich durch den Entzug der dafür notwendigen territorialen Basis und Ressourcen nicht mehr, so dass einzig der Weg der Diplomatie übrig blieb. Die Gebietsverluste gingen dennoch weiter, da sich die europäischen Mächte auf kein Hilfskonzept für das bedrohte Byzanz einigen konnten. Besonders nach 1402 sahen sie dafür keine Notwendigkeit, befand sich doch das einst potente Türkenreich scheinbar im Zustand der inneren Auflösung – durch diesen fatalen Irrtum wurde die einmalige Chance vergeben, die Gefahr, die von der beträchtlich geschwächten Osman-Dynastie ausging, für alle Zeit auszuschalten. Sultan Murad II., unter dem die Konsolidierungsphase des osmanischen Interregnums ihr Ende fand, nahm die Expansionspolitik seiner Vorfahren erneut auf. Nachdem er 1422 erfolglos Konstantinopel belagert hatte, schickte er einen Plünderungszug gegen das Despotat von Morea, die kaiserliche Sekundogenitur in Südgriechenland. 1430 annektierte er Teile des „fränkisch“ dominierten Epirus durch die Einnahme von Janina, während sich Fürst Carlo II. Tocco, als dessen Lehnsnehmer, in Arta mit dem „Rest“ abzufinden hatte (die Dynastie der Tocco wurde durch die Osmanen bis 1480 ganz aus dem heutigen Griechenland – Epirus, Ionische Inseln – verdrängt, wodurch die Herrschaft der „Franken“ über Zentralgriechenland, die seit 1204 bestand, bis auf wenige venezianische Festungen, endgültig ein Ende fand). Noch im gleichen Jahr besetzte er das seit 1423 venezianisch dominierte Thessaloníki, welches die Handelsrepublik Venedig vom Andronikos Palaiologos, einem Sohn Kaiser Manuels erworben hatte, da jener im Glauben war, die Stadt alleine gegen die Türken nicht behaupten zu können. Alsbald zog er gegen das Königreich Serbien des Fürsten Georg Branković, der formell ein Vasall der Hohen Pforte war, da sich dieser weigerte, seine Tochter Mara dem Sultan zur Frau zu geben. Die Belagerung Konstantinopels durch den türkischen Sultan Mehmed II. im Jahr 1453 Bei einer osmanischen Strafexpedition Richtung Donau wurde die serbische Festung Smederevo 1439 zerstört und Belgrad 1440 erfolglos belagert. Der osmanische Rückschlag bei Belgrad rief seine christlichen Gegner auf den Plan. Unter der Führung Papst Eugens IV., der sich mit der Kirchenunion von Florenz von 1439 am Ziel sah, wurde erneut für einen Kreuzzug gegen die „Ungläubigen“ geplant. Ungarn, Polen, Serbien, Albanien, sogar das türkische Emirat Karaman in Anatolien, gingen eine anti-osmanische Allianz ein, doch durch den Ausgang der Schlacht bei Warna 1444 unter Władysław, König von Polen, Ungarn und Kroatien, und der zweiten Schlacht auf dem Amselfeld 1448 unter dem ungarischen Reichsverweser Johann Hunyadi, zerschlugen sich endgültig alle Hoffnungen der Christen, das Byzantinische Reich vor einer osmanischen Annexion zu entsetzen. Am 29. Mai 1453, nach knapp zweimonatiger Belagerung, fiel die Reichshauptstadt an Mehmed II. Der letzte byzantinische Kaiser Konstantin XI. starb während der Kämpfe um die Stadt. Der 29. Mai gilt auch heute noch bei den Griechen als Unglückstag, denn es begann die lange türkische Fremdherrschaft, während der nach teilweiser Sprachübernahme nur die Religion als bindende Kraft erhalten blieb. Die Anfangs- und Enddaten der Unabhängigkeit der Hauptstadt, 395 und 1453, galten lange auch als zeitliche Grenzen des Mittelalters. In der Folge wurden auch die verbliebenen Staaten byzantinischen Ursprungs erobert: das Despotat Morea 1460, das Kaiserreich Trapezunt 1461 und das Fürstentum Theodoro 1475. Lediglich Monemvasia unterstellte sich 1464 dem Protektorat von Venedig, das die Stadt bis 1540 gegen die Türken zu halten vermochte. Die Stadt stellte staatsrechtlich das dar, was vom „Römischen Reich“ im Lauf der Jahrhunderte übrig blieb. Der Fall von Byzanz war einer der Wendepunkte von weltgeschichtlicher Bedeutung. Das Byzantinische Reich, das sich als eines der langlebigsten der Weltgeschichte erwiesen hatte, war damit politisch untergegangen; mit ihm ging eine über 2000-jährige Ära zu Ende. Aufgrund der Eroberung des Byzantinischen Reiches und Blockade des Bosporus sowie des Landwegs nach Asien durch die osmanischen Türken begann allerdings eine neue Ära, die das Zeitalter der Entdeckungen und der Renaissance (begünstigt durch byzantinische Gelehrte, die nach dem Fall von Konstantinopel nach Westeuropa emigrierten) einleitete. Demographische Verhältnisse. Das Byzantinische Reich war ein polyethnischer Staat, der außer Griechen auch Armenier, Illyrer und Slawen, in frühbyzantinischer Zeit auch Syrer und Ägypter sowie stets eine jüdische Minderheit einschloss. Die meisten Gebiete, über die er sich erstreckte, waren seit Jahrhunderten hellenisiert, also dem griechischen Kulturkreis angeschlossen. Hier lagen bedeutende Zentren des Hellenismus wie Konstantinopel, Antiochia, Ephesos, Thessaloníki und Alexandria, und hier bildete sich auch die orthodoxe Form des Christentums heraus. Athen blieb weiterhin wichtiges Kulturzentrum, bis Kaiser Justinian 529 die dortige neuplatonische Schule der Philosophie verbieten ließ. Anschließend verschoben sich die demographischen Verhältnisse, da die neben der Hauptstadt wirtschaftlich und militärisch bedeutsamsten Gebiete die orientalischen Provinzen des Reiches waren. Als diese verloren gingen, spielte Kleinasien eine wichtige Rolle, erst seit dem Frühmittelalter auch wieder der Balkan. Als Kleinasien nach 1071 teilweise und im 14. Jahrhundert endgültig an türkische Invasoren fiel, begann der Niedergang von der Groß- zur Regionalmacht und schließlich zum Kleinstaat. Verfassungs-, Wirtschafts- und Kulturgeschichte. Das Byzantinische Reich besaß – im Gegensatz zu den meisten anderen Reichen des Mittelalters – auch nach dem Einfall der Araber noch lange eine recht straff organisierte Bürokratie, deren Zentrum Konstantinopel war. Daher konnte Ostrogorsky von einem "Staat" im modernen Sinne sprechen. Das Reich verfügte neben einem effizienten Verwaltungsapparat auch über ein organisiertes Finanzwesen sowie über eine stehende Armee. Kein Reich westlich des Kaiserreichs China konnte etwa über so große Beträge verfügen wie Byzanz. Zahlreiche Handelsrouten verliefen durch byzantinisches Gebiet und Konstantinopel selbst fungierte als ein wichtiger Warenumschlagsplatz, wovon Byzanz erheblich profitierte, etwa durch den Ein- und Ausfuhrzoll "(kommerkion)." Die wirtschaftliche Kraft und Ausstrahlung von Byzanz war so groß, dass der goldene Solidus zwischen dem 4. und 11. Jahrhundert die Leitwährung im Mittelmeerraum war. Der Kaiser wiederum herrschte de facto fast uneingeschränkt über Reich (das sich immer noch dem Gedanken der Universalmacht verpflichtet fühlte) und Kirche, und dennoch war in keinem anderen Staat eine so große Aufstiegsmöglichkeit in die Aristokratie gegeben wie in Byzanz. Nur Byzanz, so die zeitgenössische Vorstellung, war die Wiege des „Wahren Glaubens“ und der Zivilisation. In der Tat war das kulturelle Niveau in Byzanz zumindest bis ins Hochmittelalter hinein höher als in allen anderen Reichen des Mittelalters. Dabei spielte auch der Umstand eine Rolle, dass in Byzanz wesentlich mehr vom antiken Erbe bewahrt wurde als in Westeuropa; ebenso war der Bildungsstandard lange Zeit höher als im Westen. In weiten Teilen ist nur wenig über das „Neue Rom“ bekannt. Relativ wenige Aktenstücke sind überliefert, und in Teilen schweigt auch die byzantinische Geschichtsschreibung, die in der Spätantike mit Prokopios von Caesarea einsetzte und im Mittelalter mit Michael Psellos, Johannes Skylitzes, Anna Komnena und Niketas Choniates über einige bedeutende Vertreter verfügte (siehe dazu Quellenüberblick). Wenngleich für einige Zeiträume nur „kirchliche“ Quellen zur Verfügung stehen, darf dies nicht zu der Annahme verleiten, Byzanz sei ein theokratischer Staat gewesen. Die Religion war wohl oft bestimmend, aber die Quellenlage ist in Teilen und besonders für die Periode vom 7. bis 9. Jahrhundert zu dürftig, um ein klares Bild zu erhalten. Umgekehrt hat sich die Forschung auch von der Vorstellung eines byzantinischen Cäsaropapismus, in dem der Kaiser fast absolut über die Kirche geherrscht habe, verabschiedet. Kulturelles Fortwirken. Nach dem Fall Konstantinopels 1453 brachten Flüchtlinge aus Byzanz, darunter zahlreiche Gelehrte, ihr naturwissenschaftlich-technisches Wissen und die alten Schriften der griechischen Denker in die westeuropäischen Städte und trugen dort maßgeblich zur Entfaltung der Renaissance bei. Am längsten bestand die byzantinische Kultur auf dem damals venezianischen Kreta fort, die als sogenannte „Byzantinische Renaissance“ in die Geschichte einging. Diese Reste autonomer hellenistisch-byzantinischer Kultur wurden mit der Eroberung der Insel durch die Osmanen 1669 beendet. Bis heute wirkt die byzantinische Kultur vor allem im Ritus der östlich-orthodoxen Kirchen fort. Durch byzantinische Missionsarbeit verbreitete sich das orthodoxe Christentum bei vielen slawischen Völkern und ist bis in die Gegenwart die vorherrschende Konfession in Osteuropa und Griechenland, in Teilen von Südosteuropa und Kaukasien sowie bei den meisten arabischen Christen. Die byzantinische Kultur und Denkweise hat alle orthodoxen Völker tief geprägt. Die slawischen Reiche auf dem Balkan und am Schwarzen Meer übernahmen neben der orthodoxen Kirche auch profane byzantinische Bräuche. Vor allem Russland, Serbien, die Ukraine und Weißrussland, aber auch in etwas kleinerem Maße Bulgarien sollten das Erbe des Byzantinischen Reiches fortführen. Schon im 9. Jahrhundert kamen die Rus mit Byzanz in Kontakt, wodurch sich – trotz immer wiederkehrender Versuche von Seiten der Rus, Konstantinopel zu erobern – intensive wirtschaftliche und diplomatische Beziehungen zwischen dem Byzantinischen Reich und dem Reich der Kiewer Rus entwickelten, die 988 zum Übertritt der Rus zum orthodoxen Glauben führten. In den folgenden Jahrhunderten wurden auf ostslawischem Gebiet zahlreiche prachtvolle Kirchen nach byzantinischem Vorbild gebaut. So hat russische Architektur und Kunst neben (meist späteren) skandinavischen und ursprünglich slawischen vor allem byzantinische Wurzeln. Dasselbe betrifft in vollem Maße auch die Architektur und die Kunst der Ukraine und Weißrusslands. Nach dem Untergang des Byzantinischen Reichs übernahm dann das russische Moskowiterreich in vielen Teilen byzantinisches Zeremoniell. Der Patriarch von Moskau errang bald eine Stellung, deren Bedeutung der des Patriarchen von Konstantinopel ähnelte. Als wirtschaftlich mächtigste orthodoxe Nation betrachtete sich Russland bald als "Drittes Rom" in der Nachfolge Konstantinopels. Iwan III., Herrscher des Großfürstentums Moskau, heiratete die Nichte von Konstantin XI., Zoe, und übernahm den byzantinischen Doppeladler als Wappentier. Iwan IV., genannt „der Schreckliche“, war der erste moskowitische Herrscher, der sich schließlich offiziell zum "Zaren" krönen ließ. Aber auch die osmanischen Sultane betrachteten sich als legitime Erben des Byzantinischen Reiches, obwohl die seldschukischen und osmanischen Türken jahrhundertelang Erzfeinde der Rhomäer waren und das Byzantinische Reich letztlich erobert hatten. Schon Sultan Mehmed II. bezeichnete sich als „Kayser-i Rum“ (Kaiser von Rom) – die Sultane stellten sich somit ganz bewusst in die Kontinuität des (Ost-)Römischen Reiches, um sich zu legitimieren. Das Osmanische Reich, das sich in der Auseinandersetzung mit Byzanz entwickelte, hatte mit diesem mehr als nur den geografischen Raum gemeinsam. Der Historiker Arnold J. Toynbee bezeichnete das Osmanische Reich – allerdings sehr umstritten – als Universalstaat des „christlich-orthodoxen Gesellschaftskörpers“. Eine staatsrechtliche Fortsetzung fand das Byzantinische Reich in ihm jedenfalls nicht. Nicht zuletzt lebt das kulturelle und sprachliche Erbe von Byzanz in den heutigen Griechen fort, vor allem im modernen Griechenland und auf Zypern sowie in der griechisch-orthodoxen Kirche (vor allem auch im Patriarchat von Konstantinopel in Istanbul). Bis zum Anfang des 20. Jahrhunderts deckte sich das griechische Siedlungsgebiet zudem noch in weiten Teilen mit den byzantinischen Kernländern. Militär. Byzanz verfügte während seiner gesamten Geschichte über ein stehendes Heer, ganz im Gegensatz zu den mittelalterlichen Reichen in Europa. Das römische Heerwesen der Spätantike wurde in der mittelbyzantinischen Zeit vollkommen neu organisiert. In der zweiten Hälfte des 7. Jahrhunderts entstanden feste Militärdistrikte (siehe Thema (byzantinische Verwaltung)), die lange Zeit die Eckpfeiler der byzantinischen Verteidigung gegen äußere Feinde darstellten. Heer und Flotte zerfielen in je eine Zentraleinheit in der Hauptstadt und die in den Provinzen (Themen) stationierten örtlichen Truppen, wobei die vier großen Themenarmeen des 7./8. Jahrhunderts wohl je ca. 10.000 Mann umfasst haben dürften. Insgesamt erwies sich die byzantinische Armee als eine recht effektive Streitmacht (freilich abhängig von den jeweiligen Befehlshabern und Logistik), deren Gesamtstärke aber nur ungefähr schätzbar ist. Im 7. Jahrhundert dürfte sie bei rund 100.000 Mann gelegen haben, im 8. Jahrhundert bei ca. 80.000 Mann und um 1000 bei ca. 250.000 Mann. Allerdings verlor die byzantinische Armee im Laufe der Zeit an Schlagkraft, vor allem ab dem 13. Jahrhundert erwiesen sich die Truppen nicht mehr in der Lage, der äußeren Bedrohung effektiv standzuhalten. Byzanz hatte zu dieser Zeit keine ausreichenden finanziellen Mittel mehr und musste sich zudem stark auf Söldner stützen, was die Lage noch einmal verschlimmerte. Mit dem Verlust zentraler Gebiete (vor allem in Kleinasien an die Türken) schrumpfte auch die byzantinische Armee immer mehr zusammen und wurde zu einer marginalen Größe. Die byzantinische Marine, die in mittelbyzantinischer Zeit noch eine wichtige Rolle gespielt hatte, existierte in spätbyzantinischer Zeit kaum noch. Rezeption. Die ältere, westliche Forschungsmeinung sah in Byzanz oft nur eine dekadente, halborientalische „Despotie“, so etwa Edward Gibbon. Dieses Bild wurde durch John Bagnell Bury, Cyril Mango, Ralph-Johannes Lilie, John Haldon und andere längst verworfen. Es wird inzwischen immer darauf hingewiesen, dass Byzanz als Vermittler von kulturellen Werten und dem Wissen der Antike Unschätzbares geleistet hat. Es war zudem der „Schutzschild“ Europas über viele Jahrhunderte hinweg, erst gegenüber den Persern und Steppenvölkern, später gegenüber dem Islam. Ironischerweise konnte das Byzantinische Reich diese Funktion erst nach der verheerenden Plünderung Konstantinopels durch die Kreuzfahrer im Jahr 1204 nicht mehr wahrnehmen. Quellenüberblick. Die erzählenden Quellen stellen das Grundgerüst der byzantinischen Geschichte dar, zumal nur wenige Aktenstücke den Untergang von Byzanz überdauert haben. Für die spätantike Phase des Reiches sind vor allem Ammianus Marcellinus (der noch Latein schrieb), Olympiodoros von Theben, Priskos, Malchos von Philadelphia, Zosimos sowie Prokopios von Kaisareia zu nennen. An Letzteren schlossen Agathias und diesen Menander Protektor an. Als das letzte Geschichtswerk der Antike können die von Theophylaktos Simokates verfassten "Historien" angesehen werden. In mittelbyzantinischer Zeit entstanden bis Ende des 8./Anfang des 9. Jahrhunderts zwar anscheinend auch Geschichtswerke (Traianos Patrikios), doch sind diese nicht erhalten. Sie wurden aber von den Chronisten Nikephoros und Theophanes benutzt. An Theophanes schlossen der sogenannte Theophanes Continuatus an, daneben entstanden im 10. Jahrhundert die sogenannte "Logothetenchronik" sowie das Geschichtswerk des Leon Diakonos. Auch regionale Chroniken wie die Chronik von Monemvasia sind zu nennen. Im 11. Jahrhundert schrieben Michael Psellos und Johannes Skylitzes. Im 12. Jahrhundert unter anderem Anna Komnena und Johannes Kinnamos. Für die nachfolgende Zeit ist unter anderem Niketas Choniates, Georgios Akropolites, Theodoros Skutariotes und Georgios Pachymeres von Bedeutung. Über die letzten Jahre des Reiches berichten Laonikos Chalkokondyles, Doukas, Georgios Sphrantzes sowie Michael Kritobulos. Daneben ist eine Vielzahl von hagiographischen Werken zu nennen, ebenso sind die diversen Fachschriften – etwa im medizinischen, administrativen (Philotheos) oder militärischen Bereich sowie das wichtige mittelbyzantinische Lexikon "Suda" –, Siegel, Münzen und archäologische Befunde von großer Bedeutung. Literatur. Bezüglich aktueller bibliografischer Informationen sei vor allem auf die "Byzantinische Zeitschrift" hingewiesen. Daneben siehe unter anderem die Hinweise im "Jahrbuch der Österreichischen Byzantinistik." Eine der wichtigsten Forschungsinstitutionen der Byzantinistik stellt die "Dumbarton Oaks Research Library and Collection" dar (siehe auch Dumbarton Oaks Papers). Björk. Björk Guðmundsdóttir (* 21. November 1965 in Reykjavík) ist eine isländische Sängerin, Musikproduzentin, Komponistin, Songwriterin und Schauspielerin mit einem breiten Interesse an unterschiedlichen Arten von Musik, unter anderem Popmusik, Elektronische Musik, Trip-Hop, Alternative Rock, Jazz, Folk-Musik und Klassischer Musik. Bislang hat sie weltweit über 20 Millionen Alben verkauft. Kindheit und Jugend. Björk wurde am 21. November 1965 als Tochter von "Hildur Rúna Hauksdóttir" und "Guðmundur Gunnarsson" geboren. Ab 1970 besuchte sie die Musikschule "Barnamúsíkskóli Reykjavíkur", auf der sie zehn Jahre lang u. a. in Gesang, Klavier und Flöte unterrichtet wurde. Frühe Karriere. Im Alter von elf Jahren erlernte Björk an der Grundschule das Klavierspiel. Einer der Lehrer sandte eine Aufnahme, auf der sie das Lied „I Love To Love“ von Tina Charles singt, an den isländischen Radiosender „Radio One“. Während der Ausstrahlung der Aufnahme in ganz Island wurde ein Mitarbeiter des isländischen Plattenverlegers Fálkinn auf Björk aufmerksam und bot ihr daraufhin einen Vertrag an. Mit Hilfe ihres Stiefvaters, der Gitarre spielte, nahm sie 1977 ihr erstes Album auf, das einfach nur "Björk" heißt. Es enthielt verschiedene isländische Kinderlieder und Coverversionen populärer Titel wie z. B. „Fool on the Hill“ von den Beatles (auf isländisch „Álfur Út Úr Hól“). Das Album wurde ein großer Erfolg in Island, blieb außerhalb der Insel aber unbeachtet. Schon bald begann Björk sich für Punk-Musik zu interessieren. Mit 14 gründete sie eine Mädchen-Punkgruppe „Spit and Snot“, der 1979 die Fusionjazz-Gruppe „Exodus“ folgte. 1980 verließ sie die Musikschule und gründete im Jahr 1981 zusammen mit Jakob Magnússon, dem Bassisten von „Exodus“, die Gruppe Tappi Tíkarrass. Im selben Jahr veröffentlichten sie die Single "Bitið fast í vitið", zwei Jahre später das erste Album, "Miranda". Danach arbeitete sie mit den Musikern Einar Örn Benediktsson und Einar Melax von der Musikgruppe Purrkur Pillnikk und Guðlaugur Óttarsson, Sigtryggur Baldursson und Birgir Mogensen von Þeyr. Nachdem sie Lieder geschrieben und geprobt hatten, nannten sie sich KUKL, was auf Isländisch soviel wie „Hexerei“ bedeutet. Sie fanden sehr schnell ihren eigenen Klang, den man am ehesten mit Gothic vergleichen könnte. Schon bei KUKL begann Björk, ihren unverkennbaren Gesangsstil zu entwickeln. KUKL tourten mit der englischen Anarcho-Punk-Gruppe Crass durch Island, besuchten später England und 1984 oder 1985 West-Berlin, wo sie in einem Veranstaltungslokal namens NOX vor 20 Zuschauern und später in einem besetzten Haus auftraten. Max Goldt beschreibt diese Auftritte in einem seiner Bücher ausführlich. KUKL traten auch mit der Band Flux of Pink Indians auf. Aus dieser Zusammenarbeit gingen die zwei Alben "The Eye" (1984) und "Holidays in Europe" (1986, beide bei Crass Records) hervor. So lernten sie auch Derek Birkett (Bassist bei Flux) und Tim Kelly (Gitarre) kennen, die 1985 das Label One Little Indian Records gründeten. Im Sommer 1986 formten Björk und einige Mitglieder von KUKL eine neue Gruppe namens Pukl, die schon bald in The Sugarcubes umbenannt wurde. Popularität. Die erste Single der Sugarcubes, „Ammæli“ („Geburtstag“), wurde gleich ein großer Erfolg in England, und die Gruppe erlangte in den USA und England schnell Kultstatus. Bald darauf folgten auch Anrufe von Plattenfirmen. Die Gruppe unterschrieb bei One Little Indian in England und bei Elektra Records in den Vereinigten Staaten und nahm 1988 ihr erstes Album, "Life's Too Good", auf. Das Album brachte den Sugarcubes innerhalb kurzer Zeit internationale Bekanntheit. Damit waren sie die erste isländische Band, die weltweit populär wurde. Während der Zeit bei den Sugarcubes arbeitete Björk an verschiedenen anderen Projekten. Auf dem Album "Gling-Gló", das in Island veröffentlicht wurde, nahm sie zusammen mit der Bebop-Gruppe Trio Guðmundar Ingólfssonar eine Sammlung von populären Jazz-Stücken in isländischer Sprache auf, z. B. Ó Pabbi Minn (O mein Papa) oder Ég veit ei hvað skal segja. 1991 sang sie ein Lied auf dem "Island"-Album von Current 93 und Hilmar Örn Hilmarsson alias "HÖH". Zudem lieferte sie den Gesang zum Album "Ex:El" von 808 State. Mit dieser Zusammenarbeit wuchs ihr Interesse an House-Musik. Als sich 1992 zwischen Björk und Einar Örn Spannungen aufbauten, entschlossen sie sich dazu, getrennte Wege zu gehen. Björk zog nach London und dachte über eine Solokarriere nach. Sie begann mit Nellee Hooper zusammenzuarbeiten, der schon Alben für Musikgruppen wie z. B. Massive Attack produziert hatte. Mit ihm zusammen produzierte sie ihren ersten internationalen Soloerfolg „Human Behaviour“, dem im Juni 1993 ihr Soloalbum-Debüt folgte, das den schlichten Namen „Debut“ trug und von den Kritikern sehr gut aufgenommen wurde. Vom New Musical Express als „Album des Jahres“ betitelt, erreichte es in den Vereinigten Staaten Platin-Status. Es enthält sowohl Lieder, die Björk schon als Jugendliche geschrieben hatte, als auch solche, die zusammen mit Hooper entstanden. Der Erfolg von "Debut" veranlasste Björk dazu, verstärkt mit anderen Künstlern zusammenzuarbeiten, z. B. mit David Arnold am Track „Play Dead“, der im Film "The Young Americans" als Titelmusik verwendet wurde. 1994 kehrte sie zurück ins Studio, um an ihrem nächsten Album zu arbeiten. Diesmal halfen ihr Nellee Hooper, Tricky, Graham Massey von 808 State und der Produzent elektronischer Musik Howie B. Das Album "Post" enthält vorwiegend Songs, die von Liebe und Beziehungen handeln, darunter auch wütende und konfrontative Tracks. Wie schon diejenigen von "Debut" waren auch die Songs von "Post" teilweise schon Jahre zuvor geschrieben worden. Des Weiteren schrieb Björk das Lied „Bedtime Story“ für Madonnas Album "Bedtime Stories". Madonna hätte gern Material für ein ganzes Album gehabt, Björk lehnte dies jedoch ab. Auch deren Einladung lehnte Björk mit der Begründung ab, dass ein Zusammentreffen zufällig und nicht unter verkrampften Umständen stattfinden sollte. 1995 war das Album "Post" fertiggestellt; es erschien im Juni, erreichte Platz 2 in den britischen Charts und in den Vereinigten Staaten wiederum Platin-Status. 1996 wurde das Remix-Album "Telegram" veröffentlicht, das uncharakteristische Remixe von "Post" enthielt. Für die Fotos von "Telegram" arbeitete Björk das erste Mal mit ihrem Lieblingsfotografen, dem Japaner Nobuyoshi Araki, zusammen. Dies war insofern ungewöhnlich, als Araki normalerweise nur Asiaten fotografiert. Er machte für Björk eine Ausnahme, nachdem diese ihm einen leidenschaftlichen Brief geschrieben hatte. 1997 stellte Björk in Spanien ihr Album "Homogenic" fertig. Sie arbeitete dafür mit Mark Bell von LFO, Eumir Deodato und Howie B zusammen. In stilistischer Hinsicht ist es ein sehr extrovertiertes Album, das eine emotionale Seite von Björk preisgibt. Auch ihre starke Verbundenheit zu Islands Landschaft und Natur wird von ihrer Musik nachgezeichnet. "Homogenic" erreichte 2001 in den Vereinigten Staaten Gold-Status. 2001 erschien das Album "Vespertine", stilistisch nun wieder sehr introvertiert. Björk benutzt hier komplexe Rhythmen, Inuit-Chöre, Klänge der Experimentalgruppen Matmos und Oval, von Thomas Knak aus Dänemark, der Harfenspielerin Zeena Parkins und auch eines Kammerorchesters. Als Inspirationsquelle dienten die Texte des amerikanischen Dichters E. E. Cummings und die Arbeiten des unabhängigen Filmemachers Harmony Korine. Aus dem Album gingen drei Singles hervor: „Hidden Place“, „Pagan Poetry“ und „Cocoon“. Da die Videos dieser Singles (vor allem das von „Pagan Poetry“) einige kontroverse Bilder (u. a. Björk halbnackt) zeigten, mussten diese teilweise zensiert werden, um in den USA gespielt werden zu können. Das Video zu „Cocoon“ wurde dort erst gar nicht ausgestrahlt. "Family Tree", eine Art „Greatest Hits-Box“, erschien 2003 und enthielt CDs und DVDs, welche die verschiedenen Schaffensphasen aus den ersten zehn Jahren ihrer Solokarriere nachzeichneten. Im August des Jahres 2004 erschien dann das Album "Medúlla". Nach Björks Angaben war das Ziel, von den klanglich immer epischer werdenden Vorgängeralben auf den absoluten Kern („Medúlla“ bedeutet Mark eines Organs, z. B. Knochenmark) der Musik zu stoßen: die menschliche Stimme. Mitten in den Arbeiten am Album entschloss sich Björk folgerichtig dazu, dass es am besten sei, wenn die einzelnen Lieder nur aus Gesang bestehen; daher entfernte sie fast die komplette Instrumentierung aus den vorherigen Aufnahmen. Als Vokalisten lud sie unter anderem Hip-Hop-Beatbox-Künstler Rahzel, Mike Patton (Faith No More) und Robert Wyatt zur Mitwirkung ein. Selbst Außergewöhnliches wie Inuit-Kehlkopfgesang wurde in die Lieder integriert. Für die Texte ließ sie sich wiederum von E. E. Cummings inspirieren (Lied "Sonnets/Unrealities XI"). Im August 2004 sang Björk während der Eröffnungszeremonie der Olympischen Sommerspiele 2004 in Athendas Lied „Oceania“ vom Album "Medúlla". Wie gewohnt war der Auftritt eher unkonventionell. Während sie sang, entfaltete sich ihr Kleid zu einem 900 m² großen Tuch, auf dem eine Weltkarte zu sehen war. Die Karte wurde über alle Athleten ausgebreitet. Kurz nach den Olympischen Spielen wurde das Lied "Oceania" als Radio-Single veröffentlicht. Zudem zirkulierte im Internet eine leicht abgeänderte Version des Songs, auf der zusätzlich Gesang von Kelis zu hören ist (diese Version des Liedes wurde später auf der Single „Who Is It?“ kommerziell veröffentlicht). Nach der Tsunami-Katastrophe in Südostasien startete Björk das Projekt „Army of Me-Xes“, in dem sie ihre Fans und Musiker dazu aufrief, den Erfolg „Army of Me“ von 1995 zu remixen. Mit den ihrer Meinung nach 20 besten der insgesamt 600 Einsendungen wurde ein neues Album veröffentlicht. Der Erlös des Albums kam UNICEF zugute. 2005 erschien mit „The Music from 'Drawing Restraint 9'“ ein Soundtrack, den Björk für den gleichnamigen Film ihres ehemaligen Lebensgefährten Matthew Barney komponiert hatte. Das Album besteht hauptsächlich aus Liedminiaturen, die mit Gesang konterkariert werden. Im Mai 2007 erschien dann ihr sechstes Studioalbum Volta. Ende 2008 hatte sie einen Gastauftritt in der isländischen Comedyserie "Dagvaktin", mit Jón Gnarr in der Hauptrolle. Am 7. Oktober 2011 erschien das Studioalbum "Biophilia" in Deutschland (europaweiter Start war der 10. Oktober bzw. 11. Oktober in Nordamerika), das von einem Multimediapaket aus Apps, Installationen, Live-Shows, Workshops, speziell angefertigten Instrumenten, einer Filmdokumentation und einer Website mit 3D-Animationen begleitet wird. Daraus sind zuvor die Single-Auskopplungen "Cosmogony" und "Crystalline" veröffentlicht worden. "Crystalline" erschien außerdem als Remix-EP in Zusammenarbeit mit dem syrischen Dabke-Musiker Omar Souleyman. Die EP enthält zusätzlich die beiden Titel "Mawal" und "Tesla". "Biophilia" soll eine dreijährige Welttournee folgen, während der Björk in nur acht Städten für jeweils sechs Wochen auftreten will. Björk in Filmen. Björk im Jahr 2000 bei den Filmfestspielen von Cannes Bereits im Jahr 1990 spielte sie in dem Film "Juniper Tree" mit, der ein Märchen der Brüder Grimm erzählt. 1994 hatte sie einen Cameo-Auftritt in Prêt-à-Porter. 1999 wurde ihr angeboten, die Filmmusik zu "Dancer in the Dark" zu schreiben. Daraufhin bot ihr Lars von Trier auch die Hauptrolle der Selma an. Björk wollte sich schon seit ihrer Kindheit an einem Musical beteiligen, weigerte sich aber lange, die Rolle anzunehmen. In einem Interview sagte sie, sie sei stur und könne auch noch zehn Jahre lang nein sagen. Schließlich gestand sie aber ein, sich in Selma verliebt zu haben und aus tiefstem Herzen zu empfinden, dass Selma gehört werden müsse. Ohne eine fundierte schauspielerische Ausbildung absolviert zu haben, gelang Björk schließlich eine preisgekrönte Leistung, indem sie, wie sie sagte, bei den Dreharbeiten selbst zu Selma wurde. Lars von Trier dazu: "„It was not acting, it was feeling.“ (dt.: „Das war keine Schauspielerei, das war Einfühlung“)" Beim Cannes Film Festival 2000 erhielt sie die Auszeichnung für die beste Darstellerin, ebenso bei der Verleihung des Europäischen Filmpreises im selben Jahr. Als beste Darstellerin in einem Drama war sie außerdem für einen Golden Globe nominiert. Der Soundtrack zum Film erschien unter dem Titel „Selmasongs“. Das Stück „I've Seen It All“ erhielt jeweils eine Golden-Globe- und Oscar-Nominierung in der Kategorie Bester Filmsong. Nach der kräftezehrenden Rolle der Selma wollte Björk eigentlich in keinem Film mehr mitspielen. Später nahm sie für den Experimentalfilm Drawing Restraint 9 ihres ehemaligen Lebensgefährten Matthew Barney dennoch eine Rolle an; auch der Soundtrack stammt von ihr. Am 27. Juni 2013 wurde auf dem britischen Channel 4 der 60-minütige Dokumentarfilm "The Nature of Music" mit David Attenborough gezeigt. Person. Björk wird gewöhnlich nur bei ihrem Vornamen genannt. Dies ist nicht unüblich in Island, wo Familiennamen Ausnahme und Vatersnamen die Regel sind – "Guðmundsdóttir" bedeutet „Guðmundurs Tochter“. Sie war nicht nur künstlerisch, sondern auch privat einige Zeit mit dem britischen Musiker Tricky liiert. Darauf folgte eine Affäre mit dem britischen Musiker Goldie. Björk ist zweifache Mutter. Mit dem ehemaligen Gitarristen der Sugarcubes, Þór Eldon Jónsson, mit dem sie in den 1980er Jahren zusammenlebte, hat sie einen Sohn (* 8. Juni 1986). Mit ihrem ehemaligen Lebensgefährten, dem US-amerikanischen Medienkünstler Matthew Barney, hat sie eine Tochter (* 3. Oktober 2002). Auf ihrem Album "Vulnicura" (2015) thematisierte sie die Trennung von Matthew Barney. Björk hat mit der Risikoinvestmentgesellschaft Auður Capital zusammen einen Fonds aufgelegt, mit dem Spenden zur Rettung der Volkswirtschaft ihres Heimatlandes gesammelt wurden. Im Jahr 2000 schlug der damalige isländische Premierminister Davíð Oddsson vor, Björk die isländische Insel Elliðaey zu schenken, um ihr auf diese Art und Weise für ihren Beitrag zur Steigerung des internationalen Rufs Islands zu danken. Allerdings zog er seinen Vorschlag nach lokalen Protesten zurück. Björk vertritt feministische Positionen. Sie sagt: Sie selbst hat immer wieder sexistische Anwürfe erfahren, indem ihr mehrfach die Autorenschaft an ihrer Musik abgesprochen wurde. Den Koproduzenten "Arca", den Björk zur Arbeit am Album "Vulnicura" hinzugezogen hatte, bezeichnete die Musikpresse irrtümlich als "sole producer", als alleinigen Produzenten des Albums. Damit stellte die Presse die Autorenschaft von Björk an ihrer Musik infrage – ein Verhalten, was bei Musikern wie Kanye West, der nicht nur mit "Arca," sondern einer ganzen Reihe anderer Produzenten zusammenarbeitet, keinesfalls vorkomme und dadurch sexistisch sei. Ähnlich verlief die Fehlzuschreibung der Credits bei Björks Album Vespertine: Björk arbeitete drei Jahre lang an der Produktion des Albums. Matmos fügten in den letzten Wochen noch etwas Perkussion hinzu und wurden anschließend als alleinige Produzenten des Albums bezeichnet. Trotz des Dementis von Matmos wäre das tatsächliche Ausmaß von Björks Autorenschaft und Produzentinnentätigkeit von der Musikpresse nicht wahrgenommen worden. Als direkte Reaktion auf diese Vorkommnisse startete Antye Greie-Ripatti eine Visibility-Kampagne für elektronische Musikerinnen bzw. Produzentinnen und kuratiert diese. Bundesminister (Deutschland). In Deutschland leitet ein Bundesminister ein Bundesministerium in eigener Verantwortung im Rahmen der Richtlinien des Bundeskanzlers. Gemeinsam mit dem Bundeskanzler bilden die Bundesminister die Bundesregierung. Regelungen. Bundesminister werden auf Vorschlag des Bundeskanzlers vom Bundespräsidenten ernannt und entlassen. Die Minister werden bei der Amtsübernahme vor dem Bundestag auf das deutsche Grundgesetz vereidigt. Sie können, müssen aber nicht, Mitglied des Bundestages sein. Sie dürfen (gem. Grundgesetz und des Bundesministergesetzes) während ihrer Amtszeit keine weiteren beruflichen Tätigkeiten ausüben. Ihr Amt endet mit der Entlassung durch den Bundespräsidenten auf Vorschlag des Bundeskanzlers sowie mit jeder Beendigung des Amtes des Bundeskanzlers. Nicht gesetzlich geregelt ist ein Erfordernis der deutschen Staatsbürgerschaft für die Amtsübernahme. Amtsbezüge. Laut § 11 des Bundesministergesetzes erhalten Bundesminister Amtsbezüge „in Höhe von Eineindrittel des Grundgehalts der Besoldungsgruppe B 11, dies entspricht etwa Brutto 15.000 Euro monatlich, einschließlich zum Grundgehalt allgemein gewährter Zulagen“. Ein ausgeschiedenes Mitglied der Bundesregierung hat Anspruch auf ein Ruhegehalt, „wenn es der Bundesregierung mindestens vier Jahre angehört hat“ (wobei Zeiten im Amt des Parlamentarischen Staatssekretärs und „vorausgegangene Mitgliedschaft in einer Landesregierung“ berücksichtigt werden), oder wenn es durch Abwahl oder Rücktritt des Bundeskanzlers aus dem Amt scheidet. Amtseid. Der Eid kann auch ohne religiöse Beteuerung geleistet werden. Weibliche Form der Amtsbezeichnung. In den 1990er Jahren erreichte die damalige Familien- und Frauenministerin Ursula Lehr, dass die Amtsbezeichnung bei weiblichen Amtsinhabern „Ministerin“ wurde. Bis dahin war nur die männliche Bezeichnung vorgesehen. Erster weiblicher Minister war Elisabeth Schwarzhaupt (Gesundheitsminister im Kabinett Adenauer IV (14. November 1961 bis 13. Dezember 1962), im Kabinett Adenauer V, im Kabinett Erhard I und im Kabinett Erhard II). Das zweite von einer Frau geführte Ministerium war ab dem 16. Oktober 1968 das 'Ministerium für Familie und Jugend' (Minister wurde Aenne Brauksiepe). 1969 wurden diese beiden Ministerien zusammengelegt (von Willy Brandt, siehe Kabinett Brandt I). Dieses Ministerium ist – abgesehen von einer Ausnahme (Heiner Geißler, 1982–1985) – seitdem (Stand 2/2014) von einer Frau geführt. Während der Zeit des Kabinett Schmidt II hatten zum ersten Mal zwei Frauen je ein Ministeramt inne. Von 1987 bis 1991 (Kabinett Kohl III) waren zum ersten Mal eine ganze Legislaturperiode lang zwei Ministerien stets von Frauen geführt. Liste der byzantinischen Kaiser. 324–337) gilt als erster byzantinischer Kaiser. Diese Liste der byzantinischen Kaiser bietet einen systematischen Überblick über die Herrscher des Byzantinischen Reiches. Sie enthält alle Kaiser von Konstantin dem Großen (306–337), der nach der Erringung der Alleinherrschaft im Römischen Reich ab 324 die neue Kaiserresidenz Konstantinopel errichten ließ und ab diesem Zeitpunkt als erster byzantinischer Kaiser gilt, bis Konstantin XI. Palaiologos, der Konstantinopel 1453 an die Osmanen verlor. In der Forschung werden die Herrscher der spätantik-frühbyzantinischen Phase des Reiches (bis Herakleios 641), in der noch Latein die Hof- und Verwaltungssprache war, in der Regel auch als oströmische Kaiser bezeichnet und zumindest bis zu Justinian I. noch zu den römischen Kaisern gezählt. Nicht zu den byzantinischen Kaisern werden die von 284 bis 324 im Osten des Reiches regierenden Tetrarchen Diokletian, Galerius, Maximinus Daia und Licinius gerechnet. Für die Zeit zwischen 1204 und 1261, als Konstantinopel als Lateinisches Kaiserreich von den Kreuzfahrern beherrscht wurde, werden die Herrscher des Kaiserreiches Nikaia als byzantinische Kaiser geführt. Die Herrscher des Kaiserreiches Trapezunt (1204–1461) aus der Dynastie der Komnenen gelten nicht als byzantinische Kaiser. Erläuterungen. Die nachstehende Liste führt neben den Porträts der Kaiser ihre im deutschen Sprachraum üblicherweise verwendeten Namen, ihre vollständigen Namen (ohne Titulatur), ihre Regierungszeit (bei Usurpatoren und Thronprätendenten: Zeit ihres Herrschaftsanspruchs) und unter Anmerkungen etwaige Besonderheiten auf. Für die frühbyzantinische Zeit wird bei originär griechischen Namen der griechischen Version der Vorzug gegeben (Beispiel: Zenon), es sei denn, die lateinische ist deutlich verbreiteter (Beispiel: Hypatius). Bei Homonymie wird der lateinische Ausgangsname in fortlaufender Zählung auch nach der Spätantike beibehalten (Beispiele: Leo III. statt "Leon", Theodosius III. statt "Theodosios"). Einige Kaiser änderten ihren Namen im Laufe ihres Lebens, etwa durch Adoption oder beim Herrschaftsantritt. Angegeben wird der zuletzt geführte Name ohne Funktions- und Ehrentitel. Inoffizielle bzw. spätere Beinamen sind "kursiv" gesetzt. Weiß hinterlegt und gefettet sind die legitim herrschenden Kaiser ("Augusti, Basileis"; Beispiel: Konstantin I.) sowie ihre nominell gleichrangigen Mitregenten "(Symbasileis)". Die Fettung entfällt bei Kaiserinnen bzw. nicht durchgängig anerkannten oder ungekrönten Kaisern (Beispiele: Irene, Konstantin (XI.)); das gilt auch für Gegenkaiser, die zeitweise den legitimen Herrscher verdrängten, sofern sie der herrschenden Dynastie entstammten und ihre Herrschaft vom Senat oder der Kirche (d.h. dem Patriarchen) anerkannt war (Beispiele: Basiliskos, Artabasdos). Blau hinterlegt und gefettet sind Mitkaiser, die für einen nominell legitimen Herrscher durchgängig die faktische Regentschaft ausgeübt haben (Beispiel: Romanos I.). Die Fettung entfällt bei einer nur zeitweiligen oder illegitimen Ausübung selbstständiger Regierungstätigkeit (Beispiel: Matthäus). Mitregenten und Unterkaiser bzw. designierte Thronfolger ("Caesares", Sebastokratoren, Despoten), die zu keinem Zeitpunkt legitim eigenständig geherrscht haben, werden in der Anmerkungsspalte den jeweiligen Kaisern unter Angabe ihrer nominellen Regierungsjahre bzw. der Jahre ihrer Würdenträgerschaft, soweit bekannt, zugeordnet (Beispiel: Dalmatius). Titelträger unter mehreren Kaisern werden in der Anmerkungsspalte nur einmal aufgeführt (i.d.R. bei dem Kaiser, der den/die Titel zuerst verliehen hat; Beispiel: Konstantin Dukas Porphyrogennetos, Mitkaiser unter Michael VII., wird unter Alexios I. nicht nochmals gelistet). Mit Schrägstrich vorangestellte "kursive" Jahreszahlen bezeichnen das Jahr der Akklamation bzw. Designation bei später erfolgter Krönung bzw. offizieller Amtseinführung (Beispiel: Michael IX. "1281" als Mitkaiser designiert, 1295 gekrönt). Aufgeführt sind auch Nicht-Byzantiner, denen der Titel formell vom Kaiser verliehen wurde (Beispiel: Terwel). So genannte „Kaisermacher“ werden mit der Präposition „durch“ gekennzeichnet (Beispiel: „durch Aspar“). Kaiserinnen "(Augustae, Basilissai)" werden als Regentinnen genannt, wenn sie dem Kaiser nominell gleichgestellt waren und für ihn die Macht ausgeübt haben (Beispiel: Pulcheria) oder nach dem Tod des Kaisers selbst (übergangsweise) die Herrschaft übernommen haben (Beispiel: Domnica). Rot hinterlegt sind Gegenkaiser und Usurpatoren. Das gilt nicht für Gegenkaiser in Konstantinopel, deren Herrschaft vom Senat oder der Kirche anerkannt wurde, auch wenn der legitime Herrscher auf Reichsterritorium weiterhin eigene Regierungstätigkeit entfaltet und dem Rivalen Widerstand geleistet hat (siehe oben). Unter „Gegenkaiser“ werden Usurpatoren bzw. Thronprätendenten im engeren Sinne verstanden, die sich den Kaisertitel selbst zugelegt haben oder von ihren Truppen bzw. Unterstützern akklamiert worden sind. Als „Usurpator“ werden in der Liste Gestalten bezeichnet, für die "entweder" der formale Akt der Kaisererhebung nicht sicher überliefert ist, die sich aber de facto kaiserliche Befugnisse angemaßt bzw. illoyal verhalten und eine nicht unbedeutende territoriale Machtbasis oder dynastische Position innegehabt haben "oder" bei denen die Empörung geografisch so begrenzt (maximal eine Provinz/ein Thema) und so kurzzeitig (maximal wenige Tage) war, dass de facto keinerlei Gefährdung des legitimen Herrschers bestanden hat. Aufgeführt sind auch nichtbyzantinische Herrscher, die auf ehemaligem Reichsgebiet bzw. in Territorien unter nomineller byzantinischer Oberhoheit den Kaisertitel oder eine kaiserähnliche Stellung beansprucht haben ("imitatio imperii"; Beispiele: Theudebert, Stefan Dušan). Sofern die Regentenposition durch den Erhalt römischer bzw. byzantinischer Ehrentitel offiziell legitimiert war, sind die Figuren beim jeweiligen Kaiser aufgeführt (Beispiel: Chlodwig unter Anastasios I.). Usurpatoren, die zeitweise auch legitime Träger einer der oben genannten kaiserlichen Würden waren, sind nicht eigens aufgeführt, sondern bleiben als solche in der Anmerkungsspalte dem jeweiligen Kaiser zugeordnet (Beispiele: Anastasios II., Kaiser 713–715/16, oder Johannes Dukas, "Caesar" seit 1061 unter Konstantin X. und dessen Nachfolgern, werden unter Leo III. bzw. Michael VII. nicht eigens als Gegenkaiser gelistet). Hinsichtlich der Gegenkaiser erhebt die Liste keinen Anspruch auf Vollständigkeit, zumal von einigen außer ihren Namen nichts oder fast nichts bekannt ist. Literatur. ! Byzanz Buchstabe. Ein Buchstabe ist ein Schriftzeichen, das in einer Alphabetschrift verwendet wird. Die Gesamtheit der Buchstaben einer Phonem-basierten Schriftsprache ergibt ein Alphabet, wobei die Laute (Phoneme) in Gestalt von Zeichen (Graphemen) fixiert werden. In vielen Schriften werden Großbuchstaben (Majuskeln) und Kleinbuchstaben (Minuskeln) unterschieden. Insbesondere gedruckte Buchstaben werden auch als "Lettern" bezeichnet (von lateinisch "littera" „Buchstabe“), wie auch die Drucktypen in der Zeit des Bleisatzes (siehe Letter). Etymologie. Das Wort entstand wahrscheinlich aus den germanischen, zum Los bestimmten Runen­stäbchen ("*bōks"). Diese als Runen bezeichnete Schriftzeichen wurden damals oft mittels Punzieren in Waffen, aber auch in Stäbchen aus dem harten und schweren Holz der Buche geritzt. Die derart beschriebenen Stäbchen benutzten die Germanen als Orakel für wichtige Entscheidungen und nach einer Theorie leitet sich deshalb das Wort „Buchstabe“ von diesen kultisch bedeutsamen Buchenstäbchen ab. Nach einer anderen Theorie geht der Ausdruck „Stab“ auf den kräftigen Zentralstrich der Runen zurück, mit dem sie jeweils gebildet werden. Die Verbindung zwischen „Buche“ und „Buchstabe“ wird dabei aus sachlichen Gründen angezweifelt, denn der Ausdruck „Buchstabe“ sei für die im Buch verwendeten lateinischen Schriftzeichen verwendet worden, nicht aber für die germanischen Runenzeichen, die im Altnordischen beispielsweise „stafr“ und „rūnastafr“ hießen. Buchstabieren. Beim Buchstabieren von schwierigen oder seltenen Wörtern oder Eigennamen der geschriebenen Sprache, aber auch bei Funk- und Fernsprechverbindungen, greift man zur Vermeidung von Fehlern und Falschübermittlungen auf das Hilfsmittel der Buchstabiertafel zurück: Wörter, deren Anfangsbuchstabe für den genannten Buchstaben steht, ersetzen hier einzelne Buchstaben. Belgien. Das Königreich Belgien (,) ist ein Staat in Westeuropa. Es liegt an der Nordsee und grenzt an die Niederlande, Deutschland, Luxemburg und Frankreich. Belgien zählt rund elf Millionen Einwohner auf einer Fläche von 30.528 Quadratkilometern. Seit der Unabhängigkeit 1830 und Verfassungsgebung 1831 ist Belgien eine konstitutionelle Erbmonarchie (siehe auch belgische Monarchie). Der Norden des Landes mit den Flamen ist niederländisches, der Süden mit den Wallonen französisches Sprachgebiet. Brüssel ist offiziell zweisprachig, faktisch aber mehrheitlich frankophon. Im Osten sind Hochdeutsch und westmitteldeutsche Mundarten verbreitet. Der anhaltende flämisch-wallonische Konflikt prägt die gegensätzlichen Interessen der Vertreter der beiden großen Bevölkerungsgruppen in der belgischen Politik. Seit den 1970er Jahren wird daher versucht, diesem Problem durch eine Dezentralisierung der Staatsorganisation zu begegnen. Dazu wurde Belgien in einen Bundesstaat, bestehend aus sechs Gliedstaaten – drei Regionen und drei Gemeinschaften – umgewandelt. Die Regionen Flandern, Wallonien und Brüssel-Hauptstadt sowie die Flämische, Französische und Deutschsprachige Gemeinschaft bilden heute die politische Grundlage des Landes. Belgien ist Gründungsmitglied der Europäischen Wirtschaftsgemeinschaft (EWG), der heutigen Europäischen Union (EU), deren wichtigste Institutionen in seiner Hauptstadt Brüssel ihren Sitz haben. Der belgische Staat ist des Weiteren neben den Niederlanden und Luxemburg Mitglied in der Wirtschaftsunion Benelux. Landesname und Überblick. Der Name „Belgien“ rührt von der römischen Provinz "Gallia Belgica" her. Dieser nordöstliche Teil Galliens wurde von Stämmen keltischer (d. h. die Belger) und germanischer (d. h. "Germani cisrhēnani") Herkunft bewohnt. Im 18. Jahrhundert galt das französische Adjektiv "belge" oder "belgique" dann als Entsprechung von "Nederlands" ‚niederländisch‘; der kurzlebige unabhängige belgische Staat von 1790 hieß z. B. auf Französisch "États belgiques unis" und wurde auf Niederländisch meist "Verenigde Nederlandse Staten" genannt. Später beschränkte sich der Gebrauch von "belge" und "belgique" mehr und mehr auf die südlichen Niederlande, das heutige Belgien. Seit Ende des Mittelalters bis ins 17. Jahrhundert war Belgien ein Hort kulturellen und wirtschaftlichen Schaffens und Reichtums. Ab dem 16. Jahrhundert war Belgien Kriegsschauplatz vieler Schlachten der europäischen Machthaber, so auch während des Ersten und Zweiten Weltkrieges. Belgien nahm intensiv an der Industriellen Revolution teil und besaß Ende des 19. Jahrhunderts und Anfang des 20. Jahrhunderts mehrere Kolonien außerhalb Europas. Geographie. Abgesehen vom Bergland der Ardennen im Südosten ist Belgien weitgehend eben. Die Küste ist 72,3 km lang. 25 % der Landfläche werden für Landwirtschaft genutzt. Ungefähr 95 % aller Belgier leben in Städten. Laut den Berechnungen des "Königlichen Belgischen Instituts für Naturwissenschaften" hat Belgien eine Fläche von 30.528 km². Geschichte. Als Provinz Belgica – ein von Cäsar eingeführter Name – erlebte das heutige Gebiet Belgien viele Herrschaften. Es war im Frühmittelalter Teil des fränkischen Reiches und wurde bei dessen Teilungen ebenfalls immer wieder politisch geteilt. Später war es überwiegend Bestandteil des Heiligen Römischen Reiches und zerfiel in einzelne Herzogtümer und Grafschaften. Vom Hochmittelalter bis zur frühen Neuzeit stellten die Städte Flanderns mit ihren Tuchindustrien eines der beiden Zentren der europäischen Wirtschaft dar (neben den Städten Norditaliens). Die einzelnen Territorien gerieten politisch unter das Haus Burgund, das 1477 von den Habsburgern beerbt wurde. Zunächst regierte der spanische Zweig der Habsburger, danach waren es die österreichischen Niederlande. 1794 wurde es vom revolutionären Frankreich annektiert. 1815, auf dem Wiener Kongress, wurde Belgien den Niederlanden zugesprochen. Nach der belgischen Revolution wurde das Land 1830 unabhängig. Es wurde eine parlamentarische Monarchie errichtet und Leopold von Sachsen-Coburg zum ersten König der Belgier ernannt. Leopold II., Sohn des ersten Königs, erwarb den Kongo in Afrika als Privatbesitz. Nachdem die Kongogräuel (brutale Exzesse bei der wirtschaftlichen Ausbeutung des Kongo) international bekannt geworden waren, musste Leopold das Gebiet 1908 als Kolonie an den belgischen Staat abtreten. Während Leopolds Schreckensherrschaft waren in dem afrikanischen Land schätzungsweise 10 Millionen Menschen durch Sklaverei und Zwangsarbeit ums Leben gekommen. 1960 wurde der Kongo unabhängig. Im Ersten Weltkrieg wurde das neutrale Belgien entsprechend dem Schlieffen-Plan in die kriegerischen Auseinandersetzungen zwischen dem Deutschen Kaiserreich und Frankreich als Durchgangsland einbezogen und von der kaiserlichen deutschen Armee fast gänzlich eingenommen. Auf den Partisanenkrieg der Wallonen reagierte das deutsche Militär mit Vergeltungsschlägen in Form von Erschießungen, Bränden und Geiselnahmen. In Dinant und mehreren anderen belgischen Städten kam es zu regelrechten Massakern an der Zivilbevölkerung. Ob es überhaupt eine größere Partisanenaktivität gegeben hat, ist heute umstritten (siehe Francs-tireurs). Im Verlauf des Stellungskrieges wurden viele Städte in Flandern zerstört. Als im Deutschen Reich die Arbeitskräfte knapp wurden, mussten Zehntausende belgische Zivilisten – Flamen wie Wallonen – Zwangsarbeit für das kaiserliche Militär und die deutsche Rüstungsindustrie leisten. Nach dem Krieg annektierte Belgien die mehrheitlich von Deutschen bewohnten Gebiete der Region um Eupen und Malmedy; die weiteren eingeforderten Gebiete bis zum Rhein hin wurden dem Staat allerdings nicht übertragen. Die vertraglich vereinbarte Volksabstimmung in Eupen-Malmedy wurde vom belgischen Staat unter extrem undemokratischen Bedingungen durchgeführt, da man mit einer Abstimmungsniederlage rechnete. Belgien beteiligte sich später auch an der Ruhrbesetzung. Im Zweiten Weltkrieg verhielt sich das Land anfangs neutral, wurde dann aber wieder vom Militär als Durchgangsland nach Frankreich besetzt, verlor seine annektierten Gebiete wieder und gelangte in den Einflussbereich der nationalsozialistischen Diktatur Hitlers. Minderheiten wie Juden und Roma wurden in Konzentrationslager deportiert. Bis zur Befreiung durch die Westalliierten hatte es – wie halb Europa – unter der Willkürherrschaft der nationalsozialistischen Diktatur und die jüdische Bevölkerung unter ihrer Verfolgung und Vernichtung zu leiden; Städte und Landschaften blieben aber weitgehend von Kriegszerstörungen verschont. Lediglich im Osten des Landes, vor allem um Sankt Vith und Bastogne, führte die Ardennenoffensive im Winter 1944/45 zu schweren Zerstörungen. Die bereits seit 1944 geplante "Zoll- und Wirtschaftseinheit" von Belgien, den Niederlanden und Luxemburg wurde im Haager Vertrag am 3. Februar 1958 vereinbart und ist am 1. November 1960 in Kraft getreten (Beneluxländer). Belgien gehört zu den Gründerstaaten der Europäischen Wirtschaftsgemeinschaft (EWG) und spielt seither eine wichtige Rolle im europäischen Einigungsprozess. Das Land bzw. die belgische Hauptstadt Brüssel wurde Sitz internationaler Organisationen wie der NATO und der Europäischen Union. Die Innenpolitik seit dem Zweiten Weltkrieg war von einer Föderalisierung geprägt, die sezessionistische Tendenzen der verschiedenen Sprachräume, insbesondere des flämischen Nordens, abzumildern versuchte. Zeitweise gewannen die auf eine Unabhängigkeit der Landesteile zielenden Parteien große Wähleranteile. "Siehe auch: Liste der belgischen Premierminister, Belgisch-Kongo, Flämisch-wallonischer Konflikt und Flämische Bewegung" Staatsform und Institutionen. Belgien ist eine bundesstaatlich organisierte konstitutionelle Erbmonarchie mit einem Zweikammerparlament. Die Bundeslegislative setzt sich zusammen aus dem König sowie den beiden Parlamentskammern, der bedeutenderen Abgeordnetenkammer mit 150 und dem Senat mit 60 Mitgliedern. Der König gehört gleichzeitig auch der Exekutive an, die er zusammen mit der 15-köpfigen Föderalregierung bildet, der wiederum der Premierminister als "primus inter pares" vorsteht. Die föderalen Institutionen sind verantwortlich für Justizwesen, Finanzpolitik, innere Sicherheit, Außenpolitik, Landesverteidigung und soziale Sicherheit. Parteien. Die meisten Parteien, vor allem die größeren, haben ihre Basis entweder in Flandern oder in Wallonien. Die deutschsprachigen Parteien sind nur regional tätig. Flämisch-wallonischer Konflikt. Belgien ist von innerer Zerrissenheit – vor allem zwischen der flämischen (niederländischsprachigen) und der in Wallonien und in Brüssel lebenden frankophonen (französischsprachigen) Volksgruppe – geprägt. So sind zum Beispiel Volkszählungen, welche die gesprochene Sprache der Einwohner erheben seit 1961 verboten. Tendenziell nehmen die Spannungen eher zu. Insbesondere die Wahlerfolge separatistischer flämischer Parteien führten zu der häufig geäußerten Annahme, dass es letztendlich früher oder später zu einer Abspaltung Flanderns vom belgischen Gesamtstaat käme. Als problematisch wird hierbei insbesondere der künftige Status der von der französischsprachigen Bevölkerungsgruppe geprägten Hauptstadt Brüssel und seines verwaltungsmäßig zu Flandern gehörenden Umlandes, die zusammen den Wahlkreis Brüssel-Halle-Vilvoorde bildeten, sowie die bisherige Einbindung Belgiens in verschiedene internationale Organisationen gesehen; zudem wäre die Zukunft des Königshauses ungewiss. Aktuelle politische Entwicklungen. Im März 2008 verständigten sich flämische und frankophone Christdemokraten (CD&V und cdH) und Liberale (VLD und MR) sowie die wallonischen Sozialisten (PS) auf die Bildung einer gemeinsamen Regierung mit Yves Leterme (CD&V) als Ministerpräsidenten. Leterme wurde daraufhin am 20. März 2008 gewählt. Am 18. Dezember 2008 teilte der Kassationshof – das höchste ordentliche Gericht in Belgien – in einem Brief an den Kammervorsitzenden Herman Van Rompuy mit, dass Leterme versucht habe, das Gericht in der Frage des geplanten Verkaufs der belgischen Bank Fortis an den französischen Finanzkonzern BNP Paribas zu beeinflussen; dies hatte Leterme kurz zuvor noch bestritten. Tags darauf trat die gesamte Regierung Leterme zurück. Ab dem 30. Dezember 2008 führte Herman Van Rompuy (CD&V) die belgische Föderalregierung, welche sich aus derselben Fünfparteien-Koalition zusammensetzte. Nachdem er jedoch am 19. November 2009 zum ersten ständigen Präsidenten des Europäischen Rates designiert worden war, legte er sein Amt als Premierminister am 25. November 2009 wegen Unvereinbarkeit der Ämter nieder. Am gleichen Tag noch wurde Yves Leterme erneut zum Premierminister ernannt und führte seither seine zweite Föderalregierung in dieser Legislaturperiode. Diese zweite Regierung unter Yves Leterme zerbrach im April 2010 wieder, als nach internen Streitigkeiten um eine Lösung im Konflikt um den zweisprachigen Wahlkreis Brüssel-Halle-Vilvoorde die flämische liberale Partei Open VLD ihren Rückzug aus der Regierung bekanntgab. Bei den vorgezogenen Neuwahlen am 13. Juni 2010 gewann die separatistische Neu-Flämische Allianz (N-VA) unter Bart De Wever 27 der 150 Sitze und stellt damit unter den flämischen Parteien die stärkste Fraktion im Parlament. In Wallonien wurde die sozialistische PS von Elio Di Rupo stärkste politische Kraft. König Albert II. setzte folglich nacheinander acht verschiedene Vermittler ein, die allesamt mit einer Regierungsbildung scheiterten. Erst Elio Di Rupo gelang es als offizieller Formateur in seiner Sondierung mit sechs Parteien, eine Koalitionsregierung zu bilden. Der Wahlsieger in Flandern – die rechtskonservativ-separatistische N-VA – nahm an diesen Verhandlungen nicht teil; damit hat die Regierung Di Rupo I, die am 5. Dezember 2011 ernannt wurde, keine Mehrheit auf flämischer Seite. Mit dem Sozialisten Elio Di Rupo wurde erstmals seit dem Ende der letzten Regierung von Paul Vanden Boeynants 1979 ein Frankophoner zum belgischen Ministerpräsidenten gewählt. Bis zu seiner Wahl blieb die Regierung Leterme geschäftsführend im Amt. Die Zeitspanne von 540 Tagen von der Wahl bis zur Bildung der neuen Regierung stellt einen Rekord in der modernen Weltgeschichte dar. Am 21. Juli 2013 – dem belgischen Nationalfeiertag – dankte König Albert II. zugunsten seines ältesten Sohnes Philippe ab, nachdem er dies am 3. Juli 2013 angekündigt hatte. Am 11. Oktober 2014 wurde die neue Regierung unter dem frankophonen Premierminister Charles Michel vereidigt. Im Gegensatz zu den bisher üblichen breiten Koalitionen stammen alle beteiligten Parteien, die Neu-Flämische Allianz (N-VA), die Christlichdemokraten und die Liberalen auf flämischer Seite sowie Michels Liberale auf frankophoner Seite, aus dem Mitte-Rechts-Spektrum. Europapolitik. Belgien hat eine strategische geographische Position im Herzen Europas, inmitten eines europäischen Ballungsraumes und in der Nähe der größten Seehäfen. Dadurch besteht eine gewisse Abhängigkeit vom internationalen Handel, wobei die wichtigsten Handelspartner die Nachbarstaaten Niederlande, Deutschland und Frankreich sind. Das macht Belgien zu einer der offensten Volkswirtschaften in der Europäischen Union (EU). Vor diesem Hintergrund verfolgt Belgien traditionell eine Öffnungspolitik zu den europäischen Nachbarn, zum einen durch die Benelux-Gemeinschaft, zum anderen im Rahmen des Europarates und der Europäischen Union, zu deren Gründungsmitgliedern Belgien gehört. Das Land ist ebenfalls Gründungsmitglied der Europäischen Währungsunion. Eurobarometer-Umfragen zeigen regelmäßig, dass die belgische Bevölkerung etwa zu zwei Drittel pro-europäisch eingestellt ist, was über dem EU-Durchschnitt von knapp über 50 Prozent liegt. Die belgische Hauptstadt Brüssel ist Sitz mehrerer EU-Institutionen und Agenturen wie die Kommission, das Parlament, der Ministerrat, der Wirtschaft- und Sozialausschuss oder der Ausschuss der Regionen, sowie zahlreicher Lobbying-Gruppen, Nichtregierungsorganisationen usw., die im Bereich der Europapolitik arbeiten. Die belgischen Regierungen seit 1945 haben sich für den Aufbau Europas eingesetzt. Unter belgischem Ratsvorsitz in der zweiten Hälfte 2001 wurde die Einberufung des Verfassungskonvents beschlossen, der einige Jahre später den Vertrag über eine Verfassung für Europa (VVE) hervorbringen sollte. Belgien setzte sich für den Ratifizierungsprozess des VVE ein und – nach dessen Scheitern – für die Erhaltung der Substanz des VVE im Vertrag von Lissabon, der am 13. Dezember 2007 unterschrieben wurde und am 1. Dezember 2009 in Kraft trat. Belgiens Verteidigungspolitik stützt sich nicht nur auf die NATO (Belgien ist Gründungsmitglied), sondern auch auf die EU im Rahmen der Gemeinsamen Außen- und Sicherheitspolitik (GASP). Die Hauptstadt Brüssel ist sowohl Sitz der NATO-Hauptorgane als auch der Europäischen Verteidigungsagentur der EU, was Belgien zum Zentrum der euro-atlantischen Verteidigungsstrukturen macht. Das Land stellt für die European-Battle-Groups-Truppen bereit und beteiligt sich an Einsätzen der EU, beispielsweise an der EUFOR. Durch seine historischen Verbindungen zum afrikanischen Land Kongo hat sich Belgien als Meinungsführer bei Angelegenheiten der Großen Seen und Zentralafrikas innerhalb der EU etabliert und ist maßgeblich um eine friedliche Stabilisierung des Ostkongo bemüht. Durch Belgiens föderale Struktur, die der Lokalebene außerordentlich viele Kompetenzen zuweist, sind sowohl die Regionen als auch die Gemeinschaften maßgeblich an der Formulierung der belgischen Europapolitik beteiligt, jedoch zugleich von der Umsetzung politischer Ziele der EU betroffen – was eventuelle lokale Unterschiede bei der Umsetzung erklärt. Zum Beispiel sind sie zuständig für Kulturpolitik und können in diesem Bereich Verträge mit ausländischen Staaten abschließen, sodass sie im Ausland ein eigenständiges Profil aufgebaut haben, zum Beispiel indem sie in einigen belgischen Botschaften Kulturreferenten stellen. In der zweiten Hälfte 2010 hatte Belgien den Vorsitz des Ministerrates inne. Diese belgische Ratspräsidentschaft bildete das Mittelstück der Trio-Präsidentschaft mit Spanien (erste Hälfte 2010) und Ungarn (erste Hälfte 2011). Nach dem Inkrafttreten des Vertrags von Lissabon wurde der Belgier Herman Van Rompuy in das neugeschaffene Amt des Präsidenten des Europäischen Rates berufen. Militär. 4e Régiment de Chasseurs à Cheval Die Belgischen Streitkräfte (ndl. "Defensie van België", frz. "Armée belge") untergliedern sich in Heer, Marine, Luftstreitkräfte und medizinisches Korps (niederländisch "Medische Component", französisch "Corps médical"). 2006 hatten die Belgischen Streitkräfte eine Stärke von 36.000 Mann. Der freiwillige Wehrdienst wurde formell 1994 abgeschafft. Die Verteidigungsausgaben betrugen 2006 2,5 Milliarden Euro. Die Landstreitkräfte sind mit 24.600 die größte der Teilstreitkräfte. Sie können auf einen Fuhrpark von 300 Kampfpanzern, 989 gepanzerten Fahrzeugen und 288 Artilleriegeschützen zurückgreifen. Die belgische "Luchtmacht" bzw. "Force Aérienne Belge" ist mit 6.350 Mann die zweitgrößte Teilstreitkraft. Ihr stehen 72 F-16-Kampfflugzeuge sowie 31 Hubschrauber zur Verfügung. Die Marine ist in einem gemeinsamen Benelux-Kommando organisiert. Sie verfügt über zwei Wielingen-Fregatten, sechs Minenjäger und ein Flusspatrouillenschiff. Verwaltungsgliederung. Belgien ist seit 1993 ein Bundesstaat, der sich sowohl in drei "Regionen" als auch in drei "Gemeinschaften" gliedert. Als nachgeordnete Verwaltungseinheiten bestehen zehn "Provinzen" und 43 "Arrondissements". Die lokale Selbstverwaltung wird von den 589 Gemeinden ausgeübt. Sowohl die Regionen als auch die Gemeinschaften sind Gliedstaaten des belgischen Bundesstaates; sie unterscheiden sich durch ihre territoriale Abgrenzung und ihre Kompetenzen. Die "Regionen" (ndl. "gewesten," frz. "régions") sind zuständig für große Bereiche der Wirtschafts-, Umwelt-, Verkehrs- und Agrarpolitik, zudem üben sie die Rechts- und ggf. Fachaufsicht über Provinzen, Arrondissements und Gemeinden aus. Die "Gemeinschaften" (ndl. "gemeenschappen", frz. "communautés;" früher häufig auch als Kultur- bzw. Sprachgemeinschaften bezeichnet) verantworten das gesamte Bildungswesen, die Kulturpolitik sowie weitere „personenbezogene Angelegenheiten“ (Bereiche der Familien-, Gesundheits- und Sozialpolitik, unter anderem die öffentlichen Krankenhäuser). Auch im Vergleich mit anderen Bundesstaaten verfügen Regionen und Gemeinschaften zusammengenommen über ein hohes Maß an Kompetenzen, zudem können sie in ihren Verantwortungsbereichen eigenständig Verträge mit ausländischen Staaten abschließen. Vom belgischen Staat abgeschlossene internationale Verträge, die Kompetenzen der Regionen bzw. Gemeinschaften betreffen, bedürfen der Zustimmung derer Parlamente; dies gilt beispielsweise für die Verträge der Europäischen Union. Bei der Bundesebene sind vor allem die Zuständigkeit für Außen-, Verteidigungs- und Finanzpolitik, die sozialen Sicherungssysteme sowie die Polizei und Justiz verblieben. Die territoriale Abgrenzung der Regionen und Gemeinschaften richtet sich nach den Sprachgebieten: Die Flämische Region umfasst das niederländische Sprachgebiet, die Wallonische Region das französische und das deutsche Sprachgebiet, die Region Brüssel-Hauptstadt das zweisprachige französisch-niederländische Gebiet. Die Flämische Gemeinschaft übt ihre Befugnisse auf dem niederländischen und dem zweisprachigen Sprachgebiet aus, die Französische Gemeinschaft auf dem französischen und dem zweisprachigen Sprachgebiet, die Deutschsprachige Gemeinschaft auf dem deutschen Sprachgebiet. Regionen und Gemeinschaften verfügen jeweils über ein eigenes Parlament und eine eigene Regierung. Allerdings haben die Flämische Gemeinschaft und die Flämische Region ihre Institutionen zusammengelegt, so dass es nur ein "Flämisches Parlament" und eine "Flämische Regierung" gibt, die sowohl die Befugnisse der Region als auch die der Gemeinschaft ausüben. Die unterste Verwaltungsebene stellen die 589 Gemeinden dar (siehe auch Liste der Gemeinden Belgiens). Staatshaushalt. Der Staatshaushalt umfasste 2009 Ausgaben von 183 Milliarden Euro. Dem standen Einnahmen von 163 Milliarden Euro gegenüber. Daraus ergibt sich ein Haushaltsdefizit in Höhe von 20 Milliarden Euro beziehungsweise 6,0 % des Bruttoinlandsprodukts. Bemerkenswerterweise ist es Belgien in den Jahren zwischen 1995 und 2007 gelungen, den relativen Anteil der Staatsverschuldung am Bruttosozialprodukt deutlich abzubauen. Dieser Erfolg wird allerdings durch die Eurokrise seit 2007 gefährdet. Am 25. November 2011 stufte die Ratingagentur Standard & Poor’s Belgien von der Bewertung "AA+" auf "AA" herab. Begründet wurde dies mit der schwelenden Staatskrise, dem geringen Wachstum und dem wachsenden Druck der Finanzmärkte. Die Staatsverschuldung betrug 2011 361,7 Milliarden Euro oder 98 % des Bruttoinlandsprodukts. Bevölkerung. Die Bevölkerung Belgiens wird in der Regel in Sprachgruppen eingeteilt. Genaue Daten zur tatsächlichen Verteilung sind seit der Festlegung der Sprachgrenze 1962 nicht mehr erhoben worden. Hiernach stellen die niederländischsprachigen Flamen knapp 60 % der Bevölkerung. Die Wallonen und die französischsprachigen Bewohner der Region Brüssel-Hauptstadt und ihres Umlandes, die meist zusammenfassend als "französischsprachige Belgier" bezeichnet werden, umfassen etwas weniger als 40 % der Einwohner des Landes. Hinzu kommt, als dritte Bevölkerungsgruppe mit einem offiziellen Sprachgebiet, die Deutschsprachige Gemeinschaft im Osten des Landes mit unter einem Prozent (76.128 Einwohner). Weitere Minderheiten verfügen nicht über ein offizielles Sprachgebiet. Dazu gehören kleinere, westgermanische Dialekte sprechende Minderheiten im offiziell französischen Sprachgebiet (luxemburgisch im Areler Land und Platdiets in den Plattdeutschen Gemeinden). Als "Voyageurs", "gens de voyage" oder "Woonwagenbewoners" werden in Belgien lebende Gruppen sowohl der Jenischen, Manouches und Roma als auch einheimische Wohnwagenbewohner bezeichnet. Die "gens du voyage" werden auf insgesamt 15.000 bis 20.000 Personen, entsprechend 0,15 % der belgischen Bevölkerung, geschätzt. Die weitere Wohnbevölkerung besteht aus Zugewanderten aus vielen Teilen Europas und Afrikas. Im Jahr 2012 hatten 25 % der Gesamtbevölkerung einen Migrationshintergrund. Seit 1945 gab es 2,8 Millionen "neue" Belgier ausländischer Abstammung. Hiervon sind rund 1,2 Millionen europäischer Abstammung und rund 1,35 Millionen stammen aus Ländern außerhalb Europas (Marokko, Türkei, Algerien, Kongo). Seit der Lockerung des belgischen Staatsangehörigkeitsrechts haben über 1,3 Millionen Migranten die belgische Staatsbürgerschaft erworben. Die größte Gruppe der Einwanderer und ihrer Nachkommen in Belgien sind Marokkaner mit mehr als 450.000 Menschen. Türken bilden die zweitgrößte ethnische Minderheit mit rund 220.000 Personen. 89,2 % der Einwohner türkischer Herkunft wurden eingebürgert sowie 88,4 % der Marokkaner, 75,4 % der Italiener, 56,2 % der französischen und 47,8 % der niederländischen Bevölkerung. Sprachen. Seit der Unabhängigkeit Belgiens 1830 galt allein Französisch als Amtssprache des Staates. Im Jahr 1873 wurde Niederländisch als zweite offizielle Amtssprache im belgischen Königreich zwar rechtlich anerkannt, doch blieb immer noch Französisch die Verwaltungs- und Unterrichtssprache in ganz Belgien. 1919 kam Deutsch als Amtssprache im neu hinzugewonnenen Gebiet im Osten dazu: Ostbelgien gehörte zuvor zum Deutschen Kaiserreich und wurde nach dem Versailler Vertrag dem belgischen Staat angeschlossen. Erst danach forderte die große Mehrheit der Flamen mit Nachdruck, dass ihre niederländische Muttersprache auch als Verwaltungs- und Unterrichtssprache an Schulen und Universitäten verwendet und der französischen Amtssprache gleichgestellt werden sollte. 1921 erkannte die belgische Regierung die territoriale Einsprachigkeit seiner Bewohner in den drei regionalen Sprachgebieten an: die niederländische Sprachzone in Flandern, die französische Sprachzone in der Wallonie und die neue deutsche Sprachzone in Ostbelgien. Der flämisch-wallonische Konflikt zwischen den niederländischsprachigen und den französischsprachigen Einwohnern dauert jedoch bis heute an. In der zweisprachigen Hauptstadt Brüssel sind Französisch und Niederländisch Amtssprachen (siehe auch Sprachenverhältnisse in Brüssel). Viele belgische Internetseiten gibt es nur in niederländischer oder französischer Sprache. Falls vorhanden, ist der Umfang der deutschsprachigen Unterseiten meist dürftig. Beachtenswert ist, dass Google seine Suchmaschine speziell für Belgien in vier Sprachversionen anbietet: Niederländisch, Französisch, Deutsch und Englisch. Den Status von Regionalsprachen haben seit 1990 das romanische Lothringisch, Champenois, das fränkische Lothringisch (Francique), Picardisch und Wallonisch. Religion. Etwa 75 Prozent der belgischen Staatsbürger sind römisch-katholisch, rund 1 Prozent gehören der Vereinigten Protestantischen Kirche an und 8 Prozent islamischen Gemeinden. Der Anteil nicht konfessionell gebundener Menschen beträgt etwa 16 Prozent. Im Jahr 2011 lebten eine Million Einwohner mit muslimischem Hintergrund in dem Land. Muslime stellen 30–35 Prozent der Bevölkerung in Brüssel, 4,0 Prozent in Wallonien und 3,9 Prozent in Flandern. Die Mehrheit der belgischen Muslime lebt in den großen Städten wie beispielsweise Antwerpen, Brüssel und Charleroi. Die größte Gruppe der Einwanderer in Belgien sind Marokkaner mit 400.000 Menschen. Die Türken sind die drittgrößte Einwanderergruppe und die zweitgrößte muslimische Volksgruppe mit 220.000 Menschen. Die föderale belgische Regierung erkennt sechs Religionen und eine nicht-konfessionelle Weltanschauung an und unterstützt sie: die anglikanische Kirche, den Islam, das Judentum, die römisch-katholische Kirche, die orthodoxe Kirche, die Vereinigte Protestantische Kirche von Belgien und die freigeistige Weltanschauungsgemeinschaft. Homosexualität. Homosexualität ist in Belgien gesellschaftlich weitgehend akzeptiert. Belgien gilt als sehr tolerantes Land hinsichtlich Homosexualität. Homosexuelle Handlungen wurden bereits im Jahr 1974 entkriminalisiert; seit 2003 existieren zudem Antidiskriminierungsgesetze. Als zweiter Staat der Welt öffnete Belgien nach den Niederlanden im Jahr 2003 die Ehe für homosexuelle Partner. Bildung. Das Bildungssystem ist in Belgien aufgrund der weitreichenden Befugnisse der einzelnen Gemeinschaften unterschiedlich, das Hochschulwesen wurde aber im Zuge des Bologna-Prozesses weitgehend auf zwischengemeinschaftlicher und europäischer Ebene vereinheitlicht. Die föderale Instanz von Belgien ist zuständig für die Pensionen der Lehrer, das Festlegen des Minimalwissens zur Erlangung eines Diploms und für die Schulpflicht (vom 6. bis zum 18. Lebensjahr). Schulen der Flämischen Gemeinschaft. Ab zweieinhalb oder vier Jahren besuchen Kinder normalerweise eine Art Kindergarten mit Vorschule (nld. "Kleuteronderwijs", frz. "École maternelle"). Ab sechs Jahren gehen die Kinder sechs Jahre auf die Grundschule (nld. "Basisonderwijs", frz. "École primaire"). Belgische bzw. flämische Schulen sind öffentlich (flämische Gemeinschaft), frei (subventioniert; meist katholische Schulen) oder privat (nicht subventioniert). In vielen Fällen haben katholische Schulen ein höheres Bildungsniveau als staatliche. Als erste Fremdsprache wird Französisch ab dem fünften Schuljahr unterrichtet. Ab dem siebenten Schuljahr erfolgt der Unterricht auf einer der Sekundarschulen. Englischunterricht hat man ab dem zweiten Lehrjahr des sekundären Unterrichts auf einer ASO. Gewöhnlich kann ein Schüler zwischen den folgenden Richtungen wählen: Mathematik, Griechisch, Latein, Naturwissenschaften. In den späteren Jahren kommen noch weitere Richtungen wie Wirtschaft/Handel, Humanwissenschaften und moderne Sprachen hinzu. Ein Großteil der belgischen Schüler der fünften und sechsten Klasse auf einer ASO hat auch mindestens eine Stunde Deutsch pro Woche, manchmal auch drei. Auf KSO-Schulen, die es meistens nur in großen Städten gibt, hat der Schüler die Auswahl zwischen z. B. Comiczeichnen, Computergrafik etc. Der Schüler nimmt zudem am Englisch- und Französischunterricht sowie Mathematik teil. Abgeschlossen wird mit dem "Diploma Secundair Onderwijs" (Abitur), mit dem man Zugang zu einem Hochschulstudium erhält. Da Schulpflicht bis 18 besteht, kann ein Schüler, sobald dieses Alter erreicht wurde, die Schule verlassen oder warten, bis er das "Diploma" erhalten hat. Ausnahmen bilden BSO-Schulen: Dort kann ein Schüler bereits früher die Schule verlassen und der Schulpflicht mit einer Lehre/Berufsausbildung nachkommen. Schulen der Französischen Gemeinschaft. Kinder können ab dem Alter von zweieinhalb Jahren in einen Kindergarten ("École gardienne") aufgenommen werden. Vom sechsten bis zum zwölften Lebensjahr besuchen Schüler die Primarstufe ("Enseignement primaire"). Die Klassenstufen werden von der première primaire bis zur sixième primaire durchgezählt. Ab der deuxième primaire können die französischsprachigen Schüler als zweite Sprache Niederländisch lernen. Schulen der Deutschsprachigen Gemeinschaft. Die Schulbildung hat die gleiche Alterseinteilung wie in den anderen Teilen Belgiens: Ab dem dritten Lebensjahr kann der Kindergarten besucht werden. Ab dem fünften oder sechsten Lebensjahr besucht man dann eine sechsjährige Primarschule. Weitere sechs Jahre werden auf einer Sekundarschule absolviert. Einige Schulen umfassen alle drei Altersstufen, können also vom Kindergarten bis zum Abitur besucht werden. Andere Schulen können nur vom Kindergarten bis zum sechsten Schuljahr besucht werden, anschließend muss auf eine andere Schule gewechselt werden. Manche Schulen sind reine Sekundarschulen (siebtes bis zwölftes Schuljahr). Bereits ab dem ersten Schuljahr wird Französisch unterrichtet. Ab dem achten Schuljahr kommt als dritte Sprache Englisch hinzu. Ab dem neunten Schuljahr kann ein Schüler in einigen Schulen zwischen Sozial-, Naturwissenschaften, Sprachen, Kunst, Sekretariat, Wirtschaftswissenschaften oder Elektronik wählen. Bei der Sprachenabteilung (neusprachlicher Zweig) erlernt man neben Englisch und Französisch noch Italienisch, Spanisch und Niederländisch. Unterrichtspflicht besteht bis zum 18. Lebensjahr, wobei man dieser Pflicht auch mit einer Lehre entsprechen kann. Dort muss man lediglich zweimal die Woche zur Berufsschule. In der DG gibt es auf einigen Schulen eine sogenannte berufliche Abteilung (z. B. Robert-Schuman-Institut-EUPEN und Bischöfliche Schule – Technisches Institut St. Vith). Diese Abteilung ist sehr gut für lernschwache Schüler geeignet, allerdings auch für Schüler, die ihren Berufswunsch schon genau kennen. Das erhaltene Abitur ist mit einem Fachabitur zu vergleichen. Um ein solches Abitur zu erhalten, muss man die Schule noch ein Jahr länger besuchen, hier sind es nämlich insgesamt 13 Jahre. In den berufsbildenden Abteilungen kann ein Schüler zwischen Büro, Friseur, Kochen, Schreinerei oder sozialen Berufen wählen. In den darauffolgenden Jahren wird man in seinem gewählten Fach ausgebildet. Die allgemeinen Fächer sind auf ein Minimum reduziert, dafür wird man optimal auf seinen späteren Beruf vorbereitet. Hochschulen. Im deutschen Sprachgebiet gibt es nur eine Hochschule, die Autonome Hochschule in der Deutschsprachigen Gemeinschaft. Den Universitäten gleichgestellte Einzelfakultäten sind die Evangelisch-Theologische Fakultät Löwen "(Evangelische Theologische Faculteit)," die Fakultät für Protestantische Theologie Brüssel "(Faculteit voor Protestantse Godgeleerdheid)" und die Königliche Militärakademie ("Koninklijke Militaire School / École royale militaire"). In Brügge befindet sich auch das bekannte Europakolleg. Neben den Universitäten existieren in den drei Gemeinschaften zahlreiche Hochschulen "(Hautes Ecoles/Hogescholen)" und mehrere Kunsthochschulen "(Ecoles Supérieures des Arts)". Wirtschaft. Im Vergleich mit dem Bruttoinlandsprodukt (BIP) der Europäischen Union, ausgedrückt in Kaufkraftstandards, erreichte Belgien 2005 einen überdurchschnittlichen Index von 118 (EU-25: 100). Tourismus. Der Tourismus spielt in Belgien eine große Rolle. Vor allem Deutsche, Briten, Luxemburger, Franzosen und Niederländer besuchen Belgien. Bei den Briten ist außerdem eine Art Erster-Weltkrieg-Tourismus entstanden. In Westflandern stehen noch viele alte Kriegsdenkmäler und -friedhöfe. Daneben sind die Ferienbadeorte an der belgischen Nordseeküste (Knokke-Heist, Bredene, De Panne, Nieuwpoort, Oostende und andere) sehr beliebt. Außerdem sind auch die Ardennen eine vielbesuchte Urlaubsregion. Von der belgischen Nordseeküste aus kann man viele Tagestouren unternehmen, etwa in die Nachbarländer Frankreich und Niederlande oder Großbritannien. Als besonders nachgefragt haben sich auch Städtetouren nach Brüssel, Hasselt, Gent, Antwerpen und andere erwiesen. Die Stadt Brügge ist aber wahrscheinlich die Stadt mit dem größten Tourismus. Sie wird gelegentlich "Venedig des Nordens" genannt. Es existiert ein eigenständiger Tourismusverband für Flandern sowie ein weiterer für das übrige Belgien. Energiepolitik. Der Kohlenstoffdioxidausstoß pro Kopf des Landes gehört zu den weltweit höchsten. Belgien besitzt zwei in Betrieb befindliche Kernkraftwerke. 1999 wurde ein Atomausstieg vom Parlament beschlossen "(siehe auch: Kernenergie nach Ländern)". Im November 2011 wurde bekannt, dass das Land von 2015 bis 2025 aus der Atomkraft aussteigen will. Die sieben belgischen Atommeiler sollen sukzessive abgeschaltet werden. Medien. Die föderale Struktur Belgiens spiegelt sich auch in der Medienszene des Landes wider. Es gibt quasi drei voneinander unabhängige Medienwelten in Niederländisch, Französisch und Deutsch. Der flämische Zeitungsmarkt ist der größte und wird von drei Verlagskonzernen dominiert: Corelio Media (u. a. Herausgeber von "De Standaard", "Het Nieuwsblad"), De Persgroep (u. a. Herausgeber von "Het Laatste Nieuws", "De Morgen", "De Tijd") und Concentra (u. a. Herausgeber von "Het Belang van Limburg", "Metro"). Die bedeutendsten Verlagsunternehmen in der Wallonie sind Rossel (u. a. Herausgeber von "Le Soir" wie auch Mitherausgeber von "L’Echo" und "Grenzecho") sowie IPM/Medi@bel. Im Rundfunkbereich existieren für die drei Sprachgemeinschaften jeweils separate öffentlich-rechtliche Sender: VRT (Vlaamse Radio- en Televisieomroep) für Flandern, RTBF (Radio Télévision Belge Francophone) für die Wallonie und der BRF (Belgischer Rundfunk) für die Deutschsprachige Gemeinschaft. Von den deutschstämmigen Ostbelgiern werden neben den BRF-Programmen viele Radio- und Fernsehprogramme aus dem nahen Deutschland genutzt. Bedeutendste deutschsprachige Zeitung ist das in Eupen täglich erscheinende Grenzecho. Zu den Zeitschriften zählen unter anderem die deutschsprachige Ausgabe des "Belgischen Staatsblattes" (Amtsblatt der belgischen Regierung) in Brüssel, die landwirtschaftliche Publikation "Der Bauer" aus St. Vith, das städtische Mitteilungsblatt "Eupen aktuell", das Verbandsorgan "Der Öffentliche Nahverkehr in der Welt – Public Transport International" aus Brüssel oder das Quartalsmagazin "Geschwënn – Zäitschrëft vum Arelerland" für die Deutschsprachigen in Südostbelgien um die Stadt Arel. Regionale Disparitäten. Bereits seit dem 19. Jahrhundert bestehen in Belgien Streitigkeiten zwischen den französisch sprechenden Wallonen und den niederländisch sprechenden Flamen ("Siehe auch": Flämisch-wallonischer Konflikt). Ein aktueller Streitpunkt hat seine Ursache in wirtschaftlichen Unterschieden zwischen den Landesteilen: Da sich die ehemals von Kohle- und Stahlindustrie geprägten wallonischen Regionen in einer Rezessionsphase befinden, ist die Arbeitslosigkeit dort im Vergleich zu den flämischen Regionen deutlich erhöht. Gleichzeitig wird das belgische Bruttonationaleinkommen zu zwei Dritteln in Flandern erwirtschaftet. Die flämische Region zahlt einen Solidarbeitrag, der in der Wallonie vor allem zur Finanzierung von Sozialleistungen verwendet wird. Diese Zahlungen sind jedoch in der flämischen Region politisch umstritten. Der wachsende Unmut über die wirtschaftliche Schwäche der wallonischen Region manifestiert sich insbesondere in der flämischen Separatistenbewegung, deren Hauptorganisationsträger die Partei Vlaams Belang ist. Eisenbahn. Belgien war das erste Land in Kontinentaleuropa mit Eisenbahnverbindungen. Die staatliche Eisenbahngesellschaft heißt NMBS und betreibt eines der am dichtesten ausgebauten Bahnnetze weltweit. Für Brüssel ist am 13. Dezember 2015 eine S-Bahn in Betrieb gegangen. Schifffahrt. Belgien ist ein wichtiges Transitland zwischen Mittel- und Westeuropa. Der wichtigste Hafen ist Antwerpen an der Schelde, einer der größten und wichtigsten Seehäfen der Welt. Auch der Seehafen von Brügge-Zeebrügge gilt als einer der modernsten und wichtigsten in Europa. Traditionelle Bedeutung als Fährhafen besaß, bis zur Eröffnung des Eurotunnels, der Hafen von Ostende. Flugverkehr. Der wichtigste Flughafen des Landes ist Brüssel-Zaventem. Weitere Flughäfen sind Brüssel-Charleroi, Lüttich, Antwerpen und Ostende-Brügge. Die staatliche belgische Fluggesellschaft war bis zu ihrem Bankrott am 6. November 2001 die traditionsreiche Sabena. Sie ging in der SN Brussels Airlines auf, die sich wiederum mit Virgin Express zur Brussels Airlines vereinigte. Straßenverkehr. Belgien besitzt ein sehr gut ausgebautes Autobahnnetz, das – wie auch alle anderen Straßen in Belgien – fast komplett mit Straßenlaternen ausgestattet und nachts beleuchtet ist. Jedoch soll diese Beleuchtung aus Gründen der Stromersparnis und damit des Klimaschutzes künftig eingeschränkt werden und folglich zwischen 0:30 Uhr und 4:30 Uhr abgeschaltet bleiben. Aufgrund des hohen ausländischen Verkehrsaufkommens war für 2008 eine Autobahnmaut in Höhe von 60 Euro geplant, die für heftige Diskussionen gesorgt hatte, allerdings bis heute nicht eingeführt wurde. Gastronomie. Eine typische gesamtbelgische Küche gibt es nicht, da zahlreiche Spezialitäten eher der flämischen Küche oder der Küche Walloniens zuzuordnen sind oder von den Kochkünsten der Nachbarländer, insbesondere Frankreichs (genauer: Lothringens), inspiriert sind. Es wurde aber eine weltbekannte Erfindung in Belgien gemacht, die häufig falsch eingeordnet wird: Pommes frites. Belgische Waffeln stellen ebenfalls eine Spezialität dar. Die bekanntesten Waffelvarianten sind die Brüsseler und die Lütticher Waffeln. Des Weiteren ist Belgien für seine Pralinen bekannt, welche zur Weltspitze gehören. Eine weitere Besonderheit ist die Sortenvielfalt der belgischen Biere, darunter zahlreiche Abteibiere (Abdijbier, Bière d’Abbaye) mit höherem Alkoholgehalt, auf besondere Weise vergorene Biere (z. B. Lambic, Geuze) oder mit Fruchtaromen versetzte Biere. Die am meisten verbreiteten Biersorten sind Jupiler und Stella Artois, die beide zum belgischen Brauereikonzern InBev, ehemals Interbrew, gehören. Sport. Ein beliebter Sport in Belgien ist Fußball. Die 1. belgische Liga ist eine der ältesten der Welt. In den 1970er und 1980er Jahren gehörte das belgische Nationalteam ("Rote Teufel" genannt) zur internationalen Spitze. Seit der Teilnahme an der Fußball-Weltmeisterschaft 2002 hatte sich Belgien nicht mehr für ein internationales Turnier qualifizieren können, am 11. Oktober 2013 qualifizierte sich Belgien erstmals nach zwölf Jahren wieder für eine Fußball-Weltmeisterschaft. ("Siehe auch:" Fußball in Belgien) Der Nationalsport in Belgien ist jedoch der Radsport. Deswegen hat Belgien auch einige Berühmtheiten im Radsport hervorgebracht. So gehörten und gehören Eddy Merckx, Roger De Vlaeminck, Johan Museeuw, Peter Van Petegem sowie Tom Boonen zu den besten Radsportlern der Welt. Wichtige Eintagesklassiker finden in Belgien statt, beispielsweise Lüttich–Bastogne–Lüttich und die Flandern-Rundfahrt. Auch der Tennissport ist im Aufwind. Die flämische Kim Clijsters und die wallonische Justine Henin gehörten lange Zeit zu den besten Spielerinnen der Welt. In der Leichtathletik ist Kim Gevaert (100 und 200 m) Europameisterin und Tia Hellebaut (Hochsprung) Olympiasiegerin. Nicht vergessen werden sollte Carambolage und Billard Artistique, in denen die Sportler René Vingerhoedt und Raymond Ceulemans über Jahre die Szene dominierten. Auch für viele Amateur- und Kneipenspieler hat Billard einen hohen Stellenwert. Der Rundkurs von Spa-Francorchamps wird zu den anspruchsvollsten Strecken im Motorsport gezählt. Hier gastieren in regelmäßigen Abständen internationale Rennserien, darunter seit 1950 die Formel 1. Zu den Höhepunkten gehört auch das jährlich stattfindende 24-Stunden-Rennen. Mit dem Circuit Zolder verfügt Belgien über eine zweite Rennstrecke von überregionaler Bedeutung. Von 1973 bis 1984 trug hier ebenfalls die Formel-1-Rennen aus. Nivelles-Baulers, der dritte Kurs, auf dem Formel-1-Rennen stattfanden, existiert nicht mehr. Auf der Speedwaybahn von Heusden-Zolder wurden bereits mehrmals internationale Prädikatsrennen ausgefahren. Auf der Grasbahn in Alken in der Provinz Limburg wurde bereits das Finale zur Grasbahn-Europameisterschaft ausgetragen. Comics. Comics sind in Belgien generell sehr populär; ein großer bekennender Fan war zum Beispiel König Baudouin. Den „Bandes Dessinées“ (kurz BD, französisch) oder „Strips“ (niederländisch) begegnet man häufig im Stadtbild, jede gute belgische Buchhandlung hat spezielle BD-Abteilungen und sogar in jedem großen Supermarkt findet man sie. Comics sind ein Hauptexportartikel belgischer Verlage, denn viele international bekannte und berühmte Comiczeichner und Autoren stammen aus Belgien, das damit im Vergleich zu seiner Größe die meisten in Europa hervorgebracht hat. Die berühmtesten sind Willy Vandersteen (Suske und Wiske), Jean Graton (Michel Vaillant), Morris (Lucky Luke), Hergé (Tim und Struppi), Peyo (Die Schlümpfe und weiteres), André Franquin (Spirou und Fantasio, Gaston und Marsupilami) und Philippe Geluck (Le Chat). In Belgien ist es möglich, Comic als Studienrichtung an Kunsthochschulen wie der Königlichen Akademie für bildende Kunst und dem Institut Saint-Luc in Brüssel zu studieren. Daher werden die Bandes Dessinées in Belgien auch als „neunte Kunst“ tituliert. Kaum verwunderlich, dass es in Brüssel auch ein Comic-Museum gibt (Centre Belge de la Bande Dessinée), in dem dieser Kunstrichtung auf drei Etagen gehuldigt wird. Musik. Im 15. und 16. Jahrhundert, der Zeit der Renaissance, waren zahlreiche Komponisten aus dem Gebiet des heutigen Belgien, vor allem aus dem Hennegau, führend und stilprägend in Europa (die sogenannten Niederländer). Bedeutende Namen sind Guillaume Du Fay, Johannes Ockeghem, Josquin Desprez, Heinrich Isaac, Jacob Obrecht, Adrian Willaert, Orlando di Lasso. Der französische Komponist César Franck wurde in Lüttich geboren, verbrachte seine ersten dreizehn Lebensjahre in Belgien und war dort bereits musikalisch aktiv, bevor die Familie 1835 nach Paris umsiedelte. Im Jazz sind der Mundharmonikaspieler Toots Thielemans, der Tenorsaxophonist und Flötist Bobby Jaspar und der Gitarrist Philip Catherine international hervorgetreten. Unter den bekanntesten Bands im 21. Jahrhundert gelten dEUS, Gotye und Hooverphonic. Bosnien und Herzegowina. Bosnien und Herzegowina (bosnisch/kroatisch "Bosna i Hercegovina", serbisch Босна и Херцеговина/Bosna i Hercegovina; verkürzt auch "BiH" / БиХ, "Bosnien-Herzegowina" oder nur "Bosnien" genannt) ist ein südeuropäischer Bundesstaat. Das Staatsgebiet liegt östlich des Adriatischen Meeres und befindet sich nahezu komplett im Dinarischen Gebirge. Hauptstadt und größte Stadt des Landes ist Sarajevo. Überblick. Der Staat ging aus dem Abkommen von Dayton (1995) hervor und ist laut diesem Rechtsnachfolger der Republik Bosnien und Herzegowina, die unmittelbar nach einem Referendum anfangs 1992 gegründet wurde und das einzig international anerkannte von vier Staatsgebilden während des Bürgerkrieges auf dem Territorium Bosnien-Herzegowinas war. Der Vertrag von Dayton beendete den Krieg im Land und schuf einen einheitlichen, jedoch stark dezentralisierten (föderalistischen) Staat. Heute besteht Bosnien und Herzegowina aus den beiden Entitäten Föderation Bosnien und Herzegowina (mehrheitlich von Bosniaken und bosnischen Kroaten bevölkert) und der Republika Srpska (mehrheitlich von bosnischen Serben bevölkert). Das Sonderverwaltungsgebiet Brčko wurde nachträglich aus zu beiden Entitäten zugehörigen Anteilen der Vorkriegs-Großgemeinde Brčko geschaffen und fungiert heute als Kondominium beider Entitäten, verwaltet sich jedoch selbständig. An Bosnien und Herzegowina grenzen insgesamt drei Staaten. Im Osten Serbien, im Südosten Montenegro, sowie im Norden, Westen und Südwesten Kroatien. Des Weiteren hat der Staat bei Neum in einem ca. 20 Kilometer langen Küstenstreifen Zugang zur Adria. Bosnien und Herzegowina ist Mitglied des Mitteleuropäischen Freihandelsabkommens, der Vereinten Nationen, der Organisation für Islamische Zusammenarbeit (Beobachterstatus), des Europarates, Teilnehmer der Organisation für Sicherheit und Zusammenarbeit in Europa und des Kooperationsrates für Südosteuropa. Des Weiteren ist das Land seit 2010 offizieller Beitrittskandidat für eine NATO-Mitgliedschaft und potentieller Beitrittskandidat der Europäischen Union. Geographie. Bosnien und Herzegowina liegt im westlichen Teil der Balkanhalbinsel und ist in weiten Teilen durch eine bewaldete Mittelgebirgslandschaft geprägt, wobei die höchsten Berge Höhen von fast 2400 Meter über dem Meeresspiegel erreichen. Ein Teil des Berglandes, insbesondere in den westlichen Landesteilen und der Herzegowina, ist verkarstet. Das hier anfallende Oberflächenwasser gelangt nicht in die großen Flusssysteme, sondern versickert größtenteils. Im Süden sowie in der nördlich gelegenen Save-Niederung gibt es auch flachere Regionen, die landwirtschaftlich genutzt werden. Ebenfalls im Süden befindet sich die 20 Kilometer lange Adria-Küste bei Neum. Grenzen. Bosnien und Herzegowina hat eine insgesamt 1538 Kilometer lange Außengrenze zu seinen drei Nachbarstaaten. Davon entfallen 932 Kilometer auf Kroatien, welches das Land in einem Bogen nördlich und westlich umgibt, 357 Kilometer auf Serbien im Osten und 249 Kilometer auf Montenegro im Südosten. Die 20 Kilometer lange Adriaküste bei Neum grenzt im Osten sowie im Westen an Kroatien und unterbricht auf diese Weise die kroatische Küste. Die kroatische Stadt Dubrovnik ist über das Festland nur mit zweifacher Überschreitung der Grenze zu Bosnien-Herzegowina zu erreichen. Bosnien und Herzegowina ist aufgrund seiner zentralen Lage die einzige ehemalige jugoslawische Teilrepublik, die ausschließlich von anderen ehemaligen Teilrepubliken umgeben ist. Geomorphologie. Die höchstgelegenen Gebiete des Landes befinden sich im Südosten, an der historischen Grenze zwischen Bosnien und der Herzegowina. Der Gipfel des südlich von Foča an der montenegrinischen Grenze gelegenen Maglić-Massivs ist mit 2386 Metern der höchste Punkt. Der Rest des Landes ist vorwiegend von Mittelgebirgslandschaft geprägt. Klima. Bosnien und Herzegowina liegt im Übergangsgebiet zwischen mediterranem und kontinentalem Klima. Die Winter können sehr kalt werden und Temperaturen bis zu -20 Grad Celsius sind keine Seltenheit. Die Sommer sind überwiegend sehr heiß und es kann mit üblichen Temperaturen von 30 °C bis zu fast 40 °C gerechnet werden. Dadurch besteht die Gefahr, dass sich Waldbrände ausbreiten. Landschaftszonen. Das Land lässt sich nach den Klimazonen in drei Landschaftszonen einteilen. An der Nordgrenze hat Bosnien und Herzegowina Anteil an der Pannonischen Tiefebene, die sich hier im Bereich der Save-Niederung erstreckt. Die Dinarische Gebirgsregion, auch „Bosnische Dinariden“ genannt, erstrecken sich von Südosten des Landes quer über die Mittelregion bis hin zum Nordwesten. Geprägt wird diese Landschaft von zahlreichen Bergen, die weniger verkarstet, sondern mit Waldoberflächen bedeckt sind. In dieser Landschaftszone befinden sich unter anderem Städte wie Sarajevo, Zenica und Bihać. Diese Gebiete sind im Sommer meist sehr warm mit bis zu 35 °C und im Winter kalt, wobei die Temperatur auch auf −15 °C sinken und viel Schnee fallen kann. Die Herzegowina ist zumeist Teil der adriatischen Küstenregion. Die von mediterranen Einflüssen geprägte Herzegowina besteht hauptsächlich aus Karst bzw. verkarsteten Gebirgszügen. In diesem Gebiet gibt es kaum Gewässer. Der Fluss Neretva, der aus Nordherzegowina durch Mostar in Richtung Adriaküste fließt, ist der größte und bekannteste dieser Region. Landschaft im südwestlichen Teil Bosniens (bei Donji Vakuf) Gewässer. Die wichtigsten Flüsse des Landes sind Save und Drina, die Bosnien und Herzegowina im Norden und Osten begrenzen, sowie die Bosna, welche im Landesinneren entspringt und in die Save mündet. Fast das gesamte Gebiet Bosniens gehört zum Einzugsgebiet der Save bzw. des Schwarzen Meeres, während die Flüsse der Herzegowina – zum Teil unterirdisch – in die Adria entwässern. Die Täler der größeren Flüsse Bosniens erstrecken sich fast ausschließlich in Nord-Süd-Richtung, was für die Siedlungs- und Verkehrsgeschichte des Landes von Bedeutung ist. Zu den größeren Flüssen zählen die Una und Sana, der Vrbas und die Neretva. Abgesehen von der Save an der Grenze zu Kroatien ist kein Fluss in Bosnien und Herzegowina schiffbar. Bosnien und Herzegowina liegt im Blauen Herz Europas. Bosnien hat wenige bedeutende Seen. Die meisten großen Stillgewässer wurden künstlich angestaut. Große Stauseen gibt es an Drina, Neretva, Vrbas und Trebišnjica. Landnutzung. Nur ein knappes Fünftel der Landesfläche ist für den Ackerbau geeignet. Diese Flächen befinden sich vor allem entlang der Save, am Unterlauf der Neretva und in den Poljen der Herzegowina. Natur. Die Tier- und Pflanzenwelt von Bosnien und Herzegowina ist artenreich und vielfältig. Die Flora und Fauna des Landes profitiert von der geringen Bevölkerungsdichte und den unbewohnten Landstrichen. Um die 60 Prozent der Fläche von Bosnien und Herzegowina ist bewaldet, besonders das Gebirge ist sehr waldreich. Durch die schwere Zugänglichkeit ist die Natur auch wenig bedroht. So konnte der Lebensraum vieler seltener Tiere und Pflanzen erhalten werden. Flora. In Bosnien und Herzegowina finden viele bedrohte Pflanzenarten in den Hochgebirgen einen Lebensraum. Im Nationalpark Sutjeska befindet sich der Perućica-Urwald – einer der größten, die noch in Europa erhalten sind. Im Bereich des Dinarischen Gebirges gilt eine Höhe von 500 bis 1000 Metern als Niedrigzone. In diesem Bereich sind Eichen- und Buchenbewaldung typisch. In der Höhe von 1500 Metern kommt eine Buchen-, Fichten-, Tannen- und Kieferbewaldung vor. Ein Baum, der in fast allen Gebirgen des Landes vorkommt, ist die Waldkiefer. Eine Mischung aller dieser Baumarten findet man vor, wenn bewaldete Bereiche schon in niedriger Höhe beginnen und sich nach oben fortsetzen. In diesem Falle spricht man von einem illyrischen Floragebiet. Man kann in allen Bereichen der Hochzone Gebirgsgewächse wie beispielsweise Windröschen, Thymian und Katzenkraut antreffen. Sie sind wie die klassische Alpenflora auf Bergen des Landes zu finden. Eine Besonderheit sind die durch Höhleneinbrüche entstandenen Dolinen. Auf den großen Flächen der Dolinen findet man typische Pflanzen einer kälteren Gebirgslandschaft, während auf den Rändern mittelmeertypische Pflanzen wachsen. Ein gutes Beispiel für die Flora des Landes ist das Gebirge Bjelašnica. Man trifft am Fuße des Berges verschiedene Laubbaumarten wie Eichen, Trauben- bzw. Wintereichen, Weißdorn und Schwarzbuchen an. In den höheren Regionen herrscht ein Mischwald mit Buchen und Tannen. Der Walnussbaum ist in Südosteuropa heimisch und in der Niedrigzone weit verbreitet. Die Hochgebirge weisen überwiegend Wacholder auf, welcher außerordentlich widerstandsfähig gegen Kälte ist. Im Frühling kann man eine große Zahl an Blumen finden. Typische Vertreter sind Veilchen, Enziane, Narzissen, Kamille, Bärlauch, duftende Schlüsselblumen, Natternköpfe und Stiefmütterchen. Viele bereits weiträumig ausgestorbene Blumen haben sich in Bosnien und Herzegowina eingebürgert, wie beispielsweise die Orchideengewächse am Prokoškosee. Manche kalkhaltige Böden bieten ideale Bedingungen für Orchideengewächse wie z. B. für das rote Waldvöglein oder die Berghyazinthe. Wegen des warmen Klimas wachsen auch Liliengewächse in dieser Region. Zum Beispiel wachsen in Bosnien und Herzegowina einige seltene Vertreter der Gattung "Tulipa", wie z. B. die "Tulipa biflora", die von Kroatien bis Albanien verbreitet ist oder die "Tulipa orphanidea", welche eine Seltenheit ist und von der unberührten Natur profitiert. Zudem weist das Land eine beachtliche Anzahl an Endemiten auf. Das "Lilium carniolicum var. bosniacum" ist im zentralen Bosnien auf kalkhaltigen Böden endemisch. Lange war ihre Klassifikation unklar, was dazu führte, dass man sie als Unterart bzw. Varietät zu den Pyrenäen-Lilien oder als Synonym zu den "Lilium chalcedonicum" zählte. Erst nach molekulargenetischen Untersuchungen wurden sie schließlich der Krainer Lilie zugeordnet. Eine Pflanze, die auch lange ohne eindeutige Zuordnung war und in Bosnien gedeiht, ist "Lilium jankae". Das Vorkommen reicht bis hin zu den Rhodopen. Fauna. Aale kann man z. B. in Hutovo Blato antreffen. Hutovo Blato ist ein Naturpark, zu dem viele kleine Seen und Sümpfe gehören. Auch zahlreiche andere Wassergetierarten, besonders zahlreiche Krebsarten, kommen vor. Von vielen verschiedenen Schlangenarten, die man in Bosnien und Herzegowina antreffen kann, sind zwei giftig. Zu den giftigen gehört die Europäische Hornotter und die Kreuzotter. Die Vierstreifennatter ist eine der ungiftigen Arten. Neben Schlangen leben auch eine große Anzahl anderer Reptilien wie z. B. Echsen in Bosnien und Herzegowina. Die faszinierende Vogelwelt hat sich in den bosnischen Gebirgen gut erhalten. Der Grünspecht ist in den Laubwäldern und der Schwarzspecht in den Nadelwäldern des Landes heimisch. Gänsegeier sind in einigen Bergen wie z. B. der Bjelašnica beheimatet. Zu den wichtigsten Greifvögeln des Landes gehören die Steinadler sowie die Falkenarten. Der Steinadler ist in Küstennähe und in den vielen vorkommenden Gebirgen beheimatet. Der Turmfalke ist in ganz Bosnien und Herzegowina beheimatet. Der Lannerfalke kommt in einigen wenigen Brutpaare in Herzegowina vor. Auch sind unzählige Insekten- und Käfergattungen im Land vertreten. Das größte Tier des Landes ist der vom Aussterben bedrohte Braunbär, von dem rund 2800 Exemplare in Bosnien und Herzegowina leben. Bevölkerung. Die Staatsbürger Bosnien und Herzegowinas werden als "Bosnier" bezeichnet. Damit sind Bosniaken und Kroaten wie auch Serben gemeint, die in Bosnien und Herzegowina beheimatet sind. Dagegen werden mit dem Begriff "Bosniaken" ausschließlich die bosnischstämmigen Muslime bezeichnet. Ethnien. Die Volkszählung 1991 ergab 44 Prozent Muslime (größtenteils Bosniaken), 31,5 Prozent Serbisch-Orthodoxe (größtenteils Serben), 17 Prozent Katholiken (größtenteils Kroaten). Der Rest der Bevölkerung gehört einer der 17 offiziell anerkannten Minderheiten an. Das CIA World Factbook schätzte für das Jahr 2000 48 Prozent Bosniaken, 37,1 Prozent Serben, 14,3 Prozent Kroaten. Minderheiten wie Roma und Juden stellten demnach 0,6 Prozent der Gesamtbevölkerung dar. Die Ergebnisse der Volkszählung 2013 liegen noch nicht nach Ethnien aufgeschlüsselt vor. Die Zuordnung der Bosnier zu ihrer ethnischen Herkunft erfolgt hauptsächlich über ihre Religionszugehörigkeit und der teils damit verbundenen kulturellen Unterschiede. Sprachlich gab es bis zu den Jugoslawienkriegen innerhalb Bosniens keine Trennung, da alle Volksgruppen (dem restlichen Jugoslawienteil entsprechend) die von ihnen gesprochene Sprache als Serbokroatisch bezeichneten und mit ijekavischen Akzenten sprachen. Sprachen. Die Einwohner Bosniens und der Herzegowina sprechen meist ijekavische Varietäten der štokavischen Dialektgruppe, die sich untereinander kaum unterscheiden. In der geschriebenen Form werden gemäß der offiziellen Aufteilung der Bevölkerung in drei sogenannte "Staatsvölker" – Bosniaken, Kroaten und Serben – die eng miteinander verwandten Standardsprachen Bosnisch, Serbisch und Kroatisch verwendet. Je nach Sichtweise werden diese Sprachen auch zusammenfassend als "Serbokroatisch" bezeichnet. Die drei Standardsprachen lassen sich insbesondere hinsichtlich ihrer Schrift unterscheiden. So verwenden die Serben in Bosnien und Herzegowina vorwiegend die kyrillische und in geringerem Maße die lateinische Schrift, während die Bosniaken und Kroaten ausschließlich in lateinischer Schrift schreiben. Im zeitlichen Umfeld des Bosnienkrieges kam die kyrillische Schrift bei bosnischen Serben vermehrt zur Anwendung, was vor allem in der gewünschten Abgrenzung von den anderen beiden Bevölkerungsgruppen begründet liegt. So war die kyrillische Schrift in der Republika Srpska zwischenzeitlich konsequenter in Gebrauch als in Serbien selbst. Sprachlich sind die Unterschiede zwischen den drei Varianten sehr gering; sie beschränken sich auf einen kleinen Teil des Wortschatzes und betreffen gewisse Lautungen. So enthält die bosnische Standardsprache mehr Wörter osmanischer beziehungsweise türkischer Herkunft wie etwa "akšam" (Abend). Neben den štokavischen Dialekten sind bei den kleineren Volksgruppen, z. B. den Roma, eigene Sprachen in Gebrauch. Religionen. In Bosnien und Herzegowina gibt es seit Jahrhunderten ein Nebeneinander verschiedener Religionen und Glaubensrichtungen. Die meisten Einwohner werden formell einer der zwei großen monotheistischen Religionsgemeinschaften (Christentum und Islam) zugerechnet: Muslime (nach dem Zensus 1991 ca. 43,7 %, meist ethnische Bosniaken), serbisch-orthodoxe Christen (1991 ca. 31,4 %) sowie mehrheitlich kroatische römisch-katholische Christen (ca. 17,3 %). Für viele Einwohner ist diese Zuordnung aber seit der jugoslawischen Zeit eher Ausdruck einer kulturellen, historischen oder familiären Verbundenheit als einer tatsächlichen Religiosität. Nach der Volkszählung von 1991 gehörten 7,6 % der Gesamtbevölkerung des Landes anderen Religionen an oder waren Atheisten. 2009 waren 45 % der Bevölkerung Muslime, 34 % serbisch-orthodoxe, 15 % katholische, 1 % protestantische Christen, 3 % waren Juden oder gehörten anderen Gruppen an. Im Jahr 2008 lebten rund 1000 Juden in Bosnien und Herzegowina, etwa 900 Sephardim und 100 Aschkenasim. Die größte Gemeinde ist die von Sarajevo mit zirka 700 Mitgliedern. Schulwesen und Bildung. Es besteht Schulpflicht bis zur neunten Schulklasse. Die Absolventen können sich im Anschluss daran für eine dreijährige Berufsausbildung oder für eine drei- bis vierjährige Sekundarschulausbildung an Gymnasien, kirchlichen Schulen, Kunstschulen, technischen Schulen oder Lehrerbildungsinstituten entscheiden. Der Zugang zu den Universitäten steht nach Bestehen einer Aufnahmeprüfung den Absolventen einer Sekundarschule sowie – eingeschränkt – Absolventen von Berufsschulen offen. Die Zuständigkeit der Kantone (innerhalb der Föderation) und der Republika Srpska für die Kultur- und Bildungspolitik führt zu einem zersplitterten Bildungssystem mit teilweise ethnozentrisch bestimmten Lehrplänen. In Gebieten mit ethnisch gemischter Bevölkerungsstruktur werden Schüler häufig nach Volksgruppen getrennt unterrichtet. Universitäten gibt es in Sarajevo, Ost-Sarajevo (Pale), Banja Luka, Mostar (die kroatisch dominierte Sveučilište Mostar und die bosniakisch dominierte Universität „Džemal Bijedić“), Tuzla, Zenica und Bihać. Geschichte. Ausweitung des bosnischen Königreichs im Mittelalter Flagge der bosnischen Rebellen in den 1830er Flagge der Republik Bosnien und Herzegowina (1992–1995) Mittelalter. Bosnien und Herzegowina besteht aus zwei historischen Regionen, die aber keine Beziehung zu der heutigen Einteilung in Entitäten haben: Bosnien und die Herzegowina. Der Landesname Bosnien leitet sich vom Fluss Bosna ab, der nahe der Hauptstadt Sarajevo entspringt. Der Name Herzegowina geht auf den Herrschertitel Herceg = Herzog ("Hercegovina"="Herzogsland") zurück. In der Antike lange Teil des Römischen Reiches (Provinz Dalmatia), wurde die Region um 600 slawisch besiedelt. Osmanisches Reich. 1463 wurde Bosnien von den Osmanen erobert. Durch die Einwanderung der Osmanen nach Bosnien entstanden viele Moscheen und es kam vermehrt zu Konversionen der christlichen Bevölkerung zum Islam, was dazu führte, dass Bosnien aufgrund des höheren Anteils an muslimischer Bevölkerung einen Sonderstatus im Osmanischen Reich genoss. Im Jahre 1527 wurde das "Eyalet Bosnien" gegründet, welches das Gebiet des heutigen Gesamtstaates Bosnien-Herzegowina, Teile Kroatiens, Montenegros, sowie den Sandschak von Novi Pazar umfasste, woraus um 1580 letztendlich das "Paschalik Bosnien" resultierte. Habsburgermonarchie und Erster Weltkrieg. 1878 stellte der Berliner Kongress nach dem Sieg der Russen über die Osmanen die osmanischen Provinzen Bosnien, Herzegowina unter österreichisch-ungarische Verwaltung, zusätzlich erhielt Österreich-Ungarn Garnisonsrecht im Sandschak von Novi Pazar. Die formale Annexion durch die Habsburger Doppelmonarchie im Jahre 1908 löste die Bosnische Annexionskrise aus. Selbständigkeitsbestrebungen hatten es auch wegen der ethnischen und religiösen Mischung schwer. Das darauf beruhende Attentat auf den österreichisch-ungarischen Thronfolger Franz Ferdinand 1914 in Sarajevo durch den bosnisch-serbischen Studenten Gavrilo Princip wird als ein wesentlicher Auslöser des Ersten Weltkrieges angesehen. Nach dem Ersten Weltkrieg wurde das Land Bestandteil des Königreichs der Serben, Kroaten und Slowenen (Jugoslawien). Königreich Jugoslawien (1918–1941). Unmittelbar nach dem Ersten Weltkrieg wurde Bosnien und Herzegowina Teil des Königreichs Jugoslawien. In dem neu gegründeten südslawischen Vielvölkerstaat herrschte der aus Serbien stammende König Petar I.(Petar Karađorđević). In dem Gesamtstaat selbst war die Stimmung der Bevölkerung angespannt, weil vor allem Slowenien und Kroatien nach einer eigenen politischen Unabhängigkeit strebten und die Serben den neu gegründeten Staat ausschließlich serbisch prägen wollten. In Bosnien-Herzegowina war die Situation dementsprechend, allerdings zwischen den Bosniaken, Kroaten und Serben. Der Staat zeichnete sich durch Zentralismus aus; der Autonomiegedanke hinsichtlich nichtserbischer Ethnien und nichtchristlicher Religionen blieb weitgehend unterdrückt, die ethnischen und die konfessionellen bzw. religiösen Spannungen blieben bestehen und verschärften sich zum Teil noch. Im Frühjahr 1941, während des Zweiten Weltkrieges, wurde das Land von Truppen des Deutschen Reiches und Italiens besetzt. Man unterteilte den Staat in Einzelrepubliken; Bosnien-Herzegowina wurde mit Kroatien zu einem faschistischen Vasallenstaat namens Unabhängiger Staat Kroatien erklärt. Der erfolgreiche Widerstand der von Josip Broz Tito geführten jugoslawischen Partisanen gegen die Besatzer und ihre Verbündeten gipfelte in den AVNOJ-Beschlüssen vom 29. November 1943 in Jajce, in denen der Grundstein für eine neue Föderation südslawischer Völker unter der Führung der Kommunistischen Partei Jugoslawiens KPJ gelegt wurde. Jugoslawien. Nach dem Zweiten Weltkrieg entstand mit der Gründung der Sozialistischen Föderativen Republik Jugoslawien ein Bundesstaat mit den sechs Teilrepubliken Slowenien, Kroatien, Bosnien und Herzegowina, Montenegro, Mazedonien und Serbien mit den Autonomen Provinzen Kosovo und Vojvodina. Die Sozialistische Republik Bosnien und Herzegowina war flächenmäßig die drittgrößte Teilrepublik. Ökonomisch betrachtet lag Bosnien-Herzegowina in Jugoslawien hinter den Teilrepubliken Slowenien, Kroatien sowie Serbien, da es hauptsächlich auf den industriellen Sektor und teils auf landwirtschaftlichen Betrieb ausgelegt war, im Kontrast zu Slowenien und Kroatien, die vor allem auf den Tourismus ausgelegt waren. Unabhängigkeitserklärung. Nach dem Fall des „Eisernen Vorhanges” in Europa Anfang der 1990er Jahre endete auch die Zeit des Kommunismus in Jugoslawien. Am 29. Februar/1. März 1992 stimmten in Bosnien und Herzegowina bei einem von Serben weitgehend boykottierten Referendum, bei einer Wahlbeteiligung von 63 %, 99,4 % für eine staatliche Souveränität. So erklärte das Land am 2. März 1992 seinen Austritt aus dem Staatsverband Jugoslawien und war zunächst eine Republik unter dem offiziellen Namen Republik Bosnien und Herzegowina ("Republika Bosna i Hercegovina"), die fast dieselben Grenzen hatte, die das österreichisch-ungarische Okkupationsgebiet Bosnien und Herzegowina 1878 auf dem Berliner Kongress erhielt. Die internationale Anerkennung erfolgte am 17. April 1992. Es folgten drei Jahre Krieg zwischen serbischen, kroatischen und bosniakischen Einheiten. Am Ende des Bosnienkrieges stand der 1995 in Dayton (USA) paraphierte und in Paris am 14. Dezember unterzeichnete Dayton-Vertrag, der aus einer einheitlichen die föderale Republik Bosnien und Herzegowina schuf, die allerdings noch unter den Folgen des Krieges und den anhaltenden Auseinandersetzungen zwischen den Volks- und Religionsgruppen leidet (siehe Internationale Konflikte der Nachfolgestaaten Jugoslawiens). Zwar bestehen keine Konflikte zwischen den bosnischen Normalbürgern, allerdings steckt das Land weiterhin in einer politischen Krise, da die bosniakischen Politiker den Gesamtstaat nach den EU-Forderungen zentralisieren möchten, die kroatischen Politiker sich für ein neues Wahlrecht einsetzen und die Serben eine weitere Dezentralisierung des Staates fordern oder gar mit der Abspaltung der Republika Srpska drohen. Im Februar 2014 kam es zunächst in Tuzla und später in zahlreichen weiteren Städten des Landes zu teils gewalttätigen Protesten, die sich gegen die schlechte wirtschaftliche Situation und die Korruption in Politik und Verwaltung richteten. Politisches System. Das politische System wird von Wissenschaftlern und Journalisten häufig als „kompliziertestes Regierungssystem der Welt“ bezeichnet. Der Gesamtstaat, die Entitäten und die 10 Kantone haben jeweils eigene legislative und exekutive Strukturen. Dazu unterliegt das Land noch einem internationalen Mandat, siehe Abschnitt Gliederung des Staates. Parteien. Die Parteienlandschaft von Bosnien und Herzegowina ist durch die innere Spaltung zersplittert. Während die Regierungsparteien relativ überschaubar sind, befinden sich viele unterschiedliche Parteien in der Opposition. Zu den stärksten bosniakischen Parteien zählen die SDA und SBIH, wobei die SBIH sich als einheitliche Partei Bosnien-Herzegowinas bezeichnet. Auf serbischer Seite dominiert die Partei des Sozialdemokraten Milorad Dodik SNSD, während bei den Kroaten die HDZ 1990 und HDZ BIH bei den meisten Wahlen ins Parlament gewählt worden sind. Wahlen 2006 und Beitrittsverhandlungen mit der Europäischen Union. Die Wahlen am 1. Oktober 2006 galten als zukunftsweisend, weil die internationale Gemeinschaft 2007 den Hohen Repräsentanten abziehen und Bosnien und Herzegowina in die volle Souveränität überführen wollte. Im Nachhinein wurde dieses Vorhaben zunächst um ein weiteres Jahr verschoben. In das Staatspräsidium wurden der Bosniake Haris Silajdžić von der Partei für Bosnien und Herzegowina (SBiH), der Serbe Nebojša Radmanović vom Bund der Unabhängigen Sozialdemokraten (SNSD) und der Kroate Željko Komšić von den multi-ethnischen Sozialdemokraten gewählt. Komšić schlug in einem Kopf-an-Kopf-Rennen seinen Kontrahenten von der nationalistischen Kroatischen Demokratischen Union in Bosnien und Herzegowina (HDZ BiH). Nationalistische kroatische Gruppen hatten daraufhin protestiert, Komšić könne nicht kroatische Interessen vertreten, da in erster Linie Mitglieder anderer Volksgruppen für ihn gestimmt hätten. Die bosnisch-serbische Partei Bund der Unabhängigen Sozialdemokraten hatte vor den Wahlen erneut ein Referendum für die Unabhängigkeit der Teilrepublik Srpska gefordert, falls die Forderungen nach einer stärkeren Zentralisierung nicht aufhörten. Silajdžić setzte sich für eine Verfassungsänderung ein, die ein Zusammenwachsen Bosniens in einen „funktionsfähigen“ Staat ermöglichen solle. Dies wird teilweise so interpretiert, dass er die Existenz der Entitäten infrage stellte. Im Januar 2008 bekräftigte der Vorsitzende des SNSD, Milorad Dodik, die Zugehörigkeit der Republika Srpska zum Gesamtstaat und seinen Willen, diesen aufrechtzuerhalten. Im Jahr 2010 hatte Dodik jedoch mehrfach von einer möglichen Abspaltung der serbischen Landeshälfte gesprochen beziehungsweise davon, dass er dem Fortbestand Bosniens keine Chancen einräume. Ende Februar 2008 beschlossen EU-Vertreter gemeinsam mit Gesandten der USA und Russlands, den Hohen Repräsentanten auf unbestimmte Zeit im Land zu lassen. Am 16. Juni 2008 wurde das Stabilisierungs- und Assoziierungsabkommen mit der Europäischen Union abgeschlossen, das als wichtige Vorstufe für den angestrebten Beitritt zur EU gilt. Die Unterzeichnung wurde von einer Polizeireform abhängig gemacht. Die Polizei beider Landesteile wurde aufgerufen intensiver miteinander zu kooperieren, insbesondere um weitere Kriegsverbrecher zu überführen. Seit 2003 agiert die EUPM in Bosnien und Herzegowina. Primär ist sie für die Bekämpfung des organisiertem Verbrechens und für die Beratung hinsichtlich der Polizeireform zuständig. Eine EU-Vollmitgliedschaft wäre noch vor 2020 möglich, sofern Bosnien-Herzegowina kontinuierlich die wirtschaftliche Situation verbessert, demokratische Strukturen stärkt und ethnische Spannungen abbaut. Vorsitzender des Ministerrats und damit Regierungschef ist seit Januar 2012 Vjekoslav Bevanda (HDZ BiH). Wahlen 2010 und verzögerte Regierungsbildung. Bei den allgemeinen Wahlen am 3. Oktober 2010 wurden zu Mitgliedern des Staatspräsidiums gewählt: Željko Komšić (bosnisch-kroatisches Mitglied), Bakir Izetbegović (bosnisch-bosniakisches Mitglied) und Nebojša Radmanović (bosnisch-serbisches Mitglied). Bei dieser Wahl bestanden jedoch Zweifel, ob der Sieg in zwei Fällen nicht durch Wahlbetrug zustande kam. Die Wahlkommission hatte eine Neuauszählung der ungewöhnlich vielen als ungültig gewerteten Stimmen bei der Wahl des serbischen und des bosniakischen Mitglieds des Staatspräsidiums angeordnet. Nach Neuauszählung wurden alle drei gewählten Mitglieder des Staatspräsidiums bestätigt und in der konstituierenden Sitzung am 10. November 2010 wurde Nebojša Radmanović zum ersten Vorsitzenden des Staatspräsidiums gewählt. Neben dem Staatspräsidium wurden das aus zwei Kammern bestehende gesamtstaatliche Parlament, die Parlamente der Bosniakisch-Kroatischen Föderation und der Republika Srpska, der Präsident des serbischen Teilstaates, seine beiden Vizepräsidenten sowie in der Föderation die Parlamente der zehn Kantone gewählt. Nach den Wahlen im Oktober 2010 verhinderten Konflikte unter den führenden bosniakischen, serbischen und kroatischen Parteien die Bildung einer Regierung. Erst nach fast 15 Monaten, in denen u. a. der Internationale Währungsfonds und die Europäische Union ihre Kreditzahlungen ausgesetzt hatten, einigten sich die sechs großen Parteien der drei Volksgruppen Ende Dezember 2011 auf eine neue Regierung. Wäre die Einigung nicht vor dem 1. Januar 2012 zustande gekommen, hätten sämtliche Zahlungen aus dem Staatshaushalt eingestellt werden müssen. Medienberichten zufolge sollen sich die politischen Vertreter auch auf den Haushalt 2012 und einige EU-konforme Gesetze geeinigt haben. Anfang Januar 2012 wurde Vjekoslav Bevanda von der Kroatischen Demokratischen Union in Bosnien und Herzegowina ("HDZ BiH") vom Parlament zum neuen Ministerpräsidenten gewählt. Wahlen 2014 und Regierungsbildung 2015. Bei den Wahlen am 12. Oktober 2014 traten 51 politische Parteien, 14 andere Bündnisse und 15 unabhängige Kandidaten an. Die Wahlbeteiligung lag bei 54,14 Prozent, etwa 2 Prozent weniger als 2010. Mitglieder des Staatspräsidiums. Als bosniakisches Mitglied wurde Bakir Izetbegović mit 32,87 % wieder gewählt. Auf den weiteren Plätzen Fahrudin Radončić (26,78 %), Emir Suljagić (15,2 %), Bakir Hadžiomerović (10,02 %), Sefer Halilović (8,80 %), Mustafa Cerić (4,5 %). Als kroatisches Mitglied wurde Dragan Čović mit 52,2 % gewählt, Martin Raguž erreichte 38,61 %, Živko Budimir 6,27 %. Von den serbischen Kandidaten gewann Mladen Ivanić (48,71 %), dicht dahinter Željka Cvijanović (47,56 %), schließlich Goran Zmijanjac (3,73 %). Gesamtstaatliches Parlament. Ergebnisse aus der Föderation: SDA (27,87 %, 9 Sitze), DF (15,33 %, 5), SBB (14,44 %, 4), HDZ BiH coalition (12,15 %, 4), SDP (9,45 %, 3), HDZ 1990 (4,08 %, 1), BPS (3,65 %, 1), A-SDA (2,25 %, 1) Ergebnisse aus der Republika Srpska: SNSD (38,46 %, 6 Sitze), SDS (33,64 %, 5), PDP-NDP (7,76 %, 1), DNS (5,72 %, 1), SDA (4,88 %, 1) Parlament der Föderation. SDA (27,79 %, 29 Sitze), SBB (14,71 %, 16), DF (12,9 %, 14), HDZ coalition (11,93 %, 13), SDP (10,14 %, 11), HDZ 1990 (4,04 %, 4), BPS (3,72 %, 4), SzBiH (3,30 %, 3), A-SDA (2,25 %, 2), Nasa Stranka (1,54 %, 1), Laburisticka Stranka (0,57 %, 1) Präsident der Republika Srpska. Milorad Dodik (45,22 %, gewählt), Ognjen Tadić (44,19 %), Ramiz Salkić (3,73 %, gewählt als Vizepräsident), Josip Jerković (0,98 %, gewählt als Vizepräsident) Parlament der Republika Srpska. SNSD (32,24 %, 29 Sitze), SDS (26,22 %, 24 Sitze), DNS (9,23 %, 8), PDP (7,37 %. 7), Domovina (5,28 %, 5), NDP (5,13 %, 5), SP (5,09 %, 5) Kantonale Parlamente. Kanton Una-Sana: SDA (32,38 %, 11 Sitze), A-SDA (16,92 %, 5), DF (11,51 %, 4), SDP (10,93 %, 4), SBB (9,74 %, 3), Laburisti (5,43 %, 2), ZZP (3,23 %, 1) Kanton Posavina: HDZ BiH Koalition (32,92 %, 7 Sitze), HDZ 1990 (29,69 %, 7), SDA (12,14 %, 3), Posavska Stranka (6,22 %, 1), HSP BiH-DSI (3,83 %, 1), SBB (3,68 %, 1), SDP (3,03 %, 1) Kanton Tuzla: SDA (32,23 %, 13 Sitze), SDP (13,7 %, 6), SBB (12,41 %, 5), DF (10,96 %, 4), SzBiH (8,36 %, 3), NSRzB (4,44 %, 2), BPS (4,4 %, 1) Kanton Zenica-Doboj: SDA (28,60 %, 11 Sitze), SBB (19,61 %, 8), DF (12,56 %, 5) SDP (11,36 %, 4), HDZ BiH coalition (5,97 %, 2), A-SDA (5,57 %, 2), SzBiH (4,44 %, 2), BPS (3,91 %, 1) Kanton Bosnisches Podrinje: SDA (22,03 %, 6 Sitze), SBB (18,48 %, 5), SzBiH (8,54 %, 2), SDP (8,43 %, 2), DF (6,77 %, 2), Stranka za Bolje Gorazde (6,34 %), BPS (5,86 %, 2), Novi Pokret (5,69 %, 1), Stranka Dijaspore (4,79 %, 1), LS BiH (4,29 %, 1), A-SDA (3,71 %, 1) Kanton Zentralbosnien/Mittelbosnien: SDA (25,7 %, 8 Sitze), HDZ BiH Koalition (22,76 %, 8), SBB (10,97 %, 4), SDP (10,87 %, 4), DF (8,53 %, 3), HDZ 1990 (6,77 %, 2), HSP-HSS (3,16 %, 1) Kanton Herzegowina-Neretva: HDZ BiH Koalition (32,25 %, 11 Sitze), SDA (20,83 %, 7), HDZ 1990 (9,01 %, 3), SBB (8,39 %, 3), SDP (7,73 %, 3), DF (5,68 %, 2), BPS (3,69 %, 1) Kanton West-Herzegowina: HDZ BiH Koalition (56,56 %, 14 Sitze), HDZ 1990 (15,07 %, 4), HSP BiH-DSI (6,6 %, 2), NSRzB (5,61 %, 1), HSP Ante Starcevic (4,48 %, 1), HKDU-Hrast (3,26 %, 1) Kanton Sarajevo: SDA (25,02 %, 10 Sitze), DF (17,1 %, 7), SBB (16,65 %, 7), SDP (9,4 %, 4), NS (7,7 %, 3), BPS (4,81 %, 2), BOSS (3,75 %, 2) Kanton 10: HDZ BiH Koalition (30,57 %, 9 Sitze), HDZ 1990 (15,16 %, 4), SNSD (11,81 %, 3), HNL (7,71 %, 2), SDA (7,26 %, 2), NSRzB (5,9 %, 2), PSS (5,55 %, 2), SDP (4,4 %, 1) Bildung der gesamtstaatlichen Regierung 2015. Erst knapp sechs Monate nach der Wahl wurde die neue gesamtstaatliche Regierung gebildet und von einer Fünfparteienkoalition des Abgeordnetenhauses bestätigt. Vorsitzender des Ministerrats und damit Regierungschef wurde Denis Zvizdić von der bosniakischen SDA. Die kroatisch-nationalistische HDZ bekam drei der neun Ministerposten, obwohl sie bei den Wahlen nur 7,5 Prozent der Stimmen erhielt. Die multiethnische Demokratska Fronta (DF) stellt trotz 9,2 Prozent nur einen Minister. Außenminister ist der Serbe Igor Crnadak. Die serbischen Parteien, die in der Regierung sitzen, gelten als reformorientiert und nicht separatistisch. Die in der Republika Srpska führende SNSD wurde auf Gesamtstaatsebene ausgegrenzt. Menschenrechtssituation. Bosnien und Herzegowina hat die UN-Frauenrechtskonvention und das Zusatzprotokoll zur Frauenrechtskonvention ratifiziert. Die Todesstrafe ist abgeschafft. Die Internationale Helsinki-Föderation für Menschenrechte stellte in seinem Bericht 2008 fest, dass Diskriminierung in einigen Lebensbereichen wie bei der Beschäftigung stattfindet. Auch sei die Situation der Verteidiger der Menschenrechte alarmierend. Attacken gegen Journalisten seien eskaliert. Bei dem ersten "Queer Festival" zum Thema Menschenrechte und Sexualität im September 2007 sei einer Organisatorin mit dem Tod gedroht und acht Teilnehmer seien geschlagen worden. Vor dem Festival hätten Politiker, Geistliche und einige Medien eine Kampagne gegen die Veranstaltung gestartet. Unter Berufung auf "BH Journalists" sprach der Report 2008 von 54 Fällen, in denen die Rechte von Journalisten oder die Pressefreiheit verletzt worden waren. Es seien 25 Fälle registriert worden, in denen Journalisten angegriffen oder bedroht wurden, auch mit dem Tod. Militär. Bis Ende 2005 lag die Verteidigungspolitik bei den beiden Entitäten. Seit 2006 unterstehen die Streitkräfte der Staatspräsidentschaft und dem 2004 geschaffenen Verteidigungsministerium der Staatsebene. Die gemeinsame Armee besteht aus bis zu 10.000 aktiven Berufssoldaten und einer etwa halb so starken „aktiven Reserve“. Neben den formal integrierten operativen Strukturen bestehen jeweils ein bosniakisches, serbisches und kroatisches Regiment, die die Traditionen der drei Teilstreitkräfte ABiH, HVO und VRS fortführen sollen. Die allgemeine Wehrpflicht wurde am 1. Januar 2006 aufgehoben. Angestrebt wird die Integration der Streitkräfte in europäische und euroatlantische Strukturen und die Beteiligung an UN-Einsätzen. 2006 trat Bosnien und Herzegowina der NATO-„Partnerschaft für den Frieden“ bei. Im Oktober 2010 wurde ein aus 45 Mitgliedern bestehendes militärisches Kontingent zur Unterstützung der International Security Assistance Force (ISAF) nach Afghanistan entsandt. Die Truppenstärke hat sich bis 2012 auf 53 Soldaten erhöht. Gliederung des Staates. Die politische Gliederung des Staates ist komplex. Seit dem Dayton-Vertrag (auch bekannt als "Dayton-Friedensabkommen") besteht Bosnien und Herzegowina aus zwei Entitäten: der Föderation Bosnien und Herzegowina ("Federacija Bosne i Hercegovine") mit 2.371.603 Einwohnern (62,55 %) und der Republika Srpska mit 1.326.991 Einwohnern (35 %). Beide Entitäten verfügen jeweils über eine eigene Exekutive und Legislative. Der Distrikt Brčko um die gleichnamige nordbosnische Stadt mit 93.028 Einwohnern (2,45 %) untersteht als Kondominium beider Entitäten direkt dem Gesamtstaat. Die Föderation Bosnien und Herzegowina setzt sich aus zehn Kantonen zusammen, die über eigene Zuständigkeiten verfügen. Zu statistischen Zwecken ist auch die Republika Srpska in Regionen eingeteilt, die jedoch keine verwaltungstechnische Bedeutung haben. Die unterste Verwaltungsebene nehmen die 142 Gemeinden ("općine" bzw. "opštine") ein. Der gesamtstaatlichen Ebene waren zunächst nur die Außenpolitik, die Geldpolitik sowie die Außenwirtschaftsbeziehungen zugeordnet. In den vergangenen Jahren wurden die Kompetenzen des Zentralstaats um weitere Aufgaben ergänzt (Verteidigung, Zoll und indirekte Steuern, Verfolgung und Aburteilung von Kriegsverbrechern und Bekämpfung der Schwerkriminalität). Neben den Regierungen und Parlamenten der beiden Entitäten gibt es eine gemeinsame Regierung und ein gemeinsames Parlament (Abgeordnetenhaus mit 42 Sitzen und "Kammer der Völker" mit 15 Sitzen) für den Gesamtstaat. Die drei Volksgruppen haben je einen Vertreter in einem dreiköpfigen Staatspräsidium. Die Bosniaken und Kroaten wählen ihre beiden Vertreter in der Föderation, die bosnischen Serben ihren in der Republika Srpska. Der Vorsitz des Staatspräsidiums wechselt alle acht Monate. Die Einschränkung, dass nur Angehörige der drei konstituierenden Völker für das Staatspräsidium kandidieren dürfen, wurde vom EGMR als Verstoß gegen das Diskriminierungsverbot und das Recht auf freie Wahlen gewertet. Faktisch übt einen Teil der Staatsgewalt jedoch der Hohe Repräsentant als Vertreter der internationalen Gemeinschaft aus, was damit begründet wird, dass infolge des im Krieg entstandenen gegenseitigen Misstrauens unter den Verantwortlichen der Volksgruppen nach wie vor eine Blockadehaltung vorherrsche. Außerdem sind nach wie vor rund 1000 ausländische Soldaten im Rahmen der EUFOR-Operation „Althea“ in Bosnien und Herzegowina stationiert. Städte. Große Landesteile sind nur dünn besiedelt. Vereinfacht dargestellt konzentriert sich der Großteil der Bevölkerung im Raum Sarajevo sowie in den Tälern der größeren Flüsse, v. a. der Bosna. Allgemeines. Im früheren Jugoslawien gehörte Bosnien und Herzegowina zu den wirtschaftlich schwächeren Regionen. Nach dem Ende des Bosnienkriegs kam es zunächst zu einem kontinuierlichen Wirtschaftswachstum. Die strikte Geldpolitik, die einen festen Wechselkurs der Konvertiblen Mark zum Euro beinhaltet, trug zur Stabilität der Währung bei. Das Bankwesen wurde reformiert, wobei ausländische Banken 85 Prozent der Banken kontrollieren. Die offiziell angegebene Arbeitslosenrate liegt bei 28,2 Prozent, wobei diese Rate durch einen großen grauen Wirtschaftssektor reduziert wird. Die Einführung einer Mehrwertsteuer im Jahr 2006 hat die Staatseinnahmen erhöht. Die Exporte sind noch wenig diversifiziert; Mineralien und Holz machen 50 Prozent aller Exporte aus. Das hohe Leistungsbilanzdefizit konnte bisher durch Transferleistungen von Bosniern, die im Ausland leben, ausgeglichen werden. Haupthandelspartner von Bosnien und Herzegowina ist die Europäische Union mit einem Anteil von etwa 50 Prozent. Österreich ist wertmäßig der größte ausländische Investor vor Slowenien. Als problematisch für die wirtschaftliche Entwicklung werden der große und ineffiziente öffentliche Sektor, bürokratische Hindernisse für Unternehmer und der fragmentierte Arbeitsmarkt, der die ethnische Teilung des Landes widerspiegelt, angesehen. Nach Transparency International befindet sich Bosnien und Herzegowina auf dem Korruptionswahrnehmungsindex für 2010 im unteren Viertel der europäischen Länder, mit einem weltweiten Rang von 91. Der Wert von 3,2 von 10 möglichen Punkten weist auf eine weit verbreitete Korruption hin. Die globale Finanzkrise wirkt sich in einer starken Rezession aus. Sie betraf zunächst den Rückgang bei den Exporten und nachfolgend einen drastischen Einbruch auch bei der Inlandsnachfrage. Einige große Industriebetriebe mussten ihre Produktion vorläufig einstellen. Im ersten Quartal 2009 wurden aus der Föderation Rückgänge der Industrieproduktion um 10 Prozent gemeldet, während in der Republika Srpska noch ein Anstieg um 13 Prozent registriert wurde (begünstigt hauptsächlich durch die Inbetriebnahme eines großen erdölverarbeitenden Betriebes). Viele bedeutende industrielle Bereiche in beiden Entitäten berichteten über Rückgänge in der Größenordnung von 20 Prozent. Währung. Die Konvertible Mark (Abkürzung KM, im internationalen Zahlungsverkehr Abkürzung BAM (nach ISO 4217)) ist seit 22. Juni 1998 in ganz Bosnien und Herzegowina gültiges Zahlungsmittel. Die KM ist im festen Verhältnis 1,95583:1 zum Euro gebunden und entspricht somit dem Wert der früheren D-Mark. Laut Gesetz müssen alle Rechnungen im Inland mit der Konvertiblen Mark ausgewiesen werden. Dennoch wird verbreitet auch der Euro, sowie je nach Region die kroatische Kuna oder der serbische Dinar angenommen, obwohl dies offiziell nicht erwünscht ist. Staatshaushalt. Laut Schätzungen der CIA umfasste der Staatshaushalt 2011 Ausgaben von umgerechnet 9,101 Mrd. US-Dollar, dem standen Einnahmen von umgerechnet 8,542 Mrd. US-Dollar gegenüber. Daraus ergibt sich ein Haushaltsdefizit in Höhe von 3,1 % des BIP. Die Staatsverschuldung betrug 2011 nach Schätzungen der CIA 44 % des BIP. Tourismus, Sehenswürdigkeiten. Der Tourismus konnte sich auch kriegsbedingt nur langsam entwickeln, seit einigen Jahren kommen immer mehr Touristen nach Bosnien und Herzegowina – insbesondere nach Mostar und Sarajevo. Weitere sind die Burg und Festungsmauern von Počitelj, das mittelalterliche Schloss von Travnik, die Befestigungsanlage und das Amphitheater von Banja Luka, die Seen Blidinjsko jezero, Prokoško jezero und Šatorsko jezero, die Raftingangebote auf den Flüssen Neretva, Una und Drina, der Adria-Küstenort Neum mit der höchsten durchschnittlichen Jahrestemperatur des Landes sowie die von US-Präsident Bill Clinton eingeweihte Gedenkstätte in Potočari für die Opfer des Massakers von Srebrenica. In Sarajevo und Umgebung befinden sich zahlreiche Sehenswürdigkeiten. Die "Lateinerbrücke" etwa war Ausgangspunkt des Ersten Weltkrieges, da hier das Attentat auf Franz Ferdinand von Österreich und dessen Frau verübt wurde. Das Bosmal City Center (118 m) und der Avaz Twist Tower (142 m) wurden 2001 bzw. 2009 fertiggestellt und sind aktuell die höchsten Gebäude auf der Balkanhalbinsel. Weiters sehenswert sind die komplette Altstadt "Baščaršija" mit dem türkischen Wasserbrunnen Sebilj und die Vijećnica, das alte Rathaus der Stadt. Weiters gibt es in der Stadt viele prächtige historische Moscheen (z. B. Gazi-Husrev-Beg-Moschee, größte historische Moschee des Landes) und Kirchengebäude. In der näheren Umgebung liegen zudem die Wintersportgebiete Bjelašnica und Jahorina, wo auch schon die Olympischen Winterspiele 1984 ausgetragen wurden. An die Belagerung der Stadt während des Bosnienkrieges erinnern der Sarajevski ratni tunel (Sarajevo-Tunnel), das Historijski muzej Bosne i Hercegovine (Historisches Museum von Bosnien und Herzegowina), die „Rosen von Sarajevo“ und die noch zahlreich vorhandenen Zerstörungen und Einschusslöcher an Gebäuden, vornehmlich am Stadtrand. Die Stadt bietet darüber hinaus noch weitere Museen, die sich der geschichtlichen Aufarbeitung der Stadt und des ganzen Landes widmen. Dazu zählen etwa das Nationalmuseum und das Museum von Sarajevo. Minenlage. Beim Verlassen befestigter Wege ist die Gefahr von Landminen zu bedenken. Bosnien-Herzegowina ist neben dem Kosovo und Kroatien das am stärksten verminte Gebiet in Europa. Selbst 2009 galten noch rund 1573 Quadratkilometer der Staatsfläche – vor allem in den Wäldern und Gebirgsgegenden – als minengefährdet, während die Siedlungen und landwirtschaftliche Flächen in der Regel bereits beräumt wurden. Von Kriegsende 1996 bis 2012 wurden 592 Menschen bei Minenunfällen getötet und 1095 verletzt. Für die Beseitigung bekannter Minenfelder sind die bosnische Armee sowie zivile Räumfirmen verantwortlich. Energiesektor. Beide Entitäten besitzen in der Energiepolitik wie in vielen anderen Bereichen eine weitgehende Autonomie. So gibt es zwei Energieministerien, die jeweils unterschiedliche Gesetze und Verordnungen erlassen. Die landesweite Stromregulierungsbehörde DERK hat auf Entitätsebene jeweils eine Regulierungskommission. Der Markt wird unter drei Stromkonzernen aufgeteilt. Die EP RS beliefert die Republika Srpska, die EP BiH das ehemals ABiH-kontrollierte und die EP HZHB das ehemals HVO-kontrollierte Gebiet. Dabei gibt es keine Trennung zwischen der Stromerzeugung und -verteilung. In der Föderation Bosnien und Herzegowina sind die Unternehmen EP BiH und EP HZHB für beides zuständig, und in der Republika Srpska arbeiten Gesellschaften, die zum Konzern EP RS gehören, an der Stromverteilung. Zur Stromübertragung gibt es den gesamtstaatlichen unabhängigen Netzbetreiber NOS BiH und das für den Elektrizitätstransfer zuständige Unternehmen "Elektroprenos-Elektroprijenos Bosne i Hercegovine a.d.", das ebenfalls landesweit tätig ist. Elektroenergie wird in Bosnien und Herzegowina primär durch Kohle- und Wasserkraftwerke erzeugt. Die Kohlereserven belaufen sich auf ca. 4 Mrd. Tonnen, das Wasserkraftpotenzial wird auf 6800 MW geschätzt, wovon bisher nur 35 % ausgeschöpft werden. Die geplanten Investitionen im Energiesektor bis 2020 belaufen sich auf 3,9 Mrd. Euro. Die Primärenergieerzeugung in Bosnien und Herzegowina wurde 2007 zu 9,4 % durch erneuerbare Energien gedeckt. Etwa 50 % der gesamten Landesfläche ist mit Wald bedeckt, was auf ein großes Biomassepotenzial hinweist. Expertenschätzungen zufolge könnten 9.200 GWh aus Biomasse erzeugt werden. Derzeit beschränkt sich die Nutzung der Biomasse auf etwa 4,2 % und ausschließlich auf die Beheizung von Haushalten. In Gebieten, in denen kein Fernwärmenetz vorhanden ist, beläuft sich der Verbrauch von Biomasse in Form von Holz und Holzkohle auf bis zu 60 % des gesamten Energieverbrauchs. Straße. Seit 2001 ist mit der Autobahn 1 von der Adria bis nach Budapest die erste von derzeit fünf geplanten Autobahnen in Bosnien und Herzegowina im Bau. Diese soll von Ploče in Kroatien über Mostar, Sarajevo, Zenica und Doboj wiederum auf kroatisches Gebiet führen und einen Teil des europäischen Verkehrskorridors 5C bilden. Insgesamt wird diese Autobahn auf ca. 360 km durch Bosnien und Herzegowina führen. Das Jahr der vollständigen Fertigstellung ist jedoch unbekannt. Weitere vier Autobahnverbindungen befinden sich in der Planungsphase und wurden bisher nicht nummeriert. Politische Differenzen zwischen den beiden Entitäten von Bosnien und Herzegowina, u. a. über die Nummernvergabe, verhindern eine Einigung. Eisenbahn. Es gibt in Bosnien und Herzegowina zwei Bahngesellschaften: einerseits die Eisenbahngesellschaft der Föderation Bosnien und Herzegowina und andererseits die Eisenbahngesellschaft der Republika Srpska. Diese Hauptachsen werden ergänzt durch die von Novi Grad über Bihać und Martin Brod nach Knin verlaufende Una-Bahn sowie eine von Doboj nach Tuzla führende Strecke, an die eine Strecke über Brčko nach Kroatien sowie eine Strecke über Zvornik nach Serbien anschließen. Daneben gibt es eine Reihe von Werks- und Minenbahnen, die zum Teil noch mit Dampf betrieben werden. Das Eisenbahnnetz von Bosnien und Herzegowina wurde im Bosnienkrieg stark beschädigt. Seit einigen Jahren gibt es wieder eine Bahnverbindung von Zagreb nach Sarajevo, im Februar 2010 wurde wieder eine tägliche Verbindung zwischen Belgrad und Sarajevo aufgenommen. Alle der noch von der k.u.k.-Monarchie errichteten Schmalspurstrecken („Bosnische Schmalspur“) wurden schon um 1970 aufgelassen und größtenteils abgebaut. Eine Ausnahme bildet die Werksbahn der Kohlenmine Banovići – hier standen noch im Jahr 2011 Dampflokomotiven im gelegentlichen Einsatz. Im Jahr 2005 wurde ein Erneuerungsprogramm beschlossen. Unter anderem sollen spanische Talgo-Schnellzüge sowie eine größere Anzahl von Güterwaggons beschafft werden. Luftfahrt. Zurzeit gibt es vier internationale Flughäfen, und zwar in Sarajevo, Mostar, Banja Luka und Tuzla. Kultur. a>, 1566 erbaut, 1993 zerstört, 2002–2004 wieder aufgebaut Musik. Ein traditioneller Musikstil ist die Sevdalinka – bosnische Volksmusik, deren Charakter stark von osmanischen Einflüssen geprägt wurde. Die Volksmusik enthält darüber hinaus Merkmale der Musik der Sinti und Roma und anderer Volksgruppen. Ein bekannter Vertreter der Sevdalinka war bis zu seinem Tod Safet Isović. Die Sevdalinka kommt generell allerdings nur bei der älteren bosnischen Bevölkerung und teilweise der in Montenegro und Serbien wohnenden älteren Bosniaken gut an. Besser kommt dagegen die sogenannte Narodna muzika an, die eine Mischung aus der ehemaligen jugoslawischen Volksmusik, Pop und teilweise Techno-Musik bildet. Diese ist generell in den serbokroatisch-sprachigen Ländern seit ihrer Entstehung (ca. 1980) die Beliebteste. Bekannte Musiker im internationalen Raum aus Bosnien-Herzegowina sind neben Goran Bregović und seiner ehemaligen Band Bijelo dugme, die Sänger Zdravko Čolić, Lepa Brena und Dino Merlin sowie die Rapper Edo Maajka und Frenkie. Die Rock/Pop-Gruppen Zabranjeno Pušenje, Plavi orkestar, Indexi und Crvena jabuka und Hari Mata Hari gehörten neben Bijelo dugme zu den bekanntesten und beliebtesten Jugoslawiens. Das musikalische Zentrum dieser modernen bosnischen Musik war Sarajevo. Film. In jüngster Vergangenheit haben bosnisch-herzegowische Filme einige Preise bekommen. Darunter waren "Ničija Zemlja" (deutsch "Niemandsland", englisch "No Man’s Land") aus dem Jahr 2001, der einen Golden Globe Award und einen Oscar erhielt, sowie der Film "Grbavica", der auf der Berlinale 2006 einen Goldenen Bären bekam. Des Weiteren erntete der Film "Welcome to Sarajevo" mit Woody Harrelson großes Kritikerlob. Der Film befasst sich mit der Belagerung Sarajevos Anfang der 1990er Jahre. Der Regisseur Emir Kusturica ("Schwarze Katze, weißer Kater"; "Das Leben ist ein Wunder") stammt aus Sarajevo. Das "Sarajevo Film Festival" ist jedes Jahr im August filmischer und kultureller Höhepunkt und zieht immer mehr Touristen aus dem Ausland an. Medien. Die drei wichtigsten Tageszeitungen in Bosnien und Herzegowina sind "Dnevni avaz" (deutsch "Tagesstimme") und "Oslobođenje" (deutsch: "Befreiung"), die beide in bosnischer Sprache in Sarajevo erscheinen, und "Nezavisne novine" (dt. "Die unabhängige Zeitung"), die in Banja Luka in serbischer Sprache und lateinischer Schrift erscheint. Zudem gibt es eine Reihe von politischen Wochenzeitungen wie "Slobodna Bosna" (dt. "Freies Bosnien") oder "Dani" (dt. "Tage"). Beliebt sind auch Zeitschriften, die über aktuelle Affären oder Stars der Volksmusik berichten, wie "Express" oder "Svet" (dt. "Die Welt"; eine gleichnamige und gleichformatige Zeitung erscheint auch in Serbien). Bosnien und Herzegowina hat ein dreigliedriges öffentliches Rundfunk- und Fernsehsystem, mit einem nationalen Fernseh- und Radiosender der Anstalt BHRT (BHTV 1 und BH Radio 1) und je einem Entitäts Fernseh- und Radiosender, der RTVFBiH (FTV und Radio F.) in der Föderation und der RTRS (RTRS TV und RTRS RRS) (kyrillisch: PTPC) in der Republika Srpska. Einige private Sender wie BN TV, OBN oder NTV Hayat sind im ganzen Land zu empfangen. Sehr beliebt ist Kabelfernsehen, das Sender aus den Nachbarländern und dem deutschsprachigen Raum einspeist. Seit dem 11. November 2011 sendet der neue Fernsehsender Al Jazeera Balkan aus Sarajevo, zunächst sechs Stunden täglich in der Landessprache. Sport. In Sarajevo und Umgebung wurden 1984 die Olympischen Winterspiele ausgetragen. In Bosnien und Herzegowina sind Fußball und Basketball die beliebtesten Sportarten. Im Fußball hat sich das Land stetig weiterentwickelt und verbessert. Für die Fußball-Europameisterschaft 2004 hätte sich das Land beinahe qualifiziert, im letzten Spiel gegen Dänemark fehlte nur ein Sieg gegen den direkten Konkurrenten, aber schließlich ging das Spiel 1:1 aus, damit war Dänemark bei der Euro 2004. Bei der WM Qualifikation 2014 hat sich die Nationalmannschaft dann durchgesetzt und hat an der Weltmeisterschaft 2014 in Brasilien teilgenommen. Die Mannschaft unter dem ehemaligen Trainer Safet Sušić verlor allerdings zwei der drei Gruppenspiele und beendete die WM mit dem 3. Gruppenplatz. Berühmte Spieler der Nationalmannschaft sind Edin Džeko, Miralem Pjanić, Vedad Ibišević und viele weitere. Die Basketball-Nationalmannschaft hat sich für bislang sechs Europameisterschaften qualifizieren können, zuletzt 2011. Der wohl bekannteste Basketballer der Nation ist Mirza Teletović, der für die Brooklyn Nets in der NBA aktiv ist. Bei den Paralympischen Spielen 2004 in Athen gewann die bosnisch-herzegowische Volleyballmannschaft die Goldmedaille. Einen Erfolg auf internationaler Ebene für Bosnien erreichte die Schach-Nationalmannschaft mit dem zweiten Platz bei der Schacholympiade 1994 in Moskau. Essen und Trinken. Die bosnisch-herzegowinische Küche hat viele Spezialitäten zu bieten, z. B. Bosanski Lonac, Ćevapi, Lokum („Türkischer Honig“), Pita (Pide) in allen Variationen von Gemüsearten. Daneben gibt es Sogan Dolma, Somun, Japrak, Baklava, Halva, Burek, Sarma und vieles mehr. Die bosnische-herzegowinische Küche ist stark von der Türkischen Küche beeinflusst. Türkischer Kaffee, der in einem speziellen Kaffeekännchen aufgekocht wird, sowie selbstgebrannter Pflaumenschnaps (Šlivovic) sind verbreitete Getränke. Feiertage und Feste. In der Republika Srpska werden der 1. März und der 25. November nicht gefeiert, dafür der 9. Januar als Tag der Republik ("Dan Republike") sowie der 21. November (Tag des Dayton-Abkommens). Daneben gibt es in den verschiedenen, hauptsächlich von Kroaten bewohnten Gemeinden und Dörfern lokale Feiertage, die sich am christlichen Kalender orientieren (z. B. Namenstage Heiliger, „kleine Ostern“, etc.). Ein besonderer Feiertag ist der Namenstag des Schutzpatrons eines jeden Ortes. Neben einer sehr gut besuchten Messe und evtl. einer Prozession gibt es in den meisten Häusern und auf Plätzen Feierlichkeiten, zu denen auch die Einwohner der Nachbarorte kommen. Literatur. Literarische Würdigungen finden sich im Gesamtwerk des Literaturnobelpreisträgers Ivo Andrić, besonders in seinem Hauptwerk "Die Brücke über die Drina". Zsolnay 2011. ISBN 978-3-552-05523-0 Bruttonationaleinkommen. Das Bruttonationaleinkommen (BNE), bis 1999 auch "Bruttosozialprodukt (BSP)", englisch "Gross National Product (GNP)" bzw. "Gross National Income (GNI)", ist ein zentraler Begriff aus der volkswirtschaftlichen Gesamtrechnung (VGR). Es misst den Wert aller Waren und Dienstleistungen, die in einer Periode mithilfe von Produktionsfaktoren hergestellt werden, die sich im Besitz von Inländern befinden (alle von Inländern erwirtschafteten Einkommen, egal ob im Inland oder im Ausland erzielt). Dies ist gleichbedeutend mit den an Inländer geflossenen Einkommen aus Erwerbstätigkeit und Vermögensbesitz (Zinsen und andere Kapitalerträge, nicht allerdings Einkommen aus Veräußerungsgeschäften), weshalb das Bruttonationaleinkommen als zentraler Einkommensindikator einer Volkswirtschaft gilt. Begriffliche Einordnung. Das Bruttonationaleinkommen ist der Wert der Endprodukte und Dienstleistungen, die in einer bestimmten Periode durch Produktionsfaktoren, die sich im Eigentum von Inländern befinden, produziert werden. Folglich kann man sich das Bruttonationaleinkommen (BNE) als den gesamten Wert der laufenden Produktion vorstellen, die Inländer erbracht haben. Damit stellt es eine wichtige Kennzahl der Volkswirtschaftlichen Gesamtrechnung (VGR) dar. Berechnung. Verteilung des Bruttonationaleinkommens; bis 1991 altes, nach 1991 neues Bundesgebiet Bruttonationaleinkommen, Nettonationaleinkommen und Volkseinkommen in der Bundesrepublik Deutschland von 1970 bis 2013. Bis 1991 nur Westdeutschland Das Bruttonationaleinkommen ist die Summe des Wertes des von allen Bewohnern eines Staates innerhalb einer bestimmten Periode (ein Jahr) bezogenen Einkommens aus Arbeit (Arbeitnehmerentgelt) und Kapital (Unternehmens- und Vermögenseinkommen) – soweit ist es das Volkseinkommen – zuzüglich der Produktions- und Importabgaben, abzgl. der Subventionen (Gütersteuern minus Gütersubventionen) – soweit ist es das Nettonationaleinkommen – zuzüglich der Abschreibungen. Die Bewertung erfolgt zu Marktpreisen, das heißt, einschließlich der Gütersteuern (Produktions- und Importabgaben) und abzüglich der Gütersubventionen. 1999 wurde die Bezeichnung „Bruttosozialprodukt“ (BSP) im Zuge der Einführung des Europäischen Systems Volkswirtschaftlicher Gesamtrechnungen und in Angleichung an den internationalen Sprachgebrauch für Zwecke der amtlichen Statistik durch den Begriff „Bruttonationaleinkommen“ ersetzt. War das Bruttosozialprodukt früher der Hauptmaßstab zum Vergleich von Volkswirtschaften, verwendet man heute zu diesem Zweck meist das Bruttoinlandsprodukt. Abgrenzung vom Bruttoinlandsprodukt. Das Bruttonationaleinkommen ähnelt dem Bruttoinlandsprodukt, unterscheidet sich jedoch dadurch, dass für das Bruttoinlandsprodukt das "Inlandskonzept" greift, während für das Bruttonationaleinkommen das "Inländerkonzept" gilt. Dieser Unterschied lässt sich am einfachsten erklären, wenn man unterstellt, dass es nur einen Produktionsfaktor, z. B. Arbeit, gibt. Das Bruttonationaleinkommen misst dann den Wert aller Güter und Dienstleistungen, die von Personen hergestellt werden, die im betrachteten Staat bzw. Gebiet leben, unabhängig davon, wo die Arbeitsleistung erbracht worden ist. Dagegen misst das Bruttoinlandsprodukt den Wert aller Güter und Dienstleistungen, die im betrachteten Staat hergestellt wurden, unabhängig davon, wo die Arbeitnehmer wohnen. Die Leistung eines Arbeitnehmers, der in der Schweiz arbeitet, aber in Deutschland lebt, erscheint so im Schweizer Bruttoinlandsprodukt, aber im deutschen Bruttonationaleinkommen. Für große Volkswirtschaften sind Bruttoinlandsprodukt und Bruttonationaleinkommen fast identisch, während es für kleine Volkswirtschaften erheblich auseinanderfallen kann. So beträgt das Verhältnis des Bruttonationaleinkommens zum Bruttoinlandsprodukt für Deutschland im Jahr 2009 1,014, für die Vereinigten Staaten 0,998. San Marino dagegen kommt auf ein Verhältnis von 0,85, Luxemburg gar nur auf 0,526. Zu beachten ist, dass das Inländerkonzept auf die Wohnbevölkerung abstellt, nicht auf die Staatsbürgerschaft. So werden auch Personen ohne deutsche Staatsbürgerschaft, die in Deutschland leben, dem deutschen Bruttonationaleinkommen zugerechnet, während deutsche Staatsbürger, die im Ausland leben, dort nicht eingerechnet werden. Abgrenzung zum Nettonationaleinkommen. Die Unterscheidung zwischen Brutto- und Nettonationaleinkommen stellt darauf ab, ob der Verschleiß an den Produktionsanlagen, die Wertminderung des Kapitalstocks durch technischen Fortschritt etc. anhand der Abschreibungen berücksichtigt werden oder nicht. Folglich erfasst das Netto-Nationaleinkommen die Einkommen der Inländer vermindert um die Abschreibungen. Abgrenzung zum Volkseinkommen. Davon ausgehend kann nun das Volkseinkommen sowie das verfügbare Einkommen berechnet werden. Das Volkseinkommen hängt eng mit dem Bruttonationaleinkommen zusammen, im Gegensatz dazu enthält es jedoch keine Abschreibungen und indirekte Steuern. Kritik. Das BNE, welches in den 1940er Jahren von Simon Kuznets entwickelt worden war (auf Deutsch damals BSP genannt), um zu überprüfen, ob die US-amerikanische Wirtschaft zu einer Teilnahme am Zweiten Weltkrieg im Stande wäre, wurde seither häufig als Wohlstandsfaktor missbraucht. Auch Simon Kuznets selbst bezeichnete „seinen“ Indikator als. Alternativen. Versuche, treffende Indikatoren für tatsächlichen Wohlstand zu entwickeln, führten beispielsweise Alle diese Indikatoren aggregieren eine Vielzahl von Daten, die nicht in das Bruttonationaleinkommen eingehen (siehe Aggregation (Wirtschaft)). Amartya Sen bildete die Wohlfahrtsfunktion als Alternative beispielsweise zum Median aus dem Produkt des Bruttonationaleinkommens und der relativen Gleichverteilung dieses Einkommens. In Deutschland suchte vom Januar 2011 bis zum Juni 2013 die Enquete-Kommission "Wachstum, Wohlstand, Lebensqualität" des Bundestages nach einer möglichen neuen Messzahl für Wohlstand und Fortschritt jenseits der Wachstumsfixierung des bisher beherrschenden Maßstabs Bruttosozialprodukt. Andrew Oswald, Professor für Wirtschaftswissenschaften an der University of Warwick, hält das BNE als Maßstab für „Wohlstand“ für veraltet. Er schlägt vor, einen Maßstab zur Messung des „Glücks und seelischen Wohlbefindens der Bürger“ zu entwickeln. Ballon. Ein Ballon (gr. "ballon" ‚das Geworfene‘, von "ballo" ‚werfen‘) ist im heutigen Sprachgebrauch eine (zumindest im gefüllten Zustand) selbsttragende, gasdichte Hülle mit einer bauchigen, runden Form, die mit Gas oder Flüssigkeit gefüllt ist oder werden kann. Die Aussprache im Hochdeutschen ist bzw. und variiert im südlichen deutschen Sprachraum: süddt., österr. und schweiz.:. Arten und Verwendung. Freiballone sind im Gegensatz zu Fesselballonen nicht mit dem Erdboden verbunden. Sie werden vom Wind durch die Luft getrieben. Große Ballone (Volumen 2200 bis 12000 Kubikmeter). Eine weitere Anwendung ist der, wie jeder Satellit mit einer Rakete in den Orbit geschossene, Ballonsatellit, der nur zum Erreichen eines großen Volumens mit winzigen Mengen Gases gefüllt ist. Heißluft- und Gasballon. Als Füllgas wird im Allgemeinen Luft (Heißluftballon, Luftballon) oder ein Traggas wie Helium oder Wasserstoff verwendet (Gasballon). Der Ballon kann in gefülltem Zustand verschlossen sein, wodurch das eingeschlossene Gas auch unter Druck stehen kann. Die gängigen Bauformen bemannter Ballone haben eine Öffnung nach unten. Dadurch kann das leichte Traggas nicht entweichen, aber Druckänderungen oder Verformungen der Hülle durch Erwärmung des Gases oder beim Ändern der Flughöhe werden vermieden. Bis in das 20. Jahrhundert wurden Ballone und Luftschiffe auch als Aerostaten bezeichnet. Im Sprachgebrauch werden bemannte Ballone nicht "geflogen", sondern "gefahren", siehe Fahren oder fliegen. Die Besatzungsmitglieder von Ballonen sind die Ballonfahrer und wurden zu Anfang auch „Luftschiffer“ genannt. Ballontaufe. Oft wird für Ballonerstfahrer ein besonderes Ritual vollzogen. Die Teilnehmer stoßen auf die Fahrt an und schwören, nie mehr „Ballonfliegen“ zu sagen und außerdem jedem Ballonfahrer, den sie treffen, zu helfen. Anschließend wird eine Locke des Erstfahrers vom Piloten angesengt und sofort durch Champagner gelöscht. Als weitere Tradition gilt die Vergabe von Adelstiteln wie zum Beispiel: „Lieblich schwebendes Burgfräulein Christine über Neuschwanstein“. Diese Tradition ist auf die Zeit zurückzuführen, als es nur Adligen gestattet war, Ballon zu fahren. Heutzutage ist das Ritual auch unter dem englischen Namen „Propane and Champagne“ bekannt. Funktionsweise. Erhitzen der Luft im Heißluftballon Der Ballon steigt auf, da das sich im inneren Teil befindliche Gas (sei es warme Luft oder ein gefangenes Gas) eine geringere Dichte als kalte Luft hat. Ballongas. Manntragende Gasballone (wie auch Luftschiffe) werden im Ballonsport jedoch meist mit Wasserstoff gefüllt, da Helium viel zu teuer wäre. Außerdem ist Helium doppelt so schwer wie Wasserstoff (He hat Atommasse 4, H2 hat Molekülmasse 2). Auch wenn das nur zu einer Auftriebseinbuße von rund 8 % führt (wichtig ist ja nicht das absolute Gewicht, sondern die Differenz zum Gewicht der Luft), so müsste das Ballonvolumen dennoch vergrößert werden, was die Kosten noch zusätzlich in die Höhe treiben würde. Da Wasserstoff aber brennbar ist, muss vor allem während des Füllvorgangs extrem vorsichtig vorgegangen werden. Dabei gilt nicht nur selbstverständlich ein absolutes Rauchverbot, sondern es muss auch weniger offensichtlichen Gefahrenmomenten wie der elektrostatischen Aufladung durch geeignete Sicherheitsvorkehrungen (durch leitfähige Ballonhüllen) Rechnung getragen werden. Luftballon. Als Ballongas für Kinderballone, die Auftrieb besitzen sollen, ist aus Sicherheitsgründen nur das unbrennbare Edelgas Helium zugelassen. Geschichte der Heißluftballone. Nach der geschichtlichen Überlieferung wurden Heißluftballone oder ein Vorläufer davon zum ersten Mal in China von Zhuge Liang (* 181; † 234) eingesetzt. Auf seinen Feldzügen erfand er neben anderen Dingen einen kleinen Heißluftballon, der von einer Kerze getrieben wurde und als Signal diente. Diese Erfindung wird bis heute in China Kong-Ming-Laterne genannt und als eine Art Feuerwerk genutzt. Sie diente zwar vermutlich nie zum Transport von Menschen oder Gütern, ist aber aufgrund ihres Funktionsprinzips der Vorläufer des modernen Heißluftballone und unterscheidet sich von ihm im Wesentlichen nur durch ihre geringere Größe und Verwendung eines Rahmens wie beim Luftschiff. In Europa beginnt die Geschichte mit den Papierfabrikanten Joseph Michel Montgolfier und seinem Bruder Jacques Étienne Montgolfier. Sie versuchten zunächst, die von ihnen entwickelten Prototypen mit Wasserdampf zu betreiben; stiegen jedoch auf Heißluft um, als sich herausstellte, dass diese Methode effektiver war. Gemäß einer Anekdote sollen sie eines Tages eine Frau beobachtet haben, die unter der Wäscheleine ein Feuer angezündet hatte, damit die Wäsche schneller trocknet. Dabei soll ihnen aufgefallen sein, dass sich die großen Betttücher nach oben wölbten, obwohl kein Wind ging. Nach vielen Experimenten fanden sie heraus, dass das Feuer die Luft erwärmt hatte, die dann nach oben gestiegen war und somit die Betttücher aufgebläht hatte. Am 7., 9. oder 14. Juni 1783 (die Quellenangaben unterscheiden sich hier) ließen sie in Annonay den ersten größeren Ballon vor Publikum steigen. Der Ballon war aus Leinwand und mit Papier abgedichtet. Der Flug soll Berichten nach rund 10 Minuten gedauert haben, wobei der Ballon auf eine Höhe von 1,5 km aufgestiegen sein soll. Da sie keine Naturwissenschaftler waren, gingen sie davon aus, dass es der Rauch sei, der den Ballon zum Steigen bringt. Daher bevorzugten sie stark qualmende Feuer mit Stroh und Schafswolle um die Luft zu erhitzen. Als König Ludwig XVI. davon erfuhr, forderte er die Brüder auf, ihm diesen Ballon zu demonstrieren. Gleichzeitig erging von ihm der Befehl an die Akademie der Wissenschaften, selber Versuche mit der Luftkugel in Paris durchzuführen. Geschichte des Gasballons. Ganz anders als die Gebrüder Montgolfier arbeitete Jacques Alexandre César Charles. Da er als Physiker an der Physik des Ballonaufsteigens interessiert war, ging er auf eine ganz andere Weise an das Projekt, welches ihm vom König übertragen worden war. Durch sein Wissen über Gase konnte er deren Eigenschaften nutzen und konstruierte so zusammen mit den Brüdern Anne-Jean Robert und Marie-Noël Robert einen dichten Seidenballon. Diesen füllte er mit Wasserstoffgas. Der erste erfolgreiche Flug war am 27. August 1783. Der Ballon hatte einen Durchmesser von rund vier Metern und konnte bis zu neun Kilogramm mit sich führen. Der Flug dauerte 45 Minuten und führte vom Pariser Marsfeld bis ins benachbarte Dorf Gonesse. Die Bewohner des Dorfes hielten den Ballon jedoch für ein Ungetüm aus der Hölle und rückten ihm mit Mistgabeln und Sensen auf den Leib. Davon abgesehen konnte Charles den Flug als Erfolg verbuchen, denn er hatte auch bewiesen, dass es nicht der Rauch ist, der den Ballon zum Steigen bringt. Zudem wurde der Wasserstoffgasballon nach ihm "Charlière" benannt. Den ersten bemannten Gasballonflug führte Charles und Marie-Noël Robert am 1. Dezember 1783 durch, wobei die Produktion des nötigen Wasserstoffgases aus Eisenspänen und Schwefelsäure fast drei Tage dauerte. Er blieb für zwei Stunden in der Luft und machte dann eine Zwischenlandung im 36 Kilometer entfernten Dorf Nesles-la-Vallée. Danach stieg Charles noch einmal selbst alleine auf. Damit war er der erste Mensch, der alleine in einem Ballon aufstieg. Trotz dieses Erfolges hatte er den Wettstreit mit den Gebrüder Montgolfier verloren – um nur 10 Tage. Doch ganz geschlagen war Charles nicht, denn die Wasserstoffgasballone lösten sehr bald die Montgolfieren ab, da man mit ihnen mehrere Stunden in der Luft bleiben konnte. Den Heißluftballonen gingen hingegen schon nach kurzer Zeit die Brennstoffvorräte aus. Geschichte der Heißluft-Gas-Hybrid-Ballone. Es gab zu dieser Zeit auch schon Personen, die sich mit der Kombination der beiden Auftriebsmedien Traggas und Heißluft beschäftigten. So der französische Physiker und erste Ballonfahrer der Welt Jean-François Pilâtre de Rozier. Er entwickelte einen Ballon, der aus einer Kugel mit Wasserstoffgasfüllung bestand, an dessen unterer Seite ein mit Luft gefüllter beheizbarer Zylinder angefügt war. Diese Konstruktionsart mit separaten Bereichen für Heißluft und Gas wird - unabhängig von der Wahl des verwendeten Traggases - bis heute nach ihm benannt (Rozière). Am 15. Juni 1785 startete er mit solch einem Gefährt von Boulogne-sur-Mer aus mit dem Ziel, den Ärmelkanal zu überqueren. Die Heißluft erwärmte den Wasserstoff aber bald so stark, dass die Gashülle zu zerplatzen drohte. Mittels eines außen auf der Hülle nach oben reichenden Hanfseils konnte Rozier zwar ein Ablassventil betätigen, jedoch entstand Reibungselektrizität auf der Hülle, deren elektrostatische Entladung dann das ausströmende Wasserstoffgas in 900 Metern Höhe entzündete. Während das Gas abbrannte, fiel das Luftfahrzeug noch vor der Küste aufs Festland. Rozier und sein Mitfahrer Pierre Romain verstarben kurz darauf, noch an der Absturzstelle. Damit waren sie die ersten Todesopfer der Luftfahrt. Zu diesem Zeitpunkt hatten auch alle anderen Hybridballone mit konstruktiven Unzulänglichkeiten zu kämpfen und brachten keine nennenswerten Erfolge hervor. Die Rozièren, die seit den 1970er Jahren Verwendung finden, werden mit unbrennbaren Traggasen befüllt. Während gewöhnliche Heißluftballone einige Stunden und bemannte Gasballone einige Tage fahren können, eignen sich Rozièren insbesondere für mehrwöchige Reisen. Außer Richard Bransons Überquerungen von Atlantik und Pazifik mit riesigen Heißluftballonen, wurden diese Strecken und die beiden erfolgreichen Weltumrundungen nur mit heliumbefüllten Rozièren bewältigt. Weiterer Verlauf der Geschichte. Französische Offiziere nutzten vor der Schlacht von Fleurus als auch im Juni 1794 in der Schlacht bei Maubeuge einen Ballon zur militärischen Luft-Fernaufklärung. Die erste deutsche Ballonfahrt unternahm Friedrich Wilhelm Jungius 1805 über Berlin zu wissenschaftlichen Zwecken. James Glaisher, Vorstand des meteorologischen Institutes von Greenwich und der Ballonpilot Henry Tracey Coxwell erreichten 1862 eine Höhe von 9.000 Meter im offenen Ballonkorb. Sie hatten ein wissenschaftliches Programm vorbereitet, um die Entstehung bestimmter Wettererscheinungen und die Grenze der Lebensfähigkeit des Menschen zu erforschen. Sie hatten weder Sauerstoff noch Druckanzüge an Bord. Beide Forscher fielen zeitweise in Ohnmacht und nur der Umstand, dass der Ballon von selbst zu sinken begann, rettete ihnen das Leben. Am 4. Dezember 1894 erreicht der Berliner Meteorologe Arthur Berson bei einer Alleinfahrt im Ballon „Phönix“ eine Höhe von 9.155 Metern. Diesen Rekord konnte er am 31. Juli 1901 noch einmal übertreffen. Gemeinsam mit Reinhard Süring stieg er im Ballon „Preussen“ auf 10.800 Meter Höhe. Beide Ballonfahrer fielen trotz Sauerstoffatmung in Ohnmacht, aber die Messgeräte registrierten den Luftdruck und damit die Höhe weiter. Die Fahrt trug zur Entdeckung der Stratosphäre im Jahre 1902 bei. Der mehrfache Gordon-Bennett-Cup-Teilnehmer Hugo Kaulen stellte im Dezember 1913 Weltrekorde auf (2.800 Kilometer in 87 Stunden, von Bitterfeld nach Perm/ Uralgebirge). Hans Rudolf Berliner, Alexander Haase und Nikolai legen vom 8. bis 10. Februar 1914 3.053 km zurück. Beide Rekorde halten bis 1976. Die größte Höhe im offenen Korb in der Geschichte der Ballonfahrt erreichten nach eigenen Angaben – die offizielle Anerkennung blieb aus – der Ballonführer Alexander Dahl, der Meteorologe Dr. Galbas und Walter Popp am 31. August 1933 im Spezial-Höhenballon „Bartsch von Sigsfeld“ mit 11.300 Meter. Alexander Dahl gelang dabei mit einer speziellen Infrarotkamera die erste Aufnahme der Erdkrümmung. Die letzte Höhenfahrt mit dem Ballon „Bartsch von Sigsfeld“ brachte den Meteorologen Martin Schrenk und Victor Masuch am 13. Mai 1934 den Tod. Erstmals mit luftdicht verschlossener Kabine stieg der Physiker Auguste Piccard 1932 bis auf 16.201 Meter (Luftdruckmessung) und 16.940 Meter (geometrische Messung) Höhe. Diverse Rekorde brachte das Projekt Manhigh der amerikanischen Air Force 1957/1958, so auch erster Mensch im Weltraum (29.900 m) und höchster Fallschirmsprung (im Zusammenhang mit den ersten Schleudersitzen für Flugzeuge). Das Projekt wurde später durch die NASA weitergeführt und ab Apollo 7 kam das Prinzip der Fallschirme bei den Bremsfallschirmen zum Einsatz. Im Oktober 1976 stellt Paul Edward Yost neue Rekorde bei seinem Solo-Atlantikflug auf (3.938 km in 107:37 h). Den bemannten Höhen-Rekord hielten von 1961 bis 2012 Malcolm D. Ross und Victor E. Prather, die über dem Golf von Mexiko auf 34.668 Meter Höhe stiegen. Der Österreicher Felix Baumgartner brach diesen Rekord am 14. Oktober 2012, als er mit einem Heliumballon über New Mexico auf 39.045 Meter stieg. Übertroffen wurde er mit 41.422 Metern von Alan Eustace im Oktober 2014. Bismarck (Schiff, 1939). Die "Bismarck" war ein Schlachtschiff der deutschen Kriegsmarine und bildete mit ihrem Schwesterschiff "Tirpitz" die "Bismarck"-Klasse. Bei der Indienststellung im August 1940 unter dem Kommando von Kapitän zur See Ernst Lindemann galt sie als das weltweit größte und kampfstärkste Schlachtschiff. Im Mai 1941 wurde die "Bismarck" zusammen mit dem Schweren Kreuzer "Prinz Eugen" in den Nordatlantik geschickt, um dort Handelskrieg zu führen. Bald nach dem Beginn dieser Mission gelang ihr in der Dänemarkstraße die Versenkung des britischen Schlachtkreuzers "Hood". Drei Tage darauf sank sie selbst nach einem schweren Gefecht mit Einheiten der britischen Royal Navy mit dem Großteil ihrer Besatzung im Nordatlantik. Die "Bismarck" zählt heute zu den bekanntesten Schiffen der deutschen Kriegsmarine und ist daher Objekt zahlreicher literarischer Werke, fachwissenschaftlicher und technischer Untersuchungen sowie Modelldarstellungen. Entwurf und Bau. Stapellauf bei Blohm & Voss in Hamburg am 14. Februar 1939 Der Versailler Vertrag gestattete Deutschland nur Kriegsschiffneubauten von maximal 10.000 Tonnen. Erst mit dem Abschluss des deutsch-britischen Flottenabkommens vom 18. Juni 1935, dem das Washingtoner Flottenabkommen vom 6. Februar 1922 zugrunde lag, war es Deutschland offiziell erlaubt, Schlachtschiffe mit einer Standardverdrängung von bis zu 35.000 tn.l. (long ton zu 1.016 kg) zu bauen. Diese Beschränkung wurde jedoch weitgehend ignoriert: Die Entwurfsarbeiten zielten von Anfang an auf eine Einsatzverdrängung von 41.700 Tonnen. Selbst diese Vorgabe wurde, durch zahllose Änderungen und Verbesserungen, die während der Planungs- und Bauphase eingebracht wurden, noch übertroffen. Die "Bismarck" verdrängte nach ihrer Fertigstellung vollständig ausgerüstet und mit Treibstoff aufgefüllt 53.500 Tonnen. Haushaltsrechtlich war das „Schlachtschiff F“, die spätere "Bismarck", als Ersatzbau für das 1907 in Dienst gestellte Linienschiff "Hannover" ausgewiesen, welches – wenn auch nicht mehr im Dienst – die "Bismarck" überlebte. Am 1. Juli 1936 wurde die "Bismarck" bei Blohm & Voss in Hamburg auf Kiel gelegt. Zu diesem Zeitpunkt galt Frankreich als der wahrscheinlichste Gegner in einem Seekrieg. Der Entwurf orientierte sich daher am damals modernsten französischen Schlachtschiff "Dunkerque". Insbesondere Geschwindigkeit und Panzerschutz waren von großer Bedeutung. Bereits am 14. Februar 1939 wurde die "Bismarck" in Anwesenheit Adolf Hitlers vom Stapel gelassen. Sie wurde nach dem früheren deutschen Reichskanzler Otto von Bismarck benannt, Taufpatin war Dorothea von Loewenfeld, die Frau Vizeadmirals Wilfried von Loewenfeld und Enkelin Bismarcks. Die Indienststellung erfolgte am 24. August 1940. Das Schiff war für den Einsatz im rauen Atlantik, dessen wechselnde Sichtweiten oft nur mittlere Gefechtsentfernungen erlaubten, besonders geeignet. Wegen des relativ breiten Schiffskörpers und präziser Entfernungsmesser erreichte seine schwere Artillerie auch bei schlechtem Wetter schnell eine hohe Zielgenauigkeit. Es wurde angestrebt, bereits mit der ersten Salve zu treffen. Der Panzerschutz konzentrierte sich auf die Hauptgeschütztürme, den Kommandoturm und die Seiten des Schiffs im Bereich der Wasserlinie. Der Horizontalschutz gegen Steilfeuer von oben und Fliegerbomben war dagegen eine erhebliche Schwachstelle. Zudem war die Flugabwehr unzureichend. Bei der schweren 10,5-cm-Flak gab es zwei unterschiedliche Doppellafetten, C 31 vorn und C 37 achtern. Das Koordinationssystem der C-37-Lafette war bei der Planung der Feuerleitgeräte vergessen worden. Das führte dazu, dass die vordere schwere Flak auf Lafette C 31 zielgenau war, während die achterne schwere Flak auf Lafette C 37 am Ziel vorbeischoss. Die Flakleitstände waren ungenügend, sehr schwer und neigten schon bei kleinen Treffern zum Totalausfall. Feuergeschwindigkeit und Richtgeschwindigkeit der mittleren Artillerie waren gegen Zerstörer geeignet, aber gegen Flugzeuge zu langsam. Der Bau erfolgte ab September 1939 angesichts des Kriegsausbruchs mit dem Vereinigten Königreich unter hohem Zeitdruck. Am Tag ihrer Indienststellung war die "Bismarck" infolgedessen noch nicht komplett ausgerüstet (es fehlten vor allem die Feuerleitanlagen). Sie galt daher erst im Frühjahr 1941 als einsatzbereit. Mit der "Bismarck" hatte die Kriegsmarine ihr erstes wirklich vollwertiges Schlachtschiff erhalten. Die bereits vorhandenen Schlachtschiffe "Scharnhorst" und "Gneisenau" waren von der Bewaffnung zu schwach (Hauptkaliber 28 cm), um sich mit der britischen Schlachtflotte messen zu können, was ihre Einsatzmöglichkeiten im atlantischen Zufuhrkrieg wesentlich einschränkte. Mit der "Bismarck" hoffte man nun, in der Lage zu sein, auch schwer bewachte Geleitzüge der Alliierten angreifen zu können. Bei den Erprobungen in der Ostsee zeigte sich, dass das Schiff ohne seine Ruderanlage über die divergierenden, eng nebeneinander liegenden Antriebswellen mittels unterschiedlicher Propellerdrehzahlen Backbord/Steuerbord kaum steuerbar war. Unternehmen Rheinübung. Die "Bismarck" während des Gefechts in der Dänemarkstraße, von der "Prinz Eugen" aus aufgenommen Nachdem die "Bismarck" einsatzbereit war, entschied Großadmiral Erich Raeder, sie in den Atlantik zu entsenden. Sie sollte dort im Verband mit dem Schweren Kreuzer "Prinz Eugen" auch stark gesicherte Geleitzüge angreifen können, indem die "Bismarck" die gegnerischen Kriegsschiffe auf sich zog, während die "Prinz Eugen" die Handelsschiffe angreifen sollte. Der solchen Einsätzen gegenüber kritische Hitler wurde nicht im Voraus informiert. Ursprünglich war geplant, das "Bismarck"-Schwesterschiff "Tirpitz" mit in die Unternehmung einzubeziehen, aber es galt nach Ansicht der Seekriegsleitung noch nicht als einsatzbereit. Zudem war vorgesehen, die beiden seit März 1941 in Brest liegenden Schlachtschiffe "Scharnhorst" und "Gneisenau" zeitgleich mit der "Bismarck" ebenfalls in den Atlantik vorstoßen zu lassen, um die Kräfte der Royal Navy zu zersplittern, doch aufgrund von Bombenschäden durch Luftangriffe und Maschinenstörungen war keines der beiden Schiffe dazu in der Lage. Der Ausbruch der "Bismarck" und der "Prinz Eugen" durch die britische Blockade in den Atlantik wurde als "Unternehmen Rheinübung" bezeichnet. Geplant war, durch die Dänemarkstraße zwischen Island und Grönland den offenen Atlantik zu erreichen, wo es für die britische Flotte außerordentlich schwierig sein würde, die deutschen Kriegsschiffe zu stellen. Der Durchbruch gelang nicht unentdeckt, und der deutsche Verband wurde von den britischen Schlachtschiffen "Hood" und "Prince of Wales" gestellt. In diesem Gefecht in der Dänemarkstraße wurde die "Hood" von der fünften Salve der "Bismarck" durch eine darauf folgende Munitionsexplosion versenkt. Die sechste Salve war bereits abgefeuert, bevor die "Hood" getroffen wurde. Es gab nur drei Überlebende von insgesamt 1.419 Besatzungsmitgliedern. Die "Prince of Wales" erhielt ebenfalls mehrere schwere Treffer und drehte ab. Die "Prinz Eugen" hatte keinen, "Bismarck" drei, "Hood" vier und die "Prince of Wales" sieben Treffer erhalten. Auf der "Bismarck" unterbrach jedoch ein nicht detonierter Durchschuss durch das schwach gepanzerte Vorschiff die Zuleitungen für ca. 1.000 Tonnen Heizöl von den vorderen Ölbunkern zu den Kesseln. In das Vorschiff drangen 3- bis 4.000 Tonnen Meerwasser ein und es entstand eine Schlagseite von 9 °. Die daraus resultierende Treibstoffknappheit und die entstehende Ölspur zwangen das Schlachtschiff, den geplanten Handelskrieg abzubrechen und möglichst direkt einen Hafen anzulaufen. Während die "Prinz Eugen" in den Atlantik entlassen wurde, steuerte die "Bismarck" den Hafen Saint-Nazaire an der französischen Atlantikküste an. Dabei gelang es der "Bismarck", sich den Fühlungshaltern "Suffolk" und "Norfolk" durch geschicktes Manövrieren zu entziehen. Zu diesem Zeitpunkt hatten die Verfolger die Spur der "Bismarck" vollständig verloren. Admiral Günther Lütjens nahm aber an, die "Bismarck" sei noch immer auf den Langstreckenradaranlagen der Royal Navy zu sehen. Daher traf er die folgenschwere Entscheidung, einen langen Funkspruch an das Marineoberkommando abzusetzen, in dem er um Verstärkung durch U-Boote und andere Kampfeinheiten ersuchte. Diesen Funkspruch fing die Royal Navy ab, machte so die Position und den Kurs der "Bismarck" erneut aus, und setzte im Laufe der nächsten Tage praktisch alle verfügbaren Einheiten im Atlantik auf die "Bismarck" an. Auf der Fahrt nach Saint-Nazaire wurde das Schlachtschiff am 26. Mai 1941 durch Fairey-Swordfish-Torpedobomber der "Ark Royal" mit Flugzeugtorpedos angegriffen. Die Geschwindigkeit der alten, maximal 221 km/h schnellen Doppeldecker wurde überschätzt. Zudem konnten die meisten der 52 Fla-Geschütze zur Abwehr nicht tief genug abgesenkt werden. Kein einziges Flugzeug wurde abgeschossen, obwohl ein Großteil der Flak-Munition verbraucht wurde. Im Gegensatz zu einem früheren, fast wirkungslosen Flugzeug-Torpedotreffer, der von der Rumpf-Panzerung abgefangen wurde, erhielt das Schiff nun einen wirkungsvollen in die Backbord-Seite der Ruderanlage. Die Ruder wurden dadurch in etwa 15°-Stellung nach Backbord verklemmt und das Schiff konnte nur noch im Kreis fahren. Die beschädigte Ruderanlage konnte wegen des hohen Seegangs und des gefluteten Ruderraumes nicht repariert werden. Vielfältige Versuche, das Schiff gegen den Winddruck durch unterschiedliche Propellerdrehzahlen zu steuern, waren nicht erfolgreich. Deshalb fuhr das Schiff letztlich mit langsamer Fahrt seinen Verfolgern entgegen. Am 27. Mai wurde das Schiff im Nordatlantik von zwei Schlachtschiffen und zwei Schweren Kreuzern gestellt und ging etwa 550 Seemeilen (etwa 1.000 Kilometer) westlich von Brest bei den Koordinaten 48° 10' Nord, 16° 12' West unter. Bis heute wird die Frage einer Selbstversenkung kontrovers diskutiert (s. u.). 2.104 Mann der Besatzung kamen dabei ums Leben, 116 konnten gerettet werden. Davon rettete die "Dorsetshire" 86, die "Maori" 25, das deutsche U-Boot "U 74" drei und das deutsche Wetterbeobachtungsschiff "Sachsenwald" zwei Mann. Entdeckung des Wracks. Am 8. Juni 1989 wurde das Wrack der "Bismarck" vom US-amerikanischen Tiefseeforscher Robert Ballard in 4.800 Metern Tiefe entdeckt. Die Bilder vom Wrack der "Bismarck" zeigen ein aufrecht auf dem Meeresgrund aufsitzendes Schiff, dessen 15 Meter langes Heck ebenso wie ein Teil der Aufbauten abgerissen war. Eine britische Expedition vom Juli 2001 kam zum Ergebnis, dass die Versenkung der "Bismarck" durch Torpedos erfolgte. Es wurde zwar mit Unterwasserrobotern gearbeitet, diese drangen jedoch nicht in das Schiffsinnere ein, um dort eventuelle kritische Beschädigungen durch Torpedos zu dokumentieren und so diese These zu bestätigen. Eine Expedition von James Cameron im Jahre 2002 zeigte, dass das Wrack der "Bismarck" am verbliebenen Rumpf relativ unbeschädigt ist. Dies stützt die These, sie sei durch Selbstversenkungsmaßnahmen der Besatzung gesunken. Es wurden nur vier Durchschüsse von Artilleriegranaten durch den Gürtelpanzer gezählt, und auch die Untersuchung der Torpedoschotts mit Kamerarobotern lieferte keinen Hinweis auf eine Versenkung durch Torpedos. Es wurde zwar ein Torpedotreffer entdeckt, der aber außer einem Loch in der Außenhaut und der dadurch gefluteten wasserdichten Abteilung keine kritischen Beschädigungen des Rumpfes hervorgerufen hatte. Die Expedition fand eines der Ruder abgeknickt und mit dem Mittelpropeller verkeilt vor. Möglicherweise war dies der Schaden, der zur Manövrierunfähigkeit der "Bismarck" vor ihrem letzten Gefecht führte. Der Schaden könnte allerdings auch durch das Auftreffen des Rumpfes auf den Ozeanboden und das danach erfolgte Herunterrutschen an einem Hang verursacht worden sein. Letztlich ist die Frage, ob das Schiff durch britische Torpedos oder durch Selbstversenkung unterging, nur eine Nebensächlichkeit, da es zum fraglichen Zeitpunkt bereits zum Wrack geschossen und als kampffähige Einheit ausgeschaltet worden war. Im Umfeld des Wracks fanden sich die beim Sinken aus den Barbetten gefallenen Türme, der Kommandoturm (der kopfüber auf dem Artillerieleitstand liegend zur Ruhe kam) und unter anderen Trümmern ein Areal mit hunderten Seestiefeln, vermutlich etwa unterhalb der Stelle, an der die Überlebenden im Meer trieben. Der Mythos der Bismarck. Sofort nach dem Untergang der "Bismarck" betrieb die NS-Propaganda eine Umdeutung des katastrophalen Unternehmens. Das letzte Gefecht wurde und wird auch heutzutage noch zum heroischen Opfergang stilisiert und die behauptete Selbstversenkung mit dem Pathos des im Kampf unüberwundenen Schiffes aufgeladen. Die "Bismarck" wurde gleichsam zum Symbol des sich der Übermacht trotzig entgegenstellenden, aber letztlich nur durch eigene Hand fallenden mythischen Helden aufgebaut. Der sensationelle Erfolg gegen die damals bereits veraltete "Hood" diente dabei als Beleg der technischen Überlegenheit Deutschlands. In der ersten Hälfte des Krieges verfügte die Royal Navy über nur wenige vergleichbar kampfstarke Kriegsschiffe. Mit Ausnahme der unter Beachtung der engen Begrenzungen des Washingtoner Vertrages gebauten "King George V"-Klasse und der "Nelson"-Klasse stammten alle britischen Schlachtschiffe noch aus der Zeit des Ersten Weltkriegs. Bewaffnung, Feuerleitausrüstung und vor allem Panzerung waren der "Bismarck" weit unterlegen. Dies erklärt den schnellen Untergang der "Hood", die als Schlachtkreuzer mit generell schwächerer Panzerung konzeptionell nicht für den Kampf gegen Schlachtschiffe ausgelegt und auch technisch unterlegen war. Trotzdem war der Verlust der "Hood" für die Briten ein harter moralischer Schlag, da der Schlachtkreuzer als der Stolz der britischen Marine galt. Dies wird auch als einer der Gründe genannt, warum die britische Marine so schnell reagierte und die "Bismarck" direkt verfolgen ließ. Standfestigkeit und Sinksicherheit war auf deutschen Großkampfschiffen schon im Ersten Weltkrieg wichtiger gewesen als Feuerkraft. Die geringen Totalverluste der deutschen Marine in der Skagerrakschlacht belegen dies. Auf der "Bismarck" wurde diese Sinksicherheit durch die konsequente Unterteilung des gesamten Schiffsinneren in wasserdicht voneinander abgeschottete Abteilungen noch übertroffen. Die Durchschlagfestigkeit der Panzerung wurde durch die Verwendung neuartiger, hochwertiger Materialien und weniger durch deren Dicke erreicht. Diese "Wotan hart (Wh)" und "Wotan weich (Ww)" genannten Panzerstähle waren schweißbar und mussten nicht mehr auf das Schiff aufgenietet werden. Auf diese Weise ersetzte die Panzerung sogar teilweise die Außenhaut des Schiffes, was eine Gewichtsersparnis bedeutete. In Kombination mit dem gestaffelten System aus hintereinander angeordneten Panzerlagen erreichte man einen verblüffend effektiven Schutz. Allerdings erwies sich auch im Fall der beiden Treffer, die die "Prince of Wales" auf der "Bismarck" erzielte, dass ein Großkampfschiff im Kreuzerkrieg schon durch leichte Gefechtsschäden gezwungen werden konnte, die Unternehmung abzubrechen. Derartige Treffer, die zwar nicht die See- und Fahrtüchtigkeit einschränkten, konnten das Schiff dennoch an der Rückkehr in die Heimatgewässer hindern. Das gleiche Schicksal hatte zuvor bereits die "Admiral Graf Spee" erlitten. Obwohl im Endkampf die britischen Schiffe auf kürzeste Distanz die bereits kampfunfähige "Bismarck" beschossen, konnten ihre großkalibrigen Granaten den Hauptpanzer noch immer nicht durchschlagen. Dies lag daran, dass die Granaten durch die flache Flugbahn horizontal gegen die starke seitliche Panzerung trafen. Mit einer größeren Kampfentfernung wären die britischen Granaten steiler von oben eingekommen und hätten den schwächeren Deckspanzer oder dessen Böschung durchschlagen können. Das Ende der "Bismarck" kündigte darüber hinaus auch bereits das Ende der Schlachtschiff-Ära an. Immer größere und schlagkräftigere Schlachtschiffe zu bauen, erwies sich spätestens mit dem Ende der japanischen "Yamato" 1945 als Sackgasse. Auch Pearl Harbor hatte bereits 1941 gezeigt, dass Schlachtschiffe gegen eine große Zahl angreifender Flugzeuge nur geringe Überlebenschancen hatten. Das Schlachtschiff ist damit dem Flugzeugträger grundsätzlich unterlegen. Letzterer hat eine größere Reichweite und zielgenauere Waffen. So zeigte sich im „Unternehmen Rheinübung“ in Zeitrafferform der prinzipielle Wandel der Seestreitkräfte: Am 24. Mai zeigte die "Bismarck" durch Versenkung der "Hood", dass die Zeit für die schwach gepanzerten Schlachtkreuzer lange abgelaufen war. Am 26. und 27. Mai deutete sich an, dass der Flugzeugträger der Nachfolger des Schlachtschiffs werden würde. Einer Legende nach soll sich die Schiffskatze Oscar an Bord der "Bismarck" befunden haben, die später in Großbritannien Berühmtheit erlangte, da sie den Untergang der "Bismarck" und zweier weiterer Schiffe überlebte. Technik. Arbeits- und Scheinwerferplattform von achtern gesehen Flakleitstand A. Blick von unten auf den Einstieg in die Kalotte Deckswand zwischen Turm „Cäsar“ und 15-cm-Turm Stb III Turm Anton, der vorderste Turm der schweren Artillerie Das 251 Meter lange Schlachtschiff mit drei Schrauben konnte eine Höchstgeschwindigkeit von 30,1 Knoten erreichen (bei einer Geschwindigkeitsmessfahrt wurden sogar 30,8 Knoten gemessen). Die Marschgeschwindigkeit (Reisegeschwindigkeit) wurde jedoch, um den Treibstoffverbrauch in Grenzen zu halten, mit 19 Knoten gewählt. Beiboote. Die "Bismarck" verfügte über eine umfangreiche Ausstattung an Beibooten. Diese umfasste drei Admirals- oder Kommandantenboote („Chefboote“), eine Motorbarkasse, zwei Motorpinassen, vier Verkehrsboote (kurz: V-Boote), zwei Rettungs-Kutter für Mann-über-Bord-Manöver, zwei Jollen und zwei Dingis. Die Pinassen und Verkehrsboote sowie die Barkasse dienten bei Liegezeiten auf Reede vornehmlich dem Personentransport zwischen dem Schiff und einer Anlegestelle. Antrieb. Der Antrieb der Bismarck bestand aus Dampfkesseln und Dampfturbinen. Die Maschinenleistung betrug 150.170 PS oder umgerechnet 110.450 kW. Es gab zwölf Wagner-Hochdruck-Heißdampfkessel in sechs Kesselräumen sowie einen Hilfskesselraum. Sie waren mit Saacke-Brennern, natürlichem Umlauf, Speisewasservorwärmer, Rauchgasvorwärmer und Sattdampfüberhitzer ausgestattet. Die einzelnen Turbinensätze waren um die jeweiligen Getriebe herumgruppiert. Jeder Turbinensatz bestand aus Hoch-, Mittel- und Niederdruckteil (zuzüglich Rückwärtsturbinen). Eine Marschturbine gab es nicht. Für die elektrische Energieversorgung standen insgesamt vier E-Werke zur Verfügung, zwei vor den Kesselräumen gelegen, zwei neben der Mittelmaschine. Jedes hatte zwei Dieselgeneratoren zu je 500 kW und drei dieser E-Werke noch zusätzlich zwei Turbogeneratoren. Von den Turbogeneratoren hatten fünf eine Leistung von je 690 kW und einer von 460 kW. Dieser war mit einem angehängten 400-kVA-Wechselstromgenerator gekoppelt. Außerdem gab es noch einen Wechselstrom-Dieselgenerator mit 550 kVA Leistung. Insgesamt leistete die E-Anlage somit 7.910 kW. Die Bordspannung betrug 220 Volt. Bewaffnung. Die schwere Artillerie (SA) der "Bismarck" bestand aus acht 34) in je zwei Doppeltürmen vorn und achtern. Die Türme waren von vorn nach hinten alphabetisch (nach dem deutschen Sprechfunkalphabet) bezeichnet als „Anton“, „Bruno“, „Caesar“ und „Dora“. Dabei waren die Türme „Bruno“ und „Caesar“ überhöht angeordnet, so dass sie über den davor bzw. dahinter angeordneten Turm hinweg feuern konnten. Die Geschütze hatten eine Rohrlänge von 19,63 Metern, eine Reichweite von 36,6 Kilometern und feuerten maximal 3,3 Schüsse in der Minute ab. Dies war jedoch nur beim Ladewinkel von 2,5° möglich, wobei die Reichweite weniger als fünf Kilometer betrug. Bei größerer Entfernung musste das Rohr erhöht und wieder gesenkt werden. Beim Gefecht in der Dänemarkstraße betrug die Feuerrate etwa zwei Schuss pro Minute. Die Geschütze konnten gegen Land- und gegen Seeziele eingesetzt werden. Die mittlere Artillerie (MA) der "Bismarck" umfasste zwölf 28) in sechs Zwillingstürmen (drei an jeder Seite). Die Rohrlänge betrug 8,2 Meter, es konnten sechs bis acht Schuss pro Minute und Rohr abgefeuert werden. Die Flugabwehr-Kanonen der "Bismarck" waren unterschiedlicher Art und hatten verschiedene Reichweiten. Es wurden die Kaliber 10,5 cm, 3,7 cm (halbautomatisch) und 2 cm verwendet. Die vier vorderen 10,5-cm-Flakgeschütze waren vom Modell C/33na in Doppellafette C/31, die achteren in Doppellafette C/37. Das war aber nur eine provisorische Installation, um das Schiff möglichst schnell einsatzklar zu bekommen. Dies sorgte für Probleme bei der Feuerleitung, wodurch der eine Modelltyp stets danebenschoss. Nach der Rückkehr vom Unternehmen Rheinübung sollten auch die vorderen Lafetten gegen den Typ C/37 ausgetauscht werden. Diese Nachrüstung wäre in Brest oder Saint-Nazaire durchgeführt worden. Es kam nicht mehr dazu, da die "Bismarck" schon bei ihrem ersten Einsatz sank. Gegen die unterhalb des Feuerbereichs der schweren Flak anfliegenden, veralteten britischen Torpedobomber vom Typ Fairey Swordfish erwies sich die leichtere Flak der "Bismarck" als wenig wirksam. Dies lag an der viel zu geringen Schussfrequenz der 3,7-cm-Flak, vor allem aber an der mangelnden Ausbildung der Besatzung. Wie sich aus dem Bericht des "Artillerieversuchskommandos Schiffe" ergibt, wurde das Schießen auf bewegliche Ziele so gut wie überhaupt nicht trainiert. Bordflugzeuge. Die "Bismarck" war mit vier Wasserflugzeugen vom Typ Arado Ar 196 zur Feindaufklärung und luftgestützten Seeüberwachung ausgestattet. Die Maschinen gehörten zur 1. Staffel der Bordfliegergruppe 196. Die Piloten und Techniker der Bordfliegergruppen kamen aus politischen Gründen von der Luftwaffe. Die Ar 196 besaß klappbare Tragflächen und schwere Bewaffnung. Zwei startklare Maschinen standen in den beiden Bereitschaftshangars seitlich des Schornsteins, während die beiden anderen in dem Werkstatthangar unter dem achteren Aufbau gewartet werden konnten. Mit den gegenläufig verbundenen Katapulten (Doppelkatapult), die sich in der Mitte des Schiffes befanden und von 32 Metern über die Bordwand auf 48 Meter ausgefahren werden konnten, wurden die Flugzeuge gestartet. Landen mussten sie allerdings auf dem Wasser; anschließend wurden sie von einem der beiden 12-Tonnen-Kräne an den Seiten der "Bismarck" an Bord gehoben. Am Morgen des 27. Mai 1941 wurde versucht, mit einem dieser Flugzeuge das Kriegstagebuch in Sicherheit zu bringen. Dieser Versuch schlug jedoch fehl, da beide Katapulte beschädigt waren. Wegen der von der aufgetankten Maschine ausgehenden Brandgefahr wurde sie von ihrem Personal über Bord gekippt. Offiziere und Besatzung. Die Besatzung bestand standardmäßig aus 2065 Mann (davon 103 Offiziere). Zum Unternehmen „Rheinübung“ kamen zusätzlich 75 Personen des Flottenstabes und ein Prisenkommando mit einem Offizier und 80 Mann an Bord, außerdem Beobachter, Journalisten und Kameramänner des Propagandaministeriums. Von diesen überlebte niemand. Die Schiffsbesatzung bestand aus zwölf Kompanien, von denen jede 150–200 Mann umfasste. Die Kompanien wurden in mindestens zwei Unterkompanien unterteilt, die wiederum aus Korporalschaften von zehn bis zwölf Mann bestanden. Verpflegung. Es gab auf dem Batteriedeck der "Bismarck" zwei Kantinen mit sechs bis acht Personen Küchenpersonal und Köchen. Die Kantinen waren in drei Messen unterteilt, davon zwei für die Mannschaften. In den Kantinen wurden auch Konsumgüter wie Zigaretten, Bier, Süßigkeiten und Schreibwaren verkauft. Mit dem Gesamtvorrat an Lebensmitteln war Verpflegung für 250.000 Manntage an Bord. Damit konnten die knapp 2200 Mann Besatzung ungefähr vier Monate versorgt werden. Die Maschinen der Kühlräume wurden mit Kohlendioxid gekühlt. Rezeption. Zahlreiche künstlerische Darstellungen, u. a. durch die Marinemaler Günther Todt, Walter Zeeden und Viktor Gernhard. Des Weiteren ist die "Bismarck" Gegenstand des britischen Spielfilms "Die letzte Fahrt der Bismarck." (OT: "Sink the Bismarck!") aus dem Jahr 1960, der auf Cecil Scott Foresters Sachbuch Die letzte Fahrt der Bismarck (Originaltitel: "The Last Nine Days of the Bismarck" oder "Hunting the Bismarck") basierte. Bayesscher Wahrscheinlichkeitsbegriff. Der nach dem englischen Mathematiker Thomas Bayes benannte bayessche Wahrscheinlichkeitsbegriff (engl. "Bayesianism") interpretiert Wahrscheinlichkeit als Grad persönlicher Überzeugung (). Er unterscheidet sich damit von den objektivistischen Wahrscheinlichkeitsauffassungen wie dem frequentistischen Wahrscheinlichkeitsbegriff, der Wahrscheinlichkeit als relative Häufigkeit interpretiert. Der bayessche Wahrscheinlichkeitsbegriff darf nicht mit dem gleichfalls auf Thomas Bayes zurückgehenden Satz von Bayes verwechselt werden, welches in der Statistik reiche Anwendung findet. Entwicklung des bayesschen Wahrscheinlichkeitsbegriffs. Der bayessche Wahrscheinlichkeitsbegriff wird häufig verwendet, um die Plausibilität einer Aussage im Lichte neuer Erkenntnisse neu zu bemessen. Pierre-Simon Laplace (1812) entdeckte diesen Satz später unabhängig von Bayes und verwendete ihn, um Probleme in der Himmelsmechanik, in der medizinischen Statistik und, einigen Berichten zufolge, sogar in der Rechtsprechung zu lösen. Zum Beispiel schätzte Laplace die Masse des Saturns auf Basis vorhandener astronomischer Beobachtungen seiner Umlaufbahn. Er erläuterte die Ergebnisse zusammen mit einem Hinweis seiner Unsicherheit: „"Ich wette 11.000 zu 1, dass der Fehler in diesem Ergebnis nicht größer ist als 1/100 seines Wertes."“ (Laplace hätte die Wette gewonnen, denn 150 Jahre später musste sein Ergebnis auf Grundlage neuer Daten um lediglich 0,37 % korrigiert werden.) Die bayessche Interpretation von Wahrscheinlichkeit wurde zunächst Anfang des 20. Jahrhunderts vor allem in England ausgearbeitet. Führende Köpfe waren etwa Harold Jeffreys (1891–1989) und Frank Plumpton Ramsey (1903–1930). Letzterer entwickelte einen Ansatz, den er aufgrund seines frühen Todes nicht weiter verfolgen konnte, der aber unabhängig davon von Bruno de Finetti (1906–1985) in Italien aufgenommen wurde. Grundgedanke ist, „"vernünftige Einschätzungen"“ (engl. "rational belief") als eine Verallgemeinerung von Wettstrategien aufzufassen: Gegeben sei eine Menge von Information/Messungen/Datenpunkten, und gesucht wird eine Antwort auf die Frage, wie hoch man auf die Korrektheit seiner Einschätzung wetten oder welche "Odds" man geben würde. (Der Hintergrund ist, dass man gerade dann viel Geld wettet, wenn man sich seiner Einschätzung sicher ist. Diese Idee hatte großen Einfluss auf die Spieltheorie). Eine Reihe von Streitschriften gegen (frequentistische) statistische Methoden ging von diesem Grundgedanken aus, über den seit den 1950ern zwischen Bayesianern und Frequentisten debattiert wird. Wahrscheinlichkeitswerte. Man kann leicht einsehen, dass die Wahrscheinlichkeitswerte bei 0 anfangen müssen; sonst würde so etwas wie eine 'doppelt so große Wahrscheinlichkeit' keine Bedeutung haben. Aus den obigen Regeln der Wahrscheinlichkeitswerte lassen sich andere ableiten. Praktische Bedeutung in der Statistik. Um solche Probleme trotzdem im Rahmen der frequentistischen Interpretation angehen zu können, wird die Unsicherheit dort mittels einer eigens dazu erfundenen variablen Zufallsgröße beschrieben. Die Bayessche Wahrscheinlichkeitstheorie benötigt solch eine Hilfsgröße nicht. Stattdessen führt sie das Konzept der A-priori-Wahrscheinlichkeit ein, die "Vorwissen" und Grundannahmen des Beobachters in einer Wahrscheinlichkeitsverteilung zusammenfasst. Vertreter des Bayes-Ansatzes sehen es als großen Vorteil, Vorwissen und A-Priori-Annahmen explizit im Modell auszudrücken. Backpulver. Backpulver ist ein zum Backen benutztes Triebmittel, das unter Einwirken von Wasser, Säure und Wärme gasförmiges Kohlenstoffdioxid (CO2) freisetzt. Durch die CO2-Entwicklung wird das Volumen des Teigs vergrößert. Zusammensetzung. Backpulver ist eine Mischung aus einer CO2-Quelle, meist Natriumhydrogencarbonat (Natron) oder Kaliumhydrogencarbonat, und einem Säuerungsmittel, oft Dinatriumdihydrogendiphosphat (E 450a) oder Monocalciumorthophosphat (E 341a) als Säureträger. Zudem wird ein Trennmittel (bis 30 %) aus Mais-, Reis-, Weizen- oder Tapiokastärke bzw. Weizenmehl zugegeben, um Feuchtigkeit zu binden und so eine vorzeitige CO2-Entwicklung zu verhindern. Phosphatfreie Backpulver enthalten Weinstein (Kaliumhydrogentartrat), Glucono-delta-lacton oder Calciumcitrat als Säureträger. Manchmal wird Vanillin oder Ethylvanillin zur Aromatisierung zugesetzt. Backpulver wird für den Gebrauch in Haushalten in Portionsverpackungen („Briefchen“) im Handel angeboten. Bei Teigen wird es vor allem dem Rührteig zugefügt. Im Mürbeteig (Tortenböden, Kekse) ist der Einsatz von Backpulver eher selten. Im Hefeteig übernimmt zugesetzte Hefe die Rolle des Backpulvers. Bei flachen Dauergebäcken wird eher Ammoniumhydrogencarbonat verwendet, für Leb- und Honigkuchen in Verbindung mit Kaliumcarbonat (Pottasche). Manchmal wird für Lebkuchen auch Hirschhornsalz oder eine Mischung von Ammoniumhydrogencarbonat und Ammoniumcarbamat im Verhältnis 1:1 eingesetzt. Ab 60 °C zersetzt sich diese in Ammoniak, Kohlenstoffdioxid und Wasser. Wirkung. thermische Zersetzung: formula_1 Reaktion mit Säure: formula_2 Damit wird ein ähnlicher Trieb erreicht wie bei der Verwendung von Pilzen der Backhefe im Hefeteig und Bakterien im Sauerteig, wo ebenfalls CO2 entsteht. Die Zugabe von Backpulver verkürzt die Zubereitungszeit, da Hefepilze und Bakterien zur Produktion von CO2 mehr Zeit benötigen (zwischen einer halben Stunde und einem Tag). Die Teigsorten unterscheiden sich allerdings erheblich in Geschmack und Konsistenz. Geschichte. Das Backpulver wurde von Eben Norton Horsford, einem Schüler von Justus von Liebig, erfunden. Horsford experimentierte zunächst mit saurem Calciumphosphat und Natriumhydrogencarbonat. Der deutsche Apotheker und Unternehmer Ludwig Clamor Marquart produzierte und vertrieb als erster auf dieser Grundlage ein entsprechendes Backpulver. 1854 gründete Horsford mit George Francis Wilson (1818–1883) die Rumford Chemical Works, um Backpulver zu produzieren und verkaufte das dort produzierte neue Mittel unter dem Namen "yeast powder" (Hefepulver). Liebig war in der Lage, das Mittel durch Zugabe von Kaliumchlorid weiter zu verbessern, und Horsford ließ das Mittel als "baking powder" patentieren. Da sich Backwaren (einschließlich Brot) leichter industriell herstellen lassen, brachte der einsetzende Sezessionskrieg (1861–1865) eine große Nachfrage nach Backpulver, und Horsford musste seine Produktionsanlagen ständig erweitern. Liebig führte 1868 weitere Arbeiten über Backpulver und Brotbacken durch, als in Ostpreußen eine große Hungersnot herrschte. Der Erfolg des Backpulvers in Deutschland begann schließlich mit August Oetker, der 1891 die Aschoff'sche Apotheke in Bielefeld erwarb. Oetker füllte Backpulver in für private Haushalte besser geeignete, kleine Portionen ab und bewarb seinen Gebrauch zum Backen von Kuchen im Gegensatz zur bisherigen Verwendung von Bäckern zum Brotbacken. Ab 1893 füllte er sein Backpulver "Backin" ab, 1898 ging er zur Massenproduktion über, und am 21. September 1903 wurde das entsprechende Verfahren durch Oetker patentiert, das bis heute Anwendung findet. Blinder Fleck (Psychologie). Blinder Fleck bezeichnet in der Sozialpsychologie die Teile des Selbst oder Ichs, die von einer Persönlichkeit nicht wahrgenommen werden. Der blinde Fleck wird im Johari-Fenster dargestellt. Die psychischen Funktionen, die „blinde Flecke“ erzeugen, haben durch die Psychoanalyse einen eigenen Namen erhalten: "Abwehrmechanismen" (Anna Freud, 1936). In der Soziologie und Kriminologie wurden die Abwehrmechanismen "Neutralisationsmechanismen" genannt (Sykes & Matza 1968), die dazu dienen, eigene kriminelle Handlungen zu bagatellisieren, zu rationalisieren oder zu leugnen, um die Schuld abzuwälzen (z. B. „es trifft selten einen Falschen“; „das hätte doch jeder gemacht“; „es dient doch einem guten Zweck“ = der Zweck heiligt die Mittel). In der Sozialpsychologie hat sich vor allem Leon Festinger mit seiner Theorie der kognitiven Dissonanzen (engl. 1957; dt. 1978) des Problems angenommen und die Abwehrmechanismen, die man nach ihm auch "Dissonanzmechanismen" nennen könnte, auf eine allgemeine und sozialpsychologische Grundlage gestellt. Alle Menschen sind in der Lage, blinde Flecke – möglicherweise situations- und befindlichkeitsabhängig – auszubilden. Die Abwehrmechanismen haben auch eine wertvolle Schutzfunktion für die Psyche und dürfen nicht von vorneherein nur negativ bewertet werden. Bambara. Bambara, auch als "Bamanankan" bezeichnet, ist eine Mande-Sprache, die in Mali in Westafrika gesprochen wird. Sie zählt gemeinsam mit Dioula und Malinke zum Dialektkontinuum (ineinander übergehende Dialekte der gleichen Sprache) des Manding, welches von ca. 30 Millionen Menschen in zehn Ländern Westafrikas in unterschiedlichem Maße verstanden und gesprochen wird. Das Dioula der Elfenbeinküste ist ein vom Malinke beeinflusstes vereinfachtes Bambara, das Dioula von Burkina Faso nahezu deckungsgleich mit dem Bambara. Mit dem Bambara als zentraler Variante des Manding kann man sich fast überall in Mali, in den meisten Regionen von Burkina Faso und der Elfenbeinküste sowie in den östlichen Landeshälften Guineas und des Senegals verständigen. Als Schrift werden entweder das lateinbasierte Afrika-Alphabet oder die eigene N’Ko-Schrift verwendet. Der "Language Code" ist codice_1 bzw. codice_2 (nach ISO 639). Literatur. Bailleul Ch. Dictionnaire Français-Bambara. 3e édition. Bamako: Donniya, 2007. Bamako. Bamako ist die Hauptstadt Malis. Im Vorort Koulouba liegt das Regierungsviertel von Mali. Die Stadt liegt am Fluss Niger. Verwaltungsgliederung. Der Distrikt Bamako unterteilt sich in die sechs Gemeinden Commune I, Commune II, Commune III, Commune IV, Commune V und Commune VI. Bevölkerung. Bamako hat nach den Ergebnissen des 2009 durchgeführten Zensus 1.809.106 Einwohner. Geschichte. Die Gegend um Bamako ist seit der Altsteinzeit besiedelt. Das fruchtbare Land im Tal des Flusses Niger ermöglichte die Produktion von Nahrungsmitteln. Bamako lag an wichtigen Handelsrouten und wurde zu einem Umschlagplatz für Waren wie Gold, Elfenbein, Kola-Nüsse, Salz. Außerdem entwickelte sich die Stadt mit zwei Universitäten im Mittelalter auch zu einem Zentrum für islamische Gelehrte. Vor der Eroberung durch französische Truppen im Jahr 1883 hatte Bamako bereits ungefähr 600 Bewohner.Im Jahre 1908 wurde sie zur Hauptstadt des französischen Gouvernements Obersenegal und Niger. Als Mali 1960 unabhängig von Frankreich wurde, hatte Bamako 160.000 Einwohner. Nach einer sozialistischen Phase unter sowjetischem Einfluss putschte sich 1968 General Moussa Traoré an die Macht. 1987 war Bamako Tagungsort einer WHO-Konferenz, die unter dem Namen Bamako-Initiative die Gesundheitspolitik Afrikas nachhaltig veränderte. Bei einer Geiselnahme im November 2015 starben mehr als 20 Menschen. Wirtschaft und Verkehr. Als Handels- und Industriezentrum (Textilindustrie) ist Bamako der wichtigste Wirtschaftsstandort in Mali. Von Bamako aus führt die Bahnstrecke Dakar–Niger über Kita, Mahina, Kayes in die Hafenstadt Dakar im Senegal. Des Weiteren ist die Stadt über den Flughafen Bamako erreichbar. Bamako hat drei Brücken über den Niger: Pont des Martyrs, Pont du roi Fahd und die Chinesisch-malische Freundschaftsbrücke. Kultur. Im "Musée National du Mali" werden archäologische und ethnologische Sammlungen ausgestellt. Die Sammlung der "Bibliothèque nationale du Mali" umfasst etwa 60.000 Werke. Alle zwei Jahre findet die Fotografieausstellung "Rencontres africaines de la photographie" statt. Seit 2003 wird in Bamako jährlich das Musikfestival Trophées de la musique au Mali ausgetragen. In dessen Verlauf werden die besten Musiker Malis mit den "Tamanis" ausgezeichnet. Sport. Zu den erfolgreichsten Teams des Landes mit zahlreichen nationalen Titeln zählen die Fußballvereine Djoliba AC, Stade Malien und AS Real Bamako. Als Spielstätten dienen unter anderem das 2001 eröffnete und 50.000 Zuschauer fassende "Stade du 26-Mars" sowie das "Stade Modibo Keïta" mit 35.000 Plätzen. In beiden Stadien wurden Spiele der Afrikameisterschaft 2002 ausgetragen. Bei der Rallye Paris-Dakar war Bamako mehrmals Etappenort. Kanton Basel-Stadt. Basel-Stadt (Kürzel BS;,) ist ein Kanton in der Deutschschweiz. Der Hauptort und zugleich einwohnerstärkster Ort ist Basel. Der Kanton zählt zum Wirtschaftsraum Nordwestschweiz und zur grenzüberschreitenden Metropolregion Basel. Der Kanton ist der flächenkleinste und zugleich am dichtesten besiedelte Schweizer Kanton und besteht aus der Stadt Basel sowie den politischen Gemeinden Riehen und Bettingen. Der Kanton Basel-Stadt grenzt sowohl an Deutschland als auch an Frankreich. Geographie. Der Halbkanton Basel-Stadt liegt im Nordwesten der Schweiz. Der Fläche nach ist er der kleinste Kanton, von der Einwohnerzahl her belegt er Platz 15 von 26. Die Gemeinde Basel liegt am sogenannten Rheinknie, wo der Birsig in den Rhein mündet und dieser seine Fliessrichtung von Westen in Richtung Norden ändert. Das Rheinknie bildet das südliche Ende der Oberrheinischen Tiefebene. Hinzu kommen die beiden Landgemeinden Riehen und Bettingen nördlich des Rheins. Riehen erstreckt sich entlang des Wiesentals und zählt rund 21'000 Einwohner. Bettingen ist unterteilt in die Ortschaften Bettingen Dorf und St. Chrischona, hat rund 1200 Einwohner und liegt auf einer Anhöhe, deren markantester Punkt der Fernsehturm St. Chrischona ist. Politische Gemeinden. Seit 1908 ist die Gemeinde Kleinhüningen in die Stadt Basel eingemeindet. Bezirke. Ehemalige Bezirke des Kantons Basel-Stadt Nach der Trennung von Basel-Landschaft bestand der Stadtkanton aus zwei Bezirken, dem Stadtbezirk mit der Gemeinde Basel und dem Landbezirk mit den Gemeinden Kleinhüningen, Riehen und Bettingen. Mit der kantonalen Verfassung von 1889 wurde die Ebene der Bezirke aufgehoben. Das Bundesamt für Statistik (BFS) führt den gesamten Kanton jedoch als einen Bezirk unter der BFS-Nr.: 1200. Bevölkerung. Die Bevölkerung des Kantons Basel-Stadt ist sehr heterogen und reflektiert die Geschichte des Kantons als wichtiger Handels- und Industriestandort. Die Bevölkerungsentwicklung ist seit den 1980er-Jahren rückläufig. Die Abwanderung in angrenzende Gemeinden anderer Kantone und der strukturelle Verlust von Arbeitsplätzen mit dem Wandel in der industriellen Produktion zählen zu den wichtigen Gründen hierfür. Per betrug die Einwohnerzahl des Kantons Basel-Stadt. Die Bevölkerungsdichte liegt mit  Einwohnern pro Quadratkilometer annähernd bei dem 26-fachen des Schweizer Durchschnitts (Einwohner pro Quadratkilometer). Der Ausländeranteil (gemeldete Einwohner ohne Schweizer Bürgerrecht) bezifferte sich am auf  Prozent, während landesweit  Prozent Ausländer registriert waren. Per betrug die Arbeitslosenquote  Prozent gegenüber  Prozent auf eidgenössischer Ebene. Religionen – Konfessionen. Damit ist die früher dominante protestantische Bevölkerung von 85'000 im Jahre 1980 auf 35'000 per Ende 2010 zurückgegangen. Die Zahlen sind allerdings verschieden zu interpretieren. Bei den Protestanten, den Katholiken, bei den Juden und bei den Christkatholiken wird die institutionelle Zugehörigkeit zur Religionsgemeinschaft gezählt (öffentlich-rechtlich anerkannte Gemeinschaften), bei den Muslimen, den «Anderen» und den Ostkirchenanhängern (wie Serbisch-Orthodoxen oder Griechisch-Orthodoxen) die Glaubenszugehörigkeit (Stand Ende 2010). Geschichte. Der Kanton Basel-Stadt in seinen heutigen Grenzen entstand 1833, als sich vom damaligen Kanton Basel der heutige Kanton Basel-Landschaft im Rahmen der Basler Kantonstrennung (siehe dort) abspaltete. Basel-Stadt hatte lange Zeit einen Wiedervereinigungsartikel in der Verfassung, erst mit der Totalrevision 2006 wurde er fallengelassen. Die Verfassung von Basel-Landschaft gebietet Eigenständigkeit. Letztmals wurde im Jahre 1969 über eine Wiedervereinigung abgestimmt, die Stimmberechtigten votierten in Basel-Stadt klar dafür, in Basel-Landschaft dagegen. Obwohl aus räumlicher Sicht sinnvoll, war die Wiedervereinigung politisch chancenlos. Pragmatischer Ausweg aus diesem Dilemma sind gemeinsame Verwaltungseinheiten und Institutionen und der freiwillige Abgleich von Gesetzen und Verordnungen. Die Geschichte von Basel-Stadt ist grösstenteils mit der Geschichte der den Stadtkanton dominierenden Stadt Basel identisch, siehe dort. Verfassung. Die Stimmberechtigten des Kantons Basel-Stadt haben die aktuelle Kantonsverfassung am 30. Oktober 2005 angenommen. Diese trat am 13. Juli 2006 in Kraft und löste die Verfassung vom 2. Dezember 1889 ab. Direktdemokratische Volksrechte. 3000 Stimmberechtigte können eine ausformulierten "(formulierte)" oder allgemein gehaltene "(unformulierte)" Volksinitiative einreichen, die eine Änderung der Verfassung oder eine Änderung, den Erlass oder die Aufhebung eines Gesetzes oder eines referendumsfähigen Grossratsbeschlusses betrifft. Zwingend der Volksabstimmung unterstehen alle Verfassungsänderungen, alle formulierten Volksinitiativen sowie alle unformulierten Volksinitiativen, denen der Grosse Rat nicht zustimmt "(obligatorisches Referendum)". 2000 Stimmberechtigte können eine Volksabstimmung über einen Beschluss des Grossen Rates verlangen, der den Erlass, die Änderung oder die Aufhebung eines Gesetzes oder aber eine Ausgabe in gewisser, vom Gesetz festgelegter Höhe betrifft "(fakultatives Referendum)". Legislative – Grosser Rat. Das Parlament des Kantons nennt sich Grosser Rat. Es umfasst 100 Mitglieder, die jeweils nach dem Proporzwahlverfahren für eine Amtsperiode von vier Jahren gewählt werden. Im Jahr 2013 kam es zu einer Änderung bei der Sitzverteilung. Der Vertreter "Aktives Bettingen" (AB) schloss sich der FDP an. Exekutive – Regierungsrat. Der Regierungsrat wird nach dem Majorzwahlverfahren auf jeweils vier Jahre gewählt. Anders als in den meisten andern Kantonen, die ein rotierendes System kennen, wird der Regierungspräsident vom Volk und für die ganze vierjährige Legislaturperiode gewählt. Judikative. Oberste Gerichtsinstanz in Basel-Stadt ist das Appellationsgericht. Es ist zugleich kantonales Verwaltungsgericht und kantonales Verfassungsgericht und übt die Aufsicht über die erstinstanzlichen Gerichte aus. Dem Appellationsgericht untergeordnet sind das Zivilgericht, das Strafgericht, das Jugendstrafgericht und das Sozialversicherungsgericht. Gemeinden. Schweizweit eine Besonderheit ist, dass fast alle Geschäfte der Gemeinde Basel vom Kanton Basel-Stadt geführt werden. Damit sind Parlament, Regierung und Verwaltung des Kantons auch direkt für die Stadtgemeinde zuständig. Riehen und Bettingen verfügen dagegen über selbständige Gemeindeorgane. Ausserhalb der kantonalen Verwaltung liegen einige soziale Institutionen wie das Bürgerspital Basel oder das bürgerliche Waisenhaus, die traditionell durch die Bürgergemeinde der Stadt Basel verwaltet werden. Der Kanton Basel-Stadt ist einer der wenigen Kantone in der Schweiz, in dem für Einbürgerungen die Bürgergemeinden zuständig sind. Die Legislative der Bürgergemeinde Basel ist der Bürgergemeinderat, dessen Mitglieder die Bürgergemeinderäte sind, sein Präsident ist der Bürgergemeinderatspräsident. Die Exekutive heisst Bürgerrat, seine Mitglieder sind die Bürgerräte, sein Präsident ist der Bürgerratspräsident. Religionsgemeinschaften. Durch die Verfassung öffentlich-rechtlich anerkannt sind die evangelisch-reformierte, die römisch-katholische und die christkatholische Kirche sowie die israelitische Gemeinde. Sie ordnen ihre inneren Verhältnisse selbständig und geben sich eine Verfassung, die vom Regierungsrat genehmigt werden muss. Parteiensystem. Basel-Stadt verfügt heute über ein heterogenes Mehrparteiensystem mit fragmentierten Flügeln auf beiden Seiten des politischen Spektrums. Neben den im Basler Grossen Rat, dem Kantonsparlament, vertretenen Parteien Grünes Bündnis, SP, CVP, EVP, FDP, LDP und SVP sind noch weitere Parteien wie auch einzelne parteiunabhängige Politiker aktiv. Der Kanton Basel-Stadt ist der einzige Deutschschweizer Kanton, in dem die Liberale Partei der Schweiz (LPS, in Basel die "Liberaldemokratische Partei", LDP) eine bedeutende Rolle spielt, diese gilt dort als Partei des «Daigs», der traditionellen Basler Elite. Lange Zeit war Basel eine sozialdemokratische Hochburg. In den 1930er-Jahren stellten Sozialdemokraten und Kommunisten zusammen sogar die Mehrheit, diese Zeit ging als «rotes Basel» in die Geschichte ein. In der Zeit des Kalten Kriegs dominierten jedoch auch in Basel die bürgerlichen Kräfte. In der Gegenwart kann weder das rot-grüne noch das bürgerliche Lager eine absolute Mehrheit beanspruchen. In der Grossratswahl 2012 erreichten beide Lager gleich viele Sitze, wobei der Einzug der rechtspopulistischen «Volks-Aktion gegen zu viele Ausländer und Asylanten in unserer Heimat» ins Kantonsparlament Aufsehen erregte. Bei den Nationalratswahlen 2003 erreichte die Linke in Basel-Stadt (als einziger Schweizer Kanton) die absolute Mehrheit der Stimmen, ebenso anlässlich der Nationalratswahlen vom November 2007. Integrationspolitik. Viel Beachtung in der Politik findet das Basler Integrationsmodell von Thomas Kessler. Wirtschaft. Im Kanton Basel-Stadt sind die chemische und pharmazeutische Industrie sowie der Handel von nationaler Bedeutung. Als Finanzplatz hat Basel noch eine gewisse Bedeutung hinter Zürich. Das Wirtschaftsleben konzentriert sich auf die Gemeinde Basel (Details siehe dort). Tourismus. Touristisch ist Basel sehr gut erschlossen: Unterkünfte jeder Preisklasse, von Jugendherbergen bis zu historisch bedeutsamen Luxushotels wie dem Hotel Les Trois Rois, bieten zahlreiche Unterkunftsmöglichkeiten, und "Basel Tourismus", die halbstaatliche Organisation zur Förderung von Tourismus in Basel, unterhält nicht nur Informationsstellen, sondern bietet auch ein breites Angebot an Ausflügen und anderen Dienstleistungen an. Basel birgt eine Fülle von Sehenswürdigkeiten, darunter die Altstadt, das Basler Münster, den Fernsehturm St. Chrischona sowie zahlreiche neuere Bauwerke von bedeutenden Architekten. Weiter ziehen der Zoo Basel, der grösste zoologische Garten der Schweiz, das Dreiländereck Deutschland-Frankreich-Schweiz und die zahlreichen Museen oder Anlässe wie die Basler Fasnacht viele Besucher an. Auch unter Kunstliebhabern ist Basel seit Jahrzehnten ein Begriff: Neben weltbekannten Sammlungen der Fondation Beyeler, des Tinguely-Museums, oder des Basler Kunstmuseums lockten die zahlreichen Sonderausstellungen der Museen und natürlich die Art Basel, eine der weltweit wichtigsten Kunstmessen, jedes Jahr Zehntausende Besucher nach Basel. Strassenverkehr. Basel ist Drehkreuz des Strassenverkehrs Nord-Süd von Frankreich und Deutschland durch die Schweiz. Die Autobahn A3 von Frankreich gelangt über die Nordtangente zur Stadtautobahn A2, der sogenannten Osttangente, welche den Verkehr von Deutschland durch die Stadt Richtung Süden leitet. Ausserhalb der Stadt trennen sich darauf die beiden Zweige wieder. Die A2 führt weiter zum Gotthard bzw. nach Bern und die A3 nach Zürich. Flugverkehr. Der binationale Flughafen Basel Mulhouse Freiburg (EuroAirport) liegt vollständig auf französischem Territorium, ist jedoch in einen französischen und einen schweizerischen Sektor aufgeteilt. Der letztere ist mit einer zolltechnisch exterritorialen Strasse, einer sogenannten Zollfreistrasse, mit der Schweiz verbunden, die unter dem Namen «Flughafenstrasse» in Basel beginnt. Bahnverkehr. Der Kanton Basel-Stadt besitzt drei internationale Bahnhöfe. Der Schweizer Bahnhof Basel SBB und der französische Bahnhof Basel SNCF befinden sich beide in einem Gebäude, südlich des Stadtzentrums auf Grossbasler Seite. Wer vom Schweizer Bahnhof zum französischen möchte, muss eine Zollgrenze passieren. Der von der Deutschen Bahn betriebene Badische Bahnhof befindet sich auf Kleinbasler Seite und ist ebenfalls zolltechnisch von der Schweiz getrennt. Dieser Bahnhof wird vor allem von Reisenden aus Deutschland benutzt, die zwischen Hochrheinstrecke, Wiesentallinie (Regio-S-Bahn Basel–Lörrach–Zell im Wiesental) und Oberrhein-Region umsteigen und dabei Schweizer Gebiet passieren müssen. "St. Jakob" befindet sich an der Bözberglinie bzw. Hauensteinlinie nach Muttenz; bislang jedoch halten Züge hier nur bei Grossereignissen im St. Jakob-Park. Die Station "Dreispitz" an der Juralinie (im Mai 2006 eröffnet) soll den Bahnhof SBB von Pendlerströmen vor allem Richtung Birsigtal entlasten. Einen ähnlichen Status wie den des Badischen Bahnhofs haben die Stationen "St. Johann" an der SNCF-Strecke nach Mülhausen und "Riehen" an der deutschen Wiesentallinie. Beide Stationen liegen zwar auf Schweizer Territorium, sind aber zolltechnisch französisches bzw. deutsches Hoheitsgebiet. Schifffahrt. Auch über den Fluss Rhein ist Basel an den Rest der Schweiz und der Nachbarländer angeschlossen. So befährt die Schifffahrtsgesellschaft Basel den Rhein hinauf nach Rheinfelden. Basel ist zugleich der Heimathafen diverser Reedereien, welche von hier aus Kreuzfahrten auf dem Rhein sowie zum Main und zur Mosel anbieten. Daneben ist Basel der Heimathafen der Schweizerischen Hochseeschifffahrt. Ein wichtiger Stützpfeiler der Schweizer Wirtschaft ist die Basler Rheinschifffahrt mit ihren Rheinhäfen Kleinhüningen, St. Johann und Birsfelden. Nahverkehr. Der innerstädtische Verkehr sowie die Feinerschliessung der näheren Umgebung erfolgen mit einem ausgedehnten Tramnetz, ergänzt durch zahlreiche Buslinien der Basler Verkehrs-Betriebe, der Baselland Transport und der Autobus AG Liestal und einiger weiterer Unternehmen. Bildung. In den 1990er-Jahren wurde das gesamte öffentliche Schulsystem reformiert. Der zweijährige Kindergarten ist seit August 2005 obligatorisch. Die offizielle Schulzeit, die Volksschule, beginnt mit dem Kindergarten, dauert elf Jahre und beginnt ab dem fünften Lebensjahr. In Abhängigkeit vom genauen Geburtsdatum kann die Einschulung um ein Jahr hinausgeschoben werden. Das Schulmodell mit OS und WBS wird im Zuge der Schulharmonisierung abgeschafft. Danach gilt auch in Basel das Modell mit sechs Klassen Primar- und drei Klassen Sekundarschule oder Gymnasium. Die Umstellung begann 2013. Somit wird 2017 die WBS auslaufen. Einzelnachweise. Baselstadt Baselstadt Beton. a>, rechts der bereits erhärtete Beton im fertigen Zustand a>-Bildstapel eines Stückes Beton, gefunden am Strand von Montpellier, Frankreich. Durch langen Salzwasser-Kontakt haben sich die Calcium-basierten Füllstoffe (Muschel- und Schneckenschalen) aufgelöst und Lufteinschlüsse hinterlassen. Beton (österr. und z. T. bayr.; schweiz. und alem. 1. Silbe betont), vom gleichbedeutenden franz. Wort "béton", ist ein Baustoff, hergestellt als ein Gemisch aus einem Bindemittel und einer Gesteinskörnung. Für den künstlich hergestellten Stein kommt in der Regel das Bindemittel Zement zum Einsatz. Die Gesteinskörnung (früher "Zuschlag") setzt sich üblicherweise aus Kies und Sand zusammen. Zugabewasser (früher "Anmachwasser") führt dazu, dass das Bindemittel chemisch reagiert, dabei erhärtet und ein festes, disperses Baustoffgemisch entsteht. Das Wasser wird bei diesem Prozess zum größten Teil chemisch gebunden. Frischer Beton trocknet deshalb nicht während der Erhärtung, sondern benötigt Wasser zum "Abbinden", um seine Festigkeit zu entwickeln. Beton kann außerdem Betonzusatzstoffe und Betonzusatzmittel enthalten, die die Eigenschaften des Baustoffs gezielt beeinflussen. Beton wird in modernen Anwendungen oft nicht allein, sondern als Hauptbestandteil eines Verbundwerkstoffs eingesetzt. In Verbindung mit Betonstahl oder Spannstahl kann Stahlbeton bzw. Spannbeton hergestellt werden. Durch die Zugabe von Stahl-, Kunststoff- oder Glasfasern lässt sich ein Faserbeton herstellen. Bei Einsatz von textiltechnischen Gewirken aus AR Glas (alkaliresistent) oder Carbon als nichtkorrodierende Bewehrung spricht man von Textilbeton. Grundlegende Eigenschaften und Verwendung. Der Baustoff Beton zeichnet sich besonders durch seine Druckfestigkeit aus. Im Bauwesen als Konstruktionsbaustoff verwendeter Beton hat üblicherweise mindestens eine Druckfestigkeit von 20 Newton pro Quadratmillimeter (N/mm²). Das entspricht in etwa der Gewichtskraft einer Masse von 200 Kilogramm auf einen Quadratzentimeter. Beton mit geringerer Festigkeit wird meist nur als Behelfsmaterial, z. B. für Sauberkeitsschichten oder Verfüllungen, verwendet. Moderne Hochleistungsbetone hingegen erreichen mittlerweile Festigkeiten von über 150 N/mm². Alle Betone haben gemeinsam, dass sie Zugspannungen nur in geringem Umfang aufnehmen können. Für die meistens eingesetzten Normalbetone gilt die Faustformel, dass die Zugfestigkeit ca. 10 % der Druckfestigkeit beträgt. Beton wird daher in der Regel als Stahlbeton hergestellt, indem Bewehrungsstahl in Form von Stäben oder Matten in den Bereichen eingelegt wird, in denen bei Belastung mit Zugspannungen zu rechnen ist. Die Ummantelung des Stahls mit Beton ist zudem in mehrfacher Hinsicht vorteilhaft: Zum einen schützt der hohe pH-Wert des Betons den Stahl vor Korrosion. Zum anderen wird der Stahl im Brandfall nicht direkt einer hohen Temperaturentwicklung ausgesetzt und behält dadurch länger seine Festigkeit als ungeschützter Stahl. Stahlbeton wird heutzutage in vielen Bereichen eingesetzt. Beim Bau von Häusern meist für Decken, Stützen und Ringanker, bei größeren Gebäuden oft auch für Wände und Gründungen. Der Bau von Hochhäusern, Tunneln, Brücken, Stützwänden usw. gänzlich ohne Beton ist meist nicht möglich. Unbewehrter Beton wird immer dann verwendet, wenn überwiegend Druck und keine großen Zugspannungen auftreten können. Das sind meist Kellerwände, kleinere Fundamente und Bodenplatten, aber begünstigt durch ihre gebogene Form auch Staumauern. Weitere Einsatzgebiete sind vorgefertigte Elemente wie Blocksteine für den Mauerwerksbau oder Waschbetonplatten. Auf Grund der geringen Kosten, der beliebigen Formbarkeit und einer vergleichsweise hohen Dichte von ca. 2,4 Tonnen pro Kubikmeter (t/m³) wird Beton z. B. auch für Gegengewichte an Kränen oder als Wellenbrecher verwendet. Beton weist zudem zwei zeitabhängige Eigenschaften auf, die in Abhängigkeit von der genauen Zusammensetzung mehr oder weniger stark ausgeprägt sein können. Beim Schwinden verringert sich das Volumen eines Bauteils durch Austrocknung und chemische Vorgänge. Kriechen tritt bei allen belasteten Bauteilen auf und bezeichnet die mit der Zeit zunehmende Verformung trotz gleichbleibender Belastung. Unterscheidungsmerkmale. Beton lässt sich anhand verschiedenster Merkmale unterscheiden. Gebräuchlich sind Unterscheidungen anhand Wichtig ist dabei die Abgrenzung des Betons vom Mörtel. Mörtel ist ein Gemisch aus einem Bindemittel, wie z. B. Zement und feiner Gesteinskörnung, die per Definition höchstens 4 mm im Durchmesser aufweisen darf. Beton ist hingegen ein Gemisch aus Mörtel und gröberer Gesteinskörnung. Geschichte. Kuppel des Pantheons in Rom von innen Dauerhafter Kalkmörtel als Bindemittel konnte schon an 10.000 Jahre alten Bauwerksresten in der heutigen Türkei nachgewiesen werden. Gebrannter Kalk wurde von den Ägyptern beim Bau der Pyramiden verwendet. In der zweiten Hälfte des 3. vorchristlichen Jahrhunderts wurde in Karthago oder Kampanien eine Betonmischung aus Zement und Ziegelsplittern entwickelt. Diese wurde gegen Ende des Zweiten Punischen Krieges erstmals beim Bau von Wohngebäuden in Rom verwendet. Die Römer entwickelten aus dieser Betonmischung in der Folgezeit das Opus caementitium (opus = Werk, Bauwerk; caementitium = Zuschlagstoff, Bruchstein), aus dessen Namen das Wort Zement abgeleitet ist. Dieser Baustoff, auch als römischer Beton oder Kalkbeton bezeichnet, bestand aus gebranntem Kalk, Wasser und Sand, dem "mortar" (Mörtel), gemischt mit Ziegelmehl und Vulkanasche, und zeichnete sich durch eine hohe Druckfestigkeit aus. Damit wurden unter anderem die Aquädukte und die Kuppel des Pantheons in Rom hergestellt, die einen Durchmesser von 43 Metern hat und bis heute erhalten ist. Eine wesentliche Verbesserung, die von den Römern entwickelt wurde, war die Verwendung inerter Zuschlagsstoffe, die hauptsächlich aus Resten von gebranntem Ziegelmaterial bestanden und die Eigenschaft besitzen, bei Temperaturänderungen keine Risse zu bilden. Dies kann noch heute an Orten in Nordafrika (z. B. Leptis Magna, Kyrene) beobachtet werden, wo es große Estrichflächen gibt, die etwa um 200–300 n. Chr. ausgeführt wurden und die trotz großer Temperaturdifferenzen zwischen Tag und Nacht noch heute völlig frei von Rissen sind. Das Wort Beton ist übernommen aus gleichbedeutendem französisch "béton", dieses aus altfranzösisch "betun" (Mörtel, Zement), abgeleitet von lateinisch "bitumen" (schlammiger Sand, Erdharz, Bergteer, Kitt). Bernard de Bélidor beschreibt die Herstellung und Verwendung von Beton in seinem Standardwerk „Architecture hydraulique“ (Bd. 2, Paris 1753). Das Wort erscheint dann auch in der deutschen Übersetzung „Architectura hydraulica“ (Bd. 2, Augsburg 1769). Die Entwicklung des Betons in der Neuzeit begann 1755 mit dem Engländer John Smeaton. Dieser führte, auf der Suche nach einem wasserbeständigen Mörtel, Versuche mit gebrannten Kalken und Tonen durch und stellte fest, dass für einen selbsterhärtenden (hydraulischen) Kalk ein bestimmter Anteil an Ton notwendig ist. Ein weiterer großer Entwicklungssprung war die Erfindung des Stahlbetons durch Joseph Monier (Patent: 1867). Deshalb wird der Bewehrungsstahl oder Betonstahl auch heute noch gelegentlich als Moniereisen bezeichnet. Beton wird in der zeitgenössischen Kunst auch für Denkmäler oder Skulpturen verarbeitet. Exotisch ist die Verwendung im Schiffbau (zum Beispiel in einem Betonschiff). Klima- und Umweltauswirkungen. Jährlicher weltweiter CO2-Ausstoß durch die Zementherstellung (1925–2000) Die Betonproduktion ist für etwa 6–9 % aller menschengemachten CO2-Emissionen verantwortlich. Dies hat zwei Hauptgründe: das Brennen des für die Betonherstellung benötigten Zements ist sehr energieaufwendig, der größere Teil des freigesetzten Kohlendioxids löst sich jedoch während des Brennvorganges als geogenes CO2 aus dem Kalkstein. Weltweit werden jährlich 2,8 Milliarden Tonnen Zement hergestellt, der im Mittel etwa 60 % CaO enthält. Damit ergibt sich durch das Freisetzen des im Kalk gebundenen Kohlendioxids selbst bei optimaler Prozessführung ein Ausstoß von mindestens zwei Milliarden Tonnen CO2 oder 6 % des weltweiten jährlichen CO2-Ausstoßes. In der Schweiz sind es sogar 9 % aller menschengemachten Emissionen. Der weltweite Abbau von Sand für die Bauwirtschaft und insbesondere die Betonproduktion führt bereits heute zu einer spürbaren Verknappung des Rohstoffes Sand. Dies insbesondere, da sich Wüstensand auf Grund seiner Kornstruktur nicht als Baustoff eignet. Frischbeton. Als Frischbeton wird der noch nicht erhärtete Beton bezeichnet. Der Zementleim, also das Gemisch aus Wasser, Zement und weiteren feinkörnigen Bestandteilen ist noch nicht abgebunden. Dadurch ist der Frischbeton noch verarbeitbar, das heißt formbar und zum Teil fließfähig. Während des Abbindens des Zementleims wird der Beton als junger Beton oder grüner Beton bezeichnet. Nachdem der Zementleim abgebunden hat, wird der Beton Festbeton genannt. Bestandteile und Zusammensetzung. Die Zusammensetzung eines Betons wird vor der industriellen Herstellung in einer Betonrezeptur festgelegt, die durch Erfahrungswerte und Versuche erstellt wird. Die Zusammensetzung richtet sich unter anderem nach der gewünschten Festigkeitsklasse, den Umweltbedingungen denen das spätere Bauteil ausgesetzt sein wird, der gewünschten Verarbeitbarkeit und ggf. auch nach architektonischen Gesichtspunkten, wie z. B. der Farbgebung. Dementsprechend werden je nach Anwendungsfall Zement, Wasser, Gesteinskörnung, Betonzusatzstoffe und Betonzusatzmittel in einem bestimmten Verhältnis vermischt. Bei der nicht-industriellen Herstellung, überwiegend beim Heimwerken, wird Beton auch anhand einfacher Faustformeln gemischt. Eine solche Faustformel ist beispielsweise: 300 kg Zement, 180 l Wasser sowie 1890 kg Zuschläge ergeben einen Kubikmeter Beton der ungefähr der Festigkeitsklasse C25/30 entspricht. Um allerdings zuverlässig die Festbetoneigenschaften abzuschätzen reichen die Angaben nicht aus. Sowohl der Zement, als auch die Gesteinskörnung können je nach gewähltem Produkt die Festigkeit erheblich beeinflussen, weshalb solche einfachen Rezepturen beim Bau von tragenden Strukturen keine Anwendung finden dürfen. Konsistenz. Konsistenzprüfung mit dem Ausbreitversuch bei einem sehr fließfähigen Beton Die Konsistenz des Frischbetons beschreibt einfach gesprochen, wie „flüssig“, bzw. „zäh“ der Frischbeton ist. Sie ist vorab entsprechend zu wählen, sodass der Beton ohne wesentliches Entmischen gefördert, eingebaut und praktisch vollständig verdichtet werden kann. Die dafür maßgebende Frischbetoneigenschaft ist die Verarbeitbarkeit. Die Frischbetonkonsistenz ist vor Baubeginn festzulegen und während der Bauausführung einzuhalten. Die genormten Konsistenzbereiche erstrecken sich von „(sehr) steif“, über „plastisch“, „weich“ und „sehr weich“ bis hin zu „(sehr) fließfähig“. An die Konsistenzbereiche sind Messwerte geknüpft, die mit genormten, baustellengerechten Verfahren, wie dem Ausbreitversuch, dem Setzversuch und dem Verdichtungsversuch geprüft und kontrolliert werden können. Das nachträgliche Zumischen von Wasser zum fertigen Frischbeton, z. B. bei Ankunft auf der Baustelle, verbessert zwar die Fließeigenschaften, ist nach den deutschen Vorschriften allerdings unzulässig, da dadurch der Wasserzementwert und in der Folge die Festbetoneigenschaften negativ beeinflusst werden können. Einem Transportbeton darf vor Ort aber Fließmittel beigemischt werden, um die Verarbeitbarkeit zu verbessern. Die zulässige Höchstmenge liegt bei zwei Liter/m³, was aus einem plastischen Beton einen leicht fließfähigen Beton macht. Die Einbaubedingungen legen die nötige Konsistenz fest. Für Bauteile mit komplizierten Geometrien oder hohen Bewehrungsgraden ist tendenziell ein eher fließfähigerer Beton vonnöten. Auch die Förderung des Frischbetons bestimmt die benötigte Konsistenz. Soll ein Beton beispielsweise mit einer Betonpumpe gefördert werden, sollte die Betonkonsistenz mindestens im plastischen Bereich, d. h. Ausbreitmaßklasse F2, besser F3, liegen. Einbau und Verdichtung. Beton ist schnellstmöglich nach dem Mischen bzw. der Anlieferung einzubauen und mit geeigneten Geräten zu verdichten. Durch das Verdichten werden die Lufteinschlüsse ausgetrieben, damit ein dichtes Betongefüge mit wenigen Luftporen entsteht. Rütteln, Schleudern, Stampfen, Stochern, Spritzen und Walzen sind je nach Betonkonsistenz und Einbaumethode geeignete Verdichtungsverfahren. Als Verdichtungsgerät kommt auf Baustellen des Hochbaus heutzutage in der Regel der Innenrüttler (auch „Flaschen-“ oder „Tauchrüttler“ genannt) zum Einsatz. Bei der Herstellung hoher Bauteile oder bei sehr enger Bewehrung können auch Außenrüttler („Schalungsrüttler“) verwendet werden. Beim Einbau von Beton für Straßen oder Hallenböden ist eine Verdichtung mit Hilfe von Rüttelbohlen üblich. Rütteltische werden im Fertigteilwerk benutzt. Bereits beim Einbau ist darauf zu achten, dass sich der Beton nicht entmischt, d. h., dass sich größere Körner unten absetzen und sich an der Oberfläche eine Wasser- oder Wasserzementschicht bildet. Frischbeton darf deshalb nicht aus größerer Höhe in die Schalung fallen gelassen werden. Durch Rutschen, Fallrohre oder Schläuche ist der Beton bis in die Schalung zu leiten, sodass die maximale freie Fallhöhe nicht mehr als 1,5 m beträgt. Um anschließend gut verdichten zu können, muss der Beton außerdem in Lagen von höchstens 50 cm Höhe eingebaut werden. Erst nach der Verdichtung einer Lage folgt die nächste. Ein Entmischen, sodass sich an der Oberfläche eine wässrige Zementschlämme bildet, kann sich auch bei einer zu großen Rütteldauer einstellen. Das Absondern von Wasser an der Betonoberfläche nach dem Einbau wird auch als „Bluten“ bezeichnet. Die Entmischung wirkt sich insbesondere nachteilig auf die Festigkeit und Dauerhaftigkeit des Betons aus. Bei richtiger Verdichtung und passender Konsistenz bildet sich an der Oberfläche nur eine dünne Feinmörtelschicht. Im restlichen Betonkörper sind die Gesteinskörner annähernd gleichmäßig verteilt. Beim Einbau des Frischbetons sollte die Betontemperatur zwischen +5 °C und +30 °C liegen, anderenfalls sind besondere Maßnahmen erforderlich. Im Winter kann dies z. B. das Heizen der Schalung mit Gebläsen sein. Im Sommer ist gegebenenfalls eine Kühlung des Betons notwendig. Nachbehandlung. Eine Nachbehandlung des frischen Betons ist zum Schutz der Betonoberfläche gegen Austrocknung und somit zur Sicherstellung einer geschlossenen, dichten und dauerhaften Betonoberfläche erforderlich. Dazu muss auch in den oberflächennahen Bereichen des Betons genügend Wasser für die Hydratation des Zements vorhanden sein. Dieses darf insbesondere nicht durch Sonneneinstrahlung, Frost und/oder Wind verdunsten. Verdunstet das Wasser im Beton zu schnell, kann dies bereits kurz nach der Betonausbringung zu Schäden im Beton, sogenannten Schwindrissen, kommen. Es gibt verschiedene Nachbehandlungsmethoden, um den Erhärtungsprozess sicherzustellen. Die notwendige Zeitdauer der Nachbehandlung kann je nach den Betoneigenschaften, den Umweltbedingungen, die den Expositionsklassen entsprechen und den klimatischen Randbedingungen zwischen einem Tag, einer Woche oder auch mehr betragen. Grundsätzlich ist es am besten, so früh wie möglich nach der Betonage mit der Nachbehandlung zu beginnen und möglichst lange diese Maßnahmen durchzuführen, um Bauteile mit optimalen Festbetoneigenschaften zu erhalten. Nachbehandlungsmethoden im Sommer. Im Sommer ist die Verdunstung das größte Problem. Wasser muss also zugeführt und/oder vor dem Verdunsten bewahrt werden, z. B. durch das Auflegen einer wasserdichten Abdeckung, den Einsatz spezieller Nachbehandlungsfolien oder durch das kontinuierliche Besprühen oder Fluten mit Wasser. Des Weiteren kann das schnelle Austrocknen des Betons z. B. durch das Belassen in der Schalung, durch das Abdichten mit Kunststofffolien oder durch das Auftragen filmbildender Nachbehandlungsmittel, verhindert werden. Über die Messung des sogenannten Kapillardrucks des Betons lassen sich messtechnisch Rückschlüsse auf eine ausreichende Wassermenge für die Aushärtung machen. Eine solche Messung findet jedoch eher in Prüflaboren Anwendung. Nachbehandlungsmethoden im Winter. Im Winter muss der Frischbeton bei Frost während der ersten drei Tage nach der Betonage durchgehend eine Mindesttemperatur von +10 °C haben. Nach drei Tagen unter diesen Bedingungen ist der Beton so weit ausgehärtet, dass gefrierendes Wasser nicht mehr zu Frostsprengungen führen kann. Erreicht wird die Beibehaltung der Temperatur z. B. durch eine Abdeckung mit einer wärmedämmenden Folie oder durch die Abdeckung mit einem beheizten Bauzelt. Auch hier ist zu beachten, dass dem Beton genügend Wasser für die Hydratation des Zements zur Verfügung steht. Erhärtung. Der Zement dient als Bindemittel, um die anderen Bestandteile zusammenzuhalten. Die Festigkeit des Betons entsteht durch die exotherme Reaktion der Auskristallisierung der Klinkerbestandteile des Zements unter Wasseraufnahme. Es wachsen Kristallnadeln, die sich fest ineinander verzahnen. Das Kristallwachstum hält über Monate an, sodass die endgültige Festigkeit erst lange nach dem Betonguss erreicht wird. Es wird aber, wie in der DIN 1164 (Festigkeitsklassen von Zement), angenommen, dass bei normalen Temperatur- und Feuchtigkeitsbedingungen nach 28 Tagen die Normfestigkeit erreicht ist. Neben dieser "hydraulischen Reaktion" entwickelt sich bei silikatischen Zuschlagstoffen zusätzlich die sogenannte "puzzolanische Reaktion". Festbeton. Als Festbeton wird der erhärtete Frischbeton bezeichnet. Festigkeitsklassen. Die Druckfestigkeit ist eine der wichtigsten Eigenschaften des Betons. Die DIN 1045-2 (Tragwerke aus Beton, Stahlbeton und Spannbeton) schreibt eine Beurteilung durch die Prüfung nach 28 Tagen Wasserlagerung anhand von Würfeln mit 15 cm Kantenlänge (Probewürfeln) oder 30 cm langen Zylindern mit 15 cm Durchmesser vor. Die Vorschriften für die Geometrie und Lagerung der Prüfkörper sind weltweit nicht einheitlich geregelt und haben sich auch in den einzelnen Normgenerationen geändert. Anhand der ermittelten Druckfestigkeit, die im Bauteil abweichen kann, lässt sich der Beton den Festigkeitsklassen zuordnen. Ein C12/15 hat danach die charakteristische Zylinderdruckfestigkeit von 12 N/mm² sowie eine charakteristische Würfeldruckfestigkeit von 15 N/mm². Das C in der Nomenklatur steht für englisch "concrete" (deutsch: "Beton"). Im Zuge der Harmonisierung des europäischen Normenwerks sind diese Betonfestigkeitsklassen in der aktuellen Normengeneration europaweit vereinheitlicht. In der folgenden Tabelle sind die Bezeichnungen nach der alten DIN 1045 noch zur Information in der letzten Spalte angegeben. Elastizitätsmodul, Schubmodul und Querdehnungszahl. Spannungsdehnungsbeziehung von Beton für verschiedene Festigkeiten Der Elastizitätsmodul des Betons hängt in hohem Maße von den verwendeten Betonzuschlägen ab. Vereinfachend kann er im linear-elastischen Spannungszustand (d. h. maximal 40 % der Festigkeit) in Abhängigkeit von der Betonfestigkeit nach dem Eurocode mit der empirischen Gleichung formula_5 ermittelt werden. Somit beträgt der Elastizitätsmodul bei den Betonfestigkeitsklassen von C12/15 bis C50/60 nach Eurocode zwischen 27.000 N/mm² und 37.000 N/mm². Die Querdehnungszahl schwankt im Bereich der Gebrauchsspannungen je nach Betonzusammensetzung, Betonalter und Betonfeuchte zwischen 0,15 und 0,25. Gemäß den Normen kann der Einfluss mit 0,2 bei ungerissenem Beton berücksichtigt werden. Für gerissenen Beton ist die Querdehnungszahl zu Null zu setzen. Der Schubmodul kann näherungsweise, wie bei isotropen Baustoffen, aus Elastizitätsmodul und Querdehnungszahl errechnet werden. Rohdichte. Die Rohdichte des Betons hängt vom Zuschlag ab. Bei Normalbeton beträgt die Trockenrohdichte zwischen 2000 und 2600 kg/m³. Meist können 2400 kg/m³ angesetzt werden. Betone oberhalb von 2600 kg/m³ werden als Schwerbeton bezeichnet, unterhalb von 2000 kg/m³ als Leichtbeton. Leichtbeton hat porige Leichtzuschläge wie Blähton oder Bims. Er ist normativ in die Rohdichteklassen 1,0 – 1,2 – 1,4 – 1,6 – 1,8 – 2,0 eingeteilt, welche den Rohdichten zwischen 1000 und 2000 kg/m³ entsprechen. Stahlbeton hat näherungsweise eine um 100 kg/m³ erhöhte Rohdichte. Verbundzone. Abbindeverhalten normalfesten Betons, gut zu erkennen ist die Verbundzone Vor allem bei der Entwicklung und Herstellung von hochfestem- und ultrahochfestem Beton hat dies eine große Bedeutung. Poren im Beton. Neben der Festigkeit ist die Porosität des Betons ein wichtiges Qualitätskriterium. Die verschiedenen Arten von Poren unterscheiden sich voneinander teilweise stark in Entstehung und Auswirkung. Grundsätzlich sinkt mit steigender Kapillar-, Luft- und Verdichtungsporosität die Festigkeit proportional. Auch eine Verringerung des Elastizitätsmodul ist nachweisbar. Bauphysikalische Eigenschaften. Für Beton kann eine Wasserdampfdiffusionswiderstandszahl zwischen 70 (feucht) und 150 (trocken) angesetzt werden. Die Wärmeleitfähigkeit beträgt zirka 2,1 W/mK für Normalbeton, die spezifische Wärmekapazität 1000 J/(kg·K). Beide Werte sind jedoch stark vom Zuschlagstoff abhängig. Der Wärmeausdehnungskoeffizient beträgt nach den Stahlbetonnormen 10−5/K (zum Beispiel DIN 1045-1:2001-07). Allerdings kann dieser je nach Art des Betonzuschlags, Zementgehalt sowie Feuchtezustand des Betons zwischen 6 und 14·10−6/K variieren. Der Feuchtegehalt beträgt bei 23 °C und 50 % relativer Luftfeuchtigkeit 25 Liter Wasser je Kubikmeter Beton und bei 80 % relativer Luftfeuchtigkeit 40 l/m³. Alle diese Betoneigenschaften sind außerdem stark temperaturabhängig und gelten näherungsweise nur für einen Bereich deutlich unter 100 °C. Überwachungsklassen. Für die Überprüfung der maßgebenden Frisch- und Festbetoneigenschaften wird der Beton in drei Überwachungsklassen eingeteilt. Daraus ergibt sich der Umfang und die Häufigkeit der Prüfungen, was in DIN 1045-3 geregelt ist. Beton der Überwachungsklassen 1, 2 und 3 ist u. a. durch Eigenüberwachung der ausführenden Firma und eine anerkannte Überwachungsstelle zu überprüfen. Wobei die Prüfungen in der Überwachungsklasse 1 nur der Selbstkontrolle der ausführenden Firma dient. Die Überwachungsklasse 2 wird bei Betonen mit erhöhten Anforderungen wie z. B. WU-, Spann-, Unterwasser- und Strahlenschutzbeton usw. angewandt. Geprüft wird mit mindestens drei Probekörpern jeden 3. Betoniertag oder alle 300 m³. In der Überwachungsklasse 3 erfolgt die Prüfung mindestens jeden Betoniertag oder alle 50 m³. Betonsorten. Unter einer "Betonsorte" versteht man eine genau definierte Mischung, die immer wieder, entsprechend einer Betonrezeptur, hergestellt wird. Lieferwerke haben meist eigene Sorten, die von Kunden bestellt werden. Bei großen Bauvorhaben stellen oft auch die Bauunternehmen in Absprache mit dem Bauherrn und den Lieferwerken eigene Betonsorten in einem Sortenverzeichnis zusammen. Diese Betone sind dann für eine Baustelle und deren Besonderheiten „maßgeschneidert“. Betonarten. Alle Betone lassen sich entsprechend ihrer Herstellung, ihrer Einbauart oder ihrer besonderen Eigenschaften unterscheiden. Dabei gehört ein Beton nicht zwangsläufig nur einer "Art" an. Ein und dasselbe Produkt wird meist mehreren Kategorien zugeordnet. Beispielsweise ist jeder Beton entweder ein Transport- oder ein Baustellenbeton. Abhängig von den Eigenschaften sind diese Betone dann z. B. Luftporenbetone, hochfeste Betone usw. Die verwendeten Bezeichnungen der gebräuchlichen Betone sind in der Liste gebräuchlicher Betone aufgeführt. Dauerhaftigkeit, Schädigungen und Instandsetzung. Für dauerhafte Betonbauwerke müssen die verlangten Gebrauchseigenschaften und die Standsicherheit unter den planmäßigen Beanspruchungen über die erwartete Nutzungsdauer bei normalem Unterhaltsaufwand konstant sein. Wichtig für eine ausreichende Dauerhaftigkeit des Betons sind die Betonzusammensetzung (Wasserzementwert und Zementgehalt), die Festigkeitsklasse, die Verdichtung und die Nachbehandlung des Betons. Beton ist ein chemisch instabiler Baustoff. Verschiedene innere und äußere Einflüsse können die Beständigkeit von Beton nachhaltig beeinflussen. Durch die typische Anwendung von Beton im Verbund mit Bewehrung aus Stahl ergeben sich weitere die Dauerhaftigkeit von Beton beeinflussende Faktoren, wie zu geringe Überdeckung des Bewehrungstahles durch Beton. Daher erfolgt mit den Expositionsklassen eine Klassifizierung der chemischen und physikalischen Umgebungsbedingungen, denen der Beton ausgesetzt ist, woraus sich Anforderungen an die Zusammensetzung des zu verwendenden Betons sowie bei Stahlbeton die Betondeckung ergeben. Oberflächenschutzsysteme, wie Anstriche oder die Imprägnierung der Betonoberflächen mit einem Hydrophobierungsmittel, dienen der Verbesserung der Dauerhaftigkeit und können sowohl direkt nach der Herstellung aufgebracht werden oder im Zuge einer Betoninstandsetzung eine Maßnahme zur Lebensdauerverlängerung darstellen. Zur Betoninstandsetzung zählen zudem alle Maßnahmen, bei denen Schäden (Risse, Abplatzungen usw.) behoben und die ursprünglichen Schutzeigenschaften des Betons möglichst wiederhergestellt oder verbessert werden. Einbauteile. Zur Reduzierung des Eigengewichtes von Betonteilen werden unter anderem sogenannte Verdrängungskörper eingebaut. Dies bewirkt, dass Hohlräume entstehen und weniger Beton notwendig ist. Häufig wird das bei Plattenkonstruktionen angewendet. Früher wurden hierfür Teile aus Polystyrolschaum und anderen Schaumstoffen genutzt, die heute wegen nachteiliger Auswirkungen bei Bränden nicht mehr gestattet sind. Derzeit werden Kugeln oder würfelförmige Elemente aus Polyethylen oder Polypropylen eingesetzt, wodurch bis zu einem Drittel des Betons und folglich des Eigengewichtes eingespart werden kann. So sind große Bauteile, z. B. Dachkonstruktionen, mit Stützweiten von bis zu 19 Metern möglich. Aufgrund von größeren Bauschäden aus der Vergangenheit ist in Deutschland der Einbau von Verdrängungskörpern bei Brückenbauten nicht mehr zulässig. Der Begriff „Beton“ in anderen Zusammenhängen. Die Bezeichnung „Beton“ wird auch in Zusammenhang mit anderen Baustoffen verwendet und soll deren hohe Festigkeit oder deren Zusammensetzungsprinzip beschreiben. Porenbeton. Porenbeton (veraltet Gasbeton) ist ein mineralischer Werkstoff, welcher durch chemisches Aufschäumen einer Mörtelmischung erzeugt wird. Die alkalische Mörtelsuspension reagiert unter Bildung von Gas mit Pulvern unedler Metalle wie z. B. Aluminium. Porenbeton enthält so gut wie keine Zuschläge. Porenbeton besitzt im Vergleich zu konventionellem Beton wegen seiner geringen Rohdichte eine geringe Festigkeit und eine geringe Wärmeleitfähigkeit. Betonglas. Betonglas ist ein Glasbaustein, der waagerecht angeordnet wird und hohe Druckfestigkeit aufweist. Nicht zu verwechseln ist dies mit Betoglass, welches ein Verbundsystem beschreibt, mit dem Glas auf Beton befestigt werden kann. Asphaltbeton. Asphaltbeton ist eine Bezeichnung für ein Gemisch aus Bitumen und Gesteinskörnung. Der Namensteil „-beton“ verweist hier auf das „Betonprinzip“ der Mischung, d. h., wie beim Baustoff Beton sind im Asphaltbeton verschiedene Gesteinskörnungsgrößen gleichmäßig verteilt und vollständig von Bindemittel ummantelt. Mineralbeton. Mineralbeton ist eine Bezeichnung für ein hochverdichtetes Mineralstoffgemisch, meist unter Verwendung eines hohen Anteils gebrochenen Korns. Die Sieblinie ist gemäß der Fuller-Parabel aufzubauen, es ist der für die Verdichtung optimale Wassergehalt einzustellen. Beim Einbau sind Entmischungen zu vermeiden. Mineralbeton wird ohne Bindemittel zu einem hochstandfesten Baustoff, der etwa in Straßendecken verwendet wird. Gängiges Produkt ist die korngestufte Schottertragschicht mit 0–32 mm als Frostschutzmaterial gemäß ZTV T-StB 95. Schwefelbeton. Schwefelbeton ist eine Mischung aus Quarzsand, Kalkstein oder Schottersteinen, der als Bindemittel 15–20 % Schwefel beigemischt wird. Der Schwefel wird vorher mit dimeren Cyclopentadien modifiziert und als plastischer Schwefel stabilisiert. Der Schwefelbeton besitzt gegenüber Beton eine höhere Druck- und Zugfestigkeit sowie Frühfestigkeit und ist wesentlich korrosionsbeständiger gegenüber Säuren und Salzlösungen. Nachteilig sind das Erweichen bei Temperaturen über 120 °C und die Brennbarkeit. Die Verwendung ist in Deutschland bisher eingeschränkt. Die Einsatzmöglichkeit von Schwefelbeton ist dort von Bedeutung, wo aggressive Chemikalien und grundwasserschädliche Stoffe zum Einsatz kommen bzw. gelagert oder umgefüllt werden. Böhmen. Böhmen (tschechisch "Čechy", lateinisch "Bohemia") ist eines der historischen Länder der Böhmischen Krone. Es gehört heute zum Staatsgebiet der Tschechischen Republik, bildet aber keine eigenständige administrative Einheit mehr. "Böhmen" (Plural von "Böhme") bezeichnet darüber hinaus auch dessen Bewohner, unabhängig von deren Nationalität. Wappen. Der böhmische Löwe ist ein aufgerichteter silberner doppelschwänziger Löwe mit goldener Blätterkrone auf Rot. Er ist gold bewehrt und bezungt. Lage. Böhmens Fläche beträgt etwa 52.065 km². Es grenzt im Nordosten an Schlesien, im Osten an die historische Region Mähren, im Süden an Österreich, im Südwesten und Westen an Bayern und im Nordwesten an Sachsen. Das historische Dreiländereck mit Mähren und Österreich befindet sich an der Spitze der Böhmischen Saß am Hohen Stein bei Staré Město pod Landštejnem. Damit bildet es einen Landschaftskessel, bis auf kleine Ausnahmen eingegrenzt durch die Wasserscheiden der Einzugsgebiete von Moldau "(Vltava)" und Elbe "(Labe)" (bis zur Grenze mit Deutschland). In Letztere mündet auch die Eger "(Ohře)", deren Quellgebiet in Franken liegt (im Fichtelgebirge). Gliederung. Böhmen umfasst die westlichen beiden Drittel Tschechiens. Dazu gehören heute die tschechische Hauptstadt Prag (Praha), die sie umgebende Mittelböhmische Region (Středočeský kraj) und die um diese Region im Uhrzeigersinn liegenden Regionen Reichenberg (Liberecký kraj), Königgrätz (Královéhradecký kraj), der größere Teil des Pardubický kraj, die Westhälfte des Kraj Vysočina, fast die ganze Südböhmische Region (Jihočeský kraj), die Region Pilsen (Plzeňský kraj), der Karlovarský kraj, der Ústecký kraj um Ústí (Aussig), und das heute zur Südmährischen Region (Jihomoravský kraj) gehörende Jobova Lhota. Landschaft. Die heutigen Grenzen Böhmens sind weit über 1000 Jahre alt; das Egerland kam erst im späten Mittelalter dazu. Böhmen wird auf drei Seiten durch Berglandschaften umfasst, ohne jedoch einen Kessel zu bilden. Es schließt mit dem Fichtelgebirge an die mitteldeutschen Terrassenlandschaften an. Böhmen hängt mit Mähren so eng zusammen, dass man im Raum zwischen Eger, Elbe und Donau einerseits und March und Naab andererseits ein gemeinsames böhmisch-mährisches Terrassenland sehen kann. Die Einzugsgebiete der Donau und der Oder betragen nur 6,4 % der Landesfläche (3.184 km²), während das Einzugsgebiet der Elbe 48.772 km² einnimmt. Zum Flusssystem der Elbe gehört auch die Moldau, die bei Mělník in die Elbe mündet. Im äußersten Osten gibt es einige Bäche, die zur March entwässern, damit geht die Europäische Hauptwasserscheide durch Böhmen. miniatur Die natürliche Grenze Böhmens nach Westen bildet der Böhmerwald, der durch das Plateau von Waldsassen mit dem Fichtelgebirge in Verbindung steht. Historischer Begriff. Die sieben Kurfürsten wählen Heinrich VII. zum römisch-deutschen König. Der Name leitet sich von dem keltischen Stamm der Boier ("Boiohaemum" = Heim der Boier, spätlat.: "Bohemia") ab. Geschichte. Der König von Böhmen war einer der sieben Kurfürsten, die den römisch-deutschen König wählten. Historische Verwaltungsgliederung. Verwaltungsgliederung des Königreichs Böhmen 1893 Alte böhmische Kreise. Karl IV. begann in der Mitte des 14. Jahrhunderts, sein Königreich in große Verwaltungseinheiten einzuteilen. Eine solche Verwaltungseinheit hieß in den Urkunden auf Deutsch "Kreis", auf Tschechisch "kraj" und auf Lateinisch "circulus". Es gab in Böhmen sieben bis 16 Kreise. In Mähren bestanden zwei bis sechs Kreise, in Österreichisch-Schlesien waren es zwei. Die Anzahl der Kreise und somit auch deren Größe änderte sich mehrmals. Diese Kreiseinteilung galt bis 1862, spielte aber schon kurz nach der Revolution von 1848 praktisch keine Rolle mehr für die Verwaltung. Politische Bezirke und Gerichtsbezirke 1850–1938. Siehe auch: Liste der Bezirke in Böhmen und Liste der Gerichtsbezirke in Böhmen Ab 1850 wurden in allen Gebieten der Monarchie außer Ungarn die alten großen Kreise durch politische Bezirke (Verwaltungsbezirke) ersetzt, von denen jeder aus einem oder mehreren Gerichtsbezirken (der Judikative) bestand. In den österreichischen Bundesländern besteht diese Einteilung bis heute. Normalerweise war ein politischer Bezirk (tschechisch: "politický okres") kleiner als ein ehemaliger alter Kreis, und ein Gerichtsbezirk (tschechisch: "soudní okres") ist kleiner als ein politischer Bezirk. Es gab im Kronland Böhmen 104 politische Bezirke und darin 229 Gerichtsbezirke. Mähren hatte 32 und Österreichisch-Schlesien neun politische Bezirke. Diese Bezirkseinteilung galt in Böhmen abgesehen von kleineren Änderungen bis 1938, also auch in der Ersten Tschechoslowakischen Republik. Zur Entwicklung in Mähren und der Slowakei siehe "Okres". Kreise und Bezirke unter deutscher Besetzung. Durch das Münchner Abkommen vom 29. September 1938 wurde gegen den Willen der Tschechoslowakei der vorwiegend deutschsprachige Teil Böhmens als Reichsgau Sudetenland dem Deutschen Reich zugeschlagen und in Stadt- und Landkreise eingeteilt; übergeordnet waren Regierungsbezirke. Das übrige Böhmen, seit 15. März 1939 im Protektorat Böhmen und Mähren, blieb weiterhin in politische Bezirke und Gerichtsbezirke eingeteilt, wobei allerdings mehrere politische Bezirke noch in einem Oberlandratsbezirk zusammengefasst wurden. Im Reichsgau Sudetenland gab es fünf Stadtkreise und 52 Landkreise. Im Protektorat Böhmen und Mähren gab es 67 böhmische und 30 mährische politische Bezirke. Diese Verwaltungsgliederung galt bis zum Ende des Zweiten Weltkriegs. Böhmische Kultur. Böhmen war stets eine europäische Region, in der religiöse und ethnische Gegensätze aufeinander trafen. Dies erzeugte Konflikte, aber auch produktive Wechselwirkungen. Die böhmische Kultur ist in ihrer Vielfalt geprägt vom Zusammenwirken und Aufeinanderprallen von tschechischen, deutschen und jüdischen Einflüssen. So war beispielsweise Prag unter den Luxemburgern maßgeblich an der Ausprägung der internationalen Kunst der Parlerzeit beteiligt. Im 19. und 20. Jahrhundert schöpften Schriftsteller wie Adalbert Stifter, Rainer Maria Rilke, Jaroslav Hašek, Franz Kafka, Max Brod, Karel Čapek, Franz Werfel, Johannes Urzidil und Friedrich Torberg und Komponisten wie Bedřich Smetana, Antonín Dvořák, Leoš Janáček, Gustav Mahler und Viktor Ullmann in ihren Werken aus der reichen kulturellen Tradition des Landes. In der zweiten Hälfte des 19. Jahrhunderts entstand eine alle Disziplinen umfassende tschechische Wissenschafts- und Kulturszene, deren Anspruch sich unter anderem in der Prager Architektur um 1900 ausdrückt. Die deutschböhmische Minderheit war nicht weniger produktiv; sie wetteiferte mit dem ganzen deutschen Sprachraum. Das "Prager Tagblatt" galt als eine der besten deutschsprachigen Zeitungen seiner Zeit. Die Industrie Böhmens war in Österreich-Ungarn führend. Das Kronland wurde das wohlhabendste Cisleithaniens. Im Bereich der Tierzucht sind die goldenen Kinsky-Pferde zu nennen, eine seltene Rasse, deren Zucht 1838 in Chlumec von Octavian Joseph Graf Kinsky begründet wurde. Berühmt sind die Böhmische Küche, das böhmische Bier und die böhmische Blasmusik. Typisch für die böhmische Küche sind Knödel, deftige Fleischgerichte und süße Mehlspeisen (in der österreichischen Wortbedeutung) als Nachtisch. Die kulturellen Traditionen Böhmens sind eng mit denen in Bayern und Österreich verwandt – in der Wiener Küche etwa sind böhmische Einflüsse unverkennbar. Der Begriff „Bohème“ leitet sich von der französischen Bezeichnung „bohémien“ (ab dem 15. Jahrhundert) für die aus Böhmen kommenden Roma ab. Der Charakter der Herkunftsbezeichnung verlor sich im Französischen wie im Deutschen, so dass „bohémien“ zu einer Bezeichnung unordentlicher, liederlicher Sitten bzw. für die Lebensart in Künstlerkreisen wurde und sich nicht mehr auf die ethnische Zugehörigkeit bezog. Wenzel von Böhmen und Johannes von Nepomuk werden von den Tschechen hoch verehrt. Anmerkungen. ! Kanton Basel-Landschaft. Basel-Landschaft (Kürzel BL; meist "Baselland" oder "Baselbiet",,) ist ein Kanton in der Deutschschweiz und zählt zum Wirtschaftsraum Nordwestschweiz und zur grenzüberschreitenden Metropolregion Basel. Der Hauptort ist Liestal, der einwohnerstärkste Ort Allschwil. Geographie. Der Kanton befindet sich im Nordwesten der Schweiz. Mit wenigen Ausnahmen umfasst er sämtliche Gemeinden des Laufentals entlang der Birs, das Birseck und das Leimental (Unterbaselbiet) sowie die Gemeinden entlang der Ergolz und ihrer Zuflüsse (Oberbaselbiet). Die Form des Kantons ist ganz unregelmässig, entsprechend vielseitig gestaltet sich die Grenzziehung, die mehrere städtische Agglomerationen zerschneidet. Flächenmässig gehört er zu den kleineren Kantonen der Schweiz (Platz 18 von 26). Aufgrund seiner dichten Besiedlung liegt er jedoch im Einwohnerrang auf Platz 10. Die Trennung des Standes Basel in die zwei Halbkantone Basel-Stadt und Basel-Landschaft erfolgte 1833 (siehe unten Geschichte). Basel-Landschaft grenzt im Osten und Nordosten an den Kanton Aargau sowie an den Rhein, der die Landesgrenze zu Deutschland bildet. Des Weiteren grenzt im Norden der Kanton Basel-Stadt an. Im weiteren Verlauf folgt dann im Nordwesten die Landesgrenze zu Frankreich. Im Süden grenzt er an das Mutterland des Kantons Solothurn, von dem einige Exklaven westlich an den Kanton Basel-Landschaft grenzen. Im äussersten Südwesten verläuft die Grenze zum Kanton Jura. Die Ausdehnung des Kantons wird in seiner inoffiziellen, aber weitbekannten Hymne, dem "Baselbieterlied", thematisiert. Wappen. Das Wappen des Kantons zeigt einen roten Hirtenstab. Auf der Biegung des Stabs befinden sich sieben Ausstülpungen, welche in Versionen vor dem 10. März 1948 als sieben Kugeln den Stab noch nicht berührten. Eine heraldische Besonderheit ist die Linkswendung des Stabes, also von der Fahnenstange weg. Diese Abwendung von der Fahnenstange symbolisiert die Abwendung vom Kanton Basel-Stadt und hebt die Unabhängigkeit hervor. Das Wappen entstammt dem Stadtwappen von Liestal. Um die beiden Wappen besser unterscheiden zu können, wurde die rote Umrandung entfernt. Bevölkerung. Per betrug die Einwohnerzahl des Kantons Basel-Landschaft. Die Bevölkerungsdichte liegt mit  Einwohnern pro Quadratkilometer annähernd bei dem Dreifachen des Schweizer Durchschnitts (Einwohner pro Quadratkilometer). Der Ausländeranteil (gemeldete Einwohner ohne Schweizer Bürgerrecht) bezifferte sich am auf  Prozent, während landesweit  Prozent Ausländer registriert waren. Per betrug die Arbeitslosenquote  Prozent gegenüber  Prozent auf eidgenössischer Ebene. Sprache. Amtssprache des Kantons und seiner Gemeinden ist Deutsch. Alle Kantons- und Gemeindebehörden sind jedoch verpflichtet, Eingaben auch in einer anderen Amtssprache des Bundes entgegenzunehmen. Verkehrssprache ist Schweizerdeutsch in zwei Ausprägungen: In Stadtnähe entspricht das Idiom weitgehend dem niederalemannischen Baseldeutsch der Stadt Basel, während im Oberbaselbiet und im Laufental hochalemannische Dialekte gesprochen werden. Alle im Kanton gesprochenen Varianten gehören jedoch dem Nordwestschweizerdeutschen an, das sich durch eine konsequente Dehnung der kurzen mittelhochdeutschen Vokale in offener Silbe (etwa mhd. "baden" > bl. "baade" ‹baden›, mhd. "siben" > bl. "sììbe" ‹sieben›, mhd. "stuben" > bl. "Stùùbe" ‹Stube›) sowie durch die sogenannte Extremverdumpfung von mittelhochdeutschem langem /a:/ (etwa mhd. "strâʒʒe" > bl. "Strooss" ‹Strasse›) auszeichnet. Im äussersten Westen fällt die Kantonsgrenze teilweise mit der traditionellen französisch-deutschen Sprachgrenze zusammen. Sprachgrenzgemeinden sind Roggenburg und Liesberg. Im Nordwesten grenzt der Kanton an das historisch deutschsprachige Elsass, in dem Französisch ebenfalls seit Längerem Amts- und Verkehrssprache ist. Religionen – Konfessionen. Traditionelle Konfession des Baselbiets (mit Ausnahme des Laufentals und Teilen des Bezirks Arlesheim) ist die reformierte; traditionelle Konfession des Laufentals, des hinteren Leimentals und des Birsecks, die alle einst zum Fürstbistum Basel gehörten, ist die katholische. Infolge der modernen Migration und der Agglomerationsbildung sind diese Grenzen heute besonders in der Nähe der Stadt Basel stark verwischt. So weisen nun manche Gemeinden des unteren Kantonsteils eine reformierte Mehrheit auf, umgekehrt hat die Umgebung von Liestal mittlerweile eine starke katholische Minderheit. Von den Schweizerbürgern im Kanton Basel-Landschaft gehört eine Mehrheit von 72,1 Prozent einer christlichen Kirche an. Bei der Kantonsbevölkerung mit ausländischem Pass stellt keine einzelne Religionsgemeinschaft die Mehrheit: 44,1 Prozent sind Mitglied einer christlichen Kirche, und eine grössere Minderheit von 18,9 Prozent gehört der islamischen Gemeinschaft an. Verfassung und Politik. Die gegenwärtige Kantonsverfassung datiert vom 17. Mai 1984 (mit seitherigen Änderungen). Legislative. Im Parlament des Kantons Basel-Landschaft, dem "Landrat," haben 90 Volksvertreter "(Landräte)" Einsitz. Wahlen zum Landrat finden alle vier Jahre gemäss Verhältniswahlrecht (Proporz) statt. Er kann nicht vorzeitig aufgelöst werden. Das rechts stehende Diagramm zeigt die momentane Sitzverteilung des Landrates (Stand 8. Februar 2015). Mit der Wahl vom 8. Februar 2015 legten rechte Parteien zu. Politisch gesehen ist das Oberbaselbiet konservativer als der untere Kantonsteil. Das Volk ist überdies direkt an der Gesetzgebung beteiligt: 1500 Wahlberechtigte können den Erlass, die Änderung oder die Aufhebung eines Gesetzes oder der Verfassung beantragen, worauf es zu einer Volksabstimmung kommt (Volksinitiative). Verfassungsänderungen sowie Gesetzeserlasse, die der Landrat mit weniger als vier Fünfteln der anwesenden Mitglieder erlässt, unterstehen zwingend der Volksabstimmung (obligatorisches Referendum). Deutlicher angenommene Erlasse sowie Beschlüsse über neue einmalige Ausgaben von mehr als 500'000 Franken oder über neue jährlich wiederkehrende Ausgaben von mehr als 50'000 Franken unterstehen dann der Volksabstimmung, wenn es von 1500 Wahlberechtigten verlangt wird (fakultatives Referendum). Der Kanton Basel-Landschaft entsendet als historischer Halbkanton einen Vertreter in den Ständerat und sieben Abgeordnete in den Nationalrat, die beiden Parlamentskammern auf Bundesebene. Exekutive. Die Regierung des Kantons, der "Regierungsrat," umfasst fünf Mitglieder "(Regierungsräte)," die gemäss Mehrheitswahlrecht (Majorz) direkt vom Volk fest auf vier Jahre gewählt werden. Den Vorsitz führt der "Regierungspräsident," der alljährlich vom Landrat aus den Mitgliedern des Regierungsrates gewählt wird. Bei den Wahlen vom 27. März 2011 verdrängte Isaac Reber den bisherigen SVP-Vertreter Jörg Krähenbühl aus der Regierung. Es handelte sich dabei um die erste Nichtwiederwahl eines Bisherigen seit 1950. Reber hat sein Amt am 1. Juli 2011 angetreten. Am 13. Dezember 2012 kündigte Adrian Ballmer seinen Rücktritt auf Mitte 2013 an. Bei der Wahl um seinen Nachfolger konnte sich schliesslich am 21. April 2013 im zweiten Wahlgang Thomas Weber (SVP) durchsetzen, nachdem beim ersten Wahlgang am 3. März 2013 noch Eric Nussbaumber (SP) in Führung lag, jedoch das erforderliche absolute Stimmenmehr verfehlte. Der Tod von Peter Zwick am 23. Februar 2013 erforderte eine zweite Regierungsratsnachwahl. Diese wurde auf den 9. Juni 2013 abgesetzt. Hier konnte sich Anton Lauber (CVP) im ersten Wahlgang klar gegen Thomas Jourdan (EVP) durchsetzen. Judikative. Höchstes kantonales Gericht ist das Kantonsgericht, das 2001 aus dem bisherigen Obergericht, Verfassungsgericht, Verwaltungsgericht und Versicherungsgericht gebildet wurde. Erstinstanzliche Gerichte sind für zivile Prozesse die beiden Zivilkreisgerichte und für Strafprozesse das Strafgericht und das Jugendgericht. Auf kommunaler Ebene wirken als schlichtende Vorinstanz die Friedensrichter. Gemeinden und Bezirke. Der Kanton Basel-Landschaft beabsichtigt, einen ausgeglichenen Staatshaushalt bis 2016 sowie eine hundertprozentige Selbstfinanzierung bis 2018 zu erreichen. Aufgrund dessen sollen unter anderem alle Gemeinden gestärkt und die fünf Bezirke in sechs sogenannte "Regionalkonferenzen" umgewandelt werden. Wirtschaft. Bekannte Firmen aus dem Baselbiet sind: Endress+Hauser, Ronda, Novartis, Hoffmann-La Roche, Ricola, Bombardier, Renata, Clariant und Georg Fischer JRG AG. Die Arbeitslosenquote im Kanton liegt knapp unter dem Schweizer Durchschnitt. Per betrug die Arbeitslosenquote  Prozent gegenüber  Prozent auf eidgenössischer Ebene. Tourismus. Das Baselbiet ist für seine malerische Jura-Landschaft im Oberbaselbiet bekannt, ein häufiges Postkartensujet sind die blühenden Kirschbäume im Frühling. Zahlreiche Wanderwege verbinden Berg und Tal. Besonders beliebt ist die Region Wasserfallen auf über, auf die von Reigoldswil aus eine Gondelbahn führt (die einzige der Region). Verkehr. Das Baselbiet liegt an zwei Hauptverkehrsachsen. Das Unterbaselbiet liegt an der Bahnlinie Basel–Laufen BL–Delsberg–Bienne bzw. Pruntrut–Belfort (Frankreich). Das Oberbaselbiet liegt an der Haupt-Nord-Süd-Verkehrsachse Deutschland/Benelux–Gotthard/Lötschberg–Simplon–Italien. Die Autobahn A2 sowie die Transit-Bahnlinie führt durch das Baselbiet. Vom Kantonshauptort Liestal aus führen Intercity- und Interregio-Eisenbahnverbindungen in die ganze Schweiz. Geschichte. Auf dem Gebiet des heutigen Kantons Basel-Landschaft lagen vor den napoleonischen Umwälzungen Teile des Fürstbistums Basel sowie des Untertanengebiets der Stadt Basel, die 1501 der Schweizerischen Eidgenossenschaft beigetreten war. Erst 1815 gelangten durch Verfügung des Wiener Kongresses neun Gemeinden des aufgelösten Fürstbistums Basel an die Stadt Basel, während das übrige Fürstbistum dem Kanton Bern zugeschlagen wurde. Im Jahre 1832 wehrten sich die Landgemeinden gegen die Dominanz der noch aristokratisch regierten Stadt Basel. Die linksrheinischen Gemeinden konstituierten sich als selbständiger Halbkanton Basel-Landschaft und gaben sich eine liberale, repräsentative Verfassung. Der neue Kanton wurde 1833 von der Tagsatzung der Eidgenossenschaft anerkannt (siehe: Basler Kantonstrennung). Die letzte Hinrichtung im Kanton wurde am 15. Oktober 1851 an dem wegen Raubmords verurteilten Hyazinth Bayer vollzogen. Infolge innerer Spannungen gab sich der Kanton im 19. Jahrhundert mehrfach neue Verfassungen: Beschränkung von Kompetenzstreitigkeiten 1838 und 1850, Durchbruch der demokratischen Bewegung 1863, Ausbau der Demokratie, Grundlage für Förderung der Wohlfahrt und für Erhebung der Staatssteuer 1892. Die heutige, sechste Verfassung von 1984 brachte eine erneute Erweiterung der Volksrechte (u. a. erster Ombudsmann der Schweiz) und stellt im Übrigen eine formale Neufassung der im Laufe von fast hundert Jahren über zwei Dutzend Mal geänderten Verfassung von 1892 dar. 1994 schloss sich infolge einer Volksabstimmung das bisher bernische Laufental dem Kanton Basel-Landschaft an. Versuche einer Wiedervereinigung mit Basel-Stadt wurden mehrmals unternommen, scheiterten aber letztmals im Jahre 2014 am «Nein» der Stimmberechtigten in Basel-Landschaft. In Basel-Landschaft besteht ein Verfassungsgebot zur staatlichen Eigenständigkeit, die Verfassung von Basel-Stadt enthielt bis zur Totalrevision 2006 ein Wiedervereinigungsgebot. Ende September 2014 wurde in den Kantonen Basel-Stadt und Basellandschaft über eine Fusionsinitiative abgestimmt. Die Einrichtung eines gemeinsamen Verfassungsrates wurde in der Stadt mit 55 Prozent angenommen, im Landkanton aber mit über 68 Prozent abgelehnt und wird darum nicht weiterverfolgt. Politische Gemeinden. Städte und Orte des Kantons Basel-Landschaft Bemerkenswert hierbei ist, dass es sich bei den einwohnerstärksten Gemeinden des Kantons mit Ausnahme Liestals um Gemeinden im Agglomerationsgürtel der Stadt Basel handelt. Einzelnachweise. Basellandschaft Basellandschaft Bundeskanzler (Deutschland). Der Bundeskanzler ist der Regierungschef der Bundesrepublik Deutschland. Er bestimmt die Bundesminister und die Richtlinien der Politik der deutschen Bundesregierung. Der Bundeskanzler ist faktisch der politisch mächtigste deutsche Amtsträger, steht jedoch in der deutschen protokollarischen Rangfolge unter dem Bundespräsidenten (dem Staatsoberhaupt) und dem Bundestagspräsidenten nur an dritthöchster Stelle. Der Bundeskanzler wird vom Bundestag auf Vorschlag des Bundespräsidenten ohne vorherige Aussprache gewählt. Er kann vor Ablauf der Legislaturperiode des Bundestages nur durch ein konstruktives Misstrauensvotum abgelöst werden, eine Begrenzung der Amtszeit oder der Legislaturen wie in anderen Staaten gibt es bislang nicht (der US-Präsident etwa kann nur für zwei Amtszeiten antreten). Derzeitige Bundeskanzlerin ist Angela Merkel (CDU) an der Spitze einer Großen Koalition aus CDU/CSU und SPD. Geschichtlicher Hintergrund. a> (* 1876; † 1967) 1. Bundeskanzler (1949–1963) Der Begriff "Kanzler" kommt aus dem Mittelalter: Am feudalen Hof war der Kanzler der Leiter der herrschaftlichen Schreibstube, der "Kanzlei". Unter den Bediensteten des Herrschers hatte der Kanzler die höchste Autorität und war damit den ägyptischen Staatsschreibern vergleichbar. Die sprachhistorische Herkunft leitet sich aus dem mittellateinischen Substantiv „cancelli“ ab: der Kanzler ist eine Person, die in einem durch Schranken oder Gitter ("cancelli") abgetrennten Raum arbeitet und insbesondere Beglaubigungen ausstellt. In der deutschen Verfassungsgeschichte gehörte bereits im Heiligen Römischen Reich das Amt des Erzkanzlers zu den Erzämtern und wurde bis 1806 als Erzkanzler für Deutschland vom Kurfürsten von Mainz ausgeübt. Im Norddeutschen Bund (1867) wurde der Regierungschef „Bundeskanzler“ genannt, im Deutschen Kaiserreich (1871) und in der Weimarer Republik dann „Reichskanzler“. Andere Bezeichnungen trugen deutsche Regierungschefs nur in der kurzen verfassungslosen Zeit 1918/19 („Vorsitzender des Rates der Volksbeauftragten“ bzw. „Ministerpräsident“) und später in der DDR (1949–1990, „Vorsitzender des Ministerrates“). Der Reichskanzler des Kaiserreiches war zunächst direkt dem Kaiser verantwortlich, der ihn ernannte und entließ. Der Reichskanzler war damit völlig vom Kaiser abhängig; außerdem hatte er keinen unmittelbaren Einfluss auf die Gesetzgebung, er durfte in seiner Eigenschaft als Reichskanzler nicht einmal vor dem Reichstag sprechen. Erst 1918 wurde die Verfassung dahin gehend geändert, dass der Kanzler dem Reichstag verantwortlich wurde. Auch der Reichskanzler der Weimarer Republik wurde vom Reichspräsidenten ernannt und entlassen. Er musste zurücktreten, wenn der Reichstag ihm das Vertrauen entzog. Der Reichskanzler war damit sowohl vom Reichspräsidenten als auch vom Reichstag abhängig. In Artikel 56 der Weimarer Verfassung heißt es: "„Der Reichskanzler bestimmt die Richtlinien der Politik und trägt dafür gegenüber dem Reichstag die Verantwortung. Innerhalb dieser Richtlinien leitet jeder Reichsminister den ihm anvertrauten Geschäftszweig selbstständig und unter eigener Verantwortung gegenüber dem Reichstag.“" Dieser Artikel stimmt fast exakt mit den ersten beiden Sätzen des Artikels 65 des Grundgesetzes für die Bundesrepublik Deutschland überein, dennoch war die Verfassungswirklichkeit zumindest in der Spätphase der Weimarer Republik mit ihren Präsidialkabinetten eine andere. Durch die starke Abhängigkeit vom Vertrauen des Reichspräsidenten und durch die Abwahlmöglichkeit des Reichstages, der nicht gleichzeitig einen Nachfolger bestellen musste, saß der Reichskanzler zwischen allen Stühlen. Insbesondere das Missverhältnis zwischen der Ernennung durch den Reichspräsidenten und der Verantwortlichkeit gegenüber dem Reichstag war nicht nur später Gegenstand von Kritik, sondern führte beispielsweise 1932 dazu, dass der neue Reichskanzler Franz von Papen, der das Vertrauen des damaligen Reichspräsidenten, aber nicht das des Reichstages besaß, bei seinem ersten Auftreten vor dem Reichstag gleich dessen Auflösung verkünden wollte. Der Konstruktion der Weimarer Verfassung mit einem starken Reichspräsidenten und einem schwachen, in Krisenzeiten nicht allein handlungsfähigen Reichskanzler wird eine Mitschuld daran gegeben, dass die Weimarer Republik 1933 mit der Ernennung Adolf Hitlers zum Reichskanzler (→ Machtübernahme) und der anschließenden Etablierung des nationalsozialistischen Einparteienstaates faktisch beendet wurde. Der Parlamentarische Rat entschied daher in den Jahren 1948 und 1949, die Stellung des künftigen Bundespräsidenten zu schwächen und des Bundeskanzlers zu stärken. Insbesondere die sehr genauen und sich später bewährenden Vorschriften über die Wahl des Bundeskanzlers, das konstruktive Misstrauensvotum und die Vertrauensfrage haben die tatsächliche politische Macht des Bundeskanzlers mindestens ebenso gestärkt wie die starke Ausprägung der Kanzlerdemokratie unter dem ersten Bundeskanzler, Konrad Adenauer. Dessen sehr starke Interpretation der Richtlinienkompetenz des Bundeskanzlers wurde von seinen Nachfolgern verteidigt und führt dazu, dass der Bundeskanzler bis heute als mächtigster Politiker im politischen System der Bundesrepublik gilt. Richtlinienkompetenz und Kollegialprinzip. a> (* 1897; † 1977)2. Bundeskanzler (1963–1966) Der Bundeskanzler besitzt nach Satz 1 des Grundgesetzes (GG) die Richtlinienkompetenz: Er "„bestimmt die Richtlinien der Politik“". Er trägt dafür auch die Verantwortung. Die grundlegenden Richtungsentscheidungen der Bundesregierung werden also von ihm getroffen, allerdings können auch wichtige Einzelentscheidungen von ihm getroffen werden. Andererseits schreibt der gleiche Artikel 65 Grundgesetz auch das Ressortprinzip (Satz 2) und das Kollegialprinzip (Satz 3) vor. Ersteres bedeutet, dass die Bundesminister ihre Ministerien in eigener Verantwortung leiten. Der Bundeskanzler kann hier nicht ohne Weiteres in einzelnen Sachfragen eingreifen und seine Ansicht durchsetzen. Er muss jedoch nach der Geschäftsordnung der Bundesregierung über alle wichtigen Vorhaben im Ministerium unterrichtet werden. Das Kollegialprinzip besagt, dass Meinungsverschiedenheiten der Bundesregierung vom Kollegium entschieden werden; der Bundeskanzler muss sich also im Zweifel der Entscheidung des Bundeskabinetts beugen. Der Bundeskanzler besitzt zusätzlich die Organisationsgewalt für die Bundesregierung (Absatz 1 und Art. 65 des Grundgesetzes sowie § 9 der Geschäftsordnung der Bundesregierung) und kann mit Erlassen die Zahl und Zuständigkeiten der Ministerien regeln. Er „leitet“ damit im administrativen Sinne die Geschäfte der Bundesregierung. Beschränkt wird seine Organisationsgewalt durch die im Grundgesetz vorgeschriebene Errichtung des Bundesministeriums der Verteidigung (: "Bundesminister für Verteidigung"), des Bundesministeriums der Justiz (Abs. 2 Satz 4: "Geschäftsbereich des Bundesjustizministers") und des Bundesministeriums der Finanzen (Abs. 3 Satz 2: "Bundesminister der Finanzen"). Auch wenn Ressort- und Kollegialprinzip in der Praxis ständig angewandt werden, so rückt die auch als „Kanzlerprinzip“ bezeichnete Richtlinienkompetenz den Bundeskanzler als den bedeutendsten politischen Akteur in den Blickpunkt der Öffentlichkeit. Seine Aussagen werden stark beachtet; äußert er sich zu einer Sachfrage anders als der zuständige Fachminister, so hat häufig trotz der Gültigkeit des Ressortprinzips der Fachminister das Nachsehen, will er nicht wegen „schlechter Teamarbeit“ vom Bundeskanzler intern oder gar öffentlich gerügt werden. Der Bundeskanzler ist oft auch gleichzeitig Vorsitzender seiner Partei (Adenauer 1950–1963, Erhard 1966, Kiesinger 1967–1969, Kohl 1982–1998 und Merkel seit 2005 in der CDU; Brandt 1969–1974 und Schröder 1999–2004 in der SPD) und genießt damit nicht nur als Bundeskanzler, sondern auch als Parteivorsitzender hohes Medieninteresse und starken Einfluss innerhalb der Partei und Fraktion, die seine Regierung stützt. Allerdings haben alle Bundeskanzler auch in den Zeiten, in denen sie nicht den Parteivorsitz bekleideten, eine wichtige Rolle in der Partei innegehabt. a> (* 1904; † 1988)3. Bundeskanzler (1966–1969) Selbst wenn der Bundeskanzler aber in seiner Partei unangefochten ist, so muss er doch – wenn seine Partei nicht allein regieren kann – in der Regel auf einen oder mehrere Koalitionspartner Rücksicht nehmen, auch wenn deren Fraktion in der Regel deutlich kleiner ist. Seine Äußerungen mögen in seiner Partei auf einmütige Zustimmung treffen, die Akzeptanz des Koalitionspartners, der damit trotz geringerer Größe nahezu gleichberechtigt ist, kann aber noch nicht automatisch als erreicht angesehen und muss eventuell durch Zugeständnisse gesichert werden. Der Bundeskanzler kann aber auch in seiner eigenen Partei nicht diktatorisch regieren, da auch seine Parteiämter regelmäßig in demokratischer Wahl bestätigt werden und die Abgeordneten trotz Fraktionsdisziplin nicht unbedingt der Linie des Bundeskanzlers folgen müssen. Schließlich hängt es auch von der Person des Bundeskanzlers und den politischen Gegebenheiten ab, wie er den Begriff der Richtlinienkompetenz ausgestaltet. Konrad Adenauer als erster Bundeskanzler nutzte die Richtlinienkompetenz unter den Ausnahmebedingungen eines völligen politischen Neubeginns sehr stark aus. Mit seiner Amtsführung legte Adenauer den Grundstein für die sehr weit reichende Interpretation dieses Begriffes. Schon unter Ludwig Erhard sank die Machtfülle des Bundeskanzlers, bis schließlich in Kurt Georg Kiesingers Großer Koalition der Bundeskanzler weniger der „starke Mann“ als vielmehr der „wandelnde Vermittlungsausschuss“ war. Während Adenauer und Helmut Schmidt sehr strategisch mit ihrem Stab (im Wesentlichen dem Kanzleramt) arbeiteten, bevorzugten Brandt und Kohl einen Stil der informelleren Koordination. In beiden Modellen kommt es bei der Bemessung der Einflussmöglichkeiten des Bundeskanzlers auf die Stärke des Koalitionspartners und auf die Stellung des Bundeskanzlers in seiner Partei an. a> (* 1913; † 1992)4. Bundeskanzler (1969–1974) Aufgrund dieser politischen Einschränkungen der durch die Verfassung definierten Position des Bundeskanzlers halten viele Politikwissenschaftler die Richtlinienkompetenz für das am meisten überschätzte Konzept des Grundgesetzes. Es gibt in der Geschichte der Bundesrepublik Deutschland bisher keinen Fall, in dem die Richtlinienkompetenz offiziell angewandt worden wäre. Da der Bundeskanzler sich bei innenpolitischen Fragen stärker auf die Ministerien verlassen muss, kann er sich häufig in der Außenpolitik profilieren. Alle Bundeskanzler haben das diplomatische Parkett – durchaus auch im mehr oder weniger stillen Machtkampf mit dem Außenminister – genutzt, um neben den Interessen der Bundesrepublik auch sich selbst in positivem Licht darzustellen. Besonders Bundeskanzler Adenauer, der von 1951 bis 1955 selbst das Außenministerium führte, konnte hier starken Einfluss nehmen. Die Bundesregierung und der Bundeskanzler haben das alleinige Recht, Entscheidungen der Exekutive zu treffen. Aus diesem Grund bedarf jede förmliche Anordnung des Bundespräsidenten - bis auf die Ernennung und Entlassung des Bundeskanzlers, die Auflösung des Bundestages nach dem Scheitern der Wahl eines Bundeskanzlers und das Ersuchen zur Weiterausübung des Amtes bis zur Ernennung eines Nachfolgers - der Gegenzeichnung des Bundeskanzlers oder des zuständigen Bundesministers. Wahl des Bundeskanzlers. Der Bundeskanzler wird auf Vorschlag des Bundespräsidenten vom Deutschen Bundestag gewählt. 1949 wurde in des Grundgesetzes (GG) erstmals in der deutschen Verfassungsgeschichte das Wahlverfahren für den Kanzler sehr detailliert festgelegt. Das hängt auch damit zusammen, dass anders als in den früheren deutschen Verfassungen die letztgültige Entscheidung über die Ernennung des Bundeskanzlers in der Regel vom Bundestag und nicht vom Bundespräsidenten getroffen wird. Aus diesem Grund musste klar sein, wie das Verfahren fortgeht, wenn ein Kandidat für das Amt des Bundeskanzlers nicht gewählt wird. Dabei wird – abweichend von der Idee der strikten Gewaltenteilung – ein Organ der Exekutive, der Bundeskanzler, durch den Bundestag, ein Organ der Legislative, gewählt. Die Wahl des Bundeskanzlers erfolgt geheim; das ergibt sich allerdings nicht aus dem Grundgesetz, sondern aus der Geschäftsordnung des Deutschen Bundestages (und). Eine Besonderheit in diesem Zusammenhang ist, dass der Wahl entgegen sonstiger parlamentarischer Gepflogenheit ausdrücklich keine Debatte vorangeht. Ist das Amt des Bundeskanzlers vakant, etwa durch den Zusammentritt eines neuen Bundestages, aber auch durch Tod, Rücktritt oder Amtsunfähigkeit des alten Bundeskanzlers, schlägt der Bundespräsident innerhalb einer angemessenen Frist dem Bundestag einen Kandidaten für das Amt des Bundeskanzlers vor. In dieser Entscheidung ist der Bundespräsident rechtlich frei. Politisch ist jedoch schon lange vor dem Vorschlag klar, über wen der Bundestag abstimmen wird, da der Bundespräsident vor seinem Vorschlag eingehende Gespräche mit den Partei- und Fraktionsspitzen führt. Bisher ist auch stets der von der mehrheitsführenden Koalition ins Spiel gebrachte Nachfolgekandidat vom Bundespräsidenten vorgeschlagen worden. Der Kandidat benötigt zu seiner Wahl die Stimmen der Mehrheit der Mitglieder des Bundestages, also die absolute Mehrheit. Wählt der Bundestag den vom Bundespräsidenten vorgeschlagenen Kandidaten nicht, so beginnt eine zweite Wahlphase. Dieser Fall ist in der Geschichte der Bundesrepublik bisher noch nie eingetreten. Nach der Ablehnung des Vorschlags des Bundespräsidenten tritt eine zweiwöchige Wahlphase ein, in der aus dem Bundestag heraus – nach dessen Geschäftsordnung von mindestens einem Viertel der Abgeordneten – Kandidaten vorgeschlagen werden können. Über die vorgeschlagenen Kandidaten wird dann abgestimmt. Dabei ist sowohl eine Einzelwahl (nur ein Kandidat) als auch eine Mehrpersonenwahl denkbar. In jedem Fall benötigt ein Kandidat zur Wahl wiederum die Stimmen der Mehrheit der Mitglieder des Bundestages. Die Anzahl der Wahlgänge ist innerhalb von zwei Wochen unbegrenzt. a> (* 1918; † 2015)5. Bundeskanzler (1974–1982) Wird auch während der zweiten Wahlphase kein Kandidat mit absoluter Mehrheit gewählt, so muss der Bundestag nach Ablauf der zwei Wochen unverzüglich erneut zusammentreten und einen weiteren Wahlgang durchführen. Dabei gilt zunächst als gewählt, wer die meisten Stimmen auf sich vereinigt. Bei Stimmengleichheit finden erneute Wahlgänge statt, bis ein eindeutiges Ergebnis erzielt worden ist. Erhält der Gewählte die absolute Mehrheit der Stimmen der Mitglieder des Bundestages, so muss der Bundespräsident ihn binnen sieben Tagen ernennen. Erhält der Gewählte nur die relative Mehrheit der Stimmen, so ist das einer der wenigen Fälle, in denen dem Bundespräsidenten echte politische Machtbefugnisse zuwachsen: Er kann sich nun nach pflichtgemäßem Ermessen entscheiden, ob er den Gewählten ernennt und damit möglicherweise einer Minderheitsregierung den Weg ebnet oder aber den Bundestag auflöst und so vorgezogene Neuwahlen stattfinden lässt (Abs. 4 GG). Er wird diese Entscheidung in Abhängigkeit von der politischen Situation treffen: Ist bei einer Neuwahl keine Veränderung der Mehrheitsverhältnisse zu erwarten, so wird er den Bundestag eher nicht auflösen. Ist dagegen die Mehrheitssituation im Bundestag ohnehin unübersichtlich, so wird er die Auflösung des Bundestages wieder stärker in Betracht ziehen. Insgesamt kann es aber keinen Fall geben, in dem der Bundespräsident eine Person zum Bundeskanzler ernennt, die nicht zumindest eine relative Mehrheit des Bundestages auf sich vereinigen kann. Dieses Wahlprozedere gilt grundsätzlich auch im Verteidigungsfall. Die Wahl eines Bundeskanzlers durch den Gemeinsamen Ausschuss ist jedoch gesondert geregelt, indem nur die oben beschriebene erste Wahlphase analog angewendet wird. Das Grundgesetz macht keine Aussage über das weitere Verfahren, wenn der Gemeinsame Ausschuss den vom Bundespräsidenten Vorgeschlagenen nicht wählt. Es ist jedoch davon auszugehen, dass die Vorschriften des oben genannten Artikels 63 Grundgesetz für eine solche Wahl analog gelten. Der Bundeskanzler muss weder Mitglied des Bundestages noch einer politischen Partei sein, allerdings muss er das passive Wahlrecht zum Bundestag besitzen. Gemäß dem Grundsatz der Unvereinbarkeit darf er weder ein anderes besoldetes Amt bekleiden noch einen Beruf oder ein Gewerbe ausüben, kein Unternehmen leiten und nicht ohne Zustimmung des Bundestages dem Aufsichtsrat eines auf Gewinn orientierten Unternehmens angehören (GG). Nach der Wahl wird der Bundeskanzler vom Bundespräsidenten ernannt und vor dem Bundestag vereidigt (GG). Er schwört dabei folgenden Eid: "„Ich schwöre, dass ich meine Kraft dem Wohle des deutschen Volkes widmen, seinen Nutzen mehren, Schaden von ihm wenden, das Grundgesetz und die Gesetze des Bundes wahren und verteidigen, meine Pflichten gewissenhaft erfüllen und Gerechtigkeit gegen jedermann üben werde. So wahr mir Gott helfe.“" (GG). Er kann den Eid auch ohne religiöse Beteuerung ableisten; Gerhard Schröder war der bisher einzige Bundeskanzler, der von dieser Möglichkeit Gebrauch machte. Zusammenarbeit mit Bundestag und Bundesrat. Der Bundestag kann jederzeit die Herbeirufung oder die Anwesenheit des Bundeskanzlers oder eines Bundesministers verlangen. Im Gegenzug haben der Bundeskanzler und die Mitglieder der Bundesregierung das Recht, bei jeder Sitzung des Bundestages oder eines seiner Ausschüsse anwesend zu sein. Sie haben sogar jederzeitiges Rederecht. Die gleichen Rechte und Pflichten bestehen im Verhältnis zum Bundesrat. Spricht der Bundeskanzler im Bundestag als solcher und nicht etwa als Abgeordneter seiner Bundestagsfraktion, so wird seine Redezeit nicht auf die vereinbarte Gesamtredezeit angerechnet. Bestellung der Bundesminister. Nach des Grundgesetzes schlägt der Bundeskanzler dem Bundespräsidenten die Bundesminister vor, der sie ernennt. Der Bundespräsident muss sie nach der in der Staatsrechtslehre überwiegenden Meinung ernennen, ohne die Kandidaten selbst politisch prüfen zu können. Ihm wird allerdings in der Regel ein formales Prüfungsrecht zugestanden: Er kann etwa prüfen, ob die designierten Bundesminister Deutsche sind. Der Bundestag hat dabei ebenfalls kein Mitspracherecht. Auch bei der Entlassung von Bundesministern können weder der Bundespräsident noch der Bundestag in rechtlich bindender Weise mitreden – auch hier liegt die Entscheidung ganz beim Bundeskanzler, die Entlassung wird wieder durch den Bundespräsidenten durchgeführt. Selbst die Aufforderung des Bundestages an den Bundeskanzler, einen Bundesminister zu entlassen, ist rechtlich unwirksam; allerdings wird der Minister, wenn tatsächlich die Mehrheit des Bundestages und damit auch Mitglieder der die Bundesregierung tragenden Koalition gegen ihn sind, häufig von sich aus zurücktreten. Der Bundestag kann die Minister nur zusammen mit dem Bundeskanzler durch ein Konstruktives Misstrauensvotum ablösen. Diese zumindest formal uneingeschränkte Personalhoheit des Bundeskanzlers über sein Kabinett spricht für die starke Stellung des Bundeskanzlers. Bundeskanzler Schröder hat 2002 von dieser Personalhoheit sehr deutlich Gebrauch gemacht, als er gegen dessen ausdrücklichen Willen den Verteidigungsminister Rudolf Scharping aus seinem Amt entlassen ließ. Angela Merkel hat Bundesumweltminister Norbert Röttgen am 16. Mai 2012 gegen seinen Willen entlassen. Der Bundeskanzler muss jedoch bei der Ernennung meist auf „Koalitionsverträge“ und innerparteilichen Proporz Rücksicht nehmen; bei Entlassungen gilt das insbesondere bei Ministern des Koalitionspartners noch stärker: Hier schreiben die Koalitionsvereinbarungen stets vor, dass eine Entlassung nur mit Zustimmung des Koalitionspartners erfolgen kann. Hielte sich der Bundeskanzler nicht an diesen rechtlich zwar nicht bindenden, politisch aber höchst bedeutsamen Vertrag, wäre die Koalition sehr schnell zu Ende. Insgesamt unterliegt die Personalfreiheit des Bundeskanzlers durch die politischen Rahmenbedingungen erheblichen Beschränkungen. Ferner kann ein (neues) Bundesministerium nur im Rahmen des Haushaltsplanes eingerichtet werden, der Zustimmung im Bundestag finden muss. Der Bundeskanzler ernennt auch – ohne Mitwirkung des Bundespräsidenten – seinen Stellvertreter. Inoffiziell spricht man auch vom „Vizekanzler“. Das ist in der Regel der wichtigste Politiker des kleineren Koalitionspartners. In der Vergangenheit fielen das Amt des Außenministers und die „Vizekanzlerschaft“ häufig zusammen; dies war jedoch nie eine verbindliche Kombination, sondern nur eine Tradition (1966–2011, mit Unterbrechungen 1982, 1992/93 und 2005–2007). Es ist auch möglich, dass der Vizekanzler der gleichen Partei wie der Bundeskanzler angehört (wie zum Beispiel Ludwig Erhard 1957–1963). Gegenwärtiger Stellvertreter der Bundeskanzlerin ist der Vorsitzende der SPD, Sigmar Gabriel. Dabei handelt es sich stets nur um die Vertretung der Funktion, nicht um die des Amtes. Der Stellvertreter vertritt also nur den Kanzler, beispielsweise wenn dieser auf einer Reise ist und der Stellvertreter eine Kabinettssitzung leitet. Es ist in der Rechtswissenschaft strittig, ob der Bundespräsident, würde der Bundeskanzler zum Beispiel durch eine schwere Krankheit dauerhaft amtsunfähig oder stürbe er gar, den Vizekanzler gleichsam automatisch zum geschäftsführenden Bundeskanzler ernennen müsste oder aber auch einen anderen Bundesminister mit der Aufgabe betrauen könnte. In jedem Fall müsste unverzüglich ein neuer Bundeskanzler vom Bundestag gewählt werden. Bislang ist ein solcher Fall – von Kanzlerrücktritten abgesehen – allerdings noch nie eingetreten. Steht auch der Stellvertreter nicht zur Verfügung, so geht seine Rolle nach der Vertretungsreihenfolge der Geschäftsordnung der Bundesregierung auf den dienstältesten Minister über. Im Kabinett Merkel sind dies Ursula von der Leyen, Wolfgang Schäuble und Thomas de Maizière. Sind mehrere Minister gleich lange im Amt, entscheidet das höhere Lebensalter, in diesem Fall zu Gunsten von Wolfgang Schäuble. Konstruktives Misstrauensvotum. Eine der wichtigsten Entscheidungen des Parlamentarischen Rates zur Stärkung der Position des Bundeskanzlers war die Einführung des konstruktiven Misstrauensvotums. Der Bundeskanzler kann nach des Grundgesetzes nur durch eine Mehrheit im Parlament gestürzt werden, wenn sich diese Mehrheit gleichzeitig auf einen Nachfolger für ihn geeinigt hat. Dadurch wird verhindert, dass die Regierung durch eine sie ablehnende, aber in sich nicht einige Mehrheit gestürzt wird. In der Weimarer Republik war das durch das gemeinsame Wirken von extrem rechten und extrem linken Kräften häufig gegeben, was zu kurzen Amtsperioden der Reichskanzler und damit zu allgemeiner politischer Instabilität führte. Der Antrag muss nach der Geschäftsordnung des Bundestages von mindestens einem Viertel seiner Mitglieder eingebracht werden. Dabei muss der Antrag, den Bundespräsidenten zu ersuchen, den Bundeskanzler zu entlassen, gleichzeitig ein Ersuchen an den Bundespräsidenten enthalten, eine namentlich benannte Person zum Nachfolger zu ernennen. Damit wird sichergestellt, dass die neu formierte Mehrheit sich zumindest auf einen gemeinsamen Bundeskanzlervorschlag geeinigt hat und damit erwarten lässt, dass sie über ein gemeinsames Regierungsprogramm verfügt. Der Antrag bedarf zu seiner Annahme wiederum der Kanzlermehrheit, also der absoluten Mehrheit der Stimmen der Mitglieder des Bundestages. Will der Gemeinsame Ausschuss während des Verteidigungsfalles den Bundeskanzler per konstruktivem Misstrauensvotum stürzen, so bedarf dieser Antrag der Mehrheit von zwei Dritteln der Mitglieder des Gemeinsamen Ausschusses. Mit der Erhöhung dieser Mehrheit sollte die Möglichkeit eines faktischen Staatsstreiches durch den Gemeinsamen Ausschuss erschwert werden. Der Wechsel eines Koalitionspartners oder auch nur einzelner Koalitionsabgeordneter zur Opposition ist nach den Vorschriften des Grundgesetzes legitim. Er steht jedoch in der öffentlichen Wahrnehmung stets im Ruch des Verrates, da nach Argumentation der vom Wechsel jeweils negativ betroffenen politischen Gruppe die Wähler bei ihrer Wahlentscheidung darauf hätten vertrauen können, dass sie mit der Wahl einer Partei auch einen bestimmten Kanzlerkandidaten wählten. Der nachträgliche Wechsel sei eine demokratietheoretisch nicht hinnehmbare Täuschung des Wählers. Das Bundesverfassungsgericht hat sich dieser Argumentation in einem Urteil zur Vertrauensfrage aus dem Jahr 1983 entgegengestellt und demokratische Legitimation mit verfassungsrechtlicher Legitimität gleichgesetzt. Das konstruktive Misstrauensvotum ist in der Geschichte der Bundesrepublik bisher zweimal zur Anwendung gekommen: 1972 versuchte die CSU-Fraktion erfolglos, Bundeskanzler Willy Brandt zu stürzen und Rainer Barzel zum Kanzler zu wählen; 1982 stürzten CDU/CSU und FDP gemeinsam Bundeskanzler Helmut Schmidt und wählten Helmut Kohl zum Bundeskanzler. Vertrauensfrage. In der Geschichte der Bundesrepublik ist die Vertrauensfrage bisher fünfmal gestellt worden. Zweimal (Schmidt 1982 und Schröder 2001) handelte es sich um eine echte Vertrauensfrage, während mit den Vertrauensfragen von Brandt 1972, Kohl 1982 und Schröder 2005 die Auflösung des Bundestags angestrebt und auch erreicht wurde. 1983 und 2005 klagten Abgeordnete beim Bundesverfassungsgericht gegen dieses Vorgehen. Beide Male verwarf das Gericht im Ergebnis die Klagen. Verteidigungsfall. Seit 1956 sieht das Grundgesetz vor, dass während des Verteidigungsfalls die Befehls- und Kommandogewalt über die Streitkräfte vom Bundesminister für Verteidigung an den Bundeskanzler übergeht. Diese auch als „lex Churchill“ bezeichnete Vorschrift ist in des Grundgesetzes (bis 1968 in Artikel 65 a Absatz 2) enthalten und soll dafür sorgen, dass in Zeiten außerordentlicher Krisen der Bundeskanzler als "starker Mann", bzw. als "starke Frau", alle Fäden in der Hand hält. Aufgrund der Verlängerung der Wahlperiode des Bundestages im Verteidigungsfall verlängert sich auch die Amtszeit des Bundeskanzlers entsprechend (Absatz 1 in Verbindung mit Absatz 2 des Grundgesetzes). Jedoch kann auch im Verteidigungsfall der Bundeskanzler durch ein konstruktives Misstrauensvotum nach Artikel 67 (durch den Bundestag) oder nach Artikel 115h (durch den Gemeinsamen Ausschuss mit Zweidrittelmehrheit) abgelöst werden. Rechtliche Sondervorschriften. Der Bundeskanzler hat als Mitglied der Bundesregierung das Recht, als Zeuge in Straf- und Zivilprozessen an seinem Amtssitz oder seinem Aufenthaltsort vernommen zu werden (der Strafprozessordnung bzw. der Zivilprozessordnung). Der Bundeskanzler als solcher hat keinen Anspruch auf Immunität; ist der Bundeskanzler jedoch gleichzeitig Abgeordneter, so genießt er wie jedes Mitglied des Bundestages dieses Privileg. Wer die Bundesregierung oder ein Mitglied der Bundesregierung, also etwa den Bundeskanzler, nötigt, Befugnisse nicht oder in einem bestimmten Sinne auszuüben, wird nach den oder des Strafgesetzbuches gesondert bestraft. Unmittelbar unterstehende Behörden. Leiter des Bundeskanzleramtes ist nicht der Bundeskanzler selbst, sondern ein von ihm ernannter Bundesminister oder Staatssekretär. Das Bundeskanzleramt hat für jedes Ministerium spiegelbildlich ein Referat und stellt dem Bundeskanzler damit für jedes Fachgebiet eine kompetente Mitarbeiterschaft zur Verfügung. Dem Bundeskanzler untersteht auch direkt das Presse- und Informationsamt der Bundesregierung. Dieses hat die Aufgabe, die Öffentlichkeit über die Politik der Bundesregierung zu unterrichten und umgekehrt den Bundespräsidenten und die Bundesregierung (nötigenfalls rund um die Uhr) über die aktuelle Nachrichtenlage zu informieren. Das Amt muss streng zwischen Äußerungen der Bundesregierung und Äußerungen der die Bundesregierung tragenden Parteien trennen. Außerdem fällt der Bundesnachrichtendienst (BND) direkt in den Geschäftsbereich des Bundeskanzlers. Der Etat des Bundesnachrichtendienstes ist im Etat des Bundeskanzleramtes enthalten, wird aber aus Geheimhaltungsgründen nur als Gesamtsumme veranschlagt (sog. Reptilienfonds). Der direkte Zugriff auf den Geheimdienst bringt dem Bundeskanzler in innenpolitischen Fragen keinerlei Wissensvorsprung, da der BND nur im Ausland operieren darf. Allenfalls in außen- und sicherheitspolitischen Fragen entsteht ein gewisser Vorteil für den Bundeskanzler. Dienstsitze. a> in Bonn, zweiter Dienstsitz des Bundeskanzleramtes Von 1949 bis 1999 hatte der Bundeskanzler seinen Dienstsitz in Bonn, zunächst im Palais Schaumburg, ab 1976 im neu gebauten Bundeskanzleramtsgebäude in Bonn. Nach dem Umzug der Regierung nach Berlin 1999 residierte er zunächst im früheren Gebäude des Staatsrates der DDR, und das Palais Schaumburg wurde zweiter Dienstsitz des Bundeskanzlers. Seit 2001 haben der Kanzler und das Bundeskanzleramt ihren Hauptdienstsitz im neu gebauten Bundeskanzleramtsgebäude in Berlin. Hoheitszeichen. Als Hoheitszeichen führt der Bundeskanzler an seiner Dienstlimousine eine quadratisch geformte Standarte, die auf den Bundesfarben Schwarz-Rot-Gold im Zentrum den Bundesschild zeigt. Als weiteres Hoheitszeichen wird am Bundeskanzleramt, wie bei allen Bundesbehörden, die Bundesdienstflagge gehisst. Amtsbezüge. Der Bundeskanzler erhält Amtsbezüge. Diese setzen sich aus dem Grundgehalt und Zulagen sowie Zuschlägen zusammen. Dabei entspricht das Grundgehalt nach § 11 des Bundesministergesetzes dem 5/3-fachen des Grundgehalts der Besoldungsgruppe B 11. Nach der Besoldungstabelle 2013 sind das etwa 247.200 Euro pro Jahr. Seine Einkünfte muss der Bundeskanzler versteuern, allerdings muss er – wie Beamte – keine Beiträge zur Arbeitslosen- und zur gesetzlichen Rentenversicherung zahlen. Außerdem erhält er wie seine Kabinettskollegen nach der Dauer der Amtszeit gestaffelte Pensionsansprüche. Die private Nutzung von bundeseigenen Transportmitteln und die Miete seiner Dienstwohnung werden dem Bundeskanzler von der Bundesrepublik Deutschland in Rechnung gestellt. Wahlkampf. Spätestens seit 1961 und der Kandidatur Willy Brandts gegen Konrad Adenauer stellen die beiden großen Volksparteien, CDU/CSU und SPD, „Kanzlerkandidaten“ auf. Obwohl dieses „Amt“ in keinem Gesetz und keiner Parteisatzung definiert ist, spielt es im Wahlkampf eine außerordentlich große Rolle. Der Kanzlerkandidat der jeweils siegreichen Partei bzw. Koalition wird in aller Regel schließlich Bundeskanzler. Der Kanzlerkandidat repräsentiert gerade im über die Massenmedien geführten Wahlkampf sehr stark seine Partei. Vor den Bundestagswahlen 2002 bis 2013 fanden zwischen den amtierenden Bundeskanzlern und ihren Herausforderern aus dem US-amerikanischen Präsidentschaftswahlkampf übernommene Rededuelle statt. Auf diese Weise wurde die Fokussierung auf die Kanzlerkandidaten und weg von programmatischen Fragen weiter forciert. Entsprechend versuchte die FDP bei der Bundestagswahl 2002, mit einem eigenen Kanzlerkandidaten, ihrem Vorsitzenden Guido Westerwelle, zusätzliche Stimmen zu gewinnen. Westerwelle bezeichnete diesen Versuch im Nachhinein als Fehler. Die britische Tradition, dass die größte Oppositionspartei im Wahlkampf ein „Schattenkabinett“ aufstellt, hat sich in Deutschland nicht durchgesetzt. Kanzlerkandidat Willy Brandt hatte 1961 einen entsprechenden Versuch gemacht. In Deutschland muss eine Partei jedoch nach der Wahl meist eine Koalition eingehen und kann daher nicht allein über ein Kabinett entscheiden. In der heutigen Zeit stellt meist die (größte) Oppositionspartei ein „Kompetenzteam“ mit prominenten Politikern zusammen, deren Bereiche zum Teil recht allgemein benannt werden („Außen- und Sicherheitspolitik“). Ende der Amtszeit. Die Amtszeit des Bundeskanzlers endet mit seinem Tod, seiner Amtsunfähigkeit, der Ablösung durch konstruktives Misstrauensvotum, seinem Rücktritt oder dem Zusammentritt eines neuen Bundestages. In den beiden letzten Fällen übt der Bundeskanzler in der Regel auf Ersuchen des Bundespräsidenten nach Absatz 3 des Grundgesetzes das Amt des Bundeskanzlers bis zur Ernennung seines Nachfolgers weiter aus. Während das weitere Prozedere für die Fälle der Beendigung einer Kanzlerschaft teilweise verfassungsrechtlich genau normiert ist, fehlt es für einzelne Beendigungssituationen an eindeutigen Regelungen sowohl im Grundgesetz selbst wie in nachgeordneten Rechtsnormen („Geschäftsordnung der Bundesregierung“). Zu diesen nicht normierten Beendigungsfällen gehört der Tod eines Bundeskanzlers und auch die Beendigung des Amtes durch Rücktritt oder durch das Zusammentreten eines neu gewählten Bundestages in der Konstellation, dass der Bundespräsident nicht von seinem Recht nach Artikel 69 Absatz 3, den bisherigen Amtsinhaber zur Weiterführung der Geschäfte bis zur Ernennung eines neuen Kanzlers zu verpflichten, Gebrauch macht – wie beim Rücktritt Willy Brandts 1974 geschehen. Nach überwiegender Meinung in der Rechtsliteratur müsse dem Bundespräsidenten in solchen Fällen in Analogie zu Artikel 69 Absatz 3 eine außerordentliche Ernennungsbefugnis zuerkannt werden, da die Verfassung von ihrer Struktur her ein ununterbrochenes Funktionieren aller Verfassungsorgane einfordert und sonst unaufschiebbare Maßnahmen nicht getroffen werden könnten. Ohne einen amtierenden Bundeskanzler aber existiert keine Bundesregierung (GG) und mit der Amtsbeendigung eines Bundeskanzlers verlieren auch alle Regierungsmitglieder ihre Ämter (Absatz 2 GG). Streitig unter Juristen ist weiterhin, ob der Bundespräsident in solchen Situationen in der Auswahl des „neuen“ Bundeskanzlers auf die Person des bisherigen (auch als solcher nicht mehr im Amt befindlichen) Vizekanzlers beschränkt ist – die herrschende Meinung (u. a. Herzog in Maunz/Dürig Art. 69 Rn. 59) geht von einer Auswahlbeschränkung aus (Walter Scheel war 1974 auch zuvor Vizekanzler, als er von Bundespräsident Gustav Heinemann mit der "vorübergehenden" Amtsführung betraut wurde). Eindeutig ist weiterhin nicht, ob in diesen Fällen der Terminus „geschäftsführender“ Bundeskanzler rechtlich überhaupt der richtige ist: Nach wörtlicher Auslegung des Artikel 69 Absatz 3 des Grundgesetzes können nur die bisherigen Amtsinhaber zum „geschäftsführenden Bundeskanzler“ oder zu „geschäftsführenden Bundesministern“ verpflichtet werden. Aus ähnlichem Grunde wird Konrad Adenauer nicht als Bundesaußenminister für den Zeitraum nach dem Rücktritt Heinrich von Brentanos 1961 geführt, obwohl der das Amt „faktisch geschäftsführend“ wieder übernahm, aber im Gegensatz zu Helmut Schmidt 1982 nicht offiziell Außenminister wurde. Erst eine analoge Auslegung des Artikel 69 Absatz 3 könnte in dieser Fallkonstellation die Bezeichnung „geschäftsführender Bundeskanzler“ rechtfertigen; ansonsten ist er rechtlich ohne Zusatzbezeichnung ausschließlich ein „Bundeskanzler“. Der Rücktritt des Bundeskanzlers während der Legislaturperiode selbst ist im Grundgesetz auch nicht vorgesehen oder geregelt. Dennoch wird er verfassungsrechtlich für zulässig erachtet. Die bisherigen Rücktritte der Bundeskanzler Adenauer, Erhard und Brandt waren daher auch nicht Gegenstand größerer verfassungsrechtlicher Debatten. Der Rücktritt bietet auch einen Weg zu Neuwahlen. Findet bei der nach dem Rücktritt anstehenden Wahl des Bundeskanzlers gemäß Artikel 63 des Grundgesetzes kein Kandidat die absolute Mehrheit, so kann der Bundespräsident Neuwahlen anordnen, er muss das jedoch nicht tun. Historische Beurteilung des Amtes des Bundeskanzlers. Die Konstruktion eines starken, nur vom Bundestag abhängigen Bundeskanzlers hat sich nach überwiegender Ansicht der Politikwissenschaft bewährt. Während das Zusammenspiel von Bundestag und Bundesrat in der Gesetzgebung regelmäßig kritisiert und das Amt des Bundespräsidenten in seiner heutigen Ausgestaltung gelegentlich infrage gestellt wird, sind sowohl das Amt als auch die Befugnisse des Bundeskanzlers nahezu unumstritten. Auch wenn Konrad Adenauers historisch einzigartige Machtposition, die sich im während seiner Amtszeit geprägten Begriff der "Kanzlerdemokratie" manifestierte, bei seinen Nachfolgern nicht in diesem Umfang erhalten blieb, ist der Bundeskanzler der wichtigste und mächtigste deutsche Politiker. Die verhältnismäßig starke verfassungsrechtliche Position, die sich unter anderem durch die Art der Amtseinsetzung und der Kabinettsbildung sowie durch die erschwerte Absetzbarkeit nur durch ein konstruktives Misstrauensvotum ergibt, und die regelmäßige Bekleidung eines hohen Parteiamtes in Verbindung mit relativ stabilen parteipolitischen Verhältnissen hat für eine große Kontinuität im Amt des Bundeskanzlers gesorgt: Angela Merkel ist erst die achte Person, die das Amt innehat. Die lange durchschnittliche Amtszeit der Bundeskanzler von etwa acht Jahren wird jedoch auch kritisiert. In diesem Zusammenhang wurde bereits eine in ihrer praktischen Umsetzung nicht unproblematische Begrenzung der Amtszeit des Bundeskanzlers auf acht Jahre wie beim US-Präsidenten vorgeschlagen, auch Gerhard Schröder unterstützte diese Idee vor seiner Amtszeit. Er rückte jedoch später von ihr ab, zumal er sich nach einer Kanzlerschaft über zwei Amtsperioden (1998–2005) bei der Bundestagswahl 2005 zur Wiederwahl stellte. Die Hoffnungen auf einen starken Bundeskanzler haben sich insgesamt erfüllt, die Befürchtungen vor einem zu starken Machthaber haben sich jedoch nicht bewahrheitet, zumal die Macht des Bundeskanzlers im Vergleich zum Reichspräsidenten der Weimarer Republik oder zum US-Präsidenten beschränkt ist. Insofern kann das Wort von Alt-Bundespräsident Herzog, das Grundgesetz sei ein Glücksfall für Deutschland, auch auf die Konstruktion des Amtes des Bundeskanzlers bezogen werden. Als Verfassungsrechtler kritisierte Roman Herzog allerdings auch einige „Petrefakte“ des Grundgesetzes. Es sei ein „Kunststück“, dass Artikel 61 die Anklage des Bundespräsidenten vor dem Bundesverfassungsgericht vorsehe, dass also nicht der Bundeskanzler, der zu Manipulationen alle Gelegenheit habe, sondern der Bundespräsident mit der Möglichkeit der Organklage bedroht sei. Das Vorschlagsrecht nach Artikel 63 Absatz 1 sei eine Rückbildung des Auswahlrechtes, das zur Kaiserzeit und Weimarer Zeit noch selbstverständlich gewesen sei. Das könne man jetzt streichen. Der Begriff "Bundeskanzlerin". a> (* 1954),8. Bundeskanzler (seit 2005) und erste Bundeskanzlerin Im Zusammenhang mit der Wahl Angela Merkels zur Bundeskanzlerin wurden auch einige Betrachtungen im Hinblick auf den sprachlichen Umgang mit dem ersten weiblichen Amtsinhaber angestellt. So wurde festgestellt, dass – obwohl im Grundgesetz nur vom „Bundeskanzler“ im generischen Maskulinum die Rede ist – die offizielle Anrede für eine Frau im höchsten Regierungsamt „Frau Bundeskanzlerin“ lautet. Ferner wurde auch klar, dass Angela Merkel zwar die erste Bundeskanzlerin (im Femininum), gleichzeitig aber auch der achte Bundeskanzler (im generischen Maskulinum) ist. Ein auf Angela Merkel folgender männlicher Bundeskanzler könnte sich hingegen keinesfalls als „achter Bundeskanzler“ (sondern nur als „neunter“) bezeichnen, da es eine rein männliche Berufsbezeichnung (mit wenigen Ausnahmen) im Deutschen nicht gibt. Das "Bundeskanzleramt" bleibt wegen der Bezugnahme auf die Amtsbezeichnung im generischen Maskulinum in seiner grammatischen Form erhalten; es heißt also nicht „Bundeskanzlerinnenamt“. In diesem Zusammenhang kommt auch dem Begriff der First Lady eine besondere Betrachtung zu, der auch im deutschen Kontext mit Bezug auf (weibliche) Gattinnen von (männlichen) Bundeskanzlern benutzt wird. Ebenfalls im Zusammenhang mit der erstmaligen Wahl einer Frau in das Amt des Bundeskanzlers wurde das Wort „Bundeskanzlerin“ am 16. Dezember 2005 von der Gesellschaft für deutsche Sprache zum Wort des Jahres gekürt, weil der Ausdruck sprachlich interessante Fragen aufwerfe und nach Ansicht der Jury vor einigen Jahrzehnten auch eine Bundeskanzlerin noch mit „Frau Bundeskanzler“ angesprochen worden wäre. Schon 2004 war die Anrede „Frau Bundeskanzlerin“ in den Duden aufgenommen worden. Die Internetadresse "bundeskanzlerin.de" wurde bereits 1998 durch den damaligen Studenten Lars Heitmüller reserviert. Er hatte angekündigt, sie kostenfrei an die erste Bundeskanzlerin zu übertragen, was schließlich im November 2005 erfolgte. Konrad Adenauer (1949–1963). Konrad Adenauers Amtszeit war wesentlich von außenpolitischen Ereignissen geprägt. Die Westbindung mit NATO-Beitritt und Gründung der EGKS, dem Grundstein der Europäischen Union, setzte er gegen den Widerstand der SPD durch. Er brachte die deutsch-französische Aussöhnung voran und unterschrieb 1963 den deutsch-französischen Freundschaftsvertrag. Ebenso setzte er sich in starkem Maße für die deutsch-jüdische Versöhnung ein. Auch innenpolitisch wird ihm – neben seinem Nachfolger Ludwig Erhard – das Wirtschaftswunder, die starke wirtschaftliche Erholung der westdeutschen Gesellschaft, angerechnet. Durch sozialpolitische Beschlüsse wie die Lastenausgleichsgesetzgebung oder die dynamische Rente erreichte er die Integration von Flüchtlingen, die Entschädigung von Opfern des Zweiten Weltkrieges und die Bildung einer stabilen Gesellschaft mit breitem Mittelstand. Negativ werden seine strikte Ablehnung gegen Ludwig Erhard als Nachfolger, sein Verhalten in der Spiegel-Affäre, seine Uneindeutigkeit bei der Frage nach der Kandidatur zum Bundespräsidenten 1959 und sein unbedingtes Festhalten an der Macht 1962/63 angemerkt. Insgesamt hat Konrad Adenauer mit seiner Interpretation der Befugnisse des Bundeskanzlers wichtige Weichen für das Amtsverständnis seiner Nachfolger gelegt. Seine 14-jährige Amtszeit dauerte länger als die demokratische Phase der Weimarer Republik bis zur Machtübergabe an Hitler. Er war bei Amtsantritt bereits 73 Jahre alt und regierte bis zu seinem 88. Lebensjahr. Damit war er der älteste Bundeskanzler und wurde auch „der Alte“ genannt. Ludwig Erhard (1963–1966). Ludwig Erhard kam als Mann des Wirtschaftswunders an die Macht, was durch das äußere Erscheinungsbild unterstrichen wurde. Das brachte ihm auch den Beinamen „der Dicke“ ein. Seine Kanzlerschaft stand jedoch schon wegen der Angriffe Adenauers auf seinen Nachfolger und einer einsetzenden leichten wirtschaftlichen Schwächephase unter keinem guten Stern. Als wichtigste außenpolitische Tat seiner Kanzlerschaft gilt die Aufnahme diplomatischer Beziehungen zu Israel unter Inkaufnahme heftiger Proteste aus arabischen Staaten. Er versuchte, die Beziehungen zu den Vereinigten Staaten zu stärken, weshalb er als „Atlantiker“ im Gegensatz zum „Gaullisten“ Adenauer bezeichnet wurde. Erhard stürzte schließlich über wirtschaftliche Probleme und die Uneinigkeit in seiner Partei. Nach dem Rückzug der FDP-Minister aus der Regierung im Oktober 1966 begannen Verhandlungen über eine Große Koalition, schließlich trat Erhard zurück. Kurt Georg Kiesinger (1966–1969). Der Kanzler der ersten Großen Koalition, Kurt Georg Kiesinger, stellte ein anderes Bild eines Bundeskanzlers dar. „Häuptling Silberzunge“ vermittelte zwischen den beiden großen Parteien CDU und SPD, anstatt zu bestimmen. Wichtiges Thema seiner Amtszeit war die Durchsetzung der Notstandsgesetze. Wegen seiner früheren NSDAP-Mitgliedschaft war er Angriffen der 68er-Generation ausgesetzt; mit dieser überlappte sich die außerparlamentarische Opposition. Kiesingers Union verfehlte bei der Bundestagswahl 1969 die absolute Mehrheit lediglich um sieben Mandate. Willy Brandt (1969–1974). Der Emigrant Willy Brandt war der erste Sozialdemokrat im Bundeskanzleramt. Er setzte sich für die Ostverträge ein und förderte damit die Aussöhnung mit Deutschlands östlichen Nachbarländern; sein Kniefall von Warschau wurde international stark beachtet. Auch stellte er die Beziehungen zur DDR auf eine neue Grundlage. Diese Haltung verschaffte ihm in konservativen Kreisen heftige Gegnerschaft, die 1972 sogar zu einem knapp scheiternden Misstrauensvotum gegen ihn führte. Andererseits erhielt er für seine außenpolitischen Anstrengungen den Friedensnobelpreis. Innenpolitisch wollte er „mehr Demokratie wagen“; er war deswegen vor allem bei den jüngeren Wählern beliebt. In seine Amtszeit fiel die Ölkrise 1973, die zu einem Anstieg der Arbeitslosigkeit führte, welche wiederum Brandts Ansehen schadete. Nach der Enttarnung seines engen Mitarbeiters Günter Guillaume als DDR-Spion trat Brandt zurück. Er begründete das offiziell mit Unterstellungen, die ihm nachsagten, dass er aufgrund von Frauengeschichten durch Guillaumes Spionage wahrscheinlich erpressbar sei und somit ein Risiko für die Bundesrepublik darstelle. Sein Rücktritt erfolge, weil es keinen Zweifel an der Integrität des Bundeskanzlers geben dürfe. Politische Beobachter sind sich heute einig, dass die Agentenaffäre nur der Auslöser für den geplanten Rücktritt war. Als tatsächliche Ursache für den Rücktritt werden allgemein Amtsmüdigkeit und Depressionen Brandts angenommen, die auch parteiintern zu Kritik an seinem unentschlossenen Führungsstil führten. Nach dem Rücktritt des Bundeskanzlers Willy Brandt am 7. Mai 1974 führte Walter Scheel die Regierungsgeschäfte, bis am 16. Mai 1974 Helmut Schmidt zum Bundeskanzler gewählt wurde. Helmut Schmidt (1974–1982). Helmut Schmidt kam als Nachfolger Willy Brandts ins Amt. Der Terror der Roten Armee Fraktion, besonders im „Deutschen Herbst“ 1977, prägte die ersten Jahre seiner Amtszeit: Schmidt verfolgte in dieser Frage strikt die Politik, den Staat nicht erpressen zu lassen und zugleich den Rechtsstaat zu wahren. Innenpolitisch verfolgte er einen – für eine sozialliberale Koalition – eher konservativen Kurs. Seine Unterstützung des NATO-Doppelbeschlusses, mit der viele SPD-Mitglieder nicht einverstanden waren, läutete das Ende seiner Amtszeit ein. 1982 kam es schließlich wegen wirtschaftspolitischer Differenzen zum Bruch mit dem Koalitionspartner FDP. Wegen seiner offenen und direkten Art, auch unpopuläre Dinge auszusprechen, wurde er auch „Schmidt-Schnauze“ genannt. Helmut Kohl (1982–1998). Helmut Kohl wurde durch ein konstruktives Misstrauensvotum gegen Helmut Schmidt mit den Stimmen von CDU, CSU und der Mehrheit der FDP-Fraktion zum neuen Bundeskanzler gewählt. Er versprach zu Beginn seiner Amtszeit eine „geistig-moralische Wende“. In den ersten Wochen seiner Kanzlerschaft führte er mittels einer verfassungsrechtlich umstrittenen Vertrauensfrage die Auflösung des Bundestages und vorgezogene Neuwahlen herbei. Seine persönliche Vision war ein „Europa ohne Schlagbäume“, das die Schengen-Staaten mit dem Schengener Abkommen schließlich auch verwirklichten. Ebenso setzte sich Kohl stark für die Etablierung des Euro ein. Helmut Kohls Name ist eng mit der Deutschen Wiedervereinigung verknüpft: 1989 ergriff er die Gunst der Stunde nach dem Fall der Berliner Mauer und sorgte in internationalen Verhandlungen für die Zustimmung der Sowjetunion zur Wiedervereinigung und der gesamtdeutschen NATO-Mitgliedschaft. Innenpolitisch entstanden durch die Wiedervereinigung große Probleme, da die Wirtschaft in Ostdeutschland entgegen Kohls Einschätzung von den kommenden „blühenden Landschaften“ zusammengebrochen war. Die Schwierigkeiten des Aufbaus Ost waren bestimmend für seine spätere Amtszeit. Schließlich wurde er 1998 auch wegen einer Rekordarbeitslosigkeit abgewählt. Nach Kohls Amtszeit wurde bekannt, dass er zugunsten der CDU unter Verstoß gegen das Parteigesetz Spenden angenommen und „schwarzen Kassen“ zugeführt hatte. Mit 16 Jahren Amtszeit ist Kohl der Bundeskanzler, der bisher am längsten amtierte (länger als Konrad Adenauer, 14 Jahre). Er wird deshalb auch heute noch als „ewiger Kanzler“ bezeichnet. Gerhard Schröder (1998–2005). Gerhard Schröder begann kurz nach Antritt seiner Kanzlerschaft mit seiner rot-grünen Koalition eine Reihe von Reform­projekten, denen gegen Ende der ersten Amtszeit eine Phase der „ruhigen Hand” folgte. Außenpolitisch führte Schröder zunächst die transatlantische Partnerschaft wie seine Vorgänger fort: 1999 und 2001 unterstützte Deutschland im Rahmen der Bündnis­treue die NATO im Kosovo und in Afghanistan. 2002 jedoch verweigerte Schröder den USA offiziell seine Zustimmung zum Irak-Krieg. Das gilt – neben seinem als gut erachteten Krisenmanagement während der Jahrhundertflut in Ost- und Norddeutschland – als wichtiger Grund für seine Wiederwahl 2002. 2003 benannte er mit der Agenda 2010 sein Reformprogramm für die zweite Amtszeit, zumal er die Arbeitslosigkeit nicht – wie zu Beginn seiner Amtszeit angekündigt – hatte halbieren können. Dieses Programm ging der politischen Linken zu weit, während es wirtschaftsnahen Gruppen nicht weit genug ging. Das alles führte zu Massenaustritten aus der SPD, dem Verlust zahlreicher Landtags- und Kommunalwahlen und der Formierung einer neuen linken Strömung jenseits der SPD, die zur Gründung der Wahlalternative WASG führte. Nach einer weiteren schweren SPD-Niederlage bei der Landtagswahl in Nordrhein-Westfalen 2005 erreichte Gerhard Schröder mittels einer Vertrauensfrage die Auflösung des Bundestages und vorgezogene Neuwahlen im Herbst 2005, auch weil er das Vertrauen der Koalition in sich beeinträchtigt sah. Zwar verlor er diese Wahlen nach massiven Stimmverlusten knapp, jedoch gelang es ihm, die SPD in der Regierung zu behalten, da die unerwartet geringe Differenz zwischen CDU/CSU und SPD im Wahlergebnis sowie der Einzug der Linkspartei ins Parlament eine große Koalition aus Union und SPD erzwang. Angela Merkel (seit 2005). Angela Merkel wurde am 22. November 2005 zur Bundeskanzlerin gewählt. Die erste Frau und Naturwissenschaftlerin, die das höchste Regierungsamt Deutschlands bekleidet, stützte sich auf eine große Koalition aus CDU/CSU und SPD. Bei Amtsantritt war sie mit 51 Jahren die jüngste Amtsinhaberin, ist die erste ehemalige Bürgerin der DDR als gesamtdeutsche Kanzlerin und nach der Wende Quereinsteigerin aus der Wissenschaft in die Politik. Sie legte ihren Ruf als „Kohls Mädchen“ ab, als sie mit ihrem Förderer, Altkanzler Kohl, wegen dessen Spendenaffäre gebrochen hatte. Zu Beginn ihrer Amtszeit hatte sie sehr hohe Zustimmungsraten, die auch mit der für gut befundenen Lösung außenpolitischer Krisen zusammenhingen. Bei der Bewältigung innenpolitischer Probleme wie der Föderalismus- und der Gesundheitsreform traten Kritiker auch aus ihrer eigenen Partei, der CDU, auf und warfen Merkel Führungsschwäche vor. Als wichtigste Aufgabe der Kanzlerschaft Merkels gilt die Verringerung der Arbeitslosigkeit, als größte Herausforderung die Bewältigung der Folgen der Finanzkrise ab 2007 und der Eurokrise ab 2009 sowie die Bewältigung der Flüchtlingskrise ab 2015. In der Bundestagswahl 2009 kam es zu einer schwarz-gelben Mehrheit. Am 28. Oktober 2009 wurde sie als Bundeskanzlerin wiedergewählt. Während sich die Finanzkrise verschärfte und der Euro in Gefahr geriet, machte die Bundesregierung durch ihre teils scharf kritisierte Steuerpolitik von sich reden. Die Wehrpflicht und der Zivildienst wurden ausgesetzt und durch freiwillige Varianten ersetzt. Die Laufzeitverlängerung der Atomkraftwerke wurde zunächst beschlossen und nach der Nuklearkatastrophe von Fukushima rückgängig gemacht. Bei der Bundestagswahl 2013 verfehlte die FDP erstmals in der Geschichte der Bundesrepublik den Einzug in den Bundestag. Infolgedessen bildete Merkel erneut eine Koalition mit der SPD und wurde am 17. Dezember 2013 zum dritten Mal zur Bundeskanzlerin gewählt. Bundeskanzler, die zugleich Bundesaußenminister waren. Zwei Bundeskanzler (sowie der für neun Tage mit der Geschäftsführung des Amtes des Bundeskanzlers beauftragte Walter Scheel) waren vorübergehend zeitgleich auch Bundesaußenminister. Bundeskanzler Konrad Adenauer war vom 15. März 1951 bis zum 6. Juni 1955 erster Bundesaußenminister Deutschlands; zuvor war es der Bundesrepublik Deutschland noch untersagt, ein Außenministerium zu führen. Adenauer übernahm auch inoffiziell "faktisch geschäftsführend" nach dem Rücktritt Heinrich von Brentanos am 31. Oktober 1961 für knapp einen halben Monat das Amt – die offizielle Bezeichnung "geschäftsführender Minister" ist bisherigen Amtsinhabern vorbehalten. Walter Scheel war als 'geschäftsführender Bundeskanzler' vom 7. Mai 1974 bis 15. Mai 1974 auch "mit der Weiterführung der Geschäfte als" Bundesaußenminister beauftragt. Das Amt des deutschen Bundesaußenministers bekleidete Scheel schon seit dem 21. Oktober 1969. Helmut Schmidt übernahm nach dem Bruch der sozialliberalen Koalition das Bundesaußenministerium vom 17. September 1982 bis zum 4. Oktober 1982 offiziell. Allgemeines und Amtszeit. Wird der nur geschäftsführende Amtsträger Walter Scheel nicht mitgezählt, so waren es bis einschließlich Angela Merkel acht Personen, die Bundeskanzler waren. Am längsten amtierte Helmut Kohl mit 16 Jahren. Am kürzesten dauerte die Amtszeit von Kurt Georg Kiesinger mit zwei Jahren und elf Monaten. Parteien. Die SPD hat drei Bundeskanzler gestellt. Die CDU kommt auf fünf, darunter die einzige Kanzlerin. Andere Parteien haben keinen Kanzler gestellt. CDU-Kanzler Kiesinger war vor Amtsantritt einst NSDAP-Mitglied gewesen, SPD-Kanzler Brandt hatte einer linksradikalen Splitterpartei angehört, der SAP. Angela Merkel war zusammen mit dem Demokratischen Aufbruch in die CDU gekommen. Adenauer war ehemaliges Zentrums-Mitglied. Die CDU hat am längsten regiert, nämlich (bis einschließlich 2014) fünfundvierzig Jahre. Die SPD kommt auf zwanzig Jahre. Die längste Zeit, in der eine Partei (die CDU) ununterbrochen den Kanzler gestellt hat, waren die zwanzig Jahre von 1949 bis 1969. Konrad Adenauer hat in seinem zweiten Kabinett Vertreter von insgesamt sechs Parteien vereint und hält damit den Rekord (zu Amtsantritt fünf, am Ende vier; CDU und CSU als zwei Parteien gezählt). Titel und andere Ämter. Alle Bundeskanzler der CDU waren promoviert (Erhard auch Professor), alle SPD-Bundeskanzler hingegen nicht. Erhard war Soldat (Unteroffizier) im Ersten Weltkrieg. Kiesinger war aufgrund seiner Ministerialarbeit während des Zweiten Weltkriegs vom Waffendienst befreit, Schmidt war Soldat (Oberleutnant der Wehrmacht, Major d. R. der Bundeswehr). Es ist gängig, dass ein Kanzler zuvor Minister gewesen ist: Erhard (Wirtschaft), Brandt (Außenamt), Schmidt (Verteidigung, Finanzen, Wirtschaft) und Merkel (Frauen, Umwelt). Ehemalige Ministerpräsidenten eines deutschen Bundeslandes waren Kiesinger (Baden-Württemberg), Kohl (Rheinland-Pfalz) und Schröder (Niedersachsen). Willy Brandt war von 1957 bis 1966 Regierender Bürgermeister im Land Berlin. Bürgermeister einer Großstadt war Adenauer (Köln). Die Mehrheit der Kanzler hat parlamentarische Erfahrung gehabt. Kiesinger war bislang der einzige Kanzler, der während seiner Kanzlerschaft kein Bundestagsmandat innehatte, gehörte aber zuvor (1949–1958) und danach (1969–1980) dem Bundestag an. Kein Bundeskanzler ist Reichstagsabgeordneter gewesen. Mit Ausnahme von Schröder haben alle Bundeskanzler nach dem Ende der Amtszeit das Abgeordnetenmandat weiter ausgeübt. Brandt war nach seinem Rücktritt 1974 noch bis zu seinem Tod 1992 Bundestagsabgeordneter. Insgesamt war er 31 Jahre lang Parlamentarier (1949–1957, 1961, 1969–1992), vergleichbar lang wie Schmidt (1953–1961, 1965–1987). Danach folgt Erhard mit ununterbrochenen 28 Jahren von 1949 bis zu seinem Tod 1977. Schröder war nur insgesamt 13 Jahre lang Bundestagsabgeordneter (1980–1986, 1998–2005). Ehemalige Fraktionsvorsitzende waren Schmidt, Kohl und Merkel. Alter. Bei Amtsantritt am jüngsten war Bundeskanzlerin Merkel mit 51 Jahren, Helmut Kohl war seinerzeit ein Jahr älter. Der älteste Bundeskanzler bei Amtsantritt war Adenauer mit 73 Jahren. Adenauer hält weiterhin den Altersrekord als amtierender Kanzler, er trat erst mit 87 Jahren ab. Der jüngste Bundeskanzler bei Ausscheiden aus dem Amt war Willy Brandt mit 60 Jahren. Die ersten drei Bundeskanzler traten ihr Amt jeweils erst mit über 60 Jahren an. Seitdem verlebten – beginnend mit Willy Brandt – alle Bundeskanzler ihren 60. Geburtstag im Amt. Das höchste Lebensalter eines Kanzlers erreichte bislang Helmut Schmidt, der 96 Jahre und 322 Tage alt wurde. Schmidt hält auch den Rekord für den längsten Zeitraum als ehemaliger Kanzler. Zwischen seiner Abwahl und seinem Tod vergingen 33 Jahre und 40 Tage. Der am frühesten verstorbene Bundeskanzler ist Willy Brandt mit 78 Jahren und 295 Tagen. Die kürzeste Zeit als Altkanzler hatte Konrad Adenauer (3 Jahre und 185 Tage). Bislang war jeder Bundeskanzler jünger als sein Vorgänger. Noch kein Bundeskanzler überlebte einen Amtsnachfolger. Bislang gab es drei Perioden, in denen neben dem Amtsinhaber je drei Altkanzler am Leben waren: von 1974 bis 1977 (Erhard, Kiesinger, Brandt), von 1982 bis 1988 (Kiesinger, Brandt, Schmidt) und von 2005 bis 2015 (Schmidt, Kohl, Schröder). Als 1992 Willy Brandt starb, lebte unter der Kanzlerschaft von Helmut Kohl mit Helmut Schmidt nur ein Altkanzler. Derzeit leben noch zwei Altkanzler. Einzelnachweise. Deutschland Motorenbenzin. Motorenbenzin ist ein komplexes Gemisch aus über 100 verschiedenen, überwiegend leichten Kohlenwasserstoffen, deren Siedebereich zwischen denen von Butan und Kerosin/Petroleum liegt. Es wird hauptsächlich aus veredelten Komponenten aus der Erdölraffination hergestellt und als Kraftstoff eingesetzt. Motorenbenzin wird (meist zu „Benzin“ abgekürzt) oft ungenau auch "Ottokraftstoff" genannt, obwohl es auch andere Ottokraftstoffe gibt. Daneben finden geringe Mengen Motorenbenzin auch als Brennstoff Verwendung (Benzin-Campingkocher). Etymologische Herkunft, Begriff. Der ursprüngliche Name stammt von dem arabischen Wort für Benzoeharz, "luban dschawi" – „Weihrauch aus Java“. Dieser Ausdruck gelangte durch arabische Handelsbeziehungen mit Katalonien nach Europa. Mit dem Wegfall der ersten Silbe und der Änderung des ersten "a" zu "e" entstand im Italienischen "benjuì", im Mittellateinischen "benzoë", woraus sich das deutsche Wort "Benzol" entwickelte. 1825 entdeckte Faraday die später Benzol genannte Verbindung in geleerten Gasflaschen, er nannte sie damals "bicarbure d’hydrogène", bevor sie von Eilhard Mitscherlich in "Benzin" umbenannt wurde. Er bezeichnete damit allerdings das heutige Benzol. Mitscherlich benannte den Stoff nach dem von ihm benutzten Ausgangsstoff, dem Benzoeharz. Die Zuordnung zum heutigen Benzin geschah durch Justus von Liebig. Die Bezeichnung Benzin steht demnach nicht, wie teilweise irrtümlich angenommen wird, in Zusammenhang mit dem Motorenbauer Carl Benz. Sorten von Motorenbenzin. Es gibt verschiedene Sorten von Benzinen, die sich in ihrer Klopffestigkeit und zur Erreichung derer auch in der Art der Gemisch-Zusammensetzung der Kohlenwasserstoffe unterscheiden. Die PKW-Hersteller schreiben für ihre Motoren eine Mindestoktanzahl vor; bei Sorten mit niedrigerer Oktanzahl können durch Klopfen Schäden auftreten, es sei denn, dass der Motor sich mit Hilfe eines Klopfsensors durch Verstellung des Zündzeitpunkts in gewissen Grenzen und unter geringfügigem Leistungsverlust darauf einzustellen vermag. Bei Sorten mit höherer Oktanzahl dagegen sind dementsprechend auch geringfügige Leistungs- oder Effizienzsteigerungen möglich. Da die Verstellgrenze allerdings herstellerseits meist für eine bestimmte in der Bedienungsanleitung angegebene Oktanzahl ausgelegt ist, können viele Motoren die neuen 100-Oktan-Benzine nicht ausnutzen. In Deutschland wurde seit November 2007 der Preis des Normalbenzins an den des Superbenzins angeglichen. Vertreter von Automobilclubs äußerten die Vermutung, dass die Mineralölunternehmen mittelfristig Normalbenzin abschaffen wollten, um mehr Erlöse und weniger Kosten zu haben, was 2007 von Mineralölunternehmen noch als unbegründet zurückgewiesen wurde. Mitte September 2008 nahm Shell als erster großer Mineralölkonzern das Normalbenzin komplett aus seinem Angebot, da es kaum noch gekauft würde. Außer der Unterscheidung nach Klopffestigkeit gibt es noch die Unterscheidung in Sommerbenzin, Winterbenzin und Übergangsware (siehe unten, Herstellung). Herstellung. Die Hauptbestandteile des Benzins sind vorwiegend Alkane, Alkene, Cycloalkane und aromatische Kohlenwasserstoffe mit 5 bis 11 Kohlenstoff-Atomen pro Molekül und einem Siedebereich zwischen 25 °C und ≈210 °C. Daneben werden dem Roh-Benzin noch diverse Ether (wie MTBE, ETBE) und Alkohole (Ethanol, sehr selten auch noch Methanol) beigemischt. Die Ether bzw. das Ethanol erhöhen die Klopffestigkeit des fertigen Benzins. In der Regel wird in einer einzelnen Raffinerie nur eine Auswahl dieser Komponenten hergestellt. Ether und Ethanol werden meist zugekauft. Die Komponenten werden i.d.R. separat in Tanks gelagert und von dort über eine Blending-Station zur Fertigware aufgemischt. Je nach Sorte unterscheiden sich die Mischungsverhältnisse (siehe Blenden). Z. B. werden in hochoktanige Sorten auch verstärkt hochoktanige Komponenten zugemischt. Einige Spezifikationen (DVPE, E70) variieren in Abhängigkeit von der Jahreszeit. Es wird zwischen Sommer-, Übergangs- und Winterware unterschieden. Um im Sommer der Dampfblasenbildung vorzubeugen, werden weniger leichtsiedende Anteile (Butan, Isopentan) im Blend verwendet. Ein Anteil von mehr leichtsiedenden Bestandteilen im Winterbenzin erleichtert dagegen den Kaltstart. Der Blend muss möglichst ökonomisch gestaltet werden, d. h. ROZ oder MOZ, DVPE und Aromatenanteil sollten möglichst „angefahren“ werden. Natürlich sind solche Kriterien von Raffinerie zu Raffinerie verschieden. Auch die Preisstruktur des Produktumfeldes (Jet-Preis, MTBE-Preis, Naphtha-Preis) beeinflusst die Blendingstrategie. Entschwefelung. Bei der Entschwefelung von Erdölprodukten werden Sulfidgruppen durch Hydrodesulfurierung von den Kohlenstoffketten abgespalten. Dabei entsteht Schwefelwasserstoff, der durch Aminwäsche entfernt und anschließend unter anderem mit dem Claus-Verfahren zu elementarem Schwefel umgesetzt wird. Die Entschwefelung ist Voraussetzung für die Verwendbarkeit in Motoren mit Abgaskatalysatoren. Additive. Der Grundkraftstoff unterscheidet sich bei den verschiedenen Mineralölkonzernen nicht, er stammt häufig sogar aus derselben Raffinerie. Ihm wird, meist durch eine sogenannte „Endpunktdosierung“ direkt vor der Tankwagenverladung, ein "Additivpaket" beigemischt, das spezifisch für den jeweils belieferten Konzern ist. Zu diesen Additiven gehören Oxidationsinhibitoren, Korrosionsschutzmittel, Detergentien (Schutz vor Ablagerungen im Einspritzsystem) und Vergaservereisungs-Inhibitoren. In Deutschland wurden 2007 ca. 24,3 Millionen Tonnen Motorenbenzin hergestellt. Verbleites Benzin. Seit 2000 ist verbleites Motorenbenzin in der EU verboten (siehe Entwicklung der Ottokraftstoffe). Lediglich Flugbenzin darf noch verbleit werden. Der Zusatz „bleifrei“ wird in den Sortenbezeichnungen aber noch mitgeführt. Synthetisches Benzin. Benzin wurde in Deutschland seit den 1920er Jahren bis zum Ende des Zweiten Weltkriegs wegen Erdölmangels auch durch Kohleverflüssigung aus Kohle gewonnen (Synthetisches Benzin). Der hohe Energieaufwand und der hohe CO2-Ausstoß machen das Verfahren heute meist unwirtschaftlich, wenn billigeres Erdgas oder Erdöl zur Verfügung steht. Jedoch werden auch heute noch in Südafrika solche Anlagen betrieben und weitere in der Welt geplant ("siehe" Kohleverflüssigung – Bedeutung). CO2-Bilanz Well-to-Tank. Laut einer Shell-Studie fallen 15-20 % der CO2-Emission im Bereich Herstellung und Bereitstellung (Well-to-Tank) von Kraftstoffen an. Spezifikationen. Die wichtigsten Benzinarten sind in der Norm EN 228 festgelegt. Zapfsäulenaufkleber. Zapfsäulenaufkleber "Super schwefelfrei" (ROZ 95) gemäß DIN EN 228 Auf Grund von EU-Vorschriften kommt seit dem 1. Januar 2011 zunehmend Super E10 mit einem Zusatz von bis zu 10 % Bioethanol auf den deutschen Markt. Für diesen Kraftstoff schreibt die 10. BImSchV zusätzliche Warnhinweise auf die E10-Verträglichkeit der Fahrzeuge vor. Verbrauch. In Deutschland wurden 2007 ca. 21,3 Millionen Tonnen Motorenbenzin verbraucht (davon 5,6 Millionen Tonnen Normalbenzin). Der Produktionsüberschuss (siehe Herstellung) wird exportiert (vorwiegend Schweiz und USA). Preise. Um Verbraucherpreisindex bereinigte Entwicklung der Kraftstoffpreise in Deutschland seit 1950 mit Referenzjahr 1995 Die Preise für Motorenbenzin (Handelsbezeichnung: Regular = ROZ 91, Premium = ROZ 95, Premium Plus = ROZ 98) orientieren sich am Rotterdamer Markt. Benzin wird in US-Dollar je 1.000 kg (US-$/t) gehandelt. Verschiedene Publikationsorgane wie Platts, ICIS und O.M.R. berichten (zum Teil täglich) über aktuelle Handelspreise und Volumina. Die im Handel verwendete Referenzdichte (um den Preis einer aktuellen Charge mit einer gegebenen Dichte in Relation zu der Notierung zu setzen) ist 0,745 kg/dm³ für Regular und 0,755 kg/dm³ für alle Premiumsorten. Weiterhin müssen noch Transportkosten und Marge des Kraftstoffhandels berücksichtigt werden. Preisbildung in Deutschland. Um etwaige Verstöße gegen das Kartellrecht aufzudecken, wurde eine Markttransparenzstelle für Kraftstoffe beim Bundeskartellamt eingerichtet, die an Tankstellen weitestgehend Markttransparenz herstellen soll. Am 12. September 2013 nahm sie den Probebetrieb auf. Steuern und Abgaben. Zusätzlich zu den oben genannten Preisbeträgen, die sich in Produktpreis und Deckungsbeitrag widerspiegeln, kommen noch Steuern und Abgaben. Steuern und Abgaben in Deutschland. In Deutschland gehören dazu (jeweils Super bzw. Diesel) die Umlage für den Erdölbevorratungsverbund mit 0,27 bzw. 0,30 ct/L, die Mineralölsteuer/Energiesteuer mit 65,45 bzw. 47,04 ct/L sowie die Mehrwertsteuer von 19 %. Mit dem Produktpreis und dem Deckungsbeitrag (in dem der Erdölbevorratungsbetrag enthalten ist) sowie der Energiesteuer (Mineralölsteuer) wird ein „neuer“ Nettopreis ermittelt, auf den dann die Mehrwertsteuer von 19 % erhoben wird. Steuern in der Schweiz. In der Schweiz kommen die Kosten für die Mineralölsteuer, für den Klimarappen, die Importgebühr für Pflichtlager und die Mehrwertsteuer hinzu. Entwicklung im europäischen Vergleich. Benzinpreis nominal im Jahresdurchschnitt in der Schweiz 1970–2014 (nicht inflationsbereinigt) Benzinpreis nominal im Monatsdurchschnitt in der Schweiz Januar 1993–Dezember 2014 (nicht inflationsbereinigt) Vergleich in Europa 2008 und 2010. Angegeben werden die Jahresdurchschnittswerte an der Zapfsäule für den am weitesten verbreiteten Benzinkraftstoff. Die Werte wurden von nationaler Währung in US-Dollar umgerechnet. Dieser Indikator ist in den World Development Indicators enthalten und basiert auf Daten der Weltbank. Bijektive Funktion. Bijektivität (zum Adjektiv "bijektiv", welches etwa ‚umkehrbar eindeutig auf‘ bedeutet → daher auch der Begriff "eineindeutig" bzw. Eineindeutigkeit) ist ein mathematischer Begriff aus dem Bereich der Mengenlehre. Er bezeichnet eine spezielle Eigenschaft von Abbildungen und Funktionen. Bijektive Abbildungen und Funktionen nennt man auch Bijektionen. Zu einer mathematischen Struktur auftretende Bijektionen haben oft eigene Namen wie Isomorphismus, Diffeomorphismus, Homöomorphismus, Spiegelung oder Ähnliches. Hier sind dann in der Regel noch zusätzliche Forderungen in Hinblick auf die Erhaltung der jeweils betrachteten Struktur zu erfüllen. Zur Veranschaulichung kann man sagen, dass bei einer "Bijektion" eine vollständige Paarbildung zwischen den Elementen von Definitionsmenge und Zielmenge stattfindet. "Bijektionen" behandeln ihren Definitionsbereich und ihren Wertebereich also symmetrisch; deshalb hat eine bijektive Funktion immer eine Umkehrfunktion. Bei einer "Bijektion" haben die Definitionsmenge und die Zielmenge stets dieselbe Mächtigkeit. Im Falle, dass eine "Bijektion" zwischen zwei endlichen Mengen vorliegt, ist diese gemeinsame Mächtigkeit eine natürliche Zahl, nämlich genau die Anzahl der Elemente jeder der beiden Mengen. Die "Bijektion" einer Menge auf sich selbst heißt auch Permutation. Auch hier gibt es in mathematischen Strukturen vielfach eigene Namen. Hat die Bijektion darüber hinausgehend strukturerhaltende Eigenschaften, spricht man von einem Automorphismus. Definition. Seien formula_1 und formula_2 Mengen; und sei formula_3 eine Funktion bzw. Abbildung, die von formula_1 nach formula_2 abbildet, also formula_6. formula_3 ist bijektiv, wenn für alle formula_8 genau ein formula_9 mit formula_10 existiert. formula_11 ist bijektiv dann und nur dann, wenn formula_3 sowohl Beispiele und Gegenbeispiele. Die Menge der reellen Zahlen wird hier mit formula_20 bezeichnet, die Menge der nichtnegativen reellen Zahlen mit formula_21. Geschichte. Nachdem man generationenlang mit Formulierungen wie „eineindeutig“ ausgekommen war, kam erst in der Mitte des 20. Jahrhunderts mit der durchgehend mengentheoretischen Darstellung aller mathematischen Teilgebiete das Bedürfnis nach einer prägnanteren Bezeichnung auf. Wahrscheinlich wurde das Wort "injektiv" ebenso wie "bijektiv" und "surjektiv" in den 1930ern von N. Bourbaki geprägt. Batterie (Elektrotechnik). Mit dem Begriff der elektrischen Batterie wird eine Zusammenschaltung mehrerer gleichartiger galvanischer Zellen bzw. Elemente bezeichnet, als welche zunächst, z. B. in der voltaschen Säule oder Zambonisäule, nur "nicht wiederaufladbare" (sogenannte „Primärzellen“ bzw. „Primärelemente“) zur Verfügung standen. Mit der Entwicklung wirtschaftlich einsetzbarer wiederaufladbarer „Akkumulatoren“, auch „Sekundärzellen“ bzw. „Sekundärelemente“, z. B. des Bleiakkumulators um 1850 bis 1886, wurde die Benutzung des Begriffs „Batterie“ auch auf die Zusammenschaltung mehrerer solcher Zellen erweitert, z. B. in den späteren Starterbatterien von Kraftfahrzeugen oder Traktionsbatterien von U-Booten usw. In letzter Zeit schließlich hat sich die Verwendung des Begriffs „Batterie“ auch auf einzelne Primär- oder Sekundärzellen ausgedehnt, wobei für letztere die Bezeichnung „Akkuzelle“ oder abgekürzt „Akku“ verwendet wird. Der geschilderte Wandel des Sprachgebrauchs wurde in der DIN-Norm 40729 "Akkumulatoren; Galvanische Sekundärelemente; Grundbegriffe" angesprochen, welche unter Batterie „immer mehrere verbundene Zellen“ verstanden hat, diese Begrifflichkeit sich bei der alltäglichen „Unterscheidung jedoch verwischt“ hat. Unter Hinweis auf diese Begriffshistorie wird hier ausschließlich die Vielfalt „elektrischer Zellen“ beschrieben, die umgangssprachlich als „Batterien“ bezeichnet werden, wobei die Besprechung von „Primärzellen“ im Vordergrund steht – für eine nähere Besprechung von „Sekundärzellen“ siehe Hauptartikel Akkumulator. Geschichte. Im Jahr 1780 bemerkte der italienische Arzt Luigi Galvani, dass ein Froschbein, das in Kontakt mit Kupfer und Eisen kam, immer wieder zuckte und hielt das für eine elektrische Wirkung. Das erste funktionierende galvanische Element und damit die erste Batterie wurde in Form der Voltaschen Säule im Jahr 1800 von Alessandro Volta vorgestellt. Es folgten in den Folgejahren konstruktive Verbesserungen wie die Trog-Batterie von William Cruickshank, welche den Nachteil des vertikalen Aufbaus der Voltaschen Säule vermied. Historisch wird zwischen Trockenbatterien, mit festem oder gelartigem Elektrolyt, und den heute nicht mehr gebräuchlichen Nassbatterien mit flüssigem Elektrolyt unterschieden. Zu den historischen Nassbatterien, welche nur in bestimmter Lage betrieben werden können, zählen das Daniell-Element von John Frederic Daniell aus 1836 und die verschiedenen Variationen und Bauformen in Form der Gravity-Daniell-Elemente, das Chromsäure-Element von Johann Christian Poggendorff aus 1842, das Grove-Element von William Grove aus 1844, und das Leclanché-Element von Georges Leclanché aus dem Jahr 1866. Einsatzbereich dieser galvanischen Nasszellen war primär die Stromversorgung der drahtgebundenen Telegrafiestationen. Aus den Leclanché-Element gingen über mehrere Entwicklungsschritte die noch heute üblichen und lageunabhängigen Trockenbatterien hervor, erste Arbeiten dazu stammen von Carl Gassner, welcher Trockenbatterie im Jahre 1887 patentierte. Im Jahr 1901 setzte Paul Schmidt in Berlin erstmals die Trockenbatterie bei Taschenlampen ein. Als Batterien gedeutete antike Gefäßanordnungen wie die „Bagdad-Batterie“ hätten durch ein Zusammenspiel aus Kupfer, Eisen und Säure eine elektrische Spannung von circa 0,8 V produzieren können. Ob diese Gefäße zum damaligen Zeitpunkt vor etwa 2.000 Jahren als Batterien im heutigen Sinn verwendet wurde, ist umstritten und konnte nicht zweifelsfrei nachgewiesen werden. Grundlagen. kg) verschiedener Primärzellen als Funktion der Temperatur Lithium-Akkupack (3s) für Laptop mit Angabe von Nennspannung, Nennkapazität und Energiegehalt Eine elektrische "Zelle" ist ein elektrochemischer Energiespeicher und ein Energiewandler. Bei der Entladung wird gespeicherte chemische Energie durch die elektrochemische Redoxreaktion in elektrische Energie umgewandelt. Diese kann von einem vom Stromnetz unabhängigen elektrischen Verbraucher genutzt werden. Alternativ kann sie auch in einem vom Stromnetz abhängigen Verbraucher eingesetzt werden, um kurzzeitige Ausfälle im Stromversorgungsnetz zu überbrücken und so eine unterbrechungsfreie Stromversorgung sicherstellen. "Primärzellen" können nur einmal entladen und nicht wieder aufgeladen werden. In diesen Zellen sind die Reaktionen bei der Entladung teilweise umkehrbar, das führt jedoch nicht zur Wiederherstellung eines dem Neuzustand ähnlichen Energieinhalts. Dagegen sind die wiederaufladbaren "Sekundär"batterien (Akkumulatoren) weitgehend in den Ladezustand ähnlich dem Neuzustand zu bringen, so dass eine mehrfache Umwandlung von chemischer in elektrische Energie und zurück möglich ist. Die Elektrodenmaterialien legen die Nennspannung der Zelle fest, die Menge der Materialien die enthaltene Energie. Die schwächste Zelle bestimmt die Qualität einer Batterie. In Parallelschaltung kommt es durch Ausgleichsströme zu größeren Verlusten, wenn die Zelle mit geringerer Kapazität früher entladen ist. In Reihenschaltung bricht die Spannung unter Last eher zusammen, weil stärkere, noch geladene Zellen Strom durch schwächere, schon entladene Zellen treiben. Deren Innenwiderstand führt nach dem Ohmschen Gesetz zu einer Zellerwärmung, ohne dass die elektrische Energie nutzbar ist. Typvariationen. Aufgrund der vielfältigen Einsatzbereiche mit sehr unterschiedlichen Anforderungen bezüglich Spannung, Leistung und Kapazität gibt es heute Batterien in vielen Typen. Diese werden unterschieden beispielsweise Handelsübliche Batterien und Zellen unterscheiden sich sowohl in den elektrischen Werten als auch in der geometrischen bzw. konstruktiven Bauform. Von den nachfolgend aufgeführten Bezeichnungen können mehrere zusammen einen Zelltyp beschreiben, z. B. „Alkali-Mangan-Zelle – LR 6/AM-3 – AA – Mignon“. Oft wird aber nur ein bestimmtes Merkmal gefordert, z. B. die Größe „AA“ für eine speziell darauf abgestimmte Taschenlampe. Im experimentellen Bereich und zur Veranschaulichung des Funktionsprinzips werden recht exotische galvanische Zellen, wie zum Beispiel Zitronenzellen, eingesetzt. Primärzellen. Schaltzeichen einer galvanischen Zelle (Primärzelle oder Akkumulator) Baugrößen. Als "Gerätebatterien" werden häufig Batterien bezeichnet, die sehr verbreitet für die Energieversorgung von Elektrokleingeräten wie Uhren, Radios, Spielzeug, Taschenlampen u. Ä. und auch in fest installierten Geräten wie Rauchmeldern verwendet werden. Gerätebatterien müssen kompakt, lageunabhängig einsetzbar, leicht und trotzdem mechanisch robust sein. Sie dürfen bei normaler Lagerung und Verwendung im Gerät weder auslaufen noch ausgasen. Sie sind in einer Vielzahl von Ausführungen auf der Basis von Zink-Kohle- oder Alkali-Mangan-Batterie im Handel erhältlich – Zink-Kohle-Batterien werden immer seltener angeboten und kaum noch hergestellt. Siehe auch Knopfzelle (Tabelle diverser Bauformen), Akkumulator (verschiedene Akuu-Technologien) oder Superkondensator (Energiespeicher anderer Art). Adapter und Kontaktierung. Nicht jeder Batterietyp ist in allen Ländern erhältlich. Deshalb gibt es zum Beispiel Flachbatterie-Adapter, die drei AA-Zellen zu je 1,5 V aufnehmen. Diese lassen sich in allen Geräten verwenden, in die auch eine Flachbatterie hineinpasst. Nützlich sind diese Adapter auch, weil es bis dato keine wiederaufladbaren Flachbatterien gibt. Die Kontaktierung kleiner Batterien erfolgt mit Federkontakten, zuverlässigere Ausführungen für Lithiumbatterien sind vergoldet. Fest eingebaute Akkumulatoren sind mit Steckkontakten, Schraubanschlüssen, Polbolzen oder Lötfahnen versehen. Konfektionierte wiederaufladbare Batterien, sogenannte Akkupacks, bestehen aus mehreren Zellen, die untereinander fest verbunden und oft mit einer Ummantelung oder einem Gehäuse versehen sind. Bei Starterbatterien sind die Zellen untereinander mit Bleistegen, bei Traktionsbatterien in der Regel mit Kupferverbindern kontaktiert. Microsoft offerierte 2010 eine „InstaLoad“ genannte, rein mechanische Lösung eines Batteriefaches, die das Einlegen von Batterie-Einzelzellen in beliebiger Orientierung erlaubt. Die Kontakte sind dabei so gestaltet, dass keine Verpolung auftreten kann. Entsorgung. Inneres und Äußeres einer 6Volt-Batteriedes Typs 4LR44 nach IEC 60086. Batterien und Akkumulatoren gehören nicht in den haushaltsüblichen Restmüllbehälter oder in die Umwelt, da sie umweltschädliche und zudem erneut nutzbare wertvolle Rohstoffe enthalten, die das Batterierecycling für entsprechende Unternehmen wirtschaftlich attraktiv machen. Auch ausgelaufene Batterien sollten mit Vorsicht behandelt werden, da sich teils ätzende Substanzen an den Kontakten befinden. Sie müssen ebenfalls einem Recycling zugeführt werden und gelten als Problemstoff. Bild einer ausgelaufenen R6-Batterie, die ungefähr 20 Jahre alt ist. Der oxidierte Minuspol ist deutlich zu erkennen. Durch die lange Lagerung wurde bereits auch das Gehäuse chemisch angegriffen. In Deutschland regelt die Batterieverordnung die Rücknahme und Entsorgung von Batterien. Sie legt unter anderem fest, dass in Deutschland keine Batterien oder Zellen mit einem Quecksilbergehalt von mehr als 0,0005 Gewichtsprozent in den Verkehr gebracht werden dürfen. Bei Knopfzellen darf der Quecksilbergehalt nicht über 2,0 Gewichtsprozent liegen. Alkali-Mangan-Batterien enthalten seit Beginn der 1990er Jahre kein Quecksilber mehr. Davor wurde es zum Amalgamieren des Elektrodenmaterials Zink verwendet. Kleine Batterien können in Deutschland in Einzelhandelsgeschäfte zurückgebracht werden, wenn diese auch Batterien verkaufen. Gesetzlich verpflichtend ist zwar nur die Rücknahme von Batterietypen, die der jeweilige Händler auch im Sortiment führt; da die Teilnahme am Rücknahmesystem für den Händler aber kostenlos ist, werden üblicherweise auch "fremde" Typen akzeptiert, da dem Händler dadurch keine Nachteile oder Kosten entstehen. Zu diesem Zweck müssen dort Sammelbehälter aufgestellt sein. Für Starterbatterien existiert in Deutschland ein Pfandsystem. Brailleschrift. Die Brailleschrift wird von stark Sehbehinderten und Blinden benutzt, ist also eine Blindenschrift. Sie wurde 1825 von dem Franzosen Louis Braille entwickelt. Die Schrift besteht aus Punktmustern, die, von hinten in das Papier gepresst, mit den Fingerspitzen als Erhöhungen zu ertasten sind. Allgemeines. "Nummerierung" der Braille-Punkte "Hexadezimalwerte" in Achtpunktzeichen Sechs Punkte, drei in der Höhe mal zwei Punkte in der Breite, bilden das Raster für die Punkte-Kombinationen, mit denen die Buchstaben dargestellt werden. Bei sechs Punkten ergeben sich 64 Kombinationsmöglichkeiten, das Leerzeichen inbegriffen. Die Punkte einer Braillezelle werden aufsteigend in der linken Spalte von eins bis drei und in der rechten Spalte von vier bis sechs nummeriert. Dem sind die im Bild unterhalb dargestellten Hexadezimalwerte 1-2-4 links, und 8-10-20 rechts (1016 = 1610 und 2016 = 3210) zugeordnet. Für die Ausgabe von Texten in Brailleschrift durch den Computer werden Braillezeilen verwendet. Da für die Arbeit am Computer mehr Zeichen notwendig sind als sich mit sechs Punkten darstellen lassen, werden bei der Braillezeile noch zwei weitere Punkte je Braillezeichen hinzugefügt, so dass acht Punkte, vier in der Höhe mal zwei in der Breite, zur Verfügung stehen (Computerbraille, spezielle Implementierung: "Eurobraille"). Auf diese Weise erhält man 256 Kombinationen. Die Codierung der Standardzeichen bleibt dabei jedoch gleich, die unterste Zeile bleibt lediglich leer. Bei der Nummerierung der Punkte eines Achtpunktzeichens bleibt die Nummerierung der oberen sechs Punkte unverändert – die beiden unteren Punkte erhalten die Nummern 7 (links) und 8 (rechts) mit entsprechenden Hexadezimalwerten 6410 = 4016 und 12810 = 8016. Prägemaschinen. Blindenschreibmaschine (auch Bogenmaschine) zum Einprägen der Punkte in entsprechend dicke Papierbögen. Stenomaschine – ein sehr kompaktes Modell (nach Einklappen der Leertaste kann der Deckel vorne hochgeklappt werden) zum Beschriften von speziellen Papierstreifen statt Bögen. Der Papierstreifen ist am linken Bildrand sichtbar. Bei Benutzung von Punktschriftmaschinen sind die Tasten der Punkte gleichzeitig zu betätigen, um das entsprechende Zeichen der Codetabelle zu schreiben. Dabei befinden sich die Tasten für die Punkte eins bis drei in absteigender Reihenfolge auf der linken Seite, sowie die Tasten für die Punkte vier bis sechs aufsteigend auf der rechten Seite. Dazwischen liegt die Leertaste. Will man zum Beispiel ein codice_1 alt=Punkte 1, 2, 3, 5 schreiben, so muss man mit der linken Hand die Tasten [3], [2] und [1] und mit der rechten Hand die Taste [5] gleichzeitig drücken. Unterschieden wird dabei zwischen Bogenmaschinen und Stenomaschinen. Beide Maschinentypen sind inzwischen weitgehend abgelöst durch Modelle, die die Daten auf digitale Medien speichern – aber gerade wegen der Zuverlässigkeit (kein Strom etc.) sind Stenomaschinen immer noch beliebt. Systematik des Punkteaufbaus. Die nächsten zehn Buchstaben (K–T) unterscheiden sich nur durch einen zusätzlichen Punkt unten links ("Punkt Nr. 3"). Die folgenden Zeichen (darunter U–Z) unterscheiden sich wiederum durch einen zusätzlichen Punkt unten rechts ("Punkt Nr. 6") neben dem unten links. Das codice_2 (alt=Punkte 2, 4, 5, 6) wird in Brailles Muttersprache Französisch nicht benutzt und wurde daher erst später aufgenommen, basierend auf der Grundform von codice_3 (alt=Punkte 2, 4, 5). Es erscheint daher in dieser Übersicht erst in der vierten Zeile. In weiteren schwarzschriftlichen Digraphen und anderen Sonderzeichen wird nur der Punkt Nr. 6 unten rechts ergänzt und der unten links (Punkt 3) nicht gesetzt. Das Zeichen für öffnende runde Klammer codice_4 steht auch für die schließende runde Klammer codice_5 und das Gleichheitszeichen codice_6. Je nach Stellung des Zeichens vor oder nach Buchstaben bzw. Leerzeichen wird die gemeinte Bedeutung erkennbar. Das Zeichen codice_7 steht auch für die schließende eckige Klammer codice_8. Außerdem sind die Zeichen für Plus codice_9 und das Ausrufezeichen codice_10 identisch. Die Zeichen codice_11 stehen in der genannten Reihenfolge für die um eine Punktreihe tiefergestellten Ziffern 1–9 und 0 und können statt der jeweiligen Ziffer als Ordnungszahl verwendet werden; das "Zahlenzeichen" codice_12 ist zu setzen. Besonderheiten bei der Verwendung und Steuerzeichen. Das codice_13 bezeichnet das nächste Zeichen als Großbuchstaben und steht z. B. vor Eigennamen. Das wird verwendet, wenn alle nachfolgenden Zeichen als Großbuchstaben betrachtet werden sollen. Das codice_14 (Apostroph als Aufhebungszeichen) wird verwendet, wenn die folgenden Zeichen wieder Kleinbuchstaben sein sollen. Das codice_12 ist das Zahlenzeichen, das vor einer oder mehreren Ziffern steht. Leerzeichen, Apostroph oder andere Zeichen, die nicht mit Ziffern verwechselt werden können, beenden die Zahl. Der Apostroph wird anstelle des Leerzeichens verwendet, wenn direkt hinter der Zahl noch Buchstaben oder Satzzeichen folgen sollen, die mit Ziffern verwechselt werden können. Zahlen in Zahlengruppen werden mit dem Punkt getrennt. Ordnungszahlen können durch das Schreiben der Ziffern um eine Punktreihe tiefergesetzt gekennzeichnet werden. Das ist möglich, weil Ziffern zur Darstellung nur die oberen zwei Punktreihen benötigen. Der abschließende Punkt zur klassischen Kennzeichnung von Ordnungszahlen entfällt dann. Brüche werden mit Zähler und Nenner direkt hintereinander dargestellt, der Nenner ist allerdings um eine Punktreihe nach unten verschoben. Prozent und Promille werden als Bruch 0/0 bzw. 0/00 dargestellt, dabei ist der Nenner 0 bzw. 00 wieder tiefergestellt. Als Dezimaltrennzeichen kann außer dem Komma auch der Punkt verwendet werden. In mathematischen Formeln können die Rechenzeichen durch ein Akzentzeichen ("Punkt Nr. 4" alt=Punkt 4) angekündigt werden. In der vereinfachten Schreibweise kann das Akzentzeichen weggelassen werden, wenn es keine Verwechslungsgefahr mit anderen Zeichen gibt. Der Apostroph codice_14 ("Punkt Nr. 6" alt=Punkt 6) wird auch als Auflösungspunkt bezeichnet und dient z. B. zur Umwandlung von codice_17 in codice_18. Verkürzung der Schrift zum Zwecke der Beschleunigung. Bestrebungen, die Schrift schneller zu machen, führten zu einer Verkürzung der Wortbilder. In der deutschen Brailleschrift werden grundsätzlich vier verschiedene "Kürzungsgrade" für Literaturbraille unterschieden. Die Blindenkurzschrift wird am häufigsten zur Erstellung von Druckerzeugnissen in Blindenschrift (80 bis 85 %) und bei Mitschriften blinder Menschen mit der Punktschriftmaschine eingesetzt. Ein Zeichen in Brailleschrift ist etwa 6 mm lang und 4 mm breit, so dass die Tastschärfe von trainierten Menschen nicht unterschritten wird. Die Punkthöhe (Erhebung) soll 0,4 mm nicht unterschreiten, damit die Zeichen taktil erfassbar bleiben. Lese-Leistung. Ein Buch in Brailleschrift und darauf die textgleiche Originalausgabe für Sehende Erfahrene Braille-Leser können etwa 100 Wörter pro Minute lesen. Zum Vergleich: sehende Leser schaffen etwa 250 bis 300 Wörter pro Minute. Brailleschriften für spezielle Inhalte. Für spezielle Themen gibt es eigene Brailleschriften, so z. B. die Braille-Musikschrift, die Braille-Schaltungsschrift, die Braille-Schachschrift und die Braille-Strickschrift. Braille für andere Schriften. Neben zusätzlichen Belegungen für Zeichen mit Diakritika gibt es auch Übertragungen der Brailleschrift auf andere Schriftsysteme als das lateinische. Für die Alphabete der russischen oder griechischen Sprache werden die Zeichen entsprechend ihrer Transliteration in das lateinische Schriftsystem, also unabhängig von ihrer Reihenfolge im Alphabet, übertragen. Für anders strukturierte Schriften, wie z. B. Japanisch, Koreanisch oder Tibetisch, wurden die Zeichen jedoch komplett neu zugeordnet. So werden zum Beispiel in der Japanischen Brailleschrift den Silben der Kana jeweils ein eigenes Zeichen zugeordnet. Braillezeichen in Unicode / UTF-8. Unicode ist heute (Stand 2011) praktisch auf jedem Computersystem verfügbar. Da die Braillezeichen in Unicode vorhanden sind, ist eine Darstellung der Braillezeichen auf Bildschirmen etc. problemlos möglich. Die Unicode-Zeichen sind also vorteilhaft für die Darstellung von Brailleschrift für Sehende – dem Blinden selbst nutzt der Unicode nur wenig (Beispielsweise Ausdrucke auf Schwellpapier in Ausnahmefällen). In Unicode werden die aus sechs Punkten bestehenden Braillezeichen durch die Zeichennummern U+2800 bis U+283F (hexadezimale Schreibweise) repräsentiert. Dies sind einschließlich des Leerzeichens 64 Zeichen. Die Reihenfolge der Zeichen wurde so definiert, dass jeder Punkt eines Braillezeichens einem gesetzten Bit entspricht. Dabei ist die Reihenfolge der Bits wie oben beschrieben (siehe Abb. „Nummerierung“). Ein Zeichen ist damit also durch #x2800 + "Wert der Punkte" codiert. Die Reihenfolge der in Unicode codierten Zeichen weicht damit erheblich von der in Absatz Systematik des Punkteaufbaus dargestellten ab. In Unicode wurde der Zeichenvorrat von Braille auf 256 erweitert, indem unter den Block aus sechs Punkten noch weitere zwei Punkte eingefügt wurden (bei Braillezeilen werden ebenfalls meist 8 Punkte dargestellt). Die Zeichen mit 8 Punkten (U+2840 bis U+28FF) sind in der Tabelle farblich abgesetzt dargestellt. Mit Brailleschrift erstellte Inhalte. tschechischer Braille-Kalender Das inhaltliche Angebot in Brailleschrift umfasst ein weites Spektrum unterschiedlichster Werke. Es reicht von klassischer und moderner Literatur, über Fachbücher bis hin zu unterschiedlichster Pornografie. Es existieren auch Zeitschriften zu unterschiedlichsten Themenbereichen. So veröffentlichte z. B. der Playboy in den Jahren von 1970 bis 1985 sein Magazin auch in Brailleschrift. In Deutschland gibt es eine Pflicht zur Kennzeichnung von Medikamentenverpackungen in Brailleschrift. In Brailleschrift angefertigte Schriftstücke werden von der Deutschen Post als Blindensendung kostenlos befördert. Bangladesch. Bangladesch (; Zusammensetzung aus "bangla" ‚bengalisch‘ und "desh" ‚Land‘) ist ein Staat in Südasien. Er grenzt im Süden an den Golf von Bengalen, im Südosten an Myanmar und wird sonst von den indischen Bundesstaaten Meghalaya, Tripura, Westbengalen, Mizoram und Assam umschlossen. Er nimmt den östlichen Teil der historischen Region Bengalen ein, der 1947 aufgrund der muslimischen Bevölkerungsmehrheit bei der Teilung Britisch-Indiens unter der Bezeichnung "Ostpakistan" zum östlichen Landesteil Pakistans wurde. 1971 erlangte Ostpakistan infolge des Bangladesch-Krieges unter dem Namen Bangladesch seine Unabhängigkeit. Die offizielle Bezeichnung eines Bewohners von Bangladesch lautet Bangladescher. Geographie. Bangladesch grenzt an die indischen Bundesstaaten Westbengalen, Assam, Meghalaya, Tripura und Mizoram (im Uhrzeigersinn, beginnend im Westen), sowie an Myanmar und den Golf von Bengalen (Teil des Indischen Ozeans). Die Gesamtlänge der Grenze beträgt 4246 km, davon mit Myanmar 193 km und mit Indien 4053 km. Die Küstenlänge beträgt 580 km. Naturraum. Der größte Teil Bangladeschs wird vom Deltabereich der Flüsse Brahmaputra, Ganges und Meghna gebildet; ein von vielen Wasserläufen durchzogenes ebenes Gebiet, da die großen Flüsse aufgrund der Abholzungen im Himalaya immer öfter große Wassermassen führen müssen. Die Hauptstadt Dhaka liegt nur sechs Meter über dem Meer. Bei einem Anstieg des Meeresspiegels um einen Meter würden ohne Küstenschutzmaßnahmen 25.000 km² Landfläche (17 Prozent der gesamten Fläche von Bangladesch) überschwemmt werden. Damit sind bedeutende Teile des Landes durch den Meeresspiegelanstieg, wie er durch die Globale Erwärmung ausgelöst wird, langfristig von der Überschwemmung bedroht. Im Fünften Sachstandsbericht des IPCC aus dem Jahr 2013 wurde je nach zugrundeliegendem Szenario ein Anstieg zwischen 0,26 m und 0,98 m bis zum Jahr 2100 erwartet und durch langfristige Wirkungen von Treibhausgasemissionen ein weiterer Anstieg für die folgenden Jahrhunderte prognostiziert. Langfristig betrachtet wird von einem Meeresspiegelanstieg in Höhe von ca. 2,3 m pro zusätzlichem Grad Celsius Erwärmung ausgegangen. Klima. Das Klima Bangladeschs ist tropisch mit zunehmenden Niederschlägen von West nach Ost. Bangladesch liegt im Einflussbereich des Südwest-Monsuns, so dass durchschnittlich 1500 bis 2250 mm Jahresniederschlagssumme erreicht werden. Im Osten, am Fuß der Tripura-Lushai-Berge, fallen 3000 bis 4000 mm (siehe Klimadiagramm Chittagong). Dort befindet sich mit dem Mowdok Mual die höchste Erhebung Bangladeschs (1003 m). Mehr als die Hälfte der Jahresniederschläge entfällt auf die Monate Juni bis August. Im März/April und im Oktober kommt es häufig zu tropischen Wirbelstürmen über dem Golf von Bengalen mit oft katastrophalen Folgen, da die damit verbundenen Fluten weite Teile des Landes überschwemmen. Die durchschnittliche Tageshöchsttemperatur liegt im Januar bei 25 °C und im April schon bei 35 °C. Im restlichen Jahr liegt die Temperatur bei 30 °C. In Bangladesch unterscheidet man drei bestimmte Jahreszeiten: von Ende Mai bis Anfang Oktober die Monsun-Saison, von Mitte Oktober bis Ende Februar die „kühle“ Jahreszeit und die „heiße“ Jahreszeit ungefähr zwischen dem 15. März und dem 15. Mai. Vegetation. Die natürliche Vegetation ist in Bangladesch durch den Ackerbau, der ziemlich viel Landfläche benötigt, fast vollständig verschwunden. Mangrovenbestände der Sundarbans sind aber noch größtenteils erhalten und auch die Chittagong Hill Tracts besitzen immer noch den Charakter des Regenwaldes. Ansonsten wird nur ungefähr ein Sechstel des Landes von Wald bedeckt. Tierwelt. In den Regenwäldern nahe Chittagong kann man Hirsche, Bären, Leoparden, Rhesusaffen und Elefanten finden. Insgesamt sind etwa 750 Vogelarten, 250 Arten von Säugetieren sowie 150 verschiedene Reptilien und Amphibien in Bangladesch bekannt. Zu den Reptilien und Amphibien des Landes zählen etwa Krokodile, Pythons und Kobras. Zudem leben in den Gewässern von Bangladesch 200 Arten von Süßwasser- und Meeresfischen; Fischer auf der Jagd nach Hummern und Garnelen bringen oftmals einen großen Fang mit nach Hause, der einerseits für die einheimische Bevölkerung als Nahrung dient, andererseits auch zum Export genutzt wird. Das wahrscheinlich bekannteste Tier Bangladeschs ist der Bengalische Tiger, auch Indischer oder Königstiger genannt. Diese Tigerart lebt auf dem Südost Bengalen. Männliche Exemplare können es durchaus auf eine Länge von 3 Metern bringen, eine Vierteltonne schwer werden und eine Schulterhöhe von einem Meter erreichen. Rot-Goldenes Fell mit schwarzen Streifen ist Kennzeichen dieses Tigers, dessen Bauchbereich allerdings weiß gefärbt ist. Vereinzelt werden auch weiße bengalische Tiger gesichtet. Bengalische Tiger fressen etwa neun Kilo Fleisch pro Tag. In Bangladesch leben schätzungsweise 670 Exemplare der Raubkatze im geschützten Mangrovenwaldgebiet der Sundarbans. Entwicklung. Mit 158,5 Millionen Einwohnern (Stand: 2011) steht Bangladesch in der Liste der Landesbevölkerungen an siebter Stelle und ist mit einer Bevölkerungsdichte von 1084,2 Menschen je Quadratkilometer einer der am dichtesten besiedelten Flächenstaaten der Welt. Lange Zeit hatte Bangladesch eine hohe Geburtenrate. Durch Selbsthilfeinitiativen der Bevölkerung, die von Entwicklungshilfeorganisationen unterstützt wurden, konnte die zusammengefasste Fruchtbarkeitsziffer zwischen 1979 und 1999 von 7,0 auf 3,3 Kinder pro Frau gesenkt werden. 2009 lag die zusammengefasste Fruchtbarkeitsziffer bei 2,5 Kindern pro Frau. Umfragen von 1999 zeigten, dass die Menschen in Bangladesch mit damals 3,3 Kindern pro Frau weit mehr Kinder bekamen, als sie sich eigentlich wünschten (im Durchschnitt nur 2,3 Kinder). Aufgrund der in Bangladesch weit verbreiteten Armut hatte ein Teil der Frauen noch immer keinen Zugang zu sicheren und wirksamen Methoden der Familienplanung. Im Jahr 2011 lebten 28,4 Prozent der Bevölkerung in den Städten. In fast allen Landesteilen liegt die Bevölkerungsdichte über 500 Einwohner/km². Nur in den Distrikten um Chittagong (außer Cox’s Bazar) liegt sie zwischen 75 Einwohner/km² und 500 Einwohner/km². Zu den Gebieten mit der höchsten Bevölkerungsdichte zählen Narsingdi und Narayanganj mit über 2000 Einwohner/km² und die Hauptstadt Dhaka mit mehr als 7000 Einwohner/km². Sprachen. Im Gegensatz zu den anderen Staaten Südasiens ist Bangladesch ethnisch relativ einheitlich. Etwa 98 Prozent der Bevölkerung sind Bengalen mit Muttersprache Bengali. Das indoarische Bengali ist auch Amtssprache des Landes. Unter der Mittel- und Oberschicht ist Englisch als Bildungssprache weit verbreitet und wird als Verwaltungs- und Geschäftssprache genutzt. Zu den wenigen Minderheiten gehören die Bihari (1 Prozent), die aufgrund religiöser Konflikte infolge der Teilung Britisch-Indiens bei dessen Unabhängigkeit aus Bihar in das damalige Ostpakistan kamen. Sie sprechen zumeist Urdu. Daneben gibt es in den Chittagong Hill Tracts im Südosten und im Norden des Landes matrilineare Minderheiten, wie Garo und Khasi, die meist tibetobirmanischer Sprache sind. Insgesamt werden 39 verschiedene Sprachen und Idiome gesprochen. Religion. Giebelkreuz der durch portugiesische Missionare 1677 begründeten römisch katholischen heutigen "Holy Rosary's Church" („Kirche zum Heiligen Rosenkranz“) in Dhaka Der Großteil der Bevölkerung, rund 90 Prozent, bekennt sich zum Islam, gefolgt vom Hinduismus mit etwa neun Prozent und dem Buddhismus mit weniger als einem Prozent. Die erste Verfassung Bangladeschs von 1972 verankerte den Säkularismus als eines ihrer Grundprinzipien. Nach der Ermordung von Präsident Sheikh Mujibur Rahman im Jahr 1975 ersetzte das Militärregime (1975–1977) den Begriff Säkularismus durch die Passage „Absolutes Vertrauen und der Glaube an den Allmächtigen Allah soll die Basis allen Handelns sein“. Die folgenden Regierungen ließen diese Änderung unangetastet. Im Jahr 2010 bestätigte der Supreme Court allerdings die säkularen Prinzipien der Verfassung von 1972 und die Ersetzung wurde als illegal und verfassungswidrig wieder aufgehoben. Der Islam ist gem. Art. 2A der Verfassung zwar Staatsreligion, Hinduismus, Buddhismus, Christentum und anderen Religionen wird allerdings derselbe Status gewährt und dieselben Rechte eingeräumt. Unter den Muslimen ist der Sufismus verbreitet, auch die Tablighi Jamaat hat in Bangladesch eine große Anhängerschaft. Seit den 1980er Jahren wächst außerdem der Einfluss islamischer Fundamentalisten. Zu Beginn des 20. Jahrhunderts waren 33,9 Prozent der Bevölkerung Hindus. Seitdem ging dieser Anteil stark zurück. Vor der Teilung Indiens 1947 waren noch 28 Prozent der Bevölkerung hinduistischen Glaubens, jedoch flohen dann fast vier Millionen Hindus nach Indien. Im Jahre 1971 beging die pakistanische Armee mit Unterstützung von lokalen Bihar-Milizen durch Massaker an religiösen Minderheiten (besonders an Hindus) den Völkermord an den Bengalen, Maximalschätzungen sprechen von bis zu drei Millionen Toten. Dem Christentum gehören etwa 0,3 Prozent der Bevölkerung an (meist römisch-katholischen Glaubens). Animismus ist eher selten; sein Anteil wird auf etwa 0,1 Prozent geschätzt. Obwohl der Islam eine gewisse Rolle in der Gesetzgebung spielt, gibt es in Bangladesch keine formelle Implementierung der Scharia und islamische Rechtsvorstellungen werden auch nicht auf Nicht-Muslime angewendet. Das Familienrecht unterscheidet sich zwischen den einzelnen Religionen etwas. Männlichen Muslimen ist es erlaubt, bis zu vier Ehefrauen zu nehmen, allerdings nur mit dem schriftlichen Einverständnis der ersten Ehefrau. In der Realität kommt das selten vor und es gibt einen starken gesellschaftlichen Druck gegen die Polygamie. Hindus ist die Ehescheidung nur unter bestimmten Voraussetzungen erlaubt (ungewollte Kinderlosigkeit, Misshandlungen, Geisteskrankheit). Hindu-Witwen dürfen sich legal wiederverheiraten. Es gibt auch keine gesetzlichen Beschränkungen für Heiraten von Angehörigen verschiedener Religionen. Die gesetzlichen Bestimmungen können allerdings nur dann in Anspruch genommen werden, wenn die Eheschließung registriert wurde, was keine Pflicht ist. In der Regierung von Bangladesch sind auch Angehörige religiöser Minderheiten vertreten (2012 waren 5 von 51 Ministern keine Muslime: 2 Buddhisten, 2 Hindus, 1 Christ). Auch in der höheren Verwaltung findet man Nicht-Muslime. Allerdings gibt es keine offiziellen Stastitiken, die darüber eine Aussage erlauben, inwieweit diese Minderheiten ihrem Anteil an der Bevölkerung gemäß repräsentiert sind. Der "Vested Property Act" (Gesetz über rechtmäßigen Landbesitz), der bis 2001 in Kraft erlaubte der Regierung, Landbesitz von „Landesfeinden“ (in der Praxis waren das praktisch ausschließlich Hindus) zu enteignen. Dadurch kamen über die Jahre 2,6 Millionen "acre"s (10.500 km²) in Regierungsbesitz. Die betroffenen Hindus versuchten auf dem Rechtsweg ihr Land zurückzugewinnen. Mit der "Vested Properties Return (Amendment) Bill" (Gesetz über die Rückgabe von rechtmäßigem Landbesitz) im Jahr 2011 wurde die Regierung verpflichtet, Listen über den eingezogenenen Landbesitz zu veröffentlichen, anhand derer Ansprüche auf Rückgabe gestellt werden können. Seit etwa 2013 sind islamistische Mordanschläge auf Säkularisten zu einem zunehmenden Problem geworden, das die Beachtung der Weltöffentlichkeit gefunden hat. Bei den Mordopfern handelte es sich in der Regel um Blogger in sozialen Netzwerken, Journalisten oder Buchautoren, die sich öffentlich zum Atheismus bekannt und diesen propagiert hatten. Die Opfer wurden typischerweise von einer Gruppe von islamischen Extremisten überfallen und in brutaler Weise mit Macheten vor den Augen ihrer Umgebung zu Tode gehackt. Zu den bekanntesten Opfern gehörte Avijit Roy (gest. 26. Februar 2015). Regionalgeschichte bis zur Abspaltung Bangladeschs von Pakistan. Historische Karte von Ostbengalen und Assam (1907) Lage West- und Ostpakistans (1971) innerhalb Asiens a> (dt. "Nationales Märtyrerdenkmal") in Sabhar bei Dhaka erinnert an die Opfer des Unabhängigkeitskampfes Bangladesch bildete bis 1947 einen Teil Britisch-Indiens. Nach der Teilung des Landes in einen mehrheitlich hinduistischen, säkularen Staat (Indien) und einen muslimischen Staat (Pakistan) wurde im Zuge der Teilung Bengalens 1947 das ebenfalls überwiegend islamische Ostbengalen Pakistan (als "Ost-Pakistan") zugeschlagen, von dem es geographisch durch Indien getrennt war. Trotz der gemeinsamen islamischen Religion trennten Westpakistan und Ostpakistan nicht nur sprachliche und kulturelle Verschiedenheiten. Der fruchtbare Osten erzielte mit seinen Jute- und Reisexporten Überschüsse, die fast ausschließlich dem Westteil zugutekamen, wo sie wiederum vorrangig für das Militär ausgegeben wurden. Insbesondere im pakistanisch-indischen Kaschmirkrieg im Jahr 1965 wurde deutlich, dass einerseits Westpakistan keinerlei Anstrengungen zur militärischen Sicherung Ostpakistans unternahm, andererseits die Kaschmirfrage in Ostpakistan kaum auf Interesse stieß. Zudem waren Bengalen sowohl im Militär als auch in der Staatsverwaltung stark unterrepräsentiert. Scheich Mujibur Rahman, der charismatische Führer der ostpakistanischen Awami-Liga, forderte deshalb weitestgehende Autonomie für Bengalen (Ostpakistan). Nach dem Rücktritt von Präsident Muhammed Ayub Khan 1968 sah sein Nachfolger General Agha Muhammad Yahya Khan keine Alternative zur Ausschreibung der ersten freien Wahlen in Gesamtpakistan seit der Staatsgründung. Angesichts des Erdrutschsieges der Awami-Liga im Osten, der durch die Unzufriedenheit mit der Zentralregierung nach dem verheerenden Zyklon im November 1970 mit beeinflusst wurde, und der Bevölkerungsverhältnisse in beiden Landesteilen hätte dies zu einer Awami-Regierung für den Gesamtstaat führen müssen. Diese stieß in Westpakistan vor allem beim dortigen Wahlsieger Zulfikar Ali Bhutto und der pakistanischen Armee auf Widerstand. Sie entschlossen sich zu einer blutigen Unterdrückung der separatistischen Bestrebung, die vor allem auf eine Eliminierung der bengalischen Eliten hinauslief. Nur einen Tag nach der Machtübernahme der Armee proklamierte Mujibur Rahman die Unabhängigkeit des Landes. Eine endgültige Entscheidung konnte aber erst durch ein Eingreifen Indiens in Ostpakistan, das sich im Bangladesch-Krieg für die bengalische Seite starkgemacht hatte, herbeigeführt werden (3. bis 16. Dezember 1971). Am 16. Dezember 1971 erlangte Ostpakistan schließlich auch völkerrechtlich die Unabhängigkeit und gab sich den Namen "Bangladesch". Nach Eintreffen aus pakistanischer Haft verkündete Rahman am 10. Januar 1972 in Dhaka vor einem Millionenpublikum den Bruch der früher staatlich vereinten Landesteile West- und Ostpakistan. Zwei Tage später stellte er eine Regierung vor, in der er die Funktion des Ministerpräsidenten ausübte. Nach Darstellung der Regierung von Bangladesch kostete der Unabhängigkeitskrieg drei Millionen Bangladescher das Leben und mehr als 20 Millionen Flüchtlinge flohen nach Indien. Viele Inder sehen die unermessliche Zahl an Flüchtlingen nach Nordostindien als eigentlichen Grund für das indische Eingreifen in den Konflikt. Ab dem Frühjahr 1972 wurde Bangladesch nach und nach von der Mehrheit der Staatengemeinschaft anerkannt; Pakistan erkannte das Land im Februar 1974 an. Demokratische Zwischenphase und Militärdiktatur. Nach seiner Unabhängigkeit wurde Bangladesch eine parlamentarische Demokratie mit Mujibur Rahman als Premierminister. 1973 gewann die Awami-Liga die absolute Mehrheit. 1973, 1974 und Anfang 1975 traten landesweit Hungersnöte auf. Mujibur Rahman führte ein Ein-Parteien-Regime ein und benannte die Awami-Liga in BAKSAL um. Am 15. August 1975 wurden Mujibur Rahman und seine Familie bei einem Militärputsch umgebracht. In den nächsten drei Monaten folgten eine Reihe von Putschen und Gegenputschen, bis General Ziaur Rahman (auch "Zia" genannt) an die Macht kam. Er führte wieder ein Mehr-Parteien-System ein und gründete die BNP (Bangladesh Nationalist Party). Zia wurde 1981 von Militärs umgebracht. 1982 kam General Hossain Mohammad Ershad bei einem unblutigen Staatsstreich an die Macht. Gegen das Kriegsrecht und gegen die von der Regierung verfolgte Islamisierung der Gesellschaft gab es zahlreiche Protestaktionen und Streiks. Zu sozialen Spannungen kam es auch mit den 500.000 in Bangladesch lebenden Biharis, die überwiegend in Lagern leben mussten. General Ershad versuchte mit der Privatisierung von Staatsbetrieben, Anreize für ausländische Investoren zu schaffen und die Arbeitslosigkeit von um die 30 Prozent zu senken. Er regierte bis zu einem Volksaufstand 1990. Machtwechsel und Demokratisierung. Nach dem Volksaufstand 1990 ist Bangladesch zur parlamentarischen Demokratie zurückgekehrt. Zias Witwe Khaleda Zia errang mit der BNP 1991 und 2001 Wahlsiege und war von 1991 bis 1996 und von 2001 bis 2006 Regierungschefin. Von 1996 bis 2001 war Hasina Wajed, eine überlebende Tochter von Mujibur Rahman und Führerin der Awami-Liga, Regierungschefin. Dieses Amt hat sie seit 2009 wieder inne. In Bangladesch gibt es massive Korruption, Unordnung und politische Gewalt. 2007 machte Bangladesch aufgrund einer umstrittenen Parlamentswahl von sich reden, die im Januar 2007 stattfinden sollte. Anfang Januar 2007 kam es zu so schweren Unruhen unter Führung der oppositionellen Awami-Liga, dass Staatspräsident Iajuddin Ahmed am 11. Januar den Ausnahmezustand über das Land verhängte. Eine Übergangsregierung unter dem Ökonomen Fakhruddin Ahmed übernahm die Amtsgeschäfte. Ein neuer Wahltermin wurde zunächst nicht festgesetzt. Aus Regierungskreisen hieß es, dass die Übergangsregierung zunächst Reformen durchführen wolle, um freie und faire Wahlen zu garantieren. Außerdem solle die Korruption bekämpft werden. Im Zeitraum 11. Januar–13. März 2007 wurden in ganz Bangladesch fast 100.000 Menschen verhaftet. Unter den Verhafteten waren viele Spitzenpolitiker, wie der Sohn der ehemaligen Premierministerin Khaleda Zia (BNP). Er galt als einer der korruptesten Politiker des Landes. Obwohl die Notstandsregierung in der Bevölkerung gewisse Popularität erlangen konnte, formierten sich im August 2007 Studentenproteste, die bald auf das ganze Land übergriffen. Ende August sah sich die Regierung daher gezwungen, eine Ausgangssperre zu verhängen. Die Wahl 2008 wurde von der Awami-Liga unter Sheik Hasina Wajed deutlich gewonnen. Sie verfügte nun über mehr als dreiviertel der Sitze im Parlament. Die Wahl 2014 wurde von den meisten oppositionellen Parteien boykottiert, die Awami-Liga konnte ihren Wahlsieg wiederholen. Seit etwa 2008 ist es zu einer deutlichen Verbesserung und einer Intensivierung der gegenseitigen Beziehungen zum benachbarten Indien gekommen, die unter anderem in dem am 7. Mai 2015 endgültig ratifizierten Indisch-bangladeschischen Grenzvertrag resultierte. Politisches System. Nach der Verfassung von 1972 (letztmals geändert 2004) ist Bangladesch eine Republik mit einem Einkammerparlament. Das Parlament Bangladeschs wird Jatiyo Sangshad (deutsch: „Nationalversammlung“) genannt und hat 350 Abgeordnete, von denen 300 direkt gewählt werden, 50 Sitze sind für Frauen reserviert. Das Parlament wird auf fünf Jahre nach dem Prinzip des Mehrheitswahlrechtes gewählt. Das allgemeine Wahlrecht gilt ab 18 Jahren. Regierungschef des Landes ist der Premierminister, der vom Parlament gewählt wird. Der Präsident übernimmt als Staatsoberhaupt zeremonielle Aufgaben. Er wird ebenfalls vom Parlament auf fünf Jahre gewählt. Es ist eine einmalige Wiederwahl möglich. Außenpolitik. Bangladesch betreibt eine auf Ausgleich bedachte Außenpolitik. Der geographischen Lage, der Bedeutung ausländischer Entwicklungshilfe und den wirtschaftspolitischen Interessen des Landes entsprechend, verfolgt Bangladesch eine konstruktive Zusammenarbeit im regionalen Rahmen, innerhalb der islamischen Staatenwelt sowie mit westlichen Staaten. Da sich viele der drängenden Probleme des Landes (Wasserhaushalt, Energie, Zugang zu maritimen Ressourcen) nur mit den unmittelbaren und regionalen Nachbarn lösen lassen, spielen die Beziehungen zu Indien und zu Myanmar eine herausgehobene Rolle. Indien hat für das Entstehen des unabhängigen Bangladesch eine wichtige Rolle gespielt. Dennoch sind die Beziehungen nicht ohne Probleme. Indien umschließt Bangladesch geographisch fast völlig und hat entscheidenden Einfluss auf wichtige Faktoren, die das künftige Schicksal Bangladeschs bestimmen. So kontrolliert Indien die Oberläufe aller wichtigen Flüsse, die Bangladesch durchqueren. Die Ausbeutung der in der Bucht von Bengalen vermuteten Gasvorkommen ist auch von einer Einigung mit Indien über den Grenzverlauf abhängig. Eine Reihe weiterer schwieriger Fragen wie Transitrechte, illegaler Grenzübertritt und Migration, Wasserverteilung, Maßnahmen gegen den Terrorismus und Schmuggel werden in regelmäßigen Regierungsgesprächen erörtert. Rund 200 Enklaven gestalten die Grenzlinie höchst komplex. Indien baute ab 1993 ein 3200 Kilometer langes Bauwerk zur Befestigung der Haupt-Grenzlinie. 2015 nahmen Bangladesch und Indien ein weiteres Mal Verhandlungen zum Austausch von Enklaven auf. Am 7. Mai 2015 wurde ein Grenzvertrag unterzeichnet, demzufolge Bangladesch 111 indische Enklaven erhält und Indien im Gegenzug 52 bangladeschische auf seinem Gebiet. Damit wird eine „geregelte Grenze“ hergestellt. 53.000 Bewohner der betroffenen Gebiete können entscheiden, welchem der zwei Staaten sie angehören wollen. Die Beziehungen zu China sind gut und vor allem durch das Engagement der chinesischen Regierung und chinesischer Unternehmen beim Ausbau der Infrastruktur in Bangladesch gekennzeichnet. China ist der nach Indien zweitgrößte Handelspartner und der wichtigste Lieferant von Militärgütern. Ein besonderes Verhältnis besteht zu den arabischen Golfstaaten, in denen mehr als die Hälfte der über 7 Millionen bangladeschischen Gastarbeiter tätig sind. Deren Überweisungen sind nach den Exporterlösen der Textilbranche die wichtigste Devisenquelle für Bangladesch. Bangladesch ist zudem Gründungsmitglied der SAARC (Südasiatische Vereinigung für regionale Kooperation). Bildungswesen. Das öffentliche Bildungswesen Bangladeschs folgt dem britischen Modell, das in England 1947 eingeführt wurde. Es besteht eine offizielle fünfjährige Schulpflicht, und der Besuch öffentlicher Schulen ist kostenlos. Allerdings verlassen viele Schüler die Schule ohne Abschluss. Die Zahl der Schüler in der Sekundarstufe sinkt daher, der Anteil der Mädchen ist in den höheren Klassen sehr viel geringer als der der Jungen. Daher wird für Mädchen ab der 6. Klasse ein Teil der monatlichen Kosten vom Staat übernommen. 2013 waren 42,3 % aller Bangladescher über 15 Jahre Analphabeten. Bei den Frauen lag die Quote bei 46,6 %, unter den Männern konnten 38 % nicht lesen und schreiben. Das staatliche Bildungssystem umfasst vier Hauptstufen: Auf die fünfjährige Grundschule folgt die dreijährige Mittelschule von der sechsten bis zur achten Klasse. Danach kommt die zweijährige Ausbildung an einer "High School," die mit einer "Higher Secondary School, HSC" Prüfung abgeschlossen wird. Der erfolgreiche Abschluss der "Higher Secondary School" berechtigt zum Besuch einer staatlichen Hochschule oder Universität. In Bangladesch gibt es über 105 anerkannte staatliche und private Universitäten. Ein Bachelor-Studium dauert vier Jahre und ein Master-Studium sechs Jahre. Danach besteht auch die Möglichkeit, zu promovieren. Neben den staatlichen Schulen stellen Tausende von Madaris oder Koranschulen eine wichtige Stütze des Bildungswesens dar. Sie bieten in der Regel auch Kindern aus armen Familien, denen der Besuch einer staatlichen Bildungseinrichtung nicht möglich wäre, eine kostenlose Grundbildung. Gesundheitswesen. Die weibliche Lebenserwartung bei der Geburt betrug 2014 72,6 Jahre und die männliche 68,8. Ein hoher Anteil der Kleinkinder (2011: 36,8 %) in Bangladesch ist untergewichtig. Die HIV-Infektionsrate ist niedrig. Die Kindersterblichkeit konnte stark gesenkt werden. 1979 starben 21 Prozent der Kinder vor ihrem 5. Geburtstag, im Jahr 2014 waren es nur noch 4,6 Prozent. Insgesamt verfügen 84 % der Einwohner über Zugang zu Trinkwasser (Stand: 2014). Jedoch hat nur etwa jeder zweite (54 %) Zugang zu sanitären Einrichtungen (Stand: 2014). Streitkräfte und Verteidigung. Die Streitkräfte Bangladeschs umfassen rund 450.000 Soldaten. Rund 10.498 Soldaten sind hierbei im Einsatz als Friedenstruppen der Vereinten Nationen, damit rangiert Bangladesch an erster Stelle. Die eingesetzten Soldaten gelten weitgehend als diszipliniert und zuverlässig, mehrmals wurde militärisches Führungspersonal aus Bangladesch zu Kommandeuren von Friedensmissionen ernannt. Bangladesch bezieht jährlich 200 Millionen US-Dollar an Rekompensation für diese Einsätze (Stand 2006), dies stellt eine wichtige Einkommensquelle für das Land und die Streitkräfte dar. Weiterhin gilt das daraus entstehende Interesse der Streitkräfte Bangladeschs an einer guten Beziehung zur UN als ein innenpolitisch wichtiger stabilisierender Faktor. Die "Bangabandhu (F-25)", eine Fregatte der Marine von Bangladesch (2012) Verwaltungsgliederung. Verwaltungsgliederung in Distrikte "(districts)" und Unterdistrikte "(subdistricts)" Bangladesch ist in sieben Verwaltungseinheiten "(Divisions)", die wiederum in 64 Bezirke "(Districts)" untergliedert sind, aufgeteilt. Städte. Die Hauptstadt Dhaka, vor Chittagong und Khulna die größte Stadt des Landes, hatte bei der Volkszählung am 22. Januar 2001 in der eigentlichen Stadt 5.378.023 Einwohner (9.912.908 in der Agglomeration). Im Jahre 2010 wird die Zahl der Bewohner auf etwa 15 Millionen geschätzt. Fast die Hälfte von ihnen lebt in Elendsvierteln. Dhaka gehört als eine der am schnellsten wachsenden Städte weltweit zu den Megastädten. Wirtschaft. Bangladeschs Wirtschaft ist, wie in vielen anderen Entwicklungsländern, auf solidem Wachstumskurs. In den letzten Jahren bewegte sich das Wirtschaftswachstum bei 5 %, 2013 erreichte es 5,8 %. Nach wie vor ist die Bedeutung der Landwirtschaft sehr groß; 56 % aller Erwerbstätigen arbeiten im Agrarbereich. Dessen Beitrag zum BIP beläuft sich nur auf 23 %, während die Industrie 25 % und der Dienstleistungssektor 52 % erwirtschaften. Die Hauptprodukte der Landwirtschaft sind Reis und Jute. Von wachsender Bedeutung sind Weizen, Mais und Gemüse. Weitere Produkte sind Zuckerrohr, Holz und Tee. Jute war ein bedeutendes Exportprodukt, doch sie wird als Verpackungsmaterial zunehmend von Kunststoffen verdrängt. An eigenen fossilen Energieträgern besitzt Bangladesch Erdgas und Kohle, die hauptsächlich im Nordosten des Landes für den Eigenbedarf gefördert werden. Die Industrie in Bangladesch erzeugt Textilien, Jute und Juteprodukte, Leder, Lederprodukte und Keramik. Das Land wurde zum zweitgrößten Textilproduzenten der Welt (siehe Textilindustrie in Bangladesch). Außerdem gibt es ein Stahlwerk, Werften und Chemieunternehmen sowie Pharmaunternehmen. Die Abwrackwerften bei Chittagong sind in der Schiffsverschrottung tätig. Die international operierende Fluggesellschaft Biman Bangladesh Airlines gehört zu 100 % dem Staat. Mit einem BIP pro Kopf von etwa 460 US-Dollar im Jahr 2007 gehört Bangladesch zu den ärmsten Ländern der Erde. Bangladesch nimmt den 142. Platz von 187 Ländern beim Human Development Index ein. Ein großes Problem des Staates ist der hohe Grad an Korruption. Bangladesch liegt auf Platz 145 von 174 im Korruptionswahrnehmungsindex 2014, der von Transparency International veröffentlicht wird. Außenhandel. Im Jahr 2013 wurden für 32,94 Milliarden US-Dollar Waren importiert und für 26,91 Milliarden US-Dollar exportiert, so dass die Außenhandelsbilanz einen negativen Saldo von 6,03 Milliarden US-Dollar aufwies. Hauptexportgut sind Textilien, die hauptsächlich im Auftrag von ausländischen Unternehmen (hauptsächlich aus Deutschland und den Vereinigten Staaten) produziert werden. Staatshaushalt. Der Staatshaushalt umfasste 2013 Ausgaben von umgerechnet 24 Mrd. US-Dollar; dem standen Einnahmen von umgerechnet 17,2 Mrd. US-Dollar gegenüber. Daraus ergibt sich ein Haushaltsdefizit in Höhe von 4,9 % des BIP. Die Staatsverschuldung betrug 30,9 % des BIP. Infrastruktur. Die Infrastruktur Bangladeschs ist in einem schlechten Zustand, unter anderem durch häufige und starke Überschwemmungen während der Monsunzeit. Das Straßennetz hat eine Länge von 21.269 Kilometern, davon sind nur ca. 5 Prozent (1063 Kilometer) befestigt. (siehe dazu auch Liste von Nationalstraßen in Bangladesch) Das Schienennetz des Staates umfasst 2622 Kilometer (Stand: 2008). Es gibt drei internationale Flughäfen (Dhaka, Chittagong und Sylhet) und zwei Seehäfen (Chittagong, Mongla). Literatur. Die bengalische Literatur ist etwa 1000 Jahre alt und erreicht im Mogulreich eine Blüte. In moderner Zeit wurde sie durch die Arbeiten von Michael Madhusudan Dutt, Rabindranath Thakur, Kazi Ahdul Wadud, Kankim Chandra Chattopadhyai, Mir Mosharraf Hossain und den rebellischen Poeten Kazi Nazrul Islam, der 3000 Lieder dichtete, international bekannt. Die strengen lyrischen Anekdoten des Dichters Jasimuddin hielten durch ihre Beschreibungen des harten Lebens auf dem Lande die Verbindung zu den geplagten Massen aufrecht. Die zeitgenössische bengalische Literatur erhielt kreative Impulse von einer neuen Generation von Schriftstellern wie den Lyriker Shamsur Rahman, der 60 Gedichtbände verfasste, Humayun Ahmed und Begum Sufia Kamal. Die pulsierende bengalische Literaturszene experimentiert mit sozialem und kritischen Realismus. Musik. Als Bewohner eines Landes mit starken Regenfällen, mächtigen Flüssen und üppigem Grün haben die Bangladescher eine starke Verbindung zur Natur. Ihre Musik ist emotional, ekstatisch und romantisch, für jede Gelegenheit, jede Stimmung und Jahreszeit gibt es ein eigenes Lied. Moderne bengalische Musik stammt von zwei unterschiedlichen Schulen. Die erste, eine Mischung von Ost und West, wurde von Rabindranath Thakur initiiert, die zweite von Kazi Nazrul Islam angeführt. Die Musik spielt auch im Leben der Menschen in Bangladesch eine große Rolle, im Grunde gibt es kein Haus, in dem nicht ein Lied erklingt. Film. Die Filmindustrie Bangladeschs hat ihr Zentrum in der Hauptstadt Dhaka. Vor der Teilung Indiens im Jahre 1947 wurden Filme in bengalischer Sprache meist in Kalkutta (Kolkata) produziert. Der größte Teil der bangladeschischen Filmproduktion sind Unterhaltungsfilme im typischen südasiatischen Stil mit Tanz- und Gesangseinlagen. Zu den von Kritikern meistbeachteten Filmemachern gehören Zahir Raihan, Alamgir Kabir, Humayun Ahmed, Tanvir Mokammel und Tareque Masud. Seit 2003 reicht das Land Filme für die Wahl zum Oscar für den besten fremdsprachigen Film ein. Küche. Bangladesch führt eine typische südasiatische Küche. Es werden hauptsächlich Reisgerichte aufgetischt, die mit einer gewissen Schärfe aufwarten. Oftmals werden Gerichte mit Fleisch, Huhn oder Fisch zubereitet, aber auch mit Gemüsen. Ebenso häufig sind Reisgerichte in Verbindung mit Meeresfrüchten, insbesondere mit Krabben. Süßigkeiten werden oft konsumiert, wobei die Zutaten und die Geschmacksrichtung stark variieren können. Ebenfalls häufig gibt es Süßspeisen auf Milchbasis, zum Beispiel Sandesh oder auch Pithas. Als Getränk erhält man in der Regel zum Beispiel Tee oder Lassi. Daneben besteht eine große Zahl weiterer Milch- und Fruchtsaftgetränke. Feiertage. Die religiösen Feiertage folgen dem islamischen Mondkalender. Sie verschieben sich daher im Vergleich zum gregorianischen Kalender jedes Jahr um etwa elf Tage zurück. Bulgarien. Bulgarien (; amtliche Bezeichnung "Republik Bulgarien", bulgarisch) ist eine Republik in Südosteuropa mit etwa 7,3 Millionen Einwohnern. Bulgarien ist EU- und NATO-Mitglied. Geographie. Die Republik Bulgarien liegt im Osten der Balkanhalbinsel. Bulgarien grenzt im Norden an Rumänien, im Westen an Serbien und Mazedonien, im Süden an Griechenland und die Türkei. Im Osten bildet das Schwarze Meer die natürliche Grenze. Hauptstadt und Regierungssitz der Republik Bulgarien ist Sofia. Weitere bedeutende wirtschaftliche, administrative und kulturelle Zentren sind die Städte Plowdiw, Warna, Burgas, Russe und Stara Sagora. Das Territorium Bulgariens besteht zu zwei Dritteln aus den Tiefebenen, die durch die Flüsse Donau und Mariza mit ihren zahlreichen Nebenflüssen gebildet werden. Dazu wird es durch zwei große Gebirgsketten markiert: das Balkangebirge (bulg. Стара Планина/Stara planina = Altes Gebirge) und die Rhodopen. Die höchsten Erhebungen des Balkangebirges sind der Berg Botew (2376 Meter) und der Tschumerna (1536 Meter). Die nördlich des Balkangebirges gelegene Donautiefebene wird durch die Donau begrenzt, die hier die Staatsgrenze zu Rumänien darstellt. In ihr liegen die Städte Plewen, Razgrad, Russe und Schumen sowie Warna am Schwarzen Meer. Südlich des Balkangebirges erstreckt sich die Oberthrakische Tiefebene, auch Mariza-Ebene genannt. In diesem "Mittelbulgarischen Becken" finden sich die Städte Plowdiw und Stara Sagora sowie Burgas am Schwarzen Meer. Diese Ebene wird im Westen und im Süden durch die Rhodopen sowie die Gebirge Sakar und Strandscha im Süden begrenzt. Die höchste Erhebung der Rhodopen ist der Berg Großer Perelik (2191 Meter). Im Südwesten des Landes befinden sich mit dem Rila- und dem Pirin-Gebirge zwei weitere Hochgebirge mit Gipfeln zwischen 2000 und 3000 Metern Höhe, wobei der Berg Musala (2925 Meter) der höchste auf der gesamten Balkanhalbinsel ist. Bulgarien verfügt über drei National- (Rila, Zentrales Balkangebirge und Pirin), elf Naturparks und 55 Naturreservate. Das Land hat Anteile am Grünen Band Europas und liegt im Blauen Herz Europas. Klima. Norden: Im Norden Bulgariens herrscht kontinentales Klima mit heißen und trockenen Sommern sowie kalten, schneereichen Wintern. Stara Planina (Balkangebirge): Auf der Nordseite schneereiche Winter, auf der Südseite zur gleichen Jahreszeit selten Schneefälle. Besonders im Westen sowie im Rila- und Piringebirge herrscht das sogenannte alpine Klima. Zentralbulgarien und Südwesten: Südlich des Balkangebirges liegt die Oberthrakische Tiefebene, in welche das Kontinentalklima nicht vordringen kann. Südlich des Gebirges sorgen also maritime Einflüsse für einen gemäßigten Winter, ein regenreiches Frühjahr und einen warmen Sommer. An der Grenze zu Griechenland und zur Türkei – unter dem Einfluss der Ägäis – verstärkt sich der mediterrane Charakter des Klimas. Bulgarische Rhodopen: Die drei Gebirge Rila, Pirin und Rhodopen nehmen die westliche Hälfte Südbulgariens ein. Im Gegensatz zu den deutlich höheren Schwestergebirgen weisen die Rhodopen nur im Westen Gebirgsklima auf, im Osten zeigt sich bereits der Übergang zum Küstenklima. Schwarzes Meer: Das Klima an der Küste zeigt ein mediterranes Profil, jedoch weht der Wind zumeist vom Schwarzen Meer aus östlicher Richtung übers Land. In der Folge sind die Sommer weniger warm als in den Subtropen und die sehr niederschlagsreichen Winter sind milder. Von Mai bis September steigt die Temperatur in der Regel täglich über die 20-°C-Marke. Im kältesten Monat, dem Januar, fällt sie nur selten unter die 0-°C-Marke. Klimaentwicklung: Laut Worst-Case-Szenario des Intergovernmental Panel on Climate Change (IPCC) wird Bulgarien im Jahr 2100 landesweit subtropisch-humides Klima aufweisen. Demografie. Demographische Entwicklung Bulgariens (Millionen Einwohner) Bulgarien hatte 2005 rund 7,72 Millionen Einwohner; die Bevölkerungsdichte lag bei 70 Einwohnern/km². Der Großteil der Bevölkerung lebt in den Städten südlich des Balkangebirges. Die Bevölkerungsentwicklung war in den vergangenen Jahren rückläufig, 2001 betrug sie −1,14 Prozent, Ende 2008–0,43 Prozent und Anfang 2011 −0,7 Prozent. Die Lebenserwartung liegt laut Weltgesundheitsorganisation für Männer bei 69 und für Frauen bei 76 Jahren. Laut der Volkszählung von 2015 leben 6.453.183 Personen in Bulgarien. verließen das Land und ließen sich in mehreren westeuropäischen Ländern nieder, vor allem jedoch in Spanien, Italien und Deutschland. In dieser Periode konnten nur zwei Provinzen Sofia-Stadt (+ 120.749 Personen) und Warna (+ 13.061 Personen) sowie nur vier Städte Sofia, Warna, Burgas und Weliko Tarnowo einen Bevölkerungszuwachs verzeichnen. In vier Provinzen (Sofia-Stadt, Burgas, Warna und Plowdiw) liegt die Bevölkerungszahl über 400.000. 39,2 Prozent der Bevölkerung leben in neun Gemeinden, die eine Einwohnerzahl von jeweils mehr als 100.000 Einwohnern aufweisen. In 60 Gemeinden liegt die Einwohnerzahl unter 6000. Der Volkszählung zufolge lebt die Bevölkerung Bulgariens in 255 Städten und 5047 Dörfern. 5.339.001 Personen, oder 72,5 Prozent der Einwohner, leben in Städten und 2.025.569, oder 28,9 Prozent auf dem Land. 33,6 Prozent der Bevölkerung leben in den sieben größten Städten. 15,3 Prozent der Bevölkerung sind unter 15 Jahre alt. Die Fertilitätsrate liegt etwa bei 1,3 Kindern pro Frau. Am jüngsten ist die Bevölkerung in den Provinzen Burgas (14,7 Prozent) und Sliwen (17,2 Prozent); am ältesten in den Provinzen Widin (26,5 Prozent der Bevölkerung), Montana und Gabrowo (beide 24 Prozent), Lowetsch (23,3 Prozent). Ethnien. Nach der Volkszählung 2011 sind 84,8 Prozent der Bevölkerung Bulgaren; 8,8 Prozent sind Türken (siehe: Balkan-Türken), 4,9 Prozent Roma. Außerdem leben Russen (9.978), Armenier (6.552), Walachen (3.684, im Norden Rumänen, im Süden Aromunen) und die muslimischen, bulgarisch sprechenden Pomaken in Bulgarien. Etwa ein Viertel bis ein Drittel der heutigen bulgarischen Bevölkerung sind Nachkommen von bulgarischen Flüchtlingen aus Makedonien (→ Makedonische Bulgaren) und Thrakien (→ Thrakische Bulgaren). Trotz dieser Distanz nehmen diese Gruppen in reger Weise am gesellschaftlichen und politischen Leben des Landes teil. Beispielsweise war die Bewegung für Bürgerrechte und Freiheiten (DPS), die überwiegend von türkischstämmigen und muslimischen Bürgern unterstützt wird, zwischen 2001 und 2009 in zwei Koalitionsregierungen vertreten. Die türkische Minderheit ist laut der Volkszählung von 2001 besonders zahlreich in den Bezirken Kardschali, Rasgrad, Targowischte, Silistra und Schumen vertreten. Die Pomaken sind vor allem im Bezirk Smoljan anzutreffen. Als Reaktion auf den wachsenden Einfluss dieser Minderheiten formierte sich 2005 die nationalistisch orientierte Partei Ataka. 2009 gründeten überwiegend pomakischstämmige Bürger die Partei "Progress und Wohlstand", da sie mit der Politik der DPS unzufrieden waren. Jedoch verbietet die Bulgarische Verfassung von 1991 (Artikel 11, Abs. 4) eine Gründung von Parteien auf ethnischer, rassischer oder religiöser Grundlage. Die Roma gehören in Bulgarien zu den am stärksten von Marginalisierung betroffenen Bevölkerungsgruppen. Ihre soziale Lage ist von Armut, einem zumeist niedrigen Ausbildungs- und Erwerbsniveau sowie sozialer Stigmatisierung geprägt. Diese Lebenssituation hat sich durch den Transformationsprozess der 1990er Jahre verstärkt und trifft besonders die Roma-Frauen, die sowohl unter sozialer Perspektivlosigkeit als auch unter patriarchalen Familienstrukturen zu leiden haben. Bulgarien wird, ähnlich wie Israel und einige weitere osteuropäische und asiatische Staaten, als ethnische Demokratie beschrieben, in der „die Dominanz einer ethnischen Gruppe institutionalisiert ist“. Sprachen. Nach Art. 3 der Verfassung von 1991 ist die Amtssprache Bulgarisch. Nach Art. 36 sind das Erlernen und der Gebrauch der bulgarischen Sprache das Recht und die Pflicht der bulgarischen Bürger. Bulgarische Staatsangehörige, deren Muttersprache eine andere Sprache ist, haben daneben das Recht, auch ihre Sprache zu erlernen und zu benutzen. Das Gesetz kann festlegen, in welchen Fällen nur die Amtssprache verwendet werden darf. Als Minderheitensprachen kommen Türkisch, Romani und Armenisch in Betracht. Dabei ist die in Bulgarien gesprochene türkische Sprache ein Dialekt, der sich stark vom Standard-Türkischen in der Türkei unterscheidet und durch das Bulgarische besonders im lexikalischen Bereich beeinflusst ist. In Bulgarien wird offiziell die kyrillische Schrift gebraucht. Religionen. a> in Sofia ist die bulgarische Patriarchenkirche a> ist die größte Sofias, eine der ältesten in Europa und die einzige noch aktive in der Stadt. Artikel 13 der bulgarischen Verfassung von 1991 garantiert die Konfessionsfreiheit, hebt jedoch das orthodoxe Christentum als „traditionelle Religion Bulgariens“ hervor. Die Autokephalie der Bulgarisch-Orthodoxen Kirche wurde bereits 927 durch das Patriarchat von Konstantinopel anerkannt. Die Verfassung schreibt weiter die Trennung von Staat und Religion vor und verpflichtet den Staat zu religiöser Neutralität und Parität. 21,8 Prozent der Befragten bei der Volkszählung 2011 beantworteten die Frage nach der Konfession nicht, wobei der Anteil der jüngeren Generationen überwog. 77,9 Prozent der Menschen, welche eine Antwort auf diese Frage gegeben haben, bezeichnen sich als Christen (4.374.135 Menschen). Demnach gehören die meisten der bulgarisch-orthodoxen Kirche (76 Prozent), der römisch-katholischen Kirche in Bulgarien (0,8 Prozent) und der Evangelischen Kirche (1,1 Prozent) an. Weitere 577.139 Menschen (10 Prozent) bezeichnen sich als Muslime. Bei der Volkszählung 2001 haben sich dagegen 83,9 Prozent der Bevölkerung als Christen und 12,2 Prozent als Muslime definiert. Außerdem gibt es eine rapide schwindende jüdische Minderheit (653 Mitglieder im Jahr 2001, 1992 noch 2580 gegenüber fast 50.000 im Jahr 1947). Dabei handelt es sich vor allem um sephardische Juden. Im deutschen Sprachraum am bekanntesten ist der Schriftsteller und Literaturnobelpreisträger Elias Canetti. Die Religiosität und das Vertrauen in die Kirche sind in Bulgarien allerdings wesentlich geringer als zum Beispiel im Nachbarland Rumänien, was auch mit der inneren Zersplitterung der bulgarischen Kirche in Verbindung gebracht wird. So bezeichnen sich nur 52 Prozent der Bulgaren als religiös und nur 22 Prozent gehen mindestens einmal im Monat in die Kirche. Städte und Urbanisierung. Die Städte Bulgariens entwickelten sich kulturhistorisch aus orientalisch oder westeuropäisch geprägten Orten, die großteils erst nach dem Zweiten Weltkrieg einer stärkeren Modernisierung unterlagen. Dabei behielten jedoch viele Orte im Rhodopen-Gebirge (mit Ausnahme Kardschalis) zum Teil ihren orientalischen Charakter bei. Die Urbanisierung nahm insbesondere nach dem Zweiten Weltkrieg schnell zu, verursacht durch Landflucht und Migration von Kriegsflüchtlingen, der sogenannten thrakischen und mazedonischen Bulgaren. Unter den Großstädten spielen die Verwaltungszentren des Staates, die Metropole Bulgariens Sofia sowie der Regierungssitz mehrerer Gemeinden und eines Bezirks (Oblast) Plowdiw in funktionaler sowie administrativer Hinsicht eine zentrale Rolle. Weiter sind noch Varna und Burgas zu nennen, die als administrative Zentren der bulgarischen Schwarzmeerküste fungieren. Hier konzentrieren sich daher auch Medien- und Dienstleistungsunternehmen sowie die Kulturinstitutionen des Landes. Aufgrund ihrer vergleichsweise höher entwickelten Infrastruktur haben sie auch die regional höchste Bedeutung für Verkehr und Handel und zeigen die dynamischste Wirtschaftsentwicklung. In Bulgarien gibt es nach dem Zensus von 2011 sieben Städte, die mehr als 100.000 Einwohner haben: Sofia, Plowdiw, Varna, Burgas, Russe, Stara Sagora und Plewen. Die kleinste Stadt ist Melnik mit 208 Einwohnern und das größte Dorf ist Losen mit 6276 Einwohnern. Geschichte. a> zählt zum kulturellen Erbe der Bulgaren und der UNESCO Bulgarien und die Balkanhalbinsel unter Iwan Assen II. Die ältesten Funde im heutigen Bulgarien liegen aus der Jungsteinzeit vor. Am bekanntesten sind die Karanowo-Kulturen, aber vor allem die Varna-Kultur, deren Goldschatz zu den ältesten der Welt zählt. In der Bronzezeit herrschten die indogermanischen Thraker. Der größte thrakische Stamm, die Odrysen, konnte um 450 v. Chr. ein eigenes Reich gründen, das sich bis zur Donau und zum Strymon erstreckte. Heute werden regelmäßig große Funde, beispielsweise im "Tal der thrakischen Könige" von Archäologen gemeldet, die sich auf diese historische Periode beziehen. So wurde im Jahr 2000 das thrakische Heiligtum Perperikon in den Ostrhodopen und 2003 das Felsenheiligtum Beglik Tasch ausgegraben. Das Orakel von Perperikon war neben dem Orakel von Delphi eine der wichtigsten Kultstätten in der antiken Welt. In der Zeit der griechischen Kolonisation entstanden an der Schwarzmeerküste mehrere Stadtstaaten, so genannte Poleis. Einige von ihnen wie Apollonia oder Mesambria wurden zu Handelsmächten und konnten sich anfänglich auch gegen die Römer behaupten. Nach der Eroberung durch die Römer im Jahr 29 v. Chr. begann die Romanisierung der Bewohner. Thrakien und die Staatstaaten an der Küste wurden ein Teil des römischen Reiches. Aus der römischen Zeit sind die großangelegten Bauten von Karasura, Trimontium, Nicopolis ad Istrum, Ulpia Augusta Trajana, Marcianopolis, Ratiaria oder Augusta bekannt. Im 4. Jahrhundert entstand in Nicopolis ad Istrum die Wulfilabibel, die einzige Quelle der gotischen Sprache und damit der ältesten überlieferten germanischen Schriftsprache. Bulgarisches Reich. Die Anfänge der bulgarischen Staatlichkeit werden im Jahre 632 gesehen, als das Großbulgarische Reich gegründet wurde. Seit dem 6. Jahrhundert drangen Slawen – im Jahr 678, nachdem das Großbulgarische Reich zerfallen war – auch die Bulgaren unter Asparuch auf die Balkanhalbinsel ein. Gemeinsam mit der verbliebenen thrakischen und römischen Bevölkerung gründeten sie das Erste Bulgarische Reich (679 bis 1018; 681 durch Byzanz anerkannt), das zeitweise fast die ganze Balkanhalbinsel umfasste. Erste Hauptstadt wurde Pliska. Damit wurde Bulgarien zum dritten anerkannten Staat in Europa und einer der wenigen, dem das Oströmische Reich tributpflichtig war. Aus der Verschmelzung der Einwanderer mit der örtlichen Bevölkerung entstand das Volk der Bulgaren. Boris I. trat 864 zum byzantinischen Christentum über. Sein Sohn Simeon I. (893–927), der bedeutendste Herrscher Bulgariens, besiegte die Serben, Ungarn und Byzantiner, errichtete das bulgarische Patriarchat und förderte die altbulgarische Literatur. Während seiner Herrschaft entstand am kaiserlichen Hof auch die kyrillische Schrift. Simeon I. war der erste Herrscher, der den Titel Zar trug, er selbst nannte sich „"Zar der Bulgaren und Rhomäer"“ (= Oströmer bzw. Byzantiner). Unter der Dynastie der Komitopulen wurde Ohrid bulgarische Hauptstadt; das Reich kam jedoch ab 972 bis 1018 sukzessive unter die Herrschaft von Byzanz. Seit der Regentschaft Boris I. von Bulgarien im 10. Jahrhundert wurde das Land von Konstantinopel aus christianisiert, weshalb die Mehrzahl der Bulgaren bis heute dem orthodoxen Glauben angehört. Die Christianisierung führte zur ersten kulturellen Blütezeit im Zarenreich. In Preslaw, Pliska und Ohrid entstanden Schulen, von denen aus sich die altbulgarische Sprache und Kultur auch auf die anderen slawischen Völker verbreitete. Obwohl die bulgarische Kultur stark von der byzantinischen geprägt war, spricht man von dem»Ersten Südslawischen Einfluss«und von der "altkirchenslawischen" Sprache. Bulgarien war lange Zeit ein mächtiges Kaiserreich, das sich militärisch mit dem Byzantinischen Reich messen konnte. Während der Zeit des Zaren Petar I. entstand die christliche Religionsgemeinschaft der Bogomilen, die mit ihrer Literatur zu den Vorkämpfern gegen die Dogmatik der Kirche zählt und die Katharerbewegung in Westeuropa beeinflusst hat. Die Brüder Johann und Theodor Peter aus dem Hause Assen errichteten im zwölften Jahrhundert das Zweite Bulgarische Reich mit Tarnowo ("Tarnowgrad") im Balkangebirge als neuer Hauptstadt. Das zwischen 1186 und 1393 bestehende Reich erlangte unter dem Zaren Iwan Assen II. seine größte Ausdehnung. Die Hauptstadt "Tarnowo" wurde zum neuen kulturellen, geistlichen und politischen Zentrum Südosteuropas. Tarnowo wurde von Zeitgenossen als „neues Jerusalem, Rom und Konstantinopel zugleich“ bezeichnet. Vom Zweiten Südslawischen Einfluss spricht man, als infolge des Vordringens der Osmanen auf den Balkan viele slawische, vornehmend bulgarische Gelehrte der Tarnower Schule (wie zum Beispiel der spätere Metropolit Kiprian) seit dem Ende des 14. Jahrhunderts in der mittlerweile erstarkten Moskauer Rus Zuflucht fanden. Osmanische Herrschaft, Unabhängigkeit. Schipka-Denkmal der Gefallenen im Russisch-Türkischen Krieg Bulgarische Flüchtlingе aus Makedonien (1914) Zwischen 1393 und 1396 kam ganz Bulgarien unter osmanische Herrschaft, die fast 500 Jahre andauerte. 1444 scheiterte der Versuch der Befreiung Bulgariens durch ein polnisch-ungarisches Heer unter Władysław III., König von Polen und Ungarn, in der Schlacht bei Varna. Teile der bulgarischen Bevölkerung traten in den folgenden Jahrhunderten zum Islam über. Um 1800 erhob sich der geistig-nationale Widerstand mit der Forderung nach Unabhängigkeit. In Bulgarien kam es zu einer Ära der nationalen bulgarischen Wiedergeburt. Ähnlich wie in Westeuropa knüpfte sie an antike und frühere bulgarische und byzantinische Traditionen an, bekämpfte jedoch die Hellenisierung in der Gesellschaft. Die blutige Niederschlagung des April-Aufstands durch die Türken 1876 und die in Europa erzeugte Empörung führte zum russisch-türkischen Krieg 1877/1878. Dieser wurde mit außerordentlicher Härte und massiven Verlusten auf beiden Seiten geführt. Nach der Überquerung der Donau und des Balkangebirges mitten im Winter gewannen die russischen Truppen die Oberhand und rückten bis kurz vor Konstantinopel vor. Mit dem Frieden von San Stefano wurden die Grundlagen für den modernen bulgarischen Staat gelegt. Fürstentum und Zarentum. Nach dem Berliner Vertrag, der ein Machtkompromiss der Großmächte war, wurden zwei bulgarische Staaten gegründet. Nördlich des Balkangebirges und südlich der Donau wurde das dem Osmanischen Reich tributpflichtige "Fürstentum Bulgarien" gegründet, das auch die Region um die neue Hauptstadt Sofia miteinschloss. Südlich des Balkangebirges wurde mit Plowdiw als Regierungssitz die nominell osmanische Provinz Ostrumelien gegründet, die über eine eigene Verfassung verfügte und durch einen vom osmanischen Sultan eingesetzten, jedoch von den Großmächten gebilligten christlich-bulgarischen Gouverneur regiert wurde. Makedonien, das noch im Vertrag von San Stefano Teil des bulgarischen Staates war, blieb ganz unter osmanischer Hoheit. Am 16. April 1879 wurde die erste demokratische Verfassung in Weliko Tarnowo verabschiedet. Fürst Alexander I. (1879–86) versuchte innere Reformen durchzusetzen, vereinigte die zwei bulgarischen Staaten und besiegte Serbien, wurde aber durch einen von Russland veranlassten Putsch gestürzt. 1887 wurde Ferdinand von Coburg-Gotha Fürst, der 1908 die völlige Loslösung vom Osmanischen Reich erklärte und den Zarentitel annahm, womit aus dem Fürstentum das "Zarentum Bulgarien" wurde. Die Erfolge der bulgarischen Truppen im Ersten Balkankrieg, mit der Eroberung von Adrianopel, wiederholten sich im Zweiten Balkankrieg nicht. Während die bulgarische Streitmacht an der griechischen und serbischen Front gebunden war, drangen die Rumänen bis nach Sofia vor. Die Türken eroberten Adrianopel wieder zurück. Im Ersten und Zweiten Weltkrieg kämpfte Bulgarien auf der Seite der Mittel- bzw. Achsenmächte. Das Königshaus und die Bevölkerung widersetzten sich erfolgreich der Deportation jener Juden (Holocaust), die in den Grenzen von 1941 lebten. In den besetzten Gebieten wurden jedoch den Deutschen 11.343 Juden ausgeliefert. Sozialistische Ära – Volksrepublik Bulgarien. Am 8. und 9. September 1944 wurde Bulgarien von der Roten Armee besetzt, obwohl sich das Land nicht an der Invasion der Sowjetunion beteiligt hatte und mit der Sowjetunion offiziell nicht im Kriegszustand befand. Nach dem Ende des Zweiten Weltkriegs geriet Bulgarien unter sowjetischen Einfluss und wurde Teil des Warschauer Paktes. Während in anderen Ländern immer wieder Unmut über die sozialistische Herrschaft aufkam, gab es in Bulgarien sehr wenig organisierten und individuellen Widerstand gegen die Führung der Bulgarischen Kommunistischen Partei (BKP). Der Aufstieg der BKP resultierte aus dem Einmarsch der Sowjetunion im September 1944. Unter sowjetischer Kontrolle wurde der früheren politischen Elite zwischen Dezember 1944 und Februar 1945 der „Prozess gemacht“, so dass insgesamt mehr als 2700 Menschen zum Tode verurteilt wurden und eine unbestimmte Zahl in Lager gesteckt oder umgesiedelt wurde oder einfach verschwand. Am 1. Februar 1945 begann man mit der Vollstreckung der Todesurteile. In dieser Zeit wuchs auch die Mitgliederzahl der BKP auf über 250.000 an. Zentrale Ziele waren in dieser Zeit die Entwicklung einer kommunistischen Gesellschaft, „die sich durch Klassenlosigkeit, Gerechtigkeit, Gleichheit, Humanität in den sozialen Beziehungen, Streben nach Höherem, Wohlstand und Modernität auszeichnen würde“. Dies war eine große Herausforderung, da sich Bulgariens Gesellschaft überwiegend aus kleinbäuerlichen Strukturen zusammensetzte und nur wenig industriell geprägt war. Nach dem Einmarsch der Roten Armee in Bulgarien im September 1944 war Kimon Georgiew einer der Anführer des Staatsstreichs der Vaterländischen Front, die am 9. September 1944 zum Sturz der Übergangsregierung von Konstantin Wladow Murawiew führte. Als dessen Nachfolger wurde Kimon Georgiew zum zweiten Mal, nach einer kurzen Amtszeit von 1934 bis 1935, am 9. September 1944 Ministerpräsident und unterzeichnete in Moskau das Waffenstillstandsabkommen. Wassil Kolarow wurde am 15. September 1944 zum provisorischen Präsidenten der neu gegründeten Volksrepublik Bulgarien ernannt, wobei er dieses Amt nur kurzzeitig bis zum 23. November 1944 innehatte, da an diesem Tag Georgi Dimitrow als neues, gewähltes Staatsoberhaupt ins Amt eingesetzt wurde. Wassil Kolarow war noch ein zweites Mal Staatsoberhaupt Bulgariens, nämlich nachdem Dimitrow am 2. Juli 1949 verstorben war. Kolarow war jedoch ebenfalls von einer schweren Krankheit gezeichnet, so dass er seine Ämter nicht mehr ausüben konnte und sein zukünftiger Nachfolger ihn vertrat. Am 23. Januar 1950 starb er in Sofia. Nach 22 Jahren Exil kam Georgi Dimitrow im November 1945 zurück nach Bulgarien und wurde am 23. November 1946 neuer Ministerpräsident, nachdem am 8. September eine Volksabstimmung die Abschaffung der Monarchie besiegelt hatte. Unter seiner Regierung festigte sich die Macht der Kommunistischen Partei, er ließ u. a. den Oppositionspolitiker Nikola Petkow unter dem Vorwurf des Hochverrats hinrichten und unterzeichnete die neue Verfassung der Republik Bulgarien, die sich eng an der der UdSSR orientierte und in Paragraph 12 die Planwirtschaft als Wirtschaftsrichtung vorgegeben hatte. Der Nationale Kulturpalast in Sofia (erbaut 1981) Seit 1947 näherte sich Dimitrow dem jugoslawischen Staatschef Josip Broz Tito an und schloss einen Freundschaftsvertrag zwischen beiden Ländern. Ziel war eine Föderation zwischen beiden Ländern, zu der Dimitrow 1948 auch Rumänien öffentlich einlud. Diese Pläne waren nicht mit Moskau abgesprochen und stießen daher auf die scharfe Kritik Stalins, der Tito und Dimitrow für den 10. Februar 1948 nach Moskau beorderte. Georgi Dimitrow starb am 2. Juli 1949 im Sanatorium Barwicha (Барвиха) bei Moskau. Sein Leichnam wurde einbalsamiert und in einem eigens errichteten Mausoleum in Sofia beigesetzt. Walko Tscherwenkow übernahm im Jahre 1949 als Stellvertreter Kolarows die Regierungsgeschäfte. Nachdem er am 3. Februar 1950 zum Vorsitzenden des Ministerrates gewählt worden war, war er auch offiziell das Staatsoberhaupt Bulgariens. Walko Tscherwenkow war ein großer Anhänger Stalins und übernahm seinen Regierungsstil, was ihm nach dessen Tod am 5. März 1953 scharfe Kritik einbrachte, so dass er als Generalsekretär der KP durch Todor Schiwkow abgelöst wurde. Am 17. April 1956 wurde er auch gezwungen, als Ministerpräsident zurückzutreten und dieses Amt an seinen Stellvertreter Anton Jugow abzugeben. Nach Tscherwenkows erzwungenem Rücktritt forcierte Jugow als neuer Präsident des Ministerrats, zu dem er am 17. April 1956 ernannt wurde, die Entstalinisierung Bulgariens. Große Unterstützung hierbei erhielt er von seinem späteren Nachfolger Todor Schiwkow. Auf dem achten Parteikongress im November 1962 wurde ihm im Zusammenhang mit Tscherwenkow parteischädigendes Verhalten vorgeworfen, so dass er am 27. November aller Partei- und Regierungsämter enthoben wurde. Auf dem letzten Parteitag der KPB, im Jahre 1990 wurde Jugow rehabilitiert. Heute nimmt man an, dass Jugow aufgrund seiner Kritik zu Schiwkows Wirtschaftspolitik seine Ämter verlor. Der wohl prägendste Politiker in Bulgariens sozialistischer Phase war Todor Schiwkow, der am 20. November 1962 nach dem achten Parteikongress das Amt des Ministerpräsidenten übernahm. Bis dahin war er der Vorsitzende des Zentralkomitees (ZK) der KP und somit bereits mächtigster Mann im Staat. Bereits auf dem siebten Parteikongress im Juni 1958 der BKP forderte Schiwkow „vermehrte Anstrengungen zur Schaffung des Neuen Menschen und zur Anpassung der Lebensweise an die bereits in einem sozialistische Sinne umgestaltete Gesellschaft“. Aufgabe der Partei war es somit, Methoden zu entwickeln, wie die Bürger außerhalb der Arbeit nach dem sozialistischen Muster geformt werden konnten. Schiwkow wies auch auf die Notwendigkeit einer „sozialistischen Kulturrevolution“ hin. Zweimal (1963 und 1973) wurde während der Regierungszeit Schiwkows in geheimen Treffen des ZK vergeblich die Auflösung der Volksrepublik Bulgarien als souveräner Staat und die Eingliederung als 16. SSR in die Sowjetunion beraten. Der politische Umbruch. Während in anderen Ländern immer wieder Unmut über die sozialistische Herrschaft aufkam, gab es in Bulgarien bis Anfang der 1980er sehr wenig organisierten und individuellen Widerstand gegen die Führung der Kommunistischen Partei. In den letzten Jahren des kommunistischen Regimes musste vor allem die muslimische Bevölkerung leiden. So erwirkte das Regime die Vertreibung von bis zu 370.000 Menschen in Richtung Türkei. Durch verstärkten innerparteilichen Druck (der somit nicht wie beispielsweise in der DDR durch bürgerliche Gegenbewegungen entstand) trat Todor Schiwkow am 10. November 1989, also einen Tag nach der Berliner Maueröffnung, zurück. Parteiintern hatte es zuvor einige Konflikte gegeben, da der bereits 1988 eingeleitete Reformkurs nicht schnell genug vorangetrieben wurde. Ziel der Parteielite war es, „die Macht weiter in den Händen einer ‚reformierten‘ BKP zu sichern und allenfalls eine Modifikation des Systems, nicht aber einen generellen Systemwechsel einzuleiten. Überstürzt wurden alte Weggefährten Schiwkows aus der Parteiführung entlassen und seine über dreißigjährige Amtszeit einer harschen Kritik unterzogen“. Als eine der ersten Maßnahmen wurde am 17. November 1989 Petar Mladenow zum neuen Vorsitzenden des Staatsrates benannt und einen Monat später, am 18. Dezember, Todor Schiwkow aus der Partei ausgeschlossen. Ebenso benannte man die BKP in Bulgarische Sozialistische Partei (BSP) um. Am 18. November 1989 fanden in Sofia und anderen großen Städten des Landes die ersten Demonstrationen statt, nachdem bekannt geworden war, dass die BKP keine grundlegenden Änderungen des politischen Systems verfolge. Diese Demonstrationen waren von informellen Organisationen wie der Gewerkschaft Podkrepa, der Unabhängigen Gesellschaft zum Schutz der Menschenrechte und der ökologischen Bewegung Ekoglasnost organisiert. Am. 7. Dezember vereinigten sich mehrere Organisationen und gründeten die demokratische Oppositionsbewegung "Union der Demokratischen Kräfte SDS" (bul. Съюз на демократичните сили, СДС), die von diesem Zeitpunkt an die Demonstrationen anführte. Nach der Wende. Logo der Union der Demokratischen Kräfte Das Ende der kommunistischen Ära wurde 1990 durch freie Wahlen eingeleitet. In den folgenden Jahren wurden politische und wirtschaftliche Reformen vorangetrieben. Die größte demokratische Oppositionsbewegung war die 1990 gegründete "Union Demokratischer Kräfte SDS", die den friedlichen Sturz des kommunistischen Bulgariens herbeiführte. Bis 1997 regierten jedoch die ehemaligen Kommunisten in mehreren Legislaturperioden mittels Koalitionen. Die EU-Integration wurde wesentlich von einer bis 2001 konservativ geführten SDS-Regierung unter Iwan Kostow beschleunigt. Sie stellte umfängliche Kooperation mit internationalen Institutionen her, senkte die Inflation, stabilisierte die Wirtschaftslage und legte die Weichen für den zukünftigen NATO- und EU-Beitritt. Präsident zu dieser Zeit war der Demokrat Petar Stojanow. Die Parlamentswahlen am 17. Juni 2001 gewann überraschend mit 42,7  Prozent der Stimmen die erst kurz zuvor gegründete "Nationale Bewegung Simeon II., NDSW" um den ehemaligen bulgarischen Zaren Simeon II. von Sachsen-Coburg und Gotha, der nach 55 Jahren aus dem spanischen Exil zurückgekehrt war. Wegen des stark betonten republikanischen Prinzips in der Verfassung slawisierte er seinen Namen zu Simeon Sakskoburggotski und legte monarchische Namenszusätze ab, nachdem die Wahlbehörden die Rechtsauffassung geäußert hatten, er sei als früherer König nicht wählbar. Wesentlichen Anteil an dem Erfolg hatte das Versprechen, innerhalb von 800 Tagen eine deutliche Verbesserung des Lebensstandards herbeizuführen. Dazu schlug er eine Erhöhung des Lohnniveaus und Steuersenkungen vor. Im Wesentlichen jedoch behielt die amtierende Regierung den konservativen Kurs ihrer Vorgängerin bei, insbesondere die Politik der EU-Integration. 2003/04 amtierte Bulgarien als Mitglied des UNO-Sicherheitsrates und schloss sich mit Chile und Spanien demonstrativ der von den USA geführten Anti-Irak-Fraktion an, die einen gewaltsamen Regierungswechsel im Irak unterstützte. Die tendenziell US-freundliche Außenpolitik Bulgariens und der Dissens mit der reservierten deutsch-französischen Seite führten unter anderem dazu, dass auf Betreiben des Außenministers Solomon Pasi die deutschen Anti-ABC-Einheiten umgehend durch bulgarische und polnische Truppen ersetzt wurden. Ähnlich den USA hatte auch Bulgarien vor dem Zweiten Golfkrieg den Irak umfangreich mit konventionellen Waffen beliefert. Ein Teil der Lieferungen war über nicht zurückbezahlte Kredite (1,7 Mrd. US-Dollar) erfolgt. Es ist anzunehmen, dass man sich hier bei einer Kriegsbeteiligung Gegenleistungen erwartete. Bulgarien trat 2004 der NATO bei. In der Wirtschaft kam es aufgrund von Simeons Reformen zu weiter fortschreitendem Aufschwung, von dem allerdings eher in- und ausländische Investoren und die städtische Oberschicht als der Durchschnittsbürger profitierten. In ländlichen Gebieten herrschen oft hohe Arbeitslosigkeit (im Landesdurchschnitt etwa 12  % für das 1 Quartal 2012) und Korruption. Die sehr traditionelle Landwirtschaft, die bei 26  % der Beschäftigten 13 % zum Bruttoinlandsprodukt (BIP) beiträgt, ist noch weit vom Erreichen der EU-Normen entfernt. 2007 wurde Bulgarien in die Europäische Union aufgenommen. Demzufolge wird seither auch die Aufnahme in das Schengener Abkommen anvisiert. Aufgrund bisher unerfüllter Kriterien (wie der Korruptionsbekämpfung etc.) konnte der Beitrittstermin für 2011 nicht realisiert werden. Nachdem zunächst Juli 2012 als Beitrittstermin ins Auge gefasst wurde, wurde eine erneute Prüfung für März 2013 angekündigt. Der von 2005 bis 2009 von den Sozialisten unter Sergei Stanischew angeführten Drei-Parteien-Koalition (BSP, NDSW, DPS) wurde nach dem Stopp der EU-Finanzhilfen ein Scheitern der EU-Politik sowie Korruption, eine unzureichende Bekämpfung der Mafia und das Fehlen einer angemessenen Jugendpolitik vorgeworfen. Sie war die bulgarische Regierung, die das geringste Vertrauen bei der Bevölkerung genoss. Anfang 2009 schenkten ihr nur noch 15  % der Bulgaren Vertrauen, während 76   % gegen sie waren. Die regierenden Parteien verloren die 2009 stattgefundenen Europa- und Parlamentswahlen; die vormals mitregierende NDSW war nach der Wahl nicht mehr parlamentarisch vertreten. Beide Wahlen wurden von der GERB-Partei des ehemaligen Bürgermeisters von Sofia, Bojko Borissow, gewonnen. Die Regierung Borissow als Ministerpräsident, war eine Minderheitsregierung der GERB-Partei, die zunächst von den konservativen Kräften der Blauen Koalition unterstützt wurde. Anfangs unterstützten die Parteien Ordnung, Sicherheit und Gerechtigkeit sowie die nationalistischen Ataka ebenfalls die Regierung, entzogen ihr aber 2010 diese Unterstützung. Politik. Das politische und juristische System Bulgariens Das Parteiensystem, das nach der Verfassung von Tarnowo 1878 zum ersten Mal verankert wurde, kumulierte zwei sozialpolitische Konfliktlinien, die bis heute im politischen System Bulgariens präsent sind: zum einen den Konflikt zwischen rechten und linken, bzw. konservativen und liberalen Parteien, zum anderen zwischen pro-russischen und pro-westlichen Abgeordneten. Ein dritter Konflikt änderte sich von einem "Stadt gegen Land", nach dem Balkankriegen 1912/13 und dem Ersten Weltkrieg, zu einem Konflikt "Kapital gegen Arbeit", der ebenfalls bis heute besteht. Dafür entstand ein Konflikt "Kirche gegen Staat" in Bulgarien nicht, obwohl die Bulgarisch-Orthodoxe Kirche eine starke Position bei der Gründung des heutigen Bulgariens einnahm und wohl über eine hohe Legitimität verfügte. Parlament. Die Parlamentswahlen für die 42. Nationalversammlung fanden am 12. Mai 2013 statt. Die vormals teilweise eingeführte Mehrheitswahl (die bei der Wahl 2009 31 der 240 Abgeordneten bestimmt hatte) wurde 2012 abgeschafft. Folgende vier Teilnehmer überwanden die Sperrklausel von 4 %: die drei Parteien GERB, DPS, Ataka und die Koalition für Bulgarien. Zum ersten Mal sind im Narodno Sabranie weder die in den 1990er Jahren einflussreiche Partei SDS noch ihre Abspaltungen vertreten. Präsident. Bei den letzten Präsidentschaftswahlen in Bulgarien im Oktober 2011 konnte der Kandidat der Regierungspartei Rossen Plewneliew bei der Stichwahl gegen den ehemaligen Außenminister des Landes Iwajlo Kalfin gewinnen. Die Stichwahl am 30. Oktober 2011 entschied Plewneliew mit 52,6 Prozent der Stimmen für sich. Auf Iwajlo Kalfin entfielen 47,4 Prozent der Stimmen. Die Wahlbeteiligung lag bei 48,25 Prozent. Plewneliew trat sein Amt am 22. Januar 2012 an und löste damit Georgi Parwanow ab. Außenpolitik. Bulgarien ist seit dem 1. Januar 2007 Mitglied der Europäischen Union und seit 2004 Mitglied der NATO. Weiters ist Bulgarien unter anderem Mitglied der Welthandelsorganisation (WTO), des Kooperationsrates für Südosteuropa (SEECP) und der Schwarzmeer-Wirtschaftskooperation (BSEC). In Libyen wurden 2007 fünf bulgarische Krankenschwestern und ein palästinensischer Arzt aufgrund des Vorwurfs, 426 libysche Kinder vorsätzlich mit AIDS infiziert zu haben, zum Tode verurteilt. Obwohl internationale Gutachter die hygienischen Zustände im Krankenhaus als die wahrscheinlichste Ursache der HIV-Ansteckung betrachteten und die Infektion auf einen Zeitpunkt vor Ankunft der Angeklagten datierten, wurde das Urteil über mehrere Instanzen hinweg aufrechterhalten. Kritiker gehen davon aus, dass die Krankenschwestern von Libyen als politische Geiseln für Verhandlungen mit der EU missbraucht wurden. Nach zähen Verhandlungen und internationalem Druck, v. a. der EU und USA, wurden die sechs Inhaftierten am 24. Juli 2007 zur Verbüßung ihrer lebenslangen Haftstrafen nach Bulgarien ausgeliefert, wo sie jedoch unmittelbar nach der Landung von Staatspräsident Parwanow begnadigt wurden. Die EU und weitere Staaten zahlten im Gegenzug über 120 Millionen € an Entschädigungen und Hilfen. Im Dezember 2010 ergab eine Untersuchung, dass fast die Hälfte der bulgarischen Botschafter und Konsuln nach der Wende Angehörige der berüchtigten kommunistischen Staatssicherheit (DS) waren. Darunter sind derzeit 13 bulgarische Botschafter in EU-Ländern wie Deutschland, Großbritannien und Spanien tätig. Der bulgarische Präsident Georgi Parwanow, der ebenfalls ein ehemaliger Mitarbeiter der "DS" ist, verweigerte die Forderungen des bulgarischen Ministerpräsidenten Borissow und des Außenministers Mladenow, diese zurückzuberufen. In seine Kompetenzen fällt die Ernennung der bulgarischen Botschafter und 97 von 127 der von ihm ernannten Botschafter waren Mitarbeiter der Staatssicherheit. Medien. Bulgarien verfügt über je einen staatlichen Radio- und Fernsehsender (BNR und BNT) und eine Vielzahl an privaten Sendern. Die wichtigsten darunter sind: bTV, Nova televizija, SKAT und TV Evropa. Unter den Radiosendern dominiert das private „Darik Radio“. An der Anpassung und Anwendung der EU-Vorschriften zum Übergang zu Digital-Fernsehen und -Hörfunk wird gearbeitet. Die Presselandschaft ist vielfältig. Die größten Tageszeitungen im Land, Trud und 24 Časa gehörten bis Ende 2010 der WAZ-Gruppe; der neue Eigentümer heißt BG Printinvest. Daneben gibt es auch andere ausländische Investoren in diesem Bereich. Weitere bedeutende Tageszeitungen sind Dnevnik, „Monitor“, Standart, „Sega“ und „Duma“. Einflussreiche Wochenzeitungen bzw. Zeitschriften sind Capital, Tema und Politika. Die marktführende „New Bulgarian Media Group (NBMG)" kontrolliert vier überregionale Zeitungen, ein Magazin, einen Fernsehkanal sowie eine Nachrichtenagentur (Stand:2014). Politische Gliederung. Nach Artikel 2 der bulgarischen Verfassung von 1991 gilt Bulgarien als „Einheitsstaat mit örtlicher Selbstverwaltung“, in dem keine autonomen Gebiete zugelassen sind. Der Verfassungsartikel 135 wiederum legt den staatlichen Aufbau in Gemeinden und Gebiete fest. Die grundlegende administrativ-territoriale Einheit ist die Gemeinde (Община/"Obschtina"), in welcher die Organe der örtlichen Selbstverwaltung die kommunalen Interessen vertreten und politisch gestalten. Die Bürger können sich an der Verwaltung der Gemeinde unmittelbar durch ein Referendum oder eine Vollversammlung der Einwohner beteiligen. Die Wahlen zu den Organen der örtlichen Selbstverwaltung (Gemeinderäten, Общински съвет/"obschtinski sawet") finden alle vier Jahre statt, wobei der Bürgermeister (кмет/"kmet") als Organ der Exekutive der Gemeinde direkt gewählt wird. Die Gemeinde hat ein Recht auf eigenes Eigentum und einen selbstständigen Haushalt; darüber hinaus hat sie den Anspruch auf finanzielle Unterstützung durch den Staat. Bezirke. Im Gegensatz zu den Gemeinden wird die zweite territoriale Einheit, das Gebiet oder der Bezirk (област/"oblast"), administrativ nicht durch gewählte Organe vertreten. Die Oblast ist vielmehr eine administrativ-territoriale Einheit, die ein vom Ministerrat ernannter Bezirksverwalter (областен управител/"oblasten uprawitel") im Interesse der staatlichen Zentralverwaltung kontrolliert. Der Verwalter soll laut Art. 143 der Verfassung die Durchführung der staatlichen Politik sichern und ist für den Schutz nationaler Interessen, der Gesetzlichkeit und der öffentlichen Ordnung verantwortlich. Militär. Die bulgarischen Streitkräfte, gliedern sich in Heer, Marine und Luftwaffe und zählen insgesamt 45.000 Soldaten. Oberbefehlshaber der Armee ist der bulgarische Präsident. Seit 2004 ist Bulgarien NATO-Mitglied. Die Armee war bzw. ist an internationalen Einsätzen in Kambodscha, Angola, Tadschikistan, Kroatien, Bosnien und Herzegowina, Eritrea, Afghanistan und auch im Irak beteiligt. Wirtschaftsgeschichte. Bulgarien gehört zu den Ländern, die als Agrarstaat in den RGW („COMECON“) eingetreten sind und ihre Industrialisierung diesem im Wesentlichen zu verdanken haben. Das bedeutete die Steigerung der energie- und rohstoffintensiven Schwerindustrie, von denen einige Bereiche (Pharmazeutika, Maschinenbau, Elektronik) durchaus erfolgreich in den ehemaligen Märkten agierten. Die Computermarken Prawez, Izot, IMKO und ES EVM produzierten zeitweise bis zu 40 % aller im RGW getauschten Desktopcomputer. Nach dem Wegfall des Marktes der Sowjetunion, zu dem die meisten Beziehungen bestanden, geriet die Wirtschaft in eine schwere Krise, aus der sie sich erst seit 2004 erholt hat. Die einstmals gut entwickelte Industrie für Computerhardware verschwand vollständig. In den Jahren 1989 bis 1995 gingen die Realeinkommen und der Lebensstandard zurück. Das Sozialsystem, insbesondere das System der Kranken- und Rentenversicherungen, brach weitgehend zusammen. Die sozialistische Regierung unter Schan Widenow schaffte hier keine Abhilfe, sondern bediente die Interessen der ehemaligen Nomenklatura. Im Frühjahr 1996 kam es infolge der hohen Staatsverschuldung zu einer schweren Wirtschaftskrise. Banken brachen praktisch über Nacht zusammen; der Staat geriet in Zahlungsschwierigkeiten gegenüber seinen ausländischen Kreditgebern. In der Hoffnung auf Unterstützung von Weltbank und IWF verabschiedete die sozialistische Regierung ein Strukturprogramm. 134 marode Staatsbetriebe sollten geschlossen werden, durch Steuervergünstigungen versuchte man – vor allem ausländische – Investoren anzulocken. Doch die Privatisierung ging dem IWF zu langsam und er forderte als Bedingung für weitere Kredite die Einführung eines Währungsrates sowie die Bindung des bulgarischen Lew an die D-Mark im Verhältnis 1:1. Seit der Einführung des Euros ist der bulgarische Lew an ihn im Verhältnis 1:1,9558 gekoppelt. Inzwischen haben einige internationale Unternehmen Standorte in Bulgarien. So befindet sich eines der globalen Service-Center von Hewlett-Packard, das für Europa, den Mittleren Osten und Afrika zuständig ist, in Sofia. Der chinesische Automobilhersteller Great Wall eröffnete im Februar 2012 ein Werk nahe Lowetsch. In Stara Sagora baut der britische Investmentfonds Quorus Ventures ein Werk für Elektroautos. Darüber hinaus ist Bulgarien ein bedeutender Standort für die Produktion von Automobilteilen. Neben bedeutenden belgischen, türkischen und japanischen Unternehmen sind auch viele deutsche Zulieferer vor Ort. Während im Handel die METRO seit Jahren präsent ist, sind in den letzten Jahren weitere deutsche Handelsketten wie Penny, LIDL, Kaufland und DM dazugekommen. Kennzahlen. Die Wirtschaft Bulgariens ist vor allem im Süden des Landes konzentriert. Die am stärksten entwickelten Regionen sind Sofia, Burgas, Stara Zagora sowie in Nordostbulgarien Varna. Die Region Nordwestbulgarien ist die am wenigsten wirtschaftlich entwickelte Region Bulgariens (Stand 2008). Bulgarien selbst weist das niedrigste BIP je Einwohner, sowie eine der höchsten Armutsquoten von 21,8 %, innerhalb der Europäischen Union auf (Stand 2009). Der Anteil der Privatwirtschaft am BIP betrug 2004 72,7 Prozent. Die Schaffung des Währungsrates 1997, die Konsolidierung der Staatsfinanzen (Budgetüberschuss 2004: 262 Mio. Lewa), einschließlich der Reduzierung der Auslandsverschuldung (Staatsverschuldung im Dezember 2004 noch 40,9 % des BIP, im Dezember 2005 32,4 % und im Januar 2011 13,7 %), weitreichende strukturelle Reformen und die Privatisierung nahezu aller staatlichen Unternehmen in enger Zusammenarbeit mit Internationalem Währungsfonds (IWF) und Weltbank trugen zu makroökonomischer Stabilität bei. Das Bruttoinlandsprodukt ist von 1998 bis 2008 stetig, im Schnitt um 5 %, gewachsen. Laut Schätzungen des IWF liegt der Wert des bulgarischen Bruttoinlandsprodukts 2010 bei 44,84 Milliarden US-Dollar, was einem Pro-Kopf-Anteil von 5.954 US-Dollar entspricht. Bei Berücksichtigung der Kaufkraftparität ist der Wert des bulgarischen Bruttoinlandsproduktes mehr als doppelt so hoch: Demnach entspricht es einem BIP von 90,76 Milliarden US-Dollar, was pro Kopf 12.052 Dollar entspricht. Jedoch mussten die Statistiker nach mäßigen Inflationsraten der Jahre 2001 bis 2005 (2005: 6,5 %) im Jahre 2007 eine etwa 13-prozentige allgemeine Preissteigerung beobachten. Die relativ hohen BIP-Wachstumsraten (2001 4,1 %, 2002 4,9 %, 2003 4,5 %, 2004 5,7 %, 2005 5,8 %, 1. Halbjahr 2006 6,1 %, 2007 6,2 %) wurden somit durch die Inflation etwas abgedämpft. Die Arbeitslosigkeit konnte, seit ihrem Höhepunkt von 18,13 % im Jahr 2000, gesenkt werden und lag Ende des Jahres 2010 bei ca. 8,3 % und für das 1. Quartal 2012 bei ca. 12 % Prozent. Begünstigt wird diese Entwicklung durch hohe Vorbeitrittshilfen der Europäischen Union. So standen 2004 insgesamt rund 400 Mio. € in den Programmen PHARE, ISPA und SAPARD zur Verfügung. Im Vergleich mit dem BIP der EU ausgedrückt in Kaufkraftstandards erreicht Bulgarien einen Index von 33 (EU-25:100) (2005, zum Vergleich: Deutschland: 108). Da die Regierung einen Großteil der in den Haushaltsjahren 2004 und 2005 entstandenen Überschüsse für Ausgleichsmaßnahmen verwendete, um die sozialen Folgen der zur Kostendeckung notwendigen Anpassung der Preise für Elektrizität, Wasser und Fernheizung aufzufangen und gleichzeitig die Transfereinkommen zusätzlich und überproportional erhöhte, sind die Realeinkommen auch der besonders Benachteiligten (Arbeitslose, Behinderte und Rentner) erstmals seit langem wieder gestiegen. Dennoch bleiben über eine Million Menschen vom Wirtschaftsaufschwung Bulgariens weitgehend abgekoppelt. Die wichtigsten Wirtschaftszweige sind: Chemische Industrie, Nahrungsmittel und Nahrungsmittelverarbeitung, Tabakindustrie, Metallindustrie, Maschinenbau, Textilindustrie, Glas- und Porzellanindustrie, Kohleförderung, Stahlproduktion, Energiewirtschaft, Tourismus. Import/Export. Ausfuhr: Chemische Produkte, Elektrizität, Konsumartikel, Maschinen und Ausrüstungen, Nahrungs- und Genussmittel, Rohmetall- und Stahlprodukte, Textilprodukte. Einfuhr: chemische Erzeugnisse, Konsumgüter, Maschinen und Ausrüstungen, mineralische Produkte und Brennstoffe (insbesondere Rohöl und Gas aus Russland), Rohstoffe. Energiewirtschaft. Die Energieabhängigkeit Bulgariens ist etwas niedriger als der Durchschnitt für die EU. Das Land bezog im Jahr 2008 52,3 % seiner Energie aus dem Ausland. Damit lag das Land unter dem europäischen Durchschnitt von 54,8 %. Aufgrund seiner strategischen Lage sowie des einheimischen Bedarfs hat Bulgarien in den letzten Jahren zahlreiche Strategieprojekte auf den Weg gebracht, die für die nationale, regionale und europäische Versorgungssicherheit von Bedeutung sind. Die Projekte umfassen die Erdgasleitungen Nabucco und South Stream, das zweite Atomkraftwerk (Belene) des Landes und die Burgas-Alexandroupolis-Ölpipeline. Das Nabucco-Projekt hat für Bulgarien und die Europäische Union vorrangige Bedeutung, da damit alle Diversifizierungsprobleme auf einen Schlag gelöst würden, sowohl in Bezug auf Bezugsquellen als auch in Bezug auf die Lieferwege. Diese neue Trasse würde Gas aus dem Kaspischen Raum und dem Nahen Osten sichern. Die South Stream-Pipeline wäre ein neuer Lieferweg für russisches Gas. Sie würde unter dem Schwarzen Meer verlaufen und sich in Bulgarien teilen. Seit den letzten Gaskrisen werden zusätzlich die Verbindungen mit den Nachbarländern ausgebaut. Sie sollen die Erdgassysteme der südosteuropäischen Ländern zu einem Gasverbundsystem verbinden und in der Zukunft als alternative Versorgungsroute genutzt werden. Öl und Erdgas. Die einzigen Unternehmen, die Erdgas in Bulgarien fördern, sind „Melrose Ressourcen Sarl“ und „Exploration und Gewinnung von Öl und Gas AG“, deren Förderung sich 2007 auf rund 9 % des Erdgasverbrauchs belief. Anfang März 2011 vergab die bulgarische Regierung Rechte für weitere Erdgasförderungen. Der restliche Erdgasbedarf wird Großteils über die Druschba-Trasse aus Russland importiert. Der einzige Erdgasnetzbetreiber ist die Aktiengesellschaft Bulgargaz Holding EAD, die sich zu 100 % im Staatseigentum befindet. Zur Holding gehören außerdem der Gasanbieter Bulgargaz EAD und der kombinierte Lieferant Bulgartransgaz EAD, die für die Versorgung des Landes mit Erdgas sowie für Transport und Lagerung verantwortlich sind. In der Gaswirtschaft existiert auf Verteilungsebene eine Vielzahl privater Unternehmen, darunter Overgaz AG als größter Gasversorger. Das einzige Unternehmen, das in Bulgarien Erdöl fördert, ist die „Exploration und Gewinnung von Öl und Erdgas AG“, jedoch sind die geförderten Mengen minimal. Damit ist das Land fast vollständig auf Importe angewiesen. Der bulgarische Markt für Erdöl und Erdölprodukten ist vollständig liberalisiert. In Bulgarien befindet sich die größte Raffinerie Südosteuropas, die Lukoil Neftochim Burgas AD, die den Markt mit Kraftstoffen, Diesel, Kerosin und Petrochemie dominiert. Ein großer Teil der Produktion wird exportiert. Das Unternehmen hat eine stabile Marktposition im Südosteuropa. Ende Januar 2012 gab LUKOIL Neftochim Burgas bekannt, bis 2015 Investitionen in Höhe von 1,5 Milliarden US-Dollar zu tätigen und dadurch 3000 neue Arbeitsplätze zu schaffen. Dabei sollen neue Anlagen für Hydrocracken und Katalytisches Reforming gebaut, bzw. die bestehenden ersetzt werden. Durch die neuen Anlagen soll auch die Luftverschmutzung verringert werden. Darüber hinaus bildet die Lukoil mit der Petrol Holding, OMV, Shell die Marktführer im Brennstoffhandel. In diesem Bereich können sich jedoch auch lokale Anbieter, wie die Eco-Petroleum und Prista Oil behaupten. Eine Tendenz zum Biokraftstoffen ist auch in Bulgarien zu beobachten. Stromerzeugung. Im Kernkraftwerk Kosloduj wurden insgesamt sechs Druckwasserreaktoren russischer Bauart mit einer Gesamtleistung von 3.760 MW errichtet. Zur Erfüllung der Vorgaben zum EU-Beitritt wurden die ersten vier Kraftwerksblöcke vor Ablauf der vorgesehenen Betriebsdauer stillgelegt. Die Kapazität der beiden in Betrieb befindlichen Reaktoren beträgt 2.000 MW. Der Bau eines zweiten Kernkraftwerks in Belene wird zurzeit diskutiert. Das staatliche Wärmekraftwerk Mariza Istok-2 (1450 MW installierte Leistung) nutzt heimische Steinkohle zur Stromerzeugung. Das Wärmekraftwerk Bobow Dol (630 MW, das stufenweise bis Ende 2014 stillgelegt werden sollen), das Wärmekraftwerk Varna EAD (1260 MW), das Wärmekraftwerk Maritza Istok-3 (840 MW), die zukünftige Ersatzleistung auf dem Gelände des Wärmekraftwerks Maritza Istok-1 (670 MW), das Wärmekraftwerk Maritza 3 (120 MW) und das Wärmekraftwerk Rousse (110 MW) sind mehrheitlich oder vollständig in Privateigentum. Weiter gibt es zahlreiche kleinere Wasserkraftwerke, die privatwirtschaftlich betrieben werden. Die Stromerzeugung aus Wind– und Solarenergie erfolgt durch Kraftwerke, die sich ausschließlich in privater Hand befinden. Das bulgarische Gesamtpotenzial von Windenergiekapazitäten wird auf über 3000 MW geschätzt. 2008 waren etwa 160 MW an installierter Windleistung notiert. Wirtschaftsbeziehungen. Bulgarien ist Mitglied der Schwarzmeer-Wirtschaftskooperation (SMWK) und unterhält, seit 1994, ein Freihandelsabkommen mit der Europäische Freihandelsassoziation (EFTA). Deutschland ist der wichtigste Handelspartner Bulgariens. Über 5000 deutsche Firmen sind im Handel mit Bulgarien tätig, davon sind 1200 vor Ort vertreten. Das Gesamthandelsvolumen 2007 erreichte ca. 35 Milliarden €, das Handelsvolumen mit Deutschland ca. 3,7 Milliarden € (10,5 %). Die deutschen Exporte nach Bulgarien beliefen sich auf 2,3 Milliarden €, die Importe aus Bulgarien auf 1,4 Milliarden €. Über die Hälfte entfiel auf die Bundesländer Nordrhein-Westfalen, Bayern und Baden-Württemberg. Seit März 2004 besteht in Sofia die Deutsch-Bulgarische Industrie- und Handelskammer (DBIHK), die bereits über 350 Mitglieder zählt. Die ausländischen Direktinvestitionen erreichten 2007 einen Höchstwert von 5,7 Milliarden € und 2008 einen Wert von 5,4 Milliarden €. Mit Investitionen in Höhe von 605 Millionen € (11,2 %) im Jahr 2008 lag Deutschland an dritter Stelle der ausländischen Investoren hinter Österreich und den Niederlanden. Der hohe Investitionsbedarf der bulgarischen Wirtschaft, der zusammen mit niedrigen Löhnen und gut ausgebildetem Personal viele Chancen für langfristig orientierte Investoren, insbesondere in lohnintensiven Fertigungsbereichen (Maschinenbau, Nahrungsmittelverarbeitung, Kfz-Teileherstellung, Textilproduktion, Softwareentwicklung etc.) bietet, wird jedoch trotz dieser Entwicklung noch einige Zeit fortbestehen. Gute Aussichten für Investitionen bestehen u. a. auch weiterhin im Tourismusbereich. Mehr als 580.000 Deutsche besuchten 2008 Bulgarien. Ausbaufähig erscheint besonders der Bereich Individualtourismus, insbesondere Öko-, Wander- und Bädertourismus, aber auch der Wintersportbereich. Das Investitionsklima für Ausländer ist im Wesentlichen gut, trotz erheblicher Defizite im Justizbereich. 2005 erreichte die Investitionsquote Bulgariens 22 Prozent des BIP (2004 21 %). Ende 2007 wurden die steuerlichen Bedingungen durch die Einführung einer zehnprozentigen Pauschalsteuer verbessert. Landwirtschaft. Bulgarien ist eines der Hauptanbauländer für Orient-Tabak. Im Tal der Rosen in Zentralbulgarien befindet sich die weltweit bedeutendste Anbauregion von Rosenblüten (Rosa damascena) zur Gewinnung von Rosenöl. Umweltbelastung. Nach 1950 wurden die Industrialisierung und die Intensivierung der Landwirtschaft im Rahmen der Planwirtschaft betrieben, oft zu Lasten der Umwelt. Die Förderung vor allem der Schwerindustrie, des Energiesektors und des Bergbaus sowie der Einsatz veralteter Technologien verursachten zum Teil erhebliche Luft-, Boden- und Wasserverschmutzungen. Mit der Schließung vieler industrieller Produktionsstätten nach der Wende haben sich die Umweltbelastungen stetig verringert. Obwohl Bulgarien seit Mitte der 90er Jahre im Umweltbereich deutliche Fortschritte erzielt hat, sind nach Schätzungen der Weltbank für die Umsetzung des EU-Acquis im Umweltbereich bis zum Jahr 2020 Investitionen von rund 9 Milliarden € erforderlich. Jährlich müssten demnach Investitionen in Höhe von rund 11 % des BIP getätigt werden. Der Umweltschutz wurde durch die Gründung des Umweltministeriums 1990 erstmals institutionalisiert und als Staatsziel in der bulgarischen Verfassung von 1991 (Art. 15) verankert. Im Umweltschutzgesetz vom September 2002 hat die bulgarische Regierung erstmals das Prinzip der Nachhaltigkeit gesetzlich festgeschrieben. Korruption. Korruption stellt in Bulgarien ein gravierendes Problem dar. Das Europäische Amt für Betrugsbekämpfung (OLAF) bemängelte bereits mehrfach Korruption und Veruntreuung von EU-Geldern in Bulgarien. Im November 2008 kürzte die Europäische Union Bulgarien aufgrund mangelnder Fortschritte in der Korruptionsbekämpfung 220 Millionen Euro Fördergelder. Bereits im Juli 2008 waren 825 Millionen Euro an Hilfen vorübergehend eingefroren worden. Auf dem weltweiten "Corruption Perceptions Index 2011" von Transparency International erreichte Bulgarien mit Platz 83 von 182 das schlechteste Ergebnis innerhalb der Europäischen Union und fiel damit gegenüber dem Vorjahr um 13 Plätze. 2009 erreichte Bulgarien noch den Platz 71 von 180 Staaten. Staatshaushalt. Der Staatshaushalt umfasste 2009 Ausgaben in Höhe von umgerechnet 17,89 Mrd. US-Dollar, dem standen Einnahmen von umgerechnet 17,3 Mrd. US-Dollar gegenüber. Daraus ergibt sich ein Haushaltsdefizit in Höhe von 1,3 % des BIP. Die Staatsverschuldung betrug 2009 9,6 Mrd. US-Dollar oder 21,4 % des BIP. Infrastruktur. Bulgarien und die paneuropäischen Verkehrskorridore Verkehr. Bulgarien ist ein wichtiges Transitland zwischen Mitteleuropa und dem Nahen Osten. Die paneuropäischen Verkehrskorridore IV (Dresden–Budapest–Craiova–Sofia–Thessaloniki), VII (Donau), VIII (Durrës-Tirana–Skopje–Sofia–Burgas) und IX (Helsinki–Moskau–Bukarest–Dimitrowgrad–Alexandropolis) führen durch Bulgarien. Die Achse Sofia-Burgas ist auch Teil des Transeuropäischen Transportnetzes (TEN) der Europäischen Union. Das Land verfügt über ein relativ gut ausgebautes Verkehrsnetz: Eisenbahnnetz (Bulgarische Staatseisenbahn), Straßennetz (jedoch bislang nur wenige Autobahnen), vier internationale Flughäfen (Sofia, Varna, Burgas und Plowdiw), zwei Hochseehäfen (Burgas, Varna) und mehrere kleinere Seehäfen (Sosopol, Baltschik) sowie Binnenhäfen (an der Donau). Bis ins späte Mittelalter spielte die Binnenfahrt auf dem Fluss Mariza eine wichtige Rolle. Straße. Der Verkehr in Bulgarien findet vor allem auf der Straße statt. Zwischen den Großstädten verkehren Busse mehrerer Busunternehmen. Regionalverbindungen in die kleineren Städte gibt es von der jeweiligen Provinzhauptstadt. In der Sommerzeit werden auch direkte Verbindungen von Sofia und anderen Großstädten in die meisten Tourismusorte an der Schwarzmeerküste angeboten. Die Busverbindungen in die Groß- und Hauptstädte der Nachbarländer stellen eine preiswertere Alternative dar und sind gut ausgebaut. Insgesamt hat Bulgarien mit der Türkei drei Grenzübergänge, mit Griechenland vier (ein weiterer in Bau), mit Mazedonien drei (weitere drei in Planung), mit Serbien fünf (weitere drei in Planung) und mit Rumänien zwölf (ein weiterer in Bau, siehe Donaubrücke 2). Das bulgarische Autobahnnetz befindet sich noch im Ausbau. Durch die Schließung der letzten Lücken der Autobahn Trakia besteht seit Mitte 2013 eine direkte Autobahnverbindung zwischen der Hauptstadt Sofia und dem Schwarzen Meer. Anders als in den Nachbarländern gibt man in Bulgarien, geographisch bedingt, statt den Nord-Süd- den Ost-West-Verbindungen die Priorität. Schiene. Alle großen Städte Bulgarien werden von der Bulgarischen Staatsbahn erschlossen. Die Hauptstrecken werden ausgebaut, jedoch werden Zugverbindungen in kleinere Orte gestrichen. Auf der Strecke Sofia–Burgas (ca. 400 km) dauert eine Zugfahrt etwa acht Stunden, während eine Busfahrt nur fünf Stunden benötigt. Aus diesem Grund wird die bulgarische Bahn eher gemieden, ist jedoch auf einigen Strecken preiswerter als eine Busfahrt. Hochgeschwindigkeitsverkehr existiert in Bulgarien wie auch in den Nachbarländern nicht. Eine Hochgeschwindigkeitsstrecke zwischen Sofia und Istanbul, via Plowdiw soll als Teil des IV Paneuropäischen Korridors entstehen und im zweiten Schritt von Sofia via Wraza zur Donaubrücke 2 an der rumänischen Grenze bei Widin fortgeführt werden. Das Projekt soll finanziell bis zur Hälfte von der EU getragen werden. Ein realistischer Zeitpunkt, zu dem es in Betrieb gehen kann, ist nicht bekannt. Einige bulgarische Städte (Sofia, Burgas u. a.) sind Beginn und Ziel mehrerer europäischer Zugverbindungen (siehe: Internationale Strecken). Auch der Orient-Express durchquerte Bulgarien. Das bulgarische Schienennetz ist mit dem der Nachbarländer verbunden. Eine Ausnahme stellt Mazedonien dar. Eine Gleisverbindung bis zur Grenze existiert auf bulgarischer Seite seit den 1930er Jahren. Ein Weiterbau und Anschluss an das mazedonische Eisenbahnnetz erfolgt jedoch in Mazedonien aus politischen Gründen nicht. Während des Zweiten Weltkrieges unterstützte die deutsche Wehrmacht den Bau einer direkten Schienenverbindung zwischen den Küstenstädten Burgas und Varna, jedoch konnte sie von Burgas nur bis Pomorie fertiggestellt werden. Noch heute existiert keine direkte Verbindung zwischen beiden Städten und eine Zugfahrt auf der ca. 120 km langen Strecke erfordert ein zweimaliges Umsteigen. Die bekannteste Schmalspurbahn Bulgariens, die Rhodopenbahn, führt von Septemwri nach Dobrinischte. Ihre Strecke liegt entlang der Gebirge Rhodopen, Rila und Pirin und überquert Awramowo, den höchstgelegenen Bahnhof der Balkanhalbinsel (1267 m). Kunst und Architektur. Die Kunst hat auf dem Gebiet Bulgariens eine lange Tradition. Aus dem 2. Jahrtausend v. Chr. sind zahlreiche thrakische Hügelgräber (Kurgane) und Goldschmiedearbeiten (siehe hierzu thrakische Kunst) erhalten. Mittelalter und Renaissance. a>, in der Preslawer Keramik gefasst Als wichtigstes Denkmal aus der frühesten bulgarischen Zeit gilt das in der UNESCO-Weltkulturerbe-Liste eingetragene lebensgroße Felsenrelief "Reiter von Madara" (8. Jahrhundert). Die erste Hauptstadt Pliska wurde noch nach römisch-byzantinischem Vorbild mit starken Festungsanlagen umgeben, besaß jedoch auch Paläste, Kirchen, Bäder und andere öffentliche Bauten, deren Bauformen und -technik ihren Ursprung zum Teil in Mittelasien und im Vorderen Orient hatten. Dies genügte jedoch nicht den Herrschaftsanspruch der bulgarischen Zaren und Zar Simeon I., genannt der "Große", verlegte 863 die Hauptstadt in das ebenfalls stark befestigte Preslaw. Von ihren Kirchen und Klöstern ist die "Runde (auch Goldene) Kirche" mit vielfarbigem Schmuck und glasierten Tonplatten (Preslawer Keramik) zu nennen, der für die bulgarische Kunst dieser Periode kennzeichnend ist. Mit der Christianisierung des bulgarischen Reiches wurden auch in anderen Städten Sakralbauten neu errichtet (wie etwa die Sophienkirche (Ohrid) in Ohrid (heute Mazedonien) als untypische Pfeilerbasilika errichtet, oder die "Stephanoskirche" in Nessebar) oder umgebaut ("Alte Metropolitenkirche" in Nessebar oder Sophienkirche in Sofia). Im Unterschied zur byzantinischen Kirchenarchitektur zeigte sich bereits vor Mitte des 10. Jahrhunderts die Tendenz zu sehr dekorativem Mauerwerk (Blendbogennischen, Mosaikschmuck, bemalte Keramik, Freskenmalerei). Außenbemalung der Hauptkirche im Rila Kloster Mit der byzantinischen Herrschaft (1018–1185/86) verstärkten sich auch die Einflüsse von Byzanz in der bulgarischen Kunst. Mit der Restauration des Bulgarischen Reiches im Jahre 1185 fand die Kunst des Ersten Bulgarischen Reiches ihre Fortsetzung. In Tarnowo, der neuen Hauptstadt, entstand ein kleinerer, meist einschiffiger, von Byzanz übernommener Kirchentyp, dessen Gewölbe und Böden zur Kuppel überleiten (Beispiele für Kreuzkuppelkirchen sind die "Nikolauskirche" in Melnik, die "Pantokratorkirche" und "Johannes-Aleiturgetos-Kirche" in Nessebar sowie die "40-Märtyrer-Kirche" in Tarnowo). Sie blieben jedoch im Unterschied zur byzantinischen Kunst in den dekorativen Tendenzen in der sakralen Baukunst bestimmend (buntes, mit glasierter Keramik verziertes Sichtmauerwerk, Blendnischen und -arkaden). Die Außenwände sind durch Blendbögen gegliedert und durch rhythmische Wechsel roter und weißer Steine oder auch Keramik. Größere Selbstständigkeit erreichte die Malerei in den Fresken von Bojana (1259). Die in reiner Freskotechnik ("fresco buono") ausgeführte Malerei in der Kirche von Bojana gehört somit zu der besterhaltenen aus dieser Periode in Südosteuropa und trägt renaissancehafte Züge. Die Fresken der Höhlenkirche von Iwanowo (kurz nach 1232, gestiftet von Iwan Assen II.) bereiteten den Boden für die künstlerische Renaissance unter den Palaiologen Ende des 13./Anfang des 14. Jahrhunderts. Die Fresken der "Johanneskirche" von Zemen (um 1300) sind mit vorikonoklastischen Elementen durchsetzt. Seit dieser Zeit, 13. und 14. Jahrhundert, ist Bulgarien auch für seine Ikonenmalerei bekannt. Die Vertreter der Malschule von Tarnowo überschritten die überlieferten Regeln der traditionellen Ikonenmalerei und schufen damit die bedeutendste eigenständige Schule der ostkirchlichen Kunst. Von den erhaltenen Bilderhandschriften sind die reichlich illustrierten "Tetraevangeliar von Zar Alexander" und die "Manasses-Chronik" des Zaren Iwan Alexander die bekanntesten (die erste befindet sich heute im British Museum in London, die zweite in der Vatikanischen Bibliothek). Bulgarische Wiedergeburt. Nach der osmanischen Eroberung wurde die bulgarische christliche Kunst fast nur in den abgelegenen Klöstern gepflegt. Bulgarische Künstler waren jedoch an der regen osmanische Bautätigkeit von öffentlichen Gebäuden und Bauten in der Zeit nach der Eroberung beteiligt. Vom 15. bis 18. Jahrhundert war die von der Mönchsrepublik Athos ausgehende Kunst bestimmend. Mit der bulgarischen Wiedergeburt am Ende der osmanischen Besatzung entstanden überall in den bulgarischen Ländereien neue Kunstschulen (über 40 sind bekannt), die alle dem so genannten "Wiedergeburtsstil" angehörten. In dieser Zeit entwickelte sich die Holzschnitzerei als spezifische bulgarische Kunst. Die bekanntesten Kunstschulen waren die "Kunstschule von Tschiprowzi", "Kunstschule von Debar" und die "Kunstschule von Samokow". Aus der letzten gingen viele der Maler hervor, die die Bemalung von vielen Klöstern und Kirchen ausführten, darunter des mittlerweile in der Liste des Weltkulturerbes der UNESCO aufgenommenen Rila-Klosters. Wichtig für die neuere Zeit war Jules Pascin, der 1885 in Widin geboren wurde. Eigentlich hieß er Julius Pinkas. Da er lange Zeit in Frankreich verbrachte, wo er auch 1930 starb, wird er als bulgarisch-französischer Maler und Grafiker bezeichnet. Neuzeit. Der bekannteste bulgarische Künstler ist wohl Christo Jawaschew, der unter seinem Vornamen und zusammen mit seiner Frau Jeanne-Claude bekannt wurde. Er verhüllte etwa das Reichstagsgebäude in Berlin und den Pont Neuf in Paris. In der Zeit des Sozialismus wurden in vielen bulgarischen Städten monumentale Bauten zu Ehren der Staatsphilosophie oder ihrer Vertreter errichtet. Musik. Bulgarien verfügt über eine große Tradition des Chorgesangs. Der staatliche Chor wurde durch einen eigenen Stil sehr erfolgreich, zahllose bulgarische Frauenchöre wie etwa "Angelite" sind heute international bekannt. Das bulgarische Nationalinstrument ist, neben der Flöte "Kaval", der Dudelsack "Gaida". In den meisten Landesteilen wird die hochgestimmte Thrakische Gaida ("Djura Gaida") gespielt, überwiegend zum Tanz, während im rhodopischen Gebirge die tief gestimmte "Kaba Gaida" zur Begleitung meist trauriger Balladen genutzt wird. Des Weiteren finden die Langhalslaute "Tambura", das Streichinstrument "Gusle", die Fidel "Gadulka" sowie die Trommeln "Tapan" (Tupan, Davul) und "Tarambuka" (Darbuka) und das Blasinstrument "Zurna" in der traditionellen bulgarischen Volksmusik Verwendung. Bekannte bulgarische Sänger sind unter anderem Ari Leschnikow, der von 1928 bis zur Auflösung in den 1930er-Jahren den Comedian Harmonists als Tenor angehörte und der Opernsänger Boris Christow, der als einer der weltbesten Bassisten galt. Die gebürtige Bulgarin Wesselina Kassarowa gehört heute zu den gefragtesten Mezzosopranistinnen der Welt. Mit Anna-Maria Ravnopolska-Dean kommt eine der bekanntesten Harfenistinnen der Gegenwart aus Bulgarien. Aber auch die bulgarischen Folklorelieder wurden durch die Sänger von "Le Mystère Des Voix Bulgares" und Walja Balkanska weltberühmt. Auch die populäre französische Chanson- und Pop-Sängerin Sylvie Vartan ist eine gebürtige Bulgarin. Das Besondere an der bulgarischen Volksmusik ist, dass diese über eine große rhythmische Vielfalt verfügt. Die Verwendung an ungeraden Takten, wie zum Beispiel 5/8, 7/8 und 9/8, machen diese Musik besonders schwierig zu spielen. Viele moderne Musiker in den verschiedensten Genres aus aller Welt benutzen Fragmente bulgarischer beziehungsweise südosteuropäischer Volksmusik. Literatur. Die Anfänge der bulgarischen Literatur wurden im 8./9. Jahrhundert gelegt. Dabei handelte es sich zunächst um Chroniken, Bau- und Grabinschriften bulgarischer Herrscher und Adligen in Griechisch, selten aber auch in der Sprache der Urbulgaren. Die "Altbulgarische Literatur" wurde in der nach der Christianisierung im 10. Jahrhundert in Bulgarien entstandenen Kyrillischen Schrift geschrieben. In Pliska, der Residenz des Fürsten Boris, im westlich gelegenen Ohrid sowie in Weliki Preslaw, wohin Simeon I. die bulgarische Hauptstadt verlegt hatte, waren einige der Schüler der Slawenapostel Kyrill und Method tätig, darunter Kliment von Ohrid, Konstantin von Preslaw, Ioan Exarch und Tschernorizec Hrabar. Der letzte verfasste das auch in Serbien und Russland bekannte Traktat zur Verteidigung der slawischen Schrift „O Pismenach“ (auf Deutsch "Über die Buchstaben"). Die Regierungszeit von Boris I. und Simeon I. gilt als das „goldene Zeitalter“ der bulgarischen Literatur. Tetraevangeliar der Schule von Tarnowo Die "Mittelbulgarische Literatur" wiederum wurde in "Mittelbulgarisch" (Kirchenslawisch) verfasst. In dieser Zeit wurden Apokryphen, Lebensbeschreibungen, Geschichtschroniken aus dem Griechischen ins Mittelbulgarische übersetzt. Eine zweite Blütezeit erlebte die bulgarische Literatur während des 13. und 14. Jahrhunderts mit einem in der Nähe von Tarnowo 1350 gegründetes Kloster als Zentrum. Zu dieser Schule zählten unter anderem der Mönch Kiprian, Grigorij Camblak und Konstantin Kostenezki, die nach der Eroberung Bulgariens die formalen Prinzipien der bulgarischen Literatur auch in Gebiete der heutigen Staaten Russland, Rumänien und Serbien brachten. Einige der wichtigsten Autoren während der Zeit der osmanischen Herrschaft waren Wladislaw Gramatik, Païssi von Hilandar, Sophronius von Wraza, die Brüder Miladinowi deren Werke vor allem durch die Suche nach der bulgarischen Identität gekennzeichnet waren. Im 18. Jahrhundert bildeten sich zwei Genres heraus, die Histographie und die Autobiographie. Im Zuge der bulgarischen Wiedergeburt erreichte die bulgarische Literatur einen weiteren Höhepunkt. Die patriotischen Gedichte der Revolutionäre wie Christo Botew, Ljuben Karawelow und die Werke von Jordan Jowkow und dem Patriarchen der bulgarischen Literatur Iwan Wasow haben die Zeit des Kampfes für ein freies Bulgarien und die Zeit danach maßgeblich geprägt. Die Memoirenliteratur wiederum gelangte in den Werken von Sachari Stojanow und Simeon Radew zu ihrer Blüte. Durch symbolistische Dichter wie Nikolai Liliew, Dimtscho Debeljanow, Pejo Jaworow, Christo Jassenow, Teodor Trajanow oder Nikolai Rainow fand die bulgarische Dichtung Anschluss an die moderne Weltliteratur der Jahrhundertwende. Verstärkt wurde dies vor allem durch das Engagement des Expressionisten und Übersetzers Geo Milew, der jedoch 1925 durch regierungsnahe Kräfte ermordet wurde. Nach Autoren wie Atanas Daltschew, Fani Popowa-Mutafowa, Elin Pelin oder Nikola Wapzarow wird die heutige bulgarische Literatur von Autoren wie Nedjalko Jordanow, Jordan Raditsckow, Nikolai Haitow oder Georgi Markow geprägt. Folklore und Brauchtum. Eine besondere Rolle in der Kulturgeschichte Bulgariens spielt die Folklore und das Brauchtum, die während der osmanisch-türkischen Herrschaft nicht nur zur Bewahrung der nationalen Identität, sondern auch zu den weiteren Entwicklungen der Kunst und der Literatur betrug. Eng verbunden mit der damaligen Lebensweise und Kämpfen gegen die Osmanen sind vor allem die Volkslieder (Helden-, Hajduken-, Fest-, Ritual-, Liebes- und epische Lieder), die wegen der Vielfalt der Texte und Rhythmen (ungerade Takte wie zum Beispiel 5/8, 5/16, 7/16 etc.) und der originellen Melodik (dorische, phrygische Tonart, mensurische Metrik etc.) auch heute populär sind. In Bulgarien werden Gruppen- und Solotänze unterschieden ("choro" bzw. "ratscheniza"), die vor allem durch sehr komplizierte Tanzschritte gekennzeichnet sind. Die Tänze werden meist von der Hirtenflöte "Kaval", der Sackpfeife "Gajda", der Zylindertrommel "Tapan" sowie den Streichinstrumenten "Gadulka" und "Gusla" begleitet. Ein beliebter Brauch ist das Verschenken von Martenizas ("Мартеница"), kleinen rot-weißen Stoffanhängern oder Armbändern, zum Frühlingsanfang am 1. März. Die Martenizas sollen, damit sie Glück und Gesundheit bringen, getragen werden, bis man den ersten Storch sieht. Dann soll man die Marteniza an einen Zweig (vorzugsweise der Kornelkirsche) binden und sich etwas wünschen. Weiter wird im Südosten Bulgariens, in der Region Strandscha, dem Feuerlauf nachgegangen. In allen Regionen sind die Karnevalspiele der Kukeri vertreten, die eine Art Volkstheater darstellen. Sie treten an die Woche vor Beginn der orthodoxen Fastenzeit in Ostbulgarien und zwischen Weihnachten und Dreikönigsfest in Restbulgarien auf. Ähnlich wie in Deutschland während der Karnevalszeit, oder während der Rauhnächte werden Straßentänze und verschiedene Bräuche abgehalten, die symbolisch für die zur Geisteraustreibung oder -beschwörung, Winteraustreibung, für Fruchtbarkeit, Gesundheit, gute Saat und Ernte und Weiteres stehen. Hochentwickelt war im Mittelalter auch das Kunstgewerbe, das man heute vor allem in den phantasiereichen Nationaltrachten (bunte Stoffe mit Stickereien, schwerer metallener Schmuck, verschiedene Kopfbedeckungen) wiederfindet. Das Interesse für die Folklore und das Brauchtum bestand schon während der nationalen Wiedergeburt. In der Zeit der kommunistischen Herrschaft wurde die Bewahrung der Tradition durch die Organisation mehrerer Folklore-Festivals, folkloristische Orchester, Tanzensembles, eine Hochschule in Kotel und andere Initiativen gefördert, jedoch gerieten Elemente der Volkskultur (Bräuche, Rituale, Sitten), die in das Gesamtbild der sozialistischen Gesellschaft aus ideologischer Sicht nicht passten, in Vergessenheit (unter anderem das Besuchen der Liturgie zu den kirchlichen Feiertagen, wie Ostern oder Weihnachten). Seit der Demokratisierung wurden jedoch die alten Traditionen neu belebt. In Bulgarien gilt abweichend von der sonst europaweiten üblichen Konvention das Kopfnicken als Verneinung, das Kopfschütteln als Bejahung. Der Sage nach geht dies auf das Verhör eines Freiheitskämpfers zurück, der mit unter dem Kinn gehaltener Schwertspitze gefragt wurde, ob er leben bleiben wolle. Küche. Eine typische bulgarische Mahlzeit beginnt mit einem Schopska-Salat (шопска салата) oder Thrakijska-Salat (тракийска салата) zu einem Rakija und im Sommer mit der kalten Suppe Tarator (таратор). Als Hauptgericht gelten die Kebaptscheta (кебапчета) oder ein typischer Festtagslammbraten, das Tschewerme (чеверме), Kawarma (каварма) sowie andere Grillspeisen. Zum Schluss nimmt man die Baniza (баница) zu sich. In der bulgarischen Küche sind zudem das Bohnenkraut Tschubriza (чубрица) und die kräftig gewürzte, hauptsächlich aus Paprika- und Tomatenpüree bestehende Ljuteniza (лютеница) sowie die besonderen Wurstarten Lukanka (луканка) und Sucuk (суджук) sehr beliebt. Gedenktage. Am 19. Januar 2011 beschloss die bulgarische Regierung, den 1. Februar als Gedenktag für die Opfer des Kommunismus einzuführen. Am 2. Juni wird in ganz Bulgarien durch das Einschalten der Luftsirenen am Mittag um 12:00 Uhr und einer Gedenkminute das Leben und Werk des Freiheitskämpfers Christo Botew geehrt. Ein weiterer Gedenktag ist der 18. Februar, Todestag des Revolutionärs und Ideologen Wassil Lewski. Dabei finden am 19. Februar im ganzen Land Gedenkfeiern mit Blumenniederlegungen und Andachtsgottesdiensten statt. Wissenschaft/Erfindungen. Der berühmteste Wissenschaftler bulgarischer Herkunft ist wahrscheinlich der in den USA geborene John Vincent Atanasoff. Er ist der Erfinder des elektronischen digitalen Rechners und lehrte mathematische Physik. Ebenfalls ein berühmter US-amerikanisch-österreichisch-bulgarischer Wissenschaftler ist Carl Djerassi, der auch als der Vater der Antibabypille bezeichnet wird. Homosexualität. Homosexuelle Handlungen wurden 2002 in Bulgarien legalisiert. Durch die Gleichbehandlungsrahmenrichtlinie der EU werden Lesben und Schwule vor Diskriminierung auf dem Arbeitsmarkt geschützt, gleichgeschlechtliche Partnerschaften werden staatlich jedoch nicht anerkannt. Sport. Vor der Wende war Sport Staatspolitik und viele bulgarische Sportler sorgten weltweit für Aufmerksamkeit. Die größten Erfolge wurden in den Individualsportarten erzielt. Nach dem Fall des Kommunismus und mit dem Wegfall staatlicher Unterstützung konnten sich nur Sportler beweisen, die äußerst große Talente waren und meist aus Sportlerfamilien kamen. Bekanntes Beispiel sind die Maleeva-Schwestern im Tennis, die alle in den Top-10 gestanden haben und deren letztes Mitglied, Magdalena Maleeva, 2005 zurücktrat. In Bulgarien gibt es eine lange Tradition im Schach, Kraftsport (Ringen, Gewichtheben, Boxen), Volleyball, in der Leichtathletik und in der rhythmischen Sportgymnastik. Der Ringer Nikola Stantschew war der erste bulgarische Olympiasieger. Schach. Bulgarien kann eine lange Tradition im Schachspielen vorweisen. Bulgarien hat seit der Einführung des Großmeistertitels 1970 durch den Weltschachbund FIDE 39 Großmeister hervorgebracht (Stand: September 2012). Dazu gehören der ehemalige Schachweltmeister Wesselin Topalow und die ehemalige Schachweltmeisterin Antoaneta Stefanowa, des Weiteren bekannte Schachspieler wie Iwan Tscheparinow, Julian Radulski, Iwan Radulow, Ljuben Spassow und Kiril Georgiew. Volleyball. Volleyball ist nach Fußball die zweite Ballsportart, die nicht nur in Bulgarien beliebt, sondern in der das Land auch international erfolgreich ist. Die Männermannschaft erreichte zuletzt 2007 den dritten Platz bei der Weltmeisterschaft und nimmt zurzeit (August 2012) den siebten Platz der Volleyball-Weltrangliste ein. Die Frauen erreichten den Gipfel ihrer sportlichen Erfolge mit dem Europatitel im Jahre 1981. Zu den bekanntesten bulgarischen Volleyballspielern zählen Plamen Konstantinow, Daniel Peew, Nikolaj Scheljaskow, Ljubomir Ganew, Martin Stoew, Wladimir Nikolow und Matej Kasijski sowie bei den Frauen Zwetana Boschurina und Jordanka Bontschewa. 2012 erreichte Bulgarien bei den Olympischen Spielen in London den vierten Platz bei den Männern. Fußball. Die bulgarische Fußballnationalmannschaft konnte sich mehrmals für Europa- und Weltmeisterschaften qualifizieren. Derzeitiger Trainer ist Ljuboslaw Penew. Der größte Erfolg des bulgarischen Fußballs war der 4. Platz der Nationalmannschaft bei der Fußball-Weltmeisterschaft 1994 in den USA. Unter den Fußballern der „Goldenen Generation“ sind vor allem der Träger des Ballon d’Or, Christo Stoitschkow, oder der Ex-Stuttgarter Krassimir Balakow zu nennen. Der erfolgreichste bulgarische Verein ist ZSKA Sofia, der zweimal im Halbfinale des Europapokals der Landesmeister stand. Weitere wichtige Fußballvereine sind Lewski Sofia, Slawia Sofia, Lokomotive Sofia und Litex Lowetsch. Derzeitiger Meister (12) ist Ludogorez Rasgrad. Weitere bekannte bulgarische Fußballspieler sind: Emil Kostadinow, Ljuboslaw Penew, Trifon Iwanow, Jordan Letschkow, Georgi Asparuchow, Dimitar Berbatow, Martin Petrow, Stilian Petrow, Waleri Boschinow. Gewichtheben. Bulgarien hat auch eine lange Tradition im Gewichtheben. Bekannteste Gewichtheber sind Iwan Abadschiew, Norair Nurikjan, Milena Trendafilowa oder Iwan Iwanow. Es gibt sogar einige bekannte türkische Gewichtheber, wie zum Beispiel Naim Süleymanoğlu oder Halil Mutlu, die sich während des damaligen Systems als Angehörige der türkischen Minderheit entwickeln konnten und in beiden Ländern hohes Ansehen genießen. Motorradsport. Die Städte Schumen und Targowischte sind die bulgarischen Speedway-Hochburgen und auf diesen Bahnen wurden bereits seit den 70er Jahren mehrere Qualifikationsrennen zu Weltmeisterschaften ausgetragen. Der bulgarische Motorsport-Verband ist indes bemüht, das Stadion in Targowischte so zu modernisieren, das ein Speedway-WM-Grand-Prix von Bulgarien dort ausgefahren werden kann. Weblinks. – Das Wikipedia-Portal zum Einstieg in weitere Artikel B. Traven. Ret Marut bei seiner Verhaftung, London, 1923 B. Traven (* 23. Februar 1882; † 26. März 1969 in Mexiko-Stadt) ist das Pseudonym eines deutschen Schriftstellers, dessen echter Name, Geburtsdatum und -ort sowie Einzelheiten des Lebens Streitgegenstand unter Literaturwissenschaftlern sind. Es ist aber sicher, dass B. Traven seit 1924 in Mexiko wohnte, wo auch die meisten seiner Romane und Erzählungen spielen. Die Identität von B. Traven war lange Zeit Gegenstand spekulativer Hypothesen. Seit längerem wird er sicher mit dem Theaterschauspieler und Anarchisten Ret Marut identifiziert, der 1924 nach Mexiko floh. Inzwischen zweifelt auch kaum ein ernsthafter Wissenschaftler mehr daran, dass "B. Traven" wie auch "Ret Marut" Pseudonyme von Otto Feige sind, der aus Schwiebus in der preußischen Provinz Brandenburg, heute Świebodzin (Polen), stammte. Zwei weitere Namen wurden nach dem Zweiten Weltkrieg mit Traven in Verbindung gebracht – Berick Traven Torsvan und Hal Croves. Beide gaben sich als seine literarischen Agenten aus, bestritten aber immer, selbst B. Traven zu sein. Traven ist Autor von zwölf Romanen, einem Reisebericht und vielen Erzählungen, in denen sich sensationelle Abenteuerthematik und ironischer Humor mit der kritischen Einstellung zum Kapitalismus verbinden, die sozialistische und anarchistische Sympathien verraten. Zu den bekanntesten Werken B. Travens gehören die Romane "Das Totenschiff" von 1926, "Der Schatz der Sierra Madre" von 1927 und der sogenannte Caoba-Zyklus, eine Gruppe von sechs Romanen aus den Jahren 1930 bis 1939, deren Handlung kurz vor und während der Mexikanischen Revolution Anfang des 20. Jahrhunderts spielt. B. Travens Romane und Erzählungen genossen schon in der Zwischenkriegsperiode große Popularität und behielten sie auch nach dem Zweiten Weltkrieg. Seine Werke wurden in über 24 Sprachen übersetzt und erreichten eine geschätzte Gesamtauflage von über 30 Millionen. Die Romane. Tageszeitung "Vorwärts", bei der Traven debütierte (Titelseite der Erstausgabe der Zeitung von 1876) Ein unbekannter Schriftsteller B. Traven tauchte auf der deutschen literarischen Bühne 1925 auf, als die Berliner Tageszeitung "Vorwärts", „Zentralorgan der Sozialdemokratischen Partei Deutschlands“, am 28. Februar 1925 seine Erzählung "Wie Götter entstehen" publizierte. Im Juni und Juli desselben Jahres erschien dort der erste Roman B. Travens – "Die Baumwollpflücker". Der Buchmeister-Verlag Berlin/Leipzig, welcher der linken, vom Bildungsverband der deutschen Buchdrucker gegründeten Buchgemeinschaft Büchergilde Gutenberg gehörte, brachte 1926 die erweiterte Buchausgabe des Romans unter dem Titel "Der Wobbly" heraus, in Fußnoten als „Mitglied des I.W.W. = Industrial Workers of the World; eine sehr radikale Arbeiter-Organisation“ erklärt. In späteren Ausgaben kehrte man zu "Die Baumwollpflücker" zurück. Das Buch führte die Figur des Gerald Gales ein (in anderen Werken auch Gale oder Gerard Gales), eines US-amerikanischen Seemanns, der in Mexiko Arbeit in verschiedenen Berufen sucht, oft in zwielichtigem Milieu verkehrt und als Opfer und Zeuge kapitalistischer Ausbeutung den Kampfwillen und die Lebenslust trotzdem nicht verliert. In demselben Jahr 1926 veröffentlichte die Büchergilde Gutenberg, die bis 1939 der Hauptverlag B. Travens blieb, seinen zweiten Roman "Das Totenschiff". Der Held des Romans ist wiederum Gerald Gale, als Seemann, der nach dem Verlust seiner Dokumente und damit seiner Identität das Recht auf ein normales Leben und seine Heimat einbüßt und sich schließlich auf einem „Totenschiff“ wiederfindet, das von den Eignern zum Zweck des Versicherungsbetruges auf hoher See versenkt wird. Der Roman ist eine Anklage gegen die Geldgier der kapitalistischen Arbeitgeber und den Bürokratismus der Beamten, die Gale immer wieder aus den Ländern deportieren, in denen er versucht, Zuflucht zu finden. "Das Totenschiff" kann daher auch als Roman mit autobiografischen Elementen betrachtet werden. Wenn man annimmt, dass B. Traven mit dem Revolutionär Ret Marut identisch ist, sind im Werk deutliche Parallelen sichtbar zwischen dem Schicksal Gales und dem Leben seines heimatlosen Autors, der ebenfalls gezwungen worden sein mag, im Kesselraum eines Dampfers auf der Fahrt aus Europa nach Mexiko zu arbeiten. Der neben "Das Totenschiff" bekannteste Roman B. Travens ist "Der Schatz der Sierra Madre" von 1927. Seine Helden sind eine Gruppe US-amerikanischer Abenteurer und Goldsucher in Mexiko. 1948 wurde das Buch von Hollywood-Regisseur John Huston unter demselben Titel mit großem Erfolg verfilmt. Die Figur des Gerald Gales kehrte im vierten Roman Travens – "Die Brücke im Dschungel" – zurück, der 1927 im "Vorwärts" in Fortsetzungen erschien und 1929 als erweiterte Buchausgabe herausgegeben wurde. Im Roman wurde von Traven zum ersten Mal ausführlich die Situation der in Mexiko lebenden Indigenen und die Unterschiede zwischen der christlichen und der indigenen Kultur in Lateinamerika aufgegriffen, Themen, die auch Travens späteren Caoba-Zyklus dominierten. 1929 veröffentlichte B. Traven seinen umfangreichsten Roman – "Die weiße Rose", eine epische, auf Fakten gestützte Geschichte der Enteignung eines indianischen Stammes durch eine US-amerikanische Erdölfirma. Daß der Titel des Buches die in München tätige antinazistische Studentenorganisation Weiße Rose, deren Mitglieder 1943 hingerichtet wurden, zu ihrem Namen inspiriert haben könnte, ist nicht zu belegen. Mexikanische Indigene (Lithografie aus dem 19. Jh.) Die 1930er Jahre sind vor allem die Zeit, in der Traven den Caoba-Zyklus schuf. Er besteht aus sechs Romanen, die in der Zeit 1931–1939 herausgegeben wurden: "Der Karren" (auch unter dem Titel "Die Carreta" bekannt, 1931), "Regierung" (1931), "Der Marsch ins Reich der Caoba" (1933), "Die Troza" (1936), "Die Rebellion der Gehenkten" (1936) und "Ein General kommt aus dem Dschungel" (1939). Die Romane beschreiben das Leben der mexikanischen Indigenen, die Anfang des 20. Jahrhunderts im Bundesstaat Chiapas in Zwangsarbeitslagern (sog. "monterías") im Dschungel zur Arbeit beim Mahagoniholzfällen gezwungen sind, was schließlich zur Meuterei und zum Ausbruch der Mexikanischen Revolution führt. Nach der Vollendung des Caoba-Zyklus verstummte B. Traven als Autor größerer literarischer Werke. Es folgten Erzählungen, unter anderem 1950 die Novelle (das mexikanische Märchen) "Macario", die 1953 durch die "New York Times" zur besten Kurzgeschichte des Jahres gekürt wurde. 1960 erschien der letzte Roman Travens, "Aslan Norval", die Geschichte einer US-amerikanischen Millionärin, die mit einem alternden Geschäftsmann verheiratet und gleichzeitig in einen jungen Mann verliebt ist. Sie beabsichtigt, als Alternative zu Atomrüstung und Weltraumexploration einen durch die ganzen Vereinigten Staaten verlaufenden Kanal zu bauen. Die von dem sonstigen Schaffen des Schriftstellers ganz abweichende Thematik und Sprache des Romans bewirkten, dass er lange Zeit von Verlegern abgelehnt wurde. Die Urheberschaft Travens wurde bezweifelt; dem Roman wurde „Pornografie“ und „Trivialität“ vorgeworfen. Das Buch wurde erst nach einer gründlichen stilistischen Bearbeitung durch Johannes Schönherr angenommen, der seine Sprache dem Traven-Stil anpasste. Zweifel hinsichtlich "Aslan Norval" bestehen bis heute und komplizieren die Frage der Identität des Schriftstellers und der tatsächlichen Urheberschaft seiner Bücher zusätzlich. Andere Werke. Travens Erzählwerk ist umfangreich. Außer dem genannten "Macario" bearbeitete der Schriftsteller auch eine indianische Legende von der Entstehung der Sonne und des Mondes aus Chiapas ("Sonnen-Schöpfung", zuerst in tschechischer Übersetzung 1934 herausgegeben, das deutsche Original wurde 1936 veröffentlicht). Der Band "Der Busch" von 1928 versammelte zwölf Erzählungen, 1930 wurde die zweite erweiterte Ausgabe veröffentlicht. Viele Erzählungen und Novellen erschienen zu seinen Lebzeiten nur in Zeitschriften und Anthologien in verschiedenen Sprachen. Vulkan Tacana im Hochland von Chiapas, Grenzgebiet Guatemala Eine Sonderstellung im Gesamtwerk Travens nimmt die Reportage Land des Frühlings von 1928 ein. Der Bericht über eine Reise in den mexikanischen Bundesstaat Chiapas bot ihm die Gelegenheit, seine links-anarchistische Weltsicht zu entfalten. Die Büchergilde Gutenberg illustrierte das Buch mit Travens eigenen Fotografien, die anteilig die Landschaft von Chiapas einfingen – vor allem aber deren Bewohner, die indigenen Maya-Ureinwohner. Aussage der Werke B. Travens. Travens Werke lassen sich wohl am besten als „proletarische Abenteuerromane“ beschreiben. Sie handeln von Seeräubern, Indianern und Gesetzlosen und teilen daher viele Motive mit Autoren wie Karl May oder auch Jack London. Anders jedoch als die meisten Vertreter des Western- oder Abenteuer-Genres zeichnet sich Traven nicht nur durch eine sehr detaillierte Charakterisierung des sozialen Milieus seiner Protagonisten aus, sondern er schrieb seine Bücher vor allem konsequent aus der Perspektive der „Unterdrückten“ und „Ausgebeuteten“. Seine Figuren stehen am Rande der Gesellschaft, entstammen dem proletarischen und lumpenproletarischen Milieu. Stets mehr Antihelden als Heroen, haben sie dennoch eine urtümliche Lebenskraft, die sie immer wieder zum Aufbegehren zwingt. Die „gerechte Ordnung“ oder die christliche Moral, die in vielen Abenteuerromanen durchscheint, gilt Traven und seinen Helden nichts. Stattdessen steht stets das anarchische Element des Aufbegehrens im Mittelpunkt. Immer erfolgt es aus der unmittelbaren Ablehnung der entwürdigenden Lebensumstände der Helden, stets sind es die Entrechteten selbst, die ihre Befreiung oder aber zumindest eine rebellische Geste vollbringen. Politische Programme kommen nicht vor, das vage anarchistische „Tierra y Libertad“ des Caoba-Zyklus ist wohl noch eines der dezidiertesten Manifeste in Travens Romanen. Berufspolitiker, auch auf Seiten der Linken, kommen bei Traven, falls er sie überhaupt erwähnt, besonders schlecht weg und sind das Ziel diverser Beschimpfungen. Dennoch gelten Travens Romane als politische Bücher. Obwohl er ein positives Programm verweigert, scheut er sich doch niemals, die Ursache des Leidens seiner Protagonisten zu nennen. Dieser Quell von Qual, Entwürdigung, Elend und Tod ist für ihn „Cäsar Augustus Imperator“, wie das Diktat des Kapitals in "Das Totenschiff" genannt wird. Traven gelingt es, seine Kapitalismuskritik ohne belehrenden Zeigefinger zu artikulieren und durch die Anknüpfung an Western- und Seemannsmotive auch tatsächlich das proletarische Zielpublikum zu erreichen. Indem er in seiner Kapitalismuskritik die Unterdrückung und Ausbeutung der mexikanischen Indianer in den Mittelpunkt stellt, erwies er sich mit diesen vor allem im Caoba-Zyklus ausgearbeiteten Motiven als für die 1930er Jahre besonders fortschrittlicher Autor, denn die europäischen Intellektuellen interessierten sich damals noch nicht für die Unterdrückung in Lateinamerika. Erst Travens Bücher machten die Befreiungsversuche der Indigenas in Deutschland bekannt. Das Rätsel der Biografie B. Travens. a>, in dem B. Traven lebte Der rätselhafte Autor erfreute sich schnell großer Popularität (die Brockhaus Enzyklopädie widmete ihm schon 1934 einen Eintrag), und Literaturkritiker, Journalisten und andere versuchten, seine Identität zu ermitteln. Sie stellten dabei mehr oder weniger glaubwürdige, manchmal fantastische Hypothesen auf. Der Regisseur Jürgen Goslar drehte 1967 die fünfteilige Dokumentation "Im Busch von Mexiko – Das Rätsel B. Traven", die allen möglichen Theorien nachging und neben nachgestellten Szenen auch historisches Material benutzte. Traven war die aus dem Off ertönende Stimme von Günther Neutze. Biografie bis 1924. Den aktuellen Forschungsergebnissen zufolge wurde B. Traven als Herrmann Albert Otto Max Feige am 23. Februar 1882 im brandenburgischen Schwiebus (heute Świebodzin, Polen) geboren. Seine Eltern waren der Töpfer Adolf Feige und die Fabrikarbeiterin Hermine Wienecke. Von 1896 bis 1900 absolvierte er eine Ausbildung zum Maschinenschlosser, von 1901 bis 1903 leistete er seinen Militärdienst in Bückeburg ab, von 1904–1906 arbeitete er in Magdeburg. Im Sommer 1906 wurde er zum Geschäftsführer der Gelsenkirchener Verwaltungsstelle des Deutschen Metallarbeiterverbands berufen. Im Herbst 1907 kündigte er seine Anstellung und verwandelte sich in den Schauspieler Ret Marut aus San Francisco. Er machte sich dabei den Umstand zunutze, dass bei dem Erdbeben in Kalifornien von 1906 nahezu alle behördlichen Akten und Urkunden vernichtet worden waren; seine Abstammung war damit rätselhaft verschleiert. Dass Traven das genau so strategisch geplant hatte, wurde 1990, 21 Jahre nach Travens (angenommenem) Tod, auch noch einmal durch seine Witwe bestätigt. Idar und Crimmitschau waren Stationen seiner Schauspielerkarriere. Ein Neuer Theater-Almanach, ein 1889 gegründetes theatergeschichtliches Jahr- und Adressenbuch, herausgegeben von der Genossenschaft Deutscher Bühnen-Angehöriger, verzeichnet Ret Marut im Nachtrag der Ausgabe 1911 bei der Berliner „Neuen Bühne“, einem Tournee-Theater für die Provinzen Pommern, Ost- und Westpreußen, Posen und Schlesien. Marut ist dort in mehreren Funktionen genannt, u. a. als Regisseur und Schauspieler. Bei den Damen findet sich Elfriede Zielke, die 1912 in Danzig beider Tochter Irene zur Welt brachte. Im Jahrgang 1912 wird Ret Marut als Mitglied des Danziger Stadttheaters aufgeführt als Schauspieler wie als Obmann und Kassierer des Künstlerheims. Als Maruts Wohnadresse in Danzig wird Damm 2 genannt. Im Jahrgang 1913 des Theater-Almanachs wohnt Marut in Düsseldorf in der Friedrichstr. 49 und ist am Schauspielhaus Düsseldorf darstellendes Mitglied. In Düsseldorf wurde die 21-jährige Schauspielschülerin Irene Mermet aus Köln seine Lebensgefährtin, mit der zusammen er im Herbst 1915 den Schauspielberuf aufgab und nach München übersiedelte. Ab dem Sommer 1917 gab er dort die Zeitschrift „Der Ziegelbrenner“ heraus, die mitten im Krieg für Völkerverständigung und -freundschaft eintrat. Anfang 1917 erschien unter dem Pseudonym Richard Maurhut die Kriegsnovelle „An das Fräulein von S…..“; unter dem Titel „Der BLaugetupfte SPerlinG“ gab er im Sommer 1918 eine Sammlung seiner Kurzgeschichten heraus. Während der kurzen Münchner Räterepublikszeit im Frühjahr 1919 übernahm Marut das Amt eines Chefzensors und war treibende Kraft bei der geplanten Sozialisierung der Presse; außerdem engagierte er sich für den Aufbau revolutionärer Strafgerichte. Als am 1. Mai 1919 Regierungstruppen und Freikorpsverbände mit der Niederschlagung der Räteherrschaft begannen, wurde er als Rädelsführer verhaftet. Kurz vor der Verurteilung durch ein Feldgericht konnte er fliehen und lebte seitdem mit wechselnden Stationen im Untergrund. Irene Mermet gelang 1923 die Einwanderung in die USA, Maruts gleichzeitiger Versuch über Kanada scheiterte dagegen an seinem fehlenden Visum. Ende 1923 wurde er in London vorübergehend in Abschiebehaft genommen. Im Sommer 1924 gelang ihm die Einreise in Mexiko; sechs Jahre später wurde er dort als US-amerikanischer Staatsbürger Traven Torsvan offiziell registriert. Die Ret-Marut-Hypothese. Anarchistische Zeitschrift "Der Ziegelbrenner", von Ret Marut herausgegeben Die erste Hypothese über die Identität B. Travens wurde von dem Anarchisten und Schriftsteller Erich Mühsam aufgestellt, der hinter diesem Pseudonym den Schauspieler und Journalisten Ret Marut vermutete. Dieser Marut, angeblich US-amerikanischer Staatsbürger aus San Francisco, trat seit Ende 1907 auf Theaterbühnen unter anderem in Idar, Suhl, Crimmitschau, Danzig und Düsseldorf auf, sporadisch arbeitete er auch als Regisseur und veröffentlichte Kurzgeschichten. Im Ersten Weltkrieg begann er, sich auch politisch zu engagieren: von 1917 bis 1921 gab er die Zeitschrift „Der Ziegelbrenner“ mit einem deutlich anarchistischen Profil heraus. Als in München im April 1919 die Bayerische Räterepublik ausgerufen worden war, wurde Marut zum Leiter der Presseabteilung des Zentralrats der Räterepublik und Mitglied des Propagandaausschusses ernannt. Er lernte so Erich Mühsam kennen, mit dem er sich anfreundete. Nach dem Sturz der Bayrischen Räterepublik wurde Marut am 1. Mai 1919 verhaftet. Es gelang ihm aber zu fliehen und einer standgerichtlichen Verurteilung zu entgehen. 1924 verschwand er spurlos. Von der bayrischen Polizei wurde Ret Marut seit 1919 steckbrieflich gesucht. Als die ersten Romane B. Travens erschienen, kam Mühsam aufgrund sprachlicher und inhaltlicher Parallelen mit den ihm bekannten Schriften Maruts zu der Schlussfolgerung, ihr Autor müsse dieselbe Person sein. In ausführlicher Form wurde die Ret-Marut-Hypothese erstmals 1966 von Rolf Recknagel, einem DDR-Literaturwissenschaftler, in seiner Traven-Biografie dargestellt. Die Hypothese wird heute weitgehend akzeptiert. Hypothese zu Otto Feige. Rathaus in Schwiebus, dem vermutlichen Geburtsort B. Travens (Postkarte von ca. 1900) Es war lange Zeit nicht klar, wie der ehemalige Schauspieler und Anarchist Ret Marut nach Mexiko gelangte, auch über seine frühen Lebensjahre wusste man nichts. Ende der 1970er-Jahre nahmen sich zwei BBC-Journalisten, Will Wyatt und Robert Robinson, dieser Frage an. Die Ergebnisse ihrer Ermittlungen veröffentlichten sie in einem Dokumentarfilm, der im britischen Fernsehen am 19. Dezember 1978 ausgestrahlt wurde, sowie in Wyatts Buch "The man who was B. Traven". Die Journalisten machten im State Department in den USA und im Foreign Office in Großbritannien die Akten Ret Maruts ausfindig und entdeckten, dass Marut 1923 versuchte, aus Europa über England nach Kanada zu gelangen. Er wurde jedoch dort zurückgeschickt und dann am 30. November 1923 durch die britische Polizei verhaftet und als Ausländer ohne gültige Aufenthaltsgenehmigung ins Londoner Gefängnis Brixton gebracht. Beim Verhör durch die Londoner Polizei sagte Marut aus, dass sein echter Name Hermann Otto Albert Maximilian Feige sei und dass er am 23. Februar 1882 in Schwiebus, dem heutigen Świebodzin in Polen, geboren sei. Wyatt und Robinson stellten bei den polnischen Archiven Recherchen an und bestätigten die Echtheit dieser Behauptungen: Es stimmen sowohl das Geburtsdatum und der Geburtsort als auch die Vornamen der Eltern, die von Marut angegeben wurden. Die britischen Journalisten stellten auch fest, dass Otto Feige um 1904/1905 spurlos verschwand. Seither hat der Literaturwissenschaftler Jan-Christoph Hauschild im Rahmen von zwei sechsmonatigen Arbeitsstipendien der Kunststiftung NRW die Ergebnisse von Will Wyatt bestätigt und darüber hinaus den weiteren Lebensweg von Otto Feige nach 1904 nachgezeichnet. Diese Ergebnisse lassen keine Zweifel mehr an der Identität zu. Ret Marut blieb bis zum 15. Februar 1924 inhaftiert. Nach seiner Entlassung meldete er sich beim Konsulat der USA mit der Bitte um Bestätigung seiner US-amerikanischen Staatsbürgerschaft. Er behauptete, dass er 1882 in San Francisco geboren wurde, im Alter von 10 Jahren als Schiffsjunge angemustert habe und seitdem in der ganzen Welt gereist sei, aber jetzt seine rechtliche Lage regeln wolle. Auch früher, noch in Deutschland, hatte sich Marut dreimal um die US-amerikanische Staatsangehörigkeit bemüht und dabei den Geburtsort San Francisco angegeben, den 25. Februar 1882 und die Eltern William Marut und Helena Marut geb. Ottarent. Die Beamten im Konsulat schenkten dieser Geschichte keinen Glauben, zumal sie von der Londoner Polizei auch die zweite Version des Lebenslaufs Maruts erhalten hatten. Da allgemein bekannt war, dass das große Erdbeben von 1906 die Geburtsurkunden vernichtet hatte, war San Francisco eine beliebte Adresse für falsche Geburtsangaben. Die Hypothese, dass B. Traven mit Ret Marut und Otto Feige identisch ist, wird von sehr vielen, aber nicht allen Forschern akzeptiert. Wenn aber Marut nicht Feige war, ist es schwierig zu erklären, woher er die Einzelheiten seiner Geburt, einschließlich des Geburtsnamens seiner Mutter, kannte. Vergleiche der Handschriften von Feige und Marut sowie Vergleiche von Fotoporträts Feiges, Maruts und Travens beweisen zweifelsfrei eine Identität der Personen. Ankunft in Mexiko. Nach seiner Entlassung aus dem Gefängnis in London gelangte Ret Marut nach Mexiko. Die Umstände dieser Reise sind aber unklar. Nach Rosa Elena Luján, der Witwe von Hal Croves, der von vielen Forschern mit B. Traven identifiziert wird (siehe unten), habe ihr Mann nach der Entlassung aus dem Gefängnis als Matrose auf einem „Totenschiff“ (ein schrottreifer Kahn, meist mit vorbestraften Seeleuten bestückt, die anderswo keine Heuer bekamen und deswegen billig waren und keine Fragen stellten) angemustert und sei nach Norwegen gefahren, von dort aus mit einem anderen Seelenverkäufer nach Afrika, und endlich sei er im Sommer 1924 an Bord eines niederländischen Dampfers in Tampico am Golf von Mexiko angekommen. Diese Behauptungen können zum Teil durch erhaltene Dokumente bestätigt werden. Der Name Marut steht auf der Liste der Besatzungsmitglieder des norwegischen Dampfers „Hegre“, der am 19. April 1924 von London auf die Kanarischen Inseln auslief. Der Name ist auf dieser Liste allerdings gestrichen, was suggeriert, dass Marut an der Fahrt schließlich doch nicht teilnahm. Nach der Revolution war Mexiko ein Zufluchtsort für viele US-amerikanische "Wobblies", Sozialisten und Kriegsdienstverweigerer, als die Vereinigten Staaten 1917 in den Ersten Weltkrieg eintraten. Einer der führenden Aktivisten in diesem Milieu war Linn A. E. Gale. Noch in New York begann er die Zeitschrift "Gale's International Monthly for Revolutionary Communism" zu veröffentlichen, die ab Oktober 1918 in Mexico City publiziert wurde. Ab 1918 war auch die mexikanische Sektion der anarchosyndikalistischen Organisation Industrial Workers of the World tätig. Dies war gewiss ein günstiges Milieu für einen Flüchtling und Anarchisten aus Europa (oder den USA). Vielleicht kannte Marut Linn Gales Publikation, das mag zu dem Namen „Gerald Gale“ für den Helden vieler Romane Travens, einschließlich "Die Baumwollpflücker" ("Der Wobbly") und "Das Totenschiff", geführt haben. Aus den erhaltenen Notizen B. Travens ergibt sich allerdings nicht, dass er auch unter schwierigen Bedingungen als Tagelöhner auf Baumwollfeldern und Erdölfeldern arbeiten musste. Zur Lösung dieses Widerspruchs schlug der schweizerische Forscher Max Schmid in einer Reihe von acht Artikeln "Der geheimnisvolle B. Traven", die vom 2. November 1963 bis zum 4. Januar 1964 unter dem Pseudonym Gerard Gale in der Samstagsausgabe des Zürcher „Tages-Anzeigers“ erschien, die so genannte „Erlebnisträger-Hypothese“ vor. Ret Marut sei um 1922/1923 aus Europa nach Mexiko gekommen und dort einem US-amerikanischen Tramp (vom Typ „Gerald Gales“) begegnet, der Erzählungen über seine Erlebnisse geschrieben habe. Marut habe die Manuskripte von ihm erschlichen, ins Deutsche übersetzt, Elemente seiner anarchistischen Weltanschauung hinzugefügt und sie unter dem Pseudonym B. Traven deutschen Verlegern als eigene präsentiert.Schmids Hypothese hat sowohl Anhänger als auch Gegner, zurzeit scheint ihre Verifizierung unmöglich zu sein. Jedenfalls war B. Travens (Ret Maruts?) Leben in Mexiko nicht weniger rätselhaft als sein Schicksal in Europa. Hypothese zu Traven Torsvan. Die Forschung identifiziert Traven mit jemandem, der sich Torsvan nannte. Von ihm ist bekannt, dass er 1924 nördlich von Tampico ein Holzhaus mietete und bis 1931 dort oft verweilte und arbeitete. Seit 1930 wohnte er zwei Jahrzehnte lang in einem kleinen Haus mit Gastwirtschaft am Stadtrand von Acapulco, von wo er seine Reisen in Mexiko antrat. 1926 nahm Torsvan als Fotograf neben dem Soziologen Frank Tannenbaum, dem Archäologen Hermann Beyer und dem Entomologen Alfonso Dampf an der dreißig Mann starken Expedition unter Enrique Juan Palacios Mendoza (1881–1953) im Bundesstaat Chiapas teil; von dieser Forschungsreise stammt eines der wenigen Fotos von "Traven Torsvan" (mit Tropenhelm). Nach Chiapas und in andere Regionen Mexikos reiste er auch später oft, er suchte Material für seine Bücher und interessierte sich sehr für die Kultur und Geschichte Mexikos. 1927 und 1928 besuchte er an der Universidad Nacional Autónoma de México (UNAM) Sprachkurse in Spanisch und in Indianersprachen, wie dem Nahuatl der Azteken, und nahm an Vorlesungen über die Geschichte der lateinamerikanischen Literatur und der Geschichte Mexikos teil. 1930 erhielt Torsvan eine offizielle Ausländerkarte, in der er als US-amerikanischer Ingenieur Traven Torsvan bezeichnet wurde. In vielen Quellen erscheint noch ein anderer Vorname Torsvans: Berick oder Berwick. Auch B. Traven liebte es, sich als US-Amerikaner auszugeben. 1933 schickte der Schriftsteller dem New Yorker Verlag Alfred A. Knopf englische Manuskripte seiner Romane "Das Totenschiff", "Der Schatz der Sierra Madre" und "Die Brücke im Dschungel" und gab an, dass dies die Originale und die früher herausgegebenen deutschen Versionen nur ihre Übersetzungen seien. Knopf gab "Das Totenschiff" unter dem Titel "The Death Ship" 1934 heraus, danach wurden in den Vereinigten Staaten und Großbritannien auch andere Bücher Travens publiziert. Ein Vergleich der deutschen und englischen Versionen dieser Bücher zeigt große Unterschiede auf. Die englischen Texte sind in der Regel länger, in beiden Versionen gibt es Teile, die in der anderen Version fehlen. Der Lektor bei Knopf stöhnte über die vielen Germanismen, aber die deutschen Bücher enthalten umgekehrt Anglizismen. B. Travens Werke erfreuten sich auch in Mexiko immer größerer Beliebtheit. Dazu trug Esperanza López Mateos viel bei, die Schwester des späteren Präsidenten Mexikos Adolfo López Mateos, die seit 1941 acht Bücher Travens ins Spanische übersetzte und später auch seine Bevollmächtigte in Kontakten mit den Verlegern und die Eigentümerin der Urheberrechte war. Verfilmung von "Der Schatz der Sierra Madre", Hypothese zu Hal Croves. Die Bergkette Sierra Madre in Mexiko Bergwelt der Sierra Madre, Mexiko Auf Grund des Erfolgs der englischen Ausgabe von Der Schatz der Sierra Madre, die 1935 von Knopf herausgegeben wurde, erwarb die Filmgesellschaft Warner Bros. 1941 die Filmrechte für den Roman. Mit seiner Verfilmung wurde der Regisseur John Huston beauftragt. Der japanische Angriff auf Pearl Harbor unterbrach die Arbeiten an dem Film, die erst nach dem Kriege wieder aufgenommen wurden. 1946 verabredete Huston ein Treffen mit B. Traven im Hotel Bamer in der Hauptstadt Mexikos, um die Einzelheiten der Verfilmung zu besprechen. Statt des Schriftstellers erschien ein unbekannter Mann, der sich als Hal Croves, Übersetzer aus Acapulco und San Antonio, vorstellte, und zeigte die angebliche Vollmacht von B. Traven, in der der Schriftsteller ihn zu allen Entscheidungen in seinem Namen bevollmächtigte. Croves, anstatt des Schriftstellers, war auch beim nächsten Treffen in Acapulco, und dann, als technischer Konsultant, die ganze Zeit am Drehort des Films während seiner Realisierung in Mexiko im Jahr 1947 anwesend. Dieses rätselhafte Verhalten des Schriftstellers und seines angeblichen Agenten bewirkte, dass schon beim Drehen des Films ein großer Teil des Teams überzeugt war, dass Hal Croves in Wirklichkeit B. Traven selbst in Verkleidung sei. Als der Film (mit Humphrey Bogart und Walter Huston in den Hauptrollen) nach seiner Premiere am 23. Januar 1948 zum Kassenerfolg wurde und dann auch drei Oscars erhielt, brach in den Vereinigten Staaten ein wahres Traven-Fieber aus, in großem Maße aus Marketinggründen durch die Filmgesellschaft Warner Bros. selbst geschürt. Die US-amerikanischen Medien berichteten aufgeregt von einem geheimnisvollen Autor, der inkognito an der Realisierung des Films auf der Grundlage seines Romans teilgenommen haben soll. In vielen Biografien B. Travens wird die These wiederholt, dass auch der Regisseur John Huston von Anfang an überzeugt war, dass Hal Croves B. Traven sei. Das entspricht nicht der Wahrheit. Schon 1948 bestritt Huston, Croves mit Traven zu identifizieren. Auch in seiner Autobiografie, die 1980 verlegt wurde, schrieb Huston, dass er anfänglich noch die Möglichkeit zugelassen habe, Croves möge Traven sein, nach der Beobachtung seines Verhaltens sei er aber zu dem Schluss gekommen, dass dem nicht so sei. Nach den Äußerungen Hustons habe Hal Croves aber bei der Realisierung des Films "Der Schatz der Sierra Madre" ein Doppelspiel getrieben. Von den Mitgliedern des Teams gefragt, ob er Traven sei, habe er das verneint, er habe sich aber so verhalten, dass die Fragenden zu dem Schluss gekommen seien, dass er und B. Traven doch dieselbe Person seien. Die „Enthüllung“ und das Verschwinden Torsvans. Der Medienrummel, der die Premiere des Films "Der Schatz der Sierra Madre" begleitete, und die Aura eines Geheimnisses, von der der Autor des literarischen Originals umgeben war (es kursierten sogar Gerüchte, dass das Magazin „Life“ einen Preis von fünftausend Dollar für die Auffindung des B. Traven aussetzte), bewirkten, dass der mexikanische Journalist Luis Spota beschloss, Hal Croves, der nach der Beendigung der Filmaufnahmen im Sommer 1947 verschwunden war, wieder aufzufinden. Dank der Informationen, die er von der Banco de México erhielt, machte Spota im Juli 1948 einen Mann ausfindig, der unter dem Namen Traven Torsvan bei Acapulco wohnte. Offiziell betrieb er dort eine Gaststätte, sein schäbiges Lokal hatte jedoch nicht viele Kunden; Torsvan selbst war ein Einzelgänger, den seine Nachbarn "El Gringo" nannten, was in lateinamerikanischen Ländern eine übliche Bezeichnung für einen US-Amerikaner ist. Bei den Recherchen in amtlichen Archiven entdeckte Spota, dass Torsvan 1930 in Mexiko eine Ausländerkarte und 1942 einen Personalausweis erhalten hatte; in beiden Dokumenten war als sein Geburtsdatum 5. März 1890 und als Geburtsort Chicago angegeben. Nach Mexiko sollte Torsvan von den USA 1914 gekommen sein und die Grenze in Ciudad Juárez überschritten haben. Teilweise mit unsauberen Methoden (Spota bestach den Briefträger, der Torsvan Briefe zustellte), entdeckte der Journalist, dass Torsvan von einem gewissen Josef Wieder aus Zürich Honorare auf den Namen B. Traven erhielt, auf seinem Schreibtisch fand er auch ein Buchpaket vom US-amerikanischen Schriftsteller Upton Sinclair, das an B. Traven, p. A. Esperanza López Mateos, adressiert war. Als Spota Torsvan direkt fragte, ob er, Hal Croves und B. Traven ein und dieselbe Person seien, verneinte dieser die Frage aufgeregt, nach Meinung des Journalisten wurde Torsvan jedoch durch die Fragen völlig unsicher und gab schließlich indirekt zu, er sei B. Traven. Die Ergebnisse seiner Erforschungen publizierte Spota in einem langen Artikel bei der Zeitschrift "Mañana" vom 7. August 1948; am 14. August erschien bei der Zeitschrift "Hoy" das Dementi Torsvans. Bald danach verschwand Torsvan, wie bereits zuvor Hal Croves. Die einzige Information, die aus späteren Jahren über ihn erhalten blieb, ist, dass er am 3. September 1951 die mexikanische Staatsbürgerschaft erhalten haben soll. B. Travens Agenten. "BT-Mitteilungen". Die schon erwähnte Übersetzerin Esperanza López Mateos arbeitete mit B. Traven wenigstens seit 1941 zusammen, als sie seinen ersten Roman "Die Brücke im Dschungel" ins Spanische übertrug (später übertrug sie auch sieben andere Romane des Schriftstellers). Esperanza, die Schwester des künftigen Präsidenten Mexikos Adolfo López Mateos, spielte in Travens Leben eine immer größere Rolle. 1947 reiste sie nach Europa, um ihn gegenüber seinen Verlegern zu repräsentieren, schließlich war sie seit 1948, immer zusammen mit Josef Wieder aus Zürich, in Travens Büchern als Eigentümerin der Urheberrechte eingetragen. Josef Wieder arbeitete als Mitarbeiter der Büchergilde Gutenberg schon seit 1933 mit dem Schriftsteller zusammen. In diesem Jahr wurde die Berliner Büchergilde Gutenberg, der bisherige Verleger B. Travens, nach der Machtergreifung von Adolf Hitler von den Nationalsozialisten geschlossen (Travens Bücher waren in den Jahren 1933–1945 in Deutschland verboten). Der Autor übertrug die Rechte an seinen Büchern auf die Exilfiliale der Büchergilde in Zürich, wohin die Verleger emigriert waren. Im Jahr 1939 verzichtete Traven auf die weitere Zusammenarbeit mit der Büchergilde; seitdem fungierte Josef Wieder als sein Vertreter, der ehemalige Mitarbeiter des Verlags, der den Schriftsteller jedoch nie persönlich kennenlernte. Esperanza López Mateos beging 1951 Selbstmord; ihre Rechtsnachfolgerin wurde Rosa Elena Luján, die künftige Frau von Hal Croves. Im Januar 1951 begannen Josef Wieder und Esperanza López Mateos (und nach ihrem Tode Rosa Elena Luján), in Zürich auf einem Hektographen das Periodikum „BT-Mitteilungen“ (B. Traven Mitteilungen) herauszugeben, das Werbung für Travens Schaffen machen sollte und das bis zum Tode Wieders im Jahr 1960 erschien. Nach der Meinung von Tapio Helen nutzte diese Publikation zum Teil vulgäre Methoden und veröffentlichte oft evidente Fälschungen, wie bei dem Preis, der durch das Magazin „Life“ ausgesetzt werden sollte, als bereits bekannt war, dass dieser Preis nur ein Marketingkniff war. Im Juni 1952 veröffentlichte diese Zeitschrift die „authentische Biografie“ Travens, nach der der Schriftsteller im Mittleren Westen der USA in einer Familie von Emigranten aus Skandinavien geboren wurde, niemals in seinem Leben die Schule besuchte, vom 7. Lebensjahr an seinen Unterhalt verdienen musste und im Alter von 10 Jahren als Schiffsjunge an Bord eines niederländischen Dampfers nach Mexiko kam. Es wurde auch die oft präsentierte These wiederholt, dass B. Travens Bücher ursprünglich in englischer Sprache geschrieben und erst dann von einem schweizerischen Übersetzer ins Deutsche übersetzt wurden. Rückkehr von Hal Croves. Inzwischen tauchte Hal Croves, der nach den Dreharbeiten zu dem Film "Der Schatz der Sierra Madre" verschwunden war, auf der literarischen Bühne in Acapulco wieder auf. Er trat als Schriftsteller und Agent von B. Traven auf, in dessen Namen er mit Verlegern und Filmgesellschaften über die Ausgaben und Verfilmungen seiner Bücher verhandelte. Seit 1952 war Rosa Elena Luján die Sekretärin von Croves; am 16. Mai 1957 ließen sich beide in San Antonio in Texas trauen. Nach der Trauung zogen sie nach Mexico City um, wo sie die „R. E. Luján Literary Agency“ betrieben. Nach dem Tode Josef Wieders im Jahr 1960 war Rosa die alleinige Eigentümerin der Rechte an Travens Büchern. Im Oktober 1959 besuchten Hal Croves und Rosa Elena Luján Deutschland anlässlich der Premiere des Films "Das Totenschiff", der nach dem gleichnamigen Roman Travens gedreht wurde. Die Reporter versuchten von Croves das Geständnis zu entlocken, dass er Traven ist, jedoch ohne Ergebnis. Solche Versuche waren auch später, in den 1960er Jahren, erfolglos. Journalisten versuchten vielmals, in das Haus von Croves in Mexiko zu gelangen, nur wenige wurden aber von Rosa zu ihm vorgelassen, die die Privatsphäre ihres schon sehr betagten, halbblinden und halbtauben Mannes schützte; die Artikel und Interviews mit ihm mussten auch immer von seiner Frau autorisiert werden. Auf die Fragen der Journalisten, ob er Traven sei, antwortete Croves mit Nein beziehungsweise wich der Frage aus und wiederholte Travens Satz aus den 1920er Jahren, dass das Werk und nicht der Mensch wichtig sei. Tod von Hal Croves. Lösung des Rätsels? Hal Croves starb am 26. März 1969 in Mexico City. An demselben Tag erklärte seine Witwe, Rosa Elena Luján, auf einer Pressekonferenz, dass der echte Name ihres Ehemannes Traven Torsvan gewesen sei, dass ihr Mann am 3. Mai 1890 in Chicago als Sohn von Burton Torsvan, norwegischer Abstammung, und Dorothy Croves, angelsächsischer Abstammung, geboren wurde, und dass er in seinem Leben auch die Pseudonyme B. Traven und Hal Croves benutzt habe. Diese Informationen las sie direkt aus dem Testament ihres Ehemannes vor, welches er am 4. März 1969, drei Wochen vor seinem Tod, aufgesetzt hatte. Auch die Todesurkunde wurde auf den Namen Traven Torsvan Croves ausgestellt; die Asche des Schriftstellers wurde nach der Einäscherung von einem Flugzeug über dem Dschungel im Bundesstaat Chiapas zerstreut. Dies schien die endgültige Lösung des Rätsels der Biografie des Schriftstellers zu sein – B. Traven erwies sich, wie er immer selbst behauptet hatte, als US-Amerikaner, und nicht als der Deutsche Ret Marut. Diese Lösung war aber nur scheinbar. Einige Zeit nach dem Tod von Croves gab seine Witwe eine weitere Presseerklärung ab, in der sie mitteilte, dass ihr Mann sie ermächtigt habe, die ganze Geschichte seines Lebens darzustellen – auch jene, die er in seinem Testament verschwiegen habe. Sie erklärte, dass Croves in seiner Jugend ein deutscher Revolutionär namens Ret Marut gewesen sei, was sowohl die Befürworter der Theorie seiner US-amerikanischen Abstammung als auch diejenigen versöhnte, die glaubten, Traven sei Deutscher. Im Interview mit der International Herald Tribune vom 8. April 1969 präzisierte Rosa Elena Luján diese Informationen und erklärte, dass die Eltern ihres Mannes einige Zeit nach der Geburt ihres Sohnes aus den Vereinigten Staaten nach Deutschland übergesiedelt seien. Dort habe ihr Mann Erfolg mit dem Roman "Das Totenschiff" gehabt und sei danach zum ersten Mal nach Mexiko gereist, dann jedoch nach Deutschland zurückgekehrt, um während des Ersten Weltkriegs eine Antikriegszeitschrift zu redigieren, in einem Land, in dem „der Nazismus an Stärke zunahm“. Daraufhin sei er zum Tode verurteilt worden, es sei ihm aber gelungen zu flüchten und nach Mexiko zurückzukehren. Das Interview mit Luján gibt Anlass zu Zweifeln, vor allem aufgrund der Fehler in der Chronologie – "Das Totenschiff" erschien erst 1926, lange nach dem Ersten Weltkrieg. Andererseits scheint das umfangreiche Archiv des verstorbenen Hal Croves die Hypothese von der deutschen Abstammung B. Travens zu bestätigen. Dieses Archiv stellte Croves Witwe bis zu ihrem Tod im Jahr 2009 nur wenigen Literaturwissenschaftlern zur Verfügung – 1976 recherchierte darin Rolf Recknagel, der einiges daraus an sich nahm, und 1982 Karl Guthke. Die Materialien enthalten Eisenbahnfahrkarten und Banknoten aus verschiedenen Ländern Mittelosteuropas, die Andenken an Ret Maruts Flucht aus Deutschland nach der gescheiterten Revolution in Bayern im Jahr 1919 sein könnten. Ein sehr interessantes Dokument ist ein kleines Notizbuch mit Eintragungen in englischer Sprache. Die erste Eintragung stammt vom 11. Juli 1924, und unter dem Datum 26. Juli wurde im Notizbuch festgehalten: „The Bavarian of Munich is dead“ („Der Bayer aus München ist tot“). Der Schriftsteller mag diese Aufzeichnungen nach seiner Ankunft aus Europa in Mexiko begonnen haben, und die Notiz könnte Ausdruck des Bruchs mit seiner europäischen Vergangenheit und des Beginns einer neuen Existenz als B. Traven sein. Audio. Michael Castritius: Zum 40. Todestag von B. Traven. „Im Grunde war er sehr deutsch“. Tagesschau.de, 26. März 2009. http://www.tagesschau.de/multimedia/audio/audio35980.html Bengalische Sprache. Die bengalische Sprache (bengalisch:, "Bangla bhasha") gehört zum indoarischen Zweig der indoiranischen Untergruppe der indogermanischen Sprachen. Sie wird von mindestens 215 Millionen Menschen als Muttersprache gesprochen (Stand: 2005). Davon leben mehr als 140 Millionen in Bangladesch, wo Bengalisch Amtssprache ist. Des Weiteren wird es von etwa 75 Millionen Sprechern in Indien verwendet, wo es eine von 22 offiziell anerkannten Sprachen, Amtssprache der Bundesstaaten Westbengalen und Tripura und die zweitgrößte einheimische Sprache nach Hindi ist. Der Rest verteilt sich auf Malaysia, Myanmar, Nepal, Saudi-Arabien, Singapur, die Vereinigten Arabischen Emirate, das Vereinigte Königreich und die Vereinigten Staaten. Einigen Statistiken zufolge ist Bengalisch nach Hochchinesisch, Englisch, Hindi, Spanisch, Russisch und Arabisch die siebtmeistgesprochene Sprache der Welt. Hierbei sind für alle Sprachen neben den reinen Muttersprachlern auch Sprecher, die die jeweilige Sprache zur Zweitsprache haben, berücksichtigt. Schrift. Ungefähres Verbreitungsgebiet der bengalischen Sprache in Südasien Bengalisch wird in einer eigenen Schrift geschrieben. Es handelt sich dabei um eine Brahmi-Schrift, die mit der Devanagari, mit der unter anderem Hindi und Sanskrit geschrieben werden, verwandt ist. Das Alphabet besteht aus elf Vokalen und 36 Konsonanten. Neben zehn Vokalkurzzeichen, die in silbischen Verbindungen den dem Konsonanten folgenden Vokal kennzeichnen, gibt es drei sekundäre Lautzeichen zur Kenntlichmachung der Aussprache des Vokals (nasaliert, behaucht). Es existieren über 200 weitere Schriftzeichen für Konsonant-Vokal-Verbindungen und Konsonantencluster aus zwei oder drei Konsonanten, aus deren Form sich Art und Abfolge der Einzelbuchstaben jedoch weitgehend erschließen lassen. Bengalische Ziffern werden mit eigenen Zahlzeichen geschrieben, es werden zunehmend arabische Ziffern verwendet. Grammatik. Bengalisch folgt der Subjekt-Objekt-Verb-Satzstellung. Es verwendet Postpositionen. Es gibt kein grammatikalisches Geschlecht. Adjektive und Nomen verändern sich wenig. Verben verändern sich häufig je nach Person, Zeit und Höflichkeitsform, jedoch nicht nach dem Numerus (Einzahl/Mehrzahl). Geschichte. Die ältesten literarischen Zeugnisse der bengalischen Sprache sind die Charyapada, eine Sammlung von 47 Liedern verschiedener Dichter, die bereits vor 1000 n. Chr. geschrieben wurde. Zwischen den Jahren 1350 bis 1800 wurden viele literarische Werke mit religiösen Themen verfasst. Bis ins 18. Jahrhundert existierte jedoch keine einheitliche Standardsprache. Eine sprachwissenschaftliche Untersuchung der bengalischen Grammatik, "Vocabolario em idioma Bengalla, e Portuguez dividido em duas partes", wurde erst in den Jahren 1734–1742 von dem Portugiesen Manuel da Assumpção verfasst, der in Bhawal Missionsarbeit leistete. Im 19. Jahrhundert wurde die Sprache hauptsächlich von Ram Mohan Roy und Ishwarchandra Vidyasagar systematisiert. Vidyasagar schrieb das "Sadhu Bangla", woraus später das "Barna-Parichaya" entwickelt wurde, ein Text, der noch immer eine große Rolle im Sprachunterricht in bengalischen Schulen spielt. In der zweiten Hälfte des 19. Jahrhunderts begannen auch muslimische Religionsgelehrte zunehmend auf die bengalische Sprache zurückzugreifen. Einer der Pioniere in dieser Hinsicht war Muhammad Naimuddin (1832–1908), der 1873 mit seinem Werk "Jobdātal masāyel" ("Zubdat al-masāʾil"; "Essenz der Streitfragen") das erste islamische Rechtshandbuch auf Bengalisch veröffentlichte und 1892 mit der Publikation einer bengalischen Koranübersetzung begann, die auch einen umfangreichen Kommentar einschloss. Die bengalische Sprache trug zur Herausbildung einer eigenen nationalen Identität im ehemaligen Ostpakistan und schließlich zur Entstehung eines unabhängigen Staates Bangladesch bei. Bangladesch war von 1947 bis 1971 ein Teil Pakistans, das aus den überwiegend islamischen Landesteilen Britisch-Indiens gebildet wurde. In den Jahren 1950–52 versuchte die Zentralregierung Pakistans, Urdu als einzige Amtssprache durchzusetzen. Am 21. Februar 1952 kam es deswegen zu gewalttätigen Auseinandersetzungen zwischen protestierenden bengalischen Studenten und der pakistanischen Polizei. Auch im indischen Bundesstaat Assam kam es am 19. Mai 1961 und am 21. Juli 1986 zu Ausschreitungen, jeweils nachdem die Landesregierung Assams versucht hatte, Asamiya als einzige Amtssprache auch für die in Assam lebende bengalische Bevölkerung einzuführen. Berliner Luftbrücke. a>" auf dem Flughafen Tempelhof (1948) Die Berliner Luftbrücke diente der Versorgung der Stadt Berlin durch Flugzeuge der Westalliierten. Die Straßen- und Eisenbahnverbindungen von den westlichen Besatzungszonen nach West-Berlin wurden während der Berlin-Blockade vom 24. Juni 1948 bis 12. Mai 1949 durch die sowjetische Besatzungsmacht gesperrt. Auch nach Ende der Blockade gingen die Versorgungsflüge zunächst weiter. Am 27. August 1949 wurde die Luftbrücke schließlich offiziell beendet. Geschichte. General Lucius D. Clay, Militärgouverneur der US-amerikanischen Besatzungszone General William H. Tunner, Leiter der "Berliner Luftbrücke" Schon im Vorfeld der "Berliner Luftbrücke" kam es zur "Kleinen Luftbrücke." Der Chef der Sowjetischen Militäradministration in Deutschland, Wassili Danilowitsch Sokolowski, ordnete am 1. April 1948 als Reaktion auf die Sechs-Mächte-Konferenz zwischen Briten, Franzosen, USA und Vertretern der Benelux-Länder über eine Westanbindung Deutschlands, die aus sowjetischer Sicht ein Bruch des Potsdamer Abkommens waren, die kurzzeitige Schließung der Grenzen an. Infolgedessen mussten die Westmächte ihre Garnisonen in Berlin aus der Luft versorgen. Die Westberliner wurden „fast ein Jahr lang von sämtlichen Land- und Wasserzugängen aus dem Westen“ abgeschnitten: Noch in der Nacht vom 23. auf den 24. Juni 1948 wurde die Versorgung West-Berlins mit Fernstrom durch das Kraftwerk Zschornewitz unterbrochen. Am frühen Morgen des 24. Juni folgte die Unterbrechung des gesamten Straßen- und Schienenverkehrs sowie der Binnenschifffahrt zwischen Berlin und den Westzonen. Da Berlin immer noch ein großes Trümmerfeld war, in dessen westlichen Sektoren etwa 2,2 Millionen Menschen lebten, war es vollständig von der Belieferung von außen abhängig. Die Regierungen der Westmächte hatten zwar mit einer Reaktion auf die Währungsreform gerechnet, aber die Berlin-Blockade der Sowjetunion traf sie weitgehend unvorbereitet. So standen sie vor der Entscheidung, Berlin aufzugeben oder in Berlin zu bleiben. Der Militärgouverneur der amerikanischen Zone, US-General Lucius D. Clay, war einer der entschiedensten Befürworter eines Verbleibs in Berlin. Er schlug vor, mit einem bewaffneten Panzerzug die Blockade zu durchbrechen. US-Präsident Harry S. Truman lehnte dies aber aufgrund des Risikos einer Kriegsprovokation ab. Die Luftkorridore. Die vier Siegermächte des Zweiten Weltkriegs hatten Deutschland in vier Besatzungszonen sowie das Gebiet von Groß-Berlin, das sie gemeinsam verwalten wollten, aufgeteilt. Das Berliner Stadtgebiet wurde in vier Sektoren aufgeteilt. Die westlichen Siegermächte waren selbstverständlich davon ausgegangen, dass sie die durch die sowjetische Besatzungszone führenden Land- und Wasserwege zwischen ihren Sektoren und ihren Besatzungszonen frei nutzen konnten, wie sie es auch zwischen den westlichen Zonen handhabten. Daher gab es darüber keine schriftlichen Vereinbarungen mit der sowjetischen Regierung. Nur über die Nutzung der drei jeweils 32 km breiten Luftkorridore war ein schriftlicher Vertrag abgeschlossen worden, der den Alliierten ausdrücklich deren freie Nutzung zusicherte. Als am 24. Juni 1948 um 6 Uhr alle Straßen, Schienen und Wasserwege für Transporte zwischen den Westzonen und Berlin gesperrt wurden, konnten die drei westlichen Alliierten nicht nur ihre Truppen in Berlin, sondern auch die Bevölkerung in ihren Sektoren nicht mehr auf diesem Weg mit Gütern versorgen. Air Commodore Rex Waite von der Royal Air Force hatte nach der sogenannten kleinen Blockade im Frühjahr 1948 bereits logistische Planungen angestellt, die eine Machbarkeit der Versorgung der eigenen Truppen und der Berliner Bevölkerung über eine Luftbrücke belegten. Diese britischen Planungsgrundlagen veranlassten General Clay, unverzüglich die Versorgung der Berliner Bevölkerung mit einer Luftbrücke zu beginnen. Bereits am 26. Juni begann notdürftig improvisiert die Luftbrücke der U.S. Air Force und der Royal Air Force nach Berlin. Am 23. Juli 1948 wurde Generalleutnant William H. Tunner Befehlshaber der Combined Airlift Task Force. Tunner hatte bereits die US-Luftbrücke über den Himalaya (The Hump) organisiert. Die Luftbrücke beginnt. Der erste Flug der Luftbrücke soll schon am Abend des 23. Juni 1948 stattgefunden haben; der amerikanische Zivilpilot Jack O. Bennett berichtete, er habe an diesem Tag und auch später in seiner Maschine der American Overseas Service auf Clays Anweisung auf den freien Plätzen und im Laderaum Kartoffeln nach Berlin gebracht. Hierbei handelte es sich aber um einen der damals üblichen, regelmäßigen Militärflüge in die geteilte Stadt. Am 25. Juni befahl General Clay formell die Errichtung der "Berliner Luftbrücke", und am 26. Juni flog die erste Maschine der U.S. Air Force zum Flughafen Tempelhof in Berlin und startete damit offiziell die Operation "Vittles". Die Operation "Plainfare" der britischen Luftwaffe folgte zwei Tage später. Zunächst setzten die Amerikaner nur die kleineren Maschinen vom Typ "C-47 Skytrain" ein, die bald durch andere Typen ergänzt wurden. Es zeigte sich aber bald, dass die gesamten Transportabläufe optimiert werden mussten, um die notwendigen Transportmengen zu bewältigen. Dies schloss die Flugzeugtypen, die Landebahnen, die Flugzeugwartung, die Entladevorgänge und die Planung der Flugrouten ein. Die Luftbrücke wird optimiert. Entladung der "Rosinenbomber" auf dem Flughafen Berlin-Tempelhof, 1948 Berliner Kinder spielen mit Flugzeugmodellen die Luftbrücke nach, 1948 Am Anfang ging man von 750 Tonnen Fracht pro Tag aus. Dank der Neuorganisation durch General William H. Tunner, der einige Wochen nach ihrem Beginn die Organisation der Luftbrücke von Wiesbaden aus übernahm, war man Ende Juli 1948 schon bei über 2.000 Tonnen pro Tag. Vom 15. zum 16. April 1949 wurde mit 12.849 Tonnen Fracht und 1.398 Flügen in 24 Stunden das größte Frachtaufkommen erreicht. Neben Nahrungsmitteln wie Getreide, Trockenmilch, Trockenkartoffeln und Mehl wurde hauptsächlich Kohle als Brennstoff und zur Stromproduktion, Benzin, Medikamente und alle anderen in Berlin benötigten Dinge eingeflogen. Die Briten transportierten rund 33 % aller Hilfsgüter nach Berlin. Schiffe, die Getreide geladen hatten und als Hilfslieferungen aus den USA für Großbritannien bestimmt waren, wurden von den Briten nach Deutschland umgeleitet. Das sorgte dafür, dass in Großbritannien selbst zu Zeiten der Luftbrücke das Getreide rationiert wurde; das hatte es noch nicht einmal während des Zweiten Weltkriegs gegeben. Britische Flugzeuge nahmen auf dem Rückflug Kinder aus Berlin mit, die sich zur Wiederherstellung ihrer Gesundheit in Westdeutschland erholen konnten. Britische Flugboote transportierten Waren von Hamburg (Start auf der Unterelbe) nach Berlin (Landung auf der Unterhavel). Möglich waren diese enormen Mengen nur durch ein ausgeklügeltes System: Die drei Luftkorridore wurden als Einbahnstraßen verwendet, wobei im nördlichen (von Hamburg nach Berlin) und im südlichen (von Frankfurt/Main nach Berlin) die Hinflüge abliefen und im mittleren Korridor (von Berlin nach Hannover) die Rückflüge stattfanden. In den Korridoren flogen die Flugzeuge in fünf Ebenen. Jeder Pilot hatte nur einen Landeversuch. Wenn dieser misslang, musste er mit der gesamten Ladung wieder zurückfliegen. Mit diesem System war es möglich, dass in Berlin alle drei Minuten ein Flugzeug landete. Der Aufenthalt wurde von 75 auf 30 Minuten verkürzt, was eine ähnlich straffe Organisation der Wartungsarbeiten bedingte. Der Abwurf von Gütern ohne Landung war nach wenigen Versuchen als unzweckmäßig wieder eingestellt worden. Neben Briten und US-Amerikanern flogen später auch Piloten aus Australien, Neuseeland, Kanada und Südafrika. Frankreich konnte sich nicht direkt beteiligen, da die Armée de l’air im Indochinakrieg gebunden war. Es konnte lediglich seine eigenen Garnisonen versorgen, wobei 3m zum Einsatz kamen. Die Franzosen gaben die Zustimmung zur Errichtung eines neuen Flughafens in Berlin-Tegel in ihrem Sektor, der in der Rekordzeit von 90 Tagen gebaut wurde. Französische Pioniere sprengten dazu die den Anflug behindernden Sendemasten des Senders Tegel, der den sowjetisch beherrschten Berliner Rundfunk ausstrahlte, was Proteste der Sowjetischen Militäradministration und weitere Debatten auslöste. Während der Blockade West-Berlins wurde dessen Bürgermeister Ernst Reuter (SPD) zum Symbol des Berliner antikommunistischen Durchhaltewillens. Seine Rede vor der Ruine des Reichstagsgebäudes wurde weltweit beachtet. Das Ende der Luftbrücke. a> zum zehnten Jahrestag der Beendigung der Berlin-Blockade Im Zuge der weiteren weltpolitischen Entwicklung, insbesondere des Embargos hochwertiger Technologie durch den Westen, und angesichts des mit der Luftbrücke eindrucksvoll demonstrierten Willens, West-Berlin vor einer sowjetischen Annexion zu bewahren, sah sich die Sowjetunion schließlich veranlasst, die Versorgung Berlins auf Land- und Wasserwegen wieder zuzulassen, so dass sie am 12. Mai 1949 um 0:01 Uhr alle Sperren wieder aufhob. Die Versorgungsflüge endeten am 27. August 1949. Insgesamt waren von Juni 1948 bis Mai 1949 rund 2,34 Millionen Tonnen Fracht (davon 1,78 Millionen Tonnen durch US-Flugzeuge), davon 1,44 Millionen Tonnen Kohle, 490.000 Tonnen Nahrungsmittel und 160.000 Tonnen Baustoffe zum Ausbau der Flughäfen, aber auch zum Neubau des Kraftwerkes Ruhleben, eingeflogen worden. Es wurden soweit möglich dehydrierte Lebensmittel wie Milchpulver und Trockenkartoffeln verwendet, um Gewicht zu sparen. Außerdem wurden 81.730 Tonnen Fracht aus Berlin ausgeflogen, die zu einem Großteil aus in der Stadt hergestellten Produkten bestand, die mit dem Label „Hergestellt im Blockierten Berlin“ versehen waren. Es wurden zudem insgesamt 227.655 Passagiere befördert. Am 30. September 1949 war auf dem Tempelhofer Flughafen der letzte „Rosinenbomber“ mit 10 t Kohle an Bord gelandet. Unfälle. Tafel in der Handjerystraße 2 in Berlin zur Erinnerung an einen Flugzeugabsturz Bei den fast 280.000 Flügen gab es 17 Flugunfälle der USAF und 8 der RAF. Darunter waren mehrere tödliche Unfälle, bei denen insgesamt 39 Briten, 31 US-Amerikaner und 13 Deutsche ihr Leben verloren. Konfrontation. Auf den Stützpunkten kam es zu Sabotageakten. Die Piloten wurden über der sowjetischen Besatzungszone behindert z. B. durch störende Flugmanöver sowjetischer Jagdflugzeuge, Flak-Beschuss im Grenzbereich der Luftkorridore zur Einschüchterung oder Blenden der Piloten mit Flakscheinwerfern. Amerikanische Piloten berichteten von 733 „Vorkommnissen“. Dabei kam es erstmals zur Konfrontation von westalliierten Flugzeugen mit sowjetischen MiG-15. Außerhalb Deutschlands. Die Luftbrücke bestand nicht nur aus den Luftkorridoren zwischen West-Deutschland nach West-Berlin, sondern die Hilfsgüter mussten zuerst nach Deutschland gebracht werden. Für damalige Flugzeugtypen war die Flugstrecke für einen Direktflug aus den USA nach Deutschland zu weit. Flugzeuge mit amerikanischen Hilfsgütern mussten somit zwischenlanden. In Grönland erfüllten die Flughäfen Søndre Strømfjord (US Air Force Base „Bluie West Eight“, heute Kangerlussuaq) und Narsarsuaq (US Air Force Base „Bluie West One“) diese Aufgaben. Berlin. Die meisten Flugplätze waren anfangs unbefestigte Graspisten und wurden im Laufe der Operation befestigt. So wurde zum Beispiel in Tegel in nur dreimonatiger Bauzeit die mit 2.400 m damals längste Start- und Landebahn Europas errichtet. In Berlin wurden die Flughäfen Gatow (britischer Sektor), Tempelhof (US-Sektor) und Tegel (französischer Sektor) angeflogen. Außerdem landeten große britische Flugboote, mit denen hauptsächlich Kohle und Salz transportiert wurden, auf der Havel und dem Großen Wannsee. In Tempelhof wurde das seinerzeit modernste Radarsystem eingerichtet, um den dichten Flugbetrieb auch bei ungünstiger Witterung und bei Nacht aufrecht halten zu können. Westdeutschland. Das Gebäude der CALTF in Wiesbaden Die Amerikaner starteten überwiegend von ihren großen Stützpunkten in Wiesbaden (Flugplatz Erbenheim) und der Rhein-Main Air Base am Flughafen Frankfurt am Main. Hauptumschlagplatz für das quantitativ bedeutsamste Frachtgut Kohle waren die in der britischen Zone gelegenen Flugplätze von Lübeck, Celle, Faßberg, Wunstorf und Schleswig-Land, die zum Teil aufwendig ausgebaut wurden und auch einen Gleisanschluss erhielten. Die britischen Flugboote starteten auf der Elbe in Hamburg-Finkenwerder. Die Koordination der Luftbrücke erfolgte vom Sitz der "Combined Airlift Task Force" (CALTF) in der Taunusstraße in Wiesbaden. Flugzeuge der Berliner Luftbrücke. In der Anfangszeit benutzten die Amerikaner die zweimotorige "C-47 Skytrain" beziehungsweise deren ziviles Pendant "DC-3." Diese Maschinen erwiesen sich mit einer Zuladung von maximal 3 Tonnen Ladung als zu leistungsschwach, so dass sie schnell durch die größeren viermotorigen "C-54 Skymaster" bzw. deren Zivilversion "DC-4" ersetzt wurden, die immerhin 9 Tonnen Ladung tragen konnten und auch schneller waren. Insgesamt wurden 380 solcher Maschinen während der Luftbrücke eingesetzt (davon allein 225 Stück bei den Amerikanern), was den größten Anteil der eingesetzten Maschinen ausmachte. Andere amerikanische Maschinen wie die "C-97 Stratofreighter" und die "C-74 Globemaster", die mit einer Zuladung jeweils rund 20 Tonnen für damalige Verhältnisse Giganten war, wurden nur vereinzelt eingesetzt. Die weitgehende Beschränkung auf einen Flugzeugtyp bei den Amerikanern vereinfachte und optimierte deren gesamte Logistik. Die Flugzeuge hatten die gleiche Reisegeschwindigkeit und Flugcharakteristik, weshalb der Flugzeugabstand weiter reduziert und die Frequenz von Starts und Landungen erhöht werden konnte. Die Wartung und Ersatzteilbeschaffung war einfacher und effizienter. Die auf einem Typ ausgebildeten Besatzungen konnten problemlos auf andere Maschinen desselben Typs wechseln. Das Verfahren zum Be- und Entladen konnte vereinheitlicht und mit größerer Routine abgewickelt werden. Die Briten hingegen setzten ein Sammelsurium von Flugzeugtypen ein. Viele Flugzeuge waren ehemalige Bomber oder die Zivilversionen englischer Bomber. In Ermangelung eigener Flugzeuge charterte die Royal Air Force zusätzlich viele Flugzeuge ziviler Fluggesellschaften. Eine Besonderheit stellte der Einsatz von Flugbooten dar, die insbesondere für den Transport von Salz genutzt wurden. Diese Flugzeuge waren für den Einsatz auf See konzipiert und deshalb auf Korrosionsbeständigkeit optimiert. In der Winterzeit bei Eis auf den Gewässern übernahmen "Halifax"-Bomber die Aufgabe des Salztransportes. Auf den Einsatz von Maschinen aus deutscher Produktion wurde, mit Ausnahme eines kurzzeitigen Einsatzes einer Junkers Ju 52 durch Frankreich, aus propagandistischen und insbesondere aus logistischen Gründen verzichtet. "Avro York"-Transportflugzeug der Royal Air Force Douglas C-54 "Skymaster" der U.S. Air Force Flugboot "Short Sunderland" der Royal Air Force Denkmäler/Erinnerungsstätten. Luftbrückendenkmal am Flughafen Frankfurt am Main, 2008 a> zur Erinnerung an die Flüge der Royal Australian Air Force, 2008 Ginkgobaum und Erinnerungstafel an die auf dem Friedhof Ohlsdorf in Hamburg beigesetzten Opfer der Berliner Luftbrücke. Seit 1951 erinnert in Berlin das von Eduard Ludwig (1906–1960) geschaffene Luftbrückendenkmal am Platz der Luftbrücke vor dem Flughafen Tempelhof an die Opfer der Luftbrücke. Später wurden weitere baugleiche Denkmäler beim Flughafen Frankfurt und – in etwas kleinerer Ausführung – im Ortsteil Wietzenbruch/Celle in der Nähe des Fliegerhorstes Wietzenbruch/Immelmann-Kaserne Heeresflugplatz Celle errichtet. Am Fliegerhorst Faßberg lädt ein Luftbrückenmuseum zur Auseinandersetzung mit der Geschichte ein. Am Fliegerhorst Erding wurde die Militärsiedlung Williamsville nach einem der verunglückten Piloten benannt. Am 11. Mai 2012 wurde vor dem Towergebäude des ehemaligen Flugplatzes Gatow ein neues Denkmal eingeweiht, das die Ausstellung einer auf dem Flugplatz beherbergten Außenstelle des Militärhistorischen Museums der Bundeswehr ergänzt. Es besteht aus einer C-47 der Royal Australian Air Force, die bei der Berliner Luftbrücke eingesetzt wurde, und einem Gedenkstein. An die auf dem Friedhof Ohlsdorf in Hamburg beigesetzten Opfer der Berliner Luftbrücke erinnert eine Tafel und ein Ginkgobaum. Besuch von Kennedy zum 15. Jahrestag der Luftbrücke. Anlässlich des 15. Jahrestags des Beginns der Luftbrücke, kurz nach dem Bau der Berliner Mauer, besuchte erstmals ein US-Präsident, John F. Kennedy, (West-)Berlin. Seine berühmte Jubiläumsrede am 26. Juni 1963 vor dem Rathaus Schöneberg diente der Bekräftigung der während der Luftbrücke bewiesenen Solidarität und Unterstützung des US-amerikanischen Volkes für den Freiheitswillen der Bevölkerung von (ganz) Berlin. „Rosinenbomber“, „candy bomber“. Der Name „candy bomber“ geht zurück auf den amerikanischen Piloten Gail Halvorsen, der Süßigkeiten () wie Schokoladentafeln und Kaugummis an selbstgebastelte Taschentuch-Fallschirme band und diese vor der Landung in Tempelhof für die wartenden Kinder abwarf. Als Halvorsens Vorgesetzte durch die Berliner Presse von den Abwürfen erfuhren, zog die Aktion bald weite Kreise und viele seiner Kollegen folgten ihm. Air-Force-Flieger und auch zivile Amerikaner sammelten Süßigkeiten und Kaugummis, um damit die "Operation Little Vittles" (kleiner Proviant) zu unterstützen. Die Berliner nannten die Versorgungsflugzeuge daraufhin liebevoll „Rosinenbomber“. Ein britischer Pilot hat berichtet, dass er in der Vorweihnachtszeit 1948 eine Ladung Rosinen für die Weihnachtsbäckerei nach Berlin geflogen habe. Echter Buchweizen. Der Echte Buchweizen ("Fagopyrum esculentum"), auch Gemeiner Buchweizen'", ist eine Pflanzenart aus der Gattung Buchweizen ("Fagopyrum") in der Familie der Knöterichgewächse (Polygonaceae). Manchmal wird er auch in die Gattung "Polygonum" eingeordnet. Buchweizen ist ein Pseudogetreide (Pseudocerealie). In manchen Gegenden wird Buchweizen auch als Heiden, Heidenkorn, Blenden, Brein, schwarzes Welschkorn, Gricken (lit. Grikiai) oder türkischer Weizen (bei Th. Storm) bezeichnet, was auf die Annahme hindeutet, Buchweizen sei über die Türkei nach Europa gelangt. In den romanischen Sprachen wird der Buchweizen als „sarazenisches Korn“ bezeichnet, sorbisch, tschechisch und slowakisch: "Pohanka" (deutsch: "„Heidenkorn“"), französisch: "Sarrasin". Der Echte Buchweizen wurde zur Arzneipflanze des Jahres 1999 gewählt. Vegetative Merkmale. Der Echte Buchweizen ist eine einjährige krautige Pflanze, die als Wildpflanze Wuchshöhen von 20 bis 60 Zentimetern erreicht, unter günstigen Bedingungen (Ackeranbau) auch bis zu 1,2 Meter. Der aufrechte Stängel ist wenig verzweigt und bei der Fruchtreife meistens rot überlaufen. Die Laubblätter sind wechselständig angeordnet. Die unteren Laubblätter sind deutlich gestielt, die oberen sitzen fast dem Stängel an. Typisch für die Knöterichgewächse ist die kurze, tütenartige Hülle (Ochrea), die an der Ansatzstelle des Blattstiels den Stängel umhüllt. Die Blattspreite ist dreieckig spießförmig, herz- bis pfeilförmig, mit einer Länge bis zu 8 Zentimetern meistens etwas länger oder gleich lang als breit und stets zugespitzt. Generative Merkmale. In den Blätterachseln entspringen die Blütenstandsschäfte, über denen die kurzen, traubigen bis schirmrispigen Blütenstände stehen. Die zwittrigen Blüten sind nur etwa 3 Millimeter lang. Die Blütenhülle bestehen aus meist fünf, selten auch nur vier 3 bis 4 mm langen, weißen, rosafarbenen bis rötlichen Blütenhüllblättern. Als Frucht wird pro Blüte ein dreikantiges Nüsschen gebildet. Die Nüsschen sind 4 bis 6 Millimeter lang und etwa 3 Millimeter dick mit ganzrandigen, scharfen, ungezähnten Kanten und glatten Flächen. Die Frucht ist ungeflügelt und besitzt eine derbe Schale, die etwa 30 % des Gewichts ausmacht und vor der Nutzung als Nahrungsmittel entfernt werden muss. Die Tausendkornmasse beträgt bei Feldanbau etwa 16 g. Die Chromosomenzahl beträgt 2n = 16. Verbreitung als Wildpflanze und Ökologie. Der Echte Buchweizen ist eine alte Nutzpflanze. Er stammt ursprünglich aus Zentral- bis Ostasien. In Mitteleuropa ist er selten auch verwildert an Wegen und Waldrändern sowie in Schutt- und Unkrautfluren anzutreffen. Die Bestände stammen meist aus Anbau oder Aussaat (z.B. als Wild- oder Bienenfutter) und überdauern oft nur einige Jahre. Der echte Buchweizen bevorzugt lockere, sandige Böden, die basenarm und mäßig sauer sind. Er ist eine wärmeliebende Pflanze, die bereits bei niedrigen Plusgraden Kälteschäden davonträgt. Verwandte Arten. Eine nahe verwandte Art ist der Tataren-Buchweizen ("Fagopyrum tataricum"). Unterscheidungsmerkmale zum Echten Buchweizen: Die Blätter sind meist breiter als lang und der Stängel ist zur Fruchtzeit grün, nicht rot. Weitere Verwandte des Buchweizens sind Sauerampfer ("Rumex acetosa") und Rhabarber ("Rheum rhabarbarum"), er ist jedoch nicht mit Weizen ("Triticum") verwandt. Ursprungs- (Rot) und Anbaugebiet (Grün) von Buchweizen. Nutzungsgeschichte. Der Echte Buchweizen wurde wahrscheinlich zuerst in China kultiviert. Archäologisch nachgewiesen sind Buchweizenkörner auch aus skythischen Siedlungen des 7. bis 4. Jahrhunderts vor Christus nördlich des Schwarzen Meeres. In Mitteleuropa erfolgte die Ausbreitung während des späten Mittelalters von Osten nach Westen, Buchweizenpollen und -körner lassen sich frühestens ab dem 12. Jahrhundert nachweisen. In Deutschland stammen die ersten schriftlichen Erwähnungen des Buchweizens aus dem Leinetal (1380) und aus Nürnberg (1396). Ab dem 16. Jahrhundert wurde er dann in ganz Europa in Gebieten angebaut, in denen Klima und Boden eine andere Nutzung erschwerten. Der Schwerpunkt des Anbaus von Buchweizen lag in Mitteleuropa im 17. und 18. Jahrhundert. Vor allem seit im 18. Jahrhundert der Anbau der Kartoffel stark zunahm, die ebenfalls auf relativ schlechten Böden noch gut gedeiht, ging die Bedeutung des Buchweizens als Nahrungslieferant deutlich zurück. Mitte des 20. Jahrhunderts war der Buchweizenanbau in Deutschland völlig bedeutungslos geworden, weil der Einsatz von Kunstdünger den Anbau von ertragreicheren Feldfrüchten auch auf ärmeren Böden ermöglichte. In den letzten Jahrzehnten wird Buchweizen aufgrund geänderter Nahrungsgewohnheiten jedoch wieder als Nischenprodukt angepflanzt. Weltweit ist Buchweizen heute von untergeordneter Bedeutung. Laut FAO wurden 2012 weltweit 2,275 Mio. t Buchweizen geerntet. Die größten Anbauländer sind Russland (etwa 0,8 Mio. t), China (0,7 Mio. t) und die Ukraine (0,2 Mio. t). In Deutschland wird er (in kleinen Mengen) noch in der Lüneburger Heide, in Schleswig-Holstein, Westfalen, am Niederrhein, in der Eifel, im Hunsrück, in Oberfranken und in einigen Alpentälern angebaut. Anbau und Ernte. Im Anbau stellt Buchweizen wenig Ansprüche an den Boden und gedeiht auch in sonst ziemlich unfruchtbaren Heide- und Moorgegenden. Die Pflanze ist jedoch empfindlich gegen Kälte und erträgt keine Temperaturen unter +3 °C. Zum Keimen benötigt Buchweizen eine Bodentemperatur über 10 °C und kann daher erst ab Mitte Mai bis Anfang Juni ausgesät werden. Aufgrund dieser Ansprüche ist in Europa ein Anbau nur bis etwa 70° nördlicher Breite und in Höhenlagen bis 800 m möglich. Wegen unsicherer Fremdbestäubung bringt der Buchweizen trotz vieler Blüten nur etwa neun Nüsschen pro Pflanze. Zur Gewinnung der Buchweizennüsschen erfolgt die Aussaat in Mitteleuropa zwischen Mitte Mai und Mitte Juni, in wärmeren Tieflagen auch erst im Juli. Die Nüsschen reifen schnell innerhalb von zehn bis zwölf Wochen nach der Aussaat, so dass die Ernte im Mähdreschverfahren zwischen Ende August und Anfang September erfolgen kann. Buchweizen ist stark witterungsempfindlich, weshalb der Ertrag mit weitaus mehr Unsicherheiten behaftet ist, als bei üblichen Getreiden. In besonders guten Lagen (Weinbauklima) kann Buchweizen auch als Zweitkultur nach früh abreifenden Vorfrüchten wie Wintergerste angebaut werden. Bei Saatterminen von Mitte bis Ende Juni ist eine Ernte Ende September möglich. Buchweizen kann aber auch als Zwischenfrucht angebaut werden; der blühende Spross lässt sich innerhalb von sechs bis neun Wochen nach der Aussaat als Grünfutter nutzen, wird jedoch als schlechtes Futter eingestuft. Bei Zwischenfruchtanbau kann die Aussaat in Mitteleuropa je nach klimatischer Lage noch bis Ende Juli erfolgen. Buchweizen ist eine gute Bienentrachtpflanze. Sein Nektar hat einen Saccharose-Gehalt von durchschnittlich 46 Prozent, jede einzelne Blüte produziert in 24 Stunden durchschnittlich 0,1 mg Zucker (Zuckerwert). Honigerträge von bis zu 494 kg pro Hektar Anbaufläche sind möglich und entsprechen daher in etwa den bei Raps oder Phacelia möglichen Werten. Der melasseartig schmeckende Buchweizenhonig ist im frischen Zustand von dunkelbrauner Farbe und zähflüssig, er kandiert im Laufe der Zeit grob und hart aus und besitzt dann eine dunkle Farbe. Zusammensetzung. Der Brennwert beträgt 1421 kJ (340 kcal) pro 100 g geschälte Ware. Buchweizen enthält kein Gluten (auch als „Kleber“ bezeichnet). Zubereitung. Wegen des fehlenden Glutens ist reiner Buchweizen einerseits zum Brotbacken ungeeignet, andererseits aber zur Ernährung von Menschen mit Glutenunverträglichkeit geeignet. Buchweizen wird hauptsächlich in Naturkostläden als ganzes geschältes Korn, in Form von Grütze, Flocken oder Mehl angeboten. Vor allem die russische und polnische Küche kennt Buchweizenbrei (russisch: гречневая каша (grétschnewaja káscha); polnisch: kasza gryczana), der in diesen Ländern sehr beliebt ist. In der norditalienischen und der Bündner Küche findet Buchweizenmehl als "grano saraceno" für Pizzoccheri und Polenta Verwendung. Auch die Französische Küche verwendet Buchweizenmehl (unter dem Namen "blé noir", „schwarzer Weizen“, resp. "sarrasin") für Pfannkuchen, so genannte Galettes. In den Niederlanden werden etwa münzgroße aber relativ dicke süße Pfannküchlein, sogenannte Poffertjes, mit einem 1:1-Anteil Weizenmehl und Buchweizenmehl gebacken. Die Moorkolonisten im Emsland bezeichneten Buchweizenpfannkuchen (ostfriesisches Niederdeutsch oder 'Friesenplatt': "Bookweiten-Janhinnerk") als ihr tägliches Brot. Dieses Gericht gibt es auch in der Eifel, in Tirol „Schwarzplentn“; daneben wird in Südtirol auch die "Bozner Buchweizentorte (Schwarzplentener Kuchen)" und der Schwarzplentene Riebler zubereitet. In den USA werden die berühmten Pancakes auch oft aus "buckwheat"-Mehl zubereitet. Die Westfälische Küche kennt Panhas als Fleischpastete mit Buchweizenmehl. In der Steiermark, Kärnten, in Slowenien und in Luxemburg kocht man den Heidensterz, einen kräftigen Sterz aus Buchweizenmehl. In Luxemburg wird der Sterz in kleine Stücke geschnitten („Stäerzelen“) und anschließend, meist mit Speck, in der Pfanne angebraten. In Japan bestehen die sehr beliebten Soba-Nudeln aus Buchweizen. In Lettland, Litauen, Polen und Russland kann man Buchweizen in Packungen [Griķi (Gritji, гречка)] kaufen, die aussehen wie Schnellkoch-Reisbeutel. Gesundheitsaspekte. Blüten und grüne Pflanzenteile des Buchweizen enthalten Rutoside, die bei Venenleiden medizinische Verwendung finden. Er gilt generell als wertvolles Nahrungsmittel mit viel Eiweiß und Stärke. Da Buchweizen glutenfrei ist, kann er als Diätnahrung bei Zöliakie (Sprue, glutensensitive Enteropathie) verwendet werden. Das Pseudogetreide wird sogar von Diätrichtungen wie der Steinzeiternährung als unbedenklich akzeptiert. In Versuchen mit diabetischen Ratten hat sich Buchweizen als wirksames Mittel zur Senkung des erhöhten Blutzuckerspiegels erwiesen. Leicht problematisch kann der rote Farbstoff aus der Fruchtschale, das Fagopyrin, sein. Sofern man ihn isst, kann die Haut empfindlicher gegen Sonnenlicht werden (siehe Buchweizenkrankheit). Bei geschältem Buchweizen ist dies jedoch nicht mehr der Fall. Benediktiner. Die Benediktiner (für "Orden des hl. Benedikt", OSB) sind ein kontemplativ ausgerichteter Orden innerhalb der römisch-katholischen Kirche. Auch im Anglikanismus und vereinzelt im Luthertum sind benediktinische Klöster erhalten geblieben. Benannt ist er nach seinem Gründer Benedikt von Nursia und gilt als ältester Orden des westlichen Ordenslebens. Als ein Motto der Benediktiner kann gelten: – Auf dass Gott in allem verherrlicht werde“. Geschichte. a> im Kloster San Marco, Florenz Herausbildung des westlichen Mönchtums. Durch seine Sonderstellung als zeitweilig (etwa vom frühen neunten bis zum späten zwölften Jahrhundert) einzig etablierter Orden der westlichen Kirche kann man die Geschichte des Benediktinertums kaum ohne einen Blick auf das westliche Mönchtum insgesamt verstehen. Dieses hatte sich nach Vorbildern aus Ägypten und dem Nahen Osten entwickelt und zu eigener Ausprägung gefunden. Während dort im Wesentlichen das Eremitentum als das eigentliche Mönchtum – die asketische Lebensform, in der der Gläubige eine besondere Gottesnähe ausdrückt und erfährt – verstanden wurde, waren in den weströmischen Städten andere Formen stärker hervorgetreten (Familienaskese, zölibatäre Gemeinschaften christlicher Frauen). Bischof Eusebius († 370) hatte in Vercelli in einer Gemeinschaft mit anderen Priestern zusammen gelebt und so das erste Beispiel eines Klerikerklosters gegeben. Martin von Tours errichtete in Ligugé in der Nähe von Poitiers eines der ersten Klöster des Abendlandes, außerdem 375 in der Nähe von Tours das Kloster Marmoutier. Der heilige Hieronymus, der das östliche Mönchtum auf seinen Reisen kennengelernt hatte, begünstigte die Weiterentwicklung des römischen Ideals der Vita Rusticana zum monastischen Ideal, in dem sich für ihn Abgeschiedenheit und Studium vereinen sollten. Der heilige Augustinus bezeugt im Jahr 387 Stadtklöster in Rom, aus denen sich später die Einrichtung der Basilikaklöster entwickelte. Die Proklamierung des Christentums als Staatsreligion des römischen Reiches 391 führte zu Bevölkerungsteilen, die es als römische Staatsbürger verordnet bekamen. Die Folge war ein in etlichen Regionen wenig gefestigter Glaube, neben dem die bisherigen Weltbilder und religiösen Vorstellungen parallel weiterexistierten. Dieser Hintergrund begünstigte das Entstehen von Gemeinschaften, die ihr Leben vollständig als religiöses, christliches Leben verstehen wollten. Das Konzil von Chalcedon 451 entschied, die Klöster der bischöflichen Jurisdiktion zu unterstellen. Sie wurden mithin Teil der kirchlichen Hierarchie und ihren Ortsbischöfen untergeordnet. Damit war verglichen mit dem östlichen Mönchtum endgültig ein Sonderweg beschritten. Benedikt von Nursia und Gregor der Große. Vor diesem Hintergrund sticht die Gestalt des Benedikt von Nursia (* um 480; † 547), der für das 529 von ihm gegründeten Kloster bei Montecassino die nach ihm benannte Regula Benedicti (Benediktsregel) verfasste, die auf der "Regula Magistri" und anderen klösterlichen Regeln basiert, kaum hervor. Wesentliche Haltungen, die die Regel von den Mönchen verlangt, sind Gehorsam gegenüber ihrem Abt, Schweigsamkeit, Beständigkeit und Demut. Der größte Teil des Tages ist gemeinsamem oder persönlichem Gebet gewidmet oder wird in Stille, mit Meditation und geistiger Lektüre verbracht. Handwerkliche Arbeit, von der die Mönche leben sollten, schaffte Ausgleich. Der Tagesablauf der Mönche wird gegliedert durch den Gottesdienst, dem nach der Regel nichts vorgezogen werden darf. Wie im Mönchtum üblich wurden Psalmen gebetet, nach der Regel alle 150 innerhalb einer Woche (in der heutigen Zeit oft auf zwei Wochen verteilt). Damit unterscheidet sich die Regula Benedicti ein wenig von anderen klösterlichen Regeln dieser Zeit. Benedikt hatte bei ihrer Abfassung keine ordensartigen Strukturen vor Augen – er wollte, ebenso wie andere Regelautoren, die Verhältnisse in seinem eigenen Haus klären. Ein Aspekt, der die spätere Sonderstellung der Regel erklären könnte, ist die Nivellierung von Standesunterschieden: die Rangfolge der Mönche orientierte sich, von durch den Abt bestimmten Ausnahmen abgesehen, einzig daran, wie lange sie dem Orden schon angehörten (sozusagen nach dem Dienstalter; siehe auch Anciennität). Dies konnte den elitären Charakter der Klöster abschwächen, die zuvor eher als Einrichtungen von und für Adlige verstanden worden waren. Sozial niedrig(er) Gestellte sahen im Klostereintritt eine Chance zu gesellschaftlichem Aufstieg. Auch die relative Milde der Regelungen zur Askese und die relative Kürze der Regula Benedicti (Nichtbehandlung sonst üblicher Regelthemen) erleichterte es, diese in anderen Klöstern, Ländern bzw. Klimazonen zu übernehmen. All dies hat wohl zur späteren Beliebtheit der Regel beigetragen. Die Regel konnte niemals ohne ergänzende Bestimmungen befolgt werden, die sogenannten Consuetudines. Nichts davon sticht jedoch so heraus, dass es Benedikt zu seinem Titel als „Vater des Abendlandes“ hätte verhelfen können. Diese Entwicklung beginnt erst mit der Abfassung seiner Biographie durch Gregor den Großen († 604) im zweiten Buch der "„Dialoge“". Der zweite Band der Dialoge enthält ausschließlich die Biographie Benedikts. Die Intention, die den vom Mönchtum begeisterten Papst zur Niederschrift bewegte, lässt sich relativ klar herausarbeiten: Italien sollte einen nationalen Heiligen erhalten, eine Identifikationsfigur, wie sie andere Regionen (etwa Südgallien mit Martin von Tours) längst hatten. Gregor wählte die Gestalt des wenige Jahrzehnte zuvor verstorbenen Klostergründers, die er idealisierte und mit vielen Wundertaten anreicherte. Das starke Durchscheinen des Idealtypus durch die Darstellung Gregors hat in der Forschung des 20. Jahrhunderts die Historizität Benedikts in Frage gestellt. Man nimmt heute an, dass Gregors Schilderungen eine reale Biographie zum Kern haben. Auch Gregor, der die Stellung des Mönchtums als Teil der Kirche durch seine Lehren durchaus festigte und ihnen apostolisches Wirken – also Predigten, Seelsorge und karitative Aufgaben – erst ermöglichte, dürfte dabei keine Vorstellung von einem „Ordenswesen“ gehabt haben. Im Verständnis ihrer Zeit ist die Vorstellung vom einzelnen Kloster als organisatorisch autarke Einheit noch viel zu tief verwurzelt. Nach seiner Beschreibung beginnt Benedikts eigentliche Gründungsgeschichte seiner Klöster mit Benedikts Abkehr vom Eremitentum und der Zuwendung zu einem Gemeinschaftsleben. Benedikt sammelt die ersten Schüler um sich und legt so den Grundstein für weitere Gemeinschaften. So gründete er etwa zwölf Klöster in der Umgebung von Subiaco, unter anderem Montecassino, in dem er seine Ordensregel verfasste. Bemerkenswert ist, dass Gregor, obwohl er die Abfassung der Regel erwähnt und sie als vorbildlich lobt, in keiner seiner zahlreichen Schriften zum Mönchswesen Zitate oder Ideen aus ihr verwendet – im Gegensatz zu einigen anderen Mönchsregeln. Es scheint also, als hätte er die Regula Benedicti nicht im Wortlaut gekannt, was vor allem erstaunt, da der Tradition nach die Mönche nach der Zerstörung Montecassinos 577 durch die Langobarden die Regel nach Rom gebracht haben sollen. Zumindest dieser Schritt der Überlieferungstradition der Benediktregel scheint also fragwürdig (sie wird erst 620 wieder bezeugt). Irische Mönche und Mischregelzeitalter. In Irland hatte seit der Missionierung durch Patrick († um 490) das Christentum und insbesondere das Mönchtum fest Fuß gefasst. Es wurde hier vor allem durch Schreiberklöster von zum Teil beachtlicher Größe repräsentiert. Die iroschottische Kirche lag immer wieder im Streit mit Rom, sei es bezüglich der Kirchenordnung, der Mönchsregeln oder der Liturgie. Ein weiteres Spezifikum war das Ideal der Peregrinatio, das die Mönche zu sehr reger Wandertätigkeit und Klostergründungen bewegte. Meist waren sie in Gruppen unterwegs, bisweilen brachen ganze Klöster auf. Ein solcher Wandermönch war der heilige Columban († 612 oder 615). Er reiste aufs Festland und gründete mit seinen Brüdern 590 das Kloster Luxeuil in den Vogesen. Noch mehrmals zog er weiter, gestorben ist er in Bobbio (Italien). In der römischen Kultur war das Christentum fast ausschließlich in Städten verbreitet und die Gläubigen hatten es über Jahrhunderte nicht geschafft, die gallo-römische Landbevölkerung zu bekehren. Dies änderte sich mit Columbans Klostergründungswelle, in deren Folge sich eine – vom fränkischen Adel getragene – Bewegung entwickelte, die im 7. Jahrhundert circa 300 neue Klöster gründete.. Die iroschottische Mission auf dem europäischen Festland war sehr erfolgreich. Columban hatte bereits konsequent die Verschränkung des Mönchtums mit den weltlichen Herrschern ihres Gebiets verfolgt und war selbst Autor einer Klosterregel. Diese wurde gemeinsam mit der Regula Benedicti in Form von sogenannten „Mischregeln“ in den meisten Klöstern befolgt. Aber auch andere Regeln kamen dabei zum Einsatz. Es ist bis 670 nur ein einziges Kloster bekannt, das ausschließlich die Regula Benedicti beachtet hat – Altaripa bei Albi. Auf dem Konzil von Autun wurde festgelegt, dass die Klöster künftig nach der Regel Benedikts geführt werden sollten. Diese Vorschrift ist eine der ersten nachgewiesenen Beschlüsse, der die benediktinische Regel verbindlich macht. Damit wurde der Ordensregel Columbans entgegengewirkt. Nach der Synode von Whitby und dem Konzil von Autun erlangte die Regula Benedicti auf der britischen Insel rasch Beliebtheit, indem sie von Benedict Biscop und Wilfrid bekannt gemacht wurde. Zumeist in Mischform blieben beide Regeln bis Anfang des 9. Jahrhunderts in Gebrauch, bis 817 die fränkischen Klöster durch Abt Benedikt von Aniane mit Unterstützung Ludwigs des Frommen auf die Regel Benedikts verpflichtet wurden. Erst danach wurde sie im Abendland zur maßgebenden Mönchsregel. Ein anderer irischer Peregrinatio-Mönch war Pirmin, der als Erster die von ihm gegründeten Klöster zu einem Verband zusammenfasste (unter anderem Kloster Reichenau, Kloster Murbach und Kloster Hornbach). Die Karolinger, Benedikt von Aniane und das Konzil von Aachen. Im 8. Jahrhundert erfuhr das Andenken Benedikts von Nursia enorme Blüte. Unter Abt Petronax wurde 717 das Kloster Montecassino neu gegründet. Es galt als Ideal mönchischen Lebens, so dass viele einflussreiche Mönche (etwa Willibald von Eichstätt oder Sturmi, der erste Abt des Klosters Fulda) es besuchten oder eine Weile dort lebten. Auch Karlmann, ehemals fränkischer Hausmeier und faktischer Herrscher der östlichen Hälfte des Frankenreiches, trat dort ein. 750 gab Papst Zacharias das in Rom befindliche Exemplar der Regula Benedicti, das als Original galt, zurück auf den Montecassino. Auch sonst unterstützte er das Kloster nach Kräften. Auch im Norden wuchs die Hochachtung vor Benedikt. Pippin der Jüngere und sein Sohn Karl der Große – und mit ihnen die geistlichen Würdenträger – strebten nach Unterstützung der römischen Kirche, und da Benedikt als „römischer Abt“ galt, bedachte man seine Regel mit besonderer Aufmerksamkeit. 744 gründete Bonifatius (* 673; † 754), der „Apostel der Deutschen“, ebenfalls ein irischer Peregrinatio-Mönch – das Kloster Fulda, in dem ausdrücklich einzig die Regula Benedicti gelten sollte. 787 ließ Karl der Große eine Abschrift der Regel auf dem Montecassino anfertigen und nach Aachen bringen. Eine für das Kloster St. Gallen angefertigte Kopie dieses Exemplars ist die noch heute verwendete Textgrundlage. Karl hatte konkrete Vorstellungen davon, welche Rolle die Reichskirche, als deren geistlicher Leiter er sich sah, im fränkischen Reich spielen sollte – und ebenso das Mönchtum in ihr. Er unterstellte die Klöster den zuständigen Landesherren. Aber auch die Vereinheitlichung des Mönchtums schien ihm ein notwendiges Zwischenziel. Über sie hoffte er, die Güter und Einkünfte der Klöster in der Reichweite des königlichen beziehungsweise kaiserlichen Arms zu behalten und den Gebetsdienst, dem in seinen Augen staatstragende Bedeutung zukam, sicherzustellen. Außerdem sollten die Mönche eine zivilisatorische Aufgabe wahrnehmen: Klöster wurden häufig in noch nicht vollständig befriedeten und kultivierten Gegenden gebaut, wo sie dabei halfen, den Reichsgedanken und das Christentum zu verbreiten, aber auch „Entwicklungshilfe“ und Kulturarbeit zu leisten. So ordnete Karl 789 an, dass alle Klöster Klosterschulen zu unterhalten hätten. Auch die Idee der großen Klosterbibliotheken, die die mönchische Lebensform keineswegs voraussetzte, die aber den vollständigen Verlust der antiken Literatur in den Folgejahrhunderten verhinderte, setzte sich allmählich durch. Es ist weitgehend den Mönchen zu verdanken, dass das kulturelle Erbe der Antike über die Jahrhunderte des Frühmittelalters in Westeuropa erhalten blieb. Das Projekt der Vereinheitlichung des Mönchtums wurde erst von Karls Sohn Ludwig dem Frommen vollendet. Er war zuvor Unterkönig in Aquitanien gewesen, wo er bereits die Bekanntschaft mit dem umtriebigen Abt Benedikt von Aniane gemacht hatte. Kurz nachdem Ludwig die Nachfolge seines Vaters angetreten hatte, berief er Benedikt in die Nähe von Aachen, wo er in den Folgejahren die Vereinheitlichung organisierte, die schließlich im Konzil von Aachen 816–819 zur Vollendung gebracht wurde. Die dortigen Beschlüsse verabschiedete Ludwig als Kapitularien. Die Benediktregel wurde dort als einzige Klosterregel verbindlich für alle Klöster des Frankenreichs erklärt und um ebenfalls verbindliche Consuetudines ergänzt. Erwähnenswert ist eine neue Kleiderordnung (die bis heute Gültigkeit hat), die bewusste Entscheidung für das Großkloster und das Bekenntnis zu Karls Idee eines „Kulturklosters“, das also nicht als rein kontemplative Gemeinschaft abseits der Welt existieren durfte, sondern Seelsorge, Schuldienst und Mission betreiben musste. Weil der Gebetsdienst als so wichtig angesehen wurde, nahm die Ausgestaltung der Liturgie ebenso großen Raum ein. Sie wurde auf Jahrhunderte eine Spezialität der Benediktiner. Es war Benedikt von Aniane wichtig, einen klaren Unterschied zwischen Mönchen und Klerikern zu machen. Für letztere galt zum Beispiel keine Armutsforderung, wie sie in der Regula Benedicti niedergelegt war. Viele Klöster protestierten jedoch gegen die Oktroyierung der Regel und lösten sich auf oder erklärten sich zu Kanonikergemeinschaften. Erst ab diesem Zeitpunkt ist es historisch exakt, von „Benediktinern“ zu sprechen. Noch immer verstanden sie sich jedoch nicht als Orden, sondern als einzelne Klöster, die die Lebensform gemeinsam hatten. Machtgewinn, Reformen, neue Orden. Die starke Integrierung in die Reichsverwaltung führte zu einem allmählichen Macht- und Reichtumsgewinn der Großklöster, die das Armutsideal unterhöhlten. Der allmähliche Niedergang der karolingischen Reichseinheit tat diesem keinen Abbruch. Eingang zur Abtei Cluny (Zeichnung 18. Jahrhundert oder früher) Die Gründung der Abtei Cluny am 11. September 910 durch Wilhelm von Aquitanien unter Abt Berno wurde zum Beginn einer Klosterreform, die diesen Missstand beheben wollte. In der Gründungsurkunde wurde der Abtei freie Abtswahl und Unabhängigkeit vom Bischof und von weltlichen Herrschern garantiert. Der Reformgedanke – getragen von einer starken Betonung der Liturgie – breitete sich im Westen rasch aus, während im sächsischen Kaiserreich das anianisch geprägte Gorzer Mönchtum vorherrschte. Viele Klöster schlossen sich Cluny an und innerhalb eines Jahrhunderts umfasste der Klosterverband von Cluny über 1.000 Klöster. Dies war der erste eigentliche Orden in der Geschichte des westlichen Mönchtums. Die Lebensweise der Mönche von Cluny erregte auch Kritik. Das in der Benediktsregel vorgesehene Gleichgewicht von Gebet und Handarbeit wurde zugunsten des Gebets aufgeweicht. Die Abtei lebte von Messstipendien und Gebetsstiftungen. In ihrer Blütezeit während des 11. Jahrhunderts wurden in Cluny von 400 Mönchen täglich über 200 Psalmen gebetet. Ihre Messen und Prozessionen waren das Prächtigste, was es innerhalb der Kirche gab. Im zum Verband gehörenden Kloster Hirsau erfand Abt Wilhelm († 1091) den Stand der Konversen, der die Mönche noch stärker von der Notwendigkeit der Handarbeit entband. Die Kritik an der Lebensweise von Cluny als nicht regeltreu nahm zu. Robert von Molesme gründete eine Reformabtei Molesme, in der die Mönche getreu der Benediktsregel lebten und ihren Unterhalt durch Handarbeit statt durch Messstipendien und Stiftungen verdienen sollten. Sein Versuch scheiterte; ein zweiter glückte ihm: In Cîteaux baute Robert ab 1098 ein Reformkloster auf, das er als Abt leitete und das unter seinen Nachfolgern Alberich von Cîteaux und Stephan Harding zum Mutterkloster des Zisterzienserordens wurde. Die Zisterzienser setzten dem öffentlichkeitswirksam zelebrierten Gebetsleben der Benediktiner Einsamkeit, Armut und körperliche Arbeit entgegen. Bewusst kehrten sie zu einer einfachen Liturgie zurück. Bis ins Hochmittelalter waren die Benediktiner der bedeutendste Orden; sie verloren diese Stellung an die Zisterzienser sowie an die im 13. Jahrhundert neu entstehenden Bettelorden. Die Benediktiner waren in das Feudalsystem und die Naturalwirtschaft integriert; ihre Arbeit war auf Landwirtschaft und Seelsorge ausgerichtet. Die neu aufkommenden Städte und die sich entwickelnde Geldwirtschaft konnten die Benediktiner nur langsam in ihre Lebensweise integrieren. Bildung genossen und vermittelten die Benediktiner in lokalen Klosterschulen. Die im 12. Jahrhundert neu aufkommenden Universitäten, die ein nicht-sesshaftes Leben der Lehrenden und Studierenden erforderten, waren den Benediktinern fremd. Benediktusmedaille von Desiderius Lenz, Mönch im Kloster Beuron, geschaffen zum 1400. Geburtsjubiläum von Benedikt im Jahre 1880, in Auftrag gegeben von Erzabt Nikolaus d’Orgement vom Montecassino – heute die am weitesten verbreitete Form der Benediktusmedaille. Einen ersten Schritt hin zur Bildung von Kongregationen tat 1336 Papst Benedikt XII.: in seiner "Summa magistri" verfügte er Zusammenschlüsse von Abteien zu Provinzen und die Einsetzung von Provinzkapiteln. Tatsächlich schlossen sich im 15. Jahrhundert zahlreiche Klöster in der Bursfelder Kongregation zusammen, deren Ziel es war, das Klosterleben zu reformieren. Auch von anderen Klöstern gingen im 15. Jahrhundert Reformbewegungen aus, so etwa die Melker Klosterreform. Reformation, Aufklärung und Säkularisation. Die Reformation traf die Benediktiner, wie alle großen Orden, schwer. Zahlreiche Klöster gingen unter – zunächst durch Selbstauflösung, weil sich die Mönche den Lehren Luthers anschlossen, der das Mönchtum als unchristlich ablehnte, später durch die Erlasse evangelischer Fürsten. Im 17. Jahrhundert kam es, ausgehend von der Reform von Verdun durch Dom Didier de la Cour, zur Erneuerung der Benediktiner in Frankreich in Anschluss an das tridentische Rahmengesetz. Benediktiner wurden vornehmlich in Schuldienst und Seelsorge eingesetzt. Hohe Bildung galt als unverzichtbar. Aus Reformen innerhalb des Zisterzienserordens ging der Orden der Trappisten hervor. 1617 wurde die bedeutende Salzburger Benediktineruniversität gegründet. Obwohl es Bemühungen gab, mit dem westfälischen Frieden die kirchlichen Besitzungen wiederherzustellen, blieb es beim Status quo. Innerhalb des Ordens setzten sich die Ideen der Bursfelder Kongregation durch: etwa Einzelklöster, Wahl des Abts auf Lebenszeit. Wo die Benediktiner ihre Besitzungen nicht zurückgewinnen konnten, wurden sie zumeist an die Jesuiten abgetreten. Im 18. Jahrhundert entfaltete sich die barocke Klosterkultur zu voller Blüte. In den Klosterschulen wurde vor allem auf die Naturwissenschaften großer Wert gelegt. Gegen Ende des Jahrhunderts nahm die Staats- und Kirchenfeindlichkeit gegenüber den Orden jedoch wieder zu. 1780 hob die Regulierungskommission in Frankreich 426 Klöster auf. Auch in Spanien und Österreich wurde die Selbständigkeit der Klöster stark beschnitten. Der Mainzer Kurfürst und Erzbischof Friedrich Karl Joseph von Erthal löste 1784 drei reiche Klöster auf, um seine Universitätsreform zu finanzieren. In der Synode von Pistoja 1786 zeigte sich die allgemein ordensfeindliche gesellschaftliche Stimmung. Man ordnete die Vereinheitlichung aller Orden an, verbot ihnen Seelsorge, ließ nur jährliche Gelübde zu und stellte sie unter bischöfliche Aufsicht. 1790 wurde in Frankreich das Mönchtum verboten. Zahlreiche Klöster, darunter Cluny, wurden geschleift. Auch in Spanien, Italien und Brasilien kam es zu staatlichen Eingriffen. In Spanien wurden die Klöster 1809 schließlich aufgehoben. Montecassino in Italien diente als staatliches Archiv. Deutschland verlor viele Klöster bei der Säkularisation im Zuge der Annektierung der linksrheinischen Gebiete 1803 (104 Abteien, dazu 38 Häuser). Der „Josephinische Klostersturm“ in Österreich war für viele Benediktinerklöster, die in Österreich auf ein sehr hohes Alter zurückblicken konnten, der Niedergang. Restauration und Kulturkampf. Im Zuge der nachfolgenden Restauration kam es zu Neugründungen. Vor allem in Bayern (aber auch in anderen Staaten des Deutschen Bundes, vergleiche zum Beispiel Kloster Beuron in Preußen) bildeten sich neue Ordensniederlassungen. Im Bayerischen Konkordat von 1817 wurden Klosterneugründungen vereinbart, für die Ludwig I. ab 1825 vor allem Benediktiner heranzog. 1830 entstand als erste Benediktinerabtei das Kloster Metten neu. Heute gibt es in Deutschland 34 Männer- und 27 Frauenklöster, in Österreich 16 Männer- und 4 Frauenklöster und in der Schweiz 9 Männer- und 12 Frauenklöster der Benediktiner. Die Österreichische Benediktinerkongregation unterhält zudem das Kolleg St. Benedikt in Salzburg, das Studienhaus für die deutschsprachigen Benediktinermönche. Benediktinerabteien sind eigenständige Gemeinschaften; eine übergreifende Ordensorganisation im eigentlichen Sinne gibt es nicht. Die meisten Klöster sind in Kongregationen zusammengeschlossen, die Kongregationen wiederum zur Benediktinischen Konföderation, der der Abtprimas vorsteht. Dieser hat keine Leitungsfunktion, sondern nur repräsentative Aufgaben. Zurzeit gibt es weltweit rund 40.000 Mönche und Nonnen beziehungsweise Schwestern, die zur benediktinischen Ordensfamilie gehören. Spiritualität. Wesentliche Eigenschaft, die ein Mönch nach der Benediktsregel haben muss, ist die Suche nach Gott. Das Leben im Kloster soll dafür den geeigneten Rahmen schaffen. Benedikt selbst bezeichnet das Kloster als Schule für den Dienst des Herrn. Gehorsam im Sinne des einfühlsamen Hinhörens auf Gott und die Menschen wird als weitere wichtige Eigenschaft eines Mönches in der Benediktusregel genannt. Wert legen die Benediktiner auf "discretio", das Einhalten des rechten Maßes, das weise Leben in der rechten Mitte ohne zu viel oder zu wenig. Das Klosterleben der Benediktiner ist durch das Gebet geprägt. Im Mittelpunkt steht nicht das Gebet des Einzelnen, sondern das Gebet in der Gemeinschaft, was durch das Losungswort „"Ora et labora et lege"“ (lateinisch: „"Bete und arbeite und lies"“) der Benediktiner gekennzeichnet ist. Die Arbeit tritt neben den Gottesdienst und ein großer Teil des Tages ist dem gemeinschaftlichen Chorgebet und Lesung gewidmet. Die Arbeit bietet den nötigen Ausgleich, da nach Benedikt „"Das Nichtstun der Feind der Seele ist"“, und sichert gleichzeitig den Lebensunterhalt der Gemeinschaft. Dadurch ist der Tagesablauf der Mönche durch den Gottesdienst gegliedert, dem nach der Regel nichts vorgezogen werden darf, sondern alle Tätigkeiten müssen eingestellt werden, um zum Gottesdienst zu eilen. Neben der täglichen Messe ist das Stundengebet für die Benediktiner wesentlich. Die Regel selbst schreibt acht Gebetszeiten (Vigil, Laudes, Prim, Terz, Sext, Non, Vesper und Komplet) vor. Innerhalb einer Woche sollen alle 150 Psalmen des Alten Testamentes gebetet oder gesungen werden. Im Mittelalter erweiterte sich das Psalmengebet der Benediktiner immer weiter. In Cluny z. B. wurden im 11. Jahrhundert über 150 Psalmen täglich gebetet. Seit der Neubesinnung in der Ausrichtung der Ordensgemeinschaften im Zuge des Zweiten Vatikanischen Konzils wurden die Gebetszeiten auf sieben beschränkt; die Prim wurde abgeschafft. Heute ist das Psalmengebet der Benediktiner so gestaltet, dass die 150 Psalmen entweder innerhalb einer Woche oder auf zwei Wochen aufgeteilt gebetet werden können. Besonders in den bayrischen und österreichischen Abteien werden die sieben Gebetszeiten aufgrund der Tätigkeiten der Mönche in Schule und Pfarrseelsorge mitunter zusammengefasst. Beispielsweise werden Terz, Sext und Non zu einer sogenannten Tageshore oder Mittagshore zusammengefasst. Tätigkeiten der Benediktiner. a> betreibt ein bekanntes humanistisches Gymnasium mit Internat Schulen. Die Lehrtätigkeit der Benediktinerklöster hat eine lange Tradition. Bereits zu Lebzeiten des Heiligen Benedikt wurden Kinder ins Kloster aufgenommen, um ihnen Bildung zu vermitteln. Im Laufe der Jahrhunderte wurden die Benediktinerklöster zu Zentren der Kultur und Bildung und haben nicht selten die Kinder aus Adelshäusern ebenso erzogen wie das einfache Volk. Aus dieser Tradition heraus sind Schulen mit modernen Lehrplänen entstanden. Auch heute noch unterhalten viele Benediktinerklöster Schulen und Internate. Eine der bekanntesten Benediktinerschulen in Deutschland unterhält die Abtei Ettal mit einer Schul- und Internatstradition, die bis in die Barockzeit zurückgeht; vormals als Ritterakademie für junge Knaben aus dem Adelsstand während einer der Blütezeiten des Klosters im 18. Jahrhundert gegründet, wurde die Schultradition um 1900 (nach fast hundertjähriger Unterbrechung durch die Säkularisation) bis heute im Sinne der klassischen humanistischen Bildung fortgeführt. Die bekanntesten Benediktinergymnasien in Österreich sind jenes des Stiftes St. Paul im Lavanttal, das Schottengymnasium in Wien, die Stiftsgymnasien von Stift Melk, Stift Admont, Stift Kremsmünster, Abtei Seckau und Stift Seitenstetten. Das Kloster Einsiedeln, das Kloster Engelberg und das Kloster Disentis in der Schweiz unterhalten ebenfalls eine Schule. Jugendarbeit und Erwachsenenbildung. a> ist auf dem Gebiet der Jugend- und Erwachsenenbildung sehr aktiv. Neben diesen für den dauerhaften Besuch angelegten Einrichtungen laden verschiedene Jugendbegegnungshäuser und Jugendbildungshäuser der Benediktinerklöster zum Besuch ihrer offenen Angebote ein. Die Arbeit vieler Benediktinerklöster erstreckt sich heute aber auch auf das Gebiet der Erwachsenenbildung, beispielsweise werden Seminare für Manager und Unternehmer veranstaltet. Landwirtschaft. Landwirtschaft insgesamt (Waldwirtschaft, Ackerbau, Viehzucht, Obstgärten, Weinbau, Liköre und Kräuter) ist nach wie vor wichtiger Bestandteil benediktinischer Klöster. Im 12. Jahrhundert verfasste die Benediktinerin Hildegard von Bingen (1098–1179) Bücher über Heilpflanzen. Bei der Autorin kommt es zu einer Verschmelzung von antikem Wissen, christlichem Glauben und germanischem Weltbild. Obwohl sie ihre Bücher in lateinischer Sprache geschrieben hat, verwendet sie für die Heilpflanzen die volkstümlichen Bezeichnungen ihrer Heimat. Somit werden ihre Bücher unter anderem zu einem Zeugnis der Volksmedizin ihrer Zeit. Mission. Darüber hinaus betreibt der Benediktinerorden vor allem in Afrika und Asien zahlreiche Missionsstationen, wie zum Beispiel Peramiho in Tansania. Die Missionsbenediktiner der Benediktinerkongregation von St. Ottilien (Erzabtei Sankt Ottilien, Abtei Schweiklberg, Abtei Münsterschwarzach, Abtei Königsmünster, Abtei St. Otmarsberg) wurden im 19. Jahrhundert mit dem Ziel der Mission gegründet. Dass ein kontemplativ ausgerichteter Orden gezielt Mission betrieb, war damals ein Novum. Die kubanische Regierung gestattete den Benediktinern 2009 eine Klosterneugründung in Jaruco. Die Gründung in Jaruco scheiterte jedoch 2010, weil sich das zugewiesene Grundstück als ungeeignet erwies, so dass die Gemeinschaft weiter in einem provisorischen Haus in Havanna lebt (Stand: 2012). Auch das missionsbenediktinische Institut St. Bonifatius betreibt neben vielen apostolischen Aufgaben in Europa Missionsstationen in Ruanda und im Kongo sowie in Guatemala. Die zu diesem Säkularinstitut gehörigen Frauen versuchen, indem sie mitten in der Welt benediktinische Spiritualität leben, die „Freude und Hoffnung, Trauer und Angst der Menschen von heute“ (vgl. Pastoralkonstitution Gaudium et Spes) zu teilen. „Erbe und Auftrag“. Die Beuroner Benediktinerkongregation, vertreten durch die Erzabtei St. Martin, publiziert seit 1959 die Quartalszeitschrift "Erbe und Auftrag. Benediktinische Zeitschrift – Monastische Welt". Schriftenleiter ist Abtpräses Albert Schmidt. Kultur. Zahlreiche Abteien führen bedeutende Museen und sind Mäzene für moderne und klassische Kunst. Überhaupt verfügen die Benediktiner über bedeutende Kunstschätze und berühmte Bibliotheken. Bekannt ist jene im Stift Admont, die als größte Klosterbibliothek der Welt gilt. Die bedeutendste Bücher- und Kunstsammlung des Benediktiner-Ordens befindet sich im Kärntner Stift St. Paul im Lavanttal. Bestehende Benediktinerklöster im deutschsprachigen Raum. Für eine Liste der bestehenden und ehemaligen Klöster weltweit siehe Liste der Benediktinerklöster beziehungsweise Liste der Benediktinerinnenklöster. Bayerische Benediktinerkongregation / Föderation der Bayerischen Benediktinerinnen. Siehe: Bayerische Benediktinerkongregation und Föderation der Bayerischen Benediktinerinnenabteien Beuroner Benediktinerkongregation. Siehe Beuroner Kongregation Benediktinerkongregation von St. Ottilien. Siehe: Benediktinerkongregation von St. Ottilien Benediktinerkongregation von Monte Oliveto Maggiore (Olivetaner). Siehe Benediktinerkongregation von Monte Oliveto Maggiore (Olivetaner) Bambara-Erdnuss. Illustration der Bambara-Erdnuss ("Vigna subterranea") Feld mit der Bambara-Erdnuss ("Vigna subterranea") Die Bambara-Erdnuss ("Vigna subterranea") ist eine Pflanzenart, die zur Unterfamilie der Schmetterlingsblütler (Faboideae) innerhalb der Familie der Hülsenfrüchtler (Fabaceae oder Leguminosae) gehört. Diese Nutzpflanze ist nahe verwandt mit einer Reihe anderer „Bohnen“ genannter Feldfrüchte. Sie wird im deutschen Sprachraum auch Erderbse genannt. Sie stammt aus Westafrika, und wird heute in ganz Afrika, Asien, Australien und Mittel- und Südamerika kultiviert. Beschreibung. Die Bambara-Erdnuss ist eine flach kriechende, krautige Pflanze. Sie bildet etwa 4 cm lange Hülsenfrüchte, mit einem bis zwei etwa 1 cm großen Samen von unterschiedlicher Farbe (hell, rot, schwarz, gefleckt). Die Hülsen wachsen, wie auch bei der Erdnuss, unter der Erde. Dies ist eine Anpassung an Buschfeuer, die das Verbrennen der Samen verhindert. Nutzung. Man kann die jungen Hülsen oder die getrockneten Samen verwenden. Letztere werden entweder eingeweicht und gekocht, oder zu Mehl gemahlen. Systematik. "Vigna subterranea" gehört zur Sektion "Vigna" in der Untergattung "Vigna" innerhalb der Gattung "Vigna". Synonyme für "Vigna subterranea" (L.) Verdc. sind: "Glycine subterranea" L. (Basionym), "Voandzeia subterranea" (L.) Thouars ex DC. Bonn. Offizielles Logo der Bundesstadt Bonn Das "Palais Schaumburg", Foto von 1950, damals Amtssitz des Bundeskanzlers Die Bundesstadt Bonn ist eine Großstadt im Süden Nordrhein-Westfalens und gehört mit  Einwohnern (Stand) zu den 20 größten Städten Deutschlands. Die Stadt an beiden Ufern des Rheins war von 1949 bis 1990 provisorische Bundeshauptstadt und bis 1999 Regierungssitz der Bundesrepublik Deutschland. Seit 1999 ist Bonn nur noch faktischer Regierungssitz der Bundesrepublik. Bonn kann auf eine mehr als 2000-jährige Geschichte zurückblicken, die auf germanische und römische Siedlungen zurückgeht, und ist damit eine der ältesten Städte Deutschlands. Von 1597 bis 1794 war es Haupt- und Residenzstadt des Kurfürstentums Köln. 1770 kam Ludwig van Beethoven hier zur Welt. Im Laufe des 19. Jahrhunderts entwickelte sich die Universität Bonn zu einer der bedeutendsten deutschen Hochschulen. 1948/49 tagte in Bonn der Parlamentarische Rat und arbeitete das Grundgesetz für die Bundesrepublik Deutschland aus, deren erster Parlaments- und Regierungssitz Bonn 1949 wurde. In der Folge erfuhr die Stadt eine umfangreiche Erweiterung und wuchs über das neue Parlaments- und Regierungsviertel mit Bad Godesberg zusammen. Daraus resultierte die Neubildung der Stadt Bonn durch Zusammenschluss der Städte Bonn, Bad Godesberg, der rechtsrheinischen Stadt Beuel und Gemeinden des vormaligen Landkreises Bonn am 1. August 1969. Nach der Wiedervereinigung kam es 1991 zum Berlin-Beschluss des Bundestages, infolgedessen der Parlaments- und Regierungssitz 1999/2000 in die Bundeshauptstadt Berlin und im Gegenzug zahlreiche Bundesbehörden nach Bonn verlegt wurden. Seitdem haben in der Bundesstadt gemäß dem Bonn-Gesetz der Bundespräsident, der Bundeskanzler und der Bundesrat einen zweiten Dienstsitz, sechs Bundesministerien ihren ersten Dienstsitz, die anderen acht einen Zweitsitz. 19 Organisationen der Vereinten Nationen (UN) und die beiden DAX-Unternehmen Deutsche Post und Deutsche Telekom sind in Bonn ansässig. Geographie. Am Übergang vom Mittelrheingebiet zur Niederrheinischen Bucht, der durch den Godesberger Rheintaltrichter markiert wird, liegt im Südwesten des Landes Nordrhein-Westfalen die Stadt Bonn. Auf 141,2 Quadratkilometer dehnt sie sich zu beiden Seiten des Rheines aus. Dabei bilden die linksrheinischen Stadtteile etwa drei Viertel der Gesamtfläche. Im Süden und Westen umschließen die Ausläufer der Eifel mit dem zum Naturpark Rheinland gehörenden Kottenforst die Stadt. Nördlich von Bonn öffnet sich das Rheintal in die Kölner Bucht. Die Sieg stellt im Nordosten die natürliche Grenze dar, das Siebengebirge im Osten und Südosten. Jenseits des Siebengebirges erstreckt sich südöstlich von Bonn der Westerwald. Bonn hat seinen geografischen Mittelpunkt am Bundeskanzlerplatz, der sich im Ortsteil Gronau befindet. Die geografische Lage des Platzes ist. Die größte Ausdehnung des Stadtgebiets in Nord-Süd-Richtung beträgt 15 Kilometer, in West-Ost-Richtung 12,5 Kilometer. Die Stadtgrenzen haben eine Länge von 61 Kilometer. Auf der rechten Rheinseite liegt der Ennert, der nördliche Ausläufer des Siebengebirges, auf dem Bonner Stadtgebiet. Zu ihm gehört der Paffelsberg, mit 194,8 m gilt er als die höchste Erhebung der Stadt Bonn. Weitere Erhebungen in diesem Höhenzug sind Holtorfer Hardt, Röckesberg, Rabenlay, Kuckstein und Juffernberg, westlich vorgelagert ist der Finkenberg. Auf der linken Flussseite sind die dominierenden Erhebungen Venusberg und Kreuzberg, nach Südwesten steigt das Stadtgebiet zum Kottenforst hin an. Der tiefste Bodenpunkt befindet sich mit auf der Landzunge Kemper Werth in der Nähe der Siegmündung. Nachbargemeinden. Niederkassel, Troisdorf, Sankt Augustin, Königswinter, Bad Honnef, Remagen, Wachtberg, Meckenheim, Alfter und Bornheim. Stadtgliederung und -zuordnung. Karte der Stadtbezirke von Bonn Gründerzeitfassaden in der Poppelsdorfer Allee Bonn ist eine kreisfreie Stadt mit dem Kraftfahrzeugkennzeichen "BN". Bonn ist nach § 3 der Hauptsatzung in vier Stadtbezirke unterteilt, die aus insgesamt 51 "Ortsteilen" bestehen. Jeder Stadtbezirk hat eine eigene Bezirksvertretung mit einem Bezirksbürgermeister. Daneben besteht die Stadt aus 65 "Statistischen Bezirken", die teilweise den Ortsteilen im Namen und der Größe ähnlich sind. Zusätzlich wird Bonn von der städtischen Statistikstelle in neun "Stadtteile" aufgeteilt: "Bonner Zentrumsbereich", "Bonn-Südwest", "Bonn-Nordwest", Bundesviertel, "Godesberger Zentrumsbereich", "Godesberger Außenring", "Beueler Zentrumsbereich", "Beueler Außenring" und "Hardtberg". Auf dem Gebiet der Stadt Bonn bestehen 21 Gemarkungen in den Grenzen ehemaliger Gemeinden. Bonn gehört dem Regierungsbezirk Köln an. Die Bezirksregierung mit Sitz in Köln übt als Landesmittelbehörde die Kommunalaufsicht u. a. über den Haushalt der Stadt Bonn aus. Ferner übt die Bezirksregierung die Schulaufsicht über die Schulen Bonns aus. Weiterhin gehört Bonn dem Landschaftsverband Rheinland (LVR) mit Sitz ebenfalls in Köln an. Der LVR nimmt als Teil der kommunalen Selbstverwaltung für Bonn u. a. Aufgaben im Bereich sozialer Einrichtungen, z. B. die Trägerschaft von Fach- und insbesondere psychiatrischen Krankenhäusern oder Förderschulen für behinderte Kinder, wahr. Weiterhin werden z. B. die Aufgaben der Denkmalpflege für Bonn durch den LVR wahrgenommen. Siedlungsgeographie und Raumplanung. Bonn bildet den südlichen Rand der "Metropolregion Rhein-Ruhr", die als ein polyzentrischer Verdichtungsraum in Nordrhein-Westfalen verstanden wird und sich entlang den namensgebenden Flüssen Rhein und Ruhr erstreckt. Die Metropolregion Rhein-Ruhr umfasst ein Gebiet von etwa 7.000 km² mit mehr als zehn Millionen Einwohnern, zählt zu den fünf größten Metropolregionen Europas und ist unter den elf Metropolregionen in Deutschland die bevölkerungsreichste. Sie liegt zudem mitten im zentralen europäischen Wirtschaftsraum, der sogenannten Blauen Banane. Zum Verdichtungsraum Bonn zählen Teile der rechtsrheinischen Städte Sankt Augustin und Königswinter. Klima. Seltene winterliche Szenerie von Bonn Großräumig betrachtet gehört Bonn zum atlantisch-maritimen Klimabereich, der sich durch schneearme Winter mit durchschnittlich 56 Frosttagen (niedrigste Temperatur unter 0 Grad Celsius) und nur zehn Eistagen (Tageshöchsttemperatur unter 0 Grad) bei einer durchschnittlichen Januartemperatur von 2,0 Grad auszeichnet. Die mittlere Temperatur im Juli liegt bei 18,7 Grad Celsius, die durchschnittliche Jahrestemperatur bei 10,3 Grad. Somit zählt Bonn zu den wärmsten Regionen Deutschlands. Bezüglich der Niederschläge liegt Bonn im Regenschatten der südlich angrenzenden Mittelgebirgslandschaft. Während die Stadt einen mittleren Jahresniederschlag von nur 669 Millimetern aufweist, liegen die jährlichen Niederschläge in der Eifel bei über 800 Millimetern. Belastend auf die Menschen wirkt sich die immer hohe relative Luftfeuchtigkeit aus. Mit durchschnittlich 35 schwülen Tagen liegt Bonn weit vor anderen deutschen Städten. Im Volksmund spricht man dabei vom „Bonner Reizklima“. Für die übermäßige Schwüle ist unter anderem die unzureichende Luftbewegung im Talkessel verantwortlich, denn die meist aus dem Westen stammende Frischluft wird durch die nördlichen Ausläufer der Eifelberge abgebremst. Diese Tatsache beeinflusst wiederum die innerstädtische Erwärmung, so dass die Temperaturen innerhalb des Stadtgebietes beispielsweise im Juli durchschnittlich 3 bis 5 Grad Celsius höher liegen als im Umland. In den Wintermonaten und während der Schneeschmelze tritt der Rhein häufig über seine Ufer. Bei Überschwemmungen sind ganz besonders Straßen und Häuser in den Stadtteilen Mehlem und Beuel bedroht. Geschichte. Im Jahre 1989 feierte Bonn seinen 2000. Geburtstag. Die Stadt erinnerte damit an die Errichtung eines ersten befestigten römischen Lagers am Rhein 12 v. Chr, nachdem bereits 38 v. Chr der römische Statthalter Agrippa an der Stelle Ubier angesiedelt hatte. Doch lebten im Bereich des heutigen Stadtgebietes schon sehr viel früher Menschen. Davon zeugen das 14.000 Jahre alte Doppelgrab von Oberkassel sowie ein Graben und Holzpalisaden, die im Bereich des Venusberges nachgewiesen wurden und aus der Zeit um 4080 v. Chr. stammen. War in der Zeit vor Christi Geburt die römische Präsenz in "Bonna" noch bescheiden, so sollte sich das nach der Niederlage der Römer in der Varusschlacht im Jahr 9 n. Chr. ändern. In den folgenden Jahrzehnten wurde hier eine Legion stationiert, die im nördlichen Bereich des heutigen Bonn ein Lager errichtete. Um das Lager herum und südlich davon entlang der heutigen Adenauerallee siedelten Händler und Handwerker in einem vicus. Mit dem Ende des römischen Reiches ging der Niedergang Bonns in der Spätantike und im frühen Mittelalter einher. Während der Raubzüge der Wikinger in den Rheinlanden wurde Bonn 882 zweimal gebrandschatzt und 883 die soeben wieder aufgebaute Stadt ein weiteres mal von den Normannen überfallen, gebrandschatzt und ausgeplündert. In fränkischer Zeit und endgültig im 9. und 10. Jahrhundert entwickelte sich im Bereich des Bonner Münsters ein geistliches Zentrum, die "Villa Basilika", und im Bereich des heutigen Marktes eine Marktsiedlung. 1243 gilt als das Jahr der Verleihung vollständiger Stadtrechte. Große Bedeutung für die weitere Entwicklung der Stadt hatte der Ausgang der Schlacht bei Worringen im Jahr 1288. Die Kölner Kurfürsten machten Bonn – neben Brühl und Poppelsdorf – zu einem ihrer Wohnsitze und schließlich zu ihrer Residenz. Die von den Kurfürsten im 17. und 18. Jahrhundert erbauten prunkvollen Paläste verliehen der Stadt ihren barocken Glanz. Mit der Besetzung durch französische Truppen endete 1794 diese Epoche. Nach Napoleons Niederlage fiel 1815 Bonn an Preußen. Die Stadt wurde in den nächsten Jahrzehnten geprägt von der 1818 durch die preußische Regierung neugegründeten Universität. Ende des 18. Jahrhunderts hatte es in Bonn eine Universität gegeben, die mit der französischen Besatzung 1794 geschlossen wurde. Die preußische Neugründung schloss nicht an die Hochschule aus kurfürstlicher Zeit an, sondern war Teil eines Gründungsprogramms, zu dem die Friedrich-Wilhelms-Universität Berlin und die Schlesische Friedrich-Wilhelms-Universität Breslau gehörte. Der Zusatz "Rheinische" im Namen der Bonner Hochschule sollte sie als "Schwester" der Berliner und Breslauer Universitäten ausweisen. Tatsächlich wurde sie in den folgenden 100 Jahren der bevorzugte Studienort der Hohenzollern-Prinzen. Nach dem Ersten Weltkrieg wurde die Stadt zunächst von Kanadiern, dann von Briten und schließlich bis 1926 von Franzosen besetzt. Mehr als 1.000 Bonner, zum Großteil Bürger jüdischen Glaubens wurden während der Zeit des Nationalsozialismus ermordet. Etwa 8000 Personen mussten ihre Heimatstadt verlassen, wurden verhaftet oder in Konzentrationslagern eingesperrt. Als am 9. März 1945 mit dem Einmarsch amerikanischer Truppen für Bonn der Zweite Weltkrieg beendet wurde, lag der Zerstörungsgrad der Gebäude bei 30 Prozent. Von diesen waren 70 Prozent leicht bis schwer beschädigt und 30 Prozent vollkommen zerstörte Wohngebäude. Mehr als 4000 Bonner waren bei Bombenangriffen gestorben. Am 28. Mai 1945 übernahmen britische Truppen als Besatzungsmacht die Stadt. Nach dem Zweiten Weltkrieg erlebte die Stadt einen rasanten Auf- und Ausbau, besonders nach der Entscheidung für Bonn als vorläufiger Regierungssitz der neuen Bundesrepublik Deutschland statt Frankfurt a. M. am 29. November 1949 "(siehe Hauptstadtfrage der Bundesrepublik Deutschland)". – Infolge des mit dem Bonn-Gesetz) verbundenen Wegzugs von Parlament, Teilen der Regierung, einem großen Teil der diplomatischen Vertretungen und vieler Lobbyisten sowie der Privatisierung der Bundespost hat die Stadt zum Jahrtausendwechsel erneut einen Wandel durchgemacht. Die verbliebenen Ministerien, hinzugezogene Bundesbehörden, Verwaltungszentralen großer deutscher Unternehmen, internationale Organisationen und Institutionen der Wissenschaft und der Wissenschaftsverwaltung sind die Träger dieses Strukturwandels, der bisher als erfolgreich gewertet wird und bis heute andauert. Wappen. Ein mittelalterliches steinernes Abbild des Wappentiers wurde im Volksmund „Steinernes Wölfchen“ genannt. Die Skulptur zeigt einen Löwen, der einen Eber schlägt. Der Kopf des Löwen ist nicht mehr vorhanden, so dass es unklar bleibt, ob er, wie der Löwe im heutigen Wappen, zum Betrachter schaut. Das Steinerne Wölfchen diente als Gerichtssymbol und befand sich vom Frühmittelalter bis zum Ende der kurfürstlichen Zeit auf der Südseite des Münsterplatzes. Heute befindet sich je ein Abguss der Skulptur am Ende der Vivatsgasse sowie im Vestibül des Alten Rathauses. Das Original ist im Bonner Stadtmuseum zu besichtigen. Religionen. Historisch ist Bonn wie das gesamte Rheinland römisch-katholisch geprägt. In den vergangenen 75 Jahren hat sich allerdings die Konfessionszugehörigkeit der Bonner Bevölkerung erheblich verändert. Waren 1925 noch mehr als 80 Prozent der Einwohner römisch-katholisch, so hat sich bis Ende der 1990er-Jahre der Anteil fast halbiert. Am 31. Dezember 2014 bekannten sich 36,9 Prozent der Einwohner zum römisch-katholischen und 20,8 Prozent zum evangelischen Glauben. Ein Drittel der in Bonn wohnenden Menschen gehören einer anderen oder keiner Konfession an. In Bonn leben geschätzt rund 29.200 Muslime, was etwa 9,0 Prozent der Einwohner entspricht. Daneben ist Bonn das Zentrum der Altkatholischen Kirche in Deutschland – Bonn ist ihr Bischofssitz – und der Griechisch-Orthodoxen Metropolie von Deutschland – Bonn ist Sitz des Metropoliten. Eingemeindungen. Die Stadt Bonn wurde mehrmals durch Eingemeindungen vergrößert. Um 1900 war Bonn stark gewachsen. In der Folge wurden am 1. Juni 1904 die Orte Poppelsdorf, Endenich, Kessenich und Dottendorf eingemeindet, mit denen Bonn zusammengewachsen war. Durch die mit dem Gesetz zur kommunalen Neugliederung des Raumes Bonn (Bonn-Gesetz) einhergehende Gebietsreform vom 1. August 1969 wurde die Einwohnerzahl der Stadt etwa verdoppelt und der Siegkreis mit dem Landkreis Bonn zum Rhein-Sieg-Kreis zusammengelegt. Die einst selbstständigen Städte Bad Godesberg und Beuel und die Gemeinde Duisdorf wurden eigene Stadtbezirke von Bonn. Der auf der rechten Rheinseite gelegene Stadtbezirk Beuel erhielt zusätzlich die Ortschaften Holzlar, Hoholz und das Amt Oberkassel zugeschlagen, die bis dahin zum Siegkreis gehörten. Bonn selbst wurde um die Orte Ippendorf, Röttgen, Ückesdorf, Meßdorf und Buschdorf des ehemaligen Landkreises Bonn erweitert, Lengsdorf und Duisdorf bildeten zusammen mit einigen Neubaugebieten den Stadtbezirk Hardtberg. Die Stadt Bad Godesberg hatte zuvor ihrerseits mehrere Orte eingemeindet. Bereits 1899 waren Plittersdorf und Rüngsdorf zu Godesberg gekommen, 1904 kam noch Friesdorf hinzu, womit Bad Godesberg bereits mit Bonn zusammengewachsen war. Im Jahre 1915 war Bad Godesberg nach Südwesten aus dem Tal hinausgewachsen, so dass Muffendorf eingemeindet wurde. Am 1. Juli 1935 wurden Lannesdorf und Mehlem Stadtteile von Bad Godesberg. Einwohnerentwicklung. Mit Einwohnern (Stand) gehört Bonn zu den mittleren Großstädten und zu den zehn größten Städten in Nordrhein-Westfalen und ist ein Oberzentrum. Die Einwohnerzahl der Stadt Bonn überschritt 1934 die 100.000-Grenze, womit sie von einer Mittel- zur Großstadt wurde. Durch Eingemeindungen verdoppelte sich die Einwohnerzahl bis 1969. Im Vorfeld des Regierungswegzuges kam es zwischen 1992 und 1995 zu einem leichten Bevölkerungsrückgang, der zeitnah ausgeglichen wurde. Heute gehört Bonn zu den Großstädten in Deutschland mit nach wie vor wachsender Einwohnerzahl – laut Bevölkerungsprognose des Landesamt für Datenverarbeitung und Statistik Nordrhein-Westfalen wird Bonn im Jahre 2025 etwa 341.500 Einwohner haben. Die Nachfolgeprognose für 2030 sagt für Bonn eine Einwohnerzahl von 362.100 voraus, womit Bonn zur sechstgrößten Stadt in Nordrhein-Westfalen würde. Da im Bereich des Stadtgebietes nur noch vergleichsweise wenig bebaubare Flächen vorhanden sind, wird allerdings bezweifelt, dass ein solcher Anstieg der Einwohnerzahlen tatsächlich realisiert werden kann, so dass die Umlandgemeinden das Wachstum aufnehmen müssten. Am 31. Dezember 2014 zählte die Stadt Bonn 322.960 Einwohner (Personen mit Haupt- oder Nebenwohnsitz in Bonn). Das Durchschnittsalter liegt bei 41,3 Jahren. Der prozentuale Ausländeranteil (melderechtlich registrierte Einwohner ohne deutsche Staatsangehörigkeit) bezifferte sich am Stichtag auf 14,4 Prozent (46.444 Personen), während der Anteil an Zuwanderern (Personen mit doppelter oder ausländischer Staatsangehörigkeit) bei 27,2 Prozent (87.957 Personen) lag. Zu den größten Ausländergruppen zählen Personen aus der Türkei, aus Polen, Marokko und Russland. Politik. Sitz der Stadtverwaltung war jahrelang das im 18. Jahrhundert erbaute Rathaus am Markt, bis er aufgrund der 1969 vollzogenen Eingemeindungen 1978 ins Stadthaus in der Nordstadt verlegt wurde. Der Bonner Oberbürgermeister hat seinen offiziellen Sitz weiterhin im Rathaus am Markt. Stadtoberhäupter. An der Spitze der Verwaltung und Gerichtsbarkeit von Bonn standen im 12. Jahrhundert der Vogt und die zwölf Schöffen des Landesherrn. Seit 1331 sind zwei "burgermeistere", später ein "rat" bezeugt. In einer Urkunde vom 24. Juli 1550 wurden zum ersten Mal die "Zwölfter" genannt, als „die zwoelf vann der gemeynden“, die eine Kontrollfunktion innehatten. Sie vertraten nicht nur die Zünfte, sondern die ganze Gemeinde. Die Bürgermeister wurden vom Rat gewählt, der Rat von den Zünften und der Zwölfter von den Gemeinden. Im Salentinischen Vertrag von 1569 wurde verordnet, dass die Stadt von zwei Scheffelbürgermeisteren und zwei Ratsbürgermeisteren verwaltet werden soll, von denen jeweils einer als Regierender Bürgermeister die Geschäfte führte. Der Rat wurde auf 15 Schöffen vergrößert. Zusammensetzung und Kompetenzen des Rates veränderten sich später mehrmals. In der Zeit der französischen Besetzung ab 1794 wurde für den Bürgermeister die Bezeichnung Maire eingeführt. Nachdem die Franzosen aus der Stadt abgerückt waren, wurde am 25. Februar 1814 die französische Bezeichnung Maire durch den Titel "Oberbürgermeister" ersetzt. Anton Maria Karl Graf von Belderbusch hatte seit 1804 das Amt des Maire inne und war ab 1814 erster Oberbürgermeister der Stadt. In preußischer Zeit nach 1815 wurde Bonn Sitz eines Landkreises. An der Spitze der Stadt stand ab 1815 ein Oberbürgermeister, weiterhin gab es einen Rat. Während der Zeit des Nationalsozialismus wurde der Oberbürgermeister von der NSDAP eingesetzt. Nach dem Zweiten Weltkrieg setzte die Militärregierung der Britischen Besatzungszone einen neuen Oberbürgermeister ein und führte 1946 die Kommunalverfassung nach britischem Vorbild ein. Danach gab es einen von den Bürgern gewählten "Rat der Stadt". Der wählte aus seiner Mitte den ehrenamtlichen Oberbürgermeister als Vorsitzenden und Repräsentanten der Stadt und einen hauptamtlichen Oberstadtdirektor als Leiter der Stadtverwaltung. 1996 wurde in Nordrhein-Westfalen die Doppelspitze in den Stadtverwaltungen aufgegeben. Der Oberbürgermeister wird nun direkt gewählt. Er ist als hauptamtlicher Oberbürgermeister Vorsitzender des Rates, Leiter der Stadtverwaltung und Repräsentant der Stadt. In der Funktion als Repräsentant wird der Oberbürgermeister in Bonn von vier Bürgermeistern vertreten. Die erste Direktwahl 1999 gewann Bärbel Dieckmann in der Stichwahl gegen den CDU-Kandidaten Helmut Stahl, 2004 wurde sie im ersten Wahlgang im Amt bestätigt. Dieckmann kandidierte bei der Wahl 2009 nicht wieder. Zu ihrem Nachfolger wurde Jürgen Nimptsch (SPD) gewählt, der sich mit 40,9 Prozent gegen den CDU-Kandidaten Christian Dürig durchsetzte. Die Stichwahl war zuvor durch die Landesregierung NRW abgeschafft worden. Im September 2015 gewann bei der anstehenden Neuwahl Ashok-Alexander Sridharan (CDU) vor den Kandidaten von SPD und Grünen. Der bisherige Amtsinhaber Nimptsch trat nicht mehr zur Wiederwahl an. Sridharan wurde am 21. Oktober 2015 vereidigt und in sein Amt eingeführt. Stadtrat. Dem Bonner Stadtrat gehören aufgrund von 26 Direktmandaten der CDU, die aus der Kommunalwahl vom 25. Mai 2014 resultieren, 86 Ratsfrauen und Ratsherren an – im Gegensatz zu 80 Mandatsträgern in der Amtszeit 2009 bis 2014. Der direkt gewählte Oberbürgermeister hat Stimmrecht und leitet die Sitzungen. In der aktuellen Wahlperiode 2014–2020 haben sich CDU, Grüne und FDP (Schwarz-Grün-Gelb) zu einer Koalition zusammengeschlossen. In der vergangenen Ratsperiode von 2009 bis 2014 bildeten CDU und Grüne eine schwarz-grünen Koalition. Landtagswahlen. Vier Abgeordnete vertreten die Bundesstadt Bonn in dem am 13. Mai 2012 gewählten Landtag von Nordrhein-Westfalen. Direkt gewählte Mitglieder des Landtages sind Bernhard von Grünberg (SPD) im Wahlkreis 29 (Bonn I) und Renate Hendricks (SPD) im Wahlkreis 30 (Bonn II). Weiterhin sind über die jeweiligen Parteilisten Joachim Stamp (FDP) und Rolf Beu (Die Grünen) in den Landtag eingezogen. Der vormalige nordrhein-westfälische CDU-Vorsitzende und Ministerpräsidenten-Kandidat Norbert Röttgen, der in Königswinter wohnt, wurde im Wahlkreis 29 von seinem SPD-Gegenkandidaten Bernhard von Grünberg dabei mit 28,25 Prozent der Erststimmen zu 45,76 Prozent deutlich geschlagen. Auf sein Landtagsmandat, das er über Platz eins der Landesliste der CDU erreicht hatte, verzichtete Norbert Röttgen und blieb stattdessen Bundestagsabgeordneter. Bundestagswahlen. Bonn bildet den Bundestagswahlkreis Bonn (096). Bei der Bundestagswahl 2013 wurde Ulrich Kelber (SPD) als direkt gewählter Abgeordneter zum vierten Mal in Folge bestätigt. Zudem wurden Katja Dörner (Grüne) und Claudia Lücking-Michel (CDU) über die jeweiligen Landeslisten ihrer Parteien in den Bundestag gewählt. Verschuldung. Die Gesamtsumme der Verschuldung der Stadt Bonn belief sich per 30. November 2015 auf rund 1,648 Milliarden Euro. Somit ist jeder Einwohner rechnerisch mit 5279 Euro verschuldet. Städtepartnerschaften. Neben Städtepartnerschaften pflegt Bonn "Themen-Projektpartnerschaften". Neben Jugend- und Kulturaustausch besteht teilweise ein Erfahrungsaustausch in den Bereichen Ökologie, Stadtentwicklung und Katastrophenprävention. Projektpartnerschaften bestehen (Stand 2014) mit den Städten Buchara in Usbekistan, Cape Coast in Ghana, Chengdu in China, La Paz in Bolivien, Minsk in Weißrussland und Ulan-Bator in der Mongolei. Patenschaften. Am 26. Oktober 1955 beschloss der damalige Landkreis Bonn die Übernahme der Patenschaft über die frühere kreisfreie Stadt Stolp und den ehemaligen Landkreis Stolp. Am 1. Juli 1956 begann die Patenschaft während des Stolper Bundestreffens in der Stadthalle Bad Godesberg. Nach der Neuordnung des Bonner Raumes beschloss am 21. Mai 1970 der Rat der Stadt Bonn dessen Fortführung. Des Weiteren ist die Stadt Bonn namensgebender Pate für den ICE-2-Triebzug Nummer 208, eine Boeing 747-430 mit der Registrierung D-ABVB der Lufthansa, ein Containerschiff und den Einsatzgruppenversorger Bonn (A 1413) der Marine. Regionale Kooperation. Bonn, der Rhein-Sieg-Kreis und der rheinland-pfälzische Landkreis Ahrweiler kooperieren insbesondere seit dem Berlin-Beschluss von 1991 eng miteinander, auf politischer Ebene durch den Ahrweiler (:rak). Die etwa eine Million Einwohner umfassende Region wird häufig „Bonn/Rhein-Sieg“ oder „Bonn/Rhein-Sieg/Ahrweiler“ genannt. Der nördliche Teil des Landkreises Neuwied zählt geographisch zum Raum Bonn. Innerhalb der Region bestehen enge wirtschaftliche Verflechtungen, weshalb sich viele in Bonn und den umgebenden Kreisen gemeinsam tätige Verbände gebildet haben. Bereits seit 1993 kooperiert die Stadt ebenfalls mit der Region Köln/Bonn im Region Köln/Bonn e. V. In diesem interkommunalen Zusammenschluss haben sich die kreisfreien Städte Köln, Bonn und Leverkusen mit den fünf Kreisen Rhein-Sieg-Kreis, Rhein-Erft-Kreis, Rhein-Kreis Neuss, Oberbergischer Kreis und dem Rheinisch Bergischen Kreis vereinigt, um die strukturpolitische Entwicklung der Region Köln/Bonn gemeinsam zu entwickeln. Aus alter Kooperationstradition ist der Landkreis Ahrweiler ständiger Gast in diesem Gremium. Bauwerke. Der Bonner Münsterplatz im Herbst Am Marktplatz liegt das ab 1737 im Stil des Rokoko erbaute Alte Rathaus, eines der Wahrzeichen der Stadt. In direkter Nachbarschaft des Rathauses befindet sich die ehemalige Hauptresidenz der Kölner Kurfürsten, das Kurfürstliche Schloss – heute das Hauptgebäude der Bonner Universität. Die mit Kastanien bepflanzte Poppelsdorfer Allee verbindet das Kurfürstliche Schloss mit dem Poppelsdorfer Schloss, das in der ersten Hälfte des 18. Jahrhunderts als Erholungsort der Kurfürsten erbaut wurde. Unterbrochen wird diese Achse durch die Bahnstrecke mit dem Hauptbahnhof, dessen 1883/84 errichtetes Empfangsgebäude heute unter Denkmalschutz steht. Auf dem Bahnhofsvorplatz befindet sich das umstrittene "Bonner Loch". Die drei höchsten Bauwerke der Stadt sind der weithin sichtbare Funkmast des WDR auf dem Venusberg (180 m), der Post Tower (162,5 m) und das ehemalige Abgeordnetenhochhaus "Langer Eugen" (114,7 m). Der Vierungsturm des Bonner Münsters liegt mit 81,4 m auf Platz sieben der höchsten Gebäude. Bonn verfügt über eine Reihe von Kirchenbauten. Ein Wahrzeichen der Stadt ist das im 11. Jahrhundert erbaute Bonner Münster. Zu den ältesten Kirchenbauten in Bonn gehört die Doppelkirche in Schwarzrheindorf. In der Remigiuskirche in der Brüdergasse, der früheren „Brüderkirche“, befindet sich das Becken, in dem Beethoven getauft wurde. Die Namen-Jesu-Kirche in der Bonngasse wurde im Stil der "Jesuiten-Gotik" errichtet. Oberhalb von Poppelsdorf, am Platz einer vorchristlichen Kultstätte und eines christlichen Wallfahrtsorts, erbaute Christoph Wamser 1627/28 die Kreuzbergkirche. Erzbischof und Kurfürst Clemens August ließ die Kirche in der Mitte des 18. Jahrhunderts von Balthasar Neumann durch den Anbau der "Heiligen Stiege" erweitern. Die Kreuzkirche wurde 1871 als evangelische Hauptkirche der Stadt gegründet und ist heute eines der größten evangelischen Gotteshäuser des Rheinlandes. Die 1957 wieder geweihte Alt-Katholische Kirche St. Cyprian befindet sich in der Adenauerallee. Zwischen dem Kurfürstlichen Schloss und dem Rhein liegt der "Alte Zoll", eine Bastion des ehemaligen Festungsrings. Das Sterntor, das ursprünglich an der Mündung der Sternstraße auf den Friedensplatz stand, wurde wegen des Baus der Straßenbahn durch die Sternstraße um 1900 abgebaut und in stark abgewandelter Form unter Einbeziehung eines Rests der Stadtmauer einige Meter versetzt am Bottlerplatz wieder aufgebaut. Oberhalb von Bad Godesberg steht die Ruine der vermutlich in ihrem Ursprung zuerst als Fluchtburg von den Franken erbauten Godesburg. – Das Godesberger Rathaus besteht aus sechs verbundenen Gebäuden, die 1790 bis 1792 durch Kurfürst Max Franz als Logierhäuser für Kurgäste erbaut wurden. Das 1790 bis 1830 erbaute ehemalige kurfürstliche Kammertheater Haus an der Redoute ist heute Außenstelle des Kunstmuseums. Die Hauptverwaltung der Deutschen Post befindet sich im Post Tower, dem höchsten Bürogebäude in Nordrhein-Westfalen. Das Gebäude steht in direkter Nachbarschaft zum ehemaligen Abgeordnetenhochhaus und Wahrzeichen der Bundes(haupt)stadt, dem "Langen Eugen", der seit 2002 durch die Vereinten Nationen genutzt wird. Zwischen den beiden Hochhäusern befindet sich der Schürmann-Bau, die Zentrale der Deutschen Welle. Dieses ursprünglich als Abgeordnetenbüro geplante Gebäude wurde während der Bauphase durch das Rheinhochwasser 1993 schwer beschädigt. Das Bundeshaus war ursprünglich eine pädagogische Akademie, die ab 1948 vom Parlamentarischen Rat und später von Bundestag und Bundesrat genutzt wurde. Ende der 1980er-Jahre wurde der Plenarsaal durch einen Neubau ersetzt. Seit dem Parlamentsumzug wird es als Konferenzzentrum genutzt und heißt seit 2007 World Conference Center Bonn (WCCB). Ein weiterer Teil des WCCB ist das historische Wasserwerk, dessen Pumpenhaus während des Umbaus des Bundeshauses von 1986 bis 1992 als Plenarsaal des Bundestags genutzt wurde. An der Grenze der Stadtbezirke Bonn und Bad Godesberg befindet sich die B9, die zu besonderen Anlässen mit den 191 Fahnen der UN-Staaten beflaggt ist. 2003 begannen auf dem Gelände der ehemaligen Oberkasseler Zementfabrik die ersten Bauarbeiten für das Städtebauprojekt Bonner Bogen. Bis Ende 2009 entstanden dort unter der Leitung des Bonner Architekten Karl-Heinz Schommer Wohn- und Bürogebäude, Veranstaltungsräume sowie das 5-Sterne-Hotel Kameha Grand Bonn. Denkmalgeschützte Gebäude der alten Fabrik blieben erhalten und wurden umfassend saniert, darunter die Direktorenvilla, das Verwaltungsgebäude und der Wasserturm. Am Robert-Schuman-Platz im Bundesviertel liegt das ehemalige Postministerium, welches nunmehr als erster Dienstsitz des Bundesministeriums für Umwelt, Naturschutz, Bau und Reaktorsicherheit (BMUB) dient. Dieses Gebäude lehnt sich stilistisch an die Form eine Posthorns an, was in Luftaufnahmen erkennbar ist. Unter dem Gebäude befindet sich ein, mittlerweile außer Betrieb genommener, Atombunker. Eine weitere umgenutzte alte Industrieanlage ist die Auermühle in Graurheindorf. Gotteshäuser. Bonner Münster, Stiftskirche (Bonn), Namen-Jesu-Kirche (Bonn), St. Remigius (Bonn), St. Cäcilia (Oberkassel), Helenenkapelle (Bonn), Kreuzkirche (Bonn), St. Maria und Clemens (Schwarzrheindorf), St. Marien (Bonn), St. Peter (Vilich), St. Petri in Ketten (Lengsdorf), Rüngsdorfer Kirchturm, Marienkapelle (Rüngsdorf), St. Laurentius (Lessenich), Michaelskapelle (Bad Godesberg), Elisabeth-Kirche (Bonn-Südstadt), Trinitatiskirche (Endenich), St. Servatius (Friesdorf), St. Evergislus (Plittersdorf), St. Severin (Mehlem), Kreuzbergkirche (Endenich), Synagoge Bonn, Moschee in der König-Fahd-Akademie, Kathedrale Agia Trias (Bonn, griechisch-orthodox) Friedhöfe. Zahlreiche Prominentengräber sowie Grab- und Denkmäler bedeutender Bildhauer machen den Alten Friedhof zu einem der berühmtesten Friedhöfe in Deutschland. Dort befindet sich zum Beispiel das Grab von Beethovens Mutter und das Denkmal für Robert und Clara Schumann. Im 19. Jahrhundert wurde die Georgskapelle auf den Friedhof transloziert. Sie gehörte seit dem 13. Jahrhundert zu den Gebäuden der Kommende Ramersdorf. Ebenfalls eine Vielzahl an architektonisch interessanten Grabmälern und Prominentengrabstätten findet sich auf dem Poppelsdorfer Friedhof und dem Burgfriedhof in Bad Godesberg. Museen und Gedenkstätten. Bonn verfügt über eine große Zahl bedeutender Museen. Die Kunst- und Ausstellungshalle der Bundesrepublik Deutschland ("Bundeskunsthalle") (erbaut 1986 bis 1992 vom Wiener Architekten Gustav Peichl) und das Haus der Geschichte der Bundesrepublik Deutschland gehören seit ihrer Eröffnung zu den zehn meistbesuchten Museen Deutschlands. Jährlich kommen mehr als 500.000 Besucher, bei einzelnen Wechselausstellungen übertrifft die Bundeskunsthalle diese Zahl sogar deutlich. Beide Museen entstanden Anfang der 1990er-Jahre gemeinsam mit dem städtischen Kunstmuseum Bonn und bilden zusammen mit der 1995 eröffneten und sich auf deutsche Forschung und Technik seit 1945 konzentrierenden Bonner Zweigstelle des Deutschen Museums im Wissenschaftszentrum, der "ifa-Galerie" und dem traditionsreichen Museum Koenig die Museumsmeile. Der 1964 entstandene Kanzlerbungalow von Sep Ruf, zwischen der Villa Hammerschmidt und dem Palais Schaumburg unweit des Hauses der Geschichte gelegen, ist nach umfangreicher Renovierung seit 2009 der Öffentlichkeit in Führungen zugänglich. In der Innenstadt haben sich zudem einige Museen zum Verbund der CityMuseen zusammengeschlossen: Das StadtMuseum Bonn (eröffnet 1998) in der Franziskanerstraße 9, die ebenfalls dort untergebrachte Gedenkstätte für Widerstand und Verfolgung, das gegenüberliegende Ägyptische Museum, das Akademische Kunstmuseum, das Beethovenhaus und das Rheinische Landesmuseum. In Geburts-, Wohn- und Sterbehäusern bekannter Persönlichkeiten wurden Museen eingerichtet. Das gilt für das Beethoven-Haus, für das August-Macke-Haus, das Ernst-Moritz-Arndt-Haus, das als Teil des StadtMuseum Bonn neben einem Arndt-Gedenkraum vor allem Sonderausstellungen und Veranstaltungen zu kulturhistorischen Themen des 19. Jahrhunderts bietet, und das Schumannhaus in Endenich, wo seit Jahrzehnten die Musikbibliothek der Stadtbibliothek untergebracht ist. In den Boden der Bonngasse, in der sich das Beethoven-Haus befindet, sind seit 2005 die Porträts von Persönlichkeiten eingelassen, deren Lebensläufe eng mit der Stadt verbunden sind. Im Beethoven-Haus befindet sich als Weltdokumentenerbe ein Teil des Autographen der Symphonie Nr. 9, d-Moll, op. 125 von Ludwig van Beethoven. Die Universität verfügt über zahlreiche Museen und Sammlungen. Bekannt sind vor allem das Ägyptische Museum, eine Sammlung mit circa 3000 Originalobjekten, das Akademische Kunstmuseum, das die archäologische Sammlung der Universität beherbergt, und das Arithmeum, eine umfangreiche Sammlung von Rechenmaschinen. Der Botanische Garten gehört zur Universität. Hier ist unter anderem die größte Blume der Welt, die Titanenwurz zu bestaunen, deren Blüte 2003 als die größte Blume der Welt ins Guinness-Buch der Rekorde eingetragen wurde. Sie blüht regelmäßig, seit 2008 sogar jedes Jahr. Weiterhin zu nennen sind das Goldfuß-Museum, eine Schausammlung von Fossilien, das Mineralogische Museum, eine Edelstein- und Meteoritensammlung, und schließlich das Horst-Stoeckel-Museum, das die Geschichte der Anästhesiologie von der Entdeckung der Äthernarkose im Jahre 1846 bis zur Gegenwart darstellt. Mittlerweile mehr als 20 Jahre alt ist das 1981 gegründete Frauenmuseum. Weltweit war es die erste Institution gleichen Namens oder vergleichbarer Zielsetzung. Heute kann das Frauenmuseum auf über 400 Ausstellungen zurückschauen und ist mit seinen umfangreichen Begleitprogrammen zu einer international anerkannten Institution geworden. Das zwischen 1995 und 2003 komplett umgebaute Rheinische Landesmuseum zeigt bedeutende archäologische Denkmäler zur Kulturgeschichte des Rheinlandes und besitzt eine weniger bedeutende Sammlung zeitgenössischer Kunst aus der Region. In der an der Poppelsdorfer Allee gelegenen Volkssternwarte Bonn werden regelmäßig öffentliche Beobachtungen des Sternhimmels und der Sonne durchgeführt. Auf Initiative und unter Leitung der Bertolt-Brecht-Gesamtschule wurde mit Hilfe des Deutschen Zentrum für Luft- und Raumfahrt und weiteren Sponsoren in zweijähriger Arbeit im September 2002 entlang des Rheins der Bonner Planetenlehrpfad im Maßstab von 1:1 Milliarde eröffnet. Die Sonne (Durchmesser 1,40 Meter) ist Startpunkt des 5946 Meter langen Lehrpfades und steht unterhalb des Wasserwerks. In relativ kurzen Abständen zwischen 50 und 100 Metern stehen Merkur, Venus, Erde und Mars. Jupiter, Saturn, Uranus und Neptun folgen mit Abständen zwischen 700 Metern und 1,5 Kilometern. Pluto schließt den Weg am nördlichen Ende des Bonner Hafens in Graurheindorf ab. An jedem Planetenstandort sind auf Informationstafeln der Name, eine maßstabsgetreue Halbkugel, das Symbol, Durchmesser sowie alle Informationen in Brailleschrift hinterlegt. In der Franziskanerstraße 9 befindet sich die Gedenkstätte für die Bonner Opfer des Nationalsozialismus – An der Synagoge e. V. Die informative Dauerausstellung wurde 2005 grundlegend überarbeitet und ergänzt. Sie dokumentiert Verfolgung, Leid und Ermordung der Bonner Opfer des Nationalsozialismus. Zur Gedenkstätte gehören eine Präsenzbibliothek, eine Mediothek mit Zeitzeugengesprächen sowie ein umfangreiches Archiv. Kunst im öffentlichen Raum. Im gesamten Bereich der Stadt gibt es eine Fülle von Kunstwerken zeitgenössischer deutscher und internationaler Künstler. Dazu gehören Victor Vasarely mit seiner Fassadengestaltung des Juridicums, Henry Moore mit "Large Two Forms" vor dem ehemaligen Bundeskanzleramt, dem heutigen Bundesministerium für Entwicklung, und Eduardo Chillida mit "De Musica IV" vor dem Münster. "Die Wolkenschale" von Hans Arp wurde 1961 vor der Universitätsbibliothek aufgestellt. Wegen der mehrjährigen Sanierung des Gebäudes war Arps Werk zwischen 2004 und Mai 2009 nicht zu sehen. Begünstigt wurde diese hohe Anzahl an Kunstobjekten durch die Bautätigkeit der öffentlichen Hand im Zusammenhang mit dem Ausbau Bonns zum Regierungssitz. Arbeiten, die als Kunst am Bau entstanden sind sowie Skulpturen vor öffentlichen Einrichtungen wie der Universität und den Museen und nicht zuletzt Spenden privater Mäzene, machen es möglich, dass ein Besucher beim Gang durch die Stadt einen Gang durch die Geschichte der bildenden Kunst der letzten 50 bis 60 Jahre unternehmen kann. Denkmäler zu Ehren einzelner Personen beschreibt die Liste der Personen-Denkmäler in Bonn. Natur und Parkanlagen. a>, rechts im Bild der Lange Eugen (l.) und der Post Tower (r.) Für die Bundesgartenschau 1979 wurden die Rheinwiesen und landwirtschaftlich genutzten Flächen südlich des damaligen Parlaments- und Regierungsviertels in einen 160 Hektar großen Landschaftspark, die Rheinaue, umgestaltet. Heute dient sie als Naherholungsgebiet und wird für Großveranstaltungen wie Freiluftkonzerte, Feste und Flohmärkte genutzt. Daneben gibt es in der Stadt einige kleinere Parkanlagen, deren größte der "Kurpark" in Bad Godesberg ist. Er wurde ursprünglich für den Kurbetrieb angelegt und beherbergt einige seltene Pflanzenarten. Für Bonn-Oberkassel ist das aus Privatbesitz hervorgegangene Arboretum Park Härle erwähnenswert. Die Rheinaue, das Arboretum Härle, der Alte Friedhof und die Botanischen Gärten der Universität Bonn wurden als besonders beispielhaft in die Straße der Gartenkunst zwischen Rhein und Maas aufgenommen. Die größte Freifläche innerhalb Bonns ist das Meßdorfer Feld zwischen Endenich, Dransdorf, Lessenich und Duisdorf. Es hat als Freifläche in Windrichtung Bedeutung für das Klima der Bonner Innenstadt und ist die einzige landwirtschaftlich genutzte Fläche im Stadtgebiet. In beiden Naturparks laden weitläufige Wanderwege mit attraktiven Aussichten auf die Stadt zu Wanderungen ein. Der Fernwanderweg Rheinsteig beginnt in Bonn und durchquert im weiteren Verlauf das Siebengebirge. Im Norden des rechtsrheinischen Bezirks Beuel grenzt Bonn an die Mündung der Sieg in den Rhein und das umgebende "Naturschutzgebiet Siegaue", das als eine der letzten einigermaßen naturbelassenen Rheinmündungen Schutzstatus nach der Fauna-Flora-Habitat-Richtlinie genießt. In Bonn gibt es insgesamt 47 Bäche, die meisten davon münden in den Rhein. Theater, Musik, Film. Das Beethoven Orchester Bonn veranstaltet regelmäßig Konzerte in der Beethovenhalle und kommt in der Oper zum Einsatz. Es wurde 1897 als "Philharmonisches Orchester Koblenz" gegründet und 1907 von der Stadt Bonn als "Städtisches Orchester Bonn" übernommen. Neben dem städtischen Theater Bonn mit der Oper Bonn und Schauspiel gibt es diverse kleinere Privattheater in Bonn. Dazu gehören das in der Innenstadt gelegene Contra-Kreis-Theater, das Euro Theater Central, das in Beuel gelegene Junge Theater Bonn, das "Theater DIE RABEN", das "Kleine Theater Bad Godesberg", das Theater "Die Pathologie" in der Südstadt und die Bonn University Shakespeare Company. Kleinkunst und Kabarett werden unter anderem im Haus der Springmaus, im Pantheon-Theater, in der Endenicher Harmonie und im "Theater im Ballsaal" dargeboten. Die Figurentheaterkunst pflegen in verschiedenen Bonner Spielstätten die Piccolo Puppenspiele. Seit einigen Jahren etablierte sich in Bonn eine rege Poetry Slam-Szene: Seit 2001 findet monatlich der Bonner "Rosenkrieg" statt und seit 2009 hat Bonn mit "Sex, Drugs & Poetry" einen zweiten Slam. Von 1997 bis 2011 fanden im Sommer Konzerte mit deutschen und internationalen Künstlern auf dem Museumsplatz an der Bundeskunsthalle als Freiluftkonzerte unter einem Zeltdach statt. Als Nachfolgeplatz wird seit 2012 der "Kunst!rasen" in der Gronau am Rande der Rheinaue betrieben. Kleinere Auftritte finden in der Bad Godesberger Klangstation und der Endenicher Harmonie statt. Mit dem Open-Air-Festival Rheinkultur verfügte das Kulturangebot der Stadt bis 2011 über eines der wichtigsten Festivals Deutschlands, auf dem praktisch alle modernen Stilrichtungen vertreten waren. Das traditionsreiche Kino "Metropol" am Marktplatz wurde im März 2006 geschlossen, nachdem das Gebäude Ende 2005 in die Hand eines neuen Besitzers gewechselt ist. Nach einer scharf geführten Auseinandersetzung um Abriss, Umnutzung oder Weiternutzung der denkmalgeschützten Spielstätte wird das Gebäude nun als Buchhandlung genutzt. Die ebenfalls am Markt gelegenen "Stern Lichtspiele" werden von CineStar betrieben. In dem 1956 am "Bertha-von-Suttner-Platz" erbauten Gebäude der "Universum-Lichtspiele" ist seit 1998 das "Woki" ansässig. Im Zentrum von Bad Godesberg befindet sich das Multiplex-Kino "Kinopolis". In Bonn gibt es drei Programmkinos: das 1952 in Endenich eröffnete denkmalgeschützte "Rex Lichtspieltheater", die 1933 in Beuel erbaute "Neue Filmbühne" und die im Kulturzentrum "Brotfabrik Bonn" gelegene "Bonner Kinemathek". Regelmäßige Veranstaltungen. Konzert in der Beethovenhalle während des Beethovenfestes 2007 Das Beethovenfest ist ein jährlich im Herbst stattfindendes fast vierwöchiges Musikfestival mit über 50 Konzerten in Bonn und der Umgebung. 2005 wurde zum ersten Mal der Beethoven Competition durchgeführt, ein Wettbewerb für junge Pianisten aus der ganzen Welt. Im Arkadenhof der Universität werden jedes Jahr im Sommer während der Internationalen Stummfilmtage restaurierte Stummfilme gezeigt. Auf dem Münsterplatz fand zwischen 2005 und 2013 jährlich im Herbst die Wasserorgel-Veranstaltung Klangwelle Bonn statt. In der Rheinaue findet an jedem dritten Samstag im Monat von April bis Oktober der "Große Rheinauen-Flohmarkt" statt. Jährliche Veranstaltungen in der Rheinaue sind das Großfeuerwerk Rhein in Flammen am ersten Mai-Wochenende, die Bierbörse am letzten Wochenende im Juli sowie das "Internationale Begegnungsfest" im Herbst. Das seit 1983 etablierte "Umsonst und draußen"-Musikfestival Rheinkultur findet seit 2012 nicht mehr statt. Der größte jährliche Jahrmarkt in Bonn, Pützchens Markt, findet immer am zweiten Wochenende im September in Beuel statt. Die AnimagiC, eine der größten deutschsprachigen Anime-Conventions (Veranstaltung für Manga- und Anime-Fans), wird jährlich in der Beethovenhalle veranstaltet. Weitere regelmäßige Veranstaltungen finden in Bad Godesberg statt. Karneval. Bonn zählt zu den rheinischen Karnevalshochburgen, wenngleich es immer etwas im Schatten des größeren Kölner Karnevals stand. Im Beueler Rathaus übernimmt an Weiberfastnacht die Wäscherprinzessin die Regentschaft. Das Alte Rathaus in Bonn wird seit Beginn des 20. Jahrhunderts am Karnevalssonntag von den Bonner Stadtsoldaten in historischen Uniformen belagert und erobert. Die größte Karnevalssitzung ist die "Alternative Karnevalssitzung" Pink Punk Pantheon mit alljährlich über 10.000 Besuchern. Dialekt. Der Bonner Dialekt ist das ripuarische Bönnsch, das sich vom eng verwandten Kölsch neben einigen Vokabeln durch den ausgeprägteren Singsang und die gemächlichere Sprechgeschwindigkeit unterscheidet. Im Gegensatz zum selbstbewussten Köln der Handwerker war es in „vornehmen“ Kreisen der Residenz- und Universitätsstadt Bonn jedoch verpönt, Dialekt zu sprechen, daher ist das Bönnsch im Alltagsleben nicht mehr so präsent wie das Kölsch in Köln. Der hohe Anteil Zugezogener "(Imis)" tat sein übriges. Bekannt für seine Behandlung des bönnschen Dialekts ist der Kabarettist Konrad Beikircher, der nicht in Bonn, sondern in Südtirol geboren wurde und seit seiner Studienzeit in Bonn lebt. Sport. Der bekannteste Sportverein Bonns ist der Basketballverein Telekom Baskets Bonn, dessen erste Herren-Mannschaft seit Jahren erfolgreich in der Basketball-Bundesliga spielt und seit 2008 die Heimspiele im 6.000 Zuschauer fassenden Telekom Dome im Ortsteil Duisdorf austrägt. Bonn ist die größte deutsche Stadt, aus der noch nie ein Verein in der Fußball-Bundesliga spielte. Bekanntester Fußballverein in Bonn ist der Bonner SC, der seine Spiele im Sportpark Nord austrägt. Wegen einer Insolvenz nahm die erste Herren-Fußballmannschaft des Bonner SC in der Saison 2010/11 lediglich mit der 2. Mannschaft (Kreisliga B), mit den Jugendfußballmannschaften und der Tischtennis-Abteilung am Spielbetrieb teil. Nach überstandenem Insolvenzverfahren (Abbau von 8 Millionen Euro Altlasten) und dem Aufbau eines neuen Teams, startete die erste Fußballmannschaft des Bonner SC in der Saison 2011/2012 wieder in der Landesliga. Weitere Sportvereine sind der 1. Badminton Club Beuel (Deutscher Badminton-Meister 1981, 1982 und 2005), der ehemalige Damen-Basketball-Bundesligist "BG Rentrop Bonn" (heute BG Bonn 92), der Baseball-Bundesligist Bonn Capitals (Deutscher Vizemeister 1999 und mehrfacher deutscher Meister in den Jugendklassen), der Bonner Tennis- und Hockey Verein (Hockey-Regionalligist, Tennis-Oberligist), der Hockey- und Tennis Club Schwarz-Weiß Bonn, der Verein für American Football Bonn Gamecocks (2. Bundesliga) sowie Bonns größter Sportverein, die Schwimm- und Sportfreunde Bonn 1905 (SSF Bonn), mehrfacher Deutscher Volleyball-Meister und Pokalsieger sowie Heimatverein der Olympiasiegerin im Modernen Fünfkampf 2008, Lena Schöneborn. Das 1. Frauen-Team der Triathlon-Abteilung des SSF Bonn ist in der 1. Bundesliga vertreten. Beste Bonner Handballvereine sind die HSG Geislar Oberkassel und der TSV Bonn rrh., die in der Verbandsliga Mittelrhein spielen. In der Nähe des Sportparks Nord hat der Deutsche Fechter-Bund seine Zentrale mit angeschlossenem Internat für die Nachwuchs-Elite, die zum Teil für den Olympischen Fecht-Club Bonn an den Start geht. Hier trainieren Fechtstars wie Peter Joppich und Benjamin Kleibrink. In Bonn befindet sich seit mehr als 100 Jahren der Turn- und Kraftsportverein 1906 e. V. Duisdorf. Die 1. Ringer-Mannschaft des TKSV Duisdorf ringt im zweiten Jahr in der 1. Bundesliga. Über das Stadtgebiet verteilt sind über 100 städtische Turn- und Sporthallen. Davon sind 81 Einfach-Turnhallen, neun Großturnhallen, neun Dreifachhallen und eine Vierfach-Halle. Des Weiteren gibt es 24 Gymnastikräume und 46 Freiluftsportplätze, darunter 13 Rasenplätze. Außerhalb der städtischen Verfügung stehen 25 privat geführte Sport- und Turnhallen. Die direkte Nähe des Rheins zeigt sich in mehreren Rudervereinen und vier Ruder-Arbeitsgemeinschaften (AG) der Bonner Schulen, welche sich in der AG-Bonner-Schülerrudervereine (kurz: AGBS) organisieren. Mit der Eurega hat Bonn eine weit über die Bonner Grenzen hinaus bekannte Ruderregatta, die jährlich am ersten Wochenende im Mai durch den Bonner Ruder Verein ausgerichtet wird. Das Schwimmstättenangebot in Bonn umfasst vier Schwimmhallen, fünf Freibäder, davon eines im Sommer 2008 außer Betrieb, und ein kombiniertes Hallen-/Freibad. Außerdem wurde den Schwimmern des SSF ein schwimmsportliches Trainingszentrum im Sportpark Nord überlassen. Zu den jährlichen Sportereignissen zählen die German Open im Synchronschwimmen im März, der Bonn-Marathon im April, der Bonn-Triathlon im Juni, eine Station der Beachvolleyball-Meisterschaften in Deutschland im August, sowie das Herrenflorett-Weltcupturnier „Löwe von Bonn“. Gastronomie und Nachtleben. Bonn wurde wiederholt als „Bundesstadt ohne nennenswertes Nachtleben“ bezeichnet. Diese Bezeichnung ist insoweit irreführend, als die Stadt gastronomisch gut entwickelt ist und über eine Anzahl hervorragender Restaurants verfügt. Sie wurde daher vom Gault Millau zur Schlemmerhauptstadt Deutschlands gewählt. Mit Rainer-Maria Halbedels "Halbedel’s Gasthaus" in Bad Godesberg hat sie ein Sterne-Restaurant aufzuweisen. Die „studentischen“ Kneipen und Bars sind in Bonn dezentral verteilt und finden sich insbesondere in der als „Altstadt“ bezeichneten Nordstadt, in der Südstadt und in Poppelsdorf. Außerdem verfügt Bonn über diverse Diskotheken. Freimaurerei. Seit 1775 gibt es in Bonn Freimaurerlogen. Ihnen gehörte unter anderem lokale Prominenz an, wie Karl Otto Freiherr von Gymnich, Anton von Belderbusch oder Nikolaus Simrock. Zweimal wurden die Bonner Logen zwangsweise aufgelöst, von 1814 bis 1840 durch den preußischen Kreisdirektor und Freimaurer-Gegner Rehfues und 1935 bis 1945 durch die NSDAP. Die Loge "Beethoven zur ewigen Harmonie" ist eine der wenigen deutschen Logen, die sich der Zwangsauflösung widersetzte und heimlich in einem Privathaus weiter arbeitete. Zurzeit gibt es in Bonn sechs Freimaurerlogen aus den verschiedenen regulären Großlogen. Es existiert außerdem noch eine Loge für Frauen und Männer unter dem Grand Orient de Luxembourg. Daneben gibt es in Bonn zahlreiche Studentenverbindungen mit eigenen Häusern und unterschiedlicher weltanschaulicher Ausrichtung. Luftverkehr. Der nach Konrad Adenauer benannte Bonn liegt circa 15 Kilometer nordöstlich der Stadt und ist über die A 59, eine Schnellbuslinie und die rechtsrheinische Bahnstrecke mit Bonn verbunden. Eine weitere Anbindung an den Luftverkehr existiert durch den Flugplatz Bonn-Hangelar, der in Sankt Augustin unmittelbar an der Grenze zum Stadtbezirk Beuel liegt. Der Flugplatz wird vorwiegend von Geschäftsreisenden und Sportfliegern genutzt. Schienen- und Busverkehr. Das Gebäude des Bonner Hauptbahnhofs Der Bonner Hauptbahnhof ist Fernverkehrshalt der Deutschen Bahn an der Linken Rheinstrecke Köln–Bonn–Koblenz, der Bonn an der Main ist von der Bonner Innenstadt mit der Stadtbahnlinie 66 in 20 bis 30 Minuten zu erreichen. Als Nahverkehrsstrecke zweigt in Bonn die Voreifelbahn nach Euskirchen von der Linken Rheinstrecke ab. An den Bonner Bahnstrecken sind insgesamt 14 niveaugleiche Bahnübergänge vorhanden. Auf Bonner Stadtgebiet gibt es sieben Bahnhöfe und Haltepunkte. Dort bestehen im Schienenpersonennahverkehr sechs Linienverbindungen zu den umliegenden Städten im Stundentakt, die sich gegenseitig auf einen 30-Minuten-Takt verdichten. Die Voreifelbahn verkehrt werktags im 15- bis 30-Minuten-Takt, abends und sonntags im Stundentakt. Vom lokalen Schienengüterverkehr ist Bonn nahezu abgeschnitten, Transitschienengüterverkehr durch das Bonner Stadtgebiet findet jedoch links- wie rechtsrheinisch in erheblichen Maße statt. Ehemals existierten über zehn Güterbahnhöfe auf Bonner Stadtgebiet, betrieben von drei verschiedenen Eisenbahnen (DB, KBE und die „alte“ RSE) und zusätzlich zahlreiche Anschlussgleise Bonner Firmen. Übrig geblieben ist alleine der Güterbahnhof in Bonn-Beuel, der seit einigen Jahren wieder regelmäßigen und umfangreichen Frachtumschlag aufweist und in ganz Bonn und Umgebung die letzte Schnittstelle zwischen Schiene und Straße ist. Einsatzbereite Anschlussgleise für die Industrie existieren in Bonn nicht mehr, alleine ein Oldtimerersatzteil-Großhandel hat noch über ein Gleis des Bonn-Beueler Güterbahnhofs direkten Zugang zum Schienennetz und wird regelmäßig über die Schiene mit Containern beliefert. Für die nächsten Jahre ist ein Ausbau des Schienennetzes in Bonn geplant. Dazu gehört der Bau der S-Bahn-Linie 13, die bisher Köln und Troisdorf über die 2004 eröffnete Flughafenschleife in dichtem Takt an den Köln/Bonner Flughafen anbindet. Mit der Verlängerung durch das rechtsrheinische Bonn bis Oberkassel sollte sie für Bonn diese Funktion übernehmen. Inzwischen verbindet der Regional-Express 8 Bonn-Beuel und Bonn-Oberkassel umsteigefrei mit dem Köln/Bonner Flughafen (60-Minuten-Takt). Die S13 soll im 20-Minuten-Takt verkehren und ginge mit dem Neubau von zwei S-Bahnhöfen einher. Die veranschlagten Kosten des 14-Kilometer-Projekts sind von anfänglich 225 auf 434 Millionen Euro gestiegen, daher ist die Verlängerung der S13 nach Oberkassel nicht unumstritten. Nachdem die DB den avisierten Fertigstellungstermin immer wieder nach hinten korrigierte, wurde seit dem Jahr 2011 von Seiten der DB kein verbindlicher Fertigstellungstermin genannt. Im September 2014 begannen vorbereitende Arbeiten im Ortsteil Vilich-Müldorf, die die Verlegung eines Wirtschaftswegs anstelle des geplanten neuen Gleises beinhalten. Im Dezember 2014 wurde ein Finanzierungs- und Realisierungsvertrag für die S13 unterzeichnet, nunmehr ist der Baubeginn für Anfang 2017 vorgesehen. Hauptsächlicher Kritikpunkt an der Verlängerung der S13 ist neben den immensen Kosten die Tatsache, dass das Bonner Zentrum mit dem Hauptbahnhof und dem Bundesviertel mit der S13 nicht zu erreichen sein wird. Eine Direktanbindung des Flughafens über die Südbrücke an die Bonner Innenstadt und den Hauptbahnhof ist gutachterlich in verschiedenen Versionen untersucht und mit sehr schlechten Nutzen-Kosten-Quotienten bewertet worden. Ferner kann die Südbrücke heutige S-Bahnwagen statisch nicht tragen. Eine solche Verbindung muss daher als unrealistisch angesehen werden. Eine Direktanbindung des Flughafens über die Kennedybrücke wäre nach Abschluss der Sanierung der Kennedybrücke (2011) mit Zweisystemwagen (Karlsruher Modell) technisch möglich, wird von der Bonner Ratsmehrheit abgelehnt (Stand: 2013) und ist daher bis jetzt (2013) nicht gutachterlich auf einen Nutzen-Kosten-Quotienten untersucht worden. Von 2013 bis 2014 wurde die Voreifelbahn auf durchgängig zwei Gleise, verbunden mit dem Neubau von zwei Haltepunkten auf Bonner Stadtgebiet ("Bonn-Endenich Nord" und "Bonn Helmholtzstraße"), ausgebaut. Ziel ist neben der besseren Erschließung durch den Neubau der Bahnhöfe ein dichterer Takt auf der stark nachgefragten Linie. In Folge ihrer mit Abschluss des Ausbaus zunehmend innerstädtischen Erschließungsfunktion verkehrt die Voreifelbahn zwischen Euskirchen und Bonn ab dem Fahrplanwechsel im Dezember 2014 als S23, womit Bonn erstmals Anschluss an das Netz der S-Bahn Köln erhält. Darüber hinaus soll ein Bahnhof "Bonn UN Campus" an der Linken Rheinstrecke in Höhe der Museumsmeile entstehen, um diesen Arbeitsplatzschwerpunkt besser zu erschließen. Im Straßenpersonennahverkehr besitzt Bonn heute ein Straßenbahnnetz mit etwa sechs Linien (je nach Zählweise). In den 1950er-Jahren schrumpfte das Bonner Straßenbahnnetz durch zahlreiche Stilllegungen stark ein. Die Stammstrecke zwischen Bonn und Bad Godesberg ersetzt seit dem Frühjahr 1975 hauptsächlich die Straßenbahnlinie auf der Kaiserstraße und der B 9, sie fährt tagsüber im 10-Minuten-Takt, die abendlichen Taktzeiten wurden 2002 stark ausgedünnt. Neben innerstädtischen Verbindungen bedient die Stadtbahn Bonn Siegburg, Sankt Augustin, Königswinter und Bad Honnef mit der Linie 66. Zwei Linien verkehren auf Eisenbahnstrecken der ehemaligen Köln-Bonner Eisenbahnen nach Köln über Brühl, Hürth, Bornheim und Wesseling im 20-Minuten-Takt. Bonn verfügt ebenfalls über ein sehr dichtes Stadtbusnetz mit etwa 30 Linien, das weitestgehend im 20-Minuten-Takt bedient wird. Teilweise entstehen durch Linienbündelung Taktzeiten von fünf Minuten, zu Stoßzeiten und im Schulverkehr wird das Busnetz durch mit E gekennzeichneten „Ergänzungslinien“ unterstützt. Der Spätverkehr wurde 2002 auf Beschluss der Ratsmehrheit stark ausgedünnt. Im Zuge des neuen Busnetzes wurde der Spätverkehr Ende 2008 bis zum Beginn des Nachtverkehrs wieder gestärkt. Daneben existiert ein Nachtbusnetz mit neun Linien, die stündlich untereinander Anschlüsse herstellen. Das Nachtbus-Netz wird zum Teil durch Sponsoring finanziert, d. h. jede Sponsorlinie trägt den Namen eines Sponsors, der Bus (tagsüber im normalen Linienverkehr) trägt passende Ganzreklame. Von 1951 bis 1971 verkehrte außerdem der Oberleitungsbus Bonn in der Stadt, der einen Teil des Straßenbahnnetzes ersetzte und seinerseits von Omnibuslinien abgelöst wurde. Bonn gehört zum Tarifgebiet des Verkehrsverbund Rhein-Sieg (VRS). Straßen. Bonn ist über die Bundesautobahnen 59, 555, 562, und 565 sowie die Bundesstraßen 9, 42 und 56 an das Fernstraßennetz angebunden. Da das Stadtgebiet vom Rhein durchtrennt wird, haben die drei Rheinbrücken der A 562 (Südbrücke, Konrad Adenauer-Brücke), A 565 (Nordbrücke, Friedrich Ebert-Brücke) und B 56 (Kennedybrücke) sowie die Rheinfähren Mehlem–Königswinter, Bad Godesberg–Niederdollendorf und Graurheindorf–Mondorf besondere Bedeutung für den innerstädtischen Verkehr. Dasselbe gilt für die Bahnunterführungen und die Viktoriabrücke, die Norden und Süden des linksrheinischen Stadtgebietes verbinden. In Bonn sind 184.582 Kraftfahrzeuge zugelassen, darunter 156.398 Personenkraftwagen. Das Radwegenetz der Stadt Bonn wurde zwischen 1994 und 1999 stark ausgebaut, einige Radwege wurden jedoch inzwischen wieder zurückgebaut. Bonn ist Mitglied in der Arbeitsgemeinschaft fahrradfreundliche Städte und Gemeinden in Nordrhein-Westfalen. Wasserstraßen und Häfen. Im Norden, im Ortsteil Graurheindorf, liegt der Binnenhafen der Stadt Bonn (Hafen Bonn). Vorher war er am "Alten Zoll" beheimatet, in der Nähe der Kennedybrücke. Als dieser Platz für die Umschlagskapazitäten nicht mehr ausreichte, wurde er in den 1920er Jahren an einen damals noch siedlungsfreien Standort verlegt. Vorgesehen war damit die Schaffung einer größeren Industrieansiedlung sowie eines Hafenbeckens. Beides wurde nicht umgesetzt. Bis 1974 war der Hafen über eine in Buschdorf abzweigende Stichstrecke der Rheinuferbahn an das Schienennetz der KBE angebunden. Mittlerweile ist der Hafen Bonn vom Ortsteil Graurheindorf landseitig komplett umschlossen. An diesem Stromhafen werden heute überwiegend Container für den Überseetransport umgeschlagen. Die Jahresumschlagsleistung liegt über alle Güter bei circa 0,5 Mio. t. Personenschifffahrt wird von Bonn aus von den Flotten der Köln-Düsseldorfer und der Bonner Personen Schiffahrt betrieben, zu Letzterer gehört das auffällige, einem Wal nachempfundene Schiff Moby Dick. Belastungen. Das Zusammentreffen von mehreren großen Verkehrsadern bringt es mit sich, dass nach einer Studie des Fraunhofer-Instituts für Bauphysik Bonn die lauteste Stadt in Nordrhein-Westfalen ist und die viertlauteste in Deutschland. Versorgungsnetze. Die Bonner Stadtwerke versorgen mit Ausnahme der Ortsteile Holzlar, Hoholz und Ungarten das Stadtgebiet mit Wasser aus der Wahnbachtalsperre. Das Gasnetz ist seit einigen Jahren im Besitz der Stadtwerke, seit 2011 wird das Stromnetz wieder vollkommen kommunal betrieben, der Stadtrat hat die Konzession des RWE für die Stadtbezirke Beuel und Bad Godesberg nicht verlängert. Nachdem Bonn Regierungssitz geworden war, wurde das Stromversorgungsnetz zum Ring- und Maschennetz umgebaut. Die gewachsenen Strukturen dieser Netze gewährleisten eine höhere Ausfallsicherheit als vergleichbare in anderen Städten. In der Stadt Bonn liegen vier Kläranlagen, unter denen die "Kläranlage Salierweg" im Ortsteil Graurheindorf die größte ist. In den letzten 15 Jahren sind umfangreiche Investitionen in die Abwasserbeseitigung erfolgt. Alle Kläranlagen wurden für über 200 Millionen Euro modernisiert und ausgebaut. Wirtschaftsstandort. Von Mitte 1991, dem Zeitpunkt des Berlin-Beschlusses des Bundestages, bis Mitte 2002 ist die Zahl der beschäftigten Arbeitnehmer in der Stadt Bonn um annähernd 11.400 Personen und somit 8,5 Prozent auf 145.558 angestiegen. Für 2003 gibt die Stadt noch einmal einen Zuwachs um 3118 Arbeitsplätze auf 149.016 an. Umzugsbedingte Arbeitsplatzverluste konnten ähnlich wie im benachbarten Rhein-Sieg-Kreis ausgeglichen und neue Arbeitsplätze geschaffen werden. 2013 nannte die Stadt Bonn einen Kaufkraftindex von 109,6 Prozent (Bundesdurchschnitt: 100 Prozent). Somit verfügten die Einwohner Bonns zusammen über eine allgemeine Kaufkraft in Höhe von 7,3 Milliarden Euro bzw. 22.746 Euro pro Einwohner. Der überdurchschnittliche Kaufkraftindex ist auf einen hohen Beschäftigungsgrad, einen hohen Anteil hoch qualifizierter Arbeitnehmer und einkommensstarke Arbeitsplätze zurückzuführen. Der benachbarte Rhein-Sieg-Kreis kam auf eine marginal niedrigere Kaufkraft in Höhe von 21.367 Euro pro Einwohner. In den meisten Städteplatzierungen zur zukünftigen Entwicklung belegen Bonn und die Region Plätze mindestens im oberen Drittel. Dass die Region ein prosperierender Wirtschaftsstandort ist, zeigt sich daran, dass die Einwohnerentwicklung seit Jahren positiv ist. Ermöglicht wurde die positive Entwicklung unter anderem durch die Ausgleichszahlungen des Bundes an die Region, die sich insgesamt auf etwa 1,4 Milliarden Euro belaufen. Gefördert wurden im Speziellen Wissenschaftsprojekte und Baumaßnahmen. Zudem zogen zahlreiche Bundesbehörden nach Bonn um, außerdem siedelten sich in der Bundesstadt viele internationale Institutionen und Nichtregierungsorganisationen an, unter anderem zwölf der Vereinten Nationen. Auch die Konzentration der Deutschen Post und Deutschen Telekom in Bonn trug dazu bei. Die Dienstleistungen (ohne Öffentliche Verwaltung) erreichten einen Zuwachs von 27,1 Prozent, also circa 22.400 Beschäftigten, von Juni 1991 bis Juni 2002. Mit 105.171 Beschäftigten und einem Anteil von 72,3 Prozent an allen Beschäftigten hat dieser Bereich seine dominierende Stellung in Bonn ausgebaut. Dagegen hat die öffentliche Verwaltung in diesem Zeitraum fast ein Drittel ihrer Beschäftigten verloren. Wirtschaftsforschungsinstitute gehen davon aus, dass in Bonn in den nächsten Jahren die Zahl der Arbeitsplätze weiter steigt. Tourismus. Der Tourismus in Bonn wurde während der Zeit als Regierungssitz überwiegend durch Polittourismus geprägt. Seit den 1990er-Jahren weist dieser Wirtschaftszweig hohe Wachstumsraten auf, vor allem ist die Zahl der Übernachtungen seit 1993 um 40 Prozent und sind die Ankünfte von Besuchern um 58 Prozent gestiegen. Entscheidend für den Zuwachs ist unter anderem, dass sich der Fremdenverkehr und die dort tätigen Betriebe an die neuen Gegebenheiten – im Speziellen den Regierungsumzug – angepasst haben. Der Erfolg des Bonner Tourismus wird heute neben der landschaftlich günstigen Lage an Rhein und Siebengebirge wesentlich durch den Anstieg des Passagieraufkommens am Flughafen und das Kongresswesen begründet. So entfielen von den 1,16 Millionen Hotelübernachtungen im Jahr 2005 mit 300.000 über ein Viertel auf Kongressbesucher. Die Anzahl der Tagestouristen liegt mit neun Millionen noch wesentlich höher. Insgesamt werden durch die Touristen 176 Millionen Euro jährlich in Bonn ausgegeben. In Bonn und dem Rhein-Sieg-Kreis sind – mit steigender Tendenz – 10.475 Personen im Tourismus beschäftigt. Arbeitsmarkt. Bonn hat seit Jahren eine der niedrigsten Arbeitslosenquoten in Nordrhein-Westfalen, im Oktober 2010 betrug sie 6,9 Prozent. Ein großer Teil der in Bonn Beschäftigten kommt als Pendler aus dem Umland, hauptsächlich aus dem Rhein-Sieg-Kreis, dem Kreis Euskirchen und dem rheinland-pfälzischen Landkreis Ahrweiler, darüber hinaus aus dem Rhein-Erft-Kreis und aus Köln. Täglich fahren 80.000 Menschen nach Bonn zur Arbeit, während 30.000 Bonner außerhalb der Stadtgrenze ihrer Beschäftigung nachgehen. Damit hat Bonn nach Köln und der Landeshauptstadt Düsseldorf den dritthöchsten Pendlerüberschuss in Nordrhein-Westfalen. Geprägt wird der Arbeitsmarkt der Region unter anderem von den zahlreichen Bundesministerien und -behörden verbunden mit mehreren Bundesverbänden und -organisationen – der Bund ist der größte Arbeitgeber in der Region – sowie den Schwergewichten Deutsche Post AG, Deutsche Telekom und Postbank mit ihren Tochterunternehmen. Neben den Arbeitsplätzen im Bereich der Funktionen Bundesstadt und UN-Stadt mit den internationalen Organisationen gibt es in Bonn vergleichsweise viele im Bereich der Informations- und Kommunikationstechnologie sowie der Wissenschaft mit mehreren Forschungseinrichtungen. Ansässige Unternehmen. Die bedeutenden Firmen in Bonn lassen sich in zwei Gruppen unterteilen. Zum einen haben mehrere privatisierte Staatsunternehmen in Bonn ihren Sitz. Bekanntestes Beispiel ist die Deutsche Telekom AG (mit ihren ehemaligen Tochterunternehmen T-Mobile und T-Home, seit 2010 zusammengeschlossen in der Telekom Deutschland GmbH), sowie die Deutsche Post mit ihrer Logistiktochter DHL und der Postbank (seit 2010 mehrheitlich im Besitz der Deutschen Bank). Zudem hat die Tank & Rast ihren Sitz in Bonn. Drittgrößter Arbeitgeber der Stadt Bonn ist die Universität Bonn (einschließlich der Uni-Kliniken) und als bedeutender Arbeitgeber folgen ebenfalls die Stadtwerke Bonn. Zum anderen sitzen in Bonn einige traditionsreiche Privatunternehmen wie die Genussmittelproduzenten Haribo, Verpoorten und Kessko, die Orgelmanufaktur Klais und die Bonner Fahnenfabrik. Weitere Firmen von überregionaler Bedeutung sind Fairtrade, Eaton Industries (ehemals Klöckner & Moeller), die IVG Immobilien AG, Kautex Textron, SolarWorld und Vapiano. Hörfunk und Fernsehen. Der mit Abstand größte Medienbetrieb in Bonn ist die Deutsche Welle. Sie hat ihre Zentrale im Schürmann-Bau und produziert dort Hörfunksendungen, die in die ganze Welt ausgestrahlt werden, sowie ein Online-Angebot in derzeit (April 2012) 30 Sprachen. Zudem hat der Fernsehsender Phoenix seine Zentrale in der Bundesstadt, im ehemaligen Hauptstadtstudio des ZDF. Der WDR unterhält in Bonn ein Bundesstudio und ein Regionalbüro. Am 1. Februar 2007 startete die lokale Berichterstattung in Bonn/Rhein-Sieg mit einer eigenen "Lokalzeit aus Bonn". In Bonn senden außerdem der Lokalradiosender Rhein-Sieg mit Rahmenprogramm von Radio NRW und das Hochschulradio BonnFM als Kooperationsprojekt der Rheinischen Friedrich-Wilhelms-Universität Bonn und der Hochschule Bonn-Rhein-Sieg. Druckmedien. Mit Abstand größte Tageszeitung in Bonn ist der "General-Anzeiger". Lokale Berichterstattung findet der Leser außerdem in der "Bonner Rundschau", im "Rhein-Sieg-Anzeiger" und in dem Boulevardblatt "Express". Diese drei Zeitungen gehören alle zu der Kölner Mediengruppe "Gruppe M. DuMont Schauberg". 2004 untersagte das Bundeskartellamt der Mediengruppe, am Bonner "General-Anzeiger" einen Aktienanteil zu erwerben. Nach Ansicht der Kartellbehörde hätte das Geschäft zu einer Verstärkung der marktbeherrschenden Stellung auf den Leser- und Anzeigenmärkten geführt. Am 6. Juli 2005 hob das Oberlandesgericht Düsseldorf das Veto des Bundeskartellamts auf, so dass DuMont 18 Prozent Anteile erwerben konnte. Im Gegenzug, im Rahmen einer Überkreuzbeteiligung, erwarb die Neusser GmbH, der Verlag des General-Anzeigers, Anteile in Höhe von 9,02 Prozent (Stand 2012) an der DuMont-Gruppe. Eine starke Stellung im Bereich Druckerzeugnis haben die Verlagsgruppe Rentrop (unter anderem mit dem Verlag für die Deutsche Wirtschaft) und der Stollfuß-Verlag in den Bereichen Steuer, Wirtschaft und Recht. Beide gehören zu den 100 größten deutschen Verlagen. Mit der Herausgabe von musikalischer Fachliteratur, Noten und Lehrbüchern zu Musikinstrumenten gehört der Voggenreiter Verlag zu den bekanntesten Unternehmen dieser Sparte. Monatlich erscheinen in Bonn die Stadtmagazine "bonnaparte", "Schnüss" (rheinisch für „Schnauze“) und "Szene Köln-Bonn". Die überregionale Wochenzeitung "Rheinischer Merkur" stammte ebenfalls aus Bonn und wurde 2010 auf Initiative der Deutschen Bischofskonferenz als Mitgesellschafter in eine Beilage der Wochenzeitung "Die Zeit" umgewandelt. Das Tulpenfeld, Sitz mehr­er­er Nach­rich­ten­re­dak­tionen Online-Angebote. Seit dem 1. Oktober 2006 gibt es das Nachrichten- und Kommunikationsportal "rheinraum-online.de". Es wendet sich nach eigenem Selbstverständnis an die Bürger, "„die sich nicht länger mit der Berichterstattung der bestehenden Bonner Medienlandschaft zufriedengeben wollen“". Online-Angebote mit lokalen Nachrichten produzieren die Bonner Tageszeitungen, der WDR und Radio Bonn/Rhein-Sieg. Online-Angebote, die Infos über Veranstaltungen und Konzerte in Bonn und im Rhein-Sieg Kreis bringen, sind "campus-web.de" und "bonnaparte.de". Nachrichtenagenturen. Die Bundespressekonferenz hat ihre einzige Außenstelle im "Tulpenfeld". Hier befindet sich eine Niederlassung der Deutschen Presse-Agentur (DPA). Außerdem arbeiten in der UN-Stadt eine Reihe von Nachrichtenagenturen im Umfeld der hier angesiedelten internationalen Organisationen, wie zum Beispiel die Katholische Nachrichten-Agentur (KNA). Übertragungstechnik. Die Rundfunkversorgung erfolgt unter anderem über die Sendemasten auf dem Venusberg und dem Großen Ölberg. Über den Sender Bonn-Venusberg auf dem Venusberg wird die Region Bonn seit 2004 mit dem digitalen Antennenfernsehen DVB-T versorgt, das die analoge Ausstrahlung ersetzte. Bildung und Forschung. a> und jetziges Hauptgebäude der Universität (Rückansicht) Die Rheinische Friedrich-Wilhelms-Universität Bonn wurde 1777 als Akademie gegründet und 1798 geschlossen. 1818 wurde sie neu gegründet und gehört seitdem zu den größten Universitäten Deutschlands. Zusammen mit ihrer Universitätsklinik gehört sie zu den größten Arbeitgebern in Bonn. Die frühere Sternwarte der Universität beherbergt heute das Institut für Kommunikationswissenschaften sowie die Volkssternwarte Bonn. Die Hochschule Bonn-Rhein-Sieg wurde 1995 gegründet. Obwohl sie Bonn in ihrem Namen trägt, befindet sich innerhalb der Stadt kein Studienstandort. Sitz der Hochschule ist Sankt Augustin, weitere Standorte befinden sich in Rheinbach und Hennef (Sieg). Außerdem befinden sich in Bonn die Max-Planck-Institute für Mathematik, Radioastronomie und zur Erforschung von Gemeinschaftsgütern. Seit 2012 ist die Stadt Bonn „Korporativ Förderndes Mitglied“ der Max-Planck-Gesellschaft. Des Weiteren ist Bonn seit 2009 Verwaltungssitz des Deutschen Zentrums für Neurodegenerative Erkrankungen (DZNE). Als Ausgleichsmaßnahme für den Umzug nach Berlin wurde 1998 das Forschungszentrum caesar gegründet. Das Deutsche Institut für Entwicklungspolitik, das 1964 in Berlin gegründet worden war, zog 2000 nach Bonn um. Auf dem UN-Campus ist ein Institut der Universität der Vereinten Nationen (UNU) – das "Institute for Environment and Human Security (UNU-EHS)" – angesiedelt. Die Fernuniversität in Hagen, die DIPLOMA – FH Nordhessen sowie die FOM Hochschule für Oekonomie & Management unterhalten Außenstellen in Bonn. Bis 2004 beherbergte Bonn die "Fachhochschule für das öffentliche Bibliothekswesen Bonn". Diese Fachhochschule war 1921 vom Borromäusverein gegründet und 1947 vom Land Nordrhein-Westfalen staatlich anerkannt worden. Seit 1982 trug sie ihren zuletzt bekannten Namen. Im Jahre 2004 wurde die Fachhochschule jedoch aufgelöst. Die Fortbildungsakademie des Innenministeriums des Landes Nordrhein-Westfalen ist eine landesweite Fortbildungsstelle für die Beschäftigten der Kommunen sowie der Landesverwaltung. Ihren Sitz hat sie in Herne. In Bad Godesberg befindet sich die hiervon unabhängige Bildungseinrichtung der Finanzverwaltung des Landes Nordrhein-Westfalen. Sie trägt den Namen "Fortbildungsakademie der Finanzverwaltung NRW (FortAFin)". Der Deutsche Akademische Austauschdienst (DAAD), die Deutsche Forschungsgemeinschaft (DFG), die Alexander von Humboldt-Stiftung, die Studienstiftung des deutschen Volkes, das Cusanuswerk, die Friedrich-Ebert-Stiftung sowie der Arbeitskreis selbständiger Kultur-Institute (AsKI) haben ihre Geschäftsstellen in Bonn. Des Weiteren haben im politischen Bereich das Bundesministerium für Bildung und Forschung (BMBF), das Sekretariat der Kultusministerkonferenz (KMK), die Hochschulrektorenkonferenz (HRK), das Bundesinstitut für Berufsbildung (BIBB), die Bund-Länder-Kommission für Bildungsplanung und Forschungsförderung (BLK), das Deutsche Institut für Erwachsenenbildung (DIE) und die Bundeszentrale für politische Bildung (bpb) ihren Sitz in Bonn. Gesundheit. Die über 15 Krankenhäuser sind über die ganze Stadt verteilt. Den bedeutendsten Betrieb stellt das Universitätsklinikum Bonn dar, das über 30 Kliniken in 12 Abteilungen betreibt. Fast alle sind auf dem Venusberg untergebracht, im restlichen Stadtgebiet bestehen drei weitere Standorte. Eine weitere Großklinik ist die LVR-Klinik Bonn (bis 2009 "Rheinische Kliniken Bonn", bis 1997 "Rheinische Landesklinik Bonn") des Landschaftsverbandes Rheinland in Bonn-Castell. Seit 2013 besteht mit den "GFO Kliniken Bonn" ein weiteres Gemeinschaftskrankenhaus. UN-Stadt. Seit 1996 nennt Bonn sich „die UN-Stadt am Rhein“. Für 19 Organisationen, Büros und Programme der Vereinten Nationen arbeiten hier inzwischen fast 1.000 Mitarbeiter. Die meisten Organisationen verbindet der Einsatz für eine nachhaltige Entwicklung der Erde. Sie waren zunächst hauptsächlich im Bad Godesberger Haus Carstanjen ansässig, das den wachsenden Sekretariaten auf Dauer zu wenig Platz bot. Deshalb hat die Bundesregierung 2003 entschieden, den „Langen Eugen“ und das Bundeshaus als ehemalige Parlamentsgebäude den Vereinten Nationen zur dauerhaften Nutzung zu überlassen und dort einen UN-Campus zu bilden. Seit der offiziellen Eröffnung des UN-Campus im Juli 2006 sind bis auf eine alle anderen (18) Organisationen in den „Langen Eugen“ eingezogen. Ab Ende 2012/Anfang 2013 werden dort alle Institutionen gebündelt sein, wenn auch das 200 Mitarbeiter umfassende Klimasekretariat den umgebauten Südflügel des Bundeshauses – das alte Abgeordnetenhochhaus – bezogen hat. Am 19. April 2012 hat die internationale Gemeinschaft beschlossen, dass als 19. Bonner UN-Organisation das Sekretariat des neuen internationalen Wissenschaftlergremiums für Biodiversität (IPBES) in Bonn angesiedelt werden soll. Die Ansiedlungen der Vereinten Nationen führten zu einem Anstieg der in Bonn tätigen internationalen Institutionen und Nicht-Regierungsorganisationen, von denen sich in Bonn inzwischen ungefähr 170 niedergelassen haben. Darunter befinden sich unter anderem der Deutsche Entwicklungsdienst (DED), das Deutsche Institut für Entwicklungspolitik (DIE) und die Deutsche Gesellschaft für Internationale Zusammenarbeit (GIZ), bedeutende Institute der Entwicklungshilfe, die in der Wahrnehmung ihrer Aufgaben vom Bundesministerium für wirtschaftliche Zusammenarbeit und Entwicklung (BMZ) mit Hauptsitz in Bonn unterstützt werden. Bundesstadt. Seit der Verlegung des Regierungssitzes nach Berlin haben, geregelt durch das Bonn-Gesetz vom 26. April 1994, sechs Bundesministerien weiterhin ihren ersten Dienstsitz in Bonn. Weil sich hier die Bundesrepublik Deutschland 1949 konstituierte, die Stadt für mehrere Jahrzehnte Parlaments- und Regierungssitz wurde (somit bis 1990 vorläufig die Funktion einer Bundeshauptstadt wahrnahm) und Bonn das Verwaltungszentrum, d. h. Zentrum der Ministerialverwaltung des Bundes bleiben sollte, trägt die Stadt fortan den Titel "Bundesstadt". Zudem dürfen in den Berliner Ministerien nicht mehr Mitarbeiter beschäftigt werden als in den Bonner Ministerien, in denen etwa 10.000 Personen arbeiten. Ebenfalls durch das Gesetz geregelt wurde der Umzug von 22 Bundesbehörden aus Berlin und dem Rhein-Main-Gebiet in die Bundesstadt. Außerdem legte der Bund die Ansiedlung der Deutschen Telekom, der Deutschen Post und der Postbank per Gesetz fest. Ihren ersten Dienstsitz in Bonn haben folgende sechs Bundesministerien: das Bundesministerium der Verteidigung (BMVg); die Bundesministerien für Ernährung und Landwirtschaft (BMEL); für wirtschaftliche Zusammenarbeit und Entwicklung (BMZ); für Umwelt, Naturschutz, Bau und Reaktorsicherheit (BMUB); für Gesundheit (BMG) und für Bildung und Forschung (BMBF). Die acht Bundesministerien mit erstem Dienstsitz in Berlin haben in Bonn einen Zweitsitz. Viele weitere Bundesbehörden wie beispielsweise das Bundesinstitut für Arzneimittel und Medizinprodukte (BfArM), das Bundeskartellamt (BKartA), der Bundesrechnungshof (BRH), die Bundesnetzagentur (BNetzA), die Bundesanstalt für Landwirtschaft und Ernährung (BLE), das Bundesamt für Naturschutz (BfN), das Bundesamt für Wehrverwaltung (BAWV), das Bundesamt für Sicherheit in der Informationstechnik (BSI) und das Eisenbahn-Bundesamt (EBA) sind ebenfalls in Bonn angesiedelt. Mit dem Bundesrat und dem Bundespräsidenten haben in der Bundesstadt zudem zwei Verfassungsorgane ihren zweiten Dienstsitz. Justizbehörden. Landgericht Bonn, Hauptgebäude in der Wilhelmstraße (2014) Bonn ist Sitz des Landgerichtes Bonn, dem sechs Amtsgerichte unterstehen, darunter das Amtsgericht Bonn. Daneben sind in der Stadt ein Arbeitsgericht und die Staatsanwaltschaft Bonn ansässig. Das in Bonn beheimatete Bundeszentralregister ist zum 1. Januar 2007 mit der Außenstelle des Bundesjustizministerium im neugebildeten Bundesamt für Justiz mit Sitz in Bonn aufgegangen. Dort wird unter anderem das Bundesgesetzblatt herausgegeben. Gemäß dem Berlin/Bonn-Gesetz behält das Bundesjustizministerium weiterhin eine Außenstelle mit etwa 30 Mitarbeitern in Bonn. Soziales. Bonn ist außerdem Standort der Zentralen Auslands- und Fachvermittlung (ZAV) der Bundesagentur für Arbeit (BA). Im Stadtteil Duisdorf befindet sich der Hauptsitz der ZAV mit ihren bundesweit 18 Standorten. Persönlichkeiten. Robert Schumann – Zeichnung von 1850 Mit Bonn verbundene Personen. An der Mauer des Jüdischen Friedhofs im Bonner Norden befindet sich ein Grabrelief des ersten namentlich bekannten Bonners, eines römischen Legionärs, der 35 n. Chr. aus Gallien kam. Die Inschrift lautet, aus dem Lateinischen übersetzt: „Dem Publius Clodius, Sohn des Publius, aus dem Stammbezirk Voltinia "(in etwa heutige Provence)", geboren in Alba "(A. Helviorium, heute Alba-la-Romaine)", Soldat der 1. Legion, 48 Jahre alt, mit 25 Dienstjahren [verstorben]. Er liegt hier begraben.“ Unangefochten angeführt wird die Bonner Prominentenliste von dem Komponisten Ludwig van Beethoven. Sein Geburtshaus in der Bonngasse besuchen Jahr für Jahr viele tausend Touristen aus der ganzen Welt. Neben Beethoven wurden weitere Musiker in Bonn geboren oder haben dort ihre Heimat gefunden. Dazu zählen Andrea Luchesi und Johanna Kinkel. Der Komponist Robert Schumann verbrachte seine letzten Lebensjahre in der damaligen Nervenheilanstalt (heute Schumannhaus) im heutigen Bonner Stadtteil Endenich und ist auf dem Alten Friedhof begraben. Wohnort war und ist Bonn für andere Künstler. Dazu zählte in den Jahren vor dem Ersten Weltkrieg August Macke und heute leben und arbeiten in der Stadt Autoren wie Lars Brandt und Akif Pirinçci. Seit mehr als 200 Jahren hat die Rheinische Friedrich-Wilhelms-Universität Bonn dazu beigetragen, dass eine große Zahl von Forschern, Lehrern und Studenten am Rhein ansässig geworden ist. Dazu gehören Ernst Moritz Arndt, August Wilhelm Schlegel, Clemens-August von Droste zu Hülshoff, Carl Schurz, Heinrich Hertz und – in neuerer Zeit – die Nobelpreisträger Wolfgang Paul und Reinhard Selten. Joseph Ratzinger (Papst Benedikt XVI.) war von 1959 bis 1963 Professor für Fundamentaltheologie in Bonn. Neben berühmten Musikern und Wissenschaftlern wurden eine ganze Reihe politischer Prominenter in den vergangenen Jahrzehnten am Rhein geboren oder wurden zu (Wahl-)Bonnern. Gebürtige Bonnerin ist Heide Simonis, "Wahlbonner" sind unter anderem der langjährige Arbeitsminister Norbert Blüm, der ehemalige Bundesfinanzminister Peer Steinbrück sowie der ehemalige Bundesminister für Wirtschaft und Arbeit, Wolfgang Clement und der ehemalige FDP-Parteichef und deutscher Außenminister Guido Westerwelle. Logo. Neben dem Wappen verfügt Bonn über ein offizielles Logo. Brettspiel. Adelige Schachspieler (Deutschland, um 1320) Ein Brettspiel ist ein Gesellschaftsspiel, dessen kennzeichnendes Element ein -brett ist, auf dem Spieler mit Figuren, Steinen oder anderem Material agieren. Ein Spiel, bei dem eine reine Auslage entsteht (wie beispielsweise bei "Carcassonne"), wird oftmals auch zum Genre der Brettspiele gezählt, obwohl es sich streng genommen um ein Legespiel handelt. Das Spielbrett muss nicht zwangsläufig aus Holz oder aus einem Stück sein. Bei manchen Spielen, etwa bei "Die Siedler von Catan", ist es variabel und wird vor jeder Partie neu zusammengesetzt. Die Bedeutung des Spielbretts ist in den einzelnen Spielen unterschiedlich. Bei manchen Titeln – die dann in vielen Fällen an der Grenze zum reinen Karten- oder Würfelspiel stehen – stellt es fast ausschließlich eine angepasste Punktetabelle dar, bei anderen ist es wirklich das spielbestimmende Element. Eine besondere Qualitätsauszeichnung für Brettspiele ist der Preis „Spiel des Jahres“. Er gilt als die weltweit bedeutendste Spieleauszeichnung und wird für deutschsprachige Brett- und Kartenspiele verliehen. Klassische Brettspiele. Als eines der ältesten Brettspiele kann das "Königliche Spiel von Ur" (2600 v. Chr.) gelten. Auch "Go" beansprucht diesen Titel oft. Das ägyptische Senet ist für etwa 2600 v. Chr. nachgewiesen. Aus der Zeit des Mittleren Reiches ist "Hunde und Schakale" belegt. Zu den klassischen Brettspielen zählen "Schach", "Dame", "Mühle", "Go", "Pachisi", "Mancala", "Bagh Chal" und "Backgammon". Ein besonders kompliziertes Brettspiel des Mittelalters war das „Philosophenspiel“ "Rithmomachie". Eine Gruppe von asymmetrischen Brettspielen reicht von dem "Hnefatafl" der Wikinger bis zum modernen Spiel "Fuchs und Gänse". Neuzeitliche Brettspiele. Neuzeitliche Brettspiele aus dem 20. Jahrhundert mit namentlich bekannten Autoren sind meist über Spielverlage in den Handel gebracht worden. Dazu gehören unter anderem Klassiker wie Im 20. Jahrhundert hatten breite Bevölkerungsschichten in Europa und Amerika erstmals freie Zeit, die nicht mit Arbeit und Haushaltsführung ausgefüllt war. Dadurch wurden unter anderem Brettspiele populär. Zudem wurde beispielsweise "Mensch ärgere Dich nicht" im Ersten Weltkrieg an die Lazarette verschickt, damit sich die Soldaten dort die Zeit vertreiben konnten. "Monopoly" wurde als Zeitvertreib für die Zeit der Beschäftigungslosigkeit während der Weltwirtschaftskrise populär. "Monopoly" wurde in Deutschland nach seinem Erfolg in den Vereinigten Staaten von Amerika 1936 bis 1938 und dann wieder ab 1953 von Schmidt Spiele herausgegeben. In Österreich wurden ab 1936 ähnliche Spiele unter anderen Namen herausgebracht. "Monopoly" gehört heute zu den erfolgreichsten Brettspielen in Deutschland und der Schweiz; die ab ca. 1940 herausgegebene "Monopoly"-Variante "DKT – Das kaufmännische Talent" zu den erfolgreichsten Brettspielen in Österreich. Autorenspiele. Moderne Brettspiele wie beispielsweise "Scotland Yard" (erschienen 1983), "Das verrückte Labyrinth" (erschienen 1986), "Siedler von Catan" (erschienen 1995), "Carcassonne" (erschienen 2000, eigentlich eher ein Legespiel), "Einfach Genial" (erschienen 2004) oder "Puerto Rico" (erschienen 2002) werden auch als Autorenspiele bezeichnet, da der Name des oder der verantwortlichen Spieleautoren bekannt ist und sich diese oft haupt- oder nebenberuflich mit Spielen beschäftigen. Autorenspiele zeichnen sich auch dadurch aus, dass es zu einem erfolgreichen Spiel oftmals mehrere Aufbausets, Erweiterungen sowie abgeleitete Spiele gibt (wie das Kartenspiel "San Juan" bei "Puerto Rico" oder die Erweiterung "Seefahrer" bei "Siedler von Catan"). Während in den meisten Ländern vor allem klassische Brettspiele gespielt werden, hat sich im deutschsprachigen Raum eine vielfältige Szene um Autorenspiele gebildet. In den Vereinigten Staaten hat dies schon dazu geführt, dass Brettspiele auch als „German Games'“ bezeichnet werden. Nach Angaben des Vorsitzenden des Verbandes „Fachgruppe Spiel“ Ernst Pohle kommen in Deutschland jährlich etwa 350 Spiele neu auf den Markt, mehr als in jedem anderen Land. Die Internationalisierung des Phänomens der Renaissance von Brettspielen in neuer Vielfalt schreitet momentan rasch voran. Auch in den USA, den Niederlanden, Frankreich und Teilen Asiens formieren sich lebendige Spieleszenen. Mehr als 600 Neuheiten werden Jahr für Jahr auf den Spielemessen in Essen (im Oktober) und Nürnberg (im Februar) vorgestellt. Außerdem wird jährlich von einer Spielejournalisten-Jury die weltweit bedeutendste Spiele-Auszeichnung Spiel des Jahres vergeben, die in der Folgezeit für Katalogwerbung wie auch für das Design der Verpackung ein unübersehbares und wertvolles Gütesiegel darstellt. Brettspiele als Computerspiele. Die meisten Brettspiele erscheinen mittlerweile auch als Computerspiel. Dies wird oftmals ergänzt durch die Umsetzung im Internet als Browserspiel. Zudem gibt es auch vollständig elektronische Brettspiele (mit Sensoren und Sprachausgabe) und DVD-Brettspiele (normale Brettspiele mit Zusatz-DVD). Hybridspiele. Als „Hybrides Spiel“ oder „Hybridspiel“ bezeichnet man Spiele, bei denen die Spieler wie bei einem herkömmlichen Brettspiel spielen, aber Würfeln, Züge, Zugauswertungen oder andere Spielmerkmale vom Computer berechnen lassen. Anders als beim Computerspiel kann der Rechner nicht das Spielfeld ersetzen, sondern hilft bei der Auswertung der Züge, so dass sich Geschwindigkeit und Genauigkeit des Spiels erhöhen lässt. Ein Alleinspiel ist möglich, sofern der Spieler die Figuren auf dem Brett rückt. Klassiker dabei sind Schachcomputer. Auszeichnungen. Die in Deutschland bekanntesten Auszeichnungen sind Spiel des Jahres und der Deutsche Spiele Preis. Die Mehrzahl der Siegerspiele aus diesen Wettbewerben sind Brettspiele. Berufsverband Deutscher Tanzlehrer. Berufsverband deutscher Tanzlehrer e. V. (BDT) wurde am 5. Januar 1991 als Alternative zum Allgemeinen Deutscher Tanzlehrerverband (ADTV) gegründet. Nach eigenen Angaben gehören dem Verband rund 150 Tanzschulen und 220 Tanzlehrer aus Deutschland, den Niederlanden, Österreich und Frankreich an. Nachdem die Vereinigung Deutscher Tanzschulen (VDT) in den ADTV integriert wurde, und die Sezession moderner Tanzlehrer (SMT) sich dem BDT anschloss, existieren zurzeit nur noch der ADTV und der BDT. Der Berufsverband Deutscher Tanzlehrer bildet haupt- und nebenberuflich in 3-jährigen Ausbildungsgängen Tanzlehrer für Gesellschaftstanz aus und unterstützt seine Mitglieder durch regelmäßige Fortbildungen. Neben dem klassischen Gesellschaftstanz unterstützt und fördert der BDT ebenfalls intensiv die tänzerischen Bereiche Kindertanzen, Videoclip, Hip Hop und Discofox. Hier sind einjährige Fachtanzlehrer-Ausbildungen möglich. Darüber hinaus bieten BDT Tanzschulen regelmäßig Medaillen-Prüfungen für Tanzschüler an, bei denen sie das BDT Tanzabzeichen in Bronze, Silber, Gold und Goldstar erwerben können. Deutsches Amateur Turnieramt. Im Laufe der Jahre kristallisierte sich im BDT vor allem das Interesse vieler Mitglieder heraus, außer dem üblichen Angebot von Grund– und Medaillenkursen von Bronze bis Goldstar und dem Erwerb des BDT-Tanzabzeichens ein vom Deutschen Tanzsportverband (DTV) unabhängiges Turnierangebot im Bereich der Standard– und Lateinamerikanischen Tänze und Discofox zu schaffen. Die Mitgliederversammlung beschloss im April 1993 einstimmig die Gründung des "Deutschen Amateur Turnieramtes" (DAT). Das Angebot umfasst sowohl Tanzschulturniere, einschließlich der "Deutschen DAT Meisterschaften" und der "International Dance Masters" in den Standard- und Lateinamerikanischen Tänzen, als auch Videoclip Dancing, Hip-Hop, Salsa und Discofox. Es gibt keine festen Leistungsklassen und dazugehörige Auf- und Abstiegsregelungen. Lediglich eine Einteilung in Hobby und Sporttänzer wird vorgenommen. Zur Wertung der Sportturniere werden Amateurturniertänzer der S-Klasse des DTV und vom BDT ausgebildete Tanzlehrer eingesetzt. Bei den Hobbyturnieren werden auch sich in der Berufsausbildung befindliche Tanzlehrer ab bestandener 2. Zwischenprüfung eingesetzt. Seit 1997 gibt es auch DAT-Formationsturniere in den Lateinamerikanischen und den Standard-Tänzen, wobei bei den größten Wettbewerben schon bis zu 30 Formationen an den Start gingen. Einzelnachweise. Tanzlehrer Bata Illic. Bata Illic (; * 30. September 1939 in Belgrad, Königreich Jugoslawien) ist ein deutschsprachiger Schlagersänger. Leben. Illic wurde als Sohn eines Finanzbeamten geboren. Nach seinem Schulabschluss studierte er Philologie, Englisch und Italienisch und war danach zwei Jahre als Lehrer tätig. In dieser Zeit lernte er den Musiker Andreas Triphan kennen, der mit ihm eine Band (zumeist als „Bata Illic & Band“, einzelne Auftritte als „Kommando Iffets“) gründete und diese als Schlagzeuger sowie finanzieller Förderer unterstützte. Ihre Wege trennten sich 1961. Andreas Triphan sah für die Gruppe die Perspektive in Frankreich. Illic wollte ihm aber nicht für mehrere Monate nach Lille folgen. Nach einem Auftritt in der amerikanischen Botschaft in Belgrad bekam Illic im Jahr 1963 mit seiner Band „Grandpa's Whites“ einen mehrmonatigen Gastspielvertrag für den amerikanischen Club „Twister“ in Bad Kissingen. Weitere Verpflichtungen für Clubs in Bad Hersfeld, Poppenburg, Fulda und Berlin folgten. Im Mai 1966 trafen sich Triphan und Illic zufällig bei einem kleinen Musikfestival in Bern wieder. Zwar hatten sie von Juni bis August einige gemeinsame Auftritte in Süddeutschland, jedoch konnten sich beide keine längere Zusammenarbeit in einem gemeinsamen Projekt mehr vorstellen. Im Jahr 1967 nahm Illic seine erste Schallplatte auf. Seine ersten Erfolgstitel in den Hitparaden waren 1968 "Mit verbundenen Augen" und "Schuhe, so schwer wie ein Stein". Im Jahr 1972 hatte er seinen größten Erfolg mit "Michaela". Er trat in zahlreichen Musiksendungen auf, unter anderem in der ZDF-Hitparade, und präsentierte "Michaela" und die nachfolgende Singleauskopplung "Solange ich lebe" auch im 1973 erschienenen Film "Blau blüht der Enzian". Auch die folgenden Jahre waren sehr erfolgreich für ihn als Schlagersänger. Anfang der 1980er-Jahre wurde es etwas ruhiger um ihn. Er ist seit 1963 mit Olga Illic verheiratet. Mit ihr wohnt er seit über 35 Jahren in München. In den 1990er-Jahren versuchte Illic ein Comeback. Er tritt heute noch in Rundfunk und Fernsehen auf, bevorzugt mit Songs von Aznavour, Celentano oder Bacharach in deutschsprachigen Versionen. Aber auch seine alten Hits singt er bei diesen Auftritten. Vom 11. Januar 2008 bis 26. Januar 2008 war der Schlagersänger in der Sendung Ich bin ein Star – Holt mich hier raus! auf RTL zu sehen. Er belegte in der Reality-Show den dritten Platz hinter Michaela Schaffrath und dem Gewinner Ross Antony. Am 7. Februar 2008 ist die Retro-POP-Single "Tschewaptschitschi" als Downloadtrack veröffentlicht worden. Inzwischen wurde ein 2008 aufgenommenes Album veröffentlicht. Die erste Single-Auskopplung ist das Duett "Wie ein Liebeslied", das Bata Illic zusammen mit seinem Dschungel-Kollegen Eike Immel aufgenommen hat. Damit erreichte Bata Illic die Top 20 der Deutschen Single-Charts, das erste Mal seit 33 Jahren. Die Maxi-CD und ein – nicht zur Single gehörendes – aktuelleres Album namens "Herzgeschichten" sind am 29. Februar 2008 erschienen, das offizielle neue Album – wie die Single ebenfalls "Wie ein Liebeslied" betitelt – folgte am 7. März 2008. Bata Illic im Juni 2009 auf der Bühne bei einer Veranstaltung von SWR 4 Bernhard Grzimek. Bernhard Grzimek ("Bernhard Klemens Maria Hofbauer Pius Grzimek"; * 24. April 1909 in Neiße, Oberschlesien; † 13. März 1987 in Frankfurt am Main) war in den 1960er und 1970er Jahren aufgrund seiner regelmäßigen Fernsehmoderationen für den Hessischen Rundfunk der bekannteste Tierfachmann Westdeutschlands. Grzimek war Tierarzt und Verhaltensforscher, langjähriger Direktor des Frankfurter Zoos, erfolgreicher Tierfilmer, Autor sowie Herausgeber von Tierbüchern und einer nach ihm benannten Enzyklopädie des Tierreichs. Sein Dokumentarfilm "Serengeti darf nicht sterben" von 1959 wurde 1960 als erster deutscher Film nach dem Zweiten Weltkrieg mit einem Oscar geehrt. Er veröffentlichte anfangs auch unter dem Pseudonym "Clemens Hofbauer". Leben und Wirken. a> im heutigen Polen (polnisch "Nysa") Familie. Bernhard Grzimek kam als jüngstes Kind des Rechtsanwalts und Notars Paulfranz (Paul Franz Constantin) Grzimek (* 18. September 1859 in Schwesterwitz; † 6. April 1912 in Neiße), Justizrat zu Neiße, und dessen zweiter Ehefrau Margarete (Margot) Wanke (* 4. April 1876 in Rybnik; † 11. Oktober 1936 auf der Durchreise in Leipzig), Trägerin des Verdienstkreuzes für Kriegshilfe, zur Welt. Er hatte fünf Geschwister: Brigitte (* 1903, †  1937), Franziska (* 1904), Notker (* 1905, † 1945) und Ansgar (* 1907, †  1986) sowie eine ältere Halbschwester namens Barbara aus der ersten Ehe des Vaters. Grzimek gibt in seiner Autobiographie von 1974 zu seinen Vornamen an, dass jedes seiner Geschwister den Namen des regierenden Papstes erhielt, er erhielt dazu noch den vollständigen Namen des heiliggesprochenen Wiener Redemptoristen Klemens Maria Hofbauer als Vornamen. Bernhard hieß er nach seinem Großvater mütterlicherseits. Noch als Student heiratete Grzimek am 17. Mai 1930 in Wittenberg Hildegard Prüfer (* 10. Januar 1911 in Kattowitz, Oberschlesien; † 31. Dezember 1985 in München), die Tochter von Studienrat Max Prüfer und Meta Fritsche. Bernhard und Hildegard Grzimek hatten drei Söhne: Rochus (* 1931), Michael (1934–1959) und Adoptivsohn Thomas (1950–1980). Michael Grzimek starb im Januar 1959 während der Dreharbeiten zu dem erfolgreichen Dokumentarfilm "Serengeti darf nicht sterben" bei einem Flugzeugabsturz. Thomas Grzimek nahm sich 1980 das Leben. Bernhard Grzimeks erste Ehe wurde 1973 geschieden. Am 30. Mai 1978 heiratete er in zweiter Ehe seine Schwiegertochter Erika, geb. Schoof, die Witwe seines Sohnes Michael, und adoptierte deren Kinder. Aus einer langjährigen außerehelichen Beziehung gingen Grzimeks Kinder Monika Karpel (* 1940) und Cornelius (* 1945) hervor. Werdegang. Grzimek besuchte von 1915 bis 1919 die Volksschule und von 1919 bis zum Abitur (Ostern 1928) ein Realgymnasium in seiner Heimatstadt. Mitschüler gaben ihm den Spitznamen "Igel". Dieses Tier wurde später zu seinem Wappentier, das er auch auf seiner Krawatte eingestickt hatte. Er wurde schon mit 19 Jahren für volljährig erklärt, da sein Vater bereits 15 Jahre zuvor gestorben war und er seinen Lebensunterhalt als Leiter eines landwirtschaftlichen Betriebs mit Geflügelfarm und Spargelplantage bei Erkner verdienen musste. Ab 1928 studierte er Veterinärmedizin, zunächst in Leipzig, wo er der katholischen Studentenverbindung K.D.St.V. Burgundia Leipzig beitrat, bald aber an der Friedrich-Wilhelms-Universität Berlin, wo er im Herbst 1932 sein Staatsexamen bestand und im Februar 1933 mit einer Dissertation über "Das Arteriensystem des Halses und Kopfes, der Vorder- und Hintergliedmaße von Gallus domesticus" zum Dr. med. vet. promovierte. Von Februar 1933 bis Herbst 1933 war er als Sachverständiger im Preußischen Landwirtschaftsministerium beschäftigt, danach bis 1937 als Referent im Reichsnährstand. Im Juli 1933 trat er der SA bei, in welcher er bis 1935 verblieb, und am 1. Mai 1937, nach Ende des Aufnahmestopps, der NSDAP (Mitgliedsnummer 5919786). Von Januar 1938 bis zur Auflösung aller deutschen Regierungsstellen am 8. Mai 1945 war er als Regierungsrat im Reichsministerium für Ernährung und Landwirtschaft und dort vor allem (und erfolgreich) mit Rinder- und Geflügelseuchenbekämpfung beschäftigt sowie mit der Verbesserung der Lagerung von Hühnereiern. Mit der Senkung des Anteils fauler Eier von zuvor vier Prozent auf 0,0016 Prozent wurde die Voraussetzung für die Kühlhauslagerung deutscher Eier geschaffen, zuvor konnten dafür ausschließlich Importeier verwendet werden. Sein "Handbuch der Geflügel-Krankheiten" wurde noch in den 1960er-Jahren neu aufgelegt. Seine Habilitationsschrift über "Gewichtsverlust und Luftkammervergrößerung von Eiern in handelsüblichen Packungen, sowie über den Einfluß des Waschens von Eiern" wurde jedoch 1936 als ungeeignet und wissenschaftlich unzureichend beurteilt. Nach Forschungen der Wissenschaftshistorikerin Tania Munz hat Grzimek 1941 mutmaßlich zugunsten des späteren Nobelpreisträgers Karl von Frisch interveniert und ihn so vor Entlassung und Kriegsdienst geschützt. Neben seinem „Brotberuf“ beschäftigte sich Bernhard Grzimek intensiv mit verhaltenskundlichen Themen, speziell mit Menschenaffen und Wölfen; seine Studien erschienen u. a. in der renommierten "Zeitschrift für Tierpsychologie," außerdem schrieb er Kolumnen über Verhaltensforschung für das in Frankfurt am Main erscheinende "Illustrierte Blatt." Überliefert ist, dass Grzimek dank seines verhaltenskundlichen Fachwissens eine Tigergruppe des Zirkus Sarrasani mehrfach allein dem Publikum vorführte. Im Zweiten Weltkrieg wurde Grzimek Veterinär in der Wehrmacht und nutzte diese Tätigkeit u. a. für Studien zur Farbwahrnehmung und zum Heimfindeverhalten von Militärpferden. Außerdem arbeitete er mit Elefanten. In den Kriegsjahren war er meist einer militärischen Dienststelle in Berlin zugeordnet, damit er noch stundenweise im Reichsernährungsministerium arbeiten konnte. Anfang 1945 durchsuchte die Gestapo Grzimeks Berliner Wohnung, da er wiederholt versteckte Juden mit Lebensmitteln versorgt hatte. Daraufhin flüchtete Grzimek aus Berlin, kam zunächst nach Detmold und im März nach Frankfurt am Main, wo die US-Militärs gerade den ehemaligen Hauptschriftleiter des Frankfurter "Illustrierten Blattes," Wilhelm Hollbach, als provisorischen Oberbürgermeister eingesetzt hatten. Grzimek wurde im April zunächst Hollbachs persönlicher Referent und nach eigenen Angaben von den US-Behörden zum Frankfurter Polizeipräsidenten ernannt. Er lehnte diese Tätigkeit aber ab und wurde stattdessen am 1. Mai 1945 zum Direktor des Zoologischen Gartens berufen und in dieser Funktion Hollbach direkt unterstellt. Grzimek nutzte seine Position dazu, die bereits verfügte, dauerhafte Schließung des Frankfurter Zoos zu unterlaufen. Nur zwanzig größere Tiere hatten die Bombenangriffe überlebt. Der Zoo sollte, weil völlig zerstört, aus der Frankfurter Innenstadt herausgenommen und am Stadtrand neu errichtet werden. Pläne hierfür lagen bereits seit 1926 in den Akten des Magistrats. An deren Verwirklichung glaubte Grzimek – wohl zu Recht – nicht. Jedenfalls nutzte er die chaotische Lage im völlig zerstörten Frankfurt am Main und ließ kurzerhand einige der beschädigten Zoogebäude provisorisch wiederherrichten und die Bombentrichter auf dem Zoogelände beseitigen. Schon am 1. Juli 1945 wurde der Zoo wieder eröffnet und wies Ende 1945 mit 563.964 Besuchern bereits mehr als doppelt so viele auf wie in der Vorkriegszeit. Mit Volksfesten, Tanzveranstaltungen und Schaustellern hatte Grzimek die Frankfurter Bevölkerung in den Zoo gelockt und so die Zustimmung der provisorischen Stadtverwaltung und der US-Militärs zum Erhalt des Frankfurter Zoos, der bis Ende 1947 zugleich der größte Vergnügungspark Hessens war, bewirkt. Nebenbei war Grzimek von 1945 bis 1946 kommissarischer Leiter der damaligen Staatl. anerkannten Vogelschutzwarte Frankfurt am Main. Ende 1947 warf die US-Militärregierung Grzimek vor, seine Mitgliedschaft in der NSDAP verschwiegen zu haben, und belegte ihn u. a. mit einer rechtskräftigen Geldstrafe von 5.000 Reichsmark. Grzimek stritt einen Beitritt oder eine Anwartschaft zur NSDAP stets ab. Die Frankfurter Spruchkammer sah seine Mitgliedschaft aufgrund bestimmter Indizien nicht als erwiesen an und bescheinigte ihm am 23. März 1948 aufgrund mehrerer Zeugenaussagen im Gegenteil, „dass er wiederholt und fortgesetzt aktiven Widerstand gegen die nationalsozialistische Gewaltherrschaft geleistet hat“ und daher „in die Gruppe der Entlasteten eingereiht“ werde. Daraufhin wurde die ihm auf Weisung der US-Behörden bereits schriftlich mitgeteilte Amtsenthebung wieder zurückgenommen. Mehrfache weitere Vorwürfe und Klagen, vor allem vorangetrieben durch den damaligen Münchner Zoodirektor Heinz Heck, veranlassten Grzimek, sich Ende der 1940er-Jahre nach anderen Wirkungsfeldern, z. B. im Zoo Schweinfurt, umzusehen. Bis zu seiner Pensionierung am 30. April 1974 blieb Bernhard Grzimek Direktor des Frankfurter Zoos. 1954 gründete er mit seinem Sohn Michael die Okapia KG, eine bis heute erfolgreiche Bildagentur. Gemäß eigener Aussage in seiner Autobiographie war sie eine regelmäßige Einkommensquelle und wirtschaftliche Absicherung gegen politischen Druck auf seine Amtsführung und herausgeberische Tätigkeit. Von 1970 bis 1973 war Bernhard Grzimek der Beauftragte der deutschen Bundesregierung für den Naturschutz. 1975 gründete er zusammen mit Horst Stern und 19 anderen Umweltschützern den Bund für Umwelt und Naturschutz Deutschland (BUND); bis zu seinem Tode 1987 war er Präsident der Zoologischen Gesellschaft Frankfurt. Seit der Pensionierung als Direktor des Frankfurter Zoos nutzte Grzimek von 1974 bis zu seinem Tod 1987 eine Mühle am Fuße des Steigerwaldes bei Donnersdorf im Landkreis Schweinfurt als seinen Altersruhesitz, pendelte aber oft noch nach Frankfurt und reiste um die Welt. Zudem gilt er als Mitbegründer der Idee für einen Nationalpark Steigerwald. 1975 erwarb er zehn Hektar an den vorgeschlagenen Nationalpark angrenzende Waldflächen und Feuchtwiesen bei Michelau im Steigerwald, um sie sich selbst zu überlassen. Öffentliches Wirken. Anfang der 1950er-Jahre hatte Bernhard Grzimek Afrika bereist – zum einen, um Tiere für seinen Frankfurter Zoo zu fangen, zum anderen, um das Verhalten afrikanischer Tiere in freier Natur zu studieren und um hieraus Rückschlüsse ziehen zu können für eine artgerechtere Haltung der Tiere in einem Zoo. Der drohende Untergang der afrikanischen Tierwelt durch übermäßige Jagd und die Zerstörung ihrer Lebensräume durch den Siedlungsdruck der Menschen, der ihm bei diesen Exkursionen bewusst wurde, veranlasste ihn zu einem lebenslangen Engagement für die Wildtiere Afrikas. Hierfür nutzte Grzimek geschickt auch das aufkommende neue Massenmedium Fernsehen. Seine regelmäßigen Fernsehsendungen machten Bernhard Grzimek seit Ende der 1950er-Jahre landesweit bekannt und beliebt. Legendär wurden seine Liveauftritte als Autor und Moderator der am 28. Oktober 1956 erstmals ausgestrahlten hr-Sendereihe "Ein Platz für Tiere", zu denen er stets ein Tier aus dem Frankfurter Zoo mitbrachte und an sich umherklettern ließ – häufig auch Raubtiere – und am Schluss jeder Sendung unter genauer Angabe der Kontonummer zur „Hilfe für die bedrohte Tierwelt“ aufforderte. 1980 wurde die 150. Folge der Sendereihe ausgestrahlt, und sie war nicht die letzte; die Reihe erreichte schließlich ca. 175 Folgen. a>) der Grzimeks im Frankfurter Zoo Auch als Buchautor und Tierfilmer hatte Grzimek großen Erfolg. Für seine Projekte in der afrikanischen Serengeti-Steppe lernten er und sein Sohn Michael fliegen. Es entstanden 1956 zunächst das Buch "Kein Platz für wilde Tiere" und anschließend der gleichnamige Tier- und Urwaldfilm, der den Bundesfilmpreis und den Goldenen Bären erhielt. Das Buch wurde in zahlreiche Sprachen übersetzt und trug ganz erheblich zur Einrichtung von Naturreservaten in Afrika bei. 1958/59 entstand der im folgenden Jahr mit einem Oscar ausgezeichnete Film "Serengeti darf nicht sterben," dessen Dreharbeiten mit umfangreichen wissenschaftlichen Erhebungen über die Zahl der Wildtiere in Ostafrika und über deren Wanderungen verbunden waren. Grund dazu waren Pläne, einen Teil des Naturparks abzutrennen und durch Angliederung anderer Gebiete auszugleichen. Die Ergebnisse zeigten, dass in den abzutrennenden Gebieten Teile der jährlichen Wanderwege der Tiere lagen, während das Ersatzgebiet kaum in Anspruch genommen wurde. Während der Dreharbeiten verunglückte Michael Grzimek im Januar 1959 bei einem Flugzeugabsturz tödlich; er wurde am Ngorongoro-Krater in der Serengeti beigesetzt. Ende 1967 wandte sich Grzimek an den damaligen Bundeslandwirtschaftsminister Hermann Höcherl, um gegen den Bau des Hühnerhochhauses in Berlin-Neukölln, in dem 250.000 Legehennen auf engstem Raum gehalten werden sollten, zu protestieren. Es war der erste öffentliche Einsatz von Grzimek gegen die Käfighaltung von Hühnern, viele weitere folgten. Zwischen 1967 und 1974 zeichnete Bernhard Grzimek für die Enzyklopädie "Grzimeks Tierleben" in 13 Bänden als Herausgeber verantwortlich. Loriot setzte dem Zoologen schon zu dessen Lebzeiten ein kleines Denkmal: Er zeichnete im Rahmen der sechsteiligen Fernsehserie "Loriot" als Parodie auf die grzimeksche Sendereihe einen Trickfilm über die Steinlaus und spielte eine Imitation der Sendereihe. Tod und Nachleben. Bernhard Grzimek starb am 13. März 1987 in Frankfurt am Main als Zuschauer während der Tigervorstellung des Zirkus Althoff. Seine Urne wurde später nach Tansania überführt und neben seinem Sohn Michael am Ngorongoro-Krater beigesetzt. Nach Grzimeks Tod verhinderten Erbstreitigkeiten über viele Jahre die Verwendung seines materiellen und schöpferischen Nachlasses. Babylon. Babylon (sumerisch KĀ-DINGIR-RAKI; akkadisch Bab-illa/ilani; babylonisch Bāb-ili(m); hebräisch Babel בבל; arabisch بابل) war als Hauptstadt Babyloniens eine der wichtigsten Städte des Altertums. Sie lag am Euphrat, etwa 90 km südlich Bagdads im heutigen Irak (Provinz Babil). Die Ruinen der Stadt sind unter anderem von Robert Koldewey Anfang des 20. Jahrhunderts teilweise freigelegt worden. Babylon war die Hauptstadt des gleichnamigen Stadtstaates, der zeitweise über weite Teile des südlichen Zweistromlandes herrschte. Ihre Blütezeit lag zwischen 1800 vor und 100 nach Christus. Etymologie. Der akkadische Name Babylons lautete als piktographisches Sumerogramm geschrieben "KÁ.DINGIR.RAKI" (KÁ „Tor“, DINGIR „Gott“, =a(k) GENITIV, KI Determinativ für Städtenamen), in akkadischer Silbenschrift jedoch "Babilla". Ab Anfang des zweiten Jahrtausends v. Chr. wechselte er in die aus dem Sumerogramm hergeleitete babylonische Entsprechung "Bābili(m)" ("bāb" „Tor“ [sc. von "bābum"] "ilim" „Gottes“ [Gen. von "ilum"]), wovon sich später der griechische Name "Babylonia" ableitete. Bei der gebräuchlichen mesopotamischen Übersetzung von "Babillu, Babilim, Babilani" als „Tor des Gottes/Gottestor“ handelt es sich aber wahrscheinlich um eine volksetymologische Ableitung der Urform, wobei die alte Bedeutung des akkadischen Stadtnamens nach wie vor unklar bleibt. Spätestens unter Naram-Sin findet sich die Schreibung "KĀ.DINGIRKI" (noch ohne das Genitivsuffix "=a(k)"), die Naram-Sin als "Tor des Gottes" deutete. In der Ur-III-Zeit ist die um den Genitiv erweiterte schriftliche Form "KÁ.DINGIR.RAKI" belegt, gesprochen als "Bāb-ilim". In der altbabylonischen Sprache ist daneben "Ba-ab-DINGIRKI" als weitere Variante bezeugt. Ins Griechische wurde der Name aus der Form "bāb ilāni" übernommen, wobei die Abdumpfung des "ā" zu "ō" verrät, dass die Griechen den Namen offenbar aus einem westsemitischen Dialekt übernommen haben, in dem der Name "bāb ilōni", bzw. "bāb ilōn" ausgesprochen wurde. Die im Zusammenhang der alttestamentlichen Erwähnung Babylons hergestellte Namenserklärung basiert ebenfalls auf späteren Überlieferungen und zugleich auf anderen Motiven. Die in verwendete hebräische Form "balal" bezieht sich auf den "Turmbau zu Babel". Die entsprechende Übersetzung von Babylon als "Durcheinander" gründet sich daher primär auf die "Sprachverwirrung" beziehungsweise auf das "Durcheinander der Sprachen" und kann deshalb nicht als etymologischer Beleg zur Klärung herangezogen werden. Geschichte. Es gibt schon gegen Ende des 3. Jahrtausends v. Chr. erste Erwähnungen Babylons, jedoch nur als unbedeutende Kleinstadt. Šumu-abum (1894–1881 v. Chr.), Begründer der I. Dynastie von Babylon, machte die Stadt zum Verwaltungszentrum seines Reiches. Unter dem König Hammurapi I. (1792–1750 v. Chr.), dem bekanntesten altbabylonischen Herrscher, erlebte Babylon seine erste Blütezeit. Texte der ersten Dynastie aus Babylon selber sind aber selten, keiner von ihnen stammt aus dem bisher unentdeckten Palastarchiv. Die Eroberung von Babylon durch die Hethiter unter König Muršili I. (1620–1595 v. Chr.) ist nur schlecht belegt, das genaue Datum ist unbekannt. Sie fand unter der Herrschaft von Samsu-ditana statt, der so der letzte Herrscher der 1. Dynastie war. Nach der mittleren Chronologie wird der Fall 1595 angesetzt, nach Gasches ultrakurzer Chronologie 1499. Nach dem Fall von Babylon setzen schriftliche Dokumente ganz aus, die nächsten stammen aus der Zeit der Kassitenherrschaft und sind vermutlich etwa 100 Jahre später anzusetzen. In der Folge, vielleicht nach einer Episode unter Gulkišar, einem König der Meerlanddynastie, übernahmen die Kassiten für 400 Jahre die Herrschaft über die Stadt. Als im 14. Jahrhundert v. Chr. König Kurigalzu I. (1390–1370 v. Chr.) die Residenzstadt Dur-Kurigalzu gründete, blieb Babylon geistig-religiöses Zentrum. Ende des 13. Jahrhunderts wurde Babylon durch den assyrischen König Tukulti-Ninurta I. (1233–1197 v. Chr.) erobert, der die Statue des Stadtgottes Marduk wiederum verschleppte, diesmal nach Assyrien. Kurz darauf überfiel der elamische König Šutruk-Naḫunte (1190–1155 v. Chr.) die Stadt und raubte viele Kunstwerke und Götterbilder, die er in seine Hauptstadt Susa (Persien) brachte. Damit endete die Herrschaft der Kassiten in Babylon. Babylon erstarkte unter König Nebukadnezar I. (1126–1104 v. Chr) aus der II. Dynastie von Isin, der die Marduk-Statue zurückholte. Später eroberten assyrische Truppen unter Tiglat-pileser I. (1115–1076 v. Chr.) die Stadt. Nebukadnezar I. schaffte es jedoch, Babylon wieder von der assyrischen Herrschaft zu befreien. Babylon verlor mit dem Aufstieg Assyriens stark an Bedeutung und wurde im 7. Jahrhundert v. Chr. zweimal von den Assyrern zerstört, 689 v. Chr. durch Sanherib. 626 v. Chr. wurde Nabopolassar zum König ausgerufen und besiegte die Assyrer, deren Hauptstadt Ninive er 612 v. Chr. mit Hilfe der Meder zerstörte. Nebukadnezar II., sein Sohn, wehrte eine Invasion der Ägypter ab und regierte über ein Gebiet von Palästina bis an den Persischen Golf. In seiner Regierungszeit stiegen Stadt und Reich zu neuer Blüte auf. Jedoch währte diese Blütezeit nicht sehr lange. König Nabonid bestieg 556 v. Chr. den Thron Babylons. Er führte die von Nebukadnezar II. begonnenen Wirtschaftsreformen durch und entzog den Tempeln der Marduk-Priesterschaft die Ländereien. Zusätzlich setzte er Sin, den Mondgott, als oberste Gottheit ein. Dies führte dazu, dass die ihm nun feindlich gesinnte Priesterschaft Babylons mit dem Perserkönig Kyros II., der sich zu Marduk bekannte, bei dessen Eroberung der Stadt 539 v. Chr. kooperierte und maßgeblich an seinem Sturz und dem Babyloniens beteiligt war. Alexander der Große eroberte die Stadt nach dem Sieg bei Gaugamela und wurde als Befreier begrüßt. Alexander machte Babylon später zum Sitz seines Reiches, wo er dann auch am 10. Juni 323 v. Chr. verstarb. In der Zeit der Diadochen gehörte Babylon zum Seleukidenreich, verlor unter makedonischer Herrschaft jedoch an Macht, als die neue Hauptstadt Seleukia gebaut wurde und viele Bewohner Babylons dorthin umgesiedelt wurden. Umstritten ist, ob Babylon im Hellenismus eine Polis griechischen Typs gewesen ist. Fraglos verfügte Babylon spätestens seit Antiochos IV. über die typischen Bauwerke (Theater, Gymnasion, Agora), überdies werden "politai" ("Bürger") erwähnt, doch andererseits fehlt bislang jeder Hinweis auf die typischen Institutionen einer Polis (Volksversammlung, Rat, Magistrate). Lange Zeit nahm man in der Forschung an, Babylon habe unter den Seleukiden einen Niedergang erlebt und sei spätestens unter parthischer Herrschaft endgültig verlassen worden. Der römische Kaiser Trajan soll hier um 115 n. Chr. nur noch Ruinen gesehen haben. Inzwischen sind aber Zweifel an dieser Sichtweise aufgekommen; so nennt der wohl im ersten Jahrhundert entstandene so genannte 1. Brief des Petrus (5,13) Babylon als einen Wirkungsort des Petrus, und in der Spätantike erwähnt Prokopios von Caesarea Babylon (De Aed. 1,1,53) als Produktionsstätte von Asphalt. Wann genau Babylon jede Bedeutung verlor, wird daher inzwischen wieder kontrovers diskutiert. Der Hinweis im Petrusbrief wurde allerdings schon in der Antike als Hinweis auf Rom gedeutet, und die Bemerkung von Prokopios bezieht sich streng genommen auf Babylon zur Zeit von Semiramis. Es wird geschätzt, dass Babylon von ca. 1770 bis 1670 v. Chr. und wiederum von ca. 612 bis 320 v. Chr. die größte Stadt der Welt war. Sie war vielleicht die erste Stadt, die eine Bevölkerung von mehr als 200.000 Einwohnern erreichte. Die Schätzungen über die maximale Ausdehnung der Stadtfläche reichen von 890 bis 900 Hektar. Aufbau der Stadt. Der Aufbau Babylons im zweiten und dritten Jahrtausend vor Christus ist wenig bekannt. Entsprechende Nachforschungen scheiterten lange Zeit am hohen Grundwasserspiegel in diesem Areal und in jüngerer Vergangenheit an der Sicherheitslage im Irak. Antike Berichte. Laut dem antiken griechischen Historiker Herodot war Babylon "„gewaltig und prächtig gebaut wie meines Wissens keine andere Stadt der Welt“". Babylon wurde von einem riesigen Festungsgürtel umschlossen. Diese Stadtmauern von Babylon besaßen laut Herodot angeblich eine Länge von 86 Kilometern mit einhundert Toren. Ausgrabungen Koldeweys ergaben, dass die Mauern „nur“ 18 Kilometer lang waren. Außerdem soll es in der Stadt auch drei- und vierstöckige Gebäude gegeben haben. Im Tempelbezirk befand sich seinen Berichten zufolge auch ein Turm, von dem es im Alten Testament heißt, man wollte damit den Himmel erreichen. Er erwähnte jedoch nicht die Hängenden Gärten. Ausgrabungsergebnisse. Koldewey begriff schon bald nach Beginn seiner Ausgrabungen, dass die Größenangaben Herodots stark übertrieben waren, auch wenn der Umfang der Stadt mit 18 Kilometern immer noch imposant erscheint. Babylon war auf beiden Seiten des Euphrat errichtet. Die Stadt war von einer inneren Doppelmauer und einem äußeren Mauerring auf dem Ostufer umgeben, die im Norden durch eine Festung noch zusätzlich geschützt wurden, welche auch als Sommerresidenz des Königs diente. Die eigentliche Stadt befand sich jedoch im Inneren der doppelten Befestigungsmauer mit einem rechteckigen Grundriss von 1,5 x 2,5 km. Das "Ischtar-Tor", eines der neun Tore, kann man heute im Berliner Pergamonmuseum besichtigen. Direkt neben dem Tor stand der Ninmach-Tempel. Eine Prozessionsstraße führte hindurch in die Stadt, vorbei am Palast des Königs zum Marduktempel und dem Zikkurat von Etemenanki, besser bekannt als der Turm zu Babel. Der von Nabopolassar erbaute Palast hatte den des assyrischen Königs Sanherib zum Vorbild. Er besaß einen quadratischen Innenhof, drei kleine Privaträume und zwei große Säle, war also von verhältnismäßig bescheidener Größe. Nebukadnezar II. ließ drei weitere identische Gebäude errichten und sie durch Gänge mit dem ursprünglichen Komplex verbinden; eines von ihnen beherbergte den 52 Meter langen Thronsaal des Königs. Daneben wurden neue Wohnräume für die Bediensteten, aber auch Verwaltungs- und Vorratsräume gebaut. Vermutlich waren auch die Hängenden Gärten dort untergebracht. Der Tempel des Marduk mit dem Namen Esagila befand sich im heiligen Bezirk Babylons. Das Gebäude war ähnlich wie eine Festung mit quadratischem Umriss aufgebaut. Nach dem Betreten des Tempels kamen die Priester in den Raum, in dem sich die heilige Statue Marduks befand. In dem Heiligtum wurden jedoch auch viele andere Götter verehrt, die alle Marduk dienen sollten. Neben dem Tempel ragte der zuvor bereits angesprochene Turm auf. Wohnbauten konnten im Merkes-Viertel, das sich südlich des Ischtar-Tores befand, ausgegraben werden. Vor allem die Häuser der neubabylonischen Zeit waren gut erhalten: Bauten mit massiven Lehmziegelmauern und einem Hof im Zentrum. Hellenistische Zeit. Aus der Seleukidenzeit sind nur wenige Neubauten erhalten, doch sind überall in der Stadt Umbauten festzustellen. Die neubabylonischen Häuser im Merkesviertel sind im Laufe der seleukidischen Periode wieder bewohnt worden, nachdem sie anscheinend einige Zeit leer standen. In einem Haus fanden sich im Hof vier Säulenbasen, die andeuten, dass dort ein Peristyl eingebaut wurde. Die Säulen sind nicht erhalten, bestanden aber einst vielleicht aus Holz. Im selben Haus wurde auch ein Türdurchgang vermauert und eine Badewanne in der so entstandenen Nische eingebaut. Im Osten der Stadt wurde ein Theater errichtet und auch die Paläste wurden weiterhin benutzt und zeigen architektonische Elemente, die offensichtlich griechisch sind. In fast allen Palästen der Stadt fanden sich griechische Antefixe, die belegen, dass diese Bauten weiterhin benutzt und teilweise griechischem Geschmack angepasst wurden. Unter parthischer Herrschaft. Nach Aussage literarischer Quellen erlebte die Stadt unter den Parthern einen langsamen Niedergang. Allerdings gibt es vor allem in der Wohnstadt zahlreiche Befunde, die bezeugen, dass die Stadt weiter bewohnt wurde. Da die parthischen Schichten zuoberst liegen, sind sie aber meist nur schlecht erhalten. Es ist vor allem zu beobachten, dass die Straßenführung der alten Stadt aufgegeben wurde und durch eine neue ersetzt wurde. Das griechische Theater bestand weiter und wurde sogar renoviert. Andere öffentliche Gebäude können dieser Zeit bisher nicht mit Sicherheit zugeordnet werden. Aus den parthischen Schichten stammen viele Bestattungen, die vor allem unter den Fußböden der Häuser stattfanden. Da, wie erwähnt, noch Prokopios im 6. Jahrhundert Babylon möglicherweise als bewohnte Stadt erwähnt (s. o.), scheint der Ort auch noch unter den Sassaniden besiedelt gewesen zu sein. Forschungsgeschichte. Obwohl Babylon seit jeher nicht nur bei Autoren der klassischen Antike, sondern auch bei vielen Reisenden auf großes wissenschaftliches Interesse stieß, stellen doch erst die systematischen Ausgrabungen des Briten Claudius James Rich in den Jahren 1811 bis 1817 die Anfänge archäologischer Aktivitäten an diesem Ort dar. Im Laufe des 19. Jahrhunderts wurden die Arbeiten mit Unterbrechungen weitergeführt: 1830 fanden zwei Grabungskampagnen unter Robert Mignan statt, 1850 wurde Austen Henry Layard in Babylon aktiv, und ab 1851 begann ein drei Jahre andauerndes Großprojekt der Franzosen Fulgence Fresnel, Jules Oppert und Félix Thomas. Henry Creswicke Rawlinson führte 1854, wenn auch nur äußerst oberflächlich, die Arbeiten seiner französischen Vorgänger fort. Auch William Beaumont Selby (1859), Henri Pacifique Delaporte (1862) und Hormuzd Rassam (1879) beschränkten ihre archäologischen Aktivitäten in Babylon auf Kurzkampagnen. 1899 begann eine langfristig angelegte Forschungsmaßnahme im Auftrag der ein Jahr zuvor gegründeten Deutschen Orient-Gesellschaft unter der Leitung des Architekten Robert Koldewey. Dieser betrieb erstmals für die Archäologie in Mesopotamien Bauaufnahmen, in der die Lage der einzelnen Steine und Mauern erkennbar blieb und nachfolgende Archäologen daraus die Grundrisse in ihrer historischen Abfolge beurteilen können. Abgesehen vom allgemeinen Interesse für die freigelegten Großbauten waren vor allem die Grabungen im Wohngebiet Merkes (Markaz) durch ihre besondere Vorgehensweise für die Fachwelt richtungsweisend. Neben anderen grub hier 1907 und 1908 Oscar Reuther, dem es primär um die Schichtenabfolge ging. Hierzu legte er Grabungsquadrate an, zwischen denen drei Meter breite Grabungsstege stehenblieben, an denen die Schichten beurteilt werden konnten. Nachdem stattliche Häuser aus neubabylonischer Zeit zum Vorschein gekommen waren, ging man 1912 dazu über, eine sich auf diese Schicht konzentrierende Flächengrabung durchzuführen. Die Ausgrabungen liefen 18 Jahre fast ohne Unterbrechungen. Erst im Jahre 1917, gegen Ende des Ersten Weltkrieges, kamen die Arbeiten angesichts der gegen Bagdad vorrückenden britischen Truppen zum Erliegen. In der zweiten Hälfte des 20. Jahrhunderts wurde die Grabungstätigkeit wiederaufgenommen, vor allem durch die irakische Antikenverwaltung. Außerdem fanden Ausgrabungen des Deutschen Archäologischen Institutes unter der Leitung von Hansjörg Schmid (ab 1962) und Jürgen Schmidt (1967–1973) statt. Die irakischen Aktivitäten in Babylon konzentrierten sich auf Rekonstruktionen öffentlicher Bauwerke. Darüber hinaus ließ der irakische Diktator Saddam Hussein, der sich als Nachfolger des babylonischen Königs Nebukadnezar II. verstand, für sich einen neuen Palast bauen. Heutige Nutzung. Nach dem Irak-Krieg richteten US-amerikanische Truppen im April 2003 einen Stützpunkt um Babylon ein, um die antike Stadt vor Plünderern und Grabräubern zu schützen. Polnische Truppen stießen einige Monate später hinzu und übernahmen am 3. September 2003 die Lagerführung. Der Stützpunkt beherbergte bis zu 2000 Soldaten. Beim Bau des Lagers wurden Flächen für Park- und Hubschrauberlandeplätze freigeräumt und mit Schotter aufgeschüttet. Zudem wurden Schützengräben gebaut und Sandsäcke mit Sand aus den Ausgrabungsstätten gefüllt. Laut zweier Berichte des Konservators des Britischen Museums John Curtis aus den Jahren 2003 und 2005 wurde die Ruinenstadt erheblich beschädigt. Unter anderem seien die Drachen des Ischtar-Tors bei dem Versuch eines Unbekannten, Steine herauszubrechen, in Mitleidenschaft gezogen worden. Zudem sei die 2600 Jahre alte gepflasterte Prozessionstraße durch die Befahrung mit schweren Militärfahrzeugen zerstört worden. Mohammed Tahir al-Shahk Hussein, Archäologe des irakischen Staatsrates für Antiquitäten und Kulturerbe und ehemaliger Museumsdirektor, relativiert hingegen die Kriegsschäden und sieht das größere Problem in den unter Saddam Hussein errichteten Neubauten. Sieben Weltwunder. Die Stadt war Zentrum Babyloniens und ist auch durch die "Hängenden Gärten der Semiramis", eines der Sieben Weltwunder der Antike, bekannt. Ursprünglich gehörte auch die mächtige Stadtmauer zu den Weltwundern. Wie oben erwähnt, beschrieb Herodot die Stadt ausführlich. Platon. In der wissenschaftlichen Literatur über Platons Atlantis-Dialoge "Timaios" und "Kritias" wird Babylon als eine mögliche Vorlage für Platons Atlantisbeschreibung diskutiert. Tora. Rekonstruktion der Zikkurat von Ur. In der jüdischen Tora und dem christlichen Alten Testament wird für das antike Babylon der hebräische Name "Babel" verwendet, gedeutet als angelehnt von bâlal' „überfließen, vermischen, verwirren“. Es wird ein gewaltiger Turmbau zu Babel erwähnt (-9). Um die Macht der Menschen zu beschränken, habe Gott die Menschen verwirrt und ihnen verschiedene Sprachen gegeben (). Aufgrund dieser Kommunikationsstörung mussten sie dann den Bau beenden. Diese Geschichte ist der Ursprung der Redensart „babylonisches Sprachgewirr“ oder „babylonische Verwirrung“. Um 600 v. Chr. eroberte Nebukadnezar II. Jerusalem und veranlasste die Umsiedelung von Teilen der Bevölkerung, vor allem der Oberschicht, nach Babylon. Dieses babylonische Exil war ausschlaggebend für die Entwicklung eines Identitätsgefühls als jüdisches Volk und wird in der Bibel ausführlich beschrieben: Babylon wird als Ort des Unglaubens, der Unzucht und der Unterdrückung dargestellt, eine Sichtweise, die sich später im Neuen Testament wiederfindet. Dabei ist zu bedenken, dass die Bibelautoren das Exil als große Gefahr für den jüdischen Glauben ansahen, dementsprechend negativ gefärbt ist ihre Beschreibung des Aufenthalts, der als Sklaverei wahrgenommen wurde. Die meisten Hebräer führten jedoch ein angenehmes Leben in der Metropole; babylonische Keilschrifttafeln zeigen, dass viele von ihnen hohe Positionen in Militär und Wirtschaft einnahmen. Christentum. Im Neuen Testament wird der Name "Babylon" bzw. das Attribut "babylonisch" zwölfmal erwähnt. Dies geschieht zum einen in Rückblicken auf die Geschichte Israels, zum anderen in den prophetischen Reden über die Zukunft der Welt. Babylon bezeichnet hier das irdische widerchristliche Machtzentrum im Gegensatz zur Stadt Gottes, dem "himmlischen Jerusalem". In der Offenbarung des Johannes wird ihre Zerstörung in den letzten Gerichten Gottes vorausgesagt. In 1. Petrus grüßt der apostolische Schreiber seine Gemeinde "aus Babylon". Manche Ausleger vermuten, dass hier Babylon als ein Pseudonym für Rom gebraucht wird. Andere hingegen verweisen auf den nicht genau feststellbaren Zeitpunkt des Verfalls der Stadt und nehmen die Bezeichnung "Babylon" wörtlich. Sie glauben, dass Paulus, als Apostel für die Nationen, und nicht Petrus in Rom war. In der von der Offenbarung des Johannes geprägten christlichen Symbolik gilt Babylon als gottesfeindliche Macht und Hort der Sünde und Dekadenz. Martin Luther deutete das ihm verhasste Papsttum als "Hure Babylon". In Offenbarung 17:3–5 wird Babylon die Große als eine in Purpur und Scharlach gekleidete, reichgeschmückte Frau beschrieben, die auf einem scharlachfarbenen wilden Tier mit sieben Köpfen und zehn Hörnern sitzt. Auf ihrer Stirn steht ein Name geschrieben, „ein Geheimnis: ‚Babylon die Große, die Mutter der Huren und der abscheulichen Dinge der Erde‘ “. Auch wird von ihr gesagt, sie sitze auf „vielen Wassern“, die „Völker und Volksmengen und Nationen und Zungen“ darstellen (Off 17:1–15). Professor Morris Jastrow jr. sagt in seinem Werk The Religion of Babylonia and Assyria (1898, S. 699–701) diesbezüglich folgendes: „Im Altertum, noch bevor das Christentum aufkam, verspürten Ägypten, Persien und Griechenland den Einfluß der babylonischen Religion.... Der persische Mithrakult weist eindeutig babylonische Vorstellungen auf; und wenn man bedenkt, welche wichtige Rolle die mit diesem Kult verbundenen Mysterien schließlich unter den Römern spielten, kann ein weiteres Verbindungsglied zwischen den Verzweigungen antiker Kulturen und der Zivilisation des Euphrattales hergestellt werden.“ Abschließend spricht er von „der großen Wirkung, die die bemerkenswerten Äußerungen religiösen Gedankenguts in Babylonien und die religiöse Tätigkeit in diesem Gebiet auf die antike Welt gehabt haben“. Musikalische Rezeption. Zumeist bauen Lieder, die mit Babylon zu tun haben, auf die Bedeutung der Stadt im Alten Testament als ein Ort des Exils und einer Versklavung. Der Bezug zum geschichtlichen Hintergrund, der eine Versklavung nicht bestätigt, wird meistens nicht hergestellt. Gelegentlich nehmen Lieder aber auch den neutestamentlichen theologischen Mythos der Stadt als Zentrum des Bösen auf. Georg Friedrich Händel hat 1745 in seinem Oratorium "Belshazzar" (deutsch: "Belsazar") die Eroberung der Stadt durch Kyros und die Befreiung der Juden aus der babylonischen Gefangenschaft verewigt. Giuseppe Verdi vertonte 1842 in "Nabucco" ebenfalls eine Episode aus dem jüdischen Exil in Babylon. William Walton komponierte 1930/31 mit "Belshazzars Feast" ein Chorwerk, dessen Libretto Bibeltexte über Belsazars Gastmahl in Babylon zum Thema hat. Bertold Hummel benannte den 2. Satz seiner 1996 entstandenen 3. Sinfonie "JEREMIAS" mit dem Namen der Stadt Babylon. 2012 wurde die Oper "BABYLON" von Jörg Widmann auf ein Libretto von Peter Sloterdijk an der Bayerischen Staatsoper uraufgeführt. Bekannt ist die Vertonung des Lieds "By the waters of Babylon" von Don McLean, eine Nachdichtung des 137. Psalms. Der Song Rivers of Babylon der jamaikanischen Band The Melodians, der in der Version von Boney M. große Bekanntheit erlangte, behandelt ebenfalls den Text des 137. Psalms. Ebenso nahm Leonard Cohen in seinem Song "By the Rivers Dark" auf Babylon Bezug: Babylon ist anknüpfend an die jüdische und christliche Symbolik sowohl Ort des Exils (Gottesferne) als auch Sinnbild sündigen, verblendeten Lebenswandels sowie zugleich Stätte einer mysteriösen Erfahrung. Die deutsche Vertonung "Die Legende von Babylon" von Bruce Low handelt jedoch vom Turmbau zu Babel und hat nichts mit dem babylonischen Exil zu tun. Durch die Etablierung der Reggae-Musik in den 1970er Jahren wurde der Rastafari-Begriff "Babylon-System" weltweit populär und hat heute einen festen Platz in der schwarzen Musik und anderen modernen Musikstilen. Bekannt wurde der Begriff erstmals durch den Song "Babylon System", komponiert vom jamaikanischen Reggaemusiker Bob Marley und auf dem Album "Survival" veröffentlicht, der vom westlichen „vampirischen“ System handelt, das die Menschheit unterdrückt und vor der Einheit zurückhält. Vorher jedoch ging schon Desmond Dekker in seinem Lied The Israelites auf das Thema ein und erzählt die Leidensgeschichte des Israeliten in Ägypten im Vergleich zum Leben als schwarzer Sklave auf Jamaika. In ihrem 2004 veröffentlichten Lied "On Ebay - From Babylon back to Babylon" prangert die britische Popband Chumbawamba den Raub von Ausstellungsstücken, zu denen auch solche aus Babylon gehörten, aus dem Irakischen Nationalmuseum an. Babylon-System bei den Rastafari. In der unter Nachfahren schwarzer Sklaven in Jamaika entstandenen Rastafari-Bewegung ist "Babylon-System" oder kurz "Babylon" – in Anlehnung an die biblische Verwendung des Begriffs – ein Ausdruck für das herrschende „westliche“ Gesellschaftssystem, das als korrupt und unterdrückend wahrgenommen wird. Die Rastafari erkannten in der biblischen Geschichte vom babylonischen Exil der Israeliten Parallelen zur Verschleppung ihrer eigenen afrikanischen Vorfahren nach Amerika und münzten "Babylon-System" (auch: "shitstem") als Ausdruck für die westliche Welt. Durch den Erfolg der Reggae-Musik wurde der Begriff weltweit etabliert (siehe dazu musikalische Rezeption). Je nach persönlichem politischem und kulturellem Hintergrund variiert die Auslegung des Begriffs. Kritisiert werden kann jedoch, dass angeprangerte gesellschaftliche Missstände wie Unterdrückung, Ignoranz und Hass gegenüber Mitmenschen innerhalb der Rastafari-Kultur verbreitet sind, häufig gegenüber Homosexuellen. Buch. Ein Buch ist nach traditionellem Verständnis eine Sammlung von bedruckten, beschriebenen, bemalten oder auch leeren Blättern aus Papier oder anderen geeigneten Materialien, die mit einer Bindung und meistens auch mit einem Bucheinband (Umschlag) versehen ist. Laut Unesco-Definition sind (für Statistiken) Bücher nichtperiodische Publikationen mit einem Umfang von 49 Seiten oder mehr. Zudem werden einzelne Werke oder große Text­abschnitte, die in sich abgeschlossen sind, als "Buch" bezeichnet, insbesondere wenn sie Teil eines Bandes sind. Das ist vor allem bei antiken Werken, die aus zusammengehörigen Büchersammlungen bestehen, der Fall – Beispiele hierfür sind die Bibel und andere normative religiöse Heilige Schriften, die Aeneis sowie diverse antike und mittelalterliche Geschichtswerke. Elektronisch gespeicherte Buchtexte nennt man „digitale Bücher“ oder E-Books. Eine andere moderne Variante des Buches ist das Hörbuch. Etymologie. Das Wort "Buch" (althochdeutsch "buoh", mittelhochdeutsch "buoch") war ursprünglich eine Pluralform und bedeutete wahrscheinlich zunächst „Runenzeichen“, dann allgemeiner „Schriftzeichen“ oder „Buchstabe“, später „Schriftstück“. Eine Verwandtschaft zu "Buche" könnte darauf beruhen, dass Runen in Buchen oder in Buchenholz eingeritzt wurden, dieser Zusammenhang ist aber unsicher (siehe dazu auch Buchstabe). Papyrusrolle und Kodex. a> von einigen zehntausend auf mehrere hundert Millionen Exemplare an. Ein Drucker in historischer Berufstracht an einem Nachbau einer Gutenbergpresse bei der Düsseldorfer Presseausstellung 1947 Die ältesten Vorläufer des Buches waren die Papyrus­rollen der Ägypter, von denen die ältesten bekannten Exemplare aus dem 3. Jahrtausend v. Chr. stammen. (Siehe auch Geschichte der Schrift, Altägyptische Literatur und Liste der Papyri des Alten Ägyptens). Die Griechen und Römer übernahmen die Papyrusrollen, bis die ab dem 1. Jahrhundert allmählich der "Codex" ablöste. Der "Codex" bestand aus mehreren Lagen Pergament, die zweiseitig fortlaufend beschrieben in der Mitte gefaltet und mit einem Faden aneinander befestigt wurden. Erst später wurden die Seiten gebunden und mit einem festen Umschlag versehen. Der "Codex" ist der unmittelbare Vorläufer unseres heutigen Buches. Ab dem 14. Jahrhundert wurde das Pergament allmählich durch das billigere und viel einfacher zu produzierende Papier ersetzt. Die erste Papiermühle in Deutschland war die des Ulman Stromer in Nürnberg im Jahr 1390. Zeitalter des Buchdrucks. Die nach der Erfindung des Buchdrucks (ca. 1450) durch Johannes Gutenberg bis zum Jahr 1500 gedruckten Bücher werden Inkunabel oder Wiegendruck (aus der Zeit, als der Buchdruck noch in der Wiege lag) genannt. In der Buchdruck-Revolution vervielfachte sich der Ausstoß an Büchern in Europa. In Korea wurde rund 200 Jahre vor Johannes Gutenbergs Erfindung in Europa der Buchdruck mit beweglichen Lettern aus Metall entwickelt, vermutlich als Weiterentwicklung chinesischer Drucktechnik mit Tonlettern, blieb aber wenig genutzt. Die schnelle Verbreitung der neuen Technik in ganz Europa und die stetige Verbesserung und Weiterentwicklung des Buchdrucks und der Herstellung von Papier machten das Buch zur Massenware, was eine wesentliche Voraussetzung für die Reformation und später für die Aufklärung wurde. Wissen wurde zum Allgemeingut im Abendland. Schrift und Bild waren im Buch des Mittelalters eine Einheit. Künstler des Bauhauses schufen im 20. Jahrhundert Bücher von hohem gestalterischen Niveau, die dem Bereich Druckgrafik zuzurechnen sind. Diese Künstlerbücher erscheinen in kleinen limitierten Auflagen. Gegenwart. Der Digitaldruck erlaubt mit Book-on-Demand Auflagen in konventioneller Buchform (paperback, hardcover) ab einem Exemplar aufwärts. Seit ein paar Jahren bieten einige Dienstleister im Internet die Erstellung von Fotobüchern an, diese können dann einzeln bestellt werden. Seit dem Jahr 2009 können in der Wikipedia Artikel zum Book-on-Demand zusammengefasst werden. Seit dem Jahr 2000 erscheint das digitale Buch auf dem Online-Buchmarkt. Auch das Internet konkurriert mit dem klassischen Buch. Der Internetkonzern Google schätzte (Stand August 2010), dass es rund 130 Millionen verschiedene Bücher auf der Welt gibt, räumte aber ein, dass dies auch eine Frage der Definition sei. Die UNESCO legte 1995 den 23. April als Welttag des Buches fest. Materialien. Umblättern eines Buches, hier ein Taschenbuch, ein kleinformatiges Buch mit gewöhnlich weichem Einband Bestandteile. Ein Buch muss beweglich, aber auch stabil sein. In der Buchherstellung durchläuft es viele Prozesse, die Einzelteile werden meist getrennt hergestellt und schließlich zusammengefügt. Der Buchblock mit seinen bedruckten Seiten wird durch den Vorsatz mit dem Bucheinband verbunden. Dabei befindet sich jeweils ein Vorsatz an der oberen und unteren Seite des Buchblocks. Diese sind durch Gaze und Leim mit dem Buchrücken sowie durch den Spiegel mit der Buchdecke verbunden. Um die Buchdecke legt sich das Bezugsmaterial. Zusammen ergeben diese Elemente den Bucheinband. Die nach außen „abklappbaren“ Elemente des Einbandes nennen sich Deckel. Bei gebundenen Büchern, oft auch Hardcover genannt, wird um den Bucheinband noch ein Schutzumschlag gelegt. Die drei Kanten des Buchblocks, an denen man das Buch öffnen kann, nennen sich Kopfschnitt (oben), vorderer und unterer Schnitt. Ein farblich gestalteter Schnitt hat Schnittverzierungen. Das farbige Bändchen oben und unten am Buchrücken nennt sich Kapitalband, das Lesezeichen – oben im Buchrücken befestigt – nennt sich Lesebändchen. Buchgestaltung. Durch die Buchgestaltung wird das gesamte Aussehen, der Aufbau und die Materialien des Buches konzipiert. Durchgeführt wird sie in der Regel von einem Buchgestalter, Künstler und/oder Typografen. Neben Schrift, Titelei, Pagina, Papiersorte, Lesebändchen und Kapitalband wird auch der Einband gestaltet – die heute vermutlich wichtigste Aufgabe: Der Einband muss neugierig machen, spannend sein und die Aufmerksamkeit auf sich ziehen. Der Einband soll den potentiellen Leser zum Kauf oder Verleih einladen. Ökonomie des Buches. Als ökonomisches Produkt betrachtet, weist das Buch mehrere Besonderheiten auf. Diese Besonderheiten machen das Buch zu einem spekulativen Wirtschaftsgut mit hohen Risiken für den Produzenten (Verleger). Im Unterschied zu anderen Medienprodukten refinanziert sich das Buch in der Regel nur über eine Erlösquelle, den Vertriebserlös. Als Werbeträger spielt das Buch nur eine untergeordnete Rolle. Unterscheidung nach Herstellungsart. Bibel aus dem Jahr 1866 Meistgedrucktes Buch. Die Bibel ist das meistgedruckte und am weitesten verbreitete Buch der Welt. Es existieren Gesamtübersetzungen in 451 Sprachen und Teilübersetzungen in weiteren 2479 Sprachen. Kleinstes und größtes Buch. Das kleinste Buch der Welt stammt aus dem Leipziger Verlag Faber & Faber. Mit 2,4 auf 2,9 Millimeter ist es vergleichsweise so groß wie ein Streichholzkopf. Die 32 Seiten sind mit Buchstabenbildern im Offset bedruckt und in Handarbeit ledergebunden. Im Jahr 2004 brachte der Autohersteller Mazda einen Bildband mit dem wohl größten Format der Welt heraus: 3,07 × 3,42 m. Das „Aufschlagen“. Buch von 1552 mit zwei Metallspangen, die sich durch raufschlagen auf den Buchdeckel öffnen lassen. Der Ausdruck „ein Buch aufschlagen“ soll daher stammen, dass früher viele Bücher mit Metallspangen verschlossen wurden, womit die Seiten glatt gehalten wurden. Das Öffnen des Buches war durch schlagen auf den Buchdeckel möglich, denn durchs Schlagen wurden die Seiten zusammengedrückt, der Buchdeckel mit den Haken der Spangen senkte sich zugleich und die so gelockerten Spangen fielen auf die Seite und das Buch war „aufgeschlagen“. Babylonien. Babylonien (assyrisch Karduniaš; altägyptisch Sangar) bezeichnet eine Landschaft am Unterlauf der Flüsse Euphrat und Tigris, zwischen der heutigen irakischen Stadt Bagdad und dem Persischen Golf. Das kulturelle Zentrum des Gebietes im Altertum war die Stadt Babylon, die im Laufe ihrer Existenz von Herrschern aus zahlreichen Volksstämmen erobert und regiert wurde. Altbabylonisches Reich. Das erste babylonische Reich wurde 1894/1830 v. Chr. vom semitischen Stamm der Amoriter unter Sumu-abum gegründet. Er ließ um die Stadt die Mauer Imgur-Enlil errichten, die allerdings erst durch seinen Nachfolger Sumulael fertiggestellt wurde. Hammurapi, der als 6. König den Thron bestieg, verstand es, die politische Situation der Stadtstaaten auszunutzen und kontrollierte durch die schmalste Stelle zwischen Euphrat und Tigris die Handelswege. Schon bald stieg Babylon zur Metropole auf. Durch die Unterwerfung von Elam, Subartu und Eschnuna wurde Hammurapi auch Herrscher von Assur. Die Eroberung von Larsa dehnte sein Reich auch über die ehemaligen Königreiche Sumer und Akkad aus. Damit wurde Babylonien zum dominierenden Reich in Mesopotamien (Altbabylonisches Reich). Hammurapi erwies sich als geschickter Außenpolitiker, legte Bewässerungsanlagen an und ließ großartige Bauten errichten, organisierte das Land durch eine straffe Verwaltung und verfasste eine einheitliche Rechtsordnung, den Codex Hammurapi. Dieses Gesetzeswerk, mit 282 Paragraphen, hielt die Rechte aller Klassen fest. Die Gesetze wurden auf Stelen und Tontafel geschrieben und öffentlich in den Städten aufgestellt. Den Stadtgott von Babylon, Marduk, erhob Hammurapi zum Hauptgott des Landes. Schon sein Sohn musste gegen die aufständischen Stämme im Süden des Reiches in den Krieg ziehen. Nach und nach verlor das Reich an Einfluss und Herrschaftsbereich. Durch zahlreiche innere Unruhen und durch Angriffe von außen geschwächt, wurde es schließlich von dem Hethiterkönig Muršili I. 1595/1531 v. Chr. eingenommen. Das sogenannte Altbabylonische Reich fand damit sein Ende. Nachfolgedynastien. Die nachfolgende Zeit wird als dunkle Periode der babylonischen Geschichte bezeichnet, weil Schriftzeugnisse selten sind. Die Kassiten regierten etwa 400 Jahre lang (siehe Königsliste). Sie erweiterten das Reich vom Euphrat bis zum Zagrosgebirge und machten das Land zur Großmacht. Im 15. Jahrhundert v. Chr. gehörte es zu den vier wichtigsten Mächten in Vorderasien (neben den Ägyptern, Mittani und Hethitern). Kurze Zeit später löste sich Assyrien vom Mittanireich und begann eine territoriale Expansion, die auch babylonisches Gebiet berührte. 1155 v. Chr. wurde die Stadt von den Elamitern erobert. Sie plünderten und brandschatzen und brachten unter anderem die Gesetzesstele Hammurapis in ihre Hauptstadt Susa. König Nebukadnezar I. von Isin gelang es 1137 v. Chr., die Kassitendynastie abzusetzen und die zweite Dynastie von Isin in Babylon zu etablieren. Anschließend ging er gegen die Elamiter vor, die nach einem jahrelangen Krieg unterlagen. Ihre Hauptstadt Susa wurde völlig zerstört. Jeder Versuch Nebukadnezars, das Reich auszudehnen, wurde von den Assyrern beobachtet und zum Teil verhindert. Eine direkte Konfrontation gab es jedoch nicht. Kurze Zeit später eroberte Assur aber Babylon. Die Zerstörung eines babylonischen Tempels wurde von den Assyrern als Sakrileg empfunden. König Salmanassar III. (858–824 v. Chr.) verheiratete seinen Sohn Schamschi-Adad V. mit der Babylonierin Šammuramat. Es ist anzunehmen, dass sie eine Tochter oder jedenfalls nahe Verwandte von König Marduk-zākir-šumi I. gewesen ist. Umstritten ist, ob sie nach dem Tod ihres Mannes als Mitregentin des minderjährigen Sohnes selbst für einige Jahre die Macht übernahm, bis Adad-nirari III. für den Antritt seines Erbes alt genug war. Sicher ist, dass die in einem Bündnis gipfelnde freundschaftliche Annäherung beider Reiche unter Salmanassar III. nicht von Dauer war. Zwar leistete Marduk-zākir-šumi I. seinem Bündnispartner beim Aufstand dessen ältesten Sohnes Unterstützung und schloss nach dessen Tod auch einen Vertrag mit dem Thronfolger, versuchte aber die Schwäche der Assyrer auszunutzen und behandelte ihn als Vasallen. Nicht zuletzt unter tatkräftiger Mitwirkung von Šammuramat, die als Vorbild der Legende von Semiramis gilt, fand das assyrische Reich bald zu seiner Stärke zurück und zwang nun umgekehrt den Thronerben in Babylon in die Rolle des Vasallen. Versuche der Babylonier, die Macht der Assyrer mit Hilfe der Elamiter zu brechen, blieben erfolglos. 689 v. Chr. zerstörte der Assyrer Sanherib die Stadt gänzlich. Sein Sohn Assurhaddon versuchte, die Stadt wieder aufzubauen und im alten Glanz erstrahlen zu lassen. Zu diesem Zeitpunkt änderte Assyrien die Politik gegenüber Babylon und schlug einen harten Kurs ein. Die Folge waren Kriege und Zerstörung. 648 v. Chr. musste sich Babylon nach einer zweijährigen Belagerung dem assyrischen König Assurbanipal geschlagen geben. Nach dem Tod Assurbanipals, des letzten großen Königs Assyriens, brach dessen Reich aber auseinander. Neubabylonisches Reich. Umrisse des Neubabylonischen Reichs(etwa 580 v. Chr.) In Babylon bestieg der General Nabopolassar 626 v. Chr. den Thron. Mit ihm begann das sogenannte Neubabylonische Reich. Er vereinigte die lokalen Volksstämme und verbündete sich mit den Medern, die das Erbe der Elamiter im Osten antraten. Die beiden Reiche schlossen in diesem Zusammenhang ein Bündnis. Außerdem heiratete der Sohn Nabopolassars die Enkelin des Mederkönigs. Durch den Bündnisvertrag war der Weg nach Ninive, der assyrischen Hauptstadt frei. Sie konnte 612 v. Chr. nach einer dreimonatigen Belagerung eingenommen werden. Bis zum Jahr 610 v. Chr. wurden auch die restlichen versprengten assyrischen Heeresteile gänzlich aufgerieben. Nach Nabopolassars Tod trat Nebukadnezar II. (605–562 v. Chr.) die Thronfolge an. Er entwickelte außerordentliche Fähigkeiten als Staatsmann, Heerführer, Friedensstifter und Bauherr. Nebukadnezar ließ die Tempel in allen Städten des Landes wieder aufbauen, errichtete Kanäle, die sogenannte Medische Mauer und die Prozessionsstraße mit dem Ischtar-Tor. Mit Syrien und Jehuda führte Nebukadnezar Krieg. Die unterworfenen Länder wurden tributpflichtig und hatten hohe Abgaben an Babylon abzuliefern. Jehuda versuchte mehrere Aufstände, die nach ihrer Niederschlagung schließlich zur Zerstörung Jerusalems führten. Teile der Bevölkerung wurden in das babylonische Exil geführt, das erst in der Perserzeit aufgegeben wurde. Im Jahr 562 v. Chr. starb Nebukadnezar, und sein Sohn Amel-Marduk folgte auf den Königsthron. Nach nur zwei Jahren wurde Amel-Marduk bei einem Aufstand getötet und der babylonische General Nergal-šarra-usur bestieg den Thron. Starke Streitigkeiten mit der Priesterschaft führten dazu, dass sich 556 v. Chr. Nabonid des Throns bemächtigte. Nabonid war Anhänger des Gottes Sin und wollte die Macht der Marduk-Priesterschaft eindämmen. Das brachte ihm heftige Auseinandersetzungen bei der Neuordnung des Landwirtschafts- und Pachtsystems ein. Nabonid überließ den Schutz des Reiches seinem Sohn Belsazar und zog sich in die Oase Tayma zurück. Dadurch kontrollierte er die wichtigen Handelswege und konnte wirtschaftlichen Druck auf Ägypten ausüben. Nachdem die Perser die Lydier bezwungen hatten, war Babylonien vom Persischen Reich eingeschlossen und 539 v. Chr. von Kyros II. nach einer kurzen militärischen Auseinandersetzung besiegt. Folgezeit. Nach dem Sieg der Perser wurde Babylonien zu einer wichtigen Satrapie des Achämenidenreiches. Die aramäische Sprache wurde Amtssprache. Die Wissenschaftler nutzten weiterhin die akkadische Sprache und Schrift. Viele Gelehrte aus Ägypten, Persien, Indien und Griechenland kamen, um ihr Wissen zu erweitern. Im 5. Jahrhundert v. Chr. errechneten die Astronomen Babylons das Sonnenjahr und entwickelten im Jahr 410 v. Chr. das erste Horoskop. Während dieser Zeit wurde aus den Astrallehren der Babylonier die chaldäische Astrologie entwickelt, die später den Boden für die hellenistische bildete. Alexander der Große traf 333 v. Chr. auf die persischen Streitkräfte und besiegte sie in den Schlachten von Issos und Gaugamela. Die Griechen tolerierten die babylonische Kultur und erweiterten sie um das Theater und zusätzliche Errungenschaften. Nach dem Tode Alexanders des Großen verwüsteten Kriege der zerstrittenen Heerführer das gesamte Gebiet. Plünderung und Zerstörung führten zu einer Hungersnot. Im 1. Jahrhundert v. Chr. übernahmen die Parther die Macht. Belgische Euromünzen. Die belgischen Euromünzen sind die in Belgien in Umlauf gebrachten Euromünzen der gemeinsamen europäischen Währung Euro. Am 1. Januar 1999 trat Belgien der Eurozone bei, womit die Einführung des Euros als zukünftiges Zahlungsmittel gültig wurde. Umlaufmünzen. Alle Münzen werden in der belgischen Münzprägestätte in Brüssel geprägt. Erste Prägeserie (1999–2007). Alle acht Münzen haben das gleiche Motiv: das Porträt von König Albert II. und sein königliches Monogramm. Das Design enthält auch die zwölf Sterne der EU und das Prägejahr. Wie die meisten Euroländer prägte Belgien bereits ab 2007 seine Euromünzen mit der neu gestalteten Vorderseite (neue Europakarte). Der Entwurf der Bildseite stammt von Jan Alfons Keustermans. Zweite Prägeserie (2008). Bereits 2007 hatte Belgien die neu gestaltete gemeinsame Vorderseite (neue Europakarte) auf seine Münzen geprägt. 2008 begann Belgien mit der von der EU angeregten Neugestaltung der Euromünzen. Die nationale Seite der Münzen der zweiten Prägeserie 2008 unterscheiden sich von denen der ersten durch folgende Details: Das Porträt von König Albert II. wurde aktualisiert und rechts davon befinden sich sein Monogramm sowie das Landeskennzeichen "BE". Die Jahreszahl steht nun unterhalb des Porträts, zusammen mit dem Zeichen der belgischen Prägestätte in Brüssel – Erzengel Michael mit einem Kreuz als Helmzier – und einer Waage für den Münzmeister Romain Coenen. Der Entwurf der zweiten Prägeserie stammt von Luc Luycx. Unterschiede in der Gestaltung sind am Wangenknochen sowie am Haarwirbel neben der Stirn des Königs zu erkennen. Dritte Prägeserie (2009–2013). Für die Prägungen 2009–2013 wurde das Porträt von König Albert II. noch einmal verändert, und zwar wurde wieder, wie bei der ersten Prägeserie, der Entwurf von Jan Alfons Keustermans verwendet. Nach den am 19. Dezember 2008 von der Kommission der Europäischen Gemeinschaften für die nationalen Seiten von Euro-Umlaufmünzen empfohlenen Leitlinien ist es gestattet, Münzmotive, die das Staatsoberhaupt darstellen, alle fünfzehn Jahre zu aktualisieren, um Änderungen im Erscheinungsbild des Staatsoberhaupts Rechnung zu tragen. Der neuen Leitlinie nach kam die Aktualisierung 2008 jedoch zu früh und war deshalb zu revidieren. Die übrigen Änderungen der Neugestaltung von 2008 wurden dagegen beibehalten. Das Amt des Münzmeisters hatte 2009 bis 2012 Serge Lesens inne, so dass die Kursmünzen von 2010 bis 2012 eine Feder als sein Münzmeisterzeichen tragen. Ab 2013 wird nun eine Katze für den amtierenden Münzmeister Bernard Gillard auf die Münzen geprägt. Vierte Prägeserie (seit 2014). Nachdem Albert II. am 21. Juli 2013 abgedankt hat, ist sein Sohn Philippe König der Belgier. 1- und 2-Cent-Münzen. Das belgische Kabinett stimmte am 7. Februar 2014 einem Gesetzentwurf zu, der vorsieht, bei auf 1, 2, 6 oder 7 Cent lautenden Gesamtbeträgen auf ein Vielfaches von 5 Cent abzurunden, bei 3, 4, 8 oder 9 Cent aufzurunden. Diese Maßnahme tritt jedoch erst nach Vorliegen eines entsprechenden königlichen Dekrets in Kraft. 2,5 Euro. Material: Nickel – Durchmesser: 25,75 mm – Gewicht: ? 5 Euro. Material: 92,5 % Silber 7,5 % Kupfer – Durchmesser: 30 mm – Gewicht: 14 g 10 Euro. Material: 92,5 % Silber 7,5 % Kupfer – Münzdurchmesser: 33 mm – Gewicht: 18,75 g 12½ Euro. Material: 99,9 % Gold – Münzdurchmesser: 14 mm – Gewicht: 1,25 g 20 Euro. Material: 92,5 % Silber 7,5 % Kupfer – Münzdurchmesser: 37 mm – Gewicht: 22,85 g 25 Euro. Material: 99,9 % Gold – Durchmesser 18 mm – Gewicht: 3,11 g 50 Euro. Material: 99,9 % Gold – Durchmesser 21 mm – Gewicht: 6,22 g 100 Euro. Material: 99,9 % Gold – Durchmesser 29 mm – Gewicht: 15,55 g Balearische Inseln. Die Balearischen Inseln (katalanisch: "Illes Balears", spanisch: "Islas Baleares") oder Balearen sind eine Inselgruppe im westlichen Mittelmeer und eine Autonome Gemeinschaft Spaniens. Zur Autonomen Gemeinschaft gehören neben den "Gymnesischen Inseln" Mallorca und Menorca auch die "Pityusen" mit Ibiza und Formentera. Neben diesen fünf bewohnten umfasst die Autonome Gemeinschaft der Balearen 146 unbewohnte Inseln, zu denen auch die unter Naturschutz stehenden Felseninseln Dragonera und Pantaleu gehören. Größte Insel ist Mallorca mit 3.603,716 Quadratkilometern. Der Name der Inselgruppe leitet sich vom altgriechischen "bállein" „werfen“ ab, womit die in der Antike gefürchteten Steinschleuderer "Els Foners Balears", griechisch "Baliarides", der Inseln gemeint waren, die sich als Söldner auf den Kriegsschauplätzen der Antike verdingten. Geographie. Die Balearischen Inseln sind die abgesprengte Fortsetzung des andalusischen Felsengebirges, das sich von Gibraltar über die Sierra Nevada hinzieht. Ein etwa 1500 Meter tiefer Meeresgraben trennt die Inseln vom spanischen Festland. Die gebirgigen Inseln liegen zwischen 90 und 200 km östlich vom spanischen Festland entfernt. Geologie. Unter geologischen Gesichtspunkten betrachtet, sind die Balearen die östliche Verlängerung der Betischen Kordillere. Sie sind damit der Iberischen Kleinplatte zuzurechnen. Die lokale Geologie der Balearen ist stark von der alpidischen Gebirgsbildung geprägt. Im Oligozän – vor etwa 30 Millionen Jahren – erfuhr das Betische Orogen seine Haupthebungsphase. Nachfolgend, ab der Oligozän-Miozän-Wende, wurden die Balearen durch Dehnungstektonik von der Iberischen Platte abgerissen, und die heutige geographische Situation bildete sich heraus. Der Grabenbruch zwischen dem Nordwestrand der Inselkette und dem spanischen Festland wird als "Valencia-Trog" (span.: ') bezeichnet. Er ist die geologische Entsprechung des Golfs von Valencia. Auf Menorca sind mit devonischen und karbonischen Gesteinen die ältesten Gesteine der Balearen zu finden, die schon während der Variszischen Gebirgsbildung einmal gefaltet wurden. Vorgeschichte. Die Urbevölkerung der Balearen ist vermutlich von der Iberischen Halbinsel oder dem heutigen Südfrankreich aus eingewandert; erste Spuren menschlicher Siedlungen stammen aus dem 4. Jahrtausend vor Christus. Einzelne Kulturphasen, darunter das Talayotikum, sind inzwischen gut erforscht. Altertum. In der Antike hießen die Inseln "Balearides" oder "Gymnesiae", man verstand darunter die Inseln Mallorca (Balearis major) und Menorca (Balearis minor). Sie waren zuerst von den Phöniziern abhängig; ihre Häfen und ihr Boden hatten Ruf. Die Einwohner (Balearici) zeichneten sich als Krieger besonders durch ihre Geschicklichkeit im Schleudern mit an zwei Enden spitz geformten Bleigeschossen aus und dienten zahlreich in den karthagischen wie später in den römischen Heeren. Durch seeräuberische Unternehmungen erregten die Bewohner den Zorn der Römer; der Konsul Quintus Caecilius Metellus Balearicus eroberte sie 123 v. Chr. und siedelte dort romanisierte Südspanier an, welche die Städte Palma und Polentia auf Mallorca gründeten, und erwarb sich so den Namen Balearicus. Im Jahre 425 n. Chr. nahmen die Vandalen unter Gunderich die Inseln in Besitz; nach der Vernichtung des Vandalenreiches waren sie ein Teil des Byzantinischen Reiches. Mittelalter. Seit der Mitte des 8. Jahrhunderts übte das Fränkische Reich eine Art Schutzherrschaft über die politisch wieder weitgehend selbstständig gewordenen Inseln aus und zu Beginn des 10. Jahrhunderts wurden sie dem Kalifat von Córdoba einverleibt. Mallorca und Ibiza wurden 1229 bzw. 1235 unter Jakob I. von Aragón (katalanisch "Jaume I.") erobert, Menorca unter seinem Nachfahren Alfons III. Die Balearen gehörten nun ebenso wie Katalonien zur Krone Aragon. Zeitweise bildeten sie zusammen mit Teilen Kataloniens einen von einer Nebenlinie des aragonesischen Königshauses regierten selbständigen Staat, das Königreich Mallorca. 1344 eroberte Peter IV. von Aragón das Königreich Mallorca. Nun wurden die Inseln wieder mit den Stammländern der Dynastie vereinigt. Durch die Vereinigung der Kronen von Aragonien und Kastilien wurden sie schließlich Teil der spanischen Monarchie. 18. Jahrhundert. 1708 wurde Maó von den Briten erobert. Der Friede von Utrecht (1713), mit dem der spanische Erbfolgekrieg beendet wurde, sprach Menorca dem britischen Empire zu. Dieses musste im Frieden von Versailles (1783) die Insel an Spanien zurückgeben, bis 1802 blieb sie jedoch britisch besetzt. 19. und 20. Jahrhundert. 1833 wurde die spanische Provinz der Balearischen Inseln gegründet. Im ausgehenden 19. Jahrhundert gab es Ansätze einer regionalen Unabhängigkeitsbewegung, die sich jedoch nicht festigen konnte. Bereits 1931 wurde für die Provinz der Autonomie-Status vorgeschlagen, den sie allerdings erst 1983, nach dem Ende der Franco-Diktatur, erhielt. Am 1. März 1983 trat das Autonomiestatut für die Balearen in Kraft. Anlässlich dieses Ereignisses wurde der 1. März als "Dia de les Illes Balears" zum Feiertag erklärt. 21. Jahrhundert. Im Zuge der Eurokrise sind seit etwa 2011 die autonomen Regionen Spaniens im öffentlichen Fokus in Spanien und in anderen Ländern der Eurozone, der EU und des IWF. 2012 bekundete die Region Katalonien, stärker von Spanien unabhängig werden zu wollen. Die Region Katalonien ist wie die Region Balearen relativ wohlhabend und trotzdem relativ hoch verschuldet. Am 19. Oktober 2012 wurde bekannt, dass die Region Balearen bei der Zentralregierung in Madrid einen Hilfskredit aus deren Hilfsfonds (Fondo de Liquidez Autonómica) in Höhe von 355 Mio. Euro beantragt hat. Vor den Balearen hatten bereits sechs der insgesamt 17 Regionen um Hilfe gebeten, namentlich Katalonien, Andalusien, Valencia, Kastilien-La Mancha, die Kanarischen Inseln und Murcia. Als achtes Land tat dies kurz darauf Asturien. Die Hilfsfonds für finanzschwache Regionen umfasst insgesamt 18 Milliarden Euro. Mit den bisher vorliegenden Hilfsgesuchen würden mehr als 90 Prozent der Mittel aufgebraucht. Übersicht. Die Einwohnerzahl beläuft sich auf Personen (Stand:), das entspricht etwas mehr als 2,3 % der spanischen Gesamtbevölkerung. Rund 79 % davon, 869.067 Einwohner, fallen auf die mit Abstand größte Insel Mallorca. Die Balearen sind für spanische Verhältnisse recht dicht besiedelt. Die Bevölkerungsdichte ist mit Einwohner pro Quadratkilometer mehr als doppelt so hoch wie im Landesdurchschnitt (83 Einw./km²) und auch im Vergleich zur Europäischen Union (119 Einw./km²) beachtlich. Dazu kommen etwa zehn Millionen Touristen, die jährlich die Balearen besuchen. Der Großteil davon, rund neun Millionen, reisen ausschließlich auf die Insel Mallorca. 167.751 Ausländer sind auf den Balearen ansässig, was 16,8 % der Gesamtbevölkerung entspricht. Deutsche Bevölkerungsanteile. Laut der Bevölkerungserhebung aus dem Jahre 2006 waren 26.293 Deutsche mit Wohnsitz auf den Balearen offiziell gemeldet (zum Vergleich: 17.637 Briten). Sie stellen etwa 16 % aller auf den Balearen lebenden Ausländer und rund 31 % der aus Europa stammenden Zuwanderer. Unter Berücksichtigung der saisonal bewohnten Zweitwohnungen geht man sogar davon aus, dass tatsächlich mehr als 60.000 Deutsche permanent oder temporär auf den Balearen leben, rund 80 % davon auf Mallorca. Sprachen. Amtssprachen der Balearen sind "gemäß Artikel 3 des Autonomiestatuts" Spanisch ("castellano") und Katalanisch ("català"). Zugleich besteht ein Diskriminierungsverbot hinsichtlich der Verwendung einer dieser Sprachen und ein Fördergebot zur Schaffung der Voraussetzung, beide Sprachen zu erlernen und zu benutzen. Darüber hinaus gibt es inselspezifische Dialekte des Katalanischen wie Mallorquinisch, Menorquinisch und Ibizenkisch, die manchmal unter der Bezeichnung Balearisch zusammengefasst werden. Die letzte Umfrage der Regionalregierung zum Sprachgebrauch war eine Stichprobenerhebung 2003, die sich an Personen ab 15 Jahren richtete. Zur Frage nach der Muttersprache gaben 47,7 % Spanisch, 42,6 % Katalanisch, 1,8 % beide und 7,9 % der Befragten keine von beiden an. Weiter gaben 93,1 % der Befragten an, Katalanisch zu verstehen, 74,6 % es sprechen, 79,6 % es lesen und 46,9 % es schreiben zu können. Bildungswesen. Die Balearischen Inseln verfügen über 394 Schulen, davon sind 263 Schulen in öffentlicher Trägerschaft. 112 Schulen sind Vertragsschulen und 20 Schulen sind reine Privatschulen. Im Schuljahr 2002/03 wurden rund 150.000 Schüler unterrichtet. Darüber hinaus gibt es 17 Einrichtungen zur Erwachsenenbildung auf den Balearen. Neben der Nationalen Universität für Fernlehre (UNED) bietet vor allem die Universität der Balearen (UIB) ein breites Ausbildungsspektrum mit Naturwissenschaften und Geisteswissenschaften. Im Studienjahr 2002/2003 waren 14.323 Studenten in 15 verschiedene Fächersparten an der UIB immatrikuliert. Seit 1995 ist auf dem Gelände der UIB in Palma de Mallorca auch die Hotelfachschule der Balearen untergebracht. Status. Lage des Balearischen Inseln im Mittelmeer Topographische Karte mit algerischer Küste Die Balearen sind als eine der 17 autonomen Gemeinschaften ("comunidades autónomas") Spaniens teilautonom. Als gemeinsame Institution verfügen die Balearen über ein Parlament, eine Regierung ("Govern") und einen Präsidenten der autonomen Gemeinschaft. Die Verwaltung der einzelnen Inseln obliegt den jeweiligen Inselräten ("consells insulars"). Alle bewohnten Inseln verfügen über einen eigenen Inselrat, Formentera erst seit 2007. Die untere Verwaltungsebene wird von den 67 Gemeinden mit Verwaltungssitz ("municipis") gebildet, in denen jeweils ein Gemeinderat besteht. Die wichtigsten Kompetenzen der Autonomen Gemeinschaft sind Bildung und Gesundheit. Außerdem besitzt sie Zuständigkeiten u. a. in den Bereichen Umweltschutz, Tourismus, Soziales, Industrie, Handel und Energieversorgung, ihre Kompetenzen finden sich in den Art. 30 bis 38 des Autonomiestatuts. Nach Art. 33 besteht auch die Möglichkeit der Bildung einer eigenen Polizei ("Policía Autonómica"), was bis jetzt allerdings noch nicht umgesetzt wurde. Parlament. Das Parlament repräsentiert das Volk der Balearen, übt die gesetzgebende Gewalt aus, verabschiedet den Haushalt, wählt den Präsidenten und kontrolliert die Regierung. Zusätzlich wählt das Parlament aus seiner Mitte einen Parlamentspräsidenten. Die Wahlen sind geheim und erfolgen nach dem Prinzip der Verhältniswahl. Die Wahlperiode beträgt vier Jahre. Die ersten Wahlen zum Parlament der Balearen fanden am 8. März 1983 statt. Der Sieger war damals der Partit Popular (PP). Präsident. Der "president de les Illes Balears" wird vom Parlament aus dessen Mitgliedern gewählt und anschließend vom König ernannt (Art. 54 des Autonomiestatuts). Der Präsident ernennt und entlässt die Regierungsmitglieder, leitet und koordiniert die Regierungspolitik und ist der höchste Repräsentant der Autonomen Gemeinschaft nach außen, als der Vertreter des spanischen Staates auf den Balearen. Seit dem 2. Juli 2015 ist Francina Armengol (PSOE-PSIB) Präsidentin der Autonomen Gemeinschaft. Sie stützt sich auf eine gemeinsame Koalition von PSOE-PSIB, Podemos und MÉS. Regierung. Die Exekutive der Balearen wird gemäß dem Autonomiestatut von dem "Govern de les Illes Balears" gebildet, der ein Kollegialorgan ist, welches sich aus dem Präsidenten, gegebenenfalls eines Vizepräsidenten und den Regierungsräten oder Ministern "consellers" zusammensetzt. Die Arbeitsabläufe und Organisationsstrukturen innerhalb der Regierung werden durch das Parlamentsgesetz geregelt. Der "Govern" erstellt den Haushalt und verfügt zur Durchführung seiner Verwaltungsaufgaben über die Befugnis, Normen, also über die Rechtsverordnung, und Verwaltungsakte zu erlassen, die im "Butlletí Oficial de les Illes Baleares" veröffentlicht werden. Inselräte. Die "consells insulars" von Mallorca, Menorca, Ibiza und Formentera sollen die Eigenständigkeit der jeweiligen Inseln sowie deren besondere Interessen wahren und vertreten. Ein Aufgabenkatalog wurde im Art. 70 und 71 des Autonomiestatuts festgeschrieben und garantiert ihnen insoweit eine Reihe von Verwaltungszuständigkeiten hinsichtlich des lokalen Gemeinwesens. Formentera besteht nur aus einer Gemeinde und dort ist der "consell insular" gleichzeitig der Gemeinderat. In die Kompetenz der "consells insulars" fällt vor allem der Bausektor. Sie sind zuständig für Flächennutzung, Städte- und Straßenbau. Eine Ausnahme beim Straßenbau bilden die Autobahnen, die von der Zentralregierung in Madrid finanziert wurden. Weitere Aufgaben der Inselräte sind die Abfallentsorgung, der Jugendschutz, der Betrieb von Altenheimen und die Verwaltung des spanischen "TÜVs". Wirtschaft. Mit dem Ausbau der Tourismuswirtschaft ging eine starke Steigerung der Wirtschaftskraft der balearischen Inseln einher. Das Pro-Kopf-Einkommen der Einwohner der Balearen ist eines der höchsten in ganz Spanien und beträgt etwa 118 % des Landesdurchschnitts. Im Vergleich mit dem Bruttoinlandsprodukt der EU ausgedrückt in Kaufkraftstandards erreichte die Region im Jahr 2006 einen Index von 115 (EU-27:100). Die Arbeitslosenrate lag 2005 bei 7,2 %. Der mit weitem Abstand größte Anteil an der Wertschöpfung wurde nach einer Statistik des Jahres 2005 mit rund 81 % durch den Dienstleistungssektor erwirtschaftet, allein 48 % (11,420 Mio. Euro) entfielen auf den Tourismusbereich. Dies stellt die höchste Quote aller autonomen Gemeinschaften Spaniens dar. Etwa 76,5 % der ansässigen Unternehmen und 73,4 % der arbeitenden Bevölkerung waren im Dienstleistungsbereich tätig. Zentraler Beschäftigungsfaktor ist der Tourismus mit einer Beherbergungskapazität von insgesamt über 410.000 Plätzen. Im Jahr 2007 besuchten 13,27 Mio. Touristen die Balearen, 5,5 % mehr als im Jahr zuvor. 29,4 % (3,9 Mio.) der Touristen kamen aus Deutschland. Insgesamt stieg die Touristenzahl seit 1993 (6,8 Mio.) um 95,1 %. Von den Beschäftigten der Inseln bezogen in der Hochsaison etwa 39,5 %, in der Nebensaison 31,5 % ihre Einkünfte direkt aus dem Tourismus. Von der Zunahme des Tourismus hat vor allem auch die Bauwirtschaft profitiert. Einhergehend mit dem starken Bevölkerungswachstum durch Zuzug auch aus anderen Landesteilen Spaniens stieg der Bedarf an Wohngebäuden deutlich an. Inzwischen existieren auf den Balearen über eine halbe Million Wohneinheiten. Der Anteil der Baubranche an der Gesamtwertschöpfung lag im Jahr 2005 bei etwa 10,4 %, der Anteil der in diesem Bereich tätigen Unternehmen bei 16,3 %. Von etwa 2002 bis 2007 gab es auf den Balearen (wie in ganz Spanien) eine Immobilienblase. Der Industriesektor war überwiegend durch kleinere und mittlere Betriebe geprägt, die vor allem Bedarfsgegenstände wie Schuhe, Modeschmuck, Lederwaren und Textilien herstellen, nicht zuletzt für den Export. Ein beachtlicher Teil der Industrieexporte entfiel auf die Produktsparten Maschinen und Metallwaren. Auf den Industriebereich entfielen 2005 etwa 7,5 % der Gesamtwertschöpfung der Balearen bei 6,2 % der Zahl der Betriebe an den hier insgesamt tätigen Unternehmen. Der Anteil des Agrarsektors am Bruttoinlandsprodukt lag bei 1,1 % mit 0,9 % der ansässigen Unternehmen. Buddy Holly. Holly auf einer Briefmarke der Deutschen Bundespost 1988 Buddy Holly (bürgerlich "Charles Hardin Holley"; * 7. September 1936 in Lubbock, Texas, USA; † 3. Februar 1959 bei Mason City, Iowa) war ein US-amerikanischer Rock-’n’-Roll-Musiker und -Songschreiber. Zu seinen bekanntesten Titeln gehören "That’ll Be the Day," "Peggy Sue," "Oh Boy!" und "It Doesn’t Matter Anymore". Biografie. Geboren und aufgewachsen in Lubbock im westlichen Texas trat Holly (damals noch mit bürgerlichem Nachnamen Holley) bereits im Alter von 13 Jahren bei kleineren Veranstaltungen auf. Er war das jüngste von vier Kindern und entstammte einer musikalischen Familie. Mit 15 Jahren spielte er bereits Gitarre, Banjo und Mandoline und bildete mit seinem Freund Bob Montgomery das Duo „Buddy and Bob“. Anfänge. In diese Zeit fallen auch Hollys erste Versuche als Songschreiber mit Montgomery sowie ab 1952 zahlreiche Demo-Aufnahmen eigener Kompositionen der beiden. 1954 und 1955 hielten sie sogar Sessions im Nesman Recording Studio in Wichita Falls, Texas ab, wo unter anderem die Montgomery-Kompositionen "Gotta Get You Near Me Blues", "Soft Place in My Heart" und "Door to My Heart" aufgenommen wurden. Ab 1955 spielten sie mit dem Bassisten Larry Welborn zusammen, der bald von Jerry Allison am Schlagzeug unterstützt wurde. Anfang des Jahres trat das Duo als Vorgruppe von Elvis Presley und Bill Haley auf, was einen bleibenden Eindruck auf den jungen Holly hinterließ. In dieser Zeit wurde er stark vom Blues und Rhythm and Blues beeinflusst und war der Meinung, dass diese beiden Genres mit Country-Musik vereinbar seien. Holly und Montgomery nannten ihre Musik daher auch „Western & Bop“. Im Herbst 1955 verließ Montgomery, der mehr in Richtung traditioneller Country-Musik tendierte, das Duo, komponierte aber weiterhin Songs mit Holly. Dieser spielte daraufhin weiter mit Allison und Welborn sowie mit Gitarrist Sonny Curtis und Bassist Don Guess. Zusammen mit Ben Hall traten Holly und die Band auch bei den Radiosendern KSEL und KDAV auf. Erste Erfolge. Buddy Hollys professionelle Karriere begann Ende 1955, als er von dem Talentsucher Jim Denny entdeckt wurde. Am 7. Dezember 1955 wurden im Nesman Recording Studio Demo-Aufnahmen gemacht, die zu Decca Records geschickt wurden. Seine ersten Aufnahmen für Decca Records sang Holly am 26. Januar 1956 unter Zeitdruck ein. Es begleiteten ihn Sonny Curtis an der E-Gitarre, der Studiomusiker Grady Martin an der Gitarre, Don Guess am Kontrabass und Jerry Allison am Schlagzeug. Aus dieser Session wurden das von Holly und Sue Parrish komponierte "Love Me" sowie Ben Halls "Blue Days – Black Nights" veröffentlicht. Das Billboard Magazine urteilte in seiner Ausgabe vom 21. April 1956 wie folgt über "Love Me": "Cedarwood succumbs to rock and roll, too. If the public will take more than one Presley or Perkins, as it well may, Holly stands a strong chance." Die B-Seite wurde ähnlich gut bewertet: "Warbler, tune, guitar, etc., are patterned very closely after Elvis Presley. Good material and fine production on both sides. Should do fine." Trotz der vielversprechenden Voraussagen von Billboard erreichte die Single nicht die Charts. 1956 spielten Holly und seine Band entweder in Bradley’s Studio A oder in Norman Pettys Studio in Clovis, New Mexico zahlreiche weitere Songs ein, darunter die erste Version von dem späteren Hit "That’ll Be the Day". Diese Version, die deutlicher dem Rockabilly entsprach, wurde von Decca jedoch zurückgehalten, da man aufgrund von Hollys heiserer Stimme und einem zu dominanten Echo-Effekt mit der Aufnahme unzufrieden war. Ende 1956 veröffentlichte Decca Hollys zweite Single "Modern Don Juan" zusammen mit "You Are My One Desire". Aufgrund des fehlenden Erfolges verlor Decca im weiteren Verlauf des Jahres das Interesse an einer Zusammenarbeit und verlängerte den Vertrag nicht. Holly suchte daraufhin nach einem für seine musikalischen Ideen geeigneten Produzenten. Seit dem Frühjahr hatten er und seine Band in Norman Pettys Studio zahlreiche Demobänder aufgenommen und fortan entwickelte sich aus der Zusammenarbeit mit Petty eine neue Perspektive für die Band. Gitarrist Sonny Curtis wurde Ende 1956 gegen Niki Sullivan ausgewechselt, während Don Guess erst von Larry Welborn am Bass vertreten und später im Frühjahr 1957 durch Joe B. Mauldin ersetzt wurde. Am 25. Februar 1957 spielten Holly am Mikrofon und an der E-Gitarre und seine Band, bestehend aus Larry Welborn am Bass und Jerry Allison am Schlagzeug erneut das Stück "That’ll Be the Day" ein, das Petty für vielversprechend hielt. Die Titelzeile entnahm Holly dem im Vorjahr erschienenen sehr erfolgreichen John Ford-Western "The Searchers" (deutsch: "Der Schwarze Falke"), in welchem Hauptdarsteller John Wayne diesen Ausspruch mehrmals tätigt (deutsch: "Der Tag wird kommen"). Als B-Seite wurde Hollys Eigenkomposition "I’m Looking for Someone to Love" aufgenommen. Diese Aufnahmen waren zunächst nicht zur Veröffentlichung gedacht, gelangten aber dennoch in die Produktion und auf den Markt, da man sie für Master-Bänder hielt. Durch Murray Deutsch, einen befreundeten Verlagsmitarbeiter Pettys, gelangten die Bänder zu Bob Thiele, einem leitenden Angestellten von Coral Records, der ebenfalls Potenzial in den Aufnahmen sah. Jedoch gab es vor der Veröffentlichung einige Hürden: Hollys Decca-Vertrag erlaubte es ihm nicht, Stücke einzuspielen, die er bereits für Decca aufgenommen hatte. Zudem war Coral ein Tochterunternehmen von Decca, so dass die Veröffentlichung der Single schnell hätte gestoppt werden können. Trotz alledem konnte Thiele sich durchsetzten und "That’ll Be the Day" mit "I’m Looking for Someone to Love" im Mai 1957 auf Brunswick Records erscheinen, einen weiteren Tochterlabel von Decca, das sich eher auf Jazz und Rhythm and Blues konzentrierte. Jedoch wurde die Platte unter dem Bandnamen The Crickets veröffentlicht, um Hollys Mitarbeit zu verschleiern und Decca zu täuschen. Auf den Namen für die Band sollen alle gemeinsam gekommen sein, weil über den Aufnahmen von leisen Musikpassagen in Pettys kleinem Studio immer das Zirpen von Grillen (engl. "Crickets") zu hören war. Trotz der Namensänderung wurde Decca darauf aufmerksam, so dass sich ein Rechtsstreit anbahnte. Durchbruch. Im Sommer 1957 zeigte sich, dass Thiele recht behalten sollte und "That’ll Be the Day" zu einem Hit wurde. Nach einer guten Bewertung von Billboard im Juni („Fine vocal by the group on a well-made side that should get play. Tune is a medium-beat rockabilly. Performance is better than material.“) erreichte der Song Platz eins der Billboard Hot 100. Zu diesem Zeitpunkt wusste Decca bereits, dass Holly der Sänger war, konnte sich jedoch von Bob Thiele überzeugen lassen, ihn aus seinem Vertrag zu entlassen. Gleichzeitig veröffentlichte man nun auch die ältere, 1956 eingespielte Version von "That’ll Be the Day", um vom Erfolg Hollys zu profitieren. Da Petty vom kommerziellen Erfolg seiner Schützlinge überzeugt war, schlug er vor, spätere Schallplatten zweigleisig zu veröffentlichen. Thiele stimmte zu, und Holly bekam einen separaten Plattenvertrag mit Coral Records, so dass nun folglich Aufnahmen bei Brunswick unter dem Namen The Crickets und bei Coral unter Hollys Namen veröffentlicht wurden. Petty wurde zeitgleich mit dem Erfolg von "That’ll Be the Day" auch Manager der Crickets. In ihm hatte Holly zudem jemanden gefunden, der für innovative Studioexperimente offen war. Holly arbeitete zum Beispiel gerne mit der Technik des Overdubbing oder ersetzte, wie auf "Everyday" zu hören ist, das Schlagzeug durch das Schlagen der Hände auf die Oberschenkel und ein Glockenspiel. Die nächste erfolgreiche Produktion folgte am 29. Juni 1957 in Pettys Studio mit "Peggy Sue". Veröffentlicht im späten Sommer desselben Jahres, erschien der Song zusammen mit "Everyday" nun unter Hollys Namen auf dem Coral-Label und erreichte im Anschluss Platz drei der Billboard-Charts. Fast auf Anhieb waren "That’ll Be the Day" und "Peggy Sue" im Sommer 1957 weltweite Erfolge geworden. Es folgten erfolgreiche Tourneen und mehrere Fernsehauftritte in den Vereinigten Staaten und in Großbritannien. 1958 heiratete Buddy Holly Maria Elena Santiago (* 1935), der er schon zur ersten Verabredung einen Heiratsantrag gemacht hatte. Kurz darauf trennte er sich von den Crickets und Norman Petty. Die anderen Gruppenmitglieder erhielten von ihm die Namensrechte und konnten somit weiterhin unter dem Namen Crickets auftreten. 1958 erschienen mit "It’s So Easy" und "Think It Over" noch zwei Crickets-Singles mit Buddy Holly. Als Solokünstler veröffentlichte Holly im selben Jahr "Rave On", "Early in the Morning" und "Well… All Right". Im Sommer 1958 erwarb Holly eine eigene Bandmaschine und produzierte seine Musik-Demos fortan selbst. Er plante, Schauspielunterricht zu nehmen, ein eigenes Musikstudio zu bauen, und begann als unabhängiger Produzent andere Künstler zu fördern. Im Oktober 1958 nahm Holly in New York vier Stücke mit Orchesterbegleitung auf: "True Love Ways," "Moondreams," "Raining in My Heart" und "It Doesn’t Matter Anymore" Im Dezember 1958 und Januar 1959 bereitete sich Holly auf ein neues Album vor und komponierte eine Reihe von Liedern, von denen er Demoversionen aufnahm, so die Stücke "Peggy Sue Got Married," "That’s What They Say," "Crying Waiting Hoping" und "Learning the Game". Im Januar 1959 begann er mit seiner neuen Band (zu der auch der Bassist Waylon Jennings gehörte) eine US-Tournee mit anderen bekannten Künstlern, darunter Ritchie Valens, The Big Bopper (Künstlername von Jiles Perry Richardson) und Frankie Sardo. Sein letztes Konzert spielt er am Abend vor seinem Tod im „Surf Ballroom“ in Clear Lake (Iowa). Tod. Am 3. Februar 1959 kamen Holly, Valens und The Big Bopper auf dem Weg zu ihrem nächsten Auftritt in Moorhead bei einem Flugzeugabsturz – vermutlich verursacht durch einen Instrumentenablesefehler des Piloten – in der Nähe von Mason City ums Leben. 1971 setzte Don McLean diesem Unglück in seinem Lied "American Pie" ein Denkmal, als er diesen Tag mit der Textzeile „The Day the Music Died“ den Tag nannte, „an dem die Musik starb“. Die beim Absturz verstreuten Habseligkeiten, darunter Hollys blutige Brille, wurden von der Bundespolizei sichergestellt, um die Absturzursache klären zu können. Sie gerieten in Vergessenheit und wurden den Familien der Absturzopfer erst Jahre später übergeben. Die laufende Tournee wurde von Jimmy Clanton und Frankie Avalon beendet. Holly wurde vier Tage später in seiner Heimatstadt beigesetzt. Am 24. April 1959 erreichte sein Song "It Doesn’t Matter Anymore" die Spitze der britischen Charts und blieb dort drei Wochen lang. 1986 wurde Holly postum in die „Rock and Roll Hall of Fame“ aufgenommen. Equipment. Die Gitarre, mit der Buddy Holly meistens in Verbindung gebracht wird, ist die Fender Stratocaster. Er besaß fünf verschiedene Exemplare, von denen ihm die meisten kurz nach ihrem Erwerb gestohlen wurden. An akustischen Gitarren setzte er eine Gibson J-45, eine Gibson „Jumbo“, sowie eine Guild Navarre ein. Holly verwendete auf der Bühne und im Studio ausschließlich Verstärker von Fender. Anfangs benutzte er einen Fender Pro, später wechselte er zum deutlich stärkeren Fender Bassman, der Pro kam aber noch bei kleineren Gigs zum Einsatz. Kurz vor seinem Tod bekam er von Fender zwei „Twin“-Verstärker im Zuge eines Endorser-Vertrages geschenkt. Als Mikrofon setzte er live oft ein Shure 55 ein, im Studio dagegen ein Modell von Telefunken. Postumer Fankult. Hollys Heimatstadt Lubbock reagierte erst spät auf die Tatsache, dass sie einen der herausragendsten Künstler der Rock'n'Roll-Epoche hervorgebracht hat. Inzwischen gibt es in Lubbock einen Buddy Holly Park, eine Buddy Holly Avenue und das Buddy Holly Center. Dort ist ein Museum entstanden, das einerseits viele Erinnerungsstücke zum Thema Buddy Holly zeigt, andererseits aber auch Begegnungsstätte für Fans zu verschiedenen Anlässen ist. Ferner gibt es in Lubbock eine Themenstadtführung und eine Buddy-Holly-Statue. Sein Grab auf dem Friedhof in Lubbock ist eine Pilgerstätte für Fans. An der Absturzstelle des Flugzeuges, einer damals zwölf Jahre alten Beechcraft Bonanza, in der Holly, seine Freunde und der Pilot Roger Peterson starben, ließ Holly-Fan Ken Paquette ein Edelstahlmonument aufstellen, das aus einer Gitarre und drei Schallplatten besteht. 1988 gab die Deutsche Bundespost eine Buddy-Holly-Briefmarke heraus. Am 7. September 2011 wurde Holly mit einem Stern auf dem Hollywood Walk of Fame geehrt. An der Zeremonie nahmen unter anderem Hollys Witwe sowie Phil Everly teil. Gedenkveranstaltungen. Jedes Jahr finden zahlreiche Gedenkveranstaltungen statt, wie beispielsweise die Buddy Holly Week, die Paul McCartney organisiert hatte oder die Winter Dance Party, die alle Stationen Hollys letzter Tournee einbezieht und im Surf Ballroom in Clear Lake (Iowa) endet, wo sein letzter Auftritt stattfand. Auch das Clovis Music Festival und die Fifties in February erinnern an Buddy Holly. Film, Musical und Tribute-Shows. Buddy Hollys Leben wurde verfilmt, wofür Gary Busey für einen Oscar nominiert wurde und als Musical u. a. am Broadway und im Theater im Hafen Hamburg sowie im Colosseum Theater in Essen aufgeführt. Weitere Produktionen sind Shows wie "A Tribute to Buddy" und die "Buddy Holly Rock ’n’ Roll Show". Reminiszenzen anderer Künstler. Nach seinem Tod widmeten sich auch andere Künstler dem Thema Buddy Holly: Die Ärzte sangen über "Buddy Hollys Brille," Bernd Begemann den Titel "Buddy, nimm lieber den Bus", und Weezer schrieben einen Tribut-Song namens "Buddy Holly". Weitere Stücke über Holly sind Eddie Cochrans "Three Stars", Mike Berrys "Tribute to Buddy Holly", Alvin Stardusts "I Feel Like Buddy Holly", das von Mike Batt geschrieben wurde, Gyllene Tiders schwedischer Song "Ska vi älska så ska vi älska till Buddy Holly" oder Garland Jeffreys "Hail Hail Rock'n'Roll". Graham Nash nannte die Bewunderung für Buddy Holly als einen Grund für die Wahl des Bandnamens The Hollies. 2011 kam zum 75. Geburtstag eine CD "Listen To Me: Buddy Holly" mit Coverversionen seiner Lieder von bekannten Musikern wie Brian Wilson, Ringo Starr und Chris Isaak heraus. Werk. Hollys Einfluss auf die Entwicklung der Rockmusik war beträchtlich. Er war der erste erfolgreiche Musiker, der die Standard-Formation einer Rockband mit Leadgitarre, Rhythmusgitarre, Bass und Schlagzeug etablierte, was die Beatles so übernahmen. Paul McCartney erwarb alle Verlagsrechte an Hollys Kompositionen, und bei der Welt-Tournee 1994/1995 eröffneten die Rolling Stones jedes Konzert mit dem Holly-Stück "Not Fade Away," das sie 1964 schon als Single veröffentlicht hatten. Die Beatles – damals noch unter dem Namen The Quarrymen – nahmen 1958 für eine selbstproduzierte Single Buddy Hollys größten Hit, "That’ll be the Day" (veröffentlicht auf der "Beatles Anthology"), auf. Sie erklärten, dass die ersten 40 Titel, die sie komponiert hatten, unter dem direkten Einfluss von Buddy Hollys Musik geschrieben wurden. Buddy Holly schrieb fast alle seine Stücke selbst, von denen viele musikalisch anspruchsvoller waren als andere Titel dieser Zeit. Seine Stücke wurden auch von anderen Musikern nachgespielt. Einer der ersten war Bobby Vee, der beim Konzert am Tag des Unglücks für Buddy Holly einsprang und dessen Titel sang. Erfolgreich war auch Linda Ronstadt mit ihrer Fassung von "That'll Be the Day". Das Lied "Peggy Sue Got Married" lieferte den Titel für den gleichnamigen Film "Peggy Sue hat geheiratet" mit Kathleen Turner. Im Studio griff Holly oft auf die Technik des Overdubbings zurück, das heißt, er fügte eine oder mehrere Tonaufnahmen über eine bereits bestehende Tonaufnahme hinzu. Damit konnte Holly mit sich selbst im Duett singen; beispielhaft für diese Aufnahmetechnik ist der Titel "Words of Love". Zudem war Holly nach der Trennung von den Crickets und Norman Petty der erste erfolgreiche Independent-Musiker, der seine Stücke unabhängig von Plattenfirmen selbst produzierte. Buddy Holly war ein sehr produktiver Künstler, was das Schreiben und Aufnehmen betraf, wenn meist auch nur in Form von Demoaufnahmen. So nahm er zwischen 1953 und 1959 zahlreiche Stücke privat, ("Good Rockin’ Tonight, Rip It Up, Blue Suede Shoes, Two Timin’ Woman, Wait Till the Sun Shines Nellie, Smokey Joe’s Cafe"), im Studio ("Love’s Made a Fool of You, Baby Won’t You Come Out Tonight, Because I Love You, Bo Diddley, Brown Eyed Handsome Man") oder auch nicht verwendete Master ("Reminiscing, Come Back Baby, That’s My Desire") auf, was viel Raum für jahrelange Veröffentlichungen, überarbeitet und in der Rohfassung, gab. So wurden 1959/1960 sechs Eigenkompositionen, die Holly als Demos aufgenommen hatte, überarbeitet und veröffentlicht. Seit 1962 erschienen regelmäßig Alben von Holly mit Aufnahmen, die Norman Petty nachträglich mit mehr oder weniger Erfolg kommerzialisierte. Diese Aufnahmen erschienen auf den Alben "Showcase, Giant, Holly in the Hills, It Doesn’t Matter Anymore" und "Reminiscing". Ab den 1980ern erschienen immer mehr Bootlegs mit den Originalfassungen der Stücke. Außerdem hatte Buddy Holly ab 1953 immer wieder als Gastmusiker bei Aufnahmen anderer Künstler mitgewirkt. Postume Veröffentlichungen. Auch lange nach dem Tod des Künstlers existiert eine treue Fangemeinde, die weiter mit seiner Musik lebt. Die anhaltende Bedeutung Hollys zeigt sich in regelmäßigen Wiederveröffentlichungen seiner Werke. Neben den LPs, CDs und MCs, die schon seit Jahrzehnten in Fankreisen kursieren, hat das Medium DVD bereits einen großen Stellenwert eingenommen. Alte Aufnahmen aus dem US-Fernsehen, der Film "Die Buddy Holly Story" oder auch Gedenksendungen sind mittlerweile erhältlich. Im Oktober 2004 kam eine CD mit dem Titel: "Stay all night – The Country Roots of Buddy Holly" auf den Markt. Im Juni 2005 brachte die Firma Universal Music eine DVD mit CD heraus: "The Music of Buddy Holly and the Crickets," die die Karriere des Rock-’n’-Roll-Pioniers in Bild und Ton nachzeichnet. Im September 2007 veröffentlichte die Firma Rollercoaster Records eine 2-CD-Box mit dem Titel "Ohh, Annie!," auf der durch Zufall entdeckte, bisher unveröffentlichte Aufnahmen von Buddy Holly aus dem Jahr 1956 neben den bekannteren in technisch verbesserter Tonqualität enthalten sind. Kurz vor seinem Tod hatte Holly in seinem New Yorker Apartment auf Tonband die „Apartment Tapes“ aufgezeichnet. Nur von seiner Gibson-Akustikgitarre begleitet, erlebt man hier den Sänger unplugged. Diese Titel wurden offiziell nur auf einer 9-LP-Box veröffentlicht, nie auf CD. Dies öffnete einem grauen Markt Tür und Tor; es kursierten unzählige Pressungen, auf denen die Lieder veröffentlicht wurden. Erst 2009 schloss Geffen mit "Buddy Holly – Not Fade Away" mit CDs und Buch diese Lücke. Blutgruppe. Eine Blutgruppe ist eine Beschreibung der individuellen Zusammensetzung der Oberfläche der roten Blutkörperchen (Erythrozyten) von höheren Lebewesen (z.B. Mensch). Die Oberflächen unterscheiden sich durch verschiedene Glykolipide oder Proteine, die als Antigene wirken und somit zu einer Immunreaktion führen können. Eine besondere Bedeutung kommt den Blutgruppen in der Transfusionsmedizin zu. Wird nämlich einem Patienten Blut einer ungeeigneten Blutgruppe transfundiert, so kommt es zu einer Immunreaktion, die wiederum zur Verklumpung (Agglutination) des Blutes und damit zum Tod führen kann. Blutgruppen sind erblich und können verwendet werden um Verwandtschaftsverhältnisse auszuschließen (siehe auch Artikel Abstammungsgutachten). Für die Klassifikation von Blut werden die Ausprägungen bestimmter Antigene zu sogenannten Blutgruppensystemen zusammengefasst. Die beiden wichtigsten Blutgruppensysteme stellen aufgrund ihrer großen Bedeutung bei der Verträglichkeitsbeurteilung von Bluttransfusionen das "AB0-System" und das "Rhesussystem" dar. Wird Blut zweier ungleicher Blutgruppen vermischt, so verklumpt es. Ursache dafür ist die Bindungsreaktion zwischen den Antikörpern auf den roten Blutkörperchen und den Antigenen im Blutplasma. Insgesamt werden von der Internationalen Gesellschaft für Bluttransfusion (ISBT) derzeit 35 Blutgruppensysteme anerkannt und beschrieben. AB0-System. Schematische Darstellung der Erythrozyten und Serumantikörper beim AB0-System Die Antikörper gegen Faktoren im AB0-System werden beim Menschen während des ersten Lebensjahres ausgebildet. Die Kombination A und B wirkt kodominant, der Faktor 0 rezessiv. Die Blutgruppe im AB0-System wird durch ihre große Bedeutung zusammen mit dem Rhesusfaktor D seit Jahrzehnten regelmäßig weltweit erhoben. Rhesus-System. Der Name "Rhesusfaktor" kommt von den Versuchen mit Rhesusaffen, bei denen man im Jahr 1937 diesen Faktor zuerst entdeckt hatte. Dabei hatte Karl Landsteiner die gefundenen Antikörper nach A und B weitergeschrieben als C, D und E. Medizinisch besonders relevant ist unter diesen der Rhesusfaktor D. Der Rhesusfaktor wird dominant vererbt, deshalb ist das Blutgruppenmerkmal rhesus-negativ selten (ca. 15% der Bevölkerung). Die Erythrozyten Rhesus-positiver Menschen tragen auf ihrer Oberfläche ein "D-Antigen" (Rhesusfaktor "D"). Rhesus-negative Menschen haben dieses Antigen nicht. Die Antikörper gegen den Rhesusfaktor D werden bei Menschen ohne diesen Faktor nur gebildet, wenn sie mit ihm in Berührung kommen, d. h. wenn Rhesus positive Blutbestandteile (Erythrozyten und Bestandteile) eines Menschen in den Blutkreislauf einer anderen Rhesus negativen Person gelangen. Das kann bei Bluttransfusionen geschehen oder unter bestimmten Voraussetzungen in der Schwangerschaft oder bei der Geburt. Normalerweise sind die Blutkreisläufe von Mutter und Kind in der Schwangerschaft durch die Plazentaschranke voneinander getrennt und diese Schranke verhindert, dass Blutzellen des Kindes in den mütterlichen Kreislauf (oder umgekehrt) gelangen. Ist dies dennoch der Fall, etwa bei Mikrotraumata der Plazenta, bei invasiven, vorgeburtlichenen Eingriffen in der Gebärmutter und/oder am Kind, oder z. B. im Fall einer Verletzung des Kindes, der Nabelschnur oder der Plazenta bei der Geburt – Bedingung ist Einbringung des kindlichen Blutes in den mütterlichen Blutkreislauf – kann die Mutter sensibilisiert werden und Antikörper gegen das Rhesus-Antigen des Kindes bilden. Die natürliche Geburt gehört jedoch zu den nichtinvasiven Eingriffen. Auch eine kräftig blutende Wunde (etwa vaginale Wunde bei Dammriss) verhindert außerhalb des Körpers im Regelfall den Eintritt fremden Blutes in den Blutkreislauf. Je nach Art und Umfang der Invasivität des Eingriffs erheblich wahrscheinlicher ist eine Sensibilisierung bei vorangegangener Fehlgeburt und vorgenommener Ausschabung, bei induziertem Abort bzw. Schwangerschaftsabbruch und durch sonstige invasive Eingriffe im Uterus, etwa im Rahmen der Pränataldiagnostik die Chorionzottenbiopsie (CVS), Amniozentese (AC) und die Nabelschnurpunktion. Das Risiko für die Einleitung einer Bildung von Antikörpern und Immunisierung steigt dabei je nach Umfang der Invasivität bzw. dem Verletzungs- und Blutungsrisiko. Tritt der Fall einer solchen Immunisierung in der Schwangerschaft ein, dann passiert sie relativ langsam und führt bei der "ersten" Schwangerschaft üblicherweise noch nicht zu Problemen. Möglicherweise werden in geringem Maße rote Blutkörperchen im Körper des Kindes zerstört, was die typischerweise nach der Geburt auftretende leichte Gelbsucht etwas verstärken kann. Ist die Mutter jedoch vom ersten Kind "sensibilisiert", das heißt, ihr Immunsystem hat Gedächtniszellen gebildet, dann kann erneuter Blutkontakt in der "nächsten" Schwangerschaft (erneut mit einem Rhesus-positiven Kind, ca. 85% der Bevölkerung ist Rhesus-positiv, 15% Rhesus negativ) sehr schnell zur Bildung von Antikörpern bei der Mutter führen. Weil die D-Antikörper Immunglobuline vom Typ G sind (IgG-Immunglobuline), können sie in diesem Fall leicht durch die Plazentaschranke in den Blutkreislauf des Kindes wandern. Dort werden die mit D-Antikörpern der Mutter beladenen Erythrozyten des Kindes in der Milz des Kindes vorzeitig abgebaut. Es kommt zu einer hämolytischen Anämie und weiteren Folgen. Dies kann zum Morbus haemolyticus neonatorum, schlimmstenfalls zu Missbildungen oder zum Tod des Kindes führen. In leichten Fällen wird z. B. durch Phototherapie behandelt. Durch Blutaustausch kann dieser Folge entgegengewirkt werden, mögliche Antikörperbildungen können überprüft werden. Auch das gegen diesen Vorgang und seine Folgen am Kind (s. Pathogenese) üblicherweise präventiv verabreichte Medikament (etwa mittels RHOPHYLAC von CSL Behring und RHESONATIV von Octapharma) ist ein Blutprodukt. Es handelt sich um Anti-D-Antikörper und wird als "Anti D" bzw. "Anti-D-Prophylaxe" bezeichnet. Kell-System. Das Kell-System ist das drittwichtigste System bei Bluttransfusionen. Bei Blutspendern in Deutschland und Österreich wird regelmäßig auf den Kell-Antikörper getestet. 92 % der Menschen sind Kell-negativ (kk) und sollten nur Kell-negatives Blut erhalten. 7,8 % sind mischerbig Kell-positiv (Kk) und können Blut mit positivem und negativem Kellfaktor erhalten. Nur 0,2 % der Menschen sind reinerbig Kell-positiv (KK) und brauchen Kell-positives Blut. 99,8 % aller Menschen können mit Kell-negativem Blut versorgt werden, trotzdem benötigen Krankenhäuser sowohl Kell-negatives als auch Kell-positives Blut. Blutspenden mit einem positiven Kell-Faktor (KK oder Kk) können nur in wenigen Ausnahmefällen (wie z. B. Schwangerschaft) nicht verwendet werden. Die Vererbung ist noch nicht vollständig geklärt. Derzeit wird von vier antigenen Typen ausgegangen, die stark polymorph sind, was ähnlich den MHC-Genen zu starker Variation auch bei enger Verwandtschaft führt (). Der Kell-Antikörper (Anti-K, K1) wird genetisch gemeinsam mit dem Cellano-Antikörper (Anti-k, K2) zum KC-System zusammengefasst, da die Proteine sehr ähnlich sind. Die Namen dieser Antikörper vom IgG-Typ sind jeweils nach schwangeren Patientinnen benannt – Antikörper des Kell-Cellano-Systems können zu schweren Zwischenfällen bei Transfusionen und Schwangerschaften führen. MN-System. Das MN-System wird mit den weiteren Antigenen S, s und U zum MNS-System zusammengefasst. Duffy-System. Der Duffy-Faktor ist ein Antigen und zugleich ein Rezeptor für "Plasmodium vivax", den Erreger der Malaria tertiana. Duffy-negative Merkmalsträger sind resistent gegen diesen von der Anophelesmücke übertragenen Erreger, da der veränderte Rezeptor den Kontakt mit der Wirtszelle verhindert (). Weitere Systeme. "Cellano", "Kidd" (Jk), "Lewis", "Lutheran" (Lu), MNSs, P und Xg sind die Bezeichnungen für weitere Blutgruppensysteme. Sie stehen für weitere Antikörper gegen Blutbestandteile, die in der Regel nach den Patienten benannt worden sind, bei welchen sie zuerst beobachtet wurden. Weist ein Patient die entsprechenden Antikörper im Blut auf, kann es zu gefährlichen, wiederholbaren Komplikationen nach einer Bluttransfusion kommen. Zumeist ist nur der Antikörper bekannt, der mit einem Test (Verklumpung mit Testblut) nachgewiesen werden kann, während die genetischen Ursachen noch nicht bekannt sind. Bei der Untersuchung auf Blutgruppen erfolgt heute regelmäßig die Untersuchung auf seltene Antikörper. Deren positives Ergebnis muss bei der klinischen Angabe der Blutgruppe jeweils einzeln vermerkt werden. Diesen Patienten kann nur Eigenblut oder Blut von anderen Trägern mit der gleichen Besonderheit gegeben werden. Häufigkeit der Blutgruppen. Die Häufigkeiten der Blutgruppen sind regional unterschiedlich. In bestimmten Gebieten Asiens kommt Blutgruppe B am häufigsten vor, in Europa Blutgruppe A. In der Allelfrequenz ist „0“ am häufigsten auftretend, als rezessives Merkmal jedoch nicht überall als häufigste Blutgruppe präsent. Dies deutet auf einen Selektionsvorteil hin. Evolution der Blutgruppen. Zur Entstehung der verschiedenen Blutgruppen (des AB0-Systems) gibt es nur wenig gesicherte Hinweise. Molekularbiologischen Forschungen zufolge ist Blutgruppe 0 vor ca. 5 Millionen Jahren infolge einer genetischen Mutation aus Blutgruppe A entstanden. Auch hat sich herausgestellt, dass die Träger von Blutgruppe 0 im Fall einer Malaria-Infektion (Plasmodium falciparum) eine höhere Überlebenschance haben. Dieser Selektionsvorteil hat demnach dazu beigetragen, dass in den feucht-tropischen Zonen Afrikas und auf dem amerikanischen Kontinent die Blutgruppe 0 häufiger vorkommt als in anderen Weltregionen. Die Blutgruppe hat sich bei Primaten mindestens sechsmal voneinander unabhängig entwickelt. Polymorphismus tritt sowohl bei Menschen als auch bei Altweltaffen auf. Welche weiteren Faktoren die Entstehung und Verbreitung der verschiedenen Blutgruppen beeinflussten, ist noch weitgehend unklar. Verträglichkeit zwischen den Blutgruppen, Universalspender. → "Hauptartikel: Universalspender und Universalempfänger" Ein Kreuz in der Tabelle bedeutet, dass eine Transfusion vom Spender zum Empfänger möglich ist. Dies gilt zum Teil nur unter der Voraussetzung, dass nur die Blutzellen übertragen werden. Bei einer Übertragung von Vollblut, also einschließlich des Blutplasmas, sind die verschiedenen Blutgruppen des AB0-Systems immer miteinander unverträglich. Als Universalspender gilt in der Transfusionsmedizin ein Blutspender mit der Blutgruppe 0−. Erythrozyten dieser Blutgruppe weisen nämlich keine Antigene A oder B auf. U. a. um eine Zerstörung der Empfänger-Erythrozyten (Hämolyse) durch Antikörper gegen A und B im Serum eines Spenders zu vermeiden (Minor-Reaktion), verabreicht man heutzutage kein Vollblut, sondern Erythrozyten-Konzentrate, sonst wäre z. B. eine A-Spende an einen AB-Empfänger gar nicht möglich (siehe oben). Als gemeinsames Merkmal aller Blutgruppen kommt N-Acetylglucosamin in der Glykokalix der Erythrozyten vor. Daran bindet Galactose. An der Galactose ist noch Fucose gebunden. Diese bilden die Blutgruppe 0 bzw. den „Stammbaum“ aller Blutgruppen. Zusätzlich kann an der Galactose noch N-Acetylgalactosamin (Blutgruppe A) oder eine weitere Galactose binden (Blutgruppe B). Bewusstsein. Bewusstseinsvorstellung aus dem 17. Jahrhundert Bewusstsein (lateinisch "conscientia" „Mitwissen“ und "syneídēsis" „Miterscheinung“, „Mitbild“, „Mitwissen“, "synaísthēsis" „Mitwahrnehmung“, „Mitempfindung“ und "phrónēsis" von "phroneín" „bei Sinnen sein, denken“) ist im weitesten Sinne das Erleben mentaler Zustände und Prozesse. Eine allgemein gültige Definition des Begriffes ist aufgrund seines unterschiedlichen Gebrauchs mit verschiedenen Bedeutungen schwer möglich. Die naturwissenschaftliche Forschung beschäftigt sich mit definierbaren Eigenschaften bewussten Erlebens. Bedeutung des Begriffs. Das Wort „Bewusstsein“ wurde von Christian Wolff als Lehnübersetzung des lateinischen "conscientia" geprägt. Das lateinische Wort hatte ursprünglich eher Gewissen bedeutet und war zuerst von René Descartes in einem allgemeineren Sinn gebraucht worden. Der Begriff „Bewusstsein“ hat im Sprachgebrauch eine sehr vielfältige Bedeutung, die sich teilweise mit den Bedeutungen von „Geist“ und „Seele“ überschneidet. Im Gegensatz zu diesen Begriffen ist „Bewusstsein“ jedoch weniger von theologischen und dualistisch-metaphysischen Gedanken bestimmt, weswegen er auch in den Naturwissenschaften verwendet wird. Die Verwendung des Begriffes Bewusstsein ist in der Regel auf eine dieser Bedeutungen und damit auf eine Eingrenzung angewiesen. Auch drücken sich in den verschiedenen Verwendungsweisen oft unterschiedliche Weltanschauungen aus. Bewusstsein als Rätsel. In einem materialistischen Weltbild entsteht das Rätsel des Bewusstseins anhand der Frage, wie es prinzipiell möglich sein kann, dass aus einer bestimmten Anordnung und Dynamik von Materie die Vorstellung von Bewusstsein entsteht. In einem nicht-materialistischen Weltbild kann aus dem Wissen über die physikalischen Eigenschaften eines Systems keine Aussage über das Bewusstsein abgeleitet werden. Hier wird angenommen: Auch wenn zwei verschiedene Lebewesen A und B sich in exakt dem gleichen neurophysiologisch funktionalen Zustand befänden (der Naturwissenschaftlern komplett bekannt sei), könne A bewusst sein, während B es nicht sei. Die theoretische Möglichkeit eines solchen „Zombies“ ist unter Philosophen höchst umstritten. Philosophischen Gedankenexperimenten zufolge könne ein Mensch genauso funktionieren, wie er es jetzt tut, ohne dass er es bewusst erlebe (siehe: Philosophischer Zombie). Genauso könne eine Maschine sich genauso verhalten wie ein Mensch, ohne dass man ihr Bewusstsein zuschreiben würde (siehe: Chinesisches Zimmer). Die Vorstellbarkeit dieser Situationen lege offen, dass das Phänomen des Bewusstseins aus naturwissenschaftlicher Sicht noch nicht verstanden sei. Und schließlich scheine es anders als bei anderen Problemen ungeklärt, anhand welcher Kriterien eine Lösung des Problems überhaupt als solche erkennbar sein könnte. In der Philosophie war das Rätsel des Bewusstseins schon lange bekannt. Es geriet aber in der ersten Hälfte des 20. Jahrhunderts unter dem Einfluss des Behaviorismus und der Kritik von Edmund Husserl am Psychologismus weitgehend in Vergessenheit. Dies änderte sich nicht zuletzt durch Thomas Nagels 1974 veröffentlichten Aufsatz "What is it like to be a bat?" (Wie ist es, eine Fledermaus zu sein?) Nagel argumentierte, dass wir nie erfahren würden, wie es sich anfühlt, eine Fledermaus zu sein. Diese subjektiven Vorstellungen seien aus der Außenperspektive der Naturwissenschaften nicht erforschbar. Heute teilen manche Philosophen die Rätselthese – etwa David Chalmers, Frank Jackson, Joseph Levine und Peter Bieri, während andere hier kein Rätsel erkennen − etwa Patricia Churchland, Paul Churchland und Daniel Dennett. Für die Vertreter der Rätselhaftigkeit des Bewusstseins äußert sich diese in zwei verschiedenen Aspekten: "Zum einen" hätten Bewusstseinszustände einen Erlebnis­gehalt, und es sei nicht klar, wie das Gehirn Erleben produzieren könne. Dies sei das Qualiaproblem. "Zum anderen" könnten sich Gedanken auf empirische Sachverhalte beziehen und seien deshalb wahr oder falsch. Es sei aber nicht klar, wie das Gehirn Gedanken mit solchen Eigenschaften erzeugen könne. Das sei das Intentionalitäts­problem. Das Qualiaproblem. Qualia seien Erlebnisgehalte von mentalen Zuständen. Man spricht auch von Qualia als dem „phänomenalen Bewusstsein“. Das Qualiaproblem bestehe darin, dass es keine einsichtige Verbindung zwischen neuronalen Zuständen und Qualia gebe: Warum erleben wir überhaupt etwas, wenn bestimmte neuronale Prozesse im Gehirn ablaufen? Ein Beispiel: Wenn man sich die Finger verbrenne, würden Reize zum Gehirn geleitet, dort verarbeitet und schließlich ein Verhalten produziert. Nichts aber mache es zwingend, dass dabei ein Schmerzerlebnis entstehe. Die zum Teil unbekannte Verbindung zwischen den neuronalen Prozessen und den angenommenen Qualia scheine fatal für die naturwissenschaftliche Erklärbarkeit von Bewusstsein zu sein: Wir hätten nämlich nur dann ein Phänomen naturwissenschaftlich erklärt, wenn wir auch seine Eigenschaften erklärt haben. Ein Beispiel: Wasser hat die Eigenschaften bei Raumtemperatur und normalen Luftdruck flüssig zu sein, bei 100 °C zu kochen usw. Wenn man einfach nicht erklären könnte, warum Wasser normalerweise flüssig ist, so gäbe es ein „Rätsel des Wassers“. Analog dazu: Wir hätten einen Bewusstseinszustand genau dann erklärt, wenn Folgendes gelte: Aus der wissenschaftlichen Beschreibung folgen alle Eigenschaften des Bewusstseinszustands – also auch die Qualia. Da die Qualia aber eben aus keiner naturwissenschaftlichen Beschreibung folgten, blieben sie ein „Rätsel des Bewusstseins“. Das Intentionalitätsproblem. Die Annahme des Intentionalitätsproblems ist analog der Annahme des Qualiaproblems. Die grundlegende argumentative Struktur ist die gleiche. Auf Franz Brentano und seine Aktpsychologie geht die Ansicht zurück, dass die meisten Bewusstseinszustände nicht nur einen Erlebnisgehalt hätten, sondern auch einen Absichtsgehalt. Das heißt, dass sie sich auf ein Handlungsziel beziehen. Ausnahmen seien Grundstimmungen wie Langeweile, Grundhaltungen wie Optimismus und etwa nach Hans Blumenberg auch Formen der Angst. Manche Philosophen, etwa Hilary Putnam und John Searle, halten Intentionalität für naturwissenschaftlich nicht erklärbar. Innenperspektive und Außenperspektive. Es wird oft zwischen zwei Zugängen zum Bewusstsein unterschieden. Zum einen gebe es eine unmittelbare und nicht-symbolische Erfahrung des Bewusstseins, auch Selbstbeobachtung genannt. Zum anderen beschreibe man Bewusstseinsphänomene aus der Außenperspektive der Naturwissenschaften. Eine Unterscheidung zwischen der unmittelbaren und der symbolisch vermittelten Betrachtungsweise wird von vielen Philosophen nachvollzogen, auch wenn einige Theoretiker und Theologen eine scharfe Kritik an der Konzeption des unmittelbaren und privaten Inneren geübt haben. Baruch Spinoza etwa nennt die unmittelbare, nicht-symbolische Betrachtung „Intuition“ und die Fähigkeit zur symbolischen Beschreibung „Intellekt“. Es wird manchmal behauptet, dass die Ebene der unmittelbaren Bewusstseinserfahrung für die „Erkenntnis der Wirklichkeit“ die eigentlich entscheidende sei. Nur in ihr sei der Kern des Bewusstseins, das "subjektive" Erleben, zugänglich. Da diese Ebene allerdings nicht direkt durch eine "objektive" Beschreibung zugänglich sei, seien auch den naturwissenschaftlichen Erkenntnissen auf dem Gebiet des Bewusstseins Grenzen gesetzt. Bewusstsein, Materialismus und Dualismus. Die aufs Bewusstsein bezogenen antimaterialistischen Argumente basieren meist auf den oben diskutierten Konzepten Qualia und Intentionalität. Die argumentative Struktur ist dabei folgende: Wenn der Materialismus wahr sei, dann müssten Qualia und Intentionalität reduktiv erklärbar sein. Sie seien aber nicht reduktiv erklärbar. Also sei der Materialismus falsch. In der philosophischen Debatte wird die Argumentation allerdings komplexer. Ein bekanntes Argument stammt etwa von Frank Cameron Jackson. In einem Gedankenexperiment gibt es die Superwissenschaftlerin Mary, die in einem schwarz-weißen Labor aufwächst und lebt. Sie hat noch nie Farben gesehen und weiß daher nicht, wie Farben aussehen. Sie kennt aber alle physikalischen Fakten über Farbensehen. Da sie aber nicht alle Fakten über Farben kenne (sie wisse nicht, wie sie aussehen), gebe es nicht-physikalische Fakten. Jackson schließt daraus, dass es nicht-physische Fakten gebe und der Materialismus falsch sei. Gegen dieses Argument sind verschiedene materialistische Erwiderungen vorgebracht worden (vgl. Qualia). Gegen derartige dualistische Argumente sind zahlreiche materialistische Repliken entwickelt worden. Sie beruhen auf den oben beschriebenen Möglichkeiten, auf die Konzepte von Qualia und Intentionalität zu reagieren. Es existiert daher eine Vielzahl von materialistischen Vorstellungen vom Bewusstsein. Funktionalisten wie Jerry Fodor und der frühe Hilary Putnam wollten das Bewusstsein in Analogie zum Computer durch eine abstrakte, interne Systemstruktur erklären. Identitätstheoretiker wie Ullin Place und John Smart wollten Bewusstsein direkt auf Gehirnprozesse zurückführen, während eliminative Materialisten wie Patricia und Paul Churchland Bewusstsein als gänzlich unbrauchbaren Begriff einstufen. Detailliertere Beschreibungen finden sich im Artikel Philosophie des Geistes. Überblick. Da sogenannte mentale Zustände Ursachen und Wirkungen haben, lassen sie sich naturwissenschaftlich beschreiben. Sie lösen Verhalten aus und verursachen andere mentale Zustände. Diese Wirkungen werden von der Psychologie beschrieben. Doch die mentalen Zustände sind auch aufs engste mit den neuronalen Zuständen verknüpft. Diese Zusammenhänge werden von den Neurowissenschaften beschrieben. Schließlich kann die Funktionalität mentaler Zustände und neuronaler Prozesse auch so weit formalisiert werden, dass sie auf einem Computer simulierbar sind. Dies ist ein Arbeitsgebiet der künstlichen Intelligenz. An der Erforschung des Bewusstseins sind viele Einzelwissenschaften beteiligt, da es eine große Anzahl verschiedener, empirisch beschreibbarer Phänomene gibt. Ob und in welchem Maße die Naturwissenschaften damit zu einer Klärung der in der Philosophie diskutierten Probleme Qualia und Intentionalität beitragen, gilt als umstritten. Neurowissenschaften. Ein zentrales Element der neurowissenschaftlichen Erforschung des Bewusstseins ist die Suche nach neuronalen Korrelaten von Bewusstsein. Man versucht bestimmten mentalen Zuständen neuronale Abläufe gegenüberzustellen. Dieser Suche nach Korrelaten kommt die Tatsache entgegen, dass das Gehirn funktional gegliedert ist. Verschiedene Teile des Gehirns (Areale) sind für verschiedene Aufgaben zuständig. So weiß man etwa, dass das Broca-Zentrum (bzw. die Brodmann-Areale 44 und 45) im Wesentlichen für Sprachproduktion zuständig sind. Schädigungen dieser Region führen nämlich oft zu einer Sprachproduktionsstörung, der sogenannten Broca-Aphasie. Messungen der Hirnaktivität bei Sprachproduktion zeigen außerdem erhöhte Aktivität in dieser Region. Des Weiteren kann die elektrische Reizung dieses Areals zu vorübergehenden Sprachproblemen führen. Zuordnungen von mentalen Zuständen zu Hirnregionen sind jedoch fast immer unvollständig, da Reize in der Regel in mehreren Hirnregionen gleichzeitig verarbeitet werden und dabei selten komplett aufgezeichnet werden. Die begriffliche und methodische Unterscheidung von neuronalen Korrelaten des Bewusstseins und unbewusster Gehirnaktivität ermöglicht die Untersuchung der Frage, welche neuronalen Prozesse an die Bewusstwerdung eines internen Zustandes gekoppelt sind und welche nicht. Während tiefen Schlafs, einer Narkose oder einigen Arten von Koma und Epilepsie, zum Beispiel, sind weite Teile des Gehirns aktiv, ohne von bewussten Zuständen begleitet zu werden. In den vergangenen Jahren nahm die Wahrnehmungsforschung eine dominierende Position innerhalb der neurobiologischen Grundlagenforschung des Bewusstseins ein. Einige visuelle Illusionen etwa erlauben es, zu untersuchen, wie das bewusste Erleben der Sinneswelt mit den physikalischen Vorgängen der Reizaufnahme und -verarbeitung zusammenhängt. Ein Paradebeispiel hierfür ist das Phänomen der binokularen Rivalität, bei dem ein Beobachter nur eines von zwei gleichzeitig präsentierten Bildern bewusst wahrnehmen kann. Die neurowissenschaftliche Erforschung dieses Phänomens hat ergeben, dass weite Teile des Gehirns von den nicht bewusst wahrgenommenen Sehreizen aktiviert werden. Andererseits erlebt sich der Mensch auch dann als bewusst, wenn seine sinnliche Wahrnehmung und seine Aufmerksamkeit äußerst reduziert sind, wie zum Beispiel während einer luziden Traumphase. Worin daher beim Menschen der eigentümliche Zustand „bewusst zu sein“ besteht, wurde von der Hirnforschung noch nicht befriedigend beantwortet. Der Bestimmung der Gehirnaktivität, die bewusstes Erleben anzeigt, kommt zunehmend ethische und praktische Bedeutung zu. Mehrere medizinische Problemfelder, so die Möglichkeit zeitweiliger intraoperativer Wachheit während einer Vollnarkose, die Einordnung von Koma-Patienten und ihre optimale Behandlung, oder die Frage nach dem Hirntod sind hiervon direkt betroffen. Psychologie. Die Psychologie beschreibt im Detail, welche Reize in welchen Kontexten welche Bewusstseinszustände auslösen. So untersucht etwa die Wahrnehmungspsychologie, wie Sinnesreizungen Bewusstseins- bzw. Wahrnehmungszustände erzeugen. Typische Fragen sind hier: Was nimmt eine Person wahr, wenn sie gleichzeitig visuelle und auditive Reize präsentiert bekommt? Welche Reize an der Peripherie des Gesichtsfeldes werden bewusst, wenn die Aufmerksamkeit an das Zentrum gebunden wird? Dabei spielt in der Psychologie die Unterscheidung zwischen bewussten und unbewussten Vorgängen eine besondere Rolle. Nur ein kleiner Teil der Reize, die vom Gehirn verarbeitet werden, werden auch bewusst. So kann man etwa durch Priming zeigen, dass Reize, die nicht bewusst geworden sind, dennoch das Verhalten des Probanden messbar beeinflussen. Ein weiteres Beispiel ist das Phänomen der Rindenblindheit bzw. des Blindsight. Hier handelt es sich um eine Störung, bei der visuelle Informationen zwar verarbeitet werden, jedoch nicht bewusst wird. Während die Versuchspersonen also meinen, nichts zu sehen, kann man nachweisen, dass sie den visuellen Reiz durchaus teilweise verarbeitet haben. Dies geschieht, indem man sie Merkmale des Gesehenen „raten“ lässt. Kognitionswissenschaft. Da viele Einzelwissenschaften an der Erforschung von Bewusstsein beteiligt sind, ist eine umfassende Erkenntnis nur durch einen interdisziplinären Austausch möglich. Die Wissenschaftsgeschichte spiegelt dies mit dem Begriff der Kognitionswissenschaft wider. Sie wird als Zusammenarbeit von Informatik, Linguistik, Neurowissenschaft, Philosophie und Psychologie verstanden. Zeitliche Verzögerung von bewusstem Erleben. Das sehr häufig zitierte Libet-Experiment und weitergehende Nachfolgeexperimente zeigten, dass bewusstes Erleben eines Ereignisses zeitlich nach neuronalen Prozessen auftritt, die bekannterweise mit dem Ereignis korrelieren. Während die Konsequenzen dieser Experimente für das Konzept der Willensfreiheit noch nicht als abschließend geklärt gelten, besteht Einigkeit darüber, dass bewusstes Erleben relativ zu einem Teil der dazu gehörenden neuronalen Prozesse zeitverzögert auftreten kann. Unterschied zwischen bewussten und unbewussten Gehirnaktivitäten. Ein Teil von Libets Experimenten zeigte, dass der Unterschied zwischen bewussten und unbewussten Erlebnissen von der Dauer der Gehirnaktivitäten abhängen kann. Bei diesen Experimenten wurden den Versuchspersonen Reize auf die aufsteigende sensorische Bahn im Thalamus gegeben. Die Versuchspersonen sahen zwei Lampen, die jeweils eine Sekunde lang abwechselnd leuchteten. Die Versuchspersonen sollten sagen, welche der beiden Lampen leuchtete, als der Reiz verabreicht wurde. Wenn der Reiz kürzer als eine halbe Sekunde andauerte, nahmen sie den Reiz nicht bewusst wahr. Die Versuchspersonen wurden jedoch gebeten, auch wenn sie keinen Reiz bewusst wahrnahmen, zu raten, welche Lampe leuchtete, während der Reiz verabreicht wurde. Dabei zeigte sich, dass die Versuchspersonen, auch wenn sie den Reiz nicht bewusst wahrnahmen, sehr viel häufiger als nach Zufallswahrscheinlichkeit (50 Prozent) richtig rieten. Wenn der Reiz 150 bis 260 Millisekunden anhielt, rieten die Versuchspersonen in 75 Prozent der Fälle richtig. Damit die Versuchspersonen den Reiz bewusst wahrnahmen, musste der Reiz 500 Millisekunden andauern. Nach Libets Time-on-Theorie beginnen alle bewussten Gedanken, Gefühle und Handlungspläne unbewusst. D. h. alle schnellen Handlungen, z. B. beim Sprechen, beim Tennis usw. werden unbewusst vollzogen. Die Dauer der Gehirnaktivitäten ist nicht der einzige Unterschied zwischen bewussten und unbewussten Erlebnissen. Die visuelle Wahrnehmung liefert über die eine Hälfte der Fasern des Sehnervs den bewussten Anteil der fovealen Wahrnehmung. Die andere Hälfte der Nervenfasern überträgt den Hintergrund, die periphere Wahrnehmung. Gleichzeitig werden – zusätzlich zu den visuellen Sinneseindrücken – auch noch Geräusche, Gerüche, Gefühle, Berührungen, innerkörperliche Eindrücke usw. (meist unbewusst) wahrgenommen. Selbstbewusstsein. Unter der Vielfalt der Bewusstseinsphänomene hat das Selbstbewusstsein in den philosophischen, empirischen und religiösen Diskussionen eine herausgehobene Stellung. Dabei wird „Selbstbewusstsein“ nicht im Sinne der Umgangssprache als positives Selbstwertgefühl verstanden, sondern beschreibt zwei andere Phänomene. Zum einen wird hierunter das Bewusstsein seiner selbst als ein Subjekt, Individuum oder Ich (griech. und lat. "Ego") verstanden. Zum anderen bezeichnet „Selbstbewusstsein“ aber auch das Bewusstsein von den eigenen mentalen Zuständen. Hierfür wird auch oft der Begriff „Bewusstheit“ verwendet. Philosophie. Das allgemeine Selbstbewusstsein gilt Immanuel Kant als Voraussetzung für Erkenntnis Selbstbewusstsein im ersten Sinne ist insbesondere durch René Descartes ein zentrales Thema der Philosophie geworden. Descartes machte das gedankliche Selbstbewusstsein durch seinen berühmten Satz „cogito, ergo sum“ („ich denke, also bin ich“) zum Ausgangspunkt aller Gewissheit und damit auch zum Zentrum seiner Erkenntnistheorie. Descartes Konzeption blieb allerdings an seine dualistische Metaphysik gebunden, die das Selbst als ein immaterielles Ding postulierte. In Immanuel Kants transzendentalem Idealismus blieb die erkenntnistheoretische Priorität des Selbstbewusstseins bestehen, ohne dass damit Descartes Metaphysik übernommen wurde. Kant argumentierte, dass das Ich die „Bedingung, die alles Denken begleitet“ (KrV A 398), sei, ohne dabei ein immaterielles Subjekt zu postulieren. In der Philosophie der Gegenwart spielt die Frage nach dem Bewusstsein vom Selbst nicht mehr die gleiche zentrale Rolle wie bei Descartes oder Kant. Dies liegt auch daran, dass das Selbst oft als ein kulturelles Konstrukt aufgefasst wird, dem kein reales Objekt entspreche. Vielmehr lernten Menschen im Laufe der ontogenetischen Entwicklung ihre Fähigkeiten, ihren Charakter und ihre Geschichte einzuschätzen und so ein Selbstbild zu entwickeln. Diese Überzeugung hat zu verschiedenen philosophischen Reaktionen geführt. Während etwa die Schriftstellerin Susan Blackmore die Aufgabe der Konzeption vom Selbst fordert, halten manche Philosophen das Selbst für eine wichtige und positiv zu bewertende Konstruktion. Prominente Beispiele sind hier Daniel Dennetts Konzeption vom Selbst als einem „Zentrum der narrativen Gravitation“ und Thomas Metzingers Theorie der Selbstmodelle. Psychologie. Der konstruktivistische Blick auf das Selbst hat auch wichtige Einflüsse auf die empirische Forschung. Insbesondere die Entwicklungspsychologie beschäftigt sich mit der Frage, wie und wann wir zu den Vorstellungen von einem Selbst kommen. In diesem Kontext spielt auch die Frage nach Entwicklungsstörungen eine große Rolle. Wie kann es etwa dazu kommen, dass Personen eine multiple Persönlichkeit und mehrere Identitäten entwickeln? Den Verlauf struktureller Persönlichkeitseigenschaften untersuchte der Ansatz der Ich-Entwicklung. In sequentieller Abfolge wurden hier universelle und qualitativ verschiedene Entwicklungsstufen angenommen, die im Potential einer jeden Person lägen und das Fundament ihres Selbstbildes wie ihrer Haltung zur Welt hin bildeten. Selbstbewusstsein als Bewusstsein von mentalen Zuständen. Mit „Selbstbewusstsein“ kann auch das Bewusstsein von eigenen mentalen Zuständen gemeint sein, also etwa das Bewusstsein der eigenen Gedanken oder Emotionen. In der künstlichen Intelligenz wird eine analoge Perspektive durch den Begriff der Metarepräsentationen eröffnet. Ein Roboter müsse nicht nur die Information repräsentieren, dass sich vor ihm etwa ein Objekt X befinde. Er sollte zudem „wissen“, dass er über diese Repräsentation verfüge. Erst dies ermögliche ihm den Abgleich der Information mit anderen, eventuell widersprechenden, Informationen. In der Philosophie ist es umstritten, ob sich das menschliche Selbstbewusstsein in ähnlicher Weise als Metarepräsentation begreifen lässt. Bewusstsein bei Tieren. Ein Thema, das in den letzten Jahrzehnten an Popularität gewonnen hat, ist die Frage nach dem möglichen Bewusstseins bei anderen Lebewesen. An seiner Erforschung arbeiten verschiedene Disziplinen: Ethologie, Neurowissenschaft, Kognitionswissenschaft, Linguistik, Philosophie und Psychologie. Beispielsweise können Hunde, wie alle höher entwickelten Tiere, zwar Schmerz empfinden, aber wir wissen nicht, inwieweit sie ihn bewusst verarbeiten können, da sie eine derartige bewusste Verarbeitung nicht mitteilen können. Dazu bedarf es Gehirnstrukturen, die sprachlich gefasste Vorstellungen verarbeiten können. Etwa bei Schimpansen, die Zeichensysteme erlernen können, und Graupapageien ist diese Barriere teilweise durchbrochen. Der Gradualismus, der die plausibelste Position zu sein scheint, prüft für jede Spezies von neuem, welche Bewusstseinszustände sie haben kann. Besonders schwierig gestaltet sich dies bei den Tieren, die eine von der menschlichen stark verschiedene Wahrnehmung besitzen. Lange Zeit wurde vermutet, dass Ich-Bewusstsein allein bei Menschen vorkomme. Inzwischen ist jedoch erwiesen, dass sich auch andere Tiere, wie etwa Schimpansen, Orang-Utans, Rhesusaffen, Schweine, Elefanten, Delfine und auch diverse Rabenvögel im Spiegel erkennen können, was einer weit verbreiteten Auffassung zufolge ein mögliches Indiz für reflektierendes Bewusstsein sein könnte. Ein Gradualismus in Bezug auf die Existenz von Bewusstsein steht nicht vor dem Problem, zu klären, wo im Tierreich Bewusstsein anfängt. Vielmehr geht es hier darum, die Bedingungen und Beschränkungen von Bewusstsein für jeden Einzelfall möglichst genau zu beschreiben. Experimente einer Forschergruppe um J. David Smith deuten möglicherweise darauf hin, dass Rhesusaffen zur Metakognition fähig sind, also zur Reflexion über das eigene Wissen. Bewusstsein in den Religionen. Im Zusammenhang mit religiösen Vorstellungen von einer Seele und einem Leben nach dem Tod (siehe z. B. Judentum, Christentum und Islam) spielen die Begriffe Geist (Gottes) und Seele eine wesentliche Rolle für das Verständnis von Bewusstsein. Demnach könne menschliches Bewusstsein nicht - wie von den Wissenschaften versucht - allein als Produkt der Natur oder Evolution, sondern ausschließlich im Zusammenhang mit einer transpersonalen oder transzendenten Geistigkeit verstanden und erklärt werden. Diese göttliche Geistigkeit sei es, welche – wie alles natürlich Belebte – auch das Bewusstsein „lebendig mache“ bzw. „beseele“, d. h. zur menschlichen Ich–Wahrnehmung befähige. Im Tanach heißt es, die „rûah“ (hebräisches Wort für Geist, oder synonym auch im Zusammenhang mit „næfæsch“, Seele, gebraucht) haucht dem Geschöpf Leben ein. Sie ist es, welche die Lebensfunktionen geistiger, willensmäßiger und religiöser Art ausübt. Auch im Neuen Testament wird erklärt, dass der Leib erst durch den Geist Gottes zum eigentlichen Leben kommt. Es heißt z. B.: „Der Geist (Gottes) ist es, der lebendig macht; das Fleisch nützt nichts“. Bei Paulus war die Unterscheidung zwischen dem Reich des Geistes (vgl. ewiges Ich) und dem Reich des Fleisches (sterbliche Natur) zentral. Sinngleiches findet sich auch im Koran, wo es z. B. heißt, dass Gott Adam von seinem Geist (vgl. arabisches Wort "rūh") einblies und ihn auf diese Weise lebendig machte (Sure 15:29; 32:9; 38:72). Im Lehrsystem des basrischen Muʿtaziliten an-Nazzām (st. 835-845) wird der Geist als Gestalt bzw. Wesen dargestellt, die sich wie ein Gas mit dem Leib vermischt und ihn bis in die Fingerspitzen durchdringt, sich beim Tode aber wieder aus dieser Verbindung löst und selbständig (vgl. „ewiges Ich“) weiterexistiert. Im Christentum werden die Begriffe Seele und Geist (auch „Heiliger Geist“) scharf vom Geist des Menschen unterschieden. Dies ergibt sich auch daraus, dass erstere Begriffe in ihrer Bedeutung näher an der Metaphysik klassischer christlicher Fundamentaltheologie und Philosophie sind: Sie legen nämlich die Existenz eines nichtmateriellen Trägers von Bewusstseinszuständen nahe. Dennoch spielt der Begriff des Bewusstseins auch in modernen christlichen Debatten eine Rolle. Dies geschieht etwa im Kontext von Gottesbeweisen. So wird argumentiert, dass die Interaktion zwischen immateriellen Bewusstseinszuständen und dem materiellen Körper nur durch Gott erklärbar sei oder dass die interne Struktur und Ordnung des Bewusstseins im Sinne des teleologischen Gottesbeweises auf die Existenz Gottes schließen lasse. Verschiedene buddhistische Traditionen und hinduistische Yoga-Schulen haben gemeinsam, dass hier die direkte und ganzheitliche Erfahrung des Bewusstseins im Mittelpunkt steht. Mit Hilfe der Meditation oder anderer Übungstechniken würden bestimmte Bewusstseinszustände erfahren, indem personale und soziale Identifikationen abgebaut würden. Eine besondere Unterscheidung wird hier zur Bewusstheit getroffen, die ein volles Gewahrsein (awareness) des momentanen Denkens und Fühlens bedeute. Sie solle erreicht werden durch die Übung der Achtsamkeit. Einsichten in die „Natur“ des Bewusstseins sollten so über eine eigene Erfahrung gewonnen werden, die über einen rein reflektierten und beschreibenden Zugang hinausgehe. Das Konzept der Trennung von Körper und Geist oder Gehirn und Bewusstsein werde als eine Konstruktion des Denkens erfahren. Generell wollten alle mystisch-esoterischen Richtungen in den Religionen (z. B. Gnostizismus, Kabbala, Sufismus, u. a.) eine Bewusstseinsveränderung des Menschen bewirken. Tatsächlich zeigen „neurotheologische“ Forschungen mit bildgebenden Verfahren, dass durch langjährige Meditationspraxis ungewöhnliche neuronale Aktivitätsmuster und sogar neuroanatomische Veränderungen entstehen können. Bosnische Sprache. Bosnisch (auf Bosnisch: "bosanski jezik") ist eine Standardvarietät aus dem südslawischen Zweig der slawischen Sprachen und basiert wie Kroatisch und Serbisch auf einem štokavischen Dialekt. Bosnisch wird von ca. 2,5 Millionen Menschen in Bosnien und Herzegowina, wo es eine der drei Amtssprachen ist, als Muttersprache der Bosniaken gesprochen. Daneben wird es auch in Serbien und Montenegro von etwa 245.000 Menschen gesprochen, in Westeuropa und den USA von etwa 150.000 Auswanderern, sowie von mehreren zehntausend Aussiedlern in der Türkei. Die Sprache wird inzwischen fast ausschließlich mit einer Erweiterung des lateinischen Alphabets geschrieben, nur noch sehr selten wird das kyrillische Alphabet verwendet. Die Bezeichnung „Bosnisch“ ist im ISO-639-Standard festgelegt. Sowohl grammatikalischen Kriterien zufolge als auch im Wortschatz ist die bosnische Sprache der kroatischen und serbischen Sprache so ähnlich, dass sich alle Bosnischsprecher mühelos mit Sprechern des Serbischen und Kroatischen verständigen können. Aufgrund dessen ist politisch umstritten, ob Bosnisch eine eigenständige Sprache oder eine nationale Varietät des Serbokroatischen ist. Aufgrund der gemeinsamen Geschichte von Bosnien und Herzegowina, Kroatien und Serbien ist die Auffassung bezüglich der Eigenständigkeit der Sprache stets auch eine politisch gefärbte und wird daher abhängig vom politischen Standpunkt unterschiedlich bewertet. Geschichte. Das Bosnische hat im Laufe seiner geschichtlichen Entwicklung neben lateinischer und kyrillischer Schrift auch verschiedene andere Alphabete verwendet: Bosančica (eine spezielle kyrillische Schrift, die vor allem in Bosnien-Herzegowina, aber auch in Dalmatien verwendet wurde; auch Begovica genannt), Arebica (eine erweiterte arabische Schrift angepasst auf das bosnische Alphabet) und in einigen Gebieten auch die Glagoliza. Die in Bosnien gesprochenen Dialekte sind zwar linguistisch homogener als die in Kroatien oder Serbien, jedoch wurde es während des 19. Jahrhunderts aus geschichtlichen Gründen versäumt, eine Standardisierung der Sprache durchzuführen. Das erste bosnische Wörterbuch war ein bosnisch-türkisches Wörterbuch von Muhamed Hevaji Uskufi aus dem Jahr 1631. Ursache für den letzteren Punkt dürfte die Tatsache sein, dass Bosnien und Herzegowina lange Zeit abwechselnd mal zum Okzident, mal zum Orient gehörten. Das erklärt auch die Herkunft der arabischen Wörter, die in einer slawischen Sprache sonst eher selten anzutreffen sind. Da der Orient im Mittelalter kulturell und intellektuell weiter vorangeschritten war als der Okzident, verwundert es nicht, dass die Elite orientalische Sprachen bevorzugte – stammte sie doch größtenteils aus eben jenem Raum. Die Kodifizierungen der bosnischen Sprache während des 19. und 20. Jahrhunderts wurden meist außerhalb Bosnien-Herzegowinas entwickelt. Zum Jahrhundertwechsel kam es zur sogenannten „Bosnischen Renaissance“, auf der die bosnische Sprache bis heute aufbaut: Es wurden vor allem Begriffe normiert, die eher der kroatischen als der serbischen Form ähnelten, das heißt, es wurde die westlich-štokavisch-ijekavische Form mit lateinischer Schrift als Regel festgelegt, wobei aber auch viele spezifisch bosnische Begriffe eingebaut wurden. Die wichtigsten bosnischen Autoren dieser Zeit, die zur Normierung der Sprache beigetragen haben, waren Safvet-beg Bašagić, Musa Ćazim Ćatić und Edhem Mulabdić. Während der Periode des sozialistischen Jugoslawiens wurde nur der Begriff Serbokroatisch verwendet. Innerhalb des Serbokroatischen überwog jedoch das Serbische, wobei die lateinische Schrift beibehalten wurde. Seit dem Zerfall Jugoslawiens in verschiedene Nationalstaaten werden die vorher als Varianten bezeichneten Formen als verschiedene Sprachen anerkannt. Im Bosnischen wurden großteils die Regeln aus der Zeit vor dem Ersten Weltkrieg („Bosnische Renaissance“) wiederhergestellt. Das Bosnische zeichnet sich gegenüber dem Serbischen und Kroatischen vor allem durch eine etwas höhere Anzahl von Fremd- und Lehnwörtern aus dem Türkischen, Arabischen und Persischen (Turzismen) aus. Außerdem ist die Betonung des Buchstabens 'h' stärker ausgeprägt als in den anderen beiden südslawischen Sprachen. Unterschiede zu anderen südslawischen Sprachen. "Hauptartikel: Unterschiede zwischen den serbokroatischen Standardvarietäten" Orthographie. Die bosnische Rechtschreibung ist großteils ähnlich der kroatischen oder der serbischen. Ein häufiger vorkommender Unterschied ist bei der Verwendung der Zukunfts-Form (Futur) gegeben. Während im Serbischen der Infinitiv mit dem Hilfswort „ću“ verschmolzen wird, werden im Bosnischen und Kroatischen diese Wörter separat geschrieben, z. B. Ein weiterer Unterschied besteht darin, dass fremdsprachliche Eigennamen im Bosnischen einmal in der originalen, unveränderten Schreibweise wiedergegeben (z. B. „New York“), ein andermal transkribiert werden (z. B. „Minhen“), während diese Wörter im Serbischen immer transkribiert („Nju Jork“) und im Kroatischen immer im Original übernommen werden („München“). Akzentuierung. Die Akzentuierung, also die Betonung der Wörter, ist in Bosnien und Herzegowina (aber auch in Kroatien, Serbien und Montenegro) je nach Region stark ausdifferenziert. Die Betonung der Wörter ist somit nicht an Standardsprachen gebunden, seien dies Bosnisch, Kroatisch oder Serbisch, sondern an die unterschiedlichen Regionen. Grammatik. Im Kroatischen wird nach modalen Hilfsverben mehrheitlich die Infinitivkonstruktion gewählt, die im Bosnischen und Serbischen oft mit „da“ (dass) umschrieben wird. Im Bosnischen sind aber grundsätzlich jeweils beide Varianten zulässig, z. B. Alphabet und Aussprache. a, b, c, č, ć, d, dž, đ, e, f, g, h, i, j, k, l, lj, m, n, nj, o, p, r, s, š, t, u, v, z, ž. Die Buchstaben q, w, x, y kommen nur in fremdsprachigen Eigennamen vor, was vor allem bei Fremdwörtern auffällt (z. B. Phönix = "feniks", nicht "fenix"). Die Digraphen dž, lj und nj werden in der alphabetischen Ordnung jeweils als ein einziger Buchstabe behandelt. Es gibt nur eine sehr geringe Anzahl von Wörtern, in denen diese Zeichengruppen zwei getrennte Laute bezeichnen und deshalb als zwei Buchstaben behandelt werden müssen (z. B. „nadživjeti“ – jemanden überleben). Die Mehrzahl der Buchstaben werden im Großen und Ganzen wie im Deutschen ausgesprochen. Grammatik. Grammatikalisch betrachtet hat das Bosnische sieben Fälle (Kasus): Nominativ, Genitiv, Dativ, Akkusativ, Vokativ, Instrumental und Lokativ. Die Grammatik ist – bis auf wenige Ausnahmen – fast identisch mit jener des Kroatischen und des Serbischen. Kontroversen. Die Bezeichnung „bosnische Sprache“ (bosn. "bosanski jezik") ist bei Sprachwissenschaftlern sehr umstritten. Einige serbische oder kroatische Strömungen bevorzugen die Bezeichnung „bosniakische Sprache“ („"bošnjački jezik"“), weil nach deren Ansicht die Sprache nicht von allen Bosniern, sondern nur von Bosniaken gesprochen wird und damit einen Versuch der Minderheitenunterdrückung bedeutet. Jedoch entspringen solche Standpunkte oft eher politischen als linguistischen Argumentationen. Einige Sprachexperten stellen die Existenz der Sprache überhaupt in Frage, weil in der Sprache die kulturellen Unterschiede aus politischen Gründen zusammengefasst worden seien. Die Bezeichnung „Bosnisch“ ist allerdings international anerkannt und wird auch im Dayton-Vertrag verwendet. Bernstein. Bernstein (aus mittelniederdeutsch "Börnsteen", „Brennstein“) bezeichnet den seit Jahrtausenden bekannten und insbesondere im Ostseeraum weit verbreiteten klaren bis undurchsichtigen gelben Schmuckstein aus fossilem Harz. Damit ist überwiegend nur ein bestimmtes fossiles Harz gemeint, dieser Bernstein im engeren Sinne ist die Bernsteinart mit dem wissenschaftlichen Namen "Succinit". Die Bezeichnungen "Succinit" und "Baltischer Bernstein" werden oft synonym verwendet, da Succinit den weitaus überwiegenden Teil des Baltischen Bernsteins ausmacht. Die anderen fossilen Harze im Baltischen Bernstein stammen von unterschiedlichen Pflanzenarten und werden auch als „Bernstein im weiteren Sinne“ bezeichnet. Manche kommen mit dem Succinit zusammen vor, z. B. die schon lange aus den baltischen Vorkommen bekannten Bernsteinarten Gedanit, Glessit, Beckerit und Stantienit. Diese werden auch als akzessorische Harze bezeichnet. Andere fossile Harze verschiedener botanischer Herkunft bilden hingegen eigenständige Lagerstätten unterschiedlichen geologischen Alters, wie z. B. der Dominikanische Bernstein und der Libanon-Bernstein. Von der großen Gruppe der Kopale gehören nur die fossilen, aus der Erde gegrabenen Vertreter (z. B. der „Madagaskar-Kopal“) entsprechend der Definition (siehe Abschnitt Bernsteinarten) trotz ihres geologisch jungen Alters zu den Bernsteinen. Dieser Beitrag behandelt das Thema Bernstein im Allgemeinen und wegen ihrer überragenden wissenschaftlichen, kulturellen und wirtschaftlichen Bedeutung die häufigste baltische Bernsteinart, den Succinit, im Besonderen. Der älteste bekannte Bernstein stammt aus etwa 310 Millionen Jahre alten Steinkohlen. Seit dem Paläozoikum ist das Harz damaliger Bäume als feste, amorphe (nicht kristalline) Substanz erhalten geblieben. Von der International Mineralogical Association (IMA) ist Bernstein aufgrund seiner nicht eindeutig definierbaren Zusammensetzung nicht als eigenständige Mineralart anerkannt. Er bildet aber in der Systematik der Minerale innerhalb der Klasse der Organischen Verbindungen eine eigene Mineralgruppe, die in der 9. Auflage der Systematik nach Strunz unter der System-Nr. "10.C" (Diverse organische Mineralien) zu finden ist (8. Auflage: IX/C.01) Bereits seit vorgeschichtlichen Zeiten wird Bernstein als Schmuck und für Kunstgegenstände genutzt. Einige in Ägypten gefundene Objekte sind z. B. mehr als 6000 Jahre alt. Das berühmteste Kunstobjekt aus Bernstein war das Bernsteinzimmer, das seit dem Zweiten Weltkrieg verschollen ist. In den Jahren 1979 bis 2003 haben russische Spezialisten im Katharinenpalast bei Puschkin das für die Öffentlichkeit wieder zugängliche Bernsteinzimmer mit Bernstein von Jantarny detailgetreu rekonstruiert, nachdem bis dahin unbekannte Fotografien gefunden worden waren, die dieses einzigartige Projekt ermöglichten. Für die Wissenschaft, insbesondere für die Paläontologie, ist Bernstein mit Einschlüssen, den so genannten Inklusen, von Interesse. Diese Einschlüsse sind Fossilien von kleinen Tieren oder Pflanzenteilen, deren Abdrücke, in seltenen Fällen auch Gewebereste, im Bernstein seit Jahrmillionen perfekt erhalten sind. Etymologie. Die deutsche Bezeichnung "Bernstein" leitet sich vom mittelniederdeutschen "börnen" (brennen) beziehungsweise "börnesteen" (auch "Börnsteen") ab und ist auf die auffällige Brennbarkeit dieses „Steins“ zurückzuführen. Andere im deutschsprachigen Raum historisch verwendete Namen sind "glaere, lynkurer, agstein, agtstein, agetstein" und "amber". Das altgriechische Wort für Bernstein ist "ḗlektron" (ἤλεκτρον), was mit „Hellgold“ übersetzt werden kann. Die Wurzel des Wortes "ḗlektron" stammt aus der indogermanischen Ursprache und hat die eigentliche Bedeutung „hell, glänzend, strahlend“. In vornehmen antiken Haushalten diente ein größerer Bernstein als Kleiderbürste; durch das Gleiten am Stoff lud er sich elektrostatisch auf und zog dann die Staubteilchen an sich. Das Phänomen der statischen Elektrizität beim Reiben von Bernstein mit bestimmten Materialien war bereits Thales von Milet bekannt. Damit konnte das griechische Wort für Bernstein zum modernen Namensgeber des Elementarteilchens Elektron und der Elektrizität werden. Dieses einfache elektrostatische Aufladen von Bernstein wurde auch für frühe Versuche zur Elektrizität benutzt. In der griechischen Antike wurde Bernstein auch als "Lyncirium" (Luchsstein) bezeichnet, möglicherweise weil man annahm, er sei aus dem Harn des Luchses entstanden, der bei starker Sonneneinstrahlung hart geworden sei. Allerdings wird in der Literatur auch die Ansicht vertreten, dass diese Bezeichnung lediglich eine Verballhornung des Wortes "ligurium" darstellt, mit dem in der Antike Bernstein bezeichnet und zum Ausdruck gebracht wurde, dass es sich um ein ligurisches Produkt handelt. Es wird für wahrscheinlich gehalten, dass die mit Bernstein Handel treibenden Phönizier ihre Ware von den Ligurern erhielten, die während des ersten vorchristlichen Jahrtausends lange Zeit am südlichen Endpunkt (Rhonedelta) einer der antiken Bernsteinstraßen siedelten. Die Römer bezeichneten den Bernstein mit dem griechischen Fremdwort "electrum" oder nannten ihn "succinum" (wohl nach "succus", dicke Flüssigkeit, Saft) in der richtigen Vermutung, er sei aus Baumsaft entstanden. Weitere (mittellateinische) Bezeichnungen sind "lapis ardens" und "ligurius". Die germanische Bezeichnung des Bernsteins lautete nach Tacitus "glesum", in dem das Wort Glas seinen Ursprung hat. Im Arabischen wird Bernstein als "anbar" bezeichnet; hieraus leitet sich die heutige Bezeichnung für Bernstein in einigen Sprachen ab (z. B. engl: amber; frz.: ambre jaune; span.: el ámbar; ital.: ambra). Allgemeine Definitionen. In der rezenten Pflanzenwelt, besonders häufig in den Tropen und Subtropen, sind hunderte Pflanzenarten bekannt, die Harz absondern. Von einigen, häufig inzwischen ausgestorbenen Arten ist das Harz fossil erhalten geblieben. Im wissenschaftlichen Sprachgebrauch wird seit langem der Name Bernstein als Sammelbegriff für alle feste Partikel bildenden fossilen Harze verwendet. Für das von einer bestimmten Pflanzenart stammende fossile Harz hat sich der Begriff Bernsteinart eingebürgert. Obwohl Bernsteine keine Minerale sind, wird in Anlehnung an die mineralogische Nomenklatur für die Bernsteinarten die Endsilbe -it verwendet. Bereits seit 1820 trägt die häufigste baltische Bernsteinart, der Bernstein im engeren Sinne, den Namen "Succinit". Gebräuchlich ist auch die Verbindung mit Namen von Regionen oder Orten, z. B. „Baltischer Bernstein“, „Dominikanischer Bernstein“, „Bitterfelder Bernstein“. Ursprünglich wurden damit nur ganz allgemein Fundorte von Bernsteinen bzw. Kollektive von Bernsteinarten gekennzeichnet. In der baltischen Bernsteinlagerstätte sind andere Bernsteinarten sehr selten, so dass für die dominierende Bernsteinart Succinit umgangssprachlich der Name Bernstein verwendet wird, früher war auch der Begriff „deutscher Bernstein“ gebräuchlich. Die häufig verwendete Bezeichnung „Baltischer Bernstein“ für Succinit ist wegen der vor einiger Zeit bekannt gewordenen zahlreichen Funde in Mitteldeutschland wissenschaftlich nicht haltbar und sollte zur Vermeidung von Irrtümern nicht verwendet werden. Denn auch in der weltweit zweitgrößten Bernsteinlagerstätte Bitterfeld ist der Succinit die häufigste Bernsteinart und ein sich dann ergebender Name „Baltischer Bernstein aus Bitterfeld“ würde zu Missverständnissen führen. Für die Bernsteinart Succinit ist zur Verknüpfung der umgangssprachlichen mit der wissenschaftlichen Bezeichnung der Name Bernstein (Succinit) am besten geeignet. Da in beiden Lagerstätten auch andere Bernsteinarten vorkommen, müsste die Bezeichnung „Baltischer Bernstein“ auf die regionale Herkunft beschränkt werden. Gleichermaßen ist der „Ukrainische Bernstein“ ein Kollektiv von Bernsteinarten, und auch dieser Begriff sollte nur zur Kennzeichnung des regionalen Vorkommens Anwendung finden. Bei den Bernsteinarten werden wie bei den Mineralen nach ihrer Farbe, Transparenz und anderen Merkmalen Varietäten unterschieden. Sie sind substanziell identisch und stammen von derselben Erzeugerpflanze ab. Nach der äußeren Erscheinung sind Naturformen zu unterscheiden: Ihre Gestalt geht auf die unmittelbare Absonderung des Harzes sowie die Veränderung der Gestalt beim Transport vom Erzeugerbaum bis in die Lagerstätte zurück. Zur Kennzeichnung bei der technischen Gewinnung und Verarbeitung des Succinit werden Sorten und Handelssorten unterschieden. Bernsteinarten. Weltweit sind mehr als 80 Bernsteinarten bekannt, die zumeist aber nur in geringer Menge vorkommen. Eine Auswahl findet sich im Artikel Bernsteinvorkommen. Die häufigste Bernsteinart ist der Succinit, allein im Baltikum sollen es nach einer Schätzung noch mehr als 640.000 t sein. Von den baltischen Vorkommen sind schon seit dem 19. Jahrhundert die akzessorischen Bernsteinarten Gedanit, Glessit, Beckerit und Stantienit bekannt. Über die im Abfall (Brack) bei der Bernsteingewinnung in Bitterfeld gefundenen akzessorischen fossilen Harze gab es langjährige und auch konträr geführte Diskussionen, z. B. Inzwischen wurden die durch die große Seltenheit verursachten Irrtümer revidiert. In der Bitterfelder Bernsteinlagerstätte kommen neben dem mit 99,9 % dominierenden Succinit die Bernsteinarten Gedanit, Glessit, Beckerit, Stantienit, Goitschit, Bitterfeldit, Durglessit und Pseudostantienit sowie weitere elf noch nicht namentlich gekennzeichnete fossile Harze vor. Die Kopale, soweit nicht auch von Bäumen gesammeltes rezentes Harz einbezogen wird, sind junge fossile Harze der Tropen und Subtropen in West- und Ostafrika, Madagaskar, dem Malaiischen Archipel, Neuseeland und Kolumbien. Sie werden von manchen Autoren trotz ihres geringen geologischen Alters ebenfalls als Bernsteinart angesehen. Ihre gegenüber älteren Bernsteinarten geringere Härte und größere Löslichkeit sind nicht, wie häufig angenommen wird, eine Folge der „Unreife“, sondern wie bei den ähnlich weichen älteren Bernsteinarten Goitschit und Bitterfeldit aus Bitterfeld eine Eigenschaft des Ausgangsharzes. Bernsteinvarietäten. Varietäten des Succinit aus der Bitterfelder Lagerstätte Auch von selteneren Bernsteinarten, z. B. Glessit und Bitterfeldit, sind Varietäten bekannt. Sorten und Handelssorten. Der industriell gewonnene Bernstein (Succinit) kommt insbesondere nach der Größe und den Varietäten sortiert in den Handel. Nicht für die Schmuckherstellung, sondern allenfalls für die Bernsteindestillation geeigneter verunreinigter oder zu feinkörniger Bernstein wird als Brack, Schlack oder Firnis bezeichnet. "„Rohbernstein“" trägt in der Regel noch eine Verwitterungskruste, sofern diese nicht durch längeres Treiben am Meeresgrund abgeschliffen wurde. Dieser und geschliffener und polierter Bernstein, dessen innere Struktur oder Farbe nicht künstlich verändert wurde, werden als „Naturbernstein“ bezeichnet. Im Handel erhältlicher Bernsteinschmuck enthält oft "klargekochten" Bernstein. Es handelt sich dabei um ursprünglich trüben „unansehnlichen“ Naturbernstein, welcher in heißem Öl gekocht wurde. Öl hat einen deutlich höheren Siedepunkt als Wasser, daher werden Temperaturen erreicht, bei denen das fossile Harz weich und durchlässiger wird und die winzigen Luftbläschen mit Öl ausgefüllt werden. Der Lichtbrechungsfaktor von Öl ist mit dem des Bernsteins nahezu identisch, somit sind die Bläschen nach der Abkühlung des Bernsteins nicht mehr sichtbar. Das Ergebnis ist ein glasklarer, einheitlich gefärbter „Stein“. Das Verfahren hat jedoch einen Schönheitsfehler: Der derart behandelte Bernstein ist während des Abkühlvorganges sehr empfindlich. Wird das Material nicht Grad für Grad behutsam abgekühlt, entstehen darin sogenannte „Sonnenflinten“, mehr oder weniger halbkreisförmige, goldglänzende Sprünge. Diese sind in unbehandeltem Bernstein nur sehr selten und allenfalls an Bruchstellen zu finden. Mitunter wird der Abkühlungsprozess aber auch ganz bewusst so gesteuert, dass sich dekorative und attraktive Flinten bilden. Zur Klärung kann anstelle des „Klarkochens“ in Öl auch eine Erhitzung des Bernsteins in einem Sandbad erfolgen. Bei diesem Verfahren füllen sich die Bläschen mit einer harzigen Masse, die der Bernstein selbst liefert. Geklärter Bernstein ist kein reines Naturprodukt mehr. "Pressbernstein" wird im Handel missverständlich als "Echtbernstein", "echter Bernstein" oder "Ambroid" angeboten. Damit ist jedoch nicht der natürlich entstandene Bernstein gemeint, sondern ein Produkt, das aus Schleifresten und kleinen Stücken in einem Autoklav gefertigt wurde. Pressbernstein wird hergestellt, indem gereinigte Bernsteinbröckchen erwärmt und dann unter starkem Druck zusammengepresst werden. Das geschieht unter Luftabschluss und bei einer Temperatur von 200 bis 250 °C. Bei einem Druck bis 3000 bar wird die Masse zu stangen- oder bogenförmigen Körpern verfestigt. Durch Variation von Hitze und Druck lassen sich unterschiedliche Farbtöne und sowohl klarer als auch trüber Pressbernstein herstellen. Neben diesen Formen von Bernstein wird im Handel "Echtbernstein extra" angeboten, ein Pressbernstein, der bis auf seine unregelmäßigen Blitzer aufgrund seiner geringen und feingliedrigen Schlierenverteilung visuell kaum vom Naturbernstein zu unterscheiden ist. Er kann nur durch gemmologische Untersuchungsmethoden eindeutig bestimmt werden. Eigenschaften. Bernstein (ca. 12 cm Ø) Die Farbe des Bernsteins (Succinit) reicht von farblos über weiß, hell- bis goldgelb und orange bis hin zu Rot- und Brauntönen, bei getrübten Stücken können durch Lichtbrechungseffekte selten auch grünliche und bläuliche Töne auftreten. Dunkelbraune bis schwarzgraue Stücke enthalten größere Mengen pflanzlicher und mineralischer Einschlüsse. Der Trübungsgrad hängt von der Anzahl der in ihm enthaltenen mikroskopisch kleinen Bläschen ab. Die Varietät "Knochen" (Weißharz) hat die größte Bläschendichte (Größe: 0,0002 bis 0,0008 mm, Anzahl: bis zu 900.000/mm²). Veraltet ist die Ansicht, dass die Bläschen mit „Wasser und terpenhaltigem Öl gefüllt“ sein sollen, also der Zellsaft der Bernsteinbäume erhalten geblieben sei. Im bergfrischen Zustand sind die Bläschen mit Wasser gefüllt. Da Bernstein nicht gasdicht ist, verdunstet das Wasser an der Luft mehr oder weniger rasch. Bei größeren Hohlräumen kann dabei zwischenzeitlich wie bei einer Wasserwaage eine Libelle entstehen. Bei anderen Bernsteinarten ist das Farbspiel wesentlich größer, z. B. tiefschwarze (Stantienit, Pseudostantienit), dunkelblaugraue (Glessit) und auch blutrote Farben. Allseits bekannt ist der Blauschimmer, der beim Dominikanischen Bernstein häufig auftritt. Bernstein (Succinit) kann im Gegensatz zu Imitationen aus Kunstharz leicht angezündet werden und zeigt während des Brennens eine gelbe, stark rußende Flamme. Dabei duftet er harzig-aromatisch und verläuft an der Flamme zu einer schwarzen, spröde erhärtenden Masse. Der harzige Geruch entsteht, weil flüchtige Bestandteile (ätherische Öle) des Bernsteins verbrennen. Deshalb eignet er sich zum Räuchern und wird zum Beispiel in Indien als Weihrauchersatz für sakrale Zwecke verwendet. Physikalische Eigenschaften. Bernstein (Succinit) hat eine Mohshärte von 2 bis 2,5 und ist damit ein recht weiches Material. Es ist möglich, mit einer Kupfermünze eine Furche in die Oberfläche zu ritzen. Manche andere Bernsteinarten sind viel weicher (z. B. Goitschit, Bitterfeldit, Kopale) oder sehr viel härter, z. B. die Braunharze, die sich kaum mit einer Stahlnadel ritzen lassen. Andere haben eine gummiartige Konsistenz (z. B. Pseudostantienit) oder sind außerordentlich zäh (z. B. Beckerit). Bernsteine sind nur wenig dichter als Wasser. Wegen ihrer geringen Dichte (um 1,07 gcm−3) schwimmen sie in gesättigten Salzlösungen. Diese Eigenschaft wurde bei der Bernsteingewinnung in Bitterfeld genutzt, um im Siebrückstand >3 mm den Bernstein von Fremdbestandteilen zu trennen. Bernstein (Succinit) hat keinen Schmelzpunkt, bei 170 bis 200 °C wird er weich und formbar, und oberhalb von 300 °C beginnt er sich zu zersetzen. Bei der trockenen Destillation, die früher in großem Umfang durchgeführt wurde, entstehen als Hauptprodukte Bernsteinöl und Bernstein-Kolophonium. Bernsteinöl wurde in der ersten Hälfte des 20. Jahrhunderts für die Flotation von Erz verwendet, und das Kolophonium war ein begehrter Lackrohstoff. Beide Substanzen haben ihre wirtschaftliche Bedeutung im Wesentlichen verloren und sind nur noch Nischenprodukte, Bernsteinöl z. B. als Naturheilmittel. Bernstein (Succinit) hat einen sehr hohen elektrischen Widerstand und eine sehr niedrige Dielektrizitätskonstante von 2,9 als Naturbernstein oder 2,74 als Pressbernstein. In trockener Umgebung kann er durch Reiben an textilem Gewebe (Baumwolle, Seide) oder Wolle elektrostatisch aufgeladen werden. Dabei erhält er eine negative Ladung, das heißt, er nimmt Elektronen auf. Das Reibmaterial erhält eine positive Ladung durch Abgabe von Elektronen. Man bezeichnet diese Aufladung auch als Reibungselektrizität. Diese Eigenschaft kann als zerstörungsfreier, wenn auch – gerade bei kleineren Stücken – nicht immer einfach durchzuführender Echtheitstest verwendet werden: Der aufgeladene Bernstein zieht kleine Papierschnipsel, Stofffasern oder Wollfussel an. Dieser Effekt war bereits in der Antike bekannt und wurde durch die Werke von Plinius dem Älteren bis ins Spätmittelalter überliefert. Der englische Naturforscher William Gilbert widmete ihm in seinem im Jahr 1600 erschienenen Werk "De magnete magneticisque corporibus" ein eigenes Kapitel und unterschied ihn vom Magnetismus. Von Gilbert stammt auch der Begriff „Elektrizität“, den er aus dem griechischen Wort "ἤλεκτρον ēlektron" für Bernstein ableitete. Bernstein (Succinit) leuchtet unter UV-Bestrahlung (Wellenlänge 320 bis 380 nm) in unverwittertem oder frisch angeschliffenem Zustand blau und in verwittertem Zustand in einem matten Olivgrün. Succinit glänzt, wenn er feucht oder geschliffen ist, da er bei glatter Oberfläche eine hohe Lichtbrechung aufweist. Er lässt bei Schichten bis zu 10 mm Dicke Röntgenstrahlung fast ohne Verlust passieren. Eine Klassifizierung nach ihren physikalischen Eigenschaften haben "Fuhrmann & Borsdorf" vorgelegt, neben einer Succinitgruppe (Succinit, Gedanit) wird eine Glessitgruppe (Glessit, Bitterfeldit, Durglessit), eine Beckeritgruppe (Beckerit, Siegburgit) und eine Stantienitgruppe (Stantienit, Pseudostantienit) unterschieden. Sehr einfach durchzuführende infrarotspektrometrische Untersuchungen unterstützen diese Gliederung, die häufigste Bernsteinart Succinit zeichnet sich z. B. durch einen unverwechselbaren Abschnitt im IR-Spektrogramm, die sogenannte „Baltische Schulter“ aus. Chemische Eigenschaften. Die Entschlüsselung der chemischen Eigenschaften der Bernsteinart Succinit hat eine lange Geschichte. So war beispielsweise bereits im 12. Jahrhundert das Destillationsprodukt Bernsteinöl bekannt; Agricola gewann im Jahre 1546 Bernsteinsäure, und dem russischen Universalgelehrten W. Lomonossow gelang es Mitte des 18. Jahrhunderts, einen wissenschaftlichen Beweis für die Natur des Bernsteins als fossiles Baumharz zu liefern. Berzelius fand 1829 mit schon modern anmutenden chemischen Analysemethoden heraus, dass Bernstein sich aus löslichen und unlöslichen Bestandteilen zusammensetzt. Nach der Elementaranalyse bestehen Bernsteine zu 67–81 % aus Kohlenstoff, der Rest ist Wasserstoff und Sauerstoff sowie manchmal etwas Schwefel (bis 1 %). Durch Einlagerung von mineralischen Bestandteilen können weitere Elemente vorkommen. Bernstein ist ein Gemisch verschiedener organischer Stoffe, die in langen Fadenmolekülen gebunden sind. Nachgewiesene lösliche Bestandteile sind z. B. Abietinsäure, Isopimarsäure, Agathendisäure sowie Sandraracopimarsäure. Der unlösliche Bestandteil des Bernsteins ist ein Ester, der als Succinin (oder Resen, Sucinoresen) bezeichnet wird. Bisher sind über 70 organische Verbindungen nachgewiesen, die am Aufbau des Bernsteins (Succinit) beteiligt sind. Die meisten Bernsteinarten verwittern durch Einwirkung von Luftsauerstoff und UV-Strahlung. Dabei dunkeln beim Succinit zuerst die äußeren Schichten nach und verfärben sich rot (Varietät "Antik"). Von der Oberfläche und vorhandenen Hohlräumen ausgehend bilden sich kleine polygonale Risse, mit der Zeit wird die Oberfläche rau und bröckelig, und schließlich wird das gesamte Stück zersetzt. Dadurch werden auch vorhandene Einschlüsse zerstört. Viele Bernsteinarten sind in organischen Lösungsmitteln nur wenig löslich. Bernstein (Succinit) reagiert nur an der Oberfläche mit Ether, Aceton und Schwefelsäure; bei längerer Einwirkungsdauer wird sie matt. Pressbernstein ist weniger widerstandsfähig. Bei längerem Kontakt mit den oben genannten Substanzen wird er teigig und weich. Dasselbe gilt prinzipiell auch für Kopal und Kunstharz, nur dass bei diesen schon ein wesentlich kürzerer Kontakt ausreicht. Die Nomenklatur fossiler Harze ist unübersichtlich. Die Bezeichnung der Bernsteinarten sowohl mit regionalen Namen nach Ländern und Regionen als auch nach ihren Eigenschaften in Analogie zu den Mineralen mit der Endsilbe -it kann zu Missverständnissen führen (siehe Abschnitt Bernsteinarten). In einem ersten veralteten Versuch zur Unterscheidung anhand der chemischen Zusammensetzung wurden Succinite mit 3 bis 8 % Bernsteinsäure von den Retiniten mit 0 bis 3 % Bernsteinsäure abgetrennt. "Anderson & Crelling" haben 1995 die folgende Klassifizierung nach den chemischen Grundbausteinen aufgestellt: (Übersetzung eng angelehnt an "Christoph Lühr") Die Einordnung unbekannter Bernsteinarten in diese Klassifikation erfordert sehr aufwendige massenspektrometrische, gaschromatographische oder kernspinresonanzspektroskopische Untersuchungen. Die Bestimmung der botanischen Herkunft anhand der chemischen Zusammensetzung ist problematisch, weil die geringe Löslichkeit der hochpolymeren Verbindungen analytisch extreme Schwierigkeiten bereitet, denn die bei der zwangsweise pyrolytischen Aufspaltung entstehenden Bruchstücke sind meist nicht identisch mit den ursprünglichen Substanzen. Die botanische Herkunft eines fossilen Harzes kann gesichert nur mit paläobotanischen Untersuchungen bestimmt werden, wie z. B. beim Gedanit. Weltweites Vorkommen von Bernstein. Bernsteinfischer am Ostseestrand, Danzig, Polen Zur Kennzeichnung der weltweit verbreiteten Bernsteinvorkommen wurden vor längerer Zeit Namen nach Ländern oder ganzen Regionen eingeführt, z. B. Rumänischer Bernstein oder Sibirischer Bernstein. Ursache für diese Vereinfachung war häufig die unzureichende Kenntnis der physikalisch-chemischen Eigenschaften und nicht selten auch die geringe Menge des gefundenen fossilen Harzes. Daneben gibt es schon sehr lange die wissenschaftliche Kennzeichnung von definierten Bernsteinarten anhand der substanziellen Eigenschaften, erkennbar an der Namensendsilbe -it. Sein geologisches Alter ist am Bernstein selbst nicht bestimmbar, sondern nur das Alter des ihn einschließenden Sediments. Die dazu benötigten Fossilien oder anderen Bestandteile, an denen Altersbestimmungen möglich sind, müssen aber nicht das gleiche Alter haben. Ein Beispiel dafür ist die „Blaue Erde“ der baltischen Bernsteinlagerstätte. Fossilien belegen ein obereozänes Alter von etwa 35 Millionen Jahren. Das an radioaktiven Isotopen bestimmte wesentlich höhere Alter bis 50 Millionen Jahre ist sehr wahrscheinlich durch Umlagerungen zu erklären. Bernstein kann nur in einem Wald gebildet worden sein. Fossile Waldböden mit eingeschlossenem Bernstein sind aber nur selten erhalten, z. B. unmittelbar unter dem obereozänen Braunkohlenflöz in der Nähe von Bitterfeld oder einige Kopalvorkommen Ostafrikas. Im Gegensatz zu diesen autochthonen Vorkommen sind die meisten Vorkommen in jüngere Sedimente eingebettet, sie sind allochthon. Succinit ist gegenüber Luftsauerstoff aber wenig beständig, im belüfteten Waldboden kann er allenfalls einige Jahrtausende überdauern. Durch die erforderliche baldige Einbettung in ein für seine Erhaltung geeignetes Sediment ist der Altersunterschied zum einschließenden Sediment im geologischen Maßstab relativ unbedeutend, die Vorkommen sind deshalb parautochthon. Die bekannteste Fundregion von Bernstein in Europa ist der südöstliche Ostseeraum, das Baltikum, insbesondere die Halbinsel Samland (Kaliningrader Gebiet, Russland) zwischen Frischem und Kurischem Haff. Die reichste und auch heute noch wirtschaftlich genutzte Fundschicht, die sogenannte „Blaue Erde“, wurde im Obereozän vor etwa 35 Millionen Jahren abgelagert. Daneben führen im Deckgebirge die nur etwa 20 Millionen alten miozänen Schichten der sogenannten „Braunkohlenformation“ Bernstein, der auch zeitweise genutzt wurde (siehe Abschnitt Gewinnung). So junger miozäner Bernstein ist auch aus Nordfriesland und der Lausitz bekannt. In Mitteldeutschland sind inzwischen zahlreiche Fundstellen bekannt, denn der Braunkohletagebau Goitsche ist nicht der einzige Fundort von Bernstein in den tertiären Schichten. Der älteste Bernstein (Succinit) wurde unter dem obereozänen Braunkohleflöz Bruckdorf westlich von Bitterfeld gefunden, er ist damit etwa gleich alt wie der Bernstein der „Blauen Erde“ des Samlandes. Weitere Einzelfunde stammen aus dem Flözniveau des Unteroligozäns bei Breitenfeld nördlich von Leipzig sowie bei Böhlen. Im gesamten Raum Leipzig-Bitterfeld wurden auf einer Fläche von 500 Quadratkilometern mehr als 20 Bernsteinvorkommen oberoligozänen Alters gefunden. An größeren Vorkommen sind neben der bekannten Bernsteinlagerstätte Bitterfeld im Tagebaufeld Breitenfeld 1.500 t und im Tagebaufeld Gröbern bei Gräfenhainichen beachtliche 500 t Bernstein prognostiziert worden. Nur einige Forscher halten nach wie vor an der Meinung fest, dass der mitteldeutsche Bernstein aus der „Blauen Erde“ des Baltikums umgelagert oder dass zumindest die Herkunft noch unsicher sei. Alle diese Vorkommen sind eingeschlossen in eine im paläogeographischen Umfeld sehr gut bekannte Schichtenfolge, deren mineralische Bestandteile unzweifelhaft durch Flüsse aus südlicher Richtung in das Meeresbecken eingetragen wurden. Eine Umlagerung aus nordöstlicher Richtung über mehr als 600 Kilometer ist schon deshalb nicht möglich, weil dann auch die den Bernstein einschließenden mehr als 15 Milliarden Kubikmeter Sand hätten mit von dort verlagert werden müssen. Die ältesten Bernsteinfunde Mitteleuropas stammen aus Braunkohletagebauen bei Helmstedt, des Geiseltales südlich von Halle sowie bei Aschersleben und Profen bei Zeitz. Bei diesen Funden aus mitteleozänen Schichten handelt es sich nicht um Succinit, sondern um die Bernsteinarten Krantzit und Oxikrantzit, die möglicherweise von ausgestorbenen Vertretern der Storaxbaumgewächse stammen. Allgemein bekannt sind die zahlreichen Funde von Bernstein an den Küsten der Nord- und Ostsee sowie in quartären Sedimenten im gesamten nordmitteleuropäischen Raum. Diese rein allochthonen Vorkommen stehen in keiner Beziehung zu den im Tertiär parautochthon entstandenen Bernsteinvorkommen. Sie können auch keinen Beitrag zur Erforschung der Bernsteinentstehung leisten. Nicht nur die baltischen, sondern auch die nordfriesischen und mitteldeutschen Bernsteinvorkommen unterlagen während der quartären Vereisungen einer starken Abtragung. Die Bernstein führenden Schichten wurden durch die Inlandgletscher ausgeschürft, ganze Schollen der Bernstein führenden Schichten, aber auch durch Schmelzwässer aus dem Verband gelöster Bernstein wurden weit über das gesamte nördliche Mitteleuropa verstreut. An der niederländischen, deutschen und dänischen Nordseeküste, im dänischen Jütland ("Jütländischer Bernstein"), auf den dänischen Inseln sowie an der schwedischen Küste kann nach Stürmen aus quartären Sedimenten ausgespülter Bernstein von Strandgängern gefunden werden. In Deutschland gibt es auch größere binnenländische Vorkommen in märkischen Gebieten – z. B. im Naturpark Barnim zwischen Berlin und Eberswalde (Brandenburg), man fand sie bei Regulierungen und Kanalbauten im nach Toruń ziehenden Urstromtal. Durch bis zu viermalige Umlagerung ist dieser rein allochthone Bernstein in allen quartären Schichten bis zum Holozän anzutreffen. Es handelt sich dabei überwiegend nur um Einzelfunde ohne größere Bedeutung. Auch aus anderen Teilen Europas sind Bernsteinvorkommen bekannt geworden, einige mit wesentlich höherem Alter, im östlichen Mitteleuropa (Tschechien, Ungarn) und auch in Rumänien, Bulgarien und der Ukraine. Am bekanntesten sind der "Mährische Bernstein" (Walchowit), der etwa 100 Millionen Jahre alt ist, der "Ukrainische Bernstein", der zum größten Teil aus Succinit besteht, sowie der "Rumänische Bernstein" (Rumänit), der in verschiedenen Lagerstätten auftritt und je nach Lagerstätte zwischen 30 und 100 Millionen Jahren alt sein soll. Bernsteinvorkommen sind auch aus der Schweiz, Österreich, Frankreich und Spanien bekannt. Bernstein aus den Schweizer Alpen ist etwa 55 bis 200 Millionen Jahre alt, solcher aus Golling etwa 225 bis 231 Millionen Jahre. Bernstein in jurassischen Schichten (Kantabrikum) bei Bilbao ist etwa 140 Millionen Jahre alt. Der bekannte "Sizilianische Bernstein" (Simetit) ist dagegen erst vor 10 bis 20 Millionen Jahren gebildet worden. Der älteste europäische Bernstein ist der Middletonit, er ist etwa 310 Millionen Jahre alt und stammt aus Steinkohlengruben von Middleton bei Leeds. In Küstenländern Ost- und Westafrikas, vor allem aber auf Madagaskar, kommt Kopal vor. Der sogenannte "Madagaskar-Bernsteins" ist etwa 100 Jahre bis 1 Millionen Jahre alt. Bernstein aus verschiedenen geologischen Zeitabschnitten ist in Nigeria, Südafrika und Äthiopien gefunden worden. Amerikas bekanntester Bernstein ist der wegen seiner Klarheit und seines Reichtums an fossilen Einschlüssen begehrte Bernstein aus der Dominikanischen Republik (sh. Dominikanischer Bernstein). Auch aus Kanada (u. a. Chemawinit vom Cedar Lake) und dem US-Bundesstaat New Jersey (Raritan) sind Bernsteinvorkommen bekannt. In Asien findet man Bernstein vor allem im vorderen Orient (Libanon, Israel und Jordanien) und in Myanmar (früheres Birma/Burma). Der "Libanon-Bernstein" ist etwa 130 bis 135 Millionen Jahre und der auf sekundärer Lagerstätte liegende "Burma-Bernstein" vermutlich (Birmit) etwa 90–100 Millionen Jahre alt. Im australisch-ozeanischen Raum wird Bernstein in Neuseeland und im malayischen Abschnitt der Insel Borneo ("Sarawak-Bernstein") gefunden. Während der Bernstein auf Borneo 15 bis 17 Millionen Jahre alt ist, kann Neuseeland-Bernstein ein Alter von bis zu 100 Millionen Jahren haben. Das größte bisher bekannte Bernsteinstück wurde 1991 im Rahmen einer deutsch-malayischen Forschungsexpedition von Dieter Schlee in Zentral-Sarawak (Indonesien) entdeckt. Es wog im Ursprungszustand etwa 68 kg und bedeckte eine Fläche von 5 m². Es konnten jedoch nur mehrere Teilstücke geborgen werden, von denen sich die beiden größten mit einem Gesamtgewicht von etwa 23 kg im Staatlichen Museum für Naturkunde in Stuttgart befinden, das auch im Besitz einer Guinnessbuch-Urkunde (1995) für den größten Bernsteinfund ist. Weitere sehr große Bernsteinstücke sind aus Japan bekannt. Aus der Lagerstätte bei Kuji (Kuji-Bernstein) wurde 1927 ein Bernsteinstück mit einem Gewicht von 19,875 kg geborgen, ein weiteres 1941 mit 16 kg. Beide Stücke werden im Nationalmuseum der Naturwissenschaften von Tokio aufbewahrt. Abgrenzung zu anderen Bernsteinarten. Der Bernstein im engeren Sinne, der Succinit, ist die kommerziell weitaus wichtigste und am besten erforschte Bernsteinart. Seine Bedeutung hängt mit der im Vergleich zu anderen fossilen Harzen großen Häufigkeit und Verbreitung zusammen, seiner schon vorgeschichtlichen Verwendung, seinem reichhaltigen Fossilinhalt und seinen günstigen Eigenschaften, die eine Verarbeitung zu allerlei Zwecken (Schmuck, Kultgegenstände usw.) ermöglicht. Sein wissenschaftlicher Name Succinit wurde 1820 vom deutschen Mineralogen August Breithaupt unter Verwendung des römischen Namens eingeführt. Andere Bernsteinarten sind in den baltischen Vorkommen außerordentlich selten. Seit ihrer Beschreibung im 19. Jahrhundert sind in den letzten 130 Jahren bei einer gewonnenen Bernsteinmenge von etwa 40.000 t keine Neufunde gemeldet worden. Sie werden deshalb häufig vergessen, und vereinfachend wird die total überwiegende Bernsteinart Succinit als Baltischer Bernstein bezeichnet. Wie bereits weiter oben begründet, sollte zur Vermeidung von Missverständnissen die Bezeichnung Baltischer Bernstein nur zur regionalen Kennzeichnung verwendet werden. Die Abgrenzung des Succinit von anderen fossilen Harzen erfolgt, wie im Abschnitt Eigenschaften näher beschrieben, nach den physikalischen und chemischen Eigenschaften. Entstehung. Die Erzeugerpflanze des Bernsteins (Succinit) ist immer noch nicht bekannt. Vor 165 Jahren hatten Heinrich Robert Göppert und Georg Carl Berendt anhand von Harzeinschlüssen in Holz mit einer ähnlichen Struktur wie die von rezenten Kieferngewächsen (Familie Pinaceae) geschlussfolgert, dass der Erzeuger des Succinit, der „Bernsteinbaum“, ein ausgestorbener Vertreter der heutigen einheimischen Nadelbäume sei, und gaben ihm den Namen "Pinites succinifer". Hugo Conwentz kam 45 Jahre später zum gleichen Ergebnis, er engte aber die Herkunft auf eine ausgestorbene „Bernsteinkiefer“ ("Pinus succinifera") ein. Von "Kurt Schubert" wurde schließlich 1961 diese Annahme im Wesentlichen noch einmal bestätigt. Neuere chemische Untersuchungen schließen einen solchen Ursprung aus, aber trotz einer Vielzahl einbezogener rezenter Vertreter der Araukariaceae, der Gattungen "Pseudolarix" (Goldlärche) und "Cedrus" (Zedern) sowie der Pflanzenfamilie der Sciadopityaceae (Schirmtannen) ist die Herkunft immer noch unklar. Ursache dafür ist die bereits im Abschnitt Eigenschaften beschriebene Schwierigkeit, anhand des hochpolymeren Bernsteins die ursprünglichen chemischen Grundbausteine des Ausgangsharzes zu rekonstruieren. Da sich die Beschaffenheit des Harzes dieser vermuteten rezenten Verwandten sehr stark vom harten und splittrigen Succinit unterscheidet, lag es nahe, dass das so weiche Harz erst durch einen Millionen Jahre dauernden Versteinerungsprozess zum Bernstein wurde. Das gehäufte Vorkommen in marinen Sedimenten ließ außerdem die Vermutung aufkommen, dass dabei dieses besondere geochemische Milieu eine Rolle gespielt hat. Noch spekulativer wird es schließlich, wenn versucht wird, die abweichenden Eigenschaften der Bernsteinarten mit einem unterschiedlichen „Reifegrad“ ein und derselben Pflanze zu erklären. Das überwiegend stark getrübte Harz einheimischer Nadelbäume initiierte auch die Vorstellung, dass der klare Succinit durch Sonneneinstrahlung aus stark getrübtem Harz entstanden sei. Diese beiden so logisch erscheinenden Annahmen finden sich seit mehr als 100 Jahren in der gesamten einschlägigen Literatur. Untersuchungen am Succinit aus Bitterfeld, der in seinen Eigenschaften und auch im Merkmal der „Baltischen Schulter“ des Infrarotspektrogramms nicht vom Succinit der „Blauen Erde“ unterschieden werden kann, haben diese Annahmen nicht bestätigt. Viele Stücke der Varietät "Bunt" werden von Spalten durchzogen, die durch jüngere Harzflüsse wieder verschlossen wurden. An einigen Belegstücken sind mehrere Generationen von Spalten zu beobachten. Succinit mit Spalten und zwei aufeinander folgenden jüngeren Harzflüssen Unzweifelhaft können die jüngeren Harzflüsse nur vom lebenden Baum stammen. Dass die Aushärtung des Harzes bereits am Baum weitgehend abgeschlossen war, zeigt das Bild der durchtrennten Spinne. Nur wenn der Bernstein bereits eine splittrige Beschaffenheit hatte, konnte sie so messerscharf durchtrennt werden. Von einer Spalte zerschnittene Spinne im Succinit Die Härte des Succinit ist also eine primäre Eigenschaft des Harzes, und das weist auf eine nicht sehr enge Verwandtschaft mit rezenten Vertretern der Nadelbäume hin. Mit der praktisch vollständigen und so raschen Aushärtung des Harzes erklärt sich auch die unveränderte Körperform der zarten tierischen Inklusen, die niemals verbogen oder verzerrt sind (siehe auch Abschnitt Einschlüsse). Eine langsame, Millionen Jahre andauernde Aushärtung hätte bei den Belastungen während des anzunehmenden längeren Transportweges zumindest bei einem Teil der Inklusen unweigerlich zu Formveränderungen führen müssen. Succinit mit scharf begrenztem klaren und weißen Harz Am abgebildeten Stück ist klares Harz mit stark getrübtem Harz der Varietät "Knochen" bei scharfer Begrenzung zusammengeflossen. Das ist nur so zu erklären, dass der „Bernsteinbaum“ zwei Harzarten erzeugt hat und der klare Succinit nicht durch Sonneneinstrahlung entstanden sein muss. Das stark getrübte Harz, die Trübung wurde primär sicher durch wässrige Gewebesafttröpfchen verursacht, war vollständig mit dem klaren Harz mischbar. Diese Eigenschaft passt nicht zum hydrophoben Harz der einheimischen Kieferngewächse. Die Stammpflanze des Succinit ist wahrscheinlich eher eine Verwandte der ausgestorbenen Koniferenart "Cupressospermum saxonicum". Diese wurde als Erzeugerbaum des Gedanit, einer nah verwandten Bernsteinart des Succinit, identifiziert. Denkbar ist auch, dass der Succinit von mehreren Arten einer Pflanzengattung gebildet wurde und die geringen substanziellen Unterschiede des Harzes mit den derzeitigen analytischen Verfahren noch nicht erkannt werden können. Die Herkunft von mehreren Arten einer Succinit bildenden Pflanzengattung würde auch die Bedenken von Paläontologen entkräften, dass eine einzelne Art nicht über die nachgewiesene Bildungszeit des Succinit, fast 20 Millionen Jahre vom Obereozän (Priabonium) bis zum Mittelmiozän, existiert haben kann. Bernsteinwald. Der Bernstein kann nur in einem Wald gebildet worden sein. Für die baltische Bernsteinlagerstätte kann der Standort dieses Bernsteinwaldes nicht mehr rekonstruiert werden, weil die Inlandgletscher der pleistozänen Vereisungen alle Spuren beseitigt haben. Die unbekannte und nicht rekonstruierbare Lage war und ist Anlass für allerlei Vermutungen, bei denen auch die beachtliche Größe der baltischen Bernsteinvorkommen eine Rolle spielt. Zusätzlich verkomplizierend wirkt die scheinbar lange Zeitspanne zwischen der Entstehung des Bernsteins im Bernsteinwald und der Einbettung in der „Blauen Erde“. Bis in die neuere Zeit wurde angenommen, dass die Bildung im Obereozän und die Einbettung erst etwa 10 Millionen Jahre später im Unteroligozän (Rupelium) erfolgte. Nach aktuellen Annahmen konzentrieren sich Entstehung und Einbettung zwar auf das Obereozän, aber nach geophysikalischen Altersbestimmungen soll der Zeitunterschied nun sogar bis zu 20 Millionen Jahre betragen. Der Succinit übersteht unbeschadet nur wenige Jahrtausende im belüfteten Boden, wie z. B. der sehr stark verwitterte Bernsteinschmuck der mykenischen Königsgräber zeigt. Er müsste deshalb zwischenzeitlich in einer Lagerstätte luftdicht vor der Zerstörung bewahrt worden sein. Da es zu einem solchen „Zwischenlager“ nicht einmal Hinweise gibt, ist es viel wahrscheinlicher, dass der Succinit direkt aus dem Bernsteinwald in das marine Sediment der „Blauen Erde“ gelangte. Es gibt nur zwei Möglichkeiten, wie der Bernstein in die „Blaue Erde“ gelangte, entweder wurde er durch einen Fluss in das Meeresbecken eingetragen, oder der Bernsteinwald wurde durch das Meer überflutet. Die dazu vorliegenden Hypothesen können sich wiederum nicht auf konkrete Fakten stützen, bisher liegen nicht einmal sedimentologische Untersuchungen der „Blauen Erde“ vor. Durch denkbare Überflutungskatastrophen (Sturmfluten oder Tsunamis) könnte eine so mächtige und großflächig verbreitete Schicht nicht gebildet werden, und Transgressionen verlaufen viel zu langsam für die großflächige Anreicherung eines so verwitterungsanfälligen Materials. Wahrscheinlicher ist deshalb die schon länger vorliegende Hypothese, dass der Bernstein über einen Fluss aus nördlicher Richtung ins Meer gelangte. Für diesen Fluss wurde in Anlehnung an die griechische Mythologie der Name Eridanos verwendet. Das Einzugsgebiet mit dem Bernsteinwald könnte das gesamte östliche heutige Skandinavien umfasst haben. Wenn in einem so riesigen Gebiet der Fluss den bernsteinhaltigen Waldboden durch Mäandrierung umpflügt, dürfte selbst für die große Bernsteinmenge der baltischen Lagerstätte eine krankhafte Harzung, die sogenannte Succinose, durch besondere Ereignisse (Klimakatastrophen, Parasitenbefall u. a.) nicht erforderlich sein. Für die zahlreichen mitteldeutschen Bernsteinvorkommen des Oberoligozäns (siehe Abschnitt Weltweites Vorkommen von Bernstein) ist die Rekonstruktion ihrer Herkunft durch konkrete Befunde gesichert. Der Bernstein und die ihn einschließenden Sedimente wurden durch ein Flusssystem aus südlicher Richtung in ein gezeitenfreies Meeresbecken, eine „Paläo-Ostsee“ eingetragen. Im Flusstal dieses „Sächsischen Bernsteinflusses“ wurde der Bernstein gebildet. Nach anderen Vorstellungen wird der Bernsteinwald im Delta dieses Flusses vermutet. Die zahlreichen Einzelfunde in quartären Sedimenten, ebenso wie in quartäre Schichtfolgen eingeschlossene Schollen Bernstein führender tertiärer Sedimente, haben mit der Entstehung des Bernsteins selbst nichts zu tun, sie sind nur eine Folge der Zerstörung primärer (parautochthoner) Vorkommen während der pleistozänen Vereisungen. Geschichtliche Bedeutung. Der Bernstein hat den Menschen schon immer fasziniert. Er galt in allen bedeutenden Dynastien und zu allen Zeiten als Zeichen von Luxus und Macht. Daher wurde er schon früh als Schmuck verarbeitet. Steinzeit. Aus Nordfriesland sind Anhänger und Perlen aus Baltischem Bernstein bekannt, deren Alter auf rund 12.000 Jahre datiert wurde und die damit eine Nutzung bereits im Jungpaläolithikum belegen. Rechnet man auch die Lagerstätten in der heutigen Ukraine zum Baltischen Bernstein, ist dieser bereits vor rund 20.000 Jahren verarbeitet worden (Ausgrabungen bei Kaneva am Flusslauf des Ros). Bernstein ähnlichen Alters wurde auch in der Höhle von Altamira gefunden, wobei dieser Bernstein sehr wahrscheinlich aus der Region (Nordspanien) stammt, mithin also kein Baltischer Bernstein ist. Für das Mesolithikum (ab ca. 9600 v. Chr.) lässt sich in Landstrichen an der Nord- und Ostseeküste vermehrt die Verarbeitung von Bernstein feststellen. In Dänemark und dem südlichen Ostseegebiet wurde ab 8000 v. Chr. Bernstein zur Herstellung von statushebenden Tieramuletten und Schnitzereien mit eingravierten Tiermotiven genutzt. Schamanen nutzen ihn auch als Weihrauch, so dass ihm eine rituelle Bedeutung zukam. Als um 4300 v. Chr. neolithische Bauern an die nördlichen Küsten gelangten, war Bernstein nach wie vor ein begehrter Rohstoff. Sie begannen nun im großen Maße, Bernstein zu sammeln, der zu Ketten und Anhängern verarbeitet und getragen oder zu rituellen Zwecken (Opfergaben, Grabbeigaben) verwendet wurde. Die Erbauer der Großsteingräber fertigten die für die Zeit und diesen Kulturkreis typischen Axtnachbildungen aus Bernstein an. Bernstein-Depotfunde, besonders in Jütland, belegen die Bedeutung des Bernsteins auch als Handelsgut. M. Rech führt in Dänemark 37 Depots auf. Bronzezeit. In der Bronzezeit nahm das Interesse am Bernstein zunächst ab, obwohl das Material eine beliebte Grabbeigabe blieb. Ein Collierfund in einem 3000 Jahre alten Urnengrab bei Ingolstadt zeigte eine Halskette aus etwa 3000 Bernsteinperlen, die von unschätzbarem Wert gewesen sein muss. Warum das Collier in einem Tonkrug vergraben wurde, ist ungeklärt. Bernstein war neben Salz und Rohmetall (Bronze und Zinn) eines der begehrtesten Güter. In Hortfunden und bei Grabfunden taucht er regelmäßig auf. Durch ihn sind weitreichende Beziehungen nachgewiesen worden. Zwei breite Goldringe, in die je eine Bernsteinscheibe eingelassen war, fanden sich in Südengland (Zinnvorkommen), und ein beinahe identisches Exemplar ist aus dem griechischen Bronzezeit-Zentrum Mykene bekannt (Blütezeit vom 15. bis 13. Jh. v. Chr.). Auch in einem frühbronzezeitlichen (um 1700 v. Chr.) Hortfund von Dieskau (Saalekreis) befand sich eine Kette aus Bernsteinperlen. Antike. In der Eisenzeit gewann Bernstein durch die Wertschätzung der Phönizier, Griechen, Skythen, Ägypter, Balten und Slawen als „Tränen der Sonne“ beziehungsweise „Tränen oder Harn der Götter“ wieder an Bedeutung. Später hielt man ihn für „Harn des Luchses“, „versteinerten Honig“ oder „erstarrtes Erdöl“. Die Griechen schätzten den Bernstein als Edelstein, den sie als Tauschmittel für Luxusgüter aller Art nutzten, wie bei Homer erwähnt und beschrieben. Die Römer nutzten ihn als Tauschmittel und für Gravuren. In der griechisch-römischen Antike wurde erkannt, dass Bernstein sich elektrostatisch aufladen kann. Der griechische Philosoph Aristoteles deutete die Herkunft des Bernsteins als Pflanzensaft und erwähnte das Vorkommen von Zooinklusen. Pytheas von Massila hatte auf einer seiner Reisen um 334 v. Chr. die sogenannten Bernsteininseln erreicht (gemeint sind wohl die West-, Ost- und Nordfriesischen Inseln in der Nordsee). Man nennt diese Inseln auch die Elektriden. Die Römer Tacitus und Plinius der Ältere schrieben über den Bernstein sowie seine Herkunft und seinen Handel. Kaiser Nero soll Bernstein in großen Mengen zu Repräsentationszwecken genutzt haben. Im Rom der Kaiserzeit trieb nicht nur der Kaiser, sondern auch das Volk mit dem Bernstein einen verschwenderischen Luxus. Man trank aus Bernsteingefäßen, er zierte alles, was von Wert war, und wohlhabende Frauen färbten ihr Haar bernsteinfarben. Plinius der Jüngere soll sich darüber geärgert haben, „dass ein kleines Figürchen aus Bernstein teurer als ein Sklave sei“. In der römischen Antike wurde zudem der Handel mit samländischem Bernstein erschlossen. Mittelalter. Aus der Zeit des 5. und 6. Jahrhunderts sind im Bernsteinmuseum von Klaipeda ausgestellte Halsketten überliefert, die in der Region des heutigen Baltikums als gesetzliches Zahlungsmittel gültig waren. Im Mittelalter und für katholische Gebiete auch danach wurde der Bernstein hauptsächlich zur Herstellung von Rosenkranz-Gebetsketten genutzt. Wegen seines hohen Wertes stellten Feudalherren die Gewinnung und Veräußerung allen Bernsteins Ost- und Westpreußens bald unter Hoheitsrecht (Bernsteinregal). Das Sammeln und der Verkauf von Bernstein auf eigene Rechnung wurde geahndet, zeitweilig wurde in besonders schweren Fällen die Todesstrafe verhängt. Die Küstenbewohner hatten die Pflicht, unter der Bewachung seitens Strandreiter und Kammerknechte Bernstein zu sammeln und abzuliefern. Bernstein wurde im Mittelalter in Europa oder China auch erhitzt, um es als wasserabweisende Firnis als Holsschutz einzusetzen. Im 10. Jahrhundert war Bernstein auch bei Wikingern ein begehrtes Material, das als Räucherwerk benutzt oder kunstvoll verarbeitet wurde. Aus dieser Zeit sind Funde von Perlen für gemischte Ketten, Spinnwirtel, Spielbrettfiguren und Würfel aus Bernstein bekannt. Auch weiter im Landesinneren vorkommende Bernsteinlagerstätten wurden bereits im Mittelalter genutzt. In der Kaschubei lassen sich bei Bursztynowa Gora (Bernsteinberg) Trichter von bis zu 40 m Durchmesser und 15 m Tiefe in der Landschaft ausmachen. Der Abbau ist dort erstmals aus dem 10. Jahrhundert bezeugt. Neuzeit. Anhänger aus Bernstein (Größe links 32 mm und 52 mm rechts) Altes silbernes Armband mit Bernstein-Gliedern In der Neuzeit wurde Bernstein nach alter Tradition zu Schmuck verarbeitet und auch für Schatullen, Spielsteine und -bretter, Intarsien, Pfeifenmundstücke und andere repräsentative Sachen verwendet. Im 16. und 17. Jahrhundert nutzten die preußischen Herrscher den Bernstein für Repräsentationszwecke und ließen verschiedene Zier- und Gebrauchsgegenstände daraus fertigen. Der preußische Hof gab hunderte von Bernsteinkunstgegenständen in Auftrag, vor allem Pokale, Dosen, Konfektschalen und Degengriffe, die als Hochzeits- und Diplomatengeschenke in viele Kunstsammlungen europäischer Fürsten- und Herrscherhäuser gelangten. Aus dieser Zeit stammen auch die ersten größeren Bernsteinmöbel. Im 18. Jahrhundert ließ der preußische König Friedrich I. das Bernsteinzimmer für sein Charlottenburger Schloss in Berlin fertigen, das 1712 fertiggestellt wurde. 1716 verschenkte sein Sohn das Zimmer an den russischen Zaren Peter I. Später wurde es in den Katharinenpalast bei St. Petersburg eingebaut, im Zweiten Weltkrieg von den Deutschen geraubt und nach Königsberg gebracht. Seit 1945 ist es verschollen. Ob es verbrannte oder erhalten blieb, ist ungeklärt. Es gibt allerdings Gerüchte, wonach das Bernsteinzimmer noch immer in unterirdischen Stollen eingelagert sein soll. Durch den Fortschritt der Naturwissenschaften wurde erkannt, dass der Bernstein als fossiles Harz nicht mystischen, sondern natürlichen Ursprungs ist. Deswegen ging das höfische Interesse am Bernstein nach 1750 zurück. Bis ins 19. Jahrhundert wurde Bernstein hauptsächlich durch Strandlese gewonnen. 1862 konnten beispielsweise mit dieser Methode 4000 kg gesammelt werden. Im Jahre 1837 überließ der preußische König Friedrich Wilhelm III. die gesamte Bernsteinnutzung von Danzig bis Memel gegen die Summe von 30.000 Mark den Gemeinden des Samlandes. Ab der Mitte des 19. Jahrhunderts wurde der Abbau zunehmend maschinisiert. Pioniere auf diesem Gebiet waren die beiden Unternehmer Friedrich Wilhelm Stantien und Moritz Becker, die 1858 ihre Firma "Stantien & Becker" in Memel gegründet hatten. Sie begannen zunächst, das Kurische Haff bei Schwarzort systematisch auszubaggern. 1875 dann errichteten sie bei Palmnicken das wohl weltweit erste Bernsteinbergwerk. Im Jahr 1890 konnten auf diese Weise bereits über 200.000 kg gefördert werden. Bernsteinschmuck wurde nun mehr und mehr zu einem Produkt auch der wohlhabenden Bürgerschicht. Der noch heute existierende "„Bernsteinladen“" am Münchner Marienplatz geht auf das Jahr 1884 zurück. "Stantien & Becker" hatten weltweit Verkaufsniederlassungen (u. a. in Indien, Mexiko und Tokio). Seit 1881 gab es Pressbernstein, so dass Schmuck für alle Bevölkerungsschichten erschwinglich wurde. In manchen Regionen Europas gehörten facettierte Bernsteinketten zur Hochzeitstracht der Bauern. 1899 ging die profitable Produktion wieder in staatlichen Besitz über. Allein 1912 wurden 600 t Bernstein gefördert. Insgesamt wurden im Samland von 1876 bis 1935 über 16.000 t Baltischen Bernsteins bergbaulich gefördert. 1926 entstand in Ostpreußen die weltgrößte Manufaktur, die "Staatliche Bernstein-Manufaktur Königsberg" (SBM), in der bis 1945 künstlerische Produkte und Gebrauchsgegenstände aus Bernstein gefertigt wurden. Daher wurde Bernstein auch schnell „Preußisches Gold“ genannt. Aus der jüngeren Vergangenheit ist insbesondere der polnische Künstler Lucjan Myrta zu erwähnen. Zahlreiche seiner Werke, bei denen es sich oft um Arbeiten im Stil des Barock handelt und deren künstlerischer Rang in der Fachwelt nicht unumstritten ist, sind im Historischen Museum der Stadt Danzig zu sehen. Sehr viele der oft ungewöhnlich großen Kunstwerke hat der in Sopot lebende Künstler in seinem persönlichen Besitz behalten. Vermutlich unterhält der Künstler die weltgrößte, allerdings nicht öffentlich zugängliche Sammlung von Bernsteinartefakten. In einem der in seinem Privatbesitz verbliebenen großvolumigen Werke ist mehr Rohbernstein verarbeitet als im gesamten Bernsteinzimmer. Vorbergbauliche Zeit. Titelseite eines Buches aus dem Jahre 1677. Ein Bernsteinfischer und ein Bernsteingräber an der samländischen Küste. Zur Gewinnung des Bernsteins im Samland in der Zeit vor Beginn des Bernsteinbergbaus liegen zahlreiche Schriften vor, eine umfangreiche neuere Darstellung stammt von "Rainer Slotta". Vor 1860 wurde Bernstein im Samland überwiegend nur durch Aufsammeln des an der Küste angespülten Bernsteins gewonnen. Die fortschreitende Erosion der Steilküste durch das Meer sorgte für den ständigen Nachschub aus den Bernstein führenden Schichten. Eine geringere Rolle spielte eine bergmännische Gewinnung, die sich aus technischen Gründen aber auf die grundwasserfreien Deckschichten der „Blauen Erde“ beschränken musste. Der Abbau in dieser Weise erfolgte nach einem zeitgenössischen Bericht aus dem Jahre 1783 offenbar bereits über Jahrhunderte an verschiedenen Orten der samländischen Küste, wenn auch in Abhängigkeit von der Ergiebigkeit oftmals nur für überschaubare Zeit, in kleinräumigen Gräbereien, die insbesondere nesterartige Anreicherungen der Bernstein führenden miozänen sogenannten „Braunkohlenformation“ nutzten. Kleinere aktive Tiefbaue aus dieser Zeit sind urkundlich von 1781 bis 1806 belegt. In einem Kontrakt zur Verpachtung des Bernsteinregals an ein Konsortium, dem unter anderem hohe Staatsbeamte und einige Kaufleute angehörten, wurde den Pächtern für die Dauer der Pacht (1811 bis 1823) neben der Förderung von Bernstein aus dem Meer ausdrücklich die Bernsteingewinnung in offenen Gruben in den sogenannten Seebergen in einem Gebiet gestattet, das sich von Polsk (Narmeln) auf der Frischen Nehrung bis nach Nimmersatt (heute Nemirseta in Litauen) erstreckte. Die Förderung von Bernstein aus diesen Gruben soll besonders gewinnträchtig gewesen sein. Das Aufsammeln von Bernstein im Küstenbereich wurde im Samland mit der Aufnahme der bergbaulichen Gewinnung durch die Firma Stantien & Becker im Jahre 1871 wirtschaftlich zunehmend bedeutungslos. Das "Bernsteintauchen" z. B. wurde 1883 eingestellt. Für den Übergang zur bergbaulichen Gewinnung spielte die "Bernsteinbaggerei" durch die Firma Stantien & Becker von 1862 bis 1890 an der Kurischen Nehrung bei Schwarzort (jetzt Juodkrantė) eine bedeutende Rolle. Jährlich wurden bis zu 75 t Bernstein gewonnen. Im Zuge dieser Bernsteinbaggerei wurde 434 Stücke neolithischen Bernsteinschmucks gefunden. An der deutschen Nordseeküste wurde insbesondere im Gebiet Eiderstedt bis zur Mitte des 19. Jahrhunderts viel Bernstein gefunden. Im Watt und auf einigen besonders fündigen Sandbänken wurde Bernstein durch sogenannte Hitzläufer und "Bernsteinreiter" gesammelt. Geschickte Reiter verstanden es, mit einem kleinen, an einer Stange befestigten Netz den Bernstein aus dem Flachwasser zu fischen, ohne vom Pferd abzusteigen. Fundorte mit bergbaulicher Gewinnung. Mindestens 75 % der Weltproduktion von Bernstein (Succinit) entstammt derzeitig dem regulären Bergbau auf der Halbinsel des Samlandes (Oblast Kaliningrad, Russland; ehemals Ostpreußen). In Polen wird seit langem insbesondere aus der Weichselniederung bei Danzig in Quartärsedimenten enthaltener umgelagerter Bernstein in zahllosen vorwiegend illegalen Kleingräbereien gewonnen. Die gewonnene Gesamtmenge wird für den Zeitraum 1945 bis 1995 mit 930 t angegeben, die durchschnittliche jährliche Fördermenge beträgt etwa 20 t. Der Abbau aus kleineren Lagerstätten in der Nordukraine, z. B. bei Klesow, gewinnt derzeitig offensichtlich zunehmend an Bedeutung. Die Bernsteingewinnung im Braunkohlentagebau Goitsche bei Bitterfeld hatte in den Jahren 1975 bis 1990 mit insgesamt 408 t zeitweise bis 10 % des Weltaufkommens betragen, die noch vorhandenen Restvorräte von 600 t bilden eine sichere Basis für eine erneute bergbauliche Aktivität. Samland. Die Hauptförderung von Bernstein erfolgt seit 1871 bei der Ortschaft Jantarny (ehemals Palmnicken) im Samland, 40 km westlich von Kaliningrad (ehemals Königsberg). Große, von der Steilküste bis weit ins Inland reichende Bernsteinvorkommen bilden die Grundlage. Die Hauptfundschicht, die „Blaue Erde“, liegt meist unter dem Niveau des Meeresspiegels, im Bereich des Strandes bis 10 m, im Inland aber bis 55 m unter der Geländeoberfläche. Das Flöz der „Blauen Erde“ ist ein mehrere Meter mächtiger sandiger Ton, dessen grünlichgraue Farbe vom enthaltenen Glaukonit verursacht wird. Der Bernsteingehalt schwankt sehr stark zwischen 23 und 0,5 kg pro Kubikmeter, in den besten Jahren waren es durchschnittlich zwei bis drei Kilogramm. Im Jahre 1870 begann die bergbauliche Erschließung der „Blauen Erde“ durch die Firma Stantien & Becker. In den ersten Jahren erfolgte der Abbau ausschließlich von Hand in einem 10 m tiefen Tagebau am Strand, dieser wurde auch in die Steilküste hineingetrieben. Ab 1875 musste aus wirtschaftlichen Gründen zum Tiefbau übergegangen werden, die Strecken wurden zunächst vom Tagebau aus aufgefahren. Mit ab 1883 angelegten Schachtanlagen wurde Bernstein bis zum Jahre 1923 im Tiefbau gewonnen. Im Jahre 1916 wurde dann im neu angelegten Tagebau Palmnicken die Bernsteingewinnung aufgenommen. Der Abbau erfolgte mit großen Eimerkettenbaggern, wie sie auch in den mitteldeutschen Braunkohletagebauen üblich waren. Empfindliche Absatzkrisen beim Rohstoff für Schmuckwaren wurden durch den Ersten Weltkrieg verursacht, und in den 1930er-Jahren verschlechterte sich die Wirtschaftlichkeit, weil das überwiegende Feinkorn nicht mehr für die Herstellung von Lackrohstoffen benötigt wurde. Nach 1945 wurde das sowjetisch gewordene Palmnicken nach dem russischen Wort für Bernstein, jantar, in Jantarnyi umbenannt und die zum Erliegen gekommene Bernsteingewinnung wieder aufgenommen. Im Jahre 1976 erfolgte die endgültige Stilllegung des seit 1916 genutzten Tagebaus, und der heute noch genutzte Tagebau „Primorskoie“ wurde in Betrieb genommen. Die Jahresproduktion erreichte in einigen Jahren 780 t, von 1951 bis 1988 wurden insgesamt rund 18.250 t gefördert. In den 1970er-Jahren, beim Übergang auf den neuen Tagebau, sank die Förderung infolge technischer und organisatorischer Probleme. Auch der politische Umbruch in den 1990er-Jahren hatte starke Auswirkungen, die zu einer zeitweiligen Einstellung des Abbaus führten. Die Abbautechnologie wurde verändert, zeitweilig kamen ausschließlich Hydromonitoren zum Einsatz. Derzeitig wird nach Abtrag des mächtigen Abraums der Rohstoff mittels Schürfkübelbagger gelöst, das abgesetzte Haufwerk mit Hydromonitoren aufgeschlämmt und der Schlamm von großen Pumpen über eine kilometerlange Rohrleitung in die Aufbereitungsanlage befördert. Dort wird der Bernstein ausgesiebt. Der Schlammrückstand wird über ein Rohrsystem am Ostseestrand verspült. Bitterfeld und Mitteldeutschland. Bernstein in tertiären, Braunkohle führenden Schichten ist bereits seit 1669 von Patzschwig bei Bad Schmiedeberg bekannt. Als „Sächsischer Bernstein“ beschrieben ist er auch zeitweise gewonnen worden. Aus dem 19. Jahrhundert und der ersten Hälfte des 20. Jahrhunderts liegen Fundmeldungen über einzelne Bernsteine in Braunkohlengruben bei Bitterfeld vor. Im Jahre 1955 wurden im Braunkohlentagebau Goitsche östlich von Bitterfeld die Bernstein führenden Schichten für kurze Zeit angeschnitten, aber die zu Tage tretenden, zum Teil großen Brocken nicht als Bernstein (Succinit) erkannt, sondern als Retinit bezeichnet. Erst im Jahre 1974 wurde bei einem erneuten Anschnitt die Bedeutung des Bernsteinvorkommens erkannt. Die im gleichen Jahr begonnene geologische Erkundung führte zum Nachweis einer nutzbaren Lagerstätte. Als geologischer Vorrat wurden 1979 2.800 t Bernstein berechnet. Der Abbau begann bereits 1975. Grund für die so schnell aufgenommene Förderung war der starke Rückgang der Bernsteinimporte aus der Sowjetunion, die in den 1970er-Jahren ihre jährlichen Bernsteinlieferungen von zehn Tonnen auf eine senkte und damit die Schmuckproduktion im „VEB Ostseeschmuck“ in Ribnitz-Damgarten gefährdete. Von 1975 bis 1993 wurden im Tagebau Goitsche jährlich bis zu 50 t gewonnen, insgesamt 408 t. Der Bernsteinabbau wurde 1990 wegen der starken Umweltbelastung zunächst storniert und 1993 aus ökonomischen Gründen endgültig eingestellt. Zu diesem Zeitpunkt standen noch 1.080 t gewinnbarer Vorrat in den Büchern. Nach Sanierung der Böschungen wurde das Restloch des Tagebaues Goitsche ab 1998 geflutet. Durch die Sanierung der Böschungen wurden zwar Teile der Vorratsfläche blockiert, aber nach einer Studie ist noch der Zugriff auf 600 t Bernstein möglich. Die Wasserbedeckung von 20 bis 25 m ist technisch kein Hindernis, und nach einem limnologischen Gutachten wäre die Gewinnung auch umweltverträglich. Zur Gewinnung des Bernsteins im Braunkohlentagebau Goitsche liegen ausführliche Beschreibungen vor. Der gewonnene Rohbernstein wurde an der Aufbereitungsanlage im Tagebau gereinigt, getrocknet und der nicht zur Herstellung von Schmuck verwendbare Anteil von Hand ausgelesen. Der verwendbare Rohbernstein wurde durch Siebung nach der Größe in vier Sorten getrennt und an den „VEB Ostseeschmuck“ geliefert. Der zur Schmuckherstellung nicht verwendbare Anteil wurde als Abfall (Brack) verworfen. Dieser enthielt neben ungeeigneten Varietäten des Succinit, z. B. "Knochen", "Schaum", "Schwarzfirnis" (siehe Abschnitt Bernsteinvarietäten), auch die sehr seltenen akzessorischen Bernsteinarten, die bereits Gegenstand zahlreicher wissenschaftlicher Untersuchungen waren (siehe Abschnitt Bernsteinarten). Wegen der Verwitterungskruste sind Inklusen beim Bitterfelder Succinit erst bei der Verarbeitung im VEB Ostseeschmuck sichtbar geworden. Sie wurden zur wissenschaftlichen Untersuchung dem Museum für Naturkunde (Berlin) übergeben. Bereits 1989 umfasste diese Sammlung mehr als 10.000 Stück. Übereinstimmungen mit einigen auch im baltischen Succinit gefundenen Tiergruppen spielen eine große Rolle bei der Diskussion zur Herkunft des Bitterfelder Bernsteins, siehe dazu Abschnitt Geschichte der Inklusenforschung. Polen. Polen ist ein wichtiger Exporteur von Bernsteinprodukten. Der polnische Bernstein stammt hauptsächlich aus Mozdzanowo bei Ustka an der pommerschen Ostseeküste, wo er bereits Ende des 18. Jahrhunderts abgebaut wurde. Er wird dort in vielen unterschiedlichen Farbtönen gefunden. 60 % der Fundstücke sind durchsichtig. Auch an der Verbindungsstelle zur Halbinsel Hel findet sich Bernstein in 130 m Tiefe. Ferner wurde ein Bernsteinvorkommen auf der Lubliner Hochebene entdeckt. Die Vorräte polnischer Bernsteinlagerstätten werden auf 12.000 t geschätzt. Der größte Teil des in Polen verarbeiteten Bernsteins stammt allerdings nicht aus eigener Produktion, sondern wird aus dem Kaliningrader Gebiet und aus der Ukraine importiert. Nordukraine. Seit 1979 sind die Bernsteinvorkommen im Norden der Ukraine, in der Nähe von Dubrovitsa an der weißrussischen Grenze bekannt. Nach Erlangung der Unabhängigkeit beschloss die ukrainische Führung 1993, diese Vorkommen unter staatlichem Monopol auszubeuten. Da die Vorkommen an der Oberfläche in sandigen Schichten anstehen, sind sie sehr leicht zu fördern, und so hat sich seither eine beträchtliche nicht-staatliche (und damit illegale) Förderung entwickelt (etwa 90 % der ukrainischen Produktion), die ihre Produkte zur Weiterverarbeitung über die Grenze nach Polen und Russland schmuggeln lässt. Die ukrainischen Vorkommen enthalten außergewöhnlich große Einzelstücke. Der in der Ukraine gefundene Bernstein ist vermutlich gleicher Genese wie der Succinit aus der Blauen Erde des Samlandes. Aktuelle Marktsituation. Die Preise für ein Kilogramm russischen Rohbernsteins aus Jantarny lagen im März 2011 in Polen bei 260 € für Stücke zwischen 2,5 und 5 Gramm und rund 550 € für Stücke zwischen 50 und 100 Gramm. Verminderte Fördermengen, die Einführung von Exportrestriktionen durch die russische Regionalregierung sowie eine deutlich gesteigerte Nachfrage aus China nach Rohbernstein bestimmter Qualitäten haben in den folgenden Jahren zu einer Vervielfachung des Preises geführt (Stand Mitte 2014: Stücke von 50 bis 100 Gramm ca. 3000 EUR für ein Kilogramm). Entstehung. Pflanzliche Einschlüsse im Baltischen Bernstein Bewunderung lösen immer wieder die vorzüglich erhaltenen Einschlüsse im Bernstein aus. Insbesondere die Inklusen zart geflügelter Insekten bestechen durch ihre feinsten Details bei vollkörperlicher Erhaltung. Sie sind weder zusammengedrückt noch anderweitig verformt, wie viele Fossilien in Sedimentgesteinen. Selbst Spuren des Todeskampfes sind unverändert erhalten. Bei einigen Tieren ist eine Trübewolke (Verlumung) um massigere Körperteile zu beobachten, eine Folge austretender Gase und Flüssigkeiten bei der Verwesung des Tierkörpers. Deren beschränkte Ausbreitung ist wie der detailgetreue Abdruck nur bei einer sehr raschen Aushärtung vorstellbar, wie sie sonst nur bei schnell härtenden Kunststoffen auftritt. Die Inklusen sind nur der Abdruck des ehemaligen Lebewesens, im entstandenen Hohlraum sind in der Regel keine Bestandteile seines Körpers erhalten. Wie bereits im Abschnitt Entstehung beschrieben, können die bisherigen Vorstellungen über eine langsame Aushärtung durch die Untersuchungsergebnisse an Succinitstücken von Bitterfeld nicht aufrechterhalten werden. Der Succinit härtete bereits am Baum praktisch vollständig aus, dazu passt auch die formgetreue Erhaltung der Inklusen. Häufigkeit. Organische Einschlüsse sind von den meisten Bernsteinarten bekannt, wenn auch in unterschiedlicher Häufigkeit. Bei der geologischen Erforschung der Bitterfelder Bernsteinlagerstätte wurde auch die Häufigkeit der Inklusen untersucht: Eine Tonne des Bitterfelder Succinit enthält schätzungsweise 4500 tierische Inklusen. Beim Succinit sind die sogenannten Schlaubensteine besonders ergiebig. Die aus Harzflüssen außen am Baumstamm entstandenen Schlauben sind schichtartig aufgebaut (jede Schicht entspricht einem Harzfluss), wobei sich die Einschlüsse zumeist an den Trennflächen der Harzflüsse befinden. Oft handelt es sich bei den Funden allerdings nur um Fragmente der eingeschlossenen Organismen. Zooinklusen sind häufig beschädigt, vermutlich durch Vogelfraß, als das Tier noch nicht vollständig vom Harz eingeschlossen war. Nicht selten sind auch einzelne Beine langbeiniger Arthropoden (z. B. Weberknechte) zu finden, die in der Lage waren, in Notsituationen ihre Beine abzuwerfen. Organische Reste aus zerfallenem Pflanzenmaterial und Holzmulm mit meist nicht identifizierbarer botanischer Herkunft treten häufig auf. Stücke mit vollständig erhaltenen Zeugnissen des damaligen Lebens sind aus wissenschaftlicher Sicht besonders wertvoll. Inklusen sind im Allgemeinen nur in transparenten oder zumindest halbtransparenten Stücken zu finden. Mit Hilfe der Synchrotronstrahlung ist es jedoch gelungen, auch in opaken Stücken organische Einschlüsse zu entdecken. Im Falle kreidezeitlichen Bernsteins aus Frankreich konnte durch eine Forschungsgruppe um den Paläontologen Paul Tafforeau unter Zuhilfenahme dieser Methode 3D-Modelle Inklusen in opaken Bernsteinstücken sichtbar gemacht werden. Tiere und Pflanzen im Bernstein. Die in Bernstein konservierten Lebensformen sind überwiegend Waldbewohner gewesen. Häufige Formen tierischer Einschlüsse (Zooinklusen) sind verschiedene Gliederfüßer (Arthropoden), vor allem Insekten wie Fliegen, Mücken, Libellen, Ohrwürmer, Termiten, Heuschrecken, Zikaden und Flöhe, aber auch Asseln, Krebstiere, Spinnen und Würmer sowie vereinzelt Schnecken, Vogelfedern und Haare von Säugetieren. Im oberkreidezeitlichen kanadischen Bernstein wurden einige sehr gut erhaltene Federn gefunden, die aufgrund ihrer strukturellen Merkmale von Dinosauriern stammen könnten. Mehrere Stücke mit Teilen von (lacertiden) Eidechsen, darunter ein weitgehend vollständiges Exemplar, wurden ebenfalls gefunden.(vgl. dazu auch den Abschnitt Fälschungen und Manipulationen). Falsch ist die Behauptung, es gebe Einschlüsse von Meereslebewesen im Bernstein. Bei den eingeschlossenen Lebewesen handelt es sich ausschließlich um Landbewohner (70 % aller Inklusen) und Süßwasserlebewesen (30 %) der Bernsteinwaldgebiete. Die einzigen Ausnahmen sind Einschlüsse von Asseln der Gattung "Ligia", die in der Spritzwasserzone mariner Felsstrände leben, sowie eine in einem kleinen kreidezeitlichen Bernsteinstück aus Südwestfrankreich gefundene Fauna aus marinen Mikroorganismen (u. a. Kieselalgen und Foraminiferen). Auch gibt es eine Vielzahl von pflanzlichen Inklusen (Phytoinklusen): Pilze, Moose und Flechten, aber auch Pflanzenteile, die von Lärchen, Fichten, Tannen, Palmen, Zypressen, Eiben und Eichen stammen. Der weitaus häufigste organische Einschluss im Succinit ist das sogenannte „Sternhaar“, das sich in fast allen Schlauben findet. Es sind winzige, mit bloßem Auge kaum sichtbare, strahlenförmig verästelte Pflanzenhaare (Trichome), die mit großer Wahrscheinlichkeit von Eichen stammen. Diese Einschlüsse werden als charakteristisches Merkmal des Succinit angesehen. Manchmal werden Inklusen mit Wassertropfen oder Lufteinschlüssen gefunden. Für Bernsteinstücke mit verschiedenen organischen Einschlüssen hat der polnische Paläoentomologe Jan Koteja den Begriff Syninklusen geprägt. Solche Bernsteinstücke sind einzigartige Beweisstücke über das zeitgleiche Vorkommen verschiedener Lebewesen in einem Habitat. Fossilisation. Unter Luftabschluss in Bernstein konservierte Inklusen sind zwar Fossilien, aber im Gegensatz zu den meisten Fossilien wurde ihre Substanz während der Fossilisation nicht oder nicht vollständig mineralisiert. Dass aus DNA einer inkludierten Mücke, die Dinosaurierblut aufgenommen hat, mit Hilfe der Gentechnik ein lebendiger Dinosaurier erzeugt werden kann, wie dies im später als "Jurassic Park" verfilmten Buch "DinoPark" von Michael Crichton dargestellt wird, ist Gegenstand der Fiktion. Tatsächlich wurde wiederholt publiziert, dass aus Bernstein nicht nur sequenzierbare aDNA (alte DNA) isoliert werden kann, auch aus Chloroplasten-DNA, sondern auch Proteine und sogar lebensfähige Organismen. Die Frage des aDNA-Nachweises wird jedoch kontrovers geführt. Wissenschaftler äußerten in der Vergangenheit ernste Zweifel an der Erhaltung von aDNA über Jahrmillionen und vermuteten Kontaminationen mit rezenter DNA. Eine Erhaltungsmöglichkeit von aDNA, z. B. innerhalb fossilierter Knochen, wird prinzipiell nahezu ausgeschlossen, da die DNA nach dem Tod eines Lebewesens rasch zerfällt und nach spätestens 6,8 Mio. Jahren ohne Luftabschluss nicht mehr nachweisbar ist. Dieser Ansicht widersprechen andere Wissenschaftler und belegen, dass es durchaus Erhaltungsmöglichkeiten für sehr alte aDNA gebe. aDNA-Extraktionen und deren Analysen seien auch an sehr alten Fossilien möglich. Allerdings wurde festgestellt, dass bei sehr alter aDNA, etwa aus dem Miozän, gehäuft mit Veränderungen zu rechnen sei, da die ursprüngliche Base Cytosin dann als Uracil vorliegen könne, was die Interpretation erschwere. Geschichte der Inklusenforschung. Schon in der Antike bestand Gewissheit über den organischen Charakter zahlreicher Einschlüsse in Bernstein. Allerdings stehen zu der Zeit noch biologisch zutreffende Wahrnehmungen neben Dichtung und Mythos, wie sich beispielhaft an den Titeln zweier Epigramme des Martial zeigen lässt: "Über eine Biene in Bernstein" und "Über eine Viper in Bernstein". Sein Epigramm über eine Ameise in Bernstein ist im Kapitel "Bernstein in Mythologie und Dichtung" vollständig wiedergegeben. Die naturwissenschaftliche Erforschung der Einschlüsse setzte allerdings erst im 18. Jahrhundert ein, was nicht zuletzt mit der Verfügbarkeit deutlich verbesserter technischer Hilfsmittel (insbesondere Mikroskope) sowie dem enormen Fortschritt in der biologischen Forschung zusammenhängt. Im 19. Jahrhundert erschienen die ersten Monographien über Tier- und Pflanzengruppen (zu nennen sind hier insbesondere folgende Autoren von bis heute wichtig gebliebenen Arbeiten über Einschlüsse in Baltischem Bernstein: Heinrich Göppert, Georg Carl Berendt, Hugo Conwentz, Robert Caspary, Richard Klebs, Anton Menge und Fernand Meunier). Eine bedeutungsvolle Rolle in der Bernsteinforschung spielen die reichhaltigen Inklusen des Bitterfelder Succinits. Die bei der Untersuchung bei einigen Tiergruppen, insbesondere Spinnen, festgestellten Übereinstimmungen mit denen aus den Sammlungen baltischen Succinits führte zur Annahme, dass der Bernstein der Bitterfelder Lagerstätte nur umgelagerter Baltischer Bernstein sei. Die umfassende Kenntnis zu den Bernsteinvorkommen in Mitteldeutschland schließt aber eine solche Möglichkeit aus (siehe Abschnitt Weltweites Vorkommen von Bernstein). Bereits seit langem wird es für möglich gehalten, dass in die Sammlungen des Baltischen Bernsteins auch Inklusen aus den miozänen Schichten des Samlands, die in der Anfangsphase der Gewinnung abgebaut wurden (siehe Abschnitt Bernsteingewinnung in der vorbergbaulichen Zeit), geraten sind, also eine vermischte Fauna vorliegt. Eine endgültige Klärung kann nur durch neue Aufsammlungen aus der aktuellen Bernsteingewinnung in Jantarny erfolgen, denn diese erfolgt allein aus der obereozänen „Blauen Erde“. An Darstellungen der Tier- und Pflanzenwelt im Baltischen Bernstein jüngeren Datums sind beispielsweise zu nennen die wissenschaftlichen, aber weithin noch allgemeinverständlichen Arbeiten von Wolfgang Weitschat und Wilfried Wichard ("Atlas der Pflanzen und Tiere im Baltischen Bernstein"), George O. Poinar jr. ("Life in amber") sowie die streng wissenschaftliche Arbeit von Sven Gisle Larsson ("Baltic Amber – a Palaeobiological Study"). Die größten Inklusensammlungen aus Baltischem Bernstein. Die wohl größte jemals existierende Sammlung organischer Einschlüsse in Baltischem Bernstein dürfte mit etwa 120.000 Stücken die der Albertus-Universität Königsberg gewesen sein. Der größte Teil dieser Sammlung ist in den Wirren des Zweiten Weltkrieges untergegangen, der erhaltene Teil befindet sich heute im Institut und Museum für Geologie und Paläontologie (IMGP) der Universität Göttingen. Von erheblicher Bedeutung war vor dem Zweiten Weltkrieg auch die Sammlung des Westpreußischen Provinzial-Museums Danzig, deren Bestand deutlich mehr als 13.000 Exemplare umfasst haben muss. Gebrauchsgegenstände und technische Geräte. In der chemischen Industrie wurde zunächst nicht für die Schmuckindustrie geeigneter Bernstein für die Herstellung von Bernsteinlack, Bernsteinöl und Bernsteinsäure verwendet. Lacke setzten sich zumeist aus Kolophonium (verbleibende feste Masse geschmolzenen Bernsteins nach Destillation von Bernsteinöl und Bernsteinsäure), Terpentinöl und Leinölfirnis, mitunter ergänzt um Bleiglätte, in unterschiedlichen Rezepturen je nach Verwendung des Endproduktes (z. B. als Schiffslack oder Fußbodenlack) zusammen. Zeitweilig wurden die Pferdehaare des Geigenbogens mit reinem Kolophonium bestrichen („Geigenharz“). Reines Bernsteinöl diente als Holzschutzmittel, das sich als sehr wirksam erwiesen hat, Bernsteinsäure fand Verwendung bei der Herstellung bestimmter Farben. Heute werden diese Produkte nahezu ausschließlich synthetisch erzeugt. Ende des 17. Jahrhunderts entstanden Techniken, Bernstein zu entfärben. Das klare Endprodukt wurde als Rohmaterial für optische Linsen verwendet. Optische Geräte, in denen Bernsteinlinsen verwendet wurden, blieben bis zur Mitte des 19. Jahrhunderts in Gebrauch. Bis zum Zweiten Weltkrieg wurden bei Bluttransfusionen aus Bernstein gefertigte Gefäße verwendet, da auf diese Weise der Hämolyse entgegengewirkt werden konnte. Ein weiteres sehr seltenes Einsatzgebiet waren elektrische Isolatoren, da der spezifische Widerstand von Bernstein mit ungefähr 1016 Ω·m−1 größer als der von Porzellan ist. Pressbernstein. Der in den 1870er Jahren in Königsberg entwickelte Pressbernstein wurde in industriellem Maßstab seit 1881 in Wien und später auch in der "Staatlichen Bernstein-Manufaktur Königsberg" zur Herstellung von Gebrauchsgegenständen wie Zigarettenspitzen, Mundstücken von Tabakspfeifen oder der türkischen Tschibuk, Nippes (Kunst) und billigem Schmuck verwendet. Nach Afrika exportierter Pressbernstein wurde auch abschätzig als Negergeld bezeichnet. Der preisgünstige Pressbernstein wurde nach einiger Zeit von dem billigeren Kunststoff ersetzt. Es begann mit Bakelit, durch den Pressbernstein fast vollständig verdrängt wurde. Mythologie und Dichtung. Abgesehen von den zahlreichen prosaischen Textstellen antiker Schriften (u. a. Herodot, Plato, Xenophon, Aristoteles, Hippokrates, Tacitus, Plinius d. Ä., Pytheas; Waldmann führt 31 erhaltene antike Textstellen auf und verweist auf Plinius, der in seinem Traktat über Bernstein weitere 30 Textstellen erwähnt, die uns nicht erhalten sind), in denen es zumeist darum geht, Bernstein zu beschreiben und seine Herkunft zu erklären, hat das fossile Harz auch in Mythologie und Dichtung seinen festen Platz. Dazu gehörten ohne Zweifel einige Schriften der zahlreichen von Plinius d. Ä. erwähnten Autoren, die sich mit Baumharz auf irgendeine Art beschäftigt haben, deren Werke aber nicht überliefert sind. Ähnlich dramatisch wie im Mythos der "Tränen der Heliaden" verlaufen die Ereignisse in der aus dem Gebiet des heutigen Litauen stammenden Legende von Jūratė und Kastytis, an deren Ende die Zerstörung eines auf dem Meeresgrund befindlichen Schlosses aus Bernstein steht, womit die sich stetig erneuernden Strandfunde an der Ostsee mit dichterischen Mitteln erklärt sind. Ein frühes Beispiel dichterischer Bearbeitung in der deutschen Literatur gibt der im ostpreußischen Neidenburg geborene Dichter Daniel Hermann mit seinen in Latein verfassten Versen auf einen Bernsteinfrosch und eine Bernsteineidechse aus der Sammlung des Danziger Kaufmanns Severin Goebel, der offenbar Fälschungen aufgesessen war. In zahlreichen späteren Werken ostpreußischer Heimatdichtung bis in das 20. Jahrhundert steht immer wieder das „Gold des Nordens“ im Mittelpunkt von Versen. Maria Schade ("Ostpreußenland"), Rudolf Schade ("Samlandlied"), Johanna Ambrosius ("Ostpreußenlied"), Hans Parlow ("Pillauer Lied") und Felix Dahns ("Die Bernsteinhexe") sowie eine der bekanntesten Dichterinnen ostpreußischer Herkunft, Agnes Miegel ("Das war ein Frühling" und "Das Lied der jungen Frau"), sollen hier nur stellvertretend für viele andere erwähnt werden. Neben der reichhaltigen Fachliteratur und den vielen, meist in deutscher, polnischer oder englischer Sprache erschienenen populärwissenschaftlichen Veröffentlichungen sind in jüngerer Zeit auch immer wieder Dokumentationen und erzählerische Werke rund um das Thema Bernstein erschienen, die einem größeren Publikum bekannt wurden. An dieser Stelle seien – ohne jegliche Wertung – einige dieser Titel erwähnt: "Die Bernsteinzimmer-Saga" von Günter Wermusch, "Die Bernsteinsammlerin" von Lena Johannson, "Die Mücke im Bernstein" von Else G. Stahl, "Das Bernstein-Amulett" von Peter Prange. Legendäre Heilkräfte und Schutzzauber. Thales von Milet setzte die elektrostatischen Eigenschaften des Bernsteins mit magnetischen Kräften gleich, die nicht nur Staub und Gewebefasern anziehen, sondern auch andere winzige Gebilde, die schädlich auf die menschliche Gesundheit einwirken können (heute würden wir dazu „Krankheitserreger“ sagen). Nicht zuletzt deswegen wird Bernstein seit alters her als Heilmittel eingesetzt. So schreibt Plinius der Ältere in seiner Naturalis historia, dass auf der Haut getragene Bernsteinamulette vor Fieber schützen. Der griechische Arzt Pedanios Dioskurides beschrieb im 1. Jh. n. Chr. in seinem Werk Materia Medica die Heilwirkung von Bernstein bei „Podagraschmerzen, Dysenterie und Bauchfluss“. Die Menschen der Vorzeit und des Altertums fanden für die außergewöhnlichen Eigenschaften des Bernsteins keine einleuchtende Erklärung. Dies führte dazu, dass dem fossilen Harz vielerorts eine dämonenabwehrende Wirkung als Apotropaion zugeschrieben wurde. Der Bernstein wurde am Körper getragen, oft mit einem Band um den Hals befestigt. Später kamen Formgebung und Verzierung hinzu, die zunächst figurative Darstellungen waren, durch die Heilkräfte und Schutzzauber des Bernsteins verstärkt und kanalisiert werden sollten; später verselbständigten sich diese dekorativen Bearbeitungen zu Schmuck, beispielsweise in Gestalt von Anhängern. Nach mittelalterlichen Manuskripten (12. Jahrhundert), die Hildegard von Bingen zugeschrieben werden, galt Bernstein als eines der wirksamsten Medikamente gegen eine ganze Reihe von Erkrankungen und Beschwerden (z. B. Magenbeschwerden, Blasendysfunktion). Aus der gleichen Zeit stammt das Verbot, mit weißem Bernstein zu handeln, ausgesprochen vom Deutschritterorden, der die Bernsteingewinnung und -nutzung kontrollierte, da ihm besondere heilende Kräfte zugeschrieben wurden und er vom Orden selbst für medizinische Zwecke verwendet wurde. Georgius Agricola empfahl in seiner Schrift „De peste“ (1554) verschiedene Bernsteinmixturen als vorbeugendes Mittel gegen die Pest. Einige Autoren veröffentlichten genaue Rezepturen: Nicholas Culpeper (1654) empfahl ca. 0,7 Gramm Bernstein zur Einnahme als Mittel bei erschwertem Urinieren; William Salmon (1696) hielt eine Mischung aus 2,3 Gramm Bernsteinpulver mit 0,14 Liter Weißwein für heilsam gegen Epilepsie, und Jan Freyer (1833) mischte Bernsteinöl mit sechs Teilen destilliertem Wasser und verschrieb dieses Mittel in unterschiedlicher Dosis und Zubereitungsform als Arznei zur äußerlichen und innerlichen Anwendung bei einer Vielzahl von Erkrankungen und Beschwerden (Krämpfe, Bandwürmer, Rheuma und vieles andere mehr). Der Mediziner und Mikrobiologe Robert Koch analysierte im Jahre 1886 Bernsteinsäure und kam zu dem Ergebnis, dass Bernsteinsäure einen positiven, unter anderem immunitätssteigernden Einfluss auf den menschlichen Organismus haben kann und, selbst in großen Mengen verabreicht, den Organismus nicht schädigt. Medikamente mit dem Wirkstoff „Bernsteinsäure“ sind noch heute – insbesondere in den USA und in Russland – im Handel. Auch in der Homöopathie werden Präparate verwendet, die Bernsteinextrakte enthalten. Da Bernsteinsäure in der Verwitterungskruste des Rohbernsteins angereichert ist, wird in der Naturheilkunde oftmals empfohlen, unbearbeiteten Bernstein direkt auf der Haut zu tragen. Der Glaube an die „Kraft des Steins“ findet sich auch in magischen Vorstellungen der Neuzeit wieder – etwa, wenn empfohlen wird, Ehefrauen nachts Bernstein auf die Brust zu legen, um sie so zum Gestehen schlechter Taten zu bringen. Im Volksaberglauben gilt Bernstein als Schutz vor bösem Zauber und soll Dämonen, Hexen und Trolle vertreiben. In der Esoterik gilt Bernstein als „Heil- und Schutzstein“, der Ängste nehme und Lebensfreude schenke. Um seine volle Wirkung zu entfalten, müsse er lange ohne Unterbrechung auf der Haut getragen werden. Wissenschaftliche Belege gibt es dafür nicht. Ferner wird Bernstein von Esoterikern als „Zahnungshilfe“ eingesetzt: Eine Bernsteinkette, um den Hals des Babys gelegt, erleichtere dem Kind das Zahnen und nehme ihm die Schmerzen. Bernstein entfalte angeblich eine entzündungshemmende Wirkung. Wahrscheinlicher ist, dass Bernstein aufgrund seiner Beschaffenheit als Beißring taugt, wenn das Baby die Kette in den Mund nimmt. Ebenfalls wird „eine Aura aus positiven Schwingungen“ in der Steinheilkunde erwähnt, die vom Bernstein ausgehe. Allerdings gehen von Bernsteinketten auch Gefahren für die Kleinkinder aus. So kann es zur Strangulation durch die Kette selbst kommen, oder abgebrochene Teile des Bernsteins können eingeatmet werden und die Atemwege verlegen. Hypothesen zur Herkunft. Der Königsberger Konsistorialrat Johann Gottfried Hasse, ein früher Verfechter der zu seiner Zeit nicht unbestrittenen Ansicht, dass Bernstein pflanzlicher Herkunft ist, beschäftigte sich auch mit Methoden der Mumifizierung und kam durch seine Kenntnis von Bernsteininklusen zu der Ansicht, dass in der Antike Bernstein als Konservierungsmittel eine Rolle spielte. In einer 1799 veröffentlichen Schrift bringt er sein Bedauern darüber zum Ausdruck, dass dieses Wissen offenbar verloren gegangen ist und, wäre es noch vorhanden, „[…] so hätte man Friedrichs des Zweyten irdische Reste für die Nachwelt verewigen sollen […]“. Verarbeitung und Pflege von Bernstein. Bernstein wurde schon in der Steinzeit bearbeitet. Durch seine geringe Härte (Mohshärte >2,5) ist das ohne maschinellen Aufwand möglich. Werkzeug. Zur Bearbeitung von Bernstein wird Nass-Schleifpapier mit Körnungen von 80 bis 1000 verwendet sowie Nadelfeilen mit Hieb 1 und 2, Schlämmkreide (Alternative: Zahnpasta), Brennspiritus, Wasser, Leinen- oder Baumwolllappen, Fensterleder (Ledertuch), eine kleine Bohrmaschine und Spiralbohrer (max. 1 mm), eine mittelstarke Laubsäge (zum Zerschneiden großer Bernsteinstücke) und eine Angelsehne (zum Auffädeln einer Kette). Im Umgang mit den Geräten ist Vorsicht geboten. Auf einer Werkbank lassen sich die zu bearbeitenden „Rohsteine“ am besten mittels kleiner Aufspannvorrichtungen bearbeiten. Verarbeitungsprozess. Im ersten Schritt wird der Bernstein gefeilt und poliert. Dabei wird die unerwünschte Verwitterungskruste mit der Nadelfeile oder Nass-Schleifpapier der Körnung 80 bis 120 entfernt. Zum Aufbau des Schliffs werden mit dem Bernstein oder dem Schleifpapier kreisende Bewegungen ausgeführt. Dabei wird die Körnung stufenweise bis auf 1000 erhöht. Diese Bearbeitung erfordert etwas Geduld, da die gröberen Schleifspuren des vorherigen Schleifpapiers glatt geschliffen sein müssen, bevor die nächstfeinere Körnung benutzt werden kann. Zudem sollte der Bernstein vor jedem Wechsel des Schleifpapiers gründlich mit Wasser abgespült werden, um ihn nicht zu überhitzen (dadurch kann eine klebrige Oberfläche entstehen) und um Kratzer zu vermeiden. Im zweiten Schritt wird der Bernstein der Politur, dem letzten Arbeitsgang beim Schleifen, unterzogen. Dazu wird ein Leinen- bzw. Baumwolltuch mit Spiritus angefeuchtet und mit Schlämmkreide bestrichen. Mit dem so präparierten Tuch wird der Bernstein in kreisenden Bewegungen poliert und anschließend unter Wasser ausgewaschen. Zum Schluss wird der Bernstein mit einem Fensterleder nachpoliert. Im dritten Schritt wird in den Bernstein, falls gewünscht, ein Loch gebohrt. Der Bohrer wird in eine elektrische Handbohrmaschine eingespannt. Die verwendete Drehzahl sollte niedrig sein, und eine gewisse Übung in der Handhabung von Bohrern ist nicht nur aus Sicherheitsgründen von Vorteil. Der Bohrer darf nicht verkanten oder mit großem Druck durch den Bernstein getrieben werden, da Bernstein sehr druckempfindlich und damit die Bruchgefahr sehr groß ist. Sollte der Bernstein doch einmal brechen, hilft ein handelsüblicher Sekundenkleber. Matte, wenig glänzende, stumpfe oder ältere Bernsteine bekommen mit etwas Möbelwachs einen schönen Glanz. Eine weitere Form der Ver- oder Bearbeitung stellt die Arbeit des Bernsteindrechslers dar. In Deutschland wird diese Spezialisierungsrichtung des Drechslers nur noch in einem Betrieb in Ribnitz-Damgarten gelehrt – der Ribnitzer Bernstein-Drechslerei GmbH. Pflege und Konservierung. Unter Einfluss von Luftsauerstoff und Feuchtigkeit entwickelt Bernstein eine Verwitterungskruste (durch Oxidation). Dieser oftmals in der Lagerstätte des Bernsteins bereits einsetzende Prozess (sogenannter Erdbernstein trägt zumeist eine kräftige Verwitterungskruste) setzt sich fort, wenn Bernstein als Schmuck- oder Sammlungsstück aufbewahrt wird. Bis heute ist keine Methode bekannt, mit der dieser Prozess völlig unterbunden werden könnte, ohne nachteilige Auswirkungen anderer Art hervorzurufen (z. B. Einschränkung der Untersuchungsmöglichkeiten bei Eingießung in Kunstharz; Gefahr des Eindringens von Substanzen aus der Konservierungsmatrix in das fossile Harz usw.). Alle bisher bekannten Konservierungsmethoden können mithin lediglich den Verwitterungsprozess verlangsamen. Für den Hausgebrauch genügt es im Allgemeinen, Bernstein dunkel, kühl und trocken aufzubewahren. Schmuckstücke aus Bernstein sollten regelmäßig unter fließend warmem Wasser gespült und nicht in die Sonne gelegt werden, da Bernstein schnell brüchig wird. Außerdem sollten weder Seife bzw. Putzmittel noch chemische Substanzen verwendet werden, da durch den Kontakt mit diesen Stoffen irreparable Schäden entstehen können. Stücke von besonderem (wissenschaftlichen) Wert sollten hingegen fachkundig konserviert werden. Dazu bedarf es in der Regel der Unterstützung durch einen Spezialisten (z. B. einen Konservator an einem naturkundlichen Museum). Einige gängige Konservierungsmittel und -methoden werden von K. Kwiatkowski (2002) beschrieben. Fälschungen, Manipulationen und Imitationen. Bernsteinnachbildungen (Imitationen) sind in sehr vielfältiger Form im Handel. Das trifft vor allem auf den Baltischen Bernstein zu. Meist handelt es sich um Nachbildungen auf der Grundlage verschiedenartiger Kunstharze, deren Eigenschaften zur Herstellung von Objekten, die das Erscheinungsbild von Bernstein haben, sich im Laufe mehrerer Jahrzehnte mehr und mehr verbessert haben. Um Fälschungen handelt es sich nach allgemeinem Sprachgebrauch stets dann, wenn Bernstein in der Absicht nachgebildet wird, ihn als Naturbernstein oder echten Bernstein auszugeben und er als solcher angeboten wird. Nach dem "Gesetz zum Schutz des Bernsteins" durfte nur Naturbernstein als Bernstein bezeichnet werden, und die Kennzeichnung als Bernstein durfte nur durch den ersten Verkäufer bzw. den Hersteller von Bernsteinerzeugnissen erfolgen. Das Gesetz wurde 2006 aufgehoben, da der bezweckte Schutz ausreichend durch andere Rechtsvorschriften, insbesondere das Recht des unlauteren Wettbewerbs, gewährleistet sei. Aufgrund der Wertschätzung, die seit alters her organischen "Bernsteineinschlüssen" entgegengebracht wird, sind Inklusen naturgemäß besonders häufig Gegenstand von Fälschungen. Schon aus dem 16. Jahrhundert sind gefälschte Bernsteineinschlüsse bekannt. Man versuchte damals, Tiere wie Frösche, Fische oder Eidechsen als Inklusen im Bernstein unterzubringen, eine Praxis, die auch heute noch üblich ist. Göbel berichtet 1558 über Nachbildungen (ein Frosch und eine Eidechse), die ein Danziger Händler einem italienischen Adeligen aus Mantua verkaufte. Im Jahre 1623 erhielt der polnische König Sigismund III. Wasa, ein Kunstsammler und -mäzen, anlässlich seines Besuch der Stadt Danzig einen in Bernstein eingeschlossenen Frosch von den Bürgern der Stadt als Gastgeschenk. Auch in der umfangreichen Sammlung von August II. von Polen (August der Starke) befanden sich nach einer von Sendelius im Jahre 1742 veröffentlichten Bestandsaufnahme (in der diese noch als authentisch angesehen wurden) zahlreiche Fälschungen, zumeist Wirbeltiere oder riesige Insekten. Dabei fällt es auch der Wissenschaft nicht immer leicht, zu einem sicheren Ergebnis zu kommen. Ein bekanntes Beispiel dafür ist die sogenannte „Bernstein-Eidechse von Königsberg“, die erstmals 1889 schriftlich erwähnt wird. Später tauchten wiederholt Zweifel an der Echtheit des Stückes auf – es wurde vermutet, die Eidechse sei von Menschenhand in Kopal eingebettet worden –, bis es am Ende des Zweiten Weltkrieges verschollen war. Nachdem das Stück Ende der 1990er Jahre im Geologisch-Paläontologischen Institut der Universität Göttingen wieder auftauchte und erneut gründlich untersucht wurde, ist jetzt seine Echtheit bestätigt. Dabei spielten im Bernsteinstück vorhandene Syninklusen (in diesem Fall Eichensternhaare) eine nicht unerhebliche Rolle. Nicht selten wird auch der "Bernstein selbst" gefälscht, das trifft vor allem für Bernsteinvarietäten zu, die aufgrund ihrer Farbe, Transparenz oder Größe in der Natur nur selten vorkommen. Abgesehen von ihrem Brenngeruch und ihrer geringen Härte bzw. Dichte sind manche Bernsteinsorten nur schwer von entsprechend gefärbten Kunststoffen zu unterscheiden. Solche Nachbildungen bestehen meist aus Materialien, die den Kunststoffgruppen der Thermoplasten und Duroplasten angehören. Darunter fallen Stoffe wie Celluloid, Plexiglas, Bakelit, Bernit (Bernat) und Casein. Gängige Handelsnamen dafür sind unter anderem Galalith, Alalith oder Lactoid. Auch der in der DDR produzierte künstliche Bernstein aus Polyester und Bernsteinstücken, der als Polybern verkauft wurde, gehört zu diesen Kunststoffnachbildungen. In jüngerer Zeit sind häufig Bernsteinnachbildungen aus Polyesterharzen im Handel zu finden, oft ist dem Polyesterharz zuvor eingeschmolzener Naturbernstein zugefügt. In solche Objekte werden nicht selten rezente Insekten oder Spinnen eingefügt, die als Bernsteininklusen ausgegeben werden. Solche Nachbildungen werden besonders in Ländern mit reichen Bernsteinvorkommen und entsprechend umfangreichem Warenangebot hergestellt und im Handel angeboten (Polen, Russland). Mischungen von Bernstein und Kunstharzen sind mitunter an den Trennlinien der verwendeten Materialien zu erkennen, wenn Fragmente von Naturbernstein in das Kunstharz eingefügt wurden, ohne ihn zuvor zu schmelzen. Weniger leicht zu identifizieren sind Rekonstruktionen aus pulverisiertem Schleifabfall oder kleinen Bruchstücken des puren Bernsteins, die miteinander verschmolzen werden. Bernsteinrekonstruktionen dürfen als „Echt Bernstein“ verkauft werden, da die Grundlage tatsächlich echter Bernstein(staub) ist. Er ist auch als Pressbernstein bekannt. Zum "Prüfen", ob es sich bei einem Bernstein um ein Original oder ein Imitat handelt, kann eine "glühende Nadel" verwendet werden. Diese hält man an den Stein und zieht sie mit etwas Druck darüber. Bildet sich eine Rille und wird der Stein schmierig bzw. riecht er harzig, während die Nadel an einer Stelle bleibt, ist es Bernstein. Andernfalls ist es ein Imitat. Alternativ kann man auch die Dichte des Bernsteins zum Test nutzen. Bernstein sinkt in Süßwasser (z. B. normalem Leitungswasser), schwimmt jedoch in konzentriertem Salzwasser. Man benutzt zwei Gefäße, eines mit Süßwasser, eines mit Salzwasser (etwa zwei Esslöffel Salz auf einen Viertelliter Wasser). Bernstein versinkt im ersten Glas, schwimmt jedoch im zweiten. Plastik schwimmt auch auf Süßwasser, Steine und Glas versinken im Salzwasser. Zur Prüfung der Echtheit von Bernstein eignet sich auch die Fluoreszenz-Methode, da Bernstein unter UV-Licht weiß-blau strahlt, Plastik jedoch nicht. Künstlich geklärte Bernsteine sind keine Seltenheit. Dabei werden trübe Naturbernsteine (95 % der Naturbernsteine) über mehrere Tage langsam in Rüb- oder Leinsamenöl erwärmt, um sie zu klären. Durch geschickte Temperaturregelung während des Klärungsprozesses können auch Sonnenflinten, Sonnensprünge und Blitzer, die in Naturbernsteinen äußerst selten vorkommen, gezielt hergestellt werden. Oft wird auch ein hohes Alter des Steins vorgetäuscht. Beim sogenannten Antikisieren wird das Material in einem elektrischen Ofen in gereinigtem Sand mehrere Stunden auf 100 °C erhitzt, um einen warmen Braunton zu erzeugen. Alle diese Manipulationen sind nur schwer nachzuweisen. Bernstein wird oft mit durchscheinendem gelbem Feuerstein verwechselt, dessen Oberfläche auch glänzt. Aber im Gegensatz zum leichten und warmen Bernstein ist Feuerstein kalt und härter als Glas. Um selbst gefundene Bernsteine von Feuerstein zu unterscheiden (bei kleineren Splittern ist das Gewicht nicht ohne weiteres zu bestimmen), kann man mit dem Stein "vorsichtig" gegen einen Zahn klopfen. Ergibt sich ein weicher Ton, wie er zum Beispiel entsteht, wenn man mit dem Fingernagel gegen den Zahn klopft, so ist es kein Feuerstein. Seit den letzten Jahren wird Bernstein oft durch den „Kolumbianischen Ambar“ ersetzt: Dieser Kopal ist zwar nur an die 200 Jahre alt, erfährt aber durch verschiedene Verarbeitungsstufen eine künstliche Alterung. Im Endprodukt ist für Laien und die meisten Fachleute keine Unterscheidung zwischen alt und jung mehr möglich. Nach Auskunft kolumbianischer Kopalhändler werden mehrere Tonnen pro Monat zur „Bernsteinschmuckverarbeitung“ weltweit exportiert. Gefahr durch Ähnlichkeit mit weißem Phosphor. Weißer Phosphor kann mit Bernstein verwechselt werdenAuf Usedom und in einigen weiteren Gegenden der Ostsee kommt es in seltenen Fällen zur Anspülung von Klumpen weißen Phosphors aus alten Brandbomben aus dem Zweiten Weltkrieg. Diese Klumpen weisen eine gewisse Ähnlichkeit mit Bernstein auf. Wenn die feuchte Oberfläche des Phosphors trocknet, entzündet er sich bei Körpertemperatur von selbst, was bei Sammlern zu schweren Verbrennungen führen kann. Auf Usedom sind daher Warnschilder aufgestellt. Unerfahrenen Sammlern wird geraten, ihre Funde nicht in der Hosentasche, sondern in einem Marmeladengläschen aufzubewahren. Boson. Bosonen (nach dem indischen Physiker Satyendranath Bose) sind alle Teilchen, die sich gemäß der Bose-Einstein-Statistik verhalten, in der z. B. alle Teilchen eines Ensembles den gleichen Zustand einnehmen können. Dem Spin-Statistik-Theorem zufolge haben sie einen ganzzahligen Eigendrehimpuls (Spin) in Einheiten des Planckschen Wirkungsquantums formula_1. Daran kann man sie von den Fermionen und Anyonen unterscheiden, die einen gebrochenzahligen Spin aufweisen und andere statistische Eigenschaften haben. Im Standardmodell der Teilchenphysik vermitteln Bosonen als Elementarteilchen die Kräfte zwischen den Fermionen, wie z. B. das Photon als Überträger der elektromagnetischen Kraft. Auch das Graviton als Träger der Gravitation ist ein Boson, sowie das Higgs-Boson, das den Teilchen ihre Masse verleiht. Andere Bosonen sind aus mehreren Teilchen zusammengesetzt wie z. B. die Cooper-Paare aus Elektronen und Phononen als Ladungsträger im Supraleiter, Atomkerne mit einer geraden Nukleonenzahl oder die Mesonen, das sind Quark-Antiquark-Paare. Einteilung nach dem Spin. Bosonen werden je nach Spin verschieden bezeichnet. Grundlage dieser Bezeichnung ist ihr Transformationsverhalten unter eigentlich orthochronen Lorentz-Transformationen. Tensoren höherer Stufen (d. h. Bosonen mit einem Spin > 2) sind physikalisch weniger relevant, da sie nur als zusammengesetzte Teilchen auftreten. Makroskopische Quantenzustände. Eine besondere Eigenschaft der Bosonen ist, dass sich bei Vertauschung zweier gleicher Bosonen die quantenmechanische Wellenfunktion nicht ändert (Phasenfaktor +1). Im Gegensatz dazu ändert sich bei einer Vertauschung zweier gleicher "Fermionen" das Vorzeichen der Wellenfunktion. Die Begründung für die Invarianz der Wellenfunktion bei Bosonen-Vertauschung erfolgt über das relativ komplizierte Spin-Statistik-Theorem. Anschaulich erhält man nach zweimaligem Vertauschen (d.h. einer Spiegelung bzw. Anwendung des Paritätsoperators) wieder den ursprünglichen Zustand; einmaliges Vertauschen kann also nur einen Faktor vom Betrag 1 erzeugen, der quadriert 1 ergibt – also entweder 1 oder -1 –, wobei die 1 den Bosonen entspricht. Zusammengesetzte Teilchen. Fermionisches oder bosonisches Verhalten zusammengesetzter Teilchen kann nur aus größerer Entfernung (verglichen mit dem betrachteten System) beobachtet werden. Bei näherer Betrachtung (in einer Größenordnung, in der die Struktur der Komponenten relevant wird) zeigt sich, dass ein zusammengesetztes Teilchen sich entsprechend der Eigenschaften (Spins) der Bestandteile verhält. Beispielsweise können zwei Helium-4-Atome (Bosonen) nicht den gleichen Raum einnehmen, wenn der betrachtete Raum vergleichbar mit der inneren Struktur des Heliumatoms (~ 10−10 m) ist, da die Bestandteile des Helium-4-Atoms selbst Fermionen sind. Dadurch hat flüssiges Helium ebenso eine endliche Dichte wie eine gewöhnliche Flüssigkeit. Supersymmetrische Bosonen. Im um die Supersymmetrie erweiterten Modell der Elementarteilchen existieren weitere elementare Bosonen. Auf jedes Fermion kommt rechnerisch ein Boson als supersymmetrisches Partnerteilchen, ein so genanntes "Sfermion", so dass sich der Spin jeweils um ±1/2 unterscheidet. Die Superpartner der Fermionen werden allgemein durch ein zusätzliches vorangestelltes "S-" benannt, so heißt z. B. das entsprechende Boson zum Elektron dann "Selektron". Genau genommen wird zunächst im Wechselwirkungsbild jedem fermionischen Feld ein bosonisches Feld als Superpartner zugeordnet. Im Massebild ergeben sich die beobachtbaren oder vorhergesagten Teilchen jeweils als Linearkombinationen dieser Felder. Dabei muss die Zahl und der relative Anteil der zu den Mischungen beitragenden Komponenten auf der Seite der bosonischen Superpartner nicht mit den Verhältnissen auf der ursprünglichen fermionischen Seite übereinstimmen. Im einfachsten Fall (ohne oder mit nur geringer Mischung) kann jedoch einem Fermion (wie dem Elektron) ein bestimmtes Boson bzw. Sfermion (wie das Selektron) zugeordnet werden. Darüber hinaus benötigt bereits das minimale supersymmetrische Standardmodell (MSSM) im Unterschied zum Standardmodell (SM) mehrere bosonische Higgs-Felder inklusive ihrer Superpartner. Bisher wurde keines der postulierten supersymmetrischen Partnerteilchen experimentell nachgewiesen. Sie müssten demnach eine so hohe Masse haben, dass sie unter normalen Bedingungen nicht entstehen. Man hofft, dass die neue Generation der Teilchenbeschleuniger zumindest einige dieser Bosonen nachweisen kann. Anzeichen sprechen dafür, dass die Masse des leichtesten supersymmetrischen Teilchens (LSP) im Bereich einiger hundert GeV/c² liegt. Biorhythmus (Mantik). Biorhythmus ist eine unbelegte Hypothese, die besagt, dass die physische und die intellektuelle Leistungsfähigkeit sowie der Gemütszustand des Menschen bestimmten Rhythmen unterworfen sind, die bei allen Menschen gleich sind und mit dem Tag der Geburt beginnen. Diese Rhythmen werden anhand eines Biorhythmogrammes dargestellt. Biorhythmustheorie. Bei der Geburt sollen diese Rhythmen wellenartig mit ihrer ersten Periode positiv anfangen, nach einer halben Periodenlänge die Null–Linie überqueren und dann in eine negative Phase gehen. Am Ende der Periode erfolgt wieder ein Umschlag in den positiven Bereich. Alle Übergänge, das heißt von positiv zu negativ und umgekehrt, sollen "kritische Tage", also potentiell „schlechte“ Tage, sein. Kommt es nun bei allen drei Phasen zu einem Übergang am selben Tag, kann das laut der biorhythmischen Lehre krisenhafte Folgen haben – während das Zusammentreffen positiver Tage besonders gute Tage zur Folge haben soll. Die Basis für diese simple Rechnung wurde zu Beginn des 20. Jahrhunderts durch den Wiener Psychologen Hermann Swoboda und den Berliner Arzt Wilhelm Fließ gelegt. Fließ glaubte, in den Krankenakten seiner Patienten übereinstimmend Regelmäßigkeiten entdeckt zu haben und formulierte diese zunächst in seiner "Periodenlehre". Sie versuchten, so hinter den „guten“ und „schlechten“ Momenten eines Lebens eine Gesetzmäßigkeit zu entdecken. Der Biorhythmus wiederholt sich alle 23x28x33 Tage, entsprechend etwa 58 Jahren und 2 Monaten, im Laufe eines durchschnittlichen Menschenlebens also höchstens einmal. Hohe Popularität erlangte der Biorhythmus in den 1980er Jahren mit dem Aufkommen der ersten programmierbaren Taschenrechner und Heimcomputer. Das Lebensalter in Tagen und der daraus resultierende Biorhythmuszustand konnte durch einfach zu schreibende und zu bedienende Programme schnell berechnet werden. Heute sind Arbeitsblätter mit Berechnungsformeln für gängige Tabellenkalkulationsprogramme verfügbar. Die dabei verwendeten Berechnungsformeln gehen dabei immer auf dieselbe Theorie (Swoboda/Fließ) zurück. Kurvenform. Überwiegend werden die drei Biorhythmen mit einer einfach zu berechnenden Sinuskurve dargestellt. Die Autoren Paungger / Poppe postulieren dagegen eine asymmetrische Kurvenform. Diese soll langsamer ansteigen und erst kurz vor dem Nulldurchgang ihr Maximum erreichen, um dann abrupt abzufallen. Da die sich hier kurz vor den Wechseltagen ergebenden Hoch- und Tief-Phasen am wirkungsstärksten seien, könne dieser als ursprünglich angenommene Verlauf auch „erspürt“ werden. Abgrenzung. Von dieser Biorhythmustheorie abzugrenzen sind die biologischen Rhythmen der Chronobiologie, die mit naturwissenschaftlichen Methoden die zeitliche Organisation von Lebewesen untersucht. Chronobiologische Rhythmen, die in Biologie und Medizin beschrieben werden, unterliegen natürlichen Schwankungen, weshalb diese streng periodischen Tageszyklen des Biorhythmus für die wissenschaftliche Biologie und Medizin nicht plausibel sind und zudem Erkenntnissen der biologischen Wissenschaften widersprechen. Daher werden in der Chronobiologie die starren und vom Zeitpunkt der Geburt abgeleiteten Rhythmen der Biorhythmustheorie abgelehnt. Die von der Biorhythmik postulierten Langzeitrhythmen sind nicht messbar und wissenschaftlich nicht belegt; so hob sich in einer Studie die Trefferquote bei der Voraussage der Wahrscheinlichkeit eines Unfalls mittels der Methoden der Biorhythmik in einer Studie, bei der 3000 Verkehrsunfälle ausgewertet wurden, nicht von statistischen Zufallswerten ab. Um Missverständnisse zu vermeiden, wird innerhalb der Chronobiologie der Begriff "biologische Rhythmen" verwendet, was sich allerdings im alltäglichen Sprachgebrauch nicht durchgesetzt hat. Brauner Zwerg. Ein Brauner Zwerg ist ein Himmelskörper, der mit einer Masse zwischen dem 13-fachen und 75-fachen der Jupitermasse eine Sonderstellung zwischen Planeten und Sternen einnimmt. Gleiches gilt für die im Inneren ablaufenden Prozesse, die keine Wasserstofffusion aufweisen. Braune Zwerge sind massereicher als planetare Gasriesen und masseärmer als stellare Rote Zwerge. Abgrenzung. Als Braune Zwerge werden alle Objekte eingestuft, die unter der Massengrenze für Wasserstofffusion und über der Massengrenze für die Deuteriumfusion (ca. 13-fachen der Jupitermasse) liegen. Die Wasserstofffusion ist der charakterisierende Prozess für einen Stern. Sie wirkt zumindest für einen Teil der Sternlebenszeit der Gravitationskraft entgegen und stabilisiert damit den Stern. Die Mindesttemperatur für die Wasserstofffusion wird bei einer unserer Sonne ähnlichen Zusammensetzung bei einer Masse von etwa dem 0,07-fachen der Sonnen- bzw. dem 75-fachen der Jupitermasse (ca. 0,139 × 1030 kg) erreicht. Ab dieser Mindestmasse aufwärts entsteht ein Stern. Die Massenobergrenze für einen Braunen Zwerg ist jedoch von der Metallizität abhängig und liegt für eine Metallizität von 0, das heißt bei Objekten aus der Anfangsphase des Universums, bei etwa 90-fachen der Jupitermasse. In Braunen Zwergen finden jedoch trotzdem Fusionsprozesse statt, da es einige Fusionsreaktionen gibt, die bereits bei niedrigeren Temperaturen ablaufen als die Wasserstofffusion. Dies sind im Wesentlichen die "Lithiumfusion", bei der ab etwa 65-fachen der Jupitermasse bzw. Kerntemperaturen über 2 Millionen Kelvin ein Lithium-7-Kern mit einem Proton reagiert, und die "Deuteriumfusion", bei der ab etwa dem 13-fachen der Jupitermasse ein Deuteriumkern und ein Proton zu einem Helium-3-Kern verschmelzen. Die Massenuntergrenze liegt bei dieser Definition bei etwa dem 13-fachen der Jupitermasse, der Massengrenze für die Deuteriumfusion. Objekte mit einer geringeren Masse nennt man Planeten, wenn sie Begleiter von Sternen sind. Objekte, die nicht Teil eines Planetensystems sind, sondern sich frei um das Zentrum der Milchstraße bewegen, werden Objekte planetarer Masse genannt, da über die Herkunft dieser Objekte nichts bekannt ist. Viele Exoplaneten weisen neben großen Massen, die teilweise sogar im Bereich der Braunen Zwerge liegen könnten, mit hohen Exzentrizitäten und geringen Abständen vom Zentralgestirn Bahnparameter auf, die man eher von einem stellaren Begleiter als von Planeten erwarten würde. Tatsächlich wird mindestens ein Exoplanet auch als Kandidat für einen Braunen Zwerg eingestuft. Bei den Objekten unter dem 13-fachen der Jupitermasse ist jedoch noch keine einheitliche Benennung absehbar. In den ersten Untersuchungen zu Braunen Zwergen wurde das Entstehungskriterium angewandt: man nannte alle Objekte Braune Zwerge, die wie die Sterne durch Kontraktion einer Gaswolke (H-II-Gebiet, Molekülwolke) entstehen, in denen aber keine Wasserstofffusion einsetzt – im Gegensatz zu den Gesteins- und Gasplaneten, die in den Akkretionsscheiben der Sterne entstehen. Diese Definition ist jedoch sehr problematisch, da vor allem die Entstehungsgeschichte der leichteren Objekte, wenn überhaupt, nur mit sehr hohem Aufwand geklärt werden kann. Das Fusionskriterium wird zwar noch nicht allgemein verwendet, aber es wird Anfang des 21. Jahrhunderts deutlich häufiger verwendet als das Entstehungskriterium, das nur noch von einigen älteren Pionieren dieses Forschungsgebiets angewandt wird. Entstehung. In der Sternentstehungsregion "Chamaeleon I", die erst wenige Millionen Jahre alt ist, wurden 34 Braune Zwerge gefunden; bei dreien konnte zusätzlich eine Akkretionsscheibe nachgewiesen werden, die typisch für junge Sterne ist. Der Nachweis einer T-Tauri-Phase bei mehreren Braunen Zwergen, die bisher nur bei jungen Sternen auf ihrem Weg zur Hauptreihe bekannt war, ist ein weiterer Beleg für die gleiche Entstehungsgeschichte zumindest eines Teils der Braunen Zwerge. Eigenschaften. Braune Zwerge weisen eine vergleichbare Elementzusammensetzung auf wie Sterne. In Akkretionsscheiben entstandene Braune Zwerge könnten einen Gesteinskern besitzen, wobei für diesen Entstehungsweg aber bisher keine Belege existieren. Für sehr leichte Zwergsterne stellt sich im Kern unabhängig von der Masse eine Gleichgewichtstemperatur von etwa 3 Millionen Kelvin ein, bei der die Wasserstofffusionsprozesse sprunghaft einsetzen. Die Konstanz der Temperatur bedeutet annähernd Proportionalität zwischen Masse und Radius, das heißt, je geringer die Masse, desto höher ist die Dichte im Kern. Bei steigender Kerndichte üben die Elektronen einen zusätzlichen Gegendruck gegen die gravitative Kontraktion aus, der durch eine teilweise Entartung der Elektronen aufgrund des Pauli-Prinzips hervorgerufen wird und zu einer geringeren Aufheizung des Kerns führt. Dies führt mit einer Metallizität ähnlich zur Sonne bei weniger als dem 75-fachen der Jupitermasse dazu, dass die notwendigen Temperaturen zur Wasserstofffusion nicht mehr erreicht werden und ein Brauner Zwerg entsteht. Da weder der Verlauf der Entartung der Elektronen noch die Eigenschaften der leichtesten Sterne in allen Aspekten verstanden sind, variieren ältere Literaturwerte zwischen dem 70-fachen und 78-fachen, neuere zwischen dem 72-fachen und dem 75-fachen der Jupitermasse. Die Fusionsprozesse liefern zwar bei jungen Braunen Zwergen einen Beitrag zur Energiebilanz, sie sind jedoch in keiner Entwicklungsphase mit dem Beitrag der Gravitationsenergie vergleichbar. Dies führt dazu, dass Braune Zwerge bereits gegen Ende der Akkretionsphase abzukühlen beginnen, die Fusionsprozesse verlangsamen diesen Prozess nur für etwa 10 bis 50 Millionen Jahre. Temperaturtransport. Bei Braunen Zwergen und Sternen mit weniger als dem 0,3-fachen der Sonnenmasse bildet sich keine Schalenstruktur aus, wie bei schwereren Sternen. Sie sind vollständig konvektiv, das heißt, es findet ein Materietransport vom Kern bis zur Oberfläche statt, der zu einer vollständigen Durchmischung führt und die Temperaturverteilung im gesamten Inneren bestimmt. Untersuchungen der Methanzwerge wie z. B. Gliese 229 B legen allerdings die Vermutung nahe, dass bei älteren, kühleren Braunen Zwergen diese Konvektionszone nicht mehr bis zur Oberfläche reicht und sich stattdessen möglicherweise eine den Gasriesen ähnliche Atmosphäre ausbildet. Größe. schematischer Größenvergleich zwischen Sonne, Braunem Zwerg, Jupiter und Erde (v.l., NASA) Die Entartung der Elektronen führt zu einer Massenabhängigkeit des Radius Brauner Zwerge von R ~ M−1/3. Erst unterhalb der Massengrenze der Braunen Zwerge verliert die Entartung an Bedeutung und es stellt sich bei konstanter Dichte eine Massenabhängigkeit von R ~ M+1/3 ein. Die schwache reziproke Massenabhängigkeit der Braunen Zwerge führt zu einem über den gesamten Massenbereich annähernd konstanten Radius, der in etwa dem Jupiterradius entspricht, wobei die leichteren Braunen Zwerge größer sind als die Schwereren. Spektralklassen. Die Spektralklassen, die für Sterne definiert sind, sind im engeren Sinne nicht auf Braune Zwerge anwendbar, da es sich nicht um Sterne handelt. Bei Oberflächentemperaturen über 1800 bis 2000 K fallen sie bei der Beobachtung jedoch in den Bereich der L- und M-Sterne, da die optischen Eigenschaften nur von der Temperatur und der Zusammensetzung abhängen. Man wendet die Spektralklassen deshalb auch auf Braune Zwerge an, wobei diese allerdings keine direkte Aussage über die Masse, sondern nur über die Kombination von Masse und Alter liefert. Ein schwerer junger Brauner Zwerg startet im mittleren M-Bereich bei etwa 2900 K und durchläuft alle späteren M- und L-Typen, leichtere Braune Zwerge starten bereits bei einem späteren Typ. Das untere Ende der Hauptreihe ist nicht genau bekannt, es liegt aber vermutlich zwischen L2 und L4, d. h. bei Temperaturen unter 1800 bis 2000 K. Bei späteren, kühleren Typen handelt es sich mit Sicherheit um Braune Zwerge. Für die kühleren Braunen Zwerge wie z. B. Gliese 229B mit einer Temperatur von etwa 950 K wurde mit dem T-Typ eine weitere Spektralklasse eingeführt, die mit Temperaturen unter etwa 1450 K nicht mehr auf Sterne anwendbar ist. Da das Spektrum in diesem Temperaturbereich vor allem von starken Methanlinien geprägt ist, nennt man Braune Zwerge vom T-Typ meist "Methanzwerge". Bis 2011 galt "2MASS J04151954-0935066" als kühlster bekannter Braunen Zwerg. Er weist bei einer Temperatur von 600 bis 750 K als T9-Zwerg bereits Abweichungen von den anderen T-Zwergen auf. Vor 2MASS J0415-0935 galt Gliese 570D mit etwa 800 K als kühlster bekannter Brauner Zwerg. 2011 wurde dann für extrem kalte Braune Zwerge die Spektralklasse Y eingeführt. Da sie lediglich Oberflächentemperaturen von 25 bis 170 °C haben, senden sie kein sichtbares Licht sondern nur Infrarotstrahlung aus und sind nur sehr schwierig zu beobachten. Sie wurden daher lange Zeit nur theoretisch vorhergesagt, ehe 2011 die erste Beobachtung durch das Wise-Observatorium gelang. Einer dieser Y-Zwerge, WISE 1828+2650, besitzt nach den Messungen des Satelliten eine Oberflächentemperatur von 27 °C. Veränderlichkeit. Die niedrigen Temperaturen in den Atmosphären von Braunen Zwergen mit einem Spektraltyp von spätem L bis T lässt erwarten, dass es zu Wolkenbildungen kommt. In Kombination mit der Rotation der Braunen Zwerge sollte eine veränderliche Leuchtkraft im nahen Infrarot wie bei Jupiter nachweisbar sein, wobei die Rotationsdauer in der Größenordnung von Stunden liegen dürfte. Im Fall von 2MASS J21392676+0220226 mit einem Spektraltyp T1,5 konnte eine Periode von 7,72 Stunden über mehrere Nächte nachgewiesen werden. Die Veränderlichkeit der Amplitude von Zyklus zu Zyklus unterstützt die Interpretation, dass es sich um eine Folge einer kontrastreichen Wolkenbildung in der Atmosphäre von Braunen Zwergen handelt. Daneben zeigen Braune Zwerge auch Schwankungen in der Intensität ihrer Radiostrahlung. Von 2MASS J10475385+2124234 mit einem Spektraltypus von T6.5 sind Flares beobachtet worden in Kombination mit einer sehr geringen Grundintensität. Als Ursache dieser Phänomene wird eine magnetische Aktivität angenommen, die aber nicht durch einen Alpha-Omega-Dynamo angeregt werden kann, da den vollständig konvektiven Braunen Zwergen die notwendige Tachocline-Region fehlt. Rotationsperioden. Während die Rotationsperiode von Roten Zwergen wahrscheinlich aufgrund von magnetischer Aktivität mit dem Alter länger wird, wird dieser Zusammenhang bei Braunen Zwergen nicht beobachtet. Alle Braunen Zwerge mit einem Alter von mehr als 10 Millionen bis zu einigen Milliarden Jahren haben Rotationsperioden von weniger als einem Tag und entsprechen in dieser Eigenschaft eher den Gasplaneten als den Sternen. Häufigkeit. Es gibt eine einfache Massenfunktion zur Beschreibung der relativen Anzahl von sternähnlichen Objekten bezüglich ihrer Masse, die Ursprüngliche Massenfunktion. Diese Massenfunktion sollte sich unverändert in den Bereich der schwereren Braunen Zwerge fortsetzen, da zumindest die Anfangsphase des Sternentstehungsprozesses mit dem Kollabieren einer Gaswolke unabhängig von der Art des entstehenden Objekts ist, das heißt, die Wolke kann nicht „wissen“, ob am Ende ein Stern oder ein Brauner Zwerg entsteht. Diese Massenfunktion wird jedoch im Bereich der leichteren Braunen Zwerge Abweichungen zeigen, da zum einen auch die anderen Entstehungsprozesse ("siehe Abschnitt Entstehung") einen Beitrag liefern könnten, und zum anderen nicht viel über die Mindestmassen der Objekte bekannt ist, die bei Sternentstehungsprozessen entstehen können. Eine genaue Bestimmung der Häufigkeit bzw. der Massenfunktion der Braunen Zwerge ist deshalb nicht nur für die Entstehungsprozesse der Braunen Zwerge wichtig, sondern trägt auch zum Verständnis der Sternentstehungsprozesse im Allgemeinen bei. Seit der Entdeckung von Gliese 229B wurden mehrere hundert Braune Zwerge gefunden, vor allem bei den Sterndurchmusterungen 2MASS (), DENIS () und SDSS () sowie bei intensiven Durchmusterungen von Offenen Sternhaufen und Sternentstehungsgebieten. Lithiumtest. Bei Massen von mehr als dem 65-fachen der Jupitermasse wird Lithium-7 in Helium-4 umgesetzt. Durch diesen Prozess ist bei sehr leichten Sternen der Lithiumvorrat nach etwa 50 Millionen Jahren aufgebraucht, bei Braunen Zwergen verlängert sich diese Zeitspanne auf bis zu 250 Millionen Jahre. Da leichte Sterne genau wie Braune Zwerge vollständig konvektiv sind, nimmt die Lithiumhäufigkeit im Gegensatz zu schwereren Sternen wie z. B. der Sonne nicht nur im Fusionsbereich des Kerns ab, sondern kann direkt an der Oberfläche beobachtet werden. Der Lithiumnachweis allein liefert aber kein eindeutiges Ergebnis, zum einen ist Lithium auch in sehr jungen Sternen nachweisbar, zum anderen ist bei älteren Braunen Zwergen mit Massen von mehr als dem 65-fachen der Jupitermasse kein Lithium mehr nachweisbar. Kann man jedoch in einem sternähnlichen Objekt mit einer Temperatur von weniger als 2800 K ausgeprägte Lithium-7-Linien nachweisen, handelt es sich eindeutig um einen Braunen Zwerg. Die Linien des neutralen Lithiums liegen zudem im roten Spektralbereich und sind deshalb auch mit irdischen Teleskopen sehr gut zu untersuchen. Durch die gute Nachweisbarkeit hat sich diese Methode als Standard zum Nachweis Brauner Zwerge etabliert. Sternhaufen. Es wurden bereits viele Braune Zwerge in jungen Sternhaufen wie z. B. den Plejaden nachgewiesen, aber es ist bisher noch kein Haufen komplett durchsucht worden. Zudem sind in diesen Bereichen viele weitere Kandidaten bekannt, deren Zugehörigkeit zu den Braunen Zwergen bzw. dem Sternhaufen selbst noch nicht geklärt sind. Erste Analysen sind im Rahmen der Fehlerabschätzung mit der stellaren Massenfunktion vereinbar, jedoch gibt es teilweise starke Abweichungen. Es ist noch zu früh, um daraus eindeutig auf eine veränderte Massenfunktion im Bereich der Braunen Zwerge zu schließen. Sternentstehungsgebiete. In Sternentstehungsgebieten gestaltet sich der Nachweis Brauner Zwerge sehr schwierig, da sie sich aufgrund ihres geringen Alters und der damit verbundenen hohen Temperatur nur wenig von leichten Sternen unterscheiden. Ein weiteres Problem in diesen Regionen ist der hohe Staubanteil, der durch hohe Extinktionsraten die Beobachtung erschwert. Die hier angewendeten Methoden sind stark modellabhängig, deshalb sind erst sehr wenige Kandidaten zweifelsfrei als Braune Zwerge bestätigt. Die bisher abgeleiteten Massenfunktionen weichen zum großen Teil sehr stark von der stellaren Massenfunktion ab, sind jedoch noch mit hohen Fehlern behaftet. Doppelsysteme. Obwohl die Zahlenwerte der Ergebnisse noch sehr unsicher sind, gilt ein grundlegender Unterschied zwischen den beiden Systemen F-M0-Stern/Brauner Zwerg und L-Zwerg/Brauner Zwerg als sicher. Die Ursachen liegen vermutlich im Entstehungsprozess der Braunen Zwerge, vor allem die Anhänger der „verstoßenen Sternembryos“, das heißt der Entstehung in einem Mehrfachsystem und dem Hinauskatapultieren in einer frühen Entwicklungsphase, betrachten diese Verteilungen als natürliche Konsequenz dieser Theorie. Isolierte Braune Zwerge. Die 2MASS- und DENIS-Durchmusterungen haben bereits Hunderte Brauner Zwerge gefunden, obwohl die Durchmusterungen noch nicht abgeschlossen sind. Erste Analysen deuten darauf hin, dass sich die stellare Massenfunktion sehr weit in den Bereich der Braunen Zwerge fortsetzt. Der Entstehungsprozess der Braunen Zwerge, mit Ausnahme der sehr leichten, scheint also sehr eng mit den Sternentstehungsprozessen zusammenzuhängen, die deshalb vermutlich auch die Population der Braunen Zwerge erklären. Altersbestimmung junger Sternhaufen. Der Lithiumtest liefert für Sternhaufen als „Nebeneffekt“ eine Massengrenze, bis zu der Lithium nachgewiesen werden kann und die genannt wird. Mit dieser Masse kann man das Alter des Haufens bestimmen. Diese Methode funktioniert jedoch nur, wenn der Haufen jünger als etwa 250 Millionen Jahre ist, da diese Massengrenze sonst konstant bei dem 65-fachen der Jupitermasse liegt. Auf diese Weise hat man 1999 das Alter der Plejaden um mehr als 50 Prozent auf etwa 125 Millionen Jahre nach oben korrigiert. Vergleichbare Korrekturen erfolgten in der Folge für weitere Sternhaufen, unter anderem für α Persei und IC 2391. Obwohl Braune Zwerge in größeren Entfernungen nur schwierig nachweisbar sein werden und der Lithiumtest nur bei sehr jungen Haufen zur Altersbestimmung anwendbar ist, ermöglicht diese Methode trotzdem eine sehr gute Eichung anderer Datierungsmethoden. Geschichte. "Shiv Kumar" stellte 1963 erstmals Überlegungen an, dass beim Entstehungsprozess der Sterne auch Objekte entstehen könnten, die aufgrund ihrer niedrigen Masse nicht die zur Wasserstofffusion erforderliche Temperatur erreichen, der Name "Brauner Zwerg" wurde jedoch erst 1975 durch "Jill Tarter" vorgeschlagen. Der Name ist zwar im eigentlichen Sinne nicht richtig, da auch Braune Zwerge rot erscheinen, aber der Begriff Roter Zwerg war schon für die leichtesten Sterne vergeben. In den 1980ern wurden verschiedene Anläufe unternommen, diese hypothetischen Körper zu finden, aber erst 1995 wurde mit Gliese 229 B der erste Braune Zwerg zweifelsfrei nachgewiesen. Entscheidend hierfür waren zum einen deutliche Fortschritte in der Empfindlichkeit der Teleskope, zum anderen wurden aber auch die theoretischen Modelle verbessert, die eine bessere Unterscheidung zu schwach leuchtenden Sternen ermöglichten. Innerhalb weniger Jahre wurden mehrere hundert Braune Zwerge nachgewiesen, die Anzahl weiterer möglicher Kandidaten liegt ebenfalls in dieser Größenordnung. Die sonnennächsten Braunen Zwerge (Anfang 2004) bilden das Epsilon-Indi-B-Doppelsystem in 11,8 Lichtjahren Entfernung. Die Untersuchung der Braunen Zwerge steht noch am Anfang, hat aber, vergleichbar der Öffnung neuer Beobachtungsfenster oder der Entdeckung anderer neuer Effekte, bereits heute viel zu unserem Wissen und Verständnis des Universums beigetragen. Bad Soden am Taunus. a> mit der Statue der Sodenia – ein Wahrzeichen der Stadt; im Hintergrund das Hundertwasserhaus. Bad Soden am Taunus ist eine Stadt im Main-Taunus-Kreis im Land Hessen und liegt an den Südhängen des Taunus. Als Reichsdorf war es im Mittelalter bekannt für Salz und Warmquellen, später bis zu den 1990er-Jahren als ein international bekannter Kurort. Heute ist Bad Soden ein wichtiger Wohn- und Arbeitsraum westlich der Stadt Frankfurt am Main. Bad Soden am Taunus ist wie die benachbarten Städte Königstein im Taunus und Kronberg im Taunus (beide Hochtaunuskreis) für seine teuren Wohnlagen mit einer Reihe von Villen bekannt. Zudem weist die Stadt Bad Soden am Taunus im Jahr 2007 einen weit überdurchschnittlichen Kaufkraftindex von 188,1 Prozent des Bundesdurchschnitts (100 Prozent) auf und belegt damit einen bundesweiten Spitzenwert. Geografie. Blick auf den Taunus von der Sodener Wilhelmshöhe Blick auf die Frankfurter Skyline von der Sinaihöhe Geografische Lage. Bad Soden am Taunus liegt am Südhang des Taunus, 15 km nordwestlich von Frankfurt am Main und 20 km nordöstlich von Wiesbaden. Die Gemarkungsfläche von Bad Soden am Taunus umfasst insgesamt 1247 Hektar. Hiervon sind 231 ha bewaldet. Auf den Stadtteil Bad Soden (Kernstadt) entfallen 479 ha, auf den Stadtteil Neuenhain 454 ha und auf den Stadtteil Altenhain 314 ha. Die Höhe variiert zwischen 130 und. Der tiefste Punkt befindet sich im Bereich der Straße "Auf der Krautweide", der höchste Punkt im Bereich der Kreuzung B 519/L 3266 an der nördlichen Gemarkungsgrenze. Durch die Stadt fließen zwei Bäche. Der Sulzbach durchfließt das Stadtzentrum sowie den Quellenpark. Beim zweiten handelt es sich um den Waldbach, welcher durch das zum Ortsteil Neuenhain gehörende, "Im Süßen Gründchen" genannte Tal fließt. In Schwalbach mündet er in den gleichnamigen Schwalbach. Nachbargemeinden. Bad Soden grenzt im Norden an die Stadt Königstein im Taunus (Hochtaunuskreis), im Osten an die Stadt Schwalbach am Taunus und die Gemeinde Sulzbach (Taunus), im Süden an die Gemeinde Liederbach am Taunus sowie im Westen an die Stadt Kelkheim (Taunus). Stadtgliederung. Die Stadt Bad Soden besteht seit der Gebietsreform von 1977 aus den drei Stadtteilen Altenhain, Bad Soden und Neuenhain. Die ursprünglich vom Land Hessen zusätzlich geplante Eingemeindung der Gemeinde Sulzbach wurde nicht realisiert. Aufgrund des Widerstandes von Bevölkerung und Politik in Sulzbach und der vergleichsweise guten Finanzsituation der Gemeinde durch das Main-Taunus-Zentrum wurde der Erhalt der Eigenständigkeit durchgesetzt. Im Mittelalter bestand auf nun Altenhainer Gebiet der Weiler Beidenau, der seit dem 16. Jahrhundert eine Wüstung ist. Römerzeit und erste Erwähnung. In Bad Soden findet man an vielen Stellen Quellen darunter viele Warm- und Salzquellen. Dies war auch zu Zeiten der Römer so. Man geht davon aus, dass schon die Römer in den warmen Quellen in Soden badeten und teilweise Salz damit gewannen. Es gibt jedoch keine urkundliche Erwähnung aus dieser Zeit. Bei Bohrungen an den Quellen VI und VII fand man aber Scherben von Tongefäßen, welche vermutlich die Arbeit von Römern war. Des Weiteren befinden sich auf dem Burgberg in Soden auch alte Reste einer Burg, die offenbar teilweise aus alten römischen Backsteinen gebaut wurden. Jedoch sind keine weiteren Beweise erhalten geblieben. Auch für die Zeit der Völkerwanderung wurden keine Nachweise von Soden gefunden. Erstmals wurde das Dorf Soden im Jahr 1190 in einer Urkunde des Klosters Retters erwähnt, welche seine Güter aufzählte. Auf dem heutigen Burgberg befand sich ein Weinberg des Klosters. Zwischen 1222 und 1475 werden mehrere Adlige aus Sulzbach genannt, welche eine Burg in Soden besaßen, die sich auf dem Burgberg befand. Soden als „Reichsdorf“. Kaiser Sigismund in einem Porträt von 1436 Im Jahr 1434 erhob Kaiser Sigismund Soden und Sulzbach und die Dörfer Sennfeld und Gochsheim (bei Schweinfurt) zu Reichsdörfern. Als freies Reichsdorf war es bis 1803 keiner unmittelbaren Landesherrschaft unterstellt. 1437 wurden die Sodener Salzquellen in einer kaiserlichen Urkunde erwähnt. 1486 wurde in Soden die erste Salzsode erbaut und 1494 ließ Kaiser Sigismund den Gesundbrunnen mit einer Einfassung versehen. Am 24. Mai 1547 ließ Feldherr Graf Maximilian von Egmond die Dörfer Soden und Sulzbach in Brand setzen, da Frankfurt den Durchmarsch und Lieferungen verweigerte. Kurze Zeit später ließ Albrecht von Brandenburg-Kulmbach ebenfalls die beiden Reichsdörfer niederbrennen, aufgrund einer erfolglosen Belagerung von Frankfurt. Bei einer Untersuchung des Dorfes Soden wurden von Baumeistern vier Salzquellen und eine warme Quelle festgestellt. 1605 bekamen die Gebrüder Gaiß die Erlaubnis der Stadt Frankfurt zur Anlegung einer Saline. Doch für die Erbauung waren viele Verpflichtungen zu erfüllen. Im Vordergrund stand die Deckung des Salzbedarfs der Stadt Frankfurt. Außerdem war ein Verkauf der Saline auch nur durch den Senat möglich. Bis dahin versuchten viele den Bau einer Saline. Doch ohne Einigung mit dem Magistrat der Stadt Frankfurt konnte auch nichts gebaut werden. Zunächst waren die Sodener Bürger noch ruhig. Doch nach und nach kam eine Unzufriedenheit auf, da sie ihre Eigentumsrechte verletzt sahen. Im Dezember 1612 kam es zu einem Aufruhr. Die Bevölkerung kappte die Leitungen nach Frankfurt. Nachdem auch das Militär den Aufruhr nicht niederschlagen konnte, einigte man sich mit der Stadt Frankfurt darauf, die Salzzufuhr zu senken und der Sodener Saline mehr Freiraum zu gewähren. Während des Dreißigjährigen Krieges (1618–1648) wurde auch Soden ein Opfer von Brandschatzungen und Plünderungen. Dutzende Häuser, meist aus Holz, wurden niedergebrannt. Die Kriegsvölker durchquerten das Dorf und plünderten die Bevölkerung aus. 1680 erwarb David Malapert die Saline. Er errichtete „in der Sültz“ eine neue Saline. 1715 wurde der Grundstein für die evangelische Kirche in der Altstadt gelegt. Ein knappes Jahr später wurde diese feierlich eröffnet. 1770 wurde der erste Gasthof, der spätere Nassauer Hof, erbaut. 1792 besetzte der französische General Custin den Raum Mainz und ließ Soden und die angrenzenden Städte ausrauben und niederbrennen. 19. Jahrhundert und der Beginn des Kurbetriebs. a> (1955 durch einen Neubau ersetzt) Ab 1806 gehörte Soden zum Herzogtum Nassau. Die Chaussee von Höchst nach Königstein (die heutige Königsteiner Straße) entstand 1817, 1847 eröffnete die Sodener Bahn von Soden nach Höchst. Soden zählte im Jahr 1820 500 Seelen. 1828 wurde das erste Haus an der Königsteiner Straße in Bad Soden gebaut, der Gasthof „Zum Adler“. 1817 und 1847 kam es in Raum Bad Soden zu Missernten, aufgrund von schlechter Witterung. Dadurch stiegen die Preise für Brot und andere Grundnahrungsmittel stark an. Doch Herzogin Pauline von Nassau half der Sodener Bevölkerung. Da sie im Jahr 1847 in das Paulinenschlösschen zog, ließ sie elf Malter (circa 1100 kg) Kartoffeln an die Bürger verteilen. 1840 wurde der neue Sodener Friedhof angelegt, welcher sich an der heutigen Niederhofheimer Straße befindet. Ab 1841 wurde der Arzt Dr. Otto Thilenius nach Soden berufen und fungierte hier als Brunnenarzt. Seit 1701 gibt es in Soden Kurbetrieb. Das erste Kur- und Badehaus wurde 1722 erbaut. Zunächst war dieser Bau bekannt als das „Bender’sche Haus“. 1813 wurde es in „Frankfurter Hof“ umbenannt und ist heute als das „Haus Bockenheimer“ in das Hundertwasserhaus eingegliedert und befindet sich am heutigen Franzensbader Platz. 1822 wurde der alte Kurpark im Stil eines englischen Gartens angelegt. 1849 wurde das Neue Kurhaus im schweizerischen Stil am Alten Kurpark erbaut und eröffnet. In der Mitte des 19. Jahrhunderts war Soden bereits ein internationaler Kurort mit prominenten Gästen aus ganz Europa. Berühmte Besucher und Kurgäste im 19. Jahrhundert waren zum Beispiel Herzogin Pauline von Nassau (1844), August Heinrich Hoffmann von Fallersleben (1844), Felix Mendelssohn Bartholdy (1844/1845), Victoire von Sachsen-Coburg-Saalfeld - Mutter der britischen Königin Victoria (1847), Otto von Bismarck und Johanna von Bismarck (1856), Friedrich Stoltze (1860), Richard Wagner (1860), Kaiser Wilhelm I. (1861). Während 1839 nur knapp 360 Kurgäste die Kurstadt besuchten, waren es 1865 bereits 2840. Um diese große Anzahl von Gästen unterbringen zu können, entstanden Mitte des 19. Jahrhunderts zahlreiche Kurvillen und Kurhotels. Die größten waren zunächst einmal das Kurhaus am Alten Kurpark (1971 abgerissen), der „Europäischer Hof“ in der Königsteiner Straße (1965 abgerissen), das Hotel „Colloseus“ (1945 zerstört), der „Frankfurter Hof“ (heute „Haus Bockenheimer“) und der „Nassauische Hof“ (1900 abgerissen). Des Weiteren gab es noch jede Menge kleinere Villen wie die in der heutigen Alleestraße („Villa Stolzenfels“, „Villa Rheinfels“, „Villa Sanssouci“ und „Villa Westfalia“) oder den Villen an der Königsteiner Straße („Hotel Adler“, „Haus Quisisana“, „Parkhotel“ oder „Haus Haßler“). 1870 entstand in Bad Soden eine Gasfabrik, welche für die Straßenbeleuchtung erbaut wurde. Bereits 1897 aber wurde die Straßenbeleuchtung von Gas auf Elektrizität umgestellt. Damit war Bad Soden die erste Gemeinde in Nassau mit elektrischer Straßenbeleuchtung. Als 1870 der Deutsch-Französische Krieg begann, wurden in Bad Soden 29 Männer einberufen, wovon aber nur einer gefallen ist. Während des Krieges fanden im 14-Tage-Takt Betgottesdienste statt. 1871 wurde das Badehaus eingeweiht und es entstand auch die erste selbstständige katholische Pfarrei. Nachdem der Krieg 1871 gewonnen war, fand am 4. März ein Festzug mit anschließendem Feuer auf dem Dachberg statt. In den weiteren Jahren wurden die Badeanstalten weiter ausgebaut, wobei ein Inhalatorium im alten „Krug Haus“ im Alten Kurpark angelegt wurde. Später wurde in der heutigen Parkstraße das heutige „Medico Palais“ erbaut. Weiters wurde der Brunnenwasserversand ausgebaut und die ersten Sodener Pastillen wurden hergestellt, welche bei Husten und Heiserkeit halfen. 1885 wurde im Eichwald der „Wilhelmsplatz“ eingeweiht, wo sich die Bismarck- und die Friedrichs-Eiche befanden. 1887 wurde die Trinkhalle am Quellenpark eingeweiht. 20. Jahrhundert. a> 1906 – Der Schornstein gehört zur ehemaligen „Sodener Pastillenfabrik“. Ansicht von 1937 – im Vordergrund die heutige "Alleestraße" (damals "Lindenweg") Bei der Volkszählung 1900 wurden in Bad Soden 1.768 Einwohner gezählt. Weiters wurde im gleichen Jahr der Burgbergturm auf dem Burgberg eröffnet. 1909 erwarb die Stadt das Paulinenschlösschen und richtete hier das Rathaus ein. 1911 wurde der Wasserturm auf der Wilhelmshöhe eröffnet. Mit Ausbruch des Ersten Weltkriegs ging die Zahl der Kurgäste zurück. Hotels und Gaststätten waren zeitweise leer. Die ersten französischen Kriegsgefangenen halfen damals in Neuenhain in verschiedenen landwirtschaftlichen Betrieben aus. Während des Rückmarsches der deutschen Truppen durchquerten sie auch teilweise Bad Soden. Der gesamte Alte Kurpark war angefüllt mit alten Karren, verletzten Soldaten und Pferden. Auch die Königsteiner Straße wurde zum Abstellen von Artilleriegeschossen und anderen militärischen Waffen genutzt. Im Dezember 1918 besetzten die Franzosen den gesamten Raum Mainz. Dazu zählten auch Bad Soden, Neuenhain und Altenhain. Zu dieser Zeit wurde die Königsteiner Straße öfters für Paraden genutzt, um die Stärke der Besatzer zu demonstrieren. Weiters mussten alle Personen über zwölf Jahre einen mehrsprachigen Personalausweis mit sich führen, und der gesamte Schriftverkehr musste auf Deutsch und Französisch abgefasst werden. Die israelitische Kuranstalt in der Talstraße (1938 zerstört) - Blick von der Dachbergstraße a>, links der heutige Standort des Sodener Rathauses. Seit 1922 darf sich Soden "Bad" nennen. 1926 übernahmen die Briten dieses Gebiet. 1927 wurde das Freibad im Altenhainer Tal eröffnet. Während der Zeit des Nationalsozialismus wurde die jüdische Bevölkerung von Bad Soden gedemütigt. 1935 wurde das Erholungsheim „Aspira“, welches 1911 vom jüdischen Arzt Dr. Kallner erbaut worden war, beschlagnahmt. Daraufhin zog die Deutsche Arbeitsfront (DAF) in das Gebäude ein. Am 10. November 1938 wurde die israelitische Kuranstalt in der Talstraße angezündet und kurz darauf abgerissen. Während des Zweiten Weltkrieges kam es auch in Bad Soden zu gelegentlichen Angriffen. Der erste Bombenangriff traf die Stadt in der Nacht vom 7. zum 8. Juli 1941. Dabei wurden das Areal am Schwimmbad sowie die Gärtnerei Jung schwer beschädigt. In der Nacht vom 24. zum 25. August 1942 wurde das Gebiet am alten Kurpark und Kronbergstraße bombardiert. Dabei wurde das Frankfurter Kinderheim in der Kronbergerstraße zerstört, wobei mehrere Kinder ums Leben kamen. Ebenfalls wurde das Badehaus getroffen und im ganzen Umkreis zersprangen die Fenster, z. B. in der katholischen Kirche oder im Kurhaus. Die größte Zerstörung richtete ein Angriff von amerikanischen Bombenfliegern an. In der Nacht vom 2. auf den 3. Februar 1945 wurde ein großer Teil der Gebäude an der Königsteiner Straße, wie das Hotel „Colloseus“ (heutiger Standort des Rathauses) und das ehemalige Parkinhalatorium zerstört. Auch das Badehaus im Alten Kurpark wurde teilweise vernichtet. Ebenfalls wurde die alte kath. Kirche am Rande des alten Kurparks schwer in Mitleidenschaft gezogen. Nach dem Krieg wurde der "Gemeinde Bad Soden/Taunus" mit Kabinettsbeschluss vom 21. Mai 1947 durch das Hessische Staatsministerium die Bezeichnung "Stadt" verliehen. 1955 begann der Bau der neuen katholischen Kirche in der Nähe des Bahnhofs. Gleichzeitig wurde der Neue Kurpark angelegt und 1961 für die Öffentlichkeit freigegeben. Ab den 1960er Jahren entwickelte sich die Stadt zum bevorzugten Wohnort im Westen Frankfurts. 1970 wurde das Kreiskrankenhaus eröffnet. Seit dem 6. November 1972 wird der Sodener Bahnhof von der Limesbahn angefahren, womit die Stadt einen weiteren Bahnanschluss nach Frankfurt am Main bekam (zuvor nur nach Höchst). Seit 1978 verkehrt diese als S-Bahn (S3) direkt nach Frankfurt (zunächst nur bis zur Hauptwache, ab 1997 bis Darmstadt Hauptbahnhof). 1991 begann der Bau des Hundertwasserhauses, welches kurz darauf eröffnet wurde. Es befindet sich am heutigen Quellenpark. Bis 1997 wurde die gesamte Altstadt saniert, wobei die Straßen neu gepflastert und die alten Wasserleitungen ersetzt wurden. 21. Jahrhundert. a> bis hin zur Architektur der 1980er 2001 wurde die Kur-GmbH aufgelöst und kurze Zeit später das Thermalbad geschlossen. Damit endete die fast 200-jährige Kurgeschichte der Stadt Bad Soden. 2004 wurde der ökologische Lehrpark „Rohrwiese“ angelegt. Hier kann man das Ökosystem „Teich“ und Bienennester erkunden. In den Jahren 2006/2007 wurde das Freibad renoviert und in „FreiBadSoden“ umbenannt. In der Nacht vom 10. zum 11. Juni 2007 kam es zu einem großen Unwetter in Bad Soden und Umkreis. Schätzungen nach gingen bis zu 60 Liter pro Quadratmeter auf die Erde nieder. Wassermassen wälzten sich von der Königsteiner Straße in die Innenstadt hinunter. Dabei stand ein großer Teil der Altstadt knöcheltief unter Wasser. 130 Keller und Tiefgaragen liefen voll. Bis Ende 2011 wurde die Salinenstraße umgestaltet, wobei die Parkplatzgestaltung geändert wurde sowie eine Reihe neuer Häuser entstand. Am Bahnhof wurde 2011 die neue Zentrale der Messer Group eingeweiht. Derzeit stehen in Bad Soden zwei städtische Erneuerungen an. Zunächst soll das Bahnhofsgelände renoviert und ein neues Parkhaus gebaut werden. Weiters ist die Planung eines neuen Rathauses im Gespräch. Eingemeindungen. Im Zuge der Gebietsreform in Hessen schloss sich die Stadt Bad Soden (Taunus) am 1. Januar 1977 mit den bis dahin selbstständigen Gemeinden und heutigen Stadtteilen Neuenhain und Altenhain zur neuen Stadt Bad Soden im Taunus zusammen. Ausgliederungen. Am 1. August 1972 wurde ein Gebiet mit damals fast 200 Einwohnern an die Nachbarstadt Königstein im Taunus abgetreten. Einwohnerentwicklung. 1 nach der Eingemeindung von Neuenhain und Altenhain Religionen. Neuapostolische Kirche in der Joseph-Haydn-Straße Evangelische Kirchengemeinde. Die evangelische Kirchengemeinde besteht aus ca. 3600 Gemeindemitgliedern (Stand Ende 2013). Die Gemeinde wird von Pfarrer Dr. Achim Reis (seit August 1997) und Pfarrer Andreas Heidrich (seit April 2002) betreut. Der Kirchenvorstand besteht aus 14 Mitgliedern, die Vorsitzende ist Sabine Korthals. Die Gottesdienste finden i. d. R. sonntags um 10.00 Uhr in der Kirche statt. Jüdische Gemeinde. Bad Soden besaß bis in die Mitte der 1930er Jahre eine größere jüdische Gemeinde. Diese Gemeinde besaß eine Synagoge, eine Religionsschule und ab 1873 einen jüdischen Friedhof an der Niederhofheimer Straße. Die Synagoge wurde 1846 eingeweiht und befand sich in der heutigen Enggasse. 1938 wurde sie in der Reichskristallnacht im Inneren zerstört. Später wurde das Gebäude als Lagerhalle genutzt und 1981 im Zuge der Altstadtrenovierung abgerissen. Heute steht hier eine Seniorenwohnanlage. Katholische Kirchengemeinde. Die katholischen Kirchen sind geweiht auf die Namen St. Katharina (Bad Soden), "Maria Hilf" (Neuenhain), "Maria Geburt" (Altenhain), leitender Priester im pastoralen Raum ist Pfarrer Paul Schäfer. Die Gottesdienste finden in Bad Soden jeden zweiten Samstag um 18.00 Uhr, sowie sonntags um 10.45 statt. Die Kirche St. Katharina ist ein Bau aus den 1950er Jahren und wurde persönlich vom Geheimrat Max Baginski gestiftet. Neuapostolische Gemeinde. Die erste neuapostolische Kirche in Bad Soden entstand im Jahr 1970 in der Joseph-Haydn-Straße. 30 Jahre später wurde ein Neubau auf dem gleichen Gelände erbaut. Die Gemeinde beherbergt heute genau 130 Mitglieder. Zurzeit ist Priester Ohland der Vorsteher der Gemeinde. Bürgermeister. a> (ehemaliger Standort des Hotels "Colosseus") Norbert Altenkamp (CDU) wurde am 27. September 2009 mit 58,8 % für seine zweite Amtszeit bestätigt. Wappen. Das Bad Sodener Wappen stellt einen roten Reichsapfel mit goldenem Beschlag und goldenem Kreuz auf blauem Grund dar. Das Wappen stammt aus der Zeit, als Kaiser Sigismund Bad Soden zum Reichsdorf erhob (1434). Flagge. Die Flagge wurde am 26. April 1954 durch das Hessische Innenministerium genehmigt. „Auf der Trennungslinie des zweifeldrigen blau-gelben Flaggentuches das Stadtwappen: in Blau einen roten, golden bereiften Reichsapfel, bekrönt mit einem goldenen Kleeblattkreuz.“ Badehaus. Das "Badehaus" ist ein ehemaliges Kurgebäude im Herzen des Alten Kurparks. Es befindet sich auf dem ehemaligen Gelände der Saline. Das Gebäude wurde 1870/71 erbaut und immer weiter um- bzw. ausgebaut. Seit 1997 befinden sich hier das Stadtmuseum sowie die Stadtbibliothek. Bahnhofsgebäude. Das "Bad Sodener Bahnhofsgebäude" wurde 1847 erbaut. Seitdem wurde es mehrmals erweitert, wobei 1914 der Uhrturm und ein Anbau hinzugefügt wurden. Seitdem hat sich das Gebäude kaum verändert. Es befindet sich in der Stadtmitte, in der Nähe der Königsteiner Straße. Heute halten hier zwei Züge, die S-Bahn-Linie S3 (nach Darmstadt über Frankfurt) und die Regionalbahnlinie RB 13 (nach Frankfurt-Höchst über Sulzbach). Burgbergturm. Der 10 m hohe "Burgbergturm" ist ein Aussichtsturm, welcher 1900 vom Taunusclub errichtet wurde. Er befindet sich oberhalb des alten Kurparks. Evangelische Kirche. Die "Evangelische Kirche" befindet sich in der Bad Sodener Altstadt direkt neben dem Quellenpark. Auf dem Platz der heutigen Kirche entstand 1482/83 ein erster kirchlicher Bau in Form einer Kapelle. Die Sakristei ist der älteste Teil des aktuellen Kirchenbaus und stammt aus dem Jahre 1510. Das restliche Kirchengebäude ohne Glockenturm wurde 1715 erbaut. Der Glockenturm wurde 1878 angebaut. 1995/96 wurde sie aufwendig saniert, wobei man auf alte barocke Tafelbilder aus den Jahren um 1720 stieß. Ende 2011, Anfang 2012 wurde der Dachstuhl umfangreich saniert. Haus Reiss. Das "Haus Reiss" ist eine Villa aus dem 19. Jahrhundert. Der Bau des Gebäudes begann 1839 im Auftrag vom Frankfurter Kaufmann Enoch Reiss. Kurze Zeit lebte auch Pauline von Nassau in dem Haus. 1941 wurde das Gebäude bei einem Luftangriff schwer zerstört, konnte aber nach kurzer Zeit wieder aufgebaut werden. Das Haus Reiss befindet sich in der Sodener Altstadt "Zum Quellenpark 8". Hundertwasserhaus. Das "Hundertwasserhaus" wurde von dem im Februar 2000 gestorbenen Friedensreich Hundertwasser entworfen. Der Wiener Künstler ist weltweit durch farbenfrohe Malerei bekannt. Seit 1983 gestaltete er auch Häuser architektonisch, die bekanntesten sind das „Hundertwasser-Wohnhaus“ und das „Kunst-Haus-Wien“ in Wien. Das Wohnhaus, dessen Grundstein im November 1990 gelegt wurde, bezieht das erste Bad Sodener Kurhaus, das Haus Bockenheimer, aus dem Jahre 1722 mit ein. 17 völlig unterschiedliche Wohnungen von 120 bis 230 Quadratmeter befinden sich in dem Haus, das einen neunstöckigen, 30 Meter hohen Turm besitzt. Die Räume sind großzügig gefasst, gehen oftmals ineinander über und sind mit Parkettböden ausgestattet, die teilweise von Fliesen unterbrochen werden. Zusätzlich stehen noch 650 Quadratmeter Nutzfläche für Gewerberäume zur Verfügung. Medico-Palais. Das "Medico-Palais" war einst das größte Inhalatorium Europas. Das Gebäude wurde 1912 auf Initiative der damaligen Ärzte in der Parkstraße gebaut. Heute befindet sich hier immer noch ein Inhalatorium, sowie mehrere Arztpraxen. Paulinenschlösschen. Das "Paulinenschlösschen" ist heute ein denkmalgeschütztes Gebäude in der Innenstadt von Bad Soden und beherbergt das Bürgerbüro. Das Gebäude selbst entstand 1847 auf Wunsch von Pauline von Nassau, da sie Bad Soden zu ihrer Sommerresidenz wählte. Nach ihrem Tod, wurde das Paulinenschlösschen als Hotel genutzt und ab 1909 als Rathaus der Stadt Bad Soden. Zum Gesamtkomplex gehören auch die Krug’sche Villa und die Parkvilla. St. Katharina-Kirche. Die "St. Katharina-Kirche" ist eine katholische Kirche im Neuen Kurpark. Sie wurde 1957 erbaut und wurde persönlich vom Geheimrat Max Baginski gesponsert. Am 1. Januar 2012 haben sich die Pfarrgemeinden von Bad Soden, Neuenhain, Altenhain und Sulzbach zur „St. Marien und St. Katharina Pfarrei“ zusammengeschlossen. Mit 8394 Katholiken bildet diese Pfarrei die größte des Main-Taunus-Kreises. Wasserturm. Der Bad Sodener "Wasserturm" ist heute ein denkmalgeschütztes Gebäudes am Ortsausgang an der Niederhofheimer Straße. Der Turm wurde 1911 für die Sinai-Gärtnerei erbaut. Im Jahr 2000 wurde er von Grund auf saniert und wird heute als Aussichtsturm und als Ausstellungsraum für naturkundliche Themen verwendet. "Für weitere Bauten siehe: Liste der Kulturdenkmäler in Bad Soden am Taunus" Alter Kurpark. Der "Alte Kurpark" befindet sich in der Innenstadt, direkt an der Königsteiner Straße. Er wurde ab 1823 im Stil eines englischen Landschaftsparks angelegt. Hier befinden sich zahlreiche exotische Bäume sowie mehrere Brunnen, wie der Schwefelbrunnen oder der „Neue Sprudel“. Hier befand sich ebenfalls das 1971 abgerissene Kurhaus, an dessen Stelle sich jetzt das „Ramada Hotel“ befindet. Ebenfalls befindet sich im Alten Kurpark das Badehaus, welches früher zu Kurzeiten erbaut wurde. Heute befinden sich hier das Stadtarchiv, die Stadtbibliothek und das Stadtmuseum. Des Weiteren befinden sich hier das Paulinenschlösschen sowie die Konzertmuschel, wo regelmäßig Konzerte und Veranstaltungen (wie z. B. Public Viewing oder Gottesdienste) angeboten werden. Außerdem befindet sich hier der Schwefelbrunnen, der Wilhelmsbrunnen (seit 2001 außer Betrieb) und der „Neue Sprudel“. Neuer Kurpark. Der "Neue Kurpark" wurde 1961 angelegt hat eine Fläche von 43.884 m². Er liegt zwischen dem Eichwald und dem Innenstadtbereich. Zu finden sind hier unter anderem die katholische Kirche St. Katharina und die Kindergartenstätte "St. Katharina". Jedoch sind hier keine Kur- und Quellanlagen aufzufinden. Am Rande der Parkanlage befinden sich zahlreiche Gründerzeitvillen sowie die ehemaligen Kurhotels. Quellenpark. Der "Quellenpark" befindet sich in der Altstadt der Stadt Bad Soden. Er wurde 1872 angelegt, nachdem die Stadt die notwendigen Grundstücke erworben hatte. Das Kernstück des Parks bildet der Solbrunnen, welcher früher zur Salzgewinnung genutzt wurde. Heute ist er als Kur- und Trinkbrunnen in Benutzung. Die Statue Sodenia ist heute ein Wahrzeichen der Stadt Bad Soden. Durch den Quellenpark fließt der Sulzbach. Direkt am Park befindet sich das „Haus Bockenheimer“. Dieser Bau war das erste Badehaus der Stadt. Es wurde 1813 in „Frankfurter Hof“ umbenannt. Auf der anderen Seite befindet sich der Sauerbrunnen. Wilhelmspark. Der "Wilhelmspark" wurde 1911 im Auftrag der Gemeinde von den Gartenarchitekten Gebrüder Siesmayer geschaffen. Der "Franzensbader Platz" und die Straße "Zum Quellenpark" trennen ihn vom Quellenpark. Im Wilhelmspark befinden sich drei Brunnen, darunter der Winklerbrunnen, Glockenbrunnen, Champagnerbrunnen. Bis 1924 hieß er „Kaiser-Wilhems-Park“. Seit 1987/88 heißt er wieder „Wilhelmspark“. Stadtgalerie. Ganzjährig interessante und sehenswerte Ausstellungen, meist im monatlichen Wechsel, zeigen seit 2000 Arbeiten von regional- und überregional bekannten Künstlern mit Malerei, Zeichnungen, Grafiken, Skulpturen in der Stadtgalerie. Das im Alten Kurpark gelegene Badehaus beherbergt hierzu im ersten Obergeschoss die Stadtgalerie mit großzügigen, lichtdurchfluteten Räumlichkeit. Stadtmuseum. Das Stadtmuseum befindet sich seit 1998 im Badehaus im Alten Kurpark. Hier sind verschiedene Funden aus frühgeschichtlicher Zeit ausgestellt sowie die Geschichte der Stadtteile Neuenhain und Altenhain. Ebenso ist der ehemaligen Saline in Bad Soden eine Ausstellung gewidmet, die bis 1812 ein großer wirtschaftlicher Faktor darstellte. Weitere Sonderausstellungen finden im Obergeschoss des Gebäudes statt. Regelmäßige Veranstaltungen. Die Konzertmuschel im Alten Kurpark, hier finden regelmäßig Konzerte, Gottesdienste sowie Public Viewing statt. Sodener Weintage. Zehn Tage lang findet dieses Event im alten Kurpark statt und beginnt am Freitag vor Pfingsten. Weinbauern aus dem Rheingau, aus Franken und von der Mosel bieten ihre verschiedenen Weine an. Sommernachtsfest. Das Sommernachtsfest bildet einen kulturellen Höhepunkt in Bad Soden. Es findet jeweils am dritten Samstag im August statt. Zehntausenden Menschen werden jährlich angezogen. Das Fest erstreckt sich vom alten Kurpark hinüber in die Altstadt: Adlerstraße, Königsteiner Straße und „Zum Quellenpark“. Für genügend musikalische Unterhaltung ist gesorgt und um 23 Uhr beginnt das traditionelle Feuerwerk. Weihnachtsmarkt. Der Bad Sodener Weihnachtsmarkt findet jährlich am zweiten Adventswochenende statt. Genau wie die vorher genannten Feste, findet auch der Weihnachtsmarkt im alten Kurpark statt. Er bietet jede Menge Glühweinstände, sowie eine Weihnachtskrippe und einen Streichelzoo. Vereine. musikalische Vereine (z.B. Freie Musikschule Bad Soden am Taunus, Junge Kantorei Bad Soden e.V.,Kath. Kirchenchor Neuenhain, etc), historische Vereine (Historischer Verein Bad Soden am Taunus e.V., Heimatgeschichts-Verein Neuenhain im Taunus e.V. und Altenhainer Geschichtsverein - Altenhain im Taunus e.V.), Verschönerungsvereine (Wir für Bad Soden, Verein zur Förderung der Kur- und Wohnstadt e.V.), gemeinnützige Vereine (Deutsches Rotes Kreuz Ortsvereinigung Bad Soden am Taunus e.V., Freiwillige Feuerwehr Bad Soden am Taunus e.V.) und viele weitere, wie den Gewerbeverein Bad Soden am Taunus e.V., den Internationaler Kultur- und Sportaustausch Bad Soden am Taunus e.V. (IKUS) oder den SKG Sodener Karneval-Gesellschaft 1948 e.V. Die größten Mitgliederzahlen haben naturgemäß die Sportvereine. Sport. Die Hasselgrundhalle in der Gartenstraße Wirtschaft. In Bad Soden am Taunus befinden sich zehn staatlich anerkannte Heilquellen. Die Kaufkraft der örtlichen Bevölkerung (Kaufkraft-Index 2007 (Bundesrepublik Deutschland = 100): 188,1 %) ist die höchste im Main-Taunus-Kreis. In Hessen liegen lediglich Königstein im Taunus und Kronberg im Taunus (beide Hochtaunuskreis) mit einer höheren Kaufkraft vor Bad Soden, auf Rang vier folgt Bad Homburg vor der Höhe (Kreisstadt des Hochtaunuskreises). Damit belegt Bad Soden am Taunus einen bundesweiten Spitzenplatz. In Bad Soden hatten die Kartographischen Verlage Haupka und zeitweise auch Ravensteins Geographische Verlagsanstalt (unter dem Namen "CartoTravel") ihren Sitz, die 2007 von MairDumont (Falk-Pläne) übernommen und liquidiert wurden. Das Kreiskrankenhaus in Bad Soden ist Teil der Kliniken des Main-Taunus-Kreises. Seit September 2011 hat die Messer Group ihren Hauptsitz in der Innenstadt direkt zwischen Alten und Neuen Kurpark. Die Messer Group gehört zu den größten Industriegasspezialisten weltweit. Verkehr. Der öffentliche Nahverkehr in Bad Soden wird im Auftrag und zu den Tarifen des Rhein-Main-Verkehrsverbundes (RMV) betrieben. Vom Kopfbahnhof Bad Soden bestehen mit der Regionalbahnlinie RB 13 Verbindungen nach Süden über Sulzbach und Sossenheim nach Frankfurt-Höchst sowie mit der S-Bahn nach Osten über Schwalbach, Eschborn (Limesbahn, Kronberger Bahn) und Frankfurt Hauptbahnhof nach Langen und zum Hauptbahnhof Darmstadt. Mit dem Bus bestehen Verbindungen nach Frankfurt-Höchst (Linie 253), Königstein (Linien 253, 803 und 811), zum Main-Taunus-Zentrum (Linie 253 und 803), nach Eschborn (Linien 810, 812 und 813) und Hofheim am Taunus (Linie 812). Des Weiteren bietet die Stadt den Stadtbus 828 an, welcher durch die ganzen Wohnviertel vom Bahnhof aus fährt. Südlich des Ortes verläuft die A 66, westlich die vierspurig ausgebaute B 8, über die L 3014 in Ost-West-Richtung und die L 3266 in Nord-Süd-Richtung ist die Ortsmitte zu erreichen. Der nächste Flughafen ist der Flughafen Frankfurt am Main. Persönlichkeiten. a> in der Straße "Zum Quellenpark", Sommerresidenz der Familie Reiss. Ehrenbürger. ¹Die Zahlen in der Klammer geben jeweils das Jahr des Erhalts des Ehrenbrief wieder. Blauer Riese. Größenvergleich zwischen einem typischen Blauen Riesen und der Sonne a>s Radius liegen zwischen dem 200- und 300-fachen der Sonne. Dieses Bild zeigt die ungefähre Größe Denebs im Vergleich zur Sonne (rechts). Ein Blauer Riese ist ein Stern der Spektralklasse O oder B mit der 10- bis 50-fachen Sonnenmasse. Die Leuchtkraft Blauer Riesen ist höher als die der Hauptreihensterne. Charakteristika. Während ein Roter Riese seine Ausdehnungsgröße erst im Endstadium seiner Sternentwicklung erreicht und sich dabei um ein Vielfaches ausdehnt, erreicht ein Blauer Riese diese Größe bereits im normalen Entwicklungsstadium. Die hohe Masse führt zu einer hohen Dichte, hohem Druck und hoher Temperatur der Materie im Sterninneren. Daraus resultiert eine im Vergleich zu masseärmeren Sternen hohe Reaktionsrate. Die daraus resultierende Energiefreisetzung bewirkt eine Oberflächentemperatur, die mit bis zu 30.000 bis 40.000 K deutlich über der der Sonne mit etwa 5500 K liegt. Durch diese hohe Temperatur liegt das Emissionsmaximum (nach dem Wienschen Gesetz für einen Schwarzen Körper) im ultravioletten Teil des Lichtspektrums, was den blauen Farbeindruck dieser Sterne und somit ihren Namen erklärt. Die absolute visuelle Helligkeit MV erreicht −9,5 und liegt in derselben Größenordnung wie die integrale Helligkeit von Kugelsternhaufen und einigen Zwerggalaxien. Durch eine Windimpuls-Leuchtkraft-Relation kann die absolute Helligkeit mit einer Genauigkeit von 25 % bestimmt werden. Diese Sterne sind damit hellere Entfernungsindikatoren als die klassischen Cepheiden durch die Perioden-Leuchtkraft-Beziehung. Im Gegensatz zu den zahlreich vorhandenen masseärmeren Sternen, die eine Lebensdauer von mehreren Milliarden Jahren haben, so z. B. die Sonne mit etwa 10 Milliarden Jahren, durchlaufen Blaue Riesen ihre Wasserstoffbrennphase aufgrund der hohen Reaktionsrate in nur einigen zehn Millionen Jahren. Danach blähen sie sich zum Roten Überriesen auf und enden in einer Typ-II-Supernova. Die Entwicklung Blauer Riesen vom Spektraltyp O ist stark beeinflusst von der Anwesenheit eines Begleiters in einem Doppelsternsystem. Bei 70 % der O-Sterne wurden Begleiter mit Umlaufdauern von weniger als 1500 Tagen gefunden. Diese Doppelsterne tauschen während oder kurz nach der Hauptreihenphase Materie und Drehimpuls aus. 20 bis 30 % aller massiven Sterne in Doppelsternen werden innerhalb einiger Millionen Jahre verschmelzen. 50 % aller O-Sterne verlieren entweder ihre wasserstoffreiche Atmosphäre und entwickeln sich zum Beispiel in Wolf-Rayet-Sterne oder gewinnen von ihrem Begleiter substanzielle Mengen an Materie. Röntgenstrahlung und Sternwind. Röntgenstrahlung wird häufig von Blauen Riesen und Überriesen emittiert und steht in Verbindung mit den Sternwinden dieser heißen Sterne. Die Sternwinde werden radiativ getrieben und sind eine Folge des Strahlungsdrucks. Der Wechselwirkungsquerschnitt ist für schwere Elemente meist höher und daher werden diese Elemente stärker beschleunigt. Durch Stöße in dem Sternwind wird die kinetische Energie gleichmäßig verteilt, wodurch Geschwindigkeiten von einigen tausend Kilometern pro Sekunde erreicht werden. Die Winddichte ist dabei abhängig von der chemischen Zusammensetzung der Atmosphäre des Blauen Riesen und kann bei Wolf-Rayet-Sternen bis zu 10−3 Sonnenmassen pro Jahr erreichen. Die Röntgenstrahlung entsteht als Bremsstrahlung bei einer Interaktion des Sternwinds mit der interstellaren Materie, Stoßwellen im Sternwind nahe der Sternoberfläche oder bei der Kollision von Sternwinden in Doppelsternsystemen. Blaue Riesen und Überriesen sind Komponenten in Röntgendoppelsternen hoher Masse. Der Sternwind des Blauen Riesen wird dabei von einem Schwarzen Loch, einem Neutronenstern oder recht selten von einem Weißen Zwerg akkretiert. Die Materie wird beim Fall durch das Gravitationsfeld des kompakten Sterns beschleunigt und erzeugt vor der Oberfläche eine Stoßwelle, in der die Materie abrupt abgebremst wird. Im Gegensatz zu der Röntgenstrahlung aus reiner Windwechselwirkung, die weich ist, ist die Röntgenstrahlung aus Röntgendoppelsternen deutlich energetischer (härter). Neben der Bremsstrahlung kommt es auch zu Bursts, wenn die wasserstoff- oder heliumreiche Materie auf der Oberfläche des kompakten Sterns eine Dichte erreicht, bei der eine ungebremste thermonukleare Reaktion einsetzt. Nicht auf Sternwinde zurückzuführen sind die Röntgendoppelsterne, die aus einem Be-Stern und einem kompakten Begleiter bestehen. Aufgrund der hohen Rotationsgeschwindigkeit und eventuell Pulsationen bildet sich in der Rotationsebene um den Be-Stern eine Scheibe aus von der Oberfläche abgeflossenem Gas. Wenn der kompakte Stern durch die Scheibe läuft, sammelt er die Materie auf und die Röntgenhelligkeit schwankt mit der Umlaufdauer des Doppelsternsystems. Veränderlichkeit. Blaue Riesen zeigen häufig veränderliche Helligkeit als eruptive Veränderliche und/oder pulsierende Veränderliche. Bei pulsierenden Veränderlichen ist die Atmosphäre instabil gegen Schwingungen aufgrund des Kappa-Mechanismus. Zu ihnen gehören die Während alle diese Sternklassen innerhalb der Instabilitätsstreifen liegen, scheint es eine kleine Gruppe von frühen B-Überriesen zu geben, die knapp außerhalb der bekannten Instabilitätsstreifen zu finden sind und deren Linienprofile mit Perioden von weniger als zwei Stunden veränderlich sind. Dies wird meist als eine nicht-radiale Schwingung interpretiert, da diese Perioden für eine Rotationsmodulation zu kurz sind. Zu den eruptiven Veränderlichen mit unregelmäßigem Lichtwechsel unter den Blauen Riesen und Überriesen gehören die Supernova und Gamma Ray Burst. Entgegen ursprünglicher Erwartungen explodieren Blaue Riesen auch direkt als Kernkollaps-Supernova. Das bekannteste Beispiel ist die Supernova 1987A, deren Vorläuferstern als B-Überriese mit der Bezeichnung "Sanduleak −69° 202" katalogisiert worden war und seit der Explosion nicht mehr nachweisbar ist. Neben einem Teil der Supernova vom Typ II, deren Atmosphäre zum Zeitpunkt der Supernovaexplosion wasserstoffreich ist, haben auch die Supernovae vom Typ Ib und Ic Blaue Überriesen als Vorläufer. Diese haben durch starke Sternwinde große Teile ihrer Atmosphäre bereits an das interstellare Medium verloren, daher ist in den Spektren dieser Supernovae kein Wasserstoff mehr nachzuweisen. Ein Teil der Gamma Ray Bursts entsteht in Blauen Überriesen bei einer Supernovaexplosion. Gamma Ray Bursts sind extrem leuchtstarke Energiefreisetzungen überwiegend im Bereich der Gammastrahlung mit einer Dauer von wenigen Sekunden bis Minuten in kosmologischen Entfernungen. Sie werden unterteilt in kurze, harte und lange, weiche Gamma Ray Bursts, wobei bei einem Teil der Letzteren ein Supernovaausbruch vom Typ Ic einige Tage später am Ort des Gamma Ray Bursts nachgewiesen werden konnte. Diese Bursts entstehen wahrscheinlich bei einer Supernova, bei der sich ein energiereicher Jet durch die Atmosphäre bohrt und genau in Richtung der Erde zeigt. Massenobergrenze. Blaue Riesen sind die Sterne mit den größten beobachteten Massen von bis zu 250 Sonnenmassen wie z. B. bei dem Überriesen R136a1. Die Massenobergrenze sollte erreicht werden, wenn der Strahlungsdruck im Gleichgewicht mit dem Druck der Gravitationskraft ist. Diese Eddington-Grenze liegt aber bei einem Wert von nur 60 Sonnenmassen. Viele Blaue Riesen haben deutlich höhere Massen, da in ihrem Kern der konvektive Energietransport überwiegt und folglich ein Gleichgewicht auch noch bis zu Massen von 150 Sonnenmassen möglich ist. Diese obere Massengrenze ist dabei abhängig von der Metallizität und gilt für Protosterne während der Sternentstehung. Der hohe Strahlungsdruck führt zu einem schnellen Sternwind, wodurch es zu einem Massenverlust von circa der halben Ursprungsmasse innerhalb von 10 Millionen Jahren kommt. Noch größere Sternmassen von bis zu 250 Sonnenmassen können nur durch Verschmelzungen von zwei massiven Sternen in einem Doppelsternsystem entstehen. Die für diese Verschmelzungen benötigten Sterndichten liegen nur in jungen Sternhaufen vor wie in R136 oder dem Arches-Sternhaufen. Beobachtungen. "HE 0437-5439" ist ein „Hypervelocity Star“ genannter Blauer Riese, der alle dreieinhalb Jahre durch das Weltraumteleskop Hubble beobachtet wird und laut NASA bereits seit 100 Millionen Jahren aus Richtung des Zentrums der Milchstraße kommend 200.000 Lichtjahre zurücklegte und diese mit 715 bis 723 km/s – also mit doppelter Fluchtgeschwindigkeit – verlässt. Warren Brown vom Harvard-Smithsonian Center for Astrophysics veröffentlichte 2010 als Erstautor der Untersuchung die Entdeckung im Fachmagazin "The Astrophysical Journal Letters". Da der Stern aber bereits nach 20 Millionen Jahren hätte ausgebrannt sein müssen, wird vermutet, dass er ursprünglich aus einem Dreifach-Sternsystem stammt. Vor ungefähr 100 Millionen Jahren kam das Dreifach-Sternsystem dem Schwarzen Loch im Zentrum unserer Milchstraße sehr nahe. Einer der drei Sterne soll dabei wahrscheinlich verschluckt worden sein. Die beiden anderen Sterne wären wegkatapultiert worden. „Der größere dieser beiden brannte schneller aus, blähte sich zu einem Roten Riesen auf und verleibte sich dabei seinen Partner ein.“ Beispiele. Blaue Riesen sind auch aufgrund ihrer kurzen Lebensdauer relativ selten. Bad Homburg vor der Höhe. Logo der Stadt Bad Homburg vor der Höhe Bad Homburg vor der Höhe (amtlich Bad Homburg v. d. Höhe) ist die Kreisstadt des Hochtaunuskreises und eine von sieben Städten mit Sonderstatus im Land Hessen. Bad Homburg zählt rund 52.000 Einwohner und ist gemäß hessischem Landesentwicklungsplan als Mittelzentrum ausgewiesen. Die Stadt versteht sich als Kur- und Kongressstadt und wirbt für sich mit dem Motto „Champagnerluft und Tradition“. Die Stadt Bad Homburg liegt im Ballungsraum Rhein-Main und grenzt direkt an Frankfurt am Main. Der Zusatz „Bad“ wird seit 1912 geführt. International bekannt ist Bad Homburg als Kurstadt und für sein Casino, das „Mutter von Monte Carlo“ genannt wird. Zudem ist die Stadt für ihre teure Wohnlage mit einer Reihe von Villengebieten bekannt. Die Kurstadt ist, wie einige weitere Taunusstädte, bevorzugtes Wohngebiet für in Frankfurt tätige meist gut verdienende Pendler. Zugleich ist Homburg Sitz einer Reihe von Unternehmen, deren Belegschaft aus mehr Auswärtigen als Einheimischen besteht. Die Stadt ist Sitz des Bundesausgleichsamtes (BAA) und verfügt über einen Dienstsitz des Bundesamtes für zentrale Dienste und offene Vermögensfragen (BADV). Bad Homburg wies im Jahr 2012 einen weit überdurchschnittlichen Kaufkraftindex von 156 Prozent des Bundesdurchschnitts (100 Prozent) auf und belegte damit einen bundesweiten Spitzenwert. Im Hochtaunuskreis haben lediglich Königstein (191 Prozent) und Kronberg (179 Prozent) einen höheren Wert. Geographie. Die Stadt Bad Homburg liegt in 137 bis (im Mittel 194 Meter). Nachbargemeinden. Bad Homburg grenzt im Norden an die Gemeinde Wehrheim und die Stadt Friedrichsdorf, im Osten an die Städte Rosbach vor der Höhe und Karben (beide Wetteraukreis), im Süden an die kreisfreie Stadt Frankfurt am Main, im Südwesten an die Stadt Oberursel (Taunus), im Westen (zu einem minimalen Teil) an die Gemeinde Schmitten sowie im Nordwesten an die Stadt Neu-Anspach. Geschichte. a> und die Innenstadt, September 2009 Schloss mit Turm im Winter Kurhaus Bad Homburg – anlässlich des Jubiläums "100 Jahre BAD Homburg v. d. Höhe" „alt“ verhüllt Der Name der Stadt "Homburg" leitet sich von der Burg "Hohenberg" ab. „Die Höhe“ ist der traditionelle Name des Taunus, dessen heutige Bezeichnung sich erst ab dem 18. Jahrhundert durchsetzte. Die Stadt Homburg, das heutige Bad Homburg, ist urkundlich erstmals um 1180 nachgewiesen. Archäologische Untersuchungen haben für den gleichen Zeitraum Nachweise von Besiedlung erbracht. Die Zuschreibung einer Erwähnung "Villa Tidenheim" = „Dietigheim“ im Lorscher Codex aus dem Jahr 782 für die Stadt ist daher unwahrscheinlich. Für die Annahme, Homburg habe um 1330 Stadt- und Marktrecht erhalten, gibt es ebenfalls keine eindeutigen Beweise, denn eine entsprechende Urkunde liegt nicht vor. 1335 gestattete allerdings Kaiser Ludwig IV., genannt "der Bayer", den Herren von Eppstein, in dem zu ihrem Territorium gehörenden „Dal und Burg zu Hoenberg“ ebenso wie in Steinheim und Eppstein je zehn Juden anzusiedeln. Da Ludwig den beiden ebenfalls genannten Orten bereits Stadtrechte verliehen hatte, wird angenommen, dass dies auch für Homburg zutraf; im 15. Jahrhundert wird Homburg nur noch Stadt genannt. 1486 verkaufte Gottfried X. von Eppstein Burg, Amt und Stadt Homburg für 19.000 Gulden an Graf Philipp I. von Hanau-Münzenberg. 1504/1521 verlor Hanau Homburg in Folge des Landshuter Erbfolgekriegs, bei dem es auf der Seite der Verlierer stand, wiederum an die Landgrafschaft Hessen. Mit deren Teilung nach dem Tod des Landgrafen Philipp I. fiel Homburg an Hessen-Darmstadt, 1622 an die Nebenlinie Hessen-Homburg. 1866 fiel Homburg nach dem Aussterben des Landgrafengeschlechts von Hessen-Homburg an das Großherzogtum Hessen-Darmstadt zurück, wurde jedoch im gleichen Jahr infolge des Preußisch-Österreichischen Kriegs preußisch. Mit Aufkommen des Kurbetriebs ab Mitte des 19. Jahrhunderts, der sehr von der Einrichtung einer Spielbank profitierte, wandelte sich die Stadt zu einem international berühmten Bad. Nach 1888 wurde Bad Homburg Sommerresidenz von Kaiser Wilhelm II. Horex war eine bekannte deutsche Motorradmarke der "Horex – Fahrzeugbau AG", die 1923 von Fritz Kleemann in Bad Homburg gegründet wurde. In Bad Homburg entstand daher ein Horex-Museum. Der 1,6 Millionen Euro teure Neubau in der Nähe der inzwischen abgetragenen Horex-Fabrik wurde im September 2012 eröffnet. Am 30. März 1945 wurde Bad Homburg von Truppen der 3. US Army Der Kurbetrieb in Bad Homburg ging vor allem nach dem Zweiten Weltkrieg, in dem auch das Kurhaus durch Bomben schwer beschädigt wurde, stark zurück. Führende Hotels wurden zudem von der Militärregierung beansprucht. Die Bedeutung der Stadt als Sitz von Behörden und Verwaltungen nahm zu. Schon im Herbst 1946 ordnete die Militärregierung die Gründung bizonaler Behörden an. Sitz der Verwaltungsstelle für Finanzen wurde Bad Homburg. Hier richtete am 23. Juli 1947 der Wirtschaftsrat der Bizone zur Vorbereitung der Währungsreform die „Sonderstelle Geld und Kredit“ ein, deren Leiter Ludwig Erhard wurde. Nach der Gründung der Bundesrepublik mit der Hauptstadt Bonn blieben in Bad Homburg noch die Bundesschuldenverwaltung (ab 2002 umbenannt in Bundeswertpapierverwaltung, seit 1. August 2006 Teil der Deutschen Finanzagentur), das Amt für Wertpapierbereinigung und das Bundesausgleichsamt. Im Verlauf des 20. Jahrhunderts war Bad Homburg zu einem bevorzugten Wohnsitz wohlhabender Frankfurter Familien geworden, eine Tendenz, die sich als Folge der Kriegszerstörungen in Frankfurt verstärkte. Am 30. November 1989 wurde der in Bad Homburg wohnende Vorstandssprecher der Deutschen Bank AG, Alfred Herrhausen, durch eine Bombe getötet, die Terroristen bei seinem vorbeifahrenden Dienstwagen zündeten (Näheres im Artikel Herrhausen). Eingemeindungen. Die Eingemeindung der umliegenden Dörfer setzt 1901 mit Kirdorf ein, 1937 folgt Gonzenheim. Am 31. Dezember 1971 wurden im Zuge der Gebietsreform in Hessen Ober-Eschbach sowie Dornholzhausen auf freiwilliger Basis eingegliedert. Am 1. August 1972 wurde Ober-Erlenbach per Landesgesetz eingegliedert. Für das Gebiet der eingegliederten Gemeinden Dornholzhausen, Ober-Eschbach und Ober-Erlenbach wurden per Hauptsatzung Ortsbezirke mit Ortsbeirat und Ortsvorsteher errichtet. Die Grenzen der Ortsbezirke Ober-Eschbach und Ober-Erlenbach folgen den seitherigen Gemarkungsgrenzen. Der Ortsbezirk Dornholzhausen umfasst neben der Gemarkung Dornholzhausen die Teile der Gemarkungen Bad Homburg v. d. Höhe und Kirdorf, die westlich der Bundesstraße 456 (Saalburgchaussee/Hohemarkstraße) liegen. Bereits in mittelalterlicher Zeit kam es zur Übernahme des Dorfes Mittelstedten, wobei hier lediglich die Bevölkerung in die Stadt umgesiedelt und das Dorf aufgegeben wurde. Neben den Eingemeindungen sind vor allem die in der Zeit der Hugenottenansiedlung von Homburg ausgehende östlich gelegene Neugründung Friedrichsdorf (heute selbständig), sowie die Wiederbesiedlung des Gebietes der Wüstung Dornholzhausen (heute: Stadtteil von Bad Homburg) zu nennen. Oberbürgermeister. Bad Homburg war nie eine kreisfreie Stadt und hatte daher zunächst keinen Oberbürgermeister. Kaiser Wilhelm II., der regelmäßig im Schloss residierte, verlieh den seit 1892 amtierenden Bürgermeistern als persönliche Auszeichnung den Titel "Oberbürgermeister", wenn auch zum Teil erst ein bis zwei Jahre nach ihrem Amtsantritt als Bürgermeister. Nach dem Ende der Monarchie wurde diese Bezeichnung den Stadtoberhäuptern nicht mehr verliehen. Georg Eberlein durfte nach 1945 aufgrund Bestimmung der Besatzungsbehörden die Dienstbezeichnung "Oberbürgermeister" führen; seinem Nachfolger Karl Horn gestattete das die Landesregierung. Seit 1979 tragen alle Stadtoberhäupter die Amtsbezeichnung "Oberbürgermeister", da Bad Homburg zu einer „Stadt mit Sonderstatus“ wurde. Oberbürgermeisterwahl 2009. Ursula Jungherr (CDU) war von Dezember 2003 bis September 2009 Oberbürgermeisterin. Seit der letzten Kommunalwahl im Jahr 2006 regiert eine schwarz-gelbe Koalition. Bei der Oberbürgermeisterwahl am 26. April 2009 erhielt Ursula Jungherr 39,0 Prozent, der Herausforderer Michael Korwisi (Grüne), der als Unabhängiger angetreten war, 39,3 Prozent. Der Kandidat der Sozialdemokraten, Karl Heinz Krug, erzielte 21,7 Prozent der Stimmen. Am 10. Mai 2009 kam es zu einer Stichwahl zwischen Ursula Jungherr und Michael Korwisi. Bei dieser erreichte Ursula Jungherr 40,5 Prozent, Herausforderer Michael Korwisi 59,5 Prozent der Bad Homburger Wählerstimmen. Die Wahlbeteiligung war mit 45,8 Prozent einige Prozentpunkte höher als beim ersten Wahlgang. Die Amtszeit von Michael Korwisi begann am 18. September 2009. Nach der Kommunalwahl 2011 schmiedete Korwisi ein Minderheiten-Bündnis aus Grünen, SPD, BLB und NHU, das mit Hilfe der Linken einen neuen Bürgermeister und einen neuen hauptamtlichen Stadtrat wählte. Im Sommer 2014 zerbrach das Bündnis an internem Streit über den finanziellen Kurs der Stadt. Seither wird in der Stadtverordnetenversammlung mit wechselnden Mehrheiten regiert. Oberbürgermeisterwahl 2015. Bei der Oberbürgermeisterwahl am 14. Juni 2015 erhielt Michael Korwisi (Grüne), der erneut als Unabhängiger angetreten war, 29,8 Prozent der Stimmen. Bürgermeister Krug (SPD) kam auf 22,2 Prozent und der Fraktionsvorsitzende der CDU in der Stadtverordnetenversammlung, Alexander Hetjes, 48,0 Prozent. In der Stichwahl am 28. Juni 2015 erzielte Alexander Hetjes 61,5 Prozent der Stimmen. Amtsinhaber Michael Korwisi kam auf 38,5 Prozent. Die Wahlbeteiligung lag bei 46,1 Prozent und damit fast auf dem Niveau des ersten Wahlgangs. Die Amtszeit von Alexander Hetjes beginnt am 18. September 2015. Ehemalige Partnerstadt. Im Jahr 1956 wurde eine Städtepartnerschaft zwischen Bejaia und Bad Homburg vor der Höhe vereinbart. Es war damals die einzige Städtepartnerschaft mit Algerien und nur eine von sechs zwischen Deutschland und Afrika. Mit der Machtergreifung Ben Bellas 1963 wurde diese Städtepartnerschaft von algerischer Seite beendet. Der Versuch einer Reaktivierung der Städtepartnerschaft durch den Bürgermeister Bejaias im Jahr 1975 scheiterte. Wirtschaft und Infrastruktur. Bad Homburg verfügt über einen weit überdurchschnittlichen Kaufkraftindex von 156 Prozent. Die überdurchschnittlich hohe Kaufkraft der ansässigen Bevölkerung ist für den Bad Homburger Einzelhandel sehr vorteilhaft, ein geringer Teil fließt in den angrenzenden Frankfurter Einzelhandel ab. Politisch wird die Innenstadt attraktiv gehalten, Ansiedlungen, zum Beispiel von Discountmärkten in Stadtrandlage, sind verboten. Dies führte zu einer rapiden Expansion der an das Bad Homburger Stadtgebiet angrenzenden Industriegebiete in Frankfurt-Nieder-Eschbach und Frankfurt-Kalbach-Riedberg. Inzwischen überragt gemessen an Nachbarorten mit ebenfalls hoher Kaufkraft Bad Homburg: rund 96 von 100 Euro werden auch hier ausgegeben (Oberursel (Taunus): knapp 66 Euro, Königstein im Taunus: 51 Euro, Kronberg im Taunus: 30 Euro). Die besonders hohe Lebensqualität, die Bad Homburg bietet, führt dazu, dass die Bodenpreise in der Kurstadt zu den höchsten in der ganzen Bundesrepublik zählen. In Bad Homburg haben unter anderem folgende Unternehmen ihren Sitz: Amadeus Germany GmbH, Basler Securitas Versicherungs-Aktiengesellschaft, Bridgestone Deutschland GmbH, DELTON AG, Deutsche Leasing AG, Feri Finance AG, Fresenius SE & Co. KGaA, Hewlett-Packard GmbH, ixetic GmbH, Lilly Deutschland GmbH, Kawasaki Gas Turbine Europe GmbH, Kewill GmbH, Linotype GmbH, MEDA Pharma GmbH & Co. KG, PIV-Drives GmbH, RINGSPANN GmbH (ein Unternehmen der Antriebs- und Spanntechnik), die Verwaltung der Quandt-Gruppe sowie die SYZYGY AG. Daneben ist die Stadt Sitz der Zentrale zur Bekämpfung unlauteren Wettbewerbs, der AOK Hessen und der Spielbank Bad Homburg. Ferner ist hier einer der Sitze der Taunus Sparkasse. Mit der Landgräflich Hessischen concessionierten Landesbank in Homburg war Bad Homburg zwischen 1855 und 1876 Sitz einer Notenbank. Nach dem Zweiten Weltkrieg hatten das Bundesausgleichsamt und die Bundesschuldenverwaltung ihren Sitz in Bad Homburg. Kurbetrieb und Fremdenverkehr. Ein wichtiger Wirtschaftsfaktor ist der Kurbetrieb, der auf die zahlreich vorhandenen Heilquellen gründet. Zentrum des Kurbetriebs ist das 1982 bis 1984 errichtete, postmoderne neue Kurhaus. Das traditionelle Kaiser-Wilhelms-Bad liegt im Kurpark Bad Homburg, einem 44 Hektar großen Park im englischen Landschaftsstil (Entwurf von Peter Joseph Lenné) am Ostrand der Innenstadt. Der untere Teil des Parks ist vor allem für die vielen Brunnen bekannt, die relativ dicht beieinander liegen, aber zum Teil sehr unterschiedliche Mineraliengehalte aufweisen. Eine Reihe von Kliniken bieten Heilbehandlungen aller Art an. Neben den Hochtaunus-Kliniken, den Kliniken des Hochtaunuskreises sind dies unter anderem die Wickerklinik, Klinik Wingertsberg, Klinik Dr. Baumstark und die Paul-Ehrlich-Klinik. Verkehr. Hessenring – die Anbindung zur A 661 Bad Homburg ist durch die S-Bahn-Linie S5 (Homburger Bahn) mit Frankfurt verbunden. Der Bahnhof Bad Homburg ist weiterhin der Endbahnhof der kommunalen Taunusbahn, die die Kreisstadt mit den Orten des Hintertaunus verbindet und in den Hauptverkehrszeiten nach Frankfurt Hauptbahnhof weitergeführt wird. In Bad Homburg existiert ein Stadtbusnetz, welches zehn Tages-, sechs Abend- und sieben Schulbuslinien umfasst, sowie an Wochenenden drei Nachtbuslinien nach Frankfurt, Friedrichsdorf und Usingen/Neu-Anspach. Betreiber der Busse ist seit dem 1. Januar 2009 die Verkehrsgesellschaft Mittelhessen GmbH (VM). Die Linien wurden zum genannten Datum in Bad Homburg und Oberursel aufgrund einer europaweiten Ausschreibung abgegeben. Zuvor war die Connex-Tochter Alpina Bad Homburg GmbH Betreiber im Auftrag der Stadt. Des Weiteren bestehen acht Regionalbuslinien, die die Stadt mit Schmitten, Weilrod, Grävenwiesbach, Friedrichsdorf, Karben, Bad Vilbel, Weilmünster, Weilburg, Kronberg im Taunus und Königstein im Taunus verbinden. Seit 1995 sind alle Verkehrslinien im Rhein-Main-Verkehrsverbund (RMV) zusammengefasst. Von 1899 bis 1935 gab es die elektrische Straßenbahn Bad Homburg vor der Höhe der Elektrizitäts-AG vormals W. Lahmeyer & Co. Dazu gehörte die 1900 eröffnete Saalburgbahn zum Römerkastell Saalburg im Taunus. Von 1910 bis 1962 fuhren elektrische Züge der Frankfurter Lokalbahn AG von Frankfurt kommend entlang der Louisenstraße bis zum Markt, dann nur noch zum Alten Bahnhof (heute Rathaus). Die Strecke wird seit dem 19. Dezember 1971 von der Stadtbahnlinie U2 nur noch bis Gonzenheim befahren. Derzeit läuft das Planfeststellungsverfahren, um diese Stadtbahnlinie bis zum 1907 im wilhelminischen Stil errichteten Bad Homburger Bahnhof weiterzuführen. Frühere Überlegungen, die U-Bahn durch Bad Homburg bis zum Sportzentrum Nordwest und sogar über die Saalburg in den Hintertaunus zu verlängern, um den Pendlern auf der überlasteten Bundesstraße 456 einen Anreiz zum Umstieg auf den öffentlichen Personennahverkehr (ÖPNV) zu geben, werden derzeit nicht mehr verfolgt. Bad Homburg liegt am Fuß des Saalburgpasses, der Straßenverbindung zwischen Frankfurt und dem Usinger Land. Heute verläuft hier die vielbefahrene Bundesstraße 456. Der Umbau der Peters-Pneu-Kreuzung in Bad Homburg, durch eine Tunnellösung zur Vermeidung des täglichen Staus, ist in Bad Homburg politisch hoch umstritten. Drei Abfahrten der Bundesautobahn 661 erschließen Bad Homburg. Das Bad Homburger Kreuz stellt die Kreuzung zwischen der A 661 und A 5 dar. Medien. Außerdem ist Bad Homburg Standort des regionalen Fernsehsenders rheinmaintv für das Rhein-Main-Gebiet. Freikirchen. Das Gemeindezentrum der evangelisch-freikirchlichen "Gemeinde in der Sodener Straße" Jüdische Gemeinde. In Bad Homburg bestand seit dem späten Mittelalter eine jüdische Gemeinde. 1639 werden elf Juden gezählt. Die Zahl der Juden stieg im weiteren Verlauf deutlich an. 1803 waren es 105 Familien und um 1925 bestand die jüdische Gemeinde aus etwa 400 Personen (also 2,5 % der damals etwa 16.000 Einwohner). Die jüdische Gemeinde hörte nach der Zerstörung der Synagoge in der Pogromnacht 1938 und der Deportation der letzten Bad Homburger Juden im Jahre 1942 auf zu existieren. Im Jahre 2010 lebten nur wenige Juden in der Stadt. Am Standort der ehemaligen Synagoge in der Elisabethenstraße befindet sich heute eine Freifläche, die als Spielplatz genutzt wird. Ein Denkmal und eine Bronzetafel erinnern an die Synagoge und die jüdischen Opfer der nationalsozialistischen Gewaltherrschaft. Bekannte kulturelle Veranstaltungen. „Night Glow“ bei der Montgolfiade Seit 1997 findet alle zwei Jahre im Kurpark eine Skulpturenausstellung mit renommierten Bildhauern der Gegenwart verbunden mit einem Förderpreiswettbewerb unter dem Namen "Blickachsen" statt. Außerdem wird seit 1989 jedes Jahr am 6. Juni, dem Vortodestag Friedrich Hölderlins, zusammen mit einem Förderpreis der Friedrich-Hölderlin-Preis der Stadt Bad Homburg verliehen. Seit 1995 findet alle zwei Jahre "Fugato", ein internationales Orgelfestival mit weltbekannten Musikern sowie einem weiteren Förderpreis statt. Außerdem findet seit 1935 (zwischenzeitlich wegen des Zweiten Weltkrieges unterbrochen) immer am ersten Septemberwochenende das Laternenfest Bad Homburg statt. Bad Homburger Stiftungen. In Bad Homburg existieren die Bleib Gesund Stiftung, die den "Oskar-Kuhn-Preis" verleiht, die BMW-Stiftung Herbert Quandt, die Else Kröner-Fresenius-Stiftung, die Flersheim Stiftung, die Fritz-Acker-Stiftung zur Förderung der medizinischen Forschung zum Nutzen der Allgemeinheit, die Herbert-Quandt-Stiftung der Altana AG, die Johanna-Quandt-Stiftung, die Martin-Carl-Adolf-Böckler-Stiftung, die die „Homburger Gespräche“ organisiert, die Patienten-Heimversorgung, eine gemeinnützige Stiftung, sowie die Stiftung, die Johann Christian Rind 1776 testamentarisch verfügte. Außerdem die Rotary-Bad Homburg-Schloss-Stiftung und die Werner Reimers Stiftung. Sportveranstaltungen. Das Gordon-Bennett-Rennen 1904 rückte Bad Homburg in den Mittelpunkt der Sportwelt. Sportstätten. Bad Homburg verfügt über zwei bekannte Freizeitbäder: das Seedammbad und die Taunus-Therme. Das Seedammbad ist ein stadteigenes Erlebnis- und Freizeitbad. Im Hallenbereich stehen ganzjährig neben Solarien und Saunaangeboten ein 50 Meter-Sportbecken, eine Wassertretanlage, Whirlpools, mehrere Kinderbecken und eine Röhrenrutsche zur Verfügung. Die Besonderheit des Seedammbades ist das sogenannte „Abenteuerbecken“. Dieses Becken (mit Wasserpilzen, Spritzen, Massagedüsen, Rutschen, Karussell, Tunnel und Strömungskanal) befindet sich als Teil des Hallenbades unter einer Glaskuppel, die bei gutem Wetter geöffnet werden kann. Bei geöffneter Kuppel ist dieses Becken Teil des großen Freibades. Das Freibad verfügt über zusätzliche drei Schwimmbecken, Sprungturm, Kinderbecken, Kinderspielplatz und riesige Liegewiesen. Zur Beliebtheit des Bades trägt bei, dass die Eintrittspreise durch die Stadt hoch subventioniert sind. Die Taunus-Therme liegt dem Seedammbad direkt gegenüber am Rande des Kurparks. Das privat betriebene Bad bietet neben Sauna, Solarium und verschiedenen Schwimmbecken medizinische Anwendungen, Gastronomie und zwei Kinos an. Skulpturenallee. Die Skulpturenallee zwischen Bahnhof und Rathaus in Bad Homburg ist eine Grünanlage neben dem Gebäude der Bundesschuldenverwaltung, in dem eine Reihe von Skulpturen namhafter Künstler ausgestellt sind. Denkmäler. Gedenkstätte zur Ermordung Alfred Herrhausens an der Attentatsstelle Um das Schloss Bad Homburg erstreckt sich der Schlosspark Bad Homburg, ein nach englischem Vorbild entstandener Landschaftsgarten und Teil der Landgräflichen Gärten Bad Homburg. Im Kurpark stehen unter anderem Denkmäler für Friedrich Hölderlin, Peter Joseph Lenné, Wilhelm Filchner, Maximilian Oskar Bircher-Benner, die Kaiser Wilhelm I., Wilhelm II. und Friedrich III. sowie seiner Gattin Victoria. Ein Mahnmal in der Elisabethenstraße erinnert an die 1938 während des Novemberpogroms zerstörte neue Synagoge von 1864 und die Deportation der Bad Homburger Juden im Jahr 1942. Im Forstgarten befindet sich das Naturdenkmal "Krausbäumchen" (eine Süntel-Buche). Das heutige junge Bäumchen ist allerdings nur eine Ersatzpflanzung für das ursprüngliche Exemplar, das 1966 einem Sturm zum Opfer fiel. Die "Felsengruppe Rabenstein", ebenfalls ein Naturdenkmal, ist bei Kirdorf zu finden. An der Gemarkungsgrenze zwischen Kirdorf und Bad Homburg befindet sich der Gluckenstein. Auf dem Waisenhausplatz wurde 1875 das 71 errichtet. Zwischen Taunus-Therme und Seedammbad erinnern drei Basaltstelen an den an dieser Stelle ermordeten Alfred Herrhausen. Etwa sieben Kilometer nordwestlich des Stadtzentrums erhebt sich mit 591 Metern der Herzberg mit einem Aussichtsturm. Alle Denkmäler in Bad Homburg sind in der Liste der Kulturdenkmäler in Bad Homburg vor der Höhe zu finden. Einzelnachweise. Homburg Budapest. Blick auf Pest von Buda aus gesehen Budapest (ungarische Aussprache;) ist die Hauptstadt und zugleich größte Stadt Ungarns. Mit über 1,7 Millionen Einwohnern (Stand Januar 2013) ist Budapest die neuntgrößte Stadt der Europäischen Union. Laut dem britischen Marktforschungsunternehmen Euromonitor International ist sie des Weiteren die am sechsthäufigsten von Touristen besuchte Stadt Europas. Die Einheitsgemeinde Budapest entstand 1873 durch die Zusammenlegung der zuvor selbstständigen Städte Buda (deutsch "Ofen"), Óbuda ("Alt-Ofen") und Pest. Der Name "Budapest" selbst tauchte zuvor nicht auf, üblich im Sprachgebrauch war "Pest-Buda". Lage. Budapest liegt an der Donau, die an dieser Stelle das ungarische Mittelgebirge verlässt und in das ungarische Tiefland fließt. Die höchste Erhebung in Budapest ist der zu den Budaer Bergen zählende 527 Meter hohe János-Berg (ungarisch János-hegy). Weitere Budaer Berge sind der Gellértberg (Gellért-hegy), der Burgberg (Várhegy), der Rosenhügel (Rózsadomb), der Sonnenberg (Naphegy), der Adlerberg (Sashegy), der Martinsberg (Mártonhegy), der Schwabenberg (Svábhegy) und der Széchenyiberg (Széchenyi-hegy). Geotektonisch gesehen liegt die Stadt auf einer Bruchstelle, deshalb ist besonders Buda so reich an Thermalquellen. Klima. Wegen der Binnenlage und der abschirmenden Wirkung der Gebirge hat Budapest ein relativ trockenes Kontinentalklima mit kaltem Winter und warmem Sommer. Die mittleren Temperaturen liegen im Januar bei -1,6 °C sowie im Juli bei 21 °C. Im Frühsommer sind die ergiebigsten Niederschläge zu verzeichnen. Die mittlere Niederschlagsmenge beträgt im Jahr rund 500 bis 600 Millimeter. Römerzeit. Budapests Geschichte beginnt um 89 mit der Gründung eines römischen Militärlagers in ehemals vom keltischen Stamm der Eravisker besiedeltem Gebiet. In der Folge entstand um das Lager die römische Siedlung Aquincum, die zwischen 106 und 296 Hauptstadt der Provinz Pannonia inferior war. Unter römischer Herrschaft prosperierte die Stadt, es lassen sich ein Statthalterpalast, mehrere Amphitheater und Bäder nachweisen, außerdem wurde die an der gefährdeten römischen Donaugrenze gelegene Stadt mit einer Mauer versehen. Völkerwanderung. Am Ende des 4. Jahrhunderts kam es im Zuge der Völkerwanderung vermehrt zu Einfällen germanischer und hunnisch-alanischer Stämme; nach dem Untergang des Römischen Reiches und dem Ende der Völkerwanderung siedelte hier zunächst eine slawische Bevölkerung, die aber ab 896 von Ungarn, uralischen Völkern, die in die pannonische Tiefebene einwanderten, verdrängt wurden. Frühes Mittelalter. Die später christianisierten und sesshaft gewordenen Ungarn wohnten in Dörfern mit Kirchen und betrieben Ackerbau und Viehzucht. Im Zentrum wichtiger Verkehrswege gewann Pest immer mehr an Bedeutung. Bereits zu dieser Zeit entstand über die Donau (etwa bei der heutigen Elisabethbrücke) ein reger Fährverkehr zum gegenüberliegenden Buda. Mit der Krönung Stephans I. (am Weihnachtstag 1000 oder 1. Januar 1001) zum ersten König von Ungarn bauten die Ungarn ihre Vorherrschaft aus. Durch den Einfall der Mongolen („Mongolensturm“) 1241 kam es nach der Schlacht bei Muhi fast zur völligen Zerstörung. Die königliche Residenz wurde zunächst nach Visegrád verlegt. 1308 wurde die Stadt erneuert und 1361 Hauptstadt des Königreiches. 1514 fand ein Bauernaufstand statt. Türkische Besatzung. Ab 1446 griffen die Osmanen immer wieder Ungarn an, was in der Besetzung des größten Teils des Landes gipfelte. So fiel Pest 1526 und das durch die Burg etwas geschützte Buda 15 Jahre später. Die Hauptstadt des noch unbesetzten Ungarns, das fast nur noch aus Oberungarn (im Wesentlichen das Gebiet der heutigen Slowakei) bestand, wurde von 1536 bis 1784 Preßburg. Während Buda zum Sitz eines türkischen Paschas wurde, fand Pest kaum mehr Beachtung und verlor einen großen Teil seiner Einwohner. Habsburgerzeit. Schließlich gelang es den Habsburgern, die seit 1526 Könige von Ungarn waren, die Osmanen zu vertreiben und Ungarn wiederherzustellen (siehe auch: 1686)). Für die Bevölkerung von Buda und Pest änderte sich allerdings nur wenig; sie wurde weiterhin von Fremden verwaltet und musste sehr hohe Steuern zahlen. Die Einwohner wehrten sich in einem Aufstand, der aber niedergeschlagen wurde. Sitz des Königs. Pest war seit 1723 der Sitz der administrativen Verwaltung des Königreiches. Es wurde trotz der widrigen Verhältnisse und eines verheerenden Hochwassers 1838 mit 70.000 Opfern zu einer der am schnellsten wachsenden Städte des 18. und 19. Jahrhunderts. 1780 wurde Deutsch von den Habsburgern als Amtssprache eingeführt. Dies geschah auch, um die immer wieder aufflammenden revolutionären Bewegungen besser kontrollieren zu können. Damit wurde man auch den regelmäßig ins Land gerufenen deutschen Siedlern gerecht, die mittlerweile große Teile der Stadt besiedelten. Das Kernland der Kroaten, etwa das Gebiet des heutigen Kroatiens, war Budapest unterstellt. Brückenbau. Einer der Hauptgründe für den Aufschwung Budapests war die Existenz einer Brücke im Sommer, welche aus aneinander befestigten Booten bestand. Die Kettenbrücke (ungarisch Széchenyi Lánchíd) überspannt hier in Budapest die Donau. Sie wurde in der Zeit von 1839 bis 1849 als erste feste Brücke auf Anregung des ungarischen Reformers Graf István Széchenyi erbaut. Angeregt wurde er dazu, nachdem er eine Woche lang warten musste, um zum Begräbnis seines Vaters ans andere Ufer zu kommen. Den ungarischen Namen trägt sie ihm zu Ehren. Sie ist die älteste und bekannteste der neun Budapester Brücken über die Donau. Sie war bei ihrer Einweihung 1849 die erste Donaubrücke flussabwärts von Regensburg. Revolution 1848/49. Während der ungarischen Revolution 1848 war Budapest einer der Hauptplätze der Unruhen, mit denen die Ungarn gegen die reformfeindliche Unterdrückung durch die Habsburger ankämpften. Zwar wurde der Aufstand letztlich mit Hilfe Russlands blutig niedergeschlagen, aber die Ereignisse von 1849 führten 1867 indirekt in den Ausgleich zwischen Österreich und Ungarn. Damit wurde Ungarn weitgehend unabhängig. Symbol des Ausgleichs war der jährliche mehrwöchige Aufenthalt Kaiser Franz Josephs in Budapest. Als König von Ungarn residierte er auf der Budaer Burg und nahm in dieser Zeit – in ungarischer Sprache und in eine ungarische Uniform gekleidet – mit den Ministern Ungarns und dem königlich ungarischen Reichstag seine ungarischen Ämter wahr. Zusammenlegung Buda/Pest. Die Zusammenlegung von Buda, Óbuda und Pest war schon 1849 unter der revolutionären Regierung Ungarns verordnet worden. Als die Habsburger ihre Macht wiederherstellten, widerriefen sie diesen Beschluss. Erst 1873, sechs Jahre nach dem Österreichisch-Ungarischen Ausgleich von 1867, kam es endgültig zur Vereinigung der beiden Stadthälften. Vorausgegangen war bereits 1870 die Gründung eines „Hauptstädtischen Rates für öffentliche Arbeiten“, der die bauliche und infrastrukturelle Entwicklung der Gesamtstadt koordinieren sollte. Anfang 20. Jahrhundert. Zur Jahrtausendfeier der „Landnahme“ der Ungarn (dem so genannten Millennium) 1896 wurden im Zusammenhang mit der Budapester Millenniumsausstellung 1896 zahlreiche Großprojekte, etwa der Heldenplatz und die erste U-Bahn auf dem europäischen Festland, fertiggestellt. Die Einwohnerzahl im gesamten Stadtgebiet versiebenfachte sich zwischen 1840 und 1900 und stieg auf rund 730.000. Erster Weltkrieg und Folgezeit. Der verlorene Erste Weltkrieg, die daraus resultierenden Todesopfer, der Austritt Ungarns aus der Donaumonarchie 1918 sowie die riesigen Gebietsabtretungen Ungarns brachten für Budapest nur einen kurzzeitigen Rückschlag. Mit dem Vertrag von Trianon verlor Ungarn fast drei Viertel seines Reichsgebiets. Im März 1919 bildete sich kurzzeitig eine kommunistische Räteregierung unter Béla Kun. Miklós Horthy als Kriegsminister der in Szeged gebildeten konservativ-reaktionären Gegenregierung nahm den Kampf gegen das Regime von Béla Kun auf. Eine militärische Auseinandersetzung der Räteregierung mit Rumänien scheiterte. Rumänische Truppen eroberten am 4. August 1919 die Stadt und besetzten weite Teile Ungarns. Viele Mitglieder der Räteregierung flohen bereits am 1. August nach Wien. Gyula Peidl war kurzzeitig Ministerpräsident. Nach seinem Sieg zog Horthy an der Spitze der konservativen Truppen am 16. November 1919 in Budapest ein. Miklós Horthy wurde diktatorischer Reichsverweser (Regent; ungarisch: „kormányzó“) Ungarns, das formell immer noch Königreich war. Sowjetische Truppen in Budapest während des Aufstands 1956 Zweiter Weltkrieg. Der Besetzung Ungarns durch die deutschen Truppen während des Zweiten Weltkriegs fiel rund ein Drittel der ungarischen jüdischen Bevölkerung, deren Zahl sich auf sechshunderttausend belief, zum Opfer. Die meisten von ihnen wurden ab 1944 von den Nazis nach Auschwitz deportiert. Die Besetzung folgte am 19. März 1944 (Operation Margarethe) dem Versuch Ungarns, sich vom verbündeten Deutschland zu lösen. Im selben Jahr wurden Teile Budapests durch amerikanische und britische Luftangriffe zerstört. Die stärksten Verwüstungen erfolgten, als sowjetische Streitkräfte von Ende Dezember 1944 bis Anfang Februar 1945 die Stadt bis zur Einnahme belagerten. Die eingeschlossenen deutschen und ungarischen Truppen sprengten bei ihrem Rückzug auf die Budaer Seite des Kessels sämtliche Brücken über die Donau. 38.000 Zivilisten starben noch in dieser Kriegsphase. Nachkriegszeit. Nach dem Krieg wurden 1946 die Republik und 1949 die Volksrepublik Ungarn ausgerufen. 1956 war Budapest der Ausgangspunkt des gegen die Sowjetunion gerichteten Volksaufstandes. Nach dessen blutiger Niederschlagung kam es zu Säuberungswellen im ganzen Land. Wendezeit seit 1989. Am 23. Oktober 1989 wurde in Budapest die Republik Ungarn ausgerufen. Dies war neben anderem wegbereitend für den Zerfall des ganzen Ostblocks. Im Jahre 2000 fanden ungarnweit Feierlichkeiten zum tausendjährigen Jubiläum der Staatsgründung statt. Aus diesem Anlass wurde auch die Hauptstadt verschönert. Die Parkanlage und das Kulturzentrum Millenáris-Park sowie der Millenniumsstadtteil mit dem Nationaltheater wurden errichtet. Die Budaer Donauseite mit dem Campus der Technischen Universität wurde modernisiert. Der EU-Beitritt Ungarns am 1. Mai 2004 wurde mit vielen Festen im ganzen Land, besonders in der Hauptstadt Budapest, gefeiert. Einwohnerentwicklung. Nachfolgend sind die Einwohnerzahlen nach dem jeweiligen Gebietsstand aufgeführt. Bis 1860 handelt es sich meist um Schätzungen, bis 2001 um Volkszählungsergebnisse und 2006 um eine Schätzung des Ungarischen Zentralamts für Statistik. Die Zahlen vor 1873 beziehen sich auf die drei Städte Buda, Pest und Óbuda. Deren endgültiger Zusammenschluss erfolgte am 17. November 1873, nachdem die erste Zusammenlegung am 24. Juni 1849 kurze Zeit später wieder rückgängig gemacht worden war. Der starke Anstieg der Bevölkerung zwischen 1949 und 1960 ist auf die Eingemeindung von sieben Städten und 16 Gemeinden in der Umgebung zurückzuführen. So stieg die Einwohnerzahl am 1. Januar 1950 um 582.000 Personen auf 1,64 Millionen, die Fläche von 206 Quadratkilometer auf 525 Quadratkilometer, die Zahl der Stadtbezirke von 14 auf 22. Entwicklung der ethnischen Zusammensetzung. Im 15. Jahrhundert war die Bevölkerung von Pest mehrheitlich ungarisch. Nach dem Ende der osmanischen Besetzung Ungarns wurde besonders Buda von Deutschen dominiert. Übersicht. Die folgende Übersicht zeigt den prozentualen Anteil der Gläubigen verschiedener Konfessionen an der Gesamtbevölkerung zwischen 1870 und 1949. Stadtteile. Die Stadt besteht aus drei selbstständigen Städten, die erst 1873 zur Gemeinde Budapest vereint wurden. Auf der östlichen, flachen Seite der Donau liegt Pest, das zwei Drittel der Stadtfläche einnimmt, auf der westlichen, bergigen Seite Buda (dt. "Ofen") und Óbuda (dt. "Alt-Ofen") das restliche Drittel der Stadt. Bezirke. Karte der Bezirke in Budapest Bezirk III, Rathaus von Óbuda Budapest ist verwaltungsrechtlich in 23 Bezirke eingeteilt. Am 1. Januar 1950 wurde die Stadt in 22 Bezirke geteilt, der 23. (XXIII.) wurde später aus dem 20. (XX.) ausgegliedert. Ausgehend vom ersten Bezirk um das Burgviertel (Vár) werden die Bezirke im Uhrzeigersinn mit römischen Zahlen durchnummeriert wobei mehrmals die Donau übersprungen wird. Bezirke in grün liegen in Pest, Bezirke in rot in Buda, die in gelb auf der Insel Csepel. Bauwerke, Straßen und Statuen. Die nennenswerten Bauwerke der Stadt stehen am Ufer der Donau. Auf der westlichen, Budaer Seite erhebt sich der felsige Gellértberg mit der Freiheitsstatue und der Zitadelle. Am Fuß des Berges befindet sich das Hotel Gellért mit seinem berühmten Thermalbad sowie weiter flussabwärts der Hauptbau der Technischen und Wirtschaftswissenschaftlichen Universität. Nördlich des Gellértberges liegt der Burgberg mit dem ehemaligen königlichen Schloss, dem Burgpalast. Der Palast beherbergt die Nationalbibliothek, die Nationalgalerie sowie das Historische Museum. Neben der Burg hat im klassizistischen Palais Sándor der ungarische Staatspräsident seinen Sitz. Am Fuße des Burgbergs liegt der Várkert Bazár als Abschluss der Burganlage zur Donau hin. Im nördlichen Teil des Burgbergs erhebt sich die Matthiaskirche und, ihr zur Donau hin vorgelagert, die Fischerbastei. Das Budaer Burgviertel und das Donaupanorama stehen seit 1987 auf der Liste des UNESCO-Weltkulturerbes. Unter dem Burgviertel verläuft ein teils öffentlich zugängliches Labyrinthsystem. Am östlichen Donauufer, auf der flachen Pester Seite, erheben sich das Parlamentsgebäude, die Akademie der Wissenschaften, eine Reihe großer Hotels am so genannten Donaukorso, die Pester Redoute (ein Ballsaal), die Corvinus-Wirtschaftsuniversität Budapest und weiter südlich das Nationaltheater sowie der Kunstpalast. Die Donau ist die eigentliche Hauptattraktion Budapests und wird im Stadtgebiet von neun stadtbildprägenden Brücken überspannt. Die bedeutendste, weil älteste und zugleich Wahrzeichen der Stadt, ist die Kettenbrücke. Von hier aus führt auf Pester Seite der kleine Ring zur Freiheitsbrücke, vorbei an der Großen Synagoge, dem Nationalmuseum und der Großen Markthalle. Die in der Dohány utca gelegene Synagoge markiert den Zugang zum historischen jüdischen Viertel Budapests, gelegen zwischen Kleinem und Großem Ring. Der Kleine Ring folgt in etwa dem Verlauf der früheren Pester Stadtmauer, deren letzte Stadttore Ende des 18. Jahrhunderts abgebrochen wurden. Reste der Stadtmauer stehen allerdings noch. Zwischen dem Kleinen Ring und der Donau liegt die eigentliche Innenstadt Budapests. Parallel zum Fluss verläuft mit der Váci utca die älteste Handelsstraße und heute bekannteste Flaniermeile der Stadt. Sie verbindet die Große Markthalle mit dem Vörösmarty tér. Nördlich der Innenstadt, aber noch im zentralen 5. Bezirk gelegen, erhebt sich der höchste Kirchenbau Budapests, die St.-Stephans-Basilika. Der Große Ring "(Nagykörút)" wurde zwischen 1872 und 1906 errichtet. Er führt von der Petőfibrücke zur Margaretenbrücke und ist eines der bedeutendsten Architekturensembles seiner Zeit in Europa. Der hier gelegene Westbahnhof "(Nyugati pályaudvar)" ist gemeinsam mit dem Ostbahnhof "(Keleti pályaudvar)" Zeugnis prächtiger Bahnhofsarchitektur. Am Großen Ring, dessen Abschnitte die Namen des Heiligen Stefan sowie der angrenzenden Bezirke Teréz-, Erzsébet-, József- und Ferencváros tragen, stehen mehrere Theaterbauten (bis zu seiner Sprengung 1965 stand hier, am Blaha-Lujza-Platz, auch das Nationaltheater) und viele Filmtheater, von denen einige Ende der 1990er Jahre schließen mussten, da am Westbahnhof und anderen Stellen der Stadt die Multiplexkinos mehr Zuschauer anlocken konnten. Der Ring wird beim achteckigen Platz Oktogon von der Andrássy út gekreuzt, die den Stadtkern mit dem Stadtwäldchen verbindet. Die Andrássy út ist eines der herausragendsten städtebaulichen Vorhaben der ungarischen Hauptstadt. In nur 14 Jahren, von 1871 bis 1885, wurde eine 2,4 Kilometer lange Allee errichtet, die von üppig ausgestatteten, sechsgeschossigen Miethäusern im Historismus, der Ungarischen Staatsoper, dem Haus des Terrors und mehreren Plätzen gesäumt wird. Sie führt auf den Heldenplatz zu, der seinerseits von der Kunsthalle und dem Museum der Schönen Künste eingefasst wird. Auf diesem Platz steht das Millenniumsdenkmal, das 1896 anlässlich des Jubiläums der ungarischen Landnahme errichtet wurde. Südlich des Heldenplatzes liegt der langgestreckte "Platz der 56-er", auf dem das Mahnmal des Aufstandes von 1956 steht. Ein aus verschieden hohen Stahlstelen sich verengender Keil schiebt sich scheinbar vom Stadtwäldchen kommend unter den Belag des Platzes genau an der Stelle, wo 1956 ein Standbild Stalins gestürzt wurde und über Jahrzehnte die Aufmärsche zum 1. Mai stattfanden. 50 Jahre nach dem Aufstand von 1956 wurde das Mahnmal am 23. Oktober 2006 um 19.56 Uhr enthüllt. Seit 2002 gehört auch die Andrássy út zum Weltkulturerbe. Unter ihr verkehrt die erste Budapester U-Bahn, sie ist eine der ersten elektrischen U-Bahnen der Welt und nach der London Underground eine der ältesten weltweit. Weiter östlich stadtauswärts, direkt hinter dem Heldenplatz, liegen im Stadtwäldchen die Burg Vajdahunyad, die zur Budapester Millenniumsausstellung 1896 errichtet wurde, der Zoo, der Zirkus, die Eiskunstlaufbahn sowie das Széchenyi-Heilbad. Zusammen mit dem Gellért-Bad zählt es zu den bekanntesten der Budapester Thermalbäder. Die Türbe von Gül Baba befindet sich auf dem Rosenhügel in Buda, Mecset út 14 (). Sie hat eine achteckige Form und wurde um 1545 errichtet. Sie ist das nördlichste Heiligtum im Islam. Gül Baba (* Ende des 15. Jahrhunderts in Merzifon, Provinz Amasya; † 1. September 1541) war ein türkischer Bektaschi-Derwisch und Dichter des 16. Jahrhunderts. Außerhalb des Stadtzentrums, am westlichen Donauufer gelegen, ist die römische Siedlung Aquincum zu sehen. Aus jüngerer Zeit gibt es hier den Skulpturenpark mit Statuen aus der Periode des Sozialistischen Realismus. Am Ostufer befindet sich das Mahnmal "Schuhe am Donauufer", das an die Pogrome an Juden im Zweiten Weltkrieg erinnert. Theater und Konzertgebäude. Das bedeutendste Theater ist das Ungarische Nationaltheater Nemzeti Színház, kurz "„Nemzeti“" genannt, das sich seit 2002 im Bajor-Gizi-Park befindet. Die bekannte Bühne des Landes musste oft ihren Sitz wechseln. 1837 bis 1908 stand das erste, schlichte Gebäude in der damaligen Kerepesi út, heute Rákóczi út, gegenüber dem Hotel Astoria. Der ursprüngliche Name war Pesti Magyar Színház (Pester Ungarisches Theater). Seit 1840 heißt das Theater Nemzeti Színház. Am Hevesi-Sándor-Tér befindet sich das Magyar Színház (Ungarisches Theater). Für ein junges Publikum sind die Vorstellungen des Katona József Theaters in der Petőfi Sándor-utca (hier arbeitet oft der ungarische Bühnenregisseur Tamás Ascher) und die des Új-Theaters (Neues Theater) gedacht. Eine alternative Bühne für ungewöhnliche Theaterprojekte ist das Krétakör Theater des ungarischen Regisseurs Árpád Schilling. Musical- und Operettenfreunde besuchen gern das Operettszínház am „ungarischen Broadway“ in der Nagymező utca. Eine traditionsreiche Bühne ist das Vígszínház ("Lustspieltheater") am Körút auf der Pester Seite. Opernfreunde schätzen die eher traditionell inszenierten Vorstellungen der Ungarischen Staatsoper Magyar Állami Operaház, deren Haus in der Andrássy-út viele Ähnlichkeiten mit der Wiener Staatsoper aufweist. Für Kinder sind die Vorstellungen des Puppentheaters Bábszínház, ebenfalls in der Andrássy-út, interessant. Das bekannteste Konzerthaus ist der Jugendstil-Festsaal der Musikakademie am Liszt-Ferenc-Platz. Den modernsten akustischen Forderungen entspricht die moderne Bartók-Béla-Konzerthalle, die sich in der Nähe des Nationaltheaters befindet. Auch in den Räumen des Kongresszentrums Budapest finden Konzerte statt. Museen. Die größte Kunstsammlung, das Museum der Bildenden Künste Budapests, befindet sich am Heldenplatz. Sie umfasst eine antike Sammlung, eine Galerie Alter Meister, eine ägyptische Sammlung, eine Sammlung aus dem 19.–20. Jahrhundert, eine Barockskulpturensammlung, eine Sammlung deutscher, österreichischer, niederländischer und flämischer Malerei. Außer den permanenten Ausstellungen werden regelmäßig temporäre Ausstellungen von internationaler Bedeutung durchgeführt, wie die Ausstellung zu Vincent van Goghs Werken Ende 2006, die einen gewaltigen Besucheransturm zu verzeichnen hatte. Gegenüber dem Museum steht die Kunsthalle Budapest für moderne Kunstprojekte. Die ungarische Malerei wird in der Nationalgalerie im Burgpalast ausgestellt. Das Budapester Ludwig-Museum ist seit 2005 im Palast der Künste in der Nähe des neuen Nationaltheaters beheimatet. An der Ecke Üllői út und Ferenc körút findet sich das Jugendstilgebäude des Museums für Angewandte Kunst und am Kossuth-Platz das Ethnographische Museum. Seit 2004 befindet sich in der Páva-Synagoge und dem anschließenden Neubau von István Mányi das Holocaust-Dokumentationszentrum. Neben mehr als 30 Museen verfügt das kulturelle Zentrum Ungarns über viele kleine Galerien, von denen die meisten in der Innenstadt oder im Burgviertel zu finden sind. Kulturelle Ereignisse. Alljährlich finden in Budapest zwei große Kulturfestivals statt, in deren Rahmen vor allem Programme für die Liebhaber klassischer Musik angeboten werden: das Budapester Frühlingsfestival und das Budapester Herbstfestival. Für Filmfreunde gibt es im Februar die Ungarische Filmschau und im April das Internationale Filmfestival Titanic, außerdem ein internationales Theaterfestival. Im August findet das Inselfestival „Sziget“ mit vielen Konzerten für vor allem jugendliche Besucher statt. Ein neues Kulturzentrum auf der Budaer Seite ist der Millenáris-Park, der im Jahre 2000 anlässlich der Millenniumsfeierlichkeiten zur Staatsgründung auf einem alten Fabrikgelände errichtet wurde. Hier finden im Sommer Konzerte, Ausstellungen und andere kulturelle Ereignisse statt. Der Kinderspielplatz hat handgeschnitzte, einem Volksmärchen entnommene Figuren. Seit Oktober 2005 hat auch das ungarische Kindermuseum "Palast der Wunder" hier ein neues Zuhause. Sonstige Freizeitbeschäftigungen. Die bergige Umgebung Budapests bietet viele Ausflugsmöglichkeiten wie die malerische Kleinstadt Szentendre nördlich von Budapest und das Schloss in Gödöllő, der Lieblingsort von Königin und Kaiserin Sisi. Das Donauknie erstreckt sich bis Esztergom. Südlich der Stadt, auf der Csepel-Insel bei Halásztelek erhebt sich der Sendemast Lakihegy. In den Budaer Bergen, deren höchste Erhebung mit 527 Metern der Jánosberg ist, verkehrt die Kindereisenbahn. An der Endhaltestelle der Kindereisenbahn endet der Internationale Bergwanderweg Eisenach-Budapest. In der mit Parks unterversorgten Stadt nimmt die Margareteninsel als Erholungsgebiet eine zentrale Rolle ein. Fußball. In Budapest gibt es zahlreiche Fußballvereine. Der bekannteste Verein aus Budapest ist Ferencváros Budapest. Daneben spielen noch Újpest Budapest, Honvéd Budapest und Vasas Budapest in der höchsten ungarischen Liga (Nemzeti Bajnokság). Der national zweiterfolgreichste Verein MTK Budapest musste in der Saison 2010/11 absteigen, konnte jedoch den direkten Wiederaufstieg fixieren und ist derzeit wieder in der höchsten Spielklasse anzutreffen. Boxen. Budapest hat einen traditionell hohen Stellenwert im Boxsport. Von 1923 bis 2003 wurden die Ungarischen Meisterschaften fast ausschließlich in Budapest ausgetragen, seit 2003 vermehrt auch in anderen Städten. Zudem war die Stadt Austragungsort der 9. Weltmeisterschaften von 1997, der 11. Junioren-Weltmeisterschaften 2000, sowie der Europameisterschaften der Jahre 1930, 1934 und 1985. Sie ist neben Berlin die einzige Stadt Europas, die bereits dreimal Europameisterschaften veranstaltete. Der aus Budapest stammende László Papp gilt zudem als einer der international erfolgreichsten Amateurboxer aller Zeiten und war der erste Boxer, der bei drei aufeinanderfolgenden Olympischen Spielen Goldmedaillen gewann. Im Profiboxen fand in Budapest am 11. September 2004 der Weltmeisterschaftskampf der WBO im Halbschwergewicht zwischen Zsolt Erdei und Alejandro Lakatos statt. Einen weiteren WBO-WM-Kampf in Budapest bestritt Erdei am 16. Juni 2007 gegen George Blades. Ein weiteres WM-Ereignis gab es am 22. August 2009, als Károly Balzsay seinen WBO-Titel gegen Robert Stieglitz verteidigte. Marathon. Seit 1984 finden jährlich der Budapest-Marathon und der Budapest-Halbmarathon statt, an denen jeweils mehrere Tausend Läufer teilnehmen. Ansässige Unternehmen. Eine Vielzahl von Unternehmen hat in Budapest ihren Sitz, wie beispielsweise Staatsdruckerei OAG Ungarn, Magyar Telekom, Zwack, Orion Electronics, MOL und Ikarus. Einzelhandel. Die wichtigsten Einkaufsstraßen von Budapest befinden sich im 5. Bezirk (Innenstadt). Die bekannteste von ihnen ist die Váci utca, in der fast alle großen Modelabels der Welt vertreten sind. Am Vörösmarty-Platz wird jedes Jahr ein Weihnachtsmarkt veranstaltet, der dem am Wiener Rathausplatz ähnlich ist (hier fungieren die Fenster des Gerbeaud-Kaffeehauses als Adventskalender). Seit das Warenhaus "Luxus" am Vörösmarty-Platz 2005 in Konkurs ging, gibt es kaum noch traditionelle Warenhäuser. Bekannt war auch die Warenhauskette Skála, die in den 1970er Jahren als verhältnismäßig gut sortiert bezeichnet werden konnte. An der Stelle des ersten Skála-Kaufhauses im 11. Bezirk wurde 2006 ein modernes Einkaufszentrum errichtet. Inner- und außerhalb der Stadt werden große Einkaufszentren nach amerikanischem Muster ("Plazas") errichtet, die den Konsumenten außer langen Öffnungszeiten eine Auswahl an Dienstleistungen aller Art und Gastronomie bieten. Weiterhin sind große Hypermärkte inner- und außerhalb der Stadt sehr beliebt. Südlich von Budapest (in Budaörs) gibt es seit einigen Jahren nach dem Vorbild der Shopping City Süd bei Vösendorf (Österreich) eine Art "Shopping City". 2007 wurde die "Arena Plaza" gegenüber dem Keleti pályaudvar (Ostbahnhof) fertiggestellt. Gegen die starke „Amerikanisierung“ gibt es Bürgerbewegungen, die den Kauf ungarischer Produkte propagieren und die Verbreitung der übergroßen Einkaufszentren ablehnen. In den Budapester Innenbezirken und in den Einkaufszentren ist an Wochen- und Samstagen bis maximal 21 Uhr und an Sonntagen bis 18 Uhr geöffnet. Es gibt auch eine Reihe von Supermärkten, die 24 Stunden täglich geöffnet und nur an den großen gesetzlichen Feiertagen geschlossen sind. Bäder. Die Geschichte der Budapester Bäder kann auf eine Vergangenheit von 2000 Jahren zurückblicken. Bereits die Römer nutzten die Quellen der Stadt. Aus dem Jahr 1178 gibt es Hinweise auf eine Siedlung Felhéviz auf dem Gebiet vom heutigen Óbuda – der Name bedeutet „Heilquelle“. Am Gellértberg wird die Elisabeth-Quelle erwähnt (die heilige Elisabeth war die Tochter von König Andreas). Die Herrschaft der Osmanen brachte unter anderem eine andere Badekultur in die Stadt, die Baudenkmäler dieser Zeit sind bis heute in Gebrauch. Im 18. Jahrhundert, nach einem Erlass von Maria Theresia begann man sich mit der Analyse der Heilquellen der Stadt auseinanderzusetzen. Im Jahr 1812 begann man auf Vorschlag von Pál Kitaibel damit, die Quellen zu systematisieren, er schrieb auch eine Hydrografie der Stadt. Im Jahr 1930 wurde Budapest als Stadt mit den meisten heilenden Quellen der Titel „Badestadt“ verliehen. Die wichtigsten Heil- und Freibäder sind: Csepeli (Freibad), Csillaghegyi (Freibad), Dagály (Heil- und Freibad), Dandár (Heilbad), Gellért (Heil-, Frei- und Erlebnisbad), Király (Heilbad, türkisches Bad), Lukács (Heilbad, Schwimmbad, türkisches Bad), Palatinus (Heil- und Freibad, Jugendstilbau auf der Margaretheninsel), Paskál (Freibad), Pesterzsébeti (Freibad), Pünkösdfürdői (Freibad), Római (Frei- und Erlebnisbad), Rudas (Heilbad, türkisches Bad), Széchenyi (Heilbad, Schwimmbad), Újpesti (Freibad), Veli Bej (Heilbad, türkisches Bad). Einige der Bäder haben eine Subkultur: Kundige Männer spielen im Széchenyi-Bad im warmen Wasser stundenlang Schach, das Lukács-Bad ist traditionell ein Treffpunkt von Schauspielern und Künstlern. Das Palatinus, „Pala“ genannt, ist ein traditionelles Bad für Jugendliche. Es gibt auch viele Schwimmbäder in Budapest, am bekanntesten ist das Császár in Buda und das Sportschwimmbad auf der Margaretheninsel, das nach Olympiasieger Alfréd Hajós benannt ist. 2008 hat einer der größten überdachten Wasserthemenparks Europas eröffnet, das Ramada Resort. Gastronomie. Ähnlich wie in Wien blühte im 19. Jahrhundert und um die Jahrhundertwende in Budapest eine rege Kaffeehauskultur. Eines der literarischen Zentren war das mehr als einhundert Jahre alte "kávéház" Café New York, das im Sommer 2006 nach einer umfangreichen Renovierung wiedereröffnet wurde; in der Zeit des Kommunismus existierte es unter dem Namen Hungária Kávéház. Ein Schauplatz der Revolution im Jahre 1848 war das Pilvax-Kaffeehaus, in dem sich die Anhänger von Sándor Petőfi versammelten. Die Kaffeehäuser dienten auch als Arbeitsplatz für Schriftsteller, Dichter, Journalisten – Ferenc Molnár war beispielsweise ein häufiger Besucher dieser Kaffeehäuser. Diese wurden in den kommunistischen Zeiten verstaatlicht und umfunktioniert, viele verschwanden oder wurden vernachlässigt. Zu diesen Zeiten waren die verrauchten kleinen „Presszó“-s (Espressos) die einzigen Lokale, in denen man einen „Fekete“, einen kleinen schwarzen, stark gekochten ungarischen Kaffee genießen konnte. Das Café Centrál am Ferenciek tere wurde Ende der 1990er Jahre wieder eröffnet und glänzt in der alten Pracht. Das Café Museum an der Múzeum körút ist ein Nobelrestaurant geworden. Als vornehmstes und schönstes Kaffeehaus gilt das Café Gerbeaud am Vörösmarty tér. Die zwei ältesten Konditoreien in Buda sind die Konditorei Ruszwurm im Burgviertel und die Konditorei August neben dem Budaer Fény-utca-Markt. Donaubrücken. Elisabethbrücke, Kettenbrücke und im Hintergrund die Margaretenbrücke Straßenverkehr. Hauptstraßen, wichtigste Bahnhöfe und Flughafen Obwohl der Anteil des Individualverkehrs am gesamten Verkehrsaufkommen der Stadt eher gering ist, kommt es täglich zu Staus in und um die ungarische Hauptstadt. Mehr als 600.000 zugelassene PKW nutzen das Budapester Straßennetz mit einer Länge von über 4.000 Kilometern. Die Innenstadtbezirke und Teile von Buda sind Kurzparkzonen. Verschärft wird die Situation durch einen eklatanten Mangel an Parkhäusern. Das historische Straßennetz Budapests ist durch Ring- und Radialstraßen gekennzeichnet. Zwischen diesen breiten Straßen liegen eher schmale, heute nur noch für den Einbahnstraßenverkehr geeignete Verkehrswege. Die meisten Autostraßen Ungarns führen über Budapest. Das Straßennetz muss somit neben dem Stadt- auch den Durchgangsverkehr aufnehmen. Die Donaubrücken sind dem Verkehrsaufkommen nicht mehr gewachsen. Zudem verfügt die Stadt über nur wenige und zu schmale Zubringerstraßen. Der wesentliche Teil des Autobahnringes, die M0, um die Stadt ist inzwischen inklusive der Megyeribrücke, einer neuen großen Autobahnbrücke, im Norden der Stadt fertiggestellt worden. Die vollständige Schließung des Ringes im Nord-Westen der Stadt wird zwar vorangetrieben, wird aber durch die schwierigeren geographischen Bedingungen (Buda-Berge) noch länger auf sich warten lassen. Vorrangig ist die Erweiterung des südwestlichen Stückes zwischen der M1 und der M5, welches völlig überlastet ist. Da der Automobilverkehr einen Beitrag zur Luftverschmutzung des im Winter mit Smog verhangenen Budapest leistet, gibt es seit 2009 ein Gesetz, nachdem das Autofahren an bestimmten Tagen verboten werden kann. Bei deutlich zu hohen Feinstaubwerten ist das Fahren an ungeraden Tagen nur für Autos mit einer ungeraden Endziffer auf dem Kennzeichen erlaubt, an geraden Tagen entsprechend nur für Autos mit gerader Endziffer. Die Polizei kann Verstöße nicht mit Bußgeldern ahnden, sondern nur an die Autofahrer appellieren. Im Januar 2009 trat ein solches Fahrverbot erstmals in Kraft. Der Automobilverkehr reduzierte sich um rund 18 Prozent. Fahrradverkehr. Teilnehmer einer "Critical Mass" in Budapest, April 2009 Der Anteil der Radfahrer am Gesamtverkehr ist in Budapest mit etwa ein bis zwei Prozent relativ gering. Im gesamten Stadtgebiet gibt es weniger als 200 Kilometer an Radwegen (weniger als ein Fünftel dessen, was im etwa gleich großen Wien besteht), wovon zwei Drittel nur aus einer auf den Gehsteig gepinselten Linie bestehen. Zweimal im Jahr demonstrieren in Budapest Radfahrer im Rahmen einer Critical Mass für bessere Bedingungen für Radfahrer. Mit bis zu 80.000 Teilnehmern ist sie weltweit die größte Veranstaltung dieser Art. Schienenverkehr. Budapest ist ein wichtiger Verkehrsknotenpunkt im Schienenverkehr und liegt an einem Endpunkt der „Magistrale für Europa“. Hierbei handelt es sich um ein wichtiges transeuropäisches Projekt, mit dem zwischen Paris und Budapest eine Eisenbahn-Hochgeschwindigkeitsstrecke realisiert werden soll. Anstatt eines zentralen Hauptbahnhofs besitzt Budapest drei Kopfbahnhöfe, die durch die Metró miteinander verbunden sind. Die Bezeichnungen dieser Bahnhöfe spiegeln dabei die jeweiligen Hauptfahrtrichtungen zur Zeit der Eröffnungen wider und entsprechen nicht mehr den heutigen Gegebenheiten. Daneben gibt es weitere, kleinere Personen- und Güterbahnhöfe. Wichtigster Bahnhof ist der östlich der Innenstadt im Stadtteil Pest gelegene Ostbahnhof "Keleti pályaudvar". Von hier verkehren die meisten internationalen Fernzüge. Daneben bestehen von hier aus auch viele nationale Verbindungen. Zudem ist dieser Bahnhof über Verbindungs- und Ringstrecken von allen Budapest erreichenden Bahnlinien direkt erreichbar. Nördlich des Ostbahnhofs, ebenfalls auf der Pester Seite, befindet sich der Westbahnhof "Nyugati pályaudvar", dessen Bahnbetriebswerk als Bahnhistorischer Park Budapest Europas größtes interaktives Eisenbahnmuseum ist. Von hier bestehen Verbindungen in den Osten des Landes und in Richtung Ukraine. Auf der Budaer Seite befindet sich der Südbahnhof "Déli pályaudvar", von dem aus Züge in den Südwesten des Landes, beispielsweise zum Plattensee, bestehen. Nahverkehr. 3,8 Millionen Fahrgäste bewegen sich täglich auf dem insgesamt über 2.000 Kilometer langen Streckennetz des Öffentlichen Nahverkehrs in Budapest. Das Budapester Verkehrsunternehmen (BKV) unterhält Metró- (U-Bahn-), Straßenbahn-, Bus-, Oberleitungsbus- und HÉV-Linien (S-Bahn-ähnliches Angebot). Im Budapester ÖPNV gilt der Verbundtarif des BKK ("Budapesti Közlekedési Központ", Zentrum für Budapester Verkehr). EU-Bürger ab 65 Jahren können Verkehrsmittel in Budapest mit Altersnachweis kostenlos benutzen. Dies betrifft auch Staatsbürger der Schweiz. Neben der 1896 fertiggestellten U-Bahn "Földalatti vasút" (älteste U-Bahn auf dem europäischen Kontinent), die als Linie 1, Millenniums-U-Bahn oder gelbe Metrólinie bezeichnet wird und zwischen Vörösmarty tér und Mexikói út Fahrgäste befördert, verkehren drei weitere Metrólinien, die rote Linie 2 zwischen Déli pályaudvar und Örs vezér tere sowie die blaue Linie 3 zwischen Újpest und Kőbánya Kispest. Die grüne Linie 4 zwischen Kelenföld vasútállomás und Keleti pályaudvar funktioniert seit 28. März 2014, eine fünfte ist geplant. Zurzeit werden 22 Prozent aller Wege mit der Metró zurückgelegt. 41 Prozent aller Fahrtwege sind Busfahrten, weitere 26 Prozent Straßenbahn- "(villamos)" und fast 5 Prozent O-Bus-Fahrten. Demnach werden fast drei Viertel aller Wege mit straßengebundenen Verkehrsmitteln bewältigt. Auf die fünf Linien der HÉV, einer Art S-Bahn in die Budapester Vororte, entfallen 6 Prozent. Die Straßenbahnlinien 4 und 6, die mit Ausnahme des einen Streckenendes im Süden von Buda dieselbe Strecke ringförmig um die Altstadt von Pest herum befahren, gehören zu den meistbenutzten Straßenbahnlinien. Sie wurden im Frühjahr 2006 erneuert und seitdem mit dem längsten Straßenbahnwagen der Welt (den Niederflurwagen Combino Plus von Siemens) bedient. Weitere Verkehrsmittel sind noch die Seilbahn zum János-hegy, die Kindereisenbahn, die Zahnradbahn zum Svábhegy und die Standseilbahn zum Burgberg. Luftverkehr. Der internationale Flughafen Budapest Liszt Ferenc (bis März 2011 Ferihegy) liegt etwa 15 Kilometer außerhalb des Stadtzentrums. Mit dem Einstieg mehrerer Billigfluggesellschaften in den ungarischen Markt steigen die Passagierzahlen seit 2004 stark an. Der Flughafen ist mit einem Zubringerbus "(reptér-busz)" oder über eine Schnellstraße erreichbar. Seit 2007 existiert auch eine Zugverbindung von Ferihegy Terminal 1 zum Westbahnhof (Nyugati pályaudvar). Allerdings ist Terminal 1 stillgelegt, so dass man mit dem Bus zu den anderen Terminals fahren muss. Eine Schnellbahn- oder Metróverbindung von den Terminals 2A und 2B und vom geplanten 2C ins Zentrum ist vorgesehen. Schiffsverkehr. Der Schiffsverkehr hat zunehmende Bedeutung. Neben von einheimischen Reedereien veranstalteten Ausflugsfahrten gibt es Linienfahrten mit Tragflügelbooten nach Bratislava und Wien. Außerdem betreibt auch die BKV Zrt. zwei Fähren und eine Schiffslinie, die alle ein bis zwei Stunden verkehren. Flusskreuzfahrtschiffe, flussabwärts etwa aus Passau sowie flussaufwärts vom Schwarzen Meer bringen jährlich hunderttausende Touristen an die Anlegestellen. So wurden in der Sommersaison 2010 täglich insgesamt bis zu 100 verschiedene Fahrgast-Schiffe an den Ufern der Stadt gezählt. Der Freihafen für den Güterumschlag umfasst drei Hafenbecken sowie Containerterminals und Lagerhallen, wo auch RoRo-Schiffe beladen werden können. Er bedeckt eine Fläche von über 150 ha. Studium in Budapest. Die erste ungarische Universität wurde 1635 von Kardinal Péter Pázmány, als Jesuitenkolleg in Tyrnau (damals zum Königreich Ungarn gehörig) gegründet. Anfänglich gab es lediglich eine geisteswissenschaftliche und eine theologische Fakultät. Einen grundlegenden Schritt in der Entwicklung der Universität stellte die Gründung der Fakultät der Rechtswissenschaften 1667 dar. Nach der Gründung der Medizinischen Fakultät 1769 glich die Struktur der Universität derjenigen anderer europäischer Hochschulen. Am 1. Februar 1777 unterzeichnete Königin Maria Theresia die Erlaubnis, die Universität nach Buda zu verlegen. Innerhalb der Geisteswissenschaftlichen Fakultät wurde 1782 das Institut für Ingenieurwesen gegründet, das aber 1857 von der Polytechnischen Universität übernommen und schließlich 1871 Teil der Technischen Universität wurde. Corvinus-Universität Budapest, Technische und Wirtschaftswissenschaftliche Universität Budapest, Loránd-Eötvös-Universität, Franz-Liszt-Musikakademie, Ungarische Akademie der Bildenden Künste, Semmelweis-Universität, Wirtschaftshochschule Budapest, zahlreiche weitere nichtstaatliche Institutionen und die Ungarische Akademie der Wissenschaften. Blut. Das Blut (lat. "sanguis", "haima") ist eine Körperflüssigkeit, die mit Unterstützung des Herz-Kreislauf-Systems die Funktionalität der verschiedenen Körpergewebe über vielfältige Transport- und Verknüpfungsfunktionen sicherstellt. Blut wird als „flüssiges Gewebe“, gelegentlich auch als „flüssiges Organ“ bezeichnet. Blut besteht aus speziellen Zellen sowie dem proteinreichen Blutplasma, das im Herz-Kreislauf-System als Träger dieser Zellen fungiert. Es wird vornehmlich durch mechanische Tätigkeit des Herzens in einem Kreislaufsystem durch die Blutgefäße des Körpers gepumpt. Unterstützend wirken Venenklappen in Kombination mit Muskelarbeit. Dabei werden die Gefäße, die vom Herzen wegführen, als Arterien und jene, die zurück zum Herzen führen, als Venen bezeichnet. Das Gefäßsystem des erwachsenen menschlichen Körpers enthält etwa 70 bis 80 ml Blut pro kg Körpergewicht, dies entspricht ca. 5 bis 6 l Blut. Durchschnittlich haben Männer etwa 1 l mehr Blut als Frauen, was vor allem auf Größen- und Gewichtsunterschiede zurückzuführen ist. Aufgrund der Gemeinsamkeiten in der Funktion ist Blut bei allen Wirbeltieren ähnlich. Auf bestehende Unterschiede zwischen menschlichem und tierischem Blut wird im Artikel hingewiesen. Zu Unterschieden in Aufbau und Funktion der Zellbestandteile des Blutes sei auf die betreffenden Artikel verwiesen. Evolution. Jede Zelle ist für den Erhalt ihres Stoffwechsels auf den Austausch mit ihrer Umgebung angewiesen. Da mit der Entwicklung komplexerer Vielzeller nicht mehr jede Zelle mit der Körperoberfläche in direktem Kontakt steht und die Diffusion ein sehr langsamer Vorgang ist, dessen Dauer sich proportional zum Quadrat der Entfernung verhält, wird mit zunehmender Größe des Lebewesens ein Transportmedium für diese Austauschprozesse notwendig. Diese Flüssigkeit bringt die Stoffe also in die Nähe der Zielzellen und verkürzt damit die Diffusionsstrecke. Bei den Tieren mit offenem Blutkreislauf (z. B. Gliederfüßern oder Weichtiere) sind Blut- und interstitielle Flüssigkeit (Flüssigkeit im Gewebszwischenraum) nicht voneinander getrennt. Die hier zirkulierende Flüssigkeit wird als Hämolymphe bezeichnet. Den Nachteil des relativ langsamen Blutflusses in einem offenen Kreislauf kompensieren Insekten dadurch, dass die Hämolymphe nicht dem Sauerstofftransport dient, sondern dieser über Tracheen gewährleistet wird. Bei allen Tieren mit einem geschlossenen Blutkreislauf, unter anderem allen Wirbeltieren, wird die zirkulierende Flüssigkeit „Blut“ genannt. Zusammensetzung und Eigenschaften. Blut besteht aus zellulären Bestandteilen (Hämatokrit, ca. 44 %) und Plasma (ca. 55 %), einer wässrigen Lösung (90 % Wasser) aus Proteinen, Salzen und niedrig-molekularen Stoffen wie z. B. Monosacchariden (Einfachzuckern). Weitere Bestandteile des Blutes sind Hormone, gelöste Gase sowie Nährstoffe (Zucker, Lipide und Vitamine), die zu den Zellen, und Stoffwechsel- und Abfallprodukte (z. B. Harnstoff und Harnsäure), die von den Zellen zu ihren Ausscheidungsorten transportiert werden. Aus chemisch-physikalischer Sicht ist Blut eine Suspension, also ein Gemisch aus der Flüssigkeit Wasser und zellulären Bestandteilen. Es stellt eine nichtnewtonsche Flüssigkeit dar. Dies begründet seine besonderen Fließeigenschaften. Blut hat aufgrund der enthaltenen Erythrozyten eine gegenüber Plasma erhöhte Viskosität. Je höher der Hämatokritwert und je geringer die Strömungsgeschwindigkeit ist, desto mehr steigt die Viskosität. Aufgrund der Verformbarkeit der roten Blutkörperchen verhält sich Blut bei steigender Fließgeschwindigkeit nicht mehr wie eine Zellsuspension, sondern wie eine Emulsion. Der pH-Wert von menschlichem Blut liegt bei 7,4 und wird durch verschiedene Blutpuffer konstant gehalten. Fällt er unter einen bestimmten Grenzwert (ca. 7,35), so spricht man von einer Azidose (Übersäuerung), liegt er zu hoch (ca. 7,45), wird dies Alkalose genannt. Blut verdankt seine rote Farbe dem Hämoglobin, genauer gesagt seinem sauerstoffbindenden Anteil, der Hämgruppe. Deshalb zählt Hämoglobin zur Gruppe der Blutfarbstoffe. Mit Sauerstoff angereichertes Blut hat einen helleren und kräftigeren Farbton als sauerstoffarmes Blut, da die Hämgruppe nach der Aufnahme des Sauerstoffs eine Konformationsänderung vollzieht, in der sich die Position des Eisens in der Hämgruppe relativ zu seinen Bindungspartnern ändert. Dies hat eine Veränderung des Absorptionsspektrums des Lichts zur Folge. Als chemische Komponente, die den typisch metallischen Geruch von Blut bei Säugetieren ausmacht und Raubtiere anzieht, wurde im Jahr 2014 der Aldehyd "trans-4,5-Epoxy-(E)-2-Decenal" identifiziert. Plasma. Die im Plasma enthaltenen Ionen sind vorwiegend Natrium-, Chlorid-, Kalium-, Magnesium-, Phosphat- und Calciumionen. Der Anteil der Proteine beträgt etwa 60 bis 80 g/l, entsprechend 8 % des Plasmavolumens. Sie werden nach ihrer Beweglichkeit bei der Elektrophorese in Albumine und Globuline unterschieden. Letztere werden wiederum in α1-, α2-, β- und γ-Globuline unterschieden. Die Plasmaproteine übernehmen Aufgaben des Stofftransports, der Immunabwehr, der Blutgerinnung, der Aufrechterhaltung des pH-Wertes und des osmotischen Druckes. Blutplasma ohne Gerinnungsfaktoren wird als Blutserum bezeichnet. Serum wird gewonnen, indem das Blut in einem Röhrchen nach vollständigem Gerinnen zentrifugiert wird. Im unteren Teil des Röhrchens findet sich dann der so genannte Blutkuchen, im oberen die als Serum bezeichnete, meist klare Flüssigkeit. Das Serum enthält auch Substanzen, die im Plasma nicht enthalten sind: insbesondere Wachstumsfaktoren wie PDGF, die während des Gerinnungsvorgangs freigesetzt werden. Serum besteht zu 91 % aus Wasser und 7 % Proteinen. Der Rest sind Elektrolyte, Nährstoffe und Hormone. Durch gelöstes Bilirubin ist es gelblich gefärbt. Zelluläre Bestandteile. Die im Blut enthaltenen Zellen werden unterschieden in Erythrozyten, die auch "rote Blutkörperchen" genannt werden, in Leukozyten, die als "weiße Blutkörperchen" bezeichnet werden, und in Thrombozyten oder "Blutplättchen". Blut hat bei Männern einen korpuskulären Anteil (Zellanteil) von 44 bis 46 %, bei Frauen von 41 bis 43 %. Da die hämoglobintragenden Erythrozyten den Hauptteil des korpuskulären Blutes ausmachen, wird dieses Verhältnis Hämatokrit genannt. Beim Neugeborenen beträgt der Hämatokrit ca. 60 %, bei Kleinkindern nur noch 30 %. Bis zur Pubertät steigt er dann auf die Werte für Erwachsene an. Genaugenommen bezeichnet der Hämatokrit also nur den Anteil an Erythrozyten. Die Leukozyten und Thrombozyten können nach dem Zentrifugieren der zellulären Bestandteile als feiner heller Flaum (buffy coat) über den ganz unten befindlichen Erythrozyten (Hämatokrit) und unter dem Plasmaanteil beobachtet werden, sie machen weniger als 1 % des Blutvolumens beim Gesunden aus. Die Erythrozyten oder roten Blutkörperchen dienen dem Transport von Sauerstoff und Kohlendioxid. Sie enthalten Hämoglobin, ein Protein, das für Sauerstoffbindung und -transport im Blut verantwortlich ist und aus dem eigentlichen Eiweiß "Globin" und der "Häm"-Gruppe, die mit Eisen einen Komplex bildet, besteht. Dieses Eisen verleiht dem Blut von Wirbeltieren seine rote Farbe ("Siehe auch": Blutfarbstoff). Bei anderen Tieren wie den Kopffüßern, Spinnentieren oder Krebsen erfüllt eine Kupfer­verbindung (Hämocyanin) diese Funktion. Deshalb ist deren Blut bläulich. Etwa 0,5 bis 1 % der roten Blutkörperchen sind Retikulozyten, das heißt, noch nicht vollständig ausgereifte Erythrozyten. Die Leukozyten oder weißen Blutkörperchen werden noch einmal in Eosinophile, Basophile und Neutrophile Granulozyten, Monozyten und Lymphozyten unterteilt. Die Granulozyten werden nach dem Färbeverhalten ihres Protoplasmas benannt und dienen, genau wie die Monozyten, der unspezifischen Immunabwehr, während die Lymphozyten an der spezifischen Immunabwehr teilnehmen. Thrombozyten dienen der Blutungsstillung und bilden damit die Grundlage der ersten Phase der Wundheilung. Die zahlenmäßige Zusammensetzung der Blutzellen kann zwischen den einzelnen Wirbeltierarten variieren. Besonders hohe Erythrozytenzahlen haben Ziegen (bis 14 Mio/µl), besonders niedrige das Geflügel (3–4 Mio/µl). Die Leukozytenzahlen haben ähnlich große Variationen: Rinder, Pferde und Menschen haben etwa 8.000/µl, während Schafe (bis zu 17.000/µl) und Vögel (bis 25.000/µl) besonders hohe Anteile an weißen Blutkörperchen haben. Auch der Anteil der einzelnen Untertypen der Leukozyten variiert beträchtlich. Während bei Menschen und Pferden die Granulozyten dominieren ("granulozytäres Blutbild"), sind es bei Rindern die Lymphozyten ("lymphozytäres Blutbild"); bei Schweinen ist das Verhältnis von Granulo- zu Lymphozyten ausgeglichen ("granulo-lymphozytäres Blutbild"). Auf- und Abbau der Zellen des Blutes. Alle Zellen des Blutes werden in einem Hämatopoese genannten Vorgang im Knochenmark gebildet. Aus pluripotenten Stammzellen, aus denen jede Zelle reifen kann, werden multipotente Stammzellen, die auf verschiedene Zelllinien festgelegt sind. Aus diesen entwickeln sich dann die einzelnen zellulären Bestandteile des Blutes. Die Erythropoese bezeichnet als Unterscheidung zur Hämatopoese nur die Differenzierung von Stammzellen zu Erythrozyten. Der Prozess der Reifung und Proliferation der Zellen wird durch das in Niere und Leber produzierte Hormon Erythropoietin gefördert. Eine wichtige Rolle bei der Erythropoese spielt Eisen, das zur Bildung von Hämoglobin benötigt wird. Außerdem spielen Vitamin B12 (Cobalamine) und Folsäure eine Rolle. Kommt es zu einem Sauerstoffmangel im Körper, zum Beispiel auf Grund eines Höhenaufenthalts, so wird die Hormonausschüttung erhöht, was längerfristig zu einer erhöhten Anzahl an roten Blutkörperchen im Blut führt. Diese können mehr Sauerstoff transportieren und wirken so dem Mangel entgegen. Dieser Gegenregulationsvorgang ist auch messbar: Man findet eine erhöhte Anzahl von Retikulozyten (unreifen roten Blutkörperchen). Der Abbau der roten Blutkörperchen findet in der Milz und den Kupffer’schen Sternzellen der Leber statt. Erythrozyten haben eine durchschnittliche Lebensdauer von 120 Tagen. Das Hämoglobin wird in einem Abbauprozess über mehrere Schritte (über Bilirubin) zu Urobilin und Sterkobilin abgebaut. Während Urobilin den Urin gelb färbt, ist Sterkobilin für die typische Farbe des Kots verantwortlich. Transportfunktion. Das Blut mit seinen einzelnen Bestandteilen erfüllt viele wesentliche Aufgaben, um die Lebensvorgänge aufrechtzuerhalten. Hauptaufgabe ist der Transport von Sauerstoff und Nährstoffen zu den Zellen und der Abtransport von Stoffwechselendprodukten wie Kohlenstoffdioxid oder Harnstoff. Außerdem werden Hormone und andere Wirkstoffe zwischen den Zellen befördert. Blut dient weiterhin der Homöostase, das heißt der Regulation und Aufrechterhaltung des Wasser- und Elektrolythaushaltes, des pH-Werts sowie der Körpertemperatur. Abwehrfunktion. Als Teil des Immunsystems hat das Blut Aufgaben in Schutz und Abwehr gegen Fremdkörper (unspezifische Abwehr) und gegen Antigene (spezifische Abwehr) durch Phagozyten (Fresszellen) und durch Antikörper. Weiter ist das Blut ein wichtiger Bestandteil bei der Reaktion auf Verletzungen (Blutgerinnung und Fibrinolyse). Zudem hat Blut eine Stützwirkung durch den von ihm ausgehenden Flüssigkeitsdruck. Wärmeregulierung. Die ständige Zirkulation des Blutes gewährleistet eine konstante Körpertemperatur. Diese liegt beim gesunden Menschen bei ca. 36–37 °C. Dabei geht man im Allgemeinen von der Temperatur im Innern des Körpers aus. Atmung. Eine Funktion des Blutes ist der Transport von Sauerstoff von der Lunge zu den Zellen und von Kohlenstoffdioxid – dem Endprodukt des oxidativen Kohlenstoffwechsels – zurück zur Lunge. Im Rahmen der Atmung gelangt der in der Luft enthaltene Sauerstoff über die Luftröhre in die Lunge bis hin zu den Lungen­bläschen. Durch deren dünne Membran gelangt der Sauerstoff in die Blutgefäße. Das Blut wiederum wird im Rahmen des Lungenkreislaufes vom Herzen zur Lunge geführt. Das zunächst sauerstoffarme Blut gibt in der Lunge Kohlenstoffdioxid (CO2) ab und nimmt dort Sauerstoff auf. Das nun sauerstoffreiche Blut fließt über mehrere Lungenvenen (Venae pulmonales) wieder zurück zum Herzen, genauer zum linken Vorhof. Von dort wird das Blut über ein geschlossenes Netz aus Blutgefäßen an die meisten stoffwechselnden Zellen innerhalb des Körpers verteilt (vgl. auch Blutkreislauf). Ausgenommen davon sind u. a. Zellen der Hornhaut des Auges und der Knorpel, die keinen direkten Anschluss an das Gefäßsystem haben und wie bei primitiveren Organismen über Diffusion ernährt werden (bradytrophe Gewebe). Hämmolekül, abgebildet ist hier Häm "b" Funktionell wichtig für den oben beschriebenen Gasaustausch ist der in den roten Blutkörperchen enthaltene Blutfarbstoff Hämoglobin. Jedes Hämoglobinmolekül besteht aus vier Untereinheiten, die jede eine Häm­gruppe enthalten. Im Zentrum der Hämgruppe ist ein Eisen-Ion gebunden. Dieses Eisen übt eine starke Anziehungskraft (sog. Affinität) auf Sauerstoff aus, wodurch der Sauerstoff an das Hämoglobin gebunden wird. Hat dies stattgefunden, so spricht man von "oxygeniertem" Hämoglobin. Die Affinität des Hämoglobins für Sauerstoff wird durch eine Erhöhung des Blut-pH-Werts, eine Senkung des Partialdrucks von Kohlendioxid, eine geringere Konzentration des im Rapoport-Luebering-Zyklus gebildeten 2,3-Bisphosphoglycerats und eine niedrigere Temperatur erhöht. Ist die Affinität des Hämoglobins für Sauerstoff hoch und der Partialdruck von Sauerstoff ebenso, wie es in den Lungen der Fall ist, dann begünstigt dies die Bindung von Sauerstoff an Hämoglobin, ist jedoch das Gegenteil der Fall wie im Körpergewebe, so wird Sauerstoff abgegeben. 98,5 % des im Blut enthaltenen Sauerstoffs sind chemisch an Hämoglobin gebunden. Nur die restlichen 1,5 % sind physikalisch im Plasma gelöst. Dies macht Hämoglobin zum vorrangigen Sauerstofftransporter der Wirbeltiere. Unter normalen Bedingungen ist beim Menschen das die Lungen verlassende Hämoglobin zu etwa 96–97 % mit Sauerstoff gesättigt. Desoxygeniertes Blut ist immer noch zu ca. 75 % gesättigt. Die Sauerstoffsättigung bezeichnet das Verhältnis aus tatsächlich gebundenem Sauerstoff zu maximal möglichem gebundenem Sauerstoff. Kohlenstoffdioxid wird im Blut auf verschiedene Art und Weise transportiert: Der kleinere Teil wird physikalisch im Plasma gelöst, der Hauptteil jedoch wird in Form von Hydrogencarbonat (HCO3−) und als an Hämoglobin gebundenes Carbamat transportiert. Die Umwandlung von Kohlenstoffdioxid zu Hydrogencarbonat wird durch das Enzym Carboanhydrase beschleunigt. Blutstillung und -gerinnung. Aus einer Schnittwunde rinnendes Blut Die Prozesse, die den Körper vor Blutungen schützen sollen, werden unter dem Oberbegriff der Hämostase zusammengefasst. Dabei wird zwischen der primären und der sekundären Hämostase unterschieden. An der "primären Hämostase" sind neben den Thrombozyten verschiedene im Plasma enthaltene und auf der Gefäßwand präsentierte Faktoren beteiligt. Das Zusammenspiel dieser Komponenten führt bereits nach zwei bis vier Minuten zur Abdichtung von Lecks in der Gefäßwand. Dieser Zeitwert wird auch als Blutungszeit bezeichnet. Zuerst verengt sich das Gefäß, dann verkleben die Thrombozyten das Leck, und schließlich bildet sich ein fester Pfropfen aus Fibrin, der sich nach abgeschlossener Gerinnung zusammenzieht. Die Fibrinolyse ist später für ein Wiederfreimachen des Gefäßes verantwortlich. Die "sekundäre Hämostase" findet durch Zusammenwirkung verschiedener Gerinnungsfaktoren statt. Dies sind, bis auf Calcium (Ca2+), in der Leber synthetisierte Proteine. Diese im Normalfall inaktiven Faktoren werden in einer Kaskade aktiviert. Sie können entweder "endogen", das heißt durch Kontakt des Blutes mit anionischen Ladungen des subendothelialen (unter der Gefäßinnenoberfläche gelegenen) Kollagens, oder "exogen" aktiviert werden, das heißt durch Kontakt mit Gewebsthrombokinase, die durch größere Verletzungen aus dem Gewebe in die Blutbahn gelangt ist. Ziel der sekundären Blutgerinnung ist die Bildung von wasserunlöslichen Fibrinpolymeren, die das Blut zu „Klumpen“ gerinnen lassen. Als "Fibrinolyse" wird der Prozess der Rückbildung der Fibrinklumpen bezeichnet. Dies findet durch die Aktion des Enzyms Plasmin statt. Soll aufgrund verschiedener medizinischer Indikationen wie zum Beispiel Herzrhythmusstörungen die Gerinnungsfähigkeit des Blutes herabgesetzt werden, so setzt man Antikoagulantien (Gerinnungshemmer) ein. Diese wirken, indem sie entweder das zur Gerinnung notwendige Calcium binden (jedoch nur im Reagenzglas, z. B. Citrat oder EDTA), indem sie die Interaktion zwischen den Gerinnungsfaktoren hemmen (z. B. Heparin) oder indem sie die Bildung der Gerinnungsfaktoren selbst unterbinden (z. B. Cumarine). Erkrankungen. Messung der Blutsenkungsreaktion nach der Westergren-Methode Viele Krankheiten lassen sich an bestimmten Veränderungen der Blutbestandteile im Blutbild erkennen und in ihrem Schweregrad einordnen, weshalb das Blut die am häufigsten untersuchte Körperflüssigkeit in der Labormedizin ist. Eine weitere wichtige Untersuchung ist die Blutsenkungsreaktion (BSR), bei der anhand der Zeit, in der sich die festen Bestandteile in mit Gerinnungshemmern behandeltem Blut absetzen, Rückschlüsse auf eventuell vorhandene Entzündungen gezogen werden können. Außer Krankheiten, die sich durch Veränderungen im Blutbild äußern, gibt es auch Krankheiten, die das Blut (bzw. Blutbestandteile) selbst befallen. Das Fachgebiet der Medizin, das sich mit diesen Erkrankungen befasst, ist die Hämatologie. Zu den wichtigsten zählen die Anämie oder Blutarmut, die Hämophilie oder Bluterkrankheit und die Leukämie als Blutkrebs. Bei einer Anämie kommt es, aufgrund vielfältiger Ursachen, zu einer Unterversorgung des Körpers mit Sauerstoff (Hypoxie). Bei Hämophilien ist die Blutgerinnung gestört, was in schlecht oder nicht stillbaren Blutungen resultiert. Bei einer Leukämie werden übermäßig viele weiße Blutkörperchen gebildet und bereits in unfertigen Formen ausgestoßen. Dies führt zu einer Verdrängung der anderen zellulären Bestandteile des Blutes in Knochenmark und Blut selbst. Eine übermäßige Bildung von Blutzellen nennt man "Zytose" oder "Philie", die je nach Zellart in Erythrozytose und Leukozytose (Unterformen sind Granulozytose: Eosinophilie, Basophilie, Neutrophilie; Monozytose; Lymphozytose; Thrombozytose) unterteilt wird. Einen Mangel an roten Blutzellen nennt man Erythropenie (Anämie), an weißen Leukopenie (je nach Zellart Eosinopenie, Basopenie, Neutropenie, Monopenie, Lymphopenie, Thrombozytopenie). Solche Verschiebungen der Proportionen der Zellzahlen werden im Differentialblutbild untersucht und geben zum Teil Hinweise auf die Art und das Stadium einer Krankheit. Durch die Rolle des Blutes in der Versorgung der Zellen besteht bei einer fehlenden oder nicht ausreichenden Blutversorgung immer die Gefahr von Zellschädigung oder -sterben. Bei einer körperweiten Minderversorgung mit Blut, beispielsweise durch einen großen Blutverlust, spricht man von Schock. Durch Blutgerinnsel (aber auch andere Ursachen) kann es zu einer Thrombose, Embolie oder einem Infarkt (z. B. Herz- oder Hirninfarkt) kommen. Um dies zu verhindern, können Wirkstoffe wie Acetylsalicylsäure, Heparin oder Phenprocoumon angewendet werden, die die Gerinnung hemmen. Blut selbst hat, wenn es in größeren Mengen in den Magen-Darm-Trakt gelangt, eine abführende Wirkung. Blutgruppen. In der Zellmembran der roten Blutkörperchen sind Glycolipide verankert, die als Antigene wirken. Sie werden als Blutgruppen bezeichnet. Kommt es zu einer Vermischung von Blut verschiedener Blutgruppen, so tritt oft eine Verklumpung des Blutes ein. Deswegen muss vor Bluttransfusionen die Blutgruppe von Spender und Empfänger festgestellt werden, um potenziell tödliche Komplikationen zu vermeiden. Die medizinisch bedeutsamsten Blutgruppen des Menschen sind das "AB0-System" und der "Rhesus-Faktor" (beide von Karl Landsteiner und Mitarbeitern zuerst beschrieben). Jedoch gibt es beim Menschen noch rund 20 weitere Blutgruppensysteme mit geringerer Bedeutung, die ebenfalls Komplikationen verursachen können. Im "AB0-System" findet man die Blutgruppen "A", "B", "AB" und "0". Die Bezeichnung sagt aus, welche Antigene auf den Erythrozyten gefunden werden (bei A: nur A-Antigene, bei B: B-Antigene, bei AB: A- und B-Antigene und bei 0: keine der beiden) und welche Antikörper (des Typs IgM) im Serum vorhanden sind (bei A: B-Antikörper, bei B: A-Antikörper, bei AB: keine Antikörper und bei 0: A- und B-Antikörper). "Rhesusfaktoren" können in den Untergruppen "C", "D" und "E" auftreten. Medizinisch relevant ist besonders der Faktor D. Ist das D-Antigen vorhanden, so spricht man von "Rhesus-positiv", fehlt es, spricht man von "Rhesus-negativ". Beim Rhesussystem entstehen die Antikörper (der Gruppe IgG) im Blut erst, nachdem der Körper das erste Mal auf Blut mit Antigenen trifft. Da IgG-Antikörper die Plazenta durchqueren können, besteht die Möglichkeit von Komplikationen während der zweiten Schwangerschaft einer Rhesus-negativen Mutter mit einem Rhesus-positiven Kind. Hierbei kommt es zunächst zu einer Auflösung (Hämolyse) der kindlichen Erythrozyten und einer anschließenden krankhaft gesteigerten Neubildung, die als fetale Erythroblastose bezeichnet wird. Die Blutgruppen sind neben ihrer Relevanz bei Transfusionen und Organtransplantationen sowie in der Schwangerschaft auch von Bedeutung in der Rechtsmedizin zur Identitäts- und Verwandtschaftsbestimmung, auch wenn die Aussagekraft von darauf beruhenden Tests weitaus geringer ist als bei der DNA-Analyse und sich auf Ausschlussnachweise beschränkt. Bluttransfusionen. Bei großen Blutverlusten, bei verschiedenen Krankheiten wie dem myelodysplastischen Syndrom und oft zur Bekämpfung von Nebenwirkungen bei allen Chemotherapien werden meist Bluttransfusionen durchgeführt, um das Blutvolumen aufzufüllen oder bestimmte Blutbestandteile, an denen ein Mangel vorliegt, gezielt zu ergänzen. Hierbei ist zu beachten, dass das Blut von Spender und Empfänger hinsichtlich der Blutgruppen und des Rhesusfaktors bestimmte Bedingungen erfüllen muss, da es sonst zu schweren Transfusionszwischenfällen kommen kann. Um Transfusionen zu ermöglichen, sind jedoch Blutspenden nötig. Es wird zwischen Vollblutspenden, Eigenblutspenden und Spenden nur einzelner spezifischer Blutbestandteile (z. B. Blutplasma oder Thrombozyten) unterschieden. Bei einer Vollblutspende werden dem Spender ca. 500 ml venöses Blut entnommen; dieses Blut wird dann konserviert, untersucht und bei entsprechender Eignung in verschiedene Blutprodukte aufgetrennt. Diese werden in einer Blutbank eingelagert. Eigenblutspenden dienen der Bereitstellung von Blut vor einer Operation, das bei eventuell auftretendem Blutverlust ohne Komplikationen dem Patienten wieder verabreicht werden kann. Eine Blutspende kostet den Empfänger bzw. dessen Krankenkasse in Deutschland 109,90 €. Hauptbestandteil dieses Betrages ist die Durchführung der Blutspende, weitere Kostenpunkte sind Laboruntersuchungen, Haltbarmachung, Verteilung und Verwaltung. Alternativen zur Blutspende sind künstliches Blut, das aus lang haltbaren gefriergetrockneten roten Blutkörperchen in einer isotonischen Lösung besteht, und Blutersatz, das starken Blutverlust ausgleichen soll, wenn keine Blutkonserven verfügbar sind. Blutersatzmittel können entweder das noch vorhandene Restblut verdünnen und somit das für einen funktionierenden Blutkreislauf notwendige Volumen wiederherstellen (sog. "Volumenexpander") oder das Blut durch aktives Übernehmen des Sauerstofftransports unterstützen. Auch bei den übrigen Säugetieren gibt es verschiedene Blutgruppensysteme (bei Haustieren 7 bis 15) mit jeweils einer Mehrzahl von Blutgruppenfaktoren. Im Gegensatz zum Menschen gibt es allerdings bei der ersten Bluttransfusion kaum Reaktionen auf diese Blutgruppenunterschiede. Daraufhin gebildete Antikörper rufen erst bei Folgeblutspenden gegebenenfalls eine Unverträglichkeitsreaktion hervor. Aderlass und Schröpfen. Vom Altertum ausgehend galt im europäischen Mittelalter das Blut als einer der Vier Säfte des Lebens. Dabei versuchte man, durch Aderlass oder Schröpfen Heilung zu bewirken und „faules Blut“ zu entfernen. Laut Erzählungen resultierte diese Überlegung aus der Beobachtung kranker Nilpferde, die sich an Gegenständen rieben, bis sie bluteten. Über lange Zeit galt der Aderlass als anerkannte Therapieform und erfreute sich großer Beliebtheit. Viele Doktoren und Wundärzte neigten jedoch dazu, diese Therapieform äußerst exzessiv zu betreiben. Erst Forschung und Kontakt zu anderen Kulturen (v. a. zu der hoch entwickelten arabischen Medizin) sorgten für differenzierte und anwendungsgerechtere Behandlungen. Der Aderlass als therapeutische Blutentnahme wird heute durchwegs durch Punktion einer Vene mit einer dicken Kanüle durchgeführt. Dabei werden in der Regel 400 bis maximal 1.000 ml entnommen. Dies ist noch immer angezeigt bei Erkrankungen wie der Hämochromatose (Eisenspeicherkrankheit), der Porphyria cutanea tarda und der Polycythaemia vera (krankhafte Vermehrung vor allem der roten Blutkörperchen). Auch die Blutegelbehandlung findet wieder Beachtung – wobei aber der kontrollierte pharmakognostische Einsatz des Hirudin vorrangig ist. Blutgifte. Blutgifte, auch als Hämotoxine bezeichnet, sind Stoffe, durch deren chemische Beschaffenheit das Blut-, Blutgerinnungs- oder Blutbildungssystem derart verändert wird, dass die Transport- und Stoffwechselfunktion des Blutes eingeschränkt oder verhindert wird. Dies kann eine Schädigung des Blutkreislaufs bis hin zum Kreislaufkollaps zur Folge haben. Zu den chemischen Verbindungen, die als Blutgifte wirken, zählen beispielsweise Kohlenmonoxid (CO), Benzol, Alkohole wie Ethanol, organische Nitroverbindungen, Arsen- und Bleiverbindungen. Beispiele für pflanzliche Inhaltsstoffe mit hämotoxischer Wirkung sind die Saponine und Chinin. Auch eine Reihe von tierischen Giften wirkt auf das Blut, zum Beispiel die Hauptbestandteile der Gifte vieler Vipernarten. Blutreinigung. Möglichkeiten zur Entfernung von Blutgiften sind die Dialyse bei akutem oder chronischem Nierenversagen oder auch die Apherese zur Entfernung von pathogenen (krank machenden) Bestandteilen. Kulturgeschichte des Blutes. Blut wurde schon früh als Träger der Lebenskraft angesehen. Die Beobachtung, wie beim Verbluten eines Menschen oder beim Ausbluten eines Schlachttiers dessen Kräfte schwinden, ließ die Menschen darauf schließen, dass das Blut ein Urstoff des Lebens wäre. Blut als Abfallprodukt in der Tierproduktion. Blut gilt als eines der problematischeren Abfallprodukte der Schlachthäuser. Für die USA schätzt man (bei einem Anteil von etwa 20 % am globalen Fleischmarkt) eine jährliche Produktion von 1,6 Millionen Tonnen Blut. Wegen des relativ hohen Feststoffanteils (etwa 18 %) und des hohen chemischen Bedarfs an Sauerstoff (etwa 500.000 mg O2/L, etwa 800-mal so viel wie bei Haushaltsabwässern) gelten die Umweltprobleme, die vom Schlachtblut hervorgerufen werden, in der Fachliteratur als „enorm“. Wegen der Entsorgungskosten haben Hersteller einen starken wirtschaftlichen Anreiz, Blut zu verarbeiten oder zu verwerten. Vom produzierten Blut werden (in den USA) etwa 30 % der Nahrungsmittelindustrie zugeführt, überwiegend als kosteneffizientes Bindemittel in Fleischprodukten und als Färbemittel. Weiterhin wird Blut für die Tiernahrung, als Dünger und in der Papierverarbeitung als Klebstoff verwendet. Blut als Lebensmittel. Blut ist auch Hauptnahrungsmittel einiger so genannter "hämatophager" (blutverzehrender) Parasiten. Der Blutegel saugt sich an der Haut fest und beißt sich dann durch sie hindurch. Innerhalb einer halben Stunde können Blutegel das Fünffache ihres Gewichts an Blut aufnehmen. Die dabei mit ihrem Speichel ausgeschiedenen gerinnungshemmenden Stoffe (z. B. Heparin und Hirudin) machen sie auch für die Medizin interessant. Weitere Blutsauger sind beispielsweise Stechmücken, Bremsen, einige Milben (z. B. Rote Vogelmilbe), Wanzen und einige Würmer (z. B. Hakensaugwürmer). Nur wenige Wirbeltiere ernähren sich ganz oder teilweise von Blut. Neben den Vampirfledermäusen sind nur noch die auf Wolf und Darwin, den zwei nördlichsten Galápagos-Inseln, lebenden Populationen des Spitzschnabel-Grundfinken ("Geospiza difficilis"), eines Darwinfinken, für derartigen Parasitismus bekannt. Auf den wasserlosen Inseln trinken diese so genannten „Vampirfinken“ vom Blut der sich dort aufhaltenden Meeresvögel, indem sie unbemerkt die Ansätze der Federkiele anpicken und so zugleich ihren Flüssigkeitsbedarf decken. Blutsaugende Tiere sind häufig Überträger von Krankheiten, da sie als Vektoren krankheitserregende Viren, Bakterien, Protozoen und andere Organismen übertragen können. Einige dieser so übertragenen Mikroorganismen leben selbst direkt vom Blut des Wirtsorganismus, so die einzelligen Malariaerreger, die Plasmodien. Nach dem Tod eines Organismus und dem Zusammenbruch der Immunabwehr beginnen Fäulnisbakterien, die ansonsten im lebenden Organismus nicht vermehrungsfähig sind, am deutlichsten erkennbar zunächst das Blut unter Freisetzung von biogenen Aminen wie Cadaverin und Putrescin zu verstoffwechseln, und führen damit zum sicheren Todeszeichen des "durchschlagenden Venennetzes", also zur Verfärbung des oberflächlichen Venensystems in ein dunkles Grün. Blut von geschlachteten Tieren wird teilweise von Menschen als Nahrungsmittel benutzt. Sonstige Nutzung. Menschliches Blut ist in der mittelalterlichen Literatur als Futtermittel in der Schweinemast, als Gartendüngemittel und in vielfältigen Rezepturen aus Haushalt und Bauwesen erwähnt. Diese heute befremdliche Verwendung liegt in der auf dem Aderlass aufgebauten galenischen Medizin des Mittelalters und der frühen Neuzeit begründet, durch die Menschenblut in teils beträchtlichen Mengen verfügbar war. Wie aber das Baderwesen als Ganzes wurde diese Praxis – aus weltanschaulichen wie auch aus hygienischen Gründen – teils nur als Sitte des armen Volkes toleriert, oder scharf bekämpft. Blutagar ist ein in der Mikrobiologie verwendeter Nährboden für Mikroorganismen, der menschliches oder tierisches Blut enthält. Mit ihm können verschiedene Erreger, zum Beispiel Streptokokken, nachgewiesen werden. Blutmehl, das aus getrocknetem Blut von Schlachttieren gewonnen wird, findet als Proteinzusatzfuttermittel noch teilweise Anwendung in der Tierernährung. Mit dem Aufkommen von BSE darf Blutmehl nur noch aus Blut von Schlachthöfen erzeugt werden, die keine Wiederkäuer schlachten (Verordnung (EG) Nr. 1234/2003). Blutmehl findet vor allem in der Fischfütterung Einsatz oder aber auch als Düngemittel. Ochsenblut ist ein Bindemittel für Farbanstriche, mit denen früher Fachwerkbalken vor der Witterung geschützt wurden. Entgegen weit verbreiteter Ansicht heißt diese Farbe nicht deswegen "Ochsenblutrot", weil sie rötlich ist, sondern weil sie tatsächlich Ochsenblut enthält. Zur Herstellung von Ochsenblutrot lässt man das Blut frisch geschlachteter Ochsen abstehen, sodass sich das Serum und die roten Blutkörperchen trennen. Aus dem Serum und gelöschtem Kalk wird unter Zugabe von Pigmenten eine gut wetterfeste Farbe gewonnen. Billion. Der Zahlenname Billion steht im "deutschen" Sprachgebrauch für die Zahl 1000 Milliarden oder 1.000.000.000.000 = 1012, im Dezimalsystem also für eine Eins mit 12 Nullen. 1000 Billionen ergeben eine Billiarde. Der Vorsatz für Maßeinheiten für den Faktor eine Billion ist Tera mit dem Zeichen T. Abgekürzt wird sie mit "Bio." oder "Bill.", wobei Letzteres mit Billiarde verwechselt werden kann. Das US-amerikanische "billion" hingegen entspricht der deutschen Milliarde. Vorsätze für Maßeinheiten. Bezieht man sich auf Maßeinheiten, dann bezeichnet man das billionenfache der Maßeinheit mit dem Präfix "Tera" (abgekürzt: T), wohingegen der billionste Teil (10−12) mit "Piko" (abgekürzt: p) bezeichnet wird. Beispielsweise ist ein Pikometer (pm) ein billionstel Meter (10−12 m). Auch beim Bezug auf die Maßeinheit "Byte" in der Informatik wird heute die Bezeichnung Terabyte (abgekürzt: TB) im Sinne von genau einer Billion Byte verstanden. Das sind 1012 Byte und nicht 240 = 10244 = 1.099.511.627.776 Byte , was eine Billion Byte um ca. 9,95 % überschreitet. Zur Benennung von 240 Byte wird heute die Bezeichnung "Tebibyte" (TiB) nahegelegt; "Tibi" (Ti) ist ein Binärpräfix, während "Tera" (T) ein Dezimalpräfix ist. Falsche Freunde in anderen Sprachen. Der unterschiedliche Gebrauch des gleichen Begriffs in verschiedenen Sprachen (als so genannter falscher Freund) führt häufig zu Fehlübersetzungen, insbesondere im nicht wissenschaftlichen oder nachlässigen Journalismus bei der Angabe von Kosten oder Vermögen. Der Grund dafür liegt in den so genannten langen und kurzen Einteilungen: Im Deutschen, Französischen, Italienischen, Polnischen, Portugiesischen oder Spanischen hat es die Bedeutung von "einer Million hoch 2" (daher die Vorsilbe "bi") und ergibt 1012. Im US-Englisch steht die Zahl „billion“ jedoch für 109 (=10001+2), entspricht also der Milliarde in den Ländern, die das System der sogenannten „langen Einteilung“ benutzen (die deutschsprachige Billion heißt im US-Englisch entsprechend "trillion"). Im britischen Englisch wird es aufgrund des Einflusses der USA sowohl für 109 als auch traditionell für 1012 gebraucht. Daher sind Übersetzungen aus dem Englischen nicht immer verlässlich. Geschichte. Das Wort "Billion" kam im 15. Jahrhundert in Frankreich auf. Ursprünglich stand es sicherlich für die attestierte "bi-million" (=1012). Diese Bedeutung wurde von dem französischen Mathematiker Nicolas Chuquet in seinem Werk "Triparty en la science des nombres" (1484 als Manuskript erschienen) zuerst beschrieben und systematisiert. 1690 taucht es zum ersten Mal im Englischen so auf (Oxford English Dictionary). Genau so wird es in England auch heute von der Wissenschaft allgemein verwendet. Im 17. Jahrhundert gab es in Frankreich einen Reformversuch, wonach eine Billion nur noch 1000 Millionen (109) wert sein sollte. Diese reformierte Bedeutung übernahmen die US-Amerikaner direkt von französischen Ratgebern. Auch in Puerto Rico und Brasilien sowie in Russland und der Türkei wird die so genannte " kurze Leiter" heute benutzt, wobei aber im Sprachgebrauch der beiden letztgenannten Länder das Wort "Milliarde" (109) fest verankert ist. Einen Sonderfall stellt die griechische Sprache dar, in der das internationale Wort "Billion" nicht benutzt wird. Die Zahl 1012 heißt in Griechenland, nach dem Modell der kurzen Leiter, "Tri-Hundertmyriade" (tris/ekatom/myrio). Der Million (106) "Ekatommyrio" - gebildet als Kompositum aus 100 mal 10.000 - wird für jeden "kurzen Schritt" (mal Tausend) eine jeweils erhöhte Kardinalzahl voran gestellt. Der englische Premier Harold Wilson beschloss, dass seine Regierung das Wort künftig wie im Amerikanischen verwenden werde. Seit 1974 wird die amerikanische Bedeutung für amtliche Dokumente von der Britischen Regierung übernommen. Im Alltagsgebrauch wird in England "die Billion" aber nach wie vor mit 1012 gleichgesetzt. In Australien, Südafrika und anderen englischsprachigen Ländern gibt es Tendenzen, sich dem amerikanischen Verständnis der Billion anzuschließen. In allen anderen Staaten der Welt setzte sich die ursprüngliche Bedeutung der Billion gemäß Chuquet durch. Die internationalen Gremien empfehlen seit 1948 diesen Gebrauch, zuletzt auch die 11. Generalkonferenz für Maße und Gewichte, 1960. In Frankreich selbst konnte sich die reformierte Namensgebung der großen Zahlen nie wirklich durchsetzen. Die französische Regierung bestätigte dann die " lange Leiter" im Jahr 1961 mit dem Décret 61-501, die auch dem Sprachgebrauch entspricht. Auch in Italien ist dieses Verständnis der Billion allgemein und, laut einer EU-Richtlinie, offiziell. Die international genormten Präfixe "Giga" für 109 und "Tera" für 1012 können die Zahlennamen nicht vollwertig ersetzen. Das vom französischen Lexikon "Littré" explizit als „irrtümlich“ bezeichnete Reformsystem ist bislang in drei Staaten der Welt (Brasilien, den USA und Puerto Rico) uneingeschränkt gültig. Die Logik hinter der Chuquet-Billion sowie aller weiteren "Zillionen" ist, dass die Vorsilbe immer genau der Potenz der Million entspricht. (Beispiel: Eine "Tri"llion ist eine Million hoch "drei".) Die "Zilliarden" bezeichnen seit dem Übergang von Sechser- auf Dreiergruppen sehr gut die Zwischenzahlen, die "tausend Zillionen". Fußnoten. e12 Biogas. Biogas ist ein brennbares Gas, das durch Vergärung von Biomasse jeder Art entsteht. Es wird in Biogasanlagen hergestellt, wozu sowohl Abfälle als auch nachwachsende Rohstoffe vergoren werden. Das Präfix Bio weist auf die „biotische“ Bildungsweise im Gegensatz zum fossilen Erdgas hin, nicht auf eine Herkunft aus ökologischer Landwirtschaft. Das Gas kann zur Erzeugung von elektrischer Energie, zum Betrieb von Fahrzeugen oder zur Einspeisung in ein Gasversorgungsnetz eingesetzt werden. Für die Verwertung von Biogas ist der Methananteil am wichtigsten, da seine Verbrennung Energie freisetzt. Rohstoffe. Dabei ergeben verschiedene Ausgangsmaterialien unterschiedliche Biogaserträge und je nach ihrer Zusammensetzung ein Gas mit variablem Methangehalt, wie die nebenstehende Tabelle zeigt. Vorteile von Biogas kann man mit den (möglichen) Nachteilen von Energiepflanzen abwägen ("Ökobilanz"). Entstehung. Übersicht über die anaerobe Verwertung von polymeren Substraten und Lipiden Biogas entsteht durch den natürlichen Prozess des mikrobiellen Abbaus organischer Stoffe unter anoxischen Bedingungen. Dabei setzen Mikroorganismen die enthaltenen Kohlenhydrate, Eiweiße und Fette in die Hauptprodukte Methan und Kohlenstoffdioxid um. Dafür sind anoxische Verhältnisse notwendig, also die Abwesenheit von Sauerstoff. Der Prozess besteht aus mehreren Stufen, die jeweils von Mikroorganismen verschiedener Stoffwechseltypen durchgeführt werden. Polymere Bestandteile der Biomasse, wie Zellulose, Lignin, Proteine, werden zunächst durch mikrobielle Exoenzyme zu monomeren (niedermolekularen) Stoffen umgewandelt. Niedermolekulare Stoffe werden durch gärende Mikroorganismen zu Alkoholen, organischen Säuren, Kohlenstoffdioxid (CO2) und Wasserstoff (H2) abgebaut. Die Alkohole und organischen Säuren werden durch acetogene Bakterien zu Essigsäure und Wasserstoff umgesetzt. In der letzten Stufe werden durch methanogene Archaeen aus Kohlenstoffdioxid, Wasserstoff und Essigsäure die Endprodukte Methan (CH4) und Wasser gebildet. Zusammensetzung. Die Zusammensetzung von Biogas ist sehr unterschiedlich, weil sie von der Substratzusammensetzung und der Betriebsweise des Faulbehälters abhängt. In der Schweiz wird die Bezeichnung Kompogas verwendet; dies wird ausschließlich aus pflanzlichen Abfällen produziert. Vor der Biogasaufbereitung besteht die Gasmischung aus den Hauptkomponenten Methan (CH4) und Kohlenstoffdioxid (CO2). Darüber hinaus sind meist auch Stickstoff (N2), Sauerstoff (O2), Schwefelwasserstoff (H2S), Wasserstoff (H2) und Ammoniak (NH3) enthalten. Wertvoll im wassergesättigt anfallenden Biogas ist das zu rund 60 % enthaltene Methan. Je höher dessen Anteil ist, desto energiereicher ist das Gas. Nicht nutzbar ist der Wasserdampf. Im Rohbiogas störend sind vor allem Schwefelwasserstoff und Ammoniak. Sie werden bei der Biogasaufbereitung vor der Verbrennung entfernt, um Gefährdungen des Menschen, Geruchsbelästigungen sowie Korrosion in Motoren, Turbinen und nachgeschalteten Komponenten (unter anderem Wärmetauscher) zu verhindern. Ebenfalls störend ist das CO2, das in bestimmten Anwendungsfällen abgeschieden und verwertet werden kann. Klima- und Umweltschutz. Methan ist ein wichtiges Treibhausgas. Daher ist die Prüfung der Dichtigkeit von Biogasanlagen und aller zugehörigen Komponenten ein maßgeblicher Beitrag zum Klimaschutz. Biogasanlagen sind nicht vollständig dicht; auch für Wartungsarbeiten müssen sie zugänglich bleiben. Deshalb kann beim Betrieb einer Biogasanlage Methan, das eine 25- bis 30-mal stärkere aufheizende Wirkung auf das Klima hat als CO2, in die Atmosphäre entweichen. Biogas erreicht seinen maximalen Wirkungs- und Versorgungsgrad, wenn es gleichzeitig zur Strom- und Wärmeerzeugung genutzt wird; in der so genannten Kraft-Wärme-Kopplung (KWK) weist es die beste Klimabilanz auf. Eine Stromerzeugung ohne Wärmenutzung oder die rein thermische Verwendung von aufbereitetem Biogas in Erdgasthermen sind hingegen erwartungsgemäß suboptimal, wie die Agentur für Erneuerbare Energien ermittelte. Bei der Produktion von Energiepflanzen kommt es zu einem hohen Energieeinsatz. Eine mit Maissilage betriebene Anlage verbraucht im Gegensatz zur Abfallverwertung bei allen Produktionsschritten Energie: Saatvorbereitung, Säen, Düngen, Schutz vor Schädlingen (Pflanzenschutzmittelproduktion und Einsatz), Ernte, Transport, Silage, Vergärung unter Umwälzen und Rücktransport der Gärrestmenge auf die Felder. Die Klimabilanz der Energiepflanzen kann verbessert werden, wenn der für die Produktion nötige Energiebedarf selbst aus regenerativen Energien gedeckt wird, etwa wenn die eingesetzten Landmaschinen ebenfalls mit Treibstoffen aus Energiepflanzen oder Ökostrom betrieben werden. Das bei intensiver Landwirtschaft durch Stickstoffdüngung entstehende Distickstoffmonoxid (auch als „Lachgas“ bezeichnet) muss in die Klimabilanz mit eingerechnet werden. Die Produktion von Lachgas erfolgt durch Mikroben, die diesen aus Luftsauerstoff und dem übermäßig zugeführten Stickstoff bilden. Lachgas hat ein ungefähr 300-mal größeres Treibhausgaspotenzial als CO2. Auch die Änderung der Landnutzung muss berücksichtigt werden: Wenn Weideland zum Maisacker umgepflügt wird, setzt der dort enthaltene Humus durch Luftkontakt CO2 und andere Treibhausgase frei. Der Anbau von Mais ist ökologisch umstritten. Mais ("Zea mays") ist ein Gras tropischen Ursprungs. Der Anbau erfolgt so, dass Frost vermieden wird, die Aussaat also spät im Jahr stattfindet, die Pflanzen im Mai/Juni gut wachsen und die Ernte Ende September beginnt. Während des größten Teils des Jahres liegen die mit Mais bepflanzten Äcker somit frei und werden durch Wind und Regen erodiert. Dadurch kann es zum Eintrag von Pestiziden und Dünger in naheliegende Gewässer, aber auch ins Grundwasser kommen. Der Anbau von Mais in Europa ist ohne diese Hilfsstoffe gar nicht möglich. Dies stellt ein Problem dar, da es sowohl zu Eutrophierungen als auch zu Verlandung der Gewässer kommen kann. Ebenso kann es zu Verwehungen von großen Mengen Staub aus trockenen Äckern kommen, was wiederum die Bodenfruchtbarkeit beeinträchtigt, weil hierdurch wichtige Bodenbestandteile verloren gehen; es besteht langfristig die Gefahr der Wüstenbildung, was insbesondere in den USA bekannt ist. Durch den großflächigen Anbau von Mais-Monokulturen zur Produktion von Biogas kommt es zu weiteren ökologischen Auswirkungen. Weideland und Feuchtwiesen werden in Ackerland umgewandelt, Brachflächen wieder genutzt. Dies hat Auswirkungen auf Vögel (z. B. Kiebitz, Lerche, Storch) und andere Tiere, die dadurch Nahrungs- und Brutgebiete verlieren. Anders als bei konventionell wirtschaftenden Betrieben mit Biogasanlagen spielt der Mais als Energiepflanze für die Ökolandwirte nur eine recht geringe Rolle. Wichtiger sind hingegen Kleegras und Reststoffe wie Gülle und Mist. Der Ökolandbau bietet auch Anregungen für konventionell arbeitende Betriebe, was etwa den Anbau von Zwischenfrüchten und Untersaaten oder den gleichzeitigen Anbau mehrerer Pflanzen betrifft; so können auch konventionelle Betriebe für ihren Energiepflanzenanbau von den Erfahrungen der Ökobetriebe profitieren. Potenziale. Im Jahr 2014 entspricht die Biogasproduktion in Deutschland etwa 20 % der Erdgasimporte aus Russland. Mit dem verbleibenden Potenzial können etwa weitere 10 % ersetzt werden, unter Berücksichtigung technischer und demografischer Entwicklungen bis zu insgesamt 55 %. In der EU entspricht die derzeitige Biogasproduktion etwa 6 % der Erdgasimporte aus Russland. Mit dem verbleibenden Potenzial können etwa weitere 26 % ersetzt werden, unter Berücksichtigung technischer und demografischer Entwicklungen bis zu insgesamt etwa 125 %. Einspeisung in das Erdgasnetz. Nach einer umfassenden Biogasaufbereitung kann eine Einspeisung in das Erdgasnetz erfolgen. Neben dem Entfernen von Wasser, Schwefelwasserstoff (H2S) und Kohlendioxid (CO2) muss auch eine Anpassung an den Heizwert des Erdgases im jeweiligen Gasnetz (Konditionierung) stattfinden. Wegen des hohen technischen Aufwands lohnt sich die Aufbereitung und Einspeisung derzeit nur für überdurchschnittlich große Biogasanlagen. Erste Projekte dazu starteten 2007. Neuentwicklungen wie etwa die Hohlfasermembran der Evonik Industries aus Essen ermöglichen eine Reinigung von Biogas bis zu einem Reinheitsgrad von bis zu 99 Prozent und bringen es damit auf Erdgasqualität. Entschwefelung: Die Entschwefelung ist notwendig, um Korrosion zu vermeiden. Schwefel findet sich als Schwefelwasserstoff (H2S) im Biogas, bei dessen Verbrennung entstünden bei Anwesenheit von Wasserdampf aggressive Säuren, nämlich Schweflige Säure (H2SO3) und Schwefelsäure (H2SO4). Meist ist der Schwefelwasserstoffanteil gering, kann aber bei proteinreichem Substrat (Getreide, Leguminosen, Schlachtabfälle und dergleichen) stark ansteigen. Es gibt verschiedene Möglichkeiten zur Entschwefelung, unter anderem sind biologische, chemische und adsorptive Verfahren möglich. Gegebenenfalls sind mehrere Stufen nötig wie Grob- beziehungsweise Feinentschwefelung. Trocknung: Da Biogas wasserdampfgesättigt ist, würden bei Abkühlung unbehandelten Biogases erhebliche Kondensatmengen anfallen, welche zu Korrosion in Motoren führen können. Darüber hinaus soll die Bildung von Wassertaschen vermieden werden. Deshalb muss das Gas getrocknet werden. Dies erfolgt durch eine Abkühlung des Gases auf Temperaturen unterhalb des Taupunktes in einem Wärmetauscher, das kondensierte Wasser kann entfernt werden und das abgekühlte Gas wird durch einen zweiten Wärmetauscher geleitet und wieder auf Betriebstemperatur erwärmt. Gleichzeitig mit der Trocknung wird das gut wasserlösliche Ammoniak entfernt. CO2-Abtrennung: Kohlenstoffdioxid (CO2) ist nicht oxidierbar und trägt daher nicht zum Heizwert des Biogases bei. Zur Erreichung von Erdgasqualität muss der Heizwert des Biogases dem des Erdgases angepasst werden. Da Methan die energieliefernde Komponente des Biogases ist, muss dessen Anteil durch Entfernung von CO2 erhöht werden. Die derzeit gängigen Verfahren der Methananreicherung durch CO2-Abtrennung sind Gaswäschen und die Druckwechsel-Adsorption (Adsorptionsverfahren an Aktivkohle). Daneben sind weitere Verfahren wie die kryogene Gastrennung (mittels tiefer Temperaturen) oder die Gastrennung durch Membranen in der Entwicklung. Konditionierung: Bei der Konditionierung wird das Biogas bezüglich Trockenheit, Druck und Heizwert den Erfordernissen angepasst. Je nach Herkunft hat Erdgas unterschiedliche Heizwerte, daher muss der obere Heizwert des aufbereiteten Biogases an das jeweilige Netz angepasst werden. Verdichtung: Zur Einspeisung in das Erdgasnetz sind, abhängig vom jeweiligen Netzbetrieb, niedrige bis mittlere Drücke bis etwa 20 bar notwendig. Da das Biogas nach der Aufbereitung meist einen geringeren Druck aufweist, muss es mit Hilfe eines Kompressors entsprechend verdichtet werden. Weitere Reinigungs- und Aufbereitungsschritte: In Deponie- und Klärgasen können Siloxane sowie halogenierte und cyclische Kohlenwasserstoffe enthalten sein. Siloxane verursachen stark erhöhten Motorenverschleiß. Halogen-Kohlenwasserstoffe führen zu Emissionen toxischer Verbindungen. Siloxane und Kohlenwasserstoffe können mittels Gaswäsche, Gastrocknung oder Adsorption an Aktivkohle aus dem Biogas entfernt werden. Nutzung. Biogas eignet sich neben der Eigennutzung in der Landwirtschaft auch als Beitrag zu einem Energiemix aus erneuerbaren Energien. Dies, weil es zum einen grundlastfähig ist, das heißt, dass das Biogas im Gegensatz zu anderen erneuerbaren Energieträgern wie Wind oder Sonne kontinuierlich verfügbar ist, zum anderen lassen sich Biomasse und Biogas speichern, wodurch zum Energieangebot in Spitzenzeiten beigetragen werden kann. Deswegen bietet sich dieser Bioenergieträger zum Ausgleich kurzfristiger Schwankungen im Stromangebot der Wind- und Sonnenenergie an. Bisher werden die meisten Biogasanlagen kontinuierlich, quasi als Grundlastkraftwerk, betrieben. Zur Nutzung der enthaltenen Energie stehen die folgenden Möglichkeiten zur Wahl: Kraft-Wärme-Kopplung (KWK) vor Ort: Biogas wird in einem Blockheizkraftwerk (BHKW) für die Strom- und Wärmeerzeugung genutzt (KWK); der Strom wird vollständig ins Netz eingespeist, die ca. 60 Prozent ausmachende Abwärme kann vor Ort genutzt werden. Alternativ kann das Biogas nach entsprechender Aufbereitung ins Versorgungsnetz eingespeist werden. Blockheizkraftwerke. In Deutschland ist die Verbrennung von Biogas in Blockheizkraftwerken (BHKW) am häufigsten, um zusätzlich zur Wärme auch Elektrizität zur Einspeisung in das Stromnetz zu produzieren. Da der größte Teil der Biogaserträge durch den Stromverkauf erzielt wird, befindet sich beim Wärmeabnehmer ein BHKW, welches als Hauptprodukt Strom zur Netzeinspeisung produziert und Wärme im Idealfall in ein Nah- oder Fernwärmenetz einspeist. Ein Beispiel für ein Nahwärmenetz ist das Bioenergiedorf Jühnde. Bisher wird allerdings bei den meisten landwirtschaftlichen Biogasanlagen mangels Wärmebedarf vor Ort nur ein geringer Teil der Wärme genutzt, beispielsweise zur Beheizung des Fermenters sowie von Wohn- und Wirtschaftsgebäuden. Biogasnetz. Eine Alternative ist der Transport von Biogas in Biogasleitungen über Mikrogasnetze. Die Strom- und Wärmeproduktion kann dadurch bei Wärmeverbrauchern stattfinden. Weitere Nutzungsarten. Biogas kann als nahezu CO2-neutraler Treibstoff in Kraftfahrzeugmotoren genutzt werden. Da eine Aufbereitung auf Erdgasqualität notwendig ist, muss der CO2-Anteil weitestgehend entfernt werden. Sogenanntes Biomethan oder Bioerdgas muss auf 200 bis 300 bar verdichtet werden, um in umgerüsteten Kraftfahrzeugen genutzt werden zu können. In der Schweiz fahren Lastwagen der Walter Schmid AG und der dazugehörigen Firma Kompogas seit 1995 mit Biogas, der erste Lastwagen erreichte im Sommer 2010 seinen millionsten Kilometer. Ab 2001 fuhr auch die Migros Zürich mit Kompogas und seit 2002 auch McDonalds Schweiz. Bisher wird Biogas jedoch selten auf diesem Weg verwertet. 2006 wurde die erste deutsche Biogastankstelle in Jameln (Wendland) eröffnet. Wegen der hohen elektrischen Wirkungsgrade könnte in Zukunft zudem die Verwertung von Biogas in Brennstoffzellen interessant sein. Der hohe Preis für die Brennstoffzellen, die aufwendige Gasaufreinigung und die in Praxisversuchen bisher noch geringe Standzeit verhindern bisher eine breitere Anwendung dieser Technik. Biogas weltweit. Während Biogas erst in den letzten 10 Jahren in das Bewusstsein der europäischen Bevölkerung gerückt ist, wurde in Indien bereits Ende des 19. Jahrhunderts Biogas zur Energieversorgung eingesetzt. Die ökonomische Verbreitung der Biogasnutzung hängt vor allem von der Weltenergiepolitik (z. B. während der Erdölschwemme von 1955 bis 1972 und der Ölkrise von 1972 bis 1973) und den jeweiligen nationalen Gesetzgebungen (zum Beispiel dem Erneuerbare-Energien-Gesetz in Deutschland) ab. Unabhängig davon wurden kleine Biogasanlagen in Ländern wie Indien, Südkorea, Taiwan und Malaysia zur privaten Energieversorgung gebaut, wobei mit über 40 Millionen Haushaltsanlagen die meisten in China stehen. Deutschland. Von 1999 bis 2010 wuchs die Zahl der Biogasanlagen von etwa 700 auf 5905, die insgesamt rund 11 % des Stroms aus erneuerbaren Energien produzieren. Ende 2011 waren in Deutschland rund 7.200 Biogasanlagen mit einer installierten elektrischen Anlagenleistung von ca. 2.850 MW in Betrieb. Damit ersetzen Deutschlands Biogasbauern mehr als zwei Atomkraftwerke und versorgen über fünf Millionen Haushalte mit Strom. Aufgrund unsicherer politischer Rahmenbedingungen hat sich der Zubau seit 2012 stark verringert, um nur noch 200 MW in 2013. 2013 waren in Deutschland insgesamt 7.720 Biogasanlagen mit einer elektrischen Gesamtleistung von etwa 3.550 Megawatt installiert, die 27 Mio. Megawattstunden elektrische Energie oder 4,3 % des deutschen Bedarfs produzierten. Zusätzlich zur elektrischen Energie wurden weitere 13,5 Mio. MWh Wärmeenergie erzeugt, was einem Anteil von 0,9 % des deutschen Jahresbedarfs entspricht. Zur Versorgung dieser Biogasanlagen, von denen sich etwa 75 % im Besitz bäuerlicher Unternehmen befinden, wurden 1,268 Mio. Hektar Anbaufläche verwendet, was etwa 10,6 % der als Ackerland genutzten Flächen in Deutschland entsprach. Es wird angenommen, dass die Erzeugung von Bioerdgas bis 2020 auf jährlich 12 Milliarden m³ Biomethan ausgebaut werden kann. Das entspräche einer Verfünffachung der Kapazitäten des Jahres 2007. Das Erneuerbare-Energien-Gesetz (EEG) sichert eine gegenüber konventionellem Strom erhöhte und auf 20 Jahre garantierte Einspeisevergütung. Für die Nutzung der Wärme erhält der Anlagenbetreiber zusätzlich einen ebenfalls im EEG festgelegten Bonus für die Kraft-Wärme-Kopplung (KWK-Bonus). Die Wärmenutzung wird durch hohe Energiepreise und finanzielle Anreize und das seit Januar 2009 gültige Erneuerbare-Energien-Wärmegesetz gefördert. Seit 2007 bieten in Deutschland Gaslieferanten zunehmend eine bundesweite Belieferung von reinem Biogas oder Beimischungen zu fossilem Erdgas für Endkunden an. Bundesweit können sich Gaskunden für mindestens einen, aber teilweise bis zu zehn Gastarifen mit einer Biogasbeimischung entscheiden. Besondere Bedeutung für den Strommarkt kommt flexibilisierten Biogasanlagen zu, die perspektivisch ein verfügbares Ausgleichspotenzial von insgesamt rund 16.000 MW anbieten können. Innerhalb weniger Minuten könnte diese Kapazität bei Überangebot im Netz gedrosselt oder bei steigender Nachfrage hochgefahren werden. Zum Vergleich: Die Kapazität der deutschen Braunkohlekraftwerke wird von der Bundesnetzagentur auf rund 18.000 MW beziffert. Diese fossilen Großkraftwerke könnten wegen ihrer technisch bedingten Trägheit jedoch nur wenige Tausend Megawatt für den kurzfristigen Ausgleich von Solar- und Windstrom zur Verfügung stellen. Häufig wird von einer "Vermaisung" der Landschaft gesprochen. Tatsächlich stieg der Anteil der Maisanbauflächen von 9.3 % im Jahr 1993 auf 14,9 % (2013). Dies ist jedoch auch vor dem Hintergrund der Gemeinsamen Agrarpolitik der EU zu sehen. Im Rahmen der festgelegten Flächenstilllegung, mussten landwirtschaftliche Betriebe bis zu 15 % der Betriebsflächen stilllegen, um eine landwirtschaftliche Überproduktion zu limitieren. 2000 wurden die Stilllegungen auf 10 %, 2005 auf 5 % reduziert und 2009 abgeschafft. Bereits Anfang der Neunziger Jahre durften auf den Stilllegungsflächen allerdings nachwachsende Rohstoffe angebaut werden. Mit einer Zunahme von circa 5 % hat der Maisanbau für die Verwertung in Biogasanlagen kaum Auswirkungen auf den Kulturartenanbau in Deutschland. Hinsichtlich der Flächenverteilung bewegt sich der Anbau auf moderatem Niveau. Schweiz. In der Schweiz wird reines Biogas meist als Kompogas bezeichnet. An vielen Schweizer Gastankstellen wird unter der Bezeichnung „Naturgas“ ein Gemisch von Kompogas und Erdgas verkauft. 2010 gab es in der Schweiz 119 Erdgastankstellen, an denen Naturgas mit einem Biogas-Anteil von mindestens 10 % angeboten wird. Diese befinden sich überwiegend im Westen und Norden des Landes. Seit dem 1. Januar 2009 gilt in der Schweiz die kostendeckende Einspeisevergütung (KEV); damit verbunden ist ein erhöhter Einspeisetarif (Einspeisevergütung für aus Biogas erzeugten Strom) für erneuerbare Energien, welcher auch Biogas einschließt. Die Vergütung besteht aus einem festen Abnahmepreis und einem zusätzlichen sogenannten Landwirtschaftsbonus, der gewährt wird, wenn mindestens 80 % der Substrate aus Hofdünger bestehen. Das schweizerische Fördermodell soll so die nachhaltige Entwicklung im Energiesektor forcieren, da sie insbesondere die güllebasierten und damit nachhaltigsten Biogasanlagen fördert. Das schweizerische Förderinstrument für erneuerbare Energien (KEV) trägt bei der Biomasseverwertung dem Umstand Rechnung, dass keine Flächen für den Anbau von nachwachsenden Rohstoffen vorhanden sind. Bisher hat das Gesetz im Bereich der Nutzung von Gülle keinen substantiellen Zuwachs an landwirtschaftlichen Biogasanlagen bewirkt. Die geringe Attraktivität von Grüngut als Co-Substrat für landwirtschaftliche Anlagen und das somit energetisch ungenutzte Potenzial hat Biogasfirmen dazu bewogen neue Anlagenmodelle zu entwerfen. Kombiniert mit Festmist, Speiseresten oder Bioabfällen aus Gemeinden, bieten sich neue Möglichkeiten, ohne die Rohstoffe über große Entfernungen zu zentralen Anlagen zu transportieren. Die gleichzeitige Möglichkeit zur Gülleveredelung stellt ein neuartiges Konzept zur Gewinnung erneuerbarer Energie dar. Pionier für das Schweizer Kompogas war der an Energieeffizienz interessierte Bauunternehmer Walter Schmid. Auf dem heimischen Balkon stellte er nach dem Studium von Fachliteratur die ersten Versuche an und war Ende der 80er-Jahre überzeugt, das Gas aus organischen Abfällen nutzen zu können. Er nahm mit Unterstützung von Bund und Kanton im Jahre 1991 in Rümlang bei Zürich die erste Versuchsanlage in Betrieb, die 1992 als erste Kompogas-Anlage in den ordentlichen Betrieb ging. Das Unternehmen Kompogas erstellte weltweit weitere Anlagen und Schmid wurde 2003 mit dem Solarpreis ausgezeichnet. Im Jahr 2011 wurde die Kompogas-Gruppe vollständig von der "axpo neue energien" genannten Abteilung des Axpo-Konzerns als "Axpo Kompogas AG" übernommen. Im Januar 2011 nahm die erste Biogasanlage der Welt ihren Betrieb auf, welche mehrheitlich Schlachtabfälle vergärt. Frankreich. Frankreich stellt einen potenziell großen Biogasmarkt dar, der auch von deutschen Anlagenerzeugern bearbeitet wird. Das Land zeichnet sich durch eine produktive Landwirtschaft mit verschiedenen ergiebigen Substraten sowie durch ein stabiles Fördersystem für die Strom- und Wärmeerzeugung aus Biogas und für die Biomethaneinspeisung aus. Im Sommer 2013 gab es ca. 90 landwirtschaftliche Biogasanlagen. Der im April 2013 angekündigte Ausbauplan für landwirtschaftliche Anlagen („Plan EMAA“) mit einem Zielwert von 1.000 Anlagen bis 2020 signalisiert eine beschleunigte Marktentwicklung. Schweden. In Schweden ist die Stromerzeugung aus Biogas wegen niedrigerer Strompreise (ca. 10 Euro-Cent/kWh) gegenwärtig noch unrentabel. Der größte Teil des Biogases (53 %) wird zur Wärmegewinnung genutzt. Im Gegensatz zu anderen europäischen Staaten, wie beispielsweise Deutschland, ist in Schweden die Aufbereitung auf Erdgasqualität (Biomethan) und Nutzung als Treibstoff in Gasfahrzeugen mit 26 % eine weit verbreitete Variante. Blutgefäß. Als ein Blutgefäß (lateinisch-anatomisch das "Vas sanguineum") oder eine Ader bezeichnet man im menschlichen oder tierischen Körper eine röhrenförmige Struktur, ein Gefäß, in der das Blut transportiert wird. Alle Blutgefäße zusammengenommen mit dem Herz als Pumporgan bilden den Blutkreislauf. Intakte Blutgefäße sind eine Bedingung für den Transport des Blutes bis in die Peripherie des Körpers und den ungestörten Blutfluss zurück zum Herzen. Einteilung. Funktionell werden Vasa publica und Vasa privata unterschieden. Anatomischer Aufbau. a> 1 Adventitia – 2 Media – 3 Intima Kapillaren bestehen nur aus einem Endothel, in das Perizyten eingeschaltet sind. Intima. Die Intima ist die innerste Schicht der Gefäßwand der Arterien, Venen und Lymphgefäße. Sie besteht aus einer einzelnen Lage von in der Längsachse des Gefäßes ausgerichteten Endothel­zellen, welche dem Gas-, Flüssigkeits- und Stoffaustausch zwischen Blut und umliegendem Gewebe dienen. Sie besteht aus einer Basalmembran, einer subendothelialen Schicht von Bindegewebszellen und häufig einer "Membrana elastica interna", die die Intima von der Media trennt. Media. Die Media besteht, je nach Gefäßtyp, aus einer mehr oder weniger ausgeprägten Muskelschicht, die beiderseits von einer Faserlamelle aus elastischem Bindegewebe begrenzt wird. Man unterscheidet die herznahen Arterien vom elastischen Typ (siehe Windkesselfunktion) und die eher distalen Arterien vom muskulären Typ. Über ihr liegt die "Membrana elastica externa", die sie von der Adventitia trennt. Adventitia. Die Adventitia ist das umgebende lockere Bindegewebe zur Verankerung und Einbettung des Blutgefäßes in seiner Umgebung. Bei größeren Gefäßen enthält es "Vasa vasorum", also feine Blutgefäße zur Versorgung der Gefäßwand. Bei kleineren Blutgefäßen erfolgt die Versorgung aus dem Lumen des Gefäßes selbst. Breitband-Internetzugang. Ein Breitband-Internetzugang (auch "Breitbandzugang", "Breitbandanschluss") ist ein Zugang zum Internet mit verhältnismäßig hoher Datenübertragungsrate von einem Vielfachen der Geschwindigkeit älterer Zugangstechniken wie der Telefonmodem- oder ISDN-Einwahl, die im Unterschied als Schmalbandtechniken bezeichnet werden. Ursprünglich wurde mit "Breitband" eine Realisierungsform von Datennetzwerken bezeichnet, die heute aber veraltet ist, so dass der Begriff daher heute sinnentfremdet verwendet wird. In vielen Gebieten findet seit den frühen 2000er Jahren ein starkes Wachstum des Marktes für Breitbandzugänge statt. Definitionen. Bislang existiert kein allgemein akzeptierter Schwellwert, ab welcher Datenübertragungsrate die Breitband-Verbindung beginnt. Insbesondere steigt durch die Weiterentwicklung der Kommunikationstechnik dieser Wert beständig. Telefonnetz. Eine der verbreitetsten Technologien arbeitet mit einer verbesserten Nutzung der Kupferleitungen des Telefonnetzes, da durch die bestehende Infrastruktur geringere Neuinvestitionen nötig sind. Dabei sind in erster Linie die hauptsächlich verwendeten DSL-Techniken zu nennen. Es gibt oder gab jedoch auch andere Ansätze, wie die Entwicklung schnellerer Telefonmodems oder eines schnelleren ISDN-Standards, dem Breitband-ISDN (B-ISDN). DSL-Technologien sind nur zur Überbrückung kurzer Distanzen geeignet, was – je nach DSL-Technik – nach wenigen hundert Metern oder erst wenigen Kilometern den Übergang zu einer anderen Übertragungstechnik, einem DSL-Verstärker oder einem Repeater nötig macht. Daher handelt es sich in der Regel um eine Hybridtechnik in Kombination mit, wie in den meisten Fällen, Lichtwellenleitern oder beispielsweise auch Richtfunkstrecken. Mit wachsenden Übertragungsraten rückt der Übergabepunkt immer näher an den Endnutzer. Eine andere Möglichkeit für breitbandige Datenübertragungen über Telefonleitungen ist die Bündelung mehrerer analoger oder ISDN-Leitungen, was hauptsächlich in Ermangelung des DSL temporär genutzt wurde oder teils noch wird. ISDN-Primärmultiplexanschluss. Die Primärmultiplexanschlüsse gibt es in verschiedener Ausführung, als T-carrier, wie DS-1, T2, T3, als E-carrier oder Optical Carrier. Diese Technologien sind vergleichsweise kostspielige Möglichkeiten für breitbandige Internetanbindung über Kupfer- oder auch Glasfaserkabel, die für Geschäftskunden und ähnliche Nutzer mit größeren Netzen eingerichtet sind. Kabelfernsehnetz. Die Daten werden mit Kabelmodems auf die analogen Signale des Kabelfernsehnetzes aufmoduliert und so über diese Koaxialkabel übertragen. Auch hier handelt es sich aus ähnlichen Gründen wie bei DSL in der Regel um eine Hybridtechnik. Durch den DOCSIS 3.1 – Standard können Datenraten bis zu 10 GBit/s im Downstream und 1 GBit/s im Upstream realisiert werden. In Deutschland sind ca. 21 Mio. Haushalte (Stand Ende 2012) über das Kabelnetz an Breitbandzugang angeschlossen. Da das Netz auch in vielen kleineren Gemeinden verfügbar ist, bietet die Technologie gute Voraussetzungen für den Anschluss dünn besiedelter Gebiete. Nach Euro-Docsis 2.0 steht für den Upload (Rückkanal) der Frequenzbereich von 10 MHz (Euro-Docsis 3.0 ab 5 MHz) bis 65 MHz zur Verfügung, für den Download die Frequenzen ab 450 MHz, wobei sich dieses obere Frequenzband Fernsehkanäle und Internet teilen. Die Obergrenze ist vom Netzausbau abhängig und wurde nicht in Docsis spezifiziert. In modernisierten Kabelnetzen liegt sie bei 862 MHz, oft lassen sich aber nur die Bereiche bis 640 oder sogar nur 470 MHz nutzen. Mit zunehmender Kabellänge sinkt dämpfungsbedingt die Obergrenze des nutzbaren Frequenzspektrums, was sich nur durch eine stärkere Segmentierung der Netze in weitere Kopfstationen oder Hubs beheben lässt. Die Bandbreite des Upload ist v.a. durch das Eingangsrauschen aus den verteilten Antennendosen beschränkt und dadurch, dass in Senderichtung ein robusteres, dafür weniger effizientes Modulationsverfahren angewendet wird. Der Frequenzbereich von 5 MHz bis 20 MHz wird aus diesem Grund gemieden. In der Praxis beträgt die Gesamtbandbreite für den Internetzugang häufig etwa 1 GBit/s pro Kopfstation. Direkte Glasfaseranbindung. Den Endkunden direkt per Glasfaser anzubinden ermöglicht hohe Datenraten (größer 1000 MBit/s) über große Entfernungen. Die notwendige Verlegung neuer Anschlüsse zu jedem Kunden erfordert hohe Investitionskosten und wird hauptsächlich in dicht besiedelten Gebieten wie Großstädten betrieben. Ende 2010 waren in Deutschland Glasfaseranschlüsse zu etwa 600.000 Haushalten verlegt, vermarktet wurde etwa ein Viertel davon. Bis ins Jahr 2014 stieg die Zahl der Haushalte mit aktivem Internetanschluss per Glasfaser auf rund 385.000 an. Elektrizitätsnetz. Mittels Trägerfrequenzanlagen (TFA) können Internetzugänge über das Stromnetz realisiert werden, auch unter dem englischsprachigen Begriff "Powerline Communication" (PLC) bekannt. Meist werden damit Datenverbindungen zwischen heimischen Steckdosen und Trafostationen oder ähnlichen Einrichtungen realisiert, die zentral über Glasfaser oder Richtfunk angebunden werden. Terrestrische Funktechnologien. Terrestrische Funktechnologien sind eine Möglichkeit, breitbandigen Datenaustausch zu ermöglichen. Vielerorts – insbesondere wo die Versorgung mittels herkömmlicher Kabeltechnologien nicht vorhanden ist – bauen Wireless Internet Access Provider sogenannte Wireless Metropolitan Area Networks (WMAN) auf, um so einen schnellen Internetzugang anbieten zu können. Dabei kommen unterschiedliche Technologien zum Einsatz, darunter der speziell entwickelte WiMAX-Standard, WLAN-Technologien, sowie verschiedene funkbasierende Einzellösungen. Mehr oder weniger breitbandige Datendienste können auch Mobilfunkstandards wie LTE, HSDPA, UMTS oder EDGE bieten. Unter besonderen Bedingungen kann auch Packet Radio aus dem Amateurfunkbereich dazugezählt werden. Damit können Übertragungsraten bis zu mehreren Megabit pro Sekunde realisiert werden und entsprechende Übergabepunkte können damit Zugang zum Internet ermöglichen. Die Nutzung ist jedoch Funkamateuren vorbehalten. Internetzugang über Satellit. Reine Satellitenverbindungen (2-Wege-Satellitenverbindungen) sind unabhängig von landschaftlichen Gegebenheiten oder anderer Infrastruktur praktisch überall auf der Erdoberfläche verfügbar und eignen sich damit besonders für entlegene Gebiete und Schiffe. Problematisch sind bei Satellitenzugängen die immer noch deutlich höheren Kosten, die hohen Latenzzeiten und, sofern der Rückkanal nicht über den Satelliten realisiert ist, die Abhängigkeit von einer weiteren Zugangsmöglichkeit. Im Beispiel eines Systems mit geostationären Satelliten ergeben sich typische Verzögerungen von 500–700 ms, was Echtzeitanwendungen empfindlich stört. Die Technik ermöglicht Übertragungsraten von 1–2 MBit/s und mehr. Die Kapazitäten sind in Deutschland auf einige 10000 simultane Nutzer begrenzt, sollen allerdings ausgebaut werden (Stand 2009). Hochfliegende Luftfahrzeuge. Über hochfliegende stationäre Luftschiffe können Funksignale für Dienste wie Fernsehausstrahlung, Mobiltelefonie und auch Internetzugänge vermittelt werden. Ein Beispiel für eine Umsetzung dieser Technologie trägt den Markennamen "Stratellite". Ein weiterer Ansatz wären hochfliegende unbemannte (Leicht)Flugzeuge wie Helios. Verbreitung. Insbesondere in den Industriestaaten entwickelt sich der Breitbandzugang zur vorherrschenden Zugangsart zum Internet, der zugleich auch zunehmend von Internet-Anwendungen zur sinnvollen Nutzung vorausgesetzt wird. Ende 2006 kamen in den 30 OECD-Staaten 17 Breitbandanschlüsse auf 100 Einwohner, wobei als Technologie für In der EU verfügten im Frühjahr 2008 80 % der Haushalte mit Internetanschluss über einen Breitbandzugang. Die EU-Kommission hat die staatliche Unterstützung für den Breitbandnetzausbau ausgeweitet. So wurden 2010 mehr als 1,8 Milliarden Euro öffentliche Mittel hierfür genehmigt. 77 % der deutschen Haushalte verfügen über einen privaten Internetanschluss, 93 % davon sind Breitbandanschlüsse. Dabei dominiert die DSL-Technik. Von den 28 Millionen Breitbandanschlüssen im Jahr 2012 waren 82 % DSL-Anschlüsse. TV-Kabel spielen als Breitbandzugangsform zwar eine wachsende, aber aktuell nur geringe Rolle in Deutschland (ca. 16 % der Breitbandanschlüsse), anders als in den USA oder auch in Österreich; dort sind DSL und TV-Kabel etwa gleich häufig drahtgebundene Übertragungsform. Breitbandkluft. Besteht keine ausreichende Versorgung mit Breitbandzugängen, spricht man von einer Breitbandkluft. Sie gilt als Teil der digitalen Kluft oder "digitalen Spaltung". Der Breitbandatlas des Bundeswirtschaftsministeriums gibt einen Eindruck von der Versorgungslage in Deutschland. Einige Bundesländer reagieren auf diese Situation mit der Gründung von Breitbandkompetenzzentren, um den betroffenen Kommunen einen neutralen Ansprechpartner zur Verfügung zu stellen. Von der Interessengemeinschaft kein-DSL.de kommt ein Breitbandbedarfsatlas, der die konkrete Nachfrage abbildet. In diesen können Interessenten ihren Breitbandbedarf und ihren Bandbreitenwunsch eintragen. Verschiedene staatliche, bürgerschaftliche und partnerschaftliche (PPP) Initiativen engagieren sich gegen die Unterversorgung auf Länderebene, deutschlandweit und europaweit. Allerdings halten nicht alle dieselben Instrumente für tauglich zur schnellen Überwindung der Breitbandkluft. Eine Zugangsoption im ländlichen Raum können Breitbandzugänge mittels Satellit sein, welche mittlerweile ernstzunehmende Angebote darstellen. Um die flächendeckende Versorgung mit Breitband-Internetzugängen sicherzustellen, gilt in der Schweiz ab 2008 ein Breitbandzugang mit 600 kBit/s in Empfangs- und 100 kBit/s in Senderichtung als Bestandteil des Grundversorgungskataloges. Ein ähnliches Versorgungsziel verfolgt Australien mit der Australian Broadband Guarantee seit 2007. In Frankreich wurde 2013 die Initiative "France Très Haut Débit" gestartet, bei der bis 2022 flächendeckend alle Anschlüsse auf sehr hohe Datenraten (>30 Mbit/s) umgestellt werden sollen (80 % davon mit Glasfaseranschlüssen). Ende 2013 lag die durchschnittliche Übertragungsrate bei 8,7 Mbit/s. In Japan und Finnland soll bis 2011 jeder Bürger mit Breitband- und 90 Prozent mit Hochleistungsinternet versorgt sein. Die USA planen Initiativen zur Verbesserung der Verfügbarkeit. Brennnesseln. Die Brennnesseln ("Urtica") bilden eine Pflanzengattung in der Familie der Brennnesselgewächse (Urticaceae). Sie kommen fast weltweit vor. In Deutschland nahezu überall anzutreffen sind die Große Brennnessel und die Kleine Brennnessel, nur selten auch die Röhricht-Brennnessel sowie die Pillen-Brennnessel. Vegetative Merkmale. Brennnessel-Arten wachsen als einjährige oder ausdauernde krautige Pflanzen, selten auch Halbsträucher. Sie erreichen je nach Art, Standort und Nährstoffsituation Wuchshöhen von 10 bis 300 Zentimetern bei den in Mitteleuropa vertretenen Arten. Die ausdauernden Arten bilden Rhizome als Ausbreitungs- und Überdauerungsorgane. Die grünen Pflanzenteile sind mit Brenn- sowie Borstenhaaren besetzt. Ihre oft vierkantigen Stängel sind verzweigt oder unverzweigt, aufrecht, aufsteigend oder ausgebreitet. Die meist kreuz-gegenständig am Stängel angeordneten Laubblätter sind gestielt. Die Blattspreiten sind elliptisch, lanzettlich, eiförmig oder kreisförmig. Die Blattspreiten besitzen meist drei bis fünf, (bis sieben) Blattnerven. Der Blattrand ist meist gezähnt bis mehr oder weniger grob gezähnt. Die oft haltbaren Nebenblätter sind frei oder untereinander verwachsen. Die Zystolithen sind gerundet bis mehr oder weniger verlängert. Brennhaare. Brennhaare am Blattstängel einer Brennnessel, die Köpfchen sind erahnbar Brennhaare (groß) und normale Haare (klein) auf einem Blatt Quaddeln nach Hautkontakt mit Brennnesseln Bekannt und unbeliebt sind die Brennnesseln wegen der schmerzhaften Quaddeln (Schwellungen), die auf der Haut nach Berührung der Brennhaare entstehen. Je nach Brennnesselart unterscheiden sich die Folgen, so ist beispielsweise die Brennflüssigkeit der Kleinen Brennnessel ("Urtica urens") wesentlich schmerzhafter als die der Großen Brennnessel ("Urtica dioica"). Diese Brennhaare wirken als Schutzmechanismus gegen Fraßfeinde und sind überwiegend auf der Blattoberseite vorhanden. Es sind lange einzellige Röhren, deren Wände im oberen Teil durch eingelagerte Kieselsäure hart und spröde wie Glas sind. Das untere, flexiblere Ende ist stark angeschwollen, mit Brennflüssigkeit gefüllt und in einen Zellbecher eingesenkt, die Spitze besteht aus einem seitwärts gerichteten Köpfchen, unter dem durch die hier sehr dünne Wand eine Art Sollbruchstelle vorhanden ist. Das Köpfchen kann schon bei einer leichten Berührung abbrechen und hinterlässt eine schräge, scharfe Bruchstelle, ähnlich der einer medizinischen Spritzenkanüle. Bei Kontakt sticht das Härchen in die Haut des Opfers und sein ameisensäurehaltiger Inhalt spritzt mit Druck in die Wunde und verursacht brennenden Schmerz sowie oft auch Entzündungen und die erwähnten Quaddeln. Weitere Wirkstoffe der Brennflüssigkeit sind Serotonin, Histamin, Acetylcholin und Natriumformiat. Bereits 100 Nanogramm dieser Brennflüssigkeit reichen aus, um die bekannte Wirkung zu erzielen. Histamin erweitert die Blutkapillaren und kann Reaktionen hervorrufen, die allergischen Reaktionen ähneln (diese werden unter anderem durch Freisetzung körpereigenen Histamins verursacht). Acetylcholin ist auch die Überträgersubstanz vieler Nervenendungen und für den brennenden Schmerz verantwortlich. Brennnesseln lassen sich relativ gefahrlos anfassen, wenn man sie von unten nach oben überstreicht, da fast alle Stacheln nach oben gerichtet sind. Auch ohne Eindringen der Brennhaare kann allein Hautkontakt zur Brennflüssigkeit Folgen haben: Frischer Brennnessel-Schnitt verursacht bei Hautkontakt (z. B. beim Rasenmähen) zuerst keine Schmerzen, weil gebrochene Brennhaare nicht in die Haut stechen können und nur noch wenig Gift enthalten. Die spröden Brennhaare brachen bereits bei Mähmesser-Rotation, und die Brennflüssigkeit floss frei aus. Bei Benetzung empfindlicher Hautschichten mit Brennflüssigkeit (Knöchel- und Spannbereich) erfolgt späte Schmerzreaktion, da die Brennflüssigkeit nach Kontakt auf nervenloser Oberhaut (Epidermis) durch Poren in die darunterliegende Lederhaut (Dermis) eindringt. Dort erreicht sie erst nach Stunden freie Nervenendigungen (Nozizeptoren). Dagegen schmerzen Hauteinstiche spröder ungebrochener Brennhaare schon in Sekundenbruchteilen. Die relativ lange Gift-Kontaktzeit ist zur späteren Verätzungsintensität direkt proportional. Nur langsam unter stechenden Schmerzen mit Schwellungen wird das in die Lederhaut eingedrungene Gift abgebaut und die großflächig verätzte Oberhaut durch eine neue ersetzt. Die Brennnessel hat damit einer Reaktion der Haut ihren Namen gegeben, der Nesselsucht oder Urtikaria. Genau wie bei einer Reizung durch Brennnesseln verursacht sie juckende Quaddeln und es wird Histamin aus Mastzellen der Haut freigesetzt. Die Ursachen können aber sehr unterschiedlich sein. Männlicher Blütenstand einer Großen Brennnessel Generative Merkmale. Sie sind je nach Art einhäusig (monözisch) oder zweihäusig (diözisch) getrenntgeschlechtig. In den Blattachseln stehen in verzweigten, rispigen, ährigen, traubigen oder kopfigen Gesamtblütenständen viele zymöse Teilblütenstände mit jeweils vielen Blüten zusammen. Die relativ kleinen, unauffälligen, immer eingeschlechtigen Blüten sind (zwei- bis) vier- bis fünf- (bis sechs-)zählig. Die eingeschlechtigen Blüten sind etwas reduziert. Es sind (zwei bis) vier (bis fünf) Blütenhüllblätter vorhanden. Die männlichen Blüten enthalten meist (zwei bis) vier (bis fünf) Staubblätter. Die weiblichen Blüten enthalten einen Fruchtknoten, der zentral in der Blüte liegt und aus nur einem Fruchtblatt gebildet wird. Brennnessel-Arten sind windbestäubt. Wenn sich bei den männlichen Blüten die Blütenhüllblätter öffnen, schnellen ihre Staubblätter hervor; dabei wird explosionsartig eine Wolke von Pollen in die Luft geschleudert. Der Wind überträgt anschließend den Pollen auf die weiblichen Blüten. Die sitzenden, in den haltbaren inneren Blütenhüllblättern locker eingehüllten Nüsschen sind gerade, seitlich abgeflacht, eiförmig oder deltoid. Die aufrechten Samen enthalten wenig Endosperm und zwei fleischige, fast kreisförmige Keimblätter (Kotyledonen). Die Chromosomengrundzahl beträgt x = 12 oder 13. Einige ähnliche Arten. Die Arten der – mit den Brennnesseln nicht verwandten – Gattung der Taubnesseln ("Lamium"), sehen den Brennnesseln in Wuchs und Blattform sehr ähnlich, besitzen aber keine Brennhaare und auch sehr viel größere und auffälligere Blüten. Die ebenfalls ähnlichen Blätter der Nesselblättrigen Glockenblume ("Campanula trachelium") sind wechselständig. Schmetterlingsweide. Für die Raupen von rund 50 Schmetterlingsarten sind bestimmte Brennnessel-Arten eine Futterpflanze. Die Schmetterlingsarten Admiral, Tagpfauenauge, Kleiner Fuchs (auch als Nesselfalter bekannt), Silbergraue Nessel-Höckereule, Dunkelgraue Nessel-Höckereule, Brennnessel-Zünslereule ("Hypena obesalis") und das Landkärtchen sind dafür sogar auf die Brennnessel angewiesen, andere Pflanzen kommen für diese Arten nicht in Betracht (Monophagie). Trotzdem scheinen sich diese Schmetterlingsarten kaum gegenseitig Konkurrenz zu machen, denn sie bevorzugen jeweils andere Wuchsorte der Brennnessel oder sind relativ selten. Beide Arten benötigen überdies größere Brennnesselbestände. Auf fast jeder Brennnessel sind Fraßspuren einzelner Insekten zu sehen. Dabei müssen diese eine Strategie entwickelt haben, mit der sie die Brennhaare umgehen. Sie fressen sich um die Haare herum und bevorzugen dabei die Wege entlang der Blattnerven und den Blatträndern, da sich dort keine Brennhaare befinden. Vorteilhaft für die Insekten: Das Gift dringt nicht aus der Spitze, wenn das Haar unten an der Wurzel angefressen wird. Vorkommen. Die Gattung "Urtica" ist fast weltweit verbreitet. Nur in der Antarktis kommt keine Art vor. Von den etwa 30 "Urtica"-Arten kommen 14 in China vor. Hauptsächlich gedeihen sie in den gemäßigten Gebieten, sowohl auf der Nord- als auch auf der Südhalbkugel. Aber es gibt auch Arten in den Gebirgen der Tropen. Im deutschsprachigen Raum kommen vier Brennnessel-Arten vor: Die bekanntesten sind die zweihäusige Große Brennnessel ("Urtica dioica") und die einhäusige Kleine Brennnessel ("Urtica urens"); außerdem existieren hier noch die Röhricht-Brennnessel ("Urtica kioviensis") und die aus dem Mittelmeerraum eingeschleppte Pillen-Brennnessel ("Urtica pilulifera"), deren gelegentliche mitteleuropäische Vorkommen auf die Kulturflucht aus Kräutergärten zurückzuführen ist, in denen sie wegen ihrer schleimigen Samen kultiviert wurde. Einige Arten sind sehr anspruchslos und besiedeln deshalb ein breites Spektrum an Habitaten. Zeigerfunktion. Ein starker Brennnesselwuchs gilt allgemein als Zeiger für einen stickstoffreichen Boden und bildet sich oft als Ruderalpflanze auf früher besiedelten Stellen aus. Eine große Anzahl Brennnesseln in einem Gebiet erlaubt es somit, auch ohne chemische Untersuchungen, Rückschlüsse auf die Bodenbeschaffenheit zu ziehen. Systematik. Die Gattung "Urtica" wurde 1753 durch Carl von Linné in "Species Plantarum" aufgestellt. Zum Protolog gehört auch die Diagnose in "Genera Plantarum". Der Gattungsname "Urtica" leitet sich vom lateinischen Wort "urere" für brennen ab. Verwendung. Die meisten der folgenden Aspekte beziehen sich auf die Große Brennnessel ("Urtica dioica"), die unter anderem als Heil- und Nutzpflanze dient. Lebensmittel. Brennnesselspinat mit Salzkartoffeln und Ei Von einigen Arten werden die grünen Pflanzenteile, die unterirdischen Pflanzenteile und die Samen verwendet. Als Frühjahrsgemüse werden die jungen Brennnesseltriebe wegen ihres hohen Gehalts an Flavonoiden, Mineralstoffen wie Magnesium, Kalzium und Silizium, Vitamin A und C (ca. 2x mehr Vitamin C als eine Orange), Eisen, aber auch wegen ihres hohen Eiweißgehalts geschätzt. Die Brennnessel enthält in der Trockenmasse etwa 30 % Eiweißanteil. Der Geschmack wird als „dem Spinat ähnlich, aber aromatischer“ und als feinsäuerlich beschrieben. Besondere Verbreitung fanden Brennnesselgerichte in Notzeiten, in denen Blattgemüse wie Spinat oder Gartensalat zugunsten nahrhafterer Pflanzenarten kaum angebaut wurden, und bei der armen Bevölkerung, da Brennnesseln auf Brachflächen und in lichten Wäldern reichlich gesammelt werden können. Eine weitere bekannte Zubereitungsart ist die Nesselsuppe. Den besten Geschmack haben die ersten, etwa 20 Zentimeter langen oberirdischen Pflanzenteile im Frühjahr oder bei größeren Pflanzen der oberste jüngste vegetative Bereich, die oberen zwei bis vier Blattpaare. Aber auch die Samen der Brennnessel eignen sich geröstet zum Verzehr. Der unangenehmen Wirkung der Nesselhaare kann man bei der rohen Verwendung für beispielsweise Salate entgegenwirken, indem man die jungen oberirdischen Pflanzenteile in ein Tuch wickelt und stark wringt, sie sehr fein schneidet (beispielsweise mit dem Wiegemesser), mit einem Nudelholz gut durchwalkt oder ihnen eine kräftige Dusche verabreicht. Kochen sowie kurz blanchieren für Brennnesselspinat sowie -suppe macht die Nesselhaare ebenfalls unschädlich. Auch durch das Trocknen der oberirdischen Pflanzenteile für die Teezubereitung verlieren sie ihre reizende Wirkung. Früher wurden gelegentlich Butter, Fisch und Fleisch in Brennnesselblätter gewickelt, um sie länger frisch zu halten. Tatsächlich verhindern die Wirkstoffe der Brennnessel die Vermehrung bestimmter Bakterien. Diese Praxis ist sogar gerichtsnotorisch: 1902 wurde eine Berliner Milchhändlerin auf Grund der Brennnesselblätter in ihrer Milch wegen Lebensmittelverfälschung angeklagt. Mit der Begründung, dass dies ein „allgemein geübtes Verfahren“ sei, wurde die Händlerin jedoch freigesprochen. In Mitteleuropa, unter anderem den Niederlanden, Luxemburg, Österreich und Deutschland, werden Brennnesseln auch als Zutat für Brennnesselkäse verwendet. Noch heute gibt man ganze oder gehackte Brennnesseln als Vitaminträger in das Futter von Küken, Ferkeln und Kälbern, damit sie schneller wachsen; auch als ganze Pflanzen gibt man sie Hausschweinen in der biologischen Landwirtschaft gern als Beifutter. Fasergewinnung. "Hauptartikel": Fasernessel und Nesseltuch Stoffe aus Brennnesseln gab es bereits vor Jahrtausenden. Im letzten Drittel des 19. Jahrhunderts lebte das Interesse an der heimischen Faserpflanze aufgrund einer Baumwollknappheit wieder auf. Um 1900 galt Nessel als das „Leinen der armen Leute“. Im Zweiten Weltkrieg wurde Nesseltuch verstärkt in Deutschland für Armee-Bekleidung verwendet. Derzeit werden in Meßstetten Brennnesseln als Faserpflanzen angebaut und zu Textilien verarbeitet. Färberpflanze. Lange Zeit gehörte die Brennnessel zu den Färbekräutern. Wolle kann man mit ihrer Wurzel, nach Vorbeizen mit Alaun, wachsgelb färben. Mit einer Zinnvorbeize, Kupfernachbeize und einem Ammoniak-Entwicklungsbad erzielen die oberirdischen Teile ein kräftiges Graugrün. Man benötigt etwa 600 Gramm Brennnessel pro 100 Gramm Wolle; besonders bei der Brennnessel kann der Farbton vom Zeitpunkt des Pflückens und Färbens abhängen, deshalb ist die Technik bei Massenproduktion von Kollektionen in Vergessenheit geraten. Gärtnerische Verwendung. Die Brennnesseln finden insbesondere im biologischen Gartenbau vielfältige Verwendung. Ein scharfer Kaltwasserauszug (nur 24 Stunden angesetzt) als Pflanzenstärkungsmittel festigt durch die enthaltene Kieselsäure die Zellwände der damit gegossenen Pflanzen und stärkt sie so gegen den Befall beißender wie saugender Insekten. Eine selbst hergestellte Jauche löst zusätzlich den Stickstoff der Brennnessel sowie Spurenelemente heraus und hat dadurch auch Düngewirkung. Die anfallenden Reste können im Kompost verwertet werden. Eine kommerzielle Kultivierung der Brennnessel zur Herstellung von Brennnesseltee erfolgt auf speziellen Brennnesselfeldern. Das größte Vorkommen an Brennnesselfeldern befindet sich in der Ukraine. Die Aussaat erfolgt im April. Saatmenge: etwa 4 bis 6 kg/ha. Die Erträge liegen bei 35 bis 50 dt/ha. Kulturelle Bedeutung. Die lange Geschichte der Brennnessel als Heilpflanze und Nahrungsmittel führt dazu, dass es eine Vielzahl ethnobotanischer Traditionen und Ansichten über diese Pflanzenarten gibt, die teils dem Bereich der Mythen und des Aber- und Wunderglaubens entstammen. Bit. Wortherkunft. Der Begriff "Bit" ist eine Wortkreuzung aus," englisch für "Binärziffer." Er wurde von dem Mathematiker John W. Tukey vermutlich 1946, nach anderen Quellen schon 1943, vorgeschlagen. Schriftlich wurde der Begriff zum ersten Mal 1948 auf Seite eins von Claude Shannons berühmter Arbeit "A Mathematical Theory of Communication" erwähnt. Die Bits als Wahrheitswerte verwendete George Boole als Erster. Schreibweise. Die Maßeinheit heißt „Bit“ und hat „bit“ als Einheitenzeichen; das alternative „b“ ist ungebräuchlich. So wie man „100-Meter-Lauf“ und „100-m-Lauf“ schreiben kann, wird auch „32-Bit-Register“ und „32-bit-Register“ geschrieben. Insbesondere für die Angabe von Datenraten sind Einheitenvorsätze gebräuchlich, z. B. Mbit/s für Mega Bit pro Sekunde. Die Einheit wird nur im Singular verwendet, während der Plural für bestimmte „Bits“ einer Gruppe verwendet wird. Darstellung von Bits. Die kleinstmögliche Unterscheidung, die ein digitaltechnisches System treffen kann, ist die zwischen zwei Möglichkeiten, in der Informatik auch als "Zustände" bezeichnet. Ein Paar definierter Zustände, zum Beispiel In der digitalen Schaltungstechnik werden Spannungspegel zur Darstellung verwendet, die innerhalb einer Bauart (Logikfamilie) in definierten Bereichen liegen, siehe Logikpegel. Liegt die Spannung im hohen Bereich, so liegt der Zustand "H" vor, im unteren Bereich "L" (von engl.). Symbolisch, unabhängig von der physischen Repräsentation, werden die zwei Zustände eines Bits notiert als Die Zuordnung "H"→"1", "L"→"0" heißt "positive Logik", die umgekehrte Zuordnung "negative Logik". Während bei der Verarbeitung von Daten die physische Repräsentation mit zwei Zuständen vorherrscht, verwenden manchen Speichertechnologien mehrere Zustände pro Zelle. So kann eine Speicherzelle 3 bit speichern, wenn 8 verschiedene Ladungszustände sicher unterschieden werden können, siehe Tabelle. Ähnlich werden bei vielen Funkstandards mehrere bit pro Symbol übertragen, siehe z.B. Quadraturamplitudenmodulation. Umgekehrt können mit n Bits, unabhängig von ihrer physischen Repräsentation, 2n verschiedene logische Zustände kodiert werden, siehe Exponentialfunktion. Mit beispielsweise zwei Bits können 2² = 4 verschiedene Zustände repräsentiert werden, z.B. die Zahlen Null bis Drei als "00", "01", "10" und "11", siehe Binärzahl. Bitfehler. Wenn sich einzelne Bits aufgrund einer Störung bei der Übertragung oder in einem Speicher ändern, spricht man von einem Bitfehler. Ein Maß dafür, wie häufig bzw. wahrscheinlich Bitfehler auftreten ist die Bitfehlerhäufigkeit. Machen Bitfehler aus gültigen Nachrichten systematisch ungültige Nachrichten, so lassen sich Fehler erkennen oder sogar korrigieren, siehe Kanalkodierung. Qubits in der Quanteninformationstheorie. Das Quantenbit (kurz Qubit genannt) bildet in der Quanteninformationstheorie die Grundlage für Quantencomputer und die Quantenkryptografie. Das Qubit spielt dabei analog die Rolle zum klassischen Bit bei herkömmlichen Computern: Es dient als kleinstmögliche Speichereinheit und definiert gleichzeitig als Zweizustands-Quantensystem ein Maß für die Quanteninformation. Hierbei bezieht sich „Zweizustand“ nicht auf die Zahl der Zustände, sondern auf genau zwei verschiedene Zustände, die bei einer Messung sicher unterschieden werden können. Trivia. Im Januar 2012 gelang es, 1 Bit (2 Zustände) in einer genauen Menge von 12 Eisenatomen zu speichern, die bisher geringste noch notwendige physische Speichermenge. Dabei konnte eine stabile Anordnung der Atome für mindestens 17 Stunden nahe dem absoluten Nullpunkt der Temperatur nachgewiesen werden. Bremsen. Bremsen (Tabanidae) sind eine Familie aus der Unterordnung der Fliegen (Brachycera) in der Ordnung der Zweiflügler (Diptera) und gehören zu den blutsaugenden (hämatophagen) Insekten (Insecta). Sie beißen Menschen und andere wechsel- und gleichwarme Tiere (Warmblüter). Besonders aktiv sind sie in Mitteleuropa zwischen April und August an schwülen Tagen. Im norddeutschen Raum wird die Bremse oft auch "Dase" (vgl. hierzu Dasselfliegen) oder "Blinde Fliege" genannt, in Westdeutschland "Blinder Kuckuck", in Süddeutschland und Teilen Österreichs und der Schweiz "Bräme" oder "Brämer", historisch findet sich "Brämse". Ernährung. Bei den meisten der etwa 4000 Arten saugt das Weibchen Blut, während das Männchen Blüten besucht und Nektar saugt. Bei einigen Arten ernähren sich die Weibchen ebenfalls pflanzlich, während einige tropische Arten von Aas leben. Die Mundwerkzeuge der Bremsen sind zu einem stilettartigen Saugrüssel umgebildet, der aus Labrum, Hypopharynx und den paarigen Mandibeln und Maxillen besteht. Die Stechborsten werden von hinten vom Labium umschlossen. Im Gegensatz zu dem der Stechmücken ist der Stich von Bremsen sofort deutlich schmerzhaft spürbar. Sie sind so genannte "pool feeder", die mit groben Mundwerkzeugen eine offene Wunde in die Haut reißen. Von der austretenden „Pfütze“ aus Blut, Lymphe und Zellflüssigkeit ernähren sie sich. Es tritt vermehrt Juckreiz an der Stichstelle auf. Wie bei Mückenstichen bildet sich dort für einige Stunden eine Quaddel. Bremsen werden speziell vom Schweiß angelockt und können auch durch Kleidung stechen. Wie viele blutsaugende Insekten spritzen sie vor dem Blutsaugen ein gerinnungshemmendes Sekret, das bei der relativ großen Stichwunde ein Weiterbluten nach dem Saugen verursacht. Bremsen können bis zu 0,2 ml Blut saugen. Bremsen als Krankheitsüberträger. Bremsen sind durch ihren Biss für die mechanische Übertragung von Milzbrand, Weilscher Krankheit, Tularämie und Lyme-Borreliose auf den Menschen verantwortlich, siehe auch Infektionswege und blutsaugende Insekten. Die humanpathogene Filarie Loa Loa benutzt in Westafrika Vertreter der Bremsenunterfamilie Chrysopinae als Zwischenwirt. Die Surra der Pferde und Kamele wird auch außerhalb des Tsetsegürtels, ebenso wie die Kreuzlähme der Pferde in Südamerika, von Tabaniden auf mechanischem Wege übertragen. Weiterhin stehen Bremsen unter dem Verdacht, in Afrika Nagana auf Tiere und die Schlafkrankheit auf den Menschen ebenfalls auf mechanischem Wege zu übertragen. Da Pferdebremsen ("Tabanus sudeticus") das zu den Lentiviren gehörende EIA-Virus auf mechanischem Wege übertragen können, besteht auch eine theoretische Möglichkeit, dass durch Pferdebremsen das zur selben Gattung gehörende HI-Virus übertragen werden kann, da der Saugrüssel dieser Bremsenart groß genug ist, das HI-Virus in für eine Infektion ausreichender Menge jeweils wie in einer Injektionskanüle innen und außen vorübergehend zu speichern. Allerdings sind beim HI-Virus bisher keine derartigen Übertragungsfälle bekannt geworden. Fossile Belege. Fossile Belege dieser Familie sind rar. Der älteste gesicherte Nachweis ist eozänen Alters, sowohl aus baltischem Bernstein als auch aus einer geologischen Schicht dieses Alters auf der Isle of Wight. Aus dem zumeist etwas jüngeren dominikanischen Bernstein ist die Gattung "Stenotabanus" beschrieben. In mesozoischen Ablagerungen gefundene Brachycera, die einst als Angehörige dieser Familie angesehen wurden, sind heute anderen Taxa zugeordnet. Bremse. Bremsen dienen zur Verringerung bzw. Begrenzung der Geschwindigkeit von bewegten Maschinenteilen oder Fahrzeugen. Sie funktionieren meistens durch die Umwandlung der zugeführten Bewegungsenergie über Reibung in Wärmeenergie. Im Gegensatz zur Nutzbremse geht dabei die Kinetische Energie für die Fortbewegung verloren. Bremsen sind als Maschinenelement eng mit Kupplungen verwandt, die Bremse ist eine spezielle Kupplung, bei der eine Seite feststeht. Insofern lassen sich viele Bremsentypen aus Kupplungen ableiten. Fahrzeuge im Sinne der StVZO müssen in Deutschland ein Zweikreisbremssystem, also zwei voneinander unabhängig funktionierende Bremsen besitzen. Die in Fahrzeugen weitaus am häufigsten verwendeten Bremsenarten sind die Scheibenbremse und die Trommelbremse, eine weiterentwickelte Form der Klotzbremse. Meist wird eine Bremse zur Verringerung der Umdrehungsgeschwindigkeit von rotierenden Teilen verwendet. Aber viele der angeführten Prinzipien kann man auch zur Verminderung einer linearen Bewegung verwenden, wenn sich auch die Bauweisen etwas unterscheiden. Zum Teil wird auch die Art der Betätigung der Bremse zur Kategorisierung verwendet. Jedoch sagt beispielsweise die Bezeichnung Druckluftbremse, Hydraulikbremse oder Seilzugbremse nichts über die Bauform aus, sondern gibt nur Art der Kraftübertragung auf die mechanischen Stellelemente an. Bremsleistung. Die Bremsleistung ist von der Bremskraft und der Augenblicksgeschwindigkeit abhängig und wird vollständig in Wärme umgewandelt. Infolge der spezifischen Wärmekapazität der Bremse heizt diese kontinuierlich auf. Kühlend wirkt die Wärmestrahlung nach dem Stefan-Boltzmann-Gesetz, die Wärmekonvektion durch Fahrtwind oder Gebläse mit veränderlichem Wärmeübergangskoeffizienten und der Wärmeleitung durch die Verbindungselemente (Konduktion). Eine Beispielrechnung zu Erwärmung einer Scheibenbremse enthält der Hauptartikel Bremsscheibe. Mechanische Bremsen. Alle mechanischen Bremsen sind Schleifbremsen und beruhen darauf, eine Bewegung durch Reibung zwischen einem festen und dem bewegten Körper abzubauen. Kratzbremse. Seit den frühesten Tagen ist das Prinzip der Kratzbremse bekannt. Ein Hebel ist so an einem Fahrzeug befestigt oder eingeklemmt, dass das (möglichst) kürzere Stück zum Boden und das längere Stück zum Bediener zeigt. Durch Anziehen des Bremshebels wird das kurze untere Ende über Hebelwirkung in den Untergrund gedrückt und bremst so das Fahrzeug ab. Diese Technik war lange Zeit verbreitet und kommt auch heute noch zur Anwendung, z.B. bei Schlitten, Sportgeräten oder Kinderfahrzeugen. Hemmschuh. Der Hemmschuh stellt eine primitive Form der Klotzbremse dar. Klotzbremse mit neuem Bremsklotz an einer historischen Postkutsche Klotzbremse. Die überwiegende Anzahl aller im 20. Jahrhundert verwendeten Bremsen bei Landfahrzeugen lässt sich dem Prinzip der Klotzbremse zuordnen. Spindelbremsen an historischen Kutschen haben beispielsweise Bremsklötze aus Lindenholz. Backenbremse. Die Backenbremse ist eine mechanische Bremse, bei der ein drehender Zylinder von außen durch angedrückte Bremsbeläge gebremst wird. Trommelbremse. Die Trommelbremse verfügt über ein zylinderförmiges umlaufendes Gehäuse (Trommel), an das beim Bremsen innen oder außen liegende, feststehende Bremsbacken gepresst werden. Die Betätigung der Bremsbacken erfolgt meist über einen Hydraulikzylinder innerhalb der Trommel oder über sich drehende Exzenterbolzen von außen. Je nach Konstruktion werden weitere Bauformen unterschieden. Scheibenbremse. Die Scheibenbremse weist eine auf der Welle mitlaufende Bremsscheibe auf, an die die Bremsbeläge beidseitig gepresst werden. Solche Bremsen findet man heute bei allen gängigen Fahrzeugen wie Pkw, LKW, Motorrädern, Fahrrädern und auch an Zügen. Ölbadbremse. Eine Unterkategorie der Scheibenbremse ist die Ölbadbremse (Oft auch als "Nasse Bremse" bezeichnet). Hier rotiert eine (oder mehrere durch Zwischenscheiben getrennte) Bremsscheibe(n) in einem Ölbad welche durch Reibung mit der Druckplatte, Reibring(aussen) sowie die Zwischenscheiben abgebremst werden. Das Anpressen erfolgt durch eine Druckplatte, welche aus zwei Scheiben besteht. Zwischen den Platten sind Kugeln in länglichen, seichter werdenden Vertiefungen angebracht. Durch das Verdrehen der beiden Scheiben zueinander, welche sich dadurch auf einander zu oder weg bewegen, wird die Anpresskraft auf die Bremsbelag- und Zwischenscheiben angepasst. Das Öl dient zum Abtransport der Wärmeenergie. Vorteil dieses Systems ist, dass es temperaturstabil (kein Fading) und sehr verschleiß- und somit wartungsarm ist. Darüber hinaus bildet sich kein Bremsstaub. Nachteilig sind die, im Falle einer Reparatur, meist hohen Kosten. Diese Art von Bremsen findet man teilweise in Traktoren und Quads. Die Ölbadbremse ist Artverwandt mit der Ölbadkupplung, welche häufig in Motorrädern eingesetzt wird. Keilbremse. Bei der elektronisch geregelten Keilbremse (Bauform der Scheibenbremse) schiebt ein kleiner Elektromotor einen Bremsbelag mit keilförmigem Rückenprofil zwischen Bremsbacken und Bremsscheibe. Bei der konventionellen Keilbremse (eingesetzt bei Pferdekutschen) rammt der Kutscher einen Keil zwischen Rad und Radkasten. Magnetschienenbremse. Bei Magnetschienenbremsen wird ein Bremsklotz durch Magnetkraft auf die Schiene gepresst, auf der das Fahrzeug fährt. Bandbremse. Die Bandbremse ist ebenfalls eine mechanische Bremse, bei der aber im Gegensatz zur Backenbremse ein Band um eine Trommel geschlungen wird. Fliehkraftbremse. Fliehkraftbremsen dienen in der Regel nicht direkt einer starken Verringerung der Umdrehungszahl, sondern der Begrenzung derselben. Sie funktionieren nach demselben Prinzip wie Fliehkraftkupplungen. Eine übliche Anwendung ist die Begrenzung der Rückdrehgeschwindigkeit bei Wählscheibentelefonen, der sogenannte Nummernschalter. Gleisbremse. Gleisbremsen sind im Gleiskörper, beispielsweise auf Rangierbahnhöfen, eingebaut. Gegentrieb-Bremse. Bei bestimmten Bahnfahrzeugen (zum Beispiel Dampflokomotiven mit Riggenbach-Gegendruckbremse), Flugzeugen und Schiffen wird zum Bremsen der Antrieb in die Gegenrichtung geschaltet oder umgelenkt. Bei Luftfahrzeugen wird dies als Schubumkehr bezeichnet. Auch bei Booten und Schiffen wird das Prinzip der Schubumkehr zum Abbremsen benutzt. Blaise Pascal. Blaise Pascal (* 19. Juni 1623 in Clermont-Ferrand; † 19. August 1662 in Paris) war ein französischer Mathematiker, Physiker, Literat und christlicher Philosoph. Kindheit und Jugend. Pascal stammte aus einer alten, in zweiter Generation amtsadeligen Familie der Auvergne. Sein Vater Étienne Pascal hatte in Paris Jura studiert und etwas später das Amt des zweiten Vorsitzenden Richters am Obersten Steuergerichtshof der Auvergne in Clermont-Ferrand gekauft. Die Mutter, Antoinette Begon, kam aus einer wohlhabenden Kaufmannsfamilie, die ebenfalls in den Amtsadel strebte. Pascal hatte zwei Schwestern, die drei Jahre ältere Gilberte (die später seine Nachlassverwalterin und erste Biographin wurde) sowie die zwei Jahre jüngere Jacqueline, von deren Geburt sich die Mutter nicht erholte, so dass Pascal mit drei Jahren Halbwaise wurde. Als er acht war, zog die Familie samt Kinderfrau nach Paris, weil der Vater den Kindern, d. h. vor allem dem sichtlich hochbegabten Jungen, bessere Entfaltungsmöglichkeiten schaffen wollte. Sein Richteramt verkaufte er an einen Bruder und legte sein Vermögen in Staatsanleihen an. Pascal war von Kindheit an kränklich. Er wurde deshalb von seinem hochgebildeten und naturkundlich interessierten Vater selbst sowie von Hauslehrern unterrichtet. Bereits mit zwölf bewies er sein hervorragendes mathematisches Talent und fand danach über seinen Vater, der in Pariser Gelehrten- und Literatenzirkeln verkehrte, Anschluss an den Kreis von Mathematikern und Naturforschern um den Père Mersenne, wo er als 16-Jähriger mit einer Arbeit über Kegelschnitte beeindruckte. 1639 wurde der Vater verdächtigt, Mitorganisator eines Protests von Betroffenen gegen Zinsmanipulationen des Staates zu sein. Er zog es vor, unterzutauchen und aus Paris zu flüchten. Ende 1639 wurde er jedoch dank der Fürsprache hochstehender Personen von Richelieu begnadigt und durfte diesem sogar seinen Sohn vorstellen. Rouen. Pascaline aus dem Jahr 1652 1640 wurde der Vater zum königlichen Kommissar und obersten Steuereinnehmer für die Normandie in Rouen ernannt. Hier erfand Pascal 1642 für ihn eine mechanische Rechenmaschine, die später Pascaline genannt wurde und als eine der ältesten Rechenmaschinen gilt. Sie ermöglichte zunächst nur Additionen, wurde im Lauf der nächsten zehn Jahre aber ständig verbessert und konnte schließlich auch subtrahieren (Zweispeziesrechner). Pascal erhielt ein Patent auf sie, doch der Reichtum, den er sich von der Erfindung und einer eigenen kleinen Firma erhoffte, blieb aus. Die mühsam einzeln handgefertigten Maschinen (neun von ca. fünfzig Exemplaren sind noch vorhanden) waren zu teuer, um größeren Absatz zu finden. In Rouen, einer Stadt mit Universität, hohem Gericht (Parlement) und reicher Kaufmannschaft, zählte die Familie Pascal zur guten Gesellschaft, auch wenn der Vater sich durch die Härte seiner Amtsausübung unbeliebt gemacht hatte. Pascal sowie seine literarisch begabte jüngere Schwester Jacqueline, deren dichterische Versuche von dem Dramatiker Pierre Corneille gefördert wurden, bewegten sich elegant in diesem Milieu. Die Schwester Gilberte heiratete 1641 einen jungen Verwandten, Florin Périer, den sich ihr Vater als Assistent aus Clermont-Ferrand geholt hatte. 1646, während der Rekonvaleszenz des Vaters nach einem Unfall, kam die bis dahin nur schwach religiöse Familie in Kontakt mit den Lehren des holländischen Reformbischofs Jansenius, der innerhalb der katholischen Kirche eine an Augustinus orientierte, Calvins Vorstellungen ähnelnde Gnadenlehre vertrat. Vater, Sohn und Töchter wurden fromm. Jacqueline beschloss sogar, Nonne zu werden. Pascal, der unter Lähmungserscheinungen an den Beinen und ständigen Schmerzen litt, interpretierte seine Krankheit als ein Zeichen Gottes und begann ein asketisches Leben zu führen. Anfang 1647 demonstrierte er den Eifer seiner neuen Frömmigkeit, als er den Erzbischof von Rouen eher gegen dessen Willen nötigte, einen Priesterkandidaten zu maßregeln, der vor ihm und Freunden eine rationalistische Sicht der Religion vertreten hatte. Pascal selbst ließ sich von seiner Frömmigkeit allerdings nicht daran hindern, weiterhin naturwissenschaftlich-mathematische Studien zu treiben. So wiederholte er noch 1646 erfolgreich die schon 1643 von Evangelista Torricelli angestellten Versuche zum Nachweis des Vakuums, dessen Existenz man bis dahin für unmöglich gehalten hatte, und publizierte 1647 seine Ergebnisse in der Abhandlung "Traité sur le vide" (siehe auch Leere in der Leere). Die Pariser Zeit. Ab Mai 1647 lebte er mit Jacqueline und wenig später auch dem Vater überwiegend wieder in Paris, wo er führende Jansenisten kontaktierte, aber auch seine Forschungen weiterführte. Angesichts des Widerstandes vieler Philosophen und Naturforscher, unter anderem von Descartes, den er Ende September 1647 mehrfach in Paris traf, diskutierte er die Frage des Vakuums (siehe auch Äther) aber nur noch indirekt, so in einer Abhandlung über den Luftdruck. 1648 maß sein Schwager Périer auf dem 1465 Meter hohen Berg Puy de Dôme in Pascals Auftrag den Luftdruck, um dessen Abhängigkeit von der Höhe zu beweisen. 1648 begründete Pascal in einer weiteren Abhandlung das Gesetz der kommunizierenden Röhren. Als im Frühjahr 1649 die Wirren der Fronde das Leben in Paris erschwerten, wichen die Pascals bis Herbst 1650 zu den Périers in die Auvergne aus. Im Herbst 1651 starb Pascals Vater. Jacqueline ging kurz danach, gegen den Wunsch des Verstorbenen und auch ihres Bruders, in das streng jansenistische Kloster Port Royal in Paris. Pascal war nun zum ersten Mal auf sich allein gestellt. Da er, wenn auch nicht reich, so doch wohlhabend und adelig war, begann er als junger Mann von Welt in der Pariser Gesellschaft zu verkehren und befreundete sich mit dem philosophisch interessierten jungen Duc de Roannez. Dieser nahm ihn 1652, zusammen mit einigen seiner freidenkerischen Freunde, darunter der Chevalier de Méré, zu einer längeren Reise mit, auf der Pascal in die neuere Philosophie eingeführt wurde, aber auch in die Kunst geselliger Konversation. Dank seines Verkehrs im schöngeistigen Salon der Madame de Sablé befasste er sich auch eingehend mit der belletristischen Literatur seiner Zeit. Er dachte kurz sogar an den Kauf eines Amtes und ans Heiraten. Ein ihm lange zugeschriebener, weil gewissermaßen in diese mondäne Lebensphase passender anonymer "Discours sur les passions de l’amour" („Abhandlung über die Leidenschaften der Liebe“) stammt aber nicht von ihm. 1653 verfasste er eine Abhandlung über den Luftdruck, in der zum ersten Mal in der Wissenschaftsgeschichte die Hydrostatik umfassend behandelt wird. Mit seinen neuen Bekannten, besonders dem Chevalier de Méré, führte Pascal auch Diskussionen über die Gewinnchancen im Glücksspiel, einem typisch adeligen Zeitvertreib. Dies brachte ihn 1653 dazu, sich der Wahrscheinlichkeitsrechnung zuzuwenden, die er 1654 im brieflichen Austausch mit dem Toulouser Richter und großen Mathematiker Pierre de Fermat vorantrieb. Sie untersuchten vorwiegend Würfelspiele. Zugleich beschäftigte er sich mit weiteren mathematischen Problemen und publizierte 1654 verschiedene Abhandlungen: den "Traité du triangle arithmétique" über das Pascalsche Dreieck und die Binomialkoeffizienten, worin er auch erstmals das Beweisprinzip der vollständigen Induktion explizit formulierte, den "Traité des ordres numériques" über Zahlenordnungen und die "Combinaisons" über Zahlenkombinationen. Im Umfeld von Port-Royal. Im Herbst 1654 wurde Pascal von einer depressiven Verstimmung erfasst. Er näherte sich Jacqueline wieder an, besuchte sie häufig im Kloster und zog in ein anderes Viertel, um sich seinen mondänen Freunden zu entziehen. Immerhin arbeitete er weiter an mathematischen und anderen wissenschaftlichen Fragestellungen. Am 23. November (möglicherweise nach einem Unfall mit seiner Kutsche, der aber nicht verlässlich bezeugt ist) hatte er ein religiöses Erweckungserlebnis, das er noch nachts auf einem erhaltenen Blatt Papier, dem Mémorial, aufzuzeichnen versuchte. Hiernach zog er sich aus der Pariser Gesellschaft zurück, um völlig seine Frömmigkeit leben zu können. Seinen einzigen Umgang stellten nunmehr die jansenistischen „Einsiedler“ (franz. "solitaires") dar. Das waren Gelehrte und Theologen, die sich im Umkreis des Klosters Port-Royal des Champs niedergelassen hatten und die er häufig besuchte. Um 1655 führte er hier das legendäre Gespräch mit seinem neuen Beichtvater Louis-Isaac Lemaître de Sacy (1613–1684) "Entretien avec M. de Saci sur Épictète et Montaigne" (1655), worin er zwischen den beiden Polen der montaigneschen Skepsis und der stoischen Ethik Epiktets schon eine Skizze der Anthropologie bietet, die er später in den "Pensées" entwickeln sollte. Die 1656 erfolgte Heilung seiner Nichte Marguerite Périer, die nach einem Besuch in Port Royal von einem Geschwür am Auge befreit worden war, bestärkte Pascals Glauben zudem. Zugleich begann er, im gelehrten Dialog mit den "solitaires", insbesondere Antoine Arnauld oder Pierre Nicole, religiös und theologisch motivierte Schriften zu verfassen. Nebenher befasste er sich, wie immer, auch mit praktischen Fragen, so 1655 mit der Didaktik des Erstlesens für die Schule, die die "solitaires" betrieben. Mit seiner sogenannten „zweiten Bekehrung“ (vgl. das Mémorial) war er in eine Situation eingetreten, in der die orthodox frommen und rigoros moralischen Jansenisten den laxeren und konzilianteren, aber auch machtbewussten Jesuiten ein Ärgernis geworden waren. Als es 1655 zum offenen Streit kam, weil Arnauld als Jansenist aus der theologischen Fakultät der Pariser Sorbonne ausgeschlossen wurde, mischte Pascal sich ein und verfasste 1656/57 eine Serie anonymer satirisch-polemischer Broschüren. Diese waren sehr erfolgreich und wurden 1657 in Holland unter dem Titel "Provinciales, ou Lettres de Louis de Montalte à un provincial de ses amis et aux R. R. PP. Jésuites sur la morale et la politique de ces pères" („Provinzler[briefe], oder Briefe von L. de M. an einen befreundeten Provinzler sowie an die Jesuiten über die Moral und die Politik dieser Patres“) auch als Buch gedruckt. Es sind achtzehn Briefe eines fiktiven Paris-Reisenden namens Montalte, von denen die ersten zehn an einen fiktiven Freund in der heimatlichen Provinz gerichtet sind, die nächsten sechs an die Pariser Jesuitenpatres insgesamt und die letzten beiden speziell an den Beichtvater des Königs. In diesen Briefen beschreibt Montalte zunächst in der Rolle eines theologisch unbeschlagenen und naiven jungen Adeligen, wie Jesuiten ihm altklug und herablassend ihre Theologie erklären; später, nachdem er quasi seine Lektion gelernt hat, beginnt er mit ihnen zu diskutieren und so scharfsinnig wie witzig ihre Lehren ad absurdum zu führen. Pascal persiflierte und attackierte so die zwar gewissermaßen verbraucherfreundliche, aber tendenziell opportunistische und oft spitzfindige Theologie – die berühmte Kasuistik – der Jesuiten und entlarvte ihren sehr weltlichen Machthunger. Die Lettres provinciales hatten, obwohl sie nach der Nr. 5 verboten wurden, bei Erscheinen der Buchausgabe auf den Index kamen und 1660 sogar vom Henker verbrannt wurden, großen und langandauernden Erfolg und bedeuteten längerfristig den Anfang vom Ende der Allmacht der Jesuiten, zumindest in Frankreich. Wegen ihrer Klarheit und Präzision gelten sie als ein Meisterwerk der französischen Prosa, das ihrem Autor einen Platz unter den Klassikern der französischen Literaturgeschichte verschaffte. Weniger bekannt wurden die vier bissigen Streitschriften, mit denen sich Pascal 1658 (neben Arnauld und Nicole) in eine Fehde zwischen jansenistisch orientierten Pariser Pfarrern und den Jesuiten einschaltete. Kurzfristig behielten allerdings die Jesuiten mit Hilfe von König und Papst die Oberhand, was die nächsten Jahre Pascals verdüsterte. Denn während viele seiner Gesinnungsfreunde unter dem Druck der obrigkeitlichen Schikanen einknickten oder taktierten, blieb er unbeugsam. In dieser Situation begann er 1658, systematischer an einer großen Apologie der christlichen Religion zu arbeiten. Für sie hatte er sich 1656 erste Notizen gemacht. Ihre Grundlinien sind in den 1657 verfassten, aber unvollendeten "Écrits sur la grâce" („Schriften über die Gnade“) zu finden, wo er die von den Jansenisten vertretene Form der augustinischen Gnadenlehre als Mitte zwischen der fast fatalistischen calvinistischen Prädestinationslehre und der optimistischen jesuitischen Gnadenlehre darstellt und dem freien Willen des Menschen die Entscheidung über sein Heil zugesteht. Denn für Pascal gilt: „Jener, der uns ohne uns geschaffen hat, kann uns nicht ohne uns retten“. Neben seiner Arbeit an den "Pensées" betrieb er immer wieder auch mathematische Studien. So berechnete er 1658 die Fläche unter der Zykloide mit den Methoden von Cavalieri sowie das Volumen des Rotationskörpers, der bei Drehung der Zykloide um die x-Achse entsteht. Nachdem er selbst die Lösung gefunden hatte, veranstaltete er ein Preisausschreiben zu dem Problem, was ihm viele (unzureichende) Vorschläge und eine heftige Polemik mit einem Unzufriedenen eintrug. 1659 erschienen seine Schrift "Traité des sinus des quarts de cercle" (Abhandlung über den Sinus des Viertelkreises). Als 1673 Gottfried Wilhelm Leibniz diese Arbeit in Paris las, empfing er eine entscheidende Anregung zur Entwicklung der Differential- und Integralrechnung durch die Betrachtung der speziellen Gedanken Pascals, die Leibniz allgemeiner verwendete, indem er Pascals Kreis als Krümmungskreis an die einzelnen Punkte einer beliebigen Funktion oder Funktionskurve auffasste. Leibniz sagt, er habe darin ein Licht gesehen, das der Autor nicht bemerkt habe. Daher stammt der Begriff charakteristisches Dreieck. Mit seiner ohnehin schlechten Gesundheit ging es in diesen Jahren immer rascher bergab, sicher auch aufgrund seiner äußerst asketischen, ihn zusätzlich schwächenden Lebensweise. So konnte er 1659 viele Wochen nicht arbeiten. Trotzdem war er im selben Jahr Mitglied eines Komitees, das eine neue Bibelübersetzung zu initiieren versuchte. 1660 verbrachte er mehrere Monate als Rekonvaleszent auf einem Schlösschen seiner älteren Schwester und seines Schwagers bei Clermont. Anfang 1662 gründete er zusammen mit seinem Freund Roannez ein Droschkenunternehmen ("„Les carrosses à cinq sous“" – „Fünfgroschenkutschen“), das den Beginn des öffentlichen Nahverkehrs in Paris markierte. Im August erkrankte er schwer, ließ seinen (immer noch recht ansehnlichen) Hausstand zugunsten mildtätiger Zwecke verkaufen und starb, im Alter von nur 39 Jahren (ein Jahr nach dem Tod seiner Schwester Jacqueline) im Pariser Haus der Périers. In seinem Mantelsaum fand man eingenäht ein Stück Papier, das als das Mémorial des Blaise Pascal berühmt geworden ist. Darin versuchte er in Ausrufen und stammelnden Worten, seine mystische Erfahrung in Worte zu fassen. In ihr erfuhr er den "Gott Abrahams, Isaaks und Jakobs, nicht den der Philosophen und Gelehrten." Entstehung und Ausgaben des Textes. Pascal konnte durch seinen frühen Tod die geplante große Apologie nicht fertigstellen. Er hinterließ nur Notizen und Fragmente, rund 1000 Zettel in rund 60 Bündeln, auf deren Grundlage 1670 von jansenistischen Freunden eine Ausgabe unter dem Titel "Pensées sur la religion et sur quelques autres sujets" („Gedanken über die Religion und über einige andere Themen“) besorgt wurde. Diese Erstausgabe ist verdienstvoll, weil die Herausgeber – ungewöhnlich für die Epoche – ein unfertiges Werk veröffentlichten und es dadurch zugänglich zu machen versuchten. Sie ist aber problematisch insofern, als jene sich nicht am Originaltext orientierten, obwohl er als Autograph, wenn auch nur in Zettelform, erhalten war, sondern eine der beiden Abschriften benutzten, die die Périers kurz nach Pascals Tod von den Zettelbündeln anfertigen ließen. Sie ist noch problematischer dadurch, dass man das erhaltene Textmaterial nach unterschiedlichen Kriterien kürzte und, anders als die benutzte Abschrift, die die Anordnung der Zettel und Bündel weitgehend beibehalten hatte, eine neue eigene, vermeintlich plausiblere Ordnung der Fragmente einführte. Die modernen Ausgaben sind Resultat einer philologischen Erfolgsgeschichte des 19. und 20. Jahrhunderts. Diese beginnt damit, dass der Philosoph Victor Cousin 1842 in einem Bericht an die Académie française auf die Notwendigkeit einer neuen Edition der "Pensées" hinwies angesichts der offensichtlichen Unzulänglichkeit der Erstausgabe, der bis dahin alle Herausgeber gefolgt waren, wenn auch meist unter nochmaligen Kürzungen und/oder weiteren Umstellungen. Tatsächlich versuchte noch 1844 Prosper Faugère erstmals eine komplette Edition nach den originalen Zetteln Pascals, die er jedoch weitgehend frei nach inhaltlichen Kriterien zu Abschnitten und Unterabschnitten neu ordnete. Dieses Prinzip wurde fortgesetzt und vermeintlich jeweils perfektioniert von weiteren Herausgebern, deren bekanntester Léon Brunschvicg mit seiner Ausgabe von 1897 bis 1904 wurde. Um 1930 trennte sich die Forschung von dem etablierten Vorurteil, dass Pascals Zettel letztlich nicht geordnet gewesen seien. Vielmehr erkannte man, dass zumindest 27 Bündel (nach der 1. Kopie bzw. 28 nach der 2. Kopie, d. h. rund 400 Zettel) ebensovielen von Pascal intendierten Kapiteln entsprachen und durchaus eine interne Ordnung aufweisen. Auch andere Bündel stellten sich als homogener und geordneter heraus als bis dahin gedacht, so dass man zu Editionen überging (insbes. Louis Lafuma, 1952 u.ö. nach der sog. 1. Kopie; 1976 Philippe Sellier nach der 2. Kopie, die – da in fortlaufender Folge geschrieben – den Nachlasszustand genauer wiedergibt als die in einzelnen Faszikeln zu Editionszwecken angefertigte erste Kopie), die im Text den Autographen entsprechen und in der Anordnung weitgehend den beiden Abschriften folgen (denn 1710/11 hatte Pascals Neffe Louis Périer in bester Absicht alle Zettel umsortiert und auf große Bögen geklebt). Neuere Forschungen haben zudem mit philologischen Mitteln (Wasserzeichenanalyse etc.) auch den Entstehungszusammenhang der Fragmente deutlicher herausarbeiten können (Pol Ernst, 1991). Diese neueren Editionen sind Rekonstruktionen des Nachlasszustandes und des Denkens sowie der Ordnungsabsichten Pascals für das Material zu diesem Zeitpunkt. Die Frage, wie das Werk ausgesehen hätte, wenn Pascal es hätte vollenden können (und ob er es je hätte fertigstellen können), bleibt offen. Inhaltlicher Überblick. Die erwähnten 27 bzw. 28 Kapitel zeigen den Weg, den Pascal in der Argumentation seiner Apologie des Christentums verfolgen wollte. Die Apologie ist zweigeteilt: „Erster Teil: Elend des Menschen ohne Gott. Zweiter Teil. Glückseligkeit des Menschen mit Gott“ (Laf. 6). Die Kapitel zeichnen zuerst unter den Überschriften „Nichtigkeit – Elend – Langeweile – Gegensätze – Zerstreuung“ usw. ein dramatisches Bild der menschlichen Lage, mit brillanten paradoxen, ironischen Formulierungen ausgeführt, wenden sich dann den Philosophen auf der Suche nach dem „höchsten Gut“ zu und finden die Auflösung der Aporien der menschlichen Existenz im Christentum. Der folgende historisch-theologische Teil nutzt ausführlich die Elemente der Exegese der Kirchenväter, wie sie Port-Royal – allerdings in einer „modernen“, sehr historisierenden Form – übermittelte, und steht damit nicht auf dem Boden neuzeitlich historisch-kritischer Bibelexegese, die damals allerdings erst mit Richard Simon entstand. Pascal argumentiert mit der Kontinuität der in der Heiligen Schrift bezeugten Heilsgeschichte, der typologischen Auslegung der Prophezeiungen (als Hinweise auf das Erscheinen des Christus/Messias), der „Beständigkeit“ der jüdischen Religion (das Prinzip, dass die wahre Religion von Anfang der Schöpfung an vorhanden sein muss, vgl. Augustinus von Hippo, Retractationes 1,12,3) und dem hermeneutischen Prinzip der Liebe als Schlüssel der Heiligen Schrift (Laf. 270). Der „Beweis“ führt nicht direkt zum Glauben, er ist allerdings ein „Werkzeug“ (Laf. 7) der Gnade. Ziel der Apologie Pascals ist die Bekehrung von Atheisten oder Zweiflern. Im geordneten Material der "Pensées" finden sich die großen ausgearbeiteten anthropologischen Texte „Mißverhältnis des Menschen“ (Laf. 199) über die Lage des Menschen zwischen dem unendlich Kleinen und dem unendlich Großen, „Zerstreuung“ (Laf. 136) über die Ablenkung vom Nachdenken über die wirkliche, durch Elend und Tod geprägte Lage durch Vergnügen und Zerstreuung u. a. Die Einheit des Pascalschen Denkens von seinen mathematischen bis zu seinen theologischen Schriften macht das berühmte Fragment über die drei Ordnungen der Körper, des Geistes und der Liebe beziehungsweise Heiligkeit (Laf. 308) deutlich. Nicht in eines der 27 bzw. 28 Kapitel eingeordnet findet sich die Pascalsche Wette, gemäß der der Glaube an Gott nicht nur richtig, sondern auch vernünftig ist, denn: „Wenn Ihr gewinnt, so gewinnt Ihr alles, und wenn Ihr verliert, so verliert Ihr nichts“ (Laf. 418). Nach Pascals Notizen (Laf. 11) ist sie wie der „Einleitungs-Text“ über die Suche nach Gott (Laf. 427) dem Gedankengang voranzustellen (Vgl. Selliers Ausgabe der Penséss „d'après l'«ordre» pascalien“, 2004). Rezeption. Während einer Epoche, die bereits klar auf der Trennung von Glauben und Wissen bestand, vertrat Pascal in seinem Leben und Werk das Prinzip der Einheit allen Seins. Für ihn bedeutete die Beschäftigung sowohl mit naturwissenschaftlichen Problemen als auch mit philosophischen und theologischen Fragen keinerlei Widerspruch; alles das diente ihm zur unmittelbaren Vertiefung seiner Kenntnisse. Seine Wahrnehmung der „intelligence/raison du coeur“ – nur das Zusammenspiel von Verstand und Herz könne Grundlage menschlichen Erkennens sein – als wesentlichste Form der umfassenden Erkenntnis wird von seinen Anhängern als visionär und über die Zeiten hinweg beispielgebend erfasst. Bis heute gilt Pascal als wortgewaltiger Apologet des Christentums und Verfechter einer tiefen christlichen Ethik. Kritiker des Christentums wie der Abbé Meslier oder Voltaire haben ihn daher früh als hochrangigen Gegner attackiert. Goethe urteilte rückblickend: „Wir müssen es einmal sagen: Voltaire, Hume, La Mettrie, Helvetius, Rousseau und ihre ganze Schule, haben der Moralität und der Religion lange nicht so viel geschadet, als der strenge, kranke Pascal und seine Schule." Friedrich Nietzsche setzte sich zeitlebens mit Pascal auseinander. Für ihn ist Pascal „der bewunderungswürdige "Logiker" des Christenthums“; „Pascal, den ich beinahe liebe, weil er mich unendlich belehrt hat: der einzige logische Christ“. Es finden sich Urteile, die sowohl Bewunderung als auch Ablehnung ausdrücken: Nietzsche sah in Pascal, wie auch in Schopenhauer, so etwas wie einen würdigen Gegner. Er sah auch eine inhaltliche Verbindung zwischen diesen beiden: „"ohne den christlichen Glauben", meinte Pascal, werdet ihr euch selbst, ebenso wie die Natur und die Geschichte, ‚un monstre et un chaos‘. Diese Prophezeiung haben wir "erfüllt": nachdem das schwächlich-optimistische 18. Jahrhundert den Menschen "verhübscht" und "verrationalisiert" hatte […] in einem wesentlichen Sinn ist "Schopenhauer" der Erste, der die Bewegung "Pascals" wieder "aufnimmt" […] "unsre Unfähigkeit, die Wahrheit zu erkennen", ist die Folge unsrer "Verderbniß", unsres moralischen "Verfalls": so Pascal. Und so im Grunde Schopenhauer.“ In Pascal kann Nietzsche seine Kritik des Christentums lokalisieren: „Man soll es dem Christenthum nie vergeben, daß es solche Menschen wie Pascal zugrunde gerichtet hat. […] Was wir am Christenthum bekämpfen? Daß es die Starken zerbrechen will, daß es ihren Muth entmuthigen, ihre schlechten Stunden und Müdigkeiten ausnützen, ihre stolze Sicherheit in Unruhe und Gewissensnoth verkehren will […] bis die Starken an den Ausschweifungen der Selbstverachtung und der Selbstmißhandlung zu Grunde gehn: jene schauerliche Art des Zugrundegehens, deren berühmtestes Beispiel Pascal abgiebt.“ Moderne Kritiker wie der sonst vergleichsweise zurückhaltende Aldous Huxley gingen in ihrer Kritik weiter, allerdings in psychologisierender Weise. Pascal habe aus seiner Not – seinen körperlichen Gebrechen sowie seiner Unfähigkeit, echte Leidenschaft zu empfinden – eine Tugend gemacht und dies mit heiligen Worten getarnt. Schlimmer noch: er habe seinen beachtlichen Verstand dazu benutzt, um andere dazu zu ermuntern, eine gleichermaßen diesseits-feindliche Weltanschauung einzunehmen. Zitate von Pascal wie: „Vom Mittelweg abweichen heißt von der Menschheit abweichen“ und andere mehr verleiteten lediglich dazu, ihn als gemäßigten Denker im aristotelischen Sinne zu verstehen. Huxley vertritt die Auffassung, dass dies nur eine theoretische Seite Pascals gewesen sei. Im eigentlichen Leben, also so, wie es sich in dessen Lebensalltag auch nachweislich darstellte, sei Pascal sehr konsequent gewesen – heute würde man sagen: fundamentalistisch. Worte aus der Feder Pascals wie: „Siechtum ist der Naturzustand eines Christen; denn erst im Siechtum ist der Mensch so, wie er immer sein "sollte"“ würden die düstere Haltung des Philosophen wiedergeben. Pascal würde aufgrund seiner brillanten Formulierungen und den beeindruckend geschilderten spirituellen Erlebnissen als „Vorkämpfer einer hehren Sache“ gelten, während er – was seine christlich-philosophische Seite anbelangt – nur ein kranker Asket gewesen sei. Im Gegensatz zu Nietzsche habe er sich nicht gegen seine Gebrechen gestemmt, sondern sie als willkommene Indizien für ein wertloses irdisches Leben benutzt, so Huxley. Philosophiebezogen ist Karl Löwiths Wiederaufnahme der Kritik Voltaires und seine Beschäftigung mit der „Apologie“ oder die Pascal kritisch interpretierende Einstellung seines Werks in die Geschichte der modernen Funktionsontologie durch Heinrich Rombach. Theologisch gewichtig ist etwa die große Interpretation Hans Urs von Balthasars in seinem Werk „Herrlichkeit“. Die letztgenannten Interpreten machen keine punktuellen Bemerkungen zu ausgewählten Fragestellungen von Person und Werk, sondern beschäftigen sich mit dem gesamten hinterlassenen Oeuvre. Eine umfangreiche Pascal-Forschung gibt es nicht nur in Frankreich, sondern etwa auch in den Vereinigten Staaten oder in Japan. Die Evangelische Kirche in Deutschland ehrt Pascal mit einem Gedenktag im Evangelischen Namenkalender am 19. August. Bibliothekswissenschaft. Bibliothekswissenschaft ist im weiteren Sinn der systematisch geordnete Inbegriff aller wissenschaftlichen und technischen Erfahrungen auf dem Gebiet des Bibliothekswesens. Im deutschen Sprachraum wurde unterschieden zwischen der Bibliothekenlehre (Bibliothekonomie, Bibliothektechnik, auch Bibliothekswesen im engeren Sinn), die von der Einrichtung und Verwaltung einer Bibliothek handelt und der Bibliothekenkunde (Bibliothekographie), die sich mit der Geschichte und Beschreibung der einzelnen Bibliotheken älterer und neuerer Zeit beschäftigt. Im Zusammenhang mit der Entwicklung einer sogenannten Wissensgesellschaft verschiebt sich der Fokus der Bibliothekswissenschaft zunehmend in den „virtuellen Raum“. (Stichwort: Digitale Bibliothek) Gegenstand des Faches sind nicht mehr nur die Bibliothek als physischer Ort sowie ihre Bestände, wie es primär im Rahmen von Bibliothekenlehre und -kunde der Fall war, sondern generell informationslogistische Prozesse (Sammlung, Erschließung, Verfügbarmachung) von publizierter Information. Forschung und Ausbildung. Die Aufgabe des Faches ist die Erfassung und Analyse von Entwicklungen im Bereich der Informationsdistribution sowie auf dieser Grundlage die Entwicklung von Methoden und Theorien zur Informationsversorgung (hauptsächlich in der Wissenschaft). Eine zunehmende Rolle spielen dabei auch statistische Verfahren der Bibliometrie und Szientometrie (und z. T. der Webometrie). Weiterhin gewinnen im Rahmen der sogenannten „Informationsflut“ oder „Informationsüberflutung“ durch eine Omnipräsenz von großen Datenmengen, besonders auch in elektronischen Netzen, Aspekte der Beurteilung und Sicherung von Informationsqualität innerhalb des Faches an Bedeutung. Die Bibliothekswissenschaft besitzt aufgrund ihres Forschungsgegenstandes ein hohes interdisziplinäres Potenzial. Während die Bibliothekswissenschaft als "Library- and Information Science" beispielsweise in den USA eine anerkannte Universitätsdisziplin ist, konnte diese sich in Deutschland nicht richtig etablieren. Neben der Ausbildung und Weiterbildung an Fachhochschulen (an der Fachhochschule Köln, der Fachhochschule Potsdam und an der HTWK Leipzig), bei denen der Schwerpunkt auf der Praxis liegt, gibt es das Fach nur noch am Institut für Bibliotheks- und Informationswissenschaft der Humboldt-Universität zu Berlin und der Fakultät Information und Kommunikation an der Hochschule der Medien Stuttgart. Die theoretische Ausbildung vieler Bibliotheksreferendare übernimmt außerdem die Bibliotheksakademie Bayern in München. In der Schweiz bietet die Universität Zürich zusammen mit der Zentralbibliothek Zürich einen "Master of Advanced Studies" (Nachdiplomstudium) in Bibliotheks- und Informationswissenschaften an. Außerdem gibt es einen Masterstudiengang an der Humboldt-Universität zu Berlin. Zum Masterstudium wurde am Institut für Bibliotheks- und Informationswissenschaft der Humboldt-Universität zu Berlin zum ersten Mal im Wintersemester 2008/09 immatrikuliert. Briefumschlag. Handelsüblicher Briefumschlag der Größe „DIN-lang“ (DL) mit Sichtfenster Ein Briefumschlag (auch: Kuvert oder in der Schweiz Couvert, veraltet Enveloppe'") ist die Versandverpackung eines Briefes. Geschichte. Ursprünglich wurden Briefe nicht in separaten Briefhüllen verpackt, sondern lediglich durch Umfalten oder Aufrollen und Versiegeln vor unberechtigtem Zugriff geschützt, da Papier ein kostbarer Rohstoff war. Später wurde dieser Vorgang aus betriebswirtschaftlicher Sicht immer kostenintensiver und aufwändiger als ein fertig konfektionierter Umschlag zum Einstecken und Verschließen des Schreibens. Im heutigen Schriftverkehr werden fast ausschließlich Briefumschläge zum Schutz der Inhalte verwendet, mit Ausnahme von Postwurfsendungen. Briefumschläge wurden erstmals 1820 von dem Buch- und Papierwarenhändler S. K. Brewer in Brighton verkauft. Er schnitt die Umschläge mit Hilfe von Blechschablonen zurecht. Infolge des rasch wachsenden Bedarfs vergab Brewer 1835 an die Londoner Firma Dobbs & Comp. den Auftrag zur Herstellung von Briefumschlägen als Massenartikel. Die erste Maschine zur Herstellung von Briefumschlägen stammt von E. Hill und W. De La Rue, London, aus dem Jahr 1844. Material. Briefumschlagpapier muss undurchsichtig, beschreibbar, bedruckbar und faltfest sein. Es wird holzfrei und holzhaltig, einseitig glatt oder satiniert, weiß und farbig hergestellt, aber auch Recyclingpapier mit Blauem Engel findet Verwendung. Neuerdings werden für Briefumschläge verstärkt FSC- oder PEFC-Papiere eingesetzt, deren Zellstoff aus nachhaltiger Forstwirtschaft stammt. FSC-Umschläge tragen teilweise das Logo des WWF-Pandabären. Es gibt auch Umschläge aus Kunststofffasern, aus transparenter oder transluzenter Folie sowie Umschläge aus Papyrolin, einem fadenverstärkten Material. Fast alle Briefumschläge besitzen als Verschluss an der Umschlaginnenseite eine Gummierung oder zwei Haftklebestreifen. Bei manchen Briefumschlägen ist im Adressbereich ein Sichtfenster aus durchsichtigem Papier eingeklebt. Auch die Seitenränder des Briefpapiers werden mit Klebstoffen zusammengehalten. Produktion. Zunächst wird ausgehend von der Papierrolle der Innen- und Außendruck des Umschlages im Flexodruckverfahren aufgebracht. Danach wird die Umschlagssilhouette ausgestanzt, dann erfolgt die Fensterung inkl. des Einklebens der Fensterfolie, danach die Seitenklappengummierung und anschließend das Aufbringen der Verschlussklappengummierung. Nach dem Trocknen der Verschlussklappe werden die Umschläge verpackt und anschließend die fertigen Kartons mittels Robotern auf Paletten verpackt. Moderne Briefumschlagmaschinen erreichen Geschwindigkeiten von bis zu 1.600 Umschlägen/Minute und können somit fast 100.000 Umschläge/Stunde produzieren. Derartige Anlagen erfordern einen Investitionsaufwand von mehr als 2 Mio. €. Wichtigste Hersteller der Maschinen sind die Firmen Winkler+Dünnebier in Neuwied sowie die Firma Smith in den Vereinigten Staaten. Recycling. Briefumschläge können problemlos recycelt werden. Das verwendete Altpapier dient als Rohstoff für neues Recyclingpapier. Die eingesetzten Fensterfolien bestehen in der Regel aus Polystyrol. Sie werden beim Deinking (Entfärben) des Altpapiers ausgesondert und anschließend ebenfalls recycelt oder aber in den Kraftwerken der Papierfabriken verbrannt. Größen. Briefumschläge im Format C4 werden nicht nur im Querformat, sondern auch im Hochformat hergestellt. Für Geschäftsbriefe auf dem Papierformat A4 sind in Deutschland die Umschlagformate DIN lang (C5/6, DL) bei manueller Befüllung, C6/5 bei maschineller Befüllung und C4 am weitesten verbreitet. Das Format C6/5 ist das in Deutschland mit Abstand am häufigsten verwendete Format und wird als Kuvertierhüllen für die automatische Kuvertierung eingesetzt. Privatpost wird auch häufig in Umschlägen vom Format C6 verschickt, in das Postkarten vom Format A6 passen. Großes und schweres Füllgut wird häufig in Faltentaschen mit Seitenfalten und Klotzboden in den Formaten B5 bis E4 verschickt. Fensterstellung. Für Abmessungen von Fensterbriefhüllen gibt es mehrere unterschiedliche Standards. BS 4264 definiert für das Format DL ein 39 mm hohes und 93 mm breites Sichtfenster, das 53 mm vom oberen Rand und 20 mm vom linken Rand entfernt ist. C5 und DL liegt das Sichtfenster 20 mm vom linken und 15 mm vom unteren Rand entfernt und ist 45 × 90 mm groß. Bei größeren Versandtaschen gibt es zwei Formen A und B entsprechend der Briefköpfe für Geschäftsbriefe Form A und B nach DIN 5008, da die Lage des Adressfeldes sich hier nicht mehr über die Faltung des Briefes anpassen lässt. Bei C5-Briefhüllen ist das Fenster ebenfalls 45 mm × 90 mm groß und 20 mm vom linken Rand entfernt, vom unteren bei Form A 77 mm und bei Form B 60 mm. Bei C4-Briefhüllen ist das Spiel des Briefes im Umschlag besonders in Richtung der längeren Kante wesentlich größer, so dass das Fenster größer sein muss. Es ist 55 mm × 90 mm groß und 20 mm vom linken Rand entfernt, vom oberen bei Form A 40 mm und bei Form B 57 mm. Aufschrift. Die Deutsche Post erwartet die Aufschrift parallel zur längeren Seite des Sichtfensters beziehungsweise des Umschlags, die Frankierung in einem 40 mm hohen und 74 mm breiten Feld rechts oben, die Anschrift des Absenders im 40 mm hohen Streifen links daneben sowie die Anschrift des Adressaten im restlichen Bereich mit mindestens 15 mm Abstand zum Außenrand. Im Bereich unterhalb der Anschrift wird der Zielcode aufgedruckt. Die Österreichische Post erwartet darüber hinaus, dass beim Format C5 der Bereich unterhalb der 74 mm breiten Frankierzone und bei größeren Formaten ein 74 mm hoher Bereich am unteren Rand freigehalten wird. Royal Mail erwartet, dass in einem 70 mm hohen und 140 mm breiten Bereich rechts unten zwei Felder freigehalten werden und die Anschrift des Absenders auf der rückseitigen Verschlusslasche platziert wird. Die Schweizerische Post sieht eine Vielzahl von Varianten vor. Verwendung. Briefumschläge werden verschlossen, indem die ein wenig überlappende, übergeklappte offene Seite (kurz Lasche) mit dem Umschlag zusammengeklebt wird. Entweder kommt dabei trockener, wasserlöslicher Klebstoff zum Einsatz, der beim Verschließen befeuchtet wird, oder sie sind selbstklebend. Das blaue Leuchten beim Öffnen eines selbstklebenden Verschlusses nennt man Tribolumineszenz. Bei hochwertigen Umschlägen kommt häufig eine Haftklebung mit Abdeckstreifen zum Einsatz. Letztere werden vor allem für hochwertige geschäftliche Post verwendet. Name und Anschrift des Adressaten werden auf die Vorderseite des Kuverts geschrieben, die Angaben über den Absender herkömmlich auf die Rückseite oder links oben auf die Vorderseite. Ebenfalls im geschäftlichen Bereich werden häufig Fensterkuverts eingesetzt, bei denen die Anschrift des Adressaten nicht auf den Umschlag geschrieben, sondern der Brief mit der Anschrift im Briefkopf so in den Umschlag gelegt wird, dass die Anschrift durch das Fenster sichtbar ist, beispielsweise nach DIN 5008. Für die unterschiedlichen Umschläge gibt es verschiedene Falzarten, damit die Adressen im Fenster sichtbar sind. Fensterkuverts tragen einen Aufdruck oder Stempel mit den Absenderangaben meistens entweder auf der Vorderseite oder über der Anschrift auf dem Briefbogen, sodass sie im Fenster sichtbar sind. Markt. In Deutschland werden nach Angaben des Verbandes der Deutschen Briefumschlaghersteller (VDBF) derzeit pro Jahr ungefähr 20 Mrd. Briefumschläge, Versand- und Faltentaschen im Wert von etwa 375 Mio. € verkauft. Zusätzlich exportiert die Deutsche Briefumschlagindustrie weitere ca. 4 Mrd. Einheiten zumeist ins europäische Ausland. Der Markt ist in den letzten Jahren insgesamt leicht gesunken, da zunehmend elektronische Medien den Briefumschlag für den Rechnungsversand ersetzen. Auch Werbebriefumschläge haben in den letzten Jahren stark an Bedeutung verloren. Großformatige Versand- und Faltentaschen konnten hingegen vom neuen Medium Internet eher profitieren. In Europa werden jährlich insgesamt etwa 110 Mrd. Umschläge verwendet. Den höchsten Pro-Kopf-Verbrauch in Europa hat weiterhin England. Mit weitem Abstand folgen Frankreich, Deutschland und die Niederlande. In Deutschland sind die beiden bedeutendsten Hersteller die Firmengruppe Mayer-Kuvert und Bong. Auf europäischer Ebene kommen noch die Firmengruppen Tompla (F), GPV (F), die Groupe Hamelin (F, 2010 mit Bong fusioniert) und Goessler Kuverts (CH) hinzu, die zusammen insgesamt einen Marktanteil von ungefähr 90 % repräsentieren. Mehrfachumschläge. Eine Sonderform des Briefumschlages ist der im internen Briefverkehr zunehmend genutzte mehrfach verwendbare Hauspostumschlag. Briefumschlag mit Aufrissschnur. a>-Streifen im Umschlag zum mittellosen Öffnen.Das kleine Fenster auf dem rechten Umschlag zeigt den Aufdruck vor dem Öffnen. Patentierte Umschläge bieten ein sauberes Öffnen des Briefes ohne Hilfsmittel. Am Rand ist der Umschlag an der „Daumengrifffläche“ perforiert, durch Abreißen dieses kleinen Papierstückchens wird eine „Aufrißschnur“ („"Zipp-o-let"“/engl. Pull-Tab) an der Kante herausgetrennt, welche damit den Briefumschlag öffnet. Diese Technik ist z. B. bei Zigarettenverpackungen mit Klarsichtfolien schon lange üblich. Biologische Waffe. a>, Symbol für Gefahren durch biologische Erreger Biologische Waffen sind Massenvernichtungswaffen, bei denen Krankheitserreger oder natürliche Giftstoffe (Toxine) gezielt als Waffe eingesetzt werden. Toxine, obwohl keine biologischen Agenzien im eigentlichen Sinne, werden trotzdem wegen ihrer Herkunft aus lebenden Organismen den biologischen Waffen und nicht den chemischen Waffen zugeordnet und folglich auch nicht durch die Chemiewaffenkonvention reglementiert. Momentan sind etwa 200 mögliche Erreger bekannt, die sich als biologische Waffe verwenden ließen. Seit 1972 sind durch die Biowaffenkonvention die Entwicklung, die Herstellung und der Einsatz biologischer Waffen verboten. Biologische Kampfstoffe. Biologische Kampfstoffe können sich sowohl gegen Organismen (z. B. Menschen, Tiere oder Pflanzen) als auch gegen Materialien richten. So forschen die USA etwa an Bakterien, welche Treibstoffe zersetzen und an Pilzen, die die Tarnfarbe von Flugzeugen abbauen können. Biologische Kampfstoffe unterscheiden sich insofern von chemischen Waffen, als dass chemische Waffen fertig einsatzbereit sind, also zu einem beliebigen Zeitpunkt an einem beliebigen Ort eingesetzt werden können. Biologische Kampfstoffe müssen hingegen erst aufbereitet und angemessen verbreitet werden. Die Forschungen von Robert Koch, welcher als erster den Milzbranderreger und eine Methode zur Züchtung von Bakterien entdeckte, eröffneten – obwohl von Koch nicht beabsichtigt – den Weg zur Herstellung größerer Mengen von Biowaffen. Einige Bakterien, wie zum Beispiel das Milzbrandbazillus, bilden außerhalb des Wirts sehr widerstandsfähige Überdauerungsformen (Endosporen). Rickettsien sind intrazelluläre Parasiten und gehören ebenfalls zu den Bakterien. Sie sind aber auf Grund ihres eingeschränkten Stoffwechsels stark wirtsabhängig und können im Labor nur in organischem Gewebe kultiviert werden. Sie werden vor allem durch Flöhe, Zecken, Tierläuse und Milben auf den Menschen übertragen. Eine typische Krankheit, die durch Rickettsien ausgelöst wird, ist das Fleckfieber. Kategorien. Die Centers for Disease Control and Prevention stellten eine Unterteilung zusammen, die die Kampfstoffe je nach Verfügbarkeit, Letalitätsrate, Ansteckungsgefahr und Behandlungsmöglichkeit in drei Kategorien unterteilt. Antike und Mittelalter. Schon vor 3.000 Jahren setzen die Hethiter verseuchtes Vieh absichtlich in Feindesland ein, um deren Ernährung stark einzuschränken. Vor 2.000 Jahren verseuchten Perser, Griechen und Römer die Brunnen ihrer Feinde mit verwesenden Leichen. Von skytischen Bogenschützen um 400 v. Chr. ist bekannt, dass sie ihre Pfeile mit Exkrementen, Leichenteilen und Blut von Kranken bestrichen, was jedoch nicht so wirksam war wie die Bestreichung der Pfeilspitzen mit Pflanzen- oder Tiergift. 184 v. Chr. befahl Hannibal von Karthago im Dienst von König Prusias I. von Bithynien seinen Männern bei einer Seeschlacht, mit giftigen Schlangen gefüllte Tonkrüge auf die Schiffe seiner Feinde, den Pergamonen unter Führung von Eumenes II. zu werfen. Während des Dritten Kreuzzuges (1189–1192) nahm der englische König Richard Löwenherz Akkon ein, doch die Einwohner hatten sich darin verbarrikadiert. Um die Aufgabe zu erzwingen ließ Richard mehrere hundert Bienenkörbe von seinen Soldaten einsammeln und diese über die Mauern werfen, daraufhin ergaben sich die Einwohner sofort. Im Jahr 1346 wurde die Bevölkerung der Stadt Kaffa (heute: Feodossija) von den Tataren nach dreijähriger Belagerung mit deren Pesttoten beschossen, indem sie diese über die Mauern katapultierten. Heute wird vermutet, dass die folgende große Pestwelle in Europa („Schwarzer Tod“) durch die infizierten Flüchtlinge aus der Stadt ihren Anfang nahm. Das Gleiche soll sich 1710 durch russische Soldaten bei der Belagerung der damals schwedischen Stadt Reval (heute: Tallinn) abgespielt haben. 18. Jahrhundert. Bei der Bekämpfung der nordamerikanischen Ureinwohner setzten sowohl die Briten als auch die Franzosen biologische Waffen ein. Da die aus Europa eingeschleppten Krankheiten in dieser Umgebung noch nie vorgekommen waren, die indigenen Völker also nicht durchseucht waren, fiel der Krankheitsverlauf weitaus schwerer aus als bei Europäern. Im Mai 1763 erreichten Indianer des Pontiac-Aufstands Fort Pitt, das mit Flüchtlingen aus der Umgebung überfüllt war. Durch die schlechten hygienischen Bedingungen brachen die Pocken im Lager aus. Die Erkrankten wurden auf Anweisung des Lagerkommandanten Colonel Henri Louis Bouquet unter Quarantäne gestellt. Am 23. Juni trafen zwei Abgesandte der aufständischen Indianer beim Fort ein und boten den Briten freies Geleit, wenn sie das Lager aufgeben würden. Die Briten lehnten ab, gaben den Indianern jedoch zwei pockenverseuchte Decken aus dem Pockenkrankenhaus mit, die diese unwissend annahmen. Nach der Übergabe der Decken brachen unter den Indianern tatsächlich die Pocken aus. Es ist jedoch nicht geklärt, ob diese Epidemie auf den Anschlag zurückzuführen ist. Bis 1765 tauchten immer wieder Meldungen über Pockenepidemien unter den Indianern auf. Ob der Befehlshaber der britischen Streitkräfte, Jeffrey Amherst in dieses Unterfangen eingeweiht war, ist unklar. In einem Brief an Bouquet vom 7. Juli fragte er diesen: „Könnte man nicht versuchen, die Pocken zu diesen untreuen Indianern zu schicken?“. Da die besagten Decken den Indianern jedoch schon am 23. Juni übergeben worden waren, ist es unwahrscheinlich, dass dieser Befehl von ihm ausging. Im weiteren Briefverlauf schrieb Amherst noch: „Wir müssen jede Methode anwenden, um diese abscheuliche Rasse auszulöschen“. Noch mehrfach tauchten in Amerika Berichte über Pockenanschläge auf, etwa während des amerikanischen Unabhängigkeitskrieges, in welchem die Amerikaner die Briten beschuldigten, deren Soldaten gegen die Pocken zu inokulieren, um danach die amerikanischen Truppen anzustecken, während die eigenen Truppen immun wären. Die Inokulation wurde damals mangels Schutzimpfung durchgeführt. Man brachte Erreger in offene Wunden, wodurch die Krankheit zwar ausbrach, jedoch viel milder verlief. 1781 fanden amerikanische Soldaten Leichen afrikanischer Sklaven, welche an Pocken gestorben waren. Die Amerikaner vermuteten dahinter die Absicht der Briten, eine Epidemie auslösen zu wollen. Tatsächlich geht aus einem Brief von Alexander Leslie hervor, dass die Briten die Absicht hatten, die Sklaven auf amerikanischen Farmen einzuschleusen. Erster Weltkrieg. Bis ins 19. Jahrhundert waren Bioanschläge nur durch die Verbreitung bereits im Umfeld grassierender Krankheiten möglich, nicht jedoch durch die künstliche Erzeugung der Erreger. Das änderte sich erst, als die Forschung mit der Züchtung von Bakterien begann. Zu Beginn des Ersten Weltkrieges verfügte Deutschland bereits über eine große Stückzahl von unterschiedlichen B-Waffen. Die deutsche Heeresführung überlegte zunächst, ob sie Pesterreger gegen die Engländer einsetzen sollte, doch der Vorschlag wurde abgelehnt, um „unnötiges Leiden zu verhindern“, wobei Deutschland bei den chemischen Waffen an der Spitze der kriegsteilnehmenden Staaten stand. Im Ersten Weltkrieg wurden ausschließlich Sabotageakte ausgeführt, die sich gegen Tiere richteten, da die Kavallerie zumindest am Anfang des Ersten Weltkrieges noch erhebliche Bedeutung hatte und Tiere oft noch für den Transport von Material eingesetzt wurden. Mit Tieren wurde zu Versuchszwecken häufig experimentiert. Es kam indessen nie zu einem offenen Bioanschlag auf dem Schlachtfeld. In Deutschland wurden diese Angriffe ab 1915 von einem eigenen Ministerium geplant, der „Sektion Politik“, das von Rudolf Nadolny geleitet wurde. Die verschlüsselten Aufträge an die Agenten lauteten meist Pferde, Schafe oder Rinder wie auch Tierfutter mit Erregern zu vergiften, welche in deutschen Laboratorien hergestellt und ins Zielland eingeschmuggelt wurden. Anschläge wurden in Rumänien, Spanien, Argentinien, in den USA, in Norwegen und im Irak verübt; vermutlich jedoch in noch weiteren Ländern. In Argentinien gingen zwischen 1917 und 1918 etwa 200 Maulesel an Anthrax-Attentaten zugrunde. Es ist allerdings nicht bewiesen, ob die gesamte deutsche Heeresführung in diese Anschläge eingeweiht war. 1916 beschlagnahmte die Polizei von Bukarest in der deutschen Botschaft mehrere Erregerkulturen der Rotzkrankheit. Im Januar 1917 wurde ein deutscher Saboteur, Baron Otto Karl von Rosen, mitsamt Begleitern von der norwegischen Polizei verhaftet, da sie sich nicht ausweisen konnten. In ihrem Gepäck fand die Polizei mehrere Kilogramm Dynamit und mehrere Zuckerwürfel, in denen Anthrax-Erreger eingebettet waren. Obwohl der Baron aussagte, er und seine Gruppe wären von der finnischen Unabhängigkeitsbewegung und hätten Aktionen gegen das russische Transport- und Kommunikationswesen geplant, gestanden seine Mithelfer, in deutschem Auftrag Sabotageaktionen in Norwegen geplant zu haben. Der deutsche Befehl bezüglich der Anthrax-Sporen lautete Rentiere zu infizieren, die britische Waffen transportierten. Nach drei Wochen wurde der Baron, welcher eine deutsche, finnische und schwedische Staatsbürgerschaft hatte, aufgrund des diplomatischen Drucks von Schweden ausgewiesen. Weitere bekannte deutsche Geheimagenten waren z. B. Anton Dilger und Frederick Hinsch. Ende 1917 stoppten die Deutschen ihr Biowaffenprogramm weitgehend. Die Entente-Mächte waren ab 1917 von den deutschen B-Anschlägen informiert. Und da das Deutsche Reich führend in der chemischen und biologischen Forschung bezüglich der Waffen war, starteten viele andere bedeutende Staaten aus Furcht vor dem deutschen Biowaffenprogramm ihre eigenen B-Waffenprogramme. So etwa Frankreich 1922, Russland 1926, Japan 1932, Italien 1934, Großbritannien und Ungarn 1936, Kanada 1938 und die USA 1941. Durch Hitlers „Machtübernahme“ 1933 wurde die biologische Waffenaufrüstung beschleunigt. Kaiserreich Japan. Ishii Shirō 1932 - Leiter der Einheit 731 Im Jahr 1932 wurden im Kaiserreich Japan die Einheit 731 nach der Eroberung der Mandschurei gegründet und führte von Anfang an Experimente an lebenden Menschen durch. Ziel war es, eine biologische Waffe zu entwickeln, um sie im Fall des Falles gegen die chinesischen Streitkräfte und die Rote Armee einsetzen zu können. Nach dem Angriff auf China wurden die Forschungen massiv intensiviert. Auch mehrere andere japanische Armeeeinheiten forschten während des Zweiten Weltkriegs an biologischen Waffen und führten Experimente an Menschen durch. Allein von der Einheit 731 wurden etwa 3500 Menschen meistens bei Vivisektionen und vollem Bewusstsein getötet. Die ersten dokumentierten Angriffe mit biologischen Waffen in China erfolgten im Jahr 1940 und waren eher experimenteller Natur. Hauptsächlich wurden hier Keramikbomben voller mit Pest infizierter Flöhe über Städten abgeworfen, wie am 29. Oktober 1940 über Ningbo. Ende 1941 ließen japanische Truppen rund 3000 chinesische Kriegsgefangene frei, nachdem man sie zuvor mit Typhus infiziert hatte. Dadurch wurde sowohl unter chinesischen Truppen als auch unter der Bevölkerung eine Epidemie verursacht. Am 5. Mai 1942 begann eine groß angelegte Vergeltungsaktion japanischer Truppen für den sogenannten Doolittle Raid, bei dem etwa 50 Japaner getötet worden waren, welcher wiederum eine Vergeltungsaktion für den Angriff auf Pearl Harbor war. Dabei zogen sich reguläre Armeeeinheiten der japanischen Armee aus für die Aktion vorgesehenen Gebieten in den chinesischen Provinzen Zhejiang und Jiangxi zurück, während Truppen der Einheit 731 genau in diese Gebiete einrückten und begannen, jegliches Trinkwasser mit Milzbranderregern zu verseuchen. Gleichzeitig warf die japanische Luftwaffe den Kampfstoff über Städten ab oder versprühte ihn über Wohngebieten. Im Zuge dieser Aktion wurden 250.000 Menschen ermordet. Bei weiteren Racheaktionen setzte die japanische Armee Cholera, Typhus, Pest und Dysenterie ein. Während der Schlacht um Changde setzten japanische Truppen massiv biochemische Waffen ein, um die chinesische Verteidigung zu brechen. Im November 1941 warfen Mitglieder der Einheit 731 erstmals mit Pest verseuchte Flöhe aus Flugzeugen über Changde ab. Bei der darauf folgenden Seuche starben 7.643 Chinesen. Als japanische Truppen 1943 Changde angriffen und auf unerwartet heftigen Widerstand stießen, versuchten sie diesen während der sechs Wochen dauernden Offensive mit allen Mitteln zu brechen. Während der Schlacht kam es zu Pestausbrüchen, von denen sowohl chinesische Soldaten als auch Zivilisten betroffen waren. Nach Angaben mehrerer japanischer Soldaten der Einheit 731, unter anderem Shinozuka Yoshio, hatten sie Pesterreger in Form sprühfähiger Kampfstoffe von Flugzeugen aus in und um Changde versprüht. Zeitgleich begannen andere Armeeeinheiten, unter anderem die Einheit 516, mit dem massiven Einsatz von chemischen Waffen. Im Laufe der Schlacht starben 50.000 chinesische Soldaten und 300.000 Zivilisten. Wie viele davon durch die biologischen und chemischen Waffen getötet wurden, lässt sich nicht klären. Diese Einsätze und die Experimente an Menschen werden zu den japanischen Kriegsverbrechen gezählt. Ab 1943 wurde die Seuchenanfälligkeit weißer Menschen an amerikanischen Kriegsgefangenen getestet, um spätere Einsätze von Biowaffen in den USA vorzubereiten, für deren Transport man bis 1945 Ballonbomben entwickelt hatte, welche über den Jetstream nach Nordamerika gelangen sollten. Großbritannien. Nach der Entdeckung von Bakterien und Viren als Ursache von Krankheiten, konnte im 20. Jahrhundert gezielter geforscht werden. Während des Zweiten Weltkriegs wurden in Großbritannien, auf direkte Weisung Winston Churchills, gezielt Versuche mit Krankheitserregern unternommen, um sie als Waffe weiterzuentwickeln. Nach Geheimdienstinformationen gingen die Alliierten davon aus, Deutschland würde über Anthraxerreger und Botulinumtoxin verfügen, weswegen England 1.000.000 Schutzimpfungen gegen Botulinumtoxin herstellte. Diese Informationen stellten sich später jedoch als falsch heraus. Deutschland hatte ebenso wenig Information über das Biowaffenprogramm der Alliierten. Hauptsächlich erhielten die Militärs und Geheimdienste Falschmeldungen. So dachten die deutschen Geheimdienste beispielsweise, England plane den Abwurf von Kartoffelkäfern über Deutschland. Im Laufe von englischen Biowaffenversuchen wurde Gruinard Island, eine unbewohnte Insel im Nordwesten Schottlands, mit Milzbrandsporen verseucht. Die Erreger waren als Reaktion auf die Gerüchte, dass sich biologische Waffen in japanischer/deutscher Entwicklung befänden, für Kampfzwecke getestet und über der ausschließlich von Tieren bewohnten Insel verstreut worden, auf die vorher noch zusätzlich 60 Schafe verbracht worden waren. Nahezu die gesamte Fauna wurde innerhalb eines Tages vollständig vernichtet. Dieses Experiment wurde in Zusammenarbeit mit den USA und Kanada durchgeführt. Großbritannien produzierte im Zweiten Weltkrieg Milzbrand in größeren Mengen als biologische Waffe. Man beabsichtigte, die Milzbrandsporen in Tierfutter einzuarbeiten und dieses über landwirtschaftlichen Gebieten in Deutschland abzuwerfen. Die USA entschlossen sich, für England Biowaffen zu produzieren, da England aufgrund der Nähe zu Deutschland als Produktionsstandort zu verwundbar gewesen wäre. 1944 gab die US-Armee eine Million 2-Kilogramm Anthrax-Bomben in Auftrag, die auf Berlin, Hamburg, Stuttgart, Frankfurt, Aachen und Wilhelmshaven abgeworfen werden sollten. Durch eine Produktionsverzögerung war der Krieg jedoch bereits gewonnen, ehe es soweit kommen konnte. Experten hatten geschätzt, dass bei diesen Bombenanschlägen etwa die Hälfte der jeweiligen Einwohner an Milzbrand sterben würde. Deutschland. Deutschland selber war im Zweiten Weltkrieg nur am Rande mit biologischen Waffen beschäftigt. Zu Beginn des Krieges war die Wehrmacht nicht an biologischer Kriegsführung interessiert, da sie diese für ineffizient und unberechenbar hielt. 1940 entdeckten die Deutschen bei ihrem Einmarsch in Paris jedoch ein Forschungslabor für biologische Kriegsführung, in dem schon seit 1922 an biologischen Waffen geforscht wurde und nun eine deutsche Forschungseinheit unter der Leitung des Bakteriologen Heinrich Kliewe eingesetzt wurde. Sie wurde „Abteilung Kliewe“ genannt und beschäftigte sich unter anderem mit Anthrax- und Pesterregern. Das Experiment wurde jedoch eingestellt, als Hitler 1942 jegliche deutsche biologische Offensivforschung verbot. Damit war das deutsche Reich eine der wenigen kriegsteilnehmenden Großmächte, welche das Genfer Protokoll bezüglich biologischer Kriegsführung einhielten. Gleichzeitig mit dem Verbot der offensiven Biowaffenforschung befahl Hitler jedoch, die defensive Biowaffenforschung zu verstärken. So wurde 1943 die „Arbeitsgemeinschaft Blitzableiter“ gegründet, um unter der Leitung von Kurt Blome Abwehrmaßnahmen gegen Biowaffen zu entwickeln. Darüber hinaus war Blome ab 1942 auch für den Aufbau des Zentralinstituts für Krebsforschung in Nesselstedt bei Posen verantwortlich, das neben der Krebsforschung von Beginn an auch für Arbeiten zu Biowaffen vorgesehen war. Die zur Abwehr von Biowaffen vorgesehenen oft noch unreifen Impfstoffe wurden häufig an KZ-Häftlingen getestet. Hinter Hitlers Rücken wurde auch für die offensive B-Kriegsführung geforscht. Denn für gegebenenfalls erforderliche Abwehrmaßnahmen mussten die Erreger auch erzeugt und getestet werden. Insbesondere Heinrich Himmler war ein großer Befürworter der B-Waffen. So unterstützte er zum Beispiel einen Vorschlag Kliewes, Lebensmittel, die ungekocht gegessen werden, mit Bakterien zu verseuchen. Erst im Februar 1945 ließ Hitler prüfen, welche Folgen ein Austritt Deutschlands aus den Genfer Konventionen hätte. Da Deutschland in diesem Falle jedoch womöglich einem Bioangriff der Alliierten zum Opfer gefallen wäre, entschloss sich Hitler, nicht auszutreten. Nach dem Ende des Zweiten Weltkriegs vermehrten sich Kartoffelkäfer in der Sowjetischen Besatzungszone Deutschlands sprunghaft, bis um 1950 fast die Hälfte der landwirtschaftlichen Anbaufläche befallen war. Die DDR-Führung war nicht in der Lage, der Katastrophe Herr zu werden, nutzte die Plage aber zu propagandistischen Zwecken im Kalten Krieg, indem sie behauptete, dass eigens in den USA gezüchtete Käfer durch amerikanische Flugzeuge gezielt als biologische Waffe zur Sabotage der sozialistischen Landwirtschaft abgeworfen würden. Ab 1950 wurde auf Plakaten und in zahlreichen Medienberichten eine Kampagne gegen die Amikäfer oder Colorado-Käfer gestartet, die Saboteure in amerikanischen Diensten genannt wurden. Das gleiche Argument hatte zuvor im Zweiten Weltkrieg schon das NS-Regime gebraucht und behauptet, die Kartoffelkäfer seien von amerikanischen Flugzeugen abgeworfen worden[2]. Die US-Regierung forderte infolgedessen von der Bundesrepublik Deutschland Gegenmaßnahmen. Man beschloss den Postversand an sämtliche Räte der Gemeinden der DDR und den Ballonabwurf von Kartoffelkäferattrappen aus Pappe mit einem aufgedruckten „F“ für „Freiheit“[2]. Vereinigte Staaten. Die Vereinigten Staaten starteten ihr Biowaffenprogramm als letzte der Großmächte im Zweiten Weltkrieg. Erst 1941 beauftragte Henry L. Stimson, der damalige Kriegsminister, die National Academy of Sciences damit, an der Abwehr biologischer Waffen zu forschen. Doch dieses Unternehmen war zu klein für ernsthafte biologische Waffenforschung, und nach dem Angriff auf Pearl Harbor wurde das Kriegsministerium damit beauftragt, B-Waffen zu entwickeln. 1943 stellte Amerika erstmals Botulinumtoxin, Milzbranderreger und Brucellen her, mehrere weitere Erreger wurden auf ihre Tauglichkeit als B-Waffe überprüft. Während zu Beginn des Programms nur etwa 3,5 Millionen US-Dollar zur Verfügung standen, waren es gegen Kriegsende bereits 60 Millionen. Sowjetunion. Die Sowjetunion begann schon 1926 mit der offensiven Biowaffenforschung. Eines der ersten Forschungszentren für Biowaffen errichtete die Sowjetunion auf der Insel Solowezki im Weißen Meer. Angeblich sollen hier auch Menschenversuche an Häftlingen durchgeführt worden sein. Diese Information ist jedoch umstritten. Es gibt Indizien, dass die Sowjetunion im Zweiten Weltkrieg kurz vor der Schlacht um Stalingrad deutsche Truppen mit Tularämie infiziert hat. Innerhalb einer Woche erkrankten in dem betroffenen Gebiet Tausende von Menschen an Tularämie. Von sowjetischer Seite kam die Meldung, dass dieses Phänomen auf natürliche Umstände, etwa mangelnde Hygiene, zurückzuführen sei. Doch während 1941 in der Sowjetunion 10.000 Tularämieerkrankungen auftraten, waren es 1942 bereits 100.000. 1943 lag die Zahl der Tularämieerkrankten wieder bei 10.000. Ebenso ein Hinweis auf einen möglichen Einsatz der Erreger ist, dass die Epidemie zunächst nur unter den Deutschen ausbrach und erst später – vermutlich durch einen Wechsel der Windrichtung oder Kleintiere, die durch die Fronten kamen – unter den Sowjets. Zudem erkrankten fast 70 Prozent der Opfer an Lungentularämie, welche nur durch die Verbreitung von Aerosolen verursacht wird. Des Weiteren forschte die Sowjetunion 1941 an dem Tularämie-Erreger. Bis auf diesen Vorfall, der wahrscheinlich nur als Experiment dienen sollte, ist kein Einsatz von biologischen Waffen im Zweiten Weltkrieg bekannt. Kalter Krieg. Erst 1946 gab das amerikanische Kriegsministerium die Meldung aus, dass es an der Entwicklung von Biowaffen forsche. Den Militärs waren die Aufzeichnungen des Leiters der Einheit 731, Shirō Ishii, in die Hände gefallen, und sie benutzten diese zum Teil als Forschungsgrundlage. Fort Detrick, das US-Biowaffenforschungszentrum, wurde 1950 ausgebaut und eine weitere Forschungsanlage wurde in Pine Bluff errichtet. Die Biowaffenforschung wurde auch dadurch intensiviert, dass 1950 der Koreakrieg ausbrach. Geforscht wurde unter anderen an infizierten Mücken, die für eine mögliche Freilassung in den Gebieten von Feinden vorgesehen waren. Im September 1950 versprühten zwei US-U-Boote an der Küste von San Francisco "Serratia marcescens", um herauszufinden, wie viele Bewohner sich damit infizieren würden. Das Bakterium ist für gesunde Menschen ungefährlich, greift jedoch immungeschwächte Personen an. In Krankenhäusern kam es zu Todesfällen, die auf Infektion mit den versprühten Erregern zurückgeführt werden konnten. Während dieser Zeit machten die Amerikaner oft Experimente, indem sie Pseudoerreger verteilten und maßen, wie weit sie sich verteilten. So wurden in den 1960er Jahren Erreger im U-Bahn-System von New York erprobt, infizierte Vögel im Südpazifik auf Reise geschickt, Erreger von Türmen und Flugzeugen aus ausgetragen. Außerdem wurden Waffen und Geschosse für den Einsatz von Erregern entwickelt. Auch fanden sie heraus, wie trockene Agenzien versprüht werden müssen, die einfacher als feuchte Agenzien in einer Art Staubwolke verteilt werden können. Auch Biowaffen wurden an Menschen, meist Strafgefangenen oder Minderheiten, erprobt. So kam es in den 1970er Jahren zu B-Waffen-Versuchen an 2200 Adventisten, die aus Gesinnungsgründen den Dienst an der Waffe verweigerten. Ein erheblicher Teil der durchgeführten Versuche dürfte nach wie vor im Dunkeln liegen. Über die Vorgänge in Fort Detrick wurden lediglich 2–3 CIA-Offiziere eingeweiht, eine Dokumentation der Arbeit sei kaum erfolgt. Gefährliche Unfälle hat es in Fort Detrick gegeben, einige davon sind nachweisbar. So sind 1981 zwei Liter mit Chikungunya-Virus entwendet worden - genug um damit die Weltbevölkerung mehrfach umzubringen. Die Tatsache gelangte durch Indiskretion eines ehemaligen Mitarbeiters an die Öffentlichkeit. Während des Vietnamkrieges im Jahre 1965 diskutierten die Amerikaner über den Einsatz von Pockenviren, da die eigenen Truppen geschützt waren. Doch aus Angst vor einem Gegenschlag wurde dieser Vorschlag abgelehnt. Auch während der Kubakrise, 1962, planten die Amerikaner eine Mischung von verschiedenen Erregern aus Flugzeugen über kubanischen Städten abzuwerfen. Der Plan wurde jedoch nie umgesetzt. 1965 wurde das Budget für B-Waffenforschung konstant verringert, bis 1969 der damalige Präsident Richard Nixon das B-Waffenprogramm auflöste. Aufgrund dieser Erklärung wurden sämtliche B-Waffen, zumindest offiziell, vom Militär vernichtet. Die Forschungszentren wurden entweder umfunktioniert oder geschlossen. Die Vernichtung der Bestände dauerte drei Jahre, bis 1972. Kurz darauf trat die Biowaffenkonvention in Kraft. Im Widerspruch dazu steht ein Papier von einem Kongress 1969, aus dem offensichtliches Interesse des Pentagons an der Entwicklung neuer Biowaffen hervorgeht. Begründet wird die Notwendigkeit mit den rasanten Fortschritten auf dem Gebiet der Molekularbiologie und Gentechnik. So wurden 10 Mio. US Dollar veranschlagt, um mittels Gentechnik einen Erreger herzustellen, der in der Natur nicht existiert und gegen den keine Immunität erworben werden kann. Im Jahre 1950 gab es eine Meldung, wonach die damals in der DDR grassierende Kartoffelkäferplage durch den massenhaften Abwurf von speziell gezüchteten „Colorado-Käfern“ durch die Amerikaner ausgelöst worden sein solle. Später erwies sich dies als Propaganda. Ähnliche Meldungen über Ernteschäden beziehungsweise Ernteschädlinge stammen aus Kuba. Diese Vorfälle konnten jedoch nie ganz geklärt werden. Auf dem Gebiet der DDR gab es nach offiziellen Angaben keine Forschung an Biowaffen. Allerdings gab es eine Sektion Militärmedizin an der Ernst-Moritz-Arndt-Universität Greifswald mit L2-Laboratorien, an die auch Gelder des Verteidigungsministeriums flossen. Geheimdienstliche Informationen deuten darauf hin, dass zumindest auf der nahegelegenen Insel Riems auch militärische Forschung abgewickelt worden sei. Die sowjetische B-Waffenforschung profitierte nach dem Zweiten Weltkrieg sowohl von gefangenen deutschen Forschern und Ingenieuren als auch von erbeuteten Aufzeichnungen der Forschung und Experimente der Einheit 731. Ein neues Forschungszentrum wurde in der Nähe von Moskau errichtet, in dem unter anderen an Tularämie, Anthrax und Botulinum geforscht wurde. 1973 startete die Sowjetunion ein Projekt mit dem Namen Biopreparat, welches in mehreren Forschungszentren durchgeführt wurde und über etwa 50.000 Mitarbeiter verfügte; und das obwohl die UdSSR die Biowaffenkonventionen unterzeichnet hatte. Nachdem die Pocken 1980 als ausgerottet erklärt wurden, forschte Russland intensiv mit den Erregern dieser Krankheit, da nach Ende der Massenimpfungen nach einigen Jahren die Menschen wieder empfänglich für die Krankheit wären. Wie auch die USA arbeitete die Sowjetunion totz Unterzeichnung der Biowaffenkonvention unter dem Deckmantel der Erforschung infektiöser Keime weiterhin an ihrem Biowaffen-Programm und forschte neben einigen der oben genannten Erreger auch an hämorrhagischen Viren wie Ebola und Marburg und einigen südamerikanischen Vertretern wie Machupo (Bolivianisches hämorrhagisches Fieber) und Junin (Argentinisches hämorrhagisches Fieber). Darüber hinaus sollen sie noch an einer Ebola-Pocken-Chimäre gearbeitet haben. Zentrum der sowjetischen Forschung war die heute verlassene Stadt Kantubek auf der ehemaligen Insel der Wiedergeburt im Aralsee. Mehrere gentechnische Forschungseinrichtungen wurden durch das Verteidigungsministerium finanziert. Dazu gehören das Forschungsinstitut für Militärmedizin des Ministeriums für Verteidigung der UdSSR im damaligen Leningrad. Hier wurde unter anderem in L3-Laboren mit Hasenpest, Bauchtyphus und Tetanuserregern gearbeitet. Weitere fragliche Forschungslabore befanden sich in Kirow, Moskau, Swerdlowsk und Ksyl-Orda (Feldtestlabor). Am 2. April 1979 kam es zu einem Milzbrand-Unfall in Swerdlowsk, bei dem aufgrund einer defekten Belüftungsanlage Anthrax-Sporen in die Umgebung abgelassen wurden. Am 12. April wurde das Gebiet um Swerdlowsk unter Quarantäne gestellt. Der KGB vertuschte diesen Unfall in einer großangelegten Aktion. Er behauptete, die Epidemie wäre durch kontaminiertes Fleisch ausgebrochen. Erst 1992 gestand die russische Regierung unter Boris Jelzin den Unfall und seine Vertuschung. Am Ende des Kalten Krieges liefen zwei sowjetische Biowaffenforscher, Wladimir Passetschnik und Ken Alibek, in den Westen über und lieferten Informationen über das sowjetische B-Waffenprogramm. Alibek, der schon seit 1974 an B-Waffen forschte, berichtete von Modifikationsversuchen mit Anthrax. Diese sollen insofern gelungen sein, dass die Krankheit gegen Antibiotika resistent gemacht werden konnte. Die Sowjetunion entwickelten sogleich ein neues Antibiotikum dagegen, so dass sie ihre Truppen schützen konnte. Auch berichtete Alibek über sowjetische Flugzeuge, die eigens entwickelt wurden, um Krankheitskeime zu versprühen. Heute sind Herstellung und Besitz von biologischen Waffen durch die Biowaffenkonvention (beschlossen 1972, von 155 Staaten ratifiziert und in Kraft getreten 1975) weltweit verboten. Die Forschung an Gegenmaßnahmen ist jedoch erlaubt und bietet ein Schlupfloch, da hierfür ebenfalls Krankheitserreger gezüchtet werden müssen. Nach dem Kalten Krieg. 1983 startete die südafrikanische Apartheidsregierung ein Biowaffenprogramm unter dem Namen Project Coast, das unter der Leitung von Wouter Basson stand. Offiziell war Project Coast ein Defensivprogramm, inoffiziell wurden jedoch Methoden entwickelt um Menschen im Geheimen zu ermorden, etwa durch Gewehrkugeln, die Erreger enthielten. Unter anderen arbeiteten sie an sogenannten ethnischen Waffen, die etwa nur Schwarzafrikaner erkranken ließ. Wie viele Menschen den Bioanschlägen von Project Coast zu Opfer gefallen sind, ist nicht bekannt. Inhalt eines Anthrax-Briefes, der einen islamistischen Anschlag suggeriert. Vor Beginn des Zweiten Golfkrieges befürchtete die amerikanische Armeeführung, der Irak könne Biowaffen einsetzen, da er schon am Ende des Ersten Golfkrieges ein Biowaffenprogramm gestartet hatte. Die Erreger hätten die irakischen Institute großteils aus amerikanischen oder deutschen Firmen erhalten. Später stellte sich heraus, dass der Irak tatsächlich über 19.000 waffenfähige Liter Botulinumtoxin, 8500 Liter Anthrax und 2400 Liter Aflatoxin produziert hatte, die jedoch nie eingesetzt wurden. Die Iraker beherrschten die Verfahren um Agenzien herzustellen, womit die Erreger über die Luft übertragbar gewesen wären, nicht. Nach dem Krieg vernichtete der Irak offiziell seine Biowaffen, inoffiziell konnten einzelne Institute jedoch versteckt weiterforschen und produzieren. 2001 gab es mehrere Krankheits- und Todesfälle durch die Freisetzung von Milzbranderregern und Rizin aus Briefen oder Päckchen in Florida, New York, New Jersey und Washington. Opfer und Ziele waren vor allem Postangestellte, Journalisten und Politiker. Der Attentäter war vermutlich eine Person aus dem Laborpersonal von Fort Detrick. Weitergehende öffentliche Untersuchungsergebnisse hierzu wurden bisher nicht bekannt. Hauptartikel: Anthrax-Anschläge 2001. Situation heute. Die USA forschen seit 2002 auf dem Gebiet der „nicht-tödlichen“ Waffen, unter anderem an materialzerstörenden Mikroben, was nicht explizit gegen das BTWC (Biological and Toxin Weapons Convention, Biowaffenkonvention) verstößt, da es das Problem der „nicht-tödlichen“ biochemischen Waffen bislang nicht behandelt. Biologische Waffen gelten heute hauptsächlich als potentielle Massenvernichtungswaffen von Terroristen (siehe: Bioterrorismus), da sie überall (aus der Natur) erhältlich sind und theoretisch einfach herzustellen sind, wenn davon abgesehen wird, dass die Erreger zuerst noch für den Waffeneinsatz optimiert werden müssen. Für den militärischen Einsatz gelten Biowaffen heute allgemein als zu unberechenbar. Mit Hilfe der Gentechnik wurden schon Bakterien antibiotikaresistent gemacht und parallel dazu gleich ein neues Antibiotikum oder eine neue Impfung entwickelt, um es theoretisch zu ermöglichen, diese Erreger im Krieg einzusetzen und die eigenen Truppen trotzdem zu schützen. Es könnte aber auch möglich sein, Krankheitserreger zu entwickeln, die nur für Menschen mit bestimmten Genen gefährlich wären, insbesondere Gene, die nur oder hauptsächlich in einer bestimmten Region vorkommen. Dadurch könnten eigene Truppen vor der Krankheit geschützt sein, was biologische Waffen sowohl für die Militärs als auch für Terroristen wieder interessant machen könnte. Diese spezielle Art von biologischen Waffen wird ethnische Waffe genannt, umgangssprachlich wird auch von biogenen Waffen gesprochen (von "biologisch-genetisch"). Allerdings sprechen einige Argumente gegen die Möglichkeit, ethnische Waffen zu realisieren: Genetische Unterschiede innerhalb von Populationen sind oftmals größer als die Unterschiede zwischen verschiedenen Populationen; ferner sind die Wirkungen von targeted-delivery-Systemen, die für den gezielten Einsatz von pathogenen Merkmalen benötigt werden, bislang nicht zufriedenstellend erforscht. Daneben existieren viele Pflanzenpathogene (Rostkrankheiten usw.), die sich gezielt gegen Nutzpflanzen und -tiere einsetzen lassen. Das „Dreckige Dutzend“. Obwohl ca. 200 potentiell waffenfähige Erreger, Toxine und biologische Agenzien bekannt sind, wurde vom CDC eine Liste mit den 12 Erregern zusammengestellt, die am ehesten für einen Biowaffenanschlag in Frage kommen. Diese Kampfstoffe zeichnen sich entweder durch ihre leichte Verbreitung, ihre einfache Übertragung oder auch nur durch ihre hohe Letalitätsrate aus. Unter ihnen befinden sich Bakterien, Viren und Toxine. Ebenfalls unter dem Namen „dreckiges Dutzend“ bekannt ist eine Liste von weltweit verbotenen organischen Giftstoffen. Beteigeuze. Beteigeuze, auch α Orionis genannt, Synonyme: Betelgeuse (arabisch, „Hand der Riesin“), ist ein Stern im Sternbild Orion. Er wird auch der Schulterstern des Orion genannt. Eigenschaften. Beteigeuze ist ein Riesenstern und wird im Hertzsprung-Russell-Diagramm in die Klasse der Roten Überriesen eingeteilt. Er hat etwa den 662-fachen Durchmesser unserer Sonne und besitzt im sichtbaren Bereich eine etwa zehntausendmal so große Leuchtkraft. Von der Erde aus gesehen ist Beteigeuze der zehnthellste Stern. Beteigeuze ist von großem astronomischem Interesse. Sein Radius war der erste, der mittels Interferometrie bestimmt wurde. Es stellte sich heraus, dass er zwischen 290 Mio. km und 480 Mio. km schwankt. Hierdurch variiert auch Beteigeuzes Helligkeit zwischen +0,3 und +0,6m mit einer halbregelmäßigen Periode von 2070 Tagen (Halbregelmäßig Veränderlicher vom Typ SRc). Er ist neben Mira und Altair einer der wenigen Sterne, die von der Erde aus mit derzeitiger Teleskoptechnik als Fläche sichtbar sind, sein Winkeldurchmesser beträgt 0,05 Bogensekunden. Anlässlich einer Bedeckung von Beteigeuze durch den Asteroiden (319) Leona am 12. Dezember 2023 wird es unter Umständen möglich sein, die Verteilung der Helligkeit über die Sternenscheibe genauer zu bestimmen, als dies mit der aktuellen Technik möglich ist. Die Bestimmung der Entfernung Beteigeuzes erwies sich als schwierig, da die Parallaxe deutlich geringer ist als der Winkeldurchmesser des Sterns. Man vermutete lange Zeit eine Entfernung um 700 Lichtjahre, mit Hilfe des Satelliten Hipparcos wurde sie 1997 auf ca. 430 ± 100 Lichtjahre (130 ± 30 Parsec) bestimmt. Neuere Analysen der Hipparcos- und anderer Daten deuten jedoch auf eine größere Entfernung von etwa 640 ± 150 Lichtjahren (200 ± 45 Parsec) hin. Zukunft als Supernova. Nach gängiger Meinung der Astronomen wird Beteigeuze als Supernova enden. Über den Zeitraum, in welchem dieses Ereignis zu erwarten ist, gehen die Meinungen auseinander: Manche rechnen damit innerhalb der nächsten tausend Jahre, andere frühestens in hunderttausend Jahren. In diesem Fall wäre die Supernova auf der Erde unübersehbar und würde über das gesamte Firmament strahlen. Bei roten Riesen des Typs Beteigeuze kann man bei einer Supernova (durchschnittlich) eine 16.000-fache Steigerung der Leuchtkraft erwarten. Beteigeuze erstrahlt derzeit mit ca. 0,5 mag am Sternenhimmel, bei einer Supernova würde die scheinbare Helligkeit −9,5 bis −10,5 mag erreichen, entsprechend einer absoluten Helligkeit von −15,1 bis −16,1. Dies entspricht der Leuchtkraft eines Halbmondes am Himmel. Nach anderen Quellen erreichen Supernova-Ausbrüche sterbender Riesensterne sogar absolute Helligkeiten um −17 bis −18, gelegentlich (vor allem bei Sternen mit sehr großem Radius) auch darüber. In letzterem Fall würde die Supernova die Helligkeit des Vollmondes erreichen. Da die Rotationsachse des Sterns nicht Richtung Erde zeigt, wäre der Gammablitz nicht so stark, dass die Biosphäre in Mitleidenschaft gezogen würde. Da Beteigeuze mit etwa 20 Sonnenmassen deutlich über der Tolman-Oppenheimer-Volkoff-Grenze liegt, ist anzunehmen, dass – auch nach dem noch zu erwartenden Masseverlust – der Kern zu einem Schwarzen Loch kollabieren wird. Messungen an kalifornischen Universitäten haben 2009 ergeben, dass der Durchmesser des Sterns seit 1993 um 15 % geschrumpft ist, während die Leuchtintensität unverändert blieb. Etymologie und Namensformen. Der Name stammt von arabisch („Hand des [Sternbilds] Zwilling“, „Hand der Riesin“). Er taucht bereits im "Buch der Konstellationen der Fixsterne" des arabischen Astronomen Abd ar-Rahman as-Sufi († 986) auf. Die heutige deutsche Namensform entstand, weil der arabische Anfangsbuchstabe Ya (mit zwei Punkten) fälschlich als Ba (mit einem Punkt) gelesen und so ins Lateinische transkribiert wurde. Während der gesamten Renaissance-Zeit wurde der Stern "Bait al-Dschauza" genannt, mit der im arabischen Original angenommenen Bedeutung „Achsel der Riesin“, obwohl die richtige Übersetzung von ‚Achsel‘ gelautet hätte. Daraus entstand der Name "Betelgeuse". Aufgrund der mit dem bloßen Auge erkennbaren roten Farbe (symbolisch für Feuer oder Blut) wurde der Stern (wie auch der Planet Mars) mit dem Krieg in Verbindung gebracht. Da er der erste Stern des Orion ist, der über dem Horizont erscheint, wurde er in der Antike auch der „Ankündiger“ genannt. Beteigeuze in Literatur und Film. In Douglas Adams’ fünfbändiger Trilogie "Per Anhalter durch die Galaxis" ist Beteigeuze das Heimatsystem von Ford Prefect und Zaphod Beeblebrox. Auf einem Planeten im Sonnensystem des Beteigeuze spielt die fiktive Handlung von Pierre Boulles Buch "Der Planet der Affen", welches – in abgeänderter Form – bereits mehrfach verfilmt wurde (unter anderem 1968 von Franklin J. Schaffner, 2001 von Tim Burton und 2011 von Rupert Wyatt). Arno Schmidt bezieht sich in den physikalischen Abhandlungen seiner Erzählung "Leviathan" auf Beteigeuze. 1982 erschien in der DDR der Science-Fiction-Roman "Zielstern Beteigeuze" von Karl-Heinz Tuschel. Der Stern ist unter seinem französischen Namen Betelgeuze Schauplatz der gleichnamigen Comic-Reihe des brasilianischen Comic-Zeichners Leo. Ein Großteil der Handlung spielt auf Betel-6, dem (fiktiven) sechsten Planeten um den Stern Beteigeuze. Der Name Beetlejuice (englisch wörtlich "Käfer-Saft") aus dem gleichnamigen Spielfilm von Tim Burton ist eine Verballhornung der englischen Bezeichnung des Sternes "Betelgeuse". Die Hauptfigur Betelgeuse benutzt diese Schreibweise, um ihren Namen symbolisch in einer Scharade darstellen zu können. Das System des Sterns Beteigeuze ist zentraler Handlungsort in Heft 48 – "Rotes Auge Beteigeuze" – der Science-Fiction-Roman-Serie Perry Rhodan. Beteigeuze taucht in einigen Philip-K.-Dick-Romanen bzw. -Kurzgeschichten auf. Auch Ijon Tichy beginnt im von Stanisław Lem verfassten Buch Sterntagebücher seine abenteuerliche Zeitreise auf dem Weg zu diesem Stern. In dem Kinderbuch "Angstmän" (wie auch im gleichnamigen Hörspiel) von Hartmut El Kurdi fragt der Titelheld (ein außerirdischer Superheld) das Mädchen Jennifer: „Braunschweig? Ist das östlich oder westlich von Beteigeuze?“ Beirut. Beirut ("Bairūt") ist die Hauptstadt des Libanon. Sie liegt am zur Levanteküste gehörenden Golfe de Saint-Georges, am östlichen Mittelmeer, ungefähr in der Mitte des Landes in Nord-Süd-Richtung. Beirut ist das wirtschaftliche und kulturelle Zentrum des Landes mit vielen Verlagen und Universitäten, unter anderem der Université Saint-Joseph und der Amerikanischen Universität Beirut. Die Stadt wurde vor dem Libanesischen Bürgerkrieg (1975–1990) oft als „Paris des Nahen Ostens“ bezeichnet. Bevölkerung. Die genaue Einwohnerzahl der Stadt ist unbekannt, da die letzte Volkszählung im Jahre 1932 durchgeführt wurde. 1991 betrug die Zahl schätzungsweise 1,5 Millionen, für 2012 wurden 2.060.363 Einwohner für Beirut und Umgebung berechnet. Das Auswärtige Amt schätzte die Einwohnerzahl im März 2014 auf rund 1,5 Millionen. Beirut ist die konfessionell vielfältigste Stadt des Landes und des Nahen Ostens überhaupt. In ihr leben Christen (Maronitische, Griechisch-Orthodoxe, Syrisch-Orthodoxe, Syrisch-Katholische, Armenisch-Orthodoxe, Armenisch-Katholische, Römisch-Katholische und Protestanten), Muslime (Sunniten und Schiiten) sowie Drusen. Fast alle Juden haben Beirut seit 1975 verlassen. Der genaue Anteil der Konfessionen der Bevölkerung ist auch unbekannt, weil die Konfessionsangehörigheit der Einwohner in der letzten Volkszählung im Jahre 1932 befragt wurde. 50 % waren Christen (davon 30 % Maroniten, gefolgt von Griechisch-Orthodoxen mit 16 %), 50 % Muslime, 30 % davon Schiiten. Es ist möglich, dass die Mehrheit der Bevölkerung heute Muslime sind; und unter den Muslimen die Schiiten in der Mehrheit sind. Dabei ist der Norden von Beirut überwiegend von Sunniten und Christen bewohnt. Der Osten Beiruts ist überwiegend von Christen bewohnt, der Westen überwiegend von Sunniten. Der Süden Beiruts ist überwiegend von Schiiten bewohnt. Geschichte. Die früheste Erwähnung der Stadt datiert auf die Mitte des 2. Jahrtausends vor Christus. Die Stadt war bereits unter den Phöniziern ein bedeutender Stadtstaat, ihr antiker phönizischer Name lautet "Be'erot" (dt. ‚Brunnen‘ (Plural)), ebenso im biblischen Hebräisch (in Quadratschrift בְּאֵרֹת beziehungsweise בְּאֵרוֹת), im modernen Ivrit ביירות ("Beirut"). Die Griechen nannten die Stadt Βηρυτός (Berytós). 63 v. Chr. endete das Seleukidenreich; Pompeius machte das Gebiet als Syria Provinz des Römischen Reiches. Während der Römerzeit war die Stadt, welche nun als Kolonie den Namen "Berytus" trug, sehr bedeutend und brachte bekannte Juristen hervor, unter anderem Aemilius Papinianus und Domitius Ulpianus. Die Rechtsschule von Beirut war bis ins 6. Jahrhundert angesehen und bedeutend. Mindestens bis ins späte 4. Jahrhundert, vermutlich noch deutlich länger, war Latein die dominierende Sprache in der Stadt; damit hob man sich stark vom Umland ab. Im Jahre 551 zerstörten ein Erdbeben und eine nachfolgende Flutwelle die bis dahin wohlhabende Stadt. Im Jahre 635 wurde die Stadt von Arabern erobert. Sie nannten die immer noch stark zerstörte Stadt "Bayrut". Sie wurde wieder aufgebaut und der Handel begann erneut zu florieren. Von 1110 bis 1291 war sie - und ein Streifen Mittelmeerküste - in der Hand von Kreuzfahrer-Fürsten. Beirut war wichtig für den Europahandel und hatte innerhalb des Fürstentums Galiläa eigene Vasallen. Nach der Eroberung fiel Beirut zunächst an Fulko von Guines. 1166 gab Amalrich I. die Stadt als Lehen an Andronikos Komnenos, den späteren byzantinischen Kaiser, der sie jedoch nach dem Bekanntwerden seiner Affäre mit Königin Theodora verlassen musste. 1197 wurde Johann I. von Ibelin mit der Stadt belehnt, die damals stark zerstört war. Nach seinem Tode 1266 fiel sie an seine Tochter Isabella von Beirut. Die Kreuzfahrer errichteten in Beirut auch ein Bistum und erbauten eine Johannes dem Täufer geweihte Kathedrale, die heute als Moschee genutzt wird. 1291 brach das Königreich Jerusalem endgültig zusammen; damit endete die Herrschaft der Kreuzfahrer. Nach der Rückeroberung durch die Mamluken 1291 unter Schudschai war die Stadt meist von den Drusen beherrscht, auch wenn sie ab 1516 zum Osmanischen Reich gehörte. 1888 wurde Beirut ein Vilâyet Syriens, das die Sandschaks Latakia, Tripolis, Beirut, Akkon und Bekaa umfasste. 1895 eröffnete die Bahnstrecke Beirut-Damaskus ("Libanonbahn"). Mit dem Zusammenbruch des Osmanischen Reiches nach dem Ersten Weltkrieg kam die Stadt als Teil eines Völkerbundmandats an Frankreich. 1942 eröffnete die Bahnstrecke Haifa–Beirut–Tripoli. Nach dem Zweiten Weltkrieg wurde Beirut Hauptstadt des nun unabhängigen Libanon. Ausländische Investoren wurden durch die "libanesische Freihandelspolitik" angezogen. Beirut entwickelte sich zu einem Finanzzentrum. Es galt als "Paris des Nahen Ostens". Während des libanesischen Bürgerkriegs (1975–1990) wurde die Stadt im erheblichen Maße zerstört. Die Frontlinie zog sich mitten durch das Zentrum und teilte Beirut in einen muslimischen Westen und einen christlichen Osten. Im Juni 1982 drang Israel in den Libanon ein; der Westen Beiruts wurde 10 Wochen lang belagert und beschossen (Libanonfeldzug). Israel zwang die PLO am 21. August zum vollständigen Abzug; dieser fand unter Aufsicht einer multinationalen Schutztruppe statt. Am 17. September 1983 beschoss die US Navy erstmals Stellungen der Syrer in der Nähe von Beirut. Die multinationale Friedenstruppe verließ allerdings 1983 Libanon, nachdem am 23. Oktober 1983 bei zwei Bombenanschlägen auf die multinationalen Hauptquartiere, die der Hisbollah zugeschrieben werden, 241 US-Soldaten und 58 Franzosen getötet worden waren. 1985 richtete Israel eine Schutzzone im Vorfeld der israelischen Grenze ein. Bei einem Autobombenanschlag am 8. März 1985, der dem schiitischen geistlichen Führer Scheich Muhammad Hussein Fadlallah galt, wurden 80 Menschen getötet und 256 verletzt. Im Oktober 1990 endete der Bürgerkrieg. Beirut wurde großteils wieder neu aufgebaut. Vor 1975 war die Innenstadt Beiruts Handels- und Vergnügungszentrum und interkonfessioneller Treffpunkt. In den mehrheitlich konfessionell bestimmten Stadtteilen war weniger öffentliches Leben. Die Innenstadt von Beirut war ein Ort der Begegnung und friedlichen Koexistenz, für die die Stadt jahrzehntelang Symbol gewesen war. In den ersten Kriegswochen wurde die Innenstadt bei zermürbenden Straßenkämpfen hochgradig zerstört; sie verfiel im Laufe der Jahre und Kampfhandlungen zu einer Brachfläche und war ein unpassierbares Niemandsland, kontrolliert von Milizen und Scharfschützen. Die besondere Topographie Beiruts - die Innenstadt liegt in einer Mulde - begünstigte, dass man Kämpfe in der Innenstadt von anderen Stadtteilen aus beobachten konnte. Während der 16 Jahre Bürgerkrieg gab es zahlreiche Friedensbemühungen sowie kurze oder längere Feuerpausen. Die Hauptkampfhandlungen und somit die gravierendsten Zerstörungen gab es im Stadtzentrum und entlang der Demarkationslinie ("Green Line“), die West- und Ost-Beirut trennte. Die von einer Religionszugehörigkeit geprägten Viertel entmischten sich von den jeweils anderen Religionen. Der libanesische Schriftsteller Raschid al-Daif beschrieb die Stimmung der Beiruter Bevölkerung während des Krieges wie folgt: "… Der Krieg war dann aber kein Kampf von Arm gegen Reich, sondern von Arm und Reich gegen Reich und Arm. Palästinenser bekämpften sich untereinander, Syrer kämpften mit Palästinensern gegen Christen, dann mit Christen gegen Palästinenser. Schließlich die Christen untereinander und gegen die Drusen, alle miteinander und gegeneinander – wer sollte das verstehen? […] Am Ende haben wir über die gelacht, die versucht haben, die Zustände zu analysieren." Nach 16 Jahren Krieg hatten die jüngeren Bewohner kein Bild, keine 'mental map’ der Innenstadt oder der jeweils anderen Seite. Stadtgebiete ohne Zugang hatte man 'ausgeblendet' und auf der eigenen Seite neue öffentliche Räume - z.B. Handelsplätze - geschaffen. Die religiöse Entmischung hat (Stand 2004) Bestand; einige Stadtgebiete Beiruts haben kaum Überschneidungen mit anderen Stadtteilen. Beim Attentat auf Hariri am 14. Februar 2005 in Beirut starben 23 Menschen, darunter Hariri. Am 13. Juli 2006 griff Israel im Verlauf des Libanonkrieges 2006 den Flughafen der Stadt an. Bei diesem und weiteren Luftangriffen wurden viele Libanesen getötet; Stadtteile (vor allem im Süden Beiruts), Verkehrswege und Infrastruktur wurden beschädigt oder zerstört. Bei Terroranschlägen am 12. November 2015 wurden mehr als 40 Menschen getötet. Zu den Anschlägen bekannte sich der Islamische Staat. Stadtentwicklung. Während die Stadtentwicklung bis ca. 1840 auf ein relativ kleines Areal beschränkt war, fand unter spätosmanischer Herrschaft eine Ausdehnung auf die Bereiche außerhalb der Stadtmauern statt. Die zunächst sehr lose Bebauung verdichtete sich im Laufe der Zeit, vor allem entlang der wichtigen Ausfallstraßen nach Tripoli im Norden, Damaskus im Osten und Sidon im Süden. Innerhalb der Stadtmauern wurden unter spätosmanischer Herrschaft zwei Durchgangsstraßen geschaffen. Während der Mandatszeit baute man diese Schneisen mit der Implementierung eines sternenförmigen Hausmannschen Straßenschemas aus, so dass das mittelalterliche Beirut fast vollständig überformt wurde. Die Stadt wuchs aufgrund von Zuwanderungsbewegungen schnell an und es kam neben der Ausdehnung nach Süden zu einer Verdichtung in den zentrumsnahen Quartieren. Das vorrangig muslimische West-Beirut im April 1983 Der Bürgerkrieg (1975–1990) führte neben der Zerstörung der Bausubstanz zu umfangreichen Vertreibungsprozessen, die eine verstärkte religiöse Segregation der Stadt entlang der "Green Line" zur Folge hatte. Für den Wiederaufbau des Stadtzentrums wurde 1994 die private, als Aktiengesellschaft organisierte Wiederaufbaugesellschaft Solidere von Rafik Hariri gegründet. Der Name Solidere steht für "Société libanaise pour le développement et la reconstruction de Beyrouth" (Gesellschaft für die Entwicklung und den Wiederaufbau von Beirut). Der zerrütteten Struktur der Gesellschaft sollte der erste Gedanke eines Wiederaufbaus gewidmet sein: Nach Ende des Konfliktes besteht vor allem die Notwendigkeit einer sozialen Normalisierung. Die ersten Schritte zum Wiederaufbau sind dennoch meist physischer Natur. In Beirut versuchte man, durch Aufräumarbeiten der Kriegsruinen die Lücken, die im Stadtbild entstanden waren, möglichst schnell, zumindest städtebaulich zu beseitigen. Erste Wiederaufbaupläne gab es bereits während des Bürgerkriegs – innerhalb längerer Friedensphasen 1977 und 1983 –, die allerdings bei Wiederaufnahme der Kämpfe aufgegeben werden mussten. Erst 1991, nach dem Friedensabkommen von Tai’if, wurde mit der Unterstützung des Multimilliardärs und späteren Ministerpräsidenten Hariri das damals größte Büro im Nahen Osten, Dar al-Handasah, mit ersten Studien zum Wiederaufbau von Beirut beauftragt, dessen Ergebnisse man noch im gleichen Jahr der Öffentlichkeit präsentierte. Trotz der Kritik von Intellektuellen und zahlreichen Eigentümern in den betroffenen Stadtgebieten veränderte sich die Studie, die 1994 als endgültiger Masterplan vorgestellt wurde, kaum. Realisiert wurden die Planungen vom so genannten Beirut Central District, kurz BCD, durch die Aktiengesellschaft Solidere, die sich mittlerweile von einer Wiederaufbau- zu einer Immobiliengesellschaft gewandelt hat und deren Hauptaktionär der ehemalige Ministerpräsident Hariri war. Neben Solidere war der staatliche Wiederaufbaurat (Council for Development and Reconstruction, CDR) die wichtigste Institution im Wiederaufbau. Das CDR entstand bereits 1977 nach nur zwei Jahren Bürgerkrieg und sollte als ausführendes Organ des Planungsministeriums den raschen Wiederaufbau auf allen Ebenen vereinfachen und sicherstellen. Vor dem Beginn der Wiederaufbauarbeiten wurden die Eigentümer der Grundstücke innerhalb des BCD kurzerhand enteignet und mit Anteilen an der Firma Solidere entschädigt. Aufgrund der schlechten wirtschaftlichen Lage im Nachkriegslibanon verkauften die meisten entschädigten Alteigentümer oder Eigentümergemeinschaften ihre Anteile wieder: an Solidere. Flüchtlinge, die während des Krieges leer stehende Gebäude der Innenstadt besetzt hatten, erhielten je nach Verhandlungsgeschick unterschiedlich hohe Entschädigungszahlungen, und räumten so nach und nach ebenfalls das BCD frei. So wurde eine Privatgesellschaft mit dem Wiederaufbau der Innenstadt von Beirut beauftragt. Dies führte zu einer Art Privatisierung der Innenstadt – und zog zahlreiche Proteste nach sich, weil Teile der Bevölkerung sich mit den Wiederaufbauplänen für die Innenstadt nicht identifizieren konnten. Die Wiederaufbaupläne umfassen ein 1,8 Millionen Quadratmeter großes Areal und konzentrieren sich ausschließlich auf die Innenstadt von Beirut. Die Zerstörung entlang der ehemaligen Demarkationslinie außerhalb des BCD oder einzelne punktuelle Zerstörungen in der restlichen Stadt werden von den Wiederaufbauplänen von Solidere nicht berücksichtigt. Solidere legte der gesamten Planung einen Masterplan zugrunde. Nicht zuletzt aus Prestigegründen wurden – und werden nach wie vor – für einzelne Projekte internationale Realisierungs- und Ideenwettbewerbe veranstaltet. Die Aufgabe von Solidere bestand dabei von Anfang in der Organisation und Neustrukturierung der gesamten Infrastruktur des Areals der Innenstadt. Gleichzeitig aber hatte Solidere die totale Entscheidungsgewalt darüber, was gebaut werden sollte oder was abgerissen werden konnte. Bauwerke. Da in Beirut und dem Libanon viele religiöse Strömungen zusammentreffen, findet man eine große Anzahl bedeutender Sakralbauten. Die Mohammed-al-Amin-Moschee ist eine in den 2000er Jahren neu gebaute sunnitische Moschee. Diese steht unmittelbar Nachbarschaft zur maronitischen St.-Georgs-Kathedrale, der Hauptkirche des Erzbistums Beirut. Bis zur Einweihung der Mohammed-al-Amin-Moschee war die Al-Omari-Moschee die bedeutendste Moschee in der Innenstadt. Diese war vor ihrer Umwidmung zu einer Moschee die St.-Johannes-Kathedrale. Die St.-Georgs-Kathedrale der griechisch-orthodoxen Kirche befindet sich etwa 80 Meter nördlich der maronitischen Georgskirche auf der östlichen Seite des Sāhat an-Nadschma, der Sternplatzes. 200 Meter westlich des Platzes liegt die Kirche Saint Louis des Pères Capucins, die Bischofskirche des 1953 errichteten lateinischen Apostolischen Vikariats Beirut. Die Amir-Assaf-Moschee‎ befindet sich neben der Al-Omari-Moschee. Auf dem Sāhat an-Nadschma, dem Sternplatz steht das bekannteste Wahrzeichen der Stadt, der Uhrenturm aus osmanischer Zeit. Weiterhin befindet sich dort das Parlamentsgebäude des Libanons. Das frühere Holiday Inn Hotel Beirut, Schauplatz schwerer Gefechte im Libanesischen Bürgerkrieg, ist eine Hochhausruine im Zentrum und Symbol des Krieges beziehungsweise gegen diesen. Museen und Grabungen. Ausstellungsstücke des archäologischen Museums unter der griechisch-orthodoxen Kirche St. Georg Im Stadtteil Aschrafija wurde 1961 das Nicolas Sursock Museum eröffnet. Ein archäologisches Museum befindet sich direkt unter der griechisch-orthodoxen Georgskirche, wo bei Ausgrabungen Funde aus der hellenistischen Zeit, der römisch-byzantinischen Epoche, dem Mittelalter und aus der Zeit des Osmanischen Reichs gemacht wurden. Das römische Bad ist eine öffentlich sichtbare Ausgrabung einer römischen Therme. Film und Theater. Der Kinofilm Caramel von Regisseurin und Hauptdarstellerin Nadine Labaki spielt in einem Beauty-Salon in Beirut und zeigt das Alltagsleben von fünf Frauen in Libanon. Caramel wurde bisher in 50 Länder verkauft. Caramel zeigt das Leben in Beirut zwischen der Orientierung an westlichen Idealen und Mode und den alten Familientraditionen und religiösen Werten. Der Film Falafel ist Michel Kammouns erster Spielfilm, eine sozialpolitische Untersuchung über die Lebensweise im neuzeitlichen Libanon. In den 1960er und 1970er Jahren wurden im Piccadilly-Theater im Stadtteil Hamra die Musicals der berühmten Brüder Mansour und Assi Rahbani mit Fairuz in den Hauptrollen aufgeführt. Am al-Burdsch - Place des Martyrs (Märtyrerplatz; auch Kanonenplatz genannt) befindet sich in unmittelbarer Nähe zum Rathaus das Opernhaus Beirut. Deutschsprachige Institutionen. Daneben gibt es in der Stadt Niederlassungen der Friedrich-Ebert-Stiftung und der Heinrich-Böll-Stiftung. Verkehr. Der Flughafen von Beirut befindet sich im Süden der Stadt. Für den öffentlichen Verkehr bestand von etwa 1905 bis etwa 1965 ein Straßenbahnnetz. Bis zum Bürgerkrieg bestand in Libanon ein von Beirut ausgehendes Eisenbahnnetz mit Strecken u.a. nach Syrien und zeitweise bis nach Palästina (heutiges Israel). Als Folge des Bürgerkriegs verkehrt heute im gesamten Libanon kein Schienenverkehrsmittel mehr. Söhne und Töchter der Stadt. Berühmte Söhne Beiruts sind unter anderem der Schauspieler Keanu Reeves, der Sänger Mika, der Autor Elias Khoury, der Hisbollah-Führer Hassan Nasrallah sowie der Fußballspieler Youssef Mohamad. Bildschirmtext. Bildschirmtext (kurz Btx oder BTX; in der Schweiz Videotex) war ein interaktiver Onlinedienst. Er kombinierte Telefon und Fernsehschirm zu einem Kommunikationsmittel. BTX wurde in Österreich im Juni 1982 eingeführt, in der Bundesrepublik Deutschland ab dem 1. September 1983 bundesweit. Heute hat Bildschirmtext seine Bedeutung aufgrund der Konkurrenz durch das offene Internet verloren, inzwischen ist der Dienst in den meisten Ländern eingestellt. In der breiten Bevölkerung wurde und wird Bildschirmtext oft mit dem Fernseh-Videotext verwechselt, wozu auch beitrug, dass der Dienst in der Schweiz "Videotex" (ohne t am Ende) hieß. Deutschland. Vorgestellt wurde Btx bereits 1977 vom damaligen Postminister Kurt Gscheidle auf der Internationalen Funkausstellung in Berlin. Es war in Deutschland unter der Leitung von Eric Danke entwickelt worden, der später Vorstandsmitglied von T-Online wurde. Eric Danke war 1975 durch eine Fachveröffentlichung über Samuel Fedida und PRESTEL auf die ursprünglich britische Technologie aufmerksam geworden. 1980 startete ein Feldversuch mit jeweils etwa 2.000 Teilnehmern in Düsseldorf mit Neuss und Berlin. Am 18. März 1983 unterzeichneten die Regierungschefs der Länder in Bonn den Staatsvertrag über Bildschirmtext. Der Vertrag stellte es jedem Interessenten frei, unter Beachtung bestimmter Vorschriften als Anbieter von Bildschirmtext aufzutreten. Die Deutsche Bundespost startete 1983 einen interaktiven Online-Dienst, der anfangs ein spezielles Btx-Gerät erforderte. 1983 gab es neben der Btx-Leitzentrale in Ulm Btx-Vermittlungsstellen in Düsseldorf, Hamburg, Frankfurt am Main, München und Stuttgart. Geplant war der Ausbau auf 150 Btx-Vermittlungsstellen. Die erwarteten Nutzerzahlen wurden allerdings nie erreicht. So sollten es 1986 rund eine Million sein, tatsächlich waren es aber nur 60.000. Die Million wurde erst zehn Jahre später erreicht, nachdem Btx ab 1995 mit dem neuen T-Online-Angebot inklusive E-Mail und Internet-Zugang gekoppelt worden war. 1993 wurde Btx Bestandteil des neu geschaffenen Dienstes Datex-J. Am 31. Dezember 2001 wurde der ursprüngliche Btx-Dienst offiziell abgeschaltet. Eine abgespeckte Variante für Online-Banking wurde bis zum 10. Mai 2007 betrieben. Österreich. In Österreich gab es Btx seit Juni 1982. Die Eigenentwicklung MUPID, ein spezielles Terminal zur Nutzung der Btx-Dienste, wurde von der damaligen PTV selbst entwickelt und konnte von den Nutzern angemietet werden. Die Btx-Anschlusskosten betrugen im März 1984 rund 150 öS und die monatliche Grundgebühr lag bei 70 öS. Der Dienst wurde Ende November 2001 eingestellt. Schweiz. Der Dienst wurde in der Schweiz als "Videotex" (ohne t am Ende) bezeichnet. Von der damaligen PTT in den 1980er Jahren gestartet, wurde er ab 1995 von SwissOnline betrieben. Am 30. September 2000 wurde Videotex eingestellt. Weitere Länder. Die Basis für den BTX-Standard legte das britische Prestel, welches in erweiterter Form unter dem Namen Prestel Plus in Schweden und als weltweit erfolgreichstes System Minitel in Frankreich verbreitet war. In Dänemark gab es die Bezeichnung "Teledata", in Italien "Videotel" und in den Niederlanden "Viditel". In Spanien hieß das auf BTX basierende System "Ibertex". Technik. Das deutsche Btx erforderte ursprünglich spezielle Hardware, die bei der Post gekauft oder gemietet werden musste. Die Übertragung der Daten erfolgte über das Telefonnetz mit einem Modem (DBT-03) oder Akustikkoppler, die Darstellung am Fernsehgerät, PC-Monitor oder an einem speziellen Btx-Gerät. Btx verwendete, wie auch das französische Minitel, ursprünglich den britischen PRESTEL-Standard, danach den CEPT-Standard T/CD 6-1. Später wurde auf den abwärtskompatiblen KIT-Standard (Kernel for Intelligent communication Terminals) umgestellt, der sich jedoch nie richtig durchsetzen konnte. CEPT erlaubte die Übertragung von Grafikseiten mit einer Auflösung von 480×240 Bildpunkten, wobei 32 aus 4.096 Farben gleichzeitig und DRCS (Dynamically Redefinable Character Set) dargestellt werden konnten. Das entsprach den technischen Möglichkeiten der frühen 1980er Jahre. Viele Btx-Seiten des PRESTEL-Standards ähnelten den heute noch eingesetzten Videotext-Seiten mit einer Pseudografik aus farbigen ASCII-Zeichen. In Btx wurden anfangs immer ganze Bildschirmseiten mit einer Geschwindigkeit von 1200 bit/s übertragen. Die Anforderung einer Seite durch den Benutzer erfolgte mit 75 bit/s. Die möglichen Zugangsgeschwindigkeiten wurden mit den Fortschritten in der Modemtechnik auch von Seiten der Bundespost erhöht. Das Herunterladen von Daten und Computerprogrammen (Telesoftware), vor allem Shareware und Programm-Aktualisierungen, war mit Hilfe eines Softwaredecoders und eines PCs möglich. Adresssystem. Die Seiten wurden mittels einer Nummer adressiert, der ein Stern (*) vorangestellt und ein in diesem Zusammenhang als „Raute“ bezeichnetes Doppelkreuz (#) nachgestellt war (z. B. *30000#). Durch die Endmarke # konnte das System so bei Adressnummereingaben unterscheiden, ob die Eingabe abgeschlossen ist oder noch weitere Ziffern folgen, wodurch ein größerer (theoretisch unendlicher) Zahlenraum verfügbar blieb (Gegenbeispiel: Telefonie mit Rufnummerneingabe ohne Endmarke). Zifferneingaben ohne vorangestellten Stern wurden als Kommandos interpretiert, die etwa auf eine andere Seite führten (z. B. „23“) oder einen kostenpflichtigen Seitenaufruf bestätigen (zur Vermeidung versehentlicher Bestätigung stets „19“). Die Kombination *# führte zur vorangegangenen Seite zurück. DBT-03 und andere Modems. Das DBT-03-Modem erlaubte eine Datenübertragungsrate von 1.200 bit/s zum Teilnehmer und 75 bit/s vom Teilnehmer zur Zentrale ("ITU-T V.23-Standard"). Die Zugangsauthentifizierung erfolgte über die zwölfstellige Anschlusskennung (die als "Hardwarekennung" im ROM eines DBT-03 fest einprogrammiert war) und ein Passwort, welches der Benutzer selbst festlegen konnte. Später wurde dann auch der Betrieb mit anderen Modems erlaubt (nach Beantragung einer sogenannten "Softwarekennung"). Somit konnte mit jedem gewöhnlichen PC und einem sogenannten Softwaredecoder (zum Beispiel "Amaris") Btx genutzt werden. Auch für den C64 und C128 gab es einen Btx-Hardwaredecoder für den Expansionport und Anschluss an das DBT-03. Da in den DBT-03-Modems die Anschlusskennung fest programmiert war, war eine Öffnung nicht rechtens. Die Modems waren verplombt, eine Öffnung konnte nur durch Zerstörung dieser Plombe erfolgen. Ein Originalgerät hatte eine gelbe, nach einer Instandsetzung bekam es eine blaue Plombe. Die Einwahlnummer war festverdrahtet auf die Telefonnummer 190. Unterschied zum Internet. Beim deutschen Btx-System waren die Seiten der Anbieter in der Urdatenbank auf einem zentralen Rechnersystem des Herstellers IBM in der Btx-Leitzentrale Ulm abgelegt und wurden von dort abgerufen, wenn die örtlichen Bildschirmtext-Vermittlungsstellen (Vst) diese nicht in ihrem Datenbank- bzw. Teilnehmerrechner vorrätig hatten. Die örtlichen Knoten konnten die Seitenwünsche zu 95 bis 98 Prozent bedienen. Die Seitendatei im örtlichen Knoten unterlag einem Alterungsverfahren. Wenig angeforderte Seiten wurden mit häufig angeforderten überschrieben. Die Seiten sogenannter „Externer Rechner“ bildeten dabei eine Ausnahme. Sie existierten nicht statisch in der Datenbank der Btx-Leitzentrale, sondern wurden vom Rechner des Anbieters jeweils dynamisch erzeugt und über die Btx-Vst an den Benutzer übertragen. Die Externen Rechner waren im weltweiten Verbund per X.25 (Datex-P) an die Btx-Vstn angebunden. Diese Möglichkeit wurde nur von wenigen Großanbietern (z. B. Quelle), als Vorläufer des Onlinebankings jedoch von zahlreichen Banken genutzt. Kosten und Angebote. Die Kosten für den Nutzer entstanden durch den Abruf einer Seite; der Anbieter hatte bei der Tarifierung weitgehend freie Hand. Er konnte neben dem kostenlosen Abruf wahlweise eine seitenabhängige Vergütung (0,01 DM bis 9,99 DM) erheben, oder eine zeitabhängige Vergütung (0,01 DM bis 1,30 DM pro Minute). Die Kosten wurden über die Telefonrechnung der Nutzer abgerechnet. Btx bot bereits zahlreiche Dienste an, die heute über das Internet verfügbar sind. So konnten Btx-Teilnehmer miteinander online diskutieren (Chat), sich gegenseitig elektronische Mitteilungen in Form von Btx-Seiten zum Preis von 30 Pfennig pro Seite schicken und aktuelle Nachrichten abrufen (Ticker, Homepages). Weiterhin gab es für Anbieter die Möglichkeit, ihr Angebot über einen sogenannten „Externen Rechner“ dynamisch zu gestalten. Dabei wurde über eine „Übergabeseite“ aus dem normalen Seitenbestand von der jeweiligen Btx-Vermittlungsstelle eine Verbindung über Datex-P zum Rechner des Anbieters aufgebaut. Von da ab übernahm dann dieser Rechner die Kontrolle über den am Endgerät angezeigten Seiteninhalt. Dieses Angebot wurde vor allem von Banken (als Vorläufer des heutigen Online-Bankings), Versandhäusern und der Reiseindustrie (Lufthansa, Interflug, Deutsche Bundesbahn oder Deutsche Bahn) benutzt. Die Btx-Kunden konnten so interaktiv ihre Bankgeschäfte tätigen oder Online-Bestellungen im Versandhandel aufgeben. Auch Bundesbehörden wie das Arbeitsamt waren über Btx erreichbar. Das Einstellen von Angeboten in Btx war relativ teuer, daher wurde es von Privatpersonen kaum genutzt. Anbieter waren vor allem große Firmen wie Versandhandel und einzelne mittelständische Unternehmen. Auch schon bei Btx war eine ständig steigende Zahl von Anbietern aus dem Erotikbereich zu beobachten. Der Chaos Computer Club war ebenfalls mit einem Angebot in Btx vertreten. Der Club fand eine Reihe von technischen Schwachstellen in Btx und versuchte, die Grenzen des Systems aufzuzeigen, unter anderem durch den im bundesweiten Fernsehen berichteten Btx-Hack. Trotzdem blieb Btx der große Erfolg verwehrt, was vor allem an der restriktiven Politik, hohen Nutzungsgebühren (1983: 8,00 DM monatliche Grundgebühr und eine Anschlußgebühr von 55,00 DM) und einer festen Vertragsbindung mit der Bundespost lag. Diese gestattete für die Verwendung von Btx nur spezielle, von der Post zugelassene Hardware, die zu hohen Preisen separat erworben werden musste. Obwohl CEPT-Decoder frühzeitig für damals verbreitete Heimcomputer wie den C64 erhältlich waren, verweigerte die Post die Zulassung dieser Geräte. In Frankreich, wo die notwendige Hardware von der France Télécom z. T. kostenlos bereitgestellt wurde, erfreute sich das dortige Minitel hingegen großer Beliebtheit. Das Post-Monopol auf diese Endgeräte, Modems und Telefone fiel erst Anfang der 1990er Jahre. Zu dem Zeitpunkt verbreiteten sich private Mailbox-Netze wie FidoNet oder MausNet, die einige der über Btx verfügbaren Dienste für Privatleute weitaus günstiger anbieten konnten. Im Bereich des Electronic Banking gab es lange Zeit keine Alternative zu Btx. 1993 wurde Btx Bestandteil des neu geschaffenen Datex-J-Dienstes, um die Netzinfrastruktur von der Informationsdienstleistung zu trennen. Datex-J mit Btx wurde 1995 neugestaltet zu T-Online. Die Tochterfirma T-Online International AG betrieb das System noch bis Mai 2007, allerdings unter dem Namen „T-Online Classic“ und mit starker Verschlüsselung, wobei eine nach ITSEC „E4/hoch“ zertifizierte Verschlüsselungsbibliothek Transport/S im Einsatz war. Damit war auch der Zugang mit dem „T-Online Classic Client“ über das Internet weltweit unter der URL „classicgate.t-online.de“ unter Port 866 möglich. Alternativ betrieben einige Banken auch das CAT-System (CEPT Access Tool). Ein eigener CAT-Server emulierte dabei den bisherigen Zugang bei T-Online. Bön. Bön (, tibetisch transliteriert: Bon) war die vorherrschende Religion in Tibet, bevor im 8. Jahrhundert der Buddhismus ins Land gelangte. Für die Anhänger bedeutet das Wort "Bön" so viel wie „Wahrheit, Wirklichkeit“ und „Wahre Lehre“. Mit dem Vordringen des Buddhismus in Tibet kam es zu einer gegenseitigen Beeinflussung der Religionen "(→ Synkretismus)", wobei aus dem Bön z. B. rituelle und schamanistische Elemente oder Bön-Gottheiten in den Buddhismus gelangten, umgekehrt der Buddhismus die Philosophie des Bön tiefgehend beeinflusste. Die Bön-Religion konnte sich trotz ihrer in den letzten Jahrhunderten gegenüber der buddhistischen Staatsreligion Tibets stets benachteiligten Position aufrechterhalten und wurde 1977 als spirituelle Schule von der tibetischen Exilregierung und vom Dalai Lama förmlich anerkannt. 2006 wurde das Yungdrung-Bön Zentrum Shenten Dargyé Ling in Frankreich als Kloster einer eigenständigen Glaubensgemeinschaft vom Staat anerkannt. Geschichte. Bön-Kloster Khyungpori Tsedruk in Nord-Tibet (AGT) Es ist schwierig, verlässliche Quellen zum Bön zu finden. Darüber hinaus besteht das Problem, dass buddhistische Quellen die Geschichte des Bön völlig anders darstellen als die Bön-Religion selbst. Die Bön-Religion geht der Legende nach auf Tönpa (Meister) Shenrab Miwoche zurück, der in einem Land namens Tagzig in Zentralasien lebte. Durch ihn sollen die früher in Tibet verbreiteten Tieropfer durch symbolische Opferungen abgelöst worden sein. Später breitete sich Bön nach Westen aus und war Staatsreligion in Zhang-Zhung, einem Land im Westen Tibets, das den Berg Kailash umgibt. Es verbreitete sich auch im östlich gelegenen Tibet. Die Königsdynastie von Zhang-Zhung ging im 7. Jahrhundert (vermutlich 634) mit der Eroberung durch den zentraltibetischen König Songtsen Gampo und der Tötung des Königs Ligmincha (Ligmirya) in einem Hinterhalt zu Ende. Mit der Stärkung des Buddhismus in Tibet durch König Trisong Detsen (ab 755) wurde die Bön-Religion zunehmend verdrängt und verfolgt. Bis dahin waren zum Beispiel Bön-Lamas für die Bestattungsrituale des Königs zuständig. Unter König Langdarma (Regierungszeit 836-842) besserte sich die Lage der Bönpa (Anhänger des Bön). Langdarma wurde jedoch von einem fanatischen Buddhisten ermordet, woraufhin das tibetische Königreich zerfiel. Durch die Verfolgung wurden die Bönpa in die Randbereiche des tibetischen Kulturraumes abgedrängt, zum Beispiel nach Amdo im Nordosten sowie Dolpo in Nepal. Mit dem Beginn der so genannten „neuen Übersetzungstradition“ (Sarma) des Buddhismus im 11. Jahrhundert reorganisierten sich Bön und die buddhistische Nyingma-Tradition, beide auf der Grundlage wieder aufgefundener Lehrtexte (Terma), die in der Zeit der Verfolgung und der Wirren versteckt worden waren. Es wurde ein systematisches Lehrgebäude geschaffen und die Ordination der Mönche und Nonnen, ähnlich jener der buddhistischen Schulen, verbreitete sich. Im Jahr 1405 wurde das Kloster Menri von Bön-Lama Nyammed Sherab Gyeltshen gegründet. Menri und das später gegründete Kloster Yungdrung Ling wurden zu den bedeutendsten Klöstern des Bön. Die Bön-Tradition, wie auch die buddhistischen Traditionen Tibets, litten ab Mitte des 20. Jahrhunderts, nach dem Einmarsch der chinesischen Armee in Tibet, unter Verfolgungen, besonders während der chinesischen Kulturrevolution (1966-76). Kein tibetisches Kloster hat die Wirren dieser Zeit unbeschädigt überstanden. Das bedeutendste Bön-Kloster, Menri, wurde in Dolanji im indischen Exil neu gegründet. 1977 erkannte der Dalai Lama Bön als fünfte spirituelle Schule Tibets an, und wie für die vier Hauptschulen des tibetischen Buddhismus wurden zwei Vertreter des Bön in das tibetische Exilparlament berufen. Ungeachtet dessen, dass der neue Bön dem Buddhismus stark angepasst ist, kam es in der Geschichtsschreibung des Bön immer wieder dazu, dass der Buddhismus als Fremdreligion angesehen wurde, als allgemeine Katastrophe diffamiert wurde und auch als kollektives schlechtes Karma der Tibeter angesehen wurde. Gegenwärtige Verbreitung. Abgesehen vom indischen Exil, z. B. im Menri-Kloster, ist Bön auch noch in seinem Ursprungsland eine lebendige Religion. Die Bön-Religion ist immer noch relativ verbreitet. Besonders in Ost-Tibet leben auch heutzutage viele Anhänger des Bön. Vereinzelte Kommunen gibt es auch in West- und Zentraltibet, sowie unter Nomaden. Auch in Nepal ist der Bön noch zu finden. Seit den 80er Jahren des 20. Jahrhunderts wurden in Tibet einige Bön-Klöster wieder aufgebaut und von Mönchen besiedelt, so das tibetische Menri Kloster und das Kloster Yungdrung Ling. Schulen. In der Geschichte des Bön treten drei unterscheidbare Formen der Religion auf, die alle Bön genannt werden. Die historisch gesehen erste Form ist eine schamanistische Religion, heute auch 'primitiver Bön' genannt. Die zweite Form ist der Yungdrung-Bön, auch ewiger oder glückverheißender Bön genannt, der auf den Buddha Shenrab Miwoche zurückgehen soll. Die dritte Form ist der reformierte Bön, der auf wiederaufgefundenen Texten (Terma) beruht. Trotz der unterschiedlichen historischen Phasen und Formen der Religion sind die drei Formen nicht eindeutig abgrenzbar, sondern es handelt sich wahrscheinlich trotzdem um dieselbe Religion, obwohl dies auch wissenschaftlich umstritten ist. Alle drei Formen werden heutzutage noch praktiziert. Alter Bön. Alter Bön wird auch Schwarzer Bön genannt. Da der alte Bön sich stark vom neuen Bön unterscheidet, ist wissenschaftlich umstritten, ob es sich hier überhaupt um die gleiche Religion handelt. Die Priester des Alten Bön wurden jedoch im vorbuddhistischen Tibet auch schon Bönpa genannt, so dass auch der Alte Bön häufig zur Bön-Religion gezählt wird. In Tibet gibt es bis heute eine weite Verbreitung von volksreligiösen Glaubens- und Ritualformen. Diese werden in der westlichen Literatur zumeist auch als Bön angesehen, obwohl dies in der tibetischen Kultur keinerlei Grundlage hat und diese Religionsform von Wissenschaftlern mittlerweile auch als die "namenlose Religion" bezeichnet wird. Der so genannte Alte Bön bezieht sich auf vorbuddhistische Riten und religiöse Anschauungen, deren System sich sowohl vom Buddhismus als auch vom späteren Bön stark unterscheidet. Während der spätere Bön z. B. die Lehre von Karma und Reinkarnation angenommen hat, spielte im frühen Bön das Leben nach dem Tod eine große Rolle, so dass Begräbnisriten besonders wichtig waren. Die komplexen Rituale des alten Bön wurden z. B. beim Tod eines Königs oder hochgestellter Adliger und Minister ausgeführt, um diese in das nachtodliche Land der Freude zu begleiten. In dieser auch unter Bön gefassten Religionsform spielen beseelte Naturphänomene (vgl. Animismus) und deren Beherrschung oder Besänftigung durch magische Rituale eine wichtige Rolle. Die Ursprünge des Alten Bön gehen in die vorgeschichtliche Zeit zurück. Die Bön-Religion hat, obwohl durch den Buddhismus beeinflusst, ein eigenes Pantheon von Göttern, Geistern, Dämonen und anderen Wesen, die in Ritus und Kult eine wichtige Rolle spielen. Die magischen Rituale des Bön drehen sich z. B. um Tranceerlebnisse, Opfer an die Götter, Wahrsagen, Reisen in die Unterwelt, Wetterzauber, den medialen Kontakt zu Geistern und die Abwehr von Dämonen. Viele Riten des Alten Bön wurden bis heute erhalten und die Praktiken der tibetischen Volksreligion gehen oft bis in Zeit des alten Bön zurück. Der tibetische Buddhismus selbst wurde stark durch Bön beeinflusst, so bedienten sich z. B. die Gelugpa der Bön-Zauberer (Nagspa), um Dämonen durch diese abwehren zu lassen, und die Praktiken des tibetischen Staatsorakels stammen wohl auch aus vorbuddhistischer Zeit. Ewiger Bön/Yungdrung-Bön. Bön-Mani-Stein mit dem Mantra "Om ma tri mu ye sa le du". Yungdrung Bön (Swastika-Bön), auch „Ewiger Bön“ genannt, geht auf den Lehrmeister (Tönpa) Shenrab Miwoche zurück. Dieser wird von den Bön auch als Buddha betrachtet. Tapihritsa und Drenpa Namkha sind historische Meister der Yungdrung-Bön-Tradition. Die Lehren dieser Schule umfassen mehr als 200 Werke. Darunter finden sich auch Schriften zu Philosophie, Heilkunde, Metaphysik und Kosmologie. Besonders die philosophischen Grundlagen stehen denen der Buddhisten nahe. Lehren über Karma (das Gesetz von Ursache und Wirkung) und über Mitgefühl lösten die Glaubenselemente des Alten Bön ab. Die Gottheiten des Alten Bön wurden im Sinne von Meditations-Gottheiten (Yidam-Gottheiten) integriert oder als Schützer der Lehre eingebunden, während z. B. die Gottheiten und Dämonen des Bön umgekehrt auch von den Nyingmapa übernommen wurden. a>, Abt eines Bön-Klosters in Nepal Die Lehren des Yungdrung-Bön teilen sich auf in die so genannten „Neun Wege“, „Vier Pforten und eine Schatzkammer“ und in die „Äußeren, Inneren und Geheimen Unterweisungen“. Der letzte Teil der Lehren teilt sich auf in Sutra, Tantra und Dzogchen, ganz ähnlich derer, die auch in der Nyingma-Schule des tibetischen Buddhismus zu finden sind. Es gibt aber Hinweise, dass Dzogchen, die Lehren über die „Große Vollkommenheit“, bereits vor Einführung der buddhistischen Lehren in Tibet, in Zhang Zhung existierten. Die Dzogchen-Lehren der Nyingma gehen im Unterschied dazu auf Garab Dorje aus dem Land Oddiyana zurück. Unter den Lehren der Bön finden sich auch die Belehrungen des „Zhang Zhung Nyan Gyud“, die "mündlichen Unterweisungen von Zhang Zhung", die ältesten Überlieferungen eines Dzogchen-Meditationssystems der Bön. Bekannte gegenwärtige Lehrer der Tradition des Yungdrung-Bön sind der ehrwürdige Yongdzin Tenzin Namdak Rinpoche und Tenzin Wangyal Rinpoche, einer seiner wichtigsten Schüler. Beide Meister lehren auch im Westen. Der vielleicht berühmteste Bön-Meister der jüngeren Vergangenheit, der im Kontext der Rime-Bewegung auch viele buddhistische Schüler hatte, war Shardza Tashi Gyaltsen. Bei seinem Tod trat nach der Überlieferung das Phänomen des Regenbogenkörpers auf, demnach soll sich sein Körper in "Licht" (d. h. seine energetischen Bestandteile) aufgelöst haben. Neuer Bön. Neuer Bön, auch „reformierter Bön“ genannt, steht systematisch zwischen Yungdrung-Bön und der buddhistischen Nyingma-Tradition. Er entwickelte sich ab dem 14. Jahrhundert aus einer Synthese von Lehrelementen des Yungdrung-Bön und Elementen der Nyingma, vor allem durch das wechselseitige Auffinden von Termas der Bön- und der Nyingmatradition. Ein berühmter Meister des neuen Bön war Bönzhig Yungdrung Lingpa, als Nyingma-Tertön auch unter dem Namen Dorje Lingpa (1346–1405) bekannt. Der neue Bön ist gekennzeichnet durch eine Fülle von komplexen Ritualen, die durch die Bön-Mönche ausgeführt werden. Die Rituale selbst unterscheiden sich nicht besonders stark von buddhistischen Ritualen, jedoch werden sie teilweise umgekehrt ausgeführt, indem z. B. anders als im Buddhismus eine rituelle Umkreisung entgegen dem Uhrzeigersinn stattfindet, und die angerufenen Gottheiten, deren Namen, Ikonographien, Mythen und Mantren nicht buddhistisch, sondern nur der Bön-Religion eigen sind. Oberflächlich gesehen unterscheidet sich jedoch die Ausbildung eines Bön-Mönches nicht von der buddhistischer Mönche. Beispielsweise kann ein Geshe-Grad durch Studium von Logik und Philosophie erworben werden, das Ziel der Praxis, Dzogchen, unterscheidet sich nicht allzu sehr vom buddhistischen Dzogchen, in der Liturgie wird Padmasambhava angerufen und den Altar schmückt häufig auch ein Bild des Dalai Lama. Lehren. Die Lehren des Bön basieren auf sehr umfangreichen Schriften (Kanjur und Tanjur) und können auf verschiedene Art gegliedert werden. Eine der Gliederungen ist jene in die "Neun Wege" des Bön, welche in groben Zügen den neun Fahrzeugen der Nyingma-Tradition entsprechen. Die Grundsätze der Lehre sind dieselben wie im auf Buddha Shakyamuni zurückgehenden Buddhismus, der nach Bön-Auffassung in einem früheren Leben Schüler von Tönpa Shenrab Miwo war. Trotz dieser Nähe zum Buddhismus hat der Bön jedoch auch noch eigene Lehren, Rituale, Mythen und Götter, so dass er als eigenständige Religion gilt. Andere Einteilungen der Schriften sprechen von vier Pforten und einer Schatzkammer oder von fünf Schatzkammern. Die neun Wege betreffen unterschiedliche Priestergruppen, die unterschiedliche Aufgaben wahrnahmen. Das Schrifttum des Bön reicht weit zurück und die Einteilungen in Kategorien von Zauber sind eine buddhisierte Form des Schrifttums. In älteren Schriften wird manchmal von anderen Kategorien gesprochen, wie z. B. Himmelsbön oder Begräbnisbön, so dass unterschiedliche Priestergruppen wohl schon unterschiedliche Aufgaben im ursprünglichen Bön wahrgenommen hatten. Praktiken. Mysterienspiele in denen Maskentänze und Gesänge aufgeführt werden, und Opfergaben dargebracht werden, gehören zu den Praktiken, die bis in die vorbuddhistische Zeit zurückreichen. Diese Tänze werden sTag dmar 'Cham, 'der Tanz des roten Tigerdämons', genannt und handeln oft von den alten Berggottheiten Tibets. Das ursprüngliche Cham war wahrscheinlich Fruchtbarkeitszauber und Dämonenaustreibung, auch anlässlich von jahreszeitlichen Festen. Die Cham-Tänze wurden vom Buddhismus übernommen und werden auch heutzutage noch aufgeführt. Ebenfalls vom Buddhismus übernommen wurde der Phurba-Kult. Phurbus, bzw. Phurbas sind magische Dolche, die in vielen Ritualen eingesetzt werden, z. B. zur Dämonenbannung, für Wetterzauber und Hagelabwehr oder zur Reinigung von schädlichen Einflüssen. Der Meister Shenrab Miwo wurde stets mit einem großen Phurbu in der Hand abgebildet. Der Phurbu wurde jedoch auch immer zu schwarzmagischen Zwecken eingesetzt, so dass Phurbu-Zauberer auch gefürchtet waren. Der Fluch der wandernden Dolche z. B. sollte dazu dienen, ein Opfer auch über größere Entfernungen zu vernichten. Dazu wird der Phurbu in den Händen gerollt, mit magischen Formeln besprochen und mithilfe des Dolch-Gottes Phurpa geschleudert, um telekinetisch das Opfer zu treffen. Zor-Rituale benutzen magische Waffen, die Zor, um schlechte Einflüsse abzuwehren. Zor sind zumeist aus Teig gemachte kleine Pyramiden, die mit magischen Kräften ausgestattet werden. Schleudert man einen Zor, so setzt er magische Kräfte frei, die den Feind oder das Unheil zerstören sollen. Fadenkreuze, Mdos, werden als Geisterfallen hergestellt. Sie bestehen aus Fäden, die geometrische Figuren an gekreuzten Holzstäben bilden. Das Herstellen von Fadenkreuzen erfordert ein komplexes Ritual, in dessen Verlauf Gottheiten eingeladen werden, das Fadenkreuz zu beziehen. Fadenkreuze sind häufig über Haustüren angebracht, um das Haus und seine Bewohner zu schützen. Nach einer bestimmten Zeit wird das Fadenkreuz zumeist mit den darin gefangenen Dämonen verbrannt. Sehr verbreitet sind Amulette und Talismane, die auch als Schmuck getragen werden, oft aus Koralle und Türkis oder in silbernen Behältnissen. Diese Glücksbringer werden von Männern, Frauen, Kindern und in allen sozialen Schichten getragen, häufig trägt man mehrere davon. Schädliche Magie, die gegen Menschen gerichtet ist, soll von schwarzen Bönpa oder Nagspa (Zauberern) gegen Entlohnung ausgeübt werden. Auch hier gibt es viele Formen von Schadenzauber. Beispielsweise wird das Horn eines Wildyaks rituell mit einer Zeichnung des Opfers und mannigfaltigen unreinen Substanzen gefüllt, mit schwarzem Faden verschlossen und im Fundament der Behausung des Opfers verborgen. Mythologie. Die Bön-Überlieferung ist reich an Mythen unterschiedlichster Art. Sie beziehen sich auf Kosmogonie, Theogonie und Genealogie, und es gibt eine Fülle von Schöpfungsmythen. Viele Mythen stellen sich konkret, andere philosophisch dar. Die verschiedenen Mythen sind regional gefärbt und bieten eine reichhaltige Vorstellungswelt, die trotz Gemeinsamkeiten kaum zu klassifizieren ist. Ursprünglich hatte wohl jede Region lokale Ahnengötter, und es gibt Hinweise, dass es auch vielfältige regionale Hauptgottheiten gab. Viele alte Mythen wurden im Laufe der Zeit als Symbole verstanden, die dem Heilsweg angehören. In der Mythologie des Bön spiegelt sich der Prozess von sich aneinander angleichenden und sich wandelnden Glaubensvorstellungen und Kulten, die auch Erinnerungen an eine vorliterarische Überlieferung bewahrt haben. Diese beziehen sich häufig auf verschiedene Formen von Exorzismus und Magie. Da Bön ursprünglich eine Zauberreligion war, beziehen sich auch viele detaillierte Erzählungen oder Traktate, die auch rituell rezitiert wurden, auf die Ursprünge von Magie und Zaubergerätschaften. Das Erzählen von Mythen hatte auch liturgische Zwecke, die rituelle Erzählung eines Ursprungsmythos sollte z. B. die Rückkehr zu einem ursprünglichen Zustand bewirken. Wiederkehrende mythologische Motive sind die Unterscheidung zwischen dem Wohltuenden und dem Schädlichen, die Paarbildung von Gottheiten oder mythischen Wesen und die Einteilung in gute, böse und ambivalente Gottheiten. Auch die Sakralität von Bergen und Grotten oder von heiligen Orten ist ein immer wiederkehrendes Motiv. In einigen Überlieferungen werden die Berge auch mit den einzelnen Göttern identifiziert und stellen wahrscheinlich auch Berg-Ahnen dar. Die heiligen Berge werden als Seele des Landes und als Schutz für die Menschen angesehen. Der wichtigste Berg in der Bön-Mythologie ist der Kailash (auch Ti Se). Der Kailash ist der Sitz der Himmelsgötter, Mittelpunkt der Welt und verbindet Himmel und Erde. Er wird als riesiger Chörten aus Kristall oder als Palast bzw. als Sitz eines Palastes bestimmter Götter gedacht. Er hat vier Tore, die von Wächtern der Himmelsrichtungen bewacht werden. Die heiligen Orte sind nicht nur real, sondern auch spirituelle Orte haben eine große Bedeutung in der Bön-Mythologie. So wird Tagzig Olmo Lungring als reines Land gedacht, das jenseits der unreinen Existenz liegt, und in dem alle Erleuchteten geboren werden. Olmo Lungring ist von ewigem Frieden und ewiger Freude erfüllt und wird als ewig während und unzerstörbar angesehen. Der Yungdrung-Bön hat hier seinen Ursprung und auch Buddha Shenrab Miwo wurde hier geboren. Schöpfungsmythen des Bön stellen unterschiedliche mythologische Aspekte dar, in denen man z. B. auch zurvanitische oder shivaitische Einflüsse feststellen kann und es erscheinen theoretisch-philosophische Spekulationen. Diese Spekulationen der Bön-Mythologie beziehen sich in den unterschiedlichen Mythen häufig auf Ursprünge, von Göttern, Menschen, Stammeshäuptern. Der Ursprung wird zumeist als Zustand leerer Potentialität gedacht, aus dem ein Ur-Ei hervorgeht, das die Welt als Dasein hervorbringt oder die Welt des Daseins wird von einem ersten Wesen bewirkt. Das Pantheon des Bön. In der Bön-Religion gilt jede natürliche Erscheinung als beseelt, so dass es eine fast unüberschaubare Fülle von Geistern, Göttern, Dämonen und Fabelwesen gibt. Diese Wesen leben an Orten, die in der Kosmologie des Bön benannt werden. Einige von ihnen sind für diese Religion besonders wichtig und überregional verbreitet. Der Vogel Khyung. Khyung ist ein mythischer Vogel, der einen Stierkopf trägt, mit der Sonne und den Gewitterwolken verbunden ist, als mächtiger Schlangentöter gilt und eine der Hauptschutzgottheiten des Bön ist, da er gegen die Feinde des Bön kämpft. Er ähnelt dem indischen Garuda. Einerseits gilt er als Reittier des dämonischen dMu-Königs, andererseits begleitet er den hohen Weltgott Sangs po 'bum khri. Westlich des Kailash ist dem Khyung ein Tal geweiht, in dem den Mythen nach ein Silberschloss gestanden hat. Dieses Silberschloss kommt als heilige Stätte in den meisten Gebeten und Rezitationen des Bön vor. Sangs po 'bum khri. Der Gott Sangs po 'bum khri ist eine Himmelsgottheit und gilt als Lenker (Srid pa) des gegenwärtigen Weltzeitalters. Man unterscheidet bei diesem Gott fünf Aspekte des Srid pa: Des Körpers, der Rede, des Verdienstes, der Werke und des Geistes. Der Gott ist von weißer Farbe und sein Thron wird von einem weißen Khyung mit grünen Flügeln getragen. Wie die Götter anderer Religionen hat auch er Funktionen des Erbarmens, der Erlösung und der Errettung. Bevor der Bön in Tibet entstand, soll es schon den Gott des Himmels gegeben haben, von dem dieser Bön-Gott auch abstammt. Andere Namen für diesen Gott sind Lha chen sangs po dkar po, weißer reiner großer Geist, oder Bum khri gyal po in Westtibet. Es wird vermutet, dass dieser Himmelsgott mit dem zoroastrischen Ahure Mazda verwandt sein könnte oder von diesem abstammt, u.a. auch deshalb, weil der Bön Einflüsse von Zoroastrismus und Manichäismus aufweist. Buddhistisches Bild von Palden Lhamo Palden Lhamo. Palden Lhamo ist eine wichtige Göttin des tibetischen Buddhismus, sie ist jedoch älteren Ursprungs und wird deshalb auch von Bönpa verehrt. Im Bön wird sie auch Srid (pa'i) rgyalmo genannt. Sie gilt als Beschützerin der Bön-Tradition, als große Mutter und als Symbol der Rhythmen von Leben und Tod. Pehar. Pehar oder Pekar ist eine wichtige Orakelgottheit, die auch von Buddhisten verehrt wird. Neben der Orakelfunktion hat er noch weitere vielfache Aufgaben, Würden und Pflichten, z. B. als Beschützer der Lehre, Religionswächter, Vernichter von Feinden, Freund der Heiligen und als Wächtergott über Zhang Zhung. Der buddhistischen Legende nach soll er von Padmasambhava gezwungen worden sein, den Buddhismus zu schützen. Lha, bTsan, gNyan. Lha sind himmlische Wesen, die als gutartig gelten. In jeder Himmelsregion gibt es unterschiedliche Gruppen von Lha. Die Lha verkörpern die göttliche Macht, mit der die Menschen verbunden sind. Einige Lha leben nicht in himmlischen Regionen, sondern sind z. B. der Gott des Herdes oder der Gott des Innen oder Außen. Die tibetische Hauptstadt Lhasa (Ort der Lha) ist nach den Lha benannt, und der König wurde als Enkel des Lha angesehen. bTsan sind Gottheiten, die als besonders mächtig angesehen werden und auch im Buddhismus noch eine Rolle spielen. Sie leben in der Region zwischen Himmel und Erde, können aber auch an anderen Orten erscheinen, wie z. B. in Wäldern, Felsen, Gletschern oder Schluchten. Die Erscheinung der bTsan ist die von wilden Jägern, die von roter Farbe sind und auf roten Pferden reiten. Der König der bTsan trägt eine Kriegsrüstung, ein Banner und eine Schlinge. Die bTsan gelten als Beherrscher der unzähligen gNyan. bTsan können den Mythen nach Herzinfarkte und tödliche Krankheiten hervorrufen. Die gNyan symbolisieren die Mitte und halten sich beispielsweise in Sonne, Mond, den Sternen, in Wolken, Regenbogen, im Wind und in den Felsen auf. Die gNyan sind auch mit den Himmelsrichtungen verbunden. Der Herrscher der gNyan trägt eine Rüstung mit Türkis-Ornamenten, ein Siegesbanner mit einer Gans darauf und hat ein kristallfarbenes Antlitz. Buddha. a> (Statue am Niederrhein in der Darstellung als Buddha Shakyamuni, "Der Weise aus dem Geschlecht der Shakya") Buddha (Sanskrit, m., बुद्ध, buddha, wörtlich „Erwachter“, chinesisch "fó" 佛, vietnamesisch "Phật" 佛 oder "bụt" 𠍤) bezeichnet im Buddhismus einen Menschen, der Bodhi (wörtlich „Erwachen“) erfahren hat, und ist der Ehrenname des indischen Religionsstifters Siddhartha Gautama, auch „Buddha“ genannt, dessen Lehre die Weltreligion des Buddhismus begründet. Im Buddhismus versteht man unter einem Buddha ein Wesen, welches aus eigener Kraft die Reinheit und Vollkommenheit seines Geistes erreicht und somit eine grenzenlose Entfaltung aller in ihm vorhandenen Potenziale erlangt hat: vollkommene Weisheit ("Prajna") und unendliches, gleichwohl distanziertes Mitgefühl ("Karuna") mit allem Lebendigen. Er hat bereits zu Lebzeiten Nirvana verwirklicht und ist damit nach buddhistischer Überzeugung nicht mehr an den Kreislauf der Reinkarnation (Samsara) gebunden. Das Erwachen ist von transzendenter Natur, mit dem Verstand nicht zu erfassen, ist „tief und unergründlich wie der Ozean“, weshalb sich diese Erfahrung einer Beschreibung mit sprachlichen Begriffen entzieht. Ihre Qualität ist für Menschen, die diese Erfahrung nicht selbst gemacht haben, nicht nachzuvollziehen. Eine Buddha-Erfahrung tritt nach der buddhistischen Tradition sehr selten auf; daher ist ein Zeitalter, in dem ein Buddha erscheint, ein „glückliches Zeitalter“. Denn es gibt sehr viele „dunkle“ Zeitalter, in denen kein Buddha auftritt und deshalb auch keine Lehre der endgültigen Befreiung befolgt werden kann. Der Buddha des nächsten Zeitalters soll Maitreya sein, während Kashyapa, Kanakamuni und Dipamkara drei Buddhas der Vergangenheit waren. Insbesondere der tantrische Buddhismus (Vajrayana) kennt eine Fülle von Buddhas, die auch transzendente Buddhas, Adibuddhas ("fünf Dhyani-Buddhas") oder Tathagatas genannt werden. Das Wort „Buddha“. Das Wort „Buddha“ bedeutet „der Erwachte“ und ist im Sanskrit und in den von ihm abgeleiteten mittelindischen Sprachen die Stammform des Partizips der Vergangenheit der Verbalwurzel "budh" („erwachen“). Der Nominativ des Wortes „Buddha“ lautet im Sanskrit "Buddhas", in der mittelindischen Pali-Sprache "Buddho", und einige Forscher verwenden deshalb diese Formen. Da jedoch in der abendländischen Wissenschaft indische Wörter nach dem Vorbild der einheimischen Lexikographen und Grammatiker nicht in der Nominativ-, sondern in der Stammform gebraucht werden, hat sich allgemein die Form Buddha eingebürgert. Weil Sanskrit eine indogermanische Sprache ist, findet sich die Verbalwurzel "budh" bzw. indogermanisch *bheudh mit der Bedeutung „erwachen, beachten, aufmerksam machen“ in abgewandelter Form auch in vielen europäischen Sprachen wieder. So sind beispielsweise das deutsche Wort „Gebot“ und das Wort „Buddha“ linguistisch miteinander verwandt. Buddha Shakyamuni (Siddhartha Gautama). Die genauen Lebensdaten Siddhartha Gautamas sind umstritten. Die ältesten Berechnungen ergaben ein Todesjahr, das nach westlicher Zeitrechnung 544 oder 543 v. Chr. entspricht. Später nahm man als Geburtszeit den Mai 563 v. Chr. und als Todeszeit den Mai/April 483 v. Chr. an; dieser Berechnung lag der in Chroniken überlieferte Abstand von 218 Jahren zwischen dem Tod des Buddha und der Herrscherweihe Ashokas zugrunde. Die neuere Forschung hat diese traditionellen Datierungen aber aufgegeben. Gegenwärtig werden unterschiedliche Datierungsvorschläge diskutiert, alle um Jahrzehnte später als die herkömmlichen Annahmen. Die heute vorherrschenden Ansätze für die Todeszeit schwanken zwischen ca. 420 und ca. 368 v. Chr. Siddhartha Gautama lebte in Nordindien; als sein Geburtsort gilt Lumbini. Sein Vater Suddhodana war Oberhaupt einer der regierenden Familien in der kleinen Adelsrepublik der Shakya im heutigen indisch-nepalischen Grenzgebiet. Hinweise auf den Königsstand von Buddhas Vater sowie auf den Prunk und die Zeremonien an dessen Hof, denen man besonders in späteren Texten begegnet, sind höchstwahrscheinlich Übertreibungen; es ist jedoch wahrscheinlich, dass die Familie zumindest dem Adel angehörte. Seine Mutter hieß Maya und starb sieben Tage nach der Geburt des Kindes. Die Eltern nannten ihren Sohn "Siddhattha" (in Pali) bzw. "Siddhartha" (in Sanskrit), was „der sein Ziel erreicht hat“ bedeutet. Der Beiname "Shakyamuni" bezieht sich auf seine Herkunft und bedeutet „der Weise aus dem Geschlecht von Shakya“. Nach der Geburt Siddharthas wurde vorausgesagt, dass er entweder ein Weltenherrscher oder aber, wenn er das Leid der Welt erkennt, jemand werden würde, der Weisheit in die Welt bringt. Er lebte in einem Palast wo ihm alles, was zum Wohlleben gehörte, zur Verfügung stand und wo er der Überlieferung nach von allem weltlichen Leid abgeschirmt wurde. Sein Vater sah in ihm den idealen Nachfolger und wollte verhindern, dass Siddhartha sich von seinem Reich abwendete. Daher wurde ihm nur selten gestattet, den königlichen Palast zu verlassen und wenn, wurden die Straßen zuvor frei von Alten, Kranken und Sterbenden gemacht. Siddhartha wurde von der indischen Gottheit Brahma drauf hingewiesen, dass er in seinem letzten Leben versprach, sein nächstes Leben zu nutzen, um die Menschheit vom Leid zu befreien. Siddhartha begegnet einem Greis, einem Fieberkranken, einem Leichnam und einem Mönch Eines Tages sah er sich aber doch der Realität des Lebens und dem Leiden der Menschheit gegenübergestellt und erkannte eine Sinnlosigkeit in seinem bisherigen Leben: Die Legende berichtet von Begegnungen mit einem Greis, einem Fieberkranken, einem verwesenden Leichnam und schließlich mit einem Mönch, woraufhin er beschloss, nach einem Weg aus dem allgemeinen Leid zu suchen. (Allerdings ist es bei der „Biographie“ des Buddha sehr schwierig, Legenden von Fakten zu trennen). Mit 29 Jahren, bald nach der Geburt seines einzigen Sohnes Rahula („Fessel“), verließ er sein Kind, seine Frau Yasodhara und seine Heimat und wurde auf der Suche nach der Erlösung ein Asket. Sechs Jahre lang wanderte der Asket Gautama durch das Tal des Ganges, traf berühmte religiöse Lehrer, studierte und folgte ihren Systemen und Methoden und unterwarf sich selbst strengen asketischen Übungen. Da ihn all dies seinen Zielen nicht näher brachte, gab er die überlieferten Religionen und ihre Methoden auf, suchte seinen eigenen Weg und übte sich dabei vor allem in der Meditation. Er nannte dies den „Mittleren Weg“, weil er die Extreme anderer religiöser Lehren meidet. Siddhartha Gautama „erreichte“ in seinem 35. Lebensjahr das vollkommene Erwachen (Bodhi). Dies geschah am Ufer des Neranjara-Flusses bei Bodhgaya (nahe Gaya im heutigen Bihar) unter einer Pappelfeige, die heute als "Bodhi-Baum", „Baum der Weisheit“, verehrt wird. Ein Ableger eben jenes Feigenbaumes wurde der Legende nach auf Ceylon eingepflanzt, während der indische Baum verdorrte. Von dort wurde später wiederum ein Ableger entnommen und an die ursprüngliche Stelle in Indien (nahe dem 1931 ausgegrabenen Tempelbezirk von Sarnath) gepflanzt. Nach dem Bodhi-Erlebnis hielt Gautama, der Buddha, im Wildpark bei Isipatana (dem heutigen Sarnath) nahe Benares vor einer Gruppe von fünf Asketen, seinen früheren Gefährten, seine erste Lehrrede. Diese fünf wurden damit die ersten Mönche der buddhistischen Mönchsgemeinschaft ("Sangha"). Von jenem Tage an lehrte und sprach er 45 Jahre lang vor Männern und Frauen aller Volksschichten, vor Königen und Bauern, Brahmanen und Ausgestoßenen, Geldverleihern und Bettlern, Heiligen und Räubern. Die bis heute in Indien bestehenden Unterscheidungen durch die Kastenordnung nahm er als Gegebenheit hin, betonte aber ihre Unwesentlichkeit für das Beschreiten des Wegs, den er lehrte. Im Alter von 80 Jahren verstarb Gautama der Legende nach in Kushinagar (im heutigen indischen Bundesstaat Uttar Pradesh), nachdem er ein verdorbenes Gericht verzehrt haben soll. Auf dem ersten buddhistischen Konzil („der Fünfhundert“), das sich unmittelbar nach dem Verlöschen des Erleuchteten in einer Höhle bei Rajagriha (Rājagṛha, Pali: Rājagaha) zusammenfand, soll Ānanda, der für sein hervorragendes Gedächtnis bekannt war, die Lehrreden wiedergegeben haben. Mahakashyapa trug das Abidharma vor und Upali die Mönchsregeln. Die Überlieferung berichtet, auf diesem Konzil sei ein Kanon der Lehre (Dharma) und einer der Ordensdisziplin (Vinayapitaka) zusammengestellt worden. Ein Text, der darüber berichten soll, Kāśyapasaṃgīti-sūtra ist im chinesischen Kanon erhalten (Taishō Nr. 2027). Aus religionsphänomenologischer Sicht verkörpert Gautama als religiöse Autorität den Typus des „Stifters“, des „Mystikers“ und den des „Lehrers“. Der amerikanische Universalhistoriker Jerry H. Bentley wies wie bereits viele andere Wissenschaftler vor ihm auf eklatante Parallelen im Leben Jesu und Buddhas hin. Samyaksambuddha. Der „Vollkommene Vollständig-Erwachte“ (pali: "sammásambuddha") bezeichnet einen Menschen, der die zur Befreiung und Vollendung führende Lehre, nachdem sie der Welt verloren gegangen ist, aus sich selbst heraus wiederentdeckt, selbst verwirklicht und der Welt lehrt und auf Grund seiner umfangreichen Fähigkeiten und Verdienste zahlreiche Menschen zur Befreiung führen kann. Die allen Buddhas eigentümliche, jedes Mal wieder von ihnen aufs Neue entdeckte und der Welt enthüllte Lehre bilden die Vier Edlen Wahrheiten "(sacca)" vom Leiden, seinem Entstehen, seinem Erlöschen und des zur Befreiung vom Leiden führenden achtfachen Pfades. Der zur Verwirklichung des Sammasambuddha führende Weg ist (nach ursprünglicher Lehre) der Weg des Bodhisattva. Pratyekabuddha. Der „Einzel-Erwachte“, (pali: "paccekabuddha") bezeichnet einen Menschen, der zwar auch die zur Erlösung führende Lehre aus sich selber heraus wiederentdeckt und selber verwirklicht, sie jedoch nicht verkündet, andere Menschen nicht belehrt, sie nicht zur Befreiung führt. Sravakabuddha. Der „als Hörer-Erwachte“ (pali: "savakabuddha") oder Arhat, bezeichnet einen Menschen, der die zur Befreiung führende Lehre und Praxis als Schüler eines Sammasambuddha oder ebenfalls Sravakabuddha erfährt und voll verwirklicht. Er ist wiederum in der Lage, den Dhamma/Dharma anderen Menschen zu lehren und sie zur Befreiung zu führen. Sonstiges. Der Zahntempel in Kandy (Sri Lanka): Hier wird ein Zahn des Buddha Siddhartha Gautama aufbewahrt. Die Heilige Stadt Kandy ist mit ihrem Tempelbezirk seit 1988 Teil des UNESCO-Weltkulturerbes. Booten. Booten (englische Aussprache; von engl.: "to boot"), Hochfahren, Starten oder auch Urladen bezeichnet das Laden des Betriebssystems eines Computers, wie es in der Regel nach dem Einschalten erforderlich ist. Das Wort "booten" ist eine Kurzform von "bootstrap loading", sinngemäß "laden per Bootstrap". Der Bootprozess eines Computers verläuft in mehreren Stufen. Nach dem Einschalten wird zunächst ein einfaches Programm aus einem kleinen Festwertspeicher (ROM) gelesen. Dieses Programm erlaubt das Starten eines komplexeren Programms, das dann beispielsweise ein Betriebssystem startet. Bei frühen Computern war oftmals kein Festwertspeicher (ROM) vorhanden, hier musste die erste Stufe des Bootprozesses mittels Maschinenkonsole (Tastatur) von Hand in den Speicher geschrieben werden, damit das Betriebssystem dann von externen Speichergeräten eingelesen werden konnte. Auf allen aktuell gebräuchlichen Computern und computergesteuerten Geräten/Anlagen beginnt der Bootprozess automatisch nach dem Einschalten. Da ein Computer während des Bootvorgangs schon ein Programm lädt, das er zum Funktionieren benötigt, zieht er sich bildlich gesprochen wie Münchhausen an den eigenen "Haaren" aus dem Sumpf. Im Englischen sind es die Stiefelschlaufen (engl. "bootstraps"), daher kommt der Begriff "Booten". Großrechner. Auf Großrechnern der Firma IBM wird der Bootvorgang traditionell Initial Program Load (IPL) genannt. Dieser Gebrauch des Begriffs "Initial Program Load" ist allerdings mittlerweile überholt, denn man ist dazu übergegangen, diesen Begriff für die erste Stufe der Ausführung eines mehrstufigen Bootladeprogramms zu verwenden. Personal Computer (x86-Architektur). Beim Booten eines PCs beginnt der Prozessor mit der Abarbeitung des an einer festgelegten Speicheradresse im ROM abgelegten BIOS (bei neuen PCs oder Macs das EFI); dieses führt einen Test der angeschlossenen Geräte durch (POST) und untersucht Speichergeräte wie Diskettenlaufwerke, Festplatten oder CD-/DVD-Laufwerke etc. auf das Vorhandensein gültiger Bootsektoren. Die Suchreihenfolge, nach der auf diese Geräte zugegriffen wird, kann verändert werden. Der Bootsektor einer Festplatte wird als "Master Boot Record" bezeichnet (MBR). In den Bootsektoren von Speichermedien wird durch die Installationsroutinen der Betriebssysteme oder auch bei der Installation von Bootmanagern ein ausführbarer Code (Computerprogramm) gespeichert. Die Programmanweisungen aus dem jeweiligen Bootsektor veranlassen das Laden und Ausführen weiterer Software. Aufgrund seiner geringen Größe (Umfang 512 Bytes) kann der Code des Master Boot Record nur elementare Operationen ausführen. Er ist daher häufig sehr auf ein Betriebssystem abgestimmt oder als erste von mehreren Stufen eines komfortableren Bootmanagers anzusehen und lädt weiteren Code von anderer Stelle nach. Intel hat mit PXE eine Methode spezifiziert, um PCs (IA-32) und Itanium-Rechner (IA-64) über ein Rechnernetz booten zu können. Varianten des Bootens. Die Beschleunigung beruht darauf, dass ein Neustart, wie bei einem vollständigen Herunterfahren, vermieden wird und ausschließlich der zuvor gesicherte Speicherinhalt geladen wird, also eine Art "warm boot" mit Speichererhalt möglich wird. Fehler beim Booten. Wenn ein Computer nicht bootet (nicht mehr hochfährt), kann das diverse Ursachen haben. Fehlerquellen sind neben Einstellungen des BIOS Wenn der Computer erstmals nach einer Konfigurationsänderung gestartet wird, sollte zum Beispiel geprüft werden, dass keine Kabel fehlen oder falsch angeschlossen sind, die einzelnen Komponenten, wie Arbeitsspeicher (RAM) oder Steckverbindungen, richtig Kontakt haben und die Jumper der IDE- oder SCSI-Festplatten richtig gesetzt sind. Wenn keine Bildschirmanzeige erscheint, so kann auf x86-Rechnern die Anzahl der vom BIOS ausgegebenen Pieptöne einen Hinweis auf den Fehler geben (siehe unter Liste der BIOS-Signaltöne). Teilweise werden durch das BIOS Fehlertexte, wie z. B. codice_1 auf dem Bildschirm angezeigt. Zur Fehlersuche kann ein Live-System wie Knoppix oder UBCD eingesetzt werden. Bologna. Bologna ist eine italienische Universitätsstadt und Hauptstadt der Metropolitanstadt Bologna sowie der Region Emilia-Romagna mit Einwohnern (Stand). Geografie. Bologna liegt am Fuße des Apennin, zwischen den Flüssen Reno und Savena. Antike. Die Geschichte der Stadt beginnt vermutlich als etruskische Gründung mit dem Namen Felsina im 6. Jahrhundert v. Chr., Spuren älterer dörflicher Siedlungen der Villanovakultur in der Gegend reichen bis ins 11./10. Jahrhundert v. Chr. zurück. Die etruskische Stadt wuchs um ein Heiligtum auf einem Hügel und war von einer Nekropole umgeben. Im 4. Jahrhundert v. Chr. eroberten die keltischen Boier Felsina. 191 v. Chr. wurde die Stadt von den Römern erobert, 189 v. Chr. wurde sie als Bononia römische Colonia. 3000 latinische Familien siedelten sich unter den Consuln Lucius Valerius Flaccus, Marcus Atilius Seranus und Lucius Valerius Tappo an. Der Bau der Via Aemilia 187 v. Chr. machte Bononia zum Verkehrsknotenpunkt: Hier kreuzte sich die Hauptverkehrsstraße der Poebene mit der Via Flaminia minor nach Arretium (Arezzo). 88 v. Chr. erhielt Bononia über die Lex municipalis wie alle Landstädte Italiens volles römisches Bürgerrecht. Nach einem Brand wurde sie unter Nero wieder aufgebaut. Wie für eine römische Stadt typisch, war Bononia schachbrettartig um die zentrale Kreuzung zweier Hauptstraßen angelegt, des Cardo mit dem Decumanus. Sechs Nord-Süd- und acht Ost-West-Straßen teilten die Stadt in einzelne Quartiere und sind bis heute erhalten. Während der römischen Kaiserzeit hatte Bononia mindestens 12.000, möglicherweise jedoch bis 30.000 Einwohner, zahlreiche Tempel und Thermen, ein Theater und ein Amphitheater, sodass sie der Geograph Pomponius Mela zu den fünf üppigsten ("opulentissimae") Städten Italiens zählte. Mittelalter. Nach einem langen Niedergang wurde Bologna im 5. Jahrhundert unter dem Bischof Petronius wiedergeboren, der nach dem Vorbild der Jerusalemer Grabeskirche den Kirchenkomplex von Santo Stefano errichtet haben soll. Nach dem Ende des Römischen Reiches war Bologna ein vorgeschobenes Bollwerk des Exarchats von Ravenna, geschützt von mehreren Wallringen, die jedoch den größten Teil der verfallenen römischen Stadt nicht einschlossen. 728 wurde die Stadt von dem Langobardenkönig Liutprand erobert und damit Teil des Langobardenreichs. Die Langobarden schufen in Bologna einen neuen Stadtteil nahe Santo Stefano, bis heute "Addizione Longobarda" genannt, in dem Karl der Große bei seinem Besuch 786 unterkam. Im 11. Jahrhundert wuchs Bologna als freie Kommune erneut. 1088 wurde der "Studio" gegründet – heute die älteste Universität Europas –, an der zahlreiche bedeutende Gelehrte des Mittelalters lehrten, unter anderem Irnerius. Da sich die Stadt weiter ausdehnte, erhielt sie im 12. Jahrhundert einen neuen Wallring, ein weiterer wurde im 14. Jahrhundert fertiggestellt. 1164 trat Bologna in den Lombardenbund gegen Friedrich I. Barbarossa ein, 1256 verkündete die Stadt die "Legge del Paradiso" (Paradiesgesetz), das Leibherrschaft und Sklaverei abschaffte und die verbleibenden Sklaven mit öffentlichem Geld freikaufte. 50.000 bis 70.000 Menschen lebten zu dieser Zeit in Bologna und machten die Stadt zur sechst- oder siebtgrößten Europas nach Konstantinopel, Córdoba, Paris, Venedig, Florenz und möglicherweise Mailand. Das Stadtzentrum war ein Wald von Türmen: Schätzungsweise 180 Geschlechtertürme der führenden Familien, Kirchtürme und Türme öffentlicher Gebäude bestimmten das Stadtbild. Bologna entschied sich 1248, die Weizenausfuhr zu verbieten, um die Lebensmittelversorgung seiner schnell wachsenden Bevölkerung zu sichern. Das kam einer Enteignung der venezianischen Grundbesitzer, vor allem der Klöster gleich. 1234 ging die Stadt noch einen Schritt weiter und besetzte Cervia, womit es in direkte Konkurrenz zu Venedig trat, das das Salzmonopol in der Adria beanspruchte. 1248 dehnte Bologna seine Herrschaft auf die Grafschaft Imola, 1252–1254 sogar auf Ravenna aus. Dazu kamen 1256 Bagnacavallo, Faenza und Forlì. Doch der schwelende Konflikt zwischen Venedig und Bologna wurde 1240 durch die Besetzung der Stadt durch Kaiser Friedrich II. unterbrochen. Nachdem sich Cervia 1252 jedoch wieder Venedig unterstellt hatte, wurde es von einer gemeinsamen ravennatisch-bolognesischen Armee im Oktober 1254 zurückerobert. Venedig errichtete im Gegenzug 1258 am Po di Primaro eine Sperrfestung. Etsch, Po und der für die Versorgung Bolognas lebenswichtige Reno wurden damit blockiert – wobei letzterer von der See aus wiederum nur über den Po erreichbar war, und die Etsch bereits seit langer Zeit durch Cavarzere von Venedig kontrolliert wurde. Mit Hilfe dieser Blockade, vor allem an der Sperrfestung Marcamò – Bologna riegelte Marcamò vergebens durch ein eigenes Kastell ab – zwang Venedig das ausgehungerte Bologna zu einem Abkommen, das die Venezianer diktierten. Das bolognesische Kastell wurde geschleift. Ravenna stand Venedigs Händlern wieder offen, Venedigs Monopol war durchgesetzt. Im Jahre 1272 starb in Bologna nach mehr als 22-jähriger Haft im "Palazzo Nuovo" (dem heutigen "Palazzo di re Enzo") der König Enzio von Sardinien, ein unehelicher Sohn des Staufer-Kaisers Friedrich II. Wie die meisten Kommunen Italiens war Bologna damals zusätzlich zu den äußeren Konflikten von inneren Streitigkeiten zwischen den "Ghibellinen" und den "Guelfen" ("Staufer-" bzw. "Welfen-Partei", Kaiser gegen Papst) zerrissen. So wurde 1274 die einflussreiche ghibellinische Familie "Lambertazzi" aus der Stadt vertrieben. Als Bologna 1297 verstärkt gegen die Ghibellinen der mittleren Romagna vorging, fürchtete Venedig das erneute Aufkommen einer konkurrierenden Festlandsmacht. Das betraf vor allem Ravenna. Venedig drohte der Stadt wegen Nichteinhaltung seiner Verträge und Bevorzugung Bolognas. Doch der Streit konnte beigelegt werden. Zu einer erneuten Handelssperre seitens Venedigs (wohl wegen der Ernennung Baiamonte Tiepolos zum Capitano von Bologna) kam es Ende 1326. Bologna hatte sich dem Schutz des Papstes unterstellt, nachdem es 1325 von Modena in der Schlacht von Zappolino vernichtend geschlagen worden war. Im Mai 1327 wurden alle Bologneser aufgefordert, Venedig innerhalb eines Monats zu verlassen. 1328–1332 kam es zu Handelssperren und Repressalien. Ravenna blieb dabei der wichtigste Importhafen der Region, den z. B. Bologna für größere Importe aus Apulien weiterhin nutzte. Während der Pest-Epidemie von 1348 starben etwa 30.000 der Einwohner. Nach der Regierungszeit Taddeo Pepolis (1337–1347) fiel Bologna an die Visconti Mailands, kehrte aber 1360 auf Betreiben von Kardinal Gil Álvarez Carillo de Albornoz durch Kauf wieder in den Machtbereich des Papstes zurück. Die folgenden Jahre waren bestimmt von einer Reihe republikanischer Regierungen (so z. B. die von 1377, die die Basilica di San Petronio und die Loggia dei Mercanti errichten ließ), wechselnder Zugehörigkeit zum päpstlichen oder Viscontischen Machtbereich und andauernder, verlustreicher Familienfehden. 1402 fiel die Stadt an Gian Galeazzo Visconti, der zum Signore von Bologna avancierte. Nachdem 1433 Bologna und Imola gefallen waren (bis 1435), verhalf Venedig dem Papst 1440/41 endgültig zur Stadtherrschaft. Bei der Gelegenheit nahm Venedig 1441–1509 Ravenna in Besitz. Um diese Zeit erlangte die Familie der Bentivoglio mit Sante (1445–1462) und Giovanni II. (1462–1506) die Herrschaft in Bologna. Während ihrer Regierungszeit blühte die Stadt auf, angesehene Architekten und Maler gaben Bologna das Gesicht einer klassischen italienischen Renaissance-Stadt, die allerdings ihre Ambitionen auf Eroberung endgültig aufgeben musste. Neuzeit. Stadtplan von Bologna um 1907 Die heutigen Stadtviertel ("quartiere") von Bologna ehemaliger Verlauf der Stadtmauer mit den verbliebenen Stadttoren Giovannis Herrschaft endete 1506, als die Truppen Papst Julius' II. Bologna belagerten und die Kunstschätze seines Palastes plünderten. Fortan, bis zum 18. Jahrhundert, gehörte Bologna zum Kirchenstaat und wurde von einem päpstlichen Legaten und einem Senat regiert, der alle zwei Monate einen "gonfaloniere" (Richter) wählte, der von acht Konsuln unterstützt wurde. Am 24. Februar 1530 wurde Karl V. von Papst Clemens VII. in Bologna zum Kaiser gekrönt. Es war die letzte vom Papst durchgeführte Kaiserkrönung. Der Wohlstand der Stadt dauerte an, doch eine Seuche am Ende des 16. Jahrhunderts verringerte die Zahl der Einwohner von 72.000 auf 59.000, eine weitere 1630 ließ sie auf 47.000 schrumpfen, bevor sie sich wieder auf 60.000 bis 65.000 einpendelte. 1564 wurden die "Piazza del Nettuno", der "Palazzo dei Banchi" und der "Archiginnasio" erbaut, der Sitz der Universität. Zahlreiche Kirchen und andere religiöse Einrichtungen wurden während der päpstlichen Herrschaft neu errichtet, ältere renoviert – Bolognas 96 Klöster sind italienischer Rekord. Bedeutende Maler wie Annibale Carracci, Domenichino und Guercino, die in dieser Periode in Bologna tätig waren, formten die "Bologneser Schule" der Malerei. Im napoleonischen Europa wurde Bologna 1796 – seit dem Ersten Koalitionskrieg vom Kirchenstaat unabhängig – zunächst Hauptstadt der kurzlebigen Cispadanischen Republik und später die nach Mailand bedeutendste Stadt in der Cisalpinischen Republik und des napoleonischen Königreichs Italien. Nach dem Fall Napoléons schlug der Wiener Kongress 1815 Bologna jedoch wieder dem Kirchenstaat zu. Die Stadt rebellierte gegen die päpstliche Restauration 1831 und erneut 1849, als es gelang, die Truppen der österreichischen Garnison zu vertreiben, die bis 1860 die Befehlsgewalt über die Stadt innehatten. Nach einem Besuch von Papst Pius IX. 1857 stimmte Bologna am 12. Juni 1859 für seine Annexion durch das Königreich Sardinien-Piemont, wodurch die Stadt Teil des vereinten Italien wurde. Zu Beginn des 20. Jahrhunderts wurden die Mauern der Stadt bis auf wenige Reste abgerissen, um der schnell wachsenden Bevölkerung Platz zu schaffen. 1940 zählte Bologna 320.000 Einwohner. Im Zweiten Weltkrieg wurde Bologna in den Kämpfen des untergehenden Deutschen Reiches mit amerikanischen, britischen und polnischen Invasionstruppen der Alliierten bombardiert und beschädigt, am 21. April 1945 fiel die Stadt an die Polen. Nach dem Krieg erholte sich Bologna schnell und ist heute eine der wohlhabendsten und stadtplanerisch gelungensten Städte Italiens. Am 2. August 1980 verübte eine Gruppe von Rechtsextremisten einen Bombenanschlag auf den Hauptbahnhof der Stadt. 85 Menschen starben, mindestens 200 wurden verletzt. 1995 wurden für diesen Anschlag zwei Mitglieder der faschistischen "Nuclei Armati Rivoluzionari" und Mitarbeiter des italienischen Geheimdienstes zu langjährigen Haftstrafen verurteilt. Beinamen. Bologna wird auch "la grassa" („die Fette“) genannt wegen des gehaltvollen Essens, für das die Stadt berühmt ist. Weitere Beinamen sind "la rossa" („die Rote“) wegen der roten Ziegel der Häuser und der vorherrschenden politischen Richtung, sowie, wegen der berühmten Universität, "la dotta" („die Gelehrte“). Bologna wird auch "la turrita" genannt, nach den vielen Geschlechtertürmen, von denen die meisten erst Ende des 19. Jahrhunderts zerstört wurden. Bauwerke und Plätze. Wahrzeichen der Stadt sind die zwei Türme, der „Torre Garisenda“ und der „Torre degli Asinelli“. Um 1300 erbaut, war letzterer mit seiner Höhe von 94,5 m damals wohl der höchste Profanbau Europas. Die beiden Türme sind mit wenigen anderen die letzten Überbleibsel von rund 180 "Geschlechtertürmen" des mittelalterlichen Bologna, die im 19. Jahrhundert zum Großteil geschleift wurden. Unter den weiteren Sehenswürdigkeiten sind die im Artikel genannten "Palazzi". Als Zentrum der Stadt gilt die Piazza Maggiore mit dem Neptunbrunnen und der "Basilika San Petronio". Diese gewaltige gotische Kirche (fünftgrößte der Welt) besitzt ein eindrucksvolles Inneres, dessen Mittelschiff 40 m hoch und 20 m breit ist. Ursprünglich als größte Kirche der Christenheit geplant, wurde der Bau, begonnen im Jahr 1390, aufgrund finanzieller Probleme bis zum heutigen Tage nicht vollendet. Im Innenraum befindet sich die Mittagslinie, 1655 eingerichtet nach Plänen des Astronomen Giovanni Domenico Cassini. In der Capella Bolognini des Domes befindet sich zudem eine beeindruckende Darstellung des Weltgerichts von Giovanni da Modena (um 1410). Der Maler des Freskos orientierte sich bei seiner Darstellung an Dantes Göttlicher Komödie und zeigt im Höllenkreis unter anderem den Propheten Mohammed, dem als Glaubensspalter von einem Teufel der Körper aufgeschlitzt wird (DC Inf. XXVIII). Die Kathedrale „San Pietro“ mit der Pietà von Alfonso Lombardi befindet sich an der Via Indipendenza. Die älteste Kirche Bolognas, die "Basilica di Santo Stefano", befindet sich in einem heute noch genutzten Klosterkomplex im historischen Zentrum der Stadt. Die Anlage verfügt über einen byzantinischen Rundbau sowie über typische romanische Kreuzgänge. Bekannt ist Bologna außerdem für seine "Arkaden". Sie erstrecken sich über 38 km und wurden ursprünglich geschaffen, um der wachsenden Bevölkerung der Stadt gerecht zu werden. Der Bau der Arkaden ermöglichte es, die oberen Stockwerke auszubauen und so neuen Wohnraum zu schaffen ohne den Handel und den Durchgangsbetrieb zu stark zu beeinträchtigen. Die Wallfahrtskirche der "Santuario della Madonna di San Luca" liegt auf dem Guardiahügel oberhalb der Stadt und bietet einen beeindruckenden Blick über die Poebene. Zur Kirche hinauf führt der mit über vier Kilometern längste Arkadengang der Welt. Der "Palazzo dell’Archiginnasio" war ursprünglich dafür geplant, alle Fakultäten der Universität unter einem Dach zu vereinen. Eindrucksvoll ist der durch den Krieg stark zerstörte und vollständig renovierte Anatomielehrsaal. Museen. Das "Museo internazionale della musica di Bologna" im Palazzo Sanguinetti beherbergt eine Sammlung musikhistorischer Exponate. Handschriften und Erstdrucke unter anderem von Padre Martini und Caccini dokumentieren den Beitrag großer Köpfe zur frühen Entwicklung der Musiktheorie und der Oper in Bologna. Portraits und kurze geschichtliche Abrisse beschreiben das Wirken von Vivaldi, Farinelli, Mozart und Johann Christian Bach in der Stadt. Das öffentlich zugängliche "Museo di Antropologia" der Universität Bologna zeichnet die Entwicklungsgeschichte des Menschen in Europa seit der Steinzeit mit besonderem Blick auf das Geschehen in Italien nach. Die Pinacoteca Nazionale di Bologna zeigt Gemälde von Raffael und Guido Reni. Bologna war Kulturhauptstadt Europas 2000. Der "Palazzo Pepoli Vecchio" beherbergt das 2012 eröffnete "Museo della Storia di Bologna". Das "Museo Geologico Giovanni Capellini" ist ein Museum für Geologie und Paläontologie; darin steht u.a. das 1909 von Andrew Carnegie gestiftete Skelett eines Diplodocus. Das Jüdische Museum Bologna erinnert an die lange Geschichte des Judentums in Bologna und in der Region. Siehe auch: Liste der Kirchen in Bologna und Synagoge Bildung. Bologna beherbergt mit der 1088 gegründeten Universität die älteste Institution dieser Art in Europa. Die etwa 80.000 Studenten stellen bei einer Gesamtbevölkerung von um die 400.000 einen bedeutenden Teil der Stadtbevölkerung und prägen die Stadt, vor allem innerhalb der historischen Stadtmauern. Die Stadt ist nicht nur bei Studenten aus allen Teilen Italiens beliebt, sondern auch bei ausländischen Studenten. Neben Erasmus-Studenten sind das vor allem Studenten aus den USA. Außerdem gibt es in der Stadt die Akademie der Bildenden Künste, an welcher unter anderem Giorgio Morandi lehrte und Enrico Marconi eine Ausbildung absolvierte. Das "SAIS Bologna Center" ist eine Außenstelle der School of Advanced International Studies (SAIS) der Johns Hopkins University. Bologna war Ort der Bolognaerklärung im Jahr 1999 und Namensgeber des Bologna-Prozess zur Reformierung und Vereinheitlichung des Europäischen Hochschulraums. Verkehr. Außerdem ist Bologna einer der größten Eisenbahnknotenpunkte Italiens. Ansässige Firmen. Im bologneser Stadtteil Borgo Panigale ist der italienische Motorradhersteller Ducati Motor Holding S.p.A. beheimatet. Sport. Bekanntester Fußballverein der Stadt ist der siebenmalige italienische Meister FC Bologna, der vor allem in der Zeit vor dem Zweiten Weltkrieg zu den erfolgreichsten Italiens gehörte. Er trägt seine Heimspiele im Stadio Renato Dall’Ara aus, welches bei zwei Fußball-Weltmeisterschaften Spielstätte war, und spielt seit dem Abstieg aus der Serie A in der Saison 2013/14 in der zweitklassigen Serie B. Im Basketball ist die Stadt mit Virtus und Fortitudo Heimat zweier Vereine, die auf nationaler wie kontinentaler Ebene Erfolge vorweisen können. Persönlichkeiten. Bekannte Persönlichkeiten der Stadt sind in der Liste von Persönlichkeiten der Stadt Bologna aufgeführt. Bayreuth. Bayreuth ist eine kreisfreie Stadt im bayerischen Regierungsbezirk Oberfranken. Die Stadt ist Sitz der Regierung von Oberfranken, des Bezirks Oberfranken und des Landratsamtes Bayreuth. Weltberühmt ist Bayreuth durch die jährlich im Festspielhaus auf dem Grünen Hügel stattfindenden Richard-Wagner-Festspiele. Das markgräfliche Opernhaus gehört seit 2012 zum UNESCO-Weltkulturerbe. Anders als der Name vermuten lässt, gehört die Stadt erst seit dem Jahr 1810 zu Bayern. Name. 1194 wurde der Ort als Baierrute in einer Urkunde des Bischofs Otto II. von Bamberg erstmals erwähnt. Der Namensbestandteil "-rute" ist vermutlich als Rodung zu deuten. Dass "Baier-" auf Zuwanderer aus dem bairischen Siedlungsraum verweisen könnte, ist umstritten und nicht belegbar. Vieles deutet darauf hin, dass die endgültige Namengebung erst nach der sekundären Ortserweiterung erfolgte und spezielle bayerische Interessen sichtbar machen sollte. Belegt sind im Bayreuther Landbuch von 1421/24 auch die Bezeichnungen Peyeruth und Peyrreute, die Vorgängerkirche der Stadtkirche wurde zunächst als „Pfarr peyr Reut“ (Reut = "Altenstadt") bezeichnet. Das „y“ des Stadtnamens taucht lange vor der Inbesitznahme der Stadt durch Bayern bereits im 15. Jahrhundert erstmals auf. Die heutige Schreibform ist 1625 im "Kulmbacher Bürgerbuch" belegt, setzte sich aber noch nicht endgültig durch. Markgräfin Wilhelmine (1709–1758) nannte die Stadt „Bareith“. Geographische Lage. Bayreuth liegt im südlichen Teil des Obermainischen Hügellands beiderseits des Roten Mains, des südlichen und längeren der beiden Quellflüsse des Mains, zwischen dem Fichtelgebirge und der Fränkischen Schweiz. Weitere Fließgewässer im Stadtgebiet sind die Warme Steinach, die Mistel, in Bayreuth „Mistelbach“ genannt, und der Sendelbach mit seinem historisch interessanten Seitenkanalsystem Tappert. Das größte stehende Gewässer ist der vom Aubach gespeiste Röhrensee. Das Zentrum der Stadt (nicht zu verwechseln mit dem dezentral gelegenen Stadtteil Altstadt) liegt mit etwa 340 Meter über NN mehr als 100 Meter tiefer als die meisten der Höhenzüge, die den Bayreuther Talkessel einrahmen. Höchste umgebende Erhebung ist mit 594 Meter der Sophienberg im Süden. Weitere Anhöhen sind der Schlehenberg, der Oschenberg, der Höhenzug der Hohen Warte, der Rote Hügel und der Buchstein. Die Beckenlage wirkt sich günstig auf das Klima aus. Die Jahresmitteltemperatur beträgt für Bayreuth 7,8 °C. Amtliche Stadtgliederung. Blick vom Nordturm der Stadtkirche zum Alten Schloss Bayreuth besteht offiziell aus 74 Ortsteilen und 39 Distrikten: Liste der Ortsteile und Distrikte von Bayreuth Geschichte. Bereits im Frühmittelalter bestand an der Stelle der ehemaligen Burg Laineck eine Wehranlage. Die Mauer, die zuerst eine reine Holz-Erde-Konstruktion in Blockbauweise war, wurde später durch eine neue Holz-Erde-Mauer ersetzt, die durch in die Erde eingelassene mächtige Pfosten verstärkt war. In einer dritten Phase ersetzte man diese durch eine Trockenmauer aus Steinen. Besonders die erste und dritte Stufe dieser Umwehrung erinnern stark an slawische Bauweisen. Slawen siedelten im frühen Mittelalter in Teilen Oberfrankens. Mittelalter und frühe Neuzeit. Bayreuth 1680, Blick von Norden Vermutlich ist schon im 11. Jahrhundert, im Zuge der Rodungstätigkeit der Schweinfurter Grafen, eine kleine Ansiedlung am unteren Markt entstanden. Bereits früher urkundlich erwähnt wurden die eingemeindeten Ortschaften Seulbitz (1035 als salisches Königsgut Silewize in einer Urkunde Kaiser Konrads II.) und St. Johannis (evtl. 1149 als Altentrebgast). Auch der Stadtteil Altstadt (bis ins 19. Jahrhundert Altenstadt) westlich des Stadtzentrums dürfte älter sein als die Siedlung Bayreuth. Noch ältere Spuren menschlicher Anwesenheit fanden sich im Ortsteil Meyernberg: Keramikreste und Holzgeschirr wurden anhand ihrer Verzierung in das 9. Jahrhundert datiert. Während Bayreuth vorher (1199) als "villa" (Dorf) bezeichnet wurde, erschien im Jahr 1231 in einer Urkunde zum ersten Mal der Begriff "civitas" (Stadt). Man kann also annehmen, dass Bayreuth in den Jahren zwischen 1200 und 1230 das Stadtrecht verliehen bekam. Stadtherren waren bis 1248 die Grafen von Andechs-Meranien. Nach deren Aussterben übernahmen 1260 die Burggrafen von Nürnberg aus dem Geschlecht der Hohenzollern das Erbe. Zunächst war jedoch die Plassenburg in Kulmbach Residenz und Zentrum des Landes. Die Stadt entwickelte sich daher nur langsam und war immer wieder von Katastrophen betroffen. Aber bereits 1361 erteilte Kaiser Karl IV. dem Burggrafen Friedrich V. für die Städte Bayreuth und Kulmbach das Münzrecht. 1421 erschien Bayreuth erstmals auf einer Landkarte. Im Februar 1430 verwüsteten die Hussiten Bayreuth schwer, das Rathaus und die Kirchen brannten nieder. Matthäus Merian beschrieb dieses Geschehen im Jahre 1642 folgendermaßen: „Umbs Jahr 1430 haben die Hussiten aus Boheimb / Culmbach und Barreut angesteckt / und grosse Grausambkeit / wie die wilden Thier / an dem gemeinen Pöbel / und an vornehmen Personen verübt. / Die Geistlichen / Mönche und Nonen legten sie entweder auf das Feuer / oder führeten sie auff das gestandene Eyß der Wasser und Flüsse / (in Francken und Bayren) begossen sie mit kaltem Wasser / und brachten sie solcher Gestalt erbärmlich umb / wie Boreck in der Böhmischen Chronic pag. 450 berichtet.“ (Quelle: Frühwald (Hrsg.): Fränkische Städte und Burgen um 1650 nach Texten und Stichen von Merian, Sennfeld 1991.) Auf der Karte der „lantstrassen durch das Romisch reych“ von Erhard Etzlaub (1501) ist Bayreuth als Station auf der Via Imperii von Leipzig nach Verona verzeichnet. Bereits 1528 (also elf Jahre nach Beginn der Reformation) schlossen sich die Landesherren der fränkischen markgräflichen Gebiete dem lutherischen Bekenntnis an. Im Jahr 1605 vernichtete ein durch Nachlässigkeit entstandener großer Stadtbrand 137 von 251 Häusern. 1620 wütete die Pest, 1621 folgte ein weiterer großer Stadtbrand. Auch im Dreißigjährigen Krieg hatte die Stadt schwer zu leiden. Ein Wendepunkt in der Stadtgeschichte war die Verlegung der Residenz von der Plassenburg oberhalb Kulmbachs nach Bayreuth im Jahr 1603 durch Markgraf Christian, dem Sohn des Kurfürsten Johann Georg von Brandenburg. Das 1440 bis 1457 unter dem Markgrafen Johann dem Alchemisten erbaute erste Hohenzollernschloss, der Vorläufer des heutigen Alten Schlosses, wurde vielfach aus- und umgebaut. Nach dem Tod Christians folgte ihm 1655 sein Enkel Christian Ernst nach, der das Gymnasium Christian-Ernestinum stiftete und 1683 an der Befreiung des von den Türken belagerten Wiens beteiligt war. Um an diese Tat zu erinnern, ließ er sich den Markgrafenbrunnen, der heute vor dem Neuen Schloss steht, als Denkmal fertigen, auf dem er als Türkensieger dargestellt ist. In dieser Zeit wurde der äußere Ring der Stadtmauer errichtet und die (alte) Schlosskirche erbaut. Anfang des 17. Jahrhunderts wurde die erste städtische Wasserleitung gebaut. Die Quellfassung wurde 1611 fertiggestellt, das Wasser floss in hölzernen Rohren vom Oberen Quellhof beim Röhrensee in zunächst vier Brunnen der Stadt. 18. Jahrhundert – Kulturelle Blüte zur Zeit der Markgrafen. Markgrafenbrunnen vor dem Neuen Schloss Christian Ernsts Nachfolger, der Erbprinz und spätere Markgraf Georg Wilhelm, begann 1701 mit der Anlage der damals selbstständigen Stadt St. Georgen am See (heutiger Stadtteil St. Georgen) mit dem sogenannten Ordensschloss, einem Rathaus, einem Gefängnis und einer kleinen Kaserne. 1705 stiftete er den Orden der Aufrichtigkeit (ordre de la sincérité), der 1734 in Roter-Adler-Orden umbenannt wurde, und ließ die Ordenskirche erbauen, die 1711 vollendet wurde. 1716 wurde in St. Georgen eine fürstliche Fayencemanufaktur eingerichtet. Auch das erste Schloss im Park der Eremitage wurde in dieser Zeit von Markgraf Georg Wilhelm (1715–1719) errichtet. Als Ersatz für das 1440 in der Mitte des Marktplatzes erbaute und bei einem der Stadtbrände zerstörte Rathaus erwarb der Stadtrat 1721 das Palais der Baronin Sponheim (das heutige Alte Rathaus). Im Jahr 1735 wurde durch eine private Stiftung ein Altenheim, das sogenannte Gravenreuther Stift, in St. Georgen gegründet. Die Kosten für das Gebäude überschritten zwar die Mittel der Stiftung, jedoch sprang hierfür Markgraf Friedrich ein. Einen Höhepunkt der Stadtgeschichte erlebte Bayreuth in der Regierungszeit (1735–1763) des Markgrafenpaares Friedrich und Wilhelmine von Bayreuth, der Lieblingsschwester Friedrichs des Großen. In dieser Zeit entstanden unter Leitung der Hofarchitekten Joseph Saint-Pierre und Carl von Gontard zahlreiche repräsentative Bauten und Anlagen: das markgräfliche Opernhaus als reich ausgestattetes Barocktheater (1744–1748), die Umgestaltung und Erweiterung der Eremitage mit dem Bau des Neuen Eremitage-Schlosses mit Sonnentempel (1749–1753), der Bau des Neuen (Stadt)-Schlosses mit Hofgarten (1754 ff.), nachdem das Alte Schloss durch Unachtsamkeit des Markgrafen ausgebrannt war, sowie die prächtige Stadterweiterung in der heutigen Friedrichstraße. Es entstand eine eigenständige Variante des Rokoko, das sogenannte Bayreuther Rokoko, das vor allem die Innenarchitektur der erwähnten Bauten prägte. Die alten finsteren Torhäuser wurden abgerissen, da sie den Verkehr behinderten und verteidigungstechnisch veraltet waren. Auch die Stadtmauern wurden an einigen Stellen überbaut. Markgraf Friedrich hielt sein Fürstentum aus den zu dieser Zeit wütenden Kriegen seines Schwagers Friedrichs des Großen erfolgreich heraus und bescherte dadurch dem Fränkischen Reichskreis eine Friedenszeit. 1742 kam es zur Gründung der Friedrichs-Akademie, die 1743 zur Universität erhoben, jedoch wegen der ablehnenden Haltung der Bevölkerung nach schweren Ausschreitungen noch im gleichen Jahr nach Erlangen verlegt wurde. Dort besteht sie als Universität bis heute. Von 1756 bis 1763 bestand auch eine Akademie der freien Künste und Wissenschaften. Die Katholiken erhielten das Recht, ein Oratorium einzurichten, und auch jüdische Familien siedelten sich wieder an. 1760 wurde die Synagoge und 1787 der jüdische Friedhof eingeweiht. Die Markgräfin Wilhelmine starb 1758. Markgraf Friedrich heiratete zwar noch einmal, die Ehe war aber nur kurz und ohne Nachkommen. Nach dem Tode des Markgrafen Friedrich im Jahre 1763 wanderten viele Künstler und Kunsthandwerker nach Berlin bzw. Potsdam ab, um für König Friedrich den Großen zu arbeiten, denn der Nachfolger Markgraf Friedrichs, Markgraf Friedrich Christian, hatte wenig Verständnis für die Kunst. Es fehlten ihm aber auch die Mittel, denn der aufwendige Lebensstil des Vorgängers, die Bauten und die Gehälter für die meist ausländischen Künstler hatten viel Geld verschlungen. So war der Hofstaat, der unter Georg Friedrich Karl rund 140 Personen umfasst hatte, bis zum Ende der Regierung des Markgrafen Friedrich auf ca. 600 Beschäftigte angewachsen. 1769 stand das Fürstentum kurz vor dem Bankrott. 1769 folgte auf den kinderlosen Friedrich Christian Markgraf Karl Alexander aus der Ansbacher Linie der fränkischen Hohenzollern. Bayreuth sank zu einer Nebenresidenz ab. Karl Alexander residierte weiterhin in Ansbach und kam nur selten nach Bayreuth. 1775 wurde der Brandenburger Weiher in St. Georgen trockengelegt. Nach dem Verzicht des letzten Markgrafen Karl Alexander auf die Fürstentümer Ansbach und Bayreuth am 2.  Dezember 1791 wurden seine Gebiete preußische Provinz. Der preußische Minister Karl August Freiherr von Hardenberg übernahm ab Anfang 1792 die Verwaltung. 19. Jahrhundert – Das Fürstentum Bayreuth wird bayerisch. Die Herrschaft der Hohenzollern über das Fürstentum Kulmbach-Bayreuth endete im Jahre 1806 nach der Niederlage Preußens gegen das napoleonische Frankreich. Als Preußen im Sommer 1806 Frankreich den Krieg erklärte, war das Fürstentum nahezu schutzlos Napoleon und dessen bayerischen Verbündeten ausgeliefert. Am 7. Oktober besetzte Marschall Soult, über die Dürschnitz kommend, mit 30 000 Mann die Stadt. Am 8. Oktober erschien Marschall Ney mit 18 000 Soldaten, tags darauf marschierte die erste bayerische Division ein. Zwangseinquartierungen, Requirierungen, Plünderungen und gewaltsame Übergriffe versetzten die Bevölkerung in Angst und Schrecken. Mit Etienne Le Grand de Mercey erhielt die Stadt einen Militärgouverneur, der mit harter Hand durchgriff. Während der französischen Besetzung von 1806 bis 1810 galt Bayreuth als Provinz des französischen Kaiserreichs und musste hohe Kriegskontributionen zahlen. Gefordert wurden 2,5 Millionen Franken „in möglichst kurzer Zeit“. Ab dem 14. November 1806 stand das Fürstentum unter der Verwaltung des Comte Camille de Tournon, der eine ausführliche Bestandsaufnahme des damaligen Fürstentums Bayreuth verfasste. Im Juni 1809 wurde die Stadt von österreichischen Truppen besetzt, die den Franzosen im Juli aber wieder weichen mussten. Am 30. Juni 1810 übergab die französische Armee das ehemalige Fürstentum an das mittlerweile zum Königreich aufgestiegene Bayern, das es für 15 Millionen Francs von Napoleon gekauft hatte. Bayreuth wurde Kreishauptstadt des bayerischen Mainkreises, der später in den Obermainkreis überging und schließlich in Regierungsbezirk Oberfranken umbenannt wurde. Die bisher protestantische Schlosskirche wurde katholisch und das Oratorium profaniert. Büste Richard Wagners im Festspielpark Napoleon Bonaparte kam mit seiner Gemahlin Maria Louise am 15. Mai 1812 in die Stadt. Von der Bevölkerung wurde er ohne Jubel begrüßt, das Vorhaben eines ortsansässigen Kaufmanns, ihn in die Luft zu sprengen, schlug fehl. Bei der Erschließung Bayerns durch die Eisenbahn wurde die Hauptlinie von Nürnberg nach Hof an Bayreuth vorbei gelegt, sie führt über Lichtenfels, Kulmbach und Neuenmarkt-Wirsberg nach Hof. Anschluss an das Schienennetz erhielt Bayreuth erst 1853, als die auf Kosten der Stadt Bayreuth errichtete Pachtbahn (von Neuenmarkt) eingeweiht wurde. Ihr folgten 1863 die Ostbahn (von Weiden), 1877 die Fichtelgebirgsbahn von Nürnberg und 1896 die Lokalbahn nach Warmensteinach. Am 17. April 1870 besuchte Richard Wagner Bayreuth, weil er vom markgräflichen Opernhaus gelesen hatte, dessen große, vor allem aber tiefe Bühne ihm für seine Werke passend schien. Allerdings konnte der Orchestergraben die große Anzahl der Musiker beispielsweise beim "Ring des Nibelungen" nicht fassen, und auch das Ambiente des Zuschauerraums erschien für das von ihm propagierte „Kunstwerk der Zukunft“ unpassend. Deshalb trug er sich mit dem Gedanken, in Bayreuth ein eigenes Festspielhaus zu errichten. Die Stadt unterstützte ihn in seinem Vorhaben und stellte ihm ein Grundstück zur Verfügung, eine unbebaute Fläche außerhalb der Stadt zwischen Bahnhof und Hoher Warte, den Grünen Hügel. Gleichzeitig erwarb Wagner ein Grundstück am Hofgarten zum Bau seines Wohnhauses, Haus Wahnfried. Am 22. Mai 1872 wurde der Grundstein für das Festspielhaus gelegt, das am 13. August 1876 feierlich eröffnet wurde (siehe Bayreuther Festspiele). Planung und Bauleitung lagen in den Händen des Leipziger Architekten Otto Brückwald, der sich schon beim Bau von Theatern in Leipzig und Altenburg einen Namen gemacht hatte. Die erste elektrische Straßenbeleuchtung wurde versuchsweise 1887 und dauerhaft 1893 installiert. Den Strom lieferte das Pumpwerk im C'est-bon-Tal am südlichen Ende des Röhrensees. Bis zum Ende der Weimarer Republik (1900–1933). Das neue Jahrhundert brachte einige Neuerungen der modernen Technik: 1908 wurde der erste Kinosaal eröffnet, 1909 das städtische Elektrizitätswerk an der Eduard-Bayerlein-Straße in Betrieb genommen. 1904 wurden die Nebenbahn nach Hollfeld und 1909 die Lokalbahn über Thurnau nach Kulmbach eröffnet. In den Jahren 1914/15 wurde der nördliche Arm des Roten Mains auf einem Teilabschnitt begradigt und verbreitert, nachdem Gebiete längs des Roten Mains bei einem Hochwasser im Jahr 1909 überschwemmt worden waren. Nach dem Kriegsende 1918 übernahmen in Bayreuth kurz die Arbeiter- und Soldatenräte die Macht. Es kam am 17. Februar 1919 zum dreitägigen Speckputsch, insgesamt ein kurzes Intermezzo in der sonst recht biederen Garnisonsstadt. Am 30. September 1923 fand in Bayreuth ein völkisch-nationalistischer Deutscher Tag mit über 5000 Teilnehmern (ca. 15 % der Einwohnerzahl Bayreuths) statt. Unter den Gästen befanden sich u. a. Oberbürgermeister Albert Preu sowie Siegfried und Winifred Wagner, die Adolf Hitler, den Hauptredner in Bayreuth, in die Villa Wahnfried einluden, wo er auch den Schwiegersohn Richard Wagners, den antisemitischen Rassentheoretiker und Schriftsteller Houston Stewart Chamberlain, kennenlernte. Auch Hans Schemm traf an diesem Tag zum ersten Mal Hitler. 1929 wurde mit dem Stadtbad das städtische Hallenschwimmbad eröffnet. Im Jahre 1932 wurden die Regierungsbezirke Ober- und Mittelfranken zusammengelegt und als Sitz der Regierung Ansbach festgelegt. Bayreuth bekam als kleinen Ausgleich die fusionierten Landesversicherungsanstalten Ober- und Mittelfranken. Im Gegensatz zu der Zusammenlegung der Regierung wurde diese Fusion nie rückgängig gemacht. Bei der Reichstagswahl am 6. November 1932 erreichte die NSDAP in Bayreuth bereits 46,7 Prozent der Stimmen (33,1 Prozent im Reichsdurchschnitt). Die Zeit des Nationalsozialismus (1933–1945). 1933 wurde Bayreuth Gauhauptstadt des NS-Gaues "Bayerische Ostmark" (ab 1943 "Gau Bayreuth") und sollte dementsprechend zu einem Gauforum ausgebaut werden; erster Gauleiter war Hans Schemm, zugleich Reichswalter des Nationalsozialistischen Lehrerbundes (NSLB), der in Bayreuth seinen Sitz hatte. 1937 erfolgte der Anschluss an die neue "Reichsautobahn". Die Deutsche Post betrieb in der Stadt seit 1936 öffentlichen Personenverkehr mit Autobussen. Mit dessen Übernahme durch das Elektrizitätswerk entstand 1938 der erste städtische Verkehrsbetrieb. Die erste Linie führte von Sankt Georgen über den Sternplatz zum Bahnhof Altstadt. Beim Novemberpogrom 1938 wurde die Synagoge der jüdischen Gemeinde in der "Münzgasse" geschändet und geplündert, aber wegen der Nähe zum Opernhaus nicht niedergebrannt. Im Innern der Synagoge Bayreuth, die derzeit wieder von einer jüdischen Gemeinde als Gotteshaus genutzt wird, erinnert eine Gedenktafel neben dem Thora-Schrein an die Verfolgung und Ermordung der Juden in der Shoa, die mindestens 145 jüdische Bayreuther das Leben kostete. Während des Zweiten Weltkrieges befand sich in der Stadt eine Außenstelle des Konzentrationslagers Flossenbürg, in dem Häftlinge an physikalischen Experimenten für die V2 teilnehmen mussten. Wieland Wagner, der Enkel des Komponisten Richard Wagner, war dort von September 1944 bis April 1945 stellvertretender ziviler Leiter. Nach der Zerstörung des Gebäudes in Berlin am 3. Februar 1945 wurde beschlossen, den Volksgerichtshof nach Potsdam auszulagern und die für Hoch- und Landesverrat zuständigen Senate nach Bayreuth zu verlegen. Seit Herbst 1944 hatte der Volksgerichtshof bereits mehrmals im Justizpalast in Bayreuth getagt. Am 6. Februar 1945 begann deshalb der Abtransport von insgesamt rund 270 politischen Gefangenen aus Berlin. Sie trafen am 17. Februar in der Strafanstalt Bayreuth St. Georgen ein und sollten, angesichts der anrückenden amerikanischen Truppen, am 14. April 1945 erschossen werden. Die "Köpenickiade" des als amerikanischen Offiziers verkleideten, wenige Tage vorher von dort entflohenen politischen Häftlings Karl Ruth rettete ihnen – darunter Ewald Naujoks und dem späteren Bundestagspräsidenten Eugen Gerstenmaier – in letzter Minute das Leben. Am 5., 8. und 11. April 1945 wurden bei schweren Luftangriffen viele öffentliche Gebäude und Industrieanlagen sowie 4500 Wohnungen zerstört, darunter auch Haus Wahnfried, 741 Menschen starben. Am Nachmittag des 14. April besetzten Truppen der US Army die Stadt. Nachkriegszeit, Wiederaufbau (1945–2000). Nach dem Ende des Zweiten Weltkrieges gehörte Bayreuth zur Amerikanischen Besatzungszone. Die amerikanische Militärverwaltung richtete ein DP-Lager ein zur Unterbringung so genannter Displaced Persons (DP). Die meisten von ihnen stammten aus der Ukraine. Das Lager wurde von der UNRRA betreut. Die Wohnungssituation war anfangs sehr schwierig: Es lebten ca. 55 000 Einwohner in der Stadt, also erheblich mehr als vor Kriegsbeginn. Diese Zunahme resultierte vor allem aus der hohen Zahl von Flüchtlingen und Heimatvertriebenen. Noch 1948 wurden mehr als 11.000 Flüchtlinge gezählt. Da gleichzeitig viele Wohnungen kriegsbedingt zerstört waren, mussten Tausende von Menschen in Notunterkünften leben, sogar im Festspielrestaurant neben dem Festspielhaus waren ca. 500 Personen untergebracht. 1945 wurden ca. 1400 Männer von der Stadtverwaltung für „lebensnotwendige Arbeiten“ (Aufräumarbeiten an zerstörten Gebäuden, Räumung von Straßen) dienstverpflichtet. Aber auch das kulturelle Leben kam bald wieder in Gang: 1947 wurden im Opernhaus "Mozart-Festspielwochen" abgehalten, aus denen sich die Fränkischen Festwochen entwickelten. 1949 wurde erstmals wieder das Festspielhaus bespielt; es gab ein Festkonzert mit den Wiener Philharmonikern unter der Leitung von Hans Knappertsbusch. 1951 fanden die ersten Richard-Wagner-Festspiele nach dem Krieg unter Leitung von Wieland und Wolfgang Wagner statt. 1949 wurde Bayreuth wieder Sitz der Regierung von Oberfranken. 1964 wurde auf dem Gelände der vormaligen „Schwimmschule“ das Kreuzsteinbad eröffnet. In der Nachkriegszeit kam es zur Vernichtung großer Teile der historischen Bausubstanz. 1971 beschloss der Bayerische Landtag die Errichtung der Universität Bayreuth, die am 3. November 1975 ihren Betrieb aufnahm. Im Wintersemester 2013 gab es über 12.500 Studenten in der Stadt. Im Mai 1972 ereignete sich auf dem Volksfest der Stadt das bisher folgenschwerste Unglück mit einer Achterbahn seit Ende des Zweiten Weltkrieges. Ein überbesetzter Wagen entgleiste, mehrere Personen wurden herausgeschleudert. Vier Menschen starben, fünf wurden zum Teil schwer verletzt. Zerstörung historischer Substanz nach 1945. Infostele zum 1970 abgerissenen Geburtshaus Max Stirners vor dem "Alten Rathaus" Vieles von dem, was die Bombennächte im April 1945 übriggelassen hatten, wurde anschließend zerstört. Das Alte Schloss wurde ein spätes Opfer der Nationalsozialisten, die dort belastendes Material verbrannten. Das Feuer griff auf das Gebäude und die Häuserfront an der Nordseite des Marktplatzes über. Mangels Feuerwehr und Löschwassers konnte es erst auf Anordnung der einrückenden amerikanischen Soldaten durch die Sprengung zweier Häuser eingedämmt werden. Ein schwerer Verlust für die Stadt war der Abriss des Geburtshauses Max Stirners (1970), des historischen Sozialquartiers Burg bis 1980 und der verbliebenen Reste des Reitzenstein-Palais. Dem Straßenverkehr wurde in den 1970er Jahren mit dem Bau des Stadtkernrings unter anderem das Ensemble am Anfang der Erlanger Straße, darunter das seinerzeit einzige erhaltene Haus mit sichtbarem Fachwerk (Eck-Schoberth), geopfert. Der Rote Main wurde in seinem im Zentrum bisher sichtbaren Teil weitgehend als Straßen- und Parkplatzfläche gedeckelt (Abriss der Ludwigsbrücke und des Wachhäuschens aus dem 18. Jahrhundert). Für den Bau des neuen Rathauses wurde das idyllische Viertel am Altbachplatz abgerissen, einschließlich des vom ersten Festspieldirigenten und Bayreuther Ehrenbürger Hans Richter bewohnten "Richterhauses". Dazu kamen aus heutiger Sicht weitere wenig sinnvolle Abrisse in der Richard-Wagner-Straße (Türkenhaus, erbaut 1709), am Sternplatz und in der Sophienstraße (Priesterhäuser aus dem 16. Jahrhundert). Am Marktplatz wurden drei der wenigen verbliebenen alten Häuser der Nordseite ab 1962 einem Kaufhausneubau geopfert, und erst kürzlich musste das alte Sparkassengebäude aus dem Jahr 1934 einem umstrittenen Neubau weichen. Am Ort des abgerissenen "Stirnerhauses" wurde 1971 ein modernes Gebäude errichtet. Der Text der einst von John Henry Mackay initiierten und dort wieder angebrachten Gedenktafel, wonach es sich um das Geburtshaus Max Stirners handle, trifft deshalb nicht mehr zu und ist somit irreführend. Bernd Mayer, 2011 verstorbener Historiker und Ehrenbürger der Stadt, hat die Zerstörungen der Nachkriegszeit als umfassender als jene während des Zweiten Weltkriegs bezeichnet. 21. Jahrhundert. Seit 2005 gehört die Stadt der in jenem Jahr gegründeten Metropolregion Nürnberg an. 2007 wurde ein Jugendparlament gewählt, bestehend aus zwölf Jugendlichen zwischen 14 und 17 Jahren. Ende Oktober wurden der lang geplante Busbahnhof und das damit verbundene Funktionsgebäude am neugeschaffenen Hohenzollernplatz eingeweiht und in Betrieb genommen. Am 26. Juli 2011 gab es in der Stadthalle Bayreuth das erste Gastspiel eines israelischen Orchesters in Bayreuth. Am 30. Juni 2012 erhob die UNESCO das markgräfliche Opernhaus zum Weltkulturerbe. Einwohnerentwicklung. Bevölkerungsentwicklung von Bayreuth zwischen 1735 und 2013 Bayreuth hatte im Mittelalter und in der frühen Neuzeit nur wenige tausend Einwohner. Die Bevölkerung wuchs nur langsam und ging durch die zahlreichen Kriege, Seuchen und Hungersnöte immer wieder zurück. So zerstörten 1430 die Hussiten die Stadt; 1602 starben bei einem Ausbruch der Pest rund 1000 Bewohner. Auch während des Dreißigjährigen Krieges (1618–1648) musste die Stadt Einwohnerverluste hinnehmen. Erst mit dem Beginn der Industrialisierung im 19. Jahrhundert beschleunigte sich das Bevölkerungswachstum. Lebten 1818 10.000 Menschen in der Stadt, waren es 1900 bereits rund 30.000. Bis 1939 stieg die Bevölkerungszahl – auch aufgrund der Eingemeindung mehrerer Orte am 1. April 1939 – auf 45.000. Kurz nach dem Zweiten Weltkrieg brachten die vielen Flüchtlinge und Vertriebenen aus den deutschen Ostgebieten einen weiteren Zuwachs um 11.000 Personen auf 56.000 Einwohner bis Oktober 1946. Auch danach stieg die Bevölkerungszahl weiter, ab den 1970er-Jahren nicht zuletzt aufgrund der neu gegründeten Universität. Am 30. Juni 2005 betrug die Amtliche Einwohnerzahl für Bayreuth nach Fortschreibung des Bayerischen Landesamtes für Statistik und Datenverarbeitung 74.137 (nur Hauptwohnsitze und nach Abgleich mit den anderen Landesämtern). Davon waren 63,7 Prozent evangelisch und 28,8 Prozent katholisch. Gegenwärtig zählt die Stadt Bayreuth ca. 35.000 Haushalte. 51,0 Prozent der Bürger sind evangelisch und 27,1 Prozent katholisch. 21,9 Prozent haben einen anderen Glauben oder sind nicht religiös. Die folgende Übersicht zeigt die Einwohnerzahlen nach dem jeweiligen Gebietsstand. Bis 1818 handelt es sich meist um Schätzungen, danach um Volkszählungsergebnisse (¹) oder amtliche Fortschreibungen des Statistischen Landesamtes. Die Angaben beziehen sich ab 1871 auf die „ortsanwesende Bevölkerung“, ab 1925 auf die Wohnbevölkerung und seit 1987 auf die „Bevölkerung am Ort der Hauptwohnung“. Vor 1871 wurde die Einwohnerzahl nach uneinheitlichen Erhebungsverfahren ermittelt. Bevölkerungsprognose bis 2032. Einer Prognose des Bayerischen Statistischen Landesamtes zufolge wird die Einwohnerzahl Bayreuths zwischen 2012 und 2032 um ca. 4,7 % abnehmen. Stadtrat. Aufsehen erregte die Kommunalwahl vom März 1990, bei der die rechtskonservative Partei Die Republikaner 10,6 Prozent der Listenstimmen erhielt. Stadtwappen. Markgraf Albrecht Achilles, gleichzeitig Kurfürst von Brandenburg, verlieh der Stadt Bayreuth im Dezember 1457 das noch heute gültige Stadtwappen. Zwei Felder zeigen das schwarz-weiße Hohenzollernwappen. Der schwarze Löwe auf Gold mit rotweißer Umrandung war das Amtswappen der Burggrafen von Nürnberg und stammt ursprünglich von der Familie von Raabs. Längs der beiden Diagonalen sind zwei Reuten, Rodungswerkzeuge mit leicht gekrümmten Stiel. Sie verweisen auf die Endung "-reuth" im Ortsnamen. Offiziell wird das Stadtwappen so beschrieben (Blasonierung): „Das Stadtwappen besteht aus zwei über Eck gestellten Feldern in Gold mit je einem schwarzen Löwen und zwei ebenfalls über Eck gestellten, quadriert schwarz-weißen Feldern. Die beiden Felder in Gold sind durch einen in rot-weiße Felder geteilten Rahmen eingefasst. Über die zwei Löwenfelder geht ein weißer, über die zwei schwarz-weißen Felder ein schwarzer Reuthaken. Über dem Wappen befindet sich ein Helm mit zwei gekreuzten Hörnern in weißer und roter Farbe, dazwischen ein schwarzer Löwe mit goldener Krone, auf einem Hutstulp stehend. Die Helmdecke ist rot-weiß im Wechsel.“ Städtepartnerschaften. Weitere Partnerschaftsverträge mit anderen europäischen Städten sind geplant. Im Gespräch ist derzeit noch die englische Stadt Shrewsbury. Es besteht weiterhin eine Kulturpartnerschaft mit dem österreichischen Burgenland und eine Universitätspartnerschaft der Universität Bayreuth mit der Washington and Lee University in Lexington im US-Bundesstaat Virginia. Patenschaft. Im Jahre 1955 wurde die Patenschaft für die vertriebenen Sudetendeutschen aus der Stadt Franzensbad im Okres Cheb übernommen. Theater. Das markgräfliche Opernhaus ist ein seit 1748 bestehendes Theater. Es ist Museum und gleichzeitig die älteste heute noch bespielte Szene in Bayreuth. Es gehört zum UNESCO-Weltkulturerbe. Das Bayreuther Festspielhaus stammt aus dem 19. Jahrhundert und wird nur bei den Bayreuther Festspielen bespielt. Zur Aufführung kommen nur Werke Richard Wagners. Die Stadthalle Bayreuth (Mehrzweckanlage in den Mauern der ehemaligen markgräflichen Reithalle) hat kein eigenes Ensemble. Sie wird regelmäßig vom Theater Hof bespielt. Außerdem machen dort Tourneetheater Station. Die beiden einzigen Theater mit einem eigenen Ensemble sind die Studiobühne Bayreuth und das Amateurtheater Brandenburger Kulturstadl. Spielstätten der Studiobühne in Bayreuth sind das Domizil des Theaters in der Röntgenstraße, das Ruinentheater der Bayreuther Eremitage und der Innenhof der Bayreuther Klavierfabrik Steingraeber & Söhne. Das Marionettentheater Operla wurde im Jahr 2008 gegründet. Anlässlich des 300. Geburtstages von Markgräfin Wilhelmine wurde das Stück "Wilhelmine – Prinzessin am goldenen Faden" inszeniert. Seit Januar 2012 finden die Aufführungen in der Steingräber-Passage statt. Museen. Historisches Museum in der alten Lateinschule Deutsches Schreibmaschinenmuseum im ehemaligen Leers'schen Waisenhaus Bedeutende Bauwerke. a>er Burggut (im Vordergrund der "Obeliskenbrunnen") Parkanlagen und Friedhöfe. "Untere Grotte" in der Eremitage Im Osten der Innenstadt liegt der Hofgarten am Neuen Schloss, im Süden davon der Röhrensee mit dem gleichnamigen Park und einem kleinen Zoo. Unterhalb des Festspielhauses, am Grünen Hügel, befindet sich der Festspielpark und an der "Dürschnitz", östlich des Stadtzentrums, mit dem kleinen "Miedelsgarten" einer der Lieblingsplätze Jean Pauls. Der Ökologisch-Botanische Garten am südlichen Stadtrand gehört zur Universität Bayreuth. Die bekannteste unter allen Parkanlagen Bayreuths ist die Eremitage im Stadtteil St. Johannis. Mit einer Gesamtfläche von fast 50 Hektar ist sie der größte Park der Stadt. Bayreuth wurde im Frühjahr 2009 als Veranstalter für die Bayerische Landesgartenschau 2016 ausgewählt. Aus diesem Grund soll in den oberen Mainauen, zwischen dem "Volksfestplatz" und der Autobahn A 9, eine weitere, ausgedehnte Grünanlage entstehen. Der älteste existierende Friedhof Bayreuths ist der "Stadtfriedhof" mit einer Reihe von Grabdenkmälern berühmter Persönlichkeiten. Am Südrand des Ortsteils Saas liegt der "Südfriedhof" mit einem Krematorium. Eigene Friedhöfe besitzen die Stadtteile St. Johannis und St. Georgen. Der Jüdische Friedhof befindet sich an der Nürnberger Straße im Südosten der Stadt. Am Rand des Stadtteils Altstadt existierte früher mit dem "Schelmängerlein", in unmittelbarer Nähe des Galgens, eine Begräbnisstätte für Hingerichtete. Im Stadtgebiet liegen mehrere Natura-2000-Gebiete mit einer Gesamtfläche von fast 200 ha; dazu gehören das obere und das untere Rotmaintal sowie das Misteltal und der Park der Eremitage. Natur- und Landschaftsschutzgebiete. Am Nordostrand der Stadt existiert mit dem Muschelkalkgebiet am Oschenberg ein Naturschutzgebiet (NSG-00739.01). Ergänzend sind neun Landschaftsschutzgebiete und drei Geotope ausgewiesen. Gewässer und Brunnen. Bedeutendstes Fließgewässer ist der Rote Main, der die Stadt von Ost nach West durchquert. Zwei Flutkatastrophen von 1907 und 1909 waren Anlass für die zwischen 1913 und 1916 erfolgte Regulierung, das Flussbett wurde verbreitert und kanalisiert. Mit dem Bau des Stadtkernrings verschwand es in den 1970er Jahren teilweise unter einer Betondecke, Sein im Innenstadtbereich ebenfalls gedeckelter künstlicher Seitenarm "Mühlkanal" erhielt in den Jahren 1997/98 am La-Spezia-Platz einen neuen, offenen Lauf. Im Gegensatz zum Roten Main ist dieser Wasserlauf über stufenförmige Terrassen erreichbar. Während die Warme Steinach bereits am östlichen Stadtrand in den Roten Main mündet, verläuft die Mistel, in Bayreuth "Mistelbach" genannt, länger im Stadtgebiet. Der Bach wurde zwischen dem Stadtteil Altstadt und seiner Mündung in den Roten Main reguliert und optisch renaturiert. Der Sendelbach ist im Stadtbild weitgehend unsichtbar und fast nur in Höhe der "Moritzhöfenbrücke" noch erkennbar. Sein ebenfalls unterirdisch kanalisierter Zufluss Tappert speist den Zierkanal im Hofgarten. Sein südlicher Zufluss Aubach liefert das Wasser für den "Röhrensee". Der von einer Parkanlage mit Tiergehegen umgebene Röhrensee ist das größte stehende Gewässer der Stadt. Der Vorläufer dieses künstlichen Teichs war im 17. Jahrhundert angelegt worden, um in seinem Wasser Holzröhren zu lagern. Sie waren für eine Wasserleitung von den nahegelegenen "Quellhöfen" zur Innenstadt bestimmt, die dort vier Brunnen speiste. Von den einstigen Ziehbrunnen in der Innenstadt ist kein funktionsfähiger mehr erhalten. Bei historischen Ausgrabungen im Rahmen der Umgestaltung des Marktplatzes wurden über 20 ehemalige Brunnenschächte sowie ein Teil des ehemaligen Kanalverlaufes des Tapperts aus Sandstein gefunden. Einer der Brunnen wurde im Durchgang zwischen Spital und Rotmaincenterbrücke wiederhergestellt. Auf dem Marktplatz wurde, in Anlehnung an den ursprünglichen Lauf des Tappert, 2010 eine wasserführende Zierrinne mit begehbarem Brunnen und Wasserspielplatz als "Stadtbächlein" neu geschaffen. Freizeiteinrichtungen. Das Cineplex-Kino nördlich des Rotmaincenters 2012. → "Siehe auch: Bibliotheken und Archive" Stadtschreiber. Von Februar bis Juli 2013 war der Berliner Autor Volker Strübing Bayreuths erster Stadtschreiber. Das Jean Paul-Jubiläum bot den Anlass, dieses Amt ins Leben zu rufen. Strübing hat sich in dieser Zeit intensiv mit Jean Paul auseinandergesetzt und in einem Blog seine Erlebnisse kommentiert. Sonstiges. Im Jahr 1990 durfte die britische Heavy-Metal-Band Iron Maiden in Bayreuth nicht auftreten. Die Stadtverwaltung sagte ein geplantes Konzert in der Oberfrankenhalle ab, begründet wurde dies mit dem als „Brutalo-Rock“ bezeichneten Musikstil. Fernstraßen. In der Nachkriegszeit waren alle drei durch Bayreuth führenden Bundesstraßen in der Richard-Wagner-Straße gebündelt. Die durch die untere Maximilianstraße verlaufende B 22 und die vom Mühltürlein kommende B 85 trafen sich am westlichen Ende des Marktplatzes, den sie gemeinsam der Länge nach durchquerten. Aus der Opernstraße kommend stieß am Sternplatz die B 2 dazu. An der Dürschnitz verließen die B 2 und die B 85 den Straßenzug zur Nürnberger Straße hin und blieben bis hinter Pegnitz vereint. Heute verlaufen die Bundesstraßen über den Stadtkernring, die in weiten Teilen zur Fußgängerzone umgewandelte Innenstadt wird nur noch tangiert. Eisenbahn. Vom Hauptbahnhof Bayreuth aus führen Hauptstrecken in Richtung Norden nach Neuenmarkt-Wirsberg (und von dort weiter nach Bamberg bzw. über die "Schiefe Ebene" nach Hof), Südosten nach Weiden und Süden nach Schnabelwaid (mit Anschluss nach Nürnberg über die Pegnitztalbahn). Einzig verbliebene Nebenbahn ist die seit 1993 nur bis Weidenberg betriebene Strecke nach Warmensteinach. Die ehemals ins westliche bzw. nordwestliche Umland führenden Strecken nach Hollfeld und Thurnau (– Kulmbach) sind restlos abgebaut. Die Bahnstrecken rund um Bayreuth sind ausnahmslos eingleisig und nicht elektrifiziert. Seit 23. Mai 1992 verkehrten zwischen Bayreuth und Nürnberg mit Neigetechnik ausgestattete Dieseltriebwagen der Baureihe 610, die von der damaligen Deutschen Bundesbahn speziell für die kurvenreiche Strecke angeschafft wurden. Diese wurden später durch die Baureihe 612 abgelöst. Zum Fahrplanwechsel am 10. Juni 2001 wurde die neu geschaffene ICE-Linie 17 (Dresden – Nürnberg im Stundentakt, jeder zweite Zug über Bayreuth) in Betrieb genommen. Zwei Jahre lang verkehrten ICE-TD-Triebzüge mit Neigetechnik der Baureihe 605. Seit dem Fahrplanwechsel 2006/2007 ist Bayreuth nicht mehr an das Fernverkehrsnetz der Deutschen Bahn angeschlossen. Der IRE Franken-Sachsen-Express bot ersatzweise seit Dezember 2006 bis Dezember 2013 eine Direktverbindung über Hof und Plauen nach Dresden (seit Dezember 2007 im Zwei-Stunden-Takt). Zum Einsatz kamen dabei Dieseltriebwagen mit Neigetechnik der Baureihe 612. Auch gab es eine Regional-Express-Direktverbindung mit solchen Triebwagen über Lichtenfels und Bamberg nach Würzburg. Seit dem 12. Juni 2011 bedient das Verkehrsunternehmen agilis das neugeschaffene Dieselnetz Oberfranken im Auftrag der Bayerischen Eisenbahngesellschaft und damit den schienengebundenen Nahverkehr im Raum Bayreuth. Seit Dezember 2013 gibt es von Bayreuth keine Direktverbindungen mehr nach Dresden und nach Würzburg. Öffentlicher Personennahverkehr. Die Stadtbuslinien werden von der Stadtwerke Bayreuth Verkehr und Bäder GmbH betrieben. Zum Teil fahren in deren Auftrag auch Fahrzeuge privater Busunternehmer. 16 Linien (Linien 301 bis 316) fahren Montag bis Freitag überwiegend in einem 20- bzw. 30-Minuten-Takt. Durch Überlagerung von Linien bei gleichzeitig versetzten Fahrzeiten sind größere Stadtteile im 10- bzw. in einem 10-/20-Minuten-Takt erreichbar. Während des Wintersemesters wird darüber hinaus das Angebot der Linie 306 so verdichtet, dass zwischen der Zentralen Omnibushaltestelle (ZOH) und dem Uni-Campus alle 5 Minuten ein Bus fährt. Ansonsten ist am Wochenende der Takt auf 30 Minuten gedehnt, wobei nicht alle Linien verkehren. In den nachfrageschwachen Zeiten (samstags von 6:15 Uhr bis 7:45 Uhr, sonn- und feiertags von 9:15 Uhr bis 13:15 Uhr sowie täglich abends zwischen 19:45 Uhr und 23:15 Uhr, am Wochenende 0:15 Uhr) wird ein auf sechs Linien reduziertes Netz (Linien 321 bis 326) im 30-Minuten-Takt angeboten. Vororte mit wenig Nachfrage werden zu diesen Zeitlagen mit Anruf-Linien-Taxen bedient. Das Netz ist, mit einer zentral gelegenen Umsteigehaltestelle (ZOH), sternförmig aufgebaut. Einzige Ausnahme bildet die seit 1. Oktober 2015 verkehrende Linie 316, die ohne den Umweg über die ZOH zu nehmen, den Hauptbahnhof direkt mit der Universität verbindet. Ursprünglich lag die ZOH auf dem Marktplatz, in der Straßenmitte der Maximilianstraße. Seit dem 27. Oktober 2007 befindet sich die ZOH auf dem Hohenzollernplatz an der Einmündung der Kanalstraße in den Hohenzollernring. An der ZOH sind auch Haltestellen für Regionalbusse eingerichtet, um ein leichteres Umsteigen zu ermöglichen. Die Stadtwerke Bayreuth Verkehr und Bäder GmbH ermöglicht die Fahrradmitnahme in den Stadtbussen. Nach 20 Uhr besteht zudem die Möglichkeit, nach vorheriger Anmeldung beim Fahrer auch zwischen zwei regulären Haltestellen auszusteigen, sofern dies verkehrsrechtlich möglich ist. An der Zentralen Omnibushaltestelle informiert ein dynamisches Fahrgastinformationssystem über die nächsten Abfahrten bzw. aktuelle Fahrplanänderungen und Umleitungen. Ebenfalls an der Zentralen Omnibushaltestelle befindet sich das Kundencenter, in dem montags bis samstags verbundweite Fahrplaninformationen und Tickets erhältlich sind. Der Regionalverkehr wird durch die Omnibusverkehr Franken GmbH bedient. Stadt und Landkreis Bayreuth sind Teil der Metropolregion Nürnberg. Zum 1. Januar 2010 wurde der Öffentliche Personennahverkehr (ÖPNV) in den Verkehrsverbund Großraum Nürnberg (VGN) integriert. Das gesamte Stadtgebiet Bayreuth entspricht der VGN-Tarifzone 1200, in der die VGN-Stadttarif-Preisstufe D gilt. Für Fahrten über die Stadtgrenze hinaus gilt die VGN-Tarifzonenregelung (Preisstufen 1 bis 10). Bayreuth ist auch Mitglied im deutsch-tschechischen Verkehrsverbund EgroNet. Fahrradverkehr. Ein Radwegenetz ist teilweise vorhanden, dessen Beschilderung ist oft überörtlicher Natur (Beispiel: "Haidenaab-Radweg"). Durch die unmittelbare Lage am 600 Kilometer langen Main-Radweg ist Bayreuth Anfahrtsziel für mehrere touristische Radreiserouten. Nicht nur von einem Teil der über 12.500 Studenten der Universität Bayreuth wird das Fahrrad als Alltagsverkehrsmittel genutzt. Die Topografie der Stadt und das Fehlen durchgehender sicherer Routen bereiten Schwierigkeiten und führen teilweise zu problematischen Lösungen. An vielen Stellen werden Radfahrer auf Fußwege und Gehsteige geleitet oder sogar durch Beschilderung zu deren Benutzung gezwungen, was Konflikte mit den Fußgängern birgt. Parkanlagen müssen in der Regel umfahren werden, das Queren des Hofgartens ist seit 2012 auf zwei Wegen aber gestattet. Die Fußgängerzone in der Innenstadt darf weitgehend mit dem Fahrrad befahren werden. Ein Abschnitt der Route von der Universität in die Innenstadt ("Univercity") ist als Fahrradstraße ausgeschildert. Die Fahrradmitnahme in den in Bayreuth abfahrenden DB-Regiozügen und in den Bussen des VGN ist, soweit möglich, kostenpflichtig. Flugverkehr. Der Verkehrslandeplatz Bayreuth dient der gewerblichen Luftfahrt, dem individuellen Geschäftsreiseverkehr, der allgemeinen Luftfahrt und dem Luftsport. Bis 2002 machte die Fluglinie Frankfurt–Hof dreimal täglich einen Zwischenstopp in Bayreuth. Der Verkehrslandeplatz am Bindlacher Berg ist auch einer der wichtigsten Stützpunkte für den Segelflugsport in Deutschland, u. a. fanden hier 1999 die Weltmeisterschaften statt. Für die Luftsportgemeinschaft Bayreuth ist der Flughafen Ausgangspunkt für die Flüge in der Segelflug-Bundesliga. Der Verein führt hier auch die Ausbildung im Segelflug und Motorflug durch. Bedeutende Unternehmen. Die Industrialisierung setzte in der Stadt erst verhältnismäßig spät ein. In der zweiten Hälfte des 19. Jahrhunderts wurden drei Baumwollspinnereien zu den bedeutendsten Betrieben. Daneben ließen sich Porzellan-, Eisen- und Farbenfabriken sowie zwei Dampfziegeleien nieder. Neben Mälzereien existierte eine Vielzahl kleiner Brauer, von denen sich etliche zu einer Gemeinschaftsbrauerei zusammenschlossen. Nach 1945 setzte auf dem Gelände des trockengelegten "Brandenburger Weihers" im Norden der Stadt eine rasante wirtschaftliche Entwicklung ein, wobei sich eine Zigarettenfabrik und ein Elektrounternehmen als bedeutendste Betriebe ansiedelten. In den Folgejahren wurden weitere Gewerbegebiete erschlossen. Neuen Industriebetrieben und Dienstleistungsunternehmen stehen aber auch Abwanderungen und Schließungen gegenüber. So ist z. B. die Zahl der ortsansässigen Brauereien auf mittlerweile drei Betriebe geschrumpft. Lokale Tageszeitung. Nordbayerischer Kurier Der Nordbayerische Kurier ging am 2. Januar 1968 aus der Fusion der miteinander konkurrierenden lokalen Tageszeitungen "Bayreuther Tagblatt" und "Fränkische Presse" hervor. Herausgeber sind Wolfgang Ellwanger und Dr. Laurent Fischer, Chefredakteur ist Joachim Braun. Die Zeitung erzielt mit weiteren Lokalausgaben eine verkaufte Auflage von Öffentliche Einrichtungen. Bayreuth hat verschiedene Gerichte: Amts-, Land-, Arbeits-, Verwaltungs- und Sozialgericht. Hochschulen. Campus mit Sprach- und Literaturwissenschaftlicher Fakultät, Mensa und Bibliothek In der Stadt befinden sich mit der Universität Bayreuth und der Hochschule für evangelische Kirchenmusik der evangelisch-lutherischen Kirche in Bayern zwei Hochschulen. Die Hochschule für evangelische Kirchenmusik geht zurück auf die 1948 in Erlangen gegründete Kirchenmusikschule und ist das Nachfolgeinstitut der Fachakademie für evangelische Kirchenmusik Bayreuth. Sie befindet ich an der Kreuzung Wilhelminenstraße/Wittelbacher Ring in einem eigens für ihre Zwecke errichteten Gebäude. In unmittelbarer Nachbarschaft befindet sich das Studierendenwohnheim „Am Campus“ des Evangelischen Siedlungswerkes (ESW). Nahezu alle Einrichtungen der Universität befinden sich auf dem Campus, der sich südlich des Stadtteils Birken auf dem Gelände des ehemaligen Exerzierplatzes erstreckt. Schwerpunkte der 1975 gegründeten Universität sind die Rechts- und Wirtschaftswissenschaften, Afrikanistik, Materialwissenschaften, Biowissenschaften, Bio- und Umweltingenieurwesen. Hierbei bietet die Universität interdisziplinäre Studiengänge sowie Zusatzausbildungen. Beispiele hierfür sind etwa die wirtschaftswissenschaftliche Zusatzausbildung für Juristen sowie Studiengänge wie Gesundheitsökonomie, Sportökonomie und der Bachelor-Studiengang Philosophy & Economics. In Rankings belegt die Universität in den Bereichen Jura und BWL, aber etwa auch in Physik vordere bis Spitzenplätze. Beim Elitenetzwerk Bayern ist sie mit den Studiengängen "Advanced Materials and Processes" und "Macromolecular Science" beteiligt sowie mit den Doktorandenkollegs "Structure, Reactivity and Properties of Oxide Materials", "Leitstrukturen der Zellfunktion" und "Global Change Ecology". Eine Besonderheit der Universität Bayreuth stellt der rund 16 ha große Ökologisch-Botanische Garten (ÖBG) dar. Er ist seit 1978 eine Zentrale Einrichtung der Universität. Forschung, Lehre und Öffentlichkeitsarbeit bilden die Leitmotive des ÖBG. Einzigartig im deutschsprachigen Raum ist das Institut für Afrikastudien (kurz IAS genannt). Es fördert und koordiniert die Afrikastudien von 14 Disziplinen der Universität Bayreuth, die sich auf vier ihrer sechs Fakultäten verteilen. Akkreditierungsagentur. Bayreuth ist auch Sitz von ACQUIN einer der sechs Akkreditierungsagenturen, die im Auftrag der Stiftung zur Akkreditierung von Studiengängen in Deutschland die fachlich-inhaltliche Begutachtung von Studiengängen mit den Abschlüssen Bachelor/Bakkalaureus und Master/Magister national und international leistet. Forschungseinrichtungen. Bayreuth (genauer der Stadtteil Wolfsbach, welcher der südlichste der Stadt ist und in dem etwa 500 Einwohner leben) ist Sitz des Kompetenzzentrums für Neue Materialien. Die Neue Materialien Bayreuth GmbH (NMB) ist ein Dienstleistungsunternehmen, das an Innovationen interessierte Firmen in Werkstofffragen berät und anwendungstechnisch unterstützt. Mit der Überreichung des Zuwendungsbescheides (ZWB) am 2. März 2006 in der Industrie- und Handelskammer (IHK) für Oberfranken fiel der Startschuss für die Fraunhofer-Projektgruppe "Prozessinnovation für Unternehmen des ostbayerischen Raumes" (PRINZ). Diese steht unter der Leitung von Professor Rolf Steinhilper. Die Bayerische Akademie der Wissenschaften, Kommission für Mundartforschung, betrieb bis März 2012 als aktuelles Projekt das Ostfränkische Wörterbuch in Bayreuth. Die Stadt Bayreuth ist weiterhin „Korporativ Förderndes Mitglied“ der Max-Planck-Gesellschaft. Garnison. Über Jahrhunderte war Bayreuth auch Garnisonsstadt. Waren es anfangs markgräfliche Haustruppen, wurden es 1792 bis 1806 Verbände der Preußischen Armee, nämlich das brandenburgische Infanterie-Regiment von Voit und danach das Füsilier-Bataillon von Requard. Zwei Jahre lang war das Grevenitz'sche Infanterie-Regiment unter Oberst von Bonin in Bayreuth stationiert. Nach vierjähriger Besetzung durch Truppen des französischen Kaiserreichs lagen ab 1810 Verbände der Königlich Bayerischen Armee in Bayreuth. Von 1810 bis 1866 waren Teile des 13. Infanterie-Regiments, von 1866 bis 1919 das 7. Infanterie-Regiment in Bayreuth stationiert, von 1832 bis 1866 zusätzlich Teile des 5. Chevaulegers-Regiments und von 1866 bis 1919 das 6. Chevaulegers-Regiment. 1920 bis 1935 stand das III. Bataillon des 21. (Bayerischen) Infanterie-Regiments der Reichswehr in Bayreuth, aus dem das Infanterieregiment 42 der Wehrmacht hervorging. Nach dem Zweiten Weltkrieg waren Einheiten der US-Armee, ab 1957 zusätzlich Truppen der Bundeswehr und des Bundesgrenzschutzes (BGS) vor Ort. Mit dem Ende des Kalten Krieges endete Anfang der 1990er Jahre weitgehend die Garnisonstradition der Stadt, als die "Markgrafenkaserne" der Bundeswehr mit dem "Panzerartilleriebataillon 125" (Panzerbrigade 12), dem "Panzergrenadierbataillon 102", den "Bayreuther Jägern" (Panzergrenadierbrigade 10) und der II./Luftwaffenausbildungsregiment 3 sowie die "Röhrenseekaserne" der US-Armee (2nd Armored Cavalry Regiment) aufgegeben wurden. Nur die ehemalige Bundesgrenzschutzabteilung, jetzt Bundespolizeiabteilung, befindet sich noch in ihrer Unterkunft neben der Markgrafenkaserne. → "Siehe auch: Kasernenviertel (Bayreuth)" Söhne und Töchter der Stadt. → "Hauptartikel: In Bayreuth geborene Persönlichkeiten" Bekannteste gebürtige Bayreuther sind der Philosoph Max Stirner, die Politiker Heinrich von Gagern und Wilhelm Leuschner sowie der Schriftsteller Max von der Grün. Persönlichkeiten, die in Bayreuth gelebt und gewirkt haben. → "Hauptartikel: Bekannte Einwohner von Bayreuth" Unter den Menschen, die in Bayreuth lebten und wirkten, ohne Kinder der Stadt zu sein, ragen drei heraus: die Markgräfin Wilhelmine von Bayreuth, der Komponist Richard Wagner und der Dichter Jean Paul. Ehrenbürger. → "Hauptartikel: Liste der Ehrenbürger von Bayreuth" Zu den Ehrenbürgern der Stadt gehören der Reichskanzler Otto von Bismarck, der Dirigent Arturo Toscanini und der Komponist Richard Strauss. Blas. Der Blas (altertümlich: Spaut) ist die nach dem Tauchvorgang ausgeatmete Atemluft von Walen. Die Luft wird mit hohem Druck ausgestoßen und ist mit Feuchtigkeit gesättigt. Wenn sie das Blasloch verlassen hat, entspannt sie sich, wobei durch den geringeren Druck und die niedrigere Außentemperatur die Feuchtigkeit der Atemluft kondensiert und als Nebelfontäne sichtbar wird. Der Blas ist also keine Wasserfontäne wie beim Springbrunnen, wie es auf alten Zeichnungen der Seefahrer oft gezeigt wird. Oft kann man die Anwesenheit von Walen als erstes durch den Blas erkennen. Bartenwale haben zwei Blaslöcher und erzeugen meist einen V-förmigen Blas, Zahnwale haben nur ein Blasloch. Beim Pottwal, einem Zahnwal, ist der Blas um etwa 45° nach links vorne geneigt. Deshalb ist er leicht allein an seinem Blas zu identifizieren. Der Blas des Blauwals erreicht eine Höhe von bis zu zwölf Metern. Belletristik. Zur Belletristik werden im Buchhandel die verschiedenen Formen der Unterhaltungsliteratur gezählt wie beispielsweise die literarischen Genres "Roman" und "Erzählung". Die Belletristik ging aus dem Buchhandelssegment der "Belles Lettres" (frz. „schöne Literatur“) hervor. Im 17. Jahrhundert entstand sie zwischen dem Markt gelehrter Fachliteratur der Wissenschaften (den "Lettres" – mithin damals die Literatur im eigentlichen Wortsinn) und dem Markt billiger, zumeist sehr roh gestalteter Bücher für das „einfache Volk“ (→ Volksbuch). Entwicklung. Seit der Wende ins 18. Jahrhundert umfasste die Belletristik ein breites Spektrum an Genres für Leser mit Geschmack, die weniger an Fachgelehrsamkeit interessiert waren als an den modernen und eleganten Publikationen nach französischer Mode, wie sie damals in ganz Europa gelesen wurden. So charakterisiert Goethe in den "Leiden des jungen Werthers" (1774) eine Romanfigur mit abfälligem Unterton: „…doch an gründlicher Gelehrsamkeit mangelt es ihm, wie all den Bellettristen“. Aktuelle politische Memoires, Romane, Journale, Poesie und Klassiker der Antike in modernen Übersetzungen standen im Zentrum des Begriffsfeldes. Im Lauf des 18. Jahrhunderts kam der Begriff der "Belles Lettres" auf dem deutschen Buchmarkt aus der Mode. Deutschsprachige Alternativbegriffe setzten sich durch. Man sprach von "galanten Wissenschaften" um 1700, "schönen Wissenschaften" Mitte des 18. Jahrhunderts, "schöner Literatur" auf dem Weg ins 20. Jahrhundert. Mit diesen aufeinanderfolgenden Begriffsbildungen verengte sich das Gattungsspektrum Schritt für Schritt auf Dramen, Romane und Gedichte, den Kernbestand der "poetischen Nationalliteratur". Heutige Verwendung. Die Begriffsverengung der "schönen Literatur" auf die "poetische Nationalliteratur" wurde besonders vehement im deutschen Sprachraum durchgesetzt, der hier ein nationales Diskussionsfeld aufbaute. Dies dürfte dafür verantwortlich sein, dass der deutschsprachige Buchhandel die alte Begriffsbildung überleben ließ, um auf dem internationalen Markt deutsche Literatur noch benennen und somit wiedererkennen zu können. Die Belletristik umfasst noch heute weitgehend das Spektrum, das die "Belles Lettres" im frühen 18. Jahrhundert bezeichneten: Memoiren, populärwissenschaftliche Bücher, Romane – kurz das gesamte Feld, aus dem die Nationalliteraturen innerhalb des internationalen Massenmarktes entstanden. Heute wird der Begriff der Belletristik oft auch euphemistisch für reine Unterhaltungsliteratur, also vor allem leichte Romane, gebraucht. Im deutschsprachigen Buchmarkt wird der Begriff "Belletristik" seit Mitte des 20. Jahrhunderts auch synonym zum im englischsprachigen Raum üblichen Terminus "Fiction" (auf Fiktion basierende Literatur) als Gegensatz zu "Nonfiction" (Sachbuch) verwendet. Anders als die "Literatur" ist die Verwendung des Worts "Belletristik" auf den Buchhandelsbereich beschränkt. So gibt es zwar "Literaturkritiker", aber keine "Belletristikkritiker", es gibt eine "Literaturwissenschaft", aber keine "Belletristikwissenschaft". Marktsegment Belletristik. Der deutsche Buchhandel erwirtschaftete 2013 einen Gesamtumsatz von 9,536 Milliarden Euro. Die Sparte "Belletristik" hat daran einen Anteil von 23 %. Belletristische Neuerscheinungen 2013 waren 15.610 Titel, die als Erstauflage auf den Markt kamen. Bildende Kunst. Der Begriff bildende Kunst hat sich seit dem frühen 19. Jahrhundert im deutschen Sprachraum als Sammelbegriff für die visuell gestaltenden Künste eingebürgert („bildend“ bedeutet hier „gestaltend“). Zu den Kunstgattungen der bildenden Kunst zählten ursprünglich die Baukunst, Bildhauerei, Malerei, Zeichnung und Grafik sowie das Kunsthandwerk. Die bildende Kunst wird unterschieden von den darstellenden Künsten (wie Theater, Tanz und Filmkunst), Literatur und Musik. Während sich Werke dieser anderen Künste im zeitlichen Ablauf vollziehen, existiert ein Werk der bildenden Kunst meist als körperlich-räumliches Gebilde, das durch sich selbst wirkt und keinen Interpreten benötigt, um vom Rezipienten wahrgenommen zu werden. Die bildende Kunst und die genannten weiteren Kunstrichtungen können unter dem Begriff der „schönen Künste“ zusammengefasst werden. Dies ist vor allem in anderen Sprachen üblich (z. B. französisch "les beaux-arts", italienisch "le belle arti" oder englisch "fine arts"). Infolge der Entwicklung neuer Medien und der fortschreitenden Ausweitung des Kunstbegriffes im 20. Jahrhundert wird der Begriff "bildende Kunst" heute sehr viel weiter gefasst und ist im Einzelfall nicht mehr eindeutig von anderen Kunstformen abzugrenzen. So wird das bis zum Beginn der Moderne vor allem visuell und oft haptisch erfahrbare Kunstwerk im 20. und 21. Jahrhundert fallweise prozessorientiert, wandelt sich etwa zur reinen Idee oder existiert nur als Handlungsanweisung. Anstelle eines reinen Gattungsbegriffs definiert sich die aktuelle bildende Kunst auch durch den Kunstbetrieb und den Kunstmarkt, zu dem etablierte Vertreter der Kunstkritik, des Kunsthandels, Sammler und die Kunstmuseen gehören. Im Schulfach "Kunst" an allgemeinbildenden Schulen geht es um bildende Kunst. In einigen deutschen Bundesländern (z. B. Baden-Württemberg) heißt das Schulfach deshalb "Bildende Kunst". Entwicklung der bildenden Kunst. Die ersten Kunstwerke des Menschen waren religiöse Kunst. Später handelte es sich bei Malerei und Bildhauerei meist um Auftragskunst für religiöse Institutionen (in Europa die Kirche), Herrscher, Adelige oder wohlhabende Bürger. Die Motive und Bildsprache unterlagen in den meisten Kulturen oft strengen Konventionen. In Europa veränderten die Entdeckung der Perspektive und andere technische Erfindungen die Kunst radikal. Die Entstehung einer Kunst, die als Selbstzweck keinem speziellen Nutzen mehr diente (L’art pour l’art), veränderte wiederum das Verhältnis von Künstler, Gesellschaft und Kunstwerk. Teilweise wurde Kunst zu einem Ort von Utopien oder übernahm Aufgaben der Religion. Heute ist die professionelle bildende Kunst von einem globalen Kunstmarkt bestimmt. In den westlichen Ländern werden zunehmend auch öffentliche Gelder oder Kunstorte wie Museen durch privatwirtschaftliche Institutionen und private Stiftungen ersetzt. Diskussionen um den zeitgenössischen Kunstbegriff finden in der Kunstkritik, Kunsttheorie und an den Kunstakademien statt. Der vor allem in Europa und Nordamerika konzentrierte Kunstbetrieb wird seit den 1990er Jahren zunehmend durch Schwellenländer wie z. B. Brasilien, Südafrika, Korea oder die Golfstaaten erweitert, die zum Beispiel eigene Biennalen veranstalten. Bildende Kunst Europas und des Mittelmeerraumes. Die heute übliche Epochenteilung der Kunst wurde von der Kunstwissenschaft im 19. und 20. Jahrhundert etabliert: innerhalb der großen geschichtlichen Epochen zumeist anhand der Kunststile (siehe auch Formalismus). Für die Kunst des Altertums war der Mittelmeerraum maßgeblich, später die europäischen Kunstregionen (unter anderem Italien, Frankreich, der deutschsprachige Raum). Erst seit den 1970er Jahren beginnt die Kunstwissenschaft diesen eurozentristischen Blickwinkel zu relativieren. Prähistorische Kunst. Die Prähistorie, also die Vorgeschichte, umfasst den Zeitraum vom Beginn der Menschwerdung bis zur Einführung der Schrift. Da die Schrift nicht allerorts zur gleichen Zeit eingeführt wurde, ist die Vorgeschichte etwa in Ägypten schon um das 4. Jahrtausend vor Chr. zu Ende, während sie z. B. in Nordeuropa mancherorts noch bis ins 12. Jahrhundert nach Chr. andauert. Entsprechend vielfältig sind die künstlerischen Hinterlassenschaften, die aus dieser Zeit fast nur durch Ausgrabungen überliefert sind. Zu den frühesten Zeugnissen prähistorischer Kunst gehören Höhlenmalerei, Felszeichnung und Felsritzung. Ähnlich wie bei den Funden kleiner Statuetten (Löwenmensch) datiert man die ältesten Höhlenbilder (Chauvet-Höhle) auf rund 30.000 Jahre vor unserer Zeitrechnung. Und sie alle haben vermutlich einen kultischen Hintergrund. Interessante Siedlungsfunde gibt es z. B. in Çatalhöyük, wo vor rund 8000 Jahren auch Wandmalereien entstanden sind. Mit Beginn der Sesshaftigkeit in der Jungsteinzeit werden unterschiedliche Materialien intensiver und geschickter bearbeitet: Ton, Keramik, Holz, später Metalle wie Bronze (Bronzezeit), Kupfer und Eisen. Verzierte Gefäße, Gürtelschnallen, Schwertknäufe, Gewandspangen (Fibeln) und ähnliche, am Körper von Bestatteten gefundene Gegenstände sowie Totenmasken oder Münzen sind die häufigsten Artefakte, an der die Archäologie den Gestaltungsdrang der vorgeschichtlichen Menschen festmachen können. Von „Kunst“ im heutigen Sinne kann noch nicht gesprochen werden. Gestaltete Gegenstände jenseits des täglichen Gebrauchs wie die jüngst gefundene Himmelsscheibe von Nebra, die die erste bekannte kosmologische Darstellung zeigt, sind extrem selten. Die Eisenzeit bringt in Europa die keltische Kultur hervor, die vom 4. vorchristlichen bis zum 5. nachchristlichen Jahrhundert eine beachtliche künstlerische Produktion vorweisen kann. Von der Keltischen Kunst wirkt besonders die Ornamentik stark bis ins Hohe Mittelalter nach, wo die Buchmalerei auf die verschlungenen Knoten und Ranken dieses geometrisierenden Stils zurückgreift. Ägyptische Kunst. Ca. 3100 v. Chr. wurde Ägypten unter der Herrschaft des Menes vereinigt, mit dem die erste der 31 Dynastien begann, in die Ägyptens alte Geschichte geteilt wird: Altes Reich, Mittleres Reich und Neues Reich. Mit den Hieroglyphen entwickelt sich eine Bilderschrift, der die Vermittlung von Inhalten über Bilder selbstverständlich ist. Die ägyptische Kunst dient ausschließlich dem Totenkult und der Götterverehrung. Der charakteristische ägyptische Stil der Darstellungen – ausschließlich Profil oder Frontalansicht bei Personen, starke Schematisierung bei gleichzeitigem Bestreben, Ähnlichkeiten herzustellen – bildet sich bereits im Alten Reich heraus und bleibt, abgesehen von gewissen Änderungen unter dem Einfluss der Politik Echnatons, 3000 Jahre quasi unverändert. Wandmalereien oder Reliefs in Grabkammern waren nicht zur Betrachtung durch ein reales Publikum bestimmt, sondern „es wird Leben aufbewahrt zur Verfügung des Toten“ (P. Meyer). Zeitlosigkeit ist ein zentrales Anliegen aller Darstellungen. Die Toten sollen für die Ewigkeit gerüstet sein. Das führt in der Plastik soweit, dass hockende Figuren, die in dieser Stellung ihre Existenz im Totenreich überdauern sollen, ab einem bestimmten Moment nur noch als Kubus dargestellt werden. Griechische Kunst. Die griechische Kunst der Antike entstand ab etwa 1050 v. Chr. In der jüngeren Forschung wird ihr auch die vorangehende minoische und mykenische Kunst zugerechnet, die bereits Zeugnisse aus dem 16. Jahrhundert v. Chr. hinterlassen hat. Die wichtigsten künstlerisch bedeutenden Funde der Archäologie sind Skulpturen aus Bronze oder Marmor, bemalte Vasen und Wandfresken. Von der griechischen Malerei ist wenig erhalten, obwohl es eine Fülle von literarischen Zeugnissen und nicht wenige bekannte Namen von Malern gibt (Apelles, Zeuxis usw.). Römische Kunst. Augustus von Primaporta, Vatikanische Museen Rom Die römische Kunst entfaltete sich etwa vom 5. Jahrhundert v. Chr. bis zum 5. Jahrhundert n. Chr. und wurde lange Zeit unter dem Aspekt ihrer Abhängigkeit von der griechischen bewertet. In der Tat verdankt sich etwa die heutige Kenntnis der griechischen Skulptur in hohem Maße der Tatsache, dass wichtige Werke der griechischen Bronzegießer – die wegen des hohen Materialwertes längst wieder eingeschmolzen waren – als römische Marmorkopien überliefert worden sind. Dennoch hat die Kunst des Römischen Reiches in Malerei, Skulptur und vor allem in der Architektur auch neue Wege beschritten. So ermöglichte z. B. der Einsatz von Zement in der römischen Architektur erstmals weitgespannte Kuppeln (Pantheon). Ausgebildet wurden in Rom und seinen Provinzen auch bereits die meisten Bautypen, die vom frühen Christentum für seine Sakralarchitektur übernommen wurden: Zentralbau, Basilika und mehrschiffige Halle. Zeitgenössische Beschreibungen von Kunst und Kunsttheorie lieferten zum Beispiel der Schriftsteller Plinius der Ältere und der Architekt Vitruv. Frühchristliche und byzantinische Kunst. Frühchristliche Kunst ist an den ersten Stätten, an denen sich die neue Religion verbreitet hat, seit dem ersten Jahrhundert nach Chr. nachweisbar: im Heiligen Land und in Rom. Gemäß den Lebensbedingungen einer unterdrückten Bewegung sind in diese Fundorte in Rom zum Teil versteckt: Wandmalereien und einfache Altäre in Katakomben zählen zu den frühesten Zeugnissen. Mit der Machtübernahme Kaiser Konstantins wird das Christentum im Jahr 313 zuerst den anderen Religionen gleichgestellt und in der Folge dann Staatsreligion, weshalb seine symbolischen Zeichen, Bauten und Bilder die konspirativen Orte der Frühzeit verlassen können. Durch die Teilung des Römischen Reiches in Westrom und Ostrom, wo Konstantin das alte Byzantion zur neuen Hauptstadt Konstantinopel ausbaute, entwickeln sich zwei unterschiedliche Konfessionen, die ihre Differenzen zu einem nicht geringen Teil im jeweiligen Umgang mit den Bildern des Heiligen sehen. Während das alte Rom nach den Stürmen der Völkerwanderungszeit zum Zentrum der römisch-katholischen Kirche aufsteigt, entfaltet sich in Konstantinopel das orthodoxe Christentum. Zu den Leistungen der byzantinischen Kunst gehört die Entwicklung eines mobilen Kultbildes, der Ikone, die zu einem zentralen Bestandteil der orthodoxen Liturgie wird. Solitär oder als Bilderwand (Ikonostase) steht sie im Zentrum der Bilderverehrung und bildet viele neue Darstellungsformen aus. Ihr Erfolg ruft als Gegenbewegung den Bilderstreit hervor, in dem sich die beiden grundsätzlichen Haltungen zu Bildern für die gesamte Geschichte der Kunst exemplarisch gegenüberstehen: Ikonoklasten und Ikonodulen. Unter Kaiser Justinian entstehen neue kulturelle Zentren auch im Westen, besonders Ravenna wird mit Bauwerken und Bilderschmuck aufgewertet. Die Mosaiken von San Vitale und Sant’Apollinare in Classe zählen zu den besterhaltenen Zeugnissen dieser spezifisch byzantinischen Kunstform. Sowohl im Mosaik wie auch bei den Ikonen entwickeln sich festgelegte Bildtypen, die die theologischen Inhalte in festgelegten Formen abbilden. Die typische Bauform der orthodoxen Kirche ist die Kreuzkuppelkirche. Das Byzantinische Reich und damit auch seine Kunst endet mit dem Fall Konstantinopels 1453 und seiner Inbesitznahme durch die Türken. Die orthodoxen Kirchen Osteuropas pflegen weiterhin die Tradition der Ikonenmalerei, aufgrund der streng reglementierten Gestaltung wiederholen diese Werke in der Regel jedoch nur ältere Vorbilder. Vorromanik und Romanik. Als sich Karl der Große im Jahr 800 in Rom zum Kaiser krönen lässt, begründet er nicht nur eine bis ins 16. Jahrhundert dauernde politische Praxis, sondern erneuert auch ästhetisch eine europäische Tradition. Seine Rückkehr an die in der Völkerwanderungszeit zu einem Dorf geschrumpfte römische Ex-Metropole lässt sich zum einen als die erste nachantike Anknüpfung an die große Zeit des Römischen Reiches lesen, weshalb die Kunstproduktion unter Karl auch karolingische Renaissance genannt wird. Zweitens verbindet sich das Kaisertum eng mit der fortan wichtigsten Macht, die auch die meisten Bauten und Bilder produzieren wird: der römisch-katholischen Kirche. Man unterscheidet bei der Vorromanik zwischen der merowingischen Kunst, die sich wie ihre Vorgänger noch der keltischen Kultur zurechnen lässt, und der karolingischen Kunst, die bereits den Reichtum und die Vielfalt eines Stils entfaltet, der sich dank der Machtausdehnung Karls in ganz Mitteleuropa verbreitet. In der Malerei ragen Werke der Buchmalerei und der Wandmalerei hervor, eine Reihe von illustrierten Handschriften ordnet man einer Hofschule Karls des Großen zu. In der Architektur wird etwa mit der Aachener Pfalzkapelle versucht, die Tempelbauformen der römischen Kaiserzeit zu reaktivieren. Die den Karolingern nachfolgenden Ottonen führen die qualitätvolle Buchmalerei fort (z. B. die Reichenauer Malerschule) und sorgen, wie die darauffolgenden Salier und Staufer für viele neue Kirchenbauten u. a. in den Gebieten der Expansion nach Osten. Die Romanik zeichnet sich, v. a. im Vergleich zur nachfolgenden Gotik, durch ihre feste Bauweise und einen wehrhaften Charakter aus. Kirchen mussten oftmals noch die Funktion von Burgen erfüllen (Wehrkirche), große Fenster waren technisch noch nicht möglich und aus Sicherheitsgründen nicht erwünscht. Dagegen stand ein hoher Bedarf an Mauerfläche für die Wandmalerei. Weiterer Schmuck waren zweifarbige Bänderungen der Pfeiler und Gewölbegurte, sowie Skulpturen an Portalen und Lettnern. Wichtige romanische Bauten sind z. B. der Speyerer Dom, die Abtei Cluny. Bedeutende skulpturale Kunstwerke sind außerdem aus Bronze erhalten, u. a. die Hildesheimer Bernwardssäule. Dem Kunsthandwerk kommt der aufblühende Reliquienhandel zugute, der die Nachfrage nach prächtigen Reliquiaren erzeugt sowie die liturgischen Erfordernisse der Kirche (Tabernakel, Vortragekreuze, Meßkelche, bestickte liturgische Gewänder, Radleuchter etc.). Mit der Entstehung neuer Reformorden (Cluniazenser, Zisterzienser etc.) entstehen strengere Bauordnungen und präzise Vorschriften für künstlerische Gestaltung, die die Formenentwicklung immer mehr ausdifferenzieren. Gotik. Mit der Entwicklung eines neuen Baustils zu Beginn des 12. Jahrhunderts in Frankreich wird eine Epoche eingeleitet, die unter dem nachträglich gewählten und ursprünglich abwertend gemeinten Begriff Gotik bis zum Ende des Mittelalters die Kunst des Abendlandes prägen wird. Durch die Entdeckung, dass sich das Gewicht von Baulasten, insbesondere Decken, durch Strebebogen von der Wand weg nach außen verlagern lässt, wurden große Fensterflächen möglich, die die gotische Kathedrale zum lichtdurchfluteten Baukörper werden ließen. Als Gründungsbauwerk gilt der Chor der Abteikirche von Saint-Denis bei Paris, als Höhepunkte der französischen Hochgotik die Kathedralen von Chartres, Reims, Notre-Dame de Paris und die Sainte-Chapelle. Im damals deutschsprachigen Raum sind besonders zu nennen das Freiburger Münster, das Straßburger Münster, der Kölner Dom und der Prager Veitsdom. Die Entwicklung der Malerei verdankte einem kriminellen Akt ihren größten Impuls: die Venezianer bringen von ihrer Plünderung Konstantinopels im Rahmen des vierten Kreuzzuges von 1204 einen neuen Bildtyp in den Westen. Die Ikone ist ein mobiles Tafelbild und wird bald als wichtigster Träger für Malerei triumphieren, wo bisher nur auf Wände – ob als Fresko oder Glasmalerei auf den größer gewordenen Fensterflächen – und in Handschriften gemalt wurde. In Italien, wo die Ikone zuerst eintrifft, entwickelt sich auch zuerst eine westliche Maltradition, die mit Duccio einen ersten großen Maler hervorbringt und mit dem ersten Anwender der Perspektive, Giotto di Bondone, die Flächigkeit, die Bedeutungsperspektive und die Naturferne des Mittelalters schon wieder zu überwinden versucht. Die Skulptur entfaltet sich wie in der Romanik vor allem an den Fassaden und Portalen der großen Kirchenbauten, nördlich der Alpen aber vor allem in einer Spezialform des Flügelaltares, dem Schnitzaltar. Besonders im süddeutschen Raum entstehen in der Spätgotik Spitzenwerke in den Werkstätten von Tilman Riemenschneider, Veit Stoß und den Erhards aus Ulm. Renaissance. Mit der Emanzipation der Kaufleute und Seefahrer in den italienischen Stadtstaaten und Fürstentümern wie Florenz (Toskana), Mantua, Urbino, Genua und Venedig entsteht ein neues Publikum für Kunst jenseits kirchlicher oder feudaler Auftraggeber, das dank internationalem Handel kulturelle Einflüsse verschiedenster Kunstzentren aufnehmen kann. Zugleich befördern zufällige und gezielte Funde antiker Kunstwerke vor allem in Rom eine neue Sicht auf den Menschen und sein gestaltetes Ebenbild. Die Renaissance nimmt im Italien des 15. Jahrhunderts ihren Anfang und erreicht dort im 16. Jahrhundert ihren Höhepunkt. In den anderen europäischen Ländern zieht die neue Kunst ab ca. 1500 endgültig ein. Sowohl in der Architektur wie in der Bildhauerei nimmt man sich die Antike unmittelbar zum Vorbild: Proportionen, klassische Säulenordnungen, Bauformen wie der Portikus, die Ädikula werden übernommen und mit anderen Elementen (Kuppeln) kombiniert. Die Künstler befreien sich aus den zünftischen Berufsorganisationen des Mittelalters, werden selbstbewusst, signieren ihre Werke und stellen sich selbst dar. Die immer gekonntere Anwendung der Zentralperspektive (deren erste mathematisch korrekte Übertragung ins Bild 1426 Masaccio in seinem Dreifaltigkeitsfresko in Santa Maria Novella in Florenz gelungen sein soll) ermöglicht immer naturnähere Darstellungen. Manierismus. Die Ausgewogenheit und vollkommene Harmonie der Hochrenaissance wird aufgegeben zugunsten einer Dynamisierung und größerer Spannung. Starke Gegensätze, Asymmetrien, Disharmonien, Verzerrung der Proportionen und außergewöhnliche Farb- und Lichteffekte wurden oft verwandt. Barock. Der Barock umfasst in der Kunstgeschichte die Zeit zwischen der Renaissance und dem Klassizismus, in der Zeit von etwa 1600–1750. Als eine Vorstufe des Barock gilt der Manierismus. Der Barock ist stark durch die Fantasie gekennzeichnet, die von der Bewunderung der großen Maler des 16. Jahrhunderts ausging. Es entsprang dem noch immer bleibenden Interesse am Studium der klassischen Antike. In diesem Sinne brach der Barock nicht mit der Renaissance, sondern entwickelte ihn zu einer dynamischeren, künstlerischen Auffassung weiter, in der für den Künstler jede Komposition möglich war; und der hielt sich mehr an die Vermutung als an das formale Gleichgewicht. Der barocke Stil breitete sich über ganz Europa aus. In den letzten Jahrzehnten dieser Periode (1720–1750) traten in Frankreich und den germanischen Ländern einige Besonderheiten auf, das Rokoko wurde geboren. In dieser Periode der Begeisterung für das Dekorative erreichte auch die Pastellmalerei ihre Blütezeit. Rokoko. Der Übergang vom Barock zum Rokoko ("franz." rocaille-Muschel) ist fließend, weswegen das Rokoko auch als Spätbarock bezeichnet wird. Sein Ursprung findet sich im Lebensgefühl des französischen Adels im 18. Jahrhundert. Durch Schäferspiele, Hirtenszenen, opulente Feste, Kostümbälle, Picknicks und Konzerte erzeugte der Adel die Illusion eines unbeschwerten, natürlichen Lebens. Die Sehnsucht nach einem idealisierten Landleben manifestierte sich in Lustschlösschen, Pavillons und dazugehörigen, gestalteten Parkanlagen. Die Frivolität und das spielerische Vergnügen findet sich auch als perfekte Illusion in den raffiniert verfeinerten Motiven des Rokokos wieder. Helle, luftige Farbtöne werden verwendet, die Arbeiten sind übertrieben dekoriert, so auch die Verzierungen von Möbeln und Alltagsgegenständen. Klassizismus. Klassizismus bezeichnet als kunstgeschichtliche Epoche den Zeitraum etwa zwischen 1770 und 1840. Der Klassizismus löste den Barock ab. Eine Form des Klassizismus ist das Biedermeier. Die Epoche wurde in der Architektur von der Romantik begleitet und vom Historismus abgelöst. Im Verhältnis zum Barock kann der Klassizismus als künstlerisches Gegenprogramm aufgefasst werden. Gegen Ende des 18. Jahrhunderts gelangte er nach einer ersten Phase der Koexistenz durch die anhaltenden Diskussionen über die ästhetischen Leitbilder des Barocks zur Vorherrschaft. Der Klassizismus in der Architektur basiert auf dem Formenkanon des griechischen Tempelbaus, lehnt sich teilweise aber auch an die italienische Frührenaissance an. Außerhalb des deutschsprachigen Raums wird der Klassizismus als ‚Neoklassizismus‘ bezeichnet, dagegen bezeichnet Neoklassizismus im Deutschen die klassizistischen Strömungen im 20. Jahrhundert. Romantik. Die Romantik ist nicht durch eine besondere Mal- oder Stilart geprägt, vielmehr geht es in dieser Epoche um das Brechen klassischer Normen und die Rückbesinnung auf die Natur, Geschichte und Religion. Durch die Hervorhebung von Emotionalem, Phantastischem und Ungebundenem, versuchte man eine Reaktion auf die Aufklärung zu geben und die Formen des Empirismus und der strengen Art des Klassizismus fallen zu lassen. Moderne. Naturalismus, Impressionismus, Pointillismus, Symbolismus, Jugendstil, Expressionismus, Fauvismus, Kubismus, Orphismus, Futurismus, Suprematismus, Dadaismus, Surrealismus, Purismus, Konstruktivismus, Neoplastizismus, Art Déco, Bauhaus, Neue Sachlichkeit, Sozialistischer Realismus, Phantastischer Realismus, Abstrakter Expressionismus, Informel, Art Brut, Funktionalismus Siehe auch: Kunst im Nationalsozialismus Postmoderne. Minimalismus, Happening, Fluxus, Pop-Art, Videokunst, Fotorealismus, Konzeptkunst, Performance, Land Art, Body Art, Neue Wilde, Zeitgenössische Kunst Afrika. Spricht man von afrikanischer Kunst, so meint man damit die Kunst Schwarzafrikas, die sich – wie auch die übrige afrikanische Kultur – vom arabischen Norden des Kontinents, den Staaten des Maghrebs, unterscheidet und die künstlerische Produktion vieler sehr verschiedener Ethnien umfasst. Die bäuerlichen Strukturen Afrikas, die hauptsächlich Holzskulpturen hervorbrachten, die klimatischen Bedingungen und ein Lebensraum, der es Termiten und anderen Schädlingen leicht macht, haben fast keine historischen Objekte der traditionellen afrikanischen Kunst überliefert. Da die künstlerisch gestalteten Werke des damals kolonisierten Kontinents erst seit Anfang des 20. Jahrhunderts in Europa als Objekte authentischer Kulturen geschätzt, erforscht und vor allem gesammelt wurden, sind die meisten Werke in den Museen und Sammlungen innerhalb wie außerhalb Afrikas sowie auf dem Kunstmarkt mit wenigen Ausnahmen nicht älter als 150 Jahre. Heute überholte, diskriminierend klingende Begriffe wie Primitivismus, Negerplastik (Carl Einstein) oder (in Frankreich) art negre waren affirmative Schlagworte der Klassischen Moderne, die sich die klaren Formen und die zeitlose Aura der afrikanischen Objekte zum Vorbild nahm. Amerika. Zur präkolumbische Kunst siehe: Azteken, Chichimeken, Huaxteken, Inka, Maya, Mixteken, Olmeken, Purépecha (Tarasken), Tolteken, Totonaken, Zapoteken, Chavin, Moche, Chimu, Recuay, Paracas, Nasca, Ica-Chincha, Chancay, Lima, Taíno, Marajó, Muisca, Narino, Tairona, Calima, Tolima, Sinu, Guinea. Bundesgerichtshof. a>, heute Hauptgebäude des BGH, Karlsruhe Der Bundesgerichtshof (BGH) in Karlsruhe ist das oberste Gericht der Bundesrepublik Deutschland auf dem Gebiet der ordentlichen Gerichtsbarkeit und damit letzte Instanz in Zivil- und Strafverfahren. Ferner ist er für verwandte Spezialrechtsgebiete zuständig wie etwa das Berufsrecht in der Rechtspflege. Der BGH soll durch seine Rechtsprechung die Rechtseinheit wahren und das Recht fortbilden, vor allem aber die Entscheidungen der ihm untergeordneten Gerichte überprüfen. Er ist neben dem Bundesarbeitsgericht, Bundesfinanzhof, Bundessozialgericht und Bundesverwaltungsgericht einer der fünf obersten Gerichtshöfe des Bundes (Abs. 1 GG). Im Gegensatz zum Bundesverfassungsgericht, das seinen Sitz ebenfalls in Karlsruhe hat, stellt der BGH kein eigenes Verfassungsorgan dar. Hauptsächlich entscheidet der BGH über Revisionen gegen Urteile der Landgerichte und Oberlandesgerichte. Wie jedes Revisionsgericht erhebt er dabei – anders als ein Berufungsgericht – im Regelfall keine Beweise, sondern entscheidet lediglich darüber, ob das Urteil des Land- oder Oberlandesgerichts auf Rechtsfehlern beruht. Als Behörde ist der Bundesgerichtshof – wie der Bundesfinanzhof und das Bundesverwaltungsgericht – ressortmäßig dem Bundesministerium der Justiz und für Verbraucherschutz (BMJV) unterstellt und unterliegt dessen allgemeiner Dienstaufsicht. Als Gericht ist der BGH aufgrund der richterlichen Unabhängigkeit allerdings keiner Aufsicht unterstellt. Gründung und Sitz. Villa Sack (5. Strafsenat), Leipzig Der Bundesgerichtshof wurde am 1. Oktober 1950 gegründet und hat seinen Hauptsitz seitdem in Karlsruhe. Der 5. Strafsenat des BGH hat seinen Sitz in der Villa Sack in Leipzig. Ursprünglich sollte nach der Wiedervereinigung Deutschlands der gesamte BGH in das historische Reichsgerichtsgebäude in Leipzig ziehen, doch konnte sich dieser Vorschlag, zumal gegen den Willen der Richter, politisch nicht durchsetzen. Leipzig erhielt daher gemäß der Empfehlung der Föderalismuskommission nur den 5. Strafsenat, der zuvor als einziger BGH-Senat zur Pflege der „gewachsenen Verbindungen zwischen West-Berlin und der Bundesrepublik“ in Berlin residiert hatte. In das Reichsgerichtsgebäude zog am 22. August 2002 das bis dahin ebenfalls in Berlin ansässig gewesene Bundesverwaltungsgericht. Spruchkörper. Die Richter des BGH sind in Senate eingeteilt, die je einen Vorsitzenden und sechs bis acht weitere Mitglieder haben. An den einzelnen Entscheidungen der Senate sind nicht alle Mitglieder beteiligt, sondern die Richter arbeiten in sogenannten Sitzgruppen. Diese bestehen gemäß Abs. 1 Gerichtsverfassungsgesetz (GVG) aus dem Vorsitzenden und vier Beisitzern aus dem Kreis der weiteren Mitglieder, sodass ein Senat als Spruchkörper grundsätzlich in der Besetzung von fünf Mitgliedern entscheidet. Die Zahl der Senate wird gemäß GVG vom Bundesminister der Justiz bestimmt und erhöhte sich seit Gründung des BGH mehrfach. Seit 1990 gibt es zwölf Zivilsenate, die mit römischen Zahlen durchnummeriert sind, und fünf Strafsenate, die mit arabischen Zahlen durchnummeriert sind. Zusätzlich bestand von 2003 bis 2004 ein Hilfssenat (IXa-Zivilsenat) zur vorübergehenden Entlastung des IX. Zivilsenats und von 2009 bis 2010 ein weiterer Hilfssenat (Xa-Zivilsenat) zur vorübergehenden Entlastung des X. Zivilsenats. Zudem gibt es acht Spezialsenate. Sechs davon beschäftigen sich mit dem Berufsrecht in der Rechtspflege, namentlich das Dienstgericht des Bundes (das für dienstrechtliche Verfahren von Richtern und Mitgliedern des Bundesrechnungshofs zuständig ist), der Senat für Notarsachen, der Senat für Anwaltssachen, der Senat für Patentanwaltssachen, der Senat für Wirtschaftsprüfersachen und der Senat für Steuerberater- und Steuerbevollmächtigtensachen. Die beiden weiteren sind der Kartellsenat und der Senat für Landwirtschaftssachen. Den Spezialsenaten gehören die Richter zusätzlich zu ihrer Tätigkeit in einem der Zivil- oder Strafsenate an, da die Spezialsenate nur gelegentlich zusammentreten. Für die Entscheidungen über Ermittlungsanträge des Generalbundesanwalts in Strafverfahren (z. B. Hausdurchsuchung, Beschlagnahme, Haftbefehl) sind wie bei jedem Strafgericht besondere Ermittlungsrichter bestellt, deren Zahl – gegenwärtig sechs – vom Bundesminister der Justiz bestimmt wird (GVG). Auch diese Tätigkeit erfolgt zusätzlich zu der in einem der Straf- oder Zivilsenate. Die Entscheidungen der Ermittlungsrichter können in bestimmten Fällen (Abs. 5 StPO) durch Beschwerde angefochten werden, über welche ein Strafsenat des Bundesgerichtshofs entscheidet (kleiner Devolutiveffekt), der dann gemäß Abs. 2 GVG ausnahmsweise nur mit drei Richtern besetzt ist. Geschäftsverteilung. Die Verteilung der einzelnen Verfahren auf die verschiedenen Senate ist im Geschäftsverteilungsplan des Gerichts geregelt. Das Prinzip des gesetzlichen Richters verlangt, dass von vornherein nach abstrakt-generellen Kriterien festgelegt ist, welcher Senat in welcher Besetzung für einen Fall zuständig ist, bevor der Bundesgerichtshof für eine Rechtssache zuständig wird. Auf diese Weise sollen Interessenkonflikte vermieden werden. Strafsenate. Die 24 Oberlandesgerichte und die fünf zuständigen Strafsenate (Stand Jan. 2015).Die Zahlen befinden sich am Sitz des jeweiligen Oberlandesgerichts. Geschichte der Geschäftsverteilung. Bis zur Wiedervereinigung hatte der 5. Strafsenat seinen Sitz in West-Berlin, war jedoch stets auch für andere westdeutsche Oberlandesgerichtsbezirke zuständig. Im Zuge der Wiedervereinigung wurde der Senat nach Leipzig verlegt, behielt jedoch bis heute die Zuständigkeit für das (dann vergrößerte) Land Berlin. In den ersten Jahren nach der Wiedervereinigung bestanden in den neuen Ländern die Bezirksgerichte der DDR fort. Jedem Strafsenat wurde die Zuständigkeit für die Bezirksgerichte in einem der fünf Länder zugewiesen (Mecklenburg-Vorpommern zum 1. Strafsenat, Thüringen zum 2. Strafsenat, Sachsen zum 3. Strafsenat, Sachsen-Anhalt zum 4. Strafsenat und Brandenburg zum 5. Strafsenat). Erst 1993 und 1994 wurden die Oberlandesgerichte Jena, Naumburg, Rostock, Brandenburg und Dresden errichtet. Auch nach der Wiedervereinigung wurden gelegentlich einzelne Oberlandesgerichte der Zuständigkeit eines anderen Strafsenats unterstellt. So wechselte 1991 das OLG Oldenburg vom 5. in den 3. Strafsenat (Bild 2) und 1993 das OLG Rostock mit seiner Errichtung vom 1. in den 4. Strafsenat (Bild 3). 1998 tauschten die OLGs Celle und Dresden die Senate, d. h. ab 1998 war Celle dem 3. Strafsenat und Dresden dem 5. Strafsenat zugewiesen (Bild 4). 2010 wechselte die Zuständigkeit für das OLG Schleswig vom 3. in den 5. Strafsenat (Bild 5) und 2012 die Zuständigkeit für das OLG Rostock vom 4. in den 3. Strafsenat und für das OLG Saarbrücken vom 4. in den 5. Strafsenat (Bild 6). 2014 wurden die südlichen Landgerichte des OLG Karlsruhe dem 4. Strafsenat zugeordnet; ferner wechselte die Zuständigkeit des OLG Koblenz vom 2. zum 3. Strafsenat (Bild 7). Im Jahr 2015 wurde die Zuständigkeit des OLG Rostock zum dritten Mal geändert: nun zum 2. Strafsenat (Bild 8). Arbeitsweise. Ist durch die Geschäftsverteilung des Gerichts ein Fall dem zuständigen Senat zugeteilt worden, so bestimmt anschließend die von den Richtern des jeweiligen Senats gemäß GVG vor Beginn des Geschäftsjahres zu beschließende senatsinterne Geschäftsverteilung, in welcher personellen Besetzung über die Sache entschieden wird und welcher Richter Berichterstatter ist, also die Akten bearbeitet und den Fall vorbereitet. Der Vorsitzende übt keine Berichterstattertätigkeit aus, sondern liest die Akten aller dem Senat zugewiesenen Fälle zusätzlich zum jeweiligen Berichterstatter (Vier-Augen-Prinzip). Der Senat trifft sich in regelmäßigen Abständen zur Beratung, die in Zivilsachen durch „Voten“ (gutachtliche Stellungnahmen und Entscheidungsvorschläge) der jeweiligen Berichterstatter vorbereitet wird. In Strafsachen dagegen werden in der Beratung von jedem Richter die ihm als Berichterstatter zugewiesenen Fälle mündlich zusammengefasst und die rechtlichen Probleme herausgestellt. Anschließend wird gemeinsam über den Fall beraten. Unter bestimmten Voraussetzungen, die im Abschnitt "Verfahren" beschrieben sind, kann der Senat aufgrund des Beratungsergebnisses durch schriftlichen Beschluss entscheiden, ohne dass eine Verhandlung stattfindet. Anderenfalls wird eine Verhandlung anberaumt, welche grundsätzlich öffentlich ist. Eine Verhandlung in Revisionssachen entspricht einem Gespräch zwischen den Richtern und den Verfahrensbeteiligten über die Frage, ob das angefochtene Urteil auf Rechtsfehlern beruht. In der anschließenden Urteilsberatung wird, sofern keine Einigkeit besteht, eine Entscheidung durch Abstimmung herbeigeführt, wobei jeder der fünf Richter eine Stimme hat. Die Entscheidung wird anschließend als Urteil verkündet. Verfahren. Der Bundesgerichtshof wird gemäß §§ 133, 135 Gerichtsverfassungsgesetz (GVG) hauptsächlich als Revisionsgericht tätig. Zudem entscheidet der BGH in Zivilsachen über Sprungrevisionen, Rechtsbeschwerden und Sprungrechtsbeschwerden (GVG) sowie in Strafsachen über Beschwerden gegen Beschlüsse und Verfügungen der Oberlandesgerichte und Beschwerden gegen Verfügungen der Ermittlungsrichter des BGH (GVG). Durch Sondervorschriften in anderen Gesetzen sind ihm weitere Verfahren zugewiesen. Im Jahr 2014 hatte der BGH in Zivilsachen 4.158 Revisionen einschließlich Nichtzulassungsbeschwerden, 1.544 Rechtsbeschwerden und ähnliche Verfahren sowie 528 sonstige Rechtssachen zu bearbeiten. In Strafsachen waren es für die Senate 2.976 Revisionen einschließlich Vorlegungssachen und 436 sonstige Rechtssachen, für die Ermittlungsrichter 1.247 Rechtssachen. Revision in Strafsachen. Die Revision in Strafsachen zum BGH erfolgt gegen die in erster Instanz ergangenen Urteile der Landgerichte (Große Strafkammern) und der Oberlandesgerichte (in Staatsschutzsachen nach GVG). Sie kann sowohl vom Angeklagten als auch von der Staatsanwaltschaft oder der Nebenklage eingelegt werden. Hält der Senat aufgrund seiner Beratung die Revision für unzulässig (Abs. 1 Strafprozessordnung) oder dem Antrag des Generalbundesanwalts entsprechend einstimmig für offensichtlich unbegründet (§ 349 Abs. 2 StPO) oder hält er eine zugunsten des Angeklagten eingelegte Revision einstimmig für begründet (§ 349 Abs. 4 StPO), so kann er durch Beschluss entscheiden. In den übrigen Fällen (ca. 5 % der Revisionen) wird aufgrund einer Hauptverhandlung durch Urteil entschieden (§ 349 Abs. 5 StPO). In der Hauptverhandlung vor dem Bundesgerichtshof wird die Staatsanwaltschaft durch einen Vertreter des Generalbundesanwalts vertreten, der Angeklagte durch seinen Verteidiger, sofern er einen hat. Der Angeklagte darf zwar, sofern es ihm möglich ist, persönlich an der Verhandlung teilnehmen, hat jedoch keinen Anspruch darauf. Insbesondere hat er keinen Anspruch auf Überführung zur Verhandlung, sofern er sich in Haft befindet (Abs. 2 StPO). Dies ist dadurch begründet, dass die Verhandlung der Erörterung von Rechtsfragen dient (keine Beweisaufnahme) und somit der Anspruch des Verteidigers auf Anwesenheit zur Wahrung der Interessen des Angeklagten genügt. In der Praxis nimmt der Angeklagte sehr selten an der Verhandlung teil. Gemäß StPO beginnt die Hauptverhandlung mit dem Vortrag des Berichterstatters. Daran schließt sich der Vortrag desjenigen Beteiligten an, der Revision eingelegt hat. Anschließend folgen die Ausführungen der Gegenseite. Sofern der Angeklagte anwesend ist, erhält er das letzte Wort. Hält der BGH eine Revision für begründet, so wird das angefochtene Urteil aufgehoben (StPO). Der BGH kann anschließend jedoch nur selbst in der Sache entscheiden, sofern keine weiteren Tatsachenfeststellungen erforderlich sind und keine neue Strafzumessung vorzunehmen ist. Dies ist gemäß StPO unter anderem der Fall, wenn der Angeklagte nach Ansicht des BGH aus rechtlichen Gründen freizusprechen ist, das Verfahren einzustellen ist oder in Übereinstimmung mit dem Antrag der Staatsanwaltschaft auf die Mindeststrafe erkannt werden kann. Auch Fehler beim Strafausspruch kann der BGH teilweise selbst korrigieren. Liegen die Voraussetzungen für eine eigene Entscheidung des BGH nicht vor, insbesondere wenn weitere Tatsachenfeststellungen erforderlich sind, so verweist er die Sache zur erneuten Verhandlung und Entscheidung an einen anderen Spruchkörper des erstinstanzlichen Gerichts zurück (§ 354 Abs. 2 StPO). Revision und Rechtsbeschwerde in Zivilsachen. Die Revision in Zivilsachen zum BGH erfolgt in der Regel gegen in der Berufungsinstanz erlassene Endurteile der Land- und Oberlandesgerichte. Sie ist nur möglich, wenn sie vom Berufungsgericht zugelassen wurde oder der Bundesgerichtshof sie aufgrund einer Nichtzulassungsbeschwerde nachträglich für zulässig erklärt (Abs. 1 Zivilprozessordnung). Die Revision ist zuzulassen, wenn die Rechtssache grundsätzliche Bedeutung hat oder zur Fortbildung des Rechts oder Sicherung einer einheitlichen Rechtsprechung eine Entscheidung des Bundesgerichtshofs erforderlich ist (§ 543 Abs. 2 ZPO). Hält der Senat eine Revision für unzulässig, verwirft er sie, was durch Beschluss erfolgen kann (ZPO). Sind nach einstimmiger Ansicht des Senats die Voraussetzungen für die Zulassung der Revision durch das Berufungsgericht nicht gegeben und zudem keine Erfolgschancen ersichtlich, wird die Revision durch Beschluss zurückgewiesen (ZPO). In der Mehrzahl der Verfahren entscheidet der Senat jedoch aufgrund einer mündlichen Verhandlung (ZPO) durch Urteil. In Zivilsachen müssen sich die Parteien von einem beim BGH zugelassenen Rechtsanwalt vertreten lassen (siehe Abschnitt "Rechtsanwälte"). Hat eine Revision Erfolg, so wird das angefochtene Urteil aufgehoben. Ist der Sachverhalt rechtsfehlerfrei festgestellt worden und die Sache danach reif zur Entscheidung, so entscheidet der BGH selbst über sie (Abs. 3 ZPO). Andernfalls verweist er die Sache zur erneuten Verhandlung und Entscheidung an das Berufungsgericht zurück (§ 563 Abs. 1 ZPO). In Familiensachen wurde zum 1. September 2009 das Rechtsmittel der Revision durch das der Rechtsbeschwerde abgelöst, welche hier grundsätzlich nur bei Zulassung durch die Vorinstanz möglich ist. Eine Rechtsbeschwerde wird ähnlich behandelt wie eine Revision (vgl. ZPO), über sie wird jedoch gemäß § 577 Abs. 6 ZPO durch Beschluss entschieden, welcher nicht begründet werden muss, sofern die Sache keine grundsätzliche Bedeutung hat. Auch in anderen Bereichen als dem Familienrecht erfolgt die Beanstandung bestimmter Arten von Entscheidungen nicht durch Revision, sondern durch Rechtsbeschwerde, beispielsweise die Beanstandung von Nebenentscheidungen und Entscheidungen in Nebenverfahren wie Zwangsvollstreckungs-, Insolvenz- und Kostensachen. Große Senate. Beim Bundesgerichtshof sind gemäß Abs. 1 GVG ein Großer Senat für Zivilsachen und ein Großer Senat für Strafsachen eingerichtet, welche zusammen die Vereinigten Großen Senate bilden. Gemäß § 132 Abs. 5 GVG besteht der Große Senat für Zivilsachen aus dem Präsidenten und je einem Mitglied der Zivilsenate, der Große Senat für Strafsachen aus dem Präsidenten und je zwei Mitgliedern der Strafsenate. Die Mitglieder der Großen Senate werden vom Präsidium bestimmt (§ 132 Abs. 6 GVG). Häufig sind die Senatsvorsitzenden auch Vertreter ihres Senats im Großen Senat. Will ein Senat in einer Rechtsfrage von der Entscheidung eines anderen Senats abweichen, an welcher der andere Senat auf Anfrage festhält, so muss die Sache gemäß § 132 Abs. 2 und 3 GVG dem Großen Senat vorgelegt werden, welcher dann verbindlich über die Rechtsfrage entscheidet (Abs. 1 GVG). Will ein Zivilsenat von einem anderen Zivilsenat abweichen, so ist der Große Senat für Zivilsachen anzurufen, bei Abweichungen zwischen Strafsenaten der Große Senat für Strafsachen. Will hingegen ein Zivilsenat von einem Strafsenat abweichen oder umgekehrt, so entscheiden die Vereinigten Großen Senate. Des Weiteren kann ein Senat eine Frage von grundsätzlicher Bedeutung dem Großen Senat zur Entscheidung vorlegen, wenn das nach seiner Auffassung zur Fortbildung des Rechts oder zur Sicherung einer einheitlichen Rechtsprechung erforderlich ist (§ 132 Abs. 4 GVG). Die Großen Senate entscheiden nur über Rechtsfragen, der vorlegende Senat ist jedoch bei seiner anschließenden Sachentscheidung an die Entscheidung des Großen Senats zur Rechtsfrage gebunden (§ 138 Abs. 1 S. 3 GVG). Da die Großen Senate nur über Rechtsfragen befinden, können sie ohne mündliche Verhandlung entscheiden (§ 138 Abs. 1 S. 2 GVG), wobei in Strafsachen stets der Generalbundesanwalt zu hören ist, was auch in der Beratung geschehen kann (§ 138 Abs. 2 GVG). Entscheidungen werden im Fall der Uneinigkeit durch Abstimmung herbeigeführt, wobei jeder Richter eine Stimme hat; bei Stimmengleichheit gibt die Stimme des Vorsitzenden, also des Präsidenten, den Ausschlag (§ 132 Abs. 6 S. 3 GVG). Verhältnis zu anderen Gerichten. Der Bundesgerichtshof steht als oberstes Gericht der ordentlichen Gerichtsbarkeit im Instanzenzug über den Amts-, Land- und Oberlandesgerichten der Länder. Gegen seine Entscheidungen ist somit grundsätzlich kein Rechtsmittel mehr möglich, sie werden mit ihrer Verkündung rechtskräftig. Zwar kann auch gegen Entscheidungen des BGH – wie gegen jeden Akt der deutschen Öffentlichen Gewalt – Verfassungsbeschwerde vor dem Bundesverfassungsgericht eingelegt werden, doch stellt diese keine vollständige Überprüfung der Entscheidung des BGH dar, sondern lediglich eine Überprüfung am Maßstab des Verfassungsrechts. Zu den anderen obersten Gerichtshöfen des Bundes ist der BGH gleichrangig, kann sich also nicht über deren Rechtsauffassungen hinwegsetzen. Für die Entscheidung von Rechtsfragen bei abweichenden Rechtsauffassungen zwischen dem Bundesgerichtshof und einem anderen obersten Gerichtshof des Bundes ist gemäß Abs. 3 GG der Gemeinsame Senat der obersten Gerichtshöfe des Bundes zuständig. Hat der Bundesgerichtshof Recht der Europäischen Union anzuwenden, so ist er gemäß AEUV als letzte innerstaatliche Instanz grundsätzlich dazu verpflichtet, eine noch ungeklärte Rechtsfrage vorab im Rahmen eines Vorabentscheidungsverfahrens dem Gerichtshof der Europäischen Union in Luxemburg vorzulegen, dessen Beantwortung der Rechtsfrage für den BGH bei seiner anschließenden Sachentscheidung bindend ist. Mögliche Verstöße gegen die Europäische Menschenrechtskonvention (EMRK) durch Entscheidungen des BGH – ebenso wie jedes anderen letztinstanzlichen Gerichts – können vor dem Europäischen Gerichtshof für Menschenrechte (EGMR) in Straßburg geltend gemacht werden. Bislang nicht abschließend geklärt ist, welche Bindungswirkung die Urteile des EGMR in Deutschland haben. Die Rechtsprechung des BGH ist auch für die österreichische Rechtswissenschaft von Bedeutung: Im Bereich des Handelsrechts, das überwiegend durch das in Österreich im Jahr 1938 eingeführte deutsche Handelsgesetzbuch geregelt ist, orientieren sich die Gerichte in Auslegungsfällen bevorzugt an Entscheidungen des BGH. Das österreichische Handelsgesetzbuch wurde zwar zum 1. Januar 2007 im Zuge einer umfassenden Novelle in Unternehmensgesetzbuch umbenannt, stimmt jedoch weiterhin in vielen Teilbereichen mit dem deutschen Handelsgesetzbuch überein. Beschäftigte. Der Bundesgerichtshof hat (Stand 2012) 404,5 Planstellen. Davon sind 129 Richter, 48 wissenschaftliche Mitarbeiter, 106,5 Beamte, 116 tarifliche Arbeitnehmer und 5 Auszubildende. Da einige Personen in Teilzeit beschäftigt sind, liegt die tatsächliche Zahl der Beschäftigten etwas höher – im Jahr 2012 lag sie bei 406 Personen. Präsident. An der Spitze des Gerichts steht der Präsident. Er ist Dienstvorgesetzter aller Beschäftigten. Als Präsident eines Obersten Gerichtshofs des Bundes ist er in die Besoldungsgruppe R 10 eingestuft. Er ist gemäß GVG kraft Amtes Vorsitzender des Präsidiums des BGH, welchem des Weiteren zehn gewählte Richter angehören und welches gemäß Abs. 1 GVG für die Besetzung der Senate und die Geschäftsverteilung zuständig ist. Der Präsident gehört in der Regel keinem der Zivil- oder Strafsenate an, häufig jedoch dem Kartellsenat. Er führt zudem kraft Gesetzes (Abs. 6 S. 3 GVG) den Vorsitz in den Großen Senaten, wo seine Stimme bei Stimmengleichheit den Ausschlag gibt. Ebenfalls kraft Gesetzes ist er Vorsitzender des Senats für Anwaltssachen (Abs. 2 BRAO). Richter. Die Richter am Bundesgerichtshof tragen durch die ihnen übertragenen Aufgaben eine besondere Verantwortung. Durch die Auswahl der Richter kann die Rechtsprechung in der Bundesrepublik Deutschland erheblich beeinflusst werden. Deshalb wird sie von einem Richterwahlausschuss vorgenommen (Abs. 1 GVG), welchem die Justizminister der Länder und 16 vom Bundestag gewählte Mitglieder angehören. Kandidaten können gemäß Richterwahlgesetz (RiWG) vom Bundesjustizminister und von den Mitgliedern des Richterwahlausschusses vorgeschlagen werden. Gewählt werden kann nur, wer die deutsche Staatsangehörigkeit besitzt und das 35. Lebensjahr vollendet hat (§ 125 Abs. 2 GVG). Der Bundesgerichtshof gibt durch seinen Präsidialrat eine Stellungnahme zur persönlichen und fachlichen Eignung der Vorgeschlagenen ab, welche für den Richterwahlausschuss aber nicht bindend ist. Der Richterwahlausschuss entscheidet in geheimer Abstimmung mit der Mehrheit der abgegebenen Stimmen (RiWG). Nach ihrer Wahl werden die Richter vom Bundespräsidenten ernannt. Die Richter am Bundesgerichtshof sind grundsätzlich hauptamtliche und planmäßige Berufsrichter. Lediglich bei den Entscheidungen der Spezialsenate zum Berufsrecht kommen neben drei Berufsrichtern zwei ehrenamtliche Richter aus dem jeweiligen Berufszweig zum Einsatz. Die Berufsrichter sind als Bundesrichter an einem der Obersten Gerichtshöfe des Bundes grundsätzlich in die Besoldungsgruppe R 6 eingeordnet, Vorsitzende Richter in die Besoldungsgruppe R 8; zusätzlich erhalten alle eine Bundeszulage. Die derzeit 129 Richter und Vorsitzenden Richter üben ihr Amt wie alle Richter unabhängig aus (Abs. 1 GG) und werden auf Lebenszeit ernannt (Abs. 2 S. 2 GG), können also vor Erreichen des Renteneintrittsalters nur aufgrund schwerwiegender Verstöße aus dem Amt entfernt werden. Das "Dienstgericht des Bundes" ist als einer der Spezialsenate beim Bundesgerichtshof selbst eingerichtet, hätte letztlich also gemäß DRiG über Disziplinarmaßnahmen gegen Kollegen bis hin zur Entfernung aus dem Amt zu entscheiden. Der Frauenanteil unter den Richtern am Bundesgerichtshof beträgt derzeit (Stand 2015) mit 36 von 130 Personen (einschließlich der Präsidentin) 28 Prozent. Er ist damit gegenüber 2012, als es mit 26 von 130 Personen genau 20 Prozent waren, stark gestiegen. Im Vergleich mit den anderen obersten Gerichtshöfen des Bundes hat der BGH einen höheren Frauenanteil als der Bundesfinanzhof (22 %) oder das Bundessozialgericht (26 %) und einen ebenso hohen Anteil wie das Bundesverwaltungsgericht (28 %); lediglich das Bundesarbeitsgericht hat einen höheren Anteil (40 %). Wissenschaftliche Mitarbeiter. Der BGH beschäftigt stets etwa 50 wissenschaftliche Mitarbeiter, offiziell „wissenschaftliche Hilfskräfte“ ( Abs. 1 GVG), intern meist „Hiwis“ genannt. Die wissenschaftlichen Mitarbeiter müssen die Befähigung zum Richteramt haben und sind meist Richter am Amts-, Land-, Oberlandes- oder Bundespatentgericht oder Staatsanwälte. Sie werden für drei Jahre an den BGH abgeordnet und einem Senat zugeteilt. Dort sollen sie die Richter durch vorbereitende Arbeiten, insbesondere durch Recherche, Voten und Entscheidungsentwürfe, in ihrer juristischen Arbeit unterstützen. In der Regel erhält jeder Zivilsenat drei und jeder Strafsenat zwei wissenschaftliche Mitarbeiter. Sonstige Beschäftigte. Die etwa 240 weiteren Beschäftigten des BGH sind teilweise den einzelnen Senaten zugeordnet, wie etwa die Geschäftsstellen und Schreibkräfte, oder sie nehmen die zahlreichen am Gericht bestehenden allgemeinen Verwaltungsaufgaben wahr, wie etwa Bibliotheksführung, Öffentlichkeitsarbeit, Sicherheit, Poststelle oder technische Dienste. Rechtsanwälte. Vor dem Bundesgerichtshof können in Zivilsachen grundsätzlich (abgesehen von Patent-Nichtigkeitsverfahren) nur besonders zugelassene Rechtsanwälte auftreten. Die Zulassung erfolgt gemäß Bundesrechtsanwaltsordnung (BRAO) durch das Bundesministerium der Justiz. Zugelassen werden kann nur, wer das 35. Lebensjahr vollendet hat, den Rechtsanwaltsberuf mindestens fünf Jahre ohne Unterbrechung ausgeübt hat und durch den Wahlausschuss für Rechtsanwälte bei dem Bundesgerichtshof benannt wird (BRAO). Der Wahlausschuss besteht aus dem Präsidenten und den Senatsvorsitzenden der Zivilsenate des Bundesgerichtshofes sowie aus den Mitgliedern des Präsidiums der Bundesrechtsanwaltskammer und des Präsidiums der Rechtsanwaltskammer bei dem Bundesgerichtshof (BRAO). Die beim Bundesgerichtshof zugelassenen Rechtsanwälte sind Pflichtmitglieder der Rechtsanwaltskammer beim Bundesgerichtshof und nur dort zugelassen (Singularzulassung). Sie haben ihren Kanzleisitz alle im Stadt- oder Landkreis Karlsruhe. Gegenwärtig (Stand 2015) sind 46 Rechtsanwälte beim BGH zugelassen. Die Kriterien für die Auswahl sind „weit überdurchschnittliche[n] Kenntnisse und Fähigkeiten, die forensische Erfahrung und die Befähigung zum praktischwissenschaftlichen Arbeiten“. Die letzten Wahlen fanden 2006 und 2013 statt. Die Zulassungsbeschränkung wird mit dem Erfordernis erhöhten revisionsrechtlichen Sachverstands begründet. Ob sie mit der Verfassung (insbesondere GG) vereinbar ist, wird seit Jahren immer wieder aufs Neue diskutiert. Der BGH hat es mit Beschluss vom 5. Dezember 2006 bejaht. Die dagegen eingelegte Verfassungsbeschwerde wurde vom Bundesverfassungsgericht mit Kammerbeschluss vom 27. Februar 2008 nicht zur Entscheidung angenommen, jedoch führt das Gericht in dem Beschluss aus, dass GG nicht verletzt sei. In Strafsachen kann hingegen jeder Verteidiger vor dem BGH auftreten. In Verfahren nach dem Bundesrückerstattungsgesetz besteht gar kein Anwaltszwang (Abs. 3 ZustÜblG), sodass insoweit jede Person vor dem BGH auftreten kann. Elektronische Eingaben. Das Gericht nimmt eine Vorreiterrolle im elektronischen Rechtsverkehr ein. Zusammen mit dem Bundespatentgericht war der BGH an der Entwicklung von XJustiz maßgeblich beteiligt, mit dem bundesweit einheitliche Standards für den Austausch elektronischer Informationen geschaffen werden sollen. Bereits seit 2001 besteht für die beim BGH zugelassenen Rechtsanwälte in Zivilsachen die Möglichkeit, Schriftsätze in elektronischer Form einzureichen. In Strafsachen hat der Generalbundesanwalt seit 2007 die Möglichkeit der elektronischen Einreichung von Schriftsätzen in Revisionsverfahren (). Die technischen Voraussetzungen und die zulässigen Dokumentenformate für elektronische Eingaben ergeben sich aus der '. Die elektronischen Eingaben erfolgen über ein elektronisches Postfach, wofür der BGH seit 2010 das Elektronische Gerichts- und Verwaltungspostfach verwendet, an welchem sich mittlerweile viele deutsche Gerichte beteiligen. Baugeschichte und Gebäudenutzung. Erbgroßherzogliches Palais mit Galatea-Brunnen (2006) Neues Empfangsgebäude mit Eingangsschleuse (2012) Neuer Sitzungssaal im Obergeschoss des Empfangsgebäudes Der Bundesgerichtshof befindet sich seit seiner Gründung auf dem etwa vier Hektar großen Gelände des ehemaligen Erbgroßherzoglichen Palais, welches im Südwesten der Karlsruher Innenstadt zwischen der Kriegs-, Herren-, Blumen- und Ritterstraße liegt. Die Gebäude sind rings um eine zentrale Rasenfläche gruppiert, welche von einem Galatea-Brunnen geziert wird. Von der ursprünglichen Bebauung bestehen heute noch das Palais selbst an der Südseite des Grundstücks und das ehemalige Gärtnerhaus (heute „Weinbrennergebäude“ genannt) an der Nordwestseite. Das Erbgroßherzogliche Palais beherbergt heute den Präsidenten und die Verwaltung des BGH sowie einige Zivilsenate und deren Sitzungssäle. Bereits in den 1950er Jahren wurden erste Um- und Anbauarbeiten durchgeführt, um dem wachsenden Platzbedarf des Gerichts gerecht zu werden. Von 1958 bis 1960 entstand entlang der Herrenstraße das Westgebäude sowie ein südlich daran angeschlossener abhörsicherer Sitzungssaal für die Strafsenate. Im Westgebäude befinden sich heute die vier in Karlsruhe sitzenden Strafsenate, die Ermittlungsrichter des Bundesgerichtshofes, einige Zivilsenate und die Kantine des Gerichts. Ebenfalls von 1958 bis 1960 wurde ein Nordgebäude errichtet, welches unter anderem Platz für die Bundesanwaltschaft bot. Bis 1978 war das Gelände des Bundesgerichtshofs für die Bevölkerung frei zugänglich. Nach dem Mord an Generalbundesanwalt Siegfried Buback und einem missglückten Raketenangriff durch die RAF wurde die gesamte Anlage jedoch von einer videoüberwachten Doppelzaunanlage umzogen. Als Haupteingang wurde ein Kontrollgebäude mit Eingangsschleuse zwischen Westgebäude und Weinbrennergebäude errichtet. Bereits seit den 1970er Jahren waren verschiedene Konzepte für Erweiterungsbauten im Gespräch, da der Platzbedarf des Gerichts mit zunehmendem Arbeitsaufkommen stetig stieg und zwischenzeitlich zusätzliche Gebäude in der Karlsruher Innenstadt angemietet werden mussten. Schließlich entschloss man sich, die Bundesanwaltschaft aus dem Gelände auszulagern. 1998 bezog sie ihren neuen Dienstsitz in der Brauerstraße, sodass der Weg frei war für eine Modernisierung und Erweiterung des Nordgebäudes. Zudem war nach der Wiedervereinigung der zunächst formell nur provisorische Dienstsitz in Karlsruhe endgültig zum Sitz des Bundesgerichtshofes erklärt worden, sodass die dringend nötige Erweiterung nicht mehr mit Verweis auf den provisorischen Zustand verweigert werden konnte. Nach Abriss des alten Nordgebäudes entstand von 2000 bis 2003 auf der Nordhälfte des BGH-Geländes ein zur zentralen Parkanlage offener U-förmiger Bau, in welchem sich heute einige Zivilsenate und deren Sitzungssäle, die Bibliothek des Bundesgerichtshofs sowie das "Rechtshistorische Museum Karlsruhe" befinden. 2011 wurde das sanierungsbedürftige und als zu abweisend erachtete Kontrollgebäude abgerissen und anschließend durch ein neues Empfangsgebäude ersetzt. In dessen Obergeschoss befindet sich zudem ein neuer großer Sitzungssaal für die Strafsenate, welcher am 6. März 2012 erstmals durch den 1. Strafsenat genutzt und am 18. April 2012 offiziell eingeweiht wurde. Verhandlungsbesucher müssen nun nicht mehr vom Haupteingang zum alten Sitzungssaal geleitet werden, sondern passieren die Kontrolle im Erdgeschoss des Empfangsgebäudes und gelangen von dort direkt ins Obergeschoss zum neuen Sitzungssaal. Dieser umfasst 120 Zuschauerplätze. Bibliothek. Außenansicht der Bibliothek (Ostflügel des U-förmigen Nordgebäudes) Die Bibliothek des Bundesgerichtshofs verfügt über einen Bestand von etwa 440.000 Druckwerken sowie etwa 20.000 weiteren Medieneinheiten und ist damit die größte Gerichtsbibliothek Deutschlands. Nach der Wiedervereinigung wurden ihr die Bestände der Bibliothek des Obersten Gerichts der DDR übertragen, darunter auch sehr viele historisch wertvolle Werke aus der Bibliothek des Reichsgerichts. Die Bibliothek des Bundesgerichtshofs erfasst die relevante juristische Literatur von 1800 bis 1970 fast vollständig und hat seitdem bei der Beschaffung von Medieneinheiten den Schwerpunkt entsprechend der Tätigkeit des Bundesgerichtshofs auf zivil- und strafrechtliche Literatur gelegt. Die jährlichen Ausgaben für Neuanschaffungen belaufen sich auf etwa 1.000.000 Euro. Durch den 2003 erfolgten Umzug in das neu gestaltete Nordgebäude erhielt die Bibliothek erstmals repräsentative Räumlichkeiten mit 21,5 km Buchstellmöglichkeiten und modern ausgestatteten Arbeitsplätzen. Sie wird vorrangig von den Richtern des Bundesgerichtshofs, den beim BGH zugelassenen Rechtsanwälten und akkreditierten Pressevertretern und den Mitarbeitern der Bundesanwaltschaft genutzt und wird für diese tätig, beispielsweise bei der Beschaffung benötigter Medien. Sie ist während der allgemeinen Dienstzeiten jedoch auch für Fremdbenutzer zugänglich, wovon jährlich knapp 3.000 Personen Gebrauch machen. Veröffentlichung der Entscheidungen. Einige Bände der vollständigen Entscheidungssammlung aus dem Bestand der Bibliothek des BGH Der Bundesgerichtshof veröffentlicht seine seit dem 1. Januar 2000 ergangenen Entscheidungen in elektronischer Form auf seiner Internetseite, wo sie kostenlos abgerufen werden können. Persönliche Daten werden vor der Veröffentlichung stets anonymisiert. Seit 2011 bietet der BGH in Zusammenarbeit mit der Universität des Saarlandes zudem für ausgewählte Entscheidungen die Möglichkeit einer Benachrichtigung per E-Mail an, sobald der Volltext der Entscheidung auf der Internetseite des Bundesgerichtshofs abrufbar ist. In gedruckter Form wird die vollständige Entscheidungssammlung des BGH nicht veröffentlicht, sondern lediglich beim BGH archiviert. Vor dem 1. Januar 2000 ergangene Entscheidungen können gegen eine Kopiergebühr beim Entscheidungsversand des Bundesgerichtshofs angefordert werden; auch sie werden vor dem Versenden anonymisiert. Auch im Jahr 2014 erhielt der Entscheidungsversand noch über 1.400 Anfragen. Zudem beteiligt sich der BGH seit 1980 am elektronischen juristischen Informationssystem „juris“. Hierfür wertet die Dokumentationsstelle des Bundesgerichtshofs die Entscheidungen sämtlicher Instanzen aus dem Bereich der ordentlichen Gerichtsbarkeit sowie ca. 220 Fachzeitschriften aus und stellt jährlich über 50.000 Entscheidungen, Fundstellen und Anmerkungen in die Datenbank ein. Die Entscheidungen des BGH sind dort seit etwa 1984 im Wesentlichen vollständig erfasst, davor lückenhaft. Der Zugriff auf „juris“ ist allerdings kostenpflichtig. Auch in der kostenpflichtigen elektronischen Datenbank des Beckverlages, Beck-Online, finden sich die meisten veröffentlichten Entscheidungen des BGH. Von den Richtern des Bundesgerichtshofs und den Mitgliedern der Bundesanwaltschaft werden die Entscheidungssammlungen BGHZ und BGHSt herausgegeben. Die in gedruckter Form ungefähr halbjährlich respektive jährlich erscheinenden Bände enthalten eine Auswahl der nach Ansicht des BGH wichtigsten aktuell ergangenen Entscheidungen. Sie werden vom Bundesgerichtshof in erster Linie zitiert und finden sich in nahezu jeder deutschen Gerichtsbibliothek, sind aber im strengen Sinn keine amtliche Sammlung. Die früher ebenfalls in gedruckter Form herausgegebene Entscheidungssammlung BGHR, eine nach Paragraphen sortierte Sammlung wichtiger BGH-Entscheidungen, wird hingegen nur noch digital herausgegeben. Lediglich der Veröffentlichung von BGH-Entscheidungen – zum Teil mit Besprechung – ist die vierzehntäglich erscheinende Zeitschrift BGH-Report gewidmet. Daneben veröffentlichen die führenden juristischen Fachzeitschriften regelmäßig Entscheidungen des Bundesgerichtshofs. Die Pressestelle des BGH veröffentlicht häufig Pressemitteilungen zu anstehenden und ergangenen Entscheidungen sowie zu Personalangelegenheiten. Diese Pressemitteilungen können auch kostenlos als Newsletter abonniert werden, wovon derzeit etwa 25.500 Personen Gebrauch machen. Literatur. Karlmann Geiß, Kay Nehm, Hans Erich Brandner, Horst Hagen (Hrsg.): "Festschrift aus Anlaß des fünfzigjährigen Bestehens von Bundesgerichtshof, Bundesanwaltschaft und Rechtsanwaltschaft beim Bundesgerichtshof." Heymann, Köln 2000, ISBN 3-452-24597-7. Bundesfinanzhof. Der Bundesfinanzhof (BFH) mit Sitz in München ist das oberste Gericht für Steuer- und Zollsachen und als solches neben dem Bundesgerichtshof, dem Bundesverwaltungsgericht, dem Bundesarbeitsgericht und dem Bundessozialgericht einer der fünf obersten Gerichtshöfe der Bundesrepublik Deutschland. Als Behörde ist der Bundesfinanzhof – wie der Bundesgerichtshof und das Bundesverwaltungsgericht – ressortmäßig dem Bundesministerium der Justiz und für Verbraucherschutz (BMJV) unterstellt und unterliegt dessen allgemeiner Dienstaufsicht. In seiner Tätigkeit als Gericht ist es jedoch unabhängig. Bis 1970 war der Bundesfinanzhof dem Bundesministerium der Finanzen (BMF) unterstellt, was teilweise den Vorwurf einer „Hausgerichtsbarkeit“ hervorrief. Aufgaben. Der Bundesfinanzhof ist die höchste Instanz der Finanzgerichtsbarkeit. Er ist einer der nach Art. 95 des Grundgesetzes errichteten obersten Gerichtshöfe des Bundes. Seine Zuständigkeit erstreckt sich auf die Steuer- und Zollsachen; dazu gehören jedoch nicht Steuerstrafverfahren, die als Strafverfahren der ordentlichen Gerichtsbarkeit zugeordnet sind. Der Bundesfinanzhof darf auch nicht mit dem Bundesrechnungshof verwechselt werden. Dieser kontrolliert das Ausgabenverhalten des Staates und seiner Einrichtungen, während der Bundesfinanzhof von dem einzelnen Steuerbürger in letzter Instanz zur Prüfung seiner Steuererklärung bzw. der darauf vom Finanzamt vorgenommenen Steuerveranlagung angerufen werden kann. Außer in Steuersachen im eigentlichen Sinne sind dem Bundesfinanzhof auch die letztinstanzlichen Entscheidungen über Eigenheimzulage, Investitionszulage und berufsrechtliche Angelegenheiten der Steuerberater zugewiesen. Seit der Systemumstellung vom Familienlastenausgleich zum Kinderleistungsausgleich ist der Bundesfinanzhof auch für Kindergeldangelegenheiten zuständig. Denn das Kindergeld erfüllt seither eine Doppelfunktion: Es dient einerseits der Freistellung des Kinderexistenzminimums von der Einkommensteuer und andererseits als Sozialleistung der Förderung der Familie. Dem Bundesfinanzhof kommt insoweit neben der letztinstanzlichen Entscheidung in Steuersachen eine große Bedeutung in sozialrechtlicher Hinsicht zu. Der Bundesfinanzhof ist in erster Linie als Revisionsgericht tätig. In dieser Funktion entscheidet er über Revisionen gegen die Urteile der Finanzgerichte. Daneben entscheidet er als Beschwerdegericht über das gegen bestimmte Entscheidungen der Finanzgerichte statthafte Rechtsmittel der Beschwerde. Als Revisionsgericht kommt dem Bundesfinanzhof eine besondere Verantwortung für die Fortbildung des Rechts und die Wahrung der Einheitlichkeit der Rechtsprechung zu. Außerdem ist der Bundesfinanzhof in das Verfahren des Bundesverfassungsgerichts eingeschaltet. In steuerrechtlichen Verfahren, die beim Bundesverfassungsgericht anhängig gemacht werden, gibt der Bundesfinanzhof gegenüber dem Bundesverfassungsgericht eine Stellungnahme ab, die in der Entscheidung des Bundesverfassungsgerichts berücksichtigt wird. Die Besonderheit des Rechtswegs in der Finanzgerichtsbarkeit besteht darin, dass es hier nur zwei Instanzen gibt. Nach Abweisung der Klage vor dem Finanzgericht kann daher unmittelbar der BFH mit der Revision angerufen werden. Voraussetzung ist allerdings, dass das Finanzgericht die Revision zum Bundesfinanzhof in seinem Urteil zugelassen hat. Ist dies nicht der Fall, kann eine Beschwerde beim Bundesfinanzhof, die sog. Nichtzulassungsbeschwerde, eingelegt werden mit dem Antrag, die Revision zuzulassen. Lässt der Bundesfinanzhof auf die Beschwerde die Revision zu, wird das Verfahren unmittelbar als Revisionsverfahren fortgesetzt. Außer der Beschwerde wegen Nichtzulassung der Revision kennt die Finanzgerichtsordnung auch die Beschwerde in sonstigen Fällen, insbesondere gegen Beschlüsse des Finanzgerichts, es sei denn, die Beschwerde wäre ausdrücklich durch Gesetz versagt. Neuerdings wurde das Rechtsmittel der Anhörungsrüge geschaffen, mit der ausschließlich die Verletzung des rechtlichen Gehörs geltend gemacht werden kann (§ 133a Finanzgerichtsordnung). Daneben ist noch die sog. Gegenvorstellung anerkannt, die formlos erhoben werden kann. Da das Bundesverfassungsgericht im Bereich der Rechtsmittel allerdings strenge Anforderungen an die sog. Rechtsmittelklarheit stellt, wird die Zulässigkeit der Gegenvorstellung im Fachschrifttum in Zweifel gezogen. Neuerdings hat der BFH entschieden, dass die Gegenvorstellung nur gegen abänderbare Entscheidungen zulässig ist, d. h. Entscheidungen, die nicht in materielle Rechtskraft erwachsen, und nur dann, wenn schwere Rechtsverletzungen gerügt werden. Früher war noch die sog. außerordentliche Beschwerde anerkannt. Im Hinblick auf die neu geschaffene Anhörungsrüge erkennt der BFH die außerordentliche Beschwerde nicht mehr an. Geschichte. Der Bundesfinanzhof wurde 1950 in der Tradition des Reichsfinanzhofs errichtet. Diese Tradition ist jedoch nur formaler, nicht inhaltlicher Natur. Mehrere Präsidenten des Bundesfinanzhofs haben sich wiederholt von Entscheidungen des Reichsfinanzhofs distanziert. Eine Tafel im Inneren des Gebäudes erinnert an Urteile des Reichsfinanzhofs, die politische Vorgaben der nationalsozialistischen Führung unkritisch nachvollzogen haben. Hier sind insbesondere die Urteile zur sog. Reichsfluchtsteuer zu nennen, die sogar von politisch Vertriebenen erhoben wurde. Seit Dezember 2004 nimmt der BFH zusammen mit dem Bundesverwaltungsgericht an dem Projekt Elektronisches Gerichts- und Verwaltungspostfach teil. Schriftsätze und andere Dokumente können rechtswirksam in elektronischer Form an alle teilnehmenden Gerichte und Behörden schnell und sicher übermittelt werden. Eine Teilnahme an Verhandlungen des Bundesfinanzhofs mittels Videokonferenz ist zzt. noch nicht möglich. Gerichtsorganisation und Spruchkörper. Die an den Bundesfinanzhof herangetragenen Fälle werden von Senaten entschieden. Die Fälle werden nach Sachgebieten und teilweise auch nach Buchstabenkriterien auf die einzelnen Senate aufgeteilt. Derzeit sind elf Senate eingerichtet. Richter des Bundesfinanzhofs. Die Richter und Richterinnen des Bundesfinanzhofs werden vom Richterwahlausschuss des Deutschen Bundestags auf Lebenszeit gewählt und vom Bundespräsidenten ernannt. Derzeit (Stand 2015) sind 59 Richter am BFH tätig, von denen 13, also 22 Prozent, Frauen sind. Geschäftsverteilung. Scherzhaft wird gelegentlich der XII. Senat angeführt. Das sind die wissenschaftlichen Mitarbeiter, die den Bundesrichtern in den jeweiligen Senaten zuarbeiten. Von besonderer Bedeutung sind vor allem der III. und der VI. Senat, da deren Urteile praktisch jeden Steuerbürger betreffen und die Breitenwirkung daher enorm ist. Mit dem Tarifrecht, das dem III. Senat zugewiesen ist, z. B. der ansteigenden Progressionskurve und dem Ehegatten-Splitting, und dem Kindergeld sind davon nahezu jeder Steuerbürger und jede Familie betroffen. Außerdem ist die Investitionszulage, für die ebenfalls der III. Senat zuständig ist, für die wirtschaftliche Entwicklung des gesamten Beitrittsgebietes der vormaligen DDR von allergrößter Bedeutung. Der VI. Senat entscheidet in allen Lohnsteuerstreitigkeiten, z. B. dem Werbungskostenabzug. Das betrifft alle Arbeitnehmer. Die übrigen Senate des Bundesfinanzhofs berühren den Einzelnen häufig nur mittelbar, da sie im Wesentlichen nur Streitigkeiten von Unternehmen bzw. über bestimmte Einkunftsarten entscheiden. Bestehen zwischen den Senaten unterschiedliche Auffassungen zu Rechtsfragen, wird der Große Senat angerufen. Der Große Senat besteht aus dem Präsidenten des Bundesfinanzhofs und je einem Richter der Senate, in denen der Präsident nicht den Vorsitz führt. Dessen Entscheidungen geben grundlegende Weichenstellungen für die künftige Rechtsentwicklung und stellen häufig die Grundlage für das künftige Handeln des Gesetzgebers dar. Kontroverse um Besetzung der Senate. Der dritte Senat des Bundesfinanzhofes wird derzeit von einem Vorsitzenden kommissarisch geführt, da der im Verfahren zur Ernennung unterlegene Richter Jürgen Brandt gegen die Ernennung von Monika Jachmann klagt. Zudem gibt es auch anhängige Klagen was die Besetzung anderer Richterstellen betrifft. Gebäude. Der Bundesfinanzhof ist, wie zuvor schon der Reichsfinanzhof, in einem historisch interessanten, denkmalgeschützten Gebäude inmitten eines idyllischen Parks im Münchner Stadtteil Bogenhausen untergebracht. Im Vorgängerbau wurde 1805 der Bogenhausener Vertrag geschlossen. Das sogenannte Fleischerschlösschen wurde von einem Künstler als Galerie- und Ausstellungsgebäude errichtet. Nachdem der Bauherr in Insolvenz gefallen war, wurde das Gebäude umgestaltet und zur Unterbringung des Reichsfinanzhofs genutzt. Im Gebäudeinneren sind bedeutende Werke zeitgenössischer und moderner Kunst ausgestellt. Die gepflegte Parkanlage ist für die Öffentlichkeit nicht zugänglich, kann aber nach vorheriger Anmeldung begangen werden. Basic. Bašić ist ein Familienname, siehe Bašić Buchengewächse. Die Buchengewächse (Fagaceae) sind eine Familie in der Ordnung der Buchenartigen (Fagales) innerhalb der Bedecktsamigen Pflanzen (Magnoliopsida). Die acht bis zwölf Gattungen mit etwa 670 bis 900 Arten gedeihen meist in den kalten bis gemäßigten, seltener in den subtropischen bis tropischen Klimazonen überwiegend auf der Nordhalbkugel. Erscheinungsbild und Blätter. Alle Arten der Familie Fagaceae sind verholzende Pflanzen und wachsen meist als Bäume oder selten Sträucher. Sie sind immergrün oder laubabwerfend. Die wechselständig und zweizeilig oder spiralig angeordneten Laubblätter sind in Blattstiel und Blattspreite gegliedert. Die Blattspreiten sind oft ledrig. Die Blattränder sind glatt, gezähnt oder gesägt. Wenn der Blattrand glatt ist, reichen die Seitennerven nicht bis zum Blattrand. Die Blattflächen sind von einfachen, sternförmigen oder verzweigten Haaren (Trichomen) bedeckt. Nebenblätter sind vorhanden. Blütenstände und Blüten. Die Blüten sind in aufrechten oder hängenden, einfachen Blütenständen, die hier Kätzchen genannt werden, zusammengefasst. Alle Arten sind einhäusig getrenntgeschlechtlich (monözisch), das heißt auf einer Pflanze sind weibliche und männliche Blüten vorhanden, die Blüten eines Geschlechtes sitzen zu mehreren in Blütenständen zusammen. Die eingeschlechtigen Blüten sind radiärsymmetrisch. Es sind zwei mal drei freie Blütenhüllblätter vorhanden oder die Blütenhüllblätter sind verwachsen und enden mit vier bis sechs lappig. In den männlichen Blüten sind vier bis zwanzig Staubblätter vorhanden. Die weiblichen Blüten enthalten Staminodien und meist drei bis sechs (2 bis 15) Fruchtblätter sind zu einem unterständigen Fruchtknoten verwachsen. Je Fruchtknotenfach gibt es zwei hängende, anatrope, bitegmische Samenanlagen. Die Pollenverbreitung erfolgt meist durch Wind, aber bei einigen Arten besonders der Gattung "Castanea" durch Insekten. Früchte und Samen. Die für diese Familie typischen Früchte sind Nüsse, sie sitzen einzeln bis zu dritt (je nach Gattung) in einem Achsenbecher, auch Fruchtbecher oder Cupula genannt zusammen. Deshalb wird die Familie auch Becherfrüchtler (Cupulaceae) genannt. Die Früchte werden durch Tiere verbreitet. Die Samen sind oft intensiv von Haaren umgeben, die im Endokarp ihren Ursprung haben. Chromosomensätze. Die Chromosomengrundzahlen betragen meist x = 12, selten 11, 13 oder 21. Systematik. Die Familie Fagaceae wurde 1829 durch Barthélemy Charles Joseph Dumortier in "Analyse des Familles de Plantes", 11, 12 aufgestellt. Typusgattung ist "Fagus" L. Ein Synonym für Fagaceae Dum. ist Quercaceae Martinov. Bei manchen Autoren werden auch die Scheinbuchen oder Südbuchen ("Nothofagus" Blume) mit etwa 35 Arten in diese Familie eingeordnet; heute werden diese aber meistens (zuletzt bei der APG III) in eine eigene Familie Scheinbuchengewächse (Nothofagaceae) gestellt. Nutzung. Viele Arten liefern wertvolles Holz. Von einigen Arten werden die Samen roh oder gegart gegessen. Es wird Tannin gewonnen. Aus einigen Arten wird Öl gewonnen. Bei einzelnen Arten wurden die medizinischen Wirkungen untersucht. Brennnesselgewächse. Die Brennnesselgewächse (Urticaceae, eingedeutscht „Urticaceen“ (sprich: Ur-ti-ka-ze-en)) bilden eine Familie in der Ordnung der Rosenartigen (Rosales) innerhalb der Bedecktsamigen Pflanzen (Magnoliopsida). Die Familie enthält etwa 54 bis 56 Gattungen mit etwa 2625 Arten. Sie hat eine weltweite Verbreitung, nur in arktischen Klimaten tritt sie nicht auf. Einige Arten werden auf unterschiedliche Weise genutzt. Die Brennnesseln ("Urtica") sind eine bekannte Pflanzengattung, vor allem deshalb, weil die Blätter mit Nesselhaaren ausgestattet sind, deren Inhalt (Acetylcholin, Histamin, Serotonin) bei Berührung brennenden Juckreiz verursachen, aber auch bei anderen Gattung der Tribus Urticeae: "Nanocnide", "Girardinia" und "Dendrocnide" ist diese Eigenschaft vorhanden. Weltweit fressen die Raupen vieler Schmetterlings-Arten an Arten dieser Familie. Erscheinungsbild und Blätter. Die Arten dieser Familie wachsen als einjährige bis ausdauernde krautige Pflanzen oder verholzende Pflanzen wie Lianen, Halbsträucher, Sträucher und selten Bäume (beispielsweise "Cecropia"). Einige Arten, beispielsweise in der Gattung "Pilea" sind sukkulent. Wenige Arten wachsen als Epiphyten, beispielsweise in der Gattung "Pilea". Die vegetativen Pflanzenteile können je nach Gattung (Tribus Urticeae) mit Brennhaaren bedeckt sein. Selten sind Dornen vorhanden. Manche Arten enthalten einen wässerigen Milchsaft. Sie können immergrün oder laubabwerfend sein. Die seltener gegenständig, meist wechselständig und spiralig oder zweizeilig angeordneten Laubblätter sind meist in Blattstiel und Blattspreite gegliedert. Die Blattspreiten sind meist einfach, seltener zusammengesetzt (beispielsweise "Cecropia" oder "Elatostema"). Der Blattrand ist glatt, gesägt oder gezähnt. Unter der Epidermis sind auf der Blattoberseite und/oder -unterseite Zystolithen eingebettet, die erst erkennbar sind wenn die Laubblätter getrocknet sind. Meist sind zwei Nebenblätter vorhanden, die frei oder verwachsen sein können. Blütenstände, Blüten und Bestäubung. Sie sind einhäusig (monözisch) oder zweihäusig (diözisch) getrenntgeschlechtig; einige Arten sind polygamomonözisch, dann kommen neben eingeschlechtigen auch zwittrige Blüten vor. Meist in seiten-, selten in endständigen, meist verzweigten zymösen, rispigen, ähigen oder traubigen Blütenständen stehen – oft in Knäueln – viele Blüten zusammen, weibliche Blütenstände können auch kopfförmig sein. Es sind meist Tragblätter vorhanden, die bei manchen Arten die Blüte vollständig einhüllen. Die meist eingeschlechtigen Blüten sind meist radiärsymmetrisch, selten zygomorph und (zwei- bis sechs-) meist vier- bis fünfzählig. Blütenhüllblätter können vorhanden sein oder fehlen. Wenn Blütenhüllblätter vorhanden sind, dann ist es nur ein, zwei- bis sechszähliger, Kreis. In männlichen und zwittrigen Blüten sind zwei bis sechs Staubblätter vorhanden. Die Staubfäden sind in den Blütenknospen oft nach innen gebogen. Oft öffnen sich die Staubbeutel in Längsrichtung „explosiv“. Die Pollenkörner sind mono- oder polycolporat. In den weiblichen und zwittrigen Blüten (meist) nur ein Fruchtblatt vorhanden, das meist oberständig ist. Die weiblichen Blüten können Staminodien besitzen. Es kann ein einfacher Griffel vorhanden sein oder die kopfigen, pfriemlichen, pinsel- oder fadenförmigen Narben sind sitzend. Die Bestäubung erfolgt meist durch den Wind (anemophil) oder durch Insekten (entomophil). Früchte und Samen. Es werden trockene, achänenähnliche Nussfrüchte oder fleischige Steinfrüchte gebildet; sie sind immer einsamig. Oft sind an den Früchten sich bis zur Fruchtreife sich vergrößernde, haltbare Blütenhüllblätter vorhanden. Die Samen enthalten Endosperm und einen geraden Embryo mit zwei eiförmig-elliptischen oder kreisförmigen Keimblättern (Kotyledonen). Chromosomensätze. Die Chromosomengrundzahlen betragen x = 7–14. Systematik und Verbreitung. Sie hat eine weltweite Verbreitung, nur in arktischen Klimaten tritt sie nicht auf. In der Neotropis kommen etwa 16 Gattung mit etwa 450 Arten vor. Eine ganze Reihe von Arten sind in vielen Gebieten der Welt invasive Pflanzen. Die Erstveröffentlichung des Familiennamens Urticaceae erfolgte 1789 durch Antoine Laurent de Jussieu in "Genera plantarum...", S. 400. Molekulargenetische Untersuchungen zeigten, dass die sechs oder sieben Familien der früheren Ordnung Urticales mit in die Ordnung Rosales gehören. Die etwa sechs Gattungen ("Cecropia", "Coussapoa", "Pourouma", "Myrianthus", "Musanga", "Poikilospermum") mit etwa 180 bis 200 Arten der früheren Familie Cecropiaceae C.C.Berg sind heute in die Urticaceae eingegliedert. Die Australische Brennnessel ("Dendrocnide moroides") sollte man nicht berühren. a>", man sollte sie nicht berühren. Die Tribus wurden 1830 von Charles Gaudichaud-Beaupré in "H. L. C. de Freycinet’s Voyage autour du monde…executé sur les corvettes de S. M. l’Uranie et la Physiciene" veröffentlicht. Nutzung. Viele Arten der Brennnesselgewächse sind für die Fasergewinnung geeignet. Die Fasern grenzen sich vor allem durch ihre großen Einzelfaserlängen von anderen Bastfasern ab. Ferner liegen diese stets im lockeren Faserverbund und nicht wie bei Hanf oder Flachs in Faserbündeln. Besonders geeignet für die Fasergewinnung sind die folgenden Arten: "Urtica dioica", "Urtica dioica" subsp. "gracilis", "Urtica kioviensis", "Urtica cannabina", "Laportea canadensis", "Maoutia puya", "Girardinia diversifolia", "Boehmeria nivea", "Boehmeria tricuspis" und "Boehmeria tenacissima". Von "Girardinia"-, "Laportea"- und "Urtica"-Arten kann man die (jungen) Blätter roh oder gegart essen. Die Früchte von "Cecropia"- und "Pourouma"-Arten sind essbar. Einige Arten und ihre Sorten werden als Zierpflanzen verwendet (Beispiele: "Pellionia repens", "Pilea cadierei", "Pilea microphylla", "Pilea peperomioides"). BIOS. Das BIOS (von englisch "„basic input/output system“") ist die Firmware bei x86-PCs. Es ist in einem nichtflüchtigen Speicher auf der Hauptplatine eines PC abgelegt und wird unmittelbar nach dessen Einschalten ausgeführt. Aufgabe des BIOS ist es unter anderem, den PC zunächst funktionsfähig zu machen und im Anschluss das Starten eines Betriebssystems einzuleiten. Im flüchtigen Sprachgebrauch wird der Ausdruck "BIOS" heute manchmal auch in der Bedeutung "BIOS-Einstellungen" verwendet. Die Übereinstimmung mit dem altgriechischen Wort "βίος" (nach dem lateinischen Alphabet bios, zu deutsch "Leben") ist eine Anspielung darauf, dass einem Computer mit dieser so benannten Software quasi Leben eingehaucht wird. Funktionen. Durch modernere Hardware hat das BIOS im Laufe der Zeit neue Funktionen hinzugewonnen. Nicht alle der im Folgenden genannten Punkte wurden schon vom Ur-BIOS auf dem ersten IBM PC ausgeführt. Die Weiterentwicklung der Hardware hat im Laufe der Zeit (Stand 2010 ist das BIOS-Konzept bereits mindestens 35 Jahre alt) zu einer Reihe von iterativen, inkompatiblen Ergänzungen geführt, die zunehmend den Charakter von „Flickschusterei“ tragen und bei 64-Bit-Systemen an ihre Grenzen stoßen. Daher wurde in Form von Extensible Firmware Interface (EFI, bzw. UEFI) ein BIOS-Nachfolger entwickelt. Ein ROM, auf dem ein BIOS gespeichert ist Wichtiger Bestandteil der Hardware-Initialisierung eines Plug-and-Play-BIOS ist die Konfiguration und Überprüfung von eingebauten Steckkarten. Dazu werden in einem speziellen Speicherbereich des BIOS, dem Bereich "Extended System Configuration Data" (kurz ESCD), Informationen zu Zustand und Konfiguration von ISA-, PCI- und AGP-Steckkarten und die entsprechende Ressourcenzuteilung verzeichnet. Die Informationen im ESCD-Bereich werden beim Bootvorgang mit dem tatsächlichen Zustand des Systems verglichen und bei Änderungen gegebenenfalls aktualisiert. Das Betriebssystem greift auf die Informationen im ESCD-Bereich zurück und kann Änderungen der Plug-and-Play-Ressourcenzuordnung dort speichern, um Veränderungen durch das BIOS beim nächsten Start vorzubeugen. Andere, moderne Arten von Hardware werden vom BIOS nicht bedient. Zur Ansteuerung beispielsweise einer Maus ist unter DOS ein spezieller Hardwaretreiber nötig. Neuere, treiberbasierte Betriebssysteme wie beispielsweise Linux oder Microsoft Windows nutzen diese BIOS-Funktionen nicht. Sie laden für jede Art von Hardware einen speziellen Treiber. Jedoch müssen sie am Anfang ihres Startvorgangs noch kurz auf die BIOS-Funktionen zur Ansteuerung der Festplatten zurückgreifen, um ihren Festplattentreiber zu laden. BIOS-Einstellungen. Um in das Setup-Programm des BIOS zu gelangen, muss beim Einschalten des Rechners eine bestimmte Taste oder Tastenkombination betätigt werden. Bei einigen wenigen Mainboards muss ein bestimmter Jumper gesetzt werden. Die Einstellungen werden in einem CMOS-Speicher gespeichert, der über die Mainboard-Batterie auch ohne Netzanschluss mit Strom versorgt wird. Oft ist dieser Speicher mit der Echtzeituhr des Systems kombiniert, da auch diese immer mit Strom versorgt werden muss. Bei Schwierigkeiten bietet das BIOS meist die Möglichkeit, die Standardeinstellungen des Rechner- oder des BIOS-Herstellers zu setzen. Wenn es nicht mehr möglich ist, ins Setup-Programm zu kommen (etwa weil der Rechner gar nicht mehr bootet), lassen sich die Einstellungen meist über einen Jumper am Mainboard zurückstellen (bei allen neueren Mainboards muss dafür das Netzteil ganz abgeschaltet werden). Wenn das nicht möglich ist, kann der CMOS-Speicher durch das Entfernen der Batterie gelöscht werden. Letzteres benötigt aber einige Zeit, bis auch die Kondensatoren entladen sind. Sicherheit. Das BIOS ist die zweite Sicherheitsstufe, die unberechtigten Zugriff auf einen Computer verhindern kann, nach einer physischen Sicherung mit Schlössern oder Ähnlichem. Im BIOS-Setup kann eine Passwortabfrage für das Starten des Rechners eingerichtet werden. Das stellt keine vollständige Sicherung des Systems dar, da die Einstellungen bei physischem Zugang zum Computer mehr oder weniger leicht durch Manipulationen auf der Hauptplatine ausgehebelt werden können. Zudem wirkt diese Sicherung nur auf die Hauptplatine, auf der sich das BIOS enthaltende ROM befindet. Wird diese ausgetauscht oder die Festplatte(n) des Systems in einen anderen Rechner eingebaut, kann problemlos auf alle Daten zugegriffen werden. Zudem haben die Hersteller meist ein festes (Recovery-, Master- oder Supervisor-)Passwort eingerichtet, um den Zugang wiederherstellen zu können, wenn der Benutzer sein eigenes Passwort vergessen hat. Aktualisieren des BIOS. Bei alten Mainboards (mit 286 bis 486er Prozessor) ist im BIOS die Option „SHADOW BIOS MEMORY“ vorhanden. Dabei wird das BIOS in eigener Prozedur in das zugriffschnellere RAM kopiert (temporäre Schattenkopie bis zum Ausschalten des Computers). Seitdem (ab spätere 486er / Pentium1) der überwiegende Teil des BIOS gepackt abgelegt ist und damit ein günstigerer BIOS-Chip genügt, steht diese Option nicht mehr zur Verfügung, da das BIOS auf jeden Fall ins RAM entpackt werden muss. Hersteller wie Award verwendeten zum Packen von ihrem BIOS das LHA-Format. Auf modernen Hauptplatinen ist das BIOS in einem wiederbeschreibbaren Speicher (genauer: EEPROM, meist Flash-Speicher) abgelegt. Daher kann es ohne Ausbau dieses Chips durch neuere Versionen ersetzt werden („Flashen“). Da ein Rechner ohne vollständiges BIOS jedoch nicht funktionsfähig ist, stellt dieser Vorgang immer ein gewisses Risiko dar. Wird er unterbrochen, beispielsweise durch einen Stromausfall, muss der Chip, auf dem das BIOS gespeichert ist, normalerweise ausgetauscht werden. Als Alternative wird im Internet von verschiedenen Institutionen auch das Neuprogrammieren des Chips angeboten. Selbst aufgelötete Flash-Speicher stellen für den Fachmann nur ein geringfügiges Problem dar. Auf neuen Boards werden immer häufiger sogenannte serielle Flashspeicher verwendet, die es im Fehlerfall teilweise ermöglichen, per SPI-BUS auf dem Board neu programmiert zu werden. Mit der Zeit entwickelten American Megatrends, Award Software, Phoenix und andere Hersteller „BootBlock“/Wiederherstellungs-BIOS-Bereiche, die bei einem Flash-Vorgang dann normalerweise nicht mehr überschrieben werden. Schlug der Flash-Vorgang fehl, startet das „BootBlock“/Wiederherstellungs-BIOS und ermöglicht es, von Diskette zu booten. Bei einigen BIOS-Varianten kann sogar eine spezielle Wiederherstellungs-CD/-Diskette erstellt werden, die auch bei einem defekten BIOS durch Setzen eines Jumpers automatisch das BIOS wiederherstellt. Dazu sind keinerlei Benutzereingaben und keine grafische Ausgabe nötig, da diese bei defektem BIOS meist ohnehin nicht mehr funktionieren. Einige Hauptplatinen bieten ein sogenanntes DualBIOS an. Im Fehlerfall kann das zweite (noch intakte) BIOS den Startvorgang übernehmen und die Änderung rückgängig gemacht werden. Das kann beim Flashen des BIOS ein Rettungsanker sein, sollte die neu aufgespielte BIOS-Version nicht funktionieren. Des Weiteren können mit einem DualBIOS verschiedene BIOS-Einstellungen geladen werden. Da das Aktualisieren eines Flash-BIOS heute schon unter einem laufenden Windows möglich ist, eröffnen sich damit neue Einfallswege für Viren-Befall. Wenn auf diesem Wege beispielsweise ein Rootkit installiert würde, könnte es sich noch einmal wesentlich effizienter gegen Entdeckung und Löschung abschotten. Außerdem kann ein Absturz des Betriebssystems während des Flashens den PC eventuell unbootbar machen (siehe oben). BIOS bei CP/M-Computer. Das Konzept und der Begriff „BIOS“ (als Basic Input/Output System) gehen auf Gary Kildall, den Erfinder und Entwickler des Betriebssystems M (Control Program for Microcomputers) zurück und wurde von ihm bereits 1975 in dieser Bedeutung benutzt. CP/M hatte vor der Einführung des IBM PCs einen vergleichbaren Marktdurchdringungsgrad unter damaligen Kleinrechnern, wie später PC DOS bzw. MS-DOS auf IBM-kompatiblen PCs. Da jedoch vor der Etablierung IBM-kompatibler PCs kein über die Herstellergrenzen hinaus geltender Hardware-Standard existierte und jeder Hersteller von Kleinrechnern dabei völlig verschiedene Konzepte verfolgte, war es notwendig, die hardwarespezifischen Teile des Betriebssystems für jedes System speziell anzupassen. Handelte es sich anfangs noch um eine gedankliche Untergliederung, so wurden die hardware-spezifischen Teile während der Entwicklung von CP/M 1.3 und 1.4 (1977) auch in der Architektur des Systems von den hardware-unabhängigen Teilen isoliert. Anregungen für eine Entwicklung in diese Richtung gehen auch auf Glenn Ewing, der das CP/M-BIOS für IMSAI an den IMSAI 8080 anpasste, zurück. Digital Researchs CP/M bestand ab Release 1.4 aus zwei übereinanderliegenden Schichten, dem hardware-spezifischen BIOS und dem darauf aufbauenden, aber vollständig hardware-unabhängigen BDOS (Basic Disk Operating System). Die Anwendungen nutzten Systemaufrufe, die ihnen das BDOS zur Verfügung stellte, und zur Durchführung der verschiedenen Aufgaben rief das BDOS nach unten die hardwarespezifischen Routinen im BIOS auf, das die Hardwareansteuerung übernahm. Auf diese Weise blieben die Anwendungen über die Systemgrenzen hinweg portabel. Um CP/M für ein neues Rechnersystem anzubieten, konnte der jeweilige Hersteller einen Template-Quelltext des BIOS von Digital Research lizenzieren und nach eigenen Vorstellungen anpassen. Das BDOS wurde in der Regel nur als Objektdatei ausgeliefert und passend dazugelinkt. Im ROM selbst befand sich meist nur ein äußerst rudimentärer sog. Monitor und Bootloader, über den das erzeugte CP/M-Image von einem Medium wie einer Diskette oder Festplatte in den Speicher geladen und gestartet werden konnte. Auf diese Weise wurde CP/M auf mehr als dreitausend verschiedene Systeme angepasst und in den jeweils passenden Adaptionen von den Hardware-Herstellern angeboten. Einige CP/M-Abkömmlinge wie MP/M (Multi-tasking Program for Microcomputers), Concurrent CP/M 2.0-3.1 (CCP/M), Concurrent DOS 3.2-6.2 (CDOS), DOS Plus 1.2-2.1, FlexOS, Multiuser DOS 5.0-7.xx (MDOS), System Manager 7 und REAL/32 7.xx enthalten auch ein XIOS (Extended Input Output System). BIOS bei MS-DOS-kompatiblen Rechnern. Das von Microsoft und IBM gemeinsam entwickelte Betriebssystem MS-DOS bzw. PC DOS lehnte sich ursprünglich sehr stark an das Vorbild CP/M an, deshalb findet sich auch hier die Aufteilung in einen hardware-spezifischen Teil, das sog. DOS-BIOS, und in den hardware-unabhängigen DOS-Kernel. Anders als bei CP/M lagen die beiden Teile jedoch in getrennten Dateien vor, die bei MS-DOS codice_1 und codice_2 hießen, bei PC DOS hingegen codice_3 und codice_4. Die MS-DOS-Version mit einem an IBM PCs angepassten DOS-BIOS hieß PC DOS, andere MS-DOS-OEM-Versionen lagen jedoch – ganz ähnlich wie CP/M – auch für Dutzende nicht IBM-kompatible x86-Systeme vor, bei denen das DOS-BIOS erst an die jeweilige Zielplattform angepasst werden musste. Auch bei der PC-DOS-kompatiblen Single-User-Betriebssystemlinie DR DOS, die Anfang 1988 von Digital Researchs CP/M-Abkömmling Concurrent DOS 6.0 abgespalten wurde, indem das System seiner Multitasking-Fähigkeiten beraubt und das XIOS durch ein IBM-kompatibles DOS-BIOS ersetzt wurde, findet sich die gleiche Aufteilung in DOS-BIOS (codice_5 bzw. codice_6) und den bis heute BDOS genannten Kernel (codice_7 bzw. codice_8). Handelte es sich anfangs beim BDOS 6.0 von DR DOS 3.31 im Wesentlichen noch um einen CP/M-ähnlichen Kernel mit darübergestülptem DOS-Emulator PCMODE, wurde die interne Funktionsweise im Laufe der Zeit zunehmend – und endgültig ab BDOS 7.0 – auch intern an DOS-Standards angepasst. Das gilt auch für PalmDOS 1, Novell DOS 7, Caldera OpenDOS 7.01 und DR-DOS 7.02+. Das DOS-BIOS von IBM-kompatiblen DOS-Ausgaben griff ausschließlich über das im ROM des Rechners eingebaute ROM-BIOS bzw. System-BIOS auf die Hardware zu. Dadurch konnten kleinere Unterschiede in der Hardware schon auf der Ebene des System-BIOSes gekapselt werden, so dass in solchen Fällen keine Änderung am DOS-BIOS mehr notwendig war. Mit der Verbreitung von Anwendungen, die am Betriebssystem vorbei direkt auf die Hardware zugriffen (und in der Folge mit der von IBM-kompatiblen Clones), wurden Anpassungen am DOS-BIOS im Laufe der Jahre zunehmend seltener notwendig, so dass auch MS-DOS später nur noch in einer generischen Version angeboten wurde, die einige Sonderfälle behandelte und so auf den meisten IBM-kompatiblen Rechnern lief. Das ROM-BIOS (und ggf. im ROM vorliegende Teile des Betriebssystems) wurde in Digital-Research-Terminologie manchmal auch als ROS (Resident Operating System) bezeichnet. XBIOS/TOS beim Atari ST. Das XBIOS (Extended Basic Input/Output System) war keine eigene Schicht, sondern lag parallel zum BIOS auf derselben Schicht, wobei einige Funktionen des XBIOS Hardware-näher angesiedelt waren. Kickstart beim Commodore Amiga. Die Amiga-Rechner von Commodore benötigen als Firmware das sogenannte Kickstart. Es erfüllt alle Funktionen eines BIOS und enthält darüber hinaus auch den Kernel "(exec)" des AmigaOS. Die ersten Modelle des Amiga 1000 müssen nach dem Einschalten („Kaltstart”) noch per Bootstrap-Diskette mit den Kickstart-Versionen 1.0 bis 1.3 gestartet werden. Das Kickstart wird dabei im WOM, einem besonderen Bereich des RAM, abgelegt und gegen Überschreiben gesichert. Nach einem Reset (Warmstart) bleibt dieses im Speicher erhalten und braucht nicht neu geladen zu werden. Dieser Umstand hat den Vorteil, dass sehr schnell und unkompliziert auf eine neuere Version aktualisiert werden kann. Alle späteren Modelle, wie der Amiga 500 oder der Amiga 2000, verfügen über ein ROM, so dass die Version nur durch den Austausch des Bausteins geändert werden kann. Durch die Verwendung eines „Kickstart Switchers“ kann jedoch vor dem Einschalten zwischen zwei ROMs mit unterschiedlichen Kickstartversionen per Schalter gewechselt werden. Das wurde besonders seit Einführung von Kickstart 2.0 relevant, das Kompatibilitätsprobleme mit älteren Programmen, besonders Spielen, hat. Besitzer des „Amiga 500+“, der hauptsächlich für Computerspiele im Heimbereich ausgelegt ist und standardmäßig Kickstart 2.0 verwendet, sind für ältere Spiele auf einen solchen Kickstartswitcher angewiesen. Open Firmware. Ursprünglich für Nicht-x86-Rechner (hauptsächlich SPARC und PowerPC) wurde von mehreren Herstellern (u. a. Sun) der plattformunabhängige Open-Firmware-Ansatz (IEEE-1275) auf Forth-Basis definiert. Dieser kommt nicht nur bei Suns Sparc-Rechnern, sondern auch bei PowerPC-basierten Rechnern von IBM und Apple sowie bei CHRP-Rechnern anderer Hersteller wie Genesi (mit dem Pegasos) zum Einsatz. 2006 wurden fast alle Open-Firmware-Implementationen unter einer BSD-Lizenz veröffentlicht. Im Laptop OLPC XO-1 (Produktion ab 2007) findet sich Open Firmware erstmals auch auf der x86-Architektur. Mit OpenBIOS steht zudem eine freie Implementierung für x86-Rechner zur Verfügung, die mangels Betriebssystemunterstützung hauptsächlich zur Forth-Programmierung eingesetzt werden kann. Extensible Firmware Interface. Intel und Microsoft wollen das fast 35 Jahre alte (Stand 2015) x86-BIOS durch das "Extensible Firmware Interface" (EFI) ersetzen, weil dieses bessere Voraussetzungen für zukünftige Computergenerationen bieten soll. Es findet teilweise schon im Server-Bereich auf Intels IA-64-Architektur Verwendung, und mit der Einführung von Windows Vista sollte es auch bei konventionellen x86-PCs die Ablösung des BIOS-Konzeptes einleiten. Im März 2006 kündigte Microsoft jedoch an, dass Vista EFI zunächst nicht unterstützen soll und es später nur für die 64-bit-Varianten nachgerüstet wird. Heute wird es als Unified Extensible Firmware Interface (UEFI) verwendet, beispielsweise bei Windows 8. Im Januar 2006 stellte Apple die Architektur der Macintosh-Rechner von PowerPC auf Core-Prozessoren von Intel um. Als erstes Modell kam der iMac der vierten Generation mit EFI auf den Markt und war somit auch der erste x86-Computer mit EFI. Simple Firmware Interface. Mit dem Engagement von Intel in der Smartphone- und MID-Technik wurde das "Simple Firmware Interface" (SFI) entwickelt. Es ist frei von alten und lizenzkostenpflichtigen PC-BIOS-Patenten. Es benötigt deshalb aber auch neuere, speziell für SFI angepasste Betriebssysteme. SFI findet auf Intels Moorestown-Plattform Anwendung. Kritik. Eine Firmware-Schnittstelle wie BIOS und UEFI ist sehr tief im System verankert und daher eine potenziell sicherheitskritische Komponente. Freie BIOS-Alternativen. Die verschiedenen BIOS-Implementierungen der PCs sind im Regelfall proprietäre Software, was große Unsicherheiten birgt: da der Quellcode nicht bekanntgegeben wird, werden Sicherheitslücken teilweise nicht rechtzeitig erkannt. Auch kann ein proprietäres BIOS den Benutzer an Tätigkeiten hindern, die von der Hardware des Gerätes her kein Problem darstellen würden: so erlaubt beispielsweise das BIOS der Xbox es nicht, andere Software als die von Microsoft zugelassene zu starten. Es ist möglich, den Flash-ROM-Baustein (früher: EPROM), auf dem das BIOS abgelegt ist, zu ersetzen oder zu überschreiben, um so beispielsweise den Linux Kernel direkt aus dem Flash heraus zu starten, ohne BIOS. Die Vorgehensweise ist jedoch von der jeweiligen Hauptplatine abhängig und wird überwiegend in Industriecomputern eingesetzt. Projekte mit diesem Ziel sind etwa coreboot (ehemals LinuxBIOS) oder OpenBIOS – letzteres ist allerdings eine Open-Firmware-Implementation. Standard über das Zusammenwirken von BIOS-Systemstart, Initial Program Load und BIOS-Funktionsergänzungen. Das Zusammenwirken von BIOS-Systemstart, Initial Program Load und BIOS-Funktionsergänzungen wird durch die sogenannte „BIOS Boot Specification“ vom 11. Januar 1996, einem von einem Firmenkonsortium ausgearbeiteten Standard, geregelt. Dieser Standard fixiert insbesondere, auf welche Art und Weise Initial-Program-Load- (Bootstrapload-) Komponenten, die (den BIOS-Systemstart fortsetzend) das Hochlaufen der jeweiligen Betriebssysteme herbeiführen, vom BIOS identifiziert werden und wie unter Vorgabe der durch den Computerbenutzer festgelegten Priorität (entsprechend der sogenannten "Bootsequenz") versucht wird, eine oder mehrere der jeweiligen Komponenten zur Ausführung zu bringen. Direkt oder indirekt legt dieser Standard auch fest, wie etwa ein Initial Program Loader (Bootstraploader) ein auf das BIOS abgestimmtes Verhalten zustandezubringen hat und wie das BIOS das jeweils gerade verwendete Bootmedium (Festplatte, optische Laufwerk-Disk, USB-Stick, PCMCIA-Netzwerkkarte, Ethernetkarte oder dergleichen) für den Loader handhabt. Für die Bereitstellung von Bootmechanismen spielt die Programmierschnittstelle zwischen BIOS-Verwaltung und Bootverwaltung, das sogenannte „BIOS Boot Specification API“, eine Rolle, wobei die Implementierung dieser Mechanismen in der Regel sowohl hardware- als auch softwaremäßig erfolgt (sofern man jeweils ganze Bootmechanismen ins Auge fasst). Hardwaremäßig kann eine solche Implementierung durch BIOS-Funktionsergänzungen bewerkstelligt werden, etwa, wenn das Motherboard-BIOS durch ergänzende Add-In-Firmware-BIOSe von Netzwerk-, SCSI- oder RAID-Adaptern erweitert und/oder partiell ausgetauscht wird. Softwaremäßig kann eine solche Implementierung durch Programmierung entsprechender Routinen bzw. Treiber geschehen, sofern diese speicherresident untergebracht werden können; unter gewissen Voraussetzungen können auch Initial Program Loader bzw. Bootstraploader bei der Bereitstellung von unkonventionellen Bootmechanismen besondere Funktionen einnehmen bzw. eine besondere Rolle spielen. Beim Rechnerhochlauf via Netzwerkkarte sind die meisten Bootmechanismen weit komplizierter als beim klassischen (einfachen) Initial Program Load. In diese Kategorie gehört beispielsweise der Fall, dass der Rechnerhochlauf von einem außenstehenden Rechner über das Netzwerk (etwa via Fast-Ethernetadapter) angestoßen wird (siehe auch Wake on LAN). Das Motherboard-BIOS, das im Regelfall keinen Treibercode für das Booten über eine bestimmte Netzwerkkarte besitzt, wird durch Add-In-Firmware auf der Netzwerkkarte unter Beachtung der Vorgaben des BIOS Boot Specification APIs ergänzt, sodass eine speicherresidente Routine im Dienste der Netzwerkkarte den Bootmechanismus umlenken und die Netzwerkkarte als auswählbares Bootmedium am System anmelden kann. Nach erfolgter Auswahl der Netzwerkkarten-Bootoption im BIOS geht dann der BIOS-Systemstart in eine Netzwerkkommunikation über, in der Auskünfte über Bootserveradressen eingeholt werden und Abfragevorgänge stattfinden. Das beinhaltet eine Art „Bereitschaftszustand“ des Rechners, der durch Auslösung übers Netzwerk jederzeit hochfahrbar wird. Auf die richtige Meldung hin wird der Bootstraploader in den RAM-Speicher heruntergeladen und ausgeführt. Byte. Das Byte ist eine Maßeinheit der Digitaltechnik und der Informatik, das meist für eine Folge von 8 Bit steht. Historisch gesehen war "ein Byte" die Anzahl der Bits zur Kodierung eines einzelnen Text-Schriftzeichens im jeweiligen Computersystem und ist daher das kleinste adressierbare Element in vielen Rechnerarchitekturen. Um ausdrücklich auf eine Anzahl von 8 Bit hinzuweisen, wird auch die Bezeichnung "Oktett" verwendet; die früher dafür ebenfalls gängige Bezeichnung "Oktade" ist hingegen nicht mehr geläufig. Definitionen. Bei den meisten heutigen Rechnern fallen diese Definitionen (kleinste adressierbare Einheit, Datentyp in Programmiersprachen, C-Datentyp) zu einer einzigen zusammen und sind dann von identischer Größe. Der Begriff „Byte“ wird aufgrund der großen Verbreitung von Systemen, die auf acht Bit (bzw. Zweierpotenzvielfache davon) basieren, für die Bezeichnung einer 8-Bit-breiten Größe verwendet, die in formaler Sprache (entsprechend ISO-Normen) aber korrekt Oktett (englisch: "octet") heißt. Als Maßeinheit bei Größenangaben wird in der deutschen Sprache der Begriff „Byte“ (im Sinne von 8 bit) verwendet. Bei der Übertragung kann ein Byte parallel (alle Bits gleichzeitig) oder seriell (alle Bits nacheinander) übertragen werden. Zur Sicherung der Richtigkeit werden oft Prüfbits angefügt. Bei der Übertragung größerer Mengen sind weitere Kommunikationsprotokolle möglich. So werden bei 32-Bit-Rechnern oft 32 Bits (vier Byte) gemeinsam in einem Schritt übertragen, auch wenn nur ein 8-Bit-Tupel übertragen werden muss. Das ermöglicht eine Vereinfachung der zur Berechnung erforderlichen Algorithmen und einen kleineren Befehlssatz des Computers. Grundsätzlich hat jede Maßeinheit ein Einheitenkürzel sowie einen ausgeschriebenen Namen. Bei Bit und Byte sind dies Der ausgeschriebene Name unterliegt grundsätzlich der normalen Deklination. Aufgrund der großen Ähnlichkeit der Kürzel mit den ausgeschriebenen Einheitennamen sowie entsprechender Pluralformen in der englischen Sprache werden jedoch gelegentlich auch die Einheitenkürzel „bit“ und „byte“ mit Plural-s versehen. Geschichte des Begriffs. "Bit" ist ein Kofferwort aus "B"inary und dig"it", heißt also "zweiwertige Ziffer" – Null oder Eins. Dessen Bestandteile lassen sich auf die lateinischen Wörter "digitus" (Finger), den bzw. die man seit der Antike zum Zählen verwendet (vgl. Plautus: „computare digitis“) und lateinisch (genauer neulateinisch) "binarius" (zweifach), vgl. lateinisch "bis" (zweimal), zurückführen. Das Wort Byte ist künstlich und stammt von englisch "bit" (deutsch: bisschen) und "bite" (deutsch: Bissen) ab. Verwendet wurde es, um eine Speichermenge oder Datenmenge zu kennzeichnen, die ausreicht, um ein Zeichen darzustellen. Der Begriff wurde 1956 von Werner Buchholz geprägt in einer frühen Designphase eines IBM-Computers, damals noch in der Schreibweise "Bite". Im Original beschrieb er eine Breite von sechs Bit und stellte die kleinste direkt adressierbare Speichereinheit eines entsprechenden Computers dar, und damit konnte man die Buchstaben und gängige Sonderzeichen zum Beispiel in Quelltexten von Programmen oder anderen Texten speichern (also formula_2 verschiedene Zeichen). Die Schreibweise "Bite" wurde später in "Byte" geändert, um versehentliche Verwechslungen mit "Bit" zu vermeiden. In den 1960er Jahren wurde der sich in seiner Verwendung schnell ausbreitende ASCII-Zeichensatz definiert, der noch mit einer Bittiefe von sieben Bit auskam. Später wurden um ein Bit erweiterte ASCII-Zeichensätze verwendet, die auch die häufigsten internationalen Diakritika abbilden konnten, wie zum Beispiel die Codepage 437. In diesen erweiterten ASCII-Zeichensätzen entspricht jedes Zeichen exakt einem Byte mit acht Bit. In den 1960er und 1970er Jahren war in Westeuropa auch die Bezeichnung "Oktade" geläufig, wenn speziell 8 Bit gemeint waren. Diese Bezeichnung geht möglicherweise auf den niederländischen Hersteller Philips zurück, in dessen Unterlagen zu Mainframe-Computern sich die Bezeichnung Oktade (bzw. englisch: oktad(s)) regelmäßig findet. Für kurze Zeit hat es um 1970 4-Bit-Prozessoren gegeben, deren 4-Bit-Datenwörter (auch Nibbles genannt) mit hexadezimalen Ziffern dargestellt werden konnten. 8-Bit-Prozessoren wurden schon kurz nach der Erfindung der Programmiersprachen C und Pascal eingeführt, also Anfang der 1970er Jahre, und waren in Heimcomputern bis in die 1980er Jahre im Einsatz (bei eingebetteten Systemen auch heute noch), deren 8-Bit-Datenwörter (respektive Bytes) mit genau zwei hexadezimalen Ziffern dargestellt werden können. Seitdem hat sich die Breite der Datenwörter von Hardware von 4 über 8, 16, 32 bis heute zu 64 und 128 Bit hin immer wieder verdoppelt. Zur Unterscheidung der ursprünglichen Bedeutung als kleinste adressierbare Informationseinheit und der Bedeutung als 8-Bit-Tupel wird in der Fachliteratur (abhängig vom Fachgebiet) korrekterweise auch der Begriff Oktett für letzteres benutzt, um eine klare Trennung zu erzielen. Praktische Verwendung. In der elektronischen Datenverarbeitung bezeichnet man die kleinstmögliche Speichereinheit als Bit. Ein Bit kann zwei mögliche Zustände annehmen, die meist als „Null“ und „Eins“ bezeichnet werden. In vielen Programmiersprachen wird für ein einzelnes Bit der Datentyp „boolean“ (respektive „Boolean“ oder „BOOLEAN“) verwendet. Aus technischen Gründen erfolgt die tatsächliche Abbildung eines Boolean aber meist in Form eines Datenwortes. Acht solcher Bits werden zu einer Einheit – sozusagen einem Datenpäckchen – zusammengefasst und allgemein Byte genannt. Die offizielle ISO-konforme Bezeichnung lautet dagegen Oktett: 1 Oktett = 1 Byte = 8 bit. Viele Programmiersprachen unterstützen einen Datentyp mit dem Namen „byte“ (respektive „Byte“ oder „BYTE“), wobei zu beachten ist, dass dieser je nach Definition als ganze Zahl, als Bitmenge, als Element eines Zeichensatzes oder bei typunsicheren Programmiersprachen sogar gleichzeitig für mehrere dieser Datentypen verwendet werden kann, sodass keine Zuweisungskompatibilität mehr gegeben ist. Das Byte ist die Standardeinheit, um Speicherkapazitäten oder Datenmengen zu bezeichnen. Dazu gehören Dateigrößen, die Kapazität von permanenten Speichermedien (Festplattenlaufwerke, CDs, DVDs, Blu-ray Discs, Disketten, USB-Massenspeichergeräte und so weiter) und die Kapazität von vielen flüchtigen Speichern (zum Beispiel Arbeitsspeicher). Übertragungsraten (zum Beispiel die maximale Geschwindigkeit eines Internet-Anschlusses) gibt man dagegen üblicherweise auf der Basis von Bits an. SI-Präfixe. Vereinzelt kommen auch Mischformen vor, etwa bei der Speicherkapazität einer 3,5-Zoll-Diskette: 1,44 MB = 1440 kB = 1440 × 1024 Byte. Die Verwendung der SI-Präfixe zur Bezeichnung von Binärwerten (Zweierpotenzen) wird ausdrücklich nicht mehr empfohlen, siehe Abschnitt „IEC-Präfixe“. IEC-Präfixe. Viele Standardisierungsorganisationen schlossen sich dieser Empfehlung an (siehe Binärpräfix) Vergleich. Für größere Dezimal- und Binärpräfixe wird die Unterscheidung bedeutender, da die nominelle Differenz größer wird. So beträgt sie zwischen kB und KiB nur 2,4 %, zwischen TB und TiB hingegen bereits 10 %. Kapazitätsangaben bei Speichermedien. Die Hersteller von Massenspeichermedien, wie Festplatten, DVD-Rohlingen und USB-Speicher-Sticks, verwenden die Dezimal-Präfixe, wie es bei internationalen Maßeinheiten üblich ist, um die Speicherkapazität ihrer Produkte anzugeben. Daraus ergibt sich beispielsweise das Problem, dass ein mit „4,7 GB“ gekennzeichneter DVD-Rohling von Software, die entgegen dem o. g. Standard (nämlich bei „GB“ die Zehnerpotenzen zu verwenden) die Zweierpotenzen verwendet (so zum Beispiel der Windows Explorer), mit dem formal unterschiedlichen Wert von „4,38 GB“ (richtiger wäre hier „4,38 GiB“ anzuzeigen, um den Unterschied deutlich zu machen) angezeigt wird, obwohl in beiden Fällen rund 4,7 Gigabyte (4 700 000 000 Byte) gemeint sind. Ebenso wird in solchen Fällen eine mit „1 TB“ spezifizierte Festplatte mit der scheinbar deutlich kleineren Kapazität von etwa „931 GB“ oder „0,9 TB“ erkannt (auch hier sollte eigentlich „931 GiB“, bzw. „0,9 TiB“ angezeigt werden), obwohl in allen drei Fällen jeweils rund 1,0 Terabyte (1 000 000 000 000 Byte) gemeint sind. Andererseits enthält ein mit „700 MB“ gekennzeichneter CD-Rohling tatsächlich 700 MiB (734 003 200 Byte), also etwa 734 MB (und sollte somit streng genommen mit „700 MiB“ ausgezeichnet werden). Seit Version 10.6 benutzt Apples OS X konsequent Dezimalpräfixe nur in ihrer dezimalen Bedeutung. KDE folgt dem IEC-Standard und lässt dem Anwender die Wahl zwischen binären und dezimalen Angaben. Für Linux-Distributionen mit anderen Desktopumgebungen, wie z. B. Ubuntu ab Version 11.04, gibt es klare Richtlinien, wie Anwendungen Datenmengen angeben sollen; hier findet man beide Angaben, es überwiegen aber die Binärpräfixe. Bootloader. Ein Bootloader (englische Aussprache, von der verkürzten Form des ursprünglichen Wortes "bootstrap loader"), auch Startprogramm oder Urlader genannt, ist eine spezielle Software, die gewöhnlich durch die Firmware (z. B. dem BIOS bei IBM-kompatiblen PCs) eines Rechners von einem startfähigen Medium geladen und anschließend ausgeführt wird. Der Bootloader lädt dann weitere Teile des Betriebssystems, gewöhnlich einen Kernel. Daher ist auch oft vom Bootcode die Rede, dem ersten Programm (Maschinencode), das nach der unveränderlichen Firmware von einem wechselbaren veränderlichen Datenspeicher geladen wird. Der englische Begriff "bootstrap" bezieht sich ursprünglich auf die Schlaufe, die sich an der Hinterseite eines Stiefels befindet, um das Anziehen des Stiefels zu erleichtern. Der Prozess des Bootens (ein Programm auf einem Rechner laufen zu lassen, auf dem noch kein Betriebssystem läuft) erinnert teilweise an das Bemühen, sich an der eigenen Stiefelschlaufe aus dem Morast zu ziehen. Der Bootloader befindet sich in vielen Rechnerarchitekturen im ersten Block des bootfähigen Mediums, der daher auch als Bootsektor oder Bootblock bezeichnet wird. Der Vorgang selbst heißt Booten (auf Deutsch auch "Starten") eines Rechners. Bei IBM-PC-kompatiblen Computern beinhaltet er auf partitionierten Datenträgern einen Master Boot Record (MBR). Ein Bootmanager ist ein auf einem Betriebssystem installierbares Dienstprogramm, das u. a. einen Bootloader enthält und erweiterte Konfigurationsmöglichkeiten bietet. Auch im Bereich der eingebetteten Systeme spricht man von Bootloadern. Dort kann der Bootloader nicht nachgeladen werden, sondern befindet sich im nichtflüchtigen Speicher des Steuergeräts. Er beinhaltet Grundroutinen der Initialisierung und oft Kommunikationsprotokolle, um den Austausch der Anwendungsprogramme zu ermöglichen. Mehrstufige Bootloader. Ist ein Bootloader in mehrere auf einander aufbauende Stufen unterteilt, so wird er als mehrstufiger Bootloader () bezeichnet. Diese Unterteilung in Stufen wird z. B. dann gemacht, wenn der Programmcode des Bootloaders nicht im Bootsektor Platz findet; an dieser Stelle wird daher nur die erste Stufe geladen und ausgeführt, die dann die zweite Stufe, von der die erste Stufe nur die Länge, die Block-Nummer und die Nummer des Mediums kennt, geladen und ausgeführt wird. Die zweite Stufe kann nun mit dem konkreten Dateisystem des Mediums umgehen und lädt anhand eines Dateinamens die dritte Stufe. Die dritte Stufe ist nun der eigentliche Bootloader und lädt eine Konfigurationsdatei, die z. B. ein Auswahlmenü enthält. Ein Menüpunkt könnte die Anweisung beinhalten, einen Bootloader einer anderen Partition zu laden. Dieser mehrstufige Aufbau hat mehrere Vorteile: So kann im oben beschriebenen Fall die Datei des eigentlichen Bootloaders (Stufe 3) beliebig verändert oder auch physisch verschoben werden, da die zweite Stufe mit dem Dateisystem umgehen kann und die dritte Stufe anhand des Dateinamens finden kann. Außerdem unterliegt ein solcher Bootloader nicht den Beschränkungen der Länge eines Boot-Blocks. Chain-Loader. Es ist auch möglich, dass mehrere Bootloader sich – wie in einer [Befehls-]Kette (englisch ') – nacheinander aufrufen. Solche Aufrufe – meist über anderen Partitionen hinweg – wird auch "Chain-Loading" oder "Chainloading" (englisch ') genannt. Hierbei kann zuerst ein Bootloader geladen werden, der z. B. ein Boot-Menü zur Betriebssystem-Auswahl darstellt, und anschließend je nach Auswahl in diesem Menu der entsprechende (betriebssystemspezifische) Bootloader. So lassen sich auch mehrere, unterschiedliche Betriebssysteme in einem sogenannten Multi-Boot-System auf einem Rechner nebeneinander betreiben. Bootfähiges Medium. Ein bootfähiges oder startfähiges Medium (kurz "Startmedium;" booten von = [einen Computer] starten) ist ein Speichermedium, das für eine oder mehrere Computerplattformen sowohl den nötigen Inhalt als auch die notwendige Datenstruktur aufweist, um ein Starten des Computers mittels der auf dem Medium befindlichen Software zu ermöglichen. Ob ein Computer tatsächlich von einem bestimmten Speichermedium starten kann oder nicht, hängt zuerst einmal davon ab, ob das Medium bzw. dessen Lesegerät (z. B. Laufwerk) auch an den Computer angeschlossen werden kann. Es ist jedoch auch in hohem Maße von der integrierten Firmware des Computers abhängig, ob diese das Medium und dessen Anbindung (z. B. über USB) als Startmedium unterstützt. Bei IBM-PCs mit BIOS als Firmware lässt sich beispielsweise meist im BIOS-Setup konfigurieren, welche Medien in welcher Reihenfolge probiert werden, genannt "Bootreihenfolge." Auf Macintosh-Systemen lässt sich das zu verwendende Startmedium über die Firmware einstellen oder einmalig durch Halten der Taste nach dem Einschalten des Computers auswählen. Auch ist es möglich, mehr als eine Betriebssysteminstallation auf einem einzigen physischen Speichermedium unterzubringen (→Multi-Boot-System). Bei auf einen Bootloader angewiesene Systeme (vor allem Computer mit BIOS) ist dann eine zusätzliche Konfiguration oder die Installation eines Bootmanagers nötig, um das gewünschte Betriebssystem zum Starten auswählen zu können. Auf Systemen mit anderer Firmware kann das zu startende Betriebssystem meist direkt über die Firmware ausgewählt werden (Open Firmware, UEFI). Zur Reparatur, aber auch für andere Einsatzzwecke dienen Medien, die meist als Speicherabbild (z. B. als) mehr oder weniger frei verfügbar sind. Auch Anwendungen, insbesondere in der Backup- und Computersicherheitsanwendung, bieten startfähige Medien an, die sich teils später erstellen lassen (), teils aber mit der Installations-CD identisch sind. "→ Siehe auch: Einsatzmöglichkeiten von Live-Systemen" Birkengewächse. Die Birkengewächse (Betulaceae) sind eine Pflanzenfamilie in der Ordnung der Buchenartigen (Fagales) innerhalb der Bedecktsamigen Pflanzen (Magnoliopsida). Die 110 bis 200 Arten sind in den gemäßigten Gebieten der Nordhalbkugel und in den Bergregionen der Tropen verbreitet. Erscheinungsbild und Blätter. Die Arten der Birkengewächse sind laubabwerfende, verholzende Pflanzen und wachsen als Bäume oder Sträucher. Die wechselständig und spiralig, zwei- oder dreireihig an den Zweigen angeordneten, gestielten Laubblätter besitzen eine einfache Blattspreite. Die Blattränder sind (meistens doppelt) gesägt, gezähnt bis selten fast glatt. Die Nebenblätter fallen meist früh ab. Blütenstände und Blüten. Gemeinsam ist allen Arten der Betulaceae, dass sie einhäusig getrenntgeschlechtig (monözisch) sind. Auf einer Pflanze kommen also weibliche und männliche Blütenstände vor – bei dieser Familie werden sie Kätzchen genannt. In den Blütenständen sitzen immer viele, sehr einfach gebaute Blüten, jeweils nur mit Staubblättern oder nur mit Fruchtknoten und Narben. Die männlichen Blütenstände sind hängende Kätzchen. Die weiblichen Blütenstände sind je nach Gattung unterschiedlich aufgebaut. Die weiblichen Blütenstände der Coryloideae haben laubblattähnliche Hochblätter (Brakteen), dagegen haben die Betuloideae holzige Blütenstände. In den weiblichen Blüte sind zwei Fruchtblätter zu einem unterständigen, zweikammerigen Fruchtknoten verwachsen und es sind zwei freie Griffel vorhanden. In jeder Fruchtknotenkammer hängen von fast der Spitze aus jeweils zwei, oder selten nur eine, Samenanlagen. Wie bei vielen windbestäubten Taxa sind die einzelnen Blütenteile reduziert. Früchte und Samen. Sie haben ungeflügelte Nüsse oder kleine, geflügelte Nussfrüchte mit jeweils nur einem Samen. Die Samen enthalten einen geraden Embryo mit zwei flachen oder verdickten Keimblättern (Kotyledone) und kein Endosperm. Systematik und Verbreitung. Die Familie Betulaceae wurde 1822 durch Asa Gray in "A Natural Arrangement of British Plants", 2, 222, 243 aufgestellt. Typusgattung ist "Betula" Die Familie der Betulaceae enthält heute zwei Unterfamilien mit sechs Gattungen und insgesamt 110 bis 200 Arten, die hauptsächlich auf der Nordhalbkugel verbreitet sind. Alleine in China sind 89 Arten heimisch, davon kommen 56 nur dort vor. Die Arten der Haselnussgewächse, die früher als eine eigene Familie Corylaceae angesehen wurden, werden heute als Unterfamilie Coryloideae den Betulaceae zugeordnet. Nutzung. Von vielen Arten werden viele Pflanzenteile auf sehr vielfältige Weise genutzt, nachfolgend nur einige Beispiele. Von vielen "Corylus"-Arten werden die Nussfrüchte roh oder gegart gegessen. Aus den Samen von einigen "Corylus"-Arten wird Öl für die Verwendung in der Küche gewonnen. Besonders von "Betula"-Arten wird die Rinde sehr vielseitig verwendet und verarbeitet. Das Holz einiger Arten wird genutzt. Bei einigen Arten wurden die medizinischen Wirkungen untersucht. Viele Arten und ihre Sorten werden als Zierpflanzen in Parks und Gärten verwendet. Berechenbarkeitstheorie. Die Berechenbarkeitstheorie (auch Rekursionstheorie) ist ein Teilgebiet der theoretischen Informatik und der mathematischen Logik, die sich mit dem Begriff der Berechenbarkeit befasst, insbesondere damit, welche Probleme mit Hilfe einer Maschine (genauer: eines mathematischen Modells einer Maschine) lösbar sind. Sie ist eng verwandt mit der formalen Semantik, richtet aber die Aufmerksamkeit mehr auf die Terminiertheit von Programmen und Algorithmen. Auch verwendet sie als Ausgangspunkt die verschiedenen Modelle von Maschinen und nicht die abstrakteren Spezifikationssprachen. Die Berechenbarkeitstheorie wird oft auch als "Rekursionstheorie" bezeichnet. Manchmal wird letzterer Begriff auch benutzt, wenn man die Berechenbarkeitstheorie als Teilgebiet der mathematischen Logik auffasst oder um zu betonen, dass auch verallgemeinerte Formen von Berechenbarkeit und Definierbarkeit betrachtet werden. Einige Autoren verwenden den Begriff Rekursion, um nur die Funktionen mit explizitem Selbstbezug zu kennzeichnen. Welche Art Aufgaben kann eine Turingmaschine lösen? Ein Problem heißt entscheidbar, wenn es durch einen Algorithmus gelöst werden kann. Viele Probleme sind entscheidbar, es sind aber auch viele unentscheidbare Probleme bekannt. Beispielsweise sind nach dem Satz von Rice alle (nichttrivialen) semantischen Eigenschaften von Programmen unentscheidbar. Zum Beispiel kann das Problem der Gültigkeit prädikatenlogischer Formeln nicht algorithmisch gelöst werden: Gegeben ist eine Aussage der Prädikatenlogik erster Stufe. Aufgabe ist es herauszubekommen, ob die Aussage wahr ist. Dieses Problem ist auch als das "Entscheidungsproblem" (im engeren Sinn) bekannt. Church und Turing haben unabhängig voneinander nachgewiesen, dass dieses Problem nicht gelöst werden kann. Ein weiteres Problem ist das Halteproblem. Gegeben seien ein Algorithmus und eine Eingabe. Gefragt wird, ob der Algorithmus für die Eingabe schließlich hält (terminiert). Turing wies die Unentscheidbarkeit dieser Frage nach. Welche Aufgaben können durch weniger leistungsfähige Maschinen gelöst werden? Die Chomsky-Hierarchie beschreibt diejenigen formalen Sprachen, die durch vier Klassen von Algorithmen erkannt werden können. Sie alle setzen einen nichtdeterministischen endlichen Automaten voraus mit einem Speicher. Wenn der Speicher unendlich groß ist, dann entspricht die Situation der Turingmaschine. Wenn der Speicher proportional zur Größe der Eingabezeichenkette ist, dann können kontext-abhängige Sprachen erkannt werden. Wenn der Speicher nur einen Stapel umfasst, dann können kontextfreie Sprachen erkannt werden. Wenn die Maschine nur einen endlichen Speicher hat, dann können nur Sprachen, die durch reguläre Ausdrücke definiert sind, erkannt werden. Zusammenhang mit der Physik. Dem Physiker Richard Feynman fiel auf, dass Computer ziemlich schlecht darin sind, Problemstellungen aus der Quantenmechanik zu berechnen. Ein wichtiger Vortrag von ihm hierzu aus dem Jahre 1981 hatte den Titel Offenbar kann die Natur den Ausgang eines quantenmechanischen Experimentes schneller ausrechnen, als wir dies mit einem Computer können. Daher schlug er vor, einen besonderen Computer zu bauen, einen Quantenprozessor. Dessen Rechenwerk sollte quantenmechanische Prozesse nutzen, um Ergebnisse für quantenmechanische Probleme effizienter zu berechnen. Dabei wurde dann irgendwann klar, dass die einfachen mathematischen Modelle der theoretischen Informatik eigentlich nur mit einer Teilklasse der realen Computer korrespondieren können, weil man nicht alle physikalischen Möglichkeiten ausgeschöpft hatte. Diese neue Klasse von Computern wird als Quantencomputer bezeichnet. Trotzdem sind Quantencomputer im Sinne der Berechenbarkeitstheorie nicht mächtiger als Turingmaschinen (sie können exakt die gleichen Probleme lösen) jedoch könnte sich eventuell ein erheblicher Geschwindigkeitsvorteil ergeben. Berechenbarkeit. Eine mathematische Funktion ist berechenbar (auch effektiv berechenbar oder rekursiv), wenn für sie eine Berechnungsanweisung (Algorithmus) formuliert werden kann (Berechenbarkeitstheorie). Die Funktion, die ein Algorithmus berechnet, ist gegeben durch die Ausgabe, mit der der Algorithmus auf eine Eingabe reagiert. Der Definitionsbereich der Funktion ist die Menge der Eingaben, für die der Algorithmus eine Ausgabe produziert. Wenn der Algorithmus nicht terminiert, dann ist die Eingabe kein Element der Definitionsmenge. Dem Algorithmusbegriff liegt ein Berechnungsmodell zugrunde. Verschiedene Berechnungsmodelle sind entwickelt worden, es hat sich aber herausgestellt, dass die stärksten davon zum Modell der Turingmaschine gleich stark (Turing-mächtig) sind. Die Church-Turing-These behauptet daher, dass die Turingmaschinen den intuitiven Begriff der Berechenbarkeit wiedergeben. In der Berechenbarkeitstheorie heißen genau die Funktionen berechenbar, die Turing-berechenbar sind. Zu den Turing-mächtigen Berechnungsmodellen gehören neben der Turingmaschine beispielsweise die WHILE-Programme, μ-rekursiven Funktionen, Registermaschinen und der Lambdakalkül. Zu den Berechnungsmodellen, die schwächer sind als Turingmaschinen, gehören zum Beispiel die LOOP-Programme. Diese können zum Beispiel die Turing-berechenbare Ackermann-Funktion nicht berechnen. Ein dem Begriff der Berechenbarkeit eng verwandter Begriff ist der der Entscheidbarkeit. Eine Teilmenge einer Menge (zum Beispiel eine Formale Sprache) heißt entscheidbar, wenn ihre charakteristische Funktion (im Wesentlichen das zugehörige Prädikat) berechenbar ist. Formale Definition. Angenommen wird: der Algorithmus formula_1 "berechnet" die Funktion formula_2 mit formula_3, wenn formula_1 bei Eingabe von formula_5 nach einer endlichen Zahl von Schritten den Wert formula_6 ausgibt und bei Eingabe von formula_7 nicht terminiert. Eine Funktion heißt "berechenbar", wenn es einen Algorithmus gibt, der sie berechnet. Den Berechenbarkeitsbegriff kann man gleichwertig auf partielle Funktionen übertragen. Eine partielle Funktion formula_8 heißt berechenbar, wenn sie eingeschränkt auf ihren Definitionsbereich formula_9 eine berechenbare Funktion ist. Zahlenfunktionen. In der Berechenbarkeitstheorie werden meist nur Funktionen natürlicher Zahlen betrachtet. Definition berechenbarer Funktionen mit Registermaschinen. formula_10 ist berechenbar genau dann, wenn es eine formula_11-stellige Registermaschine formula_12 formula_13 formula_14 (die für kein Argument terminiert) berechenbar, da es eine entsprechende Registermaschine gibt. Definition mit WHILE-Programmen. Eine Funktion formula_13 (wie oben) ist berechenbar genau dann, wenn es ein WHILE-Programm formula_1 gibt mit Dabei ist formula_19 die Eingabecodierung, formula_20 die Ausgabecodierung und formula_21 die von formula_1 über die Semantik realisierte Maschinenfunktion. Definition durch Rekursion. Seien formula_23, Sub und Prk die Operationen der µ-Rekursion, der Substitution und primitiven Rekursion. Funktionen, die sich aus der Menge der primitiv-rekursiven Grundfunktionen durch wiederholtes Anwenden dieser Operatoren erzeugen lassen, heißen µ-rekursiv. Die Menge der formula_23-rekursiven Funktionen ist genau die Menge der berechenbaren Funktionen. Übergang von einstelligen zu mehrstelligen Funktionen. Über die cantorsche Paarungsfunktion wird der Begriff der Berechenbarkeit einer "k"-stelligen Funktion auf den der Berechenbarkeit von einstelligen Funktionen zurückgeführt. Insbesondere wird damit in natürlicher Weise definiert ob Funktionen von rationalen Zahlen berechenbar sind. Wortfunktionen. Die Berechenbarkeit von Wortfunktionen lässt sich etwa mit Hilfe von Turingmaschinen zeigen. Alternativ führt man eine Standardnummerierung über die Wörter über formula_25 ein und zeigt, dass die so erzeugten Zahlenfunktionen berechenbar sind. Uniforme Berechenbarkeit. Eine zweistellige Funktion "f"("x","y") mit der Eigenschaft, dass für jeden festen Wert "a" die durch "f'a"("y") = "f"("a","y") definierte einstellige Funktion "f'a" berechenbar ist, muss selbst nicht unbedingt berechenbar sein; für jeden Wert "a" gibt es zwar einen Algorithmus (also etwa ein Programm für eine Turingmaschine) "Ta", der "f'a" berechnet, aber die Abbildung "a" → "T'a" ist im Allgemeinen nicht berechenbar. Eine Familie ("f'a": "a"=0, 1, 2, …) von berechenbaren Funktionen heißt uniform berechenbar, wenn es einen Algorithmus gibt, der zu jedem "a" einen Algorithmus "Ta" liefert, welcher "f'a" berechnet. Man kann leicht zeigen, dass so eine Familie genau dann uniform berechenbar ist, wenn die zweistellige Funktion ("x", "y") → "f'x"("y") berechenbar ist. Bärlapppflanzen. Die Bärlapppflanzen ("Lycopodiopsida") sind eine Klasse von Gefäßpflanzen. Sie besteht rezent aus drei Familien mit krautigen Vertretern. Im Zeitalter des Karbon dominierten baumförmige Vertreter weite Gebiete der Nordhalbkugel, sie waren die Grundlage für die heutigen Steinkohlevorkommen in diesen Gebieten. Merkmale. Wie auch bei den anderen Gefäßpflanzen ist hier der Sporophyt die dominierende Generation. Der Sporophyt ist meist gabelig (dichotom) verzweigt. Die Sprossachsen tragen einfache, nicht gegliederte Blätter, die klein und schmal sind (Mikrophylle). Vom Habitus ähneln die Bärlappe den Moosen, sind mit diesen jedoch nicht näher verwandt als die anderen Gefäßpflanzen auch. Die rezenten Vertreter sind in der Regel klein und krautig, unter den fossilen Vertretern waren auch 40 Meter hohe Bäume. Die Sporangien stehen einzeln in den Achseln oder am Grund von Blättern (Sporophylle). Die Sporophylle stehen meist am Ende von Sprossabschnitten zu Sporophyllständen („Blüte“) vereinigt. Ausnahmen gibt es bei einigen fossilen Gruppen. Die meisten Gruppen sind isospor, sie bilden also nur gleich große Sporen aus. Einige Gruppen, die Moosfarne und Isoetales, sind heterospor, bilden also große weibliche und kleine männliche Sporen aus. Die Spermatozoiden sind in der Regel zweigeißelig, ein Unterscheidungsmerkmal zu den Farnen, der anderen Gruppe von Gefäßsporenpflanzen. Einzig "Isoetes" besitzt vielgeißelige Spermatozoiden. Paläobotanik. Die ältesten Vertreter der Bärlapppflanzen sind seit dem Silur bekannt, ab dem mittleren Devon lösten sie zusammen mit den Calamiten die Psilophyten als vorherrschende Gruppe ab. Bei den ursprünglichen Vertretern waren die Blätter und die Sporophylle noch gabelig. Einige baumartige Vertreter gehören zu den Hauptvertretern der Steinkohlenwälder des Karbons. Im Karbon hatten die Bärlapppflanzen ihre größte Mannigfaltigkeit, besonders mit den Schuppenbäumen, die die Familien Lepidodendraceae und Diaphorodendraceae umfassen, und den Sigillarien. Einige baumförmige Arten reichen noch ins Rotliegend, seitdem gibt es nur mehr krautige Vertreter. Bettina (Vorname). Bettina ist ein weiblicher Vorname. Herkunft und Bedeutung des Namens. Kurzform von Elisabeth (vermutlich aus dem ital.), hebräisch: ("Gott ist mein Eid, Gott ist Vollkommenheit"). Geht auch zurück auf den zweiten Buchstaben im hebräischen Alphabet Beth (Bet,ב) = Haus/Stätte. Verbreitung. Anfang des 20. Jahrhunderts war der Name Bettina in Deutschland ungebräuchlich. Ab Mitte der Vierziger stieg seine Popularität an. In den sechziger Jahren war der Name einige Male unter den zehn am häufigsten vergebenen weiblichen Vornamen des jeweiligen Jahres. Dann ging seine Beliebtheit mehr und mehr zurück. Seit Mitte der Neunziger werden kaum noch Kinder Bettina genannt. Namenstag. Der bekannteste Namenstag von Elisabeth/Bettina ist der 19. November. Da es mehrere heilige Elisabeths gab, sind auch folgende Namenstage gebräuchlich: 20. Januar, 22. Januar, 5. Februar, 28. Februar, 3. April, 19. Juni, 4. Juli, 25. November. Varianten. Bethina, Bettine, Betti, Betty, Betzi, Betsy, Beth, Bez, Bezn, Betina, Bette, Bezl, Beddy, Beddo, Tina usw. Brachsenkräuter. Die Brachsenkräuter ("Isoetes", auch "Isoëtes" geschrieben) sind die einzige rezente Gattung der Pflanzenordnung Brachsenkrautartige (Isoetales) innerhalb der Klasse Bärlapppflanzen (Lycopodiopsida). Diese ausdauernden krautigen Pflanzen mit knolliger Sprossachse wachsen untergetaucht im Wasser oder auf feuchtem Boden und kommen fast weltweit vor. Vegetative Merkmale. Die Brachsenkräuter wachsen als ausdauernde krautige Pflanzen und besitzen einen binsenartigen Habitus; darin unterscheiden sie sich von allen anderen Bärlapppflanzen. Sprossachse. Die Brachsenkräuter besitzen eine kurze, fleischige, aufrechte Knolle als Sprossachse. Die Sprossachse ist selten ein- oder zweimal dichotom verzweigt, diese Arten wurden früher in eine eigene Gattung "Stylites" gestellt. Die Knolle wächst unterirdisch. Das Meristem am oberen Ende ist unterdrückt. Die Knolle ist zwei-, seltener dreilappig, eher kugelig bis waagrecht spindelförmig. Die Sprossachse verfügt über ein sekundäres Dickenwachstum. Dieses erfolgt über eine Kambiumzone aus mehr oder weniger isodiametrischen Zellen, die in der Knolle um das primäre Leitgewebe entsteht. Dieses Kambium bildet wenig Xylem- und Phloem, aber viel Rindengewebe. In Arten der temperaten Zonen ist das Kambium jahreszeiten-abhängig aktiv. Gleichzeitig mit der Bildung von neuem Gewebe wird die äußerste Gewebezone zusammen mit den Blattresten und Wurzeln abgestoßen. Die reife Knolle behält daher eine konstante Größe. Das primäre Xylem besteht aus mehr oder weniger isodiametrischen Tracheiden. Am Unterende der Stele bilden sie eine ankerförmige Verzweigung, die in der gleichen Ebene liegt wie die Querspalte an der Unterseite der Knolle. Das vom Kambium nach innen abgegebene Gewebe differenziert sich zu einem Gemisch aus Tracheiden, Siebzellen und Parenchym. Das nach außen abgegebene Gewebe ist parenchymatisch. Eine das Leitgewebe abgrenzende Endodermis fehlt bei den Brachsenkräutern. Wurzeln. Das untere Meristem ist gleichfalls unterdrückt und liegt in der Querspalte der Knolle. Die Wurzeln entspringen der Unterseite der Knolle nahe dem Meristem. Die Wurzeln besitzen ein einzelnes Leitbündel, das von einer zweischichtigen Rinde umgeben ist: die äußere ist recht widerstandsfähig, die innere besteht aus zartwandigen Zellen und zahlreichen luftgefüllten Zellzwischenräumen. Blätter. Jeder der Seitenzweige trägt am oberen Ende ein Büschel von Federkiel-ähnlichen Blättern (Mikrophyllen). Die Mikrophylle tragen eine Ligula. Die Blätter sind 1 bis 70 cm lang und stehen bei jungen Pflanzen zunächst in zwei Reihen (distich), dies geht bald in eine dichte Spirale um das Meristem über. Die Blätter sind von einem einzelnen Leitbündel durchzogen, das häufig sehr dünn ist. Um das Gefäßbündel liegen vier Luftkanäle, die in Abständen von Querwänden unterbrochen sind. Bei Wasserpflanzen sind die Luftkanäle besonders stark ausgeprägt. Die Blattbasis ist verbreitert und chlorophyllfrei. Die Basen überlappen sich und bilden einen Schopf. Vermehrung und Gametophyten. Die Isoëtales sind heterospor. Die Sporophylle unterscheiden sich nicht wesentlich von sterilen Blättern. Die in der Wachstumssaison zuerst gebildeten Blätter bilden Megasporangien, die späteren Mikrosporangien, die zuletzt gebildeten Blätter sind häufig steril. Das Sporangium entsteht zwischen Ligula und Achse. Ein Teil des Gewebes im Inneren des Sporangiums verbleibt steril und bildet Zwischenwände, sogenannte Trabeculae. Das reife Sporangium ist von einer dünnen Hülle, dem Velum eingeschlossen. Das Velum entsteht unterhalb der Ligula und wächst über das Sporangium, wobei eine zentrale Öffnung, das Foramen, freibleibt. In einem Megasporangium werden etwa 100 Megasporen in der Größe von 0,2 bis fast 1 mm gebildet. In den Mikrosporangien entstehen bis zu einer Million Mikrosporen von bis zu 40 Mikrometer Durchmesser. Die Mikrosporen sind monolet, besitzen nur eine Trennungsnarbe, während die Megasporen trilet sind, eine dreistrahlige Narbe besitzen. "Isoetes" ist damit die einzige rezente Gattung der Bärlapppflanzen, die monolete Sporen bilden, aber auch eine der ganz wenigen Pflanzen, die an einem Individuum sowohl mono- als auch trilete Sporen bilden. Die Sporen werden erst im Zuge der Zersetzung des Sporophylls freigesetzt. Keimung und Entwicklung der Gameten ähneln der bei den Moosfarnen. Im Unterschied dazu verbleibt der männliche Gametophyt vollständig in der Spore (ist endospor). Aus dem einzigen Antheridium gehen vier Spermatozoide hervor, die im Gegensatz zu denen bei den Moosfarnen und bei "Lycopodium" vielgeißelig sind. Die Spermatozoide werden durch Aufreißen der Mikrosporen-Wand freigesetzt. Der weibliche Gametophyt ähnelt dem der Moosfarne. Die Zellbildung reicht bis weit in das Sporeninnere hinein, ein Diaphragma wie bei vielen Moosfarnen fehlt. Die Entwicklung des weiblichen Gametophyten verläuft zunächst endospor, der wachsende Gametophyt reißt allerdings die Megaspore auf entlang der dreistrahligen Narbe. Er bildet allerdings kein Chlorophyll. Die Archegonien ähneln ebenfalls denen der Moosfarne, ihr Hals besteht allerdings aus vier Zelllagen, nicht aus zwei. Die erste Teilung der Zygote verläuft leicht schief. Es wird kein Suspensor gebildet, der Embryo ist dennoch endoskopisch, da die äußere Zelle den Fuß bildet, der gesamte restliche Embryo von der verbliebenen inneren Zelle abstammt. Der Embryo dreht sich im Laufe des Wachstums, sodass er schlussendlich zur Oberseite des Gametophyten weist. Er bricht aus dem Gametophyten hervor, die Jungpflanze verbleibt noch einige Zeit von einer Scheide aus Gametophyten-Gewebe umgeben. Aus triploiden Arten von "Isoetes" ist Apogamie bekannt. Häufig kommt asexuelle Fortpflanzung mittels Knospenbildung anstelle des Sporangiums vor. Systematik und Verbreitung. "Isoetes" ist die einzige rezent vorkommende Gattung der Ordnung Isoëtales. Die früher zu "Stylites" gerechneten Arten werden heute zu Isoetes gerechnet. Bergfilm. Der Begriff Bergfilm war ursprünglich die Bezeichnung für ein Filmgenre in der deutschen Filmgeschichte, wird aber heute auch im weiteren Sinne für Dokumentar- und Spielfilme rund um das Thema Berg gebraucht. Historischer Bergfilm. Das Filmgenre Bergfilm bildete sich in den 1920er-Jahren heraus und fand in dem Regisseur Arnold Fanck seinen Hauptvertreter. Ebenfalls zu den bedeutendsten Regisseuren des Bergfilms gehörten Luis Trenker ("Der verlorene Sohn", 1934) und Leni Riefenstahl ("Das blaue Licht", 1932), die hier ihre Filmkarriere begann. In dem Genre arbeiteten auch Harald Reinl mit "Bergkristall" (1949) und Hans Ertl mit "Nanga Parbat" (1953). Der Bergfilm brachte für die Kameraleute ganz neue Anforderungen mit sich. Freiluftaufnahmen bei natürlichem Licht in all seinen Helligkeitsstufen sowie mitunter schwierige Gelände- und Wetterbedingungen erforderten geschickte Kameraleute, die zudem auch die Berglandschaft als natürliche Kulisse richtig ins Bild zu bringen hatten. Bedeutendste Kameraleute des Bergfilms waren Hans Schneeberger, Sepp Allgeier und Richard Angst, die allesamt kurz- oder längerfristig für Arnold Fanck arbeiteten. Moderner Bergfilm. Heute wird der Begriff Bergfilm oft weiter gefasst und umschließt neben Spielfilmen auch Kurzfilme und Dokumentationen, welche sich mit Natur, Sport und Kultur in den Bergen befassen. Der klassische Bergfilm erlebt eine Renaissance durch Spielfilme wie "In eisige Höhen" über das Höhenbergsteigen anhand des Unglücks am Mount Everest 1996, Joseph Vilsmaiers "Nanga Parbat" über die Geschichte der Messner-Brüder, "Cliffhanger" mit Motiven des Freeclimbing, "Nordwand" über das historische Alpinklettern, oder "Am Limit" über die modernsten Spielarten des Extremkletterns (Huber-Brüder). Auch der Skifilm (siehe unten) ist eine Variante des modernen Bergfilms. Dokumentarfilm und Heimatfilm. Erzählerisch gestalten sich auch Filme, die das klassische Genre des alpenländischen "Heimatfilms" von Romantisierung und Verkitschung der Kriegs- und Nachkriegsjahre zu befreien suchen, dafür hat sich etwa „Neuer Heimatfilm“ als Begriff eingebürgert. In diesem Kontext finden sich Literaturverfilmungen, halbdokumentarische Filmwerke und Fernsehfilme, etwa Theo Maria Werners "Der gestohlene Himmel" (1974), Hans W. Geißendörfers "Sternsteinhof" (1975/76), Jo Baiers "Rauhnacht" 1984, Fredi M. Murers "Höhenfeuer" und Xavier Kollers "Der schwarze Tanner" (beide 1985), Joseph Vilsmaiers "Herbstmilch" und Xaver Schwarzenbergers "Krambambuli" (1998, nach der gleichnamigen Erzählung), Stefan Ruzowitzkys "Die Siebtelbauern" (1998), die Geierwallyverfilmungen von Walter Bockmayer (1988) und Peter Sämann (2005), in weiterem Sinne auch Vilsmaiers "Schlafes Bruder" (1995) und "Bergkristall" (2004), oder Hans Steinbichlers "Hierankl" (2003), Modernisierungen des Wildschützgenres wie Hans-Günther Bückings "Jennerwein" (2003) und Historienfilme wie Schwarzenbergers "Andreas Hofer – Die Freiheit des Adlers" (2002). Zusätzlich zu den belletristischen Filmen sind in jüngerer Zeit auch zahlreiche Dokumentationen über die spezifische Kultur der Begräume getreten. Zu diesen gehören etwa preisgekrönte Schweizerische Produktionen in der Tradition Murers "Wir Bergler in den Bergen sind eigentlich nicht schuld, daß wir da sind" (1974), wie "Das Erbe der Bergler" (Erich Langjahr, 2006) oder "Bergauf, Bergab" (Hans Haldimann, 2008) und weitere Werke wie "Peak – Über allen Gipfeln" (Hannes Lang, 2011). Skifilm. Zum Genre Bergfilm gehört auch der "Skifilm". Seine Wurzeln liegen ebenfalls in den 1920er Jahren. Bedeutende Skifilme drehten zum Beispiel Willy Bogner und Luis Trenker. Trenker führte Bergfilm und Sportfilm zu einem Genre zusammen; Bogner fand als Regisseur und skifahrender Kameramann für einige James-Bond-Filme neue Möglichkeiten zum Drehen rasanter Verfolgungsjagden auf Skiern. 1986 erschien sein Film "Feuer und Eis"; dieser ergänzte das Genre um die Bildsprache des Videoclips. Bergfilm-Festivals. International ist eine Reihe von Festivals entstanden, welche Bergfilme auszeichnen. Von den in der International Alliance for Mountain Film zusammengeschlossenen Festivals gehören das Banff Mountain Film Festival und das Bergfilmfestival in Trient zu den Bekanntesten. Auch in Deutschland gibt es seit 2003 ein mittlerweile international bekanntes Bergfilmfestival in Tegernsee. Zu den Gewinnern des Festivals zählten in den letzten Jahren Filme wie "Nordwand" und "Touching The Void". In Österreich sind das Berg- und Abenteuerfilmfestival Graz und das Bergfilmfestival Salzburg „Abenteuer Berg – Abenteuer Film“ zu nennen. Sonstiges. Das „Goldene Matterhorn“ für den besten Bergfilm im Jahr 2000 erhielt der Film "Glücklicher Ikarus". Toni Bender, einer der weltbesten Gleitschirmflieger, überquerte die Alpen mittels Gleitschirm und filmte dabei. Brustkrebs. a> – Symbol der Solidarität mit von Brustkrebs betroffenen Frauen Brustkrebs (medizinisch "Mammakarzinom") ist der häufigste bösartige Tumor der Brustdrüse des Menschen. Er kommt hauptsächlich bei Frauen vor; nur etwa jede hundertste dieser Krebserkrankungen tritt bei Männern auf. In den westlichen Staaten ist Brustkrebs die häufigste Krebsart bei Frauen. Am Brustkrebs sterben mehr Frauen als an irgendeiner anderen Krebserkrankung. Die meisten Erkrankungen treten sporadisch (zufällig) auf, es gibt aber sowohl erbliche als auch erworbene Risikofaktoren. Neben der Heilung sind der Erhalt der betreffenden Brust und vor allem der Lebensqualität erklärtes Ziel der medizinischen Behandlung. Die Therapie besteht in der Regel in einer an das Erkrankungsstadium angepassten Kombination aus Operation sowie Zytostatika-, Hormon- und Strahlentherapie. Neue Ansätze aus dem Gebiet der Krebsimmuntherapie werden außerdem durch monoklonale Antikörper (wie z. B. durch die Verabreichung von Trastuzumab oder Pertuzumab) ermöglicht. Das medizinische Vorgehen basiert in hohem Maß auf Erfahrungen aus Studien und ist in weltweit akzeptierten Leitlinien standardisiert. Zahlreiche nationale und internationale Programme zur Früherkennung und zur strukturierten Behandlung sollen die Mortalität (Sterblichkeit) künftig senken. Epidemiologie. Häufigkeit des Mammakarzinoms nach Quadranten (gerundet; rechte Brust) Verlauf der Sterblichkeit (y-Achse in Todesfälle pro 100.000 Einwohner) bei Brustkrebs in Abhängigkeit vom Alter (x-Achse) Brustkrebs bei der Frau. In Deutschland ist das Mammakarzinom mit einem Anteil von 32 % aller Krebsneuerkrankungen die häufigste Krebserkrankung bei Frauen. Das Lebenszeitrisiko wird mit 12,9 % angegeben, d. h. etwa jede achte Frau erkrankt im Laufe ihres Lebens an Brustkrebs. Dies sind in Deutschland etwa 71.000 Neuerkrankungen pro Jahr (2010) oder 171 Fälle pro 100.000 Einwohner und Jahr. Bei internationalen Vergleichen muss die unterschiedliche Altersverteilung der nationalen Bevölkerungen berücksichtigt werden. Die nach dem sogenannten "Europastandard (ESR)" altersstandardisierte Inzidenz (Neuerkrankungsrate) lag in Deutschland im Jahr 2010 für Frauen bei 119,6/100.000. Die brustkrebsbedingte Sterberate (Mortalität) betrug im selben Jahr altersstandardisiert 24,0/100.000 nach dem ESR. Seit 1970 haben sich die Erkrankungszahlen verdoppelt, während die Mortalität eher rückläufig ist. Brustkrebs ist weltweit die häufigste invasive Tumorerkrankung bei Frauen. Weltweit gibt es nach Schätzungen der WHO (2003) etwa 1.050.000 neue Erkrankungsfälle pro Jahr, davon 580.000 in den Industriestaaten. Vergleichsweise seltener ist die Erkrankung in Afrika und Asien. Weltweit starben 1998 circa 412.000 Frauen an Brustkrebs, das sind 1,6 % aller gestorbenen Frauen. Damit ist Brustkrebs weltweit die häufigste krebsbedingte Todesursache bei Frauen. In der westlichen Welt ist Brustkrebs bei Frauen zwischen dem 30. und 60. Lebensjahr die häufigste Todesursache überhaupt. In Deutschland schätzt man etwa 17.460 brustkrebsbedingte Todesfälle pro Jahr und in den Vereinigten Staaten etwa 40.200. In Deutschland beträgt die durchschnittliche Fünfjahresüberlebensrate zurzeit 86–90 %. Während jedoch in den reichen Ländern die Sterberate sinkt, ist sie in den ärmeren Ländern hoch. Dies hängt zum einen mit der immer höheren Lebenserwartung zusammen, zum anderen mit den schlechteren diagnostischen und therapeutischen Möglichkeiten in den ärmeren Ländern. WHO-Angaben zufolge starben 2007 etwa 72 Prozent aller an Krebs erkrankten Menschen in Ländern mit mittlerem und niedrigem Einkommen. Dennoch gibt es derzeit in den Vereinigten Staaten das Phänomen von steigenden Brustkrebsraten bei jungen Frauen, für die es bisher keine zufriedenstellende Erklärung gibt. Brustkrebs beim Mann. Männer erkranken seltener an Brustkrebs. In Uganda sind fünf Prozent aller Mammakarzinome männlich, in Sambia liegt der Anteil sogar bei 15 Prozent. Nach aktueller Statistik 2011 sind es in Deutschland jährlich etwa 500 Männer. Das Verhältnis von Erkrankungen bei Männern zu Frauen liegt bei 1:100. Die standardisierten globalen Inzidenzraten für Brustkrebs betrug bei Männern 0,40 pro 105 Personenjahre (66,7 pro 105 bei Frauen). Die Diagnosestellung erfolgt bei Männern in einem höheren medianen Alter (69,6 Jahre). Männliche Patienten weisen zwar eine schlechtere relative 5-Jahres-Überlebensrate auf als Frauen (0,72 [95 % KI: 0,70-0,75] bzw. 0,78 [95 % KI: 0,78-0,78]), was einem relativen erhöhten Mortalitätsrisiko von 1,27 (95 % KI: 1,13-1,42) entspricht, sie zeigen jedoch nach Anpassung um Alter und Jahr der Diagnosestellung, Stadium und Therapie ein signifikant besseres relatives Brustkrebs-assoziiertes Überleben als Patientinnen. Die Mortalität bei Männern liegt bei rund 200 Todesfällen pro Jahr. Eine Studie der European Organisation for Research and Treatment of Cancer (EORTC) zusammen mit anderen Fachverbänden aus Europa und Nordamerika soll die Ursachen für diese Geschlechterdifferenz detailliert aufklären. Den Aufbau und die Betreuung des 2010 in der Bundesrepublik gebildeten ersten Selbsthilfe-Netzwerks „Netzwerk Männer mit Brustkrebs e.V.“ hat die bundesweite Frauenselbsthilfe nach Krebs (FSH) in Bonn unter dem Patronat der Deutschen Krebshilfe übernommen. Neben dem "Netzwerk Männer mit Brustkrebs" bietet auch der Krebsinformationsdienst Informationen zu diesem wichtigen Thema. Symptome für eine Erkrankung sind Flüssigkeitsabsonderung aus der Brustwarze, kleine Entzündungen oder Wunden, die nicht abheilen oder eine Einziehung der Brusthaut an einer Stelle oder der Brustwarze. Als Behandlung können in einer Operation sowohl tumorverdächtige Bereiche wie auch benachbarte Lymphknoten aus der Achselhöhle entnommen werden. Über solche Lymphknoten können sich Tumorzellen am ehesten im Körper ausbreiten. Möglich ist auch eine Strahlentherapie der Brustwand und eventuell eine Chemotherapie. Bei sehr vielen Männern ist eine antihormonelle Therapie sinnvoll, weil ihr Tumor östrogenabhängig wächst, und/oder eine Therapie mit Antikörpern, die sich gegen besondere Merkmale mancher Brustkrebszellen richten. Männer bilden auch das Hormon Östrogen, jedoch in sehr viel geringerem Maße als Frauen. Genetische Risikofaktoren. Etwa 5 % der Brustkrebserkrankungen sind erblich bedingt. Nur bei einer kleinen Gruppe von Frauen (etwa 1 pro 500) findet man definierte, krankheitsverursachende Mutationen. Wesentlich häufiger sind genetische Veränderungen, die die Suszeptibilität (Empfänglichkeit) für Brustkrebs auf äußere Faktoren erhöhen. Die höchste Wahrscheinlichkeit, an der erblichen Form des Brustkrebs zu erkranken, besteht bei Frauen mit Mutation in den "Breast-Cancer-Genen" BRCA1 und BRCA2. Es kommt bereits bei einer Mutation in einem Allel dieser Gene zur Erkrankung (man spricht von sogenannten Tumorsuppressorgenen mit autosomal-dominantem Erbgang). Die Wahrscheinlichkeit, im Laufe des Lebens an Brustkrebs zu erkranken, wird für Trägerinnen des mutierten BRCA1 mit 65 %, für Trägerinnen des mutierten BRCA2 mit 45 % angegeben. Mutationen im p53-Gen, einem der Tumorsuppressorgene, werden autosomal-dominant vererbt (Li-Fraumeni-Syndrom). Weitere Genveränderungen, die das Risiko erhöhen, betreffen Mutationen von PTEN (Cowden-Syndrom), STK11 (Peutz-Jeghers-Syndrom) und CDH1 (E-Cadherin); deren Häufigkeit und Risikoerhöhung für die Brustkrebserkrankung ist jedoch nicht genau bekannt. Mäßig erhöht ist die Wahrscheinlichkeit bei Bestehen der seltenen genetischen Veränderungen mit mittlerer Penetranz, diese betreffen unter anderem die folgenden Gene: ATM (Ataxia teleangiectatica), CHK2 "(checkpoint kinase 2)" und BRIP-1. Insgesamt lassen sich nicht mehr als fünf Prozent der Brustkrebserkrankungen auf diese Genveränderungen mit hohem oder mittlerem Risiko zurückführen. Die wesentlich häufigeren Allelveränderungen mit geringer Penetranz erhöhen das Brustkrebsrisiko höchstens auf das 1,25-fache bei heterozygoten Veränderungen und auf das 1,65-fache bei homozygoten Veränderungen. Dazu gehören insbesondere Veränderungen von FGFR2 "(fibroblast growth factor receptor 2)" und auf dem Chromosom 2q. Es wird geschätzt, dass solche Mutationen mit geringer Penetranz bei 58 % der Brustkrebserkrankungen eine Rolle spielen. Die Wahrscheinlichkeit, selbst zu erkranken, steigt statistisch nachweisbar ab zwei an Brustkrebs Erkrankten in der direkten Verwandtschaft an. Familien, in denen mehrere Personen an Brust- oder Eierstockkrebs erkrankt sind, wird eine tumorgenetische Beratung in einem Beratungszentrum, beispielsweise aus dem "Verbundprojekt familiärer Brustkrebs der Deutschen Krebshilfe" empfohlen. Bei Frauen mit einer entsprechenden Prädisposition (hohe Wahrscheinlichkeit des Krankheitsauftretens) kann auf Wunsch eine beidseitige prophylaktische Mastektomie (Brustamputation) und / oder eine Eierstockentfernung vorgenommen werden: Einen gewissen Schutz vor einer Brustkrebserkrankung scheint die weitgehende Unterbindung der Östrogenproduktion durch die Entfernung beider Eierstöcke zu bieten. Verschiedene Autoren berichten von einer Verringerung des Erkrankungsrisikos von 50 bis 70 %, wenn in der Familie bereits Brustkrebs auftrat. Hormonelle Faktoren. Weibliche Körperzellen, auch Tumorzellen, tragen Rezeptoren für die Sexualhormone Estrogene und Gestagene. Viele Mammakarzinome werden in ihrem Wachstum durch diese Hormone beeinflusst. Östrogen- und gestagenhaltige Medikamente gegen Wechseljahresbeschwerden (Hormonersatztherapie) erhöhen das Erkrankungsrisiko um bis zu 45 %. Auch Frauen mit früher Menarche (erstes Auftreten der Regelblutung in der Pubertät) und später Menopause (Ende der Menstruation, „Wechseljahre“) tragen ein etwas höheres Erkrankungsrisiko. Frauen, die früh Kinder bekommen und lange stillen, haben dagegen ein niedrigeres Risiko. Ob die Antibabypille das Risiko erhöht, ist substanz- und dosisabhängig und daher nicht vollständig geklärt. Die Nurses’ Health Study und weitere Studien haben eine Erhöhung des Risikos auf das 1,2- bis 1,4-fache nach einer Einnahme der „Pille“ über mehr als fünf Jahre gezeigt. Schwangerschaftsabbrüche erhöhen das Brustkrebsrisiko einer Metaanalyse aus dem Jahr 2004 zufolge nicht. Auch in anderen Studien mit hohen Fallzahlen konnte man einen solchen Zusammenhang nicht nachweisen. Phytoöstrogene sind Pflanzeninhaltsstoffe mit schwach östrogenartiger Wirkung. Ob Diäten, die reich an solchen Stoffen sind (etwa auf Sojabasis), das Erkrankungsrisiko erhöhen oder im Gegenteil durch Interaktion mit der körpereigenen Hormonproduktion senken, ist noch nicht bekannt, da die Ergebnisse der wissenschaftlichen Untersuchungen widersprüchlich sind. Linkshändigkeit. Eine Studie, in der festgestellt wurde, dass Linkshänderinnen ein bis zu doppelt so hohes Risiko haben, vor der Menopause an Brustkrebs zu erkranken als Rechtshänderinnen, sorgte im September 2005 für erhöhtes öffentliches Interesse. Schon fünf Jahre zuvor war eine andere Studie zu einem ähnlichen Ergebnis gekommen (Risikozunahme +42 %). Eine Studie aus dem Jahr 2007 kommt sogar auf eine um den Faktor 2,59 erhöhte Brustkrebswahrscheinlichkeit bei Linkshänderinnen. Die Mechanismen für das erhöhte Brustkrebsrisiko bei Linkshänderinnen sind noch weitgehend ungeklärt. Eine in Fachkreisen diskutierte Hypothese besagt, dass eine pränatale Einwirkung von erhöhten Dosen von Sexualhormonen auf den Embryo die Ursache ist. Die Sexualhormone bewirken dabei – so die Hypothese – zum einen, dass das Kind linkshändig wird und zum anderen, dass sich das Brustgewebe verändert und anfälliger für eine Krebserkrankung wird. Die Linkshändigkeit ist dabei gewissermaßen ein Indikator für erhöhte Konzentrationen an Steroiden in der Gebärmutter. Die Hypothese, dass die Grundlage für die Entstehung von Brustkrebs durch die Einwirkung von Sexualhormonen im embryonalen Stadium gebildet werden kann, wird schon seit 1990 diskutiert und basiert auf dem Geschwind-Behan-Gallura-Modell. Dass Sexualhormone – insbesondere Testosteron – "in utero" einen Einfluss auf die Ausbildung der Händigkeit haben können, wurde bereits 1985 gezeigt. Linke Brust häufiger als rechte Brust. Statistisch gesehen ist die linke Brust, sowohl bei Frauen als auch Männern, häufiger von Brustkrebs betroffen als die rechte. Davon sind alle Populationen betroffen. Mit zunehmendem Alter wird der Unterschied noch größer. Diese für die linke Brust erhöhte Rate trifft offensichtlich nicht für Tumoren zu, die ihren Entstehungsort im oberen äußeren Quadranten haben. Die Wahrscheinlichkeit, dass die linke Brust an Krebs erkrankt, ist – je nach Studie – um fünf bis sieben Prozent höher als bei der rechten. Bei Männern liegt dieser Wert sogar bei zehn Prozent. Die Ursachen für dieses Phänomen sind noch weitgehend unklar. Diskutiert werden unter anderem Schlafgewohnheiten, Händigkeit, Unterschiede in der Brustgröße und der Gehirnstrukturen, sowie Präferenzen beim Stillen. Eine andere Hypothese sieht in der embryonalen Entwicklung des auf der linken Körperseite befindlichen Herzens eine mögliche Ursache. Bei anderen Organen, wie beispielsweise der Lunge und den Hoden, ist eine ähnliche statistische Häufung zu beobachten. Bei diesen beiden Organen ist die Wahrscheinlichkeit, dass die rechte Hälfte des Organs betroffen ist, um 13 % höher. In diesen Fällen erklärt man sich diesen Unterschied durch das meist kleinere Gewebevolumen der linken Organhälfte. Weitere Faktoren. Brustkrebsauslösung durch eine Infektion („Brustkrebsvirus“) wurde bisher nicht nachgewiesen. Brustimplantate verursachen keinen Brustkrebs, ebenso wenig wie das Tragen von Büstenhaltern. Protektive Faktoren. Neben der Vermeidung von Risikofaktoren gibt es auch einige gegen den Brustkrebs schützende Verhaltensweisen. Durch Dreifachbefundung und weitere Diagnostik soll erreicht werden, dass möglichst wenige gutartige Mammatumoren biopsiert oder gar entfernt werden. Die EUREF-Richtlinie verlangt, dass in mindestens 50 % der genommenen Gewebeproben bösartige Tumoren nachgewiesen werden können; in manchen Untersuchungsprogrammen werden bis zu 80 % erreicht. CAD-Systeme "(Computer-assisted Detection)" können den Radiologen bei der Auswertung der Mammographien unterstützen. Solche Untersuchungen können in den USA und den Niederlanden von den Krankenkassen bezahlt werden. Nach bisher veröffentlichten Studien verbessern die bislang verfügbaren Geräte die Erkennungsrate jedoch nicht. In den europäischen Screeningprogrammen wird daher die Doppelbefundung durch zwei Ärzte (und durch einen dritten bei Auffälligkeiten) bevorzugt. Die Mammographie ist bei Frauen mit dichtem Drüsengewebe in ihrer Aussagekraft begrenzt. Bei extrem dichtem Gewebe werden etwa 50 % der Brusttumoren mit der Mammographie nicht entdeckt. Dies betrifft in erster Linie jüngere Frauen. Frauen mit dichtem Gewebe im Mammogramm wird daher der Einsatz eines zweiten Untersuchungsverfahrens (in der Regel Sonographie, im Einzelfall auch Kernspin-Mammographie) empfohlen. Diagnose. Tumor, eingezogene Brustwarze und Hauteinziehung Sonografische Darstellung von Mammakarzinomen im Ultraschall CT Knochenmetastase im Scapulahals rechts – im Computertomogramm (noch) nicht darstellbar Klinische Untersuchung. Bei der Selbstuntersuchung oder bei der ärztlichen, klinischen Untersuchung kann ein neuer, unscharf begrenzter Tumor auffallen. Weitere Anzeichen sind Verhärtungen, Größen- und Umrissveränderungen der Brust im Seitenvergleich, verminderte Bewegung der Brust beim Heben der Arme, bleibende Hautrötung, Hauteinziehung oder Apfelsinenhaut (verdickte Haut mit eingezogenen Stellen), Einziehung oder Entzündung der Brustwarze, Absonderungen aus der Brustwarze. Knoten in der Achselhöhle können Lymphknoten-Metastasen entsprechen. Allgemeinsymptome bei weit fortgeschrittenen Erkrankungen sind u. a. Leistungsknick, ungewollter Gewichtsverlust oder Knochenschmerzen. Ein lange Zeit unbehandeltes Mammakarzinom oder ein nicht kontrollierbares lokales Tumorrezidiv kann sich lymphangitisch oder subkutan infiltrierend soweit ausdehnen, dass die gesamte Brustwand panzerförmig ummauert erscheint; dieser Zustand wird als "Cancer en cuirasse" (Panzerkrebs) bezeichnet. Bildgebende Diagnostik. Werden bei der Tast- oder Ultraschalluntersuchung Auffälligkeiten gefunden, folgt als nächste Untersuchung üblicherweise die Mammographie: Die Röntgenaufnahmen werden aus zwei Blickrichtungen (von der Seite und von oben) gemacht, bestimmte Veränderungen erfordern manchmal zusätzliche Aufnahmen. Die Galaktographie wird nur durchgeführt, wenn die Brustwarzen Sekret absondern. Als Ergänzung steht bei einer solchen Sekretion an einigen Zentren die Duktoskopie, eine Spiegelung der Milchgänge, zur Verfügung. Umgekehrt werden mit der Mammographie entdeckte Veränderungen immer sonographisch nachuntersucht. Dabei werden gutartige Zysten erkannt. Die Leitlinie der Kassenärztlichen Bundesvereinigung schreibt hierfür Schallköpfe mit mindestens 5 MHz Frequenz vor. Die Kernspintomographie der Brust (MR-Mammographie, MRT) wird zurzeit nur empfohlen für das invasive lobuläre Mammakarzinom zur Bestimmung der Resektions-Grenzen und allgemein bei Verdacht auf das Vorliegen mehrerer Tumorherde, gegebenenfalls ist auch eine MRT-gesteuerte Biopsie möglich. Nach brusterhaltender Therapie kann die MRT eingesetzt werden, um zwischen narbigen Verdichtungen in der operierten Brust und neuem Tumorwachstum zu unterscheiden. Außerhalb der ambulanten Versorgung der gesetzlich krankenversicherten Patientinnen gibt es weitere Indikationen. Die Positronen-Emissions-Tomographie ist derzeit keine Routinemethode, kann jedoch eingesetzt werden, um nach dem Primärtumor bzw. dessen Metastasen zu suchen, wenn dieser mit anderen Methoden nicht gefunden werden kann. Knochenszintigramme, Computertomographien, Röntgenaufnahmen der Lunge, Sonographien der Leber und ggf. Kernspintomographien dienen dazu, nach Metastasen zu suchen, also die Ausbreitung der Erkrankung zu erkennen. Gewebeentnahmen. Wurde mit dem Ultraschall und der Mammographie ein Tumor diagnostiziert, wird dieser auf seine Gut- oder Bösartigkeit untersucht. Dazu werden jedem Tumor mittels Stanzbiopsie, in seltenen Fällen mittels Vakuumbiopsie, mehrere Gewebeproben entnommen und unter dem Mikroskop auf Krebszellen untersucht. Methode der Wahl für die Probenentnahme tastbarer und sonografisch sichtbarer Befunde ist die Stanzbiopsie, für im Kernspintomogramm sichtbare Befunde und Mikrokalzifikationen die stereotaktisch gestützte Vakuumbiopsie. Wurde der Tumor als bösartig erkannt, wird das Karzinom durch weitere Untersuchungen des entnommenen Gewebes näher bestimmt. Hierzu gehören der Status der Hormon- und neu-Rezeptoren sowie der Entartungsgrad. Nach der Operation wird das aus der Brustdrüse entfernte Operationspräparat in der histologischen Untersuchung auf seine exakte Größe gemessen und das Gewebe auf weiteren Befall untersucht. Die entfernten Lymphknoten werden auf Metastasen geprüft. Die Größe des Karzinoms und die Anzahl der befallenen Lymphknoten sind für die TNM-Klassifikation, Prognose und weitere Behandlung von Bedeutung. Das Operationspräparat wird auch daraufhin vermessen, ob der Abstand zwischen dem Karzinom und dem verbliebenen, gesunden Gewebe ausreichend groß ist. Sollte dies nicht der Fall sein, kann eine Nachoperation nötig werden, damit ein angemessener Sicherheitsabstand zwischen gesundem und erkranktem Gewebe erreicht wird. Genexpressionstests. Mittlerweile gibt es eine Reihe Genexpressionstests für Patientinnen, die an frühem und hormonrezeptorpositivem Brustkrebs erkrankt sind. Sie untersuchen die Aktivitäten von verschiedenen Genen (Genexpression) in Gewebeproben eines Brustkrebstumors und helfen damit, diejenigen Patientinnen, die von einer adjuvanten Chemotherapie profitieren können und diejenigen Patientinnen, denen diese nebenwirkungsreiche Therapie erspart werden kann, voneinander zu unterscheiden. Die wichtigsten Genexpressionstests für Brustkrebs sind der EndoPredict, Oncotype DX und MammaPrint. Klassifikation. Histologisches Bild eines invasiven duktalen Karzinoms („szirrhöses Karzinom“) Die Klassifikation eines Tumors ist dessen exakte Beschreibung auf der Grundlage der pathologischen Untersuchung einer Gewebeprobe oder des OP-Präparats und der entnommenen Lymphknoten. Histologische Klassifikation. Der häufigste Tumortyp des Mammakarzinoms ist mit etwa 70–80 % ein Adenokarzinom ohne besondere Merkmale; dieser Tumortyp wird als invasives duktales Karzinom (IDC) bezeichnet. Seltener (in etwa 10–15 %) sind das invasive lobuläre Karzinom (ILC), das invasive tubuläre, muzinöse, medulläre, papilläre Karzinom (je etwa 2 %), gemischte und andere Tumortypen. Diese Tumortypen unterscheiden sich in ihrer klinischen Präsentation, den Befunden bei bildgebenden Untersuchungen, dem histologischen Ausbreitungsmuster und in der Prognose. Bei fast allen Tumortypen liegt auch eine nicht invasive (duktale oder lobuläre) Tumorkomponente vor, aus der sie hervorgegangen sind und die für die Größe der Operation mitentscheidend ist. Seltener geht das Mammakarzinom direkt aus gutartigen Erkrankungen hervor (von denen einige bei Mammatumor genannt sind, es handelt sich hier aber nicht um bösartige Tumorerkrankungen). Als "inflammatorisches Mammakarzinom" bezeichnet man keinen histologischen Tumortyp, sondern eine sicht- und tastbare Veränderung, nämlich eine Rötung von mindestens einem Drittel der Brusthaut und Schwellung der Brust durch Infiltration der Lymphbahnen. Meist liegt ein lokal fortgeschrittener Befall der Brust und des umgebenden Lymphsystems vor. Die nicht-invasiven Karzinome sind definiert als Karzinome innerhalb der Brustdrüsengänge (duktales Carcinoma in situ, DCIS) oder -läppchen (lobuläres Carcinoma in situ, LCIS bzw. Lobuläre Neoplasie, LN) ohne Stromainvasion. Eine Sonderstellung nimmt der Morbus Paget der Brustwarze (Mamille) ein, der auf einer nicht-invasiven Tumorausbreitung in die Mamillenhaut beruht und in der Regel mit einem intraduktalen Mammakarzinom, seltener auch mit einem invasiven Mammakarzinom assoziiert ist. Dieses Paget-Karzinom der Brustwarze kann klinisch mit einem Ekzem oder gutartigen Geschwür verwechselt werden. Differenzierungsgrad. Die histologischen Tumortypen werden anhand struktureller und zellulärer Eigenschaften sowie ihrer Kernteilungsrate unterteilt in drei Differenzierungsgrade (synonym "Malignitätsgrad", englisch auch "Grading"). Die Einstufung des invasiven Karzinoms beruht auf den drei Kriterien "Tubulusbildung" (Ausbildung röhrenartiger Tumordrüsen), "Kernpolymorphie" (Vielgestaltigkeit der Zellkerne) und "Mitoserate" (Teilungsrate der Zellen) nach Elston und Ellis. Je höher das Grading, desto ungünstiger ist das Verhalten der Tumorzellen. Man unterscheidet Tumoren mit Differenzierungsgrad 1, 2 oder 3 (G1 = gut differenziert, G2 = mäßig differenziert, G3 = gering differenziert). TNM-Klassifikation. Die TNM-Klassifikation beschreibt die Größe des Tumors (T), die Anzahl der befallenen Lymphknoten (N) und Hormonrezeptor- und HER2-Status. Der Östrogenrezeptor- und Progesteronrezeptorstatus (ER- und PgR-Expression) wird ebenfalls histologisch, genauer immunhistologisch untersucht. Man bestimmt den Prozentsatz derjenigen Tumorzellen, an denen sich die Rezeptoren nachweisen lassen und errechnet aus Prozentsatz und der Färbeintensität einen 12-stufigen Immunreaktiven Score (IRS), oder den international gebräuchlicheren 8-stufigen Allred-Score. Beim HER2-Rezeptor, der für die Entscheidung, ob eine Nachbehandlung mit Trastuzumab (auch in Kombination mit Pertuzumab und Docetaxel) sinnvoll ist, wird ein 4-stufiger Score angewandt, der sich nach der immunhistochemischen Färbeintensität richtet (ASCO-Empfehlung 2007). Lassen sich keine Zellen anfärben, ist das Ergebnis negativ: Score 0. Auch der Score 1+ ist negativ, d. h. eine Behandlung mit Trastuzumab wäre ohne Effekt auf den Tumor. Bei einer mittleren Färbeintensität (Score 2) wird der Tumor mit dem FISH-Test nachuntersucht und anhand Vermehrung (Amplifikation) des HER2-Gens entschieden, ob es sich um einen HER2-positiven Tumor handelt. Molekulare Tumorklassifikation. Anhand des Genexpressionsprofils, welches mit DNA-Microarrays aus dem Tumorgewebe gewonnen werden kann, kann man fünf verschiedene Hauptgruppen des Mammakarzinoms unterscheiden: Hormonrezeptorpositive Tumoren mit geringer bzw. höherer Aggressivität (genannt "Luminal-A" und "Luminal-B", von "lumen" = Hohlraum der Milchgänge), HER2-positive Tumoren (erbB2-Phänotyp) und Hormonrezeptor- und HER2-negative Karzinome mit oder ohne Basalzell-Eigenschaften ("basal-like" und "normal-like" Phänotypen). Die zurzeit noch experimentelle molekulare Tumorklassifikation könnte in Zukunft eine bessere Abschätzung der Prognose und der voraussichtlichen Wirkung der adjuvanten Hormon- und Chemotherapie ermöglichen. Therapie. Zur Vereinheitlichung und Verbesserung der Krankenversorgung gibt es in Deutschland seit 2003 im Auftrag der Deutschen Krebsgesellschaft und der Deutschen Gesellschaft für Senologie von "OnkoZert" zertifizierte Brustzentren an Krankenhäusern und seit 2004 ein Disease-Management-Programm für Brustkrebs, an dem sich auch niedergelassene Ärzte beteiligen können. Die gemeinsame Leitlinie der Stufe S3 der Deutschen Krebsgesellschaft und der medizinischen Fachgesellschaften ist für diese Programme die Orientierung zur Behandlung von Brustkrebs. Diese Leitlinie wird regelmäßig aktualisiert, zuletzt im Juli 2012. Die Strategie zur Brustkrebsbehandlung wird meist im Rahmen einer "Tumorkonferenz" geplant, an der sich Gynäkologen, internistische Onkologen, Radiologen, Strahlentherapeuten und Pathologen beteiligen. Die Einbindung der Patientin in die Entscheidungsfindung ist wie bei jeder eingreifenden medizinischen Maßnahme von großer Bedeutung (siehe informierte Einwilligung). Auch der deutsche Gesetzgeber spricht in der DMP-Richtlinie deutlich vom Status der "aufgeklärten Patientin". Die Therapie der Brustkrebserkrankung soll im Frühstadium eine Heilung, beim metastasierten Karzinom eine Lebenszeitverlängerung und im Spätstadium eine Linderung der Krankheitsbeschwerden erreichen. Bei der Wahl der konkreten Therapie steht die Erhaltung der Lebensqualität im Vordergrund. Darum wird neben den weiter oben beschriebenen Klassifikationen des Tumors auch die körperliche, psychosoziale und emotionale Situation der Patientin berücksichtigt. Eine „Standardtherapie“ gibt es nicht, die Berücksichtigung aller verschiedenen Faktoren führt zu einer individuellen Anpassung der Therapie an die Krankheit und an die jeweilige Patientin. Brustkrebs kann sich sehr schnell im Körper ausbreiten und wird daher schon in frühen Stadien mit einer "systemischen" (im ganzen Körper wirksamen) Therapie behandelt. Diese nach dem amerikanischen Chirurgen Bernard Fisher benannte „Fisher-Doktrin“ ist die Grundlage der Chemo- und Hormontherapie beim Brustkrebs. Fast immer besteht die Behandlung heute aus einer Kombination verschiedener Therapieformen. Werden zusätzliche Maßnahmen vor einer Operation durchgeführt, werden sie als "neoadjuvant" bezeichnet, werden sie nach einer Operation eingesetzt, nennt man sie "adjuvant". Neoadjuvante Therapie. In einigen Fällen wird eine Chemotherapie oder antihormonelle Therapie schon vor der chirurgischen Entfernung des Tumors durchgeführt. Diese "primäre", oder "neoadjuvante" Therapie hat einerseits das Ziel, den Tumor zu verkleinern, um eine vollständige Entfernung des Tumors oder sogar eine brusterhaltende Operation zu ermöglichen, andererseits kann an der mit den neoadjuvanten Verfahren erreichbaren Veränderung der Erfolg einer weiteren, adjuvanten Behandlung abgeschätzt werden. Standard ist die neoadjuvante Therapie beim inflammatorischen Karzinom und bei zunächst inoperablen (T4-)Tumoren. Die Chemotherapieschemata sind die gleichen wie bei der postoperativen Behandlung (siehe unten). Operation. Mit der Operation der Brustkrebserkrankung werden zwei Ziele verfolgt: Einerseits soll durch möglichst vollständige Entfernung der entarteten Zellen eine Ausbreitung (Metastasierung) der Tumorzellen in andere Körperregionen verhindert werden, sofern das noch nicht geschehen ist, andererseits soll ein Wiederauftreten der Krankheitszeichen an Ort und Stelle (ein Rezidiv) verhindert werden. Brusterhaltende Chirurgie vs. Mastektomie. Unmittelbar vor einer kurvenförmigen axillären Inzision bei einem 3 cm großen Tumor im oberen Quadranten. Entfernung eines Tumors im Bereich des Brustwarzenhofes durch einen zirkumareolaren Einschnitt Beidseitige brustwarzenerhaltende Mastektomie ("nipple sparing mastectomy", NSM) mit Implantaten, nach beidseitigem Brustkrebs, bei einer 57-jährigen Frau. Hautsparende Mastektomie ("skin sparing mastectomy", SSM) mit Rekonstruktion der Brust mit einem Lappen des "M. latissimus dorsi" und Rekonstruktion der Brustwarze, inkl. Tätowierung der Brustwarze. Eine brusterhaltende Therapie (BET) ist heute bei 60–70 % der Erkrankten möglich, wenn die Relation zwischen der Tumorgröße und dem Brustvolumen günstig und der Tumor noch nicht in die Muskulatur oder Haut eingedrungen ist. Bei dieser Operation wird entweder der Tumor mit dem umliegenden Gewebe (Lumpektomie), ein größeres Segment oder ein ganzer Quadrant (Quadrantektomie) entfernt. Um ein kosmetisch ansprechendes Ergebnis zu erhalten, wird bei größerer Gewebeentfernung vor allem aus beiden unteren Quadranten eine sogenannte "intramammäre Verschiebeplastik" vorgenommen. Dabei wird die Brustdrüse ganz oder teilweise von Haut und Muskulatur gelöst und so verschoben, dass nach der Operation trotz des Gewebeverlustes eine ausgeglichene Brustform erhalten bleibt. Ist eine Verschiebeplastik nicht möglich, kann die Brust entweder direkt nach der Tumorentfernung oder nach Abschluss aller Behandlungen rekonstruiert werden. Die Empfehlung zur Mastektomie wird auch ausgesprochen, wenn ein "multizentrisches" (Tumorknoten in mehreren Quadranten) oder "multifokales" (mehrere Tumorknoten im selben Quadranten) Karzinom diagnostiziert wurde. Diese Empfehlung kann manchmal relativiert werden, wenn der Operateur alle Tumoren mit einem ausreichenden Sicherheitsabstand zum gesunden Gewebe entfernen kann. Auch wenn eine Krebserkrankung schon in andere Organe metastasiert hat, kann der ursprüngliche Tumor schonender operiert werden, wenn das radikale chirurgische Vorgehen keinen Vorteil bringen würde. Für die Versorgung von Frauen sowohl nach Brustamputation als auch nach brusterhaltender Operation (Chirurgie) oder auch nach Wiederaufbau mit unzureichendem kosmetischem Ergebnis werden Brustprothesen und Brustausgleichsteile aus Silikon eingesetzt. Frauen nach einer Brustoperation haben in der Regel Anspruch auf die Versorgung mit einer Brustprothese (auch Brustepithese genannt) bzw. einem Brustausgleichsteil, deren Kosten inkl. Beratung und Anpassung dann als medizinisches Hilfsmittel von den Krankenkassen übernommen wird. Als Halterung für die Prothese gibt es spezielle Prothesen-BHs und Prothesen-Badeanzüge mit eingearbeiteten Taschen, die zusammen mit dem Brustausgleich im Sanitätsfachgeschäft erhältlich sind. Achsellymphknoten. Die Lymphknoten der Achsel sind meist der erste Ort, an dem sich Metastasen bilden. Um diesen Befall zu erfassen, werden die Lymphknoten, zumindest einige von ihnen, bei der Operation oft mit entfernt. Um die Folgeschäden (Lymphödem) so gering wie möglich zu halten, kann zunächst nur ein einzelner Lymphknoten entfernt und untersucht werden, wenn der Tumor in der Brust kleiner als 2 cm ist und die Achsellymphknoten nicht tastbar sind. Dazu wird in die betreffende Brust ein Farbstoff oder ein Radionuklid injiziert, um den Lymphabfluss darzustellen. Der erste Lymphknoten, in dem das eingespritzte Material nachgewiesen werden kann, wird herausoperiert und untersucht. Nur wenn dieser sogenannte Wächterlymphknoten "(sentinel node)" von Tumorzellen befallen ist, werden weitere Lymphknoten der Achselhöhle ebenfalls entfernt (teilweise oder komplette Axilladissektion). Noninvasive Tumorzerstörung. 2013 wurde in Rom erstmals ein Verfahren getestet, bei dem noninvasiv mittels Ultraschallwellen bei einer ambulanten Behandlung Tumorgewebe zerstört werden kann. Bei der anschließenden Operation konnten bei 10 von 12 Patientinnen mit Tumoren kleiner als 2 cm keine Tumorreste mehr gefunden werden. Das Verfahren muss jedoch weiterhin getestet und optimiert werden. Adjuvante Therapie. Fast alle Patientinnen erhalten nach der Operation eine adjuvante (unterstützende) Behandlung. Chemotherapie. Nach der Operation folgt für viele Patientinnen mit höherem Rückfallrisiko eine Chemotherapie, um möglicherweise verbliebene Tumorzellen abzutöten. Die Notwendigkeit der Chemotherapie wird anhand des Tumortyps, des Stadiums und anderer Faktoren beurteilt. Wenn der Tumor hormonabhängig, kleiner als 2 cm und die Lymphknoten frei von Metastasen sind, kann in den meisten Fällen auf eine Chemotherapie verzichtet werden. Bei dieser Konstellation können mit einer antihormonellen Therapie ähnliche Ergebnisse erzielt werden (St. Gallen 2007). Welche Chemotherapie verabreicht wird, hängt vom Zustand der Patientin und von der Klassifikation des Tumors ab, vor allem von der Risikogruppe nach der St.-Gallen-Empfehlung. Die Behandlung wird in mehreren Zyklen durchgeführt, beispielsweise insgesamt viermal im Abstand von drei Wochen oder sechsmal in Abstand von zwei Wochen. Der Zeitabstand zwischen den einzelnen Gaben soll dem Körper einerseits die Gelegenheit zur Regeneration geben, andererseits hofft man darauf, dass Mikrometastasen (ruhende Tumorzellen) bzw. Krebsstammzellen in den Erholungsphasen mit der Teilung beginnen und mit der erneuten Zuführung der Zytostatika zerstört werden können. In der Regel werden die Zytostatika als Kombinationen eingesetzt. Die häufigsten Schemata sind zurzeit AC oder EC, FAC oder FEC. Wenn die Lymphknoten mit Metastasen befallen waren, wird eine Ergänzung der jeweiligen Kombination mit Taxanen (Paclitaxel und Docetaxel) empfohlen (St. Gallen, 2007). Das ältere CMF-Schema wird kaum noch verwendet. "(A = Adriamycin, C = Cyclophosphamid, E = Epirubicin, F = Fluoruracil, M = Methotrexat, T = Taxane)" Inzwischen werden Chemotherapien auch mit weiteren Therapien wie der zielgerichteten Antiangiogenese („Therapie des metastasierten Mammakarzinoms“, siehe unten) erfolgreich kombiniert. HER2/neu positive Tumoren. Bei HER2/neu positiven Tumoren wird in der Regel im Anschluss an die Chemotherapie ein Jahr lang die Behandlung mit dem HER2-Antikörper Trastuzumab durchgeführt („Antikörper-Therapie“, siehe unten), seltener auch ohne vorherige Chemotherapie. Die Dauer und die Zusammensetzung der Chemotherapie wird vom Ausmaß der befallenen Lymphknoten mitbestimmt (St. Gallen 2007). Bestrahlung. Nach der brusterhaltenden Operation sollte eine Strahlentherapie der Brust erfolgen. Sie senkt die Rezidivrate von 30 auf unter 5 %. Mikroskopisch kleine (nicht mit bloßem Auge erkennbare) Tumorreste können auch bei sorgfältigster Operation in der Brustdrüse verbleiben. Auch nach einer Mastektomie wird zur Nachbestrahlung geraten, wenn der Tumor größer als 5 cm war (T3 oder T4), die Brustdrüse mehrere Tumoren enthielt oder der Tumor bereits in Haut oder Muskulatur eingedrungen war. Auch der Befall von Lymphknoten ist ein Anlass zur Nachbestrahlung der Brustwand, insbesondere bei mehr als drei befallenen Lymphknoten. Das ehemalige Tumorgebiet soll bei Frauen unter 60 Jahren mit einer um 10–16 Gy höheren Dosis bestrahlt werden, damit sich an den Schnitträndern keine Rezidive ausbilden können. Die Strahlentherapie beginnt zirka 4–6 Wochen nach der Operation und dauert sechs bis acht Wochen. Eine befürchtete Erhöhung koronarer Ereignisse als Langzeitfolge der Strahlenwirkung auf das Herz konnte nicht bestätigt werden, es gibt eine gewisse Risikoerhöhung, das absolute Risiko ist jedoch sehr gering und kann durch moderne Strahlentherapie eventuell weiter gesenkt werden. Bei Frauen, die noch die Periode haben, wird schon durch Chemotherapie die Hormonfunktion der Eierstöcke gestört. Dieser Effekt richtet sich auch gegen die hormonabhängigen Tumorzellen und ist daher erwünscht. Frauen mit Kinderwunsch oder Frauen, denen das Risiko einer vorzeitigen Menopause zu groß ist, können ihre Eierstöcke mit GnRH-Analoga (die die ovariale Produktion von Östrogen und Progesteron unterdrücken) vor der schädigenden Wirkung schützen und gleichzeitig die Hormonausschaltung bewirken. GnRH-Analoga werden in der Regel über zwei Jahre gegeben. Nach der Chemotherapie wird normalerweise ein Estrogen-Rezeptor-Modulator wie Tamoxifen, welcher die Anbindung des körpereigenen Östrogens an den Östrogen-Rezeptoren des Tumors verhindert, für 5 Jahre gegeben. Aromatasehemmer sind vor der Menopause nicht angezeigt. Nach der Menopause. Ist die Patientin postmenopausal, erhält sie für in der Regel fünf Jahre entweder Tamoxifen oder einen Aromatasehemmer, welcher durch eine Enzymblockade die Bildung von Östrogen im Muskel- und Fettgewebe unterbindet. Neuere Studienergebnisse deuten an, dass die Aromatasehemmer wirksamer sind als das Tamoxifen, das heißt, die krankheitsfreie Überlebenszeit steigt an. In Studien wird der Aromatasehemmer manchmal sofort verwendet "(upfront)", in der Regelbehandlung erst nach zwei bis drei Jahren unter Tamoxifen ("switch", dt. ‚Wechsel‘), oder nach fünf Jahren "(extended)". Die jeweiligen Nebenwirkungen der Substanzen müssen bei der Entscheidung berücksichtigt werden. Auf Grund der besseren Wirksamkeit sind Aromatasehemmer zu Therapiebeginn erste Wahl und werden entsprechend häufiger verordnet. Tamoxifen wird dagegen seit 2003 immer seltener verschrieben. Eine weitere Möglichkeit besteht in der Gabe eines reinen Estrogen-Rezeptor-Antagonisten (Fulvestrant; Handelsname Faslodex), der von den Arzneimittelbehörden jedoch bisher nur bei fortgeschrittenem Brustkrebs zugelassen ist. Bei vielen Patientinnen mit hormonabhängigen Tumoren verliert Tamoxifen nach einigen Jahren seine Schutzwirkung (sogenannte "Tamoxifenresistenz"). Laborversuchen zufolge kann im Gegenteil sogar eine Beschleunigung des Zellwachstums eintreten. Betreffende Frauen sollten besser mit anderen Substanzen behandelt werden. Es ist bislang aber noch nicht möglich, das Verhalten eines individuellen Tumors in dieser Beziehung vorauszusagen. Ein Hinweis könnte das gleichzeitige Auftreten einer HER2/neu- und AIB1-Expression an einem ER-positivem Tumor sein. Androgenrezeptor abhängige Tumortypen. Die meisten Mamma-Karzinome besitzen auch Rezeptoren für das männliche Geschlechtshormon Testosteron und andere Androgene Hormone. Bei ER+ Tumortypen wird der Anteil der AR+ Tumoren mit über 80 % angegeben, bei den "dreifach-negativen" Tumortypen wird der Anteil mit etwa 10-50 % geschätzt. Abhängig vom Estrogenrezeptorstatus kann Testosteron eine wachstumshemmende Wirkung bei ER+ Tumoren oder eine wachstumstreibende Wirkung bei ER-/PR- Tumortypen entfalten. Der Androgenrezeptor reagiert teilweise auch mit anderen Androgenhormonen und Progestinen. Speziell für AR+/ER-/PR- Tumortypen in local fortgeschrittenem oder metastasiertem Stadium wurde zwischen 2007 bis 2012 die Behandlung mit dem Antiandrogen Bicalutamid in einer Phase II Studie mit gutem Erfolg erprobt. Da der Patentschutz von Bicalutamid (Casodex) ausgelaufen ist wird inzwischen das neuere Enzalutamid für diesen Einsatzbereich getestet, bis jetzt sind jedoch nur in vitro Experimente bekannt. Historisch belegt ist ferner der Einsatz von Testosteron bei ER+ Tumortypen, die erzielten Ergebnisse waren in etwa vergleichbar mit Tamoxifen, jedoch mit stärkeren Nebenwirkungen verbunden. Ein ähnlicher Wirkungsmechanismus wird teilweise bei der experimentellen Behandlung mit Progestinen vermutet. Antikörper. Etwa ein Viertel aller Mammakarzinome weisen eine Überexpression des neu-Rezeptors auf. Der Nachweis dieses Rezeptors steht für einen aggressiven Krankheitsverlauf und eine ungünstige Prognose, ist aber auch Bedingung für die Behandlung (Krebsimmuntherapie) mit dem Antikörper Trastuzumab. Neben der alleinigen Verabreichung von Trastuzumab wird dieser auch in Kombination mit dem monoklonalen Antikörper Pertuzumab und dem Zytostatikum Docetaxel eingesetzt. 1998 wurde der Wirkstoff (Handelsname: "Herceptin") in den USA und 2000 in der Europäischen Union zunächst für Patientinnen mit metastasiertem Brustkrebs zugelassen. Trastuzumab ist ein monoklonaler Antikörper gegen den Wachstumsrezeptor HER2/neu auf der Zelloberfläche von Krebszellen. Studien ergaben, dass mit dieser sogenannten gezielten Krebstherapie ("targeted therapy") das Risiko eines Rezidivs (Wiederauftretens) um etwa 50 % gemindert werden konnte. Viele klinische Studien zeigen, dass auch Frauen ohne Metastasen profitieren. Die HER2-Antikörpertherapie kann Rückfälle verhindern und so zur Heilung beitragen. Seit 2006 ist Trastuzumab deshalb auch für die adjuvante Therapie zugelassen. Therapie des metastasierten Mammakarzinoms. Fernmetastasen verschlechtern die Prognose rapide, da in der Regel bei Vorliegen einer sichtbaren Fernmetastase multiple Mikrometastasen vorhanden sind. Deshalb richtet sich die Behandlung auf die Lebenszeitverlängerung und den Erhalt einer angemessenen Lebensqualität mit einer langfristigen Stabilisierung der körperlichen und psychischen Verfassung. Brustkrebs bildet ausgesprochen häufig Knochenmetastasen. Rezidive und Metastasen können operativ entfernt oder mit Strahlentherapie behandelt werden. Trotz der Nebenwirkungen kann unter Umständen auch mit der Verabreichung einer Chemo-, Hormon- oder durch eine gezielte Krebstherapie eine Erhöhung der Lebensqualität und eine Verlängerung der Zeit bis zum Fortschreiten der Erkrankung (Progressionsfreies Überleben) erreicht werden. Das zur Gruppe der Taxane gehörende Paclitaxel-Albumin (Handelsname: "Abraxane") ist – in Monotherapie – indiziert für die Behandlung von metastasierendem Mammakarzinom bei erwachsenen Patienten, bei denen die Erstlinientherapie für metastasierende Krankheit fehlgeschlagen ist und für die eine standardmäßige Anthracyclin-enthaltende Therapie nicht angezeigt ist. Zusätzlich zu den bei der adjuvanten Therapie eingesetzten Wirkstoffen kommt beim HER2/neu-positiven metastasierten Mammakarzinom auch der Tyrosinkinase-Inhibitor Lapatinib zum Einsatz. Metastasierte HER2/neu-negative Tumoren können seit 2007 mit dem Angiogenese-Hemmer Bevacizumab behandelt werden. Diese gezielte Krebstherapie kann in Kombination mit einer Chemotherapie aus Paclitaxel oder Docetaxel angewendet werden. Studien zu weiteren Kombinationsmöglichkeiten laufen zurzeit. Durch die Antiangiogenese wird die vom Tumor ausgelöste Neubildung von Blutgefäßen verhindert. Infolgedessen wird der Tumor nicht mehr ausreichend versorgt und die Tumorzellen sollen dadurch zugrunde gehen. Eribulin (Handelsname: "Halaven") ist ein nicht taxan-basiertes, hochwirksames neues Zytostatikum (Zulassung in den USA im November 2010; in Europa im März 2011), das in Monotherapie für die Therapie von stark vorbehandelten Patientinnen mit lokal fortgeschrittenem oder metastasiertem Brustkrebs eingesetzt wird. Wenn der Krebs in seiner Ausbreitung so weit fortgeschritten ist, dass er nicht mehr zurückgedrängt werden kann, richtet sich die Behandlung vor allem auf die Beherrschung von Schmerzen und anderen Krankheitsbeschwerden. Zur Palliativmedizin gehört die psychosoziale Betreuung und eine Schmerzbehandlung, die schnell und vollständig erfolgen sollte und eine frühzeitige und ausreichende Gabe von Opiaten einschließt, siehe WHO-Stufenschema. Nachsorge. Die Nachsorge der behandelten Patientinnen dauert in der Regel fünf Jahre und richtet sich zumeist nach den Leitlinien der Deutschen Krebsgesellschaft. Auf Nebenwirkungen der Strahlentherapie (Lymphödem, Lungen- oder Herzprobleme), der Chemotherapie (Blutbildveränderungen, Organschäden) und der Hormontherapie (Thrombosen, Osteoporose) muss besonders geachtet werden. Neben der Befragung und klinischen Untersuchung soll in den ersten drei Jahren, da hier die meisten Rezidive auftreten, alle sechs Monate eine Mammographie angefertigt werden. Ab dem vierten Jahr erfolgt die Mammographie – ebenso wie bei der zweiten, gesunden Brust von Anfang an – jährlich. Gemäß S3-Leitlinie kehrt die Patientin nicht mehr zu einem zweijährigen Intervall oder in das Screening Programm zurück. Zur Verlaufskontrolle können in der Blutuntersuchung die Tumormarker CA 15-3 und CEA bestimmt werden, was allerdings nicht in den Richtlinien vorgesehen ist und meistens eher bei konkretem Verdacht der Fall ist. Es muss bei jeder einzelnen Patientin sehr sorgfältig abgewogen werden, ob die Nachsorge in der hier angegebenen Form tatsächlich durchgeführt werden soll; jede kleine nachgewiesene Veränderung kann eine erhebliche psychische Belastung nach sich ziehen, die wiederum die Lebensqualität entscheidend beeinflussen kann. Für eine einheitliche Qualität bei der Nachbetreuung bieten die deutschen gesetzlichen Krankenkassen seit 2004 das Disease-Management-Programm „Brustkrebs“ an. Die teilnehmenden Ärzte orientieren sich bei der Therapie an den jeweils aktuellen Leitlinien zur Behandlung und Nachsorge des Brustkrebses. Eine Teilnahme ist bei allen Ärzten möglich, die sich diesen qualitätssichernden Programmen angeschlossen haben. Für die Patientinnen bedeutet die Teilnahme an diesem Programm eine Einschränkung der freien Arztwahl. Geschichte. Die ersten Dokumentationen von Brustkrebserkrankungen stammen aus der Zeit von 2650 v. Chr. aus dem Alten Ägypten. Zu dieser Zeit wurden sie mit einem Brenneisen behandelt. Im Papyrus Edwin Smith (um 1600 v. Chr.) wurden acht Brustkrebserkrankungen beschrieben, auch die eines Mannes, welche ebenfalls durch Kauterisation behandelt wurden. Auch der Papyrus Ebers enthält eine Beschreibung von Brustkrebs. Die Erkrankungen galten zur damaligen Zeit als nicht heilbar. Auch im Corpus Hippocraticum wurde der Fall eines Mammakarzinoms geschildert. Von einer chirurgischen Behandlung tiefliegender Tumorerkrankungen wurde dort abgeraten, da nicht operierte Patienten länger lebten. Der griechische Arzt Galen sah Brustkrebs als Folge einer Säftestörung und damit als systemische Erkrankung, eine Krankheit des ganzen Organismus, an. Als Mittel zur Behandlung wurden bis in das Mittelalter unterschiedlichste Rezepturen genutzt, um die eingedickte Galle zu verflüssigen und abzuführen. Bestandteile waren, unter anderem, Blei- und Zinkkarbonat, Rosenöl und Hirschkot. Die erste Operation bei Brustkrebs soll Leonidas aus Alexandria um 100 n. Chr. durchgeführt haben. Zur Blutstillung und Entfernung von Tumorresten nutzte er ein Brenneisen. Andreas Vesalius empfahl um 1543 bei Brustkrebs eine Entfernung der Brust (Mastektomie), bei welcher er jedoch eine Blutstillung mit Nähten der Kauterisation vorzog. Der französische Chirurg Jean-Louis Petit (1674–1750) legte das erste Konzept zur operativen Behandlung von Brustkrebs vor, welches jedoch erst 24 Jahre nach seinem Tode veröffentlicht wurde. Sein Kollege Henry François Le Dran (1685–1770) meinte 1757, dass der Brustkrebs zumindest am Anfang lokaler Natur wäre. Erst wenn er sich seinen Weg in die Lymphbahnen geschaffen habe, sei die Prognose für die Patientin schlecht. Er entfernte daher die komplette Brust mitsamt den Lymphknoten der Achselhöhle. Auch der schottische Chirurg Benjamin Bell (1749–1806) erkannte die Bedeutung einer Entfernung der Lymphknoten aus der Achselhöhle. Rudolf Virchow (1821–1902) konnte 1840 nachweisen, dass sich die Erkrankung aus den Epithelzellen entwickelt und sich entlang der Faszien und Lymphbahnen ausbreitet. Damit wandelte sich die Sicht vom Brustkrebs, welcher jetzt eher als lokale Erkrankung betrachtet wurde. Diesem Konzept folgte William Stewart Halsted (1852–1922), der 1882 die erste radikale Mastektomie mit Entfernung der Faszie, der Brustmuskeln (Musculus pectoralis minor, Musculus pectoralis major) und der Achsellymphknoten durchführte. Für die damaligen Verhältnisse konnte damit eine lokale Tumorkontrolle mit einer 5-Jahres-Lokalrezidivrate von sechs Prozent erreicht werden. Im deutschsprachigen Raum war Josef Rotter (1857–1924) Vorreiter dieser Methode, die er ab 1889 bei seinen Patientinnen durchführte. 1874 beschrieb der englische Chirurg James Paget (1814–1899) eine ekzemartige Veränderung der Brustwarze mit angrenzendem duktalen Adenokarzinom, welche später als Morbus Paget bezeichnet wurde. Der schottische Chirurg Sir George Thomas Beatson erkannte 1895, dass die Entfernung der Eierstöcke bei einer seiner Patientinnen den Brusttumor schrumpfen ließ. 1897 wurde Brustkrebs erstmals bestrahlt. 1927 wurde in Deutschland über die erste brusterhaltende Operation beim Mammakarzinom berichtet. 1948 veröffentlichten David H. Patey und W. H. Dyson eine etwas weniger radikale Operationsmethode als Rotter und Halsted mit gleich guten Ergebnissen, bei welcher die Brustmuskeln erhalten bleiben konnten. Sie wird heute noch als modifiziert-radikale Mastektomie nach Patey bezeichnet. Ein weiterer Rückgang der operativen Radikalität begann mit Robert McWhirter, der 1948 nach einfacher Mastektomie eine Strahlentherapie durchführte. Mit den Arbeiten von Bernhard und E. R. Fisher setzte sich in den 1960er Jahren die Auffassung durch, dass das Mammakarzinom schon im Frühstadium eine im Körper gestreute Erkrankung sein kann und die Lymphknoten keine Barriere gegen eine Ausbreitung im Körper darstellen. Vielmehr wurde der Befall der Lymphknoten als Indikator für eine systemische Ausbreitung angesehen. Die Lymphknotenentfernung hätte folglich nur prognostische und keine therapeutische Bedeutung. Daher wurde das gängige Konzept der Operation und Strahlentherapie um eine anschließende Chemotherapie ergänzt, um auch Mikrometastasen zu vernichten. Ab 1969 erfolgte die Chemotherapie als Kombination mehrerer Präparate mit Verbesserung der Wirksamkeit. Seit den 1970er Jahren werden Mammakarzinome zunehmend brusterhaltend operiert. Die Sentinel- oder auch Wächter-Lymphknoten-Entfernung erspart seit Ende des 20. Jahrhunderts oft die vollständige Entfernung der Lymphknoten aus der Achselhöhle. Damit wurde die operative Radikalität weiter reduziert. Eine Forschergruppe um den US-Amerikaner J. M. Hall entdeckte 1990 das, später BRCA1 benannte, Brustkrebs-Gen. 1994 wurde mit BRCA2 ein zweites Brustkrebsgen erkannt. Die 1985 von der American Cancer Society gestartete Initiative Brustkrebsmonat Oktober findet wachsende Beachtung in den Industrieländern. Brustkrebszeichen in der Kunst. In der medizinischen Fachliteratur wurde wiederholt über Brustkrebsanzeichen in historischen Bildern diskutiert. Anzeichen, wie ein sich andeutender Tumor, Größen- und Umrissveränderungen der Brust im Seitenvergleich, Hautrötung, Hauteinziehung oder Apfelsinenhaut finden sich beispielsweise in Werken von Raffael, Rembrandt van Rijn und Rubens. Ob es sich bei den dargestellten Veränderungen allerdings tatsächlich um Brustkrebs handelt, lässt sich jedoch nicht beweisen und wurde daher auch angezweifelt. Satz von Bayes. Illustration des Satzes von Bayes durch Überlagerung der beiden ihm zugrundeliegenden Entscheidungsbäume bzw. Baumdiagramme Der Satz von Bayes ist ein mathematischer Satz aus der Wahrscheinlichkeitstheorie, der die Berechnung bedingter Wahrscheinlichkeiten beschreibt. Er ist nach dem englischen Mathematiker Thomas Bayes benannt, der ihn erstmals in einem Spezialfall in der 1763 posthum veröffentlichten Abhandlung "An Essay Towards Solving a Problem in the Doctrine of Chances" beschrieb. Er wird auch Formel von Bayes oder (als Lehnübersetzung) Bayes-Theorem genannt. Formel. Für zwei Ereignisse formula_1 und formula_2 mit formula_3 lässt sich die Wahrscheinlichkeit von formula_1 unter der Bedingung, dass formula_2 eingetreten ist, durch die Wahrscheinlichkeit von Wenn formula_19 eine Zerlegung der Ergebnismenge in disjunkte Ereignisse ist, gilt für die A-posteriori-Wahrscheinlichkeit formula_20 Den letzten Umformungsschritt bezeichnet man auch als Marginalisierung. Da ein Ereignis formula_1 und sein Komplement formula_23 stets eine Zerlegung der Ergebnismenge darstellen, gilt insbesondere Des Weiteren gilt der Satz auch für eine Zerlegung des Grundraumes formula_25 in abzählbar viele paarweise disjunkte Ereignisse. Beweis. ist eine Anwendung des Gesetzes der totalen Wahrscheinlichkeit. Interpretation. Der Satz von Bayes erlaubt in gewissem Sinn das Umkehren von Schlussfolgerungen: Man geht von einem bekannten Wert formula_29 aus, ist aber eigentlich an dem Wert formula_30 interessiert. Beispielsweise ist es von Interesse, wie groß die Wahrscheinlichkeit ist, dass jemand eine bestimmte Krankheit hat, wenn ein dafür entwickelter Schnelltest ein positives Ergebnis zeigt. Aus empirischen Studien kennt man in der Regel die Wahrscheinlichkeit dafür, mit der der Test bei einer von dieser Krankheit befallenen Person zu einem positiven Ergebnis führt. Die gewünschte Umrechnung ist nur dann möglich, wenn man die Prävalenz der Krankheit kennt, das heißt die (absolute) Wahrscheinlichkeit, mit der die betreffende Krankheit in der Gesamtpopulation auftritt (siehe Rechenbeispiel 2). Für das Verständnis kann ein Entscheidungsbaum oder eine Vierfeldertafel helfen. Das Verfahren ist auch als Rückwärtsinduktion bekannt. Mitunter begegnet man dem Fehlschluss, direkt von formula_29 auf formula_30 schließen zu wollen, ohne die A-priori-Wahrscheinlichkeit formula_15 zu berücksichtigen, beispielsweise indem angenommen wird, die beiden bedingten Wahrscheinlichkeiten müssten ungefähr gleich groß sein (siehe Prävalenzfehler). Wie der Satz von Bayes zeigt, ist das aber nur dann der Fall, wenn auch formula_15 und formula_17 ungefähr gleich groß sind. Ebenso ist zu beachten, dass bedingte Wahrscheinlichkeiten für sich allein nicht dazu geeignet sind, eine bestimmte Kausalbeziehung nachzuweisen. Rechenbeispiel 1. In den beiden Urnen A und B befinden sich jeweils zehn Kugeln. In A sind sieben rote und drei weiße Kugeln, in B eine rote und neun weiße. Es wird nun eine beliebige Kugel aus einer zufällig gewählten Urne gezogen. Anders ausgedrückt: Ob aus Urne A oder B gezogen wird, ist "a priori" gleich wahrscheinlich. Das Ergebnis der Ziehung ist: Die Kugel ist rot. Gesucht ist die Wahrscheinlichkeit, dass diese rote Kugel aus Urne A stammt. formula_1 das Ereignis „Die Kugel stammt aus Urne A“, formula_2 das Ereignis „Die Kugel stammt aus Urne B“ und formula_38 das Ereignis „Die Kugel ist rot“. formula_39  (beide Urnen sind a priori gleich wahrscheinlich) formula_40  (in Urne A sind 10 Kugeln, davon 7 rote) formula_41  (in Urne B sind 10 Kugeln, davon 1 rote) formula_42  (totale Wahrscheinlichkeit, eine rote Kugel zu ziehen) Damit ist formula_43 . Die bedingte Wahrscheinlichkeit, dass die gezogene rote Kugel aus der Urne A gezogen wurde, beträgt also formula_44. Das Ergebnis der Bayes-Formel in diesem einfachen Beispiel kann leicht anschaulich eingesehen werden: Da beide Urnen a priori mit der gleichen Wahrscheinlichkeit ausgewählt werden und sich in beiden Urnen gleich viele Kugeln befinden, haben alle Kugeln – und damit auch alle acht roten Kugeln – die gleiche Wahrscheinlichkeit, gezogen zu werden. Wenn man wiederholt eine Kugel aus einer zufälligen Urne zieht und wieder in die richtige Urne zurücklegt, wird man im Durchschnitt in acht von 20 Fällen eine rote und in zwölf von 20 Fällen eine weiße Kugel ziehen (deshalb ist auch die totale Wahrscheinlichkeit, eine rote Kugel zu ziehen, gleich formula_45). Von diesen acht roten Kugeln kommen im Mittel sieben aus Urne A und eine aus Urne B. Die Wahrscheinlichkeit, dass eine gezogene rote Kugel aus Urne A stammt, ist daher gleich formula_46. Rechenbeispiel 2. Eine bestimmte Krankheit tritt mit einer Prävalenz von 20 pro 100.000 Personen auf. Der Sachverhalt formula_47, dass ein Mensch diese Krankheit in sich trägt, hat also die Wahrscheinlichkeit formula_48. Ist ein Screening der Gesamtbevölkerung ohne Rücksicht auf Risikofaktoren oder Symptome geeignet, Träger dieser Krankheit zu ermitteln? Es würden dabei weit überwiegend Personen aus dem Komplement formula_49 von formula_47 getestet, also Personen, die diese Krankheit nicht in sich tragen: Die Wahrscheinlichkeit, dass eine zu testende Person nicht Träger der Krankheit ist, beträgt formula_51. formula_52 bezeichne die Tatsache, dass der Test bei einer Person „positiv“ ausgefallen ist, also die Krankheit anzeigt. Es sei bekannt, dass der Test formula_47 mit 95 % Wahrscheinlichkeit anzeigt (Sensitivität formula_54), aber manchmal auch bei Gesunden anspricht, d.h. ein falsch positives Testergebnis liefert, und zwar mit einer Wahrscheinlichkeit von formula_55 (Spezifität formula_56). Nicht nur für die Eingangsfrage, sondern in jedem Einzelfall formula_52, insbesondere vor dem Ergebnis weiterer Untersuchungen, interessiert die positiver prädiktiver Wert genannte bedingte Wahrscheinlichkeit formula_58, dass positiv Getestete Träger der Krankheit sind. Berechnung mit dem Satz von Bayes. formula_59. Berechnung mittels Baumdiagramm. Probleme mit wenigen Klassen und einfachen Verteilungen lassen sich übersichtlich im Baumdiagramm für die Aufteilung der Häufigkeiten darstellen. Geht man von den Häufigkeiten auf relative Häufigkeiten bzw. auf (bedingte) Wahrscheinlichkeiten über, wird aus dem Baumdiagramm ein Ereignisbaum, ein Sonderfall des Entscheidungsbaums. Den obigen Angaben folgend ergeben sich als absolute Häufigkeit bei 100.000 Personen 20 tatsächlich erkrankte Personen, 99.980 Personen sind gesund. Der Test diagnostiziert bei den 20 kranken Personen in 19 Fällen (95 Prozent Sensitivität) korrekt die Erkrankung. In einem Fall versagt der Test und zeigt die vorliegende Krankheit nicht an (falsch negativ). Bei wahrscheinlich 1000 der 99.980 gesunden Personen zeigt der Test fälschlicherweise eine Erkrankung an. Von den insgesamt 1.019 positiv getesteten Personen sind also nur 19 tatsächlich krank (formula_60). Bedeutung des Ergebnisses. Der Preis, 19 Träger der Krankheit zu finden, möglicherweise rechtzeitig genug für eine Behandlung oder Isolation, besteht nicht nur in den Kosten für 100.000 Tests, sondern auch in den unnötigen Ängsten und womöglich Behandlungen von 1000 falsch positiv Getesteten. Obige Frage ist also zu verneinen. Ohne Training in der Interpretation statistischer Aussagen werden Risiken oft falsch eingeschätzt oder vermittelt. Der Psychologe Gerd Gigerenzer spricht von Innumeracy im Umgang mit Unsicherheit und plädiert für eine breit angelegte didaktische Offensive. Bayessche Statistik. Die Bayessche Statistik verwendet der Satz von Bayes im Rahmen der induktiven Statistik zur Schätzung von Parametern und zum Testen von Hypothesen. Problemstellung. Folgende Situation sei gegeben: formula_61 ist ein unbekannter Umweltzustand (z. B. ein Parameter einer Wahrscheinlichkeitsverteilung), der auf der Basis einer Beobachtung formula_62 einer Zufallsvariable formula_63 geschätzt werden soll. Weiterhin ist Vorwissen in Form einer A-priori-Wahrscheinlichkeitsverteilung des unbekannten Parameters formula_61 gegeben. Diese A-priori-Verteilung enthält die gesamte Information über den Umweltzustand formula_61, die vor der Beobachtung der Stichprobe gegeben ist. Je nach Kontext und philosophischer Schule wird die A-priori-Verteilung verstanden Die bedingte Verteilung von formula_63 unter der Bedingung, dass formula_61 den Wert formula_68 annimmt, wird im Folgenden mit formula_69 bezeichnet. Diese Wahrscheinlichkeitsverteilung kann nach Beobachtung der Stichprobe bestimmt werden und wird auch als Likelihood des Parameterwerts formula_68 bezeichnet. Falls die Menge aller möglichen Umweltzustände endlich ist, lässt sich die A-posteriori-Verteilung im Wert formula_68 als die Wahrscheinlichkeit interpretieren, mit der man nach Beobachtung der Stichprobe und unter Einbeziehung des Vorwissens den Umweltzustand formula_68 erwartet. Als Schätzwert verwendet ein Anhänger der subjektivistischen Schule der Statistik in der Regel den Erwartungswert der A-posteriori-Verteilung, in manchen Fällen auch den Modalwert. Beispiel. Ähnlich wie oben werde wieder eine Urne betrachtet, die mit zehn Kugeln gefüllt ist, aber nun sei unbekannt, wie viele davon rot sind. Die Anzahl formula_61 der roten Kugeln ist hier der unbekannte Umweltzustand und als dessen A-priori-Verteilung soll angenommen werden, dass alle möglichen Werte von null bis zehn gleich wahrscheinlich sein sollen, d. h. es gilt formula_76 für alle formula_77. Nun werde fünfmal mit Zurücklegen eine Kugel aus der Urne gezogen und formula_63 bezeichne die Zufallsvariable, die angibt, wie viele davon rot sind. Unter der Annahme formula_79 ist dann formula_63 binomialverteilt mit den Parametern formula_81 und formula_82, es gilt also für formula_84. Beispielsweise für formula_85, d. h. zwei der fünf gezogenen Kugeln waren rot, ergeben sich die folgenden Werte (auf drei Nachkommastellen gerundet) Man sieht, dass im Gegensatz zur A-priori-Verteilung in der zweiten Zeile, in der alle Werte von formula_61 als gleich wahrscheinlich angenommen wurden, unter der A-posteriori-Verteilung in der dritten Zeile formula_90 die größte Wahrscheinlichkeit besitzt, das heißt der A-posteriori-Modus ist formula_91. Einzelnachweise. Bayes, Satz von Cyanwasserstoff. Cyanwasserstoff (Blausäure) ist eine farblose bis leicht gelbliche, brennbare, flüchtige und wasserlösliche Flüssigkeit. Die Bezeichnung "Blausäure" rührt von der Gewinnung aus Eisenhexacyanoferrat (Berliner Blau) her, einem lichtechten tiefblauen Pigment. Blausäure kann als Nitril der Ameisensäure angesehen werden (der Nitrilkohlenstoff hat die gleiche Oxidationsstufe wie der Carboxylkohlenstoff), daher rührt auch der Trivialname "Ameisensäurenitril". Blausäure ist hochgiftig. Ihre tödliche Wirkung wurde in der Geschichte verschiedentlich gegen Menschen eingesetzt, vor allem bei den Massenmorden zu Zeit des Nationalsozialismus im KZ Auschwitz, und fand auch Eingang in die Literatur (Kriminalromane). Industriell wird Blausäure als Vorprodukt und Prozessstoff sowie zur Schädlingsbekämpfung eingesetzt. Nach verbreiteter Auffassung geht von Blausäure ein charakteristischer Geruch nach Bittermandeln aus. Der tatsächliche Geruch der Substanz wird jedoch in der Literatur nicht einhellig so beschrieben und von manchen Menschen abweichend wahrgenommen, z. B. „dumpf“ oder „scharf“. Ein erheblicher Teil der Bevölkerung nimmt den Geruch von Blausäure überhaupt nicht wahr (siehe auch "Handhabung"). Eigenschaften. Ihr pKs-Wert wird, je nach Quelle, mit 9,04 bis 9,31 angegeben. Die Dissoziationskonstante beträgt 4,0·10−10. Blausäure ist hochentzündlich, Gemische mit Luft sind im Bereich von 5,4–46,6 Vol.-% explosiv. Da Blausäure zudem mit Wasser in jedem Verhältnis mischbar ist, besteht beim Löschen von Bränden die Gefahr einer Kontamination des Grundwassers. Daher wird gegebenenfalls ein kontrolliertes Abbrennen in Betracht gezogen. Blausäure kann in einer autokatalysierten Reaktion spontan polymerisieren oder in die Elemente zerfallen. Diese Reaktion ist stark exotherm und verläuft explosionsartig. Sie wird durch geringe Mengen an Basen initiiert und durch weitere Base, die sich dabei bildet, beschleunigt. Wasserhaltige Blausäure ist dabei instabiler als vollkommen wasserfreie. Es entsteht ein braunes Polymer. Aus diesem Grund wird Blausäure durch Zugabe geringer Mengen an Säuren, wie Phosphor- oder Schwefelsäure, stabilisiert. Die Säure neutralisiert die Basen und vermeidet eine Durchgehreaktion. Toxizität. Blausäure ist extrem giftig, schon 1–2 mg Blausäure pro kg Körpermasse wirken tödlich. Die Aufnahme kann, neben der direkten Einnahme, auch über die Atemwege und die Haut erfolgen. Letzteres wird durch Schweiß begünstigt, da Blausäure eine hohe Wasserlöslichkeit besitzt. Die primäre Giftwirkung besteht in der Blockade der Sauerstoff-Bindungsstelle in der Atmungskette der Körperzellen. Dabei bindet sich das Cyanid irreversibel an das zentrale Eisen(III)-Ion des Häm-"a"3-Kofaktors in der Cytochrom-"c"-Oxidase in den Mitochondrien. Durch die Inaktivierung des Enzyms kommt die Zellatmung zum Erliegen, die Zelle kann den Sauerstoff nicht mehr zur Energiegewinnung verwerten, und es kommt damit zur sogenannten „inneren Erstickung“. Der Körper reagiert auf den vermeintlichen Sauerstoffmangel mit einer Erhöhung der Atemfrequenz, was gegebenenfalls die Aufnahme von gasförmiger Blausäure weiter erhöht. Schließlich sterben die Zellen an Sauerstoff- und ATP-Mangel. Die Bindung des Cyanids an Eisen(II)-Ionen ist vergleichsweise schwach. Die Inaktivierung des Hämoglobins spielt daher bei Vergiftungen eine untergeordnete Rolle. Vergiftungssymptome. Eine hellrote Färbung der Haut ist ein typisches Anzeichen einer Cyanidvergiftung: Auch venöses Blut ist noch mit Sauerstoff angereichert, da der Sauerstoff von den Zellen nicht verwertet werden kann. Aus gleichem Grund finden sich nach einer Vergiftung durch Blausäure bei dem Toten leuchtend rote Leichenflecke (Livores), die neben dem genannten Bittermandelgeruch ein wichtiges Indiz für einen unnatürlichen Tod sind. Bei einer Vergiftung mit sehr hohen Konzentrationen kommt es nach wenigen Sekunden zur Hyperventilation, Atemstillstand, Bewusstlosigkeit und innerhalb von wenigen Minuten zum Herzstillstand. Eine hellrote Färbung der Haut bleibt in diesen Fällen oft aus. Antidot (Gegengift). Bei Cyanid-Vergiftungen wird zunächst 4-Dimethylaminophenol (4-DMAP) als Antidot eingesetzt. Dieses wandelt Fe(II) in Fe(III) um, was zu einer Methämoglobin-Bildung führt. Das Methämoglobin bindet die Cyanidionen. Gemessen am gesamten Hämoglobin genügt schon eine geringe Menge an Methämoglobin, um einen großen Teil des Cyanids zu binden. Die Wirksamkeit dieses Gegenmittels hängt allerdings von der Hämoglobinkonzentration im Blut ab. Ein weiteres Gegenmittel ist Natriumthiosulfat. Dieses beschleunigt die körpereigene Entgiftung erheblich. Bei Brandgasinhalation muss unbedingt beachtet werden, dass durch eine gleichzeitig vorliegende Kohlenmonoxidvergiftung größere Mengen Hämoglobin bereits gebunden sind und keinen Sauerstoff mehr transportieren können. Dies birgt bei der Behandlung, die bis zu einem Drittel des Hämoglobins umwandelt, die große Gefahr einer tödlichen Hypoxie. Speziell für diese Fälle wird Hydroxycobalamin verwendet, das unter dem Handelsnamen Cyanokit® in der EU seit 2007 zugelassen ist. Für dieses Antidot bestand bisher keine offizielle Zulassung in Deutschland, es wurde aber in einzelnen Regionen versuchsweise verwendet (etwa Berufsfeuerwehr München). Zu beachten ist hier jedoch, dass eine Lebensrettung nur bei hundertprozentig nüchternem Zustand (auch kein Restalkohol im Blut) Chancen auf Erfolg verspricht. Die Wirkung des Hydroxycobalamins besteht darin, dass es mit Cyanidionen starke Komplexe eingeht und somit das Cyanid bindet. Jedes Hydroxocobalaminmolekül kann ein Zyanidion binden, indem der Hydroxoligand, der an das dreiwertige Cobalt-Ion gebunden ist, durch einen Cyanoliganden ersetzt wird. Das dabei entstandene Cyanocobalamin ist eine stabile, ungiftige Substanz, die im Urin ausgeschieden wird. Der in vielen Nahrungsmitteln in geringen Konzentrationen enthaltene Cyanwasserstoff wird vom menschlichen Enzym Rhodanase in den ungefährlichen Stoff Rhodanid umgewandelt. Als weitere Maßnahme könnte Isoamylnitrit zur Inhalation verabreicht werden, das ebenfalls eine Methämoglobinbildung bewirkt; diese Maßnahme sollte wegen der Gefahr eines starken Blutdruckabfalls allerdings nur mit Vorsicht angewandt werden. In Deutschland befindet sich kein Präparat mit diesem Wirkstoff auf dem Markt; andere NO-Donatoren wie Glyceroltrinitrat bewirken nur eine sehr geringe Methämoglobinbildung und sind nicht als Antidot geeignet. Natürliches Vorkommen. Die Kerne einiger Steinobstfrüchte (Mandel, insbesondere Bittermandel, Aprikose, Pfirsich, Kirsche) und anderer Rosengewächse enthalten geringe Mengen an Blausäure, diese dient als Fraßschutz der Samen und auch als chemischer Keimungshemmer indem die Atmung der Samen gehemmt wird. Erst nach dem die Fruchtwand (Endokarp) verrottet ist, kann die Blausäure entweichen und somit den Keimungsprozess aktivieren. Die in den Tropen vielfach als Nahrungsmittel genutzte Knolle des Maniok enthält ebenfalls als cyanogenes Glykosid gebundene Blausäure, die durch die Verarbeitung vor dem Verzehr der Pflanze entfernt wird. Weitere wichtige Nahrungsmittel mit toxikologisch relevanten Blausäuregehalten sind Yamswurzel, Süßkartoffel (gewisse Sorten), Zuckerhirse, Bambus, Leinsamen und Limabohne. Unreife Bambussprossen, die in östlichen Ländern als Delikatesse gelten, enthalten hohe Blausäuregehalte, Vergiftungsfälle sind bekannt. Durch Zubereitung (intensives Kochen) wird die Blausäure von den Glykosiden abgespalten und in die Luft abgegeben. Cyanogene Giftpflanzen sind unter den höheren Pflanzen weit verbreitet und können bei Verletzung des Pflanzengewebes durch Pflanzenfresser HCN aus cyanogenen Glykosiden mittels des Enzyms Hydroxynitrillyase freisetzen. Einige Beispiele für cyanogene Pflanzen sind der tropische Goldtüpfelfarn ("Phlebodium aureum"), ein Mitglied der Tüpfelfarngewächse, oder der brasilianische Gummibaum ("Hevea brasiliensis"). Weiß-Klee enthält das Blausäureglyklosid Linamarin, das bei oraler Aufnahme von Pflanzenteilen für kleine Tiere (z. B. Schnecken) besonders giftig ist, da sich hieraus Blausäure abspalten kann. Einer der bekanntesten Stoffe, die Blausäure abspalten und in Pflanzen (Aprikosenkerne) vorkommen, ist Amygdalin. Abfall- und Nebenprodukt. Blausäure wird bei fehlerhafter Handhabung von Prozessschritten in der Galvanik frei. Beim Verbrennen stickstoffhaltiger Polymere (Kunststoffe) kann in erheblichem Umfang Blausäure entstehen. Beim Rauchen von Tabak und bei der Verbrennung von Esbit werden geringe Mengen Blausäure freigesetzt. Genetische Wahrnehmungseinschränkung. Mehr als ein Viertel der Bevölkerung kann den Geruch von Blausäure nicht wahrnehmen, häufig wird die Wahrnehmung durch Lähmung der Geruchsnervenzellen verhindert. Es müssen daher besondere Sicherheitsmaßnahmen beim Umgang mit Blausäure getroffen werden. Das Bayerische Landesamt für Gesundheit und Lebensmittelsicherheit berücksichtigt dies bei "Eignungsuntersuchungen von Befähigungsscheinbewerbern für Begasungen bzw. Schädlingsbekämpfung". Transport. Um den Transport dieses Gefahrstoffes zu vermeiden, wird Blausäure in der Regel sofort am Herstellungsort weiterverarbeitet. Als Biozid. Blausäure wird zur Bekämpfung von Ungeziefer eingesetzt. Hierzu wird ein Trägermaterial, z. B. Kieselgur, mit Blausäure getränkt und Riechstoffe zur Warnung zugefügt. Kampfmittel. Als Giftgas wurde Blausäure erstmals durch die französische Armee am 1. Juli 1916 eingesetzt. Aufgrund seiner hohen Flüchtigkeit blieb der Einsatz aber wirkungslos. Industrielle Verwendung. Die Gold-Lösung wird dann mit Zink reduziert. Der Cyanido-Komplex kann auch durch zugesetzte Kokosnussschalen-Aktivkohle absorptiv gebunden werden. Aus der so mit dem Cyanidokomplex beladenen Aktivkohle kann das Gold nach dem Verbrennen des organischen Anteils als „Asche“ gewonnen werden. In moderneren Anlagen wird der Cyanido-Komplex aus der abgetrennten beladenen Aktivkohle durch Eluieren mit heißer Natriumcyanid-Lösung in konzentrierter Form gewonnen (wegen der besseren Handhabung wird hierbei nicht flüssige Blausäure, sondern eine Natriumcyanid-Lösung eingesetzt). Dieses Verfahren führt, wie auch das alternativ nur noch sehr selten eingesetzte Quecksilber-Amalgamverfahren, zu den teilweise katastrophalen Gewässervergiftungen in den Goldfördergebieten der Dritten Welt. Blausäure wird in großen Mengen zur Herstellung von Adiponitril und Acetoncyanhydrin, beides Zwischenprodukte der Kunststoffproduktion, verwendet. Bei der Adiponitrilherstellung wird Blausäure mittels eines Nickel-Katalysators an 1,3-Butadien addiert (Hydrocyanierung). Zur Acetoncyanhydrinherstellung wird Blausäure katalytisch an Aceton addiert. Aus Blausäure werden im industriellen Maßstab in mehrstufigen Verfahren auch die α-Aminosäure DL-Methionin (Verwendung in der Futtermittel-Supplementierung) und der Heterocyclus Cyanurchlorid hergestellt. Aus Cyanurchlorid werden Pflanzenschutzmittel und andere Derivate synthetisiert. Bundestagswahlrecht. Das Bundestagswahlrecht regelt die Wahl der Mitglieder des Deutschen Bundestages. Nach den in Abs. 1 Satz 1 Grundgesetz (GG) festgelegten Wahlrechtsgrundsätzen ist die Wahl "allgemein, unmittelbar, frei, gleich und geheim". Das konkrete Wahlsystem wird hingegen durch ein einfaches Gesetz, das Bundeswahlgesetz, bestimmt. Viele Bestimmungen des Bundeswahlgesetzes werden ihrerseits in der Bundeswahlordnung konkretisiert. Personalisierte Verhältniswahl der Bundesrepublik Deutschland Wahlrechtsgrundsätze. Nach Abs. 1 GG werden „die Abgeordneten des Deutschen Bundestages […] in allgemeiner, unmittelbarer, freier, gleicher und geheimer Wahl gewählt“, und zwar für eine Wahlperiode von vier Jahren, Abs. 1 GG. Die fünf Wahlrechtsgrundsätze des Artikel 38 sind grundrechtsgleiche Rechte: Ihre Verletzung kann durch eine Verfassungsbeschwerde vor dem Bundesverfassungsgericht gerügt werden. Eine Wahl ist allgemein, wenn grundsätzlich jeder Staatsbürger an ihr teilnehmen kann. Jedoch bestimmt das Grundgesetz in Art. 38 Abs. 2 Altersgrenzen für das Wahlrecht zum Bundestag. Danach sind Deutsche ab Vollendung des 18. Lebensjahres aktiv wahlberechtigt und ab dem Alter, mit dem die Volljährigkeit eintritt, passiv wahlberechtigt. Das nicht im Grundgesetz, sondern durch ein einfaches Gesetz (BGB) festgelegte Volljährigkeitsalter liegt seit 1975 ebenfalls bei 18 Jahren. Wahlplakate in Nürnberg, Bundestagswahl 1961 Das Wahlrecht ist deutschen Staatsbürgern und den in Deutschland niedergelassenen deutschstämmigen Flüchtlingen und Vertriebenen, den so genannten Statusdeutschen, vorbehalten. Denn das Volk, von dem nach Abs. 2 GG alle Staatsgewalt ausgeht, die es in Wahlen und Abstimmungen und durch besondere Organe der Gesetzgebung, der vollziehenden Gewalt und der Rechtsprechung ausübt, ist nach dem Urteil des Bundesverfassungsgerichts vom 31. Oktober 1990 nur das deutsche Volk, das Staatsvolk der Bundesrepublik Deutschland. Eine Wahl ist unmittelbar, wenn der Wählerwille direkt das Wahlergebnis bestimmt. Eine Zwischenschaltung von Wahlmännern wie etwa bei der Wahl des US-Präsidenten ist damit unzulässig. Das Verfahren der Listenwahl hingegen ist mit dem Grundsatz der unmittelbaren Wahl vereinbar. Eine Wahl ist frei, wenn der Staat den Bürger nicht zu einer bestimmten inhaltlichen Wahlentscheidung verpflichtet; auch das freie Wahlvorschlagsrecht (passives Wahlrecht) fällt unter die Wahlfreiheit. Die Freiheit der Wahl würde aber nach Rechtsprechung des Bundesverfassungsgerichtes durch eine Wahlpflicht, sofern sie durch das Bundeswahlgesetz eingeführt würde, nicht verletzt. Unvereinbar mit diesem Wahlrechtsgrundsatz wäre jedoch etwa die Durchführung von Wahlwerbung auf Kosten des Staates. Allerdings darf die (parteipolitisch gebildete) Bundesregierung unter strikter Wahrung ihrer Neutralität Öffentlichkeitsarbeit betreiben. Eine Wahl ist geheim, wenn für niemanden nachprüfbar ist, wie sich ein Wähler entschieden hat. Das Bundestagswahlrecht sieht sogar vor, dass kein Wähler im Wahllokal seine Entscheidung bekannt machen "darf". Problematisch ist die Briefwahl, die daher verfassungsrechtlich als Ausnahmefall gelten muss, da hier das Wahlgeheimnis nicht gesichert ist. Da aber ansonsten die als höherwertig betrachtete Allgemeinheit der Wahl beeinträchtigt würde, ist die Briefwahl mit den Wahlrechtsgrundsätzen vereinbar, sofern bestimmte Regeln (z. B. getrennter Briefumschlag mit der eigentlichen Stimmabgabe) eingehalten werden. Eine Wahl ist gleich, wenn jeder Wähler grundsätzlich das gleiche Stimmgewicht besitzt. Das Bundesverfassungsgericht legt bei Verhältniswahl und Mehrheitswahl, die es beide in ständiger Rechtsprechung für zulässig erachtet, unterschiedliche Maßstäbe an die Wahlgleichheit an. Bei Mehrheitswahl muss demnach lediglich die "Zählwertgleichheit" erfüllt werden, das heißt jede Stimme muss mindestens annähernd gleich viel zählen. Die Zählwertgleichheit ist beispielsweise verletzt, wenn in jedem Wahlkreis ein Abgeordneter gewählt wird und die Größe der Wahlkreise zu stark voneinander abweicht. Bei der Verhältniswahl wird zusätzlich die Einhaltung der "Erfolgswertgleichheit" verlangt, das heißt jede Stimme muss grundsätzlich gleichen Einfluss auf die Sitzverteilung haben. Die Erfolgswertgleichheit gilt jedoch nicht uneingeschränkt. So hat das Bundesverfassungsgericht die Einschränkung der Wahlgleichheit durch die derzeitige Sperrklausel im Bundestagswahlrecht von 5 % der Zweitstimmen oder drei Direktmandate für zulässig erachtet. Eine Sperrklausel von mehr als 5 % wäre hingegen verfassungswidrig, es sei denn sie wäre durch besondere und zwingende Gründe gerechtfertigt. Aktives Wahlrecht. Aktives Wahlrecht bezeichnet die Befugnis, jemanden zu wählen. Aktiv wahlberechtigt sind Deutsche, die am Wahltag Auch im Ausland lebende Deutsche, die diese Bedingungen mit Ausnahme der Dreimonatsfrist erfüllen, sind wahlberechtigt, wenn sie Verlegen aktiv wahlberechtigte Auslandsdeutsche ihren Wohnsitz nach Deutschland, gilt die Dreimonatsfrist nicht. Passives Wahlrecht. Passives Wahlrecht ist die Befugnis, gewählt zu werden. In den Bundestag wählbar ist, wer am Wahltag Deutscher und mindestens 18 Jahre alt ist. Nicht wählbar ist jedoch, wer vom aktiven Wahlrecht ausgeschlossen ist oder infolge Richterspruchs die Wählbarkeit oder die Fähigkeit zur Bekleidung öffentlicher Ämter nicht besitzt. Nach § 45 des Strafgesetzbuches verliert, wer wegen eines Verbrechens rechtskräftig zu einer Freiheitsstrafe von mindestens einem Jahr verurteilt worden ist, damit für fünf Jahre seine Wählbarkeit. Bei anderen Verurteilungen wegen Straftaten kann das Gericht dem Verurteilten für zwei bis fünf Jahre die Wählbarkeit aberkennen, sofern das Gesetz diese Möglichkeit für die entsprechende Straftat ausdrücklich vorsieht. Deutsche, die im Ausland leben, können auch dann wählbar sein, wenn sie das aktive Wahlrecht nicht besitzen. Wahlorgane. Das wichtigste Wahlorgan ist der Bundeswahlleiter, der unter anderem die ordnungsgemäße Durchführung der Wahl überwacht, dem Bundeswahlausschuss vorsitzt und vom Bundesministerium des Innern ernannt wird. In der Regel wird das Amt vom Leiter des Statistischen Bundesamtes wahrgenommen. Dem Bundeswahlleiter zur Seite stehen für jedes Bundesland der Landeswahlleiter und der Landeswahlausschuss, für jeden Wahlkreis der Kreiswahlleiter und der Kreiswahlausschuss und für jeden Wahlbezirk der Wahlvorsteher und der Wahlvorstand. Sie werden von der Landesregierung oder von einer von ihr bestimmten Stelle ernannt. Die übrigen Mitglieder der Wahlausschüsse werden vom Wahlleiter berufen. Die Wahlorgane sind Einrichtungen gesellschaftlicher Selbstorganisation und damit Organe eigener Art. Sie haben im weiteren Sinne die Stellung von Bundesbehörden. Als oberste staatliche Wahlbehörde ist das Bundesministerium des Innern für den Erlass der zur Vorbereitung und Durchführung der Bundestagswahl erforderlichen Vorschriften der Bundeswahlordnung und der Bundeswahlgeräteverordnung zuständig. Das Bundesministerium des Innern ist aber gegenüber den Wahlorganen nicht weisungsbefugt. Vorschlagsrecht. Kreiswahlvorschläge können von Parteien und von Wahlberechtigten, Landeslisten nur von Parteien eingereicht werden. Parteien, die nicht im Bundestag oder einem Landtag seit dessen letzter Wahl aufgrund eigener Wahlvorschläge ununterbrochen mit mindestens fünf Abgeordneten vertreten sind, müssen, um Wahlvorschläge einreichen zu können, dem Bundeswahlleiter bis zum 97. Tag vor dem Wahltag ihre Beteiligung an der Bundestagswahl angezeigt haben und vom Bundeswahlausschuss als Partei anerkannt worden sein. Wahlvorschläge müssen spätestens am 69. Tag vor der Wahl eingereicht werden, und zwar Landeslisten beim Landeswahlleiter und Kreiswahlvorschläge beim Kreiswahlleiter. Im Falle einer Auflösung des Bundestages werden diese Fristen durch eine Rechtsverordnung des Bundesministeriums des Innern abgekürzt. Parteien, die ihre Beteiligung an der Wahl anzeigen müssen, benötigen außerdem Unterstützungsunterschriften für ihre Wahlvorschläge: Jeder Kreiswahlvorschlag muss von mindestens 200 Wahlberechtigten des Wahlkreises, jede Landesliste von mindestens 1 ‰ (Promille) der Wahlberechtigten des Landes, höchstens aber 2000 Wahlberechtigten, unterzeichnet sein. Der Kreiswahlvorschlag eines nicht für eine Partei auftretenden Bewerbers benötigt ebenfalls 200 Unterstützungsunterschriften. Parteien, die eine nationale Minderheit vertreten, benötigen keine Unterstützungsunterschriften. Jeder Wahlberechtigte darf nur jeweils einen Kreiswahlvorschlag und eine Landesliste unterzeichnen. Unterzeichnet ein Wahlberechtigter mehrere Kreiswahlvorschläge, so ist seine Unterschrift gemäß Abs. 4 Nr. 4 Bundeswahlordnung (BWO) auf allen Kreiswahlvorschlägen ungültig; das gilt für Landeslisten entsprechend. Außerdem macht sich derjenige, der mehrere Kreiswahlvorschläge oder mehrere Landeslisten unterzeichnet, laut der zu Abs. 3 BWO nach i.V.m. StGB strafbar. Kreiswahlvorschläge. Die Bewerber einer Partei werden in einer demokratischen und geheimen Wahl durch die Versammlung der wahlberechtigten Mitglieder der Partei im Wahlkreis gewählt. Ebenfalls zulässig ist die Wahl des Bewerbers in einer Vertreterversammlung, die aus von den wahlberechtigten Parteimitgliedern in geheimer Wahl bestimmten Delegierten besteht. Aktiv vorschlagsberechtigt ist jedes stimmberechtigte Parteimitglied; der Vorgeschlagene muss nicht Parteimitglied sein. Seit der Bundestagswahl 2009 darf eine Partei keinen Bewerber mehr aufstellen, der (auch) einer anderen Partei angehört (Änderung des BWahlG). Über die Wahl des Kreiswahlvorschlages muss ein Protokoll geführt werden; es muss dem Kreiswahlleiter vorgelegt werden. Dieser prüft den Wahlvorschlag, benachrichtigt bei Feststellung von Mängeln die Vertrauensperson und fordert sie auf, Mängel rechtzeitig zu beseitigen. Die meisten Mängel können nur bis zum Ablauf der Einreichsfrist behoben werden. Der Kreiswahlvorschlag soll eine Vertrauensperson und einen Stellvertreter benennen, die zur Abgabe von Erklärungen gegenüber dem Kreiswahlleiter berechtigt sind. Ein Kreiswahlvorschlag kann durch gemeinsame Erklärung der beiden Vertrauenspersonen oder durch Erklärung der Mehrheit der Unterzeichner des Wahlvorschlages zurückgezogen werden. Durch Erklärung der beiden Vertrauenspersonen kann auch die vorgeschlagene Person ausgetauscht werden, nach Ablauf der Einreichsfrist aber nur dann, wenn der ursprünglich Vorgeschlagene verstorben ist oder seine Wählbarkeit verloren hat. Ist der Wahlvorschlag bereits zugelassen, so kann er weder zurückgezogen noch geändert werden. Stirbt ein Direktkandidat vor dem Wahltermin, so wird die Wahl in dem Wahlkreis abgesagt. Spätestens sechs Wochen nach dem allgemeinen Wahltermin wird sie neu angesetzt (BWahlG), damit die Partei des verstorbenen Direktkandidaten einen Ersatzkandidaten benennen kann. Sofern dies organisatorisch noch möglich ist, kann die Nachwahl auch gleichzeitig mit der Hauptwahl stattfinden. Die Nachwahl findet nach den gleichen Vorschriften statt wie die Hauptwahl; insbesondere können zwischen Haupt- und Nachwahl volljährig gewordene Deutsche "nicht" mitwählen. Landeslisten. Nach dem Bundeswahlgesetz erfolgt die Aufstellung der Landeslisten grundsätzlich analog zur Aufstellung von Kreiswahlvorschlägen. Zusätzlich ist festgelegt, dass die Reihenfolge der Bewerber der Landesliste in geheimer Wahl bestimmt werden muss. Für die Benennung von Vertrauenspersonen und die Veränderung der Landesliste finden die Vorschriften für Kreiswahlvorschläge entsprechende Anwendung. Wahlsystem. Der Wähler hat zwei Stimmen. Das Bundestagswahlrecht unterscheidet die beiden Stimmen als Erststimme und Zweitstimme. Diese Begriffe kennzeichnen aber weder ein Rangverhältnis unter den Stimmen noch eine logische Abfolge bei einem korrekten Wahlvorgang. Irrtümlich bezeichneten in Umfragen ca. 63 % (2005) bis 70 % (2002) der Wahlberechtigten die Erststimme als wichtiger. Zutreffend ist, dass jede Stimme des Wählers eine eigene Funktion hat. Erststimme. Mit der Erststimme wählt der Wähler einen Direktkandidaten seines Wahlkreises, der sich dort für ein Direktmandat im Bundestag bewirbt. In jedem Wahlkreis ist der Bewerber mit den meisten Stimmen gewählt. Bei Stimmengleichheit entscheidet das vom Kreiswahlleiter zu ziehende Los. Die Erststimme dient der Personalisierung der Wahl. Da zurzeit 299 Wahlkreise existieren, werden 299 Mandate des Bundestages an die jeweils in den Kreisen gewählten Kandidaten vergeben. Allerdings bestimmt man mit der Erststimme nicht die Stärke der Parteien im Bundestag. Für jedes Direktmandat in einem Bundesland erhält die Partei dort grundsätzlich ein Listenmandat weniger. Die Abgrenzung der Wahlkreise wird durch eine Anlage zum Bundeswahlgesetz festgelegt. Die Wahlkreisgrenzen dürfen Landesgrenzen nicht durchschneiden und die Zahl der Einwohner (ohne Berücksichtigung von Ausländern) darf um nicht mehr als 25 % vom Durchschnitt aller Wahlkreise abweichen. Zweitstimme. Die Zweitstimme ist die maßgebliche Stimme für die Sitzverteilung im Bundestag. Mit ihr wählt der Wähler eine Partei, deren Kandidaten auf einer Landesliste zusammengestellt werden. Alle 598 Proporzmandate werden nach ihren bundesweiten Zweitstimmenzahlen auf die Parteien verteilt, die bundesweit entweder mindestens 5 % der gültigen Zweitstimmen auf sich vereinen oder (über die Erststimme) mindestens drei Direktmandate erringen (siehe Sperrklausel). Die Sitzverteilung erfolgte seit der Bundestagswahl 1987 nach dem Hare-Niemeyer-Verfahren. Seit dem Gesetz zur Änderung des Wahl- und Abgeordnetenrechts vom 17. März 2008 wird das Schepers-Verfahren angewendet. Der Anteil der Bundestagssitze einer Partei entspricht damit in etwa ihrem Anteil der erhaltenen Wahlstimmen. Verzerrungen entstehen durch die Sperrklausel. Gemäß Abs. 1 Satz 2 BWahlG bleiben die Zweitstimmen der Wähler für die Sitzverteilung unberücksichtigt, die mit ihrer Erststimme für einen "erfolgreichen" Bewerber gestimmt haben, der entweder nicht von einer Partei aufgestellt wurde, die auch mit einer Landesliste kandidiert oder (dies gilt erst seit 2011) von einer Partei aufgestellt wurde, die an der Sperrklausel gescheitert ist. Mit dieser Regelung soll eine faktisch zweifache Einflussnahme dieser Wähler auf die Zusammensetzung des Bundestages verhindert werden. Die PDS errang 2002 in Berlin zwei Direktmandate, scheiterte jedoch mit ihrem Zweitstimmenanteil von 4,0 % an der Sperrklausel. Die Zweitstimmen der Wähler dieser Direktkandidaten wurden trotzdem gewertet, da in diesem Fall beide direkt gewählten Mandatsträger einer Partei angehörten, die in dem betreffenden Bundesland eine Landesliste eingereicht hatte. Das Bundesverfassungsgericht hat den Gesetzgeber in seinem Beschluss vom 23. November 1988 auf die entsprechende Regelungslücke im Bundeswahlgesetz hingewiesen. Dem trug der Gesetzgeber 2011 Rechnung, indem künftig auch dann die Zweitstimme nicht zählt, wenn der Wähler mit der Erststimme den erfolgreichen Bewerber einer Partei wählte, die an der Sperrklausel gescheitert ist. Stimmenthaltung, ungültige Stimmen. Das Bundestagswahlrecht kennt keine explizite Stimmenthaltung; eine fehlende Kennzeichnung auf dem Stimmzettel zählt als ungültige Stimme (getrennt nach Erst- und Zweitstimme). Stimmen sind ungültig, wenn sich der Wille des Wählers nicht zweifelsfrei erkennen lässt oder der Stimmzettel einen Zusatz oder Vorbehalt enthält oder nicht amtlich hergestellt ist. Bei Stimmzetteln, die für einen anderen Wahlkreis desselben Bundeslands gültig sind, ist seit der Bundestagswahl 2009 nur noch die Erststimme ungültig (Änderung des BWahlG). Da das Bundeswahlgesetz nicht regelt, dass Stimmen ungültig sind, die in einer das Wahlgeheimnis gefährdenden Weise gekennzeichnet sind (etwa durch ein aufrecht stehendes Kreuz als Stimmabgabe oder wenn das Kreuz mit einer unüblichen Stiftfarbe gemacht wurde), sind diese Stimmen gültig. In der Praxis wird auch akzeptiert, wenn nicht die Spalte einer Partei bzw. eines Kandidaten gekennzeichnet wird, sondern stattdessen die Spalten aller anderen Parteien bzw. Bewerber gestrichen werden. Bei der Briefwahl gibt es gemäß Abs. 4 BWahlG weitere Gründe für eine Ungültigkeit: Wenn der Stimmzettelumschlag leer ist, mehrere verschieden gekennzeichnete Stimmzettel enthält oder eigentlich zurückzuweisen gewesen wäre (worunter auch Stimmzettelumschläge fallen, die in einer das Wahlgeheimnis gefährdenden Weise von den normalen abweichen), sind beide Stimmen ungültig. Ausdrücklich gültig bleiben dagegen gemäß Abs. 5 BWahlG die Stimmen von Wählern, die vor der Urnenwahl sterben oder ihr Wahlrecht verlieren. Ungültige Stimmen haben auf die Sitzverteilung ebenso wenig Einfluss wie nicht abgegebene Stimmen. Bei der Parteienfinanzierung wirkt eine ungültige Stimme wie eine nicht abgegebene Stimme: Die Parteien erhalten für sie kein Geld. Nachdem aber die Parteienfinanzierung gedeckelt ist und der maximale Gesamtbetrag regelmäßig ausgeschöpft wird, ist der Unterschied zu gültigen Stimmen für an der Parteienfinanzierung teilnehmende Parteien in der Praxis gering. Tendenziell profitieren von weniger gültigen Stimmen die Parteien mit überdurchschnittlich hohem Spendenaufkommen (inklusiv Mitgliedsbeiträgen), weil dadurch mehr Geld für den Spendenbonus übrig bleibt. Sperrklausel. Sperrklausel ist der Überbegriff für die Fünf-Prozent-Hürde und die Grundmandatsklausel. Gemäß Abs. 3 BWahlG werden Bundestagsmandate über die Landesliste nur an Parteien vergeben, die mindestens 5 % der bundesweiten gültigen Zweitstimmen erreichen. Alternativ genügt es, wenn eine Partei mindestens drei Direktmandate erringt (Grundmandats-, Direktmandats- oder Alternativklausel). In diesem Fall erhält sie trotzdem Proporzmandate entsprechend ihrer Zweitstimmenanzahl. Die Zweitstimmen für Parteien, die weder die Sperr- noch die Grundmandatsklausel überwinden, werden beim Verhältnisausgleich (Verteilung der Proporzmandate) nicht berücksichtigt. Die Grundmandatsklausel bevorzugt unter den kleinen Parteien jene, deren Wählerschaft regional stark konzentriert ist, wie die PDS bei der Bundestagswahl 1994. Sie errang nur 4,39% der Zweitstimmen, aber vier Direktmandate in Berlin und erhielt 30 Sitze im Bundestag. Die Sperrklausel soll eine Zersplitterung des Parlaments verhindern. Parteien nationaler Minderheiten, wie etwa der SSW, der zuletzt 1961 an einer Bundestagswahl teilgenommen hat, sind von der Sperrklausel befreit. Als nationale Minderheit gelten nur angestammte Minderheiten wie Dänen und Sorben, nicht jedoch Zuwanderer wie z. B. Türken. Sitzverteilung 1956 bis 2011. Wahlverfahren mit Ober- und Unterverteilung nach dem Hare-Niemeyer-Verfahren (bis 2005 verwendet) Zunächst wurde von der Gesamtzahl von 598 Mandaten (bei den Wahlen 1957 und 1961 waren es 494 Sitze, bei den Wahlen 1965 bis 1987 496, bei den Wahlen 1990, 1994 und 1998 656 Sitze) die Anzahl der erfolgreichen unabhängigen Direktkandidaten (solche gab es nur bei der Bundestagswahl 1949) und erfolgreichen Direktkandidaten von Parteien abgezogen, die nicht als solche den Einzug in den Bundestag geschafft hatten (dies kam nur bei der Bundestagswahl 2002 vor), oder für die keine Landesliste in diesem Bundesland zugelassen worden war (diesen Fall gab es nie). Die verbleibenden Sitze wurden entsprechend den bundesweiten Zweitstimmenergebnissen nach dem Schepers-Verfahren (bis 1985 nach D’Hondt-Verfahren, danach bis 2008 nach dem Hare-Niemeyer-Verfahren) proportional auf die Parteien verteilt, die mindestens 5 % der Zweitstimmen bundesweit oder mindestens drei Direktmandate gewonnen hatten. Anschließend wurden die so ermittelte Mandatszahl jeder Partei nach demselben Verfahren entsprechend der Anzahl ihrer Zweitstimmen proportional auf die Landeslisten der Partei unterverteilt. So ergab sich, wie viele Proporzmandate auf die einzelnen Parteien in jedem Land entfielen. War diese Zahl größer als die Zahl der von der Partei im Land errungenen Direktmandate, wurden der Partei die restlichen Sitze über ihre Landesliste in der dort festgelegten Reihenfolge zugeteilt, wobei Kandidaten, die in ihrem Wahlkreis (egal in welchem Bundesland) direkt gewählt waren, übersprungen wurden. Errang eine Partei in einem Land mehr Direktmandate als Proporzmandate, zogen trotzdem alle Wahlkreisgewinner in den Bundestag ein. Die Differenz bezeichnet man als Überhangmandate; der Bundestag vergrößerte sich um deren Gesamtzahl. Ausgleichsmandate wurden nicht vergeben. Die Zahl der Überhangmandate war bis zur Wiedervereinigung gering (höchstens 5, mehrmals gab es gar keine), bei den Wahlen von 1990 bis 2009 schwankte sie zwischen 5 (2002) und 24 im Jahr 2009. Reform der Sitzverteilung 2011. Bei dem seit 1956 geltende Sitzzuteilungsverfahren konnte negatives Stimmgewicht auftreten durch die Unterverteilung im Zusammenhang mit den Überhangmandaten. Das Urteil des Bundesverfassungsgerichts vom 3. Juli 2008 erklärte dies für verfassungswidrig: Abs. 3 Satz 2 i.V.m. Abs. 4 und 5 BWahlG verstießen gegen Abs. 1 Satz 1 GG, „soweit hierdurch ermöglicht wird, dass ein Zuwachs an Zweitstimmen zu einem Verlust an Sitzen der Landeslisten oder ein Verlust an Zweitstimmen zu einem Zuwachs an Sitzen der Landeslisten führen kann.“ Dem Gesetzgeber wurde eine Änderung des Bundeswahlgesetzes bis zum 30. Juni 2011 aufgegeben. Eine nur von den Fraktionen von Union und FDP getragene Neuregelung trat erst am 3. Dezember 2011 in Kraft. Danach wurden die Sitze im Bundestag im ersten Schritt auf die Länder und erst im zweiten Schritt innerhalb der Länder auf die Parteien verteilt, also genau umgekehrt wie bis dahin. Die Verteilung der Sitze auf die einzelnen Länder sollte nach der Anzahl der Wähler in den Ländern erfolgen. Überhangmandate konnten wie bis dahin entstehen. Weitere Sitze konnten Parteien bei der sogenannten "Reststimmenverwertung" nach dem neu eingeführten Abs. 2a BWahlG erhalten. Deren Zahl sollte so berechnet werden: Die Zweitstimmen, die bei den Landeslisten einer Partei nicht zum Gewinn eines (zusätzlichen) Sitzes führten, wurden bundesweit addiert, durch die „im Wahlgebiet für einen der zu vergebenden Sitze erforderliche Zweitstimmenzahl“ geteilt und zur ganzen Zahl abgerundet. Die zusätzlichen Sitze gingen an die Landeslisten mit den größten Stimmresten, jedoch vorrangig an die Landeslisten mit Überhangmandaten. Da aus dem Gesetzestext nirgends hervorging, wie die „im Wahlgebiet für einen der zu vergebenden Sitze erforderliche Zweitstimmenzahl“ zu berechnen war und außerdem nicht eindeutig war, wie die Stimmenreste zu berechnen sind, bestand hier erhebliche Unklarheit. Das Bundesverfassungsgericht setzte im Gegensatz zum Urteil von 2008 keine Frist für eine Neuregelung, so dass es zunächst kein anwendbares Bundestagswahlrecht mehr gab. Neben diesen umstrittenen Änderungen wurde eine Inkonsistenz beseitigt. Künftig zählen nicht nur die Zweitstimmen derjenigen Wähler nicht, die mit der Erststimme einen im Wahlkreis erfolgreichen Bewerber wählen, der zwar von einer mit einer Landesliste im Land auftretenden Partei aufgestellt wurde, diese Partei aber an der Sperrklausel scheitert. Sitzverteilung ab 2013. Das neue Zuteilungsverfahren kann zu einer erheblichen Vergrößerung des Bundestages führen. Wäre bei der Bundestagswahl 2009 mit diesem Verfahren gewählt worden, hätte der Bundestag 671 statt 622 Mitglieder gehabt. Mit möglichen Überhangmandaten zusammenhängendes negatives Stimmgewicht kann nicht mehr auftreten, allerdings sind vergleichbare Effekte möglich. Bei der Bundestagswahl 2009 hätten bei Anwendung des neuen Zuteilungsverfahrens 8000 Zweitstimmen mehr für Die Linke in Hamburg zu einem Sitz weniger für diese Partei geführt. Wahlprüfung. Binnen zwei Monaten nach der Bundestagswahl kann von jedem Wähler die Wahlprüfung beantragt werden. Nach ständiger Rechtsprechung des Bundesverfassungsgerichtes muss der Wahlprüfungsausschuss des Bundestages einen Einspruch ablehnen, wenn sich die Mandatsverteilung auch bei Annahme des Einspruches nicht ändern würde. Der Wahlprüfungsausschuss prüft nur die korrekte Anwendung des Bundeswahlgesetzes. Eine etwaige Verfassungswidrigkeit desselben wird von ihm nicht festgestellt. Wird der Einspruch vom Bundestag abgelehnt, so kann binnen weiterer zwei Monate beim Bundesverfassungsgericht eine Wahlprüfungsbeschwerde erhoben werden. Ist der Einspruch erfolgreich, so endet die Mitgliedschaft des betroffenen Mitglieds des Bundestages. Dieser kann gegen die Entscheidung seinerseits klagen. Bislang war keine Wahlprüfungsbeschwerde gegen eine Entscheidung des Deutschen Bundestages erfolgreich, auch wenn die Richter einem Beschwerdeführer in der Sache Recht gaben. Einordnung des Bundestagswahlrechts. Der Bundestag wird nach einem personalisierten Verhältniswahlrecht gewählt. Zuweilen wird dieses System auch als sog. Mischwahlsystem bezeichnet. Dies ist jedoch unsachgemäß, da in jedem Bundesland die errungenen Direktmandate einer Partei mit ihren auf Basis der Zweitstimmenanzahl errungenen Proporzmandaten verrechnet werden und die eventuelle Differenz mit Kandidaten der Landesliste aufgefüllt wird. Es handelt sich also um eine mit der Personenwahl verknüpfte Verhältniswahl. Als sogenanntes Mischwahlsystem hingegen kann das Grabenwahlsystem bezeichnet werden, bei dem eine bestimmte Anzahl von Abgeordneten nach dem einen System und die restlichen "unabhängig" hiervon nach einem anderen System gewählt werden, ohne dass zwischen den beiden Systemen Mandatsverrechnungen vorgenommen werden. Diskussion um die Einführung des Graben- oder des Mehrheitswahlrechts. Ende 1955 legte die CDU/CSU zusammen mit der Deutschen Partei den Entwurf eines Grabenwahlsystems vor, nachdem es 1953 schon einen ähnlichen Versuch gab. Danach hätten 60 % der Mandate durch das Mehrheitswahlrecht und nur noch 40 % durch Verhältniswahlrecht bestimmt werden sollen. Doch dieser Versuch Adenauers, die Abhängigkeit der CDU/CSU von der FDP zu beenden und die Wahlchancen der SPD zu mindern, scheiterte. Zu Beginn der ersten Großen Koalition (1966–1969) gab es starke Strömungen innerhalb der Union und der SPD, vom Verhältniswahlrecht, das es seit 1949 gegeben hatte, abzugehen und bei folgenden Bundestagswahlen vielmehr das Mehrheitswahlrecht anzuwenden. Eine entsprechende Absicht wurde sogar im Koalitionsvertrag festgeschrieben. Die FDP, der jedoch mit Einführung dieses Wahlrechts das Ende ihrer Existenz gedroht hätte, protestierte. Schließlich scheiterte das Mehrheitswahlrecht aber am Widerstand der SPD, die in seiner Einführung letztendlich keine Vergrößerung ihrer Machtchancen erkannte. Daraufhin trat Innenminister Paul Lücke (CDU) am 2. April 1968 von seinem Amt zurück. Seither hat es keine Versuche mehr gegeben, ein Mehrheitswahlrecht in Deutschland einzuführen. Geschichte des Bundestagswahlrechts. Das zur Bundestagswahl 1949 geltende Wahlrecht wurde im Zeitablauf deutlich verändert. Da sich der Parlamentarische Rat nicht auf eine verfassungsrechtliche Festschreibung des Wahlsystems verständigen konnte, wurde das Bundeswahlgesetz von den Ministerpräsidenten der Länder erlassen. Das aktive Wahlrecht besaß, wer das 21. Lebensjahr, das passive Wahlrecht, wer das 25. Lebensjahr vollendet hatte. Die gesetzliche Größe des Bundestages lag bei 400 Abgeordneten zuzüglich eventueller Überhangmandate. Das Bundesgebiet war in 242 Wahlkreise eingeteilt, in denen wie nach heutigem Recht je ein Direktkandidat nach dem Prinzip der relativen Mehrheitswahl gewählt wurde. Aufgrund zweier Überhangmandate bestand der Bundestag aus 402 Abgeordneten. Jedes Bundesland bildete ein eigenständiges Wahlgebiet; die Zahl der Vertreter eines Bundeslandes war also (abgesehen von Überhangmandaten) im Vorhinein festgelegt. Entsprechend galt auch die Fünf-Prozent-Hürde und die Grundmandatsklausel (bereits ein Direktmandat genügte zum Einzug in den Bundestag) jeweils nur landesweit. Es gab ein Einstimmenwahlrecht. Mit dieser einen Stimme wählte der Wähler eine Landesparteiliste und gleichzeitig einen Direktkandidaten seines Wahlkreises, der von der entsprechenden Partei aufgestellt wurde. Der Wähler hatte somit nicht die Möglichkeit, Personen- bzw. Direktkandidatenstimme und Parteien- bzw. Listenstimme getrennt (unabhängig) voneinander abzugeben. Der Wähler eines unabhängigen Direktkandidaten hatte anders als beim heutigen Zweistimmensystem nicht die Möglichkeit eine Partei zu wählen, mit dem Risiko seine Stimme bei Erfolglosigkeit des Kandidaten verschenkt zu haben. Im Falle des Ausscheidens eines Direktkandidaten aus dem Bundestag musste im Wahlkreis neu gewählt werden. Dies geschah 14 Mal. Die Zuteilung der Proporzmandate erfolgte nach dem kleine Parteien benachteiligenden D’Hondt-Verfahren. Die Benachteiligung kleiner Parteien verschärfte sich erheblich durch die jeweils nur landesweite Sitzzuteilung. Bundeswahlgesetz 1953. Das Zweistimmensystem mit der entsprechenden Möglichkeit des Stimmensplittings wurde eingeführt. Die Sperrklausel wurde nicht mehr getrennt für jedes Land angewandt, sondern bundesweit. Das hatte für kleine Parteien große Auswirkungen. Bei der Wahl 1957 beispielsweise hat der BHE mit 4,6 Prozent der Zweitstimmen die Fünf-Prozent-Hürde bundesweit nicht erreicht. Da er aber in Schleswig-Holstein, Niedersachsen, Bayern und Hessen je mehr als fünf Prozent hatte, hätte er laut der alten Regelung von vor 1953 wenigstens für diese Länder Bundesabgeordnete gehabt. Umgekehrt erhielt die FDP 1957 bundesweit 7,7 Prozent der Zweitstimmen, in Bayern jedoch nur 4,6 Prozent. Gemäß der alten Regelung hätte sie also auf die Abgeordneten aus Bayern verzichten müssen. Auf Parteien nationaler Minderheiten wurde die Sperrklausel nicht mehr angewandt; trotzdem gelang dem SSW kein Wiedereinzug. Die Anzahl der Proporzmandate erhöhte sich von 400 auf 484 – unter Beibehaltung der Anzahl der Wahlkreise von 242, so dass der Bundestag unter Außerachtlassung zusätzlicher Listenmandate infolge von Überhangmandaten seither paritätisch mit Direkt- und Listenmandaten besetzt ist. Die Anzahl der Berliner Abgeordneten erhöhte sich von 19 auf 22. Im Falle des Ausscheidens eines Direktkandidaten aus dem Bundestag musste von nun an im Wahlkreis nicht mehr neu gewählt werden, da der Nächstplatzierte auf der entsprechenden Landesliste nachrückte. Bundeswahlgesetz 1956. Während die Wahlgesetze 1949 und 1953 jeweils nur für die kommende Bundestagswahl galten, wurde mit dem Bundeswahlgesetz von 1956 eine dauerhafte Regelung eingeführt. Wesentliche Änderungen gegenüber 1953 waren die Einführung der Briefwahl, die Erhöhung der Grundmandatsklausel auf drei Direktmandate (statt wie zuvor ein Direktmandat) und die Einführung einer Oberverteilung der Sitze auf Bundesebene. Diese auf Bundesebene errungenen Sitze wurden auf die Landeslisten der Parteien verteilt, was in Kombination mit den bereits zuvor möglichen Überhangmandaten zu einem negativen Stimmgewicht führen konnte. Die Zahl der Sitze (ohne Berücksichtigung der Berliner Abgeordneten ohne Stimmrecht) blieb zunächst bei 484 und wurde bei Eingliederung des Saarlandes am 1. Januar 1957 um zehn auf 494 erhöht. Änderungen seit 1957. Seit dem Inkrafttreten ist das Bundeswahlgesetz vielfach geändert worden, wobei die meisten Änderungen untergeordnete technische Fragen wie Änderung von Fristen oder Anpassungen an andere Gesetze betrafen. Wesentliche Änderungen gab es außer der Neuregelung der Sitzverteilung wegen der Urteile des Bundesverfassungsgerichts von 2008 und 2012 nicht. Wahlalter. Ursprünglich legte das Grundgesetz die Altersgrenze für das aktive Wahlrecht auf 21 Jahre und für das passive Wahlrecht auf 25 Jahre fest. Durch eine Änderung von Abs. 2 GG wurde 1970 die Altersgrenze für das aktive Wahlrecht auf 18 Jahre herabgesetzt und die für das passive Wahlrecht auf das Alter, mit dem die Volljährigkeit eintritt. Damals erlangte man die Volljährigkeit mit 21 Jahren. Mit Inkrafttreten der Änderung des BGB zum 1. Januar 1975 wurde das Volljährigkeitsalter von 21 auf 18 Jahre gesenkt, so dass aktives und passives Wahlrecht seit der Bundestagswahl 1976 altersmäßig zusammenfallen. Auslandsdeutsche. Mehrfach geändert wurden die Bestimmungen über das aktive Wahlrecht für nicht in Deutschland lebende Deutsche, während sie das passive Wahlrecht seit 1956 stets besessen haben. Ursprünglich hatten nur Deutsche im Ausland das aktive Wahlrecht, die im öffentlichen Dienst beschäftigt waren und sich im Auftrag ihres Dienstherren im Ausland aufhielten sowie die Angehörigen ihres Hausstandes. 1985 erhielten zusätzlich diejenigen im Ausland lebenden Deutschen das Wahlrecht, die seit dem 23. Mai 1949 (Inkrafttreten des Grundgesetzes) mindestens drei Monate ununterbrochen in der Bundesrepublik Deutschland ihren Wohnsitz oder gewöhnlichen Aufenthalt hatten und entweder in einem Mitgliedsstaat des Europarates lebten oder seit ihrem Wegzug aus der Bundesrepublik Deutschland weniger als 10 Jahre vergangen waren. 1998 wurde die Frist von 10 auf 25 Jahre verlängert. In 2008 entfiel diese 25-Jahre-Frist (Änderung des BWahlG). Diese Regelung wurde vom Bundesverfassungsgericht in einer am 4. Juli 2012 verkündeten Entscheidung für nichtig erklärt, sodass Auslandsdeutsche vorerst kein aktives Wahlrecht mehr hatten. Die im Bundestag vertretenen Parteien einigten sich auf eine Neuregelung (Änderung des BWahlG), die am 3. Mai 2013 in Kraft getreten ist. Sie orientiert sich am Urteil des Bundesverfassungsgerichts. Danach sind künftig jene im Ausland lebende Deutsche aktiv wahlberechtigt, die seit Vollendung ihres 14. Lebensjahres mindestens drei Monate ihren Wohnsitz oder gewöhnlichen Aufenthalt in Deutschland hatten und dieser Aufenthalt weniger 25 Jahre zurückliegt oder die "„aus anderen Gründen persönlich und unmittelbar Vertrautheit mit den politischen Verhältnissen in der Bundesrepublik Deutschland erworben haben und von ihnen betroffen sind“". Größe des Bundestages. 1964 wurde die Abgeordnetenzahl um zwei auf 496 erhöht. Nach der Wiedervereinigung 1990 betrug die reguläre Zahl der Abgeordneten 656. 1996 wurde die Größe des Bundestages auf 598 gesenkt, diese Änderung trat jedoch erst Ende 1998 in Kraft, so dass die Verkleinerung erst mit der Bundestagswahl 2002 eintrat. Stets betrug die Zahl der Wahlkreise genau die Hälfte der regulären Mitgliederzahl. Sitzverteilung. Die Bestimmungen zur Sitzverteilung wurden zwischen 1956 und 2011 so gut wie nicht geändert. Ausnahme war die Ersetzung des Sitzzuteilungsverfahrens nach D’Hondt durch das Hare-Niemeyer-Verfahren. Dieses wurde wiederum 2008 durch das Sainte-Laguë-Verfahren abgelöst. Bei der Bundestagswahl 1990 galt eine abweichende Sperrklausel wegen eines Urteils des Bundesverfassungsgerichts vom 28. September 1990, nach dem die Situation des gerade wiedervereinten Deutschlands einen besonderen Umstand darstelle, der eine Sperrklausel für das gesamte Wahlgebiet verfassungswidrig mache. Um in den Bundestag einzuziehen, müsse vielmehr genügen, dass eine Partei 5 % der Zweitstimmen entweder im alten Bundesgebiet einschließlich West-Berlins oder im neuen Bundesgebiet erreiche. Diese Regelung galt nur für die Bundestagswahl 1990. Zu den wesentlichen Änderungen bei der Sitzverteilung ab 2011 siehe die Kapitel Reform der Sitzverteilung 2011 und Sitzverteilung ab 2013. Ersetzung ausscheidender Abgeordneter. Grundsätzlich war es immer so, dass für einen ausscheidenden Abgeordneten ein Bewerber auf der Landesliste der Partei, für die der Ausscheidende gewählt wurde, in den Bundestag nachrückt. Nach einem Urteil des Bundesverfassungsgerichts von 1997 gab es jedoch dann eine Ausnahme, wenn ein direkt gewählter Abgeordneter ausschied und seine Partei im Bundesland Überhangmandate errungen hatte. In diesem Fall durfte fortan nicht mehr nachgerückt werden, solange die Partei noch Überhangmandate im Land hatte. Dadurch konnte der Bundestag im Laufe der Wahlperiode etwas kleiner werden. So sank der 16. Wahlperiode (2005–2009) die Zahl der Abgeordneten von 614 auf 611. Da seit der Bundestagswahl 2013 für Überhangmandate Ausgleichsmandate zugeteilt werden, entfiel diese Ausnahme nach Ablauf der 17. Wahlperiode (2009–2013). Wahlvorschlagsrecht. Seit 1964 können Parteien, die für ihre Wahlvorschläge Unterstützungsunterschriften benötigen, nur an der Wahl teilnehmen, wenn sie dem Bundeswahlleiter ihre Beteiligung angezeigt haben und der Bundeswahlausschuss ihre Parteieigenschaft festgestellt hat. Gegen diese Feststellung gab es bis einschließlich der Bundestagswahl 2009 keinen Rechtsbehelf außer im Wahlprüfungsverfahren nach der Wahl. Nach einer 2012 in Kraft getretenen Änderung des Grundgesetzes und des Bundeswahlgesetzes können Parteien, denen das Wahlvorschlagsrecht vom Bundeswahlausschuss nicht zuerkannt wurde, hiergegen schon vor der Wahl beim Bundesverfassungsgericht klagen. Bewerber anderer Parteien. Parteien dürfen seit einer am 21. März 2008 in Kraft getretenen Änderung des Bundeswahlgesetzes keine Bewerber mehr aufstellen, die einer anderen Partei angehören; dies hat u. a. zur Folge, dass Personen, die in mehreren Parteien Mitglied sind, nicht mehr für eine Partei kandidieren können. Anlass für diese Änderung war die Kandidatur vieler WASG-Mitglieder auf den Listen der Linkspartei.PDS bei der Bundestagswahl 2005. Backen. Ein Bäcker schiebt Brot in den Backofen, 1568 Backen ist eine Garmethode, bei der das Gargut im Backofen mit heißer Luft gelockert, gegart und gebräunt wird. Die Backtemperatur liegt zwischen 100 und 250 °C. Beim Backen wird durch die Hitze der Teig zunächst aufgelockert und dann verfestigt. Beim Brotbacken entstehen so die Krume sowie die Kruste als Oberfläche. Gebacken werden zum Beispiel Kuchen aller Art und Brotteige sowie Pasteten, Aufläufe, Kartoffeln, Soufflés, Puddinge, Blätterteiggerichte, Pizzas und Plätzchen. Die zu Weihnachten verkauften Backwaren sind sehr facettenreich in Bezug auf Form, Geschmack und Zutaten. Das Backen von Fleisch, Fisch und Gemüse geschieht in der Regel in einem Teigmantel. Die Vorteile sind, dass das Gargut im Teigmantel saftig bleibt, da es hermetisch eingepackt ist. Aromastoffe können nicht entweichen und die Kohlenhydratbeilage ist bereits gegeben. Klitschig (in Bayern auch spintig genannt) kann ein Brot oder Kuchen sein, wenn die Backware nicht vollständig durchgebacken ist. Dies kann entstehen durch zu kurze Backzeit oder zu niedrige Backtemperatur. In der professionellen Bäckerei kennt man allerdings noch weit mehr Ursachen solcher Backfehler, z. B. durch die mannigfaltigen Möglichkeiten schlechter Lockerung durch so genannte Triebfehler. In Österreich bedeutet „Backen“ einerseits das trockene Garen von Backwaren (Brot, Semmeln, Kuchen, Süßwaren) und andererseits das Garen in einer größeren Menge von Fett oder Öl (Pommes frites, paniertes Fleisch oder paniertes Gemüse). Mit "Backhuhn (Backhendl)" meint man in Österreich ausschließlich panierte Hühnerteile. Bundestagswahl 2002. Die Bundestagswahl 2002 fand am 22. September 2002 statt. Bei der Wahl zum 15. Deutschen Bundestag waren etwa 61,4 Millionen Deutsche wahlberechtigt. Ungewöhnlich am Wahlausgang war die nur geringe Differenz von etwa 6000 Zweitstimmen zwischen SPD und CDU/CSU. Als Ergebnis der Wahl kam es zur Fortsetzung der seit 1998 regierenden rot-grünen Koalition: Gerhard Schröder blieb Bundeskanzler und bildete das Kabinett Schröder II. Hintergrund. Die SPD, Die Grünen, FDP, PDS und NPD waren in allen 16 Bundesländern mit Landeslisten vertreten, die CDU in allen Ländern außer Bayern, die CSU nur in Bayern. Die Schill-Partei stellte sich in allen Ländern außer Sachsen-Anhalt zur Wahl. Die Anzahl der Kandidaten, der Sitze im Bundestag sowie der Wahlkreise war im Vergleich zur Bundestagswahl 1998 geringer. 3542 Kandidaten (1998: 5062), von denen etwa 29 % Frauen waren, bewarben sich um ein Mandat für den auf 598 Abgeordnete (1998: 656) verkleinerten Bundestag. Die Zahl der Wahlkreise wurde um 29 auf 299 verringert. Bundeskanzler Gerhard Schröder (SPD) war erneut Kanzlerkandidat der SPD; die Unionsparteien nominierten Edmund Stoiber, nachdem Angela Merkel im Januar 2002 ihren Anspruch auf die Kandidatur aufgegeben hatte "(Wolfratshauser Frühstück)". Die FDP präsentierte zur Wahl 2002 – zum ersten Mal in ihrer Geschichte – ihren Spitzenkandidaten, Guido Westerwelle, als Kanzlerkandidaten; damit präsentierte sie sich als eigenständige Kraft und hoffte (wie sich zeigte vergebens) auf ein deutlich gesteigertes Wahlergebnis (Projekt 18). Wahlkampfthemen. Wichtige Themen des Wahlkampfes waren die Positionierung zum sich abzeichnenden Irakkrieg, die Arbeit der Hartz-Kommission, Reformen im Bildungswesen vor dem Hintergrund der Ergebnisse der PISA-Studie 2000, sowie die Ökosteuer. Die Parteien mussten mit diversen Affären kämpfen: die CDU mit der sich seit 1999 hinziehenden CDU-Spendenaffäre, die SPD mit der Kölner Spendenaffäre um Müllverbrennungsanlagen, die FDP mit der Flugblatt-Affäre um Jürgen Möllemann und insbesondere Grüne und PDS mit der Bonusmeilen-Affäre. Weiteren Einfluss hatte die Bewertung des Krisenmanagements beim Elbhochwasser 2002: Als einer der Gründe für den knappen Wahlsieg der rot-grünen Regierung unter Kanzler Schröder galt und gilt dessen gutes und medienwirksames Krisenmanagement; seine Teilnahmslosigkeit kostete den FDP-Spitzenkandidaten Guido Westerwelle dagegen viel Sympathie, was zum unerwartet schlechten Ergebnis seiner Partei mit beitrug. Es gab zwei Fernsehduelle der Kanzlerkandidaten Schröder und Stoiber. Das Bundesverfassungsgericht wies eine Verfassungsbeschwerde der FDP auf eine Teilnahmeberechtigung ihres Kandidaten Westerwelle wegen nicht hinreichender Aussicht auf Westerwelles Wahl zum Kanzler ab. Amtliches Endergebnis. Die Wahlbeteiligung betrug 79,1 %. Konsequenz. Die Wahllokale hatten am 22. September von 8:00 Uhr bis 18:00 Uhr geöffnet. Um 18:00 gab es die erste Prognose, im Laufe des Abends dann verschiedene Hochrechnungen. Um 18 Uhr sah die ARD Rot-Grün hinter Schwarz-Gelb, das ZDF beide gleich auf und RTL wiederum sah eine Mehrheit für Rot-Grün. Gegen 18:47 Uhr ging Edmund Stoiber davon aus, dass die beabsichtigte bürgerliche Koalition von CDU/CSU und FDP die Wahl gewonnen habe. In den Hochrechnungen der ARD war zu diesem Zeitpunkt tatsächlich Schwarz-Gelb vorne. Dies änderte sich im Verlauf des Abends jedoch mehr und mehr zugunsten eines knappen Wahlsieges für Rot-Grün. Das "vorläufige" amtliche Wahlergebnis und die daraus folgende Sitzverteilung wurde noch in der Wahlnacht in Berlin im Reichstagsgebäude bekannt gegeben, jedoch erst weit nach Mitternacht. Die SPD lag mit gerade einmal 6027 Zweitstimmen vor den Unionsparteien. Für die Regierungsbildung war der knappe Unterschied zwischen SPD und CDU/CSU allerdings nicht ausschlaggebend, da der Vorsprung von SPD und Grünen zusammen etwa 577.000 Stimmen vor CDU/CSU und FDP betrug. Das "endgültige" amtliche Wahlergebnis wurde vom Bundeswahlausschuss am 9. Oktober festgestellt. Aufgrund einiger Wahlprüfungsbeschwerden beim Bundesverfassungsgericht gegen den Beschluss des Deutschen Bundestages über Wahleinsprüche gegen die Gültigkeit der Bundestagswahl 2002 fand Mitte Januar 2005 eine Neuauszählung in den beiden von den PDS-Kandidatinnen (Petra Pau und Gesine Lötzsch) gewonnenen Berliner Wahlkreisen statt. Sie sollte eine Mandatserheblichkeit der Zweitstimmen derjenigen Wähler überprüfen, die mit ihrer Erststimme die PDS-Kandidatinnen und mit ihrer Zweitstimme eine andere Landesliste gewählt haben. Damit erzielten sie einen doppelten Erfolgswert ihrer Stimmen. Eine Mandatserheblichkeit wurde jedoch nicht festgestellt. Wenn das Bundesverfassungsgericht diese Stimmen vom Ergebnis der für die Sitzverteilung zu berücksichtigenden Stimmen der einzelnen Parteien abzöge, wäre die wahrscheinlichste mandatserhebliche Folge gewesen, dass die SPD durch Verlust von z. B. 54.000 Stimmen noch einen zusätzlichen Sitz erhalten hätte – eine Folge des von Wahlrechtlern kritisierten negativen Stimmgewichts des Bundestagswahlsystems. Einzelnachweise. Deutschland Bundestag Bayernpartei. Die Bayernpartei (Kurzbezeichnung: BP'") ist eine regionale Kleinpartei, die ausschließlich im Freistaat Bayern aktiv ist. Die BP ist Mitglied der Europäischen Freien Allianz (EFA). In der Wissenschaft wird die Bayernpartei als „regionalistisch-separatistische Partei mit wertkonservativem Programm“, „extrem-föderalistisch“ und als „liberale Partei mit konservativen Einschlägen“ beschrieben. Eines ihrer politischen Ziele ist, neben der Stärkung der Bürgerrechte und der Vereinfachung des Steuerrechtes, die Möglichkeit einer Volksabstimmung über den Austritt Bayerns aus dem deutschen Staatsverband. Im 1. Deutschen Bundestag war die Bayernpartei mit 17 Abgeordneten vertreten. Von 1954 bis 1957 war sie im Rahmen der Viererkoalition und von 1962 bis 1966 durch eine kleine Koalition mit der CSU an der Bayerischen Staatsregierung beteiligt. Nach ihrem Ausscheiden aus dem Maximilianeum nach den Landtagswahlen im Jahr 1966 verlor die Bayernpartei an Einfluss. Gründung 1946 und Erfolge der ersten Jahre. Die Bayernpartei wurde am 28. Oktober 1946 in München durch Ludwig Lallinger und Jakob Fischbacher gegründet, allerdings nicht als Abspaltung der CSU, wie der Parteienforscher Alf Mintzel betont. Als ihre Vorläufer können die "Radikalen Patrioten" von 1868 und der "Bauernbund" von 1893 gelten. Die BP wurde erst nach der CSU gegründet, weil die amerikanische Besatzungsmacht ihr die Lizenz später erteilte. Zur Lizenzierung auf Landesebene kam es am 29. März 1948. In der Folge sammelten sich in der BP bayerische Konservative, Monarchisten und Separatisten, darunter der Gründer des Harnier-Kreises, der Widerstandskämpfer Heinrich Weiß. Hinzu kamen enttäuschte CSU-Mitglieder, darunter am prominentesten Joseph Baumgartner, der im Januar 1948 die eigentliche Führungsfigur wurde. 1948–1950 profitierte die Partei weiterhin von einer CSU-Krise. Programmatisch arbeitete die Bayernpartei mit kurzen, scharfen Slogans. In raschem Anlauf konnte die Bayernpartei ein Fünftel aller Wählerstimmen im Freistaat erobern. Die mittelständische, bäuerliche und liberale Partei sah sich als einzige wirklich bayerische Partei und forderte die Eigenständigkeit des bayerischen Freistaates. Zunächst propagierte die BP die Idee eines völkerrechtlich unabhängigen Staates. Nachdem Bayern 1949 Mitglied der Bundesrepublik geworden war, setzte sie auf einen starken Föderalismus im Bund. Die ersten Wahlen, an denen die Bayernpartei teilnahm, waren die Kommunalwahlen vom 30. Mai 1948. Sie stellte 153 Stadträte in kreisfreien Städten (CSU: 307) und 309 Kreisräte in Landkreisen (CSU: 2.642). Bei den folgenden Kommunalwahlen, am 30. März 1952, konnte sie das Kräfteverhältnis zur CSU teilweise sogar verbessern, blieb aber doch immer deutlich hinter der CSU zurück. Nach 1948 folgte die Bundestagswahl von 1949, bei der die BP bundesweit auf 4,2 % kam. Da die Fünf-Prozent-Hürde bei dieser Wahl aber nur pro Bundesland galt, ihr Stimmenanteil in Bayern 20,9 % ausmachte und sie außerdem mehrere Direktmandate gewann, zog sie mit 17 Mandaten in den Bundestag ein. Dort arbeitete sie mit anderen regionalen Parteien zusammen, um Fraktionsstatus zu erlangen (Föderalistische Union, 1951–1953). Danach gelangte die Partei nicht mehr in den Bundestag: 1953 hatte sie zwar 9,2 Prozent in Bayern, die Fünf-Prozent-Hürde galt aber bundesweit, 1957 waren es noch 3,2 % für die Föderalistische Union. Wahlverluste seit 1950. Denkmal für Joseph Baumgartner in seiner Heimatgemeinde Sulzemoos Die Bayernpartei hatte ihren Schwerpunkt in Altbayern: in Niederbayern, Oberbayern und der Oberpfalz. Trotz ihres Slogans „Bayern den Bayern“ fand sie kaum Anerkennung als gesamtbayerische Staatspartei, und der Katholizismus bedauerte es, dass seine Anhänger in CSU und BP gespalten waren; der Klerus befürwortete die CSU. Der Niedergang der BP begann bereits 1950, nachdem mit der Gründung der Bundesrepublik die staatsrechtliche Stellung Bayerns vorläufig entschieden war. Dann zeigte sich in den Bundestags- und auch Landtagswahlen der 1950er Jahre ein stetiger Rückgang. Hinzu kam die angebliche Verwicklung der Bayernpartei in die sogenannte Spielbankenaffäre. Die Spielbankenaffäre wurde vor allem von der CSU vorangetrieben. Diese Affäre nutzte am Ende hauptsächlich der CSU und war ein Grund dafür, dass die CSU zur führenden bayerischen Staatspartei aufsteigen konnte. Zunächst aber hatte die BP noch Erfolg: 1950 fand die erste Landtagswahl statt, an der die Bayernpartei teilnahm. 17,9 Prozent der bayerischen Wähler entschieden sich für sie (schon ein Rückgang gegenüber dem Bundestagswahlergebnis), bei der Wahl 1954 noch 13,4 und 1958 8,1. Die Wahl 1962 war die letzte, bei der sie – mit 4,8 Prozent – noch Mandate erhielt. In Bayern war die Partei damit bis 1958 drittstärkste Kraft. Die CSU entschied sich 1950 für eine Koalition mit der SPD, was die BP verbitterte. Als 1953 die CSU bei der Bundestagswahl starke Gewinne erzielte, die BP dagegen sämtliche Direktmandate verloren hatte und nicht mehr in den Bundestag gewählt worden war, traten viele konservative BP-Mitglieder zur CSU über. Die Folge war eine Stärkung der eher liberalen und zwar katholischen, aber antiklerikalen Kräfte in der BP, was die Partei wiederum für die SPD interessanter machte. Tatsächlich bildete sie mit der SPD, der Vertriebenenpartei BHE und der FDP von 1954 bis 1957 die Landesregierung; Baumgartner wurde stellvertretender Ministerpräsident. Dieses ideologisch und wirtschaftspolitisch sehr bunte Bündnis war nur möglich, weil damals die Kulturpolitik im Vordergrund stand und alle vier Parteien der CSU und der ihr nahestehenden katholischen Kirche gegenüberstanden. Hinzu kam, dass die BP-Politiker in die Regierung strebten und sich damit für die Abweisung durch die CSU 1950 rächen wollten. Das Bündnis zerbrach 1957, und die BP geriet ins Visier der Ermittlungen über die sogenannte "Spielbankenaffäre". Die Jahre nach 1958 standen unter der Frage, ob die BP sich gegenüber der CSU weiterhin abgrenzen oder aber ihr ein Koalitionsangebot machen sollte, beziehungsweise, ob sie zur Wahl der CSU bei Bundestagswahlen aufrufen sollte. Nachdem die BP bei der Landtagswahl 1962 nur noch in Niederbayern ganz knapp die damals gültige Hürde von 10 % in einem Regierungsbezirk genommen hatte und mit 8 Abgeordneten in den Landtag einzog, schloss sie ein Regierungsbündnis mit der im Landtag mit einer knappen absoluten Mandatsmehrheit ausgestatteten CSU, war aber durch Robert Wehgartner nur mit dem Staatssekretär im Innenministerium in der Regierung vertreten. Wehgartner trat im Jahre 1966 zur CSU über, auch durch andere Übertritte von Landtagsabgeordneten wurde die BP marginalisiert und zog 1966 nicht mehr in den Landtag ein (7,3 % in Niederbayern, 3,4 % im Land). Der Weg zur Kleinpartei (1966–1978). Mit dem Ausscheiden aus dem Bayerischen Landtag folgte der Verlust überregionaler politischer Bedeutung, wozu auch Abspaltungen von der BP beitrugen. 1967 verließ der Parteivorsitzende Kalkbrenner mit seinen Anhängern die Bayernpartei, nachdem er vergeblich versucht hatte, in der Partei einen Reformprozess einzuleiten. Er gründete die "Bayerische Staatspartei (BSP)". Erstmals nach 1957 beteiligte sich die Bayernpartei im Jahr 1969 mit einer Landesliste an Bundestagswahlen, erzielte jedoch nur 0,9 Prozent der abgegebenen gültigen Stimmen in Bayern. In der Folge versuchte die Bayernpartei neue Wählerkreise zu erschließen. Bei der Landtagswahl 1970 traten verschiedene prominente Politiker anderer Parteien, die sich mit diesen überworfen hatten oder nicht mehr aufgestellt wurden, auf den Listen der Bayernpartei an. Aufgrund des hochgradig personalisierten Landtagswahlrechts in Bayern sollten so Persönlichkeitsstimmen gewonnen werden, die ebenfalls für die Liste zählen und somit für die Sitzverteilung entscheidend sind. Dies zeigte sich unter anderem darin, dass Plakate und Werbematerial in ungewöhnlich hohem Maße auf die Personen abzielten, während die Bayernpartei bei praktisch allen Wahlen davor und danach mit Themen zu punkten versuchte. Umgekehrt hofften diese Kandidaten, dass sie ihre Mandate behalten konnten. Diese Rechnung ging jedoch für beide Seiten nicht auf, die BP verpasste den Einzug in den Landtag mit 1,3 Prozent deutlich. Damit war der Stimmenanteil auf wenig mehr als ein Drittel des Wertes von 1966 gesunken. Einige der Bewerber gingen daher zu ihrer jeweiligen früheren Partei zurück. Allerdings blieb auch die abgesplitterte Konkurrenz von der Bayerischen Staatspartei mit 0,2 % völlig erfolglos. Mehr ein Erfolg für den „politischen Familienverbund Volkholz“ "(Die Zeit)" als für die Bayernpartei war die Wahl von Paula Volkholz, Ehefrau von Ludwig Volkholz, 1970 zur Landrätin in Kötzting. Das Wahlergebnis sorgte bundesweit für Aufmerksamkeit, da Volkholz damit zur ersten Landrätin in Bayern wurde und als zweite Frau überhaupt in Deutschland auf den Chefsessel eines Kreises avancierte. Kandidiert hatte sie für die überparteiliche Wählergruppe „Gleiches Recht für alle“, die ihr Ehemann eigens für diese Wahl gegründet hatte. Nominiert wurde sie ebenfalls von der Bayernpartei, deren stellvertretender Landesvorsitzender Ludwig Volkholz zu dieser Zeit war. Ihr Amt erlosch aber schon 1972 mit der Gebietsreform, bei der der Landkreis aufgelöst wurde. Die Kommunalwahlen von 1972 stellten bis dahin den absoluten Tiefpunkt in der Geschichte der Partei dar. Sie verlor alle Mandate in den kreisfreien Städten und konnte in ganz Bayern nur noch zwei Kreisräte stellen. Die Landtagswahl 1974 verwies die BP mit einem Resultat von 0,8 % der Wählerstimmen nunmehr in den Bereich einer Splitterpartei. Als der stellvertretende Landesvorsitzende Ludwig Volkholz beim Landesparteitag in Regensburg überraschend nicht zum Landesvorsitzenden gewählt wurde, trat er 1975 mit einer Anzahl weiterer Mitglieder aus der Bayernpartei aus, um anschließend die rechtsgerichtete "Christliche Bayerische Volkspartei (Bayerische Patriotenbewegung) (C.B.V.)" ins Leben zu rufen. Kurz vor der Auflösung (1978/79). Durch die Gründung der Bayerischen Staatspartei 1967 hatte die Bayernpartei ca. 30 % der Mitglieder verloren, weshalb bereits zu diesem Zeitpunkt über eine Liquidation der Partei nachgedacht wurde, doch die Hälfte der abgewanderten Mitglieder kehrte 1970 wieder zur Bayernpartei zurück. Nachdem das Ergebnis bei der Landtagswahl 1978 aber einen erneuten Verlust von ca. 15 000 Wählern und einen Stand von nur noch 0,4 % gebracht hatte und seit der Kommunalwahl 1978 zudem keine BP-Vertreter mehr in Kreistagen saßen, stand Anfang 1979 die Bayernpartei wieder kurz vor der Auflösung. Aktive Mitglieder waren kaum noch vorhanden. Die Wochenzeitung "Die Zeit" charakterisierte die Organisationsfähigkeit der Partei als „mickriger als bei einem Schuhplattlerverein“. Zudem drückten noch Schulden aus dem Landtagswahlkampf von 1970 von knapp 143.000 Mark. Der Beschluss zur Auflösung der Partei war für März 1979 vorgesehen. Der vom Parteivorsitzenden Rudolf Drasch gestellte Antrag zur Auflösung der Partei wurde beim Landesparteitag 1979 von der Mehrheit der Delegierten abgelehnt. Drasch stellte sein Amt zur Verfügung, zu seinem Nachfolger wurde Max Zierl gewählt, der übrige Vorstand blieb im Amt. Bayernpartei seit 1980. In den achtziger Jahren setzte eine gewisse Konsolidierung auf niedrigem Niveau ein, die sich auch in der Wiedereingliederung der C.B.V. und ihres Vorsitzenden Ludwig Volkholz im Jahr 1988 ausdrückte. Eine Beruhigung der Situation zeigte sich auch in der Kontinuität durch die langen Amtszeiten der Vorsitzenden Max Zierl (1979–1989) und Hubert Dorn (1989–1999). Seit 2003 verzeichnet die BP bei allen Wahlen Stimmengewinne. Streitpunkt Separatismus. Für die Zeit nach 1979 stellt Uwe Kranenpohl fest, dass die "„militante Verfechtung bayerischer Eigenstaatlichkeit“" ein Streitthema innerhalb der Bayernpartei ist. Im 1993 aktualisierten Grundsatzprogramm war erstmals die Forderung nach einem "„selbständigen bayerischen Staat in einem europäischen Staatenbund“" festgeschrieben. 1994 trat der ehemalige Vorsitzende und Ehrenvorsitzende der Partei, Rudolf Drasch, aus der Partei aus. Auch wenn Drasch diesen Schritt unter anderem damit begründete, dass unter Dorn der "„absolute bayerische Separatismus zur obersten politischen Leitlinie“" geworden sei, so war diese radikale Forderung bereits unter seinem Vorgänger Parteidoktrin. "„Bayern muß wieder selbständig werden, weg von denen da in Bonn, die Schuld sind an den miesen Preisen für Agrarprodukte, am Rauschgift, Schuld an Hurerei und Arbeitslosigkeit“" zitierte "Die Zeit" im Juni 1981 den damaligen Parteivorsitzenden Zierl und notierte, dass sich der "„weißblaue Zwerg noch immer auf einen Paukenschlag“" verstehe. Zur deutschen Wiedervereinigung strebte die Bayernpartei eine Popularklage vor dem Bayerischen Verfassungsgerichtshof an, die jedoch abgelehnt wurde. Die Partei hatte dabei die Meinung vertreten, dass Bayern 1949 das Grundgesetz abgelehnt habe und damit nicht Teil der Bundesrepublik geworden sei. Teilnahme an Wahlen 1980–2003. Die Partei tritt regelmäßig zu den Wahlen zum bayerischen Landtag, seit 1987 zum deutschen Bundestag und seit 1984 zum Europäischen Parlament an. 1983 war eine Beteiligung an den vorgezogenen Bundestagswahlen geplant, jedoch konnten die benötigten Unterstützungsunterschriften nicht beigebracht werden. Bei der Europawahl 1994 brachte es die BP im Freistaat auf einen Stimmenanteil von 1,6 Prozent. Dies war das beste Ergebnis bei Wahlen auf Landesebene seit 1966. Bei der Europawahl 2009 sorgte die Partei mit einem satirischen Werbeplakat, das nur außerhalb Bayerns Verwendung fand, für ein bundesweites Medienecho. Die zentrale Aussage" „Wollt Ihr nicht auch die Bayern loswerden? Dann wählt die Bayernpartei“" provozierte die Medien im Freistaat eher zu Spott oder Wertungen wie "„Skurrile Wahlwerbung“" und "„bizarrstes Europawahlplakat“". Altes Logo der Bayernpartei bis 2008 Der Zuspruch bei Wahlen auf "Bundesebene" war und ist deutlich geringer. Nachdem die Partei bei der Bundestagswahl 2002 mit knapp 10.000 Stimmen (0,1 % der gültigen Stimmen) ihr schlechtestes Ergebnis auf bayerischer Ebene seit ihrer Gründung erhalten hatte, konnte sie bei der vorgezogenen Bundestagswahl 2005 ihren Stimmenanteil in Bayern auf niedrigem Niveau wieder auf 0,5 % steigern und mit über 48.000 Zweitstimmen in der Bundestagswahl 2009 prozentual (0,7 %) wie absolut auf noch immer niedrigem Niveau immerhin das höchste Ergebnis bei Bundestagswahlen seit 1969 erzielen. Bei den Landtagswahlen konnte sich die Partei noch am ehesten stabilisieren und lag ab den 90er Jahren bis 2003 bei Ergebnissen knapp unter oder über 1 %. Gleichzeitig mit dem Landtag werden in Bayern die Bezirkstage gewählt. Hier gilt keine Sperrklausel, so dass die Bayernpartei von 1990 bis 2003 im Bezirkstag Oberbayern mit einem Abgeordneten vertreten war. Auf kommunaler Ebene war die Partei seit 1984 wieder vereinzelt in Kreistagen vertreten und steigerte ihre parlamentarische Repräsentanz, wenn auch auf einem sehr niedrigen Niveau, von 5 Kreisräten 1984 auf 15 im Jahre 2002. Leichter Aufwind ab 2003. Bei der Kommunalwahl 2008 erreichte die – weiterhin nur vereinzelt antretende – Bayernpartei ein landesweites Ergebnis von 0,4 Prozent. Sie erhielt 15 Mandate in den Kreistagen und stellte erstmals seit 1966 wieder einen Stadtrat in München. In kreisabhängigen Gemeinden gelang es ihr, 13 Mandate über eigene Listen und neun über gemeinsame Wahlvorschläge zu erringen. 2008 wurde mit Erreichen der 1,1 Prozent die Teilnahme an der staatlichen Parteienfinanzierung ermöglicht. Auch bei dieser Wahl gelang es ihr in keinem Regierungsbezirk, auch nicht in den altbayerischen Hochburgen, 2 % der Wählerstimmen zu überschreiten. Bei der Landtagswahl 2013 konnte die Bayernpartei ihre Stimmenzahl gegenüber 2008 jedoch mehr als verdoppeln und erzielte mit 2,1 % ihr bestes Wahlergebnis seit 1966. Auf die Partei entfielen insgesamt 247.500 der gültigen Gesamtstimmen, 131.036 mehr als bei der Landtagswahl 2008. In der alten Hochburg Niederbayern kam sie auf 3,2 % a> der Bayernpartei in Vilshofen an der Donau (2015) Die Bundestagswahlen 2013 brachten der Partei, verglichen mit 2009, zwar einen bescheidenen Zugewinn von ca. 9000 Wählerstimmen und 0,2 Prozentpunkten und damit ein Resultat wie zuletzt 1969, jedoch entschieden sich weniger als die Hälfte der Wähler der eine Woche zuvor durchgeführten Landtagswahl auch in diesem Urnengang für die Partei. Wie schon von 2008 bis 2013, als sie im Bezirkstag Oberbayern mit einem Abgeordneten vertreten war, erhielt die BP mehr Zuspruch. Während der Bezirkstagswahl 2013 stimmten doppelt so viele Wähler wie 2008 für die Partei und entsenden nun Vertreter in vier Bezirkstage. In Oberbayern erreichte sie 4,27 %, gewann 2 Sitze und erlangte im Bezirkstag mit aktuell 3 Sitzen Fraktionsstärke. 2014 kandidierte die BP in elf Landkreisen und zwei kreisfreien Städten (München und Landshut) und zog in deren Parlamente ein. Das Stadtratsmandat in München wurde bei starken Verlusten knapp gehalten, in den anderen Gebieten gewann die BP zum Teil deutlich hinzu. Ihre Mandatszahl in Kreisen und kreisfreien Städten stieg von 16 auf 36 und ihr landesweiter Stimmenanteil auf 0,6 Prozent. Nach 54 Jahren errang die BP erstmals wieder Mandate in Unterfranken. Beteiligung an Volksbegehren. Neben der Beteiligung an Wahlen nutzt die Bayernpartei auch die Mittel der Volksgesetzgebung. 1988 versuchte sie ein Volksbegehren gegen die Atomare Wiederaufarbeitungsanlage in Wackersdorf in die Wege zu leiten, das sich jedoch als rechtswidrig herausstelle. 1991 unterstützte sie das Volksbegehren „Das bessere Müllkonzept“ und im Jahr 1995 das. Diese waren gegen Entscheidungen der CSU-Mehrheit im Landtag gerichtet. 1997 kämpfte die Bayernpartei zusammen mit der CSU gegen das Volksbegehren „Schlanker Staat ohne Senat“, um die Abschaffung der 2. Kammer in Bayern zu verhindern. 2008 unterstützte sie als einzige Partei das Aktionsbündnis „Bayern sagt Nein!“, das sich gegen das Volksbegehren „Für echten Nichtraucherschutz!“ wandte. Inhaltliches Profil. In den Anfangsjahren war die Bayernpartei in erster Linie anti-preußisch und bayerisch-partikularistisch orientiert, eine darüber hinausgehende politisch-ideologische Basis existierte nicht bzw. nur in widerstreitenden Parteiflügeln. In späteren Jahren galt die Partei als konservativ bis reaktionär, in jüngerer Zeit wird sie programmatisch eher als liberal mit konservativen Einschlägen, im Hinblick auf die bayerische Staatlichkeit als separatistisch eingeschätzt. Programmatische Grundsätze. In ihrem Grundsatzprogramm „Mut zur Freiheit“ – beschlossen 1981, aktualisiert 1994 – positioniert sich die Bayernpartei als Partei mit christlich-konservativem Gedankengut: "„Es geht nicht an, grundsätzliche Normen unserer Rechtsordnung zu ‚liberalisieren‘, nur weil ein Teil der Bürger nicht mehr gewillt ist, diese zu akzeptieren.“" Vor allem in den Anfangsjahren prägte die Bayernpartei – im Gegensatz zur CSU – eine deutliche Distanz zu den christlichen Kirchen. Allerdings kritisierte die Partei bspw. die Ablehnung des Papstbesuches 2011 durch weite Teile des Bundestags als intolerant. Einige programmatische Aussagen (z. B. Sonntagsfahrverbot, Schutz christlicher Feiertage, Schutz des ungeborenen Lebens im Landtagswahlprogramm 2008) und die Wortwahl der Partei werden ebenfalls christlich-abendländisch beeinflusst. In ihren aktuellen „Weiß-Blauen Grundsätzen“ – beschlossen 2007, aktualisiert 2012 – positioniert sich die Bayernpartei als regionalistische Partei: "„In tiefer Sorge und in voller Erkenntnis der immer stärker werdenden Aushöhlung der Eigenstaatlichkeit Bayerns und der föderativen Staats- und Gesellschaftsordnung in Deutschland und Europa sieht es die Bayernpartei als ihre vornehmste Aufgabe an, das bayerische Staatsbewusstsein und demokratische Prinzipien zu pflegen und gegen den aufkeimenden Zentralismus zu verteidigen.“" Angestrebter Staatsaufbau. Die Bayernpartei fordert für den von ihr angestrebten unabhängigen Staat ein gewähltes Staatsoberhaupt: "Die Erfahrungen zeigen, dass ein Staatspräsident, der über der parteigebundenen Tagespolitik steht, oftmals vermittelnd eingreifen und allein durch sein Ansehen wichtige Impulse geben kann. Die Bayernpartei setzt sich daher für einen demokratisch gewählten Staatspräsidenten im Freistaat ein." Eine Rückkehr zur Erbmonarchie schließt die BP aus. Gleichwohl bestehen Kontakte zu Brauchtumsvereinen, die den Wittelsbachern nahestehen.. Der Ministerpräsident soll direkt durch das Volk gewählt werden, was einen Mittelweg zwischen parlamentarischer und präsidentieller Demokratie darstellt. Regionalisierung. Das dominierende politische Ziel der Bayernpartei ist die Schaffung eines unabhängigen bayerischen Staates, ähnlich den Sezession-Bestrebungen in Schottland, Katalonien und Flandern. Bis dahin gelte es, "„jeden Angriff und Übergriff auf die staatlichen Hoheitsrechte Bayerns mit allen Mitteln zu bekämpfen“". Die Forderungen nach Regionalisierung, die in fast allen Politikfeldern auftritt, ist unter dem Gesichtspunkt der allmählichen Abkoppelung von der Bundesrepublik zu sehen. Diese Forderung nach einer Regionalisierung ist in weiten Teilen Europas zur Zeit sehr populär. Die Beispiele Schottland, Katalonien und Flandern führen zu einem gewissen Wiedererstarken der Bayernpartei. Auch die verschiedenen Affären der CSU nutzen der Bayernpartei. Zwischen Bundes- und Landespolitik unterscheidet die Bayernpartei nicht. In vielen ihrer programmatischen Standpunkte plädiert die Bayernpartei für eine Stärkung der bayerischen Eigenverantwortung und die Rückführung wichtiger politischer Kompetenzen. In europäischer Hinsicht tritt sie für ein Europa der Regionen ein, sie ist Mitglied der Europäischen Freien Allianz, einer Partei des Europaparlaments. Austritt Bayerns aus der Bundesrepublik. Hauptziel der Bayernpartei ist ein von der Bundesrepublik Deutschland unabhängiger Freistaat Bayern. In der Satzung (§ 9 Abs. 2 Nr. 2) ist festgelegt, dass ausgeschlossen werden muss, „wer gegen die Eigenstaatlichkeit und das staatliche Eigenleben Bayerns handelt oder spricht“. Auch Aussagen zur Tagespolitik enthalten Hinweise auf eine spätere Unabhängigkeit Bayerns oder beziehen sich auf diese. Der Vorsitzende Florian Weber kündigte 2009 in der Mittelbayerischen Zeitung ein Volksbegehren mit dem Ziel, Bayerns Unabhängigkeit bis zum Jahr 2020 herzustellen, an. Bis Juli 2012 waren knapp 7.000 der für die Einleitung eines Volksbegehrens notwendigen 25.000 Unterschriften gesammelt. Der Austritt wird vor allem finanzpolitisch begründet. Ablehnung von Rauchverboten. Im Jahr 2010 unterstützte die Bayernpartei als einzige Partei das hauptsächlich von Tabakindustrie und Tabakgroßhandel finanzierte „Aktionsbündnis ‚Bayern sagt nein!‘ für Freiheit und Toleranz“. Diese Initiative wollte eine Ablehnung des Volksbegehrens „Für echten Nichtraucherschutz!“ erreichen – ein Vorhaben, das deutlich scheiterte. Aus den Reihen der Partei wurde 2012 ein Volksbegehren „Ja zu ‚Wahlfreiheit für Gäste und Wirte‘“ initiiert, welches faktisch eine Rücknahme des 2010 erfolgreichen Volksentscheides zum Ziel hat. Die Bayernpartei begründet ihre ablehnende Haltung zum Nichtraucherschutz durch Rauchverbote in erster Linie mit dem Selbstbestimmungsrecht der Wirte und Gäste. Einführung eines Erziehungsgrundgehalts. Die Bayernpartei initiierte Anfang Juni 2012 eine Petition an den Bayerischen Landtag mit der Forderung nach Einführung eines Erziehungsgrundgehaltes. Es soll zusätzlich zum Kindergeld an Eltern ausbezahlt werden, die keine staatlichen Betreuungsangebote für Kinder nutzen. Das Erziehungsgrundgehalt ist abhängig von Einkommen und Alter des Kindes. Nach dem Modell der Bayernpartei soll der Elternteil, der für die Betreuung des Kindes auf ein Arbeitsverhältnis verzichtet, bis zu 100 Prozent des früheren Nettoeinkommens bei Vorschulkindern und bis zu 50 Prozent bei schulpflichtigen Kindern erhalten. Je höher das Nettoeinkommen ist, um so höher fällt das Erziehungsgrundgehalt aus. Eine Komponente für den sozialen Ausgleich ist nicht vorgesehen. Finanziert werden soll das Erziehungsgrundgehalt durch Wegfall der bisherigen Leistungen und Freibeträge für Kinder, auf die der Landtag allerdings keinerlei Einfluss hat. Bisher wurde die Petition nicht eingereicht. ESM ohne Bayern. Bereits Anfang Juli 2012 initiierte die Partei eine weitere Petition. In dieser wird der bayerische Landtag aufgefordert, „eine Haftung Bayerns aus dem ESM mit allen zur Verfügung stehenden Mitteln zu bekämpfen“. Sie befürchtet, dass der Bund unbegrenzt für die Schulden anderer Staaten haftet und die daraus resultierenden Belastungen direkt und indirekt an die Bundesländer weitergegeben werden. Die Bayernpartei hatte sich bereits vorher mehrfach kritisch zum ESM geäußert und zur Teilnahme an einer Demonstration in München gegen den ESM aufgerufen. Bisher wurde die Petition noch nicht eingereicht. Einen Überwachungs- und Verbotsstaat verhindern, Bürgerrechte schützen. Die Bayernpartei spricht sich in ihrem Programm „Zehn Punkte in weiß-blau“ gegen einen totalen Überwachungsstaat aus. Nach Ansicht der BP sollen PC-, Video- und Telefonüberwachung nur noch bei begründetem dringenden Verdacht möglich sein. Die Privatsphäre der Bürger darf nach Meinung der BP grundsätzlich nur dann verletzt werden, wenn sie als Schutzmantel für schwere Verbrechen missbraucht wird. In ihrem Programm lehnt die BP sowohl auf nationaler als auch auf europäischer Ebene die flächendeckende Erfassung und Speicherung von biometrischen Daten und Fingerabdrücken sowie die Weitergabe an andere Länder (z. B. an die USA) ab. Ein großes Problem sieht die Bayernpartei in der Tendenz des Staates, das Verhalten der Bürger immer mehr zu regeln und einzuschränken. Finanz-, Wirtschafts- und Sozialpolitik. Viele Forderungen der Bayernpartei zielen auf eine Abkoppelung Bayerns von den Wirtschafts-, Finanz- und Sozialsystemen des Bundes ab. Dazu zählt auch der Vorschlag einer Regionalisierung des Gesundheits- und Sozialsystems. Sowohl Solidaritätszuschlag als auch Länderfinanzausgleich sollen abgeschafft werden. An Stelle der bisherigen Pendlerpauschale soll eine Entfernungskostenpauschale treten, die direkt von der Steuerschuld abgezogen wird. Damit soll eine Steuererleichterung erreicht werden, die unabhängig von der individuellen Steuerprogression ist. Bemessungsgrundlage für die Pauschale ist der durchschnittliche Spritpreis des Steuerjahres. Eine Aussage zur Gegenfinanzierung ist nicht vorhanden. Sozialpolitische Aussagen der Bayernpartei betreffen hauptsächlich den Teilbereich Familie. Staatlichen Betreuungsangeboten steht die Partei ablehnend gegenüber. Sie setzt auf eine verstärkte Förderung elterlicher Erziehung in Form eines Erziehungsgrundgehaltes. Ein Betreuungsgeld in Höhe von 150 Euro monatlich wird als unzureichend betrachtet. Eine Erhöhung des Rentenalters wird abgelehnt, da dies lediglich zu Abschlägen bei den Bezügen führen würde. Umwelt- und Agrarpolitik, Tierschutz. Die Bayernpartei sieht Umweltschutz als eine der großen politischen Herausforderungen, um Heimat und Lebensgrundlagen zu erhalten. Kritisch wird dagegen die Einschränkung der bürgerlichen Freiheiten aus Umweltschutzgründen gesehen. Der Mensch solle als Teil der Umwelt und nicht als Eindringling in diese wahrgenommen werden. Erneuerbare Energien sollen gefördert werden, wobei die Energiewende jedoch dezentral gesteuert werden soll. Die Ökosteuer und Umweltzonen in Innenstädten sollen abgeschafft werden. Weitere Forderungen sind landwirtschaftliche Direktvermarktung, Verbraucherschutz durch Herkunftsbezeichnungen, Verbot von Tiermehl und Agrarfabriken. Stattdessen sollen bäuerliche Klein- und Mittelbetriebe unterstützt werden. Die BP fordert ein Verbot von Tiertransporten und „unsinnigen“ Tierversuchen. Innenpolitik und Justiz. Kostenloser Rechtsbeistand für Kriminalitätsopfer soll ermöglicht werden, ebenso die Förderung der europäischen und internationalen Zusammenarbeit. Der Föderalismus innerhalb Bayerns soll nach dem Leitmotiv der Subsidiarität gestärkt werden. Dies soll insbesondere durch Aufwertung der kommunalen Selbstverwaltung der Gemeinden und Landkreise geschehen; die Bezirke sollen eigene Gesetzgebungskompetenzen erhalten. Die Bayernpartei setzt sich für einen direkt gewählten Ministerpräsidenten und, obgleich es freundschaftliche Verbindungen auch zu monarchistischen Gruppierungen gibt, für einen demokratisch gewählten Staatspräsidenten ein. Verteidigungs-, Außen- und Europapolitik. Die Bayernpartei spricht sich gegen Auslandseinsätze der Bundeswehr aus. Im Vordergrund steht der finanzielle Aspekt solcher Einsätze. Die Bundeswehr taucht zudem bei der Argumentation für einen unabhängigen Staat Bayern als Kostenfaktor auf. In der Außenpolitik wird eine Aufnahme der Türkei in die Europäische Union abgelehnt. In einer Pressemitteilung wurde dies vorwiegend mit einer finanziellen Überforderung der EU begründet. Seit 1948 bekennt sich die Partei zu einem „Vereinten Europa“, definiert diesen Begriff allerdings nicht weiter. Gleichzeitig übt sie Kritik an der Verlagerung von Kompetenzen hin zu europäischen Institutionen. Sie betont den – juristisch umstrittenen – Vorrang der Grundrechte der nationalen Verfassungen vor EU-Recht. Beim Landesparteitag am 30. Oktober 2011 in Bamberg befürwortete die Bayernpartei den Ausstieg Deutschlands aus dem Euro. Nach der Einrichtung eines unabhängigen Staates Bayern soll eine eigene Währung eingeführt werden. Kultur- und Bildungspolitik. Die Partei spricht sich für den Ausbau der Bildungshoheit der Länder aus. Sie lehnt Einflussnahmen des Bundes, auch in Form von Zahlungen an die Länder, ab. Eine Angleichung der Schulsysteme innerhalb Deutschlands wird abgelehnt. Das dreigliedrige Schulsystem soll erhalten bleiben, die Hauptschule jedoch durch berufliche Praktika aufgewertet werden. Eine wohnortnahe Schulbildung soll auch auf dem Land ermöglicht werden. Bayern soll für ein auf Gestaltungsfreiheit der Studierenden ausgelegtes Hochschulangebot sorgen. BAföG-Leistungen sollen elternunabhängig gezahlt werden, Studiengebühren werden abgelehnt. Die Bayernpartei betont die „historisch gewachsenen kulturellen Unterschiede innerhalb Deutschlands“ und lehnt eine „deutsche Leitkultur“ ab. Die Vermittlung kultureller Kenntnisse durch Heimatkundeunterricht wird als Mittel der Integration verstanden. Der bayerische Dialekt soll erhalten und gepflegt werden. Politische Leitung. Das höchste politische Organ ist der Parteitag. In Publikationen der Partei wird er oft auch als Landesparteitag bezeichnet. Er wird als Mitgliederversammlung geführt. Die Teilnehmerzahl und die Zusammensetzung ist daher stark von Ort und Datum abhängig. Seine wichtigsten Aufgaben sind die Wahl des Landesvorstandes, die Ernennung von Ehrenmitgliedern und Entscheidungen über die politischen Grundsätze. Der Parteitag kann theoretisch jede Befugnis an sich ziehen. Der Parteiausschuss entspricht dem „kleinen Parteitag“ der meisten anderen Parteien. Gebildet wird er aus den Delegierten der Bezirksverbände und des Jungbayernbundes sowie die Mitglieder der Parteileitung. Der Parteiausschuss wählt einen eigenen Vorsitzenden und dessen Stellvertreter. Er ist das höchste Gremium zwischen den Parteitagen und übernimmt dessen Aufgaben, solange diese nicht explizit dem Parteitag vorbehalten sind. Die Parteileitung ist eine Besonderheit der Bayernpartei. Sie besteht aus dem Parteivorstand, den Ehrenvorsitzenden, den acht Delegierten der Bezirksverbände und einem Vertreter der Jugendorganisation. Sollten Fraktionen im Bundes-, Landtag oder in den Bezirkstagen bestehen, haben auch diese jeweils einen Sitz mit Stimme. Hauptaufgabe der Parteileitung ist die Koordination der politischen Arbeit der Untergliederungen und die Verabschiedung des Finanzhaushaltes. Der Parteivorstand besteht aus dem Landesvorsitzenden, seinen vier Stellvertretern, dem Landesschatzmeister, dem Landesschriftführer und dem Generalsekretär. Der Vorstand kann beliebig viele Mitglieder und Nichtmitglieder kooptieren. Diese haben allerdings kein Stimmrecht. Dem Landesvorstand obliegen die laufenden Parteigeschäfte. Er vertritt die Partei juristisch nach außen. Hubert Dorn, ehemaliger Vorsitzender und jetziger Generalsekretär (2015) Ungewöhnlich ist die in der Satzung verankerte, starke Stellung des Parteivorsitzenden, in der Satzung "Landesvorsitzender" genannt. So legt § 52 fest "„Der Landesvorsitzende ist der berufene Sprecher der Partei.“" und § 52 Abs. 1 konkretisiert "„Zur Bekanntgabe parteiamtlicher Erklärungen, von Beschlüssen, Stellungnahmen oder Berichten zu aktuellen politischen oder parteiinternen Fragen an Presse, Rundfunk und Fernsehen oder an dritte Personen, die der Partei nicht angehören, ist der Landesvorsitzende zuständig.“" Diese Rechte stehen bei anderen Parteien normalerweise dem Vorstand in seiner Gesamtheit zu. Regionale Gliederung. Die Bayernpartei gliedert sich in insgesamt acht Bezirksverbände: Die Bezirksverbände Oberfranken, Mittelfranken, Unterfranken, Schwaben, Oberpfalz und Niederbayern sind deckungsgleich mit den jeweiligen bayerischen Regierungsbezirken. Der Bezirksverband "München" umfasst die Landeshauptstadt München, der Bezirksverband Oberbayern den restlichen gleichnamigen Regierungsbezirk. Darüber hinaus existieren Kreisverbände und Ortsverbände, von denen allerdings nicht alle aktiv sind. Parteipresse. Das Presseorgan "Freies Bayern" erscheint viermal im Jahr. Diese Zeitung wurde erstmals 1952 aufgelegt, erschien seither jedoch nicht durchgängig. Von 1949 bis 1954 erschien die „Bayerische Landeszeitung“ mit einer Auflage von zunächst 65.000 Exemplaren. Diese Wochenzeitung war vor allem als parteinahe Publikumszeitung, vergleichbar dem Bayernkurier der CSU, geplant, fuhr jedoch erhebliche Verluste ein, die schließlich zu ihrer Einstellung führten. Der „Bayernruf“, der von 1951 bis 1960 zweiwöchentlich erschien, wandte sich hingegen eher an die eigenen Mitglieder der Partei. Jugendorganisation. Die Jugendorganisation der Partei ist der "Jungbayernbund e. V. (JBB)" mit Sitz in München. Er wurde auf Landesebene 1950 gegründet, nachdem es seit 1948 bereits regionale Gründungen gegeben hatte, und versteht sich als „Vereinigung der fränkischen, schwäbischen und bairischen Jugend im Freistaat“. Der Jungbayernbund (JBB) ist Mitglied im "Ring Politischer Jugend" (RPJ) Bayern. Vorsitzender der Jungbayern ist seit 21. Februar 2015 der Münchner Bürokaufmann Andreas Niedermeier, sein Vorgänger, der Münchner Diplom-Betriebswirt Richard Progl, wurde am selben Tag zum Ehrenvorsitzenden ernannt. Die Jungbayern sehen sich der bayerischen Verfassungstradition verpflichtet und sind bestrebt, den Grundsatz der Selbstbestimmung der Völker zu verwirklichen. Wahlergebnisse in Bayern seit 1946. 1 als Föderalistische Union a> war die Partei deutlich schwächer als im restlichen Bayern. Die höchsten Stimmenanteile erhielt sie in ländlichen Gebieten. Bundesregierung (Deutschland). Logo der Bundesregierung der Bundesrepublik Deutschland Die Bundesregierung der Bundesrepublik Deutschland, auch "Bundeskabinett" genannt, übt die Exekutivgewalt auf Bundesebene aus. Sie besteht gemäß Artikel 62 des Grundgesetzes für die Bundesrepublik Deutschland (GG) aus dem Bundeskanzler und den Bundesministern. Durch die Möglichkeit, Gesetzesvorlagen in den Bundestag einzubringen, und die Möglichkeit, dass Mitglieder der Bundesregierung zugleich Mitglieder des Bundestages sind, hat die Regierung auch Einfluss auf die Legislative. Regelungen. Verfassungsrechtlich ist die Rolle der Bundesregierung in Teil VI in den Grundgesetz (GG) geregelt, wodurch sie zu den Verfassungsorganen zählt. GG erlaubt es der Bundesregierung, Gesetzesvorlagen in den Bundestag einzubringen. Abs. 2 GG schreibt vor, dass die Mitglieder der Bundesregierung bei der Amtsübernahme den Amtseid (gemäß GG) leisten. Ihre Arbeitsweise wird in der Geschäftsordnung der Bundesregierung (GOBReg) und in der Gemeinsamen Geschäftsordnung der Bundesministerien (GGO) geregelt – so ist dort auch festgelegt, dass die Bundesregierung nur beschlussfähig ist, wenn mehr als die Hälfte ihrer Mitglieder zusammengekommen sind. Die administrativen Geschäfte der Bundesregierung leitet der Bundeskanzler, der diese an den Chef des Bundeskanzleramtes delegiert. Der Bundeskanzler hat innerhalb der Bundesregierung die Richtlinienkompetenz (Kanzlerprinzip), das heißt, er bestimmt die Grundzüge der Politik und ist dafür auch verantwortlich. Die Bundesminister leiten ihre jeweiligen Aufgabenbereiche im Rahmen der Richtlinien des Kanzlers eigenständig (Ressortprinzip). Den Umfang ihrer Aufgabenbereiche bestimmt der Bundeskanzler. Sind zwei Bundesminister sich in einem Punkt uneinig, so entscheidet die Bundesregierung mit Mehrheitsbeschluss (Kollegialprinzip). Laut Bundesministergesetz hat ein ausgeschiedenes Mitglied der Bundesregierung Anspruch auf ein Ruhegehalt, „wenn es der Bundesregierung mindestens vier Jahre angehört hat; eine Zeit im Amt des Parlamentarischen Staatssekretärs bei einem Mitglied der Bundesregierung wird berücksichtigt“, ebenso wie eine „vorausgegangene Mitgliedschaft in einer Landesregierung, die zu keinem Anspruch auf Versorgung nach Landesrecht geführt haben“. Beamtete und Parlamentarische Staatssekretäre sowie Staatsminister sind formalrechtlich keine Mitglieder der Bundesregierung, aber unterstützen diese bei ihren Aufgaben. Das Bundeskabinett tagt in der Regel jeden Mittwoch um 9:30 Uhr im Bundeskanzleramt. Das amtliche Bekanntmachungsmedium ist das Gemeinsame Ministerialblatt (GMBl). Vertretungsreihenfolge in der Bundesregierung. § 22 der Geschäftsordnung der Bundesregierung regelt die Vertretungsreihenfolge bei Sitzungen der Bundesregierung. Bei Abwesenheit des Bundeskanzlers übernimmt der Stellvertreter des Bundeskanzlers den Vorsitz in der Bundesregierung. Ist auch dieser verhindert, so übernimmt derjenige Bundesminister den Vorsitz, der am längsten ununterbrochen der Bundesregierung angehört. Gibt es mehrere Bundesminister, die zur gleichen Zeit Bundesminister geworden sind, so übernimmt der an Lebensjahren älteste den Vorsitz. Diese Regelungen gelten nicht, wenn der Bundeskanzler eine gesonderte Reihenfolge bestimmt. Davon ist zurzeit nichts bekannt. Anteil der Volljuristen. Die bevorzugte Anstellung von Volljuristen im höheren Dienst der öffentlichen Verwaltung (das sogenannte Juristenprivileg) findet sich auch in der Bundesregierung wieder. Bezogen auf den Beginn der Bundesregierung und inklusive des Bundeskanzlers betrug der Anteil der Juristen abgesehen von 1998 bis 2002 (Kabinett Schröder I) immer mindestens 25 Prozent. Dauer der Regierungsbildung in Deutschland seit 1980. Die folgende Grafik stellt die Dauer zwischen der Wahl zum Deutschen Bundestag und der Vereidigung des Kabinetts in Tagen dar. Wird die Vereidigung des Bundeskabinetts nicht explizit aufgeführt, fand sie am selben Tag wie die Wahl der Kanzlerin/des Kanzlers statt; dies war bei den Wahlen seit 1998 der Fall. Im Durchschnitt wurde der Kanzler seit 1980 nach 40 Tagen gewählt. Tag der offenen Tür. Seit 1999 findet jeden Sommer ein Tag der offenen Tür der Bundesregierung statt. An diesem Tag können das Bundeskanzleramt, Bundespresseamt und 14 Ministerien besichtigt werden. Ein Blick in Büros von Referenten und Ministern soll einen Eindruck vom Arbeitsalltag der Politiker vermitteln. Einzelnachweise. ! Bafing. Der Bafing (Mande für „Schwarzer Fluss“) ist ein 344 km langer Fluss in Guinea und Mali (Westafrika). Er entspringt im bis 1.537 m hohen Bergland von Fouta Djallon, fließt dann nach Norden nach Mali und schließt sich bei Bafoulabé mit dem Bakoyé zum Senegal zusammen. Zwischen 1982 und 1988 wurde bei Manantali in Mali die Manantali-Talsperre gebaut, die einen Stausee fast von der Größe des Bodensees aufstaut. Der See dient zur Regulierung des Wasserstandes im Fluss. Er staut das Wasser der Regenzeit und gibt es in der Trockenzeit kontinuierlich wieder ab, wodurch der Bafing und auch der Senegal ganzjährig schiffbar sind. Außerdem ist dadurch immer genug Wasser für die Bewässerung der Landwirtschaft am Fluss vorhanden. Ein anderer Fluss mit gleichem Namen mündet in den Fluss Sassandra in Côte d'Ivoire. Biografie. Eine Biografie, auch Biographie (griechisch, von, "bíos" „Leben“ und -graphie von, "gráphō" „ritzen, malen, schreiben“) ist die Lebensbeschreibung einer Person. Die Biografie ist die mündliche oder schriftliche Präsentation des Lebenslaufes eines anderen Menschen; ein Sonderfall der Biografie ist die Autobiografie: Sie hat der Betreffende selbst (heute allerdings häufig mit der Unterstützung eines Ghostwriters) über seine eigenen Lebenserfahrungen verfasst. Im Familienverbund werden Autobiografien manchmal dem Testament beigefügt. Es soll vom Leben eine Spur übrig bleiben – die Nachkommen sollen wissen, was war. Den Lebenslauf zu beschreiben, bedeutete auch eine nachträgliche Konstruktion einer bestimmten Sinnhaftigkeit des beschriebenen Lebens. Dies führt weiter zur Frage nach dem subjektiv verstandenen und dem objektiven Leben. Jeder Mensch entwirft seine eigene Biografie in unterschiedlichen Lebenssituationen (beim Bewerbungsgespräch, bei der Aufnahme persönlicher Beziehungen oder allgemeiner bei der eigenen Lebensrückschau, z. B. beim Psychologen oder Psychiater). Biografien bilden auch ein wichtiges Instrument der Erinnerung an andere Personen. Sie sind daher Gegenstand der Literatur- und Geschichtswissenschaft, der Soziologie, der Pädagogik, der Psychologie, der Medizin und der Theologie. Die einzelnen Arbeitsfelder und Arbeitsgegenstände der Biografieforschung sind sehr heterogen und haben eigene Forschungstraditionen entwickelt. Literaturgattung. Als Literaturgattung behandelt die Biografie meist Personen des öffentlichen Lebens wie Politiker, Wissenschaftler, Sportler, Künstler oder Menschen, die durch ihr Wirken einen wichtigen gesellschaftlichen Beitrag geleistet haben. Wichtige literarische Biografen deutscher Sprache waren und sind etwa Karl August Varnhagen von Ense, Stefan Zweig, Emil Ludwig und Golo Mann. Viele biografische Texte vermischen die historischen Fakten mit freien Erfindungen (biografischer Roman, historischer Roman). Ein frühes Beispiel für die heroisierende Lebensbeschreibung eines politischen Herrschers aus der Antike sind etwa die "Res Gestae Divi Augusti". Aber auch die Biografien mancher (bis dahin) unbekannter Personen sind verbreitet (z. B. Anna Wimschneider, "Herbstmilch"). Lebensbilder sind Kurzbiografien meist von Personen ohne historischen Rang. Sie werden oft von Genealogen, Familien- und Heimatforschern verfasst, Biografien hingegen von Biografen. Die beschriebenen Personen sind je nach Anspruch, historischer Bedeutung oder Auslegung Verwandte, einfache Mitmenschen oder historische, kulturelle oder bedeutende Persönlichkeiten. Umgangssprachlich wird manchmal auch der (stichwortartige) Lebenslauf eines Menschen als dessen Biografie (auch „Vita“) bezeichnet. Die Auseinandersetzung mit der eigenen Biografie – dem eigenen Lebenslauf – ist u. a. Inhalt der psychoanalytisch ausgerichteten Biografiearbeit. Moderne Definitionen. Nach Arnaldo Momigliano ist die Biografie schlichtweg die Darstellung des Lebens eines Menschen von der Geburt bis zum Tod, nach Friedrich Leo die chronologische Darstellung von Geburt bis zum Tod, Gruppierung der Geschehnisse um die Hauptperson, Erfassung des Lebens nach Rubriken, moralisch-didaktische Ausrichtung. Dies sind moderne Erfassungen der antiken Biografie, aber keine eigene in der Antike gefasste Literaturtheorie. Nach Leo gibt es zwei Formen, von denen die erste, literarisch wenig anspruchsvolle, für Personen des Geisteslebens gedacht sei, die zweite, deutlich qualitätsvollere Form, für Politiker, Könige und Feldherren gedacht sei (Schule des Peripatos). Diese Anschauung wurde jedoch durch den Fund der Euripides-Biografie des Satyros in Dialogform erschüttert. Entstehung im vierten Jahrhundert v. Chr.. Die Biografie entstand im vierten Jahrhundert v. Chr. als ein Produkt des Übergangs von der sich auflösenden Polis-Kultur der klassischen Zeit zur Monarchie der hellenistischen Zeit. In der demokratischen Polis herrschte das Ideal vor, dass sie nicht nur eine Summe von Individuen, sondern eine wirkliche Gemeinschaft war. Die nach dem peloponnesischen Krieg eingeleitete und durch Philipp II. von Makedonien und Alexander den Großen betriebene Entwicklung führte bei den Griechen zu einer stärkeren Herausstellung des Individuums. Kennzeichnend für die Polis-Ära ist die Historiographie, während die Biografie für die hellenistische Ära kennzeichnend ist. Es keimten auch die Dichter- und Gelehrtenbiografien auf, da auch hier die Individualisierung Einzug hielt. Es genügte nicht mehr die Werke der Dichter zu haben, sondern man wollte auch die Viten lesen. Als Prototyp für die Dichter- und Gelehrtenbiografien gilt Platons "Apologie (Platon)", die zahlreiche biografische Anmerkungen über das Leben des Sokrates enthält. Sie ist nur ein Teil einer ausgeprägten Sokrates-Literatur, die daneben vor allem in den platonischen und xenophontischen Dialogen besteht. Die Biografie als Literaturgattung kann aufgrund der genannten Punkte als Indiz für bestimmte politisch-soziale Prozesse gewertet werden. Etwas ganz anderes ist der Lebenslauf oder gar der tabellarische Lebenslauf (die Vita) in einer schriftlichen Stellenbewerbung, der besonders auf die beruflichen Merkmale des Bewerbers eingeht und diesen möglichst positiv darstellen soll. Die Biografie im Griechenland des fünften Jahrhunderts. Aus dem Rahmen der im letzten Abschnitt geschilderten Prozesse fallen die biografischen Exkurse in den Werken der Historiker Herodot und Thukydides. Herodot beschreibt in seinen Historien das Leben des Kyros in den bereits bekannten Kategorien (I, 107–130: Abstammung, Geburt, Kindheit und Jugend; I, 177–188: ausgewählte Taten und Leistungen; I, 201–214: letzter Feldzug und Tod) und des Kambyses (III, 1–66). Diese beiden Viten sind geprägt von Exkursen und vielen Erzählungen nebenbei. Diese für die Polis-Zeit außergewöhnlichen Biografien dürften zwei Gründe haben: zum einen sind beide porträtiert worden, gerade weil sie keine Griechen, sondern Exponenten eines monarchistischen Regimes waren, welches schon in Aischylos’ "Persern" eindrucksvoll skizziert wurde, zum anderen gab es durch die zahlreichen Quellen aus Inschriften über die Könige viel zu berichten. Der aus Kleinasien stammende Herodot vereinte die Eigenheiten der Kulturkreise, die sich hier berührten. Thukydides beschreibt im Rahmen der Pentekontaetie, in den Kapiteln 135–138 des ersten Buchs seiner Geschichte des peloponnesischen Krieges, das Leben des Themistokles zwischen Verbannung und Tod und zuvor in den Kapiteln 128–134 das Schicksal des Spartaners Pausanias. Beide Episoden erzählen die Geschichte von verbannten Politikern, die sich um ihre Poleis verdient gemacht haben. Unter Berücksichtigung des Schicksals von Thukydides, der selbst verbannt wurde, darf man diese Passagen nicht so sehr als Charakterstudien und Betrachtungen zu den beiden Personen betrachten, sondern vielmehr als Kritik im Umgang mit verdienstreichen Persönlichkeiten in der Polis. Als einzig komplette Biografie jener Zeit gilt das Werk des Skylax von Karyanda, der das Leben des Herakleides von Mylassa erzählt. Hier ist wiederum der bei Herodot relevante Punkt interessant, dass es sich um das Scharnier zwischen den Kulturkreisen handelt: Herakleides war Karer, stammte also aus Kleinasien. Die Biografie in der klassischen Zeit Griechenlands. Isokrates schuf aus den Gattungen des Enkomions, eines in Versen gedichteten Preisgesangs, der nie auf Politiker, sondern auf Personen aus künstlerisch-athletischen Kreisen gesungen wurde (z. B. Pindar und andere mit ihren Epinikien), und des Epitaphios, einer Grabrede auf die Kriegstoten, d. h. nicht auf Einzelpersonen, sondern auf das Kollektiv der Gefallenen (z. B. der Epitaphios des Perikles auf die Gefallenen des peloponnesischen Krieges bei Thukydides II, 34–46) das neue Genre eines Prosa-Enkomions in seiner Vita des Euagoras I. Dieselbe wurde vielleicht zwischen 370 und 365 v. Chr. abgefasst, in jedem Fall frühzeitig nach dem Tod des Euagoras 373 v. Chr. Im achten Kapitel seines Vorworts (cap. 1–11) beschreibt Isokrates, dass er beide Gattungen verbindet und ist sich somit der Innovation bewusst. In den Kapiteln 12–21 folgt sein Bericht über Herkunft und Familie des Euagoras, dann die Schilderung der Kindheit des Euagoras (cap. 22 f.), ab Kapitel 24 dann die politische Karriere des Euagoras. An den Schluss stellt Isokrates die Anweisung an den Sohn des Euagoras, dem Vater nachzueifern. Charakteristisch für dieses Werk ist die Erhebung des Euagoras über andere, ja die Erhebung in die Nähe der Götter. Isokrates postuliert so die hohe Individualität seines Gegenstandes. Xenophon verfasste die Biografie des Agesilaos und die "Kyrupaideia". In der Agesilaos-Biografie, die deutlich kürzer ist als die des Isokrates über Euagoras, lobt er den spartanischen König Agesilaos. Xenophon hatte sich nach dem Feldzug des Kyros gegen seinen Bruder, den Perserkönig Artaxerxes, welchen er in der "Anabasis" verarbeitete, in Sparta niedergelassen und mit Agesilaos angefreundet. Diese Biografie schönt das Leben des Agesilaos deutlich und lässt Details weg. Beweis hierfür sind Xenophons "Hellenika", die Details aus dem Leben des Agesilaos berichten, welche offenbar nicht in die enkomiastische Stimmung seiner Biografie passen. (Gliederung: cap. 1,1–5: Einleitung, Lobes-Intention, Herkunft; 1,6–2,31: lobende Darstellung der Taten (unter Weglassung und Schönung); 3,1–10,4: Katalog der Aretai des Agesilaos; 11: Zusammenfassung. Besonderheit: Vergleichsmöglichkeit zwischen dem Biografen Xenophon und dem Historiografen Xenophon.) Nicht eindeutig der Biografie zuzuordnen ist die "Kyrupaideia", welche mehrere Gattungen vereint (Geschichtsdarstellung, historischer Roman, didaktischer Roman, Erziehungsschrift, Militärhandbuch, Enkomion). Vieles ist Phantasie, Abschweifungen dienen als Zeugnis guter persönlicher Gestalt. Am Ende vergleicht Xenophon das aktuelle Persien mit dem Persien des Kyros und stellt ein vernichtendes Urteil über das Persien seiner Zeit auf. Griechische Biografie im Hellenismus und in der frühen Kaiserzeit. Die oben erwähnten Entwicklungen sind voll ausgereift, die hellenistische Monarchie hat das Poliswesen vollkommen verdrängt. Als Zeitalter des Individuums erforderte der Hellenismus geradezu Viten von Politikern, Feldherrn, Künstlern und Philosophen. Dies schlug sich vermutlich in einer sehr großen Menge an Texten nieder, die uns weitestgehend nicht erhalten sind, wie dies allgemein für den Hellenismus typisch ist. Es ist unbekannt, wie groß die biografische Produktion tatsächlich war. Theophrasts Charaktere sind keine Biografien im eigentlichen Sinn, sondern stellen Verhaltensmuster dar. Sie können als empirische Studien für ein größeres Werk gedient haben. Theophrast gehörte dem Peripatos an, der einer biografischen Richtung immerhin den Namen gab. Die Charaktere lenken den Focus ganz stark auf das Individuum und auf den individuellen Charakter. Dies wird für die weitere hellenistische Biografie prägend. Aristoxenos aus Tarent (* 370 v. Chr.; Tod unklar) hat zahlreiche Werke verfasst (insgesamt 453 Bücher), war Konkurrent des Theophrast für die Nachfolge des Aristoteles als Scholarch des Peripatos. Im Gegensatz zu anderen Peripatetikern war er nicht allgemein versiert, sondern auf Musik und Biografie spezialisiert. Er schrieb hauptsächlich Philosophen-Biografien, vielleicht auch eine Alexander-Biografie, da bei Plutarch auf eine Beschreibung Alexanders durch Aristoxenos hingewiesen wird. Hermippos aus Smyrna (* zwischen 289 und 277 v. Chr.; † nach dem Tod des Chrysippos, welcher zwischen 208 und 204 v. Chr. gestorben ist) entwickelte die Biografie der Peripatetiker weiter. Er selbst gehörte dieser Schule nicht an, sondern lebte in Alexandria. Plutarch beruft sich an mehreren Stellen auf Hermippos. Er scheint zahlreiche Biografien verfasst zu haben. Sueton wird aus zwei Gründen eine Ähnlichkeit zu Hermippos nachgesagt: zum einen lassen beide Gerede und Anekdoten einfließen, zum anderen haben beide zahlreiches Quellenmaterial, denn Hermippos konnte auf die Bibliothek in Alexandria zugreifen, während Sueton das kaiserliche Archiv unter sich hatte. Satyros wurde am Schwarzen Meer geboren. Seine Lebensdaten sind nicht näher zu bestimmen, sein Leben muss aber vor der Regierungszeit des Ptolemaios VI. Philometor (180–145 v. Chr.) gelegen haben oder in die Regierungszeit hineingereicht haben. Die Zeugnisse von Satyros sind nur spärlich. 1912 fand man in Oxyrhynchos einen Papyrus mit einem längeren Ausschnitt aus einer Euripides-Biografie. Historiker sehen hierin einen Beweis für das ungebrochene Interesse des Hellenismus für die großen Klassiker. Es gibt aber zwei Merkmale dieser Biografie: Satyros hat keine Quellenforschung betrieben, sondern die Fakten aus den Tragödien des Euripides selbst und aus den Komödien des Aristophanes, der Euripides sogar als Frauenfeind skizziert. Außerdem hat Satyros diese Biografie als Dialog verfasst, in dem der Autor selbst Gesprächspartner des Euripides ist. Belegt sind Biografien von Pythagoras, Empedokles, Platon, Diogenes, Alkibiades, Dionysios II. von Syrakus und Philipp II. von Makedonien, außerdem über die Sieben Weisen. Er schrieb auch ein Werk mit dem Titel "Über Charaktere". Antigonos von Karystos (zweite Hälfte des dritten Jahrhunderts) schrieb ausschließlich Philosophenbiografien. Er schrieb nicht chronologisch oder nach System, sondern versuchte Charakterbilder zu zeichnen. Meist beschreiben seine Biografien den Weg zur Philosophie und den Tod, sind also nicht das Leben umfassend. Auf ihn bezog sich später im dritten Jahrhundert n. Chr. Diogenes Laertios. Alkidamas (um 400 v. Chr.) verfasste das berühmte Certamen Homeri et Hesiodi, in dem Homer und Hesiod miteinander wettkämpfen. Es ist in Hexametern verfasst und enthält auch Biografisches. In der römischen Literatur ist Cornelius Nepos ein bedeutender Vertreter dieser literarischen Gattung. Die wohl berühmtesten Biografien unseres Kulturkreises finden sich jedoch im Neuen Testament und sind den Auswüchsen der hellenistischen Literatur zuzuordnen, da die kanonischen Evangelisten als hellenistische Gebildete gelten, festzustehen scheint dies bei Lukas. Die Evangelien weisen biografische Merkmale auf, enthalten die Geburt (alle außer Mk), die Genealogie (Mt, Lk), die Taten Jesu, seinen Prozess und letztendlich den Tod, sowie als Zusatz und Novum der antiken Biographik die Wiederauferstehung. Am deutlichsten tritt dies bei Lukas hervor: Prooimion, Ankündigungen der Geburten Johannes des Täufers und Jesu, Geburten, Taufe, Stammbaum, Predigten/ Gleichnisse/ Wunder, Abendmahl, Verrat, Prozess, Tod, Wiederauferstehung, Himmelfahrt. Mit der Himmelfahrt endet die personalisierte Darstellung der Geschichte des Kerns des Christentums. Nun spielt für die weitere Geschichte nicht mehr die Person Jesus die große Rolle, sondern die Gemeinschaft der Jünger, was dazu führt, dass Lukas nach der Himmelfahrt auf die Historiografie umschwenkt. Dies ist geradezu der Prozess der Individualisierung, nur eben umgekehrt. Plutarch. Plutarchs "Bíoi parállēloi" (englische Ausgabe von 1727) Plutarch wurde 45 n. Chr. in Chaironeia in Böotien geboren. Seine Familie war wohlhabend. Da er finanziell unabhängig war, konnte er in Athen Philosophie studieren. Plutarch wurde Philosophie-Wissenschaftler, also er war kein Philosoph, der eine eigene Lehre formulierte. Nach dem Studium kehrte er nach Chaironeia zurück und blieb dort, von einigen Reisen abgesehen. In Rom lernte er den Kaiservertrauten Quintus Sosius Senecio kennen. Dem Lucius Mestrius Florus hatte er das Bürgerrecht zu verdanken, für das er den Namen Mestrius Plutarchus annahm. Er nahm einige Ämter in Chaironeia wahr und gehörte dem Priesterkollegium von Delphi an. 125 n. Chr. starb Plutarch. Den größten Teil seines Schaffens nahmen die "Moralia" ein, die aus 78 Einzelschriften bestanden und populärhistorische, philosophische und alltägliche Fragen behandeln. Plutarch schrieb Biografien für die Kaiser von Augustus bis Vitellius. Die Biografien von Galba und Otho sind erhalten, bei Tiberius und Nero hat man noch Fragmente, der Rest ist verloren. Die Kaiserviten schildern fortlaufend die Geschichte und sind nicht als Einzelviten gearbeitet. Die Parallelbiografien (gr. οἱ βίοι παράλληλοι, "hoi bíoi parállēloi", lat. vitae parallelae) des Plutarch zeigen jeweils einen Griechen und einen Römer, die durch besondere Leistungen, Eigenschaften oder Qualitäten verbunden waren. Die Parallelbiografien sind also nicht als Bezeichnung für Biografien gedacht, die die Viten parallel lebender Menschen beschreibt. Die Reihenfolge, in der Plutarch geschrieben hat, ist unbekannt, in den heutigen Editionen sind die Biografien nach den Daten der jeweils griechischen Person geordnet. In der Perikles-Vita erhalten wir den Hinweis, dass Plutarch die Viten nicht als Gesamtwerk geplant hat, sondern sie schrittweise geschrieben und herausgegeben hat. Bis auf ein Paar sind die Parallelbiografien erhalten: Epaminondas und Scipio Africanus sind verloren. Der Vermutung nach bildeten sie den Auftakt der Parallelbiografien. Die Paare: Theseus/ Romulus: Stadtgründer; Lykurg/ Numa Pompilius: Gesetzgeber; Solon/ Poplica: Reformer; Aristeides/ Cato der Ältere: herausragende sittenstrenge Politiker; Themistokles/ Camillus: herausragende militärische und strategische Leistungen; Kimon/ Lucullus: militärische Qualität; Perikles/ Fabius Maximus: zuerst verkannt, dann bestätigt und beide Zögerer; Nikias/ Crassus: große militärische Niederlage mit eigenem Tod; Alkibiades/ Coriolan: wechselten in Auseinandersetzungen die Seiten; Lysandros/ Sulla: militärische Verdienste; Agesilaos/ Pompeius: militärisches Talent; Pelopidas/ Marcellus: militärische Fähigkeiten; Dion/ Brutus: Kampf gegen Tyrannen; Timoleon/ Aemilius Paullus: „politische Organisatoren“; Demosthenes/ Cicero: herausragende Redner, stellten Fähigkeiten in den Dienst des Kampfes für die Freiheit; Phokion/ Cato der Jüngere: Kampf für Freiheit und Selbstbestimmung; Alexander/ Caesar: Feldherren; Eumenes/ Sertorius: als Ausländer Heerführer; Demetrios/ Antonius: Mischung positiver und negativer Eigenschaften; Pyrrhos/ Marius: militärische Qualitäten; Agis und Kleomenos/ Tiberius und Gaius Gracchus: Sozialreformer; Philopoimen/ Flaminius: Wohltäter der Griechen, Besonderheit: beide Zeitgenossen des Plutarch und hatten im Gegensatz zu allen anderen etwas miteinander zu tun. Man fragt sich sicher, was Plutarch zum Schreiben solcher Biografien bewogen hat. Es mag das Streben gewesen sein, die großen Persönlichkeiten Griechenlands mit Römern zu vergleichen, um die Gleichwertigkeit von Römern und Griechen zu zeigen. Ferner herrschte in der Zeit, in der er die Parallelbiografien schrieb (1. Hälfte des 1. Jahrhunderts), eine ausgeprägte Griechenfreundlichkeit im kulturellen Bereich. Autobiografie. Eine Autobiografie („Selbstbeschreibung“) liegt vor, wenn die Biografie von der betreffenden Person selbst verfasst ist oder sie wenigstens als Verfasser gilt. Vielen Prominenten stand auch ein professioneller Ghostwriter hilfreich zur Seite. Eine bedeutende Autobiographie ist das Monumentum Ancyranum des Kaisers Augustus aus dem Jahre 13 n. Chr., das als Inschrift fast vollständig erhalten ist. Viel Autobiografisches enthält bereits die erste der "Selbstbetrachtungen" des römischen Kaisers Mark Aurel. Als erste Autobiografie im eigentlichen Sinne gelten die „Confessiones“ („Bekenntnisse“) des Aurelius Augustinus; er schrieb sie in den Jahren 397 und 398. Zu den autobiografischen Texten gehören auch die Memoiren („Erinnerungen“). Bei ihnen liegt die Gewichtung oft mehr auf den herausragenden, für eine breite Öffentlichkeit interessanten Ereignissen und der Autor wirft einen erweiterten Blick auf alle daran beteiligten Personen. Arten von Ereignissen. Ein Lebenslauf kann sich aus der Abfolge unterschiedlichster Ereignisse zusammensetzen. Einige sind "vorhersehbar" und für viele Personen einer Generation innerhalb eines Lebensabschnitts sehr wahrscheinlich = "normative Ereignisse" Andere Ereignisse haben einen "zeitgeschichtlichen Charakter." Alle Lebenden in diesem Land haben davon gehört, es miterlebt. Die Bedeutung ist jedoch je nach Betroffenheit und Lebensalter sehr verschieden. (Beispiele: der Zweite Weltkrieg, der Fall der Mauer, der 11. September 2001) "Kritische Lebensereignisse" können einem Lebenslauf eine Wende in eine unerwartete Richtung geben, dabei kann diese Lebenskrise später durchaus positive Folgen haben. Diese positive oder negative Wendung ist nicht sicher vorherzusehen (wird eher befürchtet). Mit „brüchigen“ Lebensläufen sind Biografien gemeint, die vom Verlauf der meisten Personen in vergleichbarer sozialer Position mehrfach abweichen. Sie sind normalerweise in der Familiensaga selten vertreten. Es ist z. B. die Rolle des schwarzen Schafs. Auch die Einteilung der Lebensabschnitte in den Biografien kann variieren – Beispiel Jugend und Kindheit haben heute eine andere Bedeutung als zur Zeit der Industriellen Revolution. Beispiel für die Zusammensetzung einer „typischen“ Lebensgeschichte. Es folgt eine „typische“ Lebensgeschichte, zusammengesetzt aus den oben genannten Ereignisformen. Die biografische Methode in den Sozialwissenschaften. Die Biografieforschung ist in der Soziologie ein Forschungsansatz der Qualitativen Sozialforschung und befasst sich mit der Rekonstruktion von Lebensverläufen und zugrunde liegender individuell vermittelter, gesellschaftlicher Sinnkonstruktionen auf der Basis biografischer Erzählungen oder persönlicher Dokumente. Das Textmaterial besteht in der Regel aus verschriftlichten Interviewprotokollen, die nach bestimmten Regeln ausgewertet und interpretiert werden. Qualitativer Forschungsansatz. Die Biografieforschung ist im Rahmen der qualitativen Forschungsansätze als Einzelfallstudie zu bewerten. Mit der Wahl, Einzelfallstudien durchzuführen, ist eine Herangehensweise an das Forschungsfeld bezeichnet und noch nicht eine Methode. Die Biografieforschung bedient sich bei der Datenauswertung nicht einer einzelnen Methode, sondern ist als Forschungsansatz zu verstehen, in dem verschiedene Methoden angewendet werden. Dabei ist die am häufigsten verwendete Methode der Datenerhebung bei Lebenden das narrative Interview („erzählen“ lassen) und/oder das offene Leitfadeninterview (Befragung), sonst überwiegt die klassischen (sozio)historische Quellenerschließung bis hin zur modernen Inhaltsanalyse. In der Gerontologie wird „biographische Methode“ die systematische Erkundung des Lebenslaufs einer Person im Rahmen eines größeren Forschungsvorhabens genannt. Dabei müssen die zur Unterstützung der Erinnerung gestellten Fragen auf ihre Offen- bzw. Geschlossenheit hin überprüft werden, damit die erzählende Person nicht von vorneherein durch die Interviewer auf eine Blickrichtung hin eingeengt wird. Dazu ist ein "Leitfaden" zu erstellen und auf verschieden Anforderungen zu überprüfen. Lebensspanne. Mit dem Durchschreiten der Lebensspanne geht ein stetiger Wandel von sozialen Rollen einher, die ein Individuum einnimmt und verliert (z.B. Fräulein Xyz, Mutter, empty nest, Pensionierung). Dabei ändert sich auch die persönliche Wahrnehmung der eigenen Rolle und der Aufgaben. Nach Ursula Lehr werden durchschnittlich 17,5 markante Einschnitte pro Biografie beobachtet. 2/3 davon als negativ, 1/3 positiv erlebt. Frauen berichten mehr Zwischenmenschliches, Männer mehr Sach-, Berufsorientiertes. Lebenserfahrung kann aber kaum nur als Durchschreiten einer "Normalbiografie" betrachtet werden. Das Wort Wahlbiografie trifft die Lage besser, weil gesellschaftliche Modernisierung heute vor allem in der Ausdifferenzierung von Lebens- und Familienformen liegt. Das mögliche Vorgehen in einer Studie. Technisch bedeutet dieser Forschungsansatz den Vergleich verschiedener Biografien unter gemeinsamen Ordnungskategorien. Dazu werden die mündlich erfassten Biografien in die Schriftform übertragen werden (transkribiert). Anschließend werden die Interviews durch mindestens zwei Personen ausgewertet (engl.: rating /gesprochen: rähting, bzw. neudeutsch geratet). Dies ermöglicht Vergleiche zwischen mehreren Biografien, z. B. ob sie Aussagen zum Forschungsthema enthalten. Zwei Analysten vergleichen danach ihre jeweilige Einschätzung, wie sehr ausgeprägt in der Biografie diese Ordnungskategorien in Erscheinung treten. (H. Thomae) Dimensionen der Biografie. Als zehn Dimensionen der "Altersbiografie" nach Hans Thomae sind zu berücksichtigen: genetische und Ernährungslage zu Beginn des Alternsprozesses, Veränderungen im biologischen System, Veränderungen im sozialen System, sozioökonomischer Status, ökologische Veränderungen, Veränderung des kognitiven Systems, Konstanz und Veränderung der Persönlichkeit, individueller Lebensraum, (subjektiv erlebte) Lebenszufriedenheit oder Grad der Balance zwischen Bedürfnissen und Situation, Fähigkeit, diese Balance herzustellen, und Sozialer Kompetenz (Fähigkeit, selbständig, verantwortungs- und aufgabenbezogen zu leben). Altern und Biografie als Aufgabe. Diverse Phasenlehren der Soziologie und Entwicklungspsychologie beschreiben Abschnitte und Aufgaben, die in diesem jeweiligen Alter(-sabschnitt) zu erfüllen sind; z. B. Selbstverwirklichung, Ordnung schaffen, Weisheit. Daraus entstand der psychologische Beschreibungsversuch von Entwicklungsaufgaben. Das Ziel kann Zufriedenheit mit der eigenen Geschichte, dem eigenen Leben, jedoch auch neue Aufgabenstellung an sich selbst heißen. Während früher von den vier Abschnitten "Kindheit, Junger Erwachsener, Erwachsener, Großeltern" (mit nahtlosem Übergang in die Phase eines hochaltrigen Menschen/Greises) relativ klare Vorstellungen herrschten, kann heute bereits von sieben deutlich verschiedenen Lebensabschnitten gesprochen werden. Sie haben jeweils eigene Rollendefinitionen und Verhaltensmuster. Es sind die eigenen Abschnitte "Jugend, Rentner, hochaltriger Mensch" hinzugekommen. Die Phase des Großelterndaseins beginnt gegenwärtig etwas später als zum Beginn des 20. Jahrhunderts und entspricht zeitlich etwa im Erwerbsleben dem Begriff „Ältere Arbeitnehmer“. Die Gerontologie weist auf eine zunehmende Ausdifferenzierung der Alternsphase hin. Der frühere stufenlose Übergang von hier ins Greisenalter ist durch die Lebensverlängerung entfallen. Hundertjährige sind zwar eine Besonderheit, aber sicher keine Ausnahmeerscheinung mehr. Neunzig- und Hundertjährige können sehr verschiedene Lebenswelten um sich herum errichtet haben. Gerontologie und Biografie. In der professionellen Altenpflege bringt die Biografie Vorteile in einer „Persönlich-Machung“ der bis dahin relativ anonymen Patienten/Kunden im Heim. Denn viele Personen ziehen dort ein, ohne dass ihre Lebensgeschichte bekannt ist. Sie erscheinen zunächst als eine Ansammlung von Problemlagen und nicht unbedingt als eine über Jahrzehnte gereifte Persönlichkeit. Angehörige, die dazu befragt werden könnten, sind manchmal nicht bekannt. Die Biografie ist dort also zunächst wie ein Puzzle mit vielen Leer-Stellen, die erst allmählich mit den Ereignissen des individuellen Lebens ausgefüllt werden können. B (Programmiersprache). Die Programmiersprache B wurde 1969 von Ken Thompson und Dennis Ritchie entwickelt. B ist stark beeinflusst von BCPL und ist Vorgänger der Programmiersprache C. B ist vor allem aus sprachhistorischen Gründen interessant, da es die Entwicklung von BCPL zu C genauer dokumentiert. Es wurde für die Übersetzung auf einer DEC PDP-7 mit 8 kb RAM entwickelt. Später wurde es auf PDP-11-Maschinen und Honeywell-Großrechner portiert, wo es zum Beispiel für das bekannte AberMUD von Alan Cox bis in die 1990er-Jahre benutzt wurde. Aufgrund der eingeschränkten Hardware-Ressourcen auf der Zielmaschine PDP-7 fehlen B einige BCPL-Merkmale, die die Übersetzung aufwendiger machen würden. Beispielsweise sind keine verschachtelten Funktionsdefinitionen möglich. Ebenso wegen der eingeschränkten Ressourcen erzeugte der B-Compiler auf der PDP-7 einen einfachen Zwischencode, der von einem Interpreter zur Laufzeit interpretiert werden muss. In B gab es wie in BCPL oder Forth nur einen Datentyp, dessen Bedeutung sich erst durch die benutzten Operatoren und Funktionen ergab. B ist also typlos. Es gab bereits viele Spracheigenschaften, die man in C finden kann. Einige Programme sind noch mit heutigen C-Compilern übersetzbar. Bei B wurde der Zuweisungsoperator wieder zu "=" wie in Heinz Rutishausers ursprünglicher Sprache "Superplan", welche Algol 58 beeinflusst hatte, wobei Algol 58 einen Doppelpunkt hinzufügte (":="). Code-Beispiel. Dieses Programm lässt sich auch noch mit heutigen C-Compilern (im K&R- oder "traditional"-Modus) übersetzen. Es ist jedoch "kein" ANSI C. Boolesche Algebra. In der Mathematik ist eine boolesche Algebra (oder ein boolescher Verband) eine spezielle algebraische Struktur, die die Eigenschaften der logischen Operatoren UND, ODER, NICHT sowie die Eigenschaften der mengentheoretischen Verknüpfungen Durchschnitt, Vereinigung, Komplement verallgemeinert. Gleichwertig zu booleschen Algebren sind "boolesche Ringe", die von UND und ENTWEDER-ODER (exklusiv-ODER) beziehungsweise Durchschnitt und symmetrischer Differenz ausgehen. Zur Geschichte. Die boolesche Algebra ist nach George Boole benannt, da sie auf dessen Logikkalkül von 1847 zurückgeht, in dem er erstmals algebraische Methoden in der Klassenlogik und Aussagenlogik anwandte. Ihre heutige Form verdankt sie der Weiterentwicklung durch Mathematiker wie John Venn, William Stanley Jevons, Charles Peirce, Ernst Schröder und Giuseppe Peano. In Booles originaler Algebra entspricht die Multiplikation dem UND, die Addition dagegen weder dem exklusiven ENTWEDER-ODER noch dem inklusiven ODER („mindestens eines von beiden ist wahr“). Die genannten Boole-Nachfolger gingen dagegen vom inklusiven ODER aus: Schröder entwickelte 1877 das erste formale Axiomensystem einer booleschen Algebra in additiver Schreibweise. Peano brachte es 1888 in die heutige Form (siehe unten) und führte dabei die Symbole formula_4 und formula_5 ein. Das aussagenlogische ODER-Zeichen formula_6 stammt von Russell 1906; Arend Heyting führte 1930 die Symbole formula_7 und formula_8 ein. Den Namen „boolesche Algebra“ bzw. „boolean algebra“ prägte Henry Maurice Sheffer erst 1913. Das exklusive ENTWEDER-ODER, das Booles originaler Algebra näher kommt, legte erst Ivan Ivanovich Žegalkin 1927 dem booleschen Ring zugrunde, dem Marshall Harvey Stone 1936 den Namen gab. Definition. Jede Formel in einer booleschen Algebra hat eine "duale Formel", die durch Ersetzung von 0 durch 1 und formula_1 durch formula_2 und umgekehrt entsteht. Ist die eine Formel gültig, dann ist es auch ihre duale Formel, wie im Peano-Axiomensystem jeweils (n) und (n'). Die Komplemente haben nichts mit inversen Elementen zu tun, denn die Verknüpfung eines Elementes mit seinem Komplement liefert das neutrale Element der jeweils "anderen" Verknüpfung. Definition als Verband. Eine "boolesche Algebra" ist ein distributiver komplementärer Verband. Diese Definition geht nur von den Verknüpfungen formula_1 und formula_2 aus und umfasst die Existenz von 0, 1 und formula_3 und die unabhängigen Axiome (1)(1’)(2)(2’)(11)(11’)(4)(9)(9’) des gleichwertigen Axiomensystems von Peano. Auf einer booleschen Algebra ist wie in jedem Verband durch formula_38 eine partielle Ordnung definierbar; bei ihr haben je zwei Elemente ein Supremum und ein Infimum. Bei der mengentheoretischen Interpretation ist formula_39 gleichbedeutend zur Teilmengenordnung formula_40. Definition nach Huntington. Auch aus diesen vier Axiomen lassen sich alle oben genannten Gesetze und weitere ableiten. Auch lässt sich aus dem Axiomensystem, das zunächst nur die Existenz neutraler und komplementärer Elemente fordert, deren Eindeutigkeit ableiten, d. h. es kann nur ein Nullelement, ein Einselement, und zu jedem Element nur ein Komplement geben. Schreibweise. Die Operatoren boolescher Algebren werden verschiedenartig notiert. Bei der logischen Interpretation als Konjunktion, Disjunktion und Negation schreibt man sie als formula_1, formula_2 und formula_3 und verbalisiert sie als UND, ODER, NICHT bzw. AND, OR, NOT. Bei der mengentheoretischen Interpretation als Durchschnitt, Vereinigung und Komplement werden sie als formula_4, formula_5 und formula_56 (formula_57) geschrieben. Zur Betonung der Abstraktion in der allgemeinen booleschen Algebra werden auch Symbolpaare wie formula_58, formula_59 oder formula_60, formula_61 benutzt. Mathematiker schreiben gelegentlich · für UND und + für ODER (wegen ihrer entfernten Ähnlichkeit zur Multiplikation und Addition anderer algebraischer Strukturen) und stellen NICHT mit einem Überstrich, einer Tilde ~, oder einem nachgestellten Prime-Zeichen dar. Diese Notation ist auch in der Schaltalgebra zur Beschreibung der booleschen Funktion digitaler Schaltungen üblich; dort benutzt man oft die definierbaren Verknüpfungen NAND (NOT AND), NOR (NOT OR) und XOR (EXCLUSIVE OR). In diesem Artikel werden die Operatorsymbole formula_1, formula_2 und formula_3 verwendet. Zweielementige boolesche Algebra. Diese Algebra hat Anwendungen in der Aussagenlogik, wobei 0 als „falsch“ und 1 als „wahr“ interpretiert werden. Die Verknüpfungen formula_68 entsprechen den logischen Verknüpfungen UND, ODER, NICHT. Ausdrücke in dieser Algebra heißen "boolesche Ausdrücke". Auch für digitale Schaltungen wird diese Algebra verwendet und als Schaltalgebra bezeichnet. Hier entsprechen 0 und 1 zwei Spannungszuständen in der Schalterfunktion von AUS und AN. Das Eingangs-Ausgangs-Verhalten jeder möglichen digitalen Schaltung kann durch einen booleschen Ausdruck modelliert werden. In der Aussagenlogik nennt man diese Regeln Resolutionsregeln. Mengenalgebra. Die Potenzmenge einer Menge formula_74 wird mit Durchschnitt und Vereinigung zu einer booleschen Algebra. Dabei ist 0 die leere Menge formula_75 und 1 die ganze Menge formula_74 und die Negation das Komplement; der Sonderfall formula_77 ergibt die einelementige Potenzmenge mit 1 = 0. Auch jeder formula_74 enthaltende, bezüglich Vereinigung und Komplement abgeschlossene Teilbereich der Potenzmenge von formula_74 ist eine boolesche Algebra, die als "Teilmengenverband" oder Mengenalgebra bezeichnet wird. Der Darstellungssatz von Stone besagt, dass jede boolesche Algebra isomorph (s. u.) zu einer Mengenalgebra ist. Daraus folgt, dass die Mächtigkeit jeder endlichen booleschen Algebra eine Zweierpotenz ist. Über die Venn-Diagramme veranschaulicht die Mengenalgebra boolesche Gesetze, beispielsweise Distributiv- und de-Morgansche-Gesetze. Darüber hinaus basiert auf ihrer Form als KV-Diagramm eine bekannte Methode der systematischen Vereinfachung boolescher Ausdrücke in der Schaltalgebra. Weitere Beispiele für boolesche Mengenalgebren stammen aus der Topologie. Die Menge der abgeschlossenen offenen Mengen eines topologischen Raums bildet mit den üblichen Operationen für die Vereinigung, den Durchschnitt und das Komplement von Mengen eine boolesche Algebra. Die regulär abgeschlossenen Mengen und die regulär offenen Mengen stellen mit den jeweiligen regularisierten Mengenoperationen formula_80, formula_81 und formula_82 ebenfalls boolsche Algebren dar. Andere Beispiele. Die Menge aller endlichen oder koendlichen Teilmengen von formula_83 bildet mit Durchschnitt und Vereinigung eine boolesche Algebra. Für jede natürliche Zahl "n" ist die Menge aller positiven Teiler von "n" mit den Verknüpfungen ggT und kgV ein distributiver beschränkter Verband. Dabei ist 1 das Nullelement und "n" das Einselement. Der Verband ist boolesch genau dann, wenn "n" quadratfrei ist. Dieser Verband heißt Teilerverband von "n". Ist formula_84 ein Ring mit Einselement, dann definieren wir die Menge aller idempotenten Elemente des Zentrums. Mit den Verknüpfungen wird formula_87 zu einer booleschen Algebra. Ist formula_88 ein Hilbertraum und formula_89 die Menge der Orthogonalprojektionen auf formula_88, dann definiert man für zwei Orthogonalprojektionen formula_91 und formula_92 wobei formula_94 gleich formula_95 oder formula_96 sein soll. In beiden Fällen wird formula_89 zu einer booleschen Algebra. Der Fall formula_98 ist in der Spektraltheorie von Bedeutung. Homomorphismen. Es folgt daraus, dass formula_105 für alle "a" aus "A". Die Klasse aller booleschen Algebren wird mit diesem Homomorphismenbegriff eine Kategorie. Ist ein Homomorphismus "f" zusätzlich bijektiv, dann heißt formula_106 "Isomorphismus", und formula_87 und formula_41 heißen "isomorph". Boolesche Ringe. Eine andere Sichtweise auf boolesche Algebren besteht in sogenannten "booleschen Ringen": Das sind Ringe mit Einselement, die zusätzlich idempotent sind, also das Idempotenzgesetz formula_109 erfüllen. Jeder idempotente Ring ist kommutativ. Die Addition im booleschen Ring entspricht bei der mengentheoretischen Interpretation der symmetrischen Differenz und bei aussagenlogischer Interpretation der Alternative ENTWEDER-ODER (exclusiv-ODER, XOR); die Multiplikation entspricht der Durchschnittsbildung beziehungsweise der Konjunktion UND. Der Potenzreihen-Ring modulo formula_114 über diesem Körper ist ebenfalls ein boolescher Ring, denn formula_115 wird mit formula_116 identifiziert und liefert die Idempotenz. Diese Algebra benutzte bereits Žegalkin 1927 als Variante der originalen Algebra von Boole, der den Körper der reellen Zahlen zugrunde legte, welcher noch keinen booleschen Ring ergibt. Ferner ist eine Abbildung formula_100 genau dann ein Homomorphismus boolescher Algebren, wenn sie ein Ringhomomorphismus (mit Erhaltung der Eins) boolescher Ringe ist. Darstellungssatz von Stone. Für jeden topologischen Raum ist die Menge aller abgeschlossenen offenen Teilmengen eine boolesche Algebra mit Durchschnitt und Vereinigung. Der Darstellungssatz von Stone, bewiesen von Marshall Harvey Stone, besagt, dass umgekehrt für jede boolesche Algebra ein topologischer Raum (genauer ein Stone-Raum, das heißt ein total unzusammenhängender, kompakter Hausdorffraum) existiert, in dem sie als dessen boolesche Algebra abgeschlossener offener Mengen realisiert wird. Der Satz liefert sogar eine kontravariante Äquivalenz zwischen der Kategorie der Stone-Räume mit stetigen Abbildungen und der Kategorie der booleschen Algebren mit ihren Homomorphismen (die Kontravarianz erklärt sich dadurch, dass sich für formula_128 stetig die boolesche Algebra der abgeschlossenen offenen Mengen in formula_129 durch "Urbildbildung" aus der von formula_130 ergibt, nicht umgekehrt durch Bildung des Bildes). Betablocker. Betablocker, auch "Beta-Rezeptorenblocker", "β-Blocker" oder "Beta-Adrenozeptor-Antagonisten", sind eine Reihe ähnlich wirkender Arzneistoffe, die im Körper β-Adrenozeptoren blockieren und so die Wirkung des „Stresshormons“ Adrenalin und des Neurotransmitters Noradrenalin hemmen. Die wichtigsten Wirkungen von Betablockern sind die Senkung der Ruheherzfrequenz und des Blutdrucks, weshalb sie bei der medikamentösen Therapie vieler Krankheiten, insbesondere von Bluthochdruck und Koronarer Herzkrankheit, eingesetzt werden. Wegen der gut belegten Wirksamkeit und der großen Verbreitung der Krankheiten, bei denen Betablocker zum Einsatz kommen, zählen sie zu den am häufigsten verschriebenen Arzneimitteln: 2006 wurden in Deutschland 1,98 Milliarden definierte Tagesdosen (DDD) Betablocker verschrieben. Der bekannteste und mit Abstand am meisten verschriebene Wirkstoff ist "Metoprolol" (für das Jahr 2006: 780,9 Millionen DDD). In manchen Sportarten ist die Einnahme von β-Blockern nicht erlaubt; sie stehen in Disziplinen, die eine hohe Konzentration und präzise Bewegungen erfordern, als leistungssteigernde Substanzen auf der Dopingliste. Wirkstoffe und chemischer Aufbau. Einige β1-selektive Betablocker (ohne Angabe der Stereochemie). Einige nicht-selektive Betablocker (ohne Angabe der Stereochemie). Strukturell sind Betablocker Phenolether von vicinalen Diolen. Für die Wirksamkeit von Betablockern entscheidend sind die Subtypen β1 und β2 des β-Adrenozeptors. Die verschiedenen Wirkstoffe unterscheiden sich in der Affinität für diese Rezeptoren. Der erste Betablocker, "Propranolol", wurde in den 1960er Jahren entwickelt. Dieser wirkt ungefähr gleich stark auf beide Typen des Rezeptors und wird daher als "nichtselektiver" Betablocker bezeichnet. In der Folge wurden selektivere Betablocker entwickelt, da vor allem die Blockade des β1-Adrenozeptors erwünscht ist. Ein Wirkstoff, der "ausschließlich" den β2-Adrenozeptor blockiert, ist nicht verfügbar. Wirkstoffe wie "Metoprolol" oder in noch ausgeprägterer Form "Bisoprolol" wirken aber stärker auf den β1-Subtyp und werden deshalb als "selektive" Betablocker bezeichnet. Im Gegensatz zu Alphablockern haben Betablocker große strukturelle Ähnlichkeit zu β-Sympathomimetika. Deshalb haben manche der Betablocker eine geringfügige erregende (agonistische) Wirkung auf Beta-Rezeptoren. Diese Eigenschaft wird als "intrinsische sympathomimetische Aktivität" (ISA) oder "partielle agonistische Aktivität" (PAA) bezeichnet und ist meist unerwünscht. Einige neuere Betablocker haben zusätzliche gefäßerweiternde (vasodilatierende) Eigenschaften: Carvedilol bewirkt eine Blockade des α1-Adrenozeptors, Nebivolol eine Stickstoffmonoxid-Freisetzung und Celiprolol hat eine "aktivierende" Wirkung am β2-Adrenozeptor. Der Bedeutung der Enantiomerenreinheit der synthetisch hergestellten Wirkstoffe wird zunehmend Beachtung eingeräumt, denn die beiden Enantiomeren eines chiralen Arzneistoffes zeigen fast immer eine unterschiedliche Pharmakologie und Pharmakokinetik. In einer Übersicht wurden die stereospezifischen Wirkungen der Enantiomeren zahlreicher Betablocker beschrieben. Aus Unkenntnis der stereochemischen Zusammenhänge wurden derartige Unterschiede oft ignoriert. Arzneimittel enthalten Arzneistoffe häufig als Racemat (1:1-Gemisch der Enantiomere), wobei aus grundsätzlichen Überlegungen die Verwendung des besser bzw. nebenwirkungsärmer wirksamen Enantiomers zu bevorzugen wäre. Im Fall der β-Blocker ist deren pharmakologische Aktivität in der Regel praktisch vollständig auf das ("S")-Enantiomer zurückzuführen, das 10 bis 500 mal aktiver als das Distomer, also ("R")-Enantiomer, ist. Timolol, Penbutolol und Levobunolol werden als enantiomerenreine ("S")-konfigurierte Arzneistoffe vermarktet, die meisten anderen β-Blocker werden als Racemate eingesetzt. Wirkmechanismus. Betablocker hemmen die aktivierende Wirkung von Adrenalin und Noradrenalin auf die β-Adrenozeptoren, wodurch der stimulierende Effekt des Sympathikus auf die Zielorgane, vornehmlich das Herz, gedämpft wird. Die Wirkungen auf andere Organsysteme zeigen sich als gegengerichtet zu den Wirkungen von Adrenalin. Zwei Typen von β-Adrenozeptoren spielen dabei eine Rolle: Über β1-Adrenozeptoren wird vor allem die Herzleistung (Herzkraft und -frequenz) und direkt der Blutdruck angeregt. Eine Anregung der β2-Adrenozeptoren wirkt dagegen auf die glatten Muskeln der Bronchien, der Gebärmutter sowie der Blutgefäße. Eine Blockierung dieser Rezeptoren wirkt kontrahierend auf die glatte Muskulatur. So erhöht sich unter anderem auch der Tonus der Bronchialmuskulatur, was zu deren Verkrampfung führen kann. Obstruktive Bronchialerkrankungen wie Asthma bronchiale oder COPD sind deshalb Kontraindikationen für eine Therapie mit β2-wirksamen Betablockern. Der β1-Adrenozeptor findet sich auch in der Niere, wo er die Ausschüttung des blutdrucksteigernden Enzyms Renin steuert. Wahrscheinlich ist das der Hauptgrund für die langfristige Wirksamkeit der Betablocker bei der Senkung des Blutdrucks. Hier sind die COPD so wie ein Asthma bronchiale mittlerweile keine Kontraindikationen mehr, da immer der Nettonutzen zu berücksichtigen ist. Bluthochdruck. Bei der medikamentösen Therapie von Arterieller Hypertonie werden Betablocker meist in Kombination mit anderen Antihypertensiva angewendet. Die Einstufung als ein Medikament der ersten Wahl wurde durch Studien in Frage gestellt. Nach den Leitlinien der Hypertoniebehandlung von 2008 gehören sie weiterhin zu den Medikamenten der ersten Wahl, da sie insbesondere bei Patienten mit koronarer Herzkrankheit und bei Herzinsuffizienz günstige Effekte haben. Nachteilig wirken sie sich jedoch aus auf das Risiko einer Gewichtszunahme, den Lipid- und den Glukosestoffwechsel. „Betablocker sollten daher vermieden werden bei Patienten mit metabolischem Syndrom oder seinen Komponenten, wie Bauchfettleibigkeit, hochnormalen oder erhöhten Plasmaglucosespiegeln und pathologischer Glucosetoleranz.“ (Zitat Leitlinie) Die Wirksamkeit von Betablockern zur Senkung des Blutdrucks ist zwar unbestritten, wie genau diese Senkung aber erreicht wird, ist nicht vollständig geklärt. Wahrscheinlich handelt es sich um eine Kombination von Wirkungen. So wird zu Beginn der Behandlung durch Minderung der Herzleistung eine Blutdrucksenkung erreicht. Langfristig spielen aber wohl auch die Hemmung der Sympathikusaktivität und die Verminderung der Freisetzung von Renin eine Rolle. Koronare Herzkrankheit und Herzinfarkt. Betablocker senken durch die Abnahme der Herzleistung den Sauerstoffbedarf des Herzens. Außerdem wird über die Senkung der Herzfrequenz eine bessere Durchblutung der Herzkranzgefäße erreicht, da diese nur in der Diastole durchblutet werden. Betablocker sind daher die wichtigsten Medikamente bei stabiler Angina Pectoris und werden – mit demselben Ziel – auch nach einem Herzinfarkt eingesetzt. Für beide Indikationen ist eine lebensverlängernde Wirkung von Betablockern eindeutig belegt. Herzinsuffizienz. Auch bei stabiler, chronischer Herzinsuffizienz belegen Studien eine Prognoseverbesserung durch Anwendung von Betablockern ab dem Stadium NYHA-II. Hier steht die Minderung des Sympathikuseinflusses auf das Herz und die Ökonomisierung der Herzarbeit im Vordergrund, wobei der genaue Wirkmechanismus noch nicht geklärt ist. Wichtig ist bei der Behandlung der Herzinsuffizienz mit Betablockern, die Behandlung einschleichend zu gestalten, also mit niedrigen Dosen zu beginnen und die Dosis langsam zu steigern. Herzrhythmusstörungen. Zur Behandlung tachykarder Herzrhythmusstörungen stehen verschiedene Klassen von Antiarrhythmika zur Verfügung. Betablocker werden daher auch als „Klasse II Antiarrhythmika“ bezeichnet. Im Gegensatz zu vielen anderen Antiarrhythmika ist die lebensverlängernde Wirkung der Betablocker nachgewiesen, sodass sie zu den wichtigsten Medikamenten der antiarrhythmischen Therapie gehören. Für die Wirksamkeit der Betablocker spielt ihre erregungshemmende Wirkung am Herzen die entscheidende Rolle. Compliance. Bei einer Analyse der Compliance von etwa 31.500 Patienten, die einen Herzinfarkt mindestens 15 Monate überlebt hatten und denen unter anderem auch Betablocker verschrieben worden waren, wurde festgestellt, dass eine schlechte Einnahmetreue die Lebenserwartung senkt. Die Compliance wurde als gut beurteilt, wenn die Patienten mindestens 80 % der verordneten Medikamente einlösten, als mäßig, wenn sie 40–79 % einlösten. Die Mortalität der Patienten mit „mäßiger“ war im Vergleich zu denen mit „guter“ Compliance um 1 % (innerhalb von einem Jahr) bzw. 13 % (zwei Jahre) erhöht. Bliss-Symbol. Bliss-Symbole für Mann und Frau Bliss-Symbole sind eine von Charles K. Bliss in ihren Grundzügen in den 1940er Jahren entwickelte Pasigrafie, eine Sammlung von piktografischen und ideografischen Zeichen. Jedes Zeichen steht für einen Begriff, und mehrere Symbole können kombiniert werden, um Sätze zu bilden oder Ideen auszudrücken. Charles Bliss war durch chinesische Schriftzeichen inspiriert, die es Sprechern unterschiedlicher Sprachen erlauben, miteinander zu kommunizieren. Über einen Zeitraum von 40 Jahren entwarf er sein konsequent logisch aufgebautes Kommunikationssystem einer Sonderschrift zur Unterstützung des gegenseitigen internationalen Verstehens und Verständnisses. Dieses grafische Medium sollte einen Beitrag zu besserer Zusammenarbeit und Verständigung auf internationaler Ebene zwischen Menschen verschiedener sprachlicher Herkunft leisten. Diese Absicht, einen Beitrag zur Verständigung zwischen Kulturen zu leisten, hat sich jedoch nicht erfüllt. Das Bliss-Symbol-System erhielt jedoch in einem ganz anderen Feld der Kommunikation seine Bedeutung und wurde damit weltweit bekannt. Es ist eines der ersten Systeme, die als Hilfsmittel im Rahmen der sonderpädagogischen Methode Unterstützte Kommunikation für Menschen eingesetzt wurden, die infolge von motorischen oder kognitiv bedingten Sprechstörungen nicht oder nur sehr eingeschränkt über die Lautsprache mit anderen kommunizieren können. Seit seiner erstmaligen Verwendung im Jahr 1971 im Ontario Crippled Children's Centre (Toronto, Kanada) erscheinen Bliss-Symbole als Möglichkeit der grafischen Darstellung von Kommunikationsinhalten auf den verschiedensten Arten von Kommunikationstafeln. Auch Computerprogramme und Programme für Sprachausgabegeräte bauen auf dem Bliss-Symbol-System auf. Die Symbole sind im BCI-Standard (BCI = Blissymbolic Communication International) festgelegt, und werden aus knapp 120 Grundsymbolen („key symbols“) aufgebaut. Insgesamt werden knapp 4500 Symbole benutzt. Zur Kommunikation wird Bliss mit Hilfe von Symboltafeln eingesetzt. Der Benutzer kommuniziert, indem er der Reihe nach auf Bliss-Symbole zeigt (beispielsweise per elektronischer Auswahl). Der Kommunikationspartner liest die Bedeutungen der Symbole, die darüber in alphabetischer Schrift stehen. Erst vor kurzem wurde in Kanada ein Pilotprojekt zur Verwendung von Bliss im Internet gestartet. Bliss-Texte können nun als elektronische Post versendet werden. Beispielssatz. „Ich möchte ins Kino gehen.“ Mit einem Beispiel soll hier die Funktionsweise der Bliss-Symbole veranschaulicht werden. Bundesstaat (Föderaler Staat). Weltweit gibt es 28 föderative Staaten, darunter Deutschland, Österreich und die Schweiz. Als Bundesstaat wird ein Staat bezeichnet, der aus mehreren Teil- oder Gliedstaaten zusammengesetzt ist. Rechtlich besteht ein solcher Bundesstaat aus mehreren Staatsrechtssubjekten, das heißt politischen Ordnungen mit Staatsqualität, und vereint deshalb in der Regel verschiedene politische Ebenen in sich: eine Bundesebene und mindestens eine Ebene der Gliedstaaten. Damit unterscheidet sich der föderal organisierte Staat sowohl von einem locker gefügten Staatenbund als auch von einem zentralistischen Einheitsstaat. Ein Bundesstaat ist demnach eine staatsrechtliche Verbindung von (nichtsouveränen) Staaten zu einem (souveränen) Gesamtstaat. Die Beziehungen zwischen diesem Bund und den Gliedstaaten und zwischen Letzteren untereinander sind staatsrechtlicher (nicht völkerrechtlicher) Art. Im deutschen Verfassungsrecht ist der Begriff des Bundesstaates ein normativer Begriff. Organisation. a> mit seinen Bundesländern, dargestellt mit Landesfarben und Wappen Ein Staat kann entweder unitarisch oder föderativ ("bundesstaatlich") organisiert sein. In diesem Sinne ist er entweder ein Einheitsstaat oder ein Bundesstaat. Ein traditionelles Beispiel für einen Einheitsstaat ist Frankreich. Dort verfügt allein die oberste, die nationale Ebene im Staatsaufbau über Souveränität und Staatlichkeit. Im Gegensatz dazu besitzen föderale Systeme wie das der Vereinigten Staaten von Amerika oder der Bundesrepublik Deutschland neben einem souveränen Gesamtstaat – mit republikanischer Staatsform wird dieser häufig als "Bundesrepublik", ansonsten als föderale Republik bezeichnet – auch untergeordnete Einheiten mit staatlicher Qualität (Gliedstaaten/Bundesländer). Diese Gliedstaaten sind auf dem Gebiet ihrer staatlichen Zuständigkeit Teilstaaten. Sie haben das Recht, vieles selbstständig und ohne Einmischung der Bundesebene zu regeln, wobei dort angesiedelte Staatsorgane (vor allem "oberste Bundesorgane" wie das Bundesparlament oder oberste Bundesgerichte) ihnen – im hierarchischen Sinn – übergeordnet sind. Das Schulwesen in den Vereinigten Staaten und in Deutschland wird beispielsweise in den Gliedstaaten organisiert, während die nationale Ebene etwa die Verteidigung und Außenpolitik bestimmt. In einem föderativen Staat besteht das Parlament typischerweise aus zwei Kammern. Die eine dient der direkten Volksvertretung und repräsentiert das Volk als Ganzes. Die andere vertritt grundsätzlich die Interessen der Gliedstaaten (Länderkammer). Abgrenzung und Entwicklung. Ein föderativer Staat oder "Föderation" (staatsrechtliche Staatenverbindung) ist nicht nur vom Einheitsstaat abzugrenzen, sondern ebenso vom Staatenbund (völkerrechtliche Staatenverbindung, ggf. "Konföderation"). Die Frage nach dem Sitz der Souveränität zur Abgrenzung staatlicher Organisationsverbände heißt: Bundesstaat oder Staatenbund? Dabei ist ein Staatenbund eine lose Verbindung von Einzelstaaten, die ihre Souveränität behalten, sodass die föderale Struktur ohne Preisgabe wesentlicher staatlicher Kompetenzen besteht. Der Staatenbund als solcher kann somit nur Entscheidungen treffen, wenn die Einzelstaaten diese gutheißen. Deutschland. In der deutschen Geschichte gilt der Deutsche Bund (1815–1866) als wichtigstes Beispiel für einen Staatenbund, der Norddeutsche Bund von 1867 bis 1871 hingegen war der erste deutsche Bundesstaat. Das Grundgesetz für die Bundesrepublik Deutschland spricht in Artikel 20 erstmals ausdrücklich von einem „Bundesstaat“ zur Verankerung des föderativen Prinzips. 1871 gründete ein Bündnisvertrag deutscher Staaten den Bundesstaat des Deutschen Reiches. Der Bundesstaat der Weimarer Republik entstand 1919 ebenso wie der Bundesstaat der Bundesrepublik Deutschland 1949 durch die verfassungsgebende Gewalt des Volkes. Schweiz. Die Schweiz ist seit 1848 ein Bundesstaat. Die Kantone sind souverän, soweit ihre Souveränität nicht durch die Bundesverfassung beschränkt ist; sie üben alle Rechte aus, die nicht dem Bund übertragen sind. Grenzfälle. Die folgenden Staaten weisen zwar eine föderalistische Struktur auf, die Befugnisse der Gliedstaaten sind aber so gering ausgestaltet, dass sie weder eindeutig als Bundesstaaten noch als Einheitsstaaten zugeordnet werden können. BID-Bereich. Die verwandten Bereiche der Bibliotheks-, Informations- und Dokumentationswissenschaft (BID) beschäftigen sich alle im weitesten Sinne mit Information und Wissen. In der Dokumentationswissenschaft geht es vor allem um die Sammlung und Verarbeitung von Informationen zu deren Auffindbarmachung. Auch die Bibliothekswissenschaft widmet sich dieser Aufgabe, jedoch bereitet sie die Ergebnisse für die Nutzung in Bibliotheken auf. Das vielfältige Themenspektrum der Informationswissenschaft beinhaltet einen Schwerpunkt auf der allgemeinen Analyse von Informationsprozessen und weist eine größere Nähe zur Informatik auf als die anderen beiden Disziplinen. Während sich unter anderem im englischsprachigen Ausland die Library and Information Science eher als zusammenhängendes Sachgebiet versteht, ist in Deutschland noch immer eine Trennung in diese drei Bereiche festzustellen. Weitere im Informationsbereich tätige Einrichtungen sind Nachrichten- und Presseagenturen und die Presse. Anstatt für die Informationssuche selbst diese Einrichtungen in Anspruch zu nehmen, kann man auch durch einen so genannten Informationsbroker oder Pressedienste suchen lassen. Einrichtungen des BID-Bereiches. Viele Facheinrichtungen unterhalten gleichzeitig Dokumentationszentrum, Bibliothek und Archiv und bieten ihre Bibliographien als Datenbank an. Ob es zu einem Thema ein eigenes Dokumentationszentrum gibt, hängt vor allem davon ab, ob sich ein Geldgeber dafür findet. Dies wiederum wird u. a. von der wissenschaftlichen Relevanz des Themas und der Möglichkeit einer Abgrenzung gegenüber anderen Disziplinen bestimmt. Vereinigungen. "Vereinigungen aus dem Bibliothekarischen Bereich sind unter Bibliothekarische Vereinigungen zusammengefasst." Die Deutsche Gesellschaft für Informationswissenschaft und Informationspraxis e. V. (DGI, bis 1999 DGD) ist eine Interessenvereinigung von Berufstätigen und Wissenschaftlern im Bereich Informations- und Dokumentationswissenschaft. Vergleichbare Vereinigungen sind die Österreichische Gesellschaft für Dokumentation und Information (ÖGDI) und die Schweizerische Vereinigung für Dokumentation (SVD/ASD). Baden (Land). Baden war von 1806 bis 1871 ein souveräner Staat und dann bis 1945 ein Staat innerhalb des Deutschen Reiches. Bis 1918 war Baden als Großherzogtum Baden eine Monarchie (zunächst absolutistisch, dann konstitutionell), von 1918 bis 1933 eine demokratische Republik und von 1933 bis 1945 Teil der Hitlerdiktatur im nationalsozialistischen Reich. Heute sind die ehemals badischen Gebiete Teil des Bundeslandes Baden-Württemberg innerhalb der Bundesrepublik Deutschland. Seit dem hohen Mittelalter herrschten verschiedene Linien des gleichnamigen Adelsgeschlechts, deren Fürstentümer zwar „Baden“ im Namen führten, jedoch unterschiedliche Regionen umfassten. Das in der napoleonischen Zeit Anfang des 19. Jahrhunderts geformte Großherzogtum Baden wurde mit der deutschen Reichsgründung 1871 zum Bundesstaat, dessen Grenzen bis zum Ende des Zweiten Weltkriegs bestehen blieben. Von 1947 bis 1952 bestand ebenfalls ein Land „Baden“, das aber infolge der alliierten Besetzung Deutschlands nur aus der Südhälfte des historischen Badens bestand, siehe hierzu Baden (Südbaden). Nordbaden war in dieser Zeit Teil von Württemberg-Baden. 1952 gingen Südbaden und Württemberg-Baden zusammen mit Württemberg-Hohenzollern im neu geschaffenen Bundesland Baden-Württemberg auf. Bevölkerung und Fläche. Baden hatte im Mai 1939 2.518.103 Einwohner auf 15.070 km². Geographische Lage. Baden liegt im Südwesten Deutschlands. Zentrale Landschaft Badens mit den meisten großen Städten ist die Oberrheinische Tiefebene. Im Westen und Süden von Rhein und Bodensee begrenzt, erstreckt sich das Land rechtsrheinisch vom Linzgau über Lörrach, Freiburg und Karlsruhe, der größten Stadt, bis Mannheim und weiter bis an Main und Tauber. Es grenzt im Westen ans Elsass, im Süden an die Schweiz, im Nordwesten an die Pfalz, im Norden an Hessen und im Nordosten an Bayern. Die östliche Grenze nach Württemberg verläuft durch Kraichgau und Schwarzwald; von dort bis zum Rhein war Baden in der Mitte teilweise nur 30 Kilometer breit. Die engste Stelle („Wespentaille“) betrug nur 17,2 Kilometer (Abstand von der württembergischen Grenze im Bereich der Gemarkung Gaggenau-Michelbach bis zum Rhein). Städte und Regionen. Karlsruhe war ab 1715 Residenzstadt, zunächst der Markgrafen von Baden-Durlach, dann ab 1771 der vereinigten Markgrafschaften Baden-Durlach und Baden-Baden und später der Großherzöge von Baden sowie bis zum Ende des Zweiten Weltkriegs Hauptstadt des 1918 gegründeten "Freistaats" beziehungsweise der "(Demokratischen) Republik Baden". Die Titel „Residenzstadt“ bzw. „Hauptstadt“ trug neben Karlsruhe auch damals Badens größte Stadt Mannheim. "Großstädte" auf badischem Gebiet sind (von Nord nach Süd): Mannheim, Heidelberg, Karlsruhe, Pforzheim und Freiburg im Breisgau. Größere "Mittelstädte" in Baden sind (von Nord nach Süd): Weinheim, Mosbach, Sinsheim, Eppingen, Bruchsal, Bretten, Ettlingen, Rastatt, Gaggenau, Baden-Baden, Bühl, Kehl, Offenburg, Lahr, Emmendingen, Villingen-Schwenningen (badisch jedoch nur der westliche Stadtteil Villingen), Lörrach, Weil am Rhein, Rheinfelden, Singen (Hohentwiel), Radolfzell am Bodensee und Konstanz. Geschichte. Die Entwicklung des badischen Territoriums zwischen 1803 und 1819 Markgrafschaft. Der Name stammt von den "Markgrafen von Baden", einer im 12. Jahrhundert etablierten Adelsfamilie, die mit den Herzögen von Zähringen stammverwandt war. Baden war nie eine Mark; der Markgrafentitel war ursprünglich verbunden mit der Mark Verona, die ebenfalls von den Zähringern regiert wurde. Sie übertrugen den Titel und nannten sich fortan "Markgrafen von Baden". Hermann II. war der erste Zähringer, der sich nach dem neuen Stammsitz, der Burg Hohenbaden hoch über den Thermalbädern der damaligen Stadt Baden (heute Baden-Baden), Markgraf von Baden nannte. Von 1535 bis 1771 war die Herrschaft in die Linien Baden-Durlach (evangelisch) und Baden-Baden (katholisch) geteilt. Markgraf Ludwig Wilhelm von Baden-Baden, der so genannte „Türkenlouis“ (1677 bis 1707), machte Rastatt zu seiner Residenz. Karl III. Wilhelm von Baden-Durlach wählte das 1715 erbaute Karlsruhe als neue Residenz. 1771 erbte Karl Friedrich von Baden-Durlach die Besitzungen der erloschenen Linie Baden-Baden, wodurch die beiden Markgrafschaften wieder vereinigt wurden. Großherzogtum Baden in der napoleonischen Zeit. Das moderne Land Baden entstand zu Beginn des 19. Jahrhunderts unter der Protektion Napoleons und durch die geschickte Diplomatie des badischen Gesandten Sigismund Freiherr von Reitzenstein, der als der eigentliche Schöpfer des modernen Baden gilt. Mit den Neuerwerbungen kam Baden, das bis dahin über keine eigene höhere Bildungsstätte verfügt hatte, auch in den Besitz der beiden Universitäten in Freiburg im Breisgau und Heidelberg. Mit der Ausweitung des Territoriums ging außerdem eine Rangerhöhung des Markgrafen einher. Im Reichsdeputationshauptschluss erhielt Karl Friedrich eine der vier freigewordenen Kurwürden. Bis zur Errichtung des Rheinbunds war Baden somit kurzzeitig das Kurfürstentum Baden. Im Pressburger Frieden erhielt Karl Friedrich innerhalb des Reiches die volle Souveränität in gleichem Umfang wie bis dahin nur Preußen und Österreich. Mit dem Beitritt zum Rheinbund schließlich wurde er zum Ausgleich für die damit hinfällige Kurwürde zum Großherzog erhoben. Damit war Baden ein souveräner Staat und hatte diejenige territoriale Ausdehnung, die im Wesentlichen bis 1945 Bestand haben sollte. Das badische Rheinbundkontingent kämpfte anschließend an der Seite Frankreichs gegen Preußen, auf der Iberischen Halbinsel, gegen Österreich und im Russlandfeldzug 1812 mit. So wurde 1812 der Rückzug Napoleons aus Moskau über die Beresina von badischen sowie schweizerischen Truppen gedeckt. Von den 7000 Badenern in der Grande Armée kehrten nur wenige hundert zurück. Auch in der Völkerschlacht bei Leipzig stand Baden noch an der Seite Napoleons. Trotz Napoleons Niederlage bei Leipzig erreichte Großherzog Karl auf dem Wiener Kongress die Bestätigung seiner Neuerwerbungen, womit der Bestand des Landes als Mitglied des Deutschen Bundes gesichert war. 1819 erhielt Baden in Abwicklung der Wiener Kongressakte im Frankfurter Territorialrezess außerdem noch die inmitten seines Territoriums liegende Grafschaft Hohengeroldseck. Großherzogtum Baden im 19. Jahrhundert. Der Autor der Verfassung von 1818, Karl Friedrich Nebenius. Zeitgenössische Darstellung einer Sitzung der Zweiten Kammer der Badischen Ständeversammlung im Jahr 1845. Im 19. Jahrhundert konnten sich in Baden Demokratie und Parlamentarismus freier entwickeln als anderswo. 1818 erhielt das Großherzogtum eine für damalige Verhältnisse sehr fortschrittliche liberale Verfassung, die Baden zur konstitutionellen Monarchie machte. Sie sah mit der Badischen Ständeversammlung ein Zweikammernparlament vor, dessen zweite Kammer große politische Bedeutung erhielt. Diese wurde nicht ständisch gegliedert, sondern mit nach Bezirken gewählten Vertretern besetzt. Die Debatten wurden trotz der Zensur im vollen Wortlaut veröffentlicht, was eine starke Teilnahme der Bürger an politischen Fragen ermöglichte. Dies führte zu wiederholten Konflikten mit den konservativen Kräften im Deutschen Bund unter Führung des österreichischen Staatskanzlers Klemens Metternich, aber auch mit den eher konservativen Großherzögen Karl und Ludwig. Der liberale Großherzog Leopold gab 1832 den Forderungen nach unbeschränkter Pressefreiheit nach, musste das Gesetz aber auf Druck Metternichs noch im selben Jahr wieder zurücknehmen. 1835 trat Baden dem Deutschen Zollverein bei und erlebte in der Folge einen wirtschaftlichen Aufschwung. Große Infrastrukturprojekte wurden mit der Rheinkorrektur nach den Plänen von Johann Gottfried Tulla 1815 und dem Eisenbahnbau seit 1840 begonnen. Nach dem Tod des liberalen Innenministers Ludwig Georg von Winter 1838 gewann Außenminister Blittersdorf maßgeblichen Einfluss auf die badische Politik. Erst jetzt konnte sich die seit 1833 im Deutschen Bund nach dem Hambacher Fest und dem Frankfurter Wachensturm vorherrschende konservativ-reaktionäre Strömung auch im Großherzogtum voll auswirken. Blittersdorf versuchte die Einflussmöglichkeiten der liberalen Zweiten Kammer zu beschneiden. Der Druck der Regierung erzeugte eine Politisierung der Bevölkerung und provozierte eine politische Lagerbildung, die aufgrund der größeren Freiheitsrechte ein höheres Unzufriedenheitspotential entstehen ließ als in vielen Staaten mit reaktionärerem Regierungssystem. 1843 organisierte der Abgeordnete Friedrich Daniel Bassermann im Rahmen des "Urlaubsstreits", bei dem die badische Regierung Beamten, die für die Opposition in die Zweite Kammer gewählt wurden, den Urlaub und damit die Wahrnehmung ihres Mandates verweigern wollte, die Ablehnung des Regierungsbudgets und erzwang mit dem ersten parlamentarischen Misstrauensantrag der deutschen Geschichte den Rücktritt des konservativen Ministeriums unter Blittersdorf. Als in den Wahlen von 1845/46 die Opposition eine klare Mehrheit erzielen konnte und die politische Stimmung durch den Streit um den Deutschkatholizismus noch verschärft wurde, berief Großherzog Leopold den Liberalen Johann Baptist Bekk zum Innenminister und Staatsminister. Missernten und wirtschaftliche Schwierigkeiten in den Jahren 1846/47 verursachten zusätzlich soziale Spannungen, die die Unzufriedenheit über die fehlenden Mitbestimmungsrechte und die Zersplitterung Deutschlands noch steigerten. Eine Volksversammlung in Offenburg, die am 12. September 1847 einen Forderungskatalog verabschiedete, war ein weiterer Auslöser für die Badische Revolution von 1848 und die Märzrevolution in den Staaten des Deutschen Bundes. Am 12. Februar 1848 forderte Bassermann in der Zweiten Kammer der Ständeversammlung eine vom Volk gewählte Vertretung beim Bundestag in Frankfurt am Main. Diese Forderung führte über die Heidelberger Versammlung und das Vorparlament schließlich zum ersten frei gewählten Parlament für Deutschland, der Frankfurter Nationalversammlung. a> aus der Perspektive der Revolutionäre am 20. April 1848, bei der der Heckeraufstand niedergeschlagen wurde. Wappen des Freistaats mit Schriftzug „Republik Baden“ auf einer Tafel Ein erster republikanischer Umsturzversuch durch Friedrich Hecker, Gustav Struve und Georg Herwegh wurde noch von Bundestruppen und ein zweiter Aufstand um Gustav Struve durch badisches Militär niedergeschlagen. Nach dem Scheitern der Frankfurter Nationalversammlung schloss sich im Mai 1849 im Rahmen der Reichsverfassungskampagne in Baden auch das Militär den Republikanern an. Mit der Flucht des Großherzogs Leopold, der Bildung einer provisorischen Regierung und Neuwahlen wurde Baden faktisch Republik. Durch vor allem preußisches sowie württembergisches Militär (Leopold kehrte in preußischer Uniform zurück) wurden die Badische Republik und die verbündete Pfälzische Republik schließlich mit Gewalt niedergeworfen. Im Juli mussten sich die letzten badischen Truppen nach dreiwöchiger Einschließung in der Festung Rastatt ergeben. In der Folge kam es zu Verhaftungen und 23 standrechtlichen Erschießungen. Auch die Auswanderung von ca. 80.000 Badenern (5 % der Bevölkerung), vor allem nach Amerika, kann neben der wirtschaftlichen Not der 1850er Jahre auf die Niederlage der Revolution zurückgeführt werden. Baden blieb bis 1851 durch die Preußische Armee besetzt. Trotz Besatzung und der Berufung eines konservativen Ministeriums unter Friedrich Adolf Klüber fiel die Gegenreaktion im Bereich der Politik insgesamt vergleichsweise milde aus. Baden blieb ein Verfassungsstaat und die Bürokratie bis auf wenige Ausnahmen in den Händen der alten Beamtenschaft. Die Streitigkeiten des Großherzogtums mit der katholischen Kirche im seit 1853 mit Unterbrechungen andauernden badischen Kulturkampf führten 1860 zur Bildung einer liberalen Regierung unter maßgeblicher Beteiligung von Abgeordneten der Zweiten Kammer unter der Führung von Anton von Stabel. Maßgeblich geprägt von Franz von Roggenbach, leitete die Regierung einen liberalen Kurswechsel ein und näherte ihre Arbeitsweise der eines demokratischen Parlaments an, indem sie Politik gemeinsam mit der Mehrheit der Zweiten Kammer der Ständeversammlung gestaltete. Mit der Errichtung von Verwaltungsgerichten durch Gesetz vom 5. Oktober 1863 war Baden das erste der deutschen Länder, das die Verwaltungsgerichtsbarkeit einführte. Baden im Kaiserreich. Lage des Großherzogtums Baden im Deutschen Kaiserreich 1871 trat Baden dem Deutschen Reich bei, an dessen Gründung Großherzog Friedrich I. maßgeblich beteiligt war: Nach Wilhelms Ausrufung zum Deutschen Kaiser gab der Großherzog im Spiegelsaal des Versailler Schlosses das erste Hurra auf den Kaiser aus. Im Deutschen Kaiserreich war Baden eine Hochburg der Liberalen und der Zentrumspartei. Nach der Niederlage des Kaiserreichs im Ersten Weltkrieg dankte der letzte Großherzog Friedrich II. am 22. November 1918 ab. Baden wurde Republik. Republik Baden 1918–1945. Der Freistaat Baden, dessen Verfassung am 13. April 1919 vom Volk angenommen wurde, wurde bis 1933 zumeist von der Zentrumspartei regiert. Baden blieb in seinen Grenzen, trotz württembergischer Versuche während der Zeit des Nationalsozialismus, die Vereinigung herbeizuführen, bis zum Ende des Zweiten Weltkriegs unverändert. Das Land wurde durch die nationalsozialistische Reichsregierung jedoch 1933 gleichgeschaltet und als östlicher Teil des Reichsgaus Baden-Elsaß einem Reichsstatthalter unterstellt. Nachkriegszeit. Nach dem Zweiten Weltkrieg wurde Baden durch eine Besatzungsgrenze geteilt. Kampf um den Südweststaat. Die Situation der durch die Besatzungszonen vorgegebenen Ländergrenzen wurde von einigen als unbefriedigend empfunden. Auch die Väter und Mütter des Grundgesetzes sahen den Zustand mit drei Bundesländern als Provisorium an, das nicht dauerhaft bestehen konnte. "„Die Neugliederung in dem die Länder Baden, Württemberg-Baden und Württemberg-Hohenzollern umfassenden Gebiete kann abweichend von den Vorschriften des Artikels 29 durch Vereinbarung der beteiligten Länder erfolgen. Kommt eine Vereinbarung nicht zustande, so wird die Neugliederung durch Bundesgesetz geregelt, das eine Volksbefragung vorsehen muss.“" Damit wurde deutlich gemacht, dass eine Neugliederung stattfinden musste, auch wenn weder zeitliche Vorgaben gemacht wurden noch ein Vorschlag vorgelegt wurde, wie eine Lösung aussehen könnte. Infolgedessen kamen erneut Überlegungen zur Gründung eines „Südweststaats“ aus den alten Ländern Baden, Württemberg und den Hohenzollernschen Landen auf. In Mittel- und Südbaden gab es hingegen viele, die im Falle eines Zusammenschlusses eine Dominanz des neuen Bundeslandes durch Württemberg befürchteten. Diese sogenannten Altbadener favorisierten daher eine Wiederherstellung der früheren Länder in den Grenzen vor dem Krieg. „"Vom See bis an des Maines Strand die Stimme dir mein Badnerland"“ war auf den Wahlplakaten von 1951 zu lesen. Die Regierung von (Süd)Baden unter Leo Wohleb kämpfte damit für eine Wiederherstellung des alten Landes Baden. Entscheidend war der Abstimmungsmodus. Durch eine Probeabstimmung wusste man, dass in Nordbaden nur eine dünne Mehrheit für den Südweststaat zu erwarten war, sich durch die starke Ablehnung in Südbaden jedoch eine gesamtbadische Ablehnung ergeben würde. Deshalb plädierten die Befürworter des Südweststaats für eine Auszählung nach Stimmbezirken, die Gegner forderten vergeblich eine Auszählung nach den alten Ländern. Das 1951 neu gegründete Bundesverfassungsgericht, das seinen Sitz in der ehemaligen badischen Residenzstadt Karlsruhe hat, konnte sich bei Stimmengleichheit nicht auf eine Haltung gegen die Modalitäten der Volksabstimmung (Mehrheit in drei von vier Abstimmungsbezirken) festlegen. Bei der Volksabstimmung unterlagen die Befürworter eines selbstständigen Baden. Zwar votierten 53 % aller Stimmberechtigten im Vorkriegsbaden für die Wiederherstellung des Landes Baden; entscheidend war jedoch das Abstimmungsverhalten des bevölkerungsreichen Nordbaden, wo 57 % für den Südweststaat votierten. Insbesondere die alte Kurpfalz mit Mannheim und Heidelberg war gegen Baden. Für die Vereinigung stimmte auch die Bevölkerung im Landesbezirk (Nord-)Württemberg und in Württemberg-Hohenzollern. Durch die Mehrheiten in drei von vier Teilgebieten wurde die Vereinigung zum „Südweststaat“ beschlossen, die 1952 erfolgte. "„Die endgültige Entscheidung wurde von den betroffenen Bevölkerungen selbst in einer Volksabstimmung gefällt, deren Gültigkeit die südbadische Regierung bestritt, die aus vor allem konfessionellen Gründen Hauptgegner des Südweststaates war. Sie befürchtete den Einfluß, den der württembergische Protestantismus in dem neuen Staat gewinnen könnte, während Südbaden mit seinen 70 % Katholiken unter einem ziemlich klerikal ausgerichteten Regime lebte.“" Aufgrund einer Klage des Heimatbundes Baden entschied das Bundesverfassungsgericht 1956, dass die badische Bevölkerung nochmals abstimmen dürfe, denn ihr Wille bei der Abstimmung 1951 sei durch die Trennung des Landes Baden nach 1945 „überspielt“ worden. Da die Abstimmung vor allem von Kurt Georg Kiesinger immer wieder verschleppt wurde, bedurfte es 1969 einer erneuten Entscheidung des Bundesverfassungsgerichtes, welches die Abstimmung bis spätestens 30. Juni 1970 anordnete. So kam es erst 1970 nochmals zu einer Volksabstimmung, an der sich diesmal die Württemberger nicht beteiligen durften. Den Zeitläufen entsprechend waren nur noch wenige für die Wiederherstellung eines historischen Landes zu begeistern; die überwältigende Mehrheit (81,9 %) der Bevölkerung von Baden stimmte am 7. Juni 1970 für den Verbleib in Baden-Württemberg. Grenzen im Bundesland Baden-Württemberg. Die 1952 gebildeten Regierungsbezirke Nordbaden und Südbaden griffen die Grenzen des alten Landes Baden wieder auf: Im Norden an Hessen und Bayern grenzend, im Süden am Bodensee nur 30 km entfernt von Bayern und in der Mitte teilweise nur 30 km, an der engsten Stelle gar nur 17,2 km schmal, fasste die Ostgrenze des Landes das Territorium von Württemberg sichelartig ein. Mit der Kreisreform, die zum 1. Januar 1973 vollzogen wurde, wurden die historischen Grenzen der Regierungsbezirke aufgehoben und die Namen der Landesteile verschwanden. Die Gebiete aller vier Regierungsbezirke Freiburg, Karlsruhe, Stuttgart und Tübingen wurden hauptsächlich nach geografischer Zweckmäßigkeit neu abgegrenzt, aber auch mit der politischen Absicht, die drei ehemaligen Landesteile miteinander zu verzahnen und damit auf lange Sicht die Einheit des Landes zu stärken. Dabei verschwanden die alten Grenzen auf der Verwaltungsebene endgültig: Der ehedem württembergische Teil des Schwarzwalds gehört seitdem zu den Regierungsbezirken Karlsruhe beziehungsweise Freiburg und ehemals badische Kreise gehören jetzt zu den Regierungsbezirken Stuttgart bzw. Tübingen. Wappen. Das Stammwappen Badens ist ein roter Schrägbalken auf gelbem (goldenem) Grund. Im Laufe der Geschichte des Landes wurden weitere Bestandteile, wie etwa Greife oder eine Krone, Teile des Wappens. Baden im Land Baden-Württemberg. Obwohl die heutigen Regierungsbezirke nicht mehr den alten Landesgrenzen entsprechen und offiziell nur nach dem Sitz des Regierungspräsidiums benannt sind, werden sie landläufig oft noch als Nord- bzw. Südbaden bezeichnet. Andererseits beharren auch Bewohner von Orten, die heute zu den Regierungsbezirken Tübingen oder Stuttgart gehören (etwa am Bodensee), meist weiterhin darauf, badisch zu sein. Die "alten Grenzen des Landes Baden" spiegeln sich auch noch darin wider, dass es zwei eigenständige badische Sportbünde (Badischer Sportbund Nord und Badischer Sportbund Freiburg), sowie zahlreiche eigenständige badische Sportfachverbände (z. B. Südbadischer Fußball-Verband und Badischer Turner-Bund) und eine eigenständige Evangelische Landeskirche in Baden gibt. Die Einteilung der katholischen Bistümer (Erzbistum Freiburg bzw. Bistum Rottenburg-Stuttgart) entspricht ebenfalls den alten Grenzen. Auch andere Verbände sind noch nach den alten Grenzen getrennt. In der Organisation der Justiz haben sich die ehemaligen Grenzen ebenfalls erhalten. Manche Medien orientieren sich noch immer an den alten Grenzen von Baden und Württemberg: Zum Beispiel veranstaltet der SWR Hörfunk-Regionalprogramme wie „Baden Radio“ oder „Radio Südbaden“ im Programm SWR4 Baden-Württemberg oder auch der private Radiosender Radio Regenbogen. Ein starkes Regionalgefühl ist auch heute noch vorhanden oder sogar stärker geworden. Dies lässt sich auch an der Rolle des Badnerlieds erkennen, einer der beliebtesten Regionalhymnen in Süddeutschland überhaupt, welche ab Ende des 19. Jahrhunderts belegt ist. Entstehung. Das Bewusstsein einer eigenständigen badischen Lebensart und regionalen Identität, die sich mit Redensarten wie „Schwôbe schaffe, Badner denke“ von Württemberg absetzt, ist erst seit dem späten 19. Jahrhundert ansatzweise zu beobachten. Mit Ethnizität wie auch Identitätsbildung geht grundsätzlich eine Abgrenzung einher, für Badener erfolgt diese bevorzugt gegenüber Schwaben (in Württemberg), obwohl doch ethnisch und sprachgeschichtlich beide Regionen eine Einheit bilden, die geschichtlich zunächst im Herzogtum Alemannia, danach im Herzogtum Schwaben, im Schwäbischen Bund und im Schwäbischen Reichskreis bis 1806 deutlich ausgeprägt ist. Die oft ideologisch überhöhte Identitätssuche und erschwerte Abgrenzung gegenüber dem Ähnlichen lässt sich auch darauf zurückführen, dass beide Staaten, Württemberg und Baden, eigentlich napoleonische Schöpfungen sind, deren Monarchen die Identifikation eines Großteils der Bevölkerung mit den neuen Staatsgebilden erst erzeugen mussten. Der von Johann Peter Hebel 1803 initiierte Alemannendiskurs fungierte als ideologische Klammer des neugeschaffenen Großherzogtums Baden. Für die andauernde Wahrnehmung von Unterschieden und lokalen Rivalitäten gibt es weitere historische Gründe. Die Konfession übte ab der Reformation eine besondere Prägekraft aus, da Württemberg pietistisch wurde und das spätere Land Südbaden katholisch war. Das Übergewicht der als „vorwiegend asketische Protestanten wahrgenommenen und als ungemein tüchtig (‚schaffig‘) eingestuften ‚Schwaben‘“ wurde und wird als bedrohlich wahrgenommen. Dabei zeigt sich aber auch eine Übergeneralisierung des badischen Württembergbildes auf alle Schwaben, da zum Beispiel das stark katholisch geprägte Oberschwaben zum „pietistischen Asketentum“ nicht passt. Dazu kam vor allem seit dem 19. Jahrhundert die unterschiedliche Entwicklung im wirtschaftlichen, kulturellen und politischen Bereich. Von nachhaltiger Bedeutung haben sich auch die unterschiedlichen Erbsitten erwiesen. So kannte Altwürttemberg fast ausschließlich die Realteilung, also die Aufteilung des gesamten Erbes zu gleichen Teilen unter allen Kindern. In anderen Teilen des Landes, in Hohenlohe, im Hochschwarzwald oder in Oberschwaben, bestand demgegenüber das Anerbenrecht. Hier ging der Besitz geschlossen an einen Erben über. Baden, nicht Württemberg, galt im 19. Jahrhundert als Musterländle und hatte naturräumlich durch die Oberrheinebene mit dem wärmsten Klima Deutschlands, mit fruchtbaren vulkanischen Böden, teilweise schon in der Römerzeit genutzten Heilquellen und Kurorten, ausgezeichneter Verkehrserschließung und der Nähe zu Frankreich und der Schweiz deutlich bessere Entwicklungsvoraussetzungen als Württemberg oder gar Bayern. Die badische Küche gilt als leichter und französischer als andere deutsche Regionalküchen. Baden weist die höchste regionale Dichte an Sterne-Restaurants in Deutschland auf, ähnlich wie übrigens das benachbarte Elsass in Frankreich. Mit dem Elsass teilt Baden auch Spezialitäten wie Baeckeoffe und Flammkuchen, feines Sauerkraut oder Schäufele, ohne die ansonsten typische übermäßige Fett- und Mehlzugabe. Typischerweise werden auch Gemüsespargel, Maroni, Innereien und Schnecken verarbeitet. Sonderkulturen wie Tabak, Wein-, Obst- und Gartenbau sowie Gemüsekulturen haben neben der kulinarischen auch eine überregional wirtschaftliche Bedeutung und bieten den Einwohnern, der Gastronomie wie auch einer Vielzahl von Touristen und Kurgästen eine breite Auswahl lokaler Produkte. Eine spezifisch badische Fortschrittlichkeit, auch ausgedrückt durch den bis heute sprichwörtlichen badischen Liberalismus spiegelte sich auch in der frühen Aufhebung der Leibeigenschaft 1783, der ersten deutschen technischen Hochschule in Karlsruhe, der fortschrittlichen Verfassung von 1818 und dem ersten deutschen demokratischen Landesparlament überhaupt anno 1849 wider. Eine wichtige Rolle spielte dabei auch das Vereinswesen. Neben einer Vielzahl von Turnern und frühen Sportvereinen hat Baden auch eine intensive lokale Musiktradition mit einer überproportional hohen Anzahl von Chören und Orchestern. Die vollständige Gleichstellung der Juden gewährte Baden 1862 als erster deutscher Staat. Auch setzte die Industrialisierung – unter anderem begünstigt durch die bessere Kapitalausstattung – deutlich früher ein als in Württemberg, denn nicht die Württemberger, sondern die Badener erbrachten bis zum Ersten Weltkrieg die höheren Sparleistungen. Die Eigenständigkeit der Städte und Gemeinden in Baden wurde durch die badische Gemeindeordnung von 1831 bestätigt. Sie zeichnet sich durch politische Besonderheiten wie die starke Rolle kommunaler Zweckverbände oder seit den 1980er Jahren die ersten „grünen“ Oberbürgermeister in Deutschland aus. Eine Vielzahl von regionalen Stadtfesten und lokalen Fastnachtstraditionen, bedeutende kulturelle Institutionen und auch als internationale Reiseziele bekannte Orte wie etwa Freiburg, Baden-Baden, Karlsruhe, Schwetzingen und Heidelberg stehen für das Selbstbewusstsein der Region. Diese positive Entwicklung kehrte sich aber nach dem Ersten Weltkrieg radikal um – die Kriegsfolgen und die Weltwirtschaftskrise wirkten sich in Baden, das nun Grenzland war, stärker aus als in Württemberg. Dies spiegelte sich in der Entwicklung von Daimler-Benz – anfangs eine Fusion unter Gleichen, welche ab 1931 zu Gunsten der Württemberger ausging – genauso wider wie in Württembergs Metallbranche allgemein. Letztere profitierte von einer Wanderungsbewegung weg von der Grenze wie auch von Rüstungsprojekten hin zum Zweiten Weltkrieg. Die gravierenderen Zerstörungen vieler badischer Städte im Bombenkrieg wie auch die Reparationen der härteren französischen Besatzung in Südbaden ließen den badischen Landesteil weiter ins Hintertreffen geraten. Die wirtschaftliche Notlage nach dem Krieg und die faktische Teilung des alten Landes Baden durch die Besatzungszonen ließen Pläne für die Gründung eines „Südweststaates“ reifen, die 1951 in einer Volksabstimmung – gegen die Stimmen der Bevölkerung in Südbaden, dessen Landesregierung unter Leo Wohleb die Gründung sogar vor dem neu gegründeten Bundesverfassungsgericht anfechten ließ – gebilligt wurden. 1952 wurde das neue Bundesland gegründet. Die Ursache für den Zusammenschluss, die ursprüngliche Benachteiligung und Randlage Badens, ist heute durch die europäische wie deutsch-französische Einigung nicht mehr gegeben, in das benachbarte Elsass wie auch in die Nordwestschweiz bestehen vielfältige Kontakte. Lange nach dem Konflikt um den Südweststaat hat sich erneut eine starke regionale badische Identität und die damit einhergehende Abgrenzung gegenüber „den Schwaben“ und der Landesregierung in Stuttgart etabliert. Als eines der Schlüsselereignisse für eine wiedererstarkende Abgrenzung von der Landesregierung in Stuttgart kann unter anderem der Widerstand gegen das 1974 geplante, aber durch regionale Bürgerinitiativen verhinderte Kernkraftwerk im badischen Wyhl angesehen werden. Neben dem 1977 gegründeten Netzwerk BFsBW mit stärker separatistischen Tendenzen setzt sich die 1993 ins Leben gerufene Landesvereinigung Baden in Europa insbesondere für Föderalismus innerhalb des Bundeslandes Baden-Württemberg ein und für dezentrale, regionale Strukturen anstatt einer "Elles, elles Stuckert zu"-Mentalität (Alles für Stuttgart), welche Baden zur württembergischen Kolonie herabstufe. Traditionsbewusstsein und -pflege. Deutlich wird besonders im Süden und im Raum Karlsruhe das vorhandene Bewusstsein, mit dem sich die Menschen als "Badener" oder "Badner" bezeichnen – oft schon allein, um sich von der Landesregierung im württembergischen Stuttgart abzugrenzen. In diesem Zusammenhang findet beispielsweise das Badnerlied Verwendung, das in Baden einen höheren Stellenwert und Bekanntheitsgrad besitzt als die anderen Landeshymnen. So ertönt es seit den 1990er Jahren in den Stadien des SC Freiburg, des Karlsruher SC und des TSG 1899 Hoffenheim vor Beginn der Spiele. Traditionell wurde es auch bei den internationalen Galopprennen in Iffezheim vor dem Hauptrennen gespielt. Bis heute sieht man gerade in Südbaden viele badische Flaggen, und auch der badische Wein trägt die Identität des Landes fort. Ein Teil des badischen Regionalstolzes gründet sich auf die demokratische und revolutionäre Tradition der Bauernkriege (vgl. Joß Fritz) wie auch der Freiheitsbewegung von 1848. Die badischen Forty-Eighters und Deutschamerikaner, allen voran die radikalen Republikaner Friedrich Hecker, Franz Sigel und Gustav Struve, wie auch der spätere amerikanische Innenminister Carl Schurz hatten einen bedeutenden Einfluss auf die amerikanische Geschichte wie auch die deutsch-amerikanischen Beziehungen. Weiter werden von den Badenern diejenigen Einflüsse, die das Badener Gebiet kulturell bereichert haben, weiterhin bejaht und gepflegt. Beispiele sind die Beziehungen der ehemaligen Freien Reichsstädte untereinander, der Gedankenaustausch der Länder des alemannischen Kulturkreises und das grenzüberschreitende Gemeinschaftsgefühl innerhalb geographischer Einheiten (Bodensee, Schwarzwald, Hoch- und Oberrhein). Die Bezeichnung der Einheimischen als Badenser ist allgemein unbeliebt und wird meist aus Unkenntnis des Sachverhalts verwendet. Dem sich so Äußernden wird in der Regel umgehend (badisch-freundlich) die “richtige” Aussprache beigebracht. Badische Traditionsvereine. Ein Badischer Traditionsverein in der "Region des ehemaligen Landes Baden" ist der "Landesverein Badische Heimat e. V." von 1909. Er hat seinen Sitz in Freiburg und ist mit 13 Regionalgruppen von Mannheim bis Waldshut-Tiengen im ganzen alten Land Baden vertreten. Ferner gibt es die "Landesvereinigung Baden in Europa e. V." von 1992 in Karlsruhe mit über 11.000 Mitgliedern, den "Bund Freiheit statt Baden-Württemberg e. V. (BFsBW)" von 1977 in Karlsruhe sowie den Badischen Chorverband 1862 e. V. in Karlsruhe als Dachorganisation von 1.500 Vereinen in 22 Sängerkreisen. Auch außerhalb der Region des ehemaligen Landes Baden gibt es Badener, die an ihrer Kultur und Lebensart festhalten. Badener-Vereine außerhalb der badischen Region sind der "Badener Verein München e. V." vom 10. Februar 1894 und der "Verein der Badener von Hamburg und Umgebung e. V." vom 15. Oktober 1913. Dialekte. Zwischen den rein fränkischen und rein alemannischen Mundartgebieten bestehen teils breitere Übergangsräume, so vor allem in den Regionen um Rastatt, Baden-Baden (jeweils südfränkisch-alemannisch) und Pforzheim (schwäbisch-südfränkisch). Die in Baden beheimateten deutschen Dialekte sind im Badischen Wörterbuch dokumentiert. Die in Mittel- und Südbaden gesprochenen alemannischen und teils auch manche südfränkischen Mundarten werden manchmal irreführend als "Badisch" bezeichnet - einen badischen Dialekt oder badische Dialekte gibt es jedoch nicht, nur Dialekte in Baden, zu denen sich zunehmend auch die Mundarten der zugewanderten Sprachen gesellen. Kultur. Als Markenzeichen der badischen Volkstrachten gilt der Bollenhut, der allerdings nur in der Umgebung von Gutach im Schwarzwald beheimatet ist. Das Kartenspiel Cego oder Zego war dagegen noch in der ersten Hälfte des 20. Jahrhunderts nur in Baden und in einigen Grenzgebieten zu Württemberg und Hohenzollern das beliebteste Kartenspiel und ist somit typisch badisch. Große Bedeutung im Jahreslauf hat die Fasnacht, die vom Schmotzigen Donnerstag bis Aschermittwoch dauert. In dieser Zeit sind in vielen Gegenden Badens Büros und Geschäfte geschlossen, weil in jedem Ort Umzüge und Feste stattfinden. Umzüge und Fasnachtssitzungen sind aber auch schon ab dem Dreikönigstag üblich. Und selbst nach Aschermittwoch geht es weiter, in den Tiefen des Südschwarzwalds beginnt am Donnerstag danach die „Buurefaasned“, die traditionell mit einem „Schiibefüüer“ je nach Ortschaft bis zu vier Tage später endet. Das Schiibefüüer (Scheibenfeuer) oder Funkenfeuer wird in den bergigen Regionen der Nordwestschweiz und Südbadens zum Vertreiben des Winters angezündet. Dabei wird in manchen Gegenden das so genannte Scheibenschlagen ausgeübt: Holzscheiben mit einer mittigen Bohrung, ähnlich einer Diskusscheibe, werden in einem großen Lagerfeuer erhitzt bzw. zum Glühen gebracht und auf Haselnussruten aufgespießt. Ziel der traditionellen Zeremonie ist es dann für die Gäste des Schauspiels, Jahr für Jahr über Holzrampen diese Scheiben ins Tal zu schleudern. Staatsoberhäupter. Mit dem Vorläufigen Gesetz zur Gleichschaltung der Länder mit dem Reich verloren die Länder ihre Souveränität und es wurde am 11. März 1933 Robert Wagner (1895–1946, NSDAP) als Reichsstatthalter eingesetzt. Walter Köhler (1897–1989, NSDAP) amtierte vom 8. Mai 1933 bis April 1945 als Ernannter Ministerpräsident von Baden. Leitende Staatsminister bis 1918. Die Funktion des "Präsidenten des Staatsministeriums", die etwa der des heutigen "Ministerpräsidenten" entsprach, gab es offiziell lediglich in den Jahren 1820 bis 1842, 1844 bis 1846 und 1861 bis 1918. Von 1846 bis 1861 führte entweder der Großherzog selbst oder der dienstälteste Minister den Vorsitz im Staatsministerium. Außer in der Amtszeit Reitzensteins 1832 bis 1842 leitete der jeweilige "Präsident des Staatsministeriums" auch ein Fachressort (Ministerium). Linearbandkeramische Kultur. a> 1882 zur Definition der bandkeramischen Kultur benutzte Die Bandkeramische Kultur, auch Linienbandkeramische Kultur oder Linearbandkeramische Kultur (Fachkürzel LBK), ist die älteste bäuerliche Kultur der Jungsteinzeit mit permanenten Siedlungen in ganz Mitteleuropa und als solche Ergebnis der Neolithisierung. Der Name leitet sich von der charakteristischen Verzierung der keramischen Gefäße mit einem Bandmuster aus eckigen, spiral- oder wellenförmigen Linien ab. Die Träger der bandkeramischen Kultur waren laut der derzeit favorisierten Theorie keine Angehörigen oder Abkömmlinge der postglazialen, mesolithischen einheimischen Jäger und Sammler, sondern Immigranten. Ob Bevölkerungsdruck und/oder Ressourcenverknappung, neben anderen Faktoren die alleinigen Motivationen für die Immigration waren ist momentan nicht belegbar. Inwieweit diese Immigration letztlich von Anatolien (Anatolien-Hypothese) ausgehend ihren Ausgang nahm – mit einer Zwischenstation im ungarischen Raum – bleibt bislang noch hypothetisch. Den Begriff "Bandkeramik" führte im Jahre 1883 der Historiker Friedrich Klopfleisch aus Jena in die wissenschaftliche Diskussion ein. 1902 prägte der Mediziner Alfred Schliz den Begriff „Linearkeramik“. Die Ausbreitung begann wahrscheinlich ungefähr 5700 v. Chr. ausgehend von der Gegend um den Neusiedler See und schuf innerhalb einer menschheitsgeschichtlich kurzen Zeitspanne von etwa zweihundert Jahren einen großen, kulturell einheitlichen und stabilen Siedlungs- und Kulturraum über fast das gesamte südliche bzw. südöstliche Mitteleuropa hinweg. Ihre Rekonstruktion als Kultur erschließt sich über verschiedene Bodenfunde. Die neolithischen Kulturen sind illiterale oder schriftlose Kulturen. Die bandkeramische Kultur löste sich restlos erst um 4100 v. Chr. wieder auf. Einteilung der Epochen der Bandkeramischen Kultur (LBK) Die Bandkeramik war in Westungarn (Transdanubien), Rumänien, der Ukraine, Österreich, der Südwestslowakei, Mähren, Böhmen, Polen, Deutschland und Frankreich (Pariser Becken, Elsass und Lothringen dort als „Culture rubanée“ bezeichnet) verbreitet und ist als größte Flächenkultur der Jungsteinzeit zu betrachten. Die Bandkeramiker stehen wahrscheinlich in enger Beziehung zur Körös-Kultur oder Körös-Criș-Kultur, die man auf den Zeitraum von 6200 bis 5600 v. Chr. datiert. Diese gilt als eine der wichtigsten danubischen Kulturen des Frühneolithikums und wird als die östliche Vorläuferkultur angesehen. Aber auch die Starčevo-Kultur wird als eine Vorläuferkultur angesehen. So will die ungarische Prähistorikerin Eszter Bánffy die Bandkeramiker allein aus der Starčevo-Kultur herleiten. Zu den bandkeramischen Kulturen bzw. zur Bandkeramik im weiteren Sinn wird auch die Alföld-Linearkeramik (östliche Bandkeramik in Ungarn, 5500–4900 v. Chr.) gezählt, im weitesten Sinn auch die jüngere Stichbandkeramik in Mitteleuropa (4900–4500 v. Chr.). Ursprung der Bandkeramik. Die Bandkeramik erreichte die nördlichen Lössgrenzen in Mitteleuropa ab 5600 bis 5500 v. Chr. Nach heutigem Forschungsstand ging sie aus dem "Starčevo-Körös-Kulturkomplex" hervor. In diesem Zusammenhang sind besonders die in den letzten Jahren ergrabenen, frühesten bandkeramischen Siedlungen in Transdanubien von Bedeutung: Die älteste Bandkeramik zeichnet sich durch flachbodige Gefäße aus, sie ähnelt stark der ungarischen Starčevo-Keramik. Etwa um 5200 v. Chr. setzt sich ein anderer Stil durch, die Keramik ist nun rundbodig. Solche Siedlungen wurden z. B. in Szentgyörgyvölgy-Pityerdomb (Kleingebiet Lenti), Vörs-Máriaasszonysziget (Balaton) und Andráshida-Gébarti-tó (bei Zalaegerszeg) gefunden. Untersuchungen von alter DNA aus bandkeramischen Skeletten wurden dahingehend interpretiert, dass die Träger der Bandkeramik aus dem Karpatenbecken nach Mitteleuropa eingewandert sind und hier keine anthropologische Kontinuität zur Bevölkerung des späten Mesolithikums bestand. Die Ausbreitung der linienbandkeramischen Kultur erfolgte dem Forschungsstand nach zu urteilen in zwei Ausbreitungsrichtungen. Die eine verlief über Böhmen und Mähren entlang der Elbe bis nach Mitteldeutschland. Die andere folgte dem Lauf der Donau über Niederösterreich bis nach Südwestdeutschland und den Rhein entlang. Eine Studie aus dem Jahre 2010 fand überraschenderweise Übereinstimmungen der DNA bandkeramischer Gräber aus Derenburg (Sachsen-Anhalt) mit der heutigen Bevölkerung des Vorderen Orients. Diese Hypothese ist nicht unwidersprochen, so führte der Archäologe Claus-Joachim Kind (1998) aus, dass es sich bei den Bandkeramikern um eine autochthone Entwicklung im europäischen Neolithikum handeln könnte. So deuteten Steinartefakte auf mesolithische Traditionen hin wie sie in der ältesten Bandkeramik nachzuweisen seien. Auch seien die Ähnlichkeiten der Keramikgefäße aus der ältesten Bandkeramik und dem Starčevo–Körös-Kulturkomplex nur gering und schlössen damit eine Immigration aus diesen Kulturen aus. Doch muss sich diese Annahme der Frage stellen, ob eine sich mehr oder weniger einheitlich darstellende Linearkeramische-Kultur multilokalen Ursprungs sein und es einen vertikalen Kulturtransfer gegeben haben könnte, oder ob eine transmigrierende Gruppe bzw. Gruppen, im Sinne eines horizontalen Kulturtransfers, in Austausch mit der einheimischen mesolithischen Bevölkerung trat. Wegen der Kontinuität in der materiellen Kultur diskutieren im Gegensatz dazu noch weitere Forscher die Übernahme der neolithischen Lebensweise durch einheimische mesolithische Bevölkerungsgruppen. Sie stützen sich dabei auf die Feuersteingeräte ältestbandkeramischer Siedlungen, die ihrer Meinung nach mesolithische Züge aufweisen, sowohl in bestimmten Formen (Querschneider/Trapeze etc.) als auch in bestimmten Abschlagtechniken (Präparation der Schlagflächen). Wie Clemens Lichter (2010) feststellt, ist der Hintergrund, aus dem sich die Bandkeramik löst, hinsichtlich der Religion anders gestaltet, so dass mit der Migration eine andere Ideologie aufkommt, die sich u. a. in Kreisgrabenanlagen zeigt, die es im danubischen Raum des "Starčevo-Körös-Komplexes" nicht gab. Unklar ist, welchen Anteil die sogenannte La-Hoguette-Gruppe hatte, die von der Normandie (eponymer Fundort) bis ins Main-Neckar-Gebiet verbreitet war. Die La-Hoguette-Gruppe lässt sich aus der Cardial-Kultur bzw. Impresso-Kultur herleiten, einer frühneolithischen Kultur, die chronologisch vor dem Starčevo-Körös-Komplex einzuordnen ist und an den Küsten des westlichen Mittelmeeres verbreitet war. Von der Mündung der Rhone aus verbreitete sie sich um etwa 6500 v. Chr. nach Norden und erreichte etwa 300 Jahre vor der Linearbandkeramik den Rhein und seine Nebenflüsse, bis zur Lippe. Der Anteil von Haustierknochen ist in den Funden der La-Hoguette-Kultur bedeutend größer als bei den Bandkeramikern und diese betrieben umgekehrt deutlich mehr Feldbau. Da intensive Kontakte beider Kulturen belegt sind, ist es gut vorstellbar, dass die La-Hoguette-Hirten und Bandkeramik-Bauern wirtschaftlich voneinander profitierten. Ökologische Rahmenbedingungen. a> und den darauffolgenden 12.000 Jahren. Die Blütezeit der bandkeramischen Kultur lag zwischen 5500 und 4500 v. Chr. Vor dem Wärmeoptimum Atlantikum, welches sich zeitlich unscharf zwischen ca. 8000 v. Chr. bis ca. 4000 v. Chr. in Nordeuropa zeigte, kam es zur Entwicklung der wärmsten und feuchtesten Periode der Blytt-Sernander-Sequenz, auch als „Holozäne Optimum“ benannt. Während der Misox-Schwankung kam es zu einer zeitlich scharf abgegrenzten, relativ kurzfristige Klimaveränderung rund 6200 Jahre v. Chr. Im mesolithischen Mitteleuropa kam es innerhalb weniger Jahrzehnte zu einer Abkühlung um etwa 2 °C. Die Misox-Schwankung fällt mit der letzten größeren Veränderung im Abfluss des Agassizsees zusammen. Sie fand vor ca. 8400 Jahren statt, als der Agassizsee in die Hudson Bay abfloss. Der enorme Süßwassereintrag in den Nordatlantik unterband weitgehend die Entstehung von absinkendem höhersalinarem Wasser (Dichteunterschiede) und beeinträchtigte damit die thermohaline Zirkulation (Konvektion) des Nordatlantiks, indem sie den nach Norden gerichteten Wärmetransport verringerte. Durch eine Unterbrechung der thermohalinen Zirkulation des aus dem Golfstrom resultierenden Nordatlantikstroms folgte eine in Nordeuropa und dem Vorderen Orient (Fruchtbarer Halbmond) einsetzende, regional unterschiedliche aber erhebliche Abkühlung bzw. Austrocknung. Die klimatologischen Folgen der Misox-Schwankung sind in der Vegetationsentwicklung Europas gut hundert Jahre lang nachweisbar. Im Atlantikum erlebte Europa mit regionalen zeitlichen Unterschieden und kurzzeitigen Unterbrechungen die wärmste Epoche der letzten 75.000 Jahre. Sowohl die Sommer- als auch die Wintertemperaturen lagen 1–2 °C höher als im 20. Jahrhundert. Insbesondere die Winter waren sehr mild. Mit der Ausprägung dieser feucht-warmen Periode und einem Anstieg der Durchschnittstemperaturen war die Ausbreitung dichter Eichenmischwälder mit Eichen, Linden, Ulmen und Haselnusssträuchern verbunden. Durch die Pollenanalyse in den Bodenproben zeigt im nördlichen Mitteleuropa die mit der Bandkeramik verbundenen Veränderungen im Anteil der verschiedenen Gehölze. Die Zahl der Eichen- und Lindenpollen sank, während Birken-, Haselnuss- und Eschenpollen anstiegen. Es wird angenommen, dass der Wandel im Vegetationsbild eine Folge der Rodung der Eichenmischwälder durch die Bandkeramiker war. Sie fällten Eichen, um Holz für Häuser oder Palisaden zu gewinnen. Am Boden tummelten sich Großsäuger wie Reh, Rothirsch, Elch, Wisent und Wildschwein. Unter den Raubtieren sind Dachse, Wölfe, Luchse und Braunbären zu nennen. Ehemalige Bewohner des offenen Graslands wie der Auerochs und das Wildpferd waren ebenfalls noch gegenwärtig. Wirtschaftsweise. Mahlsteine wie dieser wurden in Gräbern der Bandkeramiker gefunden. Auf dem Unterleger befinden sich eine Handvoll Getreide und der Läufer. Während dieses allgemeinen Klimawandels wurden durch neolithische Kulturen zunächst die tief liegenden Lössflächen besiedelt. Angebaut wurden Emmer (Triticum dicoccum), Einkorn (Triticum monococcum), Dinkel (Triticum aestivum subsp. spelta), Lein (Linum usitatissimum) und die Hülsenfrüchte Linse und Erbse vermutlich im Schwendbau. So weisen geoklimatische bzw. geoökologische Forschungen auf ein sehr mildes Klima während der Ausbreitung der bandkeramischen Kultur in Mitteleuropa hin. Die bäuerlichen Siedlungsplätze der Bandkeramiker breiteten die sich entlang vor allem der kleineren bis mittleren, verzweigten und mäandrierten Flussläufe aus, bei den kleineren Flussläufen oder Bächen bevorzugte man deren Oberläufe und den Quellbereich. Bei den größeren Wasserläufen suchte man die Ränder der Niederterrassen. Man bevorzugte also Hanglagen im Übergangsbereich zwischen Auenlandschaften und dem überschwemmungsgeschützten Hinterland, wo sie in Einzelhofanlagen zumeist als mittelgroße Gruppensiedlungen von fünf aber bis zu zehn Hofplätzen lebten. Bevorzugt waren anbaugünstige Lössböden, ebenso wie Gebiete oder Mikroklimata mit moderatem Niederschlag und größtmöglicher Wärme. Diese Tatbestände lassen sich gut mit den klimatischen Veränderungen während der Siedlungsgeschichte der Bandkeramiker in Zusammenhang bringen. Es kam in großen Teilen ihres Siedlungsraumes zu mikroklimatischen Umschwüngen von eher trocken-warmen zu feuchteren Verhältnissen. Einer Tatsache welche die Menschen der Jungsteinzeit mit der Auswahl ihrer Siedlungsorte beantworteten, denn vermehrte Regenfälle führten zu heftigeren und in engeren Zeiträumen auftretenden Überschwemmungen. Die bandkeramischen Siedlungen wären vor solchen Ereignissen im oberen Drittel eines Hanges besser geschützt gewesen. Typischerweise fanden sich auf den fruchtbaren Lössstandorten Vegetationsgesellschaften wie etwa der Winterlinden-Eichen-Hainbuchen-Wald und der Waldmeister-Buchenwald. Hier wurden Waldweide (Hute) und die Laubheugewinnung (Schneitelwirtschaft) in einem engen funktionellen, saisonalen Zusammenhang betrieben. Die Viehweide im Wald war dabei vorwiegend der sommerlichen Futterwirtschaft vorbehalten, während die Laubheuproduktion zur winterlichen Vorratshaltung diente. Der Anteil der Knochen von Wildtieren schwankt in den einzelnen Siedlungen stark, nimmt aber von den frühen Kulturen zu den späteren ab. Neben dem schon seit dem Mesolithikum domestizierten Hund wurden Rinder, Schweine, Schafe und Ziegen gehalten. Manfred Rösch (1998) konnte durch botanische Analyse von Bodenproben in verschiedenen süddeutschen bandkeramischen Siedlungsplätzen eine Zunahme sowohl der Zahl als auch des Artenreichtums von spontaner Begleitvegetation in den Kulturpflanzenbeständen nachweisen. Die Daten stehen in Einklang mit reinem Sommerfeldbau. Ob aber die Zunahme der Begleitvegetation für Brachen oder vielleicht nur für eine Beweidung sprechen, ist aus der Befundlage nicht auszumachen. Das massenhafte Auftreten einiger Unkräuter und die Hinweise auf eine schlechtere Stickstoffversorgung der Böden lassen die Annahme zu, die landwirtschaftlichen Produktionsbedingungen hätten sich im Lauf der bandkeramischen Kultur verschlechtert. Als Wildfrucht wurde die Haselnuss gesammelt. Man nimmt an, dass der Anbau in bandkeramischen Siedlungsgemeinschaften durch Hackbau im Sinne der Terminologie von Eduard Hahn (1914) erbracht wurde, obgleich Lüning die Verwendung des Pfluges vermutet. In den Kulturen, die den Hackbau betreiben, ist der Grabstock wichtigstes Werkzeug. Ein solches Werkzeug ist bisher lediglich für die spätere Egolzwiler Kultur belegt. Die Entstehung der Laktasepersistenz (die Fähigkeit Milch zu verdauen) wird auf die Bandkeramische Kultur zurückgeführt. Offensichtlich nutzen die bandkeramische Kulturen die verkäste Milch ihrer Rinder, so sind an Fundplätzen kleine, trichterförmige Gefäße mit durchlochten Wandungen gefunden worden, die zwar nicht beweisend für eine Käseherstellung sind aufgrund ihrer starken Ähnlichkeit mit neuzeitlichen Geräten, dies aber nahelegen. So konnte eine Arbeitsgruppe um Mélanie Salque (2013) Milch-Fettsäuren in Keramikscherben aus der bandkeramischen Produktion nachweisen. Mit der Ausbreitung des Ackerbaus schwanden die Wälder, um Ackerland sowie Bau- und Feuerholz zu gewinnen. Eine Entwaldung trat durch Ringelung und Rodung ein und wurde durch Verbiss, wenn Haustiere in Hutewäldern gehalten wurden, dauerhaft. Verbreitet waren wegen des milderen Klimas anstelle der Buchenwälder die ausgedehnte Verbreitung der Linden. Dabei sind die entsprechenden Klimaschwankungen in der Jungsteinzeit über den Siedlungs- und Kulturzeitraum mit zu berücksichtigen. Neben Emmer und Einkorn wurde auch Gerste angebaut. Ferner belegen vereinzelte Funde den Nachweis von Rauweizen oder Nacktweizen ("Triticum turgidum L."), Rispenhirse und Hafer. Ebenso kann die Kultivierung von Schlafmohn angenommen werden, etwa seit der Stufe II Flomborn. Die Bandkeramiker, deren Vorläuferkultur in der Starčevo-Körös-Criș-Kultur zu suchen ist, verbreiteten sich entlang der Flüsse von östlicher Richtung her, letztlich aus dem Vorderen Orient und brachte im Vergleich zu der Cardial- oder Impressokultur, die die westliche Route dominiert, zum Teil völlig verschiedene Kulturpflanzen mit sich. Als sich beide Strömungen in späterer Stufe im Main-Neckar-Rhein-Raum trafen, wurde der Mohnanbau bei den späten Linearkeramikern verbreitet. Als bestätigt kann man annehmen, dass alle europäischen Rinder aus Anatolien stammen und keine gezähmten europäischen Auerochsen sind. Seit den genetischen Untersuchungen der Forschungsgruppe um Barbara Bramanti von der Universität Mainz scheint sich abzuzeichnen, dass Viehzucht und Ackerbau im Neolithikum nach Mitteleuropa von Einwanderern aus dem Karpatenbecken vor ca. 7500 Jahren mitgebracht wurde und vermutlich über Generationen von weiter her aus dem Nahen Osten, dem Ort der neolithischen Revolution. Dabei wurden die Nutztiere und Saatpflanzen nicht durch Domestikation oder Züchtung aus dem mitteleuropäischen Wildvorrat geschaffen, sondern mitgebracht. So haben die genetischen Analysen erwiesen, dass die neolithische Bevölkerung nicht Nachfahren der ansässigen eiszeitlichen Jäger und Sammler waren, jedoch waren beide Gruppen auch nicht die Vorfahren der heutigen Bevölkerung in Europa (siehe Die Bandkeramiker als Vorfahren der modernen Europäer). Für einen sich entwickelnden Ackerbau wurde die kalendarische Einordnung der jahreszeitlich bedingten Klimaschwankungen notwendig, so dass man eine veränderte Einstellung der kalendarischen Vorstellungen vom Mond- zum Sonnenkalender in dem Wechsel von einer mesolithischen hin zu einer neolithischen Gesellschaft bzw. einer Jäger und Sammlergesellschaft zu einer sesshaften Lebensweise, wie sie die bandkeramische Kultur darstellt, annehmen muss. Ein Merkmal von frühen Kalendersystemen ist allgemein, das sie auf Beobachtung natürlicher, meist astronomischer Ereignisse (Sonnenstand, Mondphasen, Aufgang oder Stand bestimmter Sterne u. ä. m.) beruhen. Mit dem Eintritt eines bestimmten definierten Himmelsereignisses (z. B. des Neumonds oder der Tag-und-Nacht-Gleiche im mitteleuropäischen Frühling) wird ein neuer Zyklus eingeleitet, (siehe hierzu die Stichbandkeramik und das Kreisgrabenanlage von Goseck). Durch die Landwirtschaft kam es zu einer veränderten Ernährungsweise die besonders mit dem erhöhten Verzehr von Kohlenhydraten und tierischen Fetten einher ging. Aber auch das Spektrum der Erkrankungen änderte sich, so breiteten sich etwa die Tuberkulose, die Brucellose und viele weitere Zoonosen, etwa den Rinderbandwurm, Trichinen, Rotz, Milzbrand vermehrt aus. Ebenso kam es zu spezifischen Veränderungen am Bewegungsapparat, bedingt durch eine einseitige und sich wiederholende körperliche Aktivität. Ferner traten „urbane Probleme“ wie die der Hygiene, Land- und Besitzverteilung und Sicherung, Vorratswirtschaft, Besitzsicherung, Wasserversorgung (Brunnen) usw. hinzu. Werkzeuge. Tasche aus Rinde, Holz und Bast, Fund aus dem linienbandkeramischen Brunnen 17 in der ehemaligen Gemeinde Eythra, jetzt Tagebau Zwenkau, Leipziger Land Der Versuch einer vollständigen Rekonstruktion des bandkeramischen Werkzeuginventars steht vor der Schwierigkeit, dass etliche vermutete Werkzeuge Aufgrund von Zersetzungsvorgängen (allgemeine Zersetzung bzw. Abbau organischer Substanzen) nicht mehr vorhanden sind. Es wurden verschiedenste Werkzeuge aus dem Umfeld der bandkeramischen Kulturen gefunden. Zunächst seien die Dechselklingen oder Schuhleistenkeile für die entsprechenden Beile oder Dechsel erwähnt. Eine Dechsel ist ein quergeschäftetes Beil, das heißt die Schneideklinge, hier aus Stein, war so in den Schaft eingefügt, dass die Schneide rechtwinklig zu der Ebene stand, in der sich (beim Verwenden des Beils) die Längsachse des Schaftes bewegte. Seltener werden an den Fundplätzen durchbohrte Keulenköpfe gefunden. Im Vergleich zu den schon im Mesolithikum verwendeten Artefakten, sind die der Bandkeramiker, die mit einer echten Bohrung ausgeführt als Voll- oder Hohlbohrung durchlocht wurden, komplexer gefertigt. Die Bandkeramiker verwendeten häufig eine schmalhohe Dechsel die man auch als Schuhleistenkeil bezeichnet in Anlehnung an die Form der Schuhmacherleisten. Es findet sich also eine flache Unterseite am Stein und eine gewölbte Oberseite, so dass oft ein D-förmiger Querschnitt vorliegt. Auch die Bezeichnung "schmal-hoher Dechseltyp" findet Verwendung. Eine Klassifikation der Schuhleistenkeile nach Formentypen ist aber nur bedingt möglich, da durch den Gebrauch und die Nachschärfung der Klinge eine Formveränderung stattfinden kann. In einer experimentellen archäologischen Untersuchung, dem „Ergerheimer Experiment“, konnte das problemlose Fällen von Bäumen mit diesen Steinwerkzeugen nachgewiesen werden. Neben diesen nach rückwärts aufgewölbten Dechselklingen gab es in der Bandkeramik bereits auch flache und breite Dechselklingen, auch „Flachbeil“. Die Pfeilspitzen waren in der bandkeramischen Kultur oft relativ klein von meist dreieckigem Umriss mit geraden seitlichen Kanten. Zu Herstellung war ein beträchtlicher Aufwand nötig: Zunächst wurde der Rohstein (Hornstein) zerschlagen und die dabei meist zahlreich entstandenen scharfen Bruchstücke ausgewählt und durch gezielte Schläge weiterverarbeitet. Der größte Nachteil von Flintspitzen war deren Sprödigkeit, denn bei einem Fehlschuss in den Boden oder einen Baum zerbrach die Spitze meist. Beim Aufprall auf einen Knochen im Körper des Beutetiers bzw. Feindes geschah dies ebenfalls, es entstand aber eine scharfe Bruchkante, wodurch das Geschoss kaum gebremst wurde. Ein durch die Größe bedingter geringer Luftwiderstand sowie eine Verlagerung des Pfeilschwerpunkts nach vorne ließen eine hohe Treffsicherheit zu. Von großer Bedeutung für Linearkeramiker waren die Erntegeräte in Form einer Sichel. Man fertigte diese Erntemesser aus einem leicht konkav gekrümmten Holz, in welchem man Kerben einbrachte, in denen scharfkantige Klingenabschläge mit Birkenpech befestigt wurden. Das geerntete Getreide wurde auf Mahlsteinen zu einem schrothaltigen Mehl vermahlen. Der das Getreide zerschrotende Bandkeramiker nahm eine kniende Position vor dem Mahlstein ein. Ein steinerner Läufer wurde zumeist mit beiden Händen durch eine Vor- und Rückwärtsbewegung des Oberkörpers auf dem sogenannten Unterlieger bewegt, dadurch wurde das Getreide geschrotet. In der Grabungsstätte "Siedlung Rosdorf „Mühlengrund“" wurden sogenannte Spinnwirtel aus Ton bezeugt, die zur Herstellung von Faden und so auch zur Herstellung von Textilien dienen konnten. Jens Lüning nimmt an, dass bereits die Linienbandkeramiker den Pflug nutzten. Dafür gibt es jedoch keine eindeutigen Belege. Anhand der tönernen Figurinen sowie figürlich geformten Gefäße lassen sich Männer und Frauen anhand von Haartracht, Bartmode, Kopfbedeckungen und Bekleidung unterscheiden. Beide Geschlechter trugen hosenartige Beinkleider und Überwürfe über die Oberkörper, Darstellungen männlicher Individuen zeigen einen runden und weibliche Figurinen einen spitzen Ausschnitt. Austauschsysteme. Für die Bandkeramik im Rheinland ist ein Austauschsystem für Silexartefakte nachgewiesen. Hierbei wurden Feuersteinrohstücke und sogenannte Grundformen (Abschläge, Klingen, Kerne etc.), aber auch fertige und halbfertige Geräte (z. B. Bohrer, Sichelklingen, Kratzer) von Siedlung zu Siedlung weitergegeben. Es existierte ein Netzwerk aus größeren Haupt- bzw. Zentralsiedlungen (z. B. Langweiler 8), kleineren Nebensiedlungen bzw. Weilern und Einzelhöfen. Im Allgemeinen waren die kleineren Siedlungen meist von den benachbarten größeren Siedlungen abhängig. Der Austausch, dem mutmaßlich mehr soziale Aspekte zugrunde lagen als ein wirtschaftlicher Handel im eigentlichen Sinne, fand auch über weite Strecken statt. So gelangte z. B. Rullen- und Rijckholt-Feuerstein aus der niederländischen Provinz Limburg bis ins Rheinland. Nach Intra-Site-Analysen, d. h. Untersuchungen zu den Vorgängen innerhalb eines Fundplatzes, sind solche Austauschsysteme auch innerhalb bandkeramischern Siedlungen anzunehmen. Diese Vorgänge sind vermutlich auf verschiedene soziale Gruppen innerhalb der Siedlungen zurückzuführen. Es gibt einige deutliche Hinweise, dass Mitglieder bandkeramischer Siedlungen eine Form des neolithischen Bergbaus betrieben. So wurde der Rötel-Abbau ebenso nachgewiesen wie die Suche nach Silex. Siedlungswesen. Gegenüberstellung früher und später Haustypen, ältere und jüngere Bandkeramik Die Weise der bandkeramischen Produktion basierte auf Ackerbau und Viehzucht. Hieraus ergeben sich Implikationen, Bevorzugungen oder negativ formuliert Einschränkung des Siedlungsraumes durch die Verbreitung geeigneter landschaftlicher Räume und Bodenverhältnisse. Ein weiteres wichtiges Kriterium bei der Wahl des Siedlungsplatzes ist das Vorhandensein von Wasser, denn ohne diese Ressource war weder ertragreiche Landwirtschaft noch ein C. Bakels (1978), B. Sielmann (1972), A. Jockenhövel (1990) führten an, das bandkeramische Siedlungsplätze zumeist nicht im Zentrum, sondern in den Randbereichen lössbedeckter Regionen lagen und dort wiederum erhöht oder im oberen Drittel zu einem Wasserlauf hin abfallenden Hanglagen bzw. am Rande von Hochterrassen. Man bevorzugte Höhenlagen bis 300 m über den Meeresspiegel. Auch wurden vor allem Ost- und Südosthänge für die Siedlungen bevorzugt. Bezüglich der Entfernungen zu Gewässern bzw. Flüssen bis liegen die Siedlungen innerhalb eines Radius von 600 m zum Gewässer. Dennoch kann eine große Variationsbreite hinsichtlich des tolerierbaren Abstands zur Wasserstelle festgestellt werden. Bei bedarf wurden entsprechend tiefe Brunnen für die Siedlungen gegraben. An geeigneten Stellen entstanden Einzelhofanlagen, zumeist als mittelgroße Gruppensiedlungen von fünf aber bis zu zehn Hofplätzen lebten. Typisch waren für die Bandkeramiker Ansiedlungen bestehend aus einigen stabilen Langhäusern. Die Siedlungsplätze lagen häufig in Niederungen mit fruchtbarem Boden (Tschernosem) und waren dabei häufig in Form von Gruppen, in Siedlungsbändern oder -kammern angelegt. Zwischen diesen Gebäudeclustern, die aus acht bis zehn Siedlungen bestanden breitete sich weitgehend unberührtes Waldgebiet aus. Ein Siedlungsplatz bestand aus etwa fünf bis acht Häusern, alle lagen etwa zwanzig Meter voneinander entfernt lagen. Im Zeitraum der frühen Linienbandkeramik finden sich jedoch oft lediglich Einzelhäuser. Die Bandkeramische Kultur zeichnete sich durch charakteristische Langhäuser aus (Rosdorf „Mühlengrund“), die in kleinen Gruppen auf sogenannten „Hofplätzen“ zusammenlagen. Die Häuser hatten eine Grundfläche von bis zu 40 m × 8 m (kleinere Bauten etwa 20 m × 5 m). Sie bestanden aus einem Gerüst von 3 parallelen Pfostenreihen. Die äußeren Pfostenreihen waren zum Teil mit lehmverputzten Rutengeflechten zu Wänden gearbeitet, das auf den Pfosten sitzende Satteldach vermutlich mit Stroh, Schilf oder Rinde gedeckt. Die Häuser waren in der Regel nordwest-/südöstlich orientiert, wobei die Wände des nordwestlichen Teils zum Teil aus Spaltbohlen bestanden; im südöstlichen Teil befand sich möglicherweise eine Zwischendecke. Jüngsten Forschungen nach konnte rekonstruiert werden, dass eine Siedlung bzw. einzelne Langhäuser sehr wohl von Mitgliedern unterschiedlicher Herkunft und sozialen Ranges bewohnt wurden. Das charakteristische dreigliedrige Langhaus war jedoch nicht der einzige Haustyp. Es gab insgesamt drei verschiedene Grundpläne von Häusern, die modular zusammengesetzt waren. Ausgangspunkt war das zentrale Modul (Kleinbau). Daneben gab es als Variante das zentrale Modul mit dem nordwestlichen Anbau (Bau). Vom Zentralbau wird anhand der Pfostenanordnung, der sogenannten Y-Stellung im Mittelteil, eine frühe und späte Form unterschieden, wobei diese Pfostenstellung bei letzterem nicht mehr vorkommt. Nach Jens Lüning dienten die Häuser trotz ihrer Größe nur einer Kleinfamilie von sechs bis acht Personen als Unterkunft, hatten jedoch wahrscheinlich neben der Wohn- auch eine Speicherfunktion (eingezogene Zwischendecke im Südost-Teil, nur über die Art der Pfosten belegt). Eine Verwendung als Stallung ist unwahrscheinlich; in Bodenuntersuchungen müssten sonst Phosphate aus Tiermist nachweisbar sein, was aber nicht der Fall ist. Der Befund von Talheim legt nahe, dass möglicherweise mehr Menschen in einem Haus lebten. Die Funktion der Häuser ist jedoch nicht abschließend geklärt. Die Langhäuser, so konnte nachgewiesen werden, weisen eine große Unterschiedlichkeit bezüglich ihrer Grundflächen auf, so errechnete man für bestimmte Fundorte, etwa aus Siedlungen im Rheinland eine Grundflächenvaraibilität von 40 m² bis zu 255 m². Die Untersucher schlossen daraus, dass die unterschiedlichen Größen und damit auch Gestaltungen der Langhäuser auf soziale und/oder funktionale Unterschiede zurückzuführen seien. Die Langhäuser wurden von den Menschen des Neolithikums tief gegründet und zur Befestigung und dem Ausbau hoben sie tiefe Lehmentnahmegruben aus, die späterhin mit Abfällen verfüllten. Man schätzt die Bevölkerungsdichte auf 0,6 Personen pro km² ± 0,1 P. Zur Nutzung des Innenraumes lassen sich nur Spekulationen anstellen. Vereinzelt wurden Feuerstellen gefunden. Im Pariser Becken sogar ein als Brunnen gedeuteter Befund. Der Lehm zum Verputzen der Wände wurde direkt neben dem Haus entnommen. Die dabei entstandenen Gruben wurden wahrscheinlich als Keller genutzt; wenn sie ihre Speicherfunktion verloren hatten, als Mülldeponie. In der frühen Forschung über die Bandkeramikkultur führte dies zur irrigen Annahme, dass die Gruben die eigentlichen Behausungen darstellten („Kurvenkomplexbauten“). Die Häuser standen zumeist alleine, stellenweise in Gruppen. In älteren Publikationen wurden größere Siedlungen angenommen; eng beieinanderliegende Funde von Hausgrundrissen scheinen jedoch zu unterschiedlichen Perioden zu gehören. Es ist zu vermuten, dass Häuser, wenn sie unbrauchbar geworden waren, in unmittelbarer Nähe neu aufgebaut wurden. Wichtige Siedlungen sind Bylany, Olszanica, Hienheim, Langweiler 8, Köln-Lindenthal, Elsloo, Sittard, Wetzlar-Dalheim. Im Allgemeinen richtete man die Gebäude in einer nordwestlich zu südöstlichen Richtung aus, dabei wurden die Wandkonstruktionen auf der nordöstlichen Seite oft mit Holzpfählen verstärkt. Die Langbauten waren in einer locker platzierten weiler- und dorfartigen Struktur angeordnet, gelegentlich umgaben Gräben und Erdwälle diese Siedlungen. Die in den ältesten bandkeramischen Siedlungen nachgewiesenen Erdbefestigungen aus Wall- und Grabenanlagen müssen nicht explizit militärisch-strategischen Aufgaben gedient haben, sie stellen aber dennoch ein Annäherungshindernis sowohl für Tiere und andere Menschen dar. Wegen ihrer Geschlossenheit mit nur wenigen Durchlässen kann man sie durchaus als Befestigungen der Siedlungen bezeichnen. Neben dem Holzverbrauch zum Bau von Langhäusern zeigt auch der bandkeramische Brunnenbau in Blockbohlenbauweise den hohen Aufwand bei der Holzbearbeitung. Die Brunnen belegen außerdem den hohen Stellenwert, der einer Trinkwasserquelle unmittelbar in der Siedlung beigemessen wurde. Die Entfernung zu einem fließenden Gewässer hätte in einigen Fällen nur wenige Hundert Meter betragen. Die Gebäudekonstruktionen boten neben der Wohnfunktion noch die Möglichkeit zur Bevorratung, eine eingezogene Zwischendecke legt den Schluss nahe. Ob die Gebäude auch als Stallung dienten bleibt offen, der fehlende Nachweis von Abbauprodukten aus tierischen Dung deuten aber nicht darauf hin. Erdwerke. Archäologisch lassen sich erstmals sogenannte Erdwerke nachweisen, große Anlagen mit Gräben, Wällen und Palisaden, die manchmal, aber nicht immer, nach den Haupthimmelsrichtungen orientiert sind. Manche Erdwerke sind kreisrund, andere elliptisch, wieder andere sind unregelmäßig rund. Erdwerke gibt es seit der ältesten Linearbandkeramik, sie sind jedoch in der jüngeren LBK häufiger. Bisweilen finden sich in den Gräben Skelette oder Teile von Skeletten, Keramik, Tierknochen, Silex und andere Funde. Lange Zeit wurden Erdwerke als Anlagen mit kontinuierlich angelegtem Grabenzug angesprochen. Aufgrund der Beobachtungen in Herxheim und Rosheim muss man sie als Grubenanlagen einordnen. Aufgrund ihrer Bauweise aus sukzessiv entstandener, einzelnen einander überlagernden Langgruben, kann eine Verteidigungsfunktion ausgeschlossen werden. Diese Bauweise besteht indes neben der mit kontinuierlichem Grabenzug. Das Bestehen von Erdwerken ohne Verteidigungscharakter kann somit als gesichert gelten. Ob die anderen Anlagen eine derartige Funktion hatten, wird angesichts der kultischen Bedeutung fraglich. Grubenanlage von Herxheim. a> (Museum des Institutes für Geowissenschaften an der Ruprecht-Karls-Universität in Heidelberg) Die Freilegung der einzelnen Erdschichten in den Grubenanlage von Herxheim hat bisher Reste menschlicher Skelette von mindestens 450 Personen geliefert, dazu Deponierungen von Tierknochen und mit Absicht zerstörte Gegenstände wie Mahlsteine und Keramikgefäße. Die große Menge der Skelettteile ist untypisch für eine einzelne Siedlung. Die bei Herxheim gefundenen Knochen weisen eine gezielte Schnittführung auf, so fanden sich etwa auf den Schädelkalotten flache, schmale Schnittspuren die an bestimmten Stellen mit den Steinwerkzeugen angebracht wurden, um wahrscheinlich die vorhandene Kopfhaut vom Schädelknochen herabzuziehen. Auch an anderen Knochen der Leichname lassen sich solche gezielten Schnittspuren feststellen. Schnittspuren weisen darauf hin, dass die Haut abgezogen wurde, Sehnen durchtrennt wurden, um Gliedmaßen abzutrennen und Körperteile systematisch entfleischt wurden. Die Spuren seien solchen vergleichbar, die man an den Knochen geschlachteter Tiere findet. Die Untersuchung der von Kalksinter gereinigten Knochen und der daran befindlichen Schnittspuren brachte Bruno Boulestin, einen Anthropologen der Universität Bordeaux, zu der Vermutung, dass die gefundenen Knochen Reste kannibalischer Mahlzeiten seien. Häufig waren die Knochen zertrümmert und das Muskelgewebe bzw. -fleisch abgeschabt. Die Archäologen rekonstruierten, dass man auf diese Weise etwa nur fünfzig Jahre die Verstorbenen bestattete. Zeitlich lassen sich die Vorgänge auf das Ende der Epoche der Bandkeramiker, also zwischen etwa 5000 und 4950 v. Chr. datieren. Bei den Knochenfunden, bei denen kleinere Knochen wie z. B. Hand- und Fußwurzelknochen fast vollständig fehlen, handelt es sich vielleicht um (nicht unwidersprochene) Zweitgrablegungen von Bandkeramikern aus weiten Teilen Europas. Keramikfunde weisen auf Verbindungen zum Pariser Becken, der Moselgegend, Belgien, dem Saarland, Mitteldeutschland und Böhmen. Es wurden Tonscherben mit Bandmustern gefunden, wie sie in diesen weit entfernten Siedlungsgebieten üblich waren. Dies könnte darauf hindeuten, dass sich in Herxheim ein zentraler Kultplatz der europäischen Linienbandkeramik befand. Vielleicht wurden Tote, die in ihrer Heimat schon einmal bestattet gewesen waren, hierher gebracht, um an diesem Kultort noch einmal beigesetzt zu werden. Archäologen vermuten hierbei ein Totenritual, auf das auch diverse Schäden an den Skeletten hinweisen. Die Untersuchung der Isotopen von Strontium-87 und Strontium-86 im Zahnschmelz von 54 Individuen zeigte, dass diese aus granitreichem Bergland stammten, also keine Bandkeramiker waren, die ja ausschließlich auf lössreichen Talebenen siedelten und ihre Äcker anlegten. Formen und Stilphasen. Die Standardformen bandkeramischer Töpferware sind: Kumpf, Flasche, Butte (eine Flasche mit fünf Querhenkeln) und Schale. Es besteht eine große Ähnlichkeit zu der Keramik der danubischen Starcevo-Kultur. Es lassen sich unterschiedliche Stile oder besser Stilphasen entlang eines Zeitleiste differenzieren. So zunächst einmal eine ältere Bandkeramik 5700–5300 v. Chr. und eine jüngere 5300–4900 v. Chr. Bei letzterer, westlicher Bandkeramik kann man im Wesentlichen die Stilphasen des Rubané du Nord Quest, Rubané du Alsace, Rubané du Neckar und die Rubané du Sud-Quest unterscheiden. Die Gefäße der ältesten Bandkeramik waren dickwandig und stark organisch gemagert. Es wird zwischen verzierter und unverzierter Keramik unterschieden, was allerdings eine eher technische Einteilung darstellt, da unverzierte Keramik z. T. auch Verzierungen (z. B. Randmuster) aufweist. Die Gruppe der unverzierten Keramik besteht hauptsächlich aus Vorratsgefäßen von grober Machart und gröberer Wandstärke. Verzierte Keramik wird hauptsächlich durch Kümpfe repräsentiert, die eine geringe Wandstärke aufweisen und aus feinem Ton hergestellt sind. Verzierung der Tongefäße. Die Verzierungen der Keramik bestehen hauptsächlich aus den dieser Kultur namensgebenden Bändern. Daneben treten Motive auf, die in den Leerräumen zwischen den Bändern angebracht wurden, sogenannte Zwickelmotive (s. Abb. rechts: z. B. die drei waagerechten Linien auf dem Kumpf). Es ist anzunehmen, dass die Verzierungen, vor allem die Zwickelmotive, nicht nur einen dekorativen Zweck erfüllten, sondern vielmehr als Ausdruck der Zusammengehörigkeit bzw. als Zeichen für soziale Gruppen zu verstehen sind. Aus dem 1973 begonnenen Projekt „Siedlungsarchäologie der Aldenhovener Platte (SAP)“ (Rheinland) ging ein Merkmalskatalog hervor, der ein Aufnahmesystem für die Bearbeitung der Keramik bietet und in jüngerer Zeit durch die AG Merkmalskatalog überarbeitet, ergänzt und online zur Verfügung gestellt wurde. Schmuck. Die Bandkeramiker verwendeten Schalen der Lazarusklapper (Spondylus gaederopus) eine zu den Stachelaustern gehörende Muschelart, die im Schwarzen Meer, im Mittelmeer und angrenzenden Atlantik vorkommt und zeigt die schon im Neolithikum vorkommenden Handelsnetze über große Entfernungen an. Die Bandkeramiker fertigten aus den Spondylus-schalen Armringe, Gürtelschnallen und Anhänger, sie finden sich vor allem in Gräberfeldern, hier sind Aiterhofen-Ödmühle in Bayern und Vedřovice in Mähren zu nennen. Die anthropomorphe Plastik. Schon seit den ältesten Bandkeramikern fand sich in den Grabungen die verschiedenartigsten Gattungen figürlicher anthropomorpher Darstellungen. Oft sind es Voll- oder Hohlplastiken, geritzte menschliche Darstellungen und figürliche Funde aus Knochen. Die Plastiken sind stereotyp und leiten sich von der Kultur ab, aus der die LBK entstand, der Starčevo-Kultur. Sie begleiten als Kulturerscheinung die Ausbreitung der Bandkeramik in Mitteleuropa, wobei sie sich auf das Siedlungsgebiet der ältesten Bandkeramik beschränkt und Fundkonzentrationen sich im mitteldeutschen, österreichisch-slowakischen und mainfränkisch-hessischen Raum abzeichnen. Insgesamt sind um die 160 Bruchstücke bekannt, die sich auf etwas mehr als 120 Fundpunkte verteilen. Innerhalb des bandkeramischen Spektrums zählt die Gruppe der Statuetten somit zu den seltenen Funden. Figurale Kleinplastiken sind aus Ton gefertigt, von geringer Größe und wurden fast immer zerbrochen aufgefunden. Originär bandkeramischen Ursprungs sind die Darstellungen der runden Augenhöhlen, das Verzierungselement der ineinander gestellten Winkel, die oft in die Seiten gestemmten Arme und die Lockenfrisur einiger Statuetten. Während von den mittelneolithischen Kulturgruppen im Westen Deutschlands (Großgartacher Kultur, Rössener Kultur, Hinkelstein-Gruppe) keine anthropomorphe Plastik bekannt ist, gibt es einige Figurinen der Stichbandkeramik in Sachsen und Böhmen, sehr vielfältige und zahlreiche Figurinen dagegen in der gleichzeitigen östlichen Lengyelkultur. Vielen Figuren, wie der sitzenden („thronenden“) und reich verzierten Plastik der älteren LBK von Maiersch, fehlen eindeutige Geschlechtsmerkmale. Jens Lüning deutet diese Ritzverzierung – auch die der tiergestaltigen – als Kleidung, was zumindest bei der eindeutigen Darstellung von Gürteln und Halsausschnitten von Kleidungsstücken in verschiedenen Fällen plausibel ist. Hermann Maurer (1998) fokussiert hingegen stärker auf Ornamente, die an Skelettdarstellungen erinnern und von ihm im Sinne eines kulturübergreifenden „Röntgenstils“ verstanden werden. Das Bruchstück des in die mittlere bis jüngere LBK datierenden „Adonis von Zschernitz“ stellt neben der Plastik aus Brunn-Wolfsholz die bisher älteste eindeutig männliche bandkeramische Tonfigur dar. Dieter Kaufmann geht davon aus, dass diese Figürchen absichtlich zerbrochen wurden. Dafür spricht, dass die Plastiken nicht nur an herstellungsbedingten Schwachstellen (Kopf, Arme, Beine), sondern auch am Rumpf zerbrochen waren, wie der „Adonis von Zschernitz“ zum Beispiel zeigt. Alle Plastiken stammen – sofern es keine Lesefunde sind – aus Haus- bzw. Siedlungsgruben, was eine kultische oder rituelle Bedeutung im Haus nahelegt. Figuralgefäße. Neben der Plastik kommen auch figürlich geformte Gefäße („Figuralgefäße“) in anthropomorpher und zoomorpher Form vor. Manche Gefäße weisen Gesichtsdarstellungen auf, wie die Gesichtsdarstellungen der älteren Linearbandkeramik von Ulrichskirchen und Gneidingen zeigen, die auf flaschenförmigen Gefäßen appliziert waren, oder sie stehen auf menschlichen Füßen. Bestattungen. Die Linienbandkeramik kennt Einzel- und Kollektivbestattungen, Brandbestattungen, Teil- und Körperbestattungen auf Grabfeldern, in Siedlungen und an anderen Orten. Bisweilen finden sich beide Bestattungsformen auf demselben Gräberfeld. Bei den Körpergräbern handelt es sich um rechte oder linke Hocker (zumeist in Linksseitenlage, seltener in rechter Seitenlage), die gedachte Blickrichtung geht dabei oft in die östliche oder südliche Himmelsrichtung. Die Toten wurden in Tracht und mit Beigaben bestattet, dabei zeigen sich geschlechtsspezifische Unterschiede. Typische Trachtbestandteile sind Schmuckgegenstände aus Spondylus gaederopus, einer Meeresmuschel, die in der Adria und in der Ägäis verbreitet war und über weite Strecken gehandelt wurde. Aus ihr wurden Perlen für Ketten und Kopfschmuck, Armringe und Gürtelschließen hergestellt. Perlen wurden auch aus Stein und Bein gefertigt. Im Donauraum ist Schmuck aus Schnecken belegt (z. B. im großen Gräberfeld von Aiterhofen-Ödmühle). Im Hüft- und Beinbereich liegen oft Knochenknebel, deren Funktion noch nicht ganz geklärt ist. Beigaben umfassen Mahlsteine, Dechsel („Schuhleistenkeil“), Pfeilspitzen, Farbsteine (Rötel, Grafit), tierische Gewebereste (nachweisbar in Form von Tierknochen) und Keramikgefäße. Außerdem ist in der Linienbandkeramik die seltene Sitte der Sekundärbestattung belegt, d. h., der Tote wurde zu einem späteren Zeitpunkt wieder ausgegraben und an anderer Stelle beigesetzt. Dies ist beim Erdwerk von Herxheim nachweisbar, allerdings nur bei wenigen Knochen. Der Großteil der Herxheimer Knochenfunde wird nach neueren Untersuchungen kannibalistischen Praktiken zugeordnet, da viele gekocht oder gegrillt worden waren, Schlacht- oder Schabespuren aufweisen. In der Jungfernhöhle bei Tiefenellern oder im Hohlenstein-Stadel wurden Skelettteile in Vergesellschaftung mit Keramik und Tierknochen gefunden. Jörg Orschiedt kam nach detaillierten Untersuchungen zu der Auffassung, dass bei den Funden eher kein Kannibalismus, sondern vielmehr ein spezielles Totenritual anzunehmen ist. Eine dritte Art und Weise der Totenbehandlung in der LBK kann mit dem Terminus „Nichtbestattung“ charakterisiert werden. „Dabei handelt es sich ausschließlich um Gewaltopfer, die auf Schlachtfeldern liegen blieben oder in nach Massakern angelegten Massengräbern deponiert wurden.“ Toten- oder Opferritual. Dabei finden sich nur Belege (egal welcher Art) für etwa 20 % der zu erwartenden Toten einer Wohnbevölkerung; diese Gruppe hält Nieszery für einen privilegierten Teil der Gesellschaft (siehe Gräberfeld). Als Ausdruck dieses Kultes werden von Jörg Orschiedt die Funde aus der Jungfernhöhle, einem neolithischen Kultplatz im Landkreis Bamberg, interpretiert. Rätsel gaben die mindestens 40 meist weiblichen Skelette auf (mindestens 29 waren Kinder unter 14 Jahren), denn alle waren unvollständig. Es kann sich um keine Begräbnisstätte handeln, da die Skelette überdies auch noch verstreut lagen. Alle Schädel waren zertrümmert und einige Röhrenknochen zersplittert, wobei eine Entnahme des Knochenmarks vermutet wurde. In den Kiefern fehlten Zähne. In der bandkeramischen Sepulkralkultur nahm der Rötelfarbstoff eine bedeutende Rolle ein. Rötelstreuungen innerhalb der Gräber, Einfärbungen der Toten oder Beigaben in Form von geschliffenen Farbsteinen bzw. mit Rötelpaste gefüllten Gefäßen waren fester Bestandteil ihres Totenkultes. Es wird vermutet, dass es sich bei der Beigabe von Rötel um eine besondere Beigabe handelt. Rötel taucht überwiegend in den reicher ausgestatteten bandkeramischen Gräbern auf. Üblicherweise wurden die Toten in linksseitiger Hockerbestattung in Ost-West-Ausrichtung bestattet, als Grabbeigaben erhielten Männer Steingeräte und Waffen, die Frauen Keramik oder Schmuck. Hinweise auf Kannibalismus. "„Als archäologische Kriterien für Kannibalismus gelten Knochenzertrümmerungen, Hack- und Schnittspuren, Längsspaltung der Röhrenknochen zur Mark- und Öffnung des Schädels zur Gehirnentnahme sowie Feuereinwirkung, die in gleicher oder ähnlicher Weise auch an Tierknochen vorkommen und auf die gleiche Behandlung von Mensch und Tier schließen lassen.“" Ob es denn unter den Bandkeramikern zu einer irgendwie gearteten Form des Kannibalismus kam – Kannibalismus in Extremsituationen (etwa aus Nahrungsmangel) oder aber in seinen rituell bzw. religiös geprägten Erscheinungsformen – lässt sich aus dem jetzigen Fundmaterial nicht eindeutig belegten. Zwar stammen die Knochen von frisch verstorbenen Leichnamen, so dass es naheliegt, eine Zerlegung der Körper vor Ort anzunehmen, und weiter deuten die Art der knöchernen Schnittspuren daraufhin, dass die Körper systematisch vom Fleisch und den Eingeweiden abgetrennt oder zerlegt wurden. Diese Interpretation würde einer Zweitgrablegung im Wesentlichen widersprechen. So ist eine anschließende Ingestion im Sinne von kannibalischen Handlungen damit weder belegt noch nach heutigem Kenntnisstand bewiesen. Hätte Kannibalismus stattgefunden, wäre zu klären, aus welchen Beweggründen dieser vorgenommen wurde. War er die Folge und Konsequenz aus kriegerischen Handlungen, Ausdruck einer krisenhaften Änderung im Verhältnis zwischen Mensch und Umwelt (im Sinne eines ökologischen Erklärungsmodells), war es die Demonstration von Handlungsweisen einer nur lokalen bandkeramischen Kultur, bewegten ausschließlich religiöse Vorstellungen die Menschen in ihrem Tun oder führten die unterschiedlichsten Arten, wie Invasionen, Katastrophen und Epidemien (im Sinne eines nicht-ökologischen Erklärungsmodells) die Bandkeramiker zu solchen Handlungen u. a. m? Im Übrigen finden sich nur wenige ausgewiesene bandkeramische Fundstellen (Herxheim, Jungfernhöhle, Talheim oder Massaker von Talheim) in welchen anhand der knöchernen, menschlichen Skelette auf einen gewaltsamen Tod der Menschen geschlossen werden. Hypothesen zur Religion. Wie bei allen schriftlosen Kulturen der Vor- und Frühgeschichte können über die Weltsicht oder die religiösen Vorstellungen der Menschen der Linearbandkeramik keine gesicherten Aussagen getroffen werden. Hinweise liefern die anthropomorphen (menschengestaltigen) Plastiken und Ritzzeichnungen, denen in der Forschung stets ein großes Interesse zukam. Sie werden von der Mehrzahl der fachwissenschaftlichen Publikationen in den religiösen Bereich der Bandkeramik eingeordnet. Verschiedene Autoren interpretieren sie als Ausdruck von Fruchtbarkeitskulten, der Verehrung einer "Urmutter" oder als die Manifestation eines Ahnenkults. Diese Deutungen müssen einander nicht ausschließen. Fruchtbarkeitskult. Einige Forscher bringen mit der neuen Produktionsweise (Ackerbau, Viehzucht) und infolge der Beobachtung vom Werden und Vergehen in der Natur eine Verehrung der Fruchtbarkeit in Verbindung. Als deren Manifestation sei die Frau und ihre Gebärfähigkeit verstanden worden. Daher wird vermutet, dass die bandkeramischen Plastiken Frauen bzw. Göttinnen darstellten. Svend Hansen ist dagegen der Auffassung, dass die Verbindung zwischen Frau und Fruchtbarkeit ein Konstrukt des 19. Jahrhunderts sei und keinesfalls auf das Neolithikum übertragen werden könne. Ein entwickelter Kult um eine weibliche Gottheit mit Tempelanlagen und dazugehöriger Priesterschaft lasse sich für das Neolithikum im archäologischen Fundinventar nicht feststellen. Seine Kritik stützt sich vor allem darauf, dass das Geschlecht bei vielen Statuetten nicht eindeutig bestimmbar sei. Daraus folgert er, dass die Zuweisung des weiblichen Geschlechts bei den Statuetten auf Interpolation beruhte. Mit der Infragestellung des weiblichen Geschlechts bricht seiner Auffassung nach die Theorie von dem Kult um eine Fruchtbarkeitsgöttin zusammen. Urmutter. Auf den Keramikgefäßen gibt es recht häufig das Motiv von stilisierten Figuren mit erhobenen Armen und meist gespreizten Beinen. Auch wenn das Geschlecht meist nicht erkennbar ist, vertritt die Religionswissenschaftlerin Ina Wunn die Auffassung, dass es sich um Frauen in Empfängnis- oder Gebärhaltung handele und um ikonografische Darstellungen einer "Urmutter", wie sie z. B. auch in Çatalhöyük gefunden wurden. Sie soll mit Geburt bzw. Wiedergeburt und Tod verbunden gewesen sein. Ob es in der Bandkeramik einen Kult um eine "Urmutter" gegeben hat, kann aus dem Fundgut nicht erschlossen werden. Nach Ina Wunn (2001) habe es jedoch keine „Fruchtbarkeitskulte“ gegeben. Kultdramen einer sich im Jahresverlauf wandelnden Gottheit, die mit dem Wandel der Natur in Verbindung gebracht wurde, seien viel späteren Datums und könnten für das Neolithikum nicht belegt werden. Die übrigen Frauenplastiken könnten nach Ina Wunn (2001) Ahnen- und Schutzgeister darstellen, einige auch als Amulette getragen worden sein. Ahnenkult. Alles zusammen ist jedoch der Bandkeramischen Kultur nicht explizit bzw. belegt zuzuordnen. Das Ende der Bandkeramik. Der chronologische Übergang vom Mittel- zum Spätneolithikum (Saarbrücker Terminologie) wird durch das „Verschwinden“ der Linienbandkeramischen Kultur angezeigt. Tatsächlich wird dieser Prozess als das Ergebnis regionaler Entwicklungen betrachtet. So ist die LBK schon ab ihrer 3. Stufe (sog. Jüngere LBK) in deutlich unterscheidbare Untergruppen zerfallen: Rhein-, Donau-, Elbe-, Oder-Gruppe (benannt nach den wichtigen Flusssystemen, an denen die LBK sich nach Mitteleuropa hineinentwickelt hat), was angesichts der enormen Größe des ursprünglichen Territoriums nicht verwundern kann. Mögliche Ursachen. Klimatischen Veränderungen kommt eine wichtige Rolle zu – zwar nicht als alleinige Ursache kultureller Reaktionen und gesellschaftlicher Brüche, aber als Auslöser in ohnehin krisenhaften Situationen. Ein Fund aus Talheim deutet auf Spannungen am Ende der Bandkeramik hin. In Talheim fanden sich die Skelette von 18 Erwachsenen und 16 Kindern und Jugendlichen regellos in ein Massengrab geworfen. Auch das Fehlen von Grabbeigaben spricht gegen eine reguläre Bestattung. Anthropologische Untersuchungen ergaben, dass fast alle Individuen beim Massaker von Talheim von hinten erschlagen oder erschossen wurden. Bei den Tatwerkzeugen handelte es sich um quergeschäftete Steinbeile und Pfeile. Es ist also anzunehmen, dass die Täter ebenfalls Bandkeramiker waren. Natürlich sind solche Thesen schwer zu belegen. Weitere Belege für gewaltsam zu Tode gekommene Menschen innerhalb der Bandkeramik liegen u. a. aus Schletz bei Asparn, Herxheim und Vaihingen an der Enz vor. Der Tübinger Ur- und Frühgeschichtler Jörg Petrasch hat methodenkritisch versucht, die Rate der Gewalttätigkeiten auf die Gesamtpopulation in der Bandkeramik hochzurechnen und kommt zu dem Schluss, dass solche Massaker keine singulären Ereignisse gewesen sein können. Demnach müssen Gewalttätigkeiten in den bandkeramischen Gesellschaften regelmäßig, wenn auch selten, vorgekommen sein. Diskussion der Funde. Die Massakergräber haben seit ihrer Entdeckung für reichlich Diskussionsstoff innerhalb der Archäologie gesorgt. Manche Forscher sehen in ihnen Kennzeichen einer kollabierenden Gesellschaft, die durch die zunehmende Zersiedelung der Landschaft in eine Ressourcenverknappung geriet. Es wird auch die These vertreten, dass die Massakergräber heftige gesellschaftliche Auseinandersetzungen und Kämpfe um Land-, Weide- und Ackerrechte dokumentieren. Die These der Resourcenverknappung kann durch die immer kürzer werdenden Distanzen des importierten Feuersteins nachvollziehbar dokumentiert werden, d. h. die weitreichenden Handels- bzw. Transferkontakte nehmen zum Ende der LBK ab. Gleichzeitig setzt ein erstes „professionelles“ Ausbeuten der lokalen Lagerstätten ein (Feuersteinbergwerk von Abensberg-Arnhofen). Das kann als positive Gegenreaktion verstanden werden und sollte darum eigentlich nicht als „Verknappung“ bezeichnet werden. Auch eine gesteigerte Nutzung der Haustier-Ressourcen (von der „lebendigen Fleischkonserve“ zur spezialisierten Rinderzucht) ist zu bemerken; besonders drastisch in der Hinkelstein-Kultur (früher: LBK 5), was durch die mächtigen Fleischbeigaben, ganze Rinderviertel und mehr, in den Gräbern belegt ist. Auch hier ist keine „Verknappung“ festzustellen. Vergleiche der späten LBK-Gefäße mit jenen Kulturen, die auf ihrem Gebiet direkt folgen (Hinkelstein- / Groß-Gartach, Stichbandkeramik, Lengyel), zeigen einen homogenen Übergang von der jeweiligen LBK-Gruppe in die Folgekultur. Interessanterweise zeigen jene Gebiete die größte LBK-Affinität, die dem Ursprungsgebiet der LBK am nächsten liegen: Die Lengyel-Kultur hat einen besonders fließenden Übergang, wohingegen sich die westlichsten Nachfolgegruppen der LBK deutlicher abgrenzen lassen. Nachfolgende Kulturen. Verbreitungswege vorläufiger und nachfolgender Kulturen Die Linienbandkeramik ist die wichtigste Kultur des mitteleuropäischen Frühneolithikums. Ihr Ende markiert (nach der Chronologie von Jens Lüning) zugleich den Übergang zum Mittelneolithikum. Nachfolgekulturen der Linienbandkeramik sind Genetische Untersuchungen. Die Bandkeramiker – haben nach dem heutigen Forschungsstand – im Genpool der Europäer nur sehr geringe Spuren hinterlassen. Dabei sind die wissenschaftlichen Interpretationen der gefundenen Ergebnisse hinsichtlich der genetischen Verteilung spezieller Haplotypenvariationen in den bandkeramischen Kulturen noch sehr im Fluss. Nach Wolfgang Haak (2006) ist die mitochondriale Haplotypenverteilung im Bereich der Bandkeramiker divergent, so träfen im Verbreitungsgebiet ihrer Kultur in den untersuchten Proben im gesamten Mitteleuropa Einflüsse aus mehreren Richtungen aufeinander. Im westlichen, europäischen Verbreitungsgebiet der Bandkeramiker finden sich hauptsächlich der mitochondriale Haplotypus V, T und K, hingegen sind es in Mitteldeutschland, neben den genannten, auch die mitochondrialen Haplotypen Hgs N1a, W, HV. Mitochondriale DNA (mtDNA). Untersuchungen der mitochondrialen DNA aus Knochenmaterial der Linienbandkeramiker im Institut für Anthropologie an der Johannes Gutenberg-Universität Mainz ergaben, dass der genetische Einfluss der ersten jungsteinzeitlichen Bauern auf die modernen Europäer gering ist. Demnach können überwiegend die altsteinzeitlichen Bewohner des Kontinents als unsere biologischen Vorfahren in Mitteleuropa angesehen werden. Die mitochondrialen DNA (mtDNA) stellt eine nur in der weiblichen Fortpflanzungslinie weitergegebene, separate Erbinformation dar, die sich außerhalb des chromosomalen und diploiden Zellkerns befindet. Die bandkeramischen Immigranten zeigten eine andere Genverteilung als die meisten heutigen Europäer; sie wiesen am häufigsten die Haplogruppen N1a oder H auf. Im Gegensatz zur Variante H, die sehr verbreitet ist, findet sich die N1a-Variation heute nur noch sehr selten. Sie kommt aber schwerpunktmäßig vor auf der arabischen Halbinsel sowie in Tansania, Kenia, Äthiopien und Ägypten. Ferner fand man sie in Zentralasien und Südsibirien. Zu den Varianten der Haplogruppe H, wie sie bei den Bandkeramikern häufiger anzutreffen sind, zählen die Gene wie H16, H23 und H26, sie sind in der rezenten Bevölkerung eher selten zu finden oder aber H46b, H88 und H89 die heutzutage fast nicht mehr auffindbar sind. Die Haplogruppen-Variante N1a entstamme dem nahöstlichen Raum und sei vor 12.000 bis 32.000 Jahren in Erscheinung getreten. Speziell die arabische Halbinsel wird als geographischer Entstehungsort der N1a Variation angesehen. Diese Hypothese wird gestützt durch die relative Häufigkeit und genetische Diversität von N1a in der rezenten Bevölkerung dieser Region. Haplogruppe des Y-Chromosoms. Mit der Untersuchung der Haplogruppe des Y-Chromosoms lassen sich die gemeinsamen Vorfahren in einer rein männlichen Abstammungslinie verfolgen, denn das Y-Chromosom wird immer vom Vater an den Sohn weitergegeben. Die Bandkeramiker gehörten zumeist der Haplogruppe E (Y-DNA) und der Haplogruppe G2 (Y-DNA) an. Insbesondere die Haplogruppe G2 (Y-DNA) wurde auf dem sächsischen Gräberfeld von Derenburg nachgewiesen. Über Haplogruppen-Äste lässt sich allgemein zeigen, wie sich Bevölkerungsgruppen auf der Erde bewegt haben. Haplogruppen können somit auch ein geographisches Gebiet definieren. Ältere Haplogruppen sind größer und weiter verbreitet, von ihnen stammen zahlreiche jüngere Untergruppen ab. Überlegungen zur Sprache der Bandkeramiker. Jens Lüning (2003) betrachtet den Zusammenhang zwischen der Errichtung eines bandkeramischen Langhauses und dem Sprachgebrauch und kommt dabei zu dem Schluss, dass ein differenziertes sprachliches Begriffssystem vorgelegen haben muss um die benötigten Gegenstände und Arbeitsschritte logistisch sinnvoll aufeinander abzustimmen und einzusetzen. Welcher Sprachfamilie dabei die Bandkeramiker angehört haben, ist Gegenstand vieler Hypothesen und laufender Forschungen. Wenn die Bandkeramiker ihren Ursprung in der Starčevo-Körös-Kultur oder in einem anatolischen Kulturkreis (Göbekli Tepe) hatten, die sich sukzessive in nordwestlicher Richtung, entlang der Flussläufe, nach Mitteleuropa ausbreiteten – dabei ist die allgemeine, geringe Bevölkerungs- bzw. Besiedlungsdichte zu berücksichtigen –, so muss man mutmaßen, dass die mittelsteinzeitlichen Ortsansässigen mit ihrer mehr als 30.000 Jahre andauernden eigenständigen kulturellen Entwicklung und die der Einwanderer ihre jeweiligen Unterschiedlichkeiten aufrechterhielten. Ferner muss man annehmen, dass die Mitglieder der beiden Bevölkerungsgruppen zudem auch in unterschiedlichen Sprachen redeten. Dabei vermutet eine Richtung der aktuelle Forschung entweder die Identität oder eine Verwandtschaft der Sprache der Bandkeramiker mit den indoeuropäischen Sprachen. Bildung. Wilhelm von Humboldt (1767–1835), Bildungsreformer Bildung (von) bezeichnet die Formung des Menschen im Hinblick auf sein „Menschsein“, seiner geistigen Fähigkeiten. Der Begriff bezieht sich sowohl auf den Prozess („sich bilden“) als auch auf den Zustand („gebildet sein“). Dabei entspricht die zweite Bedeutung einem bestimmten Bildungsideal (zum Beispiel dem humboldtschen Bildungsideal), das im Laufe des Bildungsprozesses angestrebt wird. Ein Zeichen der Bildung, das nahezu allen Bildungstheorien gemein ist, lässt sich umschreiben als das reflektierte Verhältnis zu sich, zu anderen und zur Welt. Der moderne dynamische und ganzheitliche Bildungsbegriff steht für den lebensbegleitenden Entwicklungsprozess des Menschen, bei dem er seine geistigen, kulturellen und lebenspraktischen Fähigkeiten sowie seine persönlichen und sozialen Kompetenzen erweitert. Begriffsbildung. Bildung ist ein sprachlich, kulturell und historisch bedingter Begriff mit sehr komplexer Bedeutung. Eine präzise, oder besser noch einheitliche Definition des Bildungsbegriffs zu finden, erweist sich daher als äußerst schwierig. Je nach Ausrichtung und Interessenlage variieren die Ansichten darüber, was unter „Bildung“ verstanden werden sollte, erheblich. Der Begriff "Bildung" wurde von dem mittelalterlichen Theologen und Philosophen Meister Eckhart in die Deutsche Sprache eingeführt. Er bedeutete für ihn das „Erlernen von Gelassenheit“ und wurde als „Gottessache“ angesehen, „damit der Mensch Gott ähnlich werde“. Seit der neuzeitlichen Aufklärung, der Begründung der Anthropologie als Wissenschaft und Lehre vom Menschen, dem "pädagogischen Jahrhundert" setzt sich eine Neubestimmung des Bildungsbegriffs durch. Danach ist der Mensch nicht mehr (nur) Geschöpf Gottes, sondern Werk seiner selbst: Selbstbildung, Selbstpraxis. Zugleich hängt der Prozess individueller Bildung von den Gelegenheiten ab, die eine Gesellschaft in materiellen (Bildungsökonomie), organisatorischen (Bildungssoziologie) und programmatischen (Lehrpläne, Curricula) Hinsichten bietet, damit Bildung gelingen kann. Wolfgang Klafki bezeichnet Bildung als Nach Daniel Goeudevert ist Bildung. Bildung könne daher nicht auf Wissen reduziert werden: Wissen sei nicht das Ziel der Bildung, aber sehr wohl ein Hilfsmittel. Darüber hinaus setze Bildung Urteilsvermögen, Reflexion und kritische Distanz gegenüber dem Informationsangebot voraus. Dem gegenüber stehe die Halbbildung, oder, wenn es um Anpassung im Gegensatz zur reflexiven Distanz gehe, auch die Assimilation. Das Wort Bildung selbst ist ein typisch deutsches Wort, es steht in spezifischer Beziehung zu „Erziehung“ und „Sozialisation“. Diese in der deutschen Sprache unterschiedlich belegten Begriffe sind im Englischen wie auch im Französischen als ' zusammengefasst, wobei dem Aspekt der ', der inneren Formbildung, besondere Bedeutung zukommt. Der Begriff ist ferner abzugrenzen von Begriffen, mit denen er umgangssprachlich oft synonym verwendet wird: den Begriffen Wissen, Intellektualität und Kultiviertheit. Der Begriff Bildung schließt allerdings (je nach Interpretation des Bildungsbegriffs in unterschiedlichem Maße) Facetten aller unterschiedenen begrifflichen Aspekte mit ein. Außerdem besteht eine gewisse Nähe zum Begriff Reife. Die historische Entwicklung des Bildungsbegriffs. Der Begriff der Bildung erfuhr während seiner Entwicklung mehrmals einen Bedeutungswandel. Die Anfänge der Bildung. Obwohl die Antike den Begriff Bildung noch nicht so verwendete, wie wir ihn kennen, waren die Ideen, die diesen Begriff prägen sollten, doch schon präsent. Im Griechischen ist der Begriff der Paideia dem Bildungsbegriff sehr verwandt. Der deutsche Begriff entstand im Mittelalter, wahrscheinlich als Begriffsschöpfung Meister Eckharts im Rahmen der Imago-Dei-Lehre. Der Begriff ist also theologischen Ursprungs. Bilden wird verstanden als gebildet werden durch Gott, nach dem Abbild Gottes. Die menschliche Seele wird gebildet im Sinne von „nachgebildet“. Bildung ist also ein Prozess, auf den der Einzelne keinen Einfluss hat. Es ist nicht die Aufgabe des Menschen, sich zu bilden. Der Prozess wird von außen an den Menschen herangetragen. In diesem Sinne trifft der Begriff vom "Homo insipiens" (lat.), dem ungebildeten (dummen) Mensch, zu, der erst durch Bildung und Erziehung zu einem wirklichen "Homo sapiens" – dem „weisen, klugen Mensch“ – werden kann. Der Einzug des Begriffs „Bildung“ in die Pädagogik. Waren die Bildungsziele vor der Aufklärungsepoche noch durch Gott gegeben, so sind sie nun bestimmt durch die Notwendigkeit des Menschen, in einer Gesellschaft zu leben. Es geht darum, die „Rohmasse“ Mensch so zu formen, dass er ein nützliches Mitglied der Gesellschaft werden könne. In diesem Formungsprozess werden vorhandene Anlagen entwickelt. Doch immer noch werden die Bildungsziele nicht durch das Individuum festgelegt, sondern sind Idealvorstellungen, die unabhängig vom Einzelnen ewige Geltung beanspruchen (vgl. Ideenlehre) und von außen an das Individuum herangetragen werden. Die Wende zur Subjektivität. Der deutsche Idealismus – insbesondere die subjektive Variante [Descartes, Malebranche, Fichte] im Unterschied zum objektiven Idealismus [Platon, Schelling, Hegel] – wendet den Bildungsbegriff zum Subjektiven. Bildung wird verstanden als Bildung des Geistes, der sich selber schafft. Dieser bei Johann Gottlieb Fichte (1726–1814) beschriebene Prozess lässt sich in der Formel fassen: „Das Ich als Werk meiner Selbst“. Es ist Fichte, der seinen Bildungsbegriff auf den autopoietischen (gr. "autos" ‚selbst‘, "poiein" ‚schaffen‘, ‚hervorbringen‘) Zusammenhang von Empfinden, Anschauen und Denken begründet. Ziel ist – wie bereits in der Aufklärung − die Genese einer vollkommenen Persönlichkeit. Vollkommen ist eine Person, wenn eine Harmonie zwischen „Herz, Geist und Hand“ besteht. Die programmatische Wende. Wilhelm von Humboldt schließlich erhebt Bildung zum Programm. Das Bedürfnis, sich zu bilden, sei im Inneren des Menschen angelegt und müsse nur geweckt werden. Jedem soll Bildung zugänglich gemacht werden. Humboldt erschafft ein mehrgliedriges Schulsystem, in dem jeder nach seinen Fähigkeiten und nach den Anforderungen, die die Gesellschaft an ihn stellt, gefördert wird. Allerdings geht es beim humboldtschen Bildungsideal nicht um empirisches Wissen, sondern immer noch um die Ausbildung/Vervollkommnung der Persönlichkeit und das Erlangen von Individualität. Dieses „Sich-Bilden“ wird nicht betrieben, um ein materielles Ziel zu erreichen, sondern um der eigenen Vervollkommnung willen. An der Geschichte des Bildungsbegriffs lässt sich verfolgen, dass dieser im Laufe der Zeit nicht eine, sondern mehrere Konnotationen erhalten hat, angefangen bei der religiösen Bedeutung über die Persönlichkeitsentwicklung bis hin zur Ware Bildung. Im Deutschen Kaiserreich (1871–1918) findet die entscheidende Wende von humboldtschen Bildungsinhalten hin zu moderneren Lehrinhalten statt. An der Jahrtausendwende: Transformatorische und relationale Bildung. Seit den 1980er Jahren steht die bildungstheoretisch orientierte Biographieforschung zwischen der traditionell philosophischen Bildungstheorie und der empirischen Bildungsforschung und will über die Kategorie der Biographie zwischen beiden Bereichen vermitteln. Ziel ist dabei, den Bildungsbegriff zu präzisieren und so die Bildungstheorie für die Bildungsforschung und damit die Bildungspraxis anschlussfähig zu machen. Dieser Forschungsdiskurs orientiert sich am transformatorischen Bildungsbegriff in der Tradition von Wilhelm von Humboldt und ist seit den 1990er Jahren durch die Ansätze von Winfried Marotzki und Hans-Christoph Koller geprägt. Als Basisdefinition gilt: Bildung ist ein Transformationsprozess der Figuren des Welt- und Selbstverhältnisses einer Person aus Anlass von Krisenerfahrungen, welche die bestehenden Figuren in Frage stellen (Koller 2012: 20 f.). Koller fordert bis ins Jahr 2012 eine theoretische Präzisierung der Begriffe Transformationsprozess und Welt- und Selbstverhältnis sowie eine genaue Bestimmung des Anlasses von Bildungsprozessen (Koller 2012: 21). Aus der Diagnose der Stagnation dieser Rekonstruktionsversuche des transformatorischen Bildungsbegriffs wird von Beate Richter (2014) der Wechsel in der Methodologie vom interpretativen zum relationalen Paradigma vorgeschlagen und die so genannte Relationale Entwicklungslogik als methodologische Basis einer Präzisierung eingeführt. Mit der Übertragung der Ergebnisse der informellen Axiomatisierung (Methode der Theoretischen Strukturalisten Wolfgang Stegmüller, Wolfgang Balzer) von Robert Kegans strukturaler Entwicklungstheorie auf den transformatorischen Bildungsbegriff wird unter Verwendung weiterer Referenztheorien aus dem Bereich der relationalen Kommunikationstheorien die Präzisierung des Begriffs möglich. Bildung wird von Richter als „Prozess der Transformation der Regel der Bedeutungsbildung einer Person unter Konfrontation mit der Regel der Bedeutungsbildung nächst-höherer Ordnung definiert und als eine Struktur der Übergänge zwischen Kontext-Regeln beschrieben, die ein Beobachter der Person im Interaktionsprozess zuschreibt“ (Richter 2014: IX). Transformationen und Translationen der Regeln der Bedeutungsbildung werden im Kontext-Ebenen-Modell der Bedeutungsbildung anschaulich. Heute. In heutigen gesellschaftlichen Debatten wird der Bildungsbegriff mit allen diesen Konnotationen zugleich oder in Teilen verwendet, je nachdem, in welchem Kontext die Äußerung steht. Mögliche Kontexte sind zum Beispiel: soziale Abgrenzung, wirtschaftliche Interessen oder politische Ziele. Verallgemeinernd kann eigentlich nur gesagt werden, dass die meisten Definitionen auf den Mündigkeitsaspekt des Begriffs „Bildung“ hinweisen. Zu den Begriffen und Begriffsschöpfungen, die im gemeinten Kontext zur Sprache kommen, gehören Bildungssystem, Bildungsmisere, Allgemeinbildung, Bildungspolitik, bildungsferne Schichten u. a. m. Wie nicht zuletzt die Diskussion um die Pisa-Studie zeigt, werden heute auch die allgemeinbildenden Schulen mit immer größerer Selbstverständlichkeit unter dem Gesichtspunkt der „Optimierung von Lernprozessen im Hinblick auf deren Relevanz für ökonomisch verwertbare Arbeit“ (Ribolits, 13) bewertet. Lernen, Erziehung, Bildung. Die Fähigkeit des Menschen, lernen zu können, ist die Grundlage für Erziehung und Bildung. Beim Erziehungsprozess werden Kinder und Jugendliche durch die pädagogisch Verantwortlichen (Eltern, Erzieher, Lehrer, Jugendleiter) in die Welt der Erwachsenen eingeführt. Sie lernen dabei Regeln, Normen und Verhalten, aber auch selbständiges Denken und Handeln. Der Weg zum Selbstverstehen führt über das Fremdverstehen, d. h. über das Begreifen und Aneignen der umgebenden Welt. Da allgemeine Schulpflicht (Deutschland) besteht, werden Bildungsprozesse wenigstens zunächst nicht freiwillig initiiert. Weil in unserer Gesellschaft Wissen verlangt wird, besteht lebenslang ein äußerer Druck, möglichst viele Informationen aufzunehmen. Wissen und Lernen allein ergeben jedoch noch keine Bildung, daher kann auch ein wissensbasierter Bildungskanon nicht mehr sein als ein wichtiges Hilfsmittel der Förderung von Bildung. Friedrich Paulsen äußert sich im enzyklopädischen Handbuch der Pädagogik von 1903 zu diesem Thema folgendermaßen Demnach würde sich ergeben, dass Schulabschlüsse, die hauptsächlich Lernleistungen prämieren, nur bedingt als Bildungsnachweise tauglich wären. Eine gute Symbolik für die elementaren Aspekte der Bildung, die im schulischen Unterricht fächerübergreifend erlernt werden (sollen), ergibt sich aus einem gleichseitigen Dreieck, da hier jede Seite gleichberechtigt ist. Die drei Seiten stehen dabei symbolhaft für Wissen, Denken und Kommunikationsfähigkeit. Wissen umfasst dabei die Wissensinhalte (deklaratives Wissen), das Denken hingegen die unterschiedlichen Strategien des Erkenntnisgewinns wie Problemlösen, Beschreiben, Erklären, Interpretieren usw. Unter Kommunikationsfähigkeit kann in diesem Zusammenhang die Fähigkeit eines Menschen verstanden werden, seine Gedanken, Ideen, Thesen usw. anderen transparent zu machen und umgekehrt sich in die Gedankenwelt anderer aktiv hineinzuversetzen. Ein alternatives Bild würde sich ferner durch einen dreibeinigen Hocker ergeben, bei dem jedes Bein für einen der genannten Aspekte der Bildung steht. Ist ein Bein länger (kürzer) als die anderen beiden Beine, dann wird der Hocker in seinem Schwerpunkt instabil. Diese grundlegenden Aspekte der Bildung konstituieren gleichermaßen die Basis für alle weitergehenden Aspekte der Bildung, wie moralisches Denken und Handeln, Kreativität und künstlerische Fähigkeiten oder instrumentelle Fertigkeiten. In diesem Sinne können diese drei Aspekte als Elementarkompetenzen der Bildung bezeichnet werden. Frühe Bildung. Zunehmende Bedeutung, auch mit Rückwirkungen auf die Diskussion über schulische Bildung, gewinnt die frühe Bildung von Kindern in den ersten Lebensjahren. Während man noch in den 1950er und 60er Jahren vom „dummen ersten Jahr“ sprach und damit die Bildungsunfähigkeit kleiner Kinder beschreiben wollte, ist heute allgemeiner Kenntnisstand, dass Bildung spätestens mit der Geburt beginnt und dann in höchstem Tempo die wesentlichen Voraussetzungen aller späteren Bildungsprozesse gelegt werden. Wichtige Impulse hat dieser Prozess durch die Hirnforschung erfahren. Bildung und soziale Ungleichheit. "„Schule ist eine Institution, die Lebenschancen verteilt.“" Die Bildungsanstrengung ist das Ergebnis der Einflüsse der Umwelt und der individuellen Entscheidung. Im Allgemeinen korrelieren in fast allen Gesellschaften sozialer Status der Eltern und formale Bildung der Kinder positiv miteinander. Das bedeutet, dass niedrige Bildungsabschlüsse (oder das Fehlen derselben) vor allem in den unteren Bevölkerungsschichten anzutreffen sind. Durch Erwerb von Bildung ist sozialer Aufstieg möglich. Mit „Bildung“ und dem Ausbau des Bildungssystems war in der Vergangenheit häufig die Hoffnung verbunden, soziale Ungleichheiten abzubauen. Dass es sich bei der ersehnten „Chancengleichheit“ um eine Illusion handelt, haben die französischen Soziologen Pierre Bourdieu und Jean-Claude Passeron schon in den 1960er Jahren gezeigt. Dabei gibt es nationale Unterschiede. Im internationalen Vergleich bestimmt in Deutschland die soziale Herkunft in besonders hohem Maß den Bildungserfolg. Diverse Schulleistungs-Studien (LAU-Studie, IGLU-Studie, PISA-Studie) haben belegt, dass Kinder ungebildeter Eltern selbst dann häufig eine geringere Schulformempfehlung bekommen als Kinder von Eltern mit höherer Bildung, wenn die kognitive, die Lese- und Mathematikkompetenz gleich ist. Das Bildungswesen kann unter solchen Voraussetzungen dazu dienen, soziale Ungleichheit zu reproduzieren und zu legitimieren, da das „Versagen“ im Bildungssystem häufig als individuelle Unfähigkeit interpretiert und erlebt wird. In Deutschland sind gegenwärtig in besonderer Weise Kinder und Jugendliche aus Einwandererfamilien von Bildungsbenachteiligung betroffen. Darauf reagiert eine Fachdiskussion zu der Frage, was Erfordernisse einer angemessenen Bildungspolitik und Bildungspraxis in der Einwanderungsgesellschaft sind. Eine Studie der Universität Augsburg von 2007 weist zudem auf einen deutlichen Unterschied zwischen Land- und Stadtkindern hin. So wechseln in Schwaben (Bayern) auf dem Land nur 22 Prozent der Mädchen von der Grundschule auf das Gymnasium. In der Stadt dagegen gehen 44 Prozent der Mädchen auf die Oberschule – trotz gleicher Noten. "Siehe auch: Bildungsparadox, Chancengleichheit, soziale Reproduktion, Arbeiterkinder, Bildungsgeographie, Bildungsbenachteiligung und DSW-Sozialerhebung" Der pädagogisch begleitete Bildungsprozess (Klafki). Das von Wolfgang Klafki entwickelte Konzept der kategorialen Bildung basiert auf „dem Gedanken des wechselseitigen Aufeinanderbezogenseins von Welt und Individuum“. Er unterteilt den Begriff der Bildung in zwei Hauptgruppen, die materiale und die formale Bildung. In beiden Gruppen unterscheidet Klafki noch jeweils zwei weitere Grundformen: innerhalb der materialen Bildung den bildungstheoretischen Objektivismus und die Bildungstheorie des Klassischen und als Varianten der formalen Bildung die funktionelle und die methodische Bildung. "Bildungstheoretischer Objektivismus" meint, dass nur der Mensch gebildet ist, welcher sich möglichst viel Wissen aneignet. "Bildungstheorie des Klassischen" versteht Bildung als "Vorgang bzw. als Ergebnis eines Vorgangs, in dem sich der junge Mensch in der Begegnung mit dem Klassischen das höhere geistige Leben, die Sinngebungen, Werte und Leitbilder seines Volkes oder Kulturkreises zu eigen macht und in diesen idealen Gestalten seine eigene geistige Existenz recht eigentlich erst gewinnt. Welche Bildungsinhalte als „klassisch“ gelten könnten, könne aber nie ein für alle Mal festgeschrieben werden, sondern sei abhängig von historisch-kritischer Aneignung und einem fortdauernden Prozess der Herausbildung überzeugender Leitbilder. Den Kern der "funktionalen Bildungstheorie" kann man laut Klafki in wenigen Sätzen formulieren. Das Wesentliche der Bildung sind nicht Aufnahme und Aneignung von Inhalten, sondern Formung, Entwicklung, Reifung von körperlichen, seelischen und geistigen Kräften. Die zweite Grundform formaler Bildung nennt Klafki nach Lemensick "methodische Bildung". Sie wendet sich dem Bildungsvorgang zu. Bildung bedeutet hier Gewinnung und Beherrschung der Denkweisen, Gefühlskategorie, Wertmaßstäbe, kurz: der Methode. Bildungskonzepte anderer Kulturen. Der in diesem Artikel bis hierhin vorgestellte Bildungsbegriff ist im 18. Jahrhundert in Europa entstanden. Bildungstraditionen existieren jedoch nicht nur in der westlichen Welt, sondern auch in vielen anderen Kulturen und sind oftmals erheblich älter als die Humboldtschen Ideen. China. Die chinesische Bildungstradition entstand im 6. Jahrhundert v. Chr. mit dem Konfuzianismus, einer Philosophie, die in China nicht zufällig „Schule der Gelehrten“ heißt. Konfuzius und seine Schüler bemühten sich in dieser Zeit um eine Erneuerung der gesellschaftlichen und religiösen Werte und um eine grundlegende Verbesserung des Menschen, die zu einer Vervollkommnung der gesellschaftlichen Ordnung führen sollte. Den Schlüssel zur Verbesserung des Menschen sahen sie in der Erfüllung bestimmter sozialer Pflichten (Loyalität, Ehrung der Eltern, Schicklichkeit) und im Studium. Im Gefolge der konfuzianischen Bestrebungen um eine Meritokratie wurde unter der Sui-Dynastie im Jahre 606 n. Chr. die chinesische Beamtenprüfung eingeführt, ein Wettbewerbssystem, das Angehörigen der gebildeten Stände einen Aufstieg in gesellschaftliche Positionen ermöglichte, die bis dahin meist per Geburt eingenommen wurden. Das Prüfungssystem führte zur Entstehung einer sozialen Schicht von Gelehrten-Bürokraten (; vgl. Mandarin), die in Kalligrafie und im konfuzianischen Schrifttum geschult waren und die bis zum Untergang der Qing-Dynastie (1912) in der Politik Chinas großen Einfluss besaßen. Zu den Gebieten, auf denen chinesische Gelehrte () traditionell bewandert waren, zählen auch die chinesische Literatur, das Spielen von Musikinstrumenten, das Go- oder Schachspiel, das Malen mit Wasserfarben und die Teekunst. Nach der Gründung der Volksrepublik China und besonders in der Zeit der Kulturrevolution versuchte die chinesische Führung unter Mao Zedong eine Zerschlagung sämtlicher Bildungstraditionen der Kaiserzeit durchzusetzen; so gab es in der VR China von 1966 bis 1978 z. B. keinen normalen Universitätsbetrieb. Die außerordentliche hohe Bewertung von Bildung ist für große Teile der chinesischen Bevölkerung jedoch bis auf den heutigen Tag charakteristisch geblieben. Da diese Bildungstradition sich unabhängig von der europäischen Geistesgeschichte entwickelt hat und in einer Zeit entstanden ist, in der das deutsche Wort „Bildung“ noch nicht einmal existierte, bestehen zwischen dem traditionellen chinesischen und dem modernen westlichen Bildungsbegriff neben manchen Gemeinsamkeiten auch signifikante Unterschiede. Besonders fern liegt der kollektivistischen Tradition Chinas die Humboldtsche Idee, dass der Mensch durch Bildung Individualität entfalten solle. Ähnlich wie das Humboldtsche zielt auch das konfuzianische Bildungsideal auf eine Verbesserung des Menschen, aber nicht mit der Absicht, aufgeklärte Weltbürger hervorzubringen, sondern um das Gemeinwesen in Harmonie zu bringen. Islam. Traditionelle islamische Bildung ist auf der elementaren Stufe vor allem auf das Memorieren des Korans ausgerichtet. Dafür gibt es spezielle Koranschulen. Der dortige Unterricht beginnt mit dem Erlernen kurzer Korantexte (z. B. "al-Fātiha") für den Gebrauch beim Gebet und behandelt dann die Rituale für Gebet und Waschung selbst. Im weiteren Verlauf der Ausbildung werden die Namen für die Buchstaben und Zeichen der arabischen Schrift und das Buchstabieren arabischer Korantexte erlernt, und es wird das flüssige Rezitieren und Schreiben des arabischen Korantextes geübt. Die höhere Bildung besteht aus dem Erwerb weiteren Wissens über die religiösen Pflichten und der Aneignung von Kenntnissen über die Glaubenslehre ("Tauhīd"), über Ethik und Moral, die arabische Grammatik, "Fiqh", "Hadith", Prophetenbiographie, Koranexegese und Rechnen. In Nigeria hat in den letzten Jahrzehnten die Bedeutung islamischer Bildung stark zugenommen. Nach der 1976 erfolgten Einführung der Allgemeinen Grundschulbildung ('), die vor allem auf die Vermittlung westlicher Bildung ausgerichtet war, erlebte das private islamische Schulwesen einen enormen Ausbau. Mit der Organisation Boko Haram (‚Westliche Bildung ist verboten‘) besteht sei 2004 eine militant islamische Gruppierung, die sich den Kampf gegen westliche Bildung auf die Fahnen geschrieben hat. Literatur. Die chronologische Anordnung verdeutlicht Schwerpunktsetzungen einzelner Jahrzehnte. ISBN 978-3-631-62983-3 (Print); E-ISBN 978-3-653-03789-0 (E-Book) Computer. Ein Computer, auch Rechner oder Elektronische Datenverarbeitungsanlage, ist ein Gerät, das mittels programmierbarer Rechenvorschriften Daten verarbeitet. Charles Babbage und Ada Lovelace gelten durch die von Babbage 1837 entworfene Rechenmaschine Analytical Engine als Vordenker des modernen universell programmierbaren Computers, während Konrad Zuse (Z3, 1941 und Z4, 1945), John Presper Eckert und John William Mauchly (ENIAC, 1946) die ersten funktionstüchtigen Geräte dieser Art bauten. Bei der Klassifizierung eines Geräts als "universell programmierbarer Computer" spielt die Turing-Vollständigkeit eine wesentliche Rolle, benannt nach dem englischen Mathematiker Alan Turing, der 1936 das logische Modell der Turingmaschine eingeführt hat. Die frühen Computer wurden auch (Groß-)Rechner genannt; ihre Ein- und Ausgabe der Daten war zunächst auf Zahlen beschränkt. Zwar verstehen sich moderne Computer auf den Umgang mit weiteren Daten, beispielsweise mit Buchstaben und Tönen, diese Daten werden jedoch innerhalb des Computers in Zahlen umgewandelt und als Zahlen verarbeitet, weshalb ein Computer auch heute eine Rechenmaschine ist. Mit zunehmender Leistungsfähigkeit eröffneten sich neue Einsatzbereiche. Computer sind heute in allen Bereichen des täglichen Lebens vorzufinden, meistens in spezialisierten Varianten, die auf einen vorliegenden Anwendungszweck zugeschnitten sind. So dienen integrierte Kleinstcomputer (eingebettetes System) zur Steuerung von Alltagsgeräten wie Waschmaschinen und Videorekordern oder zur Münzprüfung in Warenautomaten; in modernen Automobilen dienen sie beispielsweise zur Anzeige von Fahrdaten und übernehmen in „Fahrassistenten“ diverse Manöver selbst. Universelle Computer finden sich in Smartphones und Spielkonsolen. Personal Computer dienen der Informationsverarbeitung in Wirtschaft und Behörden sowie bei Privatpersonen; Supercomputer werden eingesetzt, um komplexe Vorgänge zu simulieren, z. B. in der Klimaforschung oder für medizinische Berechnungen. Herkunft des Namens. Der englische Begriff "computer", abgeleitet vom Verb ("to") "compute" (aus Lateinisch: "computare" „berechnen“), bezeichnete ursprünglich Menschen, die zumeist langwierige Berechnungen vornahmen, zum Beispiel für Astronomen im Mittelalter. In der Kirchengeschichte war mit der Hinrichtung Jesu eine Ablösung von der jüdischen und eine Hinwendung zur römischen Zeitrechnung verbunden. Die hieraus resultierenden Berechnungsschwierigkeiten des Osterdatums dauerten bis zum Mittelalter an und waren Gegenstand zahlreicher Publikationen, häufig betitelt mit "Computus Ecclesiasticus". Doch finden sich noch weitere Titel, z.B. von Sigismund Suevus 1574, die sich mit arithmetischen Fragestellungen auseinandersetzten. Der früheste Text, in dem das Wort Computer isoliert verwendet wird, stammt von 1613. In der New York Times tauchte das Wort erstmals am 2. Mai 1892 in einer Kleinanzeige der US-Marine mit dem Titel „A Computer Wanted“ (Ein Rechenspezialist gesucht) auf, wobei Kenntnisse in Algebra, Geometrie, Trigonometrie und Astronomie vorausgesetzt wurden. 1938 stellte Konrad Zuse den ersten frei programmierbaren mechanischen "Rechner" her (Z1), der im heutigen Sinne bereits dem Begriff entsprach. In der Namensgebung des 1946 der Öffentlichkeit vorgestellten Electronic Numerical Integrator and "Computer" (ENIAC) taucht erstmals das Wort als Namensbestandteil auf. In der Folge etablierte sich "Computer" als Gattungsbegriff für diese neuartigen Maschinen. Grundlagen. Grundsätzlich unterscheiden sich zwei Bauweisen: Ein Computer ist ein Digitalcomputer, wenn er mit digitalen Geräteeinheiten digitale Daten verarbeitet (also Zahlen und Textzeichen); er ist ein Analogcomputer, wenn er mit analogen Geräteeinheiten analoge Daten verarbeitet (also kontinuierlich verlaufende elektrische Messgrößen wie Spannung oder Strom). Heute werden fast ausschließlich Digitalcomputer eingesetzt. Diese folgen gemeinsamen Grundprinzipien, mit denen ihre freie Programmierung ermöglicht wird. Bei einem Digitalcomputer werden dabei zwei grundsätzliche Bestandteile unterschieden: Die Hardware, die aus den elektronischen, physisch anfassbaren Teilen des Computers gebildet wird, sowie die Software, die die "Programmierung" des Computers beschreibt. Ein Digitalcomputer besteht zunächst nur aus Hardware. Die Hardware stellt erstens einen so genannten "Speicher" bereit, in dem Daten portionsweise wie auf den nummerierten Seiten eines Buches gespeichert und jederzeit zur Verarbeitung oder Ausgabe abgerufen werden können. Zweitens verfügt das Rechenwerk der Hardware über grundlegende Bausteine für eine freie Programmierung, mit denen jede beliebige Verarbeitungslogik für Daten dargestellt werden kann: Diese Bausteine sind im Prinzip die "Berechnung", der "Vergleich" und der "bedingte Sprung". Ein Digitalcomputer kann beispielsweise zwei Zahlen addieren, das Ergebnis mit einer dritten Zahl vergleichen und dann abhängig vom Ergebnis entweder an der einen oder der anderen Stelle des Programms fortfahren. In der Informatik wird dieses Modell theoretisch durch die Turing-Maschine abgebildet; die Turing-Maschine stellt die grundsätzlichen Überlegungen zur Berechenbarkeit dar. Erst durch eine Software wird der Digitalcomputer jedoch nützlich. Jede Software ist im Prinzip eine definierte, funktionale Anordnung der oben geschilderten Bausteine Berechnung, Vergleich und bedingter Sprung, wobei die Bausteine beliebig oft verwendet werden können. Diese Anordnung der Bausteine, die als "Programm" bezeichnet wird, wird in Form von Daten im Speicher des Computers abgelegt. Von dort kann sie von der Hardware ausgelesen und abgearbeitet werden. Dieses Funktionsprinzip der Digitalcomputer hat sich seit seinen Ursprüngen in der Mitte des 20. Jahrhunderts nicht wesentlich verändert, wenngleich die Details der Technologie erheblich verbessert wurden. Analogrechner funktionieren nach einem anderen Prinzip. Bei ihnen ersetzen analoge Bauelemente (Verstärker, Kondensatoren) die Logikprogrammierung. Analogrechner wurden früher häufiger zur Simulation von Regelvorgängen eingesetzt (siehe: Regelungstechnik), sind heute aber fast vollständig von Digitalcomputern abgelöst worden. In einer Übergangszeit gab es auch Hybridrechner, die einen Analog- mit einem digitalen Computer kombinierten. Hardwarearchitektur. In den heutigen Computern sind die ALU und die Steuereinheit meistens zu einem Baustein verschmolzen, der so genannten CPU (Central Processing Unit, zentraler Prozessor). Der Speicher ist eine Anzahl von durchnummerierten „Zellen“; jede von ihnen kann ein kleines Stück Information aufnehmen. Diese Information wird als Binärzahl, also eine Abfolge von ja/nein-Informationen im Sinne von Einsen und Nullen, in der Speicherzelle abgelegt. Ein Charakteristikum der Von-Neumann-Architektur ist, dass diese Binärzahl (bspw.: 01000001, was der Dezimalzahl "65" entspricht) entweder ein Teil der Daten (also z. B. die Zahl 65 oder der Buchstabe A) oder ein Befehl für die CPU (oben erwähnter „bedingter Sprung“) sein kann. Wesentlich in der Von-Neumann-Architektur ist, dass sich Programm und Daten einen Speicherbereich teilen (dabei belegen die Daten in aller Regel den unteren und die Programme den oberen Speicherbereich). Demgegenüber stehen in der sog. Harvard-Architektur Daten und Programmen eigene (physikalisch getrennte) Speicherbereiche zur Verfügung, dadurch können Daten-Schreiboperationen keine Programme überschreiben. In der Von-Neumann-Architektur ist die Steuereinheit dafür zuständig, zu wissen, was sich an welcher Stelle im Speicher befindet. Man kann sich das so vorstellen, dass die Steuereinheit einen „Zeiger“ auf eine bestimmte Speicherzelle hat, in der der nächste Befehl steht, den sie auszuführen hat. Sie liest diesen aus dem Speicher aus, erkennt zum Beispiel „65“, erkennt dies als „bedingter Sprung“. Dann geht sie zur nächsten Speicherzelle, weil sie wissen muss, wohin sie springen soll. Sie liest auch diesen Wert aus und interpretiert die Zahl als Nummer (so genannte "Adresse") einer Speicherzelle. Dann setzt sie den Zeiger auf ebendiese Speicherzelle, um dort wiederum ihren nächsten Befehl auszulesen; der Sprung ist vollzogen. Wenn der Befehl zum Beispiel statt „bedingter Sprung“ lauten würde „Lies Wert“, dann würde sie nicht den Programmzeiger verändern, sondern aus der in der Folge angegebenen Adresse einfach den Inhalt auslesen, um ihn dann beispielsweise an die ALU weiterzuleiten. Die ALU hat die Aufgabe, Werte aus Speicherzellen zu kombinieren. Sie bekommt die Werte von der Steuereinheit geliefert, verrechnet sie (addiert beispielsweise zwei Zahlen) und gibt den Wert an die Steuereinheit zurück, die den Wert dann für einen Vergleich verwenden oder in eine andere Speicherzelle schreiben kann. Die Ein-/Ausgabeeinheiten schließlich sind dafür zuständig, die initialen Programme in die Speicherzellen einzugeben und dem Benutzer die Ergebnisse der Berechnung anzuzeigen. Softwarearchitektur. Die Von-Neumann-Architektur ist gewissermaßen die unterste Ebene des Funktionsprinzips eines Computers oberhalb der elektrophysikalischen Vorgänge in den Leiterbahnen. Die ersten Computer wurden auch tatsächlich so programmiert, dass man die Nummern von Befehlen und von bestimmten Speicherzellen so, wie es das Programm erforderte, nacheinander in die einzelnen Speicherzellen schrieb. Um diesen Aufwand zu reduzieren, wurden Programmiersprachen entwickelt. Diese generieren die Zahlen innerhalb der Speicherzellen, die der Computer letztlich als Programm abarbeitet, aus Textbefehlen heraus automatisch, die auch für den Programmierer einen semantisch verständlichen Inhalt darstellen (z. B. GOTO für den „unbedingten Sprung“). Später wurden bestimmte sich wiederholende Prozeduren in so genannten Bibliotheken zusammengefasst, um nicht jedes Mal das Rad neu erfinden zu müssen, z. B.: das Interpretieren einer gedrückten Tastaturtaste als Buchstabe „A“ und damit als Zahl „65“ (im ASCII-Code). Die Bibliotheken wurden in übergeordneten Bibliotheken gebündelt, welche Unterfunktionen zu komplexen Operationen verknüpfen (Beispiel: die Anzeige eines Buchstabens „A“, bestehend aus 20 einzelnen schwarzen und 50 einzelnen weißen Punkten auf dem Bildschirm, nachdem der Benutzer die Taste „A“ gedrückt hat). In einem modernen Computer arbeiten sehr viele dieser Programmebenen über- bzw. untereinander. Komplexere Aufgaben werden in Unteraufgaben zerlegt, die von anderen Programmierern bereits bearbeitet wurden, die wiederum auf die Vorarbeit weiterer Programmierer aufbauen, deren Bibliotheken sie verwenden. Auf der untersten Ebene findet sich aber immer der so genannte Maschinencode – jene Abfolge von Zahlen, mit der der Computer auch tatsächlich gesteuert wird. Die Vorläufer des modernen Computers. Die Computertechnologie entwickelte sich im Vergleich zu anderen Elektrogeräten sehr schnell. Die Geschichte der Entwicklung des Computers reicht zurück bis in die Antike und ist damit wesentlich länger als die Geschichte der modernen Computertechnologien und mechanischen bzw. elektrischen Hilfsmitteln (Rechenmaschinen oder Hardware). Sie umfasst dabei auch die Entwicklung von Rechenmethoden, die etwa für einfache Schreibgeräte auf Papier und Tafeln entwickelt wurden. Im Folgenden wird entsprechend versucht, einen Überblick über diese Entwicklungen zu geben. Zahlen als Grundlage der Computergeschichte. Das Konzept der Zahlen lässt sich auf keine konkreten Wurzeln zurückführen und hat sich wahrscheinlich mit den ersten Notwendigkeiten der Kommunikation zwischen zwei Individuen entwickelt. Man findet in allen bekannten Sprachen mindestens für die Zahlen eins und zwei Entsprechungen. Auch in der Kommunikation von vielen Tierarten (etwa verschiedener Primaten, aber auch Vögeln wie der Amsel) lässt sich die Möglichkeit der Unterscheidung unterschiedlicher Mengen von Gegenständen feststellen. Die Weiterentwicklung dieser einfachen numerischen Systeme führte wahrscheinlich zur Entdeckung der ersten mathematischen Rechenoperation wie der Addition, der Subtraktion, der Multiplikation und der Division bzw. auch der Quadratzahlen und der Quadratwurzel. Diese Operationen wurden formalisiert (in Formeln dargestellt) und dadurch überprüfbar. Daraus entwickelten sich dann weiterführende Betrachtungen, etwa die von Euklid entwickelte Darstellung des größten gemeinsamen Teilers. Im Mittelalter erreichte das Indische Zahlensystem über den arabischen Raum (deswegen fälschlicherweise als Arabisches Zahlensystem bekannt) Europa und erlaubte eine größere Systematisierung bei der Arbeit mit Zahlen. Die Möglichkeiten erlaubten die Darstellung von Zahlen, Ausdrücke und Formeln auf Papier und die Tabellierung von mathematischen Funktionen wie etwa der Quadratwurzeln rsp. des einfachen Logarithmus sowie der Trigonometrie. Zur Zeit der Arbeiten von Isaac Newton war Papier und Velin eine bedeutende Ressource für Rechenaufgaben und ist dies bis in die heutige Zeit geblieben, in der Forscher wie Enrico Fermi seitenweise Papier mit mathematischen Berechnungen füllten und Richard Feynman jeden mathematischen Schritt mit der Hand bis zur Lösung berechnete, obwohl es zu seiner Zeit bereits programmierbare Rechner gab. Frühe Entwicklung von Rechenmaschinen und -hilfsmitteln. Das früheste Gerät, das in rudimentären Ansätzen mit einem heutigen Computer vergleichbar ist, ist der Abakus, eine mechanische Rechenhilfe, die vermutlich um 1100 v. Chr. im indochinesischen Kulturraum erfunden wurde. Der Abakus wurde bis ins 17. Jahrhundert benutzt und dann von den ersten Rechenmaschinen ersetzt. In einigen Regionen der Welt wird der Abakus noch immer als Rechenhilfe verwendet. Einem ähnlichen Zweck diente auch das Rechenbrett des Pythagoras. Bereits im 1. Jh. v. Chr. wurde mit dem Computer von Antikythera die erste Rechenmaschine erfunden. Das Gerät diente vermutlich für astronomische Berechnungen und funktionierte mit einem Differentialgetriebe, einer erst im 13. Jahrhundert wiederentdeckten Technik. Mit dem Untergang der Antike kam der technische Fortschritt in Mittel- und Westeuropa fast zum Stillstand und in den Zeiten der Völkerwanderung ging viel Wissen verloren oder wurde nur noch im oströmischen Reichsteil bewahrt (so beispielsweise auch der Computer von Antikythera, der erst 1902 wiederentdeckt wurde). Die muslimischen Eroberere der oströmischen Provinzen und schließlich Ost-Roms (Konstantinopel) nutzten dieses Wissen und entwickelten es weiter. Durch die Kreuzzüge und spätere Handelskontakte zwischen Abend- und Morgenland sowie die muslimische Herrschaft auf der iberischen Halbinsel, sickerte antikes Wissen und die darauf aufbauenden arabischen Erkenntnisse langsam wieder nach West- und Mitteleuropa ein. Ab der Neuzeit begann sich der Motor des technischen Fortschritts wieder langsam zu drehen und beschleunigte fortan – und dies tut er bis heute. a>, eine der wichtigsten mechanischen Rechenhilfen für die Multiplikation und Division 1614 publizierte John Napier seine Logarithmentafel und 1623 baute Wilhelm Schickard die erste Vier-Spezies-Maschine und damit den ersten mechanischen Rechner der Neuzeit, wodurch er bis heute zum „Vater der Computerära“ wurde. Seine Konstruktion basierte auf dem Zusammenspiel von Zahnrädern, die im Wesentlichen aus dem Bereich der Uhrmacherkunst stammten und dort genutzt wurden, wodurch seine Maschine den Namen „rechnende Uhr“ erhielt. Praktisch angewendet wurde die Maschine von Johannes Kepler bei seinen astronomischen Berechnungen. 1642 folgte Blaise Pascal mit seiner Rechenmaschine, der Pascaline. 1668 entwickelte Samuel Morland eine Rechenmaschine, die erstmals nicht dezimal addierte, sondern auf das englische Geldsystem abgestimmt war. 1673 baute Gottfried Wilhelm Leibniz seine erste Vier-Spezies-Maschine und erfand 1703 das binäre Zahlensystem (Dualsystem), das später die Grundlage für die Digitalrechner und darauf aufbauend die digitale Revolution wurde. 1805 entwickelte Joseph-Marie Jacquard Lochkarten, um Webstühle zu steuern. 1820 baute Charles Xavier Thomas de Colmar das „Arithmometer“, den ersten Rechner, der in Massenproduktion hergestellt wurde und somit den Computer für Großunternehmen erschwinglich machte. Charles Babbage entwickelte von 1820 bis 1822 die Differenzmaschine (engl. Difference Engine) und 1837 die Analytical Engine, konnte sie aber aus Geldmangel nicht bauen. 1843 bauten Edvard und George Scheutz in Stockholm den ersten mechanischen Computer nach den Ideen von Babbage. Im gleichen Jahr entwickelte Ada Lovelace eine Methode zur Programmierung von Computern nach dem Babbage-System und schrieb damit das erste Computerprogramm. 1890 wurde die US-Volkszählung mit Hilfe des Lochkartensystems von Herman Hollerith durchgeführt. Im gleichen Jahr baute Torres y Quevedo eine Schachmaschine, die mit König und Turm einen König matt setzen konnte,– und somit den ersten Spielcomputer. Mechanische Rechner wie die darauf folgenden Addierer, der Comptometer, der Monroe-Kalkulator, die Curta und der Addo-X wurden bis in die 1970er Jahre genutzt. Anders als Leibniz nutzten die meisten Rechner das Dezimalsystem, das technisch schwieriger umzusetzen war. Dies galt sowohl für die Rechner von Charles Babbage um 1800 wie auch für den ENIAC von 1945, den ersten "vollelektronischen" Universalrechner überhaupt. Es wurden jedoch auch nichtmechanische Rechner gebaut, wie der Wasserintegrator. Vom Beginn des 20. Jahrhunderts. 1935 stellten IBM die "IBM 601" vor, eine Lochkartenmaschine, die eine Multiplikation pro Sekunde durchführen konnte. Es wurden ca. 1500 Exemplare verkauft. 1937 meldete Konrad Zuse zwei Patente an, die bereits alle Elemente der so genannten Von-Neumann-Architektur beschreiben. Im selben Jahr baute John Atanasoff zusammen mit dem Doktoranden Clifford Berry einen der ersten Digitalrechner, den Atanasoff-Berry-Computer, und Alan Turing publizierte einen Artikel, der die Turing-Maschine, ein abstraktes Modell zur Definition des Algorithmusbegriffs, beschreibt. 1938 stellte Konrad Zuse die Zuse Z1 fertig, einen frei programmierbaren mechanischen Rechner, der allerdings aufgrund von Problemen mit der Fertigungspräzision nie voll funktionstüchtig war. Die Z1 verfügte bereits über Gleitkommarechnung. Sie wurde im Krieg zerstört und später nach Originalplänen neu gefertigt, die Teile wurden auf modernen Fräs- und Drehbänken hergestellt. Dieser Nachbau der Z1, welcher im Deutschen Technikmuseum in Berlin steht, ist mechanisch voll funktionsfähig und hat eine Rechengeschwindigkeit von 1 Hz, vollzieht also eine Rechenoperation pro Sekunde. Ebenfalls 1938 publizierte Claude Shannon einen Artikel darüber, wie man symbolische Logik mit Relais implementieren kann. (Lit.: Shannon 1938) Während des Zweiten Weltkrieges gab Alan Turing die entscheidenden Hinweise zur Entzifferung der ENIGMA-Codes und baute dafür einen speziellen mechanischen Rechner, Turing-Bombe genannt. Bis zum Ende des Zweiten Weltkrieges. Ebenfalls im Krieg (1941) baute Konrad Zuse die erste funktionstüchtige programmgesteuerte binäre Rechenmaschine, bestehend aus einer großen Zahl von Relais, die Zuse Z3. Wie 1998 bewiesen werden konnte, war die Z3 turingmächtig und damit außerdem die erste Maschine, die – im Rahmen des verfügbaren Speicherplatzes – beliebige Algorithmen automatisch ausführen konnte. Aufgrund dieser Eigenschaften wird sie oft als erster funktionsfähiger Computer der Geschichte betrachtet. Die nächsten Digitalrechner waren der in den USA gebaute Atanasoff-Berry-Computer (Inbetriebnahme 1941) und die britische Colossus (1941). Sie dienten speziellen Aufgaben und waren nicht turingmächtig. Auch Maschinen auf analoger Basis wurden entwickelt. Auf das Jahr 1943 wird auch die angeblich von IBM-Chef Thomas J. Watson stammende Aussage „Ich glaube, es gibt einen weltweiten Bedarf an vielleicht fünf Computern.“ datiert. Im selben Jahr stellte Tommy Flowers mit seinem Team in Bletchley Park den ersten „Colossus“ fertig. 1944 erfolgte die Fertigstellung des ASCC (Automatic Sequence Controlled Computer, „Mark I“ durch Howard H. Aiken) und das Team um Reinold Weber stellte eine Entschlüsselungsmaschine für das Verschlüsselungsgerät M-209 der US-Streitkräfte fertig. Zuse hatte schließlich bis März 1945 seine am 21. Dezember 1943 bei einem Bombenangriff zerstörte Z3 durch die deutlich verbesserte Zuse Z4 ersetzt, dem damals einzigen turingmächtigen Computer in Europa, der von 1950 bis 1955 als zentraler Rechner der ETH Zürich genutzt wurde. Nachkriegszeit. ENIAC auf einem Bild der US-Armee Röhrenrechner Ural-1 aus der Sowjetunion Das Ende des Zweiten Weltkriegs erlaubte es, dass Europäer und Amerikaner von ihren Fortschritten gegenseitig wieder Kenntnis erlangten. 1946 wurde der Electronical Numerical Integrator and Computer (ENIAC) unter der Leitung von John Eckert und John Mauchly entwickelt. ENIAC ist der erste vollelektronische digitale Universalrechner (Konrad Zuses Z3 verwendete 1941 noch Relais, war also nicht vollelektronisch). 1947 baute IBM den Selective Sequence Electronic Calculator (SSEC), einen Hybridcomputer mit Röhren und mechanischen Relais und die Association for Computing Machinery (ACM) wurde als erste wissenschaftliche Gesellschaft für Informatik gegründet. Im gleichen Jahr wurde auch der erste Transistor realisiert, der heute aus der modernen Technik nicht mehr weggedacht werden kann. Die maßgeblich an der Erfindung beteiligten William B. Shockley, John Bardeen und Walter Brattain erhielten 1956 den Nobelpreis für Physik. In die späten 1940er Jahre fällt auch der Bau des Electronic Discrete Variable Automatic Computer (EDVAC), der erstmals die Von-Neumann-Architektur implementierte. 1949 stellte Edmund C. Berkeley, Begründer der ACM, mit „Simon“ den ersten digitalen, programmierbaren Computer für den Heimgebrauch vor. Er bestand aus 50 Relais und wurde in Gestalt von Bauplänen vertrieben, von denen in den ersten zehn Jahren ihrer Verfügbarkeit über 400 Exemplare verkauft wurden. Im selben Jahr stellte Maurice Wilkes mit seinem Team in Cambridge den Electronic Delay Storage Automatic Calculator (EDSAC) vor; basierend auf John von Neumanns EDVAC ist es der erste Rechner, der vollständig speicherprogrammierbar war. Ebenfalls 1949 besichtigte Eduard Stiefel die in einem Pferdestall in Hopferau aufgestellte Zuse Z4 und finanzierte die gründliche Überholung der Maschine durch die Zuse KG bevor sie an die ETH Zürich ausgeliefert wurde und dort in Betrieb ging. 1950er. In den 1950er Jahren setzte die Produktion kommerzieller (Serien-)Computer ein. Unter der Leitung von Prof. Alwin Walther wurde am Institut für Praktische Mathematik (IPM) der TH Darmstadt ab 1951 der DERA (Darmstädter Elektronischer Rechenautomat) erbaut. Remington Rand baute 1951 ihren ersten kommerziellen Röhrenrechner, den UNIVersal Automatic Computer I (UNIVAC I) und 1955 Bell Labs für die US Air Force mit dem TRansistorized Airborne DIgital Computer (TRADIC) den ersten Computer, der komplett mit Transistoren statt Röhren bestückt war; im gleichen Jahr begann Heinz Zemanek mit der Konstruktion des ersten auf europäischem Festland gebauten Transistorrechners, dem Mailüfterl. Ebenfalls im gleichen Jahr baute die DDR mit der „OPtik-REchen-MAschine“ (OPREMA) ihren ersten Computer. 1956 nahm die ETH Zürich ihre ERMETH in Betrieb und IBM fertigte das erste Magnetplattensystem (Random Access Method of Accounting and Control (RAMAC)). Ab 1958 wurde die Electrologica X1 als volltransistorisierter Serienrechner gebaut. Noch im selben Jahr stellte die Polnische Akademie der Wissenschaften in Zusammenarbeit mit dem Laboratorium für mathematische Apparate unter der Leitung von Romuald Marczynski den ersten polnischen Digital Computer „XYZ“ vor. Vorgesehenes Einsatzgebiet war die Nuklearforschung. 1959 begann Siemens mit der Auslieferung des Siemens 2002, ihres ersten in Serie gefertigten und vollständig auf Basis von Transistoren hergestellten Computers. 1960er. 1960 baute IBM den IBM 1401, einen transistorisierten Rechner mit Magnetbandsystem, und DECs (Digital Equipment Corporation) erster Minicomputer, die PDP-1 (Programmierbarer Datenprozessor) erscheint. 1962 lieferte die Telefunken AG die ersten TR 4 aus. 1964 baute DEC den Minicomputer PDP-8 für unter 20.000 Dollar. 1964 definierte IBM die erste Computerarchitektur 360, womit Rechner verschiedener Leistungsklassen denselben Code ausführen können und bei Texas Instruments wird der erste „integrierte Schaltkreis“ (IC) entwickelt. 1965 stellte das Moskauer Institut für Präzisionsmechanik und Computertechnologie unter der Leitung seines Chefentwicklers Sergej Lebedjew mit dem BESM-6 den ersten exportfähigen Großcomputer der UdSSR vor. BESM-6 wurde ab 1967 mit Betriebssystem und Compiler ausgeliefert und bis 1987 gebaut. 1966 erschien dann auch noch mit D4a ein 33bit Auftischrechner der TU Dresden. 1968 bewarb Hewlett-Packard (HP) den HP-9100A in der Science-Ausgabe vom 4. Oktober 1968 als „personal computer“. Die 1968 entstandene Nixdorf Computer AG erschloss zunächst in Deutschland und Europa, später auch in Nordamerika, einen neuen Computermarkt: die Mittlere Datentechnik bzw. die dezentrale elektronische Datenverarbeitung. Massenhersteller wie IBM setzten weiterhin auf Großrechner und zentralisierte Datenverarbeitung, wobei Großrechner für kleine und mittlere Unternehmen schlicht zu teuer waren und die Großhersteller den Markt der Mittleren Datentechnik nicht bedienen konnten. Nixdorf stieß in diese Marktnische mit dem modular aufgebauten Nixdorf 820 vor, brachte dadurch den Computer direkt an den Arbeitsplatz und ermöglichte kleinen und mittleren Betrieben die Nutzung der elektronischen Datenverarbeitung zu einem erschwinglichen Preis. Im Dezember 1968 stellten Douglas C. Engelbart und William English vom Stanford Research Institute (SRI) die erste Computermaus vor, mangels sinnvoller Einsatzmöglichkeit (es gab noch keine grafischen Benutzeroberflächen) interessierte dies jedoch kaum jemanden. 1969 werden die ersten Computer per Internet verbunden. 1970er. Mit der Erfindung des serienmäßig produzierbaren Mikroprozessors wurden die Computer immer kleiner, leistungsfähiger und preisgünstiger. Doch noch wurde das Potential der Computer verkannt. So sagte noch 1977 Ken Olson, Präsident und Gründer von DEC: „Es gibt keinen Grund, warum jemand einen Computer zu Hause haben wollte.“ 1971 war es Intel, die mit dem 4004 den ersten in Serie gefertigten Mikroprozessor baute. Er bestand aus 2250 Transistoren. 1971 lieferte Telefunken den TR 440 an das Deutsche Rechenzentrum Darmstadt sowie an die Universitäten Bochum und München. 1972 ging der Illiac IV, ein Supercomputer mit Array-Prozessoren, in Betrieb. 1973 erschien mit Xerox Alto der erste Computer mit Maus, graphischer Benutzeroberfläche (GUI) und eingebauter Ethernet-Karte; und die französische Firma R2E begann mit der Auslieferung des Micral. 1974 stellte HP mit dem HP-65 den ersten programmierbaren Taschenrechner vor und Motorola baute den 6800-Prozessor, währenddessen Intel den 8080-Prozessor fertigte. 1975 begann MITS mit der Auslieferung des Altair 8800. 1975 stellte IBM mit der IBM 5100 den ersten tragbaren Computer vor. Eine Wortlänge von 8 Bit und die Einengung der (schon existierenden) Bezeichnung Byte auf dieses Maß wurden in dieser Zeit geläufig. 1975 Maestro I (ursprünglich Programm-Entwicklungs-Terminal-System PET) von Softlab war weltweit die erste Integrierte Entwicklungsumgebung für Software. Maestro I wurde weltweit 22.000 Mal installiert, davon 6.000 Mal in der Bundesrepublik Deutschland. Maestro I war in den 1970er und 1980er Jahren führend auf diesem Gebiet. 1976 stellte Apple Computer den Apple I vor und Zilog entwickelte den Z80-Prozessor. 1977 kamen der Apple II, der Commodore PET und der Tandy TRS 80 auf den Markt, 1978 die 780 von DEC, eine Maschine speziell für virtuelle Speicheradressierung. 1979 schließlich startete Atari den Verkauf seiner Rechnermodelle 400 und 800. Revolutionär war bei diesen, dass mehrere ASIC-Chips den Hauptprozessor entlasteten. 1980er. Die 1980er waren die Blütezeit der Heimcomputer, zunächst mit 8-Bit-Mikroprozessoren und einem Arbeitsspeicher bis 64 KiB (Commodore VC20, C64, Sinclair ZX80/81, Sinclair ZX Spectrum, Amstrad CPC 464/664, XE-Reihe), später auch leistungsfähigere Modelle mit 16-Bit- (4A) oder 16/32-Bit-Mikroprozessoren (z. B. Amiga, Atari ST). Diese Entwicklung wurde durch IBM in Gang gesetzt, die 1981 den IBM-PC (Personal Computer) vorstellten und damit entscheidend die weitere Entwicklung bestimmten. 1982 brachte Intel den 80286-Prozessor auf den Markt und Sun Microsystems entwickelte die Sun-1 Workstation. Nach dem ersten Büro-Computer mit Maus, Lisa, der 1983 auf den Markt kam, wurde 1984 der Apple Macintosh gebaut und setzte neue Maßstäbe für Benutzerfreundlichkeit. Die Sowjetunion konterte mit ihrem „Kronos 1“, einer Bastelarbeit des Rechenzentrums in Akademgorodok. Im Januar 1985 stellte Atari den ST-Computer auf der Consumer Electronics Show (CES) in Las Vegas vor. Im Juli produzierte Commodore den ersten Amiga-Heimcomputer. In Sibirien wurde der „Kronos 2“ vorgestellt, der dann als „Kronos 2.6“ für vier Jahre in Serie ging. 1986 brachte Intel den 80386-Prozessor auf den Markt, 1989 den 80486. Ebenfalls 1986 präsentierte Motorola den 68030-Prozessor. Im gleichen Jahr stellte Acorn den ARM2-Prozessor fertig und setze ihn im Folgejahr in Acorn-Archimedes-Rechnern ein. 1988 stellte NeXT mit Steve Jobs, Mitgründer von Apple, den gleichnamigen Computer vor. Die Computer-Fernvernetzung, deutsch „DFÜ“ (Datenfernübertragung), über das Usenet wurde an Universitäten und in diversen Firmen immer stärker benutzt. Auch Privatleute strebten nun eine Vernetzung ihrer Computer an; Mitte der 1980er Jahre entstanden Mailboxnetze, zusätzlich zum FidoNet das Z-Netz und das MausNet. 1990er. Die 1990er sind das Jahrzehnt des Internets und des World Wide Web. ("Siehe auch Geschichte des Internets, Chronologie des Internets") 1991 spezifizierte das AIM-Konsortium (Apple, IBM, Motorola) die PowerPC-Plattform. 1992 stellte DEC die ersten Systeme mit dem 64-Bit-Alpha-Prozessor vor. 1993 brachte Intel den Pentium-Prozessor auf den Markt, 1995 den Pentium Pro. 1994 stellte Leonard Adleman mit dem TT-100 den ersten Prototyp eines DNA-Computers vor, im Jahr darauf Be Incorporated die BeBox. 1999 baute Intel den Supercomputer ASCI Red mit 9.472 Prozessoren und AMD stellte mit dem Athlon den Nachfolger der K6-Prozessorfamilie vor. Entwicklung im 21. Jahrhundert. Zu Beginn des 21. Jahrhunderts sind Computer sowohl in beruflichen wie privaten Bereichen allgegenwärtig und allgemein akzeptiert. Während die Leistungsfähigkeit in klassischen Anwendungsbereichen weiter gesteigert wird, werden digitale Rechner unter anderem in die Telekommunikation und Bildbearbeitung integriert. 2001 baute IBM den Supercomputer ASCI White, und 2002 ging der NEC Earth Simulator in Betrieb. 2003 lieferte Apple den PowerMac G5 aus, den ersten Computer mit 64-Bit-Prozessoren für den Massenmarkt. AMD zog mit dem Opteron und dem Athlon 64 nach. 2005 produzierten AMD und Intel erste Dual-Core-Prozessoren, 2006 doppelte Intel mit den ersten Core-2-Quad-Prozessoren nach – AMD konnte erst 2007 erste Vierkernprozessoren vorstellen. Bis zum Jahr 2010 stellten mehrere Firmen auch Sechs- und Achtkernprozessoren vor. Entwicklungen wie Mehrkernprozessoren, Berechnung auf Grafikprozessoren (GPGPU) sowie der breite Einsatz von Tablet-Computern dominieren in den letzten Jahren (Stand 2012) das Geschehen. Seit den 1980er Jahren stiegen die Taktfrequenzen von anfangs wenigen MHz bis zuletzt (Stand 2015) etwa 4 GHz. In den letzten Jahren konnte der Takt nur noch wenig gesteigert werden, stattdessen wurden Steigerungen der Rechenleistung eher durch mehr Prozessorkerne und vergrößerte Busbreiten erzielt. Auch wenn durch Übertaktung einzelne Prozessoren auf über 8 GHz betrieben werden konnten, sind diese Taktraten auch 2015 noch nicht in Serienprozessoren verfügbar. Außerdem werden zunehmend auch die in Computern verbauten Grafikprozessoren zur Erhöhung der Rechenleistung für spezielle Aufgaben genutzt (z.B. per OpenCL, siehe auch Streamprozessor und GPGPU). Seit ca. 2005 spielen auch Umweltaspekte (wie z. B. Stromsparfunktionen von Prozessor und Chipsatz, verringerter Einsatz schädlicher Stoffe) – bei der Produktion, Beschaffung und Nutzung von Computern zunehmend eine Rolle (siehe auch Green IT). Zukunftsperspektiven. Zukünftige Entwicklungen bestehen voraussichtlich aus der möglichen Nutzung biologischer Systeme (Biocomputer), weiteren Verknüpfungen zwischen biologischer und technischer Informationsverarbeitung, optischer Signalverarbeitung und neuen physikalischen Modellen (Quantencomputer). Auf der anderen Seite nimmt man langsam Abstand von nicht realisierten Trends der letzten 20 Jahre, Expertensysteme und künstliche Intelligenzen, die ein Bewusstsein entwickeln, sich selbst verbessern oder gar rekonstruieren, zu erforschen. Für weitere Entwicklungen und Trends, von denen viele noch den Charakter von Schlagwörtern bzw. Hypes haben, siehe Autonomic Computing (= Rechnerautonomie), Grid Computing, Cloud Computing, Pervasive Computing, ubiquitäres Computing (= Rechnerallgegenwart) und Wearable Computing. Die weltweite Websuche nach dem Begriff „Computer“ nimmt seit Beginn der Statistik 2004 stetig ab. In den 10 Jahren bis 2014 war diese Zugriffszahl auf ein Drittel gefallen. Einzelnachweise. ! Cache. Cache (,) bezeichnet in der EDV einen schnellen Puffer-Speicher, der (wiederholte) Zugriffe auf ein langsames Hintergrundmedium oder aufwendige Neuberechnungen zu vermeiden hilft. Daten, die bereits einmal geladen oder generiert wurden, verbleiben im Cache, so dass sie bei späterem Bedarf schneller wieder abgerufen werden können. Auch können Daten, die vermutlich bald benötigt werden, vorab vom Hintergrundmedium abgerufen und vorerst im Cache bereitgestellt werden (). Caches können als Hardware- oder Softwarestruktur ausgebildet sein. "Cache" ist ein Lehnwort aus dem Englischen. Seinen Ursprung hat es im französischen ', das eigentlich die Bedeutung "Versteck" besitzt. Der Name verdeutlicht den Umstand, dass dem Verwender in der Regel der Cache und seine Ersatzfunktion für das angesprochene Hintergrundmedium verborgen bleibt. Wer das Hintergrundmedium verwendet, muss Größe oder Funktionsweise des Caches prinzipiell nicht kennen, denn der Cache wird nicht direkt angesprochen. Der Verwender „spricht das Hintergrundmedium an“, stattdessen „antwortet“ jedoch der Cache – genau auf die Art und Weise, wie auch das Hintergrundmedium geantwortet, also Daten geliefert hätte. Wegen der Unsichtbarkeit dieser zwischengeschalteten Einheit spricht man auch von Transparenz. Praktisch ist er eine gespiegelte Ressource, die stellvertretend für das Original sehr schnell bearbeitet/verwendet wird. Greifen außer dem den Cache verwendenden Gerät noch weitere auf das Hintergrundmedium zu, so kann es zu Inkonsistenzen kommen. Um auf ein identisches Datenabbild zugreifen zu können, ist es notwendig, vor dem Zugriff die Änderungen des Caches in das Hintergrundmedium zu übernehmen. Cachestrategien wie Write-Through oder Write-Back sind hier praktikabel. Im Extremfall muss ein kompletter „Cache Flush“ erfolgen. Außerdem muss ggf. der Cache informiert werden, dass sich Daten auf dem Hintergrundmedium geändert haben und sein Inhalt nicht mehr gültig ist. Stellt die Cachelogik das nicht sicher, so ergibt sich als Nachteil, dass inzwischen im Hintergrundmedium oder im Rechenprogramm erfolgte Änderungen nicht erkannt werden. Bei Verdacht auf Änderungen, oder um sicherzugehen, dass der aktuelle Stand berücksichtigt wird, muss der Benutzer explizit eine Cache-Aktualisierung veranlassen. Nutzen. Die Ziele beim Einsatz eines Caches sind eine Verringerung der Zugriffszeit und/oder eine Verringerung der Anzahl der Zugriffe auf ein langsames Hintergrundmedium. Das bedeutet insbesondere, dass sich der Einsatz von Caches nur dort lohnt, wo die Zugriffszeit auch signifikanten Einfluss auf die Gesamtleistung hat. Während das z. B. beim Prozessorcache der meisten (skalaren) Mikroprozessoren der Fall ist, trifft es nicht auf Vektorrechner zu, wo die Zugriffszeit eine untergeordnete Rolle spielt. Deswegen wird dort üblicherweise auf Caches verzichtet, weil diese keinen oder nur wenig Nutzen bringen. Ein weiterer wichtiger Effekt beim Einsatz von Caches ist die Verringerung der notwendigen Datenübertragungsrate an die Anbindung des Hintergrundmediums (siehe z. B. Speicherhierarchie); das Hintergrundmedium kann also „langsamer angebunden“ werden, was z. B. geringere Kosten ergeben kann. Weil oft der Großteil der Anfragen vom Cache beantwortet werden kann („Cache Hit“, s. u.), sinkt die Anzahl der Zugriffe und damit die notwendige Übertragungsbandbreite. Zum Beispiel würde ein moderner Mikroprozessor ohne Cache selbst mit sehr kleiner Zugriffszeit des Hauptspeichers dadurch ausgebremst, dass nicht genügend Speicherbandbreite zur Verfügung steht, weil durch den Wegfall des Caches die Anzahl der Zugriffe auf den Hauptspeicher und damit die Anforderung an die Speicherbandbreite stark zunehmen würde. Bei CPUs kann der Einsatz von Caches somit zum Verringern des Von-Neumann-Flaschenhalses der Von-Neumann-Architektur beitragen. Die Ausführungsgeschwindigkeit von Programmen kann dadurch im Mittel enorm gesteigert werden. Ein Nachteil von Caches ist das schlecht vorhersagbare Zeitverhalten, da die Ausführungszeit eines Zugriffs aufgrund von Cache-Misses nicht immer konstant ist. Sind die Daten nicht im Cache, muss der Zugreifende warten, bis sie von dem langsamen Hintergrundmedium geladen wurden. Bei Prozessoren geschieht das oft bei Zugriffen auf bisher noch nicht verwendete Daten oder beim Laden des nächsten Programmbefehls bei (weiten) Sprüngen. Cachehierarchie. Da es technisch aufwändig und damit meist wirtschaftlich nicht sinnvoll ist, einen Cache zu bauen, der sowohl groß als auch schnell ist, kann man mehrere Caches verwenden – z. B. einen kleinen schnellen und einen deutlich größeren, jedoch etwas langsameren Cache (der aber immer noch viel schneller ist als der zu cachende Hintergrundspeicher). Damit kann man die konkurrierenden Ziele von geringer Zugriffszeit und großem Cacheumfang gemeinsam realisieren. Das ist wichtig für die Hit Rate. Existieren mehrere Caches, so bilden diese eine "Cachehierarchie," die Teil der Speicherhierarchie ist. Die einzelnen Caches werden nach ihrer Hierarchieebene (engl.) durchnummeriert, also Level‑1 bis Level‑n oder kurz L1, L2 usw. Je niedriger die Nummer, desto näher liegt der Cache am schnellen „Benutzer“; die niedrigste Nummer bezeichnet daher den Cache mit der schnellsten Zugriffszeit, dieser wird als erstes durchsucht. Enthält der L1-Cache die benötigten Daten nicht, wird der (meist etwas langsamere, aber größere) L2-Cache durchsucht usw. Das geschieht solange, bis die Daten entweder in einer Cacheebene gefunden (ein „Cache Hit“, s. u.) oder alle Caches ohne Erfolg durchsucht wurden (ein „Cache Miss“, s. u.). In letzterem Fall muss auf den langsamen Hintergrundspeicher zugegriffen werden. Tritt ein Cache Hit z. B. im L3-Cache auf, so werden die angeforderten Daten dem Zugreifer geliefert und zugleich in den L1-Cache übernommen; dafür muss dort eine Cache-Line weichen, die in den L2-Cache „absinkt“. Exklusive Cache-Hierarchien erzeugen deutlich mehr Datenverkehr zwischen den Caches. Dafür können so viele Cache-Lines bereitgehalten werden wie die Summe von L1-, L2- und L3-Cache-Größe, während beim inklusiven Cache nur die L3-Cache-Größe maßgebend ist. Im Hardwarebereich weisen vor allem moderne CPUs zwei oder drei Cacheebenen auf; sonstige Geräte besitzen meist nur eine Cacheebene. Im Softwarebereich wird meist nur eine Cacheebene benutzt, eine prominente Ausnahme bilden Webbrowser, die zwei Ebenen nutzen (Arbeitsspeicher und Festplattenlaufwerk). Cachegröße. Um den Nutzen des meist um mehrere Zehnerpotenzen kleineren Caches im Vergleich zum Hintergrundspeicher zu maximieren, werden bei der Funktionsweise und Organisation eines Caches die Lokalitätseigenschaften der Zugriffsmuster ausgenutzt. Beobachtet man beispielsweise die Aktivität eines laufenden Programms auf einem Prozessor über ein kurzes Zeitintervall, so stellt man fest, dass wiederholt auf wenige und „immer dieselben“ kleinen Speicherbereiche (z. B. Code innerhalb von Schleifen, Steuervariablen, lokale Variablen und Prozedurparameter) zugegriffen wird. Deshalb können bereits kleine Caches mit einigen Kilobytes sehr wirksam sein. Verarbeitet ein Algorithmus jedoch ständig neue Daten (z. B. Streaming-Daten), kann ein Cache keine Beschleunigung durch Mehrfach-Zugriffe bewirken, allenfalls geringfügig durch. Lokalitätsausnutzung. Wegen der räumlichen Lokalität speichern Caches nicht einzelne Bytes, sondern Datenblöcke („Cacheblock“ oder manchmal auch „Cache-Line“ genannt). Zusätzlich erleichtert das die Implementierung und verringert Speicheroverhead, da man nicht pro Datenbyte eine Adresse speichern muss, sondern nur für jeden Cacheblock. Die Wahl der Blockgröße ist ein wichtiger Designparameter für einen Cache, der die Leistung stark beeinflussen kann. Organisation. Siehe auch unten Einträge im Cache. Cache-Line/Cache-Zeile. Eine Cache-Line ist die kleinste Verwaltungseinheit innerhalb des Caches von Prozessoren. Es handelt sich dabei um eine Kopie eines Speicherbereichs. Die Zugriffe vom Cache-Speicher zur CPU oder zum Hauptspeicher erfolgen somit in einem einzigen, blockweisen Transfer. Cache-Line-Größen liegen zwischen 16 Byte (Intel 80486) und 128 Byte (Intel-Sandy-Bridge-Mikroarchitektur). Die Minimallänge ergibt sich aus der Speicher-Busbreite multipliziert mit der Prefetch-Tiefe des Speichers. Blocknummer-Tags statt Adress-Tags. Im Nachfolgenden wird davon ausgegangen, dass Cache-Lines immer nur von Adressen gelesen und geschrieben werden, deren Adresse durch die (Byte-)Länge der Cache-Line teilbar ist. Beispiel. Eine Cache-Line sei 512 Bytes groß. Es sei festgelegt, dass Daten nur gelesen und geschrieben werden können mit Startadressen z. B. 0, 512, 1024, 1536, 2048, … Das Hintergrundmedium ist also aufgeteilt in Blöcke, die gerade so groß wie eine Cache-Line sind. Dann muss in den Adress-Tags nicht mehr die gesamte (Start-)Adresse der Daten gespeichert werden, sondern nur noch, der wievielte Datenblock auf dem Hintergrundmedium gecachet ist. Durch die Wahl passender Zahlen (Zweierpotenzen) im Binärsystem lassen sich so die Tags platzsparender speichern; das beschleunigt das Prüfen, ob eine angefragte Adresse im Cache enthalten ist. Block/Satz-Aufteilung der Tags. Die Blöcke (Cache-Lines) eines Caches können in so genannte Sätze zusammengefasst werden. Für eine bestimmte Adresse ist dann immer nur einer der Sätze zuständig. Innerhalb eines Satzes bedienen alle Blöcke also nur einen Teil aller vorhandenen Adressen. Im Folgenden stehe die Variable formula_1 für die Gesamtanzahl der Cacheblöcke und formula_2 für die Anzahl der Blöcke pro Satz, die so genannte "Assoziativität." Dann besteht der Cache also aus formula_3 Sätzen. Die ersten beiden sind ein Spezialfall des satzassoziativen Caches. Der direkt abgebildete und der vollassoziative Cache lassen sich somit vom satzassoziativen Cache ableiten: "n=1" führt zu einem direkt abgebildeten Cache, "n=m" zu einem vollassoziativen Cache. Erklärung anhand eines Beispiels. Der Cache besteht, unabhängig vom Aufbau, aus 64 KByte/64 Byte = 1024 Cache-Zeilen Es gibt eine Cache-Gruppe, die alle 1024 Cache-Zeilen umfasst. Jedes Hauptspeicher-Datenwort kann in jeder beliebigen der 1024 Cache-Zeilen der einen Cache-Gruppe gespeichert werden. Es sind 1024 Komparatoren erforderlich, die log2(4 GByte/64 Byte) = log2(4 GByte)-log2(64 Byte) bits = 32-6 = 26 bits vergleichen müssen. An jeder Cache-Zeile hängen diese 26 Bit als Adress-Tag. Es gibt 1024 Cache-Gruppen mit je einer Cache-Zeile. Jedes Hauptspeicher-Datenwort kann nur in dieser zu seiner Adresse gehörenden Cache-Zeile gespeichert werden. Die Cache-Gruppe ergibt sich aus den Bit 15 bis 6 der Adresse. Es ist nur ein Komparator erforderlich, der log2(4 GByte)-log2(64 KByte) bits = 16 bits vergleichen muss. An jeder Cache-Zeile hängen diese 16 Bit als Adress-Tag. Es gibt 512 Cache-Gruppen mit je zwei Cache-Zeilen. Jedes Hauptspeicher-Datenwort kann in einer der beiden zu seiner Adresse gehörenden Cache-Zeilen gespeichert werden. Die Cache-Gruppe ergibt sich aus den Bit 15 bis 6 der Adresse. Es sind zwei Komparatoren erforderlich, die log2(4 GByte)-log2(64 KByte)+1 bits = 17 bits vergleichen müssen. An jeder Cache-Zeile hängen diese 17 Bit als Adress-Tag. Es gibt 1024/2^n Cache-Gruppen mit je 2^n Cache-Zeilen. Jedes Hauptspeicher-Datenwort kann in einer der 2^n zu seiner Adresse gehörenden Cache-Zeilen gespeichert werden. Die Cache-Gruppe ergibt sich aus den Bit 15-n bis 6 der Adresse. Es sind 2^n Komparatoren erforderlich, die log2(4 GByte)-log2(64 KByte)+n bits = 16+n bits vergleichen müssen. An jeder Cache-Zeile hängen diese 16+n Bit als Adress-Tag. Cache Hits und Misses. Den Vorgang, dass die Daten einer Anfrage an einen Cache in selbigem vorrätig sind, bezeichnet man als „Cache Hit“ (dt. Cachetreffer), den umgekehrten Fall als „Cache Miss“ (dt. „Cache-Verfehlen“). Diese drei Typen bezeichnet man auch kurz als „Die drei C“. In Multiprozessorsystemen kann beim Einsatz eines Cache-Kohärenz-Protokolls vom Typ Write-Invalidate noch ein viertes „C“ hinzukommen, nämlich ein „Coherency Miss“: Wenn durch das Schreiben eines Prozessors in einen Cacheblock der gleiche Block im Cache eines zweiten Prozessors hinausgeworfen werden muss, so führt der Zugriff des zweiten Prozessors auf eine Adresse, die durch diesen entfernten Cacheblock abgedeckt war, zu einem Coherency Miss. Arbeitsweise. Bei der Verwaltung des Caches ist es sinnvoll, immer nur die Blöcke im Cache zu halten, auf die auch häufig zugegriffen wird. Zu diesem Zweck gibt es verschiedene Ersetzungsstrategien. Eine häufig verwendete Variante ist dabei die LRU-Strategie (engl.), bei welcher immer der Block ausgetauscht wird, auf den am längsten nicht mehr zugegriffen wurde. Moderne Prozessoren (z. B. der AMD Athlon) implementieren meist eine Pseudo-LRU-Ersetzungsstrategie, die fast wie echtes LRU arbeitet, aber leichter in Hardware zu implementieren ist. Schreibstrategie. Einige Befehlssätze enthalten Befehle, die es dem Programmierer ermöglichen, explizit anzugeben, ob zu schreibende Daten am Cache vorbeizuschreiben sind. Normalerweise wird entweder die Kombination "write-back" mit "write-allocate" oder "write-through" mit "non-write-allocate" verwendet. Die erste Kombination hat den Vorteil, dass aufeinander folgende Schreibzugriffe auf denselben Block (Lokalitätsprinzip) komplett im Cache abgewickelt werden (bis auf den ersten Miss). Dies gibt im zweiten Fall keinen Vorteil, da sowieso jeder Schreibzugriff zum Hauptspeicher muss, weshalb die Kombination write-through mit write-allocate eher unüblich ist. Cache Flush. Ein "Cache Flush" („Pufferspeicher-Leerung“) bewirkt das komplette Zurückschreiben des Cacheinhaltes in den Hintergrundspeicher. Dabei bleibt der Cacheinhalt meist unangetastet. Ein solches Vorgehen ist nötig, um die Konsistenz zwischen Cache und Hintergrundspeicher wiederherzustellen. Notwendig ist das zum Beispiel immer dann, wenn Daten aus dem Hauptspeicher von externen Geräten benötigt werden, unter anderem bei Multiprozessor-Kommunikation oder bei der Übergabe eines als Ausgabepuffer benutzten Teils des Hauptspeichers an den DMA-Controller. Heiße und kalte Caches. Ein Cache ist „heiß“, wenn er optimal arbeitet, also gefüllt ist und nur wenige Cache Misses hat; ist das nicht der Fall, gilt der Cache als „kalt“. Ein Cache ist nach Inbetriebnahme zunächst kalt, da er noch keine Daten enthält und häufig zeitraubend Daten nachladen muss, und wärmt sich dann zunehmend auf, da die zwischengelagerten Daten immer mehr den angeforderten entsprechen und weniger Nachladen erforderlich ist. Im Idealzustand werden Datenzugriffe fast ausschließlich aus dem Cache bedient und das Nachladen kann vernachlässigt werden. Prozessor-Cache. Bei CPUs kann der Cache direkt im Prozessor integriert oder extern auf der Hauptplatine (früher weiter verbreitet, heute eher untypisch) platziert sein. Oftmals gibt es mehrere Ebenen (Level), die aufeinander aufbauen. Kleinere Level sind dabei typischerweise schneller, haben aber aus Kostengründen eine kleinere Größe. Je nach Ort des Caches arbeitet dieser mit unterschiedlichen Taktfrequenzen: Der L1 (Level 1, am nächsten an der CPU) ist fast immer direkt im Prozessor (d. h. auf dem Die) integriert und arbeitet daher mit dem vollen Prozessortakt – also u. U. mehrere Gigahertz. Ein externer Cache hingegen wird oftmals nur mit einigen hundert Megahertz getaktet. Aktuelle Prozessoren (z. B. AMD Phenom II, Intel-Core-i-Serie, IBM Power 7) besitzen überwiegend drei Cache-Level: L1, L2 und L3. Gängige Größen für L1-Caches sind 4 bis 256 KiB pro Prozessorkern, der L2-Cache ist 64 KiB bis 1024 KiB (meist ebenfalls pro Kern), der L3-Cache 2 bis 32 MiB (für alle Kerne gemeinsam). Bei kostengünstigeren Versionen wird mitunter der L3-Cache weggelassen oder abgeschaltet, dafür ist der L2-Cache teilweise etwas vergrößert. Prozessorcache als Extra-Chip auf dem Mainboard wird heute nicht mehr gebaut, als Extra-Die im selben Chip-Gehäuse (siehe Multi Chip Package) nur noch selten. In jedem Fall ist eine Protokollierung erforderlich, um die Kohärenz der Daten (z. B. zwischen Caches und Hauptspeicher) sicherzustellen. Dazu dienen Flags, die einen Speicherbereich (typischerweise eine ganze "line" von 512 Byte) als „dirty“, also geändert, markieren (s. o. bei Schreibstrategie). Das Problem verschärft sich bei mehreren Cachelevels und mehreren Prozessoren oder Prozessorkernen. Die Cachekonsistenz ist sowohl bei mehreren aktiven Geräten auf dem Datenbus, als auch bei mehreren zusammengeschalteten Prozessoren (Multiprozessorsysteme) zu beachten. Bei Mehrprozessorsystemen unterscheidet man u. a. zwischen SIMD- und MIMD-Strukturen (Single/Multiple Instruction – Multiple Data). Bei MIMD-Systemen ist die Wahrscheinlichkeit hoch, dass verschiedene Prozessoren auf verschiedene Speicherbereiche zugreifen, bei SIMD dagegen kleiner. Danach lässt sich die Cache-Konfiguration einstellen. Moderne Prozessoren haben getrennte L1-Caches für Programme und Daten (Lese- und Schreibcache), teilweise ist das auch noch beim L2 der Fall (Montecito). Man spricht hier von einer Harvard-Cachearchitektur. Das hat den Vorteil, dass man für die unterschiedlichen Zugriffsmuster für das Laden von Programmcode und Daten unterschiedliche Cachedesigns verbauen kann. Außerdem kann man bei getrennten Caches diese räumlich besser zu den jeweiligen Einheiten auf dem Prozessor-Die platzieren und damit die kritischen Pfade beim Prozessorlayout verkürzen. Des Weiteren können Instruktionen und Daten gleichzeitig gelesen/geschrieben werden, wodurch der Von-Neumann-Flaschenhals weiter verringert werden kann. Ein Nachteil ist, dass selbstmodifizierender Code nicht sehr gut auf modernen Prozessoren läuft. Allerdings wird diese Technik aus Sicherheitsgründen sowie weil sie nur schwer verständlich ist, schwierig zu überprüfen ist und daher eine schlechte Wartbarkeit besitzt, heute ohnehin nur noch sehr selten verwendet. Laufwerks-Cache. Bei Festplatten befindet sich der Cache auf der Steuerplatine (siehe Festplattencache) oder einer extra Platine, dem Festplattenkontroller. Die Größe beträgt bei aktuellen Festplatten je nach dem vom Hersteller vorgesehenen Einsatzzweck der Festplatte zwischen 8 und 64 MB (Stand 2012). Die meisten optischen Laufwerke besitzen Caches, um die oftmals im dreistelligen Millisekundenbereich liegenden Zugriffszeiten und Schwankungen im Datenstrom (z. B. durch Synchronisierungsprobleme) aufzufangen. Software-Caches. Caches können auch bei Software genutzt werden, dabei ist dasselbe Prinzip wie bei der Hardwareimplementierung gemeint: Daten werden für einen schnelleren Zugriff auf ein schnelleres Medium zwischengespeichert. Software-Caches, welche die Festplatte als schnelleres Medium verwenden, werden meist in Form von temporären Dateien angelegt. Man spricht auch von Caching, wenn ein Betriebssystem gewisse Ressourcen – wie z. B. Funktionsbibliotheken oder Schriftarten – vorerst im Arbeitsspeicher belässt, obwohl sie nach Ende ihrer Benutzung nicht mehr gebraucht werden. Solange kein Speichermangel herrscht, können sie im Arbeitsspeicher verbleiben, um dann ohne Nachladen von der Festplatte sofort zur Verfügung zu stehen, wenn sie wieder gebraucht werden. Wenn allerdings die Speicherverwaltung des Betriebssystems einen Speichermangel feststellt, werden diese Ressourcen als erste gelöscht. Suchmaschinen-Cache . Die Inhalte aller Webseiten, die die Suchmaschine als Basisdaten für Benutzeranfragen berücksichtigt, werden im Suchmaschinen-Cache zwischengespeichert. Die Server einer Suchmaschine können nicht für jede Abfrage jede Webseite in Echtzeit auf die aktuellsten Inhalte durchsuchen; stattdessen wird in einem Index über dem Cache gesucht. Im Allgemeinen kann ein Webseiten-Betreiber Änderungen seiner Webseiten an die Suchmaschine melden, dann fragt der Webcrawler die Seite baldmöglichst erneut ab; ansonsten prüft der Webcrawler jede Webseite in regelmäßigen Abständen – die Cache-Inhalte können also veraltet sein. Eine Webseite kann dem Crawler einen Hinweis geben, wie häufig sie sich im Allgemeinen ändert. Suchmaschinen gehen mit dieser Information mitunter verschieden um. Die in Deutschland verbreitetste Suchmaschine ist Google; deren Cache-, Indizier- und Suchstrategien wird daher besonders hohes Interesse zuteil. Die Webcrawler-Frequenz, mit der Webseiten geprüft werden, liegt bei Google bei den meisten Webseiten zwischen einer und vier Wochen („[...] "Inhalt wird in der Regel alle 7 Tage aktualisiert."“). Gemeldete Webseiten untersucht der sogenannte Googlebot. Chemie. Chemie (; mittel- und norddeutsch auch; süddeutsch:, nur noch selten Scheidekunde oder Scheidekunst'") ist eine Naturwissenschaft, die sich mit dem Aufbau, den Eigenschaften und der Umwandlung von Stoffen beschäftigt. Die Stoffportionen enthalten Atome (z. B. Metalle wie Eisen), Moleküle (z. B. Wasser) oder Ionen (z. B. Salze wie Kochsalz). Die chemischen Reaktionen sind Vorgänge in den Elektronenhüllen der Atome, Moleküle und Ionen. Versuchsapparatur im Gasabzug eines Chemielabors Zentrale Begriffe der Chemie sind chemische Reaktionen und chemische Bindungen. Durch chemische Reaktionen werden chemische Bindungen gebildet oder gebrochen. Dabei verändert sich die Elektronenaufenthaltswahrscheinlichkeit in den Elektronenhüllen der beteiligten Stoffe und damit deren Eigenschaften. Die Herstellung von Stoffen ("Synthese") mit von der Menschheit benötigten Eigenschaften ist heute das zentrale Anliegen der Chemie. Traditionell wird die Chemie in Teilgebiete unterteilt. Die wichtigsten davon sind die organische Chemie, die kohlenstoffhaltige Verbindungen untersucht, die anorganische Chemie, die alle Elemente des Periodensystems und deren Verbindungen behandelt, sowie die physikalische Chemie, die sich mit den grundlegenden Phänomenen, die der Chemie zu Grunde liegen, beschäftigt. Die Chemie entstand in ihrer heutigen Form als exakte Naturwissenschaft im 17. und 18. Jahrhundert allmählich aus der Anwendung rationalen Schlussfolgerns, basierend auf Beobachtungen und Experimenten der Alchemie. Einige der ersten großen Chemiker waren Robert Boyle, Humphry Davy, Jöns Jakob Berzelius, Joseph Louis Gay-Lussac, Joseph Louis Proust, Marie, Antoine Lavoisier und Justus von Liebig. Die Chemie, für altägyptisch "kemi" "schwarz[e Erden]", hat ihre Wurzeln in Ägypten. Gebildete Menschen beschäftigte damals die Frage, weshalb die für Ackerbau genutzten Uferregionen nach der Flut des Nils deutlich mehr Ertrag an Lebensmitteln ermöglichten als vor der Flut. Deshalb untersuchten sie den durch die Flut abgelagerten schwarzen Schlamm. Die chemische Industrie zählt zu den wichtigsten Industriezweigen. Sie stellt Stoffe her, deren Eigenschaften von modernen Menschen zur Herstellung von Alltagsgegenständen (z. B. Grundchemikalien, Kunststoffe, Lacke), Lebensmitteln (z. B. Düngemittel und Pestizide) oder zur Verbesserung der Gesundheit (z. B. Pharmazeutika) benötigt werden. Wortherkunft. Die Bezeichnung "Chemie" entstand aus "chimeía" „[Kunst der Metall]Gießerei“ im Sinne von „Umwandlung“. Die heutige Schreibweise "Chemie" wurde vermutlich erstmals von Johann Joachim Lange im Jahre 1750–1753 eingeführt und ersetzte zu Beginn des 19. Jahrhunderts das seit dem 17. Jahrhundert bestehende Wort "Chymie", das wahrscheinlich eine Vereinfachung und Umdeutung des seit dem 13. Jahrhundert belegten Ausdrucks "Alchimie" „Kunst des Goldherstellens“ war, welches wiederum selbst eine mehrdeutige Etymologie aufweist (zu den Konnotationen vergleiche die Etymologie des Wortes "Alchemie": Das Wort wurzelt wohl in arabisch "al-kīmiyá", welches unter anderem „Stein der Weisen“ bedeuten kann, eventuell aus altgriechisch χυμεία "chymeía" „Gießung“ oder aus koptisch/ altägyptisch "kemi" „schwarz[e Erden]“, vergleiche hierzu auch Kemet). Geschichte. Die Chemie in der Antike bestand im angesammelten praktischen Wissen über Stoffumwandlungsprozesse und den naturphilosophischen Anschauungen der Antike. Die Chemie im Mittelalter entwickelte sich aus der Alchemie, die in China, Europa und Indien schon seit Jahrtausenden praktiziert wurde. Die Alchemisten beschäftigten sich sowohl mit der erhofften Veredlung der Metalle (Herstellung von Gold aus unedlen Metallen, siehe auch Transmutation) als auch mit der Suche nach Arzneimitteln. Insbesondere für die Herstellung von Gold suchten die Alchemisten nach einem Elixier (Philosophen-Stein, Stein der Weisen), das die unedlen („kranken“) Metalle in edle („gesunde“) Metalle umwandeln sollte. Im medizinischen Zweig der Alchemie wurde ebenfalls nach einem Elixier gesucht, dem Lebenselixier, einem Heilmittel für alle Krankheiten, das schließlich auch Unsterblichkeit verleihen sollte. Kein Alchimist hat allerdings je den Stein der Weisen oder das Lebenselixier entdeckt. Bis zum Ende des 16. Jahrhunderts basierte die Vorstellungswelt der Alchemisten in der Regel nicht auf wissenschaftlichen Untersuchungen, sondern auf Erfahrungstatsachen und empirischen Rezepten. Alchemisten führten eine große Auswahl Experimente mit vielen Substanzen durch, um ihre Ziele zu erreichen. Sie notierten ihre Entdeckungen und verwendeten für ihre Aufzeichnungen die gleichen Symbole, wie sie auch in der Astrologie üblich waren. Die mysteriöse Art ihrer Tätigkeit und die dabei oftmals entstehenden farbigen Flammen, Rauch oder Explosionen führten dazu, dass sie als Magier und Hexer bekannt und teilweise verfolgt wurden. Für ihre Experimente entwickelten die Alchemisten manche Apparaturen, die auch heute noch in der chemischen Verfahrenstechnik verwendet werden. Albertus Magnus; Fresko (1352), Treviso, Italien Ein bekannter Alchimist war Albertus Magnus. Er befasste sich als Kleriker mit diesem Themenkomplex und fand bei seinen Experimenten ein neues chemisches Element, das Arsen. Erst mit den Arbeiten von Paracelsus und Robert Boyle ("The Sceptical Chymist", 1661) wandelte sich die Alchemie von einer rein aristotelisch geprägten zu einer mehr empirischen und experimentellen Wissenschaft, die zur Basis der modernen Chemie wurde. Die Chemie in der Neuzeit erhielt als Wissenschaft entscheidende Impulse im 18. und 19. Jahrhundert: Sie wurde auf die Basis von Messvorgängen und Experimenten gestellt, v. a. durch Gebrauch der Waage, sowie auf die Beweisbarkeit von Hypothesen und Theorien über Stoffe und Stoffumwandlungen. Die Arbeiten von Justus von Liebig über die Wirkungsweise von Dünger begründeten die Agrarchemie und lieferten wichtige Erkenntnisse über die anorganische Chemie. Die Suche nach einem synthetischen Ersatz für den Farbstoff Indigo zum Färben von Textilien waren der Auslöser für die bahnbrechenden Entwicklungen der organischen Chemie und der Pharmazie. Auf beiden Gebieten hatte man in Deutschland bis zum Beginn des 20. Jahrhunderts eine absolute Vorrangstellung. Dieser Wissensvorsprung ermöglichte es beispielsweise, den zur Führung des Ersten Weltkrieges notwendigen Sprengstoff statt aus importierten Nitraten mithilfe der Katalyse aus dem Stickstoff der Luft zu gewinnen (siehe Haber-Bosch-Verfahren). Die Autarkie­bestrebungen der Nationalsozialisten gaben der Chemie als Wissenschaft weitere Impulse. Um von den Importen von Erdöl unabhängig zu werden, wurden Verfahren zur Verflüssigung von Steinkohle weiterentwickelt (Fischer-Tropsch-Synthese). Ein weiteres Beispiel war die Entwicklung von synthetischem Kautschuk für die Herstellung von Fahrzeugreifen. In der heutigen Zeit ist die Chemie ein wichtiger Bestandteil der Lebenskultur geworden. Chemische Produkte umgeben uns überall, ohne dass wir uns dessen bewusst sind. Allerdings haben Unfälle der chemischen Großindustrie wie beispielsweise die von Seveso und Bhopal der Chemie ein sehr negatives Image verschafft, so dass Slogans wie „Weg von der Chemie!“ sehr populär werden konnten. Die Forschung entwickelte sich um die Wende zum 20. Jahrhundert soweit, dass vertiefende Studien des Atombaus nicht mehr zum Bereich der Chemie gehören, sondern zur Atomphysik bzw. Kernphysik. Diese Forschungen lieferten dennoch wichtige Erkenntnisse über das Wesen der chemischen Stoffwandlung und der chemischen Bindung. Weitere wichtige Impulse gingen dabei auch von Entdeckungen in der Quantenphysik aus (Elektronen-Orbitalmodell). Allgemeines. Die Chemie befasst sich mit den Eigenschaften der Elemente und Verbindungen, mit den möglichen Umwandlungen eines Stoffes in einen anderen, macht Vorhersagen über die Eigenschaften für bislang unbekannte Verbindungen, liefert Methoden zur Synthese neuer Verbindungen und Messmethoden, um die chemische Zusammensetzung unbekannter Proben zu entschlüsseln. Obwohl alle Stoffe aus vergleichsweise wenigen „Bausteinsorten“, nämlich aus etwa 80 bis 100 der 118 bekannten Elemente aufgebaut sind, führen die unterschiedlichen Kombinationen und Anordnungen der Elemente zu einigen Millionen sehr unterschiedlichen Verbindungen, die wiederum so unterschiedliche Materieformen wie Wasser, Sand, Pflanzen- und Tiergewebe oder Kunststoff aufbauen. Die Art der Zusammensetzung bestimmt schließlich die chemischen und physikalischen Eigenschaften der Stoffe und macht damit die Chemie zu einer umfangreichen Wissenschaft. Neben den Schulkenntnissen können besonders Interessierte und Studenten der Chemie ihre Kenntnisse durch die chemische Literatur vertiefen. Fortschritte in den verschiedenen Teilgebieten der Chemie sind oftmals die unabdingbare Voraussetzung für neue Erkenntnisse in anderen Disziplinen, besonders in den Bereichen Biologie und Medizin, aber auch im Bereich der Physik und der Ingenieurwissenschaften. Außerdem erlauben sie es häufig, die Produktionskosten für viele Industrieprodukte zu senken. Beispielsweise führen verbesserte Katalysatoren zu schnelleren Reaktionen und dadurch zur Einsparung von Zeit und Energie in der Industrie. Neu entdeckte Reaktionen oder Substanzen können alte ersetzen und somit ebenfalls von Interesse in der Wissenschaft und Industrie sein. Wirtschaftliche Bedeutung der Chemie. Die chemische Industrie ist – gerade auch in Deutschland – ein sehr bedeutender Wirtschaftszweig: In Deutschland liegt der Umsatz der Chemieindustrie bei über 100 Milliarden Euro, die Zahl der Beschäftigten lag nach der Wiedervereinigung Deutschlands bei über 700.000 und ist jetzt unter 500.000 gesunken. Sie stellt einerseits Grundchemikalien wie beispielsweise Schwefelsäure oder Ammoniak her, oft in Mengen von Millionen von Tonnen jährlich, die sie dann zum Beispiel zur Produktion von Düngemitteln und Kunststoffen verwendet. Andererseits produziert die chemische Industrie viele komplexe Stoffe, unter anderem pharmazeutische Wirkstoffe (Arzneistoffe) und Pflanzenschutzmittel (Pestizide), maßgeschneidert für spezielle Anwendungen. Auch die Herstellung von Computern, Kraft- und Schmierstoffen für die Automobil­industrie und vielen anderen technischen Produkten ist ohne industriell hergestellte Chemikalien unmöglich. Chemie im Alltag. Chemische Reaktionen im Alltag finden zum Beispiel beim Kochen, Backen oder Braten statt, wobei oft gerade die hier ablaufenden, recht komplexen Stoffumwandlungen zum typischen Aroma der Speise beitragen. Nahrung wird bei körpereigenen Abbauvorgängen chemisch in ihre Bestandteile zerlegt und auch in Energie umgewandelt. Eine gut beobachtbare chemische Reaktion ist die Verbrennung. Haarfärbung, Verbrennungsmotoren, Handy-Displays, Waschmittel, Dünger, Arzneimittel u. v. m. sind weitere Beispiele für Anwendungen der Chemie im alltäglichen Leben. Im Alltag wird der Begriff „Chemie“ oft in einem eingeschränkten Sinn als Abkürzung für „Produkt der chemischen Industrie“ verwendet, zum Beispiel bei der "Chemischen Reinigung": Diese reinigt Textilien mit (synthetischen) Lösungsmitteln. Der Reinigungsvorgang selbst ist in der Regel ein Lösen der Verunreinigung (beispielsweise eines Fettflecks) im Lösungsmittel und damit kein chemischer Prozess (Stoffumwandlung) im eigentlichen Sinne, sondern ein physikalischer Vorgang (Lösen). Im Gegensatz dazu ist das manchmal als „Putzen ohne Chemie“ gepriesene Auflösen von Kalkflecken mit Essig oder Zitronensaft sehr wohl ein chemischer Vorgang, da dabei festes Calciumcarbonat (Kalk) durch die Säuren zu löslichen Calciumsalzen und Hydrogencarbonat bzw. Kohlenstoffdioxid umgesetzt wird. Schulunterricht. Es ist Aufgabe des Chemieunterrichts, einen Einblick in stoffliche Zusammensetzung, Stoffgruppen und stoffliche Vorgänge der Natur zu geben. Stoffumwandlungen in der belebten und unbelebten Natur beruhen ebenfalls auf chemischen Reaktionen und sollten als solche erkannt werden können. Ebenso sollte aus der Vermittlung naturwissenschaftlicher Erkenntnisse Verständnis für die moderne Technik und eine positive Einstellung dazu aufgebaut werden, da gerade die Chemie durch Einführung neuer Produkte einen wesentlichen Beitrag zur Verbesserung der Lebensbedingungen des Menschen geleistet hat. Nicht zuletzt dient der Chemieunterricht auch dazu, die Schüler zu mündigen Verbrauchern zu erziehen. Er wird aus diesem Grund nach Lehrplänen (Curricula) und pädagogischen Konzepten gestaltet (Chemiedidaktik). Beruf. Es ist möglich als Chemielaborant in Betrieb und Berufsschule im so genannten Dualen System ausgebildet zu werden. Ein weiterer Ausbildungsberuf für die Arbeit im Chemielabor ist der Chemisch-Technischer Assistent (CTA). Der Chemikant (auch Chemie- und Pharmatechnologe oder früher Chemiefacharbeiter) ist ein Ausbildungsberuf für Mitarbeiter in der chemischen Industrie. Viele Universitäten bieten einen Studiengang Chemie an. Ein Großteil der Chemiker schließt im Anschluss an das Studium eine Promotion an. Ansehen. Logo des Jahrs der Chemie Die Chemie hat in der deutschen Öffentlichkeit ein relativ schlechtes Ansehen. Die auf Laien abgehoben wirkende, teils unverständliche Formelsprache für chemische Verbindungen sowie Reaktionsgleichungen und die Berichterstattung mit Fokus auf Chemiekatastrophen und Umweltskandalen hat womöglich zu einer negativen Konnotation geführt auch wenn dies angesichts des Nutzens und der allgemeinen Bedeutung der Chemie wenig gerechtfertigt scheint. Insbesondere in Europa ist unter anderem aufgrund der strikten Gesetzgebung (Chemikaliengesetz, Gefahrstoffverordnung) eine weitgehend sichere Handhabung von Chemikalien gewährleistet. Um das Ansehen der Chemie zu verbessern, wurde das Jahr 2003 von verschiedenen Trägerorganisationen zum „Jahr der Chemie“ erklärt. 2011 wurde von der UN (in Zusammenarbeit mit der UNESCO und der IUPAC) zum „Internationalen Jahr der Chemie“ erklärt. Fachrichtungen. Traditionell wird die Chemie in die "organische" und "anorganische" Chemie unterteilt, etwa um 1890 kam die "physikalische" Chemie hinzu. Seit der Harnstoffsynthese 1828 von Friedrich Wöhler, bei der die organische Substanz Harnstoff aus der anorganischen Verbindung Ammoniumcyanat hergestellt wurde, verwischen sich die Grenzen zwischen Stoffen aus der unbelebten (den „anorganischen“ Stoffen) und der belebten Natur (den organischen Stoffen). So stellen Lebewesen auch eine Vielzahl anorganischer Stoffe her, während im Labor fast alle organischen Stoffe hergestellt werden können. Die traditionelle, aber auch willkürliche Unterscheidung zwischen anorganischer und organischer Chemie wurde aber dennoch beibehalten. Ein Grund besteht darin, dass die organische Chemie stark vom Molekül bestimmt wird, die anorganische Chemie jedoch oft von Ionen, Kristallen, Komplexverbindungen und Kolloiden. Ein weiterer ist, dass sich die Reaktionsmechanismen und Stoffstrukturen in der Anorganik und Organik vielfach unterscheiden. Eine weitere Möglichkeit ist es, die Chemie nach der Zielrichtung in die untersuchende, 'zerlegende' Analytische Chemie und in die aufbauende, produktorientierte Präparative- oder Synthetische Chemie aufzuspalten. In der Lehrpraxis der Universitäten ist die Analytische Chemie oft als Unterrichtsfach vertreten, während die Präparative Chemie im Rahmen der organischen oder anorganischen Chemie behandelt wird. Es gibt natürlich noch weitere Fachgebiete, doch die hier geschilderten sollen einen groben Überblick verschaffen. Allgemeine Chemie. Unter Allgemeiner Chemie werden die Grundlagen der Chemie verstanden, die in fast allen chemischen Teilgebieten von Bedeutung sind. Sie stellt somit das begriffliche Fundament der gesamten Chemie dar: den Aufbau des Atoms, das Periodensystem der Elemente (PSE), die Chemische Bindung, die Grundlagen der Stöchiometrie, Säuren, Basen und Salze und chemische Reaktionen. Im Gegensatz zu anderen naturwissenschaftlichen Disziplinen gibt es in der Chemie den Terminus Technicus „Allgemeine Chemie“ (eine „Allgemeine Physik“ gibt es nicht). Insofern steht die Allgemeine Chemie am Anfang jeder näheren Beschäftigung mit der Chemie. Anorganische Chemie. Diese auch Anorganik genannte Richtung umfasst, einfach ausgedrückt, die Chemie aller Elemente und Verbindungen, die nicht ausschließlich Kohlenstoffketten enthalten, denn diese sind Gegenstände der organischen Chemie. Die anorganische Chemie beschäftigt sich beispielsweise mit den Mineralsäuren, Metallen, und anderen kohlenstofffreien Verbindungen, aber auch mit Kohlendioxid, den Säuren Cyanwasserstoff (Blausäure) und Kohlensäure sowie mit deren Salzen. Verbindungen, die sich nicht genau einteilen lassen fallen in den Bereich der Organometallchemie. Die Bioanorganische Chemie überschneidet sich hingegen thematisch mehr mit der Biochemie. In der klassischen Anorganik geht es um kleine Moleküle oder überhaupt um Salze bzw. Metalle, daher reicht eine Summenformel meist aus. In der Komplexchemie, wo es dennoch Isomere gibt, werden verständlicherweise wie in der organischen Chemie systematische Namen und Strukturformeln benötigt. Oft orientieren sich diese dabei sogar an denen von ähnlich aufgebauten Substanzen in der organischen Chemie (siehe beispielsweise Silane). Die moderne anorganische Chemie befasst sich damit der Strukturbildung (Strukturchemie) von Molekülen und Festkörpern (Festkörperchemie), um zum Beispiel neue Werkstoffe mit speziellen physikalischen und chemischen zu erschaffen oder dem komplexen Verhalten von Teilchen in Lösungen (Kolloidchemie). "Historische Definition:" Die Anorganische Chemie befasst sich mit den chemischen Elementen und Reaktionen der Stoffe, die nicht von organischem Leben (mithilfe der hypothetischen Lebenskraft) erzeugt werden. Organische Chemie. Die organische Chemie (auch Organik) ist die Chemie des Elementes Kohlenstoff und nur wenigen anderen Elementen, besitzt dennoch die größte Vielfalt an chemischen Verbindungen. Durch die Vielzahl an Strukturelementen enthält schon alleine die Chemie der Kohlenwasserstoffe eine gewaltige Zahl an unterschiedlichen Substanzen, die sich nur in unterschiedlichen Bindungsarten, Anordnungen (Isomerie) oder überhaupt nur an der Struktur (Stereochemie) unterscheiden. Hinzu kommt noch, dass häufig auch Fremdatome im Kohlenwasserstoffgerüst eingebaut sind. Um diese Unzahl an Verbindungen einwandfrei zu identifizieren, genügen keine Summenformeln mehr. Aus diesem Grund gibt es die IUPAC-Nomenklatur, die jeder Substanz (auch jeder anorganischen) einen eindeutigen, systematischen Namen zuweisen, obwohl gerade bei organischen Stoffen oft Trivialnamen (gewohnte Bezeichnungen; z. B.: Essigsäure) vorhanden sind. Die organische Chemie teilt daher ihre Verbindungen in funktionelle Gruppen mit ähnlichen chemischen Eigenschaften ein und wird anhand von vergleichbaren Reaktionsmechanismen gelehrt. "Historische Definition": Früher dachte man, dass organische Substanzen, wie schon das Wort „organisch“ sagt, nur von Lebewesen hergestellt werden können. Man schrieb dies einer so genannten „vis vitalis“, also einer „Lebenskraft“ zu, die in diesen Substanzen verborgen sei. Diese Theorie war lange Zeit unangefochten, bis es Friedrich Wöhler 1828 gelang, erstmals eine anorganische Substanz im Labor in eine organische umzuwandeln. Wöhlers berühmte Harnstoffsynthese aus Ammoniumcyanat durch Erhitzen auf 60 °C. Die Strukturaufklärung und Synthese von natürlichen Stoffen ist Bestandteil der Naturstoffchemie. Heutzutage ist der Erdölverarbeitende Sektor (Petrochemie) wirtschaftlich von Bedeutung, da er Ausgangsstoffe für zahlreiche großtechnische Synthese liefert. Physikalische Chemie. Bei der physikalischen Chemie handelt es sich um den Grenzbereich zwischen Physik und Chemie. Während in der präparativen Chemie (Organik, Anorganik) die Fragestellung zum Beispiel ist: „Wie kann ich einen Stoff erzeugen“, beantwortet die physikalische Chemie stärker quantitative Fragen, zum Beispiel „Unter welchen Bedingungen findet eine Reaktion statt?“ (Thermodynamik), „Wie schnell ist die Reaktion“ (Kinetik). Sie liefert auch die Grundlage für analytische Verfahren (Spektroskopie) oder technische Anwendungen (Elektrochemie, Magnetochemie und Nanochemie). In Überschneidung mit der Meteorologie auch Atmosphärenchemie. Die an Bedeutung gewinnende theoretische Chemie, Quantenchemie oder Molekularphysik versucht, Eigenschaften von Stoffen, chemischer Reaktionen und Reaktionsmechanismen anhand von physikalischen Modellen, wie zum Beispiel der Quantenmechanik oder Quantenelektrodynamik und numerischen Berechnungen zu ergründen. Die Physikalische Chemie wurde um 1890 vor allem von Svante Arrhenius, Jacobus Henricus van ’t Hoff und Wilhelm Ostwald begründet. Letzterer war auch erster Herausgeber der 1887 gemeinsam mit van ’t Hoff gegründeten Zeitschrift für physikalische Chemie und hatte in Leipzig den ersten deutschen Lehrstuhl für Physikalische Chemie inne. Das erste eigenständige Institut für Physikalische Chemie wurde 1895 von Walther Nernst, der sich bei Ostwald habilitiert hatte, in Göttingen gegründet. Weitere spezifisch der Physikalischen Chemie gewidmete Institute folgten dann in rascher Folge in Leipzig (1897), Dresden (1900), Karlsruhe (1903), Breslau, Berlin (1905) und andernorts. Chemiker und Physiker, die vorwiegend im Bereich der Physikalischen Chemie tätig sind, werden auch als Physikochemiker bezeichnet. Biochemie. Die Biochemie ist die Grenzdisziplin zur Biologie und befasst sich mit der Aufklärung von Stoffwechsel-Vorgängen, Vererbungslehre auf molekularer Ebene (Genetik) und der Strukturaufklärung und der Synthese (Molekulardesign) von großen Biomolekülen. Die Anwendung der Biochemie im technischen Bereich wird als Biotechnologie bezeichnet. Sie überschneidet sich mit den angrenzenden Disziplinen Pharmazeutische Chemie und Medizinische Chemie. Theoretische Chemie. Theoretische Chemie ist die Anwendung nichtexperimenteller (üblicherweise mathematischer oder computersimulationstechnischer) Methoden zur Erklärung oder Vorhersage chemischer Phänomene. Man kann die Theoretische Chemie grob in zwei Richtungen unterteilen: Einige Methoden basieren auf Quantenmechanik (Quantenchemie), andere auf der statistischen Thermodynamik (Statistische Mechanik). Wichtige Beiträge zur theoretischen Chemie bzw. physikalischen Chemie leisteten Linus Carl Pauling, John Anthony Pople, Walter Kohn und John C. Slater. Präparative Chemie. Dieses Teilgebiet der Chemie ist gewissermaßen das Gegenteil der analytischen Chemie und befasst sich mit Synthesen von chemischen Verbindungen. Die anderen Teilbereiche sind im Wesentlichen präparativ ausgerichtet, da es eine Hauptaufgabe der Chemie ist, Verbindungen entweder im kleinen Maßstab oder in großen Mengen, wie im Rahmen der technischen Chemie, zu synthetisieren. Insofern ist die präparative Chemie ein wesentlicher Bestandteil der Chemikerausbildung. Sie spielt ebenfalls eine bedeutende Rolle in mit der Chemie sich überschneidenden Gebieten, wie der pharmazeutischen Chemie bzw. pharmazeutischen Technologie. Analytische Chemie. Die Analytische Chemie beschäftigt sich mit der qualitativen Analyse ("welche" Stoffe sind enthalten?) und der quantitativen Analyse ("wie viel" von der Substanz ist enthalten?) von Stoffen. Während die klassische analytische Chemie noch stark auf aufwendige Trennungsgänge um verschiedene Substanzen zu isolieren und Nachweisreaktionen im Reagenzglas aufbaute, so werden heutzutage diese Fragestellungen in der instrumentellen Analytik mit hohem apparativen Aufwand bearbeitet. Man unterteilt auch hier in Anorganische analytische Chemie und Organische analytische Chemie. Hier haben sich zahlreiche Spezialgebiete herausgestellt: zum Beispiel die Klinische Chemie in Überschneidung mit der Medizin (vergleiche Labormedizin) und Toxikologie oder die Lebensmittelchemie. Für manche Verfahren in der Mikrochemie und Spurenanalytik werden nur noch kleinste Substanzmengen benötigt. Technische Chemie. Die Technische Chemie beschäftigt sich mit der Umsetzung von chemischen Reaktionen im Labormaßstab auf großmaßstäbliche Industrieproduktion. Chemische Reaktionen aus dem Labor lassen sich nicht ohne weiteres auf die großindustrielle Produktion übertragen. Die technische Chemie beschäftigt sich daher mit der Frage, wie aus einigen Gramm Produkt im Labor viele Tonnen desselben Produktes in einer Fabrik entstehen. Etwas abstrakter ausgedrückt: Die technische Chemie sucht nach den optimalen Bedingungen für die Durchführung technisch relevanter Reaktionen; dies geschieht empirisch oder mehr und mehr durch eine mathematische Optimierung auf der Grundlage einer modellhaften Beschreibung des Reaktionsablaufs und des Reaktors. Nahezu jede Produktion in der chemischen Industrie lässt sich in diese drei Schritte gliedern. Zunächst müssen dabei die Edukte vorbereitet werden. Sie werden eventuell erhitzt, zerkleinert oder komprimiert. Im zweiten Schritt findet die eigentliche Reaktion statt. Im letzten Schritt wird schließlich das Reaktionsgemisch aufbereitet. Mit der Vorbereitung und der Aufbereitung beschäftigt sich die chemische Verfahrenstechnik. Mit der Reaktion im technischen Maßstab beschäftigt sich die Chemische Reaktionstechnik. Kosmochemie. Die Kosmochemie befasst sich mit chemischen Vorgängen im Weltraum. Ihr Gegenstand sind chemische Substanzen und Reaktionen, die im interstellaren Raum, auf interstellaren Staubkörnern und auf Himmelskörpern wie z. B. Planeten, Kometen, Planetoiden und Monden ablaufen können. Catherine Deneuve. Catherine Deneuve (* 22. Oktober 1943 in Paris als "Catherine Fabienne Dorléac") ist eine vielfach preisgekrönte französische Filmschauspielerin. Sie erhielt die Auszeichnungen für ihre Darstellung geheimnisvoller reservierter Schönheiten in Filmen von bedeutenden Regisseuren wie Roman Polański, Luis Buñuel und François Truffaut. Familie. Catherine Deneuve stammt aus einer Schauspielerfamilie. Ihre Mutter Renée Deneuve (* 1911) ist Theaterschauspielerin und ihr Vater Maurice Dorléac (1901 – 1979) war Filmschauspieler sowie Leiter der Synchronstudios von Paramount. Ihre ältere Schwester, die Schauspielerin Françoise Dorléac, die Catherine ins Filmgeschäft brachte, verunglückte 1967 bei einem Autounfall tödlich. Deneuve brauchte nach eigenen Aussagen lange, um den Tod ihrer geliebten Schwester zu verarbeiten. Weitere Schwestern sind Sylvie Dorléac und ihre Halbschwester Danielle, deren Vater Aimé Clariond war. Catherine ist die dritte von den vier Schwestern der Familie. Ihre natürliche Haarfarbe ist brünett, obwohl sie als Blondine seit den 1960er Jahren bekannt ist, da sie seither die Haare färbt. Von Roger Vadim bekam sie 1963 den Sohn Christian Vadim. Marcello Mastroianni ist der Vater ihrer 1972 geborenen Tochter Chiara Mastroianni. Beide Kinder sind ebenfalls Schauspieler. Von 1965 bis 1972 war Deneuve mit dem britischen Modefotografen David Bailey verheiratet. Heute sagt sie über die Ehe: „Wozu heiraten, wenn es die Möglichkeit der Scheidung gibt?“ Deneuve hält sich mit Auskünften über ihr Privatleben zurück, doch sagt sie von ihrer Kindheit, dass sie „sehr behütet aufgewachsen“ sei. Filmkarriere. Deneuve, die keinen Schauspielunterricht nahm, arbeitete schon früh im Filmgeschäft mit. Ihre erste Rolle hatte sie als 13-Jährige, damals noch unter dem Namen Catherine Dorléac, 1957 in "Les Collègiennes". Ihre Schwester Françoise hatte sie gebeten, während der Sommerferien mitzuspielen. 1960 spielte sie erneut mit Françoise Dorléac in "Die kleinen Sünderinnen". Durchbruch. Ihren Durchbruch erlangte sie bereits mit 21 Jahren in dem Musicalfilm "Die Regenschirme von Cherbourg" (1964), in dem Jacques Demy Regie führte. Diesen Film hält der Regisseur Benoît Jacquot von entscheidender Prägung für ihren Typ und ihr Erscheinungsbild in ihren späteren Filmen, Demys Film sei „das Herz ihrer Kunst“. Ihr nächster Erfolg war Roman Polańskis "Ekel", in dem sie eine junge Frau spielt, die im Wahn zur Mörderin wird. 1967 spielte sie wieder in einem Film von Demy die Hauptrolle, in "Die Mädchen von Rochefort" an der Seite ihrer Schwester Françoise und Danielle Darrieux, mit der sie auch 35 Jahre später in "8 Frauen" zu sehen war. In "Belle de Jour – Schöne des Tages" spielte sie 1967 unter der Regie von Luis Buñuel. Der Film wurde ein internationaler Erfolg und gilt als eines von Buñuels bekanntesten Werken. 1969 spielte Deneuve an der Seite von Jean-Paul Belmondo in "Das Geheimnis der falschen Braut". Regie in dem international erfolgreichen Film führte François Truffaut. Deneuve spielte hier eine Heiratsschwindlerin. "Die letzte Metro" war 1980 der nächste international erfolgreiche Truffaut-Film, in dem Deneuve als Leiterin eines Pariser Theaters zu sehen war, die ihren jüdischen Ehemann im Keller des Theaters versteckt. Ihre Filmpartner waren diesmal Gérard Depardieu und Heinz Bennent. 1970 war Deneuve in dem ebenfalls von Kritikern und Publikum gelobten Buñuel-Film "Tristana" zu sehen. In den späten 1970er Jahren sollte sie in "The Short Night", dem letzten, unvollendeten Filmprojekt von Alfred Hitchcock mitwirken. An der Seite von Susan Sarandon und David Bowie spielte sie 1983 in "Begierde" die bisexuelle Vampirin Miriam Blaylock. Die beiden Schauspielerinnen wurden durch den Film nach eigenem Bekunden bis heute enge Freundinnen. 1993 wurde sie für ihre Rolle der Kautschuk-Plantagenbesitzerin Elaine in "Indochine" für den Oscar nominiert. Régis Wargnier führte Regie und schrieb ihr mit anderen Drehbuchautoren die Rolle der Elaine auf den Leib. Zusammen mit Björk spielte sie 2000 in dem Lars-von-Trier-Film "Dancer in the Dark" eine Fabrikarbeiterin. Nach eigenen Angaben will Deneuve von Trier per Brief − entgegen ihren Gepflogenheiten − um eine Rolle in einem seiner Filme gebeten haben, nachdem sie "Breaking the Waves" nachhaltig beeindruckt hatte. Der nächste Erfolg war "8 Frauen", in dem Regisseur François Ozon viele der namhaftesten französischen Schauspielerinnen zusammenbrachte. Bis heute spielte Catherine Deneuve in über 100 Spielfilmen mit, davon mehr als 90 Kinofilme. Fast immer war sie dabei in einer der Hauptrollen zu sehen. 1988 war sie auch Produzentin des Films "Drôle d’endroit pour une rencontre", in dem sie zusammen mit Gérard Depardieu die Hauptrolle hatte. Aus den letzten Jahren stammen "Princesse Marie" von Benoît Jacquot (über Marie Bonaparte), "Das Leben ist seltsam" sowie André Téchinés "Changing Times", eine Balzac-Verfilmung, in der unter anderem wieder Depardieu mitspielte, der zu einem ihrer Lieblingskollegen wurde. Spiel mit sexuell mehrdeutigen Rollen. Mit ihrer Rolle einer lesbischen Vampirin in "Begierde" erregte Deneuve die Aufmerksamkeit von Lesben. Auch in einigen anderen Filmen spielte Deneuve mit sexuell mehrdeutigen Rollen: in "Zig Zig" spielte sie 1975 eine Prostituierte, die ihre Freundin küsst. In "Ecoute voir" stellte sie eine Privatdetektivin im Trenchcoat dar, teils Emma Peel, teils Humphrey Bogart inklusive der attraktiven Sekretärin. In "Diebe der Nacht" spielte sie eine Professorin, die eine Affäre mit einer Studentin hat. In "8 Frauen" kommt es zwischen ihr und Fanny Ardant zu einem Kuss, der auf Deneuves vorangegangene Rollen und ihr damit verbundenes Image anspielen soll. Weitere Aktivitäten. 1965 posierte sie nackt für den Playboy. Von 1969 bis 1977 war Deneuve in den USA das Chanel-Gesicht. Des Weiteren warb sie für Produkte von Yves Saint Laurent (1993), L’Oréal (2001), M•A•C (2006) und ihr eigenes Parfum "Deneuve" (1986). Sie betätigte sich zudem als Designerin diverser Konsumartikel wie Brillen, Schuhe, Schmuck, Grußkarten und Einrichtungsgegenstände. Auch ihre Stimme setzte Catherine Deneuve erfolgreich ein, obwohl sie keinen Unterricht in Gesang genommen hatte. Sie las mehrere Hörbücher für die "Édition des femmes" und interpretierte diverse Chansons. Sie sang unter anderem Duette mit anderen Stars wie mit Bernadette Lafont (1975), Gérard Depardieu (1980), Malcolm McLaren (1993), Joe Cocker (1995) und Alain Souchon (1997). 1981 nahm sie eine ganze LP mit Chansons von Serge Gainsbourg auf. Deneuve war journalistisch tätig für Libération, Madame Figaro, France 5 und andere Medien. 2005 erschien ihr Tagebuch „A l'ombre de moi-même“ (Deutscher Buchtitel: „In meinem Schatten“; besser wäre jedoch die Übersetzung: „Im Schatten meiner selbst“ oder „In meinem eigenen Schatten“), in dem sie von den Dreharbeiten zu „Dancer in the Dark“ und „Indochine“ erzählt. Soziales und politisches Engagement. Catherine Deneuve engagiert sich seit den 1970er Jahren immer wieder für soziale und politische Themen. 1971 setzte sie sich dafür ein, die Abtreibung in Frankreich zu legalisieren. Sie unterzeichnete das "Manifest der 343" («le manifeste des 343»), ein Bekenntnis zur Abtreibung, das von Simone de Beauvoir verfasst wurde und am 5. April 1971 im Magazin Le Nouvel Observateur erschien. 2001 befürwortete sie eine Petition gegen die Todesstrafe in den USA von der französischen Gruppe "Together against the death penalty", die der US-Botschaft in Paris überreicht wurde. Darüber hinaus ist Deneuve beteiligt an Amnesty Internationals Programm zur Abschaffung der Todesstrafe. 1991 erinnerte sie in dem Amnesty-Film "Schreiben gegen das Vergessen" "(Contre l'Oubli / Against Oblivion)" an die salvadorianische Gewerkschaftsführerin Febe Elisabeth Velasquez, die 1989 mit ihren Kollegen durch einen Bombenanschlag ermordet wurde. Deneuve wurde 1994 zum "Goodwill Ambassador" der UNESCO ernannt, um sich für die Bewahrung des Filmerbes einzusetzen. Am 12. November 2003 trat sie von ihrem Ehrenamt zurück, um gegen die Ernennung des französischen Geschäftsmanns Pierre Falcone als Angola-Repräsentanten zu protestieren, da diesem damit eine Rechtsimmunität in Bezug auf Untersuchungen von illegalem Waffenhandel verschafft wurde. Ende 2003 warb Deneuve mit einer Radio-Werbesendung von «Douleur sans frontières» um Spenden für die Opfer von Landminen. Seit 2008 ist sie Mitglied der Waris Dirie Foundation, einer Stiftung, die sich gegen die Genitalverstümmelung von Frauen und Mädchen wendet. Auszeichnungen. Nach Catherine Deneuves Abbild wurde 1985 eine Büste der französischen Nationalfigur Marianne geschaffen. Den Erlös aus dem Ankauf der Kommunen spendete sie Amnesty International. Vor ihr wurde diese Ehre bereits Brigitte Bardot (1970) und Mireille Mathieu (1978) zuteil, ihre Nachfolgerin war 1989 Inès de la Fressange. Im Jahre 2000 wurde ihr ein Golden Palm Stern auf dem Palm Springs Walk of Stars gewidmet. Claude Lelouch. Claude Lelouch (* 30. Oktober 1937 in Paris) ist ein französischer Filmregisseur, Kameramann, Drehbuchautor, Produzent und Schauspieler. Sein Markenzeichen sind betont ästhetische Kameraeinstellungen. Leben. Lelouch, Sohn eines jüdischen Maßschneiders, bezeichnete sich selbst als “Kinojournalist”, als er Mitte der 1950er Jahre erste kurze Dokumentarfilme drehte. 1960 gründete er die Produktionsgesellschaft “Les Films 13”, mit der er über 200 “Scopiotones” fertigte – kurze Musikfilme für den Einsatz in Musikboxen. Im nämlichen Jahr drehte er auch den ersten seiner zahlreichen Spielfilme, in denen er meist Geschichten von Liebe, Abschieden und Enttäuschungen erzählte; von manchen als altmodische Romanzen bezeichnet, sahen andere Kritiker subtextuelle Bedeutungen in seinen meist einfachen, mit Warmherzigkeit inszenierten Geschichten. Sein erster internationaler Erfolg, für den er den Oscar 1967 für das beste Originaldrehbuch erhielt, war der Film "Ein Mann und eine Frau". Eine zweite Nominierung dafür erhielt er als bester Regisseur und gewann mit ihm das Filmfestival Cannes 1966. Eine spätere Oscarnominierung in der Kategorie Drehbuch erhielt er 1975 für den Film "Ein Leben lang". Lelouch war dreimal verheiratet, zuletzt mit der italienischen Filmschauspielerin Alessandra Martines, von der er sich 2009 trennte. Er ist Vater von sieben Kindern. Clint Eastwood. Clint Eastwood beim Toronto International Film Festival 2010 Clinton Eastwood Jr. (* 31. Mai 1930 in San Francisco, Kalifornien) ist ein US-amerikanischer Filmschauspieler, Regisseur, Produzent, Komponist und Politiker. Als wortkarger Western- und Actionheld avancierte er ab den 1960er Jahren zu einem weltweit erfolgreichen Star. Mittlerweile ist er auch ein renommierter Filmregisseur und -produzent. Mitunter, vornehmlich für seine eigenen Filme, komponiert er auch Filmmusik. Von 1986 bis 1988 war er Bürgermeister der kalifornischen Kleinstadt Carmel. Leben. Clint Eastwood wurde als Sohn des Buchhalters Clinton Eastwood Sr. (1906–1970) und seiner Frau Margaret Ruth Runner (1909–2006) geboren. Er hat schottische, englische, irische und niederländische Vorfahren. Während der Depressionszeit war der Vater gezwungen, als Tankwart zu arbeiten; auf der Suche nach Arbeit zog er mit seiner Familie durchs Land. Clint lebte zeitweise bei seiner Großmutter, die in Sunol eine Hühnerfarm betrieb. Schließlich ließ sich die Familie in Oakland nieder. Eastwood, der als schüchtern und introvertiert galt, besuchte zehn verschiedene Schulen und brach 1948 auch sein College-Studium ab. Er arbeitete unter anderem als Holzfäller, Heizer, Tankwart und Lagerarbeiter. 1951 wurde er ins Heer einberufen und nach Fort Ord versetzt, wo er zwei Jahre lang als Schwimmlehrer tätig war. Beim Militär lernte er David Janssen kennen, den späteren Darsteller des "Richard Kimble" in der Serie Auf der Flucht. Janssen schlug dem gut aussehenden, athletischen Eastwood vor, es ihm gleichzutun und sich als Schauspieler in Hollywood zu versuchen. Eastwood ist stark schwerhörig, verzichtet in der Öffentlichkeit aber dennoch auf das Tragen eines Hörgerätes. In Carmel betreibt er ein Hotel namens „Mission Ranch“, in welchem unter anderem „Pale Rider Ale“, ein nach dem gleichnamigen Film "Pale Rider" benanntes Bier, verkauft wird. Der Erlös dieser Biermarke wird an gemeinnützige Einrichtungen gespendet. Eastwood hat sieben Kinder aus zwei ehelichen und drei außerehelichen Beziehungen. Bekanntheit erlangten u. a. Kyle Eastwood, Alison Eastwood und Scott Eastwood. Im August 2013 trennte sich Eastwood nach 17 Jahren Ehe von seiner Frau Dina. Die beiden haben eine gemeinsame Tochter. Nebenrollen und Fernsehserien. Mitte der 1950er Jahre absolvierte Clint Eastwood Testaufnahmen bei Universal Pictures und bekam zunächst einen Halbjahresvertrag inklusive Schauspielunterricht. Ab 1955 trat er in Kleinstrollen auf und war unter anderem in dem Monsterfilm "Die Rache des Ungeheuers" (1955) als Laborassistent zu sehen. In "Tarantula" (1955) spielte er einen der Jetpiloten, die die mutierte Riesenspinne mit Napalm bekämpfen (er ist hinter seiner Sauerstoffmaske jedoch fast nicht zu erkennen). Eastwood erhielt auch kleinere Fernsehrollen. 1957 wurde sein Vertrag von Universal nicht verlängert, weshalb er gezwungen war, wieder als Schwimmlehrer zu arbeiten. Da seine Frau ernsthaft erkrankte, kam Eastwood in finanzielle Schwierigkeiten. 1957 wurde er kurzzeitig von der Filmgesellschaft RKO Pictures unter Vertrag genommen, die sich jedoch bald darauf vom Filmgeschäft zurückzog. 1959 konnte Eastwood beim Fernsehen Fuß fassen und übernahm in der langlebigen Western-Serie "Rawhide" (in Deutschland: "Tausend Meilen Staub" oder "Cowboys") neben Hauptdarsteller Eric Fleming die Rolle des Cowboys Rowdy Yates. Bis 1965 spielte er diese Rolle in 217 Folgen, verteilt auf sieben Staffeln. Durchbruch im Italo-Western. 1964 bereitete der italienische Regisseur Sergio Leone seinen Western "Für eine Handvoll Dollar", ein Remake von Akira Kurosawas "Yojimbo", vor. Da er diesen Film mit einem geringen Budget realisieren musste, konnte er für die Hauptrolle keinen etablierten Hollywood-Star wie Henry Fonda oder James Coburn verpflichten. Auf der Suche nach einem bezahlbaren Ersatzmann wurde Leone auf den Fernsehschauspieler Eastwood aufmerksam, den er schließlich für 15.000 Dollar engagierte. Eastwood spielte in dem Film einen Abenteurer, der sich in einer Kleinstadt bei zwei verfeindeten Clans als Revolvermann verdingt, um beide gegeneinander auszuspielen. "Für eine Handvoll Dollar" galt zunächst als obskur und wurde von den Kritikern entweder verrissen oder überhaupt nicht beachtet. Der Film entwickelte sich jedoch zu einem sensationellen Kassenerfolg und löste die Italo-Western-Welle der 1960er Jahre aus, die mehrere hundert Filme hervorbrachte. In der Rolle des zynischen Fremden ohne Namen, der seinen Gegnern in einem Poncho mit aufreizender Lässigkeit gegenübertritt, avancierte Clint Eastwood zu einer Ikone der Popkultur. Unzählige Westerndarsteller orientierten sich in den Folgejahren an dem von Eastwood und Leone geschaffenen Charaktertypus. In dem Nachfolgefilm "Für ein paar Dollar mehr" (1965) trat der Schauspieler erneut als unrasierter Revolvermann in Erscheinung und spielte einen Kopfgeldjäger, der mit seinem „Kollegen“ Lee van Cleef eine Gaunerbande zur Strecke bringt. Der Erfolg des Films ermöglichte es Leone, 1966 den aufwendigen Western "Zwei glorreiche Halunken" zu realisieren. Eastwood war erneut als Kopfgeldjäger im Poncho zu sehen und jagte neben Lee van Cleef und Eli Wallach hinter einem Goldschatz her, der in den Wirren des Bürgerkriegs verlorengegangen war. Leones dritter Western wurde zu einem riesigen Kassenerfolg und avancierte im Lauf der Jahrzehnte zu einem beliebten Kultfilm. In der Internet Movie Database rangiert er auf der Liste der besten Filme auf Platz 8 und gilt dort als bester Western aller Zeiten (Mai 2015). Nach "Zwei glorreiche Halunken" galt die Beziehung von Sergio Leone und seinem Hauptdarsteller Eastwood als zerrüttet, weshalb der Regisseur für seinen nächsten Film "Spiel mir das Lied vom Tod" Charles Bronson als Hauptdarsteller engagierte. Vor Leones Tod 1989 söhnten sich die beiden Männer anscheinend wieder aus. 1992 widmete Eastwood den von ihm inszenierten Western "Erbarmungslos" unter anderem Sergio Leone. Mit diesem Film, in dem er selbst auch die Hauptrolle spielte, gelang ihm sowohl eine Hommage an das Genre als auch eine kritische Auseinandersetzung und Abrechnung mit seinen Mythen und Verklärungen, also auch mit seiner eigenen, so erfolgreichen Rolle als Westernheld. Diese Leistung brachte Eastwood den Durchbruch in seiner zweiten Karriere als Filmregisseur. Erste Erfolge in Hollywood. Obwohl Clint Eastwood durch seine Italowestern sehr populär geworden war, dauerte es einige Jahre, bis er auch in seinem Heimatland als Filmschauspieler Fuß fassen konnte. Der große Erfolg von "Zwei glorreiche Halunken", der in den USA zum Kassenhit geworden war, ermöglichte es Eastwood schließlich, sich auch in Hollywood durchzusetzen. 1968 spielte er in dem Western "Hängt ihn höher" einen vermeintlichen Viehdieb, der knapp seiner Hinrichtung entgeht. Im selben Jahr begann er seine erfolgreiche Zusammenarbeit mit Regisseur Don Siegel und stellte in dem Actionkrimi "Coogan’s großer Bluff" einen Provinzsheriff dar, der in New York für Unruhe sorgt. Komödiantische Akzente setzte Eastwood auch in dem Western "Ein Fressen für die Geier" (1970), wo er als widerwilliger Beschützer einer vermeintlichen Nonne (Shirley MacLaine) agierte. In dem Westernmusical "Westwärts zieht der Wind" trat Eastwood 1969 neben Lee Marvin sogar als singender Goldsucher in Erscheinung. Obwohl Eastwood Ende der 1960er Jahre bereits als Star etabliert war, überließ er die Hauptrolle in dem Kriegsfilm "Agenten sterben einsam" (1968) seinem Kollegen Richard Burton. Eastwood akzeptierte, weil ihm die Produzenten – die unbedingt einen amerikanischen Star in dem Film haben wollten – die für damalige Verhältnisse enorme Gage von 800.000 Dollar zahlten. In dem actionbetonten Streifen müssen Eastwood und Burton einen kriegswichtigen Auftrag hinter den Frontlinien erfüllen. Auch in "Stoßtrupp Gold" (1970) profilierte sich Eastwood als Actionheld im Zweiten Weltkrieg. Beide Filme waren an den Kinokassen sehr erfolgreich. 1968 gründete Eastwood seine Filmproduktionsgesellschaft Malpaso Production. "Dirty Harry" und die 1970er Jahre. 1971 gelang Eastwood in Hollywood der endgültige Durchbruch zum Superstar. Unter der Regie von Don Siegel spielte er die titelgebende Rolle des Polizeiinspektors Harry Callahan („Dirty Harry“), der in San Francisco einen psychopathischen Serienmörder jagt. Der kontrovers diskutierte Film, in dem Eastwood mit zweifelhaften Methoden das Verbrechen bekämpft, wurde zu einem großen Erfolg und etablierte den Dirty-Harry-Charakter als neue Kultfigur. Allerdings war Eastwood keineswegs der Favorit für die Titelrolle, für welche zunächst der berühmte Entertainer Frank Sinatra vorgesehen war. Wegen einer Handverletzung ausgefallen, waren dann sogar erst noch Steve McQueen, Paul Newman und John Wayne für die Rolle im Gespräch. Clint Eastwood zählte nun jahrzehntelang zu den weltweit erfolgreichsten Filmschauspielern. Er war 1973 und 1976 erneut in der Rolle des Harry Callahan zu sehen und trat weiterhin in Actionfilmen ("Die letzten beißen die Hunde", 1974) und Western ("Ein Fremder ohne Namen", 1973) auf. In der sehr erfolgreichen Actionkomödie "Der Mann aus San Fernando" (1978) hatte er einen unberechenbaren Orang-Utan zum Partner. Im Gefängnisthriller "Flucht von Alcatraz" spielte er 1979 zum letzten Mal unter der Regie von Don Siegel und stellte Frank Morris dar, den einzigen Häftling, dem wahrscheinlich die Flucht von der Gefängnisinsel Alcatraz gelungen war. 1971 debütierte Clint Eastwood mit dem Psychothriller "Sadistico" als Filmregisseur. Er inszenierte danach unter anderem den Spätwestern "Der Texaner" (1975), in dem er als ehemaliger Farmer zu sehen ist, dessen Familie massakriert wurde und der auf der Suche nach Rache eine epische Odyssee durchlebt. Der Film gilt als Klassiker seines Genres. Eastwood inszenierte außerdem Actionfilme wie "Im Auftrag des Drachen" (1975) oder "Der Mann, der niemals aufgibt" (1977). Die 1980er Jahre. Auch in den 1980er Jahren war Eastwood – oft unter eigener Regie – in Western- und Actionfilmen zu sehen. Er spielte in "Firefox" (1982) einen US-Kampfjetpiloten, der einen sowjetischen Super-Jet entführt. In dem Thriller "Der Wolf hetzt die Meute" (1984) jagte er einen Serienkiller in New Orleans (u. a. mit seiner damals zwölfjährigen Tochter "Alison Eastwood" in einer der Hauptrollen). Im Western "Pale Rider – Der namenlose Reiter" (1985) trat er als mysteriöser Prediger auf, im Kriegsfilm "Heartbreak Ridge" als raubeiniger Sergeant der US-Marines (1986). Er war in zwei weiteren Dirty Harry-Filmen zu sehen (1983 und 1988) und drehte Actionkomödien wie "Mit Vollgas nach San Fernando" (1980) oder "Pink Cadillac" (1989). Als Filmregisseur war Clint Eastwood während dieser Zeit zunehmend an künstlerisch ambitionierten Werken interessiert, die nicht auf ein Massenpublikum abzielten. Seine Erfolge als Action-Star gaben ihm die Freiheit, kleinere Filme wie "Bronco Billy" (1980) oder "Honkytonk Man" (1982) mit seinem Sohn Kyle und Alexa Kenin zu realisieren, in denen er den American Way of Life skeptisch reflektierte. "Bird" (1988), eine Filmbiographie über das Leben des legendären Jazzmusikers Charlie Parker, fand zwar nur ein kleines Publikum, wurde jedoch von der Kritik gelobt. Eastwood war zeitlebens ein großer Jazzfan und trug ab 1980 gelegentlich als Komponist zu seinen Filmen bei. Seit den 1980er Jahren arbeitet Eastwood mit dem Cutter Joel Cox zusammen. Ende der 1980er Jahre wurde Clint Eastwood in Frankreich mit einem Ehren-César für sein Lebenswerk ausgezeichnet. Die 1990er Jahre: Erster Regie-Oscar für "Erbarmungslos". Zwischen 1988 und 1990 drehte Clint Eastwood in kurzer Folge mehrere Kassenflops: "Das Todesspiel" (1988), "Pink Cadillac" (1989), "Weißer Jäger, schwarzes Herz" (1990) und "Rookie – Der Anfänger" (1990). Dann gelang es ihm, seine Karriere wieder zu stabilisieren, auch weil er damit begann, sein Rollenspektrum zu erweitern und in oft selbstironischer Weise sein fortgeschrittenes Alter zu thematisieren. Seither war Eastwood regelmäßig in kommerziell erfolgreichen Filmen zu sehen, was bislang kaum einem Star seiner Altersgruppe gelungen ist. 1993 spielte der Schauspieler in dem Thriller "In the Line of Fire – Die zweite Chance" (Regie: Wolfgang Petersen) einen alternden Secret Service Agenten, der ein Attentat auf den US-Präsidenten vereitelt. Der Film wurde zum größten Kassenerfolg für Eastwood. 1992 war er unter eigener Regie in dem pessimistischen Spätwestern "Erbarmungslos" als ehemaliger Revolverheld zu sehen und konnte bei Kritik und Publikum einen überragenden Erfolg verbuchen. Eastwood fand die uneingeschränkte Anerkennung Hollywoods und erhielt als Regisseur und Produzent zwei Oscars. Für sein Werk als Filmproduzent wurde er 1994 mit dem Irving G. Thalberg Memorial Award ausgezeichnet. Von 1993 bis 2008 stand Eastwood nur noch unter eigener Regie vor der Kamera. In dem Kriminaldrama "Perfect World" (1993) war er neben Kevin Costner als Texas Ranger zu sehen. 1995 trat der 65-Jährige in "Die Brücken am Fluß" als romantischer Liebhaber von Meryl Streep auf und fand in dieser ungewohnten Rolle großen Zuspruch beim Publikum. Die Bestsellerverfilmung war an den Kassen sehr erfolgreich. In der zweiten Hälfte der 1990er Jahre inszenierte Eastwood die beiden Thriller "Absolute Power" (1997) und "Ein wahres Verbrechen" (1999), von denen Letzterer zu einem von Eastwoods größten Kassenflops wurde. 1997 erhielt der Regisseur gute Kritiken für das künstlerisch ambitionierte Drama "Mitternacht im Garten von Gut und Böse", das den Mord an einem Homosexuellen thematisierte. Eastwood war in dem Film nicht als Schauspieler zu sehen. Am 29. Februar 1996 erhielt Eastwood vom American Film Institute (AFI) den Life Achievement Award für sein einmaliges Lebenswerk als Schauspieler, Regisseur und Produzent. Zweiter Regie-Oscar für "Million Dollar Baby". Mit 70 Jahren führte Eastwood im Jahr 2000 bei dem komödiantischen Film "Space Cowboys" über vier alternde Astronauten Regie, die auf eine letzte Weltraummission geschickt werden. Auch dieser Film, in dem Eastwood neben den bekannten Altstars Donald Sutherland, Tommy Lee Jones und James Garner auftrat, war ein großer kommerzieller Erfolg. 2002 folgte seine weniger erfolgreiche Verfilmung des Thrillers "Blood Work" nach einem Roman von Michael Connelly, in dem er ebenfalls Regie führte wie auch die Hauptrolle spielte. Seitdem arbeitet Eastwood regelmäßig mit dem Kameramann Tom Stern zusammen. 2003 konnte Eastwood auch mit dem düsteren Drama "Mystic River" nach dem Roman von Dennis Lehane, bei dem er ebenfalls Regie führte, bei Kritik und Publikum einen Erfolg verbuchen. 2005 war er der große Gewinner der Oscar-Verleihung und erhielt für sein auch kommerziell sehr erfolgreiches Drama über eine Boxerin, "Million Dollar Baby", seinen zweiten Regie-Oscar. Der Film wurde außerdem als "Bester Film des Jahres" ausgezeichnet, wobei Eastwood hier wie auch bei "Erbarmungslos" als Produzent einen weiteren Oscar erhielt. Außerdem gingen die Oscars für die beste Haupt- und für die beste Nebenrolle an Hilary Swank und Morgan Freeman. Im Jahr davor waren in gleicher Weise bereits Sean Penn und Tim Robbins für "Mystic River" ausgezeichnet worden. 2006 realisierte Eastwood ebenfalls ausschließlich als Regisseur zwei weitere ambitionierte Filmprojekte, indem er aus unterschiedlicher Perspektive zwei Filme über eine Schlacht im Pazifikkrieg drehte. "Flags of Our Fathers" schilderte dabei die Ereignisse aus amerikanischer Sicht, "Letters from Iwo Jima" aus der Perspektive der Japaner. "Flags of Our Fathers" wurde ab dem 20. Oktober 2006 in den amerikanischen und ab dem 18. Januar 2007 in den deutschen Kinos gezeigt. Der erfolgreichere der beiden Filme, "Letters from Iwo Jima", erhielt 2007 vier Oscar-Nominierungen. Auf der Berlinale, wo er 2007 "Letters from Iwo Jima" präsentierte, kündigte Eastwood an, dass er auch weiterhin als Regisseur arbeiten würde. 2008 war er mit dem Spielfilm "Der fremde Sohn" im Wettbewerb der 61. Filmfestspielen von Cannes vertreten, womit er zum fünften Mal um die Goldene Palme konkurrierte. Dort erhielt er gemeinsam mit der französischen Schauspielerin Catherine Deneuve (für "Un conte de Noël") einen Ehrenpreis. Ende Februar 2009 erhielt Eastwood in einer nicht öffentlichen Zeremonie in Paris die Goldenen Palme von Cannes für sein Lebenswerk mit der Begründung, dass ihm wie keinem anderen die "„Synthese des klassischen und des modernen amerikanischen Kinos“" gelungen wäre. Mit dem Filmdrama "Gran Torino" konnte Eastwood 2009 erneut einen großen Erfolg bei Kritik und Publikum verbuchen. Hierbei war er, neben der Regietätigkeit, nach einer längeren Pause auch wieder als Hauptdarsteller zu sehen. Sein Film "Invictus – Unbezwungen" (2009), bei dem er als Regisseur und Produzent fungierte und für den er außerdem die Musik schrieb, beschreibt eine Episode aus Nelson Mandelas Leben. Nach der Befreiung aus 27-jähriger Gefangenschaft versucht Mandela, dargestellt von Morgan Freeman, als erster schwarzer Präsident Südafrika durch eine Rugby-Weltmeisterschaft zu mehr Ansehen und zur Gleichberechtigung zu verhelfen. 2012 trat Clint Eastwood erstmals seit 19 Jahren wieder unter fremder Regie vor die Kamera und spielte in Back in the Game (Regie Robert Lorenz) einen alternden Baseball-Scout, der sich privat und beruflich neu orientieren muss. Überblick über Eastwoods Gesamtwerk. Stand: 2009 / bis zu "The Human Factor" Clint Eastwood hat seit 1964 in 45 Spielfilmen die Hauptrolle gespielt. Seit 1968 tauchte er 21 Mal auf der Liste der zehn kommerziell erfolgreichsten Schauspieler auf, die einmal jährlich von Quigley Publications erstellt wird. Nur John Wayne wurde noch öfter von der Quigley-Liste erfasst (25 Mal). Laut Quigley war er zwischen 1972 und 1993 (was die aufsummierten Gesamteinnahmen seiner Filme betrifft) der kommerziell erfolgreichste Schauspieler. Eastwood ist der bis dato älteste Regisseur, der je einen Oscar für die beste Regie erhalten hat – er war 74 Jahre alt, als er den Preis für "Million Dollar Baby" gewann. Er ist außerdem der einzige Hollywood-Star, der sowohl als Regisseur als auch als Produzent zweimal mit diesem Preis ausgezeichnet wurde (Warren Beatty, Robert Redford, Mel Gibson und Kevin Costner erhielten den Preis bisher je einmal als Regisseur). Insgesamt erhielt er also vier Oscars. Als Regisseur ist Eastwood für seine effiziente Arbeitsweise bekannt und beendet Dreharbeiten häufig schneller als geplant und stets im Rahmen des vorgesehenen Budgets. 2006 sei er mit 76 Jahren „experimentierfreudiger als je zuvor“, stellte Franz Everschor im film-dienst fest. Insgesamt waren bislang elf verschiedene Schauspieler (neben Eastwood selbst Morgan Freeman, Gene Hackman, Meryl Streep, Matt Damon, Hillary Swank, Marcia Gay Harden, Sean Penn, Tim Robbins, Angelina Jolie, Bradley Cooper) unter seiner Regie für einen Oscar nominiert, darunter Morgan Freeman sogar dreimal und Eastwood selbst zweimal. Fünf Schauspieler erhielten unter Eastwoods Regie einen Oscar für Haupt- bzw. Nebenrollen, Gene Hackman 1993 für Erbarmungslos, Hilary Swank und Morgan Freeman 2005 für Million Dollar Baby sowie Tim Robbins und Sean Penn 2004 für Mystic River. Eastwood hat seit 1971 31 Spielfilme inszeniert und seit 1982 24 Spielfilme produziert. Seit 1969 war er an 17 Filmen als Soundtrackkomponist, Songwriter oder Sänger beteiligt. Der Schauspieler Eastwood. Clint Eastwood wurde im Lauf der Jahrzehnte zu einem der populärsten Stars weltweit und ist generationenübergreifend als Kultfigur und Ikone anerkannt. Der 1,93 Meter große Star mit den markanten Zügen entwickelte in der Rolle des schweigsamen Actionhelden große Anziehungskraft. Er ist dafür bekannt, mit unbewegter Miene zynische Einzeiler von sich zu geben („Make my Day“, „‚Do I feel lucky?‘ Well, do ya punk?“). Eastwoods Image des harten Revolverhelden wurde vor allem in den 1970er Jahren kontrovers diskutiert. Die einflussreiche Filmkritikerin Pauline Kael griff Eastwood regelmäßig scharf an und warf seinen Filmcharakteren eine reaktionäre und menschenverachtende Ideologie vor, was der Schauspieler vehement zurückwies. Im Lauf der Jahrzehnte und mit zunehmendem Alter wurden seine Rollengestaltungen deutlich sanfter und selbstironischer. Nur in "Gran Torino", der als eine fulminante Abschiedsvorstellung gedacht war, spielt Eastwood einen verbitterten Charakter von zynischer Ehrlichkeit und mit einer erbarmungslosen moralischen Überzeugung. Eastwood als Sänger. Mehrmals hat sich Clint Eastwood auch als Sänger betätigt. Bereits zu Beginn seiner Karriere in den frühen 1960er Jahren nahm er wie viele junge aufstrebende Fernsehstars der Zeit Schallplatten auf, die sich vornehmlich an oftmals weibliche Teenager richteten. Die erste, eine Single namens "Unknown Girl", erschien 1961. Dieser folgten zwei weitere – "Rowdy" (1962), für die seine Rolle in der Serie "Tausend Meilen Staub" (Originaltitel: "Rawhide") titelgebend war, und "For You, For Me, For Evermore", sowie 1963 eine Langspielplatte namens "Rawhide’s Clint Eastwood Sings Cowboy Favorites", auf der auch "Rowdy" enthalten ist. 1969 interpretierte er in dem Western-Musicalfilm "Westwärts zieht der Wind" die Lieder "Elisa", "I Talk to the Trees", "Gold Fever" und "Best Things" (Duett mit Lee Marvin). Ein Jahr später sang er das Titellied "Burning Bridges" zum Film "Stoßtrupp Gold ", in dem er auch mitspielt. Die Single zum Soundtrack mit dem Lied "When I loved her" auf der Rückseite wurde ein kleiner Hit. Für den Soundtrack von "Bronco Billy" (1980) sang Eastwood einige Lieder, z. B. "Barroom Buddies" mit Merle Haggard, und auf dem Soundtrack für "Mit Vollgas nach San Fernando" (1980) singt er "Beers to You" mit Ray Charles. 1981 Jahr wurde die Single "Cowboy in a Three Piece Suit" veröffentlicht. In seinem Film "Honkytonk Man" (1982) spielt Eastwood einen Country-Sänger und singt die Lieder darin selbst, unter anderem das Lied "Honkytonk Man". Auf dem Soundtrack zu "Mitternacht im Garten von Gut und Böse" (1997) singt er das Jazz-Stück "Accentuate the Positive". Ebenso hört man Eastwoods Stimme beim Abspann von "Gran Torino" (2008), wenn er den eigentlich von Jamie Cullum gesungenen Titelsong darbietet. Des Weiteren wirkte er an ein paar Country-Alben wie Randy Travis' "Heroes and Friends" (1990, Lied "Smokin’ the Hive") mit. In T.G. Sheppards Hit-Single "Make my Day" für den Film "Dirty Harry kommt zurück" (1983) spricht er die bekannte Dirty-Harry-Zeile „Punk, go ahead, make my day“. Synchronisation. Von 1965 ("Für eine Handvoll Dollar") bis 2000 ("Space Cowboys") war Eastwoods deutsche Standardstimme Klaus Kindler. In Abwesenheit vertraten ihn beispielsweise Gert Günther Hoffmann (u. a. in "Zwei glorreiche Halunken" und in "Hängt ihn höher") oder Rolf Schult (u. a. in "Ein Fressen für die Geier" und in "Dirty Harry"). Nach Kindlers Tod 2001 bestimmte Eastwood selbst den Sprecher Joachim Höppner, der durch viele Dokumentationen, das Wissensmagazin "Galileo" und als Sprecher des Gandalf in der "Herr der Ringe"-Trilogie bekannt war, zu dessen Nachfolger. Dieser konnte Eastwood nur in zwei Filmen synchronisieren, da er 2006 an einem Herzinfarkt starb. Bei "Gran Torino" war, nachdem Fred Maire den Trailer gesprochen hatte, Jochen Striebeck Eastwoods deutsche Stimme. Politische Ansichten. Eastwood während des Wahlkampfes 2008 Eastwood ist seit 1952 als Wähler für die Vorwahlen der Republikanischen Partei registriert. Seine politische Orientierung bezeichnete er in Interviews als libertär oder gemäßigt und äußerte: „Ich glaube, ich war schon sozial liberal und fiskalisch konservativ, bevor das modisch wurde.“ sowie „Ich sehe mich nicht als konservativ, aber ich bin nicht ultra-links. […] Ich mag die libertäre Sichtweise, jeden in Ruhe zu lassen. Schon als Kind habe ich mich über Leute geärgert, die allen erzählen wollten, wie sie zu leben hätten.“ Er war und ist gegen die Beteiligung der USA an überseeischen Kriegen, so in Korea, Vietnam, Irak und Afghanistan. Christopher Orr hielt 2012 fest, Eastwood habe zwar nach eigener Aussage nie einen demokratischen Präsidentschaftsbewerber gewählt, habe andererseits aber Ansichten, die nicht auf republikanischer Linie liegen: für das Recht auf Abtreibung und die Homo-Ehe und vor allen Dingen nachdrücklich für den Schutz der Umwelt. Eastwood unterstützte unter anderem die republikanischen Präsidentschaftskandidaturen von Richard Nixon, John McCain und Mitt Romney, wenn auch eher durch einzelne Äußerungen als durch Wahlkampfauftritte. Er unterstützte aber auch demokratische Politiker wie den kalifornischen Gouverneur Gray Davis, für den er 2003 ein Spendendinner ausrichtete. Auf dem Parteitag der Republikanischen Partei zur US-Präsidentschaftswahl 2012 hielt er als Überraschungsgast eine kurze Rede und rief zur Wahl des republikanischen Kandidaten Mitt Romney auf. Dabei sprach Eastwood zu einem imaginären, auf einem leeren Stuhl neben ihm sitzenden US-Präsidenten Barack Obama, Romneys Gegenkandidaten. Er warf Obama unter anderem vor, nicht genug gegen die hohe Arbeitslosigkeit getan und seine Wahlversprechen nicht eingehalten zu haben, und fragte ihn, warum er so häufig das Flugzeug benutze, wo er doch gerne als Umweltschützer auftrete. Außerdem warf er ihm vor, für den Krieg in Afghanistan gewesen zu sein. Die Parteitagsdelegierten nahmen die Rede positiv auf. Viele Medien kommentierten die Rede kritisch; zum Beispiel nannte Der Spiegel die Rede einen „bizarren Auftritt“. US-amerikanische Medien nannten sie „weitschweifig“. Öffentliche Ämter. 1986 wurde Eastwood in seinem Heimatort Carmel mit 72 % der abgegebenen Stimmen zum Bürgermeister gewählt. Er übte das Amt für eine Amtszeit bis 1988 aus. Von 2001 bis 2008 war Eastwood Mitglied der "California State Park and Recreation Commission". In dieser Position kämpfte er gegen den Ausbau der "California State Route 241", die unter anderem durch den "San Onofre State Beach" gebaut werden sollte. Prämierungen. Eastwood erhielt 1995 den Irving G. Thalberg Memorial Award im Rahmen der Oscarverleihung. Dieser Preis wird an besonders kreative Filmproduzenten vergeben, die sich durch langjähriges, konsequentes Bemühen um hohe künstlerische Qualität bei der Produktion von Filmen hervorgetan haben. Weitere Auszeichnungen. National Board of Review Cannes Film Festival Venedig Film Festival American Film Institute Hamburg Film Festival Jupiter Goldene Kamera Cinema for Peace Screen Actors Guild National Medal of Arts Paris 2007 – Clint Eastwood ist zum Ritter der Ehrenlegion ernannt worden. Der Schauspieler und Regisseur erhielt den Orden von Frankreichs Staatspräsident Jacques Chirac. Paris 2009 – Clint Eastwood wird zum Kommandeur der Ehrenlegion befördert. Er erhält den Orden vom französischen Präsidenten Nicolas Sarkozy. Cadrage (Film). Kadrierung im Film "The Evil That Men Do" Cadrage (von französisch "le cadre", der Rahmen), im Deutschen auch Kadrage, im Englischen framing, ist ein filmwissenschaftlicher Begriff, der die Auswahl des Bildausschnitts beschreibt. Das Bildfeld, das vom Bildformat eingeschlossen ist, heißt Kader, der Rahmen des Bildausschnitts Kadrierung. Die Begriffe werden häufig synonym verwendet. Vom Begriff "Cadrage" ist der Begriff "Einstellungsgröße" zu unterscheiden. Die Cadrage bestimmt in der Planung einer Einstellung die Platzierung und Bewegung von Gegenständen und Personen innerhalb des vom Filmformat festgelegten Rahmens, sowie die bildkompositorische Umsetzung der unbeweglichen dreidimensionalen Umgebung für das zweidimensionale Bild. Mittels eines dem Filmformat entsprechenden optischen Suchers (engl.: "Viewfinder") planen viele Regisseure den später im Film sichtbaren Bildbereich vor. Die Cadrage setzt die optischen Bildschwerpunkte und entspricht nicht zwangsläufig dem natürlichen Blick: durch Raumnutzung, Lichtsetzung, Objektivwahl und andere Einflussnahmen können verzerrte Größenverhältnisse oder optische Detailbetonungen erzielt werden. Eine unausgesprochene Vereinbarung zwischen Filmemacher und Filmrezipient ist, dass der filmisch gezeigte Raum außerhalb des sichtbaren Bereichs „weitergeht“. Im Normalfall geht der Zuschauer davon aus, dass er alle wichtigen Informationen im Bildausschnitt gezeigt bekommt. Das Geschehen außerhalb dieses Ausschnitts, also Off camera, ist von ihm nicht kontrollierbar und damit verunsichernd. Diese Wirkung visuell vorenthaltener Informationen machen sich manche Regisseure als Stilmittel zu Nutze, etwa Alfred Hitchcock in vielen seiner Filme. Ziel des klassischen Hollywood-Kinos war es, nicht nur den Schnitt „unsichtbar“ zu machen, sondern auch die Begrenzung des Bildraums möglichst unauffällig und selbstverständlich zu gestalten. Daher fand Aktion häufig im Bildzentrum statt, die Randbereiche blieben oft rein dekorativ. Nach dem Ende der klassischen Hollywood-Ära wurde die Raumpräsentation für den Zuschauer komplexer, die Einheitlichkeit der im Kopf des Zusehers entstehenden Gesamtsituation wurde als Illusionskonstrukt durch unterschiedlichste Filmtechniken befördert, etwa durch Schauspielerblicke ins Off, Reihung von Einzelperspektiven im Schnitt, subjektive Einstellungen mit sich bewegender Kamera, Raumillusion im Ton und vieles mehr. Ransprung. Ransprung (englisch: "cut In") ist eine Schnitt-Technik, bei der nach einem Schnitt ohne Positionsveränderung ein kleinerer Bildausschnitt gezeigt wird. Gegenteilig wird der Begriff Cut Out verwendet. Diese Technik des abgestuften Zoomens wird häufig angewandt, wenn man etwa von einer halbnahen Einstellung auf die Großaufnahme einer Person springt. Hierbei darf die Achse, auf der die Kamera mit dem gefilmten Objekt steht, nicht verlassen werden. So handelt es sich beispielsweise nicht um einen "Cut In" oder "Cut Out", wenn die erste Einstellung von rechts und die zweite von links neben einem Objekt gefilmt worden ist. Charlie Chaplin. Chaplin in der Rolle des "Tramps" (1915) Sir Charles Spencer Chaplin jr., KBE, bekannt als Charlie Chaplin (* 16. April 1889 vermutlich in London; † 25. Dezember 1977 in Vevey, Schweiz), war ein britischer Komiker, Schauspieler, Regisseur, Drehbuchautor, Schnittmeister, Komponist und Filmproduzent. Chaplin zählt zu den einflussreichsten Komikern des 20. Jahrhunderts in der Filmgeschichte. Seine bekannteste Rolle ist der „Tramp“. Die von ihm erfundene Figur mit Zweifingerschnurrbart (auch "Chaplinbart" genannt), übergroßer Hose und Schuhen, enger Jacke, Bambusstock in der Hand und Melone auf dem Kopf, mit den Manieren und der Würde eines Gentleman, wurde zu einer Filmikone. Charakteristisch für seine Filme wurde die enge Verbindung zwischen Slapstick-Komödie und ernsten bis tragischen Elementen. Das American Film Institute wählte Chaplin auf Platz 10 der größten amerikanischen Filmlegenden. Künstlerisch begann er seine Karriere schon als Kind bei Auftritten in der Music Hall. Als Komiker in den frühen Stummfilmkomödien feierte er bald große Erfolge. Als beliebtester Stummfilmkomiker seiner Zeit erarbeitete er sich künstlerische und finanzielle Unabhängigkeit. 1919 gründete er zusammen mit Mary Pickford, Douglas Fairbanks und David Wark Griffith die Filmgesellschaft United Artists. Charlie Chaplin gehörte zu den Gründervätern der US-amerikanischen Filmindustrie – der sogenannten Traumfabrik Hollywood. Der Nähe zum Kommunismus verdächtigt, wurde ihm nach einem Auslandsaufenthalt 1952 während der McCarthy-Ära die unmittelbare Rückkehr in die USA verweigert. Er setzte in Europa seine Arbeit als Schauspieler und Regisseur fort. 1972 nahm er seinen zweiten Ehrenoscar entgegen: Den ersten hatte er 1929 für sein Wirken in dem Film "Der Zirkus" erhalten, den zweiten erhielt er für sein Lebenswerk. 1973 erhielt er den ersten „echten“ Oscar für die beste Filmmusik zu Rampenlicht "(Limelight)". Leben. Hannah Chaplin, Mutter, ca. 1885 Kindheit und Jugend. Chaplin als Page Billy im Stück "Sherlock Holmes" (zwischen 1903 und 1906) Charles Chaplin wurde vermutlich in London als Sohn von Charles Chaplin sr. (1863–1901) und Hannah Harriet Chaplin (1865–1928) geboren. Beide waren Künstler an den britischen Music Halls, der Vater Sänger und Entertainer, die Mutter Tänzerin und Sängerin. Kurz nach Charles’ Geburt trennten sich seine Eltern. Charles und sein vier Jahre älterer Halbbruder Sydney (1885–1965) wuchsen bei der Mutter auf, die aufgrund psychischer Probleme jedoch ab 1896 ihrem Beruf nicht mehr nachgehen konnte. Da sich Charles Chaplin sr. regelmäßig den Unterhaltszahlungen entzog, lebte die Familie in großer Armut und musste immer wieder in den Armenhäusern Londons Zuflucht finden. Charles Chaplin sprach auch später teilweise Cockney, einen bekannten Londoner Dialekt. Charles Chaplin bekam 1894 erstmals die Chance, mit einer Gesangsdarbietung selbst vor Publikum aufzutreten. Als Neunjähriger wurde er auf Empfehlung seines Vaters für die Music-Hall-Gruppe "The Eight Lancashire Lads" engagiert. Chaplin erhielt während der Tourneen der "Lancashire Lads" Kost und Logis sowie eine einfache Schulbildung. Als sein Vater 1901 an den Folgen seiner Alkoholsucht starb, blieben Chaplin nur seine Mutter und sein Halbbruder als familiäre Bezugspersonen. Er wurde Halbwaise und in fast allen Biographien ist deshalb von „Dickens’scher Jugend“ die Rede. Und ähnlich wie bei den Kinderschicksalen, die Charles Dickens im 19. Jahrhundert beschrieben hatte, fand Charlie Chaplin doch seinen Weg. Sydney sorgte nun für den Unterhalt von Bruder und Mutter, die mehrfach in Irrenanstalten eingeliefert und 1905 für geisteskrank erklärt wurde. Charles war fast ganz auf sich allein angewiesen, wurde mit seinem Halbbruder als Sechsjähriger erstmals in ein Waisenhaus gesteckt, trieb sich später auf den Straßen herum und lernte das unterste soziale Milieu kennen, das er genau beobachtete. Bereits mit 13 Jahren verließ er endgültig die Schule. Er verdingte sich als Laufbursche, Zeitungsverkäufer, Drucker, Spielzeugmacher und Glasbläser, um seinen Lebensunterhalt zu fristen. Nach Ende seiner Verpflichtung bei den "Lancashire Lads" fand Chaplin Engagements an den Londoner Bühnen. Im Sommer 1903 spielte er in dem wenig erfolgreichen Theaterstück "Jim, A Romance of Cockayne" seine erste größere Rolle. Es folgte die Rolle des Laufburschen Billy in der von William Gillette verfassten Bühnenversion von "Sherlock Holmes". Diese Inszenierung wurde ein großer Erfolg. Chaplin ging bis 1906 insgesamt vier Mal mit diesem Theaterstück auf Tournee. Auch Sydney Chaplin wirkte in dem Ensemble mit, verließ die Theatertruppe aber wieder, als er bei Fred Karno unter Vertrag genommen wurde. Charles folgte seinem Bruder und unterschrieb 1908 einen Zweijahresvertrag bei Karno. Aufstieg zum Bühnenstar. Chaplin Anfang der 1910er Jahre Bei Fred Karno, der mit seinen Theatertruppen die Tradition der komischen Pantomimenspiele fortführte, stieg Chaplin schnell zu einem der Hauptdarsteller auf. Sein erster Erfolg bei Karno war die Rolle des Trunkenbolds Swell in dem Stück "Mumming Birds". 1910 übernahm Chaplin die Hauptrolle in der Neuproduktion "Jimmy the Fearless", die ihm erstmals positive Kritiken in den Zeitungen einbrachte. So bezeichnete ihn die "Yorkshire Evening Star" als einen „aufstrebenden Schauspieler“, dessen Auftritt ihn als einen geborenen Komiker auswies. Karno bot Chaplin daraufhin an, mit einem Ensemble auf eine Tournee durch Nordamerika zu gehen. Vom Juni 1910 bis Juni 1912 spielte Karnos Truppe in den Vereinigten Staaten und Kanada. Vor allem Chaplins Eskapaden in "A Night in an English Music Hall", einer Wiederaufführung von "Mumming Birds", begeisterten das Publikum und die Presse. Nach nur fünf Monaten in England schickte Karno sein Ensemble mit Chaplin für eine zweite Tournee nach Amerika. Diese Tournee verlief allerdings nicht so erfolgreich wie die erste, weshalb Chaplin dankbar auf das Interesse der amerikanischen Filmindustrie reagierte. Im Mai 1913 nahmen Adam Kessel und Charles O. Baumann, die Inhaber der "New York Motion Picture Company" erstmals Kontakt zu Chaplin auf. Am 25. September 1913 unterschrieb Chaplin schließlich einen Vertrag, mit dem er sich für ein Jahr als Filmschauspieler bei Mack Sennetts "Keystone Studios", dem Komödienspezialisten der "New York Motion Picture Company" verpflichtete. Chaplin wurde ein Gehalt von 150 Dollar in der Woche zugesagt. Er verließ daraufhin am 28. November 1913 die Karno-Truppe. Keystone Filmstudios. Anfang Januar 1914 trat Chaplin seine neue Stelle in den "Keystone Pictures Studios" an. In den ersten Wochen hatte er große Probleme, mit den chaotischen Arbeitsbedingungen bei Keystone zurechtzukommen. Chaplin war von seiner Zeit bei Karno monatelanges Proben an den Sketchen gewohnt, bis jede Geste und jede Pointe perfekt saß. Mack Sennett arbeitete dagegen meist ohne Drehbuch, seine Produktionen wurden schnell abgedreht. Sennetts Star war Ford Sterling, dessen wilde Grimassen in einem krassen Gegensatz zu Chaplins eher subtiler Komik standen. Erst Ende des Monats wurde Chaplin in einem Film eingesetzt. Der Einakter Making a Living entstand unter der Regie von Henry Lehrman, der auch den Helden der Geschichte spielte. Chaplin war der Bösewicht, dessen Auftreten an den Charakter aus dem Karno-Stück "A Night in an English Music Hall" erinnerte. Unzufrieden mit dieser Rolle, entwickelte Chaplin für die folgenden Filme eine neue Figur. Der Legende nach lieh er sich ein altes Paar Schuhe von Ford Sterling und eine übergroße Hose von Roscoe „Fatty“ Arbuckle, eine Melone von Arbuckles Schwiegervater, eine zu kleine Jacke von Charles Avery und den falschen Bart von Mack Swain. Ähnliche Kostümierungen fanden sich bereits bei den Komikern der englischen Music Halls. Der „Tramp“ trat erstmals Anfang Februar 1914 in den Filmen "Seifenkistenrennen in Venice (Kid Auto Races at Venice)" und Mabel’s Strange Predicament auf. Als "Tramp" in "Mabel’s Busy Day" (1914) Nachdem Chaplin weder mit Henry Lehrman noch mit George Nichols zurechtkam, versuchte Sennett, Chaplin in den von Mabel Normand inszenierten Filmen einzusetzen. Als es bei den Dreharbeiten von "Mabel at the Wheel" zu einem Eklat zwischen ihm und Normand kam, glaubte Chaplin bereits, dass seine Tage bei "Keystone" gezählt waren. Doch die große Nachfrage nach Filmen mit Chaplin zwang Sennett, ihm weiterhin freie Hand zu gewähren. Chaplin sollte probeweise bei einem Film Regie führen. Dieses Regiedebüt, "Caught in the Rain." wurde am 4. Mai 1914 veröffentlicht und wurde zu einem der bislang erfolgreichsten Filme von "Keystone". In den letzten sechs Monaten seines Vertrages mit Keystone führte Chaplin mit Ausnahme von "Tillies gestörte Romanze", Sennetts erstem abendfüllenden Spielfilm mit Chaplin in einer Schurkenrolle, bei allen seinen Auftritten selbst Regie. Im Juni 1914 liefen die ersten "Keystone"-Filme mit Chaplin in Großbritannien an. Chaplin wurde von der heimischen Presse als „der geborene Leinwandkomiker“ gefeiert. Angesichts seines rasant gestiegenen Marktwertes forderte Chaplin von Sennett 1000 Dollar pro Woche bei einer Fortsetzung des Vertrages. Es kam allerdings zu keiner Einigung, sodass Chaplins Engagement bei "Keystone" Ende des Jahres 1914 nach 35 Filmen beendet wurde. Der gefeierte Stummfilm-Komiker packte später das Rätsel um das Erfolgsrezept zu seiner Tramp-Figur in einfache Worte: „Alle meine Filme bauen auf der Idee auf, mich in Schwierigkeiten zu bringen, damit ich mich nachher verzweifelt ernsthaft darum bemühen kann, als normaler kleiner Gentleman aufzutreten.“ Zumindest nach holprigem Karrierestart wurde Chaplin, in seiner Rolle, immer als der Gute, der Nette, der Kleine wahrgenommen, der sich aber trotzdem nicht unterkriegen ließ und zum Schluss nichts hat, außer seiner Würde. Darin konnte sich auch der einfache Arbeiter mit seinen Alltagssorgen leicht wiederfinden. Die witzige Idee sich selbst in Schwierigkeiten zu bringen, um dann mit dem Triumph über diese seine Würde und Ehrbarkeit zu beweisen, ist eine durchaus, im althergebrachten Sinn, närrische Vorgehensweise. Essanay Filmgesellschaft. Im November 1914 unterzeichnete Charles Chaplin einen Vertrag bei dem von den Filmpionieren George K. Spoor und Gilbert M. Anderson geführten Filmunternehmen "Essanay", der Chaplin neben einer wöchentlichen Gage von 1250 Dollar eine einmalige Zahlung über 10.000 Dollar garantierte. Chaplin drehte im Januar 1915 seinen ersten Film, "His New Job", in den veralteten Essanay-Studios in Chicago, zog danach aber zurück nach Kalifornien. Dort stellte er eine eigene Stammbesetzung zusammen, zu der Leo White, Billy Armstrong, Bud Jamison, John Rand und der spätere Regisseur Lloyd Bacon zählten. In wenigen Filmen waren zudem die später auch als Solokünstler bekannten Ben Turpin und Snub Pollard zu sehen. Auf der Suche nach einer weiblichen Hauptdarstellerin entdeckte Chaplin die 19-jährige Edna Purviance, die schließlich in 35 seiner Filme mitspielte und mit der er bis 1917 auch privat eine Beziehung hatte. Chaplin legte sich zunehmend auf die Rolle des Vagabunden fest, der in seinem sechsten Essanay-Film "The Tramp" sogar zum Titelhelden wurde. Überwog in den frühen Filmen Chaplins der Slapstick, zeigten sich in "Entführung (A Jitney Elopement)" und "The Tramp" romantische Elemente, die in "The Bank" sogar in einem traurigen Schluss mündeten. Entstanden die ersten sieben Filme für Essanay in nur vier Monaten, versuchte Chaplin in den folgenden Monaten seine Unabhängigkeit als Filmschaffender durchzusetzen, indem er sich von den üblichen Fließbandmethoden verabschiedete und sich deutlich mehr Zeit für die nächsten Filmprojekte nahm. Seine letzten beiden von insgesamt 14 Filmen für Essanay wurden erst im Frühjahr 1916 veröffentlicht, als Chaplin bereits bei "Mutual Films" unter Vertrag stand. Chaplins Popularität erreichte 1915 ihren ersten Höhepunkt. Chaplin wurde (ohne dass er an den Einkünften beteiligt wurde) zum Mittelpunkt einer umfassenden Vermarktung, die Chaplin-Puppen, Zeitungscomics und Lieder über den kleinen Tramp beinhaltete. Das "Motion Picture Magazine" diagnostizierte für die gesamten Vereinigten Staaten einen schweren Fall von „Chaplinitis“. In Frankreich wurde der Tramp als "Charlot" verehrt. Um auch nach Chaplins Weggang von der „Chaplinitis“ zu profitieren, ließ Essanay Chaplins "Burlesque on Carmen" mit zuvor nicht verwendetem Filmmaterial auf die doppelte Laufzeit verlängern. Chaplin klagte erfolglos gegen die Veröffentlichung dieses Films. „Der Spazierstock steht für die Würde des Menschen“, sagte Chaplin einmal zu seiner Idee des "Tramps", „der Schnurrbart für die Eitelkeit, und die ausgelatschten Schuhe für die Sorgen.“ Mutual Filmgesellschaft. Chaplin als "Tramp", um 1917 Der neue Vertrag mit "Mutual Films", der ihm ein wöchentliches Gehalt von 10.000 Dollar zuzüglich eines Bonus von 150.000 Dollar bei Vertragsabschluss garantierte, machte Chaplin zu einem der bestbezahlten Schauspieler. Seine Popularität blieb ungebrochen; als er Ende Februar 1916 zur Vertragsunterzeichnung mit dem Zug nach New York fuhr, warteten riesige Menschenmengen auf die Ankunft des Stars. Für Chaplin wurde in Los Angeles ein neues Studio eingerichtet. Edna Purviance, Leo White und Lloyd Bacon folgten Chaplin von "Essanay" zu "Mutual". Roland Totheroh, der bereits bei einigen "Essanay"-Filmen die Kamera bedient hatte, wurde von Chaplin angeheuert. Er blieb bis 1952 Chaplins Chefkameramann. Das Ensemble vervollständigten Albert Austin und der hünenhafte Eric Campbell, der in den meisten "Mutual"-Filmen den Bösewicht spielte. Im Laufe des Jahres wurde die Crew durch Henry Bergman ergänzt, der Chaplin, als vielseitig einsetzbarer Nebendarsteller und Assistent, bis zu seinem Tod im Jahr 1946 begleiten sollte. Chaplins Vertrag mit Mutual sah vor, dass innerhalb von zwölf Monaten zwölf Filme produziert wurden. Tatsächlich wurden die ersten acht Filme bis zum Ende des Jahres 1916 fertiggestellt, für die letzten vier benötigte Chaplin dann aber zehn Monate. Einige der "Mutual"-Filme werden heute zu Chaplins besten Filmen gezählt. Während Chaplin mit der Rollschuhbahn in "Die Rollschuhbahn (The Rink)" und einer Rolltreppe in "Der Ladenaufseher (The Floorwalker)" erneut das komische Potential ungewöhnlicher Schauplätze aufzeigte, gilt "Das Pfandhaus (The Pawnshop)" als ein Musterbeispiel für Chaplins „Komik der Transposition“, in der Gegenstände eine völlig neue Funktion einnehmen. Seine bekanntesten Filme aus der Zeit bei "Mutual" sind die 1917 fertiggestellten Zweiakter "Leichte Straße (Easy Street)", eine Parodie auf die viktorianischen Besserungs-Melodramen, und die Tragikomödie "Der Einwanderer (The Immigrant)". Chaplin bezeichnete im Rückblick diese Zeit als die glücklichste in seiner gesamten Karriere. Für Aufsehen sorgte Ende des Jahres 1916 die nichtautorisierte Biografie "Charlie Chaplin’s Own Story", deren Erscheinen nur mit Hilfe der Gerichte verhindert werden konnte. Es setzte allerdings infolge der Auseinandersetzung in den britischen Zeitungen eine Kampagne gegen Chaplin ein, da ihm eine Klausel im Vertrag mit "Mutual Films" die freiwillige Meldung als Soldat im Ersten Weltkrieg untersagte. Chaplin sah sich genötigt, im August 1917 seine patriotische Gesinnung in einer Presseerklärung zu bekunden. Gleichzeitig musste sich Chaplin gegen zahlreiche Nachahmer und Imitatoren wehren. So verklagte er im November 1917 mehrere Filmstudios, die mit Chaplin-Imitatoren zahlreiche Filme produziert hatten. Der bekannteste Imitator war Billy West, der in rund 50 Filmen auftrat. Auch Chaplins ehemaliger Kollege bei Karno, Stan Jefferson, der spätere Stan Laurel, trat auf der Bühne als "Tramp" auf. First National Filmverleih und -produktion. Nach Ablauf des Vertrags mit "Mutual" suchte Charles Chaplin einen neuen Partner, der ihm nicht nur die finanzielle, sondern auch die zeitliche Unabhängigkeit zur Vollendung seiner Filme ermöglichte. Sydney Chaplin, der seit dem Herbst 1915 die Geschäfte seines Halbbruders führte, fand diesen Partner in der First National, die mit der Verpflichtung Chaplins gegen die marktbeherrschende Position von "Paramount Pictures" antreten wollte. Es wurde ein Vertrag über acht Filme abgeschlossen, für die "First National" vorab mehr als eine Million Dollar zahlte. Chaplin wurde sein eigener Produzent, behielt die Rechte an seinen Filmen und ließ in Hollywood ein Studio nach seinen eigenen Vorstellungen errichten. Am 15. Januar 1918 begannen die Dreharbeiten zu "Ein Hundeleben (A Dog’s Life)", die erst nach zwei Monaten beendet wurden. Direkt nach Abschluss ging der Filmschaffende gemeinsam mit Douglas Fairbanks und Mary Pickford auf eine Tournee durch die Vereinigten Staaten, um für den Kauf von Kriegsanleihen zu werben. Chaplins nächster Film sollte dann auch den Ersten Weltkrieg zum Thema haben: "Die Anleihe (The Bond)". Nach einigen Mühen, einen passenden Handlungsstrang zu finden (er arbeitete noch immer ohne Drehbuch), entstand dann auch "Gewehr über (Shoulder Arms)", der zu einem der größten finanziellen Erfolge in seiner Karriere wurde. Privat hatte Chaplin weniger Glück. Anfang des Jahres hatte er die gerade 16 Jahre alte Schauspielerin Mildred Harris kennengelernt, mit der er eine skandalumwitterte Beziehung einging. Chaplin und Harris heirateten am 23. September 1918. Der unglückliche Verlauf der Ehe lähmte Chaplins Schaffenskraft, die Dreharbeiten für die nächsten beiden Filme "Auf der Sonnenseite (Sunnyside)" und "Charlie’s Picknick" verzögerten sich und wurden mehrmals unterbrochen. "Sunnyside" wurde schließlich im April 1919 fertiggestellt, "Charlie’s Picknick" blieb zunächst unvollendet. Am 7. Juli kam Chaplins Sohn Norman Spencer zur Welt, der aber drei Tage nach der Geburt starb. Chaplins Schaffenskrise endete, als er in einem Theater den Vierjährigen Jackie Coogan entdeckte. Chaplin entwickelte ein neues Filmprojekt, in dem Coogan an seiner Seite spielen sollte. Chaplin erkannte, dass dieser Film deutlich länger als seine bisherigen werden sollte. Um den Wunsch von "First National" nach der baldigen Veröffentlichung eines neuen Chaplin-Films zu erfüllen, griff er während einer Produktionspause auf das Material von "Charlie’s Picknick" zurück, drehte einige neue Szenen und veröffentlichte schließlich im Dezember 1919 unter dem Titel "Vergnügte Stunden (A Day’s Pleasure)" einen Zweiakter, der in der Tradition seiner Filme bei "Essanay" und "Mutual" stand. Voller Eifer setzte Chaplin die Arbeiten an dem Film mit Jackie Coogan, der nun seinen endgültigen Titel "The Kid" erhalten hatte, fort. Der ganz in die Arbeit versunkene Chaplin wurde von der Scheidungsanklage seiner Ehefrau überrascht. Da Mildred eine Abfindung über 100.000 Dollar ablehnte, drohte die Pfändung des nach einem Jahr endlich fertiggedrehten Films. Im August 1920 wurden daraufhin die gesamten Negative von "The Kid" heimlich nach Salt Lake City geschafft, wo Chaplin einen ersten Rohschnitt anfertigte. Kurz darauf begann der Scheidungsprozess, der am 19. November 1920 in einer gütlichen Einigung endete. Der Premiere von "The Kid" am 6. Januar 1921 stand nun nichts mehr im Wege. Chaplins erster Langfilm wurde zu einem Riesenerfolg, der in den nächsten drei Jahren in rund 50 Ländern vertrieben wurde. Da sich "First National" bei der Vergütung von "The Kid" wenig kooperativ gezeigt hatte, wollte Chaplin seine vertraglichen Verpflichtungen so schnell wie möglich erfüllen, zumal er inzwischen als Mitbegründer von "United Artists" einen eigenen Filmvertrieb besaß. Innerhalb von fünf Monaten entstand der Zweiakter "Die feinen Leute (The Idle Class)". Die Dreharbeiten zum nächsten Film, "Zahltag (Pay Day)", unterbrach Chaplin schon nach wenigen Tagen, um im September 1921 zu einer Europareise zu starten, die ihn erstmals seit neun Jahren wieder in seine Heimat führte. Chaplin wurde von der Begeisterung für seine Person überwältigt. Er hielt seine Erfahrungen in dem Buch "My Trip Abroad" fest. Im November 1921 setzte er seine Arbeit an "Zahltag" fort, der sein letzter Zweiakter werden sollte. "Zahltag" wurde am 2. April 1922 uraufgeführt. Chaplins letzter Film für "First National", der Vierakter "Der Pilger (The Pilgrim)", wurde in nur 42 Drehtagen fertiggestellt. Erneute Streitigkeiten mit "First National" über die Vermarktung verzögerten aber die Premiere bis zum Februar 1923. Erste Arbeiten mit United Artists. Nachdem sein Vertrag bei der "First National" ausgelaufen war, konnte Chaplin endlich seinen ersten Beitrag für "United Artists" vorbereiten. Bereits im Januar 1919 beschlossen Chaplin, die Schauspieler Douglas Fairbanks und Mary Pickford sowie der Regisseur D. W. Griffith, einen unabhängigen Filmverleih zu gründen, um so einem drohenden Monopol der etablierten Studios entgegenzutreten. Am 5. Februar 1919 wurden die Verträge für die Gründung von "United Artists" unterzeichnet. Chaplin war nicht nur Gründungsmitglied, sondern auch einer der vier Teilhaber der noch nicht an der Börse notierten Firma. Mit seinem ersten Projekt für "United Artists" erfüllte sich Chaplin den lang gehegten Wunsch, einen ernsten dramatischen Film zu drehen. Der Film sollte außerdem Edna Purviance in ihrer ersten eigenständigen Hauptrolle eine neue Karriere in reiferen Frauenrollen eröffnen, da Chaplin sie nicht mehr als eine ideale Komödienpartnerin betrachtete. Seine Bekanntschaft mit Peggy Hopkins Joyce, die durch ihre zahlreichen Ehen und Liebesaffären berühmt wurde, inspirierte Chaplin zu der in Paris angesiedelten Geschichte des Liebesdramas "Die Nächte einer schönen Frau (A Woman of Paris)", die er von November 1922 bis Juni 1923 mit Edna Purviance und Adolphe Menjou in den Hauptrollen drehte. Chaplin selbst stellte sich nur einem wenige Sekunden dauernden Cameo-Auftritt dar, verkleidet als Gepäckträger. Während der Dreharbeiten von "Die Nächte einer schönen Frau" stand Chaplins Beziehung zu Pola Negri im Mittelpunkt des öffentlichen Interesses. Er hatte die Schauspielerin während seiner Europareise in Berlin kennengelernt und traf sie im Oktober 1922 wieder, als sie sich auf ihr Hollywood-Debüt vorbereitete. Im Januar 1923 gaben beide ihre Verlobung bekannt, die Beziehung zerbrach jedoch bereits wenige Monate später. Die Premiere von "Die Nächte einer schönen Frau" am 1. Oktober 1923 wurde von den Kritikern gefeiert; das von Chaplin mühsam erarbeitete zurückhaltende Spiel der Protagonisten wurde als „Abkehr der bisherigen Leinwandgewohnheiten“ verklärt und dadurch zum Vorbild zahlreicher Regisseure der späten 1920er Jahre. Das Publikum konnte sich aber mit dem für Chaplin untypischen Melodram nicht anfreunden. "Die Nächte einer schönen Frau" wurde zu seinem ersten Flop. Um einen größeren gesellschaftlichen Skandal abzuwenden, heiratete er 1924 die sechzehnjährige Lita Grey, die für seine nächste Produktion "Goldrausch (The Gold Rush)" als seine Filmpartnerin vorgesehen war. Lita war zu diesem Zeitpunkt schwanger. Charles Chaplin junior wurde im Mai 1925 geboren. Der zweite Sohn Sydney Earle kam im März 1926 zur Welt, bevor die Ehe 1927 in einem aufsehenerregenden Prozess geschieden wurde. 1931 wurde Charlie Chaplin bei der Ankunft am Bahnhof in Berlin begeistert empfangen. Er war auf Werbetour für "Lichter der Großstadt". Doch am Bahnhof Friedrichstraße skandierten einige Dutzend Nazis lauthals „Nieder!“, wurden aber von den Hochrufen auf den Gast übertönt. Er gab Interviews mit linken Kreisen und wurde von ihnen stark vereinnahmt. Chaplin dementierte und bezeichnete sich als unpolitisch. Die rechte Presse machte Front gegen ihn. Chaplin hielt die Weimarer Demokratie für stabil, sorgte sich aber trotzdem um politisch motivierte Aufführungsverbote seines neuen Films. Der Streifen wurde ein Erfolg und die Nazianfeindungen im Premierevorfeld schienen verhallt. In mehreren deutschen Städten versuchte die SA, Besucher von den Kinos fernzuhalten und nach der Machtübernahme Hitlers Ende Januar 1933 waren Chaplin-Filme zwölf Jahre lang im Deutschen Reich nicht mehr zu sehen. 1936: "Moderne Zeiten". Obwohl bereits der Tonfilm etabliert war, brachte Chaplin mit "Lichter der Großstadt (City Lights)" und "Moderne Zeiten (Modern Times)" zwei weitere Stummfilme in die Kinos. Die musikalische Tonspur komponierte er in beiden Fällen selbst. Außerdem arbeitete er mit Toneffekten, auch um die beliebten Tonfilme zu parodieren, denen Chaplin skeptisch gegenüberstand. Er fürchtete außerdem, der Vagabund könnte an Beliebtheit einbüßen, wenn er in einer bestimmten Stimme sprechen würde. Der Erfolg an den Kinokassen bestätigte Chaplins herausragende Stellung als Filmkomiker. Da Chaplin in "Moderne Zeiten" die Auswüchse der Industrialisierung und des Kapitalismus kritisiert, wurde ihm in den USA von konservativen Kreisen eine antikapitalistische und kommunistische Einstellung vorgeworfen. Privat war er nun mit seiner Filmpartnerin Paulette Goddard liiert, die er 1936 heimlich heiratete. 1940: "Der große Diktator". Am 15. Oktober 1940 war die Premiere von Chaplins erstem Tonfilm "Der große Diktator (The Great Dictator)". Chaplins satirische Parodie auf den Faschismus richtete sich symbolisch auch gegen die US-Staatsmacht und den Militarismus allgemein. Diesen Anti-Hitler-Film wollte die US-amerikanische Zensurbehörde zuerst nicht genehmigen. Die Konservativen Amerikas unterschätzten anfangs Hitlers Machtwahn und hielten ihn für einen großartigen Politiker, da er quasi ein Verbündeter in Europa gegen den Bolschewismus Stalins war. Chaplins Film passte ihnen also gar nicht ins Konzept. Präsident Roosevelt selbst wollte den Film; für Chaplin wäre ein akut drohendes Verbot des Streifens letztlich zu riskant gewesen. Der Film war für Chaplin wirtschaftlich besonders erfolgreich. Chaplin hat die Angriffe von Nationalsozialisten, die ihn fälschlicherweise als Juden titulierten, aus Solidarität mit den Verfolgten erst viel später richtiggestellt. Sein Freund Ivor Montagu meinte, dass diese Behauptung der Grund war, warum Chaplin "Der große Diktator" produzierte; denn er hatte ihn zuvor auf eine Nazischrift mit dem Satz: „Dieses kleine jüdische Stehaufmännchen ist so ekelhaft, wie es langweilig ist“, aufmerksam gemacht. Anfang der 1940er Jahre hatte Chaplin die junge Schauspielerin Joan Barry entdeckt und wollte mit ihr einen Film drehen. Sie begannen eine kurze Affäre miteinander. Nach Ende der Beziehung zeigte Barry zunehmend psychische Probleme und belästigte und bedrohte Chaplin. Nach der Geburt ihres Kindes 1943 gab sie an, dass Chaplin der Vater sei und verklagte ihn. Obwohl ein Bluttest seine Vaterschaft verneinte, überzeugte Barrys Anwalt das Gericht von der Zweifelhaftigkeit der Tests. Chaplin verlor den Prozess und musste Geld an Barry und ihr Kind zahlen. Der Skandal verschlechterte das Ansehen Chaplins in der amerikanischen Öffentlichkeit deutlich. 1942 wurde die Ehe mit Paulette Goddard geschieden. Kurz danach lernten Chaplin und Oona O’Neill (1925–1991), Tochter des Dramatikers Eugene O’Neill, einander kennen. Am 16. Juni 1943 heirateten Charlie Chaplin und die achtzehnjährige Oona O’Neill. 1944 wurde das älteste der acht gemeinsamen Kinder, die Tochter Geraldine geboren. 1946 folgte der Sohn Michael Chaplin. 1947–1952: Politische Verfolgung und Probleme bei der Wiedereinreise in die USA. Im Oktober 1947 musste Chaplin wiederholt vor dem Komitee für unamerikanische Umtriebe "(House Un-American Activities Committee)" aussagen. Der FBI-Chef J. Edgar Hoover, ein erbitterter Gegner Chaplins, versuchte ihm die Aufenthaltsgenehmigung zu entziehen. Im Dezember 1947 veröffentlichte der Filmstar in der englischen Sonntagszeitung Reynold's News den Artikel „Ich erkläre Hollywood und seinen Bewohnern den Krieg!“. Obwohl Chaplin seine größten Erfolge in den USA errang, behielt er seine britische Staatsangehörigkeit. Er selbst sah sich als Weltbürger. Charles Chaplin war liberal, kritisch und später ein Pazifist und passte damit nicht in das gängige Bild, das die Regierung von einem Filmstar erwartete. Auch an seinem Lebenswandel nahm man Anstoß. Chaplin parodierte hintergründig auch die amerikanische Gesellschaft und wurde dadurch dem Staatsapparat verdächtig. Ihm wurde mangelnde Verfassungstreue vorgeworfen. In den 1930er und 1940er Jahren konnte man sich in den USA bereits mit der spöttischen Hinterfragung der herrschenden Gesellschaftsordnung als marxistisch oder kommunistisch verdächtig machen. 1949 und 1951 bekamen die Chaplins zwei weitere Kinder: Josephine Chaplin und Victoria Chaplin. Chaplins Schweizer Domizil (1953–1977), ab 2016 "Chaplin’s World – The Modern Times Museum" Am 17. September 1952 verließ Chaplin die Vereinigten Staaten für einen Kurzbesuch in England. Anlass war die Weltpremiere seines dort spielenden Films "Rampenlicht (Limelight)". Es war die Zeit zu Beginn der McCarthy-Ära, und da das FBI unter Hoover ihn „unamerikanischer Umtriebe“ verdächtigte, erreichte der FBI-Chef beim Immigration and Naturalization Service einen Tag später, am 18. September, den Widerruf von Chaplins Wiedereinreisegenehmigung in die Vereinigten Staaten. Zunächst erhielt er von den US-Behörden zwar noch eine Wiedereinreisegenehmigung. Doch dann wurde ihm ein Telegramm zugestellt, in dem stand, dass er bei seiner Rückkehr wie ein neuer Einwanderer zuerst nach Ellis Island zur Vernehmung müsse, wo über seine Einreise endgültig entschieden werde. Das Justizministerium stützte sich dabei auf einen Paragraphen, gemäß dem aus Gründen der „Moral, Gesundheit oder Geistesgestörtheit oder bei Befürwortung von Kommunismus oder der Verbindung mit Kommunisten oder pro-kommunistischen Organisationen“ die Einreise verweigert werden konnte. Chaplin beschloss daraufhin, in Europa zu bleiben. Er zog im Dezember 1952 in die Schweiz und ließ sich im Anwesen Manoir de Ban oberhalb Corsier-sur-Vevey am Genfersee nieder. In dem Haus wird ein Museum "Chaplin's World" eingerichtet, dessen Eröffnung zum Frühjahr 2016 geplant ist. Sein früher vermuteter Geburtsort London wurde mit der Freigabe seiner britischen Geheimdienstakte als unbewiesen entlarvt. Der Abwehrchef des MI5 schrieb im Abschlussbericht an die Amerikaner: „Es ist merkwürdig, dass wir keinen Eintrag über Chaplins Geburt finden können, jedoch kann ich mir nur schwer vorstellen, dass dies für unsere Sicherheit signifikant ist.“ Erst im Jahr 1996, detaillierter 2003, wurde bekannt, dass George Orwell einer Bekannten zuliebe dem "Information Research Department (IRD)", einer 1948 gegründeten Sonderabteilung des Britischen Außenministeriums zur Bekämpfung kommunistischer Infiltration, 1949 eine Liste mit den Namen von 38 Schriftstellern und Künstlern, die er prokommunistischer Tendenzen bezichtigte, übergeben hatte. Hauptsächlich enthielt diese Liste die Namen von Journalisten, jedoch stand unter anderem auch Chaplin darauf. Philipp Bühler bescheinigt 2005 Chaplins Film "Moderne Zeiten", der „das ganze 20. Jahrhundert in einem Bild zusammenzufassen scheint“, „unverkennbar marxistische Vorzeichen“. Allerdings sei, so Bühler, Chaplin keinesfalls Kommunist gewesen. „Eher schon wollte Chaplin wissen, wie es in diesen Zeiten möglich ist, kein Kommunist zu werden.“ Bereits im Dezember 1935 meinte der Motion Picture Herald: „Er [Chaplin] ist sicher auch ein Philosoph, ein nicht allzu optimistischer, aber er ist zuallererst ein Showman – wie sein großes bürgerliches Vermögen beweist.“ Seine Hand- und Fußabdrücke von 1928 vor dem TCL Chinese Theatre wurden entfernt. Die Betonplatte mit seinen Abdrücken ist bis heute verschollen. Über die Verleihung eines Sternes für Chaplin auf dem "Hollywood Walk of Fame" gab es eine Kontroverse und aus politischen Gründen wurde ihm diese Ehrung bis 1972 verweigert. 1953–1957: "Ein König in New York". 1953 und 1957 wurden seine Kinder Eugene Anthony Chaplin und Jane Cecil Chaplin geboren. 1957 verarbeitete Chaplin in der Satire Ein König in New York "(A King in New York)" die bitteren Erfahrungen, die er im Umgang mit den USA gemacht hatte. In diesem Film prangerte er zugleich auch den frühen Obskurantismus in den USA an. Chaplin dazu: "„America is so terribly grim in spite of all that material prosperity.“" In den USA wurde der Film erst 1973 gezeigt. 1959–1977: "Die Gräfin von Hongkong" und Chaplins letzte Jahre. 1959 und 1962 wurden Annette Emily Chaplin und Christopher James Chaplin geboren. 1967 drehte Chaplin den Film "Die Gräfin von Hongkong (A Countess from Hong Kong)," in dem er selbst in einer kleinen Nebenrolle als Schiffssteward zu sehen war. Der Film mit Marlon Brando und Sophia Loren in den Hauptrollen erhielt allerdings nur durchwachsene Kritiken. Nur der von Chaplin komponierte und geschriebene Filmsong "This Is My Song" wurde in der Version von Petula Clark zu einem internationalen Charterfolg. Bereits 1936 hatte Chaplin für "Moderne Zeiten" den Song "Smile" geschrieben, der über die Jahrzehnte vielfach gecovert und zum Evergreen wurde. Nach Beendigung von "Die Gräfin von Hongkong" traten bei Chaplin ab Ende der 1960er Jahre immer häufiger körperliche Beschwerden auf; sein früherer robuster Gesundheitszustand wich in den letzten Jahren einer zunehmenden Gebrechlichkeit. 1970 veröffentlichte er "Der Zirkus" von 1928 mit neu komponierter und teilweise von ihm eingesungener Filmmusik erneut, 1971 folgte "The Kid" von 1921 ebenfalls mit neuer Filmmusik und neu geschnittener Fassung. Seine letzte Arbeit war 1976 eine Neukomposition für sein Stummfilm-Drama "Die Nächte einer schönen Frau" (1923). 1972 kehrte er anlässlich der Verleihung eines Ehrenoscars noch einmal kurzfristig in die Vereinigten Staaten zurück. Seine Tochter Geraldine erinnerte sich später: „Sie gaben ihm nur ein Visum für zehn Tage – wir konnten es einfach nicht fassen. Aber wir lagen falsch: Es hat ihm neuen Lebensmut gegeben. Er hat sogar ganz fröhlich erzählt: Die Amerikaner haben immer noch Angst vor mir.“ Bei der Oscarverleihung erhielt er einen zwölfminütigen Applaus vom Publikum, ein Rekord in der Oscar-Geschichte. Charlie Chaplin starb am 25. Dezember 1977 im Alter von 88 Jahren in Vevey in der Schweiz. Nach dem Tod. Gräber von Chaplin und Oona In der Nacht vom 1. auf den 2. März 1978 wurde Chaplins Leichnam vom Friedhof in Corsier-sur-Vevey (Schweiz) gestohlen. Die Täter wollten von den Hinterbliebenen 600.000 Schweizer Franken erpressen. Der Plan scheiterte, sie wurden gefasst, und Chaplins sterbliche Überreste wurden erneut beerdigt. „Es war surreal, hatte aber auch komische Seiten“, berichtete seine Tochter Geraldine. „Zur Geldübergabe sind wir mit dem Rolls Royce meiner Mutter gefahren. Im Fußraum war ein Polizist versteckt, so ein 007-Typ mit Waffe. Er neigte zur Reisekrankheit und hat sich mitten im Einsatz übergeben.“ „Ein Postbeamter hatte den Funkverkehr mitgehört. Er war in der Mittagspause und dachte: Action! Mit dem Postlaster hat er sich an uns drangehängt. Um uns herum waren überall Zivilpolizisten, die den Briefträger sofort aus dem Auto geholt haben. Besorgte Schweizer Bürger haben das dann für einen Postraub gehalten, die Nummern der Zivilstreife notiert und die örtliche Polizei auf ihre eigenen Kollegen gescheucht. Es war wie ein letzter Chaplin-Film.“ Seine Frau ließ danach eine 2 m dicke Betonschicht anbringen. Nach dem Tod seiner Witwe Oona hat man das Grab 1991 zubetoniert. Basierend darauf entstand 2008 das Theaterstück "Kidnappin' Chaplin" von Martin Kolozs, das am 15. Juni desselben Jahres im Rahmen des 4. Tiroler Dramatikerfestivals in Österreich uraufgeführt wurde. Eine Skulptur Chaplins, geschaffen von dem englischen Bildhauer John Doubleday, steht an der Seepromenade in Vevey am Genfersee. Ein Spazierstock des Weltstars wurde bei einer Auktion von Filmrequisiten in London 2004 für 47.800 Pfund versteigert. Ein Schnurrbart zum Film "Der große Diktator" erzielte knapp 12.000 Pfund, ein weiterer rund 18.000 Pfund. Nach 66 Jahren Vergessenheit tauchte in der Cineteca di Bologna eine Romanvorlage mit dem Titel "Footlights" von Chaplin auf. Der Stummfilmstar, der den Beginn der Tonfilmära lange ignorierte, war auch ein großer Filmkomponist. Heute hört man seine kurzen Stücke auch oft in Klassik-Konzerten. Einordnung und Arbeitsweise. Chaplin zählt mit Buster Keaton und Harold Lloyd zu den bekanntesten Komikern der Stummfilmzeit. Anders als Keaton, der betont trocken und unsentimental, in einigen Fällen zynisch spielt, inszenierte Chaplin gerne romantische Liebesgeschichten, bei denen die Frauen bewusst als idealisierte Sehnsuchtsobjekte in Szene gesetzt sind. Bei Keatons Filmen sind die Frauen dem männlichen Helden ebenbürtig. Anders als Chaplin setzt Keaton Pathos nur zur Parodie ein. Charakteristisch ist ebenfalls der Einsatz Chaplins von zunächst einmal weitgehend unbekannten Schauspielern, auf deren Mitwirken er in vielen Fällen – z. B. Henry Bergman, Albert Austin und Al Ernest Garcia – teilweise über Jahrzehnte vertraute. Eine seiner längsten Partnerschaften hatte er mit seinem ständigen Kameramann Roland Totheroh, der ihn zwischen 1916 und 1947 bei fast allen Filmen begleitete. Zu Kameraführung und Tricks in seinen Filmen bemerkte Chaplin: „Ich persönlich verabscheue alle Tricks: Eine Aufnahme durch das Kaminfeuer vom Blickpunkt eines Stücks Kohle aus oder die Fahraufnahme, mit der der Schauspieler durch die Hotelhalle begleitet wird, als wenn jemand mit dem Fahrrad hinter ihm herführe; mir kommt so etwas billig und zu dick aufgetragen vor.“ Solch „pompöse Effekte“ seien langweilig und würden fälschlicherweise mit dem viel strapazierten Wort „Kunst“ bezeichnet. Die Kamera dürfe sich nicht in den Vordergrund spielen, sondern müsse den Bewegungen des Schauspielers folgen. „Die Kardinaltugend beim Filmen ist immer noch die richtige Zeitökonomie“, also mit schnellen Schnitten und einer guten Auflösung einer Szene. Gegen die Kritik, seine Kameraführung sei altmodisch und gehe nicht mit der Zeit, wehrte sich Chaplin in seiner Autobiografie, dass die Technik das Ergebnis seines eigenen Nachdenkens über Logik und Auffassung sei. „Wenn Kunst mit der Zeit gehen muss, dann wäre Rembrandt nicht mehr als ein Vorläufer von Van Gogh“. Chaplin gehörte zu den Gründervätern der Traumfabrik und auch der Filmkomödie im Allgemeinen, aber er war kein Hollywoodstar, als der er oft bezeichnet wird: Hollywood gab es noch gar nicht, während er schon ein Star war. Vom späteren Hollywood mit seinem Studiosystem distanzierte Chaplin sich beispielsweise in seiner Autobiografie stark. Ihm war als Filmemacher insbesondere eine künstlerische Unabhängigkeit wichtig, die es im Studiosystem kaum gab. Auch ist es nicht zutreffend, dass in seinen Filmen immer das „Gute im Menschen“ propagiert würde. In seinen frühen Werken gab es durchaus Brutalität und einen Charlie, der nicht der Nette war. In einem Film gibt er einem Kind ganz unbedarft eine Schusswaffe. Über die Schauspielerei äußerte er sich, dass ein großer Schauspieler – auch wenn das egozentrisch klinge – sich in dieser bestimmten Rolle lieben würde. Über Schauspieltechniken wie Method Acting äußerte sich Chaplin nicht grundsätzlich schlecht, kritisierte aber, dass so etwas nicht gelehrt werden könne: „Wenn es notwendig ist, an einem Schüler geistige Operationen vorzunehmen, dann beweist das, dass dieser Schüler die Schauspielerei aufgeben sollte.“ Chaplin setzte Meilensteine in der Filmgeschichte. So ist „The Kid“ eine zuvor noch nicht dagewesene Verknüpfung von Filmkomödie und Sozialdrama. Das Fernsehmagazin Prisma schreibt in seiner Chaplin-Kurzbiografie, dass er der erste „Weltstar des Films“ gewesen sei und in seiner Bedeutung für die Künste des 20. Jahrhunderts nur mit jener von Pablo Picasso vergleichbar sei. Der Philosoph und Literaturkritiker Walter Benjamin hob bereits 1929 die besondere Rolle des Humors im Film, als Auslöser eines „Affekt des kollektiven Gelächters“, hervor: „Chaplin hat sich in seinen Filmen“, notierte Benjamin noch vor "Moderne Zeiten", „an den zugleich internationalsten und revolutionärsten Affekt der Massen gewandt, das Gelächter.“ Diesem Lachen kann seiner Theorie zufolge unter bestimmten Umständen durchaus heilende Wirkung zugeschrieben werden; besonders, wenn wie bei Chaplin eine Relativierung und Entlarvung vorhandener Konflikte in der Gesellschaft auf sinnlicher Ebene vorausgeht. Romancier. Nach 66 Jahren unbeachteter Aufbewahrung in einem Filmarchiv der "Cineteca di Bologna" tauchte eine Romanvorlage mit dem Titel "Footlights" von Chaplin auf. Die Story um eine Tänzerin und einen Clown bildete später auch eine Grundlage für das Drehbuch von "Limelight". Die Kinemathek erlangte schon im Vorfeld Berühmtheit durch das Chaplin-Projekt. Der Cineteca wurde die Aufgabe übertragen, das gesamte filmische Œuvre von Chaplin wiederherzustellen. Der in eine arme Familie Geborene war bereits als Jugendlicher mit Gesangsdarbietungen im Stadtviertel Soho (London) aufgetreten, bevor er als Schauspieler auf Bühnen mit noch nicht elektrischer Bühnenbeleuchtung stand. Mit Beginn des zweiten Drittel des 19. Jahrhunderts wurden die Petroleum- und Gaslampen des Rampenlichts vielerorts durch Drummondsches Licht ergänzt oder ersetzt (englische Bezeichnung "Limelight", häufig mit „Rampenlicht“ übersetzt). Chaplin nannte seinen Roman im Entwurf "Footlight", für althergebrachte, gleißend helle „Kalklichter“: Fußlichter, die unten und an einer Bühne zur Beleuchtung stehen. Nach Angaben des Filmhistorikers David Robinson ließ sich der Filmschaffende für den Handlungsstrang durch eine „kurze, aber entscheidende Begegnung mit dem russischen Choreografen Vaslav Nijinsky im Jahr 1916“ inspirieren. Laut der Kinemathek von Bologna erinnert der Schreibstil des Skripts an den Romanschreiber Charles Dickens, vor allem aufgrund der ausgefeilten Herausarbeitung der Roman-Charaktere. Die Kinemathek zählt zu den führenden Institutionen für Film-Rekonstruktionen weltweit. Ihr übergab die Familie des Verstorbenen seinen Nachlass. Darin fanden sich mehrere getippte Manuskriptversionen. Die nun veröffentlichten Romanfragmente sind in dem Buch "Footlights with The world of limelight" mit Dokumenten und Fotos aus dem Nachlass des Künstlers illustriert. Robinson fungierte dabei als Mitautor, die "Cineteca di Bologna" als Herausgeber. Filmografie. Charlie (rechts) bei winterlichen Dreharbeiten. Candela. Die Candela (lateinisch für "Kerze", Betonung auf der zweiten Silbe:) ist die SI-Einheit der SI-Basisgröße Lichtstärke. Die Lichtstärke in einer bestimmten Richtung ist der Quotient aus dem von der Lichtquelle in diese Richtung ausgesandten Lichtstrom (Einheit Lumen, lm) und dem durchstrahlten Raumwinkel (Einheit Steradiant, sr). Die Einheit der Lichtstärke ist also Lumen durch Steradiant (lm/sr), diese Einheit trägt auch den Namen "Candela" (cd). Eine Lichtquelle, die einen Lichtstrom von 4π Lumen erzeugt und dieses Licht in alle Richtungen (d. h. in den 4π Steradiant umfassenden vollen Raumwinkel) mit gleichmäßiger Lichtstärke abstrahlt (aus allen Richtungen betrachtet also gleich hell erscheint), hat in alle Richtungen dieselbe Lichtstärke "Iv" = 4π Lumen / 4π Steradiant = 1 Lumen / Steradiant = 1 Candela. Frühere Definitionen der Lichtstärkeeinheit bezogen sich auf Referenzlichtquellen, mit denen eine zu messende Quelle als heller oder weniger hell verglichen werden konnte. Durch die moderne Definition (siehe nächsten Abschnitt) ist die Lichtstärke für eine bestimmte Lichtwellenlänge an die Strahlstärke und damit an die Einheit Watt angebunden. Über die genormte Kurve der spektralen Wahrnehmungsfähigkeit des menschlichen Auges kann die Definition auch auf andere Wellenlängen übertragen werden. Die Wahl der Lichtstärke als photometrische Basisgröße erscheint zunächst wenig nachvollziehbar, da man aus moderner Sicht etwa den Lichtstrom oder die Leuchtdichte als fundamentalere Größen ansehen würde. Zur Anfangszeit der Photometrie jedoch, als der visuelle Vergleich von Lichtquellen im Vordergrund stand, war die Lichtstärke diejenige Eigenschaft der Quellen, die am einfachsten einem Vergleich zugänglich war und die daher als die fundamentale photometrische Größe eingeführt wurde. Eine gewöhnliche Haushaltskerze hat eine Lichtstärke von etwa 1 cd. Daher rührt auch der Name der Einheit (lateinisch "Candela" = Kerze). In den Anfangszeiten der elektrischen Beleuchtung war häufig von „xx-kerzigen“ Glühlampen die Rede. Eine hundertkerzige Leuchte entsprach etwa einer 18 W-Glühlampe. Definition. Die Definition gibt die Frequenz der Referenzstrahlung an, nicht ihre Wellenlänge. Auf diese Weise erübrigt es sich, einen Brechungsindex für das umgebende Medium zu spezifizieren. In Luft unter Normalbedingungen entspricht der genannten Frequenz von 540·10¹² Hertz die Wellenlänge 555 nm (grünes Licht). Auf dieser Wellenlänge hat das menschliche Auge bei Tagessehen die höchste Empfindlichkeit. Gleichzeitig schneiden sich zufällig in unmittelbarer Nähe dieser Wellenlänge (nämlich bei ca. 555,80 nm) die Empfindlichkeitskurven des Auges für Tages- und Nachtsehen, K(λ) und K'(λ). Die Definition ist daher laut DIN sowohl für Tags- als auch für Dämmerungs- und Nachtsehen gültig. Durch Wahl der genannten Frequenz und des Zahlenwertes 683 lm/W für den Maximalwert des photometrischen Strahlungsäquivalents schließt die neue Definition unmittelbar an die vorhergehende Definition an (siehe unten). Die neue Definition ist jedoch nicht mehr von der schwierigen Realisierung eines Schwarzen Strahlers bei einer hohen Temperatur abhängig. Sie trägt durch die Beschränkung auf monochromatische Strahlung den modernen Möglichkeiten zur Messung der optischen Strahlungsleistung Rechnung und führt außerdem die Messaufgabe auf den wesentlich fundamentaleren Fall monochromatischer Strahlung zurück. Die neue Definition ist auch allgemeiner (sie erlaubt jetzt beispielsweise die Empfindlichkeitskurven des Auges unmittelbar zu "messen", während sie früher implizit in ihrem gesamten Verlauf Bestandteil der Definition waren). Die vorherige Definition hingegen lieferte einen exakten photometrischen Wert nur für einen Spezialfall mit einer komplexen breitbandigen Wellenlängenverteilung. Zusammenhang mit dem Lichtstrom (Lumen). Eine Lichtquelle erzeuge einen Lichtstrom von 12 Lumen und strahle dieses Licht isotrop ab, d. h. die Lichtstärke sei in allen Richtungen die gleiche. Der volle, die Lichtquelle umgebende Raumwinkel beträgt 4π Steradiant. Der Lichtstrom von 12 Lumen verteilt sich also gleichmäßig auf den Raumwinkel von 4π Steradiant, die Lichtstärke (der Lichtstrom pro Steradiant) beträgt daher 12 Lumen pro 4π Steradiant ≈ 1 Lumen pro Steradiant = 1 Candela. Eine solche Lichtquelle entspricht ungefähr einer freistehenden Haushaltskerze, wenn die Abschattung der Flamme durch den Kerzenkörper nach unten hin und seine Reflektorwirkung nach oben, sowie das Flackern der Intensität vernachlässigt werden. Dieselbe Lichtquelle werde nun mit einer scheinwerferartigen Fokussiereinrichtung versehen, so dass das gesamte erzeugte Licht gleichmäßig innerhalb eines Kreiskegels mit einem Öffnungswinkel α von 5° abgegeben wird. Der Kegel spannt den Raumwinkel formula_4 auf (siehe Artikel →Steradiant), in diesem Fall also 0,006 Steradiant. Die Lichtstärke für alle innerhalb des Kegels gelegenen Richtungen beträgt 12 Lumen pro 0,006 Steradiant, also 2000 Lumen pro Steradiant oder 2000 Candela. Für alle anderen Richtungen beträgt sie null Candela. Wird das Licht nicht gleichmäßig innerhalb des Kegels abgegeben, so sind die Lichtstärken für die in den Kegel fallenden Richtungen unterschiedlich, und es ist nicht mehr damit getan, den gesamten Lichtstrom durch den gesamten erleuchteten Raumwinkel zu dividieren – es werden aufwendigere Rechenmethoden notwendig. Siehe Lichtstärke für weitere Umrechnungsbeispiele. Frühere Definition und photometrisches Strahlungsäquivalent. a> als Hohlraumstrahler (2) Behälter aus Thoriumoxid (3) Erstarrendes Platin als Temperaturreferenz. Diese Definition stellt einen Zusammenhang zwischen der radiometrischen Strahlstärke und der entsprechenden photometrischen Lichtstärke eines Schwarzen Strahlers her. formula_13 ist die Strahlungsleistung, die vom Flächenelement d"A" im Wellenlängenbereich zwischen "λ" und "λ" + d"λ" in das Raumwinkelelement d"Ω" abgestrahlt wird, dessen Richtung den Winkel "β" mit der Flächennormale bildet. Hier wird die senkrecht zur Oberfläche abgegebene Strahlung betrachtet, daher wird cos(β) = 1. Die Erstarrungstemperatur von Platin liegt bei etwa 2045 K (diesen Zahlenwert gab die Temperaturskala IPTS-68 für ihren entsprechenden sekundären Referenzpunkt an). Die spektrale Strahldichte eines Schwarzen Strahlers dieser Temperatur hat ein Maximum bei etwa 1,4 µm. Für den Übergang zu photometrischen Größen ist diese radiometrische Spektralkurve Wellenlänge für Wellenlänge mit dem spektralen photometrischen Strahlungsäquivalent K(λ) zu multiplizieren, welches sich wiederum aus dem relativen Hellempfindlichkeitsgrad V(λ) und einer Umrechnungskonstante Km (dem „Maximalwert des photometrischen Strahlungsäquivalents“) zusammensetzt. Es ergibt sich die spektrale "Leucht"dichte Das Integral (das sich durch numerische Integration auswerten lässt), beträgt in diesem Beispiel 89,124 mW/(cm² sr). Das genaue Ergebnis dieser theoretischen Rechnung hängt davon ab, welche Zahlenwerte für die Erstarrungstemperatur des Platins und die in die Plancksche Strahlungsformel eingehenden Naturkonstanten gewählt werden. Calcium. Calcium, oder Kalzium, ist ein chemisches Element mit dem Elementsymbol Ca und der Ordnungszahl 20. Im Periodensystem steht es in der zweiten Hauptgruppe, bzw. der 2. IUPAC-Gruppe und zählt daher zu den Erdalkalimetallen. Elementares Calcium ist ein glänzendes, silberweißes Metall. In der Erdhülle ist es, auf den Massenanteil (ppmw) bezogen, nach Sauerstoff, Silizium, Aluminium und Eisen das fünfthäufigste Element. Aufgrund seiner starken Reaktivität kommt es nur chemisch gebunden als Bestandteil von Mineralien vor. Zu diesen gehören z. B. Calcit, Aragonit und Dolomit in Kalkstein, Marmor und Kreide sowie Gips (Calciumsulfat). Hydroxylapatit (Calciumphosphat) ist ein wesentlicher Bestandteil von Knochen und Zähnen. Geschichte. Der Name „Calcium“ leitet sich vom lateinischen "calx" ab. So bezeichneten die Römer Kalkstein, Kreide und daraus hergestellten Mörtel. Elementares Calcium gewann erstmals Humphry Davy 1808 durch Abdampfen des Quecksilbers aus elektrolytisch gewonnenem Calciumamalgam. Vorkommen. In der Umwelt kommt Calcium nur in gebundener Form vor. Eine Ausnahme stellt vermutlich eine Fluorit-Varietät („Stinkspat“) dar, in dessen Kristallgitter wahrscheinlich kolloidales Calcium durch natürliche radioaktive Strahlung entstand. Calciumhaltige Minerale wie Calcit und Gips sind in großen Mengen vorhanden (z. B. bestehen in den Alpen gebirgsbegleitende Züge aus Kalkstein – Nördliche Kalkalpen bzw. Südliche Kalkalpen). Calciumverbindungen sind wasserlöslich, wobei die Löslichkeit von Calcium im Grundwasser wesentlich vom Kohlensäure-Überschusses bestimmt wird (Kalksättigung). Daher ist die Frage, welche Calciumverbindung im Grundwasser stabil ist, im Wesentlichen abhängig vom pH-Wert des Grundwassers. Als Calciumverbindung überwiegen bei mittleren bis alkalischen pH-Werten Calcit (Ca[CO3]) und Gips (Ca[SO4] • 2H2O). Bei niedrigem pH-Wert tritt Calcium als Ca2+ auf. Haupteintragsprozess von Calcium in das Grundwasser ist die Verwitterung calciumhaltiger Gesteine wie Kalkstein. Als essentieller Bestandteil der belebten Materie ist Calcium am Aufbau von Blättern, Knochen, Zähnen und Muscheln beteiligt. Neben K+ und Na+ spielt Ca2+ eine wichtige Rolle bei der Reizübertragung in Nervenzellen. Aber auch in anderen Zellen spielen Calcium-Ionen eine wichtige Rolle bei der Signaltransduktion. Eigenschaften. Calcium ist weicher als Blei, lässt sich aber mit einem Messer nicht schneiden. In der Luft läuft es schnell an. Mit Wasser reagiert es heftig unter Bildung von Calciumhydroxid und Wasserstoff. An der Luft verbrennt es zu Calciumoxid und – geringfügig – Calciumnitrid. Fein verteiltes Calcium ist selbstentzündlich (pyrophor). Calcium gehört zu den Erdalkalimetallen. Es liegt in chemischen Verbindungen fast nur in der Oxidationszahl +2 vor. Herstellung. Das Metall wird unter Vakuum durch Reduktion von gebranntem Kalk (Calciumoxid) mit Aluminiumpulver bei 1200 °C hergestellt. Aluminium hat zwar eine geringere Reaktivität und Enthalpie als Calcium, so dass das Gleichgewicht der Reaktion eigentlich fast völlig auf der linken Seite dieser Gleichung liegt, trotzdem funktioniert dieser Herstellungsprozess, weil das entstehende Calcium bei dieser Temperatur ständig verdampft und so aus dem Gleichgewicht verschwindet. Eine Reinigung erfolgt durch Destillation des Calciums. Verwendung. "Metallisches Calcium" dient als Reduktionsmittel in der Metallurgie zur Herstellung von Metallen wie Thorium, Vanadium, Zirconium, Yttrium und anderen Metallen der Seltenen Erden, als Reduktionsmittel in der Stahl- und Aluminiumherstellung, als Legierungszusatz in Aluminium-, Beryllium-, Kupfer-, Blei- und Magnesiumlegierungen und als Ausgangsstoff für die Herstellung von Calciumhydrid. Die technische Nutzung des Calciums erfolgt überwiegend in gebundener Form. "Calciumsulfat" (Gips) wird als Baustoff verwendet. "Calciumcarbid" dient als Ausgangsstoff für chemische Synthesen und zur Herstellung von Kalkstickstoff-Dünger und früher zur Synthese von Acetylen (Ethin), daher wird Calciumcarbid richtiger als Calciumacetylid bezeichnet. "Calciumchlorid" ist stark hygroskopisch. Es wird daher als Trocknungsmittel, Auftausalz und im Beton als Abbindebeschleuniger eingesetzt. Nachweis. Neben der bei Calcium orange-roten Flammenfärbung weist man Calcium-, Strontium- und Barium-Kationen mit Schwefelsäure oder Ammoniumsulfatlösung nach. Bei dieser Nachweisreaktion entstehen weiße, säure-unlösliche Niederschläge. Auch mit Carbonat-, Oxalat- und Dichromat-Anionen können Niederschläge unterschiedlich geringer Löslichkeit erzeugt werden. Deren genauere Untersuchung lässt dann eine Unterscheidung der Erdalkalimetall-Kationen zu (vgl. unter Kationentrenngang und Ammoniumcarbonatgruppe). In der Routineanalytik (Klinische Chemie, Umweltchemie, Wasserchemie) wird Calcium bis in den Spurenbereich mit der Flammenphotometrie quantitativ bestimmt. Die Bestimmungsgrenze liegt bei 100 µg/l. In höheren Konzentrationen ist auch die Titration mit EDTA gegen Eriochromschwarz T möglich. Zur gravimetrischen Bestimmung von Calcium fällt man dieses mit Oxalat und glüht es bei 600 °C aus, um die Wägeform Calciumcarbonat zu erhalten. Präanalytik. Die Calcium-Konzentration wird in der Routine-Labordiagnostik in Blut und Urin bestimmt. Calcium ist ein wichtiger Parameter in der Diagnostik des Knochen- und Calciumstoffwechsels. Als Blutprobe kann sowohl Serum als auch heparinisiertes Plasma verwendet werden; entsprechend wird die Calcium-Konzentration im Blut kurz als Serumcalcium oder Plasmacalcium bezeichnet. Zu beachten ist bei Plasma, dass kein Calcium-bindendes Antikoagulans (wie Citrat oder EDTA) verwendet wird. Ein zu langes Stauen der Vene vor der Blutentnahme kann zu falsch erhöhten Werten führen. Analytik. Calcium liegt im Blut zu 50 % als Ca2+-Ionen, zu 35 % an Proteine (Albumin, Globuline) gebunden und zu 15 % komplexgebunden (Bicarbonat, Lactat, Citrat, Phosphat) vor. Der Serumwert des Calcium bewegt sich in engen Grenzen bei einem normalen "Gesamtcalcium" von 2,2–2,6 mmol/L (9–10,5 mg/dL) und einem normalen "ionisierten Calcium" von 1,1–1,4 mmol/L (4,5–5,6 mg/dL). Die biologischen Effekte von Calcium werden durch die Verfügbarkeit freier Calciumionen bestimmt, ausschlaggebend ist daher das ionisierte Calcium. Die totale Calcium-Konzentration (Gesamtcalcium) im Blut ist von der Albumin-Konzentration abhängig und muss entsprechend korrigiert werden. Alternativ wird direkt die Konzentration des ionisierten Calciums gemessen. Das Gesamtcalcium im Serum wird mittels Absorptionsspektrometrie oder Flammenatomemissionspektrometrie bestimmt. Dabei werden die physikalischen Eigenschaften von Calcium ausgenutzt. Ionisiertes Calcium wird mit ionenselektiven Elektroden bestimmt. Interpretation. Die Calciumkonzentration ist im Körper äußerst eng kontrolliert. Eine erhöhte Calciumkonzentration wird als Hyperkalzämie, eine erniedrigte Calciumkonzentration wird als Hypokalzämie bezeichnet. Spezifische Ursachen und Symptome finden sich dort. Die genauen Werte sind abhängig vom Messverfahren, weshalb der vom Labor angegebene Referenzwert ausschlaggebend ist. Bei Kindern liegen die Werte etwas höher als bei Erwachsenen. Funktionen im menschlichen Organismus. Calcium ist ein Mengenelement (Definition: Element mit mehr als 50 mg pro kg Körpergewicht) und gehört damit nicht zu den Spurenelementen. Mit einem Körperbestand von 1–1,1 kg ist Calcium der mengenmäßig am stärksten vertretene Mineralstoff im menschlichen Organismus. 99 % des im Körper vorkommenden Calciums befinden sich in Knochen und Zähnen – die calciumreiche Verbindung Hydroxylapatit (Ca5(PO4)3(OH)) verleiht ihnen Stabilität und Festigkeit. Gleichzeitig dienen die Knochen als Speicher für Calcium – bei Calciummangel kann ein Teil davon aus den Knochen gelöst und für andere Aufgaben zur Verfügung gestellt werden. Die Knochenentkalkung, Osteoporose, kommt vor allem bei älteren Menschen vor. Innerhalb der Zellen ist Calcium an der Erregung von Muskeln und Nerven, dem Glykogen-Stoffwechsel, der Zellteilung sowie an der Aktivierung einiger Enzyme und Hormone beteiligt. Wie erstmals Setsuro Ebashi nachwies, führt erst der Einstrom von Calcium-Ionen in die Muskelzellen zu einer Kontraktion der Muskulatur. Außerhalb der Zellen ist Calcium an der Blutgerinnung und der Aufrechterhaltung der Zellmembranen beteiligt. Im Blut muss ständig eine Konzentration von 2,1–2,6 mmol/l Calcium gegeben sein. Sie wird durch die Hormone Calcitriol, Calcitonin und Parathormon reguliert. Nur 0,1 % des im Körper vorhandenen Calciums findet sich im Extrazellularraum, davon ist 30–55 % an Proteine gebunden, 5–15 % liegt in Form von Komplexen vor (z. B. Calciumhydrogencarbonat, Calciumcitrat, Calciumsulfat, Calciumphosphat oder Calciumlactat). Nur ca. 50 % des extrazellulären Calciums liegt in frei ionisierter und damit in biologisch aktiver Form vor. Zur Prävention der Osteoporose trägt eine vermehrte Calcium-Aufnahme von etwa 1 g/Tag bei (Basistherapie DVO). Aufnahme. Nicht alles Calcium, was durch die Nahrung aufgenommen wird, wird im Magen resorbiert. Der Mensch resorbiert zirka 30 % des Calciums aus der Nahrung, dieser Prozentsatz variiert aber je nach Nahrungszusammensetzung. Auch andere Faktoren nehmen Einfluss auf die Calciumresorption. Die Effizienz der Resorption nimmt bei steigender Calciumaufnahme ab. Bei Säuglingen und Kindern im Wachstum liegt die Resorptionsrate bei bis zu 60 %, da diese für den Knochenaufbau viel Calcium benötigen. Die Resorptionsrate fällt auf bis zu 15–20 % bei Erwachsenen, wobei der Bedarf bei Frauen in der Schwangerschaft wieder ansteigt. Risikogruppen für eine unzureichende Calciumzufuhr sind junge Frauen, Schwangere, Stillende und Senioren. Voraussetzung dafür, dass Calcium in größeren Mengen vom Körper aufgenommen werden kann, ist eine ausreichende Versorgung mit Vitamin D3. Durch die gleichzeitige Zufuhr von Oxalsäure und Phytinsäure sowie deren Salze (Oxalate, Phytate) wird die Calciumresorption verringert. Ausgeschieden wird Calcium über den Urin, wobei unter anderem eine hohe Zufuhr von Proteinen, Speisesalz, Kaffee oder Alkohol die Calciumausscheidung erhöht. Das spezifische Aminosäuren-Profil – besonders von schwefelhaltigen Aminosäuren – bestimmt den calciuretischen (die Calciumausscheidung über die Niere fördernden) Effekt der Nahrungsproteine. Sulfate, die im Stoffwechsel aus solchen Aminosäuren gebildet werden, erhöhen die Acidität des Urins, was zur Folge hat, dass größere Calciummengen in den Urin abgeschieden werden. Schwefelhaltige Aminosäuren finden sich sowohl in Nahrung tierischer Herkunft wie auch in Nahrungspflanzen, zum Beispiel Getreide. Gesundheitliche Risiken. Im Gegensatz zum Nierengesunden kann ein Dialyse-Patient überflüssiges Calcium nicht über den Urin ausscheiden, und auch der Knochen nimmt in der Regel das angebotene Calcium nicht auf. So besteht die Gefahr, dass sich Calcium in Gefäßen und Weichteilen absetzt. Calciumcarbonat, angewendet als Phosphatbinder, kann zur kardiovaskulären Verkalkung beitragen. Eine über zwei Jahre durchgeführte Studie aus dem Jahr 2004 zeigte eine stetige Korrelation zwischen der Einnahme von Calciumcarbonat und voranschreitender Arterienverkalkung bei Hämodialyse-Patienten. Im Jahre 2010 publizierten Bolland et al. im "British Medical Journal" eine Metaanalyse, die behauptet, dass Calciumpräparate ohne Cholecalciferol (Vitamin D3) das Herzinfarktrisiko um bis zu 30 Prozent steigern. Dieser Effekt soll dosisabhängig ab einer täglichen Supplementierung von 500 mg Calcium ohne Vitamin D3 auftreten. Auch Schlaganfälle und Todesfälle traten in der Calciumsupplementgruppe vermehrt auf. Diese Arbeit wurde bezüglich ihrer Methodik kritisiert. Die Arzneimittelkommission der deutschen Ärzteschaft erkannte in den von Bolland et al. vorgelegten Daten keinen ausreichenden Beleg für ein erhöhtes Herzinfarktrisiko durch die Anwendung von Calciumsupplementen. In einer Stellungnahme verwies die Kommission zudem darauf, dass die in der Metaanalyse untersuchte alleinige Gabe von Calcium zur Korrektur einer osteoporotischen Stoffwechselstörung ohne zusätzliche Gabe von Vitamin D3 in den gültigen deutschen Leitlinien nicht empfohlen wird. Andererseits sei auch der Nutzen der kombinierten Substitution von Calcium und Vitamin D3 zur Prävention von Frakturen begrenzt und abhängig von Faktoren wie der Calciumzufuhr über die Nahrung, der Vitamin-D-Serumkonzentration, dem Lebensalter, einer Unterbringung in einem Pflegeheim und dem Ausgangsrisiko für Frakturen. Es gebe keine aussagekräftigen Daten, die belegen, dass eine Calciumsupplementierung bei Menschen mit normaler Calcium- und Vitamin-D3-Versorgung von Nutzen ist. Andererseits ließen sich negative Auswirkungen wie ein erhöhtes Risiko für Nierensteine nachweisen. Calciumsupplemente könnten deshalb nicht generell empfohlen werden. Es müssten vielmehr Risikogruppen identifiziert werden, die voraussichtlich von einer zusätzlichen Calciumgabe profitieren. Die Gesamtcalciumaufnahme (Nahrung plus Supplement) sollte nach Meinung der Kommission 1000 bis 1500 mg betragen. Auch Studien aus dem Jahr 2013 weisen auf eine erhöhte Mortalität durch eine Über-Substitution von Calcium hin. Eine schwedische Studie zeigt, dass Frauen, die unnötigerweise mit Calcium substituiert wurden, obwohl genügend Calcium über die Nahrung aufgenommen wurde, eine erhöhte Mortalität aufwiesen. Für Männer wurde in einer anderen Studie ein erhöhtes Herz-Kreislauf-Risiko durch Calciumsubstitution festgestellt. Zwei prospektive Kohortenstudien zeigten, dass der Konsum von Calciumdosen > 2000 mg pro Tag mit einem erhöhten Risiko für Prostatakrebs einhergeht. Zwei andere prospektive Kohortenstudien brachten keinen Zusammenhang für Calciumdosen von 1330 und 1840 mg pro Tag. Als Hintergrund für die Risikoerhöhung wird eine mangelhafte Produktion von Vitamin D3 verdächtigt. Eine hohe Calciumzufuhr vermindert die körpereigene Cholecalciferol-Produktion, und präklinische Studien zeigten mehrere potenziell nützliche Effekte des Vitamins bezüglich Prostatakrebs. In welchem Ausmaß der Calciumkonsum im Verhältnis zum Fettkonsum (aus Milch und Milchprodukten) zum Risiko beiträgt, ist unklar. Cadmium. Cadmium (selten auch Kadmium; gr. "kadmía"; lat. '; „oxidische oder carbonathaltige Zinkerde“) ist ein chemisches Element mit dem Elementsymbol Cd und der Ordnungszahl 48. Es wird meist zu den Übergangsmetallen gezählt, auch wenn es eine abgeschlossene d-Schale besitzt und damit eher den Hauptgruppenelementen, vor allem den Erdalkalimetallen ähnelt. Im Periodensystem steht es in der 5. Periode sowie der 2. Nebengruppe (Gruppe 12) oder Zinkgruppe. Geschichte. 1817 entdeckten Friedrich Stromeyer und Carl Samuel Hermann unabhängig voneinander Cadmium in verunreinigtem Zinkcarbonat. Stromeyer bemerkte, dass sich verunreinigtes Zinkcarbonat beim Erhitzen verfärbte – ein Verhalten, das reines Zinkcarbonat nicht zeigte. Annähernd 100 Jahre wurde das Metall nur in Deutschland gewonnen. Plinius der Ältere berichtet in seiner um das Jahr 77 entstandenen Naturkunde Naturalis historia von Galmeifunden in Germanien:. Die Bezeichnung Cadmium wurde im Mittelalter verwendet, vermutlich für Zink oder sein Karbonaterz. Wie aus einer von Kaiser Friedrich II. im April 1226 in Ravenna ausgestellten Urkunde hervorgeht, räumt dieser dem Benediktiner-Kloster St. Paul im Lavanttal das Recht ein. Trotz der Giftigkeit von Cadmium und seiner Verbindungen verzeichnete der British Pharmaceutical Codex von 1907 Cadmiumjodid als Mittel zur Behandlung von geschwollenen Gelenken ("enlarged joints"), skrofulösen Drüsen ("scrofulous glands") und Frostbeulen ("chilblains"). 1907 definierte die Internationale Astronomische Union ein Ångström als das 1/6438,4696-fache der Wellenlänge einer roten Spektrallinie des Cadmiums in trockener Luft mit einem Kohlendioxidgehalt von 0,03 % bei einer Temperatur von 15 °C und einem Druck von 1 atm. Die General Conference on Weights and Measures akzeptierte im Jahr 1960 die 1.553.164,13-fache Wellenlänge einer roten Spektrallinie des Cadmiums als Sekundärdefinition eines Meters. 1942 benutzte der Physiker Enrico Fermi Cadmiumstäbe beim Betrieb des weltweit ersten Atomreaktors. Diese Stäbe konnten in den Reaktor hinein- und hinausgeschoben werden, um auf diese Weise die Kettenreaktion kontrollieren zu können. Cadmium kann moderierte Spaltneutronen einfangen und so die Aktivität des Reaktors reduzieren. Vorkommen. Cadmium ist ein sehr seltenes Element. Sein Anteil an der Erdkruste beträgt nur ca. 3 · 10−5 %. Gediegen kommt Cadmium nur äußerst selten vor, es sind bisher nur zwei Funde aus dem Wiljui-Becken in Jakutien (Ostsibirien), sowie dem US-Bundesstaat Nevada bekannt. Cadmiumhaltige Erze sind Greenockit (CdS) und Otavit (CdCO3). Sie sind fast immer mit den entsprechenden Zinkerzen, wie Sphalerit (ZnS) und Galmei (ZnCO3) verschwistert. Es gibt keine abbauwürdigen Lagerstätten. Gewinnung und Darstellung. Cadmium wird ausschließlich als Nebenprodukt bei der Zinkverhüttung, in kleinem Umfang auch bei der Blei- und Kupferverhüttung gewonnen. Kleinere Mengen fallen auch beim Recycling von Eisen und Stahl an. Die Gewinnung von Cadmium hängt vom Verfahren ab, wie das Zink gewonnen wird. Bei der "trockenen" Zinkgewinnung wird zunächst das Cadmium mit dem Zink reduziert. Da Cadmium einen niedrigeren Siedepunkt als Zink besitzt, verdampft es leichter. Dadurch verdampft ein Cadmium-Zink-Gemisch aus dem Reduktionsgefäß und reagiert an anderer Stelle mit Sauerstoff zu Cadmium- und Zinkoxid. Anschließend wird dieses Gemisch in einem Destillationsgefäß mit Koks vermischt und das Cadmium vom Zink abdestilliert. Durch fraktionierte Destillation lassen sich höhere Reinheiten an Cadmium erreichen. Bei der "nassen" Zinkgewinnung werden die gelösten Cadmiumionen mit Zinkstaub reduziert und ausgefällt. Das dabei entstehende Cadmium wird mit Sauerstoff zu Cadmiumoxid oxidiert und in Schwefelsäure gelöst. Aus der so entstandenen Cadmiumsulfat-Lösung wird durch Elektrolyse mit Aluminiumanoden und Bleikathoden besonders reines Elektrolyt-Cadmium gewonnen. Physikalische Eigenschaften. Cadmium ist ein weiches, hämmerbares, duktiles, silbrig glänzendes Metall. Ähnlich wie bei Zinn treten beim Verbiegen von Cadmium mittlerer Reinheit typische Geräusche auf (bei Zinn "Zinngeschrei" genannt). Cadmium ist an Luft beständig, in der Wärme bildet es eine Oxidhaut. In der Hitze verbrennt es mit rötlicher bis gelber Flamme zu Cadmiumoxid CdO. CdO wurde wegen seiner hohen Toxizität im Zweiten Weltkrieg von den USA auf seine Verwendbarkeit als chemischer Kampfstoff untersucht. Chemische Eigenschaften. In chemischen Verbindungen liegt es meist zweiwertig vor. Chemisch gleicht es dem Zink, es neigt aber eher zur Bildung von Komplex-Verbindungen mit der Koordinationszahl 4. An der Luft bildet Cadmium durch die Oxidation eine Verdunklung der Oberfläche. In Alkalien ist die Oberfläche unlöslich, in Schwefelsäure und Salzsäure schwer und in Salpetersäure gut löslich. Verwendung. Die Cadmium-Chalkogenide Cadmiumsulfid (gelb), Cadmiumselenid (rot) und Cadmiumtellurid (schwarz) sind wichtige II-VI-Halbleiter. Sie werden beispielsweise nanopartikulär als Quantenpunkte (engl. "Quantum Dots)" hergestellt und u. a. in der Biochemie "in-vitro" eingesetzt. Nachweis. Als Vorprobe für Cadmium kann die sogenannte Glühröhrchenprobe dienen. Hierzu wird etwas Ursubstanz in einem hochschmelzenden Glühröhrchen erhitzt und das entstehende Sulfid-Oxid-Gemisch mit Natriumoxalat zu den Metallen reduziert. Als leichtflüchtiger Bestandteil verdampft Cadmium und scheidet sich als Metallspiegel am oberen Teil des Röhrchens ab. Durch anschließende Zugabe von Schwefel und erneutem Glühen bildet sich aus dem Metallspiegel und Schwefeldampf Cadmiumsulfid, welches in der Hitze rot und bei Raumtemperatur gelb ist. Dieser Farbwechsel lässt sich einige male wiederholen. Als Nachweisreaktion für Cadmium-Kationen gilt die Ausfällung mit Sulfid-Lösung oder Schwefelwasserstoff-Wasser als gelbes Cadmiumsulfid. Andere Schwermetallionen stören diesen Nachweis, so dass zuvor ein Kationentrenngang durchzuführen ist. Zur quantitativen Bestimmung von Cadmiumspuren bietet sich die Polarographie an. Cadmium(II)-ionen geben in 1 M KCl eine Stufe bei −0,64 V (gegen SCE). Im Ultraspurenbereich kann die Inversvoltammetrie an Quecksilberelektroden eingesetzt werden. Sehr empfindlich ist auch die Graphitrohr-AAS von Cadmium. Hierbei können noch 0,003 µg/l nachgewiesen werden. Das relativ leicht flüchtige Element verträgt dabei keine hohe Pyrolysetemperatur. Ein Matrixmodifizierer wie Palladium-Magnesiumnitrat kann Abhilfe schaffen. Sicherheitshinweise. Cadmium ist als "sehr giftig" und seine Verbindungen von "gesundheitsschädlich" (wie Cadmiumtellurid) über "giftig" (z. B. Cadmiumsulfid) bis "sehr giftig" (so bei Cadmiumoxid) eingestuft; außerdem besteht begründeter Verdacht auf krebsauslösende Wirkung beim Menschen. Eingeatmeter cadmiumhaltiger Staub führt zu Schäden an Lunge, Leber und Niere. In Arbeitsbereichen, in denen mit erhitzten Cadmiumverbindungen gearbeitet wird (Lötplätze und Cadmierbäder), ist für eine gute Durchlüftung oder Absaugung zu sorgen. Gemäß Chemikalienverbotsverordnung darf der Cadmiumgehalt in Kunststoffen 0,01 Gewichtsprozent (100 mg/kg) nicht überschreiten. Dieser Grenzwert gilt in der ganzen Europäischen Union. Seit Dezember 2011 gilt ein strengeres Verbot für Cadmium in Kunststoffen, Farben, Stabilisierungsmitteln sowie bei bestimmter Metallverarbeitung per REACH-Verordnung, Eintrag 23 in Anhang XVII. Bisher war in Silberhartlot typisch 10 % bis 25 % Cadmium enthalten, in Schmuck für Kinder bis zu 30 %, in PVC 0,2 %. Mit dem 10. Dezember 2011 wurde das Verbot auf cadmiumhaltige Lote beim Löten und der Erzeugung und das Inverkehrbringen cadmiumhaltigen Schmucks ausgedehnt. Zudem wurden auch alle PVC-haltigen Erzeugnisse mit Ausnahme des PVC-Recyclings eingebunden. Es gibt noch Ausnahmen, etwa wegen der hohen Leistungsdichte für Ni-Cd-Akkus in Schnurloselektrogeräten. Toxikologie. Cadmium ist in der chemischen Industrie ein unvermeidbares Nebenprodukt der Zink-, Blei- und Kupfergewinnung. Auch in Düngern und Pestiziden ist Cadmium zu finden. Aufnahme und Gefahren. Cadmium wird vom Menschen hauptsächlich durch die Nahrung aufgenommen. Zu den cadmiumreichen Nahrungsmitteln zählen: Leber, Pilze, Muscheln und andere Schalentiere, Kakaopulver und getrockneter Seetang. Darüber hinaus enthalten Leinsamen viel Cadmium, weshalb empfohlen wird, täglich nicht mehr als 20 g Leinsamen zu sich zu nehmen. Zudem kommt es seit der Einführung von Kunstdüngern zu einer Anreicherung von Cadmium auf landwirtschaftlichen Flächen und somit in nahezu allen Lebensmitteln. Die Ressourcen von Phosphaten sind begrenzt, und die meisten Vorkommen sind belastet mit Cadmium oder radioaktiven Schwermetallen. Der Cadmiumgehalt der Phosphatlagerstätten ist sehr unterschiedlich. Viele Industrieländer haben bereits einen Grenzwert für Cadmium in Düngemitteln eingeführt. In Österreich ist die Cadmiumkonzentration auf 75 mg/kg P2O5 begrenzt. Auch Tabakrauch transportiert relativ große Cadmiummengen in die Lungen, von wo aus es sich mit dem Blut im Körper verteilt. Besonders Personen, die in Fabriken mit hohem Cadmiumausstoß arbeiten, sind erhöhten Gefahren ausgesetzt. Aber auch von wilden Müllplätzen und Metallwerken gehen Gefahren aus. Das Einatmen von Cadmium kann die Lungen ernsthaft schädigen und sogar zum Tod führen. Unfälle in der Industrie – wie in der chinesischen Provinz Guangdong – und jahrzehntelange Emissionen – wie im Falle der Itai-Itai-Krankheit (bei Menschen) und der Gressenicher Krankheit (bei Weidevieh) – machen die realen Gefahren deutlich. Schädigungen im Menschen. Cadmium kann sich industrie- oder umweltbedingt allmählich im Körper anreichern und eine schwer erkennbare chronische Vergiftung hervorrufen. Cadmium wird aus der Nahrung zu ungefähr 5 % im Darm resorbiert. Bei Eisen- und Calciummangel steigt die Resorptionsrate, was annehmen lässt, dass alle drei Metalle denselben Transportweg nutzen. Cadmium stimuliert zunächst in der Leber die Synthese von Metallothioneinen, mit denen es einen Komplex bildet und über den Blutkreislauf zu den Nierenglomeruli transportiert, dort filtriert und aus den Nierentubuli wieder aufgenommen wird. In den Tubuluszellen wird der Metallothionein-Cadmium-Komplex metabolisiert und Cd freigesetzt. Cd aktiviert hier wiederum eine vermehrte Metallthionsynthese, wodurch noch mehr Cadmium gebunden wird. Durch die Akkumulation in den Nieren kommt es zu Schädigungen dieses Organs mit der Folge einer Proteinurie. Durch diese Proteinbindung wird Cadmium nur extrem langsam ausgeschieden, die Halbwertszeit für den Verbleib im Körper beträgt bis zu 30 Jahren. Daher steigt der Cadmiumgehalt von Geburt an und fällt erst wieder bei einem Alter von 50–60 Jahren. Cadmium schädigt auch die Knochen, da es letztendlich zur Mobilisierung des Calciums führt. Cd konkurriert im Darm mit dem Calcium um die Bindungsstellen am Ca-bindenden Protein in der Darmmukosa. Zusätzlich blockiert Cd die Neusynthese des 1,25-Dihydroxycholecalciferol (Calcitriol) in den Nierentubuluszellen. 1,25-Dihydroxycholecalciferol ist notwendig, um die Synthese des Calciumbindenden Proteins in der Darmmukosazelle zu aktivieren. In summa bewirkt Cadmium eine verminderte Rückresorption des Calciums in Darm und Niere sowie die erhöhte Ausscheidung mit dem Harn mit der Folge einer Calciumfreisetzung aus den Knochen und damit dem Abbau derselbigen. Bei einer akuten Cadmiumvergiftung kann die biliäre Ausscheidung durch Gabe von Penicillamin oder Dimercaprol unterstützt werden. Eine effektive, darüber hinausgehende Therapie einer akuten Cadmiumvergiftung ist nicht bekannt. Cer. Cer (auch "Zer" bzw. "Cerium" genannt) ist ein chemisches Element mit dem Elementsymbol Ce und der Ordnungszahl 58. Im Periodensystem steht es in der Gruppe der Lanthanoide und zählt damit auch zu den Metallen der seltenen Erden. Geschichte. Cer wurde 1803 von Jöns Jakob Berzelius und Wilhelm von Hisinger und gleichzeitig von Martin Heinrich Klaproth entdeckt. Es wurde nach dem Zwergplaneten Ceres benannt. Die Darstellung des Elements gelang Carl Gustav Mosander 1825 durch Reduktion des Chlorids mit Natrium. Vorkommen. In der Natur kommt Cer vergesellschaftet mit anderen Lanthanoiden in sogenannten Ceriterden vor, wie zum Beispiel im Allanit (Ca, Ce, La, Y)2(Al, Fe)3(SiO4)3(OH), im Monazit (Ce, La, Th, Nd, Y)PO4 sowie im Bastnäsit (Ce, La, Y)CO3F. Cer ist das häufigste Element der Lanthanoide und steht in der Elementhäufigkeit auf Platz 28. In der Erdkruste, bis in eine Tiefe von 16 km gerechnet, ist es mit 68 g/t vertreten und kommt damit häufiger als Zinn oder Blei vor. Wichtige Lagerstätten befinden sich in Skandinavien, USA, Kongo, Südafrika und Indien. Die weltweit bekannten Cer-Reserven werden auf 40 Mio. Tonnen geschätzt. Cer gehört zu den sogenannten leichten Seltenen Erden, die 2014 von der BGR als unkritisch bezüglich der Versorgungslage eingeschätzt wurden. Gewinnung und Herstellung. Nach einer aufwendigen Abtrennung der Cer-Begleiter wird das Oxid mit Fluorwasserstoff zum Cerfluorid umgesetzt. Anschließend wird es mit Calcium unter Bildung von Calciumfluorid zum Cer reduziert. Die Abtrennung verbleibender Calciumreste und Verunreinigungen erfolgt in einer zusätzlichen Umschmelzung im Vakuum. Die jährliche Weltproduktion liegt bei ca. 24.000 t. Physikalische Eigenschaften. Das silbrigweiß glänzende Metall ist hinter Europium das zweitreaktivste Element der Lanthanoide. Oberflächliche Verletzungen der schützenden gelben Oxidschicht entzünden das Metall. Oberhalb von 150 °C verbrennt es unter heftigem Glühen zum Cerdioxid. Mit Wasser reagiert es zum Cerhydroxid. Chemische Eigenschaften. Cer kommt in Verbindungen als dreiwertiges farbloses oder vierwertiges gelbes bis orangefarbiges Kation vor. Unter Wärmeeinfluss wird es durch Ethanol und Wasser sehr stark angegriffen. Auch in Laugen wird es unter Bildung von Cer-Hydroxiden stark angegriffen. In Säuren wird es zu Salzen gelöst. Verwendung. Da sich die chemischen Eigenschaften der Seltenen Erden ähneln, wird metallisches Cer selten in Reinform eingesetzt, sondern in der Mischung, in der es bei der Herstellung aus den Seltenerd-Mineralien anfällt, dem sogenannten Mischmetall. Biologische Bedeutung. 2013 wurde erstmals ein Enzym in Bakterien entdeckt, das Cer-Ionen für seine Funktion benötigt. Die Bakterien der Art "Methylacidiphilum fumariolicum" wurden aus vulkanischen Schlammtümpeln in Italien isoliert. Sie benötigen Cer zum Aufbau der Methanol-Dehydrogenase, einem Enzym im Methan-Stoffwechsel. Das Ion hat dabei die Rolle, die in ähnlichen Enzymen in anderen Bakterien von Calciumionen übernommen wird.Arjan Pol, Thomas R.M. Barends u. a.: "Rare earth metals are essential for methanotrophic life in volcanic mudpots." In: "Environmental Microbiology." 2013, S. n/a–n/a. Sicherheitshinweise. Cer ist, wie alle Lanthanoide, leicht giftig. Metallisches Cer kann sich schon ab 65 °C entzünden. Als fein verteiltes Metall kann es sich an der Luft ohne Energiezufuhr erhitzen und schließlich entzünden. Die Zündbereitschaft hängt u. a. sehr stark von der Korngröße und dem Verteilungsgrad ab. Cerbrände dürfen nicht mit Wasser gelöscht werden, da sich gasförmiger Wasserstoff entwickelt. Californium. Californium (selten auch "Kalifornium" geschrieben) ist ein künstlich erzeugtes chemisches Element mit dem Elementsymbol Cf und der Ordnungszahl 98. Im Periodensystem steht es in der Gruppe der Actinoide (7. Periode, f-Block) und zählt auch zu den Transuranen. Benannt wurde es nach der Universität von Kalifornien und dem US-amerikanischen Bundesstaat Kalifornien, wo es entdeckt wurde. Bei Californium handelt es sich um ein radioaktives Metall. Es wurde im Februar 1950 erstmals aus dem leichteren Element Curium erzeugt. Es entsteht in geringen Mengen in Kernreaktoren. Anwendung findet es vor allem für mobile und tragbare Neutronenquellen, aber auch zur Erzeugung höherer Transurane und Transactinoide. Geschichte. So wie Americium (Ordnungszahl 95) und Curium (96) in den Jahren 1944 und 1945 nahezu gleichzeitig entdeckt wurden, erfolgte in ähnlicher Weise in den Jahren 1949 und 1950 die Entdeckung der Elemente Berkelium (97) und Californium (98). Californium wurde zum ersten Mal am 9. Februar 1950 an der Universität von Kalifornien in Berkeley von Stanley G. Thompson, Kenneth Street, Jr., Albert Ghiorso und Glenn T. Seaborg erzeugt, indem sie Atomkerne des Curiums mit α-Teilchen beschossen. Es war das sechste Transuran, das entdeckt wurde. Die Entdeckung wurde gleichzeitig mit der des Berkeliums veröffentlicht. Die Probenvorbereitung erfolgte zunächst durch Auftragen von Curiumnitratlösung (mit dem Isotop 242Cm) auf eine Platinfolie von etwa 0,5 cm2; die Lösung wurde eingedampft und der Rückstand dann zum Oxid (CmO2) geglüht. Nach dem Beschuss im Cyclotron wurde die Beschichtung mittels Salpetersäure gelöst, anschließend wieder mit einer konzentrierten wässrigen Ammoniak-Lösung als Hydroxid ausgefällt; der Rückstand wurde in Perchlorsäure gelöst. Die weitere Trennung erfolgte in Gegenwart eines Citronensäure/Ammoniumcitrat-Puffers im schwach sauren Medium (pH ≈ 3,5) mit Ionenaustauschern bei erhöhter Temperatur. Die chromatographische Trennung konnte nur aufgrund vorheriger Vergleiche mit dem chemischen Verhalten der entsprechenden Lanthanoide gelingen. So tritt bei einer Trennung das Dysprosium vor Terbium, Gadolinium und Europium aus einer Säule. Falls das chemische Verhalten des Californiums dem eines Eka-Dysprosiums ähnelt, sollte das fragliche Element 98 daher in dieser analogen Position zuerst erscheinen, entsprechend vor Berkelium, Curium und Americium. Die Experimente zeigten ferner, dass nur die Oxidationsstufe +3 zu erwarten war. Entsprechende Oxidationsversuche mit Ammoniumperoxodisulfat beziehungsweise Natriumbismutat zeigten, dass entweder höhere Oxidationsstufen in wässrigen Lösungen nicht stabil sind oder eine Oxidation selbst zu langsam verläuft. Die zweifelsfreie Identifikation gelang, als die vorherberechnete charakteristische Energie (7,1 MeV) des beim Zerfall ausgesandten α-Teilchens experimentell gemessen werden konnte. Die Halbwertszeit dieses α-Zerfalls wurde erstmals auf 45 Minuten bestimmt. Im Jahr 1958 isolierten Burris B. Cunningham und Stanley G. Thompson erstmals wägbare Mengen eines Gemisches der Isotope 249Cf, 250Cf, 251Cf, 252Cf, die durch langjährige Neutronenbestrahlung von 239Pu in dem Testreaktor der "National Reactor Testing Station" in Idaho erzeugt wurden. 1960 isolierten B. B. Cunningham und James C. Wallmann die erste Verbindung des Elements, etwa 0,3 µg CfOCl, und anschließend das Oxid Cf2O3 und das Trichlorid CfCl3. Isotope. Von Californium gibt es 20 durchweg radioaktive Isotope und ein Kernisomer (Massenzahlen von 237 bis 256). Die langlebigsten sind 251Cf (Halbwertszeit 900 Jahre), 249Cf (351 Jahre), 250Cf (13 Jahre), 252Cf (2,645 Jahre) und 248Cf (334 Tage). Die Halbwertszeiten der restlichen Isotope liegen im Bereich von Millisekunden bis Stunden oder Tagen. Nimmt man beispielhaft den Zerfall des langlebigsten Isotops 251Cf heraus, so entsteht durch α-Zerfall zunächst das langlebige 247Cm, das seinerseits durch erneuten α-Zerfall in 243Pu übergeht. Der weitere Zerfall führt dann über 243Am, 239Np, 239Pu zum 235U, dem Beginn der Uran-Actinium-Reihe (4 n + 3). Das Isotop 252Cf zerfällt bei einer Halbwertszeit von 2,645 Jahren zu 96,908 % durch α-Zerfall, aber auch zu 3,092 % durch Spontanspaltung. Bei der Spontanspaltung werden pro zerfallendem Kern im Mittel 3,77 Neutronen emittiert. Es wird daher als Neutronenquelle verwendet. Das Isotop 254Cf zerfällt bei einer Halbwertszeit von 60,5 Tagen fast ausschließlich durch Spontanspaltung. "→ Liste der Californiumisotope" Vorkommen. Das langlebigste Isotop 251Cf besitzt eine Halbwertszeit von 900 Jahren. Aus diesem Grund ist das gesamte primordiale Californium, das die Erde bei ihrer Entstehung enthielt, mittlerweile zerfallen. In den Überresten der ersten amerikanischen Wasserstoffbombe wurden am 1. November 1952 auf dem Eniwetok-Atoll – neben der Erstentdeckung von Einsteinium und Fermium und dem Nachweis von Plutonium und Americium – auch Isotope von Curium, Berkelium und Californium gefunden: vor allem die Isotope 245Cm und 246Cm, in kleineren Mengen 247Cm und 248Cm, in Spuren 249Cm; ferner 249Bk, 249Cf, 252Cf, 253Cf und 254Cf. Die Menge des 249Cf stieg durch den β-Zerfall des 249Bk an (Halbwertszeit 330 Tage). Es wurde dagegen kein 250Cf gefunden. Dies lässt sich darauf zurückführen, dass die Halbwertszeit von 250Cm mit rund 8300 Jahren zu groß ist, als dass durch β-Zerfall (über 250Bk) detektierbare Mengen 250Cf hätten gebildet werden können. Zudem zerfällt 250Cm nur mit einer Wahrscheinlichkeit von rund 6 % im β-Zerfall zu 250Bk. Aus Gründen der militärischen Geheimhaltung wurden die Ergebnisse erst im Jahr 1956 publiziert. Es wurde in den 1950er Jahren vermutet, dass Californiumisotope im r-Prozess in Supernovae entstehen. Besonderes Interesse fand hierbei das Isotop 254Cf, welches zuvor in den Überresten der ersten amerikanischen Wasserstoffbombe gefunden wurde. Mit der damals gemessenen Halbwertszeit für die Spontanspaltung von 56,2 ± 0,7 Tagen (aktuell: 60,5 Tage) vermutete man eine Übereinstimmung mit dem Verlauf der Lichtkurve von Supernovae des Typs I von 55 ± 1 Tagen. Der Zusammenhang ist allerdings immer noch fraglich. In Kernreaktoren entstehen vor allem die langlebigen α-strahlenden Isotope 249Cf und 251Cf. Sie zählen wegen ihrer langen Halbwertszeit zum Transuranabfall und sind bei der Endlagerung besonders problematisch. Gewinnung und Darstellung. Californium wird durch Beschuss von leichteren Actinoiden mit Neutronen in einem Kernreaktor erzeugt. Die Hauptquelle ist der 85 MW High-Flux-Isotope Reactor am Oak Ridge National Laboratory in Tennessee, USA, der auf die Herstellung von Transcuriumelementen (Z > 96) eingerichtet ist. Gewinnung von Californiumisotopen. Californium entsteht in Kernreaktoren aus Uran 238U oder Plutoniumisotopen durch zahlreiche nacheinander folgende Neutroneneinfänge und β-Zerfälle – unter Ausschluss von Spaltungen oder α-Zerfällen –, die über Berkelium zu den Californiumisotopen führen, so zuerst die Isotope mit den Massenzahlen 249, 250, 251 und 252. Ein wichtiger Schritt ist hierbei die (n,γ)- oder Neutroneneinfangsreaktion, bei welcher das gebildete angeregte Tochternuklid durch Aussendung eines γ-Quants in den Grundzustand übergeht. Die hierzu benötigten freien Neutronen entstehen durch Kernspaltung anderer Kerne im Reaktor. In diesem kernchemischen Prozess wird zunächst durch eine (n,γ)-Reaktion gefolgt von zwei β−-Zerfällen das Plutoniumisotop 239Pu gebildet. In Brutreaktoren wird dieser Prozess zum Erbrüten neuen Spaltmaterials genutzt. Letzteres wird hierzu mit einer Neutronenquelle, die einen hohen Neutronenfluss besitzt, bestrahlt. Die hierbei möglichen Neutronenflüsse sind um ein Vielfaches höher als in einem Kernreaktor. Aus 239Pu wird durch vier aufeinander folgende (n,γ)-Reaktionen 243Pu gebildet, welches durch β-Zerfall mit einer Halbwertszeit von 4,96 Stunden zu dem Americiumisotop 243Am zerfällt. Das durch eine weitere (n,γ)-Reaktion gebildete 244Am zerfällt wiederum durch β-Zerfall mit einer Halbwertszeit von 10,1 Stunden letztlich zu 244Cm. Aus 244Cm entstehen durch weitere (n,γ)-Reaktionen im Reaktor in jeweils kleiner werdenden Mengen die nächst schwereren Isotope. Die Entstehung von 250Cm auf diesem Wege ist jedoch sehr unwahrscheinlich, da 249Cm nur eine kurze Halbwertszeit besitzt und so weitere Neutroneneinfänge in der kurzen Zeit unwahrscheinlich sind. 249Cf ist das erste Isotop des Californiums, das auf diese Weise gebildet werden kann. Es entsteht durch zweimaligen β-Zerfall aus 249Cm – das erste Curiumisotop, welches einen β-Zerfall eingeht (Halbwertszeit 64,15 min). Das hier entstehende 249Bk bildet zudem durch Neutroneneinfang das 250Bk, welches mit einer Halbwertszeit von 3,212 Stunden durch β-Zerfall zum Californiumisotop 250Cf zerfällt. Durch weitere Neutroneneinfänge werden die Isotope 251Cf, 252Cf und 253Cf aufgebaut. Nach einjähriger Bestrahlung stellt sich folgende Isotopenverteilung ein: 249Cf (2 %), 250Cf (15 %), 251Cf (4 %) und 252Cf (79 %). Das Isotop 253Cf zerfällt schon mit einer Halbwertszeit von 17,81 Tagen zu 253Es. Californium steht (zumeist als Oxid Cf2O3) heute weltweit lediglich in sehr geringen Mengen zur Verfügung, weshalb es einen sehr hohen Preis besitzt. Dieser beträgt etwa 160 US-Dollar pro Mikrogramm 249Cf bzw. 50 US-Dollar für 252Cf. Die leichteren Isotope des Californiums (240Cf und 241Cf) wurden durch Beschuss von 235U, 234U und 233U mit Kohlenstoff im Jahr 1970 erzeugt. Darstellung elementaren Californiums. Californium erhält man durch Reduktion von Californium(III)-oxid mit Lanthan oder Thorium oder von Californium(III)-fluorid mit Lithium oder Kalium. Im Jahr 1974 wurde berichtet, dass Californium erstmals in metallischer Form (wenige Mikrogramm) durch Reduktion von Californium(III)-oxid (Cf2O3) mit Lanthan gewonnen und das Metall in Form dünner Filme auf Trägern für die Elektronenmikroskopie aufgebracht wurde. Aufgrund der Messungen wurden zunächst eine f.c.c.-Struktur ("a" = 574,3 ± 0,6 pm) und eine hexagonale Struktur ("a" = 398,8 ± 0,4 pm und "c" = 688,7 ± 0,8 pm) beschrieben. Der Schmelzpunkt wurde erstmals mit 900 ± 30 °C gemessen. Diese Ergebnisse wurden allerdings im Folgejahr 1975 in Frage gestellt. Die beiden Phasen des Californiums wurden stattdessen als Verbindungen dieses Metalls beschrieben: die hexagonale Phase als Cf2O2S, die f.c.c.-Phase als CfS. In beiden Verbindungen wird eine Dreiwertigkeit des Californiums mit einem Atomradius bei 183–185 pm beschrieben. Noé und Peterson fassten jedoch im September 1975 die bisherigen Ergebnisse zusammen und stellten zudem eigene umfangreiche Ergebnisse vor, die die eindeutige Darstellung von metallischem Californium und dessen Eigenschaften aufzeigen. Eigenschaften. Im Periodensystem steht das Californium mit der Ordnungszahl 98 in der Reihe der Actinoide, sein Vorgänger ist das Berkelium, das nachfolgende Element ist das Einsteinium. Sein Analogon in der Reihe der Lanthanoide ist das Dysprosium. Physikalische Eigenschaften. Bei Californium handelt es sich um ein künstliches, radioaktives Metall mit einem Schmelzpunkt von ca. 900 °C und einer Dichte von 15,1 g/cm3. Es tritt in drei Modifikationen auf: α-, β- und γ-Cf. Das bei Standardbedingungen auftretende α-Cf (hexagonalen Kristallsystem in der mit den Gitterparametern "a" = 338 pm und "c" = 1102,5 pm sowie vier Formeleinheiten pro Elementarzelle. Die Kristallstruktur besteht aus einer doppelt-hexagonal dichtesten Kugelpackung (d.h.c.p.) mit der Schichtfolge ABAC und ist damit isotyp zur Struktur von α-La. Unter hohem Druck geht α-Cf allmählich in β-Cf über. Die β-Modifikation (600–725 °C) kristallisiert im kubischen Kristallsystem in der Raumgruppe  mit dem Gitterparameter "a" = 494 pm, was einem kubisch flächenzentrierten Gitter (f.c.c.) beziehungsweise einer kubisch dichtesten Kugelpackung mit der Stapelfolge ABC entspricht. Oberhalb von 725 °C wandelt sich die β-Modifikation in die γ-Modifikation um. Die γ-Modifikation kristallisiert ebenfalls im kubischen Kristallsystem, jedoch mit einem größeren Gitterparameter von "a" = 575 pm. Die Lösungsenthalpie von Californium-Metall in Salzsäure bei Standardbedingungen beträgt −576,1 ± 3,1 kJ·mol−1. Ausgehend von diesem Wert erfolgte die erstmalige Berechnung der Standardbildungsenthalpie (Δf"H"0) von Cf3+(aq) auf −577 ± 5 kJ·mol−1 und des Standardpotentials Cf3+ / Cf0 auf −1,92 ± 0,03 V. Chemische Eigenschaften. Das silberglänzende Schwermetall ist wie alle Actinoide sehr reaktionsfähig. Es wird von Wasserdampf, Sauerstoff und Säuren angegriffen; gegenüber Alkalien ist es stabil. Die stabilste Oxidationsstufe ist die für die höheren Actinoide zu erwartende Stufe +3. Es bildet dabei zwei Reihen von Salzen: Cf3+- und CfO+-Verbindungen. Auch die zweiwertige und vierwertige Stufe ist bekannt. Cf(II)-Verbindungen sind starke Reduktionsmittel. In Wasser setzen sie unter Oxidation zu Cf3+ Wasserstoff frei. Californium(IV)-Verbindungen sind starke Oxidationsmittel. Sie sind instabiler als die von Curium und Berkelium. In fester Form sind bisher nur zwei Verbindungen des Californiums in der Oxidationsstufe +4 bekannt: Californium(IV)-oxid (CfO2) und Californium(IV)-fluorid (CfF4). Californium(IV)-fluorid gibt beim Erhitzen elementares Fluor ab. Wässrige Lösungen mit Cf3+-Ionen haben eine grüne Farbe, mit Cf4+-Ionen sind sie braun. Cf4+-Ionen sind in wässriger Lösung im Unterschied zu den Cf3+-Ionen nicht stabil und können nur komplexstabilisiert vorliegen. Eine Oxidation des dreiwertigen Californiums (249Cf) gelang in Kaliumcarbonat-Lösung (K2CO3) an einer Platinanode. Während der Elektrolyse konnte die Zunahme einer Breitbandabsorption im Bereich von λ nm beobachtet werden (Gelbfärbung der Lösung); die Absorptionsbande des Californium(III) nahm entsprechend ab. Eine vollständige Oxidation konnte nicht erreicht werden. Spaltbarkeit. Generell sind alle Californium-Isotope mit Massenzahlen zwischen 249 und 254 in der Lage, eine Kettenreaktion mit Spaltneutronen aufrechtzuerhalten. Für die anderen Isotope ist die Halbwertszeit so kurz, dass bisher nicht ausreichend Daten zum Verhalten gegenüber Neutronen gemessen und öffentlich publiziert wurden. Somit kann nicht berechnet werden (Stand 1/2009), ob eine Kettenreaktion mit schnellen Neutronen möglich ist, auch wenn es sehr wahrscheinlich ist, dass eine Kettenreaktion möglich ist. Mit thermischen Neutronen gelingt eine Kettenreaktion bei den Isotopen 249, 251, 252, 253 und evtl. 254. Bei letztgenanntem sind die Unsicherheiten der derzeitigen Daten für eine genaue Beurteilung zu groß (1/2009). Das Isotop 251Cf verfügt über eine sehr kleine kritische Masse von lediglich 5,46 kg für eine reine Kugel, die mit Reflektor bis auf 2,45 kg reduziert werden kann. Dadurch wurden Spekulationen ausgelöst, dass es möglich wäre, enorm kleine Atombomben zu bauen. Erschwert wird dies aber neben der sehr geringen Verfügbarkeit und dem damit einhergehenden hohen Preis auch durch die kurze Halbwertszeit von 251Cf und der daraus resultierenden hohen Wärmeabgabe. Die kritische Masse von 254Cf liegt zwar mit etwa 4,3 kg noch unter der von 251Cf, allerdings ist die Herstellung dieses Isotops bedeutend aufwändiger und die Halbwertszeit von 60,5 Tagen zu kurz für eine Verwendung in Kernwaffen. Weiterhin würden sich die Isotope 249Cf, 251Cf und 252Cf auch zum Betreiben eines Kernreaktors eignen. In wässriger Lösung mit Reflektor sinkt die kritische Masse von 249Cf auf etwa 51 g, die von 251Cf sogar auf lediglich rund 20 g. Alle drei Isotope könnten auch in einem schnellen Reaktor eingesetzt werden. Dieser könnte darüber hinaus auch mit 250Cf realisiert werden (kritische Masse: 6,55 kg unreflektiert). Dem stehen aber auch hier die geringe Verfügbarkeit und der hohe Preis entgegen, weshalb bislang keine Reaktoren auf Californiumbasis gebaut wurden. Dementsprechend wird Californium im deutschen Atomgesetz nicht als Kernbrennstoff geführt. Sicherheitshinweise. Einstufungen nach der Gefahrstoffverordnung liegen nicht vor, weil diese nur die chemische Gefährlichkeit umfassen und eine völlig untergeordnete Rolle gegenüber den auf der Radioaktivität beruhenden Gefahren spielen. Auch Letzteres gilt nur, wenn es sich um eine dafür relevante Stoffmenge handelt. Verwendung. Das Spektrum der von 252Cf emittierten Neutronen. Neutronenquelle. Am interessantesten ist das Isotop 252Cf. Es zerfällt zum Teil durch Spontanspaltung; 1 µg strahlt dabei pro Sekunde 2,314 Millionen Neutronen ab. Es wird daher ausschließlich für mobile, tragbare und dabei starke Neutronenquellen eingesetzt; hierzu wird es in Form von Californium(III)-oxid (Cf2O3) bereitgestellt. Herstellung anderer Elemente. Im Oktober 2006 wurde bekanntgegeben, dass durch den Beschuss von 249Cf mit 48Ca das bisher schwerste Element Ununoctium (Element 118) erzeugt wurde, nachdem eine früher bekanntgegebene Entdeckung wieder zurückgezogen worden war. Verbindungen. Datei:CaF2 polyhedra.png|mini|rechts|250px|__ Cf4+     __ O2− __ Cf3+     __ O2−/F− Oxide. Von Californium existieren Oxide der Oxidationsstufen +3 (Cf2O3) und +4 (CfO2). Californium(IV)-oxid (CfO2) entsteht durch Oxidation mit molekularem Sauerstoff bei hohem Druck und durch atomaren Sauerstoff. Es entsteht unter anderem implizit in Kernreaktoren beim Bestrahlen von Urandioxid (UO2) bzw. Plutoniumdioxid (PuO2) mit Neutronen. Es ist ein schwarzbrauner Feststoff und kristallisiert – wie die anderen Actinoiden(IV)-oxide – im kubischen Kristallsystem in der Fluorit-Struktur. Der Gitterparameter beträgt 531,0 ± 0,2 pm. Californium(III)-oxid (Cf2O3) ist ein gelbgrüner Feststoff mit einem Schmelzpunkt von 1750 °C. Es gibt zwei Modifikationen; die Übergangstemperatur zwischen dem kubisch-raumzentrierten und dem monoklinen Cf2O3 beträgt etwa 1400 °C. Seine Anwendung findet es vor allem bei der Herstellung von 252Cf-Neutronenquellen. Dazu wird 252Cf(III) zunächst als Californiumoxalat (Cf2(C2O4)3) gefällt, getrocknet und anschließend zum dreiwertigen Oxid geglüht. Übergangszusammensetzungen von Oxiden der Form CfOx (2,00 > x > 1,50) besitzen eine rhomboedrische Struktur. Oxihalogenide. Californium(III)-oxifluorid (CfOF) wurde durch Hydrolyse von Californium(III)-fluorid (CfF3) bei hohen Temperaturen dargestellt. Es kristallisiert wie das Californium(IV)-oxid (CfO2) im kubischen Kristallsystem in der Fluorit-Struktur, wobei hier die Sauerstoff- und Fluoratome in zufälliger Verteilung auf den Anionenpositionen zu finden sind. Der Gitterparameter beträgt 556,1 ± 0,4 pm. Californium(III)-oxichlorid (CfOCl) wurde durch Hydrolyse des Hydrats von Californium(III)-chlorid (CfCl3) bei 280–320 °C dargestellt. Es besitzt eine tetragonale Struktur vom PbFCl-Typ. Halogenide. Halogenide sind für die Oxidationsstufen +2, +3 und +4 bekannt. Die stabilste Stufe +3 ist für sämtliche Verbindungen von Fluor bis Iod bekannt und auch in wässriger Lösung stabil. Die zwei- und vierwertige Stufe ist nur in der festen Phase stabilisierbar. Californium(III)-fluorid (CfF3) ist ein gelbgrüner Feststoff und besitzt zwei kristalline Strukturen, die temperaturabhängig sind. Bei niedrigen Temperaturen ist die orthorhombische Struktur vom YF3-Typ zu finden. Bei höheren Temperaturen bildet es ein trigonales System vom LaF3-Typ. Californium(IV)-fluorid (CfF4) ist ein hellgrüner Feststoff und kristallisiert entsprechend dem monoklinen UF4-Typ. Californium(IV)-fluorid gibt beim Erhitzen elementares Fluor ab. Californium(III)-chlorid (CfCl3) ist ein grüner Feststoff und bildet zwei kristalline Modifikationen: die hexagonale Form vom UCl3-Typ, wobei das Cf-Atom 9-fach koordiniert ist, sowie die orthorhombische Form vom PuBr3-Typ mit der Koordinationszahl 8. Californium(II)-iodid (CfI2) und Californium(III)-iodid (CfI3) konnten in Mikrogramm-Mengen im Hochvakuum hergestellt werden. Diese Verbindungen wurden sowohl durch Röntgenbeugung als auch durch Spektroskopie im sichtbaren Bereich charakterisiert. Pentelide. Die Pentelide des Californiums des Typs CfX sind für die Elemente Stickstoff, Arsen und Antimon dargestellt worden. Sie kristallisieren im NaCl-Gitter mit den Gitterkonstanten 580,9 pm für CfAs und 616,6 pm für CfSb. Metallorganische Verbindungen. Tricyclopentadienylkomplexe der Elemente Berkelium (Cp3Bk) und Californium (Cp3Cf) sind aus der dreiwertigen Stufe erhältlich. Die hohe Radioaktivität bewirkt allerdings eine schnelle Zerstörung der Verbindungen. Chlor. Chlor ist ein chemisches Element mit dem Symbol Cl und der Ordnungszahl 17. Im Periodensystem der Elemente steht es in der 7. Hauptgruppe und gehört damit zusammen mit Fluor, Brom, Iod und Astat zur 17. IUPAC-Gruppe, den Halogenen. Elementares Chlor liegt unter Normalbedingungen in Form des zweiatomigen Moleküls Cl2 gasförmig vor. Es ist eines der reaktivsten Elemente und reagiert mit fast allen anderen Elementen und vielen Verbindungen. Die hohe Reaktivität bedingt auch die Giftigkeit des elementaren Chlors. Der Name des Elementes leitet sich vom griech. χλωρός ' „hellgrün, frisch“ ab. Dieser Name wurde nach der typischen gelbgrünen Farbe des Chlorgases gewählt. In der Natur kommt Chlor nicht elementar, sondern nur gebunden in verschiedenen Verbindungen vor. Die wichtigsten Verbindungen sind die Chloride, in denen Chlor in Form des Anions Cl− auftritt. Das bekannteste Chlorid ist Natriumchlorid, häufig auch als "Kochsalz" oder kurz "Salz" bezeichnet. Chlorid ist ein häufiger Bestandteil des Meerwassers und besitzt wichtige biologische Funktionen, vor allem bei der Steuerung des Wasserhaushaltes im Körper. Das fast ausschließlich durch Elektrolyse gewonnene Chlor wird großteils für die Synthese chlorhaltiger Verbindungen wie des Vinylchlorids, eines Ausgangsprodukts für die Produktion des Kunststoffes PVC, eingesetzt. Geschichte. Elementares Chlor wurde erstmals 1774 von Carl Wilhelm Scheele dargestellt. Er ließ dabei Salzsäure mit Braunstein reagieren. Dabei erkannte er nicht, dass es sich bei dem dabei entstehenden Produkt um ein bisher unentdecktes Element handelt. Stattdessen wurde von den meisten Chemikern wie Antoine Laurent de Lavoisier angenommen, dass der Stoff "mit Sauerstoff angereicherte Muriumsäure" sei. Der Grund für diese Annahme lag darin, dass die Salzsäure für eine sauerstoffhaltige Säure eines hypothetischen Elementes, des "Muriums", gehalten wurde. Durch den Kontakt mit dem Mangandioxid sollte diese dann weiteren Sauerstoff aufnehmen. Dies wurde scheinbar von Claude-Louis Berthollet bestätigt, der beobachtete, dass Chlorwasser bei Belichtung Sauerstoff abgibt, und es daher als „oxidierte Salzsäure“ bezeichnete. Nachdem Versuche gescheitert waren, Sauerstoff, etwa durch Erhitzen mit Kohlenstoff, aus der Verbindung abzuspalten, erkannte Humphry Davy 1808, dass es sich bei der Substanz um ein neues Element und nicht um eine sauerstoffhaltige Verbindung handelte. Aufgrund seiner charakteristischen hellgrünen Farbe nannte er das neue Element „Chlor“, nach dem griechischen ' „hellgrün, frisch“. Unter dem Datum vom 21. Februar 1811 dokumentieren die "Philosophical transactions of the Royal Society of London" seine Erkenntnisse. Zunächst wurde Chlor überwiegend nach einem von Walter Weldon entwickelten Verfahren aus Salzsäure und Mangandioxid gewonnen. Da dies nicht sehr effektiv war, wurde es 1866 durch das von Henry Deacon entwickelte Deacon-Verfahren ersetzt. Dabei diente billiger Luftsauerstoff als Oxidationsmittel und Kupfer(II)-chlorid als Katalysator. Chlor wurde zwar schon 1800 erstmals elektrolytisch hergestellt, jedoch spielte dies bis zur Entwicklung der nötigen Generatoren durch Werner von Siemens Ende des 19. Jahrhunderts keine große Rolle. Seitdem sind elektrochemische Herstellungsverfahren die weitaus wichtigsten Produktionsverfahren von Chlor. Bleichmittel. Die historisch wichtigste Verwendung von Chlor liegt in der Anwendung als Bleichmittel. Dazu konnte es entweder elementar eingesetzt werden oder durch Reaktion mit Calciumhydroxid zu Chlorkalk weiterverarbeitet werden. Chlor als Giftgas (Waffe). Im Ersten Weltkrieg wurde Chlorgas erstmals als chemische Waffe verwendet. Der erste Einsatz erfolgte am 22. April 1915 in der Nähe der Stadt Ypern in Flandern durch das deutsche Pionierregiment 35. Da es eine höhere Dichte als Luft aufweist, sammelte das Gas sich vor allem in den Schützengräben an, wo die gegnerischen Soldaten sich aufhielten. Die Folge waren viele Tote und zahlreiche teilweise lebenslang Geschädigte. Bald wurde es durch noch verletzungswirksamere Giftgase ersetzt, zum Beispiel Phosgen. Die Anwendung von Chlor als Giftgas gegen Menschen erstreckt sich - so Indizien - bis in die Gegenwart. Human Rights Watch spricht von „starken Hinweisen“, dass Regierungstruppen in Syrien Mitte Mai 2014 Chlorgas aus der Luft in „Fassbomben“ abgeworfen haben; diese platzen beim Aufprall und das Gas wird freigesetzt. Vorkommen. Chlor kommt auf der Erde auf Grund seiner hohen Reaktivität nur in extrem geringen Mengen elementar vor, z. B. in Vulkangasen oder in der Ozonschicht. Hier wird es aus Fluorchlorkohlenwasserstoffen abgespalten und trägt hauptsächlich zur Bildung des Ozonlochs bei. Sein Anion, das Chlorid, liegt insbesondere in salzartigen Verbindungen auf der Erde relativ häufig vor. In der kontinentalen Erdkruste ist es mit einem Gehalt von 145 ppm in der Häufigkeit hinter Elementen wie Zirconium, Kohlenstoff oder Schwefel an 19. Stelle. Viele Chloride sind in Wasser gut löslich. Daher ist im Meerwasser der Ozeane eine hohe Konzentration an Chloridionen enthalten. Mit einem Gehalt von 19,4 g Cl−/l sind diese nach Sauerstoff und Wasserstoff in Wassermolekülen am Häufigsten im Meerwasser (zum Vergleich: 1,4 mg F−, 68 mg Br−, 0,06 mg I−). Außerdem bildet Natriumchlorid mit 18,1 g Cl−/l die Hälfte aller darin gelösten Salze. Hohe Gehalte an Chlorid haben viele abflusslose Seen, wie beispielsweise das Tote Meer, da bei diesen das von den Flüssen zugeführte Wasser verdunstet und das mitgeführte Salz zurückbleibt. Die wichtigsten chlorhaltigen Minerale sind Halit (Hauptbestandteil: Natriumchlorid), häufig als Steinsalz bezeichnet, Sylvin (Kaliumchlorid), Carnallit (KMgCl3·6 H2O), Bischofit (MgCl2·6 H2O) und Kainit (KMgCl(SO4)·3 H2O). Es gibt große Lagerstätten, die beim Austrocknen von Meeresteilen entstanden sind. Da die geringer löslichen Natriumsalze zuerst ausfallen und sich bei fortschreitender Austrocknung die Kaliumsalze darüber ablagern, sind die Lager oft geschichtet. Größere Vorkommen an Halit befinden sich in Deutschland beispielsweise in Bad Friedrichshall und Bad Reichenhall, ein Vorkommen in Österreich liegt bei Hallein. Eine Übersicht über Chlorminerale liefert die. Es ist eine Vielzahl natürlicher chlororganischer Verbindungen bekannt, im Februar 2002 zählte man 2200. Der größte Teil wird von Meereslebewesen, wie Seetang, Schwämmen, Manteltieren oder Korallen synthetisiert. Auf dem Land lebende Tiere und Pflanzen bilden in deutlich geringerem Umfang chlororganische Verbindungen. Auch bei Vulkanausbrüchen und der Verbrennung von Biomasse entstehen chlororganische Verbindungen. Chlorradikale entstehen durch Zersetzung organischer Chlorverbindungen in der Stratosphäre. Viele dieser chlororganischen Verbindungen, vor allen die Fluorchlorkohlenwasserstoffe (FCKW) sind nicht oder nur in geringem Umfang natürlichen Ursprungs, sondern wurden vom Menschen freigesetzt. Chlorradikale können den Abbau von Ozon katalysieren und sind für das sogenannte Ozonloch, das vor allem im Bereich der Pole auftritt, verantwortlich. Gewinnung und Darstellung. Chlor ist eine der wichtigsten Grundchemikalien und zählt mit einer Menge von 58,9 Millionen Tonnen im Jahr 2006 zu den meistproduzierten Chemikalien. Technisch wird Chlor fast ausschließlich durch verschiedene elektrochemische Verfahren hergestellt, in kleinerem Maßstab kann es auch auf chemischem Weg gewonnen werden. Als Nebenprodukt fällt es bei der elektrochemischen Produktion von Natrium und Magnesium aus den entsprechenden Chloriden an. Ausgangsstoff für die Chloralkalielektrolyse ist eine wässrige Natriumchloridlösung. Aus dieser werden in verschiedenen Verfahren, die sich im Aufbau der Elektrolysezelle unterscheiden, Natronlauge und als Zwangsnebenprodukte Chlor sowie Wasserstoff erzeugt. Wichtig bei allen Verfahren zur Chlorproduktion ist, dass die Anode, an der das Chlor entsteht, von der Kathode, an der Wasserstoff und Hydroxidionen gebildet werden, getrennt ist. Wären diese in einem Gefäß vereinigt, würde sich das explosive Chlor-Wasserstoff-Gemisch Chlorknallgas bilden, sowie eine Reaktion von Chlor mit den Hydroxidionen zu Hypochlorit stattfinden. Das derzeit am häufigsten verwendete Verfahren ist das Diaphragmaverfahren (2001: 49 % Marktanteil). Die Trennung der Elektrodenräume erfolgt dabei durch ein Diaphragma aus Asbest, durch das zwar Natriumionen, nicht jedoch Chlorid- und Hydroxidionen diffundieren können. Allerdings lässt sich mit diesem Verfahren nur eine niedrig konzentrierte und nicht reine Natronlauge, sowie mit Sauerstoff verunreinigtes Chlor erzeugen. Auch ist die Verwendung des krebserregenden Asbestes problematisch. Deswegen wird es für neue Produktionsanlagen vom Membranverfahren abgelöst (2001: 28 % Marktanteil). Dieses ist wegen der Verwendung einer Kunststoffmembran aus Nafion anstatt des Asbest-Diaphragmas vom Gesundheitsschutz her günstiger und bietet einige technische Vorteile. So ist durch die Membran eine bessere Trennung von Anoden- und Kathodenraum gegeben und ermöglicht damit die Produktion einer reineren und höher konzentrierten Natronlauge. Allerdings ist das Chlor wie beim Diaphragma-Verfahren durch Sauerstoff verunreinigt, der in einer Nebenreaktion an der Anode entsteht. Nachteile des Verfahrens sind die hohen Kosten für die Membranen und die nötigen hohen Reinheiten für die Ausgangssubstanzen. Ein nur noch in geringem Maß eingesetztes Verfahren ist das Amalgamverfahren (2001: 18 % Marktanteil). Bei diesem werden Anoden- und Kathodenraum vollkommen getrennt. Dazu wird eine Quecksilber-Kathode eingesetzt, die auf Grund der hohen Überspannung ermöglicht, dass anstatt Wasserstoff zunächst Natrium gebildet wird, das als Natriumamalgam vorliegt. Das Amalgam wird in einer zweiten Zelle an Graphitkontakten mit Wasser umgesetzt. Dabei bilden sich Quecksilber, Natronlauge und Wasserstoff. Diese räumliche Trennung ermöglicht sehr reine Produkte. Der größte Nachteil ist die Verwendung des stark toxischen und umweltgefährlichen Quecksilbers, durch das aufwändige und teure Schutzmaßnahmen nötig werden. Es sind verschiedene Verfahren bekannt, mit denen durch chemische Oxidation aus Chlorwasserstoff Chlor hergestellt werden kann (Weldon-Verfahren und Deacon-Verfahren). Diese spielen für die Chlorproduktion nur eine geringe Rolle. Ein weiteres Beispiel ist das KEL-Chlor-Verfahren, bei dem der Chlorwasserstoff mit Schwefelsäure und Nitrosylschwefelsäure umgesetzt wird und das 1975 von DuPont entwickelt wurde. Der entscheidende Reaktionsschritt hierbei ist die Oxidation von Chlorwasserstoff mit Stickstoffdioxid, das in mehreren Teilreaktionen aus der Nitrosylschwefelsäure freigesetzt wird. Nach Erprobung in einer Versuchsanlage wurde das Verfahren jedoch wegen geringer Wirtschaftlichkeit und Materialproblemen wieder eingestellt. Weitere Prozesse beruhen auf Kupfer(II)-chlorid- oder Chrom(III)-oxid-Katalysatoren. Im Labormaßstab kann elementares Chlor unter anderem durch Ansäuern von Chlorkalk dargestellt werden, beispielsweise mit Schwefelsäure. Physikalische Eigenschaften. Festes Chlor bei −150 °C Chlor ist bei Raumtemperatur ein gelbgrünes Gas, das mit einer Dichte von 3,214 g/l bei 0 °C etwa 2,5 mal so schwer wie Luft ist. Es kondensiert bei −34,6 °C zu einer gelben Flüssigkeit und erstarrt bei −101 °C. Da der kritische Punkt mit 143,9 °C, 77,1 bar und 0,67 g/cm3 relativ hoch ist, lässt sich Chlor leicht unter Druck verflüssigen. So ist es bei einem Druck von 6,7 bar bei 20 °C flüssig und lässt sich in Stahlflaschen oder Kesselwagen transportieren. Die Intensität der Farbe nimmt bei geringerer Temperatur ab, bei −195 °C ist Chlor fast farblos. Wie die anderen Halogene liegt auch Chlor als zweiatomiges Molekül vor. Der Abstand zwischen den Chloratomen beträgt 199 pm. Chlor hat mit 242 kJ/mol die höchste Dissoziationsenthalpie aller Halogene. Ein weiterer Hinweis darauf ist die Temperatur, bei der 1 % aller Halogenmoleküle dissoziiert sind und die bei Chlor 975 °C, bei Brom 775 °C und Iod 575 °C beträgt. Auch Fluor hat mit 765 °C eine niedrigere Temperatur. Dass Chlor und nicht wie zu erwarten Fluor das Halogen mit der höchsten Dissoziationsenthalpie ist, liegt an der besonders kurzen Bindung des Fluors, bei der es zu Abstoßungen zwischen den freien Elektronenpaaren und damit zur Schwächung der Bindung kommt. Zwischen den weiter entfernten Chloratomen kommt es dagegen nicht zu einem solchen Effekt und daher trotz größerer Entfernung der Atome zu einer stärkeren Bindung. Chlor kristallisiert im orthorhombischen Kristallsystem mit den Gitterkonstanten a = 624 pm, b = 448 pm und c = 826 pm. Dabei sind die Chlor-Moleküle ebenso wie diejenigen von Iod und Brom in Schichten angeordnet. Jedes Atom eines Cl2-Moleküls ist dabei in einem Abstand von 334 pm schwach mit jeweils zwei weiteren Atomen anderer Moleküle assoziiert. Zwischen den Schichten sind die Abstände dagegen größer mit einem minimalen Abstand von 369 pm. Dieser Schichtaufbau bedingt die plättchenförmige Gestalt und die leichte Spaltbarkeit von Chlorkristallen. Die Löslichkeit ist in verschiedenen Lösungsmitteln unterschiedlich ausgeprägt. In Wasser ist es unter teilweiser Dissoziation mäßig löslich, in einem Liter Wasser lassen sich etwa 2,3 Liter Chlor lösen. Die entstandene Lösung wird als "Chlorwasser" bezeichnet. Dagegen löst es sich gut in flüssigen chlorhaltigen Verbindungen, etwa Dischwefeldichlorid, Siliciumtetrachlorid und organischen Chlorverbindungen wie Chloroform. Auch in einigen organischen Lösungsmitteln wie Benzol, Essigsäure und Dimethylformamid lösen sich größere Mengen Chlor. Chemische Eigenschaften. Chlor zählt neben Fluor zu den reaktivsten Elementen und reagiert mit fast allen Elementen. Keine direkte Reaktion findet lediglich mit Sauerstoff, Stickstoff und den Edelgasen statt. Viele Metalle, wie Mangan, Zink oder die Edelmetalle Gold, Silber und Platin reagieren allerdings erst bei erhöhten Temperaturen mit Chlor. Eine wichtige Rolle spielt mitunter die Anwesenheit von Wasser, so reagieren Kupfer und Eisen mit vollkommen trockenem Chlor erst bei Temperaturen oberhalb 200 °C, mit feuchtem Chlor dagegen schon bei deutlich niedrigeren Temperaturen. Besonders stark ist die Neigung von Chlor zur Reaktion mit Wasserstoff. Nach einer nötigen Initiierung durch Spaltung eines ersten Chlormoleküls, die beispielsweise durch kurzwelliges blaues Licht ausgelöst werden kann, reagieren die Elemente in einer explosionsartig verlaufenden Kettenreaktion, der sogenannten Chlorknallgasreaktion. Durch die starke Neigung, Chlorwasserstoff zu bilden, reagiert Chlor auch mit anderen Wasserstoff enthaltenden Verbindungen wie Ammoniak, Ethin, Schwefelwasserstoff oder Wasser. Chlor reagiert mit Alkanen über den Reaktionsmechanismus der radikalischen Substitution. Dabei bilden sich zunächst durch Hitze oder Bestrahlung einzelne Chlorradikale, die unter Bildung von Chlorwasserstoff die C-H-Bindung eines Alkans brechen können. Anschließend erfolgt eine Reaktion des entstandenen Radikals mit weiterem Chlor und eine weitere Kettenreaktion. Auf Grund der hohen Reaktivität ist Chlor bei der Reaktion mit Alkanen nur schwach regioselektiv, es kommt auch zu Mehrfachchlorierungen. Bei aromatischen Kohlenwasserstoffen ist ein radikalischer Reaktionsweg nicht möglich, eine Chlorierung erfolgt hier über die elektrophile aromatische Substitution unter Katalyse einer Lewis-Säure wie etwa Aluminiumchlorid. Isotope. Es sind insgesamt 23 Isotope und zwei weitere Kernisomere zwischen 28Cl und 51Cl bekannt. Von diesen sind zwei, die Isotope 35Cl und 37Cl stabil. Natürliches Chlor besteht zu 75,77 % aus 35Cl und zu 24,23 % aus 37Cl. Dieses typische Verhältnis ist stets in Massenspektren organischer und anorganischer Substanzen zu beobachten. Mit einer Halbwertszeit von 310.000 Jahren ist 36Cl das langlebigste der sonst innerhalb von Minuten oder noch kürzeren Zeiten zerfallenden instabilen Isotope, weshalb es zum Markieren verwendet wird. 36Cl entsteht in geringen Mengen durch Spallationsreaktionen von 40Ar und 36Ar mit kosmischer Strahlung in der Atmosphäre. Auch auf der Erdoberfläche kann 36Cl durch Neutronenadsorption, Reaktionen mit Myonen oder Spallation entstehen. Das Verhältnis von 36Cl zu 37Cl beträgt etwa 700 · 10−15:1. Durch die lange Halbwertszeit und konstante Atmosphärenkonzentration lässt sich die Konzentration an 36Cl zur Altersbestimmung für Grundwasser von bis zu einer Million Jahre nutzen. Die Konzentration an 36Cl war zwischen 1954 und 1963 durch im Meer stattfindende Kernwaffentests, bei denen im Meerwasser enthaltenes 35Cl Neutronenstrahlung absorbiert und zu 36Cl reagiert, erhöht. Seit einem Vertrag zum Verbot dieser Art Tests nahm die Konzentration in der Atmosphäre zwar stetig ab und erreichte ab etwa 1980 das natürliche Verhältnis, jedoch können im Meerwasser nach wie vor erhöhte Konzentrationen des Isotops gefunden werden. 38Cl ist ein kurzlebiges Isotop mit einer Halbwertszeit von 37 Minuten und kann zum Beispiel durch Neutronenadsorption aus in Meerwasser enthaltenem 37Cl entstehen. Verwendung. Chlor wird vor allem zur Herstellung anderer Chemikalien verwendet. Mit 33 % im Jahr 1997 ist dabei Vinylchlorid, die Ausgangssubstanz für die Herstellung des Kunststoffs Polyvinylchlorid, das wichtigste Produkt. Auch andere einfache chlororganische Verbindungen werden durch Reaktion von Chlor und entsprechenden Kohlenwasserstoffen hergestellt. Diese dienen vor allem als Zwischenprodukt, etwa für die Herstellung von Kunststoffen, Arzneistoffen oder Pestiziden. So wurden 1995 85 % aller Arzneistoffe unter Verwendung von Chlor hergestellt. Häufig wird das Chlor im Verlauf eines Herstellungsprozesses wieder abgespalten, um chlorfreie Endprodukte zu erhalten. Beispiele dafür sind die Herstellung von Glycerin über Allylchlorid und Epichlorhydrin oder das "Chlorhydrinverfahren" zur Herstellung von Propylenoxid. Anorganische Chlorverbindungen werden häufig über die Reaktion mit Chlor hergestellt. Technisch wichtig sind dabei beispielsweise die Synthese von Chlorwasserstoff in hoher Reinheit durch Reaktion von Chlor und Wasserstoff oder die Synthese von Titantetrachlorid. Dieses wird entweder über den Kroll-Prozess zu elementarem Titan weiterverarbeitet oder dient als Zwischenprodukt bei der Reinigung des Weißpigmentes Titan(IV)-oxid. Weitere wichtige Chloride, die durch Reaktion des Elements mit Chlor dargestellt werden, sind Aluminiumtrichlorid und Siliciumtetrachlorid. Wird Chlor in Wasser geleitet, disproportioniert es langsam unter Bildung von Hypochloriger Säure und Salzsäure. Erstere wirkt stark oxidierend und wirkt so bleichend und desinfizierend. Die bleichende Wirkung des Chlors wurde vor allem für die Produktion von weißem Papier ausgenutzt. Das Chlor ist in der Lage, die aromatischen Ringe des Lignins zu ersetzen oder zu oxidieren. Dadurch sind mögliche Chromophore zerstört und das Papier erscheint heller. Da jedoch bei der Chlorbleiche teilweise krebserzeugende chlororganische Verbindungen wie Polychlorierte Dibenzodioxine und Dibenzofurane oder Chlorphenole entstehen, wurde die Chlorbleiche häufig durch ungefährlichere Methoden wie der Bleiche mit Natriumdithionit ersetzt. Die desinfizierende Wirkung des bei der Reaktion von Chlor und Wasser entstandenem Hypochlorits wird bei der Wasseraufbereitung in der sogenannten Chlorung ausgenutzt. Neben Trinkwasser wird vor allem Schwimmbadwasser auf diese Weise von Bakterien befreit. Da bei der Reaktion mit anderen Bestandteilen des Wassers auch unerwünschte und teilweise giftige oder krebserregende Stoffe, etwa Trihalogenmethane, entstehen können, wird Chlor für die Desinfektion von Trinkwasser zunehmend durch Chlordioxid oder Ozon ersetzt. Auf Grund der Umweltschädlichkeit und Giftigkeit von Chlor und vieler chlorhaltiger Verbindungen wird gefordert und teilweise versucht, diese zu vermeiden und durch chlorfreie Verbindungen und Prozesse zu ersetzen. Auch das Recycling von chlorhaltigen Abfallstoffen ist eine Alternative, da so keine neuen derartigen Produkte hergestellt werden müssen. Das Verbrennen von chlororganischen Verbindungen, bei dem leicht giftige Verbrennungsprodukte entstehen können, kann so vermieden werden. Allerdings sprechen häufig höhere Preise und schlechtere Eigenschaften von Ersatzstoffen gegen den Einsatz von chlorfreien Produkten und Prozessen, und es wird weiterhin Chlor in großen Mengen in der Industrie eingesetzt. Biologische Bedeutung. Elementares Chlor wirkt oxidierend und kann mit pflanzlichem und tierischem Gewebe reagieren. Es ist dementsprechend toxisch und hat keine biologische Bedeutung. Ebenfalls stark oxidierend wirkend und damit ohne biologische Funktionen sind Chlorverbindungen in hohen Oxidationsstufen wie etwa Chloroxide und Chlorsauerstoffsäuren. Von biologischer Bedeutung ist das Element in Form des Chlorid-Anions. Chlorid ist essentiell und eines der häufigeren Bestandteile des Körpers. So enthält ein durchschnittlicher menschlicher Körper von etwa 70 kg 95 g Chlorid. Der größte Teil des Chlorids befindet sich als Gegenion zu Natrium gelöst im Extrazellularraum, so besitzt Blutplasma eine Chloridkonzentration von 100–107 mmol/l. Chlorid beeinflusst maßgeblich den osmotischen Druck und damit den Wasserhaushalt des Körpers. Weiterhin dient Chlorid zum Ladungsausgleich bei Austausch von Ionen in Zellen hinein und aus diesen heraus. Dies spielt beispielsweise beim Transport von Kohlenstoffdioxid als Hydrogencarbonat eine Rolle. Für diesen Ausgleich und die Wiederherstellung des Ruhemembranpotentials dienen Chloridkanäle, durch die Chlorid-Ionen die Zellmembranen passieren können. Eine besonders hohe Chloridkonzentration enthält der Magensaft, da dort neben den Chloridionen überwiegend Oxonium-Ionen vorliegen, ist die Magensäure eine Salzsäure mit einer Konzentration von etwa 0,1 mol/l. Aufgenommen wird das Chlorid überwiegend als Natriumchlorid im Speisesalz. Die empfohlene tägliche Menge für die Aufnahme von Chlorid liegt bei 3,2 g für Erwachsene und 0,5 g für Säuglinge. Nachweis. Nachweisreaktion für Chlor durch Einleiten in NaI-Lösung sowie NaBr-Lösung jeweils mit Hexan Chlor besitzt eine typische grün-gelbe Farbe und ebenso einen charakteristischen Geruch, diese lassen jedoch keine genauere Bestimmung zu. Für den Nachweis von Chlor wird meist die oxidierende Wirkung ausgenutzt. So kann Chlor Iodide und Bromide zu den Elementen oxidieren, wodurch sich eine bromidhaltige Lösung braun beziehungsweise eine iodidhaltige Lösung violett färbt. Damit diese Farbe besser zu sehen ist, wird das Brom oder Iod mit Hexan extrahiert. Auch Reaktionen mit anderen Stoffen, etwa die Entfärbung von Methylorange kann als Nachweis für Chlor genutzt werden. Diese sind jedoch nicht spezifisch, da auch andere Oxidationsmittel in der Lage sind, in gleicher Weise zu reagieren. Einen für Chlor spezifischen Nachweis, der etwa in Prüfröhrchen für Gase angewendet wird, liefert die Reaktion mit Tolidin. Dabei bildet sich ein gelber Farbstoff, der durch kolorimetrische Verfahren nachweisbar ist. Chloride können in wässrigen Lösungen über die Reaktion mit Silberionen und die Bildung des schwerlöslichen Silberchlorids nachgewiesen werden. Dieses liegt als weißer Niederschlag vor und unterscheidet sich damit von den ebenfalls schwerlöslichen Silberbromid und Silberiodid, die eine gelbe Farbe besitzen. Über die Argentometrie lassen sich dadurch auch quantitative Messungen von Chloridgehalten durchführen. Sicherheitshinweise. Chlor wirkt als Gas vorwiegend auf die Atemwege. Bei der Inhalation reagiert es mit der Feuchtigkeit der Schleimhäute unter Bildung von hypochloriger Säure und Chlorwasserstoffsäure. Dadurch kommt es zu einer starken Reizung der Schleimhäute, bei längerer Einwirkung auch zu Bluthusten und Atemnot, sowie Erstickungserscheinungen. Bei höheren Konzentrationen kommt es zur Bildung von Lungenödemen und starken Lungenschäden. Ein Gehalt von 0,5–1 % Chlor in der Atemluft wirkt tödlich durch Atemstillstand. Die letalen Dosen über eine Stunde (LC50) liegen bei 293 ppm für Ratten und 137 ppm für Mäuse. Flüssiges Chlor wirkt stark ätzend auf die Haut. Bei chronischer Einwirkung von Chlor kann es zu chronischer Bronchitis, bei höheren Konzentrationen auch zu Herz- und Kreislaufschäden, sowie Magenbeschwerden kommen. Chlor ist nicht brennbar (Chlordioxid entsteht auf anderem Weg), kann jedoch mit vielen Stoffen stark reagieren. So besteht beim Kontakt von Chlor mit Wasserstoff, Kohlenwasserstoffen, Ammoniak, Aminen, Diethylether und einigen anderen Stoffen Explosionsgefahr. Eine spanische Studie kam zu dem Ergebnis, dass die durch die Chlorung des Wassers und die Reaktion mit organischen Verunreinigungen (Urin, Schweiß, Hautschuppen) entstehenden Desinfektionsnebenprodukte das Risiko für Blasenkrebs erhöhen. Dieses Risiko lässt sich durch angemessene hygienische Verhaltensweise der Badegäste (vor dem Betreten des Beckens duschen, nicht ins Becken urinieren) deutlich verringern. Verbindungen. Chlor bildet Verbindungen in verschiedenen Oxidationsstufen von −1 bis +7. Die stabilste und häufigste Oxidationsstufe ist dabei −1, die höheren werden nur in Verbindungen mit den elektronegativeren Elementen Sauerstoff und Fluor gebildet. Dabei sind die ungeraden Oxidationsstufen +1, +3, +5 und +7 stabiler als die geraden. Einen Überblick über die Chlorverbindungen bietet die Chlorwasserstoff und Chloride. Anorganische Verbindungen, in denen das Chlor in der Oxidationsstufe −1 und damit als Anion vorliegt, werden Chloride genannt. Diese leiten sich von der gasförmigen Wasserstoffverbindung Chlorwasserstoff (HCl) ab. Diese ist eine starke Säure und gibt in wässrigen Lösungen leicht das Proton ab. Diese wässrige Lösung wird als Salzsäure bezeichnet. Salzsäure ist eine der technisch wichtigsten Säuren und wird in großen Mengen verwendet. Chloride sind in der Regel gut wasserlöslich, Ausnahmen sind Silberchlorid, Quecksilber(I)-chlorid und Blei(II)-chlorid. Besonders bekannt sind die Chloride der Alkalimetalle, vor allem das Natriumchlorid. Dieses ist der Hauptbestandteil des Speisesalzes und damit wichtiger Bestandteil der Ernährung. Gleichzeitig ist das in großen Mengen als Halit vorkommende Natriumchlorid Ausgangsverbindung für die Gewinnung der meisten anderen Chlorverbindungen. Auch Kaliumchlorid wird in großen Mengen, vor allem als Dünger und zur Gewinnung anderer Kaliumverbindungen, verwendet. Chloroxide. Es ist eine größere Anzahl Verbindungen von Chlor und Sauerstoff bekannt. Diese sind nach den allgemeinen Formeln ClO"x" ("x" = 1–4) und Cl2O"x" ("x" = 1–7) aufgebaut. Chloroxide sind sehr reaktiv und zerfallen explosionsartig in die Elemente. Von technischer Bedeutung sind nur zwei der Chloroxide, Dichloroxid (Cl2O) und Chlordioxid (ClO2). Letztes ist unter Normalbedingungen gasförmig und eine der wenigen radikalisch aufgebauten Verbindungen. Beim Verfestigen dimerisiert es und ändert dabei die Magnetisierung von Para- zu Diamagnetismus. Chlorsauerstoffsäuren. Neben den Chloroxiden bilden Chlor und Sauerstoff – analog zu den Halogenen Brom und Iod – auch mehrere Säuren, bei denen ein Chloratom von einem bis vier Sauerstoffatomen umgeben sind. Diese zu den Halogensauerstoffsäuren zählenden Verbindungen sind die Hypochlorige Säure, die Chlorige Säure, die Chlorsäure und die Perchlorsäure. Die einzige dieser Säuren, die als Reinstoff stabil ist, ist die Perchlorsäure, die anderen sind nur in wässriger Lösung oder in Form ihrer Salze bekannt. Der pKs-Wert dieser Säuren sinkt mit der zunehmenden Anzahl an Sauerstoffatomen im Molekül. Während die Hypochlorige Säure eine nur schwache Säure ist, zählt Perchlorsäure zu den Supersäuren, den stärksten bekannten Säuren. Interhalogenverbindungen. Chlor bildet vorwiegend mit Fluor, zum Teil auch mit den anderen Halogenen eine Reihe von Interhalogenverbindungen. Chlorfluoride wie Chlorfluorid und Chlortrifluorid wirken stark oxidierend und fluorierend. Während Chlor in den Fluor-Chlor-Verbindungen als elektropositiveres Element in Oxidationsstufen bis +5 im Chlorpentafluorid vorliegt, ist es in Verbindungen mit Brom und Iod der elektronegativere Bestandteil. Mit diesen Elementen sind nur drei Verbindungen, Bromchlorid, Iodchlorid und Iodtrichlorid bekannt. Organische Chlorverbindungen. Eine Vielzahl von organischen Chlorverbindungen (auch "Organochlorverbindungen") wird synthetisch hergestellt. Wichtig sind in der Gruppe der Halogenkohlenwasserstoffe die Chloralkane, die Chloralkene sowie die Chloraromaten. Eingesetzt werden sie unter anderem als Lösungsmittel, Kältemittel, Hydrauliköle, Pflanzenschutzmittel oder Arzneistoffe. Zu den Organochlorverbindungen gehören auch einige stark giftige, persistente und bioakkumulative Substanzen, wie etwa die polychlorierten Dibenzodioxine und Dibenzofurane. Die ersten zwölf in die der Schadstoffkontrolle dienenden Stockholmer Konvention aufgenommenen Verbindungen beziehungsweise Stoffgruppen, das sogenannte Dreckige Dutzend, sind ausnahmslos organische Chlorverbindungen. Außerdem gibt es in der Biosphäre eine Vielzahl von natürlichen organischen Chlorverbindungen, die von Organismen, wie z. B. Bodenbakterien, Schimmelpilze, Seetang und Flechten, synthetisiert werden können. Zu den Verbindungen gehören biogene Halogenkohlenwasserstoffe, wie Methylchlorid, das zu 70 % aus marinen Organismen stammt, und chlorierte Aromate, aber auch chlorhaltige Aminosäuren, wie L-2-Amino-4-chlor-4-pentensäure, die in bestimmten Blätterpilzen vorkommt. Auffällig hoch ist auch der Anteil von chlorierten Huminstoffen in bestimmten Mooren. Die Synthese dieser Verbindungen erfolgt über Haloperoxidasen in Gegenwart von Wasserstoffperoxid über Direktchlorierung mit enzymatisch freigesetztem Chlor oder Hypochlorit, über Chlorradikale oder durch nucleophile Ringöffnung von Epoxiden mit Chloridionen. Da Chloridionen in der Natur häufig vorkommen, sind diese ausschließlich der Chlorlieferant für die biogenen organischen Chlorverbindungen. Der Anteil dieser Verbindungen in der Umwelt im Vergleich zu dem industriell verursachten Anteil von organischen Chlorverbindungen ist nicht unerheblich. Curium. Curium ist ein künstlich erzeugtes chemisches Element mit dem Elementsymbol Cm und der Ordnungszahl 96. Im Periodensystem steht es in der Gruppe der Actinoide (7. Periode, f-Block) und zählt zu den Transuranen. Curium wurde nach den Forschern Marie Curie und Pierre Curie benannt. Bei Curium handelt es sich um ein radioaktives, silbrig-weißes Metall großer Härte. Es wird in Kernreaktoren gebildet, eine Tonne abgebrannten Kernbrennstoffs enthält durchschnittlich etwa 20 g. Curium wurde im Sommer 1944 erstmals aus dem leichteren Element Plutonium erzeugt, die Entdeckung wurde zunächst nicht veröffentlicht. Erst in einer amerikanischen Radiosendung für Kinder wurde durch den Entdecker Glenn T. Seaborg als Gast der Sendung die Existenz der Öffentlichkeit preisgegeben, indem er die Frage eines jungen Zuhörers bejahte, ob neue Elemente entdeckt worden seien. Curium ist ein starker α-Strahler; es wird gelegentlich aufgrund der sehr großen Wärmeentwicklung während des Zerfalls in Radionuklidbatterien eingesetzt. Außerdem wurde es zur Erzeugung von 238Pu für gammastrahlungsarme Radionuklidbatterien, beispielsweise in Herzschrittmachern, verwendet. Das Element kann weiterhin als Ausgangsmaterial zur Erzeugung höherer Transurane und Transactinoide eingesetzt werden. Es dient auch als α-Strahlenquelle in Röntgenspektrometern, mit denen u. a. die Mars-Rover Sojourner, Spirit und Opportunity auf der Oberfläche des Planeten Mars Gestein chemisch analysierten und der Lander Philae der Raumsonde Rosetta sollte damit die Oberfläche des Kometen Tschurjumow-Gerassimenko analysieren. Geschichte. Curium wurde im Sommer 1944 von Glenn T. Seaborg und seinen Mitarbeitern Ralph A. James und Albert Ghiorso entdeckt. In ihren Versuchsreihen benutzten sie ein 60-Inch-Cyclotron an der Universität von Kalifornien in Berkeley. Nach Neptunium und Plutonium war es das dritte seit dem Jahr 1940 entdeckte Transuran. Seine Erzeugung gelang noch vor der des in der Ordnungszahl um einen Platz tiefer stehenden Elements Americium. Zur Erzeugung des neuen Elements wurden meistens die Oxide der Ausgangselemente verwendet. Dazu wurde zunächst Plutoniumnitratlösung (mit dem Isotop 239Pu) auf eine Platinfolie von etwa 0,5 cm2 aufgetragen, die Lösung danach eingedampft und der Rückstand dann zum Oxid (PuO2) geglüht. Nach dem Beschuss im Cyclotron wurde die Beschichtung mittels Salpetersäure gelöst und anschließend wieder mit einer konzentrierten wässrigen Ammoniak-Lösung als Hydroxid ausgefällt; der Rückstand wurde in Perchlorsäure gelöst. Die weitere Trennung erfolgte mit Ionenaustauschern. In diesen Versuchsreihen entstanden zwei verschiedene Isotope: 242Cm und 240Cm. Die Identifikation gelang zweifelsfrei anhand der charakteristischen Energie des beim Zerfall ausgesandten α-Teilchens. Die Halbwertszeit dieses α-Zerfalls wurde erstmals auf 150 Tage bestimmt (162,8 d). Die Halbwertszeit des anschließenden α-Zerfalls wurde erstmals auf 26,7 Tage bestimmt (27 d). Auf Grund des andauernden Zweiten Weltkriegs wurde die Entdeckung des neuen Elements zunächst nicht veröffentlicht. Die Öffentlichkeit erfuhr erst auf äußerst kuriose Weise von dessen Existenz: In der amerikanischen Radiosendung "Quiz Kids" vom 11. November 1945 fragte einer der jungen Zuhörer Glenn Seaborg, der als Gast der Sendung auftrat, ob während des Zweiten Weltkriegs im Zuge der Erforschung von Nuklearwaffen neue Elemente entdeckt worden seien. Seaborg bejahte die Frage und enthüllte damit die Existenz des Elements gleichzeitig mit der des nächstniedrigeren Elements, Americium. Dies geschah noch vor der offiziellen Bekanntmachung bei einem Symposium der American Chemical Society. Die Entdeckung von Curium (242Cm, 240Cm), ihre Produktion und die ihrer Verbindungen wurden später unter dem Namen "Element 96 and compositions thereof" patentiert, wobei als Erfinder nur Glenn T. Seaborg angegeben wurde. Der Name Curium wurde in Analogie zu Gadolinium gewählt, dem Seltenerdmetall, das im Periodensystem genau über Curium steht. Die Namenswahl ehrte das Ehepaar Marie und Pierre Curie, dessen wissenschaftliche Arbeit für die Erforschung der Radioaktivität bahnbrechend gewesen war. Es folgte damit der Namensgebung von "Gadolinium", das nach dem berühmten Erforscher der Seltenen Erden, Johan Gadolin benannt wurde: "As the name for the element of atomic number 96 we should like to propose "curium", with symbol Cm. The evidence indicates that element 96 contains seven 5f electrons and is thus analogous to the element gadolinium with its seven 4f electrons in the regular rare earth series. On this basis element 96 is named after the Curies in a manner analogous to the naming of gadolinium, in which the chemist Gadolin was honored." Die erste wägbare Menge Curium konnte 1947 in Form des Hydroxids von Louis B. Werner und Isadore Perlman hergestellt werden. Hierbei handelte es sich um 40 μg 242Cm, das durch Neutronenbeschuss von 241Am entstand. In elementarer Form wurde es erst 1951 durch Reduktion von Curium(III)-fluorid mit Barium dargestellt. Vorkommen. Das langlebigste Isotop 247Cm besitzt eine Halbwertszeit von 15,6 Millionen Jahren. Aus diesem Grund ist das gesamte primordiale Curium, das die Erde bei ihrer Entstehung enthielt, mittlerweile zerfallen. Curium wird zu Forschungszwecken in kleinen Mengen künstlich hergestellt. Weiterhin fällt es in geringen Mengen in abgebrannten Kernbrennstoffen an. In der Umwelt vorkommendes Curium stammt größtenteils aus atmosphärischen Kernwaffentests bis 1980. Lokal gibt es höhere Vorkommen, bedingt durch nukleare Unfälle und andere Kernwaffentests. Zum natürlichen Hintergrund der Erde trägt Curium allerdings kaum bei. Über die Erstentdeckung von Einsteinium und Fermium in den Überresten der ersten amerikanischen Wasserstoffbombe, Ivy Mike, am 1. November 1952 auf dem Eniwetok-Atoll hinaus wurden neben Plutonium und Americium auch Isotope von Curium, Berkelium und Californium gefunden: vor allem die Isotope 245Cm und 246Cm, in kleineren Mengen 247Cm und 248Cm, in Spuren 249Cm. Aus Gründen der militärischen Geheimhaltung wurden die Ergebnisse erst später im Jahr 1956 publiziert. Gewinnung von Curiumisotopen. Curium fällt in geringen Mengen in Kernreaktoren an. Es steht heute weltweit lediglich in Mengen von wenigen Kilogramm zur Verfügung, worauf sein sehr hoher Preis von etwa 160 US-Dollar pro Mikrogramm 244Cm bzw. 248Cm beruht. In Kernreaktoren wird es aus 238U in einer Reihe von Kernreaktionen gebildet. Ein wichtiger Schritt ist hierbei die (n,γ)- oder Neutroneneinfangsreaktion, bei welcher das gebildete angeregte Tochternuklid durch Aussendung eines γ-Quants in den Grundzustand übergeht. Die hierzu benötigten freien Neutronen entstehen durch Kernspaltung anderer Kerne im Reaktor. In diesem kernchemischen Prozess wird zunächst durch eine (n,γ)-Reaktion gefolgt von zwei β−-Zerfällen das Plutoniumisotop 239Pu gebildet. In Brutreaktoren wird dieser Prozess zum Erbrüten neuen Spaltmaterials genutzt. Zwei weitere (n,γ)-Reaktionen mit anschließendem β−-Zerfall liefern das Americiumisotop 241Am. Dieses ergibt nach einer weiteren (n,γ)-Reaktion mit folgendem β-Zerfall 242Cm. Zu Forschungszwecken kann Curium auf effizienterem Wege gezielt aus Plutonium gewonnen werden, das im großen Maßstab aus abgebranntem Kernbrennstoff erhältlich ist. Dieses wird hierzu mit einer Neutronenquelle, die einen hohen Neutronenfluss besitzt, bestrahlt. Die hierbei möglichen Neutronenflüsse sind um ein vielfaches höher als in einem Kernreaktor, so dass hier ein anderer Reaktionspfad als der oben dargestellte überwiegt. Aus 239Pu wird durch vier aufeinander folgende (n,γ)-Reaktionen 243Pu gebildet, welches durch β-Zerfall mit einer Halbwertszeit von 4,96 Stunden zu dem Americiumisotop 243Am zerfällt. Das durch eine weitere (n,γ)-Reaktion gebildete 244Am zerfällt wiederum durch β-Zerfall mit einer Halbwertszeit von 10,1 Stunden letztlich zu 244Cm. Diese Reaktion findet auch in Kernkraftwerken im Kernbrennstoff statt, so dass 244Cm auch bei der Wiederaufarbeitung abgebrannter Kernbrennstoffe anfällt und auf diesem Wege gewonnen werden kann. Aus 244Cm entstehen durch weitere (n,γ)-Reaktionen im Reaktor in jeweils kleiner werdenden Mengen die nächst schwereren Isotope. In der Forschung sind besonders die Isotope 247Cm und 248Cm wegen ihrer langen Halbwertszeiten beliebt. Die Entstehung von 250Cm auf diesem Wege ist jedoch sehr unwahrscheinlich, da 249Cm nur eine kurze Halbwertszeit besitzt und so weitere Neutroneneinfänge in der kurzen Zeit unwahrscheinlich sind. Dieses Isotop ist jedoch aus dem α-Zerfall von 254Cf zugänglich. Problematisch ist hierbei jedoch, dass 254Cf hauptsächlich durch Spontanspaltung und nur in geringem Maße durch α-Zerfall zerfällt. 249Cm zerfällt durch β−-Zerfall zu Berkelium 249Bk. Durch Kaskaden von (n,γ)-Reaktionen und β-Zerfällen hergestelltes Curium besteht jedoch immer aus einem Gemisch verschiedener Isotope. Eine Auftrennung ist daher mit erheblichem Aufwand verbunden. Zu Forschungszwecken wird auf Grund seiner langen Halbwertszeit bevorzugt 248Cm verwendet. Die effizienteste Methode zur Darstellung dieses Isotops ist durch den α-Zerfall von Californium 252Cf gegeben, das auf Grund seiner langen Halbwertszeit in größeren Mengen zugänglich ist. Auf diesem Wege gewonnenes 248Cm besitzt eine Isotopenreinheit von 97 %. Etwa 35–50 mg 248Cm werden auf diese Art derzeit pro Jahr erhalten. Das lediglich zur Isotopenforschung interessante reine 245Cm kann aus dem α-Zerfall von Californium 249Cf erhalten werden, welches in sehr geringen Mengen als Tochternuklid des β−-Zerfalls des Berkeliumisotops 249Bk erhalten werden kann. Darstellung elementaren Curiums. Metallisches Curium kann durch Reduktion aus seinen Verbindungen erhalten werden. Zuerst wurde Curium(III)-fluorid zur Reduktion verwendet. Dieses wird hierzu in wasser- und sauerstofffreier Umgebung in Reaktionsapparaturen aus Tantal und Wolfram mit elementarem Barium oder Lithium zur Reaktion gebracht. Auch die Reduktion von Curium(IV)-oxid mittels einer Magnesium-Zink-Legierung in einer Schmelze aus Magnesiumchlorid und Magnesiumfluorid ergibt metallisches Curium. Eigenschaften. Laserinduzierte orange-farbene Fluoreszenz von Cm3+-Ionen. Im Periodensystem steht das Curium mit der Ordnungszahl 96 in der Reihe der Actinoide, sein Vorgänger ist das Americium, das nachfolgende Element ist das Berkelium. Sein Analogon in der Reihe der Lanthanoiden ist das Gadolinium. Physikalische Eigenschaften. Bei Curium handelt es sich um ein künstliches, radioaktives Metall. Dieses ist hart und hat ein silbrig-weißes Aussehen ähnlich dem Gadolinium, seinem Lanthanoidanalogon. Auch in seinen weiteren physikalischen und chemischen Eigenschaften ähnelt es diesem stark. Sein Schmelzpunkt von 1340 °C liegt deutlich höher als der der vorhergehenden Transurane Neptunium (637 °C), Plutonium (639 °C) und Americium (1173 °C). Im Vergleich dazu schmilzt Gadolinium bei 1312 °C. Der Siedepunkt von Curium liegt bei 3110 °C. Von Curium existiert bei Standardbedingungen mit α-Cm nur eine bekannte Modifikation. Diese kristallisiert im hexagonalen Kristallsystem in der mit den Gitterparametern "a" = 365 pm und "c" = 1182 pm sowie vier Formeleinheiten pro Elementarzelle. Die Kristallstruktur besteht aus einer doppelt-hexagonal dichtesten Kugelpackung mit der Schichtfolge ABAC und ist damit isotyp zur Struktur von α-La. Oberhalb eines Drucks von 23 GPa geht α-Cm in β-Cm über. Die β-Modifikation kristallisiert im kubischen Kristallsystem in der Raumgruppe  mit dem Gitterparameter "a" = 493 pm, was einem kubisch flächenzentrierten Gitter "(fcc)" beziehungsweise einer kubisch dichtesten Kugelpackung mit der Stapelfolge ABC entspricht. Die Fluoreszenz angeregter Cm(III)-Ionen ist ausreichend langlebig, um diese zur zeitaufgelösten Laserfluoreszenzspektroskopie zu nutzen. Die lange Fluoreszenz kann auf die große Energielücke zwischen dem Grundterm 8S7/2 und dem ersten angeregten Zustand 6D7/2 zurückgeführt werden. Dies erlaubt die gezielte Detektion von Curiumverbindungen unter weitgehender Ausblendung störender kurzlebiger Fluoreszenzprozesse durch weitere Metallionen und organische Substanzen. Chemische Eigenschaften. Die stabilste Oxidationsstufe für Curium ist +3. Gelegentlich ist es auch in der Oxidationsstufe +4 zu finden. Sein chemisches Verhalten ähnelt sehr dem Americium und vielen Lanthanoiden. In verdünnten wässrigen Lösungen ist das Cm3+-Ion farblos, das Cm4+-Ion blassgelb. In höher konzentrierten Lösungen ist das Cm3+-Ion jedoch ebenfalls blassgelb. Curiumionen gehören zu den harten Lewis-Säuren, weshalb sie die stabilsten Komplexe mit harten Basen bilden. Die Komplexbindung besitzt hierbei nur einen sehr geringen kovalenten Anteil und basiert hauptsächlich auf ionischer Wechselwirkung. Curium unterscheidet sich in seinem Komplexierungsverhalten von den früher bekannten Actinoiden wie Thorium und Uran und ähnelt auch hier stark den Lanthanoiden. In Komplexen bevorzugt es eine neunfache Koordination mit dreifach überkappter trigonal-prismatischer Geometrie. Biologische Aspekte. Curium besitzt keine biologische Bedeutung. Die Biosorption von Cm3+ durch Bakterien und Archäen wurde untersucht. Spaltbarkeit. Die ungeradzahligen Curiumisotope, insbesondere 243Cm, 245Cm und 247Cm eignen sich aufgrund der hohen Spaltquerschnitte prinzipiell auch als Kernbrennstoffe in einem thermischen Kernreaktor. Generell können alle Isotope zwischen 242Cm und 248Cm sowie 250Cm eine Kettenreaktion aufrechterhalten, wenn auch zum Teil nur mit schneller Spaltung. In einem schnellen Reaktor könnte also jede beliebige Mischung der genannten Isotope als Brennstoff verwendet werden. Der Vorteil liegt dann darin, dass bei der Gewinnung aus abgebranntem Kernbrennstoff keine Isotopentrennung durchgeführt werden müsste, sondern lediglich eine chemische Separation des Curiums von den anderen Stoffen. Mit Reflektor liegen die kritischen Massen der ungeradzahligen Isotope bei etwa 3–4 kg. In wässriger Lösung mit Reflektor lässt sich die kritische Masse für 245Cm bis auf 59 g reduzieren (243Cm: 155 g; 247Cm: 1,55 kg); diese Werte sind aufgrund von Unsicherheiten der für die Berechnung relevanten physikalischen Daten nur auf etwa 15 % genau, dementsprechend finden sich in unterschiedlichen Quellen teils stark schwankende Angaben. Aufgrund der geringen Verfügbarkeit und des hohen Preises wird Curium aber nicht als Kernbrennstoff eingesetzt und ist daher im Atomgesetz in Deutschland auch nicht als solcher klassifiziert. Die ungeradzahligen Curiumisotope, hier wiederum insbesondere 245Cm und 247Cm, könnten ebenso wie für den Reaktorbetrieb auch zum Bau von Kernwaffen eingesetzt werden. Bomben aus 243Cm wären aber aufgrund der geringen Halbwertszeit des Isotops mit einem erheblichen Wartungsaufwand verbunden. Außerdem müsste 243Cm als α-Strahler durch die beim radioaktiven Zerfall freiwerdende Energie glühend heiß sein, was die Konstruktion einer Bombe sehr erschweren dürfte. Da die kritischen Massen zum Teil sehr klein sind, ließen sich so vergleichsweise kleine Bomben konstruieren. Bisher sind allerdings keine Aktivitäten dieser Art publik geworden, was sich ebenfalls auf die geringe Verfügbarkeit zurückführen lässt. Isotope. Von Curium existieren nur Radionuklide und keine stabilen Isotope. Insgesamt sind 20 Isotope und 7 Kernisomere des Elements zwischen 233Cm und 252Cm bekannt. Die längsten Halbwertszeiten haben 247Cm mit 15,6 Mio. Jahren und 248Cm mit 348.000 Jahren. Daneben haben noch die Isotope 245Cm mit 8500, 250Cm mit 8300 und 246Cm mit 4760 Jahren lange Halbwertszeiten. 250Cm ist dabei eine Besonderheit, da sein radioaktiver Zerfall zum überwiegenden Teil (etwa 86 %) in spontaner Spaltung besteht. Die am häufigsten technisch eingesetzten Curiumisotope sind 242Cm mit 162,8 Tagen und 244Cm mit 18,1 Jahren Halbwertszeit. Die Wirkungsquerschnitte für induzierte Spaltung durch ein thermisches Neutron betragen: für 242Cm etwa 5 b, 243Cm 620 b, 244Cm 1,1 b, 245Cm 2100 b, 246Cm 0,16 b, 247Cm 82 b, 248Cm 0,36 b. Dies entspricht der Regel, nach der meist die Transuran-Nuklide mit ungerader Neutronenzahl "thermisch leicht spaltbar" sind. "→ Liste der Curiumisotope" Radionuklidbatterien. Da die beiden am häufigsten erbrüteten Isotope, 242Cm und 244Cm, nur kurze Halbwertszeiten (162,8 Tage bzw. 18,1 Jahre) und Alphaenergien von etwa 6 MeV haben, zeigt es eine viel stärkere Aktivität als etwa das in der natürlichen Uran-Radium-Zerfallsreihe erzeugte 226Ra. Aufgrund dieser Radioaktivität gibt es sehr große Wärmemengen ab; 244Cm emittiert 3 Watt/g und 242Cm sogar 120 Watt/g. Diese Curiumisotope können aufgrund der extremen Wärmeentwicklung in Form von Curium(III)-oxid (Cm2O3) in Radionuklidbatterien zur Versorgung mit Elektrischer Energie z. B. in Raumsonden eingesetzt werden. Dafür wurde vor allem die Verwendung von 244Cm untersucht. Als α-Strahler benötigt es eine wesentlich dünnere Abschirmung als die Betastrahler, jedoch ist seine Spontanspaltungsrate und damit die Neutronen- und Gammastrahlung höher als die von 238Pu. Es unterlag daher wegen der benötigten dicken Abschirmung und starken Neutronenstrahlung sowie seiner kürzeren Halbwertszeit (18,1 Jahre) dem 238Pu mit 87,7 Jahren Halbwertszeit. 242Cm wurde auch eingesetzt, um 238Pu für Radionuklidbatterien in Herzschrittmachern zu erzeugen. Im Reaktor erbrütetes 238Pu wird durch die (n,2n)-Reaktion von 237Np immer mit 236Pu verunreinigt, in dessen Zerfallsreihe der starke Gammastrahler 208Tl vorkommt. Ähnliches gilt auch für aus Uran unter Deuteronenbeschuss gewonnene 238Pu. Die anderen gewöhnlicherweise im Reaktor in relevanten Mengen erbrüteten Curium-Isotope führen in ihren Zerfallsreihen schnell auf langlebige Isotope, deren Strahlung für die Konstruktion von Herzschrittmachern dann nicht mehr relevant ist. Der APXS-Typ von Spirit und Opportunity. Röntgenspektrometer. 244Cm dient als α-Strahlenquelle in den vom Max-Planck-Institut für Chemie in Mainz entwickelten α-Partikel-Röntgenspektrometern (APXS), mit denen die Mars-Rover Sojourner, Spirit und Opportunity auf dem Planeten Mars Gestein chemisch analysierten. Auch der Lander Philae der Raumsonde Rosetta ist mit einem APXS ausgestattet, um die Zusammensetzung des Kometen Tschurjumow-Gerassimenko zu analysieren. Außerdem hatten bereits die Mondsonden Surveyor 5–7 Alphaspektrometer an Bord. Diese arbeiteten jedoch mit 242Cm und maßen die von den α-Teilchen aus dem Mondboden herausgeschlagenen Protonen und zurückgeworfene α-Teilchen. Herstellung anderer Elemente. Weiterhin ist Curium Ausgangsmaterial zur Erzeugung höherer Transurane und Transactinoide. So führt zum Beispiel der Beschuss von 248Cm mit Sauerstoff (18O) beziehungsweise Magnesiumkernen (26Mg) zu den Elementen Seaborgium 265Sg beziehungsweise Hassium 269Hs und 270Hs. Sicherheitshinweise. Einstufungen nach der Gefahrstoffverordnung liegen nicht vor, weil diese nur die chemische Gefährlichkeit umfassen, die eine völlig untergeordnete Rolle gegenüber den auf der Radioaktivität beruhenden Gefahren spielen. Auch Letzteres gilt nur, wenn es sich um eine dafür relevante Stoffmenge handelt. Da von Curium nur radioaktive Isotope existieren, darf es selbst sowie seine Verbindungen nur in geeigneten Laboratorien unter speziellen Vorkehrungen gehandhabt werden. Die meisten gängigen Curiumisotope sind α-Strahler, weshalb eine Inkorporation unbedingt vermieden werden muss. Auch zerfällt ein Großteil der Isotope zu einem gewissen Anteil unter Spontanspaltung. Das breite Spektrum der hieraus resultierenden meist ebenfalls radioaktiven Tochternuklide stellt ein weiteres Risiko dar, das bei der Wahl der Sicherheitsvorkehrungen berücksichtigt werden muss. Wirkung im Körper. Wird Curium mit der Nahrung aufgenommen, so wird es größtenteils innerhalb einiger Tage wieder ausgeschieden und lediglich 0,05 % werden in den Blutkreislauf aufgenommen. Von hier werden etwa 45 % in der Leber deponiert, weitere 45 % werden in die Knochensubstanz eingebaut. Die verbleibenden 10 % werden ausgeschieden. Im Knochen lagert sich Curium insbesondere an der Innenseite der Grenzflächen zum Knochenmark an. Die weitere Verbreitung in die Kortikalis findet nur langsam statt. Bei Inhalation wird Curium deutlich besser in den Körper aufgenommen, weshalb diese Art der Inkorporation bei der Arbeit mit Curium das größte Risiko darstellt. Die maximal zulässige Gesamtbelastung des menschlichen Körpers durch 244Cm (in löslicher Form) beträgt 0,3 µCi. In Tierversuchen mit Ratten wurde nach einer intravenösen Injektion von 242Cm und 244Cm ein erhöhtes Auftreten von Knochentumoren beobachtet, deren Auftreten als Hauptgefahr bei der Inkorporation von Curium durch den Menschen betrachtet wird. Inhalation der Isotope führte zu Lungen- und Leberkrebs. Kernreaktor-Abfallproblematik. In wirtschaftlich sinnvoll (d. h. mit langer Verweildauer des Brennstoffs) genutzten Kernreaktoren entstehen physikalisch unvermeidlich Curiumisotope durch (n,γ)-Kernreaktionen mit nachfolgendem β−-Zerfall (siehe auch oben unter Gewinnung von Curiumisotopen). Eine Tonne abgebrannten Kernbrennstoffs enthält durchschnittlich etwa 20 g verschiedener Curiumisotope. Darunter befinden sich auch die α-Strahler mit den Massenzahlen 245–248, die auf Grund ihrer relativ langen Halbwertszeiten in der Endlagerung unerwünscht sind und deshalb zum Transuranabfall zählen. Eine Verminderung der Langzeitradiotoxizität in nuklearen Endlagern wäre durch Abtrennung langlebiger Isotope aus abgebrannten Kernbrennstoffen möglich. Zur Beseitigung des Curiums wird derzeit die Partitioning-&-Transmutation-Strategie verfolgt. Geplant ist hierbei ein dreistufiger Prozess, in welchem der Kernbrennstoff aufgetrennt, in Gruppen aufgearbeitet und endgelagert werden soll. Im Rahmen dieses Prozesses sollen abgetrennte Curiumisotope durch Neutronenbeschuss in speziellen Reaktoren zu kurzlebigen Nukliden umgewandelt werden. Die Entwicklung dieses Prozesses ist Gegenstand der aktuellen Forschung, wobei die Prozessreife zum jetzigen Zeitpunkt noch nicht erreicht ist. Oxide. Curium wird leicht von Sauerstoff angegriffen. Von Curium existieren Oxide der Oxidationsstufen +3 (Cm2O3) und +4 (CmO2). Auch das zweiwertige Oxid CmO ist bekannt. Das schwarze Curium(IV)-oxid kann direkt aus den Elementen dargestellt werden. Hierzu wird metallisches Curium an Luft oder in einer Sauerstoffatmosphäre geglüht. Für Kleinstmengen bietet sich das Glühen von Salzen des Curiums an. Meistens werden hierzu Curium(III)-oxalat (Cm2(C2O4)3) oder Curium(III)-nitrat (Cm(NO3)3) herangezogen. Weiterhin ist eine Reihe ternärer oxidischer Curiumverbindungen des Typs M(II)CmO3 bekannt. Der größte Teil des in freier Natur vorkommenden Curiums (s. Abschnitt "Vorkommen") liegt als Cm2O3 und CmO2 vor. Halogenide. Von den vier stabilen Halogenen sind Halogenide des Curiums bekannt. Eine Reihe komplexer Fluoride der Form M7Cm6F31 (M = Alkalimetall) sind bekannt. Chalkogenide und Pentelide. Von den Chalkogeniden sind das Sulfid und das Selenid bekannt. Sie sind durch die Reaktion von gasförmigem Schwefel oder Selen im Vakuum bei erhöhter Temperatur zugänglich. Die Pentelide des Curiums des Typs CmX sind für die Elemente Stickstoff, Phosphor, Arsen und Antimon dargestellt worden. Ihre Herstellung kann durch die Reaktion von entweder Curium(III)-hydrid (CmH3) oder metallischem Curium mit diesen Elementen bei erhöhter Temperatur bewerkstelligt werden. Metallorganische Verbindungen. Analog zu Uranocen, einer Organometallverbindung, in der Uran von zwei Cyclooctatetraen-Liganden komplexiert ist, wurden die entsprechenden Komplexe von Thorium, Protactinium, Neptunium, Plutonium und Americium dargestellt. Das MO-Schema legt nahe, dass eine entsprechende Verbindung (η8-C8H8)2Cm, ein "Curocen", synthetisiert werden kann, was jedoch bisher nicht gelang. Caesium. Caesium (nach IUPAC), standardsprachlich Cäsium oder Zäsium (im amerikanischen Englisch Cesium), ist ein chemisches Element mit dem Elementsymbol Cs und der Ordnungszahl 55. Im Periodensystem steht es in der 1. Hauptgruppe, bzw. der 1. IUPAC-Gruppe und gehört zu den Alkalimetallen. Caesium ist das schwerste stabile Alkalimetall. Caesium wurde 1861 von Robert Wilhelm Bunsen und Gustav Robert Kirchhoff im Dürkheimer Mineralwasser der Maxquelle entdeckt. Aufgrund der zwei blauen Spektrallinien, mit denen das Element nachgewiesen wurde, nannten sie es nach dem lateinischen "caesius" für himmelblau. Das Reinelement konnte erstmals 1881 von Carl Setterberg dargestellt werden. Caesium ist ein extrem reaktives, sehr weiches, goldfarbenes, in hochreinem Zustand silbrig glänzendes Metall. Da es sofort und sehr heftig mit Luft reagiert, wird es in abgeschmolzenen Glasampullen unter Inertgas aufbewahrt. Eine biologische Bedeutung des Elements ist nicht bekannt, es kommt normalerweise nicht im Körper vor und ist nicht toxisch. Das radioaktive Isotop 137Cs, ein Produkt der Kernspaltung, fand in der Öffentlichkeit besondere Beachtung, als es infolge der Katastrophe von Tschernobyl am 26. April 1986 in größeren Mengen in die Umwelt gelangte. Geschichte. Caesium wurde erstmals 1861 von Gustav Robert Kirchhoff und Robert Wilhelm Bunsen beschrieben. Sie untersuchten Mineralwasser aus Dürkheim und entdeckten nach der Abtrennung von Calcium, Strontium, Magnesium und Lithium zwei bisher unbekannte Linien im blauen Spektralbereich. Sie schlossen aus ihren Beobachtungen, dass es im untersuchten Mineralwasser ein weiteres, bisher unbekanntes Element geben müsse, das sie wegen der blauen Spektrallinien "Caesium", nach dem lateinischen "caesius" für himmelblau, nannten. Bunsen versuchte ebenfalls Caesium von den anderen Alkalimetallen zu trennen, um weitere Eigenschaften des Elements zu erforschen. Dazu versetzte er die Lösung mit einer Platinchlorid-Lösung, um Kalium und die neuen schwereren Alkalimetalle Rubidium und Caesium als unlösliches Hexachloridoplatinat auszufällen. Das Kalium konnte durch mehrmaliges Aufkochen in wenig Wasser entfernt werden. Zur Gewinnung der reinen Chloride wurde das Platin mit Wasserstoff zum Element reduziert, so dass die nun wasserlöslichen Caesium- und Rubidiumchloride ausgelaugt werden konnten. Die Trennung von Caesium und Rubidium erfolgte unter Ausnutzung der unterschiedlichen Löslichkeit der Carbonate in absolutem Ethanol, worin Caesiumcarbonat im Gegensatz zur entsprechenden Rubidiumverbindung löslich ist. Caesiumchlorid diente Bunsen und Kirchhoff auch für eine erste Bestimmung der molaren Masse des neuen Elements, wofür sie den Wert von 123,35 g/mol fanden. Die beiden Forscher konnten kein elementares Caesium gewinnen, denn bei der Elektrolyse von geschmolzenem Caesiumchlorid entstand anstelle des Metalls eine blaue Verbindung, die sie als "Subchlorid" bezeichneten, bei der es sich aber wahrscheinlich um eine kolloide Mischung von Caesium und Caesiumchlorid handelte. Bei der Elektrolyse einer wässrigen Lösung mit einer Quecksilberanode bildete sich das leicht zersetzbare Caesiumamalgam. Die Darstellung des elementaren Caesiums gelang schließlich 1881 Carl Setterberg, der die Probleme mit dem Chlorid vermied, indem er für die Schmelzflusselektrolyse Caesiumcyanid verwendete. Dabei störte zunächst die zum Schmelzen des Caesiumcyanids nötige relativ hohe Temperatur, die er jedoch durch das Eutektikum mit Bariumcyanid herabsetzen konnte. Vorkommen. Mit einem Gehalt von 3 ppm in der kontinentalen Erdkruste ist Caesium auf der Erde ein seltenes Element. Es ist nach dem instabilen Francium das seltenste Alkalimetall. Auf Grund seiner hohen Reaktivität kommt es nicht elementar, sondern immer nur in Form von Verbindungen vor. Meist ist Caesium ein seltenes Begleitelement in Kalium- oder anderen Alkalimetallsalzen wie Lepidolith, es sind jedoch auch einige Caesiumminerale bekannt. Das häufigste Caesiummineral ist Pollucit, (Cs,Na)2Al2Si4O12 · H2O, das in größeren Vorkommen vor allem am Bernic Lake in der Nähe von Lac du Bonnet in der kanadischen Provinz Manitoba in der Tanco-Mine vorkommt. Weitere größere Vorkommen liegen in Bikita, Simbabwe und in Namibia. Die Vorkommen in der Tanco Mine bei Lac du Bonnet sind die einzigen, in denen Caesium abgebaut wird. Seltenere Caesiumminerale sind beispielsweise Cesstibtantit (Cs,Na)SbTa4O12 und Pautovit CsFe2S3. Auf Grund der Wasserlöslichkeit der meisten Caesiumverbindungen ist das Element im Meerwasser gelöst; ein Liter enthält dabei durchschnittlich 0,3 bis 4 Mikrogramm Caesium. In vergleichbaren Mengen finden sich dort auch häufigere, aber schlechter lösliche Elemente wie Nickel, Chrom oder Kupfer. Gewinnung und Darstellung. Caesium in einer abgeschmolzenen Ampulle unter Argon Caesium wird nur in geringem Umfang hergestellt. Im Jahr 1978 betrug die weltweit produzierte Menge an Caesium und Caesiumverbindungen etwa 20 Tonnen. Ausgangsmaterial für die Gewinnung des elementaren Caesiums und aller Caesiumverbindungen ist Pollucit, der mit Säuren oder Basen aufgeschlossen werden kann. Als Säuren können Salz-, Schwefel- oder Bromwasserstoffsäure genutzt werden. Dabei entsteht jeweils eine caesium- und aluminiumhaltige Lösung, aus der durch Fällung, Ionenaustausch oder Extraktion die reinen Caesiumsalze gewonnen werden. Eine weitere Möglichkeit ist es, Pollucit mit Calcium- oder Natriumcarbonat und den entsprechenden Chloriden zu erhitzen und anschließend mit Wasser auszulaugen. Dabei entsteht eine unreine Caesiumchloridlösung. Caesiummetall kann chemisch durch Reduktion von Caesiumhalogeniden mit Calcium oder Barium gewonnen werden. Dabei destilliert das im Vakuum flüchtige Caesiummetall ab. Weitere Möglichkeiten der Caesiummetallherstellung sind die Reduktion von Caesiumhydroxid mit Magnesium und die Reduktion von Caesiumdichromat mit Zirconium. Hochreines Caesium lässt sich über die Zersetzung von Caesiumazid, das aus Caesiumcarbonat gewonnen werden kann, und anschließende Destillation darstellen. Die Reaktion erfolgt bei 380 °C an einem Eisen- oder Kupferkatalysator. Physikalische Eigenschaften. Kristallstruktur von Caesium, "a" = 614 pm Caesium ist in seinem reinsten Zustand ein silberweißes Leichtmetall mit einer Dichte von 1,873 g/cm3, das schon durch geringe Verunreinigungen goldgelb erscheint. In vielen Eigenschaften steht es zwischen denen des Rubidiums und – soweit bekannt – denen des instabilen Franciums. Es besitzt mit 28,7 °C mit Ausnahme von Francium den niedrigsten Schmelzpunkt aller Alkalimetalle und hat zugleich nach Quecksilber und vergleichbar mit Gallium einen der niedrigsten Schmelzpunkte für Metalle überhaupt. Caesium ist sehr weich (Mohs-Härte: 0,2) und sehr dehnbar. Wie die anderen Alkalimetalle kristallisiert Caesium bei Standardbedingungen im kubischen Kristallsystem mit einer kubisch-raumzentrierten Elementarzelle in der mit dem Gitterparameter "a" = 614 pm sowie zwei Formeleinheiten pro Elementarzelle. Unter einem Druck von 41 kbar erfolgt eine Phasenumwandlung in eine kubisch-flächenzentrierte Kristallstruktur mit dem Gitterparameter "a" = 598 pm. Mit Ausnahme von Lithium lässt sich Caesium mit anderen Alkalimetallen beliebig mischen. Bei einem Verhältnis von 41 % Caesium, 12 % Natrium und 47 % Kalium entsteht eine Legierung mit dem bisher niedrigsten bekannten Schmelzpunkt von −78 °C. Das Caesiumatom und auch das Ion Cs+ besitzen einen großen Radius, sie sind – wiederum mit Ausnahme von Francium – die größten einzelnen Atome beziehungsweise Ionen. Dies hängt mit der besonders niedrigen effektiven Kernladung zusammen, wodurch vor allem das äußerste s-Elektron nur in geringem Maße an den Kern gebunden ist. Dies bewirkt neben dem großen Atomradius auch die geringe Ionisierungsenergie des Caesiumatoms und damit die hohe Reaktivität des Elements. Gasförmiges Caesium hat einen ungewöhnlichen Brechungsindex kleiner als eins. Das bedeutet, dass die Phasengeschwindigkeit der elektromagnetischen Welle – in diesem Fall Licht – größer als im Vakuum ist, was nicht im Widerspruch zur Relativitätstheorie steht. Chemische Eigenschaften. Caesium ist das Element mit der niedrigsten Ionisierungsenergie. Für die Abspaltung des äußersten Elektrons weist es die niedrigste Elektronegativität auf. Caesium gibt dieses bei Kontakt mit anderen Elementen sehr leicht ab und bildet einwertige Caesiumsalze. Da durch die Abspaltung dieses einen Elektrons die Edelgaskonfiguration erreicht ist, bildet es keine zwei- oder höherwertigen Ionen. Reaktionen mit Caesium verlaufen in der Regel sehr heftig, so entzündet es sich beim Kontakt mit Sauerstoff sofort und bildet wie Kalium und Rubidium das entsprechende Hyperoxid. Reaktion von Caesium und Wasser Auch mit Wasser reagiert es sehr heftig unter Bildung von Caesiumhydroxid, diese Reaktion findet sogar mit Eis bei Temperaturen von −116 °C statt. Beim Erhitzen mit Gold bildet sich Caesiumaurid (CsAu), eine Verbindung, die – trotz Bildung aus zwei Metallen – keine Legierung ist, sondern ein Halbleiter; in flüssigem CsAu liegen Cs+- und Au−-Ionen vor. Isotope. Insgesamt sind 39 Isotope und 23 weitere Kernisomere des Caesiums bekannt. In der Natur kommt nur das Isotop 133Cs vor. Caesium ist daher ein Reinelement. Von den künstlichen Isotopen haben 134Cs mit 2,0648 Jahren, 135Cs mit 2,3 Millionen Jahren und 137Cs mit 30,17 Jahren mittlere bis sehr lange Halbwertszeiten, während die der anderen Isotope zwischen 17 µs bei 113Cs und 13,16 Tagen bei 136Cs liegen. Ein wichtiges künstliches Isotop ist 137Cs, ein Betastrahler mit einer Halbwertszeit von 30,17 Jahren. 137Cs zerfällt mit einer Wahrscheinlichkeit von 94,6 % zuerst in das metastabile Zwischenprodukt 137mBa, das sich mit einer Halbwertszeit von 2,552 Minuten durch Gammazerfall in das stabile Barium-Isotop 137Ba umwandelt. Bei den restlichen 5,4 % gibt es einen direkten Übergang zum stabilen Barium-Isotop 137Ba. Zusammen mit weiteren Caesiumisotopen entsteht es entweder direkt bei der Kernspaltung in Kernreaktoren oder durch den Zerfall anderer kurzlebiger Spaltprodukte wie 137I oder 137Xe. 137Cs ist neben dem Cobaltisotop 60Co eine wichtige Gammastrahlenquelle und wird in der Strahlentherapie zur Behandlung von Krebserkrankungen, zur Messung der Fließgeschwindigkeit in Röhren und zur Dickenprüfung etwa von Papier, Filmen oder Metall verwendet. Daneben dient es in der Qualitätskontrolle in der Nuklearmedizin als langlebiges Nuklid in Prüfstrahlern. Größere Mengen des Isotops 137Cs gelangten durch oberirdische Kernwaffenversuche und durch die Reaktorunglücke von Tschernobyl und Fukushima in die Umwelt. Die bei allen oberirdischen Kernwaffentests freigesetzte Aktivität an 137Cs betrug formula_7 Bq. Die Gesamtmenge an 137Cs, das durch die Tschernobyl-Katastrophe freigesetzt wurde, hatte eine Aktivität von etwa formula_8 Bq. Hinzu kam eine Aktivität von etwa formula_9 Bq durch 134Cs und formula_10 Bq durch 136Cs. Durch den Fallout wurden viele Gebiete in Europa, auch in Deutschland, mit radioaktivem Caesium belastet. Besonders reichert sich 137Cs in Pilzen an, die Lignin zersetzen können und dadurch einen leichteren Zugang zu Kalium und damit auch zu dem chemisch sehr ähnlichen Caesium haben als Pflanzen. Insbesondere der Maronen-Röhrling ("Boletus badius") und der Flockenstielige Hexen-Röhrling ("Boletus erythropus") reichern Caesium an, während beispielsweise der verwandte Gemeine Steinpilz ("Boletus edulis") nur eine geringe Caesium-Anreicherung zeigt. Die Ursache für die hohe Caesium-Anreicherung der beiden erstgenannten Pilze ist durch deren Hutfarbstoffe Badion A und Norbadion A begründet, die Caesium komplexieren können. Im Steinpilz sind diese beiden Derivate der Pulvinsäure nicht vorhanden. Betroffen sind auch Wildtiere, die Pilze fressen. Die genaue Caesiumbelastung ist abhängig von der Menge an niedergegangenem Fallout und der Bodenbeschaffenheit, da Böden Caesium unterschiedlich stark binden und damit für Pflanzen verfügbar machen können. Ein Vorfall, bei dem Menschen aufgrund der Strahlenexposition durch 137Cs starben, war der Goiânia-Unfall im Jahr 1987 in Brasilien, bei dem aus einer verlassenen Strahlenklinik zwei Müllsammler einen Metallbehälter entwendeten. Das darin enthaltene 137Cs wurde aufgrund der auffälligen fluoreszierenden Farbe an Freunde und Bekannte verteilt. Verwendung. Auf Grund der komplizierten Herstellung und hohen Reaktivität wird elementares Caesium nur in geringem Maße eingesetzt. Es hat seine Einsatzgebiete vorwiegend in der Forschung. Da Caesium eine kleine Austrittsarbeit hat, kann es als Glühkathode etwa zur Gewinnung freier Elektronen verwendet werden. Auch magnetohydrodynamische Generatoren werden mit Caesium als möglichem Plasmamaterial untersucht. In der Raumfahrt wird Caesium neben Quecksilber und Xenon auf Grund seiner hohen molaren Masse, die einen größeren Rückstoß als leichtere Elemente bewirkt, als Antriebsmittel in Ionenantrieben eingesetzt. Die Sekunde als Maßeinheit der Zeit ist seit 1967 als das 9.192.631.770-fache der Periode eines bestimmten atomaren Übergangs in Caesium definiert (siehe Internationales Einheitensystem). Dazu passend ist Caesium das die Frequenz bestimmende Element in den Atomuhren, die die Basis für die koordinierte Weltzeit bilden. Die Wahl fiel auf Caesium, weil dies ein Reinelement ist und in den 1960er Jahren der Übergang zwischen den beiden Grundzuständen mit ca. 9 GHz noch mit elektronischen Mitteln detektierbar war. Die Breite dieses Übergangs und damit die Unsicherheit der Messung ist nicht durch Eigenschaften des Atoms bestimmt. Durch die niedrige Verdampfungstemperatur kann mit wenig Aufwand ein Atomstrahl mit geringer Geschwindigkeitsunsicherheit erzeugt werden. Eine Wolke von Caesiumatomen kann in magneto-optischen Fallen in der Schwebe gehalten und mit Hilfe von Lasern bis auf wenige Mikrokelvin an den absoluten Nullpunkt abgekühlt werden. Mit dieser Technik war es möglich, die Frequenzstabilität und damit die Genauigkeit der Caesium-Atomuhr deutlich zu verbessern. Daneben wird Caesium in Vakuumröhren verwendet, da es mit geringen Restspuren an Gasen reagiert und so für ein besseres Vakuum (Getter) sorgt. Dabei wird das Caesium in situ durch die Reaktion von Caesiumdichromat mit Zirconium erzeugt. Caesium ist – legiert mit Antimon und anderen Alkalimetallen – ein Material für Photokathoden, die etwa in Photomultipliern eingesetzt werden. Nachweis. Zum Nachweis von Caesium können die Spektrallinien bei 455 und 459 nm im Blau genutzt werden. Quantitativ lässt sich dies in der Flammenphotometrie zur Bestimmung von Caesiumspuren nutzen. In der Polarographie zeigt Caesium eine reversible kathodische Stufe bei −2,09 V (gegen eine Kalomelelektrode). Dabei müssen als Grundelektrolyt quartäre Ammoniumverbindungen (beispielsweise Tetramethylammoniumhydroxid) verwendet werden, da andere Alkali- oder Erdalkalimetallionen sehr ähnliche Halbstufenpotentiale besitzen. Gravimetrisch lässt sich Caesium wie Kalium über verschiedene schwerlösliche Salze nachweisen. Beispiele hierfür sind das Perchlorat CsClO4 und das Hexachloridoplatinat Cs2[PtCl6]. Biologische Bedeutung. Mit der Nahrung aufgenommenes Caesium wird auf Grund der Ähnlichkeit zu Kalium im Magen-Darm-Trakt resorbiert und analog zu Kalium vorwiegend im Muskelgewebe gespeichert. Die biologische Halbwertszeit, mit der Caesium vom menschlichen Körper wieder ausgeschieden wird, ist abhängig von Alter und Geschlecht und beträgt im Durchschnitt 110 Tage. Caesium ist chemisch nur in sehr geringem Maß giftig. Typische LD50-Werte für Caesiumsalze liegen bei 1000 mg/kg (Ratte, oral). Von Bedeutung ist jedoch die Wirkung der ionisierenden Strahlung aufgenommener radioaktiver Caesiumisotope, die je nach Dosis die Strahlenkrankheit verursachen können. Wegen der guten Wasserlöslichkeit der meisten Caesiumsalze werden diese im Magen-Darm-Trakt vollständig resorbiert und vorwiegend im Muskelgewebe verteilt. Durch die Aufnahme von radioaktivem 137Cs nach der Katastrophe von Tschernobyl im Jahr 1986 ergab sich in den ersten drei Monaten eine durchschnittliche effektive Dosis von 0,6 μSv für einen Erwachsenen der Bundesrepublik Deutschland. Sicherheitshinweise. An Luft entzündet sich Caesium spontan, weshalb es in Ampullen unter reinem Argon oder im Vakuum aufbewahrt werden muss. Wegen seiner hohen Reaktionsfähigkeit reagiert es mit Wasser explosiv. Die Explosivität kann durch die Entzündung des dabei entstehenden Wasserstoffs verstärkt werden. Brennendes Caesium muss mit Metallbrandlöschern oder trockenem Sand gelöscht werden. Die Entsorgung erfolgt wie bei anderen Alkalimetallen durch vorsichtiges Zutropfen von Alkoholen wie 2-Pentanol, "tert"-Butanol oder Octanol und anschließende Neutralisation. Verbindungen. Als typisches Alkalimetall kommt Caesium ausschließlich in ionischen Verbindungen in der Oxidationsstufe +1 vor. Die meisten Caesiumverbindungen sind gut wasserlöslich. Halogenide. Caesium bildet mit allen Halogenen gut wasserlösliche Halogenide der Form CsX (X = Halogenid). Caesiumchlorid besitzt eine charakteristische Kristallstruktur, die einen wichtigen Strukturtyp bildet (Caesiumchloridstruktur). So kristallisieren mit Ausnahme von Caesiumfluorid auch die anderen Caesiumhalogenide. Caesiumchlorid ist Ausgangsstoff für die Gewinnung elementarem Caesiums. Da sich bei ausreichend langdauerndem Zentrifugieren automatisch ein Dichtegradient ausbildet, wird es zur Trennung und Reinigung von DNA in der Ultrazentrifuge verwendet. Hochreines Caesiumiodid und Caesiumbromid werden als transparentes Szintillationsmaterial in Szintillationszählern eingesetzt. Sauerstoffverbindungen. Caesium bildet eine ungewöhnlich große Zahl an Sauerstoffverbindungen. Dies hängt vor allem mit der niedrigen Reaktivität des Caesiumions zusammen, so dass die Bildung von Sauerstoff-Sauerstoff-Bindungen möglich ist. Bekannt sind mehrere Suboxide wie Cs11O3 und Cs3O, bei denen ein Überschuss an Caesium vorliegt und die dementsprechend elektrische Leitfähigkeit zeigen. Daneben sind mit steigenden Sauerstoffgehalten das Oxid Cs2O, das Peroxid Cs2O2, das Hyperoxid CsO2 und das Ozonid CsO3 bekannt. Alle diese Verbindungen sind im Gegensatz zu den meisten übrigen Caesiumverbindungen farbig, die Suboxide violett oder blaugrün, die übrigen gelb, orange oder rot. Caesiumhydroxid ist ein stark hygroskopischer, weißer Feststoff, der sich gut in Wasser löst. In wässriger Lösung ist Caesiumhydroxid eine starke Base. Weitere Caesiumverbindungen. Caesiumcarbonat ist ein weißer Feststoff und löst sich in vielen organischen Lösungsmitteln. Es wird in verschiedenen organischen Synthesen als Base beispielsweise für Veresterungen oder für die Abspaltung spezieller Schutzgruppen eingesetzt. Caesiumnitrat findet in großem Umfang Verwendung in militärischer Pyrotechnik, und zwar in NIR-Leuchtmunition und Infrarottarnnebeln, Während die Verwendung in NIR-Leuchtsätzen auf den intensiven Emissionslinien des Elements bei 852, 1359 und 1469 nm beruht, basiert der Einsatz in Tarnnebeln auf der leichten Ionisierbarkeit des Elements. Die beim Abbrand der pyrotechnischen Wirkmassen in der Flamme gebildeten Cs-Ionen wirken als Kondensationskeime und verstärken daher die für die Strahlungsabsorption wichtige Aerosolausbeute. Caesiumchromat kann zusammen mit Zirconium als einfache Quelle für die Gewinnung elementaren Caesiums zur Beseitigung von Wasser- und Sauerstoffspuren in Vakuumröhren eingesetzt werden. Einen Überblick über Caesiumverbindungen gibt die. Chalkogene. Die Elemente der 6. Hauptgruppe des Periodensystems werden Chalkogene genannt (wörtlich „Erzbildner“, von griech.: χαλκός „Kupfer, Bronze“ und γεννάω „erzeugen“). Die Gruppe wird nach dem ersten Element auch als Sauerstoff-Gruppe bezeichnet. Nach der neueren Nummerierung der IUPAC der Gruppen ist es die Gruppe 16. Zu dieser Stoffgruppe gehören die Elemente Sauerstoff, Schwefel, Selen, Tellur, Polonium sowie das künstlich hergestellte Livermorium. Vorkommen. Die Chalkogene kommen in der Natur meist in Form von Erzen und Mineralien vor. Unter den Metallchalkogeniden kommen die Oxide und die Sulfide am häufigsten vor. Beispiele für Oxide sind das gasförmige Kohlenstoffdioxid in der Erdatmosphäre und das feste Siliciumdioxid (z. B. kristallin als Quarz), das den Hauptbestandteil der Erdkruste bildet. Zu den Sulfiden gehören u. a. die Mineralien Bleiglanz, Zinnober, Pyrit, Zinksulfid und Kupferkies. Seltener sind die Selenide wie z. B. Kupferselenid und die Telluride wie z. B. Silbertellurid. Daneben gibt es weitere Metall-Chalkogen-Verbindungen wie z. B. die Sulfite, Sulfate und Selenate. Sauerstoff und Schwefel kommen auch elementar vor (Sauerstoff als Bestandteil der Luft und gelöst in Wasser, Schwefel oft im Zusammenhang mit vulkanischen Exhalationen, die Schwefelwasserstoff und Schwefeldioxid enthalten und zu Schwefel reagieren, ferner auch Schwefelsäure). Physikalische Eigenschaften. Die Chalkogene niedriger Ordnungszahl sind Nichtmetalle, wobei von Selen und Tellur auch metallische Modifikationen existieren: Selen und Tellur sind im Prinzip Halbmetalle, Polonium und Livermorium Metalle. Die physikalischen Eigenschaften sind nach steigender Atommasse abgestuft. So nehmen vom Sauerstoff zum Tellur die Dichte, Schmelz- und Siedepunkte zu. Chemische Eigenschaften. Chalkogene reagieren mit Metallen zu erdigen und zum Teil auch basischen Metallchalkogenen (Oxide, Sulfide usw.). Mit Wasserstoff reagieren sie zu Chalkogenwasserstoffen (Wasser, Schwefelwasserstoff, Selenwasserstoff usw.), wobei die Verbindungen analoge Summenformeln, H2X, haben. Chalkogene bilden auch untereinander Verbindungen wie z.B. die Schwefeloxide oder die Selensulfide. Chalkogen-Oxide bilden mit Wasser zusammen Säuren: die Schweflige Säure, die Selenige Säure und die Tellurige Säure (denkbar wären auch Polonige Säure und Livermorige Säure) (Summenformel H2XO3) aus den Dioxiden und Schwefelsäure, Selensäure, Tellursäure, Poloniumsäure und Livermoriumsäure (Summenformel H2XO4) aus den Trioxiden. Coverband. Coverband ist die Bezeichnung für eine Musikgruppe, die hauptsächlich Stücke anderer, meist berühmter Gruppen nachspielt (covert). Ein gecovertes Stück kann dabei von originalgetreu dargeboten bis neu arrangiert und eigeninterpretiert klingen. Da erst in jüngerer Zeit der Interpret eine zentrale Rolle spielt, beschränkt sich das Phänomen der Coverbands weitgehend auf die Pop- und Rockmusik. Mit steigender Popularität von Coverbands haben sich neben der qualitätsorientierten Spielweise auch bestimmte Kategorien etabliert. Allgemein bekannt sind in diesem Genre "Top-40-Coverbands", "Revival Bands" und "Tribute-Bands". Die Aufführung von Stücken anderer Bands ist in der Regel vergütungspflichtig. Es muss (je nach Größe der Veranstaltung) ein entsprechender Betrag an die GEMA gezahlt werden. Bei Veröffentlichung auf einem Tonträger, muss, wenn das Material nicht 1 zu 1 nachgespielt, sondern interpretiert (bearbeitet) wird, eine Genehmigung des Verlags vorliegen. Top-40-Coverband. Unter diesen Begriff fallen die meisten Coverbands. Ihr Hauptaugenmerk liegt in der Masse an bekannten Liedern, die überwiegend bei Stadt- und Straßenfesten, Vereinsfeiern und Tanzabenden dargeboten werden. Hier wird musikalisch betrachtet nicht immer so stark auf Authentizität geachtet, wie es bei Tribute Bands und Revival Bands der Fall ist. Revival- und Tributeband. Unter diese Bezeichnung fallen alle Coverbands, die sich ausschließlich einem Thema oder einem Interpreten widmen. Mit möglichst authentischer musikalischer Darbietung, Bühnengarderobe, Instrumenten und Show-Einlagen versuchen solche Coverbands beim Publikum die Illusion zu erzeugen, ein Konzert der Originalformation zu besuchen. Der Unterschied zwischen Revival Bands und Tribute Bands liegt eigentlich darin, dass Revival Bands ausschließlich Interpreten nachspielen, die entweder verstorben sind oder die es als Formation nicht mehr gibt. Tribute Bands hingegen kopieren Interpreten, die selbst noch Konzerte geben. Die Grenzen der beiden Genres sind jedoch in der Umgangssprache fließend. Häufig lässt die Popularität der Originalgruppe auf eine entsprechend gute Vermarktungsfähigkeit der Coverband schließen. Einige Tribute Bands haben darüber hinaus den Anspruch, eigene Improvisationen in ihre Konzerte mit einfließen zu lassen. Diese sind aber nicht, wie bei Coverbands, Ausdruck eines eigenen Stils. Vielmehr versuchen die eigenen Improvisationen der Tribute Band so zu klingen, als hätten sie auch von den Vorbildern selbst stammen können. Chain. Chain (dt. „“) bzw. Kette ist eine Maßeinheit der Länge. Angloamerikanisches Maßsystem. Im angloamerikanischen Bereich wird eine "chain" mit dem Einheitenzeichen "ch." bezeichnet. 1 ch. = 4 rd. = 100 li. = 66 ft. = 20,1168 Meter 1 statute mile = 8 furlong = 80 chain = 320 rd. = 8000 link Die "chain" wird gegenwärtig noch von britischen Ingenieuren gebraucht, um Distanzen zwischen Bahnhöfen oder Brücken zu messen. In der Landmessung ist sie in Großbritannien hingegen schon länger außer Gebrauch gekommen, wogegen sie in Australien und Neuseeland für diese Zwecke noch in der jüngeren Vergangenheit üblich war. Die Flächeneinheit Acre (4046,86 m²) entspricht einem streifenförmigen Feld von 10 chain × 1 chain, das ein Ochsengespann in etwa einem Tag pflügen konnte. Ähnliche Dimensionen haben die Einheiten Morgen, Tagewerk und Joch, die in Europa bis heute in der bäuerlichen Bevölkerung lebendig sind. Deutschland. Im deutschsprachigen Raum war die Kette ein vergleichbares Maß. In der Maß- und Gewichtsordnung des Norddeutschen Bundes vom 17. August 1878 war festgelegt Schweiz. Die zur Zeit der Helvetischen Republik eingeführte und nur kurzlebige Schweizer "Kette" betrug zwischen 0,498 bis 0,610 Meter je nach Kanton. Coulomb. Ein Coulomb (Einheitenzeichen C) ist die abgeleitete SI-Einheit der elektrischen Ladung (Formelzeichen "Q" oder "q"). Es ist nach dem französischen Physiker Charles Augustin de Coulomb benannt. Vergleich mit der elektrischen Elementarladung. Eine in der Natur auftretende elektrische Ladung "Q" kann immer nur ein ganzzahliges Vielfaches der Elementarladung "e" sein. Die Einheiten des SI-Einheitensystems wurden jedoch willkürlich festgelegt. Daher ist nicht garantiert, dass ein Coulomb ebenfalls ein ganzzahliges Vielfaches der Elementarladung ist. Die Basiseinheit "Sekunde" ist als exaktes Vielfaches einer gewissen natürlichen Zeitspanne festgelegt. Analog dazu "könnte" man im Prinzip das Coulomb durch die Angabe einer ganzen Zahl von Elementarladungen "definieren" und die Basiseinheit Ampere darauf zurückführen. Eine solche Abänderung des Einheitensystems ist derzeit nicht geplant. Für diese beiden Konstanten wurden im Jahre 1990 sogenannte konventionelle Werte festgelegt. Aufgrund der endlichen Stellenzahl der beiden Werte ergibt sich dann zwar die Aussage, dass auf ein Coulomb 6.241.509.629.152.650.000 Elementarladungen entfallen (eine ganze Zahl). Dies darf aber nicht als Beleg für eine tatsächliche Ganzzahligkeit gewertet werden. Historisches. mit der Lichtgeschwindigkeit formula_9 Curie (Einheit). Curie ist die veraltete Einheit der Aktivität eines radioaktiven Stoffes mit dem Einheitenzeichen Ci; sie wurde übergangsweise noch bis 1985 gebraucht, dann durch die SI-Einheit Becquerel ersetzt. Heute wird sie nur noch in der Werkstoffprüfung gebraucht. 1 Curie wurde ursprünglich als die Aktivität von 1 g Radium-226 definiert, und später auf den annähernd gleichen Wert 3,7·1010 Becquerel (= 37 GBq) festgelegt. Die Einheit wurde nach Marie und Pierre Curie benannt, die zusammen mit Antoine Henri Becquerel 1903 den Nobelpreis für die Entdeckung der Radioaktivität erhielten. Chat. Chat (von ‚plaudern‘, ‚sich unterhalten‘; auch Online-Chat) bezeichnet die elektronische Kommunikation in Echtzeit, meist über das Internet. Die erste Ausprägung des Online-Chats bot ab 1980 CompuServe in Form des „CB-Simulators“. Auch das Usenet und im weiteren Sinn der CB-Funk hatten Chat-Funktionen. Arten. Die ursprünglichste Form des Internet-Chats ist der reine Textchat, bei dem nur Zeichen ausgetauscht werden können. Mittlerweile kann – je nach System – eine Ton- und/oder Videospur dazukommen bzw. den Textchat ersetzen. Man spricht dann von „Audio-“ bzw. „Videochat“. "IRC" und "Instant Messaging" beinhaltet meistens weitere Funktionalitäten wie das Erstellen von Gesprächsprotokollen („chat logs“) oder das Übermitteln von Dateien und Hyperlinks. Allen drei Varianten ist gemeinsam, dass meistens nicht unter bürgerlichem Namen gechattet wird, sondern unter einem Pseudonym (Nickname). Im "IRC" und in "Web-Chats" ist der Austausch meistens in Chaträumen bzw. Channels organisiert, die sich speziellen Themen widmen. Chats mit mehr als zwei Chattern finden in Chaträumen statt. Nach einer Erhebung des Statistischen Bundesamtes nutzten 2009 46 Prozent der 10- bis 15-jährigen Internetnutzer Chats, Blogs oder Internetforen als Kommunikationsmittel. Bei Studenten und Schülern beträgt dieser Anteil 89 Prozent. Chatiquette. Zu beachten ist die Chatiquette. Hierbei handelt es sich um spezielle Regeln für die Umgangsformen in einem Chat. Um Missverständnisse aufgrund der fehlenden visuellen Kommunikation zwischen den Teilnehmern zu vermeiden, sollten diese Regeln eingehalten werden. Allgemeine Regeln für die Umgangsformen im Internet beschreibt die Netiquette. Chatter-Treffen. Da man sich in einem Chat nur „virtuell“ unterhalten kann, werden von manchen Chat-Communitys oder auch Privatpersonen sogenannte Chatter-Treffen (CT) organisiert. Hier treffen sich die Chatter dann auch im wirklichen Leben, um sich auszutauschen oder organisatorische Dinge zu besprechen. Treffen, bei denen sich Mitglieder eines Chat-Kanals (z. B. IRC-Channel) treffen, nennt man Channelparty. Die ersten Chatter-Treffen Europas fanden schon 1987 statt und nannten sich "Relay-Partys" entsprechend dem Vorläufer von "IRC", Bitnet Relay. Gefahren und Probleme. Es liegt in der Natur der Sache, dass man sich in Chats nie sicher sein kann, ob das Gegenüber auch wirklich das ist, wofür er oder sie sich ausgibt. Dies gilt auch für Chats, in denen die Benutzer Steckbriefe besitzen. Scheinbar persönliche Informationen und Fotos brauchen nicht unbedingt mit der realen Person übereinzustimmen, da die Registrierungsdaten üblicherweise nicht verifiziert werden. Chatter, die sich für etwas ausgeben, was sie nicht sind, nennt man Fakes. So kann es zum Beispiel vorkommen, dass man mit einem Mann spricht, der sich für eine Frau ausgibt etc. Selbst wenn eine Verifizierung stattfindet, braucht diese nicht zuverlässig zu sein. Gerade Kinder und Jugendliche sollten auf diesen möglichen Unterschied zwischen „Online-Persönlichkeit“ und Realität hingewiesen werden, insbesondere in Bezug auf die Gefahr durch Sexualstraftäter („Online predator“). Chatsucht. Der Spaß am Chatten kann für Kinder und Jugendliche – aber auch für Erwachsene – zu einer Chatsucht werden. Dies wird häufig bei Personen beobachtet, die gerade begonnen haben zu chatten. Vor allem bei Personen mit einem gestörten sozialen Umfeld kann sich dieses Problem verfestigen. Die Chatsucht kann in Verbindung mit einer Onlinesucht auftreten. Begünstigt wird dies dadurch, dass man sich anderen Teilnehmern gegenüber als Persönlichkeit ausgeben kann, die man im tatsächlichen Leben nicht ist. Dies kann zu Realitätsverlust führen, da man sich auch außerhalb des Chatrooms für die im Chat erstellte Person halten kann. Kommunikation im Chat. Die Kommunikation im Chat findet fast zeitgleich ("synchron") statt und nicht über eine lange Zeit versetzt ("asynchron"), wie z. B. in der E-Mail-Kommunikation. Die teilnehmenden Chatter tippen ihre Gesprächsbeiträge in ein Eingabefeld und schicken sie durch eine Eingabe ab. Ab dem Zeitpunkt seiner Zustellung an die Adressatenrechner ist der Beitrag für alle im selben Chatraum präsenten Chat-Beteiligten fast sofort sichtbar; bis zum Zeitpunkt seiner Verschickung ist bei den meisten Chat-Systemen aber die Aktivität des Tippens für die Partner ersichtlich. Ferner können sich Beiträge überlappen. Wegen der kommunikativen Rahmenbedingungen ist trotz der "synchronen" Präsenz der Kommunikationsbeteiligten vor ihren Rechnern keine "simultane" Verarbeitung von Verhaltensäußerungen zur Laufzeit ihrer Hervorbringung möglich; in diesem Punkt unterscheidet sich die Chat-Kommunikation ganz erheblich vom mündlichen Gespräch (vgl. z. B. Beißwenger 2007). Die Kommunikation im Chat teilt somit – trotz ihrer medial schriftlichen Realisierung – mehr Merkmale mit dem mündlichen Gespräch als mit Texten, ihre charakteristischen Unterschiede zum mündlichen Gespräch bestehen aber in mehr als lediglich der Tatsache, dass Chat-Beiträge im Gegensatz zu Gesprächsbeiträgen getippt werden. Sprache im Chat. Im Chat steht eine korrekte Verwendung der Sprache auf syntaktischer und orthographischer Ebene nicht im Vordergrund. Anakoluthe (Konstruktionsbrüche), Aposiopesen (Satzbrüche) sowie umgangssprachliche Kontraktionen, Ellipsen, Interjektionen, dialektale und soziolektale Ausdrücke verleihen der Sprache im Chat einen Slang-Charakter. Tippfehler und grammatikalische Fehler sind häufig, Satzzeichen spielen fast keine Rolle, und oft wird konsequent klein geschrieben. „Das Ökonomieprinzip steht […] eindeutig als Maxime der Äußerungsproduktion im Vordergrund.“ (Geers 1999, 5). Die fehlenden parasprachlichen Mittel werden durch Emoticons (z. B.:-),;-) oder:-o) und Akronyme (z. B. lol = laugh(ing) out loud; dt. „Lautes Lachen“) oder Abkürzungen ersetzt. Fremdsprachen lernen im Chat. Möchte man als Lernender das Medium Chat nutzen, um seine Fremdsprachenkenntnisse zu verbessern, sollte man aufgrund der besonderen Kommunikations- und Sprachmerkmale von Chats Räume wählen, die extra dafür eingerichtet wurden, sogenannte Lernchats oder didaktische Chat-Räume. Computerlinguistik. In der Computerlinguistik (CL) oder linguistischen Datenverarbeitung (LDV) wird untersucht, wie natürliche Sprache in Form von Text- oder Sprachdaten mit Hilfe des Computers algorithmisch verarbeitet werden kann. Sie ist Schnittstelle zwischen Sprachwissenschaft und Informatik. Geschichte. Computerlinguistik lässt sich als Terminus (oder dessen Umschreibung) jedenfalls in die sechziger Jahre des 20. Jahrhunderts zurückverfolgen. Als Aufgabenstellung war sie mit den Anfängen der künstlichen Intelligenz eigentlich schon nahegelegt und Chomskys "Syntactic Structures" von 1957 präsentierte die Sprache in einem entsprechend passenden neuen formalen Gerüst. Hinzu kamen die Sprachlogiken von Saul Kripke und Richard Montague. Aber die teilweise aus dem US-Verteidigungsbudget sehr hoch geförderten Forschungen brachten nicht die erhofften Durchbrüche. Gerade auch die Koryphäen Chomsky und Weizenbaum beschwichtigten die Erwartungen an Automatisierungen von Sprachübersetzung. Der Wende von behavioristischen Wissenschaftskonzeptionen zu mentalistischen (Chomsky) folgten umfassende Konzipierungen in den Kognitionswissenschaften. In den siebziger Jahren erschienen dann zunehmend häufiger Publikationen mit dem Begriff "Computerlinguistik" im Titel. Es gab bereits finanziell aufwändige Versuche exegetischer Anwendungen (Konkordanzen, Wort- und Formstatistik), aber auch schon größere Projekte zur maschinellen Sprachanalyse und zu Übersetzungen. Die ersten Computerlinguistik-Studiengänge in Deutschland wurden an der Universität des Saarlandes und in Stuttgart eingerichtet. Die Computerlinguistik bekam mit der Verbreitung von persönlich gebrauchten Computern (PC) und mit dem Aufkommen des Internets neue Anwendungsgebiete. Im Gegensatz zu einer Internetlinguistik, die insbesondere menschliches Sprachverhalten und die darüber induzierten Sprachbildungen im und mittels Internet untersucht, entstand in der Computerlinguistik eine stärkere informatisch-praktische Ausrichtung. Doch gab das Fach die klassischen philosophisch-linguistischen Fragen nicht ganz auf und wird heute in theoretische und praktische Computerlinguistik unterschieden. Das Saarbrücker Pipelinemodell. Es ist allerdings nicht der Fall, dass sämtliche Verfahren der Computerlinguistik diese komplette Kette durchlaufen. Die zunehmende Verwendung von maschinellen Lernverfahren hat zu der Einsicht geführt, dass auf jeder der Analyseebenen statistische Regelmäßigkeiten existieren, die zur Modellierung sprachlicher Phänomene genutzt werden können. Beispielsweise verwenden viele aktuelle Modelle der maschinellen Übersetzung Syntax nur in eingeschränktem Umfang und Semantik so gut wie gar nicht; stattdessen beschränken sie sich darauf, Korrespondenzmuster auf Wortebene auszunutzen. Studienmöglichkeiten. Computerlinguistik kann man im deutschsprachigen Raum an verschiedenen Hochschulen als eigenständiges Fach mit verschiedenen Abschlussmöglichkeiten studieren. Diplom- und Magisterprogramme sind dabei inzwischen am Auslaufen und können im Allgemeinen nicht mehr neu begonnen werden. Sie wurden durch Bachelor- und Masterprogramme ersetzt. Die Studiengänge können sehr unterschiedliche Namen haben und haben unterschiedliche Profile (mehr/weniger Sprachwissenschaft bzw. Informatik, Anbindung an die Kognitionswissenschaft etc.). Beispielsweise wird der Studiengang in Düsseldorf als "Informationswissenschaft und Sprachtechnologie" angeboten und in Trier als "Sprach- und Texttechnologie". Als Studiengang wird die CL auch als linguistische Datenverarbeitung oder maschinelle Sprachverarbeitung bezeichnet. Chirurgie. Die Chirurgie (von "cheirurgía" „Handarbeit“) ist das Teilgebiet der Medizin, das sich mit der operativen Behandlung von Krankheiten und Verletzungen beschäftigt. Umgangssprachlich bezeichnet „Chirurgie“ auch die allgemeinchirurgische Abteilung eines Krankenhauses. Geschichte. Schon aus der Steinzeit sind chirurgische Eingriffe nachgewiesen, die von den Patienten überlebt wurden. Diese Kunst war nicht nur auf den "Homo sapiens" beschränkt: Ein etwa 50.000 Jahre alter Skelettfund eines männlichen Neandertalers in einer Höhle im Irak belegt eine Armamputation. Seit 12.000 Jahren lassen sich überlebte Trepanationen nachweisen. Operationen wurden in der Antike, besonders bei Ägyptern und Römern, mit speziellen (meist metallischen) Werkzeugen durchgeführt. Über die Erfolge und Heilungen ist wenig bekannt. Eine zentrale Aufgabe der Chirurgie ist die Blutstillung bei Verletzungen. Feldscher und Handwerkschirurgen. Bis zum Aufkommen der akademischen Chirurgie führte der Bader oder Wundarzt mit handwerklicher Ausbildung (der Handwerkschirurg) Operationen durch. Für den Übergang vom Feldscher zum Chirurgen stehen Johann Dietz, Daniel Schwabe, Alexander Kölpin und Heinrich Callisen, bekanntester Handwerkschirurg war Doktor Eisenbarth. Vorangetrieben wurde die moderne Chirurgie von Militärärzten und italienischen Anatomen. Zur Zeit der Renaissance von kirchlichen Vorschriften emanzipiert, erweiterte die Anatomie mit der Obduktion den chirurgischen Horizont ganz wesentlich. Antisepsis. Aufgrund fehlenden Wissens über Infektionsgefahren wurden die Instrumente und die Hände des Arztes oft nicht gereinigt. Die Kittel waren damals dunkel, damit Schmutz und Blut darauf schwerer zu erkennen waren und man die Kittel nicht so oft waschen musste. Die Folge solch unhygienischen Vorgehens waren Infektionen, Sepsis und Tod. Ignaz Semmelweis erahnte Mitte des 19. Jahrhunderts die Ursache des Kindbettfiebers, ordnete erstmals strenge Hygienemaßnahmen an und leistete einen ersten wichtigen Beitrag zum Rückgang der Todesfälle. Sir Joseph Lister experimentierte mit Karbol, ließ Hände und Instrumente damit reinigen, versprühte es über dem Operationsfeld und schuf damit bereits eine keimarme Atmosphäre während des Eingriffs. Der Durchbruch in der Chirurgie kam mit der Entdeckung der krankheitserregenden Keime durch das Mikroskop, den Erkenntnissen von Louis Pasteur und Robert Koch und der darauffolgenden Entwicklung der Asepsis. Ihren Siegeszug zum heutigen Standard begründeten dann die Reinigung, Desinfektion und Sterilisation von medizinischen Werkzeugen und Materialien sowie die Einführung von sterilen Operationshandschuhen aus Gummi. Schmerzbetäubung. Die Leistungsfähigkeit der modernen Chirurgie ist ohne die Emanzipation der Anaesthesiologie undenkbar. Vor Einführung der Narkose (1846) hatte der Chirurg wegen der starken Schmerzen des Patienten möglichst schnell zu arbeiten. Todesfälle durch Schmerz (Schock) waren nicht selten. August Bier inaugurierte die Spinalanästhesie. Von Dominique Jean Larrey, dem Leibarzt Napoleon Bonapartes, wird berichtet, dass er über 200 Amputationen an einem Tag vornehmen konnte. Robert Liston (1798–1847) amputierte trotz zum ersten Mal eingesetzter Narkose (21. Dezember 1846) aus Gewohnheit ein Bein in 28 Sekunden. Dies stellte damals eine normale Operationszeit dar, war aber nichts anderes als eine Verstümmelung; denn auf jeden Wundverschluß wurde verzichtet. Mit sorgfältiger Stumpfbildung und Weichteildeckung dauern Amputationen heute zum Teil bis zu einer Stunde und bleiben erfahrenen Chirurgen vorbehalten. Endoskopie. Von Kurt Semm 1967 in der Gynäkologie eingeführt, etablierte sich in den 1990er Jahren die minimal-invasive Chirurgie. Dabei werden die Patienten mit Endoskopen operiert, die über Stichinzisionen eingeführt sind. Der Chirurg sieht das Arbeitsfeld auf dem Bildschirm und bedient die Instrumente indirekt. Die epochale Entwicklung der endoskopischen Chirurgie wurde von Johann von Mikulicz (1850–1905) in Wien eingeleitet. Erst in der zweiten Hälfte des 20. Jahrhunderts wurde sie von Olympus in Japan vorangetrieben, wo das schwer zu erkennende Magenkarzinom so häufig wie sonst nirgends auf der Welt auftrat. Facharztrichtungen. Weitere operative Fächer sind Frauenheilkunde, Ophthalmologie, Hals-Nasen-Ohren-Heilkunde, Dermatologie, Mund-Kiefer-Gesichtschirurgie, Neurochirurgie und Urologie. Da jedes Land eine eigene Weiterbildungsordnung hat, ist diese Einteilung nicht allgemein gültig. Chirurgen. Im 19. Jahrhundert gewann die deutsche Chirurgie durch Johann von Mikulicz Weltgeltung, die nur in der Zeit des Nationalsozialismus Schaden nahm. In den USA, in Australien und im Vereinigten Königreich sind Lehrstühle jüngst mit Deutschen besetzt worden. Über die schwierige Lage der Chirurgie in der Deutschen Demokratischen Republik berichtet Helmut Wolff. Nissen und Wachsmuth sind die wichtigsten Chirurgenbiografien des 20. Jahrhunderts zu verdanken. Peter Bamm veröffentlichte 1952 seinen berühmten Bericht über die Kriegschirurgie im Heer der Wehrmacht. Dass seine Wahrhaftigkeit auch deutsche Kriegsverbrechen einbezog, wird erst heute wahrgenommen. Catherine Zeta-Jones. Catherine Zeta-Jones, CBE (* 25. September 1969 in Swansea, Wales), ist eine britische Schauspielerin und Oscar-Preisträgerin. Leben. Catherine Zeta-Jones wuchs im walisischen Mumbles auf. Ihr Vater Dai Jones besaß eine Süßwarenfabrik. Sie hat zwei Brüder, David Jones und Lyndon Jones, der für ihre Produktionsfirma arbeitet. Als Kind litt sie unter einer Atemwegserkrankung, die eine Luftröhrenoperation erforderlich machte; der Eingriff hinterließ eine dauerhafte Narbe. Catherine Zeta-Jones, halb Irin, halb Waliserin, fühlte sich bereits im Kindesalter zum Showgeschäft berufen. Sie tanzte und sang unter anderem in einer katholischen Kirchengemeinde. Sie spielte in den Theaterstücken "Annie" und "Bugsy Malone" mit, ehe sie mit 15 nach London zog, um Schauspielerin zu werden. Mit 17 erhielt sie unter glücklichen Umständen eine tragende Rolle in der West-End-Produktion des Musicals "42nd Street". Damit gelang ihr der Durchbruch im Theater, zeitweise stand sie acht Mal pro Woche auf der Bühne. 1990 verbrachte Zeta-Jones ein ganzes Jahr in Frankreich, um die Titelrolle in dem Film "Sheherazade – Mit 1001 PS ins Abenteuer" zu spielen. Nach ihrer Rückkehr stellte sie in der Fernsehserie "The Darling Buds of May" die älteste Tochter einer Bauernfamilie dar. Die Serie war ein Erfolg und machte sie in England zum Star. Unterdessen bemühte sie sich vehement, ihre Wunschkarriere als Sängerin und Tänzerin voranzutreiben. Sie veröffentlichte Lieder wie "For All Times" (1992), "In the Arms of Love" und "I Can't Help Myself" (1995), die allesamt floppten. Lediglich die Single "True Love Ways" (1994) im Duett mit David Essex schaffte es auf Platz 38 in den UK Top 75. Zeta-Jones konzentrierte sich nun auf ihre Schauspielkarriere. Es folgten Rollen in der Fernsehserie "Die Abenteuer des jungen Indiana Jones" sowie in dem Film "Christopher Columbus – Der Entdecker" im Jahr 1992. Durch ihren Auftritt in der Fernsehproduktion "Titanic" wurde Hollywood auf sie aufmerksam. Schließlich gelang ihr mit der Hauptrolle neben Antonio Banderas und Anthony Hopkins in dem Kinofilm "Die Maske des Zorro" auch auf der Leinwand der Durchbruch. Es folgten weitere erfolgreiche Produktionen, unter anderem "Das Geisterschloss", "Traffic – Macht des Kartells" und das Filmmusical "Chicago". Für die Rolle der Velma Kelly in "Chicago" erhielt sie 2003 den Oscar in der Kategorie Beste Nebendarstellerin. In die Rolle der Helena Ayala in "Traffic" musste eine Schwangerschaft eingebaut werden, da Zeta-Jones zu diesem Zeitpunkt schwanger mit ihrem ersten Sohn Dylan Michael war. Catherine Zeta-Jones betreibt auch erfolgreich Werbung: 2006 war sie dank eines Zweijahresvertrags mit T-Mobile über 16 Mio. US-Dollar der bestbezahlte Werbestar weltweit. Außerdem bekam sie für ihre Leistung in "Chicago" den British Academy Film Award, eine Auszeichnung, die ihr als gebürtige Waliserin besonders viel bedeutet. Als sie 2003 den Oscar erhielt, war Catherine Zeta-Jones im neunten Monat schwanger. Sie sang live mit Queen Latifah im Kodak Theatre den als Bestes Filmlied nominierten Titel "I move on". Catherine Zeta-Jones ist Eigentümerin der Produktionsfirma Milkwood Films. Privates. Am 13. Dezember 1999 verlobte sie sich mit dem 25 Jahre älteren Schauspieler Michael Douglas, den sie am 18. November 2000 heiratete. Mit ihm hat sie einen Sohn (* 2000) und eine Tochter (* 2003). Seit der Heirat heißt sie standesamtlich Catherine Zeta-Jones-Douglas. Aufgrund einer bipolaren Störung begab sie sich 2011 in eine Nervenklinik; zuvor war Michael Douglas an Krebs erkrankt, außerdem wurde ihr Stiefsohn Cameron wegen Drogendelikten verurteilt. Deutsche Synchronstimme. Catherine Zeta Jones wird überwiegend von der Schauspielerin und Synchronsprecherin Arianne Borbach gesprochen. Cannstatter Volksfest. Cannstatter Volksfest 2012, fotografiert vom 55-Meter-Riesenrad Cannstatter Volksfest 2012, fotografiert vom 60-Meter-Riesenrad Blick auf den Festbetrieb 2004 Das Cannstatter Volksfest (umgangssprachlich auch "Cannstatter Wasen" oder kurz "Wasen" genannt) ist ein zweiwöchiges Volksfest, das seit 1818 jährlich von Ende September bis Anfang Oktober auf dem Cannstatter Wasen im NeckarPark im Stuttgarter Stadtbezirk Bad Cannstatt veranstaltet wird. Das jahreszeitliche Pendant zum Volksfest im Herbst ist das Stuttgarter Frühlingsfest im Frühjahr. Daten und Fakten. Fluchttreppe zur Mercedesstraße vom Festgelände Die Freifläche auf dem Cannstatter Wasen beträgt rund 35 Hektar. Das schwäbische Volksfest beginnt normalerweise eine Woche später als das Münchner Oktoberfest. Das Cannstatter Volksfest beansprucht für sich aufgrund der Vielzahl der Schaustellerbetriebe den Titel „größtes Schaustellerfest Europas“. Laut Veranstalter Andreas Kroll, Geschäftsführer der „in.Stuttgart Veranstaltungsgesellschaft“, haben 2006 4,2 Millionen Menschen das 161. Cannstatter Volksfest besucht, was einer Steigerung gegenüber 2005 um 20 % entspricht. 2007 wurde mit 4,5 Millionen Besuchern eine erneute Steigerung erreicht, mit diesen Zahlen ist das Cannstatter Wasen nach München das größte Volksfest der Welt. 2011 wurden erstmals zwei breite Fluchttreppen zur Mercedesstraße errichtet. Sie sind im Normalfall geschlossen und sollen nur im Panikfall von den Ordnern geöffnet werden. Geschichte des Cannstatter Volksfestes. Erstmals gefeiert wurde das Cannstatter Volksfest im Jahre 1818. Gedacht als „jährlich am 28. September zu Kannstadt abzuhaltendes landwirtschaftliches Fest“. Der indirekte Anlass des ersten Volksfestes liegt in Asien, wo 1815 der indonesische Vulkan Tambora explodierte. Gase und Staub sorgten jahrelang für Klimaveränderungen (Jahr ohne Sommer) und damit für die Missernten und Hungersnöte. So wurde ein landwirtschaftliches Fest und eine landwirtschaftliche Unterrichtsanstalt geschaffen, bekannt als Universität Hohenheim. Bereits im ersten Jahr war das Volksfest ein großer Erfolg. Es wurde von weit mehr als 30.000 Gästen und Mitwirkenden berichtet. Mit der Zeit wurde das Cannstatter Volksfest größer und gewann an Bedeutung. Höhepunkte in der frühen Geschichte des Volksfestes waren die Feiern zum 25. Regierungsjubiläum König Wilhelms I. am 28. September 1841 und das französisch-russische Zweikaisertreffen mit Besuch auf dem Wasen am 28. September 1857. Am 28. September 1876 kamen Kaiser Wilhelm I. und sein Schwiegersohn Großherzog Friedrich I. zum Volksfest, ebenso im Jahre 1881. Im 19. Jahrhundert dauerte das Fest zunächst nur einen einzigen, später drei, dann vier, ab den 1920er Jahren schließlich fünf Tage. Zu Beginn der 1950er Jahre wurde der Wasen dann auf zunächst zehn, dann zwölf und schließlich 1972 auf 16 Festtage ausgedehnt. Seit 2007 dauert das Fest 17 Tage, da der Auftakt von Samstag auf Freitag vorverlegt wurde. Zunächst gab es noch wenige „Volksfest-Buden“ mit Schaustellern und Bierausschank. Sie wurden zugunsten der königlichen Loge und der Honoratioren-Tribünen an den Rand des eigentlichen Festgeländes verbannt. Bereits 1860 kam es infolge der zunehmenden Schausteller-Zahlen zu der heute typischen Anordnung in drei Hauptstraßen und zahlreichen Nebenstraßen, um den von Jahr zu Jahr immer größer werdenden Besucherzahlen genügend Platz zu lassen. Das Cannstatter Volksfest wurde bis 2006 am Samstag um den 27. September, dem Geburtstag von König Wilhelm I., zu dessen Ehren eröffnet; der früheste Termin ist der 22. September. Seit 2007 öffnet das Volksfest bereits am Freitag um 15 Uhr; am Freitagabend wird der Fassanstich durch den Stuttgarter Oberbürgermeister live im regionalen Fernsehen übertragen. Festzelte. Auf dem Cannstatter Volksfest finden sich neun Festzelte (sieben Bierzelte und zwei Weinzelte) sowie eine Vielzahl kleinerer gastronomischer Betriebe mit Biergärten. Mittelpunkt sind die drei Brauereizelte (das Festzelt Klauss der Brauerei Dinkelacker, das Festzelt Wilhelmer's SchwabenWelt der Brauerei Schwabenbräu und das Festzelt Hans-Peter Grandl der Brauerei Stuttgarter Hofbräu), die seit 1982 ihren traditionellen Platz nebeneinander vor der Fruchtsäule haben. Die Anordnung der drei Zelte wechselte dabei bis 2008 jährlich, das Zelt der federführenden Brauerei (deren Fass beim Anstich durch den Oberbürgermeister zum Zuge kommt) stand dabei immer ganz rechts. Seit 2009 bleibt die Anordnung gleich. Vor 1982 gab es vier etwas kleinere Brauereizelte, die auf beiden Seiten der Fruchtsäule aufgebaut waren. Das vierte Zelt war das Festzelt der Brauerei Wulle, die 1971 von Dinkelacker übernommen wurde und wenig später als Marke nicht mehr existierte. Baurechtlich genehmigt waren in Stuttgart 26.000 überdachte Plätze, 2009 erhöhte sich diese Zahl durch diverse Um- und Ausbauten auf über 30.000. Als zehnten Großbetrieb gibt es auf dem Wasen das Almhüttendorf, das jedoch kein Festzelt ist, sondern aus einer Ansammlung von Hütten im alpenländischen Stil eine andere Form des Festbetriebs anbietet (Sitzplatzkapazität ca. 1500). Ehemalige Zelte. Auf dem Wasen hat es im Verlauf der Jahrzehnte viele Veränderungen gegeben, so besteht ein (unvollständiger) Überblick über nicht mehr existierende Festzelte. Attraktionen. Zu den großen Attraktionen gehören neben den Festzelten die Schaustellerbuden und Fahrgeschäfte. Aus 1054 Bewerbungen hat Volksfest-Chef Karl Kübler 2004 333 Attraktionen (Vorjahr: 302) ausgewählt. Zu den größten Attraktionen des Cannstatter Volksfestes gehörte bis einschließlich 2009 das seinerzeit größte transportable Riesenrad der Welt mit 60 Metern Durchmesser der Firma Steiger aus Bad Oeynhausen. Seit 2010 ist das Riesenrad - nachdem die Stadt Stuttgart erstmals die Lizenz an einen Wettbewerber vergab - nicht mehr auf dem Wasen vertreten (Anmerkung: Die Firma Steiger Riesenrad zog deswegen gegen die Stadt Stuttgart vor Gericht und gewann 2011 den Prozess. Seither ist das Unternehmen nicht mehr in Stuttgart auf dem Wasen präsent). Allerdings fehlte seit 1998 eine Looping-Achterbahn. Diese war von 1984 bis 1997 die größte Fahrattraktion des Festes. Zum ersten Mal stand 2004 der „Imperator“ auf dem Wasen. Das größte Flugkarussell der Welt bietet 64 Passagieren Loopingfahrten bis in 35 Meter Höhe. Der 66 Meter hohe „Power Tower 2“ feierte Premiere. Seit 2009 kommt die Doppel-Looping-Achterbahn „Teststrecke“ (auch auf dem Frühlingsfest) zum Einsatz. Seit 2010 wird an Stelle des Steiger-60-Meter-Riesenrads das etwas kleinere Expo-Riesenrad (Mega Wheel Millenium Star) auf dem Cannstatter Volksfest aufgebaut. Fruchtsäule. Die "Fruchtsäule" ist eine mit Früchten dekorierte 26 Meter hohe und 3,5 Tonnen schwere Holzsäule, die das Wahrzeichen des Cannstatter Wasens ist. Sie wird allerdings heute von zahlreichen Fahrgeschäften überragt. Schon beim ersten Volksfest 1818 gab es als Wahrzeichen eine Fruchtsäule, die vom damaligen württembergischen Hofbaumeister Nikolaus Friedrich von Thouret entworfen und erbaut worden war. Nach dem Ersten Weltkrieg, mit dem Beginn der ersten deutschen Republik, wurde die Fruchtsäule als „monarchistisches“ Überbleibsel vom Cannstatter Wasen verbannt. Seit dem 100. Jahrestag 1935 steht sie wieder auf ihrem angestammten Platz. Das Design der Fruchtsäule wurde im Laufe der Jahre immer wieder geändert. Bis vor kurzem wurde sie alljährlich nach Abschluss des Volksfests demontiert und es wurde mitunter eine neue Fruchtsäule mit anderem Design errichtet. Ab 1995 wurde sie versuchsweise einige Zeit lang ganzjährig stehen gelassen und war somit auf dem Stuttgarter Frühlingsfest erstmals zu sehen. Seit ein paar Jahren wird nur noch die Spitze demontiert und der Unterbau stehen gelassen, in dem sich einige Informationsstände befinden und der während des Frühlingsfestes die Cannstatter Stadtkanne trägt. Landwirtschaftliches Hauptfest. Alle vier Jahre ist dem Volksfest das "Landwirtschaftliche Hauptfest" angeschlossen – der ursprüngliche Auslöser des herbstlichen Trubels auf dem Wasen. Das Landwirtschaftliche Hauptfest dauert neun Tage (erste Volksfest-Woche) und kostet im Unterschied zum Volksfest Eintritt. Seit dem Hauptfest 2006 ist der Rhythmus der Ausrichtung geändert. Die Veranstaltung fand vorher alle drei Jahre statt. Fahrgeschäfte und Buden. Zelte, Imbissstände sowie Fahrgeschäfte sind sonntags bis freitags von 11 Uhr bis 23 Uhr geöffnet. Samstags und vor Feiertagen dauert der Betrieb bis 24 Uhr, allerdings endet in den Festzelten um 23:30 Uhr die Musik. Viele Kinderkarussells und andere Fahrbetriebe für Kinder stellen häufig schon um 22 Uhr den Betrieb ein. Im Jahr 2007 standen auf dem Volksfest 73 sonstige Geschäfte: Schieß-, Los- und Wurfbuden und Schaugeschäfte, 95 Verkaufsgeschäfte für Essen, ein Krämermarkt mit 60 Marktständen und eine Boxshow. Zum Vergleich: Auf dem Münchner Oktoberfest gab es 2004 41 Fahrgeschäfte, 16 Kinderfahrgeschäfte, 17 Schau- und Belustigungsgeschäfte und 65 gastronomische Kleinbetriebe. Im Jahr 2009 gab es nach mehreren Jahren erstmals wieder eine Achterbahn mit Looping. Zusammen mit dem Volksfest findet der Krämermarkt auf dem Cannstatter Wasen statt. Angeboten werden dort Hosenträger, Ledergürtel, Pfannen, Textilien, Gewürze und andere Kleinartikel. Jahrelang gehörte das "Französische Dorf" zum Cannstatter Volksfest, auf dem die Besucher bei landestypischer Musik französische Speisen und Getränke konsumieren konnten. 2004 war es mit 33 Ständen vertreten. 2007 wurde das Französische Dorf von dem Almhüttendorf abgelöst. Das bietet Themengastronomie ähnlich dem Französischen Dorf jedoch mit Ständen im Almhüttenstil. Volksfestumzug. Traditionell findet ein Festumzug zum Wasen statt – jeweils am ersten Sonntag des Festes. Ein wohl bis heute nicht überbotener Festumzugs-Rekord wurde 1954 aufgestellt, als über 300.000 Zuschauer zwischen Schlossplatz und Wasen die Straßen säumten. Thementage und Sondertarife. Um Familien mit Kindern anzulocken, werden seit mehreren Jahren zu bestimmten Terminen in manchen Zelten bzw. Fahrgeschäften spezielle Kinder- oder Familientarife angeboten. Mehrere Festzelte bieten tagsüber spezielle Ermäßigungen, so Mittagsangebote oder Rentnertarife an (das „Rentnerviertele“). Seit 2002 gibt es Schwulen-Abende, wie auf dem Münchner Oktoberfest. Seit 2002 veranstaltet das Festzelt „Wasenwirt“ eine „Gaydelight-Party“, seit 2005 findet im Festzelt „Göckelesmaier“ die „Gay-Chicken-Night“ statt. Der Anfang Oktober gelegene Tag der Deutschen Einheit bietet den Betreibern seit 1990 einen zusätzlichen arbeitsfreien Tag während des Volksfestes. Anlässlich des Nationalfeiertags wurde die alte Tradition des Volksfest-Feuerwerks wiederbelebt. Zum Volksfestende findet am letzten Sonntag um 21.45 Uhr das 20-minütige Musikfeuerwerk statt. Philatelie. Bis vor wenigen Jahren wurden Briefe, die in die auf dem Cannstatter Volksfest aufgestellten Briefkästen gesteckt wurden, mit einem Sonderstempel der Post versehen, die begehrte Sammlerobjekte waren. Catherine Oxenberg. Catherine Oxenberg auch Catherine van Dien (, * 22. September 1961 in New York City, New York) ist eine US-amerikanische Schauspielerin, Drehbuchautorin und Produzentin. Sie ist die Tochter des US-amerikanischen Kleiderfabrikanten Howard Oxenberg (1919–2010) und der serbischen Prinzessin Elisabeth von Jugoslawien. Karriere. Bekannt wurde Oxenberg durch die Fernsehserie "Der Denver-Clan", in der sie von 1984 bis 1986 die Rolle der "Amanda Carrington" spielte. Hierfür wurde ihr auch ein Bambi verliehen. Im Kino war sie u.a. 1988 in der Bram-Stoker-Verfilmung "Der Biss der Schlangenfrau" von Regisseur Ken Russell zu sehen. Sie wirkte in verschiedenen Fernsehproduktionen mit, so 2001 in „The Miracle of the Cards“ mit Thomas Sangster, der Verfilmung der wahren Geschichte über den zehnjährigen krebskranken Craig Shergold. Außerdem spielte sie in zwei Fernsehfilmen die Rolle der Prinzessin Diana. 2008 war sie neben ihrem Mann Casper van Dien in ' in einer Gastrolle zu sehen. Privates. Am 12. Juli 1998 heiratete sie den Filmproduzenten Robert Evans, die Ehe wurde aber bereits neun Tage später annulliert. Seit 1999 ist sie mit dem Schauspieler Casper van Dien verheiratet. Sie hat drei leibliche Töchter (* 1991, 2001, 2003), sowie zwei Stiefkinder (* 1993, 1996). Im Juli 2007 erhielt Oxenberg einen serbischen Pass und besitzt jetzt neben der US-amerikanischen auch die serbische Staatsbürgerschaft. Charlie Parker. a> zu Ehren von Charlie Parker Charlie „Bird“ Parker (* 29. August 1920 als Charles Parker Jr. in Kansas City, Kansas; † 12. März 1955 in New York) war ein US-amerikanischer Musiker (Altsaxophonist und Komponist), der als einer der Schöpfer und herausragenden Interpreten des "Bebop" zu einem der wichtigsten und einflussreichsten Musiker in der Geschichte des Jazz wurde. Seine Musik „hat den Jazz beeinflusst wie vor ihm nur die von Louis Armstrong, wie nach ihm die von John Coltrane und Miles Davis“. Ab 1942 wirkte er an den legendären Jamsessions im "Monroe’s" und im "Minton’s Playhouse" in Harlem mit, wo er gemeinsam mit Dizzy Gillespie und Thelonious Monk entscheidende Grundlagen für den Modern Jazz legte. Er spielte dabei für die Zeit kühne Dissonanzen und rhythmische Verschiebungen, die jedoch allesamt von seinem Gefühl für melodische Schlüssigkeit geprägt waren. Auch in sehr schnellen Stücken vermochte er prägnant und stimmig mit hoher Intensität zu improvisieren. Anfang der 1950er Jahre verschlechterte sich der gesundheitliche Zustand des Altsaxophonisten, der seit seiner Jugend drogensüchtig war. Seinen letzten Auftritt hatte er am 5. März 1955 in dem nach ihm benannten New Yorker Jazzclub "Birdland". Anfänge in Kansas City. Parker wurde in Kansas City geboren. Der Vater war Service-Steward beim Santa Fe Express. Die Mutter machte noch als Sechzigjährige eine Ausbildung zur Krankenschwester. Charlie Parker hatte einen älteren Bruder, der als Postangestellter beim Kansas City Post-Office arbeitete. Parker begann erst nach dem Besuch der Lincoln High School, Altsaxophon zu spielen. Zwar hatte seine Mutter es ihm 1933 vorher geschenkt, doch Parker interessierte sich zunächst nicht dafür und verlieh das Saxophon zwei Jahre lang an einen Freund. Stattdessen spielte er Tenorhorn in der Brass Band der Highschool. So fragte ihn John Maher in einem Interview, bei dem auch Marshall Stearns anwesend war: „Haben Sie in der Marschkapelle Ihrer Oberschule … Tenorhorn gespielt?“ Darauf Parker: „Tut tuut … Sie hatten etwas, das sich Symphonisches Blasorchester nannte … Tenorhorn, ja richtig … Nein, nicht ganz so groß wie eine Tuba. Es besitzt drei Ventile. Zwischen einer Tuba und einem Althorn, ziemlich groß. Sie müssen es auf diese Art halten, Sie wissen schon, auf diese Art.“ – (Gelächter). Parker begann sich erst mit etwa 17 Jahren für das Altsaxophon zu interessieren. Parker spielte schon bald professionell mit diversen Bands, unter anderem mit "George E. Lee and his Novelty Singing Orchestra", der Territory Band von Tommy Douglas oder mit den "Deans Of Swing". Bassist Gene Ramey wurde einer seiner Freunde, mit dem er später auch in der Band von Pianist Jay McShann spielte. Parker hörte zu dieser Zeit einige der damals bekanntesten Saxophonisten, darunter die Tenorsaxophonisten Herschel Evans, Coleman Hawkins und Lester Young. Russells Biografie zufolge hatte Parker auf einer Jam-Session mit Mitgliedern der Count-Basie-Bigband ein Schlüsselerlebnis: Er spielte damals so schlecht, dass Schlagzeuger Jo Jones vor Wut sein Schlagzeug-Becken auf den Fußboden warf. Danach ließ sich Parker während eines Engagements am Lake Taneycomo vom Gitarristen seiner Combo in Harmonielehre unterrichten. Augenzeugen zufolge war er danach wie verwandelt: Von einem wenig kompetenten Saxophonisten mit miserablem Ton hatte er sich in einen fähigen und ausdrucksstarken Musiker entwickelt, der es nun sogar mit weit erfahreneren Saxophonisten aufnehmen konnte. Durchbruch als Musiker. Nach Zwischenstationen in der Band von Jay McShann, bei Noble Sissle (1942/43), in der Big Band von Earl Hines, wo er mit dem Trompeter und Arrangeur Dizzy Gillespie erstmals zusammenarbeitete, bei Cootie Williams, Andy Kirk und der innovativen Big Band von Billy Eckstine gründete Parker 1945 zusammen mit Gillespie die erste Bebop-Combo. Mit ihren energetischen Rhythmen und ihrer für den Jazz innovativen Harmonik stellte sie eine klare Absage an den etablierten Swing dar und wurde darum anfangs auch heftig kritisiert: Cab Calloway etwa nannte ihren Stil abfällig „chinese music“. Bis Ende der 1940er-Jahre hatte sich der Bebop jedoch als "der" definitive neue Jazz-Stil durchgesetzt und die Ära des modernen Jazz eingeleitet. Nachdem Dizzy Gillespie die Band 1946 während eines Aufenthalts in Hollywood auflöste, blieb Parker als einziges Bandmitglied ein Jahr in Kalifornien, trat bei JATP-Konzerten mit Lester Young auf und stellte dort eine eigene Band zusammen, in der zuerst der junge Miles Davis, danach Howard McGhee – ein Schüler Gillespies – die Trompete übernahmen. Hier unterschrieb er auch einen ersten Plattenvertrag mit dem Jazz-Label Dial Records von Ross Russell, seinem späteren Biografen, und nahm eine Reihe seiner wichtigsten Stücke auf, darunter die "Yardbird Suite", "Moose The Mooche" und "A Night in Tunisia" mit dem berühmten Altsaxophon-Break ("famous alto break") im ersten Take. Nach einer Aufnahmesession, bei der er unter anderem "Lover Man" einspielte, erlitt Parker einen Nervenzusammenbruch und musste ins Camarillo State Hospital eingeliefert werden, wo er einige Monate blieb. Nach seiner Entlassung kehrte er wieder nach New York zurück und stellte dort ein neues Quintett unter anderem mit Miles Davis zusammen. Dieses erhielt ein festes Engagement im Three Deuces auf der damals berühmten 52nd Street. Aus dieser Zeit stammen einige wichtige Aufnahmen, beispielsweise von "Billie’s Bounce", "Now’s the Time", "Donna Lee" – komponiert von Miles Davis – und "Koko". Dort übernahm jedoch Gillespie, der hohe Töne und schnelle Passagen sicherer beherrschte als Davis, den Trompeten-Part. 1948 hatte das Charlie-Parker-Quintett unter anderem ein Engagement im Royal Roost, wo viele Auftritte live mitgeschnitten und später veröffentlicht wurden ("The Bird Returns"); im Mai 1949 trat es auf dem Pariser Festival International 1949 de Jazz auf. Ab 1948 nahm Parker bis zu seinem Tode für Mercury Records, dann Verve Records auf, die Aufnahmen erschienen zusammengefasst unter dem Titel '. 1949 folgten einige Aufnahmen mit Streichern, Oboe, Waldhorn und Harfe, die unter dem Titel "Charlie Parker With Strings" auf Verve veröffentlicht wurden. Davon zählt "Just Friends" zu den herausragenden Aufnahmen Parkers, wie er selbst hervorhob. Er zeigt sich hier in solistischer Höchstform und erhält zudem durch ein sehr schönes Klaviersolo von Stan Freeman kongeniale Begleitung, die die sonst sehr kommerziell-süßlichen Studio-Arrangements vergessen lässt. Im nächsten Parker-Quintett stand der junge weiße Trompeter Red Rodney in der „front line“, der zuvor mit so renommierten Bands wie dem Claude Thornhill Orchestra und bei Woody Herman gespielt hatte. Am Piano saß nun Al Haig, Bass spielte Tommy Potter, Schlagzeug einer der besten jungen Bebop-Drummer, Roy Haynes. Von dieser Band gibt es – abgesehen von einer Reihe von Studioaufnahmen – einen sehr aufschlussreichen Livemitschnitt, der als "Bird at St. Nick’s" veröffentlicht wurde. Dort sind – wie später auch von Dean Benedetti, einem ergebenen Parker-Fan der ersten Stunde – von den Soli nur Parkers Saxophon-Passagen zu hören. Diese offenbaren teilweise eine damals schon sehr „freie“ Spielweise, so dass diese Platte ein absolutes „must-have“ für jeden Parker-Fan ist. Die Band tourte dann durch die Südstaaten der USA. Dort wurden damals noch keine gemischtrassigen Bands toleriert, so dass der weiße Pianist Al Haig durch den schwarzen Walter Bishop ersetzt und Red Rodney als „Albino Red“ – also weißhäutiger Schwarzer – angekündigt wurde. Wegen der miserablen hygienischen Bedingungen für schwarze Bands war dies Parkers letzte Tournee durch die Südstaaten. Russell beschreibt diese Episode ausführlich in seiner Biografie. Aus dem Ende 1949 eröffneten und nach Parkers Spitznamen benannten „Birdland“ stammen noch einige interessante Livemitschnitte der 1950er-Jahre, wie auch weitere Live-Aufnahmen von "Charlie Parker With Strings". Ihren Abschluss bildet ein Konzert, das Parker 1953 in der „Massey Hall“ in Toronto gab und das Charles Mingus, sein damaliger Bassist, mitschnitt und später auf seinem eigenen Label Debut Records veröffentlichte. "Jazz at Massey Hall" gilt als eine Art „Schwanengesang“ des Bebop, da der Trend inzwischen zum von Miles Davis eingeleiteten Cool Jazz gegangen war. Abstieg. Parker war wahrscheinlich schon seit seinem fünfzehnten Lebensjahr heroinabhängig, so Ross Russell. Oft wurde er wegen seines unberechenbaren Verhaltens auf der Bühne aus laufenden Spielverträgen entlassen, so dass er immer seltener feste Engagements bekam. So sah er seinen Stern seit etwa 1950 langsam aber sicher sinken. Letzte Höhepunkte sind seine beiden Auftritte im März und September 1953 im Bostoner Club "Storyville". Am 12. März 1955 starb Charlie Parker, geschwächt von Leberzirrhose, Magengeschwüren und einer Lungenentzündung, im New Yorker Hotel Stanhope in der Suite der Baroness Pannonica de Koenigswarter, einer Gönnerin schwarzer Jazzmusiker. Die Musik Charlie Parkers. Parkers Spielweise ist geprägt von einer äußerst lebhaften, beweglichen, ideenreichen und virtuosen Melodik, oft in Verbindung mit einer vibrierenden, unruhig wirkenden Rhythmik. Darum sind seine Melodielinien besonders auf alten Aufnahmen teilweise nur bruchstückhaft erkennbar. Anfang der vierziger Jahre erschöpfte sich der damals nicht nur in den USA enorm populäre Swing immer mehr in klischeehaften Arrangements und stereotypen Harmonien. Die häufig schlagerartigen Themen produzierten Soli mit oft typischen, vorhersehbaren Wendungen im Rahmen weiter, gut nachvollziehbarer Spannungsbögen. Gelangweilt suchte Parker mit anderen jungen Musikern nach neuen musikalischen Wegen, die mehr kreative Entfaltung zuließen. So „zerlegte“ er die großen, nachsingbaren Bögen der Swingmelodien in lauter kleinere, motivische Fragmente, eine Technik, die schon in der „Diminution“ des Hochbarock auftaucht. Die Tempi werden oft rasend schnell, die Soli bestehen daher oft aus geradezu halsbrecherisch schnellen Ton-Kaskaden. Diese sind jedoch harmonisch und rhythmisch immer schlüssig und verlieren nie den Bezug zu den zu Grunde liegenden Akkorden. Dies erreichte Parker durch spezielle Skalen, die er schon in Kansas – während seines Rückzugs aus den öffentlichen Sessions und heimlichen Übephase – entwickelte. Er erweiterte eine normale Tonleiter um „Leit“- oder „Gleittöne“, die im Swing als disharmonisch galten, aber seine Läufe und Phrasen auf rhythmischen Schwerpunkten enden ließen. Dazu gehörte auch das im Swing „unerlaubte“ Intervall der erhöhten Quarte, deren Abwärtssprung lautmalerisch „Be-Bop“ zu sagen scheint. Zugleich integriert er die Vitalität eines starken Bluesfeelings in seine Soli. Parkers Improvisationsstil veränderte die übliche Formelsprache des Swing auch im Blick auf die Harmonien: Diese wurden mit mehr "tensions" (Zusatztönen im Akkord) angereichert und wechselten häufiger. Der hypnotische Sog seines Saxophonspiels erzeugte eine Wechselwirkung mit seinen Mitmusikern: So ließen sich etwa der Schlagzeuger Kenny Clarke zu großer rhythmischer, der Pianist Thelonious Monk zu großer harmonischer Komplexität inspirieren. Parker führte diese Elemente dann wiederum auf ganz eigene Weise zusammen und bewegte sich innerhalb dieses selbst geschaffenen musikalischen Idioms mit einer einzigartigen Gewandtheit und Eleganz. Auch als Komponist ist Parker für die Jazzgeschichte maßgebend geworden. Seine Stücke entstanden oft aus Improvisationen über längst bekannte Themen. Er benutzte einfach das Harmoniegerüst eines Standards, um darüber – meist spontan und oft erst im Studio – ein völlig neues, wiederum in sich stimmiges Thema zu erfinden. Für die auf solche Art entwickelten Themen hat sich der Fachbegriff bebop head entwickelt. Er hielt sich in der Regel nicht damit auf, dieses zu notieren, so dass er zahllose begeisterte Musikerfans und Editoren mit dem „Heraushören“ beschäftigte. Einer seiner Wahlsprüche war: „Learn the damn changes to forget them!“ – „Lern die verdammten Akkorde, um sie zu vergessen!“ "Ornithology" etwa ist quasi ein elegantes Solo über "How High The Moon", das dessen Harmoniewechsel „beschleunigt“.(15px), "Bird of Paradise" eine Variation über "All the Things You Are". Oft verwendete Parker auch harmonische Grundformen des Jazz wie die Rhythm Changes von George Gershwins Hit "I Got Rhythm" (so beispielsweise bei "Celebrity", "Chasing the Bird", "Kim", "Moose the Mooche", "Passport", "Steeplechase", "Anthropology", "Dexterity" und anderen) oder das Blues-Schema, wobei er diese Formen harmonisch erweiterte. Beispiele für den harmonisch erweiterten sog. "Parker Blues" mit rhythmisch raffiniert „versetzter“ Themenphrasierung sind "Au Privave", "Confirmation" oder "Blues for Alice": Charakteristisch sind zum einen die Verwendung des Großen Septakkords (oder in der im Jazz international üblichen englischen Bezeichnung "Major Seventh") anstatt des Dominantseptakkords auf der I. Stufe, d.h. der Erweiterung des Durdreiklangs durch die große anstatt der kleinen Septime (s. erster Teil im Hörbeispiel), zum anderen kadenzartige Überleitungen zwischen den Hauptakkorden, insbesondere von der I. auf die IV. Stufe in den ersten 4 Takten (die z.B. in "Confirmation" oder "Blues for Alice" schon im 2. Takt beginnt). So gelang es Parker, Blues und funktionale Harmonik miteinander zu verschmelzen. (15px, gegenüber dem üblichen Tempo stark verlangsamt) Zu Beginn wirkte sein Spiel brandneu, revolutionär und galt den Heroen der Swingära geradezu als Frevel. Er setzte ihrem eingängigen und tanzbaren Stil eine Musik entgegen, die der Erwartungshaltung des Publikums widersprach. Der Bebop war mit seinen wirbelnden Melodiekürzeln und rasanten Rhythmen als Tanzmusik ungeeignet und wurde als disharmonisch und chaotisch empfunden. Parker verstand sich anders als viele damalige schwarze und weiße Musiker nicht als Entertainer, der nur die Wünsche der Hörermasse zu bedienen hatte. Er spielte durchaus extrovertiert und reagierte oft unmittelbar auf Zurufe auf der Bühne, sah sich dabei aber als Künstler, der fortwährend seinen eigenen, individuellen musikalischen Ausdruck suchte. Dies brachte ihm anfangs nur wenige Fans und Musikerfreunde ein, während das breite Publikum ihn zunächst schroff ablehnte. So war der Bebop in seiner Blütezeit zwischen 1945 und 1950 noch keineswegs populär und setzte sich erst allmählich auch kommerziell durch. Erst Charlie Parker gab dem Altsaxophon die dominante solistische Rolle im Combo-Jazz, die es in diesem Maße in den Big Bands der 1930er-Jahre noch nicht haben konnte. Damit gab er auch anderen Jazz-Instrumenten – vor allem Schlagzeug, Klavier, Gitarre und später der Hammond-Orgel – neue Impulse für größere solistische Freiheiten: Viele Trommler spielten fortan „melodischer“, die Harmonie-Geber rhythmischer. So definierte Parker den Jazz neu als gruppendynamisches Ereignis, das zu ungeahnten Abenteuern und Entdeckungen einlädt und dabei seine ursprüngliche Vitalität und Ausdruckskraft wiedergewinnt. Er verfügte über einen klaren, scharf akzentuierten Ton ohne Vibrato und eine hoch virtuose Technik, was ihm bei seinen Musikerkollegen viel Bewunderung einbrachte. Der Saxophonist Paul Desmond sagte in einem Interview, bei dem Parker auch anwesend war: „Eine weitere Sache, die ein wesentlicher Faktor in Ihrem Spiel ist, ist diese phantastische Technik, der niemand ganz gleich kommt.“ Parker antwortete darauf: „Naja, Sie machen es mir so schwer, Ihnen zu antworten; Sie wissen schon, weil ich nicht erkenne, wo bei dem Ganzen etwas Phantastisches ist … Ich habe die Leute mit dem Saxophon verrückt gemacht. Ich habe da gewöhnlich mindestens 11 bis 15 Stunden täglich hineingesteckt.“ Noch heute gilt er als das überragende und unübertroffene Genie auf dem Altsaxophon, das schulbildend gewirkt hat und dem viele Jazzmusiker nacheifern. Er hat den Jazz aus den Zwängen der Unterhaltungsmusik herausgeführt und damit als eigenständige Kunstform des 20. Jahrhunderts wenn nicht „etabliert“, so doch emanzipiert. Er gilt bei Musikern, Fachwelt und Publikum als der alles überragende Gründervater des Modern Jazz. Trotzdem war Parker kein Dogmatiker und brachte viel Verständnis für neuere Entwicklungen auf. Gedanklich konnte er sogar die Anfänge einer frei improvisierten Jazzmusik nachvollziehen. Auf die Frage des Journalisten John McLellan, was Parker von Lennie Tristanos neuer Richtung halten würde, dieser kollektiven improvisierten Musik ohne Themen und Harmonien (er, McLellan, könne gar nicht verstehen wie das funktioniere) antwortete Parker: „Das sind, genau wie Sie sagen, Improvisationen, Sie wissen schon, und wenn Sie genau genug zuhören, dann können Sie die Melodie entdecken, die sich innerhalb der Akkorde weiterbewegt, jeder beliebigen Folge von Akkordstrukturen, Sie wissen schon, und anstatt die Melodie vorherrschen zu lassen. In dem Stil, den Lennie und die anderen darbieten, wird sie mehr oder weniger gehört oder gefühlt.“ Der Mensch Charlie Parker. Grabplatte auf dem Lincoln Cemetery in Kansas City Zeitgenossen beschreiben Parker als hoch sensiblen und leidenschaftlichen, aber äußerst sprunghaften, zerrissenen und zu extremem Verhalten neigenden Charakter. Parkers ganzes Leben war von seiner Heroinabhängigkeit beeinflusst, die letztlich auch zu seinem frühen Tod führte. Er unternahm mehrere Selbstmordversuche, einen davon 1952 mit Jodtinktur nach dem frühen Tod seiner Tochter Pree. Als Junkie konnte er seine Karriere als professioneller Musiker oft nicht kontrollieren: Gelegentlich verkaufte er die Rechte an Plattenaufnahmen noch vor der Aufnahme für den Gegenwert einer Dosis Heroin. Seinem Dealer Emry Bird setzte er mit dem Stück "Moose The Mooche", das nach dessen Spitznamen betitelt war, ein musikalisches Denkmal. Die Aufnahmen vom 29. Juli 1946, bei denen "Loverman" und "The Gipsy" eingespielt wurden, gelten als ein tragisches Dokument seiner Sucht und seines Verfalls: Hier ist ein von schweren Entzugserscheinungen geplagter und offenbar völlig betrunkener Parker zu hören, der nur noch „lallend“ Saxophon spielen kann. Der Jazzclub Birdland erteilte ihm 1954 Hausverbot, nachdem er auf offener Bühne einen Streit mit dem ebenfalls drogenabhängigen Pianisten Bud Powell ausgetragen und anschließend seinen Auftritt abgebrochen hatte. Parker war insgesamt dreimal verheiratet, gegen Ende seines Lebens mit zwei Frauen zugleich: Chan und Doris. Diese stritten sich nach seinem Tod über Ort und Formalitäten seines Begräbnisses sowie um sein Erbe. Seine zuerst geehelichte Frau Doris setzte sich durch und ließ ihn gegen seinen testamentarischen Willen nicht in New York, sondern in Kansas City begraben. Sonstiges. Ihm zu Ehren findet seit 1992 in New York das Charlie Parker Festival statt. Chick Corea. Armando Anthony „Chick“ Corea (* 12. Juni 1941 in Chelsea, Massachusetts) ist ein US-amerikanischer Musiker. Er zählt zu den bedeutendsten zeitgenössischen Jazz-Pianisten und -Komponisten und gilt außerdem als einer der Gründerväter des Jazzrock. Frühe Jahre (1941–1971). Chick Corea wurde am 12. Juni 1941 in der Stadt Chelsea im US-Staat Massachusetts geboren. Bei seinem Vater, einem Bandleader, lernte er mit vier Jahren das Klavierspiel vor allem klassischer Komponisten. Schon früh entdeckte er auch den Jazz, insbesondere den Soul Jazz, für sich. Als seine größten Einflüsse zu dieser Zeit nennt er neben den Jazz-Musikern Horace Silver und Bud Powell auch klassische Komponisten wie Mozart und Beethoven. Seine ersten größeren Auftritte absolvierte er mit Cab Calloway, Mongo Santamaría und Willie Bobo. Nach einigen Aufnahmen für andere Musiker nahm Chick 1966 sein erstes Soloalbum "Tones for Joan's Bones" auf. Zwei Jahre später nahm er sein zweites Album "Now He Sings, Now He Sobs" zusammen mit Miroslav Vitouš und Roy Haynes auf. Diese zweite Platte, die oft als Klassiker bezeichnet wird, machte Corea in der Jazz-Welt bekannt. Im selben Jahr, 1968, ersetzte Chick Corea Herbie Hancock in der Band von Jazz-Trompeter Miles Davis und nahm mit ihm das Album Filles de Kilimanjaro auf. In den folgenden Jahren spielte er auch auf dessen Alben In a Silent Way und Bitches Brew sowie bei den Live-Aufnahmen zu "Live-Evil" und. 1970 verließ Corea zusammen mit Bassist Dave Holland die Band von Miles Davis, um gemeinsam mit Schlagzeuger Barry Altschul und Saxophonist Anthony Braxton ein Quartett zu gründen. Mit dieser Gruppe nahm Chick drei Alben auf. Mit Return to Forever (1971–1978). → "Siehe auch: Return to Forever" Return to Forever bei einem Auftritt in New York, 1976 1971 gründete Corea zusammen mit Bassist Stanley Clarke, Saxophonist Joe Farrell, Schlagzeuger Airto Moreira sowie dessen Frau, Sängerin Flora Purim, die Gruppe "Return to Forever". 1972 nahm diese Fusion-Formation ihr gleichnamiges Debüt-Album auf. Im selben Jahr nahmen Corea, Clarke, Farrell und Schlagzeuger Tony Williams mit dem einflussreichen Saxophonisten Stan Getz dessen Album "Captain Marvel" auf. Im September des Jahres nahmen "Return to Forever" ihr zweites Studioalbum namens "Light as a Feather" auf, das auch eine der berühmtesten Kompositionen von Chick Corea enthielt: "Spain". In neuer Besetzung folgten weitere Aufnahmen mit der Fusion-Formation, unter anderem mit Gitarrist Bill Connors und Schlagzeuger Lenny White. 1975 wurde das Album "No Mystery", das einen Grammy gewann, aufgenommen. Zur gleichen Zeit nahm Chick Corea zwei Soloalben auf: "The Leprechaun" und "My Spanish Heart". Kurz darauf lernte er seine zukünftige Frau "Gayle Moran" kennen, als sie als Sängerin für "Return to Forever" angeheuert wurde. Solo-Projekte (1978–1986). Nach der Auflösung von "Return to Forever" ging Corea zunächst zusammen mit Herbie Hancock auf eine Tour, auf der die beiden Duette am klassischen Klavier spielten. Es folgten das gemeinsame Album "Corea/Hancock" sowie der Live-Mitschnitt eines Konzertes im Jahre 1980 ("An Evening with Herbie Hancock and Chick Corea"). Außerdem nahm Corea 1978 die Soloalben "The Mad Hatter", "Friends" und "Secret Agent" mit verschiedenen Größen des Jazz auf. 1981 folgte das Album "Three Quartets", das unter anderem zusammen mit Michael Brecker aufgenommen wurde. Später in diesem Jahr ging er auf Tour mit Saxophonist Joe Henderson, Bassist Gary Peacock und Schlagzeuger Roy Haynes. Im selben Jahr kam es zu einem Wiedersehen mit dem Bassisten Miroslav Vitouš, mit dem er dreizehn Jahre zuvor "Now He Sings, Now He Sobs" aufgenommen hatte. Zusammen mit Haynes nahmen sie das Album "Trio Music" auf. 1982 war Corea Teil der R&B-Band "Echoes of an Era", neben seinen "Return to Forever"-Kollegen Stanley Clarke und Lenny White. Elektric Band und Stretch Records (1986–2006). Zusammen mit Dave Weckl und John Patitucci sowie den Gitarristen Scott Henderson und Carlos Rios gründete Corea Ende der 1980er die Fusion-Formation "Elektric Band" für das gleichnamige Debütalbum, das 1986 erschien. Nach einer Umbesetzung mit dem Gitarristen Frank Gambale und dem Saxophonisten Eric Marienthal veröffentlichte die Gruppe in konstanter Besetzung zwischen 1987 und 1991 vier Alben. 1993 folgte das Album "Paint the World" mit teils neuen Musikern unter dem Namen "Elektric Band II". Neben der "Elektric Band" formte Corea mit seinen beiden Bandkollegen Patitucci und Weckl auch die "Akoustic Band", die ausschließlich aus akustischen Instrumenten bestand. Das Trio nahm zwei Alben auf. 1992 gründete Corea das Label "Stretch Records", das sich bei der Auswahl seiner Künstler nicht nach Genre, sondern nach Kreativität richtete. Unter anderem veröffentlichte das Label Alben von John Patitucci, Bob Berg, Eddie Gomez und Robben Ford. Nachdem der Vertrag mit seinem alten Label, GRP Records, abgelaufen war, veröffentlichte er seine folgenden Alben über sein eigenes Label, das sich kurz vorher mit Concord Records zusammengeschlossen hatte. In der Zeit bis 1998 folgten weitere Kollaborationen, zum Beispiel mit Roy Haynes oder Bobby McFerrin. Im Jahr 2000 nahm Corea gemeinsam mit dem London Philharmonic Orchestra das Album "corea.concerto" auf, auf dem neben einer dreisätzigen Orchesterfassung von Spain auch Coreas erstes Klavierkonzert zu hören ist. Nachdem er im Jahre 2004 seine "Elektric Band" wiedervereinigt hatte, nahm er mit dieser ein neues Album ("To the Stars") auf, für das er sich Inspiration beim Autor L. Ron Hubbard holte. Für die Interpretation von "The Ultimate Adventure" des gleichen Autors erhielt Corea zwei Grammys. Neue Richtungen (2006–2008). 2006 führte Chick Corea sein zweites Klavierkonzert "The Continents" bei einem Auftritt mit dem Bayerischen Kammerorchester anlässlich des Mozartjahrs in der Wiener Staatsoper urauf. Darin eingebunden interpretierte er W. A. Mozarts Klavierkonzert Nr. 24. Kurz darauf veröffentlichte er die Platte "Super Trio: Corea/Gadd/McBride" zusammen mit Steve Gadd und Christian McBride. Das Album, das nur in Japan erschien, wurde dort vom "Japan's Swing Journal" als Jazz Album des Jahres bezeichnet und erreichte Goldstatus. Im Dezember des Jahres nahm Corea gemeinsam mit Banjo-Spieler Béla Fleck das Album "The Enchantment" auf. Die beiden kannten sich bereits von früheren Aufnahmen wie Béla Flecks "Tales From The Acoustic Planet". Chick sagte über das Album, dass es ihn dazu gebracht habe, in unbekannte Territorien vorzudringen. Zurück zum Jazzrock (2008-heute). Nach einigen neuen Erfahrungen mit Künstlern wie Gary Burton oder Antonio Sanchez kehrte Chick Corea wieder zur Fusion zurück. So ging er 2008 mit "Return to Forever" auf Welttournee. Nach dieser Tournee gründete er zusammen mit John McLaughlin die "Five Peace Band". Mit dieser Formation spielte er mehrere Konzerte und nahm das Livealbum "Five Peace Band Live" auf, für das Corea seinen insgesamt 16. Grammy gewann. Nach einer Tour mit Christian McBride und Brian Blade durch die USA und durch Japan schloss Corea zuletzt das Projekt "RTF IV" ("Return to Forever IV") an, welches neben Frank Gambale an der Gitarre den Violinisten Jean-Luc Ponty einschloss. Verbindung zu Scientology. 1993 wurde Corea von einem Konzert, das im Zuge der Leichtathletik-Weltmeisterschaften in Stuttgart stattfinden sollte, vom Veranstalter ausgeschlossen. Der Grund dafür war, dass die Landesregierung Baden-Württembergs die Subventionen für die Veranstaltung streichen wollte. Begründet wurde dies mit Coreas Mitgliedschaft bei Scientology. Corea erhob beim Mannheimer Verwaltungsgerichtshof Klage gegen Bekundungen der Landesregierung, die Förderung von Veranstaltungen, bei denen bekennende Scientologen auftreten, überprüfen zu wollen. Die Klage wurde abgewiesen. Diskographie (Auswahl). Corea bei seinem Auftritt mit Béla Fleck am 1. März 2008 Grammys. Sein Album aus dem Jahr 1968 "Now He Sings, Now He Sobs" wurde 1999 in die "Grammy Hall of Fame" aufgenommen. Computerspiel. Ein Computerspiel ist ein Computerprogramm, das einem oder mehreren Benutzern ermöglicht, interaktiv ein durch implementierte Regeln beschriebenes Spiel zu spielen. Umgangssprachlich wird auch der Begriff "Game" verwendet (von ‚Spiel‘). Obwohl alle Spiele auf computerbasierten Geräten wie PC und Spielkonsole Computerspiele sind, wird umgangssprachlich der Begriff Computerspiel vornehmlich für Spiele auf PCs verwendet. Der Begriff Videospiel bezeichnet alle elektronischen visuell-basierten Spiele und wird meist für PC-, Mobil- und Konsolenspiele verwendet. Das Forschungsgebiet "Game Studies" befasst sich mit Computerspielen auch in theoretischer Hinsicht, wobei die Spiele als Produkte und das Spielen als Handlung in Betracht gezogen werden. a> (1980), stilisierter Charakter des gleichnamigen Computerspiels Geschichte. Die Computerspiele entwickelten sich innerhalb von ca. 50 Jahren von eher technischen Versuchen an Universitäten zu einer der einflussreichsten Freizeitgestaltungsformen des 21. Jahrhunderts. Bereits auf den ersten Computern gab es Versuche, bekannte Spiele, wie etwa das Damespiel, umzusetzen. Als erstes Computerspiel, welches neue Möglichkeiten jenseits altbekannter Spiele bot, wird oft das 1958 von dem Amerikaner William Higinbotham entwickelte Tennis for Two angesehen. Die Entwicklung war stark abhängig vom technischen Fortschritt der Computertechnologie. Spielte sie sich anfangs nur „nebenher“ auf eigentlich für andere Zwecke vorgesehenen Großrechnern an Universitäten ab, so wurde es in den 1970er Jahren durch die Kombination der inzwischen relativ kostengünstigen einfachen Logikchips mit der existierenden Fernsehtechnologie möglich, Spiele auch auf elektronischen Spielautomaten in der Öffentlichkeit zu spielen. Sehr erfolgreich war zum Beispiel Pong von Nolan Bushnell. Unternehmen wie Atari oder Magnavox brachten das Computerspiel in Form von Videospielkonsolen auch den Heimanwendern nahe. Es entwickelte sich ein rasant wachsender Massenmarkt. Durch die Einführung der Heim- und Personal-Computer (PCs) in den 1980er Jahren entwickelten sich zunächst zwei technisch betrachtet unterschiedliche Arten des Computerspiels: Zum einen das Videospiel (damals „Telespiel“), welches auf speziellen Spielkonsolen fußte und das Computerspiel für Heimcomputer und später zunehmend für PCs. Im Jahr 1983 kam es zu einem Crash auf dem Videospielemarkt, vor allem durch die Überschwemmung des Marktes mit schlechten Videospielen und der wachsenden technischen Überlegenheit der Heimcomputer gegenüber den damaligen Spielkonsolen. In Japan, wo Heimcomputer noch nicht so erfolgreich waren, läutete Nintendo 1983 mit der Konsole "Nintendo Entertainment System" eine neue Ära der Videospiele ein, die etwa zwei Jahre später auch Nordamerika und Europa erreichte. Seit Mitte der 1990er Jahre werden die Bereiche für Spielekonsolen und PCs aus Vermarktungsgründen wieder zunehmend zusammengeführt. So bilden einheitliche Speichermedien (wie die CD-ROM oder DVD) und eine kompatible Hardware die Möglichkeit, Spiele für verschiedene Konsolen wie auch für PCs weitgehend parallel und somit kostengünstiger und für einen breiteren Markt zu entwickeln. Computerspiele sind heute eine weitverbreitete und wichtige Form der Unterhaltung. Sie zählen zu den produktivsten Bereichen erzählerischer Aktivität in den digitalen Medien. Sie haben den Bereich der "Interactive Fiction" um sensuelle Eindrücke erweitert und den Benutzern ermöglicht, in Echtzeit zu interagieren. In vielen Ländern hat sich eine eigene Industrie für ihre Entwicklung gebildet, deren Umsätze teilweise die der jeweiligen Filmindustrie übersteigen. Bedeutung. Computerspiele prägen heute unsere Kultur und sie beeinflussen Menschen moderner Gesellschaften ebenso wie andere Massenmedien. Besonders bei Jugendlichen ist zu beobachten, dass sich ihr Alltag durch Computerspiele stark verändert. Die Bedeutung und Akzeptanz eines Computerspiels ist in den einzelnen Industriestaaten sehr unterschiedlich. In manchen Ländern führen Computerspiele gesellschaftlich und kulturell ein Nischendasein, wenn auch nicht zwingend wirtschaftlich. Dagegen hat sich beispielsweise in Südkorea eine bedeutende Kultur rund um Spiel und Spieler gebildet. Computerspiele nehmen dort einen hohen Stellenwert in der Alltagskultur ein. Das Computerspiel wird nur zögernd als Kunstform neben Film, Musik, bildender Kunst usw. akzeptiert. Das mag an der kurzen Geschichte und den oft sehr technologiebezogenen und auf bloße Unterhaltung fixierten Inhalten liegen, wobei diese zudem bei neuen Titeln sehr oft bloße technisch verbesserte Wiederholungen älterer Titel mit kaum neuen Inhalten sind. Auf der anderen Seite mag auch die abwertend wirkende Bezeichnung "Spiel" dazu beitragen, die eine Ähnlichkeit zu einem Spielzeug mit bloßem Unterhaltungswert ohne Inhaltsvermittlung vermuten lässt. Es gibt auch Argumente für die Kunstform Computerspiel: Da das Spielen am PC oder an der Konsole interaktiv ist, macht jeder seine eigene „Kunst“, indem er seine eigene Spielweise anwendet. Nutzung. Zwei junge Männer spielen Computerspiele. (Thailand, 2007) Computerspiele werden in allen Altersschichten gespielt. Manche Kinder beginnen bereits im Vorschulalter damit. Im Allgemeinen interessieren sich vor allem männliche Jugendliche und junge Männer für Computerspiele. Der durchschnittliche Computerspieler war 2003 zwischen 18 und 23 Jahren alt. Laut Digitalverband Bitkom spielen 2015 42 Prozent der Deutschen Computer- und Videospiele. Dabei gibt es Unterschiede in den einzelnen Altersgruppen: Bei den 14- bis 29-Jährigen liegt der Anteil bei 81 Prozent. In der Altersgruppe zwischen 30 und 49 Jahren sind es 55 Prozent, unter den 50- bis 64-Jährigen 25 Prozent und in der Generation 65-Plus spielen 11 Prozent Computer- oder Videospiele. Die Entertainment Software Association, der Wirtschaftsverband, in dem die meisten Computerspiele Publisher engagiert sind, geht davon aus, dass jeder vierte amerikanische Bürger im Alter von über 50 Jahren regelmäßig am Computer spielt. Weibliche Jugendliche sind Computerspielen nicht abgeneigt, verbringen aber meist weniger Zeit damit. In Deutschland spielten 2007 der Studie „Typologie der Wünsche“ nach 38,8 % der Männer und 22,3 % der Frauen Computer- oder Videospiele. 2015 konnte eine repräsentative Umfrage erstmals zeigen, dass in Deutschland der Anteil an Spielern bei Männern und Frauen mit 43 bzw. 42 Prozent etwa gleich hoch ist. Insbesondere im E-Sport, dem wettbewerbsmäßigen Spielen von Computer- oder Videospielen, gibt es etliche sogenannte „all female“, also rein weibliche "Clans", die auch ihre eigenen Turniere bestreiten. In der Regel richten Spielkonsolen sich meist an ein jüngeres Publikum und beinhalten deshalb mehr Action. Computerspiele für den PC können durch leistungsfähigere Hardware auch komplexere Simulationen erzeugen und sind daher auch bei Älteren beliebt: Die Hauptkäufergruppe sind nicht Jugendliche, sondern junge Erwachsene, da Jugendliche nicht über das erforderliche Geld verfügen und deswegen kommerzielle Software oft kopieren. Ein ähnliches Problem kennt die Musikindustrie. Eine Nutzung von Computerspielen zum Zweck der Ausbildung ist möglich. Sie entspricht aber nicht der strengen Definition eines Spiels als "zweckfrei", so dass man in solchen Fällen meist von Simulationen spricht. Durch die Möglichkeiten der digitalen Medien entsteht aus den Reihen der Spieler eine Bewegung von Menschen, die Computerspiele nicht nur nutzen, sondern diese auch verändern und sogar neue Spiele daraus entwickeln. Sogenannte Mods (Kurzform von Modifikation) sind meist von den Spielern, selten von professionellen Spieleentwicklern, erstellte Veränderungen oder Erweiterungen von Computerspielen. So werden zum Beispiel nach kurzer Zeit schon Fehler oder unerwünschte Beschränkungen in kommerziellen Spielen beseitigt, die Grafik verbessert oder zusätzliche Funktionen eingebaut. Viel bedeutender sind jedoch die Mods, die das ursprüngliche Spiel um neue Erlebnisse erweitern. Die bekannteste Modifikation ist Counter-Strike, ursprünglich als Mehrspieler-Erweiterung zum Spiel Half-Life entstanden. Die Computerspiel-Industrie unterstützt diese Szene zunehmend aktiv, da es eine günstige Möglichkeit darstellt, fertige Spiele zu erweitern und dadurch noch attraktiver zu machen. Negative Effekte. Bei übertriebenem Konsum von Computerspielen und dem damit verbundenen Schlafentzug kann es (wie bei übertriebener Computernutzung allgemein) zu Schlafstörungen, Halluzinationen, Konzentrationsschwächen, Haltungsschäden (hervorgerufen durch Bewegungsmangel), Nervenschäden (Karpaltunnelsyndrom), Augenschäden, Leistungsversagen und Nervosität kommen. Auch das Auftreten von Gaming Sickness "(siehe auch Simulator Sickness, Reisekrankheit)" ist möglich. In vielen Spielhandbüchern werden außerdem Epilepsiewarnungen ausgesprochen; diese sind in einigen Staaten gesetzlich vorgeschrieben. Eine am 10. November 2005 veröffentlichte Studie der Berliner Charité zeigte, dass etwa jeder zehnte Computerspieler Abhängigkeitskriterien erfüllt, vergleichbar mit denen von anderen Süchtigen wie beispielsweise Alkoholabhängigen. Ein Zusammenhang zwischen Aggressionen und Spielsucht wurde nicht festgestellt, jedoch wird dieses Thema in der Politik und in den Medien stark diskutiert. Positive Effekte. Zu den förderlichen Auswirkungen von Videospielen gehört das Training von räumlicher Orientierung, Gedächtnisbildung, strategischem Denken sowie Feinmotorik. Auch die Aufmerksamkeit und Wahrnehmung visueller Details kann verbessert werden. Doch Computerspiele sind nicht nur als reine Freizeitbeschäftigung für die Konsumenten selbst interessant; es gibt inzwischen gezielte Anwendungen durch die Medizin, beispielsweise zur Behandlung von Demenzerkrankungen, Schmerz- oder Schlaganfallpatienten, wobei teilweise speziell entwickelte und teilweise "normale" Spiele erprobt werden. Für die Behandlung einer Schwachsichtigkeit, vornehmlich im Kindesalter, wurde ein Spiel konzipiert, bei dem das seit Langem bekannte Anaglyph-Verfahren für 3D-Stereoskopie zweckentfremdet wird, um statt eines 3D-Eindrucks ein 2D-Bild zu erzeugen, das nur unter Benutzung beider Augen korrekt erkannt werden kann; ein Spielfortschritt ist nicht möglich, wenn nur das dominante Auge benutzt wird. Bislang übliche Therapien konzentrieren sich darauf, das dominante Auge auszuschalten (bspw. durch Augenklappen oder Pflaster), um das schwache Auge ohne das dominante zu trainieren. Wettbewerbe und Meisterschaften. E-Sport-Wettbewerb (World Cyber Games in Singapur, 2005) Beim "elektronischen Sport" "(E-Sport)" treten Spieler organisiert in Clans im Mehrspielermodus der einzelnen Computerspiele gegeneinander an, um sich sportlich zu messen oder zunehmend auch um finanzielle Interessen zu verfolgen. Wenn hauptsächlich Preisgelder aus den Turnierspielen und Sponsorenverträge angestrebt werden, spricht man vom "Progaming". Diese Mannschaften spielen dann auch häufig in Ligen mit. Die wohl bekannteste und größte Liga im deutschen Raum ist die ESL, die Electronic Sports League, bei der die Gewinner Prämien von bis zu 500.000 € gewinnen können. Inzwischen steigern sich aber die Preisgelder enorm, beispielsweise gibt es bei der CPL World Tour ein Preisgeld von 1.000.000 Dollar zu gewinnen. International weitaus prestige- und preisgeldträchtigere Turniere sind der Electronic Sports World Cup oder die World Cyber Games. Neben den Sportligen gibt es mittlerweile Meisterschaften in fast allen Genres der Videospielekultur (Ego-Shooter, Construction Games, etc.). Computerspiele als Industrie. a>, hier mit George W. Bush. Geschichtliche Entwicklung. Während in den frühen 1980er Jahren zur Zeit der Heimcomputer und Videospielkonsolen noch ein einzelner Programmierer nahezu alle Aufgaben der Produktion eines Spiels erledigen konnte, benötigt man heute für kommerzielle Computerspiele aufgrund der gestiegenen Komplexität (wie z. B. durch den technischen Fortschritt oder die höheren Ansprüche an das fertige Produkt im Allgemeinen) Teams aus Spezialisten für die einzelnen Bereiche. Entwicklerszene. Computerspiele/Videospiele werden von Spieleentwicklern erstellt. Das können zwar auch Einzelpersonen sein, sind jedoch meist sog. Studios (Developer), in denen mindestens ein Game Designer, Produzent, Autor, Grafikdesigner, Programmierer, Level-Designer, Tongestalter, Musiker und Spieltester in Teams an der Entwicklung von Computerspielen zusammenarbeiten. Zu den bekanntesten Entwicklern zählen John Carmack, Sid Meier, Peter Molyneux, Will Wright, Shigeru Miyamoto, Yū Suzuki, Richard Garriott, Hideo Kojima, American McGee, Markus Persson, Chris Sawyer und Warren Spector. Die meisten Teams umfassen 20 bis 50 Entwickler, es können aber auch über 100 sein. Die durchschnittliche Entwickleranzahl und auch die Entwicklungsdauer sind mit der wachsenden Bedeutung der Industrie und der zunehmend komplexeren Technologie angestiegen. Die Produktion eines modernen, kommerziellen Spiels dauert etwa ein bis drei Jahre und kostet ungefähr eine bis 15 Millionen US-Dollar. Die Produktionskosten werden oftmals von sogenannten Publishern (vergleichbar mit Buchverlagen) getragen, die das fertige Produkt später vertreiben und vermarkten. Besonders in Japan unterscheidet sich die Spieleindustrie recht stark von der in Europa und den USA. Durch die Geschichte der Arcade-Spiele und der immer noch höheren Popularität von Konsolen- und Arcade-Spielen gegenüber PC-Spielen in Japan entwickelten sich dort andere Strukturen der Spielentwicklung. So produzieren viele Entwickler anonym oder unter Pseudonymen. Oft haben die Teams in Japan einen fest zugeordneten Designer ("Director" genannt) und sind wesentlich größer als bei vergleichbaren Spielen aus anderen Ländern. Da es auch schwieriger ist, ohne Publisher Spiele für Konsolen zu produzieren als beispielsweise für PCs, gibt es kaum unabhängige Produktionen aus Japan. In Europa und den USA haben sich dagegen etliche von Publishern unabhängige Studios gebildet. Vor der Veröffentlichung eines Computerspiels wird es einer Prüfung durch die Unterhaltungssoftware Selbstkontrolle (USK) unterzogen. Diese Prüfung ist keine Pflicht, wird aber bei praktisch jeder Neuveröffentlichung vorgenommen, da das Videospiel sonst nur volljährigen Käufern zugänglich gemacht werden dürfte. Diese Einstufung wird durch einen deutlich sichtbaren Aufdruck auf der Verpackung und dem Datenträger gekennzeichnet. Sollte der Inhalt des Spiels gegen geltendes Recht verstoßen (zum Beispiel bei Kriegsverherrlichung oder der Darstellung von leidenden Menschen in einer die Menschenwürde verletzende Weise), kann das Spiel durch die Bundesprüfstelle für jugendgefährdende Medien (BPjM) indiziert werden. Um das zu verhindern, werden Spiele für den deutschen Markt oft in einer gegenüber der internationalen Version „geschnittenen“ Fassung verkauft. Trotz der großen Popularität von Computerspielen ist eine Beschäftigung in dieser Industrie noch immer recht unsicher. Viele Entwicklerstudios entstehen, entwickeln einzelne Spiele und verschwinden schnell wieder vom Markt. Aus diesem Grund ist zu beobachten, dass sich die Entwickler verstärkt in bestimmten geografischen Gebieten ansammeln, um sich schnell wieder benachbarten Studios anzuschließen oder gar neue Teams zu gründen. Nur rund fünf Prozent aller Computerspiele erwirtschaften Profite. Etliche Produktionen werden nicht fertiggestellt und nie veröffentlicht. Deshalb kann es durchaus erfahrene Spieleentwickler geben, deren Arbeiten aber nie der Öffentlichkeit bekannt wurden. Die Spieleentwickler organisieren sich auf internationaler Ebene in der International Game Developers Association (IGDA) und haben sich in Deutschland zum "Bundesverband der Entwickler von Computerspielen" (G.A.M.E.) zusammengeschlossen. Weitere Verbände zur Interessensvertretung sind die Entertainment Software Association in den Vereinigten Staaten und der Bundesverband Interaktive Unterhaltungssoftware in Deutschland. Die größte Fachmesse ist die "E3 Media and Business Summit" (ehemals Electronic Entertainment Expo, auch E3), die jährlich in Los Angeles stattfindet. Der Besuch ist Fachbesuchern vorbehalten. In Europa war die Games Convention in Leipzig mit jährlich über 100.000 Besuchern die größte Messe für Computerspiele, seit 2009 wurde diese von der Gamescom auf dem Kölner Messegelände abgelöst. Spieleentwickler präsentieren jedes Jahr auf der Game Developers Conference die neuesten Entwicklungen und tauschen sich über kommende Technologien aus. Verkaufszahlen und Umsätze in Deutschland. Quelle: BIU Der Markt für Computerspiele in Deutschland ist, nach Aussagen des Branchenverbands G.A.M.E., mit einem Umsatz in Höhe von 2,66 Milliarden im Jahre 2013 der größte in Europa. Inhalte. Fast alle Computerspiele definieren das Ziel des Spiels durch formalisierte Erfolgskriterien wie eine Punktzählung (Highscore) oder das Erreichen vordefinierter Siegkriterien. Einige Spiele bieten außerdem Spielmodi, in denen kein Ziel definiert wurde und das Spiel beliebig fortgesetzt werden kann oder nur durch einen Misserfolg beendet wird (Endlosspiel). Beispiele dafür sind Lebenssimulationen und Non-Games. Motive. Moderne Computerspiele beschäftigen sich mit sehr unterschiedlichen Inhalten; einige nehmen zudem Bezug auf andere Medien. So werden oft Elemente oder ganze Welten aus bekannten Filmen wie etwa aus Blade Runner, den James-Bond-, Star-Trek- und Star-Wars-Serien übernommen und immer häufiger aus Computerspielen auf andere Medien übertragen – wie etwa die Verfilmungen von Tomb Raider, Resident Evil und Doom. Kategorien. Obwohl es die unterschiedlichsten Arten von Computerspielen gibt, ist innerhalb der wissenschaftlichen Auseinandersetzung keine klar definierte Kategorisierung möglich. Man unterscheidet zwischen vielen Genres, die auf der einen Seite eher auf semiotischen Schemata basieren (wie etwa Action-Adventures), auf der anderen Seite die Mechaniken und die verwendete Schnittstelle beschreiben (zum Beispiel Ego-Shooter). So gibt es etliche Computerspiele, die mehreren Genres zugeordnet werden können und bei denen deshalb eine Eingliederung schwerfällt. Einige Genres sind sehr bekannt, andere weniger. Zu den bekanntesten Genres zählt seit Mitte der 1990er Jahre der Ego-Shooter oder "First-Person-Shooter", bei dem die virtuelle Spielwelt aus der Ich-Perspektive dargestellt wird und der meistens das reaktionsschnelle Abschießen von virtuellen Gegnern zum Inhalt hat (siehe Frag). Weitere bedeutende Genres sind das Adventure, bei dem oft Rätsel in die Geschichte eingefasst sind und die Reaktionsschnelle gegenüber dem Nachdenken in den Hintergrund tritt; Strategiespiele, bei denen es darum geht, eine Basis aufzubauen, Rohstoffe zu sammeln, eine Armee oder Ähnliches aufzustellen und damit strategisch gegen seinen Gegner vorzugehen; Rollenspiele, in denen es vor allem um die spezifische Ausprägung der Fertigkeiten eines virtuellen Charakters ankommt und Jump-’n’-Run-Spiele, in denen sich die Spielfigur laufend und springend fortbewegt und das präzise Springen einen wesentlichen Teil der spielerischen Handlung darstellt. Ein weiteres Genre, das eng mit der Entwicklung von Computern verbunden ist, sind diverse Simulationen, wie Flugsimulationen, die teilweise auch professionell genutzt werden. Dazu zählen auch Wirtschaftssimulationen, in denen ein möglichst hoher Gewinn erwirtschaftet werden muss. In Sportspielen muss durch Geschicklichkeit an der Schnittstelle eine virtuelle Sportsituation gemeistert werden. Interaktion. Der Benutzer interagiert über einen Computer mit anderen Spielern oder künstlichen Spielfiguren durch Eingabe mittels Maus, Tastatur, Gamepad oder zunehmend per Gestensteuerung und erhält in der Regel über einen Bildschirm Reaktionen. Dabei steuert er häufig einen virtuellen Charakter als Stellvertreter durch eine vordefinierte Welt. In dieser kann er sich, je nach Spiel, in unterschiedlichem Maße frei bewegen. Der Spieleentwickler hat zuvor Regeln und Ziele definiert. Diese Regeln muss der Spieler einhalten "(siehe auch Cheat)", um das Ziel zu erreichen. Ein Qualitätsmerkmal für Computerspiele ist oft die Handlungsfreiheit. Das wechselseitige aufeinander Einwirken des Spielers mit dem Computer im Einzelspielermodus oder über einen Computer mit anderen Spielern im Mehrspielermodus ist grundlegend für das Computerspiel, weshalb man es anders als zum Beispiel das Fernsehen, den Film oder das Buch als interaktives Medium bezeichnen kann. Einzelspieler. Computerspiele werden überwiegend im sogenannten Einzelspieler-Modus gespielt. Dabei wird die Spielsituation nur durch den Spieler selbst und den Computer beeinflusst. Die Handlungen und Reaktionen der Gegner, oft Bots genannt, werden vom Computer berechnet. Das Niveau der künstlichen Intelligenz der Nichtspielercharaktere ist häufig Qualitätskriterium bei Spielen mit Einzelspieler-Modus und mit der Entwicklung der Computertechnologie schreitet sie immer weiter fort. Spielstände können in Form von Savegames gespeichert werden, um sie später wieder aufzunehmen oder an andere zu verschicken. Mehrspieler. Viele Computerspiele unterstützen auch den sogenannten Mehrspielermodus, bei dem mehrere menschliche Spieler gegen- oder miteinander (z. B. Koop-Modus) spielen können. Gespielt wird entweder am selben Computer (bei gleichzeitigem Spiel oft mit Hilfe der Split-Screen-Technik oder abwechselnd per Hot-Seat-System) oder über vernetzte Geräte: Über das Internet oder ein lokales Netzwerk (in größerem Umfang auch auf LAN-Partys, wo viele Gleichgesinnte ihre Computer miteinander vernetzen). Der Mehrspieler-Modus lässt einen direkten Vergleich der Spielfertigkeiten zu und ermöglicht so das sportliche Messen der Leistungen. Diesen sportlichen Wettkampf mit Computerspielen nennt man E-Sport. Beispiele für solche Spiele sind: League of Legends, Unreal Tournament, Warcraft 3 und Counter-Strike. Onlinespiele mit hoher Spielerzahl (MMO oder MMORPG). Über das Internet ist es möglich, viele Spieler an einem Computerspiel zu beteiligen. Dabei läuft das eigentliche Spiel auf einem Server und jeder Benutzer kann von einem vernetzten Computer aus am Spielgeschehen teilnehmen. Die bedeutendste Form dieser Online-Spiele sind die Massively Multiplayer Online Role-Playing Games, kurz "MMORPGs", bei denen mehrere tausend Spieler ein Rollenspiel spielen. Dabei fallen oft neben dem Kaufpreis für das Spiel auch laufende Kosten für die Benutzung der Server an. Diese regelmäßigen Kosten sind eine wichtige Einnahmequelle für die Betreiber solcher Spiele. "MMORPGs" besitzen, laut einer Studie für den deutschsprachigen Raum, ein gewisses Suchtpotenzial, da der Spieler sein Spieltempo nicht mehr selbst bestimmen kann. Das führt oft zu einem enormen Zeitaufwand für die Entwicklung der virtuellen Spielfigur. Das bisher erfolgreichste "MMORPG" ist "World of Warcraft", welches im September 2010 weltweit die 12-Millionen-Account-Grenze überschritt. Technik. Computerspiele werden über Eingabegeräte gesteuert. Der Computer verarbeitet diese Daten und berechnet mithilfe der sogenannten Spiel-Engine Reaktionen, die über Ausgabegeräte ausgegeben werden. Plattformen. Als Plattform bezeichnet man die Hard- und/oder Software, die als Grundlage für das jeweilige Computerspiel dient. Man kann zwischen statischen Plattformen wie extra entwickelten Spielkonsolen wie dem Nintendo Entertainment System oder der PlayStation und generischen Plattformen wie PCs und Mobiltelefonen unterscheiden, die sich mitunter stark verändern. Erfolgreichste Spielkonsole aller Zeiten gemessen an Verkaufszahlen ist mit Stand 2014 die PlayStation 2 von Sony. Aktuelle Spielkonsolen sind die PlayStation 4 von Sony, die Xbox One von Microsoft und die Wii U von Nintendo. Daneben existiert ein Markt für tragbare Geräte wie beispielsweise die Game-Boy-Serie und der später folgende Nintendo DS von Nintendo und die PSP bzw. Vita von Sony. War früher das mobile Computerspiel ausschließlich die Domäne dieser Handheld-Konsolen, so findet man heute immer mehr PDAs und Mobiltelefone bzw. "Smartphones", die zusätzlich zu ihren Kernfunktionen auch eine Spieleunterstützung besitzen. Der Personal Computer ist vor allem in Deutschland als Plattform für Videospiele noch immer sehr beliebt. Engines. Spiel-Engines (engl. "Game Engines") sind Programme, die den Spieleentwicklern häufig benutzte Werkzeuge zur Verfügung stellen und als technischer Kern eines Computerspiels verstanden werden können. Sie ermöglichen die Darstellung von 3D-Objekten, Effekten wie Explosionen und Spiegelungen, die Berechnung des physikalischen Verhaltens von Objekten im Spiel, den Zugriff auf Eingabegeräte wie Maus und Tastatur und das Abspielen von Musik. Bei der Produktion eines Computerspiels wird entweder eine neue Game-Engine programmiert – bis Mitte der 1990er war das fast immer der Fall – oder aber eine bereits bestehende lizenziert und evtl. modifiziert genutzt, wodurch die Produktionsdauer verkürzt werden kann. Bekannte kommerzielle Engines sind die Unreal Engine von Epic Games, die "CryEngine" des deutschen Entwicklerstudios Crytek und die Source Engine von Valve, bekannte freie Engines sind die Quake-Engine von id Software und deren Abkömmlinge. Zu den Game-Engines gibt es fast immer auch "Editoren" – Programme, mit denen man ohne professionelle Programmierkenntnisse eigene Levels erzeugen kann. Diese werden vor allem zur Erweiterung und Modifikation von kommerziellen Spielen, siehe Mods, eingesetzt. Eingabe. Üblicherweise erfolgt die Eingabe per Hand mit der Tastatur und/oder der Maus oder - insbesondere bei Spielkonsolen - dem Gamepad. In den 1980er Jahren waren noch andere Eingabegeräte wie Paddles und Joysticks weiter verbreitet. Spiele mit Sprachsteuerung haben sich auf Grund der Fehleranfälligkeit der Spracherkennung bisher nicht durchgesetzt. Die Füße werden nur selten, vor allem bei Autorennspielen zur Steuerung von Gas und Bremse mit entsprechenden Pedalen genutzt. Außerdem sind noch einige weniger gebräuchliche Geräte wie das PC Dash und der Strategic Commander verwendbar. Es hat verschiedene Versuche gegeben, Spiele zu vermarkten, die auf die Körperbewegung des Spielers reagieren – beispielsweise durch Drucksensoren in Gummimatten oder durch Auswertung eines Kamerabildes. Diese Spiele stellten jedoch lange Zeit ein Nischenprodukt dar. Erst mit der hohen Verbreitung der Wii-Konsole von Nintendo etabliert sich diese Art von Steuerung. Der Controller verfügt über einen Bewegungssensor, der Position und Bewegung im Raum registriert, so kann durch Armbewegungen eine Spielfigur gesteuert werden. Optische Ausgabe. Man kann grob zwischen maschinellem Text im Textmodus, 2D- und 3D-Computergrafik unterscheiden. Es hat sich eine eigene Ästhetik der Computerspiele entwickelt, eine eigene Bildsprache. Die ersten Computerspiele waren einfarbig und geprägt von Text oder Blockgrafik. Mit der Verfügbarkeit immer besserer Grafikprozessoren wurden die Bildwelten immer farbiger und komplexer. Das typische Spieldisplay heute zeigt den Spieler als Avatar im Bild, oder direkt seine eigene Sicht, die "First-Person-Ansicht" (Egoperspektive) beispielsweise im Ego-Shooter, vergleichbar der subjektiven Kamera im Film. Dazu erscheinen alle möglichen Anzeigen, Punktestände, Meldungen wie Gesundheitszustand oder Missionsziele im Bild (meist in Form eines Head-up-Displays/HUD). Die visuelle Informationsausgabe kann per Monitor, Display oder Fernseher erfolgen und in Verbindung mit einer 3D-Brille kann sogar ein dreidimensionales Erlebnis erzeugt werden. Akustische Ausgabe. Akustische Signale, Effekte und gesprochener Text werden in zunehmendem Umfang und immer besser werdender Qualität bei Computerspielen eingesetzt. Von der ehemals überwiegend atmosphärischen Bedeutung haben sie sich zu einer wichtigen Informationsquelle für den Spieler entwickelt (zum Beispiel zur räumlichen Ortung und Orientierung innerhalb des Spiels). Besonders in Mehrspieler-Partien erlangen akustische Informationen durch die Anwendung von Headsets, die eine schnelle und einfache Kommunikation zwischen Teammitgliedern erlauben, eine immer größere Bedeutung. In Deutschland wird die Sprachausgabe importierter Computerspiele immer öfter ähnlich professionell synchronisiert wie bei Kinofilmen. Teilweise wird bei der Lokalisierung auch auf bereits aus anderen Medien bekannte Sprecherstimmen zurückgegriffen. Besondere Bedeutung hat die Musik in Spielen: Anfänglich als reine Untermalung der Spielszene eingeführt, nimmt sie heute eine ähnliche Rolle wie bei Filmen ein: Sie dient der Steigerung der Dramatik und soll das Spielgeschehen szenisch führen. Dabei kommen oft kurze, einprägsame Melodiesätze zur Anwendung, die auch nach häufigerem Anhören nicht langweilig werden. Die Bandbreite bezüglich des Qualitätsanspruchs ist dabei groß: Professionelle Spieleentwickler beschäftigen heute eigene Komponisten, die sich ganz auf die Erstellung der Musik konzentrieren. Diese wird dem Projekt heute einfach als fertige Audiospur in üblichen Datenformaten zugefügt. PC-Spiele bieten dem Anwender bei frei zugänglichen Datenordnern die Möglichkeit, ungeliebte Musikstücke oder Geräusche auszutauschen und dem eigenen Geschmack anzupassen. Das ist nur dann möglich, wenn Standardformate wie Wave, MP3, MIDI oder andere zum Einsatz kommen und das Spiel von Programmiererseite nicht zu einer einzigen ausführbaren Datei zusammengefasst wurde. Bei den ersten Telespielen der 1980er Jahre mussten die Musikentwickler auch über umfangreiches programmiertechnisches Fachwissen verfügen, um ihr Notenmaterial in das Programm integrieren zu können. Mechanische Ausgabe. Neben der optischen und akustischen Ausgabe bietet die mechanische eine weitere Interaktionsmöglichkeit. Die sogenannte Force-Feedback-Technologie ermöglicht die Ausgabe mechanischer Effekte als Reaktion auf Kräfte, die auf die Spielfigur einwirken. Diese Technik wird vor allem in Lenkrädern für Rennsimulationen, Joysticks für Flugsimulationen und in Gamepads sowie bei Maustasten eingesetzt. Wenn beispielsweise der Spieler mit dem Rennwagen gegen ein Hindernis fährt, spürt er am Lenkrad eine Gegenbewegung. Vergleich mit anderen Medien, Kunstformen. Das Computerspiel zeichnet sich durch wesentliche Unterschiede, aber auch durch wesentliche Gemeinsamkeiten anderen Medien bzw. Kunstformen gegenüber aus. Die zwei wesentlichen Elemente eines Computerspiels sind das Bild und die Interaktivität. Das erste ist sowohl im Film wie auch in der Malerei und der Zeichnung wiederzufinden, das zweite im experimentellen Theater. Mehr und mehr ist auch die internationale Vernetzbarkeit von Computerspielen eine seiner wesentlichen Eigenschaften. Oft entlehnt das Computerspiel anderen Medien weitere Elemente und entwickelt diese im eigenen Rahmen weiter, etwa die Geschichte, entlehnt vom Drama, dem Film und der Literatur oder die Musik und, wenn auch in einer völlig neuen Art und Weise, das Schauspiel selbst. Ansätze dazu finden sich etwa in Black & White, Deus Ex, World of Warcraft, Die Sims, Dungeon Keeper, Baldur’s Gate 2, Fahrenheit, Monkey Island 3 etc. Im Februar 2008 sprach sich Olaf Zimmermann vom Deutschen Kulturrat dafür aus, dass auch Computerspiele-Entwickler als Künstler anzuerkennen wären. Hans-Joachim Otto, Vorsitzender des Ausschusses für Kultur und Medien des Deutschen Bundestages, pflichtete Zimmermann in einem Interview bei und erklärte, dass die Entwicklung von Spielen ein hohes Maß an kreativer und künstlerischer Arbeit erfordere. Bei einer Indizierung durch die BPjM wird der Kunstbegriff oft als nicht so wichtig wie die Jugendgefährdung gewertet. Soziale Auswirkungen. Die Auswirkungen von Gewalt in Computerspielen sind Gegenstand kontroverser Diskussionen. Dabei geht es im Wesentlichen darum, wie Gewalt in Spielen eingesetzt und gezeigt wird, deren Auswirkungen auf die Persönlichkeitsentwicklung von computerspielenden Kindern und Jugendlichen, und einen möglichen Zusammenhang zwischen virtueller und realer Gewalt, d. h., ob Gewalt in Computerspielen Menschen mit einer dafür empfänglichen Persönlichkeitsstruktur auch im realen Leben aggressiver und/oder gewaltbereiter macht. Durch diverse Studien, welche zum Teil schon seit Mitte der 1980er Jahre durchgeführt werden, versuchen Forscher zu untersuchen, ob der exzessive Konsum gewalthaltiger Computerspiele Auswirkungen auf die Gewaltbereitschaft der Konsumenten haben kann. Dabei spielen weitere Aspekte hinein, wie zum Beispiel der Rückhalt im sozialen Umfeld und die Beschaffenheit des Umfelds. Jüngste Analysen mittels funktioneller MRT deuten darauf hin, dass die Gehirnaktivität im linken unteren Frontallappen selbst noch nach einer Woche verminderte Reaktion im Stroop-Test auf Gewalt zeigt. Getestet wurde eine Gruppe von 14 Männern und eine gleich große Kontrollgruppe. Ein Mangel der Studie besteht allerdings darin, dass die Kontrollgruppe kein Computerspiel spielte. Es stellt sich die Frage ob bei einer realistischen Kontrollgruppe, die ein gewaltfreies Computerspiel gespielt hätte, nicht ähnliche Ergebnisse wie bei der mit gewalttätigen Computerspielen konfrontierten Gruppe entstanden wären. Spielsucht. Von Wissenschaftlern wird auf die Suchtgefahr bei exzessivem Computerspielen hingewiesen. In Computerspielen wird z. B. das Belohnungssystem im Gehirn ständig wieder aktiviert, um den Spieler am Spielen zu halten. In der Praxis müssen in einem Computerspiel oft viele kleine Aufgaben gelöst werden, die im Gegensatz zum realen Leben auch fast immer in sehr kurzer Zeit zur Zufriedenheit des Spielers erledigt werden können. Der Spieler erlebt dann beim Beenden des Spiels einen negativen emotionalen Zustand, den er durch Weiterspielen zu verhindern versucht. Spieleentwickler geben teilweise offen zu, dass solche Zusammenhänge bekannt sind und gezielt ausgenutzt werden, um die Begeisterung am Spiel über eine möglichst lange Zeit möglichst hoch zu halten und damit möglichst viel Umsatz zu generieren. In Südkorea kam es 2002 zum ersten bekannt gewordenen Todesfall infolge ununterbrochenen Computerspielens. Ein 24-Jähriger brach nach 86 Stunden ohne Schlaf und Nahrungsaufnahme vor einem Rechner in einem Internetcafé zusammen. Nachdem er sich scheinbar von dem Zusammenbruch erholt hatte, fand ihn wenig später die herbeigerufene Polizei tot auf der Toilette eines PC Bangs. Carl Schmitt. Carl Schmitt als Student im Jahre 1912 Carl Schmitt (zeitweise auch Carl Schmitt-Dorotic) (* 11. Juli 1888 in Plettenberg; † 7. April 1985 ebenda) war ein deutscher Staatsrechtler, der auch als politischer Philosoph rezipiert wird. Er ist einer der bekanntesten, wenn auch umstrittensten deutschen Staats- und Völkerrechtler des 20. Jahrhunderts. Als „Kronjurist des Dritten Reiches“ (Waldemar Gurian) galt Schmitt nach 1945 als kompromittiert. Sein im Katholizismus verwurzeltes Denken kreiste um Fragen der Macht, der Gewalt und der Rechtsverwirklichung. Neben dem Staats- und Verfassungsrecht streifen seine Veröffentlichungen zahlreiche weitere Disziplinen wie Politikwissenschaft, Soziologie, Theologie, Germanistik und Philosophie. Sein breitgespanntes Œuvre umfasst außer juristischen und politischen Arbeiten verschiedene weitere Textgattungen, etwa Satiren, Reisenotizen, ideengeschichtliche Untersuchungen oder germanistische Textinterpretationen. Als Jurist prägte er eine Reihe von Begriffen und Konzepten, die in den wissenschaftlichen, politischen und sogar allgemeinen Sprachgebrauch eingegangen sind, etwa „Verfassungswirklichkeit“, „Politische Theologie“, „Freund-Feind-Unterscheidung“ oder „dilatorischer Formelkompromiss“. Der umfangreiche Nachlass Schmitts wird im Landesarchiv Nordrhein-Westfalen Abteilung Rheinland verwahrt und ist derzeit Basis zahlreicher Quelleneditionen. Schmitt wird heute zwar – vor allem wegen seines staatsrechtlichen Einsatzes für den Nationalsozialismus – als „furchtbarer Jurist“ sowie als Gegner der parlamentarischen Demokratie und des Liberalismus geschmäht, zugleich aber auch als „Klassiker des politischen Denkens“ (Herfried Münkler) gewürdigt – nicht zuletzt aufgrund seiner indirekten Wirkung auf das Staatsrecht und die Rechtswissenschaft der frühen Bundesrepublik. Die prägenden Einflüsse für sein Denken bezog Schmitt von politischen Philosophen und Staatsdenkern wie Thomas Hobbes, Niccolò Machiavelli, Aristoteles, Jean-Jacques Rousseau, Juan Donoso Cortés oder Zeitgenossen wie Georges Sorel und Vilfredo Pareto. Kindheit, Jugend, Ehe. Carl Schmitt mit seiner Schulklasse im Jahre 1904 Carl Schmitt, Sohn eines Krankenkassenverwalters, entstammte einer katholisch-kleinbürgerlichen Familie im Sauerland. Er war das zweite von fünf Kindern. Der Junge wohnte im katholischen Konvikt in Attendorn und besuchte dort das staatliche Gymnasium. Nach dem Abitur wollte Schmitt zunächst Philologie studieren und begann nur auf dringendes Anraten eines Onkels hin das Studium der Rechtswissenschaft. Sein Studium begann Schmitt zum Sommersemester 1907 in Berlin. In der Weltstadt traf er als „obskurer junger Mann bescheidener Herkunft” aus dem Sauerland auf ein Milieu, von dem für ihn eine „starke Repulsion“ ausging. Zum Sommersemester 1908 wechselte er nach München. Nach zwei Semestern in Berlin und einem in München setzte Schmitt sein Studium in Straßburg fort, wurde dort 1910 mit der strafrechtlichen Arbeit "Über Schuld und Schuldarten" von Fritz van Calker promoviert und absolvierte im Frühjahr 1915 das Assessor-Examen. Im Februar 1915 war Schmitt als Kriegsfreiwilliger in das Bayerische Infanterie-Leibregiment in München eingetreten, kam jedoch nicht zum Fronteinsatz, da er bereits Ende März 1915 "zur Dienstleistung beim Stellvertretenden Generalkommando des I. bayerischen Armee-Korps kommandiert" wurde. Im selben Jahr ehelichte Schmitt Pawla Dorotic, eine vermeintliche slawische Adelstochter, die Schmitt zunächst für eine spanische Tänzerin hielt und die sich später – im Zuge eines für Schmitt peinlichen Skandals – als Hochstaplerin herausstellte. 1924 wurde die Ehe vom Landgericht Bonn annulliert. Ein Jahr später heiratete er eine frühere Studentin, die Serbin "Duska Todorovic", obwohl seine vorige Ehe kirchlich nicht aufgehoben worden war. Daher war der Katholik bis zum Tode seiner zweiten Frau im Jahre 1950 exkommuniziert. Aus der zweiten Ehe ging sein einziges Kind, die Tochter "Anima" (1931–1983), hervor. Kunst und Bohème, Beginn der akademischen Karriere, erste Veröffentlichungen. Bereits früh zeigte sich bei dem Juristen eine künstlerische Ader. So trat Schmitt mit eigenen literarischen Versuchen hervor ("Der Spiegel", "Die Buribunken", "Schattenrisse", er soll sich sogar mit dem Gedanken an einen Gedichtzyklus mit dem Titel "Die große Schlacht um Mitternacht" getragen haben) und verfasste eine Studie über den bekannten zeitgenössischen Dichter Theodor Däubler ("Theodor Däublers ‚Nordlicht’"). Er kann zu dieser Zeit als Teil der „Schwabinger Bohème“ betrachtet werden. Seine literarischen Arbeiten bezeichnete der Staatsrechtler später als „Dada avant la lettre“. Mit einem der Gründerväter des Dadaismus, Hugo Ball, war er befreundet, ebenso mit dem Dichter und Herausgeber Franz Blei, einem Förderer Robert Musils und Franz Kafkas. Der ästhetisierende Jurist und die politisierenden Belletristen tauschten sich regelmäßig aus, und es sind wechselseitige Beeinflussungen feststellbar. Mit Lyrikern pflegte Schmitt zu dieser Zeit besonders enge Kontakte, etwa mit dem mittlerweile vergessenen Dichter des politischen Katholizismus, Konrad Weiß. Gemeinsam mit Hugo Ball besuchte Schmitt den Literaten Hermann Hesse – ein Kontakt, der sich jedoch nicht aufrechterhalten ließ. Später freundete sich Schmitt mit Ernst Jünger an sowie mit dem Maler und Schriftsteller Richard Seewald. In Straßburg habilitierte sich der Jurist 1916, ein Jahr nach dem Assessor-Examen, mit der Arbeit "Der Wert des Staates und die Bedeutung des Einzelnen" für Staats- und Verwaltungsrecht, Völkerrecht und Staatstheorie. Nach einer Lehrtätigkeit an der Handelshochschule in München (1920) folgte Schmitt in kurzen Abständen Rufen nach Greifswald (1921), Bonn (1921), an die Handelshochschule Berlin (1928), Köln (1933) und wieder Berlin (Friedrich-Wilhelms-Universität 1933–1945). Der Habilitationsschrift folgten kurz nacheinander weitere Veröffentlichungen, etwa "Politische Romantik" (1919) oder "Die Diktatur" (1921) im Verlag Duncker & Humblot unter dem Lektorat von Ludwig Feuchtwanger. Seine erste akademische Anstellung in München sowie später den Ruf an die Handelshochschule in Berlin verdankte Schmitt dem jüdischen Nationalökonomen Moritz Julius Bonn. Auch unter Nichtjuristen wurde Schmitt durch seine sprachmächtigen und schillernden Formulierungen schnell bekannt. Sein Stil war neu und galt in weit über das wissenschaftliche Milieu hinausgehenden Kreisen als spektakulär. Er schrieb nicht wie ein Jurist, sondern inszenierte seine Texte poetisch-dramatisch und versah sie mit mythischen Bildern und Anspielungen. Seine Schriften waren überwiegend kleine Broschüren, die aber in ihrer thesenhaften Zuspitzung zur Auseinandersetzung zwangen. Schmitt war überzeugt, dass „oft schon der erste Satz über das Schicksal einer Veröffentlichung entscheidet“. Viele Eröffnungssätze seiner Veröffentlichungen – etwa: „Es gibt einen antirömischen Affekt“, „Der Begriff des Staates setzt den Begriff des Politischen voraus“ oder „Souverän ist, wer über den Ausnahmezustand entscheidet“ – wurden schnell berühmt. Von der Breite und Vielfältigkeit der Reaktionen, die Schmitt auslöste, zeugt insbesondere die umfangreiche Korrespondenz, die heute in seinem Nachlass – einem der größten in deutschen Archiven aufbewahrten Nachlässe überhaupt – einsehbar ist und sukzessive publiziert wird. In Bonn pflegte der Staatsrechtler Kontakte zum Jungkatholizismus (er schrieb u. a. für Carl Muths Zeitschrift "Hochland") und zeigte ein verstärktes Interesse an kirchenrechtlichen Themen. Dies führte ihn 1924 mit dem evangelischen Theologen und späteren Konvertiten Erik Peterson zusammen, mit dem er bis 1933 eng befreundet war. Die Beschäftigung mit dem Kirchenrecht schlug sich in Schriften wie "Politische Theologie" (1922) und "Römischer Katholizismus und politische Form" (1923, in zweiter Auflage mit kirchlichem Imprimatur) nieder. Freundschaftlich verbunden war Schmitt in dieser Zeit auch mit einigen katholischen Theologen, allen voran Karl Eschweiler (1886–1936), den er als Privatdozenten für Fundamentaltheologie in Bonn Mitte der 20er Jahre kennengelernt hatte und mit dem er bis zu dessen Tod 1936 in engem wissenschaftlichem und persönlichem Kontakt blieb. Politische Publizistik und Beratertätigkeit in der Weimarer Republik. 1924 erschien Schmitts erste explizit politische Schrift mit dem Titel "Die geistesgeschichtliche Lage des heutigen Parlamentarismus". Im Jahre 1928 legte er sein bedeutendstes wissenschaftliches Werk vor, die "Verfassungslehre", in der er die Weimarer Verfassung einer systematischen juristischen Analyse unterzog und eine neue wissenschaftliche Literaturgattung begründete: neben der klassischen Staatslehre etablierte sich seitdem die Verfassungslehre als eigenständige Disziplin des Öffentlichen Rechts. Im Jahr des Erscheinens der "Verfassungslehre" wechselte Schmitt an die Handelshochschule in Berlin, auch wenn das in Bezug auf seinen Status als Wissenschaftler einen Rückschritt bedeutete. Dafür konnte er im politischen Berlin zahlreiche Kontakte knüpfen, die bis in Regierungskreise hinein reichten. Hier entwickelte er gegen die herrschenden Ansichten die Theorie vom „unantastbaren Wesenskern“ der Verfassung („"Verfassungslehre"“). Alexander Rüstow 1960. Zusammen mit dem Vordenker des Ordoliberalismus und der Sozialen Marktwirtschaft trat Schmitt in den 1930er Jahren für eine freie Wirtschaft in einem starken Staat ein. Bei diesen Ausführungen spielte Schmitt auf einen Vortrag Rüstows an, den dieser zwei Monate zuvor unter dem Titel "Freie Wirtschaft, starker Staat" gehalten hatte. Rüstow hatte sich darin seinerseits auf Carl Schmitt bezogen: „Die Erscheinung, die Carl Schmitt im Anschluß an Ernst Jünger den ‚totalen Staat‘ genannt hat […], ist in Wahrheit das genaue Gegenteil davon: nicht Staatsallmacht, sondern Staatsohnmacht. Es ist ein Zeichen jämmerlichster Schwäche des Staates, einer Schwäche, die sich des vereinten Ansturms der Interessentenhaufen nicht mehr erwehren kann. Der Staat wird von den gierigen Interessenten auseinandergerissen. […] Was sich hier abspielt, staatspolitisch noch unerträglicher als wirtschaftspolitisch, steht unter dem Motto: ‚Der Staat als Beute‘.“ Den so aufgefassten Egoismus gesellschaftlicher Interessensgruppen bezeichnete Schmitt (in negativer Auslegung des gleichnamigen Konzeptes von Harold Laski) als Pluralismus. Dem Pluralismus partikularer Interessen setzte er die Einheit des Staates entgegen, die für ihn durch den vom Volk gewählten Reichspräsidenten repräsentiert wurde. In Berlin erschienen "Der Begriff des Politischen" (1927 zunächst als Aufsatz), "Der Hüter der Verfassung" (1931) und "Legalität und Legitimität" (1932). Mit Hans Kelsen lieferte sich Schmitt eine vielbeachtete Kontroverse über die Frage, ob der „Hüter der Verfassung“ der Verfassungsgerichtshof oder der Reichspräsident sei. Zugleich näherte er sich reaktionären Strömungen an, indem er Stellung gegen den Parlamentarismus bezog. Als Hochschullehrer war Schmitt wegen seiner Kritik an der Weimarer Verfassung zunehmend umstritten. So wurde er etwa von den der Sozialdemokratie nahestehenden Staatsrechtlern Hans Kelsen und Hermann Heller scharf kritisiert. Die Weimarer Verfassung, so meinte Schmitt, schwäche den Staat durch einen „neutralisierenden“ Liberalismus und sei somit nicht fähig, die Probleme der aufkeimenden „Massendemokratie“ zu lösen. Liberalismus war für Schmitt im Anschluss an Cortés nichts anderes als organisierte Unentschiedenheit: „Sein Wesen ist Verhandeln, abwartende Halbheit, mit der Hoffnung, die definitive Auseinandersetzung, die blutige Entscheidungsschlacht könnte in eine parlamentarische Debatte verwandelt werden und ließe sich durch ewige Diskussion ewig suspendieren“. Das Parlament ist in dieser Perspektive der Hort der romantischen Idee eines „ewigen Gesprächs“. Daraus folge: „Jener Liberalismus mit seinen Inkonsequenzen und Kompromissen lebt […] nur in dem kurzen Interim, in dem es möglich ist, auf die Frage: Christus oder Barrabas, mit einem Vertagungsantrag oder der Einsetzung einer Untersuchungskommission zu antworten“. Die Parlamentarische Demokratie hielt Schmitt für eine veraltete „bürgerliche“ Regierungsmethode, die gegenüber den aufkommenden „vitalen Bewegungen“ ihre Evidenz verloren habe. Der „relativen“ Rationalität des Parlamentarismus trete der Irrationalismus mit einer neuartigen Mobilisierung der Massen gegenüber. Der Irrationalismus versuche gegenüber der ideologischen Abstraktheit und den „Scheinformen der liberal-bürgerlichen Regierungsmethoden“ zum „konkret Existenziellen“ zu gelangen. Dabei stütze er sich auf einen „Mythus vom vitalen Leben“. Daher proklamierte Schmitt: „Diktatur ist der Gegensatz zu Diskussion“. Als Vertreter des Irrationalismus identifizierte Schmitt zwei miteinander verfeindete Bewegungen: den revolutionären Syndikalismus der Arbeiterbewegung und den Nationalismus des italienischen Faschismus. „Der stärkere Mythus“ liegt ihm zufolge aber „im Nationalen“. Als Beleg führte er Mussolinis Marsch auf Rom an. Den italienischen Faschismus verwendete Schmitt als eine Folie, vor deren Hintergrund er die Herrschaftsformen des „alten Liberalismus“ kritisierte. Dabei hatte er sich nie mit den realen Erscheinungsformen des Faschismus auseinandergesetzt. Sein Biograph Noack urteilt: „[Der] Faschismus wird von [Schmitt] als Beispiel eines autoritären Staates (im Gegensatz zu einem totalitären) interpretiert. Dabei macht er sich kaum die Mühe, die Realität dieses Staates hinter dessen Rhetorik aufzuspüren. Hier wie in anderen Fällen genügt ihm die Konstruktionszeichnung, um sich das Haus vorzustellen. Zweifellos ist es der Anspruch von Größe und Geschichtlichkeit, der ihn in bewundernde Kommentare über Mussolinis neapolitanische Rede vor dem Marsch auf Rom ausbrechen läßt.“ Der Faschismus eines Benito Mussolini, hier zusammen mit Adolf Hitler im Jahre 1937 in München, repräsentiert für Schmitt den Mythos des vitalen Lebens. Ein Jahr bevor die Aufnahme mit Hitler entstand, traf Schmitt den italienischen Diktator bei einer persönlichen Audienz in Rom. Laut Schmitt bringt der Faschismus einen totalen Staat aus Stärke hervor, keinen totalen Staat aus Schwäche. Er ist kein „neutraler“ Mittler zwischen den Interessensgruppen, kein „kapitalistischer Diener des Privateigentums“, sondern ein „höherer Dritter zwischen den wirtschaftlichen Gegensätzen und Interessen“. Dabei verzichte der Faschismus auf die „überlieferten Verfassungsklischees des 19. Jahrhunderts“ und versuche eine Antwort auf die Anforderungen der modernen Massendemokratie zu geben. Nur zwei Staaten, das bolschewistische Russland und das faschistische Italien, hätten den Versuch gemacht, mit den überkommenen Verfassungsprinzipien des 19. Jahrhunderts zu brechen, um die großen Veränderungen in der wirtschaftlichen und sozialen Struktur auch in der staatlichen Organisation und in einer geschriebenen Verfassung zum Ausdruck zu bringen. Gerade nicht intensiv industrialisierte Länder wie Russland und Italien könnten sich eine moderne Wirtschaftsverfassung geben. In hochentwickelten Industriestaaten ist die innenpolitische Lage nach Schmitts Auffassung von dem „Phänomen der ‚sozialen Gleichgewichtsstruktur‘ zwischen Kapital und Arbeit“ beherrscht: Arbeitgeber und Arbeitnehmer stehen sich mit gleicher sozialer Macht gegenüber und keine Seite kann der anderen eine radikale Entscheidung aufdrängen, ohne einen furchtbaren Bürgerkrieg auszulösen. Dieses Phänomen sei vor allem von Otto Kirchheimer staats- und verfassungstheoretisch behandelt worden. Aufgrund der Machtgleichheit seien in den industrialisierten Staaten „auf legalem Wege soziale Entscheidungen und fundamentale Verfassungsänderungen nicht mehr möglich, und alles, was es an Staat und Regierung gibt, ist dann mehr oder weniger eben nur der neutrale (und nicht der höhere, aus eigener Kraft und Autorität entscheidende) Dritte“ (Positionen und Begriffe, S. 127). Der italienische Faschismus versuche demnach, mit Hilfe einer geschlossenen Organisation diese Suprematie des Staates gegenüber der Wirtschaft herzustellen. Daher komme das faschistische Regime auf Dauer den Arbeitnehmern zugute, weil diese heute das Volk seien und der Staat nun einmal die politische Einheit des Volkes. Die Kritik bürgerlicher Institutionen war es, die Schmitt in dieser Phase für junge sozialistische Juristen wie Ernst Fraenkel, Otto Kirchheimer und Franz Neumann interessant machte. Umgekehrt profitierte Schmitt von den unorthodoxen Denkansätzen dieser linken Systemkritiker. So hatte Schmitt den Titel einer seiner bekanntesten Abhandlungen (Legalität und Legitimität) von Otto Kirchheimer entliehen. Ernst Fraenkel besuchte Schmitts staatsrechtliche Arbeitsgemeinschaften und bezog sich positiv auf dessen Kritik des destruktiven Misstrauensvotums (Fraenkel, Verfassungsreform und Sozialdemokratie, Die Gesellschaft, 1932). Franz Neumann wiederum verfasste am 7. September 1932 einen euphorisch zustimmenden Brief anlässlich der Veröffentlichung des Buches "Legalität und Legitimität" (abgedruckt in: Rainer Erd, Reform und Resignation, 1985, S. 79f.). Kirchheimer urteilte über die Schrift im Jahre 1932: „"Wenn eine spätere Zeit den geistigen Bestand dieser Epoche sichtet, so wird sich ihr das Buch von Carl Schmitt über Legalität und Legitimität als eine Schrift darbieten, die sich aus diesem Kreis sowohl durch ihr Zurückgehen auf die Grundlagen der Staatstheorie als auch durch ihre Zurückhaltung in den Schlussfolgerungen auszeichnet."“ (Verfassungsreaktion 1932, Die Gesellschaft, IX, 1932, S. 415ff.) In einem Aufsatz von Anfang 1933 mit dem Titel "Verfassungsreform und Sozialdemokratie" (Die Gesellschaft, X, 1933, S. 230ff.), in dem Kirchheimer verschiedene Vorschläge zur Reform der Weimarer Verfassung im Sinne einer Stärkung des Reichspräsidenten zu Lasten des Reichstags diskutierte, wies der SPD-Jurist auch auf Anfeindungen hin, der die Zeitschrift "Die Gesellschaft" aufgrund der positiven Anknüpfung an Carl Schmitt von kommunistischer Seite ausgesetzt war: „In Nr. 24 des "Roten Aufbaus" wird von ‚theoretischen Querverbindungen‘ zwischen dem ‚faschistischen Staatstheoretiker‘ Carl Schmitt und dem offiziellen theoretischen Organ der SPD, der "Gesellschaft" gesprochen, die besonders anschaulich im Fraenkelschen Aufsatz zutage treten sollen.“ Aus den fraenkelschen Ausführungen, in denen dieser sich mehrfach auf Schmitt bezogen hatte, ergebe sich in der logischen Konsequenz die Aufforderung zum Staatsstreich, die Fraenkel nur nicht offen auszusprechen wage. In der Tat hatte Fraenkel in der vorherigen Ausgabe der „Gesellschaft“ unter ausdrücklicher Anknüpfung an Carl Schmitt geschrieben: „"Es hieße, der Sache der Verfassung den schlechtesten Dienst zu erweisen, wenn man die Erweiterung der Macht des Reichspräsidenten bis hin zum Zustande der faktischen Diktatur auf den Machtwillen des Präsidenten und der hinter ihm stehenden Kräfte zurückführen will. Wenn der Reichstag zur Bewältigung der ihm gesetzten Aufgaben unfähig wird, so muß vielmehr ein anderes Staatsorgan die Funktion übernehmen, die erforderlich ist, um in gefährdeten Zeiten den Staatsapparat weiterzuführen. Solange eine Mehrheit grundsätzlich staatsfeindlicher, in sich uneiniger Parteien im Parlament, kann ein Präsident, wie immer er auch heißen mag, gar nichts anderes tun, als den destruktiven Beschlüssen dieses Parlaments auszuweichen. Carl Schmitt hat unzweifelhaft recht, wenn er bereits vor zwei Jahren ausgeführt hat, daß die geltende Reichsverfassung einem mehrheits- und handlungsfähigen Reichstag alle Rechte und Möglichkeiten gibt, um sich als den maßgebenden Faktor staatlicher Willensbildung durchzusetzen. Ist das Parlament dazu nicht im Stande, so hat es auch nicht das Recht, zu verlangen, daß alle anderen verantwortlichen Stellen handlungsunfähig werden."“ Schmitt war ab 1930 für eine autoritäre Präsidialdiktatur eingetreten und pflegte Bekanntschaften zu politischen Kreisen, etwa dem späteren preußischen Finanzminister Johannes Popitz. Auch zur Reichsregierung selbst gewann er Kontakt, indem er enge Beziehungen zu Mittelsmännern des Generals, Ministers und späteren Kanzlers Kurt von Schleicher unterhielt. Schmitt stimmte sogar Publikationen und öffentliche Vorträge im Vorfeld mit den Mittelsmännern des Generals ab. Für die Regierungskreise waren einige seiner politisch-verfassungsrechtlichen Arbeiten, etwa die erweiterten Ausgaben von „Der Hüter der Verfassung“ (1931) oder „Der Begriff des Politischen“ (1932), von Interesse. Trotz seiner Kritik an Pluralismus und Parlamentarischer Demokratie stand Schmitt vor der Machtergreifung 1933 den Umsturzbestrebungen von KPD und NSDAP gleichermaßen ablehnend gegenüber. Er unterstützte die Politik Schleichers, die darauf abzielte, das „Abenteuer Nationalsozialismus“ zu verhindern. Schmitt beriet die Regierungen von Papen (links) und Schleicher (rechts) in Verfassungsfragen In seiner im Juli 1932 abgeschlossenen Abhandlung "Legalität und Legitimität" forderte der Staatsrechtler eine Entscheidung für die Substanz der Verfassung und gegen ihre Feinde. Er fasste dies in eine Kritik am neukantianischen Rechtspositivismus, wie ihn der führende Verfassungskommentator Gerhard Anschütz vertrat. Gegen diesen Positivismus, der nicht nach den Zielen politischer Gruppierungen fragte, sondern nur nach formaler Legalität, brachte Schmitt – hierin mit seinem Antipoden Heller einig – eine Legitimität in Stellung, die gegenüber dem Relativismus auf die Unverfügbarkeit politischer Grundentscheidungen verwies. Die politischen Feinde der bestehenden Ordnung sollten klar als solche benannt werden, andernfalls führe die Indifferenz gegenüber verfassungsfeindlichen Bestrebungen in den politischen Selbstmord. Zwar hatte Schmitt sich hier klar für eine Bekämpfung verfassungsfeindlicher Parteien ausgesprochen, was er jedoch mit einer „folgerichtigen Weiterentwicklung der Verfassung“ meinte, die an gleicher Stelle gefordert wurde, blieb unklar. Hier wurde vielfach vermutet, es handele sich um einen konservativ-revolutionären „Neuen Staat“ Papen’scher Prägung, wie ihn etwa Heinz Otto Ziegler beschrieben hatte (Autoritärer oder totaler Staat, 1932). Verschiedene neuere Untersuchungen argumentieren dagegen, Schmitt habe im Sinne Schleichers eine Stabilisierung der politischen Situation erstrebt und Verfassungsänderungen als etwas Sekundäres betrachtet. In dieser Perspektive war die geforderte Weiterentwicklung eine faktische Veränderung der Mächteverhältnisse, keine Etablierung neuer Verfassungsprinzipien. 1932 war Schmitt auf einem vorläufigen Höhepunkt seiner politischen Ambitionen angelangt: Er vertrat die Reichsregierung unter Franz von Papen zusammen mit Carl Bilfinger und Erwin Jacobi im Prozess um den so genannten Preußenschlag gegen die staatsstreichartig abgesetzte preußische Regierung Otto Braun vor dem Staatsgerichtshof. Als enger Berater im Hintergrund wurde Schmitt in geheime Planungen eingeweiht, die auf die Ausrufung eines Staatsnotstands hinausliefen. Schmitt und Personen aus Schleichers Umfeld wollten durch einen intrakonstitutionellen „Verfassungswandel“ die Gewichte in Richtung einer konstitutionellen Demokratie mit präsidialer Ausprägung verschieben. Dabei sollten verfassungspolitisch diejenigen Spielräume genutzt werden, die in der Verfassung angelegt waren oder zumindest von ihr nicht ausgeschlossen wurden. Konkret schlug Schmitt vor, der Präsident solle gestützt auf Artikel 48 regieren, destruktive Misstrauensvoten oder Aufhebungsbeschlüsse des Parlaments sollten mit Verweis auf ihre fehlende konstruktive Basis ignoriert werden. In einem Positionspapier für Schleicher mit dem Titel: „"Wie bewahrt man eine arbeitsfähige Präsidialregierung vor der Obstruktion eines arbeitsunwilligen Reichstages mit dem Ziel, ’die Verfassung zu wahren'“" wurde der „"mildere Weg, der ein Minimum an Verfassungsverletzung darstellt"“, empfohlen, nämlich: „"die authentische Auslegung des Art. 54" [der das Misstrauensvotum regelt] "in der Richtung der naturgegebenen Entwicklung (Mißtrauensvotum gilt nur seitens einer Mehrheit, die in der Lage ist, eine positive Vertrauensgrundlage herzustellen)"“. Das Papier betonte: „"Will man von der Verfassung abweichen, so kann es nur in der Richtung geschehen, auf die sich die Verfassung unter dem Zwang der Umstände und in Übereinstimmung mit der öffentlichen Meinung hin entwickelt. Man muß das Ziel der Verfassungswandlung im Auge behalten und darf nicht davon abweichen. Dieses Ziel ist aber nicht die Auslieferung der Volksvertretung an die Exekutive (der Reichspräsident beruft und vertagt den Reichstag), sondern es ist Stärkung der Exekutive durch Abschaffung oder Entkräftung von Art. 54 bezw. durch Begrenzung des Reichstages auf Gesetzgebung und Kontrolle. Dieses Ziel ist aber durch die authentische Interpretation der Zuständigkeit eines Mißtrauensvotums geradezu erreicht. Man würde durch einen erfolgreichen Präzedenzfall die Verfassung gewandelt haben."“ Wie stark Schmitt bis Ende Januar 1933 seine politischen Aktivitäten mit Kurt v. Schleicher verbunden hatte, illustriert sein Tagebucheintrag vom 27. Januar 1933: „"Es ist etwas unglaubliches Geschehen. Der Hindenburg-Mythos ist zu Ende. Der Alte war schließlich auch nur ein Mac Mahon. Scheußlicher Zustand. Schleicher tritt zurück; Papen oder Hitler kommen. Der alte Herr ist verrückt geworden."“ Auch war Schmitt, wie Schleicher, zunächst ein Gegner der Kanzlerschafts Hitlers. Am 30. Januar verzeichnet sein Tagebuch den Eintrag: „"Dann zum Cafe Kutscher, wo ich hörte, daß Hitler Reichskanzler und Papen Vizekanzler geworden ist. Zu Hause gleich zu Bett. Schrecklicher Zustand."“ Einen Tag später hieß es: „"War noch erkältet. Telefonierte Handelshochschule und sagte meine Vorlesung ab. Wurde allmählich munterer, konnte nichts arbeiten, lächerlicher Zustand, las Zeitungen, aufgeregt. Wut über den dummen, lächerlichen Hitler."“ Deutungsproblem 1933: Zäsur oder Kontinuität? Das Ermächtigungsgesetz – für Schmitt Quelle neuer Legalität Nach dem Ermächtigungsgesetz vom 24. März 1933 präsentierte sich Schmitt als überzeugter Anhänger der neuen Machthaber. Ob er dies aus Opportunismus oder aus innerer Überzeugung tat, ist umstritten. Während einige Beobachter bei Schmitt einen „unbändigen Geltungsdrang“ sehen, der ihn dazu bewog, sich allen Regierungen seit Hermann Müller im Jahre 1930 als Berater anzudienen (nach 1945 habe er sogar versucht, sich Russen und Amerikanern zur Verfügung zu stellen), sehen andere in Schmitt einen radikalen Kritiker des Liberalismus, dessen Denken im Kern eine „allen rationalen Deduktionen vorausliegende, politische Option“ für den Nationalsozialismus aufgewiesen habe. Kurz, die Frage lautet, ob Schmitts Engagement für den Nationalsozialismus ein Problem der Theorie oder ein Problem des Charakters ist. Dieses ungelöste Forschungsproblem wird heute vorwiegend an der Frage diskutiert, ob das Jahr 1933 in der Theorie Schmitts einen Bruch darstelle oder eine Kontinuität. Dass diese widersprüchlichen Thesen bis heute vertreten werden, ist dem Umstand geschuldet, dass Schmitt in seinen Schriften mehrdeutig formulierte und sich als „Virtuose der retrospektiven, jeweils wechselnden Rechtfertigungsbedürfnissen angepaßten Selbstauslegung“ (Wilfried Nippel) erwies. Daher können sich auch Vertreter beider Extrempositionen (Bruch versus Kontinuität) zur Stützung ihrer These auf Selbstauskünfte Schmitts berufen. Henning Ottmann bezeichnet die Antithese: „occasionelles Denken oder Kontinuität“ als die Grundfrage aller Schmitt-Deutung. Offen ist also, ob Schmitts Denken einer inneren Logik folgte (Kontinuität), oder ob es rein von äußeren Anläßen (Occasionen) getrieben war, denen innere Konsistenz und Folgerichtigkeit geopfert wurden. Eine Antwort auf diese Frage ist laut Ottmann nicht leicht zu finden: Wer bloße Occasionalität behaupte, müsse die Leitmotive schmittschen Denkens bis zu einem Dezisionismus verflüchtigen, der sich für alles und jedes entscheiden kann; wer dagegen reine Kontinuität erkennen wolle, müsse einen kurzen Weg konstruieren, der vom Antiliberalismus oder Antimarxismus zum nationalsozialistischen Unrechtsstaat führt. Ottmann spricht daher von „Kontinuität "und" Wandlung“ bzw. auch von teilweise „mehr Wandel als Kontinuität“. Mit Blick auf Schmitts Unterstützung des Regierungskurses Kurt von Schleichers sprechen einige Historiker in Bezug auf das Jahr 1933 von einer Zäsur. Andere erkennen aber auch verborgene Kontinuitätslinien, etwa in der sozialen Funktion seiner Theorie oder seinem Katholizismus. Hält man sich die Abruptheit des Seitenwechsels im Februar 1933 vor Augen, so scheint die Annahme einer opportunistischen Grundhaltung naheliegend. Gleichwohl gab es durchaus auch inhaltliche Anknüpfungspunkte, etwa den Antiliberalismus oder die Bewunderung des Faschismus, so dass Schmitts Wechsel zum Nationalsozialismus nicht nur als Problem des Charakters, sondern auch als „Problem der Theorie“ zu begreifen ist, wie Karl Graf Ballestrem betont. Zeit des Nationalsozialismus. Nach Angaben Schmitts spielte Johannes Popitz bei seiner Kontaktaufnahme zu nationalsozialistischen Regierungsstellen eine entscheidende Rolle. Der Politiker war Minister im Kabinett von Schleicher und wurde im April 1933 preußischer Minister im Deutschen Reich. Popitz vermittelte Schmitt erste Kontakte zu nationalsozialistischen Funktionären während der Arbeiten für das sog. Reichsstatthaltergesetz, an denen Schmitt ebenso wie sein Kollege aus der Prozessvertretung im Preußenprozess, Carl Bilfinger, beteiligt wurde. „Der wahre Führer ist immer auch Richter“ – Carl Schmitts Apotheose des Nationalsozialismus gilt als besondere Perversion des Rechtsdenkens Auch wenn die Gründe nicht abschließend geklärt werden können, so ist unzweifelhaft, dass Schmitt voll auf die neue Linie umschwenkte. Er bezeichnete das Ermächtigungsgesetz als „vorläufige Verfassung der deutschen Revolution“ und trat am 1. Mai 1933 als so genannter „Märzgefallener“ in die NSDAP (Mitgliedsnr. 2.098.860) ein. 1933 wechselte er an die Universität zu Köln, wo er binnen weniger Wochen die Wandlung in die Rolle eines Staatsrechtlers im Sinne der neuen nationalsozialistischen Herrschaft vollzog. Hatte er zuvor zahlreiche persönliche Kontakte zu jüdischen Kollegen unterhalten, die auch großen Anteil an seiner raschen akademischen Karriere hatten, so begann er nach 1933 seine jüdischen Professorenkollegen zu denunzieren und antisemitische Kampfschriften zu veröffentlichen. Zum Beispiel versagte Schmitt Hans Kelsen, der sich zuvor dafür eingesetzt hatte, Schmitt als seinen Nachfolger an die Universität zu Köln zu berufen, jede Unterstützung, als Kollegen eine Resolution gegen dessen Amtsenthebung verfassten. Diese Haltung zeigte Schmitt jedoch nicht allen jüdischen Kollegen gegenüber. So verwendete er sich etwa in einem persönlichen Gutachten für Erwin Jacobi. Gegenüber Kelsen formulierte Schmitt noch nach 1945 antisemitische Invektiven. In der Zeit des Nationalsozialismus bezeichnete er ihn stets als den „Juden Kelsen“. Ein wesentlicher Erfolg im neuen Regime war Schmitts Ernennung zum "Preußischen Staatsrat" – ein Titel, auf den er zeitlebens besonders stolz war. Noch 1972 soll er gesagt haben, er sei dankbar, Preußischer Staatsrat geworden zu sein und nicht Nobelpreisträger. Zudem wurde er Herausgeber der "Deutschen Juristenzeitung" (DJZ) und Mitglied der Akademie für Deutsches Recht. Schmitt erhielt sowohl die Leitung der Gruppe der Universitätslehrer als auch die Fachgruppenleitung Hochschullehrer im NS-Rechtswahrerbund. In seiner Schrift "Staat, Bewegung, Volk: Die Dreigliederung der politischen Einheit" (1933) betonte Schmitt die Legalität der „deutschen Revolution“: Die Machtübernahme Hitlers bewege sich „formal korrekt in Übereinstimmung mit der früheren Verfassung“, sie entstamme „Disziplin und deutschem Ordnungssinn“. Der Zentralbegriff des nationalsozialistischen Staatsrechts sei „Führertum“, unerlässliche Voraussetzung dafür „rassische“ Gleichheit von Führer und Gefolge. Indem Schmitt die Rechtmäßigkeit der „nationalsozialistischen Revolution“ betonte, verschaffte er der Führung der NSDAP eine juristische Legitimation. Aufgrund seines juristischen und verbalen Einsatzes für den Staat der NSDAP wurde er von Zeitgenossen, insbesondere von politischen Emigranten (darunter Schüler und Bekannte), als „Kronjurist des Dritten Reiches“ bezeichnet. Den Begriff prägte der frühere Schmitt-Epigone Waldemar Gurian. Ob dies nicht eine Überschätzung seiner Rolle ist, wird in der Literatur allerdings kontrovers diskutiert. Im Herbst 1933 wurde Schmitt aus „staatspolitischen Gründen“ an die Friedrich-Wilhelms-Universität Berlin berufen und entwickelte dort die Lehre vom "konkreten Ordnungsdenken", der zufolge jede Ordnung ihre institutionelle Repräsentanz im Entscheidungsmonopol eines Amtes mit Unfehlbarkeitsanspruch findet. Diese amtscharismatische Souveränitätslehre mündete in einer Propagierung des Führerprinzips und der These einer Identität von Wille und Gesetz („Der Wille des Führers ist Gesetz“). Damit konnte Schmitt seinen Ruf bei den neuen Machthabern weiter festigen. Zudem diente der Jurist als Stichwortgeber, dessen Wendungen wie "totaler Staat – totaler Krieg" oder "geostrategischer Großraum mit Interventionsverbot für raumfremde Mächte" enormen Erfolg hatten, wenngleich sie nicht mit seinem Namen verbunden wurden. Die Nürnberger Rassengesetze im Reichsgesetzblatt Nr. 100, 16. September 1935 – für Schmitt die „Verfassung der Freiheit“ Öffentlich trat Schmitt wiederum als Rassist und Antisemit hervor, als er die Nürnberger Rassengesetze von 1935 in selbst für nationalsozialistische Verhältnisse grotesker Stilisierung als "Verfassung der Freiheit" bezeichnete (so der Titel eines Aufsatzes in der Deutschen Juristenzeitung). Mit dem so genannten "Gesetz zum Schutze des deutschen Blutes und der deutschen Ehre", das Beziehungen zwischen Juden (in der Definition der Nationalsozialisten) und „Deutschblütigen“ unter Strafe stellte, trat für Schmitt „ein neues weltanschauliches Prinzip in der Gesetzgebung“ auf. Diese „von dem Gedanken der Rasse getragene Gesetzgebung“ stößt, so Schmitt, auf die Gesetze anderer Länder, die ebenso grundsätzlich rassische Unterscheidungen nicht kennen oder sogar ablehnen. Dieses Aufeinandertreffen unterschiedlicher weltanschaulicher Prinzipien war für Schmitt Regelungsgegenstand des Völkerrechts. Höhepunkt der Schmittschen Parteipropaganda war die im Oktober 1936 unter seiner Leitung durchgeführte Tagung "Das Judentum in der Rechtswissenschaft". Hier bekannte er sich ausdrücklich zum nationalsozialistischen Antisemitismus und forderte, jüdische Autoren in der juristischen Literatur nicht mehr zu zitieren oder jedenfalls als Juden zu kennzeichnen. Etwa zur selben Zeit gab es eine nationalsozialistische Kampagne gegen Schmitt, die zu seiner weitgehenden Entmachtung führte. Reinhard Mehring schreibt dazu: „"Da diese Tagung aber Ende 1936 zeitlich eng mit einer nationalsozialistischen Kampagne gegen Schmitt und seiner weitgehenden Entmachtung als Funktionsträger zusammenfiel, wurde sie – schon in nationalsozialistischen Kreisen – oft als opportunistisches Lippenbekenntnis abgetan und nicht hinreichend beachtet, bis Schmitt 1991 durch die Veröffentlichung des „Glossariums“, tagebuchartiger Aufzeichnungen aus den Jahren 1947 bis 1951, auch nach 1945 noch als glühender Antisemit dastand, der kein Wort des Bedauerns über Entrechtung, Verfolgung und Vernichtung fand. Seitdem ist sein Antisemitismus ein zentrales Thema. War er katholisch-christlich oder rassistisch-biologistisch begründet? … Die Diskussion ist noch lange nicht abgeschlossen."“ In dem der SS nahestehenden Parteiblatt "Schwarzes Korps" wurde Schmitt „Opportunismus“ und eine fehlende „nationalsozialistische Gesinnung“ vorgeworfen. Hinzu kamen Vorhaltungen wegen seiner früheren Unterstützung der Regierung Schleichers sowie Bekanntschaften zu Juden: „An der Seite des Juden Jacobi focht Carl Schmitt im Prozess Preußen-Reich für die reaktionäre Zwischenregierung Schleicher [sic! recte: Papen].“ In den "Mitteilungen zur weltanschaulichen Lage" des Amtes Rosenberg hieß es, Schmitt habe „mit dem Halbjuden Jacobi gegen die herrschende Lehre die Behauptung aufgestellt, es sei nicht möglich, dass etwa eine nationalsozialistische Mehrheit im Reichstag auf Grund eines Beschlusses mit Zweidrittelmehrheit nach dem Art. 76 durch verfassungsänderndes Gesetz grundlegende politische Entscheidungen der Verfassung, etwa das Prinzip der parlamentarischen Demokratie, ändern könne, denn eine solche Verfassungsänderung sei dann Verfassungswechsel, nicht Verfassungsrevision.“ Ab 1936 bemühten sich demnach nationalsozialistische Organe Schmitt seiner Machtposition zu berauben, ihm eine nationalsozialistische Gesinnung abzusprechen und ihm Opportunismus nachzuweisen. Durch die Publikationen im "Schwarzen Korps" entstand ein Skandal, in dessen Folge Schmitt alle Ämter in den Parteiorganisationen verlor. Er blieb jedoch bis zum Ende des Krieges Professor an der Friedrich-Wilhelms-Universität in Berlin und behielt den Titel "Preußischer Staatsrat". Bis zum Ende des Nationalsozialismus arbeitete Schmitt hauptsächlich auf dem Gebiet des Völkerrechts, versuchte aber auch hier zum Stichwortgeber des Regimes zu avancieren. Das zeigt etwa sein 1939 zu Beginn des Zweiten Weltkriegs entwickelter Begriff der „völkerrechtlichen Großraumordnung“, den er als deutsche Monroe-Doktrin verstand. Dies wurde später zumeist als Versuch gewertet, die Expansionspolitik Hitlers völkerrechtlich zu fundieren. So war Schmitt etwa an der sog. Aktion Ritterbusch beteiligt, mit der zahlreiche Wissenschaftler die nationalsozialistische Raum- und Bevölkerungspolitik beratend begleiteten. Nach 1945. Das Kriegsende erlebte Schmitt in Berlin. Am 30. April 1945 wurde er von sowjetischen Truppen verhaftet, nach kurzem Verhör aber wieder auf freien Fuß gesetzt. Am 26. September 1945 verhafteten ihn die Amerikaner und internierten ihn bis zum 10. Oktober 1946 in verschiedenen Berliner Lagern. Ein halbes Jahr später wurde er erneut verhaftet, nach Nürnberg verbracht und dort anlässlich der Nürnberger Prozesse vom 29. März bis zum 13. Mai 1947 in Einzelhaft arretiert. Während dieser Zeit wurde er von Chef-Ankläger Robert M. W. Kempner als "possible defendant" (potentieller Angeklagter) bezüglich seiner „Mitwirkung direkt und indirekt an der Planung von Angriffskriegen, von Kriegsverbrechen und Verbrechen gegen die Menschlichkeit“ verhört. Zu einer Anklage kam es jedoch nicht, weil eine Straftat im juristischen Sinne nicht festgestellt werden konnte: „"Wegen was hätte ich den Mann anklagen können?"“, begründete Kempner diesen Schritt später. „"Er hat keine Verbrechen gegen die Menschlichkeit begangen, keine Kriegsgefangenen getötet und keine Angriffskriege vorbereitet."“ Schmitt selbst hatte sich in einer schriftlichen Stellungnahme als reinen Wissenschaftler beschrieben, der allerdings ein „intellektueller Abenteurer“ gewesen sei und für seine Erkenntnisse einige Risiken auf sich genommen habe. Kempner entgegnete: „"Wenn aber das, was Sie Erkenntnissuchen nennen, in der Ermordung von Millionen von Menschen endet?"“ Schmitt zeigte sich jedoch auch hier unbelehrbar und antwortete mit einer klassischen Holocaust-Relativierung: „"Das Christentum hat auch in der Ermordung von Millionen von Menschen geendet. Das weiß man nicht, wenn man es nicht selbst erfahren hat"“. Während seiner circa siebenwöchigen Einzelhaft im Nürnberger Kriegsverbrechergefängnis schrieb Schmitt verschiedene kürzere Texte, u. a. das Kapitel "Weisheit der Zelle" seines 1950 erschienenen Bandes "Ex Captivitate Salus". Darin erinnerte er sich der geistigen Zuflucht, die ihm während seines Berliner Semesters die Werke Max Stirners geboten hatten. So auch jetzt wieder: „Max ist der Einzige, der mich in meiner Zelle besucht.” Ihm verdanke er, „dass ich auf manches vorbereitet war, was mir bis heute begegnete, und was mich sonst vielleicht überrascht hätte.“ Nachdem der Staatsrechtler nicht mehr selbst Angeklagter war, erstellte er auf Wunsch von Kempner als Experte verschiedene Gutachten, etwa über die Stellung der Reichsminister und des Chefs der Reichskanzlei oder über die Frage, warum das Beamtentum Adolf Hitler gefolgt ist. Im Zusammenhang mit den Nürnberger Prozessen – hier die Anklagebank – war Schmitt als "possible defendant" verhört worden Ende 1945 war Schmitt ohne jegliche Versorgungsbezüge aus dem Staatsdienst entlassen worden. Um eine Professur bewarb er sich nicht mehr, dies wäre wohl auch aussichtslos gewesen. Stattdessen zog er sich in seine Heimatstadt Plettenberg zurück, wo er weitere Veröffentlichungen – zunächst unter einem Pseudonym – vorbereitete, etwa eine Rezension des Bonner Grundgesetzes als „Walter Haustein“, die in der "Eisenbahnerzeitung" erschien. Wohnhaus Carl Schmitts in Plettenberg, Brockhauser Weg 10 bis zum Umzug nach Pasel 1971 Nach dem Kriege veröffentlichte Schmitt eine Reihe von Werken, u. a. "Der Nomos der Erde", "Theorie des Partisanen" und "Politische Theologie II", die aber nicht an seine Erfolge in der Weimarer Zeit anknüpfen konnten. 1952 konnte er sich eine Rente erstreiten, aus dem akademischen Leben blieb er aber ausgeschlossen. Eine Mitgliedschaft in der Vereinigung der Deutschen Staatsrechtslehrer wurde ihm verwehrt. Obwohl Schmitt unter dieser Isolation litt, verzichtete er auf eine Rehabilitation, die möglich gewesen wäre, wenn er – wie zum Beispiel die NS-Rechtstheoretiker Theodor Maunz oder Otto Koellreutter – sich von seinem Wirken im "Dritten Reich" distanziert und sich um seine Entnazifizierung bemüht hätte. In seinem Tagebuch notierte er am 1. Oktober 1949: „Warum lassen Sie sich nicht entnazifizieren? Erstens: weil ich mich nicht gern vereinnahmen lasse und zweitens, weil Widerstand durch Mitarbeit eine Nazi-Methode aber nicht nach meinem Geschmack ist.“ Das einzige überlieferte öffentliche Bekenntnis seiner Scham stammt aus den Verhörprotokollen von Kempner, die später veröffentlicht wurden. Kempner: „"Schämen Sie sich, daß Sie damals [1933/34] derartige Dinge [wie „Der Führer schützt das Recht“] geschrieben haben?"“ Schmitt: „"Heute selbstverständlich. Ich finde es nicht richtig, in dieser Blamage, die wir da erlitten haben, noch herumzuwühlen."“ Kempner: „"Ich will nicht herumwühlen."“ Schmitt: „"Es ist schauerlich, sicherlich. Es gibt kein Wort darüber zu reden."“ Zentraler Gegenstand der öffentlichen Vorwürfe gegen Schmitt in der Nachkriegszeit war seine Verteidigung der Röhm-Morde („Der Führer schützt das Recht…“) zusammen mit den antisemitischen Texten der von ihm geleiteten „Judentagung“ 1936 in Berlin. Beispielsweise griff der Tübinger Jurist Adolf Schüle Schmitt 1959 deswegen heftig an. a>"“) – Grabstein Carl Schmitts auf dem katholischen Friedhof Plettenberg-Eiringhausen Auch von seinem Antisemitismus war Schmitt nach 1945 nicht abgewichen. Als Beweis hierfür gilt ein Eintrag in sein Glossarium vom 25. September 1947, in dem er den „assimilierten Juden“ als den „wahren Feind“ bezeichnete: „Denn Juden bleiben immer Juden. Während der Kommunist sich bessern und ändern kann. Das hat nichts mit nordischer Rasse usw. zu tun. Gerade der assimilierte Jude ist der wahre Feind. Es hat keinen Zweck, die Parole der Weisen von Zion als falsch zu beweisen.“ "San Casciano", Wohnhaus Carl Schmitts in Plettenberg-Pasel, Am Steimel 7 von 1971-1985 Schmitt flüchtete sich in Selbstrechtfertigungen und stilisierte sich abwechselnd als „christlicher Epimetheus“ oder als „Aufhalter des Antichristen“ (Katechon). Die Selbststilisierung wurde zu seinem Lebenselixier. Er erfand verschiedene, immer anspielungs- und kenntnisreiche Vergleiche, die seine Unschuld illustrieren sollten. So behauptete er etwa, er habe in Bezug auf den Nationalsozialismus wie der Chemiker und Hygieniker Max von Pettenkofer gehandelt, der vor Studenten eine Kultur von Cholera-Bakterien zu sich nahm, um seine Resistenz zu beweisen. So habe auch er, Schmitt, das Virus des Nationalsozialismus freiwillig geschluckt und sei nicht infiziert worden. An anderer Stelle verglich Schmitt sich mit "Benito Cereno", einer Figur Herman Melvilles aus der gleichnamigen Erzählung von 1856, in der ein Kapitän auf dem eigenen Schiff von Meuterern gefangen gehalten wird. Bei Begegnung mit anderen Schiffen wird der Kapitän von den aufständischen Sklaven gezwungen, nach außen hin Normalität vorzuspielen – eine absurde Tragikomödie, die den Kapitän als gefährlich, halb verrückt und völlig undurchsichtig erscheinen lässt. Auf dem Schiff steht der Spruch: „Folgt eurem Führer“ („Seguid vuestro jefe“). Sein Haus in Plettenberg titulierte Schmitt als „San Casciano“, in Anlehnung an den berühmten Rückzugsort Machiavellis. Machiavelli war der Verschwörung gegen die Regierung bezichtigt und daraufhin gefoltert worden. Er hatte die Folter mit einer selbst die Staatsbediensteten erstaunenden Festigkeit ertragen. Später war die Unschuld des Theoretikers festgestellt und dieser auf freien Fuß gesetzt worden. Er blieb dem Staat aber weiterhin suspekt, war geächtet und durfte nur auf seinem ärmlichen Landgut namens "La Strada" bei ‚San Casciano‘ zu Sant’ Andrea in Percussina leben. Schmitt wurde fast 97 Jahre alt. Seine Krankheit, Zerebralsklerose, brachte in Schüben immer länger andauernde Wahnvorstellungen mit sich. Schmitt, der auch schon früher durchaus paranoide Anwandlungen gezeigt hatte, fühlte sich nun von Schallwellen und Stimmen regelrecht verfolgt. Wellen wurden seine letzte Obsession. Einem Bekannten soll er gesagt haben: „"Nach dem Ersten Weltkrieg habe ich gesagt: ‚Souverän ist, wer über den Ausnahmezustand entscheidet‘. Nach dem Zweiten Weltkrieg, angesichts meines Todes, sage ich jetzt: ‚Souverän ist, wer über die Wellen des Raumes verfügt.‘ "“ Seine geistige Umnachtung ließ ihn überall elektronische Wanzen und unsichtbare Verfolger befürchten. Am 7. April 1985, einem Ostersonntag, starb Schmitt im Evangelischen Krankenhaus in Plettenberg. Sein Grab befindet sich auf dem dortigen katholischen Friedhof. Denken. Die Etikettierungen Schmitts sind vielfältig. Er gilt als Nationalist, Gegner des Pluralismus und Liberalismus, Verächter des Parlamentarismus, Kontrahent des Rechtsstaats, des Naturrechts und Neo-Absolutist im Gefolge eines Machiavelli und Thomas Hobbes. Zweifellos hatte sein Denken reaktionäre Züge: Er bewunderte den italienischen Faschismus, war in der Zeit des Nationalsozialismus als Antisemit hervorgetreten und hatte Rechtfertigungen für nationalsozialistische Verbrechen geliefert. Schmitts Publikationen enthielten zu jeder Zeit aktuell-politische Exkurse und Bezüge, zwischen 1933 und 1945 waren diese aber eindeutig nationalsozialistisch geprägt. Für die Übernahme von Rassismus und nationalsozialistischer Blut-und-Boden-Mythologie musste er ab 1933 seine in der Weimarer-Republik entwickelte Politische Theorie nur graduell modifizieren. Trotz dieser reaktionären Aspekte und eines offenbar zeitlebens vorhandenen, wenn auch unterschiedlich ausgeprägten Antisemitismus wird Schmitt auch heutzutage ein originelles staatsphilosophisches Denken attestiert. Im Folgenden sollen seine grundlegenden Konzepte zumindest überblicksartig skizziert werden, wobei die zeitbezogenen Aspekte in den Hintergrund treten. Schmitt als Katholik und Kulturkritiker. Als Katholik war Schmitt von einem tiefen Pessimismus gegenüber Fortschrittsvorstellungen, Fortschrittsoptimismus und Technisierung geprägt. Vor dem Hintergrund der Ablehnung wertneutraler Denkweisen und relativistischer Konzepte entwickelte er eine spezifische Kulturkritik, die sich in verschiedenen Passagen durch seine Arbeiten zieht. Insbesondere das Frühwerk enthält zum Teil kulturpessimistische Ausbrüche. Das zeigt sich vor allem in einer seiner ersten Publikationen, in der er sich mit dem Dichter Theodor Däubler und seinem Epos "Nordlicht" (1916) auseinandersetzte. Hier trat der Jurist vollständig hinter den kunstinteressierten Kulturkommentator zurück. Auch sind gnostische Anspielungen erkennbar, die Schmitt – er war ein großer Bewunderer Marcions – wiederholt einfließen ließ. Ebenso deutlich wurden Hang und Talent zur Typisierung. Daher gibt es nach Schmitt keine politische Produktivität im Romantischen. Es wird vielmehr völlige Passivität gepredigt und auf „mystische, theologische und traditionalistische Vorstellungen, wie Gelassenheit, Demut und Dauer“ verwiesen. In seiner Schrift "Römischer Katholizismus und politische Form" (1923) analysierte Schmitt die Kirche als eine "Complexio Oppositorum", also eine alles umspannende Einheit der Widersprüche. Schmitt diagnostiziert einen „"anti-römischen Affekt"“. Dieser Affekt, der sich Schmitt zufolge durch die Jahrhunderte zieht, resultiert aus der Angst vor der unfassbaren politischen Macht des römischen Katholizismus, der „"päpstlichen Maschine"“, also eines ungeheuren hierarchischen Verwaltungsapparats, der das religiöse Leben kontrollieren und die Menschen dirigieren will. Bei Dostojewski und seinem „Großinquisitor“ erhebt sich demnach das anti-römische Entsetzen noch einmal zu voller säkularer Größe. Zu jedem Weltreich, also auch dem römischen, gehöre ein gewisser Relativismus gegenüber der „"bunten Menge möglicher Anschauungen, rücksichtslose Überlegenheit über lokale Eigenarten und zugleich opportunistische Toleranz in Dingen, die keine zentrale Bedeutung haben"“. In diesem Sinne sei die Kirche Complexio Oppositorum: „"Es scheint keinen Gegensatz zu geben, den sie nicht umfasst"“. Dabei wird das Christentum nicht als Privatsache und reine Innerlichkeit aufgefasst, sondern zu einer „sichtbaren Institution“ gestaltet. Ihr Formprinzip sei das der Repräsentation. Dieses Prinzip der Institution sei der Wille zur Gestalt, zur politischen Form. Schon im Frühwerk wird erkennbar, dass Schmitt bürgerliche und liberale Vorstellungen von Staat und Politik zurückwies. Für ihn war der Staat nicht statisch und normativ, sondern vital, dynamisch und faktisch. Daher betonte er das Element der Dezision gegenüber der Deliberation und die Ausnahme gegenüber der Norm. Schmitts Staatsvorstellung war organisch, nicht technizistisch. Der politische Denker Schmitt konzentrierte sich vor allem auf soziale Prozesse, die Staat und Verfassung seiner Meinung nach vorausgingen und beide jederzeit gefährden oder aufheben konnten. Als Rechtsphilosoph behandelte er von verschiedenen Perspektiven aus das Problem der Rechtsbegründung und die Frage nach der Geltung von Normen. Schmitt als politischer Denker. Schmitts Auffassung des Staates setzt den Begriff des Politischen voraus. Anstelle eines Primats des Rechts, postuliert er einen Primat der Politik. In diesem Sinne war er, wie hier nur angemerkt sei, ein Nestor der jungen akademischen Disziplin der „Politikwissenschaft“. Der Rechtsordnung, d. h. der durch das Recht gestalteten und definierten Ordnung, geht für Schmitt immer eine andere, nämlich eine staatliche Ordnung voraus. Es ist diese vor-rechtliche Ordnung, die es dem Recht erst ermöglicht, konkrete Wirklichkeit zu werden. Mit anderen Worten: Das Politische folgt einer konstitutiven Logik, das Rechtswesen einer regulativen. Die Ordnung wird bei Schmitt durch den Souverän hergestellt, der unter Umständen zu ihrer Sicherung einen Gegner zum existentiellen Feind erklären kann, den es zu bekämpfen, womöglich zu vernichten gelte. Um dies zu tun, dürfe der Souverän die Schranken beseitigen, die mit der Idee des Rechts gegeben sind. Die negative Anthropologie eines Thomas Hobbes (1588–1679) prägte Schmitts Denken. Der Mensch ist für den Katholiken Schmitt nicht von Natur aus gut, allerdings auch nicht von Natur aus böse, sondern unbestimmt – also fähig zum Guten wie zum Bösen. Damit wird er aber (zumindest potentiell) gefährlich und riskant. Weil der Mensch nicht vollkommen gut ist, bilden sich Feindschaften. Derjenige Bereich, in dem zwischen Freund und Feind unterschieden wird, ist für Schmitt die Politik. Der Feind ist in dieser auf die griechische Antike zurückgehenden Sicht immer der öffentliche Feind ("hostis" bzw. "πολέμιος"), nie der private Feind ("inimicus" bzw. "εχθρός"). Die Aufforderung „Liebet eure Feinde“ aus der Bergpredigt (nach der Vulgata: "diligite inimicos vestros", Matthäus 5,44 und Lukas 6,27) beziehe sich dagegen auf den privaten Feind. In einem geordneten Staatswesen gibt es somit für Schmitt eigentlich keine Politik, jedenfalls nicht im existentiellen Sinne einer radikalen Infragestellung, sondern nur sekundäre Formen des Politischen (z. B. Polizei). Unter Politik versteht Schmitt einen Intensitätsgrad der Assoziation und Dissoziation von Menschen („"Die Unterscheidung von Freund und Feind hat den Sinn, den äußersten Intensitätsgrad einer Verbindung oder Trennung, einer Assoziation oder Dissoziation zu bezeichnen"“). Diese dynamische, nicht auf ein Sachgebiet begrenzte Definition eröffnete eine neue theoretische Fundierung politischer Phänomene. Für Schmitt war diese Auffassung der Politik eine Art Grundlage seiner Rechtsphilosophie. Ernst-Wolfgang Böckenförde führt in seiner Abhandlung "Der Begriff des Politischen als Schlüssel zum staatsrechtlichen Werk Carl Schmitts" (Abdruck in: Recht, Staat, Freiheit, 1991) dazu aus: Nur wenn die Intensität unterhalb der Schwelle der offenen Freund-Feind-Unterscheidung gehalten werde, besteht Schmitt zufolge eine Ordnung. Im anderen Falle drohen Krieg oder Bürgerkrieg. Im Kriegsfall hat man es in diesem Sinne mit zwei souveränen Akteuren zu tun; der Bürgerkrieg stellt dagegen die innere Ordnung als solche in Frage. Eine Ordnung existiert nach Schmitt immer nur vor dem Horizont ihrer radikalen Infragestellung. Die Feind-Erklärung ist dabei ausdrücklich immer an den extremen Ausnahmefall gebunden ("extremis neccessitatis causa"). Schmitt selbst gibt keine Kriterien dafür an die Hand, unter welchen Umständen ein Gegenüber als Feind zu beurteilen ist. Im Sinne seines Denkens ist das folgerichtig, da sich das Existenzielle einer vorgängigen Normierung entzieht. Als (öffentlichen) Feind fasst er denjenigen auf, der per autoritativer Setzung durch den Souverän zum Feind erklärt wird. Diese Aussage ist zwar anthropologisch realistisch, gleichwohl ist sie theoretisch problematisch. In eine ähnliche Richtung argumentiert Günther Jakobs mit seinem Konzept des Feindstrafrechts zum Umgang mit "Staatsfeinden". In diesem Zusammenhang wird häufig auf Carl Schmitt verwiesen, auch wenn Jakobs Schmitt bewusst nicht zitiert hat. So heißt es bei dem Publizisten Thomas Uwer 2006: „An keiner Stelle zitiert Jakobs Carl Schmitt, aber an jeder Stelle scheint er hervor“. Auch die vom damaligen Innenminister Wolfgang Schäuble ausgehende öffentliche Debatte um den Kölner Rechtsprofessor Otto Depenheuer und dessen These zur Selbstbehauptung des Staates bei terroristischer Bedrohung gehören in diesen Zusammenhang, da Depenheuer sich ausdrücklich auf Schmitt beruft. Dabei bewegt sich eine politische Daseinsform bei Schmitt ganz im Bereich des Existenziellen. Normative Urteile kann man über sie nicht fällen („"Was als politische Größe existiert, ist, juristisch betrachtet, wert, dass es existiert"“). Ein solcher Relativismus und Dezisionismus bindet eine politische Ordnung nicht an Werte wie Freiheit oder Gerechtigkeit, im Unterschied z. B. zu Montesquieu, sondern sieht den höchsten Wert axiomatisch im bloßen Vorhandensein dieser Ordnung selbst. Diese und weitere irrationalistische Ontologismen, etwa sein Glaube an einen „Überlebenskampf zwischen den Völkern“, machten Schmitt aufnahmefähig für die Begriffe und die Rhetorik der Nationalsozialisten. Das illustriert die Grenze und zentrale Schwäche von Schmitts Begriffsbildung. Schmitts Rechtsphilosophie. Schmitt betonte, er habe als Jurist eigentlich nur „"zu Juristen und für Juristen"“ geschrieben. Neben einer großen Zahl konkreter verfassungs- und völkerrechtlicher Gutachten legte er auch eine Reihe systematischer Schriften vor, die stark auf konkrete Situationen hin angelegt waren. Trotz der starken fachjuristischen Ausrichtung ist es möglich, aus der Vielzahl der Bücher und Aufsätze eine mehr oder weniger geschlossene Rechtsphilosophie zu rekonstruieren. Eine solche geschlossene Lesart legte der Luxemburger Rechtsphilosoph Norbert Campagna vor. Dieser Interpretation soll hier gefolgt werden. Schmitts rechtsphilosophisches Grundanliegen ist das Denken des Rechts vor dem Hintergrund der Bedingungen seiner Möglichkeit. Das abstrakte Sollen setzt demnach immer ein bestimmtes geordnetes Sein voraus, das ihm erst die Möglichkeit gibt, sich zu verwirklichen. Schmitt denkt also in genuin rechtssoziologischen Kategorien. Ihn interessiert vor allem die immer gegebene Möglichkeit, dass Rechtsnormen und Rechtsverwirklichung auseinanderfallen. Zunächst müssen nach diesem Konzept die Voraussetzungen geschaffen werden, die es den Rechtsgenossen ermöglichen, sich an die Rechtsnormen zu halten. Da die „normale“ Situation aber für Schmitt immer fragil und gefährdet ist, kann seiner Ansicht nach die paradoxe Notwendigkeit eintreten, dass gegen Rechtsnormen verstoßen werden muss, um die Möglichkeit einer Geltung des Rechts herzustellen. Damit erhebt sich für Schmitt die Frage, wie das Sollen sich im Sein ausdrücken kann, wie also aus dem gesollten Sein ein existierendes Sein werden kann. Verfassung, Souveränität und Ausnahmezustand. Der herrschenden Meinung der Rechtsphilosophie, vor allem aber dem Liberalismus, warf Schmitt vor, das selbständige Problem der Rechtsverwirklichung zu ignorieren. Dieses Grundproblem ist für ihn unlösbar mit der Frage nach Souveränität, Ausnahmezustand und einem "Hüter der Verfassung" verknüpft. Anders als liberale Denker, denen er vorwarf, diese Fragen auszublenden, definierte Schmitt den Souverän als diejenige staatliche Gewalt, die in letzter Instanz, also ohne die Möglichkeit Rechtsmittel einzulegen, entscheidet. Den Souverän betrachtet er als handelndes Subjekt und nicht als Rechtsfigur. Laut Schmitt ist er nicht juristisch geformt, aber durch ihn entsteht die juristische Form, indem der Souverän die Rahmenbedingungen des Rechts herstellt. „Die Ordnung muss hergestellt sein, damit die Rechtsordnung einen Sinn hat“ Wie Campagna betont hängt damit allerdings auch das Schicksal der Rechtsordnung von der sie begründenden Ordnung ab. Als erster entwickelte Schmitt keine Staatslehre, sondern eine "Verfassungslehre". Die Verfassung bezeichnete er in ihrer positiven Substanz als „"eine konkrete politische Entscheidung über Art und Form der politischen Existenz"“. Diesen Ansatz grenzt er mit der Formel „Entscheidung aus dem normativen Nichts“ positivistisch gegen naturrechtliche Vorstellungen ab. Erst wenn der souveräne Verfassungsgeber bestimmte Inhalte als Kern der Verfassung hervorhebt, besitzt die Verfassung demnach einen substanziellen Kern. Zum politischen Teil der modernen Verfassung gehören für Schmitt etwa die Entscheidung für die Republik, die Demokratie und den Parlamentarismus, wohingegen das Votum für die Grundrechte und die Gewaltenteilung den rechtsstaatlichen Teil der Verfassung ausmacht. Während der politische Teil das Funktionieren des Staates konstituiert, zieht der rechtsstaatliche Teil, so Schmitt, diesem Funktionieren Grenzen. Eine Verfassung nach Schmitts Definition hat immer einen politischen Teil, nicht unbedingt aber einen rechtsstaatlichen. Damit Grundrechte überhaupt wirksam sein können, muss es für Schmitt zunächst einen Staat geben, dessen Macht sie begrenzen. Mit diesem Konzept verwirft er implizit den naturrechtlichen Gedanken universeller Menschenrechte, die für jede Staatsform unabhängig von durch den Staat gesetztem Recht gelten, und setzt sich auch hier in Widerspruch zum Liberalismus. Jede Verfassung steht in ihrem Kern, argumentiert Schmitt, nicht zur Disposition wechselnder politischer Mehrheiten, das Verfassungssystem ist vielmehr unveränderlich. Es sei nicht der Sinn der Verfassungsbestimmungen über die Verfassungsrevision, ein Verfahren zur Beseitigung des Ordnungssystems zu eröffnen, das durch die Verfassung konstituiert werden soll. Wenn in einer Verfassung die Möglichkeit einer Verfassungsrevision vorgesehen ist, so solle das keine legale Methode zu ihrer eigenen Abschaffung etablieren. Durch die politische Verfassung, also die Entscheidung über Art und Form der Existenz, entsteht demzufolge eine Ordnung, in der Normen wirksam werden können („"Es gibt keine Norm, die auf ein Chaos anwendbar wäre"“). Im eigentlichen Sinne politisch ist eine Existenzform nur dann, wenn sie kollektiv ist, wenn also ein vom individuellen Gut eines jeden Mitglieds verschiedenes kollektives Gut im Vordergrund steht. In der Verfassung, so Schmitt, drücken sich immer bestimmte Werte aus, vor deren Hintergrund unbestimmte Rechtsbegriffe wie die „öffentliche Sicherheit“ erst ihren konkreten Inhalt erhalten. Die Normalität könne nur vor dem Hintergrund dieser Werte überhaupt definiert werden. Das wesentliche Element der Ordnung ist dabei für Schmitt die Homogenität als Übereinstimmung aller bezüglich der fundamentalen Entscheidung hinsichtlich des politischen Seins der Gemeinschaft. Dabei ist Schmitt bewusst, dass es illusorisch wäre, eine weitreichende gesellschaftliche Homogenität erreichen zu wollen. Er bezeichnet die absolute Homogenität daher als „"idyllischen Fall"“. Seit dem 19. Jahrhundert besteht laut Schmitt die Substanz der Gleichheit vor allem in der Zugehörigkeit zu einer bestimmten Nation. Homogenität in der modernen Demokratie ist aber nie völlig zu verwirklichen, sondern es liegt stets ein „"Pluralismus"“ partikularer Interessen vor, daher ist nach Schmitts Auffassung die „"Ordnung"“ immer gefährdet. Die Kluft von Sein und Sollen könne jederzeit aufbrechen. Der für Schmitt zentrale Begriff der Homogenität ist zunächst nicht ethnisch oder gar rassistisch gedacht, sondern vielmehr positivistisch: Die Nation verwirklicht sich in der Absicht, gemeinsam eine Ordnung zu bilden. Nach 1933 stellte Schmitt sein Konzept allerdings ausdrücklich auf den Begriff der „"Rasse"“ ab. Der Souverän schafft und garantiert in Schmitts Denken die Ordnung. Hierfür hat er das Monopol der letzten Entscheidung. Souveränität ist für Schmitt also juristisch von diesem Entscheidungsmonopol her zu definieren („"Souverän ist, wer über den Ausnahmezustand entscheidet"“), nicht von einem Gewalt- oder Herrschaftsmonopol aus. Die im Ausnahmezustand getroffenen Entscheidungen (Verurteilungen, Notverordnungen etc.) lassen sich aus Schmitts Sicht hinsichtlich ihrer Richtigkeit nicht anfechten („"Dass es die zuständige Stelle war, die eine Entscheidung fällt, macht die Entscheidung "[…]" unabhängig von der Richtigkeit ihres Inhaltes"“). Souverän ist für Schmitt dabei immer derjenige, der den Bürgerkrieg vermeiden oder wirkungsvoll beenden kann. Repräsentation, Demokratie und Homogenität. Der moderne Staat ist für Schmitt demokratisch legitimiert. Demokratie in diesem Sinne bedeutet die „"Identität von Herrscher und Beherrschten, Regierenden und Regierten, Befehlenden und Gehorchenden“". Zum Wesen der Demokratie gehört die "„Gleichheit“", die sich allerdings nur nach innen richtet und daher nicht die Bürger anderer Staaten umfasst. Innerhalb eines demokratischen Staatswesens sind alle Staatsangehörigen gleich. Demokratie als Staatsform setzt laut Schmitt immer ein "„politisch geeintes Volk“" voraus. Die demokratische Gleichheit verweist damit auf eine Gleichartigkeit bzw. Homogenität. In der Zeit des Nationalsozialismus bezeichnete Schmitt dieses Postulat nicht mehr als „Gleichartigkeit“, sondern als „Artgleichheit“. Die Betonung der Notwendigkeit einer relativen Homogenität teilt Schmitt mit seinem Antipoden Hermann Heller, der die Homogenität jedoch sozial und nicht politisch verstand. Heller hatte sich im Jahre 1928 brieflich an Schmitt gewandt, da er eine Reihe von Gemeinsamkeiten im verfassungspolitischen Urteil bemerkt hatte. Neben der Frage der politischen Homogenität betraf das vor allem die Nutzung des Notverordnungsparagraphen Art. 48 in der Weimarer Verfassung, zu der Schmitt 1924 ein Referat auf der Versammlung der Staatsrechtslehrer gehalten hatte, mit dem Heller übereinstimmte. Der Austausch brach jedoch abrupt wieder ab, nachdem Heller Schmitts Begriff des Politischen Bellizismus vorgeworfen hatte. Schmitt hatte diesem Urteil vehement widersprochen. Dabei bezog es sich ausdrücklich auf Hermann Heller, obwohl der Sachverhalt inhaltlich eher Schmitt hätte zugeordnet werden müssen. Dazu schreibt der Experte für Öffentliches Recht Alexander Proelß 2003: „Die Benennung Hellers zur Stützung der Homogenitätsvoraussetzung des Staatsvolkes geht jedenfalls fehl […]. Das Gericht dürfte primär das Ziel verfolgt haben, der offenbar als wenig wünschenswert erschienenen Zitierung des historisch belasteten Schmitt auszuweichen.“ Hinter den bloß partikularen Interessen muss es, davon geht Schmitt im Sinne Rousseaus aus, eine "volonté générale" geben, also ein gemeinsames, von allen geteiltes Interesse. Diese "„Substanz der Einheit“" ist eher dem Gefühl als der Rationalität zugeordnet. Wenn eine starke und bewusste Gleichartigkeit und damit die politische Aktionsfähigkeit fehlt, bedarf es nach Schmitt der Repräsentation. Wo das Element der Repräsentation in einem Staat überwiege, nähere sich der Staat der Monarchie, wo indes das Element der Identität stärker sei, nähere sich der Staat der Demokratie. In dem Moment, in dem in der Weimarer Republik der Bürgerkrieg als reale Gefahr am Horizont erschien, optierte Schmitt daher für einen souveränen Reichspräsidenten als Element der „"echten Repräsentation"“. Den Parlamentarismus bezeichnete er dagegen als „"unechte Fassade"“, die sich geistesgeschichtlich überholt habe. Das Parlament lehnte er als "„Hort der Parteien“" und "„Partikularinteressen“" ab. In Abgrenzung dazu unterstrich er, dass der demokratisch legitimierte Präsident die Einheit repräsentiere. Als Repräsentant der Einheit ist aus dieser Sicht der Souverän der "„Hüter der Verfassung“", der politischen Substanz der Einheit. Diktatur, Legalität und Legitimität. Der „Leviathan“ – Hobbes’sches Sinnbild des modernen Staates, hier in einer Gravur von Gustave Doré, 1865 – wird in den Augen Schmitts vom Pluralismus der indirekten Gewalten vernichtet Das Instrument, mit dem der Souverän die gestörte Ordnung wiederherstellt, ist Schmitt zufolge die "„Diktatur“", die nach seiner Auffassung das Rechtsinstitut der Gefahrenabwehr darstellt (vgl. Artikel Ausnahmezustand). Eine solche Diktatur, verstanden in der altrömischen Grundbedeutung als Notstandsherrschaft zur "„Wiederherstellung der bedrohten Ordnung“", ist nach Schmitts Beurteilung zwar durch keine Rechtsnorm gebunden, trotzdem bildet das Recht immer ihren Horizont. Zwischen dieser Diktatur und der "„Rechtsidee“" besteht dementsprechend nur ein relativer, kein absoluter Gegensatz. Legal ist eine Handlung, wenn sie sich restlos einer allgemeinen Norm des positiven Rechts subsumieren lässt. Die Legitimität hingegen ist für Schmitt nicht unbedingt an diese Normen gebunden. Sie kann sich auch auf Prinzipien beziehen, die dem positiven Recht übergeordnet sind, etwa das "„Lebensrecht des Staates“" oder die Staatsräson. Die Diktatur beruft sich dementsprechend auf die Legitimität. Sie ist nicht an positive Normierungen gebunden, sondern nur an die Substanz der Verfassung, also ihre Grundentscheidung über Art und Form der politischen Existenz. Gemäß Schmitt muss sich die Diktatur selbst überflüssig machen, d. h. sie muss die Wirklichkeit so gestalten, dass der Rückgriff auf eine außerordentliche Gewalt überflüssig wird. Die Diktatur ist bei Vorliegen einer Verfassung notwendig kommissarisch, da sie keinen anderen Zweck verfolgen kann, als die Verfassung wieder in Gültigkeit zu bringen. Der Diktator ist somit eine konstituierte Gewalt ("pouvoir constitué"), die sich nicht über den Willen der konstituierenden Gewalt ("pouvoir constituant") hinwegsetzen kann. In Abgrenzung davon gibt es laut Schmitt eine "„souveräne Diktatur“", bei der der Diktator erst eine Situation herstellt, die sich aus seiner Sicht zu bewahren lohnt. Hier hatte Schmitt vor allem den souveränen Fürsten vor Augen. Dies bedeutet in der Konsequenz, was Schmitt auch formulierte: Souveräne Diktatur und Verfassung schließen einander aus. Krieg, Feindschaft, Völkerrecht. Homogenität, die nach Schmitt zum Wesenskern der Demokratie gehört, setzt auf einer höheren Ebene immer Heterogenität voraus. Einheit gibt es nur in Abgrenzung zu einer Vielheit. Jedes sich demokratisch organisierende Volk kann dies folglich nur im Gegensatz zu einem anderen Volk vollziehen. Es existiert für dieses Denken also immer ein "„Pluriversum“" verschiedener Völker und Staaten. Wie das staatliche Recht, so setzt für Schmitt auch das internationale Recht („Völkerrecht“) eine konkrete Ordnung voraus. Ein Flugblatt von 1648 verkündet den Westfälischen Frieden. Schmitt zufolge ist die durch den Friedensschluss konstituierte internationale Rechtsordnung jedoch durch eine Auflösung der Staatenordnung in Frage gestellt Diese konkrete Ordnung war seit dem Westfälischen Frieden von 1648 die internationale "Staaten"ordnung als Garant einer internationalen Rechtsordnung. Da Schmitt den Untergang dieser "Staaten"ordnung konstatiert, stellt sich für ihn jedoch die Frage nach einem neuen konkreten Sein internationaler Rechtssubjekte, das eine "„seinswirkliche“" Grundlage für eine internationale Rechtsordnung garantieren könne. Historisch wurde laut Schmitt eine solche Ordnung immer durch Kriege "souveräner Staaten" hergestellt, die ihre politische Idee als "Ordnungsfaktor" im Kampf gegen andere durchsetzen wollten. Erst wenn die Ordnungsansprüche an eine Grenze gestoßen sind, etabliere sich in einem Friedensschluss ein stabiles Pluriversum, also eine "internationale Ordnung" („"Sinn jedes nicht sinnlosen Krieges besteht darin, zu einem Friedensschluss zu führen"“). Es muss erst eine als "„normal“" angesehene Teilung des Raumes gegeben sein, damit es zu einer wirksamen internationalen "Rechtsordnung" kommen kann. Durch ihre politische Andersartigkeit sind die pluralen Gemeinwesen füreinander immer potentielle Feinde, solange keine globale Ordnung hergestellt ist. Schmitt hält jedoch entschieden an einem eingeschränkten Feindbegriff fest und lässt damit Platz für die "Idee des Rechts". Denn nur mit einem Gegenüber, der als (potentieller) Gegner und nicht als absoluter Feind betrachtet wird, ist ein Friedensschluss möglich. Hier stellt Schmitt die Frage nach der "„Hegung des Krieges“". Das "ethische Minimum der Rechtsidee" ist für ihn dabei das Prinzip der "Gegenseitigkeit". Dieses Element dürfe in einem Krieg niemals wegfallen, das heißt, es müssten auch dem Feind im Krieg immer dieselben Rechte zuerkannt werden, die man für sich selbst in Anspruch nimmt. Schmitt unterscheidet dabei folgende Formen der Feindschaft: "konventionelle Feindschaft", "wirkliche Feindschaft" und "absolute Feindschaft". Zur "absoluten Feindschaft" komme es paradoxerweise etwa dann, wenn sich eine Partei den Kampf für den Humanismus auf ihre Fahne geschrieben habe. Denn wer zum Wohle oder gar zur Rettung der gesamten Menschheit kämpfe, müsse seinen Gegner als "„Feind der gesamten Menschheit“" betrachten und damit zum "„Unmenschen“" deklarieren. In Abwandlung Pierre-Joseph Proudhons Wort „"Wer Gott sagt, will betrügen"“, heißt es bei Schmitt: „"Wer Menschheit sagt, will betrügen"“. Den konventionellen Krieg bezeichnete Schmitts als "gehegten Krieg" (ius in bello), an dem Staaten und ihre regulären Armeen beteiligt sind, sonst niemand. Auf diesem Prinzip basieren, so Schmitt, auch die nach dem Zweiten Weltkrieg abgeschlossenen vier Genfer Konventionen, da sie eine souveräne Staatlichkeit zugrunde legen. Schmitt würdigte diese Konventionen als "„Werk der Humanität“", stellt aber zugleich fest, dass sie von einer "Wirklichkeit" ausgingen, die als solche nicht mehr existiere. Daher könnten sie ihre eigentliche Funktion, eine wirksame Hegung des Krieges zu ermöglichen, nicht mehr erfüllen. Denn mit dem Verschwinden des zugrundeliegenden "Seins" habe auch das "Sollen" keine Grundlage mehr. Der „gehegte Krieg“ der Genfer Konventionen (hier das Originaldokument der ersten Genfer Konvention, 1864) gehört für Schmitt zur Vergangenheit Auflösung der internationalen Ordnung: Großraum, Pirat und Partisan. Schmitt diagnostiziert ein Ende der Staatlichkeit („"Die Epoche der Staatlichkeit geht zu Ende. Darüber ist kein Wort mehr zu verlieren"“). Das Verschwinden der Ordnung souveräner Staatlichkeit sieht er in folgenden Faktoren: Erstens lösen sich die Staaten auf, es entstehen neuartige Subjekte internationalen Rechts; zweitens ist der Krieg "ubiquitär" – also allgegenwärtig und allverfügbar – geworden und hat damit seinen konventionellen und gehegten Charakter verloren. a> (bei Verhaftung durch internationale Truppen) – ist in Schmitts Kategorien der Vorläufer des modernen Terroristen An die Stelle des Staates treten Schmitt zufolge mit der Monroe-Doktrin 1823 neuartige "„Großräume“" mit einem Interventionsverbot für raumfremde Mächte. Hier habe man es mit neuen Rechtssubjekten zu tun: Die USA zum Beispiel sind laut Schmitt seit der Monroe-Doktrin kein gewöhnlicher Staat mehr, sondern eine führende und tragende Macht, deren politische Idee in ihren Großraum, nämlich die westliche Hemisphäre ausstrahlt. Damit ergibt sich eine Einteilung der Erde in mehrere durch ihre geschichtliche, wirtschaftliche und kulturelle Substanz erfüllte Großräume. Den seit 1938 entwickelten Begriff des Großraums füllte Schmitt 1941 nationalsozialistisch; die politische Idee des deutschen Reiches sei die Idee der „"Achtung jedes Volkes als einer durch Art und Ursprung, Blut und Boden bestimmte Lebenswirklichkeit"“. An die Stelle eines Pluriversums von Staaten tritt für Schmitt also ein "Pluriversum von Großräumen". Gleichzeitig geht den Staaten, so Schmitts Analyse, das Monopol der Kriegsführung (ius ad bellum) verloren. Es träten neue, nichtstaatliche Kombattanten hervor, die als "kriegsführende Parteien" aufträten. Im Zentrum dieser neuen Art von Kriegsführung sieht Schmitt Menschen, die sich "total" mit dem Ziel ihrer Gruppe identifizieren und daher keine einhegenden Grenzen für die Verwirklichung dieser Ziele kennen. Sie sind bereit Unbeteiligte, Unschuldige, ja sogar sich selbst zu opfern. Damit werde die Sphäre der Totalität betreten und damit auch der Boden der "absoluten Feindschaft". Als Prototyp eines solchen nichtstaatlichen Kombattanten kann die übernationale Terror-Miliz des sogenannten Islamischen Staats gesehen werden. Interessanterweise war das Auftreten einer solchen irregulären Kriegspartei von keinem politischen Experten antizipiert worden, obwohl Schmitt bereits vor Jahrzehnten eine recht detaillierte Blaupause einer solchen Strategie und Organisation geliefert hatte. a> bildet, mehr als 50 Jahre nach Schmitts Prognose, eine Art Modellfall des nichtstaatlichen Kombattanten – im Bild die Flagge des von IS ausgerufenen "Islamischen Staats von Irak und Levante" Nach Schmitt hat man es nach dem Verlust des staatlichen Kriegsführungsmonopols mit einem neuen Typus zu tun, dem Partisan, der sich durch vier Merkmale auszeichnet: Irregularität, starkes politisches Engagement, Mobilität und „tellurischen Charakter“ (Ortsgebundenheit). Der Partisan ist nicht mehr als regulärer Kombattant erkennbar, er trägt keine Uniform, er verwischt bewusst den Unterschied zwischen Kämpfern und Zivilisten, der für das Kriegsrecht konstitutiv ist. Durch sein starkes politisches Engagement unterscheidet sich der Partisan vom Piraten. Dem Partisan geht es in erster Linie darum, für politische Ziele zu kämpfen, mit denen er sich restlos identifiziert. Der lateinische Ursprung des Wortes Partisan sei, was oft vergessen werde, „Anhänger einer Partei“. Der Partisan ist durch seine "Irregularität" hochgradig "mobil". Anders als stehende Heere kann er rasch und unerwartet zuschlagen und sich ebenso schnell zurückziehen. Er agiert nicht hierarchisch und zentral, sondern dezentral und in Netzwerken. Sein "tellurischer Charakter" zeigt sich nach Schmitt darin, dass der Partisan sich an einen konkreten Ort gebunden fühle, den er verteidige. Der verortete oder ortsgebundene Partisan führt primär einen Verteidigungskrieg. Dieses letzte Merkmal beginnt der Partisan, so Schmitt, aber zu verlieren. Der Partisan (oder, wie man heute sagen würde: der Terrorist) wird zu einem „"Werkzeug einer mächtigen Weltpolitik treibenden Zentrale, die ihn im offenen oder im unsichtbaren Krieg einsetzt und nach Lage der Dinge wieder abschaltet"“. Während der "konventionelle Feind" im Sinne des gehegten Krieges einen bestimmten Aspekt innerhalb eines von allen Seiten akzeptierten Rahmens in Frage stellt, stelle der "wirkliche Feind" den Rahmen als solchen in Frage. Der nicht mehr ortsgebundene Partisan verkörpert die Form der "absoluten Feindschaft" und markiert somit den Übergang zu einem "totalen Krieg". Für Schmitt erfolgte der Übergang vom "„autochthonen zum weltaggressiven Partisan“" historisch mit Lenin. Es geht, betont Schmitt, in den neuen Kriegen, die von der "absoluten Feindschaft" der Partisanen geprägt sind, nicht mehr darum, neue Gebiete zu erobern, sondern eine Existenzform wegen ihrer angeblichen Unwertigkeit zu vernichten. Aus einer kontingent definierten Feindschaft wird eine ontologisch oder intrinsisch bestimmte. Mit einem solchen Feind ist kein gehegter Krieg und auch kein Friedensschluss mehr möglich. Schmitt nennt das im Unterschied zum „"paritätisch geführten Krieg“" den "„diskriminierend geführten Krieg“". Sein diskriminierender Kriegsbegriff bricht mit der Reziprozität und beurteilt den Feind in Kategorien des Gerechten und Ungerechten. Wird der Feindbegriff in einem solchen Sinne total, wird die "Sphäre des Politischen" verlassen und die des "Theologischen" betreten, also die Sphäre der letzten, nicht mehr verhandelbaren Unterscheidung. Der Feindbegriff des Politischen ist nach Schmitt ein durch die "Idee des Rechts" begrenzter Begriff. Es ist demzufolge gerade die Abwesenheit einer ethischen Bestimmung des Kriegsziels, welche eine "„Hegung des Krieges“" erst ermöglicht, weil ethische Postulate, da sie grundsätzlich nicht verhandelbar sind, zur "„theologischen Sphäre“" gehören. Der Nomos der Erde. Nach dem Wegfall der Ordnung des Westfälischen Friedens stellt sich für Schmitt die Frage nach einer neuen "seins"mäßigen Ordnung, die das Fundament eines abstrakten "Sollens" werden kann. Für ihn ist dabei klar, dass es keine „One World Order“ geben kann. Die Entstaatlichung der internationalen Ordnung dürfe nicht in einen Universalismus münden. Laut Schmitt ist allein eine Welt der Großräume mit Interventionsverbot für andere Großmächte in der Lage, die durch die Westfälische Ordnung garantierte Hegung des Krieges zu ersetzen. Er konstruiert 1950 einen "„Nomos der Erde“", der – analog zur souveränen Entscheidung – erst die Bedingungen der Normalität schafft, die für die Verwirklichung des Rechts notwendig sind. Somit ist dieser räumlich verstandene Nomos der Erde für Schmitt die Grundlage für jede völkerrechtliche Legalität. Ein wirksames Völkerrecht wird nach seiner Auffassung immer durch eine solche konkrete Ordnung begründet, niemals durch bloße Verträge. Sobald auch nur ein Element der Gesamtordnung diese Ordnung in Frage stelle, sei die Ordnung als solche in Gefahr. Der erste Nomos war für Schmitt lokal, er betraf nur den europäischen Kontinent. Nach der Entdeckung Amerikas sei der Nomos global geworden, da er sich nun auf die ganze Welt ausgedehnt habe. Für den "neuen Nomos" der Erde, der sich für Schmitt noch nicht herausgebildet hat, sieht die Schmittsche Theorie drei prinzipielle Möglichkeiten: a) eine alles beherrschende Macht unterwirft sich alle Mächte, b) der Nomos, in dem sich souveräne Staaten gegenseitig akzeptieren, wird wiederbelebt, c) der Raum wird zu einem neuartigen Pluriversum von Großmächten. Die Verwirklichung der zweiten Variante hält Schmitt für unwahrscheinlich. Die erste Variante lehnt er entschieden ab („"Recht durch Frieden ist sinnvoll und anständig; Friede durch Recht ist imperialistischer Herrschaftsanspruch"“). Es dürfe nicht sein, dass "„egoistische Mächte“", womit er vor allem die Vereinigten Staaten im Blick hat, die Welt unter ihre Machtinteressen stellen. Das "Ius belli" dürfe nicht zum Vorrecht einer einzigen Macht werden, sonst höre das Völkerrecht auf, paritätisch und universell zu sein. Somit bleibt gemäß Schmitt nur das Pluriversum einiger weniger Großräume. Voraussetzung dafür wäre in der Konsequenz des Schmittschen Denkens allerdings ein globaler Krieg, da nur eine kriegerische Auseinandersetzung geeignet ist, einen neuen Nomos der Erde zu begründen. Rezeption. Nach 1945 war Schmitt wegen seines Engagements für den Nationalsozialismus akademisch und publizistisch isoliert. Er wurde neben Ernst Jünger, Arnold Gehlen, Hans Freyer und Martin Heidegger als intellektueller Wegbereiter und Stütze des NS-Regimes angesehen. Dennoch hatte er zahlreiche Schüler, die das juristische Denken der frühen Bundesrepublik mitprägten. Dazu gehören Ernst Rudolf Huber, Ernst Forsthoff, Werner Weber, Roman Schnur, Hans Barion und Ernst Friesenhahn, die alle außer Friesenhahn selbst durch längeres nationalsozialistisches Engagement belastet waren. Diese Schüler widmeten dem Jubilar jeweils zum 70. und 80. Geburtstag eine Festschrift, um ihm öffentlich ihre Reverenz zu erweisen ("Festschrift zum 70. Geburtstag für Carl Schmitt", 1959 und "Epirrhosis. Festgabe für Carl Schmitt zum 80. Geburtstag", 1968). Weitere Schüler Schmitts waren etwa der als Kanzlerberater bekannt gewordene politische Publizist Rüdiger Altmann oder der einflussreiche Publizist Johannes Gross. Jüngere Verfassungsjuristen wie Ernst-Wolfgang Böckenförde oder Josef Isensee wurden nachhaltig von Carl Schmitt beeinflusst und lassen sich der von ihm begründeten Denktradition zuordnen, die gelegentlich auch als "Schmitt-Schule" bezeichnet wird. Bekannt ist das an Schmitt angelehnte sogenannte Böckenförde-Diktum, wonach der Staat von Voraussetzungen lebe, die er selbst nicht garantieren kann. Verschiedene öffentliche Persönlichkeiten suchten in der Frühzeit der Bundesrepublik den Rat oder die juristische Expertise Schmitts, darunter etwa der SPIEGEL-Herausgeber Rudolf Augstein 1952. a>" als „große Maschine“, in der sich der technisch-neutrale Befehlsmechanismus vollendet Schmitt wirkte aber auch in andere Disziplinen hinein. In der Geschichtswissenschaft waren vor allem Reinhart Koselleck ("Kritik und Krise") und Christian Meier ("Die Entstehung des Politischen bei den Griechen") von Schmitt beeinflusst, in der Soziologie Hanno Kesting ("Geschichtsphilosophie und Weltbürgerkrieg"); in der Philosophie rezipierten Odo Marquard ("Individuum und Gewaltenteilung"), Hermann Lübbe ("Der Streit um Worte: Sprache und Politik") und Alexandre Kojève ("Hegel, eine Vergegenwärtigung seines Denkens") schmittsche Theoreme. Auch Hans Blumenberg ("Legitimität der Neuzeit") beschäftigte sich in seinem Werk an verschiedenen Stellen teils kritisch, teils anerkennend mit Schmitt. In der Religionswissenschaft war es vor allem Jacob Taubes ("Abendländische Eschatologie"), der an Schmitts "Politischer Theologie" anknüpfte. Eine besonders diffizile Frage in der Wirkungsgeschichte Carl Schmitts ist dessen Rezeption in der intellektuellen und politischen Linken. Sie war Gegenstand scharfer Kontroversen. Auf der einen Seite galt Schmitt als eine Art intellektueller Hauptgegner – Ernst Bloch bezeichnete ihn etwa als eine der „Huren des völlig mortal gewordenen, des nationalsozialistischen Absolutismus“ –, auf der anderen Seite gab es argumentative Übereinstimmungen, inhaltliche Anklänge und versteckte Bezugnahmen. Neben Anknüpfungspunkten von Schmitt mit Protagonisten der Frankfurter Schule gab es Elemente einer „problematischen Solidarität“ (Friedrich Balke) zwischen der politischen Philosophin Hannah Arendt und Carl Schmitt. In ihrem Werk "Elemente und Ursprünge totaler Herrschaft" von 1951 postulierte Arendt, es habe eine relativ kleine Zahl „"wirklicher Künstler und Gelehrter“ gegeben, die sich „in Nazideutschland nicht nur gleichgeschaltet hatten, sondern überzeugte Nazis waren“ […]. „Zur Illustration sei an die Karriere Carl Schmitts erinnert, der zweifellos der bedeutendste Mann in Deutschland auf dem Gebiet des Verfassungs- und Völkerrechts war und sich die allergrößte Mühe gegeben hat, es den Nazis recht zu machen. Es ist ihm nie gelungen."“ Vielmehr sei er von den Nationalsozialisten „"schleunigst durch zweit- und drittrangige Begabungen wie Theodor Maunz, Werner Best, Hans Frank, Gottfried Neesse und Reinhold Hoehn "[sic! recte: Reinhard Höhn]" ersetzt und an die Wand gespielt [worden]."“ Arendt verwendete einige Schmittsche Begriffe wie „politische Romantik“ (nach der Ausgabe von 1925) und bezieht sich in diesem Zusammenhang auf dessen Thesen über die Verbindung von Philistern und politischen Romantikern. Sogar seiner 1934 erschienenen nationalsozialistisch geprägten Schrift "Staat, Bewegung, Volk" entnahm sie Gedankengänge. In ihre umfangreiche Bibliographie am Schluss des Werkes nahm sie neben diese beiden Bücher auch Schmitts Arbeiten "Totaler Feind, totaler Krieg, totaler Staat" (1937) und "Völkerrechtliche Großraumordnung für raumfremde Mächte" (1941) auf. Mit ihrem Konzept einer auf pluraler öffentlicher politischer Kommunikation beruhenden Rätedemokratie war Arendt jedoch im Grundsätzlichen weit von Schmitts Auffassungen entfernt. Ein Bindeglied zwischen Schmitt und der Frankfurter Schule war der Politologe Franz Neumann, der als junger Jurist Schmitt rezipiert hatte. Die auch bei Neumann anklingende Parlamentarismuskritik lässt sich von Neumann über Arendt bis zu Habermas verfolgen. Carl J. Friedrich, der mit Arendt, Fraenkel und Neumann die Totalitarismustheorie begründete, war in jungen Jahren ebenfalls ein Bewunderer von Schmitt und besonders dessen Theorie der Diktatur. Auch im philosophischen Umfeld bestanden Kontakte zu sozialistischen Theoretikern. Neben Walter Benjamin ist hier vor allem der marxistische Philosoph Georg Lukács zu nennen, der Schmitts "Politische Romantik" rühmte, wofür dieser sich durch ein Zitat „"des bekannten kommunistischen Theoretikers"“ im "Begriff des Politischen" von 1932 revanchierte. Benjamin hatte Schmitt am 9. Dezember 1930 einen Brief geschrieben, in dem er diesem sein Buch "Ursprung des deutschen Trauerspiels" übersandte. In der Bundesrepublik wurden die Verbindungen einiger Protagonisten der Studentenbewegung, etwa Hans Magnus Enzensbergers – Hans Mathias Kepplinger nennt sie „rechte Leute von links“ – zu Carl Schmitt diskutiert. Der Politologe Wolfgang Kraushaar vom Hamburger Institut für Sozialforschung – ehemals selbst Teil der Studentenbewegung – vertrat die Auffassung, Hans-Jürgen Krahl müsse Carl Schmitts "Theorie des Partisanen" rezipiert haben, wie sich aus den Kriterien und Abgrenzungen zur Definition des Guerilleros ergebe, die dieser gemeinsam mit Rudi Dutschke 1967 auf einer berühmten SDS-Delegiertentagung entwickelt hatte (sog. Organisationsreferat). Diese Orientierung linker Theoretiker an der von Schmitt 1963 publizierten Partisanentheorie ist in der Tat nicht unwahrscheinlich, hatte doch z. B. der damalige Maoist Joachim Schickel in seinem 1970 edierten Buch "Guerilleros, Partisanen – Theorie und Praxis" ein „Gespräch über den Partisanen“ mit Carl Schmitt veröffentlicht und diesen als „"einzig erreichbaren Autor"“ bezeichnet, „"der sich kompetent zum Thema geäußert hat"“. In einem anderen Zusammenhang stellte Kraushaar die These auf, aus der Parlamentarismuskritik Johannes Agnolis, einem der wesentlichen Impulsgeber der Studentenrevolte, sprächen Gedanken rechter Denker wie Carl Schmitt, Gaetano Mosca und Vilfredo Pareto. Auch der linke Studentenführer Jens Litten, Mitglied des SHB, führte im Jahre 1970 – zusammen mit Rüdiger Altmann – für den Norddeutschen Rundfunk ein Gespräch mit Schmitt, über das er in der protestantischen Wochenzeitung Deutsches Allgemeines Sonntagsblatt berichtete. Wenn Schmitt von seinen Schülern spreche, so Litten, dann tauchten Namen auf, die „bei der Linken Autorität genießen“. Für Schmitt sei dies selbstverständlich gewesen, denn: „links und rechts sind ihm Begriffe der politischen Vulgärsprache“. Liegen Wurzeln der Parlamentarismuskritik einer APO-Bewegung bei Carl Schmitt? Das Bild zeigt das Europaparlament in Brüssel Vor diesem Hintergrund wurde ein möglicher Einfluss Schmitts auf die 68er-Bewegung diskutiert, obwohl der Staatsrechtler bei linken Denkern gemeinhin als zentraler Antipode gesehen wird. Auch gibt es in den wenigsten Fällen direkte Bezugnahmen. Die Beeinflussung erfolgte in der Regel über linke Vordenker wie Fraenkel, Neumann oder Kirchheimer, die zeitweise stark von Schmitt beeinflusst waren. Der gemeinsame Anknüpfungspunkt war zumeist die Parlamentarismuskritik. Dieses Thema verband konservative Antiliberale mit einigen Theoretikern der sogenannten „Außerparlamentarischen Opposition“ (APO). Der Politikwissenschaftler Heinrich Oberreuter betonte 2002: „Die radikale Systemkritik ging über die von Carl Schmitt und Jürgen Habermas begründeten Systemzweifel gegenüber einem Parlamentarismus, der seine geistigen Grundlagen und seine moralische Wahrheit verloren habe, hinaus.“ Bereits 1983 hatte der Jurist Volker Neumann geschrieben: „Carl Schmitts Werk ist für die Linken attraktiv geblieben – bis heute. Das Interesse für ähnliche Problemlagen und eine vergleichbare Radikalität der Fragestellung lieferten das Material für eine liberale Kritik, die am Beispiel Schmitts und der Studentenbewegung die ‚Übereinstimmung der Extreme‘ konstatierte. Angesetzt hatte sie an der für das politische Selbstverständnis der Studentenbewegung wichtigen Parlamentarismuskritik Johannes Agnolis, die in die Kontinuität des von Schmitt geprägten Antiliberalismus und -Parlamentarismus gerückt wurde.“ Leonard Landois behauptete in seinem 2008 erschienenen Buch "Konterrevolution von links: Das Staats- und Gesellschaftsverständnis der '68er' und dessen Quellen bei Carl Schmitt", dass die Ursprünge des Staats- und Gesellschaftsverständnisses der Studentenbewegung bei Schmitt gesucht werden müssten. Zwar konnte Landois tatsächlich verschiedene Parallelen zwischen Schmitt und den 68ern aufzeigen, er musste allerdings konzedieren, dass Vertreter der 68er mit Schmitt allenfalls indirekt Kontakt aufnahmen. Ebenso 2008 erschien Götz Alys sehr persönlich gefärbte Aufarbeitung der Studentenrevolte unter dem provokanten Titel "Unser Kampf – 1968". Er argumentiert, die 68er hätten „im Geiste des Nazi-Juristen Carl Schmitt“ den Pluralismus verachtet. Ein Beispiel für einen direkten Schnittpunkt zwischen Schmitt und der 68er-Bewegung war eine Tagung des Sozialistischen Deutschen Studentenbundes (SDS) in Berlin. Der bekannte Hegel-Forscher Alexandre Kojève, der sich selbst als „einzigen echten Sozialisten“ bezeichnete, hatte im Rahmen der Veranstaltung mitgeteilt, sein nächstes Reiseziel sei Plettenberg: „Wohin soll man denn in Deutschland fahren? Carl Schmitt ist doch der Einzige, mit dem zu reden sich lohnt“. Aus dem engsten Umfeld Schmitts wird berichtet, dieser sei der Studentenrevolte gegenüber durchaus aufgeschlossen gewesen. Schmitt habe gemerkt: da bricht etwas auf. Das habe ihm gefallen. In diesem Sinne suchte er auch die konstruktive Auseinandersetzung mit Veröffentlichungen der 68er-Bewegung. So soll er etwa Texte des linken Literaturwissenschaftler Helmut Lethen mit besonderem Interesse gelesen haben. Zudem habe er sich selbst nie als Konservativen betrachtet. Er habe eine Vorliebe für schillernde und extreme Figuren gleich welcher politischen Ausrichtung gehabt, solange sie ihm geistreich und unvoreingenommen erschienen. Dazu gehörte etwa auch Günter Maschke, der seine politische Sozialisierung beim SDS erlebte, dann politisches Asyl im Kuba Fidel Castros suchte und heute der Neuen Rechten zugeordnet wird. Der Feind wird außerhalb des Rechts gesetzt – Carl Schmitt liefert Giorgio Agamben die Kategorien für eine fundamentale Guantanamo-Kritik Zuletzt gab es Kontroversen über das Werk des italienischen Philosophen Giorgio Agamben, der sich neben dem Poststrukturalisten Michel Foucault und dem Vordenker der Kritischen Theorie, Walter Benjamin, in zentralen Elementen auf Carl Schmitt und dessen Theorie des Ausnahmezustands stützt. Agambens Guantánamo-Kritik, die Gefangenen würden als „irreguläre Kombattanten“ „außerhalb der internationalen Ordnung der zivilisierten Welt gestellt“ ("hors la loi", wie Schmitt sagen würde), bedient sich Schmittscher Argumentationsmuster. Teilweise ähnlich wie Schmitt argumentierte der US-amerikanische Politologe und Berater des US-Außenministeriums Samuel P. Huntington u. a. in seinem bekanntesten Werk "Clash of Civilizations" (1996). Auch die Globalisierungskritiker Michael Hardt und Antonio Negri haben für ihre Arbeit "Empire – Die neue Weltordnung" (Erstveröffentlichung 2004) von Schmittschen Analysewerkzeugen profitiert. Ein marxistischer Autor, der eine vielfach bemängelte Nähe zu Carl Schmitt aufweist, ist der französische Philosoph und langjähriges Mitglied der KPF Étienne Balibar. Balibar hatte unter anderem den französischen Neudruck des Schmitt-Buches "Der Leviathan in der Staatslehre des Thomas Hobbes" – einer Publikation aus der NS-Zeit – mit einem Vorwort versehen. Daraufhin wurde ihm vorgeworfen, Schmitt in gefährlicher Weise zu verharmlosen. Die Verwendung von Schmittschen Kategorien durch postmarxistische Theoretiker wie Michael Hardt, Antonio Negri, Giorgio Agamben, Chantal Mouffe, Gopal Balakrishnan oder auch die Rezeption durch das Theorie-Organ „Telos“ (eine zur Popularisierung der Ideen der Frankfurter Schule in den USA 1968 gegründete Zeitschrift) illustrieren die Anknüpfung an die frühe linke Rezeption Schmitts durch Benjamin, Fraenkel, Kirchheimer und Neumann. Vor allem die Interventionspolitik der Vereinigten Staaten (siehe etwa Irak-Krieg) oder die Rolle der Vereinten Nationen als eine Art „Weltregierung“ werden häufig unter Rückgriff auf Schmittsche Theoreme abgelehnt. Teilweise wurden Schmitts Argumente gegen den Völkerbund auf US-amerikanische Politik übertragen und den Vereinigten Staaten eine ökonomische Interessenpolitik unter dem Schleier demokratischer Ziele zugeschrieben. Andererseits können sich die Befürworter von mit Natur- oder Menschenrechten begründeter Interventionen auf Schmitts Postulat der „absoluten Feindschaft“ bzw. „Tyrannei der Werte“ beziehen, die das Prinzip der Gegenseitigkeit im Völkerrecht aufhebe. Auch die Theorien des Politikwissenschaftlers und Machiavelli-Experten Herfried Münkler zu „asymmetrischen Kriegen“ und zum „Imperium“ knüpfen an Thesen Carl Schmitts an. Der postmoderne Philosoph und Begründer des Dekonstruktivismus Jacques Derrida setzte sich in seinem Buch "Politik der Freundschaft" (2000) sehr ausführlich mit Schmitt auseinander und proklamierte bereits in einem Interview 1994 die Notwendigkeit einer neuen Rezeption: „"Kurz gesagt, ich glaube, man muß Schmitt, wie Heidegger, neu lesen – und auch das, was sich zwischen ihnen abspielt. Wenn man die Wachsamkeit und den Wagemut dieses entschieden reaktionären Denkers ernst nimmt, gerade da, wo es auf Restauration aus ist, kann man seinen Einfluß auf die Linke ermessen, aber auch zugleich die verstörenden Affinitäten – zu Leo Strauss, Benjamin und einigen anderen, die das selbst nicht ahnen."“ Das Projekt der Demaskierung bürgerlicher Strukturen als (ökonomische) Interessenpolitik durch Schmitt ist ein Punkt, den Linke wie Rechte aufgriffen. Auch Antiparlamentarismus, Antiliberalismus, Etatismus, Antiimperialismus und Antiamerikanismus stießen auf beiden Seiten des politischen Spektrums auf Interesse. Für die politische Rechte sind darüber hinaus vor allem Ethnopluralismus, Nationalismus, Kulturpessimismus und die Bewunderung für den italienischen Faschismus anschlussfähig. Hinzu kommt Schmitts Option für Ausnahmezustand und Diktatur zur Wahrung der politischen Ordnung, auch unter Verletzung des positiven Rechts. Daher stoßen Schmitts Werke auch heute noch auf ein reges Interesse in konservativen Kreisen (s. etwa die Rezeption durch die Frankfurter Allgemeine Zeitung) und im Umfeld der sog. Neuen Rechten (s. vor allem Junge Freiheit, Etappe, Staatsbriefe oder Criticón, selbiges gilt für die Nouvelle Droite in Frankreich). Führende Theoretiker der Neuen Rechten/Nouvelle Droite beschäftigen sich intensiv mit Carl Schmitt, allen voran Alain de Benoist, Günter Maschke und Armin Mohler (der sich selbst als sein „Schüler“ bezeichnete). Aufgrund der aktualisierenden Rezeption aus neurechtem und rechtsextremistischem Umfeld taucht Schmitt regelmäßig in Publikationen des Verfassungsschutzes als Ahnherr revisionistischer Bestrebungen auf. So vermerkte etwa der Verfassungsschutz Mecklenburg-Vorpommern im Jahre 2003, die Zeitschrift Nation und Europa, das „bedeutendste rechtsextremistische Strategie- und Theorieorgan“, habe in antiamerikanischer Absicht auf völkerrechtliche Theoreme Schmitts Bezug genommen: „Die Forderungen nach einem Ausschluss ‚raumfremder Mächte‘ aus Europa knüpfen an die Auffassungen des Staatsrechtlers Carl Schmitt an, welcher zu Zeiten des ‚Dritten Reiches‘ für die Vorherrschaft Deutschlands in einem von den USA nicht beeinflussten Europa eintrat. Eine Trennung von Amerika soll im revisionistischen Sinn mit einer politisch motivierten Korrektur von Geschichtsauffassungen verbunden sein.“ Weitere Anknüpfungspunkte gab es in – auch für Zeitgenossen – überraschenden Zusammenhängen. Beispielsweise berichtete der jüdische Religionsphilosoph Jacob Taubes, der mit Schmitt in Kontakt stand, dass dessen Verfassungslehre in der Diskussion um eine mögliche israelische Verfassung herangezogen worden sei. Dies habe er als Research-Fellow 1949 zufällig durch eine erfolglose Bestellung des Buches in der Bibliothek der Jerusalemer Hebräischen Universität festgestellt: „"Einen Tag, nachdem ich Carl Schmitts Verfassungslehre angefordert hatte, kam ein dringender Anruf vom Justizministerium, der Justizminister Pinchas Rosen (früher Rosenblüth) brauche Carl Schmitts Verfassungslehre zur Ausarbeitung einiger schwieriger Probleme in den Entwürfen zur Verfassung des Staates Israel"“. Taubes, damals Professor an der FU Berlin, war eine wichtige Bezugsfigur für die deutsche Studentenbewegung. Er hatte etwa ein Flugblatt der Kommunarden Rainer Langhans und Fritz Teufel, das indirekt zu Brandanschlägen aufrief, in einem gerichtlichen Gutachten in die Tradition der „europäischen Avantgarde“ gestellt und damit zu einem Freispruch beigetragen. Die Anschlussfähigkeit Schmitts für Taubes illustriert die Inhomogenität der Rezeption. Die Europäische Gemeinschaft – ein Modellfall von Schmitts „Verfassungslehre des Bundes“? Das Bild zeigt den Saal, in dem der Vertrag über eine Verfassung für Europa unterzeichnet wurde Im Zusammenhang mit dem europäischen Integrationsprozess wurde die Frage erörtert, ob die Großraumtheorie Carl Schmitts oder seine „Verfassungslehre des Bundes“ (1928) als Grundlage für das europäische Gemeinschaftskonzept bezeichnet werden kann. So wurde darauf hingewiesen, dass die von Schmitt angeführten Gründe für die Entstehung von Großräumen – grenzüberschreitende Anforderungen an Verkehr und Kommunikationstechnik, Berücksichtigung wirtschaftlicher Abhängigkeiten zwischen verschiedenen Volkswirtschaften – auch bei der Schaffung der Europäischen Gemeinschaften eine wichtige Rolle gespielt hätten. Auch sei Schmitts Beschreibung des Großraums als eine faktisch und rechtlich hinter dem Staat zurückbleibende völkerrechtliche Einheit für die Europäische Union zutreffend. Die These, die EU sei ein Großraum im Sinne Carl Schmitts, wurde aber auch zurückgewiesen. Europa sei, anders als bei Carl Schmitt, kein Raum, in dem sich Wirtschaft, Technik und Verwaltung einem supranationalen Primat unterzuordnen hätten; auch sei der Staat im Prozess der europäischen Integration keineswegs überflüssig, sondern geradezu entscheidende Integrationsvoraussetzung. Dagegen äußerte der Europarechtler Hans-Peter Folz 2006 die Auffassung, dass die Europäische Gemeinschaft geradezu ein Modellfall von Schmitts „Verfassungslehre des Bundes“ sei. Schmitt habe nämlich in seiner Verfassungslehre der traditionellen Unterscheidung von Bundesstaat und Staatenbund, die sich in der Analyse als unzureichend erwiesen habe, eine dritte Kategorie hinzugefügt: die nicht-konsolidierte Staatenverbindung. Mit dieser Kategorie sei es besser möglich, sich entwickelnde multistaatliche Gebilde wie die Europäische Union zu beschreiben. Als das Wesen des Bundes hatte Schmitt den unaufgelösten Konflikt zwischen dem Bund – als Zentrum einer auf Dauer angelegten Staatenverbindung – und den Gliedstaaten definiert. Der Bund lebt demnach von dem gleichberechtigten Nebeneinander zweier politischer Existenzen und der Unklarheit der Souveränitätsfrage. Die in einem Bund organisierten Einheiten können nach Schmitts Auffassung sogar auf miteinander unvereinbaren Prinzipien beruhen, solange es gelingt, existenzbedrohende Konflikte zu vermeiden. Diese Charakteristika ließen sich, so die These, auch bei der Europäischen Union beobachten. Dies zeige sich etwa an der unklaren Rechtsnatur der Europäischen Gemeinschaft und dem Fehlen einer abschließenden juristischen Definition des die Eigenständigkeit des Integrationsansatzes betonenden Begriffs der „Supranationalität“. Zwar hätten sich in der Rechtsprechung des Europäischen Gerichtshofs drei Wesensmerkmale der Supranationalität der Gemeinschaft herauskristallisiert – Supranationalität des Entscheidungsprozesses, Normative Supranationalität, Ausstattung der Gemeinschaft mit eigenen Rechtsetzungskompetenzen –, alle diese Merkmale seien aber umstritten geblieben. Daher seien Konfliktvermeidungsstrategien entwickelt worden, die trotz grundsätzlich unterschiedlicher Positionen das Bestehen der Gemeinschaft sichern sollten (z. B. Streit um Beschlussfassungsregeln im Ministerrat gem. Art. 148 EGV, Luxemburger Kompromiss vom 29. Januar 1966, Grundrechtskonflikt zwischen EuGH und BverfG, Justizkonflikt um die Bananen-Marktordnung). Folz urteilt daher: „Zusammenfassend können wir feststellen, dass die Gemeinschaft in all ihren wesentlichen supranationalen Merkmalen von Konflikten zwischen der Gemeinschaft und ihren Mitgliedsstaaten geprägt worden ist. Das Modell des Bundes im Schmittschen Sinne ist deshalb auf die Gemeinschaft übertragbar und hervorragend geeignet, das Verhältnis zwischen der Gemeinschaft und ihren Mitgliedsstaaten zu beschreiben.“ Gegenwärtig erlebt Schmitts Werk in der politischen Wissenschaft und Publizistik eine Renaissance: Trotz seines Rufes als „Kronjurist des Dritten Reiches“ und seines vielfach dokumentierten Antisemitismus wird es zunehmend international rezipiert, etwa wenn über seinen Einfluss auf die amerikanischen Neokonservativen diskutiert oder der bewaffnete Terrorismus als „Partisanenstrategie“ analysiert wird. Heinrich Meier hebt den Umstand hervor, dass mit Leo Strauss – bei all dessen kritischer Auseinandersetzung mit Schmitts Begriff des Politischen – eine führende Persönlichkeit der frühen Neokonservativen in den USA stark von dem umstrittenen Staatsrechtslehrer beeinflusst war. Literatur. Diese Literaturliste umfasst nur aktuellere und synoptische Arbeiten. Für eine umfangreichere Literaturliste s. Biographisch-Bibliographisches Kirchenlexikon. Eine kommentierte Übersicht über die internationale Sekundärliteratur (auf 528 Seiten) bei de Benoist (2010). Caligula. Gaius Caesar Augustus Germanicus (* 31. August 12 in Antium als Gaius Iulius Caesar; † 24. Januar 41 in Rom), postum bekannt als Caligula, war von 37 bis 41 römischer Kaiser. Caligulas Jugend war von den Intrigen des ehrgeizigen Prätorianerpräfekten Seianus geprägt. Nach hoffnungsvollem Regierungsbeginn, der durch persönliche Schicksalsschläge getrübt wurde, übte der Kaiser seine Herrschaft zunehmend als autokratischer Monarch aus und ließ in Hochverratsprozessen zahlreiche Senatoren in willkürlicher Ausschöpfung seiner Amtsgewalt zum Tode verurteilen. Seine Gewaltherrschaft endete mit seiner Ermordung durch die Prätorianergarde und Einzelmaßnahmen zur Vernichtung des Andenkens an den Kaiser. Da die antiken Quellen Caligula praktisch einhellig als wahnsinnigen Gewaltherrscher beschreiben und sich zahlreiche Skandalgeschichten um die Person des Kaisers ranken, ist er wie kaum eine zweite Herrscherpersönlichkeit der Antike zum Gegenstand belletristischer und populärwissenschaftlicher Bearbeitungen geworden. Einige Beiträge der jüngeren Forschung diskutieren allerdings alternative Ansichten und gelangen so zu einer differenzierteren Darstellung. Herkunft. Geboren als Sohn des Germanicus und Agrippina der Älteren mit dem Namen Gaius Iulius Caesar, war Caligula durch die Mutter Urenkel von Kaiser Augustus, durch den Vater Urenkel von Augustus’ Frau Livia (siehe Julisch-claudische Dynastie). Der Name "Caligula" (lateinisch: „Soldatenstiefelchen“, Diminutiv zu "caliga") ist von den genagelten Soldatenstiefeln der Legionäre abgeleitet, den "caligae", welche die Rheinlegionen für den mitreisenden Sohn ihres Oberbefehlshabers Germanicus anfertigen ließen, und war zu Lebzeiten ungebräuchlich. Sein vollständiger Titel zum Zeitpunkt seines Todes war "Gaius Caesar Augustus Germanicus, Pontifex maximus, Tribunicia potestate IV, Consul IV, Imperator, Pater patriae". Jugend. Schon als Kleinkind begleitete Caligula seine Eltern 14 bis 16 n. Chr. nach Germanien, wo er zum Liebling der Truppen wurde, und anschließend in den Orient. Als Caligula sieben Jahre alt war, verstarb sein Vater Germanicus im Jahr 19 während dieser Orientreise, wobei der syrische Statthalter Gnaeus Calpurnius Piso angeklagt wurde, ihn vergiftet zu haben. Caligulas Mutter kehrte mit ihm nach Rom zurück. Der Hof des Tiberius war zu dieser Zeit von der intriganten Politik des mächtigen Prätorianerpräfekten Seianus geprägt, der den Plan fasste, durch systematische Ausschaltung der natürlichen Erben des Tiberius seine eigene Nachfolge durchzusetzen. Diesem Plan kam der Tod des Drusus im Jahre 23, den Seianus’ Frau später als geplanten Giftmord ihres Gatten darstellte, sehr gelegen. Seianus denunzierte Caligulas Mutter, Agrippina die Ältere, bei Tiberius mit Verschwörungsvorwürfen, woraufhin Agrippina und Caligulas ältester Bruder Nero Caesar im Jahre 29 in die Verbannung gehen mussten, während derer beide in den Tod gedrängt wurden. Nur ein Jahr später wurde unter ähnlichen Umständen der zweitälteste Bruder, Drusus Caesar, in den Kerker geworfen, wo er durch Nahrungsentzug getötet wurde. Damit war Caligula der einzige überlebende Thronfolger. Das Sorgerecht für den jungen Caligula war bereits im Jahr 27 an Livia, die Mutter des Tiberius und Witwe des Augustus, übergegangen. Nach ihrem Tod wurde Caligula der Obhut seiner Großmutter Antonia übergeben. Wohl um ihn als einzig verbliebenen männlichen Erben des Tiberius vor Mordversuchen zu schützen, wuchs der jugendliche Caligula isoliert im Umfeld seiner drei Schwestern Agrippina, Drusilla und Iulia Livilla auf, unter denen er eine besondere Zuneigung zu Drusilla entwickelte. Dass Tiberius an seiner Regierungsfähigkeit zweifelte und ihn deshalb vom politischen Leben ausschloss, ist vermutlich eine spätere Konstruktion, da die Quellen sonst von der allgemeinen Beliebtheit des jungen Caligula berichten: Vorsicht und Intelligenz hätten den späteren Kaiser die Zeit bis zur Hinrichtung des Seianus im Jahre 31 überleben lassen, allerdings in späteren Jahren eine ständige Angst vor vermeintlichen oder realen Verschwörungen mitverursacht. Vermutlich von dem engen Umgang Caligulas mit seinen Schwestern motiviert, der später zur propagandistischen Erhöhung der Frauen führte, wird vom Inzest der Geschwister berichtet. Aus dynastischen Gründen – Kindszeugungen in engen Verwandtenverhältnissen waren in der Kaiserfamilie nicht ungewöhnlich – kann ein Inzest allerdings nicht ausgeschlossen werden. Tiberius rief Caligula noch im Jahr 31 an seinen Alterssitz auf Capri. Dort gelang es dem jungen Mann, das Vertrauen des amtierenden Kaisers zu gewinnen. Sueton berichtet, dass dieses Vertrauensverhältnis auf dem gemeinsamen Interesse an Folterungen und sexuellen Ausschweifungen beruhte. Es dürfte sich hierbei jedoch um einen zumindest tendenziösen Passus des anekdotenreichen Biographen handeln, der ähnliche Berichte auch anderen Kaisern zuschreibt, ebenso bei dem überlieferten Gerücht, Caligula habe den kranken Tiberius mit einem Kissen erstickt: Besonders bei Todesfällen von Herrschern kamen häufig unbestätigte Gerüchte auf. Regierungsantritt. Statue des Tiberius auf Capri Mit dem Tod des Tiberius am 16. März 37 war die Nachfolge Caligulas weit sicherer als noch bei den mehrfach wechselnden Nachfolgekandidaten unter Augustus. Zwar hatte Tiberius in seinem Testament seinen leiblichen Enkel, Caligulas Cousin Tiberius Gemellus, zum Miterben eingesetzt, der Senat erklärte es aber auf Initiative des Prätorianerpräfekten und Nachfolgers des Seianus, Macro, für ungültig. Die von Augustus geschaffene Prätorianergarde mit ihrem Präfekten hatte traditionell ein enges Verhältnis zum Kaiser und mag daher gehofft haben, den jungen Caligula als Marionette zu gebrauchen. Jedenfalls ließ sie ihn am 18. März zum Kaiser ausrufen. Nach feierlichem Einzug in Rom übertrug der Senat am 28. März beinahe sämtliche Amtsfunktionen und Privilegien, die Augustus und Tiberius über die Zeit auf sich vereinigt hatten, an Caligula. Der übergangene Tiberius Gemellus wurde zunächst mit der Adoption durch Caligula entschädigt, die ihm Hoffnung auf Teilhabe an der Herrschaft sowie eine spätere Nachfolge machen konnte. Nach den unruhigen letzten Regierungsjahren des Tiberius, die durch den Putschversuch des Seianus und die anschließenden Prozesse geprägt waren, wurden mit Caligulas Herrschaftsantritt große Hoffnungen verbunden, unter anderem wegen der Popularität seines Vaters Germanicus, der als Wunschnachfolger des Augustus gegolten hatte. Die ersten zwei Jahre (37–38 n. Chr.). In den ersten Monaten seiner Regentschaft machte sich Caligula bei den herrschaftstragenden Gruppen beliebt: Er beschloss Steuersenkungen, setzte die unter Tiberius ausufernden Hochverratsprozesse aus und gewährte den bereits mit der Verbannung bestraften Senatoren die Rückkehr. Auch mit der Ausweisung einer Gruppe von Lustknaben distanzierte er sich von Tiberius, der deren Dienste in Anspruch genommen haben soll. Der Prätorianergarde ließ er erstmals bei Regierungsantritt ein Geldgeschenk zukommen und erkaufte sich damit die Gunst dieser als kaiserliche Leibgarde dienenden Elitetruppe. Der Tempel des vergöttlichten Augustus wurde symbolträchtig zu Beginn seiner Herrschaft eingeweiht, um Abstammung und Verbundenheit zum ersten Kaiser zum Ausdruck zu bringen. Diese Maßnahmen brachten Caligula allerdings an den Rand des Ruins. Kostspielig waren auch die von Caligula veranstalteten aufwändigen Wagenrennen, Tierhetzen und Gladiatorenkämpfe, die während seiner Regierungszeit grausamer wurden und dabei dem Geschmack der Zeit entgegenkamen: Blutige Gladiatorenkämpfe wurden in der Antike, soweit bekannt, zumindest nicht nachhaltig kritisiert. Viele Grausamkeiten des Kaisers sind im Zusammenhang mit Spielen oder öffentlichen Spektakeln überliefert. Möglicherweise aus Überanstrengung erlitt Caligula nach 6 Monaten Herrschaft einen Nervenzusammenbruch mit anschließender schwerer Krankheit, deren antike Beschreibungen auf eine Enzephalitis („Gehirnentzündung“) schließen lassen könnten. Sueton berichtet darüber mit den Worten: "Bis hierhin vom Kaiser, jetzt muss über das Scheusal berichtet werden". Dieser Periodisierung liegt ein gängiges Erzählmuster der antiken Biographie zugrunde, die das Leben eines Menschen möglichst in Kategorien aufzuteilen bestrebt war. Tatsächlich begannen in der Zeit nach Caligulas Genesung die ersten Hochverratsprozesse: Der Kaiser ließ seinen ehemaligen Miterben und Adoptivsohn Tiberius Gemellus, seinen Schwiegervater Silanus, den Vater seiner ersten, bereits 36 oder 37 im Kindbett verstorbenen Frau Iunia Claudilla, und den einflussreichen Prätorianerpräfekten Macro unter dem Vorwurf einer Verschwörung verhaften und zum Selbstmord zwingen. Caligula hatte damit seine Herrschaft abgesichert und gegen Einflussnahme geschützt. Außenpolitik. Caligulas kurze Regierungszeit sah nur vergleichsweise kleine militärische Unternehmungen, deren Chronologie weitgehend unklar ist. Im Herbst 39 überschritt er mit einem Heer die Alpen, um in der Tradition seiner Vorfahren die als noch nicht abgeschlossen angesehene Expansion in Germanien und Britannien fortzuführen. Seine Ambitionen in Germanien waren indes nicht von Erfolg gekrönt: Weder konnte der Kaiser nach Abzug der Truppen signifikante territoriale Gewinne verzeichnen noch erhielten die provisorischen Militärterritorien des ober- und niedergermanischen Heeres vor 85 n. Chr. den Status einer Provinz mit der hierzu notwendigen Infrastruktur. Im Zusammenhang mit dem Britannienfeldzug berichten die Quellen ausschließlich von großenteils grotesk anmutenden Aktionen des Kaisers. So ließ er Seemuscheln an den Stränden des Ärmelkanals sammeln, die als exotische Beutestücke den Erfolg der Operation suggerieren sollten. Pläne zu einem aufwendigen Triumph, bei dem eigens angeworbene gallische Gladiatoren mit rot gefärbten Haaren als germanische Kriegsgefangene aufgeführt werden sollten, wurden in diesem Umfang nicht verwirklicht. Die Münzprägung des Caligula betont indes die militärische Größe des Kaisers und steht damit im Widerspruch zur literarischen Überlieferung. Außerhalb militärischer Führungsstellen war Caligulas Politik erfolgreicher. Es gelang ihm 37, den im Umkreis der kaiserlichen Familie aufgewachsenen, romfreundlichen Herodes Agrippa I. als König von Judäa einzusetzen und sein Herrschaftsgebiet zwei Jahre später zu erweitern. Außerdem ließ Caligula unter unbekannten Umständen im Jahre 40 Ptolemaios, den König von Mauretania, zunächst nach Rom einladen, anschließend ermorden und sein Gebiet annektieren. Die Quellen berichten von Neidgefühlen des Caligula, welche der eindrucksvolle Auftritt des Königs im Amphitheater auslöste. Politische Motive für die Ermordung, die zur Expansion des Reiches beitrug, sind jedoch anzunehmen. Kunstraub. a> mit Aquädukt des Claudius, das von Caligula begonnen wurde Caligula ist auch als Liebhaber und Räuber nichtitalischer Kunstschätze, bevorzugt aus dem opulenten Bestand griechischer Tempel, in die Geschichte eingegangen. So wollte er die Zeus-Statue des Phidias, ein Weltwunder der Antike, nach Rom bringen lassen. Seit Fortschreiten der Expansion und administrativer Einteilung des Reiches in Provinzen war Kunstraub durch Statthalter und Verwaltungsbeamte keine Seltenheit, was sich in den zahlreichen Belegen diesbezüglicher Anklagen spiegelt, die vermutlich bei weitem nicht das tatsächliche Ausmaß zum Ausdruck bringen. Da Caligula sich nur kurzfristig im Osten des Reiches aufhielt, mag die Initiative zum Kunstraub im Einzelfall eher beim verantwortlichen Statthalter als beim Kaiser gelegen haben. Caligula wird diese Missstände zumindest nicht unterbunden haben, da es gerade in seinem Interesse lag, seine Herrschaft mit hellenistischen Symbolen auszuschmücken. Als Augenzeuge berichtet Philon von Alexandria über die luxuriöse Ausstattung der Privatgemächer des Kaisers mit Kunstwerken aus aller Welt. Bautätigkeiten. Caligulas freizügiger Umgang mit Geld schlug sich in bisweilen spektakulären Bauvorhaben nieder: Archäologisch nachweisbar sind ein Leuchtturm bei Boulogne in Nordfrankreich, der Wiederaufbau des Palastes des Polykrates in Samos, der Baubeginn zweier stadtrömischer Aquädukte, Reparaturen an der Stadtmauer und von Tempeln in Syrakus sowie eines Bades in Bologna. Literarische Belege existieren für ehrgeizige Projekte zum Bau eines Kanals über den Isthmus von Korinth, von Straßenverbindungen über die Alpen, den Ausbau des Hafens von Rhegium sowie der zwei sogenannten Nemi-Schiffe, zweier riesiger Schiffe, die sowohl kultischen Zwecken als auch zum Privatgebrauch des Kaisers dienten. Die Schiffe waren mit zwei im Lago di Nemi bereits 1446 entdeckten und 1929–31 von Archäologen geborgenen Schiffwracks aufgrund eindeutiger Inschriften identifiziert worden. 1944 wurden sie allerdings bei einem Brand im eigens für sie gebauten Museum zerstört. In Rom wurde an den Abhängen des Vatikanhügels ein Circus errichtet, das Theater des Pompeius renoviert, ein aufwendiges Amphitheater aus Holzbalken aufgestellt, das Staatsgefängnis (Carcer Tullianus), das der Hinrichtung politischer Gegner diente, ausgebaut, sowie die Privatgemächer und Lustgärten des Kaisers luxuriös ausgestaltet (die sogenannten Gärten der Kaisermutter). Als besonders spektakulär und Zeichen der Eitelkeit des Kaisers wird eine mehr als fünf Kilometer lange Schiffsbrücke über die Bucht von Neapel zwischen Puteoli und Baiae beschrieben. Archäologische Überreste von Bauten an der Residenz des Caligula wurden 2003 auf dem Gelände des Forum Romanum gefunden. Ehen. Ein Schicksalsschlag traf den Kaiser am 10. Juni 38 mit dem Tod seiner Lieblingsschwester Drusilla, für die er Ehrungen beschloss, die in Rom nur bei männlichen Herrscherpersönlichkeiten üblich waren. Bald nach dem Todesfall heiratete Caligula die vornehme Römerin Livia Orestilla; ihre Eheschließung mit Gaius Calpurnius Piso ließ Caligula noch während der Zeremonie wieder annullieren, nur um sie am selben Tag selbst zu heiraten. Bereits wenige Tage später erfolgte die Scheidung. Später schickte er Livia ins Exil, weil er sie verdächtigte, die Beziehung zu Piso wieder aufgenommen zu haben. Seine dritte Ehefrau war Lollia Paulina, die ebenfalls bereits verheiratet war (mit Publius Memmius Regulus) und von der er sich auch nach kurzer Zeit wieder trennte. In vierter Ehe war Caligula mit Milonia Caesonia verheiratet, mit der er Ende 39 oder Anfang 40 eine Affäre begonnen haben soll. Da diese in einem moralisch fragwürdigen Ruf stand, soll die römische Öffentlichkeit von der Eheschließung nicht sehr angetan gewesen sein. Nur einen Monat nach der Hochzeit – laut Sueton sogar am Tag der Vermählung – gebar Milonia eine Tochter, die ihren Namen Iulia Drusilla nach Caligulas verstorbener Schwester erhielt. „Das Scheusal“. Nach nur vier Jahren der Herrschaft fand Caligula den Tod durch die Hand der Prätorianergarde. Initiator war ihr Offizier Cassius Chaerea, wobei die Verschwörung von einem Teil des Senatorenstandes und anderen einflussreichen Persönlichkeiten am Kaiserhof mitorganisiert wurde. Antike Todesdarstellungen sind üblicherweise stark stilisiert: Laut den antiken Berichten erfolgte das Attentat im unterirdischen Korridor eines Theaters, wobei Caligula nach der Art einer rituellen Opferung abgeschlachtet wurde, um so den Personenkult des Caligula in einer symbolischen Rollenumkehrung zu vergelten. Caligulas Ermordung erfolgte, nachdem er den Senat durch demonstrative Ausschöpfung der verfassungsrechtlichen Möglichkeiten des Prinzipats brüskiert hatte. Über die Gründe und den genauen Ablauf der Verschwörung gibt Flavius Josephus den ausführlichsten Bericht, über die Chronologie der vorausgegangenen Vorgänge lässt sich allerdings wenig Sicheres sagen, da die Darstellung des Sueton für diese Zeit ungeordnet, diejenige des Cassius Dio teilweise verloren und in den erhaltenen Teilen nicht widerspruchsfrei ist. Laut dessen Zeugnis begann Caligulas radikaler Regierungswechsel mit einer im Laufe des Jahres 39 vor dem Senat gehaltenen Rede. Die wörtliche Wiedergabe dieser Rede ist höchstwahrscheinlich eine unhistorische Ausgestaltung des Geschichtsschreibers, doch liegt ein in diesem Jahr erfolgter Umbruch auch durch andere Quellenaussagen nahe. Gewalt. Aureus des Caligula, auf der Rückseite Caligulas Vater Germanicus Hauptgrund der Verschwörung war Caligulas ausufernde Anwendung von Gewalt, vor allem gegen Senatoren: Der Kaiser ließ die Hochverratsprozesse, die nach dem Tod des Tiberius vorübergehend ausgesetzt wurden, etwa gegen Mitte der Regierungszeit in großem Umfang wieder aufnehmen. Mindestens 36 Fälle teils grausamer Hinrichtungen oder anderer schwerer Bestrafungen wie der Verbannung sind literarisch unter Angabe des Namens belegt, wobei es sich bei diesen Opfern in der Regel um Angehörige der Oberschicht, teilweise auch um Soldaten oder Bühnendarsteller handelte. In einigen Fällen ließ Caligula Senatoren foltern, die rechtlich grundsätzlich vor der Folter immun waren. Hierzu boten allerdings die Hochverratsgesetze einen gewissen rechtlichen Spielraum. Sueton erwähnt die Ermordung von Verbannten, ohne allerdings konkrete Fälle anzuführen. Caligula mag durch seine Jugenderfahrungen ein übertriebenes Bedrohungspotenzial wahrgenommen haben. Durch die anfänglichen Prozesse wuchs auch die tatsächliche Gefahr eines Mordanschlages. Dem Kaiser wird daher das Motto "oderint, dum metuant" (zu dt.: "Sollen sie mich doch hassen, solange sie mich fürchten") zugeschrieben, das auf ein Zitat einer Tragödie des Lucius Accius zurückgeht. Hierin spiegelt sich der politische Stil der autokratischen Herrschaft, die Widerstand durch Gewalt bekämpft, anstatt durch Konsensbildung oder zumindest deren demonstrative Zurschaustellung ein derartiges Risiko zu verringern sucht. In ähnlicher Weise soll Caligula geäußert haben: „"Hätte das Volk von Rom doch nur einen einzigen Nacken! [… damit ich es mit einem Mal erwürgen kann]"“. Wörtliche Zitate in der antiken Literatur sind allerdings in ihrer Historizität fragwürdig; sie dienten dazu, den Charakter einer Person pointiert zum Ausdruck zu bringen. Hinrichtungen von Senatoren werden beinahe ausnahmslos als Willkürakte des Kaisers beschrieben, der entweder aus sadistischer Mordlust oder in Reaktion auf geringfügige Vergehen (wie Kritik an der Kleidung des Kaisers) handelte. Das Gleiche gilt für grausame Tötungen, besonders im Umfeld des nichtaristokratischen Kaiserhofs, bei denen der Kaiser seinen Anspruch auf totale Ermessensfreiheit zynisch zum Ausdruck brachte. Abweichend davon lässt sich aus der allgemeinen Regierungsrichtung vermuten, dass es Caligula letztlich mehr oder weniger um eine systematische Entmachtung des Senats ging, indem er einige Senatoren beseitigen ließ und die übrigen einschüchterte. Für diese Annahme sprechen Auffälligkeiten seiner Regierung, die im Folgenden diskutiert werden. Es finden sich außerdem überlieferte Berichte von Zwangsprostitution und Vergewaltigungen seitens des Kaisers, denen Angehörige der Oberschicht zum Opfer fielen. In der Forschung werden jedoch einige Berichte über Caligula (und andere Kaiser) in ihrer Historizität angezweifelt und dem Bereich der Tyrannentopik zugewiesen, da sich auch bei anderen negativ bewerteten Herrschern der römischen und vorrömischen Antike vergleichbare Berichte in auffälliger Weise wiederholen. Unbestätigte Gerüchte sowie literarische Bearbeitungen, z. B. im Rahmen von Tragödien, oder Bezugnahmen auf typologisch vergleichbare Herrscherpersönlichkeiten finden oft als historische Berichte Eingang in die Literatur. So geben einige Geschichtsschreiber in methodischen Abschnitten darüber Auskunft, dass fiktionale Elemente zur nachdrücklichen Charakterisierung einer Person legitim seien. Nur selten lässt sich allerdings mit letzter Sicherheit entscheiden, was zu diesem Bereich zu zählen ist, so dass sich gerade im Falle Caligulas eine Reihe historischer Probleme ergeben. Caligula und der Senat. Durch demonstrative Gesten der Demütigung, die oft an Hofzeremonielle orientalischer Despoten erinnern, zielte Caligula auf eine politische Ausschaltung des hohen Standes. Bei der Ämtervergabe überging der Kaiser gezielt unerwünschte Bewerber und machte sich auch dadurch unbeliebt. Die Quellen berichten unter den zahllosen Extravaganzen des Kaisers, dass er sein Lieblingspferd Incitatus mit dem Konsulat bestallen wollte. Sollte Caligula sich tatsächlich in dieser Richtung geäußert haben, so wohl mit der Absicht, dem Senat seine alleinige Entscheidungsgewalt und seine Allmacht, auch über die Senatsaristokratie, zu demonstrieren. Caligula ließ sich auf Münzen zusammen mit seinen Schwestern darstellen. Caligula stand einem orientalischen Herrschaftsverständnis nahe, was eine demonstrativ extravagante Lebensweise sowie die Verehrung im Staatskult schon zu Lebzeiten, nicht erst nach dem Ableben, mit einschloss (obwohl sich im Westen des Reiches heute keine Belege in Form von Tempelanlagen, Inschriften oder Münzen finden, die Caligula eindeutig in Zusammenhang mit einer persönlichen Verehrung bringen; siehe auch Cäsaropapismus). Die öffentliche Darstellung seiner Verbundenheit zu seinen Schwestern und besonders zu Drusilla könnte von ägyptischen Geschwisterherrschaften inspiriert sein. Ein solcher Herrschaftsstil, dem sich etwa auch Gaius Iulius Caesar und besonders Marcus Antonius verbunden fühlten, war der römischen Oberschicht von jeher suspekt. Der Kaiser brachte dieses Herrschaftsverständnis durch Ersetzung von Götterbildern mit dem eigenen Porträt oder dem von Verwandten zum Ausdruck sowie durch hellenistischen Kleidungsstil. Soweit Gründe für Hinrichtungen genannt sind, stehen diese zumeist mit einer Kritik an dieser Herrschaftsauffassung in Zusammenhang. Auch sind Tendenzen einer Alexander-Imitatio erkennbar. Wie im Falle des Antonius berichten die Quellen von den Plänen des Kaisers, die Hauptstadt des Reiches von Rom nach Alexandria zu verlegen, was einer endgültigen Entmachtung des Senats gleichgekommen wäre. Darin mögen sich Überlegungen zu einer radikalen Reichsreform spiegeln, basierend auf der Erkenntnis, dass sich ein Imperium von der Größe des römischen Reiches nicht mehr mit dem Personalbestand einer mittelitalienischen Stadt verwalten ließ, sondern nur mit Hilfe einer entwickelten Bürokratie und Hierarchie wie im hellenistisch-ptolemäischen Ägypten. Caligula mag gehofft haben, unter Übergehung des Senatorenstandes seine Regierung zunehmend auf Teile des Ritterstandes zu stützen, der einerseits durch Degradierungen, andererseits durch die Förderung loyaler Mitglieder personell umstrukturiert und dem Kaiser botmäßig gemacht werden sollte. Gruppen außerhalb der Oberschicht. a> dienten oft der Kommunikation zwischen Kaiser und Volk. Die Gewaltherrschaft des Caligula erstreckte sich in erster Linie auf den Senat, der ihn deshalb hasste. Da nach Caligulas Tod Reaktionen gegen die Attentäter weitgehend ausblieben, scheint der Kaiser allerdings auch bei anderen herrschaftslegitimierenden Gruppen, wie dem Heer oder der stadtrömischen Bürgerschaft, trotz der Freigebigkeit seiner ersten Regierungsmonate teilweise unbeliebt geworden zu sein. Mitunter drastische Steuererhöhungen infolge der erhöhten Ausgaben könnten hierfür ein Grund gewesen sein. Caligula hat dabei auch ungewöhnliche Maßnahmen getroffen, wie die öffentliche Förderung und Besteuerung der Prostitution. Pro Bordellbesuch musste als Abgabe der Mindestpreis entrichtet werden, der für eine Umarmung verlangt wurde. Diese Steuer blieb als eine der wenigen Maßnahmen nach dem Tod des Kaisers bestehen und wurde erst in christlicher Zeit abgeschafft. Es gibt Berichte über Willkürakte und Gewalttaten gegenüber der stadtrömischen Bevölkerung bei Spielen, die gewöhnlich als öffentliche Plattform für Forderungen z. B. nach Getreidespenden dienten und insofern als Ausgangspunkte für Volksaufstände Gefahrenpotential besaßen. Flavius Josephus spricht allerdings auch davon, dass Caligula bei Teilen der Bevölkerung, die an aufwendigen Spielen interessiert war, bis zu seinem Tod beliebt geblieben war, ebenso bei dem Teil des Heeres, der seine Soldzahlungen pünktlich erhalten hatte. Auch andere Quellen lassen auf relative Beliebtheit des Kaisers beim Volk in Rom beziehungsweise Italien schließen, vermutlich jedoch nicht in den Provinzen des griechischen Ostens, wo Caligula sich durch Kunstraub und Tempelplünderungen unbeliebt gemacht hatte: Tilgungen des Kaisernamens in Inschriften, die vermutlich auf lokal begrenzte Reaktionen nach Caligulas Tod zurückgehen, sind ausschließlich im Osten des Reiches belegt (s. u.). Juden. Während von Caligulas Politik und seiner Einschätzung in den Provinzen kaum systematische Informationen überliefert sind, gibt es hauptsächlich aufgrund der Darstellungen des Flavius Josephus sowie des Philon von Alexandria Berichte über Caligulas Interventionen in Zentren des jüdischen Glaubens. Diese lassen jedoch nur sehr bedingt Rückschlüsse auf die Bewertungen des Kaisers in anderen Bevölkerungsgruppen zu, da der jüdische Monotheismus unvereinbar mit der von Caligula forcierten hellenistischen Herrscherverehrung der griechischen Bevölkerung war, die mit den Juden auf engstem Raum zusammenlebte. Insofern trug Caligula neben anderen Ursachen zur späteren dramatischen Entwicklung, der Zerstörung des Tempels durch Titus sowie der endgültigen Diaspora unter Hadrian, bei. Tempel von Jerusalem im Modell Alexandria war seit dem Hellenismus multikulturell geprägt und besaß neben hellenisierten Ägyptern und Griechen eine starke jüdische Minderheit. Religiöse Auseinandersetzungen kamen wiederholt vor. Während der Anwesenheit des Herodes Agrippa I. verschärften sich Hassgefühle der griechischen Bevölkerung, die zu einem lokalen Pogrom führten. Der römische Statthalter Aulus Avillius Flaccus hatte bereits im Vorfeld Sanktionen einseitig nur gegen die jüdische Bevölkerung angeordnet und gab dieser nun die Hauptschuld an den Vorfällen, mit der Folge, dass die Juden in getrennte Wohnorte innerhalb der Stadt zwangsumgesiedelt wurden. Es handelt sich dabei um das erste historisch belegte jüdische Ghetto. Diese Zustände gaben Anlass zu einer Gesandtschaftsreise, an der Philon teilnahm und die er ausführlich beschreibt. Noch vor der Audienz mit Caligula, der die aus Griechen und Juden bestehende Gesandtschaft versetzt hatte, trafen im Jahre 40 aus Jerusalem schockierende Nachrichten ein, der Kaiser habe die Umwandlung des jüdischen Tempels in ein Zentrum des Kaiserkults in Auftrag gegeben. Die Gespräche endeten ergebnislos. Caligulas Versuch, den Kaiserkult gewaltsam durchzusetzen, erfolgte als Vergeltungsmaßnahme auf Übergriffe von Juden gegen den Kaiserkult praktizierende Griechen in Judäa. Sie verursachte weitere Unruhen in Antiochia, dem Verwaltungssitz von Syria, deren Statthalter Publius Petronius mit Anfertigung und Aufstellung einer Kaiserstatue im Tempel von Jerusalem beauftragt wurde, diese aber mit Rücksicht auf die mobilisierte jüdische Bevölkerung hinauszögerte. Die folgenden Ereignisse lassen sich alternativ so rekonstruieren, dass Caligula entweder auf Fürsprache des Herodes Agrippa von seinem ursprünglichen Befehl absah oder auf seinem Entschluss beharrte und Petronius die Aufforderung zum Selbstmord übersandte, die allerdings erst nach dessen Tod überbracht wurde. Aufgrund der Ereignisse wurde die Nachricht vom Tode des Caligula bei der jüdischen Reichsbevölkerung mit Freude aufgenommen, daraus resultierende Verschärfungen der Anspannungen mussten von Claudius beschwichtigt werden. Caligula als Präzedenzfall. Der kurze Prinzipat des Caligula zeigte die Gefahren auf, die sich aus der unscharfen Stellung des Kaisers innerhalb der grundsätzlich fortbestehenden Verfassung der römischen Republik ergaben. Es wird heute vielfach davon ausgegangen, dass Caligula bei Amtsantritt ein ähnliches Bündel an Vollmachten erhalten hatte, wie dies für Vespasian inschriftlich überliefert ist (Lex de imperio Vespasiani). Einige Forscher erkennen darin die praktische Übertragung der völligen Ermessensfreiheit. Zumindest bei Wahlen brauchte der Kaiser auf den Senat formal keine Rücksicht zu nehmen; die republikanische Verfassung sah allerdings das Prinzip der Kollegialität vor, das unter Augustus und in der Anfangszeit des Tiberius zumindest propagandistisch aufrechterhalten wurde. Das aus republikanischer Zeit stammende Hochverratsgesetz (Lex maiestatis) war unscharf und ließ willkürliche Prozesse und Verurteilungen sowie Folter und Hinrichtungen, unabhängig von Statusgrenzen, zu. Da Caligula in seinen letzten beiden Regierungsjahren hiervon rücksichtslos Gebrauch machte, konnte die so ausgeübte Autokratie nur durch Tod und Damnatio memoriae („Verdammung des Andenkens”) beendet werden. Das Beispiel des Caligula wies daher auf spätere Kaiserherrschaften voraus: Performative Ritualisierung eines Konsenses mit der Senatsaristokratie durch den Kaiser war Bedingung für dessen Würdigung in der senatorisch geprägten römischen Geschichtsschreibung (und der zu großen Teilen auf dieser basierenden Rezeption späterer Jahrhunderte). Trotzdem blieb Caligula kein Einzelfall in der römischen Kaiserzeit. Maßnahmen nach Caligulas Tod. Nachdem ein Kaiser ermordet worden war, wurde häufig auch sein Andenken ausgelöscht. Schon nach dem Tod des Tiberius wurden vereinzelt Kaiserstatuen umgeworfen sowie die Schändung des Leichnams gefordert. Nach Caligulas Tod diskutierte der Senat zeitweise sogar die kollektive Verdammung aller Vorgänger sowie die Wiederherstellung der Republik, die allerdings allein durch den Senat nicht durchsetzbar gewesen wäre. Caligulas Nachfolger Claudius ließ schließlich mit Rücksicht auf den Senat sämtliche Regierungsmaßnahmen seines Vorgängers für ungültig erklären, Schriften über seine Regierung vernichten, Statuen zerstören und Münzen mit dem Bildnis des Caligula aus dem Verkehr ziehen. Einzelne archäologische Zeugnisse für eine Tilgung von Kaisernamen oder Mutilierung von Statuen, besonders in den Provinzen, könnten allerdings von spontanen, nicht öffentlich angeordneten Einzelaktionen verursacht sein. Eine damnatio memoriae des Caligula kann somit nicht belegt werden, und Claudius dürfte auch angesichts der Ermordung seines Neffen keinen Präzedenzfall zu schaffen gewünscht haben. Diese Vorgänge könnten die literarische Darstellung beeinflusst haben: Da der Bericht des Tacitus für die Regierungszeit Caligulas verloren ist, ist neben dem viel späteren Cassius Dio sowie Flavius Josephus der Kaiserbiograph Sueton die literarische Hauptquelle. Etwa das erste Drittel der Caligula-Vita des Sueton, das überwiegend Jugend und Regierungsbeginn des Kaisers darstellt, bezieht sich auf positive oder neutrale Bewertungen oder auf außerliterarisch überprüfbare Fakten (politische Ämter, Bauten). Aus der zweiten Hälfte der Regierung sind hauptsächlich nur noch solche Informationen überliefert, die von den Untaten des Kaisers berichten. Sueton vertritt das senatorische Geschichtsbild, seine Darstellung lässt daher überwiegend nur Rückschlüsse auf das Verhältnis zwischen Caligula und dem Senat zu und sagt wenig über die Bewertung Caligulas bei anderen herrschaftstragenden Gruppen aus. Die Biographie trägt deutlich Züge der Ideologie der Adoptivkaiser, die sich von den Kaisern der julisch-claudischen Dynastie mit Ausnahme des Augustus distanzieren wollten. Als kaiserlicher Archivar hatte der Biograph Zugriff auf Dokumente der Regierung Caligulas, gibt aber kaum Informationen über Herkunft, Historizität oder Tendenz einer Quelle. Einige Argumentationen erscheinen aus heutiger Sicht unsachlich. Viele Beschreibungen des Sueton, besonders solche, die willkürliche Gewalthandlungen gegen Senatoren zum Inhalt haben, werden von Josephus bestätigt, der zur Zeit der Flavier schrieb. Wahnsinn? Die antiken Quellen bezeichnen die Herrschaft des Caligula beziehungsweise die Person selbst häufig und praktisch einhellig als „wahnsinnig“. Fraglich ist jedoch, ob es sich bei dieser Bezeichnung regelmäßig um eine psychopathologische Kategorie im modernen Sinne handelt: Das vielleicht authentischste Zeugnis des Philon von Alexandria über seine Gesandtschaftsreise schildert den Kaiser als arrogant und zynisch, jedoch nicht als psychotisch. Trotzdem finden sich bei demselben Autor erste Hinweise auf den Wahnsinn des Kaisers. Seneca überliefert, hauptsächlich während seiner von Caligula mitverschuldeten Verbannung, Bilder grausamer Folterungen und Hinrichtungen des Kaisers, die ihn als Sadisten beschreiben. Seneca definiert außerdem den Begriff des Wahnsinns als Entartung eines Tyrannen, ohne dabei Caligula namentlich zu erwähnen. Flavius Josephus gebraucht den Begriff des Wahnsinns zur Charakterisierung des Kaisers mehrere Male, jedoch ist nicht genau zu unterscheiden, ob er damit auf eine tatsächliche psychische Störung anspielt oder eher die Willkürhandlungen des Kaisers pejorativ bezeichnet. Sueton, der in der Tradition antiker Biographie steht, den Charakter einer Person aus ihrer Herrschaft zu konstruieren, schildert Caligula ein halbes Jahrhundert später explizit als geisteskrank, indem er seine Darstellung mit pathologischen Auffälligkeiten Caligulas verbindet. Spätere Quellen argumentieren ähnlich (Cassius Dio; Eutropius, Breviarium ab urbe condita 7,12). Die für künstlerische Bearbeitungen des Tyrannen-Stoffes wegweisende Theorie des Cäsarenwahnsinns ist erstmals in einem 1894 erschienenen Essay von Ludwig Quidde dargelegt: Caligula sei im Verlauf seiner Herrschaft größenwahnsinnig und geisteskrank geworden, was ein Resultat der praktisch inzestuösen Familienpolitik der julisch-claudischen Kaiserfamilie sei. Obwohl auch antike Autoren von einer Degenerierung sprechen, ist ihnen eine genetische Ursache völlig unbekannt: Die römische Gesellschaft berief sich auf das Konzept des "mos maiorum" (der Sitten der Vorfahren), das die Verdienste einer angesehenen Ahnenreihe automatisch auf Nachgeborene übertrug. Quidde ließ sich also vom naturwissenschaftlichen Fortschritt und nicht zuletzt vom darwinistischen Ansatz seiner Zeit inspirieren. Der Essay war außerdem als indirekte Kritik an Wilhelm II. gedacht. Als Indikation einer psychopathologischen Störung können nach heutigem Verständnis angeblich irrationale Handlungen gelten (z. B. die geplante Beförderung von Incitatus, Maßnahmen während und nach dem Germanien- und Britannienfeldzug), ebenso die Selbstinszenierung Caligulas als lebender Gott. Diese Personenverehrung steht allerdings in Kontinuität zum Kaiserkult des Augustus. Augustus hatte es zwar in der Stadt Rom noch vermieden, zu Lebzeiten persönlich als Gott verehrt zu werden, nicht jedoch im Osten des Reiches, wo es bereits seit dem Hellenismus einen Herrscherkult gab. Verschiedene Abstufungen des Herrscherkultes pflegten ebenfalls die Nachfolger im Kaiseramt oder andere hochrangige Personen am Kaiserhof. Grundsätzlich war in der paganen Antike ein Personenkult akzeptiert. Daher schließen ausschließlich Autoren mit monotheistischem Glauben (Philo, Flavius Josephus) hieraus auf den Wahnsinn des Kaisers. Vor allem in der neueren Forschung wird eine psychopathologische Störung bisweilen bezweifelt oder die Frage gar nicht erst diskutiert, da man sie als historisch nicht relevant oder unzulässig ansieht. Das Mausoleum des Augustus ist Ausdruck der postumen Verehrung des ersten Kaisers. Vor allem Aloys Winterling (2003) stellt Caligulas Geisteskrankheit vehement in Frage: Der Kaiser sei ein zynischer Machtmensch gewesen, der mit „doppelbödiger Kommunikation“ gegenüber dem Senat aufgetreten sei, um diesen zu demütigen. Diese Äußerungen, die in ihrer Bedeutungsbreite heute nur noch schwer nachzuvollziehen seien, hätten vor allem in der modernen Rezeption zum Bild des irrational handelnden Kaisers beigetragen. Entscheidend für die Legendenbildung in der Antike seien Selbstschutzgründe des Senats, der den Vorwurf der Geisteskrankheit erfunden habe, um erlittene, letztlich aber akzeptierte Demütigungen des autokratischen Kaisers historisch zu rechtfertigen. Es sei schließlich der Senat gewesen, der eine zu diesem Zeitpunkt noch präzedenzlose Gewaltenübertragung zumindest formal auf freiwilliger Basis bewilligt habe und daher nach der einvernehmlichen erfolgten Ermordung in Erklärungsnot geraten sei. Dies spiegele sich in der Entwicklung der literarischen Überlieferung wider, bei der sich das Verdikt des Wahnsinns im Sinne einer psychischen Störung graduell entwickelt finde. Eine Legendenbildung des „wahnsinnigen“ Kaisers aus der Kommunikation zwischen Kaiser und Senat zu erklären, ist einerseits auch deshalb schlüssig, da für Caligula schon als Kind die Nachfolgefrage erstmals weitgehend sicher war. Er brauchte daher den Prinzipat nicht mit den gleichen Konsensritualen zu legitimieren, wie es der Senat unter Augustus und in der Anfangszeit des Tiberius gewohnt war. Die Aristokratie benötigte darüber hinaus eine Erklärung für die Degenerierung des Nachkommen des populären Germanicus, ohne dabei das sie legitimierende Konzept der Vererbung von Verdiensten in Frage zu stellen. Ob Caligula andererseits gerade durch diese ungeheure Machtfülle pathologische Züge von Größenwahn entwickelte, ist letztlich eine spekulative Frage. Es kann nicht zuverlässig entschieden werden, inwieweit Beschreibungen von Caligulas Krankheit des Jahres 37/38 sowie weitere Schilderungen gesundheitlicher Auffälligkeiten (z. B. Schlafstörungen) Produkt der antiken Polemik sind oder, sollten diese historisch akkurat sein, eine psychotische Störung indizieren. Bewertungen. Die Verurteilung zumindest der zweiten Regierungshälfte des Caligulas als grausame Tyrannenherrschaft ist in den antiken Quellen, auch solchen aus späterer Zeit, einhellig. Es ist keine Gegendarstellung überliefert, und es gibt keine Gründe anzunehmen, dass Tacitus in dem verlorenen Textabschnitt eine alternative Ansicht zu Caligula vertreten haben sollte. In der modernen Forschung wurden aufgrund der problematischen Überlieferungslage bis in die 80er-Jahre hinein vergleichsweise wenige monographische Untersuchungen zu Caligula geschrieben. Trotz der möglicherweise einseitigen Überlieferung gilt Caligula als politisch konzeptionsloser, willkürlicher Gewaltherrscher, dessen Regierung nur aufgrund der inneren Stabilität des Reiches ohne negative Folgen blieb. Die letzten drei größeren Caligula-Biographien spiegeln die Bandbreite der heutigen Lehrmeinung wider: Arther Ferrill (1991) beschreibt das in den Quellen dargestellte Bild des wahnsinnigen und irrational grausamen Tyrannen als historisch, Anthony A. Barrett (1989) diskutiert umfangreich Alternativen zur überlieferten Darstellung, Aloys Winterling (2003) rehabilitiert den Kaiser insofern, als er seine Regierung aus den zeitgenössischen Rahmenbedingungen verständlich macht. Die beiden letztgenannten Arbeiten sind in der Forschung breit rezipiert und aufgrund der vorbildlichen Darstellungsweise überwiegend positiv aufgenommen worden. Damit hat sich jedoch keine Revision des traditionellen Geschichtsbildes in dem Sinne vollzogen, dass die Herrschaft des Caligula als in irgendeiner Hinsicht erfolgreich oder für spätere Entwicklungen wegweisend gedeutet werden könnte. Caligula-Rezeption. Das in den antiken Quellen überlieferte Bild des grausamen Tyrannen sowie Quiddes Bild des Wahnsinns bei Kaisern der julisch-claudischen Dynastie bestimmen die zahlreichen populärwissenschaftlichen, belletristischen und literarischen Darstellungen Caligulas, die sich aus dem reichlich überlieferten anekdotischen Material zur Person des Kaisers bedienen, und insofern nicht als historisch schlecht recherchiert gelten können, jedoch bisweilen zur Wirkungssteigerung weniger Wert auf quellenkritische Vorbehalte legen. In Anspielung an die totalitären Regime seiner Zeit verfasste der erst 25-jährige Albert Camus 1938 das Drama "Caligula". Historisch setzt es nach dem Tod der Drusilla und der damit verbundenen Krise des Kaisers ein, der die Sinnlosigkeit des Lebens erkennt und damit Camus’ philosophische Konzeption des Existentialismus versinnbildlicht. Der deutsche Komponist Detlev Glanert verfasste eine frei auf Camus’ Drama beruhende Oper, die am 7. Oktober 2006 in Frankfurt a. M. uraufgeführt wurde. Tinto Brass setzte 1979 den Skandalfilm "Caligula" (dt. Untertitel "Aufstieg und Fall eines Tyrannen") in Szene. Gore Vidal schrieb das Drehbuch, Tinto Brass führte Regie. Malcolm McDowell gab den Kaiser, Peter O’Toole den Tiberius. Der ursprünglichen Verfilmung folgten weitere Produktionen, die den historischen Stoff als Fassade für zumeist niveaulose Sex- und Gewaltorgien benutzten. Im Rahmen des New York Musical Theatre Festival wurde am Broadway 2004 ein Musical "Caligula: An Ancient Glam Epic" uraufgeführt. Die Inszenierung, die ebenfalls die Skandalgeschichten um den Kaiser thematisiert, avancierte zum Publikumsliebling und wurde in der Presse überwiegend positiv rezensiert. Eine politisch gefärbte Singleauskopplung diente der Mobilisierung von Wählern in der bevorstehenden Präsidentenwahl. Cent (Musik). Das Cent (von lat. "centum" „hundert“) dient als Maßeinheit für die additive Struktur der musikalischen Intervalle. Der Name kommt daher, dass ein gleichstufiger Halbton in 100 Schritte geteilt wird. Da eine Oktave zwölf Halbtöne umfasst, entspricht sie 1200 Cent. (Gemäß der additiven Struktur gilt dann: 1 Oktave = 1200 Cent, 2 Oktaven = 2400 Cent, 3 Oktaven = 3600 Cent usw.) Die Einheit Cent ist in DIN 13320 genormt (siehe unten) und entspricht einem Frequenz-Verhältnis von formula_5. Mittels Angaben in Cent können verschiedene Tonsysteme und Stimmungen bequem verglichen werden. Der Tonhöhenvergleich mittels dieser Einheit hat den Vorteil, dass er dem additiven Intervall-Empfinden des Gehörs entspricht. Er ist damit praxisnäher als die Angaben zu Frequenz-Verhältnissen, bei denen ein Größenvergleich nicht unmittelbar möglich ist. Entstehung. Die Bezeichnung "Cent" wurde 1875 von Alexander John Ellis (1814–1890) im Anhang zu seiner Übersetzung von Hermann von Helmholtz’ "Lehre von den Tonempfindungen" als Einheit zum Größenvergleich von Intervallen vorgeschlagen. Die Cent-Einheit ist so gewählt, dass wahrnehmbare Frequenzunterschiede hinreichend genau als ganzzahlige Vielfache von Cents ausgedrückt werden können. Grob kann angenommen werden, dass der kleinste erkennbare Frequenzunterschied für Sinustöne beim Menschen bei Frequenzen ab 1000 Hz bei etwa drei bis sechs Cent liegt. Geringere Intervallunterschiede werden beim Nacheinander-Erklingen der Töne nicht mehr erkannt. Bei gleichzeitigem Erklingen sind durch Schwebungseffekte noch wesentlich geringere Intervallunterschiede hörbar. Bei größeren Tonabständen lassen sich Intervallgrößen durch Schwebungen der harmonischen Obertöne sehr genau bestimmen, die in musikalisch verwendeten Tönen meistens vorhanden sind. Bei tiefen Sinustönen mit geringer Lautstärke steigt hingegen die Unterscheidungsschwelle auf über 100 Cent, also einem Halbton. Die Verwendung des Centmaßes von Intervallen in der Musiktheorie. Intervalle kann man als Vielfache von einer Oktave angeben. Es handelt sich dabei um ein logarithmisches Maß der Frequenzverhältnisse. Cent ist eine Untereinheit der Oktave mit der Definition "1200 Cent = 1 Oktave" (oder "1 gleichstufiger Halbton = 100 Cent"). Hiermit ist ein sehr genauer Vergleich der Intervallgröße möglich. Das Centmaß ist proportional zur Intervallgröße, während das Frequenzverhältnis sich exponentiell verhält. Werden Intervalle hintereinander ausgeführt, kann man ihre Größen in Cent addieren (während ihre Frequenzverhältnisse multipliziert werden müssen). Auswirkungen auf die musikalische Praxis. Vor allem für die Darstellung der feinen Unterschiede der Intervalle in den verschiedenen mitteltönigen und wohltemperierten Stimmungen verwendet man die Einheit Cent. Um möglichst viele Tonarten (bei einer zwölfstufigen Skala der Oktave) spielbar zu machen, muss man Verstimmungen bei reinen Quinten und Terzen in Kauf nehmen. Bei den mitteltönigen Stimmungen treten Abweichungen bis etwa 8 Cent auf, wenn nur C-Dur nahe Akkorde verwendet werden. Mit 14 Cent Abweichung hat man sich abzufinden, wenn man auf Tasteninstrumenten alle Tonleitern nutzen will. Dabei wird ausgenutzt, dass das menschliche Gehör sich „die Intervalle zurechthört“. Noch größere Abweichungen wie etwa die „Wolfsquinte“ der mitteltönigen Stimmung bei stark von C-Dur entfernten Tonarten werden von Musikern nicht geduldet. Tabellen der mehr oder weniger reinen Terzen und Quinten in verschiedenen Stimmungssystemen: Siehe Stimmung. Umrechnung von Proportionen in Cent. Gegeben sei die Proportion (Frequenzverhältnis) formula_10 eines beliebigen Intervalls. Diese Gleichung übersetzt die multiplikativen akustischen Proportionen in die additiven logarithmischen Intervallmaße (Beispiel oben). Berechnung von Frequenzen. Der oben genannte Faktor formula_28 ist die Proportion (das Frequenzverhältnis) eines Tonunterschieds von einem Cent. Die Frequenzberechnung erfolgt daher mit dieser Zahl als "Basis" und dem Intervall in Cent im "Exponenten". Beispiel aus der Musiktheorie. Der Ton "a hat die Frequenz von 440 Hz. Der Ton "c' liegt eine kleine Terz darüber. Der Ton "c' hat demnach in reiner Stimmung (Frequenzverhältnis der kleinen Terz: 6:5) die Frequenz formula_33, in gleichstufiger Stimmung jedoch (kleine Terz = 3 Halbtöne = 300 Cent) die Frequenz formula_34. DIN-Norm. Nach DIN 13320 „Akustik; Spektren und Übertragungskurven; Begriffe, Darstellung“ bezeichnet Cent ein Frequenzmaßintervall, dessen Frequenzverhältnis formula_35 beträgt. Das Cent kann wie eine Einheit benutzt werden; somit kann das Frequenzmaßintervall der Frequenzen f1 und f2 (f2 > f1) als formula_36 bezeichnet werden. Absolutes Cent. Man kann auch dem gesamten Frequenzbereich eine Skala fester Cent-Werte zuordnen. Zur Berechnung dieses "absoluten Cents" wird 1 Hz = 0 Cent gesetzt. Es ergeben sich dann: 2 Hz = 1200 Cent, 4 Hz = 2400 Cent usw. mit den entsprechenden Zwischenwerten. Commodus. Commodus (* 31. August 161 in Lanuvium; † 31. Dezember 192 in Rom) war römischer Kaiser von 180 bis 192. Name. Commodus’ vollständiger Name wechselte mehrmals; geboren wurde er als "Lucius Aurelius Commodus", seit der Erhebung zum Mitkaiser 177 hieß er "Imperator Caesar Lucius Aurelius Commodus Augustus", bei der Übernahme der Alleinherrschaft im März 180 nahm er den Namen Antoninus und im Oktober desselben Jahres auch das Pränomen seines verstorbenen Vaters Mark Aurel an. Er hieß nun Imperator Caesar Marcus Aurelius Commodus Antoninus Augustus. Im Laufe seiner Herrschaft nahm er eine Reihe von Sieges- und Beinamen an. Schon 172 erhielt er den Siegesnamen "Germanicus", 175 nahm er gemeinsam mit seinem Vater den Siegestitel "Sarmaticus" an, 177 wurde er "Pater Patriae", 182 "Germanicus Maximus" und schließlich 184 "Britannicus". 183 erscheint in der Titulatur erstmals der Beiname "Pius" und 185 "Felix". 191 legte er die Namensbestandteile seines Vaters wieder ab, übernahm dafür aber den Gentilnamen Hadrians. Nun lautete sein Name "Imperator Caesar Lucius Aelius Aurelius Commodus Pius Felix Augustus". Kindheit und Jugend. Commodus wurde zusammen mit einem früh gestorbenen Zwillingsbruder als Sohn des Kaisers Mark Aurel und dessen Frau (zugleich Cousine) Faustina der Jüngeren geboren. Als er auf die Welt kam, war sein Vater seit einigen Monaten Kaiser, es handelte sich also gewissermaßen um eine Purpurgeburt – in Rom war das bisher nur bei Britannicus vorgekommen der jedoch nicht zur Herrschaft gelangte. Anders als spätere Quellen teilweise suggerieren, scheint Mark Aurel nie erwogen zu haben, Commodus nicht als Erben der Macht einzusetzen, im Gegenteil: Bereits im Alter von fünf Jahren wurde ihm zusammen mit seinem jüngeren Bruder Annius Verus der Titel "Caesar" verliehen, womit er als Nachfolgekandidat und formal sogar bereits als Unterkaiser seines Vaters gekennzeichnet war, bevor er schließlich drei Jahre vor dem Tod seines Vaters zu dessen Mitherrscher ("Augustus") erhoben wurde und damit alle kaiserlichen Vollmachten innehatte (siehe unten). Einen Teil seiner Jugend verbrachte er an der Seite Mark Aurels während der Markomannenkriege an der Donau. Nach der gescheiterten Usurpation des Avidius Cassius im Jahr 175 begleitete er seinen Vater auf eine lange Reise in den Osten des Reiches, wo er u. a. mit führenden Vertretern der Zweiten Sophistik zusammentraf. Erste Jahre als Kaiser. Seit dem besagten Aufstand des Avidius Cassius wurde Commodus verstärkt und zunehmend an die Regierungsaufgaben herangeführt und als designierter Nachfolger aufgebaut. Bereits 175 wurde er "princeps iuventutis", im November 176 folgte erstmals eine Akklamation zum "Imperator"; kurz darauf führte er gemeinsam mit Mark Aurel einen Triumphzug durch Rom durch, und im Sommer 177 wurde er schließlich zum formal gleichberechtigten Kaiser ("Augustus") neben seinem Vater ausgerufen. Mit diesem zog er im August 178 an die Donau, um dort erneut gegen Germanen zu kämpfen und militärisches Prestige zu sammeln. Am 17. März 180 starb sein Vater in einem Militärlager an der Donau. Commodus war damit Alleinherrscher. Er bereitete das Begräbnis seines Vaters vor und schloss zügig Frieden mit den Germanen. Ob er damit von Plänen seines Vaters abwich, der einigen Quellen zufolge geplant hatte, eine neue Provinz zu errichten, ist unklar und wohl eher unwahrscheinlich. Am 22. Oktober 180 zog er erneut im Triumph in Rom ein. Beim römischen Volk war Commodus zunächst offenbar beliebt, zumal er sich freigiebig zeigte und für genügend Brot und Spiele "(panem et circenses)" sorgte. Da er die durch die Kriege seines Vaters strapazierten Staatsfinanzen auch durch erhöhte Besteuerung der Senatoren zu sanieren suchte und den Befehlshabern der Prätorianergarde (den Prätorianerpräfekten) viel Einfluss gab, kam es offenbar zu Spannungen mit dem Senat. Die Betonung einer besonderen Nahbeziehung des Kaisers zur "plebs" drückte sich beispielsweise darin aus, dass im Actus Urbis die Formel "Populus Senatusque Romanus" („Volk und Senat von Rom“) statt "Senatus Populusque Romanus" („Senat und Volk von Rom“) benutzt wurde. Auch die von den Quellen berichtete Vorliebe des Kaisers für aufwendige öffentliche Wagenrennen – sowie Gladiatorenkämpfe im privaten Rahmen – könnte hiermit in Zusammenhang stehen. Krisen und übersteigertes Selbstbewusstsein. 181 oder 182 – das genaue Datum ist historisch nicht gesichert – kam es zur so genannten Lucilla-Verschwörung gegen den Kaiser, die jedoch scheiterte, da der mutmaßliche Attentäter versagte. Da der Kreis der Beteiligten (unter anderem eben Lucilla, die Schwester des Imperators) klein war, scheinen die Folgen begrenzt gewesen zu sein. Allerdings kam es aufgrund der anschließenden Hinrichtung einiger Aristokraten wohl zu Spannungen mit dem Senat. Fortan leitete anscheinend der mächtige Prätorianerpräfekt Tigidius Perennis, der ein Vertrauter Marc Aurels gewesen war, faktisch die Regierungsgeschäfte, bis er 185 des Hochverrats bezichtigt und von Soldaten erschlagen wurde. Sein faktischer Nachfolger wurde der Freigelassene Marcus Aurelius Cleander, der seinerseits 190 getötet wurde. Die Regierung des Kaisers wurde gegen Ende immer stärker von Misstrauen und Justizmorden geprägt, insbesondere nach einem erneuten Attentat auf ihn. Fest steht, dass der Kaiser sich recht früh mit dem Senat überwarf, sich demonstrativ allein auf das Heer und die "plebs urbana" stützte und damit das System des Prinzipats in Frage stellte, das auf der Fiktion beruhte, der Senat sei nach wie vor der Herr im Reich. Das brachte dem Kaiser den Hass vieler Aristokraten ein; er vernachlässigte laut den – ihm feindlich gesinnten – Quellen die Staatsgeschäfte, übertrug sie Männern, die keine Senatoren waren, sondern Ritter und Freigelassene, und gefiel sich zuletzt insbesondere in der Rolle des Herkules, der sich in der Arena dem Volk zeigte. So wurde er zum Gegenstand des Spotts der Senatoren, die ihm aber dennoch öffentlich zujubelten. Dass Commodus hingegen, wie Herodian und die "Historia Augusta" behaupten und oft von modernen Autoren übernommen wurde, selbst öffentlich als Gladiator aufgetreten sei, ist falsch: Die beste Quelle, der Zeit- und Augenzeuge Cassius Dio, berichtet ausdrücklich (Cass. Dio 73,17,2), der Kaiser sei zwar als Wagenlenker aufgetreten und habe auch an Tierhetzen ("venationes") teilgenommen; Commodus habe aber nur privat und ohne Publikum als Gladiator gekämpft und sei so niemals in die Öffentlichkeit getreten: „Gerne kämpfte er als Gladiator, und zwar zu Hause bei sich und in einer Art und Weise, dass er ab und zu einen Gegner tötete […]. In der Öffentlichkeit hingegen verzichtete Commodus auf Eisen und Menschenblut.“ Allenfalls mit einem Holzschwert bewaffnet kämpfte der Kaiser im Circus öffentlich gegen Menschen. Es sind vor allem die letzten Herrschaftsjahre, in denen Commodus eine exaltierte Politik und Selbstinszenierung betrieb, die sein Bild bei der Nachwelt geprägt haben. War schon zuvor ein Monat zu Ehren des Commodus umbenannt worden, so benannte er 192 alle Monate des Jahres nach seinen verschiedenen Ehrennamen um (mit "Commodus" für April, auch die anderen Monate erhielten neue Namen nach Commodus, wie "Lucius", "Aelius" usw.), die römischen Legionen und andere militärische Einheiten erhielten den Beinamen "Commodianae", die Stadt Rom wurde in "Colonia felix Commodiana" umbenannt. Ermordung. Im Dezember 192 formierte sich aus unklaren Gründen (die Motive, die die Quellen nennen, sind stereotyp und darum von zweifelhafter Glaubwürdigkeit) im engsten Umfeld des Kaisers eine Verschwörung gegen ihn. Am letzten Tag des Jahres 192 wurde er an seinem Hof unter Beteiligung seiner Konkubine Marcia in seinem Bad von einem Athleten namens Narcissus erwürgt. Mit ihm endete die von Antoninus Pius begründete Antoninische Dynastie, Commodus verfiel zunächst der "damnatio memoriae". Dass der Mord relativ spontan erfolgte und nicht von langer Hand vorbereitet war, zeigt der Umstand, dass kein Nachfolger bereitstand. Es folgte das zweite Vierkaiserjahr (mitunter auch als „Fünfkaiserjahr“ oder – irreführend – gar als „Sechskaiserjahr“ bezeichnet), denn seine Nachfolger Pertinax und Didius Julianus wurden nach kurzer Zeit ermordet, und außerdem kämpften Septimius Severus, Pescennius Niger und später auch Clodius Albinus um die Kaiserwürde. Da sich Septimius Severus, der schließlich als Sieger hervorging, zum Zwecke seiner Legitimierung durch eine fiktive Adoption selbst zum Sohn Mark Aurels machte, wurde die "damnatio" seines „Bruders“ Commodus konsequenterweise wieder aufgehoben. Caracalla. Caracalla (* 4. April 188 in Lugdunum, dem heutigen Lyon; † 8. April 217 in Mesopotamien) war von 211 bis zu seinem Tod römischer Kaiser. Sein offizieller Kaisername war – in Anknüpfung an den beliebten Kaiser Mark Aurel – "Marcus Aurelius Severus Antoninus". „Caracálla“ war nur ein Spitzname, der von der Bezeichnung seines Kapuzenmantels abgeleitet wurde. Caracallas Vater Septimius Severus, der Begründer der severischen Dynastie, erhob ihn 197 zum Mitherrscher. Nach dem Tod des Vaters am 4. Februar 211 trat er zusammen mit seinem jüngeren Bruder Geta die Nachfolge an. Schon im Dezember 211 ließ er Geta ermorden. Anschließend beging er in Rom ein großes Massaker an Getas Anhängern. Fortan regierte er unangefochten als Alleinherrscher. Caracalla kümmerte sich vor allem um militärische Belange und begünstigte die Soldaten. Damit setzte er einen schon von seinem Vater eingeschlagenen Kurs fort, der auf die Epoche der Soldatenkaiser vorauswies. Wegen der Brutalität seines Vorgehens gegen jede tatsächliche oder vermeintliche Opposition wurde er von der zeitgenössischen senatorischen Geschichtsschreibung sehr negativ beurteilt. Bei den Soldaten hingegen erfreute er sich großer Beliebtheit, die über seinen Tod hinaus anhielt. Bei der Vorbereitung eines Feldzugs gegen die Parther wurde Caracalla von einer kleinen Gruppe von Verschwörern aus offenbar persönlichen, nicht politischen Motiven ermordet. Da er kinderlos war, starb mit ihm die männliche Nachkommenschaft des Dynastiegründers Septimius Severus aus. Später wurden jedoch die Kaiser Elagabal und Severus Alexander als uneheliche Söhne Caracallas ausgegeben. Die Maßnahmen, mit denen Caracalla in erster Linie der Nachwelt in Erinnerung blieb, waren der Bau der Caracalla-Thermen und die Constitutio Antoniniana, ein Erlass von 212, mit dem er fast allen freien Reichsbewohnern das römische Bürgerrecht verlieh. Die moderne Forschung folgt weitgehend der ungünstigen Beurteilung seiner Regierungszeit durch die antiken Quellen, rechnet aber bei den Angaben der ihm feindlich gesinnten Geschichtsschreiber mit Übertreibungen. Kindheit. a>. Getas Gesicht wurde nach seiner Ermordung getilgt. Caracalla wurde am 4. April 188 im heutigen Lyon geboren, dem Verwaltungssitz der Provinz Gallia Lugdunensis. Er war der ältere der beiden Söhne des künftigen Kaisers Septimius Severus, eines Afrikaners, der damals Statthalter dieser Provinz war. Nur elf Monate später kam sein Bruder Geta zur Welt. Seine Mutter Julia Domna, die zweite Frau des Septimius Severus, stammte aus einer sehr vornehmen Familie; ihre Heimatstadt war Emesa (Homs) in Syrien. Caracalla erhielt den Namen "Bassianus" nach seinem Großvater mütterlicherseits, einem Priester des in Emesa verehrten Sonnengottes Elagabal. Einen erheblichen Teil seiner Kindheit verbrachte Caracalla in Rom. Sein Vater war ab 191 Statthalter der Provinz Oberpannonien. Die Kinder der Provinzstatthalter mussten auf Anordnung des Kaisers Commodus in Rom bleiben, denn der misstrauische Kaiser wollte sich gegen das Risiko von Aufständen der Statthalter absichern, indem er ihre Kinder in seinem unmittelbaren Machtbereich behielt. Als Kind soll sich Caracalla durch angenehme Eigenschaften ausgezeichnet haben. Er war fünf Jahre alt, als sein Vater am 9. April 193 von den Donaulegionen zum Kaiser ausgerufen wurde. Von Mitte 193 bis 196 hielt er sich mit seinem Vater im Osten des Reichs auf, dann kehrte er über Pannonien nach Rom zurück. Septimius Severus gab sich ab Frühjahr 195 zum Zweck der Legitimierung seiner Herrschaft als Adoptivsohn des 180 gestorbenen Kaisers Mark Aurel aus. Mit dieser Fiktion wollte er sich in die Tradition der Adoptivkaiser stellen, deren Epoche als Glanzperiode der römischen Geschichte galt. Daher erhielt auch Caracalla als fiktiver Enkel Mark Aurels ab 195/196 den Namen dieses beliebten Herrschers: Er hieß fortan "Marcus Aurelius Antoninus", wurde also wie sein Vater als Angehöriger von Mark Aurels Familie, des Kaisergeschlechts der Antonine, betrachtet. An dieser Fiktion hielt er stets fest. Geta hingegen wurde nicht umbenannt, also nicht fiktiv in das Geschlecht der Antonine aufgenommen. Darin zeigte sich schon damals eine Bevorzugung seines ein Jahr älteren Bruders. Entweder schon Mitte 195 oder spätestens 196 wurde Caracalla der Titel "Caesar" verliehen, womit er zum künftigen Kaiser designiert wurde. Dieser Schritt markierte den Bruch zwischen Septimius Severus und dessen Rivalen Clodius Albinus, der Britannien unter seiner Kontrolle hatte. Albinus hatte sich im Jahr 193 Hoffnungen auf die Kaiserwürde gemacht, war aber von Severus mit dem Caesartitel und der Aussicht auf die Nachfolge abgefunden worden. Diese Regelung war mit Caracallas Erhebung zum "Caesar" hinfällig. Daher brach der 193 noch vermiedene Bürgerkrieg zwischen Severus und Albinus nun aus. Nach dem Sieg des Severus in diesem Krieg, in dem Albinus den Tod fand, stand Caracallas Anspruch auf die Nachfolge seines Vaters nichts mehr im Wege. Als Kaisersohn erhielt Caracalla eine sorgfältige Erziehung. Daher war er nicht ungebildet; als Kaiser war er offenbar in der Lage, sich an intellektuellen Gesprächen zu beteiligen, und schätzte rhetorische Fähigkeiten. 197 begleitete Caracalla zusammen mit seinem Bruder Geta den Vater auf dessen zweitem Feldzug gegen die Parther. Schon im Frühjahr 197 wurde er offiziell als designierter Kaiser und Teilhaber der Herrschaft bezeichnet. Im Herbst 197 oder spätestens 198 wurde er zum "Augustus" erhoben und mit den kaiserlichen Vollmachten ausgestattet; fortan nannte man ihn "Marcus Aurelius Severus Antoninus Augustus". Wohl gleichzeitig wurde Geta zum "Caesar" erhoben. Die Kaiserfamilie blieb noch einige Zeit im Orient; 199 reiste sie nach Ägypten, wo sie sich bis 200 aufhielt. Erst 202 kehrte sie nach Rom zurück. In diesem Jahr war Caracalla zusammen mit seinem Vater ordentlicher Konsul. Heirat und Konflikte der Jugendzeit. Im April 202 wurde Caracalla, mit 14 Jahren nunmehr mündig, von seinem Vater gegen seinen Willen mit Publia Fulvia Plautilla verheiratet, die den Titel "Augusta" erhielt. Sie war die Tochter des Prätorianerpräfekten Gaius Fulvius Plautianus. Plautianus stammte aus Leptis Magna in Libyen, der Heimatstadt des Septimius Severus. Er hatte dank der Gunst des Kaisers eine außerordentliche Machtstellung errungen, die er durch die Verschwägerung mit dem Kaiserhaus absichern wollte. Seine Machtfülle wurde aber von der Kaiserin Julia Domna als Bedrohung wahrgenommen und brachte ihn mit ihr in Konflikt. Caracalla, der Plautianus als Rivalen sah, hasste seine Frau und seinen Schwiegervater und wollte beide beseitigen. Mit einer Intrige führte er 205 den Sturz des Plautianus herbei, wobei er sich der Hilfe seines Erziehers, des Freigelassenen Euodus, bediente. Euodus veranlasste drei Centurionen, Plautianus eines Mordplans gegen Severus und Caracalla zu bezichtigen; sie behaupteten, der Präfekt habe sie zu einem Attentat angestiftet. Severus schenkte ihnen Glauben und lud Plautianus vor, doch erhielt der Beschuldigte keine Gelegenheit zur Rechtfertigung, da Caracalla ihn nicht zu Wort kommen ließ. Nach der Darstellung des zeitgenössischen Geschichtsschreibers Cassius Dio versuchte Caracalla seinen Feind in Anwesenheit des Kaisers eigenhändig umzubringen, wurde aber von Severus daran gehindert. Darauf ließ er Plautianus von einem seiner Begleiter töten, offenbar mit Billigung des Kaisers. Plautilla wurde auf die Insel Lipari verbannt. Nach seinem Regierungsantritt ordnete Caracalla ihre Beseitigung an; über sie wurde die "damnatio memoriae" verhängt. Auch Euodus wurde später auf Befehl Caracallas hingerichtet. Schon in früher Jugend war es zu einer ausgeprägten Rivalität der beiden Brüder Caracalla und Geta gekommen, die sich im weiteren Verlauf ihres Lebens beständig verschärfte und in tödlichen Hass verwandelte. Vergeblich bemühte sich Septimius Severus, die Feindschaft zwischen seinen Söhnen zu mildern und gegenüber der Öffentlichkeit zu vertuschen, etwa durch die Prägung von Münzen der "Concordia" (Eintracht), zweimaliges gemeinsames Konsulat Caracallas und Getas in den Jahren 205 und 208 und die Fernhaltung der Söhne von Rom. Am Britannienfeldzug des Kaisers, den er 208–211 gegen die im heutigen Schottland lebenden Kaledonier und Mäaten unternahm, nahmen beide Söhne teil. 209 erhielt Geta die Würde eines "Augustus", wurde also rangmäßig seinem bisher bevorzugten Bruder gleichgestellt. Da die Kämpfe sich hinzogen und Septimius Severus bereits bei schlechter Gesundheit war, musste er 210 Caracalla mit der alleinigen Leitung der militärischen Operationen betrauen. Geta hingegen erhielt kein Kommando. Ab 210 führte Caracalla den Siegernamen "Britannicus maximus", den auch sein Vater und sein Bruder annahmen. Er soll versucht haben, den Tod des Kaisers zu beschleunigen, indem er dessen Ärzte und Bedienstete unter Druck setzte, dem Kranken etwas anzutun. Septimius Severus starb am 4. Februar 211 in Eburacum (heute York). Herrschaftsantritt und Machtkampf mit Geta. Wie Septimius Severus es vorgesehen hatte, traten seine beiden Söhne zunächst gemeinsam die Herrschaft an. Sie schlossen mit den Kaledoniern und Mäaten Frieden und verzichteten damit auf die vielleicht ursprünglich geplante Besetzung von Gebieten im heutigen Schottland. Somit wurde der Hadrianswall wieder die nördliche Grenze des römischen Territoriums in Britannien. Caracalla und Geta kehrten mit getrenntem Hofstaat nach Rom zurück. Dort schützten sich beide durch sorgfältige Bewachung voreinander. Als Präzedenzfall und Vorbild für dieses Regierungsmodell konnte die gemeinsame Herrschaft von Mark Aurel und dessen Adoptivbruder Lucius Verus im Zeitraum 161–169 dienen. Damals hatte aber ein klarer Rangunterschied zwischen den beiden Kaisern bestanden, denn Verus war erst von Mark Aurel zum "Augustus" erhoben worden. Bei Caracalla und Geta hingegen war die Situation grundlegend anders: Beide Brüder waren leibliche Söhne eines Kaisers und hatten schon unter ihrem Vater den "Augustus"-Rang erlangt, ihre Rangordnung und Befugnisse waren nicht eindeutig und einvernehmlich festgelegt worden. Eine anerkannte Erbfolgeregelung gab es für die römische Kaiserwürde nicht. Ein Doppelkaisertum weitgehend gleichberechtigter Herrscher hätte daher wohl allenfalls durch eine Reichsteilung umgesetzt werden können. Der Geschichtsschreiber Herodian behauptet, es sei daher tatsächlich erwogen worden, das Römische Reich zu teilen und Geta den Osten zuzuweisen, doch sei dieser Plan verworfen worden, denn Julia Domna, die Mutter der beiden Kaiser, habe sich dem Vorhaben nachdrücklich widersetzt. Die Glaubwürdigkeit dieses Berichts wird aber in der neueren Forschung teils skeptisch beurteilt. Versuche, in epigraphischem Material eine Bestätigung für Herodians Darstellung zu finden, sind gescheitert. Unter diesen Umständen war eine gewaltsame Austragung des Konflikts unausweichlich. Um beide Brüder hatte sich ein Kreis von Anhängern gebildet; Geta war zumindest bei einem Teil der Soldaten beliebt. Daher wagte Caracalla vorerst nicht, offen gegen ihn vorzugehen. Die römische Stadtbevölkerung, der Hof, der Senat, die Prätorianer und die in der Hauptstadt und ihrer Umgebung stationierten Truppen waren gespalten oder unschlüssig, so dass ein großer Bürgerkrieg bevorzustehen schien. Schließlich gelang es Caracalla im Dezember 211, den Bruder in einen Hinterhalt zu locken. Er veranlasste seine Mutter, ein Gespräch im kaiserlichen Palast zu arrangieren. Leichtsinnigerweise folgte Geta der Einladung der Mutter, denn er meinte wohl, in ihrer Anwesenheit vor seinem Bruder sicher zu sein. Der Ablauf der tödlichen Begegnung ist unklar. Nach der Schilderung des zeitgenössischen Geschichtsschreibers Cassius Dio, die als die glaubwürdigste gilt, hatte Caracalla Mörder bestellt, die seinen Bruder in den Armen der Mutter töteten, wobei diese an der Hand verletzt wurde. Offenbar hat er aber auch selbst zugeschlagen, denn später weihte er das dabei von ihm verwendete Schwert im Serapeion von Alexandria der dort verehrten Gottheit Serapis. Anschließend wurde über Geta die "damnatio memoriae" verhängt und die Tilgung seines Namens in allen öffentlichen Denkmälern und Schriftstücken mit größter Gründlichkeit betrieben; sogar seine Münzen wurden eingeschmolzen. Der nunmehrige Alleinherrscher rechtfertigte den Mord mit der Behauptung, selbst nur einem Anschlag Getas zuvorgekommen zu sein. Am Tag nach der Tat hielt er im Senat eine Rede, in der er seine Sichtweise darlegte und zugleich mit der Ankündigung einer Amnestie für Verbannte Sympathie zu gewinnen versuchte. Für die Öffentlichkeit und insbesondere für die Senatoren war die Mordtat aber ein unerhörter Tabubruch, von dem sich Caracallas Ansehen niemals erholen sollte. Die Prätorianer gewann er mit einer Solderhöhung und Geldgeschenken für sich, und auch das Einkommen der Soldaten wurde zur Sicherung ihrer Loyalität beträchtlich angehoben. Nach der Darstellung der "Historia Augusta", deren Glaubwürdigkeit allerdings umstritten ist, konnte Caracalla die in der Nähe von Rom stationierte "Legio II Parthica", die stark mit Geta sympathisiert hatte, nur mit einem reichlichen Geldgeschenk besänftigen. Terrorherrschaft. Sogleich nach der Ermordung Getas ließ Caracalla zahlreiche Männer und Frauen, die als Anhänger seines Bruders galten, töten; damals sollen etwa 20.000 Menschen aus diesem Grund ermordet worden sein. Nach einer umstrittenen These hat man in York vor einigen Jahren vielleicht die enthaupteten Opfer einer damit zusammenhängenden Massenhinrichtung entdeckt. Auch später noch wurden viele umgebracht, denen Caracalla unterstellte, Sympathien für den unterlegenen Rivalen gehegt zu haben oder ihm nachzutrauern. Zu den prominenten Opfern des Terrors gehörten der Kaisersohn Pertinax Caesar sowie zwei Nachkommen des allseits verehrten Kaisers Mark Aurel: seine Tochter Cornificia und ein Enkel. Der berühmte Jurist Papinian, der ein Freund und Vertrauter des Septimius Severus gewesen war und sich im Auftrag des verstorbenen Kaisers um einen Ausgleich zwischen den verfeindeten Brüdern bemüht hatte, wurde auf Befehl Caracallas ermordet, nachdem Prätorianer Vorwürfe gegen ihn erhoben hatten. Es wurde üblich, persönliche Gegner mit erfundenen Behauptungen in anonymen Anzeigen aus dem Weg zu räumen. Die zahlreichen Soldaten und Prätorianer in Rom dienten Caracalla als Spitzel und Informanten. Eine aufschlussreiche Episode war Caracallas im Frühjahr 212 unternommener Versuch, den populären Senator und ehemaligen Stadtpräfekten Lucius Fabius Cilo umzubringen. Den Anlass dazu bot wohl, dass Cilo versucht hatte, zwischen Caracalla und Geta zu vermitteln. Caracalla erteilte Soldaten – offenbar handelte es sich um Prätorianer – den Befehl, gegen den Senator vorzugehen. Sie plünderten das Haus Cilos und führten ihn unter Misshandlungen zum Kaiserpalast. Darauf kam es zu einem Aufruhr; die Bevölkerung und in der Stadt stationierte Soldaten "(urbaniciani)", die früher unter Cilos Befehl gestanden hatten, griffen zugunsten des Verhafteten ein, um ihn zu befreien. Caracalla schätzte die Lage als so gefährlich ein, dass er aus dem Palast herbeieilte und vorgab, Cilo beschützen zu wollen. Er ließ die Prätorianer, die mit der Festnahme beauftragt gewesen waren, und ihren Befehlshaber hinrichten, angeblich zur Strafe für ihr Vorgehen gegen Cilo, in Wirklichkeit jedoch, weil sie bei der Durchführung des Befehls versagt hatten. Der Vorgang zeigt eine zumindest zeitweilige Schwäche des Kaisers. Er musste vor dem Widerstand von Teilen der Stadtbevölkerung und der städtischen Soldaten, auf deren Loyalität er angewiesen war, zurückweichen. Generell ging Caracalla gegen Individuen und Gruppen, die seinen Zorn oder Verdacht erregten, mit großer Härte vor. Ein Merkmal seines Terrors war, dass er nicht nur gezielt Verdächtige hinrichten ließ, sondern auch kollektive Strafmaßnahmen ergriff, denen neben Oppositionellen auch zahlreiche harmlose Personen und Unbeteiligte zum Opfer fielen. Aufsehen erregte das Massaker von Alexandria in Ägypten. Dort richtete Caracalla bei seinem Aufenthalt in der Stadt, der von Dezember 215 bis März/April 216 dauerte, ein großes Blutbad unter der Bevölkerung an. Als Anlass gibt Cassius Dio an, dass sich die Alexandriner über den Kaiser lustig gemacht hatten. Die Stadtbevölkerung war als spottlustig bekannt, doch hatte ihre Aufsässigkeit auch einen ernsten Hintergrund: In der Stadt war – vermutlich aus wirtschaftlichen Gründen – eine kaiserfeindliche Stimmung entstanden, die sich in einem Aufruhr entlud. Dem Gemetzel in Alexandria, das tagelang angedauert haben soll, fielen auch auswärtige Besucher zum Opfer, die sich zufällig in der Stadt aufhielten. Außerdem wurde die Stadt von Caracallas Soldaten geplündert. Wahrscheinlich stellen Cassius Dio und der ebenfalls zeitgenössische Geschichtsschreiber Herodian das Ausmaß des Massakers übertrieben dar, doch dürfte die Schilderung Cassius Dios in den Grundzügen stimmen. Als der Kaiser in Rom von einer aufsässigen Menge im Circus verspottet zu werden glaubte, befahl er seinen Soldaten, die Unruhestifter zu töten, was mit einem wahllosen Massaker endete. Thermenbau und Ausdehnung des römischen Bürgerrechts. Caracallas Name ist für die Nachwelt bis heute vor allem mit zwei spektakulären Maßnahmen verbunden: dem Bau der Caracalla-Thermen in Rom, einer Gesamtanlage von 337 mal 328 Metern, und der "Constitutio Antoniniana" von 212. Mit dem Thermenbau wollte sich der Kaiser bei der Stadtbevölkerung beliebt machen. Es war damals die größte derartige Anlage in Rom. Die "Constitutio Antoniniana" war eine Verfügung, die allen freien Bewohnern des Reiches mit Ausnahme der "dediticii" das römische Bürgerrecht verlieh. Die Abgrenzung des mit "dediticii" gemeinten Personenkreises ist unklar. Mit diesem Ausdruck bezeichnete man ursprünglich Angehörige von Völkern oder Staaten, die sich den Römern bedingungslos unterworfen hatten, entweder im Krieg im Sinne einer Kapitulation oder im Frieden, um römischen Schutz zu erhalten. Juristisch bedeutete die "Constitutio Antoniniana" nicht, wie man früher glaubte, die Aufhebung örtlicher Rechtsgewohnheiten und ihre Ersetzung durch römisches Privatrecht; örtliches Recht wurde weiterhin angewendet, soweit es dem römischen nicht widersprach. Daraus ergaben sich im juristischen Alltag Rechtsunsicherheiten; eine umfassende, allgemeingültige Regelung wurde offenbar nicht angestrebt. Die Zwecke und die Tragweite der "Constitutio Antoniniana" sind bis heute nicht befriedigend geklärt. Flankierende Maßnahmen zur Integration der Neubürger scheint Caracalla nicht getroffen zu haben, ein umfassendes, langfristiges Gesamtkonzept war mit der Bürgerrechtsverleihung anscheinend nicht verbunden. Caracalla gibt an, er habe sich zu dem Schritt entschlossen, weil er den Göttern für seine Rettung aus einer Gefahr danken wollte. Vermutlich meinte er damit einen angeblichen Mordanschlag Getas, doch sind auch andere Deutungen möglich. Cassius Dio gibt die Meinung der oppositionellen senatorischen Kreise wieder, der zufolge die Ausdehnung des Bürgerrechts vor allem den Zweck hatte, die Steuereinnahmen zu erhöhen; die von dem Erlass Betroffenen wurden Steuern unterworfen, die nur von römischen Bürgern zu entrichten waren. Solche Steuern waren eine Abgabe auf die Freilassung von Sklaven und die Erbschaftssteuer, die Caracalla damals von 5 auf 10 Prozent verdoppelte. Die Erhöhung der Steuereinnahmen war aber nur eines der Motive Caracallas. Außerdem wollte er die Neubürger wohl als ihm persönlich ergebene Anhängerschaft gewinnen, um auf diese Art die Feindschaft der traditionellen Elite, bei der er wegen seiner Terrorherrschaft verhasst war, zu kompensieren und so seine Machtbasis zu stärken. Zahlreiche Neubürger nahmen den Namen des Kaisers (Aurelius) an, der dadurch außerordentlich häufig wurde. Verwaltung, Finanzen, Wirtschaft und Militär. Da Caracalla sich durch seinen Terror unzählige Feinde schuf, besonders in der Oberschicht, war er zur Erhaltung seiner Macht ganz auf das Heer angewiesen und für seine persönliche Sicherheit auf seine skythischen und germanischen Leibwächter. Die Unterstützung der Soldaten gewann er, indem er ihren Sold stark erhöhte und sie mit häufigen üppigen Sonderzuwendungen (Donativen) beschenkte. Das Ausmaß der Solderhöhung betrug 50 Prozent, wobei der schon von Septimius Severus deutlich erhöhte Sold die Berechnungsgrundlage bildete. Nach einer von Cassius Dio mitgeteilten Schätzung betrug der dafür erforderliche jährliche Mehraufwand 280 Millionen Sesterzen (70 Millionen Denare). Diese Steigerung der militärischen Personalkosten war jedoch finanzpolitisch verhängnisvoll. Die Bevorzugung des Militärs war nur auf Kosten des wirtschaftlich produktiven Teils der Bevölkerung und der Geldwertstabilität möglich und erzeugte bei den so verwöhnten Soldaten maßlose Erwartungen. Spätere Herrscher konnten diese Entwicklung nicht mehr umkehren, ohne ihren sofortigen Sturz zu riskieren. Somit stellte Caracalla die Weichen für das künftige Soldatenkaisertum. Seine Politik trug dazu bei, dass später die mit dem modernen Schlagwort „Reichskrise des 3. Jahrhunderts“ bezeichneten Entwicklungen eintraten. Unter ihm verstärkten sich problematische Faktoren, welche die Wirtschaft im weiteren Verlauf des 3. Jahrhunderts stark belasteten. Allerdings bestanden schon vor seinem Regierungsantritt gravierende strukturelle Probleme. Caracalla teilte große Provinzen auf, wohl um eine gefährliche Machtzusammenballung in der Hand der Provinzstatthalter zu verhindern. Kein Statthalter sollte mehr als zwei Legionen unter seinem Kommando haben. Britannien teilte er in die zwei Provinzen Britannia superior und Britannia inferior. In Hispanien trennte er von der großen Provinz Hispania citerior oder Tarraconensis eine neue Provinz ab, die er "Hispania nova citerior Antoniniana" nannte. Sie befand sich im Nordwesten der Halbinsel nördlich des Duero. Ihre Existenz ist nur aus Inschriften erschlossen und ihre Ausdehnung ist nicht genau bekannt, denn sie wurde bereits spätestens in den dreißiger Jahren des 3. Jahrhunderts wieder mit der Tarraconensis vereinigt. Caracalla führte 214/215 eine Münzreform durch, die der Finanzierung des geplanten Partherkriegs dienen sollte. Er schuf eine neue Silbermünze, die später nach seinem offiziellen Namen Antoninus als "Antoninian" bezeichnet wurde. Der Antoninian, der im 3. Jahrhundert zur geläufigsten römischen Münze wurde, entsprach zwei Denaren, sein Gewicht jedoch nur etwa dem von anderthalb Denaren. Faktisch handelte es sich also um eine Geldverschlechterung. Diese führte zur Hortung des alten Geldes, die aus zahlreichen Schatzfunden ersichtlich ist. Außerdem wurde das Gewicht der Goldmünze "Aureus" um rund 9 Prozent reduziert (von 7,20 auf 6,55 g). Schon 212 hatte Caracalla den Silbergehalt des Denars um rund 8 Prozent verringert (von 1,85 g auf 1,70 g), offenbar wegen der Kosten der Solderhöhungen nach dem Mord an Geta. Noch drastischer war die Geldverschlechterung im Osten des Reichs, wo die syrische Drachme und die Tetradrachme die Hälfte ihres Silbergehalts einbüßten (Verringerung von 2 g Silber im Jahr 213 auf 0,94 g im Jahr 217). Dies bewirkte einen massiven Verlust an Vertrauen in den Geldwert. Trotz der Härte, mit der Caracalla gegen jede Kritik vorging, soll die Steuerlast zu einer deutlichen Unmutsbekundung der Menge bei einem Pferderennen geführt haben. Religion. Caracallas Verhältnis zur Religion war, wie Cassius Dio berichtet, vor allem von seinem Bedürfnis bestimmt, von den Göttern Heilung von seinen Krankheiten zu erlangen. Zu diesem Zweck soll er allen bedeutenderen Gottheiten Opfer und Weihegaben dargebracht und eifrig gebetet haben. Zu den Göttern, von denen er Hilfe erhoffte, gehörten der griechische Heilungsgott Asklepios, der ägyptische Sarapis und Apollon, der mit dem keltischen Heilungsgott Grannus identifiziert und als Apollo Grannus verehrt wurde. Wahrscheinlich besuchte der Kaiser den Apollo-Grannus-Tempel in Faimingen, das damals Phoebiana hieß und zur Provinz Raetia gehörte. Seine besondere Verehrung galt Sarapis, in dessen Tempelbezirk er während seines Aufenthalts in Alexandria wohnte. Auf dem römischen Hügel Quirinal ließ er einen Sarapis-Tempel errichten, der inschriftlich bezeugt ist, aber bisher nicht lokalisiert werden konnte. Germanenfeldzug. Im Sommer 213 unternahm Caracalla, der in diesem Jahr zum vierten und letzten Mal Konsul war, einen kurzen Feldzug gegen Germanen. Bei diesen handelte es sich laut byzantinischen Auszügen aus einem verlorenen Teil von Cassius Dios Geschichtswerk um Alamannen. Dies ist die erste namentliche Bezeugung der Alamannen. Die Zuverlässigkeit dieser Angabe, die in der älteren Forschung allgemein akzeptiert worden war, ist seit 1984 wiederholt bestritten worden, da der Alamannenname erst ein späterer Zusatz sei und nicht von Dio stamme; sie hat aber auch weiterhin Befürworter und wird ausführlich gegen die Kritik verteidigt. Zunächst errang der Kaiser einen größeren Sieg am Main, woraufhin er den Siegernamen "Germanicus maximus" annahm. Die anschließenden Kämpfe scheinen aber für ihn weniger günstig verlaufen zu sein, denn er sah sich zu Zahlungen an germanische Gruppen veranlasst. Insgesamt war sein Vorgehen aber offenbar erfolgreich, denn die Lage an der Nordgrenze blieb für zwei Jahrzehnte stabil. Expansionspolitik im Osten. Nach der Befriedung der Nordgrenze begab sich Caracalla in den Osten des Reichs, von wo er nicht mehr zurückkehren sollte. Zunächst scheint er im Gebiet der Stadt Tyras (heute Bilhorod-Dnistrowskyj in der Südukraine) die Karpen besiegt zu haben, dann zog er nach Kleinasien. Den Winter 214/215 verbrachte er in Nikomedeia, von dort brach er im Frühjahr 215 nach Antiocheia auf. Hatte er sich schon früher auch in Äußerlichkeiten in die Nachfolge Alexanders des Großen gestellt (er soll bei einem Besuch des Alexandergrabes auf dessen Sarkophag eine Chlamys, einen Ring und einen Gürtel gelegt haben), so erreichte die Alexander-Nachahmung in seinen letzten Lebensjahren ihren Höhepunkt. Er soll eine Streitmacht von 16.000 Mann als „makedonische Phalanx“ mit makedonischer Kleidung und Bewaffnung aufgestellt haben. In einem Brief an den Senat behauptete er, eine Reinkarnation des Makedonenkönigs zu sein. Damit deutete er das Programm einer Wiederherstellung von Alexanders Weltreich, zumindest einer ruhmreichen Expansion nach Osten an. Schon vor seinem Aufbruch in den Osten hatte er König Abgar IX. von Osrhoene nach Rom gelockt und dort gefangengesetzt, worauf er das Königreich annektierte. Auch den arsakidischen König von Armenien und dessen Familie hatte er mit List in seine Gewalt gebracht, doch im Reich dieses Herrschers stießen die Römer auf hartnäckigen Widerstand. Ein römischer Vorstoß nach Armenien, dessen Durchführung der Kaiser seinem Vertrauten Theokritos übertragen hatte, scheiterte. Die Anknüpfung an das Vorbild Alexanders des Großen und an dessen Weltherrschaftsidee bedeutete Konfrontation mit dem Partherreich, das Caracalla ins Römische Reich eingliedern wollte. Angeblich verfolgte er sein Ziel zunächst auf friedlichem Weg oder versuchte zumindest diesen Anschein zu erwecken: Er soll dem Partherkönig Artabanos IV. ein Heiratsprojekt vorgeschlagen haben. Artabanos sollte ihm seine Tochter zur Frau geben und damit den Weg zu einer künftigen Vereinigung der beiden Reiche ebnen. Dieses Projekt fällt ganz aus dem Rahmen der traditionellen römischen Außenpolitik; römische Kaiser gingen nie Heiratsverbindungen mit auswärtigen Herrscherhäusern ein. Die Historizität der von Cassius Dio und Herodian mitgeteilten, bei Herodian mit phantastischen Elementen ausgeschmückten Episode ist in der Forschung umstritten; überwiegend wird angenommen, dass die Überlieferung zumindest einen historischen Kern hat. Auch dabei spielte das Vorbild Alexanders eine Rolle; der Makedone hatte Stateira, eine Tochter des Perserkönigs Dareios III. geheiratet. Erst als Artabanos den phantastisch anmutenden Vorschlag ablehnte, begann Caracalla im Frühjahr 216 den Feldzug gegen die Parther. Begünstigt wurden die Römer durch den Umstand, dass bei den Parthern damals ein Bürgerkrieg zwischen den Brüdern Artabanos IV. und Vologaeses VI. herrschte, in welchem allerdings Caracallas Gegner Artabanos deutlich die Oberhand hatte. Die römischen Truppen rückten von Antiocheia über Edessa kampflos bis nach Arbela (heute Arbil im Nordirak) vor. Dort plünderten sie die Gräber der Könige von Adiabene (nicht der Könige des Partherreichs). Danach zog sich Caracalla nach Edessa zurück. Dort verbrachte er den Winter, während Artabanos den parthischen Gegenangriff vorbereitete, der dann aber erst Caracallas Nachfolger Macrinus mit voller Wucht traf. Cassius Dio behauptet, die Disziplin des römischen Heeres sei wegen Caracallas Verwöhnung der Soldaten mangelhaft gewesen. Tod und Nachfolge. Bevor es zu Kämpfen mit den Parthern kam, fand Caracallas Herrschaft ein gewaltsames Ende. Die detaillierte Schilderung der Vorgeschichte und der Umstände seines Todes bei Cassius Dio gilt in der Forschung als glaubwürdig, sie wird im Wesentlichen in modernen Darstellungen übernommen. Zu den Personen nichtsenatorischer Herkunft, die Caracalla in Schlüsselstellungen gebracht hatte, gehörte der militärisch unerfahrene Prätorianerpräfekt Macrinus. Wie Cassius Dio mitteilt, befand sich Macrinus im Frühjahr 217 in einer akuten Notlage: Prophezeiungen hatten ihm die Kaiserwürde verheißen, und dies war Caracalla zu Ohren gekommen; außerdem war ein schriftlicher Bericht an den Kaiser unterwegs, und Macrinus war vor der ihm infolgedessen drohenden Lebensgefahr gewarnt worden. Das war wohl eine Intrige, doch hatte der Präfekt jedenfalls Anlass, darin eine tödliche Bedrohung zu sehen. Daher organisierte er mit einigen Unzufriedenen die Ermordung Caracallas. An dem Anschlag waren drei Männer beteiligt: der "evocatus" Julius Martialis, der den Kaiser wegen einer persönlichen Zurücksetzung hasste, und zwei Prätorianertribunen. Martialis führte das Attentat am 8. April 217 aus, als der Kaiser sich auf dem Weg von Edessa nach Carrhae befand, wo er ein berühmtes Heiligtum des Mondgottes Sin aufsuchen wollte. Als Caracalla unterwegs vom Pferd stieg, um seine Notdurft zu verrichten, näherte sich ihm Martialis, scheinbar um ihm etwas zu sagen, und versetzte ihm einen Dolchstoß. Ein skythischer Leibwächter Caracallas tötete darauf den flüchtenden Attentäter mit seiner Lanze. Die beiden Prätorianertribunen eilten zum Kaiser, als wollten sie ihm helfen, und vollendeten die Mordtat. Mit Caracalla starb die männliche Nachkommenschaft des Dynastiegründers Septimius Severus aus. Erst nach tagelangem Zögern ließen sich die Soldaten überreden, Macrinus am 11. April zum Kaiser auszurufen. Caracalla wurde in Rom im Mausoleum Hadriani beigesetzt. Aussehen und Ikonographie. Nach Herodians Angaben war Caracalla von kleiner Statur, aber robust. Er bevorzugte germanische Kleidung und trug eine blonde, nach germanischer Art frisierte Perücke. Cassius Dio erwähnt, dass der Kaiser gern einen wilden Gesichtsausdruck annahm. Eine Vorstellung von seinem Aussehen und vor allem von dem Eindruck, den er erwecken wollte, vermitteln insbesondere die zahlreichen erhaltenen Plastiken. Auch die Münzbildnisse sind aussagekräftig. Darstellungen des jungen Caracalla sind kaum von denen Getas zu unterscheiden. Zahlreiche Porträts aus der Zeit seiner Alleinherrschaft zeigen den Kaiser mit zusammengezogenen Stirnmuskeln und Augenbrauen; mit der grimmigen Miene sollte seine Willensstärke und Gewaltbereitschaft demonstriert werden. Offenbar zielte diese Selbstdarstellung auf Einschüchterung. Zugleich sollten damit die soldatischen Qualitäten des Kaisers betont werden. Auf Münzen sind mehr Porträttypen unterscheidbar, was an der besseren Fundlage der Münzen gegenüber der Plastik liegen dürfte. Der erste Typ zeigt Caracalla als kindlichen "Caesar" ohne Lorbeerkranz. Es folgen sechs durch den zunehmenden Bartwuchs unterscheidbare Typen aus der Zeit zwischen 197 und der Ermordung Getas Ende 211. Die Münzbildnisse sollten wohl nach dem Willen des Vaters die Ähnlichkeit der beiden Brüder betonen und sie damit als gleichberechtigte künftige Nachfolger präsentieren. Nach Getas Tod folgt zunächst der durch dramatische Stirnfalten charakterisierte achte Porträttyp und schließlich in den letzten Regierungsjahren der neunte und letzte Typ mit entspannteren Gesichtszügen. Diese beiden Typen entsprechen dem ersten bzw. zweiten Alleinherrschertypus der Plastik. Zeitgenössische Urteile und Darstellung in den Hauptquellen. Caracallas Ansehen bei den Soldaten beruhte nicht nur auf seiner finanziellen Großzügigkeit, sondern auch auf seiner Nähe zu ihrer Lebensweise: Auf den Feldzügen nahm er freiwillig die gleichen Strapazen auf sich wie ein einfacher Soldat. Seine körperliche Ausdauer verschaffte ihm Respekt. Noch lange nach seinem Tod hielt seine Beliebtheit im Heer an. Vielleicht schon während der kurzen Herrschaft des Macrinus setzten die Soldaten durch, dass der Senat ihn widerwillig im Rahmen des Kaiserkults zum Gott erhob. Spätestens ab dem ersten Regierungsjahr von Macrinus’ Nachfolger Elagabal wurde er als "divus Magnus Antoninus" verehrt. Elagabal verdankte seinen Aufstieg zur Macht dem Umstand, dass er als unehelicher Sohn Caracallas ausgegeben wurde, was ihm die Sympathie der Soldaten verschaffte; in Wirklichkeit war er nur sehr entfernt mit dem ermordeten Kaiser verwandt. Auch Elagabals Nachfolger Severus Alexander trat als unehelicher Sohn Caracallas auf, um sich bei den Soldaten beliebt zu machen. Die Nachrichten über Caracallas Ansehen in der hauptstädtischen Bevölkerung sind widersprüchlich. Im Senat war er verhasst, daher wurde sein Tod dort bejubelt. Da er sich auf die senatorischen Familien nicht verlassen konnte, stützte er sich auf Aufsteiger ritterlicher Herkunft. Deren Bevorzugung steigerte die Erbitterung der zurückgesetzten Senatoren. Die extrem caracallafeindliche Stimmung in der senatorischen Führungsschicht spiegelt sich in den Hauptquellen, den Darstellungen der zeitgenössischen Geschichtsschreiber Cassius Dio und Herodian, sowie in der weit später entstandenen und als Quelle weniger wertvollen "Historia Augusta". Cassius Dio hielt Caracalla für geistesgestört. Er legte fast alles, was der Kaiser tat, zu dessen Ungunsten aus. Seine "Römische Geschichte", die aus der Perspektive der senatorischen Opposition geschrieben ist, gilt trotz dieser sehr parteiischen Haltung als die beste Quelle und als relativ zuverlässig. Allerdings ist der Caracallas Zeit behandelnde Teil dieses Werks nur fragmentarisch überliefert; er ist hauptsächlich in Auszügen erhalten, die den Text in stark verkürzter Form und teilweise paraphrasierend wiedergeben. Herodians "Geschichte des Kaisertums nach Mark Aurel" ist im Original erhalten. Er hat wahrscheinlich Dios Werk benutzt, doch ist das Verhältnis der beiden Quellen unklar und umstritten. Der Quellenwert von Herodians Darstellung wird wesentlich niedriger veranschlagt als der von Dios "Römischer Geschichte". Die spätantike "Historia Augusta" hängt teilweise von den beiden älteren Werken ab, doch muss ihr Verfasser auch Zugang zu Material aus mindestens einer weiteren, heute verlorenen Quelle gehabt haben. Außerhalb des Kreises seiner Anhänger wurde der Kaiser mit Spitznamen benannt. Wohl erst in der Zeit seiner Alleinherrschaft nannte man ihn nach seinem Kapuzenmantel "Caracalla". Dabei handelte es sich um eine vom Kaiser persönlich entworfene modifizierte Luxusausführung eines keltischen Kleidungsstücks. Ein weiterer Spitzname, den Cassius Dio überliefert, war "Tarautas"; unter diesem Namen war ein kleinwüchsiger, hässlicher und brutaler Gladiator bekannt, der offenbar ähnlich wie der Kaiser aussah, zumindest nach der Ansicht von dessen Gegnern. Antike Caracalla-Legenden. Schon zu Caracallas Lebzeiten kursierten anscheinend Gerüchte über eine sexuelle Beziehung zwischen ihm und seiner Mutter Julia Domna nach dem Tod seines Vaters. Dies war eine Verleumdung, die sich im Lauf der Zeit zu einer Legende auswuchs. Der Chronograph von 354 teilt sie wie eine Tatsache mit. In Wirklichkeit war das Verhältnis zwischen Mutter und Sohn nach dem Mord an Geta schlecht, obwohl Julia Domna offiziell geehrt wurde. Inzest war ein Topos der Tyrannendarstellung und wurde schon Nero unterstellt. Quellen des 4. Jahrhunderts und der Folgezeit, darunter die "Historia Augusta", Aurelius Victor, Eutropius und die "Epitome de Caesaribus", machen aus Julia Domna die Stiefmutter Caracallas und behaupten, er habe sie geheiratet. Diese phantastische Darstellung findet sich auch bei christlichen Autoren der patristischen Zeit (Orosius, Hieronymus) und prägte im Mittelalter das Bild Caracallas als eines hemmungslosen Unholds. Der tatsächlich verübte Brudermord an Geta hingegen geriet in Vergessenheit. Mittelalter. Eine mittelalterliche Caracalla-Legende überliefert Geoffrey von Monmouth, der im 12. Jahrhundert das Geschichtswerk "De gestis Britonum" verfasste, das später unter dem Titel "Historia regum Britanniae" bekannt wurde und eine sehr starke Nachwirkung erzielte. Nach Geoffreys Darstellung waren Geta und Caracalla, den er Bassianus nennt, nur Halbbrüder; Geta stammte von einer römischen Mutter, Caracalla von einer britischen. Caracalla wurde von den Briten, da er mütterlicherseits zu ihnen gehörte, zum König gewählt, Geta von den Römern. Es kam zur Schlacht, in der Caracalla siegte und Geta fiel. Später wurde Caracalla von Carausius besiegt und getötet. In dieser Darstellung vermischte Geoffrey verschiedene Epochen, denn in Wirklichkeit war Carausius ein römischer Befehlshaber, der sich 286 zum Kaiser ausrufen ließ und ein kurzlebiges Sonderreich in Britannien und nördlichen Küstengebieten Galliens begründete. Frühe Neuzeit. Um die Wende vom 16. zum 17. Jahrhundert verfasste ein unbekannter englischer Dichter das lateinische Universitätsdrama "Antoninus Bassianus Caracalla" in jambischen Senaren. Er thematisierte neben dem Brudermord insbesondere die angebliche Ehe Caracallas mit Julia Domna, wobei er Julia nicht als Stiefmutter, sondern als leibliche Mutter Caracallas darstellte. Er schilderte also die Verbindung als wirklichen Inzest. Im Jahr 1762 fertigte der französische Maler Jean-Baptiste Greuze ein Ölgemälde an, das Septimius Severus und Caracalla in Britannien zeigt. Der Kaiser wirft seinem Sohn vor, er habe versucht ihn zu ermorden. Die Szene fußt auf einer von Cassius Dio mitgeteilten legendenhaften Überlieferung, der zufolge Caracalla nach einem Attentatsversuch auf seinen Vater zur Rede gestellt, aber nicht bestraft wurde. Moderne. Die Einschätzungen der modernen Historiker orientieren sich generell – trotz Kritik an Einzelheiten der Überlieferung – weitgehend am Caracallabild der antiken Geschichtsschreibung. In der älteren Forschung pflegte man in Caracalla einen typischen Repräsentanten einer Verfallszeit zu sehen. Cassius Dios nicht überprüfbare Behauptung, der Kaiser sei geisteskrank gewesen, wirkt bis in die Gegenwart nach. Das früher populäre Schlagwort Cäsarenwahnsinn wird aber in der Fachliteratur vermieden, da es unwissenschaftlich ist und zur Erhellung der historischen Realität nichts beiträgt. Zwei führende Kunsthistoriker des 19. Jahrhunderts, Anton Springer und Jacob Burckhardt, meinten aus Caracallas Porträt einen zutiefst verbrecherischen Charakter herauslesen zu können. Für Theodor Mommsen war Caracalla „ein geringfügiger, nichtswürdiger Mensch, der sich ebenso lächerlich wie verächtlich machte“; zum Partherkrieg habe ihn seine „wahnsinnige Ruhmsucht“ veranlasst und dabei sei er „glücklicherweise“ ums Leben gekommen. Ernst Kornemann schrieb, er sei „voll Größenwahnsinn“ gewesen; im Heer und im Staate habe überall „der gemeine, unwissende Haufe“ geherrscht. Alfred Heuß meinte, Caracalla sei zu „sachlichen Leistungen“ unfähig gewesen, „ein roher, hemmungsloser und moralisch minderwertiger Mensch, der schon vor der Thronbesteigung stark verbrecherische Neigungen verriet“; zum Partherkrieg sei er von seiner „kindischen Phantasie“ veranlasst worden. Ähnlich ist das Urteil von Karl Christ ausgefallen: Caracalla habe seine „Grausamkeit, Hinterlist und innere Labilität“ nicht verborgen, habe an einer Nervenkrankheit gelitten und „in jeder Beziehung extrem und überreizt“ reagiert. Er sei „brutal, von unheimlicher Willenskraft“ gewesen; in den überlieferten Anekdoten habe sich „wohl die historische Wahrheit verdichtet“. Mit seiner Selbstdarstellung habe er vor allem Furcht erregen wollen. Die "Constitutio Antoniniana" erscheine zwar aus dem Rückblick als bedeutende Maßnahme, habe aber politisch an den bereits vorhandenen Strukturen kaum etwas geändert. Géza Alföldy war der Ansicht, das Urteil Cassius Dios sei „im Grunde genommen richtig“, eine „Ehrenrettung“ Caracallas entbehre jeder Grundlage. "Caracalla and Geta", Ölgemälde von Lawrence Alma-Tadema (1907). Geta steht vorn zwischen den Frauen, Caracalla hinter dem sitzenden Kaiserpaar. In der neueren Forschung wird allerdings auch betont, dass die zeitgenössischen erzählenden Quellen von leidenschaftlichen Gegnern des Kaisers stammen und die Haltung der oppositionellen Senatskreise spiegeln und dass bei den Schilderungen seiner Missetaten, seiner abstoßenden Charakterzüge und seiner Unbeliebtheit mit Übertreibungen zu rechnen ist. Es wird darauf hingewiesen, dass Caracalla bei großen Teilen der Reichsbevölkerung möglicherweise weniger verhasst war als bei der hauptstädtischen Oberschicht. Unstrittig ist, dass er bei den Soldaten sogar lange über seinen Tod hinaus in höchstem Ansehen stand. Anthony R. Birley meint, man müsse zwar die Voreingenommenheit Cassius Dios in Rechnung stellen, doch lasse sich wenig zur Entlastung Caracallas vorbringen. 1907 vollendete Lawrence Alma-Tadema nach fast zweijähriger Arbeit das Ölgemälde „Caracalla and Geta“. Es zeigt die kaiserliche Familie – Caracalla mit seinem Bruder und seinen Eltern – im Kolosseum. Curl (Programmiersprache). Curl ist eine Multiparadigmen-Programmiersprache, die entwickelt wurde, um bessere Internetanwendungen schreiben zu können. Es fließen Elemente aus Markupsprache, Skript- und objektorientierter Sprache ein. Curl wird seit 1995 entwickelt. Die erste öffentliche Version erschien im Jahr 2000. Inzwischen liegt Curl in der Version 11.0 vor und wird von den Mitarbeitern der Firma "Curl, Inc." weiterentwickelt. "Curl, Inc." ist eine hundertprozentige Tochter des japanischen Unternehmens "Sumisho Computer Systems". Curl-Anwendungen gehören in der Regel zur Gruppe der Rich Internet Applications. Anwendungen, die direkt aus dem Internet geladen oder lokal installiert wurden, werden in der gleichen sicheren Sandbox ausgeführt. Sie können online oder offline ausgeführt werden. Es wird ein Plug-In (Curl Surge RTE) benötigt, das auf der Webseite des Herstellers zum Herunterladen zur Verfügung gestellt wird. Außerdem stellt das Unternehmen einen Curl-Editor (Curl Surge Lab IDE) für die Programmierung zur Verfügung, der eine umfangreiche Dokumentation in englischer Sprache enthält. Curl ist nicht zu verwechseln mit dem gleichnamigen cURL, einem Download-Manager. Charles Babbage. Charles Babbage (* 26. Dezember 1791 in Walworth, Grafschaft Surrey, England; † 18. Oktober 1871 in London) war ein englischer Mathematiker, Philosoph, Erfinder und Politischer Ökonom. Die von ihm entworfene mechanische Rechenmaschine Analytical Engine gilt als Vorläufer des modernen Computers. Leben. Der aus zwei alten Familien aus Devonshire stammende Babbage begann im Jahr 1810 ein Studium am Trinity College in Cambridge; Schwerpunkte waren Mathematik und Chemie. 1812 gründete er zusammen mit John Herschel die "Analytical Society", deren Ziel die Reformierung der britischen Mathematik und die Verbreitung fortschrittlicher Methoden vom europäischen Festland (wie etwa des Leibnizschen Differentialkalküls) ist. 1814 machte er seinen Abschluss am Peterhouse in Cambridge. Am 2. Juli desselben Jahres heiratete er Georgiana Whitmore. Im Jahre 1815 hielt Babbage eine Vorlesungsreihe über Astronomie an der Royal Institution, am 14. März 1816 ernannte man ihn für seine Verdienste auf dem Gebiet der Mathematik zum Mitglied der "Royal Society" und 1817 erreichte er den Magister der Philosophie. 1820 wurde er auch zum Fellow der "Royal Society of Edinburgh". Im gleichen Jahr gründete Babbage zusammen mit John Herschel und George Peacock die "Royal Astronomical Society", deren Schriftführer er bis 1824 wurde. Erster Präsident wurde Sir William Herschel. Bis 1822 hatte Babbage ein funktionierendes Modell einer Rechenmaschine fertiggestellt, mit Unterstützung der britischen Regierung begann 1823 die Arbeit an der "difference engine no.1". 1826 veröffentlichte Babbage eine Schrift, in der er das Geschäft mit Lebensversicherungen mit Hilfe von Sterbetabellen auf eine statistische Grundlage stellte. Nach dem Tod des Vaters Benjamin Babbage (1753–1827) (wodurch Charles Babbage zu einem Erbe kam, welches ihm für den Rest seines Lebens ein sicheres Auskommen garantierte), zweier Söhne und der Ehefrau innerhalb von sieben Monaten trat er 1827 eine einjährige Europareise durch die Niederlande, Deutschland, Österreich und Italien an. Unter anderem bestieg er dabei den Krater des damals aktiven Vesuvs, traf mehrere Mitglieder der Familie Bonaparte, untersuchte den Serapistempel in Pozzuoli und besuchte Alexander von Humboldt in Berlin. Nach seiner Rückkehr war er bis 1834 politisch aktiv und unterstützte mit mäßigem Erfolg mehrere liberale Lokalpolitiker. Babbage wurde 1828 Professor für Mathematik am Lucasischen Lehrstuhl für Mathematik an der Universität Cambridge (bis 1839), hielt aber keine Vorlesungen. Sein Bericht "Reflections on the decline of science in England, and on some of its causes" von 1830, in denen sich seine Unzufriedenheit mit dem Zustand der "Royal Society" widerspiegelte, führte 1831 zur Gründung der "British Association for the Advancement of Science". Sein Buch "On the Economy of Machinery and Manufactures" erschien 1832. Dieses ist eine Analyse der Technologie und Organisation des Industriekapitalismus seiner Zeit, in der er unter anderem über die Senkung von Lohnkosten durch die Aufspaltung eines Arbeitsprozesses in unterschiedlich anspruchsvolle Teilprozesse schrieb, was heute auch als „Babbage-Prinzip“ bekannt ist. Im selben Jahr wurde ein erstes Modul der "difference engine" aus etwa 2.000 von insgesamt projektierten 25.000 Teilen durch den Feinmechaniker Joseph Clement fertiggestellt. 1832 wurde Babbage in die American Academy of Arts and Sciences gewählt. Im Jahr 1833 begann er die Arbeit an der "analytical engine" auf eigene Kosten. 1834 gründete er die Gesellschaft für Statistik in London. 1842 stellte die britische Regierung das Projekt "difference engine no.1" endgültig ein, 1846 beendete Babbage die Entwicklung der "analytical engine". Ab 1847 arbeitete er an detaillierten Plänen für eine "difference engine no.2" (bis etwa 1849), die mit bedeutend weniger Bauteilen als "no.1" auskam. 1854 gelang Babbage als Erstem die Entschlüsselung einer Vigenère-Chiffre, indem er beschrieb, wie man den passenden Schlüssel aus dem chiffrierten Text filtert. Er veröffentlichte sein Verfahren jedoch nie, so dass Wissenschaftler auf seine Erkenntnisse erst nach seinem Tod aufmerksam wurden. 1824 wurde er mit der Goldmedaille der Royal Astronomical Society ausgezeichnet. 1830 wurde er zum auswärtigen Mitglied der Bayerischen Akademie der Wissenschaften ernannt. Nach ihm wurde der Asteroid (11341) Babbage benannt. Zitate. „"Eines Abends saß ich in den Räumen der Analytischen Gesellschaft in Cambridge, den Kopf in einer Art Wachtraum auf den Tisch gestützt und eine Logarithmentafel aufgeschlagen vor mir. Ein anderes Mitglied kam in den Raum, sah mich im Halbschlaf, und rief: 'Babbage sag, wovon träumst du?', worauf ich erwiderte: 'Ich denke daran, dass all diese Tafeln (worauf ich auf die Logarithmen deutete) von einer Maschine berechnet werden könnten."“ Wissenschaftliches Werk. Babbage entwickelte mit der "difference engine" und der "analytical engine" zwei mechanische Rechenmaschinen, von denen er zu Lebzeiten zwar kein funktionstüchtiges Exemplar fertigstellen konnte, deren letztere aber als Vorläufer des modernen Computers gilt. Seine Interessen und Aktivitäten gehen aber weit über die Pionierleistung auf diesem Gebiet hinaus. Seine unter dem Titel "Economy of machinery and manufactures" erschienene Analyse des Fabrikkapitalismus wurde eine wichtige Quelle für Karl Marx, der dieses Buch umfassend rezipierte. Nach Babbage ist das Babbage-Prinzip benannt, das sich mit Lohnkosten befasst. Er stellte das Lebensversicherungsgeschäft auf eine mathematische Grundlage, beschäftigte sich mit Kryptologie, der Navigation von Unterwasserfahrzeugen und stellte eine Theorie zur Gletscherbildung auf. Zu seinen zahlreichen Erfindungen neben den Rechenmaschinen gehört auch der Augenspiegel (Ophthalmoskop), den er unabhängig von Helmholtz entwickelte, und ein an der Stirnseite von Lokomotiven befestigter Schienenräumer, der „Kuhfänger“. Ebenso erkannte er, dass die Breite des Jahresringes eines Baumes vom Wetter beeinflusst wird und somit Rückschlüsse auf das Klima vergangener Zeiten zulässt. Der Anlass zur Entwicklung von Rechenautomaten war für den Mathematiker Babbage die mangelnde Zuverlässigkeit numerischer Tabellen mathematischer Funktionen, die damals z. B. für die Schiffsnavigation erstellt wurden und bei deren Berechnung häufig Fehler auftraten. Er ging dieses Problem mit den Methoden der Industrialisierung an: Teilung der Arbeit in Einzelschritte (Algorithmisierung) und deren Übertragung auf Maschinen (Automatisierung). Er wusste durch die Verfahren des Franzosen Gaspard de Prony, der nach der Französischen Revolution beauftragt worden war, mathematische Tafeln im neuen Dezimalsystem zu berechnen, dass auch solche geistig-intellektuellen Aufgaben wie manuelle Tätigkeiten durch Arbeitsteilung effektiv organisiert werden können. Babbage nahm sich zum Ziel, auch den zweiten Schritt zu vollziehen und Maschinen zu konstruieren, die die Arbeitsschritte automatisch ausführen. Seine Rechenmaschine wurde von Federico Luigi Menabrea beschrieben und in englischer Übersetzung von Ada Lovelace, die von Babbage gefördert wurde, mit Anmerkungen versehen. Beide Schriften gelten als frühe Pionierwerke zur Programmierung. Sonstiges. Charles Babbages "Difference Engine" wurde zu seinen Lebzeiten nie fertig. Erst zwischen 1989 und 1991 wurde im Londoner Science Museum die "Difference Engine No. 2" funktionsfähig nachgebaut. Später haben auch Bastler diese Maschine mit modernen, präzisen Spielzeugbausätzen wie Lego und Meccano nachgebaut. Britische Forscher wollen mit Hilfe von Babbages Entwürfen auch die "analytical engine" in einem auf zehn Jahre berechneten Projekt nachbauen und damit auf ihre Funktionstüchtigkeit prüfen. Babbage beschäftigte sich 1830 in „"Reflections on the Decline of Science in England"“ mit wissenschaftlichem Betrug. Er fasste zusammen, wie Forschungsresultate geschönt werden mittels Charles Babbage vermachte sein Gehirn der Wissenschaft. Es ist heute in einem Glas neben dem Nachbau seiner Maschinen im Science Museum in London ausgestellt. Clyde Tombaugh. Clyde William Tombaugh (* 4. Februar 1906 in Streator, Illinois; † 17. Januar 1997 in Las Cruces, New Mexico) war ein US-amerikanischer Astronom. Er ist der Entdecker des Zwergplaneten Pluto (1930), der bis 2006 als neunter Planet des Sonnensystems galt. Leben. Tombaugh wurde als Sohn einer Familie von Landwirten geboren. Seine Hoffnungen, das College von Streator zu besuchen, wurden zerschlagen, als ein Hagelsturm das Anwesen der Eltern zerstörte. Die Familie zog 1922 nach Kansas um und baute sich nahe der Ortschaft Burdett eine neue Existenz auf. Der junge Clyde lernte auf eigene Faust und brachte sich Geometrie und Trigonometrie bei. Im Alter von 20 baute er sein erstes Teleskop. Er beobachtete den Mars und den Jupiter und sandte Zeichnungen seiner Beobachtungen an das Lowell-Observatorium in Flagstaff (Arizona). Eigentlich bat er nur um Hilfe und Anregungen, aber Vesto M. Slipher, der Direktor von Lowell, bot ihm 1929 eine Position als Forschungsassistent ("junior astronomer"). Tombaugh akzeptierte und blieb für 14 Jahre dort. Am 18. Februar 1930 machte er die Entdeckung seines Lebens, indem er ein bewegtes Objekt als das lange gesuchte trans-neptunische Objekt erkannte. Es war die insgesamt dritte, noch 1916 von Sir Percival Lowell finanzierte systematische Suchaktion. Der unbekannte Himmelskörper wurde später nach dem römischen Gott der Unterwelt Pluto benannt, der sich unsichtbar machen konnte (entscheidend sollen auch Lowells Initialen PL gewesen sein). In den Folgejahren entdeckte Tombaugh Hunderte neuer Asteroiden und zwei neue Kometen. Am 18. Februar 1980 wurde der Asteroid (1604) Tombaugh nach ihm benannt. Die Aberkennung des Planetenstatus von Pluto im Jahr 2006 erlebte Tombaugh nicht mehr. a>s verglich Tombaugh die Fotoplatten bei der Entdeckung von Pluto. Tombaugh hatte 1925 die Burdett High School abgeschlossen und konnte schließlich 1932 mit einem Stipendium sein Astronomiestudium an der University of Kansas aufnehmen. 1936 erwarb er ein Bachelor- und 1938 ein Master-Diplom. Ab 1943 war er Dozent für Physik am Arizona State Teachers College, der heutigen Northern Arizona University, und war später Ausbilder für Navigationsaufgaben. 1945 arbeitete er als Gastprofessor für Astronomie an der University of California, Los Angeles. Aus Geldmangel konnte er nach dem Zweiten Weltkrieg seine alte Stelle am Lowell-Observatorium nicht wieder aufnehmen. Stattdessen entwickelte er ab 1946 an den White Sands Proving Grounds optische Bahnverfolgungsteleskope für die A4-Raketen, die dort getestet wurden. 1955 wechselte er an die New Mexico State University in Las Cruces, wo er das Astronomy Department aufbaute und bis zu seiner Emeritierung im Jahr 1973 Astronomie lehrte. Am 19. Januar 2006 startete die Raumsonde New Horizons zur Erforschung des Zwergplaneten Pluto. Mit an Bord befindet sich auch Asche von Clyde Tombaugh. Tombaugh war seit 1934 mit Patricia (Patsy) Edson (1912–2012) verheiratet. Aus der Verbindung gingen zwei Kinder hervor. Christentum. Das Christentum ist eine Weltreligion, die aus dem Judentum hervorging. Ihre Anhänger werden "Christen" genannt, die Gesamtheit der Christen wird auch als die Christenheit bezeichnet. Von zentraler Bedeutung für das Christentum ist Jesus von Nazareth, ein jüdischer Wanderprediger, der etwa in den Jahren 28–30 unserer Zeitrechnung auftrat und in Jerusalem hingerichtet wurde. Seine Jünger erkannten in ihm nach seiner Kreuzigung und Auferstehung den Sohn Gottes und den vom Judentum erwarteten Messias. In ihren Bekenntnissen nennen sie ihn "Jesus Christus". Der Glaube an ihn ist in den Schriften des Neuen Testaments grundgelegt. Die weitaus meisten Christen glauben an "einen" Gott (Monotheismus) als eine Dreifaltigkeit, das heißt eine Wesenseinheit aus Vater, Sohn und Heiligem Geist. Daneben existieren innerhalb des Christentums kleinere antitrinitarische Gruppierungen. Die zahlreichen Konfessionen bzw. Kirchen innerhalb des Christentums lassen sich in vier Hauptgruppen zusammenfassen: die römisch-katholische Kirche, die orthodoxen Kirchen, die protestantischen und die anglikanischen Kirchen. Mit rund 2,26 Milliarden Anhängern ist das Christentum vor dem Islam (rund 1,57 Milliarden) und dem Hinduismus (rund 900 Millionen) die am weitesten verbreitete Religion weltweit. Bezeichnung. Der Begriff „Christentum“ (von griech. Χριστιανισμός, "Christianismós") wird erstmals in einem Brief des syrischen Bischofs Ignatius von Antiochia im 2. Jahrhundert erwähnt und ist den älteren Begriffen Ἰουδαισμός ("Ioudaismós", Judentum) und Ἑλληνισμός ("Hellēnismós", Griechentum) nachgebildet. Nach der Apostelgeschichte wurden die Jünger Jesu Christi zuerst von den Bewohnern der zum Römischen Reich gehörenden syrischen Stadt Antiochia am Orontes Χριστιανόι ("Christianói", Christen) genannt, in welche die Christen nach den ersten Verfolgungen in Palästina geflohen waren. Man sah offenbar das Christusbekenntnis der Anhänger Jesu als charakteristisch für ihren Glauben an. Die Christen übernahmen diese Bezeichnung bald auch für sich selbst (vgl.,). Das deutsche Wort "Kristentûm" ist erstmals bei Walther von der Vogelweide belegt. Ursprung. Die Wurzeln des Christentums liegen im Judentum im römisch beherrschten Israel zu Beginn des 1. Jahrhunderts. Es geht zurück auf die Anhänger des jüdischen Wanderpredigers Jesus von Nazaret. Mit dem Judentum ist das Christentum insbesondere durch den ersten Teil seiner Bibel, das Alte Testament, verbunden, das den jüdischen heiligen Schriften des Tanach entspricht. Ohne das Alte Testament wäre der christliche Glaube geschichtslos und bliebe unverständlich. Christen lesen die Texte des Alten Testaments allerdings von Jesus Christus her und auf ihn hin (christologische Interpretation). Das Christentum verbreitete sich in kurzer Zeit im Mittelmeerraum. Dabei übte der Hellenismus erheblichen Einfluss auf das christliche Denken aus. Selbstverständnis. Der Kern der christlichen Religion rührt nach ihrem Selbstverständnis aus der bedingungslosen Liebe Gottes gegenüber den Menschen und der gesamten Schöpfung. In dieser Liebe, in der sich Gott in der Gestalt des Menschen Jesus von Nazaret offenbart und selbst erschließt, wird die Beziehung Mensch-Welt-Gott geklärt. Sie betrifft alle Daseinsbereiche des Menschen und alle Dimensionen des Menschseins. Die Heilszusage gilt den Menschen aller Nationen, unabhängig von Rassen- oder Klassenzugehörigkeit, Geschlecht oder gesellschaftlicher Stellung (vgl.). Das Christentum versteht sich somit als universale Religion und gleichzeitig als der unüberbietbare Ort, an dem sich Gott den Menschen in der Geschichte zugewandt hat und erfahrbar ist. Diesem Verständnis bzw. dem Sendungsauftrag Christi entspricht der missionarische Charakter des Christentums. Lehre. Jesus ist nach christlichem Glaubensverständnis zugleich "wahrer Gott und wahrer Mensch". Die christliche Lehre, die auf dem biblischen Zeugnis basiert, hat folgenden zentralen Inhalt: Gott wandte sich in der Menschwerdung ("Inkarnation") in seinem Sohn Jesus Christus der in Sünde verstrickten Menschheit zu; der Tod Jesu Christi am Kreuz bewirkte die Erlösung durch Beseitigung von Schuld und Sünde der Menschheit. Die Glaubensgewissheit lag für die ersten Christen in den Ereignissen zu Ostern begründet, dem dritten Tag nach der Kreuzigung Jesu. Damals – so die Überzeugung der Christen – bewirkte Gott an Jesus als erstem von allen Menschen die Auferstehung bzw. Auferweckung und bestätigte somit die Botschaft Jesu vom kommenden Reich Gottes. Die Anhänger Jesu machten die Erfahrung, dass ihnen der auferstandene Jesus erschien und seine bleibende Gegenwart zusagte. Auf diese Oster- bzw. Auferstehungserfahrung gründet sich die christliche Gemeinschaft (Kirche), die an Pfingsten durch den Heiligen Geist die Befähigung zur Erfüllung des Missionsauftrags erhielt. Dieser Glaube wurde, zusammen mit der Erinnerung an das Wirken Jesu von Nazaret als dem Verkünder der Botschaft Gottes, in Form von gottesdienstlichen Hymnen sowie Bekenntnisformeln ausgedrückt und in Predigten entfaltet. Kern des Bekenntnisses waren auf Jesus übertragene, zum Teil alttestamentliche Hoheitstitel wie „Herr“, Gesalbter (griech. "Christus", hebr. "Messias"), „Sohn Gottes“ und andere (Benedikt XVI.: „erneuerte jüdische Tora“). Schrittweise entstanden die Schriften des Neuen Testaments, die im Laufe der ersten Jahrhunderte – gemeinsam mit der Bibel der Juden – im Biblischen Kanon festgehalten sowie bewahrt wurden – als einheitliche Grundlage der christlichen Lehre. In Bezug auf die Anerkennung der weiteren Lehrentwicklung gibt es konfessionelle Unterschiede. Verbreitung. Länder, in denen das Christentum die am meisten verbreitete Religion ist, sind violett (katholisch), blau (protestantisch) oder pink (orthodox) gekennzeichnet. Das Christentum ist die zahlenmäßig bedeutendste Weltreligion, der schätzungsweise ungefähr ein Drittel aller Menschen auf der Welt angehören. Die meisten staatlichen Statistiken werden auf Selbstbezeichnungen der einzelnen Staatsbürger oder Hochrechnungen zurückzuführen sein, manchmal auch auf amtliche Listen. In vielen Ländern der Erde werden Christen verfolgt, so dass von dort nur ungewisse Zahlen vorliegen. Oben angeführt sind die Bevölkerungszahlen der UNO von 1998. Zahlen über Religionszugehörigkeit aus Gebet für die Welt, Ausgabe 2003 (siehe unten). Die Daten stammen aus den Jahren 1998–2000. Die Wachstumsraten betreffen das durchschnittliche Wachstum von 1995 bis 2000, beruhen jedoch zum Teil auf einem Wechsel der Datenbasis. Das Christentum wächst heute in den meisten Erdteilen der Welt sehr stark, wobei sich sein Wachstum vom „alten“ Kontinent Europa hin zu den „neuen“ Erdteilen verschiebt; besonders stark wächst es in Asien und Afrika. Dieses Wachstum verteilt sich gleichermaßen auf die katholische Kirche, evangelikale Gemeinschaften und Kirchen der Pfingstbewegung. Der Anteil der Lutheraner geht somit langsam zurück. In Europa kann man aufgrund des allgemeinen Geburtenrückganges und der Kirchenaustritte bei gleichzeitiger Migration einen Rückgang der Gesamtzahl der Christen verzeichnen. Zusammenhalt, Organisation und Richtungen. a>. Das „X“ und das „P“ sind die beiden griechischen Buchstaben Chi und Rho und die beiden Anfangsbuchstaben von Christus. Die gesamte Christenheit wird als Ekklesia angesehen, als Leib Christi mit Christus als Haupt. Jeder einzelne Christ stellt ein Glied dieses mystischen Leibes dar. Manche christlichen Theologen unterscheiden zwischen der „unsichtbaren Kirche“, die alle gläubigen Christen aller Konfessionen umfasst, und der sichtbaren Kirche, deren Mitglieder mehr oder weniger gläubig sein können. Innerhalb des Christentums entstanden bald mehrere Gruppierungen bzw. Strömungen, manchmal durch politische Motive oder geographische Gegebenheiten, aber auch durch abweichende Lehrmeinungen. Grob lassen sich diese Richtungen nach ihren Merkmalen in Konfessionen und Denominationen einteilen. Zu einer Konfession oder Denomination gehören eine oder mehrere Kirchen oder Gemeinden. Der einzelne Christ ist Mitglied einer bestimmten Kirche oder Gemeinde. Neben den Konfessionen gibt es auch konfessionsübergreifende theologische Richtungen, beispielsweise liberal, evangelikal oder charismatisch. Viele Kirchen stehen in einer mehr oder weniger lockeren Gemeinschaft mit anderen Kirchen, die in beiderseits anerkannten Lehren begründet ist, ohne deshalb ihre spezifischen Lehren und ihr Brauchtum aufzugeben. Beispiele für solche Gemeinschaften sind der Ökumenische Rat der Kirchen, die Evangelische Allianz und die Leuenberger Konkordie. Daneben gibt es auch Kirchengemeinschaften, die die vollständige gegenseitige Anerkennung von Sakramenten, Kirchenmitgliedschaft und Ämtern beinhalten. Beispiele für solche Kirchengemeinschaften sind die Anglikanische Gemeinschaft, die orthodoxen Kirchen und die evangelischen Unierten Kirchen. Historische Entwicklung. In der antiken Welt gab es fünf christliche Patriarchate, denen jeweils die lokalen Metropoliten, Erzbischöfe und Bischöfe unterstellt waren: Rom, Konstantinopel, Alexandria, Antiochia und Jerusalem. Sollte über wesentliche Lehrfragen entschieden werden, wurde ein Konzil (eine Versammlung von Bischöfen) einberufen. Das höchste Ansehen genossen die ökumenischen Konzile, in denen Bischöfe aus allen Patriarchaten zusammenkamen. Mehreren Konzilien, die sich selbst als „ökumenisch“ betrachteten, wurde dieser Status wegen mangelnder Zustimmung der Ortskirchen allerdings später aberkannt. Insgesamt gab es zwischen den Jahren 321 und 787 sieben ökumenische Konzile, die bis heute von der katholischen, den orthodoxen, den anglikanischen und den meisten evangelischen Kirchen anerkannt werden; einige protestantische Kirchen lehnen allerdings das Zweite Konzil von Nicäa wegen seiner Aussagen über die Bilderverehrung ab. Zu einer ersten Spaltung kam es 431 n. Chr. nach dem Konzil von Ephesos (Abspaltung der Apostolischen Kirche des Ostens („Nestorianer“)). Auf dem folgenden ökumenischen Konzil von Chalcedon wurde die Natur Christi als zugleich menschlich und göttlich definiert. Die miaphysitischen Kirchen, zu denen unter anderen die koptische Kirche und die syrisch-orthodoxe Kirche gehören, betonen die Einigung (Enosis) der menschlichen und der göttlichen Natur Christi und lehnen die Lehre eines „zweifachen Christus“ ab, wie er im extremen Dyophysitismus vertreten wird. Die Reichskirche rezipierte die gemäßigte Zwei-Naturen-Lehre des Chalcedonense, so dass sie Bestandteil der Dogmatik der meisten heute existierenden Konfessionen ist. In den folgenden Jahrhunderten vertiefte sich in der Reichskirche die Entfremdung zwischen der östlichen und westlichen Tradition bis zum Bruch. Die westliche Tradition entwickelte sich in der Spätantike und im frühen Mittelalter im weströmischen Reich, während die östliche Tradition in Konstantinopel, Kleinasien, Syrien und Ägypten entstand (Byzantinisches Reich). Die eigentlich dogmatischen Unterschiede bleiben zwar gering, aber die lateinische Kirche hatte in dieser Zeit Lehren entwickelt, die nicht von ökumenischen Konzilien abgesegnet worden waren (z. B. Erbsündenlehre, Fegefeuer, Filioque, päpstlicher Primat des Papstes). Weitere Unterschiede bestanden seit langem bezüglich politischer Umgebung, Sprache und Fragen des Ritus und der Liturgie (Samstagsfasten, Azyma). Die Situation spitzte sich im 11. Jahrhundert zu, so dass es 1054 zu einer gegenseitigen Exkommunikation zwischen dem Papst und dem Patriarchen von Konstantinopel kam. Dieses Datum gilt üblicherweise als Beginn des morgenländischen Schismas. Die Westkirche erfuhr durch die Reformation des 16. Jahrhunderts eine tiefgreifende Spaltung. Die Anliegen der Reformatoren betrafen vor allem das Kirchen- und Sakramentenverständnis und die Rechtfertigungslehre. Die reformatorische Bewegung führte zu mehreren parallelen Kirchenbildungen, von denen sich im weiteren Verlauf neue Gruppierungen lösten, die in den folgenden Jahrhunderten zum Teil zu Kirchengemeinschaften zusammenfanden. Nach ersten Ansätzen im 19. Jahrhundert (z. B. Bonner Unionskonferenzen) kam es im 20 Jahrhundert zu einer Annäherung zwischen den Konfessionen und zu Formen des Dialogs und der Zusammenarbeit, die sich unter dem Stichwort ökumenische Bewegung zusammenfassen lassen. So sehen sich heutzutage Kirchen, die die zentralen Elemente der christlichen Lehre bejahen, als Schwesterkirchen, oder sie engagieren sich in ökumenischen Foren, wie beispielsweise dem Weltkirchenrat oder der Arbeitsgemeinschaft Christlicher Kirchen in Deutschland. Östliche Tradition. Der hl. Apostel Andreas errichtet ein Kreuz auf der Anhöhe von Kiew Die Patriarchate von Konstantinopel, Alexandria, Antiochia und Jerusalem und einige seither neu dazugekommene nationale Kirchen, haben bis heute die gleiche Theologie und Spiritualität, die sich kaum verändert hat, und sehen sich als Teil der ursprünglichen, von Christus gegründeten Kirche. Allen ist gemeinsam, dass sie die Liturgie in der jeweiligen Landessprache feiern. Die größte orthodoxe Kirche ist heute die russisch-orthodoxe Kirche. Faktisch hat seit dem Untergang des Weströmischen Reiches der Patriarch von Konstantinopel den Ehrenvorrang unter den orthodoxen Patriarchen inne. Heute haben die orthodoxen Patriarchate oft auch Kirchen im Ausland, die ihnen unterstellt sind. Es gibt signifikante Unterschiede zwischen den orthodoxen und den westlichen Kirchen – dazu gehören z. B. der Stellenwert des Heiligen Geistes im Hinblick auf die Heiligung der Gläubigen und der zu konsekrierenden Materie, die Spiritualität, die Ikonen und die Lehre von der Kirche. Die orthodoxen Kirchen haben ihre historischen Schwerpunkte in Südost-, und Osteuropa, im Nahen Osten, in Indien und in Nordostafrika und sind heute als Auswandererkirchen in allen Teilen der Welt zu finden. Orthodoxe Christen erkennen dem Bischof von Rom einen Ehrenvorrang im Rahmen der Pentarchie zu, sofern darunter nicht ein juristischer Primat verstanden wird. Dazu bedarf es, dass der Papst rechtgläubig im Sinne der Orthodoxie ist und er sich als „primus inter pares“ sieht. In den orthodoxen Kirchen werden die drei Sakramente der Eingliederung (Taufe, Myronsalbung und Erstkommunion) in einer einzigen Feier gespendet. Der Zölibat ist in den orthodoxen Kirchen wie auch in den mit Rom unierten katholischen Ostkirchen nur für das Bischofsamt, für Ordensleute und geweihte Jungfrauen vorgeschrieben. Die Lehre basiert auf dem Verständnis, dass die Tradition unter der Führung des Heiligen Geistes fortschreiten kann, wobei eine „traditio constitutiva“ (unveränderbar) und eine „traditio divino-apostolica“, zu denen die Adiaphora zählen, zu unterscheiden ist. Die Orthodoxie beschränkt die „traditio constitutiva“ auf die von ihnen anerkannten ökumenischen Konzilien. Westliche Tradition. Ab der Spätantike entwickelte sich die Lehre, dass der Bischof von Rom eine Autorität besitzt, die direkt auf den Apostel Petrus zurückgeführt werden kann und die ihn zum Stellvertreter Christi und damit Inhaber des obersten Jurisdiktions-, Lehr- und Hirtenamts in der christlichen Kirche macht. Diese Lehrmeinungen (Unfehlbarkeit des Papstes bei ex cathedra verkündeten Glaubensaussagen und dessen Jurisdiktionsprimat über die Gesamtkirche) wurde während des Ersten Vatikanischen Konzils 1870 mit der dogmatischen Konstitution Pastor Aeternus zu verbindlichen Glaubenssätzen erhoben. Um die Mitte des zweiten Jahrtausends entwickelte sich an verschiedenen Orten in Europa (Martin Luther und Ulrich Zwingli im deutschen Sprachraum, Johannes Calvin im französischen, und Thomas Cranmer im englischen) aus Protest gegen Missbräuche in der katholischen Kirche die Reformation. Nach der Reformation war die westliche Kirche weiter in eine römische Tradition (die in der Reformation zu Rom hielt) und eine reformatorische Tradition (die sich von Rom löste) gespalten. Nach dem Ersten Vatikanischen Konzil trennten sich die Unfehlbarkeitsgegner von Rom bzw. wurden exkommuniziert und bildeten fortan eigene altkatholische Kirchen, die sich in der Utrechter Union der Altkatholischen Kirchen zusammenschlossen. Weil ihre historische Tradition zwischen dem 16. und dem 19. Jahrhundert der römisch-katholischen Kirche parallel lief, sie aber gemäß ihrem Selbstverständnis eine reformorientierte Ausrichtung haben, die sie in Kirchengemeinschaft mit den Anglikanern und in ökumenische Verbundenheit zum Protestantismus gebracht hat, ist ihre Klassifizierung schwierig. Römisch-katholische Tradition. Heilige Messe am Fest Mariä Himmelfahrt in Villafranca de la Sierra (Spanien) Der römisch-katholischen Kirche gehören weltweit etwa 1,1 Milliarden Gläubige an. Nach ihrem Verständnis ist die „eine heilige katholische Kirche“ (Nicäno-Konstantinopolitanisches Glaubensbekenntnis) das wandernde „Volk Gottes“, das unter Leitung des Papstes als dem Nachfolger des Apostels Petrus und Stellvertreter Christi auf Erden „unzerstörbare Keimzelle der Einheit, der Hoffnung und des Heils“ ist (vgl. Lumen Gentium, Apostolicae Curae und Dominus Jesus). Das Zweite Vatikanische Konzil ergänzte das Dogma der päpstlichen Unfehlbarkeit (1870) um die Aussage: „Die Gesamtheit der Gläubigen, welche die Salbung von dem Heiligen haben (vgl.), kann im Glauben nicht irren.“ Die drei Sakramente der Eingliederung in die katholische Kirche sind die Taufe, die Firmung und der Empfang der Eucharistie. Die apostolische Sukzession sieht die Kontinuität mit der Urkirche dadurch gewährleistet, dass sie eine Kette von Handauflegungen (Weihe), ausgehend von den Aposteln über viele Bischöfe vergangener Tage bis hin zu den heutigen Bischöfen, angenommen wird. Nur in apostolischer Sukzession stehende Bischöfe können daher das Weihesakrament gültig spenden. Römisch-katholische Gottesdienste sind für alle zugänglich; der Empfang der Kommunion ist jedoch nur Katholiken sowie Angehörigen orthodoxer und orientalischer Kirchen erlaubt, sofern diese in rechter Weise disponiert sind. Mitgliedern anderer Kirchen darf in Todesgefahr die Wegzehrung gereicht werden, sofern sie bezüglich dieses Sakraments den katholischen Glauben bekunden. Interkommunion ist untersagt. Evangelische Tradition. Die evangelischen Kirchen verstehen sich als allein aus der biblischen Schrift heraus begründet (Sola scriptura), während die römisch-katholische Kirche sich durch die Schrift "und" die Überlieferung begründet sieht. Dennoch erkennen die evangelischen Kirchen die frühen kirchlichen Traditionen an, ihre Synode, und die aus ihr stammenden Bekenntnisse (Apostolikum, Nizäisches Glaubensbekenntnis). Diese beziehen ihre Autorität jedoch nur aus ihrem Einklang mit dem evangelischen Verständnis der Schrift und nicht aufgrund der Ämter ihrer Autoren. Die öffentliche Auseinandersetzung Luthers mit der römisch-katholischen Tradition begann – nach einer mehrjährigen theologischen Entwicklung – mit den 95 Thesen; seine Lehre ist in zwei von ihm verfassten Katechismen (Großer und Kleiner Katechismus) und anderen Schriften festgehalten. Luther selbst war noch Verfechter der Kindstaufe, des Bußsakraments und der Marienverehrung. Der als Augustinermönch ausgebildete Theologe verfasste allerdings eine neue, auf Augustinus von Hippo fußende Rechtfertigungslehre, die besagt, dass der „Glaube allein“ (Sola fide) den Menschen „coram Deo“ (vor Gott) gerecht mache und ihn so vor der gerechten Strafe Gottes errette. Basierend auf dieser Rechtfertigungslehre, sowie dem Prinzip der Sola scriptura, erkennen die meisten evangelische Christen als Sakramente nur zwei Handlungen an: die Taufe, bei der Jesus selbst nicht Handelnder gewesen ist, sondern Johannes der Täufer, und das Abendmahl oder Herrenmahl, das Jesus selbst begründete. Für beide Handlungen sind ein Wort und ein Element konstitutiv, die in der biblischen Überlieferung mit dem Gebot Jesu zu deren Durchführung verbunden sind. In der evangelischen Tradition gibt es unterschiedliche Abendmahlsverständnisse, die jedoch von den Mitgliedskirchen der Leuenberger Konkordie für nicht kirchentrennend gehalten werden. Die reformierte Tradition versteht das Abendmahl dabei als rein symbolisches Gedächtnismahl, während in der lutherischen Tradition der Gedanke der Realpräsenz Jesu „in, mit und unter“ den Elementen "Brot und Wein" betont wird (Konsubstantiation), ohne allerdings deren Wandlung (Transsubstantiation) wie im katholischen Verständnis. Es ist weiterhin möglich, die Beichte abzulegen und Absolution zu empfangen, aber dies sei weder notwendig, noch sei es ein Sakrament. In den taufgesinnten evangelischen Kirchen (nicht jedoch in den deutschen Landeskirchen, die in der Evangelischen Kirche in Deutschland (EKD) vereint sind) wurde die Taufe unmündiger Kinder durch die Gläubigentaufe ersetzt, da diese Kirchen davon ausgehen, dass ein persönlicher Glaube des Täuflings eine neutestamentliche Voraussetzung für den Empfang der Taufe "(sola fide)" sei. Die vielfältigen evangelischen Konfessionen sind institutionell autonom und haben keine offizielle gemeinsame Lehre, die über die Schrift hinausgeht, und kein gemeinsames Oberhaupt außer Christus. Ein besonderer Fall ist die anglikanische Kirche, die an der apostolischen Sukzession, an vielen katholischen Bräuchen in der Liturgie und an der Realpräsenz Christi in den eucharistischen Gaben festhält. Bezüglich des Verhältnisses von Tradition und Bibel gibt es alle Zwischenstufen von der Anglikanischen Kirche bis zu den calvinistisch-reformierten Kirchen, die jede Kirchentradition außerhalb der Bibel ablehnen. Über Lehre und Praxis wird in den meisten Konfessionen durch Synoden oder Konferenzen auf internationaler Ebene entschieden, in anderen Konfessionen auf der Ebene der lokalen Kirche. Heute sind die Unterschiede zwischen liberalen und konservativen Flügeln innerhalb einer Konfession oft größer als die Unterschiede zwischen einzelnen Liberalen bzw. zwischen einzelnen Konservativen aus verschiedenen Konfessionen. Während die evangelischen Konfessionen früher sehr stark die Unterschiede betonten, gibt es heute einige Ansätze zur Annäherung: Viele evangelische Konfessionen in Europa haben sich in der Leuenberger Konkordie zusammengeschlossen, evangelikale Konfessionen arbeiten in der evangelischen Allianz zusammen. Auch viele evangelische Freikirchen arbeiten in der Vereinigung Evangelischer Freikirchen bzw. im Verband Evangelischer Freikirchen und Gemeinden in der Schweiz zusammen. In einigen Fällen ist es sogar zu Wiedervereinigungen gekommen (United Church of Canada aus Lutheranern, Methodisten und Presbyterianern; Uniting Church of Australia aus Presbyterianern, Kongregationalisten und Methodisten; United Church of Christ aus sieben Konfessionen). Mit dem Weltkirchenrat gibt es auch ein Gremium der ökumenischen Zusammenarbeit, das nicht nur auf den Dialog zwischen den verschiedenen evangelischen Kirchen beschränkt ist, sondern in dem auch die altkatholischen, orthodoxen und altorientalischen Kirchen vertreten sind. Apostolische Gemeinschaften. Als Apostolische Gemeinschaften werden christliche Gemeinschaften bezeichnet, deren Ursprünge in den Erweckungsbewegungen zwischen 1820 und 1830, und der in der Folge entstandenen katholisch-apostolischen Gemeinschaft liegen. Ziel dieser Erweckungsbewegungen war im Wesentlichen eine Wiederbesetzung des Apostelamtes. Vor allem in den Anfangsjahren wurden die Lehre und Praxis der apostolischen Gemeinschaften sowohl vom Protestantismus als auch vom Katholizismus beeinflusst und geprägt. Im Laufe ihrer Entwicklung entwickelten sich – neben der Lehre vom Apostelamt – weitere exklusive Lehrvorstellungen, beispielsweise im Bereich der Eschatologie und des Entschlafenenwesens. Eine theologische Besonderheit aller dieser Gemeinschaften stellt auch das Sakrament der Heiligen Versiegelung dar, das laut Lehrmeinung notwendig sei, um vollständiges Heil zu erlangen (wobei sich die Aussagen hierüber unterscheiden). Heute zählen zu den bedeutendsten Vertretern die Neuapostolische Kirche (NAK) und die Vereinigung Apostolischer Gemeinden (VAG), deren Mitglieder hauptsächlich als Abspaltungen von der NAK entstanden. Außerdem existieren unter anderem das "Apostelamt Jesu Christi", das "Apostelamt Juda" und die "Old Apostolic Church". Einige der Gemeinschaften beteiligen sich an der Ökumenischen Bewegung und sind trotz theologischer Vorbehalte in die Arbeitsgemeinschaften Christlicher Kirchen aufgenommen worden. Neureligiöse Gemeinschaften. Verschiedene andere Konfessionen sehen sich weder in der orthodoxen, katholischen noch in der evangelischen Tradition. Gruppen, die sich selbst so einordnen, sind beispielsweise die Quäker, die Kirche Jesu Christi der Heiligen der Letzten Tage und andere Gemeinschaften der Mormonen, Die Christengemeinschaft, die Vereinigungskirche, die Ernsten Bibelforscher, die Freien Bibelgemeinden und die Zeugen Jehovas. Diese neureligiösen Gemeinschaften haben oft von den oben skizzierten Konfessionen abweichende Auslegungen. Beispielsweise haben sie Ansichten über die Dreifaltigkeit, die nicht mit den ökumenischen Konzilen übereinstimmen, oder gleichwertige Schriften neben der Bibel oder bestimmte sogenannte „Sonderlehren“, die sich bei den anderen Konfessionen bzw. in der Bibel in dieser Form nicht finden oder ihnen sogar offen widersprechen. Wegen dieser Abweichungen ist es umstritten, ob jene oft auch als „(christliche bzw. religiöse) Sondergruppen oder -gemeinschaften“ oder „Sekten“ bezeichneten Gruppen überhaupt zu den christlichen Konfessionen gezählt werden können. Einige der besagten Gruppen haben die (allerdings unterschiedlich stark ausgeprägte) Tendenz, ihre eigene Sicht des Christentums als „absolut“ zu setzen. Der Begriff Unitarier umfasst heute sowohl antitrinitarisch-christliche Gruppen (Unitarier im traditionellen Sinne) als auch Vertreter einer pantheistisch-humanistisch ausgerichteten Religion, in der Christus keine zentrale Rolle mehr spielt. Lehre. Für die christliche Lehre sind die Menschwerdung Gottes, der Kreuzestod und die Auferstehung Jesu Christi zentral. Die Christen glauben, dass diese Ereignisse die Basis von Gottes Werk bilden, das die Menschheit mit ihm aussöhnt; sein Tod am Kreuz wird als Erlösungstat verstanden. Die Menschwerdung und der freiwillige Opfertod gelten als Ausdruck äußerster Liebe Gottes zur verlorenen Menschheit. Entsprechend zentral für das christliche Handeln ist die Liebe (griechisch "Αγάπη"; lateinisch "caritas") zu Gott (Gottesliebe) und zum Mitmenschen (Nächstenliebe). Ursprung und Einflüsse. Die ersten Christen waren Juden, die sich zum Glauben an Jesus Christus fanden. In ihm erkannten sie den bereits durch die biblische Prophetie verheißenen Messias (hebräisch: "maschiach", griechisch: "Christos", latinisiert "Christus"), auf dessen Kommen die Juden bis heute warten. Die Urchristen übernahmen aus der jüdischen Tradition sämtliche heiligen Schriften (den Tanach), wie auch den Glauben an einen Messias oder Christus ("christos": Gesalbter). Von den Juden übernommen wurden die Art der Gottesverehrung, das Gebet der Psalmen u. v. a. m. Eine weitere Gemeinsamkeit mit dem Judentum besteht in der Anbetung desselben Schöpfergottes. Jedoch sehen die Christen Gott als "einen" dreifaltigen Gott an: den Vater, den Sohn (Christus) und den Heiligen Geist, die wesensgleich (homo-ousisos) sind. Der Glaube an Jesus Christus führte zu Spannungen und schließlich zur Trennung zwischen Juden, die diesen Glauben annahmen, und Juden, die dies nicht taten, da diese es unter anderem ablehnten, einen Menschen anzubeten, denn sie sahen in Jesus Christus nicht den verheißenen Messias und erst recht nicht den Sohn Gottes. Die heutige Zeitrechnung wird von der Geburt Christi aus gezählt. Anno Domini (A. D.) bedeutet „im Jahr des Herrn“. Die Heilige Schrift und weitere Quellen. Die zentrale Quelle für den Inhalt und das Wesen des christlichen Glaubens ist die Bibel, wobei ihr Stellenwert und Auslegung stark variiert. Die Bibel besteht aus zwei Teilen: dem Alten Testament und dem Neuen Testament. Das Alte Testament entspricht inhaltlich bis auf Details dem jüdischen Tanach und wurde von Jesus und den Urchristen ebenso wie von den Juden als Heilige Schrift gesehen. Das Neue Testament enthält Berichte vom Leben Jesu (Evangelien), der frühen Kirche (Apostelgeschichte; Urchristentum), Briefe der Apostel, sowie die Offenbarung des Johannes. Die Begriffe „Alt“ und „Neu“ für die Testamente bezeichnen den Tatbestand, dass es aus Sicht der Christen einen alten und einem neuen Bund zwischen Gott und den Menschen gibt. Das Alte Testament ist ursprünglich auf Hebräisch verfasst und wurde später (allerdings noch in vorchristlicher Zeit) unter der Bezeichnung Septuaginta ins altgriechische übersetzt. Das Neue Testament ist hingegen in einer speziellen Variante des Altgriechischen, der Koine, verfasst. Später wurden beide Testamente ins Lateinische übersetzt (Vetus Latina, Vulgata), dem folgten sehr viel später verschiedene, teilweise konfessionsgebundene, Übersetzungen (aus dem Urtext) in die jeweiligen Volks- und/oder Landessprachen (etwa Lutherbibel, Zürcher Bibel, Einheitsübersetzung, King-James-Bibel). Der Umfang des Alten Testaments wird von verschiedenen Konfessionen unterschiedlich bestimmt, da die griechische Überlieferung der Septuaginta auch mehrere Texte enthält, die in der hebräischen Überlieferung nicht enthalten sind. Die Teile, die nur in der Septuaginta stehen, werden als deuterokanonische bzw. apokryphe Schriften bezeichnet. (Siehe auch Kanon des Alten Testaments.) Über den Inhalt des Neuen Testaments besteht bei allen großen Konfessionen ein Konsens, der sich in den ersten vier Jahrhunderten entwickelt hat. (Siehe auch Kanon des Neuen Testaments.) Durch zahlreiche Funde von Kodices und Papyri in den letzten zwei Jahrhunderten kann der ursprüngliche Text des Neuen Testaments heute mit großer Genauigkeit wissenschaftlich rekonstruiert werden. Einzelheiten dazu sind in der Thematik Textgeschichte des Neuen Testaments beschrieben. Jedoch gehen die Meinungen der Theologen und der einzelnen Christen heute weit auseinander in der Frage, inwieweit es sich bei diesem Text um exakte Überlieferungen der Evangelisten und Apostel oder um Zusätze der frühen Kirche handelt. Ebenso gibt es unterschiedliche Sichtweisen bezüglich der richtigen Methode der Übersetzung, die im Artikel Bibelübersetzung und bei Artikeln über die einzelnen Bibelübersetzungen detailliert dargelegt sind. Auch in Bezug Exegese (Auslegung) der biblischen Texte und ihrer praktischen Anwendbarkeit auf Ethik und tägliches Leben gibt es eine große Bandbreite von Meinungen, sowohl unter den Konfessionen als auch bei einzelnen Gläubigen. Wieder andere Christen gehen davon aus, dass allein die persönliche Führung durch den Heiligen Geist ihr eigenes Verständnis für das Wort Gottes öffnet. Neben der Bibel spielen bei den meisten Konfessionen auch andere Überlieferungen wie Glaubensbekenntnisse, Katechismus, Tradition, Liturgie und christliche Vorbilder wie Heilige eine wesentliche Rolle in der Ausformung der kirchlichen und persönlichen Praxis. Beziehung zu anderen Weltanschauungen. Das Christentum hat andere Religionen beeinflusst, deren Anhänger sich zwar nicht als Christen sehen, aber Jesus als Propheten Gottes anerkennen. Der Islam ist die größte dieser Religionen, Jahrhunderte christlich-islamischer Auseinandersetzungen haben jedoch das Jesusbild im Koran undeutlich werden lassen. So trägt Jesus im Koran einerseits positive Titel wie Messias, Wort Gottes und auch Geist Gottes; ebenso wird er, wie manche biblische Propheten, als ein solcher angesehen. Scharf zurückgewiesen werden im Koran jedoch die Dreieinigkeit und jede Anbetung Jesu. Umstritten (und nach mehrheitlicher, nicht ausschließlicher Auffassung geleugnet) ist die Kreuzigung. Erst sehr langsam beginnt der entfaltende Dialog hier anzusetzen. Dem Christentum wird generell unter Nichtchristen Positives wie Negatives zugesprochen. Positiv wird meist die Lehre der Nächstenliebe gesehen. Auch setzen sich weltweit viele Christen für den Frieden und für barmherzige Konzepte gegen die Armut ein. Negativ wird die Geschichte des Christentums mit Kreuzzügen, Hexenverfolgungen, Inquisition und Antijudaismus gesehen. Die Positionen zu ethischen Reizthemen wie künstlicher Empfängnisverhütung, Homosexualität und Schwangerschaftsabbruch sind auch innerchristlich umstritten. Der spätere König von Thailand Mongkut hatte um 1825 herum als buddhistischer Abt intensiven Kontakt mit dem katholischen Bischof Jean-Baptiste Pallegoix. Er kommentierte: „Was Ihr die Menschen zu tun lehrt, ist bewundernswert. Aber was Ihr sie zu glauben lehrt, ist töricht.“ Es ist ein Anliegen vieler christlicher Kirchen, sich untereinander zu versöhnen und eine gemeinsame Basis zu schaffen (Ökumene). Außerdem führen einige das Gespräch mit anderen Religionen (interreligiöser Dialog). Ziel ist ein friedliches Zusammenleben der Religionsgemeinschaften. Die frühen Christen wurden zeitweise heftig verfolgt. Auch heute, gerade in kommunistischen und islamischen Ländern, findet eine starke Christenverfolgung statt. Dem Christentum wird teilweise der Vorwurf gemacht, eine Mitschuld an der Judenverfolgung gehabt zu haben, da z. B. im Mittelalter Juden verfolgt wurden, weil man ihnen die Schuld am Kreuzestod Jesu gab. Ursache für diese Verfolgung war die Vermischung der historischen und der theologischen Schuldfrage, die dazu führte, dass gegenwärtig lebende Juden für die (historische) Schuld am Tod Jesu haftbar gemacht wurden und beispielsweise als „Gottesmörder“ bezeichnet wurden. Die heutige theologische Forschung unterscheidet zwischen der Frage nach der historischen Schuld für einen Justizmord, die gleichberechtigt für Jesus ebenso wie für jeden anderen Justizmord der Weltgeschichte gestellt werden kann und muss, und der theologischen Frage nach der Bedeutung des Todes Jesu Christi für jeden Einzelnen. Die historische Frage nach der Schuld am Tode Jesu wird heute relativ einhellig so beantwortet, dass hier die römische Besatzungsmacht die Verantwortung trug, da die jüdischen Autoritäten gar keine Befugnis zur Hinrichtung von Menschen hatten. Die theologische Frage wird im christlichen Glaubensverständnis so beantwortet, dass ein jeder Sünder selber die Schuld am Kreuzestod Jesu trägt. Kultureller Einfluss des Christentums. In der Geschichte des Abendlandes haben sich Glaube, Kultur und Kunst wechselseitig beeinflusst. Eine entscheidende Station war beispielsweise der Bilderstreit im frühen Mittelalter. Im Abendland beschäftigte sich Kunst oft mit christlichen Themen, obwohl seit der Renaissance stärker auch Rückgriff auf nichtchristliche Motive aus der Antike genommen wurde. Musik gehört von jeher zur liturgischen Ausdrucksform des christlichen Glaubens. In allen Epochen der Musikgeschichte schufen die bedeutendsten Musiker ihrer Zeit Werke auch für die Kirchenmusik, so beispielsweise Georg Friedrich Händel, Wolfgang Amadeus Mozart, Felix Mendelssohn Bartholdy; an herausragender Stelle aber vor allem Johann Sebastian Bach. Dichter wie Martin Luther oder Paul Gerhardt schufen im deutschsprachigen Raum Texte von hohem Rang und beeinflussten die weitere Entwicklung der Kirchenmusik maßgeblich. Der Einfluss des christlichen Glaubens ist dabei nicht auf die so genannte klassische oder E-Musik beschränkt: So greift beispielsweise die Gospelmusik vor allem im amerikanischen Kulturkreis unterschiedliche Stilrichtungen des 20. Jahrhunderts auf und entwickelt diese weiter. Auch im Bereich der Sprache hat das Christentum in vielen Ländern maßgeblich gewirkt. Im deutschsprachigen Raum hatte Martin Luther durch seine Bibelübersetzung prägenden Einfluss auf die Entwicklung und Verbreitung der hochdeutschen Sprache. Die Bibel als meistübersetztes Buch der Weltliteratur machte es insbesondere in kleineren Sprachräumen z. T. überhaupt erst einmal erforderlich, eine Schriftsprache zu entwickeln, wodurch kleinere Sprachen häufig in ihrem Wert und ihrer Identität gestärkt wurden. Musste der christlichen Mission früher teilweise der Vorwurf gemacht werden, zugleich mit dem christlichen Glauben auch die Kultur des Abendlandes (z. B. in Form von Kleiderordnungen) zu exportieren, ist das Selbstverständnis von Mission heute eher auf Inkulturation ausgerichtet. Zu den wesentlichen kulturellen Einflüssen des Christentums ist zudem die Etablierung der christlichen Zeitrechnung im Abendland zu zählen. Lexika. Siehe vor allem: Theologische Realenzyklopädie, Religion in Geschichte und Gegenwart [4. Aufl.], Lexikon für Theologie und Kirche [3. Aufl.] und Biographisch-Bibliographisches Kirchenlexikon. Coburg. Coburg ist eine kreisfreie Stadt im bayerischen Regierungsbezirk Oberfranken und Sitz des Landratsamtes Coburg. Vom 16./17. Jahrhundert bis 1918 war sie Residenzstadt der Herzöge von Sachsen-Coburg, von der Mitte des 19. bis Ende des 20. Jahrhunderts Garnisonsstadt; seit 1971 ist Coburg Standort einer Fachhochschule. Durch Eingemeindungen in den Jahren 1934 und von 1972 bis 1977 dehnte sich das Stadtgebiet auf gut die vierfache Größe aus. Seit 2005 führt Coburg den Beinamen "Europastadt". Über der Stadt erhebt sich mit der Veste Coburg eine der größten Burganlagen Deutschlands. Geografie. Blick über die Coburger Innenstadt Hochwasser in der Lossaustraße, Februar 1909 Coburg liegt zwischen dem südlichen Vorland des Thüringer Waldes, den Langen Bergen und dem Main­tal und wird von der Itz durchflossen, in die innerhalb des Stadtgebietes bei der Heiligkreuzkirche die Lauter mündet. Diese vereinigt sich im Stadtteil Neuses mit der Sulz und wird in Coburg noch vom Rottenbach gespeist. Der von Cortendorf kommende Hahnfluss, ein 1967 verrohrter Mühlbach der Itz, mündet am Rand der Innenstadt bei der Judenbrücke in die Itz. Insgesamt 20 Brücken überspannen die Itz im Stadtgebiet. Bei einem Einzugsgebiet der Itz oberhalb Coburgs von ungefähr 346 km² kam es bis zur Errichtung des Hochwasserrückhaltebeckens Froschgrundsee im Jahre 1986 öfters zu größeren Überschwemmungen in der Stadt, insbesondere im tiefer gelegenen Bahnhofsviertel, dem ehemaligen Überschwemmungsgebiet der Itz. Letztmals trat die Itz 2003 in Coburg über die Ufer. Zur Verhinderung solcher Ereignisse wurde 2010 das Hochwasserrückhaltebecken Goldbergsee für Sulz und Lauter angestaut. Die nächsten Großstädte sind Erfurt, etwa 80 km Luftlinie nördlich, Würzburg, etwa 90 km südwestlich und Nürnberg, etwa 90 km südlich. Die Höhenlage des Marktplatzes ist, die der Veste. Stadtgliederung. Coburg besteht aus der Kernstadt und zwölf weiteren Stadtteilen. Stadtteile und Umgebung von Coburg Zwei Drittel der Bevölkerung wohnen in der Kernstadt im Itztal. Insbesondere die äußeren Stadtteile Rögen sowie Neu- und Neershof haben noch einen stark dörflichen Charakter. Nachbargemeinden. Folgende Gemeinden des Landkreises Coburg grenzen im Uhrzeigersinn, beginnend im Norden, an die Stadt Coburg: Lautertal, Dörfles-Esbach, Rödental, Ebersdorf bei Coburg, Grub am Forst, Niederfüllbach, Untersiemau, Ahorn, Weitramsdorf und Meeder. Klima. Das Klima Coburgs ist durch die Lage zwischen dem oberen Maintal im Süden und dem Thüringer Wald im Norden gekennzeichnet. Zusätzlich wird es durch die Tallage beeinflusst. Die Sommer sind verhältnismäßig warm, milde Winter verhindert dagegen die Nähe zum Thüringer Wald. Die Jahresmitteltemperatur liegt bei etwa 8,9 °C, die mittlere Tagestemperatur beträgt im Januar −1,4 °C und im Juli 17,2 °C. Im Mittel gibt es pro Jahr fünf heiße Tage, 36 Sommertage und 28 Eistage. Pro Jahr fallen, relativ gleichmäßig über die Monate verteilt, durchschnittlich 747 mm Niederschlag. Maxima gibt es im Juni mit 82 mm und im Dezember mit 73 mm. Niederschlag über 1,0 mm gibt es im Schnitt an jedem dritten Tag. Geschichte. Alter Druck „Coburg von der Südseite“ Erstmals urkundlich erwähnt wurde Coburg 1056 in einer Schenkungsurkunde der Polenkönigin Richeza an den Erzbischof Anno von Köln über das Land um Coburg. 1331 verlieh Kaiser Ludwig der Bayer Coburg das Stadtrecht und das Recht der eigenen Gerichtsbarkeit. 22 Jahre später, im Jahr 1353, erbte Markgraf Friedrich III. von Meißen und somit das Haus Wettin von dem Henneberger Grafen Heinrich die Herrschaft Coburg (Pflege Coburg). Im Stadtwappen erschien 1430 der Heilige Mauritius. 1485 gehörte Coburg nach der Leipziger Teilung den Ernestinern. Da die sächsischen Kurfürsten die Reformation unterstützten, konnte diese schon bis 1524 in Coburg eingeführt werden. Im Jahr 1530 weilte Martin Luther ein halbes Jahr auf der Veste Coburg, weil er wegen der über ihn verhängten "Acht" nicht am Reichstag zu Augsburg teilnehmen konnte. Zwischen 1586 und 1633 war Coburg erstmals Residenz und Hauptstadt des selbständigen Herzogtums Sachsen-Coburg. In dieser Zeit entstanden in Coburg unter Herzog Johann Casimir einige Renaissancebauten, die noch das Stadtbild prägen. Nach einer Periode von 1680 bis 1699 unter Herzog Albrecht wurde Coburg 1735 abermals Residenzstadt, diesmal der Herzöge von Sachsen-Coburg-Saalfeld und ab 1826 von Sachsen-Coburg und Gotha. Anfang des 19. Jahrhunderts wurde unter Herzog Ernst I. das Residenzschloss Ehrenburg neu gestaltet. Der Schlossplatz erhielt mit dem neuen Hoftheater, den Arkaden und dem erweiterten Hofgarten sein heutiges Aussehen. Wichtig für die Stadtentwicklung war das Jahr 1858 mit dem ersten Eisenbahnanschluss an die Werrabahn. Die Eisenbahnverbindung führte unter anderem dazu, dass in den folgenden 60 Jahren Kaiser, Zaren, Könige und Fürsten oft zum Besuch ihrer Verwandtschaft nach Coburg kamen. Unter der Regentschaft und dem Patronat des liberalen Herzogs Ernst II. wurde die Stadt um 1860 Zentrum der in Vereinen organisierten deutschen Nationalbewegung. Am 14. November 1918 endete mit dem Rücktritt des Herzogs Carl Eduard die Monarchie. In der ersten freien Volksabstimmung in Deutschland votierten 1919 über 88 Prozent der Wähler gegen den Zusammenschluss des Freistaates Coburg mit dem Land Thüringen. Somit kam Coburg am 1. Juli 1920 zum Freistaat Bayern. Ein Präsidialerlass der Regierung von Oberfranken vom 30. Oktober 1920 legte als richtige Schreibweise des Namens der Stadt "Coburg" (und nicht Koburg) fest. Ab 1922 entwickelte sich Coburg zu einer Hochburg des Nationalsozialismus. Schon 1929 erhielt die NSDAP zum ersten Mal in einer deutschen Stadt bei den Stadtratswahlen die absolute Mehrheit der Sitze. Coburg verlieh 1932 als erste deutsche Stadt Adolf Hitler die Ehrenbürgerwürde. Im Zweiten Weltkrieg wurde Coburg zu 4,1 % zerstört, insgesamt wurden 402 Wohnungen vollständig vernichtet und 639 beschädigt. Die Stadt wurde am 11. April 1945 von der 11. US-Panzerdivision besetzt. Die Volksabstimmung von 1919 mit dem Anschluss an Bayern zeigte jetzt unerwartete Folgen. Coburg wurde Teil der Amerikanischen Besatzungszone, während das thüringische Hinterland zur Sowjetischen Besatzungszone gehörte und bis 1989 durch die Zonengrenze bzw. ab 1949 innerdeutsche Grenze von Coburg abgeschnitten blieb. Coburg lag somit im Zonenrandgebiet. Im Jahr 1950 verlegte die "Haftpflicht-Unterstützungs-Kasse kraftfahrender Beamter Deutschlands a. G., Erfurt", die heutige Versicherungsgruppe HUK-Coburg, ihren Sitz nach Coburg. Sie ist mit rund 4800 Mitarbeitern größter Arbeitgeber und Gewerbesteuerzahler Coburgs, was die höchsten Gewerbesteuereinnahmen bezogen auf die Einwohnerzahl in Bayern und die fünfthöchsten in Deutschland zur Folge hat. Obwohl keine Residenzstadt mehr, hat Coburgs Bedeutung für die Region, insbesondere durch die Vereinigung mit Bayern und durch die Wiedervereinigung Deutschlands, zugenommen. Die Stadt ist Oberzentrum mit wichtiger Infrastruktur, wie Landestheater, Landesbibliothek, Klinikum und vielen verschiedenartigen Schulen, darunter vier Gymnasien. Seit dem 30. Mai 2005 führt Coburg den Beinamen "Europastadt". Mit diesem Beinamen bezeichnen sich Städte, die sich dem Gedanken der europäischen Verständigung besonders verschreiben. Religion. Der Coburger Raum gehörte seit der Christianisierung Frankens und Thüringens, wohl erstmals um 768, bis zur Einführung der Reformation 1524 zum Bistum Würzburg. Danach war die Stadt über vier Jahrhunderte eine fast ausschließlich protestantische Stadt. Vorherrschend war das lutherische Bekenntnis. 1910 waren über 96 Prozent der Bevölkerung Mitglied der evangelischen Landeskirche. Oberhaupt der Landeskirche war der jeweilige Herzog von Sachsen-Coburg als „summus episcopus“. Er ernannte unter anderem die Kirchenregierungen. Die geistliche Leitung hatten die Superintendenten mit Sitz in Coburg. Nach der Vereinigung Coburgs mit Bayern schloss sich 1921 die Evangelische Landeskirche Coburg der Evangelischen-Lutherischen Landeskirche Bayerns an. Coburg ist Sitz eines Dekanats, das mit über 76.129 Mitgliedern (2008) zu den größten in Bayern zählt. Römisch-katholische Gemeindeglieder zogen spätestens im 18. Jahrhundert wieder in die Stadt. Ab 1802 war es ihnen gestattet, Gottesdienste abzuhalten, zuerst in einem Zimmer in der Ketschengasse 1, ab 1806 in der Nikolaus-Kapelle. 1860 erhielten die zirka 600 Katholiken unter der Protektion von Prinz August von Sachsen-Coburg-Koháry den Kirchenneubau St. Augustin als eigene Kirche. 1826 wurde die Pfarrei aus dem Bistum Würzburg in das Erzbistum Bamberg eingegliedert. Neben den beiden großen Kirchen gibt es heute auch Gemeinden, die zu Freikirchen gehören, darunter die Evangelisch-Freikirchliche Gemeinde (Baptisten), die Adventgemeinde (Siebenten-Tags-Adventisten) und die Christengemeinschaft. Ferner sind eine neuapostolische Gemeinde, eine alt-katholische Pfarrgemeinde in der St.-Nikolaus-Kapelle, die Kirche Jesu Christi der Heiligen der Letzten Tage und die Zeugen Jehovas in Coburg vertreten. Schon 1321 wurde die "villa Judaeorum" (jüdische Vorstadt) erstmals vermerkt. Eine jüdische Gemeinde mit Synagoge gibt es seit 1941 nicht mehr. Im Jahr 2006 bestanden in Coburg drei Gebetshäuser muslimischer Gemeinden. Eingemeindungen. Am 1. Juli 1934 wurden Ketschendorf, Wüstenahorn, Cortendorf und Neuses bei Coburg eingemeindet, wodurch Coburg wieder Garnisonsstandort werden konnte (dafür war eine Einwohnerzahl von 30.000 notwendig). Die 1970er Jahre waren durch eine größere Zahl von Eingemeindungen im Rahmen der Gemeindegebietsreform gekennzeichnet. Am Jahresanfang 1972 waren es Lützelbuch, Rögen und Seidmannsdorf (mit Löbelstein), sowie am 1. Juli Beiersdorf bei Coburg (bekannt für das Schloss Callenberg), Creidlitz und Scheuerfeld. Am 1. Juli 1976 kamen die ehemalige Gemeinde Neu- und Neershof und das Gut Neudörfles aus der Gemeinde Dörfles-Esbach dazu, sowie am 1. Januar 1977 Bertelsdorf und das 1868 dorthin eingemeindete Glend. Die Fläche der Stadt hat sich damit seit 1900 von 11,4 auf über 48 Quadratkilometer mehr als vervierfacht. Bevölkerungsentwicklung. Im Jahr 1480 lebten in der Stadt 2000 Einwohner. Erst im Laufe des 19. Jahrhunderts nahm die Einwohnerzahl stärker zu und erreichte 1843 10.000. Von 1864 bis 1875 wuchs die Stadt um fast 4.000 Einwohner auf 14.570, was einem Wachstum von 37 Prozent entsprach. Anfang 1900 betrug die Anzahl der Bürger 20.460. Trotz eines Rückgangs der Einwohnerzahl um etwa 10 Prozent nach dem Ersten Weltkrieg lebten 1927 über 25.000 Personen in der Stadt. Durch die ersten Eingemeindungen 1934 ergab sich ein Sprung um ungefähr 10 Prozent auf 29.000 Einwohner; der Höchststand war 1946 mit 50.000 Einwohnern erreicht, davon waren ungefähr 15.000 Flüchtlinge. Seit dem Ende des 20. Jahrhunderts (42.800) ist die Einwohnerzahl stetig leicht gesunken. 2009 war die Einwohnerzahl erstmals seit 1990 wieder etwas gestiegen und betrug 41.450. 2.634 Ausländer, 6,4 % der Gesamteinwohner, lebten im Jahr 2008 in der Stadt. Für die Bevölkerungsentwicklung werden bis zum Jahr 2020 bei zunehmenden Wanderungsverlusten als unterer Wert eine Einwohnerzahl von 37.500 und unter Annahme einer ausgeglichenen Wanderungsbilanz und steigender Geburtenrate als oberer Wert eine Einwohnerzahl von 40.000 Einwohner vorhergesagt. Stadtrat. Der Stadtrat Coburgs besteht aus dem Oberbürgermeister und der von der Gemeindeordnung vorgeschriebenen Anzahl von 40 Stadtratsmitgliedern. Der Oberbürgermeister wird direkt und wie der Stadtrat auf die Dauer von sechs Jahren gewählt. Nach der Kommunalwahl vom 2. März 2008 stellte die SPD 16 Stadträte, die CSU war mit 9 Stadträten vertreten, seitdem am 17. Februar 2009 ein Stadtrat aus der Fraktion austrat. Am 13. April 2007 gaben sieben Stadträte der CSU-Fraktion bekannt, diese aufgrund unüberwindbarer innerfraktioneller Differenzen zu verlassen und eine eigene Fraktion zu gründen. Die neue Wählervereinigung Christlich-Soziale Bürger stellte nach der Wahl 2008 vier Stadträte. Mit drei Stadträten waren Die Grünen und mit je zwei Mandaten die "Freie Wählergemeinschaft Coburg" sowie die FDP vertreten. Je einen Stadtrat stellten die ÖDP und die neuen Gruppierungen "JUnge COburger" (getragen von der Jungen Union Coburg-Stadt) und "Bürger bewegen Coburg". Die "Freie Wählergemeinschaft" benannte sich im September 2009 in "Wählergemeinschaft Pro Coburg e. V." um. Nach der Kommunalwahl vom 16. März 2014 stellten die SPD 14, die CSU 10, Bündnis 90/Die Grünen und die Christlich-Sozialen Bürger Coburg je 4, die "Wählergemeinschaft Pro Coburg" 3 und "JUnge COburger" 2 Stadträte, die FDP, DIE LINKE und die ÖDP je 1 Stadtrat. Eine Bewerberliste "Bürger bewegen Coburg" gab es nicht mehr. Am 13. Februar 2015 gaben drei Stadträte der SPD bekannt, dass sie aus ihrer Fraktion austreten und sich mit dem Stadtrat der Linken zu einer neuen Fraktion „Sozial und Bürgernah für Coburg“ zusammenschließen. Am 6. März 2015 wurde bekannt, dass sich die beiden Stadträte der Jungen Coburger der CSU-Fraktion anschließen, die nunmehr zwölf Mitglieder zählt und damit die stärkste Fraktion im Stadtrat stellt. Die Sitzverteilung lautet nunmehr CSU/JC: 12, SPD: 11, Bündnis 90/Die Grünen: 4, CSB: 4, SBC: 4, WPC: 3, FDP: 1, ÖDP: 1. Siegel, Wappen, Motto. → "Siehe auch": Liste der Wappen in Coburg Siegelabdrücke von 1272 zeigen eine Zinnenmauer mit Turm, ein Haus und die Henneberger Henne. Nach der Übernahme der Stadtherrschaft durch die Wettiner 1353 erscheint auf einem gevierten Schild je zweimal der Meißner und der Thüringer Löwe. Das heutige Stadtwappen, das in Gold ein Mohrenhaupt mit goldenem Ohrring zeigt, stellt den Stadtpatron Mauritius dar; es befindet sich auf Coburger Münzen und einer Silberpunze des 14./15. Jahrhunderts, seit dem 16. Jahrhundert mit den noch gültigen Farben auf Urkunden. In der Zeit des Nationalsozialismus wurde 1934 das historische Wappen gegen ein Schwert mit Hakenkreuz im Knauf auf einem von Schwarz und Gold gespaltenen Schilde ausgetauscht. Nach dem 1. Mai 1945 zeigt das Stadtwappen wieder den Mohren, zunächst in unterschiedlichen Gestaltungen, ab 1974 in der heutigen Form. Seit den 1990er Jahren hat Coburg den Leitspruch „Werte und Wandel“. Städtepartnerschaften. Coburg hat sechs Partnerschaften mit Orten in Westeuropa und Nordamerika. Im Jahr 1951 wurde Garden City im Bundesstaat New York die erste Partnerstadt, nachdem es dazu die Initiative aus Gründen der Völkerverständigung ergriffen hatte. Die zweite Partnerschaft entstand 1972 mit Oudenaarde in Belgien. Erste Partnerschaftsbestrebungen mit der Stadt Niort in Frankreich 1971 waren zunächst vergebens, aber drei Jahre später erfolgreich. 1977 wurde Gais in Südtirol, das seit 1971 eine Patenschaft mit dem späteren Stadtteil Lützelbuch hatte, Partnerstadt, die Isle of Wight (Vereinigtes Königreich) folgte 1983. Die jüngste Partnerschaft wurde 1997 mit dem kanadischen Namensvetter Cobourg eingegangen, nachdem Coburg schon 1972 die ersten Vorschläge dafür gemacht hatte. Theater und Kinos. Das Gebäude des Landestheaters Coburg wurde in den 1840ern von Herzog Ernst II. als Hoftheater erbaut. Ein nahezu gleiches Theater wurde zur selben Zeit in Gotha errichtet (im Zweiten Weltkrieg zerstört). Das Landestheater im Gebäudeensemble des Schlossplatzes zählt zu den schönsten Bauten in Coburg. Das mehrteilige klassizistische Bauwerk enthält unter anderem einen Spiegelsaal und einen schönen Zuschauerraum. Aufgrund der Mitfinanzierung (40 %) durch den Freistaat Bayern kann es auch als drittes bayerisches Staatstheater bezeichnet werden. Es ist ein kleines Drei-Sparten-Theater (Oper/Operette, Schauspiel, Ballett) und hat im Großen Haus 550 und in der ehemaligen Reithalle 99 Sitzplätze. Die Stadt hatte zwischen 1920 und 1975 bis zu sieben Lichtspielhäuser (Union-Theater, Atelier im UT (Eröffnung am 2. Mai 1974), Central-Lichtspiele, Passage-Lichtspiele unter Leitung von Werner Gutmann. Burgtheater, Casino, Kali unter Leitung der Familie Heublein). Heute gibt es das Multiplexkino "Utopolis", das mit neun Sälen eines der modernsten in der Region ist. Es ersetzte 2001 das frühere Union-Theater, das 1919 im Saalbau der ehemaligen Vereinsbrauerei eröffnet worden war. Das im Jahr 1900 errichtete Jugendstilgebäude wurde Anfang der 1930er Jahre umgebaut und auf 600 Sitzplätze erweitert. Eine der Auflagen für den Neubau des Kinocenters war die Beibehaltung der großzügigen Freitreppenanlage. Lokale Medien. Coburg hat zwei Tageszeitungen, das 1886 gegründete "Coburger Tageblatt", seit 2003 eine Regionalausgabe der Zeitung "Fränkischer Tag" aus Bamberg, und die 1946 gegründete "Neue Presse", die seit 1986 mehrheitlich zur Mediengruppe Süddeutscher Verlag gehört. Die beiden lokalen Radiosender sind "Radio 1" und "Radio Galaxy Coburg". Letzterer ist eine lokale Station des jugendorientierten Radios Galaxy. Der lokale Internet-TV-Sender ITV-Coburg stellt nahezu täglich Beiträge ins Netz. Bauwerke. Coburg hat eine gut erhaltene Altstadt, die durch noch vorhandene Teile der Stadtmauer mit Juden-, Ketschen- und Spitaltor begrenzt ist. Die Stadt ist reich an sehenswerten Bauwerken, Brunnen, Gedächtnisstätten und historischen Ensembles, Bodendenkmälern, Flurdenkmälern und Gartendenkmälern. Repräsentative Villen stehen unter anderem auf den angrenzenden Berghängen. Veste Coburg. Die Veste Coburg erhebt sich 170 Meter über der Stadt und gehört zu den größten und am besten erhaltenen Burganlagen Deutschlands. Sie wurde 1225 erstmals urkundlich erwähnt, im 17. Jahrhundert mit einem dreifachen Mauerring zur Landesfestung ausgebaut und beherbergt die ehemaligen herzoglichen Kunstsammlungen. Schlossplatz und Schloss Ehrenburg. Am Fuße des Festungsberges liegt der Schlossplatz, in dessen Mitte ein Denkmal von Herzog Ernst I. steht. Der Platz wurde 1830 bis 1837 gestaltet. Er wird begrenzt vom ehemaligen Residenzschloss Ehrenburg, von den Arkaden mit dem Hofgarten, vom Palais Edinburgh und vom Landestheater. Den Grundstein von Schloss Ehrenburg legte 1543 Herzog Johann Ernst von Sachsen, und von 1623 bis 1627 erweiterte Herzog Johann Casimir die Residenz zu einem Renaissanceschloss. Im Westflügel befindet sich die 1701 fertiggestellte barocke Schlosskirche. Im 19. Jahrhundert ließ Herzog Ernst I. das Schloss mit einer Fassade im Stil der englischen Neugotik versehen. Die Ehrenburg beherbergt die Landesbibliothek Coburg und ist Museum. Rathaus und Stadthaus. In der Nachbarschaft des Schlossplatzes liegt der Marktplatz, eingerahmt von Rathaus und Stadthaus. In seiner Mitte steht das Prinz-Albert-Denkmal, ein Geschenk der Königin Victoria an die Heimatstadt ihres verstorbenen Gatten. Der feierlichen Enthüllung des Denkmals wohnte Königin Victoria am 26. August 1865 während ihres fünften Besuches in Coburg bei. Zwischen 2004 und 2005 erfolgte eine Neugestaltung des Platzes mit Begrünung, neuer Beleuchtung und Wasserfontänen rund um das Prinz-Albert-Denkmal. Das neue Rathaus mit dem zweigeschossigen Coburger Erker und einem 27 Meter langen und 13 Meter breiten Ratssaal errichtete ab 1577 der Baumeister Hans Schlachter, 1750 und 1903 wurden größere Umbauten durchgeführt. Das gegenüberliegende Stadthaus ließ Herzog Johann Casimir 1601 als herzogliche "Cantzley" errichten. Es ist ein Gebäude der Spätrenaissance mit einer reichverzierten Fassade und vielfarbigen Wandmalereien. Die Hofapotheke aus dem 15. Jahrhundert ist ein spätgotischer Steinbau mit einem kleinen Chor und einer Madonna mit Kind an einer Fassadenecke sowie einer Christophorusskulptur an der Steingasse. Kirchen. Die Morizkirche in der Innenstadt ist die älteste Kirche Coburgs. Sie wurde von 1320 bis 1586 errichtet und ist die Hauptkirche der evangelischen Stadtgemeinde. Der älteste Teil der Kirche, der Ostchor, stammt von 1330. Das Westportal mit den beiden ungleichen Türmen wurde um 1420 gebaut. Wiederum etwa hundert Jahre später erfolgte die Aufrichtung des Kirchenschiffes. In der Osterwoche 1530 predigte Martin Luther in der Kirche. Die katholische Stadtpfarrkirche St. Augustin steht hinter dem Landestheater. Sie ist ein neugotisches Gotteshaus mit einer Fürstengruft, das nach Entwürfen von Vincenz Fischer-Birnbaum zwischen 1855 und 1860 errichtet wurde. Die Salvatorkirche steht unweit der Morizkirche etwas versteckt an der Unteren Anlage. Es ist die evangelisch-lutherische Friedhofskirche des 1494 angelegten Salvatorfriedhofs. Die Kirche, ein Saalbau mit dreiseitig geschlossenem Chor, wurde von 1660 bis 1662 gebaut. Die am südlichen Altstadtrand gelegene Kapelle St. Nikolaus wurde 1442 als Siechenkapelle für Leprakranke erbaut und ist im Besitz der Stadt. Sie war ab 1529 Kapelle der evangelischen, ab 1806 der katholischen Gemeinde und von 1873 bis 1932 Synagoge. Die Stadt kündigte der jüdischen Gemeinde zum Ende des Jahres 1932 das Nutzungsrecht. Ab 1945 war sie Kirche der freikirchlichen Gemeinde. und seit 1962 ist sie Kapelle der altkatholischen Gemeinde. Nördlich vor den ehemaligen Stadttoren, an der Itz, befindet sich die Heilig-Kreuz-Kirche. Der Chor der evangelisch-lutherischen Pfarrkirche wurde im gotischen Stil in den Jahren 1401 bis 1407 gebaut, das Langhaus ab 1413. In den Jahren 1735 bis 1739 wurde die Kirche zu einer Saalkirche mit einem barocken Innenraum umgestaltet. Aus dieser Zeit stammen auch die Stuckdecke und der Orgelprospekt. Weitere Bauwerke in der Innenstadt. Neben der Morizkirche steht das Gymnasium Casimirianum; das Renaissance-Gebäude wurde 1605 eingeweiht. Auch das Zeughaus in der Herrngasse zwischen Schlossplatz und Marktplatz stammt aus dieser Zeit; es wurde 1621 als Waffenlager errichtet. Später wurde es im Stil der Spätrenaissance erweitert und erfüllte wechselnde Aufgaben. Heute dient es als Staatsarchiv. Denkmalgeschützte Fachwerkgebäude sind die Hahnmühle von 1323 sowie das Münzmeisterhaus. Letzteres war ehemaliger Hof des Geschlechtes der Münzmeister, genannt von Rosenau, die 1288 urkundlich erwähnt wurden. Es besteht seit 1444 und ist eines der bedeutendsten Bürgerhäuser der Stadt. Schlösser. Aufgrund der langen Geschichte als Residenzstadt befinden sich in Coburg neben dem Schloss Ehrenburg noch eine Vielzahl kleinerer Schlösser. In der Nachbarschaft zum Landestheater steht das Bürglaß-Schlösschen. Es gehörte einst Friedrich Josias von Sachsen-Coburg-Saalfeld und diente später Zar Ferdinand von Bulgarien nach seiner Abdankung als zweiter Wohnsitz; heute befindet sich darin das Coburger Standesamt. Nordöstlich davon steht am Rittersteich das Rosenauschlösschen, ein Fachwerkgebäude mit Teilen aus dem Jahre 1435. Auf der Ernsthöhe oberhalb der Callenberger Straße erhebt sich seit 1840 Schloss Hohenfels. Es wurde zeit- und stilgleich mit dem Landestheater von dessen Baumeister errichtet. Im Stadtteil Ketschendorf steht inmitten eines ausgedehnten Parks das neugotische Schloss Ketschendorf der Baronin von Stolzenau vom Beginn des 19. Jahrhunderts. Das Schloss zählt zu den vollkommenen Bauten des neugotischen Gürtels Coburgs. Es war von 1956 bis 2010 die Coburger Jugendherberge. Schloss Falkenegg oberhalb des Stadtteils Neuses gehört zu den romantischen Bauten des Historizismus aus dem beginnenden 19. Jahrhundert. Falkenegg besitzt auch einen kleinen Bergpark mit einem Obelisken zum Andenken an Moritz August von Thümmel. Schloss Callenberg im Stadtteil Beiersdorf wurde 1122 erstmals urkundlich erwähnt und war ab 1825 Sommerresidenz der Coburger Herzöge. Die dreiflügelige Schlossanlage ist ein bedeutendes Beispiel der Neugotik in Bayern. Seit 1998 beherbergt das Schloss die private Sammlung Herzoglicher Kunstbesitz, seit 2004 wird dort das Deutsche Schützenmuseum aufgebaut. Schloss Neuhof aus dem 14. Jahrhundert steht in Neu- und Neershof, dem östlichsten Coburger Stadtteil. Generalfeldmarschall Graf Albrecht von Roon war 1873 bis 1879 prominenter Eigentümer des von einem englischen Landschaftspark umgebenen Schlosses. Schloss Eichhof im Stadtteil Dörfles des Stadtteils Scheuerfeld, urkundlich erstmals 1440 erwähnt, gehörte bis 1979 dem Haus Coburg und wird noch als Hofgut bewirtschaftet. Neudörfles in der Neustadter Straße stammt in seinen Ursprüngen ebenfalls aus dem 15. Jahrhundert und ist ein denkmalgeschütztes Ensemble mit Herrenhaus und dem zweitgrößten Privatpark in Coburg. Neugotischer Bebauungsring. Wurde unter der Regentschaft von Herzog Johann Casimir mit seinem Hausarchitekten Peter Sengelaub das Coburger Stadtbild durch Renaissance-Baudenkmäler entscheidend geprägt, wie zum Beispiel durch das ehemalige Regierungsgebäude, heute Stadthaus, das Zeughaus und das Gymnasium Casimirianum, so griffen in der ersten Neubauepoche des 19. Jahrhunderts Baumeister wie Julius Martinet als Hommage an das britische Königshaus, das damals noch "Saxe-Coburg and Gotha" hieß, einen für damalige Verhältnisse geradezu revolutionären, dem gründerzeitlichen Historismus zuzurechnenden Baustil auf, nämlich die Neogotik. Das griechische Affix "neo" weist darauf hin, dass es sich dabei – im Zuge des im 18. Jahrhundert von England ausgehenden "Gothic Revival" – um die Neuauflage einer die Gotik nachahmenden Stilrichtung (Merkmale unter anderem Spitzbogen, Fialen) handelt. In seltener städtebaulicher Qualität wandte man in Coburg diesen Baustil an. Die Ehrenburg verrät nach ihrer neugotischen Fassadengestaltung durch Karl Friedrich Schinkel die architektonische Verwandtschaft mit dem weltweit bekanntesten neugotischem Baudenkmal, dem Palace of Westminster in London. Der in Coburg entstandene neugotische Bebauungsring gilt als ein städtebauliches Juwel, das als eine Coburger Sonderentwicklung in die Baugeschichte einging und in Architekturkreisen als „einzigartig auf dem europäischen Kontinent“ apostrophiert wird. In Coburg zeichnet ein nahezu geschlossenes Ensemble von neugotischen Bauwerken zum großen Teil den Verlauf der einstigen ringförmigen Stadtmauer nach. Dass die alten Stadtmauerreste einigen neugotischen Bürgerhäusern später als Fundament dienten, stellt eine weitere Besonderheit dar. Der spezielle Reiz der Coburger Neugotik besteht aber darin, dass sich das Coburger Ensemble nicht wie in anderen Städten nur auf wenige Einzeldenkmäler oder ein kleines Stadtareal beschränkt; vielmehr umschließen die neugotischen Straßenzüge gleich einem Gürtel (vom Ernstplatz über Albertsplatz, Ausläufer im Bereich Ketschentor, Untere/Obere Anlage, Schlossplatz, Schwarze Allee bis zur Rosenauer Straße mit Ausläufern in der Bahnhofstraße) über insgesamt fast zwei Kilometer den größten Teil der Altstadt. Dabei gewährt der neugotische Promenadenring ausnahmslos den Blick auf parallel verlaufende Grünanlagen (an Stelle des früheren Stadtgrabens) oder auf baumbestandene Plätze (Albertsplatz, Ernstplatz, Schlossplatz und Rittersteich). Dem ansonsten eher kleingliedrigen Coburger Altstadtbild wird durch das „überdimensionierte“, völlig intakte, einzigartige Neugotik-Ensemble ein städtebaulich unverwechselbarer großzügiger Charakter verliehen. So ist der neugotische Bebauungsring in Coburg für internationale Fachkreise ein mustergültiges Anschauungsobjekt geworden, da sich vergleichbare neugotische Ensembles in solcher Geschlossenheit selbst im Ursprungsland Großbritannien kaum finden lassen. Jugendstilbauten. Coburg gehört zu den Orten Deutschlands mit einem bedeutenden Bestand an Jugendstilbauten. Dazu zählen insbesondere das Sonnenhaus des Baumeisters Carl Otto Leheis aus dem Jahr 1902, die Heiligkreuz-Volksschule am Schleifanger, das ehemalige Kaufhaus M. Conitzer & Söhne in der Spitalgasse, das Ernst-Alexandrinen-Volksbad und das Bankgebäude der ehemaligen Creditkasse des Spar- und Hülfevereins im Steinweg (heute Filiale der HypoVereinsbank) von Max Böhme aus den Jahren 1906 bis 1912, das Eichmüllersche Haus in der Judengasse von Paul Schaarschmidt aus dem Jahr 1903 sowie das 12 von August Berger aus dem Jahr 1910. Parks. Der Hofgarten zwischen Schlossplatz und Festungsberg wurde 1680 durch Herzog Albrecht als großer Herrengarten im niederländischen Stil angelegt. Seine heutige Gestalt als englischer Landschaftspark mit einer Vielzahl heimischer wie auch seltener Baumarten erhielt er mit der Erweiterung bis zur Veste 1857 unter Herzog Ernst II. Heute hat der Park aufgrund seiner zentralen Lage eine wichtige Erholungsfunktion für die Bevölkerung und ist gleichzeitig die Frischluftschneise der Stadt. Im Stil eines Landschaftsgartens ist auch der Friedhof am Glockenberg gestaltet, mit dem Jüdischen Friedhof am östlichen Rand. Dort steht ein Gedenkstein, der unter der Überschrift „Opfer des Faschismus 1941–1945“ die Namen von 48 Coburger Juden aufführt. (Die Aufzählung ist jedoch unvollständig.) Die untere Anlage, eine Grünanlage mit dem aufgelassenen Salvatorfriedhof, die bei der Einebnung der östlichen Wallgräben Anfang des 18. Jahrhunderts entstand, verbindet den Hofgarten mit dem Rosengarten am Kongresshaus. Der Rosengarten war einmal die außerhalb der Stadt liegende Zollbauernwiese. Auf diesem Gelände wurde 1929 die Deutsche Rosenschau mit fast 200.000 Besuchern veranstaltet. Der Ende der achtziger Jahre umgestaltete Garten hat unter anderem ungefähr 70 verschiedene Sorten von Rosen und Volieren für exotische Vögel. Außerdem ist im Rosengarten der Sintflutbrunnen des Coburger Künstlers Ferdinand Lepcke aufgestellt. Weitere kleine Anlagen sind die Josiasanlage am Bürglaßschlösschen, der Schnürsgarten am Adamiberg sowie ein Weg entlang der Itz. In den äußeren Stadtteilen sind insbesondere der Rückert-Park im Stadtteil Neuses, der Schlosspark des Ketschendorfer Schlosses und die Hans-Blümlein-Anlage im Lehengraben (Stadtteil Creidlitz) erwähnenswert. Am Himmelsacker, einem westlichen Hügel der Stadt, befindet sich seit 2000 das Grüne Labor. Es wurde vom ehemaligen Stadtrat Horst Schunk initiiert, von Karl-Heinz Walzer von der ISA Austria aus Wien geplant und von der ISA Germany/Austria angelegt. Das Projekt erforscht Bäume für den urbanen Bereich. Dazu gehört der erste Coburger Hochzeitswald; ein zweiter entstand in Coburg-Neuses. Südlich der Kläranlage an der Itz wurde zudem ein „Auwald“ angelegt, dem eine hohe ökologische Bedeutung zugesprochen wird. Kunstsammlungen der Veste Coburg. Das bedeutendste Museum Coburgs sind die Kunstsammlungen der Veste Coburg, hervorgegangen aus den Sammlungen der Coburger Herzöge. Kunst und Kunsthandwerk aus neun Jahrhunderten können dort besichtigt werden. Es sind unter anderem 26 Gemälde von Lucas Cranach dem Älteren ausgestellt. Außerdem gibt es ein umfangreiches Kupferstichkabinett, eine große Sammlung von Rüstungen, Kriegswaffen und Jagdwaffen sowie eine außergewöhnliche Glassammlung. Naturkundemuseum. Das Naturkundemuseum geht auf das 1844 gegründete "Herzogliche Kunst- und Naturaliencabinet" zurück und erhielt 1914 im Hofgarten sein heutiges Domizil. Unter anderem sind auf 4800 m² Fläche Exponate zu den Themen Mineralogie, Geologie, Paläontologie, Archäologie, Völkerkunde und Evolution ausgestellt. Weitere Museen. Weiterhin sind zu nennen das Puppen-Museum neben der Ehrenburg mit einer großen Anzahl von Künstlerpuppen, das Friedrich-Rückert-Museum im Stadtteil Neuses sowie das Grabungsmuseum Kirchhof, welches neben St. Moriz unter dem Ämtergebäude liegt und seit 1994 Ausgrabungen einer ehemaligen Benediktiner-Propstei aus dem 13. Jahrhundert mit Keramikgegenständen zeigt. Im Pavillon des Kunstvereins Coburg am Hofgarten finden seit 1950 Wechselausstellungen mit Kunst der Gegenwart statt. Der Kunstverein ist einer der ältesten in Deutschland und mit über 1500 Mitgliedern der größte in Bayern. Im Schloss Callenberg im Stadtteil Beiersdorf wird seit 1998 die "Sammlung Herzoglicher Kunstbesitz" von Mobiliar, Gemälde, Porzellan und kunstgewerbliche Gegenstände aus vier Jahrhunderten gezeigt. Ein außergewöhnliches Uhrenkabinett kann besichtigt werden. Seit 2004 ist dort das Deutsche Schützenmuseum beheimatet. Aquarium. Im Coburger Stadtteil Neuses lag das privat betriebene "Sea Star Aquarium". Das Aquarium bestand seit 2001 und war ursprünglich eine Quarantäne- und Zuchtstation für verschiedene Fischarten wie Haie und Rochen. Im Jahr 2002 wurde es als "Sea Star Aquarium" der Öffentlichkeit zugänglich gemacht. Auf 1000 m² Ausstellungsfläche lebten in mehr als 50 Aquarien von 30 bis 130.000 Litern über 650 verschiedene Tierarten. Im September 2011 wurde das Aquarium geschlossen. Sport. Neben dem Fußball, der in 16 Vereinen angeboten wird und mit dem DVV Coburg von 2007 bis 2011 in der Landesliga vertreten war, hat traditionell der Schießsport eine besondere Bedeutung in Coburg. Hier gibt es vier Vereine. Die Schützengesellschaft Coburg 1354 ist mit einer Luftgewehrmannschaft in der 1. Bundesliga vertreten und gewann 2008 und 2009 die deutsche Meisterschaft. Zu den etwas ungewöhnlicheren Sportarten gehört der Gardetanz, den die Tanzsportgarde Coburger Mohr e. V. seit vielen Jahren erfolgreich in ganz Deutschland vertritt. Nach vier deutschen Meistertiteln und vielen oberfränkischen, fränkischen und süddeutschen Meistertiteln veranstaltete die Tanzsportgarde im Jahr 2006 die Süddeutschen Meisterschaften, allerdings nicht in Coburg, sondern aufgrund der zu kleinen Angersporthalle in Bayreuth. Viele Anhänger hat auch der HSC 2000 Coburg, dessen 1. Herrenmannschaft seit 2014 wieder in der 2. Handball-Bundesliga spielt. 2011 stieg die 1. Männermannschaft des Volleyballvereins Grub in die 2. Deutsche Volleyball-Bundesliga auf, und 2013 schaffte sie den Sprung in die Deutsche Volleyball-Bundesliga. Auch Orientierungslauf gewinnt in Coburg immer mehr an Bedeutung; so wurden 2005 erstmals in Coburg eine Deutsche Mannschaftsmeisterschaft und ein Bundesranglistenlauf ausgerichtet. Regelmäßige Veranstaltungen. In Coburg findet jedes Jahr das größte Samba-Festival außerhalb Brasiliens statt, das seit 1992 alljährlich im Juli an drei Tagen rund 200.000 Besucher anzieht. Über 80 Sambagruppen mit mehr als 2200 Sambistas aus acht Nationen sorgten beispielsweise vom 7. bis zum 9. Juli 2006 auf neun Bühnen in der Innenstadt für Stimmung. Im August findet auf dem Schlossplatz jährlich der von der HUK-COBURG gesponserte „Open-Air-Sommer“ mit mehreren Konzerten verschiedener Musikrichtungen, Gruppen und Solisten statt. So traten 2007 unter anderem die Pop-Rock-Sängerin Pink und die Reggae/Dancehall/Hip-Hop-Gruppe Seeed auf. Auch die Oper "Die Zauberflöte" wurde aufgeführt. Coburg ist Austragungsort des Coburger Pfingstkongresses des Coburger Convents (CC), eines Verbandes von Studentenverbindungen, der jedes Jahr zu Pfingsten seinen Kongress mit Tagungen, Festkommers, Fackelzug und Sportveranstaltungen ausrichtet. Mehrmals jährlich werden klassische Konzerte in der St.-Moriz-Kirche durch den Coburger Bachchor veranstaltet. Mitte Juli wird das Schlossplatzfest, das sich als „Größte Gourmet-Party Nordbayerns“ bezeichnet, zwischen Ehrenburg und Landestheater gefeiert. Auf der Freifläche Anger findet im Frühjahr das Frühlingsfest und Anfang August das Vogelschießen (Schützenfest) statt. Dieses wird durch die Schützengesellschaft Coburg 1354 e. V. veranstaltet und zieht viele Besucher an. Neben dem Weihnachtsmarkt im Dezember finden weitere traditionelle Märkte statt. Der Coburger Flohmarkt, der sich zweimal im Jahr über das gesamte Innenstadtgebiet erstreckt, dauert vom Samstagabend bis Sonntag. Erstmals wurde im Jahr 2006 der Coburger Kloßmarkt veranstaltet. Alle drei Jahre finden die „Deutschen Johann-Strauss-Tage“ (bis 2009 „Johann-Strauss-Musiktage“) statt. Damit soll an den Walzerkönig erinnert werden, der 1887 Coburger Bürger wurde (und es bis zu seinem Tod blieb). Diese Tage wurden zuletzt im September 2015 veranstaltet. Der bis 2009 zu den Johann-Strauss-Musiktagen gehörende „Internationale Gesangswettbewerb Alexander Girardi“ findet vorerst nicht mehr statt, weil die (finanzielle) Unterstützung durch die Stadtverwaltung eingestellt wurde. Seit 2002 findet im Juli auf der Veste auch die „Zeitreise“, eine der größten deutschen „Living History“-Veranstaltungen, in Zusammenarbeit mit den Kunstsammlungen statt. Mehr als 100 Darsteller zeigen thematisch Ausschnitte aus dem Leben vergangener Zeiten mit historischer Genauigkeit und ergänzen so das „Ausstellungsstück“ Veste und die Exponate der Kunstsammlungen und füllen sie mit Leben. Seit 1989 finden im Mai die Coburger Designtage statt. Wirtschaft und Infrastruktur. Coburg war in der Vergangenheit robust gegenüber wirtschaftlichen Schwankungen des Umlandes. Obwohl die Stadt jahrzehntelang durch die Zonenrandlage während der deutschen Teilung benachteiligt war, ist sie heute eines der wirtschaftlichen Oberzentren Nordbayerns. Das hat die Stadt vor allem ihrer Mischung verschiedener Betriebsgrößen aus unterschiedlichsten Branchen zu verdanken. Coburg gehört – vor allem aufgrund der hohen Gewerbesteuer­zahlungen der Versicherungsgruppe HUK-Coburg – gemessen an den Einnahmen aus Gewerbe-, Grund- und Einkommensteuer pro Einwohner zu den reichsten Kommunen Deutschlands. Im Jahr 2009 betrug die gemeindliche Steuerkraft 2078 Euro je Einwohner, der höchste Wert in Bayern. Die Gesamtsumme der Verschuldung der Stadt Coburg belief sich zum Jahresende 2012 auf 59,7 Millionen Euro. Das sind 1458 Euro pro Einwohner. Von den 103 kreisfreien Städten in Deutschland hatte Coburg zu diesem Zeitpunkt die drittgeringste Pro-Kopf-Verschuldung. Statistische Daten der Wirtschaft. Am 30. Juni 2009 waren in Coburg 30.228 sozialversicherungspflichtige Arbeitnehmer beschäftigt. Ungefähr 49 % der Erwerbstätigen sind im Dienstleistungssektor, 34 % im produzierenden Gewerbe und 16 % im Bereich Handel und Verkehr beschäftigt. Rund 20.000 Personen pendeln täglich in die Stadt zur Arbeit, was die im Verhältnis zum bayerischen Landesdurchschnitt relativ hohe Arbeitslosenquote erklärt. In den Behörden und öffentlichen Institutionen sind zirka 3.000 Arbeitsplätze vorhanden. Ansässige Unternehmen. Bekanntestes Unternehmen und größter Arbeitgeber Coburgs ist die Versicherungsgruppe HUK-Coburg. Die rund 5500 am Ort Beschäftigten der seit 1950 in der Stadt ansässigen Versicherung sind auf einen Verwaltungskomplex in der Innenstadt am Bahnhof sowie einen zweiten größeren auf der Bertelsdorfer Höhe an der Anschlussstelle Coburg der A 73 verteilt. Daneben ist das produzierende Gewerbe mit den im Folgenden genannten größten Unternehmen wichtigstes Standbein der Wirtschaft in Coburg. Das Familienunternehmen Brose produziert seit 1919 in der Stadt. Es ist ein bedeutender Zulieferer der Automobilindustrie und hat vor Ort rund 3600 Mitarbeiter, welche in zwei Werken arbeiten, die im Süden der Stadt liegen. Die Kaeser Kompressoren SE, 1919 von Carl Kaeser in Coburg gegründet, gehört zu den führenden Anbietern von Kompressoren und Produkten der Drucklufttechnik. Von den insgesamt 4000 Beschäftigten arbeiten ungefähr 1600 im Stadtteil Bertelsdorf. Stark vertreten ist in Coburg der Werkzeugmaschinenbau mit den Firmen Waldrich Coburg, Kapp und Lasco. Im Großwerkzeugmaschinenbau ist Waldrich Coburg Hersteller von Präzisionsbearbeitungszentren und -maschinen, hat rund 800 Mitarbeiter und wurde 1920 von Adolf Waldrich gegründet. Dessen Schwiegersohn Bernhard Kapp legte 1953 den Grundstein für seine eigene Firma, die heute in Coburg mit etwa 500 Beschäftigten Schleifmaschinen zur Weich- und Hartfeinbearbeitung von Verzahnungen und Profilen produziert. Lasco wurde schon 1863 als Eisengießerei und Maschinenfabrik gegründet und fertigt mit 340 Mitarbeitern Fertigungsanlagen für Umformaufgaben. Ein weiterer Schwerpunkt ist mit den Firmen Gaudlitz, Hermann Koch und Ros die kunststoffverarbeitende Industrie. Gaudlitz wurde 1937 gegründet und produziert heute mit zirka 340 Beschäftigten hochpräzise Formteile aus duro- und thermoplastischen Rohstoffen. Das Unternehmen Hermann Koch gibt es seit 1914 in Coburg. Mit 280 Mitarbeitern werden Kunststoffverpackungen entwickelt und hergestellt. Die Firma Ros, 1926 gegründet, ist heute mit rund 150 Beschäftigten in Coburg im Formenbau und Spritzguss tätig und hat sich auf komplexe Bauteile für die Automobil- und Elektroindustrie spezialisiert. Auch das seltene Handwerk der Gebildsticker ist in Coburg seit über 150 Jahren vertreten. Die Firma Fahnen Koch GmbH Coburg, die 1857 von Christian Heinrich Arnold gegründet wurde, zählt zu den ältesten Fahnenfabriken in Europa. Das Familienunternehmen fertigt heute noch „handgestickte“ Vereinsfahnen in Coburg. Das Unternehmen umspannt mit seinen zirka 30 Mitarbeitern den gesamten Bereich der Textilveredelung in gestickter oder gedruckter Form. In öffentlicher Hand sind unter anderem das Klinikum Coburg, welches auf das 1862 gegründete Landkrankenhaus Coburg zurückgeht, das 1903 an seinen heutigen Standort im Stadtteil Ketschendorf verlegt wurde. Es ist heute Akademisches Lehrkrankenhaus der Julius-Maximilians-Universität Würzburg und ein Haus der Schwerpunktversorgung (Versorgungsstufe III) und hat 522 Betten bei insgesamt rund 1800 Mitarbeitern. Die Sparkasse Coburg – Lichtenfels mit etwa 700 Mitarbeitern in der Region hat in Coburg ihre Wurzeln in der 1822 eröffneten Stadtsparkasse. Alleiniges Eigentum der Stadt sind die Städtischen Werke Überlandwerke Coburg mit etwa 350 Mitarbeitern, die unter anderem aus dem 1854 eröffneten Gaswerk hervorgegangen sind. Gewerbegebiet Lauterer Höhe. Jahrelange Auseinandersetzungen, Diskussionen und zwei Bürgerentscheide drehten sich um ein im Norden der Stadt an der Bundesautobahn 73 gelegenes, 17 Hektar großes und erschlossenes Gewerbegebiet, dessen Fläche teils aus Lautertal eingemeindet wurde. Die Stadt plante dort Ende der 1990er Jahre ein 48.000 m² großes Einkaufs- und Freizeitzentrum. Vorgesehen waren in den Projektentwürfen verschiedener Investoren Fachmärkte und gastronomische Einrichtungen, ein Spaßbad, eine künstliche Parkanlage mit See, ein kleiner Freizeitpark sowie eine Multifunktions- und Eislaufhalle für etwa 6000 Besucher. a> im Hintergrund Viele Geschäftsleute der Innenstadt befürchteten eine Abwanderung der Käufer an den Stadtrand. Deshalb kam es im Jahr 2000 zum Bürgerentscheid, bei dem mit einer knappen Mehrheit von 27 Stimmen gegen den Bebauungsplan entschieden wurde. In den folgenden Jahren wurde die Bebauung des Geländes neu geplant, unter anderem mit einer neuen Multifunktionshalle. Ab 2005 folgte die Errichtung verschiedener Lebensmittel- und Fachmärkte; auch ließen sich verschiedene Dienstleistungsanbieter und Gastronomiebetriebe nieder. Bis 2014 wurden knapp 20 Einrichtungen eröffnet. Obwohl das Gesamtprojekt – momentan sind nur Einkaufs- und Fachmärkte ohne innenstadtrelevantes Sortiment mit 14.000 m² Verkaufsfläche genehmigt – nicht dem früheren von 1999 entspricht, zeichne sich die Entwicklung weitgehend nach dem früheren Konzept ab, so einige Kritiker. Sie sehen darin eine dem Bürgerentscheid entgegengesetzte Politik. Am 23. Oktober 2008 beschloss der Stadtrat den Bau einer Ballsporthalle (HUK-Coburg arena) auf der Lauterer Höhe; am 13. Oktober 2009 wurde der Bauauftrag für 15,36 Millionen Euro vergeben – ursprünglich waren 9,42 Millionen Euro vorgesehen. Bis Ende 2010 sollte die Sporthalle mit rund 3250 Zuschauerplätzen fertiggestellt sein. Das verzögerte sich jedoch bis August 2011. Neues Innenstadtkonzept (NIK). Baustelle Tiefgarage Ketschenvorstadt, Blick vom Zinkenwehr in Richtung Süden, November 2013 Im Herbst 2006 präsentierte der Unternehmer Michael Stoschek mit anderen Coburger Geschäftsleuten das selbst entwickelte "Neue Innenstadtkonzept". Es sah im Wesentlichen vor, Coburg als Kongressort attraktiver zu machen. Dazu sollen die geplante Multifunktionshalle statt auf der Lauterer Höhe auf dem innenstadtnahen Schützenanger und ein Tagungshotel errichtet sowie das bestehende Kongresshaus Rosengarten ausgebaut werden. Der Anger wird bisher als Park- und Festplatz genutzt und ist mit einer Dreifach-Turnhalle sowie Sportanlagen bebaut. Diese Sportstätten sollen laut NIK in den Norden der Stadt verlegt werden. Kritiker des Konzeptes führten unter anderem eine höhere Lärmbelästigung, mehr Verkehr, eine nicht ins historische Stadtbild passende Arena und die weite Entfernung der neuen Sportstätten zu den Schulen als Hauptargumente an. Im Dezember 2006 wollte der Stadtrat zur Umsetzung des NIK mit einem Ratsbegehren die Bürger über den Multifunktionshallen-Standort entscheiden lassen. Gleichzeitig starteten die NIK-Initiatoren ein Bürgerbegehren mit gleichem Inhalt, worauf das Ratsbegehren zurückgezogen wurde. Einige Wochen vor dem Bürgerentscheid im April 2007 stellten der Oberbürgermeister Norbert Kastner und die Coburger SPD eigene Planungen namens AHA-Konzept (AHA = Arena + Halle am Anger) vor. In diesem Konzept war geplant, die Multifunktionshalle auf die Lauterer Höhe zu bauen, gleichzeitig jedoch eine neue Dreifachturnhalle mit kleinerem Kultur- und Kongresssaal und Hotel auf dem Schützenanger zu errichten. Der größte Teil der Sportstätten wäre auf dem Anger verblieben. Mit rund 52 Prozent der Stimmen votierten die Bürger beim Bürgerentscheid für den Schützenanger als Standort der Multifunktionshalle. Während die NIK-Initiatoren meinten, dass die Bürger mit ihrem "Ja" auch ihren Willen zur Umsetzung der restlichen NIK-Planungen ausdrückten, musste nun der Stadtrat entscheiden, welche Maßnahmen ausgeführt werden. Der erste Schritt war im Oktober 2007 die Ausschreibung eines städtebaulichen Wettbewerbes "Coburgs neuer Süden", dessen Ergebnis Ende April 2008 vorgestellt wurde. Im nächsten Schritt sollte ein Realisierungswettbewerb folgen. Am 25. Juni 2009 beschloss schließlich der Stadtrat ein neues Grundkonzept, da nach dem Bau einer Ballsporthalle auf der Lauterer Höhe eine Multifunktionshalle auf dem Anger nicht mehr benötigt wird. Das Konzept sieht im ersten Schritt an der Ecke Bamberger Straße / Karchestraße den Bau einer neuen Dreifachturnhalle vor. Nach Abriss der alten Halle sollen dann eine Stadthalle und ein Hotel errichtet werden. Zu den größeren innerstädtischen Baumaßnahmen gehört die Städtebauliche Neugestaltung der Ketschenvorstadt (Sanierungsgebiet VI). Öffentlicher Personennahverkehr. Der öffentliche Personennahverkehr wird in Coburg durch die Verkehrsgemeinschaft Coburg (VGC), einen Zusammenschluss der SÜC Bus und Aquaria GmbH (SÜC) und des Omnibusverkehrs Franken GmbH (OVF), betrieben. Im Stadtgebiet gab es im Jahr 2010 neun Stadtbuslinien mit zusammen etwa 100 km Streckenlänge, die tagsüber im Halb-Stunden-Takt mit 40 Bussen bedient werden. Das Umland wird mit elf Linien erschlossen, die im Regelfall den Coburger Bahnhof anlaufen. Zusätzlich existieren drei Bahnstrecken: die Bahnstrecke Coburg–Sonneberg, die im Stundentakt von der Deutschen Bahn AG befahren wird, und die Strecke Coburg–Lichtenfels, die jeweils im Stundentakt von der Deutschen Bahn AG und der Privatbahn Agilis bedient wird, sowie die Bahnstrecke Coburg–Bad Rodach, eine Nebenbahn, auf der ausschließlich Agilis ebenfalls im Stundentakt verkehrt. Öffentlicher Personenfernverkehr. In der Vergangenheit hatte der Schienenverkehr eine größere Bedeutung. So existierte von 1858 bis 1945 mit der Werrabahn von Coburg über Meiningen nach Eisenach eine durchgehende Ost-West-Verbindung über die thüringische Landesgrenze hinweg mit 15 Zugverbindungen am Tag im Jahre 1939. Zusätzlich gab es von 1900 bis 1984 mit der Itzgrundbahn eine Nebenbahn nach Rossach sowie von 1901 bis 1945 die durchgehende Steinachtalbahn über Ebersdorf–Sonnefeld–Fürth am Berg (bis 1975) nach Neustadt bei Coburg. Seit 1945 wird der öffentliche Personenfernverkehr nur noch über die Eisenbahnstrecke nach Lichtenfels abgewickelt. Auf diesem Streckenteil der Werrabahn und der Fortsetzung, der Bahnstrecke Coburg–Sonneberg, verkehren Regionalexpresszüge, die in der Regel über Bamberg nach Nürnberg (und in der Gegenrichtung nach Sonneberg) fahren; anderenfalls kann man in Lichtenfels in RB- und RE-Verbindungen nach Bayreuth, Hof, Saalfeld bzw. Würzburg oder in die Züge der ICE-Linie nach München bzw. Berlin umsteigen. In Zukunft soll sich die Fernverkehrsanbindung durch die Neubaustrecke Nürnberg–Erfurt, die München über Nürnberg und Erfurt mit Berlin verbindet, und die damit einhergehende Schaffung eines ICE-Halts in Coburg verbessern. Der Anschluss Coburgs an die neue Trasse erfolgt über eine Einschleifungsstrecke; ein dazu notwendiger Tunnel war 2007 bereits fertiggestellt. Es ist allerdings im Jahr 2014 unklar, in welchem Umfang der Bahnhof – insbesondere durch den Anschluss an die Neubaustrecke – neue Zugverbindungen erhalten wird. Im Jahr 2006 waren nach Auskunft der Bundesregierung sechs ICE-Zugpaare pro Tag mit Halt in Coburg vorgesehen. Das Verkehrsministerium teilte im März 2008 den Hauptgeschäftsführern der IHK zu Coburg und der IHK Südthüringen in einem Schreiben mit, dass die Inbetriebnahme der Neubaustrecke Ende 2017 vorgesehen ist. Straßenverkehr. Das Stadtzentrum ist zum großen Teil eine Fußgängerzone. Für den innerstädtischen Straßenverkehr gibt es zentrumsnah die Parkhäuser Mauer, Post und Zinkenwehr sowie, sofern keine Veranstaltungen darauf stattfinden, den Großparkplatz Anger und einige kleinere Parkplätze. Radwege sind in Coburg kaum vorhanden. Der Fernstraßenverkehr wird geprägt durch die Bundesstraßen 4, die als Nord-Süd-Achse den Nürnberger Raum mit Thüringen, und 303, die als West-Ost-Achse Schweinfurt mit Tschechien verbindet, sowie seit Ende 2002 die Bundesautobahn 73. Während die B 4 die Stadt durchquert, tangiert die B 303 nur den Stadtkern. Aufgrund der Grenzlage war das bis 1990 ausreichend, da kaum Durchgangsverkehr zu bewältigen war. Erst die deutsche Einheit brachte Coburg einen Autobahnanschluss. Im Rahmen des Verkehrsprojekts Deutsche Einheit wurde die Verlängerung der Bundesautobahn 73 Nürnberg–Bamberg über Lichtenfels und Coburg nach Suhl beschlossen. Die neue Strecke bildet den östlichen Ast der Thüringer-Wald-Autobahn 71 und ist seit dem 5. September 2008 durchgehend befahrbar. Luftverkehr. Der Verkehrslandeplatz Coburg-Brandensteinsebene (ICAO-Code: EDQC) wurde als Flugstützpunkt Coburg im Jahr 1913 eröffnet. Er befindet sich im Eigentum der Stadt. Betreiberschaft und Halterschaft liegen seit 2001 beim Aero Club Coburg e. V. Des Weiteren existiert im Süden Coburgs der Sonderlandeplatz Coburg-Steinrücken (ICAO-Code: EDQY). Er verfügt über eine Gras-Landepiste mit einer Länge von 700 m und einer Tragfähigkeit von bis zu zwei Tonnen. Besitzer und Betreiber des Flugplatzes auf dem Steinrücken ist die Flugtechnische Arbeitsgemeinschaft Coburg e. V. Die nächstgrößeren internationalen Flughäfen sind in Nürnberg im Süden und Erfurt im Norden, jeweils ca. 90 km von Coburg entfernt. Bibliotheken und Archive. Die Landesbibliothek Coburg wurde 1919 in der Nachfolge der seit 1547 bestehenden Hof- und Staatsbibliothek des Herzogtums Sachsen-Coburg gegründet und ist in Schloss Ehrenburg untergebracht. Es ist eine wissenschaftliche Regionalbibliothek mit über 400.000 Bänden, wovon ungefähr 85.000 Bände zum Altbestand des 17. bis 19. Jahrhunderts gehören. Die Stadtbücherei in der Herrngasse ist aus der Volksbibliothek des Coburger Kunst- und Gewerbevereins von 1874 hervorgegangen. Im Staatsarchiv im Zeughaus sind über 300.000 Archivalieneinheiten über Coburg und den Landkreis sowie den Freistaat Bayern, das Herzogtum Sachsen-Coburg und dessen Vorläufer gelagert. Im Stadtarchiv in der Steingasse reichen 18.000 Akteneinheiten bis in das 13. Jahrhundert. Hochschulen. Die Hochschule Coburg entstand in ihrer heutigen Form 1971. Sie führt ihre Tradition auf die 1814 durch den herzoglich-sächsischen Architekten Friedrich Streib in Coburg gegründete Handwerkerschule zurück. Ende der 1950er Jahre wurde die damalige Ingenieurschule für Hoch- und Tiefbau um die beiden neuen Abteilungen Maschinenbau und Elektrotechnik zum Polytechnikum erweitert. Das heutige Fächerangebot ist sehr vielseitig und umfasst die vier Bereiche Technik, Bauen/Gestalten/Design, Wirtschaft und Sozialwesen. 2012 waren etwa 4500 Studenten an der Hochschule eingeschrieben. Der Campus liegt über der Stadt auf einem Berg gegenüber der Veste Coburg. 1894 wurde mit dem Technischen Verein, der sich später in Landsmannschaft Franco-Borussia zu Coburg umbenannte, die erste Coburger Studentenverbindung gegründet. Ihr folgten die Technische Vereinigung Coburgia, die Alte Brünner Burschenschaft Suevia, die Katholische Studentenverbindung Thuringia und die Ingenieur-Verbindung Hildburgia. Die Fachhochschule Schloss Hohenfels war eine staatlich anerkannte private Hochschule für Fachtherapien im Gesundheitswesen. Sie wurde 2004 vom Klinikum Coburg und der Medau-Schule, unterstützt von der Fachhochschule Coburg, gegründet. An der Hochschule konnten ab 2005 die Bachelorstudiengänge Physiotherapie und Logopädie studiert werden. 2010 verlegte die Hochschule ihren Sitz nach Bamberg und wurde in Hochschule für angewandte Wissenschaften Bamberg – Private Hochschule für Gesundheit umbenannt. Schulen. In Coburg gibt es 25 öffentliche und 16 private Schulen für ungefähr 11.000 Schüler. Die Stadt bezeichnet sich selbst auch als Schulstadt. So sind für die Stadt und das Umland vier Gymnasien vorhanden. Das sind in der Innenstadt das Albertinum, ein musisches und sprachliches Gymnasium, und das Casimirianum, ein sprachliches, humanistisches und naturwissenschaftlich-technologisches Gymnasium mit 400-jähriger Tradition. Am Glockenberg befinden sich die beiden anderen Schulen, das Alexandrinum, ein naturwissenschaftlich-technologisches, sprachliches sowie wirtschafts- und sozialwissenschaftliches Gymnasium, und das Ernestinum (gegründet 1848), ein mathematisch-naturwissenschaftliches, wirtschaftswissenschaftliches und europäisches Gymnasium. Neben der Regiomontanus-Schule, einer staatlichen Fachoberschule und Berufsoberschule, sind in der Stadt außerdem zwei Berufsschulen, dreizehn Berufsfachschulen (für Wirtschaft, Hauswirtschaft, Kinderpflege, Kranken- und Kinderkrankenpflege), eine Landwirtschaftsschule und eine Wirtschaftsschule angesiedelt. Die zwei staatlichen Realschulen Coburg I und Coburg II sowie zwölf Grund- und Hauptschulen runden das Angebot staatlicher Schulen ab. Schulen mit privater Trägerschaft sind die Medau-Schule, eine Fachschule für Gymnastik, Physiotherapie und Logopädie, die Rudolf-Steiner-Schule, eine Waldorfschule, sowie die ASCO Sprachenschule Coburg (staatlich anerkannte Berufsfachschule für Fremdsprachenberufe) und die Musikschule. Außerdem unterhalten die Stadt und der Landkreis eine Volkshochschule. Der Unterricht an der "Sing- und Musikschule im Landkreis Coburg" wurde aufgrund unzureichender finanzieller Mittel eingestellt. Friedrich Rückerts Dichterhaus auf dem Goldberg bei Neuses Garnison. Von der Mitte des 19. bis zum Ende des 20. Jahrhunderts war Coburg Garnisonsstadt für Truppen des Herzogtums Sachsen-Coburg und Gotha bzw. der Preußischen Armee, Wehrmacht, US Army und des Bundesgrenzschutzes. Schutzgebiete. In Coburg gibt es ein Naturschutzgebiet (Stand Dezember 2015), drei Landschaftsschutzgebiete und zwei ausgewiesene Geotope. Ehrenbürger. Zu den Persönlichkeiten, die mit Coburg in Verbindung gebracht werden, zählt Martin Luther, der im Jahr 1530 ein halbes Jahr auf der Veste verweilte, weil er am Reichstag in Augsburg wegen der über ihn verhängten Acht nicht teilnehmen konnte. Weiterhin ist insbesondere der Dichter, Übersetzer und Orientalist Friedrich Rückert erwähnenswert, der von 1848 bis zu seinem Tode im Jahre 1866 im Coburger Stadtteil Neuses lebte und dort seine letzte Ruhestätte fand. Zu seinen Ehren hat die Stadt Coburg den Coburger Rückert-Preis ins Leben gerufen, der seit 2008 verliehen wird. Auch der Kapellmeister und Komponist Johann Strauss (Sohn), der 1887 Bürger von Coburg wurde, ist mit dem Namen der Stadt eng verbunden. Sonstiges. Coburg ist auch der Name zahlreicher Orte in der „Neuen Welt“, die meist von Auswanderern aus der Region gegründet wurden (siehe auch Coburg (Begriffsklärung)). Coburg-Insel. Die Coburg-Insel liegt in der Baffin Bay im Territorium Nunavut im nördlichen Kanada; sie wurde nach dem deutschen Prinzen Leopold von Sachsen-Coburg benannt, der mit Prinzessin Charlotte, der Tochter König Georg IV. von Großbritannien, verheiratet war. Schiff Coburg. Unter dem Namen „Coburg“ fuhren verschiedene Schiffe. Es waren unter anderem ein Postdampfer des Norddeutschen Lloyd, der 1910 seine Jungfernreise hatte und 1917 von der brasilianischen Regierung beschlagnahmt wurde. Ab 1938 hießen ein Motorschiff des Norddeutschen Lloyd und ein Fischtrawler aus Geestemünde „Coburg“. Im Zweiten Weltkrieg wurde der Trawler zur Wetterbeobachtung eingesetzt und ging 1944 im Packeis verloren. Das Motorschiff versenkte sich 1941 im Indischen Ozean selbst. Ab 1953 trug ein Motorschiff (ex MS „Hamburg“) der Hapag, der erste Nachkriegsneubau, den Namen der Stadt. Unter dem Namen „Coburg“ fuhr darüber hinaus von 1968 bis 1991 bei der Bundesmarine ein Versorgungsschiff (A1412) der Lüneburg-Klasse, auch Trossschiff genannt. 2005 wurde ein Frachtschiff der Universal Africa Lines auf den Namen „UAL Coburg“ und 2007 ein Containerschiff der Reederei Leonhardt & Blumberg auf den Namen „Hansa Coburg“ getauft. Außerdem fährt seit 2011 ein in Klingenberg am Main registriertes Binnenschiff unter dem Namen Coburg. Flugzeug Coburg. 1968 und 1981 wurde Coburg Patenstadt einer Boeing 737 der Lufthansa. Seit 1994 fliegt bei der Lufthansa unter der Registriernummer D-AIRD ein Airbus A321-131, der auf den Namen „Coburg“ getauft wurde. Triebzug Coburg. Ein Triebzug der Baureihe 411 (1115) der Deutschen Bahn trägt seit 2003 den Namen der Stadt. Coburger Marsch. Der Komponist Johann Michael Haydn widmete dem Prinzen Friedrich Josias von Sachsen-Coburg-Saalfeld einen Präsentiermarsch, der heute unter dem Namen "Coburger Marsch" bekannt ist. Er ist Bestandteil der Armeemarschsammlung der Bundeswehr (AM I, 26) und seit 1986 Bataillonsmarsch des Panzerbataillons 344. Sender Coburg. Bis zirka 1990 befand sich in der Nähe von Coburg auf dem zur Gemeinde Lautertal gehörenden Lauterberg ein Sender für das DECCA-Funknavigationssystem. Auf Stadtgebiet befindet sich der Sender Coburg-Eckardtsberg des Bayerischen Rundfunks. Coburger Hütte. Die Coburger Hütte der Sektion Coburg des Deutschen Alpenvereins wurde 1901 eröffnet und liegt in der Mieminger Kette in Tirol. Talort ist Ehrwald. Amoklauf. Am 2. Juli 2003 fand in der Staatlichen Realschule Coburg II ein Amoklauf statt, bei dem ein 16-jähriger Schüler eine 52-jährige Lehrerin mit einer Schusswaffe verletzte und sich selbst anschließend tötete. Cascading Style Sheets. Cascading Style Sheets (e Aussprache; für "gestufte Gestaltungsbögen"), kurz CSS genannt, ist eine Stylesheet-Sprache für elektronische Dokumente und zusammen mit HTML und DOM eine der Kernsprachen des World Wide Webs. Sie ist ein so genannter „living standard“ ("lebendiger Standard") und wird vom World Wide Web Consortium (W3C) beständig weiterentwickelt. Mit CSS werden Gestaltungsanweisungen erstellt, die vor allem zusammen mit den Auszeichnungssprachen HTML und XML (zum Beispiel bei SVG) eingesetzt werden. Grundlagen. CSS wurde entworfen, um Darstellungsvorgaben weitgehend von den Inhalten zu trennen. Wenn diese Trennung konsequent vollzogen wird, werden nur noch die inhaltliche Gliederung eines Dokumentes und die Bedeutung seiner Teile in HTML oder XML beschrieben, während mit CSS gesondert davon, vorzugsweise in separaten CSS-Dateien, die Darstellung der Inhalte festgelegt wird (z. B. Layout, Farben und Typografie). Gab es anfangs nur einfache Darstellungsanweisungen, so wurden im Verlauf komplexere Module hinzugefügt, mit denen z. B. Animationen und für verschiedene Ausgabemedien verschiedene Darstellungen definiert werden können. Elemente eines Dokumentes können aufgrund verschiedener Eigenschaften identifiziert werden. Dazu zählen neben dem Elementnamen (z. B. codice_1 für alle Hyperlinks), ihrer ID und ihrer Position innerhalb des Dokumentes (z. B. alle Bildelemente innerhalb von Linkelementen) auch Details wie Attribute (z. B. alle Linkelemente, deren codice_2-Attribut mit "www.example.com" beginnen) oder die Position in einer Menge von Elementen (z. B. das 7. Element einer Liste). Mit CSS-Anweisungen können für jede solcher Elementegruppen Vorgaben für die Darstellung festgelegt werden. Diese Festlegungen können zentral erfolgen, auch in separaten Dateien, so dass sie leichter für andere Dokumente wiederverwendet werden können. Außerdem enthält CSS ein Vererbungsmodell für Auszeichnungsattribute, das die Anzahl erforderlicher Definitionen vermindert. Mit CSS können für verschiedene Ausgabemedien (Bildschirm, Papier, Projektion, Sprache) unterschiedliche Darstellungen vorgegeben werden. Das ist nützlich, um z. B. die Verweisadressen von Hyperlinks beim Drucken aufzuführen, und um für Geräte wie PDAs und Mobiltelefone, die kleine Displays oder eine geringe Bildauflösung haben, Darstellungen anzubieten, die schmal genug und nicht zu hoch sind, um auf solchen Geräten lesbar zu bleiben. CSS ist die Standard-Stylesheet-Sprache im World Wide Web. Früher übliche, darstellungsorientierte HTML-Elemente wie codice_3 oder codice_4 gelten als „überholt“ ("obsolete"), das heißt, sie sollen in Zukunft aus dem HTML-Standard entfernt werden. So gelten diese u. a. seit HTML 4 (1997) als „unerwünscht“ und mit HTML5 als veraltet ("deprecated"). Anfänge. Einen ersten Vorschlag für Web-Stylesheets gab es 1993, mehrere weitere folgten bis 1995. Am 10. Oktober 1994 veröffentlichte Håkon Wium Lie, ein Mitarbeiter von Tim Berners-Lee am CERN, den ersten Vorschlag für „Cascading HTML style sheets“, die er später abgekürzt als „CHSS“ bezeichnet. Bert Bos arbeitete zu dieser Zeit an der Implementierung eines Browsers namens "Argo", der seine eigene Stylesheet-Sprache benutzte. Die beiden entschieden sich, CSS gemeinsam zu entwickeln. Es gab zu dieser Zeit auch andere Sprachen mit dem gleichen Ziel, die Erfinder von CSS brachten aber als erste die Idee auf, Regeln zu definieren, die über mehrere Stylesheets hinweg vererbt werden konnten. Nach der Präsentation von CSS durch Lie auf der Konferenz „Mosaic and the Web“ in Chicago 1994 und später mit Bos 1995 wurde das World Wide Web Consortium (W3C) auf CSS aufmerksam. Lie und Bos arbeiteten mit anderen Mitgliedern in diesem Rahmen an CSS weiter. Im Dezember 1996 wurde die "CSS Level 1 Recommendation" publiziert. Diese Norm befolgen die aktuellen Browser mittlerweile fast vollständig. CSS2. "CSS Level 2" (CSS2) wurde im Mai 1998 veröffentlicht. Bis Anfang 2010 wurde diese Empfehlung allerdings von keinem verbreiteten Webbrowser vollständig umgesetzt. Bereits ab 2002 hat das W3C an der überarbeiteten Version "CSS Level 2 Revision 1" (CSS 2.1) gearbeitet. Die Erfahrungen mit CSS2 wurden hier aufgenommen, Unstimmigkeiten korrigiert und manche Teiltechniken gestrichen, die in verschiedenen Browsern nicht korrekt umgesetzt worden waren. Grundlegend neue Fähigkeiten wurden nicht eingebaut. Am 7. Juni 2011 wurde CSS 2.1 als fertige Empfehlung ("Recommendation") veröffentlicht. Inzwischen (2014) verarbeiten die meisten Webbrowser CSS 2.1 weitgehend korrekt, nur wenige Teiltechniken werden nicht vollständig unterstützt. CSS3. Seit 2000 ist "CSS Level 3" in der Entwicklung. Hier werden die Entwicklungen weiter vorangetrieben, die bereits mit CSS2 begonnen wurden. CSS3 wird im Gegensatz zu den Vorgängern modular aufgebaut sein, womit einzelne Teiltechniken (beispielsweise Steuerung der Sprachausgabe oder Selektoren) in eigenen Versionsschritten entwickelt werden können. So nähert sich CSS bei seinen Fähigkeiten mehr dem etablierten DSSSL (für SGML) an und wird wohl auch in Zukunft noch eine Alternative zu XML-basierten Stylesheet-Sprachen wie XSL-FO sein. Derzeit veröffentlichte und breit unterstützte Standards sind unter anderem "CSS Color Level 3", "CSS Namespaces", "Selectors Level 3" und "Media Queries". Neben diesen Modulen stehen weitere Elemente zur Diskussion, etwa ein Layout-Modul und verschiedene Grafikfilter. Moderne Browser unterstützen heute (2014) bereits viele CSS3-Module, wenngleich nur für wenige Teile bereits eine Empfehlung "(Recommendation)" durch das W3C vorliegt. Im Frühjahr 2012 wurde berichtet, das W3C arbeite bereits an einem Nachfolger von CSS3, der mit der Versionsnummer 4 veröffentlicht werden solle. Im September 2012 haben Vertreter der CSS-Arbeitsgruppe des W3C jedoch klargestellt, dass es keine Versionsnummer 4 geben soll: „There will never be a CSS4“. Vielmehr soll die künftige Entwicklung des Standards darin bestehen, dass die einzelnen CSS-Module unter eigenen Versionsnummern weiterentwickelt werden können, während der Gesamtstandard den Namen CSS3 oder einfach CSS behalten soll. Der Aufbau von CSS-Anweisungen. /* In eckigen Klammern stehen optionale Angaben */ Eine CSS-Anweisung ("rule") gibt an, dass für festgelegte Teile eines Dokuments eine Kombination von bestimmten Eigenschaften gelten soll. Geschrieben wird sie als eine durch Kommata getrennte Aufzählung von Selektoren "(„Für diese Typen von Teilen …“)", gefolgt in geschweiften Klammern von einer semikolongetrennten Liste von Eigenschafts-Deklarationen "(„… nimm die folgenden Eigenschaften!“)". Jede Eigenschaftsdeklaration besteht aus der Bezeichnung der Eigenschaft, einem Doppelpunkt, und dem Wert, den sie annehmen soll. Nach der letzten Eigenschaftsdeklaration ist vor der schließenden, geschweiften Klammer ein abschließendes Semikolon erlaubt, aber nicht notwendig. Um diese Teile einer Anweisungen herum ist Leerraum frei verwendbar. Häufig schreibt man den Doppelpunkt ohne Zwischenraum hinter den Eigenschaftsnamen, jede Eigenschaftsdeklaration in eine eigene Zeile, und schließt auch die letzte Eigenschaft mit einem Semikolon. So kommt es bei späteren Änderungen weniger leicht zu Syntaxfehlern. Ein Stylesheet darf beliebig viele solcher Anweisungen enthalten. Die folgende Tabelle enthält eine vollständige Übersicht aller Selektoren, mit denen Elemente (meist HTML-Elemente) ausgewählt werden können. Selektoren. Ein Selektor nennt die Bedingungen, die auf ein Element zutreffen müssen, damit der nachfolgende Satz an CSS-Deklarationen mit seinen Darstellungsvorgaben auf das Element angewendet wird. Solche Bedingungen beschreiben eindeutig, welche Eigenschaften (Typ, Klasse, ID, Attribut oder Attributwert) Elemente haben müssen oder in welchem Kontext sie im Dokument stehen müssen (Existenz eines bestimmten übergeordneten Elementes oder eines Vorgängerelementes bestimmten Typs), damit die Darstellungsvorgaben für sie gelten sollen. In einem Selektor können mehrere Auswahlkriterien verknüpft sein. Beispiel. Textabsatz, der so formatiert ist, wie obiges CSS es vorgibt. Hier werden die Deklarationen allen codice_5-Elementen zugewiesen, die das codice_7-Attribut mit dem Wert codice_8 besitzen. Ohne das codice_5 im Selektor wären alle Elemente der Klasse codice_8 betroffen, ohne das codice_11 wären alle codice_5-Elemente betroffen. codice_13-Elemente innerhalb solcher Absätze werden in Fettschrift dargestellt; dahinter wird mit dem Pseudoelement codice_14 ein Doppelpunkt erzeugt. Ein wichtiges Prinzip von CSS ist die Vererbung der Eigenschaftswerte an untergeordnete Elemente und das Kombinieren verschiedener Stylesheets (Kaskadeneffekt). Diese können aus verschiedenen Quellen stammen: vom Autor des Stylesheets, vom Browser (User Agent) oder vom Benutzer. CSS-Hacks. Eine Anwendung von CSS-Syntax bei der Gestaltung von Weblayouts sind sogenannte CSS-Hacks. Sie werden benutzt, um Unterschiede bei der Darstellung von Weblayouts in verschiedenen Browsern auszugleichen oder CSS-Anweisungen für bestimmte Webbrowser gesondert zuzuweisen oder auszuschließen. Der Begriff Hack bezeichnet dabei nichtstandardisierte CSS-Befehle, mit denen die Interpretationsschwäche eines Webbrowsers ausgenutzt wird, der diese Anweisungen entweder interpretiert oder ignoriert. Damit können Schwachstellen von Webbrowsern ausgeglichen werden, um möglichst in jedem Webbrowser das gleiche Ergebnis angezeigt zu bekommen. Ein CSS-Hack kombiniert z. B. fehlerhaft angegebene Selektoren in Kombination mit zusätzlichen Zeichen oder enthält Anweisungen, die bestimmte Webbrowser nicht kennen. Ein bekanntes Beispiel für einen CSS-Hack ist der sogenannte Star-HTML-Hack. Das codice_15-Zeichen dient als Universal-Selektor und ist vor dem Selektor codice_16 sinnlos. In diesem Fall würden zunächst alle Browser die codice_5-Elemente mit einem blauen Hintergrund darstellen. Lediglich der Internet Explorer vor Version 7 interpretiert auch die zweite Zeile und färbt die Absätze rot, obwohl codice_18 kein Eltern-Element besitzt, auf das codice_15 zutreffen könnte. Kombination mit HTML oder XHTML. Die Einbindung als externes Stylesheet ist dabei die am häufigsten verwendete Methode. Sie bietet den Vorteil, dass für mehrere Dokumente, die denselben Regelsatz benutzen, das Stylesheet nur einmal heruntergeladen werden muss. Auch vermeidet man so sich wiederholenden Code. CSS selbst ermöglicht durch den codice_23-Befehl das Einbinden von weiteren externen Stylesheets. @import url(url_des_stylesheets); Wenn man ein Stylesheet so einbindet, wird es auf jeden Fall verwendet. Sollte man diese Einbindung verwenden, wird das Stylesheet verwendet, bis der Benutzer ein anderes auswählt. Wird das Stylesheet so mit dem HTML-Dokument verknüpft, muss der Benutzer ausdrücklich wählen, es zu verwenden. Das wirkt sich in den meisten Browsern aus (z. B. Internet Explorer, Firefox, Opera und Konqueror). Somit wird diese Funktion von den meist benutzten Browsern implementiert. Außerdem sollte ein „alternate stylesheet“ nur in Verbindung mit einem anderen fest eingebundenen verwendet werden, damit es auch nur eine echte Alternative ist. Medienspezifische Stylesheets. Es ist auch möglich, für verschiedene Medien verschiedene Stylesheets einzubinden, um zum Beispiel die Gestaltung beim Drucken oder auf Handy-Displays zu regulieren. Diesen Zweck erfüllt das Attribut codice_25. In dieses Attribut werden die Parameter notiert, die für dieses Stylesheet gelten sollen. Durch mehrere codice_37-Befehle lassen sich innerhalb einer CSS-Datei oder eines codice_39-Blocks verschiedene Ausgabegeräte ansprechen. Da viele moderne Smartphones den Typ "handheld" nicht unterstützen und stattdessen die Stilvorgaben von "screen" nutzen, ist man hier auf „Eigenschaftsspezifische Stylesheets“ "(Media Queries)" angewiesen. Eigenschaftsspezifische Stylesheets (Media Queries). Vor allem im Bereich der mobilen Webprogrammierung werden Media Queries bereits jetzt häufig eingesetzt, um die Webseite ideal an das aktuell verwendete Gerät anzupassen. Im folgenden Beispiel werden Elemente mit CSS-Anweisungen versehen. Diese Anweisungen gelten für das gesamte Dokument. Anschließend wird eine Media Query eingesetzt, die greift, sobald die Breite des Browserfensters kleiner als 1025 Pixel ist. In diesem Fall ändern sich die Eigenschaften, die vorher allgemein definiert wurden bzw. gelten zusätzliche Eigenschaften. Clara Zetkin. Clara Zetkin in den 1920er Jahren, während ihrer Zeit als Reichstagsabgeordnete in der Weimarer Republik Clara Josephine Zetkin, geborene "Eißner" (geboren am 5. Juli 1857 in Wiederau, Amtshauptmannschaft Rochlitz, Königreich Sachsen; gestorben am 20. Juni 1933 in Archangelskoje, Oblast Moskau, Sowjetunion) war eine sozialistische deutsche Politikerin, Friedensaktivistin und Frauenrechtlerin. Sie war bis 1917 aktiv in der SPD und in dieser Partei eine markante Vertreterin der revolutionär-marxistischen Fraktion. 1917 schloss sie sich der SPD-Abspaltung USPD an. In der USPD gehörte sie zum linken Flügel bzw. zur Spartakusgruppe (1918 umbenannt in Spartakusbund). Danach war sie ein einflussreiches Mitglied der Kommunistischen Partei Deutschlands (KPD). Während der Weimarer Republik war sie von 1920 bis 1933 Reichstagsabgeordnete für die KPD und 1932 Alterspräsidentin des Parlaments. Auf übernationaler Ebene gehörte Zetkin als Beteiligte am Internationalen Arbeiterkongress von 1889 in Paris zu den Gründern der Zweiten Internationale der sozialistischen Arbeiterbewegung. In der Arbeit für die Internationale gilt sie als prägende Initiatorin des Internationalen Frauentags. Als Angehörige der Zentrale bzw. des später als Zentralkomitee bezeichneten Vorstandsgremiums der KPD war sie von 1921 bis 1933 Mitglied im Exekutivkomitee der Kommunistischen Internationale (EKKI), wo sie in ihren letzten Lebensjahren zur Minderheit der Kritiker der letztlich von Stalin vorgegebenen Sozialfaschismusthese gehörte. Leben. Clara wurde als älteste Tochter von Josephine Vitale, deren Vater Jean Dominique durch die Französische Revolution 1789 und seine Teilnahme an Napoleons Kriegen geprägt war, und Gottfried Eißner, Sohn eines Tagelöhners und Dorfschullehrers von Wiederau, geboren. Ihre Mutter stand mit Pionierinnen der damals entstandenen (bürgerlichen) Frauenbewegung in Kontakt, insbesondere Louise Otto-Peters und Auguste Schmidt, las Bücher von George Sand und gründete in Wiederau einen Verein für Frauengymnastik. Die Familie siedelte 1872 nach Leipzig über, um ihren Kindern eine bessere Ausbildung zu ermöglichen. Politisches Engagement in der frühen Sozialdemokratie. Clara Zetkin (links) mit Rosa Luxemburg im Jahr 1910 Ab 1874 hatte die in Leipziger Privatseminaren ausgebildete Volksschullehrerin Kontakte zur Frauen- und Arbeiterbewegung. Clara Eißner trat 1878 der Sozialistischen Arbeiterpartei Deutschlands bei, die 1890 in SPD (Sozialdemokratische Partei Deutschlands) umbenannt wurde. Wegen des Sozialistengesetzes (1878–1890), das sozialdemokratische Aktivitäten außerhalb der Landtage und des Reichstags verbot, ging sie 1882 zuerst nach Zürich, dann nach Paris ins Exil. Dort nahm sie den Namen ihres Lebenspartners, des russischen Revolutionärs Ossip Zetkin an, mit dem sie zwei Söhne hatte, Maxim Zetkin (1883–1965) und Kostja Zetkin (1885–1980). In ihrer Zeit in Paris hatte sie 1889 während des Internationalen Arbeiterkongresses einen bedeutenden Anteil an der Gründung der Sozialistischen Internationale. Im Herbst 1890 kehrte die Familie nach Deutschland zurück und ließ sich in Sillenbuch bei Stuttgart nieder. Dort arbeitete Clara Zetkin als Übersetzerin für den Dietz-Verlag und seit 1892 als Herausgeberin der Frauenzeitschrift "Die Gleichheit". Nach dem Tode Ossip Zetkins heiratete sie 1899 42-jährig in Stuttgart den 24-jährigen Kunstmaler Friedrich Zundel aus Wiernsheim. Nach zunehmender Entfremdung wurde die Ehe 1927 geschieden und im selben Jahr heiratete Friedrich Zundel Paula Bosch, die Tochter seines Sillenbucher Nachbarn Robert Bosch. 1907 lernte Clara Zetkin anlässlich des Internationalen Sozialistenkongresses in Stuttgart den russischen Kommunisten Lenin kennen, mit dem sie eine lebenslange Freundschaft verband. In der SPD gehörte sie zusammen mit ihrer engen Vertrauten, Freundin und Mitstreiterin Rosa Luxemburg wortführend zum revolutionären linken Flügel der Partei und wandte sich mit ihr um die Jahrhundertwende zum 20. Jahrhundert in der Revisionismusdebatte entschieden gegen die reformorientierten Thesen Eduard Bernsteins. Die Frauenrechtlerin. Damit erklärte Zetkin die fehlende Gleichberechtigung der Geschlechter zu einen Nebenwiderspruch der herrschenden sozialen und ökonomischen Bedingungen, den sie dem Hauptwiderspruch zwischen Kapital und Arbeit unterordnete. Ihre Verschiebung der formalpolitischen Emanzipation der Frau auf die Zeit nach der Revolution vertiefte die Konflikte der deutschen Frauenbewegung vor dem Ersten Weltkrieg und führte zu langwierigen Auseinandersetzungen mit anderen, gemäßigteren Protagonistinnen auch innerhalb der sozialdemokratischen Frauenbewegung, etwa mit Lily Braun oder Luise Zietz. Später revidierte sie diese rigide Haltung und trat nun ebenfalls für das Frauenwahlrecht ein, das bereits seit 1891 zentraler Bestandteil des Parteiprogramms der SPD war. 1907 wurde ihr die Leitung des neu gegründeten Frauensekretariats der SPD übertragen. Beim „Internationalen Sozialistenkongress“, der im August 1907 in Stuttgart stattfand, wurde die Gründung der Sozialistischen Fraueninternationale beschlossen – mit Clara Zetkin als Internationaler Sekretärin. Auf der "Zweiten Internationalen Sozialistischen Frauenkonferenz" am 27. August 1910 in Kopenhagen initiierte sie gegen den Willen ihrer männlichen Parteikollegen, gemeinsam mit Käte Duncker, den Internationalen Frauentag, der erstmals im folgenden Jahr am 19. März 1911 begangen werden sollte (ab 1921 am 8. März). Während des Ersten Weltkrieges. In der Zeit des Ersten Weltkrieges lehnte sie mit Karl Liebknecht, Rosa Luxemburg und relativ wenigen anderen einflussreichen SPD-Politikern die Burgfriedenspolitik ihrer Partei ab. Neben anderen Aktivitäten gegen den Krieg organisierte sie 1915 in Bern die Internationale Konferenz sozialistischer Frauen gegen den Krieg. In diesem Zusammenhang entstand das maßgeblich von ihr ausformulierte pazifistische Flugblatt «Frauen des arbeitenden Volkes!», das außerhalb der Schweiz polizeilich gesucht wurde. Wegen ihrer Antikriegshaltung wurde Clara Zetkin während des Krieges auch mehrfach inhaftiert. Von der SPD zur KPD. Sie war ab 1916 an der ursprünglich von Rosa Luxemburg gegründeten revolutionären innerparteilichen Oppositionsfraktion der SPD, der "Gruppe Internationale" bzw. "Spartakusgruppe" beteiligt, die am 11. November 1918 in Spartakusbund umbenannt wurde. 1917 schloss sich Clara Zetkin der USPD – unmittelbar nach deren Konstituierung – an. Diese neue linkssozialdemokratische Partei hatte sich aus Protest gegen die kriegsbilligende Haltung der SPD von der Mutterpartei abgespalten, nachdem die größer gewordene Gruppe der Kriegsgegner aus der SPD-Reichstagsfraktion und der Partei ausgeschlossen worden war. Nach der Novemberrevolution wurde – ausgehend vom Spartakusbund und anderen linksrevolutionären Gruppen – am 1. Januar 1919 die Kommunistische Partei Deutschlands (KPD) gegründet, der auch Zetkin beitrat. Von 1919 bis 1920 war Zetkin Mitglied der Verfassunggebenden Landesversammlung Württembergs und dort eine unter den ersten 13 weiblichen Abgeordneten. Sie beteiligte sich ab dem 25. Juli 1919 am Sonderausschuss für den Entwurf eines Jugendfürsorgegesetzes. Am 25. September 1919 stimmte Zetkin gegen die Annahme der Verfassung des freien Volksstaates Württemberg. Von 1920 bis 1933 war sie für die KPD im Reichstag der Weimarer Republik als Abgeordnete vertreten. Ab 1919 gab sie die Zeitschrift "Die Kommunistin" heraus. Von 1921 bis zu ihrem Tode war sie Präsidentin der Internationalen Arbeiterhilfe (IAH). In der KPD war Zetkin bis 1924 Angehörige der Zentrale, und von 1927 bis 1929 des Zentralkomitees der Partei. Des Weiteren war sie von 1921 bis 1933 Mitglied des Exekutivkomitee der Kommunistischen Internationale (EKKI). 1925 wurde Zetkin außerdem zur Vorsitzenden der Roten Hilfe Deutschlands gewählt. In der KPD saß Zetkin im Lauf ihrer politischen Tätigkeit, während der die dominierenden innerparteilichen Flügel mehrfach wechselten, oft zwischen den Stühlen, behielt jedoch zeitlebens einen bedeutenden Einfluss in der Partei. Im Allgemeinen wird sie von namhaften Historikern wie beispielsweise Heinrich August Winkler eher dem „rechten“ Flügel der KPD zugeordnet, vor allem, weil sie trotz ihrer Mitgliedschaft im EKKI den ideologischen Vorgaben der Komintern und aus der Sowjetunion teilweise kritisch gegenüberstand. Clara Zetkin (links) 1930 auf dem Weg zur Wahl des Reichstagspräsidenten So lehnte sie 1921 – nach der Vereinigung der KPD mit dem großen linken Flügel der USPD zur zeitweilig unter dem Alternativkürzel VKPD firmierenden Partei – zusammen mit dem damaligen von März 1919 bis Februar 1921 amtierenden innerparteilich umstrittenen KPD-Vorsitzenden Paul Levi (Parteiausschluss Mitte 1921) die vom Komintern-Chef Grigori Jewsejewitsch Sinowjew befürwortete „Offensivstrategie“ als „Putschismus“ ab. Bei der entsprechenden von der KPD mehrheitlich unterstützten Kampagne war eine revolutionär ausgerichtete Arbeiterrevolte, die "Märzaktion" in der Provinz Sachsen, blutig gescheitert, wobei über hundert Menschen ums Leben gekommen waren. Anders als die Parteivorsitzenden Levi und Ernst Däumig blieb sie jedoch in der KPD und schloss sich nicht der Kommunistischen Arbeitsgemeinschaft (KAG) an. Am 21. Januar 1923, kurz nach dem Beginn der Besetzung des Ruhrgebietes durch französische und belgische Truppen infolge der von Deutschland nicht erfolgten Reparationszahlungen laut den Bestimmungen des Versailler Vertrags von 1919, warf Zetkin unter der Überschrift "Um das Vaterland" der Großbourgeoisie vor, ihr „Verrat“ sei schuld an der krisenhaften Zuspitzung der Situation der Weimarer Republik infolge von Hyperinflation und Reparationen. „Zur Befreiung des deutschen Vaterlandes“ rief sie zum Sturz der Regierung Cuno und zur Bildung einer Arbeiterregierung auf. Diese nationalistisch anmutenden Töne, die kurzzeitig dazu führten, dass Zetkin von einigen Parteigenossen der Versuch vorgeworfen wurde, die bürgerlichen Parteien mit nationalen Parolen rechts überholen zu wollen, wurden zwei Tage später von der Parteizentrale korrigiert. Mit der Parole „Schlagt Poincaré an der Ruhr und Cuno an der Spree“ rief die KPD zur Solidarität der Proletarier in Deutschland und in Frankreich auf und bekräftigte damit die internationalistische Ausrichtung der KPD. Im Juni 1923 erregte sie auf der Tagung des Exekutivkomitees der Komintern in Moskau mit ihren Thesen zum Klassencharakter des Faschismus, der im Jahr zuvor in Italien an die Macht gekommen war, Aufsehen. Der bei vielen Marxisten verbreiteten These, Mussolinis Diktatur sei als „bloßer bürgerlicher Terror“ und als Angstreaktion der Kapitalisten auf die Bedrohung durch die Oktoberrevolution zu verstehen, erteilte sie eine scharfe Absage. In Wahrheit habe der Faschismus … Den Nationalsozialismus bezeichnete sie als „Strafe“ für das Verhalten der deutschen Sozialdemokratie in der Novemberrevolution. Im April 1925 polemisierte Zetkin auf einer weiteren EKKI-Tagung in Moskau gegen die zu der Zeit aktuelle KPD-Führung unter Ruth Fischer und Arkadi Maslow, denen sie „sektiererische Politik“ vorwarf. Damit half sie deren Absetzung vorzubereiten. Nachfolger wurde im Herbst 1925 Ernst Thälmann, der von Stalin protegiert wurde. Clara Zetkin um 1930 im Alter von etwa 73 Jahren Erneutes Exil und Tod. Nach der „Machtergreifung“ durch die NSDAP unter Adolf Hitler und dem Ausschluss der KPD aus dem Reichstag infolge des Reichstagsbrands 1933 ging sie noch einmal, das letzte Mal in ihrem Leben, ins Exil, diesmal in die Sowjetunion, wo sie bereits von 1924 bis 1929 ihren Hauptwohnsitz gehabt hatte. Nach Angaben von Maria Reese, einer KPD-Abgeordneten des Reichstags, die sie dort unter Schwierigkeiten besuchte, lebte sie bereits parteipolitisch isoliert. Sie starb wenig später am 20. Juni 1933 im Alter von fast 76 Jahren. Ihre Urne wurde in der Nekropole an der Kremlmauer in Moskau beigesetzt. Stalin trug die Urne persönlich zur Beisetzung. Ehrungen. Clara Zetkin wurde 1927 mit dem Rotbannerorden und 1932 mit dem Leninorden ausgezeichnet. Zetkin wurde zu einer der historischen Leitfiguren der SED-Propaganda, in der besonders ihre Rolle als Frauenrechtlerin und Verbündete der Sowjetunion herausgestellt wurde. Kallisto (Mond). Kallisto (vom altgriechischen Namen "Kálliste" „die Schönste“ = Kallisto, eine Geliebte des Zeus) (auch "Jupiter IV, Callisto") ist ein Eismond. Mit einem Durchmesser von 4821 km ist der äußerste der vier großen Monde des Jupiters der zweitgrößte seines Planeten und der drittgrößte Mond des Sonnensystems. Geschichte. Kallistos Entdeckung wird dem italienischen Gelehrten Galileo Galilei zugeschrieben, der im Jahre 1610 sein einfaches Fernrohr auf den Jupiter richtete. Die vier großen Monde Io, Europa, Ganymed und Kallisto werden auch als die Galileischen Monde bezeichnet. Benannt wurde der Mond nach Kallisto, einer Geliebten des Zeus aus der griechischen Mythologie. Der Sage nach wurden Kallisto und ihr Sohn Arkas später in Bären verwandelt und an den Sternenhimmel versetzt. Kallisto ist demnach gleich zweimal am Himmel zu sehen, als Sternbild Großer Bär (Großer Wagen) und als Mond des Jupiter. Der Name Kallisto wurde von Simon Marius bereits kurz nach seiner Entdeckung vorgeschlagen, konnte sich jedoch über lange Zeit nicht durchsetzen. Erst in der Mitte des 20. Jahrhunderts kam er wieder in Gebrauch. Vorher wurden Monde üblicherweise nur mit römischen Ziffern nummeriert und Kallisto mit "Jupitermond IV" bezeichnet, da die Nummerierung ursprünglich nach der Größenfolge der Umlaufbahnen vorgenommen wurde. Die Galileischen Monde sind so hell, dass man sie bereits mit einem Fernglas beobachten kann. Umlaufbahn und Rotation. Kallisto umkreist Jupiter in einem mittleren Abstand von 1.833.000 km in 16 Tagen 16 Stunden und 32,2 Minuten. Ihre Bahn weist eine Exzentrizität von 0,007 auf und ist 0,51° gegenüber der Äquatorebene des Jupiter geneigt. Als der äußerste der Galileischen Monde ist Kallisto von der Umlaufbahn des nächstinneren und größeren Ganymed über 800.000 km entfernt. Im Verhältnis zur Umlaufzeit des Ganymed bewegt sich Kallisto in einer 3:7-Bahnresonanz, im Unterschied zu den 1:2-Resonanzen zwischen den jeweils benachbarten drei inneren großen Monden. Kallisto rotiert in 16 Tagen 16 Stunden und 32,2 Minuten um die eigene Achse und weist damit, wie der Erdmond und die übrigen inneren Jupitermonde, eine gebundene Rotation auf. Physikalische Eigenschaften. Kallisto hat einen mittleren Durchmesser von 4821 km und ist damit fast genauso groß wie der Planet Merkur (4878 km). Ihre Dichte ist mit etwa 1,83 g/cm3 etwas kleiner als die von Ganymed, aber deutlich kleiner als die der beiden anderen Galileischen Monde Europa und Io. Sie hat im Vergleich zu den anderen Galileischen Monden eine sehr dunkle Oberfläche mit einer Albedo von 0,2, das heißt nur 20 % des eingestrahlten Sonnenlichts werden reflektiert. Die Oberflächentemperatur beträgt im Schnitt −139 Grad Celsius. Oberflächenstrukturen. Der Krater Valhalla, 1979 aufgenommen von Voyager 1 Kallisto weist die höchste Dichte an Einschlagkratern im ganzen Sonnensystem auf. Krater und bei deren Einschlag entstandene konzentrische ringförmige Erhebungen prägen die Oberfläche; größere Gebirgszüge sind nicht vorhanden. Dies lässt darauf schließen, dass Kallistos Oberfläche überwiegend aus Wassereis zusammengesetzt ist. Die Eiskruste hat über geologische Zeiträume hinweg nachgegeben, wobei ältere Krater und Gebirgszüge eingeebnet wurden. a>, aufgenommen von der Raumsonde Galileo Zwei riesige Einschlagsbecken, umgeben von konzentrischen Ringwällen, sind die auffälligsten Strukturen auf Kallisto. Das größte Becken, "Valhalla", hat einen Durchmesser von 600 km, eine helle Zentralregion und Ringe, die sich über 3000 km ausdehnen. Das Becken "Asgard" dehnt sich insgesamt über 1600 km aus. Eine andere Struktur ist "Gipul Catena", eine Kette von Impaktkratern, die als gerade Linie über die Oberfläche verläuft. Verursacht wurde die Struktur offensichtlich von einem Himmelskörper, der wie der Komet Shoemaker-Levy 9 vor dem Einschlag durch die Gezeitenkräfte des Jupiter zerrissen wurde. Das Alter der Oberfläche Kallistos wird auf 4 Milliarden Jahre datiert. Sie war seit der Frühzeit der Entstehung des Sonnensystems keinen größeren Veränderungen unterworfen, was bedeutet, dass der Mond seit dieser Zeit geologisch nicht mehr aktiv war. Anders als der benachbarte Ganymed mit seiner auffälligen Oberfläche weist Kallisto keine Anzeichen von Plattentektonik auf, obwohl sie in etwa gleich groß ist. Ihre geologische Entwicklung war offensichtlich wesentlich einfacher verlaufen, beziehungsweise nach relativ kurzer Zeit abgeschlossen, während in den übrigen Galileischen Monden komplexere Vorgänge stattfanden. Eisvorkommen und Ozean. Die sichtbare Oberfläche liegt auf einer Eisschicht, die eine geschätzte Mächtigkeit von 200 km aufweist. Darunter befindet sich vermutlich ein 10 km tiefer Ozean aus flüssigem Salzwasser, worauf magnetische Messungen der Raumsonde Galileo hinweisen. Ein weiteres Indiz für flüssiges Wasser ist die Tatsache, dass auf der entgegengesetzten Seite des Kraters Valhalla keine Brüche und Verwerfungen sichtbar sind, wie sie auf massiven Körpern, wie dem Erdmond oder dem Planeten Merkur beobachtet werden können. Eine Schicht flüssigen Wassers hat möglicherweise die seismischen Schockwellen gedämpft, bevor sie sich durch das Mondinnere bewegten. Innerer Aufbau. Das Innere Kallistos ist demnach aus etwa 60 % silikatischem Gestein und 40 % Wassereis aufgebaut, wobei mit zunehmender Tiefe der Silikatanteil ansteigt. Von ihrer Zusammensetzung her ähnelt Kallisto dem Saturnmond Titan und dem Neptunmond Triton. Ihre Masse beträgt daher trotz ihrer Größe nur knapp ein Drittel der Masse des Merkur und ist etwa 30 % größer als die Masse des Erdmondes. Atmosphäre. Aktuelle Beobachtungen weisen darauf hin, dass Kallisto eine äußerst dünne Atmosphäre aus Kohlendioxid besitzt. Magnetfeld. Die Sonde Galileo hatte bei ihren Vorbeiflügen ein schwaches Magnetfeld bei Kallisto gemessen, dessen Stärke variiert, während sich der Mond durch die extrem starke Magnetosphäre des Jupiter bewegt. Dies deutet auf das Vorhandensein einer elektrisch leitenden Flüssigkeit, wie Salzwasser, unterhalb Kallistos Eiskruste hin. Erkundung durch Sondenmissionen. Die Erkundung der Kallisto durch Raumsonden begann in den Jahren 1973 und 1974 mit den Jupiter-Vorbeiflügen von "Pioneer 10" und "Pioneer 11". 1979 konnten "Voyager 1" und "Voyager 2" erstmals genauere Beobachtungen des Mondes vornehmen. Der Großteil des Wissens über Kallisto stammt jedoch vom "Galileo"-Orbiter, welcher 1995 das Jupitersystem erreichte und während der darauf folgenden acht Jahre mehrere Vorbeiflüge am Jupitermond vollführte. Für das Jahr 2020 hatten die Raumfahrtbehörden NASA und ESA die gemeinsame Europa Jupiter System Mission/Laplace vorgeschlagen, welche mindestens zwei Orbiter vorsah, die jeweils in einen Orbit um Europa und Ganymed eintreten und das gesamte Jupitersystem mit einem revolutionären Tiefgang erforschen sollten. Die NASA, die den JEO bauen wollte, stieg jedoch aus dem Projekt aus. Die ESA verwirklicht jedoch den JGO mit leicht abgewandelter Missionsplanung als JUICE. JUICE soll nach ihrer Ankunft am Jupiter im Jahr 2030 und zwei Vorbeiflügen an Europa und 12 Vorbeiflügen an Kallisto 2032 in einen Orbit um Ganymed einschwenken. Da die NASA-Sonde entfällt, wurden die beiden Vorbeiflüge an Europa in den Missionsplan für JUICE aufgenommen. Mögliche bemannte Missionen. Spätestens seit den 1980er Jahren gilt Kallisto als mögliches Ziel der bemannten Raumfahrt für die Zeit nach einem bemannten Marsflug, da sie außerhalb des Strahlengürtels um den Jupiter liegt. Im Jahr 2003 veröffentlichte die NASA eine Studie mit dem Titel "Revolutionary Concepts for Human Outer Planet Exploration" (deutsch etwa "Revolutionäre Konzepte zur Erkundung der äußeren Planeten durch Menschen"), die eine solche Mission – mit Start ab 2045 – in verschiedenen Varianten diskutiert. Als Gründe für die Wahl von Kallisto als Ziel wurden zum einen die stabile Geologie und die vergleichsweise geringe Entfernung zur Erde genannt. Weiterhin könne das Eis auf der Oberfläche zur Gewinnung von Wasser und Treibstoff genutzt werden. Als weiterer Vorteil wurde die geringe Distanz zu Europa bezeichnet, dies ermögliche es der Besatzung, Roboter auf diesem wissenschaftlich äußerst interessanten Mond mit geringer Latenz fernzusteuern, ohne dessen Strahlung ausgesetzt zu sein. Als Voraussetzung für die Durchführung der Mission nennt die Studie eine intensive Erkundung durch unbemannte Sonden ab etwa 2025. Je nach gewähltem und verfügbarem Antrieb würde die eigentliche Mission mit ein bis drei Raumschiffen starten, wobei jeweils eines die Besatzung und die übrigen die Bodenstation, eine Anlage zur Wassergewinnung ("In-situ Resource Utilization") und einen Reaktor zur Energieerzeugung transportieren. Die Missionsdauer liegt zwischen zwei und fünf Jahren mit einer Aufenthaltsdauer von 32 bis 123 Tagen auf dem Mond, wobei aufgrund der unterschiedlichen Antriebstechniken kein Zusammenhang zwischen der Flug- und der Aufenthaltsdauer besteht. Die Studie kommt zu dem Schluss, dass eine bemannte Kallisto-Mission ab dem Jahr 2045 grundsätzlich möglich sei und benennt eine Reihe von Technologien, die bis dahin entwickelt werden müssten. Die Autoren weisen jedoch darauf hin, dass diese Technologien teilweise auch für Missionen zum Erdmond und Mars benötigt werden oder zumindest von Vorteil seien. Carus (Kaiser). Marcus Aurelius Carus (* um 223 in Narbo; † 283 in Mesopotamien) war von 282 bis 283 römischer Kaiser. Leben. Für die kurze Regierungszeit des Carus stehen uns nur wenige Quellen zur Verfügung. In erster Linie sind dies verschiedene spätantike "Breviarien" (z. B. Aurelius Victors "Caesares", das Werk Eutrops und die "Epitome de Caesaribus"), deren Berichte für das 3. Jahrhundert offenbar eine gemeinsame Quelle zugrunde liegt, die sogenannte "Enmannsche Kaisergeschichte". Die Kaisergeschichte des Eusebios, der nicht zu verwechseln ist mit dem Kirchenhistoriker Eusebius von Caesarea, die bis in die Zeit des Carus reichte, ist nicht erhalten. Die Carusbiographie in der "Historia Augusta", die das Werk eines anonymen heidnischen Autors um 400 ist, beinhaltet nur wenige verlässliche Informationen. Hinzu kommen weitere spätere Autoren wie Zosimos, der "Anonymus post Dionem" (wohl mit Petros Patrikios gleichzusetzen) sowie byzantinische Autoren wie Johannes Zonaras, der auf heute verlorene Quellen zurückgreifen konnte (siehe auch "Leoquelle"). Hinzu kommen Münzen und andere nicht-literarische Zeugnisse. Der aus Südgallien stammende Carus durchlief eine militärische Karriere. Obwohl Kaiser Probus ihn zum Prätorianerpräfekten ernannt hatte, wurde Carus von den rätischen und norischen Truppen im Jahr 282 zum Gegenkaiser ausgerufen; unklar ist, ob die Usurpation von ihm selbst ausging oder ihm von den Truppen aufgedrängt wurde. Carus fand aber nach der Ermordung des Probus im selben Jahr allgemeine Anerkennung. Der tote Probus wurde von Carus sogar unter die Götter erhoben. Ende 282 erhob Carus seinen ältesten Sohn Carinus, kurz darauf auch seinen jüngeren Sohn Numerianus zum "Caesar". Über weitere innenpolitische Maßnahmen des Carus sowie über seine Beziehungen zum Senat ist nur wenig bekannt. Carus kämpfte mit Erfolg gegen den an der pannonischen Donau und in der ungarischen Tiefebene lebenden sarmatischen Reiterkriegerstamm der Jazygen und errang Anfang 283 einen Sieg über sie. Carus zog anschließend mit seinem Sohn Numerianus in den Krieg gegen Persien, während Carinus als Verwalter im Westen des Reiches zurückblieb. Carinus wurde im Frühjahr 283, wohl zur Sicherung seiner Autorität während der Abwesenheit des Vaters im Osten und aufgrund von Erfolgen gegen die Germanen, zum "Augustus" erhoben. Carus kam bei seinem Persienfeldzug zugute, dass der damalige Sassanidenkönig Bahram II. mit einer Revolte im Osten seines Reiches zu kämpfen hatte, wo sich dessen Bruder Hormizd erhoben hatte. Offenbar war der Persienfeldzug eine Offensivmaßnahme, denn von vorhergehenden persischen Angriffen auf römisches Gebiet ist nichts bekannt. Dies kann als Anzeichen dafür gesehen werden, dass sich die Lage im Imperium nach der vorhergehenden Krisenzeit entspannt hatte. Details über den Feldzug sind kaum bekannt. Carus eroberte aber im Juni/Juli 283 die persische Hauptresidenz Ktesiphon und nahm dann den Ehrentitel "Persicus Maximus" an. Dennoch hatten weitere Vorstöße der Römer nach Osten keinen Erfolg. Ende Juli 283 fand man den Kaiser tot in seinem Zelt im Feldlager auf. Angeblich wurde er durch einen Blitzschlag getötet, plausibler erscheint aber, dass er an einer Krankheit starb oder ermordet wurde. Seine Söhne traten gemeinsam die Nachfolge an. Literarisch verarbeitet wurde der Tod des Carus u.a. in einer Ballade August von Platens. Carl von Linné. Carl von Linné (vor der Erhebung in den Adelsstand 1756 Carl Nilsson Linnæus; * 23. Mai 1707 in Råshult bei Älmhult; † 10. Januar 1778 in Uppsala) war ein schwedischer Naturforscher, der mit der binären Nomenklatur die Grundlagen der modernen botanischen und zoologischen Taxonomie schuf. Sein offizielles botanisches Autorenkürzel lautet „“. In der Zoologie werden „“, „“ und „“ als Autorennamen verwendet. Linné setzte sich als Student in seinem Manuskript "Praeludia Sponsaliorum Plantarum" mit der noch neuen Idee von der Sexualität der Pflanzen auseinander und legte mit diesen Überlegungen den Grundstein für sein späteres Wirken. Während seines Aufenthaltes in Holland entwickelte er in Schriften wie "Systema Naturae", "Fundamenta Botanica", "Critica Botanica" und "Genera Plantarum" die theoretischen Grundlagen seines Schaffens. Während seiner Tätigkeit für George Clifford in Hartekamp konnte Linné zum ersten Mal viele seltene Pflanzen direkt studieren und schuf mit "Hortus Cliffortianus" das erste nach seinen Prinzipien geordnete Pflanzenverzeichnis. Nach der Rückkehr aus dem Ausland arbeitete Linné für kurze Zeit als Arzt in Stockholm. Er gehörte hier zu den Gründern der Schwedischen Akademie der Wissenschaften und war deren erster Präsident. Mehrere Expeditionen führten ihn durch die Provinzen seiner schwedischen Heimat und trugen zu seiner Anerkennung bei. Ende 1741 wurde Linné Professor an der Universität Uppsala und neun Jahre später deren Rektor. In Uppsala führte er seine enzyklopädischen Anstrengungen weiter, alle bekannten Mineralien, Pflanzen und Tiere zu beschreiben und zu ordnen. Seine beiden Werke "Species Plantarum" (1753) und "Systema Naturæ" (in der zehnten Auflage von 1758) begründeten die bis heute verwendete historische wissenschaftliche Nomenklatur in der Botanik und der Zoologie. Kindheit und Schule. a> wurde wieder so hergestellt, wie er sie in seiner Kindheit erlebte. Carl Linnæus wurde am 23. Mai 1707 in der ersten Stunde nach Mitternacht im kleinen Ort Råshult im Kirchspiel Stenbrohult in der südschwedischen Provinz Småland geboren. Er war das älteste von fünf Kindern des Geistlichen Nils Ingemarsson Linnæus und dessen Frau Christina Brodersonia. Sein Vater interessierte sich sehr für Pflanzen und kultivierte in seinem Garten einige ungewöhnliche Pflanzen aus Deutschland. Diese Faszination übertrug sich auf seinen Sohn, der jede Gelegenheit nutzte, um Streifzüge in die Umgebung zu unternehmen und sich die Namen der Pflanzen von seinem Vater nennen zu lassen. Seine schulische Ausbildung begann im Alter von sieben Jahren durch einen Privatlehrer, der ihn zwei Jahre lang unterrichtete. 1716 schickten ihn seine Eltern auf die neu errichtete Domschule in Växjö mit dem Ziel, dass er später wie sein Vater und Großvater Pfarrer werden sollte. Der junge Linné litt unter den rigiden Erziehungsmethoden der Schule. Das änderte sich erst, als er 1719 die Bekanntschaft des Studenten Gabriel Höök machte, der ihn privat unterrichtete. 1724 wechselte er an das Gymnasium. 1726 reiste sein Vater nach Växjö, um den Arzt Johan Stensson Rothman in einer medizinischen Angelegenheit zu konsultieren und sich über die Leistungen seines Sohnes zu informieren. Er musste erfahren, dass sein Sohn in den für das Priesteramt notwendigen Fächern Griechisch, Hebräisch, Theologie, Metaphysik und Rhetorik nur mäßige Leistungen erbrachte und ihnen wenig Interesse entgegenbrachte. Hingegen glänzte sein Sohn in Mathematik und den Naturwissenschaften, aber auch in Latein. Rothman, der das Talent Linnés für eine medizinische Laufbahn erkannte, bot dem schockierten Vater an, seinen Sohn unentgeltlich in sein Haus aufzunehmen und ihn in Botanik und Physiologie zu unterrichten. Rothman machte Linné mit dem Klassifizierungssystem der Pflanzen von Joseph Pitton de Tournefort bekannt und wies ihn auf Sébastien Vaillants Schrift zur Sexualität der Pflanzen hin. Studium. Im August 1727 ging Linné nach Lund, um an der dortigen Universität zu studieren. Am Ende seiner Schulzeit hatte er vom Rektor des Gymnasiums Nils Krok ein nicht sehr schmeichelhaftes Schreiben für seine Bewerbung in Lund erhalten. Sein alter Freund Gabriel Höök, mittlerweile Magister der Philosophie in Lund, riet ihm, das Schreiben nicht zu verwenden. Er stellte dem Rektor der Universität Lund Linné stattdessen als seinen Privatschüler vor und erreichte so die Immatrikulation an der Universität Lund. Höök überzeugte Professor Kilian Stobæus, Linné in sein Haus aufzunehmen. Stobæus besaß neben einer reichhaltigen Naturaliensammlung eine sehr umfangreiche Bibliothek, die Linné jedoch nicht benutzen durfte. Durch den deutschen Studenten David Samuel Koulas, der zeitweise als Sekretär von Stobæus beschäftigt war, erhielt er dennoch Zugriff auf die Bücher, die er bis spät in die Nacht studierte. Im Gegenzug vermittelte er Koulas seine bei Rothman erlernten Kenntnisse in Physiologie. Verwundert über die nächtlichen Aktivitäten seines Zöglings trat Stobæus eines Nachts unvermittelt in das Zimmer Linnés und fand ihn zu seiner Überraschung in das Studium der Werke von Andrea Cesalpino, Caspar Bauhin und Joseph Pitton de Tournefort vertieft. Fortan hatte Linné freien Zugriff auf die Bibliothek. Während seines Aufenthaltes in Lund unternahm Linné regelmäßig Exkursionen in die Umgebung. So auch an einem warmen Tag Ende Mai 1728, als er mit seinem Kommilitonen Mattias Benzelstierna die Natur in Fågelsång erkundete und von einem kleinen, unscheinbaren Tier, der „Höllenfurie“, gebissen wurde. Die Wunde entzündete sich und konnte nur mit Mühe behandelt werden. Linné entging nur knapp dem Tod. Zur Erholung fuhr Linné im Sommer in seine Heimat. Hier traf er seinen Lehrer Rothman wieder, dem er von seinen Erfahrungen an der Universität Lund berichtete. Durch diesen Bericht gelangte Rothman, der an der Universität Uppsala studiert hatte, zu der Überzeugung, dass Linné sein Medizinstudium besser in Uppsala fortsetzen sollte. Linné folgte diesem Rat und brach am 3. September 1728 nach Uppsala auf. Die Zustände, die Linné an der dortigen Universität vorfand, waren desolat. Olof Rudbeck der Jüngere hielt einige wenige Vorlesungen über Vögel und Lars Roberg philosophierte über Aristoteles. Es gab keine Vorlesungen über Medizin und Chemie, es wurden keine Obduktionen durchgeführt und im alten Botanischen Garten wuchsen kaum zweihundert Arten. Im März 1729 machte Linné die Bekanntschaft von Peter Artedi, mit dem ihn bis zu dessen frühem Tod eine feste Freundschaft verband. Artedis Hauptinteresse galt der Chemie, aber er war auch Botaniker und Zoologe. Die beiden Freunde versuchten sich gegenseitig mit ihren Forschungen zu übertrumpfen. Sie merkten bald, dass es besser wäre, wenn sie die verschiedenen Gebiete der drei Naturreiche entsprechend ihren Interessen unter sich aufteilen würden. Artedi übernahm die Amphibien, Reptilien und Fische, Linné die Vögel und Insekten sowie, mit Ausnahme der Doldenblütler, die gesamte Botanik. Gemeinsam bearbeiteten sie die Säugetiere und das Naturreich der Mineralogie. Etwa zu dieser Zeit nahm ihn Olof Celsius der Ältere in sein Haus auf. Linné half Celsius bei der Fertigstellung von dessen Werk "Hierobotanicon". Die finanzielle Situation Linnés besserte sich. Im Juni 1729 erhielt er ein Königliches Stipendium (II. Klasse), das im Dezember 1729 (I. Klasse) noch einmal erhöht wurde. Zum Ende des Jahres 1729 entstand seine erste bedeutende Schrift "Praeludia Sponsaliorum Plantarum", in der er sich zum ersten Mal mit der Sexualität der Pflanzen auseinandersetzte und die Wegbereiter für sein weiteres Lebenswerk war. Die Schrift wurde schnell bekannt und Olof Rudbeck suchte die persönliche Bekanntschaft Linnés. Zunächst verschaffte er Linné, gegen den Widerstand Robergs, die Stelle des Demonstrators des Botanischen Gartens und stellte ihn als Lehrer seiner drei jüngsten Söhne ein. Mitte Juni zog Linné in Rudbecks Haus. 1730/31 arbeitete Linné an einem Katalog der Pflanzen des Botanischen Gartens von Uppsala ("Hortus Uplandicus", späterer Titel "Adonis Uplandicus"), von dem mehrere Fassungen entstanden. Die Pflanzen waren anfangs noch nach dem Tournefortschen System für die Klassifizierung der Pflanzen angeordnet, an dessen Gültigkeit Linné jedoch immer mehr Zweifel kamen. In der endgültigen Fassung vom Juli 1731, die er in Stockholm beendete, ordnete er die Pflanzen nach seinem eigenen aus 24 Klassen bestehenden System. Während dieser Zeit entstanden die ersten Entwürfe zu seinen frühen Werken, die in Amsterdam veröffentlicht wurden. Ende 1731 sah sich Linné veranlasst, Rudbecks Haus zu verlassen, da die Frau des Universitätsbibliothekars Andreas Norrelius (1679–1750), die in dieser Zeit ebenfalls dort wohnte, Gerüchte über ihn verbreitete, die das gute Verhältnis zu Rudbecks Familie untergruben. Er verbrachte den Jahreswechsel bei seinen Eltern. Reise durch Lappland. Linnés Tagebuch zur lappländischen Reise enthält zahlreiche Zeichnungen. Hier hat er einen Lappländer skizziert, der sein Boot trägt. In einem Brief vom 26. Dezember 1731 empfahl sich Linné der Königlichen Gesellschaft der Wissenschaften in Uppsala für eine Expedition in das weitgehend unerforschte Lappland und bat um die notwendige finanzielle Unterstützung. Als er keine Antwort erhielt, unternahm er Ende April 1732 einen weiteren Versuch und senkte den für die Reise notwendigen Geldbetrag um ein Drittel. Dieses Mal wurde ihm der Betrag gewährt und er begann am 23. Mai seine erste große Expedition. Die beschwerliche Reise, während der er alle seine Erlebnisse und Entdeckungen in einem Tagebuch festhielt, dauerte knapp fünf Monate. Am 21. Oktober 1732 traf er wieder in Uppsala ein. Zu den Strapazen der Reise und den Schulden, die Linné zusätzlich auf sich genommen hatte, kam noch die Enttäuschung, dass die Akademie nur wenige Seiten seiner Ergebnisse publizierte. Sein Buch über die lappländische Pflanzenwelt, "Flora Lapponica", wurde erst 1737 in Amsterdam veröffentlicht. Von dieser Reise brachte er erstmals Spielregeln und Spielbrett des zur Wikingerzeit weit verbreiteten Spiels Tablut mit. Falun und die Reise durch Dalarna. Im Frühjahrssemester 1733 hielt Linné private Kurse in Dokimastik und schrieb eine kurze Abhandlung über das für ihn neue Thema. Er katalogisierte seine Vogel- und Insektensammlung und arbeitete an zahlreichen Manuskripten. Von Clas Sohlberg, einem seiner Studenten, erhielt er eine Einladung, den Jahreswechsel 1733/1734 bei dessen Familie in Falun zu verbringen. Clas’ Vater, Eric Nilsson Sohlberg, war Inspektor der dortigen Minen, und so ergab sich für Linné die Möglichkeit, die Arbeit in den Minen ausgiebig zu studieren. Er kehrte erst im März 1734 nach Uppsala zurück und gab weiter Privatunterricht in Mineralogie, Botanik und Diätetik. Während des Aufenthaltes in Falun machte Linné die Bekanntschaft von Johan Browall, der die Kinder des Gouverneurs der Provinz Dalarna, Nils Reutersholm, unterrichtete. Reutersholm war beeindruckt von den Berichten über Linnés Lapplandreise und plante, eine solche Erkundungsreise in der von ihm verwalteten Provinz durchzuführen. Es fanden sich genügend Geldgeber für das Unternehmen, und die aus acht Mitgliedern bestehende "Societas Itineraria Reuterholmiana" (Reuterholm-Reise-Gesellschaft), der Linné als Präsident vorstand, wurde gegründet. Die Reise durch die Provinz Dalarna begann am 3. Juli 1734 und dauerte bis zum 18. August 1734. Linnés Reisebericht "Iter Dalecarlicum" wurde erst posthum veröffentlicht. Linné blieb in Falun und übernahm den Unterricht von Reutersholms Söhnen. Browall überzeugte ihn, ins Ausland zu gehen, um dort seinen Doktorgrad zu erhalten, der ihm bisher aufgrund seiner angespannten finanziellen Situation verwehrt geblieben war. Es fand sich schließlich eine Lösung für die Reisekosten. Linné sollte Clas Sohlberg nach Holland begleiten und unterrichten und dort promovieren. Er kehrte nach Uppsala zurück, um seine Reisevorbereitungen zu treffen, und traf nach einem kürzeren Aufenthalt in Stockholm Ende des Jahres wieder in Falun ein. Zum Jahreswechsel 1734/35 lernte er Sara Elisabeth Moraea kennen, eine Tochter des Stadtarztes von Falun, und machte ihr einen Heiratsantrag. Dieser wurde von ihrem Vater, der auf die wirtschaftliche Unabhängigkeit seiner Tochter bedacht war, unter der Bedingung akzeptiert, dass Linné seinen Doktorgrad erwerben und die Hochzeit innerhalb der nächsten drei Jahre stattfinden würde. Drei Jahre in Holland. Das Titelblatt der 1. Auflage von "Systema Naturae", in dem Linné 1735 sein System zur Klassifizierung der drei Naturreiche erstmals vorstellte. Linnés Reise südwärts führte ihn über Växjö und Stenbrohult. Am 15. April 1735 brach er von Stenbrohult nach Deutschland auf. Anfang Mai erreichte er Travemünde und begab sich sogleich nach Lübeck, von wo er am nächsten Morgen mit der Postkutsche nach Hamburg reiste. Hier lernte er Johann Peter Kohl kennen, den Herausgeber der Zeitschrift "Hamburgische Berichte von Neuen Gelehrten Sachen". Er besuchte den umfangreichen Garten des Juristen Johann Heinrich von Spreckelsen, in dem er unter anderem 45 Aloe- und 56 Mittagsblumen-Arten zählte. Auch der Bibliothek von Johann Albert Fabricius stattete er einen Besuch ab. Als Linné unvorsichtigerweise eine siebenköpfige Hydra, die zu einem hohen Preis zum Verkauf stand und dem Bruder des Hamburger Bürgermeisters Johann Anderson gehörte, als Fälschung entlarvte, riet ihm der Arzt Gottfried Jacob Jänisch, Hamburg zügig zu verlassen, um möglichem Ärger aus dem Weg zu gehen. So brach Linné schon am 27. Mai von Altona nach Holland auf. Am 13. Juni kam Linné in Amsterdam an. Hier hielt er sich nur wenige Tage auf und segelte am Abend des 16. Juni nach Harderwijk, um endlich den lang erwarteten Abschluss als Doktor der Medizin zu erhalten. Noch am selben Tag schrieb er sich in das "Album Studiosorum" der Universität Harderwijk ein. Zwei Tage später bestand er bei Johannes de Gorter seine Prüfung als "Candidatus Medicinae" und übergab diesem seine Dissertation "Hypothesis Nova de Febrium Intermittentium Causa", die er schon in Schweden fertiggestellt hatte. Die verbleibenden Tage bis zu seiner Prüfung verbrachte er botanisierend mit David de Gorter, dem Sohn seines Prüfers. Am Mittwoch, den 23. Juni 1735, bestand er sein Examen und kehrte, nachdem ihm sein Diplom ausgehändigt wurde, schon am nächsten Tag nach Amsterdam zurück. Hier verweilte er nur kurz, denn er wollte unbedingt Herman Boerhaave kennenlernen, der in Leiden wirkte. Das Treffen auf Boerhaaves Landsitz Oud Poelgeest kam erst aufgrund der Unterstützung von Jan Frederik Gronovius zustande, der ihm ein Empfehlungsschreiben ausstellte. Zuvor hatte Linné Gronovius und Isaac Lawson einige seiner Manuskripte gezeigt, darunter einen ersten Entwurf von "Systema Naturae". Beide waren von der Originalität des Linnéschen Ansatzes, die drei Naturreiche Mineralien, Pflanzen und Tiere zu klassifizieren, so beeindruckt, dass sie beschlossen, das Werk auf eigene Kosten herauszugeben. Gronovius und Lawson wirkten als Korrektoren für dieses und weitere in Holland entstandene Werke Linnés und überwachten die Fortschritte der Drucklegung. Auf Boerhaaves Empfehlung fand Linné Arbeit und Unterkunft bei Johannes Burman, dem er bei der Zusammenstellung seines "Thesaurus Zeylanicus" half. In Burmans Haus stellte Linné sein Werk "Bibliotheca Botanica" fertig und lernte dort auf Empfehlung von Gronovius den Bankier George Clifford kennen. Gronovius hatte Clifford vorgeschlagen, Linné als Kurator seiner Sammlung in Hartekamp einzustellen und von ihm seinen Garten, den "Hortus Hartecampensis", beschreiben zu lassen. Am 24. September 1735 begann Linné seine Arbeit in Hartekamp. Nur fünf Tage später erhielt er die Botschaft, dass sein Freund Peter Artedi, den er erst wenige Wochen vorher zufällig in Amsterdam wiedergetroffen hatte, in einem Amsterdamer Kanal ertrunken war. Linné erfüllte das wechselseitige Versprechen der Freunde, das Werk des anderen fortzuführen und zu veröffentlichen, und bearbeitete und verlegte während seiner Zeit in Holland die Werke von Artedi. Bald nach Linnés Ankunft in Hartekamp traf dort der deutsche Pflanzenzeichner Georg Dionysius Ehret ein, der von Clifford eine Zeitlang als Zeichner eingestellt wurde. Linné erklärte ihm sein neues Klassifizierungssystem für Pflanzen, woraufhin Ehret, zunächst für seinen privaten Gebrauch, eine Zeichnung mit den Unterscheidungsmerkmalen der 24 Klassen anfertigte. Die Tafel mit dem Titel "Caroli Linnaei classes sive literae" wurde gelegentlich mit der Erstausgabe von Linnés "Systema Naturae" zusammengebunden und war Bestandteil einiger weiterer seiner Werke. In Hartekamp arbeitete Linné an mehreren Projekten gleichzeitig. So entstanden hier seine Werke "Fundamenta Botanica", "Flora Lapponica", "Genera Plantarum" und "Critica Botanica" und gingen Seite für Seite nach der Korrektur zum Drucker. Nebenher gelang es ihm, mit Hilfe des deutschen Gärtners Dietrich Nietzel die in einem der Warmhäuser Cliffords wachsende Bananenpflanze zu Blüte und Fruchtansatz zu bringen. Dieses Ereignis war der Anlass für ihn, die Abhandlung "Musa Cliffortiana" zu schreiben. Das Werk ist die erste Monografie über eine Pflanzengattung. England und Frankreich. Im Sommer 1736 wurde Linnés Arbeit in Holland durch eine Reise nach England unterbrochen. In London studierte er Hans Sloanes Sammlung und erhielt von Philip Miller aus dem Chelsea Physic Garden seltene Pflanzen für Cliffords Garten. Während des einmonatigen Aufenthaltes traf er mit Peter Collinson und John Martyn zusammen. Bei einem Kurzaufenthalt in Oxford lernte er Johann Jacob Dillen kennen. Zurück in Hartekamp arbeitete Linné unter dem zunehmenden Druck von Clifford am "Hortus Cliffortianus" weiter, dessen Fertigstellung sich aber insbesondere aufgrund von Problemen mit den Kupferstichen bis 1738 verzögerte. Im Sommer 1737 wurde ihm von Boerhaave der Posten eines Arztes der WIC, der Niederländischen Westindien-Kompanie in Niederländisch-Guayana angeboten. Er lehnte jedoch ab und empfahl Boerhaave stattdessen den Arzt Johann Bartsch, der ihm bei der Bearbeitung seiner "Flora Lapponica" geholfen hatte. Zu dieser Zeit hatte Linné bereits Pläne, Holland wieder zu verlassen, und schlug alle Angebote Cliffords aus, auf dessen Kosten zu bleiben. Erst als Adriaan van Royen ihn bat, den Botanischen Garten in Leiden nach seinem System neu zu ordnen und wenigstens noch über den Winter zu bleiben, gab Linné nach. Seine Reisepläne indes standen fest. Über Frankreich und Deutschland, wo er unter anderem Albrecht von Haller in Göttingen zu treffen hoffte, wollte er endgültig nach Schweden zurückkehren. Ein schweres Fieber, an dem er Anfang 1738 mehrere Wochen litt, verzögerte die Abreise jedoch immer weiter. Im Mai 1738 hatte sich Linné so weit erholt, dass er die Reise nach Frankreich antreten konnte. Von Leiden aus reiste er über Antwerpen, Brüssel, Mons, Valenciennes und Cambrai nach Paris. Van Royen hatte ihm ein Empfehlungsschreiben an Antoine de Jussieu mitgegeben. Dieser vertraute ihn aus Zeitmangel der Obhut seines Bruders Bernard de Jussieu an, der zu dieser Zeit den Lehrstuhl für Botanik am Jardin du Roi innehatte. Gemeinsam besichtigten sie den Königlichen Garten, die Herbarien von Joseph Pitton de Tournefort, Sébastien Vaillant und Joseph Donat Surian sowie die Büchersammlung von Antoine-Tristan Danty d’Isnard und unternahmen botanische Exkursionen in die Umgebung von Paris. Während einer Sitzung der Pariser Akademie der Wissenschaften wurde Linné aufgrund eines Vorschlags von Bernard de Jussieu korrespondierendes Mitglied der Akademie. Der Superintendant des Jardin du Roi Charles du Fay versuchte vergeblich, Linné von einem Verbleib in Frankreich zu überzeugen. Linné wollte jedoch endlich in seine Heimat zurückkehren. Er gab den Plan auf, nach Deutschland zu reisen, und schiffte sich nach einem Monat Aufenthalt in Frankreich in Rouen nach Schweden ein. Rückkehr nach Schweden und Heirat. Linné kurz nach seiner Heirat (1739). Bildnis von Johan Henrik Scheffel (1690–1781). Über das Kattegat kam Linné in Helsingborg an. Nach einem kurzen Aufenthalt bei seiner Familie in Stenbrohult reiste er nach Falun weiter, wo kurz darauf die Verlobung mit Sara Elisabeth Moraea stattfand. Um sich seinen Lebensunterhalt zu verdienen, ließ er sich im September 1738 in Stockholm als Arzt nieder. Nach anfänglichen Schwierigkeiten erlangte er durch die Bekanntschaft mit Carl Gustaf Tessin recht schnell Zugang zur Stockholmer Gesellschaft. Gemeinsam mit Mårten Triewald, Anders Johan von Höpken, Sten Carl Bielke, Carl Wilhelm Cederhielm und Jonas Alströmer gründete er im Mai 1739 die Königlich Schwedische Akademie der Wissenschaften und wurde ihr erster Präsident. Die Präsidentschaft gab er satzungsgemäß Ende September 1739 bereits wieder ab. Ebenfalls im Mai 1739 wurde er Nachfolger von Triewald am Königlichen Bergwerkskollegium Stockholm, an dem er Vorlesungen über Botanik und Mineralogie hielt, sowie aufgrund einer Empfehlung des Admirals Theodor Ankarcrona Arzt der schwedischen Admiralität. Derart finanziell abgesichert konnte er am 26. Juni 1739 seine Verlobte Sara Elisabeth Moraea heiraten. Aus der Ehe gingen mit Carl, Elisabeth Christina, Sara Magdalena, Lovisa, Sara Christina, Johannes und Sofia sieben Kinder hervor. Sara Magdalena und Johannes starben bereits im Kindesalter. Linnés gleichnamiger Sohn Carl wurde wie sein Vater Botaniker, konnte das Werk des Vaters jedoch nur kurze Zeit fortführen und starb im Alter von 42 Jahren. Reise durch Öland und Gotland. Einen Monat nach seiner Hochzeit kehrte Linné nach Stockholm zurück. Im Januar 1741 erhielt er vom Ständereichstag das Angebot, die Inseln Öland und Gotland zu erkunden. Linné und seine sechs Begleiter, darunter Johan Moraeus, ein Bruder seiner Frau, brachen am 26. Mai 1741 von Stockholm aus auf. Sie waren zweieinhalb Monate unterwegs und erregten durch ihre Tätigkeit im Vorfeld des Russisch-Schwedischen Kriegs manchmal den Verdacht russischer Spionageaktivitäten. Mit der Veröffentlichung des Reiseberichtes "Ölandska och Gothländska Resa" 1745 hatte Linné zum ersten Mal ein Werk in seiner schwedischen Muttersprache verfasst. Bemerkenswert ist der Index des Werkes, in dem die Pflanzen verkürzt in zweiteiliger Weise benannt waren. Außerdem wurde mit einem numerischen Index auf die Arten in dem im gleichen Jahr erschienenen Werk "Flora Suecica" verwiesen. Professor in Uppsala. Im Frühjahr 1740 starb Olof Rudbeck, und dessen Lehrstuhl für Botanik an der Universität Uppsala musste neu besetzt werden. Lars Roberg, Inhaber des Lehrstuhls für Medizin, wollte sich bald zur Ruhe setzen, so dass dieser Lehrstuhl ebenfalls neu zu vergeben war. Neben Linné gab es mit Nils Rosén von Rosenstein und Johan Gottschalk Wallerius zwei weitere Anwärter. In Absprache mit dem schwedischen Kanzler Carl Gyllenborg sollte Rosén die Stelle Rudbecks erhalten und Linné die freiwerdende Position von Roberg. Später sollten sie dann die Lehrstühle tauschen. Linnés offizielle Ernennung zum Professor für Medizin erfolgte am 16. Mai 1741. In seiner „Rede von der Bedeutung, in seinem eigenen Land zu reisen“ anlässlich der Übernahme das Lehrstuhls, die er am 8. November 1741 hielt, betonte er den ökonomischen Nutzen, der sich aus einer Kartierung der schwedischen Natur ergäbe. Jedoch sei es nicht nur wichtig, die Natur zu studieren, sondern auch lokale Krankheiten, deren Heilmethoden und die verschiedenartigen landwirtschaftlichen Methoden. Seine erste öffentliche Vorlesung fand knapp eine Woche später statt. Ende des Jahres tauschten Linné und Rosén die Lehrstühle. Linné unterrichtete Botanik, Diätetik, Materia Medica und hatte die Aufsicht über den Alten Botanischen Garten. Rosén lehrte Praktische Medizin, Anatomie und Physiologie. Für die Gebiete Pathologie und Chemie waren sie gemeinsam verantwortlich. Linné begann mit der Umgestaltung des Botanischen Gartens und beauftragte damit Carl Hårleman. Das zum Garten gehörende Haus von Olof Rudbeck dem Älteren wurde renoviert und Linné zog mit seiner Familie dort ein. Im Garten wurden neue Gewächshäuser errichtet und Pflanzen aus der ganzen Welt angesiedelt. In seinem Werk "Hortus Upsaliensis" beschrieb Linné 1748 etwa 3000 verschiedene Pflanzenarten, die in diesem Garten kultiviert wurden. 1750 wurde er Rektor der Universität Uppsala. Diese Position übte er bis wenige Jahre vor seinem Tod aus. Vor seinem Amtsantritt als Rektor hatte Linné noch zwei weitere Reisen durch Schweden unternommen. Vom 23. Juni bis 22. August 1746 bereiste er gemeinsam mit Erik Gustaf Lidbeck, der später Professor in Lund wurde, die Provinz Västergötland. Linnés Aufzeichnungen erschienen ein Jahr später unter dem Titel "Västgöta Resa". Eine letzte Reise führte Linné vom 10. Mai bis 24. August 1749 durch die südlichste schwedische Provinz Schonen. Sein Student Olof Andersson Söderberg, der im Vorjahr bei ihm promoviert hatte und später Professor in Halle war, ging ihm während der Reise als sein Sekretär zur Hand. Die "Skånska Resa" wurde 1751 veröffentlicht. Mitte Dezember 1772 hielt er seine Abschiedsrede über „Die Freuden der Natur“. Species Plantarum. Linnés Reisen durch Schweden ermöglichten es ihm, in den Werken "Flora Suecica" (1745) und "Fauna Suecica" (1746) die Pflanzen- und Tierwelt Schwedens ausführlich zu beschreiben. Sie waren wichtige Schritte zur Vollendung seiner beiden bedeutsamsten Werke "Species Plantarum" (erste Auflage 1753) und "Systema Naturae" (zehnte Auflage 1759). Linné ermutigte seine Schüler, die Natur unerforschter Regionen selbst zu erkunden, und verschaffte ihnen auch die Möglichkeiten dazu. Die auf Entdeckungsreise gegangenen Schüler nannte er „seine Apostel“. 1744 schickte ihm der dänische Apotheker August Günther fünf Bände des von Paul Hermann von 1672 bis 1677 in Ceylon angefertigten Herbariums und bat Linné, ihm bei der Identifizierung der Pflanzen zu helfen. Linné konnte etwa 400 der zirka 660 herbarisierten Pflanzen verwenden und in sein Klassifizierungssystem einordnen. Seine Ergebnisse veröffentlichte er 1747 als "Flora Zeylanica". Ein schwerer Gichtanfall zwang Linné 1750, seinem Schüler Pehr Löfling den Inhalt von "Philosophia Botanica" (1751) zu diktieren. Das auf seinen in "Fundamenta Botanica" formulierten 365 Aphorismen aufbauende Werk war als Lehrbuch der Botanik konzipiert. Er stellte darin sein System zu Unterscheidung und Benennung von Pflanzen dar und erläuterte es durch knappe Kommentare. Von Mitte 1751 bis 1752 arbeitete Linné intensiv an der Fertigstellung von "Species Plantarum". In den Mitte 1753 erschienenen zwei Bänden beschrieb er auf 1200 Seiten mit ungefähr 7300 Arten alle ihm bekannten Pflanzen der Erde. Besondere Bedeutung hat das Epitheton, das er als Marginalie zu jeder Art am Seitenrand vermerkte und das eine Neuerung gegenüber seinen früheren Werken war. Der Gattungsname und das Epitheton bilden zusammen den zweiteiligen Namen der Art, so wie er in der modernen botanischen Nomenklatur noch heute verwendet wird. Systema Naturae. Im Veröffentlichungsjahr von "Species Plantarum" erschien mit "Museum Tessinianum" eine Aufstellung der Objekte der Mineralien- und Fossiliensammlung von Carl Gustaf Tessin, die Linné angefertigte hatte. Das Sammeln von naturhistorischen Kuriositäten war zu dieser Zeit auch in Schweden sehr verbreitet. Adolf Friedrich hatte in Schloss Drottningholm eine Sammlung seltener Tierarten zusammengetragen und beauftragte Linné mit deren Inventarisierung. Linné verbrachte dafür in den Jahren 1751 bis 1754 insgesamt neun Wochen auf dem Schloss des Königs. Der erste Band von "Museum Adolphi Friderici" (1754) enthielt 33 Zeichnungen (zwei von Affen, neun von Fischen und 22 von Schlangen). Es ist das erste Werk, in dem die binäre Nomenklatur durchgängig in der Zoologie angewendet wurde. In der 10. Auflage von "Systema Naturae" übernahm Linné die binäre Nomenklatur endgültig für die Tierarten, die im ersten Band beschrieben sind. Im zweiten Band von "Systema Naturae" behandelte er die Pflanzen. Ein ursprünglich geplanter dritter Band, der die Mineralien zum Inhalt haben sollte, erschien nicht. 1758, das Erscheinungsjahr von "Systema Naturae", markiert damit den Beginn der modernen zoologischen Nomenklatur. Die schwedische Königin Luise Ulrike hatte in ihrem Schloss Ulriksdal ebenfalls eine naturhistorische Sammlung angelegt, die aus 436 Insekten, 399 Muscheln und 25 weiteren Mollusken bestand und in der Abhandlung "Museum Ludovicae Ulricae" (1764) durch Linné beschrieben wurde. Den Anhang bildete der zweite Band der Beschreibung des Museums ihres Mannes mit 156 Tierarten. Letzte Jahre. In seinen letzten Lebensjahren war Linné damit beschäftigt, die zwölfte Auflage von "Systema Naturae" (1766–1768) zu bearbeiten. Es entstanden die als Anhang dazu gedachten Werke "Mantissa Plantarum" (1767) und "Mantissa Plantarum Altera" (1771). In ihnen beschrieb er zahlreiche neue Pflanzen, die er von seinen Korrespondenten aus der ganzen Welt erhalten hatte. Im Mai 1774 erlitt er während einer Vorlesung im Botanischen Garten der Universität Uppsala einen Schlaganfall. Ein zweiter Schlaganfall 1776 lähmte seine rechte Seite und schränkte seine geistigen Fähigkeiten ein. Carl von Linné starb am 10. Januar 1778 an einem Geschwür an der Harnblase und wurde im Dom zu Uppsala begraben. Rezeption und Nachwirkung. Anonymes Porträt mit der Inschrift „Deus creavit, Linnaeus disposuit“ („Gott erschuf, Linné ordnete“) aus Dietrich Heinrich Stövers "Leben des Ritters Carl von Linné" von 1792 Lebenswerk. Mit seinen Verzeichnissen "Species Plantarum" (für Pflanzen, 1753) und "Systema Naturae" (für Pflanzen, Tiere und Mineralien, 1758/1759 beziehungsweise 1766–1768) schuf Linné die Grundlagen der modernen botanischen und zoologischen Nomenklatur. In diesen beiden Werken gab er zu jeder beschriebenen Art zusätzlich ein Epitheton an. Gemeinsam mit dem Namen der Gattung diente es als Abkürzung des eigentlichen Artnamens, der aus einer langen beschreibenden Wortgruppe (Phrase) bestand. Aus "Canna foliis ovatis utrinque acuminatis nervosis" entstand so die leicht zu merkende Bezeichnung "Canna indica". Das Ergebnis der Einführung zweiteiliger Namen ist die konsequente Trennung der Beschreibung einer Art von ihrer Benennung. Durch diese Trennung konnten neu entdeckte Pflanzenarten unproblematisch in seine Systematik aufgenommen werden. Linnés Systematik umfasste die drei Naturreiche Mineralien (einschließlich der Fossilien), Pflanzen und Tiere. Im Gegensatz zu seinen Beiträgen zur Botanik und Zoologie, deren fundamentale Bedeutung für die biologische Systematik schnell anerkannt wurde, blieben seine mineralogischen Untersuchungen bedeutungslos, da ihm die dafür notwendigen chemischen Kenntnisse fehlten. Die erste chemisch begründete Klassifizierung der Mineralien wurde 1758 von Axel Frederic von Cronstedt aufgestellt. In grundsätzlicher Opposition zu der von Linné vertretenen Auffassung, dass die ganze Natur in eine Taxonomie erfasst werden kann, stand der zeitgenössische Naturforscher Georges-Louis Leclerc de Buffon. Buffon war der Ansicht, dass die Natur zu unterschiedlich und zu reich sei, um sich einem so strengen Rahmen anzupassen. Der Philosoph Michel Foucault beschrieb Linnés Vorgehensweise des Klassifizierens so, dass es ihm darum gegangen sei, „systematisch wenige Dinge zu sehen“. Ihm sei es insbesondere darum gegangen, die Ähnlichkeiten der Dinge in der Welt aufzulösen. So schrieb Linné in seiner "Philosophia Botanica": „Alle dunklen Ähnlichkeiten sind nur zur Schande der Kunst eingeführt worden“. Linné ging zudem von der Konstanz der Arten aus: „Es gibt so viele Arten, als Gott am Anfang als verschiedene Gestalten geschaffen hat.“ Er unterteilte die Arten bewusst anhand künstlich ausgewählter Merkmale wie Anzahl, Form, Größenverhältnis und Lage in Klassen und Ordnungen, um ein einfach zu handhabendes und leicht erlernbares System für die Einordnung der Arten zu schaffen. Bei den Pflanzen verwandte er beispielsweise Merkmale der Staubblätter, um die Klasse zu bestimmen, und Merkmale der Stempel, um die Ordnung einer Pflanzenart festzulegen. Auf diese Weise entstand ein sogenanntes „künstliches System“, da es die natürlichen Verwandtschaftsverhältnisse der Arten untereinander nicht berücksichtigte. Die Gattungen und Arten hielt er für natürlich und ordnete sie daher unter Verwendung einer Vielzahl von Kennzeichen entsprechend ihrer Ähnlichkeit. Linné war bestrebt, ein „natürliches System“ zu schaffen, kam jedoch über Ansätze wie "Ordines Naturales" in der sechsten Auflage von "Genera Plantarum" (1764) nicht hinaus. Für die Pflanzen gelang es erst Antoine-Laurent de Jussieu, ein solches natürliches System aufzustellen. Auszeichnungen und Würdigung. Linné wurde am 30. Januar 1747 zum Archiater (Leibarzt) des Königs ernannt. Am 27. April 1753 wurde ihm der Nordstern-Orden verliehen. Ende 1756 wurde Carl Linnaeus vom schwedischen König Adolf Friedrich geadelt und erhielt den Namen Carl von Linné. Den auf den 20. April 1757 datierten Adelsbrief unterzeichnete der König im November 1761. Die Erhebung in den Adelsstand wurde erst Ende 1762 mit der Bestätigung durch das Riddarhuset wirksam. Linné war Mitglied zahlreicher wissenschaftlicher Akademien und Gelehrtengesellschaften. Hierzu zählten unter anderem die Deutsche Akademie der Naturforscher Leopoldina, der er unter dem Namen "Dioscurides II." angehörte, die Königliche Gesellschaft der Wissenschaften in Uppsala, die Société Royale des Sciences de Montpellier, die Königlich-Preußische Akademie der Wissenschaften, die Royal Society, die Académie royale des Sciences, Inscriptions et Belles-Lettres de Toulouse, die Pariser Akademie der Wissenschaften, die Russische Akademie der Wissenschaften in Sankt Petersburg und die Königliche Großbrittannische Churfürstliche Braunschweigische Lüneburgische Landwirthschaftsgesellschaft Celle. Jan Frederik Gronovius benannte Linné zu Ehren die Gattung "Linnaea" (Moosglöckchen) der Pflanzenfamilie der Linnaeaceae. Ebenso sind nach ihm der Mondkrater Linné im Mare Serenitatis, der Asteroid Linnaeus sowie das Mineral Linneit benannt. Der Botaniker William Thomas Stearn schlug 1959 das im Dom von Uppsala bestattete Skelett von Carl von Linné zum Lectotypus für die Art "Homo sapiens" vor. "Homo sapiens" wurde dadurch nach den zoologischen Nomenklaturregeln gültig als diejenige Tierart definiert, zu der Carl von Linné gehörte. Die aktuelle Serie der Schwedischen Krone führt seit 2001 das Bildnis Carl von Linnés auf der Banknote zu 100 Kronen. Nachlass und Briefwechsel. Nach dem Tod Linnés und dem Tod seines Sohnes Carl bot seine Frau Sara den gesamten Nachlass Joseph Banks für 3000 Guineen zum Kauf an. Dieser lehnte jedoch ab und überzeugte James Edward Smith, die Sammlung zu erwerben. Im Oktober 1784 kam Linnés Sammlung in London an und wurde in Chelsea öffentlich ausgestellt. Linnés Nachlass ist heute im Besitz der Londoner Linné-Gesellschaft, deren höchste Auszeichnung die jährlich vergebene Linné-Medaille ist. Linné unterhielt bis zu seinem Tod einen umfangreichen Briefwechsel mit Partnern in der ganzen Welt. Davon stammten ungefähr 200 aus Schweden und 400 aus anderen Ländern. Über 5000 Briefe sind erhalten geblieben. Allein sein Briefwechsel mit Abraham Bäck, seinem engen Freund und Vertrauten, umfasst weit über 500 Briefe. Wichtige botanische und zoologische Briefpartner waren Herman Boerhaave, Johannes Burman, Jan Frederik Gronovius und Adriaan van Royen in Holland, Joseph Banks, Mark Catesby, Peter Collinson, Philip Miller, James Petiver und Hans Sloane in England, Johann Reinhold Forster, Johann Gottlieb Gleditsch, Johann Georg Gmelin und Albrecht von Haller in Deutschland, Nikolaus Joseph von Jacquin in Österreich, sowie Antoine Nicolas Duchesne und Bernard de Jussieu in Frankreich. Kritiker. Die von Linné schon 1729 als Student in "Praeludia Sponsaliorum Plantarum" verwendete Analogie von Pflanzen und Tieren hinsichtlich ihrer Sexualität provozierte etliche seiner Zeitgenossen zur Kritik. Eine erste Kritik zu Linnés Sexualsystem der Pflanzen schrieb Johann Georg Siegesbeck 1737 in einer Anlage zu seiner Schrift "Botanosophiae": „[Wenn] acht, neun, zehn, zwölf oder gar zwanzig und mehr Männer in demselben Bett mit einer Frau gefunden werden [oder wenn] dort, wo die Betten der wirklichen Verheirateten einen Kreis bilden, auch die Betten der Dirnen einen Kreis beschließen, so dass die von verheirateten Männern begattet werden […] Wer möchte glauben, dass von Gott solche verabscheuungswürdige Unzucht im Reiche der Pflanzen eingerichtet wurden ist? Wer könnte solch unkeusches System der akademischen Jugend darlegen, ohne Anstoß zu erregen?“ Julien Offray de La Mettrie spottete in "L’Homme Plante" (1748, kurz danach Bestandteil von "L’Homme Machine") über Linnés System, indem er darin die Menschheit anhand der von Linné eingeführten Begriffe klassifizierte. Die Menschheit bezeichnete er als "Dioecia" (d. h. männliche und weibliche Blüten auf verschiedenen Pflanzen). Männer gehören zur Ordnung "Monandria" (ein Staubblatt) und Frauen zur Ordnung "Monogyna" (ein Stempel). Die Kelchblätter interpretierte er als Kleidung, die Kronblätter als Gliedmaßen, die Nektarien als Brüste und so fort. Selbst Johann Wolfgang von Goethe, der bekannte, „dass nach Shakespeare und Spinoza auf mich die größte Wirkung von Linné ausgegangen [ist], und zwar gerade durch den Widerstreit, zu welchem er mich aufforderte“, urteilte: „Wenn unschuldige Seelen, um durch eigenes Studium weiter zu kommen, botanische Lehrbücher in die Hand nehmen, können sie nicht verbergen, dass ihr sittliches Gefühl beleidigt sei; die ewigen Hochzeiten, die man nicht los wird, wobei die Monogamie, auf welche Sitte, Gesetz und Religion gegründet sind, ganz in vage Lüsternheit sich auflöst, bleibt dem reinen Menschensinn unerträglich.“ Dissertationen. Unter dem Vorsitz von Linné sind von 1743 bis 1776 insgesamt 185 Dissertationen entstanden, die ihm häufig direkt zugeschrieben werden. Die Dissertationen seiner Doktoranden wurden im zehnbändigen "Amoenitates Academicae" (Stockholm bzw. Erlangen, 1751–1790) veröffentlicht. CD-ROM. CD-ROM ist die Abkürzung für "Compact Disc Read-Only Memory", ein physischer Permanentspeicher für digitale Daten. Sie ist nach der Audio-CD die zweite Anwendung der Compact Disc. Eine CD-ROM speichert zwischen 650 MiB (entspricht 74 Minuten Musik – den herkömmlichen Audio-CDs) und 879 MiB (100-Minuten-CDs, die aber nicht in allen CD-Brennern beschrieben und nicht in allen CD-Laufwerken gelesen werden können). Je nach Qualität und Art des Rohlings und nach Brenner kann auch noch außerhalb des standardisierten Bereichs gebrannt werden (überbrennen). Dies kann jedoch zu Fehlern oder Verlust der Daten in diesem Bereich führen. Viele Computersysteme verfügen über ein CD-ROM-Laufwerk, mit dem die Daten gelesen werden können. Die CD-ROM ist eines der wenigen Speichermedien, die von verschiedenen Computersystemen gelesen werden können, vorausgesetzt die Daten wurden nach der ISO-9660-Norm aufgezeichnet. Andere verbreitete Dateisysteme für CD-ROM sind zum Beispiel Rockridge (UNIX) und Joliet (Windows). Unterstützt eine CD-ROM die El-Torito-Spezifikation, so ist sie ein bootfähiges Medium. Alle diese Spezifikationen setzen jedoch auf der ISO 9660-Norm auf. Die erste CD wurde 1979 auf einer Messe in Tokio vorgestellt. Die CD-ROM ist ein verbreitetes (physisches) Medium zum Verteilen von Daten und Software. Die "CD-ROM" ist eines der offiziellen CD-Formate, die in den „Bunten Büchern“ ("Rainbow Books") spezifiziert sind, im Falle von CD-ROM im „Yellow Book“ (= Daten-CDs) und „Orange Book“ (= beschreibbare CD-Formate mit Multisession-Fähigkeit). Nur wenn die dort beschriebenen Spezifikationen eingehalten werden, darf die CD-ROM das von Philips vergebene offizielle Compact-Disc-Logo tragen. Es existieren weitere spezielle Formate, z. B. CD-ROM XA (XA steht hierbei für eXtended Architecture), CD-Extra, CD-i usw. Da bei der Herstellung von CD-ROM (und deren Derivate) bestimmte Patente von Philips und/oder Sony genutzt werden, ist zu prüfen, ob dafür von den Patentrechtsinhabern Lizenzgebühren verlangt werden. Die Herstellung und der Vertrieb von unlizenzierten CD-ROMs können in Deutschland oder anderen Ländern durch die Patentinhaber oder staatliche Stellen verfolgt oder verboten werden. Aufbau des Datenträgers. Als Trägermedium verwendet man hier nur eine Kunststoffscheibe (aus Polycarbonat) mit einem Durchmesser von 12 cm und einer Stärke von 1,2 mm. Auf dieser Scheibe befindet sich, analog zur Schallplatte, eine spiralförmig verlaufende Datenspur. Die Informationsträger sind auch hier kleine Vertiefungen, die sogenannten „Pits“ und „Lands“, welche im Maßstab gegenüber der Schallplatte jedoch um ein Vielfaches verkleinert wurden, unterschiedlich lang sind und so konzipiert wurden, dass sie mit Hilfe eines Laserstrahls ausgelesen werden können. Der Wechsel von „Pit/Land“ bzw. „Land/Pit“ bildet eine 1, gleich bleibende Struktur „Land/Land“ oder „Pit/Pit“ eine 0. Da die „Pits“ und „Lands“ bei aufeinanderfolgenden Einsen zu kurz würden, muss dieser Fall ausgeschlossen werden. Daher ist eine Umkodierung notwendig, welche mit der 8-zu-14-Modulation realisiert wird. (Mit weiteren drei Merge-Channelbits getrennt ergeben sich 17 Kanalbits für ein Datenbyte.) Die „Tonspur“ (Datenspur) verläuft hier von innen nach außen. Am Anfang der Datenspur ist ein Inhaltsverzeichnis gespeichert. Bei Musik-CDs gibt dieses Inhaltsverzeichnis die Anzahl der Musiktitel, die Einspieldauer und die Gesamtspieldauer an. Bei Daten-CDs sind dort nicht die Positionen der Dateien und Verzeichnisse gespeichert, sondern nur die Positionen der Tracks, welche ihrerseits normalerweise ein Dateisystem (mit Positionen der Dateien und Verzeichnisse) enthalten. (Siehe auch Dateisystem oder CDFS.) Die Drehzahl wird abhängig von der Stellung des Abtastsystems auf der spiralförmigen Spur reguliert, um eine gleich bleibende Datenabtastung zu gewährleisten. So wird bei 1-facher Lesegeschwindigkeit vom Abtastsystem innen die Drehzahl etwa auf 520/min und außen etwa auf 210/min eingestellt. Dabei werden Nutzdaten mit einer Geschwindigkeit von etwa 153,6 kB/s (CD-ROM Mode 1) bis 176,4 kB/s (Audio-CD) ausgelesen. Bei der maximalen 72-fachen Lesegeschwindigkeit ist eine Datenrate von bis zu 11,06 MB/s möglich. Dazu kommen noch Zusatzinformationen für Fehlerkorrektur, Codierung und Synchronisation. Lebensdauer. Die Frage, wie lange die Daten effektiv gelesen werden können, ist offen. Schätzungen schwanken zwischen 10 und 50 Jahren, wobei die Alterung sehr stark von Temperaturschwankungen abhängig ist; auch Sonnenlicht lässt die Medien sehr viel schneller altern. Sicher ist, dass Daten auf CD-ROM bedeutend kürzer halten als auf Papier oder Pergament. Man geht davon aus, dass eine optimale Lebensdauer durch Lagerung bei konstant 20 °C in absoluter Dunkelheit erreicht werden kann. Allerdings spielt auch die Produktqualität eine große Rolle, so können schlecht produzierte CDs durchaus nach einigen Jahren Leseprobleme aufweisen. Herstellung. Eine CD-ROM besteht aus einem Kunststoffträgermaterial mit Aluminiumbeschichtung. Die digitale Information wird auf einer spiralförmigen Spur aufgebracht. Es werden stellenweise Vertiefungen in die Beschichtung gepresst, sogenannte Pits (engl. pit = Grube). Diese reflektieren etwas früher als die unbeschädigten reflektierenden Stellen, die Land genannt werden, da die CD-ROM von der Oberseite gepresst werden und von der Unterseite gelesen werden. Somit sind die Pits von der Leseseite nicht als Vertiefungen sichtbar, sondern als Hügel. Die Übergänge von Land zu Pit, und umgekehrt, reflektieren das Licht nicht. Beim Lesen tastet ein schwacher Laserstrahl die gespeicherte Information ab. Die industrielle Herstellung einer CD-ROM beginnt mit dem "Premastering". Dabei werden die auf einer CD-ROM zu speichernden Daten zusammengestellt, der dazugehörige Fehlererkennungscode (EDC/Fehlerkorrektur) wird berechnet. Der Fehlererkennungscode dient zum Beseitigen von Fehlern beim Lesen einer CD-ROM durch ein spezielles Korrekturverfahren (Cross-interleaved Reed-Solomon Code, CIRC). Beim Premastering werden den eigentlichen Nutzdaten auch noch Synchronisationsbytes und Header-Informationen vorangestellt. Beim nächsten Produktionsschritt, dem "Mastering", werden mit Hilfe eines starken Laserstrahles die Daten vom Premastering auf eine photoresistente Schicht übertragen, ausgewaschen und versilbert. Das Negativ einer CD-ROM, ein sogenannter Glasmaster, entsteht. In den meisten Fällen wird der Glasmaster vor der CD-ROM-Herstellung mit Nickel galvanisiert, der so genannte „Vater“ entsteht. Die eigentliche CD-ROM-Herstellung ("Pressung") erfolgt in einem Spritzgussverfahren (genau: Spritzprägen). Das Ausgangsmaterial, flüssiges Polycarbonat, wird mit Hilfe des Masters in eine Form gepresst, anschließend mit Aluminium beschichtet und versiegelt. Meist wird noch ein CD-Label im Siebdruckverfahren auf die Oberseite der CD-ROM aufgetragen. Multimedia-Computerspiele. NEC CD-ROM² angeschlossen an eine PC-Engine CoreGrafx 1991 erschienen die ersten Multimedia-Computerspiele auf CD-ROM, zuvor wurden mehrere Disketten für ein Spiel benötigt. Das erste derartige Spiel für den PC war. Die ersten Spielkonsolen mit CD-ROM-Laufwerk waren "FM Towns Marty" von Fujitsu (1991, eingebautes Laufwerk) und die PC Engine (ab 1988, jedoch externes Gerät). Frühe Spiele waren oft identisch mit den Diskettenversionen oder hatten zusätzlich erweiterte Zwischensequenzen und Musik, die während des Spiels direkt von der CD abgespielt wurde. Multimedia-CD-ROM. Seit Mitte der 1990er Jahre kamen mit der Verbreitung von CD-ROM-Laufwerken in PCs eine Fülle von Lexika und anderen Bildungs-, Unterhaltungs- und Edutainment-Medien unter dem Schlagwort Multimedia auf den Markt, häufig mit der Software Director von Macromedia erstellt, seltener auch auf der Basis von HTML. Es verbreiteten sich nun auch Anwendungen der CD-ROM als Ausstellungs- und Museumsmedium: Vielfach wurden nun sog. Info-Terminals mit eigens dafür produzierten CD-ROMs bestückt, um Besuchern Informationen multimedial zu vermitteln. Die "interaktive Multimedia-CD-ROM" galt noch Anfang der 2000er als technisch und konzeptionell aktuellstes Medium, bis sie dann schließlich einerseits von der DVD-ROM und dem USB-Stick mit mehr Kapazität, und andererseits vom zunehmend multimedialen und schnelleren World Wide Web abgelöst wurde. Sie trat danach eher in Billigsegmenten und speziellen Nischen auf, in denen sie bis heute existiert: So werden z. B. etwa einige jährlich aktualisierte, professionelle Datenbanken weiterhin exklusiv auf CD-ROM vertrieben. Häufig werden auch Printmedien von einer CD-ROM mit weiteren Daten begleitet. Die Kopierbarkeit digitaler Daten ist ein Problem bei der Vermarktung - digitale Abbilder von CD-ROMs können wie alle anderen Daten kopiert und verbreitet werden, virtuelle CD-ROM-Laufwerke gaukeln dem Rechner dann physisch vorhandene CD-ROMs vor. Sonstiges. Die CD-ROM kann leicht die ganzen Texte und Bilder eines Lexikons oder Atlanten enthalten – und auch Audio- und Video-Streams Ursprünglich sollte die Kapazität nach Planung der Erfinder 60 Minuten Musik betragen und somit einen Durchmesser von genau 10 Zentimetern haben, die CD-ROM könnte somit in die Brusttasche eines Hemdes gesteckt werden. Die willkürlich erscheinenden 74 Minuten entstanden aber nicht, weil der Chef des Entwicklungsunternehmens gerne die 9. Sinfonie von Ludwig van Beethoven hörte, die 74 Minuten lang ist, und deshalb nicht auf einer Audio-CD Platz gefunden hätte. Vielmehr wurde der für die Spieldauer entscheidende CD-Durchmesser durch die Philips-Führung folgendermaßen begründet: Die Compact Cassette war ein großer Erfolg, die CD sollte nicht viel größer sein. Die Compact Cassette hatte eine Diagonale von 11,5 cm, die Ingenieure machten die CD 0,5 cm größer. Das Loch in der Mitte der CD-ROM hat seinen Ursprung in der Größe einer alten niederländischen 10-Cent-Münze. Diese hatten die Entwickler von Philips ständig in ihrem Geldbeutel. Die Größe des Durchmessers dieser Münze schien für die Anwendung ideal zu sein. Charles Messier. Charles Messier (* 26. Juni 1730 in Badonviller (Lothringen); † 12. April 1817 in Paris) war ein französischer Astronom. Er wirkte unter anderem als Astronom der französischen Marine und später im Bureau des Longitudes, und gilt als Entdecker von 20 Kometen. Darüber hinaus schuf er mit dem Messier-Katalog ein später nach ihm benanntes Verzeichnis von astronomischen Objekten wie Galaxien, Sternenhaufen und Nebel. Leben. Messier wurde 1730 in Badonviller, der Hauptstadt des Fürstentums Salm, als zehntes von zwölf Kindern des Verwaltungsbeamten Nicolas Messier geboren. Er stammte aus wohlhabenden Verhältnissen. Sechs seiner Geschwister starben noch als Kinder. Sein Interesse an Astronomie wurde bereits 1744 geweckt, als er den großen sechs-schwänzigen Kometen Klinkenberg beobachten konnte. Er ging mit 21 Jahren nach Paris und wurde von dem Astronomen der Marine, Nicholas Delisle, angestellt. 1754 wurde er Schreiber bei der Marine, wo er unter anderem Karten zu zeichnen hatte. Delisle lehrte ihn die Grundzüge der Astronomie und hielt ihn an, von sämtlichen Beobachtungen genaue Positionsangaben zu machen. Von 1764 an widmete er sich hauptsächlich der Suche nach Kometen. Er korrespondierte mit Fachleuten in England, Deutschland und Russland. 1770, im Alter von 40 Jahren, heiratete er Marie-Françoise de Vermauchampt. Eineinhalb Jahre später starben seine Frau und ihr gemeinsamer Sohn elf Tage nach dessen Geburt. 1771 wurde er zum Astronomen der Marine und damit zum Nachfolger von Delisle ernannt. Zehn Jahre später erlitt er bei einem Sturz schwere Verletzungen, von denen er sich mit seinen bereits 51 Jahren nur langsam erholte. Während der Französischen Revolution verlor er seine Stellung und verarmte. 1796 fand er jedoch eine Anstellung im Bureau des Longitudes. 1806 verlieh Napoleon ihm das Kreuz der Ehrenlegion. Da seine Sehkraft nachließ, beobachtete er immer seltener. Der letzte Komet, den er gesehen hat (mit der Hilfe Anderer), war der „Große Komet“ von 1807. 1815 erlitt er einen Schlaganfall; zwei Jahre später starb er in Paris im für seine Zeit sehr hohen Alter von fast 87 Jahren. Entdeckungen. Seit 1757 suchte er im Auftrag von Delisle den bereits erwarteten Halleyschen Kometen, fand ihn aufgrund eines Rechenfehlers von Delisle aber erst im Januar 1759 und damit vier Wochen nach der Wiederentdeckung durch Johann Georg Palitzsch. 1761 beobachtete er den Venusdurchgang, drei Jahre später gelang ihm die erste Neuentdeckung eines Kometen. Insgesamt gelangen ihm bis zum Jahr 1801 20 Entdeckungen, darunter 14 eigenständige sowie sechs Co-Entdeckungen. Auf seiner Suche nach neuen Kometen stieß er auf eine Vielzahl anderer Objekte wie Galaxien, Sternenhaufen oder Nebel. Das erste dieser Gebilde – später Messier 1 oder M 1 genannt – hatte er bereits 1758 beobachtet. Um seine Arbeit zu vereinfachen, suchte er gezielt nach weiteren Exemplaren. Dabei benutzte er auch die Kataloge von Edmond Halley, Nicolas Louis de Lacaille, Jacopo Filippo Maraldi und Jean-Baptiste Le Gentil. Schließlich listete er diese zunächst 45 Objekte im nach ihm benannten Messier-Katalog auf, dessen erste Fassung 1771 veröffentlicht wurde. Im Jahr 1774 machte Jérôme Lalande, der damals führende Astronom Frankreichs, ihn mit Pierre Méchain bekannt. Dies führte zu einer fruchtbaren Zusammenarbeit. Bereits 1780 war der Katalog auf 68 Einträge angewachsen. Im September 1782 entdeckte Méchain das 107. Messier-Objekt. Von da an stellte Messier seine Suche nach weiteren Nebeln ein und konzentrierte sich wieder auf Kometen – wohl deshalb, weil Wilhelm Herschel mit seinem überlegenen Gerät seine Beobachtungen begonnen hatte. Die letzte Fassung seines Katalogs wurde 1781 in "Connaissance des temps" für das Jahr 1784 veröffentlicht. Messier benutzte eine Reihe sehr unterschiedlicher Teleskope, darunter Fernrohre mit Brennweiten von bis zu sieben Metern und Reflektoren mit Spiegeldurchmessern von bis zu 20 cm Öffnung. Ehrungen. Messier war Mitglied einer Vielzahl von wissenschaftlichen Akademien, darunter von England, Schweden, Deutschland, Frankreich und Russland. Der Mondkrater Messier sowie ein Asteroid sind nach ihm benannt. Der Messier-Kanal, eine Meeresenge im Süden Chiles zwischen der riesigen Wellington-Insel und dem Festland, trägt ebenfalls seinen Namen. Christian Morgenstern. Christian Otto Josef Wolfgang Morgenstern (* 6. Mai 1871 in München; † 31. März 1914 in Untermais, Tirol, Österreich-Ungarn) war ein deutscher Dichter, Schriftsteller und Übersetzer. Besondere Bekanntheit erreichte seine komische Lyrik, die jedoch nur einen Teil seines Werkes ausmacht. Leben. Christian Morgenstern wurde 1871 in München im Stadtteil Schwabing unweit der Ludwig-Maximilians-Universität geboren. Seine Mutter war Charlotte Morgenstern, geborene Schertel, sein Vater Carl Ernst Morgenstern, Sohn des Malers Christian Morgenstern. Wie der berühmte Großvater, von dem Morgenstern seinen Vornamen erhielt, waren auch der Vater und der Vater der Mutter Landschaftsmaler. Die Namen Otto und Josef gehen auf weitere Verwandte zurück, Wolfgang auf die Verehrung der Mutter für Wolfgang Amadeus Mozart. Kindheit und Jugend. 1881 starb seine Mutter Charlotte an Tuberkulose. Morgenstern hatte sich offenbar bei ihr angesteckt. Bald darauf wurde er, ohne in der frühen Kindheit regelmäßigen Schulunterricht erhalten zu haben, seinem Paten Arnold Otto Meyer, einem Kunsthändler in Hamburg, zur Erziehung anvertraut, worunter er jedoch litt. Ein Jahr später kehrte er nach München zurück und kam in ein Internat in Landshut. Dort wurde Körperstrafe eingesetzt, und er erfuhr Mobbing durch seine Mitschüler. Christian Morgenstern im Alter von 18 Jahren Der Vater heiratete Amélie von Dall’Armi und wurde 1883 an die Königliche Kunstschule in Breslau berufen. Christian ging mit nach Breslau und besuchte das Maria-Magdalenen-Gymnasium. Hier schrieb er im Alter von 16 Jahren das Trauerspiel "Alexander von Bulgarien" und "Mineralogia popularis", eine Beschreibung von Mineralien. Beide Texte sind nicht erhalten. Zudem entwarf er eine Faustdichtung und beschäftigte sich mit Arthur Schopenhauer. Mit 18 Jahren lernte er auf dem Magdalenen-Gymnasium Friedrich Kayssler und Fritz Beblo kennen. Daraus entwickelten sich lebenslange enge Freundschaften. Vom Herbst 1889 an besuchte Morgenstern eine Militär-Vorbildungsschule, da der Vater für ihn eine Offizierslaufbahn wünschte. Nach einem halben Jahr verließ Morgenstern die Schule jedoch wieder und besuchte fortan ein Gymnasium in Sorau. Hier begann eine Freundschaft mit Marie Goettling, die später nach Amerika auswanderte. Mit ihr korrespondierte er noch während seines Studiums der Nationalökonomie in Breslau. Hier gehörten Felix Dahn und Werner Sombart zu seinen bedeutendsten Dozenten. Mit Freunden gründete Morgenstern die Zeitschrift "Deutscher Geist" unter dem Motto „Der kommt oft am weitesten, der nicht weiß, wohin er geht“, einem Oliver Cromwell zugeschriebenen Zitat. 1893 verfasste er "Sansara", eine humoristische Studie. Das erste Sommersemester verbrachte er mit Kayssler in München. Er vertrug jedoch wegen seiner Tuberkulose das Klima dort nicht und begab sich zur Kur nach Bad Reinerz. Als er nach Breslau zurückkehrte, hatte sich der Vater von seiner zweiten Frau getrennt. Es folgte eine Erholungszeit in Sorau. Da er sein Studium nicht fortsetzen konnte, wären Freunde bereit gewesen, einen Kuraufenthalt in Davos zu bezahlen. Das jedoch wies der Vater zurück, genau wie ein Angebot Dahns, das Studium bis zum Referendar zu finanzieren. Morgenstern entschied sich nun, als Schriftsteller zu leben. Nach der dritten Heirat seines Vaters zerbrach das Verhältnis zu diesem weitgehend. Umzug nach Berlin. Im April 1894 zog Morgenstern nach Berlin, wo er mit Hilfe des zum Teil Versöhnung suchenden Vaters eine Stellung an der Nationalgalerie fand. Er beschäftigte sich mit Friedrich Nietzsche und Paul de Lagarde und arbeitete für die Zeitschriften "Tägliche Rundschau" und "Freie Bühne", er schrieb Beiträge für die Zeitschriften "Der Kunstwart" und "Der Zuschauer". Selbstaufnahme Morgensterns von 1906 aus Birkenwerder Im Frühjahr 1895 erschien das erste Buch Morgensterns, der Gedichtzyklus "In Phanta’s Schloss". Er segelte auf dem Müggelsee und bereiste 1895 und 1896 Helgoland, Sylt und Salzburg. In Auftragsarbeit übersetzte er im Sommer 1897 (aus der französischen Übersetzung) die autobiografischen Aufzeichnungen "Inferno" von August Strindberg. Im Oktober 1897 unterzeichnete Morgenstern einen Vertrag mit dem S. Fischer Verlag, der die Übersetzung von Werken Henrik Ibsens betraf, obwohl er die norwegische Sprache noch nicht beherrschte. Bereits im Februar 1898 sollte "Das Fest auf Solhaug" fertig übersetzt sein. Von Mai 1898 bis Herbst 1899 bereiste Morgenstern Norwegen, hauptsächlich zum Erlernen der Sprache, wobei er auch mehrmals Ibsen traf. 1900 folgte eine Kur in Davos, anschließend bereiste Morgenstern den Vierwaldstättersee, Zürich, Arosa, Mailand, Rapallo, Portofino, Florenz, Wolfenschiessen und Heidelberg. Im Dezember 1902 besuchte er Rom und kehrte Mai 1903 nach Berlin zurück. In dieser Zeit übersetzte er Knut Hamsun und Bjørnstjerne Bjørnson. Ab 1903 war er literarischer Lektor im Verlag von Bruno Cassirer, mit dem er freundschaftlich verbunden war. Er betreute und förderte dort u. a. Robert Walser. Zuvor war er Dramaturg bei Felix Bloch Erben. 1905 reiste er nach Wyk und hatte einen Sanatoriumsaufenthalt in Birkenwerder, der nicht zum gewünschten Erfolg führte. Zudem erschienen in diesem Jahr seine "Galgenlieder" und er las Fjodor Michailowitsch Dostojewski. Ein Jahr später reiste er aus gesundheitlichen Gründen in Kurorte in bayerischer, österreichischer, italienischer und Schweizer Alpenlandschaft, nach Bad Tölz, Längenfeld, Obergurgl, Meran, Obermais, San Vigilio und Tenigerbad und beschäftigte sich mit Jakob Böhme, Fechner, Fichte, Hegel, Eckhart von Hochheim, Fritz Mauthner, Spinoza und Tolstoi. Margareta Gosebruch von Liechtenstern. Im Juli 1908 lernte Morgenstern in Bad Dreikirchen Margareta Gosebruch von Liechtenstern kennen. Nach deren Abreise blieb er mit ihr in regem Briefverkehr. Als Margareta im Oktober erkrankte, begab Morgenstern sich zu ihr nach Freiburg im Breisgau. Da aber der Aufenthalt eines Verlobten bei einer kranken Frau den gesellschaftlichen Sitten widersprach, wich er nach Straßburg aus. Im November begab er sich wie die gesundete Margareta nach Berlin. Kontakt zur Theosophie und Anthroposophie. Im Januar 1909 schloss er bei Berliner Vorträgen Rudolf Steiners mit diesem eine enge und dauerhafte Freundschaft. Um Steiners Vorträge zu hören, reiste er noch im selben Jahr nach Düsseldorf, Koblenz, Kristiania, Kassel und München. Im Mai trat er einen Monat nach Margareta der von Steiner geführten Deutschen Sektion der Theosophischen Gesellschaft bei. Bei der folgenden Spaltung dieser Körperschaft 1912/1913 blieb er auf der Seite Steiners und wurde Mitglied der Anthroposophischen Gesellschaft. 1909 übersetzte er auch Knut Hamsun, besuchte den Internationalen Theosophischen Kongress in Budapest und seinen Vater in Wolfshau, er reiste mit Margareta in den Schwarzwald und nach Obermais. Dort erkrankte er, wohl auch infolge der zahlreichen Reisen, an einer schweren Bronchitis. Ein Arzt deutete bereits auf den kurz bevorstehenden Tod hin. Morgensterns Zustand verbesserte sich jedoch wieder, und so heirateten er und Margareta am 7. März 1910. Italien und Schweiz. Von Mai bis August hielt er sich in Bad Dürrenstein in den Dolomiten auf, bis er sich zu einem Vortrag Steiners nach Bern begab. Vorträge in Basel besuchte lediglich Morgensterns Frau, von denen sie ihm nachher berichtete. Nach Aufenthalt in München reiste er im Oktober über Verona, Mailand und Genua nach Palermo und schließlich nach Taormina. Im selben Jahr begann auch seine Zusammenarbeit mit dem Verleger Reinhard Piper, die bis zu seinem Lebensende anhielt. Christian Morgenstern hatte vorher mit vier anderen Verlegern zusammengearbeitet, nämlich mit Richard Taendler, Schuster & Loeffler, Samuel Fischer und Bruno Cassirer. Eine dauerhafte Geschäftsverbindung war aber nicht zustande gekommen. Bleistiftskizze des Vaters Carl Ernst mit einem Motiv aus Arosa Eigentlich wollte Morgenstern mit Margareta ein halbes Jahr in Taormina verbringen; da er aber erneut schwer erkrankte, begab er sich, sobald er im Frühjahr 1911 dazu imstande war, in das Deutsche Krankenhaus nach Rom und dann in das Waldsanatorium Arosa, wo er seinen Vater und die Mutter Margaretas sah, die anfangs nicht mit der Ehe einverstanden war. Nach mehreren Monaten Liegekur konnte er das Sanatorium verlassen und zog mit Margareta in eine Wohnung in Arosa. 1912 erhielt er eine Spende der Deutschen Schillerstiftung in Höhe von eintausend Mark. Bald darauf begab er sich nach Davos. Margareta besuchte für ihn Vorträge Steiners in München. Noch immer krank, verließ er das Sanatorium und begab sich mit Margareta nach Zürich, wo er im Oktober mit Steiner zusammentraf. Anschließend kehrte er nach Arosa zurück. Er verfasste einen Brief, in dem er Rudolf Steiner für den Friedensnobelpreis vorschlagen wollte, schickte diesen jedoch nicht ab. Ab Frühjahr 1913 hielt er sich in Portorose auf, wo er Gedichte Friedrichs des Großen aus dem Französischen übersetzte und Michael Bauer, der ebenfalls lungenkrank war, zum Freund gewann. Nach einer Reise nach Bad Reichenhall, wo er Friedrich und Helene Kayssler traf, hörte er in München Vorträge Steiners, dem er im November nach Stuttgart und im Dezember nach Leipzig folgte. Sowohl in Stuttgart als auch in Leipzig rezitierte Marie von Sivers, die spätere Frau Steiners, Werke Morgensterns, der den letzten der beiden Vorträge am Silvesterabend als den höchsten Ehrentag seines Lebens empfand. Tod. In München konnten die Morgensterns ihren Arzt nicht erreichen und suchten daher ein Sanatorium in Arco (Trentino) auf, das Morgenstern jedoch nicht aufnahm, um sterbende Patienten zu vermeiden. Nach einem kurzen Aufenthalt in einem Sanatorium bei Bozen zog er in die Villa Helioburg in Untermais (seit 1924 nach Meran eingemeindet), wo er noch an dem Druckbogen der Sammlung "Wir fanden einen Pfad" arbeitete. Michael Bauer hatte er geschrieben:. Bauer fuhr nach Meran zu Morgenstern, der am 31. März 1914, gegen fünf Uhr morgens, betreut von seinem Arzt Christoph Hartung von Hartungen in der Villa Helioburg starb. Am 4. April wurde er in Basel eingeäschert. Die Urne hob Rudolf Steiner auf, bis sie im neuen Goetheanum aufgestellt wurde. Seit 1992 ist die Urne auf dem Goetheanum-Gelände beigesetzt. Nachlass. Ein Teil von Morgensterns Nachlass liegt im Deutschen Literaturarchiv Marbach. Teile davon sind im Literaturmuseum der Moderne in Marbach in der Dauerausstellung zu sehen, insbesondere die Originale der "Galgenlieder". Nachwirkung und Rezeption. Nur ein Traum war das Erlebnis. nicht sein kann, was nicht sein darf. Sein Nasobēm inspirierte den Zoologen Gerolf Steiner zur Schöpfung der (fiktiven) Ordnung der Rhinogradentia, ein wissenschaftlich-satirischer Scherz, der sich international verbreitete und später seine bekannteste Nachahmung in Loriots Steinlaus fand. Im März 2014, passend zum 100. Todestag des Dichters, eröffnete das Christian Morgenstern Literatur-Museum auf dem so genannten Galgenberg in Werder (Havel) bei Potsdam, wo die Galgenlieder entstanden sein sollen. Ebenfalls zu seinem 100. Todestag stellten die Münchner Germanisten Markus May und Waldemar Fromm am 25. Oktober 2014 im Lyrik Kabinett in München neuere Ergebnisse der Morgensternforschung vor, insbesondere über die Vorläuferrolle Morgensterns für die großen Humoristen des 20. Jahrhunderts wie Robert Gernhardt und Ernst Jandl. Was ihre "Bürokratie-Kritik" anbelangt, so Fromm, seien Franz Kafka und Morgenstern Brüder im Geiste: "Morgenstern baut bereits vor-kafkaeske Welten, um die Absurdität eines verwalteten Lebens zu zeigen." wer er sei und wie und wo. Welchen Orts er bis anheute war, hier zu leben und zu welchem Zweck, wieviel Geld er hat und was er glaubt. Umgekehrten Falls man ihn vom Fleck vor und aus und zeichnet, wennschonhin Korf. (An die Bezirksbehörde in -.)“ Vollständige und kommentierte Werkausgabe. "Stuttgarter Ausgabe" des Verlags Urachhaus, Stuttgart, hg. unter der Leitung von Reinhardt Habel. Vertonungen. Morgensternsche Gedichte wurden von vielen Komponisten vertont. Ausführliche Übersichten sind im "Digitalen Christian-Morgenstern-Archiv" und im "Lied, Art Song, and Choral Texts Archive" zu finden. Catjangbohne. Die Catjangbohne ("Vigna unguiculata" subsp. "cylindrica"), auch Katjangbohne oder Angolabohne, ist eine Nutzpflanze aus der Unterfamilie der Schmetterlingsblütler (Faboideae). Sie ist eng mit der Kuhbohne und der Spargelbohne verwandt. Taxonomisch wird sie entweder als Unterart "cylindrica" oder "catjang" oder als Sortengruppe 'Biflora' von "Vigna unguiculata" geführt. Merkmale. Sie ähnelt stark der Nominatform der Art, der Augenbohne. Sie wächst strauchig bis 80 cm hoch oder kriechend-windend 30 cm hoch. Die dreifiedrigen Blätter stehen an langen Stielen. Das endständige Fiederblättchen ist 6 bis 16 cm lang. Die Blütentrauben stehen aufrecht und tragen paarig 4 bis 12 Blüten. Die Blütenfarbe ist variabel und reicht von Weiß bis Lila und Hellblau. Die jungen Hülsen stehen zunächst aufrecht, später können sie sich bis in eine waagrechte Position senken. Sie sind 7 bis 13 cm lang bei einem Durchmesser von 5 bis 7 mm, walzenförmig und gerade bis leicht gebogen. Zur Reifezeit färben sie sich von Grün über Gelb nach Braun. Die Samen sind 5 bis 6, selten bis 12 mm lang, 3 bis 8 mm breit und 4 bis 6 mm dick. Die Farbe ist meist dunkel, häufig rot, schwarzbraun bis schwarz oder schwarz gepunktet. Häufig haben sie einen dreieckigen, weißen Nabel. Ihre Inhaltsstoffe sind denen der Augenbohne sehr ähnlich. Anbau. Die Catjangbohne stammt ursprünglich aus Afrika, kam aber sehr früh nach Asien. Hier liegt heute ihr Anbauschwerpunkt, wo sie als Trockenbohne und Gemüsepflanze genutzt wird. Statistiken fehlen. Sie wird vorwiegend in den Tiefländern der Tropen und Subtropen angebaut, in den Tropen gedeiht sie bis in Höhenlagen von 2000 Meter. Der Niederschlag soll zwischen 700 und 1700 mm liegen, wobei der Anbau so erfolgt, dass die Ernte nach der Regenzeit stattfindet. Zu hohe Niederschläge führen zu hohen Blattmassen und geringer Samenbildung. Die Temperatur soll zwischen 12 und 28 °C liegen, der Boden-pH zwischen 5 und 7,5. Die Pflanzen gedeihen auch auf leichten Böden, mittlere und schwere Böden führen zu höheren Erträgen. Die Erträge liegen meist unter einer Tonne Samen pro Hektar. Nutzung. Dunkle Samen werden häufig als Tierfutter verwendet, die hellen werden eher vom Menschen gegessen. Ihnen wird eine bessere Verdaulichkeit zugesprochen. Blätter und junge Hülsen werden als Gemüse oder Salat verzehrt. Die ganzen Pflanzen werden auch als Grünfutter verwertet und liefern dann 20 bis 40 Tonnen Grünmasse pro Hektar. Charles Darwin. Darwin mit 51 Jahren. In diesem Alter veröffentlichte er seine Evolutionstheorie. Charles Robert Darwin (* 12. Februar 1809 in Shrewsbury; † 19. April 1882 in Downe) war ein britischer Naturforscher. Er gilt wegen seiner wesentlichen Beiträge zur Evolutionstheorie als einer der bedeutendsten Naturwissenschaftler. Die Ende 1831 begonnene und fast fünf Jahre andauernde Reise mit der HMS "Beagle", die den jungen Darwin einmal um die Welt führte, war zugleich Schlüsselerlebnis und Grundlage für sein späteres Werk. Der breiten Öffentlichkeit wurde Darwin erstmals durch seinen 1839 herausgegebenen Reisebericht bekannt. Mit seiner Theorie über die Entstehung der Korallenriffe und weiteren geologischen Schriften erlangte er in wissenschaftlichen Kreisen die Anerkennung als Geologe. Seine Untersuchungen an den Rankenfußkrebsen verschafften ihm Mitte der 1850er Jahre zusätzlich einen angesehenen Ruf als Zoologe und Taxonom. Bereits 1838 entwarf Darwin seine Theorie der Anpassung an den Lebensraum durch Variation und natürliche Selektion und erklärte so die phylogenetische Entwicklung aller Organismen und ihre Aufspaltung in verschiedene Arten. Über 20 Jahre lang trug er Belege für diese Theorie zusammen. 1842 und 1844 verfasste Darwin kurze Abrisse seiner Theorie, die er jedoch nicht veröffentlichte. Ab 1856 arbeitete er an einem umfangreichen Manuskript mit dem Titel "Natural Selection". Durch einen Brief von Alfred Russel Wallace, der dessen Ternate-Manuskript mit ähnlichen Gedanken zur Evolution enthielt, kam es im Sommer 1858 schließlich zu einer Veröffentlichung der Theorien über die Evolution durch die beiden Männer. Ein Jahr später folgte Darwins Hauptwerk "On the Origin of Species" "(Über die Entstehung der Arten)", das als streng naturwissenschaftliche Erklärung für die Diversität des Lebens die Grundlage der modernen Evolutionsbiologie bildet und einen entscheidenden Wendepunkt in der Geschichte der modernen Biologie darstellt. 1871 diskutierte Darwin in "The Descent of Man, and Selection in Relation to Sex" "(Die Abstammung des Menschen und die geschlechtliche Zuchtwahl)" mit der sexuellen Selektion einen zweiten Selektionsmechanismus und nutzte seine Theorie, um die Abstammung des Menschen zu erklären. In seinem letzten Lebensjahrzehnt untersuchte Darwin Kletterpflanzen, Orchideen und fleischfressende Pflanzen und leistete wichtige Beiträge zur Botanik. Sein offizielles botanisches Autorenkürzel lautet „Darwin“. Kindheit und Studium. a>, auf dem Charles Darwin geboren wurde, auf einer um 1860 entstandenen Fotografie Charles Robert Darwin wurde am 12. Februar 1809 auf dem in Shrewsbury gelegenen Anwesen Mount House geboren. Er war das fünfte von sechs Kindern des Arztes Robert Darwin und dessen Ehefrau Susannah, geborene Wedgwood (1765–1817). Seine Großväter waren der Naturforscher und Dichter Erasmus Darwin und der Keramikfabrikant Josiah Wedgwood. Am 15. Juli 1817, als Charles Darwin acht Jahre alt war, starb seine Mutter. Seine drei älteren Schwestern Marianne (1798–1858), Caroline (1800–1888) und Susan (1803–1866) übernahmen seine Betreuung. Seit dem Frühjahr 1817 besuchte er die Tagesschule der Unitarier-Gemeinde. Seine Mutter war gläubige Unitarierin, sein Vater galt als ungläubig, Charles war hingegen in der anglikanischen Kirche getauft. Im Juni 1818 wechselte er an die von Samuel Butler geleitete private Internatsschule von Shrewsbury, auf der er sieben Jahre blieb. Dem konventionellen, auf alte Sprachen und Literatur ausgerichteten Unterricht konnte Darwin jedoch nicht viel abgewinnen. Das Durchdringen komplexer Sachverhalte wie Euklids Geometrie, in der ihn ein Privatlehrer unterrichtete, oder die Feineinstellung eines Barometers, die ihm sein Onkel Samuel Tertius Galton (1783–1844) erläuterte, bereiteten ihm hingegen Freude. Schon zu dieser Zeit sammelte Darwin Muscheln, Siegel, Münzen und Mineralien, und seine unablässigen Streifzüge durch die Natur, bei denen er die Verhaltensweisen von Vögeln untersuchte, schärften seine Beobachtungsgabe. Angeregt durch Experimente seines älteren Bruders Erasmus (1804–1881), die dieser in einem selbstgebauten Labor im elterlichen Geräteschuppen durchführte und bei denen Darwin mithelfen durfte, beschäftigte er sich intensiv mit Chemie. Charles sollte wie sein Vater Arzt werden und hatte bereits in dessen Praxis hospitiert. Im Oktober 1825 begann Darwin wie zuvor sein Bruder Erasmus an der Universität Edinburgh mit dem Medizinstudium. Die Vorlesungen, mit Ausnahme der Chemievorlesungen von Thomas Charles Hope, langweilten ihn. Er beschäftigte sich vornehmlich mit naturwissenschaftlichen Themen. Einflussreichster Lehrer in seiner Edinburgher Zeit war Robert Edmond Grant, ein Freidenker und Anhänger der Lamarckschen Evolutionslehre. Bei ihm lernte er Meereszoologie, wissenschaftliches Beobachten und die Bedeutung von genauen Aufzeichnungen. Er beschäftigte sich ebenfalls mit dem Präparieren von Vögeln, das er von John Edmonstone, einem ehemaligen schwarzen Sklaven, erlernte. Darwin war Mitglied der Royal Medical Society und der Studenten-Gesellschaft Plinian Society, in der er seinen ersten wissenschaftlichen Vortrag über die Selbstbeweglichkeit der Eier von "Flustra" (ein Moostierchen) hielt. Als Darwins Vater bemerkte, dass sich sein Sohn mit dem Studium der Medizin schwertat, schlug er ihm vor, Geistlicher der Kirche von England zu werden und ein Studium der Theologie zu beginnen. Nach kurzer Bedenkzeit willigte Darwin ein und begann im Januar 1828 mit dem Studium in Cambridge, nachdem er im Privatunterricht sein Griechisch aufgefrischt hatte. Zwar absolvierte Darwin seine theologischen Studien ohne Begeisterung und schätzte sie als Zeitverschwendung ein, jedoch bezeichnete er später seine Zeit in Cambridge als die glücklichste in seinem Leben. Er verschob auf Anraten seines Tutors John Graham (1794–1865), des späteren Bischofs von Chester, seine erste Vorprüfung, das sogenannte „Little Go“. Nach zweimonatiger Vorbereitungszeit bestand er im März 1830 das Little Go schließlich mit Leichtigkeit. Zur Vorbereitung für die Abschlussprüfung gehörten auch Werke von William Paley, einem Hauptvertreter der damals in England vorherrschenden Naturtheologie. Besonders Paleys Werk "Natural Theology" beeindruckte Darwin; Paleys Logik, Art der Beweisführung und Sprache sollten ihn auch später noch prägen. Am 22. Januar 1831 bestand er als zehntbester von 178 Studenten seine Abschlussprüfung, die Fragen zu Paley, Euklid sowie den griechischen und lateinischen Klassikern umfasste. Die Urkunde für den ersten akademischen Grad "Baccalaureus Artium" konnte er erst am 26. April 1831 entgegennehmen, da er aufgrund der am Anfang des Studiums versäumten Zeit noch zwei Semester in Cambridge bleiben musste. a> blieb Darwin zeitlebens freundschaftlich verbunden. Zu Beginn seines Studiums am Christ’s College in Cambridge traf Darwin seinen Großcousin William Darwin Fox, der ihn in die Insektenkunde einführte und durch den er zu einem leidenschaftlichen Sammler von Käfern wurde. In den Sommermonaten unternahm er zahlreiche entomologische Exkursionen, die ihn meist nach Nord-Wales führten, und begleitete dabei unter anderen Frederick William Hope (1797–1862), George Leonard Jenyns (1763–1848) sowie Thomas Campbell Eyton und dessen Vater Thomas Eyton. Eine weitere kleine wissenschaftliche Anerkennung wurde ihm zuteil, als sein Name in dem im Juli 1829 erschienenen Werk "Illustrations of British Entomology" von James Francis Stephens genannt wurde. Hohe Wertschätzung brachte Darwin den Botanikvorlesungen von John Stevens Henslow entgegen. Durch seinen Großcousin Fox erhielt er Einladungen zu den regelmäßig in Henslows Haus stattfindenden Abenden, die dieser für Studenten durchführte, die noch keinen Abschluss hatten. Zwischen beiden entwickelte sich eine Freundschaft, die lebenslang anhielt und die Darwin als einflussreichste seines gesamten Werdeganges charakterisierte. Während seines letzten Jahres in Cambridge las er John Herschels "Einführung in das Studium der Naturphilosophie" und Alexander von Humboldts "Reise in die Aequinoctial-Gegenden des neuen Continents". Aus Humboldts Werk machte er sich zahlreiche Notizen zur Kanarischen Insel Teneriffa und begann im April 1831, eine Reise dorthin zu planen. Er fing an, Spanisch zu lernen, was ihm Mühe bereitete. Er holte Informationen über Kosten und Termine von Passagen nach Teneriffa ein und musste enttäuscht feststellen, dass er die Reise nicht vor Juni 1832 antreten könnte. Bereits im Frühjahr 1831 hatte Henslow ihn überzeugt, sich mit Geologie zu beschäftigen, und ihn mit Adam Sedgwick, Professor für Geologie in Cambridge, bekannt gemacht. Im August 1831 unternahmen Darwin und Sedgwick eine geologische Exkursion nach Nord-Wales, auf der sie etwa eine Woche gemeinsam verbrachten. Nach seiner Rückkehr nach Shrewsbury am 29. August 1831 fand Darwin einen Brief von Henslow vor. Henslow teilte Darwin darin mit, dass Kapitän Robert FitzRoy für seine nächste Fahrt mit der HMS "Beagle" einen standesgemäßen und naturwissenschaftlich gebildeten Begleiter suche und er ihn für diese Position empfohlen habe. FitzRoy befürchtete, ohne einen solchen Begleiter das Schicksal des ersten Kapitäns der HMS "Beagle", Pringle Stokes, zu erleiden, der 1828 Selbstmord verübt hatte. Das Ziel der von FitzRoy geleiteten Expedition waren Patagonien und Feuerland an der Südspitze Südamerikas, um dort kartographische Messungen durchzuführen. Ebenso sollten die Küsten Chiles, Perus und einiger Südseeinseln vermessen werden. Nachdem sich Darwin und FitzRoy zur gegenseitigen Zufriedenheit kennengelernt hatten und er die Zustimmung seines Vaters zum geplanten Unternehmen erhalten hatte, reiste Darwin nach London. Die Reise mit der HMS "Beagle". Die Stationen von Charles Darwins Weltumsegelung an Bord der HMS "Beagle" von 1831 bis 1836 a>, von 1833 bis 1834 offizieller Schiffsmaler der HMS "Beagle" Stürme verzögerten den Beginn der Vermessungsfahrt der HMS "Beagle" immer wieder. Erst am 27. Dezember 1831 stach die HMS "Beagle" von Devonport aus in See. Die Fahrt begann für Darwin unerfreulich. Er wurde sofort seekrank, und sein Traum, die von Humboldt geschilderte artenreiche subtropische Vegetation auf der kanarischen Insel Teneriffa zu erkunden, scheiterte an einer Quarantäne, die aufgrund eines Choleraausbruchs in England über die Besatzung verhängt wurde. Die erste Zeit auf dem Schiff verbrachte Darwin damit, die in einem selbstkonstruierten, engmaschigen Schleppnetz gefangenen Organismen (die später als Plankton bezeichnet wurden) mikroskopisch zu untersuchen. Er begann sein erstes Notizbuch, dem zahlreiche weitere folgten, die er während der Reise zu unterschiedlichen Zwecken anlegte. Es gab Notizbücher, die er ausschließlich während der Exkursionen an Land benutzte. In seinen geologischen und zoologischen Notizbüchern ordnete er die an Land gewonnenen Eindrücke. In weitere Notizbücher trug er seine gesammelten Proben sorgsam nummeriert ein. Am 16. Januar 1832 konnte er bei Praia auf der kapverdischen Insel Santiago zum ersten Mal an Land gehen. Henslow hatte Darwin geraten, sich mit dem ersten Band von Charles Lyells "Principles of Geology" zu beschäftigen, und FitzRoy hatte ihm diesen vor der Abfahrt geschenkt. Während des gut dreiwöchigen Aufenthalts entdeckte er in den Klippen der Küste ein in 15 Meter Höhe verlaufendes waagerechtes Muschelschalenband und fand zum ersten Mal eine Bestätigung für Lyells Theorie der langsamen, graduellen, geologischen Formung der Erde. Fast genau zwei Monate nach der Abreise erreichte die HMS "Beagle" am 28. Februar 1832 die südamerikanische Ostküste und ankerte vor Salvador da Bahia in der Allerheiligenbucht. Darwin genoss den Tropischen Regenwald, beobachtete aber auch die Auswirkungen der Sklaverei, die er aufgrund seiner Erziehung ablehnte und über die er mit FitzRoy in Streit geriet. Zwei Monate später erhielt er in Rio de Janeiro die erste Post von zu Hause. Während die HMS "Beagle" die Vermessung der Küste fortsetzte, blieb Darwin mit einigen Besatzungsmitgliedern in Rio und unternahm geologische Untersuchungen entlang der Küste. In der zweiten Augusthälfte schickte er von Montevideo aus die ersten Proben, hauptsächlich geologische, an Henslow in Cambridge. Bis Ende Juni 1835 folgten sieben weitere Sendungen mit pflanzlichen, tierischen, fossilen und geologischen Fund- und Sammelstücken. Am 22. September 1832 entdeckte Darwin in der Nähe von Bahía Blanca in Punta Alta seine ersten Fossilien. Besser ausgerüstet konnte er am nächsten Tag den Schädel eines "Megatheriums" und ein gut erhaltenes Skelett eines "Scelidotheriums", beides Riesenfaultiere, freilegen. Aus dem Fundort, einer Muschelschicht, schloss er, dass sich die beiden ausgestorbenen Tiere zeitgleich mit den sie umgebenden Muscheln entwickelt haben müssten. Über den Jahreswechsel hielt sich die HMS "Beagle" im Gebiet von Feuerland auf, wo für Reverend Richard Matthews und die drei in England erzogenen Feuerländer, die FitzRoy bei seiner ersten Fahrt nach England gebracht hatte, eine Missionsstation errichtet wurde. Als die HMS "Beagle" ein gutes Jahr später die Missionsstation erneut aufsuchte, war diese verlassen. Nach einem einmonatigen Aufenthalt auf den Falklandinseln setzte die HMS "Beagle" ihre Vermessungsarbeiten vor der südamerikanischen Ostküste fort. Darwin unternahm währenddessen von April bis November 1833 Exkursionen in das Landesinnere von Uruguay und Argentinien. Anfang Dezember verließ die HMS "Beagle" Montevideo, vermaß unter anderem Teile der Magellanstraße und erreichte am 11. Juni 1834 den Pazifischen Ozean. a> nach dem schweren Erdbeben vom 20. Februar 1835 Über Chiloé, Valdivia und Concepción segelte die HMS "Beagle" nach Valparaíso, wo sie am 23. Juli 1834 eintraf und mehrere Wochen blieb. Darwin unternahm vom 14. August bis 27. September 1834 seine erste Expedition durch die Anden, die ihn ein erstes Mal bis nach Santiago führte. Während die HMS "Beagle" den Chonos-Archipel kartographierte, erkundete Darwin die geologische Beschaffenheit der Insel Chiloé. Am 20. Februar 1835 wurde er Zeuge des schweren, dreiminütigen Erdbebens bei Valdivia. Sechs Wochen später sahen er und FitzRoy bei einem Ritt zur schwer zerstörten Stadt Concepción die Auswirkungen dieses Bebens. Als Darwin Anfang März 1835 die Insel Quiriquina bei Talcahuano untersuchte, fand er marine Ablagerungen, die infolge des Erdbebens um einige Fuß gehoben worden waren, worin er eine weitere Bestätigung für Lyells Theorie und das Alter der Erde sah. Bei einer zweiten Anden-Expedition im März und April entdeckte er, dass das weit von der Küste entfernte Gebirge hauptsächlich aus submariner Lava bestand. Er fand fossile und versteinerte Bäume und begann, erste eigene geologische Theorien zu entwickeln. Bis zum Sommer unternahm er zwei weitere Expeditionen, bei denen er Untersuchungen in den Anden durchführte. Nach den bis zum 7. September 1835 andauernden Vermessungsarbeiten vor Chile und Peru verließ die HMS "Beagle" die südamerikanische Westküste endgültig und brach in Richtung Galapagosinseln auf. Am 18. September betrat Darwin auf San Cristóbal zum ersten Mal eine der zahlreichen Inseln. Die Vermessungsarbeiten dauerten gut einen Monat. Darwin konnte auf den Inseln Floreana, San Salvador sowie Isabela Untersuchungen vornehmen und Tier- und Pflanzenproben sammeln. Nicholas Lawson, der Direktor des Strafgefangenenlagers auf der Insel Floreana, machte ihn darauf aufmerksam, dass sich die auf den Galápagos-Inseln lebenden Schildkröten anhand ihrer Panzer bestimmten Inseln zuordnen ließen. Darwin schenkte zu diesem Zeitpunkt weder dieser Bemerkung noch den Galapagosfinken besonders viel Aufmerksamkeit. Am 20. Oktober 1835 brach die HMS "Beagle" zur Durchquerung des Pazifischen Ozeans auf. Gut drei Wochen später wurde das Atoll Puka-Puka im Tuamotu-Archipel gesichtet und am Abend des 15. November Tahiti erreicht, wo das Schiff zehn Tage ankerte. In Papeete trafen Darwin und FitzRoy mit der tahitianischen Königin Pomaré IV. zusammen. Während der Weiterfahrt nach Neuseeland vervollständigte Darwin seine Theorie über die Entstehung der Korallenriffe, die er bereits an der Westküste Südamerikas begonnen hatte. Den zehntägigen Aufenthalt im Norden der neuseeländischen Nordinsel nutzte Darwin erneut zu Exkursionen in das Landesinnere. Er besuchte die Missionare der Te Waimate Mission und untersuchte bei Kaikohe eigentümliche Formationen aus Kalkstein. Als die HMS "Beagle" am 12. Januar 1836 die Sydney Cove im Port Jackson vor Sydney in Australien erreichte, war Darwin erleichtert, endlich wieder in einer großen, kultivierten Stadt zu sein. Auf einem seiner Ausflüge begegnete er einigen Aborigines, die ihm – für einen Shilling – ihre Fähigkeiten im Speerwurf demonstrierten. In Hobart genoss Darwin, den es immer mehr nach Hause zog, die Gastfreundschaft des Generalvermessungsinspektors George Frankland (1800–1838). Er feierte seinen 27. Geburtstag, fing Skinke und Schlangen, sammelte Plattwürmer und zahlreiche Insekten, darunter Mistkäfer, die er in Kuhfladen fand. Die letzte Station des zweimonatigen Aufenthaltes in Australien war Albany. Die weitere Fahrt führte ihn auf die Kokosinseln sowie nach Mauritius und an der Südspitze von Madagaskar vorbei nach Südafrika. Am 31. Mai 1836 warf die HMS "Beagle" bei Simon’s Town in der "Simons Bay" die Anker. Darwin eilte auf dem Landweg nach Kapstadt, wo er sich mit John Herschel traf. Am 29. Juni querte die HMS "Beagle" den Südlichen Wendekreis. Auf St. Helena untersuchte er die Geologie der Insel und auf Ascension bestieg er den 859 Meter hohen Vulkan Green Mountain. Das heimatliche England rückte näher, doch am 23. Juni entschied sich Kapitän FitzRoy, noch einmal nach Salvador da Bahia an der Küste von Südamerika zurückzukehren, um fehlerhafte Messungen auszuschließen. Am 17. August 1836 ging die HMS "Beagle" endgültig auf Heimatkurs. Nochmals wurde Praia angesteuert und ein Zwischenstopp bei der Azoren-Insel Terceira eingelegt. Am 2. Oktober gegen 9 Uhr morgens lief das Schiff in den englischen Hafen Falmouth ein. Darwin machte sich sofort auf den Weg zu seiner Familie in Shrewsbury. Während der Rückreise hatte Darwin seine Notizen geordnet und mit Unterstützung seines Gehilfen Syms Covington insgesamt zwölf Kataloge seiner Sammlungen erstellt. Seine zoologischen Notizen umfassten 368 Seiten, die über Geologie waren mit 1383 Seiten etwa viermal so umfangreich. Zusätzlich hatte er 770 Seiten seines Reisetagebuchs beschrieben. 1529 in Spiritus konservierte Arten sowie 3907 Häute, Felle, Knochen, Pflanzen etc. waren das Ergebnis seiner fast fünfjährigen Reise. Zurück in England – Anfänge der Evolutionstheorie. Darwins Name war bereits vor seiner Rückkehr im Oktober 1836 in wissenschaftlichen Kreisen bekannt, da Henslow, ohne dass Darwin davon wusste, einige seiner Briefe als "Letters on Geology" veröffentlicht hatte. Für kurze Zeit weilte Darwin in Cambridge, wo er an seiner Sammlung und am Manuskript des "Journal" arbeitete. Im März 1837 ließ er sich in London nieder. Hier schloss er bald Freundschaft mit Charles Lyell und Richard Owen. Der freundschaftliche Umgang mit Owen kühlte in späteren Jahren jedoch ab. In die Zeit nach der Rückkehr fallen Darwins erste Gedanken über den Artwandel, auch wenn Darwin selbst später diesen Zeitpunkt auf die Zeit in Südamerika vorverlegte. Sein Glaube an die Konstanz der Arten wurde vor allem durch die Arbeiten von John Gould im März 1837 über die Vögel der Galápagos-Inseln erschüttert. Darwin hatte den Vögeln auf der Reise kaum Aufmerksamkeit geschenkt, die gesammelten Exemplare auch nicht den einzelnen Inseln zugeordnet. Gould zeigte nicht nur, dass alle Arten eng verwandt (heute als Darwin-Finken zusammengefasst) sind, sondern dass bei diesen Vögeln keine klare Trennung zwischen Arten und Varietäten möglich ist, also keine klaren Artgrenzen bestehen. Darwins Überlegungen zur Entstehung der Arten waren begleitet von einer breit gefächerten Lektüre in den Bereichen Medizin, Psychologie, Naturwissenschaften, Philosophie, Theologie und politische Ökonomie. Das Ziel Darwins war es, die Entstehung von Arten auf naturwissenschaftliche Grundlagen zu stellen. Insbesondere lehnte er inzwischen die Naturtheologie Paleys ab, in deren Tradition er in Cambridge ausgebildet worden war. Viele von Darwins späteren Experimenten und Argumenten dienten dazu, Paleys "argument from design" zu widerlegen und Anpassungen auf natürliche Ursachen, nicht göttliches Wirken zurückzuführen. Dabei verwendete Darwin häufig die gleichen Beispiele wie Paley und ähnliche Argumente. Philosophisch war Darwin vor allem geprägt durch den englisch-schottischen Empirismus in der Tradition David Humes, aber auch durch Adam Smith, etwa dessen Theorie der moralischen Gefühle. Wissenschaftstheoretisch hatten John Herschel und William Whewell großen Einfluss auf ihn mit ihrer Betonung der Bedeutung von Induktion und Deduktion für die Naturwissenschaften. a> (1809–1896) aus dem Jahr 1840 Emma Darwin im Jahr 1840, kurz nach ihrer Hochzeit mit Charles, Aquarell von George Richmond Darwin war spätestens im Sommer 1837 von der Veränderlichkeit der Arten überzeugt und begann, Informationen zu diesem Thema zu sammeln. In den folgenden 15 Monaten entstand langsam und schrittweise die Theorie, die er erst 1858/1859 veröffentlichen sollte. Im März 1837 begann Darwin mit der Niederschrift seiner Überlegungen in Notizbüchern, den "Notebooks on Transmutation". Auf S. 36 des ersten Notizbuches, „B“, entwarf er unter der Überschrift "I think" eine erste Skizze von der Entstehung der Arten durch Aufspaltung. Eine wichtige Grundlage für seine Überlegungen war der Gradualismus, wie er ihn aus Lyells "Principles of Geology" kannte. Die Veränderlichkeit der Arten und den Auslesemechanismus "(künstliche Selektion)" kannte Darwin aus der Tier- und Pflanzenzucht. Als Kristallisationspunkt für die Ausformulierung seiner Selektionstheorie erwies sich das Wachstumsgesetz, wie es Thomas Robert Malthus in seinem "Essay on the Principle of Population" formuliert hatte und den Darwin im September 1838 las. Die Theorie von Malthus geht von der Beobachtung aus, dass die Bevölkerungszahl (ohne Kontrolle oder äußere Beschränkung) exponentiell wächst, während die Nahrungsmittelproduktion nur linear wächst. Somit kann das exponentielle Wachstum nur für eine beschränkte Zeit aufrechterhalten werden und irgendwann kommt es zu einem Kampf um die beschränkten Ressourcen. Darwin erkannte, dass sich dieses Gesetz auch auf andere Arten anwenden ließ und ein solcher Konkurrenzkampf dazu führen würde, dass vorteilhafte Variationen erhalten blieben und unvorteilhafte Variationen aus der Population verschwänden. Dieser Mechanismus der Selektion erklärte die Veränderung und auch die Entstehung von neuen Arten. Damit hatte Darwin eine „Theorie, mit der ich arbeiten konnte“. Die Zeit in London war die arbeitsreichste in Darwins Leben. Neben seinen umfangreichen Studien zur Evolution gab er die mehrbändige "The Zoology of the Voyage of H.M.S. Beagle" (1838–1843) heraus. Sein zunächst als 3. Band von "The narrative of the voyages of H.M. Ships Adventure and Beagle" (1839) veröffentlichtes Reisebuch war derart erfolgreich, dass es unter dem Titel "Journal of Researches" noch im selben Jahr separat veröffentlicht wurde. Es ist heute noch neben den "Origins" sein meistgelesenes Buch. Darwin verfasste die auf seinen Beobachtungen während der Reise beruhenden geologischen Arbeiten über den Aufbau der Korallenriffe (1842) und Vulkane (1844), die wesentlich zu seiner Reputation als Wissenschaftler beitrugen. Wie sehr Darwin in der Gesellschaft verankert war, zeigen seine Aufnahme in die Royal Society und den Athenaeum Club sowie seine Berufung zum Rat der Geological Society of London und zum Rat der Royal Geographical Society. Am 29. Januar 1839 heirateten Darwin und seine Cousine Emma Wedgwood (1808–1896), die Tochter seines Onkels Josiah Wedgwood II. Das gemeinsame Vermögen, das sowohl von seinem eigenen Vater als auch vom Vater der Braut stammte, ermöglichte Darwin ein Leben als Privatier. Er investierte das Vermögen in Grundbesitz und später vor allem in Eisenbahnaktien. In der Londoner Zeit kamen die Kinder William Erasmus (1839–1914), Anne (1841–1851) und Mary Eleanor (1842–1842) zur Welt. Mary Eleanor verstarb jedoch bereits nach wenigen Wochen. An William studierte Darwin die Ausdrucksformen des Säuglings, die er später veröffentlichen sollte. Rückzug nach Down House. Im November 1842 zog sich die Familie Darwin in das "Down House" in die kleine, südlich von London gelegene Ortschaft Down zurück. Hier erhoffte sich Darwin mehr Ruhe für seine angeschlagene Gesundheit. Bereits seit seiner Rückkehr von der Beagle-Reise, verstärkt seit 1839, hatten sich immer wieder Krankheitssymptome eingestellt, über deren Ursachen bis heute spekuliert wird. Die Symptome waren Schwächeanfälle, Magenschmerzen, Übelkeit und Erbrechen, erhöhter Puls und Atemprobleme. Darwin lebte daher sehr zurückgezogen, begab sich selten auf Reisen und verließ die Britische Insel zeit seines Lebens nicht mehr. Im September 1843 kam Tochter Henrietta zur Welt, der noch weitere sechs Kinder folgten: George Howard (1845–1912), Elizabeth (* 1847), Francis (1848–1925), Leonard (1850–1943), Horace (1851–1928) und Charles Waring (* 1856). Down House, ab November 1842 der Wohnsitz der Familie Darwin, ist heute ein Museum 1843 begann seine Freundschaft mit dem Botaniker Joseph Dalton Hooker, der neben Lyell und Thomas Henry Huxley zu seinem stärksten Verbündeten werden sollte. In einem Brief am 11. Januar 1844 gab ihm Darwin erste Hinweise auf seine Evolutionstheorie und schrieb ihm, dass er „entgegen seiner ursprünglichen Auffassung nun beinahe überzeugt [sei], dass die Arten (es ist wie einen Mord zu gestehen) nicht unveränderlich“ seien. Hooker antwortete, dass seiner Meinung nach „eine graduelle Veränderung der Arten“ stattfinde und er, Hooker, auf Darwins Ansatz gespannt sei, da er bisher noch keine zufriedenstellende Erklärung gehört habe. Darwin hatte seine Überlegungen bereits 1842 in einer 35-seitigen Skizze dargelegt und arbeitete diese 1844 zu einem rund 230-seitigen Essay aus, den jedoch nur seine Frau Emma zu lesen bekam und den sie im Falle seines Todes veröffentlichen sollte. Beide Texte stimmten in Inhalt und Grundstruktur bereits mit dem 1859 veröffentlichten Buch überein. War die Transmutationslehre bis jetzt vorwiegend auf sozialistische, revolutionäre und teilweise medizinische Kreise beschränkt geblieben, hielt sie ab 1844 Einzug in bürgerliche Kreise: mit dem von Robert Chambers anonym publizierten Werk "Vestiges of the Natural History of Creation", das – brillant, aber journalistisch geschrieben – rasch zum Bestseller wurde, in wissenschaftlichen Kreisen jedoch nicht ernst genommen wurde. Die nächsten Werke, die Darwin veröffentlichte, waren die Geologie der Vulkaninseln "(Geological observations on the volcanic islands visited during the voyage of H.M.S. Beagle)" 1844 und die Geologischen Beobachtungen in Südamerika "(Geological observations on South America)" 1846. Damit waren die Sammlungen seiner Weltreise nach zehn Jahren aufgearbeitet, mit Ausnahme eines seltsamen Exemplars der Rankenfußkrebse. Aus der Beschreibung dieser Art entwickelte sich eine acht Jahre dauernde Bearbeitung aller bekannten lebenden und fossilen Arten der gesamten Ordnung. Diese Arbeit, die er in zwei dicken Bänden über die lebenden und zwei schmalen Bänden über die fossilen Vertreter publizierte, machte ihn zu einem anerkannten Taxonomen, und er erhielt für sie 1854 die Royal Medal. Er erhielt Sammlungen aus ganz Europa, den USA und allen britischen Kolonien. Darwin selbst erkannte während der Arbeit die Bedeutung der Variation und des Individuums. In dieser Zeit entwickelte sich Hooker zum einzigen Ansprechpartner zum Thema Evolution, und 1847 gab Darwin ihm seinen Essay zu lesen. 1849 begab sich Darwin zu einer 16-wöchigen Wasserkur nach Malvern in die Behandlung des Arztes James Gully, die seine Gesundheit wieder wesentlich besserte. In den folgenden Jahren benötigte Darwin immer wieder Kuren, um sich zu erholen, und er setzte die kalten Waschungen auch zu Hause fort. 1851 erkrankte seine Lieblingstochter Annie schwer und starb am 23. April 1851. Ihr Tod zerstörte die letzten Reste seines Glaubens an eine moralische, gerechte Welt, der seit seiner Rückkehr von der Beagle-Reise bereits stark geschwunden war. Darwin bezeichnete sich in seinem späteren Leben als Agnostiker. Ausschnitt aus einer Fotografie von 1854, die Charles Darwin im Alter von 45 Jahren zeigt Nach Beendigung der Arbeit an den Rankenfußkrebsen nahm Darwin 1854 die Arbeit an der Evolutionstheorie wieder auf. In diesen Jahren führte er unzählige Experimente durch. Unter anderem versuchte er, eine Lösung für das Problem der Besiedlung von Inseln zu finden. Dafür untersuchte er beispielsweise die Überlebensfähigkeit von Pflanzensamen in Salzwasser und zog Vogelkot und Gewölle von Greifvögeln als Ausbreitungsmedien in Betracht. Für das Thema der Variation wandte er sich den Tierzüchtern zu, sammelte von diesen Informationen und begann selbst, Tauben zu züchten, um künstliche Selektion in der Praxis zu untersuchen. Charles Lyell, dem Darwin vieles über seine Ansichten mitteilte, drängte Darwin 1856 dazu, seine Erkenntnisse zu publizieren, damit ihm nicht jemand anders zuvorkomme. Grund für dieses Drängen war ein Aufsatz von Alfred Russel Wallace, "On the Law which has regulated the introduction of New Species" (1855), dessen Tragweite Darwin selbst aufgrund der verklausulierten Sprache Wallace’ verkannte. Darwin begann nun, seine Erkenntnisse in einem Manuskript niederzuschreiben, das den Titel "Natural Selection" trug. Die Arbeit zog sich aufgrund des umfangreichen Materials hin, im März 1858 waren zehn Kapitel, rund zwei Drittel des geplanten Umfangs, fertig. In der Zwischenzeit hatte er in Asa Gray in Harvard einen weiteren Korrespondenzpartner gefunden und ihm in einem Brief vom 5. September 1857 eine Zusammenfassung seiner Theorie dargelegt. Im Juli 1857 wurde Darwin zum Friedensrichter gewählt und im selben Jahr von der Deutschen Akademie der Naturforscher Leopoldina zum Mitglied ernannt. Über die Entstehung der Arten. Die Titelseite der Erstausgabe von"On the Origin of Species" (1859) a> erschien am 22. März 1871 im Magazin "The Hornet" und trug den Titel „A venerable Orang-Outang. A contribution to unnatural history“. Wie berechtigt Lyells Drängen auf Publikation war, zeigte sich, als Darwin im Juni 1858 Post von Wallace von der Molukken-Insel Ternate bekam mit einem Manuskript namens "On the Tendency of Varieties to depart indefinitely from the Original Type", das im Wesentlichen die gleichen Erklärungsmuster wie Darwins eigene Arbeit enthielt. Es verwendete den Begriff "struggle for existence" und stützte sich auf die Arbeiten von Lyell, Malthus, Lamarck und die "Vestiges" von Robert Chambers. Wallace bat Darwin um Weiterleitung des Manuskripts an Lyell, ohne jedoch eine mögliche Veröffentlichung zu erwähnen. Obwohl Darwin um seine Priorität bei der Veröffentlichung fürchtete, leitete er das Manuskript weiter. Da sein jüngster Sohn Charles Waring am 23. Juni an Scharlach erkrankte und wenige Tage später starb, überließ Darwin die Angelegenheit seinen Freunden Lyell und Hooker. Diese fanden die Lösung in einem "gentlemanly agreement", das eine gemeinsame Vorstellung der Arbeiten Wallaces und Darwins beinhaltete, die am 1. Juli 1858 in einer Sitzung der Linnean Society stattfand. Weder die Verlesung noch der folgende Druck des Vortrages führte zu wesentlichen Reaktionen. Die Tatsache der Evolution wurde in den nächsten Jahren in Wissenschaftskreisen praktisch universell akzeptiert, sehr viel weniger allerdings die natürliche Selektion, mit der sich selbst Darwins Freunde Lyell und Asa Gray nicht anfreunden konnten. John Herschel kritisierte sie scharf als „law of the higgledy-piggledy“ („Regel von Kraut und Rüben“). Karl Ernst von Baer stellte sie sogar in die Nähe eines Wissenschaftsmärchens. Darwins väterlicher Freund Henslow lehnte die Evolution ab, blieb Darwin aber freundschaftlich verbunden. Sedgwick und Richard Owen veröffentlichten hingegen ablehnende Rezensionen. Darwins Freunde unterstützten das Buch mit mehreren Rezensionen, so Huxley in der "Times". Im Juni 1860 kam es an der Universität Oxford während einer Sitzung der British Association for the Advancement of Science zwischen dem Unterstützer der Evolutionsgedanken Thomas Huxley und einem ihrer erklärten Gegner, dem Bischof von Oxford Samuel Wilberforce, in Abwesenheit von Darwin zu einem erbitterten Streitgespräch. In dessen Verlauf argumentierten Wilberforce und Darwins ehemaliger Kapitän Robert FitzRoy gegen, Huxley sowie Joseph Dalton Hooker für die Theorie. Beide Seiten beanspruchten den Sieg in der Debatte für sich. Die weiteren Bücher nach "Die Entstehung der Arten". In den nächsten Jahren veröffentlichte Darwin noch drei bedeutsame Bücher, in denen er Aspekte der Evolutionstheorie wesentlich detaillierter ausarbeitete als im Buch "Entstehung der Arten". In "The Variation of Animals and Plants under Domestication" („Das Variieren der Thiere und Pflanzen im Zustande der Domestication“), das Ende Januar 1868 erschien, legte er all das von ihm in den letzten Jahrzehnten gesammelte Material vor, das die Variation, die Veränderlichkeit, von Tieren und Pflanzen unter dem Einfluss des Menschen zeigt. In diesem Buch präsentierte er auch seine Spekulationen über einen Vererbungsmechanismus, nämlich die Pangenesistheorie. Sie stieß selbst bei seinen Freunden auf Ablehnung und stellte sich als falsch heraus. Die Abstammung des Menschen zu erörtern, hatte Darwin bis zu diesem Zeitpunkt immer vermieden. Erst im 1871 erschienenen Buch "The Descent of Man, and Selection in Relation to Sex (Die Abstammung des Menschen und die geschlechtliche Zuchtwahl)" legte Darwin dar, was zu diesem Zeitpunkt bereits weithin diskutiert wurde und was bereits Huxley ("Evidence as to Man’s Place in Nature", 1863) und Haeckel öffentlich vertreten hatten: die Verwandtschaft des Menschen mit dem Affen, mit dem er gemeinsame Vorfahren teilt. Die von Darwin als erstem ausgesprochene Vermutung, der Mensch habe sich in Afrika entwickelt, erwies sich viel später als richtig. Darwin führte auch die geistigen Eigenschaften des Menschen auf evolutionäre Vorgänge zurück. Weiterhin betonte er die Einheit des Menschen als eine einzige Art und sprach sich dagegen aus, die Rassen (oder Subspezies) des Menschen als unterschiedliche Arten aufzufassen (im 7. Kapitel: „Über die Rassen des Menschen“). Die Entstehung dieser Menschenrassen erklärte er durch sexuelle Selektion. Im zweiten Teil des Buches konzentrierte er sich auf die sexuelle Selektion, die Auswahl von Partnern durch das andere Geschlecht. Mit dieser Theorie konnte Darwin Phänomene wie das Hirschgeweih erklären, die es aufgrund der natürlichen Selektion nicht geben dürfte. Das Buch war ebenfalls eine Antwort auf das Buch "The Reign of Law" des liberalen Duke of Argyll, in dem dieser, von Owen beeinflusst, Darwins natürliche Selektion angegriffen und den Ursprung der Naturgesetze auf Gott zurückgeführt hatte. 1872 folgte "On the Expression of the Emotions in Man and Animals (Der Ausdruck der Gemütsbewegungen bei dem Menschen und den Tieren)", in dem Darwin darlegte, dass auch die Gefühle und deren Ausdrucksweise bei Mensch und Tieren gleich und wie äußere Merkmale durch Evolution entstanden sind. Das Buch war zugleich eine Argumentation gegen Charles Bell und dessen Buch "Anatomy and Physiology of Expression", in dem dieser die Meinung vertrat, dass die Gesichtsmuskeln des Menschen zu dem Zweck geschaffen wurden, seine Gefühle auszudrücken. Im selben Jahr kam noch die sechste und zugleich letzte Auflage von "Entstehung der Arten" heraus. In jeder Auflage hatte Darwin zahlreiche Änderungen durchgeführt, Fehler korrigiert und war auf Kritik eingegangen. 1874 wurde Darwin in die American Academy of Arts and Sciences gewählt. Das letzte Jahrzehnt: Botanik. In seinem letzten Lebensjahrzehnt konzentrierte sich Darwins Publikationstätigkeit auf botanische Themen. Darwin führte zu diesem Zweck zahlreiche Versuche durch, bei denen ihn besonders sein Sohn Francis unterstützte. "The Movements and Habits of Climbing Plants (Über die Bewegungen der Schlingpflanzen)" von 1867 (erweiterte 2. Auflage 1875) und das mit 592 Seiten sehr umfangreiche Buch "The Power of Movement in Plants (Das Bewegungsvermögen der Pflanzen)" von 1880 sind grundlegende Werke der Pflanzenphysiologie. Bei der Beobachtung der Reizbarkeit von Hafer-Koleoptilen postulierte er einen Botenstoff (Hormon), der Jahrzehnte später als Auxin identifiziert werden sollte. Er untersuchte die Reaktion der Wurzelspitzen auf Reize und setzte dabei die Wurzelspitze der Pflanzen in Analogie zu den Gehirnen von Niederen Tieren, ein Gedanke, der im 21. Jahrhundert als "Pflanzenintelligenz" im Umkreis der kontrovers diskutierten Pflanzenneurobiologie wieder zu Ehren kam. Darwin entdeckte die Circumnutation, die endogen gesteuerte Kreisbewegung vieler Pflanzen. In seinem Buch "Insectivorous Plants (Insectenfressende Pflanzen)" von 1875 konnte er nachweisen, dass manche Pflanzen tatsächlich fleischfressend sind. a> wurde am 6. Mai 1882 in der Zeitschrift "The Graphic" veröffentlicht. a> am 9. Juni 1885 durch Thomas Henry Huxley an den Prinzen von Wales In drei Arbeiten beschäftigte er sich mit Blütenbiologie: In "On the various contrivances by which British and foreign orchids are fertilised by insects, and on the good effects of intercrossing (Über die Einrichtungen zur Befruchtung Britischer und ausländischer Orchideen durch Insekten und über die günstigen Erfolge der Wechselbefruchtung)" (1862) zeigte er, dass der Blütenbau der Orchideen dazu dient, eine möglichst hohe Rate an Fremdbestäubung zu erreichen. Er beschrieb die Täuschblumen wie etwa der Fliegen-Ragwurz, die Grabwespenweibchen nachahmt und damit die Männchen anlockt. Für die madagassische Orchidee "Angraecum sesquipedale" mit einem 25 cm langen Nektarsporn sagte er einen bestäubenden Schmetterling mit einem ebenso langen Rüssel vorher, der erst Jahre später entdeckt werden sollte. Seine Veröffentlichung "The effects of cross and self fertilisation in the vegetable kingdom (Die Wirkungen der Kreuz- und Selbst-Befruchtung im Pflanzenreich)" (1876) war das Ergebnis umfangreicher Bestäubungsexperimente seit 1866, die er teilweise über zehn Pflanzengenerationen hinweg durchführte. Fremdbestäubung führte in den meisten Fällen zu stärkeren Nachkommen als Selbstbestäubung. In "The different forms of flowers on plants of the same species (Die verschiedenen Blüthenformen an Pflanzen der nämlichen Art)" (1877) zeigte er, dass die unterschiedlichen Blütenformen mancher Pflanzen ebenfalls dazu dienen, Fremdbestäubung sicherzustellen, etwa bei Heterostylie. Das Buch war eines der wenigen, die Darwin einer Person widmete: Asa Gray. Das letzte Buch Darwins behandelte ein Thema, das ihn über 40 Jahre beschäftigt hatte: die Tätigkeit der Regenwürmer. "The formation of vegetable mould, through the action of worms, with observations on their habits (Die Bildung der Ackererde durch die Tätigkeit der Würmer)" kam 1881 heraus, wenige Monate vor Darwins Tod. Er postulierte hier eine zentrale Rolle der Regenwürmer in der Boden- und Humusbildung. In einem 30 Jahre dauernden Freilandexperiment zeigte er, dass durch die Arbeit der Regenwürmer Kalkstückchen von der Oberfläche bis 18 cm tief in den Boden eingearbeitet werden. Er widerlegte auch die damals weit verbreitete Meinung, Regenwürmer seien schädlich für den Pflanzenbau. Mit diesem Werk war Darwin einer der Wegbereiter der Bodenbiologie. Charles Darwin starb am 19. April 1882 im Alter von 73 Jahren in seinem Haus in Downe. Er wurde am 26. April in der Westminster Abbey beigesetzt, zu Füßen des Monuments für Sir Isaac Newton und neben Sir John Herschel. Einer seiner Sargträger war Alfred Russel Wallace. Die Errichtung einer Statue im neuen Natural History Museum musste bis 1885 warten, bis zur Pensionierung Richard Owens. Rezeption und Nachwirkung. Charles Darwin gilt durch seine wesentlichen Beiträge zur Evolutionstheorie als einer der bedeutendsten Naturwissenschaftler überhaupt und ist durch diese Leistung auch im Bewusstsein der Öffentlichkeit immer noch stark präsent. So wurde Darwin 1992 in einer Liste der einflussreichsten Personen in der Geschichte auf dem 16. Platz gereiht, und in Großbritannien wurde er auf den vierten Platz der 100 Greatest Britons gewählt. Darwins Werke, allen voran "Entstehung der Arten" und "Abstammung des Menschen", lösten schon kurz nach ihrem Erscheinen eine Flut von Rezensionen und Reaktionen aus. Darwins Theorien berührten nicht nur biologische Fragestellungen, sie hatten auch „weitreichende Implikationen für Theologie, Philosophie und andere Geisteswissenschaften sowie für den Bereich des Politischen und Sozialen“. Darwins Theorien wurden nicht nur in Wissenschaftskreisen, sondern auch vom Klerus und der breiten Öffentlichkeit diskutiert. Themen waren beispielsweise das Teleologieproblem, die Rolle eines Schöpfers, das Leib-Seele-Problem oder die Stellung des Menschen in der Natur. Dass der Mensch keine eigenständige Schöpfung ist, sondern ein Evolutionsprodukt wie Millionen anderer Arten, steht im Widerspruch zur christlichen Lehre sowie vielen philosophischen Schulen. Sigmund Freud bezeichnete die Evolutionstheorie als eine der drei Kränkungen der Eigenliebe der Menschheit. Wichtige Teile seiner Theorie hatten sich rasch durchgesetzt: die Tatsache der Evolution an sich und die gemeinsame Abstammung. Der Mechanismus der Selektion blieb jedoch lange umstritten und nur einer von mehreren diskutierten Mechanismen. Beim ersten großen Jubiläum anlässlich Darwins 100. Geburtstag 1909 gab es fast niemanden, der die Selektionstheorie unterstützte. Diese Zeit wurde später von Julian Huxley als „Finsternis des Darwinismus“ "(eclipse of Darwinism)" bezeichnet. Erst die synthetische Evolutionstheorie, auch als "zweite darwinsche Revolution" bezeichnet, verhalf auch der Selektionstheorie zum Durchbruch. Im 20. Jahrhundert entstanden unter dem Einfluss Darwins neue Disziplinen wie die Verhaltensforschung und die Soziobiologie, deren Anwendung auf den Menschen in der Philosophie als „evolutionäre Ethik“ diskutiert wird. Die Evolutionäre Erkenntnistheorie geht letzten Endes auf Darwin zurück und wichtige Elemente der Evolutionsökonomik wurden von seinem Werk beeinflusst. Eine missbräuchliche Umdeutung und Übertragung ins Politische erfuhren Darwins Theorien in der Ideologie des Sozialdarwinismus. Diese unter anderem auf einem naturalistischen Fehlschluss beruhende Übertragung lässt sich weder zwangsläufig aus Darwins Werk ableiten, noch entspricht sie im Entferntesten Darwins Welt- und Menschenbild. Ehrungen. Nach Darwin wurden die Darwinfinken benannt. Außerdem folgende geographische Orte: Charles-Darwin-Nationalpark (Australien), Charles Darwin University (Australien), Darwin College in Cambridge (England), Darwin (Falklandinseln), Darwin (Australien), Darwin-Gletscher und Mount Darwin (Kalifornien), Darwin Island (Galapagos-Inseln), Darwin Island (Antarktis), Darwin Sound (Kanada), Darwin Sound (Feuerland), Monte Darwin (Feuerland), Mount Darwin (Tasmanien), Cordillera Darwin (Chile). Der Zoo Rostock eröffnete 2012 das "Darwineum", eine Mischung aus Zoo und Museum, in welchem die Evolution erläutert wird. Codex Manesse. Fol. 127r, Werke Walthers von der Vogelweide Der Codex Manesse (auch Manessische Liederhandschrift oder Manessische Handschrift, so genannt von dem Schweizer Gelehrten Johann Jakob Bodmer; nach dem jeweiligen Aufbewahrungsort auch als Große Heidelberger Liederhandschrift oder Pariser Handschrift bezeichnet) ist die umfangreichste und berühmteste deutsche Liederhandschrift des Mittelalters. Von Germanisten wird die Sammlung kurz mit "C." bezeichnet. Seit 1888 wird sie wieder in der Universitätsbibliothek Heidelberg aufbewahrt (Signatur: UB Heidelberg, Cod. Pal. Germ. bzw. cpg 848). Der Kodex besteht aus 426 beidseitig beschriebenen Pergamentblättern im Format 35,5 × 25 cm, die von späterer Hand paginiert wurden. Insgesamt befinden sich in ihr 140 leere und zahlreiche nur zum Teil beschriebene Seiten. Der Text wurde nicht nur mehrfach in verbesserten historisch-kritischen Ausgaben herausgegeben, sondern – im Unterschied zu anderen Handschriften – auch zeichengenau abgedruckt (s. Bibliographie). Die Manessische Liederhandschrift enthält dichterische Werke in mittelhochdeutscher Sprache. Ihr Grundstock entstand um 1300 in Zürich, wahrscheinlich im Zusammenhang mit der Sammeltätigkeit der Zürcher Patrizierfamilie Manesse. Mehrere Nachträge kamen bis zirka 1340 hinzu. Der Kodex gilt als repräsentative Summe des mittelalterlichen Laienliedes und bildet für den „nachklassischen“ Minnesang die Haupt- und weithin die einzige Quelle. Die insgesamt 138 Miniaturen, die die Dichter in idealisierter Form bei höfischen Aktivitäten darstellen, gelten als bedeutendes Dokument oberrheinischer gotischer Buchmalerei. Eine weitere Miniatur ohne Text ist nur vorgezeichnet. Ohne Miniatur blieb Walther von Breisach. Für das Werk lieferten insgesamt vier Künstler die Miniaturen: 110 Illustrationen entfallen auf den Maler des Grundstocks, 20 auf den ersten Nachtragsmaler, vier auf den zweiten und drei (plus eine Vorzeichnung) auf den dritten. Inhalt und Aufbau. Die Handschrift beginnt mit einem vom Grundstockschreiber in einer Kolumne bis Nr. CXIIII geschriebenen Inhaltsverzeichnis, das teilweise durch Nachtragschreiber mit seitlichen Ergänzungen versehen wurde. Die in gotischer Buchschrift (von mehreren Händen) geschriebene Handschrift überliefert die mittelhochdeutsche Lyrik in ihrer gesamten Gattungs- und Formenvielfalt (Lieder, Leichs, Sangsprüche) von den Anfängen weltlicher Liedkunst (Der Kürenberger um 1150/60) bis zur Zeit der Entstehung der Handschrift (Johannes Hadloub um 1300). Melodienotationen zu den Texten fehlen. Der Kodex enthält 140 Dichtersammlungen, die jeweils durch ganzseitige Autorbilder (oft mit Wappen und Helmzier, vgl. Abbildung) eingeleitet werden und, geordnet nach Tönen, insgesamt rund 6000 Strophen umfassen. Dabei handelt es sich sowohl um Minne- als auch um didaktische und religiöse Lyrik. Die Anordnung der Liedkorpora orientiert sich anfangs, wie in der Weingartner Liederhandschrift und in der (verlorenen) gemeinsamen Vorlage *BC, am sozialen Stand der Autoren: An der Spitze thronen, als vornehmste Sänger, die staufischen Herrscher Kaiser Heinrich VI. und König Konrad IV., es folgen Fürsten, "herren" (unter anderen Walther von der Vogelweide) und schließlich "meister". Der Codex Manesse ist das Resultat eines komplexen, nie förmlich abgeschlossenen Sammelvorgangs: Weder die Texte noch die 138 Bilder wurden in einem Zug eingetragen, und manches ist später neu geordnet worden; innerhalb der Autorenkorpora sind Lücken geblieben, etwa ein Sechstel der Seiten ist für Nachträge freigelassen. Unterschieden werden der Grundstock von etwa 110 Autoren (niedergeschrieben zu Beginn des 14. Jahrhunderts) und mehrere Nachtragsschichten, die bis zur Mitte des Jahrhunderts weitere 30 Autoren hinzufügten. Unverkennbar ist die Absicht, die Liedkunst, auch die zeitgenössische, möglichst vollständig zu sammeln, jedenfalls, soweit sie mit Namen verbunden war oder sich verbinden ließ. Es gab auch Texteinbußen durch Blattverlust. Die Strophenanfänge sind mit lied- und tonweise wechselnden blauen und roten Initialen geschmückt; teilweise finden sich Randverzierungen. Abweichend vom Standardverfahren der Handschrift, jeweils ein Textkorpus einem Autor und einer Miniatur zuzuordnen, finden sich bei „Klingesor von vngerlant“ nicht nur dessen Gedichte (freilich gab es den Zauberer Klingsor aus Ungarn nicht wirklich, und seine Strophen sind fingiert), sondern anthologieartig auch Gedichte von fünf weiteren Minnesängern (die aber auch ihren eigenen Haupteintrag haben). Dies geschah deshalb, weil hier der Sängerkrieg auf der Wartburg dargestellt werden sollte: Das Gastgeber-Ehepaar, Landgraf Hermann von Thüringen und seine Frau, die spätere Heilige Elisabeth, thronen über den sechs hier auftretenden Sängern. Entstehung. Einblick in die Vorstufen bzw. in die Entstehung der Handschrift gibt der Zürcher Dichter Johannes Hadloub (Hauskauf: 4. Januar 1302; † 16. März, vermutlich vor 1340). Er gehörte zu dem durch antiquarische Sammelleidenschaft und das Interesse für den staufischen Minnesang und dessen Gattungstheorie geprägten Kreis um die Patrizierfamilie Manesse. In seinem in der Handschrift enthaltenen "Lobpreis der Manessen" (fol. 372r) besingt der Dichter die auf Vollständigkeit angelegte Sammlung von Liederbüchern durch Rüdiger Manesse d. Ä. (volljährig 1252, † 1304), einen der einflussreichsten Zürcher Ratsmitglieder, und durch dessen Sohn Johannes, den Kustos der Propstei († 1297). Wenn auch eine unmittelbare Beteiligung Rüdiger Manesses an der Herstellung der „Manessischen Handschrift“ nicht explizit bezeugt ist, so dürften doch die von Hadloub erwähnten "liederbuochen" der Familie Manesse die Grundlage des berühmten Kodex darstellen. Möglicherweise hat Hadloub auch selbst maßgeblich an der Vorbereitung und Ausführung des Grundstocks mitgewirkt. Hierauf deutet die exponierte Stellung seines Œuvre in C hin, die durch eine Prunkinitiale markiert wird. Hadloub erwähnt in anderen Liedern mehrere führende Zürcher Stadtbürger, so die Fürstäbtissin Elisabeth von Wetzikon, den Grafen von Toggenburg, den Bischof von Konstanz sowie die Äbte von Einsiedeln und Petershausen. Man nahm früher an, dass dieser Personenkreis wegen seines Interesses an Literatur oder der Teilnahme am „literarischen Leben“ möglicherweise als eine Art Förderzirkel im Umfeld der Manessefamilie anzusehen sei, der bei der Entstehung der Sammlung eine Rolle gespielt haben könnte. Vermutlich ist dieser sog. 'literarische Manessekreis' aber eine Fiktion. Nach Max Schiendorfer fingiert Hadloub idealtypische Lyrik-Situationen und benutzt die prominenten politischen Namen, um dem Inhalt seiner Lieder einen Anschein von Realität zu verleihen. Besitzgeschichte. Der Codex Manesse hatte eine sehr wechselvolle Geschichte. In wessen Besitz die Handschrift im Jahrhundert ihrer Entstehung war, ist nicht bekannt. Möglicherweise befand sie sich schon in der ersten Hälfte des 15. Jahrhunderts nicht mehr in Zürich, sonst hätte damals im Elsass oder in Württemberg kaum eine (Gesamt?-)Kopie angefertigt werden können. Wenn Gottfried Keller 1877 in der Novelle "Der Narr auf Manegg" eine mögliche Gefahr für die Handschrift beim Brand der Burg Manegg von 1409 schildert, ist dies eine unhistorische literarische Erfindung. Immerhin beachtenswert erscheint ein Hinweis von Johann Jakob Rüeger (1548–1606) in seiner Chronik von Schaffhausen, er habe das "alt pergamentin Buch" auf Schloss Randegg gesehen und auch ausgeliehen; seine Beschreibung passt jedenfalls genau, ist dennoch bis heute nicht als Beschreibung des Kodex mit letzter Sicherheit nachgewiesen. Um 1575/80 muss der Kodex im Besitz eines flämischen Sammlers gewesen sein, der sich vor allem für die Adelswappen interessierte, denn er ließ Wappen und Helmzierden heraldisch fachkundig abzeichnen, möglicherweise auch aus Anlass des Verkaufs der Handschrift. Wenig später erscheint das Liederbuch in der Schweiz im Nachlass des Freiherrn Johann Philipp von Hohensax († 1596), der von 1576 bis 1588 Ämter in den Niederlanden innegehabt hatte und den Kodex in dieser Zeit erworben haben könnte. Seine engen Verbindungen zum Pfalzgrafenhof in Heidelberg lassen es jedoch auch möglich erscheinen, dass Hohensax den Kodex dort vor 1594 entliehen und in die Schweiz mitgenommen hatte. Sicher ist nur, dass der Pfalzgraf von Zweibrücken und der Heidelberger Gelehrte Marquard Freher nach dem Tod des Freiherrn jahrelang nichts unversucht ließen, um (wieder?) in den Besitz des Liederbuchs zu gelangen. 1607 kam die Handschrift – unter anderem auf Betreiben des Schweizer Humanisten Melchior Goldast – nach Heidelberg zurück. Goldast war auch der erste wissenschaftliche Benutzer; er veröffentlichte 1604 mehrere didaktische Gedichte aus dem Kodex. 15 Jahre lang gehörte die Handschrift nun zur berühmten Büchersammlung am kurfürstlichen Heidelberger Hof, der Bibliotheca Palatina. 1622 während des Dreißigjährigen Krieges konnte die Handschrift vor der Eroberung Heidelbergs durch die Truppen der Katholischen Liga unter Tilly offensichtlich in Sicherheit gebracht werden, da sie nicht wie der Großteil der Bibliotheca Palatina als Kriegsbeute nach Rom verbracht wurde. Es ist zu vermuten, dass der „Winterkönig“ Friedrich V. sie zusammen mit den wertvollsten Familienschätzen in sein Exil nach Den Haag mitnahm. Seine Witwe Elisabeth Stuart geriet nach 1632 jedoch mehr und mehr in wirtschaftliche Bedrängnis, so dass womöglich der Verkauf des Erbstücks den Kodex einige Jahrzehnte später in die Privatbibliothek des französischen Gelehrten Jacques Dupuy († 17. November 1656) brachte. Dieser vermachte seine Sammlung dem König von Frankreich. Somit befand sich die Liederhandschrift seit 1657 im Besitz der Königlichen Bibliothek in Paris (der heutigen Bibliothèque nationale de France), wo sie 1815 Jacob Grimm entdeckte. Seit diesem Fund gab es vielfältige Bemühungen, die Handschrift wieder nach Deutschland zurückzuholen. Aufgrund eingetretener Verjährung des Eigentumsanspruchs der Bibliotheca Palatina war dies nur durch einen Kauf oder Tausch möglich. Letzteren bewerkstelligte 1888 der Straßburger Buchhändler Karl Ignaz Trübner, so dass die berühmteste deutsche Handschrift unter großer Anteilnahme der Bevölkerung nach Heidelberg zurückkehren konnte, wo sie bis heute verwahrt wird. Der Erwerb von der Pariser Bibliothek unter ihrem Direktor Léopold Delisle erfolgte im Tausch gegen eine größere Zahl französischer Handschriften, die in den 1840er Jahren aus französischen Bibliotheken entwendet worden waren und die Trübner von Lord Bertram Ashburnham, 5. Earl of Ashburnham (1840–1913), kaufte, der die teilweise unrechtmäßig erworbene Handschriftensammlung seines Vaters veräußern wollte. Den Codex Manesse erhielt zunächst die Berliner Reichsregierung, die die Handschrift dann wieder der Universitätsbibliothek Heidelberg zuwies. Zur Abwicklung des Erwerbs hatte ein kaiserlicher Dispositionsfonds Trübner die erhebliche Summe von 400.000 Goldmark (zirka 7 Mio. Euro) zur Verfügung gestellt. Ausstellungen und Faksimiles. Der Original-Kodex kann aus konservatorischen Gründen nur sehr selten im Rahmen von Ausstellungen gezeigt werden. Nachdem bereits 1887 Franz Xaver Kraus anlässlich der 500-Jahrfeier der Heidelberger Universität (1886) in nur 84 Exemplaren eine rasch vergriffene Faksimileausgabe im Lichtdruck herausgegeben hatte, edierte 1925 bis 1927 der Leipziger Insel Verlag (Lichtdruck der Kunstanstalt Albert Fritsch, Berlin) ein Faksimile in 320 Exemplaren, wozu das Original mit einem Sonderzug nach Leipzig gebracht wurde; ein Exemplar dieses Faksimiledrucks wird ständig im Foyer des Obergeschosses der Heidelberger Universitätsbibliothek präsentiert. Ein neues ebenfalls komplettes Faksimile des Kodex erschien 1974 bis 1979 in 750 Exemplaren, wiederum im Insel-Verlag als mehrfarbiger Lichtdruck von Ganymed - Graphische Anstalt für Kunst und Wissenschaft -, Berlin/Hannover und Kunstanstalt Max Jaffe, Wien. Vorlage war hier nicht das Original, sondern das Faksimile von 1927. In der Insel-Bücherei erschienen erstmals 1933 (IB 450) und 1945 (IB 560) je 24 Bilder der Handschrift in verkleinertem Format auch für ein breiteres Publikum, 1988 legte der Insel Verlag einen Bildband mit allen Miniaturen auf. 1988 veranstaltete die Universität Heidelberg auch eine umfassende Ausstellung zum Codex Manesse. Der Katalog zur Ausstellung dokumentiert die Handschrift selbst, ihre Entstehung, Geschichte und Bedeutung äußerst detailliert. Im Jahre 1991 kehrte der Codex Manesse für kurze Zeit zu seinen Zürcher Wurzeln zurück (Ausstellung "Die Manessische Liederhandschrift in Zürich" im Schweizerischen Landesmuseum Zürich). Erst 2006 ging das Original wieder auf Reisen, um in der 29. Ausstellung des Europarates "Heiliges Römisches Reich Deutscher Nation" im Kulturhistorischen Museum Magdeburg gezeigt zu werden. Anlässlich dieser öffentlichen Präsentation des Werkes veröffentlichte die Capella Antiqua Bambergensis 2006 ein Musik-Hörspiel, das die Entstehungsgeschichte des Codex Manesse in fiktionalisierter Form erzählt. Anlässlich des 625-jährigen Bestehens der Heidelberger Universität fand vom 25. Oktober 2010 bis zum 20. Februar 2011 in der Universitätsbibliothek eine Ausstellung statt, in der die Liederhandschrift erstmals seit 2006 wieder im Original und als Faksimile zu sehen war. Miniaturen auf Briefmarken. Miniaturen aus dem Codex Manesse zierten Briefmarkenserien des Fürstentums Liechtenstein (1961–1963), der Deutschen Bundespost (1970) und der Deutschen Bundespost Berlin (1970). Christiane von Goethe. Christiane Vulpius, von Goethe gezeichnet Christiane von Goethe (* 1. Juni 1765 in Weimar als Johanna Christiana Sophie Vulpius; † 6. Juni 1816 ebenda) war seit 1806 Goethes Ehefrau. Leben. Christiane verbrachte ihre Kindheit in der Luthergasse, einem der ältesten Teile Weimars. Ihre Vorfahren väterlicherseits waren Akademiker über mehrere Generationen. Mütterlicherseits stammte sie aus einer Handwerkerfamilie. Ihr Vater Johann Friedrich Vulpius, Amtsarchivar in Weimar, d. h. Aktenkopist, hatte einige Semester Rechtswissenschaften studiert, das Studium jedoch abgebrochen. Seine Stelle war schlecht bezahlt, die Familie lebte in sehr bedrängten Verhältnissen, zumal der Vater alles tat, um dem ältesten Sohn Christian August Vulpius ein Studium zu ermöglichen. Christiane war gezwungen, eine Stelle als Putzmacherin in einer kleinen Weimarer Manufaktur bei Caroline Bertuch anzunehmen (es handelte sich hierbei um ein Zweigunternehmen von Friedrich Justin Bertuch, der nicht nur im Verlagsgeschäft tätig war). Dies war umso nötiger, als der Vater vorzeitig aus dem Dienst entlassen wurde, weil ihm eine Unregelmäßigkeit zur Last gelegt wurde. Sie war aber keine Arbeiterin, sondern gehörte zu den dort angestellten „unbeschäftigten Mädchen der mittleren Classen“. Von ihren 6 Geschwistern wurde später ihr Bruder Christian August Vulpius als Autor von Unterhaltungsromanen bekannt. Grab auf dem Jacobsfriedhof in Weimar Aufgrund verschiedener Hilfsgesuche und Anträge kannte Goethe die Lage der Familie. Am 13. Juli 1788 lernte er Christiane Vulpius selbst im Park an der Ilm kennen, wo sie ihm eine Bittschrift für ihren Bruder Christian August Vulpius überreichte. In der Tat setzte sich Goethe später mehrfach für seinen künftigen Schwager ein. In jenem Sommer entwickelte sich zwischen Goethe und Christiane rasch ein leidenschaftliches Liebesverhältnis. Bereits im Jahr darauf, am 25. Dezember 1789, wurde das erste Kind, der Sohn August, geboren. Vier weitere Kinder folgten, die alle sehr früh starben. Das glückliche Leben und Lieben in dieser Gewissensehe regte Goethe zu seinen heitersten und erotischsten Gedichten an, beginnend mit den Römischen Elegien – die nicht nur die amourösen Abenteuer seiner ersten Italienreise verarbeiteten, sondern indirekt auch Christiane besangen – bis hin zum 1813 seiner Frau gewidmeten Gedicht "Gefunden" („Ich ging im Walde so für mich hin...“). Goethe nahm die junge Frau zusammen mit ihrer Halbschwester Ernestine und ihrer Tante Juliane in sein Haus auf, deren Wirkungsbereiche vollständig auf Haus und Garten beschränkt blieben. Der Weimarer Hof und die Gesellschaft lehnten die illegitime und unstandesgemäße Verbindung ab, so dass Goethe auf Anraten des Herzogs das Haus am Frauenplan im Zentrum Weimars verlassen und vorübergehend ins so genannte Jägerhaus in der Marienstraße ziehen musste. Auch nach ihrer Eheschließung wurde Christiane als „Geheimrätin von Goethe“ von der Weimarer Gesellschaft nur widerstrebend und zögerlich akzeptiert. Der Sieg der Napoleonischen Truppen nach der Schlacht bei Jena und Auerstedt am 14. Oktober 1806 traf Weimar schwer. Als die Stadt von französischen Soldaten geplündert wurde, war auch das Haus am Frauenplan bedroht: Christiane trat eindringenden Soldaten energisch entgegen und konnte die Plünderung so lange aufhalten, bis Goethe den offiziellen Schutz des französischen Kommandanten erreicht hatte. Wenige Tage später, am 19. Oktober 1806, ließen sich Goethe und Christiane in der Sakristei der Jakobskirche trauen. Um die gesellschaftliche Zurückweisung Christianes zu verändern, bat Goethe die vermögende Witwe Johanna Schopenhauer, Mutter des Philosophen Arthur Schopenhauer, die Barriere mit einer offiziellen Einladung zum Tee zu durchbrechen. Sie tat es mit der Bemerkung: „Wenn Goethe ihr seinen Namen gibt, werden wir ihr wohl eine Tasse Tee geben können.“ Christianes Briefe an ihren Mann zeigen einen natürlichen und gesunden Menschenverstand, aber auch ihre Bildungslücken. Lebensfroh, praktisch veranlagt und energisch nahm sie sich des umfangreichen Hausstandes an. So regelte sie etwa nach dem Tode von Goethes Mutter, Frau Aja, in Frankfurt am Main die Erbschaftsangelegenheiten. Christiane besuchte gern gesellige Zusammenkünfte, tanzte gern und besuchte häufig Theatervorstellungen in Weimar, aber auch in anderen Orten wie z. B. Bad Lauchstädt, wo die Weimarer Theatergesellschaft den Sommer über gastierte. Auch einem harmlosen Flirt war sie nicht abgeneigt. Der Briefwechsel mit Goethe belegt, dass er auch gelegentliches „Äugelchen machen“ tolerierte. Christiane besaß ästhetisches Empfinden und Differenzierungsvermögen und konnte Goethe zuweilen beraten. So gestand Goethe, er könne und wolle ohne sie das Theaterwesen in Bad Lauchstädt gar nicht weiterführen. Das waren freilich Seiten, die vielen, auch engen Bekannten, verborgen blieben. Nicht ganz blieb es aber der Nachwelt verborgen, was sich u.a. darin äußerte, dass eine von dem Weimarer Hofbildhauer Carl Gottlieb Weisser gefertigte Büste Christianes Ende des 19. Jahrhunderts im eigens dazu errichteten Pavillon des Kurparks Bad Lauchstädt als Bronze-Kopie aufgestellt wurde. Mit zunehmendem Alter wurde Christianes Gesundheitszustand schwankend. 1815 erlitt sie einen Schlaganfall. Im folgenden Jahr kam unter starken Schmerzen ein Versagen der Nierenfunktion hinzu. Nach einer Woche qualvollen Leidens starb sie am 6. Juni 1816. Die Beisetzung, an der Goethe nicht teilnahm, fand auf dem Jacobsfriedhof Weimar statt. Ihr Grab war lange Zeit verschollen und wurde erst 1888 wieder ausfindig gemacht und mit einer Grabplatte versehen. Sie trägt Goethes Abschiedsverse: ' Rezeption. Bis Mitte des 20. Jahrhunderts wurde Christiane kaum als eigenständige Person wahrgenommen. Stattdessen sind zahlreiche abfällige Bemerkungen von Zeitgenossen und später überliefert. Ab 1916 wurde durch Hans Gerhard Gräf der Briefwechsel zwischen Christiane und Goethe herausgegeben und Etta Federn-Kohlhaas setzte sich in ihrem Buch als eine der ersten ernsthaft mit Christiane auseinander. 1949 verfasste der Vulpius-Nachfahr Wolfgang Vulpius eine Biografie, die 1957 erweitert wurde. Weitere Quellen zu Christianes Leben wurden von Sigrid Damm im Rahmen ihrer 1997 erschienenen Biografie erschlossen. Concorde. Die Aérospatiale-BAC Concorde 101/102, kurz "Concorde" (und englisch für "Eintracht", "Einigkeit"), ist ein Überschall-Passagierflugzeug, das von 1976 bis 2003 betrieben wurde. Sie wurde in der Presse vielfach als die „Königin der Lüfte“ bezeichnet. Die Flugzeit auf ihren wichtigsten Strecken über den Atlantik zwischen Paris beziehungsweise London und New York betrug mit etwa 3 bis 3,5 Stunden etwa die Hälfte moderner Unterschallflugzeuge, die Flughöhe lag bei bis zu 18 km. Die Betreiber waren von Indienststellung bis zuletzt British Airways und Air France. Die Concorde wurde von der französischen und britischen Luftfahrtindustrie auf Basis eines Regierungsabkommens vom 29. November 1962 gemeinsam entwickelt und erreichte maximal Mach 2,23 (2.405 km/h). Sie war eine Parallelentwicklung zu der sowjetischen Tupolew Tu-144. Die Zelle wurde von Aérospatiale (heute Airbus) und der British Aircraft Corporation (heute BAE Systems) entwickelt und gebaut, die Triebwerke Olympus 593 von Rolls-Royce (Bristol Siddeley) und SNECMA. Geschichte. Die Concorde wurde in den 1960er Jahren entwickelt und weckte großes Interesse bei den Airlines dieser Zeit. 1967 bestellte auch die Deutsche Lufthansa drei Maschinen. Nicht zuletzt wegen einer erheblichen Anzahl von Bestellungen namhafter Fluggesellschaften wurde die Entwicklung der Concorde von den beiden beteiligten Staaten Großbritannien und Frankreich freigegeben. Lediglich die Fluggesellschaften Air France und British Airways, im Staatsbesitz der beiden Herstellerländer, übernahmen ihre bestellten Concorde. 1979 wurde der Bau der Concorde nach zwei Prototypen, zwei Vorserienmodellen und nur 16 Serienflugzeugen eingestellt. Einsatz im Liniendienst. Die Concorde wurde von Inbetriebnahme bis zur Einstellung des Flugbetriebs durch ihre einzigen Abnehmer Air France und British Airways jeweils zweimal täglich von den Flughäfen Paris-Charles-de-Gaulle und London-Heathrow zum John F. Kennedy International Airport in New York eingesetzt. Des Weiteren gab es bis 13. August 2003 wöchentlich samstags einen Flug von London-Heathrow nach Barbados. Nur im Sommer 2000 wurden darüber hinaus auch Flüge zwischen New York und Barbados angeboten, die ebenfalls immer samstags stattfanden. Im Charterbetrieb flog die Concorde gelegentlich und meist aus Prestigegründen nebenbei auch andere Flughäfen an. Diverse weitere weltweite Ziele wurden mit der Concorde nur in den 1970er- und frühen 1980er-Jahren angeflogen, zu Beginn beispielsweise Rio de Janeiro und Singapur. Ende der 1970er Jahre flog die Concorde kurzfristig auch auf Routen von Singapore Airlines (in Kooperation mit British Airways) und Braniff International Airways (in Kooperation mit Air France). Eine Maschine der British Airways trug zu diesem Zweck auf ihrer Backbordseite die Lackierung von Singapore Airlines. Neben der Wirtschaftlichkeit scheiterte der Betrieb zu mehr und anderen Zielen auch an der mit rund 6000 Kilometern für längere Direktflüge zu geringen Reichweite sowie der Tatsache, dass die Concorde aufgrund ihres hohen Geräuschpegels auf vielen Flughäfen keine Landegenehmigung erhielt. Verdacht auf Industriespionage. Die Tupolew Tu-144 ähnelte in Auslegung und Leistung der Concorde und wies ein ähnliches Tragwerk mit hinten gruppierten Triebwerken sowie eine absenkbare Nase auf, welche die Sicht der Piloten im Landeanflug verbesserte. Diese Ähnlichkeiten veranlassten westliche Medien zu Gerüchten über mögliche Industriespionage und verpassten der Tupolew Tu-144 den Spitznamen "Konkordski". Diese Vorwürfe konnten allerdings nie bestätigt werden, zumal der Jungfernflug des aerodynamisch allerdings nicht ausgereiften Tu-144 Prototyps (Kennzeichen 68001) am 31. Dezember 1968 noch vor dem der Concorde (März 1969) stattfand. Außerdem können die Ähnlichkeiten daher kommen, dass die Erbauer vor denselben technischen und aerodynamischen Problemen standen. Spätere Versionen der Tu-144 wiesen allerdings wie die Concorde zwei getrennte Triebwerksgondeln mit je zwei Triebwerken auf. Auch von sowjetischer Seite wurden ähnliche Vorwürfe gegenüber dem Westen gemacht. Die Concorde in Deutschland und Österreich. Am 22. April 1972 landete erstmals eine Concorde auf deutschem Boden. Anlässlich der Internationalen Luft- und Raumfahrtausstellung auf dem Flughafen Hannover präsentierte die British Aircraft Corporation dem Publikum den britischen Prototyp. Am 22. und 23. April war die Concorde dort sowohl am Boden als auch bei mehreren Präsentationsflügen in der Luft zu sehen. In den frühen 1980er Jahren begann British Airways, gefolgt von Air France, regelmäßig Charterflüge von Deutschland aus anzubieten. Ausgangspunkt waren anfangs die Flughäfen Hannover und Bonn, später auch Berlin-Tegel, Hamburg, Frankfurt und Flughafen München Riem (der Flughafen München Franz Josef Strauß wurde nur genau einmal besucht, 1996). Auch nach Graz (Österreich) flog man am 29. März 1981. Linz wurde 1981 (BA), 1983 (AF) und letztmals 1989 (BA) besucht. Am 19. Juli 1986 landete die Concorde in Nürnberg. Zusätzlich gab es bis in die späten 90er regelmäßige Sonderflüge zu Großveranstaltungen wie der Hannover Messe. Zu einem besonderen Zweck war eine Concorde der Air France mit Kapitän Yves Pecresse 1999 in Berlin. Vom Flughafen Schönefeld aus waren am 19., 20., und 21. März 1999 insgesamt vier Benefizflüge zum Polarkreis und zurück geplant. Bei einem Ticketpreis von 2222 Mark ließen sich jedoch nur genug Tickets für drei Flüge verkaufen, so dass der vierte ausfiel. Die Aktion wurde von einem großen Menschenauflauf am Flughafen begleitet. Sie führte allerdings wegen der ungewöhnlich hohen Lärmbelästigung auch zu Protesten in der Region. Aufgrund der spektakulären Ansicht der Concorde in Abflug- und Landekonfiguration kam der Autoverkehr auf Zubringerstraßen punktuell zum Erliegen. Am 18. März 1986 landete erstmals eine Concorde in der DDR. Anlässlich des an diesem Tage auf der Leipziger Messe stattfindenden Frankreich-Tages flog eine Concorde der Air France (F-BVFF) den Flughafen Leipzig-Schkeuditz an. Einen Tag später landete auch eine Concorde der British Airways in Leipzig. Dabei flogen die Maschinen einen Umweg über Nord- und Ostsee, einerseits um den Passagieren einen Überschallflug zu ermöglichen, andererseits weil der Überflug der innerdeutschen Grenze aus politischen Gründen nicht möglich war. Normalerweise war der Flug mit Überschallgeschwindigkeit über dem europäischen Festland nicht gestattet, doch beim ersten Einflug in die DDR durfte die Concorde der Air France über dem nördlichen Teil der DDR mit Mach 1,5 fliegen. Dieses Gebiet wurde auch sonst von Militärflugzeugen regelmäßig mit Überschallgeschwindigkeit durchflogen. Die Concorde war in den folgenden Jahren ein regelmäßiger Gast im Leipziger Messeflugverkehr. Am 1. Mai 1998 war die Concorde F-BVFA anlässlich des 35. Jahrestages der Unterzeichnung der Elysée-Verträge auf dem Stuttgarter Flughafen zu bewundern. Nur etwa einen Monat vor ihrem Absturz gastierte die Concorde F-BTSC anlässlich der Flugshow „Hahn in Motion“ unter dem Kommando von Christian Marty, dem Kapitän des Unglücksflugs AF 4590, auf dem Flughafen Hahn im rheinland-pfälzischen Lautzenhausen. Die letzte Flugbewegung auf deutschem Boden war die Landung der F-BVFB auf dem Baden-Baden am 24. Juni 2003 anlässlich der Überführung in das Technikmuseum Sinsheim, wo das Flugzeug nun besichtigt werden kann. Ende der Concorde. Heckansicht einer startenden Concorde in British-Airways-Lackierung Das Ende der Concorde nahte mit dem Absturz der Maschine F-BTSC am 25. Juli 2000. Beim Start des Air-France-Fluges 4590 auf dem Flughafen Paris-Charles-de-Gaulle wurde ein Reifen von einem auf der Startbahn liegenden Metallteil zerfetzt, das vom Triebwerk einer kurz vorher gestarteten DC-10 der Continental Airlines abgefallen war. Hochgeschleuderte Gummiteile des platzenden Reifens durchtrennten ein stromführendes Kabel des linken Hauptfahrwerks, bevor sie mit großer Wucht auf die Unterseite der linken Tragfläche aufschlugen. Diese Teile durchschlugen jedoch nicht die Tragfläche, sondern verursachten durch die hohe Aufprallgeschwindigkeit eine Druckwelle im Tank, die zu einem Leck an der Tragfläche führte. Der auslaufende Treibstoff entzündete sich am erwähnten Kabel sowie am direkt daneben laufenden Jet-Triebwerk und setzte den Treibstofftank der linken Tragfläche in Brand. Ein Startabbruch war zu diesem Zeitpunkt nicht mehr möglich, da die Maschine bereits die Entscheidungsgeschwindigkeit erreicht und bei einer Notbremsung das Ende der Rollbahn überschritten hätte. Den von Tower und Instrumenten alarmierten Piloten blieb als einzige Option der Versuch einer Notlandung auf dem nur acht Kilometer voraus liegenden Flughafen Le Bourget. Aufgrund der Schäden an Tragflächen, Ruderflächen und Triebwerken war die Maschine nicht mehr steuerbar und schlug rund eine Minute nach dem Start in ein Nebengebäude eines Hotels in Gonesse ein. Alle 109 Menschen an Bord und vier Bewohner des Hotels kamen ums Leben. Die Air France stellte daraufhin den Flugbetrieb der Concorde ein, die britische Flugaufsicht entzog der Concorde die Flugtauglichkeitsbescheinigung, die sie erst nach zahlreichen Konstruktionsänderungen wieder erlangte. Insbesondere entwickelten die Briten eine Verstärkung der Tanks aus eingelegten Matten, bestehend aus Kevlar, während der französische Reifenhersteller Michelin einen stabileren Reifen entwarf, der nun auch beim Airbus A380 zum Einsatz kommt. Durch diese Veränderungen, die rund hundert Millionen Euro gekostet haben sollen, wurde die Concorde kaum schwerer (BA entwickelte neue, leichtere Passagiersitze, zudem wurde die maximale Passagierkapazität geringfügig verringert). Am 7. November 2001 wurde der Linienbetrieb zwischen Paris bzw. London und New York wieder aufgenommen. Aufgrund ausbleibender Passagiere und neuer Sicherheitsmängel erklärten Air France und British Airways jedoch am 10. April 2003, dass der Linienflugbetrieb mit der Concorde im Laufe des Jahres 2003 eingestellt werde. Als weiterer Grund für diese Entscheidung ist allerdings anzunehmen, dass der Ersatzteilehersteller EADS die Preise für die Ersatzteile den tatsächlichen Kosten anpassen wollte. Der letzte Flug einer Air-France-Concorde fand am 27. Juni 2003 statt. British Airways beendete die Concorde-Flüge am 24. Oktober 2003. Der allerletzte Concorde-Flug, mit der Maschine dem Kennzeichen G-BOAF, fand am 26. November 2003 unter Leitung von Chefpilot Mike Bannister von London-Heathrow zum Luftfahrtmuseum in Filton statt. Ermittlungen ergaben, dass auch bei anderen Verkehrsflugzeugen ein Unfall wie der vom 25. Juli 2000 zu einem katastrophalen Ausgang geführt hätte. Die Ermittlungen zur Unfallursache wurden am 16. Januar 2002 abgeschlossen. Die meisten Maschinen sind durch Demontage von Teilen derzeit nicht mehr flugfähig. Es gibt aber keine Aussagen, ob eine Wiederzulassung für alle Zeit wirklich ausgeschlossen ist. Im Mai 2010 teilte die britische Gruppe „Rettet die Concorde“ (SCG) mit, dass sieben Jahre nach dem Dienstende der Concorde französische Luftfahrtexperten die Triebwerke auf dem Flughafen Paris-Le Bourget testen. Neue Flüge sind laut SCG jedoch nur für kulturelle Zwecke geplant. Rekorde. Am 17. Juni 1974 startete eine Concorde der Air France in Boston zum Flug nach Paris-Orly, gleichzeitig startete in Paris-Orly eine Boeing 747 mit Ziel Boston. In Orly verbrachte die Concorde 68 Minuten zum Auftanken am Boden. Anschließend flog sie zurück nach Boston – und landete dort zehn Minuten früher als die Boeing 747. Am 22. August 1978 hatte der einstige Air-France-Flugkapitän Fernand Andreani in einer Concorde die Strecke Paris – New York mit einer Durchschnittsgeschwindigkeit von 1669 km/h in drei Stunden, 30 Minuten und 11 Sekunden geschafft. Der bis heute bestehende Streckenrekord mit einer Durchschnittsgeschwindigkeit von 1763 km/h wurde am 1. April 1981 von Pierre Chanoine aufgestellt. Vom 15. bis 17. August 1995 gelang einer Concorde der Air France, Flugnummer AF1995, mit 31 Stunden, 27 Minuten und 49 Sekunden der schnellste Flug um die Welt. Der Flug wurde vom US-amerikanischen Rechtsanwalt Donald Pevsner organisiert und im Rahmen einer Werbeaktion zusammen mit einer Brauerei durchgeführt. Gemessen wurde hierbei die gesamte Zeit, die vom Start in Paris bis zur Landung auf dem Ausgangsflughafen vergangen war, inklusive sämtlicher Zwischenstopps in Toulouse, Dubai, Bangkok, Guam, Honolulu und Acapulco. Auf der 36.784 Kilometer langen Flugreise konnten die Passagiere je zwei Sonnenauf- und -untergänge miterleben. Am 7. Februar 1996 legte eine Concorde der British Airways die Strecke New York – London in 2 Stunden, 52 Minuten und 59 Sekunden zurück. Dies ist bis heute Rekord für die schnellste Atlantiküberquerung in der zivilen Luftfahrtgeschichte. Am 11. August 1999 flogen zwei British-Airways- und eine Air-France-Concorde während der totalen Sonnenfinsternis mit zweifacher Schallgeschwindigkeit mit dem Mondschatten über den Nordatlantik. So konnten die rund 300 Passagiere eine 3 bis 4 Mal längere totale Sonnenfinsternis sehen als die Betrachter am Boden (siehe auch: Werner Raffetseder – „Festival de la Concorde“). Ein ähnliches Unternehmen gab es zuvor bereits während einer Sonnenfinsternis 1973. Auch wurden Flüge zum Jahreswechsel angeboten, bei denen man zweimal Silvesterabend feiern konnte: Einmal in Paris und wenige Stunden später nochmals in New York. Phil Collins konnte mit Hilfe der Concorde bei dem ursprünglichen Live-Aid-Konzert am 13. Juli 1985 beiderseits des Atlantiks auftreten. Zuerst im Londoner Wembley-Stadion und anschließend im John-F.-Kennedy-Stadion in Philadelphia. Bedeutung für Luftfahrt und Staat. Die Entwicklung der Concorde wurde ausschließlich durch die staatliche Finanzierung der hohen Entwicklungskosten ermöglicht. Im laufenden Betrieb flog die Concorde nur teilweise Gewinne ein. Neben den Rekordleistungen, die durch Überschallflüge erzielt wurden, ist vor allem der Fortschritt, der in der Luftfahrttechnologie durch die Entwicklung der Concorde und auch der Tu-144 erzielt wurde, so bedeutend, dass bis heute viele Flugzeughersteller hiervon profitieren. Auch im industriell-wirtschaftlichen Sektor war das Concorde-Projekt wegbereitend für die Zusammenarbeit etwa im Airbus-Bereich. Hingegen bezeichnete der Labour-Politiker Denis Healey, in den 1970er-Jahren britischer Finanzminister, die Concorde rückblickend im Jahr 2014 als „eine riesengroße Geldverschwendung“. Technik der Concorde. Die Concorde hatte im Vergleich zu anderen Verkehrsflugzeugen aufgrund ihrer hohen Geschwindigkeit und der damit einhergehenden Konstruktion einige Besonderheiten aufzuweisen. Struktur und Steuersysteme. Die Concorde ist zum großen Teil aus einer Aluminiumlegierung konstruiert und im geringeren Teil aus einer hitzebeständigen Nickellegierung sowie Edelstahl und Titan in kritischen Bereichen. Die Tragflächen bestehen aus einem Torsionskasten, in dem sich viele Holme befinden, während der Rumpf in einer konventionellen Halbschalenbauweise ausgeführt ist. Die Concorde besitzt drei Hydrauliksysteme. Da die Concorde als Deltaflügler und schwanzloses Flugzeug über kein Höhenleitwerk verfügt, befinden sich die Höhen- und Quer-Steuerflächen ausschließlich an der Hinterkante der Tragflächen. Das konventionelle Seitenruder wird dabei durch die kombinierten Höhen- und Querruder (Elevons) unterstützt. Diese können im Parallelbetrieb zur Höhensteuerung eingesetzt werden. Im Differentialbetrieb steuern die Elevons die Querlage der Maschine; diese wirken sich wie die üblichen Querruder aus. Die kombinierten Höhen- und Querruder können gleichzeitig für Bewegungen um die Quer- und um die Längsachse eingesetzt werden. Das gesamte System ist gegen mögliche Ausfälle mehrfach abgesichert. Ausstattung und Reisekomfort. Die Concorde wurde für die Aufnahme von maximal 128 Passagieren zertifiziert, nach dem Unglück im Jahr 2000 und den folgenden Modifikationen betrug die maximale Passagierzahl 100 (British Airways) bzw. 92 (Air France). Die Sitze können unterschiedlich in Viererreihen angeordnet werden. Die Kabine ist mit Toiletten und zwei Küchen ausgestattet. Unter dem vorderen und hinteren Kabinenboden gibt es Stauräume für Gepäck. Die Passagierkabinentüren befinden sich auf der Backbordseite, die Versorgungskabinentüren auf der Steuerbordseite. British Airways hat die Concorde mit einer 40-sitzigen Vorderkabine und einer 60-sitzigen Hinterkabine betrieben, die von einer sechsköpfigen Besatzung betreut wurde. Es gab nur eine Klasse; die Tickets waren etwa 20 % teurer als Tickets für die First Class in Unterschallflugzeugen. Den naturgemäß engeren Platzverhältnissen standen bequeme Sessel mit Lederpolstern, eine ausgezeichnete Küche mit erlesenem Porzellan und Champagner gegenüber. Allerdings bezeichneten in den letzten Jahren viele Passagiere das Geräusch- und Schwingungsverhalten als besonders unangenehm; die Concorde war in dieser Hinsicht nicht mehr zeitgemäß und erlaubte auch nur wenig konstruktive Verbesserungen. Flugbahn und Flughöhe. Auf dem Flug von London nach New York flog die Concorde bis zu einer Höhe von 8.400 m mit Unterschallgeschwindigkeit, bevor sie südlich von Bristol die Nachbrenner einschaltete und weiter stieg, um auf Überschallgeschwindigkeit zu beschleunigen, die etwa über der Insel Lundy erreicht wurde. So konnten die Schallwellen und der Überschallknall vom Boden ferngehalten werden. Die Concorde beschleunigte weiter auf Mach 1,7, schaltete den Nachbrenner ab und erreichte auf einer Höhe von 15.000 Metern Mach 2. Während des Reisefluges stieg sie langsam weiter bis auf etwa 17.700 Meter (cruise climb), die kurz vor dem Beginn des Sinkfluges zur Landung erreicht wurden. Dabei variierte diese Höhe jedoch abhängig von der Außentemperatur und der Zuladung. Konventionelle strahlgetriebene Flugzeuge fliegen im Vergleich hierzu auf einer Flughöhe von etwa 10.000 bis maximal 13.500 Metern. Die Concorde verlängerte sich erwärmungsbedingt beim Mach-Flug um etwa 14 Zentimeter, die Fenster fühlten sich warm an. Im Cockpit gab es beispielsweise während eines Mach-Fluges zwischen den Instrumententafeln des Flugingenieurs einen fingerbreiten Spalt, der nach der Landung nicht mehr vorhanden war. Cockpit und Visier. Die Spitze der Concorde bildet eine hydraulisch absenkbare Nase mit versenkbarem, transparentem Visier. Bei Geschwindigkeiten von über 460 km/h wurden die Nase und der Schutzschild aus Gründen der Aerodynamik vollständig hochgezogen. In dieser Position hatten die Piloten während des regulären Fluges eine eingeschränkte Sicht nach vorne. In Höhen unter 3.000 Metern bei einer Geschwindigkeit von etwa 460 km/h wurde die Nase um 5° abgesenkt, was eine gute Sicht nach vorne gewährleistete. Beim Landeanflug wurde die Nase auf 12° abgesenkt und ermöglichte dem Piloten eine optimale Sicht auf die Landebahn. Die Sitzposition der Piloten der Concorde liegt 11,4 m vor dem Bugrad, so dass beim Einlenken auf die Start- und Landebahn die Pilotenkanzel weit über den angrenzenden Rasen hineinragt. Pilot und Copilot sitzen nebeneinander im Cockpit, während der Flugingenieur auf einem Drehstuhl hinter dem Copiloten sitzt. Die beengten Platzverhältnisse im Cockpit erforderten eine ungewöhnliche Gestaltung der Steuerhörner, um zu vermeiden, dass eine Drehbewegung am Horn durch die Beine des Piloten behindert wird. Technische Daten. Die Concorde im Jahr 2005 Eine Concorde der Air France im September 1977 Charles Lindbergh. Charles Lindbergh vor der "Spirit of St. Louis" (1927) Charles Augustus Lindbergh, jr. (* 4. Februar 1902 in Detroit, Michigan; † 26. August 1974 in Kipahulu, Maui, Hawaii) war ein US-amerikanischer Pilot und Träger der Medal of Honor. Für seine 1954 veröffentlichte Autobiographie "The Spirit of St. Louis" erhielt er einen Pulitzer-Preis. Ihm gelang vom 20. bis 21. Mai 1927 der Nonstopflug von New York nach Paris, für den 1919 der Orteig-Preis von Raymond Orteig gestiftet worden war und quasi nebenbei die "erste Alleinüberquerung des Atlantiks", wodurch er zu einer der bekanntesten Personen der Luftfahrt wurde. Die erste Nonstop-Atlantiküberquerung von Amerika nach Europa mit einem Flugzeug war bereits 1919 John Alcock und Arthur Whitten Brown gelungen, und die erste Atlantiküberquerung wurde wiederum einige Wochen davor im Mai 1919 von Albert C. Read beendet. Herkunft, Schule, Ausbildung. Charles Lindbergh als Kind mit seinem Vater, um 1910 Charles Augustus Lindbergh, jr., wurde in Detroit als Enkel eines schwedischen Einwanderers geboren, der seine Heimat aus politischen Gründen verlassen und bei seiner Emigration den Namen Lindbergh angenommen hatte. Sein Vater Charles August Lindbergh (1859–1924) war Rechtsanwalt und Kongressabgeordneter für Minnesota, seine Mutter Evangeline Lodge Land Chemielehrerin. Sein Großvater mütterlicherseits war der Zahnarzt Charles Henry Land (1847−1922), der die Jacketkrone (Mantelkrone) erfand und als „Vater der Porzellanzahnheilkunde“ gilt. Schon als Kind interessierte sich Lindbergh für Motoren und Maschinen. 1922 brach er nach knapp zwei Jahren wegen schlechter Leistungen ein Maschinenbaustudium ab und absolvierte eine Pilotenausbildung bei der "Nebraska Aircraft Corporation", die eine Mechanikerausbildung mit einschloss. Da aber kein festes Kursprogramm festgelegt worden war, kam er nur auf wenige Flugstunden. Den abschließenden Alleinflug durfte er nicht absolvieren, da er die 500 Dollar Sicherheitskaution für mögliche Beschädigungen des Flugzeugs nicht aufbringen konnte. Einige Monate lang tat sich Lindbergh für Flugvorführungen mit einem anderen Piloten zusammen, wobei er jedoch nicht selbst flog, sondern nur Fallschirmsprünge unternahm. Danach kaufte er sich ein eigenes Flugzeug, eine Curtiss JN-4 „Jenny“, mit der er die noch fehlende Erfahrung erwarb und bis 1924 als Kunstflieger durchs Land zog. In diesem Jahr trat er den US-amerikanischen Heeresfliegern (United States Army Air Service) bei, wo er eine gute Flugausbildung bekam. Nach anfänglichen Schwierigkeiten machte er im März 1925 seinen Abschluss als Jahrgangsbester. Da zu jener Zeit für Militärpiloten wenig Bedarf bestand, wurde Lindbergh Postflieger auf der Strecke St. Louis – Chicago. Freimaurer. Am 9. Juni 1926 wurde er in die Freimaurerloge "Keystone Lodge No. 243" in St. Louis aufgenommen, wo er am 20. Oktober zum Gesellen befördert und am 15. Dezember zum Meister erhoben wurde. Der Atlantik-Flug. Ab 1926 beschäftigte er sich mit der Idee des Nonstopflugs von New York nach Paris. Im Mai 1919 hatte Raymond Orteig – ein in Frankreich geborener US-Amerikaner, der es vom Busschaffner zum wohlhabenden Hotelbesitzer gebracht hatte – einen Preis über 25.000 US-Dollar für den ersten Nonstopflug zwischen den beiden Städten, egal in welcher Richtung, ausgesetzt. Einige Piloten waren bereits an dieser Aufgabe gescheitert. Lindbergh kontaktierte den ziemlich unbekannten Flugzeughersteller Ryan Airlines in San Diego und fragte an, ob Ryan eine einmotorige Maschine für diese Strecke bauen könne. Ryan nahm die Herausforderung an, und bereits am 28. April 1927 war das Flugzeug nach nur zwei Monaten Entwicklungs- und Bauzeit fertig. Die Maschine wurde "Spirit of St. Louis" getauft. Schon die Überführung des Flugzeugs von Küste zu Küste geschah in Rekordzeit. Am 20. Mai 1927 um 7:54 Uhr schließlich startete Lindbergh vom Roosevelt Field in New York zu seinem Alleinflug, dessen Strecke 5.808,5 km (3.610 Meilen) betrug. Als engagierter Freimaurer trug er während des Flugs das Freimaurersymbol auf seiner Jacke als Glücksbringer, auch das Flugzeug trug das Freimaurersymbol seiner Loge. Aus Gewichtsgründen hatte Lindbergh zugunsten maximaler Treibstoffzuladung auf Funkgerät und Sextant verzichtet und musste sich deshalb mit Armbanduhr, Karten und Kompass begnügen. Größte Probleme bereiteten ihm ein Schneesturm bei Neufundland, das er nach New York und Nova Scotia überflog, sowie die Überwindung der Müdigkeit auf seinem Weg über Südirland und Südengland auf den europäischen Kontinent. Die Navigation gelang ihm allerdings besonders gut, denn als er die Küste von Irland erreichte, war er nur 5 km vom Kurs abgewichen. Es war dann für ihn relativ leicht, an der Küste von Irland und England entlang zu fliegen und über den Ärmelkanal Frankreich zu erreichen. Paris schließlich fand Lindbergh durch die weithin sichtbare Beleuchtung des Eiffelturms mit dem Reklame-Schriftzug CITROEN. Lindberghs Flug von Paris nach Brüssel, nach seinem Transatlantikflug In seiner Autobiografie schreibt Lindbergh, dass er mit dem Gedanken spielte, nach Rom weiterzufliegen, weil noch reichlich Treibstoff vorhanden war, er dann dort bei Tageslicht hätte landen können, und weil er sich nicht darüber klar war, wie sehr die Franzosen ihn erwarteten. Nach 33,5 Stunden landete er dann doch auf dem Flughafen Le Bourget in Paris unter dem Jubel einer begeisterten Menschenmenge und gewann damit das Preisgeld. Als „Flying Fool“ (Fliegender Narr) von der Presse tituliert, fand zu seinen Ehren sogar eine Konfettiparade in New York statt – Lindbergh war ein Nationalheld geworden. Lindbergh war jedoch nicht, wie oft behauptet, der Erste überhaupt, der den Atlantik überflog. Tatsächlich war er schon der 67. Mensch, der dies vollbrachte, denn die erste Nonstop-Atlantiküberquerung per Flugzeug gelang bereits 1919 John Alcock und Arthur Whitten Brown. Wenige Tage später fuhr das englische Luftschiff R34 nonstop von England nach Mineola/New York und nach einer Landung nonstop zurück. Lindbergh gelang jedoch der erste Nonstopflug von New York nach Paris und die "erste Alleinüberquerung" des Atlantiks. Der erste Alleinflug über den Atlantischen Ozean von Ost nach West gelang am 18. August 1932 dem Schotten Jim Mollison. Heirat, Entführung des Sohnes und Aufenthalt in Europa. Mit diesem Poster wurde nach dem entführten Kind gesucht 1929 heiratete Lindbergh Anne Spencer Morrow, die Tochter des Geschäftsmanns und Politikers Dwight Morrow, der er ebenfalls das Fliegen beibrachte. Anne begleitete später ihren Mann auf seinen Flügen als Kopilotin und Funkerin. Aus der Ehe gingen sechs Kinder hervor, die zwischen 1930 und 1945 geboren wurden (zu den Kindern siehe Anne Morrow Lindbergh). Am 22. Juni 1930 wurde der Sohn Charles III. geboren. Knapp zwei Jahre später, am 1. März 1932, wurde das Kind von Unbekannten entführt, die 50.000 Dollar Lösegeld verlangten. Am 12. Mai wurde das Kind tot aufgefunden. Aufgrund von Lindberghs Berühmtheit erregte der Fall großes Aufsehen. Für die Tat wurde der deutschstämmige Bruno Richard Hauptmann verurteilt und 1936 hingerichtet. Hauptmann bestritt stets die Tat, und bis heute gibt es Zweifel an seiner Schuld. Kritisiert wird dabei auch Lindberghs Aussage, die Stimme Hauptmanns zweifelsfrei als die des Lösegeldempfängers erkannt zu haben, obwohl er bei der Lösegeldübergabe 70 Meter entfernt in einem Auto saß. Die Tötung des Entführungsopfers trotz Lösegeldzahlung hat Agatha Christie zu ihrem im Januar 1934 erschienenen Roman "Mord im Orient-Express" inspiriert. Auf der Suche nach Ruhe zog das Ehepaar Lindbergh mit seinen Kindern von den USA nach Großbritannien, wo es zunächst in England in einem kleinen Dorf in der Grafschaft Kent lebte und später von dort nach Frankreich ging. Auf Ersuchen des US-Militärs und in seiner Funktion als Oberst des U.S. Army Air Corps reiste Lindbergh in den folgenden Jahren mehrmals nach Deutschland, um über die deutsche Luftrüstung zu berichten. Dabei traf er sich auch mit hochrangigen NS-Größen wie Hermann Göring, von dem er im Oktober 1938 das Großkreuz des Deutschen Adlerordens verliehen bekam. Erst im Frühjahr 1939 kehrte das Ehepaar Lindbergh wieder in die Vereinigten Staaten zurück. Politische Betätigung, Kriegsteilnahme und Autobiographie. Lindbergh spricht auf einer AFC-Versammlung Lindbergh war, wie sein Biograf Scott Berg schreibt, überzeugt davon, dass die mächtigen USA, von blindem Idealismus geleitet, nicht erkennen könnten, dass die Vernichtung Hitlers Europa der Barbarei Stalins ausliefere und dadurch möglicherweise der westlichen Zivilisation eine tödliche Wunde geschlagen würde. Nachdem Präsident Roosevelt am 25. April 1941 auf einer Pressekonferenz im Weißen Haus angekündigt hatte, dass Lindbergh wegen seiner politischen Ansichten nicht wieder zum Aktivdienst in den Streitkräften einberufen werde, legte dieser am 28. April „mit tiefstem Bedauern“ seinen Rang als Oberst der Luftwaffe nieder. Die Des-Moines-Rede trug Lindbergh heftige Kritik von der Presse, jüdischen Organisationen, Politikern aller Parteien und sogar aus den Reihen des AFC ein. Lindbergh wurde als Sympathisant der Nationalsozialisten und als Antisemit kritisiert. Die Zeitung "Des Moines Register" schrieb beispielsweise, dass diese Rede „ihn [Lindbergh] für jeden Führungsanspruch in politischen Angelegenheiten in dieser Republik untauglich“ mache. Lindberghs öffentliches Ansehen schwand nach dieser Rede enorm, die ferner dazu führte, dass das FBI Nachforschungen über ihn und sein Privatleben anzustellen begann. Zeitungen und Rundfunk in Deutschland wurden hingegen von Goebbels angewiesen, Lindberghs Reden nicht zu positiv zu kommentieren, da er der Ansicht war, Lob aus Nazi-Deutschland könne für Lindbergh in den USA kontraproduktiv sein und die erhoffte Wirkung von Lindberghs öffentlichen Auftritten beeinträchtigen. Das endgültige Aus für seine Tätigkeit als AFC-Redner kam schließlich mit dem japanischen Angriff auf Pearl Harbor und dem Eintritt der USA in den Zweiten Weltkrieg, der die Selbstauflösung des AFC zur Folge hatte. Nach Kriegsbeginn beantragte Lindbergh seine Wiederaufnahme in die US-Luftwaffe, stieß dabei aber auf Widerstand seitens wichtiger Mitglieder des Kabinetts Roosevelts und bei der Presse. Auch mehrere Versuche, eine Position in der US-Luftfahrtindustrie zu finden, scheiterten zunächst. Schließlich gelang es ihm, mit Billigung der US-Regierung eine Stelle als Berater des Ford-Bomberentwicklungsprogramms in Detroit zu bekommen. In den Folgejahren bildete er Piloten für das Kampfflugzeug "Corsair" aus und war selbst auch als Testpilot tätig. 1944 erhielt er die Genehmigung zum pazifischen Kriegsschauplatz zu reisen, um die "Corsair" im Einsatz zu beobachten. Dort beteiligte er sich auch an von Neuguinea ausgehenden Einsätzen gegen japanische Ziele, zunächst noch als Bordbeobachter, schließlich aber auch als Pilot mit einem eigenen Kampfflugzeug. Nach rund 50 Kampfeinsätzen und dem Abschuss eines japanischen Kampfflugzeugs im Juli 1944 kehrte er wieder in die USA zurück, wo er fortan für ein US-Luftfahrtunternehmen arbeitete. 1954 veröffentlichte Lindbergh seine Autobiografie "The Spirit of St. Louis", für die er den Pulitzer-Preis in der Kategorie Biographie und Autobiographie erhielt und in der er schrieb, dass er über die NS-Konzentrationslager entsetzt gewesen sei. Außerdem wurde er im gleichen Jahr wieder als Brigadegeneral in die USAF aufgenommen. Die zweite, dritte und vierte Familie. Von 1957 bis zu seinem Tode im Jahr 1974 hatte Lindbergh ein Verhältnis mit einer 24 Jahre jüngeren Frau, der Hutmacherin Brigitte Hesshaimer († 2001) aus München. Sie hatten drei gemeinsame Kinder: zwei Söhne und eine Tochter. Die Beziehung blieb aber bis zum Schluss geheim. Die Kinder kannten die wahre Identität ihres Vaters nicht, der nur selten zu Besuch kam; für sie hieß er „Careu Kent“. Die Tochter Astrid Bouteuil fand später einen Zeitschriftenartikel über Lindbergh und entdeckte Fotografien und etwa 150 Briefe von ihm an ihre Mutter. Zwei Jahre nach deren Tod trat sie mit ihrem Wissen an die Öffentlichkeit (2003). Ein postumer Vaterschaftstest (DNA-Analyse an der Universität München) im November 2003 bestätigte die Richtigkeit der Vermutungen. Darüber hinaus pflegte Lindbergh eine Beziehung zu Brigitte Hesshaimers Schwester Marietta (daraus gingen zwei Söhne hervor) und zu seiner Privatsekretärin Valeska, deren Nachname nicht bekannt ist (daraus gingen ein Sohn und eine Tochter hervor, ihre Namen sind nicht bekannt). Tod und Grabstätte. Am 26. August 1974 um 7:15 Uhr starb Lindbergh im Alter von 72 Jahren in seinem Haus auf der Hawaii-Insel Maui an Lymphdrüsenkrebs. Gedanklich ist hier die Auflösung im nächsten Vers des Psalms zu ergänzen: „… auch dort würde deine Hand mich leiten und deine Rechte mich fassen.“ Ehrungen. 1927 wurde Lindbergh durch Beschluss des US-Kongresses mit der Medal of Honor, der höchsten militärischen Tapferkeitsauszeichnung der USA, ausgezeichnet. 1927 war er Mann des Jahres des Magazins "Time". 1938 erhielt er das von Adolf Hitler gestiftete Großkreuz des Deutschen Adlerordens. 1954 erhielt er für seine Autobiographie "The Spirit of St. Louis" den Pulitzer-Preis in der Kategorie Biographie und Autobiographie. 1976 wurde der Mondkrater Lindbergh nach ihm benannt. Chinesische Sprachen. Die chinesischen oder sinitischen Sprachen bilden einen der beiden Primärzweige der sinotibetischen Sprachfamilie, der andere Primärzweig sind die tibetobirmanischen Sprachen. Chinesische Sprachen werden heute von ca. 1,3 Milliarden Menschen gesprochen, von denen die meisten in der Volksrepublik China und der Republik China (Taiwan) leben. In vielen Ländern, vor allem in Südostasien, gibt es größere chinesischsprachige Minderheiten. Die chinesische Sprache mit der größten Anzahl an Sprechern ist das Hochchinesische, das auch als „Mandarin“ oder einfach als „chinesische Sprache“ oder „das Chinesische“ bzw. „Chinesisch“ bezeichnet wird. Die verschiedenen Sprachen der Osthälfte Chinas in der räumlichen Verteilung Mehrere chinesische Sprachen, eine chinesische Schrift. In der Regel bezeichnet der Begriff „chinesische Sprache“ die Standardsprache Hochchinesisch ("Pǔtōnghuà" in der Volksrepublik China, "Guóyǔ" auf Taiwan), die auf der größten chinesischen Dialektgruppe, dem Mandarin ("Běifānghuà", "Běifāng Fāngyán", "Guānhuà"), basiert und im Wesentlichen dem Dialekt von Peking entspricht. Daneben gibt es sieben weitere chinesische Sprachen oder Dialektbündel, die ihrerseits in viele Einzeldialekte zerfallen. Diese acht Einheiten des Chinesischen werden gemäß der traditionellen chinesischen Terminologie als Dialekte () bezeichnet, obwohl der Grad ihrer Abweichungen untereinander nach westlichem Maßstab eine Klassifikation als Sprache rechtfertigen würde. Selbst innerhalb der großen Dialektgruppen ist die Verständigung von Sprechern unterschiedlicher Dialekte nicht immer möglich, insbesondere die nordchinesischen Dialekte (Mandarin) im Nordosten und die Dialekte im Süden sind untereinander nicht verständlich. Für die Verständigung über Dialektgrenzen hinaus wird überwiegend das von den meisten Chinesen gesprochene Hochchinesisch angewendet; regional begrenzter dienen auch andere Dialekte wie das Kantonesische als Verständigungsmittel. Auch die chinesische Schrift fungiert in eingeschränktem Maß als dialektübergreifendes Verständigungsmittel, da etymologisch verwandte Morpheme trotz unterschiedlicher Aussprache im Allgemeinen in allen Dialekten mit dem gleichen chinesischen Schriftzeichen geschrieben werden. Das folgende Beispiel möge dies illustrieren. Im Altchinesischen war das gewöhnliche Wort für „essen“ *"Ljɨk", das mit dem Zeichen 食 geschrieben wurde. Wörter wie "shí" (Hochchinesisch), "sɪk˨˨" (Yue, kantonesischer Dialekt), "st˥" (Hakka, Meixian-Dialekt), "sit˦" (Südliches Min, Xiamen-Dialekt) stammen davon ab und werden daher ebenfalls 食 geschrieben. Somit dient die logographische chinesische Schrift – jedes Zeichen steht im Prinzip für ein Wort – als einigendes Band, das die Sprecher der sehr unterschiedlichen chinesischen Sprachvarianten zu einer großen kulturellen Gemeinschaft mit einer Jahrtausende alten schriftlichen Tradition verbindet. Bei einer Alphabetschrift oder einer anderen Lautschrift wäre diese einigende Funktion nicht vorhanden. Das bedeutet jedoch nicht, dass sich die chinesischen Dialekte nur phonologisch unterscheiden. So wird für „essen“ im Hochchinesischen gewöhnlich nicht "shí", sondern "chī" benutzt, das nicht von *"Ljɨk" stammt und daher mit einem eigenen Zeichen, 吃, geschrieben wird. Auch andere Varianten des Chinesischen verfügen, sofern sie geschrieben werden, für viele Wörter über eigene Zeichen, wie das Kantonesische 冇 "mou˨˧" „nicht haben“. Daher, aber auch aufgrund grammatikalischer Abweichungen, sind auch geschriebene Texte dialektübergreifend nur eingeschränkt verständlich. Bis zum Beginn des 20. Jahrhunderts übte aber die Verwendung des klassischen Chinesisch, dessen schriftliche Form dialektunabhängig war und in ganz China und auch Japan, Korea und Vietnam verwendet wurde, auf der Ebene der Schriftsprache eine einigende Funktion aus. Chinesische Sprachen und ihre geographische Verbreitung. Das ursprüngliche Verbreitungsgebiet der chinesischen Sprache ist schwer zu rekonstruieren, da die Sprachen der Nachbarn des antiken Chinas fast unbekannt sind und somit sich nicht entscheiden lässt, ob chinesische Sprachen außerhalb derjenigen chinesischen Staaten verbreitet waren, die Schriftzeugnisse hinterlassen haben; vor allem weite Teile Südchinas scheinen noch im 1. Jahrhundert n. Chr. außerhalb des chinesischen Sprachgebiets gelegen zu haben. Bereits in der Zeit der Zhou-Dynastie (11.–3. Jahrhundert v. Chr.) finden sich Hinweise auf eine dialektale Gliederung des Chinesischen, die sich in den folgenden Jahrhunderten wesentlich verstärkte. Heute werden meist acht chinesische Sprachen oder Dialektbündel unterschieden, die jeweils aus einer Vielzahl lokaler Einzeldialekte bestehen. Die folgende Tabelle gibt die acht chinesischen Sprachen oder Dialektbündel mit ihren Sprecherzahlen und Hauptverbreitungsgebieten an. Die Sprecherzahlen stammen aus Ethnologue und anderen aktuellen Quellen. Eine detaillierte Auflistung lokaler Dialekte bietet der Artikel Liste der chinesischen Dialekte. Die nordchinesischen Dialekte (Mandarin,,) sind die bei Weitem größte Dialektgruppe; sie umfasst das gesamte chinesische Sprachgebiet nördlich des Yangzi und in den Provinzen Guizhou, Yunnan, Hunan und Guangxi auch Gebiete südlich des Yangzi. Der Dialekt Pekings, die Grundlage des Hochchinesischen, gehört zu den Mandarin-Dialekten. Das Wu wird von etwa 80 Millionen Sprechern südlich der Mündung des Yangzi gesprochen, der Dialekt von Shanghai nimmt hier eine wichtige Stellung ein. Südwestlich daran grenzt das Gan vor allem in der Provinz Jiangxi mit 21 Millionen Sprechern und westlich davon, in Hunan, das Xiang mit 36 Millionen Sprechern. An der Küste, in der Provinz Fujian, im Osten Guangdongs sowie auf Taiwan und Hainan sowie in Singapur werden die Min-Dialekte gesprochen, zu denen insgesamt etwa 60 Millionen Sprecher gehören. In Guangxi, Guangdong und Hongkong wird von etwa 70 Millionen Menschen das Yue gesprochen, dessen wichtigster Dialekt das Kantonesische mit den Zentren Guangzhou und Hongkong ist. Die übliche Klassifikation ist in erster Linie phonologisch motiviert, als wichtigstes Kriterium gilt die Entwicklung ursprünglich stimmhafter Konsonanten. Doch es finden sich auch deutliche lexikalische Unterschiede. So gelten das Pronomen der dritten Person 他 "tā" (so die entsprechende hochchinesische Form), die Attributpartikel 的 "de" und die Negation 不 "bù" als typische Merkmale nördlicher Dialekte, besonders des Mandarin, teilweise aber auch von den Xiang-, Gan und Wu-Dialekten südlich des unteren Yangzi, die vom Mandarin beeinflusst sind. Typische Merkmale vor allem südlicher Dialekte sind dagegen die ausschließliche Verwendung von Negationen mit nasalem Anlaut (etwa kantonesisch 唔 m21), Kognata des altchinesischen 渠 "qú" (kantonesisch 佢 "kʰɵy˩˧") oder 伊 "yī" (Shanghaiisch "ɦi˩˧") als Pronomen der dritten Person sowie einige Wörter, die sich weder in nördlichen Dialekten noch im Alt- oder Mittelchinesischen finden, wie „Schabe“, Xiamen "ka˥˥-tsuaʔ˥˥", Kantonesisch 曱甴 "kaːt˧˧-tsaːt˧˧", Hakka "tshat˦˦" und „vergiften“, Fuzhou "thau1˧", Yue "tou˧˧", Kejia "theu˦˨". Zur Bezeichnung. Im Chinesischen selbst ist eine Reihe unterschiedlicher Begriffe für die chinesische Sprache gebräuchlich. Zhōngwén () ist ein allgemeiner Begriff für die chinesische Sprache, der in erster Linie für die geschriebene Sprache verwendet wird. Da die geschriebene Sprache mehr oder weniger unabhängig vom Dialekt ist, umfasst dieser Begriff auch die meisten chinesischen Dialekte. Hànyǔ () wird dagegen vorrangig für die gesprochene Sprache verwendet, etwa im Satz „Ich spreche Chinesisch“. Da das Wort für die Han-Nationalität steht, umfasst der Begriff ursprünglich alle Dialekte, die von Han-Chinesen gesprochen werden. Umgangssprachlich bezeichnet Hànyǔ allerdings das Hochchinesische, für das es einen eigenen Fachbegriff, gibt. Beziehungen zu anderen Sprachen. Dieser Abschnitt gibt einen kurzen Überblick über genetische Verwandtschaft des Chinesischen mit anderen Sprachen. Ausführlich wird dieses Thema im Artikel Sinotibetische Sprachen behandelt. Tibeto-Birmanisch. Das Chinesische wird heute allgemein als Primärzweig der sinotibetischen Sprachfamilie angesehen, die etwa 350 Sprachen mit 1,3 Mrd. Sprechern in China, dem Himalaya-Gebiet und Südostasien umfasst. Die meisten Klassifikationen des Sinotibetischen stellen das Chinesische dem Rest der tibetobirmanischen Sprachfamilie gegenüber, einige wenige Forscher betrachten das Sinitische als eine Untereinheit des Tibetobirmanischen, gleichrangig mit den vielen anderen Untergruppen dieser Einheit. Außer dem gemeinsamen Basiswortschatz verbindet das Sinitische und Tibetobirmanische die ursprünglich gleiche Silbenstruktur (wie sie etwa im klassischen Tibetischen weitgehend erhalten ist und für das Altchinesische rekonstruiert werden kann) und eine weitverbreitete Derivationsmorphologie, die in gemeinsamen konsonantischen Präfixen und Suffixen mit bedeutungsändernder Funktion zum Ausdruck kommt. Eine relationale Morphologie (Veränderung der Nomina und Verben im Sinne einer Flexion) haben das Proto-Sinotibetische wie auch die modernen sinitischen Sprachen nicht ausgebildet, diese Form der Morphologie ist eine Innovation vieler tibetobirmanischer Sprachgruppen, die durch gebietsübergreifende Kontakte mit Nachbarsprachen und durch Überlagerung älterer Substratsprachen entstanden ist. Andere Sprachen. Genetische Verwandtschaft des Chinesischen mit Sprachen außerhalb des Tibetobirmanischen wird von der Linguistik nicht allgemein anerkannt, es existieren jedoch einige Versuche, das Chinesische in weit über die traditionellen Sprachfamilien hinausgehende Makrofamilien einzuordnen. Einige Forscher vertreten beispielsweise eine genetische Verwandtschaft mit den austronesischen Sprachen, den jenisseischen Sprachen oder sogar den kaukasischen oder den indogermanischen Sprachen, wofür Wortgleichungen wie chinesisch 谁 shuí lateinisch quis „wer“ herangezogen werden. Keiner dieser Versuche hat jedoch bisher die Zustimmung einer Mehrheit der Sprachwissenschaftler gewinnen können. Lehnbeziehungen. Aufgrund der jahrtausendelangen Koexistenz mit anderen, genetisch nicht verwandten Sprachen haben sich das Chinesische und verschiedene südost- und ostasiatische Sprachen gegenseitig stark beeinflusst. So finden sich in ihnen Hunderte von chinesischen Lehnwörtern, oft Bezeichnungen chinesischer Kulturgüter: > Koreanisch čhäk, Bai tshua˧˧. Diese Einflüsse haben sich in besonders hohem Maße auf Korea, Vietnam und Japan ausgewirkt, wo zudem auch die chinesische Schrift Anwendung findet und das klassische Chinesisch über Jahrhunderte als Schriftsprache benutzt wurde. Auch das Chinesische selbst weist eine große Anzahl fremder Einflüsse auf. So sind einige wesentliche typologische Züge des modernen Chinesisch vermutlich auf Fremdeinfluss zurückzuführen, darunter die Ausbildung eines Tonsystems, die Aufgabe ererbter morphologischer Bildungsmittel und die obligatorische Anwendung von Zählwörtern. Fremdeinfluss zeigt sich auch in der Aufnahme nicht weniger Lehnwörter. Schon in sehr früher Zeit muss das Wort (altchinesisch *xlaʔ) aus den austroasiatischen Sprachen entlehnt worden sein, vgl. Mon klaʔ, Mundari kula. Das Wort, das während der Han-Dynastie (206 v. Chr. bis 220 n. Chr.) das ältere verdrängte, wurde wohl während der Zeit der Zhou-Dynastie (um 1100–249 v. Chr.) aus dem Miao-Yao entlehnt. Auch aus nördlichen Nachbarsprachen wurden in vorgeschichtlicher Zeit Wörter übernommen, so beispielsweise, das sich in altaischen Sprachen wiederfindet: Mongolisch tuɣul, Mandschurisch tukšan. Besonders groß wurde die Zahl von Lehnwörtern im Chinesischen während der Han-Dynastie, als auch aus westlichen und nordwestlichen Nachbarsprachen Wörter übernommen wurden, beispielsweise aus einer iranischen Sprache, vgl. Persisch باده "bāda". Schwer nachweisbar sind Entlehnungen aus der Sprache der Xiongnu; hier ist mutmaßlich einzuordnen. Durch den starken Einfluss des Buddhismus während des 1. nachchristlichen Jahrtausends drang eine Vielzahl indischer Lehnwörter ins Chinesische ein: aus Sanskrit "candana", Yuan-Dynastie (1279–1368), beispielsweise < mongolisch moku. Im 16. Jahrhundert setzte ein starker europäischer Einfluss ein, der sich auch im chinesischen Wortschatz niederschlug. So wurden in dieser Zeit christliche Termini ins Chinesische entlehnt: < spätlateinisch '. Seit dem 19. Jahrhundert wurden auch Bezeichnungen für Errungenschaften der europäischen Technik übernommen, wobei sich das Chinesische jedoch gegenüber Entlehnungen als wesentlich resistenter erwies als etwa das Japanische. Beispiele hierfür sind: < englisch ', < englisch '. In manchen Fällen fanden Lehnwörter über Dialekte den Weg ins Hochchinesische: < Shanghaiisch safa < englisch. Traditionelle Schrift. Das Chinesische wird seit den frühesten bekannten Schriftzeugnissen aus dem 2. vorchristlichen Jahrtausend mit der chinesischen Schrift geschrieben. In der chinesischen Schrift wird – von Ausnahmen abgesehen – jedes Morphem mit einem eigenen Zeichen wiedergegeben. Da die chinesischen Morpheme einsilbig sind, lässt sich so jedem Zeichen ein einsilbiger Lautwert zuordnen. Entgegen einem weit verbreiteten Missverständnis werden synonyme, aber nicht homophone Wörter mit unterschiedlichen Zeichen geschrieben. So bedeuten sowohl als auch „Hund“, werden aber mit völlig anderen Zeichen geschrieben. Einige Zeichen gehen dabei auf piktographische Darstellungen des entsprechenden Wortes zurück, auch andere rein semantisch basierte Typen kommen vor. Etwa 85 % der heutigen Zeichen enthalten aber phonologische Information und sind aus zwei Komponenten zusammengesetzt, von denen eine die Bedeutung angibt und die andere ein Morphem mit ähnlicher Aussprache darstellt. So besteht das Zeichen aus „Frau“ als Bedeutungs- und als Aussprachekomponente. In einigen Fällen stellt ein Zeichen mehrere Morpheme dar, insbesondere etymologisch verwandte. Die Zahl aller chinesischen Zeichen ist aufgrund des morphemischen Prinzips verhältnismäßig hoch; bereits das Shuowen Jiezi von 100 n. Chr. verzeichnet knapp 10.000 Zeichen; das Yitizi Zidian von 2004 enthält 106.230 Zeichen, von denen sehr viele aber nicht mehr in Gebrauch sind oder lediglich seltene Schreibvarianten anderer Zeichen darstellen. Die durchschnittliche Zahl der Zeichen, die ein Chinese mit Universitätsabschluss beherrscht, beträgt aber weniger als 5000; etwa 2000 gelten als für das Lesen einer hochchinesischen Zeitung erforderlich. Die chinesische Schrift ist nicht einheitlich. Seit der Schriftreform vom Jahre 1958 werden in der Volksrepublik China (und später auch in Singapur) offiziell die vereinfachten Zeichen (Kurzzeichen,) verwendet, in Taiwan und in Hongkong dagegen werden weiterhin die traditionellen Zeichen, (Langzeichen, oder) benutzt. Auch auf die Verschriftlichung anderer Sprachen, die chinesische Schriftzeichen nutzen, wie des Japanischen wurde die chinesische Schriftreform nicht angewendet; in Japan wurden aber bereits 1946 unabhängig vereinfachte Zeichenformen eingeführt. Neben der chinesischen Schrift waren in China auch einige andere Schriften in Gebrauch. Dazu zählt insbesondere die Nüshu, eine seit dem 15. Jahrhundert in der Provinz Hunan verwendete Frauenschrift. Unter der Yuan-Dynastie (1279–1368) wurde auch die phonetisch basierte Phagspa-Schrift für das Chinesische verwendet. Transkriptionen. Neben der chinesischen Schrift gibt es zahlreiche auf dem lateinischen Alphabet basierende Transkriptionssysteme für Hochchinesisch und die einzelnen Dialekte beziehungsweise Sprachen. In der Volksrepublik China wird Hanyu Pinyin (kurz: Pinyin) als offizielle Romanisierung für das Hochchinesische verwendet; ein weiteres, besonders vor der Einführung von Pinyin sehr weit verbreitetes Transkriptionssystem ist das Wade-Giles-System. Für die verschiedenen Dialekte bzw. Sprachen existieren keine allgemein anerkannten Transkriptionssysteme, im Folgenden werden sie daher mit dem internationalen phonetischen Alphabet umschrieben. Frühere Formen des Chinesischen werden üblicherweise wie das Hochchinesische, folglich in Pinyin transkribiert, obwohl dies die Phonologie früherer Formen des Chinesischen nicht adäquat wiedergeben kann. Muslimische Chinesen (vergleiche Religion in der Volksrepublik China) haben ihre Sprache auch in der arabisch-basierten Schrift Xiao’erjing geschrieben. Einige, die nach Zentralasien auswanderten, sind im 20. Jahrhundert zur kyrillischen Schrift übergegangen, siehe Dunganische Sprache. Soziokultureller und offizieller Status. Ursprünglich unterschieden sich die gesprochene und die geschriebene Sprache in China nicht wesentlich voneinander; die schriftliche Sprache folgte den Entwicklungen der gesprochenen Sprache. Seit der Qin-Dynastie (221–207 v. Chr.) wurden jedoch Texte aus der Spätzeit der Zhou-Dynastie für die geschriebene Sprache maßgeblich, sodass das klassische Chinesisch als Schriftsprache von der gesprochenen Sprache unabhängig wurde und in geschriebener Form allgemeines Verständigungsmedium über Dialektgrenzen hinaus bildete. Das klassische Chinesisch diente jedoch ausschließlich als geschriebene Sprache einer kleinen Elite, als gesprochene Sprache wurde spätestens seit der Qing-Dynastie (1644–1911) selbst von den hochgestellten Beamten der Dialekt der Hauptstadt benutzt. Beim Lesen von Texten in klassischem Chinesisch wurde der jeweilige lokale Dialekt angewendet, einige Dialekte besaßen dafür eigene phonologische Subsysteme, die sich von der gesprochenen Sprache unterschieden. Vor allem im Zusammenhang mit der Ausbreitung des Buddhismus in China wurde volkstümliche Literatur zunehmend in der Volkssprache () abgefasst, die bei der schriftlichen Anwendung innerhalb Chinas bis zu einem gewissen Grad normiert war und sich mit wenigen Ausnahmen, wie dem im südlichen Min geschriebenen Lijingji aus dem 16. Jahrhundert, an frühen Formen der Mandarin-Dialekte orientierte. Möglicherweise kam es auch in der gesprochenen Sprache des 1. nachchristlichen Jahrtausends zu einer Standardisierung. Erst gegen Ende des chinesischen Kaiserreiches, zu Beginn des 20. Jahrhunderts, schwand die Bedeutung des klassischen Chinesisch; als Amtssprache und als literarische Sprache wurde es bis zur Mitte des 20. Jahrhunderts vom Hochchinesischen abgelöst, das sich in Grammatik, Lexikon und insbesondere der Phonologie stark an den modernen Dialekt von Peking anlehnt. Auch für andere Dialektformen des Chinesischen wurden Verschriftlichungsversuche gemacht, jedoch verfügt nur das Kantonesische über eine etablierte Literatur in chinesischer Schrift. In einigen Dialekten wurde auch eine Verschriftlichung mittels lateinischer Schrift versucht. Auch außerhalb der geschriebenen Sprache verdrängt das Hochchinesische zunehmend lokale Idiome, da das Hochchinesische landesweit an den Schulen gelehrt wird, wenngleich es die Dialekte als Umgangssprachen wohl nur stellenweise ersetzt. Homophonie und Homonymie. Da die chinesische Schrift über 10.000 verschiedene Logogramme umfasst, das gesprochene Hochchinesisch aber weniger als 1.700 verschiedene Sprechsilben, hat das Chinesische wesentlich mehr homophone Morpheme, also unterschiedliche Bedeutung tragende Wortbestandteile mit gleicher Aussprache, als irgendeine europäische Sprache. Daher entsprechen weder gesprochene Sprache noch lateinische Umschriften exakt den in chinesischen Zeichen geschriebenen Texten. Vereinfachte Umschriften, die die Töne nicht markieren, lassen die Homophonie noch ausgeprägter erscheinen, als sie tatsächlich ist. Zudem gibt es im Chinesischen auch Homonyme, also unterschiedliche Begriffe, die mit demselben Wort bezeichnet werden. Trotz der sehr vielen verschiedenen Logogramme existieren auch einige Homographen, das heißt Wörter, die mit denselben Zeichen geschrieben werden. Obwohl die meisten chinesischen Homographen gleich ausgesprochen werden, gibt es auch einige mit unterschiedlicher Aussprache. Periodisierung. Das Chinesische ist eine der wenigen noch gesprochenen Sprachen mit einer mehr als dreitausendjährigen schriftlichen Tradition. Die Sprachentwicklung lässt sich unter syntaktischen und phonologischen Gesichtspunkten in mehrere Phasen unterteilen. Die älteste durch schriftliche Überlieferung fassbare Form des Chinesischen ist die Sprache der Orakelknocheninschriften aus der Spätzeit der Shang-Dynastie (16.–11. Jahrhundert v. Chr.). Sie bilden den Vorläufer der Sprache der Zhou-Dynastie (11.–3. Jahrhundert v. Chr.), die als Altchinesisch () bezeichnet wird und deren Spätform als Klassisches Chinesisch bis in die Neuzeit als Schriftsprache konserviert wurde. Nach der Zhou-Dynastie entfernte sich die gesprochene Sprache allmählich vom klassischen Chinesisch; erste grammatische Innovationen finden sich schon im 2. Jahrhundert v. Chr. Sie kennzeichnen das Mittelchinesische (), das vor allem die Sprache der volkstümlichen Literatur beeinflusste. Die Zeit seit dem 15. Jahrhundert umfasst das moderne und das zeitgenössische Chinesisch (,), das als Oberbegriff für die modernen chinesischen Sprachen dient. Typologie. In typologischer Hinsicht zeigt das moderne Chinesisch relativ wenige Übereinstimmungen mit den genetisch verwandten tibeto-birmanischen Sprachen, während sich wesentlich mehr Übereinstimmungen mit den über Jahrhunderte direkt benachbarten südostasiatischen Sprachen zeigen. Insbesondere ist das moderne Chinesische sehr stark isolierend und zeigt nur wenig Flexion; die syntaktischen Zusammenhänge werden demzufolge überwiegend durch die Satzstellung und freie Partikeln ausgedrückt. Jedoch darf nicht übersehen werden, dass auch das moderne Chinesisch morphologische Prozesse zur Wort- und Formenbildung kennt. Silbenbau. Traditionell wird die chinesische Silbe in einen konsonantischen Anlaut () und einen Auslaut () aufgeteilt. Der Auslaut besteht aus einem Vokal, bei dem es sich auch um einen Di- oder Triphthong handeln kann, sowie einem optionalen Endkonsonanten (). So lässt sich die Silbe "xiang" in den Anlaut "x" und den Auslaut "iang" zerlegen, dieser wiederum wird in den Diphthong "ia" und den Endkonsonanten "ng" analysiert. Der Anlaut besteht in allen modernen chinesischen Sprachen immer – abgesehen von Affrikaten – aus einem einzelnen Konsonanten (oder ∅); es wird jedoch davon ausgegangen, dass das Altchinesische auch Konsonantencluster im Anlaut besaß. Im Auslaut lassen die modernen chinesischen Sprachen nur wenige Konsonanten zu; im Hochchinesischen beispielsweise nur "n" und "ŋ"; auch hier war jedoch die Freiheit im Altchinesischen vermutlich wesentlich größer. Aufgrund dieser stark eingeschränkten Möglichkeiten zur Silbenbildung ist die Homonymie im modernen Chinesisch sehr stark ausgeprägt. Tonalität. Es wird im Allgemeinen davon ausgegangen, dass das chinesische Tonsystem hauptsächlich unter dem Einfluss von erodierten Konsonanten am Silbenende entstanden ist; das Altchinesische war demzufolge nach der Meinung der Mehrzahl der Forscher noch keine Tonsprache. Wortbildung. Grundlage der chinesischen Morphologie ist das einsilbige Morphem, dem in der geschriebenen Form der Sprache ein Zeichen entspricht. Beispiele sind im Hochchinesischen die selbstständigen Lexeme 大 dà „groß sein“, 人 rén „Mensch“, 去 qù „gehen“ und Affixe wie das Pluralsuffix 们 -men. Ausnahmen sind Gruppen zweier aufeinanderfolgender Morpheme, die eine einzelne Silbe bilden. In einigen Fällen ist dies auf phonologische Veränderungen beim Zusammentreffen zweier Morpheme (sogenanntes Sandhi) zurückzuführen, wie in Hochchinesisch 那儿 nà-ér > nàr „dort“, klassisches Chinesisch 也乎 yě-hū > 與 yú, Kantonesisch 嘅呀 kɛː˧˧ aː˧˧ > 嘎 kaː˥˥. Da die Affixe der altchinesischen Wortbildungsmorphologie keine eigene Silbe bildeten, gehören auch die unten besprochenen Derivate zu diesen Ausnahmen. Ob das Altchinesische auch mehrsilbige Morpheme besaß, die nur mit einem Zeichen geschrieben wurden, lässt sich bislang nicht klären. Im Altchinesischen entsprachen die Morphemgrenzen in der bei weitem überwiegenden Mehrzahl der Fälle den Wortgrenzen. Seit der Zeit der Han-Dynastie wurden durch Zusammensetzung einsilbiger Wörter neue, zweisilbige und bimorphemische Lexeme gebildet. Viele solcher Zusammensetzungen weisen syntaktische Strukturen auf, die sich ebenso in Phrasen und Sätzen finden, weshalb die Trennung von Syntax und Morphologie problematisch ist. So sind viele Substantive wie Nominalphrasen mit einem Attribut und folgendem Kern gebildet: 德国人 déguórén Deutschland – Mensch = „Deutscher“, 记者 jìzhě „Journalist“, wörtlich „derjenige, der aufzeichnet“. Ebenso können Verben durch eine Kombination eines Verbs mit einem Objekt gebildet werden: 吃饭 chīfàn „eine Mahlzeit einnehmen“ aus 吃 chī „essen“ und 饭 fàn „Mahlzeit“. Andere Zusammensetzungen sind schwieriger zu analysieren, beispielsweise 朋友 péngyou „Freund“ aus 朋 péng „Freund“ und dem synonymen 友 yǒu. Ein weiteres Bildungsmittel zur Wortderivation des alten wie des modernen Chinesisch stellen Affixe dar. Das Altchinesische verfügte über eine Vielzahl an Prä-, In- und Suffixen, die jedoch vielfach nur schwer nachzuweisen sind, da sie in der Schrift keine oder nur unzureichende Spuren hinterlassen. Besonders häufig findet sich ein Suffix *-s, mit dem sowohl Substantive als auch Verben gebildet werden konnten (知 zhī (*trje) „wissen“ > 知/智 zhì (*trjes) „Weisheit“; 王 wáng (*wjang) „König“ > 王 wàng (*wjangs) „herrschen“). Auch verschiedene In- und Präfixe lassen sich rekonstruieren. In verschiedenen chinesischen Dialekten finden sich auch Präfixe, wie das im Hakka vertretene Präfix ʔa˧˧- zur Bildung von Verwandtschaftsbezeichnungen: ʔa˧˧ kɔ˧˧ „älterer Bruder“ = Hochchinesische 哥哥 gēge. Derivation oder Flexion durch Tonwechsel spielt im modernen Chinesisch eine eher geringe Rolle, beispielsweise bei der Bildung des perfektiven Aspekts im Kantonesischen: 食 "sek˧˥" „aß, hat gegessen“ zu 食 "sek˨˨" „essen“. Pronomina. Das frühe Altchinesisch unterschied bei den Personalpronomina die Numeri Singular und Plural sowie verschiedene syntaktische Funktionen; so diente in der 3. Person um 900 v. Chr. 厥 *kot (jué) als Attribut, 之 *tə (zhī) als Objekt, und möglicherweise *gə (qí) als Subjekt. Im Klassischen Chinesisch wurde die Unterscheidung der Numeri aufgegeben, seit der Han-Zeit verschwand auch die syntaktische Unterscheidung. Dafür entwickelten sich seit der Tang-Dynastie neue Plurale, die nun durch Affixe wie 等 děng, 曹 cáo, 輩 bèi gebildet wurden. Dieses System ist in seinen Grundzügen bislang unverändert geblieben und findet sich in den modernen chinesischen Sprachen wieder. Aspekt, Tempus, Aktionsart und Diathese. Wenngleich alle chinesischen Sprachen äußerlich ähnliche Systeme besitzen, weisen die benutzten Morpheme große Divergenzen auf. Das Hakka etwa benutzt die präverbalen Aspektpartikeln ∅ (Imperfektiv), ʔɛ˧˨ (Perfektiv), tɛn˧˨ (Kontinuativ), kuɔ˦˥ („Erfahrungs-Perfektiv“). Während das Aktiv im Chinesischen unmarkiert ist, stehen zur Markierung des Passivs unterschiedliche Möglichkeiten zur Verfügung. Im Altchinesischen blieb es ursprünglich ebenfalls unmarkiert und konnte nur indirekt durch Angabe des Agens in einer Präpositionalphrase angedeutet werden. Seit dem Ende der Zeit der Zhou-Dynastie bildeten sich Konstruktionen mit verschiedenen Hilfsverben wie 見 jiàn 為 wéi, 被 bèi, 叫 jiào und 讓/让 ràng, die das unmarkierte Passiv aber nicht verdrängten. Verbserialisierung. In manchen Dialekten wie dem Kantonesischen kann das Objekt auch hinter "de" gestellt werden. Attribute. Das Altchinesische konnte in Fällen, wo der Kopf nicht mit dem Subjekt des Verbs koreferent ist, die Morpheme 攸 yōu (präklassisch), 所 suǒ (klassisch) einsetzen: 攸馘 „was abgeschnitten wurde“. Zählwörter. Ein wesentliches typologisches Merkmal, welches das moderne Chinesische mit anderen südostasiatischen Sprachen teilt, ist die Anwendung von Zählwörtern. Während im Altchinesischen Zahlen und Demonstrativpronomina direkt vor Substantiven stehen können (五人 wǔ rén „fünf Menschen“; 此人 cǐ rén „dieser Mensch“), muss in den modernen chinesischen Sprachen zwischen beiden Wörtern ein Zählwort stehen, dessen Wahl vom Substantiv abhängt: Hochchinesisch 五"本"书 wǔ "běn" shū „fünf Bücher“, 这"个"人 zhè "ge" rén „dieser Mensch“. In den Yue- und Xiang-Dialekten werden Zählwörter auch zur Determination eines Substantives sowie zur Markierung eines Attributs benutzt: Kantonesisch 佢"本"书 kʰɵy˨˧ "puːn˧˥" syː˥˥ „sein Buch“, 支筆/支笔 "tsiː˥˥ pɐt˥˥" „der Stift“. Die Wahl des Zählwortes wird durch die Semantik des Substantivs bedingt: 把 bǎ steht im Hochchinesischen bei Substantiven, die ein Ding bezeichnen, das einen Griff besitzt; mit 所 suǒ werden Substantive konstruiert, die ein Gebäude bezeichnen usw. Eine Übersicht über wichtige Zählwörter des Hochchinesischen bietet der Artikel Liste chinesischer Zählwörter. Sprachcode nach ISO 639. Die ISO-Norm ISO 639 definiert Codes für die Auszeichnung von Sprachmaterialien. Die chinesischen Sprachen werden in der Norm unter dem Sprachcode zh (ISO 639-1) und zho/chi (ISO 639-2/T und /B) subsumiert. Die Norm ISO 639-3 führt den Sprachcode zho als sog. "Makrosprache" ein – ein Konstrukt, welches für eine Gruppe von Sprachen angewandt wird, wenn diese als Einheit behandelt werden kann. Im Falle der chinesischen Sprachen ist dieser Faktor durch die gemeinsame geschriebene Form gegeben. Die subsumierten Einzelsprachen sind im Einzelnen: gan (Gan), hak (Hakka), czh (Hui-Dialekt), cjy (Jin), cmn (Hochchinesisch), mnp (Min Bei), cdo (Min Dong), nan (Min Nan), czo (Min Zhong), cpx (Puxian), wuu (Wu), hsn (Xiang), yue (Kantonesisch). Carl Barks. a> beim San Diego Comic Con 1982. Rechts unten Barks’ Frau Garé Beim San Diego Comic Con 1982 Carl Barks 1994 in Finnland Carl Barks (* 27. März 1901 in der Nähe von Merrill, Oregon; † 25. August 2000 in Grants Pass, Oregon) war ein US-amerikanischer Comicautor und -zeichner sowie Cartoonist und Maler, der als der bekannteste Disneyzeichner gilt und zahlreiche Comic-Figuren des Disney-Kosmos wie Dagobert Duck erschuf. Durch seine Comics gilt er auch als Kultur- und Politikkritiker, wenngleich er dies stets abstritt. Bedeutung. Barks war der bekannteste Zeichner und Autor der US-amerikanischen Disney-Comics, insbesondere der Geschichten um die Familie Duck. Die zum Teil noch recht eindimensionalen Charaktere aus den Trickfilmen und den Zeitungscomics von Al Taliaferro differenzierte er und fügte neue Figuren hinzu. Er ist der geistige Vater des reichsten Manns der Welt "Dagobert Duck" ("Scrooge McDuck"), des genialen Erfinders "Daniel Düsentrieb" ("Gyro Gearloose") und der "Panzerknacker" ("Beagle Boys"). Auch der amerikanische Name der Heimatstadt der Ducks, Entenhausen ("Duckburg"), stammt von Barks. Vor seinem Wirken war außer "Donald Duck" nur dessen Freundin "Daisy Duck" vorhanden. Donalds Neffen "Tick, Trick und Track" ("Huey, Dewey & Louie") hatten ihren ersten Auftritt in dem Disney-Kurztrickfilm "Donald's Nephews" von 1938, der in wesentlichen Teilen von Barks stammt, der vor seiner Comic-Karriere einige Jahre als Trickfilmzeichner und -schreiber in den Disney-Studios arbeitete. Carl Barks hat dazu noch viele weitere Enten-Figuren erfunden. Einige dieser Figuren, die ursprünglich nur für einen bestimmten Comic entworfen worden waren, wurden so populär, dass sie später ihre eigene Comic-Serie erhielten, z. B. "Oma Duck". In den 1950er Jahren waren seine Comics in den USA so beliebt, dass er von den Disney-Comiclesern “the good artist” genannt wurde. Damals kannte nämlich noch niemand seinen Namen, weil alle Hefte der Disney-Verlage als Autorenvermerk nur die Marke „Walt Disney“ trugen. Erst Ende der 1960er Jahre gelang es hartnäckigen Fans, seinen Namen herauszufinden und den Meister, der längst in Rente war, zu kontaktieren und besuchen. Mit Erika Fuchs fanden die Comics von Carl Barks eine kongeniale Übersetzerin ins Deutsche. Bekannte Sprüche wie „Wo man hinschaut, nichts als Gegend“ stammen aus ihrer Feder. Ihre Sprache war weitaus feiner differenziert als das US-amerikanische Original, in dem Barks auch viele Slang-Worte verwendete. Kindheit und Jugend. Carl Barks wurde am 27. März des Jahres 1901 als zweiter Sohn des Landwirtes William Barks und dessen Frau Arminta im US-Bundesstaat Oregon, unweit des Ortes Merrill auf einer Farm geboren. Bereits in jungen Jahren halfen Carl und sein zwei Jahre älterer Bruder Clyde nach der Schule ihrem Vater bei Farmarbeiten. 1911 verpachtete William Barks seine Farm und zog mit der Familie nach Santa Rosa in Kalifornien, um mit einer Pflaumenplantage sein Glück zu versuchen. Der Erfolg blieb jedoch aus, und als bei Carl Barks’ Mutter Krebs diagnostiziert wurde und sein Vater einen Nervenzusammenbruch erlitt, zog die Familie zurück in die bis dahin verpachtete Farm nach Merrill. Im Jahr 1916 verstarb seine Mutter im Alter von 66 Jahren. Carl Barks, der zu diesem Zeitpunkt gerade 15 Jahre alt war, brach daraufhin die Schule in der achten Klasse ab. Sein Gehör begann sich bereits in dieser Zeit deutlich zu verschlechtern. Im selben Jahr begann er einen Fernkurs an der "Landon School of Cartooning", den er jedoch nach nur vier Unterrichtsstunden wieder abbrach. Barks half vermehrt auf den Feldern mit, da aufgrund des Ersten Weltkrieges ein Arbeitskräftemangel herrschte und er sich mit den deshalb gezahlten, höheren Löhnen rasch seinen Auszug aus der elterlichen Farm finanzieren konnte. Nichtsdestotrotz habe er, nach eigener Aussage, aus dem kurzen Fernkurs und dem Studieren von Comicstrips in der täglichen Zeitung viel für seine spätere Karriere mitnehmen können. Im Dezember 1918 ging Carl Barks mit seinen Ersparnissen nach San Francisco wo er als Laufbursche für eine Druckerei arbeitete. Mit Zeichnungen, die er in seiner Freizeit anfertigte, bewarb er sich bei lokalen Zeitungen, die ihn jedoch allesamt ablehnten. Schließlich kehrte er 1920 nach 18 Monaten ohne nennenswerte Erfolge zu seinem Vater auf die Farm nach Oregon zurück. Frühe Berufserfahrungen und erste Heirat. Carl Barks ging nun, wie schon vor seiner Abreise nach San Francisco, seinem Vater auf der Farm zur Hand. 1921 heiratete Barks Pearl Turner, die Tochter eines Sägewerksbesitzers, mit der er in den darauffolgenden Jahren die Töchter Peggy (* 23. Januar 1923) und Dorothy (* 26. November 1924) bekam. Carl Barks arbeitete in dieser Zeit auch im Sägewerk seines Schwiegervaters, weil auf der Farm nicht immer genug Arbeit vorhanden war, um die junge Familie zu versorgen. Da dies jedoch nur im Sommer möglich war, suchte er weiterhin eine feste Anstellung mit dauerhaften Einkommen. Diese fand er schließlich als Hilfsarbeiter in einer Reparaturwerkstatt für Eisenbahnen der "Pacific Fruit Express" Gesellschaft in Roseville. Die Familie zog in die Stadt nahe Sacramento und blieb dort bis 1930. In dieser Zeit zog sich Barks in seiner Freizeit immer mehr an den Zeichentisch zurück, was seiner Frau zunehmend missfiel. Obwohl er mit dem Verkauf erster Zeichnungen etwas Geld dazuverdiente, trennten sie sich 1930. Carl Barks kam kurzfristig bei seinen Schwiegereltern in Oregon unter und verkaufte nun regelmäßiger Zeichnungen an das Männermagazin "Calgary Eye-Opener", sodass er bald ein kleines Haus in Medford mieten konnte. Lange blieb er dort nicht, denn im November 1931 nahm er eine Festanstellung beim "Calgary Eye-Opener" an und zog nach Minneapolis, um in der Redaktion zu arbeiten. Bis 1935 steuerte er nicht nur Zeichnungen und Karikaturen für das Magazin bei, sondern auch kurze Geschichten und Gedichte. Arbeit bei Disney. 1935 bewarb sich Carl Barks bei den Disney-Studios in Los Angeles, die für ihren ersten spielfilmlangen Zeichentrickfilm Schneewittchen und die sieben Zwerge noch Zeichner suchten. Seine Bewerbung hatte Erfolg, und so reiste er mit Clara Balken, die er in Minneapolis kennengelernt hatte, nach Los Angeles, wo er nach einer einmonatigen Ausbildung als Zwischenphasenzeichner übernommen wurde. In den Disney Studios kam Barks das erste Mal mit Donald Duck in Kontakt, für den er eine Slapstick-Szene mit einem automatischen Friseurstuhl entwarf, um von den mühseligen Zwischenphasenzeichnungen loszukommen und sich trotz seiner Schwerhörigkeit im Studio zu bewähren. Walt Disney gefiel diese Szene, und er versetzte ihn daraufhin in die Abteilung für Geschichtenentwicklung. 1938 heiratete Carl Barks zum zweiten Mal und erwarb drei Jahre später mit seiner Frau Clara eine kleine Farm in San Jacinto. Am 9. November 1942 kündigte er seine Anstellung bei Disney, um sich mit einer Hühnerzucht und der Aussicht, ein hauptberuflicher Comiczeichner zu werden, selbstständig zu machen. Die Anfänge als Comiczeichner. Carl Barks bewarb sich nach seiner Kündigung bei Disney Ende 1942 als Zeichner bei Western Publishing, jenem Verlag, der einige Monate zuvor bereits zwei Comics veröffentlicht hatte, an denen Barks mitgewirkt hatte. Die Antwort fiel positiv aus, und Barks erhielt das Skript zu "The Victory Garden" (dt. "Gesundheitsgemüse"), aus dem er einen zehnseitigen Comic mit Donald zeichnen sollte. Weitere Geschichten für Zehnseiter und auch längere Donald-Duck-Abenteuer schrieb Barks in den nächsten Jahren selber. Als der Verlag 1947 mit dem Wunsch nach einer Weihnachtsgeschichte an Barks herantrat, entwarf er einen reichen Onkel für Donald: Scrooge McDuck (dt. "Dagobert Duck") trat das erste Mal im Dezember 1947 in der Geschichte "Christmas On Bear Mountain" (dt. "Die Mutprobe") auf. Ihm folgten weitere, von Barks erfundene Figuren wie Gustav Gans, Daniel Düsentrieb und später die Panzerknacker sowie Gundel Gaukeley. Dagobert Duck bekam 1953 beim gleichen Verlag seine eigene Comicreihe mit dem Titel "Uncle Scrooge", für die hauptsächlich Carl Barks die Abenteuer lieferte. Zweite Scheidung und dritte Ehe. Seine zweite Frau Clara verfiel zunehmend dem Alkohol und wurde dann aggressiv. Als ihr 1950 bei einer Krebsoperation ein Bein bis zum Knie abgenommen werden musste, versuchte Carl Barks sich als Pfleger. Doch auch dieser Einsatz konnte die Ehe nicht mehr retten, zumal sie weiterhin zur Flasche griff. Im Dezember 1951 wurden sie geschieden, und Barks musste mit 51 Jahren von vorne anfangen, denn ihm blieb nichts außer "zwei Decken, seiner Kleidung, dem Zeichenbrett und den National-Geographic-Ausgaben". Doch Barks fühlte sich wie von einer Last befreit, fuhr durch das Land, sammelte Inspirationen und besuchte Ausstellungen. Auf einer solchen traf er 1952 auch Margaret Williams wieder, die sich bereits zehn Jahre zuvor bei ihm als Assistentin beworben hatte. Garé, wie Margaret von allen genannt wurde, hatte ebenfalls schon eine Scheidung hinter sich und war Landschaftsmalerin. Die beiden bezogen ein Haus im südkalifornischen Hemet und heirateten am 26. Juli 1954. Garé Barks unterstützte ihren Mann fortan bei seiner Arbeit, zeichnete Hintergründe, letterte und tuschte einige seiner Zeichnungen. „Der gute Künstler“. 1959 begann Barks, vermehrt auch Auftragsarbeiten von Western Publishing zu zeichnen, wie etwa die "Daisy Duck’s Diary" oder "Grandma Duck’s Farm Friends" Geschichten, um sich selber keine neuen Handlungen mehr ausdenken zu müssen. Ab dem Jahre 1960 erreichten ihn die ersten Fanbriefe, die sein Verlag, der auch Barks’ Adresse geheim hielt, bis dahin nicht weitergeleitet hatte. Da seine Geschichten stets nur mit "Walt Disney" signiert waren und nicht mit "Carl Barks", wusste lange Zeit niemand, wer der Autor war, den die Fans mit dem Ehrennamen "The good artist" (dt. "Der gute Künstler") bedachten. Einige Ideen, die ihm seine Fans in Briefen schilderten, setzte er in den nächsten Jahren in seinen Comicgeschichten um. Am 30. Juni 1966 ging Carl Barks als Comiczeichner für Western Publishing offiziell in den Ruhestand, was ihn jedoch nicht davon abhielt, weitere Skripte an den Verlag zu schicken, die dann von anderen Zeichnern fertiggestellt wurden. Die Ducks in Öl gemalt. Carl Barks versuchte sich wie seine Frau Garé immer wieder an Landschaftsbildern mit Ölfarben. Kommerziell hatten seine Gemälde wenig Erfolg, doch Fans, die diese Bilder sahen, baten ihn, doch auch die Ducks in Öl zu verewigen. 1971 fragte Barks offiziell bei Disney an und war der erste Künstler, der eine Genehmigung dafür erhielt. Er malte seitdem für seine wachsende Fangemeinde auf Anfrage Covermotive oder Szenen aus seinen Comics als Ölbilder nach und verkaufte diese. Einige besonders gefragte Motive wurden in Varianten mehrfach von ihm gemalt. Als 1976 auf der Comicmesse in San Diego ein Händler illegale Nachdrucke eines seiner Gemälde verkaufte, entzog Disney Carl Barks die Lizenz, die Ducks in Öl malen zu dürfen. Barks beschränkte sich danach auf Ölgemälde ohne Disneyfiguren, die jedoch längst nicht soviel Anklang bei den Fans fanden. Siehe: Liste der Gemälde von Carl Barks Die letzten Jahre. In den folgenden Jahren war Carl Barks vor allem damit beschäftigt, seine Fanpost zu beantworten und jenen Verlegern mit Rat und Tat zur Seite zu stehen, die Sammelbände mit Nachdrucken seiner Comics oder Ölbilder herausgeben wollten. 1983 zog das Ehepaar Barks nach Grants Pass in Oregon, um etwas Abstand von den immer zudringlicheren Fans in Kalifornien zu bekommen. Garé Barks verstarb dort mit 75 Jahren am 10. März 1993. Im Sommer des darauffolgenden Jahres begab sich Barks zum 60. Geburtstag Donald Ducks auf Europareise und besuchte neben dem Egmont-Ehapa-Verlagshaus in Stuttgart auch Erika Fuchs in München, die alle seine Comics ins Deutsche übertragen hatte. Im Juli 1999 wurde bei ihm chronische lymphatische Leukämie diagnostiziert und Barks wurde — teilweise wegen der Chemotherapie — zunehmend schwächer. Fast ein Jahr später, im Juni 2000, entschloss er sich, seine medizinische Behandlung zu beenden. In der Nacht auf den 25. August 2000 verstarb Carl Barks im Schlaf im Alter von 99 Jahren in seinem Haus in Grants Pass. Privates. Carl Barks war in seinem Leben dreimal verheiratet. Seine erste Frau Pearl, von der er sich 1930 scheiden ließ, verstarb 1987. Mit ihren gemeinsamen Töchtern Peggy und Dorothy hatte Barks nur wenig Kontakt. Peggy, die einen Sohn und zwei Töchter hatte, starb 1963 an Lungenkrebs. Dorothy hat einen Sohn und lebt im US-Bundesstaat Washington. Seine zweite Frau Clara verstarb 1964, 13 Jahre nach ihrer Scheidung von Barks, der ihr bis zu ihrem Tode Alimente zahlte. Sein Bruder Clyde lebte in Tulelake (Kalifornien), wo er ein Hotel betrieb. Er verstarb 1983 und hinterließ die Kinder William und Maxine sowie seine Frau Zena May Dillard, die 1986 starb. Meilensteine. Unüberschaubar groß ist Barks’ Lebenswerk ausgefallen, unvergessliche Comicgeschichten als Produkt einer jahrzehntelangen Schaffenszeit im Auftrag verschiedener Verlage zwischen 1942 und 1966. Der INDUCKS Katalog listet über 850 Disney-Comics für Western Publishing, an denen Barks beteiligt war, Cover und Illustrationen nicht mitgezählt. Der Bogen spannt sich dabei von seinem Erstling "Piratengold" ("Pirate Gold", 1942) bis zu seinen letzten Zeichnungen in der Kurzgeschichte "Genau der richtige Job" ("The Dainty Daredevil", 1968). Höhepunkt sind die Jahre um 1950, also nach der Einführung der Figur des "Onkel Dagobert". Letzterer war zunächst als eher unsympathische Figur im Stil seines literarischen Vorbilds Ebenezer Scrooge von Charles Dickens angelegt, doch gestaltete Barks seinen Charakter später milder und gelegentlich mit weichem Herz unter rauher Schale. Barks selber nannte in Interviews häufig als seine Lieblingsgeschichten "Im Land der viereckigen Eier" ("Lost in the Andes!", 1948) und "Im alten Kalifornien" ("In Old California!", 1951). Von vielen Fans wird als ihre Lieblingsgeschichte oft "Weihnachten für Kummersdorf" ("A Christmas for Shacktown", 1952) genannt. Unter den zahlreichen Nutzern der INDUCKS Datenbank können Noten für sämtliche dort eingetragene Geschichten abgegeben werden. Hierbei belegt derzeit Barks Klassiker "Wiedersehen mit Klondike" den 1. Platz von über 25.000 gelisteten Storys. Auch die Plätze 2-15 hält im Moment Barks, wobei sich die Geschichten immer wieder gegenseitig von den Spitzenpositionen verdrängen. Insgesamt stammen 75 von den Top-100-Geschichten von Barks. Nicht in Entenhausen angesiedelt sind Carl Barks' Comics "Barney Bear und Benny Burro" (in Deutschland erschienen ab Februar 1989). Barks-Comics in Deutschland. Bereits in den ersten deutschen Micky Maus-Heften (seit September 1951) sowie in den Micky Maus-Sonderheften (Nr. 3, 8, 10, 16, 18, 21, 23, 24 und 31) ab 1952 fanden sich Barks-Geschichten, deren Nachdrucke zuerst ab Mai 1965 vor allem in den Heften der Reihe Die tollsten Geschichten von Donald Duck – Sonderheft erschienen (diese sind auch als Nachdruck in 2. Auflage erschienen). Die Zeitschrift "Goofy" brachte ab 1979 regelmäßig Barks' "Ten Pagers" (zehnseitige Geschichten) in der Rubrik "Nostalgoofy". Umfassend wurde sein Werk neu aufgelegt in "Die besten Geschichten mit Donald Duck" (58 Alben von 1984 bis 1999) und dem "Donald Duck Klassik Album" (6 gebundene 4er-Bände derselben Serie), und – erstmals systematisch – in der zwischen 1992 und 2004 erschienenen Barks Library, die 133 Alben in mehreren Teilserien umfasst und inzwischen überwiegend vergriffen ist. Die 51 Alben der Hauptserie erschienen auch in 17 gebundenen 3er-Bänden als "Barks Comics & Stories", seit Mai 2009 werden die 38 Alben der Barks-Library-Reihe "Carl Barks - Onkel Dagobert" in 13 gebundenen 3er-Bänden neu aufgelegt. Als hochwertige 30-bändige Sammlerausgabe erschien seit Sommer 2005 in Deutschland und anderen (nord-)europäischen Ländern die auf 10 Schuber à drei gebundene Halbleinenbände großformatig angelegte "Carl Barks Collection", die sämtliche von Barks geschriebenen und gezeichneten Disney-Comics neben vielen kommentierenden Aufsätzen sowie weiteren Dokumenten über Barks enthält und im Dezember 2008 abgeschlossen wurde. Sie gilt zur Zeit als "die ultimative Edition" von Carls Barks' Oeuvre im deutschsprachigen Raum. Der Kulturkritiker. Barks beobachtete die Entwicklung der Massenmedien in den USA mit großem Unbehagen. Wiederholt wies er in Interviews, die er seinen Anhängern und Journalisten gab, auf die Gefahren des Fernsehkonsums – besonders in Formen, wie er in den USA auftritt – hin. Hintergründe seiner Werke. Barks stritt zwar jegliche politische oder gesellschaftliche Intention seiner Werke ab, trotzdem fällt es bei manchen Geschichten, z.B. "Die Stadt der goldenen Dächer", schwer, die Kritik am (US-) Imperialismus zu übersehen. Des Weiteren gibt er auch in manchen Werken die Berufe der Psychologen, Anwälte, Geheimdienstler usw. der Lächerlichkeit preis oder integriert Hitlers "Mein Kampf" in die Abbildung einer Müllkippe. Auch den Vietnamkrieg behandelte Barks kritisch in seiner Geschichte "Der Schatz des Marco Polo". Die Geschichte ist einerseits durchgehend antikommunistisch, andererseits kommt aber auch Entenhausen (das die USA repräsentiert) nicht gut weg. Diese Art von Kritik sorgte dafür, dass einige Werke von Barks stark zensiert oder lange Zeit gar nicht erst veröffentlicht wurden, weil sie für die "Walt Disney Studios" als politisch unerwünscht galten. Ein anderes Beispiel ist die Geschichte "Im Land der Zwergindianer", in der Barks auf Umweltprobleme und die Probleme indigener Völker aufmerksam macht. Charles de Gaulle. Unterschrift von Charles de Gaulle Charles André Joseph Marie de Gaulle (* 22. November 1890 in Lille, Nord; † 9. November 1970 in Colombey-les-Deux-Églises, Haute-Marne) war ein französischer General und Staatsmann. Im Zweiten Weltkrieg führte er den Widerstand des "Freien Frankreich" gegen die deutsche Besatzung an. Danach war er von 1944 bis 1946 Chef der Provisorischen Regierung. Im Zuge des Algerienkriegs wurde er 1958 mit der Bildung einer Regierung beauftragt und setzte eine Verfassungsreform durch, mit der die Fünfte Republik begründet wurde, deren Präsident er von Januar 1959 bis April 1969 war. Die auf ihn zurückgehende politische Ideologie des Gaullismus beeinflusst die französische Politik bis heute. Herkunft und Bildung. Geburtshaus de Gaulles in Lille De Gaulle wuchs in einer katholisch-konservativ geprägten und gleichzeitig sozial fortschrittlichen Intellektuellenfamilie in Lille auf: Sein Großvater war Historiker, seine Großmutter Schriftstellerin. Sein Vater, Henri Charles Alexandre de Gaulle (1848–1932) der an verschiedenen katholischen Privatschulen lehrte, bevor er seine eigene gründete, ließ ihn die Werke von Barrès, Bergson, Péguy und Maurras entdecken. Väterlicherseits hatte de Gaulle Vorfahren, die zum alten Landadel der Normandie und Burgund gehörten. Seine Mutter, Jeanne Caroline Marie Maillot (1860–1940), stammte aus einer Familie reicher Unternehmer aus Lille mit französischen, irischen (MacCartan), schottischen (Fleming) und deutschen (Kolb) Vorfahren. Während der Dreyfus-Affäre distanzierte sich die Familie von reaktionär-nationalistischen Kreisen und unterstützte den aus antisemitischen Gründen verurteilten Alfred Dreyfus. 1908 trat de Gaulle in die Militärschule Saint-Cyr ein, die er 1912 mit Diplom und Beförderung zum "Sous-lieutenant" (dt.: Leutnant) verließ. Dort lernte er auch Deutsch. Anschließend wurde er in die französische Armee übernommen. Er wurde dem "33e régiment d’infanterie" (dt.: 33. Infanterieregiment) in Arras zugeteilt, dessen Kommandeur seit 1910 Colonel (dt.: Oberst) Philippe Pétain war. Erster Weltkrieg. Zu Beginn des Ersten Weltkriegs stieg er vom Lieutenant (dt.: Oberleutnant) zum Capitaine (dt.: Hauptmann) auf. Bereits im ersten Gefecht bei Dinant erlitt de Gaulle am 15. August 1914 eine Verwundung. Er kehrte dann als Chef der 7. Kompanie zum 33. Infanterieregiment an die Champagne-Front zurück. Am 10. März 1915 wurde er erneut im Gefecht verwundet. Er war entschlossen, weiterzukämpfen, und widersetzte sich seinen Vorgesetzten, indem er auf die feindlichen Gräben feuern ließ. Wegen dieses Akts des Ungehorsams enthob man ihn für acht Tage seiner Funktionen. Dennoch hatte sich de Gaulle als fähiger Offizier hervorgetan und der Kommandeur des 33. Infanterieregiments bot ihm an, sein Adjutant zu werden. Michail Tuchatschewski auf dem Höhepunkt seiner Macht als Marschall der Sowjetunion, wahrscheinlich aufgenommen im Jahr 1936 Am 2. März 1916 wurde sein Regiment in der Schlacht um Verdun bei der Verteidigung des Dorfes Douaumont in der Flanke des Forts von Douaumont von den Deutschen attackiert. De Gaulles Kompanie war schließlich fast vollständig vernichtet, die Überlebenden in einer Ruine eingeschlossen. Laut offiziellem Bericht versuchte de Gaulle daraufhin einen Ausbruch, wurde durch einen Bajonettstich schwer verwundet und ohne Bewusstsein aufgefunden. Nach anderer Darstellung mehrerer Beteiligter ergab sich de Gaulle einer deutschen Einheit, ohne einen Ausbruchsversuch unternommen zu haben. In deutscher Gefangenschaft erholte er sich von seiner Verwundung. Während der Internierung in Deutschland – zunächst in Osnabrück und Neisse – brachte man ihn nach zwei erfolglosen Fluchtversuchen von der Festung Rosenberg in Kronach in ein speziell für aufsässige Offiziere vorgesehenes Lager in der Festung Ingolstadt. In der Gefangenschaft lernte er Michail Tuchatschewski kennen. Er versuchte auch von dort zu fliehen. Einmal kam er bis in die Nähe von Ulm, ehe man ihn erneut fasste. 1918 kam de Gaulle schließlich auf die Wülzburg bei Weißenburg in Bayern. Ein „jämmerliches Exil“ („lamentable exil“), mit diesem Ausdruck beschrieb er seiner Mutter sein Schicksal eines Gefangenen. Um die Langeweile zu ertragen, organisierte de Gaulle für seine Mitgefangenen umfangreiche Exposés über den Stand des laufenden Krieges. De Gaulles fünf Fluchtversuche scheiterten nicht zuletzt an seiner Körpergröße von 1,95 m, mit der er schnell auffiel, weil sie in der damaligen Zeit außergewöhnlich war. Darüber hinaus unterstützte er mehrere teilweise erfolgreiche Fluchtversuche anderer inhaftierter Kameraden. Nach dem Waffenstillstand im November 1918 wurde er von der Wülzburg entlassen. Von den zweieinhalb Jahren der Gefangenschaft behielt er eine bittere Erinnerung und schätzte sich selbst als „Heimkehrer“ und Soldat ein, der seinem Land nichts genützt hatte. Zwischenkriegszeit. Während des Polnisch-Sowjetischen Krieges 1919/1920 meldete sich de Gaulle freiwillig für den Dienst in der französischen Militärmission in Polen und fungierte ab dem 17. April 1919 als Infanterieausbilder der neugeschaffenen polnischen Armee. Er wollte durch den Einsatz an diesem entlegenen Kriegsschauplatz seiner militärischen Karriere einen Schub geben, da er sich infolge der Kriegsgefangenschaft während des Ersten Weltkrieges kaum Verdienste erwerben konnte. Da ihm in Frankreich lediglich ein untergeordneter Posten als Referent beim Ministerpräsidenten angeboten wurde, bei dem er Soldaten und Offiziere für Auszeichnungen vorschlagen sollte, verlängerte de Gaulle seinen Dienst in Polen und nahm im Mai 1920 an dem Angriff der polnischen Armee auf Kiew teil (polnisch-sowjetischer Krieg). Er wurde zum Stabschef General Henri Albert Niessels in Warschau befördert und erhielt die höchste polnische Militärauszeichnung Virtuti Militari. Einige Historiker nahmen fälschlich an, dass die Erfahrungen in Polen de Gaulles Ansichten im Bezug auf den Einsatz von Panzern und Flugzeugen und den Verzicht auf die traditionelle Kriegsführung mittels Schützengräben beeinflussten. Sein Biograph Eric Roussel weist demgegenüber darauf hin, dass das Konzept, Panzer für schnelle Vorstöße unabhängig von der Infanterie zu verwenden, erst 1927 durch den französischen General Aimé Doumenc entwickelt wurde. Nach seiner Rückkehr aus Polen heiratete de Gaulle im April 1921 Yvonne Vendroux und nahm einen Posten als Lehrer an der renommierten Militärschule Saint-Cyr in Paris an, der Kaderschmiede der französischen Armee. De Gaulle war damit materiell gut abgesichert, geriet aber bald in Konflikt mit seinen Vorgesetzten aufgrund seines arroganten Verhaltens und seiner unkonventionellen Ansichten, die er in seinem Unterricht vertrat. Infolgedessen wurde er nicht befördert und wechselte 1925 in den persönlichen Stab des Marschalls Pétain. Gegenüber einem Freund soll er geäußert haben, dass er die Militärschule St.-Cyr nicht wieder betreten würde, außer als Direktor. De Gaulles wichtigste Aufgabe bestand darin, zwei Bücher vorzubereiten, die unter dem Namen des berühmten Marschalls erscheinen sollen, jedoch kam es auch mit Pétain zu Auseinandersetzungen über deren Inhalt und zu einer deutlichen Abkühlung in dem ehemals freundschaftlichen Verhältnis. Dennoch förderte Pétain de Gaulles Karriere: Im September 1927 übernahm er als Bataillonschef ein aktives Kommando bei den französischen Besatzungstruppen in Trier. Ebenfalls setzte Pétain durch, dass de Gaulle im April 1927 eine Reihe von Vorträgen an der Militärschule St.-Cyr halten durfte, gegen den Willen des Schulleiters, General Pierre Héring. 1932 veröffentlicht de Gaulle den Inhalt dieser Vorträge unter dem Titel "Le fil de l'épée". Darin vertrat er sehr aggressiv die Ansicht, dass die französische Armee das Amt eines Oberkommandierenden schaffen müsse, der im Fall eines Krieges in alleiniger Verantwortung und mittels diktatorischer Vollmachten das Schicksal des Landes bestimmen müsse. Diese Auffassung ließ sich aber nicht durchsetzen aufgrund der Rivalität der Generäle im Generalstab und der traditionellen Feindschaft zwischen den einzelnen Waffengattungen der französischen Streitkräfte. Von 1929 bis 1931 übernahm de Gaulle ein Kommando im französischen Mandatsgebiet Libanon. Dieser Posten, weit entfernt vom Hauptquartier in Paris, diente kaum seiner Karriere und widersprach zudem seinen persönlichen Ansichten, wonach die Kolonialarmeen bei der Verteidigung Frankreichs nur eine untergeordnete Rolle spielten. Wegen des Zerwürfnisses mit Pétain wurde ihm kein besseres Kommando angeboten. Von 1932 bis 1937 bekleidete de Gaulle eine untergeordnete Rolle im "Conseil supérieur de la défense nationale" (CSND), dem Nationalen Verteidigungsrat, dessen Aufgabe unter der Leitung von Marschall Pétain darin bestand, die französischen Streitkräfte auf einen möglichen Krieg vorzubereiten und über Kriegsstrategien, Bewaffnung und Aufstellung der Armee zu entscheiden. De Gaulles Rolle beschränkte sich darauf, Denkschriften für die Sitzungen des Verteidigungsrates vorzubereiten. Da er für eine offensive Kriegführung eintrat, die den Ansichten der meisten Generäle entgegenlief, wurden seine Entwürfe kaum beachtet. 1934 veröffentlichte de Gaulle sein bis dahin bedeutendstes Werk, eine Sammlung von Aufsätzen unter dem Titel "Vers l’Armée de Métier" („In Richtung auf eine Berufsarmee“) und forderte darin eine Reorganisation der französischen Armee, die von einer schlecht ausgebildeten Freiwilligenarmee in eine Berufsarmee umgewandelt werden sollte. Allein diese sei in der Lage, im Falle eines Krieges das Land ausreichend zu schützen und moderne Waffen wie Flugzeuge und Panzer wirkungsvoll einzusetzen. Diese Schrift forderte auch zum ersten Mal die Schaffung von Panzerverbänden, die in der Lage seien, mit schnellen, motorisierten Verbänden ins Territorium des Feindes einzudringen, statt hinter der Maginot-Linie defensiv auf dessen Angriff zu warten. Nur so könne Frankreich seine momentane qualitative Überlegenheit und seine quantitative Unterlegenheit gegenüber Deutschland kompensieren. Diese Forderungen verband de Gaulle erneut mit der Idee, im Falle eines Krieges sämtliche Streitkräfte dem Kommando eines einzelnen Oberbefehlshabers zu unterstellen. Für diesen Posten sah er einen Mann vor, der „stark genug sei, seine Rolle auszufüllen, geschickt darin, die Zustimmung der Menschen zu gewinnen, groß genug für eine große Aufgabe“ – einen Diktator, der die Macht im Land übernehmen würde. Nach Ansicht des Historikers Eric Roussel war das ein schwerer Fehler, denn dadurch wurde es sehr schwierig, für die Militärreformen eine Mehrheit im Parlament zu gewinnen: Der sozialistische Ministerpräsident Léon Blum etwa befürchtete 1936, durch die Formierung einer Berufsarmee würde die Basis für einen künftigen Staatsstreich geschaffen. Da de Gaulle kaum Unterstützung von Seiten des Generalstabs erwarten konnte, erschien sein Projekt unrealisierbar. Die Militärs im Ausland, insbesondere Heinz Guderian im deutschen Generalstab, nahmen de Gaulles Ideen interessiert zur Kenntnis und sahen sich in ihren eigenen Bestrebungen bestärkt, eine moderne Panzerwaffe zu schaffen; de Gaulles Gegner im französischen Generalstab dagegen, besonders die Generäle Weygand, Gamelin (1872–1958) und Maurin, lehnten den Plan entschieden ab, woraufhin auch Marschall Pétain im März 1935 verlauten ließ, dass er die Reformpläne seines ehemaligen Schützlings nicht unterstützen würde. De Gaulle entfaltete daraufhin in den folgenden Jahren eine politische Kampagne in der Presse und im Parlament, die ihm den Spitznamen "Colonel Motors" einbrachte, und gewann in allen politischen Lagern genug Befürworter, sodass am 15. März 1935 zumindest Teile der Reform im französischen Abgeordnetenhaus beschlossen und sechs motorisierte Verbände aufgestellt wurden, deren Angehörige Berufssoldaten sein sollten. Am 25. Dezember 1936 übertrug man de Gaulle das Kommando über einen dieser neuen Panzerverbände, das 507. Panzerregiment in Metz. Im Generalstab wurde die Reform jedoch verwässert und bestimmt, dass diese Verbände ausschließlich der Defensive dienen und gemeinsam mit den sehr langsamen Infanterieverbänden zu operieren haben. Viele Militärhistoriker sehen darin eine wichtige Ursache für die Niederlage der französischen Armee im Mai 1940 gegenüber den schnellen deutschen Panzerarmeen. Obwohl de Gaulle mit seinem Reformkonzept letztlich scheiterte, hatte die politische Kampagne doch den Effekt, ihn bekannt zu machen; sie öffnete ihm den Weg in die Politik und damit auch in seine Rolle als Führer des französischen Widerstandes (siehe Forces françaises libres, Résistance). Zweiter Weltkrieg. General de Gaulle und General Mast, Tunis 1943 Als der Zweite Weltkrieg ausbrach, war de Gaulle Colonel. Am 14. Mai 1940 erhielt er das Kommando über die neue "4e division blindée" (dt.: 4. Panzerdivision) mit 5000 Mann und 85 Panzern übertragen. Am 17. Mai führte er mit 200 Panzern ohne Luftunterstützung einen Gegenangriff Richtung Montcornet nordöstlich von Laon. Am 28. Mai hatte er mehr Erfolg, als seine Panzer die Wehrmacht bei Caumont zum Rückzug zwangen. Er war in der Phase der deutschen Invasion in Frankreich der einzige französische befehlshabende Offizier, dem es gelang, die Deutschen zu einem Rückzug zu zwingen. Am 1. Juni hatte er den temporären Dienstgrad eines "Général de brigade" (dt.: Brigadegeneral). Am 6. Juni ernannte Premierminister Paul Reynaud ihn zum Staatssekretär des Kriegsstaates und zum Verantwortlichen für die Koordination mit Großbritannien. Als Kabinettsmitglied lehnte er den Waffenstillstand ab, verließ Frankreich am 15. Juni und setzte nach Großbritannien über. Dort vereinbarte er mit Winston Churchill am 16. Juni eine Fortsetzung der britisch-französischen Kooperation gegen Deutschland. Als er am Abend nach Bordeaux zurückkehrte, den provisorischen Sitz der französischen Regierung, schickte sich Marschall Philippe Pétain an, legal die Macht zu übernehmen. De Gaulle missbilligte die Politik Pétains, der den Waffenstillstand mit dem Deutschen Reich zu unterzeichnen bereit war, und lehnte Pétains Tun als illegitim ab. Mit 100.000 Goldfranc aus einem geheimen Fonds Paul Reynauds ausgestattet, floh er am Morgen des 17. Juni 1940 an Bord eines Flugzeugs von Bordeaux nach London. Appell vom 18. Juni. Text eines Aufrufs de Gaulles vom 3. August 1940, veröffentlicht in Großbritannien (plakatiert) Während Philippe Pétain ankündigte, mit Deutschland einen Waffenstillstand zu vereinbaren, erlaubte Premierminister Winston Churchill de Gaulle, über BBC zum französischen Volk zu sprechen. Er rief darin französische Offiziere und Soldaten, Ingenieure und Facharbeiter der Waffenindustrie im Vereinigten Königreich auf, ihm zu folgen und beschwor, dass die Niederlage nicht endgültig sei („Was auch immer geschehen mag, die Flamme des französischen Widerstandes darf nicht erlöschen und wird auch nicht erlöschen“). Er betonte die Bedeutung der Unterstützung durch Großbritannien und die Vereinigten Staaten. In Frankreich konnte man den Appell zuerst am 18. Juni 1940 um 19 Uhr hören. Er wurde in den Zeitungen des noch unbesetzten Südfrankreich abgedruckt und in den folgenden Tagen von der BBC wiederholt ausgestrahlt. Der Appell gilt als de Gaulles größte Rede, Régis Debray schreibt, auch wenn de Gaulles Appell „das Gesicht der Welt nicht verändert habe, so habe dank ihm immerhin Frankreich das seine gewahrt.“ Das britische Kabinett hatte im Vorfeld dem französischen Innenminister Georges Mandel vorgeschlagen, sich nach England zu begeben und selbst einen Appell an die Franzosen zu richten. Mandel hatte durch seine wiederholten Mahnungen über die Bedrohungen durch das Deutsche Reich – und im Gegensatz zu seinem Freund und ehemaligen Ministerpräsidenten Léon Blum – charakterlich wie ein Staatsmann gewirkt. Mandel weigerte sich jedoch, Frankreich zu verlassen, um sich nicht dem Vorwurf der Desertion auszusetzen (er war Jude ebenso wie Blum) und empfahl, die Aufgabe de Gaulle zu übertragen. Freies Frankreich. Charles de Gaulle und Winston Churchill in Marrakesch am 13. Januar 1944 Am 25. Juni 1940 gründete de Gaulle in London das Komitee "Freies Frankreich" (France libre) und wurde Chef der "Freien Französischen Streitkräfte" (Forces françaises libres, FFL) und des "Nationalen Verteidigungskomitees". Daraufhin wurde de Gaulle vom Kriegsrat der Vichy-Regierung im August 1940 wegen Hochverrats in Abwesenheit zum Tode verurteilt. Die meisten Staaten erkannten das Vichy-Regime Marschall Pétains als die legitime Regierung Frankreichs an. Churchill bemühte sich zwar anfangs diplomatisch um das Vichy-Regime, unterstützte dann aber de Gaulle und ließ die in Nordafrika in Mers-el-Kébir unter dem Kommando von Pétains Marineminister Admiral François Darlan vor Anker liegende französische Kriegsflotte am 3. Juli 1940 in der Operation Catapult zerstören. Der Libanon wurde als eines der ersten französischen Protektorate im September 1941 durch alliierte Truppenverbände der Kontrolle des Vichy-Regimes entzogen. Bei der anschließenden Machtübernahme durch das "Freie Frankreich" kamen de Gaulle seine Kontakte aus seiner Dienstzeit in Beirut 1929–1931 zugute. General Fouad Chehab, der spätere Staatspräsident, bildete einen Freiwilligenverband von 20.000 Mann, der damals zu Beginn der Kampagne des Freien Frankreich einen erheblichen Teil des Truppenkontingents ausmachte. Mehrere französische Kolonialbesitzungen, vornehmlich in Afrika, darunter Kamerun und Tschad, später ab 1942 Diego Suarez auf Madagaskar und Dakar in Französisch-Westafrika, unterstellten sich im Laufe des Krieges dem von de Gaulle organisierten Freien Frankreich, das von seinem "Comité National Français" regiert wurde. Er sorgte besonders dafür, dass Frankreich im Lager der Alliierten durch seine Freien Französischen Streitkräfte (FFL), die an verschiedenen Fronten den Kampf fortsetzten, stets präsent blieb. Unter anderem förderte er dank Colonel Passy, Pierre Brossolette und besonders Jean Moulin die Résistance. Mit der Transformation zum "France combattante" (kämpfendes Frankreich) strich er die politische Einheit des "France libre" mit der "Résistance intérieur" heraus. Er stützte sich seit Juni 1940 auf das Freie Frankreich und verteidigte fortdauernd die Interessen Frankreichs im Krieg und für die Zeit danach, was in seinem Ausspruch gipfelte „Frankreich hat keine Freunde, es hat nur Interessen.“ Damit zitierte er einen damals bekannten Satz von William Ewart Gladstone (1809–1898). Dieser war ein viermaliger britischer Premierminister und einer der bedeutendsten britischen Politiker in der zweiten Hälfte des 19. Jahrhunderts. De Gaulle konnte Churchill zur Unterzeichnung des "accord des Chequers" (7. August 1940) bewegen, demzufolge Großbritannien die Integrität aller französischen Besitzungen und die „integrale Restauration und Unabhängigkeit und die Größe Frankreichs“ erhalten sollte. Außerdem erbot sich die britische Regierung, die Ausgaben des Freien Frankreichs zu finanzieren; de Gaulle bestand aber darauf, dass die Summen rückzahlbare Vorschüsse und keine Spenden waren, die später einen Schatten auf ihn und die Unabhängigkeit seiner Organisation geworfen hätten. Die Vorschüsse wurden noch vor Ende des Krieges zurückgezahlt. Trotz der Verträge zwischen Churchill und de Gaulle waren die Beziehungen angespannt. Mit Blick auf die Nachkriegsordnung bezeichnete Churchill de Gaulle in Telegrammen als „größten einzelnen Feind für den Frieden in Europa“ und „schlimmsten Feind Frankreichs“. Churchill kritisierte, dass de Gaulle „sich als Retter Frankreichs aufspielen will, ohne einen einzigen Soldaten zur Operation beizusteuern“ und dass de Gaulles Verhalten und Persönlichkeit das größte Hindernis für die Beziehungen zwischen Frankreich und den Angloamerikanern seien. Über die Invasion in der Normandie informierte Churchill de Gaulle erst fünf Tage vor der Landung. Auch die Beziehungen zu Franklin D. Roosevelt waren nicht ungetrübt; der amerikanische Präsident hatte kein Vertrauen zu de Gaulle. De Gaulle unterstellte den Amerikanern Arroganz und sagte: „Ich bin zu arm, um mich zu beugen.“ Roosevelt unterstellte de Gaulle diktatorische Absichten. Sieg. Trotz seines Ausschlusses von der anglo-amerikanischen Landung in Nordafrika (Operation Torch) durch Roosevelt und vor allem trotz dessen Unterstützung für Admiral François Darlan und General Henri Giraud, die nach der Landung in Nordafrika das Vichy-Regime mit US-amerikanischer Duldung in Algier fortzusetzen suchten, gelang es de Gaulle im Mai 1943, in Algier Fuß zu fassen. Er schuf von dort das französische Komitee für die nationale Befreiung (CFLN), um die politischen Richtungen des befreiten Frankreichs zu vereinigen, und stand alsbald an dessen Spitze. Das CFLN nahm im Juni 1944 den Namen ‚Gouvernement provisoire de la République Française‘ (GPRF) an und zog am 25. August 1944 in das befreite Paris ein, wo tags darauf auf der Avenue des Champs-Élysées ein von de Gaulle angeführter öffentlicher Triumphzug stattfand. Es gelang de Gaulle, eine alliierte Militärregierung für die besetzten Gebiete in Frankreich zu verhindern und schnell den Forces françaises libres die Regierungsgewalt für die befreiten Gebiete zu übertragen. In weiten Teilen der Bevölkerung wurde er als Befreier gefeiert, obwohl er bei der Landung in der Normandie und dem folgenden Vormarsch der Alliierten keine militärische Rolle gespielt hatte. Als de Gaulle sich nach dem Einmarsch in Paris "nicht" zuerst bei den Kämpfern der Forces françaises de l’intérieur (FFI) für ihre Unterstützung bedankte, sondern bei den Gendarmes (die erst am letzten Tag die Seiten gewechselt hatten), verstörte er damit viele Résistants. Auch damit wollte er jede Auseinandersetzung unter den bewaffneten Franzosen vermeiden, die den Alliierten einen Anlass für eine Besatzungsregierung geliefert hätte. Gleichzeitig erklärte er mit seiner Rückkehr in das Kriegsministerium die Kontinuität der Dritten Republik und die Illegitimität des Vichy-Regimes. Das Regime floh (als die Besatzungstruppen der Wehrmacht sich angesichts der Operation Dragoon zurückziehen mussten) in deren Gefolge nach Sigmaringen. De Gaulle wollte die Säuberungsaktion gegen französische Kollaborateure nicht den Siegermächten überlassen, sondern betrachtete dies als originäre Aufgabe der Franzosen. Am 4. April 1944 nahm das CFLN zwei kommunistische Kommissare auf. Am 27. November 1944 amnestierte de Gaulle den bei Kriegsbeginn in die Sowjetunion desertierten Generalsekretär der KPF Maurice Thorez; im Februar 1945 erreichte er auf der Konferenz von Jalta die Anerkennung Frankreichs durch die drei großen Alliierten als eine der zukünftigen Besatzungsmächte Deutschlands. Anfang Dezember 1944 unterzeichnete de Gaulle einen auf 20 Jahre abgeschlossenen Hilfs- und Freundschaftsvertrag mit der UdSSR. Im Januar 1945 kam es zwischen de Gaulle und den USA zu Unstimmigkeiten bezüglich der Verteidigung Straßburgs während eines deutschen Gegenangriffes. De Gaulle präsentierte seine Visionen der politischen Organisation eines demokratischen Staates am 16. Juni 1946 in Bayeux. Diese Reformen betrafen besonders ein modernes staatliches Sozialsicherungssystem und beinhalteten auch das Frauenwahlrecht. Unmittelbare Nachkriegszeit. Bereits am 16. Mai 1945 erreichte de Gaulle die Aufnahme Frankreichs in den Weltsicherheitsrat der UNO als ständiges Mitglied. Nach dem Krieg wurde er am 13. November 1945 zum Ministerpräsidenten der provisorischen Regierung ernannt, trat aber nach Meinungsverschiedenheiten mit den seit den Wahlen im Oktober das Parlament dominierenden Sozialdemokraten und Kommunisten am 20. Januar 1946 zurück, weil er die neu ausgearbeitete Verfassung der Vierten Republik missbilligte. Er verlangte eine stärkere Stellung des Staatspräsidenten in der Verfassung, während die Mehrheit in der Nationalversammlung die Macht beim Parlament konzentrieren wollte. Möglicherweise ging de Gaulle davon aus, dass man ihn in das Amt zurückrufen würde, was seine Position gestärkt hätte. Als dies nicht geschah, gründete er 1947 eine politische Bewegung, das Rassemblement du Peuple Français (RPF), um auf diesem Weg eine neue Verfassung durchzusetzen. Als dies misslang, zog er sich 1953 nach Colombey-les-Deux-Églises zurück. 1947 hielt er zwei als bedeutend geltende Reden: am 7. April 1947 in Straßburg und am 27. Juli 1947 in Rennes. Gründung der Fünften Republik (1958). Im Anschluss an den Misserfolg der Vierten Republik in Französisch-Indochina und im Zuge des Putsch d’Alger während des Algerienkrieges und der daraus folgenden konstitutionellen Krise ließ sich de Gaulle vom Staatspräsidenten René Coty am 1. Juni 1958 zum Ministerpräsidenten nominieren, vom Parlament wählen und mit den von ihm geforderten weitreichenden Notstandsmachtbefugnissen für sechs Monate ausstatten. Er nutzte diese Gelegenheit, um eine neue Verfassung beschließen zu lassen. Im September nahm das Volk in einem Referendum die neue Verfassung mit 83 % an, wodurch die Fünfte Republik entstand. Alle Kolonien – Algerien wurde nicht als Kolonie, sondern Bestandteil der Republik betrachtet – konnten wählen, ob sie an der Abstimmung teilnehmen oder ihre sofortige Unabhängigkeit wählen wollten – unter Fortfall aller weiteren französischen Unterstützung. Alle Kolonien nahmen an dem Referendum teil – mit Ausnahme Guineas. Im November gewann de Gaulle die Parlamentswahlen und erhielt eine komfortable Mehrheit. Am 21. Dezember wurde er in indirekter Wahl mit 78 % der Stimmen zum Präsidenten der Republik gewählt. Präsidentschaft der Republik. De Gaulle übernahm die Funktionen des Präsidenten der Republik am 8. Januar 1959. Er ergriff einschneidende Maßnahmen, um das Land zu revitalisieren, besonders die Einführung des neuen Franc (der 100 alten Francs entsprach). Er lehnte die Dominanz der USA und der Sowjetunion in der internationalen Szene ab und behauptete mit dem Aufbau der Force de frappe (erster Kernwaffentest am 13. Februar 1960) Frankreich als unabhängige Großmacht, welche mit einer eigenen Nuklearschlagkraft ausgestattet wurde, die letztlich die Großbritanniens übertraf. Als Gründungsmitglied der Europäischen Wirtschaftsgemeinschaft (EWG) legte de Gaulle zweimal – am 14. Januar 1963 und am 19. Dezember 1967 – sein Veto gegen den Beitritt Großbritanniens ein. Letztlich trat Großbritannien erst zum 1. Januar 1973 der EG bei. Im April 1962 wurde der Premierminister Michel Debré durch Georges Pompidou ersetzt. Im September 1962 schlug de Gaulle vor, die Verfassung dahingehend zu ändern, den Präsidenten der Republik durch eine Direktwahl zu wählen. Die Reform der Verfassung trat trotz des Widerstandes des Parlaments in Kraft. Im Oktober votierte die französische Nationalversammlung für einen Misstrauensantrag gegen die Regierung Pompidous, aber de Gaulle lehnte die ihm vom Premierminister angebotene Demission ab und entschied sich, die Nationalversammlung aufzulösen. Aus den Neuwahlen ging die gaullistische Parlamentsmehrheit gestärkt hervor. Die Präsidentschaftswahlen fanden am 5. und 19. Dezember 1965 statt; in der Stichwahl de Gaulle gegen François Mitterrand erhielt de Gaulle 55,2 % der Stimmen. Außenpolitik. Staatsbesuch in Bonn im September 1962 De Gaulle sprach sich zunächst für eine Einheit des Mutterlandes und der Überseegebiete aus, auch die maßgeblich durch ihn geprägte Verfassung der Fünften Republik sah eine Unabhängigkeit nicht vor. Unter dem Eindruck des Algerienkriegs ermöglichte im September 1959 eine Verfassungsänderung den früheren Kolonien Unabhängigkeit unter fortbestehendem französischen Einfluss im Rahmen der Communauté française. Die Bürde Algeriens („boulet algérien“) reduzierte beträchtlich die französische Manövrierfähigkeit. Am 18. März 1962 unterzeichnete er in Évian-les-Bains die Verträge von Évian; diese sicherten Algerien das Recht auf eine Volksabstimmung zu. Diese fand am 8. April 1962 statt. Die Politik der „nationalen Unabhängigkeit“ („l’indépendance nationale“) und der Lösung von „amerikanischer Bevormundung“ wurde ab dann verstärkt. Am 19. Dezember 1965 wurde er für ein weiteres Mandat von sieben Jahren zum Präsidenten der Republik wiedergewählt: er gewann den zweiten Wahlgang gegen François Mitterrand mit 55,19 % (13.083.699 Stimmen). Seine Gegner warfen ihm seinen Nationalismus und die abgeschwächte Wirtschaftskonjunktur in Frankreich vor. International förderte de Gaulle die Unabhängigkeit Frankreichs weiter: Er trat 1962 nachdrücklich für ein „Europa der Vaterländer“ (siehe auch Intergouvernementalismus, Souveränismus) unter der Führung Frankreichs ein, zu dem er neben den EWG-Staaten (ohne Großbritannien) Polen, die Tschechoslowakei, Ungarn, Rumänien, Bulgarien und Griechenland gewinnen wollte. Dafür nahm er den Rücktritt von Ministerpräsident Michel Debré (1912–1996) in Kauf. In seiner Deutschlandpolitik setzte er 1945 die Ruhrfrage, die 1948/1949 zur Einrichtung des Ruhrstatuts führte, auf die internationale politische Tagesordnung. Nachdem seine Regierung zunächst das Ziel verfolgt hatte, das Saarland sowie das Rheinland und Westfalen einschließlich des Ruhrgebiets von Deutschland zu lösen, nahm er zusammen mit den anderen Westalliierten anschließend großen Einfluss auf die Bildung einer in den Westen integrierten Bundesrepublik Deutschland. Am 9. September hielt er in Ludwigsburg auf Deutsch eine vielbeachtete "Rede an die deutsche Jugend." Sie gilt als ein Meilenstein in den deutsch-französischen Beziehungen und als ein entscheidender Schritt auf dem Weg zum deutsch-französischen Freundschaftsvertrag (Januar 1963). De Gaulle verurteilte die Militärhilfe der USA an die Republik Vietnam gegen die vom Việt Minh geführte kommunistische Rebellion der Volksrepublik Vietnam und forderte die USA im Interesse eines dauerhaften Friedens zum Abzug ihrer Truppen auf. Er verurteilte 1967 den israelischen Gegenschlag gegen die ägyptische Blockade der Meerenge von Tiran während des Sechstagekriegs (Juni 1967) und die dauerhafte Besetzung des Gazastreifens und des Westjordanlands. Unter de Gaulle näherte sich der einst engste Verbündete Israels, Frankreich, der arabischen Welt, insbesondere Ägypten, aber auch Syrien und Libanon an, verhängte ein Waffenembargo gegen Israel, ließ die bereits bezahlten Mirage-Kampfflugzeuge nicht ausliefern und überließ es von da an den Amerikanern, Israel mit Waffen zu beliefern. Zur Haltung de Gaulles trugen auch die zunehmenden israelischen Operationen im bis dahin prowestlichen Libanon ab 1967 bei. De Gaulle hatte 1929–1931 (s. o.) im damals als Völkerbundsmandat französisch verwalteten Libanon gelebt und war persönlich eng mit zahlreichen Persönlichkeiten der seit Jahrhunderten frankophonen libanesischen Oberschicht verbunden, die ihn auch zum Teil bei der Kampagne des "Freien Frankreichs" 1941–1945 von Anfang an unterstützt hatten. Bis zur Präsidentschaft von Jacques Chirac (1995–2007) war die israelkritische, proarabische Orientierung französischer Außenpolitik eine gaullistische Konstante. 1958 lehnte de Gaulle die Unterstellung der französischen Mittelmeerflotte unter das NATO-Kommando ab. 1964 beendete de Gaulle das amerikanische Projekt einer multilateralen Atomstreitmacht (MLF), welche, unter internationaler Kontrolle stehend, zum Schutze Europas eingesetzt werden sollte. Zwei Jahre später forderte de Gaulle Strukturänderungen der NATO und drohte mit dem Austritt. Nach einem Ultimatum, in dem er den Abzug der NATO-Truppen bzw. ihre Unterstellung unter französisches Kommando forderte, zog sich Frankreich 1966 aus der integrierten militärischen Kommandostruktur der NATO zurück, blieb aber weiterhin NATO-Mitglied. Gleichzeitig wurde das europäische NATO-Hauptquartier SHAPE von Rocquencourt (Yvelines) nach Mons (Hennegau, Belgien) verlegt. Am 14. Dezember 1965 erklärte de Gaulle: „Selbstverständlich kann man auf den Stuhl wie ein Zicklein springen und rufen: ‚Europa, Europa, Europa!‘ Aber das führt zu gar nichts und bedeutet gar nichts.“ Dennoch war es Europa, das den Rahmen seiner Ambitionen festlegte, ein Europa, das selbst vom „Atlantik bis zum Ural“ geht, einen Strich durch den provisorischen Eisernen Vorhang ziehend. In der Tat war die Hauptstütze der französischen Außenpolitik die Annäherung an den anderen Schwerpunkt des Kontinents, Deutschland, während man den „Angelsachsen“ den Rücken kehrte. Sein vertrauensvolles Verhältnis zu Konrad Adenauer und seine strategische Ausrichtung verhinderten eine Wiederholung der Politik Georges Clemenceaus, die das ohnehin schwierige Verhältnis Frankreichs zu Deutschland nach dem Ersten Weltkrieg vergiftet hatte. Gemeinsam betrieben de Gaulle und Adenauer die deutsch-französische Freundschaft, die mit einem deutsch-französischen Jugendwerk und zahlreichen Begegnungen gefördert wurde. Sie gipfelte im Élysée-Vertrag am 22. Januar 1963. Den Beitritt des Vereinigten Königreichs zur Europäischen Wirtschaftsgemeinschaft versuchte de Gaulle systematisch zu verhindern. Neben der Befürchtung, die special relationship zu den USA könnte Großbritannien zu einem amerikanischen „trojanischen Pferd“ machen, sollen auch der mögliche Verlust der französischen Hegemonie in der europäischen Gemeinschaft und die Ablösung des Französischen als Arbeitssprache in Brüssel eine Rolle gespielt haben. De Gaulle war antikommunistisch eingestellt. Allerdings ging er seit seiner Rückkehr an die Macht 1958 davon aus, dass keine Bedrohung durch eine russische Invasion bestünde. Er propagierte folglich die Normalisierung der Beziehungen mit diesen „vorübergehenden“ Regimen. Die Anerkennung des kommunistischen China ab dem 27. Januar 1964 ging in diese Richtung, wie auch seine Reise in die UdSSR im Juni 1966. De Gaulle schuf mit der Communauté française (dt. Französische Gemeinschaft) ein Gegenstück zum britischen Commonwealth of Nations, wobei die Communauté Française die Außen-, Verteidigungs- und Währungspolitik bestimmte. Alle ehemaligen Kolonien führten Referenden durch, in denen die Gründung bestätigt wurde. Lediglich in Guinea entschied die Mehrheit anders. Mitglieder wurden Dahomey, Côte d’Ivoire, Gabun, Kongo, Madagaskar, Mauretanien, Niger, Obervolta, Tschad, Senegal, Mali, Togo und Kamerun. Dabei spielte auch die "Communauté Financière d’Afrique" des CFA-Franc eine große Rolle, bei der die französische Zentralbank die Parität des CFA zum FF jahrzehntelang stabil hielt. Durch Kooperationsabkommen sicherte sich de Gaulle starke französische Einflussmöglichkeiten. Ein Teil der Communauté Française schloss sich zur "Westafrikanischen Zollunion" (UDAO) zusammen. 1966 wurde sie zur "Zoll- und Wirtschaftsunion" (UDEAO) ausgebaut. Weitere Einflussmöglichkeiten schuf sich de Gaulle auch mit der Gründung der staatlichen Vorläufergesellschaft von Elf Aquitaine, ERAP, die unter dem Einfluss ihres langjährigen Chefs, des ehemaligen französischen Verteidigungsministers und Gründers des Auslandsgeheimdiensts DGSS, Pierre Guillaumat, dem französischen Nachrichtendienst eine hervorragende Tarnung und immense finanzielle Ressourcen für seine Aktivitäten in Afrika bot. Hauptsächlich in der Außenpolitik kam das gaullistische Denken vom Wesen der Nation zum Ausdruck: „eine gewisse Idee Frankreichs“. De Gaulle schöpfte seine Stärke aus dem Wissen über die Geschichte Frankreichs. Nach ihm war das Gewicht dieser Geschichte der Art, dass sie Frankreich eine besondere Position inmitten des Konzerts der Nationen gab. Für ihn und für zahlreiche Franzosen waren England und die USA nur Sprösslinge Frankreichs. Gleichfalls bewertete er die Institution der UNO als lächerlich und nannte sie „das Ding“ („le machin“), was ihn jedoch nicht daran hinderte, den ständigen Sitz Frankreichs im Weltsicherheitsrat einzunehmen. Attentat von Petit-Clamart. Jean-Marie Bastien-Thiry, ein von de Gaulle persönlich beförderter Oberst der französischen Armee, war mit dessen Algerien-Politik nicht länger einverstanden. Er beschloss daher mit Unterstützung der Organisation de l’armée secrète (OAS, "Organisation der geheimen Armee"), den Präsidenten zu entführen oder – falls sich eine Entführung als unmöglich herausstellen sollte – zu töten. Das Attentat von Petit-Clamart fand am 22. August 1962 auf einer Kreuzung in Petit-Clamart bei Paris statt. Sie existiert heute nicht mehr. Der Anschlag scheiterte, da die elf Attentäter das verabredete Signal in der Dunkelheit übersahen und das Feuer zu spät eröffneten. Obwohl das Präsidentenfahrzeug, eine Citroën DS, von mehreren Kugeln getroffen wurde, blieben de Gaulle und seine Frau unverletzt. Eine Kugel verfehlte das Präsidentenpaar jedoch nur um einige Zentimeter. „Dies hätte ein schönes, sauberes Ende gemacht“, kommentierte de Gaulle, als er sich das Loch im Wagen ansah. Obwohl das Attentat scheiterte, stoppte die OAS ihre Aktivitäten nicht. Bis heute ist de Gaulles Algerien-Politik teilweise heftig umstritten. Bastien-Thiry wurde gefasst, nach kurzem Prozess zum Tode verurteilt und hingerichtet. Seine gefassten Komplizen kamen mit zum Teil geringeren Strafen davon. De Gaulle hatte eine Begnadigung von Bastien-Thiry abgelehnt. Das Attentat von Petit-Clamart diente Frederick Forsyth als Vorlage für seinen 1971 erschienenen Roman "Der Schakal". Der Stoff wurde 1973 verfilmt. Bereits etwa ein Jahr zuvor, am 8. September 1961, war mit dem Attentat von Pont-sur-Seine ein Mordanschlag auf de Gaulle erfolgt und gescheitert. Die Attentäter hatten sich ebenfalls der OAS zugehörig erklärt. Atomstreitmacht. Überzeugt von der strategischen Bedeutung der Atomwaffe, engagierte de Gaulle das Land unter Protest der Opposition für die kostspielige Entwicklung der force de frappe, von Spöttern, die sie nur als ein „Bömbchen“ („bombinette“) ansahen, als „farce de frappe“ bezeichnet. Die Antwort de Gaulles war: „In zehn Jahren werden wir etwas haben, womit wir 80 Millionen Russen töten können. Ich glaube nicht, dass man ein Volk angreift, welches die Fähigkeit hat, 80 Millionen Russen zu töten, selbst wenn man 800 Millionen Franzosen töten könnte, vorausgesetzt, es gäbe 800 Millionen Franzosen.“ Dafür ließ er 1960 in der algerischen Wüste, ab 1966 auf dem Mururoa-Atoll im Pazifik Kernwaffentests durchführen. Nach neuesten wissenschaftlichen Erkenntnissen wurden dabei bis zu 30.000 Algerier gesundheitlich geschädigt. John F. Kennedy hatte für die französische Unterstützung bei der Berlin- und Kubakrise Hilfe in der Nuklearfrage versprochen, aber hielt sein Versprechen nicht. Die Nuklearfrage vergiftete die franko-amerikanischen Beziehungen während der ganzen 1960er-Jahre. Erst mit Richard Nixon gab es ab 1969 erstmals einen amerikanischen Präsidenten, der klar profranzösisch war. Mit ihm teilte de Gaulle seine Geringschätzung für Ideologien, multilaterale Verträge und Institutionen. Nixon umschiffte zunächst die verpflichtende amerikanische Legislative in der Nuklearfrage, bevor er offiziell den Weg der nuklearen franko-amerikanischen Zusammenarbeit öffnete. Das Gros der Arbeit war schon geleistet, und die französischen „Bömbchen“ durchaus effizient. 1968 gelang es Frankreich ohne Hilfe der Amerikaner, die Wasserstoffbombe zur Detonation zu bringen. Die Briten, deren Nuklearstreitmacht eng mit der der Amerikaner verknüpft war, fassten es als Ohrfeige auf, als de Gaulle Frankreich zur dritten Atommacht des Westens erklärte. Die force de frappe bestand aus landgestützten Mittelstreckenraketen auf dem Plateau d’Albion (mittlerweile geschlossen), seegestützten Mittelstreckenraketen auf U-Booten und Atombomben, die von Flugzeugen abgeworfen werden konnten. Nicht zuletzt um auch auf diesem Gebiet von den beiden Supermächten unabhängig zu bleiben, forcierte er den Bau eigener französischer Kampf- (der Dassault Mirage III) und Zivilflugzeuge (der Caravelle) und unterzeichnete mit Deutschland den Airbusvertrag zur Entwicklung des Großraumflugzeuges A300. Auch die europäische Trägerraketentechnik, deren ziviler Zweig ELDO mit den Europa-Raketen war, wurde von de Gaulle in diesem Zusammenhang vorangetrieben. Während François Mitterrand sich heftig gegen das Atomprogramm sperrte, übertrug de Gaulle die Aufsicht des Projekts dessen Bruder Jacques Mitterrand. Während der Amtszeit Präsident Mitterrands wurde sogar die Neutronenbombe eingeführt. Konversion des Dollarschatzes. Auf Anregung des französischen Ökonomen Jacques Rueff (1896–1978) war die Währungspolitik unter de Gaulle stark auf Gold ausgerichtet. Im Februar 1965 kündigte de Gaulle an, Währungsreserven in US-Dollar im Rahmen des Bretton-Woods-Systems in Gold umzutauschen. Bis zum Sommer 1966 erhöhte Frankreich so den Goldanteil seiner Reserven auf 86 Prozent. Im Unterschied zu anderen Ländern, die im gleichen Zeitraum Dollar in Gold tauschten, darunter auch Deutschland, beließ Frankreich das Gold nicht in den Tresoren der Federal Reserve, sondern bestand darauf, die Goldbarren nach Frankreich zu verschiffen, damit sie nicht „dem Zugriff einer fremden Macht preisgegeben“ seien. Sein Ziel einer Rückkehr zum Goldstandard erreichte de Gaulle indes nicht. Die Affaire des „Québec Libre“. De Gaulle wollte an der 100-Jahr-Feier der Nation in Kanada und der Weltausstellung 1967 teilnehmen, provozierte jedoch die Empörung der Föderalisten, als er in Montréal vor einer Menge von 100.000 Québécois ausrief: „Es lebe das freie Québec!“ („Vive le Québec libre!“), begleitet von allgemeinem, großem Beifall. Dies löste eine Regierungskrise in Kanada aus. In der Folge der Rede de Gaulles, in der er unter anderem sagte „ich werde euch ein kleines Geheimnis verraten, das Ihr niemandem weitererzählen werdet: auf meinem Weg habe ich eine Atmosphäre gesehen, die mich an die Befreiung erinnert hat“, erklärte der kanadische Premierminister Lester B. Pearson seine Worte für „inakzeptabel“. De Gaulle antwortete, dass das Wort „inakzeptabel“ selbst inakzeptabel sei, sagte die vorgesehene Visite in Ottawa ab und flog von Montréal zurück nach Frankreich. De Gaulle erklärte, mit seiner Rede den Frankokanadiern zu helfen, „sich selbst zu befreien“, da „nach einem Jahrhundert der Unterdrückung, das für sie nach der englischen Eroberung folgte, ihnen nunmehr auch das zweite Jahrhundert … in ihrem eigenen Land weder Freiheit noch Gleichheit noch Brüderlichkeit brachte“. Die "New York Times" bewertete dies als „groben Akt gaullistischer Einmischung in die inneren Angelegenheiten Kanadas“ und als „bedeutende Eskalation des Streites, der während des Besuchs General de Gaulles in Kanada begann“, einer Umfrage des "L’Express" zufolge verurteilten 56 Prozent der befragten Einwohner von Paris das Auftreten de Gaulles. Mai 1968. Die Mai-Unruhen von 1968 waren eine weitere Herausforderung. Am 24. Mai, zwei Wochen nach Beginn der Unruhen, nahm de Gaulle erstmals im Rundfunk und Fernsehen Stellung zu den Forderungen der Demonstranten und versprach vage, ein Referendum zu Reformen auf den Weg zu bringen. Gleichzeitig forderten die Demonstranten den Rücktritt de Gaulles. Am 29. Mai reiste de Gaulle heimlich nach Baden-Baden, der Zweck dieser Reise ist unklar. Ein als mögliche Erklärung oft genanntes Treffen mit General Jacques Massu hält der Historiker Norbert Frei für unwahrscheinlich, er geht viel mehr davon aus, dass „die Staatskrise in diesem Moment in eine Nervenkrise übergegangen war“. Nach seiner Rückkehr nach Colombey-les-Deux-Églises kündigte de Gaulle am 30. Mai 1968 in einer Rundfunkrede Neuwahlen an: „Als Inhaber der nationalen und republikanischen Legitimität habe ich seit 24 Stunden alle Eventualitäten, ohne Ausnahme, erwogen, die es mir ermöglichen würden, sie zu erhalten. Ich habe meine Entschlüsse gefasst. Unter den gegenwärtigen Umständen werde ich mich nicht zurückziehen. Ich werde nicht den Premierminister wechseln, der die Anerkennung von uns allen verdient. Ich löse heute die Nationalversammlung auf. Ich beauftrage die Präfekten, die Kommissare über das Volk geworden oder wieder geworden sind, die Subversion zu jeder Zeit und an jedem Ort zu verhindern. Was die Legislativwahlen angeht, so werden sie in den von der Verfassung vorgesehenen Fristen stattfinden, zumindest bis man hört, dass das ganze französische Volk mundtot gemacht wird, indem man es davon abhält, sich auszudrücken und gleichzeitig davon abhält, zu leben, durch dieselben Maßnahmen, durch die man versucht, die Studenten vom Studieren abzuhalten, die Lehrer vom Lehren, die Arbeiter vom Arbeiten. Diese Mittel sind Einschüchterung, Vergiftung und Tyrannei, ausgeübt seit langer Zeit in Folge durch organisierte Gruppen und eine Partei, die eine totalitäre Unternehmung ist, selbst wenn es schon Rivalen diesbezüglich gibt.“ Letzteres zielte auf die Kommunistische Partei Frankreichs. Nach den vorangegangenen, enttäuschenden Reden schienen seine Anhänger den de Gaulle der großen Tage wiederzuentdecken: Eine Demonstration wurde für den 30. Mai 1968 organisiert, die nach Angabe der Organisatoren von einer Million Teilnehmern, nach Angaben des Polizeipräsidiums von 300.000 Teilnehmern besucht wurde. Die Wahlen vom Juni 1968 wurden ein großer Erfolg für die Gaullisten, die 358 von 487 Sitzen erhielten. Am 13. Juli 1968 wurde Georges Pompidou als Premierminister durch Maurice Couve de Murville abgelöst. (Am 29. April 1969 trat Charles de Gaulle zurück. Bei den darauf folgenden Präsidentschaftswahlen setzte sich Georges Pompidou am 15. Juni 1969 im zweiten Wahlgang durch und wurde französischer Staatspräsident.) Das Referendum zur Regionalreform und Rücktritt. Im Februar 1969 kündigte de Gaulle an, noch im Frühjahr 1969 ein Referendum über die Reform der Regionalverwaltung und des Senats abhalten zu wollen. Wie schon 1962 sollte eine Verfassungsänderung ohne Beteiligung der Nationalversammlung durchgeführt werden. Im April kündigte de Gaulle an, dass er bei einer Ablehnung des Referendums sofort zurücktreten werde. Das Referendum erhielt somit den Charakter einer Abstimmung für oder gegen de Gaulle. In der Folge schloss sich Valéry Giscard d’Estaing mit seiner Partei der Républicains indépendants den Sozialisten an und forderte eine Ablehnung des Referendums. Obwohl das eigentliche Ziel einer Regionalreform in der Bevölkerung sehr populär war, wurde das Referendum mit 52,46 % der Stimmen abgelehnt und de Gaulle gab am 28. April 1969 kurz nach Mitternacht seinen Rücktritt vom Amt des Präsidenten der Republik bekannt. Als Interimspräsident bis zur Neuwahl im Juni 1969 fungierte ordnungsgemäß der Präsident des Senats, Alain Poher. Am 20. Juni 1969 trat der Gaullist Georges Pompidou, der am 15. Juni die Stichwahl für das Präsidentenamt gewonnen hatte, die Nachfolge von Charles de Gaulle an. Tod und Begräbnis. Nach seinem Rücktritt hielt de Gaulle sich kurz in Irland (von wo aus er per Brief wählte) auf und zog sich schließlich nach Colombey-les-Deux-Églises zurück, wo er an seinen Memoiren arbeitete. Nach einer Reise nach Spanien im Juni 1970 starb Charles de Gaulle am 9. November 1970 in Colombey-les-Deux-Églises an den Folgen des Risses eines Aorta-Tumors. Monument auf der Höhe über Colombey-les-Deux-Églises Wandbild im Office de Tourisme von Colombey Entgegen den Wünschen de Gaulles fand am 12. November 1970 in der Kathedrale Notre-Dame de Paris ein großes Requiem für ausländische Staatschefs, Präsidenten und Könige statt. Vertreten waren US-Präsident Richard Nixon, der sowjetische Staatspräsident Nikolai Podgorny, der britische Premierminister Edward Heath, Josip Broz Tito, Indira Gandhi, Fidel Castro, Olof Palme. An gekrönten Häuptern waren Kaiser Haile Selassie, der Schah von Iran, König Bhumibol von Thailand, Juliana Königin der Niederlande, König Baudouin von Belgien, der britische Thronfolger Prinz Charles, der Fürst von Monaco und der Großherzog von Luxemburg anwesend. Aus Deutschland nahmen neben Bundespräsident Gustav Heinemann die früheren Bundeskanzler Ludwig Erhard und Kurt Georg Kiesinger teil. Erinnerung. Zahlreiche öffentliche Straßen und Gebäude in Frankreich tragen seinen Namen. Im Besonderen die Place Charles-de-Gaulle in Paris und außerdem der Flughafen Paris-Roissy – Charles de Gaulle. Sein Name wurde auch dem gegenwärtig letzten französischen Flugzeugträger, der "Charles de Gaulle" gegeben. Sein Wohnhaus in Colombey, die "Boisserie," ist heute ein Museum, ebenso sein Geburtshaus in Lille. Bewertung. In seinem Nachruf in der "Zeit" schrieb Theo Sommer, de Gaulle sei ein Mann des 17. oder 18. Jahrhunderts gewesen, der die Zukunft verfehlte, weil er „Vergangenheit restaurieren“ wollte. Innenpolitisch sei er den Problemen des Landes allein mit „altfränkischer Mythologie“ nicht beigekommen, seine Außenpolitik habe sich als eine unstete Folge leerer Gesten entpuppt, sein exzentrischer Auftritt in Quebec könne schließlich nur noch belächelt werden. Sommer schreibt: „Alles in allem hat Charles de Gaulle nicht viel Bleibendes bewirkt. Sein Anspruch war größer als seine Kraft, und es lag etwas Manisches in der Art, wie er diesen Anspruch verfocht. (…) Daß er voll verfehlter Ideen war, ist offenkundig. Niemand jedoch bestreitet, daß auch seine Fehler Format besaßen.“ Régis Debray bezeichnete De Gaulle als „super-scharfsichtig“, da viele seiner Vorhersagen (vom Fall des Kommunismus bis zur Wiedervereinigung Deutschlands) sich nach seinem Tod bewahrheiteten. Der Historiker Brian Crozier urteilte, „der Ruhm De Gaulles übersteige seine Leistungen“. Nach Umfragen betrachten 70 Prozent der französischen Bevölkerung de Gaulle als die wichtigste Gestalt der gesamten französischen Geschichte. Als bleibende Leistungen de Gaulles werden vor allem der entschlossene Widerstand gegen das nationalsozialistische Deutschland und die Verfassung der Fünften Republik genannt. Selbsteinschätzung. Charles de Gaulle bezeichnete sich selbst als Monarchist: „Je suis un monarchiste, la République n’est pas le régime qu’il faut à la France.“ („Ich bin ein Monarchist, die Republik ist nicht die Regierungsform, die Frankreich braucht.“) Familie. Ein Enkel (* 1948), Sohn von Philippe, trägt ebenfalls den Namen Charles de Gaulle. Castel del Monte. Das Castel del Monte (ursprünglich "castrum Sancta Maria de Monte") ist ein Bauwerk aus der Zeit des Stauferkaisers Friedrich II. in Apulien im Südosten Italiens. Das Schloss wurde von 1240 bis um 1250 errichtet, wahrscheinlich aber nie ganz vollendet. Insbesondere der Innenausbau ist anscheinend nicht beendet worden. Von dem an dieser Stelle zuvor bestehenden Kloster "St. Maria de Monte" ist kein baulicher Rest erhalten, seine Form ist unbekannt. Lage und Architektur. Das Castel del Monte liegt im Gemeindegebiet von Andria, einer Stadt in der Umgebung von Bari, 16 km vom Stadtkern entfernt. Seine Bedeutung erhält das Bauwerk vor allem durch seine ideale Grundrissgestalt als Achteck. An den Ecken des oktogonalen Baus stehen Türme mit ebenfalls achteckigem Grundriss. Das Hauptachteck ist 25 m hoch, die Türme 26 m. Die Länge der Seiten des Hauptachtecks beträgt 16,50 m, die der Türme je 3,10 m. Eine Besonderheit ist, dass je zwei Seiten eines Turms mit den Seiten des Hauptachtecks zusammenfallen. Der Haupteingang ist nach Osten ausgerichtet. Deutungen zur Funktion und Form des Kastells. Über die Funktion der Burg ist gerätselt worden, wobei die achteckige Grundrissfigur phantastische Gedanken beflügelte. Die eher sachlichen Deutungen reichen von einem Jagdschloss bis hin zu einem Gebäude zur Aufbewahrung des Staatsschatzes. Besonders in den 1930er bis 1950er Jahren beliebt war die Deutung als "Steinerne Krone Apuliens" (Willemsen), als welche Castel del Monte angeblich die Macht Friedrichs II. symbolisieren sollte. Vermutlich waren entgegen bisherigen Annahmen nicht nur die Türme früher höher, sondern das gesamte Bauwerk um mindestens ein Stockwerk, und trat daher deutlicher hervor als heute (siehe Bild unten). Das Castel liegt auf einer Hügelspitze mitten in der kargen Landschaft und ist von weitem sichtbar. Der Bau war nicht umsonst auf eine Anhöhe gelegt worden, so dass man sich ihm von allen Seiten in Untersicht näherte. Dadurch erschien die Höhendimension größer als tatsächlich. Aus großer Entfernung sieht das Kastell wie ein Rechteck aus. Das Castel del Monte wird häufig als der Wehrbau und der Lieblingssitz Friedrichs II. bezeichnet. Allerdings gibt es einige Rätsel auf. Schon seine genaue Datierung ist nicht erwiesen. Gesichert ist, dass es in der ersten Hälfte des 13. Jahrhunderts erbaut wurde. Seine einzigartige Form hat kein eindeutiges Vorbild und auch keinen Nachfolger gefunden. Harald Keller erwähnt allerdings einen möglichen Vorgänger. Hervorgehoben wird auch die besondere Ähnlichkeit mit dem Kastell von "Khan-i-Khurra" bei Dehbid in Persien; auch einen gleichzeitigen Bau in "Erkilet" (bei Kayseri in Zentralanatolien), offenbar ein straßensperriges Kastell datiert auf 1241, hat man entdeckt. Allerdings fehlen bei allen diesen formalen Ableitungsversuchen die Nachweise, dass Friedrich II. oder sein beauftragter Bauführer tatsächliche Kenntnis von diesem Gebäude gehabt haben könnten. Angeblich soll Friedrich II. selbst an der Planung beteiligt gewesen sein. Ursprünglich hat das Kastell nach der nahen, damals schon verlassenen Kirche einer Nonnenabtei „Santa Maria del Monte“ geheißen und wurde als solches in einem Mandat des Kaisers erwähnt, dem einzigen kaiserlichen Dokument, das sich mit dem Bau von Castel del Monte befasst. Dieses Kastell ist die reifste Schöpfung der staufischen Pfalzbaukunst und eines der bedeutendsten mittelalterlichen Architekturdenkmäler überhaupt. Das Bauwerk ist voller Symbolismen. Castel del Monte erinnert beispielsweise an eine Krone, es könnte als Abbild der Reichskrone gedacht gewesen sein, die ebenfalls oktogonal ist. Acht Ecken hat auch die Pfalzkapelle in Aachen, wo Friedrich zum römisch-deutschen König gekrönt worden war, acht Ecken hat der Barbarossaleuchter in dieser Kapelle, auch die Barbarossapfalz von Hagenau, sein Lieblingsaufenthalt in Deutschland, die selbst eine Nachbildung der Pfalzkapelle Aachen ist. Es gibt also eine starke Beziehung dieses weit abgelegenen apulischen Bauwerks zur deutschen Kunst. Man kann es aber auch ansehen als eine Abwandlung des arabischen Baumusters in Achteck-Formen und Acht-Teilungen, wie es etwa im Felsendom von Jerusalem sichtbar ist, dessen Architektur der Kaiser, der sich in der Jerusalemer Grabeskirche zum König von Jerusalem krönen ließ, 1229 durch eigene Anschauung kennengelernt hatte. Sodann ist eine neuere, wesentlich kompliziertere Theorie aufgestellt worden, nach der das Castel del Monte in Abhängigkeit bestimmter Sternenkonstellationen errichtet worden sein soll, so dass angeblich zu bestimmten Zeiten des Jahres ganz bestimmte Licht- und Schattensituationen auftreten, die das Kastell zu einem überdimensionalen Himmelskalender machen. Alle diese Theorien halten jedoch einer astronomischen Überprüfung nicht stand. 1991 erschien in der Zeitschrift "Der Spiegel" noch eine weitere Theorie zweier italienischer Forscher aus Bari, die sogar eine Beziehung zwischen dem Kastell und der Cheops-Pyramide in Gizeh (Ägypten) herstellen wollte. "„In der geometrischen Formelsprache von Castel del Monte soll nämlich Friedrich II. allerlei Hinweise auf andere ihm wichtige Orte und Bauwerke versteckt haben: auf Chartres und die Kathedrale Notre-Dame, auf Jerusalem und den Felsendom. Vor allem aber wollen die Forscher im Grundriss versteckt auch ein Abbild der Cheops-Pyramide erkannt haben – samt Angaben über die Lage jener verborgenen Kammer des Pharaos, die bisher von niemandem gefunden wurde."“ Nach dieser Theorie, die mit unzähligen Zahlensymbolen arbeitet, soll irgendwann die Pyramide in Gizeh neu erforscht werden, sobald die ägyptischen Behörden dies zulassen. Auch bei dieser Behauptung wird im Wesentlichen mit Beziehungen der Architektur zur Astrologie gearbeitet, die sowohl für Castel del Monte als auch für die Cheops-Pyramide gelten sollen. Friedrich II. war erwiesenermaßen sowohl mathematisch als auch astronomisch überaus gebildet, darüber hinaus sogar astrologisch – für diese Zeit nicht ungewöhnlich – beschlagen. Die Berechnungen der italienischen Wissenschaftler weisen darauf hin, "„dass als Maßeinheit für die Burg die sakrale ägyptische Elle verwendet wurde. So erscheint es, dass der Umkreis von Castel del Monte ziemlich genau der Seitenlänge der Cheops-Pyramide entspricht: 232,92 Meter.“" Durch die Lage des Kastells wollte Friedrich sicher Bewunderung, aber auch Unterwerfung erzwingen. Außerdem haben militärstrategische Untersuchungen in den 1960er Jahren ergeben, dass man hier nicht nur gut gesehen wurde, sondern auch selbst gut sehen konnte. Hier lag ein für die Flächenbeherrschung des Gebietes geeigneter Punkt, von dem aus die Koordination der anderen militärischen Außenposten erfolgen konnte. Friedrich II. war ein ungewöhnlicher Herrscher und hatte nicht allein unter den Guelfen, sondern auch unter den Vertretern der Kirche manchen Feind, zugleich aber auch einige unverbrüchliche Freunde. 1231, nach der erfolgreichen Rückkehr aus Jerusalem, errichtete er in Unteritalien den ersten modernen Einheitsstaat mit besoldeten Beamten anstelle des Lehnssystems. Damit gewann er starken Einfluss auf die Struktur der werdenden Nationalstaaten des ganzen europäischen Westens. Gegen die Lokalfürsten von Apulien war Friedrich II. mit Konsequenz vorgegangen, hatte ihre Macht deutlich reduziert und musste daher ständig auf Gegenanschläge gefasst sein – daher u.a. der Wehrcharakter des Kastells. Aber es war entgegen früheren Ansichten kein echter Wehrbau. Gegen eine längere Belagerung wäre er wahrscheinlich schutzlos gewesen. Der Bau. Der Baustein des Mauermantels ist heller gelblicher oder grauweißer Kalkstein. Das Material des Eingangsportals und einiger ausgewählter Bauelemente ist "Breccia rossa" (= rote Brekzie), ein Konglomeratgestein, einige der Säulen in den Innenräumen sind aus grau-orangefarbenem Marmor. Der ursprüngliche Fußboden aus farbigem Mosaik ist nur noch in Spuren erhalten. Die Räume sind in zwei Geschossen um einen achtseitigen Innenhof angeordnet. Die äußeren Ecken des Oktogons sind wiederum mit acht Türmen besetzt, die jeweils mit zwei Seiten in die Mauer eingebunden sind, so dass sechs Seiten freiliegen. Nur drei enthalten Wendeltreppen, in den anderen fünf sind Räume verschiedener Zweckbestimmung, u.a. Bäder und Toiletten untergebracht. Das Eingangsportal. Dem Eingangsportal hat der Bauherr besondere Aufmerksamkeit gewidmet, wie auch in seinen anderen Bauten. Hier wird dem Besucher der Herrschaftsanspruch des Kaisers schon am Eingang vermittelt: Die schon von weitem sichtbare plastische Betonung des Portals, also seine Pilasterrahmung, der Architrav dazwischen und der Flachgiebel zitieren die Antike, die Kapitelle erinnern an die Zisterziensergotik und die flache Rechteckumfassung des oberen Portalbereiches ist von islamischer Architektur beeinflusst. Auch der farbige Prunk des Portals mutet fast orientalisch an. Die Löwen auf den Säulen gehören zur apulischen Romanik. All das wird hier in der Portalarchitektur in eine neue Einheit gebracht, genauso wie Friedrich II. selbst von Anfang an das Imperium unter seiner Herrschaft in neuem Glanz vereinen wollte. Es gibt einen schmalen Schlitz im Mauerwerk zwischen der äußeren Schale und der dadurch entstehenden inneren Portalzone. Hier konnte früher ein Fallgitter herabgelassen werden, um unerwünschten Besuch abzuhalten. Solche Sicherungsmaßnahmen gegen Feinde bestimmten – einer älteren Theorie zufolge – auch die Struktur des Gangsystems im Innern der Burg. Der Innenhof. Der Innenhof ist ebenfalls oktogonal. Die Zahl Acht ist in mehrfacher Hinsicht symbolisch bedeutsam. Die Zahl Acht verweist einerseits auf das morgenländische Urbild des achtstrahligen Sternes und symbolisiert damit die Idee des Kaisertums. Das Achteck vermittelt außerdem zwischen dem Quadrat und dem Kreis als den Symbolen der Materie und des Geistes, zwischen Diesseits und Jenseits. Daneben verweist die Zahl Acht darauf, dass nach den sieben Schöpfungstagen der achte der Tag der Neuschöpfung durch die Auferstehung ist, die Acht also der Wiederkunft Christi entspricht, mit dem sich der Kaiser in seiner Architektur und deren Zahlensymbolik hier bewusst in Verbindung brachte. Friedrich II. führte einen sehr luxuriösen Lebensstil und sammelte einige der führenden Geister um sich, nach der älteren Literatur auch in Castel del Monte, wo er bei festlichen Gelegenheiten eine Zeltstadt um die Burg herum errichten ließ. Das ließ diese Burg schon zu Friedrichs Lebzeiten in den Erzählungen der Ritter und Fahrensleute in einem sagenhaften Licht erscheinen. Dieser Theorie stehen aber andere Überlegungen entgegen, die die Forschung schon seit Längerem beschäftigen. Im Itinerar von Friedrich II. ist zumindest kein einziger Aufenthalt in Castel del Monte nachgewiesen, und auch kein anderes Dokument verweist auf einen solchen. Nach dem letzten Forschungsstand sieht der Italiener De Tommasi, der seit 1972 die Restaurierungsarbeiten leitet, die Dinge so: Demnach war Castel del Monte durchaus "bewohnbar, allerdings nur für befristete Zeiträume und eine zahlenmäßig sehr beschränkte Gruppe. Dieser bot das Kastell allerdings größten Luxus und alle erdenkliche Bequemlichkeit." Das „Castel“ war kein Kastell im eigentlichen Sinn. Es fehlen trotz einiger militärischer Aspekte die typischen und zur Verteidigung unverzichtbaren Einrichtungen wie Wassergraben, Zugbrücke usw., auch sind die Wendeltreppen links- statt rechtsdrehend. Und ein reiner Wehrbau hätte wohl in seiner Lage auch keine Rücksicht auf die Gestirne genommen, wie es Castel del Monte tut. Das Bauwerk ist kein Zweckbau, sondern Träger eines hohen, vielschichtigen Bedeutungsgehaltes. Die Gänge und Zimmer. Castel del Monte wird von einem äußerst raffinierten Gangsystem durchzogen. Man konnte durchaus nicht von jedem Eingang aus in jedes Zimmer gelangen und schon gar nicht in den Thronsaal des Kaisers. Früher glaubte man, dass der Kaiser Grund hatte, vor Attentaten auf der Hut zu sein, und dass er sich in seinem angeblichen „Jagdschloss“ dadurch sicherte, dass jeder, der ihn in seinen Räumen aufsuchen wollte, nicht anders konnte, als vorher nacheinander eine festgelegte Reihe von anderen Räumen zu passieren, in denen man ihn auf Waffen etc. untersuchen konnte. De Tommasi weist aber darauf hin, dass die verschiedenen Räume einfach verschiedene Funktionen hatten und der Gesichtspunkt der sozialen Rangfolge hier eine Rolle spielte und nicht die unbeweisbare Phantasie eines angeblichen Labyrinths zum Schutz des Kaisers. Nicht alle Räume sind direkt miteinander verbunden. Zweimal muss man im Untergeschoss in den Innenhof treten, um von dort aus in den nächsten Raum zu gelangen, d.h. Beobachter in den oberen Geschossen konnten durch einen Blick in den Innenhof genau erkennen, wer in die oberen Gemächer wollte. In den Türmen gingen die Gänge in Wendeltreppen über, die sorgfältig aus Stein gebaut waren. In anderen Pfalzanlagen und auch in den Treppentürmen der Kirchen hat man in solchen Fällen meistens Holz verwendet. Oben war der Turm mit einem kleinen Kreuzrippengewölbe abgeschlossen, dessen Kragsteine die Form von Köpfen hatten. Es handelt sich also um ein in allen Einzelheiten genau durchdachtes und in mancher Hinsicht bis heute geheimnisvolles Bauwerk. Neuere Geschichte. Castel del Monte um 1844 Von 1522 bis 1876 gehörte das Schloss der Familie Carafa, die 1552 zu Herzögen von Andria und Castel del Monte erhoben wurden. Nach Jahrhunderten in relativer Vergessenheit begann die kulturelle und baugeschichtliche Wiederentdeckung des Castel nach ersten Erwähnungen durch Pacichelli (1690) mit einer ersten systematischen Baubeschreibung durch Troyli (1749). Erst Henry Swinburne (1743–1803), der sich in seinen Reisebeschreibungen mit dem rätselhaften Bau beschäftigt, löste ein breiteres Interesse aus, das auch den Beginn der wissenschaftlichen Bearbeitungen und Auseinandersetzung mit diesem Bau europaweit markiert. Zwei jungen deutschen Architekten, Heinrich Wilhelm Schulz (1808–1855) aus Dresden und Anton Hallmann (1812–1845) aus Hannover, kommt das Verdienst zu, 1831 die erste architektonische Aufmessung und historische Dokumentation des Bauwerks vorgenommen zu haben. Ziel ihrer Arbeiten war dabei „die Bestandsaufnahme mit Vermessung und Baubeschreibung sowie die historische Verortung des Bauwerks auf dem Wege systematischer Urkundenstudien“ zu leisten, deren Ergebnisse erst posthum 1860 im Druck erschienen. Ihre Berichte allerdings, die Schulz und Hallmann noch im Winter 1835/36 in Rom vortrugen, bildeten die Grundlage und Hinweise für die beiden Franzosen, den Historiker Huillard-Bréholles (1817–1871) und den Architekten Baltard (1805–1874), die auf den Spuren der beiden Deutschen und mit Hilfe der großzügigen Mittel, die ihnen der Herzog Honoré Théodoric d’Albert Duc de Luynes zur Verfügung gestellt hatte, ihre eigene Dokumentation des Castel mit detaillierten Plänen des Bauwerks erstellen und bereits 1844 in Paris veröffentlichen konnten. 1876 wurde das Castel nach vielen Jahrzehnten des Leerstandes und der Plünderung vom italienischen Staat für 25.000 Lire erworben. Um 1900 begannen Restaurierungsarbeiten, die im damaligen Geschmack der Zeit ausgeführt wurden: Alle beschädigten Steine wurden durch Nachbildungen ersetzt, der ursprüngliche Bauzustand wurde mit modernen Materialien nachgebildet, die zwischenzeitliche Geschichte des Baus überdeckt und zugetüncht. Am Ende stand das Castel zumindest äußerlich wieder „wie neu“ da. Zu Beginn dieser ersten Restaurierungsarbeiten (weitere folgten in den 1970er und 1980er Jahren) war – wie ältere Fotografien belegen – rund um das Castel noch ein Schuttkegel von über zwei Metern Höhe vorhanden. Um die Hauptzugangstreppe freizulegen, wurde dieser Schuttberg damals ohne weitere bautechnische Untersuchung abtransportiert. Dieser Schuttkegel enthielt jedoch – wie die damaligen Akten vermerken – viele skulpierte Elemente und zerbrochene Mauerquader. Diese deuten darauf hin, dass Castel del Monte ursprünglich möglicherweise ein drittes Stockwerk aufwies. Auch die jetzt im Leeren endenden Wendeltreppen der Ecktürme würden sich damit einfacher erklären lassen als mit allen alternativen Theorien, die bisher hierzu entwickelt wurden. Dieses ursprüngliche dritte Stockwerk wurde vermutlich – wie bei vielen anderen Kastellen in Süditalien im 16. Jahrhundert, der Zeit der Herrschaft des spanischen Herrscherhauses Bourbon im Königreich Sizilien – abgebrochen, um im Zeitalter der Kanonen dessen Angriffsfläche zu reduzieren. Moderne Vermessungen unter Wulf Schirmer 1990–1996 haben die Basis für eine sachliche Beschäftigung mit dem Bauwerk "Castel del Monte" geschaffen. Castel del Monte ist seit 1996 UNESCO-Welterbe und seit 2001 auf der Rückseite der italienischen 1-Cent-Münze abgebildet In dem Film "Der Name der Rose" ist nach dem Vorbild des Castel del Monte in noch gesteigerter Höhe das geheimnisvolle "Ädificium" gebaut worden, das die Bibliothek enthält, um die sich die ganze Handlung des Romans von Umberto Eco dreht. ISO-Container. ISO-Container sind genormte Großraumbehälter (Seefracht-Container, engl. "freight containers") aus Stahl, die ein einfaches und schnelles Verladen, Befördern, Lagern und Entladen von Gütern ermöglichen. Die einschlägigen Normen (z.B. Maße, Halterungen, Stapelbarkeit) wurden koordiniert von der Internationalen Seeschifffahrts-Organisation (IMO) beschlossen und sind in der ISO-Norm 668 festgelegt. Container für Luftfracht sind nach den Standards der International Civil Aviation Organization (ICAO) genormt und unterliegen anderen Regeln. Allgemeines. Container im Hafen von Barcelona Container für Seefracht können eine Transportkette über Land und Wasser durchlaufen, ohne dass einzelne Gebinde in Häfen und/oder Bahnhöfen umgeladen werden müssen. Im Landverkehr auf der Straße sind diese Vorteile der Container gegenüber Trailern und Wechselbehältern nicht bedeutsam. Man unterscheidet zwischen FCL-Verladung "(Full Container Load)", bei der der Versender den Container selbst belädt und der Empfänger selbst entlädt und LCL-Verladung "(Less than a Container Load)", bei der der Versender die Ware per Stückgut an den Transporteur sendet, der diese zusammen mit Stückgut-Sendungen anderer Versender in den Container verlädt und im Zielhafen wieder entlädt und per Stückgut an die Empfänger verteilt. Die am weitesten verbreiteten ISO-Container haben eine Breite von 8 Fuß (2,4384 m) und sind entweder 20 Fuß oder 40 Fuß (12,192 m) lang. Daraus ergeben sich die als Beladungs-Maßeinheiten verwendete Abkürzungen „TEU“ "(Twenty-foot Equivalent Unit)" und „FEU“ "(Forty-foot Equivalent Unit)"; es wird z. B. zur Benennung der Ladefähigkeit von Containerschiffen, von Umschlagsmengen in Häfen oder von Güterbahnhöfen verwendet. Vor allem im internationalen Warenverkehr ist es üblich, für ISO-Container die englischen Bezeichnungen zu verwenden. Die deutschen Bezeichnungen sind daher teilweise nicht geläufig. Container sind so stabil gebaut, dass sie in mehreren Lagen übereinander gestapelt werden können. „Nach ISO-Minimalanforderungen können sechs voll beladene Container übereinander gestapelt werden. Viele Container sind allerdings auf eine Stapelhöhe von neun und mehr vollen Behältern ausgelegt.“ Je nachdem ob im Laderaum oder an Deck des Containerschiffs gelagert wird, sind weitere Einflüsse wie Wind und Wellenschlag zu beachten, die zu den Schiffsbewegungen (Quer- und Längsbeschleunigung) hinzu kommen. An Deck werden die Container mit sogenannten Twistlocks und Laschstangen/Spannschrauben gesichert, im Laderaum meistens durch Zellgerüste bzw. Cellguides. Da zwei 20'-Container zusammen 76 mm kürzer sind als ein 40'-Container, die Cellguides aber vielfach für 40'-Container bemessen sind, kommen in solchen Fällen zwischen zwei 20'-Containern sog. Staustücke "(Twist Stacker)" zum Einsatz, um ein Verrutschen verhindern. Es gibt verschiedene Spezialversionen der Container, so z.B. Kühlcontainer für verderbliche Fracht, Tankcontainer für flüssige und gasförmige Substanzen, Auto-Container für den Pkw-Transport, Wohncontainer für provisorische Unterkünfte oder Container für die Beförderung lebender Tiere. Jeder Container besitzt eine eigene Nummer. Sie besteht aus vier Großbuchstaben, dem sogenannten Präfix, die für den Eigentümer des Containers stehen, und sechs Ziffern plus eine Kontrollziffer. Durch sie können Weg und Aufenthaltsort jedes einzelnen Containers auf seiner Reise verfolgt werden. Die standardisierte Containerecke "(corner casting)" ermöglicht das einfache Stapeln und Verladen a>) an einem Lkw-Sattelauflieger mit Handrad und Sicherung Vollcontainerschiffe werden nach ihrer Transportkapazität in Generationen eingeteilt. 2013 hatten die größten Containerschiffe der Triple-E-Klasse eine Kapazität von rund 18.270 TEU. Die Klassifikationsgesellschaft Germanischer Lloyd hatte eine Studie erstellt, nach der Containerschiffe über 20.000 TEU fassen können. Geschichte. Als Urheber der Maße des ISO-Containers gilt der US-Amerikaner Malcom P. McLean, der 1956 zum ersten Mal Großbehälter für den Transport auf Lkw und Schiffen einsetzte. Um das übliche Umladen im Hafen einsparen zu können, soll er als junger Fuhrunternehmer im Jahr 1937 die Idee gehabt haben, zuerst ganze Lastwagen auf Schiffe zu verladen, später nur die Anhänger bzw. Sattelauflieger mitsamt ihren geladenen Behältnissen und schließlich nur noch die Behältnisse selbst. McLean gründete die Reederei "Sea-Land Corporation" und ließ alte Öltanker so umbauen, dass an Deck zusätzlich Container geladen werden konnten. Die erste Fahrt führte die so umgebaute "Ideal X" am 26. April 1956 mit 58 Containern von Newark (New Jersey) nach Houston (Texas). Den Durchbruch hatte der Unternehmer McLean mit der Frachtversorgung des US-Militärs während des Vietnamkriegs. Es dauerte jedoch noch zehn Jahre, bis am 2. Mai 1966 ein Schiff mit Containern, die "Fairland", in einem europäischen Hafen (Rotterdam) anlegte; vier Tage später erreichte das Schiff Bremen. Container wurden damals noch ausschließlich nach amerikanischen Normen gebaut. Da deren Maße aber nicht auf europäische Straßenverhältnisse anwendbar waren, wurden nach langen Verhandlungen die bis heute genutzten ISO-Normcontainer eingeführt. Das erste deutsche Containerschiff, die "Bell Vanguard" lief 1966 bei der Hamburger Werft J. J. Sietas vom Stapel. 1981 war die "Frankfurt Express" der Hapag-Lloyd mit einer Stellplatzkapazität von 3420 TEU das bis dahin größte Containerschiff der Welt. Aufbau. Zuerst wird die so genannte "superstructure", das Grundgerüst des Containers aus besonders stabilen Stahlteilen, montiert. An deren Ecken befinden sich die Stahlguss-Containerecken, im Fachjargon auch "corner-castings" oder schlicht "corners" genannt. Anschließend werden am Boden in Längsrichtung Streben eingezogen. Auf diesen Streben wird der Containerboden montiert, der aus mehreren Lagen von mit Schutzmitteln behandeltem Holz besteht. Die Wände des Containers bestehen aus Trapez-Stahlblech "(Corrugation)" oder seltener glattem Stahlblech (). Anschließend werden das Containerdach und die Türen montiert. Danach wird der Container mit einer schützenden Lackierung versehen und erhält seine Containernummer. Für die Reederei Hapag-Lloyd wurde 2015 ein neuer Container-Typ konstruiert, der statt eines Holzbodens einen aus Stahl hat. Durch die spezielle Konstruktion der Sicken im Stahl ist dieser Steel-Floor-Container bis zu 150 kg leichter als ältere Container. Zur Qualitätskontrolle werden mehrere Container jeder Baureihe stichprobenartig von einer Klassifikationsgesellschaft geprüft. Entsprechen die Container den Anforderungen, erhält die Baureihe die CSC-Zulassung. Die meisten Container werden heute in China produziert. Der Preis für Seecontainer schwankt aufgrund der volatilen Stahlpreise und Dollarkurse. In der Regel bewegt sich der Preis zwischen 1950 und 2300 US-Dollar. Optional können an Containern Zusatzelemente angebracht werden, darunter Standardcontainer. Für den Transport von in Faltschachteln oder Kisten bzw. auf Paletten gepackte Güter mit gewöhnlichen Abmessungen werden Standardcontainer in den Größen 20 ft, 40 ft oder 45 ft High-Cube eingesetzt. Auf dem nordamerikanischen Markt werden zunehmend High-Cube-Container (HC) mit 45′, 48′ und sogar 53′ (16,15 m) eingesetzt. Für schwere Güter (z.B. schwere Maschinenteile) stehen 20′-"heavy tested"-Container zur Verfügung (HT), die dasselbe maximale Gesamtgewicht aufweisen wie normale 40′- und 45′-Container, d.h. 30 US-Tonnen (27,21554 ISO-Tonnen [t]). Für den europäischen Markt gibt es Container mit etwas breiterem Innenraum, die es erlauben, zwei Europaletten nebeneinander einzustellen; diese werden als „Pallet Wide“ (PW) bezeichnet. Außerdem erlaubt auch der im nordamerikanischen Binnenverkehr sehr gebräuchliche 53′-Container dank seiner Innenbreite von 2,515 m den Transport von zwei Europaletten nebeneinander. Die in der Tabelle angegebenen Werte für Abmessungen und Gewichte beziehen sich auf Normwerte. In der Praxis können die Daten bedingt durch verschiedene Baureihen geringfügig abweichen. Standardcontainer sind 8 Fuß und 6 Zoll hoch (2,59 m). Weiterhin gibt es für den Großteil der Containerarten auch die Ausführung „High-Cube“ ("HC", auch als HQ „High-Quantity“ bezeichnet). Diese Container haben eine Höhe von 9 Fuß und 6 Zoll (2,90 m). Die Abmessungen sind immer so gewählt, dass Container auch mit Lkw, Eisenbahn oder Binnenschiff befördert werden können. Das Leergewicht des Standardcontainers liegt bei 2300 Kilogramm (kg) für einen 20-Fuß-Container und 3900 kg für einen 40-Fuß-Container. Die Zuladung beträgt bei 20 Fuß-Containern rund 21,7 Tonnen (t) bei 33 Kubikmeter (m³) Volumen. Ein 40-Fuß-Container fasst 26,5 t bei 67,6 m³ Volumen. Dies sind Standard-Angaben. Jedoch sollte bei der Beladung von Containern beachtet werden, dass in vielen Ländern für den Straßentransport ein Maximalgewicht inklusive Fahrzeug gilt. Ein 40-Fuß-Container, der mit 26,5 t Ladungsgewicht gepackt ist, kann in Deutschland beispielsweise auf der Straße befördert werden, weil im kombinierten Verkehr (d.h. Schiene – Straße – Wasserweg) 44 t Gesamtgewicht zulässig sind. Ein Container, sowohl 40-Fuß als auch 45-Fuß-HC, darf ein Bruttogewicht von 30.480 kg haben. Für den Transport von ISO-Containern mit Seeschiffen ist ab Sommer 2016 eine Verpflichtung vorgesehen, das Gewicht der einzelnen Container vor der Verladung festzustellen (durch Wiegen) und festzuhalten (als Bestandteil der Schiffspapiere). Hintergrund ist das „Internationale Übereinkommen zur Sicherheit auf See“ (SOLAS). Kühlcontainer (Reefer). 20-Fuß-Porthole-Container mit „Clip On Unit“ für den Lkw-Transport Blick auf die Stirnseite eines Integralcontainers mit einem Stromaggregat im Hafen (Genset) Kühlcontainer (engl. "reefer container") werden in zwei Kategorien eingeteilt: Container, die mit Kaltluft aus der schiffsfesten Ladungskühlanlage gekühlt werden (Conair-Container, Porthole-Container), und Container mit integrierter Kälteanlage (Integralcontainer, Integral-Reefer). Conair-Container sind doppelwandige, mit einer Wärmedämmung versehene Container, die auf einer Stirnseite zwei übereinanderliegende kreisrunde Öffnungen (Portholes) besitzen, die von Federverschlüssen geschützt werden. Diese Öffnungen dienen der Zu- und Abfuhr von Frischluft. Wird der Conair-Container in ein mit Conair-Kühlanlage ausgerüstetes Schiff geladen, öffnen sich die Verschlüsse, und Kühlluft, die von der zentralen Kühlanlage erzeugt wird, kann im Container zirkulieren. Diese Container wurden inzwischen von Integralcontainern abgelöst, da sie aufgrund der fehlenden Eigenständigkeit nur schwer im Inland oder auf nicht präparierten Schiffen genutzt werden konnten (Clip-On-Unit notwendig, siehe unten). Integralcontainer verfügen über eine eigene Kühleinheit, die in der der Tür gegenüberliegenden Stirnwand eingebaut ist und mit elektrischem Strom betrieben wird. Jeder Container kann separat auf eine Kühl- oder Heiztemperatur eingestellt werden, die von der eingebauten Elektronik laufend überwacht und aufgezeichnet wird. Beim Inlandstransport benötigt der Container keine Clip-On-Unit (siehe unten), sondern kann mittels eines am Lkw-Chassis montierten Gensets (Generator) mit Strom versorgt werden. Die Gesamtzahl aller Kühlcontainer betrug Ende 2012 rund 2,2 Mio. TEU. Um das zusätzliche Gewicht der Kühlanlage zu kompensieren, werden bei Integral-Reefern häufig Wände aus Aluminium verbaut. Bei den Kühlcontainern unterscheidet sich bedingt durch die Isolation des Weiteren die Innenbreite/-länge/-höhe von der eines normalen ISO-Containers. Tankcontainer. Bei Tankcontainern (englisch: tanktainer) handelt es sich um einen Tank für flüssige oder gasförmige Stoffe, der in einen Rahmen eingebettet ist, der der Superstructure einer TEU oder FEU entspricht. Je nach Transportgut können Kühl-, Heiz- oder Rühraggregate eingebaut sein. Insbesondere bei Stoffen mit hoher Dichte muss das Gesamtgewicht für die Ladeposition im Schiff bzw. das Transportmittel berücksichtigt werden. Tankcontainer erhöhen massiv die Umschlagsgeschwindigkeit gegenüber Tankwagen. Weitere Containerarten. Auf der Grundlage der ISO-Container haben sich weitere Containertypen entwickelt. Zerlegbare Seecontainer. Die unausgeglichenen Handelsströme zwischen Osten und Westen machen es erforderlich, leere Container zu repositionieren, also an einen Ort zu bringen, an dem diese wieder Ladung aufnehmen können. Weltweit werden ca. 30 % aller Seecontainer ohne Ladung umgeschlagen. Leere Container verursachen hohe Kosten für den Transport, Lagerung und Verladung. Der Containerverkehr wächst weltweit um ca. 7 % pro Jahr. Damit steigt der Leertransport und Lagerflächenbedarf erheblich, was zu nicht unerheblichen Kosten führt. Ein Ansatz, um das Leercontainer-Problem zu lösen, ist, die Container zusammenzuklappen. So können mehrere leere Container auf einem Stellplatz (= Slot) transportiert und gelagert werden. In der Vergangenheit hat es eine Reihe von Versuchen gegeben, die Logistikkette mit klappbaren Seecontainern zu verbessern. Diese Systeme sind jedoch alle gescheitert. Das OpenSeaContainer-Projekt greift den Ansatz der Firma Leanbox auf, die einen Container entwickelt hat, den man mit der Hilfe einer speziellen Maschine zerlegen und remontieren kann. Die Rechte an diesem See-Container sind an die „Peer Engineering Plattform“ PeerToProduct.com übergegangen. PeerToProduct hat die Konstruktionsdaten und Testresultate unter einer speziellen GNU General Public License für physische Produkte veröffentlicht. Kennzeichnung. Die großen, offen sichtbaren und visuell/optisch lesbaren Kennzeichen gemäß ISO 6346 für Container in Bauformen gemäß ISO 668 dienen der Transportabwicklung. Diese Kennzeichen dienen allenfalls mittelbar der Transportsicherheit oder dem Schutz der Ladung oder des Transportfahrzeugs. Die Container tragen verschiedene Kennzeichen als Für alle Zwecke wird bisher ein Kennzeichen des Herstellers auf dem Typenschild und eine Klarschriftkennzeichnung auf fünf der Oberflächen (Unterseite ohne Kennzeichen) verwendet. Optisch besser lesbare Codes und/oder elektronisch lesbare Kennzeichen wurden bisher nicht standardisiert. Die Kennzeichnung von Containern in Klarschrift ist nach ISO 6346 international einheitlich genormt. Diese Norm beschreibt lediglich optisch lesbare Kennzeichen in Klarschrift. Gemäß ISO 15459-2 ist die herausgebende Stelle (issuing agency) für diese Kennzeichen das "Internationale Containerbüro" Bureau International des Containers et du Transport Intermodal (BIC) mit Sitz in Paris. Tür eines Containers mit BIC-Nummer Jeder Container erhält hier bei der Registrierung seine weltweit eindeutige Containernummer, die an beiden Stirnfronten deutlich sichtbar angebracht wird. Sie besteht aus vier Standardbuchstaben (jeweils A–Z, an vierter Stelle bisher jedoch nur U), sechs Ziffern sowie einer aus allen 10 Zeichen und Stellen errechneten Prüfziffer, die eine fehlerhafte Erfassung durch Zahlendreher nahezu ausschließt. Eine Online-Überprüfung ist in einer Eingabemaske auf der Website der BIC möglich. Die Containernummer des abgebildeten Containers ist an der dritten Stelle ungenau lesbar und bietet daher ein gutes Beispiel: weder ein Q noch ein G führen hier zum Ziel (Prüfziffer jeweils 3), erst die korrekte Eingabe „LSCU 107737“ gibt die 9 zurück. Das Beispiel zeigt jedoch auch, dass Nummern mit den ähnlichen Buchstaben G und Q verwechselt werden können (oder auch andere Buchstaben mit 10 Positionen Abstand im Alphabet, wie z.B. H und R). Die Standardisierung der Container und ihrer Kennzeichen wird in der ISO-Kommission "JTC1", einer gemeinsamen Kommission der TC104 und TC122, betrieben, die von Reedern und Verladern dominiert wird. Weitere, aber nur in einzelnen Relationen verbreitete Kennzeichen nach dem Stand der Technik sind solche mit RTLS-Tags nach ISO/IEC 18000 und mit optischen Codes, auch mit Data Matrix Codes nach ISO/IEC 16022. Die Standardisierung dieser Kennzeichen entwickelt sich allmählich weiter. Im Zuge der Verbreitung der pallet-wide Container in Europa wurde die Intermodal Loading Unit (ILU) Initiative der EU gestartet. Diese zeigte Vorteile, wenn der Transport per Container und Wechselbehälter vereinheitlicht wird. Dies führte zur Einführung des ILU-Codes per Standard EN 13044, der das gleiche Format wie der bei ISO-Containern verwendete BIC-Code hat – das Internationale Containerbüro BIC verpflichtete sich, für ISO-Container nur Eigentümercodes zu vergeben, die an vierter Stelle ein U, J oder Z haben. Die neugeschaffene Vergabestelle der UIRR ("Internationale Vereinigung der Gesellschaften für den Kombinierten Verkehr Schiene-Straße") wird für Wechselbehälter nur Eigentümercodes vergeben, die an vierter Stelle ein A, B, C, D oder K enthalten – Inhaber eines BIC-U können die Ausgabe eines ILU-K mit gleicher voranstehender Ziffernfolge beantragen. Seit Juli 2011 begann die Vergabe der ILU-Codes, seit Juli 2014 werden im intermodalen Verkehr nur noch Wechselbehälter mit ILU-Code akzeptiert und ab Juli 2019 müssen alle Behälter ein standardkonformes Schild tragen. Transportsicherheit und Schutz. Die Transportsicherheit der Container wird im Grundsatz nach denselben Kriterien organisiert wie vor deren Einführung (ca. seit 1968) bereits im europäischen und US-amerikanischen Eisenbahnverkehr üblich. Neu eingeführt und ebenfalls international einheitlich genormt sind gegenüber anderen Transportformen die genormten Eckbeschläge für die Handhabung. Neu gegenüber den seinerzeit üblichen Standards im Eisenbahnverkehr (um 1968) haben die Container Anders als im europäischen Eisenbahnverkehr für Waggons üblich tragen die Container Verschlusszustand und Sicherheitsinformation. a> (Stahl mit Kunststoffmantel und Identifikationsnummer) Der Container wird durch den Versender gepackt. Dieser trägt auch die Gewähr für die ordnungsgemäße Deklaration des Inhalts (nur in den Begleitpapieren) und dessen sichere Befestigung (zur Vermeidung von Schwerpunktsänderungen). In der weiteren Handhabung durch den Frachtführer (Spediteur, Reeder) und durch den Verladebetrieb gibt es weltweit keinerlei Gebrauch von Einrichtungen, die feststellen können Daher werden alle erweiterten Maßnahmen zur Containersicherheit allein auf die Unversehrtheit des Verschlusszustandes abgestellt. Ein erkennbar geöffneter Container bleibt daher so lange stehen, bis die Unbedenklichkeit des Verschlusszustandes erneut geprüft und bescheinigt wurde. Die Transportsicherheit wird jeweils vorlaufend zum physischen Transport dokumentiert und wiederholt durch zertifizierte Transportunternehmen geprüft. Spätestens 24 Stunden vor dem Verladen wird eine verlässliche Sicherheitsinformation durch den Zoll festgestellt oder der Container bleibt stehen, bis diese Information mit demselben Zeitabstand zur Verladung verfügbar ist. Einzelheiten zum Kontrollverfahren werden fortlaufend den Risikoanalysen der Sicherheitsbehörden und des Zolls angepasst. Für Luftfrachtcontainer gibt es keinen vergleichbaren Verschlusszustand. Carotine. Carotine (von lateinisch "carota": „Karotte“) sind zu den Carotinoiden gehörige Naturfarbstoffe mit der Summenformel C40H56, die in vielen Pflanzen vorkommen, besonders in den farbigen Früchten, Wurzeln und Blättern. Sie zählen zu den sekundären Pflanzenstoffen. Chemisch handelt es sich dabei um Tetraterpene, bei denen ein bis zwei Ionon-Ringe durch eine Kohlenstoffkette mit neun Doppelbindungen verbunden sind. Deutlich abgegrenzt werden sie von den Xanthophyllen, die neben Kohlenstoff und Wasserstoff auch Sauerstoff enthalten. Die Carotine sind unpolar und deswegen fettlöslich, d. h. weiterführend auch, sie können im menschlichen Organismus nur zusammen mit zumindest einer geringen Menge Fett verwertet werden. Carotine treten in vielen Varianten auf – über 600 sind bis heute bekannt. Allen gemeinsam ist eine ähnliche Grundstruktur bei unterschiedlichen Endgruppen. Das bekannteste Carotin ist β-Carotin. Von ihm leitet sich der Name der gesamten Gruppe der Carotine ab. Es ist die wichtigste Vorstufe von Vitamin A in Lebensmitteln und wird deswegen auch als Provitamin A bezeichnet. Neben β-Carotin können auch α- und γ-Carotin und β-Cryptoxanthin in Vitamin A umgewandelt werden. Aber die einzelnen Ausprägungen, wie etwa β-Carotin, haben auch von Vitamin A unabhängige Wirkungen. In Pflanzen haben Carotine eine Funktion bei der Photosynthese und schützen sie vor schädlichen Auswirkungen der UV-Strahlen. In den Wurzeln von Pflanzen gebildet, übernehmen sie dort den Schutz vor Infektionen. Der Mensch nimmt mit seiner Nahrung in größeren Mengen α- und β-Carotin, α- und β-Cryptoxanthin und Lycopin auf. Die Funktionen und Wirkungen der Carotine im menschlichen Körper werden mehr und mehr bekannt, sind aber auch leicht umstritten. So lassen etwa neuere Studien Zweifel an der krebshemmenden Wirkung aufkommen. Eine generell zellschützende Wirkung als Antioxidantien kann ihnen aber mit Sicherheit zugeschrieben werden. Die IUPAC empfiehlt eine abweichende Nomenklatur der Carotine. So wird das Carotin entsprechend den Endgruppen benannt und mit β, ε (enthalten Jononringe) und ψ (offenkettig) gekennzeichnet. α-Carotin ist somit β,ε-Carotin, β-Carotin ist β,β-Carotin und γ-Carotin ist nach IUPAC-konformer Nomenklatur β,ψ-Carotin. Natürliches Vorkommen. α-Carotin (Alpha-Carotin) ist mit β-Carotin der Farbstoff der Mohrrübe oder Karotte und mit Lycopin das Rot der Tomate. Auch die gelben bis roten Farbstoffe in Spinat, Salat, Orangen, Bohnen, Broccoli und Paprika sind Carotine. β-Carotin (Beta-Carotin, INN: Betacaroten) ist die Vorstufe von Retinol (Vitamin A) und wird deshalb auch als Provitamin A bezeichnet. Die besten Quellen von Beta-Carotin sind tiefgelbe bis orange Früchte und Gemüse, aber auch dunkelgrüne Gemüsesorten. Verwendung als Lebensmittelfarbstoff. Aus Pflanzen extrahiertes oder synthetisch hergestelltes Beta-Carotin wird als Lebensmittelfarbe ("E 160" beziehungsweise "E 160 a", siehe Lebensmittelzusatzstoff) sowie als Beigabe zu Vitaminpräparaten verwendet. Beta-Carotin wird vielen Lebensmitteln wie zum Beispiel Butter, Margarinen, Süßwaren, Molkereiprodukten und Limonaden in teilweise sehr hohen Mengen zugesetzt, um dem Verbraucher das von ihm erwartete Bild der Ware (Farbe) zu bieten. Ansonsten wären beispielsweise Margarinen mehr oder weniger weiß bis hellgrau. Resorption im menschlichen Darm. Die Aufnahme von β-Carotin ist schlechter als von Vitamin A. Es muss etwa sechsmal so viel β-Carotin aufgenommen werden, um dem Körper die gleiche Menge Vitamin A zur Verfügung zu stellen. Die beiden Stoffe sind frei kombinierbar. Die Deutsche Gesellschaft für Ernährung (DGE) empfiehlt für gesunde Erwachsene eine tägliche Zufuhr von 0,8 bis 1,1 mg Vitamin A. Gesundheitliche Aspekte. Anders als bei Vitamin A kann es beim Menschen nach übermäßiger Zufuhr von Carotinen mit Provitamin-A-Aktivität nicht zu einer Hypervitaminose kommen. Dies liegt an der geringeren Resorptionsrate für Carotine (20–35 % für β-Carotin) sowie an der begrenzten Kapazität zur Umwandlung in Vitamin A. Die enzymatisch gesteuerte Konversion zu Vitamin A hängt von der Höhe der β-Carotin- und Proteinzufuhr, der Vitamin-E-Versorgung und der gleichzeitigen Fettzufuhr ab. Auch der Vitamin-A-Status spielt eine große Rolle: Je besser die Vitamin-A-Versorgung, desto geringer die Enzymaktivität. Der Mensch transportiert einen Großteil aufgenommener Carotinoide in unveränderter Form, während die Ratte Carotinoide nahezu vollständig konvertiert. Carotinoide finden sich in verschiedenen Organen des Menschen. Die höchsten Konzentrationen lassen sich in der Leber, der Nebenniere, den Hoden und dem Gelbkörper feststellen. Niere, Lunge, Muskeln, Herz, Gehirn oder Haut weisen dagegen geringere Carotinoidspiegel auf. Ein Überschuss an Carotinoiden als Folge der langandauernden, übermäßigen Zufuhr macht sich beim Menschen optisch als Gelbfärbung der Haut bemerkbar („Carotinodermie“, „Karottenikterus“). Betroffen sind zunächst der Bereich der Nasolabialfalten, die Palmarseite der Hände und die Fußsohlen. Die Gelbfärbung geht zurück, wenn die Überversorgung eingestellt wird. Teratogene Effekte des β-Carotin sind nicht bekannt. Sogar hohe supplementierte Tagesdosen (20–30 mg) oder eine besonders carotinreiche Ernährung über lange Zeiträume sind nicht mit einer Toxizität verbunden. Allerdings steht die mehrjährige Supplementierung von β-Carotin im Verdacht, bei Rauchern und Trinkern das Inzidenzrisiko für Lungenkrebs und Darmkrebs zu erhöhen. So wurde in einer australischen Studie im Journal of the National Cancer Institute vom 21. Mai 2003, die den Effekt als Sonnenschutzmittel untersuchen wollte, bei Rauchern und Personen, die regelmäßig mehr als ein alkoholisches Getränk pro Tag zu sich nahmen, eine doppelte Anzahl von Adenomen des Dickdarms – den Vorstufen von Darmkrebs – gefunden. Bei Nichtrauchern und Nichttrinkern reduzierte sich stattdessen deren Auftreten um 44 %. Die American Cancer Society verlangt Warnschilder auf β-Carotin-haltigen Waren, um Raucher auf ein möglicherweise gesteigertes Lungenkrebsrisiko hinzuweisen. Verordnungen des Bundesinstituts für Arzneimittel, die seit Mai 2006 in Kraft sind, berücksichtigen nur zum Teil die Ergebnisse und naheliegenden Schlussfolgerungen aus obiger Studie. Seit diesem Zeitpunkt müssen alle Medikamente, die β-Carotin enthalten, eine Warnung aufweisen, dass sie ein erhöhtes Risiko für Raucher beinhalten, an Lungenkrebs zu erkranken. Auch dürfen Medikamente mit mehr als 20 mg β-Carotin nicht mehr an Raucher verschrieben werden. Durch die Studien kann keine Aussage darüber getroffen werden, ob durch den Konsum von naturbelassenen Lebensmitteln mit natürlichem Carotingehalt eine Gefahr bestehen könnte; allerdings ist der Anteil von β-Carotin in naturbelassenen Lebensmitteln und Säften oftmals merklich geringer als in künstlich damit angereicherten. Im Rahmen der sogenannten CARET-Studie wurde in den 1990er Jahren der Effekt einer Supplementierung von täglich 30 mg β-Carotin in Kombination mit 25.000 I.E. Retinylpalmitat auf das Inzidenzrisiko für verschiedene Krebserkrankungen sowie die Mortalität untersucht. Es nahmen 18314 Personen teil, deren Inzidenzrisiko für Lungenkrebs erhöht war, weil sie entweder eine langjährige Raucherkarriere hinter sich hatten oder Asbeststaub ausgesetzt waren. Die Forscher fanden als mutmaßliche Supplementierungsfolge neben der weiteren Risikoerhöhung für Lungenkrebs auch eine erhöhte Sterblichkeit wegen Herz-Kreislauf-Erkrankung. Chemisches Element. Chemisches Element ist die Sammelbezeichnung für alle Nuklide mit derselben Ordnungszahl. Somit haben alle Atome eines chemischen Elements dieselbe Anzahl an Protonen im Atomkern. Da man mit chemischen Mitteln Atome nicht zerteilen kann, gelten sie für die Chemie als kleinste Einheit von Materie. Ein Element wird durch ein Elementsymbol bezeichnet, eine Abkürzung, die meist vom lateinischen Namen des Elements (beispielsweise Pb von "plumbum", Fe von "ferrum") abgeleitet ist. Die Elemente werden im Periodensystem nach steigender Kernladungszahl angeordnet. Insgesamt sind bis heute (2015) 118 Elemente nachgewiesen worden. a> Begriffsgeschichte. Der Begriff "chemisches" Element entstand ab dem 17. Jhdt., als zunehmend erkannt wurde, dass der Elementbegriff der Alchemie untauglich für eine wissenschaftliche Aufklärung der vielfältigen Eigenschaften von Stoffen und ihren Reaktionen miteinander ist. Einen maßgeblichen Schritt tat Etienne de Clave, der 1641 die Definition gab, Elemente seien "einfache Stoffe, aus denen die gemischten Stoffe zusammengesetzt sind und in welche die gemischten Stoffe letztlich wieder zerlegt werden können." Robert Boyle veröffentlichte 1661 unter dem Titel "The Sceptical Chymist" eine einflussreiche Kritik an den Unzulänglichkeiten der Alchemie. Darin führte er aus, dass man unter chemischen Elementen diejenigen primitiven Stoffe verstehen sollte, "die weder aus anderen Substanzen noch auseinander entstanden sind, sondern die Bestandteile bilden, aus denen gemischte Stoffe bestehen." Beide Forscher stellten sich damit einerseits in Gegensatz zur herrschenden Vier-Elemente-Lehre der Alchemisten, die alle Stoffe durch unterschiedliche Mischungen von Feuer, Wasser, Luft und Erde zu erklären suchte, und machten den Begriff Element überhaupt der näheren experimentellen Erforschung zugänglich. Andererseits blieben sie der Alchemie verhaftet, indem sie annahmen, einzeln könnten diese Elemente nicht in der Wirklichkeit vorkommen, vielmehr sei jeder reale Stoff eine Mischung sämtlicher Elemente gleichzeitig. Boyle bezweifelte, dass es solche Elemente überhaupt gibt. Ganz im Geist der damals aufkommenden Mechanik nahm er an, die einheitlich erscheinenden Stoffe bestünden aus einheitlichen kleinen Teilchen, die ihrerseits in jeweils wohlbestimmter Weise aus kleinsten "Korpuskeln" zusammengesetzt sind. Die Vielfalt der Stoffe und ihrer Reaktionen erklärte er durch die die unzähligen möglichen Arten, in denen sich die Korpuskeln zu diesen, für jeden Stoff charakteristischen Teilchen verbinden können. Als Folge einer Umlagerung der Korpuskel sah er auch die in der Alchemie gesuchte "Transmutation" als möglich an, d. h. die Umwandlung eines Elements (z. B. Blei) in ein anderes (z. B. Gold). Doch war Boyle damit der Wegbereiter für Antoine Laurent de Lavoisier, der zwar die Korpuskeln als metaphysische Spekulation abtat, aber 1789 die chemischen Elemente dadurch charakterisierte, dass sie nicht in andere Substanzen zerlegt werden konnten. Genauer: alle Stoffe sollten als elementar, d.h. nicht zusammengesetzt, gelten, solange keine Methoden zur weiteren Abtrennung einzelner Bestandteile gefunden wären. Auf diese Definition gestützt, eröffneten Lavoisiers außerordentlich genaue Beobachtungen an chemischen und physikalischen Stoffumwandlungen den Weg zur modernen Chemie. Insbesondere entdeckte er die Erhaltung der Gesamtmasse bei allen Stoffumwandlungen und bestimmte die genauen Massenverhältnisse, in denen reine Elemente miteinander reagieren. So wurde John Dalton auf das Gesetz der multiplen Proportionen geführt, das er 1803 durch die Annahme der Existenz unveränderlicher und unzerstörbarer kleinster Materieteilchen, der Atome, wissenschaftlich begründen konnte. Nach Dalton wird ein Element durch eine Sorte einheitlicher Atome definiert, die sich nach festen Regeln mit anderen Atomen verbinden können. Das unterschiedliche Verhalten der Elemente wird dadurch erklärt, dass ihre Atomsorten sich in Masse, Größe und Bindungsmöglichkeiten zu anderen Atomen unterscheiden. Daraus entsteht u.a. die Möglichkeit, die Atommassen der verschiedenen Elemente zu bestimmen (wenigstens relativ zueinander), wodurch die Atome erstmals zum Gegenstand der experimentellen Naturwissenschaft wurden. Daltons Ansatz erwies sich in der Interpretation der chemischen Reaktionen und Verbindungen als außerordentlich erfolgreich. Seine Definitionen von Element und Atom wurden daher beibehalten, auch als die Annahmen der Unveränderlichkeit der Atome (insbesondere ihrer Unteilbarkeit) und der Gleichheit aller Atome desselben Elements durch Beobachtungen an den 1896 entdeckten radioaktiven Elementen endgültig widerlegt wurden: 1902 erklärte Ernest Rutherford in seiner Transmutationstheorie die radioaktiven Zerfallsreihen als Folge von Teilungen der Atome und weiteren Elementumwandlungen. 1910 entdeckte Frederick Soddy, dass Atome desselben radioaktiven Elements in verschiedenen Zerfallsreihen mit verschiedener Masse auftreten können (Isotopie). Ab 1920 wurden diese Erscheinungen dann an allen Elementen gefunden. In der ersten Hälfte des 20. Jhdt. wurde der Atombau dahingehend geklärt, dass das chemische Verhalten weitestgehend von der negativ geladenen Elektronenhülle des Atoms bestimmt wird, die ihrerseits durch die positive Ladung des Atomkerns bestimmt ist. Daher geht der heutige Begriff des chemischen Elements von der elektrischen Ladung des Atomkerns aus. Sie ist durch die Anzahl der im Kern vorhandenen Protonen gegeben, die daher als chemische Ordnungszahl des Atoms bzw. des Elements bezeichnet wird. Rückblickend auf die ursprünglichen Definitionen für den Begriff "Element" von Clave, Boyle und Lavoisier (s.o.) und auch auf die Boyleschen "Korpuskeln" scheint es, dass die besten Realisierungen dieser seinerzeit hypothetischen Vorstellungen nicht durch die heutigen chemischen Elemente und Atome, sondern durch die Atombausteine Proton, Neutron, Elektron gegeben sind. Entdeckungsgeschichte. In der Antike und bis weit ins Mittelalter war man der Auffassung, dass die Welt aus den vier Elementen Erde, Wasser, Luft und Feuer aufgebaut ist. Von den Elementen im heutigen Sinne waren in der Antike nur wenige in Reinform bekannt, die entweder gediegen vorkamen oder aus Erz geschmolzen werden konnten: Kohlenstoff, Schwefel, Eisen, Kupfer, Zink, Silber, Zinn, Gold, Quecksilber und Blei. Im Laufe der mittelalterlichen Bergbaugeschichte wurden dann, vor allem im Erzgebirge, in Erzen geringe Mengen an Beimengungen unbekannter Metalle entdeckt und nach Berggeistern benannt (Cobalt, Nickel, Wolfram). Die Entdeckung des Phosphors 1669 durch Hennig Brand läutete schließlich das Zeitalter der Entdeckung der meisten Elemente ein, einschließlich des Urans aus Pechblende durch Martin Heinrich Klaproth 1789. Vor dem "Jahre 1751" waren folgende Nebengruppenelemente bekannt: Eisen, Cobalt, Nickel, Kupfer, Zink, Silber, Platin, Gold sowie Quecksilber, ferner die Hauptgruppenelemente Kohlenstoff, Phosphor, Schwefel, Arsen, Zinn, Antimon, Blei und Bismut. Vom "Jahre 1751" bis zum "Jahre 1800" kamen noch Wasserstoff, Titan, Chrom, Mangan, Yttrium, Zirconium, Molybdän, Wolfram, Uran hinzu, ferner Stickstoff, Sauerstoff, Chlor, Tellur. In der Zeit vom "Jahre 1800" bis zum "Jahre 1830" waren insgesamt zweiundzwanzig neue Elemente entdeckt worden, die Nebengruppenelemente Vanadium, Tantal, Rhodium, Palladium, Cadmium, Osmium, Iridium und die seltene Erde Thorium, die Hauptgruppenelemente Lithium, Beryllium, Natrium, Magnesium, Kalium, Calcium, Strontium, Barium, Bor, Aluminium, Silicium, Selen, Iod und Brom. Elf weitere Elemente traten zwischen dem "Jahre 1830" bis "1869" hinzu. Sie waren auch ein Marker für den technisch-wissenschaftlichen Entwicklungszustand, denn es wurden auch schwer auffindbare und seltene Elemente entdeckt und beschrieben. Es waren Helium, Rubidium, Caesium, Indium, Thallium, Niob, Ruthenium, Lanthan, Cer, Terbium, Erbium. Im Laufe des 19. Jahrhunderts wurden die Metalle der Seltenen Erden entdeckt, womit fast alle natürlich vorkommenden Elemente bekannt waren. In dieser Zeit wurden auch viele hypothetische Elemente postuliert, die später wieder verworfen wurden so etwa das Nebulium. Im 20. und dem begonnenen 21. Jahrhundert wurden viele in der Natur nicht vorkommende Elemente – die Transurane – künstlich erzeugt, teils in Kernreaktoren, teils in Teilchenbeschleunigern. Allen diesen Elementen ist gemeinsam, dass sie instabil sind, d. h. dass sie sich unterschiedlich schnell in andere Elemente umwandeln. Mit der Entdeckung weiterer solcher kurzlebiger Elemente ist zu rechnen, sie entstehen jeweils in nur äußerst geringen Mengen. Ihren Namen erhielten die Elemente jeweils von ihrem Entdecker, was im 20. Jahrhundert zu einer Elementnamensgebungskontroverse führte. Elemente, die noch nicht erzeugt oder benannt wurden, tragen Systematische Elementnamen. Ordnungssystem. Die Elemente ordnet man nach ihrer Kernladungszahl (Ordnungszahl) und der Elektronenkonfiguration ihrer Atome im Periodensystem der Elemente (PSE) in Gruppen und Perioden an. Dieses System wurde vom russischen Gelehrten Dmitri Iwanowitsch Mendelejew zeitgleich mit dem deutschen Arzt und Chemiker Lothar Meyer 1869 begründet. Eigenschaften. Schematische Darstellung des Atoms (nicht maßstäblich; ansonsten müsste die orange Fläche ca. 5 m Durchmesser haben) Bewegliche Elektronen sind verantwortlich für den Glanz von Metallen (hier Reineisen) Viele Grundeigenschaften chemischer Elemente lassen sich aus dem Aufbau ihrer Atome ableiten. Diverse, historisch gewachsene Atommodelle, wie das erfolgreiche Bohr'sche Schalenmodell liefern dazu die theoretischen Grundlagen. Alle Atome eines Elements haben im elektrisch ungeladenen Zustand die der Protonenzahl entsprechende gleiche Anzahl Elektronen in den Elektronenhüllen. Bei der Anordnung der Elemente gemäß wachsender Protonenzahl beziehungsweise Ordnungszahl im sogenannten Periodensystem sind die Elemente zudem nach verwandten oder periodisch wiederkehrenden Eigenschaften (Schalenabschluss) gruppiert. Bei chemischen Reaktionen werden nur die Elektronen auf den Außenschalen der Reaktionspartner umgeordnet, der Atomkern bleibt hingegen unverändert. Das Bestreben, Schalen durch Abgabe oder Aufnahme von Elektronen abzuschließen und damit relativ zu stabilisieren, dominiert über den elektrischen Ladungszustand eines Atoms. Beschrieben wird dieses Bestreben durch die Elektronegativität. Schalenabschlusszustand und Ladungszustand sind damit direkt mit dem chemischen Reaktionsvermögen eines Elements gekoppelt. Edelgase, Elemente mit abgeschlossener Schale im neutralen Zustand sind reaktionsarm, sie bilden nur unter drastischen Bedingungen Verbindungen. Atome suchen primär die sogenannte Edelgaskonfiguration (Schalenstabilität) zu erreichen, auch wenn das zu Lasten der elektrischen Neutralität geht, und streben sekundär nach Ladungsausgleich der Gesamtkonfiguration. Ein noch feineres Unterscheidungsschema zur eindeutigen Identifizierung der Elektronen eines Elements liefert das Quantenzahlenquartett: Hauptquantenzahl, Nebenquantenzahl, Magnetquantenzahl, Spinquantenzahl, also quantentheoretische Elementeigenschaften. Weitere Eigenschaften der Elemente ergeben sich durch die Beachtung der Kernkonfigurationen eines Elementatoms. Kerne ein und desselben Elements können mit einer unterschiedlichen Anzahl an Neutronen bestückt sein. Diese nach der Anzahl der Neutronen verschiedenen Atome eines Elements heißen Isotope, abgeleitet von gr.: "isos topos", was sinngemäß "gleicher Platz" (im Periodensystem) bedeutet. Isotope unterscheiden sich in der Masse und zeigen bei Kernreaktionen unterschiedliches Verhalten. Identifiziert werden chemische Elemente über Nachweisreaktionen der Analytischen Chemie. Rein- und Mischelemente. Chemische Elemente, die nur eine Sorte von Atomen aufweisen, heißen Reinelemente; wenn sie dagegen aus zwei oder mehr Isotopen bestehen, heißen sie Mischelemente. Die meisten Elemente sind Mischelemente. Es existieren 19 stabile und drei langlebige instabile Reinelemente (Bismut, Thorium und Plutonium), insgesamt also 22 Reinelemente. Vom Wasserstoff existieren beispielsweise drei Isotope: Protium (keine Neutronen), Deuterium (1 Neutron), Tritium (2 Neutronen). Der Kern des am häufigsten vorkommenden Wasserstoffnuklids (99,9851 % Protium) besteht aus einem einzelnen Proton. Wasserstoff mit einem Proton und einem Neutron im Atomkern (Deuterium) tritt in natürlichem Wasserstoff nur mit einem Anteil von 0,0149 % auf, Tritium mit < 10−10 %. Der Heliumatomkern besteht aus zwei Protonen und zwei Neutronen. Es gibt aber auch das Isotop Helium-3, dessen Kern nur ein Neutron enthält. Es ist in natürlichem Helium nur mit einem Anteil von 0,000137 % vorhanden. Chlor (17 Protonen) besteht aus einer Mischung aus Isotopen mit 18 Neutronen (75,8 %) und 20 Neutronen (24,2 %). Im Periodensystem steht für Mischelemente die durchschnittliche Atommasse gemäß relativer Häufigkeit der Isotope, die darüber hinaus um den Massendefekt korrigiert wird. Das natürliche Mischverhältnis ist bei einem Element meist konstant; bei einigen Elementen kann die Isotopenzusammensetzung aber lokal schwanken. Blei zum Beispiel kann unterschiedliche durchschnittliche Atommassen aufweisen, je nachdem, aus welcher Lagerstätte es stammt. 2010 beschloss deshalb die IUPAC, dass zukünftig für die Elemente Wasserstoff, Bor, Lithium, Kohlenstoff, Stickstoff, Sauerstoff, Silicium, Schwefel, Chlor und Thallium ein Massenbereich im Periodensystem anzugeben ist. Die Begriffe "Reinstoff" und "Reinelement", sowie "Stoffgemisch" und "Mischelement" sind strikt zu unterscheiden. Chemische Verbindungen. Chemische Elemente können, bis auf einige Edelgase, chemische Verbindungen eingehen. Dabei sind mehrere der elementaren Atome zu Molekülen oder Ionenkristallen zusammengeschlossen. Bei vielen Gasen wie Chlor Cl oder Fluor F verbinden sich zwei Atome desselben Elements untereinander zu einem Molekül, hierbei Cl2 und F2. Sauerstoff bildet neben O2 auch weniger stabile dreiatomige O3-Moleküle aus, Schwefel bildet ringförmige aus sechs bis acht Atomen. Gewöhnliches Wasser (Summenformel: H2O) ist hingegen eine Verbindung aus den Elementen Wasserstoff H (2 Atome pro Molekül) und Sauerstoff (1 Atom pro Molekül). Die Entstehung von Elementen. Bereits beim Urknall entstanden die leichten Elemente Wasserstoff (ca. 75 %) und Helium (ca. 25 %), zusammen mit geringen Mengen Lithium und Beryllium. Am Anfang der Kosmochemie steht daher der Wasserstoff mit einer relativen Atommasse von ca. 1,0 u (ein Proton). Schwerere Elemente entstehen im Universum durch Kernreaktionen in den Sternen. In Hauptreihen-Sternen, wie unserer Sonne, verschmelzen unter hoher Temperatur (mehrere Millionen Grad Celsius) und hohem Druck beispielsweise vier Wasserstoffatomkerne über mehrere Zwischenstufen zu einem Heliumatomkern (relative Atommasse ca. 4,0 u). Dieser ist ein wenig leichter als die vier Protonen zusammen, die Massendifferenz wird als Energie frei. Diese Fusion (Atome mit geringerer Protonenzahl verschmelzen zu höheren) geht in den meisten Sternen bis zur Entstehung von Kohlenstoff, in massereichen bis zur Bildung von Eisen weiter, dem am dichtesten gepackten Atomkern. Dies erfolgt immer unter Abgabe von Energie, wobei die Energieausbeute mit zunehmender Ordnungszahl der gebildeten Elemente bis zum Eisen immer geringer wird. Die Fusionsreaktionen zu schwereren Kernen würden eine Zufuhr von Energie erfordern. Schwerere Elemente als Eisen entstehen deshalb nicht durch Kernfusion, sondern durch Neutroneneinfang bestehender Atome, die dabei in Elemente höherer Ordnungszahl umgewandelt werden. Dies geschieht bei massearmen Sternen im sogenannten s-Prozess, bei massereichen am Ende der Lebenszeit von Sternen während einer Supernova im r-Prozess. Die entstandenen Elemente gelangen (kontinuierlich durch Sonnenwind oder explosiv in einer Supernova) in das interstellare Medium und stehen für die Bildung der nächsten Sterngeneration oder anderen astronomischen Objekten zur Verfügung. Jüngere Sternensysteme enthalten daher bereits von Anfang an geringe Mengen schwererer Elemente, die Planeten wie in unserem Sonnensystem bilden können. Statistik der chemischen Elemente. Von den 118 bekannten Elementen (Stand 2012) sind 80 stabil. Alle stabilen Elemente kommen auf der Erde natürlich vor, ebenso 14 radioaktive (siehe Elementhäufigkeit). Weitere radioaktive Elemente wurden künstlich hergestellt, ihre Zahl wird vermutlich weiter steigen. Die Elemente lassen sich nach verschieden Kriterien unterteilen. Am häufigsten ist die Unterteilung in solche Elemente, die Metalle bilden und den Großteil der Elemente ausmachen, sowie in Nichtmetalle und die Zwischenstufe Halbmetalle. Zur Gruppe der Nichtmetalle gehören nur 17 aller Elemente, diese bilden bei Standardbedingungen keine Metalle. Davon liegen die sechs Edelgase einatomig vor, weil deren Atome keine Moleküle bilden, d. h. nicht miteinander reagieren. Dagegen verbinden sich andere mit Atomen des gleichen Elements zu Molekülen. Dazu zählen die weiteren fünf unter Normalbedingungen gasförmigen Elemente: Wasserstoff (H2), Stickstoff (N2), Sauerstoff (O2), Fluor (F2) und Chlor (Cl2) sowie das flüssige Brom (Br2). Häufigkeit der chemischen Elemente. Häufigkeit der Elemente in der Erdkruste Kristalle aus 99,999 % Gallium Lithium-Stücke in Paraffinöl zum Schutz vor Oxidation Die Häufigkeit der chemischen Elemente unterscheidet sich je nach dem betrachteten Bereich. Im Universum ist sie eng verknüpft mit den Entstehungsprozessen im kosmologischen Zeitrahmen "(Nukleosynthese)". Dort ist das weitaus häufigste Element der Wasserstoff, gefolgt von seinem einfachsten Fusionsprodukt Helium, die beide schon bald nach dem Urknall entstanden. Die nächst häufigsten Elemente sind Kohlenstoff und Sauerstoff. Lithium, Beryllium und Bor entstanden ebenfalls beim Urknall, jedoch in wesentlich geringeren Mengen. Helium, Kohlenstoff und Sauerstoff sowie alle anderen Atomsorten wurden durch Kernfusion in Sternen oder andere astrophysikalische Vorgänge gebildet. Dabei entstanden häufiger Atome mit gerader Protonenzahl, wie Sauerstoff, Neon, Eisen oder Schwefel, während Elemente mit ungerader Protonenzahl seltener sind. Diese Regel wird nach dem US-amerikanischen Chemiker William Draper Harkins (1873–1951) "Harkinssche Regel" genannt. Markant ist die besondere Häufigkeit des Eisens als Endpunkt der möglichen Kernfusion in Sternen. Die Verteilung auf der Erde unterscheidet sich von derjenigen, die im gesamten Universum vorherrscht. Insbesondere sind auf der Erde vergleichsweise geringe Mengen Wasserstoff und Helium vorhanden, weil diese Gase vom Schwerefeld der Erde nicht festgehalten werden können; im Sonnensystem befinden sie sich vor allem in den Gasplaneten wie Jupiter und Neptun. Auf Gesteinsplaneten wie der Erde überwiegen die schwereren Elemente, vor allem Sauerstoff, Silicium, Aluminium und Eisen. Organismen bestehen hauptsächlich aus Wasserstoff, Sauerstoff, Kohlenstoff und Stickstoff. In dem jeweils betrachteten Bereich sehr häufig vorkommende Elemente bezeichnet man als Mengenelemente, sehr seltene als Spurenelemente. Chemiker. Chemiker in einem Labor (1950) Ein Chemiker (früher: "Chemist") ist ein Naturwissenschaftler, der sich mit Themen aus der Chemie befasst. Die Tätigkeitsbezeichnung Chemiker ist nicht geschützt. Hingegen ist der akademische Grad Diplom-Chemiker (Dipl.-Chem.) staatlich geschützt und setzt ein Hochschulstudium mit erfolgreich bestandenem Diplom voraus. Mit der Abschaffung der Diplomstudiengänge im Zuge des Bologna-Prozesses wird der Bachelor- bzw. der Master-Grad den Diplom-Grad bei neu erworbenen Abschlüssen als Berufsbezeichnung ersetzen. Ausbildung zum Chemiker in Deutschland. In der Bundesrepublik Deutschland ist an etwa 50 Hochschulen das Studium der Chemie möglich. Diplomstudiengänge beginnen mit einem viersemestrigen Grundstudium, das mit der nicht berufsqualifizierenden Vordiplom-Prüfung abgeschlossen wird. An das Grundstudium schließt das Hauptstudium an. Es folgen die meist mündlichen Diplomprüfungen und die sechs- bis neunmonatige Diplomarbeit. Das Studium besteht aus Vorlesungen, Seminaren und Übungen, Klausuren und mündlichen Prüfungen sowie den regelmäßigen lehrveranstaltungsbegleitenden Praktika an der Universität. In den Praktika werden handwerkliche Fähigkeiten und das wissenschaftliche, systematische Arbeiten erlernt. Die Leistungsnachweise (Scheine) werden vor allem durch Klausuren, die mündliche Prüfungen und die Testate für bestandene Praktika erbracht. Im Zuge des Bologna-Prozesses werden bestehende Diplomstudiengänge nach und nach in sechssemestrige Bachelor-Studiengänge mit anschließendem, optionalem viersemestrigem Master-Studium übergehen. Dieser Prozess soll bis 2018 abgeschlossen sein. Daneben haben sich mehrere Ingenieurstudiengänge mit Schwerpunkt Chemie etabliert. Promotion der Chemiker in Deutschland. Nach dem Universitätsabschluss kann nach einer meist mehrjährigen Doktorarbeit die Promotion zum Doktor der Naturwissenschaften (Dr. rer. nat.) erfolgen. Bei technischer Ausrichtung des Promotionsthemas und einer entsprechend absolvierten Universitätsausbildung ist auch der Doktor der Ingenieurwissenschaften (Dr.-Ing.) möglich. Die Promotion wird von der Mehrheit der in einem Absolventenjahrgang in Deutschland diplomierten Chemiker begonnen. Die Dauer richtet sich vor allem danach, ob der Doktorand während seiner Tätigkeit nur seine Promotionsziele verfolgen kann oder durch zusätzliche Verpflichtungen eingebunden wird, wie z. B. die Einbeziehung in das Schreiben von Drittmittelanträgen für neue Projekte, den Einsatz in der Lehre an der Universität oder die Übernahme von Verwaltungsaufgaben am Lehrstuhl des betreuenden Professors. Schwer vergleichbar wird die Promotionsdauer auch dadurch, dass ein Teil der Doktoranden die erfolgreichen Aufgabenstellungen von vorherigen Doktoranden nach deren Promotion weiterbearbeitet und dabei Konzept und Aufbau ihrer Vorgänger weiterbenutzt, während ein anderer Teil der Doktoranden absolut neue Themen erstmals zu bearbeiten versucht. Die Bezahlung des Doktoranden erfolgt in der Regel nach dem TVöD bei nicht voller wöchentlicher Arbeitszeit (meist 50 % oder 2/3) oder durch ein Stipendium. Zweck und Ziele der Promotion. Die abgeschlossene Promotion soll den Nachweis zur selbständigen Forschungstätigkeit, also der wissenschaftlichen Erarbeitung und Bearbeitung eines Themas erbringen. Das beinhaltet eine weitestgehend individuelle Versuchsplanung, den Versuchsaufbau und die Versuchsdurchführung einschließlich der Ergebnisauswertung bis zur Ergebnispublikation (Dissertationsschrift) mit Einordnung in den wissenschaftlichen Kontext. Die Promotion ist erforderlich für Tätigkeiten in der Forschung an Universitäten, in der Industrie oder in Forschungsinstituten wie z. B. der Helmholtz-Gemeinschaft Deutscher Forschungszentren, der Max-Planck-Gesellschaft, der Fraunhofer-Gesellschaft oder auch der Leibniz-Gemeinschaft. Auf die Promotion aufbauende Qualifikationen. Promovierte Diplom-Chemiker mit dem Berufsziel des Hochschullehrers schließen in der Regel eine bis zu sechs Jahren andauernde Juniorprofessur oder eine Habilitation an die Promotion an. Eine weitere Möglichkeit zum Erlangen von zusätzlichen Erfahrungen und zur Erweiterung der Publikationsliste bieten Post-Doc-Stellen im Inland und im Ausland. Sie dienen vor allem dem Sammeln der von den Einstellenden der Industrie gewünschten „Auslandserfahrung“ und zum „Sprachkenntnis-“ und „Flexibilitätsnachweis“ oder schlicht zum Überbrücken der Arbeitslosigkeit nach der Promotion bei schlechter Stellenlage. Chemiker-Gesellschaften im deutschsprachigen Raum. Die Gesellschaft Deutscher Chemiker (GDCh), die Fachorganisation der Chemiker in Deutschland, hat über 27.000 Mitglieder. Die Gesellschaft Österreichischer Chemiker (GÖCH) verfügt über knapp 2.000 Mitglieder. Die Schweizerische Chemische Gesellschaft (SCG) hatte im Jahr 2014 2587 Mitglieder. Carl Friedrich Gauß. Johann Carl Friedrich Gauß (latinisiert "Carolus Fridericus Gauss"; * 30. April 1777 in Braunschweig; † 23. Februar 1855 in Göttingen) war ein deutscher Mathematiker, Astronom, Geodät und Physiker. Seine überragenden wissenschaftlichen Leistungen waren schon seinen Zeitgenossen bewusst. Mit 18 Jahren entwickelte er die Grundlagen der modernen Ausgleichungsrechnung und der mathematischen Statistik (Methode der kleinsten Quadrate), mit der er 1800 die Wiederentdeckung des ersten Asteroiden Ceres ermöglichte. Auf Gauß gehen die nichteuklidische Geometrie, zahlreiche mathematische Funktionen, Integralsätze, die Normalverteilung, erste Lösungen für elliptische Integrale und die gaußsche Osterformel zurück. 1807 wurde er zum Universitätsprofessor und Sternwartendirektor in Göttingen berufen und später auch mit der Landesvermessung des Königreichs Hannover betraut. Neben der Zahlen- und der Potentialtheorie erforschte er u. a. das Erdmagnetfeld. Bereits 1856 ließ der König von Hannover Gedenkmünzen mit dem Bild von Gauß und der Inschrift prägen. Da Gauß nur einen Bruchteil seiner Entdeckungen veröffentlichte, erschloss sich der Nachwelt die Tiefgründigkeit und Reichweite seines Werks in vollem Umfang erst, als 1898 sein Tagebuch (siehe unten) entdeckt und ausgewertet wurde und als der Nachlass bekannt wurde. Nach Gauß sind viele mathematisch-physikalische Phänomene und Lösungen benannt, mehrere Vermessungs- und Aussichtstürme, zahlreiche Schulen, außerdem Forschungszentren und wissenschaftliche Ehrungen wie die Carl-Friedrich-Gauß-Medaille der Braunschweigischen Akademie und die festliche Gauß-Vorlesung, die jedes Semester an einer deutschen Hochschule stattfindet. Eltern, Kindheit und Jugend. a>; im Zweiten Weltkrieg wurde es vollständig zerstört. a> am ehemaligen Standort des Geburtshauses Carl Friedrich war das einzige Kind der Eheleute Gebhard Dietrich Gauß (1744–1808) und Dorothea Gauß geborene Benze (1743–1839). Die Mutter Dorothea war die Tochter eines Steinmetzen aus Velpke, der früh starb, und wurde als klug, von heiterem Sinn und festem Charakter geschildert. Gauß hatte zeitlebens eine enge Beziehung zu seiner Mutter, die zuletzt bei ihm auf der Sternwarte in Göttingen wohnte. Sie arbeitete zunächst als Dienstmädchen, bevor sie die zweite Frau von Gebhard Dietrich Gauß wurde. Dieser hatte viele Berufe, er war unter anderem Gärtner, Schlachter, Maurer, Kaufmannsassistent und Schatzmeister einer kleinen Versicherungsgesellschaft. Einige Anekdoten besagen, dass bereits der dreijährige Carl Friedrich seinen Vater bei der Lohnabrechnung korrigierte. Später sagte Gauß von sich selbst, er habe das Rechnen vor dem Sprechen gelernt. Sein Leben lang behielt er die Gabe, selbst komplizierteste Rechnungen im Kopf durchzuführen. Im Alter von sieben Jahren sei Gauß in die Volksschule gekommen. Als er neun Jahre alt war, habe sein Lehrer Büttner den Schülern zur längeren Beschäftigung die Aufgabe gestellt, die Zahlen von 1 bis 100 zu addieren. Gauß habe sie allerdings nach kürzester Zeit gelöst, indem er 50 Paare mit der Summe 101 gebildet (1 + 100, 2 + 99, …, 50 + 51) und 5050 als Ergebnis erhalten habe. Er legte die Antwort mit den Worten in Braunschweiger Plattdeutsch „Ligget se“ (svw: „Hier liegt sie“) dem Lehrer auf den Tisch. Die daraus resultierende Formel wird gelegentlich auch als „der kleine Gauß“ bezeichnet. Ob es dieses Ereignis war, oder auch andere mögliche Interpretationen im Raum stehen könnten: Gauß’ Lehrer Büttner hat jedenfalls seine außergewöhnliche mathematische Begabung erkannt und gefördert, indem er (u. a.) ein besonderes Rechenbuch aus Hamburg für ihn beschaffte und, unterstützt von seinem Assistenten Martin Bartels, dafür sorgte, dass Gauß 1788 das Gymnasium Martino-Katharineum besuchen konnte. Als der Wunderknabe Gauß vierzehn Jahre alt war, wurde er dem Herzog Karl Wilhelm Ferdinand von Braunschweig bekanntgemacht. Dieser unterstützte ihn sodann finanziell und sorgte für seinen Lebensunterhalt. So konnte Gauß von 1792 bis 1795 am Collegium Carolinum studieren, das zwischen höherer Schule und Hochschule anzusiedeln ist und der Vorgänger der heutigen Technischen Universität in Braunschweig ist. Dort war es der Professor Eberhard August Wilhelm von Zimmermann, der sein mathematisches Talent erkannte, ihn förderte und ihm ein väterlicher Freund wurde. Verschnörkelter Namenszug des siebzehnjährigen Gauß Im Oktober 1795 wechselte Gauß an die Universität Göttingen. Dort hörte er bei Christian Gottlob Heyne Vorlesungen über klassische Philologie, die ihn damals genauso wie die Mathematik interessierte. Letztere wurde durch Abraham Gotthelf Kästner, der zugleich Dichter war, repräsentiert. Bei Georg Christoph Lichtenberg hörte er im Sommersemester 1796 Experimentalphysik und sehr wahrscheinlich im folgenden Wintersemester Astronomie. In Göttingen schloss er Freundschaft mit Wolfgang Bolyai. Studienjahre. Im Alter von 19 Jahren gelang es Gauß als Erstem, die Konstruierbarkeit des regelmäßigen Siebzehnecks zu beweisen – eine sensationelle Entdeckung, denn seit der Antike hatte es auf diesem Gebiet kaum noch Fortschritte gegeben. Dies war wohl mit ein Grund, sich gegen Sprachen und Philosophie und für das Studium der Mathematik zu entscheiden, das er 1799 mit seiner Doktorarbeit an der Academia Julia, der Universität in Helmstedt, abschloss. Die Mathematik war hier durch Johann Friedrich Pfaff – der sein Doktorvater wurde – gut vertreten, und nicht zuletzt legte Gauß’ Gönner, der Herzog von Braunschweig, Wert darauf, dass Gauß nicht an einer „ausländischen“ Universität promoviert werden sollte. Nach seiner Promotion lebte Gauß in Braunschweig von dem kleinen Gehalt, das ihm der Herzog zahlte, und arbeitete an seinem Werk "Disquisitiones Arithmeticae". Einen Ruf an die Petersburger Akademie der Wissenschaften lehnte Gauß aus Dankbarkeit gegenüber seinem Gönner, dem Herzog von Braunschweig, und wohl in der Hoffnung, dass dieser ihm eine Sternwarte in Braunschweig bauen würde, ab. Nach dem plötzlichen Tod des Herzogs nach der Schlacht bei Jena und Auerstedt wurde Gauß im November 1807 Professor in Göttingen und Direktor der dortigen Sternwarte. Dort musste er Lehrveranstaltungen halten, gegen die er aber eine Abneigung entwickelte. Trotzdem wurden mehrere seiner Studenten einflussreiche Mathematiker, darunter Richard Dedekind und Bernhard Riemann. 1822 wurde Gauß in die American Academy of Arts and Sciences gewählt. Ehen, Familie und Kinder. Im November 1804 verlobte er sich mit Johanna Elisabeth Rosina Osthoff (* 8. Mai 1780; † 11. Oktober 1809), der Tochter eines Weißgerbers aus Braunschweig, und heiratete sie am 9. Oktober 1805. Am 21. August 1806 wurde in Braunschweig ihr erstes Kind Joseph († 4. Juli 1873) geboren, benannt nach Giuseppe Piazzi, dem Entdecker des Zwergplaneten Ceres, dessen Wiederauffindung Gauß’ Bahnberechnung 1801 ermöglicht hatte. Joseph war später Artillerieoffizier des Königreichs Hannover und Direktor des Eisenbahnnetzes im Königreich. Nachdem er seinem Vater schon bei den geodätischen Arbeiten assistiert hatte, war er später an der kartografischen Landesaufnahme des Königreichs beteiligt. Nachdem die Familie nach Göttingen gezogen war, wurden am 29. Februar 1808 die Tochter Wilhelmine († 12. August 1840) und am 10. September 1809 der Sohn Louis geboren. Am 11. Oktober 1809 starb Johanna Gauß an den Folgen der Geburt, Louis selbst starb am 1. März 1810. Durch diese Ereignisse fiel Gauß eine Zeit lang in eine Depression, in der er die sogenannte „Totenklage“ verfasste. Am 4. August 1810 heiratete der Witwer, der zwei kleine Kinder zu versorgen hatte, Friederica Wilhelmine Waldeck (genannt "Minna"; * 15. April 1788; † 12. September 1831), Tochter des Göttinger Rechtswissenschaftlers Johann Peter Waldeck, die die beste Freundin seiner verstorbenen Frau gewesen war. Mit ihr hatte er drei Kinder: Eugen (* 29. Juli 1811; † 4. Juli 1896), der die Rechte studierte und 1830 nach Amerika auswanderte, wo er als Kaufmann lebte und die „First National Bank“ von St. Charles gründete, Wilhelm (* 23. Oktober 1813; † 23. August 1879), der 1837 Eugen nachfolgte und ebenfalls nach Amerika auswanderte, um dort Landwirtschaft zu betreiben, und Therese (* 9. Juni 1816; † 11. Februar 1864). Im Sommer 1818 begann Minna zu kränkeln, was sich später als Tuberkulose herausstellte. Am 12. September 1831 starb auch sie. Von da an bis zum Tod von Gauß, der nun zum zweiten Mal Witwer war, führte seine jüngste Tochter Therese den Haushalt. Späte Jahre. a>, angrenzend an den Cheltenhampark in Göttingen In fortgeschrittenem Alter beschäftigte er sich zunehmend mit Literatur, nachdem er 1842 in die Friedensklasse des Ordens Pour le Mérite aufgenommen worden war, und führte auch Listen über die Lebenserwartung berühmter Männer (in Tagen gerechnet). So schrieb er am 7. Dezember 1853 an seinen Freund und Kanzler seines Ordens Alexander von Humboldt u. a.: „Es ist übermorgen der Tag, wo Sie, mein hochverehrter Freund, in ein Gebiet übergehen, in welches noch keiner der Koryphäen der exacten Wissenschaften eingedrungen ist, der Tag, wo Sie dasselbe Alter erreichen, in welchem Newton seine durch 30766 Tage gemessene irdische Laufbahn geschlossen hat. Und Newtons Kräfte waren in diesem Stadium gänzlich erschöpft: Sie stehen zur höchsten Freude der ganzen wissenschaftlichen Welt noch im Vollgenuss Ihrer bewundernswürdigen Kraft da. Mögen Sie in diesem Genuss noch viele Jahre bleiben.“ Gauß war sehr konservativ und monarchistisch eingestellt, die Revolution von 1848 hieß er nicht gut. Tod. Gauß starb am 23. Februar 1855 morgens um 1.05 Uhr in Göttingen. Heute liegt er dort auf dem Albani-Friedhof begraben. Begründung und Beiträge zur nicht-euklidischen Geometrie. Gauß misstraute bereits mit zwölf Jahren der Beweisführung in der elementaren Geometrie und ahnte mit sechzehn Jahren, dass es neben der euklidischen noch eine andere, nicht-euklidische Geometrie geben muss. Diese Arbeiten vertiefte er in den 1820er Jahren: Unabhängig von János Bolyai und Nikolai Iwanowitsch Lobatschewski bemerkte er, dass das euklidische Parallelenaxiom nicht denknotwendig ist. Seine Gedanken zur nichteuklidischen Geometrie veröffentlichte er jedoch nicht, vermutlich aus Furcht vor dem Unverständnis der Zeitgenossen. Als ihm sein Studienfreund Wolfgang Bolyai, mit dem er korrespondierte, allerdings von den Arbeiten seines Sohnes János Bolyai berichtet, lobt er ihn zwar, kann es aber nicht unterlassen zu erwähnen, dass er selbst schon sehr viel früher darauf gekommen war („[die Arbeit Deines Sohnes] loben hiesse mich selbst loben“). Er habe darüber nichts veröffentlicht, da er „das Geschrei der Böotier scheue“. Lobatschewskis Arbeiten fand Gauß so interessant, dass er noch in fortgeschrittenem Alter Russisch lernte, um sie zu studieren. Primzahlverteilung und Methode der kleinsten Quadrate. Mit achtzehn Jahren entdeckte er einige Eigenschaften der Primzahlverteilung und fand die "Methode der kleinsten Quadrate", bei der es darum geht, die Summe der Quadrate von Abweichungen zu minimieren. Nach ihr lässt sich etwa das wahrscheinlichste Ergebnis für eine neue Messung aus einer genügend großen Zahl vorheriger Messungen ermitteln. Auf dieser Basis untersuchte er später Theorien zur Berechnung von Flächeninhalten unter Kurven (numerische Integration), die ihn zur gaußschen Glockenkurve gelangen ließen. Die zugehörige Funktion ist bekannt als die Dichte der Standardnormalverteilung und wird bei vielen Aufgaben zur Wahrscheinlichkeitsrechnung angewandt, wo sie die (asymptotische, das heißt für genügend große Datenmengen gültige) Verteilungsfunktion von zufällig um einen Mittelwert streuenden Daten ist. Gauß selbst machte davon unter anderem in seiner erfolgreichen Verwaltung der Witwen- und Waisenkasse der Göttinger Universität Gebrauch. Gauß förderte auf diesem Gebiet eine der ersten Mathematikerinnen der Neuzeit, Sophie Germain. Einführung der elliptischen Funktionen. Als 19-Jähriger führte er 1796, bei Betrachtungen über die Bogenlänge auf einer Lemniskate in Abhängigkeit von der Entfernung des Kurvenpunktes zum Ursprung, mit den lemniskatischen Sinusfunktionen die historisch ersten, heute so genannten elliptischen Funktionen ein. Seine Notizen darüber hat er jedoch nie veröffentlicht. Diese Arbeiten stehen in Zusammenhang mit seiner Untersuchung des arithmetisch-geometrischen Mittels. Die eigentliche Entwicklung der Theorie der elliptischen Funktionen, den Umkehrfunktionen der schon länger bekannten elliptische Integrale, erfolgte durch Niels Henrik Abel (1827) und Carl Gustav Jacobi. Fundamentalsatz der Algebra, Beiträge zur Verwendung komplexer Zahlen. Gauß erfasste früh den Nutzen komplexer Zahlen, so auch in seiner Doktorarbeit von 1799, die einen strengeren Beweis des Fundamentalsatzes der Algebra enthält. Dieser Satz besagt, dass jede algebraische Gleichung mit Grad größer als null mindestens eine reelle oder komplexe Lösung besitzt. Den älteren Beweis von Jean-Baptiste le Rond d’Alembert kritisierte Gauß als ungenügend, aber auch sein eigener Beweis erfüllt noch nicht die späteren Ansprüche an topologische Strenge. Gauß kam auf den Beweis des Fundamentalsatzes noch mehrfach zurück und gab neue Beweise 1815 und 1816. Gauß kannte auch spätestens 1811 die geometrische Darstellung komplexer Zahlen in einer Ebene (komplexe Zahlenebene, gaußsche Zahlenebene), die aber auch unabhängig schon Jean-Robert Argand 1806 und Caspar Wessel 1797 fanden. Beiträge zur Zahlentheorie. Am 30. März 1796, wenige Wochen vor seinem neunzehnten Geburtstag, bewies er die Konstruierbarkeit des regelmäßigen Siebzehnecks und lieferte damit die erste nennenswerte Ergänzung euklidischer Konstruktionen seit 2000 Jahren. Dies war aber nur ein Nebenergebnis bei der Arbeit für sein zahlentheoretisch viel weiterreichendes Werk "Disquisitiones Arithmeticae". Eine erste Ankündigung dieses Werkes fand sich am 1. Juni 1796 im "Intelligenzblatt der allgemeinen Literatur-Zeitung" in Jena. Die 1801 erschienenen "Disquisitiones" wurden grundlegend für die weitere Entwicklung der Zahlentheorie, zu der einer seiner Hauptbeiträge der Beweis des quadratischen Reziprozitätsgesetzes war, das die Lösbarkeit von quadratischen Gleichungen „mod p“ beschreibt und für das er im Laufe seines Lebens fast ein Dutzend verschiedene Beweise fand. Neben dem Aufbau der elementaren Zahlentheorie auf modularer Arithmetik findet sich auch eine Diskussion von Kettenbrüchen und der Kreisteilung, mit einer berühmten Andeutung über ähnliche Sätze bei der Lemniskate und anderen elliptischen Funktionen, die später Abel und andere anregten. Einen Großteil des Werks nimmt die Theorie der quadratischen Formen ein, deren Geschlechtertheorie er entwickelt. Es finden sich aber noch viele weitere tiefliegende Resultate, oft nur kurz angedeutet, in diesem Buch, die die Arbeit späterer Generationen von Zahlentheoretikern in vielfältiger Weise befruchteten. Der Zahlentheoretiker Peter Gustav Lejeune Dirichlet berichtete, er habe die Disquisitiones sein Leben lang bei der Arbeit stets griffbereit gehabt. Das Gleiche gilt für die beiden Arbeiten über biquadratische Reziprozitätsgesetze von 1825 und 1831, in denen er auch die gaußschen Zahlen einführt (ganzzahliges Gitter in komplexer Zahlenebene). Beweise für diese Gesetze gab erst Gotthold Eisenstein. Die Arbeiten sind wahrscheinlich Teil einer geplanten Fortsetzung der Disquisitiones, die aber nie erschien. André Weil regte die Lektüre dieser Arbeiten (und einiger Stellen im Tagebuch, wo es in versteckter Form um Lösung von Gleichungen über endlichen Körpern geht) nach seinen eigenen Angaben zu seinen Arbeiten über die Weil-Vermutungen an. Gauß kannte auch den Primzahlsatz, veröffentlichte ihn aber nicht. Beiträge zur Astronomie. Nach der Fertigstellung der "Disquisitiones" wandte sich Gauß der Astronomie zu. Anlass hierfür war die Entdeckung des Zwergplaneten Ceres durch Giuseppe Piazzi am 1. Januar 1801, dessen Position am Himmel der Astronom kurz nach seiner Entdeckung wieder verloren hatte. Der 24-jährige Gauß schaffte es, die Bahn mit Hilfe einer neuen indirekten Methode der Bahnbestimmung und seiner Ausgleichsrechnungen auf Basis der "Methode der kleinsten Quadrate" so zu berechnen, dass Franz Xaver von Zach ihn am 7. Dezember 1801 und – bestätigt – am 31. Dezember 1801 wiederfinden konnte. Heinrich Wilhelm Olbers bestätigte dies unabhängig von Zach durch Beobachtung am 1. und 2. Januar 1802. Gauß beschäftigte sich danach auch noch mit der Bahn des Asteroiden Pallas, auf dessen Berechnung die Pariser Akademie ein Preisgeld ausgesetzt hatte, konnte die Lösung jedoch nicht finden. Seine Erfahrungen mit der Bahnbestimmung von Himmelskörpern mündeten in seinem Werk "Theoria motus corporum coelestium in sectionibus conicis solem ambientium" ("Theorie der Bewegung der Himmelskörper, die in Kegelschnitten die Sonne umlaufen"), das 1809 erschien. Das Problem der Wiederauffindung der Ceres als solches lag darin, dass durch die Beobachtungen weder der "Ort", ein Stück der "Bahn", noch die "Entfernung" bekannt sind, sondern nur die "Richtungen" der Beobachtung. Dies führt auf die Suche einer Ellipse und nicht nach einem Kreis, wie ihn Gauß’ Konkurrenten ansetzten. Einer der Brennpunkte der Ellipse ist bekannt (die Sonne selbst), und die Bögen der Bahn der Ceres zwischen den Richtungen der Beobachtung werden nach dem zweiten Keplerschen Gesetz durchlaufen, das heißt, die Zeiten verhalten sich wie die vom Leitstrahl überstrichenen Flächen. Und außerdem ist für die rechnerische Lösung bekannt, dass die Beobachtungen selbst von einem Kegelschnitt im Raum ausgehen, der Erdbahn selbst. Im Grundsatz führt das Problem auf eine Gleichung achten Grades, deren triviale Lösung die Erdbahn selbst ist. Durch umfangreiche Nebenbedingungen und die von Gauß entwickelte "Methode der kleinsten Quadrate" gelang es dem 24-Jährigen, für die Bahn der Ceres für den 25. November bis 31. Dezember 1801 den von ihm berechneten Ort anzugeben. Damit konnte Zach am letzten Tag der Vorhersage Ceres wiederfinden. Der Ort lag nicht weniger als 7° (d. h. 13,5 Vollmondbreiten) östlich der Stelle, wo die anderen Astronomen Ceres vermutet hatten, was nicht nur Zach, sondern auch Olbers, der Ceres unabhängig von Zach am 1. Januar 1802 ebenfalls wiederentdeckt hatte, gebührend würdigten. Diese Arbeiten, die Gauß noch vor seiner Ernennung zum Sternwarten-Direktor in Göttingen unternahm, machten ihn mehr noch als seine Zahlentheorie in Europa mit einem Schlag bekannt und verschafften ihm unter anderem eine Einladung an die Akademie nach Sankt Petersburg, deren Mitglied er 1802 wurde. Die in diesem Zusammenhang von Gauß gefundene iterative Methode wird noch heute angewandt, weil sie es einerseits ermöglicht, alle bekannten Kräfte ohne erheblichen Mehraufwand in das physikalisch-mathematische Modell einzubauen, und andererseits auch computertechnisch einfach handhabbar ist. Beiträge zur Potentialtheorie. In der Potentialtheorie und Physik ist der gaußsche Integralsatz (1835, veröffentlicht erst 1867) grundlegend. Er identifiziert in einem Vektorfeld das Integral der Divergenz (Ableitungsvektor angewandt auf das Vektorfeld) über ein Volumen mit dem Integral des Vektorfeldes über die Oberfläche dieses Volumens. Gaußsche Osterformel. Um das Osterdatum für jedes beliebige Jahr rechnerisch ermitteln zu können, entwickelte er eine geschlossene Formel. Erstmals veröffentlicht wurde diese Berechnung in der von Franz Xaver von Zach herausgegebenen Zeitschrift "Monatliche Correspondenz zur Beförderung der Erd- und Himmels-Kunde", Band 2, August 1800. In dem Artikel "Noch etwas über die Bestimmung des Osterfestes", veröffentlicht am 12. September 1807 im "Braunschweigischen Magazin", ging Gauß noch von einem Epaktensprung alle 300 Jahre aus. In der "Zeitschrift für Astronomie und verwandte Wissenschaften", Band 1, wurde 1816 der Artikel "Berichtigung zu dem Aufsatze: Berechnung des Osterfestes" veröffentlicht, in dem Gauß eine Ergänzung seiner gaußschen Osterformel vornimmt, die den Epaktensprung alle 312,5 Jahre vorsieht. Landvermessung und Erfindung des Heliotrops. Auf dem Gebiet der Geodäsie sammelte Gauß zwischen 1797 und 1801 die ersten Erfahrungen, als er dem französischen Generalquartiermeister Lecoq bei dessen Landesvermessung des Herzogtums Westfalen als Berater zur Seite stand. Zum zweiten Mal kam er 1816 damit in Berührung, als ihn der König von Dänemark mit der Durchführung einer Breiten- und Längengradmessung in dänischem Gebiet beauftragte. Nach abschließenden Verhandlungen leitete Gauß dann zwischen 1818 und 1826 die Landesvermessung des Königreichs Hannover („gaußsche Landesaufnahme“). Durch die von ihm erfundene Methode der kleinsten Quadrate und die systematische Lösung umfangreicher linearer Gleichungssysteme (gaußsches Eliminationsverfahren) gelang ihm eine erhebliche Steigerung der Genauigkeit. Auch für die praktische Durchführung interessierte er sich: Er erfand als Messinstrument das über Sonnenspiegel beleuchtete Heliotrop. Gaußsche Krümmung und Geodäsie. In diesen Jahren beschäftigte er sich – angeregt durch die Geodäsie und die Karten-Theorie – auch mit der Theorie der Differentialgeometrie der Flächen, führte unter anderem die gaußsche Krümmung ein und bewies sein "Theorema egregium". Dieses besagt, dass die gaußsche Krümmung, die durch die Hauptkrümmungen einer Fläche im Raum definiert ist, allein durch Maße der inneren Geometrie, d. h. durch Messungen innerhalb der Fläche, bestimmt werden kann. Daher ist die gaußsche Krümmung unabhängig von der Einbettung der Fläche in den dreidimensionalen Raum, sie ändert sich also bei längentreuen Abbildungen von Flächen aufeinander nicht. Magnetismus, Elektrizität und Telegrafie. Zusammen mit Wilhelm Eduard Weber arbeitete er ab 1831 auf dem Gebiet des Magnetismus. Gauß erfand mit Weber das Magnetometer und verband so 1833 seine Sternwarte mit dem physikalischen Institut. Dabei tauschte er über elektromagnetisch beeinflusste Kompassnadeln Nachrichten mit Weber aus; die erste (elektromagnetische) Telegrafenverbindung auf der Welt. Mit ihm zusammen entwickelte er auch das cgs-Einheitensystem, das später, 1881, auf einem internationalen Kongress in Paris zur Grundlage der elektrotechnischen Maßeinheiten bestimmt wurde. Er organisierte ein weltweites Netz von Beobachtungsstationen (Magnetischer Verein), um das erdmagnetische Feld zu vermessen. Gauß fand bei seinen Experimenten zur Elektrizitätslehre 1833 auch unabhängig von Gustav Robert Kirchhoff (1845) die Kirchhoffschen Regeln für Stromkreise. Arbeitsweise von Gauß. Gauß arbeitete auf vielen Gebieten, veröffentlichte seine Ergebnisse jedoch erst, wenn eine Theorie seiner Meinung nach komplett war. Dies führte dazu, dass er Kollegen gelegentlich darauf hinwies, dieses oder jenes Resultat schon lange bewiesen zu haben, es wegen der Unvollständigkeit der zugrundeliegenden Theorie oder der ihm fehlenden, zum schnellen Arbeiten nötigen Unbekümmertheit nur noch nicht präsentiert zu haben. Bezeichnenderweise besaß Gauß ein Petschaft, das einen von wenigen Früchten behangenen Baum und das Motto zeigte. Einer Anekdote zufolge lehnte er es Bekannten, die Gauß’ umfangreiche Arbeiten kannten oder ahnten, gegenüber ab, diesen Wahlspruch zu ersetzen, z. B. durch, da nach seinem eigenen Bekunden er lieber eine Entdeckung einem anderen überließ, als sie nicht vollständig ausgearbeitet unter seinem Namen zu veröffentlichen. Das ersparte ihm Zeit in den Bereichen, die Gauß eher als Randthemen betrachtete, so dass er diese Zeit auf seine originäre Arbeit verwenden konnte. Sonstiges. Bei seinem Tod wurde das Gehirn von Gauß entnommen. Es wurde mehrfach mit verschiedenen Methoden untersucht, aber ohne einen besonderen Befund, der seine mathematischen Fähigkeiten erklären würde (zuletzt 1998 durch eine Gruppe um Jens Frahm). Es befindet sich heute separat, in Formalin konserviert, in der "Abteilung für Ethik und Geschichte der Medizin" der Medizinischen Fakultät der Universität Göttingen. Im Herbst 2013 wurde an der Universität Göttingen eine Verwechslung aufgedeckt: Die zu diesem Zeitpunkt über 150 Jahre alten Gehirnpräparate des Mathematikers Gauß und des Göttinger Mediziners Conrad Heinrich Fuchs sind – wahrscheinlich schon bald nach der Entnahme – vertauscht worden. Beide Präparate wurden in der Anatomischen Sammlung der Göttinger Universitätsklinik in Gläsern mit Formaldehyd aufbewahrt. Das Originalgehirn von Gauß befand sich im Glas mit der Aufschrift „C. H. Fuchs“, und das Fuchs-Gehirn war etikettiert mit „C. F. Gauss“. Damit sind auch die bisherigen Untersuchungsergebnisse über das Gehirn von Gauß obsolet. Die Wissenschaftlerin Renate Schweizer befasste sich wegen der vom vermeintlichen Gehirn von Gauß angefertigten MRT Bilder, die eine seltene Zweiteilung der Zentralfurche zeigten, erneut mit den Präparaten und entdeckte, dass diese Auffälligkeit in Zeichnungen, die kurz nach Gauß' Tod erstellt wurden, fehlte. Gauß als Namensgeber. Carl Friedrich Gauß, die gaußsche Normalverteilung und die Sternwarte Göttingen auf dem 10-DM-Schein. Porträtwiedergabe seitenverkehrt Gesamtausgabe. In den Bänden 10 und 11 finden sich ausführliche Kommentare von Paul Bachmann (Zahlentheorie), Ludwig Schlesinger (Funktionentheorie), Alexander Ostrowski (Algebra), Paul Stäckel (Geometrie), Oskar Bolza (Variationsrechnung), Philipp Maennchen (Gauß als Rechner), Harald Geppert (Mechanik, Potentialtheorie), Andreas Galle (Geodäsie), Clemens Schaefer (Physik) und Martin Brendel (Astronomie). Herausgeber war zuerst Ernst Schering, dann Felix Klein. Containerschiff. Ein Containerschiff ist ein Schiffstyp, der für den Transport von ISO-Containern ausgelegt ist. Die Ladungskapazität von Containerschiffen wird in TEU ("Twenty-foot Equivalent Units", vgl. Tonnage) angegeben und entspricht der Anzahl von 20-Fuß-Containern, die geladen werden können. Üblich sind auch die größeren 40-Fuß-Container (gemessen in FEU wie "Forty-foot Equivalent Unit"), seit Mitte der 1990er Jahre ebenso 45-, 48- und 53-Fuß-Container sowie die seltener anzutreffenden 30-Fuß-Container, die allerdings an Deck geladen werden müssen, da die "Cellguides" (Führungsschienen in der Vertikalen) nur für 40-Fuß-Container ausgelegt sind. Für sehr große bzw. schwere Stückgüter existieren auch so genannte "flat racks", Open-Top-Container oder "platforms", die im Verbund mit Standard-Containern geladen werden können. Bis zu einer Ladungskapazität von 3400 TEU besitzen Containerschiffe teilweise eigenes Ladegeschirr, Schiffe mit höheren Frachtkapazitäten benötigen meist spezielle Containerbrücken an Containerterminals, die am jeweiligen Hafen zur Verfügung stehen müssen. Die Tendenz hin zu größeren Containerschiffen bewirkt eine steigende Konzentration der möglichen Anlaufpunkte für Containerschiffe auf relativ wenige, zentrale Containerhäfen, über die ein Großteil des Seehandels abläuft. Diese Häfen werden zu Hubs; von und nach dort fahren kleinere Containerschiffe, z. B. Feederschiffe (siehe auch Umladeproblem - ein Optimierungsproblem aus dem Bereich der Logistik). Heutzutage werden rund 90 % der Stückgüter des Welthandels mit Containerschiffen transportiert. Anfang Juli 2014 waren weltweit 5072 Containerschiffe mit zusammengerechnet 17,6 Mio. TEU vorhanden, davon kamen 107 Schiffe erst 2014 in Fahrt. Die Nachfrage nach Transportleistungen schwankt während des Jahres und je nach Wirtschaftslage. z. B. werden im zweiten Halbjahr wegen des Weihnachtsgeschäfts deutlich mehr Güter transportiert als im ersten. Im Juli 2011 waren 75 Containerschiffe mit zusammen 115.000 TEU ohne Beschäftigung (Auflieger); genau ein Jahr später waren es 218 Schiffe mit 467.000 TEU. Geschichte. Containerschiff der ersten Generation, "Manchester Concord" 1970 zum Containerschiff umgebauter Stückgutfrachter "American Alliance" Das Containerschiff entstand in den 1950er Jahren in den USA. Nach der 1955 in Dienst gestellten "Clifford J. Rogers" mit noch sehr kleinen Containern folgte 1956 der umgebaute Tanker "Ideal X" des Speditionsunternehmers Malcolm McLean. Dieser fing damit an, die Aufliegergehäuse von Sattelschleppern ohne Fahrgestell über größere Seestrecken mit dem Schiff zu befördern. 1960 gründete McLean die Reederei Sea-Land Corporation. Schon in der ersten Hälfte der 1960er Jahre entstanden als Semicontainerschiffe geplante Neubauten, wie die 1963 in Dienst gestellte Tobias Mærsk, 1964 wurde in Australien mit der "Kooringa" der erste als Vollcontainerschiff für ISO-Container geplante Neubau in Betrieb genommen. Mitte der 1960er Jahre gab es in den Vereinigten Staaten bereits 171 (allerdings nahezu alles umgebaute) Containerschiffe. 1966 lief erstmals in Deutschland das Containerschiff "Fairland" der Reederei Sea-Land in Bremen ein. Schon am 31. Juli 1968 waren weltweit 102 Semi- oder Vollcontainerschiffe beauftragt oder in Bau. Ab 1968 begann die Umstellung der wichtigsten Liniendienste auf den Containerverkehr, zunächst im Nordatlantikverkehr (zwischen USA/Ostküste und Westeuropa), ab Oktober 1968 der Transpazifikdienst zwischen Japan–USA/Westküste. Hier wurde von der NYK Line die "Hakone Maru" eingesetzt. Ende 1968 wurden vom Bremer Vulkan mit der "Weser Express" für den Norddeutschen Lloyd sowie von Blohm + Voss, Hamburg, mit der "Elbe Express" für die HAPAG die ersten Containerschiffe (je 750 TEU) in Deutschland gebaut. Sie kamen mit den Schwesterschiffen "Rhein Express" und "Mosel Express" auf der Nordatlantik-Route in Betrieb. Ebenfalls 1968 setze die Hamburger Reederei August Bolten mit der "Bärbel Bolten" (140 TEU) ein weiteres Vollcontainerschiff unter deutscher Flagge ein. Am 1. Juli 1970 betrug der weltweite Bestand an Semi- und Vollcontainerschiffen 201 Einheiten (davon 154 Vollcontainerschiffe), im Jahr darauf betrug der Bestand an Vollcontainerschiffen 231 Einheiten. 1969 erfolgte die Umstellung des Liniendienstes Europa–Australien/Neuseeland auf den Containerverkehr, Ende 1971 Europa–Fernost, im Mai 1977 Europa–Südafrika sowie Europa–Karibik/Golf von Mexiko. 1981 folgte die Route Südafrika–Fernost (Safari-Dienst). Damit war die Umstellung der wichtigsten Linienverbindungen auf den Containerverkehr abgeschlossen. 1984 bot die Reederei United States Lines erstmals einen in östliche Richtung laufenden "Round the World Service" an, dieser mit zwölf Schiffen der American-New-York-Klasse betriebene Dienst endete nach sechs Monaten, da die Reederei in Konkurs ging. Ein im gleichen Jahr von der Evergreen Marine aus Taiwan via Panamakanal und Sueskanal mit jeweils zwölf Schiffen in beiden Richtungen gestarteter Dienst wurde etwa 1999 wieder aufgegeben, da ein Linienverkehr von Punkt A nach B effizienter ist. In den 1990er Jahren ging auch die deutsche Senator Lines mit einem "Round the World Service" an den Start, stellte ihn jedoch zu Gunsten eines "Pendulum Service" ein. Damit folgt das Angebot der Nachfrage: Es gibt schlicht keine Ware die rund um die Welt befördert werden muß (z. B. von Hamburg nach Hamburg) – wohl aber von A nach B (z. B. Hamburg – Shanghai). Die heute fahrplanmäßig längste Containerlinie mit einer Umlaufzeit von 15 Wochen ist der AE-4 Dienst von Mærsk-Sealand. Sie führt von USA/Ostküste über das Mittelmeer, den Sueskanal, Singapur, Hongkong und Taiwan an die Westküste der USA. Zurück via Japan, dann gleiche Route nach USA/Ostküste. Als Containermaße haben sich 20 bzw. 40 ft. Länge, 8 ft. Breite und 8 ft. 6 in. Höhe international durchgesetzt. Das alte von Sea Land eingeführte Containermaß von 35 ft. ist weggefallen, vielmehr kommen heute vermehrt auch 40-ft.- und 45-ft.-"High-Cube"-Container zum Einsatz, innerhalb der USA auch 53-Fuß-Container, da dort längere Sattelzüge als in Europa zulässig sind. Der Container ist das ideale Transportbehältnis für den „Haus-zu-Haus-Verkehr“ geworden. Generationen. Containerschiffe werden in Generationen eingeteilt. Die Größe der 1968 gebauten Containerschiffe war die Maßeinheit für ein Schiff der 1. Generation. Anfang 1969 erschien mit der "Encounter Bay" das erste Schiff der 2. Generation, die fast alle eine maximale Schiffsbreite von 30,5 m aufweisen, das heißt, an Deck können maximal zwölf Container nebeneinander gestaut werden. Lange Zeit lag die Obergrenze der Abmessungen von Containerschiffen bei 275 m Länge und 32,3 m Breite, damit sie den Panamakanal durchfahren konnten. Schiffe dieser Größe wurden früher als 3. Generation bezeichnet. Seit etwa 1988 bezeichnet man als "Panamax" die Schiffe, die auch die maximale Länge von Panamakanalschleusen (294 Meter) nutzen (und nicht nur die Breite). In der Anfangsphase (etwa 1972) waren maximal 3000 TEU die Obergrenze des technisch Umsetzbaren, 1988 waren es 4300 TEU. Spätere „Panamax“-Neubauten konnten bis zu 5060 TEU laden. Für größere Schiffstypen mit mehr als 32,3 Meter Breite ist der Name "Post-Panamax" gebräuchlich. Schiffe mit über 7000 TEU werden (Stand 2011) als "Super-Post-Panamax-" oder "Post-Panamax-Plus"-Schiffe bezeichnet, die über 11.000 TEU als "New Panamax". Post-Panamax-Schiffe. Zwei Schiffe der ersten Post-Panamax-Klasse Die ersten Containerschiffe, die breiter als 32,3 m (Panamakanalschleusen) waren, sind die fünf Schiffe der President-Truman-Klasse der American President Lines (USA). Sie wurden 1988 von der Werft Bremer Vulkan (Vegesack) und HDW (Kiel) gebaut und nur im Transpazifikdienst der Reederei eingesetzt. Sie sind 275,0 m ü.a. lang und 38,5 m breit bei 61.296 BRZ, 53.613 tdw und können maximal 4400 TEU befördern. An Deck werden maximal 15 Container nebeneinander gestaut. 1991 wurde von der Daewoo Heavy Industries die "CGM Normandie" für die französische CGM (heutige CMA CGM) gebaut. Sie hatte eine Kapazität von 4410 TEU und war das erste Post-Panamax-Schiff im Europa–Fernost Dienst. Auch hier konnten bei einer Schiffsbreite von 38,0 m 15 Container nebeneinander an Deck platziert werden. 1992 folgte die "Bunga Pelangi" für die Reederei MISC (Malaysia International Shipping Corporation Berhad) mit ähnlichen Abmessungen. 1994/1995 folgten die "Nedlloyd Hongkong" und "Nedlloyd Honshu" als erste und einzige Post-Panamax-Open-Top-Schiffe für Royal Nedlloyd. Aus Japan folgten ab Dezember 1994 drei Schiffe der "NYK-Altair"-Klasse für die NYK Line, fünf baugleiche Schiffe für die Mitsui O.S.K. Lines und die "OOCL-California"-Klasse der Reederei OOCL (Hongkong), die erstmals mit 40 Metern Breite auf Deck 16 Container nebeneinander stauen konnten. 1995 wurden für American President Lines (APL) weitere sechs Post-Panamax-Schiffe (C11-Klasse) gebaut, jeweils drei bei HDW (Kiel) und Daewoo Heavy Industries. APL hatte zu dieser Zeit (bis Anfang 1999) mit insgesamt elf solchen Schiffen die größte Post-Panamax-Flotte. Ab 1996 kam mit dem Regina-Mærsk-Typ die erste Baureihe der Very Large Container Ships (VLCS) in Fahrt. Es waren die ersten 42,8 Meter breiten (sie können 17 Containerreihen nebeneinander stauen) und ersten über 300 Meter langen Containerschiffe. Mit einer Stellplatzkapazität von 7.000 TEU waren die Schiffe um mindestens 50 % größer als die bisherigen Rekordhalter – einen solchen Größensprung hatte es bis dahin noch nicht gegeben. Projekte und fertige Konstruktionsentwürfe von Klassifizierungsgesellschaften oder/und Bauwerften für einen als Suezmax-Containerschiff bezeichneten Typ für bis zu 14.000 TEU gibt es seit etwa 1996. Seit dem Ausbau des Suezkanals können jedoch auch größere Schiffe wie die Emma-Mærsk-Klasse den Suezkanal passieren. Auch sind Entwürfe für ein Malaccamax-Containerschiff für 21.000 TEU bereits durchgerechnet. Hierbei blieben jedoch die Begrenzungen bei den Abfertigungskapazitäten und die Tiefgangsbeschränkungen in den Containerhäfen unberücksichtigt. Die deutsche Hapag-Lloyd AG hielt sehr lange ausschließlich am Panamax-Schiffstyp fest und begann als letzte der größeren Container-Reedereien erst im Jahre 2001 mit dem Neubau eines ersten Post-Panamax-Schiffs, der "Hamburg Express". 2005 wurde mit der "MSC Pamela" das erste Containerschiff mit 45,6 Metern Breite in Dienst gestellt, hier können erstmals 18 Container nebeneinander gestaut werden. Ultra Large Container Ships (ULCS). Die Odense-Werft realisierte ab September 2006 mit der "Emma-Mærsk-Klasse" einen sehr großen Containerschiffstyp mit einer Tragfähigkeit von 14.770 TEU. Er kommt trotz seiner Größe mit einer Schiffsschraube aus; sie wird angetrieben von einem 14-Zylinder Wärtsilä RT-flex 96 C-B Zweitakt-Motor mit weit über 80 MW Leistung. Die acht Schiffe der "Emma-Mærsk"-Klasse, die einheitlich mit „E“ beginnende Mærsk-Namen tragen, können bei 56,4 Meter Breite 22 Container nebeneinander auf Deck laden. Sie sind 397 m lang und haben einen Maximaltiefgang von 16,0 m. Bis zu elf Containerlagen übereinander werden im Rumpf des Schiffes, darüber maximal neun Lagen an Deck gestapelt. Es gibt Anschlüsse für 1000 Kühlcontainer. a> für 16.020 TEU läuft den Hamburger Hafen am 28. Mai 2013 an Im Jahr 2008 wurde die "MSC Daniela" in Dienst genommen. Sie ist im Dienst der Mediterranean Shipping Company. Mit einer Länge von 366 m und Breite von 51,2 m ist der vom Germanischen Lloyd klassifizierte „Megaboxer“ für den neuen Schleusenkanal des Panamakanals ausgelegt und kann 13.800 TEU transportieren. Das Typschiff der MSC-Daniela-Klasse leitete den Bau einer Serie von Schwesterschiffen ein, zu der auch die – allerdings anders motorisierte – CMA CGM Christophe Colomb gehört. Maersk bestellte im Februar 2011 zehn 18.270-TEU-Schiffe der Triple-E-Klasse mit einer Option auf 20 weitere Schiffe. Im Juni 2011 wurde die Option auf den Bau von weiteren zehn Schiffen eingelöst, wodurch sich die Bauorder auf 20 Schiffe erhöhte. Sie sind mit zwei Hauptmaschinen ausgestattet. Ihre Maximalgeschwindigkeit beträgt 23 Knoten (die der Emma-Maersk-Klasse 25 Knoten). Auch sind die Schiffe darauf ausgelegt, bei niedrigerer Geschwindigkeit treibstoffsparend betrieben zu werden (Slow steaming). "Triple E" steht für "economy of scale, energy efficiency and environmentally improved", also für wirtschaftlich durch Größe, energieeffizient und umweltfreundlicher. Ende 2012 fuhren weltweit 163 Containerschiffe mit einer Kapazität von mehr als 10.000 TEU, inklusive der 20 Triple-E's von Maersk waren 120 weitere bestellt. Das erste dieser Schiffe hatte am 23. Februar 2013 in Korea seinen "semi-launch". Anfang März 2015 gab die japanische Reederei Mitsui O.S.K. Lines die ersten Einheiten mit über 20.000 Stellplätzen in Auftrag. Der MOL 20.000-TEU-Typ soll bis 2017 in Fahrt sein. Entwicklung der Schiffsgröße. Die zur jeweiligen Zeit größten Containerschiffe der Welt. Bei den Schiffen einer baugleichen Baureihe wird nur das erste Schiff der Baureihe aufgelistet. Aktueller Rekordhalter sowie die aktuellen Höchstwerte in Fettdruck Kühlcontainerschiffe. Containerschiffe mit mehr als 50 Kühlcontainern werden häufig auch als Kühlcontainerschiffe bezeichnet. Der Markt der Kühlcontainer nimmt stark zu und stellt eine ernsthafte Konkurrenz zu den Kühlschiffen dar. 1972 begann United Fruit (heute Chiquita) mit dem Befördern von Bananen in Kühlcontainern. Einer der Gründe dafür ist, dass schnelleres Löschen des Schiffes im Hafen möglich wird. Dafür werden auch lukenlose Schiffe eingesetzt, um direkt mit einem Kran an die Container zu gelangen. Die ersten lukenlosen Kühlcontainerschiffe wurden im Jahre 1999 von HDW hergestellt und boten Stellplätze für 990 TEU Kühlcontainer sowie 33 TEU ungekühlte Container. Diese Schiffe sind für Dole im Einsatz und bedienen den Fruchttransport von Mittelamerika in die USA. Heute gehört Hamburg Süd zu einer der größten Reedereien, die sich auf den Transport von Kühlcontainern von und nach Südamerika spezialisiert haben. Die Schiffe der „Monte“-Klasse mit 5500 TEU und „Rio“-Klasse mit 5905 TEU der Hamburg-Süd sind die Containerschiffe mit der größten Kühlkapazität. Sie haben 1365 Anschlüsse für Kühlcontainer, das sind Stellplätze für rund 2500 TEU Kühlcontainer an und unter Deck. Lukendeckellose Containerschiffe. Seit 1990 werden lukendeckellose Containerschiffe gebaut. Das sind Schiffe, deren Laderäume keine Lukendeckel (bzw. nur auf erstem und zweitem Laderaum hinter dem Wellenbrecher) haben, wodurch die Be- und Entladezeiten verringert werden sowie das Gewicht der Lukendeckel eingespart wird. Ein spezieller Bug gegen hohe Wellen und ein leistungsfähiges Pumpsystem sind dafür nötig. Das weltweit erste Schiff dieser Bauart war die Bell Pioneer. Die bisher einzigen großen Containerschiffe in dieser Bauweise betrieb Nedlloyd, später Royal P&O Nedlloyd NV, jetzt Mærsk mit den fünf 1991/92 gebauten Panamax-Schiffen vom Ultimate Container Carrier-Typ, sowie den zwei weltweit ersten Postpanamax-Open-Top-Schiffen "Nedlloyd Hongkong" und "Nedlloyd Honshu", Baujahr 1994. Aus Gründen der Schiffsfestigkeit (Torsion), der Schiffssicherheit und der Wirtschaftlichkeit ist man jedoch wieder davon abgekommen, Open-Top-Schiffe mit mehr als 1000 TEU zu bauen. Dadurch, dass die Lukendeckel fehlen, muss höherfester Stahl eingesetzt und zusätzlich die Gurtung versteift werden, was aus wirtschaftlicher Sicht zu teuer ist. Außerdem ist ein hoher Freibord nötig, um eindringendes Seewasser zu minimieren. (Siehe die Feederschiffe der Werft Sietas, die auch nur im mittleren Laderaum keine Deckel mehr haben, dafür aber hochgezogene Lukenkumminge.) Antrieb. Die Containerschiffe der 1. und 2. Generation hatten Einschraubenantrieb (Dampfturbine oder Dieselmotor). Die Schiffe der 3. Generation (Baujahre 1971–1981) waren anfangs für 27–28 Knoten konzipiert. Dafür waren Zweischraubenantriebe (Turbine oder Diesel) bzw. sogar Dreischraubenantriebe mit drei Dieselmotoren notwendig. Ein weiteres Konzept, das in dieser Generation von Containerschiffen erstmals umgesetzt wurde, waren die Gasturbinenschiffe des Euroliner-Typs. Dieser Antrieb, bisher nur von Militärschiffen bekannt, stellte sich jedoch, insbesondere nach der Ölkrise Anfang der 1970er Jahre, schnell als unwirtschaftlich heraus. Erste große Panamaxschiffe mit Einschraubenantrieb wurden ab Ende 1980 in Dienst gestellt, als erstmals leistungsfähige Dieselmotoren mit 50.000 PS zur Verfügung standen und somit auf die teureren Mehrschraubenantriebe verzichtet werden konnte. Seit Ende der 1970er Jahre wurden wegen der hohen Rohölpreise und des Verzichts auf die sehr hohe Geschwindigkeit von 28 Knoten fast alle turbinenangetriebenen Containerschiffe auf Dieselmotorantrieb umgebaut, da diese erheblich weniger Brennstoff verbrauchen. Auch gab es Umbauten hinsichtlich des Antriebs von 2 Turbinen / 2 Propellern auf 1 Turbine / 1 Propeller, wie zum Beispiel die vier Hapag-Lloyd-Schiffe vom Typ „Hamburg Express“. Die gängige Dienstgeschwindigkeit fast aller großen Containerschiffe lag dann bei 24, Ende der 2000er Jahre bei etwa 25 Knoten. Die im Mai 2006 von der Volkswerft gelieferte "Mærsk Boston" als Typschiff von sieben sehr schnellen Panamax-Containerschiffen erreicht mit einem 12-Zylinder-Sulzer-Diesel eine Dienstgeschwindigkeit von 29,2 Knoten und ist das schnellste Containerschiff der Welt. Die "Mærsk Boston" besitzt folgende Daten: Länge 294,1 m, Breite 32,18 m, Tiefgang 13,5 m, DWT 52400 t, 48853 BRZ, 4170 TEU. Die bis zum Jahr 2005 größten eingebauten Dieselmotoren sind 12-Zylinder-Zweitakt-Reihenmotoren der Typen MAN-B&W 12K98ME/MC mit 69,1 MW bei 94–104/min bzw. von Wärtsilä-Sulzer 12RT-flex96C Common Rail mit 68,7 MW bei 100/min. Ein Problem bei der Verwirklichung der über 12.000 TEU Containerschiffe ist die Antriebsanlage. Die Reeder wollten bis zur Krise im Jahr 2008 nur Containerschiffe mit einer Dauergeschwindigkeit von 25 Knoten (plus Reserven) um die Schiffe (besonders wenn sie im Liniendienst fahren) in bestehende Umläufe integrieren zu können. Dafür wurde bei der Emma-Mærsk-Klasse statt eines bisher weit verbreiteten 12-Zylinder-Reihen-Dieselmotors mit 90.000 oder 93.000 PS ein 14-Zylinder-Dieselmotor des Typs Wärtsilä/Sulzer 14RT-flex96C mit 108.908 PS Leistung eingebaut. Der Propeller hat ca. 10,0 m Durchmesser und wiegt etwa 130 Tonnen, um die größere Motorkraft bei gleicher Drehzahl des Motors (94–104/min) in Vortrieb umzusetzen. Angesichts hoher Kraftstoffkosten und einer seit Mitte 2008 andauernden Schifffahrtskrise fahren die meisten Schiffe inzwischen deutlich langsamer als vor Beginn der Krise ("Slow steaming").Bei den neu in Auftrag vergebenen größten Containerschiffen der Maersk Line mit einer Kapazität von 18.000 TEU wurde die Maximalgeschwindigkeit auf 23 Knoten herabgesetzt und ein Zweischraubenantrieb verbaut. Bei bereits in Betrieb befindlichen Schiffen konnte sich sogar rentieren, die Bugwulst umzubauen und durch eine Form zu ersetzen, die für eine geringere Geschwindigkeit optimiert ist. Die neuen Nasen sollen 1–2 % Kraftstoff sparen. Das derzeit größte Containerschiff, die Barzan, ist für eine normale flexible Betriebsgeschwindigkeit (operation speed) von nur noch 12 bis 18 Knoten ausgelegt. Europa. Odense Staalskibsværft (Odense Steel Shipyard), Dänemark (2012 geschlossen) Containerschiffe deutscher Werften. Post-Panamax-Containerschiff "P&O Nedlloyd Barentsz" (5468 TEU) Bj. 2000 von der Kvaerner Warnowwerft (2001) "Mærsk Boston", Ende März 2006 vor der Volkswerft Die derzeit größten bei einer deutschen Werft gebauten Containerschiffe wurden ab Herbst 2005 bei der Volkswerft, Stralsund gebaut. Das Typschiff, die "Mærsk Boston" wurde am 24. März 2006 getauft und im Mai 2006 abgeliefert. Sie sind vom Typ VWS4000 und maßen 294,1 m Länge ü.a. und 32,18 m Breite bei einer Kapazität von 4250 TEU. Der Antrieb besteht aus einem Sulzer 12 RTA 96C Diesel mit 93.400 PS. Dadurch wird eine Dienstgeschwindigkeit von 29,2 Knoten erreicht, es sind die schnellsten Containerschiffe der Welt. Containerschiffe der Größe 2500/2700 TEU (Typ CV 2500/2700) bauten HDW in Kiel, SSW in Bremerhaven, Nordseewerke in Emden, Blohm + Voss in Hamburg, Volkswerft in Stralsund, Aker Werften in Wismar und Warnemünde. Seit Jahren führend in Konstruktion und Bau von Containerschiffen bis 1200 TEU Größe (Feederschiffe), ist die Werft J. J. Sietas in Hamburg gewesen. Seit Anfang 2006 baute diese Werft auch größere Containerschiffe, das erste 1700-TEU-Schiff wurde mit der "Safmarine Mbashe" abgeliefert. Inzwischen wurde dort der Bau von Containerschiffen eingestellt. Im November 2011 musste das Unternehmen Insolvenz anmelden. Die größten Containerschiff-Reedereien der Welt. Die 20 größten Containerschiffs-Reedereien beherrschen etwa 85 % des Marktes. Die deutsche Reederei Hapag-Lloyd AG, von 1976 bis 1983 noch größte Containerschiffsreederei der Welt, war seit vielen Jahren nicht mehr unter den „Top 10“ der Rangliste. Im August 2005 wurde die Übernahme von CP Ships durch Hapag-Lloyd bekanntgegeben. Hierzu bedurfte es einer Kapitalerhöhung von einer Milliarde Euro. Hapag-Lloyd rückte damit auf Platz 6 der großen Container-Reedereien. Am 11. Mai 2005 wurde offiziell bekanntgegeben, dass Mærsk-Sealand für 2,96 Milliarden US-Dollar (entspr. 2,3 Mrd. Euro) P&O Nedlloyd übernehmen will. Die P&O-Nedlloyd-Aktie war am 10. Mai mit 41 US-Dollar bewertet, Mærsk-Sealand bot den Aktionären in einem bis zum 5. August 2005 terminierten Übernahmeangebot 57 US-Dollar pro Aktie. Mitte August 2005 war die Übernahme abgeschlossen. Die P&O Nedlloyd existiert seit Februar 2006 nicht mehr. Sie wurde vollständig in die „Mærsk Line“ integriert. Durch die Übernahme erhöhte der Marktführer Mærsk seinen Marktanteil von 12 auf 18 Prozent am Weltcontainerverkehr. Größte Containerschiffs-Flotten nach Ländern. Nach Nationalität der Eigner hatten folgende Staaten Containerschiffs-Flotten mit mehr als 1000 BRZ je Schiff (Anzahl der Schiffe / Kapazität in tausend Standardcontainern) Der UNCTAD Bericht (Seite 42 ff.) enthält die Angaben die den Anteil der Schiffe in deutscher Hand belegen. Man muss unterscheiden zwischen Schiffseignern (= Eigentümern) und Schiffsbetreibern (Reedereien). So ist z. B. die Reederei Maersk (Stand 2009) Eigentümerin etwa der halben von ihr betriebenen Flotte; die andere Hälfte hat sie gechartert. Der große Anteil von Schiffen in deutscher Hand lässt sich erklären durch die Steuerbegünstigungen von Schiffsbeteiligungen. Siehe auch Schifffahrtskrise seit 2008. Allianzen. Das Container-Feederschiff von "Asia Pacific Marine Container Lines of Canada" auf der Außenelbe mit Kurs auf Hamburg (2007) 1969 erfolgte auf der Route "Europa–Australien/Neuseeland" die Umstellung des Liniendienstes auf Containerverkehr mit Schiffen der zweiten Generation ("ANZECS"-Dienst). Er wurde durch Hapag-Lloyd, Deutschland, der Overseas Containers Limited (OCL), Großbritannien (ein Zusammenschluss von fünf bedeutenden englischen Linienreedereien), der Associated Container Transportation (ACT), Großbritannien, der Nedlloyd, Niederlande, der Australian National Line und der Shipping Company of New Zealand gegründet. Die wichtigste und ladungsstärkste Schifffahrtsverbindung ist die "Europa–Fernost" Route. 1968 wurde von den großen Linienreedereien die Umstellung auf den Containerverkehr beschlossen. Hier gab es ab 1971 die erste große Allianz, den "TRIO-Dienst" (von Reedereien aus drei Ländern gegründet). Die Umstellung auf Containerverkehr bedeutete für die damalige Zeit ein solch großes Investitionsvolumen, dass es keine Reederei alleine finanzieren konnte. Es wurden hier die damals größten und schnellsten Containerschiffe der 3. Generation in der Zeit von November 1971 bis Juli 1973 in Fahrt gesetzt. Der TRIO-Dienst wurde durch die Reedereien NYK Line/Japan (3, ab 1976 4 Schiffe), Mitsui O.S.K. Lines/Japan (2, ab 1977 3 Schiffe), Hapag-Lloyd/Deutschland (4, ab 1981 5 Schiffe), Overseas Container Line (OCL)/Großbritannien (5, ab 1989 7 Schiffe; wurde später von P&O übernommen) und Ben Line-Ellerman/Großbritannien (3 Schiffe) gebildet. Der "TRIO"-Dienst wurde Anfang 1991 aufgelöst, wobei jedoch Hapag-Lloyd und NYK weiterhin bis heute mit anderen Reedereien zusammenarbeiten. Die zweite Gruppe war ab 1972 der "Scandutch Service" der Reedereien Wilh. Wilhelmsen/Norwegen, Det Østasiatiske Kompagni (EAC)/Dänemark, Broström/Schweden und Nedlloyd/Niederlande. CGM/Frankreich trat 1973 bei und "Malaysian Intern. Shipping Co." (MISC) 1977. Auch diese Allianz wurde 1991 beendet. Die dritte Allianz wurde 1975 gegründet mit dem "ACE-Dienst" (Asian Container Europe) der Reedereien K-Line/Japan, Orient Overseas Container Line (OOCL)/Hongkong, Neptune Orient Lines (NOL)/Singapur und Compagnie Maritime Belge (CMB)/Belgien. Von 1991 bis 1996 gab es eine Allianz zwischen Mærsk Line und P&O. Von 1996 an arbeitete aber Marktführer Mærsk Line mit der amerikanischen Sea Land Corp. global zusammen. Die Ergänzung war so ideal, das Mærsk die US-Reederei 1999 fast komplett übernommen hat. Nur von 1991 bis 1993 gab es den BEN-EAC-Dienst. Das waren die drei skandinavischen Reedereien sowie Ben Line und Ellermann. Der BEN-EAC-Dienst wurde 1993 komplett von Mærsk-Line übernommen. Von 1996 bis 2001 gab es die "Global Alliance" der Reedereien Hapag-Lloyd, NYK, NOL und P&O. Royal Nedlloyd trat nach der Fusion mit P&O 1997 bei. 1977 begann der Containerverkehr auf der Route "Europa–Südafrika", genannt "SAECS"-Dienst, gegründet durch die Reedereien "Deutsche Afrika Linien", Hamburg, "Compagnie Maritime Belge", "Royal Nedlloyd", "Overseas Container Line" (später P&O) und "Safmarine", Südafrika. Hier wurden neun moderne 2400 TEU Zweischrauben-Containerschiffe eingesetzt. Dieser Dienst wird auch heute noch von Mærsk Line, Safmarine, CGM (nur bis Ende der 1990er Jahre), und Deutsche Afrika Linie bedient, seit Februar 2006 ist Mitsui-OSK Lines noch hinzugetreten. Inzwischen werden moderne 4500–5000-TEU-Schiffe (Sling 1) sowie 1800-TEU-Schiffe (Sling 2) eingesetzt. Derzeitige Allianzen. Reedereiallianzen müssen von der amerikanischen Federal Maritime Commission anerkannt werden. In Klammern der Anteil am weltweiten Containerverkehr. C (Programmiersprache). C ist eine imperative Programmiersprache, die der Informatiker Dennis Ritchie in den frühen 1970er Jahren an den Bell Laboratories für die Systemprogrammierung des Betriebssystems Unix entwickelte. Seitdem ist sie auf vielen Computersystemen verbreitet. Die Anwendungsbereiche von C sind sehr verschieden. Sie wird zur System- und Anwendungsprogrammierung eingesetzt. Die grundlegenden Programme aller Unix-Systeme und die Systemkernel vieler Betriebssysteme sind in C programmiert. Zahlreiche Sprachen, wie C++, Objective-C, D, Java, JavaScript, PHP, Vala oder Perl orientieren sich an der Syntax und anderen Eigenschaften von C. Überblick. C ist eine Programmiersprache, die auf fast allen Computersystemen zur Verfügung steht. Sie zählt zu den sogenannten prozeduralen Programmiersprachen. Um den Wildwuchs zahlreicher Dialekte einzudämmen, wurde C mehrfach standardisiert (C90, C95, C99, C11). Abgesehen vom Mikrocontrollerbereich, wo eigene Dialekte existieren, sind die meisten aktuellen PC-/Server-Implementierungen eng an den Standard angelehnt; eine vollständige Implementierung aktueller Standards ist aber selten. In den meisten C-Systemen mit Laufzeitumgebung steht auch die genormte C-Standard-Bibliothek zur Verfügung. Dadurch können C-Programme, die keine sehr hardware-nahe Programmierung enthalten, in der Regel gut auf andere Zielsysteme portiert werden. Konzeptionell ist C auf einfache Kompilierbarkeit ausgelegt. Die Compiler erzeugen in der Regel aber auch nur wenig Code zur Gewährleistung der Sicherheit zur Laufzeit der Programme. Die Verbreitung von C ist groß, und viele Programmierschnittstellen für Anwendungsprogramme und Betriebssystem-APIs werden in Form von C-Schnittstellen implementiert, z. B. Win32. Frühe Entwicklungen. C wurde 1969–1973 von Dennis Ritchie in den Bell Laboratories für die Programmierung des damals neuen UNIX-Betriebssystems entwickelt. Er stützte sich dabei auf die Programmiersprache B, die Ken Thompson und Dennis Ritchie in den Jahren 1969/70 geschrieben hatten – der Name C entstand als Weiterentwicklung von B. B wiederum geht auf die von Martin Richards Mitte der 1960er-Jahre entwickelte Programmiersprache BCPL zurück. Ritchie schrieb auch den ersten Compiler für C. 1973 war die Sprache so weit ausgereift, dass man nun den Unix-Kernel für den PDP-11 neu in C schreiben konnte. K&R C. 1978 veröffentlichten Brian W. Kernighan und Dennis Ritchie die erste Auflage von The C Programming Language (deutsch: "Programmieren in C"). Die darin beschriebene Fassung von C, die nach den Buchautoren „K&R C“ genannt wird, erweiterte die ursprüngliche Sprache um neue Schlüsselwörter wie codice_1 oder codice_2 und führte erstmals die I/O-Standardbibliothek ein. Bis zur Standardisierung der Sprache diente die von Kernighan und Ritchie geschriebene Spezifikation als informelle Referenz für das Programmieren in C. Normen und Standards. "→ Hauptartikel: Varianten der Programmiersprache C" C verbreitete sich rasch und wurde laufend weiterentwickelt. Das führte dazu, dass das von Kernighan und Ritchie beschriebene C nicht mehr dem C entsprach, das von den Compilern unterstützt wurde. Um eine Normierung der Sprache zu erreichen, setzte das American National Standards Institute (ANSI) 1983 ein Komitee namens X3J11 ein, das 1989 schließlich die Norm "ANSI X3.159-1989 Programming Language C" verabschiedete. Ein Jahr später übernahm die ISO diese Norm (mit kleinen Änderungen) als "C90". 1995 veröffentlichte die ISO eine Ergänzung zur Norm "(C95)". 1999 wurde der Standard IEC 9899 verabschiedet. Mit diesem Standard, der als "C99" bekannt ist, flossen auch aus C++ bekannte Erweiterungen zurück in die Sprache C. Danach arbeitete das Normierungskomitee WG14 an der nächsten Erweiterung der Programmiersprache unter dem Arbeitstitel "C1X ", die am 8. Dezember 2011 als C11 veröffentlicht wurde. Verwendung. Das Haupteinsatzgebiet von C liegt in der Systemprogrammierung einschließlich der Erstellung von Betriebssystemen und der Programmierung von eingebetteten Systemen. Der Grund liegt in der Kombination von erwünschten Charakteristiken wie Portabilität und Effizienz mit der Möglichkeit, Hardware direkt anzusprechen und dabei niedrige Anforderungen an die Laufzeitumgebung zu haben. Auch Anwendungssoftware wird oft in C erstellt. Wegen der hohen Ausführungsgeschwindigkeit und geringen Codegröße werden Compiler, Programmbibliotheken und Interpreter anderer höherer Programmiersprachen (wie z. B. die Java Virtual Machine) oft in C implementiert. C wird als Zwischencode einiger Implementierungen höherer Programmiersprachen verwendet. Dabei wird diese zuerst in C-Code übersetzt, der dann kompiliert wird. Dieser Ansatz wird entweder verwendet, um die Portabilität zu erhöhen (C-Compiler existieren für nahezu jede Plattform), oder aus Bequemlichkeit, da kein maschinenspezifischer Codegenerator entwickelt werden muss. Einige Compiler, die C auf diese Art benutzen, sind Chicken, EiffelStudio, Esterel, PyPy, Sather, Squeak und Vala. C wurde allerdings als Programmiersprache und nicht als Zielsprache für Compiler entworfen. Als Zwischensprache ist es daher eher schlecht geeignet. Das führte zu C-basierten Zwischensprachen wie C--. C wird oft für die Erstellung von "Anbindungen" genutzt (zum Beispiel Java Native Interface). Diese Anbindungen erlauben es Programmen, die in einer anderen Hochsprache geschrieben sind, Funktionen aufzurufen, die in C implementiert wurden. Der umgekehrte Weg ist oft ebenfalls möglich und kann verwendet werden, um in C geschriebene Programme mit einer anderen Sprache zu erweitern (z. B. mod perl). Eigenschaften. Die Programmiersprache C wurde mit dem Ziel entwickelt, eine echte Sprachabstraktion zur Assemblersprache zu implementieren. Es sollte eine direkte Zuordnung zu wenigen Maschineninstruktionen geben, um die Abhängigkeit von einer Laufzeitumgebung zu minimieren. Als Resultat dieses Designs ist es möglich, C-Code auf einer sehr hardwarenahen Ebene zu schreiben, analog zu Assemblerbefehlen. Die Portierung eines C-Compilers auf eine neue Prozessorplattform ist, verglichen mit anderen Sprachen, wenig aufwändig. Bspw. ist der freie GNU-C-Compiler (gcc) für eine Vielzahl unterschiedlicher Prozessoren und Betriebssysteme verfügbar. Für den Entwickler bedeutet das, dass unabhängig von der Zielplattform fast immer auch ein C-Compiler existiert. C unterstützt damit wesentlich die Portierbarkeit von Programmen, sofern der Programmierer auf Assemblerteile im Quelltext und/oder hardwarespezifische C-Konstrukte verzichten kann. In der Mikrocontroller-Programmierung ist C die mit Abstand am häufigsten verwendete Hochsprache. Datentypen. Außerdem wird zwischen Basisdatentypen "(basic types)" und abgeleiteten Typen "(derived types)" unterschieden. Basisdatentypen. C verfügt über 19 Basisdatentypen (eng. "basic types"). Diese werden in Datentypen für Ganzzahl- und Gleitkommazahlen aufgeteilt. Die verschiedenen Typen ermöglichen bei unterschiedlichem Speicherbedarf das Speichern von Daten aus einem unterschiedlich großen maximalen Wertebereich. Die C-Standard-Bibliothek ergänzt diese Datentypen über die plattformunabhängige Header-Datei codice_46 in der ein Set von Ganzzahltypen mit fester Länge definiert ist. Komplexe Zahlen. Zusätzlich existieren seit C99 noch drei Gleitkomma-Datentypen für komplexe Zahlen, welche aus den drei Gleitkommatypen abgeleitet sind: codice_47, codice_48 und codice_49. Ebenfalls in C99 eingeführt wurden Gleitkomma-Datentypen für rein imaginäre Zahlen: codice_50, codice_51 und codice_52. In einer "hosted"-Umgebung müssen die codice_53-Datentypen vorhanden sein; die codice_54-Typen sind optional. In einer "freestanding"-Umgebung sind alle diese sechs Datentypen optional. Abgeleitete Typen. int array[10][20]; // Array mit 10 Elementen, wobei jedes Element ein Array von 20»int«ist. int *p [10]; // Array mit 10 Elementen, wobei jedes Element ein»int *«(=Zeiger auf»int«) ist. int (*q)[10]; // Zeiger auf ein Array mit 10»int«-Elementen. int (*f)(int *); // Zeiger auf eine Funktion, die einen»int *«-Parameter hat und ein»int«zurückgibt void *(*get_cb(int))(void *); // Unübersichtlich! typedef void *(*callback)(void *); // Typedef:»callback«ist ein Zeiger auf eine Funktion, // die einen»void*«-Parameter hat und ein»void*«zurückgibt callback get_cb(int); // Übersichtlicher:»get_cb«hat einen»int«-Parameter und gibt einen Datenmodell. Die C-Sprachnorm legt die Größe (und damit den Wertebereich) der einzelnen Basisdatentypen nicht fest, sondern definiert lediglich Relationen zwischen den Größen der Basisdatentypen und fordert für jeden Basisdatentyp jeweils Mindestgrößen. Daraus ergeben sich in der Praxis mehrere Ausgestaltungsmöglichkeiten, welche man "Datenmodell" oder auch "Programmiermodell" nennt. Der Datentyp codice_14 wird auf einer Plattform in der Regel so festgelegt, dass seine Größe der natürlichen Datenwortgröße der CPU entspricht. Die Größe der Zeigertypen richtet sich nach der Größe des Speicherbereichs, der vom Programm aus adressierbar sein soll. Dieser Speicherbereich kann kleiner, aber auch größer sein, als der von der CPU-Architektur adressierbare Speicherbereich. Deklarationen. Erweiterungen am Sprachkern, die neue Schlüsselwörter erfordern, verwenden dafür ebenfalls Namen aus diesem reservierten Bereich, um zu vermeiden, dass sie mit Bezeichnern in existierenden C-Programmen kollidieren, z. B. codice_69, codice_53, codice_71, codice_72. Aufbau eines Programms in C. Das globale Sprachdesign sieht vor, dass ein Programm aus mehreren Modulen bestehen kann. Für jedes Modul existiert eine Quellcode-Datei (mit der Endung.c) und eine Header-Datei (mit der Endung.h). Die Quellcode-Datei enthält im Wesentlichen die Implementierung, die Header-Datei das Interface nach außen. Beide Dateien konsistent zu halten, ist bei C (wie auch bei C++) Aufgabe des Programmierers. Module, die Funktionen aus anderen Modulen benutzen, inkludieren deren Header-Dateien und geben dem Compiler damit die notwendigen Informationen über die vorhandenen Funktionen, Aufrufkonventionen, Typen und Konstanten. Jedes Modul kann für sich übersetzt werden und erzeugt eine Object-Datei. Mehrere Object-Dateien können zu einer Bibliothek zusammengefasst oder einzeln verwendet werden. Mehrere Object-Dateien sowie Bibliotheken (die auch nur eine Sammlung von Objekt-Dateien sind) können mittels "Linker" (deutsch: "Binder") zu einem ausführbaren Programm gebunden werden. Beispielprogramm in C. Der folgende Quelltext stellt ein einfaches C-Programm dar, das die Textzeile codice_73, gefolgt von einem Zeilenumbruch, ausgibt. Dieses Beispiel folgt den Vorgaben des ANSI-C-Standards; andere Versionen dieses Programms sind im Artikel Programmiersprachen beschrieben. In der ersten Zeile ermöglicht die Präprozessordirektive codice_74 die spätere Verwendung von Funktionen aus der Ein-/Ausgabe-Bibliothek "stdio" (auch „standard-input/output“ genannt). Diese "include"-Anweisung veranlasst den C-Präprozessor, vor der Übersetzung die Headerdatei codice_75 in den Quelltext zu kopieren, die unter anderem eine Deklaration der weiter unten verwendeten Ausgabefunktion codice_76 enthält. In der zweiten Zeile wird die Headerdatei codice_77 eingebunden, die die symbolische Konstante codice_78 definiert, damit die erfolgreiche Programmausführung dem Aufrufer plattformunabhängig signalisiert werden kann (siehe Zeile 7 des Programms). Include-Anweisungen können zwar nicht immer in beliebiger Reihenfolge, aber an jeder Stelle im Quelltext eingefügt werden – meist werden sie jedoch an den Anfang eines Programmtextes gestellt, um die Übersichtlichkeit zu erhöhen. In der vierten Zeile beginnt das eigentliche Programm mit der Definition der Funktion codice_79. Sie ist die Einstiegsfunktion eines C-Programms. codice_79 wird automatisch als erste Funktion aufgerufen. Anfang und Ende der Funktion codice_79 werden durch die beiden geschweiften Klammern markiert. Die erste Anweisung innerhalb der Funktion codice_79 ruft die Funktion codice_76 auf, die den Text „Hallo Welt!“ ausgibt. Die zweite Anweisung codice_84 beendet den Funktionsaufruf und legt den Rückgabewert fest. Damit wird der „Erfolgsstatus“ des ausgeführten Programms zum Ausdruck gebracht. Der Wert codice_78 bedeutet hier "fehlerfreie Ausführung". In der letzten Zeile folgt auf die schließende geschweifte Klammer ein Kommentar, eingeschlossen durch die Zeichenfolgen codice_86 und codice_87. Kommentare werden bei der Übersetzung ignoriert; sie sind für den menschlichen Leser gedacht, können aber auch von automatischen Software-Dokumentationswerkzeugen ausgewertet werden. Die Standardbibliothek. Die C-Standard-Bibliothek ist integraler Bestandteil einer "gehosteten" (engl. "hosted") C-Implementierung. Sie enthält unter anderem Makros und Funktionen, die mittels der Standard-Header-Datei verfügbar gemacht werden. Auf "freistehenden" (engl. "freestanding") Implementationen dagegen kann der Umfang der Standardbibliothek eingeschränkt sein. Die Standardbibliothek ist aufgeteilt in mehrere Standard-Header-Dateien, die hinzugelinkte Bibliothek ist jedoch oft eine einzige große Datei. Claire Danes. Claire Catherine Danes (* 12. April 1979 in New York City) ist eine US-amerikanische Schauspielerin. Beruflicher Werdegang. Als zwölfjährige Tochter eines New Yorker Künstlerpaares hätte Danes eine Rolle in Steven Spielbergs "Schindlers Liste" bekommen sollen. Als man ihr jedoch für die Zeit der Dreharbeiten in Polen keinen Privatlehrer zusagen konnte, lehnten ihre Eltern die Rolle ab. Zuvor spielte Danes 1992 bereits in einer Episodenrolle in der Erfolgsserie "Law & Order". Ihre Hauptrolle in der Fernsehserie "Willkommen im Leben" (1994–1995) brachte Danes einen Golden Globe ein und machte sie und ihren TV-Partner Jared Leto noch während ihrer Ausbildung an der "Performing Arts High School of New York" zu Filmstars. Für den Film "Titanic" wurde Claire Danes die Hauptrolle der Rose angeboten. Sie lehnte jedoch ab, weil sie kurz zuvor in "Romeo & Julia" mitspielte. 1998 erhielt Danes einen "London Critics Circle Film Award" als "Beste Schauspielerin" in dem Film "William Shakespeares Romeo & Julia" der gleichzeitig schauspielerisch ihr Durchbruch war. Nach Beendigung der Dreharbeiten zu "Brokedown Palace" im September 1998 begann sie ein vierjähriges Psychologie-Studium an der Yale University (mit einem von Oliver Stone verfassten Empfehlungsschreiben). Seit 2002 arbeitet Danes an ihrer Filmkarriere und spielte unter anderem in dem Filmdrama "Igby" mit. 2010 erhielt sie für die Titelrolle der Autistin Temple Grandin im HBO-Fernsehfilm "Du gehst nicht allein" den Emmy sowie 2011 ihren zweiten Golden Globe Award. Seit 2011 spielt sie die Hauptrolle der "Carrie Mathison" in der Showtime-Serie "Homeland", für die sie 2012 und 2013 zwei Golden Globes sowie zwei Emmys erhielt. Im September 2015 bekam sie den 2.559ten Hollywood Walk of Fame-Star. Privates. Claire Danes hatte Beziehungen mit dem Schauspieler Matt Damon, dem australischen Musiker Ben Lee sowie mit dem Schauspieler Billy Crudup. Seit September 2009 ist Claire Danes mit Hugh Dancy verheiratet. Kennengelernt hatten sich die beiden bei den Dreh-Arbeiten zu "Spuren eines Lebens". Am 17. Dezember 2012 kam ihr gemeinsamer Sohn zur Welt. Auszeichnungen. Golden Globe Awards Emmy Awards MTV Movie Awards Screen Actors Guild Awards C. Der Buchstabe C in verschiedenen Schriftarten C bzw. c (gesprochen:) ist der dritte Buchstabe des klassischen und modernen lateinischen Alphabets. Er bezeichnete zunächst die velaren Verschlusslaute /k/ und /g/ (letzterer seit dem 3. Jh. v. Chr. durch das neugeschaffene G vertreten); infolge der seit dem Spätlateinischen bezeugten Assibilierung vor Vorderzungenvokal bezeichnet "c" in den meisten romanischen und noch vielen anderen Sprachen auch eine (post-)alveolare Affrikate (ital., dt. tschech.) oder einen dentalen oder alveolaren Reibelaut (franz. engl., span.). Der Buchstabe C hat in deutschsprachigen Texten eine durchschnittliche Häufigkeit von 3,06 %. Aussprache. In den meisten romanischen Sprachen sowie verbreitet in der mittelalterlichen und neuzeitlichen Aussprache des Lateins und zahlreicher daraus entlehnter Wörter steht "c" vor Konsonanten und hinteren Vokalen (einschließlich /a/) für den stimmlosen velaren Plosiv /k/, vor ursprünglichen Vorderzungenvokalen "e", "i" (auch vor lat. "ae", "oe", "y") dagegen für einen Zischlaut (je nach Sprache und Sprachstufe eine Affrikate, oder ein reiner Frikativ /s/,; vgl. Romanische Palatalisierung). Die Verteilung dieser Allophone nach darauffolgendem Vokal wird gelegentlich in sprachspezifischer Lautschrift durch die Reihe ka – ce/ze – ci/zi – ko – ku (sogenannte Ka-ze-zi-ko-ku-Regel) wiedergegeben oder einen Merkspruch folgender Art zusammengefasst: „Nach "a, o, u" sprich "c" wie "k", vor "e" und "i" sprich "c" wie "z".“ Wo ein solcher Zischlaut vor einem hinteren Konsonanten wie /a/, /o/, /u/ (oder einem erst später daraus entstandenen Vorderzungenvokal, etwa frz. [y] ç", "z", oder (im Italienischen) den Digraphen "ci" bezeichnet. Umgekehrt tritt für den Velaren vor vorderem Vokal "k", im Französischen regelmäßig "qu", im Italienischen "ch" ein. Darüber hinaus wird der Buchstabe "c" zum Teil auch allgemein durch "z" bzw. "k" ersetzt, z. B. bei im heutigen Deutsch bei lateinischen Lehnwörtern: "Zirkus" statt "Circus". Außerhalb des Italienischen steht der Digraph "ch" in vielen romanischen Sprachen ebenfalls für einen Zischlaut, im Deutschen und im Gälischen für einen velaren oder palatalen Reibelaut. Die Kombination ck dient im Deutschen als Variante von "k" zur Kennzeichnung, dass der vorhergehende Vokal kurz ausgesprochen wird; der Trigraph "sch" stellt den Laut dar (wie in "Schule"). Herkunft. Die aus dem proto-semitischen Alphabet stammende Urform des Buchstaben stellt einen Fuß dar. Im phönizischen Alphabet wurde diese Bedeutung beibehalten. Der Buchstabe erhielt den Namen Gimel (Kamel) und hatte den Lautwert [g]. Die Griechen übernahmen den Buchstaben als Gamma. Zu Beginn wurde das Gamma in einer Form geschrieben, die wie ein Dach aussah (ähnlich dem späteren Lambda). Bis zur klassischen Zeit entwickelte sich das Gamma zu Γ weiter. Mit dafür verantwortlich war wahrscheinlich neben dem Wechsel der Schreibrichtung von rechts-nach-links auf links-nach-rechts auch der notwendige Wechsel der Schreibwerkzeuge zum Beschreiben von organischen Stoffen. Als die Etrusker das frühgriechische Alphabet übernahmen, hatten sie keine Verwendung für das Gamma, da im etruskischen stimmhafte Verschlusslaute wie [g] nicht vorkamen. Allerdings hatte die etruskische Sprache drei k-Laute. Die Etrusker veränderten daher den Lautwert des Buchstabens, um den stimmlosen Verschlusslaut [k] vor [e] oder [i] wiederzugeben. Mit eben dem Lautwert wanderte das Zeichen C dann in das lateinische Alphabet und wurde von den Römern, die durchaus zwischen der Tenuis K und der Media G unterschieden, so ursprünglich für die Laute [g] und [k], genauer, für die Silben [ge]; [gi] und [ke]; [ki] gesetzt. Wenn auch in archaischer Zeit in der lateinischen Schriftpraxis drei von ihren nachfolgenden Lauten unterschiedlich gefärbte [k]-Laute zeichenmäßig noch nicht konsequent unterschieden wurden, so setzte doch eine Differenzierung ein, nämlich C vor [e], [i], K vor [a] und Liquiden, Q vor [o], [u], von denen der Erstere auch noch für unser heutiges G verantwortlich ist. Bereits im 4. Jahrhundert v. Chr. kam dieser Prozess zum Abschluss, indem der Buchstabe Q nur noch vor das konsonantische [u] gestellt, während der Buchstabe K ab dem 3. Jahrhundert v. Chr. nur noch in formelhaften Abkürzungen, wie Kal. = Kalendae und dem Brandmal K. = Kalumniator vorkam. Beide Buchstaben wurden zugunsten des C verdrängt. Nun hing aber auch noch der [g]-Laut am Zeichen C und nach Plutarch (Quest. Rom. 54) war es 230 v. Chr. der Schreibschulen-Betreiber Spurius Carvilius Ruga, der durch Hinzufügung eines Striches das G aus dem C herausholte, und an die Stelle verfrachtete, welche der [ts]-Laut, also das Griechischen Zeta, unser Zet, im Griechischen einnahm. Erhalten blieb das Zeichen C als [ge]-Laut nur in den Abkürzungen C. = Gaius und CN. = Gnaeus. Interessant ist dabei, dass der Römer den neuen Buchstaben, also die Verknüpfung des Zeichens C mit Cauda (Schwanz) = G mit dem Laute [g], nicht ans Ende des Alphabetes setzte, wie später mit dem griechischen Y und Z geschah, sondern an die Stelle, die dem Zet nach dem griechischen Alphabete zukam. Nachdem der stimmhafte [z]-Laut, der an der Zeta-Stelle im Alphabet, also an der 7. Stelle stand und durch das Zeichen 'I' dargestellt wurde, zu R geworden war (fesiae → feriae), war das Zeichen nicht mehr nötig und der Buchstabe wurde durch den Censor Appius Claudius Caecus 312 v. Chr. (Marc. Capella: 1,3) getilgt. Zudem war Griechenland noch nicht erobert und die griechische Gelehrsamkeit in Rom noch nicht heimisch). Das könnte ein Hinweis darauf sein, dass dort eine Lücke empfunden wurde, weil auch in Rom die Buchstaben noch die alte phönizische Zahlbedeutung hatten. Im Spätlatein ab dem 5. Jahrhundert n. Chr. wurde das [k] vor einem hellen Vokal zu [ts]. Diese Aussprache wurde zum Standard im mittelalterlichen Latein, sie ist der Grund dafür, dass das C heute unterschiedliche Lautwerte hat. In romanischen Sprachen wurde diese Entwicklung zum Teil noch weiter fortgeführt; das C hat dort auch die Lautwerte [tʃ], [s] oder [θ]. Zitat. "Da wir, gleich den Griechen und Slaven, die tenuis des gutturallauts mit K ausdrücken, so ist dafür das aus dem lateinischen Alphabet entnommene C ganz überflüssig, fehlt darum auch der gothischen und altnordischen schrift, die Slaven verwenden es für S, die Polen und Böhmen für Z." (…) "unentbehrlich aber bleibt, solange wir für die kehlaspirata kein einfaches Zeichen, wie die Gothen das gr. X, annehmen, C in CH." (aus dem Grimmschen Wörterbuch) Chemische Waffe. Warnzeichen der US-amerikanischen Streitkräfte für chemische Waffen Chemische Waffen (auch Chemiewaffen) sind toxisch wirkende, feste, flüssige oder gasförmige Substanzen oder Gemische, die – in Verbindung mit der notwendigen Waffentechnik zur Ausbringung (Granaten, Sprühvorrichtungen) – ursprünglich hergestellt wurden, um Menschen in kriegerischen Auseinandersetzungen sowie bei Terror- und Sabotageakten zeitweilig kampf- bzw. handlungsunfähig zu machen oder zu töten. In der 1997 inkraftgetretenen Chemiewaffenkonvention wird die Verwendung auf jede Chemikalie in Waffen erweitert, deren toxische Eigenschaften Menschen oder Tiere zeitweiligen oder permanenten Schaden zufügen und auch die zu ihrer Produktion verwendeten Vorgängerstoffe, sofern sie nicht für eine andere Form der Weiterverarbeitung vorgesehen sind, zu den chemischen Waffen gezählt. Im erweiterten Sinn werden auch Brand- (Napalm), Nebel- und Rauchstoffe sowie Entlaubungsmittel (Herbizide) und Nesselstoffe zu den chemischen Waffen gerechnet. Chemische Waffen gehören zu den Massenvernichtungswaffen (CBRN-Waffen). Geschichte. Bereits im Peloponnesischen Krieg 431 bis 404 v. Chr. setzten die Spartaner Brandkörper ein, die hohe Luftkonzentrationen von Schwefeldioxid verursachten. In der Schlacht bei Liegnitz 1241 wurden die christlichen Ritter von den Mongolen durch „dampfausstoßende Kriegsmaschinen“ in Schrecken gesetzt. Die ersten modernen chemischen Waffen sind im Ersten Weltkrieg eingesetzt worden und basierten zunächst auf Substanzen, die bereits in der chemischen Industrie verwendet wurden, also in ausreichend großen Mengen vorhanden waren; das waren Gase wie Chlor, Phosgen, Cyanwasserstoff (Blausäure) oder Arsin. Diese hatten jedoch zwei große Nachteile: Zum einen waren sie durch wechselnde Windrichtungen unberechenbar (so konnte eine Gaswolke auf die eigene Stellung zurückgeweht werden), und andererseits verflüchtigte sich das Gas relativ schnell. Daher sind die meisten späteren chemischen Kampfstoffe Flüssigkeiten, die als Aerosole versprüht werden. Das hat zur Folge, dass die Substanzen an Boden, Kleidung, Haut und Gasmasken klebenbleiben und in die Filter eindringen können. Deshalb ist die Verweildauer viel länger als bei Gas, und die in die Filter eingedrungenen Tröpfchen verdunsten mit der Zeit, so dass die Träger kontaminierter Gasmasken kontinuierlich eine gewisse Rate an Kampfstoff einatmen. Das Hauptziel der neueren Kampfstoffe ist nicht allein die Lunge, sondern auch die Haut. Ein solcher Kampfstoff diffundiert durch die Haut hindurch in die Blutbahn und wird so schnell im ganzen Organismus verteilt. Daher stellen nur Ganzkörperschutzanzüge einen ausreichenden Schutz gegen Kampfstoffe dar. Ein bekannter und wichtiger Kampfstoff dieser Gruppe ist Schwefellost, auch bekannt unter dem Namen Senfgas. Erster Weltkrieg. Luftaufnahme eines deutschen Gasangriffs (1916) Durch Giftgas geblendete britische Soldaten warten auf die Behandlung Im Ersten Weltkrieg kam es zum ersten Einsatz von chemischen Kampfstoffen im August 1914 durch französische Truppen, die Xylylbromid – ein für die Pariser Polizei entwickeltes Tränengas – gegen deutsche Truppen einsetzten. Erste Versuche beider Seiten mit Stoffen wie Bromessigsäureethylester (durch Frankreich im März 1915) und o-Dianisidinchlorsulfonat, einem feinkristallinen Pulver, das Schleimhäute der Augen und Nase reizte (durch Deutschland am 27. Oktober 1914 bei Neuve-Chapelle), verliefen nicht zufriedenstellend, da die Stoffe sich beim Abschuss durch die entstehende Hitze zersetzten. In großem Umfang setzte zuerst das deutsche Heer Kampfgase ein, als Ende Januar 1915 an der Ostfront bei Bolimów in Polen bei einer Offensive der 9. Armee mit Xylylbromid gefüllte Geschosse gegen russische Truppen abgefeuert wurden. 18.000 Gasgranaten waren bereitgestellt worden, deren Wirkung aber durch Kälte und Schnee nahezu aufgehoben wurden. Ungleich bekannter wurde jedoch der erste wirkungsvolle Einsatz von chemischen Waffen an der Westfront vom 22. April 1915 in der Zweiten Flandernschlacht bei Ypern. Das deutsche XV. Armee-Korps unter General der Infanterie von Deimling ließ 150 Tonnen Chlorgas nach dem so genannten Haberschen Blasverfahren aus Flaschen entweichen. Eingeatmetes Chlorgas führt zu einem lebensbedrohlichen toxischen Lungenödem. Da Chlor schwerer als Luft ist, sank das Gas in die französischen Schützengräben und forderte dort angeblich rund 5.000 Tote und 10.000 Verletzte; heute geht man von 1.200 Toten und 3.000 Verwundeten aus. Frankreich setzte als erste der kriegführenden Nationen am 22. Februar 1916 Phosgen (COCl2) in Reinform ein, nachdem deutsche Gastruppen eine Mischung aus Chlorgas mit einem etwa fünfprozentigen Zusatz von Phosgen bereits Ende Mai 1915 an der Ostfront in Bolimów an der Bzura gegen russische Truppen sowie an der Westfront am 31. Mai 1915 bei Ypern gegen französische Truppen verwendet hatten. Phosgen wird der größte Anteil an allen Gasverletzten zugeschrieben. Später wurden die Kampfstoffe mittels Giftgasgranaten verschossen, bei denen durch farbige Kreuze (Blaukreuz, Gelbkreuz, Grünkreuz und Weißkreuz) erkennbar war, welche Art von Kampfstoff sie enthielten. An der Westfront wurde verstärkt „Gelbkreuz“ eingesetzt, das für Hautkampfstoffe stand. Buntschießen. Während des Ersten Weltkrieges wurden Kampfstoffe in der Spätphase häufig kombiniert eingesetzt. Stark reizend wirkende Kampfstoffe in Aerosol- oder Pulverform wie Blaukreuz konnten die Filter der Gasmasken durchdringen und zwangen die Träger, die Gasmaske abzunehmen. Gleichzeitig mit diesen "Maskenbrechern" wurden lungenschädigende Kampfstoffe wie Grünkreuz eingesetzt. Der kombinierte Einsatz verschiedener Kampfstoffe zu diesem Zweck wurde als „Buntschießen“ oder „Buntkreuz“ bezeichnet. Bei der Offensive deutscher und österreichisch-ungarischer Verbände im Raum Flitsch-Tolmein (Schlacht von Karfreit oder auch Zwölfte Isonzoschlacht) am 24. Oktober 1917 wurde der Angriff durch „Buntschießen“ von Gasbatterien vorbereitet. Die italienischen Soldaten verfügten nur über ungenügende oder gar keine Schutzbekleidung – in diesem Abschnitt starben durch den Gasangriff über 5.000 Italiener. Die angreifenden Verbände hatten es dadurch erheblich leichter, den Durchbruch durch die italienische Front zu erreichen. Auch die psychische Wirkung auf die Italiener war verheerend. Sehr viele Soldaten ergaben sich den Angreifern, die Kampfmoral sank drastisch. Die italienische Front musste bis an den Piave zurückgenommen werden; zur Verstärkung wurden französische und britische Verbände an diese Front verlegt. Die Italiener konnten die Lage nach einer Reorganisation später selbst wieder stabilisieren. Im Juni 1918 versuchte Österreich-Ungarn in einer letzten Offensive, den Piave zu überschreiten. Der Angriff war jedoch nicht erfolgreich, da zum einen die Italiener besser gegen Gasangriffe gerüstet waren und zum anderen ein Teil der chemischen Waffen zu lange gelagert worden war und damit seine Wirksamkeit verloren hatte. Ein weiterer militärisch erfolgreicher Fall von Buntschießen, wie von Oberst Georg Bruchmüller erfunden, erfolgte bei der Deutschen Frühjahrsoffensive vom 21. März bis 17. Juli 1918 an der Westfront in Nordfrankreich. Dabei lag das Augenmerk nicht auf einer langen Artillerievorbereitung und einem schwerfälligen Angriff auf breiter Front, sondern auf einem kurzen, aber zusätzlich durch gemischten Einsatz von Gasgranaten effektiven Artillerieschlag. Danach sollten die sogenannten Sturmbataillone nachrücken und verbliebene Widerstandsnester ausräumen. Der gemischte Gaseinsatz lähmte dabei die Widerstandskraft des Gegners entscheidend. Bewertung von chemischen Kampfstoffen als Kriegswaffe. Chemische Kampfstoffe werden heute allgemein als die schrecklichsten Waffen des Ersten Weltkrieges angesehen. Sie verursachten kurzzeitig große Ausfälle, wobei allerdings im Vergleich zu anderen damaligen Waffen die Todesraten sehr gering waren. Trotz der teilweise qualvollen Verletzungen waren die Heilungschancen besser als im Vergleich zu Verwundungen durch Schussverletzungen oder Artillerie; abgesehen von den Spätfolgen wie zum Beispiel Hautkrebs im Falle von S-Lost, die zum Teil erst nach Jahrzehnten eintraten. Chemische Waffen verursachten im Ersten Weltkrieg auf beiden Seiten insgesamt etwa 90.000 Tote und 1,2 Millionen Verwundete. Aufgrund mangelhafter Ausstattung mit Schutzausrüstung hatte Russland mehr als die Hälfte der Toten zu beklagen. An der Westfront hatten die Alliierten etwa doppelt so hohe Verluste wie die Deutschen. Deutschland und Österreich-Ungarn rüsteten ihre Soldaten mit wirksameren Gasmasken aus und konnten so höhere Verluste bei Gasangriffen vermeiden. Aufgrund der verhältnismäßig niedrigen Todesrate (manche Historiker nehmen an, dass insgesamt nur 18.000 Mann an der Westfront durch Gasangriffe starben) und der teilweise unkalkulierbaren Wirkung infolge von nicht vorhersehbaren Faktoren wie bspw. wechselnde Windrichtungen gilt Giftgas im Ersten Weltkrieg als eine wenig effektive Waffe. Zwischen den Weltkriegen. Im Ersten Weltkrieg hatte die Flugzeugtechnik deutliche Fortschritte gemacht: Reichweite, Zuverlässigkeit, Geschwindigkeit und maximale Zuladung hatten stark zugenommen. Auch hatten alle Seiten die Nützlichkeit von Aufklärungsflugzeugen erkannt. Ab 1919 wurde das Konzept der kolonialen Kontrolle aus der Luft von Winston Churchill erstmals umgesetzt. Die Royal Air Force sollte dabei die Kontrolle über die Kolonien im Nahen Osten übernehmen. Neben konventionellen Waffen wurden dabei auch Giftgaseinsätze aus der Luft erwogen und von Churchill gefordert. Aufgrund von technischen Problemen wurde Giftgas nur mit den bereits im Ersten Weltkrieg erprobten Methoden gegen die irakische Bevölkerung angewandt. Dabei kam es auch zu Giftgaseinsätzen gegen die Kurden in Sulaimaniyya im heutigen Irak. Vorbehalte britischer Militärs wies Churchill zurück: „"Ich verstehe die Zimperlichkeit bezüglich des Einsatzes von Gas nicht. Ich bin sehr dafür, Giftgas gegen unzivilisierte Stämme einzusetzen"“, ließ er verlauten. Das eingesetzte Gas müsse ja nicht tödlich sein, sondern nur „"große Schmerzen hervorrufen und einen umfassenden Terror verbreiten“". Im Rifkrieg in Nordmarokko setzte Spanien ab 1924 chemische Waffen gegen die aufständischen Rifkabylen, einen Berber-Stamm, ein. Dabei wurde Spanien von Frankreich und in einem Geheimvertrag von der deutschen Reichswehr unterstützt. Ein weiteres Mal wurde Giftgas vom faschistischen Italien im Krieg gegen Libyen 1924–1930 sowie gegen Äthiopien 1935–1936 verwendet. Italien setzte Giftgasbomben in Äthiopien ein, nachdem die äthiopische Weihnachtsoffensive erfolgreich italienische Truppen zurückgedrängt und Versorgungslinien unterbrochen hatte. Die äthiopischen Truppen waren sehr schlecht ausgerüstet und viele Krieger kämpften noch mit Speeren. Die Krieger trugen traditionelle Kleidung und verfügten über keine Schutzausrüstung, so dass besonders das hautschädigende Senfgas zu hohen Verlusten führte. Laut sowjetischen Schätzungen kamen durch den Einsatz von Giftgas 15.000 bis 50.000 Äthiopier ums Leben. Einheiten der Roten Armee unter dem Befehl des späteren Marschalls Michail Tuchatschewski setzten bei der Niederschlagung des Aufstands von Tambow 1921 mit Erlaubnis der Regierung Giftgas ein, um Aufständische zu töten. Der deutschen Reichswehr war die Entwicklung und der Besitz von chemischen Waffen durch den Versailler Vertrag verboten. Um das Verbot zu umgehen, kooperierte Deutschland ab 1923 mit der Sowjetunion (siehe: Vertrag von Rapallo) und erprobte auf dem Testgelände Tomka chemische Waffen. Eine Zusammenarbeit fand auch mit Spanien statt. Er nannte als Beispiel den Austritt toxischen Phosgengases aus einem Tank in Hamburg. Das Deutsche Reich durfte eigentlich solche Giftgase gar nicht herstellen und lagern. Die englische Öffentlichkeit diskutierte nach dem Ersten Weltkrieg über eine stärkere Zusammenlegung von ziviler und militärischer Forschung, wozu auch die Entwicklung neuer Chemiewaffen gehörte. „Die ganze Zukunft der chemischen Kriegführung hängt von der Farbstoffindustrie ab“, schrieb 1920 der Kriegskorrespondent der Londoner Times. Genfer Protokoll. Die Verwendung von vergiftenden Waffen war schon vor dem Ersten Weltkrieg durch die Haager Landkriegsordnung geächtet, deren Formulierung bot jedoch ausreichend Spielraum zu verschiedenen Auslegungen, so dass der Einsatz von Giftgas nicht eindeutig verboten war. Angesichts der Gräuel im Ersten Weltkrieg wurde 1925 im Genfer Protokoll die Anwendung von Giftgasen und bakteriologischen Mitteln ausdrücklich verboten. 1926: Frankreich, 1928: Italien, Sowjetunion (Erklärung), 1929: Deutschland, 1930: Großbritannien, 1970: Japan, 1975: USA. Viele der Unterzeichnerstaaten behielten sich bestimmte Handlungen vor, namentlich Der Vertrag ist nur ein Verbot des "Erst"einsatzes von B- und C-Waffen. Zweiter Weltkrieg. Während des Zweiten Weltkrieges war die einzige Nation, die chemische Waffen einsetzte, das Kaiserreich Japan. Diese wurden zusammen mit biologischen Waffen in China sowohl gegen chinesische Truppen als auch zur gezielten Massentötung von Zivilisten eingesetzt. Nach Erkenntnissen der Historiker Yoshiaki Yoshimi und Seiya Matsuno erhielt Yasuji Okamura vom Kaiser Hirohito die Erlaubnis, chemische Waffen während dieser Gefechte einzusetzen. Zum Beispiel ermächtigte der Kaiser den Einsatz von Giftgas während der Schlacht um Wuhan von August bis Oktober 1938 in 375 verschiedenen Einsätzen gegen die 1,1 Millionen chinesischen Soldaten, von denen 400.000 während der Schlacht starben. Artikel 23 der Haager Konvention (1899 und 1907) und Artikel V des Vertrags in Bezug auf die Nutzung von U-Booten und Schadgasen in der Kriegführung vom 6. Februar 1921 verurteilten jedoch bereits den Einsatz von Giftgas. Während der Schlacht von Changsha im Herbst 1939 setzte die Kaiserlich Japanische Armee ebenfalls in großen Mengen Giftgas gegen chinesische Positionen ein. Ein weiteres Beispiel ist die Schlacht von Yichang im Oktober 1941, in der das 19. Artillerieregiment die 13. Brigade der 11. Armee durch Beschuss der chinesischen Streitkräfte mit 1.000 gelben Gasgranaten und 1.500 roten Gasgranaten unterstützte. Das Gebiet war mit chinesischen Zivilisten, deren Evakuierung durch die japanische Armee untersagt wurde, überfüllt. Von den rund 3.000 chinesischen Soldaten in dem Gebiet waren 1.600 von der Wirkung des Gases erheblich betroffen. Während der Schlacht um Changde im November und Dezember 1943 versuchten Truppen der Kaiserlich Japanischen Armee, darunter die Einheit 516, zusammen mit der Versprühung von biologischen Kampfstoffen von Flugzeugen aus, durch den massiven Einsatz von Giftgas, welches hauptsächlich mit Artilleriegranaten sowohl auf chinesische Stellungen im Umland als auch in die Stadt abgeschossen wurde, den Widerstand der Verteidiger zu brechen. Bei dem eingesetzten Gas handelte es sich neben anderen Arten zur Hauptsache höchstwahrscheinlich um Senfgas und Lewisit. Im Laufe der Schlacht starben 50.000 chinesische Soldaten und 300.000 Zivilisten. Wie viele davon durch die biologischen und chemischen Waffen gestorben sind, ist ungeklärt. Sowohl die Einsätze von biologischen als auch von chemischen Waffen durch die Kaiserlich Japanische Armee werden zu den japanischen Kriegsverbrechen gezählt. Zu den zahllosen Menschenexperimenten der japanischen Armee, darunter der Einheit 731, gehörte auch das Testen von Giftgas an gefangenen chinesischen Zivilisten. Im Jahr 2004 entdeckten Yuki Tanaka und Yoshimi im australischen Nationalarchiv Dokumente, die belegen, dass Zyanidgas im November 1944 auf den Kai-Inseln (Indonesien) an australischen und niederländischen Kriegsgefangenen getestet wurde. Das Verbot der Anwendung von vergiftenden, chemischen und biologischen Waffen wurde im Zweiten Weltkrieg zumindest auf dem europäischen Kriegsschauplatz weitgehend beachtet, obwohl nicht alle beteiligten Länder dem Protokoll beigetreten waren. Ein weiterer wichtiger Aspekt war auch die gegenseitige Abschreckung, vergleichbar mit der atomaren Abschreckung im Kalten Krieg: Hätte eine der kriegführenden Parteien Giftgas eingesetzt, wurde als Folge eine Bombardierung des eigenen Territoriums mit chemischen Waffen durch Gegner befürchtet. Für den Fall, dass Deutschland an der Ostfront Kampfstoffe einsetzen sollte, hatte der britische Premierminister Churchill bereits im Mai 1942 mit einem Großeinsatz von Kampfstoffen gedroht. Ein amerikanischer Plan vom April 1944 sah für den Fall des Kampfstoffeinsatzes durch Deutschland einen Vergeltungsangriff gegen 30 große deutsche Städte vor. Innerhalb von 14 Tagen sollten in diesem Fall die Städte mit einer Gesamtfläche von 217 km² angegriffen und über ihnen insgesamt 15.345 t Senfgas (Lost) und 21.176 t Phosgen abgeworfen werden. Wegen der extrem hohen Kampfstoffkonzentration in diesem Fall (168 Gramm je Quadratmeter) gingen Schätzungen von 5,6 Millionen unmittelbar durch den Einsatz Getöteten und weiteren 12 Millionen an den Folgen des Angriffs Gestorbenen und Verletzten aus. Auch wäre der Einsatz meist unvorteilhaft gewesen, da die eigenen Soldaten in der Offensive verseuchtes Gelände eingenommen hätten und daher selbst Vergiftungen zu fürchten gehabt hätten. Ein britisches Plakat während des Zweiten Weltkrieges warnt vor möglichen Gasangriffen Im nationalsozialistischen Deutschen Reich wurde im Dezember 1936 bei I.G. Farben im Werk Leverkusen durch den Chemiker Gerhard Schrader das Nervengas Tabun entdeckt. Im Dezember 1939 synthetisierte er das in seiner Wirkung noch stärkere Nervengas Sarin. Ab Frühjahr 1942 produzierte I.G. Farben in ihrem Werk in Dyhernfurth in Schlesien das Nervengift Tabun. 1944 entdeckte der Nobelpreisträger Richard Kuhn mit seinem Mitarbeiter, Konrad Henkel, das Nervengas Soman in einer vom Heereswaffenamt unterhaltenen Abteilung des Kaiser-Wilhelm-Instituts für medizinische Forschung in Heidelberg. Diese Nervengase wurden aufgrund der Furcht vor einem Gegenschlag nicht eingesetzt. Deutschland hatte Ende der dreißiger Jahre als erste Nation die großtechnische (industrielle) Produktion von Nervengasen entwickelt, war also als einzige Kriegspartei zur Herstellung von Nervengasen im Kilogramm- und Tonnenbereich in der Lage. Dieser Umstand, gekoppelt mit der Verfügbarkeit modernster Trägersysteme wie der V-2, hätte die politische Führung in die Lage versetzt, einen strategischen Gaskrieg zu entfesseln, der unter Umständen von der Tragweite her ähnlich gravierend hätte sein können wie die Atombombenabwürfe auf Hiroshima und Nagasaki. Die verantwortliche Führung des deutschen Kampfgasentwicklungsprogramms verheimlichte Hitler gegenüber bewusst die tatsächlichen Möglichkeiten, denn eine Eskalation zum Gaskrieg wurde befürchtet, falls Hitler klar werden sollte, welche Wirkung beispielsweise ein mit Tabungefechtsköpfen bestückter V-2-Angriff auf London hätte haben können. Für den taktischen Einsatz waren bereits als Träger Werferwaffen (sog. Nebelwerfer) hergestellt und die entsprechenden Truppen (Nebeltruppe) geschult worden. Die oft geäußerte Vermutung, dass die Erfahrungen Hitlers im Ersten Weltkrieg ihn davon abgehalten haben sollen, chemische Kampfstoffe einsetzen zu lassen, entbehrt jeder Grundlage, da er selbst die Produktion dieser befahl und die Vorbereitungen für den Beginn eines Gaskrieges anordnete. Die Gründe dafür, dass die ab 1942 in großem Umfang produzierten Nervengase nicht zum Einsatz kamen, waren größtenteils logistischer (Rohstoffknappheit) und militärstrategischer Art. Ebenfalls von Bedeutung waren sowohl die deutsche Fehleinschätzung, die Alliierten würden ebenfalls über Nervengas verfügen, als auch die alliierte Androhung massiver Gegenschläge im Falle eines deutschen Ersteinsatzes chemischer Kampfstoffe. In den Gaskammern der deutschen Vernichtungslager Auschwitz-Birkenau, Belzec, Sobibor, Mauthausen, Treblinka und Lublin-Majdanek wurden viele Opfer des Holocaust mit dem blausäurehaltigen Insektizid Zyklon B und mit Motorabgasen (Kohlenstoffmonoxid) ermordet. Nach 1945. Nach dem Zweiten Weltkrieg wurden umfangreiche deutsche Bestände – zwischen 30.000 und 40.000 Tonnen chemischer Waffen – in der Nord- und Ostsee in der von US-amerikanischen Streitkräften geleiteten Operation Davy Jones' Locker mitsamt ihren Transportschiffen versenkt, so vor der norwegischen Hafenstadt Arendal 1946. Die Versenkung der Schiffe erfolgte durch Sprengung oder Beschuss durch Bordwaffen begleitender britischer Kriegsschiffe. 1955/56 wurden Restbestände, die von der Royal Air Force gebunkert worden waren, in der Operation Sandcastle nordwestlich von Irland im Atlantik versenkt, so auch die SS Kotka. Von 1944 bis 1970 wurden von Seiten der United States Army in 26 so genannten Versenkungszonen ("dump zones") an der Ostküste der USA chemische Kampfstoffe versenkt, von denen aufgrund mangelnder oder unzureichender Dokumentation unklar ist, wo sie sich exakt befinden und welche Chemikalien in welcher Menge dort lagern. Gesichert ist, dass Ägypten chemische Waffen im Jemen eingesetzt hat. Die Technologie dazu stammte aus der Sowjetunion, welche diese auch an andere mit ihr verbündete Staaten des Nahen Ostens – wie dem Irak – weitergegeben hatte. Während anfangs von Frankreich und den USA noch konventionelle Brandbomben wie Napalm gegen die Nordvietnamesen und die FNL verwendet wurden, startete die Regierung Kennedy 1961 den systematischen Einsatz von Chemikalien gegen Nordvietnam. Die im Zuge der Operation Ranch Hand als Entlaubungsmittel eingesetzten Herbizide (vor allem Agent Orange) sollten dem Gegner die Deckung durch die Vegetation nehmen sowie seine Ernte vernichten. Agent Orange war mit 2,3,7,8-Tetrachlordibenzodioxin verunreinigt und verursachte dadurch schwere gesundheitliche Schäden unter der Bevölkerung und Soldaten beider Seiten. Erste Verhandlungen zu einem Chemiewaffenübereinkommen ("CWÜ", auch "Chemiewaffenkonvention" genannt) begannen 1968 mit der "Working Group on Chemical Weapons" bei der "Eighteen Nations Conference on Disarmament (ENCD)" der UN in Genf, die seit 1962 bestand. 1969 nahm eine "Conference of the Committee on Disarmament of the UN (CCD)" ihre Tätigkeit auf. Der angebliche Einsatz von Sarin gegen eigene Kräfte (Deserteure) in der "Operation Tailwind" im September 1970 in Laos entpuppte sich als politisch motivierte Falschmeldung. 1975 gab es 30 Teilnehmerstaaten für ein CWÜ; darunter waren auch die Bundesrepublik und die DDR. 1976 fanden bilaterale Verhandlungen von USA und UdSSR statt. Die Verhandlungen wurden im selben Jahr unterbrochen. Erst 1979 einigten sich die USA und UdSSR weitgehend über die Grundstruktur des Vertrags und weitgehend auch über Verifikationsmaßnahmen; ungelöst blieb aber die Frage von Ad-hoc-Verdachtskontrollen vor Ort. 1979 gab es ein "Committee on Disarmament of the United Nations" (CD); es hatte 40 Teilnehmerstaaten. 1980 bildete sich ein "Ad Hoc Committee on Chemical Weapons". 1981 beschuldigte der US-amerikanische Außenminister Alexander Haig die UdSSR und die von ihr unterstützte Vietnamesische Volksarmee, im Zweiten Laotischen Bürgerkrieg (1963–73) Mykotoxine eingesetzt zu haben, um Tausende von Hmong zu töten. Diese Vorwürfe konnten nicht bewiesen werden. Ende der 1980er Jahre erkannte das US-Militär, dass die bisherigen, lange gelagerten Chemiewaffen bis spätestens 1990 zum Großteil zersetzt und damit militärisch unbrauchbar sein würden; daher unterschrieb Präsident Ronald Reagan 1987 ein Gesetz, um die alten chemischen Kampfstoffe zu zerstören und gegen neue, binäre Kampfstoffe zu ersetzen. Bei diesen wird nicht der endgültige und wirksame chemische Kampfstoff bereitgehalten, sondern verschiedene, stabilere und weniger korrosive Komponenten, die beim Einsatz der binären Waffen dann erst zum Wirkstoff reagieren. Chemiewaffenübereinkommen (1992/1997). Nach dem Ende des Kalten Krieges um 1990 änderte sich die geostrategische Lage deutlich. Es kam zu zahlreichen Abrüstungsverhandlungen zwischen westlichen Staaten und Nachfolgestaaten der Sowjetunion. Chemische Waffen (oft lagerten sie in inzwischen rostigen Tanks) galten vielen inzwischen als Altlast. Am 3. September 1992 wurde das CWÜ von den Mitgliedstaaten der Genfer Abrüstungskonferenz (UNCD) verabschiedet. Seit 13. Januar 1993 kann es unterzeichnet werden. Eine Unterzeichnung erfolgte durch etwa 150 Staaten, darunter USA und Russland. Deutschland hat die Konvention 1994 ratifiziert, Österreich und die Schweiz 1995. Am 29. April 1997 trat das Chemiewaffenübereinkommen in Kraft 1997 erfolgte die Ratifizierung auch durch die USA und Russland. Die ratifizierenden Staaten haben sich durch das CWÜ unter anderem dazu verpflichtet, bis zum Jahr 2012 sämtliche Chemiewaffen unter internationaler Aufsicht zu vernichten. Stand Dezember 2013 sind 190 Staaten der Konvention beigetreten. Als jüngstes Ratifizierungsland ist Syrien der Konvention am 14. September 2013 beigetreten. Im Januar 1993 unterzeichnet, aber bis heute noch nicht ratifiziert wurde der Vertrag von Israel und Myanmar. Vier Staaten haben die Konvention bisher weder unterzeichnet noch ratifiziert: Ägypten, Angola, Nordkorea und Südsudan. Die Einhaltung des Abkommens wird durch die Organisation für das Verbot chemischer Waffen, OVCW (englisch Organisation for the Prohibition of Chemical Weapons, OPCW) überwacht. Die OVCW ist eine internationale Organisation mit Sitz in Den Haag. Erster Golfkrieg. Schon zu Beginn des Ersten Golfkriegs setzte die irakische Armee auf Weisung Saddam Husseins chemische Waffen gegen den Iran ein. So warf die irakische Luftwaffe bereits 1980 speziell dafür entwickelte Kanister mit chemischen Kampfstoffen über iranischen Stellungen ab. Bekanntheit erlangte der Giftgasangriff auf die Fernverkehrsstraße am 9. August 1983 Rawanduz–Piranschahr. Insgesamt wurden etwa 100.000 iranische Soldaten Opfer von Gasangriffen. Viele davon wurden durch Senfgas verwundet. Etwa 20.000 davon wurden während des Einsatzes sofort hauptsächlich durch die Nervengase Tabun und VX getötet. Diese Zahlen schließen allerdings keine Zivilisten ein. Da Giftgas während der Kämpfe auch auf Stellungen und Posten abgeworfen wurde, die sich in oder um Dörfer befanden und deren Einwohner keine Möglichkeit hatten, sich gegen die Gase zu schützen, gab es auch unter der Zivilbevölkerung sehr viele Opfer. Außerdem wurden durch den Einsatz verschiedener Gase Gebiete mit gefährlichen chemischen Schadstoffen kontaminiert. Der Irak setzte chemische Waffen auch gezielt ein, um Zivilisten zu töten. Tausende wurden bei Giftgasangriffen auf Dörfer, Städte und Frontkrankenhäuser getötet, so auch beim und der Giftgasangriff auf Sardasht vom 28. Juni 1987. Bekanntestes Beispiel ist der Giftgasangriff auf Halabdscha am 16. März 1988, bei dem etwa 5.000 irakische Kurden getötet und 7.000 bis 10.000 so schwer verletzt wurden, dass viele von ihnen später starben. Die irakischen Streitkräfte setzten mehrere verschiedene Gase gleichzeitig ein. Dazu gehören Nervengase wie Tabun, Sarin und möglicherweise VX, aber auch Senfgas und ein Cyanidkampfstoff. Im Rahmen der Vorbereitung auf den Ersten und Zweiten Irakkrieg kam es zu Auseinandersetzungen zwischen den USA und Deutschland über die Herkunft der irakischen Chemiewaffentechnologie. Terrorismus. 1995 kam es beim Terror-Anschlag der japanischen Aum-Sekte zur Freisetzung des Nervengases Sarin in der U-Bahn von Tokyo. Es gab 12 Tote und über 5.000 Verletzte. Ein früherer Anschlag der Sekte mit 7 Toten und 144 Verletzten wurde erst im Nachhinein bekannt. Im Oktober 2002 verwendeten russische Sicherheitskräfte in Moskau vermutlich das Opioid Carfentanyl und das Anästhetikum Halothan in Form eines Aerosol-Gas-Gemischs, um Terroristen kampfunfähig zu machen, die in einem Musical-Theater 800 Geiseln festhielten. Alle Geiselnehmer und über 129 Geiseln kamen ums Leben, die meisten aufgrund des Gases. Viele erlagen im Krankenhaus ihren Vergiftungen, wozu möglicherweise auch die fehlende Zusammenarbeit der Sicherheitskräfte mit den Ärzten beigetragen hat. Der Einsatz von Carfentanyl wurde offiziell nie bestätigt, möglicherweise im Hinblick auf die von Russland ratifizierte Chemiewaffenkonvention. Während des Irakkrieges setzte eine Terrororganisation, bei der es sich Berichten zufolge um die al-Qaida handelte, chemische Waffen hauptsächlich gegen Zivilisten ein, aber auch gegen US-Soldaten und irakische Soldaten und Polizisten. Bei dem eingesetzten Gas handelte es sich um Chlorgas. Da die Anschläge alle unter freiem Himmel durchgeführt wurden, war die Zahl der Todesopfer meistens gering, die Zahl der Verletzten betrug jedoch oft mehrere hundert. Zu den am meisten wahrgenommenen Giftgasanschlägen im Irak zählen der Anschlag auf eine Polizeiwache am 6. April 2007 mit 27 Toten und der Anschlag auf einen Dorfmarkt in Abu Sayda am 15. Mai 2007 mit 45 Toten. Bürgerkrieg Syrien 2013. Im Umland von Damaskus sind laut Chemiewaffeninspektoren der UNO in mehreren Dörfern Kampfmittel mit Sarin zum Einsatz gekommen. Der mögliche Einsatz von chemischen Waffen in drei weiteren Orten (Chan al-Asal und Scheich Maksud in der Provinz Aleppo sowie Sarakib, einer Kleinstadt nahe der Provinzhauptstadt Idlib,) soll untersucht werden. Chemische Kampfmittel. Als chemische Kampf"mittel" bezeichnet man jede Art von Gegenständen (Munition, Schweltöpfe, aber auch im strengen Sinne z. B. einfache Flaschen), die es ermöglichen, einen chemischen Kampf"stoff" zu transportieren. Sie lassen sich nach ihrem Angriffsgebiet am menschlichen Körper beziehungsweise ihrer Wirkung einordnen. Eine Grenzziehung zwischen den einzelnen Gruppen ist dabei aber nicht immer eindeutig möglich. Auch ist bei manchen dieser Gruppen bereits die bloße Zuordnung zu den chemischen Kampfstoffen umstritten. Chemische Kampfstoffe. Kanadischer Soldat mit Senfgas-Verbrennung während des Ersten Weltkrieges Viele chemische Kampfstoffe werden bevorzugt als Binärkampfstoffe eingesetzt, etwa die Nervenkampfstoffe Sarin, Soman und VX. Dabei werden zwei oder mehr im Vergleich zum Endstoff relativ ungefährliche Substanzen voneinander getrennt in einem Geschoss gelagert. Der eigentliche Kampfstoff entsteht erst nach dem Abschuss meist durch einfaches Vermischen der Komponenten, teilweise unter Zuhilfenahme eines geeigneten Reaktionsbeschleunigers. Vorteile sind die relativ gefahrlose Lagerung und Handhabung, da die verwendeten Chemikalien meist weniger giftig sowie besser lagerfähig als die Kampfstoffe selbst sind, d.h. es tritt keine oder nur geringe Zersetzung der Chemikalien oder Korrosion der Geschosse auf. Einsatzkonzept. Im Gegensatz zu den frühen Kampfstoffen, die gasförmig waren, werden heute überwiegend flüssige Kampfstoffe (selten auch Feststoffe) verwendet. Diese werden als Aerosol eingesetzt. Man unterscheidet hierbei nach der Tropfengröße zwischen zwei Einsatzarten: flüchtig und sesshaft. Einsatz flüchtig. Beim flüchtigen Einsatz werden sehr kleine Tropfen verwendet, die größtenteils augenblicklich verdampfen, so dass sehr schnell eine hohe Konzentration des Kampfstoffes wirksam werden kann (50 % als Dampf und 50 % als Feinaerosol). Die Belegungsdichte wird so gewählt, dass ein Atemzug in den meisten Fällen tödliche Mengen des Kampfstoffes enthält. Durch die rasche Verdampfung sollte das Gebiet nach maximal vier Stunden wieder ohne Schutz passierbar sein. Ziel des Angriffes ist es, den Gegner im angegriffenen Gebiet stark zu schwächen, um einen Durchbruch zu erleichtern, jedoch ohne die eigenen Truppen durch Schutzanzüge zu behindern. Am besten für einen flüchtigen Einsatz geeignet sind Sarin, Soman und Tabun (zusammengefasst unter dem Begriff G-Stoffe oder Trilone) oder Blausäure. Letztere stellt eine Ausnahme dar, da sie sehr leicht flüchtig ist und schon nach wenigen Minuten nicht mehr nachzuweisen ist (maximal 15 Minuten). Man spricht hier von einem superflüchtigen Kampfstoff. Wahrscheinlichste Einsatzmittel sind Mehrfachraketenwerfer und Fliegerbomben (eventuell mit Submunition), da diese eine sehr hohe Belegungsdichte ermöglichen. Einsatz sesshaft. Beim sesshaften Einsatz werden vergleichsweise große Tropfen (0,1 mm bis 1 mm Durchmesser) eingesetzt. Aufgrund der Größe fallen die Tropfen schneller, die Dampfkonzentration ist wesentlich kleiner (20 % Dampf, 80 % Tropfen) und ein Großteil des Kampfstoffes erreicht den Boden, wo er je nach Art des Kampfstoffes und der Witterung mehrere Wochen verbleiben kann. Ziel des Angriffes ist nicht die unmittelbare Vernichtung des Feindes, sondern die Einschränkung seiner Handlungsfreiheit. Schutz- und Dekontaminationsmaßnahmen kosten Zeit, kontaminiertes Gebiet ist nur mühsam zu durchqueren und die Moral der Truppe leidet erheblich. Des Weiteren müssen kontaminierte Truppenteile ersetzt und evakuiert werden, bevor die Schutzanzüge gesättigt sind (normalerweise nach spätestens 12 Stunden). Die wahrscheinlichsten Ziele sind gegnerische Flankenstellungen (um deren Gegenangriff zu erschweren oder zu verhindern), Artilleriestellungen (Ausschalten der Feuerunterstützung), Kommandostände und Nachschubwege. Am besten für diese Einsatzart geeignet sind Yperit (Senfgas/Lost) und V-Stoffe (namentlich VX). Die möglichen Einsatzmittel sind vielfältig, da nicht auf die Belegungsdichte geachtet werden muss (Artillerie, Bomben, Sprühflugzeuge, Raketen, Marschflugkörper etc.). Eine Sonderform des sesshaften Einsatzes ist der Einsatz verdickter Kampfstoffe. Dem Kampfstoff werden hierzu Verdickungsmittel beigemischt, um dessen Viskosität und damit die Tropfengröße weiter zu erhöhen. Dies führt wiederum zu einer geringeren Verdunstungsrate und damit größerer Sesshaftigkeit. Des Weiteren wird die Dekontamination stark erschwert. Hauptziele wären z. B. Flugplätze, um deren Benutzung langfristig zu verhindern. Internationale Ächtung. Seit 1997 sind chemische Waffen durch die Chemiewaffenkonvention international offiziell geächtet; auch die Entwicklung, Herstellung und Lagerung sind verboten. Dennoch bleiben die USA, neben Russland, nach wie vor größter Besitzer chemischer Kampfstoffe. Albanien. Ein sowjetischer Chemiewaffenkanister aus albanischen Beständen, 2006 Mitte Juli 2007 wurde mitgeteilt, dass Albanien als weltweit erster Staat seine sämtlichen Bestände an Chemischen Waffen nachweislich vernichtet hat. Die Finanzierung des Projektes erfolgte mit insgesamt 48 Millionen US-Dollar. Die Vernichtung der Kampfstoffe Schwefellost, Lewisit, Adamsit und Chloracetophenon dauerte von Februar bis Juli 2007. Die Technologie und damit die Anlage für die Vernichtung der Kampfstoffe wurde von einem renommierten deutschen Anlagenbauer gestellt. Der Betrieb der Vernichtungsanlage erfolgte ebenfalls durch deutsches Personal. Deutschland. In Deutschland wurden chemische Kampfstoffe im Zweiten Weltkrieg unter anderem bei der Firma ORGACID in Halle-Ammendorf und in beiden Weltkriegen in Munster hergestellt. Nach Ende des Krieges verblieben beträchtliche Mengen an Waffen in den Produktionsstätten. Sie wurden von den Alliierten beschlagnahmt und auf diverse Schiffe (z. B. SMS "Berlin") geladen, die dann im Skagerrak versenkt wurden. Aus heutiger Sicht wäre dies eine Umweltstraftat, war aber damals erlaubt. Heute ist an den ehemaligen Produktionsstandorten nur noch verseuchter Boden übrig, der in zwei Entsorgungsanlagen der "Gesellschaft zur Entsorgung chemischer Kampfstoffe und Rüstungs-Altlasten mbH (GEKA)" kontrolliert vernichtet wird. In den Anlagen der bundeseigenen Gesellschaft wird kontaminierter Boden zuerst „gewaschen“, um die hochkontaminierten Bereiche abzutrennen. Diese werden mit Kalk vermischt und in einer Plasmaanlage bei 1.350 bis 1.550 °C im Lichtbogen geschmolzen. Es entsteht dabei nach dem Abkühlen glasartige Schlacke, in der nichtbrennbare Stoffe gebunden sind sowie Verbrennungsgase. Mit Chemikalien befüllte Munition wird vorher in einem so genannten Sprengofen gesprengt. In beiden Fällen werden die Gase ausgewaschen und anschließend die Salze ausgefällt. Russland. Am 1. April 2006 wurde die zweite russische Anlage zur Vernichtung von Chemiewaffen in Kambarka, Republik Udmurtien in Betrieb genommen. In der Anlage, die mit deutscher Hilfe finanziert wurde, sollten 6.350 t arsenhaltiger Hautkampfstoff beseitigt werden, deren Vernichtungskosten über 270 Millionen Euro betragen. Deutschland trägt davon 90 Millionen Euro. Die erste C-Waffen-Vernichtungsanlage wurde im Dezember 2002 in der Kleinstadt Gorny im Gebiet Saratow am Mittellauf der Wolga gebaut. Außerhalb von Potschep, im Gebiet Brjansk, lagern abgefüllt in über 67.000 Fliegerbomben rund 7.500 t der Nervenkampfstoffe Vx, Sarin und Soman. In einem ersten Schritt wurden die Kampfstoffe von russischer Seite waffenuntauglich gemacht und ab 2009 eine Anlage mit Hochturbulenzreaktoren zur thermischen Entsorgung der Kampfstoffe in Betrieb genommen. Russland übernahm von der ehemaligen Sowjetunion rund 40.000 Tonnen Chemiewaffen, die bis 2012 vernichtet werden sollen. Die etwa 400 km östlich von Moskau gelegene Stadt Dserschinsk wurde 2006, 2007 und 2013 vom amerikanischen Blacksmith Institute zu einem der zehn am stärksten verseuchten Orte der Welt „nominiert“. Wasser und Böden sind hier hochgradig mit Chemikalien aus der Zeit der Chemiewaffenproduktion im Kalten Krieg verseucht, da neben Leckagen und anderen Unfällen in den Jahren 1930 bis 1998 etwa 300.000 Tonnen chemischer Abfälle unsachgemäß entsorgt wurden. Über laufende Sanierungsmaßnahmen ist bislang nichts bekannt. Vereinigte Staaten. Vernichtung einer mit Sarin, einem Nervengas, gefüllten Rakete im Johnston Atoll Chemical Agent Disposal System (kurz JACADS) Die USA nutzten ab Ende der 1980er Jahre bis Ende der 1990er Jahre eine Anlage für die Vernichtung von chemischen Kampfstoffen auf dem Johnston-Atoll im Pazifik. Die Vernichtung von 90 % der C-Waffen der USA in den letzten zwei Jahrzehnten durch Verbrennung hat 35 Milliarden US-Dollar gekostet. Überlegungen für Syrien. Russland schlug im September 2013 vor, Syrien möge seine Chemiewaffen unter westlicher Aufsicht zerstören. Die USA, die zuerst mit einem militärischen Schlag gedroht hatten, setzten dann auf eine diplomatische Lösung. Syrien hat nunmehr am 14. September 2013 den Beitritt zur OPCW ratifiziert welcher 30 Tage später vertragsgemäß in Kraft trat. Alle Anlagen zur Produktion der Waffen und zum Abfüllen von Munition sollen nach Angaben der OPCW unmittelbar danach zerstört worden sein. Da die NGO Arms Control Association und die Organisation für das Verbot chemischer Waffen davon ausgehen, dass eine Vernichtung während des laufenden Bürgerkriegs kaum vorstellbar sei, hat letztgenannte einen mehrstufigen Plan zum Abtransport der nunmehr auf 1.000 Tonnen geschätzten chemischen Kampfstoffe und eine Vernichtung außerhalb Syriens unter der Beteiligung mehrerer Staaten voraussichtlich bis Ende 2014 vorgestellt. Chemikalien-Lieferungen für Waffenproduktion? Die britische Zeitung Daily Mail enthüllte am 7. September 2013, dass von 2004 bis 2010 die britische Regierung fünfmal zwei britischen Firmen die Lieferung der Chemikalie Natriumfluorid bewilligt habe, die zur Synthese von fluorhaltigem Sarin verwendet werden kann. Auf Anfrage der Fraktion Die Linke gab die deutsche Regierung am 18. September 2013 bekannt, dass zwischen 2002 und 2006 insgesamt 137 Tonnen Fluorwasserstoff, Ammoniumhydrogendifluorid, Natriumfluorid sowie Zubereitungen mit Kalium- und Natriumcyanid nach Syrien exportiert worden sind. Syrien hat eine geplante Verwendung dieser Dual-Use-Güter für zivile Zwecke plausibel dargestellt. Die Ausfuhrgenehmigung sei erst nach „"sorgfältiger Prüfung aller eventueller Risiken, einschließlich von Missbrauchs- und Umleitungsgefahren im Hinblick auf mögliche Verwendungen in Zusammenhang mit Chemiewaffen"“ erteilt worden, so das Wirtschaftsministerium. Clipboard. Ein Clipboard ist der englischsprachige Begriff für Lake Champlain. Der Lake Champlain (‚Champlainsee‘, frz. "Lac Champlain") ist das achtgrößte Binnengewässer in den Vereinigten Staaten. Er liegt südlich von Montreal zwischen den Green Mountains und den Adirondack Mountains an der Grenze der US-Staaten Vermont und New York und hat im Norden noch geringen Anteil in der kanadischen Provinz Québec. Er ist nach Samuel de Champlain benannt, der ihn 1609 erforschte und ab dem 4. Juli des Jahres befuhr. Zu diesem Zeitpunkt galt er als Grenze zwischen den Stämmen der Algonkin im Westen und den Irokesen im Osten, was sich auch in den Namen ausdrückte, die die Urbewohner dem See gegeben hatten: "Pe-Tonbonque" (etwa: „Wasser, das zwischen ihnen [den Stämmen] liegt“) bei den Algonkin, "Caniaderi-Guarunte" (etwa: „See, der das Tor zum Land ist“), bei den Irokesen. Im etwa 180 km langen und bis zu 19 km breiten Champlainsee liegen etwa 80 Inseln, von denen eine ein eigenes County im US-Staat Vermont bildet. Er ist nach den Großen Seen im Mittleren Westen, dem Iliamnasee in Alaska und dem Lake Okeechobee in Florida der größte See der Vereinigten Staaten. Geschichte. Nach Entdeckung des Sees durch Samuel de Champlain 1609 gehörte dieser mit dem umliegenden Gebieten zu Neufrankreich, bis dieses im Verlaufe des Siebenjährigen Krieges (1754–1763) von den Briten erobert wurde. Die Franzosen erbauten mehrere Fort entlang des Sees von denen das bedeutendste Fort Carillon war, welches 1755 zu Beginn des Siebenjähriges Krieges am Südende des Sees errichtet wurde. Das Fort war mehrfach der Schauplatz militärischer Auseinandersetzungen zunächst zwischen Franzosen und Briten und dann zwischen Briten und Amerikanern. Während des Amerikanischen Unabhängigkeitskrieges (1775–1783) kam es auf dem Lake Champlain am 11. Oktober 1776 zur Schlacht von Valcour, der ersten Seeschlacht der United States Navy. Sie endete mit einem Sieg der Briten. Am 11. September 1814 erstritt die amerikanische Flotte unter Commodore Thomas Macdonough einen Sieg gegen die anrückenden Briten, als diese von Kanada aus eine Invasion des Staates New York versuchten (Schlacht bei Plattsburgh). Im 19. Jahrhundert wurde der Champlainsee durch ein Kanalsystem mit dem Hudson River verbunden. Die Häfen Burlington, Port Henry und Plattsburgh sind nur noch von geringem kommerziellen Interesse. Bekannt wurde das Gewässer durch das Gerücht eines Seeungeheuers, das nach seinem oben bereits erwähnten Entdecker "Champ" genannt wird. Seit 1982 steht der entfernte Verwandte "Nessies" unter gesetzlichem Schutz, da er zu einer wichtigen Touristenattraktion geworden ist. Inseln. Der Champlainsee umfasst auch ungefähr 80 Inseln, einschließlich eines ganzen Countys in Vermont. Einzelnachweise. SChamplainsee __NOTOC__ Cha-Cha-Cha. Der Cha-Cha-Cha ist ein moderner, paarweise getanzter Gesellschaftstanz kubanischen Ursprungs. Der Cha-Cha-Cha in seiner weltweit verbreiteten westlichen Variante gehört zu den lateinamerikanischen Tänzen des Tanzsports und wird als Bestandteil des Welttanzprogramms in Tanzschulen unterrichtet. Die ursprüngliche kubanische Form des Cha-Cha-Chas unterscheidet sich in Technik und Figurenrepertoire stark vom heutigen Turniertanz und ist in der spanischen Schreibweise "Cha-cha-chá" in der modernen Salsa-Szene anzutreffen. Entstehung. Die Geschichte des Cha-Cha-Chas wurde nur mündlich überliefert und wird leicht unterschiedlich wiedergegeben. Der Rhythmus des Cha-Cha-Chas wurde zwischen 1948 und 1951 von Enrique Jorrín erfunden, einem kubanischen Komponisten und Violinisten, der damals in der kubanischen Charanga "Orquesta América" spielte. Jorrín variierte in seinen Kompositionen seit 1948 beständig den kubanischen Tanzrhythmus Danzón: Unter anderem reduzierte er die für die kubanische Musik typische Synkopierung und fügte dem ursprünglich rein instrumentalen Musikstil rhythmische Gesangseinlagen hinzu. 1951 führte Jorrín den Cha-Cha-Cha-Rhythmus unter dem von ihm gewählten Namen "neodanzón" (span. „neuer Danzón“) auf den kubanischen Tanzflächen ein. 1953 nahm die Orquesta América Jorríns Hits "La Engañadora" und "Silver Star" auf. Der neue Rhythmus kam beim Publikum sehr gut an und inspirierte die Tänzer zu einem Tanzschritt, der den Grundschritt des Mambo um einen schnellen Wechselschritt ergänzt. Dieser schnelle Wechselschritt verursachte laut Jorrín ein scharrendes Geräusch, das für ihn wie "cha cha chá" klang, und das er als rhythmische Gesangseinlage in einige seiner Lieder einbaute. Dieses Geräusch und die daraus resultierende rhythmische Zählweise "2 3 Cha-Cha-Cha" waren letztendlich namensgebend für den Tanz. Der Cha-Cha-Cha verbreitete sich sehr schnell über die kubanische Grenze hinweg nach Mexiko und in die Vereinigten Staaten. In den Vereinigten Staaten avancierte der Cha-Cha-Cha über Nacht zum Modetanz des Jahres 1955, gestützt durch die legendären Mambo- und Cha-Cha-Cha-Orchester des Tanzsalons "Palladium" in New York City. Möglicherweise lag der große Erfolg des Cha-Cha-Cha im Entfernen der Synkopierung begründet, denn diese rhythmische Besonderheit erschwert westlichen Hörern das Tanzen und gilt als Mitursache für den schnellen Niedergang des Mambo. Der Tanz erfuhr sehr früh technische Anpassungen an die Rumba. 1962 wurde er offiziell zu den Turniertänzen hinzugenommen und wies bereits damals die Grundform der heutigen Turniervariante auf. Einen großen Beitrag zur technischen Entwicklung lieferte Walter Laird, der mit seiner Tanzpartnerin Lorraine Reynolds in den Jahren 1962, 1963 und 1964 Latein-Weltmeister wurde und mehrere Tanzbücher verfasste. 1963 wurde der Cha-Cha-Cha als lateinamerikanischer Tanz in das Welttanzprogramm aufgenommen und gehört seither weltweit zum Grundstock allgemeiner Tanzschulen. Charakteristik. Cha-Cha-Cha-Musik ist heiter und unbeschwert. Der Tanz ist ein amüsanter und koketter Flirt zwischen den Tanzpartnern, die in frechen offenen und geschlossenen Figuren miteinander spielen. Er ist vorwitziger als die verträumt-erotische Rumba, aber weniger aufreizend als der überschäumende Samba. Die kubanische Variante ist insgesamt ruhiger und weicher. Rhythmus und Musik. Der Cha-Cha-Cha wird im 4-Takt notiert, hat die Hauptbetonung auf dem ersten Taktschlag und wird auf Turnieren in einem Tempo von 30 bis 32 Takten pro Minute gespielt und getanzt. Cha-Cha-Cha ist in vielerlei Hinsicht ungewöhnlich für eine kubanische Musikform: Er wurde von Anfang an im 4/4-Takt notiert, während die meisten anderen kubanischen Musikformen ursprünglich im 2/4-Takt notiert und erst im Laufe der Zeit von Exilkubanern an die westliche 4/4-Notation angepasst wurden. Als Nachfolger des haitianischen "Danzón" hat er darüber hinaus keinen Bezug zur Clave, dem aus Afrika stammenden Rhythmusschema, das fast alle kubanische Musik prägt. Schließlich weist er keine Synkopierung auf und steht damit unter anderem im Gegensatz zum Mambo, bei dem die Hauptbetonung vom ersten auf den vierten Taktschlag verschoben ist. Seit Jorríns Tagen hat sich die Musik, auf die Cha-Cha-Cha getanzt wird, ständig verändert. Spielte das "Orquesta América" noch in der klassischen Charanga-Besetzung des "Danzóns" mit Perkussion, Klavier, Bass, Flöte und "Cuerdas", setzten sich bereits im "Palladium" fetzige Bläserbegleitungen durch. Zur nachhaltigen Beliebtheit des Cha-Cha-Cha trug auch bei, dass er problemlos mit der Metrik der westlichen Musik vereinbar ist. So wird Cha-Cha-Cha in Tanzschulen heute auf aktuelle Chart-Hits der Popmusik und des Latin Rock gelehrt. Technik. Charles-Guillaume Schmit und Elena Salikhova, Frankreich, bei der Austrian Open Championships Vienna, 2012 Der Cha-Cha-Cha ist ein stationärer Tanz, wird also weitgehend am Platz getanzt. Wie die Rumba lebt auch der Cha-Cha-Cha von Hüftbewegungen. Die Schritte sollten eher klein ausfallen, da sonst die Hüftbewegung unnötig erschwert würde. Charakteristisch für den Cha-Cha-Cha ist das Chassé auf „4 und 1“. Der ursprüngliche kubanische Cha-Cha-Cha und die moderne Turniervariante unterscheiden sich in allen weiteren Punkten so sehr, dass sie im Folgenden getrennt dargestellt werden. Kubanische Variante. Die lockere Tanzhaltung ist flexibel, was den Abstand der Partner zueinander betrifft, ausladende Armbewegungen gibt es keine. Das Figurenrepertoire ist durch den Platzwechsel Cross Body Lead und einfache Drehungen geprägt und etwa dem Basisrepertoire der modernen Salsa im geradlinigen Stil vergleichbar. Westliche Variante. Marian Sivak und Kristina Raczova, Slowakei, bei der Austrian Open Championships Vienna, 2012 Miha Vodicar und Nadiya Bychkova, Slowenien, bei der Austrian Open Championships Vienna, 2012 Die westliche Variante ist durch die Technik der lateinamerikanischen Tänze geprägt. Ähnlichkeiten zur Rumba sind in Grundschritt und Basic-Figuren zu finden, die Hüftbewegung hat jedoch durch das höhere Tempo und den schnellen Wechselschritt einen anderen Charakter, rotierende Anteile treten zurück. Die Füße sind in den Check- und Lockstep-Schritten wie in allen „echten“ lateinamerikanischen Tänzen (Salsa, Mambo, Rumba, eingeschränkt: Samba) leicht nach außen gedreht, die Schritte werden stets auf dem Fußballen angesetzt. Bei den langen Schritten auf den Taktschlägen 1, 2 und 3 wird das Bein ganz durchgestreckt und die Ferse flach aufgesetzt. Um die Musik besser rhythmisch akzentuieren zu können, erfolgen die Schrittansätze immer am Ende des ihnen jeweils zustehenden Zeitintervalls, dann aber sehr schnell ausgeführt. Die Betonungen auf „1“ und noch stärker „3“ sind deutlich zu machen; am Ende des Seitwärts-Chassés rotiert das gestreckte Spielbein aus, und zwar reaktiv durch das Senken in die Hüfte. Die Schrittgröße und die Intensität der die Schritte einleitenden Hüftbewegungen korrelieren, was bei Betrachtung von Anfängern fälschlicherweise den Eindruck erwecken kann, man würde sich kaum bewegen. Beim "Guapachá-Timing", einer rhythmischen Variante, belastet man nach einem Chassé den nächsten Vorwärts- bzw. Rückwärtsschritt erst auf der zweiten Hälfte des zweiten Taktschlages, so dass „4 und 1, "und" 3“ gezählt wird. Cha-Cha-Cha-Folgen (oder Choreographien) zeigen häufig offene Figuren auf, d. h. die Partner tanzen ohne Berührung; ansonsten wird mehr in halboffener als in geschlossener Tanzhaltung getanzt. Da die Hüftbewegungen schnell sind, ist eine Kontrolle des Oberkörpers nötig, die nicht zu einer Versteifung führen darf. Die Arme unterstützen den Spannungsaufbau im Schultergürtel und dienen der Balance wie auch der optischen Vergrößerung der Figuren als Mittel der Präsentation. Walter Lairds "The Technique of Latin Dancing" oder "Latin American Cha Cha Cha" (herausgegeben von der ISTD) fassen Grundschritte und Basic-Figuren (also keine Posen, Fall- und Hebefiguren) sowie weitere Hinweise zu Rhythmik und Ausführung zusammen, lassen aber weiten Raum für eine individuelle Interpretation jenseits der „bloßen“ Schritte. Die für Salsa und Mambo so typischen Figuren Cross Body Lead und alle darauf aufbauenden Figuren werden in diesen Werken nicht aufgeführt. Der Anfänger sollte die Figuren in etwa in der in den genannten Werken vorgesehenen Reihenfolge erlernen, wobei die Damendrehung, der New Yorker, Hip Twist, Fan, Hockeystick, Alemana, Opening Out, Three Chachas (Locksteps vor und zurück) als erster Einstieg und typische Figuren dienen können. Trivia. Die typische Musik für den Tanz, mit der der Tanz noch heute assoziiert wird, ist Tommy Dorseys Version von "Tea For Two Cha, Cha" vom September 1958. Der Cha-Cha-Cha war Tanz des Jahres 2007. Zu diesem Anlass wurde von 323 deutschen und zwei österreichischen Tanzschulen am 3. November 2007 ein neuer Weltrekord im Cha-Cha-Cha-Massensimultantanzen mit 50.419 Teilnehmern aufgestellt. Der Tanz begann zeitgleich um 21:12 Uhr und dauerte ca. sechs Minuten. Computerprogramm. Ein Computerprogramm oder kurz Programm ist eine den Regeln einer bestimmten Programmiersprache genügende Folge von Anweisungen (bestehend aus Deklarationen und Instruktionen), um bestimmte Funktionen bzw. Aufgaben oder Probleme mithilfe eines Computers zu bearbeiten oder zu lösen. Überblick. 'Computerprogramm', Begriffszusammenhänge und im Sprachgebrauch auftretende Synonyme Ein Computerprogramm gehört zur Software eines Computers. Es liegt meist auf einem Datenträger als ausführbare Programmdatei, häufig im sogenannten Maschinencode vor, die zur Ausführung in den Arbeitsspeicher des Rechners geladen wird. Das Programm wird als Abfolge von Maschinen-, d. h. Prozessorbefehlen von dem/den Prozessoren des Computers verarbeitet und damit ausgeführt. Unter ‚Computerprogramm‘ wird auch der Quelltext des Programms verstanden, aus dem im Verlauf der Softwareentwicklung der ausführbare Code entsteht. Eine Programmdatei, die aus Maschinencode besteht, enthält Befehle aus dem Sprachschatz des Prozessors, d. h. Befehle, die für den Prozessor „verständlich“ und damit ausführbar sind. Die Erstellung eines solchen Programms bezeichnet man allgemein als Programmierung oder auch als Implementierung. In den Anfängen der Programmierung wurde – bis zur Entwicklung von Programmiersprachen – ausschließlich in Maschinencode programmiert. Der Programm- bzw. Quelltext, den der Programmierer in einer Programmiersprache abgefasst hat, besteht aus einer Abfolge von (zumeist der englischen Sprache entnommenen) Anweisungen, die für den Programmierer im Allgemeinen verständlicher sind (z. B. ADD, SUB, AND, OR) als der Maschinencode. Später ergänzten die höheren Programmiersprachen Schleifen, Abstraktion und modularen Aufbau. Dateien, in denen der Programmcode gespeichert ist, sind meist durch eine Dateiendung gekennzeichnet. Quelltextdateien weisen damit auf die verwendete Hochsprache hin (".c": ein in C formuliertes Programm). Sie kann im Allgemeinen mit einem einfachen Texteditor bearbeitet werden. Eine Datei, die dagegen Maschinencode enthält, besitzt keine oder eine betriebssystemspezifische Endung, die lediglich auf ihre Ausführbarkeit hinweist (".exe" bei MS-DOS und Windows; "" bei unixoiden Systemen). Sie kann oft als Kommando in einem Terminal (Eingabeaufforderung) aufgerufen werden. Siehe auch Programmbibliothek. Damit ein in einer Hochsprache geschriebenes Programm auf einem Prozessor ausgeführt werden kann, muss es in Maschinencode übersetzt werden. Eine Anweisung einer höheren Programmiersprache wird im Allgemeinen in mehrere Maschinenbefehle übersetzt. Den Übersetzungsvorgang nennt man Compilierung. Um aus dem Quelltext den Maschinencode zu generieren, wird ein Assembler, Compiler oder Interpreter benötigt. Dieser übersetzt die Anweisungen der Programmiersprache, die für menschliche Benutzer verständlich und bearbeitbar sein sollen, in die semantisch entsprechenden Befehle der Maschinensprache des verwendeten Computers. Die Anweisungen, die (als Teil von Programmen) einen konkreten Lösungsweg repräsentieren, werden als Algorithmus bezeichnet; Beispiel: Berechnen der Mehrwertsteuer. Im Sprachgebrauch wird Computerprogramm meist zu "Programm" verkürzt oder der Begriff "Software" verwendet. Allerdings ist "Computerprogramm" kein Synonym zu "Software", da mit Software die komplette, für den Benutzer fertige Anwendung gemeint ist. Diese umfasst zusätzliche Ressourcen wie Betriebssystem, Datenbanken, Grafik- und Audiodateien, Schriftarten oder Hilfetexte. Ein größeres Computerprogramm besteht meist aus mehreren Modulen – die entweder zum Programm selbst 'gehören' oder die als 'Bausteine' (Unterprogramme) aus bereits bestehenden Programmbibliotheken bei der Ausführung des Programms benutzt werden. Im umgekehrten Fall können Computerprogramme Teil eines übergeordneten, ein größeres Aufgabengebiet abdeckenden "Anwendungssystems" sein; Beispiel: Gehaltsabrechnung, Finanzbuchhaltung, Meldewesen. Die Entwicklung von Computerprogrammen ist das Gebiet der Softwaretechnik. Je nach Komplexität der zu entwickelnden Computerprogramme geschieht dies im Rahmen von Projekten. Die Aktivitäten der Beteiligten werden dabei meist unter Anwendung von Vorgehensmodellen, speziellen Methoden und Werkzeugen zur Softwareentwicklung ausgeführt. Das erste Computerprogramm von Ada Lovelace. Als weltweit erstes Computerprogramm gilt eine Vorschrift für die Berechnung von Bernoulli-Zahlen, die Ada Lovelace in den Jahren 1842/1843 für die mechanische Analytical Engine von Charles Babbage erstellte. Das Programm konnte ihrerzeit nur von Hand ausgeführt werden, da es im 19. Jahrhundert noch keine funktionsfähige Maschine gab, die dazu in der Lage war. Erste Programme auf Lochstreifen. In den Jahren 1936 bis 1941 entwarf Konrad Zuse die Rechner Z1 und Z3, die lange Befehlsfolgen auf einem Lochstreifen verarbeiteten, die ersten Computerprogramme, die auf realen Maschinen ausgeführt werden konnten. Die Rechner beherrschten die vier Grundrechenarten und Quadratwurzelberechnungen auf binären Gleitkommazahlen, der Lochstreifen enthielt jeweils eine Rechenoperation und eine Speicheradresse. Auf Zuse geht auch die erste höhere Programmiersprache "Plankalkül" zurück. Damit lassen sich Probleme maschinenunabhängig formulieren und später in eine maschinenlesbare Form überführen. Programme im Arbeitsspeicher. Der EDVAC-Rechner, der auf einem Entwurf von John von Neumann aus dem Jahre 1945 basiert, hatte einen Quecksilber-Verzögerungsspeicher für 1024 Fest- oder Gleitkommazahlen mit jeweils 44 Bit. Jede Speicherzelle konnte statt einer Zahl auch einen Befehl aufnehmen. Bei diesem Rechnerkonzept war es möglich, die Befehle eines Computerprogramms vor der Ausführung zuerst in den Arbeitsspeicher zu übertragen. Das ist heute noch üblich. EDVAC wurde jedoch erst im Jahr 1951 teilweise fertiggestellt. Der Demonstrationsrechner Manchester SSE und der auf dem EDVAC aufbauende EDSAC-Rechner hatten schon vorher Programme aus dem Arbeitsspeicher ausgeführt. Höhere Programmiersprachen und Compiler. Ende der 1950er-Jahre wurden Computer so leistungsfähig, dass spezielle Programme, Compiler genannt, Quelltexte in höheren Programmiersprachen automatisch in Maschinenbefehle, also ausführbare Programme, übersetzen konnten. Ausführbare Programme können dann, wie beim EDVAC, in den Speicher geladen und abgearbeitet werden. Mit Fortran, COBOL, ALGOL und LISP entstanden in den späten 1950er-Jahren die ersten standardisierten höheren Programmiersprachen. Programme in diesen Sprachen laufen, durch einen entsprechenden Compiler übersetzt, auf unterschiedlichen Rechnern. Sie können teilweise auch noch auf modernen Computern eingesetzt werden. Berechnung des größten gemeinsamen Teilers. Es soll ein Programm zur Bestimmung des größten gemeinsamen Teilers (ggT) zweier Zahlen erstellt werden. Zunächst muss ein geeigneter Algorithmus gefunden werden. codice_1 Verwendung einer Programmiersprache. Sobald eine formale Beschreibung eines Algorithmus, also eine genau definierte Verarbeitungsvorschrift, vorliegt, kann der Algorithmus umgesetzt ("implementiert") werden. Dazu wird eine geeignete Programmiersprache ausgewählt. WHILE A B DO (* Solange A ungleich B *) IF B > A THEN (* Falls B größer als A *) H:= A; A:= B; B:= H (* A und B vertauschen *) A:= A - B (* A durch A-B ersetzen *) Berücksichtigung aller Sonderfälle. Bei der Umsetzung wird mit der Prüfung von Schritt 3 begonnen. Der ursprüngliche Algorithmus berücksichtigt nicht den Fall, dass A und B bereits zu Beginn gleich sein können. Wäre es die Aufgabe, den größten Teiler von 103 und 103 zu finden, würde ein Mensch sofort das Ergebnis 103 nennen, er würde den Algorithmus gar nicht bemühen. Der originale Algorithmus würde aber null ergeben. Die Umsetzung auf einem Rechner muss auch alle Sonderfälle berücksichtigen. Durch das Vorziehen von Schritt 3 wird der Sonderfall hier korrekt behandelt. Elementare Schritte. H:= A; (* Wert von A in der Hilfsvariablen H retten *) A:= B; (* A mit dem Wert von B überschreiben *) B:= H; (* B mit dem Wert von H (=A) überschreiben *) Auch dies ist ein kleiner Algorithmus. Ein vollständiges Programm. VAR A,B,H: Integer; (* Variablendefinition *) ReadLn(A,B); (* Eingabe von A und B *) WHILE A B DO (* Euklidischer Algorithmus *) H:= A; A:= B; B:= H WriteLn(A) (* Ausgabe von A *) Übersetzung und Ausführung. Ein solches Programm wird unter Verwendung eines Texteditors erstellt und als Quellcode in einer Datei oder Programmbibliothek (für Quellcode) gespeichert. Anschließend kann der Quellcode zu einer festen Ablaufanweisung für den Computer 'übersetzt' werden. Hierzu ist ein Compiler erforderlich, der den Code aus der jeweiligen Programmiersprache in die Maschinensprache übersetzt und als Ergebnis ein "ausführbares Programm" erstellt, welches als Datei oder in einer Programmbibliothek (für ausführbare Programme) abgelegt wird. Dieses Programm kann dann über ein Betriebssystem zur Ausführung gestartet werden, und zwar beliebig oft (ohne neue Übersetzung). Einige Programmiersprachen verwenden keinen Compiler, sondern einen Interpreter, der Programme erst zur Laufzeit in Maschinensprache übersetzt. Eine weitere Möglichkeit besteht in der Verwendung von Zwischencode ("Bytecode"), der vom Compiler an Stelle des Maschinencodes generiert wird. Ein Beispiel dafür ist Java: Der Java-Compiler erzeugt Bytecode, welcher dann auf der sogenannten virtuellen Maschine ausgeführt wird. Die virtuelle Maschine interpretiert oder übersetzt dann den Bytecode für das darunterliegende Betriebssystem. Ebenso muss in manchen Rechnerumgebungen, in der Regel bei Großrechnern, der vom Compiler erstellte Maschinencode noch mit einem Systemprogramm ('Linkage Editor' o. ä.) nachbearbeitet werden, wobei ggf. weitere Unterprogramme und Systemroutinen 'eingebunden' werden können. Erst so ist das entstandene Programm ausführbar. Mittels spezieller Programme, sogenannter Decompiler, ist es in begrenztem Maße möglich, aus dem Maschinencode wieder einen in Hochsprache lesbaren Quelltext zu erzeugen. Lebensphasen. Programme haben mindestens zwei klar getrennte Lebensphasen: Der Zeitraum bis zum Zeitpunkt der Kompilierung (inklusive) wird "Compilezeit" genannt, welche im Gegensatz zur "Laufzeit" steht. In der Compilezeit-Phase hat das Programm statische Eigenschaften, gegeben nur durch den festen Quellcode. Nach der Kompilierung und mit der Ausführung besitzt das binäre Programm dynamische Eigenschaften und Verhalten in zusätzlicher Abhängigkeit der jeweiligen Laufzeitumgebung (variierende Hardware, User-Interaktion etc.). In detaillierterem Sinn lassen sich die Lebensphasen von Programmen auch als Software-Lebenszyklus verstehen. Demnach gehören zur inhaltlich präzisen Festlegung des Programm-Inhalts die Projektphasen "Problemstellung, Analyse und Entwurf", anschließend folgt die technische "Implementierung", in der das Programm in Form von Quelltext entsteht. Danach befindet es sich in der Phase "Einführung". Nach diesen Entstehungsphasen von Programmen folgt deren "produktive Nutzung", bei Bedarf werden Anpassungen und Erweiterungen ("Wartungs-/Pflegephase") vorgenommen. Aus betriebswirtschaftlicher Sicht lassen sich auch Computerprogramme nach dem allgemeinen Produktlebenszyklus klassifizieren. Urheberschutz. Ein Computerprogramm wird urheberrechtlich geschützt, wenn es individuelles Ergebnis einer eigenen geistigen Schöpfung ihres Urhebers ist (Abs. 3 UrhG). Mit Umsetzung der Urheberrechtsrichtlinie aus dem Jahre 2001 wurde die Schutzschwelle für Computerprogramme in den EG-Mitgliedsstaaten harmonisiert. Es genügt ein Minimum an Individualität für den Schutz (kleine Münze). Es wird vermutet, dass sich die Individualität des Urhebers im Programm niedergeschlagen hat, wenn Spielraum dazu bestand. Geistiger Gehalt wird vermutet, wenn das Programm von einem menschlichen Urheber geschaffen wurde. Chemische Energie. Die Chemische Energie in Erdöl ist die Basis für Benzine, Diesel und weitere Ölprodukte und ist für unsere Zivilisation unentbehrlich. Als chemische Energie wird die Energieform bezeichnet, die in Form einer chemischen Verbindung in einem Energieträger gespeichert ist und bei chemischen Reaktionen freigesetzt werden kann. Der Begriff geht auf Wilhelm Ostwald zurück, der ihn 1893 in seinem Lehrbuch „Chemische Energie“ (im Begriffspaar „Chemische und innere Energie“) neben andere Energieformen („Mechanische Energie“, „Wärme“, „Elektrische und magnetische Energie“ sowie „strahlende Energie“) stellte. Chemische Energie ist ein makroskopischer Ausdruck zur Beschreibung der Energie, die mit elektrischen Kräften in Atomen und Molekülen verbunden ist und sich in chemischen Reaktionen ausdrückt. Sie kann unterteilt werden in kinetische Energie der Elektronen und potentielle Energie der elektromagnetischen Wechselwirkung von Elektronen und Atomkernen. Sie ist eine Innere Energie, wie die thermische Energie und die Kernenergie. Verwendung des Begriffs chemische Energie. In der Fachwissenschaft Chemie wird der Ausdruck „chemische Energie“ nicht verwendet, nur unter Angabe der Umgebungsbedingungen ist der Begriff eindeutig definiert – dafür existiert dann jeweils ein anderer etablierter Begriff. Oft ist mit chemischer Energie die Energie gemeint, die durch eine Verbrennung eines Stoffes (bei konstantem Druck) freigesetzt wird, also die Verbrennungsenthalpie. Der Satz von Hess ermöglicht die Berechnung der Energien bei Stoffumwandlungen aus den exakt definierten Bildungsenthalpien der beteiligten Verbindungen. Ähnliche Begriffe sind Heizwert und Brennwert, die jeweils auf die bei einer Verbrennung maximal nutzbare Wärmemenge abzielen. Die chemische Energie darf nicht mit der chemischen Bindungsenergie verwechselt werden. Die chemische Bindungsenergie beschreibt die Festigkeit einer bestimmten chemischen Bindung, gibt also an, wie viel Energie dem Molekül zur Auflösung der Bindung "zugeführt" werden muss. In anderen Naturwissenschaften, den Ingenieurswissenschaften usw. wird der Begriff der chemischen Energie in seiner teilweise unscharfen Form verbreitet verwendet. Obwohl manche Physikdidaktiker die Verwendung des Begriffs kritisieren („Der Begriff ist nützlich, wenn es um eine grobe Orientierung geht, erweist sich aber als widerspenstig, wenn man ihn streng zu fassen sucht. Im physikalischen Jargon ist er brauchbar, im physikalischen Kalkül überflüssig, zum physikalischen Verständnis hinderlich.“) wird der Begriff in praktisch allen Didaktik-Veröffentlichungen und Schulbüchern akzeptiert und verwendet. Verwendung chemischer Energie in technischen Systemen. Aus "technischer Sicht" ist in Treibstoffen chemische Energie gespeichert, die durch deren Verbrennung, etwa beim Antrieb von Fahrzeugen, in mechanische Energie umgewandelt wird. Brennstoffzellen erlauben den Wandel von chemischen Reaktionsenergie einer Verbrennung direkt in elektrische Energie. Bei Nutzung von Batterien wird über elektrochemische Redoxreaktionen chemische Energie direkt in elektrische Energie gewandelt. Ein Akkumulator verhält sich bei der Nutzung der Energie ähnlich wie eine Batterie, kann aber auch umgekehrt elektrische Energie in chemische wandeln und so speichern. Verwendung chemischer Energie in biologischen Systemen. Aus "biologischer Sicht" ist in organischer Nahrung chemische Energie gespeichert, die in ATP-Moleküle als Energieträger umgewandelt wird. Grüne Pflanzen beziehen ihre chemische Energie nicht aus organischer Nahrung, sondern aus dem Energiegehalt der Sonnenstrahlung, manche Bakterien aus Oxidationsenergie reduzierter Verbindungen (z.B. Fe2+ oder CH4). Die ATP-Moleküle innerhalb der biologischen Zellen erlauben, chemische, osmotische und mechanische Arbeit zu leisten. Cosimo de’ Medici. Cosimo de’ Medici (genannt "il Vecchio" „der Alte“; * 10. April 1389 in Florenz; † 1. August 1464 in Careggi bei Florenz) war ein Staatsmann, Bankier und Mäzen, der jahrzehntelang die Politik seiner Heimatstadt Florenz lenkte und einen wesentlichen Beitrag zu ihrem kulturellen Aufschwung leistete. Wegen seiner Zugehörigkeit zur Familie der Medici (deutsch auch „Mediceer“) wird er „de’ Medici“ genannt; es handelt sich nicht um einen Adelstitel, denn die Familie war bürgerlich. Als Erbe der von seinem Vater gegründeten, stark expandierenden Medici-Bank gehörte Cosimo von Haus aus zur städtischen Führungsschicht. Der geschäftliche Erfolg machte ihn zum reichsten Bürger von Florenz. Den Rahmen für seine politische Betätigung bot die republikanische Verfassung der Stadt, die er im Prinzip respektierte, aber mit Hilfe seiner großen Anhängerschaft umgestaltete. Dabei setzte er sich gegen heftige Opposition einiger bisher tonangebender Familien durch. Sein maßgeblicher Einfluss auf die Politik beruhte nicht auf den Ämtern, in die er gewählt wurde, sondern auf dem geschickten Einsatz seiner finanziellen Ressourcen und einem ausgedehnten Netzwerk persönlicher Beziehungen im In- und Ausland. Es gelang ihm, ein dauerhaftes Bündnis mit Mailand, einer zuvor feindlichen Stadt, zuwege zu bringen und damit außenpolitische Stabilität zu schaffen, die nach seinem Tode anhielt. Cosimos politische Erfolge, seine umfangreiche Förderung von Kunst und Bildungswesen und seine imposante Bautätigkeit verschafften ihm eine einzigartige Autorität. Dennoch konnte er Entscheidungen in heiklen Fragen nicht eigenmächtig treffen, sondern blieb stets auf Konsensbildung in der Führungsschicht angewiesen. Er achtete darauf, nicht wie ein Herrscher aufzutreten, sondern wie ein Bürger unter Bürgern. Das außerordentliche Ansehen, das Cosimo genoss, spiegelte sich in der postumen Verleihung des Titels "Pater patriae" („Vater des Vaterlandes“) wider. Mit seinem Vermögen ging die informelle Machtstellung, die er errungen hatte, auf seine Nachkommen über, die seine mäzenatische Tätigkeit in großem Stil fortsetzten. Bis 1494 spielten die Medici in der florentinischen Politik und im kulturellen Leben eine dominierende Rolle. In der modernen Forschung werden Cosimos Leistungen überwiegend positiv beurteilt. Seine staatsmännische Mäßigung und Weitsicht, seine unternehmerische Kompetenz und sein kulturelles Engagement finden viel Anerkennung. Andererseits wird auch auf das große Konfliktpotenzial hingewiesen, das sich aus der massiven, andauernden Dominanz einer übermächtigen Familie in einem republikanischen, traditionell antiautokratischen Staat ergab. Längerfristig erwies sich Cosimos Konzept der indirekten Staatslenkung mittels eines Privatvermögens als nicht tragfähig; im letzten Jahrzehnt des 15. Jahrhunderts brach das von ihm etablierte System zusammen. Die politischen Verhältnisse. Nach dem Zusammenbruch des staufischen Kaisertums im 13. Jahrhundert war in Nord- und Mittelitalien, dem sogenannten Reichsitalien, ein Machtvakuum entstanden, das niemand auszufüllen vermochte. Wenngleich die römisch-deutschen Könige im 14. und 15. Jahrhundert weiterhin Italienzüge unternahmen (wie Heinrich VII., Ludwig IV. und Friedrich III.), gelang es ihnen nicht, die Reichsgewalt in Reichsitalien dauerhaft durchzusetzen. Die traditionelle Tendenz zur Zersplitterung der politischen Landschaft setzte sich im Spätmittelalter allgemein durch. Es bildete sich eine Vielzahl von lokalen und regionalen Machtzentren heraus, die einander fortwährend in wechselnden Konstellationen bekämpften. Die wichtigsten unter ihnen waren die großen Städte, die keine übergeordnete Gewalt akzeptierten und nach der Bildung größerer von ihnen kontrollierter Territorien strebten. Nördlich des Kirchenstaats waren die Hauptakteure das autokratisch regierte Mailand, die bürgerliche Republik Florenz und die Adelsrepublik Venedig, die nicht zu Reichsitalien gehörte. Die Politik war in erster Linie von den scharfen Gegensätzen zwischen benachbarten Städten geprägt. Oft bestand zwischen ihnen eine Erbfeindschaft; die größeren versuchten, die kleineren niederzuhalten oder völlig zu unterwerfen, und stießen dabei auf erbitterten Widerstand. Die Kosten der immer wieder aufflackernden militärischen Konflikte führten häufig zu einer gravierenden wirtschaftlichen Schwächung der beteiligten Kommunen, was jedoch die Kriegslust kaum dämpfte. Überdies wurden in den Städten heftige Machtkämpfe zwischen einzelnen Sippen und politischen Gruppierungen ausgetragen, die gewöhnlich zur Hinrichtung oder Verbannung der Anführer und namhaften Parteigänger der unterlegenen Seite führten. Ein Hauptziel der meisten politischen Akteure war die Wahrung und Vermehrung der Macht und des Ansehens der eigenen Familie. Manche Kommunen wurden von Alleinherrschern regiert, die eine Gewaltherrschaft errichtet oder geerbt hatten. Diese von Republikanern als Tyrannis gebrandmarkte Regierungsform wird in der Fachliteratur als Signorie bezeichnet (nicht zu verwechseln mit "signoria" als Bezeichnung für einen Stadtrat). Sie war gewöhnlich mit Dynastiebildung verbunden. Andere Stadtstaaten hatten eine republikanische Verfassung, die einer relativ breiten Führungsschicht direkte Machtbeteiligung ermöglichte. In Florenz, der Heimat der Medici, bestand traditionell eine republikanische Staatsordnung, die fest verankert war und von einem breiten Konsens getragen wurde. Es herrschte das in Gilden und Zünften organisierte, überwiegend kommerziell oder gewerblich tätige Bürgertum. Man hatte ein ausgeklügeltes System der Gewaltenteilung ersonnen, das gefährlicher Machtzusammenballung vorbeugen sollte. Das wichtigste Regierungsorgan war die neunköpfige Signoria, eine Ratsversammlung, deren Mitglieder sechsmal im Jahr neu bestimmt wurden. Die Kürze der zweimonatigen Amtszeit sollte tyrannischen Bestrebungen den Boden entziehen. Die Stadt, die 1427 etwa 40.000 Einwohner hatte, war in vier Bezirke geteilt, von denen jeder zwei "priori" (Mitglieder der Signoria) stellte. Zu den acht "priori" kam als neuntes Mitglied der "gonfaloniere di giustizia" (Bannerträger der Gerechtigkeit) hinzu. Er war der Vorsitzende des Gremiums und genoss daher unter allen städtischen Amtsträgern das höchste Ansehen, hatte aber nicht mehr Macht als seine Kollegen. Zur Regierung gehörten noch zwei weitere Organe: der Rat der "dodici buonomini", der „zwölf guten Männer“, und die sechzehn "gonfalonieri" (Bannerträger), vier für jeden Bezirk. Diese beiden Gremien, in denen die Mittelschicht stark vertreten war, nahmen zu politischen Fragen Stellung und konnten Gesetzesentwürfe blockieren. Zusammen mit der Signoria bildeten sie die Gruppe der "tre maggiori", der drei führenden Institutionen, die den Staat lenkten. Die "tre maggiori" schlugen neue Gesetze vor, doch konnten diese erst in Kraft treten, wenn sie von zwei größeren Gremien, dem dreihundertköpfigen Volksrat "(consiglio del popolo)" und dem zweihundert Mitglieder zählenden Gemeinderat "(consiglio del comune)", mit Zweidrittelmehrheit gebilligt worden waren. In diesen beiden Räten betrug die Amtszeit vier Monate. Ferner gab es Kommissionen, die für besondere Aufgaben zuständig waren und der Signoria unterstanden. Die bedeutendsten von ihnen waren der achtköpfige Sicherheitsausschuss "(otto di guardia)", der für die innere Staatssicherheit zu sorgen hatte und die Geheimdienstaktivitäten lenkte, und die "dieci di balìa" („zehn Bevollmächtigte“), ein Gremium mit sechsmonatiger Amtszeit, das sich mit Außen- und Sicherheitspolitik befasste und im Kriegsfall die militärischen Aktionen plante und überwachte. Die "dieci di balìa" hatten die Fäden der Diplomatie weitgehend in den Händen. Daher wurden sie für die Medici, als diese die Staatslenkung übernahmen, ein zentrales Instrument bei der Steuerung der Außenpolitik. Das in Florenz herrschende tiefe Misstrauen gegen übermächtige Personen und Gruppen war der Grund dafür, dass die meisten Amtsträger, vor allem die Mitglieder der "tre maggiori", weder durch Mehrheitsbeschluss gewählt noch aufgrund einer Qualifikation ernannt wurden. Sie wurden vielmehr aus der Menge aller als amtstauglich anerkannten Bürger – etwa zweitausend Personen – durch das Los ermittelt. Man legte die Zettel mit den Namen in Losbeutel "(borse)", aus denen dann die Zettel der künftigen Amtsträger blind gezogen wurden. Für die Signoria galt ein Verbot aufeinanderfolgender Amtszeiten. Man durfte nur einmal in drei Jahren amtieren, und es durfte niemand aus derselben Familie im vorigen Jahr dem Gremium angehört haben. Die Berechtigung zur Teilnahme an den Auslosungen musste in bestimmten Zeitabständen – theoretisch alle fünf Jahre, faktisch etwas unregelmäßiger – überprüft werden. Diesem Zweck diente das "squittinio", ein Verfahren, mit dem festgestellt wurde, wer die Anforderungen der Amtstauglichkeit erfüllte. Zu diesen zählten Freiheit von Steuerschulden und Zugehörigkeit zu mindestens einer der Zünfte. Es gab „größere“ (das heißt angesehenere und mächtigere) und „kleinere“ Zünfte, und sechs der acht Priorensitze in der Signoria waren den größeren vorbehalten. Das Ergebnis des "squittinio" war jeweils eine neue Liste der politisch vollberechtigten Bürger. Wer einer der größeren Zünfte "(arti maggiori)" angehörte und im "squittinio" für tauglich befunden worden war, konnte sich zum Patriziat der Stadt zählen. Da das "squittinio" Manipulationsmöglichkeiten bot und über den sozialen Rang der am politischen Leben beteiligten Bürger entschied, war seine Durchführung politisch heikel. Das System der Ämterbesetzung durch Losentscheid hatte den Vorteil, dass zahlreiche Angehörige der städtischen Führungsschicht Gelegenheit erhielten, ehrenvolle Ämter zu bekleiden und so ihren Ehrgeiz zu befriedigen. Jedes Jahr wurden die Hauptorgane der Stadtverwaltung mit 1650 neuen Leuten besetzt. Ein Nachteil des häufigen Führungswechsels war die Unberechenbarkeit; eine neue Signoria konnte einen ganz anderen Kurs steuern als ihre Vorgängerin, wenn sich die Mehrheitsverhältnisse durch den Zufall des Losentscheids geändert hatten. Für besondere Krisensituationen war der Zusammentritt eines "parlamento" vorgesehen. Das war eine Versammlung aller männlichen Bürger, die über 14 Jahre alt waren, mit Ausnahme der Kleriker. Das "parlamento" konnte eine Kommission für Notfälle, eine "balìa", wählen und mit Sondervollmachten zur Bewältigung der Krise ausstatten. Herkunft, Jugend und Bewährung im Bankgeschäft (1389–1429). Cosimo wurde am 10. April 1389 in Florenz geboren. Sein Vater war Giovanni di Bicci de’ Medici (1360–1429), seine Mutter Piccarda de’ Bueri. Es war damals üblich, zwecks Unterscheidung von gleichnamigen Personen den Namen des Vaters anzugeben; daher nannte man Giovanni „di Bicci“ (Sohn des Bicci) und seinen Sohn Cosimo „di Giovanni“. Cosimo hatte einen Zwillingsbruder namens Damiano, der bald nach der Geburt starb. Die Brüder erhielten ihre Namen nach Cosmas und Damian, zwei antiken Märtyrern, die ebenfalls Zwillinge waren und als Heilige verehrt wurden. Daher feierte Cosimo später seinen Geburtstag nicht am 10. April, sondern am 27. September, der damals der Festtag des heiligen Brüderpaars war. Cosimos Vater war bürgerlicher Herkunft. Er gehörte der weitverzweigten Sippe der Medici an. Schon im späten 13. Jahrhundert waren in Florenz Medici im Bankgewerbe tätig, doch in den 1360er und 1370er Jahren war die Sippe größtenteils noch nicht reich; die meisten ihrer Haushalte waren sogar relativ minderbemittelt. Dennoch spielten die Medici in der Politik bereits eine wichtige Rolle; im 14. Jahrhundert waren sie in der Signoria häufig vertreten. In ihrem Kampf um Ansehen und Einfluss erlitten sie jedoch einen schweren Rückschlag, als ihr Wortführer Salvestro de’ Medici 1378 beim Ciompi-Aufstand ungeschickt taktierte: Er ergriff zunächst für die Aufständischen Partei, änderte aber später seine Haltung. Dies brachte ihm den Ruf der Wankelmütigkeit ein. Dann wurde er des Strebens nach Tyrannenherrschaft verdächtigt, schließlich musste er 1382 ins Exil gehen. In der Folgezeit galten die Medici als unzuverlässig. Um 1400 waren sie so diskreditiert, dass allen Zweigen der Sippe bis auf zwei die Bekleidung öffentlicher Ämter untersagt war. Cosimos Großvater Bicci de’ Medici gehörte zwar einem der beiden nicht betroffenen Zweige an, doch war die Erfahrung der Jahre 1378–1382 für die ganze Sippe ein einschneidendes Erlebnis, das zur Vorsicht mahnte. Um 1380 betätigte sich Giovanni als kleiner Geldverleiher. Dieses Gewerbe wurde damals verachtet; im Gegensatz zum großen Bankgeschäft war es der Öffentlichkeit suspekt, da die Geldverleiher auf offensichtliche Weise das kirchliche Zinsverbot missachteten, während die Bankiers besser in der Lage waren, die Verzinsung ihrer Darlehen zu vertuschen. Später trat Giovanni in den Dienst des Bankiers Vieri di Cambio, des damals reichsten Angehörigen der Medici-Sippe. Ab 1385 leitete er die römische Filiale von Vieris Bank. Er konnte sich dort als Juniorpartner etablieren, vermutlich dank der Mitgift seiner Frau. Nachdem Vieris Bank 1391/1392 aufgelöst und in drei eigenständige Unternehmen aufgespalten worden war, machte sich Giovanni selbständig und übernahm die römische Filiale. Mit diesem Schritt gründete er die Medici-Bank. Obwohl Rom der weitaus attraktivste Standort in ganz Italien war, verlegte Giovanni 1397 den Hauptsitz seines Unternehmens nach Florenz. Ausschlaggebend war dabei sein Wunsch, in seine Heimatstadt zurückzukehren. Dort schuf er in der Folgezeit zielstrebig ein Netzwerk von Verbindungen, von denen manche vor allem geschäftlich vorteilhaft waren, andere in erster Linie dazu dienten, sein Ansehen und seinen politischen Einfluss zu vergrößern. Seine beiden Söhne, Cosimo und der sechs Jahre jüngere Lorenzo, erhielten ihre Ausbildung in der väterlichen Bank und wurden dann an der Gestaltung der Geschäftspolitik beteiligt. Zu den Allianzen, die Giovanni di Bicci einging, gehörte seine Verbindung mit dem traditionsreichen adligen Geschlecht der Bardi. Die Bardi hatten in der ersten Hälfte des 14. Jahrhunderts zu den bedeutendsten Bankiers Europas gezählt. Ihre Bank war zwar 1345 spektakulär zusammengebrochen, doch betätigten sie sich später wieder mit Erfolg im Finanzbereich. Um 1413/1415 wurde das Bündnis der beiden Familien durch eine Heirat bekräftigt: Cosimo schloss die Ehe mit Contessina de’ Bardi di Vernio. Solche Heiraten waren ein wesentlicher Bestandteil der politischen und geschäftlichen Netzwerkbildung. Sie hatten gewichtige Auswirkungen auf den sozialen Status und den Einfluss einer Familie und wurden daher reiflich überlegt. Verschwägerung schuf Loyalitäten. Allerdings war nur ein Teil der Bardi-Sippe an dem Bündnis beteiligt, manche ihrer Zweige zählten zu den Gegnern der Medici. Die ersten Jahrzehnte des 15. Jahrhunderts waren für die Medici-Bank eine Phase zielstrebig vorangetriebener Expansion. Sie hatte Zweigstellen in Rom, Venedig und Genf, zeitweilig auch in Neapel. Im Zeitraum von 1397 bis 1420 wurde ein Reingewinn von 151.820 Florin "(fiorini)" erwirtschaftet. Davon blieben nach Abzug des Anteils, der einem Partner zustand, für die Medici 113.865 Florin übrig. Mehr als die Hälfte des Gewinns stammte aus Rom, wo die wichtigsten Geschäfte getätigt wurden, nur ein Sechstel aus Florenz. Seinen größten Erfolg errang Giovanni 1413, als ihn der in Rom residierende Gegenpapst Johannes XXIII., mit dem er befreundet war, zu seinem Hauptbankier machte. Zugleich wurde sein Zweigstellenleiter in Rom päpstlicher Generaldepositar "(depositario generale)", das heißt, er übernahm die Verwaltung des größten Teils der Kircheneinkünfte gegen eine Provision. Als sich Johannes XXIII. im Herbst 1414 nach Konstanz begab, um an dem dorthin einberufenen Konzil teilzunehmen, gehörte Cosimo angeblich zu seinem Gefolge. Doch im folgenden Jahr erlitten die Medici einen herben Rückschlag, als das Konzil Johannes XXIII. absetzte. Damit verlor die Medici-Bank ihre fast monopolartige Stellung im Geschäft mit der Kurie; in den folgenden Jahren musste sie mit anderen Banken konkurrieren. Den Vorrang konnte sie sich erst wieder sichern, nachdem 1420 ein Hauptkonkurrent, die Spini-Bank, in die Insolvenz gegangen war. Als sich Giovanni di Bicci 1420 aus der Leitung der Bank zurückzog, übernahmen seine Söhne Cosimo und Lorenzo gemeinsam die Führung des Unternehmens. Im Jahr 1429 starb Giovanni. Nach seinem Tod wurde das Familienvermögen nicht aufgeteilt; Cosimo und Lorenzo traten zusammen das Erbe an, wobei Cosimo als dem älteren die Entscheidungsgewalt zufiel. Das Vermögen bestand aus etwa 186.000 Florin, von denen zwei Drittel in Rom, jedoch nur ein Zehntel in Florenz erwirtschaftet worden waren – selbst die Zweigstelle in Venedig erwirtschaftete mehr. Neben der Bank gehörte der Familie umfangreicher Grundbesitz im Umland von Florenz, vor allem im Mugello, der Gegend, aus der die Familie ursprünglich stammte. Fortan erhielten die beiden Brüder zwei Drittel des Profits der Bank, der Rest ging an ihre Partner. Angeblich hat Giovanni auf dem Totenbett seinen Söhnen geraten, diskret zu agieren. Sie sollten in der Öffentlichkeit zurückhaltend auftreten, um möglichst wenig Neid und Missgunst zu erregen. Beteiligung am politischen Prozess war für einen Bankier existenznotwendig, da er sonst damit rechnen musste, von Feinden und Rivalen ausmanövriert zu werden. Wegen der Heftigkeit und Unberechenbarkeit der politischen Auseinandersetzungen in der Stadt war aber eine zu starke Profilierung sehr gefährlich, wie der Ciompi-Aufstand gezeigt hatte. Konflikte waren daher möglichst zu vermeiden. Machtkampf und Verbannung (1429–1433). Mit dem wirtschaftlichen Erfolg und sozialen Aufstieg der Medici wuchs ihr Anspruch auf politischen Einfluss. Damit stießen sie trotz ihres zurückhaltenden Auftretens bei einigen traditionell tonangebenden Sippen, die sich zurückgedrängt sahen, auf Widerstand. So kam es zur Bildung zweier großer Gruppierungen, die einander lauernd gegenüberstanden. Auf der einen Seite standen die Medici mit ihren Verbündeten und der breiten Klientel derer, die von ihren Geschäften, ihren Aufträgen und ihrem Einfluss direkt oder indirekt profitierten. Im gegnerischen Lager versammelten sich die Sippen, die ihre herkömmliche Machtstellung behalten und die Aufsteiger in die Schranken weisen wollten. Unter ihnen war die Familie Albizzi die bedeutendste; deren Oberhaupt Rinaldo degli Albizzi wurde zum Wortführer der Medici-Gegner. In dieser Spaltung der Bürgerschaft spiegelten sich nicht nur persönliche Gegensätze zwischen führenden Politikern, sondern auch unterschiedliche Mentalitäten und Grundeinstellungen. Bei der Albizzi-Gruppe handelte es sich um die konservativen Kreise, deren Dominanz 1378 durch den Ciompi-Aufstand, eine von benachteiligten Arbeitern getragene Erhebung der unteren Volksschichten "(popolo minuto)", bedroht worden war. Seit dieser schockierenden Erfahrung bemühten sie sich, ihren Status abzusichern, indem sie das Eindringen von suspekten Cliquen in die maßgeblichen Gremien zu hemmen trachteten. Aufruhr, Umsturz und diktatorische Gelüste sollten im Keim erstickt werden. Die zeitweilige Unterstützung der Medici für die aufständischen Arbeiter war nicht vergessen. Die Albizzi-Gruppe war aber keine Partei mit einer einheitlichen Führung und einem gemeinsamen Kurs, sondern ein lockerer, informeller Zusammenschluss einiger etwa gleichrangiger Clans. Außer der Gegnerschaft zu potentiell gefährlichen Außenseitern verband die Mitglieder dieser Allianz wenig. Ihre Grundhaltung war defensiv. Die Medici-Gruppe hingegen war vertikal strukturiert. Cosimo war ihr unangefochtener Anführer, der die wesentlichen Entscheidungen traf und die finanziellen Ressourcen, die den gegnerischen weit überlegen waren, zielbewusst einsetzte. Aufsteigerfamilien "(gente nuova)" zählten zu den natürlichen Verbündeten der Medici, doch beschränkte sich deren Anhängerschaft nicht auf Kräfte, die von erhöhter sozialer Mobilität profitieren konnten. Die Medici-Gruppe umfasste auch angesehene Patriziergeschlechter, die sich in ihr Netzwerk hatten eingliedern lassen, unter anderem durch Verschwägerung. Offenbar hatten die Albizzi in der Oberschicht stärkeren Rückhalt, während die Medici beim Mittelstand – den Handwerkern und Ladenbesitzern – größere Sympathien genossen. Die Zugehörigkeit eines großen Teils von Cosimos Parteigängerschaft zur traditionellen Elite zeigt aber, dass die früher gelegentlich vertretene Deutung des Konflikts als Kampf zwischen Klassen oder Ständen verfehlt ist. Die Verhärtung des Gegensatzes ließ einen offenen Machtkampf als unvermeidlich erscheinen, doch musste dieser in Anbetracht der vorherrschenden Loyalität zur verfassungsmäßigen Ordnung im Rahmen der Legalität ausgetragen werden. Ab 1426 spitzte sich der Konflikt zu. Die Propaganda beider Seiten zielte auf die Verfestigung von Feindbildern ab. Für die Medici-Anhänger war Rinaldo degli Albizzi der arrogante Wortführer volksferner, oligarchischer Kräfte, der vom Ruhm seines Vaters zehrte und infolge seiner Unbesonnenheit Führungsqualitäten vermissen ließ. Die Albizzi-Gruppe stellte Cosimo als potentiellen Tyrannen dar, der seinen Reichtum nutze, um die Verfassung auszuhebeln und sich durch Bestechung und Korruption den Weg zur Alleinherrschaft zu bahnen. Indizien deuten darauf, dass die Vorwürfe beider Seiten einen beträchtlichen wahren Kern enthielten: Rinaldo stieß durch seine Schroffheit einflussreiche Sympathisanten wie die Familie Strozzi vor den Kopf und zerstritt sich sogar mit seinem Bruder Luca so sehr, dass dieser die Familienloyalität aufkündigte und zur Gegenseite überlief, was für damalige Verhältnisse ein ungewöhnlicher Schritt war. Auch die Polemik gegen die Medici fußte, wenngleich sie wohl überzogen war, auf Tatsachen: Die Medici-Gruppe infiltrierte die Verwaltung, verschaffte sich dadurch geheime Informationen, schreckte vor Dokumentenfälschung nicht zurück und manipulierte das "squittinio" in ihrem Sinn. Anlass zu Polemik bot die Einführung des "catasto", eines umfassenden Verzeichnisses aller steuerpflichtigen Güter und Einkommen, im Mai 1427. Das Verzeichnis bildete die Grundlage der Erhebung einer neu eingeführten Vermögenssteuer, die zur Reduzierung der dramatisch gestiegenen Staatsschulden benötigt wurde. Dieser Schritt bewirkte eine gewisse Verlagerung der Steuerlast von der indirekt besteuerten Mittelschicht zu den wohlhabenden Patriziern. Die besonders zahlungskräftigen Medici konnten die neue Last besser verkraften als manche ihrer weniger vermögenden Gegner, für die der "catasto" einen harten Schlag bedeutete. Zwar hatte Giovanni di Bicci die Einführung der Vermögenssteuer anfangs abgelehnt und später nur zögerlich unterstützt, doch gelang es den Medici, sich als Befürworter der in der Bevölkerung populären Maßnahme darzustellen. Sie konnten sich damit als Patrioten profilieren, die zu ihrem eigenen Nachteil für die Sanierung des Staatshaushalts eintraten und selbst einen gewichtigen Beitrag dazu leisteten. Weiter angeheizt wurde der Konflikt durch den Krieg gegen Lucca, den Florenz Ende 1429 begann. Die militärischen Auseinandersetzungen endeten im April 1433 mit einem Friedensschluss, ohne dass die Angreifer ihr Kriegsziel erreicht hatten. Die beiden verfeindeten Cliquen in Florenz hatten den Krieg einhellig befürwortet, nutzten dann aber seinen ungünstigen Verlauf als Waffe in ihrem Machtkampf. Rinaldo hatte als Kriegskommissar am Feldzug teilgenommen, daher konnte er für dessen Misserfolg mitverantwortlich gemacht werden. Er seinerseits gab die Schuld dem für die Koordinierung der Kriegführung zuständigen Zehnerausschuss, in dem Anhänger der Medici stark vertreten waren; der Ausschuss habe seine Bemühungen sabotiert. Cosimo konnte sich bei dieser Gelegenheit in ein günstiges Licht rücken: Er hatte dem Staat 155 887 Florin geliehen, einen Betrag, der mehr als ein Viertel des kriegsbedingten Sonder-Finanzbedarfs ausmachte. Damit konnte der Mediceer seinen Patriotismus und seine einzigartige Bedeutung für das Schicksal der Republik propagandawirksam demonstrieren. Insgesamt stärkte der Kriegsverlauf somit die Stellung der Medici-Gruppe in der öffentlichen Meinung. Die Strategie der Albizzi-Gruppe zielte darauf ab, die Gegner – vor allem Cosimo persönlich – verfassungsfeindlicher Umtriebe anzuklagen und sie so mit strafrechtlichen Mitteln außer Gefecht zu setzen. Eine Handhabe bot den Feinden der Medici ein von ihnen im Dezember 1429 durchgebrachtes Gesetz, das staatsschädliche Protektion unterbinden und den inneren Frieden sichern sollte. Es richtete sich gegen Aufsteiger, die sich durch ihre Beziehungen zu Mitgliedern der Signoria unerlaubte Vorteile verschafften, und gegen Große, die Unruhe stifteten. Diese Gesetzgebung zielte somit auf Cosimo und seine sozial und politisch mobile Klientel. Ab 1431 wurde den führenden Köpfen der Medici-Gruppe zunehmend mit Aberkennung der Bürgerrechte und Verbannung gedroht. Zu diesem Zweck sollte eine Sonderkommission gebildet und zu entsprechenden Maßnahmen bevollmächtigt werden. Nach dem Ende des Krieges gegen Lucca wurde die Gefahr für Cosimo akut, da er nun nicht mehr als Kreditgeber des Staats benötigt wurde. Daraufhin leitete er im Frühjahr 1433 den Transfer seines Kapitals ins Ausland ein. Einen großen Teil ließ er nach Venedig und Rom schaffen, einiges Geld versteckte er in Florenz in Klöstern. Damit sicherte er das Bankvermögen gegen das Risiko einer Enteignung, die im Fall einer Verurteilung wegen Hochverrats zu befürchten war. Die Auslosung der Posten in der Signoria für die Amtszeit September und Oktober 1433 ergab eine Zweidrittelmehrheit der Medici-Gegner. Diese Gelegenheit ließen sie sich nicht entgehen. Cosimo, der sich außerhalb der Stadt aufhielt, wurde von der Signoria zu einer Beratung eingeladen. Bei seinem Eintreffen im Stadtpalast am 5. September wurde er sofort festgenommen. Mit der Mehrheit von sechs zu drei beschloss die Signoria seine Verbannung und eine Sonderkommission bestätigte das Urteil, da er ein Zerstörer des Staats und Verursacher von Skandalen sei. Fast alle Angehörigen der Medici-Sippe wurden für zehn Jahre von den Ämtern der Republik ausgeschlossen. Cosimo wurde nach Padua, sein Bruder Lorenzo nach Venedig verbannt; dort sollten sie zehn Jahre bleiben. Falls sie die ihnen zugewiesenen Aufenthaltsorte vorzeitig verließen, drohte ihnen ein weiteres Urteil, das die Heimkehr für immer ausschloss. Die lange Dauer der angeordneten Abwesenheit sollte das Netzwerk der Medici dauerhaft lahmlegen und zerreißen. Cosimo musste als Garantie für sein künftiges Wohlverhalten eine Kaution von 20.000 Florin hinterlegen. Er akzeptierte das Urteil, wobei er seine Loyalität zur Republik hervorhob, und ging Anfang Oktober 1433 ins Exil. Umschwung und Heimkehr (1433–1434). Bald zeigte sich, dass das Netzwerk der Medici nicht nur in Florenz intakt blieb, sondern sogar im fernen Ausland effizient funktionierte. Cosimos Abschied und seine Reise nach Padua wurden zu einer triumphalen Demonstration seines Einflusses im In- und Ausland. Schon unterwegs erhielt er eine Vielzahl von Sympathiekundgebungen, Treuebezeugungen und Hilfsangeboten prominenter Persönlichkeiten und ganzer Städte. In Venedig, zu dessen Territorium der Verbannungsort Padua damals gehörte, war die Unterstützung besonders stark, was mit dem Umstand zusammenhing, dass die Medici-Bank dort seit Jahrzehnten eine Filiale unterhielt. Als Cosimos Bruder Lorenzo in Venedig eintraf, wurde er vom Dogen Francesco Foscari persönlich sowie vielen Adligen empfangen. Die Republik Venedig ergriff klar für die Verfolgten Partei und schickte einen Gesandten nach Florenz, der sich um die Aufhebung des Urteils bemühen sollte. Dieser erreichte immerhin, dass Cosimo gestattet wurde, sich in Venedig anzusiedeln. Kaiser Sigismund, den die Venezianer informiert hatten, äußerte seine Missbilligung der Verbannung, die er für eine Dummheit der Florentiner hielt. Sigismund hatte auf seinem Italienzug, von dem er im Oktober 1433 heimkehrte, unter anderem eine Regelung seines Verhältnisses zur Republik Florenz angestrebt, aber keinen Verhandlungserfolg erzielen können. Den Umschwung brachte schließlich ein neuer Geldbedarf der Republik Florenz. Da die Lage der Staatsfinanzen prekär war und die Medici-Bank als Kreditgeber nicht mehr zur Verfügung stand, zeichnete sich eine Steuererhöhung ab. Dies führte zu solcher Unzufriedenheit, dass im Lauf des Frühlings und Sommers 1434 die Stimmung in der Führungsschicht kippte. Anhänger der Medici und Befürworter einer Versöhnung bekamen zunehmend Oberwasser. Die neue Stimmungslage spiegelte sich in der für die Amtszeit September und Oktober 1434 ausgelosten Signoria, die teils dezidiert medicifreundlich, teils versöhnungsbereit war. Der neue "gonfaloniere di giustizia" war ein entschlossener Gefolgsmann Cosimos. Er setzte am 20. September die Aufhebung des Verbannungsurteils durch. Nun drohte den Anführern der Albizzi-Gruppe das Schicksal, das sie im Vorjahr ihren Feinden bereitet hatten. Um dem zuvorzukommen, planten sie für den 26. September einen Staatsstreich und zogen Bewaffnete zusammen. Da aber die Gegenseite rechtzeitig ihre Kräfte mobilisiert hatte, wagten sie den Angriff nicht, denn ohne das Überraschungsmoment hätte er einen Bürgerkrieg mit geringen Erfolgschancen bedeutet. Schließlich griff Papst Eugen IV. als Vermittler ein. Der Papst war von einem Volksaufstand aus Rom vertrieben worden und lebte seit einigen Monaten in Florenz im Exil. Als Venezianer war Eugen tendenziell medicifreundlich gesinnt, und vor allem konnte er auf künftige Darlehen der Medici-Bank hoffen. Es gelang ihm, Rinaldo zur Aufgabe zu bewegen. Am 29. September brach Cosimo zur Heimkehr auf, die sich ebenso wie seine Abreise triumphal gestaltete. Am 2. Oktober wurde die Verbannung Rinaldos und einiger seiner Weggefährten verfügt. Damit hatte die Medici-Gruppe den Machtkampf endgültig zu ihren Gunsten entschieden. Als Sieger gab sich Cosimo versöhnlich und agierte wie gewohnt vorsichtig. Allerdings hielt er es zur Sicherung seiner Stellung für erforderlich, 73 feindliche Bürger ins Exil zu schicken. Viele von ihnen durften später zurückkehren und sich sogar wieder für die Signoria qualifizieren. Die Ursachen für den Ausgang des Machtkampfs wurden im frühen 16. Jahrhundert von Niccolò Machiavelli analysiert. Er zog daraus allgemeine Lehren, darunter seine berühmte Forderung, dass ein Eroberer der Macht unmittelbar nach der Inbesitznahme des Staates alle unvermeidlichen Grausamkeiten auf einen Schlag begehen müsse. Machiavellis Einschätzung, wonach der Albizzi-Gruppe ihre Unentschlossenheit und Halbherzigkeit zum Verhängnis wurde, wird von der modernen Forschung geteilt. Weitere Faktoren, die den Medici-Gegnern schadeten, waren das Fehlen innerer Geschlossenheit und einer über Autorität verfügenden Führung. Hinzu kam ihr Mangel an Rückhalt im Ausland, wo Cosimo mächtige Verbündete hatte. Tätigkeit als Staatsmann (1434–1464). Nach seiner triumphalen Heimkehr wurde Cosimo faktisch der Lenker des florentinischen Staates und blieb bis zu seinem Tod in dieser informellen Stellung. Dabei respektierte er äußerlich die Institutionen der republikanische Verfassung, ein Amt mit Sondervollmachten strebte er für sich nicht an. Er agierte aus dem Hintergrund mittels seines weitgespannten in- und ausländischen Netzwerks. Das Bankgeschäft als materielle Basis. Cosimo und seinen Zeitgenossen stand stets die Tatsache vor Augen, dass die Grundlage seiner politischen Machtentfaltung sein kommerzieller Erfolg war. Der Zusammenhalt seines Netzwerks hing in erster Linie von den Geldflüssen ab, die nicht versiegen durften. In Nord- und Mittelitalien florierte das Bankgeschäft, und niemand war darin erfolgreicher als er. Auch in der Kunst des Einsatzes finanzieller Ressourcen für politische Ziele war er zu seiner Zeit unübertroffen. Unter seiner Leitung expandierte die Medici-Bank weiter; neue Zweigstellen wurden in Pisa, Mailand, Brügge, London und Avignon eröffnet, die Genfer Filiale wurde nach Lyon verlegt. Eine Haupteinnahmequelle der großen, überregional operierenden Banken, insbesondere der Medici-Bank, war die Kreditvergabe an Machthaber und geistliche Würdenträger. Besonders groß war der Kreditbedarf der Päpste, die zwar über gewaltige Einkünfte aus der gesamten katholischen Welt verfügten, aber wegen kostspieliger militärischer Unternehmungen immer wieder in Engpässe gerieten. Darlehen an Machthaber waren lukrativ, aber mit beträchtlichen Risiken verbunden. Es musste mit der Möglichkeit gerechnet werden, dass solche Schuldner die Rückzahlung verweigerten oder nach einem verlustreichen Krieg, den sie mit Fremdkapital finanziert hatten, zumindest zeitweilig nicht mehr zahlungsfähig waren. Ein weiteres Risiko bestand im gewaltsamen Tod des Schuldners durch einen Mordanschlag oder auf einem Feldzug. Durch solche Ereignisse bedingte Zahlungsausfälle konnten auch bei großen Banken zur Insolvenz führen. Die Einschätzung der Chancen und Risiken derartiger Geschäfte gehörte zu den wichtigsten Aufgaben Cosimos. Ein Bankier des 15. Jahrhunderts benötigte politische Begabung und großes diplomatisches Geschick, denn Geschäft und Politik waren verschmolzen und mit vielfältigen familiären Interessen verknüpft. Darlehensgewährung war häufig auch faktische Parteinahme in den erbitterten Konflikten zwischen Machthabern, Städten oder auch Parteien innerhalb einer Bürgerschaft. Entscheidungen über die Vergabe, Begrenzung oder Verweigerung von Krediten oder Unterstützungsgeldern hatten weitreichende politische Konsequenzen; sie schufen und bewahrten Bündnisse und Netzwerke oder erzeugten gefährliche Feindschaften. Auch militärisch wirkten sie sich aus, denn die zahlreichen Kriege unter den nord- und mittelitalienischen Städten wurden mit dem kostspieligen Einsatz von Söldnerführern (Condottieri) ausgetragen. Diese standen mit ihren Truppen nur zur Verfügung, solange der Auftraggeber zahlungskräftig war; wenn dies nicht mehr der Fall war, ließen sie sich vom Feind abwerben oder plünderten auf eigene Rechnung. Die Entscheidungen, die Cosimo als Bankier traf, waren zum Teil nur politisch, nicht kommerziell sinnvoll. Manche seiner Zahlungen waren politisch unumgänglich, aber ökonomisch reine Verlustgeschäfte. Sie dienten der Pflege seines Ansehens oder der Sicherung der Loyalität von Verbündeten. Dazu zählten die Belohnungen für geleistete politische Dienste und die Erfüllung von Aufgaben, die als patriotische Pflichten galten. a>, Codex Panciatichi 71, fol. 1r In Florenz waren die Haupteinnahmequellen der Medici-Bank der Geldwechsel und die Kreditvergabe an Angehörige der Oberschicht, die in finanzielle Bedrängnis geraten waren. Insbesondere zur Bezahlung von Steuerschulden wurden Darlehen benötigt, denn säumige Steuerschuldner durften keine Ämter ausüben. Weitaus bedeutender war jedoch das Kreditgeschäft mit auswärtigen Machthabern. Der wichtigste Geschäftspartner der Bank war der Papst, als dessen Hauptbankier Cosimo fungierte. Vor allem dank der Verbindung mit der Kurie waren die römischen Geschäfte der Bank die lukrativsten. Die dortigen Zinseinnahmen und die Provisionen auf die getätigten Transaktionen boten eine hohe Gewinnspanne und die Geschäfte waren wegen des ständigen Geldbedarfs der Kurie sehr umfangreich. Daher erwirtschaftete die Filiale in Rom den größten Teil der Gewinne. Außerdem wirkte sich die enge Beziehung zur Kurie auch politisch vorteilhaft aus. Wenn der Papst Rom verließ, folgte ihm die römische Filiale; sie war stets dort zu finden, wo sein Hof sich aufhielt. Neben der politischen und ökonomischen Kompetenz war der wichtigste Faktor, von dem der Erfolg eines Bankiers abhing, seine Menschenkenntnis. Er musste in der Lage sein, die Kreditwürdigkeit seiner Kunden und die Zuverlässigkeit seiner auswärtigen Zweigstellenleiter, die viele Gelegenheiten zum Betrug hatten, richtig einzuschätzen. Cosimo verfügte ebenso wie sein Vater in hohem Maße über diese Fähigkeiten. Seine Verschwiegenheit, Nüchternheit und Voraussicht und sein geschickter Umgang mit Geschäftspartnern verschafften ihm Respekt. Auch die moderne Forschung würdigt diese Qualitäten des Mediceers, die maßgeblich zu seinem kommerziellen und politischen Erfolg beitrugen. Aus Cosimos Korrespondenz mit dem Leiter der Filiale der Medici-Bank in Venedig geht hervor, dass die Bank systematisch Steuern hinterzog und dass Cosimo persönlich Anweisungen zur Bilanzfälschung erteilte. Der Zweigstellenleiter, Alessandro Martelli, versicherte ihm, dass auf die Verschwiegenheit des Personals Verlass sei. Innenpolitische Konsolidierung (1434–1455). Ein eigenhändiger Brief Cosimos an seinen Sohn Giovanni vom 24. Juni 1442. Florenz, Archivio di Stato, Medici avanti il Principato, V, 441 Der entscheidende Schritt, der nach dem Sieg von 1434 die Stellung Cosimos dauerhaft absicherte, war eine Änderung des Auslosungsverfahrens zur Bestimmung der Mitglieder der Signoria. Die Gesamtmenge der Namen auf den Loszetteln, die in die Beutel gelegt wurden, wurde von rund zweitausend auf eine Mindestzahl von 74 reduziert, für den Beutel des "gonfaloniere di giustizia" wurde eine Mindestzahl von vier festgelegt. Damit wurde die Anzahl der Kandidaten überschaubar und die Rolle des Zufalls im Auslosungsprozess stark vermindert. Mit der Füllung der Losbeutel waren traditionell von der Signoria ernannte Männer betraut, die "accoppiatori" genannt wurden. Sie sorgten fortan dafür, dass nur noch Namen von Bewerbern, die Cosimo genehm waren, in die Beutel kamen. So blieb es zwar beim Prinzip des Losentscheids, doch war nun ein wirksamer Filter eingebaut, der überraschende Änderungen der Machtverhältnisse verhinderte. Dieses Verfahren wurde "imborsazione a mano" („Handverlesung“) genannt. Es konnte zwar von Cosimo durchgesetzt werden, war aber in der Bürgerschaft tendenziell unbeliebt, da es offensichtlich manipulativ war und für viele den Zugang zu den prestigereichen Ämtern erschwerte oder verunmöglichte. Immer wieder wurde die Forderung nach Rückkehr zum offenen Losverfahren erhoben. Mit diesem Anliegen konnte man auf harmlose Art Unzufriedenheit mit der Machtfülle des Mediceers ausdrücken. Das Ausmaß des Widerstands gegen die Handverlesung wurde zum Gradmesser für die Unbeliebtheit des Herrschaftssystems. Dies hatte für Cosimo auch Vorteile: Er erhielt dadurch die Möglichkeit, flexibel zu reagieren, wenn sich in der Bürgerschaft Ärger aufstaute oder wenn er den Eindruck hatte, dass eine relativ entspannte Lage ihm Konzessionen gestattete. Je nach der Entwicklung der innen- und außenpolitischen Verhältnisse setzte er reine Handverlesung durch oder ließ freie Auslosung zu. Zeitweilig wurde ein Mischverfahren praktiziert, bei dem die Namen des "gonfaloniere di giustizia" und dreier weiterer Ratsmitglieder aus handverlesenen Beuteln gezogen und die übrigen fünf Mitglieder der Signoria frei ausgelost wurden. Den vielen Bürgern, die keine Gelegenheit erhielten, Mitglied der Signoria zu werden, bot Cosimos System Gelegenheit, ihren Ehrgeiz dennoch teilweise zu befriedigen. Ansehen verschaffte nicht nur die Ausübung eines Regierungsamts, sondern schon die Anerkennung der Tatsache, dass man als ehrbarer Bürger die persönlichen Voraussetzungen dafür erfüllte. In die Beutel legte man daher auch Loszettel von Personen, gegen die keine persönlichen Einwände bestanden, die aber aus einem äußerlichen Grund nicht in Betracht kamen, etwa weil sie mit einem Amtsinhaber zu nahe verwandt waren oder infolge des Quotensystems ausscheiden mussten, da sie zur falschen Zunft gehörten oder im falschen Bezirk wohnten. Wenn dann ein solcher Zettel gezogen wurde, wurde festgestellt, dass der Betreffende als Ausgeloster „gesehen“ wurde "(veduto)", aber wegen eines formalen gesetzlichen Hindernisses seinen Sitz im Stadtrat nicht einnehmen konnte. Ein "veduto" konnte aus dem Umstand, dass ihm die theoretische Amtsfähigkeit bescheinigt wurde, Prestige ziehen. Im Lauf der Zeit wurden immer wieder temporäre Gremien mit legislativen und finanzpolitischen Sondervollmachten geschaffen. Die Einrichtung von Kommissionen zur Erledigung besonderer Aufgaben, auch in Notstandslagen, war an sich keine Neuerung und stand mit der republikanischen Verfassung in Einklang. Ein Unterschied zu den früheren Verhältnissen bestand aber darin, dass solche Gremien früher nach einigen Tagen oder wenigen Wochen wieder aufgelöst wurden, während nun ihre Vollmachten für längere Zeiträume erteilt wurden. Damit nahm ihr politisches Gewicht zu, was Cosimos Absicht entsprach; für ihn waren die Kommissionen wichtige Machtinstrumente. Durch diese Entwicklung kam es jedoch zu Reibungen mit den fortbestehenden alten Institutionen, dem Volksrat und dem Gemeinderat. Diese verteidigten ihre herkömmlichen Rechte, waren aber im Machtkampf dadurch benachteiligt, dass ihre Amtsperiode nur vier Monate betrug. Die Abgrenzung der Zuständigkeiten zwischen den ständigen und den temporären Gremien war kompliziert und umkämpft, es ergaben sich Überschneidungen und Kompetenzstreitigkeiten. Dabei war die Steuergesetzgebung ein besonders heikles Feld. Hier war Cosimo darauf angewiesen, den Konsens mit der Führungsschicht der Bürgerschaft zu suchen. Da er keine diktatorische Macht besaß, waren die Gremien keineswegs gleichgeschaltet. Sowohl der Volks- und der Gemeinderat als auch die Kommissionen fassten Beschlüsse gemäß den Interessen und Überzeugungen ihrer Mitglieder, die nicht immer mit Cosimos Wünschen übereinstimmten. Die Räte waren in der Lage, seinen Absichten hinhaltenden Widerstand zu leisten. Die Abstimmungen in den Gremien waren frei, wie die manchmal knappen Mehrheiten zeigen. Krisenjahre (1455–1458). Nur einmal geriet Cosimos Regierungssystem in eine ernste Krise. Dies geschah erst im letzten der drei Jahrzehnte, in denen er die Herrschaft ausübte. Als die italienischen Mächte im Februar 1455 einen allgemeinen Frieden schlossen, kam es zu einer außenpolitischen Entspannung, die so weitgehend war, dass das unpopuläre System der Handverlesung nicht mehr mit einem äußeren Notstand begründet werden konnte. In der Öffentlichkeit wurde die Forderung nach Wiedereinführung des offenen Losverfahrens lauter denn je. Cosimo gab nach: Die alte Ordnung trat wieder in Kraft, die Handverlesung wurde verboten, der Volksrat und der Gemeinderat erhielten den früheren Umfang ihrer legislativen und finanzpolitischen Entscheidungsgewalt zurück. Damit wurde die Medici-Herrschaft wieder von Zufällen und von der Gunst der öffentlichen Meinung abhängig. In dieser labilen Lage verschärfte sich ein Problem, das für das Regierungssystem eine ernste Bedrohung darstellte: Die öffentlichen Finanzen waren wegen langjähriger hoher Rüstungsaufwendungen und wiederholter Epidemien so zerrüttet, dass die Erhöhung der direkten Steuer, die von der wohlhabenden Oberschicht zu entrichten war, unumgänglich schien. Dieses Vorhaben stieß aber auf anhaltenden Widerstand, neue Steuergesetze wurden in den Räten blockiert. Im September 1457 entlud sich der Unmut in einer Verschwörung, die auf einen Umsturz abzielte. Das Komplott wurde entdeckt und sein Anführer Piero de’ Ricci hingerichtet. Die Spannungen nahmen weiter zu, als die Räte schließlich im Januar 1458 ein neues, von Cosimo befürwortetes Steuergesetz billigten, das sich auf die gesamte wohlhabende Schicht auswirkte. Das Gesetz entlastete die Minderbemittelten und erhöhte den Steuerdruck auf die Reichen. Der seit Jahrzehnten unverändert gültige "catasto", das Verzeichnis der steuerpflichtigen Vermögen und Einkommen, sollte auf den aktuellen Stand gebracht werden. Das wurde von denjenigen, deren Besitz seit der letzten Veranlagung stark zugenommen hatte, als harter Schlag empfunden. Infolgedessen schwand im Patriziat die Zustimmung zum herrschenden System. Im April 1458 wurde ein Gesetz eingeführt, das die Schaffung bevollmächtigter Kommissionen stark erschwerte und ihnen die Durchführung eines "squittinio" verbot. Da Kommissionen für Cosimo ein wichtiges Instrument waren, mit dem er seinen Einfluss auf den "squittinio" und damit auf die Kandidaturen ausübte, richtete sich diese Maßnahme gegen ein Hauptelement seines Herrschaftssystems. Das neue Gesetz wurde im Volksrat und im Gemeinderat mit überwältigenden Mehrheiten gebilligt. Cosimos Schwächung war unübersehbar. Die Lockerung der Medici-Herrschaft seit der Verfassungsreform von 1455 und die allgemeine Verunsicherung angesichts der sozialen Spannungen und fiskalischen Probleme führten zu einer grundsätzlichen Debatte über die Verfassungsordnung. Über das Ausmaß und die Ursachen der Übelstände sowie mögliche Abhilfen wurde offen und kontrovers diskutiert. Eine zentrale Frage war, wie der Personenkreis, der für wichtige Ämter in Betracht kam, festgelegt werden sollte. Cosimo wünschte einen kleinen Kreis potentieller Amtsträger, er erstrebte die Rückkehr zur Handverlesung. Auf der Gegenseite standen Geschlechter, die für Auslosung aus einem großen Kandidatenkreis eintraten, weil sie der Dominanz Cosimos überdrüssig waren und sein Regierungssystem beseitigen wollten. Die Signoria neigte einige Zeit zu einer Kompromisslösung, doch gewannen die Befürworter der Handverlesung zunehmend an Boden. Außerdem plädierten Anhänger der Medici-Herrschaft für die Einführung eines neuen ständigen Gremiums mit sechsmonatiger Amtszeit, das weitreichende Vollmachten erhalten sollte. Begründet wurde dies mit der Notwendigkeit der Effizienzverbesserung. Dieser Vorschlag war jedoch, wie seine Befürworter einräumten, im Volksrat und im Gemeinderat chancenlos. Daher wurde nicht einmal versucht, ihn dort durchzubringen. Im Sommer 1458 kam es zu einer Verfassungskrise. In der Signoria, die im Juli und August amtierte, dominierte Cosimos Gefolgschaft, die entschlossen war, diese Gelegenheit zur Rückeroberung der Macht zu nutzen. Der Volksrat, in dem Gegner der Medici die Oberhand hatten, wies jedoch die Vorschläge der Signoria hartnäckig zurück. Die Medici-Gruppe versuchte, eine offene Abstimmung im Volksrat durchzusetzen, um Druck auf einzelne Ratsmitglieder ausüben zu können. Damit stieß sie aber auf den energischen Widerstand des Erzbischofs von Florenz, Antonino Pierozzi, der die geheime Abstimmung als Gebot der „natürlichen Vernunft“ bezeichnete und eine andere Verfahrensweise mit Androhung der Exkommunikation verbot. Da unklar war, welche Seite ab September in der Signoria die Mehrheit haben würde, geriet die Medici-Gruppe unter Zeitdruck. Schließlich berief die Signoria, wie es die Verfassung für schwere Krisen vorsah, eine Volksversammlung "(parlamento)" ein. Eine solche Versammlung konnte verbindliche Beschlüsse fassen und eine Kommission mit Sondervollmachten zur Lösung der Krise einsetzen. Zuletzt war dies 1434 bei Cosimos Rückkehr geschehen, zuvor bei seiner Verbannung. Das "parlamento" von Florenz war in der Theorie als demokratisches Verfassungselement konzipiert; es sollte das Organ sein, das den Volkswillen zum Ausdruck brachte und in Notstandslagen eine Entscheidung herbeiführte, wenn der reguläre Gesetzgebungsprozess blockiert war. In der Praxis pflegte aber die Patriziergruppe, die das "parlamento" einberufen ließ, durch Einschüchterung dafür zu sorgen, dass die Beschlussfassung im gewünschten Sinn erfolgte. So war es auch diesmal. Cosimo, der sich nach außen hin zurückhielt, hatte am 1. August erstmals mit dem mailändischen Gesandten über militärische Unterstützung von außen verhandelt. Er war sich seiner Sache sicher; spätestens am 5. August fiel die Entscheidung, die Volksversammlung für den 11. August einzuberufen, obwohl noch keine Hilfszusage aus Mailand vorlag. Am 10. August ordnete die Signoria das "parlamento" für den folgenden Tag an. Als die Bürger zum Versammlungsort strömten, fanden sie ihn von einheimischen Bewaffneten und mailändischen Söldnern bewacht. Nach einem Augenzeugenbericht verlas ein Notar den Text, der zu genehmigen war, so leise, dass nur wenige in der Menge ihn verstanden und ihre Zustimmung äußerten. Dies wurde aber als ausreichend betrachtet. Die Versammlung billigte alle Vorschläge der Signoria und löste sich dann auf. Damit war die Krise beendet. Der Weg zur Verwirklichung einer Verfassungsreform, die Cosimos Herrschaft zementierte, war frei. Neue Festigung der Macht (1458–1464). Die Sieger ergriffen die Maßnahmen, die ihnen zur Sicherung der Macht erforderlich schienen. Mehr als 1500 politisch unzuverlässigen Bürgern wurde die Qualifikation zur Kandidatur für Führungsämter aberkannt. Viele von ihnen verließen die Stadt, in der sie keine Zukunft mehr für sich sahen. Eine Reihe von Verbannungsurteilen sollte der erneuten Entstehung einer organisierten Opposition vorbeugen. Die Befugnisse des Geheimdienstes, der "otto di guardia", wurden vergrößert. Die Beschlüsse zum Umbau der Verfassung wurden teils schon von der Volksversammlung gefasst, teils von der neuen Sonderkommission, die zu diesem Zweck eingesetzt wurde. Der wichtigste Schritt neben der Rückkehr zur Handverlesung war die Schaffung eines ständigen Gremiums, das der Medici-Gruppe als dauerhaftes Herrschaftsinstrument dienen und die temporären Kommissionen der Zeit vor 1455 ablösen sollte. Dies war der „Rat der Hundert“, dessen Amtszeit auf sechs Monate festgelegt wurde. Ihm wurde die Aufgabe übertragen, als erster Rat über die Gesetze, welche die Ämterbesetzung, das Steuerrecht und die Einstellung von Söldnern betrafen, zu beraten und sie dann an den Volksrat und den Gemeinderat weiterzuleiten. Außerdem erhielt er ein Vetorecht bei allen nicht von ihm selbst ausgehenden Gesetzesinitiativen. Somit wurde für jedes neue legislative Vorhaben die Zustimmung aller drei Räte erforderlich, denn die alten Räte behielten das Recht, jede Gesetzgebung zu blockieren. Die Schonung der beiden alten Räte, die Hochburgen der Opposition gewesen waren, lässt erkennen, dass Cosimo beim Ausbau seiner Machtstellung vorsichtig vorging. Damit nahm er auf die Bedürfnisse des republikanisch gesinnten Patriziats Rücksicht. Für die Bestimmung der Mitglieder des Rats der Hundert wurde ein gemischtes Wahl- und Losverfahren mit komplizierten Regeln festgelegt. Qualifiziert sollten nur Bürger sein, deren Namen schon früher bei der Auslosung für die herkömmlichen Führungsämter "(tre maggiori)" gezogen worden waren. Diese Bestimmung sollte gewährleisten, dass nur bewährte Patrizier, deren Haltung bereits hinreichend bekannt war, in das neue Gremium gelangten. Die Handverlesung für die Signoria wurde 1458 nur als Provisorium für fünf Jahre eingeführt. 1460 wurde das Provisorium nach der Aufdeckung einer Verschwörung um weitere fünf Jahre verlängert. Das lässt erkennen, dass dieses Verfahren weiterhin unbeliebt war und dem Patriziat nur aus besonderem Anlass und mit Befristung akzeptabel schien. Unzufriedenheit machte sich in Florenz auch in den letzten Lebensjahren Cosimos noch bemerkbar, ernsthaft gefährdet wurde seine Stellung nach 1458 jedoch nicht mehr. In seinen letzten Jahren hielt er sich seltener im Palast der Signoria auf, er lenkte die Politik nun meist von seinem eigenen Palast in der Via Larga aus. Dorthin verlagerte sich das Machtzentrum. Außenpolitik. Die Außenpolitik der Republik Florenz war zu Cosimos Zeit von einer Konstellation geprägt, in der neben Florenz die bedeutenden Regionalmächte Mailand, Venedig, Neapel und der Kirchenstaat die Hauptrollen spielten. Von diesen fünf Vormächten der italienischen Staatenwelt, die in der Forschung auch als "Pentarchie" bezeichnet werden, war Florenz die politisch und militärisch schwächste, aber durch das Bankwesen und den Fernhandel wirtschaftlich bedeutend. Zwischen Mailand und Florenz bestand eine traditionelle Feindschaft, die zu den bestimmenden Faktoren des Staatensystems im späten 14. Jahrhundert und in der ersten Hälfte des 15. Jahrhunderts gehörte. Die Florentiner sahen sich vom Expansionsdrang der Mailänder Herzöge aus dem Geschlecht der Visconti bedroht. Die Auseinandersetzung mit den Visconti betrachteten sie nicht als bloßen Konflikt zwischen zwei Staaten, sondern auch als Kampf zwischen ihrer republikanischen Freiheit und tyrannischer Gewaltherrschaft. Im Zeitraum 1390–1402 führte Florenz drei Abwehrkriege gegen Herzog Giangaleazzo Visconti, der Mailand zur Hegemonialmacht Italiens machen wollte und seinen Machtbereich nach Mittelitalien ausdehnte. Mailand war nicht nur militärisch überlegen, sondern hatte auch die Unterstützung der kleineren Städte der Toskana, die sich gegen die Unterwerfung unter florentinische Herrschaft wehrten. Florenz war auf sehr kostspielige Söldnertruppen angewiesen und litt daher unter den hohen Kriegskosten. Der dritte Krieg gegen Giangaleazzo verlief für die Florentiner ungünstig; am Ende standen sie 1402 ohne Verbündete da und mussten mit einer Belagerung rechnen. Nur der plötzliche Tod des Herzogs im Sommer 1402 rettete sie vor der existenziellen Gefahr. Im Jahr 1424 führte die Expansionspolitik des Herzogs Filippo Maria Visconti zu einem neuen Krieg zwischen den beiden Städten, der bis 1428 dauerte. In diesem Kampf gegen Mailand war Florenz mit Venedig verbündet. Danach versuchten die Florentiner von Dezember 1429 bis April 1433 vergeblich, die toskanische Stadt Lucca militärisch zu unterwerfen. Lucca war theoretisch mit Florenz verbündet, stand aber faktisch auf der Seite Mailands. Cosimo, der die Aussichten auf einen Sieg über Lucca schon 1430 skeptisch beurteilt hatte, war im April 1433 maßgeblich an den Friedensverhandlungen beteiligt, die zur Beendigung der Feindseligkeiten führten. Der Krieg gegen Lucca war für die Republik Florenz ein finanzielles Desaster, während die Medici-Bank als Kreditgeber des Staates davon profitierte. Daher gehörte zu den Anschuldigungen, die nach Cosimos Verhaftung 1433 gegen ihn erhoben wurden, auch die Behauptung, er habe den Krieg angezettelt und dann durch politische Intrigen unnötig verlängert, um daraus den größtmöglichen Profit zu schlagen. Die Glaubwürdigkeit der detaillierten Vorwürfe ist aus heutiger Sicht schwer zu beurteilen; auf jeden Fall ist mit polemischer Verzerrung zu rechnen. Unzweifelhaft ist, dass Cosimos Rivale Rinaldo degli Albizzi zu den profiliertesten Befürwortern des Krieges zählte. Nach dem Fehlschlag spielte die Schuldfrage in den innenpolitischen Machtkämpfen der Florentiner Patriziergeschlechter offenbar eine wichtige Rolle. Das politische Gewicht der Medici zeigte sich in den Verhandlungen, die 1438 über die Verlagerung des in Ferrara tagenden Konzils nach Florenz geführt wurden. Cosimo hielt sich damals als Gesandter der Republik Florenz monatelang in Ferrara auf und verhandelte mit Papst Eugen IV. und dessen Mitarbeitern. Auch sein Bruder Lorenzo gehörte zu den maßgeblichen Akteuren. Die Florentiner erhofften sich von den guten Beziehungen der Medici zur Kurie eine wirksame Unterstützung ihres Anliegens. Tatsächlich kam eine Vereinbarung über den Umzug nach Florenz zustande, die einen bedeutenden Erfolg der florentinischen Diplomatie darstellte. Auch nachdem Cosimo den innenpolitischen Machtkampf 1434 gewonnen hatte, blieb die Auseinandersetzung mit Filippo Maria Visconti eine zentrale Herausforderung für die auswärtige Politik der Republik Florenz. Der Konflikt wurde wiederum militärisch ausgetragen. Verbannte Florentiner Gegner der Medici, darunter Rinaldo degli Albizzi, hatten sich nach Mailand begeben; sie hofften, Filippo Maria werde ihnen die Heimkehr mit Waffengewalt ermöglichen. Florenz war mit Papst Eugen IV. und Venedig verbündet. In der Schlacht von Anghiari besiegten im Jahr 1440 Truppen dieser Koalition das mailändische Heer. Damit war der Versuch der exilierten Feinde Cosimos, ihn mit ausländischer Hilfe zu stürzen, endgültig gescheitert. Im folgenden Jahr wurde ein für Florenz vorteilhafter Friedensvertrag geschlossen, der zur Festigung von Cosimos Herrschaft beitrug. Die Feindschaft zwischen Mailand und Florenz dauerte aber an, bis Filippo Maria 1447 ohne männlichen Erben starb und damit die Dynastie der Visconti erlosch. Cosimo betrachtete das Bündnis mit Venedig und den Kampf gegen Mailand nicht als naturgegebene, zwangsläufige Konstellation, sondern nur als Folge der unvermeidlichen Konfrontation mit dem Geschlecht der Visconti. Sein langfristiges Ziel war eine Allianz mit Mailand, die der bedrohlichen Ausweitung des venezianischen Machtbereichs auf dem Festland entgegentreten sollte. Dies setzte einen Dynastiewechsel in Mailand voraus. Nach dem Tod Filippo Marias drohte dort ein Machtvakuum. Als Folge war aus Cosimos Sicht die Auflösung des Herrschaftsbereichs der erloschenen Familie Visconti und damit eine Hegemonie Venedigs in Norditalien zu befürchten. Daher war es ein zentrales Anliegen des Florentiner Staatsmanns, dass in Mailand ein neues, ihm freundlich gesinntes Geschlecht von Herzögen an die Macht kam. Sein Kandidat war der Condottiere Francesco Sforza, der mit Filippo Marias unehelicher Tochter und Erbin Bianca Maria verheiratet war. Sforzas Ehrgeiz, die Nachfolge des letzten Visconti anzutreten, war seit langem bekannt. Diese Konstellation hatte eine bewegte Vorgeschichte. Ab 1425 stand Sforza im Dienst Filippo Marias, der ihn zu seinem Schwiegersohn machen wollte, um ihn an sich zu binden. Im Jahr 1430 trug er zur Rettung Luccas vor einem Angriff der Florentiner bei. Im März 1434 ließ er sich aber von Eugen IV. für die Gegenseite, die Allianz der Visconti-Gegner, anwerben. Darauf belagerte er 1437 Lucca, das die Florentiner weiterhin unterwerfen wollten. Dies hinderte ihn aber nicht daran, erneut mit Filippo Maria über die geplante Ehe mit dessen Erbin zu verhandeln. Schließlich kam im März 1438 eine Einigung zustande: Die Heirat wurde beschlossen und die Mitgift festgelegt. Sforza durfte im Dienst der Florentiner bleiben, verpflichtete sich aber, nicht gegen Mailand zu kämpfen. Florenz und Mailand schlossen einen Waffenstillstand. Doch schon im Februar 1439 vollzog Sforza einen neuen Wechsel: Er nahm den Vorschlag der Florentiner und Venezianer an, das Kommando der Truppen der antimailändischen Liga zu übernehmen. Als Filippo Maria nach verlustreichen Kämpfen in eine schwierige Lage geraten war, sah er sich 1441 gezwungen, der Heirat endgültig zuzustimmen. Sforza musste dieses Zugeständnis des Herzogs, das ihn zu dessen präsumptivem Nachfolger machte, nicht mit einem neuen Allianzwechsel erkaufen; er blieb auch nach der Hochzeit Befehlshaber der Streitkräfte der Liga. Sein Verhältnis zu seinem Schwiegervater schwankte in der Folgezeit weiterhin zwischen Bündnis und militärischer Konfrontation. In dieser Zeit schnell wechselnder Verbindungen entstand zwischen Francesco Sforza und Cosimo de’ Medici eine dauerhafte Freundschaft. Die beiden Männer schlossen ein persönliches Bündnis als Grundlage für eine künftige florentinisch-mailändische Allianz nach dem geplanten Machtwechsel in Mailand. Die Medici-Bank half dem Condottiere mit umfangreicher Kreditgewährung; als er 1466 starb, schuldete er ihr mehr als 115.000 Dukaten. Überdies stellte ihm die Republik Florenz auf Veranlassung Cosimos beträchtliche finanzielle Mittel zur Verfügung. Dieser Kurs war allerdings bei den Florentiner Patriziern – auch in Cosimos Anhängerschaft – umstritten. Es gab beträchtliche Vorbehalte gegen Sforza, die von der republikanischen Abneigung gegen Alleinherrscher genährt wurden. Außerdem entfremdete Cosimos Strategie ihm den Papst, der mit Sforza in einem Territorialstreit lag und sich daher gegen den Condottiere mit Filippo Maria verbündete. Eugen IV. wurde zu einem Gegner Cosimos, mit dem er zuvor erfolgreich zusammengearbeitet hatte. Ab 1443 residierte er nicht mehr in Florenz, wohin er 1434 geflohen war, sondern wieder in Rom. Seine neue Haltung zeigte sich sogleich darin, dass er dem Leiter der römischen Filiale der Medici-Bank das einträgliche Amt des päpstlichen Generaldepositars entzog. Als der Erzbischof von Florenz starb, ernannte Eugen den Dominikaner Antonino Pierozzi, der Cosimo sehr distanziert gegenüberstand, zum Nachfolger. Der Mediceer seinerseits unterstützte offen einen erfolglosen Versuch Sforzas, sich Roms zu bemächtigen. Nach dem Tod Eugens, der 1447 starb, gelang es Cosimo jedoch, zum Nachfolger Nikolaus V. ein gutes Verhältnis aufzubauen. Sein Vertrauensmann in Rom, Roberto Martelli, wurde wieder Generaldepositar. Italien nach dem Frieden von Lodi (1454) In Mailand setzten sich nach Filippo Marias Tod zunächst republikanische Kräfte durch, doch gelang es Sforza im Jahr 1450, dort die Macht zu übernehmen. Nun konnte das von Cosimo gewünschte mailändisch-florentinische Bündnis verwirklicht werden, das eine tiefgreifende Änderung der politischen Verhältnisse bewirkte. Es wurde zu einer „Hauptachse der italienischen Politik“ und erwies sich damit als bedeutender außenpolitischer Erfolg des Florentiner Staatsmanns. Allerdings führte es zum Bruch der traditionellen Allianz der Republiken Florenz und Venedig. Die Venezianer, die gehofft hatten, vom Untergang der Visconti zu profitieren, waren die Verlierer der neuen Konstellation. Im Juni 1451 verbannte Venedig die florentinischen Kaufleute aus seinem Territorium. Im folgenden Jahr begann der Krieg zwischen Venedig und Mailand, Florenz blieb diesmal verschont. Die Feindseligkeiten endeten im April 1454 mit dem Frieden von Lodi, in dem Venedig Sforza als Herzog von Mailand anerkannte. Es folgte die Gründung der Lega italica, eines Pakts, dem alle fünf Regionalmächte beitraten. Diese Vereinbarung garantierte den Besitzstand der Staaten und schuf ein stabiles Gleichgewicht der Mächte. Außerdem richtete sie sich implizit gegen Frankreich; die Vertragsmächte wollten einem militärischen Eingreifen der Franzosen auf italienischem Boden vorbeugen. Dieses insbesondere von Sforza angestrebte Ziel akzeptierte Cosimo nur zögernd. Er wollte zwar auch französische Truppen von Italien fernhalten, glaubte aber, dass Venedig für Florenz die größere Gefahr sei und daher die Option eines Bündnisses mit Frankreich erhalten bleiben solle. Schließlich schloss er sich aber Sforzas Auffassung an. Dank der Stabilität, die von der Lega italica ausging, wurde Cosimos letztes Lebensjahrzehnt zu einer Friedenszeit. Als sein Sohn Piero 1461 das Amt des "gonfaloniere di giustizia" antrat, konnte er erklären, der Staat befinde sich in einem Zustand des Friedens und des Glücks, „dessen weder die Bürger von heute noch ihre Vorfahren Zeugen waren oder sich erinnern konnten“. Kulturelle Aktivität. Als Staatsmann und Bürger begnügte sich Cosimo bewusst mit einem niedrigen Profil und kultivierte seine Bescheidenheit, um möglichst wenig Neid und Verdacht zu erregen. Er vermied ein prunkvolles, herrscherähnliches Auftreten und achtete darauf, mit seinem Lebensstil die anderen angesehenen Bürger nicht zu übertreffen. Als Mäzen hingegen stellte er sich gezielt in den Vordergrund. Er nutzte seine Bautätigkeit und seine Stellung als Auftraggeber von Künstlern, um sich in Szene zu setzen und sein Ansehen und den Ruhm seiner Familie zu mehren. Religiöse Motivation. Seine Spenden für den Bau und die Ausstattung sakraler Gebäude betrachtete Cosimo als Investitionen, die ihm Gottes Gnade verschaffen sollten. Er fasste sein Verhältnis zu Gott als Abhängigkeitsbeziehung im Sinne des Klientelismus auf: Ein Klient empfängt von seinem Patron Wohltaten und zeigt sich dafür durch Loyalität und tätige Dankbarkeit erkenntlich. Gegenüber seiner Anhängerschaft trat Cosimo als gütiger Patron auf, gegenüber Gott sah er sich als Klient. Wie sein Biograph Vespasiano da Bisticci berichtet, antwortete er auf die Frage nach dem Grund seiner großen Freigebigkeit und Fürsorge gegenüber Mönchen, er habe von Gott so viel Gnade empfangen, dass er nun sein Schuldner sei. Niemals habe er Gott einen Grosso (eine Silbermünze) gegeben, ohne von ihm dafür bei diesem „Tauschhandel“ "(iscambio)" einen Florin (eine Goldmünze) zu bekommen. Außerdem war Cosimo der Meinung, er habe mit seinem Geschäftsgebaren gegen ein göttliches Gebot verstoßen. Er befürchtete, Gott werde ihm zur Strafe seine Besitztümer wegnehmen. Um dieser Gefahr vorzubeugen und sich weiterhin das göttliche Wohlwollen zu sichern, bat er Papst Eugen IV. um Rat. Der Papst befand, eine Spende von 10.000 Florin für einen Klosterbau sei zur Bereinigung der Angelegenheit ausreichend. So wurde dann verfahren. Als der Bau vollendet war, bestätigte der Papst mit einer Bulle den Ablass, der dem Bankier für die Spende gewährt wurde. Humanismus. Cosimo lebte in der Blütezeit des Renaissance-Humanismus, dessen bedeutendstes Zentrum seine Heimatstadt Florenz war. Das Ziel des humanistischen Bildungsprogramms, die Befähigung des Menschen zu einer optimalen Lebensführung und staatsbürgerlichen Pflichterfüllung durch Verbindung von Wissen und Tugend, fand damals im Florentiner Patriziat viel Anklang. Den Weg zur Verwirklichung des humanistischen Tüchtigkeitsideals sah man in der Aneignung antiker Bildungsgüter, die zur Nachahmung klassischer Vorbilder anspornen sollte. Cosimos Vater hatte sich dieser Auffassung angeschlossen; er ließ seinem Sohn eine humanistische Erziehung zukommen. Wie viele seiner gebildeten Mitbürger öffnete sich Cosimo der Gedankenwelt und den Wertvorstellungen der Humanisten. Er schätzte den Umgang mit ihnen, erwies ihnen Wohltaten und erhielt dafür seinerseits viel Anerkennung. Sein Leben lang zeigte er großes Interesse an Philosophie – insbesondere Ethik – und literarischen Werken. Dank seiner guten Schulbildung konnte er lateinische Texte lesen; seine eigenhändigen Vermerke in seinen Codices bezeugen, dass er Bücher nicht nur sammelte, sondern auch las. Wahrscheinlich war er aber nicht imstande, sich in gutem Latein auszudrücken. Cosimos Wertschätzung für die Humanisten hing auch mit dem Umstand zusammen, dass sein gesellschaftlicher Status als erfolgreicher Bankier, Mäzen und republikanischer Staatsmann mit ihren moralischen Werten sehr gut vereinbar war. Bei seinen humanistischen Freunden konnte er mit vorbehaltloser Anerkennung rechnen, denn sie hatten ein unbefangenes Verhältnis zum Reichtum und verherrlichten seine Freigebigkeit. Großzügigkeit galt im humanistischen Milieu als eine der wertvollsten Tugenden. Dabei konnte man sich auf Aristoteles berufen, der in seiner "Nikomachischen Ethik" die Großzügigkeit oder Hochherzigkeit gepriesen und Reichtum als deren Voraussetzung bezeichnet hatte. Diese humanistische Haltung stand im Gegensatz zur Gesinnung konservativer Kreise, die das Bankwesen verdammten und Reichtum für moralisch suspekt hielten, wobei sie sich auf traditionelle christliche Wertvorstellungen beriefen. Außerdem widersprach die egalitäre Tendenz des Renaissance-Humanismus der mittelalterlichen Neigung, politische Führungspositionen denen vorzubehalten, die sich durch vornehme Abstammung auszeichneten. An die Stelle der herkömmlichen starren sozialen Ordnung, die Cosimos politische Gegner in der Albizzi-Gruppe bevorzugten, trat bei den Humanisten ein Konzept, das soziale Mobilität förderte; humanistische Bildung und persönliche Tüchtigkeit sollten als Qualifikationskriterien für die Staatslenkung ausreichen. Diese Einstellung kam Cosimo, dessen Familie zu den Aufsteigern "(gente nuova)" zählte und manchen alteingesessenen Geschlechtern suspekt war, zugute. Besonders großzügig förderte Cosimo den humanistischen Philosophen Marsilio Ficino, dessen Vater Diotifeci d’Agnolo di Giusto sein Leibarzt war. Als väterlicher Freund verschaffte er Ficino die materielle Basis für ein ganz der Wissenschaft gewidmetes Leben. Er schenkte ihm ein Haus in Florenz und ein Landhaus in Careggi, wo er selbst eine prächtige Villa besaß. Ficino war ein begeisterter Platoniker und Bewunderer seines Gönners. Er schrieb in einem Brief an dessen Enkel Lorenzo, Platon habe ihm die platonische Idee der Tugenden einmal vor Augen gestellt, Cosimo habe sie jeden Tag in die Tat umgesetzt; daher habe er seinem Wohltäter nicht weniger zu verdanken als dem antiken Denker. Mehr als zwölf Jahre habe er glücklich mit ihm philosophiert. Im Auftrag Cosimos fertigte Ficino die erste lateinische Gesamtübersetzung der Werke Platons an, womit er maßgeblich zur Verbreitung platonischen Gedankenguts beitrug. Daraus lässt sich allerdings nicht folgern, dass Cosimo ebenso wie Ficino den Platonismus anderen philosophischen Schulrichtungen vorzog. Das Ausmaß seiner Hinwendung zum Platonismus wurde früher überschätzt; er scheint eher zum Aristotelismus geneigt zu haben. Bis gegen Ende des 20. Jahrhunderts glaubte man, Cosimo habe eine Platonische Akademie gegründet und deren Leitung Ficino übertragen. Diese Annahme ist jedoch von der neueren Forschung als falsch erwiesen worden. Es handelte sich nicht um eine Institution, sondern nur um einen informellen Kreis von Schülern Ficinos. Auch zwei weitere namhafte Humanisten, Poggio Bracciolini und Johannes Argyropulos, beschenkte Cosimo mit Häusern. Hilfreich waren für seine humanistischen Freunde nicht nur seine Zuwendungen aus eigenen Mitteln; sie profitierten auch von seinem großen Einfluss im In- und Ausland, den er nutzte, um ihnen Gehör und Anstellungen zu verschaffen. Er sorgte dafür, dass zwei Humanisten, die er schätzte, Carlo Marsuppini und Poggio Bracciolini, das prestigereiche Amt des Kanzlers der Republik Florenz erhielten. Eng befreundet war Cosimo mit dem Geschichtsschreiber und späteren Kanzler Bartolomeo Scala und mit dem humanistisch gesinnten Mönch Ambrogio Traversari, einem angesehenen Altertumswissenschaftler. Ihn bewog er dazu, das Werk des antiken Philosophiehistorikers Diogenes Laertios über Leben und Lehren der Philosophen aus dem Griechischen ins Lateinische zu übersetzen und damit einer breiteren Öffentlichkeit zugänglich zu machen. Traversaris Kloster Santa Maria degli Angeli war der Treffpunkt einer Gruppe von Gelehrten, in deren Kreis Cosimo verkehrte. Unter ihnen war Niccolò Niccoli, ein eifriger Sammler von Handschriften antiker Werke, dem Cosimo Bücher und Geld schenkte. Poggio Bracciolini und Niccolò Niccoli betätigten sich im Konflikt mit der Albizzi-Gruppe als eifrige Anhänger des Mediceers. Zeitweilig problematisch war Cosimos Verhältnis zu Leonardo Bruni, einem einflussreichen humanistischen Politiker und Staatstheoretiker, der sich als maßgeblicher Wortführer des florentinischen Republikanismus profilierte. Cosimo verschaffte Bruni, der aus Arezzo stammte und in Florenz eine neue Heimat gefunden hatte, 1416 das florentinische Bürgerrecht, und 1427 wurde der Humanist mit Billigung der Medici-Gruppe Staatskanzler. Dennoch pflegte Bruni auch Beziehungen zur Albizzi-Gruppe und vermied es, im Machtkampf von 1433–1434 für Cosimo Partei zu ergreifen. Trotz dieses Mangels an Loyalität zu den Medici durfte er nach 1434 das Amt des Kanzlers bis zu seinem Tod behalten und wichtigen Gremien angehören. Offenbar hielt es Cosimo für unzweckmäßig, diesen namhaften Theoretiker des republikanischen Staatskonzepts zu verärgern. Die hohen Erwartungen, die Cosimos Wohlwollen bei den Humanisten weckte, zeigen sich darin, dass sie ihm mehr als vierzig Schriften widmeten. Dabei handelte es sich teils um Werke, die sie selbst verfasst hatten, teils um Übersetzungen. Die weite Verbreitung humanistischer Schriften, deren Widmungstexte Cosimo lobten, trug seinen Ruhm in alle Bildungsstätten West- und Mitteleuropas. Seine Bewunderer idealisierten und verherrlichten ihn auch in zahlreichen Gedichten, Briefen und Reden; sie verglichen ihn mit berühmten Staatsmännern der Antike. Erkennbar ist dabei – verstärkt in seinen letzten Lebensjahren – die Bemühung dieser Autoren, der Familie Medici dynastische Züge zu verleihen. Schon nach Cosimos Rückkehr aus dem Exil im Jahr 1434 feierten ihn seine Anhänger als "Pater patriae" („Vater des Vaterlandes“). Einhellig war das Lob, das Cosimo zu seinen Lebzeiten bei den Humanisten fand, allerdings nicht. Einen erbitterten Gegner hatte er in dem namhaften humanistischen Gelehrten Francesco Filelfo. Dieser war 1429 mit Billigung Cosimos als Universitätslehrer nach Florenz geholt worden, überwarf sich dann aber mit dem Mediceer und nahm dezidiert für die Albizzi-Gruppe Partei. Die Medici-Gruppe versuchte seine Entlassung zu erwirken, konnte ihn aber nur vorübergehend aus der Universität vertreiben. Als 1433 ein Anschlag auf ihn verübt wurde, bei dem er eine Verletzung erlitt, verdächtigte er Cosimo, hinter dem Attentat zu stecken. Während Cosimos Exil 1433–1434 schrieb Filelfo eine heftige Satire gegen die Medici. Nach dem Umsturz von 1434, der zu Cosimos Rückkehr führte, verließ er Florenz, um der drohenden Rache der Sieger zu entgehen. In der Folgezeit bekämpfte er die Medici aus der Ferne. Im Herbst 1436 schloss er sich einer Gruppe an, die vergeblich versuchte, Cosimo von einem gedungenen Mörder umbringen zu lassen. Auf Filelfos literarische Angriffe reagierten Cosimos humanistische Verteidiger mit Entgegnungen. Das Wappenzeichen der Medici am Medici-Palast Ein wichtiges Betätigungsfeld für Cosimos Mäzenatentum auf dem Gebiet der Bildungsförderung war das Bibliothekswesen. Er gründete mehrere klösterliche Bibliotheken. Die bedeutendste von ihnen befand sich im Florentiner Dominikanerkonvent San Marco. Sie war – anders als früher üblich – der Öffentlichkeit zugänglich. Bildende Kunst. Noch stärker als im literarischen Bereich engagierte sich Cosimo auf dem Gebiet der bildenden Kunst. Er ließ auf eigene Kosten Kirchen und Klöster erbauen und künstlerisch ausstatten. Damit betätigte er sich, obwohl er formal nur ein einfacher Bürger war, auf einem Gebiet, das traditionell weltlichen und geistlichen Machthabern vorbehalten war. Im 14. und frühen 15. Jahrhundert wäre eine ganz aus privater Initiative entfaltete Bautätigkeit solchen Umfangs in Florenz noch undenkbar gewesen. Erst der gesellschaftliche Wandel, der mit der fortschreitenden Entfaltung des Humanismus zusammenhing, machte derartige Vorhaben möglich. Eine humanistisch geprägte Mentalität zeigte sich auch im Willen zur Selbstdarstellung. Cosimo legte Wert darauf, dass seine Funktion als Auftraggeber sichtbaren Ausdruck fand. So ließ er an einer Kirche in Jerusalem, die mit seinen Mitteln restauriert wurde, sein Wappen anbringen, das fortan den Pilgern, die ins Heilige Land zogen und die Kirche aufsuchten, ins Auge fiel. Auch in Florenz weisen die von ihm gestifteten Bauten überall das Familienwappen der Medici auf. Nicht nur an Fassaden und Portalen, sondern auch an Kapitellen, Konsolen, Schluss-Steinen und Friesen ließ er es anbringen. Zwar waren Familienwappen in Kirchen damals in Florenz üblich, doch die Häufigkeit, mit der Cosimo das seinige überall ins Blickfeld der Öffentlichkeit rückte, war einzigartig und fiel auf. Cosimo auf einem Fresko von Benozzo Gozzoli in der Kapelle des Medici-Palastes, Florenz Auch Wandgemälde mit biblischen Szenen, die im Auftrag der Medici gemalt wurden, dienten Cosimos Selbstdarstellung. Auf einem Fresko im Kloster San Marco erhielt einer der Heiligen Drei Könige die idealisierten Gesichtszüge des Mediceers. Er trägt Instrumente zur Erforschung der Gestirne. Auch auf einem um 1459 entstandenen Fresko der Heiligen Drei Könige an der Ostwand der Kapelle des Medici-Palastes befindet sich ein Porträt Cosimos. Dort ist er mit seinen Söhnen Piero und Giovanni und den Enkeln Lorenzo – später als Lorenzo il Magnifico bekannt – und Giuliano abgebildet. Im Grünen Kreuzgang von Santa Maria Novella ist Cosimo auf einer Lünette mit einer Szene aus der Sintfluterzählung zu sehen; anscheinend erscheint er dort als Personifikation der Weisheit. Für dieses Werk von Paolo Uccello war er wohl nicht selbst der Auftraggeber. Fassade und linke Seitenfront des Medici-Palasts Ab 1437 entstand der Neubau des Klosters San Marco, das der Papst 1436 den Dominikaner-Observanten, einem Zweig des Dominikanerordens, übertragen hatte. Die bisherigen Klostergebäude wurden durch Neubauten ersetzt, von der Kirche wurde nur der Chor erneuert. Die Weihe der Kirche fand 1443 in Anwesenheit des Papstes statt, die Konventsgebäude wurden erst 1452 komplett fertiggestellt. Ursprünglich hatte Cosimo dafür mit Kosten von 10.000 Florin gerechnet, schließlich musste er insgesamt über 40.000 ausgeben. Für den Neubau der Basilica di San Lorenzo, einer bedeutenden Kirche, stellte er über 40.000 Florin bereit. An der Finanzierung dieses Großprojekts hatte sich schon sein Vater beteiligt. Im Mugello nördlich von Florenz, der Gegend, aus der die Medici ursprünglich stammten, förderte er den Bau des Franziskanerklosters San Francesco al Bosco (Bosco ai Frati). Bei der Franziskanerkirche Santa Croce ließ er einen Trakt für die Novizen bauen. Unter den weiteren kirchlichen Bauvorhaben, die er finanzierte, war das bedeutendste die Badia di Fiesole, das Kloster der Augustiner-Eremiten unterhalb von Fiesole. Dort ließ Cosimo ab 1456 das gesamte Klostergebäude einschließlich der Kirche neu errichten und mit einer Bibliothek ausstatten. Die Bauarbeiten waren bei seinem Tod noch nicht abgeschlossen. Der Medici-Palast vom Dom aus gesehen Außer den Sakralbauten ließ Cosimo auch ein imposantes privates Gebäude errichten, den neuen Medici-Palast. Zuvor wohnte er in einem vergleichsweise bescheidenen älteren Palast, der Casa Vecchia. Erst 1445/1446, nachdem er bereits mit Kirchen- und Klosterbauten seine Großzügigkeit im Dienst des Gemeinwesens unter Beweis gestellt hatte, begann er mit dem aufwendigen Neubau des Familienpalastes an der damaligen Via Larga, der heutigen Via Cavour. In erster Linie ging es ihm dabei nicht um seinen eigenen Wohnkomfort, sondern um das Ansehen der Familie. Damit folgte er einer damals herrschenden sozialen Norm; die Wahrung und Mehrung des Ruhms der Familie war generell für Angehörige der Oberschicht eine zentrale Aufgabe. Der neue "palazzo" der Medici übertraf alle älteren Familienpaläste in Florenz an Größe und Ausstattung. Seine außergewöhnliche architektonische Qualität setzte einen neuen Maßstab für den Palastbau der Renaissance. Die Kapelle wurde von Benozzo Gozzoli mit Fresken geschmückt. An der Ausstattung des Palastes mit kostbaren Bildern waren auch die damals sehr geschätzten Maler Fra Angelico, Domenico Veneziano und Filippo Lippi beteiligt. Es wurde eine Umgebung geschaffen, in der prominente auswärtige Gäste repräsentativ empfangen werden konnten. Papst Pius II. meinte, dieses Bauwerk sei eines Königs würdig. Nach seinem Eindruck verfügte Cosimo über einen Reichtum, der vielleicht den des sprichwörtlichen Königs Krösus übertraf. Die Schätzungen der Baukosten schwanken zwischen 60.000 und 100.000 Florin. Basilica di San Lorenzo, Florenz Das Staunen der Zeitgenossen spiegelt sich in den Worten des Architekten und Architekturtheoretikers Filarete, der sich in seinem 1464 vollendeten "Trattato di architettura" äußerte. Filarete hob besonders die Würde "(dignitade)" der neuen Gebäude hervor. Er verglich Cosimo mit bedeutenden antiken Bauherren wie Marcus Vipsanius Agrippa und Lucius Licinius Lucullus. Diese seien allerdings keine bloßen Privatleute gewesen, sondern hätten große Provinzen regiert und seien dadurch zu ihrem Reichtum gekommen. Cosimo hingegen sei ein einfacher Bürger, der sein Vermögen durch seine unternehmerische Tatkraft erworben habe. Daher sei seine Leistung als Bauherr einzigartig. Cosimos Neubauten veränderten das zuvor ganz vom Mittelalter geprägte Stadtbild. Sie trugen maßgeblich zur Einführung eines neuen Architekturtyps bei, mit dem Florenz zu einem Muster für ganz Italien wurde. Der neue Stil verband Zweckmäßigkeit mit antiker Proportionalität und antikisierendem Schmuck. Diese Stilrichtung hatte schon Filippo Brunelleschi, ein führender Architekt der Frührenaissance, eingeführt. Er hatte 1420 den Neubau von San Lorenzo begonnen und wurde dann 1442 von Cosimo beauftragt, das Werk zu vollenden. Ansonsten zog der Mediceer aber einen anderen Architekten, Michelozzo, vor, dessen Entwürfe weniger grandios waren als die Brunelleschis. Ob der Medici-Palast von Brunelleschi oder von Michelozzo entworfen wurde, ist in der Forschung umstritten; vermutlich waren beide beteiligt. In den lobenden Beschreibungen von Zeitgenossen wurden an Cosimos Bauten vor allem die Ordnung, die Würde, die Weite, die Schönheit der Proportionen und des architektonischen Schmucks und die Helligkeit hervorgehoben. Anerkennung fand ferner die leichte Begehbarkeit der Treppen. Sie stellte eine Neuerung dar, denn mittelalterliche Treppen waren gewöhnlich eng und steil. Die breiten Treppen mit niedrigen Stufen wurden sehr geschätzt, da sie ein bequemes und zugleich würdevolles Treppensteigen ermöglichten. Die aufwendige Bautätigkeit des Mediceers, die an Umfang diejenige jedes anderen Privatmanns im 15. Jahrhundert übertraf, wurde von den Bürgern nicht nur wohlwollend und dankbar aufgenommen. Es wurde auch Kritik an der damit verbundenen Selbstdarstellung des reichsten Bürgers der Stadt laut. Die unterschiedlichen Ansichten und Bewertungen der Zeitgenossen sind aus einer Verteidigungsschrift ersichtlich, die der Theologe und Humanist Timoteo Maffei kurz vor 1456 zur Rechtfertigung des angegriffenen Mäzens verfasste. Maffei wählte für seine Darstellung die Form eines Dialogs, in dem er als Fürsprecher Cosimos einen Kritiker "(detractor)" widerlegt und schließlich überzeugt. Auf den Vorwurf, der Medici-Palast sei zu luxuriös, erwidert er, Cosimo habe sich dabei nicht nach dem gerichtet, was für ihn persönlich angemessen sei, sondern nach dem, was für eine so bedeutende Stadt wie Florenz passend sei. Da er von der Stadt weit größere Wohltaten empfangen habe als die anderen Bürger, habe er sich genötigt gesehen, sie entsprechend üppiger zu schmücken als jeder andere, um sich nicht als undankbar zu erweisen. Zur Entkräftung der Kritik an dem überall angebrachten Medici-Wappen bringt Maffei vor, der Zweck des Wappenzeichens bestehe darin, auf ein Vorbild aufmerksam zu machen, das zur Nachahmung anspornen solle. Auch der Bildhauer Donatello arbeitete für Cosimo oder vielleicht für dessen Sohn Piero. Im Auftrag der Medici schuf er zwei berühmte Bronzeskulpturen, den David und die Judith. Beide Werke hatten einen politischen Hintergrund; die dargestellten biblischen Gestalten versinnbildlichten den Sieg über einen scheinbar übermächtigen Feind. Es ging um Ermutigung zur Verteidigung der Freiheit des Vaterlandes und der republikanischen Verfassung gegen Gefährdungen von außen. Privatleben. Als Privatmann war Cosimo für seine Bescheidenheit und seinen Grundsatz des Maßhaltens bekannt. Seinen Palast und seine Villen gestaltete er zwar repräsentativ, doch achtete er darauf, in seiner Lebensführung unnötigen Aufwand, der Anstoß erregen konnte, zu vermeiden. So begnügte er sich mit einfachen Speisen und trug keine prächtige Kleidung. Dazu passte seine Betätigung in der Landwirtschaft, in der er sich gut auskannte. Auf seinen Besitzungen außerhalb der Stadt leistete er Landarbeit, er pfropfte Bäume und beschnitt Weinstöcke. Im Umgang mit den Bauern demonstrierte er Volksnähe; er fragte sie gern, wenn sie nach Florenz auf den Markt kamen, nach ihren Früchten und deren Herkunft. Der Buchhändler Vespasiano da Bisticci verfasste eine verherrlichende Biographie Cosimos, mit dem er befreundet war. Darin trug er unter anderem Anekdoten aus dem Privatleben zusammen, für deren Authentizität er sich verbürgte. Er schilderte seinen Freund als Menschen von ernsthafter Wesensart, der sich mit gelehrten, würdevollen Männern umgeben habe. Er habe über ein vorzügliches Gedächtnis verfügt, sei ein geduldiger Zuhörer gewesen und habe niemals schlecht über jemanden geredet. Dank seiner umfassenden Kenntnis unterschiedlicher Wissensgebiete habe er mit jedem ein Thema gefunden. Er sei überaus freundlich und bescheiden gewesen, habe darauf geachtet, niemanden zu beleidigen, und nur wenige hätten ihn je erregt gesehen. Alle seine Antworten seien „mit Salz gewürzt“ gewesen. Cosimo war für seine humorvollen und geistreichen, teils rätselhaften Bemerkungen bekannt, die im 15. und 16. Jahrhundert in einer Reihe von Anekdoten verbreitet wurden. Die Grabplatte in San Lorenzo Cosimos Grab in der Krypta von San Lorenzo Krankheit, Tod und Nachfolge. Cosimo litt an der Gicht. Die Anfälligkeit für diese Krankheit war in seiner Familie erblich. Ab 1455 scheint das Leiden ihn erheblich behindert zu haben. Er starb am 1. August 1464 in seiner Villa in Careggi und wurde am folgenden Tag in San Lorenzo beigesetzt. Pompöse Begräbnisfeierlichkeiten hatte er untersagt. Ein Testament hinterließ er nicht. Für die Gestaltung des Grabmals setzte die Signoria eigens eine zehnköpfige Kommission ein. Andrea del Verrocchio gestaltete die Grabplatte, für die ein zentraler Ort innerhalb der Kirche gewählt wurde, wie es bei Stiftergräbern üblich war. Dort wurde auf Beschluss der Stadt die Inschrift "Pater patriae" („Vater des Vaterlandes“) eingemeißelt, die an eine antike Ehrung außergewöhnlich verdienter Bürger anknüpfte. Nach der Fertigstellung des Grabmals wurden die Gebeine am 22. Oktober 1467 an ihre endgültige Stätte in der Krypta gebracht. Mit seiner Gattin hatte Cosimo zwei Söhne, Piero (1416–1469) und Giovanni (1421–1463). Hinzu kam ein unehelicher Sohn namens Carlo, dessen Mutter eine tscherkessische Sklavin war. Carlo wurde zusammen mit seinen Halbbrüdern erzogen und schlug später eine kirchliche Karriere ein. Giovanni starb schon am 1. November 1463, neun Monate vor Cosimo, und hinterließ keine Kinder. Piero fiel das ganze väterliche Erbe zu, sowohl das Vermögen und die Führung der Bank als auch die Stellung des leitenden Staatsmanns von Florenz. Dank der Autorität seines verstorbenen Vaters konnte Piero dessen Rolle im Staat problemlos übernehmen. Er litt aber schwer an der Gicht, die seine Aktivitäten stark behinderte, und starb schon fünf Jahre nach Cosimo. Pieros Nachfolge als informeller Machthaber trat im Dezember 1469 sein Sohn Lorenzo il Magnifico an. Wiederum verlief der Übergang ohne Komplikationen. Das neue Oberhaupt der Familie setzte die Tradition der großzügigen Kulturförderung fort und mehrte damit den Ruhm der Medici. Die von seiner Führung geprägten 22 Jahre der Geschichte von Florenz waren eine kulturell außerordentlich glanzvolle Epoche. Lorenzo verfügte aber nicht über das geschäftliche Talent seines Großvaters Cosimo. Es gelang ihm nicht, die finanzielle Basis der politischen Macht und des Mäzenatentums der Medici zu bewahren. Die Bank erlebte einen dramatischen Niedergang, der sie an den Rand des Zusammenbruchs brachte. Mittelalter. Ein scharfer Kritiker Cosimos war der zeitgenössische Geschichtsschreiber Giovanni Cavalcanti. Er gehörte einem alteingesessenen Patriziergeschlecht an und missbilligte den Aufstieg einer Schicht von Emporkömmlingen, für den er Cosimo verantwortlich machte. Vor allem verübelte er dem Mediceer das rigorose Vorgehen gegen die Steuerschuldner, zu denen er selbst zählte. Allerdings äußerte er sich stellenweise positiv über die Medici und hielt die Aufhebung von Cosimos Verbannung für gerecht. Cosimo als „Vater des Vaterlandes“ auf einer nach seinem Tod geprägten Medaille Zeitgenössische medicifreundliche Autoren priesen Cosimo rückblickend als Retter der Unabhängigkeit der Republik Florenz. So befand der Humanist Benedetto Accolti der Ältere in seinem "Dialogus de praestantia virorum sui aevi", einem in Cosimos letzten Lebensjahren verfassten und ihm gewidmeten Werk, die Machtverhältnisse seien nach dem Tod von Filippo Maria Visconti für Venedig so günstig gewesen, dass die Venezianer ganz Italien hätten unterwerfen können, wenn Cosimo dies nicht durch das Bündnis mit Mailand verhindert hätte. Er allein sei der Urheber des Allianzwechsels, den er gegen starken Widerstand in Florenz durchgesetzt habe. In diesem Sinn äußerte sich auch der Geschichtsschreiber Benedetto Dei. Er verfasste in den 1470er Jahren ein gegen Venedig gerichtetes Pamphlet, in dem er Cosimos Außenpolitik rückblickend als weitsichtig und erfolgreich darstellte. Nach seiner Einschätzung hätte Venedig in Italien eine beherrschende Stellung errungen, wenn Cosimo nicht die Allianz mit Francesco Sforza zuwege gebracht hätte. Der Humanist Bartolomeo Platina schrieb den Dialog "De optimo cive" "(Über den besten Bürger)", den er 1474 Cosimos Enkel Lorenzo il Magnifico widmete. Mit dem „besten Bürger“ ist der leitende republikanische Staatsmann gemeint. Der Ort der Handlung ist die Villa der Medici in Careggi, den Inhalt bildet ein fiktives Gespräch zwischen dem bereits alten und gebrechlichen Cosimo als Hauptperson, Platina und dem Knaben Lorenzo. Der Vorrede zufolge wollte der Autor mit seiner Darstellung von Cosimos politischen Maximen den patriotischen Eifer der Leser anfeuern. Platina präsentierte ein Regierungsprogramm, das er dem alten Staatsmann in den Mund legte. Seine Dialogfigur Cosimo tritt für „Freiheit“ – die traditionelle republikanische Lebensform – ein, warnt vor Hochmut, Anmaßung und Luxus, kritisiert Übelstände und fordert Einschreiten gegen Männer, die nach der Tyrannis streben. Sie sollen verbannt werden; hinzurichten sind sie nur, wenn sie der Beteiligung an einer Verschwörung überführt worden sind. Neben der humanistischen Verherrlichung Cosimos in lateinischer Sprache, die sich an Gebildete richtete, gab es auch eine volkstümliche in italienischen Gedichten. In dieser für eine breitere Öffentlichkeit bestimmten Dichtung erscheint er als gütige Vaterfigur, Förderer des religiösen Lebens und des Wohlstands und heldenhafter Verteidiger der Freiheit gegen Angriffe von außen. Frühe Neuzeit. Im letzten Jahrzehnt des 15. Jahrhunderts zerbrach der Konsens, der die informelle Herrschaft der Medici in der Republik Florenz ermöglicht hatte. Die Familie wurde im November 1494 aus der Stadt verjagt. Dies führte zu einer Neubewertung von Cosimos Rolle. Der Mönch Girolamo Savonarola, der für die Florentiner damals die maßgebliche Autorität war, verdammte die Medici-Herrschaft als monströs und äußerte zu der Cosimo zugeschriebenen Bemerkung, der Staat werde nicht mit Vaterunser-Beten regiert, dies sei ein Tyrannenwort. Am 22. November 1495 beschloss die Signoria, die Inschrift „Vater des Vaterlandes“ am Grabmal zu tilgen. Doch 1512 brachte ein spanisches Heer die Medici zurück nach Florenz und wieder an die Macht. Daraufhin wurde die Inschrift wiederhergestellt. Im Jahr 1527 mussten die Medici aber ein weiteres Mal dem Volkszorn weichen. Nach der erneuten Vertreibung der Familie beschlossen die nunmehr regierenden Republikaner 1528 wiederum die Beseitigung der Inschrift. Diesen Schritt begründeten sie damit, dass Cosimo nicht Vater des Vaterlandes gewesen sei, sondern Tyrann des Vaterlandes. Die medicilose Republik erwies sich jedoch als kurzlebig; im August 1530 wurde die Stadt von Truppen Kaiser Karls V. gestürmt, worauf die Medici wieder an die Macht kamen. Aus der Republik wurde eine Monarchie, deren Herrscher ihre Legitimation aus der Rolle ihrer Ahnen im 15. Jahrhundert bezogen. Der Historiker Francesco Guicciardini behandelte die Zeit bis 1464 im ersten Kapitel seiner 1508/1509 verfassten "Storie fiorentine". Er befand, Cosimo und sein berühmter Enkel Lorenzo il Magnifico seien vielleicht die beiden angesehensten Privatleute seit dem Untergang des Römischen Reichs gewesen. Der Großvater sei dem Enkel an Beharrlichkeit und Urteilskraft sowie im Umgang mit Geld überlegen gewesen. Wenn man alle Aspekte bedenke, komme man zum Ergebnis, dass Cosimo der tüchtigere der beiden großen Mediceer gewesen sei. Insbesondere lobte Guicciardini das Bündnis mit Mailand, in dem er eine bedeutende historische Leistung Cosimos sah. Die Mehrheit der Florentiner sei für die Fortsetzung der alten Allianz mit Venedig gewesen, doch habe Cosimo seine Mitbürger überzeugen können, sich mit Francesco Sforza zu verbünden. Damit habe er die Freiheit nicht nur der Republik Florenz, sondern ganz Italiens gerettet. Nach Guicciardinis Meinung hätten die Venezianer erst Mailand und dann alle übrigen italienischen Staaten unterworfen, wenn Cosimo dies nicht verhindert hätte. Niccolò Machiavelli urteilte in seinen 1520–1525 verfassten "Istorie fiorentine", Cosimo habe alle seine Zeitgenossen nicht nur an Autorität und Reichtum, sondern auch an Freigebigkeit und Klugheit übertroffen. Niemand sei ihm zu seiner Zeit in der Staatskunst ebenbürtig gewesen. Er habe in Florenz eine fürstliche Stellung eingenommen und sei dennoch so klug gewesen, die Grenzen bürgerlicher Mäßigung nie zu überschreiten. Alle seine Werke und Taten seien königlich gewesen. Entstehende Übel habe er frühzeitig erkannt; daher habe er genug Zeit gehabt, sie nicht wachsen zu lassen oder sich gegen sie zu wappnen. Er habe nicht nur den Ehrgeiz seiner bürgerlichen Rivalen zu Hause bezwungen, sondern auch den vieler Fürsten. Das Regierungssystem Cosimos missbilligte Machiavelli allerdings. Er hielt die Verbindung einer zentralisierten, quasi monarchischen Entscheidungsstruktur mit der Notwendigkeit, dennoch weiterhin wie in der vormediceischen Republik einen breiten Konsens zu finden, für verfehlt. In der Instabilität eines solchen Konstrukts sah er eine fundamentale Schwäche. Cosimo geht ins Exil. Fresko von Giorgio Vasari, Palazzo Vecchio, Florenz Im Jahr 1537 erlangte der Mediceer Cosimo I. die Würde eines Herzogs der Toskana. Der Herzog, der bis 1574 regierte (ab 1569 als Großherzog), war ein Nachkomme Lorenzos, des jüngeren Bruders von Cosimo il Vecchio. Er ließ im Palazzo della Signoria (Palazzo Vecchio) einen „Saal von Cosimo il Vecchio“ zu Ehren des Begründers von Ruhm und Macht der Medici einrichten. Die "Sala di Cosimo il Vecchio" wurde von Giorgio Vasari und seinen Gehilfen ausgemalt. Dabei wurde das Kirchenbauprogramm des berühmten Mäzens besonders hervorgehoben. Eines der Gemälde stellt seine Rückkehr aus dem venezianischen Exil als Triumph dar. Im Zeitalter der Aufklärung wurde Cosimo wegen seiner Förderung des Humanismus geschätzt. Voltaire äußerte sich in seinem 1756 veröffentlichten "Essai sur les mœurs et l’esprit des nations" mit Begeisterung. Er urteilte, die frühen Medici hätten ihre Macht durch Wohltaten und Tugenden erlangt, daher sei sie legitimer als die jedes Herrschergeschlechts. Cosimo habe seinen Reichtum dazu genutzt, den Armen zu helfen, sein Vaterland mit Bauten zu schmücken und die aus Konstantinopel vertriebenen griechischen Gelehrten nach Florenz zu holen. Mit seinen Wohltaten habe er sich die Autorität verschafft, die bewirkt habe, dass seine Empfehlungen drei Jahrzehnte lang wie Gesetze befolgt worden seien. Edward Gibbon rühmte Cosimo im 1788 erschienenen sechsten Band seiner "History of the Decline and Fall of the Roman Empire" mit den Worten, er habe seine Reichtümer in den Dienst der Menschheit gestellt; der Name Medici sei fast gleichbedeutend mit der Wiederherstellung der Bildung. Johann Wolfgang von Goethe würdigte Cosimo im Anhang zu seiner 1803 veröffentlichten Übersetzung der Autobiographie des Benvenuto Cellini. Dort beschrieb er die Patronage des Mediceers als „allgemeine Spende, die an Bestechung gränzt“. Als „großer Handelsmann“, der „das Zaubermittel zu allen Zwecken in Händen trägt“, sei er „an und für sich ein Staatsmann“ gewesen. Zu Cosimos kulturellen Aktivitäten bemerkte Goethe: „Selbst vieles, was er für Literatur und Kunst gethan, scheint in dem großen Sinne des Handelsmanns geschehen zu sein, der köstliche Waaren in Umlauf zu bringen und das Beste davon selbst zu besitzen sich zur Ehre rechnet.“ Kulturgeschichtliche Aspekte. Georg Voigt veröffentlichte 1859 seine für die Erforschung des Frühhumanismus wegweisende Schrift "Die Wiederbelebung des classischen Alterthums". In diesem Werk, das 1893 in dritter Auflage erschien, konstatierte Voigt, die Literatur- und Kunstgeschichte habe Cosimo „mit einer Art von Heiligenschein umkleidet“. Er sei „der leibhaftigste Typus des florentinischen Edelmanns als großartiger Kaufherr, als kluger und überschauender Staatsmann, als Repräsentant der feinen Modebildung, als mäcenatischer Geist im fürstlichen Sinne“ gewesen. Seinen Blick habe er „auf das Weite und Allgemeine gerichtet“, seine Macht habe er in einer „kalt berechneten und geräuschlosen Weise“ gefestigt. Jedes wissenschaftliche Verdienst habe er nach Gebühr anerkannt, die Talente herangezogen, ihnen Stellung und Besoldung angewiesen. Jacob Burckhardt zeichnete in der 1869 erschienenen zweiten Auflage seiner einflussreichen Schrift "Die Kultur der Renaissance in Italien" ein heute teilweise überholtes Bild von Cosimo. Er betonte die „Führerschaft auf dem Gebiete der damaligen Bildung“, die dem Mediceer zugekommen sei. Dieser besitze den „speziellen Ruhm, in der platonischen Philosophie die schönste Blüte der antiken Gedankenwelt erkannt“ und seine Umgebung mit dieser Erkenntnis erfüllt zu haben. So habe er „innerhalb des Humanismus eine zweite und höhere Neugeburt des Altertums ans Licht gefördert“. In kulturgeschichtlichen Darstellungen dominierte bis gegen Ende des 20. Jahrhunderts Burckhardts Sichtweise: Cosimo wurde vielfach als Gründer einer platonischen Akademie gewürdigt. So schrieb beispielsweise Agnes Heller 1982, die Gründung der Akademie in Florenz sei epochemachend gewesen. Es handle sich um die erste philosophische Schule, die „von den alten kirchlichen und universitären Rahmenbedingungen unabhängig und insofern vollkommen weltlich und ‚offen‘“ gewesen sei. Patron dieser Akademie sei „der im traditionellen Sinn (aus dem Blickwinkel der offiziellen Bildung der Zeit) unstudierte Cosimo“ gewesen. Ähnlich schilderte noch 1995 Manfred Lentzen die Rolle des Mediceers. Erst die Forschungen von James Hankins entzogen in den 1990er Jahren dem Bild von Cosimo als Akademiegründer die Grundlage. Politische Aspekte. Statue Cosimos als "Pater Patriae" von Luigi Magi (1846), Uffizien, Florenz Im verfassungsgeschichtlichen Diskurs wird die Frage erörtert, inwiefern Cosimos dominante Rolle den Rahmen der republikanischen Verfassung sprengte und seine Bezeichnung als Herrscher von Florenz daher berechtigt ist. Zur Unterscheidung von einer offenen Alleinherrschaft wird Cosimos System als „Kryptosignorie“ (versteckte Herrschaft) bezeichnet. Damit ist eine Regierungsform gemeint, die sich erst später allmählich zu einer unverhüllten Signorie, der Staatslenkung durch einen einzelnen Machthaber mit erblicher Stellung, entwickelt hat. Anthony Molho bringt die Zwiespältigkeit des Systems auf die griffige Formel „Cosimo de’ Medici – Pater patriae (Vater des Vaterlandes) oder Padrino (Pate)?“ Damit wird angedeutet, dass der Patron des Klientelsystems eine „politische Maschine“ geschaffen habe und vielleicht sogar in die Nähe von Mafia-Paten zu rücken sei. Letzteres entspricht der Auffassung von Lauro Martines und Jacques Heers. Martines sieht in der „Palette unverblümter und umfassender Kontrollmaßnahmen der mediceischen Republik“ das Instrumentarium, mit dem Cosimo die Verfassung unterminiert und die Herrschaft der „Medici-Oligarchie“, der „an der Regierung befindlichen Clique“, gesichert habe. Allerdings habe sich die republikanische Verfassung nicht so stark beugen lassen, dass sie den Medici totale Macht garantiert hätte. Die Oligarchie sei ein Team gewesen, „keine Ein-Mann-Show“, und habe ihre wichtigen Entscheidungen kollektiv gefällt. Jacques Heers zeichnet das Bild einer finsteren, brutalen Tyrannei, die Cosimo errichtet habe. Werner Goez urteilt, Florenz habe sich unter Cosimo zweifellos auf dem Weg zu fürstlicher Alleinherrschaft befunden, auch wenn alles getan worden sei, diesen Tatbestand zu verschleiern. Volker Reinhardt befindet, ab 1434 sei es zu einer „eigentümlichen Vermischung“ von Signorie und Republik gekommen; rein republikanisch sei nur noch die Fassade gewesen. Michele Luzzati hält die Entwicklung für unausweichlich; es sei Cosimos wahre und große Einsicht gewesen, dass politische Stabilität in Florenz nur noch mit einem System erreichbar gewesen sei, das unter Wahrung der freiheitlichen Tradition auf dem Vorrang eines Mannes und einer Familie beruhte. Dieser Ansicht ist auch Ferdinand Schevill. Nach seiner Einschätzung führten die Verfassungsbestimmungen, die sehr kurze Amtszeiten und Auswahl der höchsten Amtsträger durch das Los aus einer großen Menge von Kandidaten vorschrieben, zu unhaltbaren Zuständen, denn sie bewirkten, dass ein hoher Prozentsatz von offenkundig Inkompetenten in Führungsstellungen gelangte und eine durchdachte, beständige Politik unmöglich war. Schevill meint, dieses System habe die elementarsten Forderungen der Vernunft missachtet; daher sei seine Umgehung und Umgestaltung unumgänglich gewesen. Das verbreitete Bild von Cosimo als faktisch unumschränktem Herrscher wird allerdings von manchen Historikern für irreführend gehalten. Spezialuntersuchungen haben gezeigt, dass er seinen Willen keineswegs mühelos durchsetzen konnte und auch nach der Jahrhundertmitte weiterhin auf beträchtlichen, offenen Widerstand stieß. Nicolai Rubinsteins Analyse der Krise von 1455–1458 lässt das Ausmaß der zeitweiligen innenpolitischen Schwächung des Mediceers erkennen. Rubinstein kommt zum Ergebnis, dass Cosimo keineswegs Gehorsam als selbstverständlich voraussetzen konnte, auch nicht in seiner eigenen Anhängerschaft und nicht einmal bei der machtpolitisch zentralen Regelung der Ämterbesetzung. Es blieb ihm nicht erspart, Überzeugungsarbeit zu leisten. Rubinstein meint, auswärtige Zeitgenossen hätten Cosimos Macht wahrscheinlich überschätzt, sie werde wohl in Quellen wie den mailändischen Gesandtschaftsberichten teils übertrieben dargestellt. Dies führt er unter anderem darauf zurück, dass in despotisch regierten Staaten das nötige Verständnis der republikanischen Mentalität gefehlt habe; daher habe man dort die Bedeutung von Beratung und Konsens in einer Republik wie Florenz nicht angemessen berücksichtigt. Dale Kent schließt sich aufgrund eigener Forschungsergebnisse Rubinsteins Auffassung an. Auch Paolo Margaroli weist auf die Grenzen von Cosimos Macht hin. Als Beispiel nennt er die Friedensverhandlungen in Rom, bei denen 1453 die florentinischen Unterhändler so agierten, dass sie es nach Cosimos Ansicht, wie er dem Herzog von Mailand schrieb, nicht schlechter hätten machen können. Diese Gesandtschaft war in Florenz von oppositionellen Kräften vorbereitet worden. Michele Luzzati betont das Gewicht der seit Generationen kritischen öffentlichen Meinung, die Cosimo nicht habe missachten können. Nach der Darstellung von Daniel Höchli waren die meisten Patrizier nicht bereit, sich den Medici zu unterwerfen. Sie konnten dank eigener Patronage-Netzwerke ihre politische Unabhängigkeit bis zu einem gewissen Grad bewahren. Die Führungsrolle der Medici akzeptierten sie nur, solange sie ihre eigenen Interessen gewahrt sahen. Mit der Debatte über die Natur der Kryptosignorie hängt die Frage zusammen, inwieweit das dezidiert republikanische, antiautokratische Gedankengut des Florentiner „Bürgerhumanismus“ – ein von Hans Baron geprägter Begriff – mit Cosimos Stellung im Staat vereinbar war. Die ältere Forschung – vor allem Hans Baron und Eugenio Garin – ging von einem fundamentalen Spannungsverhältnis aus. Man nahm an, der manipulative Charakter der Medici-Herrschaft habe das Grundprinzip des Bürgerhumanismus, die Ermutigung der Bürger zu einer aktiven und verantwortungsvollen Beteiligung am politischen Leben, unterminiert. Die Verbreitung eines unpolitischen Neuplatonismus nach der Jahrhundertmitte sei als Ausdruck der Abkehr der Humanisten von einer echt republikanischen Gesinnung zu deuten. Diese Sichtweise ist von der neueren Forschung, insbesondere unter dem Eindruck der Ergebnisse von James Hankins, aufgegeben worden. Es wird u. a. darauf hingewiesen, dass Leonardo Bruni als profilierter Theoretiker und Wortführer des Bürgerhumanismus keinen Gegensatz zwischen seiner Überzeugung und seiner Zusammenarbeit mit Cosimo sah. Nach der neueren Interpretation ist das Verhältnis zwischen Bürgerhumanismus und Medici-Herrschaft eher als Symbiose auf der Basis bedeutender Gemeinsamkeiten zu verstehen. Als Ursache für Cosimos Erfolge wird in der Forschung insbesondere seine geschickte Finanzpolitik hervorgehoben, die ihm in den innenpolitischen Kämpfen bedeutende Vorteile verschafft habe. So konstatieren Werner Goez, Lauro Martines und Jacques Heers, Cosimo habe seine politische Macht vor allem dazu eingesetzt, die mit den Medici rivalisierenden Clans und Banken niederzuhalten. Mittels der Steuergesetzgebung habe er die Vermögen seiner Rivalen und missliebiger Personen belastet, um sich ihrer zu entledigen. Es gibt aber keinen Beleg dafür, dass er versuchte, politische Gegner durch direkte kommerzielle Angriffe auf ihre Unternehmen zu schädigen. Jacques Heers bestreitet, dass Cosimo durch seinen Reichtum an die Macht gelangte. Vielmehr sei es umgekehrt der Machtbesitz gewesen, den er zur Anhäufung der Reichtümer genutzt habe. Als zentraler Faktor, der die Macht des Mediceers in Florenz befestigte, gilt in der Forschung sein Ansehen im Ausland und insbesondere sein Einfluss an der Kurie. Große Bedeutung wird auch seinem propagandistischen Geschick beigemessen. Dale Kent charakterisiert Cosimo als Meister der Selbstdarstellung, der sein Image sorgfältig kultiviert habe. Nach Kents Einschätzung ist sein einzigartiger Erfolg darauf zurückzuführen, dass er das war oder zumindest zu sein schien, was den Wünschen seiner Mitbürger entsprach: ein Wortführer, der ihre Wertvorstellungen artikulierte, und zugleich ein scharfsichtiger, abwägender Staatsmann, der nach außen als Stimme der Republik auftreten konnte und durch seine Führungsrolle den in der Verfassung angelegten Mangel an politischer Konsistenz kompensierte. Als bedeutende außenpolitische Leistung Cosimos wird das Bündnis mit Mailand gegen Venedig beurteilt. Für Hans Baron handelt es sich um einen meisterhaften Schachzug. Nicolai Rubinstein meint, dieser Erfolg habe wohl mehr als jedes andere Ereignis nach 1434 das Ansehen des Mediceers im In- und Ausland gefestigt. Volker Reinhardt befindet, Cosimo habe „vorausschauend wie immer“ in die Karriere Sforzas viel Geld investiert, das sich dann als politische Rendite amortisiert habe. Die von ihm herbeigeführte Allianz zwischen Florenz und Mailand habe sich „als tragfähige Achse der italienischen Politik insgesamt“ erwiesen. Vincent Ilardi teilt diese Einschätzung der Allianz, merkt aber kritisch an, Cosimo habe die von Frankreich ausgehende Gefahr unterschätzt. Seine Neigung zu einem Bündnis mit Frankreich gegen Venedig sei ein Fehler gewesen. Sforza habe diesbezüglich mehr staatsmännische Voraussicht gezeigt. Anmerkungen. Cosimo Christiaan Huygens. Christiaan Huygens () (* 14. April 1629 in Den Haag; † 8. Juli 1695 ebenda), auch Christianus Hugenius'", war ein niederländischer Astronom, Mathematiker und Physiker. Huygens gilt, obwohl er sich niemals der noch zu seinen Lebzeiten entwickelten Infinitesimalrechnung bediente, als einer der führenden Mathematiker und Physiker des 17. Jahrhunderts. Er ist der Begründer der Wellentheorie des Lichts, formulierte in seinen Untersuchungen zum elastischen Stoß ein Relativitätsprinzip und konstruierte die ersten Pendeluhren. Mit von ihm verbesserten Teleskopen gelangen ihm wichtige astronomische Entdeckungen. Herkunft und Ausbildung. Huygens wurde als Sohn von Constantijn Huygens geboren, der Sprachgelehrter, Diplomat, Komponist und der damals führende Dichter Hollands war. Durch seinen Vater kam Christiaan schon früh mit bedeutenden Persönlichkeiten in Kontakt, unter anderem mit Rembrandt, Peter Paul Rubens und René Descartes. Christiaan wurde als Kind von seinem Vater unterrichtet. Später studierte er an der Universität Leiden zunächst Rechtswissenschaften, wechselte dann aber bald zu Mathematik und Naturwissenschaften. Seine erste veröffentlichte Arbeit (1651) befasste sich mit der Quadratur von Kegeln und zeigte einen Fehler in einem angeblichen Beweis der Quadratur des Kreises. Weiter beschäftigte er sich mit der Kreiszahl π (pi), Logarithmen und leistete wichtige Vorarbeiten für die Infinitesimalrechnung, auf denen dann Leibniz und Newton aufbauen konnten. 1657 veröffentlichte er die erste Abhandlung über die Theorie des Würfelspiels ("De ludo aleae"), wodurch er heute als einer der Begründer der Wahrscheinlichkeitsrechnung gilt. Vorausgegangen waren Briefwechsel zwischen Blaise Pascal und Pierre de Fermat, über dessen Inhalt Huygens, wie er behauptete, jedoch nichts bekannt war. Analysiert man die Lösungen der fünf am Ende seiner Abhandlung aufgeführten Probleme, muss man vermuten, dass er Pascals Vorstellungen wohl gekannt hat, nicht aber die kombinatorischen Wege von Fermat. Hinwendung zu den Naturwissenschaften. Zunehmend interessierte sich Huygens auch für die damals modernen Bereiche der Naturwissenschaften, Optik und die Astronomie mit Teleskopen. Er hatte Kontakt zu Antoni van Leeuwenhoek, dem damals führenden Linsenschleifer und Konstrukteur von Mikroskopen. Kurzzeitig untersuchte auch Huygens kleine Objekte unter dem Mikroskop. Er begann aber bald selbst, Linsen für Teleskope zu schleifen und konstruierte zusammen mit seinem Bruder Constantijn Huygens Junior sein erstes Fernrohr. Huygens entwickelte die Wellentheorie des Lichts, die es ihm ermöglichte, Linsen mit geringeren Abbildungsfehlern (Aberration) zu schleifen und so bessere Teleskope zu bauen; seine Entdeckungen bewirkten auch eine Steigerung der Bildschärfe bei der Camera obscura und der Laterna magica. Er formulierte als erster das nach ihm benannte Huygenssche Prinzip, das als Grundlage der Wellenoptik gilt. Wie manch anderer Physiker seiner Zeit entwickelte auch Huygens eine eigene Theorie zu einem Äther für Licht und Gravitation. Huygens entdeckte mit seinem selbstgebauten Teleskop 1655 erstmals den Saturnmond Titan. Damit war der Saturn der zweite Planet nach dem Jupiter (von der Erde abgesehen), bei dem ein Mond nachgewiesen werden konnte (Galileo Galilei hatte schon 1610 die vier größten Jupitermonde entdeckt). Außerdem konnte er durch die bessere Auflösung seines Teleskops erkennen, dass das, was Galilei als Ohren des Saturns bezeichnet hatte, in Wirklichkeit die Saturnringe waren. Er fand auch heraus, dass diese Ringe keine Verbindung zum Planeten hatten und ihr geheimnisvolles Verschwinden alle 14 Jahre dadurch zustande kam, dass man sie dann genau von der Seite sah, sie aber zu dünn waren, um von der Erde aus noch wahrgenommen werden zu können. Weitere astronomische Leistungen Huygens’ waren die Entdeckung der Rotationsbewegung des Mars und die Berechnung der Rotationsperiode (Marstag) mit ungefähr 24 Stunden sowie die Auflösung des Trapezes im Zentrum des Orion-Nebels in vier einzelne Sterne. Ihm zu Ehren wird die hellste Region des Orion-Nebels auch "Huygenssche Region" genannt. Er entdeckte ferner weitere Nebel und Doppelsternsysteme und äußerte die Vermutung, dass die Venus von einer dichten Wolkenhülle verhangen sei. Mechanik, Pendeluhr und Exoplaneten. Außer für die Astronomie interessierte sich Huygens auch für die Mechanik. Er formulierte die Stoßgesetze und befasste sich mit dem Trägheitsprinzip und Fliehkräften. Seine Untersuchungen von Schwingungen und Pendelbewegungen konnte er zum Bau von Pendeluhren nutzen. Schon Galilei hatte eine solche entworfen, aber nicht gebaut. Huygens konnte seine Uhr hingegen zum Patent anmelden. Die in seinem Auftrag von Salomon Coster gebauten Uhren wiesen eine Ganggenauigkeit von zehn Sekunden pro Tag auf, eine Präzision, die erst hundert Jahre danach überboten werden konnte. Später konstruierte er auch Taschenuhren mit Spiralfedern und Unruh. Christiaan Huygens veröffentlichte 1673 in seiner Abhandlung "Horologium Oscillatorium" eine ganggenaue Pendeluhr mit einem Zykloidenpendel, bei dem er sich die Tatsache zunutze machte, dass die Evolute der Zykloide selber wieder eine Zykloide ist. Der Vorteil der Ganggenauigkeit wird jedoch durch die erhöhte Reibung wettgemacht. Von ihm stammt auch die früheste bekannte Uhr zur Bestimmung des Längengrades, die mehrere revolutionäre Techniken aufwies, und als deren Urheber er erst vor einiger Zeit wieder erkannt wurde. In seiner letzten wissenschaftlichen Abhandlung 1690 formulierte Huygens den Gedanken, dass es noch viele andere Sonnen und Planeten im Universum geben könnte, und spekulierte bereits über außerirdisches Leben. Von Huygens stammt auch die korrekte Ableitung der Gesetze des Elastischen Stoßes, wobei er von einem Relativitätsprinzip Gebrauch macht (siehe Galilei-Transformation). Er veröffentlichte seine Ergebnisse, die aus den 1650er Jahren stammten und die falsche Behandlung bei René Descartes korrigierten, 1669 (Philosophical Transactions of the Royal Society, Journal des Savants) und in seinem postum erschienenen Buch "De Motu Corporum" von 1703. Christiaan Huygens und Samuel Sorbière (1615–1670) waren die ersten beiden ausländischen Wissenschaftler, die im Juni 1663 in die Royal Society aufgenommen wurden. 1666 wurde Huygens der erste Direktor der in diesem Jahr gegründeten französischen Akademie der Wissenschaften. Newton bezeichnete ihn als den elegantesten Mathematiker seiner Zeit. Akustik (Musik). Huygens entdeckte die Beziehungen zwischen Schallgeschwindigkeit, Länge und Tonhöhe einer Pfeife. Er beschäftigte sich intensiv mit der mitteltönigen Stimmung und berechnete 1691 die Teilung der Oktave in 31 gleiche Stufen, um den Fehler des pythagoreischen Kommas im Tonsystem der Musik zu beheben. Lebensabend. In den 1680er Jahren verschlechterte sich Huygens’ Gesundheitszustand, so dass er sein Haus nicht mehr häufig verließ. In den letzten Jahren seines Lebens beschäftigte sich der Wissenschaftler mit der Musiktheorie. 1695 starb Christiaan Huygens in Den Haag unverheiratet und kinderlos. Einzelne Schriften (Auswahl). "Traité de la lumière" (1690) Französische Gesamtausgabe. "Oeuvres complètes", 22 Bände. Den Haag 1888 bis 1950. Herausgeber: D. Bierens de Haan, Johannes Bosscha, Diederik Johannes Korteweg, Albertus Antonie Nijland, J. A. Vollgraf. Claus Schenk Graf von Stauffenberg. Claus Schenk Graf von Stauffenberg Claus Philipp Maria Schenk Graf von Stauffenberg (* 15. November 1907 in Jettingen, Königreich Bayern; † 21. Juli 1944 in Berlin) war ein Offizier der deutschen Wehrmacht und während des Zweiten Weltkrieges eine der zentralen Persönlichkeiten des militärischen Widerstandes gegen den Nationalsozialismus im Deutschen Reich. Oberst von Stauffenberg war Hauptakteur bei dem misslungenen Attentat vom 20. Juli 1944 auf Adolf Hitler und als Stabschef beim Befehlshaber des Ersatzheeres entscheidend an der anschließenden „Operation Walküre“ beteiligt, dem Versuch eines Staatsstreiches. Nach dessen Scheitern wurde er auf Befehl von Generaloberst Friedrich Fromm am 21. Juli 1944 kurz nach Mitternacht im Hof des Berliner Bendlerblocks standrechtlich erschossen. Er war „ein glühender Patriot, ein leidenschaftlicher deutscher Nationalist“ und sympathisierte zunächst mit den nationalistischen und revisionistischen Aspekten des Nationalsozialismus, bevor er den verbrecherischen Charakter des nationalsozialistischen Regimes erkannte und auch wegen der Aussichtslosigkeit der militärischen Gesamtlage des Deutschen Reiches zum aktiven Widerstand fand. Kindheit und Jugend. Claus von Stauffenberg wurde im Schloss Jettingen im bayerischen Schwaben bei Burgau zwischen Augsburg und Ulm als dritter Sohn in die süddeutsche, katholische Adelsfamilie Stauffenberg geboren. Seine Eltern waren Alfred Schenk Graf von Stauffenberg (1860–1936), Oberhofmarschall von Wilhelm II., dem letzten König von Württemberg, und Caroline, geb. Gräfin von Üxküll-Gyllenband (1875–1957). Über seine Mutter hatte er auch preußische Vorfahren wie den preußischen Heeresreformer Graf von Gneisenau. Prägend für seine Beteiligung am Widerstand war unter anderem sein Onkel Nikolaus Graf von Üxküll-Gyllenband. Seine Kindheit verbrachte er vor allem in der Landeshauptstadt Stuttgart und im Stauffenberg-Schloss (heute Stauffenberg-Gedenkstätte), dem Sommersitz der Familie im heutigen Albstadter Stadtteil Lautlingen, zusammen mit den zwei Jahre älteren Zwillingsbrüdern Berthold und Alexander. Auch Claus hatte einen Zwillingsbruder, Konrad Maria, der aber am Tag nach der Geburt verstarb. Während des Besuchs des Eberhard-Ludwigs-Gymnasium in Stuttgart schloss sich Stauffenberg den "Neupfadfindern", einer Gruppierung der Bündischen Jugend an, wo man romantische Reichsvorstellungen (Reichsmystizismus) pflegte und mit der Verehrung Stefan Georges verband. Ihm sandte der 15-jährige Claus seine Gedichtversuche. Ein Jahr später wurde er mit seinen älteren Zwillingsbrüdern Berthold und Alexander in den elitären Dichterkreis um Stefan George aufgenommen. Stauffenbergs älterem Bruder Berthold widmete George zwei Gedichte in seinem letzten Lyrikband "Das Neue Reich" (1928) mit dem bereits 1922 entstandenen Poem "Geheimes Deutschland". Der musisch vielseitige Stauffenberg galt im George-Kreis als Tat-Charakter, und er entschied sich früh für eine militärische Karriere. Werdegang beim Militär. Stauffenberg beim 17. Reiter-Regiment in Bamberg (1926) Stauffenberg trat nach dem am 5. März 1926 bestandenen Abitur in die Reichswehr ein. Seinen Dienst begann er im traditionsreichen Reiterregiment 17 in Bamberg, in das er als Fahnenjunker aufgenommen wurde. Hier hatte er ein Jahr zu dienen, ehe er 1927 zur Infanterieschule in die Dresdener Albertstadt kommandiert wurde. Alle Offizieranwärter mussten hier ein Jahr der Ausbildung verbringen. Anfang August 1928 erhielt er dort seine Beförderung zum Fähnrich. Ende des Jahres 1928 wurde er an die Kavallerieschule in Hannover versetzt. Danach ging er zu seinem Regiment nach Bamberg zurück, wo er am 1. Januar 1930 zum Leutnant (mit Ehrensäbel) befördert wurde. Die Offiziersprüfung schloss er als Jahrgangsbester ab. Bei der Reichspräsidentenwahl im April 1932 sprach sich Stauffenberg daher gegen den konservativ-monarchistischen Amtsinhaber Paul von Hindenburg und für Adolf Hitler aus, dessen Ernennung zum Reichskanzler am 30. Januar 1933 er ausdrücklich begrüßte. Stauffenberg war an der militärischen Ausbildung der Mitglieder der Sturmabteilung (SA) beteiligt und organisierte die Übergabe von Waffendepots an die Reichswehr. Am 1. Mai 1933 folgte die Beförderung zum Oberleutnant. Am 26. September 1933 heiratete er in Bamberg Nina Freiin von Lerchenfeld. Mit ihr hatte er fünf Kinder: Berthold, Heimeran, Franz-Ludwig, Valerie und Konstanze. Zuletzt lebte Nina in der Nähe von Bamberg und engagierte sich sehr für das alte Bamberg. Sie verstarb am 2. April 2006 im Alter von 92 Jahren in Kirchlauter bei Bamberg. Karriere in der Zeit des Nationalsozialismus. Am 1. Oktober 1936 wurde Stauffenberg zur Generalstabsausbildung an die Kriegsakademie in Berlin-Moabit kommandiert. Am 1. Januar 1937 wurde er zum Rittmeister befördert. Im Juli 1938 wurde er als Zweiter Generalstabsoffizier (Ib) zum Divisionsstab der 1. leichten Division nach Wuppertal unter Generalleutnant Erich Hoepner kommandiert, mit der er im selben Jahr an der Besetzung des Sudetenlandes teilnahm. Der Historiker Heinrich August Winkler führt das Briefzitat als Beleg dafür an, dass Stauffenberg zu dieser Zeit die Rassenpolitik der Nationalsozialisten grundsätzlich bejahte, wenn er sie auch für überspitzt hielt. Auch der israelische Historiker Saul Friedländer nimmt an, dass sich Stauffenbergs Haltung gegenüber dem Judentum nur graduell, aber nicht prinzipiell vom Antisemitismus der Nationalsozialisten unterschieden habe. Der Stauffenberg-Biograf Peter Hoffmann lehnt den Begriff „Antisemit“ für Stauffenberg dagegen ab. Die Interpretation des Feldpostbriefes als antisemitisch hält er methodisch für unzureichend. Peter Graf Yorck von Wartenburg, ein weitläufig Verwandter, und Ulrich Wilhelm Graf Schwerin von Schwanenfeld baten Stauffenberg, sich zum Adjutanten Walther von Brauchitschs, des Oberbefehlshabers des Heeres, ernennen zu lassen, um an einem Umsturzversuch teilnehmen zu können. Stauffenberg lehnte ab. Im Januar 1940 wurde Stauffenberg zum Hauptmann i.G. ernannt und nahm als Generalstabsoffizier der 6. Panzerdivision an der Westoffensive gegen Frankreich teil. Hierbei wurde er schließlich am 31. Mai 1940 mit dem Eisernen Kreuz 1. Klasse ausgezeichnet. Danach wurde er in die Organisationsabteilung des Oberkommandos des Heeres versetzt. Im Dezember 1941 hieß Stauffenberg die Vereinheitlichung der Befehlsgewalt des Oberbefehlshabers des Heeres und des Obersten Befehlshabers der Wehrmacht in Hitlers Händen gut. Seine Beförderung zum Major i.G. erging im April 1941. Als Gruppenleiter der Gruppe II der Organisationsabteilung im Oberkommando des Heeres gehörte er zu den maßgebenden Offizieren, die bewusst auf einen Wandel der Politik in den besetzten Gebieten hinarbeiteten. Besonders im Zusammenhang mit der Kampfführung der in den Kaukasus vordringenden Heeresgruppe A hatte er sich den Fragen der Freiwilligen in den sogenannten Ostlegionen zugewandt. Es ging um die Gewinnung von entlassenen Kriegsgefangenen und Überläufern für den Kampf auf deutscher Seite. Hierzu gab seine Abteilung am 2. Juni 1942 Richtlinien für die Behandlung turkestanischer und kaukasischer Soldaten heraus und steuerte im August 1942 die Organisation wie auch den Einsatz der Ostlegionen. Bis Mitte November 1942 war die 10. Panzer-Division noch an der Besetzung der bis dahin unbesetzten Zone Frankreichs beteiligt. Unmittelbar danach wurde die Division nach Tunis verlegt. Stauffenberg war zwischenzeitlich im Generalstab des Heeres verwendet und war am 1. Januar 1943 zum Oberstleutnant i.G. befördert worden. Im März 1943 wurde er als Ia (Erster Generalstabsoffizier der Führungsgruppe) zur 10. Panzer-Division versetzt, die den Rückzug von Generalfeldmarschall Erwin Rommels Armee gegen die in Nordafrika gelandeten Alliierten decken sollte. Bei einem Tieffliegerangriff am 7. April 1943 wurde er schwer verwundet. Im Feldlazarett 200 bei Sfax wurden sein linkes Auge, die rechte Hand und zwei Finger der linken Hand amputiert. Er wurde zunächst ins Kriegslazarett 950 bei Carthago überführt und gelangte von dort ins Reservelazarett München 1. Darüber hinaus verbrachte er mehrere Genesungsurlaube in Lautlingen. Er war Patient des berühmten Chirurgen Ferdinand Sauerbruch. Für seine Verwundung wurde ihm am 14. April 1943 das Goldene Verwundetenabzeichen verliehen. Dieses wurde ihm von General Kurt Zeitzler, dem Chef des Generalstabes des Heeres, persönlich überreicht (laut Zeitzler hätte er eine derartige Verleihung auch bei jedem anderen schwer verwundeten Generalstabsoffizier vorgenommen). Am 8. Mai 1943 wurde Stauffenberg mit dem Deutschen Kreuz in Gold ausgezeichnet. Mitte Juni 1944 wurde Stauffenberg Chef des Stabes bei Generaloberst Friedrich Fromm; am 1. Juli 1944 wurde er zum Oberst i.G. befördert. Abkehr von Hitler. Während der Stabsoffizier Henning von Tresckow sich bereits im Herbst 1941 der Berliner Widerstandsgruppe um Ludwig Beck, Carl Friedrich Goerdeler und Hans Oster angeschlossen hatte, fühlte sich von Stauffenberg wie viele andere Militärs zunächst weiter durch seinen Treueid an Hitler gebunden. Erst im Herbst 1943 ließ er sich nach Berlin versetzen und suchte dort bewusst Kontakt zu den Hitlergegnern um General der Infanterie Friedrich Olbricht, dem Leiter des Allgemeinen Heeresamtes, und von Tresckow. Er war sich bewusst, dass nur die Wehrmacht als einzige von der Geheimen Staatspolizei (Gestapo) und vom Sicherheitsdienst (SD) kaum infiltrierte Organisation über die nötigen Machtmittel zum Umsturz verfügte. Gemeinsam mit seinem Bruder Berthold und mit den Mitgliedern des Kreisauer Kreises war er an den Entwürfen zu Regierungserklärungen für die Zeit nach dem Umsturz beteiligt. Die Verschwörer legten ihre Ziele auf die Beendigung des Krieges und der Judenverfolgung und auf die Wiederherstellung des Rechtsstaates fest, wie er bis 1933 bestanden hatte. Auf eine angestrebte Staatsform konnten sie sich nicht einigen. Ein Großteil der aus den konservativen Kreisen von Bürgertum, Adel und Militär stammenden Verschwörer lehnte die parlamentarische Demokratie ab, so auch Stauffenberg. Andererseits forderte er die Aufnahme von Sozialdemokraten wie Julius Leber in die neu zu bildende Regierung. Durch Vermittlung seines Cousins Peter Graf Yorck von Wartenburg lernte er Leber kennen, und es entstand ein enges Vertrauensverhältnis. Nach der Verhaftung Lebers Anfang Juli 1944 brach er gegenüber Adam von Trott zu Solz immer wieder in die Worte aus: „Ich hole ihn heraus“; für Lebers Rettung schien kein Preis zu hoch zu sein. Schließlich vertrat er die Ansicht, das Wichtigste sei die Beseitigung des NS-Regimes, alles andere werde sich dann finden. Laut dem Mitverschwörer Hans Bernd Gisevius erstrebte der engere Kreis um Stauffenberg ab 1944 ein Bündnis mit den Kommunisten. Stauffenbergs Vertrauter Julius Leber war aufgrund eines Treffens mit der Saefkow-Jacob-Bästlein-Organisation von der Gestapo festgenommen worden. Innerlich stand er Fritz-Dietlof Graf von der Schulenburg sehr nahe. Im Juli 1944 traf der engere Verschwörerkreis in Berlin-Wannsee im Haus Bertholds zusammen. Sie legten einen von Rudolf Fahrner und Berthold entworfenen Eid ab, indem sie sich auf ein gemeinsames Handeln nach dem Staatsstreich, selbst im Falle der Besetzung Deutschlands, verpflichteten. Wegen dieser elitären, als "antidemokratisch" und "nationalistisch" interpretierten Haltung, die bis in die Formulierungen hinein dem Denken des George-Kreises verpflichtet war, glaubt der britische Historiker Richard J. Evans, dass Stauffenberg an zukunftsweisendem politischen Gedankengut „nichts zu bieten“ hatte. „Als Vorbild für künftige Generationen“ sei er „schlecht geeignet“. Die Planung. Gemeinsam mit General Friedrich Olbricht, Oberst Albrecht Ritter Mertz von Quirnheim und Henning von Tresckow arbeitete Stauffenberg den Operationsplan "Walküre" aus. Offiziell diente der Plan der Niederwerfung möglicher innerer Unruhen, etwa bei einem Aufstand der zahlreichen Fremdarbeiter. Stauffenberg und Tresckow fügten dem Plan einige weitere Befehle hinzu und machten so aus "Walküre" einen Operationsplan für den Staatsstreich. Er sah vor, die Ermordung Hitlers zunächst einer Gruppe „frontfremder Parteifunktionäre” anzulasten, um damit einen Grund für die Verhaftung der Angehörigen von NSDAP, SS, Sicherheitsdienst und Gestapo zu haben. Die Befehlshaber der Wehrkreiskommandos im gesamten Großdeutschen Reich sollten sofort nach der Auslösung von "Walküre" entsprechende Befehle erhalten. Das Militär sollte die ausführende Gewalt übernehmen. Für Stauffenberg sahen die Umsturzpläne den Rang eines Staatssekretärs im Reichskriegsministerium vor. Stauffenberg wurde zum Stabschef des Allgemeinen Heeresamtes im Berliner Bendlerblock ernannt, wodurch er Zugang zu den Lagebesprechungen in den Führerhauptquartieren erhielt. Er unterstand Olbricht und baute mit dessen Förderung ein militärisch-oppositionelles Netz auf. Er koordinierte die Attentatspläne mit Carl Friedrich Goerdeler und Generaloberst Ludwig Beck und hielt Verbindung zum zivilen Widerstand um Julius Leber, Wilhelm Leuschner sowie zu den Mitgliedern des Kreisauer Kreises, zu dem auch sein Cousin Peter Graf Yorck von Wartenburg gehörte. Nach der Verhaftung Helmuth James Graf von Moltkes im Januar 1944 fanden keine Treffen des Kreisauer Kreises mehr statt. Die Mehrheit der Mitglieder stellte sich Stauffenberg – trotz Moltkes Vorbehalten gegen eine Tötung Hitlers – zur Verfügung. Am 1. Juli 1944 wurde er Chef des Stabes beim Befehlshaber des Ersatzheeres (BdE) Generaloberst Fromm. Damit saß er nun gemeinsam mit Olbricht und Mertz von Quirnheim in der Schaltzentrale für die geplante Operation "Walküre". Ein heikler Punkt des Plans war, dass Stauffenberg sowohl das Attentat ausführen, als auch von Berlin aus den Staatsstreichversuch leiten musste. Bereits am 11. Juli auf dem Berghof und am 15. Juli im Führerhauptquartier Wolfsschanze versuchte Stauffenberg, Adolf Hitler zu töten. Beide Versuche brach er vorzeitig ab, weil entweder Heinrich Himmler und/oder Hermann Göring nicht anwesend waren. Ein drittes Mal sollte der Anschlag unter keinen Umständen verschoben werden. Attentat und Staatsstreich. Die nächste Gelegenheit ergab sich rein zufällig am 18. Juli, als Stauffenberg für den übernächsten Tag ins Führerhauptquartier bestellt wurde, um dort über geplante Neuaufstellungen von Truppen zu berichten. Die Widerstandsgruppe hatte bereits die Mitglieder einer Nachfolgeregierung bestimmt. Es musste nur noch Hitler „beseitigt“ werden. Stauffenberg flog am 20. Juli um 7:00 Uhr mit seinem Adjutanten, Oberleutnant Werner von Haeften, vom Flugplatz Rangsdorf bei Berlin zur Wolfsschanze bei Rastenburg in Ostpreußen. Da die Besprechung wegen eines geplanten Besuchs von Benito Mussolini unerwartet um eine halbe Stunde vorverlegt wurde, gelang es ihm nur noch, mit einer speziell für ihn angepassten Zange (er besaß nur noch drei Finger an seiner linken Hand), eines der beiden Sprengstoffpäckchen mit einem aktivierten britischen Bleistiftzünder (chemisch-mechanischen Zeitzünder) zu versehen. Das zweite Sprengstoffpäckchen, das die Sprengwirkung zweifellos erhöht hätte, steckte er nicht mit in seine Aktentasche. Dazu kam, dass die Besprechung nicht wie üblich in einem Betonbunker, sondern in einer leichten Holzbaracke stattfand und die Sprengladung so nicht die erhoffte Wirkung entfalten konnte. Stauffenberg stellte sie etwa zwei Meter entfernt von Hitler neben einem massiven Tischblock (der wohl die Wirkung weiter abschwächte) ab und verließ die Baracke unter dem Vorwand, telefonieren zu müssen. Die Sprengladung detonierte um 12:42 Uhr in der mit 24 Personen gefüllten Holzbaracke. Hitler und weitere 19 Anwesende überlebten die Detonation. Zerstörte Lagerbaracke nach dem Anschlag, Juli 1944 Stauffenberg und Haeften konnten in der allgemeinen Verwirrung nach dem Anschlag die Wolfsschanze rechtzeitig verlassen, warfen die verbleibende Sprengladung auf der Fahrt zum Flugplatz Rastenburg aus dem offenen Wagen und flogen nach Berlin zurück, im festen Glauben, Hitler sei tot. Bereits wenige Minuten nach der Explosion gelangte aber die Nachricht, dass Hitler überlebt hatte, nach Berlin: Propagandaminister Joseph Goebbels erhielt bereits gegen 13 Uhr in Berlin telefonisch Kenntnis vom misslungenen Attentat. Kurz darauf bestätigte der Mitverschwörer Oberst Hahn dem General Thiele im Bendlerblock in einem weiteren Telefonat aus der Wolfsschanze ausdrücklich, dass Hitler das Attentat überlebt habe. Thiele benachrichtigte die Generäle Friedrich Olbricht und Hoepner von den Ferngesprächen, sie einigten sich darauf, Walküre zunächst noch nicht auszulösen. Noch während Stauffenberg auf dem Rückflug nach Berlin war, bekam Heinrich Müller, Chef der Geheimen Staatspolizei (Gestapo), den Auftrag, Stauffenberg zu verhaften. Gegen 15:45 Uhr landete Stauffenberg in Berlin, beteuerte in einem Telefonat mit Olbricht wahrheitswidrig, dass er mit eigenen Augen gesehen habe, dass Hitler tot sei, und begab sich zu Olbricht in den Bendlerblock. Erst gegen 16:30 Uhr, fast vier Stunden nach dem Attentat, wurde "Walküre" ausgelöst. Es zeigten sich jetzt aber schwere Mängel in Vorbereitung und Durchführung des Umsturzversuchs. So zog sich das Aussenden der Fernschreiben aus dem Bendlerblock in die Wehrkreise über Stunden hin und kreuzte sich bereits ab etwa 16 Uhr mit Fernschreiben aus der Wolfsschanze, dass Befehle aus dem Bendlerblock ungültig seien. Die meisten Offiziere außerhalb des Bendlerblocks verhielten sich wegen dieser widersprüchlichen Lage abwartend. Die Fernschreiben der Verschwörer mit den "Walküre"-Befehlen wurden weitgehend nicht befolgt. Zwar hielten sich Georg und Philipp Freiherr von Boeselager bereit, um mit ihren Regimentern auf das „führerlose“ Berlin zu marschieren, und Stauffenberg, Olbricht, Mertz von Quirnheim und Haeften ließen Generaloberst Fromm verhaften, der sie bis dahin gedeckt hatte, aber angesichts der unsicheren Nachrichtenlage von einer Beteiligung an dem Umsturzversuch nichts mehr wissen wollte. Der Einmarsch der Truppen unterblieb aber, und am späten Abend meldete sich Hitler selbst in einer Rundfunkansprache zu Wort. Das Ende des Staatsstreichversuches. Sterbeurkunde Stauffenbergs, ausgestellt 1951 in Bamberg Gedenkstein in Berlin-Schöneberg an der kurzzeitigen Grabstätte Stauffenbergs und weiterer Opfer des 20. Juli Gegen 22:30 Uhr verhaftete eine Gruppe regimetreuer Offiziere, unter ihnen Otto Ernst Remer, Stauffenberg und die Mitverschwörer. Generaloberst Fromm gab unter Berufung auf ein Standgericht, das angeblich stattgefunden habe, noch am Abend des 20. Juli den Befehl, Claus Schenk Graf von Stauffenberg gemeinsam mit Werner von Haeften, Albrecht Ritter Mertz von Quirnheim und Friedrich Olbricht zu erschießen. Die Exekution fand im Hof des Bendlerblocks statt. Stauffenbergs letzte Worte sollen der Ausruf „Es lebe das heilige Deutschland!” gewesen sein, nach anderen Quellen rief er in Anspielung auf die Ideenwelt Stefan Georges „Es lebe das geheime Deutschland!“. Am folgenden Tag wurden die Leichen der Erschossenen mit ihren Uniformen und Ehrenzeichen auf dem Alten St.-Matthäus-Kirchhof Berlin bestattet. Himmler ließ sie ausgraben und ordnete deren Verbrennung an. Ihre Asche wurde über die Rieselfelder von Berlin verstreut. Folgen für die Familien der Verschwörer. Himmler plante, die Familien der Verschwörer zu ermorden und die Familiennamen auszulöschen. Die zunächst ins Auge gefasste Blutrache wurde wieder verworfen und stattdessen eine umfangreiche Sippenhaft befohlen. Stauffenbergs schwangere Ehefrau Nina Schenk Gräfin von Stauffenberg wurde in das Konzentrationslager Ravensbrück deportiert. Aufgrund der anstehenden Geburt wurde sie in ein NS-Frauenentbindungsheim in Frankfurt (Oder) verlegt, wo das fünfte Kind der Familie, Konstanze, am 27. Januar 1945 zur Welt kam. Die Kinder wurden in ein Kinderheim bei Bad Sachsa verbracht. Es gab Pläne, sie nationalsozialistischen Familien zur Adoption zu übergeben. Sie erhielten andere Nachnamen (die Stauffenberg-Kinder hießen ab sofort „Meister“) und verblieben dort bis zum Kriegsende. Nachleben. Im Zusammenhang mit dem Attentat kam es zu zahlreichen postumen Ehrungen: Gedenktafeln befinden sich unter anderem in der Gedenkstätte Deutscher Widerstand im Bendlerblock in Berlin (seit 1960), in der Lönsstraße in Wuppertal (seit 1984) und im Bamberger Dom. In mehreren deutschen Städten gibt es nach Graf von Stauffenberg benannte Straßen oder Plätze. Am 20. Juli 1955 wurde die bisherige Bendlerstraße am Bendlerblock in Stauffenbergstraße umbenannt. Die Kaserne der Bundeswehr in Sigmaringen trägt seit dem 20. Juli 1961 den Namen Graf-Stauffenberg-Kaserne. 1964 wurde auf ihrem Gelände ein Gedenkstein zur Erinnerung an Stauffenberg enthüllt. Um trotz Schließung der Kaserne in Sigmaringen den Namen zu erhalten, wurde die Albertstadt-Kaserne in Dresden 2013 in Graf-Stauffenberg-Kaserne umbenannt. Die Deutsche Bundespost widmete 1964 Stauffenberg zum 20. Jahrestag des Attentats eine von E. und Gerd Aretz gestaltete Briefmarke aus einem Block. Die Briefmarke zum 100. Geburtstag von Stauffenberg und Helmuth James Graf von Moltke aus dem Jahre 2007 wurde von Irmgard Hesse entworfen. Seit 1967 trägt die 1965 als "4. Jungengymnasium" in Osnabrück gegründete Schule den Namen Graf-Stauffenberg-Gymnasium. Seit dem 9. Februar 1979 trägt die Städtische Realschule in Bamberg den Namen "Graf-Stauffenberg-Realschule." Auch die städtische Wirtschaftsschule hat den Widerstandskämpfer seit 1979 als Namenspatron. Ein früher in demselben Gebäude untergebrachtes, aber mittlerweile in ein anderes Gymnasium integriertes Wirtschaftsgymnasium trug ebenfalls den Namen "Graf-Stauffenberg-Gymnasium". In Flörsheim am Main existiert ebenfalls ein "Graf-Stauffenberg-Gymnasium". Am 3. April 2000 wurde eine Büste Stauffenbergs in der Bayerischen Ruhmeshalle enthüllt. Im Stuttgarter „Alten Schloss“ wurde 2006 eine Erinnerungsstätte des Landes Baden-Württemberg eröffnet. Zum 100. Geburtstag Stauffenbergs, der unter anderem mit einem Großen Zapfenstreich einer Bundeswehrdivision begangen wurde, wurde am 15. November 2007 im Stauffenberg-Schloss in Lautlingen eine neue Gedenkstätte eröffnet; sie wurde gefördert von der Landesstiftung Baden-Württemberg und Sponsoren aus der Wirtschaft. Die Stadt Dresden benannte im Stadtteil Albertstadt eine Straße „Stauffenbergallee“. Die an diese Straße grenzende Offizierschule des Heeres, an der er selbst ausgebildet worden war, benannte den großen Traditionslehrsaal „Stauffenbergsaal“. Stauffenberg zu Ehren tragen die Offizierlehrgänge des 71. OAJ (Offizieranwärterjahrgang) des Deutschen Heeres seinen Namen. Alljährlich finden am 20. Juli Feierstunden der Bundesregierung und öffentliche Gelöbnisse der Bundeswehr in Erinnerung an das gescheiterte Attentat auf Hitler statt. Seit 2008 wird das Feierliche Gelöbnis im Wechsel am Berliner Dienstsitz des BMVg, Bendlerblock und vor dem Reichstagsgebäude abgehalten. C++. C++ ist eine von der ISO genormte Programmiersprache. Sie wurde ab 1979 von Bjarne Stroustrup bei AT&T als Erweiterung der Programmiersprache C entwickelt. C++ ermöglicht sowohl die effiziente und maschinennahe Programmierung als auch eine Programmierung auf hohem Abstraktionsniveau. Der Standard definiert auch eine Standardbibliothek, zu der verschiedene Implementierungen existieren. Einsatzgebiete. C++ wird sowohl in der Systemprogrammierung als auch in der Anwendungsprogrammierung eingesetzt und gehört in beiden Bereichen zu den verbreitetsten Programmiersprachen. Systemprogrammierung. Typische Anwendungsfelder in der Systemprogrammierung sind Betriebssysteme, eingebettete Systeme, virtuelle Maschinen, Treiber und Signalprozessoren. C++ nimmt hier oft den Platz ein, der früher ausschließlich Assemblersprachen und der Programmiersprache C vorbehalten war. Anwendungsprogrammierung. Bei der Anwendungsprogrammierung kommt C++ vor allem dort zum Einsatz, wo hohe Forderungen an die Effizienz gestellt werden, um durch technische Rahmenbedingungen vorgegebene Leistungsgrenzen möglichst gut auszunutzen. Ab dem Jahr 2000 wurde C++ aus der Domäne der Anwendungsprogrammierung von den Sprachen Java und zurückgedrängt. Sprachdesign. Die Sprache C++ besteht aus sehr wenigen Schlüsselwörtern („Sprachkern“); ihre eigentliche Funktionalität erhält sie – ähnlich wie auch die Sprache C – durch die C++-Standardbibliothek sowie, je nach Einsatzgebiet, zusätzliche Bibliotheken und Frameworks. C++ legt einen Schwerpunkt auf die Sprachmittel zur Entwicklung von Bibliotheken. Dadurch favorisiert es verallgemeinerte Mechanismen für typische Problemstellungen und besitzt kaum in die Sprache integrierte Einzellösungen. Eine der Stärken von C++ ist die Kombinierbarkeit von effizienter, maschinennaher Programmierung mit mächtigen Sprachmitteln, die einfache bis komplexe Implementierungsdetails zusammenfassen und weitgehend hinter abstrakten Befehlsfolgen verbergen. Dabei kommt vor allem die Template-Metaprogrammierung zum Zuge, eine Technik, die eine nahezu kompromisslose Verbindung von Effizienz und Abstraktion erlaubt. Ressourcenverwaltung. C++ verzichtet auf Garbage-Collection, allerdings gibt es Bestrebungen Garbage-Collection durch Bibliotheken oder durch Aufnahme in den Sprachstandard zu ermöglichen. Siehe auch Boehm-Speicherbereinigung Es ist jedoch möglich, Speicher manuell zu verwalten; zur Implementierung von Low-Level-Bibliotheken wie der C++-Standardbibliothek ist es notwendig. In High-Level-Code wird hiervon jedoch dringend abgeraten. Sichtbarkeit privater Elemente. In C++ gehören private Eigenschaften (Variablen und Methoden) normalerweise mit zur Schnittstelle, die in der Header-Datei veröffentlicht ist. Dadurch entstehen zur Compilezeit und zur Laufzeit Abhängigkeiten der Objekte zu den Stellen, die sie verwenden. Diese Abhängigkeiten können durch bestimmte Konstruktionen, wie dem "pimpl-Idiom" ('), vermieden werden. Dabei werden die privaten Felder der Klasse ("example_class") in eine private, vorwärts-deklarierte Hilfsklasse verschoben, und ein Zeiger auf ein Objekt dieser Hilfsklasse ("example_class::impl * impl_ptr") bleibt in der eigentlichen Klasse. Die Definition der implementierenden Klasse findet bei der Implementierung der öffentlichen Klasse statt und ist damit für den Verwender der Klasse (der nur die Header-Datei kennt) unsichtbar. Dadurch, dass die Hilfsklasse nur durch einen Zeiger referenziert wird, bleiben alle Quelltextänderungen an privaten Feldern transparent und die Binärkompatibilität wird erhalten. Unvollständige Kapselung. In C++ sind die Speicherbereiche der einzelnen Objekte zur Laufzeit nicht vor (absichtlichen oder versehentlichen) gegenseitigen Änderungen geschützt. Undefiniertes Verhalten. Das Verhalten von diversen Sprachkonstrukten ist nicht definiert. Dies bedeutet, dass der Standard nicht vorgibt, was in einem solchen Falle passiert. Die Auswirkungen reichen von Implementierungsabhängigkeit (d. h. je nach Zielrechner und Compiler kann sich das Konstrukt unterschiedlich verhalten) über unsinnige Ergebnisse oder Programmabstürze bis hin zu gefährlichen Sicherheitslücken. Während hierdurch zum Teil große Optimierungen für Compiler ermöglicht werden, kommt es auf der anderen Seite wiederholt dazu, dass fehlerhafter Quellcode von neuen Compilerversionen auf unerwartete und absurd scheinende Art umgesetzt wird. So werden zu spät durchgeführte Überprüfungen wegoptimiert oder Schleifen, die auf einen ungültigen Index eines Arrays zugreifen, durch leere Endlosschleifen ersetzt. Wichtig für das Verständnis von undefiniertem Verhalten ist insbesondere, dass niemals nur eine einzelne Operation ungültig ist, sondern das "gesamte Programm" ungültig wird und kein wohlgeformtes C++ mehr darstellt. Einerseits ist das hieraus resultierende nichtdeterministische Laufzeitverhalten, insbesondere bei kleinen Änderungen der Plattform, mindestens als Risiko, in der Praxis oft aber als klarer Nachteil einzustufen. Andererseits werden hierdurch schnellere Programme ermöglicht, da Gültigkeitsüberprüfungen weggelassen werden können und der Compiler zudem oft Programmteile stärker optimieren kann, indem er Randfälle als per Definition ausgeschlossen ignoriert. Ein oft nicht wahrgenommener Vorteil ist darüber hinaus, dass dadurch, dass undefiniertes Verhalten praktisch nur in äußerst fragwürdigen Konstrukten auftritt, die aber nicht zwingend während des Kompilierens feststellbar sind, unsemantischer oder anderweitig suboptimaler Code gewissermaßen verboten wird. Beispielsweise besteht eine illegale Art zu prüfen ob die Summe zweier positiver Ganzzahlen formula_1 und formula_2 vom Typ ‚int‘ verlustfrei wieder in einem ‚int‘ abgebildet werden kann,daraus zu schauen ob ihre Summe größer 0 ist (bei Überlauf entsteht auf den meisten Computern durch die Zweierkomplement-Arithmetik eine negative Zahl). Eine derartige Überprüfung ist allerdings aus mathematischer Sicht nicht besonders sinnvoll. Eine bessere (semantischere) Herangehensweise ist hier, einfach die eigentliche Frage, ob formula_3, wobei formula_4 die größte in einem ‚int‘ darstellbare Zahl ist, nach der mathematisch validen Umformung zu formula_5 zu verwenden. Kompatibilität mit C. Um an die Verbreitung der Programmiersprache C anzuknüpfen, wurde C++ als Erweiterung von C gemäß dem damaligen Stand von 1990 (, auch kurz C90 genannt) entworfen. Die Kompatibilität mit C zwingt C++ zur Fortführung einiger dadurch übernommener Nachteile. Dazu zählt die teilweise schwer verständliche C-Syntax, der als überholt geltende Präprozessor sowie verschiedene von der jeweiligen Plattform abhängige Details der Sprache, die die Portierung von C++-Programmen zwischen unterschiedlichen Rechnertypen, Betriebssystemen und Compilern erschweren. Einige C-Sprachkonstrukte haben in C++ eine leicht abgewandelte Bedeutung oder Syntax, so dass manche C-Programme erst angepasst werden müssen, um sich als C++-Programm übersetzen zu lassen. Weitere Änderungen an C fanden in den Jahren 1999 (, aka C99) und 2011 (, aka C11) also nach der ersten Normung von C++ statt, so dass dort eingeflossene Änderungen nicht in C++98 berücksichtigt werden konnten. In die C++-Revision von 2011 wurde ein Teil der Neuerungen von C99 übernommen; auf der anderen Seite wurden dem C-Standard neue Features hinzugefügt, die auch mit C++11 nicht kompatibel sind. Sprachmerkmale im Detail. C++ basiert auf der Programmiersprache C wie in ISO/IEC 9899:1990 beschrieben. Zusätzlich zu den in C vorhandenen Möglichkeiten bietet C++ weitere Datentypen sowie neuartige Typumwandlungsmöglichkeiten, Klassen mit Mehrfachvererbung und virtuellen Funktionen, Ausnahmebehandlung, Templates (Schablonen), Namensräumen, Inline-Funktionen, Überladen von Operatoren und Funktionsnamen, Referenzen, Operatoren zur Verwaltung des dynamischen Speichers und mit der C++-Standardbibliothek eine erweiterte Bibliothek. Programmbeispiel. Der Präprozessorbefehl codice_5 bindet Header-Dateien ein, die typischerweise Deklarationen von Variablen, Typen und Funktionen enthalten. Im Gegensatz zu C besitzen Header der C++-Standardbibliothek keine Dateiendung. Der Header codice_6 ist Teil der C++-Standardbibliothek und deklariert unter anderem den Standardeingabestrom codice_7 und die Standardausgabeströme codice_8 und codice_9 für die aus der C-Standardbibliothek bekannten Objekte codice_10, codice_11 und codice_12. Bei codice_13 handelt es sich um die Funktion, die den Einsprungspunkt jedes C++-Programms darstellt. Das Programm wird ausgeführt, indem die Funktion codice_13 aufgerufen wird, wobei diese ihrerseits andere Funktionen aufrufen kann. Die Funktion codice_13 selbst darf allerdings in einem C++-Programm nicht rekursiv aufgerufen werden. Der Standard verlangt von Implementierungen, zwei Signaturen für die Funktion codice_13 zu unterstützen: Eine ohne Funktionsparameter wie im Beispiel, und eine, die einen Integer und einen Zeiger auf Zeiger auf codice_17 entgegennimmt, um auf Kommandozeilenparameter zugreifen zu können (was nicht in allen Programmen vonnöten ist): codice_18. Implementierungen dürfen darüber hinaus weitere Signaturen für codice_13 unterstützen, alle müssen jedoch den Rückgabetyp codice_2 (Integer) besitzen, also eine Ganzzahl zurückgeben. Gibt codice_13 jedoch wie im Beispiel keinen Wert zurück, so schreibt der C++-Standard der Implementierung vor, codice_22 anzunehmen. codice_13 gibt also 0 zurück, wenn kein gegenteiliges codice_3-Statement in ihr vorhanden ist. codice_8 ist eine Instanz der Klasse codice_26, die sich wie die gesamte C++-Standardbibliothek im Namensraum codice_27 befindet. Bezeichner in Namensräumen werden mit dem Bereichsoperator (codice_28) angesprochen. Die Ausgabe des Zeichenkettenliterals codice_29 übernimmt der Operator codice_30. Zeichenkettenliterale sind in C++ vom Typ "Array aus N konstanten chars" (codice_31), wobei "N" gleich der Länge der Zeichenkette + 1 für die abschließende Nullterminierung ist. Da die Standardtypumwandlungen von C++ die als "pointer-to-array decay" bekannte implizite Umwandlung eines Arrays codice_32 in einen Pointer codice_33 vorsehen, und damit codice_31 in einen codice_35 zerfällt, passt der überladene Operator codice_36 aus codice_37 und wird entsprechend aufgerufen (codice_38) und gibt die Zeichenkette aus. C++-Compiler. Die Implementierung eines C++-Compilers gilt als aufwändig. Nach der Fertigstellung der Sprachnorm 1998 dauerte es mehrere Jahre, bis die Sprache von C++-Compilern weitestgehend unterstützt wurde. Objective-C. C++ war nicht der einzige Ansatz, die Programmiersprache C um Eigenschaften zu erweitern, die das objektorientierte Programmieren vereinfachen. In den 1980er Jahren entstand die Programmiersprache Objective-C, die sich aber im Gegensatz zu C++ an Smalltalk und nicht an Simula orientierte. Die Syntax von Objective-C unterscheidet sich unter anderem wegen der Smalltalk-Wurzeln stark von C++. Wichtigstes Einsatzgebiet von Objective-C ist die Programmierung unter den Betriebssystemen Apple iOS und Mac OS X sowie unter der Programmierschnittstelle OpenStep. Java und C#. Die Programmiersprachen Java und verfügen über eine ähnliche, ebenfalls an C angelehnte Syntax wie C++, sind auch objektorientiert und unterstützen seit einiger Zeit Typparameter. Trotz äußerlicher Ähnlichkeiten unterscheiden sie sich aber konzeptionell von C++ zum Teil beträchtlich. Generische Techniken ergänzen die objektorientierte Programmierung um Typparameter und erhöhen so die Wiederverwertbarkeit einmal kodierter Algorithmen. Die generischen Java-Erweiterungen sind jedoch lediglich auf Klassen, nicht aber auf primitive Typen oder Datenkonstanten anwendbar. Demgegenüber beziehen die generischen Spracherweiterungen von C# auch die primitiven Typen mit ein. Dabei handelt es sich allerdings um eine Erweiterung für Generik zur Laufzeit, die die auf Kompilationszeit zugeschnittenen C++-Templates zwar sinnvoll ergänzen, nicht aber ersetzen können. Gerade die generische Programmierung macht C++ zu einem mächtigen Programmierwerkzeug. Während die objektorientierte Programmierung in Java und C# nach wie vor den zentralen Abstraktionsmechanismus darstellt, ist diese Art der Programmierung in C++ rückläufig. So werden tiefe Klassenhierarchien vermieden, und zu Gunsten der Effizienz und der Minimierung des Ressourcenverbrauchs verzichtet man in vielen Fällen auf Polymorphie, einen der fundamentalen Bestandteile der objektorientierten Programmierung. Entstehungsgeschichte. Auf die Idee für eine neue Programmiersprache kam Stroustrup durch Erfahrungen mit der Programmiersprache Simula während seiner Doktorarbeit an der "Cambridge University". Simula erschien zwar geeignet für den Einsatz in großen Software-Projekten, die Struktur der Sprache erschwerte aber die Erstellung hocheffizienter Programme. Demgegenüber ließen sich effiziente Programme zwar mit der Sprache BCPL schreiben, für große Projekte war BCPL aber wiederum ungeeignet. Mit den Erfahrungen aus seiner Doktorarbeit erweiterte Stroustrup in den AT&T Bell Laboratories im Rahmen von Untersuchungen des Unix-Betriebssystemkerns in Bezug auf verteiltes Rechnen ab 1979 die Programmiersprache C. Die Wahl fiel auf die Programmiersprache C, da C eine Mehrzwecksprache war, die schnellen Code produzierte und einfach auf andere Plattformen zu portieren war. Als dem Betriebssystem Unix beiliegende Sprache hatte C außerdem eine nicht unerhebliche Verbreitung. Eine der ersten Erweiterungen war ein Klassenkonzept mit Datenkapselung, für das die Sprache "Simula-67" das primäre Vorbild war. Danach kamen abgeleitete Klassen hinzu, ein strengeres Typsystem, Inline-Funktionen und Standard-Argumente. Während Stroustrup „"C with Classes"“ („"C mit Klassen"“) entwickelte (woraus später C++ wurde), schrieb er auch "cfront", einen Compiler, der aus "C with Classes" zunächst C-Code als Zwischenresultat erzeugte. Die erste kommerzielle Version von "cfront" erschien im Oktober 1985. 1983 wurde "C with Classes" in "C++" umbenannt. Erweiterungen darin waren: Überladen von Funktionsnamen und Operatoren, virtuelle Funktionen, Referenzen, Konstanten, eine änderbare Freispeicherverwaltung und eine verbesserte Typüberprüfung. Die Möglichkeit von Kommentaren, die an das Zeilenende gebunden sind, wurde aus BCPL übernommen (codice_39). 1985 erschien die erste Version von C++, die eine wichtige Referenzversion darstellte, da die Sprache damals noch nicht standardisiert war. 1989 erschien die Version 2.0 von C++. Neu darin waren Mehrfachvererbung, abstrakte Klassen, statische Elementfunktionen, konstante Elementfunktionen und die Erweiterung des Zugriffsmodells um codice_40. 1990 erschien das Buch "The Annotated C++ Reference Manual", das als Grundlage für den darauffolgenden Standardisierungsprozess diente. Relativ spät wurden der Sprache "Templates", "Ausnahmebehandlung", "Namensräume", neuartige "Typumwandlungen" und "boolesche Typen" hinzugefügt. Im Zuge der Weiterentwicklung der Sprache C++ entstand auch eine gegenüber C erweiterte Standardbibliothek. Erste Ergänzung war die "Stream-I/O-Bibliothek", die Ersatz für traditionelle C-Funktionen wie zum Beispiel codice_41 und codice_42 bietet. Eine der wesentlichen Erweiterungen der Standardbibliothek kam später durch die Integration großer Teile der bei Hewlett-Packard entwickelten Standard Template Library ("STL") hinzu. Nach jahrelanger Arbeit wurde schließlich 1998 die endgültige Fassung der Sprache C++ (ISO/IEC 14882:1998) genormt. Diese Version wurde im Nachhinein, als weitere Versionen der Sprache erschienen, auch "C++98" genannt. Im Jahre 2003 wurde ISO/IEC 14882:2003 verabschiedet, eine Nachbesserung der Norm von 1998, in der einige Missverständnisse beseitigt wurden und einige Details klarer formuliert wurde. Diese Version wird umgangssprachlich auch "C++03" genannt. Weiterentwicklung der Programmiersprache C++ nach 2005. Um mit den aktuellen Entwicklungen der sich schnell verändernden Computer-Technik Schritt zu halten, aber auch zur Ausbesserung bekannter Schwächen, erarbeitete das C++-Standardisierungskomitee die nächste größere Revision von C++, die inoffiziell mit C++0x abgekürzt wurde, worin die Ziffernfolge eine grobe Einschätzung des möglichen Erscheinungstermins andeuten sollte. Später, als ein Erscheinungstermin bis Ende 2009 nicht mehr zu halten war, änderte sich der inoffizielle Name zu "C++1x". Die vorrangigen Ziele für die Weiterentwicklung von C++ waren Verbesserungen im Hinblick auf die Systemprogrammierung sowie zur Erstellung von Programmbibliotheken. Außerdem sollte die Erlernbarkeit der Sprache für Anfänger verbessert werden. Im November 2006 wurde der Zieltermin für die Fertigstellung auf das Jahr 2009 festgelegt. Im Juli 2009 wurde dieser Termin auf frühestens 2010 geändert. Im August 2011 wurde die Revision einstimmig von der ISO-Behörde angenommen und am 11. Oktober 2011 als ISO/IEC 14882:2011 offiziell veröffentlicht. Inoffiziell heißt die Version C++11. Verbesserungen am Sprachkern. C++98 deckte einige typische Problemfelder der Programmierung noch nicht ausreichend ab, zum Beispiel die Unterstützung von Nebenläufigkeit (Threads), deren Integration in C++, insbesondere für die Verwendung in Mehrprozessorumgebungen, eine Überarbeitung der Sprache unumgänglich machte. Durch die Einführung eines Speichermodells wurden Garantien der Sprache für den nebenläufigen Betrieb festgelegt, um Mehrdeutigkeiten in der Abarbeitungsreihenfolge sowohl aufzulösen als auch in bestimmten Fällen aufrechtzuerhalten und dadurch Spielraum für Optimierungen zu schaffen. Zu den weitreichenderen Spracherweiterungen gehörte ferner die automatische Typableitung zur Ableitung von Ergebnistypen aus Ausdrücken und die sogenannten "R-Wert-Referenzen", mit deren Hilfe sich als Ergänzung zu dem bereits vorhandenen "Kopieren" von Objekten dann auch ein "Verschieben" realisieren lässt, außerdem bereichsbasierte For-Schleifen (foreach) über Container und eingebaute Felder. Erweiterung der Programmbibliothek. Im April 2006 gab das C++-Standardisierungskomitee den sogenannten ersten Technischen Report (TR1) heraus, eine nicht normative Ergänzung zur aktuell gültigen, 1998 definierten Bibliothek, mit der Erweiterungsvorschläge vor einer möglichen Übernahme in die C++-Standardbibliothek auf ihre Praxistauglichkeit hin untersucht werden sollen. Viele Compiler-Hersteller lieferten den TR1 mit ihren Produkten aus. Enthalten waren im TR1 u. a. reguläre Ausdrücke, verschiedene intelligente Zeiger, ungeordnete assoziative Container, eine Zufallszahlenbibliothek, Hilfsmittel für die C++-Metaprogrammierung, Tupel sowie numerische und mathematische Bibliotheken. Die meisten dieser Erweiterungen stammten aus der Boost-Bibliothek, woraus sie mit minimalen Änderungen übernommen wurden. Außerdem waren sämtliche Bibliothekserweiterungen der 1999 überarbeiteten Programmiersprache C (C99) in einer an C++ angepassten Form enthalten. Mit Ausnahme der numerischen und mathematischen Bibliotheken wurden alle TR1-Erweiterungen in die Sprachnorm C++11 übernommen. Ebenfalls wurde eine eigene Bibliothek zur Unterstützung von Threads eingeführt. C++11. Lambdas (Anonyme Funktionen), eine erleichterte Typbehandlung mit Typinferenz über das Schlüsselwort codice_43 (das nun nicht mehr ein Speicherklassen-Specifier ist) einerseits und das Schlüsselwort codice_44 andererseits. Ein codice_45-Statement erleichtert die Arbeit mit Containern und Arrays, und es dürfen direkt aufeinanderfolgende spitze Klammern bei Templates benutzt werden: codice_46. Streng typisierte codice_47s (codice_48) beseitigen Probleme mit Namenskollisionen. Außerdem wurden einige Features aus C11 übernommen, zum Beispiel Ganzzahlen mit mindestens 64 Bit (codice_49) oder Zusicherungen zur Übersetzungszeit mittels codice_50 (in C11: codice_51). Themen der Sprache C++, die Rechenzeit und Speicherplatz betreffen, wurden im so genannten "technical report" ISO/IEC TR 18015:2006 behandelt. C++14. Die aktuelle Fassung von C++ (Januar 2015) ist ISO/IEC 14882:2014, auch bekannt als "C++14". C++14 erweitert die Einsatzmöglichkeiten von codice_43 und codice_44, schwächt die Voraussetzungen für codice_54 ab, erlaubt Variablen-Templates zu definieren (beispielsweise um mehrere Versionen von π zu definieren), führt Binärliterale ein (0b...), führt Hochkommata als Trennzeichen in Zahlen ein, erlaubt generische Lambdas, erweitert Lambda capture expressions und führt das Attribut deprecated ein. Außerdem wurde die Standardbibliothek um ein paar Funktionen ergänzt, die bei C++11 „vergessen“ bzw. „übersehen“ wurden (z. B. codice_55) und etliche Funktionsdeklarationen nun als codice_54 umdeklariert, was dem Compiler aggressivere Optimierungen gestattet. Während der Entwicklungsphase wurde C++14 auch "C++1y" genannt, um anzudeuten, dass es die Nachfolgeversion der vormals als C++0x genannten Version sein wird. C++1z/C++17. Derzeit findet die Arbeit an einer neuen Fassung des C++-Standards statt. Die neue Fassung soll 2017 verabschiedet werden und ist deshalb bereits als "C++17" bekannt. Bis zur offiziellen Verabschiedung wird sie auch als "C++1z" bezeichnet Der Name „C++“. Der Name C++ ist eine Wortschöpfung von Rick Mascitti, einem Mitarbeiter Stroustrups, und wurde zum ersten Mal im Dezember 1983 benutzt. Der Name kommt von der Verbindung der Vorgängersprache C und dem Inkrement-Operator „++“, der den Wert einer Variablen inkrementiert (um eins erhöht). Der Erfinder von C++, Bjarne Stroustrup, nannte C++ zunächst „C mit Klassen“ ('). Sprachelemente von C-Sharp. Dieser Artikel bietet eine Übersicht einiger Sprachelemente von. Bedingte Ausführung (if, else, switch). Der sogenannte codice_1-Block hat zur Folge, dass die zwischen den geschweiften Klammern liegenden Anweisungen nur dann in Kraft treten, wenn die angegebene Bedingung erfüllt ist, d. h. ihr Wert codice_2 ist. Der codice_3-Block, der nur in Verbindung mit einem codice_1-Block stehen kann, wird nur dann ausgeführt, wenn die Anweisungen des if-Blocks "nicht" ausgeführt wurden. Die codice_5-Anweisung ist die Darstellung eines Falles, in dem, je nach Wert eines Ausdrucks, andere Anweisungen ausgeführt werden müssen. Es wird immer bei dem codice_6-Label fortgefahren, dessen Wert mit dem Ausdruck in der codice_5-Anweisung übereinstimmt. Wenn keiner der Fälle zutrifft, wird zum optionalen codice_8-Zweig gesprungen. Im Gegensatz zu C und C++ hat die C#-codice_5-Anweisung keine "fall-through"-Semantik. Schleifen (for, do, while, foreach). Wird eine codice_15-Schleife ausgeführt, wird zuerst der Startausdruck gültig. Ist dieser vollständig bearbeitet, werden die Anweisungen im Schleifenrumpf und anschließend der Inkrementierungsausdruck solange wiederholt abgearbeitet, bis die Gültigkeitsbedingung codice_16 ergibt, d. h., ungültig wird. Die codice_17-Schleife ist dagegen recht primitiv: sie wiederholt die Anweisungen, solange die Bedingung codice_2 zurückgibt. Die Bedingung der codice_17-Schleife wird immer "vor" dem Anweisungsblock ausgewertet. Wenn die Bedingung von Anfang an nicht erfüllt ist, wird der Schleifenrumpf nicht durchlaufen. Die Bedingung der Do-While-Schleife wird immer nach dem Anweisungsblock ausgeführt. Die Schleife wird daher mindestens ein Mal durchlaufen. Mit der codice_20-Schleife wird durch alle Mitglieder einer Sequenz iteriert. In der Schleife besteht nur lesender Zugriff auf die Schleifenvariable. Die Sprunganweisungen "break", "continue", "goto", "return", "yield" "return"/"break". for (int i = 0; i < 10; ++i) Die Anweisung codice_11 veranlasst den nächsten Durchlauf einer Schleife. (Dabei wird der restliche Code im Schleifenkörper nicht abgearbeitet). Im Beispiel wird der Text nur zweimal ausgegeben. for (int i = 0; i < 100; ++i) Die Anweisung codice_10 veranlasst das Programm, die nächste umschließende Schleife (oder das umschließende "switch") zu verlassen. In diesem Beispiel werden nur die Zahlen 0, 1, 2, 3 und 4 ausgegeben. Mit codice_12 springt das Programm an das angegebene Sprungziel. Die Benutzung von codice_12 sollte jedoch möglichst vermieden werden, da dadurch der Quellcode in der Regel unleserlicher wird. Es gilt jedoch als akzeptiertes Sprachmittel, um tief verschachtelte Schleifen zu verlassen, da in diesen Fällen der Code mit codice_12 lesbarer ist als durch mehrfache Verwendung von codice_10 oder anderen Sprachmitteln. Siehe auch Spaghetticode. Innerhalb einer codice_5-Anweisung kann mittels codice_28 bzw. codice_29 zu einem der Fälle gesprungen werden. Mit codice_14 wird die aktuelle Methode verlassen und der im Kopf der Methode vereinbarte Referenz- bzw. Wertetyp als Rückgabewert zurückgeliefert. Methoden ohne Rückgabewert werden mit dem Schlüsselwort codice_31 gekennzeichnet. Eine Besonderheit bildet der Ausdruck codice_32. Zweck ist es, in verkürzter Schreibweise eine Rückgabesequenz für eine Methode oder eine Eigenschaft zu erzeugen. Der Compiler nutzt hierzu einen eigenen Typ, der von "System.Collections.Generic.IEnumerable" abgeleitet ist und somit mit einem codice_20-Block durchlaufen werden kann. private int zahlen = new int; private int zahlen = new int; // bspw. aus einer Eigenschaft heraus Jedes Element, das zurückgegeben wird, muss implizit in den Typ der Rückgabesequenzelemente konvertierbar sein. // bspw. aus einer Methode heraus Die Anweisungen codice_14 und codice_32 können nicht gemeinsam verwendet werden. Die using-Anweisung. Die codice_38-Anweisung definiert einen Geltungsbereich, an dessen Ende der Speicher von nicht mehr benötigten Objekten automatisch freigegeben wird. Bei begrenzten Ressourcen wie Dateihandler stellt die codice_38-Anweisung sicher, dass diese immer ausnahmesicher bereinigt werden. using (Font myFont = new Font("Arial", 10.0f)) Font myFont = new Font("Arial", 10.0f); Klassen müssen die codice_42-Schnittstelle implementieren, damit die codice_38-Anweisung auf diese Weise eingesetzt werden kann. Objekte und Klassen. Wenn man von einem Objekt spricht, handelt es sich dabei in der Umgangssprache normalerweise um ein reales Objekt oder einen Gegenstand des täglichen Lebens. Beispielsweise kann das ein Tier, ein Fahrzeug, ein Konto oder Ähnliches sein. Jedes Objekt kann durch verschiedene Attribute beschrieben werden und verschiedene Zustände annehmen und diese auch auslösen. Übertragen auf die objektorientierte Programmierung und C# ist ein Objekt ein Exemplar (siehe Schlüsselwort codice_44) einer Klasse. Eine Klasse kann man dabei als Bauplan oder Gerüst eines Objektes ansehen. Eine Klasse besitzt Eigenschaften (Variablen), Methoden (die Tätigkeiten darstellen) und Ereignisse, die die Folge von Zuständen sind bzw. diese auslösen. Die Klasse namens „object“. Die Klasse codice_45 (ein Alias für System.Object) ist ein Referenztyp, von dem jede Klasse abgeleitet wird. So kann durch implizite Typumwandlung jeder Objekttyp in codice_45 umgewandelt werden. .NET (und damit auch C#) unterscheidet zwischen Werttypen und Referenztypen. Werttypen sind jedoch auch (über den Zwischenschritt ValueType) von codice_45 abgeleitet. Deshalb kann (mittels eines boxing/unboxing genannten Verfahrens) auch eine Variable vom Typ codice_45 auf einen Werttyp, z. B. codice_49 verweisen. Strukturen ("struct"). Strukturen sind bereits als Sprachmittel aus Sprachen wie C++ oder Delphi (Records) bekannt. Sie dienen primär zur Erstellung eigener komplexer Datenstrukturen oder eigener Datentypen. So kann zum Beispiel eine Raumkoordinate, bestehend aus einer X-, einer Y- und einer Z-Position, durch eine Datenstruktur Koordinate abgebildet werden, die sich aus drei Gleitkommazahlen einfacher oder doppelter Genauigkeit zusammensetzt. C# fasst eine über das Schlüsselwort codice_50 definierte Struktur als einen Wertetyp auf. Strukturen in C# können außerdem Methoden, Eigenschaften, Konstruktoren und andere Elemente von Klassen aufweisen; sie können aber nicht beerbt werden. Der Unterschied einer Strukturinstanz im Vergleich zu einem Objekt besteht in ihrer Repräsentation im Speicher. Da keine zusätzlichen Speicherreferenzen benötigt werden, wie es bei einem Objekt erforderlich ist (Referenztyp), können Strukturinstanzen wesentlich ressourcenschonender eingesetzt werden. So basieren beispielsweise alle primitiven Datentypen in C# auf Strukturen. Aufzählungen (Enumerationen). Aufzählungen dienen zur automatischen Nummerierung der in der Aufzählung enthaltenen Elemente. Die Syntax für die Definition von Aufzählungen verwendet das Schlüsselwort codice_51 (Abkürzung für Enumeration). Der in C# verwendete Aufzählungstyp ähnelt dem in C, mit der Ausnahme, dass ein optionaler ganzzahliger Datentyp für die Nummerierung der Elemente angegeben werden kann. Ohne Angabe eines Datentyps wird codice_49 verwendet. Die Elementnummerierung in C# beginnt bei 0. Es ist aber auch möglich, wie in C, jedem Element – oder nur dem ersten Element – einen eigenen Startwert zuzuweisen (wie im obigen Beispiel). Dabei können sich die Anfangswerte wiederholen. Die Zählung beginnt dann jeweils von neuem bei dem definierten Startwert und Element. In C# ist es auch möglich, ein bestimmtes Element einer Enumeration über seine Ordinalzahl anzusprechen. Hierzu ist aber eine explizite Typumwandlung notwendig. Flags. Neben der beschriebenen Variante des enum-Aufzählungstyps existiert noch eine spezielle Variante von Enumeration. Flags definieren Enumerationen auf Bitebene und werden durch die Metainformation [Flags] vor der Enum-Deklaration definiert. Flag-Elemente können auf Bitebene verknüpft werden, sodass mehrere Elemente zu einem neuen kombiniert werden können. Hierzu müssen den zu kombinierenden Elementen Zweierpotenzen als Werte zugewiesen werden, damit eine Kombination ermöglicht wird. Zugriffsmodifikatoren. Zugriffsmodifikatoren regeln den Zugriff auf Klassen und deren Mitglieder (Methoden, Eigenschaften, Variablen, Felder und Ereignisse) in C#. Die folgende Tabelle führt die von C# unterstützten Zugriffsmodifikatoren auf und beschreibt deren Wirkung und den Sichtbarkeitskontext. Datentypen, Operatoren, Eigenschaften und Konstanten. C# kennt zwei Arten von Datentypen: Wertetypen und Referenztypen. Referenztypen dürfen dabei nicht mit Zeigern gleichgesetzt werden, wie sie u. a. aus der Sprache C++ bekannt sind. Diese werden von C# auch unterstützt, aber nur im „unsicheren Modus“ (engl. "unsafe mode"). Wertetypen enthalten die Daten direkt, wobei Referenztypen im Gegensatz dazu nur Verweise auf die eigentlichen Daten, oder besser, Objekte darstellen. Beim Lesen und Schreiben von Wertetypen werden die Daten dagegen über einen Automatismus, Autoboxing genannt, in einer Instanz der jeweiligen Hüllenklasse (engl. "wrapper") gespeichert oder aus ihr geladen. int j = 2, k = 3; i = j = k = 123; Einen Sonderfall der Zuweisung stellt die Deklaration von Feldern (Arrays) dar. Näheres hierzu im entsprechenden Abschnitt. Datentypen und Speicherbedarf. Datentypen sind in C# nicht elementar, sondern objektbasiert. Jeder der in der Tabelle aufgeführten Datentypen stellt einen Alias auf eine Klasse des Namensraumes "System" dar. Beispielsweise wird der Datentyp codice_60 durch die Klasse codice_61 abgebildet. codice_62 Vergleichbar mit C++, und anders als bei Java, gibt es unter C# vorzeichenbehaftete und vorzeichenlose Datentypen. Diese werden durch Voranstellen des Buchstabens "s" (für "signed", englisch für "vorzeichenbehaftet") und durch Voranstellen des Buchstabens "u" (für "unsigned", englisch für "vorzeichenlos") gekennzeichnet (codice_63 mit Ausnahme von codice_64). Die Gleitkomma-Datentypen (codice_65) können neben einfacher auch doppelte Genauigkeit aufweisen und haben einen variierenden Speicherbedarf. Dadurch ändert sich die Genauigkeit, was in der Anzahl der möglichen Nachkommastellen zum Ausdruck kommt. Konstanten (Schlüsselwort "const"). Einem mit codice_66 deklarierten „Objekt“ kann nach der Deklaration und Initialisierung kein neuer Inhalt zugewiesen werden. Das „Objekt“ wird dadurch zu einer Konstanten. Es muss dabei vom Compiler festgestellt werden können, dass der Wert, der einer Konstante zugewiesen wird, unveränderlich ist. Es ist also auch möglich, eine Konstante von einem Referenztypen zu definieren, allerdings darf dieser nur null zugewiesen werden. Grund dafür ist, dass der Compiler alle Verwendungen von Konstanten bereits zum Zeitpunkt des Kompilierens ersetzt. Strukturen können nicht konstant sein, da sie in einem Konstruktor einen Zufallsgenerator benutzen könnten. Fehlerhafte Zuweisungen einer Konstanten werden mit dem Kompilierfehler CS0133 vom C-Sharp-Kompilierer moniert. Konstanten gibt es auch in anderen Sprachen (z. B. C++, Java). In Java werden Konstanten durch das Schlüsselwort codice_67 gekennzeichnet, in Fortran durch codice_68. Operatoren. Operatoren führen verschiedene Operationen an Werten durch und erzeugen dabei einen neuen Wert. Je nach Anzahl der Operanden wird zwischen unäre, binäre und ternäre Operatoren unterschieden. Die Reihenfolge der Auswertung wird durch die Priorität und Assoziativität bestimmt und kann durch Klammerausdrücken geändert werden. Operatoren überladen. Um den Operator codice_81 zu simulieren, können Indexer verwendet werden. Die Operatoren codice_82 und codice_83 können nicht direkt überladen werden. Sie werden über die speziellen überladbaren Operatoren codice_2 und codice_16 ausgewertet. Die Operation codice_86 wird als codice_87 ausgewertet, wobei codice_88 ein Aufruf von dem in codice_89 deklarierten Operator codice_16 ist und codice_91 ein Aufruf des ausgewählten Operator codice_92. Die Operation codice_93 wird als codice_94 ausgewertet, wobei codice_95 ein Aufruf von dem in codice_89 deklarierten Operator codice_2 ist und codice_98 ein Aufruf des ausgewählten Operator codice_99. Eigenschaften (Schlüsselwörter "get", "set" und "value"). Eine "Eigenschaft" ("property") ist eine Sicht auf eine öffentliche Variable einer Klasse. Die Variable selbst wird durch einen Zugriffsmodifikator wie codice_54 oder codice_56 (bei Variablen, die in abgeleiteten Klassen überschrieben werden sollen) für den Zugriff von außen gesperrt und über eine Eigenschaft zugänglich gemacht. Über die Eigenschaft kann dann bestimmt werden, ob ein lesender oder schreibender Zugriff auf die referenzierte Variable erfolgen darf. Beide Möglichkeiten sind auch miteinander kombinierbar. Eine Eigenschaft wird durch Zuweisung eines Datentyps (der dem Datentyp der Variable entsprechen muss) zu einem Eigenschaftsnamen angelegt und hat eine ähnliche Struktur wie die Syntax einer Methode. Die Eigenschaft ist dabei wie eine Variable ansprechbar und ihr kann auch ein Zugriffsmodifikator zugewiesen werden. Eine Eigenschaft enthält selbst keine Daten, sondern bildet diese auf die referenzierte Variable ab (vergleichbar mit einem Zeiger). Zur Abfrage einer Eigenschaft existiert in C# das Schlüsselwort codice_102 und zum Setzen eines Wertes das Schlüsselwort codice_103. Von außen stellt sich die Eigenschaft dann wie eine Variable dar und der Zugriff kann entsprechend erfolgen (vgl. VisualBasic). Die Programmiersprache Java verfolgt mit den Set- und Get-Methoden (Bean-Pattern, Introspection) das gleiche Ziel – alle Zugriffe erfolgen nie direkt über eine Variable, sondern über die entsprechende Methode. Durch das „Weglassen“ des Schlüsselwortes codice_103 oder des Schlüsselwortes codice_102 kann gesteuert werden, ob die Eigenschaft nur gelesen oder nur geschrieben werden darf. Das Schlüsselwort codice_108 ist dabei ein Platzhalter für den der Eigenschaft zugewiesenen Wert, der gesetzt werden soll. Er kann nur in Verbindung mit dem Schlüsselwort codice_103 im entsprechenden Block verwendet werden (und entspricht in etwa einer temporären lokalen Variable). Würde bei der obigen Definition der Eigenschaft ‚Wohnort‘ der codice_102-Block weggelassen, so würde der lesende Zugriff zu einem Zugriffsfehler führen (im Beispiel in der Zeile, in der die Ausgabe erfolgt). Neben dem einfachen Setzen oder Lesen einer Eigenschaft, können im codice_103-Block bzw. codice_102-Block auch Operationen ausgeführt werden, beispielsweise die Potenzierung eines bei codice_103 übergebenen Wertes (codice_108 mal Exponent), bevor er der Variablen zugewiesen wird. Das Gleiche gilt für das Schlüsselwort codice_102. Theoretisch kann somit ein Zugriff für den Benutzer einer Klasse ganz unerwartete Ergebnisse bringen. Deshalb sollten alle Operationen, die Veränderungen auf einen Wert durchführen über normale Methoden abgebildet werden. Ausgenommen sind natürlich Wertprüfungen bei codice_103. Das Beispiel konkateniert den der Eigenschaft übergebenen Wert (hier: Musterstadt) zur Zeichenkette „12345 “. Diese Aktion ist syntaktisch und semantisch richtig, sie sollte dennoch in einer Methode ausgeführt werden. Ab C# 3.0 ist es möglich, Eigenschaften automatisch zu implementieren. Dies ist eine verkürzte Schreibweise für Eigenschaften bei denen es sich um den Zugriff auf eine Variable handelt, die innerhalb der Klasse bzw. Struktur als Feld deklariert wurde. Point p = new Point; // Objektinitialisierer Indexer. Der Indexer ist die Standardeigenschaft von einem Objekt. Der Aufruf geschieht wie bei einem Array mit eckigen Klammern. Beispiel: Zugriff auf die 32 Bits einer codice_49 Variable mit Hilfe eines Indexers. Wie bei Eigenschaften kann der Zugriff auf nur lesend oder nur schreibend beschränkt werden, indem man den get-Accessor bzw. set-Accessor weglässt. codice_119 Darstellung spezieller Zeichen oder Zeichenfolgen („escapen“). Ein auf das Zeichen „\“ (umgekehrter Schrägstrich, engl. "backslash") folgendes Zeichen wird anders interpretiert als sonst. Dabei handelt es sich meistens um nicht darstellbare Zeichen. Soll der umgekehrte Schrägstrich selbst dargestellt werden, so muss er doppelt angegeben werden („\\“). Hexadezimale Zeichenfolge als Platzhalter für ein einzelnes Unicode-Zeichen: Das Zeichen wird dabei aus dem Steuerzeichen \x gefolgt von dem hexadezimalen Wert des Zeichens gebildet. Zeichenfolge für "Unicode"-Zeichen in Zeichenliteralen: Das Zeichen wird dabei aus dem Steuerzeichen \u gefolgt von dem hexadezimalen Wert des Zeichens gebildet, z. B. „\u20ac“ für „€“ Der Wert muss zwischen U+0000 und U+FFFF liegen. Zeichenfolge für Unicode-Zeichen in Zeichenkettenliteralen: Das Zeichen wird dabei aus dem Steuerzeichen \U gefolgt von dem hexadezimalen Wert des Zeichens gebildet. Der Wert muss zwischen U+10000 und U+10FFFF liegen. Hinweis: Unicode-Zeichen im Wertbereich zwischen U+10000 und U+10FFFF sind nur für Zeichenfolgen-Literale zulässig und werden als zwei Unicode-„Ersatzzeichen“ kodiert bzw. interpretiert (s. a. "UTF-16"). Schnittstellen. Mehrfachvererbung wird in C# nur in Form von Schnittstellen (engl. "interfaces") unterstützt. Schnittstellen dienen in C# zur Definition von Methoden, ihrer Parameter, ihrer Rückgabewerte sowie von möglichen Ausnahmen. Schnittstellen in C# ähneln den Schnittstellen der Programmiersprache Java. Anders als in Java, dürfen Schnittstellen in C# keine Konstanten enthalten und auch keine Zugriffsmodifikator bei der Definition einer Methode vereinbaren. Auch Schnittstellen ohne Methodendefinition sind möglich. Sie dienen dann als so genannte Markierungsschnittstellen (engl. "marker interface"). Auf die Verwendung von "marker interfaces" sollte zu Gunsten von Attributen verzichtet werden. Schnittstellen können jedoch keine statischen Methoden definieren. Das Einbinden einer Schnittstelle erfolgt analog zur Beerbung einer Klasse. Schnittstellen werden per Konvention mit einem führenden „I“ (für Interface) benannt. Vererbung von Schnittstellen. !   !! kein Modifikator !! "new" MyClass mc = mdc as MyClass; IMessage m = mdc as IMessage; MyClass mc = mdc as MyClass; IMessage m = mdc as IMessage; !   !! "virtual" & "override" || "abstract" & "override" MyClass mc = mdc as MyClass; IMessage m = mdc as IMessage; MyClass mc = mdc as MyClass; IMessage m = mdc as IMessage; Das Schlüsselwort "base". Das Schlüsselwort wird im Zusammenhang von Vererbung genutzt. Es ist, vereinfacht gesagt, das für die Basisklasse, was codice_124 für die aktuelle Klasse ist. Java hingegen sieht hierfür das Schlüsselwort codice_125 vor. In diesem Beispiel wurde die Verwendung nur anhand des Basisklassenkonstruktors gezeigt. Wie in der Einleitung beschrieben, kann base auch für den Zugriff auf die Mitglieder der Basisklasse benutzt werden. Die Verwendung erfolgt äquivalent zur Verwendung von this bei der aktuellen Klasse. Versiegelte Klassen. "Versiegelte" Klassen sind Klassen, von denen keine Ableitung möglich ist und die folglich nicht als Basisklassen benutzt werden können. Bekanntester Vertreter dieser Art von Klassen ist die Klasse codice_127 aus dem Namensraum codice_128. Der Modifizierer codice_123 kennzeichnet Klassen als versiegelt. Es ist jedoch möglich versiegelte Klassen mit Erweiterungsmethoden zu erweitern. Erweiterungsmethoden. Sofern die Klasse "ExtensionKlasse" für eine andere Klasse sichtbar ist, werden nun alle Zahlen vom Typ "int" mit der Methode "MalDrei" erweitert ohne aber den Typ "int" wirklich zu ändern. Der Compiler macht hierbei intern nichts anderes als die Methode "MalDrei" der Klasse "ExtensionKlasse" aufzurufen und den Wert 1993 als ersten Parameter zu übergeben. Anonyme Methoden. btn.Click += delegate(object sender, EventArgs e) Lambdaausdrücke. Seit der Version 3.0 besteht die Möglichkeit, anonyme Methoden in kürzerer Form zu definieren. Dies geschieht mit dem Operator Lambda codice_80 (ausgesprochen: "„wechselt zu“"). Auf der linken Seite des Lambda-Operators werden die Eingabeparameter angegeben, auf der rechten Seite befindet sich der Anweisungsblock bzw. ein Ausdruck. Handelt es sich um einen Anweisungsblock, spricht man von einem "Anweisungslambda". Ein "Ausdruckslambda", wie zum Beispiel codice_131, ist hingegen ein Delegate dessen einzige Anweisung ein codice_14 ist. Der Typ der Eingabeparameter kann weggelassen werden, wenn der Compiler diese ableiten kann. Lambda-Ausdrücke können sich auf äußere Variablen beziehen, die im Bereich der einschließenden Methode oder des Typs liegen, in dem der Lambda-Ausdruck definiert wurde. // 'sender' wird implizit als System.Object betrachtet // 'e' wird implizit als System.EventArgs betrachtet LINQ. Implementiert wird die Funktionalität durch sogenannte LINQ-Provider, die die namentlich definierten Methoden zur Verfügung stellen. Einer davon ist zum Beispiel LINQ-to-Objects. // nimm die Liste der Mitarbeiter und // schreibe jedes Element nach 'm' var liste = from m in this.MitarbeiterListe // lies das Property 'Nachname' und nimm nur die // Elemente, die gleich 'Mustermann' sind // sortiere zuerst ABsteigend nach dem Property 'Vorname' // dann AUFsteigend nach dem Property 'MitarbeiterNummer' // wähle nun zum Schluss als Element für die Liste namens 'liste' // den Wert aus dem Property 'Vorname' jedes Elements aus SELECT m.Vorname FROM MitarbeiterListe AS m ORDER BY m.Vorname DESC, m.MitarbeiterNummer ASC Typumwandlungen. In C# ist jeder Variablen ein Datentyp zugeordnet. Manchmal ist es nötig, Typen von Variablen ineinander umzuwandeln. Zu diesem Zweck gibt es Typumwandlungsoperationen. Dabei gibt es implizite und explizite Typumwandlungen. Eine implizite Typumwandlung erscheint nicht im Quelltext. Sie wird vom Compiler automatisch in den erzeugten Maschinen-Code eingefügt. Voraussetzung dafür ist, dass zwischen Ursprungs- und Zieltyp eine implizierte Typumwandlungsoperation existiert. codice_133 codice_134 Während erstere Umwandlung im Fall einer ungültigen Typumwandlung eine Ausnahme auslöst, ist letztere nur möglich, wenn der Zieldatentyp ein Referenzdatentyp ist. Bei einer ungültigen Typumwandlung wird hier dem Ziel der Nullzeiger zugewiesen. Die codice_135-Anweisung bzw. Anweisungsblock dient dazu den Überlauf einer Ganzzahl zu ignorieren. Mit codice_136 hingegen wird bei einem Überlauf ein OverflowException ausgelöst. Zu den Typumwandlungen gehört auch das so genannte "„Boxing“". Es bezeichnet die Umwandlung zwischen Wert- und Referenztypen. Der Zieltyp wird wie bei der expliziten Konvertierung in Klammern vor den umzuwandelnden Typ geschrieben. Erfolgt dies implizit, so spricht man von "„Autoboxing“". Benutzerdefinierte Typumwandlungen. C# erlaubt die Definition von benutzerdefinierten Typumwandlungen. Diese können als explizit oder implizit markiert werden. Implizite benutzerdefinierte Typumwandlung kommen u. a. bei der Überladungsauflösung zum tragen, während explizite dann verwendet werden, wenn oben genannte explizite Typumwandlungssyntax benutzt wird. "Siehe auch:" Operatoren überladen, Explizite Typumwandlung Parametrische Polymorphie (Generics). Bei der Definition von Interfaces, Klassen, Strukturen, Delegate-Typen und Methoden können Typparameter angegeben und gegebenenfalls mit Einschränkungen versehen werden. Werden Typparameter angegeben, so erhält man "generische" Interfaces, Klassen, und so weiter. Bei der späteren Benutzung solcher Generics füllt man die Typparameter mit konkreten Typargumenten. Definitionsseitige Ko- und Kontravarianz. Neben der Fortsetzung von Untertypbeziehungen von Typargumenten auf Instanzen von Generics beeinflusst die Varianzannotation auch, an welchen Stellen ein Typparameter benutzt werden darf. So sind beispielsweise die Benutzung von kovarianten Typparametern als Typen von Methodenargumenten und die Benutzung von kontravarianten Typparametern als Rückgabetypen nicht erlaubt. Attribute (Metadaten). Attribute geben die Möglichkeit Metadaten für Assemblies, Funktionen, Parameter, Klassen, Strukturen, Enumerationen oder Felder anzugeben. Diese können Informationen für den Compiler enthalten, für die Laufzeitumgebung oder über Reflexion während der Laufzeit ausgelesen werden. In C# werden diese mit eckigen Klammern über dem Ziel angegeben. Das STAThread-Attribut wird z. B. benötigt, wenn ein Programm COM Interoperabilität unterstützen soll – Die Fehlermeldung lautet sonst: „Es wurde eine steuernde ‚IUnknown‘ ungleich NULL angegeben, aber entweder war die angeforderte Schnittstelle nicht 'IUnknown', oder der Provider unterstützt keine COM Aggregation.“ Attribute selbst sind wiederum Klassen, die von der Klasse "Attribute" abgeleitet sind, und können beliebig selbst definiert werden. Autor a = typeof(IrgendeineKlasse).GetCustomAttributes(typeof(Autor), false) as Autor; Ausnahmen/Exceptions. catch (ExceptionTypException exception_data) Es ist nicht zwingend erforderlich, dass immer alle Blöcke (codice_152, codice_153) angegeben werden. Den Umständen entsprechend kann auf einen codice_154-Block auch direkt ein codice_153-Block folgen, wenn beispielsweise keine Behandlung einer Ausnahme erwünscht ist. Zudem ist es nicht zwingend erforderlich, dass auf ein codice_154-codice_152-Konstrukt ein codice_153-Block folgen muss. Es ist jedoch nicht möglich, nur einen codice_154-Block zu definieren. Ein codice_154-Block muss mindestens von einem weiteren Block gefolgt werden. Zudem ist es möglich, mehrere codice_152-Blöcke zu definieren. Wird im codice_154-Bereich eine Ausnahme ausgelöst, so werden alle vorhandenen codice_152-Blöcke der Reihe nach durchgegangen, um zu sehen, welcher Block sich um die Ausnahme kümmert. Somit ist es möglich, gezielt verschiedene Reaktionen auf Ausnahmen zu programmieren. Wird eine Ausnahme von keinem codice_152-Block abgefangen, so wird diese an die nächsthöhere Ebene weitergegeben. Bei der Implementierung eigener, nicht-kritischer Ausnahmen, ist darauf zu achten, nicht von der Klasse codice_165 abzuleiten, sondern von codice_166. Throw. Mittels codice_13 ist es möglich eine, in einem codice_152-Block, aufgefangene Ausnahme eine Ebene höher zu „werfen“ (weitergeben). Somit ist es möglich, dass auch nachfolgender Code von der aufgetretenen Ausnahme informiert wird und somit seinerseits Aktionen unternehmen kann, um auf die Ausnahme zu reagieren. Der Aufruf-Stack bleibt erhalten. Durch codice_13 kann auch eine neue Ausnahme ausgelöst werden, beispielsweise eine programmspezifische Ausnahme, die nicht durch bereits vorhandene C#-Ausnahmen abgedeckt wird. Unsicherer Code. Durch die Codeverifizierung und .NET-Zugriffsverifizierung werden bei C# Speicherzugriffsfehler verhindert. Bei Verwendung von Zeigern werden diese Sicherheitsmechanismen umgangen. Dies ist nur in der Betriebsart „Unsafe Code“ möglich. class us_code Zudem können Klassen und Methoden als "unsafe" deklariert werden. Kommentare und Dokumentation. In C# sind, wie in C, C++ und Java, sowohl Zeilen- als auch Blockkommentare möglich. Zeilenkommentare beginnen dabei mit zwei aufeinanderfolgenden Schrägstrichen (//) und enden in der gleichen Zeile mit dem Zeilenumbruch. Alles, was nach den Schrägstrichen folgt, wird bis zum Zeilenende als Kommentar angesehen und vom Compiler übergangen. Blockkommentare, die sich über mehrere Zeilen erstrecken können, beginnen mit der Zeichenkombination /* und enden mit */. Sowohl Zeilen- als auch Blockkommentare können zu Beginn oder auch mitten in einer Zeile beginnen. Blockkommentare können in derselben Zeile enden und es kann ihnen Quelltext folgen, der vom Compiler ausgewertet wird. Alles was innerhalb des Blockkommentars steht, wird vom Compiler übergangen. // Dies ist ein Zeilenkommentar, der mit dem Zeilenumbruch endet System.Console.WriteLine("Ein Befehl"); // Ein Zeilenkommentar am Zeilenende /* Dies ist ein Blockkommentar, der in der gleichen Zeile endet */ System.Console.WriteLine("Ein weiterer Befehl"); /* Ein mehrzeiliger System.Console.WriteLine("Befehl 1"); /* Kommentar */ System.Console.WriteLine("Befehl 2"); System.Console/* Kommentar */.WriteLine(/* Kommentar */ "...") Hinweis: Es sind auch Kommentare innerhalb einer Anweisung bzw. Deklaration möglich, z. B. zur Kommentierung einzelner Methodenparameter. Diese Art von Kommentaren sollte aus Gründen der Lesbarkeit und Wartbarkeit vermieden werden. Zur Dokumentation von Methoden stellt C# in Form von Metadaten (Attribute) einen Mechanismus bereit, der es ermöglicht, eine XML-basierte Dokumentation erzeugen zu lassen. Zur Dokumentation von Typen (das heißt, Klassen und deren Elemente wie Attribute oder Methoden) steht eine spezielle Form von Zeilenkommentaren bereit. Hierzu beginnt der Zeilenkommentar mit einem weiteren, dritten Schrägstrich ("///") und befindet sich direkt über dem zu dokumentierenden Typ (z. B. einer Methode). Es folgen nun XML-Tags, die jeweils eine bestimmte Funktion bei der Dokumentation übernehmen, beispielsweise eine Zusammenfassung durch einen "Summary-Tag". /// Diese Funktion gibt den größeren Betrag zurück /// Die Zahl mit dem größeren Betrag /// Diese Funktion gibt den größeren Betrag der beiden Übergegeben zurück. /// Sind die Beträge gleich groß ist dies ein Fehler /// Der Betrag der beiden Zahlen ist gleich groß public int GetGreaterAbs(int a, int b) /// Dokumentation im XMLDoc-API-Dokumentationsformat wird vom Compiler als ein normaler Zeilenkommentar angesehen. Erst durch Angabe der Compiler-Option „/doc“ werden Kommentare, die mit drei Schrägstrichen beginnen, als XMLDoc erkannt und aus dem Quellcode in eine Datei extrahiert. Diese kann dann weiterverarbeitet werden, z. B. ähnlich wie bei Javadoc zur Erstellung einer HTML-Hilfe verwendet werden. (z. B mit) "Siehe auch:" Kommentar (Programmierung) Reservierte Schlüsselwörter. Die folgenden Bezeichner sind "reservierte Schlüsselwörter" und dürfen nicht für eigene Bezeichner verwendet werden, sofern ihnen nicht ein codice_170-Zeichen vorangestellt wird (zum Beispiel codice_171). codice_172 Kontextschlüsselwörter. Die folgenden Bezeichner sind "Kontextschlüsselwörter", das heißt innerhalb eines gültigen Kontextes – und nur dort – haben sie eine besondere Bedeutung. Sie stellen aber keine reservierten Wörter dar, das heißt außerhalb ihres Kontextes sind sie für eigene Bezeichner erlaubt. codice_173 Cholesterin. Reines Cholesterin ist ein weißer Feststoff Das Cholesterin, auch Cholesterol (gr. "cholé" ‚Galle‘ und "stereós" ‚fest‘), ist ein in allen tierischen Zellen vorkommender Naturstoff. Der Name leitet sich davon ab, dass Cholesterin bereits im 18. Jahrhundert in Gallensteinen gefunden wurde. Funktion. Cholesterin ist ein lebenswichtiges Sterol und ein wichtiger Bestandteil der Plasmamembran. Es erhöht die Stabilität der Membran und trägt gemeinsam mit Proteinen dazu bei, Signalstoffe in die Zellmembran einzuschleusen und wieder hinauszubefördern. Der menschliche Körper enthält etwa 140 g Cholesterin, über 95 % des Cholesterins befindet sich innerhalb der Zellen und Zellmembranen. Um die Zellen mit Cholesterin, welches lipophil (fettlöslich), jedoch hydrophob (in Wasser unlöslich) ist, über das Blut versorgen zu können, wird es für den Transport an Lipoproteine gebunden. Diese können von unterschiedlicher Dichte sein und werden nach ihrem Verhalten beim Zentrifugieren bzw. in der Elektrophorese unterteilt in Chylomikronen, VLDL, IDL, LDL, HDL und Lipoprotein a. Nummerierung der Kohlenstoffatome und Bezeichnung der Ringe im Steroid-Gerüst, das auch dem Cholesterin zugrunde liegt. Cholesterin dient im Körper unter anderem als Vorstufe für Steroidhormone und Gallensäuren. Für die Bildung von Hormonen wandelt das Cholesterin-Seitenkettentrennungsenzym Cholesterin zu Pregnenolon um. Dieses ist die Ausgangsverbindung, aus der der Körper die Geschlechtshormone Testosteron, Östradiol und Progesteron und Nebennierenhormone (Corticoide) wie Cortisol und Aldosteron aufbaut. Auch Gallensäuren wie Cholsäure und Glykocholsäure basieren auf der Ausgangssubstanz Cholesterin. Ein Zwischenprodukt der Cholesterinbiosynthese, das 7-Dehydrocholesterin, ist das Provitamin zur Bildung von Vitamin D durch UV-Licht. Neue Forschungen zeigen zudem, dass der Körper Cholesterin zur Biosynthese herzwirksamer Glykoside nutzt. Welche Bedeutung diese endogen synthetisierten Glykoside haben, ist noch weitgehend unbekannt. Aufgrund von Sedimentfunden mit chemischen Cholesterin-Verwandten (Sterolen) wird von einigen Forschern angenommen, dass das Cholesterinmolekül, sofern es nie anders als in belebter Materie auftrat, evolutionsgeschichtlich sehr alt sein müsse. Die Biosynthese des Moleküls könne allerdings erst funktionieren, seitdem Sauerstoff in der Atmosphäre vorhanden sei. In Bakterien und den Membranen von Mitochondrien findet sich aus diesem Grund kaum Cholesterin; Pflanzen und Pilze enthalten ebenfalls kein Cholesterin, dafür aber andere, strukturell ähnliche Sterole. Chemische Einordnung. Cholesterin ist ein polyzyklischer Alkohol. Herkömmlich wird es als zur Gruppe der Sterine (Sterole) gehörendes Steroid zu den Lipiden gerechnet. Entgegen einer verbreiteten Verwechslung ist es jedoch kein Fett. Die Steroide gehören zu den Isoprenoiden, die im Gegensatz zu den Fetten keine Ester aus Fettsäure und Alkohol sind, sondern hydrophile Pole als diverse Muster in ihrer hydrophoben Grundstruktur aufweisen können. Cholesterin ist, wie viele Substanzen, sensibel gegenüber Oxidantien. Autoxidationsprozesse können zu vielen Reaktionsprodukten führen. Bisher sind bereits über achtzig solcher Substanzen bekannt, die häufig beachtliche physiologische Wirkungen haben. Die Isolierung und Reindarstellung der Oxidationsprodukte gelingt durch chromatographische Verfahren. Ihre sichere Identifizierung erfolgt durch spektroskopische Methoden wie z. B. der Massenspektrometrie. Eine umfassende Darstellung dieser Cholesterinoxidationsproduke gibt das Werk von Leland L. Smith: "Cholesterol Autoxidation". Physiologie. Cholesterin ist ein für Menschen und Tiere lebenswichtiges Zoosterin. Beim Menschen wird Cholesterin zum Großteil (90 %) im Körper selbst hergestellt (synthetisiert), beim Erwachsenen in einer Menge von 1 bis 2 g pro Tag, und nur zu einem kleinen Teil mit der Nahrung aufgenommen. Die Cholesterinresorption liegt im Durchschnitt bei 0,1 bis 0,3 g pro Tag und kann höchstens auf 0,5 g pro Tag gesteigert werden. Das entspricht 30 bis 60 % des in der Nahrung enthaltenen Cholesterins. Alle Tiere synthetisieren Cholesterin. Ausgehend von „aktivierter Essigsäure“, dem Acetyl-CoA, wird über Mevalonsäure in vier Schritten Isopentenyldiphosphat erzeugt. Weitere drei Reaktionsschritte führen zum Squalen. Nach dem Ringschluss zum Lanosterin folgen etwa ein Dutzend enzymatischer Reaktionen, die auch parallel verlaufen können, bis schließlich Cholesterin entstanden ist. Dieser letzte Abschnitt ist nicht in allen Einzelheiten bekannt, die beteiligten Enzyme sind jedoch identifiziert. Cholesterin wird über die Leber ausgeschieden, indem es in Form von Gallensäuren über die Gallenwege in den Darm sezerniert wird (etwa 500 mg pro Tag). Gallensäuren sind für die Resorption wasserunlöslicher Nahrungsbestandteile, also auch von Cholesterin, erforderlich. Cholesterin wird durch Gallensäuren emulgiert und im Dünndarm resorbiert. Da etwa 90 % der Gallensäuren wieder aufgenommen werden, ist die Ausscheidung von Cholesterin entsprechend ineffektiv. Durch Medikamente wie Colestyramin, die Gallensäuren binden und damit ihre Wiederaufnahme erschweren, kann die Cholesterinausscheidung gesteigert werden. Allerdings wird dann die Senkung des Cholesterinspiegels durch Zunahme der LDL-Rezeptordichte auf Leberzellen und die damit gesteigerte Cholesterinaufnahme aus dem Blut in die Leber, teilweise auch durch eine vermehrte Neusynthese, ausgeglichen. Biosynthese. Die Biosynthese des Cholesterins, die insbesondere durch Arbeiten von Konrad Bloch, Feodor Lynen, George Joseph Popják und John W. Cornforth aufgeklärt wurde, geht von den Endprodukten des Mevalonatbiosyntheseweges, von Dimethylallylpyrophosphat und von Isopentenylpyrophosphat aus und benötigt 13 weitere Reaktionen. Beim Menschen sind die Leber und die Darmschleimhaut die Hauptorte der Cholesterinsynthese. Regulation. Das Gleichgewicht zwischen benötigtem, selbst produziertem und über die Nahrung aufgenommenem Cholesterin wird über vielfältige Mechanismen aufrechterhalten. Als wichtig kann dabei die Hemmung der HMG-CoA-Reduktase, des wichtigsten Enzyms der Cholesterinbiosynthese, durch Cholesterin gelten (noch stärker wird die HMG-CoA-Reduktase durch Lanosterol, eine Vorstufe von Cholesterin, gehemmt). Damit hemmen Produkte dieses Stoffwechselwegs (Cholesterinsynthese) „ihr“ Enzym; dies ist ein typisches Beispiel negativer Rückkopplung. Außerdem verkürzt sich die Halbwertszeit der HMG-CoA-Reduktase bei erhöhtem Lanosterolspiegel stark, da sie dann vermehrt an Insigs (insulininduzierte Gene) bindet, was schließlich zu ihrem Abbau im Proteasom führt. Es gibt noch viele andere, weniger direkte Regulationsmechanismen, die auf transkriptioneller Ebene ablaufen. Hier sind die Proteine SCAP, Insig-1 und -2 wichtig, die in Anwesenheit von Cholesterin, für das sie eine Bindungsstelle besitzen, über die proteolytische Aktivierung von SREBPs die Aktivität einer größeren Anzahl Gene regulieren. Auch Insulin spielt hier eine Rolle, da es u. a. die Transkription von SREBP1c steigert. Die HMG-CoA-Reduktase, das Schlüsselenzym der Cholesterinbiosynthese, kann spezifisch und effektiv durch verschiedene Substanzen gehemmt werden (beispielsweise Statine, die als HMG-CoA-Reduktase-Hemmer eine bestimmte Klasse von Medikamenten darstellen). Über den LDL-Rezeptor wird die Aufnahme in die Zelle aktiviert. Die Höhe des Cholesterinspiegels hängt vor allem von der körpereigenen Produktion ab und erst in zweiter Linie von der Zufuhr über die Nahrung. Daneben gibt es eine Vielzahl genetisch bedingter Hypercholesterinämien. Auch als Folge anderer Erkrankungen kann der Cholesterinspiegel erhöht sein (beispielsweise durch Hypothyreose, Niereninsuffizienz oder metabolisches Syndrom). Cholesterintransport (Lipoproteine). Da Cholesterin in Wasser unlöslich ist, erfolgt der Transport im Blutplasma zusammen mit anderen lipophilen Substanzen wie Phospholipiden, Triglyceriden oder Fettsäuren, mit Hilfe von Transportvesikeln, den Lipoproteinen. Das über die Nahrung zugeführte Cholesterin sowie Triglyceride werden nach der Resorption aus dem Darm von den Chylomikronen aufgenommen und von dort in die Leber transportiert. Lipoproteine verschiedener Dichte (VLDL, IDL und LDL) transportieren selbst hergestelltes und aufgenommenes Cholesterin von der Leber zu den Geweben. HDL nehmen Cholesterin aus den Geweben auf und bringen es zur Leber zurück (reverser Cholesterintransport). Das Cholesterin in den Lipoproteinen ist überwiegend mit Fettsäuren verestert. Das Spektrum dieser Fettsäuren ist in starkem Maße durch die mit der Nahrung aufgenommenen Triglyceride zu beeinflussen. Dies zeigen insbesondere Studien an Bevölkerungsgruppen mit speziellen Ernährungsformen wie z. B. Vegetarier und Veganer. Für den Abbau des LDL-Cholesterins im Blut gibt es im menschlichen Körper zwei voneinander unabhängige Wege, den LDL-Rezeptorweg und den sogenannten "Scavenger-Pathway". Der größte Teil, ca. 65 % des LDL-Cholesterins im Plasma, wird über LDL-Rezeptoren verstoffwechselt. LDL-Rezeptoren findet man in allen Zelltypen der Arterien und in Hepatozyten (Leberzellen). Neben dem LDL-Rezeptorweg werden circa 15 % des LDL-Cholesterins im Plasma über den Scavenger-Pathway in den Blutgefäßen abgebaut. Als Scavenger-Zellen werden die Makrophagen bezeichnet. Sie besitzen sogenannte Scavenger-Rezeptoren, über die chemisch modifizierte (oxidierte) LDL ungehemmt und konzentrationsunabhängig aufgenommen und gespeichert werden können. Blutspiegel. Der durchschnittliche Gesamtcholesterinspiegel wie auch die LDL- und HDL-Spiegel der gesunden Normalbevölkerung sind von Land zu Land verschieden und darüber hinaus alters- und geschlechtsabhängig. Es besteht eine positive Korrelation zwischen den Blutcholesterin-Werten und dem Body-Mass-Index. Gesamtcholesterinspiegel. Durchschnittlicher Gesamtcholesterinspiegel von erwachsenen Deutschen mittleren Alters (Daten von 2816 Teilnehmern einer von den Krankenkassen kostenlos angebotenen Gesundheitsvorsorgeuntersuchung) Generell nimmt der Gesamtcholesterinspiegel mit dem Alter deutlich zu. In der Regel ist er bei jungen Frauen etwas niedriger als bei jungen Männern. Mit zunehmendem Alter gleicht sich dieser Unterschied jedoch aus, und ältere Frauen haben schließlich im Mittel einen höheren Cholesterinspiegel als ältere Männer. Einen Sonderfall stellt die Schwangerschaft dar, in der der Gesamtcholesterinspiegel im Normalfall deutlich erhöht ist. Der durchschnittliche Gesamtcholesterinspiegel der Altersgruppe zwischen 35 und 65 Jahren in Deutschland liegt bei etwa 236 mg/dl (entspricht 6,1 mmol/l), die Standardabweichung bei ±46 mg/dl. Das bedeutet näherungsweise, dass etwa zwei Drittel der deutschen Bevölkerung in dieser Altersgruppe einen Gesamtcholesterinwert im Bereich zwischen 190 mg/dl und 282 mg/dl aufweisen und je ein Sechstel der Deutschen in dieser Altersgruppe Werte oberhalb beziehungsweise unterhalb dieses Bereichs. In manchen Teilen Chinas liegt der durchschnittliche Cholesterinwert bei 94 mg/dl mit Normwerten zwischen 70 mg/dl und 170 mg/dl, wobei die geringeren Cholesterinwerte mit einer geringeren Wahrscheinlichkeit an Herz- und Krebserkrankungen korrelieren. LDL-Cholesterinspiegel. Der LDL-Cholesterinspiegel unterliegt einer ähnlichen alters- und geschlechtsabhängigen Verteilung. Auch hier ist der altersabhängige Anstieg bei den Frauen deutlich stärker ausgeprägt als bei den Männern. Der Mittelwert der Altersgruppe zwischen 35 und 65 Jahren liegt dabei bei den deutschen Frauen bei 164 mg/dl (Standardabweichung ±44 mg/dl), bei den Männern bei 168 mg/dl (±43 mg/dl). HDL-Cholesterinspiegel. Der durchschnittliche HDL-Spiegel unterscheidet sich stärker zwischen den beiden Geschlechtern, wobei Frauen im mittleren Alter einen höheren HDL-Spiegel aufweisen als Männer. Die Altersabhängigkeit zeigt sich hier bei beiden Geschlechtern in einem Absinken ab einem Alter von etwa 55 Jahren. Der durchschnittliche HDL-Spiegel bei den deutschen Frauen in der Altersgruppe zwischen 35 und 65 Jahren liegt bei 45 mg/dl (±12 mg/dl), bei den Männern bei 37 mg/dl (±11 mg/dl). Quotienten. Auf Grundlage der vorgenannten Parameter werden gelegentlich Quotienten aus diesen Werten bestimmt. Der Mittelwert des Quotienten aus LDL- und HDL-Spiegel liegt für die deutschen Frauen zwischen 35 und 65 Jahren bei 3,9 (±1,6), bei den Männern bei 4,9 (±1,9). Die entsprechenden Durchschnittswerte für den Quotienten aus dem Gesamtcholesterin- und dem HDL-Spiegel liegen für die Frauen bei 5,7 (±2,1), für die Männer bei 7,0 (±2,3). Messung und Labor-Referenzwerte. Die Bestimmung der Konzentration von Cholesterin im Blut in medizinischen Routinelabors gehört heute zu den Bestimmungsmethoden, die in Deutschland ringversuchspflichtig sind. Ein Ringversuch ist die externe Qualitätskontrolle von Laborparametern, die von der Bundesärztekammer kontrolliert und zertifiziert wird. An die so genannten „Richtlinien der Bundesärztekammer“ (RiLiBÄK) muss sich jedes Labor in Deutschland halten. Der Referenzbereich (oftmals irreführend als „Normalwert“ bezeichnet) ist vom Messgerät und der Methode abhängig. Für die Bestimmung von Cholesterin werden in Deutschland in den meisten Labors Geräte von Roche Diagnostics (früher Boehringer Mannheim) verwendet. Auf dem Modell "Hitachi" wird als Referenzwert für das Gesamtcholesterin 110–230 mg/dl angegeben. Beim neueren Gerät "Modular" wird als Referenzbereich <240 mg/dl angegeben. Die Referenzbereiche wurden in den letzten Jahren mehrfach nach oben korrigiert. Um eine Verfälschung der Ergebnisse auszuschließen, wird die Bestimmung häufig erst 12 bis 16 Stunden nach der letzten Mahlzeit durchgeführt. Lange Zeit wurde im Labor nur das Gesamtcholesterin bestimmt, da die direkte Messung der verschiedenen Lipoproteine nicht möglich bzw. sehr aufwendig war. Das hat sich mittlerweile geändert. Das LDL-Cholesterin wird nicht direkt bestimmt, sondern aus den direkt gemessenen Werten für Gesamtcholesterin, Triglyceride und HDL nach Friedewald et al. abgeschätzt als Gesamtcholesterin minus HDL-Cholesterin minus ein Fünftel des Triglyceridwertes (alle Angaben in mg/dl). Diese Methode kann nicht angewendet werden für Triglyzeridwerte über 400 mg/dl oder bei Vorliegen einer Chylomikronämie. Verschiedene Korrekturfaktoren sind vorgeschlagen worden, um die Präzision dieser Abschätzung zu erhöhen, jedoch sind sie bisher nicht in die klinische Praxis eingegangen. Der Referenzbereich für den LDL-Cholesterinspiegel wird für Frauen und Männer zwischen 70 und 180 mg/dl angegeben. Erkrankungen. Zu den bekannten Erkrankungen im Zusammenhang mit Cholesterin gehören die familiäre Hypercholesterinämie und Gallensteine (Gallenkonkrement). Familiäre Hypercholesterinämie. Es gibt erbliche Störungen des Cholesterinstoffwechsels (familiäre Hypercholesterinämie), die unabhängig von der Nahrungsaufnahme zu stark erhöhten Cholesterinwerten im Blut führen. Bei einer der bekannten Formen der Hypercholesterinämie sind die LDL-Rezeptoren nur unvollständig ausgebildet oder fehlen ganz. Heterozygote Träger dieser Erbfaktoren sind überdurchschnittlich häufig schon in jüngeren Jahren von Herzinfarkten und anderen Gefäßkrankheiten betroffen. Gemäß einer Untersuchung aus dem Jahre 1991 gilt dies nicht mehr für ältere Personen. Hier geht die Mortalität sogar deutlich zurück und liegt nur bei 44 % gegenüber dem Standard. Die Prävalenz der häufigsten monogenetischen Hypercholesterinämie, der sogenannten autosomal dominanten familiären Hypercholesterinämie, liegt bei ca 1:500. Allerdings scheint es im Verlauf der letzten 200 Jahre eine bedeutende Variabilität in der Häufigkeit von Symptomen bei Betroffenen gegeben zu haben, was auf eine Interaktion einer veränderten Umwelt (beispielsweise Ernährung, Lebensstil) mit dem Genotyp hindeutet. Bei schwereren Ausprägungen der Hypercholesterinämie (wie der familiären Hypercholesterinämie) werden medikamentöse Therapien mit Statinen, die LDL-Apherese und teilweise auch chirurgische Therapieformen eingesetzt. Gallensteine. Cholesterin wird mit der Gallensäure im Darm vom Körper aufgenommen. Dabei wird Cholesterin emulgiert und im Dünndarm resorbiert. Die Löslichkeit von Cholesterin in der Gesamtgalle liegt bei 0,26 %. Bei einer Veränderung der Zusammensetzung der Galle kommt es zur Bildung von Cholesterinsteinen. 80 % der Gallensteine sind cholesterinreich und 50 % reine Cholesterinsteine. Die Bildung von Gallensteinen erfolgt nicht nur in der Gallenblase, sondern auch in der Leber. Weitere Krankheitsformen. Weniger bekannte Erkrankungen sind zum Beispiel die Cholesterinspeicherkrankheit (Xanthomatose oder "Hand-Schüller-Christian-Syndrom"), bei der Cholesterin krankhaft unter anderem in der Haut gespeichert wird. Mit einer Häufigkeit von ca. 1:60.000 kommt in Europa das Smith-Lemli-Opitz-Syndrom (SLO) vor. Grund für die Erkrankung mit SLO-Syndrom ist ein Defekt des letzten Enzyms des Cholesterin-Biosynthesewegs, der 7-Dehydrocholesterin-Reduktase. Das klinische Bild ist gekennzeichnet durch geistige Retardierung, Wachstumsprobleme, Entwicklungsstörungen und Gesichtsveränderungen. Weiterhin ist eine Hypocholesterinämie bekannt, bei der der Cholesterinspiegel unter 130 mg/dl im Blut vorliegt. Dies tritt vor allem bei Leberschädigung wie einer Leberzirrhose, der genetisch bedingten Tangier-Krankheit und bei Mangan­mangel auf. Dabei kann unter anderem das Vitamin E nicht mehr an seine entsprechenden Zielorte transportiert werden. Cholesterin und die koronare Herzkrankheit (KHK). Herz-Kreislauf-Erkrankungen, dabei insbesondere die koronare Herzkrankheit (KHK), lösten mit steigendem Lebensstandard im 20. Jahrhundert in den westlichen Industrienationen die Infektionskrankheiten als häufigste Todesursache ab. In den 1950er-Jahren fand die Hypothese des amerikanischen Ernährungsforschers Ancel Keys große Beachtung, diese Entwicklung sei zusätzlich dadurch begünstigt, dass der steigende Wohlstand mit einer zu fetthaltigen Ernährung einhergehe. Insbesondere führe eine cholesterinreiche Ernährung (in erster Linie Fleisch, Hühnerei, Milch, Butter und andere Milchprodukte) zu einem erhöhten Cholesterinspiegel. Der erhöhte Cholesterinspiegel wiederum führe zu Arteriosklerose, welche die häufigste Ursache von Herzinfarkten ist. Die Aufnahme von cholesterinhaltiger Nahrung sei somit eine von vielen Ursachen für einen Herzinfarkt. Diese These ist umstritten. "Siehe auch:" Kritik. Bedeutung der Hypothese. Die Hypothese, cholesterinreiche Ernährung und ein hoher Blut-Cholesterinspiegel spielten eine ursächliche Rolle bei der Entstehung von Herzinfarkten, hat in den vergangenen Jahrzehnten im wissenschaftlichen Umfeld wie in der öffentlichen Wahrnehmung große Verbreitung gefunden. Sie bildet heute in der medizinischen Praxis ein wesentliches Element der Vorbeugung von Herzinfarkten. Sie führte insbesondere in den USA, aber auch in Europa zur Verbreitung künstlich cholesterinreduzierter oder cholesterinfreier Lebensmittel (beispielsweise Margarine) und darüber hinaus zu einer routinemäßigen Verschreibung von Medikamenten zur Senkung des Cholesterinspiegels. Cholesterinsenker stellen heute das weltweit umsatzstärkste Segment des Pharmamarktes dar. Im Jahre 2004 wurden mit Cholesterinsenkern weltweit Umsätze von 27 Milliarden US-Dollar erzielt, bei einer Wachstumsrate von 10,9 %. Umsatzstärkstes Medikament ist Atorvastatin (Lipitor®, Sortis®) des US-Herstellers Pfizer, welches 2005 einen Umsatz von weltweit 12,2 Milliarden US-Dollar erzielte. Dieses Medikament spielt allerdings auf dem deutschen Markt heute keine wesentliche Rolle mehr, seit die Krankenkassen eine Festbetragsregelung für Statine eingeführt haben. Weltweit nehmen etwa 25 Millionen Menschen regelmäßig cholesterinsenkende Präparate ein. Empirisch gewonnene Hinweise. Die Cholesterin-Hypothese stützt sich ausschließlich auf empirisch gewonnene Hinweise. Es konnte jedoch bisher kein biologischer Mechanismus nachgewiesen werden, der über das Cholesterin bzw. einen erhöhten Cholesterinspiegel zur Plaquebildung führt. Zielwerte und Richtlinien. Die Hypothese, Cholesterin sei kausal verantwortlich für Herzinfarkte, führte bereits in den 1960er Jahren zu einer breit angelegten öffentlichen Informationskampagne in den USA, um die Bevölkerung vor den möglichen Gefahren eines hohen Cholesterinspiegels zu warnen. Im Jahre 1984 warnte das amerikanische Nachrichtenmagazin Time in einer Titelgeschichte vor dem Verzehr von Eiern und Wurst. Im Jahre 1985 wurde zur Ausweitung dieser Kampagne durch die American Heart Association (AHA, Amerikanischer Kardiologenverband) das "National Cholesterol Education Program" (NCEP, Nationales Cholesterin-Erziehungsprogramm) ins Leben gerufen. Das NCEP gibt seit seiner Gründung regelmäßig Empfehlungen heraus, an denen sich die Behandlung von Patienten mit hohem Cholesterinspiegel orientieren soll. In Deutschland ist die "Deutsche Gesellschaft für Kardiologie" (DGK) die entsprechende Fachgesellschaft, die eigene Zielwerte herausgibt, die aber in der Regel den amerikanischen Werten sehr ähnlich sind. Eine vergleichbare Rolle wie das NCEP übernimmt in Deutschland die industrienahe Lipid-Liga. Die grundlegenden Richtlinien der NCEP III, denen sich die europäischen und deutschen Gesellschaften angeschlossen haben, unterscheiden drei gestaffelte Risikogruppen. Zur Gruppe 1 zählen alle Patienten, die bereits eine KHK entwickelt haben oder ein vergleichbares Risiko aufweisen (dazu zählt z. B. auch eine Diabeteserkrankung). Diese Patienten haben ein 10-Jahres-Risiko für ein kardiales Ereignis von >20 %. Zur Gruppe 2 zählen die Patienten, die mindestens zwei Risikofaktoren aufweisen, zur Gruppe 3 die Patienten, die weniger als zwei Risikofaktoren aufweisen. Patienten der Gruppe 1 sollten bei LDL-Werten über 100 mg/dl Lebensstiländerungen vornehmen (Ernährung etc.), bei Werten über 130 mg/dl eine medikamentöse Therapie beginnen. Ziel sollte für sie sein, LDL-Werte unter 100 mg/dl zu erreichen. Patienten der Gruppe 2 sollten bei LDL-Werten über 130 mg/dl Lebensstiländerungen vornehmen, bei Werten über 130 mg/dl oder 160 mg/dl (abhängig von der spezifischen Risikoberechnung) eine medikamentöse Therapie beginnen. Ziel sollte sein, LDL-Werte unter 130 mg/dl zu erreichen. Patienten der Gruppe 3 sollten bei LDL-Werten über 160 mg/dl eine Lebensstiländerung vornehmen und eine medikamentöse Therapie erwägen, ab 190 mg/dl wird eine medikamentöse Therapie dringend empfohlen. Die Anwendung dieser Zielwerte wird von den deutschen Fachgesellschaften der Kardiologen und Internisten unterstützt und befürwortet. Zweifel an der Kausalkette Ernährung – Cholesterin – Koronare Herzerkrankung. Die auf der Cholesterinhypothese beruhenden Empfehlungen führen häufig dazu, dass sich gesunde Menschen prophylaktisch einer risikobehafteten, medikamentösen Therapie unterziehen oder ihre Ernährung umstellen. Auf Basis der umfangreichen Studienlage zu dieser Fragestellung wird zunehmend angezweifelt, dass ein auslösender, kausaler Zusammenhang zwischen dem Cholesterinspiegel und der Koronaren Herzkrankheit (KHK) besteht. Möglicher Einfluss wirtschaftlicher Faktoren auf Forschung, Fachgesellschaften und veröffentlichte Meinung. Der hohe Grad der Finanzierung durch Mittel der Pharmaindustrie betrifft einen Großteil der gesamten medizinischen Forschung und Entwicklung zu. Auch universitäre Institute finanzieren ihre Forschungsarbeit häufig durch Drittmittel. Einfluss auf die öffentliche Meinung und die Verordnungspraxis von Medikamenten versucht die Pharmaindustrie auch durch sogenannte „Meinungsbildner“ zu gewinnen, die Beratungs- und Vortragshonorare erhalten. Nach einer Untersuchung aus dem Jahr 2001 werden etwa 3 % des Marketingbudgets der Pharmaindustrie – im Falle von cholesterinsenkenden Präparaten entspräche dieser Anteil jährlich einem dreistelligen Euro-Millionenbetrag – in Form von substanziellen Zuwendungen an eine relativ kleine Gruppe von meist international, national oder regional bekannten Professoren ausgeschüttet. Es besteht in Deutschland keine Verpflichtung, diese finanziellen Verflechtungen transparent zu machen. Seit Januar 2006 fordert das „Deutsche Ärzteblatt“ allerdings seine Autoren auf, solche Abhängigkeiten bekanntzugeben und zu veröffentlichen, entsprechend den Gepflogenheiten in internationalen Fachpublikationen. In einer im Jahre 2005 veröffentlichten Studie kritisiert der deutsche Zweig der internationalen Anti-Korruptions-Organisation Transparency International sowohl die Abhängigkeit der medizinischen Forschung von der Pharmaindustrie als auch die nach seiner Ansicht „alltägliche Praxis der Pharmaindustrie“, sich medizinische Meinungsbildner zu „kaufen“, und spricht in diesem Zusammenhang von einer „strukturellen Korruption“. Cholesterin und Schlaganfallrisiko. Ein hoher Cholesterinspiegel wird häufig als Risikofaktor für Schlaganfälle dargestellt. Die industrienahe Lipid-Liga bezeichnet Cholesterin als einen der wichtigsten Risikofaktoren für Schlaganfälle, und gelegentlich wird Cholesterin sogar als „der wichtigste Risikofaktor“ für Schlaganfälle dargestellt, und eine Senkung des Cholesterinspiegels wird als Vorbeugemaßnahme empfohlen. Tatsächlich existiert nach Studienlage kein Zusammenhang zwischen dem Cholesterinspiegel und dem Schlaganfallrisiko, der diese Behauptung rechtfertigen würde, und eine mögliche Rolle des Serum-Cholesterins bei der Entstehung von Schlaganfällen und ein Nutzen von cholesterinsenkenden Medikamenten sind umstritten. Serum-Cholesterinspiegel und Schlaganfallrisiko. In der Framingham-Studie, der größten zu dieser Fragestellung vorliegenden Kohortenstudie, findet sich keinerlei Korrelation zwischen dem Cholesterinspiegel und dem Schlaganfallrisiko. Auch eine Metaanalyse von 45 Kohortenstudien mit insgesamt 450.000 beobachteten Individuen und über 13.000 beobachteten Schlaganfällen ergab keinerlei Korrelation zwischen dem Cholesterinspiegel und dem Schlaganfallrisiko. Allenfalls bei unter 45-jährigen Patienten besteht möglicherweise eine leichte positive Korrelation. Andere Studien zeigen bei jungen Frauen ebenfalls eine positive Korrelation zwischen dem (in diesem Alter allerdings absolut gesehen sehr geringen) Schlaganfallrisiko und dem Cholesterinspiegel, während bei älteren Frauen ab dem 50. Lebensjahr das Schlaganfallrisiko mit steigendem Cholesterinspiegel sogar sinkt. Unterscheidet man zwischen den unterschiedlichen Arten von Schlaganfällen, so sind niedrige Cholesterinspiegel mit einem leicht erhöhten Risiko für hämorrhagische Schlaganfälle verbunden, während hohe Cholesterinspiegel mit einem leicht erhöhten Risiko für ischämische Schlaganfälle einhergehen. Cholesterinsenkende Medikamente und ihr Einfluss auf das Schlaganfall-Risiko. Bis heute liegt keine randomisierte Studie vor, die dafür angelegt war, den Einfluss von Cholesterinsenkung auf das Schlaganfallrisiko zu untersuchen. Allerdings können die vorliegenden Cholesterinsenkungs-Studien zur KHK-Prävention, meist mit KHK-Hochrisikopatienten als Probanden (i. d. R. mit vorangegangenem Herzinfarkt oder Diabetes), als Grundlage für entsprechende Auswertungen herangezogen werden. In einer im Jahr 2003 veröffentlichten Meta-Analyse von 38 zufällig ausgewählten Cholesterinsenkungs-Studien mit unterschiedlichen Präparaten zeigte sich in der Behandlungsgruppe eine zwar geringe, aber statistisch signifikante relative Reduzierung der Schlaganfall-Häufigkeit um 17 Prozent, gleichzeitig jedoch eine nicht signifikante Zunahme der tödlichen Schlaganfälle um 9 Prozent. Statine sind dabei die einzige Wirkstoffgruppe, die zu einer statistisch signifikanten Reduzierung des Schlaganfallsrisikos führt. Möglicherweise ist hierfür allerdings die geringe, aber statistisch signifikant nachgewiesene blutdrucksenkende Wirkung von Statinen verantwortlich; Bluthochdruck gilt als wichtiger Schlaganfall-Risikofaktor. In der einzigen vorliegenden randomisierten Cholesterinsenkungsstudie mit älteren Patienten (PROSPER) zeigte sich ebenfalls ein Rückgang nichttödlicher ischämischer Schlaganfälle bei einer gleichzeitigen Zunahme tödlicher Schlaganfälle. In der im Jahre 2005 veröffentlichten 4D-Studie mit unter Typ2-Diabetes leidenden Dialysepatienten kam es zu einer statistisch signifikanten Verdopplung der tödlichen Schlaganfälle in der mit Statinen behandelten Gruppe (siehe Abschnitt „Studien“). Serum-Cholesterinspiegel und Krebsrisiko. Bei Krebserkrankung ist der Cholesterinspiegel zum Beispiel bei an Brustkrebs erkrankten Frauen im Vergleich zu Gesunden erhöht. Ursache dafür könnte sein, dass ein Abbauprodukt von Cholesterin, das Oxysterol, dem Östrogen sehr ähnlich ist und auch eine wachstumsfördernde Wirkung hat.E. R. Nelson, S. E. Wardell, J. S. Jasper, S... Park, S... Suchindran, M. K. Howe, N. J. Carver, R. V. Pillai, P. M. Sullivan, V... Sondhi, M... Umetani, J... Geradts, D. P. McDonnell: "27-Hydroxycholesterol Links Hypercholesterolemia and Breast Cancer Pathophysiology." In: "Science." 342, 2013, S. 1094–1098. Bei fortschreitendem Leberkrebs wird die Cholesterinbildung eingeschränkt und als Folge sinkt auch der Serum-Cholesterinspiegel. Cholesterinsenkende Medikamente und ihr Einfluss auf das Krebsrisiko. Von besonderer Bedeutung ist darüber hinaus die Fragestellung, ob eine Cholesterinsenkung eine präventive Wirkung gegenüber bestimmten Krebserkrankungen hat oder ob diese die Entstehung von Krebserkrankungen sogar begünstigt. Erhöhung des Krebsrisikos. Eine im Juli 2007 veröffentlichte Metaanalyse von prospektiven Cholesterinsenkungsstudien ergab eine signifikante Korrelation des Krebsrisikos mit der Einnahme von Statinen. Je niedriger die erzielten LDL-Cholesterinwerte, desto höher war der Anteil der Patienten, die an Krebs erkrankten. Innerhalb einer Beobachtungsdauer zwischen einem und fünf Jahren wurde in der Gruppe der Patienten mit den niedrigsten erzielten LDL-Cholesterinspiegeln etwa eine zusätzliche Krebserkrankung auf 1000 Patienten beobachtet. In der 1996 veröffentlichten CARE-Studie hatte sich ein hochsignifikanter Anstieg der Brustkrebsfälle in der mit Pravastatin behandelten Gruppe gezeigt (von 1 auf 12). In der 2002 veröffentlichten PROSPER-Studie mit einem im Vergleich zu anderen Statin-Studien vergleichsweise hohen mittleren Alter (und damit Krebsrisiko) der Probanden fand sich ein statistisch signifikanter Anstieg von Krebserkrankungen in der mit Pravastatin behandelten Gruppe. Auch in der 4S- und HPS-Studie zeigte sich jeweils ein (nicht signifikanter) Anstieg von Krebserkrankungen in der mit Simvastatin behandelten Gruppe. Senkung des Krebsrisikos. In den letzten Jahren fand auf der Grundlage verschiedener Fall-Kontroll-Studien die gegenteilige Hypothese große Beachtung, Statine hätten möglicherweise gegen verschiedene Krebserkrankungen (u. a. Prostata-Karzinom, Kolorektales Karzinom, Brustkrebs, Nierenkrebs) sogar eine vorbeugende Wirkung. Grundlage für die zum Teil euphorische Medienberichterstattung war folgende Beobachtung: Unter denjenigen Patienten, die die jeweilige Krebserkrankung entwickelt hatten, war der Anteil der Patienten, die Cholesterinsenker eingenommen hatten, niedriger als in einer Vergleichsgruppe ohne Krebserkrankung. Solche nicht randomisierten Fall-Kontroll-Studien sind allerdings statistisch nur begrenzt aussagekräftig und erlauben insbesondere keinerlei Aussage über Ursache-Wirkungsbeziehungen (siehe auch Fall-Kontroll-Studie). Der hier beobachtete Effekt kann beispielsweise auch darauf beruhen, dass Patienten mit hohem Cholesterinspiegel, die bekanntermaßen eine niedrigere Krebsrate haben, häufiger Cholesterinsenker verschrieben bekommen. Bei dieser Verschreibungspraxis würde sich auch bei einem völlig wirkungsfreien Medikament ergeben, dass diejenigen Patienten, die das Medikament einnehmen, eine niedrigere Krebsrate aufweisen. Kein Einfluss auf Krebsrisiko. Die Fragestellung, ob Statine eine präventive Wirkung gegen das Kolorektal-Karzinom haben, wurde in einer 2006 veröffentlichten Analyse einer großen Kohortenstudie geprüft. Es fand sich jedoch eine nicht signifikante Erhöhung des Krebsrisikos bei der Patientengruppe, die mit cholesterinsenkenden Mitteln behandelt worden war. Eine im selben Jahr erschienene Meta-Analyse der zahlreichen Statin-Studien kommt gleichfalls zu dem Schluss, dass eine Cholesterinsenkung mit Statinen eindeutig keine präventive Wirkung gegenüber Krebserkrankungen hat, weder auf die Gesamtheit aller Krebserkrankungen noch auf einzelne Krebsarten, die Entstehung von Krebs jedoch auch nicht statistisch signifikant begünstigt. Die eindeutig negativen Ergebnisse der beiden letztgenannten Studien lassen weitere Studien zu der erhofften krebspräventiven Wirkung von Cholesterinsenkungspräparaten nach Einschätzung von Experten nicht sinnvoll erscheinen. Cholesterin und Ernährung. Das Hühnerei wird wegen des hohen Cholesteringehalts im Eigelb häufig als „Cholesterinbombe“ angeprangert. Nach einer Diagnose eines hohen Cholesterinspiegels wird in der Regel als erste Maßnahme eine fettmodifizierte und cholesterinarme Ernährung empfohlen. Diese Empfehlung ist allerdings umstritten. Eine umfassende Darstellung zu dieser Frage wurde 1981 vom Institut für Sozialmedizin und Epidemiologie des Bundesgesundheitsamts veröffentlicht. Einfluss der Ernährung auf den Cholesterinspiegel. Kritiker halten dagegen, dass der Einfluss einer kurzfristigen Nahrungsumstellung auf den Cholesterinspiegel nur gering ist, da die Zusammensetzung der Nahrung nur einen geringen Anteil bei der Bildung von Cholesterin hat. In dem Entwurf der Ernährungsratschläge des US-Landwirtschaftsministeriums von 2015 wird zur Verringerung des Risikos für Herzinfarkte und Schlaganfälle nicht mehr von Produkten mit hohem Cholesteringehalt abgeraten, sondern von dem übermäßigen Konsum gesättigter Fettsäuren. Eine prospektive Studie, die Verbundstudie Ernährungserhebung und Risikofaktoren Analytik (VERA, von 1985 bis 1988 mit 25.000 Teilnehmern), ergab, dass auch bei verschiedenen Mengen von gesättigten, aber auch ungesättigten Fettsäuren sowohl die HDL- als auch die LDL-Werte sich, wenn überhaupt, nur minimal änderten. Dagegen wird wiederum eingewendet, die Zusammensetzung des LDLs werde ignoriert: Es gebe Hinweise, dass es einen Unterschied machen würde, mit welchen Fettsäuren (ungesättigte oder gesättigte) das Lipoprotein LDL „bestückt“ sei. Selbst wenn sich diese Zusammenhänge bestätigen sollten, bleibt unbewiesen, dass der Anteil ungesättigter Fette an der Nahrung seinerseits Einfluss auf die Zusammensetzung des LDLs hat und welche ungesättigten Fettsäuren dabei welche Wirkung haben. Bei Übergewicht treten Fettstoffwechselstörungen wie erhöhtes LDL-Cholesterin und hohe Plasma-Triglyzeride (→Hypertriglyceridämie) auf. Nach Gewichtsreduktion kann innerhalb kurzer Zeit eine Senkung des Gesamtcholesterin und des LDL-Cholesterin beobachtet werden. Im Vergleich zu anderen Lipiden am deutlichsten verringern sich die Triglyzeride unter einer Gewichtsreduktion. Es zeigte sich, dass eine Gewichtsreduktion von 7 bis 10 kg eine eindeutige Verbesserung in den Lipidparametern mit sich bringt. Zwischen dem HDL-Cholesterin und dem Körpergewicht besteht eine negative Korrelation. Bei einem Body-Mass-Index >30 werden unabhängig von Alter und Geschlecht des Betroffenen niedrigere Werte für das HDL-Cholesterin im Plasma gemessen. Beim Fasten oder einer Ernährung mit weniger als 1000 kcal pro Tag fällt der HDL-Cholesterinspiegel zunächst ab. Erst bei Gewichtskonstanz oder einem geringeren Energiedefizit steigt das HDL-Cholesterin an. Unter körperlichem Training bleibt es allerdings auch bei rascher Gewichtsreduktion konstant. Durch eine langfristige Veränderung der Fettzusammensetzung – insbesondere den teilweisen Ersatz gesättigter durch ungesättigte Fette – kann bei Männern das Risiko für Herz-Kreislauf-Erkrankungen gesenkt werden. Allerdings ist ungeklärt, welches ungesättigte Fett der ideale Ersatz ist. Bei Vegetariern und Veganern werden verringerte Cholesterinspiegel beobachtet, deren Ursache allerdings nicht geklärt ist, da dies auch ein Nebeneffekt einer anderen, insgesamt gesundheitsbewussteren Lebensweise sein könnte. Auch eine ursprünglichere Lebensweise oder genetische Dispositionen könnten für geringere Cholesterinspiegel verantwortlich sein. Dafür spricht, dass Gruppen wie die Massai oder Samburu-Männer, die sich fast ausschließlich von Milch und Fleisch ernähren, verglichen mit US-Amerikanern deutlich niedrigere Cholesterinwerte haben. Japaner, die in ihrer Heimat weniger von Arteriosklerose betroffen sind, erlitten nach ihrer Migration in die USA genauso häufig Herzinfarkte wie US-Amerikaner. Dies wird häufig als Beleg für die Richtigkeit der Cholesterinhypothese angeführt. Allerdings zeigte eine genauere Auswertung, dass dies unabhängig von der Nahrungszusammensetzung und dem ermittelten Cholesterinspiegel war. Vielmehr wirkte sich ein Beibehalten des japanischen Lebensstils, unabhängig von der Ernährung, positiv aus: Japaner, die sich so fett ernährten wie Amerikaner, jedoch ansonsten weitgehend ihre traditionelle Lebensweise beibehielten, litten seltener an Arteriosklerose – sogar seltener als Japaner, die sich weiterhin fettarm ernährten und den amerikanischen Ernährungsstil nicht übernommen hatten. Einfluss der Ernährung auf den Cholesterinspiegel durch Prostaglandine. Neben der umstrittenen These des Einflusses einer direkten Cholesterinaufnahme durch die Nahrung besteht auch ein Einfluss der Ernährung auf die Cholesterinsynthese durch die Beeinflussung der Synthese von Prostaglandinen. Prostaglandine sind Gewebshormone, die unter anderem die Synthese von Cholesterin steuern, wobei ein Prostaglandin in die eine Richtung wirkt (etwa das cholesterinsenkende Serie-1 PGE1) und ein anderes gegensätzlich (hier Serie-2 PGE2). Die Bildung von Serie-1 oder Serie-2 Prostaglandinen wiederum wird durch das Verhältnis von mehrfach ungesättigten Fettsäuren (omega-3 zu omega-6) in der Nahrung beeinflusst. Prostaglandine steuern außer der Cholesterinsynthese auch andere Faktoren der Entstehung von Arteriosklerose, so z. B. Lipoprotein(A) und Entzündungsparameter. Cholesterin und Schwangerschaft. Niedrige Cholesterinspiegel der werdenden Mutter (Gesamtcholesterin unter 160 mg/dl) sind ein Risikofaktor für Frühgeburt und niedriges Geburtsgewicht. Cholesterin und Muttermilch. Muttermilch enthält einen sehr hohen Anteil an Cholesterin (ca. 25 mg / 100 g, Kuhmilch enthält nur ca. 12 mg / 100 g). Es wird vermutet, dass der höhere Cholesterinanteil der Muttermilch dafür verantwortlich sein könnte, dass gestillte Kinder später im Mittel einen höheren IQ entwickeln, auch weil bekannt ist, dass Cholesterin beim Aufbau des Gehirns und Nervensystems eine wesentliche Rolle spielt. Babynahrungshersteller verzichten auf die Anreicherung von Muttermilch-Ersatz mit Cholesterin, vermutlich weil sie wegen negativer Assoziationen der Verbraucher mit diesem Stoff mit Absatzproblemen rechnen müssten. Cholesterin und Gewaltbereitschaft. In einer im Jahre 2005 veröffentlichten Studie zeigte sich ein statistisch signifikanter Zusammenhang zwischen einem niedrigen Gesamtcholesterinspiegel bei Kindern und Schulverweisen. Kinder und Jugendliche mit einem Gesamtcholesterinspiegel unterhalb des 25 Perzentils (<145 mg/dl) hatten eine fast dreifach erhöhte Wahrscheinlichkeit, in ihrer Schullaufbahn von der Schule verwiesen worden zu sein. Dies wird von den Autoren als weiterer Hinweis dafür gewertet, dass niedrige Cholesterinspiegel mit einer erhöhten Aggressivität im Zusammenhang stehen. Cholesterin und Depressionen. Niedrige Cholesterinspiegel haben sich in verschiedenen Studien als Risikofaktor für das Auftreten von Depressionen herausgestellt. So zeigte sich beispielsweise bei jungen, gesunden Frauen mit einem Gesamtcholesterinspiegel unterhalb von 4,14 mmol/l (160 mg/dl) ein etwa doppelt so hohes Risiko für das Auftreten von Depressionen wie bei Frauen mit mittlerem bis hohem Cholesterinspiegel. Auch die Einnahme von cholesterinsenkenden Medikamenten begünstigt offenbar die Entstehung von Depressionen. So zeigte sich in einer Studie an 234 älteren, depressiven Patienten, dass diejenigen Patienten, die Cholesterinsenker einnahmen, ein statistisch signifikant um fast 80 % erhöhtes relatives Risiko für das Auftreten eines Rückfalls hatten als Patienten ohne diese Medikation. In einer placebokontrollierten Studie an über 70-jährigen Patienten zeigte sich, dass die Stimmungslage der Patienten in der mit einem Cholesterinsenker behandelten Patientengruppe statistisch signifikant negativ beeinträchtigt war. Von möglichen positiven Auswirkungen der Statin-Einnahme auf die Psyche berichtet eine Kohortenstudie, in der Patienten, die über den Zeitraum von vier Jahren ununterbrochen Statine eingenommen hatten, mit solchen Patienten verglichen wurden, die gar nicht oder nur mit Unterbrechungen Statine eingenommen hatten. In der ersten Gruppe zeigte sich eine reduzierte Prävalenz von Depressionen, die jedoch nicht mit dem Maß der Cholesterinsenkung in Zusammenhang stand. Die Aussagekraft dieser Studie ist jedoch dadurch beeinträchtigt, dass Patienten, die zum Beispiel wegen möglicher Nebenwirkungen der Medikamenteneinnahme aus der Studie ausschieden, in der Auswertung nicht berücksichtigt werden konnten. Cholesterin und Gedächtnis. In verschiedenen Studien wurde der Einfluss einer Cholesterinsenkung auf die Gedächtnisleistung untersucht. In einer im Jahr 2000 veröffentlichten Studie an 192 gesunden Erwachsenen zeigte sich, dass sowohl die Gedächtnisleistung als auch die Aufmerksamkeit der Probanden in der mit dem Cholesterinsenker Lovastatin behandelten Gruppe signifikant schlechter ausfiel als in der Kontrollgruppe. Der Leistungsunterschied war signifikant verknüpft mit den absoluten LDL-Cholesterinwerten nach der Behandlung, d. h., niedrigere Cholesterinwerte gingen mit einer schlechteren Gedächtnisleistung einher. Auch in einer an 326 Frauen mittleren Alters durchgeführten und 2003 veröffentlichten Studie zeigte sich eine lineare Korrelation der Gedächtnisleistung mit dem LDL-Cholesterinspiegel. In einem im Jahr 2003 veröffentlichten Übersichtsartikel werden 60 Fälle von totalem Gedächtnisverlust im Zusammenhang mit einer Statin-Behandlung beschrieben. Nach Absetzen der Statin-Behandlung verschwanden in etwas weniger als der Hälfte der dokumentierten Fälle die Gedächtnisstörungen ganz oder teilweise. Cholesterinsenkung und Albträume. Niedrige Serum-Cholesterinspiegel stehen offenbar mit dem Auftreten von nächtlichen Albträumen in Verbindung. Darüber hinaus gibt es einzelne Fallberichte, in denen ein direkter Zusammenhang zwischen der Einnahme von Cholesterinsenkern und dem Auftreten von Albträumen beschrieben wurde. Cholesterinspiegelerhöhung durch Stress. In einer Studie aus dem Jahr 2005 wurde ein Zusammenhang zwischen erhöhtem psychischem Stress und einer Erhöhung des Cholesterinspiegels nachgewiesen. Dieser Zusammenhang zeigte sich sowohl kurzfristig als auch innerhalb eines Zeitraums von drei Jahren. Allerdings war die Ausprägung dieses Phänomens für verschiedene Probanden stark unterschiedlich. Die Probanden, die auch kurzfristig unter Stresseinfluss einen relativ hohen Cholesterinanstieg zeigten, hatten auch besonders hohe Anstiege über den längeren Zeitraum. Arzneimittel. Die ersten Mittel zur Senkung des Cholesterinspiegels waren Gallensäureaustauscherharze "(Cholestipol)". Später kamen dann Fibrate sowie Nikotinsäurepräparate und deren Derivate auf den Markt. Heute werden in diesem Indikationsbereich fast nur noch Statine und Cholesterinwiederaufnahmehemmer eingesetzt, in Einzelfällen noch Fibrate. Fibrate. Derzeit sind die Wirkstoffe Bezafibrat, Fenofibrat und Gemfibrozil im Einsatz. Fibrate zeichnen sich durch eine gute Triglyceridsenkung aus und werden heute deshalb vor allem bei Diabetikern eingesetzt. Statine. Als die zur Zeit wirksamsten Medikamente zur Senkung des Cholesterinspiegels gelten Statine. Sie gehören zur Gruppe der HMG-CoA-Reduktase-Hemmer (CSE-Hemmer), da sie das Schlüsselenzym der Cholesterinsynthese in der Zelle, die β-Hydroxy-β-methylglutaryl-Coenzym-A-Reduktase hemmen. Als Folge stellt die Zelle benötigtes Cholesterin nicht mehr selbst her, sondern nimmt Cholesterin aus dem Blut, über LDL-Rezeptoren, auf. Ezetimib. Der Wirkstoff Ezetimib ist ein im Darm wirkender, selektiver Cholesterinwiederaufnahmehemmer, der gezielt das Niemann-Pick C1-Like 1 (NPC1L1)-Protein blockiert. NPC1-L1 sitzt in der Membran von Enterozyten der Dünndarmwand und ist für die Aufnahme von Cholesterin und Phytosterolen aus dem Darm zuständig. PCSK9-Antikörper. Das Enzym Proproteinkonvertase Subtilisin/Kexin Typ 9 (PCSK9) ist ein wichtiger intrinsischer Determinator des LDL-Spiegels. Es bindet den LDL-Rezeptor irreversibel und vermindert daher die Resorptionsrate von LDL aus dem Blut mit entsprechend höherem LDL-Spiegel. Bei einer seltenen Gen-Variante mit verminderter PCSK9-Aktivität zeigte sich ein deutlich geringerer LDL-Spiegel mit geringerer Rate koronarer Herzerkrankungen. Dies führte zur Entwicklung spezifischer gegen PCSK9 gerichteter monoklonaler Antikörper. 2015 befinden sich mehrere Wirkstoffe in der klinischen Prüfung, bisher ist keines zugelassen. Für Alirocumab und Evolocumab als PCSK9-Inhibitoren konnte in Phase-III-Studien an fast 7.000 Patienten mit trotz Statin-Therapie erhöhtem LDL-Spiegel eine sehr gute Wirksamkeit der beiden monoklonalen Antikörper gezeigt werden. Im Mittel sank der LDL-Spiegel um 61-62 %. Bei "post hoc"-Analysen zeigte sich trotz des relativ kurzen Untersuchungszeitraums von 12 - 18 Monaten eine etwa 50%ige Reduktion schwerer kardiovaskulärer Ereignisse. Die Antikörper müssen zweiwöchentlich oder monatlich subkutan gespritzt werden. Bisher zeigten sich keine vermehrten unerwünschte Wirkungen. Mit Bococizumab befindet sich ein weiterer PCSK9-Antikörper in der Entwicklung. Studien. In zahlreichen Studien wurde die Auswirkung des Cholesterinspiegels auf die Inzidenz von Herz-Kreislauf-Erkrankungen untersucht, aber auch andere Fragen im Zusammenhang mit dem Cholesterinspiegel. Die Vielzahl der Studien macht das Heranziehen einzelner Studien zur Begründung eines Effekts grundsätzlich problematisch, da die Durchführung mehrerer Studien zur Beantwortung der gleichen Frage die vermeintliche statistische Signifikanz einer einzelnen Studie außer Kraft setzen kann. So genügen im Mittel zwanzig für sich betrachtet methodisch korrekt angelegte Studien, um einen nicht vorhandenen Effekt einmal statistisch signifikant „nachzuweisen“. Metastudien gewinnen daher im Zusammenhang mit dem Cholesterin-Thema ein besonderes Gewicht. Auch diese sind jedoch durch den sogenannten „Publikationsbias“ beeinflusst. Framingham-Studie. Eine der wegweisenden Studien auf dem Gebiet der Untersuchung von KHK-Risikofaktoren war die Framingham-Studie, die heute als die wichtigste epidemiologische Studie der USA gilt. Sie untersuchte 6000 Personen zweier Generationen in Framingham/Massachusetts. Über die Framingham-Studie wurden bis zum heutigen Tag über 1000 wissenschaftliche Publikationen erstellt. Im Rahmen dieser Studie wurde unter anderem nachgewiesen, dass Rauchen und Übergewicht wichtige KHK-Risikofaktoren sind. Es ergab sich darüber hinaus, dass bei Männern im Alter von 30 bis 59 Jahren das Auftreten von KHK entsprechend dem Cholesteringehalt im Blut erhöht ist. Bei Männern in den Dreißigern wiesen die Personen mit dem höchsten Gesamtcholesteringehalt im Blut ein viermal höheres Risiko auf als diejenigen mit dem geringsten Cholesterin. Für Frauen und für Personen über 50 Jahre zeigte sich kein solcher Zusammenhang. Eine Prüfung der Framingham-Studie im Jahre 1987 zeigte, dass bei Personen über 50 eine Absenkung des Cholesterinspiegels um 1 mg/dl zu einer Steigerung der Gesamttodesrate von 11 % und zu einer Steigerung der Todesrate durch Herzkrankheiten um 14 % führte. Metastudien. Das American National Heart, Lung and Blood-Institute führte Metastudien zum gesundheitlichen Nutzen der Cholesterinsenkung durch. 19 Studien wurden analysiert. Untersucht wurden 650.000 Menschen und 70.000 Todesfälle: Geringe Cholesterinspiegel gehen nicht mit einer allgemeinen Erhöhung der Lebenserwartung einher, sondern beziehen sich nur auf Herz-Kreislauf-Erkrankungen, sie erhöhen das Risiko von Schlaganfällen und das Krebsrisiko. Allerdings ist immer noch umstritten, wo hier Ursache und Wirkung liegen; zum Zeitpunkt der Messung könnten niedrige wie auch hohe Cholesterinspiegel auch durch (noch nicht diagnostizierte) Krankheiten im Anfangsstadium verursacht sein. Als gesichert gilt, dass sehr hohe, sehr niedrige und fallende Cholesterinspiegel mit einer erhöhten Mortalität verbunden sind, wobei unklar bleibt, ob das Cholesterin Ursache oder eben nur Indiz eines verschlechterten Gesundheitszustandes ist. CARE. Die CARE-Studie ("Cholesterol And Recurrent E'"vent Study") mit Patienten mit 3 bis 20 Monaten zurückliegenden Herzinfarkt zeigte als Folge einer LDL-Cholesterinsenkung zwischen 115 und 174 mg/dl eine statistisch nicht signifikante Reduktion von Reinfarktraten und der Frequenz des Koronartods (von 5,7 % in der Kontrollgruppe auf 4,6 % in der Behandlungsgruppe nach fünf Jahren). Der Rückgang der KHK-Toten wurde allerdings durch eine Zunahme anderer Todesursachen in der Behandlungsgruppe ausgeglichen. Bei den nicht-tödlichen Herzinfarkten und bei der Zahl der Schlaganfälle zeigten sich Vorteile in der Behandlungsgruppe. EXCEL. Die erste Statin-Studie begann 1990 unter dem Namen "Expanded Clinical Evaluation of Lovastatin (EXCEL)". An der Studie nahmen 8245 Personen mit „moderat erhöhtem“ Cholesterinspiegel teil. Die drei Behandlungsgruppen erhielten Lovastatin in unterschiedlichen Dosierungen, die Kontrollgruppe von 1.650 Patienten erhielt ein Placebo. In einer 1991 veröffentlichten ersten Auswertung der Studie zeigte sich ein Anstieg der Sterblichkeit von 0,2 % in der Kontrollgruppe auf 0,5 % im Mittel der drei Behandlungsgruppen, der grenzwertig statistisch signifikant war. Über den weiteren Verlauf der Mortalität in dieser Studie wurden vom Lovastatin-Hersteller MSD Sharp & Dohme keine Zahlen veröffentlicht. 4S. Die "Scandinavian Simvastatin Survival Study" wird kurz als 4S-Studie bezeichnet. Innerhalb der ersten fünf Behandlungsjahre wurden unter den beteiligten 4444 Patienten mit mindestens sechs Monate zurückliegenden Herzinfarkt oder stabilen Angina Pectoris in der Vorgeschichte die LDL-Cholesterinspiegel um durchschnittlich 35 % gesenkt und die HDL-Cholesterinspiegel um durchschnittlich 8 % gesteigert. Im gleichen Zeitraum wurde die KHK-Mortalität von 8,5 % auf 5,0 % gesenkt, die Rate definitiver Herzinfarkte reduzierte sich von 12,1 % auf 7,4 %. An dieser Studie gibt es erhebliche methodische Kritik, z. B. vom anzeigenfreien Arznei-Telegramm zur Bewertung von Medikamenten. Die Altersverteilung von Simvastatin- und Placebogruppe war aus den veröffentlichten Daten nicht entnehmbar, gleichzeitig traten typische altersabhängige Krankheiten in der Placebogruppe deutlich häufiger auf. Eine Standardisierung für andere gleichzeitig eingenommene Medikamente, wie z. B. Aspirin, wurde nicht vorgenommen. Darüber hinaus war das KHK-Risikoprofil der Kontrollgruppe deutlich ungünstiger. Und schließlich erschien es verdächtig, dass in einer angeblichen Doppelblindstudie bei den Patienten der Simvastatin-Gruppe die Dosis nach einem halben Jahr verdoppelt wurde, bei denen der Cholesterinspiegel nicht gesunken war. Die Autoren mussten später einräumen, dass das Patientenkollektiv nicht vollständig randomisiert war. Dennoch bestätigt das Arzneitelegramm im Jahr 2004, dass die 4S-Studie erstmals den Nachweis erbrachte, dass männliche Patienten mit Herzinfarkt oder stabiler Angina Pectoris in der Vorgeschichte von einer medikamentösen Cholesterinsenkung im Sinne einer Lebensverlängerung profitieren könnten. Dieses Ergebnis sei inzwischen durch zwei weitere Studien (HPS und LIPID) bestätigt worden. Das Fachblatt rät jedoch vom Einsatz von Statinen bei Frauen und bei über 70-Jährigen ohne arteriosklerotische Erkrankung ab. PROCAM. Die PROCAM-Studie ("Prospective Cardiovascular M'"ünster Study") begann 1979 in Münster und untersuchte fast 50.000 Angehörige von Firmen und Mitarbeitern des öffentlichen Dienstes. Sie ergab Hinweise, dass nicht nur die Höhe des Gesamtcholesterins, sondern auch das Verhältnis der verschiedenen Cholesterinfraktionen (LDL, HDL, Triglyceride) für die KHK-Risikobetrachtung ausschlaggebend sein könnte. Auf Basis der Studie wurden Risikorechner für Herzinfarkt und Schlaganfall entwickelt. LIPID. Die LIPID-Studie ("Long-Term Intervention with Pravastatin in Ischaemic D'"isease-Study") zeigte an fast 10.000 Probanden mit mindestens 3 bis 36 Monate zurückliegendem Herzinfarkt oder Krankenhausentlassung nach instabiler Angina Pectoris mit Gesamtcholesterinwerten ab 155 mg/dl und durchschnittlichen LDL-Cholesterinwerten von 150 mg/dl, dass das LDL um durchschnittlich 25 % stärker als unter Placebo gesenkt und das HDL um 5 % angehoben wurde. Dabei wurde die Gesamtsterblichkeit von 14 % auf 11 % gesenkt, die KHK-Sterblichkeit von 8,3 % auf 6,2 %. Die Wirkung hing dabei nicht vom anfänglichen Gesamt- oder LDL-Cholesterinspiegel ab. Auch andere Todesursachen, wie Krebs und Selbstmord, nahmen in der Behandlungsgruppe ab. Damit wird von Kritikern die Vergleichbarkeit der beiden Gruppen in Frage gestellt. Anders als üblich sind entsprechende Durchschnittswerte der Studie nicht zu entnehmen. HPS. In der englisch-skandinavischen Heart Protection Study ließ sich an 20.536 Patienten mit koronarer Herzkrankheit oder anderen atherosklerotischen Erkrankungen oder Hypertonie etc. eine zwar geringe, aber signifikante Senkung der Gesamtsterblichkeit von 14,7 % in der Placebogruppe auf ca. 12,9 % in der mit dem Cholesterinsenker Simvastatin behandelten Gruppe nachweisen; d. h., rund 50 Personen müssen fünf Jahre behandelt werden, um einen Todesfall zu verhindern (NNT=56). Die zur Errechnung dieser Schlussfolgerung der Studie verwendeten statistischen Methoden sind nicht unumstritten. Auch die Kosteneffizienz wurde, u. a. wegen der hohen Preise für Simvastatin, in Frage gestellt. Allerdings hat sich die Grundlage dieser Berechnungen mit Einführung der Simvastatin-Generika 2003 verändert. Ob der in der Studie erkennbare positive Effekt auf die cholesterinsenkende Wirkung oder auf andere Wirkmechanismen der Statine zurückzuführen ist, ist umstritten und Gegenstand aktueller Forschungsarbeit. 4D. In der 4D-Studie („Die Deutsche Diabetes Dialyse“-Studie) wurde erstmals die Wirkung von Atorvastatin (Lipitor/Sortis) bei der Behandlung von Dialysepatienten mit Typ-2-Diabetes untersucht, die ein sehr hohes kardiovaskuläres Risiko haben. Die placebokontrollierte Studie umfasste 1.255 Patienten, die über vier Jahre beobachtet wurden. In der Behandlungsgruppe wurde der LDL-Cholesterinspiegel im Mittel um 42 % reduziert. Es zeigte sich jedoch kein Vorteil bei den KHK-Todesfällen oder bei der Gesamtsterblichkeit. Stattdessen kam es in der Behandlungsgruppe zu einer statistisch signifikanten Verdopplung der Zahl der tödlichen Schlaganfälle. Hu 1999. Hu et al. untersuchten 1999 in ihrer Studie: „A Prospective Study of Egg Consumption and Risk of Cardiovascular Disease in Men and Women” mit über 117.000 Probanden den vermuteten Zusammenhang zwischen Eiverzehr und KHK oder Schlaganfall. Ein erhöhtes Risiko bei erhöhtem Eikonsum konnte dabei nur für Diabetiker festgestellt werden. Für die Gesamtgruppe gab es keinen signifikanten Zusammenhang. Carotid Intima-Media Thickness. Weingärtner et al. untersuchten 583 Angestellte des Universitätsklinikums des Saarlandes ohne kardiovaskuläre Erkrankungen, bzw. Lipid-senkende Medikamente bezüglich Cholesterinhomöostase (Cholesterinsynthese/Cholesterinresorption) und früher Atherosklerose. Daten dieser Studie zeigen, dass nicht nur Gesamtcholesterin und der Framingham-Risiko-Score, sondern auch Unterschiede in der Cholesterinhomöostase direkt mit Carotis Intima-Media Dicke assoziiert sind. HUNT 2. Petturson et al. werteten 2012 prospektive Daten über Todesfälle unter 52.087 norwegischen Teilnehmern der HUNT-2-Studie (Nord-Trøndelag Health Study) aus, die zum Studienbeginn keine kardiovaskulären Vorerkrankungen aufwiesen. Die Autoren untersuchten den Zusammenhang zwischen Gesamtcholesterin und verschiedenen Mortalitätsraten. Sie stellten dabei einen leicht signifikanten, jedoch invers verlaufenden Zusammenhang zwischen dem Gesamtcholesterinspiegel und der kardiovaskulären und Gesamtmortalität bei Frauen fest. Frauen mit einem Cholesterinspiegel von mehr als 7 mmol/l (270 mg/dl) wiesen das niedrigste Mortalitätsrisiko auf, jene mit einem Cholesterinspiegel von weniger als 5 mmol/l (193 mg/dl) das höchste. Bei Männern wurde das niedrigste Mortalitätsrisiko bei einem Cholesterinspiegel zwischen 5 und 5,9 mmol/l (193–228 mg/dl) ermittelt. Die Ergebnisse würden demnach gegen den Einsatz von cholesterinsenkenden Medikamenten bei Frauen sprechen. Ebenfalls ein Ergebnis der Studie war, dass die Sterblichkeit unter Rauchern zu Nichtrauchern unabhängig vom Cholesterinspiegel teils um den Faktor 3 erhöht war. Lediglich bei den rauchenden Frauen gab es bei gleichzeitig erhöhtem Cholesterinspiegel eine nochmals signifikant erhöhte Sterblichkeit. Insgesamt sprach man Cholesterin aufgrund der geringen Ausprägung der Ergebnisse eine vernachlässigbare Rolle bei der Sterblichkeit sowohl von Frauen als auch von Männern zu. Commodore 64. Der Commodore 64 (kurz C64, umgangssprachlich 64er oder „Brotkasten“) ist ein 8-Bit-Heimcomputer mit 64 KB Arbeitsspeicher. Seit seiner Vorstellung im Januar 1982 auf der "Winter Consumer Electronics Show" war der von Commodore gebaute C64 Mitte bis Ende der 1980er Jahre sowohl als Spielcomputer als auch zur Softwareentwicklung äußerst populär. Er gilt als der meistverkaufte Heimcomputer weltweit – Schätzungen der Verkaufszahlen bewegen sich zwischen 12,5 Mio. und 30 Mio. Exemplaren. Der C64 ermöglichte mit seiner umfangreichen Hardwareausstattung zu einem – nach einer teureren Einführungsphase – erschwinglichen Preis einer ganzen Generation von Jugendlichen in den 1980er Jahren erstmals Zugang zu einem für diese Zeit leistungsstarken Computer. Im Gegensatz zu modernen PCs verfügte der C64, wie es zu dieser Zeit bei Heimcomputern üblich war, über keinerlei interne Massenspeichergeräte. Alle Programme mussten von einem Steckmodul "(Cartridge)" oder von externen Laufwerken, wie dem Kassettenlaufwerk Datasette oder dem 5¼″-Diskettenlaufwerk VC1541, geladen werden. Lediglich Grundfunktionen wie der Kernal, der BASIC-Interpreter und zwei Bildschirmzeichensätze waren in drei ROM-Chips mit Speicherkapazitäten von zweimal acht und einmal vier KB gespeichert. Blinkender „Ready“-Startbildschirm des C64. Wie die oberste Bildschirmzeile anzeigt, wurde automatisch ein Interpreter für die Programmiersprache BASIC gestartet, der nun Benutzereingaben erwartet. a> sowie 5¼″-Diskette und Laufwerk VC1541 Entwicklung. a>-II-Diskettenlaufwerk und RGB-Monitor 1084S (1986), angezeigt wird der Zustand direkt nach dem Einschalten (Startschirm) "Commodore Business Machines" (CBM) hatte vor dem C64 bereits erfolgreich den Bürorechner PET 2001 und seine Nachfolger, aber auch schon den Heimcomputer VC 20 eingeführt. Firmengründer Jack Tramiel prägte die Formel "„Computer for the masses, not the classes!“" (Anspielung auf die damals dominante Position des Apple II in amerikanischen Schulen und Universitäten), was ihm mit dem C64 letztlich auch gelang. Im Januar 1981 startete die Commodore-Chipfirma MOS Technology ein Projekt, um einen neuen Grafik- und Audio-Chip für eine Spielkonsole der nächsten Generation zu entwickeln. Die Arbeit an den beiden Chips VIC II (Grafik) und SID (Audio) war im November 1981 erfolgreich abgeschlossen. Im Anschluss entwickelte der japanische Ingenieur Yashi Terakura von Commodore Japan auf Basis der beiden neuen Chips den Rechner Commodore Max (in Deutschland als VC 10 angekündigt). Dieses Projekt wurde jedoch gestrichen, kurz nachdem die ersten Commodore MAX in Japan ausgeliefert worden waren. Mitte 1981 machten Robert Russell (System-Programmierer und Entwickler des VC 20) und Robert „Bob“ Yannes (Entwickler des SID) mit der Unterstützung von Al Charpentier (Entwickler des VIC-II) und Charles Winterble (Manager von MOS Technology) dem Commodore-CEO Jack Tramiel den Vorschlag, aus den entwickelten Chips einen wirklichen Low-Cost-Rechner zu bauen, der der Nachfolger des VC 20 werden sollte. Tramiel war einverstanden und erklärte, dass der Rechner einen vergrößerten Speicher von 64 KB RAM, den vollen Adressraum von 16 Bit nutzend, haben solle. Auch wenn zu diesem Zeitpunkt 64 KB RAM noch über 100 US-Dollar kosteten, nahm er an, dass die RAM-Preise bis zur vollen Markteinführung des C64 auf einen akzeptablen Preis fallen würden. Tramiel setzte gleichzeitig das Fristende für die Präsentation des Rechners auf den Beginn der Consumer Electronics Show (CES) im Januar 1982 in Las Vegas. Die Besprechung fand im November 1981 statt, so dass den Entwicklern lediglich zwei Monate blieben, um entsprechende Prototypen des Rechners zu bauen. Das Projekt hatte zunächst den Codenamen VC-40, der in Anlehnung an das Vorgängermodell VC-20 gewählt worden war. Das Team, welches das Gerät entwickelte, bestand aus Robert Russell, Robert „Bob“ Yannes und David A. Ziembicki. Das Design des C64, Prototypen und einige Beispielsoftware wurden gerade rechtzeitig vor der CES in Las Vegas fertig, nachdem das Team die gesamte Weihnachtszeit (auch an den Wochenenden) durchgearbeitet hatte. Die 40 im Namen sollte die Textauflösung von 40 Zeichen pro Zeile kennzeichnen. Commodore legte diese Auflösung unter anderem deswegen so fest, um unter der Leistungsfähigkeit der für den professionellen Gebrauch vorgesehenen eigenen Rechner der CBM-8000-Serie zu bleiben, die zu der Zeit mit gleicher Prozessorgeschwindigkeit, kleinerer oder gleicher Speicherausstattung, nur monochromen oder deutlich eingeschränkten Farbmöglichkeiten und einem nur wenig leistungsfähigeren BASIC 4.0 angeboten wurden. Ein kennzeichnender Faktor für die professionelle Anwendbarkeit war damals die Möglichkeit, Textzeilen für die Druckausgabe in voller Breite darstellen zu können, wofür 80 Zeichen notwendig waren. Um die Neuentwicklung in das vorhandene Produktangebot einbinden zu können, entschied sich die Marketingabteilung für den Namen „C64“, was für „Consumer“ und die Größe des verwendeten Speichers in KB stehen sollte. Für den amerikanischen Markt waren bereits nach gleichem Schema benannte Modelle, der B(usiness)256 bzw. der P(ersonal Computer)128, geplant. Letzterer gehörte in die in Europa als Commodore CBM 500 veröffentlichte Reihe und ist nicht identisch mit dem später erschienenen C128. Im September 1982 kam der C64 für 595 US$ auf den amerikanischen und Anfang 1983 zum Startpreis von 1495 DM (in heutiger Kaufkraft €) auf den deutschen Markt und war in Deutschland, wie in allen wichtigen Märkten der Welt (mit Ausnahme von Japan), sehr erfolgreich. Schon 1983 sank der Preis auf 698 DM. Hauptkonkurrent war der in den USA stark vertretene "Atari 800 XL". Viele Spiele waren gleichzeitig auf einer 5¼-Zoll-Diskette für beide Systeme erhältlich, wie etwa das Computer-Rollenspiel "Alternate Reality" (Vorderseite C64, Rückseite Atari), was als Hinweis auf die Dominanz der beiden Marken angesehen werden kann. Trotz der Konkurrenz durch Atari und vieler anderer Heimcomputer in dieser Zeit (4A, Apple II, ZX81, ZX Spectrum, Dragon 32) beurteilten viele Konsumenten das Preis-Leistungs-Verhältnis des C64 zum Beginn seiner Auslieferung günstig. In Kombination mit der rasch ansteigenden Zahl an Softwaretiteln für den C64 entwickelte sich der Rechner zum Erfolg. Auch trug die Tatsache, dass der Computer nicht nur in Fachgeschäften, sondern auch in Kaufhausketten, Versandhäusern (z. B. Quelle), Supermarktketten (z. B. allkauf) und Computer-Versandhäusern (z. B. Vobis) zum Verkauf stand, dazu bei, dass das Gerät in kurzer Zeit ein voller Erfolg wurde. Mit dem Aufstieg des C64 als Heimcomputer kam auch zugleich der endgültige Fall der bis dato am weitesten verbreiteten Konsole, dem Atari VCS 2600. Commodore produzierte den C64 etwa elf Jahre lang; über 22 Millionen Stück wurden verkauft (andere Quellen geben 17 Millionen an). Damit ist der C64 der meistverkaufte Computer der Welt. In der Produktionsperiode des C64 änderte man immer wieder optische und technische Details, um moderne Fertigungsmöglichkeiten auszunutzen und Produktionskosten zu senken. Obwohl sich das Innenleben der ersten C64 deutlich von dem der letzten Version unterscheidet, war es den Entwicklern gelungen, alle Versionen von Seiten der Software beinahe hundertprozentig kompatibel zueinander zu halten – was bedeutete, dass die Leistungsdaten des Rechners während des Produktionszyklus nicht gesteigert wurden. Beispielsweise wurden das Hauptplatinenlayout mehrfach geändert sowie CPU, Grafikchip, Soundchip und andere Bauteile überarbeitet. Auch die zur Verschaltung innerhalb des Rechners notwendigen Logikchips fasste man zusammen und integrierte sie in einem Custom-Chip. Die neuen flacheren Gehäuse und hochintegrierten Platinen waren bei Bastlern unbeliebt, da sie mit internen Erweiterungen von Fremdherstellern nicht mehr kompatibel waren. Eine über Discounter vertriebene Variante kam als Aldi-C64 in Verruf, da eine Spannung an einem Erweiterungsanschluss fehlte und so mit dieser Version einige externe Geräte nicht funktionierten. Auf dem flachen Gehäuse des C64C trägt der C64 die Aufschrift "„Personal Computer“." Damit kommt zum Ausdruck, dass es als Gerät für den Gebrauch im privaten Umfeld gedacht war – nur wenige Jahre zuvor waren Computer große Maschinen, die in Rechenzentren untergebracht waren. Bei Commodore gab es Anfang der 1980er Jahre die Einteilung in die zwei Sparten „PC“ für Heimcomputer und „Systeme“ für Bürocomputer, bevor IBM mit seinem PC kam und mit dieser Sprachregelung kollidierte. Mit dem heutigen PC hatte der C64 kaum technische Ähnlichkeit. Von deutschen Anwendern wird der C64 auch „Brotkasten“ genannt, weil die ursprüngliche Gehäusevariante an einen solchen erinnert (siehe Bild in der Einleitung). Nach der Vorstellung des C64C im Jahre 1986 kehrte Commodore 1987 vorübergehend zur ursprünglichen Gehäuseform zurück. Im Jahre 1986 hatte Commodore Deutschland eine Million C64-Computer verkauft, und die Firma feierte das Ereignis mit der Herstellung einer Kleinserie von 300 vergoldeten C64, die an wichtige Personen innerhalb des Unternehmens vergeben wurden, die maßgeblich zum Erfolg des C64 beigetragen hatten. Die Feier fand am 5. Dezember 1986 im Münchner BMW-Museum statt. Die speziell in Braunschweig gefertigte "Gold Edition" wurde damals von Hand ab Nummer 1000000 beschriftet. Vom C64 gab es im Gegensatz zu anderen damaligen Heimcomputern keine Nachbauten aus Ostblock-Ländern, Lateinamerika oder Fernost. Das ist vor allem in der hochintegrierten Bauweise mit Custom-Chips und in der vertikalen Integration der Firma Commodore begründet – von der Chipfertigung über Chipdesign und Systemdesign bis zum Gehäusedesign war alles in einer Hand, wodurch diese Chips für Nachbauer nicht erhältlich waren. Prozessor. Der Prozessor ist ein 6510 (8500 beim C64C/II), eine Variante des 6502 von MOS Technology. Commodore hatte diese Firma Mitte der 1970er Jahre aufgekauft, um über ein eigenes Halbleiterwerk zu verfügen. Der 6510 besitzt im Gegensatz zum 6502 einen 6 Bit breiten bidirektionalen I/O-Port, der sich über die Speicheradressen 0 und 1 ansprechen lässt und beim C64 unter anderem dazu genutzt wird, um in einzelnen Speicherbereichen zwischen RAM, ROM und dem I/O-Bereich durch Bank Switching umzuschalten. Der Prozessor arbeitet mit einer Taktfrequenz von 0,985249 MHz in der PAL-Version und 1,022727 MHz in der NTSC-Version. Der Unterschied ergibt sich daraus, dass im C64 aus der Schwingungsfrequenz nur eines Quarz-Oszillators alle benötigten Frequenzen einfach abgeleitet werden und dass die Farbträgerfrequenzen der beiden Farbübertragungssysteme unterschiedliche Werte haben, die eingehalten werden müssen. In der NTSC-Version stehen so mehr Taktzyklen pro Rasterzeile in der Grafikausgabe zur Verfügung, und auch insgesamt ist die CPU etwas schneller. Dafür hat NTSC weniger Zeilen pro (Halb-)Bild, nur 262 im Vergleich zu 312 bei PAL. Daher müssen Programme, die den Rasterzeileninterrupt (s. u.) zur bildsynchronen Ablaufsteuerung verwenden, austauschbare Codeteile für beide C64-Versionen besitzen oder gleich in zwei verschiedenen Versionen vorliegen. RAM. Der C64 verfügt über 64 KB RAM. Davon sind 38911 Bytes für BASIC-Programme nutzbar. Die Größe des Speichers war für die damalige Zeit üppig (der zwei Jahre ältere Vorgänger VC 20 hat nur 5 KB Arbeitsspeicher, wovon für die Programmiersprache BASIC lediglich 3584 Byte nutzbar sind). Zwei Bytes (0 und 1) sind nicht für das RAM nutzbar, hier befindet sich der Prozessorport des 6510. ROM. Der C64 verfügt über 20 KB ROM. Etwa 9 KB davon enthalten in nahezu unveränderter Form den BASIC-V2-Interpreter des älteren Commodore VC 20 (erschienen 1980), der ursprünglich von der Firma Microsoft stammt. In weiteren knapp 7 KB ist ein Betriebssystem, der sogenannte Kernal, untergebracht, welcher die Tastatur, den Bildschirm, die Kassettenschnittstelle, die RS-232-Schnittstelle sowie eine serielle IEC-Schnittstelle (den CBM-Bus) zur Ansteuerung von Druckern, Diskettenlaufwerken usw. verwaltet. Auch dieses stammt ursprünglich von älteren Commodore-Maschinen und wurde an die veränderte Hardware des C64 angepasst. Die restlichen 4 KB enthalten zwei Zeichensätze à 256 Zeichen in 8×8-Matrixdarstellung für den Bildschirm. Die Zeichensätze entsprechen dem Commodore-eigenen PETSCII-Standard und enthalten deshalb keine deutschen Umlaute. Um über verschiedene Versionen hinweg auf Maschinensprachenebene kompatibel zu bleiben, war ganz am Ende des ROM-Bereichs (also kurz vor codice_1) eine Sprungtabelle angelegt, über die man die wichtigsten Betriebssystemroutinen aufrufen konnte. Commodore behielt diese Sprungtabelle vom PET 2001 bis über den C64 hinaus bei. Die Kompatibilität von Anwendungssoftware hat sich dadurch nicht besonders gesteigert, weil viele Programmierer diese kompatible Methode des Aufrufs schlichtweg ignoriert haben und sie ohnehin nur für rein textbasierte Programme brauchbar war. – Beispiel: Der Aufruf codice_2 gibt auf jedem Commodore-8-Bit-Rechner den Inhalt des Akkumulators als Zeichen auf den Bildschirm aus. Grafik. Der VIC II 8565R2 für den C64 II Da der VIC nur 14 Adressleitungen besitzt, kann er nur 16 KB des zur Verfügung stehenden Speichers auf einmal ansprechen. Die zwei fehlenden Adressbits steuert der zweite im C64 verbaute CIA6526-Chip bei. Diese vier Speicherseiten zu 16 KB verhalten sich nicht gleich – im Speicherbereich codice_3 bis codice_4 (bzw. codice_5 bis codice_6) wird vom VIC stets das Zeichengenerator-ROM ausgelesen. In diesen Bereichen können daher auch kein Bildschirmspeicher (Text oder Bitmap) und keine Spritedaten abgelegt werden. Umgekehrt muss in den beiden anderen Speicherseiten im Textmodus ein Zeichengenerator im RAM abgelegt werden. Das Farb-RAM, das aus Sicht des Hauptprozessors an den Adressen codice_7 bis codice_8 eingeblendet werden kann, ist aus Timinggründen ein einzelner 1024×4-Bit-SRAM-Chip (µPD2114), der vier eigene Dateneingänge in den VIC besitzt. Das Farb-RAM muss daher nicht in den „normalen“ VIC-Adressraum eingeblendet werden. Genau genommen besitzt der C64 damit 66048 Byte RAM. Da die letzten 24 Adressen nicht für die Farbdarstellung gebraucht werden, kann man die dahinterliegenden Speicherzellen für Sonderzwecke nutzen. Der VIC sorgt ebenfalls, wie damals für die Grafikhardware üblich, durch das regelmäßige Auslesen aller Speicherseiten für den nötigen Refresh der DRAM-Chips des C64. Der C64 ist dank der Rasterzeileninterrupts und des Grafikchipdesigns recht flexibel im Bildaufbau. Viele der hardwaretechnischen Einschränkungen können durch kreative Programmierung und Ausnutzung von vom Hersteller nicht explizit implementierten Nebeneffekten umgangen werden. So lassen sich beispielsweise verschiedene Darstellungsmodi mischen (z. B. obere Bildschirmhälfte Textdarstellung mit Scrolling, untere Bildschirmhälfte Grafik) und auch die acht Sprites mehrfach in verschiedenen Bildbereichen verwenden, so dass viele Spiele weitaus mehr als acht Sprites darstellen können. Durch Ausnutzung von undokumentierten Videochip-Eigenschaften ist auch die Verwendung von zusätzlichen Videomodi möglich, die die Beschränkungen in der Farbwahl und Auflösung teilweise aufheben. Auch der Bildschirmrahmen kann mit einigen Tricks zur Darstellung von Grafik benutzt werden. Der Basic-Interpreter stellt keine Befehle zur Programmierung der hochauflösenden Grafik bereit, so dass deren Nutzung dem normalen Anwender verschlossen bleibt. Abhilfe schaffen kommerzielle Basic-Erweiterungen wie Simons’ Basic, s. u. Ton. Klänge werden über den dreistimmig polyphonen Soundchip MOS Technology SID 6581 (buskompatibel mit der Prozessorfamilie 65xx) erzeugt, welcher dem C64 damals revolutionäre, weit über andere Heimcomputer hinausgehende Möglichkeiten zur Klangerzeugung verlieh. Spätere C64-Varianten enthielten den 8580. Der SID besitzt drei universell einsetzbare monophone Stimmen mit einer in 65536 Stufen einstellbaren Grundfrequenz von 0 bis 4000 Hz und 48 dB Aussteuerung, die "gleichzeitig" in subtraktiver Synthese vier Schwingungsformen (Dreieck, Sägezahn, Rechteck in 4096 Stufen einstellbarer Pulsbreite, sowie Rauschen) erzeugen können. Die Lautstärke jeder Stimme kann einzeln mittels dreier programmierbarer ADSR-Hüllkurvengeneratoren mit exponentiellem Kurvenverlauf eingestellt werden. Weiterhin ist eine Synchronisierung von zwei oder allen drei Oszillatoren möglich. Ein Ringmodulator ergibt weitere Effekte. Eine der Stimmen kann außerdem wahlweise ausschließlich zur Modulation der anderen Stimmen verwendet werden. Weiterhin besitzt der SID ein subtraktives Multimode-Filter (Tiefpass, Hochpass, Bandpass oder Notch Filter), durch das die internen Stimmen sowie eine über die Monitorbuchse des C64 zumischbare externe Quelle geleitet werden können. Da die Lautstärke der Tonwiedergabe in 16 Stufen eingestellt werden konnte, benutzten schon bald einige Programme den Lautstärkesteller als A-Wandler, um Samples, zum Beispiel Sprache oder Schlagzeug, wiederzugeben. Bekannte Beispiele dafür sind das Spiel zum Film „Ghostbusters“ und das Musikspiel „To Be on Top“. Die Tonqualität war dabei allerdings nicht besonders gut, außerdem gab es eine Inkompatibilität zwischen den ursprünglichen und den späteren C64-Versionen: Der später verbaute SID II (MOS 8580) schaltete seinen Ausgang nur durch, wenn auf mindestens einer Stimme ein Ton abgespielt wurde. Dadurch verringerte sich zwar das Grundrauschen bei fehlender Tonwiedergabe, reine Samples ohne Hintergrundmusik wurden nur noch sehr leise abgespielt. Neuere Programme berücksichtigten diese Tatsache, Anpassungen für ältere Software gab es in der Regel nicht. Durch geschicktes Mischen unterschiedlicher Samples war auf Softwareebene außerdem die Wiedergabe mehrerer Samples möglich; dies bedingte jedoch zwangsläufig eine Einschränkung der Wiedergabegenauigkeit (resolution) bzw. der Abspielrate (sample/playback rate), das heißt, die so erzeugten Töne waren weniger gut aufgelöst und „ungenauer“. Eine Reihe von bekannten Spielemusikprogrammierern bediente sich dieser Technik. Neben der Audiowiedergabe besaß der SID noch zwei Analogeingänge mit niedriger Abtastrate, die im C64 zum Anschluss von Paddles oder einer speziellen Maus mit Analogausgang genutzt wurden. Zum Ende der C64-Ära wurden in Bastlerkreisen Methoden entwickelt, um den C64 stereofähig zu machen. Dazu wurde ein zweiter SID eingebaut und zur Ansteuerung die Tatsache ausgenutzt, dass der Adressbereich des SID mehrfach gespiegelt ist. Durch geeignete Adresselektion konnten so beide SIDs unabhängig voneinander angesteuert werden. Diese Lösung wurde als Bauanleitung in der "64'er" beschrieben, kam jedoch nie kommerziell auf den Markt. Schnittstellen. Der C64 bietet mehrere Schnittstellen und war daher bei Hardware-Bastlern beliebt: (von links nach rechts, von der Rückseite aus gesehen) Peripherie. Für den C64 stand eine große Auswahl an Peripheriegeräten zur Verfügung. Kassettenlaufwerk 1530. Dieses auch Datasette genannte Laufwerk war die billigste Lösung für Datenspeicherung am C64. Es benutzt normale Compact Cassetten. Meist war Software auf Kassetten billiger als entsprechende Diskettenversionen. Anders als in Deutschland, wo das Diskettenlaufwerk (trotz höherer Anschaffungskosten) sehr verbreitet war, war die Datasette in Großbritannien das dominierende Datengerät, das es auch von Alternativherstellern zu erwerben gab. Lade- und Speichervorgänge geschehen sehr langsam und sind durch notwendige Spulvorgänge umständlich. Schnelllader wie Turbo Tape verringern die Ladezeiten etwa um den Faktor 10. 5¼-Zoll-Diskettenlaufwerk. Dieses Laufwerk vom Typ VC1541 war das Standardlaufwerk für den C64 und wurde vom Großteil der Benutzer verwendet. Es benutzt die damals sehr weit verbreiteten 5¼-Zoll-Disketten mit doppelter Aufzeichnungsdichte "(Double Density)." Das Laufwerk arbeitet einseitig und bietet etwa 165 kB Speicherkapazität pro Diskettenseite, angegeben werden jedoch die zur Verfügung stehenden „Blöcke“, von denen es standardmäßig 664 gibt. Um die Rückseite beschreiben zu können, muss die Diskette dem Laufwerk entnommen und gewendet werden. Dafür gab es beidseitig beschreibbare Disketten mit Aussparungen für die Schreibfreigabe auf beiden Seiten. Jedoch konnte man auch die preisgünstigeren, offiziell nur einseitig beschreibbaren Disketten auf der Rückseite beschreiben. Dazu musste jedoch vorher seitlich eine zweite Kerbe ausgestanzt werden, beispielsweise mittels eines Diskettenlochers oder mit einem Teppichmesser. Die Daten werden von den Laufwerken als schreibgeschützt erkannt, wenn diese Kerbe überklebt wird. Entsprechende Aufkleber lagen den Disketten bei. Ältere Versionen der VC1541 hatten keine Möglichkeit zu erkennen, wann der Schreib–Lese-Kopf am unteren Ende („Spur 0“) angekommen ist, und hatten deshalb eine mechanische Sperre. Das führte zu dem bekannten mechanischen „Rattern“ des Laufwerks bei der Formatierung einer Diskette, da der Schreib-Lese-Kopf so bis zu fünfmal an den Anschlag fuhr – dadurch konnte er verstellt werden. Neuere Versionen hatten eine Lichtschranke, um das Problem zu lösen; da jedoch das ROM des Laufwerks geändert wurde, führte das teilweise zu Inkompatibilitäten mit Schnellladeprogrammen und Kopierschutzmechanismen. Das Laufwerk war ein eigenständiger Computer mit eigenem Prozessor und Speicher. Anders als praktisch alle anderen Firmen hatte Commodore das DOS als ROM im Laufwerk selbst realisiert, anstatt es in den Speicher des Computers zu laden. Es gab Programme, die Teile der Rechenarbeit auf das Laufwerk auslagerten und somit eine Art Parallelprogrammierung ermöglichten; wegen des kleinen Speichers des Laufwerks war das nur sehr eingeschränkt nützlich. Ebenfalls gab es Jux-Programme, die durch kreative Programmierung des für die Schreib-Lese-Kopfbewegung zuständigen Schrittmotors sogar Musik mit dem Laufwerk erzeugten. Von dem Laufwerk wurden drei Haupt- und viele Untervarianten hergestellt. Fremdhersteller boten Klone an, die zwar preisgünstiger, aber wegen des aus Urheberrechtsgründen abweichenden ROMs meist nicht vollständig kompatibel waren. Die Geschwindigkeit der Diskettenoperationen war aufgrund des geringen Speicherausbaus der Laufwerke, der seriellen Schnittstelle sowie umständlicher Programmierung der DOS-Funktionen – das 1541-DOS wurde aus dem der Doppelprozessor-Doppelfloppies CBM 8050 abgeleitet – sehr langsam, so dass viele verschiedene Turbolader als Software- oder als Hardwarebeschleuniger entwickelt wurden. Diese Beschleuniger schrieben als erstes eigene in Assembler entwickelte Routinen in den Speicher des Laufwerks, die anschließend zusammen mit im Computer ablaufenden Routinen den Datentransfer realisierten. 3½-Zoll-Diskettenlaufwerk. Das Laufwerk vom Typ VC1581 fristete im Zusammenhang mit dem C64 aufgrund seiner Inkompatibilität zur VC1541 nur ein Schattendasein – trotz seines gegenüber der VC1541 erheblich gesteigerten Speichervermögens von 800 kB auf 3½-Zoll-DD-Disketten. Wegen Kopierschutzmaßnahmen erforderten sehr viele Programme das VC1541-Laufwerk, so dass dem Modell 1581 kein Erfolg beschert war. Wie die VC1541 war auch dieses Laufwerk technisch gesehen ein eigenständiger Computer. Weitere Peripherie. Erweiterungskarte für IDE-Laufwerke, CD-ROMs und CompactFlash-Karten für den C64. Multifunktionscartridge "The Final Cartridge 3," das über den Expansion Port angeschlossen wurde Reset-Taster zum Nachrüsten für den C64. Wobei dieser hier bei der Platinenversion ASSY250469 nur noch einen Reset für die am IEC-Port angeschlossenen Laufwerke und Drucker auslöst, jedoch nicht wie bei älteren Platinen noch für den gesamten Heimcomputer Produzierte Varianten. Intern gab es 16 verschiedene Versionen des C64-Mainboards. Vorgänger und Nachfolger. Als Tastaturcomputer ausgeführtes Nachfolgemodell Commodore 128 (1985) Der Vorgänger des C64 war der 1981 zur Marktreife gebrachte, farbfähige VC 20, von dem erstmals in der Geschichte der Mikrocomputer über eine Million Exemplare verkauft wurden. Als offizieller Nachfolger des C64 wurde 1985 der Commodore 128 auf den Markt gebracht, welcher neben dem eigenen C128-Modus über einen C64- sowie einen M-Modus verfügte. Die Produktion des Nachfolgemodells wurde jedoch wegen nicht zufriedenstellender Verkaufszahlen und hoher Produktionskosten schon 1989 und damit fünf Jahre vor dem Produktionsende des C64 eingestellt. Die ab 1984 gefertigten Modelle der Commodore-264-Serie, der C16, C116 und 4, konnten sich aufgrund ihrer Inkompatibilität zum beliebten C64 sowie bestimmter technischer Defizite auf dem Markt ebenfalls nicht durchsetzen. Noch im gleichen Jahr erfolgte die Produktionseinstellung und verbliebene Geräte wurden für Schleuderpreise verkauft. Als späten Nachfolger des C64 entwickelte Commodore den Commodore 65, der jedoch nie in Serie produziert wurde, da man dem sehr erfolgreichen Amiga 500 mit dem C65 keine Konkurrenz machen wollte. Die als Tastaturcomputer ausgeführten Einsteigermodelle der von Commodore hergestellten Amiga-Reihe, insbesondere der Amiga 500, erfreuten sich Ende der 1980er Jahre einer ähnlichen Beliebtheit als leistungsfähige Spielecomputer wie der C64, jedoch den C64 nie vom Markt verdrängen konnte. Technisch war der Amiga dem C64 überlegen, er besaß allerdings auch eine vollkommen abweichende und modernere Hardware. Commodore International musste am 29. April 1994 Insolvenz anmelden. Mit dem Hersteller Commodore verschwand gleichzeitig auch der letzte Heimcomputer C64 vom Markt, dessen Produktionseinstellung eigentlich erst für 1995 vorgesehen war. Nachbauten und Weiterentwicklungen. Während der 8-Bit-Ära gab es vom C64, anders als bei vielen Konkurrenzmodellen, keine legalen oder illegalen Nachbauten durch andere Firmen. Die vielen speziellen Chips im C64, die nur von Commodore selbst bzw. von deren Tochter MOS Technology hergestellt und die nicht an potenzielle Nachbauer verkauft wurden, verhinderten dies. Web.it. Im Jahre 1998 erschien von der belgischen Firma "Web Computers International" der "Web.it", ein PC-kompatibler Rechner mit Microsoft Windows 3.1 und vorinstalliertem C64-Emulator. Herz war ein AMD-Mikroprozessor auf 486-Basis (66 MHz), dazu kamen 32 MiByte RAM, 32 MiByte ROM. Der Web.it war zudem mit einem Webbrowser (Netscape Navigator), einem Textverarbeitungsprogramm (Lotus AmiPro) und einer Tabellenkalkulation (Lotus 1-2-3) ausgestattet. Wie beim Original-C64 befand sich der gesamte Rechner im selben Gehäuse wie die Tastatur. Die Produktion des erfolglosen Modells wurde relativ schnell wieder eingestellt. Das mag u. a. damit zusammengehangen haben, dass das Gerät nicht annähernd die notwendige Prozessorgeschwindigkeit aufwies, um einen C64 in Echtzeit zu emulieren. C-One. Jeri Ellsworth und Individual Computers entwickelten den C-One oder auch "Commodore One" als Nachfolger des C64 und bildeten die Hardware mittels FPGAs nach. Erste Platinen wurden 2003 ausgeliefert. C64 Stick/C64 DTV. Ende 2004 brachte die englische Firma "The Toy:Lobster Company" den C64 Stick – auch als C64 DTV (Direct to TV) bekannt – heraus, der auch in Deutschland erschien. Der Entwurf stammt ebenfalls von Jeri Ellsworth, es handelt sich im Wesentlichen um einen aufs nötigste reduzierten C-One. Es ist ein C64-Nachbau in Form des Joysticks Competition Pro mit 30 eingebauten Spielen (darunter mehrere Disziplinen von Summer Games, California Games sowie Pitstop, Super Cycle und Uridium). Der Anschluss erfolgt direkt an das Fernsehgerät. Begabte im Löten und technisch Bewanderte können den Joystick um weitere Joystickports sowie um 2-Port für Tastatur, IEC-Port für Drucker und Diskettenlaufwerke und Buchse für Stromanschluss erweitern. Es existieren NTSC- (seit 12/2004) und PAL-Versionen (seit 8/2005). PC im Commodore-64-Gehäuse. Im August 2010 veröffentlichte "Commodore USA" die Nachricht, die weltweiten Lizenzrechte für bisherige Commodore-Marken erworben zu haben, insbesondere für den C64 und Amiga-Computer. Im Dezember 2010 wurde ein "Commodore 64" genanntes PC-System im originalgetreuen Retro-Gehäuse angekündigt. Basis ist ein Mainboard mit einem Intel Atom D525 DualCore-Chip, nVidia ION2 Grafik, USB-Ports, Kartenleser, sowie optional DVD- oder BluRay-Laufwerk. Ein C64-Emulator und das auf Linux basierende Betriebssystem "Commodore OS 1.0" sollen nachgeliefert werden; bis zur Verfügbarkeit von Commodore OS wird der Rechner mit Ubuntu 10.10 ausgeliefert. Als zweites Neugerät wurde ein besonders schlanker Rechner mit dem Namen "VIC-Slim" vorgestellt, bei dem die gesamte Technik in einem Gehäuse mit der Größe einer Standardtastatur untergebracht ist. Ebenfalls angekündigt wurde eine neue Reihe von Amiga-Computern. Chameleon 64. Der Chameleon 64 ist ein von individual Computers entwickeltes Modul, welches an den Expansions-Port des C64 angesteckt wird und auch autark einen C64 emulieren kann. Das Modul enthält unter anderem einen VGA-Port, PS2=Anschlüsse für Maus und Tastatur und einen SD-Card-Lesegerät. Daher kann es sowohl zur Erweiterung des C64 verwendet werden (Laden und Speichern von SD-Karte, Grafikausgabe über VGA) als auch als Autonomes System verwendet werden. Anwendungssoftware. Obwohl der C64 oft als „Spielerechner“ und „Daddelkiste“ bezeichnet wurde, da der überwiegende Teil der Software Spiele waren, wurden für das Gerät – auch wegen seiner für die damalige Zeit gehobenen Hardware-Eigenschaften – auch viele „ernsthafte“ Programme produziert. Neben Office-Programmen wie der Textverarbeitung Vizawrite oder Textomat und den Tabellenkalkulationen Microsoft Multiplan und SuperCalc gab es für alle erdenklichen Anwendungen eine Vielzahl von Programmen, von denen hier stellvertretend nur einige aus dem deutschen Raum genannt seien: Für grafische Anwendungen waren Programme wie "Hi-Eddi" (für HiRes-Grafik) von Hans Haberl, "Amica Paint" von Oliver Stiller für Multicolor-Grafiken und "GIGA-CAD" von Stefan Vilsmeier für 3D-Modelle gedacht. Ebenfalls von Hans Haberl und veröffentlicht von Scanntronik waren die Desktop-Publishing-Programme Printfox und Pagefox. Letzteres wurde als Steckmodul entwickelt und enthielt eine zusätzliche Speichererweiterung, um Zeichensätze, Grafiken und Text für eine ganze DIN-A4-Seite im Speicher halten zu können. Dabei standen alle üblichen Layoutfunktionen zur Verfügung inklusive Spezialfunktionen wie Kerning. Steuerliche Absetzbarkeit des C64. Im Zusammenhang mit beruflich nutzbaren Anwendungen wurde die Anschaffung von C64-Computern auch teils als steuerlich absetzbar anerkannt. Da die Finanzämter Einschätzungen publizierten, C64-Anschaffungen seien ganz überwiegend der privaten Lebensführung zuzurechnen, wurden Nachweise zur ausschließlichen oder ganz überwiegenden beruflichen Nutzung (zeitanteilig mehr als 90 Prozent) der Commodore-Maschinerie verlangt. Lernprogramme. Auch etliche Lernprogramme wurden für den C64 produziert, wenngleich er kein typischer Rechner war, der im Schulunterricht zum Einsatz kam. Hier waren besonders der Apple II und seine Klone stark verbreitet. Neben etlichen Lernprogrammen wie Vokabeltrainern, Mathekursen und Programmen zum Erlernen des Chemielernstoffes, wurden auch Hardware-Erweiterungen angeboten, mit denen Schüler z. B. mit der Fischertechnik-Schnittstelle 30562 für den C64/VC20 die Grundzüge der Robotik erlernen konnten. Der C64 konnte auch für Lern- und Forschungszwecke genutzt werden. So tauchte das Gerät während der 1980er Jahre bei vielen Beiträgen der Jugend-forscht-Wettbewerbe als Bestandteil der Versuchsanordnungen auf. Auch in der Fliegerei wurden Programme für den C64 eingesetzt. US-Piloten konnten z. B. Flüge nach Instrumentenflugregeln (IFR) mit dem FLIGHT-SIMULATOR II von Bruce Artwick machen, die für die Verlängerung der Pilotenlizenz angerechnet wurden. Das deutsche Pendant dazu war der FLIGHT-TEACHER von Uwe Schwesig, der eine Einführung in die Fliegerei bot. GEOS. Im Jahr 1986 wurde das Betriebssystem GEOS (Graphic Environment Operating System) mit grafischer Oberfläche (GUI) für den C64 angeboten. Es wurde in mehreren Versionen veröffentlicht und enthielt sehr viele Anwendungsprogramme. Diese grafische Oberfläche erweiterte den C64 in seiner Anwendungsbreite stark. Das war nötig geworden, weil ab Mitte der 1980er Jahre grafische Oberflächen immer häufiger als Serienausstattung bei Heimcomputern zum Einsatz kamen, so z. B. beim Commodore Amiga, dem Apple Macintosh oder beim Atari ST. GEOS wird auf unterschiedlichen Plattformen bis heute (Stand 2005) gepflegt und erweitert. Allerdings ist es sehr ressourcenaufwendig, so dass sich im Besitz des Anwenderkreises von GEOS auch am häufigsten moderne Hardware wie große Speichererweiterungen, die Super-CPU oder Festplatten befinden. Darüber hinaus wurde für den C64 ein Unix-Derivat namens "LUnix" entwickelt. Aktuell weiterentwickelt wird das ebenfalls Unix-orientierte "Wings"-Betriebssystem für den C64. Neue C64-Software und C64-Hardware wird auch heute noch von verschiedenen Firmen (z. B. "Protovision") vertrieben und entwickelt. Programmiersprachen. a> für den C64. Die inversen Zeichen sind Steuercodes, meist für Cursor-, Bildschirm- und Farbanweisungen. BASIC. Das eingebaute Commodore Basic V2 bietet keinerlei Befehle, um die Grafik- und Soundmöglichkeiten des C64 anzusprechen, da diese beim VC20, von dem der Code übernommen worden war, noch nicht vorhanden waren. Das bereits vorhandene und bessere Basic 4.0 der neueren PETs wurde beim C64 nicht verwendet, da man den PETs keine interne Konkurrenz machen wollte. Über die BASIC-Befehle PEEK und POKE kann direkt auf die Hardware zugegriffen werden, weiterhin ist über den SYS-Befehl das direkte Anspringen von Systemroutinen möglich: Beispielsweise bewirkt "SYS 64738" einen Reset des C64. Sound und Grafik lassen sich nur in Assembler oder erweiterten BASIC-Varianten wie etwa Simons’ BASIC effektiv programmieren, die jedoch nicht Bestandteil des Lieferumfangs waren. Spiele für den C64 sind daher nahezu ausschließlich in Assembler programmiert. Bei späteren BASIC-Versionen, beispielsweise dem BASIC 3.5 des C16 und Plus4, ist der Befehlsvorrat wesentlich umfangreicher. Assembler. Die wichtigste und (zusammen mit dem eingebauten Basic) die am häufigsten genutzte Programmiersprache für den C64. Nur mit Assembler konnten die Fähigkeiten des Gerätes optimal genutzt werden. Es gab verschiedene Assembler-Entwicklungsumgebungen, die bekanntesten hießen TurboAss, Hypra-Ass und Giga-Ass. Für große Projekte wurden Cross-Assembler-Systeme eingesetzt. Diese bestanden aus zwei Computern, die mit einem Datenkabel verbunden waren, einem C64, auf welchem das neu entwickelte Programm getestet wurde, und einem zweiten Computer, zum Beispiel ein weiterer C64, ein Amiga oder PC, auf welchem der Quelltext geschrieben und von einem Cross-Assembler übersetzt wurde. Das machte die Programmierung weitaus komfortabler, da auf dem Test-C64 der komplette Speicher bis auf die wenigen Bytes für die Übertragungsroutine zur Verfügung stand und im Fall eines Absturzes Quelltext und Assembler nicht gelöscht wurden. Jedoch reichte schon ein einfacher Maschinensprachemonitor aus, um Software für den C64 zu entwickeln: Das wohl bekannteste Exemplar eines solchen Programmes war der Smon. Auch brachten viele Erweiterungsmodule, wie das Action Replay oder die Final Cartridge, eigene Maschinensprachemonitore mit. Pascal. Mit Oxford Pascal gab es eine Pascal-Implementierung, die in der Lage war, eigenständige Programme auf Diskette zu schreiben oder im Speicher zu halten. Sie war durchaus standard-konform. Auch von UCSD Pascal gab es eine Portierung auf den C64; sie war jedoch so umständlich und langsam, dass sie in der Praxis keine Rolle spielte. Sonstige. Zusätzlich zu den genannten Sprachen gibt es weitere Programmiersprachen, die aber eher exotisch sind. So gibt es einen C-Compiler (der allerdings nur eine Teilmenge von C implementiert), Forth und COMAL sind ebenfalls vertreten; es wurde sogar eine COBOL-Implementierung produziert. Auch Logo gibt es für den C64. Weiterhin existiert das Betriebssystem Contiki, das eine Internet- und Ethernetanbindung über den C64 erlaubt. Heute existiert mit cc65 ein leistungsfähiger Cross-Compiler für die Sprache C, der bis auf Gleitkommazahlen fast den ganzen ANSI-Standard abdeckt. Der Compiler selbst läuft auf den meisten modernen Plattformen. Spiele. Die Spiele für den C64 waren eines der besten Verkaufsargumente für den Rechner: Fast jedes bekannte Computerspiel in den 1980er und teilweise in den 1990er Jahren wurde für den C64 umgesetzt, darunter viele Arcade-Spiele, so auch Donkey Kong und Pac-Man. Schätzungen gehen von ca. 17.000 kommerziellen Spieletiteln für dieses Gerät aus, nicht mitgezählt die zahllosen Spiele, die C64-Besitzer selbst programmierten. Über 95 % aller Spiele haben eine Auflösung von 160 × 200 doppelbreiten Pixeln. Im Laufe der Jahre wurden insbesondere die Spiele immer komplexer und grafisch anspruchsvoller. Einige grafische Höhepunkte für den C64 sind u. a. das Strategiespiel Defender of the Crown oder Manfred Trenz’ Actionspiel "," deren Grafiken teilweise an Amiga-Qualität heranreichen. Andere herausragende Beispiele sind Wizball (Rahmensprites), Stunt Car Racer (3D-Grafik mit ausgefüllten Polygonen) oder die "Last-Ninja"-Trilogie. Auch die Präsentation und Animation der beliebten Sportspiele der Firma "Epyx/U.S.Gold" ("Summer Games 1+2," "Winter Games", "California Games" usw.) konnten überzeugen. Das von Nintendos Mario-Serie inspirierte Great Giana Sisters erfreute sich ebenfalls großer Popularität. Indizierung. Computerspiele waren in den 1980er Jahren ein neues Phänomen; so reagierte die Bundesprüfstelle für jugendgefährdende Medien (damals noch Bundesprüfstelle für jugendgefährdende Schriften, kurz BPJS) recht hilflos und willkürlich bei der Indizierung von C64-Spielen: Es wurden nicht nur – auch nach heutigen Maßstäben – recht brutale Spiele wie "Commando Libya" oder "Beach Head" und "Beach Head II" (mit realistischen Schreien sterbender Soldaten) indiziert, sondern auch – nach damaligen und heutigen Maßstäben – harmlose Spiele wie "River Raid" und "Blue Max", in denen auf stilisierte Flugzeuge und Panzer geschossen wurde. Das führte dazu, dass die deutsche Version des Spiels "Commando" grafisch leicht umgestaltet wurde – statt Soldaten waren in der Version namens "Space Invasion" Außerirdische die Gegner, was die BPJS nicht davon abhielt, diese ebenfalls zu indizieren. Diese Indizierungspolitik führte zu Unverständnis und zu einer generellen Ablehnung der BPJS, zumal zur damaligen Zeit sehr viele Schwarzkopien im Umlauf waren, so dass die Maßnahmen ins Leere gingen; manche indizierten Spiele (siehe Abschnitt Propaganda) waren zudem nicht im freien Handel erhältlich. Später zeigte die BPJS mehr Augenmaß bei der Indizierung. Kurioserweise landeten bei der BPJS auch eindeutig gecrackte Spiele, also Schwarzkopien, zur Bewertung auf dem Tisch. Diese Medien dürften, dem Verfahrensweg entsprechend, aus den Haushalten besorgter Eltern über die Jugendämter an die Stelle weitergeleitet worden sein. Das weitere Vorgehen entsprach den Regeln, wonach bei verdächtigen Medien und unbekanntem Autor zunächst immer eine Indizierung vorgenommen wird, um im Weiteren für Klärung zu sorgen. Dass diese Klarheit bei Cracks nicht herbeiführbar war, sollte einleuchten. So befindet sich auch heute noch das Spiel "1942 trainer" (eine gecrackte und um einen Cheat erweiterte Version des Spiels "1942") auf dem Index der nicht frei verkäuflichen Werke. Als Hersteller wird für das Medium dementsprechend auch nicht Capcom bzw. Elite als Publisher angegeben, sondern ein Unbekannter namens "Doctor Bit", unter dessen Pseudonym der Cheat veröffentlicht und in Umlauf gebracht wurde. Anzeichen für einen offenen gewerblichen Vertrieb sind nicht vorhanden, ansonsten hätte auch der Originalhersteller entsprechende Maßnahmen ergriffen. Propaganda. Schon damals erprobten politische Gruppierungen die Möglichkeit, Computerspiele für ihre Zwecke zu nutzen. Es wurden z. B. rechtsextreme Spiele unter der Hand verteilt, wie „Hitler-Diktator“, der „Anti-Türken-Test“ oder „KZ-Manager“, bei dem der Spieler die Rolle eines KZ-Verwalters übernimmt. Meist handelte es sich dabei nicht um Originalwerke, sondern um illegale Abänderungen bereits vorhandener Spiele – „Hitler-Diktator“ entstand beispielsweise aus dem legalen Spiel „Imperator“, bei dem der Spieler einen antiken römischen Kaiser spielt, indem z. B. das Wort „Sklaven“ durch „Juden“ ersetzt wurde. Allenfalls erwähnenswert ist hierzu noch das linksradikale Spiel "R.A.F.", bei dem der Spieler eine linksextremistische Terrororganisation gründet, um bekannte Personen in verschiedenen Städten zu töten. Diese Spiele wurden meist kurz nach ihrem ersten Auftauchen indiziert und im Falle der rechtsextremistischen Programme zusätzlich bundesweit eingezogen. Sie waren jedoch ohnehin nie im freien Handel erhältlich. Wie diese Medien ihren Weg zur BPJS fanden, ist nicht weiter dokumentiert. Demoszene. Der C64 trug besonders zur Entwicklung einer vielfältigen Subkultur bei, in der talentierte Programmierer Tricks entwickelten (z. B. die Ausnutzung undokumentierter Hardwarefunktionen, darunter sehr viele Tricks für den Grafikchip) um die augenscheinlichen Limitierungen des Computers zu umgehen. Teile dieser Szene leben heute noch fort (siehe auch Demoszene), oder entwickelten sich weiter zu anderen Computersystemen wie Amiga oder PC. Die Demoszene entstand in den 1980er Jahren aus der damaligen Crackerscene. Die Intros, die ursprünglich als Vorspann zwecks Präsentation der Fähigkeiten und Wiedererkennung vor gecrackte Spiele gesetzt wurden, nahmen stetig an Komplexität zu und wurden schließlich als Einzelwerke "(Demos)" ohne dazugehörige gecrackte Software veröffentlicht. Einem Außenstehenden erschließen sich die Schwierigkeiten dieser Programmierung häufig nicht, da er die Komplexität oder die laut Spezifikation eigentliche Unmöglichkeit des Effekts nicht einschätzen kann. Einige der grundlegenden Mechanismen betrafen die Nutzung des im Grafikchip integrierten sog. Rasterzeileninterrupts (Interrupt-Auslösung bei einer bestimmten Bildzeile) zur Synchronisierung von Code-Sequenzen, das ruckfreie Scrollen der Bildschirmfläche in beiden Achsen oder die Wiederverwendung von Sprites innerhalb eines Bildes. Typisches Kennzeichen waren vor allem rasante, tanzende Rollschriften, mit 16 Farben vorgetäuschte, waagerechte Zylinderformen, sowie fast immer ein üppiges akustisches Beiwerk. Die Demoszene lotete die Möglichkeiten des C64 am weitesten aus. Höhepunkte setzten Demos wie "Deus Ex Machina" der Gruppen Crest und Oxyron, "Tower Power" der Gruppe Camelot, "+H2K" der Gruppe Plush oder "Dutch Breeze" der Gruppe Blackmail sowie "Double Density" von Mr.Cursor aka Ivo Herzeg, der in der Entwicklung mitverantwortlich für bekannte PC-Spiele wie Far Cry ist. Die Website der Demogruppe Alpha Flight 1970 enthält einige Flashversionen von szenetypischen Produktionen. Ein riesiges Repertoire an Informationen zu alten wie neuen Produktionen sind in der CSDB (The C64 Scene Database) verzeichnet. Schwarzkopien. Mit dem rasanten Aufstieg des Heimcomputers in den 1980er Jahren im Allgemeinen und des C64 im Speziellen entstand auch ein Tauschmarkt für Schwarzkopien von Software für diesen Rechner. Auch Anwendersoftware, aber im überwiegenden Maße Spiele wurden zwischen den C64-Besitzern getauscht. Das war mit den ersten kommerziellen Programmen noch sehr einfach machbar. Doch schon bald versuchte die Softwareindustrie, durch verschiedene Kopierschutzmaßnahmen (mittels Datenträger, durch Papier-basierte Abfragen oder auch durch Laufzeitmaßnahmen) der Situation Herr zu werden. Das gelang kaum, da quasi gleichzeitig die Szene dafür sorgte, dass die Software einerseits mit ihren eigenen Programmen wieder kopierbar wurde; andererseits erzeugte man durch Decodieren und gezieltes Modifizieren der Originale ungeschützte Versionen, die sich mit jedem beliebigen Kopierprogramm duplizieren ließen. Es entstand eine Art „Hase und Igel“-Wettlauf zwischen der Softwareindustrie und den C64-Besitzern, in dem immer neue Kopierschutzmaßnahmen die illegale Verbreitung von Software verhindern sollten. Letztlich war jedoch fast jedes Programm für den C64 früher oder später auch als „freie“ Schwarzkopie in Umlauf. Eine erste Abmahnwelle veranlasste Ende 1992 der Rechtsanwalt Freiherr von Gravenreuth, als er über Testbesteller auf verdächtig erscheinende Kleinanzeigen in Computerzeitschriften, in denen überwiegend Privatleute inserierten, die so genannten „Tanja-Briefe“ (unter dem Pseudonym „Tanja Nolte-Berndel“ und einigen weiteren weiblichen Pseudonymen) versandte. Falls ein so Angeschriebener auf die Bitte um Softwaretausch des angeblichen Teenagers einging, wurde dieser bei entsprechender Beantwortung wegen Verstoßes gegen das Urheberrecht abgemahnt, gegebenenfalls auch angezeigt. Auch führten einige Fälle zu Hausdurchsuchungen. Es wurde mit der Zeit Brauch bei den Crackern, vor die von ihnen „geknackten“ Programme einen eigenen, mehr oder weniger aufwändigen Vorspann (sog. „Cracktro“) zu setzen. Typischerweise wurde dort in Laufschriften die eigene Coolness gepriesen, es wurden befreundete Crackergruppen gegrüßt, und zunehmend stellte man auch optisch und akustisch die eigene Programmierkunst zur Schau. Die oben beschriebene Demoszene ging zuerst aus der Verselbstständigung dieser Cracker-Vorspänne zu eigenständigen Programmen hervor, auch wenn später eine klare Abgrenzung der Demo- von der Crackerszene stattfand. Anders als in der heutigen Zeit des Internets und der Möglichkeit des Filesharings spielte sich die strafrechtliche Verfolgung der Ersteller von Schwarzkopien und der Benutzer, welche diese (meist heimlich im Freundeskreis) tauschten und weiter kopierten auf einem sehr geringen Niveau ab. Obwohl in der Cracker-Szene durchaus einzelne Verurteilungen und Hausdurchsuchungen zu vermelden waren, war das bei normalen Usern eher selten der Fall, vor allem da die Wege der illegalen Verbreitung, anders als über das moderne Internet, kaum nachvollziehbar waren. Musik. Ein 6581er- und ein 8580er-SID-Chip Der Soundchip des C64, das Sound Interface Device, war zum Verkaufsstart des C64 eine Sensation, da es bis dahin keinen vergleichbaren Heimcomputer gab, der eine solche Vielfalt an Klangvariationen bot. Durch diese technischen Möglichkeiten machten sich unzählige Programmierer daran, den C64 als Musikcomputer zu nutzen und entsprechende Musik auf ihm zu programmieren. Für den deutschen Sprachraum besonders zu erwähnen ist das komplett auf dem C64 programmierte Stück „Shades“ von Chris Hülsbeck, der mit diesem Song im Jahre 1986 den Musikwettbewerb der Fachzeitschrift 64’er gewann und damit den Grundstock für seine Karriere im Bereich der Spielevertonung legte. Weitere bekannte C64-Komponisten waren Rob Hubbard, Martin Galway, Ben Daglish, David Dunn, Markus Schneider, Stefan Hartwig, Reyn Ouwehand, Jonathan Dunn, Matt Gray, Jeroen Tel, Jens-Christian Huus (JCH) und Charles Deenen (Maniacs of Noise). Auch die professionelle Musikszene nutzte den C64 als Musikinstrument. So experimentierte der Musiker und Musikproduzent Michael Cretu in den 1980er Jahren mit den Klängen des C64 und auch die Band von Inga Rumpf setzte den C64 ein. Viele Musiker geben noch heute an, durch den C64 den ersten Zugang zu einem Synthesizer bekommen zu haben, der eine Grundlage ihrer späteren Entwicklung war, so z. B. Rick J. Jordan von der Band Scooter. In der E-Musik wurde der C64 etwa von Yehoshua Lakner eingesetzt und bewusst als „historisches Musikinstrument“ mit eingeschränkten, aber produktiven Möglichkeiten gesehen. Mitte der 1980er Jahre kamen MIDI-Sequenzer-Softwares u. a. von der Hamburger Firma Steinberg (heute mit dem Produkt "Cubase" marktbeherrschend) auf den Markt, die den C64 als Steuerzentrum für MIDI-Synthesizer und MIDI-Sampler nutzten. Mit der Software "Pro 16" von Steinberg konnte man professionelle Popmusik-Produktionen erstellen. Der C64 konnte über eine grafische Darstellung und mit manipulierbaren Zahlenwerten 16 verschiedene Instrumente (Piano, Drums, Bass usw.) gleichzeitig ansteuern. Die Taktrate und der Speicher des C64 reichten voll und ganz aus, MIDI-Instrumente nach Belieben zu steuern. Der SID des C64 wurde dabei nicht benutzt, da die Sounds nur von den Peripheriegeräten kamen. Auch in der Filmmusikszene fasste der C64 (wenn auch nur kurzzeitig) Fuß. So wurde beispielsweise der 80-minütige Dokumentarfilm über die berüchtigten Meuterer von der Bounty „Pitcairn – Endstation der Bounty“ (Regie: Reinhard Stegen) vollständig mit Musik untermalt, die auf einem C64 komponiert worden war. Damit stellte der C64 seine Praxistauglichkeit auch im Profibereich vollends unter Beweis. Der kurz darauf, Ende der 1980er Jahre aufkommende Atari ST übernahm in fast allen deutschen Musikstudios das Kommando in Sachen MIDI-Sequencing und löste den C64 im Profibereich ab. Auch in der heutigen Zeit gibt es Künstler, die einen großen Teil ihrer Klänge dem SID entnehmen. Ein gutes Beispiel hierfür ist die Minimal-Electro-Band. Skandinavische Studenten, heute bekannt als Elektron, entwickelten Ende der 1990er Jahre die SIDstation, einen professionellen MIDI-Synthesizer für Musiker, der mit einem SID als Klangerzeuger arbeitet. Das Gerät wurde in kleiner Serie gefertigt und kommerziell vermarktet. Danach waren auf dem Weltmarkt die längst nicht mehr hergestellten Chips nicht mehr verfügbar. Wer nicht auf hardwarebasierende SID-Synthesizer verzichten will, kann sich mit der MIDIbox SID V2 selbst einen eigenen SID-Synthesizer bauen. Als VST-Software gibt es "QuadraSID" von reFX, ein virtueller Synthesizer, der vier SIDs in einer MIDI-Umgebung per Software emuliert. Für alle heutigen Desktop-Betriebssysteme gibt es Emulatoren, die Originalkompositionen des C64 von damals abspielen können; eine genaue Emulation ist wegen des teilweise analogen Aufbaus des SID äußerst schwierig, besonders wenn der Filter ins Spiel kommt. Die Software "SIDPLAY" unterstützt sogar eine PCI-Karte "(HardSID)" mit einem originalen SID als Klangerzeuger. Die bekanntesten Programme, mit denen auf dem C64 Musik komponiert wurde, hießen: JCH Music Editor, Demo Music Creator (DMC), Future Composer oder Sound Monitor. Magazine. In Deutschland kamen ab Anfang der 1980er Jahre verschiedene Computermagazine speziell für den C64 auf den Markt. Am bekanntesten war die „64’er“ vom Verlag „Markt & Technik“, der Heise-Verlag gab mit der „Input 64“ ein Magazin auf einem Datenträger (Kassette und Diskette) heraus. Auch bekannt und verbreitet waren die Diskettenmagazine „Magic Disk 64“ und sein Ableger „Game On“ sowie die „RUN“. Als inoffizieller Nachfolger der 64'er erschien von 1997 bis 2006 die „Go64!“ (CSW-Verlag, Winnenden), die in der „Retro“ aufging, welche seit 2006 vierteljährlich erscheint. Des Weiteren existieren gegenwärtig noch zwei deutschsprachige Amateur-Printmagazine, die „Lotek64“ (auch als kostenlose PDF-Version im World Wide Web erhältlich) und die „Return“. In England waren „Commodore Force“ und „Commodore Format“ beliebt. Heute gibt es noch das englischsprachige Fanmagazin „Commodore Free“, das ebenfalls kostenlos als PDF erhältlich ist. Zudem erscheinen in mehr oder weniger regelmäßiger Reihenfolge Magazine auf Diskette, wie etwa die "Digital Talk", die "Mail Madness" oder das australische Diskmag "Vandalism News". Diese enthalten neben am Bildschirm zu lesenden Artikeln auch aktuelle Software, Musik und Bilder. Auch einige der damaligen Magazine, die viele verschiedene Rechnerplattformen abdeckten (wie „Happy Computer“, „Power Play“ und „ASM“) waren aufgrund des Markterfolges des C64 zunächst sehr auf diesen fixiert, was Besitzer anderer Rechner oftmals bemängelten. Inhalte aller dieser Magazine war nicht nur die Berichterstattung über neue Hard- und Software für die jeweiligen Geräte, sondern auch der seitenweise Abdruck von Listings, also von Programmtexten, die der Leser dann per Hand in den Computer abtippen konnte. Diese Art des Vertriebs von Software für den C64 war für den Besitzer, neben dem Erwerb von Kaufsoftware oder Schwarzkopien, oft der einzige Weg, an Programme zu gelangen, da es den Download über das Internet noch nicht gab. Der C64 in der DDR. Ab Ende 1985 wurde der C64 im Intershop verkauft, weitere Geräte fanden als Geschenk ihren Weg in die DDR. In normalen Geschäften war der C64 wie auch alle anderen westlichen Heimcomputer nicht erhältlich. Gelegentlich konnte der C64 dank asiatischer Gastarbeiter als Neuware im An- und Verkauf für 8.000 Mark erstanden werden. Gebrauchtpreise lagen bei 3.000 Mark für den C64 und ebenso viel für ein Diskettenlaufwerk. Bespielte Disketten und Kassetten unterlagen als Datenträger jedoch strengsten Importkontrollen, durften auch nicht als Geschenk aus dem Westen geschickt werden und waren daher ohne Beziehungen so gut wie nicht erhältlich. In der DDR versuchte man, die Bevölkerung mit eigenen Heimcomputern zu versorgen, wobei die Computer 4 vom VEB Mikroelektronik Mühlhausen sowie die Computer Robotron 1 und KC 87 ebenfalls große Verbreitung fanden. Hinsichtlich der Eignung als Konsole für Computerspiele reichten diese Modelle jedoch nicht an den C64 heran. Emulatoren. Heute gibt es etliche Commodore-64-Emulatoren, wie den VICE, den M.E.S.S., Power 64 (für Mac OS X und Mac OS 9), Frodo (u.a. für Symbian-Handys, sowie Apple iOS und Android) und den ccs64. Diese erlauben es, C64-Software auf moderneren Rechnern wie etwa einem Windows-PC auszuführen. Mit den Emulatoren kann neben Disk-Images auch Original-C64-Zubehör wie z. B. Disketten- und Datasettenlaufwerke angesteuert werden. Für die Verwendung der Datasette oder der Original-Diskettenlaufwerke sind jedoch Bastelarbeiten für Kabel notwendig, um die Geräte mit den heutigen Ports anzusteuern. Für Nutzer, die die langen Ladezeiten des C64 nicht mögen, bieten die Emulatoren einen virtuellen Lademodus. Die meiste C64-Software, die in den 1980er Jahren veröffentlicht wurde, kann auf heutigen Systemen (PC, Mac) mit Hilfe dieser Emulatoren genutzt werden. Seit dem 28. März 2008 stehen ausgewählte C64-Spiele im Download-Katalog der Wii-Konsole zur Verfügung. Culpa in contrahendo. Culpa in contrahendo (lateinisch: "Verschulden bei Vertragsschluss"), oft auch "c.i.c." abgekürzt, bezeichnet die schuldhafte Verletzung von Pflichten aus einem vorvertraglichen Schuldverhältnis. Grundlagen und Entwicklung. Als derjenige, der den Grundsatz der "culpa in contrahendo" entwickelt hat, gilt Rudolf von Jhering. Ursprünglich kannte das BGB kein Rechtsinstitut, das vorvertragliche Pflichtverletzungen regelt (so die herrschende Rechtsauffassung). Da darin eine Gesetzeslücke im BGB erkannt wurde, füllte die Rechtsprechung diese durch die Entwicklung des Rechtsinstituts der „culpa in contrahendo“. Seit der gesetzlichen Schuldrechtsmodernisierung im Jahr 2002 ist das Rechtsinstitut gesetzlich (nun Abs. 2 in Verbindung mit Abs. 1 in Verbindung mit Abs. 2 BGB) geregelt. Das „Gegenstück“ zur vorvertraglichen „culpa in contrahendo“ bildet die culpa post contractum finitum. Sie erfasst Verletzungen nachwirkender Pflichten, die erst nach der Abwicklung des Vertrags auftreten. Inhalt und Beispiele. Es geht um den Ersatz eines außervertraglichen (auch: vertragsähnlichen) (Vertrauens-) Schadens. Der Anspruch ergibt sich in besonderen Fällen eines vertrauensbildenden (Geschäfts-) Kontaktes aus der Konstruktion eines gesetzlichen Schuldverhältnisses, das sich nicht aus einem Vertrag oder den sonstigen gesetzlichen Regelungen ergibt. Dieser Kontakt kann durch die Aufnahme von Vertragsverhandlungen entstehen, unabhängig davon, ob es letztendlich zu einem Vertragsschluss kommt oder nicht. Rechtsdogmatische Begründung der c.i.c. ist, dass bereits im vorvertraglichen Bereich dem Gegenüber eine erhöhte Einwirkungsmöglichkeit auf Rechtsgüter Dritter ermöglicht wird. Deshalb wird davon ausgegangen, dass gesteigerte Schutz- und Verkehrssicherungspflichten bestehen, deren Verletzung schadensersatzpflichtig machen. Werden beispielsweise einem Unternehmensberater von einem potenziellen Mandantenunternehmen während der Akquisephase Geschäftsgeheimnisse anvertraut, kommt im Anschluss aber kein Vertrag zustande, und der Unternehmensberater veröffentlicht daraufhin die Geschäftsgeheimnisse dieses Interessenten, so liegt ein Fall der "culpa in contrahendo" vor. Aber auch in alltäglicheren Situationen erlangt dieses Institut Bedeutung: Verletzt man sich z. B. beim Bummeln im Kaufhaus, weil die Reinigungskräfte ihren Aufgaben nicht ordentlich nachgekommen sind (Salatblattfall) oder weil das Verkaufspersonal Ware unsachgemäß in einem Hochregal gelagert hat (sogenannter Linoleumrollen-Fall), so ist auch hier eine vertragliche Haftung des Kaufhausbetreibers eröffnet. Nachrangig greift zwar daneben die deliktische Haftung. Im Deliktsrecht kann sich der Geschäftsherr jedoch (anders als im Bereich des vertraglichen Schadensersatzes) gegebenenfalls von der Verantwortung für das Fehlverhalten der Angestellten exkulpieren (BGB). Dieser Umstand kann bedeutsam sein, wenn der verantwortliche Angestellte nicht konkret ermittelt werden kann oder selbst gar nicht die finanziellen Mittel besitzt, um für den Schaden aufzukommen. Der "culpa in contrahendo" kommt besondere Bedeutung dort zu, wo die vertragliche Haftung gegenüber anderen Haftungsinstituten, insbesondere gegenüber dem Deliktsrecht, einen weiterreichenden Schutz bietet. Der Vorteil besteht vor allem im Bereich der Verschuldenszurechnung (keine Exkulpationsmöglichkeiten des Haftenden, vgl. zweites Beispiel), sowie einer Vermutung dieses Verschuldens (Abs. 1 S. 2 BGB), welche dann die Gegenseite widerlegen muss (Beweislastumkehr). Auch sind über die weitergehenden Vertragspflichten reine Vermögensschäden erfasst. (vgl. im ersten Beispiel oben den besonderen Vertrauensschutz). Ausnahmsweise können auch Dritte vom Schutz der "culpa in contrahendo" erfasst werden. Dies geschieht nach den Regeln des Vertrages mit Schutzwirkung zugunsten Dritter. culpa in contrahendo nach Schweizer Recht. Die culpa in contrahendo ist im Schweizer Recht die schuldhafte Verletzung von vorvertraglichen Pflichten. Ihre Voraussetzungen sind dabei Vertragsverhandlungen, das Vorliegen eines schutzwürdigen Vertrauens, eine Pflichtverletzung sowie ein Schaden, Kausalzusammenhang und Verschulden. Die Pflichtverletzung im Besonderen leitet sich aus dem Grundsatz von Treu und Glauben ab und umfasst u.a. die Pflicht zu ernsthaften Verhandlungen. Ihrer Natur nach handelt es sich um eine eigenständige Haftungsgrundlage, welche zwischen Vertrag und Delikt angesiedelt ist. In der Schweiz hat die c.i.c. bisher jedoch noch keinen Niederschlag im Gesetz gefunden. Gemäß schweizerischer Doktrin ist die c.i.c. eine Sonderform der Vertrauenshaftung. Aus dogmatischer Sicht ist die c.i.c. im Schweizer Recht den quasivertraglichen Ansprüchen zuzuweisen, was zur Folge hat, dass das positive Vertrauensinteresse zu ersetzen ist, dem Schädiger jedoch die Herabsetzungsgründe nach Art. 44 OR sowie Art. 99 Abs. 3 OR zur Verfügung stehen. Während das Bundesgericht von einer Verjährungsfrist von 1 Jahr ausgeht (Delikt), verlangt die Lehre eine 10-jährige Verjährungsfrist (Vertrag). Das Vorliegen eines c.i.c. führt ebenfalls nicht zur Aufhebung des Vertrags, sondern nur zu den Schadenersatzfolgen. Wer als Geschädigter den Vertrag aufheben will, muss sich daher auf Übervorteilung (Art. 21 OR), Irrtum (Art. 23 OR) oder absichtliche Täuschung (Art. 28 OR) berufen. Chile. Chile (; amtlich,) ist ein Staat im Südwesten Südamerikas und liegt im Südkegel. Es erstreckt sich annähernd in Nord-Süd-Richtung zwischen den Breitengraden 17° 30′ S und 56° 0′ S; somit beträgt die Nord-Süd-Ausdehnung rund 4300 Kilometer. Dagegen erstreckt Chile sich in West-Ost-Richtung nur zwischen dem 76. und dem 64. westlichen Längengrad. Das Land grenzt im Westen und Süden an den Pazifischen Ozean, im Norden an Peru (auf einer Länge von 160 Kilometern), im Nordosten an Bolivien (861 km) und im Osten an Argentinien (5308 km). Die Gesamtlänge der Landesgrenzen beträgt 6329 Kilometer. Daneben zählen zum Staatsgebiet die im Pazifik gelegene Osterinsel (Rapa Nui), die Insel Salas y Gómez, die Juan-Fernández-Inseln (einschließlich der "Robinson-Crusoe-Insel"), die Desventuradas-Inseln sowie im Süden die Ildefonso-Inseln und die Diego-Ramírez-Inseln. Ferner beansprucht Chile einen Teil der Antarktis. Chile belegt laut UN-Bericht, gereiht nach dem Human Development Index, den 41. Platz und liegt somit innerhalb Lateinamerikas an erster Stelle. Etymologie. Die Herkunft des Wortes "Chile" ist nicht eindeutig nachgewiesen. Die verbreitetste Erklärung ist, dass sich das Wort aus der Sprache der Aymara herleitet. Dort bedeutet das Wort "chilli" „Land, wo die Welt zu Ende ist“. Dies würde durch die Tatsache unterstützt, dass die ersten Spanier, die nach Chile kamen, von den Siedlungsgebieten der Aymara aus aufbrachen. Die Spanier bezeichneten seit Anbeginn der Kolonisation Südamerikas das Land südlich der Atacamawüste mit dem Namen "Chile". In den chilenischen Schulen wird außerdem noch die Variante gelehrt, dass Chile die lautmalerische Bezeichnung eines Vogels namens "Trile" sein könnte. Eine weitere, wenig verbreitete Theorie nennt die Inka-Sprache Quechua als Ursprung. Die maximale Ausdehnung des Inkareichs reichte bis zum Gebiet des heutigen Santiago, woraufhin die Inka das Land südlich des Río Aconcagua in Anlehnung an das relativ kalte Klima und die schneebedeckten Anden "tchili" nannten, was Schnee bedeutet. Als gesichert hingegen gilt, dass die Landesbezeichnung "Chile" nicht auf die (spanisch gleichnamige) Chilischote zurückzuführen ist. Dieses Wort stammt aus der mittelamerikanischen Aztekensprache Nahuatl. Die Chili (und die daraus gemachte Salsa) heißt im chilenischen Spanisch "ají" (siehe auch: Beispiele für Unterschiede im Wortschatz). Physische Geographie. Chile erstreckt sich auf dem südamerikanischen Kontinent über 4275 Kilometer in Nord-Süd-Richtung entlang der Anden und des Pazifischen Ozeans (zählt man den antarktischen Teil hinzu, circa 8000 Kilometer), ist aber durchschnittlich nur circa 180 Kilometer breit. Die engste Stelle im kontinentalen Chile (ohne Antarktis) beträgt 90 Kilometer, die breiteste Stelle etwa 440 Kilometer. Die Längenausdehnung Chiles entspricht auf Europa und Afrika übertragen in etwa der Entfernung zwischen der Mitte Dänemarks und der Sahara. Aufgrund der langen Nord-Süd-Ausdehnung über mehr als 39 Breitengrade, aber auch der beträchtlichen Höhenunterschiede in West-Ost-Richtung weist Chile eine große Vielfalt an Klima- und Vegetationszonen auf. Plattentektonische Situation. Chile liegt an der Grenze mehrerer Lithosphärenplatten: unter die Südamerikanische Platte wird bis zum Golf von Penas die Nazca-Platte subduziert, südlich davon bis zur Magellanstrasse mit geringerer Geschwindigkeit die Antarktische Platte. Durch die Magellanstrasse verläuft in ost-westlicher Richtung die Grenze zwischen der Südamerikanischen und der Scotia-Platte. Dies ist die Ursache des ausgeprägten Vulkanismus in Chile und der regelmäßig auftretenden, zum Teil massiven Erdbeben. Das erste dokumentierte Beben war das große Erdbeben von Concepción im Jahre 1570. Das Erdbeben von Valdivia 1960, dessen Tsunami im gesamten zirkumpazifischen Raum schwere Schäden verursachte, war das Beben mit der weltweit größten jemals aufgezeichneten Magnitude. → "Siehe auch: Liste von Erdbeben in Chile" Reliefgeologie. Stark vereinfacht besteht Mittel- und Südchile aus zwei parallelen Gebirgszügen mit Nord-Süd-Verlauf: den Anden im Osten und dem niedrigeren Küstenbergzug (Küstenkordillere, "Cordillera de la Costa") im Westen. Dazwischen liegt das Zentraltal ("Valle Central" oder "Valle Longitudinal") mit dem Hauptteil der Bevölkerung, des Ackerlands und des Weinbaus. Die Höhe von Kordillere, Zentraltal und Anden nimmt im Mittel von Norden nach Süden ab, so dass das Zentraltal südlich der Stadt Puerto Montt, die etwa 1.000 Kilometer südlich von Santiago liegt, unter den Meeresspiegel abtaucht. Die Küstenkordillere, von der nur noch die Bergspitzen aus dem Wasser ragen, wird gleichzeitig zur Inselkette. In dieser Region lässt sich deswegen eine einzigartige Fjord- und Insellandschaft entdecken. Im Norden Chiles dagegen gibt es kein ausgeprägtes Zentraltal, das heißt, die Landschaft steigt von der Küste kommend zunächst steil an und bildet dann mit der Pampa del Tamarugal ein etwa 1000 bis 1500 Meter hohes Plateau bis zum Fuße der Anden. Die chilenischen Anden, die nur an wenigen Stellen die 2000-Meter-Höhenlinie unterschreiten, unterteilen sich hinsichtlich ihrer geologisch-tektonischen Struktur von Nord nach Süd in vier größere Blöcke. Der Übergangsbereich zwischen Küstenkordillere und den Anden lässt sich in zwei Bereiche untergliedern: die "Pampa del Tamarugal" im Norden und das "Valle Longitudinal" im zentralen und südlichen Bereich. Beide sind ausgeprägte Graben-Systeme. Die "Pampa del Tamarugal" erstreckt sich direkt entlang der nördlichen Vulkankette, während das etwas tiefer gelegene "Valle Longitudinal" der südlichen Vulkankette folgt und bei Puerto Montt (41° 30′ S) ins Meer abtaucht. Die Küstenkordillere erstreckt sich mit einer kurzen Unterbrechung südlich der Insel Chiloé über die gesamte Westseite des Landes. Sie steigt im Norden des Landes zwischen Arica und Chañaral (26. Breitengrad) als Steilküste unmittelbar auf 1000 m ü. M. (stellenweise über 2000 m) an. Da die wenigen Flüsse in diesem Raum aufgrund des extrem ariden Klimas nicht die Kraft zum Durchbruch haben, wird sie hier nur von wenigen Tälern durchschnitten. Die Talsysteme häufen sich erst südwärts von Chañaral. Das Küstengebirge flacht nach Süden hin ab und erreicht im Kleinen Süden schließlich nur noch an wenigen Stellen Höhen über 1000 m. Die Küstenkordillere setzt sich ab dem 44. Breitengrad (Chonos-Archipel) als Inselkette fort. Berge. Die chilenischen Anden bilden einen der höchsten Gebirgszüge der Welt und weisen eine Vielzahl von Gipfeln über 6000 m auf. Unter ihnen befindet sich der höchste Berg Chiles, der Ojos del Salado (6893 m), welcher gleichzeitig der höchste Vulkan der Welt ist. Flüsse und Seen. Zu den chilenischen Seen zählen im Norden die Salzseen, deren größter und bekanntester der Salar de Atacama (3000 Quadratkilometer) ist. Ganz im Norden liegt der 21,5 Quadratkilometer große Lago Chungará auf rund 4500 Meter Höhe, einer der höchstgelegenen Seen der Welt. Naturräumliche und klimatische Gliederung. Chile liegt auf der Südhalbkugel, weshalb die Jahreszeiten um ein halbes Jahr im Vergleich zur Nordhalbkugel verschoben sind. Das Land lässt sich klimatisch in drei Zonen einteilen: Nord-, Mittel- und Südchile. Nordchile (genannt „großer Norden“) besitzt viele Berge, die über hoch sind. Zwischen der Küste und der westlichen Anden-Hauptkette erstreckt sich die Atacamawüste. Diese Wüste ist eines der trockensten Gebiete der Erde; oft fällt jahrelang kein Regen. Die Wüste war in der Vergangenheit für ihre großen Salpetervorkommen bekannt, während dort heute vor allem Kupfer gefördert wird. Die größte und wichtigste Stadt dieser Region ist die Hafenstadt Antofagasta (310.000 Einwohner). In Mittelchile herrscht ein dem Mittelmeerraum vergleichbares Klima. Diese Region ist sehr fruchtbar und dicht besiedelt. Hier befindet sich die Hauptstadt Santiago de Chile mit rund 5,5 Millionen Einwohnern. Daneben sind Valparaíso (Seehafen und Parlamentssitz, 280.000 Einwohner), Viña del Mar (beliebter Urlaubsort, 320.000 Einwohner) und Concepción (Zentrum der Landwirtschaft und Industrie, 216.000 Einwohner) von Bedeutung. Der Raum nördlich von Santiago wird „kleiner Norden“, der südlich von Santiago „kleiner Süden“ genannt. Das sehr dünn besiedelte Südchile (genannt „großer Süden“) ist eine äußerst niederschlagsreiche Region. Die Küste ist durch eine Vielzahl vorgelagerter Inseln stark zerklüftet. Südlich des Festlandes befindet sich die Insel Feuerland, die sich Chile mit dem Nachbarland Argentinien teilt. Auf der Feuerland vorgelagerten Insel Isla Hornos befindet sich Kap Hoorn, der südlichste Punkt Chiles und Südamerikas. Insgesamt wird das Klima Chiles stark durch den Humboldt-Meeresstrom entlang der Küste beeinflusst. Dieser fließt von Süden nach Norden und transportiert kaltes Meereswasser aus der Antarktis. Während zum Vergleich Nordeuropa vom warmen Golfstrom profitiert, liegen die Wassertemperaturen in Chile bei analogem Breitengrad (Nord-/Südkoordinate) deutlich niedriger. In Punta Arenas (Südchile) – das etwa gleich weit vom Äquator entfernt liegt wie Hamburg – beträgt die mittlere Tagestemperatur im Sommer 12 Grad Celsius. Eine Besonderheit des chilenischen Klimas ist der El-Niño-Effekt, auch "Südliche Oszillation" genannt. Dieses Klimaphänomen betrifft zwar hauptsächlich Länder wie Peru oder Indonesien, aber auch in Chile ist es etwa alle sieben Jahre wirksam und führt hier zu vermehrten Niederschlägen im Vergleich zu Normaljahren. Flora. Aufgrund der riesigen Ausdehnung von über 4.000 Kilometern Länge gibt es in Chile sehr viele Vegetationszonen. Im Bereich der Atacamawüste wächst wenig. Bewuchs gibt es nur in Küstennähe oder im Bereich der Anden. Hier wachsen sehr viele verschiedene Kakteenarten, Sukkulenten und Zwergsträucher. Allerdings kommt es alle paar Jahre zu Regenfällen in der Wüste, so dass große Wüstenflächen für wenige Tage von Millionen von Blumen überzogen sind (Blühende Atacamawüste). Südlich der Wüste folgt die Steppe mit trockenem Grasland und in den Anden wächst die steinharte Yareta ("Azorella yareta"), auch „Andenpolster“ genannt. In den trockenen Gebieten wächst der „Boldo-Strauch“ ("Peumus boldus"). An den Küstengebirgen und in den Anden gibt es Nebelwälder („hydrophile Wälder“), wo zum Beispiel ein Baumfarn (spanisch "Helecho arborescente") wächst. Die Weinanbaugebiete beginnen im Bereich des Flusses Río Elqui, außerhalb des Flusstals gibt es dagegen nur Dornensträucher und Kakteen. In Zentralchile wächst die Honigpalme ("Jubaea chilensis"). Die Araukarie ("Araucaria araucana") ist der heilige Baum der Mapuche, ihre großen Samen dienten ihnen zur Ernährung. In Chile gibt es auch zahlreiche große Eukalyptus-Plantagen. In Südchile gibt es große Wälder, die dem gemäßigten Regenwald zugeordnet werden. Sie setzen sich vorwiegend aus Zypressen, Kiefern und Lärchen zusammen, ebenso sind Antarktische Scheinbuchen ("Nothofagus antarctica") und Pappeln weit verbreitet. In der XI. Region (Aisén) gibt es Wälder mit beispielsweise folgenden Baumarten: Lenga-Südbuche ("Nothofagus pumilio"), Coihue-Südbuche ("Nothofagus dombeyi"), "Luma apiculata", "Aextoxicon punctatum" (der unter anderem in Chile Olivillo heißt), "Embothrium coccineum", Chilenische Scheinulme ("Eucryphia cordifolia"), Kerzenbaum ("Maytenus boaria"). Die „Nationalblume“ Chiles ist die rote Chilenische Wachsglocke ("Lapageria rosea"), sie heißt in Chile "Copihue" und ist eine Kletterpflanze. Patagonien besteht aus weiten Steppen und Halbwüsten, an der Südwestküste findet sich die sogenannte Magellan-Tundra. Große Teile der Region Aisén und der Region Magallanes sind bereits vergletschert, so dass hier keine Vegetation mehr anzutreffen ist. Feuerland ist von großen Mooren durchzogen. Hier halten sich nur noch wenige Baumarten, wie die Lenga-Südbuche, die Magellan-Südbuche ("Nothofagus betuloides") oder die Coihue-Südbuche ("Nothofagus dombeyi"). Fauna. In den Steppengebieten sind Guanakos, die zur Familie der Kamele gehören, weit verbreitet. In den Andenregionen leben Vikunjas und der Huemul, der als "Nationaltier" Chiles zusammen mit dem Andenkondor im Staatswappen dargestellt ist. Der Chinchilla, ein Nagetier, sowie der Puma leben ebenfalls in gebirgigen Steppenlandschaften. Die Wälder bieten Platz für Hirsche, Chilenische Waldkatzen, Füchse und für Kolibris. Der Humboldt-Pinguin, Pelikane und Mähnenrobben leben selbst an den kalten Küsten Nordchiles, Mähnenrobben und Magellan-Pinguine im eisreichen Süden. Über fast den ganzen Bereich Chiles ist der majestätische Andenkondor verbreitet, einer der größten Vögel der Welt. Die großen Salzseen beherbergen tausende Flamingos. Im kargen Süden Feuerlands leben Eulen, Magellan-Füchse und Darwin-Nandus. Sehr häufig anzutreffen sind Strauchratten (Degus), kleine, ausschließlich in Chile heimische und vom Aussehen her rattenähnliche Nagetiere aus der Familie der Trugratten, die mit drei Arten fast das ganze Land bewohnen. Sie leben in Erdhöhlen in Kolonien und nehmen im Ökosystem die Nische ein, die in Deutschland die Wildkaninchen innehaben. Bevölkerungsentwicklung. Bevölkerungsentwicklung seit 1835 und Projektion bis 2050. Das staatliche chilenische Statistikamt INE schätzt, dass das Land in der Mitte des Jahres 2015 18 006 407 Einwohner hatte. Davon waren 8 911 940 Männer und 9 094 467, Frauen. Die Bevölkerungszählung von 2002 hatte noch 15 116 435 Einwohner (7 447 695 Männer und 7 668 740 Frauen) ergeben. Die Bevölkerung hat sich seit Beginn des 20. Jahrhunderts verfünffacht. Bei der Volkszählung des Jahres 1895 wurden 2 695 625 Einwohner ermittelt. Die Einwohnerzahl stieg auf 5 023 539 bei der Zählung 1940 und 13 348 401 im Jahr 1992. Seitdem hat sich das Bevölkerungswachstum verlangsamt, von 1,24 % pro Jahr zwischen 1992 und 2002 auf 0,99 % zwischen 2002 und 2012. Das Bevölkerungswachstum ist nicht zuletzt auf die stark gestiegene Lebenserwartung zurückzuführen. Im Jahr 2013 hatten die Chilenen die höchste Lebenserwartung aller Südamerikaner.Sie lag im Jahre 2009 bei 78,4 Jahren: 75,74 für Männer und 81,19 für Frauen. Im gleichen Jahr lag die Geburtenrate bei 15,0‰ und die Sterberate bei 5,4‰, was ein natürliches Bevölkerungswachstum von 0,96 % ergibt. Die Kindersterblichkeit lag bei 7,9‰. Diese Entwicklungen führen zu einer Alterung der Gesellschaft, so dass im Jahr 2020 die Mehrheit der Bevölkerung über 35 Jahre alt sein wird, während momentan die Unter-35-Jährigen die Mehrheit stellen. Für 2025 wird die für den Demografischen Übergang charakteristische Tropfenform der Bevölkerungspyramide erwartet. Bevölkerungsverteilung. Der Großteil der Bevölkerung lebt in den Regionen V bis X. Am dichtesten besiedelt ist der Großraum Santiago de Chile, wo etwa die Hälfte der chilenischen Einwohner lebt. Die Stadt selbst hat etwa 5,5 Millionen Einwohner; sie beherbergt also in etwa ein Drittel aller Einwohner Chiles. Nördlich und vor allem südlich davon erstrecken sich landwirtschaftlich genutzte und dicht besiedelte Gebiete in der Ebene zwischen den Hauptketten der Anden. Nur 100 Kilometer westlich von Santiago liegt der Großraum um die Hafenstadt Valparaíso mit etwa einer Million Einwohnern. Nach Norden und Süden verringert sich die Bevölkerungsdichte immer stärker. Die Atacamawüste im äußersten Norden und die rauen, stürmischen Gebiete im Süden sind aufgrund der ungünstigen klimatischen Bedingungen nur sehr dünn besiedelt. Migration. Italienische Einwanderer im Jahre 1905 Die Migrationsrate Chiles lag im Jahr 2012 bei 0,35 Migranten je 1.000 Einwohner und Jahr und war damit eine der niedrigsten in ganz Lateinamerika. Im Jahre 1848 begann die deutsche Kolonisierung, die von der chilenischen Regierung gefördert wurde, um den Süden des Landes zu bevölkern. Die Einwanderung aus Deutschland beeinflusste die Kultur eines großen Gebietes in Südchile, besonders in den Provinzen Valdivia, Osorno und Llanquihue. Einwanderer aus anderen europäischen und nahöstlichen Staaten kamen im 19. und 20. Jahrhundert vor allem in Valparaíso und im äußersten Norden und Süden an. Darunter befanden sich Österreicher, Briten und Iren, Kroaten, Spanier, Franzosen, Griechen, Italiener, Niederländer, Polen, Russen, Schweizer, Juden und Palästinenser. Im Jahre 1953 gründete Präsident Carlos Ibáñez del Campo die Einwanderungsbehörde "Departamento de Inmigración" und ließ Regeln über die Einwanderung aufstellen. In den letzten Jahrzehnten hat die Einwanderung aus den benachbarten Staaten stark an Bedeutung gewonnen. Zwischen 2004 und 2010, stieg sie um 50 % auf geschätzt 365 459 Personen. Die Volkszählung des Jahres 2012 ergab, dass 339 536 im Ausland geborene Menschen in Chile wohnhaft waren. Sie stammten vor allem aus Peru (103 624), Argentinien (57 019), Kolumbien (27 411), Bolivien (25 151) und Ecuador (16 357). Obwohl die Auswanderung aus Chile im vergangenen Jahrzehnt zurückgegangen ist, lebten im Jahr 2005 487 174 Chilenen außerhalb Chiles. Dies entspricht 3,01 % der Bevölkerung des gleichen Jahres (16 165 316 Menschen). Die meisten ausgewanderten Chilenen leben heute in Argentinien (43,33 %), des Weiteren 16,58 % in den USA, 5,61 % in Schweden, 5,21 % in Kanada und 4,80 % in Australien. Die interne Migration von den ländlichen Gebieten in die Großstädte hat sich in den letzten Jahrzehnten verstärkt. So wurden etwa 80 % der Bevölkerung der mittleren und südlichen Regionen Chiles in der Region selbst geboren. In Biobío erreicht dieser Wert mit 86,11 % den Höchststand. Nur 71 % der Bewohner der Hauptstadtregion wurden auch in der Region geboren und gar nur 55 % der Region Magallanes y Antártica Chilena stammen von dort. Urbanisierung und wichtige Städte. Die Bevölkerung Chiles ist im internationalen Vergleich sehr ungleich verteilt. Die Volkszählung des Jahres 2002 ergab, dass 13 090 113 Chilenen, oder 86,59 % der Gesamtbevölkerung, in Städten leben. Die Regionen in klimatisch extremen Zonen weisen den höchsten Urbanisierungsgrad auf — 97,68 % der Bevölkerung der Region Antofagasta, 94,06 % von Tarapacá und 92,6 % von Magallanes y Antártica Chilena leben in Städten. Auch die Industriestandorte in Mittelchile sind stark urbanisiert — 96,93 % der Menschen in der Hauptstadtregion und 91,56 % in der Region Valparaíso sind Stadtbewohner. Die 2 026 322 Menschen oder 13,41 % der Gesamtbevölkerung, die auf dem Land leben, arbeiten größtenteils in Landwirtschaft und Viehzucht. Sie konzentrieren sich auf Mittel- und Südchile; 33,59 % der Bevölkerung von Maule, 32,33 % von La Araucanía und 31,56 % von Los Lagos leben auf dem Land. In den 1920er Jahren begann eine starke Abwanderung von Landbewohnern, die auf der Suche nach besseren Lebensbedingungen in die Städte zogen. Die Städte wuchsen dadurch schnell und bildeten große Ballungsräume. Der Großraum Santiago ist der größte derartige Ballungsraum. Im Jahr 2002 wohnten hier 5 428 590 Menschen oder mehr als ein Drittel aller Bewohner von Chile, während er 1907 383 587 und 1920 noch 549 292 Einwohner hatte, was 16 % der Bevölkerung Chiles entsprach. Das Städtewachstum führte auch dazu, dass vormals ländliche Gebiete Teile der Städte wurden, wie Puente Alto oder Maipú, die heute zu den bevölkerungsreichsten Gemeinden Chiles zählen. Im Januar 2015 nahm Santiago hinter São Paulo, Ciudad de México, Buenos Aires, Rio de Janeiro, Lima und Bogotá den siebenten Rang unter den lateinamerikanischen Städten mit den größten Bevölkerungszahlen ein; weltweit rangiert es auf 54. Stelle. Analog zur Hauptstadt sind auch Valparaíso und Viña del Mar von starkem Bevölkerungswachstum betroffen gewesen. Sie sind dadurch mit Concón, Quilpué und Villa Alemana zum Großraum Gran Valparaíso zusammengewachsen. Auch Concepción, Talcahuano, Hualpén, Chiguayante, San Pedro de la Paz, Penco, Coronel, Lota, Hualqui und Tomé bilden einen Ballungsgebiet namens Gran Concepción. Beide Ballungsräume hatten im Jahr 2002 mehr als 660 000 Einwohner. Weitere wichtige Städte und Ballungsräume sind die Agglomeration La Serena-Coquimbo (296 253 Einwohner im Jahre 2002), Antofagasta (285 255), Temuco-Padre Las Casas (260 878), Rancagua (236 363), Iquique-Alto Hospicio (214 586), Talca (191 154), Arica (175 441), Chillán-Chillán Viejo (165 528), Puerto Montt (153 118), Los Ángeles (138 856), Calama (136 600), Copiapó (134 531), Osorno (132 245), Quillota (128 874), Valdivia (127 750), Punta Arenas (116 005), San Antonio (106 101) und Curicó (104 124). Die Mehrzahl dieser Städte liegt entlang der Pazifikküste oder im Zentraltal in der Mitte Chiles zwischen Santiago und Puerto Montt. Ethnische Zusammensetzung. Präsidentin Bachelet und das chilenische Polo-Team. Die chilenische Bevölkerung ist durch einen hohen Grad an Homogenität gekennzeichnet. Die Chilenen mit europäischen Vorfahren und Mestizen bilden rund 88,92 Prozent der Bevölkerung. 11,08 Prozent werden durch die indigene Bevölkerung gebildet. Davon sind 82 Prozent Mapuche, 6 Prozent Aymara, 2,5 Prozent Diaguita und 0,5 Prozent Rapanui. Das Volk der Mapuche lebt überwiegend in der Region zwischen den Flüssen Bío-Bío und Toltén und besitzt dort einen Bevölkerungsanteil von 23 Prozent. Die Mapuche, früher zusammen mit anderen Völkern der Region auch unter der (von den Mapuche selbst abgelehnten) Sammelbezeichnung Araukaner bekannt, lassen sich in Picunche, Pewenche und Huilliche unterteilen. Ihre Sprache, das Mapudungun, wird seit wenigen Jahren als Ergänzungsfach in der Schule gelehrt und für eine tägliche Nachrichtensendung im lokalen Fernsehen auf "Canal 13 Temuco" verwendet. Trotz dieser Errungenschaften bleibt die traditionelle Lebensweise der Mapuche durch die liberale Wirtschaftsordnung gefährdet. Die Mapuche selbst müssen oft in die Großstädte abwandern, um bezahlte Arbeit zu suchen. Im nördlichen Teil Chiles leben kleinere Gruppen von Quechua, Aymara, Chango, Atacameño, Diaguita und Kolla. Im äußersten Süden Chiles lebten bis zum Anfang des 20. Jahrhunderts noch kleine Gruppen von Selk’nam, Kawéskar, Yámana, Caucahue sowie Tehuelche, die jedoch entweder ausgerottet wurden oder deren Nachfahren in der heutigen Bevölkerung aufgegangen sind. Außerdem sind etwa 40 Prozent der rund 5.000 Einwohners der Osterinsel, also etwa 2.000 Menschen, Polynesier (Rapanui). Während der Kolonialzeit wurde Chile durch Einwanderer aus allen Regionen Spaniens besiedelt. Im frühen 19. Jahrhundert wanderten englische und irische sowie deutsche Siedler nach Chile. Die ersten Deutschen trafen 1843 ein und siedelten sich später vor allem im Gebiet um den Llanquihue-See und in Valdivia, Osorno sowie Puerto Montt an. Die Zahl der Deutschen beziehungsweise Deutschstämmigen beträgt etwa 500.000–600.000. Weitere Einwanderer kamen aus Frankreich, Italien, Kroatien und Palästina bzw. dem Nahen Osten. Die Einfuhr schwarzer Sklaven nach Chile war zu allen Zeiten sehr gering. Die Mehrheit von ihnen konzentrierte sich auf die Städte Santiago de Chile, Quillota und Valparaíso. Im Laufe der Jahrhunderte vermischten sich die Schwarzen mit den Weißen und Mestizen, so dass heute das afrikanische Element in Chile fast völlig verschwunden ist. Eine Ausnahme bildet die Stadt Arica in der Provinz Tarapacá. Arica wurde 1570 gegründet und gehörte bis 1883 zu Peru. Die Stadt zählte zu den peruanischen Einfuhrzentren für afrikanische Sklaven. Von hier aus wurde auch ein großer Teil der bolivianischen Handelsgüter auf europäische Schiffe verladen. Arica lag mitten in der Wüste und bildete – dank der hervorragenden Anbaumöglichkeiten für Zuckerrohr und Baumwolle im Azapatal – eine Oase. Die vielen Erdbeben, Piratenüberfälle und der Ausbruch von Malariaepidemien führten dazu, dass viele Weiße die Stadt verließen. So entwickelte sich mit der Zeit eine mehr oder weniger isolierte afro-chilenische Enklave. Chile erklärte sich 1811 als erster Staat in Südamerika gegen die Sklaverei und schaffte sie 1823 endgültig ab. In den vergangenen Jahren suchten vermehrt Arbeiter aus Peru und Bolivien ihr Glück in Chile. Die Peruaner haben große Erfolge in der Verbreitung der peruanischen Küche in Chile erreicht. 2007 beschloss die Regierung eine Amnestie für diejenigen Ausländer, meistens aus Peru, die ohne Aufenthaltserlaubnis im Land arbeiteten. Die Wirtschaftskrise in Argentinien zwang auch Argentinier zur Arbeitssuche im Nachbarland. Eine kleine Gruppe von Einwanderern kommt aus Asien, vor allem aus Korea, und lebt im Großraum Santiago. Sprache. In den südchilenischen Regionen IX und X leben zahlreiche Deutschchilenen, weshalb dort teilweise noch Deutsch gesprochen wird. Die bekannteste indigene Sprache ist Mapudungun der Mapuche in Südchile, daneben sind in Nordchile Aymara und auf der Osterinsel Rapanui verbreitet. Insgesamt werden neun verschiedene Sprachen und Idiome gesprochen. Religion. Das Land ist sehr katholisch geprägt, auch wenn Staat und Kirche seit 1925 offiziell getrennt sind. Der kirchliche Einfluss auf das gesellschaftliche Leben, das Rechtswesen (besonders das Familienrecht) und die Kultur- und Medienwelt ist noch immer recht stark. So gehört etwa der zweitgrößte Privatsender des Landes, Canal 13, der katholischen Kirche. Jedoch sind eheliche und uneheliche Kinder seit 1998 rechtlich gleichbehandelt, das chilenische Eherecht sieht seit November 2004 eine Möglichkeit der Scheidung vor und 2015 wurde für gleich- und verschiedengeschlechtliche Paare die eingetragene Partnerschaft "(acuerdo de unión civil)" eingeführt. Abtreibungen sind seit 1990 verboten; es wird aber eine Legalisierung in bestimmten Fällen diskutiert. In der letzten Volkszählung 2002 rechneten sich 7.853.000 Befragte (rund 70 Prozent) zur römisch-katholischen Kirche, die somit die zahlenmäßig stärkste Religionsgemeinschaft des Landes bildet. Die kirchliche Verwaltungsstruktur besteht aus fünf Kirchenprovinzen mit 26 Bistümern und 920 Pfarreien. Rund 15 Prozent der Chilenen gehören protestantischen Glaubensgemeinschaften an; durch den weit verbreiteten pfingstlerischen Einfluss ist der Anteil der evangelischen Einwohner vor allem in den letzten Jahrzehnten stark angestiegen. An weiteren Weltanschauungen wurden 8,3 Prozent Agnostiker und Atheisten genannt und 4,4 Prozent „Andere“, wozu auch der indianische Schamanismus zu zählen ist (letzterer nur unter Ureinwohnern vertreten). Kleinere Glaubensrichtungen bilden die Zeugen Jehovas (1,06 Prozent), Mormonen (0,92 Prozent), Juden (0,13 Prozent) und andere. Präkolumbische und Kolonialgeschichte. Etwa 13.000 Jahre v. Chr. siedelten die ersten Menschen im heutigen Staatsgebiet Chiles (siehe Monte Verde). Später gehörte der Norden Chiles bis zu seiner Eroberung durch die Spanier kurzzeitig zum Inkareich. Im Jahr 1520 entdeckte der Portugiese Ferdinand Magellan während seines Versuches, die Erde zu umsegeln, die nach ihm benannte Magellanstraße, die an der heutigen Südspitze Chiles liegt. Die nächsten Europäer, die das heutige Chile erreichten, waren Diego de Almagro und seine Gefolgschaft, die 1535, von Peru kommend, nach Gold suchten, aber von der lokalen Bevölkerung zurückgetrieben wurden. Die erste permanente Siedlung der Europäer war das 1541 durch Pedro de Valdivia gegründete Santiago. Seit 1542 war Chile Bestandteil des spanischen Vizekönigreiches Peru. Da die Spanier wenig Gold und Silber fanden, war Chile aufgrund seiner abgeschiedenen Lage eher eine wenig beachtete Kolonie für die spanische Krone. Die große Atacamawüste behinderte den direkten Weg nach Peru. Erst später wurde Chile durch landwirtschaftliche Produkte für die anderen spanischen Besitzungen ein wichtiger Versorgungspartner. Chile beherbergte verschiedene Volksgruppen, die lange Zeit fälschlicherweise unter dem Begriff Araukaner zusammengefasst wurden. Im Süden leisteten die Mapuche in zahlreichen Kriegen erbitterten Widerstand. Der Konflikt, der als Arauco-Krieg ("Guerra de Arauco") bezeichnet wird, verhinderte eine spanische Besiedlung der südlichen Hälfte Chiles nachhaltig. Die meisten Städte, Ansiedlungen und Forts wurden kurz nach ihrer Errichtung von den Kampfverbänden der Ureinwohner überrannt und wieder zerstört. Ab 1602 bildete der Fluss Bío Bío faktisch die Grenze zum Mapuchegebiet. Der andauernde Widerstand der Ureinwohner zwang die Spanier 1641 zur Anerkennung einer unabhängigen Mapuche-Nation im Vertrag von Quillín. Darin wurde der Bío-Bío-Fluss als Grenze festgeschrieben und dem Volk der Mapuche Souveränität zugebilligt, ein in der Geschichte indigener Bevölkerungen in Südamerika einzigartiger Vorgang. Zwar kam es auch danach immer wieder zu kriegerischen Auseinandersetzungen und glücklosen Eroberungsversuchen, doch hatte die Grenzziehung im Wesentlichen bis zum Ende der Kolonialzeit Bestand. Erst im Rahmen der 1861 von Präsident José Joaquín Pérez ausgerufenen sogenannten „Befriedung Araukaniens“ wurde der Mapuche-Aufstände mit Hilfe chilenischer Truppen gewaltsam unterworfen und im Jahre 1883 endgültig an Chile angegliedert. Neben den indianischen Angriffen behinderten schwere Erdbeben, Tsunamis und Vulkanausbrüche die Entwicklung des Landes. Viele Städte wurden komplett zerstört, wie beispielsweise Concepción 1570 und Valdivia 1575. Die chilenischen Küstenstädte waren im 16. und 17. Jahrhundert häufigen Angriffen englischer Piraten ausgesetzt. 1609 wurde das Generalkapitanat Chile gegründet, dieses war jedoch abhängig vom Vizekönigreich Peru. 1778 wurde Chile zum eigenständigen "Generalkapitanat" mit Handelsfreiheit innerhalb des spanischen Königreiches. Unabhängigkeitskrieg und Entstehung der Republik. Der Drang nach Unabhängigkeit kam auf, als 1808 Spanien von Napoleons Bruder Joseph regiert wurde. Am 18. September 1810 wurde eine Junta ins Leben gerufen, die die Treue Chiles zum abgesetzten König Ferdinand VII. erklärte, und zwar als eine autonome Provinz innerhalb des spanischen Königreichs. Dieses Datum feiert man in Chile als den Beginn der Unabhängigkeit. Wenig später erklärte Chile seine Loslösung von Spanien und der Monarchie. 1814, nach dem Ende des Spanischen Unabhängigkeitskrieges und der Niederlage der Patrioten in der Schlacht von Rancagua, übernahm Spanien wieder die Macht in Chile. Die Spanier wurden aber in der Schlacht von Chacabuco durch ein chilenisch-argentinisches Heer unter General José de San Martín geschlagen. In der Schlacht von Maipú 1818 brach die spanische Kolonialherrschaft endgültig zusammen. San Martín verzichtete zugunsten von Bernardo O’Higgins auf das Präsidentenamt. O’Higgins selbst wurde gestürzt und ging 1823 ins Exil nach Peru. Sein Nachfolger Ramón Freire y Serrano konnte seine politische Macht nicht richtig festigen und wurde von Francisco Antonio Pinto Díaz 1828 gestürzt. Er führte eine liberale Verfassung ein, was den Zorn der Konservativen hervorrief. Am 17. April 1830 stürzte Diego Portales Palazuelos in der Schlacht von Lircay die Regierung. Portales regierte (indirekt, denn er wurde nie Präsident) bis August 1831 mit diktatorischen Mitteln. Im Jahre 1833 entstand mit Hilfe Portales eine streng präsidiale Verfassung. Diese stark zentralistische Verfassung gewährte Chile eine lange Zeit der Stabilität, bis zum Bürgerkrieg von 1891. Von 1836 bis 1839 kam es zum Konföderationskrieg gegen Bolivien und Peru, den die Chilenen gewannen. Am 17. September 1865 erklärte Chile Spanien den Krieg (Spanisch-Südamerikanischer Krieg), nachdem Spanien versucht hatte mit militärischen Mitteln in Peru Einfluss zu gewinnen. Es kam daraufhin zu den Seegefechten bei Papudo sowie bei Abtao vor der Insel Chiloé. Am 5. Dezember 1865 verbündete sich auch Peru mit Chile, um den gemeinsamen Gegner zu bekämpfen. Die Spanier beschossen am 31. März 1866 die Stadt Valparaíso massiv. Der Konflikt mit Spanien konnte aber erst in Verträgen von 1871 und 1883 endgültig gelöst werden. Im Verlauf des 19. Jahrhunderts wanderten verstärkt auch nicht-spanische Europäer nach Chile ein, darunter Deutsche, deren Spuren noch heute vor allem im südlichen Mittelteil des Landes zu sehen sind (Valdivia, Osorno, Puerto Montt, Puerto Varas, Frutillar, Puerto Natales). Salpeterkrieg. Im Salpeterkrieg von 1879 bis 1884 besetzte Chile die bis dahin zu den Nachbarländern Peru und Bolivien gehörende Atacamawüste, Lima und Teile der Pazifikküste von Peru. Im Friedensvertrag von 1904 zwischen Chile und Bolivien übergab Bolivien an Chile seinen freien Zugang zum Pazifik. In den eroberten Gebieten wurden später große Kupfervorkommen gefunden: Chuquicamata, der größte Kupfertagebau der Welt, befindet sich in diesem Gebiet. Peru übergab an Chile im Vertrag von Ancón die heutigen Regionen von Arica, Parinacota und Tarapacá als Reparationen. Bürgerkrieg von 1891. 1891 widersetzten sich Parlament und Marine dem Präsidenten José Manuel Balmaceda; es kam zum Bürgerkrieg. In diesem Konflikt starben rund 6000 Menschen. Balmaceda verlor zwei größere Schlachten und beging am 18. September 1891 Selbstmord. Das bis dahin präsidial geprägte Regierungssystem wurde nach dem Sieg der Kongressanhänger durch ein parlamentarisches System ersetzt, bis 1916 wiederum ein präsidentielles Regierungssystem eingeführt wurde. Während der Unruhen kam es zum Baltimore-Zwischenfall, der zu einem diplomatischen Konflikt zwischen der neuen chilenischen Regierung und den USA führte. Grenzverlauf. Trotz des Grenzvertrags mit Argentinien (1881) verschärften sich ab 1893 die Grenzstreitigkeiten mit Argentinien, weil der Vertrag die Andenkordillere als Grenze bestimmte: Die Grenzlinie verlaufe „über die höchsten Berge, die die Wasserscheide bilden“. Auf manchen Abschnitten führte diese Definition zu strittigen Ergebnissen. Im Norden tauschte Bolivien einen Teil der "Puna" gegen Tarija mit Argentinien, nachdem Chile die Puna-Region im Salpeterkrieg besetzt hatte. Zwischen Chile und Argentinien kam es zu einem Wettrüsten. Erst durch ein Schiedsgerichtsverfahren konnte der Grenzstreit 1902 beigelegt werden. Patagonien und Feuerland wurden neu aufgeteilt, dabei fielen 54.000 Quadratkilometer an Chile und 40.000 Quadratkilometer an Argentinien. Die Grenzstreitigkeiten mit Bolivien wurden 1904 in einem Friedensvertrag endgültig beigelegt. Dieser Vertrag ist völkerrechtlich bis heute bindend, wird aber von Bolivien, das einen Zugang zum Pazifik beansprucht, teilweise in Frage gestellt. Erster und Zweiter Weltkrieg. Chile blieb im Ersten Weltkrieg neutral, die innenpolitische Lage war aber weiterhin instabil. Präsident Arturo Alessandri Palma, der in Chile ein Sozialversicherungssystem eingeführt hatte, wurde 1924 durch einen Militärputsch abgesetzt, kam aber, nach der Einführung einer neuen Verfassung im Jahre 1925, im März 1926 wieder an die Macht. Bis 1932 regierte (am längsten) Carlos Ibáñez del Campo das Land mit diktatorischen Mitteln. 1932 wurde die verfassungsmäßige Ordnung wiederhergestellt und die Radikalen erwiesen sich in den folgenden 20 Jahren als führende Partei. Die Weltwirtschaftskrise um 1930 traf Chile besonders hart. Die Preise für die wichtigsten Exportgüter Kupfer und Salpeter verfielen dramatisch. Ab den 1930er Jahren folgte eine langsame Erholung des Landes, die 1938 durch einen Putschversuch der Nationalsozialistischen Bewegung Chiles und das darauffolgende Massaker unterbrochen wurde. 1934 kam es zu einer letzten großen Bauernrebellion in Ranquil, die durch Polizeikräfte niedergeschlagen wurde. Nachdem Chile lange Zeit – auch aus Rücksicht auf die zahlreichen deutschstämmigen Chilenen – im Zweiten Weltkrieg neutral geblieben war, beschloss 1944 Präsident Juan Antonio Ríos Morales, an der Seite der Alliierten in den Krieg einzutreten. Der Einfluss Chiles auf den Kriegsausgang blieb jedoch unbedeutend. Nachkriegszeit. 1945 gehörte das Land zu den Gründungsmitgliedern der Vereinten Nationen und trat 1948 der OAS bei. Das Frauenwahlrecht wurde 1949 eingeführt. Großer Gegenspieler der Konservativen, die mit ihrem Kandidaten Jorge Alessandri 1958 zum letzten Mal die Präsidentschaftswahl gewannen, wurden die Christdemokraten, die zwar strikt antikommunistisch, nach europäischen Maßstäben aber in Fragen der Sozialpolitik gemäßigt links eingestellt waren. Am 22. Mai 1960 erschütterte das bisher stärkste gemessene Erdbeben der Welt mit anschließendem Tsunami die Küsten Chiles und verwüstete besonders die Hafenstadt Valdivia. Das Beben hatte eine Stärke 9,5 auf der Richterskala. Mehr als 2000 Menschen starben. 1964 gewann Eduardo Frei Montalva als Kandidat der Christdemokratischen Partei die Wahl zum Präsidenten, auch mit Wahlhilfe aus den USA. Er versuchte unter dem Motto "„Revolution in Freiheit“", Sozialreformen mit dem Erhalt der demokratischen Ordnung zu verbinden und den Spagat zwischen den radikalen Forderungen der Linken und der rigorosen Abwehr von Reformen durch die Rechten zu schaffen. Eine Landreform verteilte über drei Millionen Hektar Großgrundbesitz an Bauerngenossenschaften. Frei scheiterte letztlich mit seinen wichtigsten Reformen, darunter der teilweisen Verstaatlichung der Kupferindustrie. 1969 trat Chile als Gründungsstaat der Andengemeinschaft bei, allerdings 1976 wieder aus. Präsidentschaft Salvador Allende. Die Kräfte der Linken bildeten 1969 die Unidad Popular (UP), ein Wahlbündnis, dem neben der Kommunistischen und der Sozialistischen Partei kleine humanistische, linkschristliche und marxistische Parteien angehörten. Die UP vertrat eine sozialistische Linie, warb für die Verstaatlichung der Industrie und die Enteignung der Großgrundbesitzer. Dieses Bündnis stellte 1970 als Präsidentschaftskandidaten Salvador Allende auf, der schon zum vierten Mal kandidierte. Aus den Wahlen von 1970 ging das linke Wahlbündnis Unidad Popular mit 37 % der Stimmen als stärkste Kraft hervor und Salvador Allende wurde zum Präsidenten gewählt. Sein konservativer Gegner, Jorge Alessandri, kam auf 35,3 %, und der Christdemokrat Radomiro Tomic erzielte 28,1 %. Stichwahlen waren in der damaligen Verfassung nicht vorgesehen. Allende wurde im Parlament mit den Stimmen der Christdemokraten (um Tomic) unter der Voraussetzung, er werde sich streng an die Verfassung und Rechtsstaatlichkeit halten, als Präsident gewählt. Er verstaatlichte in der Folge die wichtigsten Wirtschaftszweige (Bankwesen, Landwirtschaft, Kupferminen, Industrie, Kommunikation) und geriet dadurch in wachsende Konflikte mit der Opposition – obwohl die Verstaatlichungen von der Verfassung gedeckt waren. Zudem stieß der Wahlsieg Allendes in den USA auf heftigen Widerstand. Mit dem Sieg der „Volksfrontregierung“ unter marxistischem Einfluss in Chile war nach Kuba der zweite amerikanische Staat sozialistisch regiert. Dies schien die 1954 von US-Präsident Eisenhower postulierte Domino-Theorie zu bestätigen, wonach die Länder Südamerikas nach und nach wie Dominosteine dem Kommunismus anheimfallen würden. US-Außenminister Henry Kissinger ließ, als der Sieg der linken Kräfte absehbar war, verlauten: „Ich sehe nicht ein, weshalb wir zulassen sollen, dass ein Land marxistisch wird, nur weil die Bevölkerung unzurechnungsfähig ist.“ Allende betrachtete sich nicht als Marxist und lehnte sowohl die Diktatur des Proletariats als auch ein Einparteiensystem entschieden ab. Bei seinem Amtsantritt hatte Allende also mit Sanktionen und Gegenmaßnahmen der USA zu rechnen. So kam es bereits 1970 zu einem tödlichen Attentat auf General René Schneider, bei dem die CIA und Außenminister Kissinger massiv beteiligt waren (siehe CIA-Aktivitäten in Chile). Schneider war für die US-Regierung ein Hindernis, da er gegen einen Militärputsch war. Durch den Boykott der USA, der westeuropäischen Staaten und der internationalen Konzerne wurde das politische System derart labil, dass von Teilen des Militärs ein Putsch geplant wurde. Ein erster Putsch des 2. Panzerregiments scheiterte im Juni 1973. Die Diktatur Pinochets. Am 11. September 1973 kam es schließlich zu einem blutigen Militärputsch gegen die Regierung. Präsident Allende beging in der Moneda Selbstmord. Hunderte seiner Anhänger kamen in diesen Tagen ums Leben, Tausende wurden inhaftiert. Sämtliche staatlichen Institutionen in ganz Chile wurden binnen Stunden vom Militär besetzt. Die Macht als Präsident einer Junta übernahm General Augusto Pinochet. Überall im Lande errichtete das Militär in der Folgezeit Geheimgefängnisse, wo Oppositionelle und deren Sympathisanten nicht selten zu Tode gefoltert oder unter anderem mit Flugzeugen hinaus aufs Meer geflogen und dort hinausgeworfen wurden. Tausende Chilenen gingen wegen der fortgesetzten Menschenrechtsverletzungen ins Exil (→ Folter in Chile). Kurz nach der Machtübernahme Pinochets begannen die USA und die westeuropäischen Staaten, Chile wieder intensiv mit Wirtschaftshilfe zu unterstützen. Die Militärregierung machte die Verstaatlichungen Allendes mit Ausnahme der Kupferminen rückgängig, führte radikale Wirtschaftsreformen durch und schaffte die Gewerkschaftsrechte ab. In Deutschland erhielt die Regierung Pinochets lange Zeit Unterstützung aus den Reihen der Unionsparteien, vor allem der CSU. So lobte Franz Josef Strauß 1977 bei seinem Besuch den Umsturz als „gewaltigen Schlag gegen den internationalen Kommunismus“. Es sei „Unsinn, davon zu reden, daß in Chile gemordet und gefoltert würde“. Die Auseinandersetzung um die Bezeichnung der Militär-Junta als „Mörderbande“ durch den der SPD angehörigen Forschungsminister Hans Matthöfer anlässlich eines Streits um Wirtschaftshilfe im Jahr 1975 steht exemplarisch für die Gespaltenheit der deutschen Politik in dieser Frage. In den achtziger Jahren wurde auch in der CDU die Kritik an den Menschenrechtsverletzungen des Regimes deutlicher. In diese Zeit fällt auch der Chilebesuch von Norbert Blüm, bei dem dieser Pinochet im direkten Gespräch damit konfrontierte. Insbesondere in der Colonia Dignidad, einer streng bewachten Siedlung von Deutschstämmigen unter Führung von Paul Schäfer, wurde gefoltert. Die als Sekte geltende Einrichtung war etwa zehn Jahre vor der Machtübernahme Pinochets gegründet worden und diente während der Militärherrschaft als Folterzentrum für die chilenischen Geheimdienste. Darüber entwickelt sich die Colonia zu einem florierenden Konzern, der unter anderem Titan nach Deutschland exportierte. Trotz Hinweisen, gerichtlichen Anklagen und Fluchtversuchen deutscher Bürger übte die deutsche Botschaft in Chile „äußerste Zurückhaltung“ und blieb untätig, mehr noch, sie ließ Handwerker der Siedlung die Botschafterresidenz renovieren. Im Dezember 1978 verschärfte sich der Beagle-Konflikt mit Argentinien und es kam zu kriegerischen Drohungen gegen Chile. Die unbewohnten Inseln Lennox, Picton und Nueva im Beagle-Kanal wurden zum Streitpunkt, vor allem weil in der Gegend größere Ölreserven vermutet wurden. Der Streit erreichte seinen gefährlichsten Höhepunkt am 22. Dezember 1978, als Argentinien die Operation Soberanía startete, um die Inseln militärisch zu besetzen und in Kontinental-Chile einzumarschieren. Der Einmarsch wurde gestoppt, als die Junta in Buenos Aires einer päpstlichen Vermittlung zustimmte. Diese Mediation führte nach der Niederlage Argentiniens im Falklandkrieg zu dem Freundschafts- und Friedensvertrag von 1984 zwischen Chile und Argentinien, bei dem alle drei Inseln Chile zugesprochen wurden. Die fast endgültige Grenzziehung mit Argentinien am Fitz-Roy-Massiv wurde am 16. Dezember 1998 vereinbart. Es bleibt bis heute nur noch ein kleiner undefinierter Abschnitt im Bereich des Campo de Hielo Sur („Südliches Eisfeld“) übrig. Dieser Bereich beherbergt das größte Süßwasserreservoir Südamerikas. Infolge des früheren Konflikts mit Argentinien unterstützte Chile während des Falklandkrieges 1982 Großbritannien. So landete ein beschädigter britischer Hubschrauber in Chile. Bisher ist der Grund seines Aufenthaltes in dieser Region allerdings unbekannt. Des Weiteren half Chile Großbritannien mit Radar- und Spionagetätigkeit. Der chilenische Ex-Luftwaffenchef Fernando Matthei bestätigte später die geheime Kooperation. Redemokratisierung. 1988 wurde eine Volksabstimmung abgehalten, bei der sich eine Mehrheit (55 %) gegen eine weitere Amtszeit Pinochets aussprach. 1989 fanden die ersten freien Wahlen nach 15-jähriger Diktatur statt, Präsident wurde der Christdemokrat Patricio Aylwin. Aylwin setzte die neoliberale Wirtschaftspolitik Pinochets fort und bemühte sich, die verfeindeten politischen Lager zu versöhnen, um ein demokratisches Zusammenleben zu ermöglichen. Behutsam („Gerechtigkeit soweit es geht“) begann er mit der Aufarbeitung der Verbrechen der Militärdiktatur: Im November 1993 standen erstmals Offiziere wegen Menschenrechtsverletzungen vor Gericht. Viele Exilanten kehrten zurück in ihre Heimat. Von 1994 bis 2000 regierte der Christdemokrat Eduardo Frei Ruiz-Tagle. Pinochet trat 1998 als Heereschef ab, blieb aber Senator auf Lebenszeit und genoss daher Immunität. Im gleichen Jahr wurde er in Großbritannien aufgrund eines Haftbefehls des spanischen Richters Baltasar Garzón verhaftet, konnte aber 1999 aus gesundheitlichen Gründen nach Chile zurückkehren. 1998 wurde er von Gladys Marin vor dem chilenischen Richter Juan Guzmán Tapia angeklagt, 2002 jedoch wegen leichter Demenz als verhandlungsunfähig erklärt, worauf Pinochet auf sein Amt als Senator verzichtete. Weitere Versuche, ihn gerichtlich zu belangen, scheiterten. Er starb am 10. Dezember 2006, ohne je verurteilt worden zu sein. Im Jahr 2000 wurde der Sozialist Ricardo Lagos neuer chilenischer Präsident. Er bezwang in einer Stichwahl seinen konservativen Gegner Joaquín Lavín nur knapp. Mit Lagos zog nach Allende der zweite sozialistische Präsident in die Moneda ein. Lagos machte die Bekämpfung der Arbeitslosigkeit zum Ziel seiner Regierung. Sein Programm sah außerdem die Wiedereinführung der Tarifautonomie und die Einbindung des Armee-Budgets in den staatlichen Haushalt vor. Lagos verließ im Jahr 2006 das Amt mit einer rückwirkend wirtschaftlich und politisch positiven Bilanz. Als Nachfolgerin wurde die Sozialistin Michelle Bachelet zur ersten Präsidentin in der Geschichte des Landes gewählt. Am 27. Februar 2010 erschütterte ein massives Erdbeben der Stärke 8,8 Mw auf der Momenten-Magnituden-Skala den Süden Chiles und zerstörte große Teile der chilenischen Infrastruktur. Auch Zentral-Chile war stark betroffen. In der Region VI und VII trafen nach etwa 20 Minuten hohe Tsunami-Wellen ein und zerstörten ganze Küstenstädte und Gebiete. Auch noch Wochen nach dem Erdbeben wurde das Land von vielen Nachbeben erschüttert. Insgesamt waren in Chile die Regionen III bis IX betroffen. 2010 gewann Sebastián Piñera nach einer Stichwahl gegen seinen Konkurrenten Frei die Präsidentschaftswahl. Am 11. März 2011 war sein Amtsantritt. Piñera war der erste rechtsgerichtete Präsident nach fast 20 Jahren. Am 15. Dezember 2013 wurde in einem zweiten Wahlgang wieder die Sozialistin Michelle Bachelet zur Präsidentin gewählt. Bachelet setzte sich mit rund 62,2 Prozent der Stimmen gegen die konservative Herausforderin Evelyn Matthei durch. Verfassung. Chile ist eine Präsidialrepublik. Die Verfassung wurde am 16. August 2005 vom chilenischen Parlament geändert. Der Präsident, nach US-amerikanischem Vorbild zugleich Regierungschef, wird für eine vier Jahre andauernde Amtszeit gewählt. Der Präsident kann zwar mehrere Amtszeiten absolvieren, jedoch nicht direkt hintereinander. Er ernennt die Minister (2005: 18 Minister) und Subsekretäre (Vergleichbar mit Staatssekretären; 2005: 30) sowie die Regional-Intendanten (einen für die Hauptstadtregion und je einen für die Regionen) und Provinzgouverneure (je Provinz einer). Er kann innerhalb eines durch die Verfassung festgelegten Rahmens Dekrete erlassen, die Gesetzeskraft haben. Zudem kann er die obersten Befehlshaber der Teilstreitkräfte ernennen. Die Legislative (Congreso Nacional) besteht aus zwei Kammern. Der erste chilenische Kongress wurde am 4. Juli 1811 durch Beschluss (1810) der Regierungs-Junta gebildet. Die Abgeordnetenkammer ("Cámara de Diputados") besteht aus 120 durch direkte Wahl ermittelten Abgeordneten. Das ganze Land wird in 60 Wahlkreise eingeteilt, in denen alle vier Jahre jeweils zwei Abgeordnete gewählt werden. Das erstplatzierte Parteibündnis stellt jedoch beide Abgeordnete, wenn es doppelt so viele Stimmen wie das oppositionelle Wahlbündnis erreicht. Dieses binomiale Wahlsystem verhindert, dass kleinere Parteien ins Parlament gewählt werden. Der Senat ("Senado") umfasst 38 Mitglieder. Aufgrund der Verfassungsreform, die am 16. August 2005 beschlossen wurde, werden seit dem 11. März 2006 alle Senatoren direkt von den Wahlbürgern gewählt. Die gewählten Senatoren stammen aus 19 Wahlbezirken. Jede der zwölf Regionen und die Hauptstadtregion besitzen mindestens einen Wahlbezirk. Die V., VII., VIII., IX. und X. Region sowie die Hauptstadtregion werden in jeweils zwei Wahlbezirke aufgeteilt. Alle vier Jahre wird jeweils die Hälfte der Senatoren für eine Amtszeit von acht Jahren gewählt. Der Oberste Gerichtshof ("Corte Suprema de Justicia") ist ein Kollegialgericht mit 21 Richtern. Es ist die höchste richterliche Gewalt in Chile. Die Richter werden von den Richtern des Obersten Gerichts vorgeschlagen und vom Präsidenten auf Lebenszeit ernannt. Unter dem Obersten Gerichtshof ist das Appellationsgericht angesiedelt. Zusätzlich gibt es 17 Berufungsgerichte in Chile. Durch eine Justizreform wurden die Aufgaben des Anklägers (Staatsanwalt) und des Richters getrennt. Im Zuge dieser Reform werden Gerichtsverfahren nun öffentlich und mündlich geführt, statt wie zuvor üblich schriftlich. Angeklagte mit geringem Einkommen können einen staatlichen Pflichtverteidiger in Anspruch nehmen. Für dieses neue Justizsystem mussten 300 neue Gerichtsgebäude in zahlreichen chilenischen Städten gebaut werden. Das Verfassungsgericht "(Tribunal Constitucional)" ist zuständig für die Kontrolle der vom Parlament erlassenen Gesetze auf Verfassungswidrigkeit. Parteien. Parteien wurden ab 1987 wieder zugelassen. Das gegenwärtige Wahlrecht hat dazu geführt, dass alle Parteien sich zu Parteibündnissen zusammengeschlossen haben. Die „Concertación de Partidos por la Democracia“ ist ein Bündnis von vier Mitte-links-Parteien, die sich aktiv am Sturz der Militärdiktatur beteiligt haben. Mitglieder sind die Parteien „Christlich-Demokratische Partei“ (Partido Demócrata Cristiano, PDC), „Radikale und Sozialdemokratische Partei“ (Partido Radical Social Demócrata, PRSD), „Sozialdemokratische Partei“ (Partido por la Democracia, PPD) sowie „Sozialistische Partei“ (Partido Socialista, PS). Die Alianza por Chile ist ein konservatives Bündnis der Parteien „Nationale Erneuerungspartei“ (Renovación Nacional, RN) und „Unabhängige Demokratische Union“ (Unión Demócrata Independiente, UDI), die für eine Verlängerung der Militärdiktatur von Augusto Pinochet geworben haben. Das Linksbündnis "Juntos Podemos Más" („Gemeinsam können wir mehr“; "Podemos" ist zugleich ein Akronym für "Poder Democrático Social") umfasst die Christliche Linke, die Humanistische Partei, die Kommunistische Partei sowie einige andere linke und linksliberale Splitterparteien. 2010 konnte "Juntos Podemos Más" 2 kommunistische Abgeordnete ins Parlament senden. Streitkräfte und Polizei. Die Streitkräfte Chiles () bestehen aus den Teilstreitkräften Heer, Marine, Luftwaffe und der nationalen Polizei (Carabineros de Chile). Im Jahre 2008 umfassten die Streitkräfte der Republik Chile insgesamt 77.300 Soldaten. Außenpolitik. Chile ist Mitglied der APEC und versucht momentan mit möglichst vielen asiatischen und pazifischen Staaten Freihandelsabkommen zu schließen (zum Beispiel gibt es Abkommen mit den USA, der EU, Südkorea und China). Chile ist seit 1945 Mitglied der UN und seit 1948 Mitglied der OAS. In der UN spielt Chile seit 2004 eine wichtigere Rolle, da es sich zur Teilnahme an Friedensmissionen entschlossen hat. Heute stehen chilenische UN-Einheiten zum Beispiel in Haiti. Im Mai 2007 lud die OECD Chile zu Beitrittsgesprächen ein und der Beitritt wurde am 7. Mai 2010 vollzogen. In Südamerika ist Chile assoziiertes Mitglied des Mercosur; diese Nichtvollmitgliedschaft erlaubt Chile, eigene Handelsabkommen zu schließen. Die Konzentration Chiles auf die großen Handelspartner USA, EU und Asien wird von den anderen Andenstaaten kritisch gesehen. Man befürchtet eine Vernachlässigung des lateinamerikanischen Marktes. Insbesondere die vielen Freihandelsabkommen Chiles, aber auch die niedrigen Einfuhrzölle Chiles machen eine engere Bindung an Mercosur schwer. Chile hat seit 1988 eine Reihe von Konfliktherden mit Argentinien und Peru abgebaut. Dies betrifft den Beagle-Kanal und die Grenzziehung am Fitz-Roy-Massiv. Seitdem der peruanische Kongress im Oktober 2005 maritime Gebiete Chiles in Frage stellt, sind allerdings wieder starke Spannungen im Verhältnis beider Länder vorhanden. Die Beziehungen zu Bolivien sind weiterhin stark gestört, da der Wunsch Boliviens nach einem Meerzugang bisher ungelöst ist sowie ein Konflikt um Wasserrechte am Río Lauca besteht. Eine geplante Erdgas-Pipeline von Bolivien zu chilenischen Häfen, um Flüssigerdgas in die Vereinigten Staaten zu exportieren, wurde durch den starken Widerstand in der bolivianischen Bevölkerung nicht gebaut. Im Zuge der geglückten Rettung von Bergleuten nach dem Grubenunglück von San José trafen sich im Oktober 2010 die Präsidenten beider Länder am Unglücksort. Boliviens Präsident Morales dankte den Chilenen für die Rettung eines Bolivianers, der zu den verschütteten Kumpeln gehörte. Die Präsidenten vereinbarten erstmals seit Jahrzehnten den gegenseitigen Austausch von Botschaftern. Chile war bis zur Fertigstellung der LNG-Terminal von Quintero stark von Erdgaslieferungen aus Argentinien abhängig. Die Drosselung der Lieferungen von Seiten Argentiniens zwang Chile zum verstärkten Nachdenken über alternative Energien. Das Erdgas-Lieferabkommen zwischen Bolivien und Argentinien verbietet den Argentiniern den Export von bolivianischem Erdgas nach Chile. Die Militärdiktatur unter Augusto Pinochet hatte stets enge Beziehungen zu den USA. Allerdings lehnte die neue demokratische chilenische Regierung ein Eingreifen im Irakkrieg ab. Chile konnte am Ende langer Verhandlungen mit der Stimme der USA den Posten des Generalsekretärs der OAS mit José Miguel Insulza einnehmen. Die USA sind der wichtigste Handelspartner für Chile, beide Länder haben 2004 ein Freihandelsabkommen geschlossen. Allerdings sinkt der Anteil des US-Handels zugunsten der EU und Asiens. Chile hat 2002 moderne Kampfflugzeuge von Typ F-16 in den USA bestellt. Die Europäische Union ist neben den USA ein sehr wichtiger Handelspartner. 2005 trat ein Assoziierungsabkommen zwischen der EU und Chile sowie ein Abkommen über die technisch-wissenschaftliche Zusammenarbeit in Kraft. Es stehen enge Verbindungen zwischen beiden Ländern, der Schwerpunkte liegt in der Politik, Wirtschaft und derzeit gerade in der Wissenschaft. Viele Chilenen pflegen einen besonderen Bezug zu Deutschland. Während der Diktatur von Augusto Pinochet flohen viele von ihnen vorranging in die DDR ins Exil. Auch die ehemalige Präsidentin des Landes, Michelle Bachelet, war für ein paar Jahre im ostdeutschen Exil, studierte Medizin an der Humboldt Universität Berlin und lernte Deutsch an der Universität Leipzig. In der ehemaligen Regierung von Präsident Sebastián Piñera gab und gibt es mehrere Minister, die deutsche Schulen besucht oder in Deutschland studiert haben. Hinzu kommt, dass vor dem und nach dem Ersten Weltkrieg viele deutsche Ausbilder die Streitkräfte Chiles mit aufbauten. Bildung und Forschung. Seit 2002, als der damalige Präsident Ricardo Lagos eine Reform des Ausbildungssystems auf den Weg brachte, gibt es eine Schulpflicht. Diese ist auf zwölf Jahre begrenzt. Die Schulen unterstehen dem Erziehungsministerium. Es herrscht Lehrmittelfreiheit. Die Analphabetenrate liegt bei etwa 4 Prozent, dies ist für Südamerika sehr niedrig. Im Jahr 2006 hat Chile erstmals an der PISA-Studie der OECD teilgenommen. Chile führte in den 1990er-Jahren das Programm „PRADJAL“ ("Programa Regional de Acciones para el Desarrollo de la Juventud en América Latina") sowie das Ausbildungsprogramm „Chile Joven“ ein. Ziel der Programme ist die Senkung der Jugendarbeitslosigkeit durch eine staatlich finanzierte Berufsausbildung mit anschließendem Betriebspraktikum. Außerdem werden Kurse für jugendliche Unternehmensgründer angeboten. Damit soll auch die Jugendkriminalität und der Drogenkonsum indirekt bekämpft werden. Die wichtigsten Universitäten wie die Pontificia Universidad Católica de Chile liegen in Santiago de Chile, Concepción und Valparaíso. Allerdings ist der Zugang zu den Universitäten aufgrund hoher Studiengebühren trotz Stipendienprogrammen für die ärmeren Schichten nur schwer möglich. Das Niveau der Universitäten streut durch viele private Einrichtungen stark, da sich auch die Berufsakademien Universität nennen dürfen. In letzter Zeit formieren sich in Chile Studentenproteste, die u. a. von Camila Vallejo angeführt worden sind. Unter anderem werden bessere Kreditbedingungen verlangt, damit auch Jugendliche aus unteren, ärmeren Schichten Zugang zu Bildung haben. Aufgrund ihrer klimatischen Eigenschaften und ihrer guten infrastrukturellen Erschließung sind die Wüsten Chiles beliebte Orte für Teleskope. Allein die Europäische Südsternwarte (ESO) hat drei Standorte in Chile mit Großteleskopen: La Silla, Paranal und Alma. Daneben gibt es weitere Observatorien in Chile, beispielsweise Cerro Pachon mit dem 8,1-Meter-Gemini-Süd-Teleskop oder das Las Campanas mit den zwei 6,5-Meter-Magallan-Teleskopen. Seit den frühen 1990er-Jahren arbeitet in Chile das Paranal-Observatorium. Das Observatorium befindet sich in der Atacamawüste im Norden des Landes auf dem Berg Cerro Paranal. Dieser liegt etwa 120 Kilometer südlich von Antofagasta und 12 Kilometer von der Pazifikküste entfernt. Das Observatorium wird von der ESO betrieben und ist Standort des Very Large Telescope (VLT) und des Very Large Telescope Interferometer (VLTI). Zusätzlich werden die Surveyteleskope VISTA und VST gebaut. Die Atmosphäre über dem Gipfel zeichnet sich durch trockene und außergewöhnlich ruhige Luftströmung aus, was den Berg zu einem sehr attraktiven Standort für ein astronomisches Observatorium macht. Der Gipfel wurde in den frühen 1990ern von seiner ursprünglichen Höhe von 2660 Metern auf 2635 Meter heruntergesprengt, um ein Plateau für das VLT zu schaffen. Menschenrechte. Amnesty International weist darauf hin, dass es im Zusammenhang mit Landstreitigkeiten immer wieder zu Menschenrechtsverletzungen an Angehörigen der indigenen Gruppe der Mapuche kommt. Diese geraten nach Informationen von Amnesty International oft in Konflikte bei der Verteidigung ihrer wirtschaftlichen, sozialen und kulturellen Rechte gegenüber Forst- und Energieunternehmen, die in ihren traditionellen Siedlungsgebieten tätig sind. Im Jahr 2006 kam es zu Ausschreitungen der Polizei gegen Angehörige der Mapuche. Festgenommene gaben damals an, gefoltert worden zu sein. Chile erfüllt bis heute nicht alle Verpflichtungen, die es mit Unterzeichnung der "UN-Antifolter-Konvention" eingegangen ist. Besonders gravierend ist die Situation in den oft überfüllten Gefängnissen, die nicht internationalen Standards gerecht wird. Nach einer Reihe von Ereignissen kam es am 8. Dezember 2010 in der Haftanstalt San Miguel bei Santiago zu einem Aufstand und ein Feuer brach aus. In San Miguel waren zu diesem Zeitpunkt 1900 Menschen inhaftiert – ausgelegt ist das Gefängnis für 1000. In der Haftanstalt Santiago Sur mussten 400 Häftlinge die für 76 Insassen vorgesehenen Räumlichkeiten teilen. Die medizinische Versorgung und sanitäre Grundausstattung in den Gefängnissen sind nicht ausreichend. Eine Trennung minderjähriger Gefangener von Erwachsenen ist nicht sichergestellt. Sozialversicherungssystem. Das Gesundheitssystem wurde in den 1970er und 1980er Jahren stark privatisiert. Chilenische Arbeitnehmer müssen sich privat krankenversichern. Den ärmeren Bevölkerungsschichten steht für bestimmte Krankheiten eine kostenlose Behandlung in staatlichen Gesundheitszentren zu. Rund 80 Prozent der Bevölkerung nutzen das staatliche Gesundheitssystem und 20 Prozent lassen sich privat behandeln. Michelle Bachelet, die bereits unter Ricardo Lagos für das Ressort Gesundheit zuständig gewesen war, brachte nach ihrem Amtsantritt als Präsidentin einige Reformen auf den Weg, die unter anderem eine kostenlose Gesundheitsversorgung für ältere Menschen vorsehen. Außerdem wurden Anstrengungen unternommen, die medizinische Infrastruktur, in der teils deutliche Unterschiede bestehen, weiter zu verbessern. Die durchschnittliche Lebenserwartung der Chileninnen beträgt 79 Jahre und der Chilenen 72 Jahre (Stand: 2003). 1981 wurde das Rentenversicherungssystem unter José Piñera, einem Minister im Kabinett des Diktators Augusto Pinochet, vom Umlageverfahren auf das Kapitaldeckungsverfahren umgestellt. Die Arbeitnehmer müssen seitdem 13 Prozent ihres Gehalts als Beiträge für private Rentenfonds abführen. Außerdem werden 7 Prozent ihres Einkommens für eine private Krankenversicherung abgezogen, sodass die Sozialbeiträge im neuen System ein Fünftel eines Gehalts ausmachen. Nur das chilenische Militär wurde von Piñeras Reform ausgenommen; Soldaten haben bis heute Anspruch auf großzügige Pensionsleistungen vom Staat. Das neue Rentensystem wurde später von der Weltbank trotz interner Kritik als vorbildhaft angepriesen und verbreitete sich seit den frühen 1990er-Jahren in verschiedenen Varianten in Lateinamerika, wobei die meisten Staaten wie etwa Argentinien ein gemischtes Modell mit teils privatem, teils staatlichem Gesundheitssystem einführten. Besonders das argentinische Modell wurde später von weiteren Ländern übernommen, besonders in Osteuropa. Unter der Regierung Bachelet wurde das Rentensystem im Jahr 2008, auch auf Empfehlung der Weltbank, erneut reformiert. Staatshaushalt. Der Staatshaushalt umfasste 2009 Ausgaben von umgerechnet 37,87 Mrd. US-Dollar, dem standen Einnahmen von umgerechnet 31,31 Mrd. US-Dollar gegenüber. Daraus ergibt sich ein Haushaltsdefizit in Höhe von 4,4 % des BIP. Die Staatsverschuldung betrug 2009 13,5 Mrd. US-Dollar oder 9,0 % des BIP. Wahlen 2009/2010. Am 13. Dezember 2009 fanden Präsidentschaftswahlen in Chile statt. Gleichzeitig wurde auch ein Teil des Parlaments neu gewählt. Es kandidierten Sebastián Piñera, Eduardo Frei, Marco Enríquez Ominami und Jorge Arate. Nachdem im ersten Wahlgang keiner der Kandidaten die erforderliche absolute Mehrheit erreichte, kam es am 17. Januar 2010 zu einer Stichwahl zwischen Eduardo Frei und Sebastián Piñera, die Piñera gewann. Verwaltungsgliederung. Chile ist in 15 Regionen (spanisch "Región") aufgeteilt, die mit römischen Zahlen durchnummeriert sind. Die Nummer 13 gibt es nicht, die Hauptstadtregion wird mit RM ("Región Metropolitana") abgekürzt. Die Regionen spielen jedoch nur eine geringe politische Rolle, da Chile als ausgeprägter Zentralstaat gilt. Die Regionen sind in 54 Provinzen unterteilt. Regionen. Die I. Region de Tarapacá wurde mittlerweile aufgeteilt. Seit dem 8. Oktober 2007 hat Arica seine eigene Region. Die XV. Region ("Región de Arica y Parinacota") umfasst die Provinzen "Arica" und "Parinacota". Unterhalb der Provinzebene befinden sich die 346 Gemeinden ("municipalidad" oder "comuna"). Diese sind gemäß Artikel 61 der Verfassung die Organe der lokalen Selbstverwaltung. Sie werden von einem Bürgermeister ("alcalde") und einem Stadtrat geleitet. Straßennetz. "Siehe auch: Nationalstraßen in Chile" Der Straßenverkehr hat sich in Chile zum wichtigsten Verkehrsträger entwickelt. Im Jahr 2005 besaß das Land ein Straßen- und Wegenetz von insgesamt 80.651 Kilometern, davon waren 16.967 Kilometer asphaltiert. Bedingt durch die gerade in den letzten Jahren intensiv betriebenen Ausbaumaßnahmen sind diese Zahlen allerdings heute obsolet. Die wichtigste und mittlerweile von La Serena bis Puerto Montt als Autobahn ausgebaute Transportachse ist die etwa 3.000 Kilometer lange "Ruta 5" – ein Bestandteil der Panamericana. Sie verläuft in Nord-Süd-Richtung von der Grenzstadt Arica bis nach Quellón im Süden. Im Jahre 1976 begann der Bau der Carretera Austral, ein ehrgeiziges Straßenbau-Projekt unter Diktator Augusto Pinochet, um die Regionen von Puerto Montt bis Feuerland zu verbinden. Die Straße ist bis heute im Bau – eine durchgehende Straßenverbindung zwischen Puerto Montt und Coyhaique bzw. zwischen Coyhaique und Punta Arenas existiert nach wie vor nur über das Nachbarland Argentinien. Gut ausgebaut sind insbesondere die Panamericana und andere mautpflichtige Straßen vor allem im Großraum Santiago, in dem in den letzten Jahren viele neue Stadtautobahnen wie zum Beispiel die "Américo Vespucio" oder "Costanera Norte" entstanden sind; ferner eine Jahr für Jahr zunehmende Zahl von Hauptverbindungsstrecken. Viele Nebenstrecken, insbesondere in den abgelegeneren Teilen des Landes, bestehen jedoch nach wie vor lediglich aus unbefestigten Schotter- oder Erdpisten. Das Landstraßennetz wurde besonders in den mittleren Landesteilen seit dem Jahr 2005 sehr stark modernisiert und verbessert, wobei kontinuierlich bislang einfach ausgebaute Strecken zu mehrspurigen Fernstraßen ausgebaut werden. Straßenkarten sind im Buchhandel, bei Mietwagenstationen, Hotels oder an Tankstellen nicht zu bekommen und müssen im Voraus bei der Reiseplanung besorgt werden. ÖPNV-Busse in der Hauptstadt. Im Großraum Santiago wird der öffentliche Personennahverkehr (Transantiago) von privaten Firmen betrieben, jedoch unter starker staatlicher Kontrolle. Mit dem vor einigen Jahren umgestellten System gibt es nun feste Haltestellen, an denen die Busfahrer verpflichtet sind, zu halten. Im Gegensatz zum deutschen System gibt es allerdings keine genauen zeitlichen Fahrpläne, sondern Taktzahlen, die von den Verkehrsverhältnissen abhängig sind. Bargeld wird in Santiago von Busfahrern wegen der Diebstahlsgefahr nicht mehr angenommen, das einzige Zahlungsmittel sind Prepaid-Karten. In den Provinzen. Das Nahverkehrsbusnetz in den Provinzen ist vollkommen in privater Hand und recht unübersichtlich. Bei den städtischen Omnibussen ("Micro") sollte vorher der Streckenverlauf bekannt sein, denn an dem Großteil der Bushaltestellen gibt es keine Informationen über die Buslinien. Man erhält solche unter Umständen am lokalen Busbahnhof, wo auch die Fernbusse abfahren, oder in den Touristeninformationszentren an zentralen Plätzen. Auch Passanten und Fahrer sind häufig hilfsbereit und auskunftsfreudig, oft aber auch wenig informiert. Mitfahrinteressenten signalisieren dem ankommenden Busfahrer ihren Zusteigewunsch durch Handzeichen am Fahrbahnrand. Für aussteigewillige Fahrgäste gibt es einen Haltewunschknopf oder man meldet sich bei den Schaffnern oder Schaffnerinnen, die durch den Wagen gehen und die Fahrkarten verkaufen und kontrollieren. Die Busse sind wie Reisebusse bestuhlt (Pullmanbänke), Stadtbusse europäischen Typs gibt es kaum. Oft werden Kleinreisebusse für 18 oder 36 Personen als "Micro" genutzt. Sammeltaxen. Eine wichtige Rolle für den lokalen Personennahverkehr spielen Sammeltaxen ("Colectivos"), die auf festen Routen verkehren und Fahrgäste an beliebigen Stellen auf der Strecke aufnehmen und absetzen. Im Ortszentrum gibt es normalerweise einen oder mehrere Knotenpunkte, an denen Sammeltaxen aller Linien ständig vorfahren und wo man die Fahrtrouten erfragen und in den passenden Wagen einsteigen kann. Bei den Sammeltaxen handelt es sich um gewöhnliche Personenkraftwagen (nicht wie in anderen Ländern um Kleinbusse), die sich farblich nicht von normalen Taxen unterscheiden, sondern nur durch Kennzeichen (etwa die Liniennummer auf dem Dach) erkennbar sind. Der Fahrpreis (in der Regel ein Pauschalpreis unabhängig von Mitfahrstrecke oder Fahrziel) wird beim Einsteigen oder kurz nach Fahrtbeginn an den Fahrer gezahlt, der so lange weitere Personen zusteigen lässt, bis der Wagen voll besetzt ist. Gepäck (etwa Einkaufstaschen) kann man wie bei einem Taxi auch im Kofferraum ablegen, soweit dort noch Platz ist. Die Endpunkte der Linien, an denen der Fahrer wendet und wieder zurück ins Stadtzentrum fährt, liegen meist an markanten Punkten in den Vororten oder Wohngebieten. Taxen. Auch der gewöhnliche Taxiverkehr ist von Bedeutung, das gilt besonders für die Hauptstadt und größere Metropolen. Die Fahrpreise sind relativ erschwinglich. Traditionell sind die Taxen durch ihre Farbgebung im Straßenbild erkennbar und können überall angehalten oder angerufen werden. Besonders in der Hauptstadt gibt es aber auch immer mehr Funktaxen, die sich nach außen hin nur durch ihre Nummernschilder von privaten Pkw unterscheiden und ihre Fahrgäste nur auf telefonische Bestellung abholen. Da auch illegale Taxiunternehmer mit solchen Privatfahrten Geld zu verdienen suchen und teils mit kriminellen Netzwerken kooperieren, wird vor allem in Santiago strikt davon abgeraten, ohne telefonische Vorbestellung auf freier Strecke in solche nicht klar gekennzeichneten Taxen einzusteigen, auch wenn der Fahrer dazu einlädt und mit besonders günstigen Preisen wirbt. Ansonsten lassen sich die öffentlichen Verkehrsmittel in Chile bei Beachtung gängiger Sicherheitsempfehlungen in der Regel gefahrlos nutzen. Fernbusverkehr. Die gängigste Art, um mit öffentlichen Verkehrsmitteln in andere Städte und Regionen zu gelangen, ist die Tag- und Nachtreise mit dem Überlandbus. Es gibt verschiedene Anbieter, teils mit regionalen Schwerpunkten, und verschiedene Preis- und Komfortklassen. Diese Klassen gehen von Standardsitzen bis hin zu Liegebussen ("Bus Cama"), die für Übernachtreisen ausgelegt und mit höhenverstellbaren Sitzliegen in der Art eines Business-Class-Flugzeuges ausgestattet sind. Die Fahrzeugflotten vieler Unternehmen sind hochmodern, ältere Fahrzeuge finden sich nur noch bei Kleinunternehmen oder Billiganbietern. Die meisten größeren Gesellschaften bieten ein landesweites Routennetz an oder kooperieren mit Partnerfirmen in den von ihnen selbst nicht versorgten Regionen. Seit 2008 sind die Busunternehmer dazu übergegangen, alle Busse mit LED-Geschwindigkeitsanzeigern zu versehen, die von außen und von innen ständig sichtbar sind, um die Einhaltung der Geschwindigkeitsbegrenzungen nachvollziehbar zu dokumentieren. Die Fahrer sind immer in Doppelbesetzung unterwegs, oft fährt zusätzlich ein uniformierter Gepäckbursche mit, der auch die Fahrscheine kontrolliert. Alle Städte, auch Kleinstädte, verfügen über einen Busbahnhof ("terminal de buses") mit Schalterhalle, Ladenstraße, Gastronomiebetrieben, marktähnlichen Vorhallen und zum Teil überdachten Bussteigen. Die Reisen dauern oft sehr lange, Pausen werden in der Regel bis auf die fahrplanmäßigen Zwischenhalte nicht gemacht. Getränke und Speisen kann man an Bord mitbringen oder erwerben, häufig steigen streckenweise lokale Händler zu oder bieten ihre Waren an den Stationen feil. Der Ticketverkauf an den Schaltern und über das Internet funktioniert reibungslos; Fahrpläne werden in aller Regel zuverlässig eingehalten, bei Verspätungen werden Ersatzbusse eingesetzt. Eisenbahn. Die älteste Eisenbahn Chiles, die gleichzeitig auch als erste des südamerikanischen Festlandes angesehen wird, ist die im Mai 1850 begonnene und am 2. Januar 1852 fertiggestellte Bahn vom Hafen Caldera nach Copiapó. Die erste Strecke der Staatsbahnen von Valparaíso nach Santiago de Chile wurde am 15. September 1865 in Betrieb genommen. Mit dem Salpeterboom wurde das Schienennetz in Nordchile, damals noch Teil Perus und Boliviens, ab 1871 stark ausgebaut. Eine der ersten Strecken führte von La Noria nach Iquique. Die Strecken wurden direkt an den Salpeterminen verlegt, so dass Ende des 19. Jahrhunderts große Teile der Regionen Tarapacá, Antofagasta und Atacama eisenbahntechnisch erschlossen waren. Parallel dazu erfolgte der Ausbau der Strecken zu den großen Hafenstädten in Zentralchile, wie San Antonio und Talcahuano. Das Eisenbahnnetz von Chile hatte 1909 einen Umfang von 5675 km, davon 2618 km Staatsbahnen und 3057 km Privatbahnen, im Bau befindlich waren weitere 1393 km Staatsbahnen. Auch mehrere Privatbahnen waren im Bau und in Vorbereitung. Heute wird das chilenische Schienennetz von der staatlichen Eisenbahngesellschaft EFE betrieben. Zudem betreibt eine Tochtergesellschaft der staatlichen Eisenbahngesellschaft das S-Bahn-Netz in Valparaíso. Logo der "Metro de Santiago" Der Eisenbahnpersonenverkehr ist seit vielen Jahrzehnten im Rückgang begriffen und wird kaum genutzt, was durch die starke Konkurrenz der Busunternehmen, die schlechte Qualität der Waggons und die wenigen bedienten Strecken begründet ist. Es gibt Bestrebungen, wieder mehr Personen per Schiene zu befördern. So wurde in modernere Waggons und Triebwagen investiert, Bahnhöfe renoviert oder neu errichtet (Puerto Montt hat 2006 einen neuen Hauptbahnhof am Stadtrand erhalten) sowie die Strecke zwischen Temuco und Puerto Montt wieder hergerichtet. Allerdings konnte die Eisenbahngesellschaft EFE ihre hochgesteckten Ziele nicht erfüllen und hat mit erheblichen technischen und organisatorischen Problemen zu kämpfen. Ebenso sind die Pläne, Valdivia wieder an das Streckennetz anzubinden, auf Eis gelegt. Nahverkehrszüge, Stadtbahnen und Metro. In der Hauptstadt Santiago de Chile existiert ein über 45 km langes U-Bahn-Netz ("Metro de Santiago"), dessen erste Teilstrecke 1975 eröffnet wurde. Zurzeit wird das U-Bahn-Netz stark ausgebaut und soll dann 83 km lang sein. In die Agglomeration von Valparaiso ist seit 2005 eine S-Bahn in Betrieb, und im Großraum Concepción verkehrt seit 1999 der so genannte Biotrén. Häfen. Panorama des Hafens von San Antonio (Chile) Ein Großteil des Im-/Exports Chiles wird über große Seehäfen abgewickelt. Die Hauptausfuhrgüter sind Kupfer, Eisen, Zellstoff, sowie landwirtschaftliche Erzeugnisse. Viele Häfen verfügen über moderne Containerterminals. Wichtige Häfen gibt es in Arica, Iquique, Antofagasta, Chañaral, Coquimbo, Valparaíso, San Antonio, Talcahuano, Puerto Montt und Punta Arenas. Besonders in Südchile spielen Fährverbindungen eine wichtige Rolle, da hier die Straßenverbindungen aufgrund von vielen Fjorden und Inseln schlecht realisierbar sind. Wichtigste Stützpunkte der chilenischen Marine sind Valparaíso und Talcahuano. Vor dem Bau des Panama-Kanals waren Valparaíso und Punta Arenas die wichtigsten Häfen für den Pazifikhandel. 1840 errichtete die Pacific Steam Navigation Company die erste Dampfschifffahrtslinie in Südamerika von Valparaíso nach Callao in Peru. Flughäfen/Luftfahrt. Aufgrund der riesigen Länge des Landes spielt der Flugverkehr eine wichtige Rolle. Die größten Flughäfen besitzen Santiago de Chile, Puerto Montt, Concepción, Temuco, Iquique, Antofagasta und Punta Arenas. Der größte Flughafen ist der "Comodoro Arturo Merino Benítez Airport" (5.650.000 Passagiere) in Santiago. Über das ganze Land sind zusätzlich viele kleine Regionalflughäfen verteilt, die alle untereinander durch die zwei wichtigsten chilenischen Airlines LAN und Sky Airline verbunden werden. Von einigen Flughäfen aus werden auch Verbindungen nach Argentinien angeboten. Die zu Chile gehörende Osterinsel wird von Santiago de Chile und Lima angeflogen. Der erste Motorflug in Chile fand am 21. August 1910 statt, der Pilot hieß César Copetta Brosio. Bekannt wurden insbesondere Dagoberto Godoy, der 1918 als erster die Anden überflog und José Luis Sánchez Besa, ein chilenischer Flugbootpionier. Der Beginn der Flugpostbeförderung wurde ab 1. Januar 1919 von Santiago de Chile nach Valparaíso vom Piloten Clodomiro Figueroa mit einer Morane-Saulnier "MS-35" durchgeführt. 1929 gründete Kommodore Arturo Merino Benítez mehrere lokale Fluggesellschaften, diese formierten sich ab 1932 zur Línea Aérea Nacional, der heutigen Fluggesellschaft LAN. Diese wurde 1989 privatisiert und gehört mittlerweile durch eine expansive Geschäftspolitik zu den drei größten Airlines Lateinamerikas, mit Filialen in Peru LAN Peru, Argentinien LAN Argentina und Ecuador LAN Ecuador. Die frühere zweite chilenische Fluggesellschaft Ladeco wurde Anfang der 1990er-Jahre aufgekauft. Postwesen. Das Postwesen wurde bereits 1748 von den Spaniern eingeführt, ab 1853 gab es chilenische Briefmarken ("Siehe": Chilenische Postgeschichte). Telekommunikation. Im Jahre 1851 erhielt der Engländer William Wheelwright von der Pacific Steam Navigation Company den Auftrag eine Telegrafenlinie zu errichten. Nach ersten Tests konnte am 21. Juni 1852 die erste Nachricht von Valparaíso nach Santiago geschickt werden. Im April 1853 begann der reguläre Betrieb. Danach begann man mit dem Ausbau der Telegrafenstrecken entlang der Eisenbahnlinien. Die ersten Strecken von Santiago führten nach Valparaíso und Talca und wurden 1857 komplett fertig gestellt. Bis 1892 konnte das ganze Land mit Telegraphen erreicht werden. Feuerland war über ein Seekabel angebunden worden. Die ersten Telefone wurden 1880 in Valparaíso eingeführt. 1930 bildete sich die Telefongesellschaft "Compañía de Teléfonos de Chile CTC", die später von der spanischen Telefónica übernommen wurde. Der Radiobetrieb begann mit "Radio Chileña" in Santiago 1922. Der zweite große Telekommunikationskonzern in Chile ist ENTEL "(Empresa Nacional de Telecomunicaciones SA de Chile)", der größte Anbieter von Internet- und Mobilfunkdiensten in Chile. ENTEL, Telefonica und weitere zum Teil lokale Anbieter betreiben heute ein nahezu flächendeckendes Netz für die Mobiltelefonie. Energie. Die Stromgewinnung aus Wasserkraft stellt etwa die Hälfte der in Chile erzeugten Energie. Danach folgen Kohle mit einem Viertel und Erdgas. Der Wasserkraftausbau ist begrenzt, da die Bevölkerung in vielen Gegenden die Zerstörung von Flusstälern durch Stauseen ablehnt. Die Erdgasversorgung wird zu 90 % durch Erdgaslieferungen aus Argentinien sichergestellt. Da Chile diese starke Abhängigkeit langfristig verringern möchte, wird eine Vielzahl von alternativen Energien diskutiert. Insbesondere die geothermische Energie ist interessant, da Chile hier aufgrund der vulkanischen Aktivitäten viele Möglichkeiten hat. Wind- und Sonnenenergie werden wenig genutzt, obwohl auch hier viel Potenzial liegt. Kernenergie wird in Chile nicht genutzt. Wirtschaft. Als Gegenpol zum sozialistischen Konzept von Salvador Allende wurde die chilenische Volkswirtschaft unter Augusto Pinochet nach der Maxime der Chicago Boys konsequent nach marktwirtschaftlich-wirtschaftsliberalen Aspekten umgebaut. Staatliche Unternehmen wurden sowohl zu Zeiten Pinochets als auch danach größtenteils privatisiert, allerdings sind die von Allende verstaatlichten Kupferminen, die seit Pinochet unter direkter Kontrolle des Militärs standen, immer noch in Staatsbesitz. Auch wenn die nach Pinochet regierenden Mitte-links-Regierungen bemüht waren, soziale Härten abzufedern, gilt Chile heute nach wie vor als eines der Länder mit den größten sozialen Ungleichgewichten. Die chilenische Volkswirtschaft wies zwischen 1988 und 1998 überdurchschnittliche Wachstumsraten auf. Die Asien- und Brasilienkrise 1997/98 führten zwar zu einer Rezession, seit 2000 wächst die Wirtschaft jedoch wieder mit Wachstumsarten zwischen 2,5 Prozent und 6 Prozent. Im jährlichen Korruptionsindex von Transparency International belegt Chile permanent einen der vorderen Plätze, gilt also als relativ korruptionsfrei und lässt somit auch europäische Länder wie Belgien, Frankreich und Spanien hinter sich. Im Jahr 2010 war Chile auf Platz 21 zu finden. Im lateinamerikanischen Vergleich kommt nur Uruguay mit Platz 24 in die Nähe, weiter abgeschlagen liegen Brasilien und Kuba auf Platz 69, Kolumbien und Peru 78, Mexiko 98, Argentinien 105, Bolivien 110, Ecuador 127, Paraguay 146 und Venezuela auf Platz 164. In einem Ranking der unternehmerfreundlichsten Länder der Welt, welches von der Weltbank-Tochter International Finance Corporation erstellt wurde, landete Chile 2005 auf dem 25. Platz als bestes lateinamerikanisches Land. Deutschland besetzt laut dieser Studie Platz 19, Kolumbien als zweitbestes südamerikanisches Land Platz 66. Im jährlichen Globalisationsindex der Beratungsfirma A.T. Kearney und der Zeitschrift Foreign Policy lag Chile 2007 auf Rang 43 der insgesamt 72 bewerteten Länder. Im Vergleich zu 2006 verlor Chile die führende Position unter den lateinamerikanischen Ländern an Panama, den letzten Platz belegte Venezuela. Die Arbeitslosenrate lag im Jahre 2004 bei 7,8 Prozent. Die Armutsrate lag 2003 bei 18,8 Prozent und die Rate extremer Armut bei 4,7 Prozent der Bevölkerung. Die Armutsrate hat sich seit 1987 mehr als halbiert, die extreme Armut hat nur noch etwa 30 Prozent des Wertes von 1987. Die neue demokratische Regierung Chiles führte das Programm „Chile Solidario“ ein, damit werden die 250.000 ärmsten Familien im Land von staatlichen Helfern betreut und finanziell unterstützt. Die Inflationsrate liegt im Schnitt zwischen 2 Prozent und 4 Prozent. Seit 1998 hat sie die Fünf-Prozent-Marke nicht mehr überschritten. Im Jahre 2004 lag sie bei 2,4 Prozent und wurde 2006 mit einem Wert von 2,6 Prozent angegeben. Das Bruttosozialprodukt stieg im Jahr 2005 um 6,3 Prozent auf 115,3 Milliarden US-Dollar, dies entspricht in etwa 7146 US-Dollar je Einwohner. Chile hat das höchste Pro-Kopf-Einkommen und das höchste Exportvolumen je Einwohner unter den südamerikanischen Staaten. Wirtschaftssektoren. Den größten Anteil an der Wertschöpfung hat der Dienstleistungssektor mit 57 %, gefolgt vom Produktionssektor und der Landwirtschaft mit 34 Prozent beziehungsweise 9 Prozent Anteil (Stand: 2001). a>, die größte Kupfermine der Welt Chile gehört zu den führenden Wirtschaftsnationen Lateinamerikas sowie zu den größten Rohstoffproduzenten. Es verfügt über die größten bekannten Kupfervorkommen der Welt (etwa 40 Prozent). In Chile liegen die größten Kupferminen der Welt, Chuquicamata (Übertage) und El Teniente (Untertage), die vom staatlichen Konzern Codelco ausgebeutet werden. Die von der Produktionsmenge größte Kupfermine ist Escondida (Übertage), die von der privaten Gesellschaft Minera Escondida betrieben wird. Verschiedene Edelmetalle und vor allem Salpeter führten Chile schon im 19. Jahrhundert zum Reichtum. Momentan wird mit dem Pascua-Lama-Projekt eine der größten Goldminen der Welt geplant, bei dem jedoch große Umweltschäden befürchtet werden. Daneben werden heute Forst-, Fischerei- und Landwirtschaft betrieben. Nur etwa 7 Prozent der Landfläche werden für die Landwirtschaft genutzt. Diese Flächen befinden sich hauptsächlich im Zentraltal. Im wüstenhaften Norden Chiles beschränkt sich die Landwirtschaft weitgehend auf Oasen. Die Viehzucht ist hauptsächlich in Zentralchile und im nördlichen Teil von Südchile angesiedelt. Chile ist das einzige Land Südamerikas, in dem Zuckerrüben angebaut werden. Besondere Erwähnung verdient der Weinbau, der Chile zum Weinexporteur Nummer eins in Südamerika gemacht hat. Außenhandel. Chiles Wirtschaft hängt stark vom Export ab. 2004 betrug der Exportanteil 34 Prozent des Bruttosozialprodukts, was ziemlich genau dem von Deutschland entspricht. Besonders wichtig für die chilenische Wirtschaft ist der Kupferexport. Momentan steigen andere Exportgüter stärker als Kupfer und Mineralien. 1975 lagen diese noch bei 30 Prozent, heute sind es etwa 60 Prozent. Zu diesen Exportgruppen gehören Forst- und Holzprodukte, frische Früchte, Wein und Nahrungsmittel, Lachs, verarbeitete Nahrungsmittel, Fischmehl und Meeresfrüchte. 2004 stieg die Handelsbilanz um neun Milliarden US-Dollar, viel stärker als 2003. Mit dem starken Anstieg der Rohstoffpreise explodierten die Exporte geradezu von 20,4 (2003) auf 32,1 im Jahr 2004 und 39,4 Milliarden US-Dollar im Jahr 2005. Chile verdrängte 2005 Norwegen als weltweit größten Lachsproduzent. Der US-Markt ist mit 15 Prozent der größte chilenische Einzel-Exportmarkt, allerdings wird die Volksrepublik China immer wichtiger. Haupthandelspartner des Landes sind Brasilien und Argentinien, mit denen Chile über den Mercosur assoziiert ist. Bis heute ist Chile dem Mercosur jedoch nicht als vollständiges Mitglied beigetreten, da dies dem Land die Möglichkeit nehmen würde, eigenständige Handelsabkommen mit anderen Ländern abzuschließen und es auch befürchtet wird, dass das Land im Falle eines vollständigen Beitritts sich der Gefahr aussetzen würde, durch wirtschaftliche Schwankungen seiner Nachbarn stärker getroffen zu werden. Durch den Kompromiss der Assoziierung bestand für Chile die Möglichkeit, eigene Freihandelsabkommen mit Japan, der EU und der NAFTA abzuschließen. Chile hat 2005 auch ein Freihandelsabkommen mit der Volksrepublik China und 2006 eines mit Brunei, Neuseeland und Singapur (P4 Agreement) abgeschlossen. Aufgrund dessen gilt die chilenische Volkswirtschaft heute als eine der offensten der Welt. Sehenswürdigkeiten. Aufgrund der großen Länge des Landes verfügt Chile über unterschiedlichste Landschaften. Im Norden dominiert die Atacamawüste. Der Osten ist von den Anden geprägt. Zentralchile ist von mediterranem Klima beeinflusst. Der "Kleine Süden" ist geprägt von Wäldern und herrlichen Landschaften, die oft auch als "Chilenische Schweiz" bezeichnet werden. Ab der Region XI. gibt es bereits große Gletschergebiete. Der größte Gletscher Südamerikas ist das Campo de Hielo Sur. Hier beginnt die karge Landschaft Patagoniens. Das Klima ist rau und regenreich. Eine ganz andere Welt bieten die ozeanischen Inseln, wie die Osterinsel und die Juan-Fernández-Inseln. Die Osterinsel ist besonders aus archäologischer Sicht sehr interessant. Feuerland dient oft als Ausgangspunkt zur Chilenischen Antarktis. Nationalparks in Chile. Chile verfügt über eine sehr große Anzahl von Nationalparks und nationalen Reservaten, diese werden von der chilenischen Forstbehörde CONAF verwaltet. Die bekanntesten Nationalparks sind der Nationalpark Conguillio, der Nationalpark Torres del Paine, der Nationalpark Lauca, der Nationalpark Bernardo O’Higgins und der Nationalpark Rapa Nui auf der Osterinsel. In der Provinz Palena bei Chaitén liegt der mit privaten Mitteln errichtete, über 3000 Quadratkilometer große Parque Pumalín. Er wurde vom US-Amerikaner Douglas Tompkins durch große Landkäufe ab Mitte der 1990er-Jahre errichtet. Das Land wurde später der Non-Profit-Organisation "Fundación Pumalin" übergeben. Der Park ist insbesondere für den Öko-Tourismus interessant. Biosphärenreservate in Chile. Die UNESCO erklärte insgesamt 8 Gebiete in Chile zu Biosphärenreservaten. Weltkulturerbe/Weltnaturerbe der UNESCO in Chile. Die UNESCO erklärte bisher drei Plätze in Chile zum Weltkulturerbe: im Jahr 2000 den Nationalpark Chiloé sowie einen Teil der dort befindlichen Holzkirchen, 2003 das historische Viertel der Hafenstadt Valparaíso sowie 2005 die Humberstone- und Santa-Laura-Salpeterwerke in der Atacamawüste im Norden Chiles. Zum Weltnaturerbe wurden 1978 der Nationalpark Torres del Paine und 1995 der Nationalpark Rapa Nui auf der Osterinsel ernannt. a>s,ca. 800 v. Chr. – 1100 n. Chr.) Museen und historische Plätze. Santiago de Chile, Concepción (Chile) und Valparaíso bieten die größte Vielfalt an Museen und historischen Plätzen. Über das Land verteilt gibt es viele Monumente, die lange vor der spanischen Besiedlung entstanden sind. Kultur. Zwischen der Kultur in den Städten und auf dem Land gibt es starke Unterschiede. Auf dem Lande spielt die Folklore mit traditionellen Tänzen, wie dem Nationaltanz Cueca, eine wichtige Rolle. Die volkstümliche Kultur ist stark spanisch und araukanisch geprägt. "Payadores" sind Volkssänger, deren Lieder meist von Liebe und Träumen handeln. Politische Lieder waren ihnen während der Pinochet-Diktatur verboten. Das Kunsthandwerk auf dem Lande ist von indianischen Einflüssen gekennzeichnet. Hergestellt werden vor allem Web- und Töpferarbeiten sowie Schnitzereien. Eine wichtige Rolle auf dem Lande spielen die Huasos, eine Art chilenischer Cowboys oder Gauchos. Sie sind auf fast allen Folklorefesten und speziell beim chilenischen Rodeo dabei. Die Stadtkultur ist kosmopolitischer geprägt. Fast 50 Prozent der Chilenen gaben in einer 2008 durchgeführten repräsentativen Umfrage an, nie oder fast nie zu lesen. Bücher sind in Chile sehr teuer, da die Auflagen sehr gering sind. Der Buchmarkt hat sich nach der kulturellen Lähmung unter der Militärdiktatur nur langsam erholt. Literatur. Isabel Allende (* 1942) ist wohl die bekannteste zeitgenössische Schriftstellerin Chiles. Ihre Romane wie "Das Geisterhaus", "Fortunas Tochter" oder "Der unendliche Plan" sind weltweit verlegt worden. Viele ihrer Bücher sind stark autobiografisch geprägt. Sie ist die Nichte des früheren Präsidenten Salvador Allende. Roberto Bolaño (1953–2003), Verfasser surrealistischer Lyrik und Prosa, ging nach dem Militärputsch 1973 ins Exil. Er ist Träger vieler Literaturpreise und starb in Barcelona. Jorge Edwards (* 1931) ist Träger des Cervantespreises. In Deutschland ist sein Werk kaum bekannt. Erst neun Jahre nach seiner Veröffentlichung erschien sein Roman "Der Ursprung der Welt" 2005 in deutscher Übersetzung. Alberto Blest Gana (1830-1920) schrieb den ersten chilenischen Roman ("Martín Rivas", 1862), eine realistische und sozialkritische Familiengeschichte. Er wurde seit 1925 fünfmal verfilmt und auch für das Theater und als Musical adaptiert. Die Werke des Autors sind in Chile heute noch wichtige Bestandteile der Schullektüre. Gabriela Mistral (1889–1957), Dichterin und Nobelpreisträgerin 1945, schrieb in ihren Gedichten über Liebe, Tod und Hoffnung, nachdem ihr Geliebter Romelio Ureta Selbstmord begangen hatte. Später arbeitete sie im diplomatischen Dienst Chiles. Der avantgardistische Lyriker Vicente Huidobro(1893-1947) begründete mit seinem Gedichtband "Ecos de Alma" (1911) die modernistische Bewegung in Chile. Er kämpfte im spanischen Bürgerkrieg auf republikanischer Seite. Pablo Neruda (1904–1973) war ein weltbekannter Dichter, Schriftsteller und Nobelpreisträger 1971. Er verfasste viel soziale und politische Lyrik und arbeitete als Botschafter in Frankreich für die Regierung von Salvador Allende. Er starb kurz nach dem Militärputsch 1973 an Krebs. Sein Begräbnis wurde zur ersten öffentlichen Demonstration gegen das Militärregime. Luis Sepúlveda (* 1949) wurde unter Pinochet mehrfach verhaftet und musste ins Exil gehen. Zu seinen in Deutschland bekannten Werken gehört das „Tagebuch eines sentimentalen Killers“. Auch Antonio Skármeta (* 1940), Schriftsteller und Anhänger von Salvador Allende, verließ nach dem Militärputsch 1973 das Land. Er verfasste Romane und Erzählungen, die sich oft mit der Militärdiktatur befassten. Von 2000 bis 2003 war er chilenischer Botschafter in Berlin, wo er auch während seines Exils gelebt hatte. Musik. Claudio Arrau (1903–1991), geboren in Chillán, war der bedeutendste chilenische Pianist und eine der wichtigsten Musikerpersönlichkeiten der Nachkriegszeit. Seine Interpretation der Werke Beethovens, Schumanns und vieler anderer Komponisten des klassischen Repertoires sind bis heute Maßstab setzend. Violeta Parra (1917–1967) begründete die „Nueva Canción Chilena“. Die Sängerin wuchs in Armut auf, komponierte schon früh eigene Folklorelieder und begann in den fünfziger Jahren, traditionelles Liedgut zu sammeln und zu dokumentieren. Ihre eigenen Werke hatten einen stärker politischen Charakter. Neben der Musik dichtete sie, malte, webte und schuf Skulpturen. Viele chilenische und internationale Künstler haben ihre Werke interpretiert, ihr bekanntestes Lied ist "Gracias a la vida". Víctor Jara (1932–1973) war ein politischer Sänger und zählt zu den großen Vertretern der „Nueva canción“ (Neues Lied), einer breiten revolutionären künstlerischen Bewegung in ganz Südamerika. Er unterstützte Salvador Allende und wurde während des Militärputsches 1973 gefoltert und getötet. Die Gruppen Illapu, Inti Illimani und Quilapayún machten die Musik der „Nueva Canción Chilena“ weltbekannt. Sie mussten nach dem Militärputsch lange Jahre im Exil verbringen und haben ihr musikalisches Spektrum beständig erweitert. Film. Der moderne chilenische Film beschäftigt sich oft mit der Zeit der Militärdiktatur von 1973 bis 1989. Zu den berühmtesten Regisseuren gehören Andrés Wood und Miguel Littín. Carmen Castillo (* 1945) ist eine chilenische Dokumentarfilmerin. Sie schrieb 1979 "Santiago de Chile, ein Tag im Oktober", ein Buch über ihr Leben im Untergrund nach dem Militärputsch. Alejandro Jodorowsky ist Schauspieler, Autor und Regisseur einer Reihe surrealistischer Filme, darunter El Topo und Montana Sacra – Der heilige Berg. Bildende Kunst. Roberto Matta (1911–2002) war ein großer surrealistischer Maler des 20. Jahrhunderts und Freund von Salvador Dalí und Federico Garcia Lorca. Sport. Die Fußball-Weltmeisterschaft 1962 fand in Chile statt. Die chilenische Fußballnationalmannschaft erreichte dabei einen achtbaren dritten Platz; das ist das beste Ergebnis bei einer Weltmeisterschaft. Chile hat sich bisher achtmal für die WM qualifiziert und liegt nach diesem Kriterium in Südamerika auf dem vierten Platz hinter Brasilien, Argentinien und Uruguay. Darüber hinaus gewann die Nationalmannschaft auch die Copa América 2015, die im eigenen Land ausgetragen wurde. Zu den nationalen Fußballlegenden zählen Ivan Zamorano, Marcelo Salas und unangefochten an der Spitze Elias Figueroa, erster (und neben Zico einziger) Spieler Amerikas, der dreimal den Titel des besten Spielers des Kontinents erringen konnte. Figueroa gilt heutzutage als einer der besten Abwehrspieler des letzten Jahrhunderts. Zu erwähnen sind auch Matías Fernández, Südamerikas Fußballer des Jahres 2006, und David Arellano, der als Erfinder des Fallrückziehers (auf Spanisch "la chilena") gilt. Neben Fußball spielen insbesondere Tennis, der Reitsport (hier vor allem auch das chilenische Rodeo) und das Segeln eine bedeutende Rolle. Im Tennisdoppel gewann Nicolás Massú mit seinem Partner Fernando González bei den Olympischen Sommerspielen 2004 das erste Olympiagold für Chile überhaupt. Einen Tag später krönte Massú seine Olympiateilnahme mit dem Sieg im Herreneinzel, González gewann die Bronzemedaille. Eine der großen Sportlegenden in Chile ist Marcelo Ríos, der als erster spanischsprechender Tennisspieler die Spitze der Weltrangliste erreichte und hierbei zeitweise Pete Sampras ablöste. Im Segelsport, Kategorie Breitling, besetzten chilenische Teams in prestigeträchtigen Rennen wie der Copa del Rey regelmäßig die ersten drei Plätze. Am 3. Mai 2008 besiegte die chilenische Polo-Nationalmannschaft im WM-Finale in Mexiko-Stadt den amtierenden Weltmeister Brasilien und wurde somit erstmals Weltmeister in dieser Disziplin. Im Rudern (Zweier ohne Steuermann) wurden Christian Yantani und Miguel Angel Cerda im Jahre 2002 in Sevilla Weltmeister. 2005 wurde Cerda in Japan mit Felipe Leal Vizeweltmeister und in der Schweiz Weltmeister. Carlo de Gavardo ist zweifacher Motorrad-Rallye-Weltmeister. Medien. Wichtigste Informationsquelle der chilenischen Bevölkerung ist das Fernsehen. Die wichtigsten Fernsehsender sind das staatliche TVN-Programm, der Sender "Canal 13" der katholischen Universität "Universidad Católica" und private Sender wie "Megavisión" oder "Chilevisión". Das Programm der Fernsehsender ist hauptsächlich auf Unterhaltung, das heißt auf Shows, US-amerikanische Filme und Fernsehserien, die beliebten „Teleseries“ (Telenovelas, zumeist aus eigener Produktion) sowie auf Sportberichterstattung ausgerichtet. Politische Sendungen, Naturdokumentationen und Kulturprogramme sind dagegen eher dünn gesät, dann aber oft von guter Qualität. Die Nachrichten beginnen erst um 21 Uhr und dauern etwa eine Stunde. Die Presselandschaft wird weitgehend von zwei Konzernen dominiert, dem "Mercurio"- und dem "COPESA"-Konzern, nachdem sich eine Reihe von Publikationen aus dem politischen Mitte-links-Spektrum nach dem Rückgang der Politikbegeisterung zur Zeit der Redemokratisierung nicht auf Dauer im Markt halten konnten. Die beiden jeweiligen „Flaggschiffe“ der Pressekonzerne sind "El Mercurio", eine Zeitung, die in Qualität und politischer Ausrichtung etwa mit der Frankfurter Allgemeinen Zeitung zu vergleichen ist, sowie "La Tercera". Zu den selten gewordenen "bunten Vögeln" in der Presselandschaft gehört das Hausblatt der kommunistischen Partei, "El Siglo", sowie die ebenfalls linksorientierte, aber parteiungebundene Zeitschrift "Punto Final". Wichtige Wochenzeitschriften sind "Ercilla" und "Qué Pasa". Darüber hinaus gibt es die deutschsprachige Wochenzeitung "Cóndor". Kulinarische Spezialitäten und Essgewohnheiten. Die chilenische Küche ist keineswegs ein Ableger der spanischen Küche, wie viele vermuten. Vielmehr gibt es eine Vielzahl von Einflüssen – vielfach auch von deutschen Einwanderern. So finden sich etwa deutsche Bezeichnungen wie „Kuchen“ ("kuchen", Aussprache wie im Deutschen) oder „Apfelstrudel“ ("estrudel") auch im Wortschatz der chilenischen Konfiserie. Berliner sind unter der Bezeichnung "Berlines" verbreitet. Auch der Christstollen als Weihnachtsgebäck ist bekannt (unter der Bezeichnung "pan de pascua") und gilt in Südamerika ebenso als chilenische Spezialität wie Schweinskopfsülze ("queso de cabeza"), Tatar ("tártaro de carne") oder die einer Bouillabaisse ähnelnde chilenische Fischsuppe "Paila marina". Ebenfalls auf mitteleuropäische Einflüsse zurückzuführen ist das typisch chilenische Sauerkraut (genannt "Chucrú", abgeleitet vom französischen Choucroute), die Vorliebe für quarkähnliche Frischkäsezubereitungen und die vor allem im Süden sehr starke Brautradition. Viele Biere werden nach dem deutschen Reinheitsgebot gebraut und oft wird aus deutschen Anbaugebieten importierter Hopfen verwendet. Aufgrund der sonnigen Bedingungen in Mittel- und Nordchile und der vulkanischen Böden eignet sich das Land sehr gut zum Anbau von Feldfrüchten und Obstsorten, die in großer Vielfalt auf Chiles Märkten feilgeboten werden. in einem der Ursprungsländer der Kartoffel finden sich auch sehr viele unterschiedliche Speisekartoffelsorten. Der mindestens einmalige wöchentliche Marktbesuch und die Verwendung frischer Gemüse und anderer Zutaten in der Küche spielt für die Mehrzahl der chilenischen Hausfrauen und die in wohlhabenden Haushalten häufig anzutreffenden Küchenmamsells noch immer eine große Rolle. Neben einem reichen Angebot an Fisch und Meeresfrüchten wird in Chile sehr gerne Huhn gegessen. Gegrilltes Fleisch, ein so genannter "Asado", gehört wie im Nachbarland Argentinien zu den traditionellen Speisen bei geselligen Anlässen. Neben Rind- und Schweinefleisch werden dabei vor allem würzige Paprikawürste ("Longanizas") verwendet. Das Fleisch wird vor dem Grillen gern einige Stunden in Bier eingelegt, um seine Zartheit zu erhöhen. Zu den Nationalgerichten zählt die chilenische Empanada, das sind unterschiedlich (bspw. mit Rindfleisch, Hühnchen, Meeresfrüchten oder Käse) gefüllte Teigtaschen, die im Ofen gebacken oder frittiert zubereitet werden können. Die "Cazuela" ist ein kräftiges Eintopfgericht, in dem Hühnchen oder auch Rindfleisch, Maiskolben ("Choclos"), Kürbis und weiteres Gemüse verwendet wird. Als "Humitas" wird ein Maisbrei bezeichnet, der in Maisblättern gekocht und süß oder salzig gegessen wird. "Pebre" ist eine aus scharfem Paprika ("Ají"), fein gehackten Zwiebeln und Kräutern zubereitete Öl-Zitronen-Sauce, die vor allem zu Fleisch, aber auch als Würze zu anderen Gerichten gereicht werden. Beliebt sind auch mit getrocknetem Kelp, "Cochayuyo" genannt (es handelt sich um Braunalgen der Art "Durvillaea antarctica"), zubereitete Beilagen. Die relativ geschmacklose Alge wird dazu klein geschnitten und mit Zwiebeln, unterschiedlichen Gewürzen und Kräutern und unter Umständen Hülsenfrüchten oder anderem Gemüse vermengt gegart. Typisch ist auch das so genannte „geröstete Mehl“ ("harina tostada"), gewonnen aus erhitztem und anschließend zermahlenen Weizen, der mit Wasser und Zucker, eventuell auch Melonensaft oder Wein, zu einer zähflüssigen Mischung verarbeitet werden kann, dem "ulpo", der als stärkendes Erfrischungsgetränk zu sich genommen wird. Der klassische chilenische Schnellimbiss ist der in den 1950er Jahren entstandene "Completo", eine Art Hot Dog, der mit reichlich Avocadomus ("Palta") und Sauerkraut oder Krautsalat ("Chucrú") gereicht und mit Chilipaste ("salsa de ají chileno") und dem mild-süßen chilenischen Senf gegessen wird. Ebenfalls als typisch chilenisch gelten die oft mit gebratenem Fleisch oder anderen Zutaten reich belegten Sandwiches ("sánguches"), die an Garküchen, Imbissständen oder in Gaststätten fast überall in den Städten auch zum Mitnehmen zu bekommen sind. Zu den Besonderheiten der Mahlzeitenfolge in Chile gehört, dass neben Frühstück ("desayuno") und Mittagessen ("almuerzo") auch am frühen Abend ein Imbiss gereicht wird, zu dem stets Tee getrunken wird und der das in der Regel erst sehr spät eingenommene Abendessen ("comida") mitunter ersetzen kann. Diese Zwischenmahlzeit wird "tomar once" (wörtlich „Elf einnehmen“) genannt. Diese für Chile eigentümliche Tradition wird oft auf englische Gebräuche (etwa den „Fünf-Uhr-Tee“ oder den in England „Elevenses“ genannten Vormittagstee) zurückgeführt. Einer volkstümlich-humoristischen Erklärung zufolge soll der Ausdruck dagegen auf die Tatsache zurückgehen, dass das spanische Wort "aguardiente" (Schnaps) genau elf ("once") Buchstaben hat. Zu Zeiten eines Alkoholverbots in Chile hätten die Leute deshalb "Once" bestellt und Schnaps in einer Tasse serviert bekommen. Auch wenn sich der genaue Ursprung der Bezeichnung nicht mehr mit letzter Sicherheit aufklären lässt, liegt besonders eine Ableitung aus der katholischen liturgischen Tagstundenzählung nahe, die in vom Katholizismus geprägten Ländern wie Spanien, Italien oder Chile bis weit ins 19. Jahrhundert üblich war: Die elfte Stunde der kirchlichen Tageseinteilung entspricht exakt der traditionellen „Tea Time“ 17 Uhr. Dessen ungeachtet wird die „Once“ in Chile allerdings besonders im Sommer oft bis 19.30 Uhr hinausgeschoben. Der Wein in Chile ist von sehr guter Qualität und wird seit vielen Jahren mit großem Erfolg auf den Weltmarkt exportiert. Rebsorten wie Merlot und Cabernet Sauvignon sind im Rotweinsegment weit verbreitet und werden auf verschiedenen Qualitätsstufen produziert. Eine exklusive Rebsorte ist die Carménère, eine besonders empfindliche Sorte von außergewöhnlicher Qualität, die heute (da in Frankreich durch Reblausbefall ausgestorben) praktisch nur noch in Chile angebaut wird. Rechnergestützte Entwicklung. Die rechnergestützte Entwicklung (englisch ' und kurz "CAE" genannt) umfasst alle Varianten der Rechner-Unterstützung von Arbeitsprozessen in der Technik. CERN. Logo zum 50. Jubiläum von CERN Das Hauptgelände des CERN aus der Luft Haupteingang des CERN in Meyrin a> – Zentrum für Veranstaltungen und Ausstellungen Das CERN, die Europäische Organisation für Kernforschung, ist eine Großforschungseinrichtung bei Meyrin im Kanton Genf in der Schweiz. Am CERN wird physikalische Grundlagenforschung betrieben, insbesondere wird mit Hilfe großer Teilchenbeschleuniger der Aufbau der Materie erforscht. Der derzeit bedeutendste ist der Large Hadron Collider, der 2008 in Betrieb genommen wurde. Das Akronym "CERN" leitet sich vom französischen Namen des Rates ab, der mit der Gründung der Organisation beauftragt war, dem "Conseil Européen pour la Recherche N'"ucléaire". Die offiziellen Namen des CERN sind "European Organization for Nuclear Research" im Englischen beziehungsweise "Organisation Européenne pour la Recherche Nucléaire" im Französischen. Derzeit hat das CERN 21 Mitgliedstaaten. Mit seinen etwa 3.200 Mitarbeitern (Stand: 31. Dezember 2011) ist das CERN das weltgrößte Forschungszentrum auf dem Gebiet der Teilchenphysik. Über 10.000 Gastwissenschaftler aus 85 Nationen arbeiten an CERN-Experimenten. Das Jahresbudget des CERN belief sich 2014 auf ungefähr 1,11 Milliarden Schweizer Franken (ca. 900 Millionen Euro). Gründung. Nach zwei UNESCO-Konferenzen in Florenz und Paris unterzeichneten elf europäische Regierungen die Vereinbarung zu einem provisorischen CERN. Im Mai 1952 traf sich der provisorische Rat zum ersten Mal in Paris. Am 29. Juni 1953, auf der 6. Konferenz des provisorischen CERN in Paris, unterzeichneten Vertreter der zwölf europäischen Staaten die Gründungsurkunde. Im Oktober 1953 wurde auf einer Konferenz in Amsterdam der Sitz des CERN und dessen Laboratoriums in der Nähe von Genf bestimmt. Am 24. Februar 1954 erfolgte die 1. Konferenz des CERN-Rates nach der Gründung in Genf. Am 29. September 1954 ratifizierten sieben der zwölf Mitgliedstaaten den Staatsvertrag zur Gründung. Am 10. Juni 1955 erfolgte die Grundsteinlegung des CERN-Laboratoriums durch Felix Bloch, den ersten regulären Generaldirektor des CERN. Erste Beschleuniger. Ursprünglich war das CERN vor allem für die Forschung im Bereich der Kernenergie vorgesehen, schon bald entstanden aber die ersten Teilchenbeschleuniger. 1957 wurde das Synchro-Zyklotron (SC), das Protonen auf bis zu 600 MeV beschleunigte, in Betrieb genommen, das erst nach über 33 Jahren Betrieb 1990 abgeschaltet werden sollte. Am 24. November 1959 folgte das Protonen-Synchrotron (PS) mit einer (damals weltweit höchsten) Protonenergie von 28 GeV, es arbeitet heute noch als Vorbeschleuniger. 1965 erfolgte eine Vereinbarung mit Frankreich, die geplanten Protonen-Speicherringe, Intersecting Storage Rings (ISR) genannt, auch auf französischen Boden auszubauen. 1968 erfand Georges Charpak einen Teilchendetektor, der in einer gasgefüllten Kammer eine große Anzahl parallel angeordneter Drähte zur besseren Orts- und Energieauflösung enthielt. Er revolutionierte mit dieser Drahtkammer den Teilchennachweis und erhielt 1992 den Nobelpreis für Physik. 1970 belief sich das Budget des CERN auf 370 Millionen Schweizer Franken. Die Kosten wurden 1970 zu 23 Prozent durch die Bundesrepublik Deutschland, zu 22 Prozent durch das Vereinigte Königreich und zu 20 Prozent von Frankreich getragen. 1970/71 gingen die großen Blasenkammern Gargamelle und BEBC zur Untersuchung von Neutrino-Reaktionen in Betrieb. 1971 wurde auch der ISR fertiggestellt. 1973 gelang mit Gargamelle die Entdeckung der neutralen Ströme der Z0-Teilchen durch André Lagarrigue. 1976 folgte als neuer Beschleuniger das Super-Protonen-Synchrotron (SPS), das auf einem Bahnumfang von 7 km Protonen mit 400 GeV liefert. 1981 wurde es zum Proton-Antiproton-Collider ausgebaut; dabei wurde die Technik der stochastischen Kühlung von Simon van der Meer genutzt. Im Mai 1983 wurden am CERN die W- und Z-Bosonen entdeckt, Carlo Rubbia und Simon van der Meer erhielten dafür 1984 den Nobelpreis. Large Electron-Positron Collider. Im August 1989 ging der Large Electron-Positron Collider (LEP) in Betrieb, einer der größten jemals gebauten Beschleuniger. In einem Tunnel von 27 km Länge kollidierten hier an ausgewählten Orten Elektronen und ihre Antiteilchen, die Positronen, mit Energien von 100 GeV. 1996 wurden am LEAR-Speicherring (Low Energy Antiproton Ring) erstmals Antiwasserstoffatome produziert, es gab dabei erste Hinweise auf geringfügige Unterschiede zwischen Materie und Antimaterie (CP-Verletzung), was 2001 durch ein weiteres Experiment bestätigt wurde. Im Jahre 1999 begannen die Bauarbeiten für den LHC in dem Tunnel des Large Electron-Positron Colliders. Im Jahre 2000 wurde der LEP endgültig abgeschaltet. Grundlagenforschung. Am CERN werden der Aufbau der Materie und die fundamentalen Wechselwirkungen zwischen den Elementarteilchen erforscht, also die grundlegende Frage, woraus das Universum besteht und wie es funktioniert. Mit großen Teilchenbeschleunigern werden Teilchen auf nahezu Lichtgeschwindigkeit beschleunigt und zur Kollision gebracht. Mit einer Vielzahl unterschiedlicher Teilchendetektoren werden sodann die Flugbahnen der bei den Kollisionen entstandenen Teilchen rekonstruiert, woraus sich wiederum Rückschlüsse auf die Eigenschaften der kollidierten sowie der neu entstandenen Teilchen ziehen lassen. Dies ist mit einem enormen technischen Aufwand für die Herstellung und den Betrieb der Anlagen sowie mit extremen Anforderungen an die Rechnerleistung zwecks Datenauswertung verbunden. Auch aus diesem Grund wird CERN international betrieben und finanziert. Large Hadron Collider. Der Large Hadron Collider (LHC) ist der größte Teilchenbeschleuniger der Welt. Der Beschleunigerring hat einen Umfang von 26.659 m und enthält 9.300 Magnete. Zur Durchführung der Experimente muss der Speicherring in zwei Schritten auf die Betriebstemperatur heruntergekühlt werden. Im ersten Schritt werden die Magnete mit Hilfe von flüssigem Stickstoff auf 80 K (−193,2 °C), in einem zweiten Schritt mittels flüssigen Heliums auf 1,9 K (−271,25 °C) heruntergekühlt. Anschließend wird die Anlage kontrolliert hochgefahren. Die Teilchen werden in mehreren Umläufen auf nahezu Lichtgeschwindigkeit beschleunigt und mit extrem hoher kinetischer Energie zur Kollision gebracht. Am 8. August 2008 wurden die ersten Protonen in den LHC geschossen, am 10. September 2008 folgte der erste Rundumlauf von Protonen. Noch vor dem 21. Oktober 2008 sollte es zu den ersten Protonen-Kollisionen kommen; dieser Termin konnte jedoch auf Grund der erzwungenen Abschaltung nach einem Problem nicht eingehalten werden. Am 23. Oktober 2009 wurden erneut Protonen in den Tunnel injiziert. Am 30. März 2010 gelang es erstmals, Protonen mit einer Rekordenergie von jeweils 3,5 TeV (also insgesamt 7 TeV) aufeinandertreffen zu lassen. 2012 wurde die Gesamtenergie auf 8 TeV erhöht, 2015 auf 13 TeV. Später sind 14 TeV geplant. Es wurden auch erfolgreich Blei-Ionen zur Kollision gebracht, sowie Kollisionen von Bleiionen mit Protonen. Nach einer mehrjährigen Pause (LS1, Long Shutdown 1), die für Reparaturen und Verbesserungen genutzt wurde, ist der LHC seit dem 5. April 2015 wieder in Betrieb. Computertechnik. Um die ungeheuren Datenmengen, die seit November 2009 an den vier großen Experimenten ALICE, ATLAS, CMS und LHCb des LHC anfallen, verarbeiten zu können, wurde das LHC Computing Grid, ein System für verteiltes Rechnen, entwickelt. Auch das World Wide Web hat seine Ursprünge am CERN. Um Forschungsergebnisse auf einfache Art und Weise unter den Wissenschaftlern austauschen zu können, wurde das Konzept bereits 1989 quasi als Nebenprodukt der eigentlichen Forschungsarbeit von Tim Berners-Lee entwickelt. Forschungsergebnisse. Viele fundamentale Erkenntnisse über den Aufbau der Materie und die Grundkräfte der Physik wurden am CERN gewonnen. Die Entdeckung der W- und Z-Bosonen gelang 1983 Carlo Rubbia und Simon van der Meer, für die sie 1984 den Nobelpreis erhielten. Auch der erste Hinweis auf die Entstehung eines Quark-Gluon-Plasmas bei extrem hohen Temperaturen wurde 1999 am Relativistic Heavy Ion Collider (RHIC) gefunden. Folgeexperimente laufen am LHC mit dem ALICE-Detektor. Im Jahre 2002 gelang die Produktion und Speicherung von mehreren tausend „kalten“ Antiwasserstoff-Atomen durch die ATHENA-Kollaboration, ebenso begann die Datenaufnahme im COMPASS-Experiment. Ein weiteres Forschungsfeld ist die Erforschung des Higgs-Bosons, eines wichtigen Teils des Standardmodells. Nach jahrzehntelanger Suche wurde 2012 ein Teilchen gefunden, das in allen gemessenen Eigenschaften mit dem gesuchten Higgs-Boson übereinstimmt. Die Erhöhung der Energie am Large Hadron Collider von 7 auf 13 TeV ermöglicht es, dessen Eigenschaften genauer zu vermessen. Dies ist auch für die Suche nach schweren Teilchen notwendig sowie für die genauere Untersuchung des Quark-Gluon-Plasmas. Standort und rechtlicher Status. Das Hauptgelände des CERN liegt bei Meyrin (nahe Genf) in der Schweiz, nahe der Grenze zu Frankreich; große Teile der Beschleunigerringe und auch einige unterirdische Experimentierplätze befinden sich auf französischem Staatsgebiet. Das CERN hat damit, wie auch das Europäische Laboratorium für Molekularbiologie, als internationales Forschungszentrum eine besondere Stellung. Das oberste Entscheidungsgremium der Organisation ist der "Rat des CERN", in welchen alle Mitgliedsstaaten jeweils zwei Delegierte entsenden: einen Repräsentanten der Regierung und einen Wissenschaftler. Die offiziellen Arbeitssprachen des CERN sind Englisch und Französisch. Seit Dezember 2012 verfügt das CERN über einen Beobachterstatus bei der Generalversammlung der Vereinten Nationen. Dieser besondere Status verleiht dem CERN das Recht, bei Konferenzen der Generalversammlung zu sprechen, bei formellen Abstimmungen zu votieren und UN-Resolutionen zu unterstützen und unterzeichnen, nicht jedoch über sie mit abzustimmen. Der Status wurde verliehen, nachdem die Schweiz und Frankreich unter Befürwortung aller weiteren 18 Mitgliedsstaaten sowie diverser weiterer Nicht-Mitgliedsstaaten einen entsprechenden Antrag gestellt hatten. Begründet wurde die Entscheidung mit der wichtigen Rolle des CERN in Wissenschaft und Entwicklung und dem Aspekt der außerordentlichen internationalen Zusammenarbeit. Rechtliche Grundlagen. Der rechtliche Status des CERN beruht auf einem Abkommen zwischen der Schweiz und der Europäischen Organisation für Kernphysikalische Forschung vom 11. Juni 1955. Im Abkommen werden die internationale Rechtspersönlichkeit und die Rechtsfähigkeit der Organisation festgelegt. Demnach genießt das CERN die bei internationalen Organisationen üblichen Immunitäten und Vorrechte, soweit sie zur Erfüllung ihrer Aufgaben notwendig sind. Auch die natürlichen Personen, die das CERN nach außen hin vertreten, genießen in der Schweiz Immunität. Das CERN unterliegt weder der Schweizer Gerichtsbarkeit noch dem Schweizer Steuerregime. Mitgliedstaaten. Die Gründungsmitglieder 1954 waren die Schweiz, Belgien, Dänemark, Deutschland (Westdeutschland, ohne DDR), Frankreich, Griechenland, Vereinigtes Königreich, Italien, Jugoslawien (bis 1961), Niederlande, Norwegen und Schweden. Es folgten weitere Staaten: Österreich (1959), Spanien (1961–1968 und ab 1983), Portugal (1986), Finnland (1991), Polen (1991), Ungarn (1992), Tschechien (1993), Slowakei (1993), Bulgarien (1999) und Israel (2013). Finanzierung (Budget 2014). Die Anteile der Finanzierung haben dabei keinen beziehungsweise nur geringen Einfluss auf die Vertretung der einzelnen Nationalitäten. Dies spiegelt sich sowohl bei den offiziellen Arbeitssprachen Englisch und Französisch, als auch bei der Herkunft der beschäftigten Mitarbeiter () und Gastwissenschaftler () wider. Deutschland ist hier mit 334 Mitarbeitern und 1148 Gastwissenschaftlern (Stand: 2011) im Vergleich zu seinem Finanzierungsanteil deutlich unterrepräsentiert. Auch auf die Anzahl der in den "Rat des CERN" entsandten Vertreter haben die Anteile an der Finanzierung keinen Einfluss. Mitgliedskandidaten und Assoziierte Mitglieder. Rumänien ist Kandidat auf eine Mitgliedschaft, Serbien und die Türkei sind assoziierte Mitglieder in der Anwärterphase auf eine Mitgliedschaft. Beobachterstatus und Nichtmitglieder. Beobachterstatus haben gegenwärtig die Europäische Kommission, Indien, Japan, Russland, die Vereinigten Staaten sowie die UNESCO. Mit mehreren Staaten, die nicht zu CERN gehören, wurden Kooperationsvereinbarungen für die LHC-Nutzung abgeschlossen, bisher mit Indien, Japan, Kanada, Russland und den Vereinigten Staaten. Weitere Staaten sind als Nichtmitglieder an CERN-Programmen beteiligt: Ägypten, Algerien, Argentinien, Armenien, Australien, Aserbaidschan, Bolivien, Brasilien, Chile, China, Ecuador, Estland, Georgien, Island, Iran, Irland, Jordanien, Kanada, Kolumbien, Kroatien, Kuba, Litauen, Malta, Mazedonien, Mexiko, Montenegro, Marokko, Neuseeland, Pakistan, Peru, Saudi-Arabien, Slowenien, Südafrika, Südkorea, Ukraine, Vereinigte Arabische Emirate, Vietnam, Weißrussland und Zypern. Charles Sanders Peirce. Charles Sanders Peirce um 1870 Charles Santiago Sanders Peirce (ausgesprochen: /'pɜrs/ wie: "purse") (* 10. September 1839 in Cambridge, Massachusetts; † 19. April 1914 in Milford, Pennsylvania) war ein US-amerikanischer Mathematiker, Philosoph, Logiker und Semiotiker. Peirce gehört neben William James und John Dewey zu den maßgeblichen Denkern des Pragmatismus; außerdem gilt er als Begründer der modernen Semiotik. Bertrand Russell und Karl-Otto Apel bezeichneten ihn als den „größten amerikanischen Denker“, Karl Popper betrachtete ihn sogar als „einen der größten Philosophen aller Zeiten“. Peirce beschäftigte sich auch mit logischen Schlussfolgerungsweisen und führte neben der bekannten Induktion und Deduktion die Abduktion (Hypothese) als dritte Schlussfolgerungsweise in die Logik ein. Aus der Abfolge von Abduktion, Deduktion und Induktion entwickelte er einen erkenntnis- und wissenschaftstheoretischen Ansatz. Leben. Peirce wurde in Cambridge, Massachusetts, als zweites von fünf Kindern von Sarah und Benjamin Peirce (1809–1880) geboren. Sein Vater war Professor für Astronomie und Mathematik an der Harvard-Universität und nachweislich der erste ernsthaft forschende Mathematiker in den USA. Sein Lebensumfeld war das eines gut situierten Bildungsbürgertums. Schon als Junge erhielt Peirce von einem Onkel die Einrichtung eines Chemielabors. Sein Vater erkannte seine Begabung und bemühte sich, ihm eine umfassende Bildung zu vermitteln. Mit 16 Jahren begann er die "Kritik der reinen Vernunft" zu lesen. Er benötigte für das Studium des Werkes, mit dem er sich täglich mehrere Stunden auseinandersetzte, drei Jahre, nach denen er nach eigener Aussage das Buch fast auswendig konnte. Peirce studierte in Harvard und an der Lawrence Scientific School. Er bestand 1862 den Master of Arts und war einer der ersten (1863), die den Bachelor of Science im Fach Chemie ablegten – mit Summa cum laude. Noch während seines Chemiestudiums heiratete er Harriett Melusina Fay, die aus einer prominenten Pfarrersfamilie stammte. Sie veröffentlichte Bücher zu allgemein politischen Themen und war in der Frauenrechtsbewegung aktiv. Von 1859 bis 1891 war er mit Unterbrechungen bei der United States Coast and Geodetic Survey tätig. Ab 1861 hatte er eine reguläre Planstelle, so dass er nicht am amerikanischen Sezessionskrieg teilnehmen musste. Er erhielt diese Stelle auf Vermittlung seines Vaters, der als einer der Gründer dieser Behörde dort als Aufsichtsrat fungierte. Peirce' Aufgabenfeld lag im Bereich Geodäsie und Gravimetrie in der Weiterentwicklung der Anwendung von Pendeln zur Bestimmung von lokalen Abweichungen in der Erdgravitation. In Harvard hielt Peirce zwischen 1864 und 1870 nebenberuflich Vorlesungen über Wissenschaftsgeschichte und Wissenschaftstheorie. Schon zu diesem Zeitpunkt findet man in den Manuskripten der Vorlesungen fast alle Grundthemen der Philosophie, die ihn sein Leben lang beschäftigten. Zu Beginn war er sehr stark von Kant geprägt, setzte sich aber intensiv mit Fragen der Logik auseinander und entwickelte zunächst seine eigene Kategorienlehre. Die logischen Arbeiten standen in den ersten Jahren im Vordergrund. So befasste er sich 1865 mit der neuen Logik von George Boole und 1866 erhielt er einen Sonderdruck von Augustus De Morgans Logik der Relative, die seiner Denkentwicklung einen wesentlichen Impuls gab. 1867 wurde er in die American Academy of Arts and Sciences gewählt. 1868 veröffentlichte Peirce eine Artikelserie in den Proceedings der American Academy of Arts and Sciences (PAAAS, vol. 7, 1868). Kurz darauf publizierte er im Journal of Speculative Philosophy die zweite Artikelserie Ab 1869 schrieb Peirce in unregelmäßigen Abständen eine Vielzahl von Rezensionen und kleineren Beiträgen in "The Nation", der Sonntagsausgabe der New York Evening Post. Zum Jahreswechsel 1869/70 hielt Peirce erneut Vorlesungen über die Geschichte der Logik mit Schwerpunkt "British Logicians" an der Harvard-Universität. In den 1860er Jahren begleitete Peirce interessiert die astronomischen Forschungen des gleichaltrigen George Mary Searle, der in dieser Zeit ebenfalls für die Coast Survey und am Harvard Observatory tätig war. Von 1869 bis 1872 arbeitete Peirce dann selbst im astronomischen Observatorium von Harvard als Assistent über Fragen der Photometrie zur Bestimmung der Helligkeit von Sternen und der Struktur der Milchstraße. 1870 erschien eine kleine, für Peirce und Logiker aber wichtige Schrift über die Logik der Verwandten (Begriffe), die auch als Vortrag vor der American Academy of Arts and Sciences veröffentlicht wurde unter dem Titel "Description of a Notation for the Logic of Relatives, Resulting from the Amplification of Boole's Calculus of Logic" (CP 3.45–148). Wichtig für Peirce und auch für James war ein Zirkel junger Wissenschaftler verschiedener Disziplinen Anfang der 1870er Jahre, der als "metaphysischer Club" bezeichnet wurde. Hier lernte Peirce die Philosophie von Alexander Bain kennen, von dem er das Prinzip des Zweifels und der Überzeugungen, die das Handeln der Menschen bestimmen, übernahm. Peirce trug seine Grundgedanken zum Pragmatismus vor und stellte sie zur Debatte, woraus später seine wichtige Aufsatzreihe von 1877/78 entstand. Diese Veröffentlichung in Popular Science wird gewöhnlich als die Geburtsstunde des Pragmatismus bezeichnet. Die Aufsatzreihe umfasst die Titel Zwischen 1871 und 1888 konnte Peirce im Rahmen seiner geodätischen Aufgabenstellung insgesamt fünf jeweils mehrmonatige Forschungsreisen nach Europa unternehmen, wo er eine Reihe prominenter Wissenschaftler traf. In einem Bericht an den Coast Survey legte Peirce 1879 eine neue Methode der Kartenprojektion vor, die er "Quincunx" oder auch "quincunial projection" nannte. Diese Art der Projektion wurde (in erweiterter Fassung) noch im Zweiten Weltkrieg von der Coast Survey als besonders geeignet zur Aufzeichnung internationaler Flugrouten vorgeschlagen. 1879 wurde Peirce "half-time lecturer of logic" an der Johns-Hopkins-Universität in Baltimore, seine einzige akademische Festanstellung. Dort waren unter anderem John Dewey und Josiah Royce seine Hörer. In dieser Zeit kam es zur Veröffentlichung von "A Brief Description of the Algebra of Relatives" (1882, Privatdruck) und der Herausgabe der "Studies in Logic by Members of the Johns Hopkins University" (1883). Peirce hatte außer dieser Anstellung niemals wieder eine feste akademische Stelle. Von seinen Biographen wird als Ursache seine schwierige Persönlichkeit gesehen. Es gibt Vermutungen, dass er manisch–depressiv gewesen sei (Brent). Seine erste Frau verließ ihn 1876 während eines Europaaufenthaltes, von dem sie allein zurückkehrte. Über den Grund haben sich beide nie geäußert. Schon bald darauf ging er ein Verhältnis mit Juliette Froissy (Geburtsname nicht gesichert) ein, mit der er bis zu seiner Scheidung von Fay 1883 unverheiratet zusammenlebte. Schon zwei Tage nach der Scheidung heiratete er Juliette. Vermutlich aufgrund des damit verbundenen Skandals verlor er 1884 seinen Posten an der Johns-Hopkins-Universität. "Arisbe" – Das Wohnhaus von Peirce ab 1887 im Jahr 2011 Juliette und Charles Peirce im Jahr 1907 In den Folgejahren begann er eine Reihe von Buchprojekten, die sich jedoch nicht realisieren ließen, obwohl die Manuskripte zum Teil schon weit gediehen waren. Im Winter 1892/93 konnte Peirce am Lowell Institut 12 Vorlesungen über Wissenschaftsgeschichte halten. Im Lauf der Zeit geriet er in immer größere finanzielle Schwierigkeiten, die ihn bis an sein Lebensende begleiteten. Oft genug fehlte das Geld, um auch nur Nahrungsmittel oder Brennmaterial für die Heizung zu beschaffen. Auf Vermittlung von William James, mit dem er seit der Zeit seines Chemiestudiums befreundet war, konnte Peirce im Jahr 1898 eine Vorlesungsreihe in Cambridge mit dem Generalthema "Reasoning and the Logic of Things" halten. 1903 konnte James nochmals helfen, so dass Peirce die Möglichkeit einer Vorlesungsreihe in Harvard über "Pragmatism as a Principle and Method of Right Thinking" erhielt. Ebenfalls 1903 konnte Peirce acht Vorlesungen am Lowell Institut über "Some Topics of Logic Bearing on Questions Now Vexed" halten. Die drei Vorlesungsreihen sind für die Rezeption wichtig, da Peirce sich auf Drängen von James bemüht hatte, seine Vorlesungen nicht zu schwierig zu gestalten, sondern auf ein allgemeines Publikum auszurichten. So hat Peirce in einem relativ reifen Stadium seines Denkens wesentliche Eckpunkte seiner Philosophie in einem geschlossenen Zusammenhang dargestellt, allerdings nicht veröffentlicht. Einen anderen Überblick über das Denken von Peirce gibt eine Bewerbung aus dem Jahr 1902 auf ein Stipendium der Carnegie Institution, in der er in einem umfangreichen Exposé darlegt, wie er seine Philosophie in einem geschlossenen Werk darstellen könnte. Seine Bewerbung wurde jedoch abgelehnt. Ebenfalls in das Jahr 1903 fällt die Rezension des Buches "What is Meaning" von Victoria Lady Welby. Diese hatte für die Klärung des Begriffs Bedeutung einen semiotischen Ansatz mit drei Graden der Signifikation gefunden. Hieraus entspann sich ein langjähriger Briefwechsel, aus dem sich umfangreiche Darlegungen zur Semiotik ergeben. In den Jahren 1905 bis 1907 distanzierte Peirce sich immer mehr von den anderen Pragmatisten und nannte schließlich seine Philosophie Pragmatizismus. Ab 1906 wurde er von einer Stiftung unterstützt, die James ins Leben gerufen hatte. Peirce blieb ohne Kinder und starb 1914 an Krebs. Schriften. Peirce hat seine Gedanken zur Mathematik, Logik und Philosophie niemals in einer geschlossenen Arbeit publiziert. Während seiner Tätigkeit an der Johns-Hopkins-Universität gab er die "Studies in Logic" (1883) heraus, die einige Kapitel von ihm selbst sowie weitere von seinen Doktoranden enthielten. Sein Ruf ist ursprünglich fast ausschließlich begründet durch Aufsätze in Fachzeitschriften. Nach seinem Tod erwarb die Harvard-Universität auf Veranlassung von Josiah Royce die Papiere aus seinem Nachlass. Da Royce bereits 1916 verstarb, kam es nicht zur geplanten Aufarbeitung des Materials. Es wurde ein kleiner unvollständiger Katalog verfasst. Die Unterlagen wurden in 83 Kisten verpackt und verschwanden zunächst in den Archiven der Universität. Dass Peirce überhaupt weiter rezipiert wurde, verdankt sich Morris Raphael Cohen, der 1923 einen Sammelband unter dem Titel "Chance, Love and Logic" mit einigen wichtigen Aufsätzen von Peirce herausgab. Beigefügt ist auch ein Aufsatz von Dewey aus dem Jahr 1916, den dieser im Rückblick auf Peirce verfasst hatte. Erst mit der Herausgabe der "Collected Papers" begann man sich überhaupt mit den Arbeiten von Peirce intensiver auseinanderzusetzen. Durch die systematische Zusammenstellung der "Collected Papers" ist allerdings der innere Zusammenhang des Werkes teilweise verloren gegangen. So wurden Aufsatzreihen und Vorlesungen teilweise auf die verschiedenen Bände verteilt und Arbeiten aus verschiedenen Entwicklungsphasen nebeneinander gestellt, obwohl bei Peirce eine deutliche Entwicklung des Denkens zu konstatieren ist. Zum Teil wurden sogar zum Zweck der systematischen Darstellung Fragmente verschiedener, zeitlich nicht zusammengehörender Texte zusammengestellt. Erst nach Veröffentlichung der "Collected Papers" begann man mit einer systematischen Katalogisierung und Mikroverfilmung. Die Mikroverfilmung war erst 1966 (vorläufig) abgeschlossen. Immer wieder wurden in den Archiven Ergänzungen gefunden, zuletzt 1969, so dass die Mikrofilmdateien und die Kataloge jeweils nachgepflegt werden mussten. Die aktuelle Katalogisierung basiert auf dem Jahr 1971. Erst dann wurde klar, dass Peirce neben den 12.000 Druckseiten seines Werkes ungefähr 1650 unveröffentlichte Manuskripte mit ca. 80.000 handschriftlichen Seiten hinterlassen hatte, von denen der größte Teil auch heute noch nicht veröffentlicht ist. Ein Teil der Unterlagen, der nicht nach Harvard gegangen war, ging verloren, weil er nach dem Tode von Peirce' Frau Juliette verbrannt wurde. Da die "Collected Papers" unvollständig sind und auch nicht allen wissenschaftlichen Ansprüchen genügen, wurde in den 1970er Jahren im Rahmen des sogenannten "Peirce Edition Projects" mit einer kritischen, chronologisch organisierten Edition begonnen, in der bis 2004 sechs von geplanten ca. 30 Bänden erschienen sind, die die Zeit bis 1890 abdecken. Eine wesentliche Ergänzung der gedruckten Werke ist die Ausgabe von vorwiegend mathematisch-naturwissenschaftlichen Schriften in vier Bänden (fünf Teilbänden) unter dem Titel "The New Elements of Mathematics" aus dem Jahr 1976 durch Carolyn Eisele. Die Rezensionen und Beiträge für die Zeitschrift "The Nation" sind in der vierbändigen Ausgabe "C.S. Peirce: Contributions to the Nation" von Ketner/Cook aus dem Jahr 1975–1979 erfasst. Eine weitere wichtige Quelle ist "Semiotic and Significs. The Correspondence between CHARLES S. PEIRCE and VICTORIA LADY WELBY", herausgegeben von Charles S. Hardwick (1977). Peirce' Schriften umfassen ein weites Feld an Disziplinen: von der Astronomie über Meteorologie, Geodäsie, Mathematik, Logik, Philosophie, Geschichte und Philosophie der Wissenschaften, Sprachwissenschaft, Ökonomie bis zur Psychologie. Sein Werk zu diesen Themen fand nun in jüngerer Zeit erneute Aufmerksamkeit und Zustimmung. Diese Wiederbelebung ist nicht nur angeregt durch die Vorwegnahme aktueller wissenschaftlicher Entwicklungen durch Peirce, sondern vor allem dadurch, dass seine triadische Philosophie und Semiotik sowohl in der modernen Logik als auch in vielen Wissenschaftsbereichen von der Linguistik über die Rechts- und Religionswissenschaften bis hin zur Informatik einen methodischen Schlüssel zur Strukturierung des Stoffs für die praktische Arbeit bietet. Kategorienlehre. In einer kritischen Analyse der Kategorien Kants zeigte Peirce, dass diese auf die Funktion der Modalität zurückführbar sind und eine Entsprechung mit seinen eigenen Kategorien haben, indem man Möglichkeit = Erstheit, Aktualität = Zweitheit und Notwendigkeit = Drittheit setzt. Ähnlich verhält es sich mit den Relationen Qualität (1), Tatsache (2) und Verhalten bzw. Gesetz (3) sowie mit den Begriffen Gegenstand (1), Relation (2) und Repräsentation (3). Die Triade war für Peirce eine grundlegende Perspektive auf alle Phänomene, und er sah sie sogar in der christlichen Dreifaltigkeit bestätigt. Die Kategorien sind zwar gedanklich unterscheidbar, aber sie sind nicht separierbar. Sie sind jeweils alle in jedem Gedanken enthalten und nur in einem langen Prozess der Aneignung mit Klarheit zu erfassen. Dementsprechend gibt es von Peirce immer wieder Texte verschiedener Annäherung an die Kategorien. Bewusstsein. Die Erscheinung der Zweitheit im Bewusstsein, die Peirce „Altersense“ nannte, ist die Konfrontation mit dem Anderen, ist das Bewusstsein des Hier und Jetzt. Zur Zweitheit im Bewusstsein zählen Sinnesempfindungen als lebendige Erfahrungen. Ebenso gehört hierzu der Wille oder Wunsch als Empfindung ohne die Reflexion auf das Gewünschte. Die Zweitheit ist die Erfahrung der Dualität. Ebenso wie die Erstheit wird hier noch vom Denken abstrahiert. Weder das reine Gefühl auf der Ebene der Erstheit noch die Empfindung des Gegenüber, des Anderen auf der Ebene der Zweitheit lassen sich konkret in Begriffe fassen. Sobald dies geschieht, bewegt man sich in der Ebene der Drittheit, die die Ebene der Gedanken ist. Zweitheit kann vorwiegend aktiv sein, dann dominiert die Empfindung des Willens. Ist sie hingegen vorwiegend passiv, dann dominieren die Sinnesempfindungen. Die Erscheinung der Drittheit im Bewusstsein bezeichnete Peirce als „Medisense“, in der die Beziehung zu einem Objekt repräsentiert wird. Hierzu zählen das Denken, das Lernen, das Gewahrsein von etwas Drittem. Dieser Modus des Gewahrseins führt bei genügender Wiederholung zu Verhaltensgewohnheiten. Selbstbewusstsein entsteht dadurch, dass die Repräsentationen als Zeichen im Bewusstsein sich selbst zum Gegenstand werden. Diese Reflexion ist für Peirce überwiegend dem Bereich des Altersense (der Zweitheit) zuzuordnen, da das Selbstbewusstsein so etwas wie das Wahrnehmen des Selbst ist. (CP 5.225, 5.266) Im Selbstbewusstsein treten sich die Empfindung des Ego, das wir kontrollieren können, und des unkontrollierbaren Non-Ego gegenüber. Die Drittheit im Bewusstsein führt zu einer erneuten Reflexion, nun auf das Selbstbewusstsein. Hieraus entsteht die Selbstkontrolle, die Selbstüberprüfung und Selbstkorrektur beinhaltet. Peirce begründete mit der Vorstellung der Selbstkontrolle die Fähigkeit, sich zu entscheiden und damit die eigenen Verhaltensgewohnheiten zu beeinflussen. Eine unmittelbar kausale Wirkung aus der Selbstkontrolle sah er nicht. Die kognitive Fähigkeit der Selbstkontrolle hat aber Einfluss auf Einstellungen, die für künftiges Handeln maßgeblich sind. Durch den Vergleich mit Standards ist Selbstkontrolle zugleich Grundlage von moralischen Einstellungen und ethischem Verhalten. Wahrnehmung. "Wir haben kein Vermögen, ohne Zeichen zu denken." (CP 5.265). Diese Grundannahme der gesamten Philosophie von Peirce ist so auch Ausgangspunkt für seine Theorie der Wahrnehmung. Wahrnehmung findet durch eine Umwandlung von Sinneseindrücken statt und ist deshalb niemals unmittelbar. Klassisches Beispiel dafür, dass Wahrnehmungen falsch gedeutet werden können, sind die Sinnestäuschungen. Peirce verwendet das Beispiel des blinden Flecks auf der Netzhaut. Trotz dieser Eigenschaft erscheinen Gegenstände als vollständige Bilder. Peirce unterscheidet das Wahrgenommene (Perzept) und das Wahrnehmungsurteil. Dabei muss ein Wahrnehmungsurteil nicht in Form von Sprache erfolgen, sondern kann z. B. auch diagrammatisch sein (z. B. die Vorstellung eines Dreiecks). Theorie der Wahrnehmung bei Peirce Das Wahrgenommene ist das Zeichen, das zwischen dem Objekt und dem Wahrnehmungsurteil steht. Der Zugang zu den Objekten erfolgt immer durch die Abbildung des Perzeptes als Zeichen. Das Zeichen hat die Form eines sinnlichen Eindrucks, also eines Bildes, eines Klangs etc. Das Perzept wird als etwas interpretiert. Ein Ton kann eine Stimme sein, das Klingeln eines Telefons oder der Klang eines Radios. Das Perzept als Zeichen ist ein so genanntes indexikalisches Zeichen (vgl. unten), das heißt es ist bestimmt zu seiner Relation zum Objekt, wie z. B. der Rauch zum Feuer. Das Wahrnehmungsurteil selbst, also der Rauch als Begriff, ist der Interpretant der Wahrnehmung (des Perzepts). Die Form des Schlusses bei einem Wahrnehmungsurteil nannte Peirce Abduktion: "Abduktion ist der Vorgang, in dem eine erklärende Hypothese gebildet wird." (CP 5.171). Indem wir eine Wahrnehmung haben, nehmen wir an, dass es sich um einen bestimmten Gegenstand handelt. "Die Form der Folgerung ist dann folgende: Die überraschende Tatsache C wird beobachtet; aber wenn A wahr wäre, würde C eine Selbstverständlichkeit sein; folglich besteht Grund zur Vermutung, dass A wahr ist." (CP 5.189). Wenn man einen grauen Schleier in der Luft sieht, kann es sich um Nebel handeln, aber auch um Rauch. Indem man diesen grauen Schleier sieht und schließt, dass es sich um Rauch handelt (z. B. aufgrund der Form oder weil rund herum die Sonne scheint), fällt man ein Wahrnehmungsurteil. Wahrnehmungsurteile sind eine extreme Form der Abduktion, weil sie in aller Regel unbewusst und weitgehend unkontrolliert ablaufen und weil man sie aufgrund der immer aktiven Sinne nicht verneinen kann. Je öfter sich wiederholende Wahrnehmungsurteile bestätigen, umso mehr werden sie als wahr verinnerlicht und dann zu Denk- und Verhaltensgewohnheiten. Semiotik. Ferdinand de Saussure gilt zusammen mit Peirce als Begründer der Semiotik Neben Ferdinand de Saussure ist Peirce einer der Begründer der Semiotik, wobei sein bevorzugter Begriff hierfür „semeiotic“ lautete, während Saussure seinen eigenen Ansatz als „sémiologie“ (Semiologie) bezeichnete. Im Gegensatz zu Saussures Zeichenbegriff, der sich ausschließlich und formal auf Sprache bezieht, so dass hieraus wesentliche Impulse in der Linguistik entstanden, ist Peirce' Zeichenbegriff ganzheitlich. Er enthält neben der Repräsentationsfunktion ebenso eine Erkenntnisfunktion der Zeichen. Gleichfalls darf man die Semiotik von Peirce nicht mit der Unterteilung von Charles W. Morris (Syntax, Semantik und Pragmatik) vermischen (obwohl sich Morris auf Peirce bezieht). Peirce definierte "semiosis" (siehe auch Semiose) als Peirce unterteilte Semiotik in spekulative Grammatik, logische Kritik und spekulative Rhetorik. Das Wort „spekulativ“ war dabei für ihn gleichbedeutend mit „theoretisch“. Ein Quali-Zeichen ist eine Qualität, die als Zeichen wirkt, z. B. die Stille eines Raumes. Quali-Zeichen sind immer Ausdruck von Erstheit. Sin-Zeichen sind Gegenstände oder Sachverhalte, die existieren, ohne dass sie schon mit einem Begriff oder einer Bedeutung belegt sind. Legi-Zeichen sind Regeln, die als Zeichen wirken. So bedeutet die Zahl sechs die Idee einer Anzahl von sechs Gegenständen, z. B. Gläsern oder Stühlen. Die Ausprägung des Legi-Zeichens ist wieder ein Sin–Zeichen. Ob man nun das deutsche Wort „sechs“, die Ziffer ‚6‘ oder das englische Wort „six“ verwendet, sie alle verkörpern die Idee der Zahl sechs. Ikone sind Zeichen, die durch eine strukturelle Ähnlichkeit unmittelbar eine Relation zu einem Objekt herstellen. Hierzu zählen Bilder, Piktogramme oder Graphiken. Ein Ikon ist grundsätzlich erstheitlich. Der Index ist insofern ein zweitheitliches Zeichen, als er ohne Beschreibung auf ein Objekt hinweist, also eine dyadische Beziehung zwischen Zeichen und Objekt besteht – das Klingeln verweist darauf, dass jemand vor der Tür steht. Symbole haben hingegen eine Bedeutung. Sie sind nur Zeichen, weil ein Interpret versteht, wofür das Zeichen benutzt wird. Dass ein Tisch mit dem Wort „Tisch“ bezeichnet wird, beruht auf einer Konvention. Verstanden wird das Wort „Tisch“, weil seine Bedeutung zur Gewohnheit geworden ist. Rhema ist ein Begriff, mit dem ein Gegenstand bezeichnet wird. Es kann auch ein Diagramm oder ein Ton sein. In einer Aussage (Dicent) wird zumindest eine zweistellige Relation hergestellt, also die Eigenschaft eines Gegenstandes oder ein Sachverhalt beschrieben. Das Argument drückt eine gesetzmäßige Beziehung zwischen Aussagen aus, z. B. in Form von Naturgesetzen. Der Interpretant als die "eigentliche bedeutungstragende Wirkung eines Zeichens" muss nun wieder differenziert werden nach seinem emotionalen, energetischen und logischen Gehalt oder nach seiner unmittelbaren, dynamischen und finalen Wirkung. Er ist unmittelbar, wenn er nur eine Gefühlsqualität ist, z. B. das Empfinden der Stille (Erstheit). Er ist dynamisch, wenn er eine effektive Wirkung auslöst (ein Gefühl oder eine Handlung). Ein Interpretant ist final, wenn er mit einer beabsichtigten Wirkung verbunden ist, z. B. einer Veränderung einer Gewohnheit. Die eigentliche semiotische Bestimmung eines Zeichens entsteht aus den logisch möglichen Kombinationen der Zeicheneigenschaft mit der Objekt- und der Interpretanten-Beziehung (Quali-Zeichen sind weder als Index noch als Symbol denkbar; Argumente können entsprechend kein Index oder Ikon sein). Bei der Bestimmung von Zeichenrelationen besteht das grundsätzliche Problem, dass einerseits Objekte durch mehrere, auch ihrer Art nach höchst unterschiedliche Zeichen repräsentiert werden können. Andererseits können die jeweiligen Zeichen situationsabhängig verschieden interpretiert werden. Zeichenbeziehungen sind daher immer perspektivisch. Wir wissen immer, dass das Objekt, wie wir es in der Kommunikation oder in der Wahrnehmung erfassen (das unmittelbare Objekt), durch Zeichen vermittelt ist. Als Folge wissen wir auch stets, dass wir uns über die Vermittlung täuschen können und demgemäß unsere Interpretation über das eigentliche Objekt (das dynamische Objekt) gegebenenfalls anpassen müssen. Im Laufe der Zeit entwickelte Peirce seine Auffassung fort und kam aufgrund der Komplexität der möglichen Vermittlungsweisen von Zeichen zwischen Subjekt und Objekt schließlich zu einem System aus 59.049 (3 hoch 10) möglichen Elementen und Relationen. Ein Grund für diese hohe Anzahl liegt darin, dass er bei jedem Interpretanten die Möglichkeit, selbst Zeichen zu sein, zuließ, wodurch jeweils eine neue kennzeichnende Relation entsteht. Wie bei anderen Themen schrieb Peirce niemals eine genaue Bestimmung seiner Semiotik. Vielmehr befasste er sich mit dem Thema immer wieder während seines Lebens, wobei er oft seine Auffassung über die Definition von Schlüsselbegriffen veränderte. Bei Liszka (1996) findet sich ein verdienstvoller Versuch einer kohärenten Darlegung. Gerhard Schönrich verweist darauf, dass man Parallelen zu Kant in der Theorie der des Bewusstseins ziehen kann, wenn man die kantischen Begriffe in die von Peirce übersetzt, so etwa die Synthesis bei Kant als Semiose, den Gegenstand als Zeichenobjekt, Begriff oder Regel (im Schematismus) als Interpretant und Vorstellung als Zeichen(mittel). Erkenntnistheorie. In seiner Erkenntnistheorie brach Peirce mit der Vorstellung, dass das Subjekt der Maßstab für Erkenntnis ist, wie es seit Descartes und bis hin zu Kant gegolten hatte. Der zweite grundlegende Aspekt in Peirce’ Erkenntnistheorie ist die evolutionstheoretische Vorstellung, wie er sie in seiner Metaphysik entwickelte (vgl. unten). Der Mensch und sein Denken ist Bestandteil eines Entwicklungsprozesses. Zweck des Denkens ist eine Orientierung in der Welt, indem Zweifel untersucht und durch Forschen feste Überzeugungen gewonnen werden, die geeignet sind, als Grundlage des Handelns zu dienen. Hierin liegt die Vermittlung von Theorie und Praxis. Das dritte Element der Peirce’schen Erkenntnistheorie ist das Denken in Zeichen. Denken findet aber nicht in einzelnen, isolierbaren Zeichen statt, sondern als ein Strom von Gedanken im Bewusstsein, als ein kontinuierlicher Prozess. Diese Ebene der Empfindungen im Bewusstseinsstrom ist die Erstheitlichkeit des Denkens. Der Prozess der Wahrnehmung (siehe oben) führt die Ebene der Zweitheit in den Erkenntnisprozess ein. Die Bedeutung von Zeichen (Ebene der Drittheit) ergibt sich aber nicht allein aus den Sinnesdaten. Die Bedeutung eines Gedankens liegt also darin, welche Verhaltensweise er erzeugt. Verhaltensweise ist dabei nicht als tatsächliches Verhalten, sondern als Disposition zu einer möglichen Handlung zu verstehen. "Die Elemente eines jeden Begriffs treten durch die Pforte der Wahrnehmung in das logische Denken ein und verlassen es durch die Pforte des zweckbestimmten Handelns; und was immer seinen Ausweis an diesen beiden Pforten nicht vorweisen kann, muss, als durch die Vernunft nicht genehmigt, eingesperrt werden." (CP 5.212) In dieser Definition steckt die Vorstellung, dass am Ende aller Tage es möglich sein wird, die Realität vollständig zu erkennen. Dieser Zustand ist aber nur ein Grenzwert, an den die Menschheit sich als Ganzes in einem Prozess des Erkenntnisfortschritts annähert. Wahrheit ist dabei objektiv, insofern sie intersubjektiv ist, d. h. nicht mit einzelnen, individuellen Vorstellungen, sondern in der Kommunikation aller (Forscher) bestimmt wird. Bis zu diesem Zeitpunkt, der in der Lebenspraxis des Menschen nicht erreicht werden kann, besteht aber immer und zu jeder Zeit die Möglichkeit, dass die bisher gewonnenen Überzeugungen falsch sein können und revidiert werden müssen. Peirce nannte diese Grundannahme Fallibilismus, die später dann von Popper neu aufgegriffen wurde. Peirce hat auch nicht ausgeschlossen, dass schon gegenwärtige Überzeugungen in vollem Umfang der Realität entsprechen. Je besser solche Hypothesen überprüft sind und sich bewährt haben, umso größer ist die Wahrscheinlichkeit hierfür. Nur sicher sein kann man sich hierüber nicht. Abduktion. Erkenntniserweiterung erfolgt nach Peirce ausschließlich durch Abduktion. Sie tritt auf in der Wahrnehmung sowie im schließenden Interpretieren vorhandenen Wissens. Der Mensch gewinnt in der Wahrnehmung bestimmte Überzeugungen, die sich in Gewohnheiten umsetzen, die seine Handlungen und Unterlassungen bestimmen. Entstehen durch die Wahrnehmung unerklärbare Sachverhalte, die keiner Gewohnheit entsprechen, gerät der Mensch in Zweifel und sucht nach einer neuen Orientierung. Er stellt über die zweifelhaften Phänomene Hypothesen auf und überprüft diese solange, bis er hierüber eine neue feste Überzeugung gewinnt ("doubt-belief"-Schema). Während in der Deduktion von der Regel über den Fall auf das Ergebnis geschlossen wird, sind die Resultate der Schlussfolgerungen der Abduktion und der Induktion nicht notwendig. Sie haben ihre Berechtigung nur als hypothetisch-pragmatische Verfahren im Rahmen des Prozesses zur Absicherung einer Überzeugung und unterliegen den Gesetzen der Wahrscheinlichkeit, wobei der Abduktion aufgrund des spontanen Charakters zumeist eine erheblich geringere Wahrscheinlichkeit zukommt. Logik. Er zeigte, dass die Boolesche Algebra durch eine einfache binäre Operation ausgedrückt werden kann als NAND oder dual als NOR (siehe auch DeMorgan's Gesetz). Weiterhin ergänzte er die Boolesche Algebra um Multiplikation und Exponentiation (Allquantor) und versuchte sie in die allgemeine Algebra zu integrieren. Ein wenig später, aber unabhängig von Freges "Begriffsschrift", entwickelte er gemeinsam mit seinem Studenten O.H. Mitchell die vollständige Syntax für eine Quantorenlogik, die sich nur in wenigen Zeichen von der späteren Russell-Whitehead-Syntax (1910) unterschied. Ernst Schröder, Leopold Löwenheim von der polnischen Schule und der junge Kurt Gödel verwendeten Peirce' Notation. Die Unterscheidung zwischen der Quantifizierung erster und zweiter Ebene war der erste Entwurf einer einfachen axiomatischen Satz-Theorie. Die von Peirce konzipierte Theorie reflexiver und transitiver Relationen wurde von Ernst Schröder in dessen "Algebra der Logik" weiterentwickelt. Zur Anwendung der algebraischen Zeichen in der Logik führte Peirce die logischen Terme "absolute Relative" (monadisch = singuläres Objekt), "einfache Relative" (dyadisch = Anderssein) und "konjugative Relative" (triadisch = Drittheit) ein. Alle mehrstelligen Relationen sind auf triadische Relationen zurückführbar. Diese Reduktionsthese von Peirce, die ihm für den Nachweis seiner Kategorien wichtig war, konnte mittlerweile bewiesen werden. Insbesondere konnte gezeigt werden, dass die triadische Reduktion von Peirce nicht im Widerspruch zur dualistischen Reduktion von Quine steht. Er erfand die existentiellen Graphen (engl. "existential graphs"), eine graphische Schreibweise für die Aussagenlogik (Alphagraphen), Prädikatenlogik erster Stufe (Betagraphen) und für die Prädikatenlogik höherer Stufe sowie für Modallogik (Gammagraphen). Zusammen mit den Schlussregeln, die er dazu formulierte, bilden die existenziellen Graphen einen Aussagen- bzw. Prädikatenkalkül. Die Graphen sind die Grundlage für die Begriffsgraphen von John F. Sowa und für die diagrammatische Begründung bei Sun Joo-Shin. In einem Brief an seinen früheren Studenten Allan Marquand von 1886, der erst nach 1950 entdeckt wurde, zeigte er bereits die Anwendungsmöglichkeit der Booleschen Logik auf elektrische Schaltungen, mehr als 50 Jahre vor Claude Shannon. Einer solchen Schaltung, die er auch in zwei verschiedenen Graphiken skizzierte, schrieb er folgende Eigenschaften zu: 1. Entwicklung von Ausdrücken (a, b, c etc.) aus Zeichenketten und Syntaxregeln, 2. Vereinfachung der Ausdrücke, 3. Multiplikation mit Polynomen, 4. Addition. (NEM IV, 632) Es kann gezeigt werden dass eine Verknüpfung der Existential Graphs mit einer solchen mechanischen Lösung möglich ist. Bemerkenswert ist auch seine Ausarbeitung zu den verschiedenen Zahlensystemen und sein Verweis darauf, dass das Binärsystem besonders geeignet für die maschinelle Verarbeitung sei. Wissenschaftsauffassung. Auch wenn Peirce kein explizites System entwickelte, so kann er doch als systematischer Philosoph im traditionellen Sinne betrachtet werden. Sein Werk befasst sich mit den wissenschaftlichen und logischen Fragen nach Wahrheit und Wissen, die er mit seiner Erfahrung als Logiker und experimenteller Wissenschaftler verband. Peirce war der Überzeugung, dass Wahrheit etwas Vorläufiges ist und bei jeder Aussage ein Faktor an Unsicherheit mit enthalten ist. Für Peirce war der "Fallibilismus" ein Gegenpol gegen den Skeptizismus, der für seine Philosophie keine geringere Bedeutung hatte als der Pragmatismus, den er wiederum als Gegenpol gegen den Positivismus sah. Peirce leistete wesentliche Beiträge zur deduktiven Logik, war aber vor allem interessiert an der Logik der Wissenschaft und vor allem an der Abduktion, die sich nicht nur im Bereich der wissenschaftlichen Forschung, sondern in allen praktischen Lebensbereichen findet. Sein Pragmatismus kann auch verstanden werden als eine Methode zur Klärung begrifflicher Verwirrung durch die Verknüpfung der Bedeutung von Begriffen mit ihren praktischen Konsequenzen. Peirce' Pragmatismus hat allerdings nichts zu tun mit dem allgemein üblichen Begriff des pragmatischen Handelns, der oftmals irreführend Rücksichtslosigkeit, Übervorteilung und Vorteilsnahme zumindest indirekt impliziert. Stattdessen suchte Peirce eine objektive, verifizierbare Methode, um die Wahrheit von Wissen zu überprüfen, und zwar in Konkurrenz zu den klassischen Ansätzen von Das von ihm als wissenschaftliche Methode entwickelte Konzept beschreibt den Wissenschaftsprozess als einen stufenweisen Vorgang, der mit Abduktion aufgrund ungeklärter Phänomene beginnt, bei genügender Sicherheit induktiv Gesetze formuliert, die anhand von Deduktion praktisch geprüft werden. Zum rationalen Wissenschaftsprozess gehörte für ihn ausdrücklich die Wirtschaftlichkeit der Forschung, da Verschwendung angesichts der unendlichen zu lösenden Fragen irrational ist. Sein Ansatz wurde oft auch als eine neue Form des Fundamentalismus betrachtet, aber durch beinhaltet er eher eine rationale Basis als eine induktive Verallgemeinerung, die sich rein auf Phänomene beruft. Peirce' Pragmatismus wurde so als erstes wissenschaftliches Verfahren zur Anwendung auf Fragen der Erkenntnistheorie angesehen. Eine Theorie, die nachweislich erfolgreicher in der Vorhersage und der Nachvollziehbarkeit gegenüber der Lebenswelt ist als ihre Konkurrenten, kann man als näher an der Wahrheit bezeichnen. Dies ist eine in der Wissenschaft angewendete operationale Kennzeichnung von Wahrheit. Anders als andere Pragmatisten hat Peirce niemals explizit eine Theorie der Wahrheit formuliert. Aber seine verstreuten Anmerkungen zur Wahrheit haben eine Reihe erkenntnistheoretischer Wahrheitstheoretiker beeinflusst und waren eine hilfreiche Grundlage für deflationäre und korrespondenztheoretische Theorien der Wahrheit. Tychismus (Zufall). Ähnlich wie Kant hat Peirce den spekulativen Charakter der traditionellen Metaphysik vielfach heftig kritisiert. Andererseits hat er immer danach gestrebt, eine mit den Naturwissenschaften verträgliche Idee für eine Erklärung der Grundprinzipien der Lebenswelt zu entwickeln. Ausgangspunkt war für ihn wie in vielen anderen Dingen die Logik und hier insbesondere die von Mill zur Induktion entwickelte Theorie, dass diese ihre Gültigkeit aus der Gleichförmigkeit der Natur herleitet. Peirce kritisierte hieran, dass die Annahme der Gleichförmigkeit als Voraussetzung dann nicht zugleich über die Induktion die Gleichförmigkeit als Ergebnis liefern könne. Als breit bewanderter und erfahrener Naturwissenschaftler führte Peirce eine Reihe von Argumenten gegen den Determinismus an, für den es aus seiner Sicht keine wissenschaftliche Begründung gibt. Insbesondere betonte er, dass die praktischen Messwerte der angewandten Wissenschaften theoretische Konzepte niemals bestätigen, weil sie in aller Regel aufgrund von Versuchsanordnungen zu ungenau sein müssen. Messergebnisse haben immer eine Verteilung, die durch Regression oder ähnliche Verfahren approximiert werden muss. Alle natürlichen Erscheinungen beinhalten Unregelmäßigkeiten. Gegen den Determinismus setzte Peirce die Hypothese, dass die Welt eine Zufalls-Welt (Chance-world, CP 6.399) ist. Geht man davon aus, dass es einen Urzustand des völligen (nicht beschreibbaren) Zufalls für das Universum gibt, so ist bereits der erste Entwicklungsschritt eine Wahl aus einer unbegrenzten Anzahl an Möglichkeiten. Jeder weitere Schritt führt wieder zu einer Auswahl bis zum Heute. Das Erklärungsprinzip ist die Evolution als Eigenschaft unserer Welt, die sich aus einer unendlichen Zahl möglicher Welten entwickelt hat und in diesem Entwicklungsprozess fortschreitet. Dieses Konzept der Welterklärung durch einen fortschreitenden Prozess, der zufällige Ereignisse systematisch beinhaltet, nannte Peirce „Tychismus“. Mit diesem verbunden sind eine umfassende Idee der Evolution, für die die Theorie Darwins nur einen Teil der Erklärungen liefert, sowie die Vorstellung der Selbstorganisation der Materie. Gegen den Determinismus sah Peirce sich dadurch bestätigt, dass das Prinzip des Wachstums und des Lebens unumkehrbare Vorgänge sind, die einem Determinismus widersprechen. Spontaneität (die Popper mit Emergenz verband) war für ihn ein objektiver Tatbestand der Natur und eine wesentliche Grundlage seines Fallibilismus. Seine Auffassung sah Peirce auch gestützt durch die evolutionäre Denkweise, wie sie für ihn Hegel in Bezug auf Geschichte, Charles Lyell in Bezug auf Geologie und Charles Darwin in der Biologie vertraten. Evolution war für Peirce eines der grundlegenden Prinzipien der Welt. Peirce ging aber noch einen Schritt weiter. Seine Frage lautete nicht, wie Erkenntnis möglich ist, sondern wie sind überhaupt physikalische Gesetze möglich? Er bezog sich dabei unter anderem auf den 2. Hauptsatz der Thermodynamik und das Phänomen der Entropie, wie auch auf die Inexaktheit der Molekularbewegungen (MS 875). Die Tendenz zur Heterogenität und die Unumkehrbarkeit der Prozesse waren für ihn Zeichen, dass der Evolutionsprozess auch in der physikalischen Welt gilt und eine innewohnende Tendenz hat, stabile Zustände („habits“ = Verhaltensgewohnheiten) anzunehmen. Peirce hätte sich durch die Ergebnisse der Quantenphysik mit dem Übergang zu wahrscheinlichkeitstheoretischen Erklärungsmodellen und die Heisenbergsche Unschärferelation bestätigt gefunden. Synechismus (Kontinuum). Ausgehend von der Idee des Zufalls und der Evolution entwickelte Peirce seine Weltsicht weiter zu einem umfassenden Konzept. Basis ist das Thema des Kontinuums, das ihn über die gesamte Zeit seines Arbeitens beschäftigte. Den ersten Schritt machte Peirce erneut in der mathematischen Logik, wo er sich mit der Frage der infinitesimalen Teilbarkeit befasste. Ein Infinitesimal ist eine Größe, die kleiner ist als jede endliche Größe, aber größer ist als Null. Das klassische Beispiel eines Kontinuums ist eine Linie. Das Kontinuum ist nicht metrisch, so dass Punkte auf der Linie nur potentielle Punkte sind, die wieder ein beliebig teilbares infinitesimales Intervall sind. Ein Kontinuum kann durch keine Menge von Einzelbestimmungen ausgeschöpft werden (CP 6.170). In diesem Zusammenhang hat Peirce mathematische Vorstellungen entwickelt, die heute in der Nicht-Standard-Analysis diskutiert werden und ist davon ausgegangen, dass der Raum nicht-euklidisch ist. Phänomene wie Energie, zu der auch die Gravitation gehört, oder die Zeit sind Kontinua, die dem Prozess der Evolution innewohnen. Der Mensch kann sie selbst nicht beobachten, sondern nur ihre Auswirkungen. So ist die Zeit zunächst nur ein reines vages Gefühl der Möglichkeit (Erstheit). Die Veränderung oder Wechselwirkung ist die Erfahrung des Gegensatzes (Zweitheit). Das Fortbestehen der Vorstellungen in der Zeit ist geistige Kontinuität (Drittheit). Für Peirce war der Urgrund aller Wirklichkeit der Geist, der nichts ist als Empfindung und Qualität, reine Möglichkeit ohne Zusammenhang und Regelmäßigkeit. Dieser Geist schaffte durch ein erstes Ereignis (einen ersten dyadischen Schritt) Zeit, Raum, die Existenz der Materie und die Naturgesetze, die als relativ konstante Regelmäßigkeiten die kontinuierliche Entwicklung der Evolution in Gang setzten. In der Evolution ist das Fortschreiten eines Wachstums zu einer sich immer weiter entwickelnden Heterogenität enthalten, an deren sehr fernem Ende die vollständige Gesetzmäßigkeit steht. "Zufall ist das Erste, Gesetzmäßigkeit das Zweite und die Neigung, Gewohnheiten auszubilden, das Dritte." (CP 6.27). Den Anfang und das Ende der Evolution bilden (theoretische) Grenzsituationen. Für Peirce war damit die Wirklichkeit eine Wirklichkeit des Geistes, die auch die Wirklichkeit ihrer Objekte bestimmt. Folgerichtig vertrat er einen uneingeschränkten Universalienrealismus. Mit dieser Position eines objektiven (logischen) Idealismus sah er sich in einer Linie mit Schelling. Agapismus (Liebe als Lebensprinzip). Der Mensch ist Teil des evolutionären Prozesses, der sich in seinem Strom des Bewusstseins ebenso wie in dem Prozess des Denkens in Zeichen widerspiegelt. Das Denken in Zeichen funktioniert aber nur im Miteinander der Menschen; denn ohne den Anderen und die Kommunikation mit ihm ist menschliche Existenz nicht möglich. Aus diesem Horizont leitete Peirce die Grundthese ab, dass nur das Prinzip der Liebe (Agape), die Überwindung der Selbstsucht und des Egoismus zu Harmonie und Fortschritt führt. Wie das teleologische Streben nach Heterogenität in der Natur kommt der Fortschritt des Menschen nur aus dem Gedanken, dass der Einzelne seine Individualität im Mitgefühl zu seinen Mitmenschen aufgehen lässt. Peirce hat nur wenig zur praktischen Ethik geäußert. Es gibt immerhin eine kleine Schrift, in der er eine grundsätzlich veränderte Sicht auf das Strafrecht forderte. Der Mensch hat zwar das Recht, sich vor der Kriminalität zu schützen. Aber aus dem naturgegebenen Zweck der Solidarität hat er kein Recht auf Rache. Daraus folgte für Peirce die Forderung, Verbrecher zu resozialisieren und für sie Bedingungen zu schaffen, die ihnen eine Rückkehr in die Gemeinschaft ermöglichen. Rezeption. Peirce wurde zu seiner Zeit als professioneller Philosoph kaum wahrgenommen, weil er keine grundlegenden Schriften zu seinem Gegenstand veröffentlichte. Bekannt war er hingegen als Naturwissenschaftler, Mathematiker und Logiker. So stand er in direktem Kontakt zu Augustus de Morgan. Ernst Schröder basierte seine Logik der Algebra auf Peirce. Über Schröder wirkte Peirce auch auf Peano und die „Principia Mathematica“ von Russell und Whitehead. Da er aber seit 1884 im Prinzip vom akademischen Leben ausgeschlossen war, entstanden Bezüge zu seinem Werk vor allem durch die Personen, die mit ihm persönlich bekannt waren. Dies waren vor allen Dingen William James und der Hegelianer Josiah Royce. Nach William James sind zwei Schriften aus den 1870er Jahren zu nennen, die die Quelle des Pragmatismus ausmachen. James widmete auch seine Schrift „The Will to Believe“ Peirce. Anders als James und spätere Pragmatisten, insbesondere John Dewey, verstand Peirce allerdings seinen Pragmatismus vor allem als Methode zur Klärung der Bedeutung von Gedanken durch Anwendung wissenschaftlicher Methodik auf die Philosophie. Den Pragmatismus von James, der sich als Physiologe vorrangig mit psychologischen Themen befasste und seinen Pragmatismus mit lebensphilosophischen Fragestellungen verband (Theorie der Emotion, Philosophie der Religion), hielt Peirce für einen individualistischen Subjektivismus, den er selbst ablehnte. Und von Deweys Logik sagte Peirce, dass sie eher eine „Naturgeschichte des Denkens“ als Logik im traditionellen Sinne einer Lehre von den normativen Prinzipien und Regeln des Denkens und Schließens sei (The Nation 1904, 220). An beiden kritisierte er das nominalistische Denken. Zur Abgrenzung gegen vereinfachende Formen des Pragmatismus (auch gegen James und Dewey) nannte Peirce seine Form des semiotischen Pragmatismus ab zirka 1905 "Pragmatizismus". Peirce' Leistungen wurden nur allmählich wahrgenommen. An der Universität wirkte er lediglich fünf Jahre im Bereich Logik. Sein einziges Buch ist eine kurze Schrift über Astronomie ("Photometrische Untersuchungen" von 1878), das wenig Beachtung fand. Seine Zeitgenossen William James und Josiah Royce würdigten ihn zwar, aber nur zu einem gewissen Grad. Als er starb, waren Cassius Keyser von der Columbia-Universität und Morris Raphael Cohen aus New York vielleicht seine einzigen Anhänger. Zwei Jahre nach Peirce Tod erschien im Jahr 1916 ein Sonderheft des Journal of Philosophy, das Peirce gewidmet war, mit Beiträgen von Royce, Dewey, Christine Ladd-Franklin, Joseph Jastrow und Morris R. Cohen. Als erste Arbeit über Peirce gilt „A Survey of Symbolic Logic“ von Clarence Irving Lewis, der einen konzeptualistischen Pragmatismus vertrat. Ausdrücklich auf die Anthologie „Chance, Love and Logic“ bezog sich Frank Plumpton Ramsey in seiner Arbeit „Truth and Probability“ aus dem Jahr 1926. Ramsey seinerseits führte kritische Diskussionen mit Wittgenstein über den Tractatus. Eine Ähnlichkeit des späten Wittgenstein zu Peirce ergibt sich, wenn man sein Verständnis von Bedeutung eines Begriffs als dessen Gebrauch mit der pragmatischen Maxime von Peirce vergleicht. Ähnlich wie für Peirce das Zeichen unhintergehbar und nur in den Kategorien phänomenologisch fassbar war, war auch Sprache für Wittgenstein nur in der Anwendung beschreibbar. Eine andere frühe Rezeptionslinie ergibt sich aus dem Werk „The Meaning of Meaning“ von Charles Kay Ogden und Ivor Armstrong Richards aus dem Jahr 1923, das im Anhang einige Passagen von Peirce enthält. Die semiotische Interpretation von Peirce fand dann ihren Fortgang bei Charles William Morris (Foundations of a Theory of Signs, Chicago 1938), der allerdings einen behavioristischen Ansatz verfolgte. Auch die Veröffentlichung seiner "Collected Papers" (1931–1935) führte nicht zu einem unmittelbaren Aufschwung in der Sekundärliteratur. Die Herausgeber, Charles Hartshorne und Paul Weiss waren keine Peirce-Spezialisten. Eine nachweisliche Rezeption begann erst mit den Arbeiten von James Feibleman (1946) und Thomas Goudge (1950), der zweiten Auflage der Collected Papers – herausgegeben von Philip Wiener und Frederick Young – sowie der umfangreichen Arbeit von Max Fisch, des Begründers des Peirce-Edition-Projekts an der Indiana University in Indianapolis. Die „Charles Sanders Peirce Society“ wurde 1946 gegründet. Seit 1965 gibt es die Zeitschrift "Transactions of the Peirce Society", die auf Peirceiana spezialisiert ist. Die erste systematische Auseinandersetzung mit Peirce in Deutschland lieferte Jürgen von Kempski 1952, jedoch noch ohne große Wirkung. Seit den 1960er Jahren haben Max Bense und Elisabeth Walther ihre Semiotik der Stuttgarter Schule ausgehend von einer intensiven Peirce-Rezeption entwickelt. In etwa zeitgleich begründete der Linguist Roman Jacobson seine Zeichentheorie ausgehend von Peirce, wie auch Umberto Ecos strukturalistische Semiotik an Peirce anknüpft. Aber erst mit der Veröffentlichung eines Textbandes durch Karl-Otto Apel im Jahr 1967, gefolgt von einem zweiten Band 1970 (siehe Schriften), setzte auch in Deutschland eine breitere Rezeptionswelle ein. Peirce lieferte für Apels Intention einer Transformation der Transzendentalphilosophie einen grundlegenden Ansatz: „Ich möchte indessen die kritische Pointe des neuen kommunikationstheoretischen Ansatzes noch zusätzlich mit Hilfe der Wittgensteinschen Konzeption des 'Sprachspiels' erläutern. Mit Hilfe dieser Konzeption lässt sich m.E. zeigen, dass die von Peirce eingeleitete – und in unserem Jahrhundert allenthalben bestätigte – semiotische oder sprachanalytische Transformation der Erkenntniskritik und Wissenschaftstheorie auf eine radikale Überwindung des 'methodischen Solipsismus' hinausläuft, der die philosophische Erkenntnistheorie von Descartes bis Husserl beherrscht hat.“ Nur ein Jahr nach Apel setzte sich auch Jürgen Habermas intensiv mit Peirce auseinander. Habermas sah im Gegensatz zu Apel Peirce nicht in der Tradition der Transzendentalphilosophie, sondern als Wissenschaftstheoretiker: „Peirce begreift Wissenschaft aus dem Horizont methodischer Forschung, und Forschung versteht er als einen Lebensprozeß. Die logische Analyse der Forschung richtet sich deshalb nicht auf die Leistungen eines transzendentalen Bewusstseins, sondern auf die Leistungen eines Subjektes, das den Forschungsprozeß im ganzen trägt, auf das Kollektiv der Forscher.“ Als Kontrapunkt zur vorherrschenden nominalistischen und empiristischen Philosophie ist die Rezeption von Peirce seit den 1990er Jahren auf ein breites Spektrum von Anwendungsbereichen gewachsen. Dieses reicht von der Informatik über die Linguistik, die Semiotik, die Sozialwissenschaften, die Literaturtheorie, die Philosophie der Mathematik, die Naturphilosophie bis hin zur Religionsphilosophie. So bewertet Ilya Prigogine sein Werk: „Peirce wagte es, das Universum der klassischen Mechanik zugunsten eines evolutionären Universums zu einer Zeit zu verwerfen, als keinerlei experimentelle Ergebnisse vorlagen, die diese These hätten stützen können.“ Wenn man den Umfang von Peirce' Themen betrachtet, muss man ihn als Universalgelehrten bezeichnen, mit dem man nur wenige aus der Geschichte vergleichen kann. Besondere Ähnlichkeit findet man zu Gottfried Wilhelm Leibniz, der sich wie er mit Mathematik, Logik, Naturwissenschaften, Geschichte, Philosophie des Geistes und der Sprache und Metaphysik befasste. Beide waren metaphysische Realisten und der scholastischen Philosophie zumindest teilweise zugeneigt. So bewunderte Peirce Duns Scotus. Die Gedanken beider wurden in der Nachfolge zunächst nur wenig geschätzt und von ersten Interpreten stark vereinfacht dargestellt. Leibniz unterschied sich von Peirce vor allem in seiner finanziellen Lage, seinem Glauben und einer Korrespondenz von ca. 15.000 Briefen. Beide publizierten wenige Bücher, aber viele Aufsätze und hinterließen einen umfangreichen Nachlass. Die Werke beider Autoren sind noch bei weitem nicht vollständig ediert. Ausgaben. "siehe auch das (unvollständige) Verzeichnis der Einzelschriften: Schriften von Charles Sanders Peirce" Die im Text enthaltenen Zitate stammen aus den deutschen Ausgaben oder der genannten Literatur. Compiler. Ein Compiler (auch "Kompiler"; von für "zusammentragen" bzw. ‚aufhäufen‘) ist ein Computerprogramm, das Quellcode einer bestimmten Programmiersprache in eine Form übersetzt, die von einem Computer (direkter) ausgeführt werden kann. Teils wird zwischen den Begriffen "Übersetzer" und Compiler unterschieden. Ein Übersetzer übersetzt ein Programm aus einer formalen Quellsprache in ein semantisches Äquivalent in einer formalen Zielsprache. Compiler sind spezielle Übersetzer, die Programmcode aus problemorientierten Programmiersprachen, sogenannten Hochsprachen, in ausführbaren Maschinencode einer bestimmten Architektur oder einen Zwischencode (Bytecode, p-Code oder .Net-Code) überführen. Diese Trennung zwischen den Begriffen Übersetzer und Compiler wird nicht in allen Fällen vorgenommen. Der "Vorgang" der Übersetzung wird auch als "Kompilierung" oder Umwandlung (bzw. mit dem entsprechenden Verb) bezeichnet. Das Gegenteil, also die Rückübersetzung von Maschinensprache in Quelltext einer bestimmten Programmiersprache, wird "Dekompilierung" und entsprechende Programme "Decompiler" genannt. Geschichte. Der erste Compiler (A-0) wurde 1949 von der Mathematikerin Grace Hopper entwickelt. Bis zu diesem Zeitpunkt mussten Programmierer direkt Maschinencode erstellen. (Der erste Assembler wurde zwischen 1948 und 1950 von Nathaniel Rochester für eine IBM 701 geschrieben.) Um diesen Prozess zu vereinfachen, entwickelte Grace Hopper eine Methode, die es ermöglichte, Programme und ihre Unterprogramme in einer mehr an der menschlichen als der maschinellen Sprache orientierten Weise auszudrücken. Am 3. Mai 1952 stellte Hopper den ersten Compiler A-0 vor, der Algorithmen aus einem Katalog abrief, Code umschrieb, in passender Reihenfolge zusammenstellte, Speicherplatz reservierte und die Zuteilung von Speicheradressen organisierte. Anfang 1955 präsentierte Hopper bereits einen Prototyp des Compilers B-0, der nach englischen, französischen oder deutschen Anweisungen Programme erzeugte. Hopper nannte ihren Vortrag zum ersten Compiler „The Education of a Computer“ („Die Erziehung eines Computers“). Die Geschichte des Compilerbaus wurde von den jeweils aktuellen Programmiersprachen (vgl. Zeittafel der Programmiersprachen) und Hardwarearchitekturen geprägt. Weitere frühe Meilensteine sind 1957 der erste FORTRAN-Compiler und 1960 der erste COBOL-Compiler. Viele Architekturmerkmale heutiger Compiler wurden aber erst in den 1960er Jahren entwickelt. Früher wurden teilweise auch Programme als Compiler bezeichnet, die Unterprogramme zusammenfügen. Dies geht an der heutigen Kernaufgabe eines Compilers vorbei, weil Unterprogramme heutzutage mit anderen Mitteln eingefügt werden können: Entweder im "Quelltext" selbst, beispielsweise von einem Präprozessor (siehe auch Precompiler) oder bei "übersetzten Komponenten" von einem eigenständigen Linker. Aufbau eines Compilers. Der Compilerbau, also die Programmierung eines Compilers, ist eine eigenständige Disziplin innerhalb der Informatik. Moderne Compiler werden in verschiedene Phasen gegliedert, die jeweils verschiedene Teilaufgaben des Compilers übernehmen. Einige dieser Phasen können als eigenständige Programme realisiert werden (s. Precompiler, Präprozessor). Sie werden sequentiell ausgeführt. Im Wesentlichen lassen sich zwei Phasen unterscheiden: das Frontend (auch "Analysephase"), das den Quelltext analysiert und daraus einen attributierten Syntaxbaum erzeugt, sowie das Backend (auch "Synthesephase"), das daraus das Zielprogramm erzeugt. Lexikalische Analyse. Die lexikalische Analyse zerteilt den eingelesenen Quelltext in lexikalische Einheiten ("Tokens") verschiedener Typen, zum Beispiel Schlüsselwörter, Bezeichner, Zahlen, Zeichenketten oder Operatoren. Dieser Teil des Compilers heißt Scanner oder Lexer. Ein Scanner benutzt gelegentlich einen separaten Screener, um Whitespace (Leerraum, also Leerzeichen, Tabulatorzeichen, Zeilenenden usw.) und Kommentare zu überspringen. Eine weitere Funktion der lexikalischen Analyse ist es, erkannte Tokens mit ihrer Position (z. B. Zeilennummer) im Quelltext zu assoziieren. Werden in der weiteren Analysephase, deren Grundlage die Tokens sind, Fehler im Quelltext gefunden (z. B. syntaktischer oder semantische Art), können die erzeugten Fehlermeldungen mit einem Hinweis auf den Ort des Fehlers versehen werden. Lexikalische Fehler sind Zeichen oder Zeichenfolgen, die keinem Token zugeordnet werden können. Zum Beispiel erlauben die meisten Programmiersprachen keine Bezeichner, die mit Zahlen beginnen (z. B. „3foo“). Syntaktische Analyse. Die syntaktische Analyse überprüft, ob der eingelesene Quellcode ein korrektes Programm der zu übersetzenden Quellsprache ist, das heißt der Syntax (Grammatik) der Quellsprache entspricht. Dabei wird die Eingabe in einen Syntaxbaum umgewandelt. Der syntaktische Analysierer wird auch als Parser bezeichnet. Falls der Quellcode nicht zur Grammatik der Quellsprache passt, gibt der Parser einen Syntaxfehler aus. Semantische Analyse. Die semantische Analyse überprüft die statische Semantik, also über die syntaktische Analyse hinausgehende Bedingungen an das Programm. Zum Beispiel muss eine Variable in der Regel deklariert worden sein, bevor sie verwendet wird, und Zuweisungen müssen mit kompatiblen (verträglichen) Datentypen erfolgen. Dies kann mit Hilfe von Attributgrammatiken realisiert werden. Dabei werden die Knoten des vom Parser generierten Syntaxbaums mit Attributen versehen, die Informationen enthalten. So kann zum Beispiel eine Liste aller deklarierten Variablen erstellt werden. Die Ausgabe der semantischen Analyse nennt man dann dekorierten oder attributierten Syntaxbaum. Backend (auch „Synthesephase“). Das Backend erzeugt aus dem vom Frontend erstellten attributierten Syntaxbaum den Programmcode der Zielsprache. Zwischencodeerzeugung. Viele moderne Compiler erzeugen aus dem Syntaxbaum einen Zwischencode, der schon relativ maschinennah sein kann und führen auf diesem Zwischencode zum Beispiel Programmoptimierungen durch. Das bietet sich besonders bei Compilern an, die mehrere Quellsprachen oder verschiedene Zielplattformen unterstützen. Hier kann der Zwischencode auch ein Austauschformat sein. Programmoptimierung. Der Zwischencode ist Basis vieler Programmoptimierungen. Siehe Programmoptimierung. Codegenerierung. Bei der Codegenerierung wird der Programmcode der Zielsprache entweder direkt aus dem Syntaxbaum oder aus dem Zwischencode erzeugt. Falls die Zielsprache eine Maschinensprache ist, kann das Ergebnis direkt ein ausführbares Programm sein oder eine sogenannte Objektdatei, die durch das Linken mit der Laufzeitbibliothek und evtl. weiteren Objektdateien zu einer Bibliothek oder einem ausführbaren Programm führt. Dies alles wird vom Codegenerator ausgeführt, der Teil des Compilersystems ist, manchmal als Programmteil des Compilers, manchmal als eigenständiges Modul. Programmoptimierung (ausführlich). Zur Steuerung des Übersetzens kann der Quelltext neben den Anweisungen der Programmiersprache zusätzliche spezielle Compiler-Anweisungen enthalten. Üblicherweise bietet ein Compiler Optionen für verschiedene Optimierungen mit dem Ziel, die Laufzeit des Zielprogramms zu verbessern oder dessen Speicherplatzbedarf zu minimieren. Die Optimierungen erfolgen teilweise in Abhängigkeit von den Eigenschaften der Hardware, zum Beispiel wie viele und welche Register der Prozessor des Computers zur Verfügung stellt. Optimierungen optimieren oft nur bestimmte Aspekte eines Programms. Es ist möglich, dass ein Programm nach einer Optimierung langsamer ausgeführt wird, als das ohne sie der Fall gewesen wäre. Dies kann zum Beispiel eintreten, wenn eine Optimierung für ein Programmkonstrukt längeren Code erzeugt, der zwar an sich schneller ausgeführt werden würde, aber mehr Zeit benötigt, um erst einmal in den Cache geladen zu werden. Er ist damit erst bei häufigerer Benutzung vorteilhaft. Einige Optimierungen führen dazu, dass der Compiler Zielsprachenkonstrukte erzeugt, für die es gar keine direkten Entsprechungen in der Quellsprache gibt. Ein Nachteil solcher Optimierungen ist, dass es dann kaum noch möglich ist, den Programmablauf mit einem interaktiven Debugger in der Quellsprache zu verfolgen. Optimierungen können sehr aufwendig sein. Vielfach muss vor allem in modernen JIT-Compilern daher abgewogen werden, ob es sich lohnt, einen Programmteil zu optimieren. Bei Ahead-of-time-Compilern werden bei der abschließenden Übersetzung alle sinnvollen Optimierungen verwendet, häufig jedoch nicht während der Software-Entwicklung (reduziert den Kompilier-Zeitbedarf). Für nichtautomatische Optimierungen seitens des Programmierers können Tests und Anwendungsszenarien durchgespielt werden (s. Profiler), um herauszufinden, wo sich komplexe Optimierungen lohnen. Im Folgenden werden einige Optimierungsmöglichkeiten eines Compilers betrachtet. Das größte Optimierungspotenzial besteht allerdings oft in der Veränderung des Quellprogramms selbst, zum Beispiel darin, einen Algorithmus durch einen effizienteren zu ersetzen. Dieser Vorgang kann meistens nicht automatisiert werden, sondern muss durch den Programmierer erfolgen. Einfachere Optimierungen können dagegen an den Compiler delegiert werden, um den Quelltext lesbar zu halten. Einsparung von Maschinenbefehlen. Mit der Optimierung werden statt 6 nur noch 4 Assemblerbefehle benötigt, außerdem wird der Speicherplatz für die Hilfsvariable hilf nicht gebraucht. D. h., diese Vertauschung wird schneller ausgeführt und benötigt weniger Hauptspeicher. Dies gilt jedoch nur, wenn ausreichend Register im Prozessor zur Verfügung stehen. Die Speicherung von Daten in Registern statt im Hauptspeicher ist eine häufig angewendete Möglichkeit der Optimierung. Die oben als optimiert gezeigte Befehlsfolge hat noch eine weitere Eigenschaft, die bei modernen CPUs mit mehreren Verarbeitungs-Pipelines einen Vorteil bedeuten kann: Die beiden Lesebefehle und die beiden Schreibbefehle können problemlos parallel verarbeitet werden, sie sind nicht vom Resultat des jeweils anderen abhängig. Lediglich der erste Schreibbefehl muss auf jeden Fall abwarten, bis der letzte Lesebefehl ausgeführt wurde. Tiefer gehende Optimierungsverfahren fügen deshalb unter Umständen zwischen "b → Register 2" und "Register 2 → a" noch Maschinenbefehle ein, die zu einer ganz anderen hochsprachlichen Befehlszeile gehören. Statische Formelauswertung zur Übersetzungszeit. u = 2 * pi * r kann ein Compiler bereits zum Übersetzungszeitpunkt zu u = 6.28318 * r auswerten. Diese Formelauswertung spart die Multiplikation 2 * pi zur Laufzeit des erzeugten Programms. Diese Vorgehensweise wird als Konstantenfaltung (engl. „constant folding“) bezeichnet. (Compiler für die Sprache Ada müssen diese Compile-Zeit-Berechnungen sogar in beliebiger Genauigkeit durchführen.) Elimination von totem Programmcode. Wenn der Compiler erkennen kann, dass ein Teil des Programmes niemals durchlaufen wird, dann kann er diesen Teil bei der Übersetzung weglassen. Wenn in diesem Programm niemals ein codice_1 auf die Sprungmarke codice_2 erfolgt, kann auf die Anweisung codice_3 verzichtet werden. Der Sprungbefehl codice_4 ist dann ebenfalls überflüssig. Erkennung unbenutzter Variablen. Wird eine Variable nicht benötigt, so muss dafür kein Speicherplatz reserviert und kein Zielcode erzeugt werden. Hier wird die Variable c nicht benötigt: Sie steht nicht in der Parameterliste, wird in späteren Berechnungen nicht verwendet und wird auch nicht ausgegeben. Deshalb kann die Anweisung c = 3.14 * b entfallen. Optimierung von Schleifen. Insbesondere Schleifen versucht man zu optimieren, indem man zum Beispiel Einfügen von Unterprogrammen. Bei kleinen Unterprogrammen fällt der Aufwand zum Aufruf des Unterprogrammes verglichen mit der vom Unterprogramm geleisteten Arbeit stärker ins Gewicht. Daher versuchen Compiler, den Maschinencode kleinerer Unterprogramme direkt einzufügen – ähnlich wie manche Compiler/Assembler/Präcompiler Makro-Anweisungen in Quellcode auflösen. Diese Technik wird auch als Inlining bezeichnet. In manchen Programmiersprachen ist es möglich, durch "inline"-Schlüsselwörter den Compiler darauf hinzuweisen, dass das Einfügen von bestimmten Unterprogrammen gewünscht ist. Das Einfügen von Unterprogrammen eröffnet oft, abhängig von den Parametern, weitere Möglichkeiten für Optimierungen. Halten von Werten in Registern. Anstatt mehrfach auf dieselbe Variable im Speicher, beispielsweise in einer Datenstruktur, zuzugreifen, kann der Wert nur einmal gelesen und für weitere Verarbeitungen in Registern oder im Stack zwischengespeichert werden. In C, C++ und Java muss dieses Verhalten ggf. mit dem Schlüsselwort "volatile" abgeschaltet werden: Eine als "volatile" bezeichnete Variable wird bei jeder Benutzung wiederholt vom originalem Speicherplatz gelesen, da ihr Wert sich unterdessen geändert haben könnte. Das kann beispielsweise der Fall sein, wenn es sich um einen Hardware-Port handelt oder ein parallel laufender Thread den Wert geändert haben könnte. int b = 3 * array[25]->element.x; Im Maschinenprogramm wird nur einmal auf codice_5 zugegriffen, der Wert wird zwischengespeichert und zweimal verwendet. Ist x volatile, dann wird zweimal zugegriffen. Es gibt außer "volatile" noch einen anderen Grund, der eine Zwischenspeicherung in Registern unmöglich macht: Wenn der Wert der Variablen v durch Verwendung des Zeigers z im Speicher verändert werden könnte, kann eine Zwischenspeicherung von v in einem Register zu fehlerhaftem Programmverhalten führen. Da die in der Programmiersprache C oft verwendeten Zeiger nicht auf ein Array beschränkt sind (sie könnten irgendwohin im Hauptspeicher zeigen), hat der Optimizer oft nicht genügend Informationen, um eine Veränderung einer Variablen durch einen Zeiger auszuschließen. Verwendung schnellerer äquivalenter Anweisungen. Statt einer Multiplikation oder Division von Ganzzahlen mit einer Zweierpotenz kann ein Schiebebefehl verwendet werden. Es gibt Fälle, in denen nicht nur Zweierpotenzen, sondern auch andere Zahlen (einfache Summen von Zweierpotenzen) für diese Optimierung herangezogen werden. So kann zum Beispiel (n «1) + (n «2) schneller sein als n * 6. Statt einer Division durch eine Konstante kann eine Multiplikation mit dem Reziprokwert der Konstante erfolgen. Selbstverständlich sollte man solch spezielle Optimierungen auf jeden Fall dem Compiler überlassen. Weglassen von Laufzeitüberprüfungen. Programmiersprachen wie Java fordern Laufzeitüberprüfungen beim Zugriff auf Felder oder Variablen. Wenn der Compiler ermittelt, dass ein bestimmter Zugriff immer im erlaubten Bereich sein wird (zum Beispiel ein Zeiger, von dem bekannt ist, dass er an dieser Stelle nicht NULL ist), kann der Code für diese Laufzeitüberprüfungen weggelassen werden. Reduktion von Paging zur Laufzeit. Zusammenhängender Code, zum Beispiel eine Schleife, sollte zur Laufzeit möglichst auf der gleichen „Seite“ (zusammenhängend vom Betriebssystem verwalteter Speicherblock) im Hauptspeicher liegen. Dies kann man zum Beispiel dadurch erreichen, dass man dem Zielcode geeignete Leeranweisungen („NOPs“ – "N"o "OP"eration) hinzufügt. Dadurch wird der erzeugte Code zwar größer, aber wegen des reduzierten Pagings wird das Programm schneller ausgeführt. Vorziehen bzw. Verzögern von Speicherzugriffen. Durch das Vorziehen von Speicherlesezugriffen und das Verzögern von Schreibzugriffen lässt sich die Fähigkeit moderner Prozessoren zur Parallelarbeit verschiedener Funktionseinheiten ausnutzen. So kann beispielsweise bei den Befehlen: a = b * c; d = e * f; der Operand e bereits geladen werden, während ein anderer Teil des Prozessors noch mit der ersten Multiplikation beschäftigt ist. Ein Beispielcompiler. Folgendes in ANTLR erstelltes Beispiel soll die Zusammenarbeit zwischen Parser und Lexer erklären. Der Übersetzer soll Ausdrücke der Grundrechenarten beherrschen und vergleichen können. Die Parsergrammatik wandelt einen Dateiinhalt in einen abstrakten Syntaxbaum (AST) um. Grammatiken. Die Baumgrammatik ist in der Lage, die im AST gespeicherten Lexeme zu evaluieren. Der Operator der Rechenfunktionen steht in der AST-Schreibweise vor den Operanden als Präfixnotation. Daher kann die Grammatik ohne Sprünge Berechnungen anhand des Operators durchführen und dennoch Klammerausdrücke und Operationen verschiedener Priorität korrekt berechnen. start: line+; //Eine Datei besteht aus mehreren Zeilen //Operator nicht mit einem Vorzeichen zu verwechseln Ist eines der oben als "compare" bezeichnete Ausdrücke noch kein Lexem, so wird es von der folgenden Lexer-Grammatik in einzelne Lexeme aufgeteilt. Dabei bedient sich der Lexer der Technik des rekursiven Abstiegs. Ausdrücke werden so immer weiter zerlegt, bis es sich nur noch um Token vom Typ "number" oder Operatoren handeln kann. line: compare NEWLINE -> ^(compare); //Eine Zeile besteht aus einem Ausdruck und einem compare: sum ('='^ sum)?; //Summen sind mit Summen vergleichbar sum: product ('+'^ product|'-'^ product)*; //Summen bestehen aus Produkten (Operatorrangfolge) product: pow ('*'^ pow|'/'^ pow|'%'^ pow)*; //Produkte (Modulo-Operation gehört hier dazu) können pow: term ('^'^ pow)?; //Potenzen werden auf Terme angewendet term: number //Terme bestehen aus Nummern, Subtermen oder Summen number: INT; //Nummern bestehen nur aus Zahlen WS: (' '|'\t'|'\n'|'\r')+; //Whitespace wird ignoriert Die Ausgabe hinter dem Token "start" zeigt außerdem den gerade evaluierten Ausdruck. Ausgabe des Beispiels. (2 * 2^3 + 2) / 3 Der erste Ausdruck wird also als wahr (1) evaluiert, bei den anderen Ausdrücken wird das Ergebnis der Rechnung ausgegeben. Columban von Luxeuil. Columban von Luxeuil (* 540 in Nobber bei Navan (West Leinster), Irland; † 23. November 615 in Bobbio (Provinz Piacenza), Italien) war ein irischer Wandermönch und Missionar. Er wird von Katholiken und orthodoxen Christen als Heiliger verehrt. Auch in der Evangelischen Kirche in Deutschland gilt er als denkwürdiger Glaubenszeuge. Im Unterschied zum heiligen Kolumban, der Schottland missionierte, wird er als Columban von Luxeuil, Columban von Bobbio (ital. "Colombano") oder Columban der Jüngere bezeichnet. Der Hl. Columban ist der Schutzpatron der Motorradfahrer. Sein liturgischer Gedenktag ist der 23. November. Erziehung. Nachdem er sich von der Welt losgesagt hatte, begann er eine klösterliche Erziehung bei Abt "Sinell" in Cluaninis bei Lough Erne. Später zog es ihn in die Abtei Bangor, die damals vom heiligen Comgall geleitet wurde. Reise des Hl. Columban. Um das Jahr 591 brach Columban mit einer Reihe von Brüdern, traditionell ist in Anlehnung an die Jüngerzahl Jesu von zwölfen die Rede, vom Kloster Bangor zur Küste auf. Unter seinen Gefährten werden der heilige Gallus, Domoal, Comininus, Eunocus und Equonanus genannt. Die Gefährten schifften sich ein und erreichten zunächst die Küste Britanniens (der Text lässt offen, ob es sich um die Küste der Bretagne oder die des heutigen Großbritanniens handelt). Hier, so berichtet Jona, ruhten sie sich aus und berieten ihre Pläne, bevor sie nach Gallien gingen. Im Frankenreich. Childebert II. (Jonas nennt hier Sigebert) lud Columban kurz nach dessen Eintreffen in Gallien nach Austrasien ein. Hier gründete Columban mit seinen Gefährten zunächst das Kloster Annegray. Vor allem fränkische Adlige und Beamte sandten ihre Söhne als Oblaten in das Kloster, um sie dort ausbilden zu lassen. Schon bald gründeten die irischen Mönche die Klöster Luxeuil und Fontaines. In diesem Zusammenhang entsteht die Regula Monachorum des hl. Columban. Konflikte. Der Erfolg der irischen Mönche unter Columban musste den Neid der Bischöfe wecken, denn er entzog sich ihrer Jurisdiktion, da er unter dem Schutz Childeberts II. und später von dessen Nachfolger Theuderich II. stand. Da er weiterhin dem irischen Festkalender folgte, feierte er das Osterfest zu einem anderen Termin als der Rest der römischen Kirche. Dies suchten die fränkischen Bischöfe zu einer Klage auszunutzen. Der kam Columban jedoch zuvor, als er sich um das Jahr 600 in einem Brief an Papst Gregor wandte. Im zweiten noch erhaltenen Brief, der sich vermutlich an die Synode der fränkischen Bischöfe von Chalon des Jahres 603 wandte, bittet er darum, in Frieden in seiner neuen Heimat bleiben zu dürfen. Noch stand Columban unter dem Schutz Theuderichs, doch als er von Theuderich gebeten wurde, dessen vier illegitime Kinder zu segnen, weigerte sich Columban und drohte später mit der Exkommunikation. Nun sandte ihn Theuderich unter Bewachung nach Besançon. Nach dem Bericht des Jonas kam es hier zu einigen Vorfällen, die die Bewacher veranlassten, Columban gehen zu lassen. So kehrte er nach Luxeuil zurück. Doch im Jahre 610 wurde er erneut unter Bewachung gestellt und mit einigen seiner irischen Gefährten nach Nantes gebracht. Theuderich wollte wohl, da nun Theudebert II. ins Elsass eingefallen war, dieses unsichere Element loswerden. Nach zeitgenössischen Berichten war Columban schon unterwegs nach Irland, als ein Sturm ihn dazu zwang, auf den Kontinent zurückzukehren. Schweiz und Bodensee. Der Rhein war durch den Kleinen Laufen bei Laufenburg für Boote nicht passierbar, ebenso bei Ettikon, man konnte hier nur zu Fuß oder Pferd weiter. Der einfachste Weg an den Zürichsee führte damals über die Aare die man vom Hochrhein aus auf der Höhe ab Waldshut oder Koblenz mit Booten, meist Weidlingen befuhr, dann kam man auf der Limmat in den Zürichsee. Columban und seine Gefährten kamen zunächst nach Tuggen an den oberen Zürichsee, wo sie mit der Missionierung begannen. Ein Teil der Einwohner nahm den neuen Glauben an, andere blieben aber skeptisch. Zum Beweis, dass ihre alten Götter nichtig seien, nahm Gallus eine Statue und warf sie in den See. Das von den Heiden erwartete Strafgericht ihrer Götter trat nicht ein, und einige mehr ließen sich vom neuen Glauben überzeugen und taufen. Dennoch mussten die Glaubensboten weiterziehen, weil ihnen die verbliebenen Heiden nach dem Leben trachteten. Es verschlug Columban an den Bodensee, wo er in Bregenz Christen vorfand, die heidnische Bräuche wieder aufgenommen hatten. Mit der Hilfe von Gallus brachte er die kirchliche Zucht in Ordnung, und die Verehrung der heiligen Aurelia von Straßburg, einer Gefährtin der heiligen Ursula, lebte wieder auf. Weil er und seine Gefährten in ihrem missionarischen Eifer unter den Einheimischen Streit auslösten, forderte der Herzog von Überlingen den Missionar auf, um des Friedens willen die Gegend zu verlassen. Gallus aber blieb in der Gegend, vorgeblich weil er aufgrund einer Krankheit nicht weiterziehen konnte. Weil ihm Columban nicht glaubte, verbot er ihm, die Messe zu lesen, bis zum Tag seines eigenen Todes. Gallus aber wurde zum Gründer der Stadt St. Gallen und zu ihrem Schutzpatron. In Italien. 612 zog Columban nach Mailand und mischte sich in den Streit um den Nestorianismus ein. Ein ihm zugesprochener Brief an Papst Bonifatius IV. ist ein großes Zeugnis der Papstverbundenheit des irischen Missionars. Der langobardische König Agilulf vermachte ihm ein Gebiet namens Bobbio (Provinz Piacenza) am Fluss Trebbia, wo er ein Kloster gründete und die Zeit bis zu seinem Lebensende verbrachte – trotz einer Einladung der Franken, nach Luxeuil zurückzukehren. Er starb am 23. November 615 in Bobbio in Norditalien. Der Legende nach soll Gallus an diesem Tag im Gedenken an seinen Meister erstmals wieder die heilige Messe gelesen haben – die gesicherte Nachricht über dessen Tod erreichte ihn erst Wochen später. Werk und Einfluss. Columban hat mit seiner Peregrinatio eine umfassende Missionsbewegung auf dem europäischen Festland angestoßen und gilt als einer der bekanntesten iroschottischen Wandermissionare. Außerdem war er auch auf dem Gebiet der Liturgie tätig. Es werden ihm einige Hymnen, Briefe, Predigten sowie ein theologisches Traktat über die Buße zugeschrieben. Einen prägenden Einfluss hatte er auf die Christianisierung des bis dahin noch heidnisch, das heißt gallo-römisch geprägten ländlichen Raums auf der Alpennordseite. Bemerkenswert dabei ist, dass sich sein Erfolg wesentlich auf die von seiner irischen Heimat geprägte iroschottische Form des Christentums stützte. Sie war im Gegensatz zum römischen Kirchenmodell deutlich weniger hierarchisch und legte großen Wert auf die persönliche Beziehung. Klostergründungen. Columban selbst hatte nur drei Klöster gegründet, Luxeuil (das zusammen mit Annegray und Fontaines unter einer Verwaltung stand), das nach einem Jahr untergegangene Bregenz und Bobbio. Es entstand aber infolge seiner Tätigkeit die erfolgreiche iroschottische Mission auf dem europäischen Festland. Sie wurde insbesondere durch seine Schüler Eustasius (†629) und Gallus (†645) und deren Schüler Kilian (†689) fortgeführt. Dabei kam es vor allem zu einer großen Klostergründungsbewegung auf dem Land. Unter römischer Vorherrschaft war das Christentum nur in den Städten verbreitet gewesen und hatte es in gut fünf Jahrhunderten nicht geschafft, die gallo-römische Landbevölkerung zu erreichen. Dies änderte sich mit Columbans Klostergründungswelle, in deren Folge sich eine - vom fränkischen Adel getragene - Bewegung entwickelte, die im 7. Jahrhundert circa 300 neue Klöster gründete. Mit diesen geistlichen Zentren hielt erstmals das Christentum im ländlichen Raum Einzug. Durch ihr landwirtschaftliches Wissen und ihre wirtschaftlichen Aktivitäten waren die Klöster darüber hinaus prägend für das Entstehen der europäischen Kulturlandschaft. Verbreitung der Regel Columbans. Columban gab dem Mönchtum durch eine von ihm verfasste Ordensregel wesentliche Impulse. Sein Nachfolger Abt Eustachius von Luxeuil wurde wegen der Liturgie und Ordensregel Columbans angeklagt. Der König ließ daraufhin 627 die Synode von Mâcon einberufen, auf der allerdings die Regel Columbans bestätigt wurde. Dennoch ist davon auszugehen, dass nach dem Tode des Abts schon bald Teile der Benediktinerregel im Kloster Luxeuil praktiziert wurden. Durch die Klostergründungen der von Columban initiierten Bewegung breitete sich diese Mischregel stark aus. Um das Jahr 670 beschloss das Konzil von Autun, dass die Klöster künftig nach der Regel Benedikts geführt werden sollten. Dennoch wurden in der Folge vielfach Mischregeln, vor allem mit Teilen Columbans und Benedikts, verwendet. Die Regel Columbans konnte sich dauerhaft zwar nicht gegen die des Benedikt von Nursia durchsetzen, dennoch beachteten einige Klöster, besonders die im Reich der Franken, noch einige Jahrhunderte zumindest Teile seiner Regel. Erst durch die umfangreichen Reformen von Benedikt von Aniane wurde die Benediktinerregel mit Unterstützung Ludwigs des Frommen über das Frankenreich im gesamten Abendland die verbindliche Mönchsregel. Insofern hatte Columban einen prägenden Einfluss auf die Christianisierung und das klösterliche Leben in Europa. Verehrung. Der Gedenktag des Heiligen ist der 21. November (orthodox) und 23. November (evangelisch und römisch-katholisch), in Irland und bei den Benediktinern wird er hingegen am 24. November verehrt; in den Bistümern Chur, St. Gallen und Feldkirch am 27. November. Er ist der Patron der Motorradfahrer und hilft bei Überschwemmungen. Dargestellt wird er als bärtiger Mönch umgeben von einem Wolfsrudel, eine Versinnbildlichung der widrigen Umstände, unter denen der Heilige oft wirkte. Die Pfarrkirche Bregenz-St. Kolumban ist ihm gewidmet. C. S. Lewis. C. S. Lewis ("Clive Staples Lewis," privat auch "Jack" genannt; * 29. November 1898 in Belfast, Nordirland; † 22. November 1963 in Oxford, England) war ein irischer Schriftsteller und Literaturwissenschaftler. Er lehrte am Magdalen College der University of Oxford und hatte den Lehrstuhl für Englische Literatur des Mittelalters und der Renaissance an der University of Cambridge inne. Er ist vor allem im angloamerikanischen Raum bekannt für seine Kinderbuchserie "Die Chroniken von Narnia." Denkmal für C. S. Lewis von Ross Wilson in Belfast Kindheit und Jugend. Clive Staples („Jack“) Lewis wurde 1898 im nordirischen Belfast geboren und wuchs dort zusammen mit seinem drei Jahre älteren Bruder Warren („Warnie“) auf. Sein Vater Albert James Lewis hatte als erster seiner Familie einen akademischen Beruf ergriffen, er war Anwalt. Seine Vorfahren stammten aus Wales und waren in der Landwirtschaft tätig. Die Mutter Florence Augusta Hamilton Lewis („Flora“) war Pfarrerstochter und hatte an der Queens-Universität Mathematik und Logik studiert. Die Eltern waren sehr belesen und besaßen eine große Hausbibliothek, die den jungen Jack faszinierte und ihm einen Zugang zur Literatur ermöglichte. Wynyard School in Watford (September 1908 – Juni 1910), Campbell College in Belfast (September – Dezember 1910), Cherbourg School in Malvern (Januar 1911 – Juni 1913) und Malvern College (September 1913 – Juni 1914). 1914–1917 genoss er Privatunterricht bei William Thompson Kirkpatrick, von dessen Klarheit im Denken Lewis sehr profitierte. Erster Weltkrieg. Wegen des Ersten Weltkriegs musste Lewis sein Studium am University College in Oxford, das er im April 1917 angefangen hatte, abbrechen und Soldat der britischen Armee werden. In Oxford absolvierte er seine Offiziersausbildung und wurde zum Offizier in das dritte Bataillon der Somerset Light Infantry befördert. An seinem 19. Geburtstag (29. November) kam er an die Front nach Frankreich. Am 15. April 1918 wurde Lewis in Mont-Bernanchon bei Lillers von einer fehlgeleiteten englischen Granate verwundet und zur Genesung zurück nach England geschickt. Universitätslaufbahn. 1919 nahm er seine Studien am University College in Oxford wieder auf, legte 1920 die erste öffentliche Universitätsprüfung mit Ehren in Griechisch und Latein, 1922 die Abschlussprüfung in Philosophie und antiker Geschichte und 1923 die erste öffentliche Universitätsprüfung in Englisch ab. Bis Mai 1925 war Lewis Philosophielehrer am University College und erhielt ein "Fellowship" für englische Sprache am Magdalen College in Oxford, wo er auch J. R. R. Tolkien kennenlernte. In der Jugend war Lewis ein überzeugter Atheist gewesen, hatte sich dann aber während seines Studiums der pantheistischen Philosophie des Englischen Hegelianismus zugewandt. 1929 akzeptierte er jedoch einen personalen Gott und den Gedanken der Schöpfung: er wurde also Theist. Nach einer langen nächtlichen Diskussion mit Tolkien und Hugo Dyson im September 1931 bekehrte er sich schließlich zum Christentum. Zum Leidwesen des überzeugten Katholiken Tolkien blieb er allerdings in der anglikanischen Kirche, zu der auch seine Vorfahren gehört hatten, er vertrat aber (bis auf seine Ablehnung des päpstlichen Primates) überwiegend auch von Katholiken akzeptierbare Ansichten. Ab dem Herbstsemester 1933 bis 1947 traf sich Lewis mit seinem Freundeskreis, den „Inklings“, zu dem auch J. R. R. Tolkien, sein Bruder Warnie, Owen Barfield, Nevill Coghill, Hugo Dyson, Charles Williams und andere gehörten. In den nächsten Jahren wurde Lewis durch seine Vorlesungen, Veröffentlichungen in christlichen Zeitschriften und durch seine Radioansprachen, die von der BBC ausgestrahlt wurden, bekannt. Im Jahr 1948 wurde er zum Mitglied der "Royal Society of Literature" gewählt und erhielt in den nächsten Jahren drei Ehrendoktorwürden für Theologie und Literatur. Ab 1954 hatte er den Lehrstuhl für Literatur des Mittelalters und der Renaissance in Cambridge inne. 1958 wurde er Ehrenmitglied des University College Oxfords. Heirat, späte Jahre. Am 23. April 1956 heiratete Lewis die amerikanische Schriftstellerin Helen Joy Davidman standesamtlich in Oxford, um sie und ihre beiden Söhne vor einer Ausweisung aus England zu bewahren. Erst als er von ihrer Krebserkrankung erfuhr, begann er sie bewusst zu lieben. Am 21. März 1957 wurde an ihrem Bett im Wingfield Krankenhaus eine kirchliche Trauung nach anglikanischem Ritus durch den Geistlichen Peter Bide durchgeführt, obwohl Joy Davidman geschieden war. In den nächsten Jahren erfuhr sie eine außergewöhnliche Genesung von ihrem letzten Krebsanfall. Im Juli 1958 fuhr Lewis mit seiner Frau 10 Tage nach Irland in Urlaub, worauf er zehn Vorträge über "The Four Loves" in London hielt. Joy starb am 13. Juli 1960 im Alter von 45 Jahren, was Lewis in eine tiefe Sinn-, Glaubens- und Lebenskrise stürzte. 1961 verarbeitete er diese Krise auch literarisch in "A Grief Observed" (deutsch: "Über die menschliche Trauer"), die er zuerst unter dem Pseudonym N. W. Clerk veröffentlichte. Tod. C. S. Lewis starb an den Folgen eines Nierenversagens eine Woche vor seinem 65. Geburtstag am 22. November 1963. In der Presse wurde sein Tod kaum beachtet, weil knapp eine Stunde später das Attentat auf John F. Kennedy stattgefunden hatte und zudem Aldous Huxley am selben Tag starb. Das Grab befindet sich im Garten der Holy Trinity Church in Headington Quarry in Oxford. Lewis’ Bruder Warren starb am 9. April 1973. Ihre Namen stehen auf einem gemeinsamen Stein mit der Inschrift, die Warnie ausgewählt hatte: "Men must endure their going hence" („Dulden muss der Mensch sein Scheiden aus der Welt“). Werk. C. S. Lewis verfasste neben seinen literaturkritischen Werken bekannte christliche apologetische Schriften sowie die ebenfalls christliche Symbolik verwendende Kinderbuchserie über das Land Narnia (Genre Fantasy) und die Perelandra-Trilogie (Genre Science-Fiction und Fantasy). 1955 erhielt Lewis die Carnegie Medaille in Anerkennung des letzten Buches der Narnia-Chroniken "The Last Battle" (dt. "Der letzte Kampf"). Er war Mittelpunkt des christlich geprägten Literaturkreises der "Inklings" und lange Zeit eng mit J. R. R. Tolkien befreundet. Die beiden Autoren beeinflussten sich gegenseitig wesentlich. Später jedoch kühlte diese Freundschaft wegen Tolkiens Kritik an den „Narnia-Chroniken“ ab, in einigen späten Briefen Tolkiens finden sich ausgesprochen negative persönliche Angriffe auf Lewis. Ein weiterer enger Freund von Lewis war der britische Schriftsteller Charles Williams (1886–1945), der theologische Bücher, Romane, Gedichte und literaturwissenschaftliche Texte verfasste. Er bezeichnete den schottischen Pfarrer und Schriftsteller George MacDonald (1824–1905) vielfach als sein Vorbild und als seinen „Meister“. Im Buch "Die große Scheidung" (engl. "The Great Divorce") ließ er MacDonald sogar als Charakter auftreten. In seinem Erzählwerk beleuchtete Lewis Fragen christlicher Ethik und Glaubenslehre. Sein Roman "Du selbst bist die Antwort" (englischer Originaltitel: "Till We Have Faces: A Myth Retold") ist eine Version von "Amor und Psyche" aus der Sicht von Psyches Schwester und gilt bei einigen Literaturkritikern als sein bestes Werk. Im Februar 1943 hielt Lewis an der Universität von Durham die "Riddell Memorial Lectures," eine dreiteilige Vorlesungsreihe, die später als "The Abolition of Man" (dt. "Die Abschaffung des Menschen") herausgegeben wurde und sein wohl bekanntestes fachliterarisches Werk darstellt. Er kritisierte das angeblich oberflächliche Schulmaterial, das die Schüler zu einer Weltanschauung ohne jegliche objektive Werte führen würde. Die gesammelten Vorträge von Lewis, die die BBC ausstrahlte, wurden unter dem Titel "Mere Christianity" (dt. "Christentum schlechthin" bzw. "Pardon, ich bin Christ") veröffentlicht. Rezeption. Lewis war bereits zu Lebzeiten durch seine Bücher und durch seine populären Radioansprachen eine bekannte Persönlichkeit in Großbritannien. Nach seinem Tod 1963 geriet er vorerst eher etwas in Vergessenheit, weil die junge Generation den Wandel und somit die Distanz zur Kultur der Eltern suchte. Lewis verkörperte dagegen mehr die Werte und Haltungen der Vergangenheit, zudem war er bei Gelehrten in Oxford wegen seiner populären Werke nicht sonderlich beliebt. Er hatte vorerst nur wenige Fürsprecher wie die amerikanischen Episkopalisten Chad Walsh und Walter Hopper, der kurz vor Lewis' Tod noch sein Privatsekretär geworden war. Anfang der 1970er Jahre erwarb der britische Verlag "William Collins & Sons" die Rechte an Lewis' Werken und verbreitete sie. Lewis kam dabei zugute, dass die Tolkien-Welle in den USA um 1970 auch ihn und seine Narnia-Kinderbücher erneut publik machte. Vor allem in den USA entstanden literarische Gesellschaften, die das Vermächtnis von Lewis pflegten. Vorreiter war 1969 die "New York C.S. Lewis Society", weitere folgten später weltweit. 1974 wurde am "Wheaton College" bei Chicago das "Marion E. Wade Center" zur Erforschung des Lebens und Werks von Lewis gegründet. Ab 1974 erschienen auch fundiertere Biografien. Ab dem Jahr 2000 gab Walter Hooper zudem die umfangreiche Korrespondenz (3.500 Seiten) von Lewis heraus. 1993 wurde die Freundschaft und Liebe zwischen C. S. Lewis und Joy Davidman Gresham in Sir Richard Attenboroughs Film "Shadowlands" mit Anthony Hopkins und Debra Winger verfilmt. Chemotherapie. Die Chemotherapie (umgangssprachlich: Chemo) ist eine medikamentöse Therapie von Krebserkrankungen (antineoplastische Chemotherapie) oder Infektionen (antiinfektiöse bzw. antimikrobielle Chemotherapie, Antibiose). Umgangssprachlich ist meistens die Behandlung von Krebs gemeint. Eine Chemotherapie kann unter kurativen, adjuvanten oder palliativen Gesichtspunkten durchgeführt werden. Die Chemotherapie verwendet Stoffe, die ihre schädigende Wirkung möglichst gezielt auf bestimmte krankheitsverursachende Zellen beziehungsweise Mikroorganismen ausüben und diese abtöten oder in ihrem Wachstum hemmen. In der Krebstherapie heißen diese Substanzen Zytostatika; in der Behandlung von Infektionskrankheiten Antibiotika, Chemotherapeutika, Virustatika, Antimykotika und Anthelminthika. Bei der Behandlung bösartiger Tumorerkrankungen nutzen die meisten dieser Substanzen die schnelle Teilungsfähigkeit der Tumorzellen, da diese empfindlicher als gesunde Zellen auf Störungen der Zellteilung reagieren; auf gesunde Zellen mit ähnlich guter Teilungsfähigkeit üben sie allerdings eine ähnliche Wirkung aus, wodurch sich Nebenwirkungen wie Haarausfall oder Durchfall einstellen können. Bei der Behandlung von bakteriellen Infektionskrankheiten macht man sich den unterschiedlichen Aufbau von eukaryotischen (Mensch) und prokaryotischen Lebewesen (Bakterien) zunutze. Bei der Krebstherapie mit monoklonalen Antikörpern und Zytokinen, wie beispielsweise Interleukinen und Interferonen, handelt es sich nicht um eine Chemotherapie, sondern um eine Krebsimmuntherapie. Geschichte. Der Begriff wurde 1906 von Paul Ehrlich geprägt. Er beschrieb damit die Behandlung von Infektionskrankheiten mit Methoden, die direkt gegen den Krankheitserreger vorgehen. Ehrlich begann mit seinen Versuchen am 31. August 1909 in Frankfurt am Main, indem er Erreger der Syphilis in Ratten injizierte und anschließend mit Hilfe chemotherapeutischer Verfahren heilte. Diese Versuche hatten eine so überzeugende Wirkung, dass man hierin die neue „Waffe“ der Medizin gegen Infektionskrankheiten sah. Die verwendeten Medikamente werden entweder künstlich hergestellt oder sind Abkömmlinge von in der Natur vorkommenden Stoffen. Sensitivität. Das Ansprechen einer Chemotherapie hängt von verschiedenen Faktoren ab. Erstens wird ein Chemotherapeutikum unterschiedlich schnell im Menschen abgebaut, und je kürzer das Medikament im Körper wirksam beziehungsweise präsent ist, desto kürzer kann es auch nur wirken. Zweitens ist die Erreichbarkeit der krankheitsverursachenden Zellen oder Mikroorganismen ein wichtiger Faktor. So kann ein Tumor sehr kompakt geformt sein und über wenig Blutversorgung verfügen. Daraus resultiert, dass das Medikament den eigentlichen Wirkort nicht oder nur schlecht erreichen kann. Ein dritter Faktor bestimmt das Ansprechverhalten von Chemotherapeutika. Zum Beispiel können auch bei guter Erreichbarkeit des Tumors durch das Zytostatikum die Krebszellen resistent gegen das Medikament sein. Diese Eigenschaften werden als Chemosensitivität und Chemoresistenz bezeichnet. Es ist möglich, die Wirksamkeit von Chemotherapeutika auf Bakterien im Rahmen eines Antibiogramms zu testen. Ebenso kann bei Krebszellen die Chemosensitivität "in vitro" getestet werden (Chemosensitivitäts-Test). Prinzipien der antineoplastischen Chemotherapie. Darstellung der Log-cell-kill-Hypothese (idealisierter Verlauf bei einem soliden Tumor). Die blaue Kurve stellt den Verlauf nach einer operativen Tumorentfernung mit adjuvanter Chemotherapie dar, die rote Kurve den Verlauf bei einem nicht operablen Tumor und Chemotherapie.Von der ersten entarteten Zelle bis zum nachweisbaren Tumor werden etwa 30 Zellteilungszyklen benötigt (= 109 Krebszellen mit 1 g Masse). Von diesem Punkt bis zur normalerweise tödlichen Tumormasse von ungefähr 1 kg (= 1012 Krebszellen) werden nur noch zehn weitere Teilungszyklen benötigt. Der realistischere Verlauf einer Chemotherapie Wegen der höheren Bioverfügbarkeit wird in der Regel eine intravenöse Verabreichung gewählt. Einige Therapien sind aber auch oral möglich. Eine bestimmte Zytostatikadosis kann immer nur einen bestimmten Anteil, z. B. 90 % der Zielzellen abtöten. Mit fortschreitender Behandlung bleibt dieser Anteil gleich, d. h. zwei Dosen erreichen 99 % der Zellen, drei Dosen 99,9 % usw. Dieser Mechanismus erklärt, warum eine Chemotherapie im Laufe der Behandlung nicht vermindert werden darf, auch wenn der sichtbare Tumor bereits verschwunden ist ("Log cell kill", Howard E. Skipper 1964). Im Gegenteil: Es muss damit gerechnet werden, dass durch eine schwache Behandlung gerade die widerstandsfähigsten Tumorzellklone selektiert werden, d. h. übrig bleiben. Moderne Protokolle versuchen daher, „so früh und so hart wie möglich zuzuschlagen“. Die Chemotherapie wird in schneller Abfolge appliziert, und fast immer werden zwei oder mehr Zytostatika kombiniert, um die Wirksamkeit zu erhöhen. Mangelnde Therapieerfolge bei einigen Tumorarten und neuere theoretische und tierexperimentelle Daten lassen jedoch Zweifel an der generellen Richtigkeit dieses Konzeptes aufkommen. "Adjuvant" nennt man eine Chemotherapie, die zur Erfolgssicherung nach einer vollständigen operativen Beseitigung des Tumors dienen soll. "Neoadjuvant" ist eine Chemotherapie "vor" der Operation. Sehr häufig wird die adjuvante, neoadjuvante oder alleinige Chemotherapie mit Strahlentherapie kombiniert ("Radiochemotherapie"). Bei der Behandlung von alten Menschen muss berücksichtigt werden, dass diese oft eine verminderte Leber- und Nierenfunktion und eine verminderte Knochenmarksreserve haben und ihre Empfindlichkeit gegenüber den Substanzen daher erhöht ist. Wenn die Dosis nach dem Körpergewicht oder der Körperoberfläche abgeschätzt wird, ist der erhöhte Anteil an Körperfett im Alter einzurechnen. Resistenzen der Tumorzellen gegen einzelne oder mehrere der eingesetzten Zytostatika sind nicht selten. Außerdem sollte man während einer Chemotherapie nicht rauchen, denn bei einigen Standard-Chemotherapeutika wurde nachgewiesen, dass ihre Wirkung durch Nikotin abgeschwächt wird. Resistenzen können viele Ursachen haben, beispielsweise verminderten Transport der Substanz in das Zellinnere oder erhöhten Transport aus der Zelle (Multiple Drug Resistance). Auch kann die Zelle inaktivierende Enzyme besitzen. Gute Durchblutung des Tumors (Angiogenese) führt wegen hoher Nährstoffversorgung zu schnellem Wachstum, aber auch zu besserem Ansprechen auf die Chemotherapie, da der Anteil der sich teilenden Zellen höher ist. Viele der durch die Zytostatika in den Zellen erzeugten Schäden setzen voraus, dass vorhandene Kontrollsysteme (beispielsweise p53) in den Tumorzellen noch aktiv sind und diese Fehler bemerken. Reparaturmechanismen (beispielsweise Exzisionsreparatur) dürfen hingegen nicht aktiviert sein, stattdessen muss ein kontrolliertes Absterben der Zelle eingeleitet werden. Resistenzen müssen frühzeitig erkannt werden, um Änderungen des Therapieregimes rechtzeitig wirksam werden zu lassen, sonst häufen sich Mutationen im Tumor an, die ihn schwerer kontrollierbar machen. Auch das Auffinden der für den speziellen Tumor optimalen Kombinationstherapie durch Labortests wird diskutiert Prinzipiell können bei der Chemotherapie zwei unterschiedliche Wege zur Bekämpfung der Krebszellen eingeschlagen werden. Mit Zytotoxinen soll die Apoptose, das heißt der programmierte Zelltod der malignen Zellen, herbeigeführt werden. Dies ist der in den meisten Fällen angestrebte Weg, den Tumor zu eradizieren, das heißt vollständig aus dem Körper des Erkrankten zu beseitigen. Zytostatika (griechisch "cyto"=Zelle und "statik"=anhalten) sind dagegen definitionsgemäß Substanzen, die Krebszellen nicht abtöten, sondern deren Zellwachstum und die Zellteilung (Proliferation) unterbinden. Konventionelle klassische Chemotherapeutika wirken im Wesentlichen zytotoxisch, während zielgerichtete neuere Therapien aus dem Bereich der Krebsimmuntherapie, wie beispielsweise monoklonale Antikörper, zytostatische Eigenschaften haben. In der Literatur wird allerdings in vielen Fällen nicht zwischen Zytostatika und Zytotoxinen unterschieden. Die meisten derzeit angewandten Chemotherapeutika wirken zudem sowohl zytotoxisch als auch zytostatisch. Gegenanzeigen. Eine antineoplastische Chemotherapie sollte nicht begonnen werden, wenn Wahl des Chemotherapeutikums. Die Wahl des Chemotherapeutikums richtet sich nicht nur nach dem Organ der Krebserkrankung (z. B. Brust-, Lungen-, Darmkrebs), sondern auch nach individuellen Kriterien, die bei verschiedenen Patienten mit der "selben" Krebserkrankung unterschiedlich sein können. Trotz dieser individuellen Gesichtspunkte können für maligne Erkrankungen typische Chemotherapeutika genannt werden, die bei diesen regelhaft zum Einsatz kommen. Nebenwirkungen. Die Nebenwirkungen einer Chemotherapie sind abhängig von der Art der Therapie und der individuellen Verträglichkeit. Die einzelnen Nebenwirkungen treten unabhängig voneinander auf und können ganz ausbleiben oder in verschiedener Stärke (von mild bis tödlich) auftreten. Diese Nebenwirkungen sind Übelkeit und Erbrechen, Erschöpfung, Haarausfall, Schleimhautentzündungen und Blutbildveränderungen. Sie werden nach den Common Toxicity Criteria eingeteilt. Viele Zytostatika sind selbst karzinogen, etwa Busulfan, Chlorambucil, Cyclophosphamid oder Semustin. Insgesamt ist die Rate an Zytostatika induzierten Leukämien zwar rückläufig, aber bei einigen Tumorarten steigt die Zahl der Erkrankungen immer noch an. Darunter fällt das Multiple Myelom, das Non-Hodgkin-Lymphom, Ösophaguskarzinom, Analkarzinom, Zervixkarzinom und Prostatakarzinom. Während bei den ersten beiden auch nach einem Jahrzehnt nach der Chemotherapie eine therapiebedingte akute myeloische Leukämie (tAML) auftreten kann, ist sie bei den übrigen Karzinomen auf die ersten zehn Jahre nach der Behandlung beschränkt. Bis zu drei Viertel der Tumorpatienten mit einer Chemotherapie erkranken an einer Chemotherapie assoziierten Anämie. Ein hohes Risiko besteht vor allem bei Tumorentitäten wie dem Lymphom, multiplem Myelom, Bronchialkarzinom sowie bei gynäkologischen und urogenitalen Tumoren. Häufigkeit und Schweregrad der Anämie sind auch vom Tumorstadium abhängig. Während die nach den Common Toxicity Criteria aufgelisteten Nebenwirkungen meist mit dem Absetzen der Chemotherapie verschwinden, kann es unter Umständen zu einer irreversiblen Herzmuskelschädigung sowie zu einer temporären oder endgültigen Unfruchtbarkeit kommen. Die Gabe von Anthracyclinen führt bei etwa zehn Prozent der Patienten zu einer bleibenden Schädigung der Herzmuskelzellen, welche Herzrhythmusstörungen und/oder eine Herzinsuffizienz (Herzschwäche) auslösen kann. Seit 2007 sind sogenannte Kardioprotektiva zugelassen, welche Herzschäden durch die Gabe der Anthracycline Doxorubicin oder Epirubicin verhindern können. Wegen einer etwaigen durch die Chemotherapie bedingten Unfruchtbarkeit wird vor der Behandlung bei Männern, falls vom Patienten gewünscht, eine Aufbewahrung des Samens (ähnlich wie es bei Samenspendern praktiziert wird) vorgenommen. Durch die fachgerechte Lagerung wird dann die Chance auf eigene Kinder erhalten. Fertilitätserhaltende Maßnahmen bei Frauen sind möglich, tragen jedoch zum Teil noch experimentellen Charakter. Das Netzwerk Fertiprotekt bemüht sich im deutschsprachigen Raum, über Maßnahmen bei Männern und Frauen zu informieren und sie anzubieten. Manche Patienten erleben nach einer Chemotherapie eine meist vorübergehende Beeinträchtigung des Denk-, Merk- und Stressbewältigungsvermögens, die als Post-chemotherapy Cognitive Impairment (PCCI) (auch Chemotherapy-induced Cognitive Dysfunction oder „Chemo Brain“) bezeichnet wird. Die Ursache dieses Phänomens wird derzeit erforscht. Sie kann nach gegenwärtigem Forschungsstand entweder in der psychisch belastenden, traumaähnlichen Situation der Diagnose und Krankheit selbst, in den direkten physischen Auswirkungen der Chemotherapie oder in beiden Faktoren liegen. Zur Vorbeugung einer ausgeprägten Mukositis können mehrere Lokalanästhesien mit Vasokonstriktor im Mund-/Kieferbereich verabreicht werden, wodurch eine Anflutung des Chemotherapeutikums in die Schleimhaut vermindert wird. Zusätzlich kann eine Kältetherapie mittels Lutschen von Eiswürfeln die lokale Vasokonstriktion bei der Strahlentherapie verstärken. Die dadurch erreichte Sauerstoffunterversorgung des Gewebes vermindert die zelluläre Strahlenempfindlichkeit. Wirksamkeit. Die Wirksamkeit einer Chemotherapie hängt sehr stark von der Art des Tumors und seinem Stadium ab. Während es sehr viele Studien zu der Wirkung spezifischer Zytostatika auf entsprechende Tumorarten gibt, existiert bisher lediglich eine einzige Metastudie, welche den Nutzen der Chemotherapie bei allen Krebsfällen untersucht. Laut ihr wird der Gesamtbeitrag adjuvant angewandter zytotoxischer Chemotherapien zur Fünf-Jahres-Überlebensrate bei Erwachsenen auf 2,3 Prozent in Australien und 2,1 Prozent in den USA geschätzt. Die Studie bestätigt jedoch auch, dass bei bestimmten Krebsarten wie z. B. Hodenkrebs, Hodgkin-Lymphomen oder Zervixkarzinomen eine adjuvant angewandte Chemotherapie eine um 10 bis 40 Prozent bessere Prognose bringt. Die Studie wurde von australischen Onkologen stark kritisiert. Die Autoren hätten die verschiedenen Krebsarten nicht gewichtet (die Fallgruppe der Krebsarten, bei welchen die Chemotherapie schlecht wirkt und somit oft auch nicht angewendet wird, ist am größten) und es gebe methodische Mängel. Bei Anwendung sauberer Methodik würde aus dem gleichen Datenmaterial die Effektivität auf 6 Prozent über alle Fälle steigen. Außerdem wurden einige Krebsarten, welche hauptsächlich durch Chemotherapie behandelt werden (z. B. Leukämie) und wo diese Therapie sehr effektiv ist, nicht betrachtet. Überdies stammten die Daten aus den 1990er Jahren und seien folglich veraltet. Da die Wirkung einer Chemotherapie von der Art des Tumors abhängt, ist ein solcher Zusammenwurf aller Tumorarten nicht zielführend, denn er sage nichts über den Einzelfall aus. Tatsache ist, dass hochwirksame Zytostatika dazu beigetragen haben, die relative Fünf-Jahres-Überlebensrate bei bestimmten Krebsarten in den letzten 20 Jahren signifikant – mit verbesserten Prognosen im zweistelligen Prozentbereich – zu erhöhen. Dies gilt einerseits bei der adjuvanten Anwendung beispielsweise bei Brustkrebs, Hodenkrebs und Lungenkrebs, sowie andererseits bei der primären Anwendung der Chemotherapie als Mittel der ersten Wahl, wie beispielsweise bei Hodgkin-Lymphomen und Leukämie. Cantor-Diagonalisierung. Im Jahr 1874 fand bzw. veröffentlichte Georg Cantor einen Beweis zur Abzählbarkeit der rationalen Zahlen und der algebraischen Zahlen durch Anwendung des „Ersten Cantorschen Diagonalverfahrens“. Gleichzeitig veröffentlichte er einen Beweis zur Überabzählbarkeit der reellen Zahlen inkl. Folgerung der Existenz nicht-algebraischer reeller Zahlen. In den Jahren 1890/1891 fand bzw. veröffentlichte er den Beweis, dass die Potenzmenge jeder beliebigen Menge mächtiger ist als diese, und dass also die Potenzmenge der natürlichen Zahlen überabzählbar ist. Dieser Beweis wird als „Zweites Cantorsches Diagonalverfahren“ bezeichnet und war Auslöser der Begründung der transfiniten Mengenlehre durch Georg Cantor in den Jahren 1895 bis 1897. Die beiden Überabzählbarkeitsbeweise belegen die Überabzählbarkeit des arithmetischen Kontinuums und implizit auch die des geometrischen Kontinuums – gemäß dem Postulat „Menge der reellen Zahlen isomorph zur Menge der Punkte einer beidseitig unendlich ausgedehnten Geraden“. Ein weiterer expliziter Beweis der Überabzählbarkeit des geometrischen Kontinuums basiert auf einer Beweisidee („Schirmchenbeweis“) von Amir D. Aczel aus dem Jahr 2000. Comic. a>", einem bedeutenden frühen Comicstrip, von 1918 Comic [ˈkɒmɪk] ist der gängige Begriff für die Darstellung eines Vorgangs oder einer Geschichte in einer Folge von Bildern. In der Regel sind die Bilder gezeichnet und werden mit Text kombiniert; das Medium Comic vereint Aspekte von Literatur und bildender Kunst, wobei der Comic eine eigenständige Kunstform und ein entsprechendes Forschungsfeld bildet. Gemeinsamkeiten gibt es auch mit dem Film. Als genre-neutraler Begriff wird auch „sequenzielle Kunst“ verwendet, während regionale Ausprägungen des Comics teils mit eigenen Begriffen wie Manga oder Manhwa bezeichnet werden. Comic-typische Merkmale und Techniken, die aber nicht zwangsläufig verwendet sein müssen, sind Sprechblasen und Denkblasen, Panels und Onomatopoesien. Diese finden auch in anderen Medien Verwendung, insbesondere wenn Text und sequenzielle Bilderfolgen kombiniert sind wie in Bilderbuch und illustrierter Geschichte, in Karikaturen oder Cartoons. Die Abgrenzung zu diesen eng verwandten Künsten ist unscharf. Definition. In den 1990er Jahren etablierte sich eine Definition von Comic als eigenständiger Kommunikationsform unabhängig von Inhalt, Zielgruppe und Umsetzung. 1993 definierte Scott McCloud Comics als "„zu räumlichen Sequenzen angeordnete, bildliche oder andere Zeichen, die Informationen vermitteln und/oder eine ästhetische Wirkung beim Betrachter erzeugen“". Er nimmt damit Will Eisners Definition auf, der Comics als sequenzielle Kunst bezeichnet. Im deutschsprachigen Raum wird das von McCloud definierte Medium auch allgemein als „Bildgeschichte“ bezeichnet und der Comic als dessen moderne Form seit dem 19. Jahrhundert. So spricht Dietrich Grünewald von einem übergeordneten „Prinzip Bildgeschichte“, als dessen moderne Form der Comic mit seinen um 1900 entwickelten Gestaltungsmitteln gilt. Andreas Platthaus nennt den Comic die "„avancierteste Form“" der Bildgeschichte. Wie auch bei McCloud wird der Comic bzw. die Bildgeschichte als eigenständiges Medium definiert, das durch Bildfolgen erzählt. Eckart Sackmann definiert den Comic in direktem Bezug auf McCloud als "„Erzählung in mindestens zwei stehenden Bildern“". Jedoch ist bei einigen Definitionen offen, ob auch einzelne, narrativ angelegte Bilder, die ein Geschehen darstellen, ohne das Davor und Danach zu zeigen, zum Comic zählen. Auch eine Darstellung, die formal nur aus einem Bild besteht, kann mehrere Sequenzen enthalten – so bei mehreren Sprechblasen oder mehr als einer Handlung in einem Bild, die nicht zeitgleich stattfinden können. Frühere Definitionen des Comics bezogen sich unter anderem auf formale Aspekte wie Fortsetzung als kurze Bilderstreifen oder Erscheinen in Heftform, eine gerahmte Bildreihung und der Gebrauch von Sprechblasen. Daneben wurden inhaltliche Kriterien herangezogen, so ein gleichbleibendes und nicht alterndes Personeninventar oder die Ausrichtung auf eine junge Zielgruppe, oder die Gestaltung in Stil und Technik. Diese Definitionen wie auch das Verständnis von Comics als ausschließliches Massenmedium oder Massenzeichenware wurden spätestens in den 1990er Jahren zugunsten der heutigen Definition verworfen. Illustrationen, Karikaturen oder Cartoons können auch Comics oder Teil eines solchen sein. Die Abgrenzung, insbesondere bei Einzelbildern, bleibt unscharf. Beim Bilderbuch und illustrierten Geschichten dagegen haben, anders als beim Comic, die Bilder nur eine unterstützende Rolle in der Vermittlung des Handlungsgeschehens. Der Übergang ist jedoch auch hier fließend. Etymologie und Begriffsgeschichte. Der Begriff "Comic" stammt aus dem Englischen, wo es als Adjektiv allgemein „komisch“, „lustig“, „drollig“ bedeutet. Im 18. Jahrhundert bezeichnete „Comic Print“ Witzzeichnungen und trat damit erstmals im Bereich der heutigen Bedeutung auf. Im 19. Jahrhundert wurde das Adjektiv als Namensbestandteil für Zeitschriften gebräuchlich, die Bildwitze, Bildergeschichte und Texte beinhalteten. Mit dem 20. Jahrhundert kam der Begriff „Comic-Strip“ für die in Zeitungen erscheinenden, kurzen Bildgeschichten auf, die in Streifen (engl. „strip“) angeordneten Bildern erzählen. In den folgenden Jahrzehnten dehnte sich die Bedeutung des Wortes auch auf die neu entstandenen Formen des Comics aus und löste sich vollständig von der Bedeutung des Adjektivs „comic“. Nach dem Zweiten Weltkrieg kam der Begriff auch nach Europa und trat in Deutschland zunächst in Konkurrenz zu „Bildgeschichte“, welche qualitativ höherwertige deutsche Comic-Werke von lizenzierten ausländischen Comics abgrenzen sollte. Schließlich setzte sich „Comic“ auch im deutschen Sprachraum durch. Comicstrips prägten durch ihre Form auch den französischen Begriff „Bande dessineé“ und den chinesischen „Lien-Huan Hua“ (Ketten-Bilder). Das häufig verwendete Mittel der Sprechblase führte im Italienischen zur Bezeichnung „Fumetti“ („Rauchwölkchen“) für Comics. In Japan wird „Manga“ (, „spontanes Bild“) verwendet, das ursprünglich skizzenhafte Holzschnitte bezeichnete. Geschichte. Die Ursprünge des Comics liegen in der Antike. So finden sich im Grab des Menna von vor 3400 Jahren Malereien, die in einer Bildfolge Ernte und Verarbeitung von Getreide darstellen. Speziell diese Bildfolge liest sich im Zickzack von unten nach oben. In der Szene vom Wägen des Herzens im Papyrus des Hunefer (ca. 1300 v. Chr.) werden die Bildfolgen mit Dialogtext ergänzt. Ägyptische Hieroglyphen selbst stellen jedoch keine Vorform des Comics dar, da diese, trotz ihrer Bildlichkeit für Laute, nicht für Gegenstände stehen. Andere Beispiele früher Formen von Bildergeschichten stellen die Trajanssäule und japanische Tuschemalereien dar. In Amerika wurden ebenso früh Erzählungen in sequenziellen Bildfolgen wiedergegeben. Ein Beispiel dieser Kunst wurde 1519 von Hernán Cortés entdeckt und erzählt vom Leben eines präkolumbianischen Herrschers des Jahres 1049. Dabei werden die Bilder um erklärende Schriftzeichen ergänzt. In Europa entstand im Hochmittelalter in Frankreich der Teppich von Bayeux, der die Eroberung Englands durch die Normannen im Jahr 1066 schildert. Auch hier werden Text und Bild kombiniert. Viele Darstellungen in Kirchen dieser Zeit, wie Altarbilder oder Fenster, haben einen comicartigen Charakter. Sie vermittelten damals besonders analphabetischen Gesellschaftsschichten Erzählungen. Auch die "Wiener Genesis", ein byzantinisches Manuskript aus dem 6. Jahrhundert, gehört zu derartigen Werken. In vielen Fällen wird dabei schon das Mittel der Sprechblase in Form von Spruchbändern vorweggenommen. In Japan zeichneten seit dem 12. Jahrhundert Mönche Bildfolgen auf Papierrollen, häufig mit shintoistischen Motiven. Bis ins 19. Jahrhundert fanden Hefte mit komischen oder volkstümlichen Erzählungen Verbreitung. Zugleich wurde in Japan der Begriff "Manga" geprägt, der heute für Comics steht. Aus dieser Zeit am bekanntesten ist das Werk des Holzschnittkünstlers Katsushika Hokusai. Nach der Erfindung des Buchdrucks in Europa fanden Drucke von Märtyrergeschichten in der Bevölkerung weite Verbreitung. Später wurden die Zeichnungen feiner und der Text wurde, wie bei den verbreiteten Drucken, wieder weggelassen. So bei William Hogarth, der unter anderem "A Harlot’s Progress" schuf. Diese Geschichten bestanden aus wenigen Bildern, die in Galerien in einer Reihe aufgehängt waren und später gemeinsam als Kupferstich verkauft wurden. Die Bilder waren detailreich und die Inhalte der Geschichten sozialkritisch. Auch Friedrich Schiller schuf mit "Avanturen des neuen Telemachs" eine Bildgeschichte, die auch wieder Text gebrauchte und diesen wie im Mittelalter in Schriftrollen integrierte. Besonders in britischen Witz- und Karikaturblättern wie dem "Punch" fanden sich ab Ende des 18. Jahrhunderts viele Formen des Comics, meist kurz und auf Humor ausgerichtet. Aus dieser Zeit stammt auch der Begriff "Comic". Als Vater des modernen Comics bezeichnet McCloud Rodolphe Töpffer. Er verwendete Mitte des 19. Jahrhunderts erstmals Panelrahmen und stilisierte, cartoonhafte Zeichnungen und kombinierte Text und Bild. Die Geschichten hatten einen heiteren, satirischen Charakter und wurden auch von Johann Wolfgang Goethe bemerkt mit den Worten "Wenn er künftig einen weniger frivolen Gegenstand wählte und sich noch ein bisschen mehr zusammennähme, so würde er Dinge machen, die über alle Begriffe wären". Auch die im 19. Jahrhundert populären Bilderbögen enthielten oft Comics, darunter die Bildgeschichten Wilhelm Buschs. In den USA wurden im späten 19. Jahrhundert kurze Comicstrips in Zeitungen veröffentlicht, die meist eine halbe Seite einnahmen und bereits "Comics" genannt wurden. "Yellow Kid" von Richard Felton Outcault aus dem Jahr 1896 wird teilweise als erster moderner Comic betrachtet, weist jedoch noch kein erzählendes Moment auf. Ein solches brachte Rudolph Dirks mit seiner von Wilhelm Busch inspirierten Serie "The Katzenjammer Kids" 1897 ein. Ein weiterer bedeutender Comic jener Zeit war "Ally Sloper’s Half Holiday" von Charles H. Ross Andreas Platthaus sieht in George Herrimans ab 1913 erscheinenden Comicstrip "Krazy Kat" eine größere Revolution als in den vorhergehenden Werken, denn Herriman erschafft das Comic-eigene Genre Funny Animal und entwickelt neue Stilmittel. Auch in Europa gab es zu Beginn des 20. Jahrhunderts Karikaturenzeitschriften, jedoch kaum sequenzielle Comics. Auch in Japan etablierten sich Karikaturmagazine und das Stilmittel der Sprechblasen wurde aus Amerika übernommen. Kitazawa Rakuten und Okamoto Ippei gelten als die ersten professionellen japanischen Zeichner, die in Japan Comicstrips anstatt der bis dahin bereits verbreiteten Karikaturen schufen. In Europa entwickelte sich in Frankreich und Belgien eine andere Form von Comics, das Comicheft, in dem längere Geschichten in Fortsetzung abgedruckt wurden. Ein bedeutender Vertreter war Hergé, der 1929 "Tim und Struppi" schuf und den Stil der Ligne claire begründete. Auch in Amerika wurden bald längere Geschichten in Beilagen der Sonntagszeitungen veröffentlicht. Hal Fosters "Tarzan" machte diese Veröffentlichungsart populär. 1937 folgte "Prinz Eisenherz", bei dem erstmals seit langem wieder auf die Integration von Texten und Sprechblasen verzichtet wurde. Ähnlich entwickelten sich unter anderem die Figuren Walt Disneys von Gagstrips zu längeren Abenteuergeschichten. Dies geschah bei Micky Maus in den 1930er Jahren durch Floyd Gottfredson, bei Donald Duck in den 1940er Jahren durch Carl Barks. Nach der Erfindung von Superman durch Jerry Siegel und Joe Shuster 1938 brach in den USA ein Superheldenboom aus. Dieser konzentrierte sich auf die Zielgruppe von Kindern und Jugendlichen und verhalf dem Comicheft zum Durchbruch. Durch den Zweiten Weltkrieg kam es besonders in Amerika und Japan zu einer Ideologisierung der Comics. Mit dem Aufschwung der Superheldencomics in den USA kam es vermehrt dazu, dass die Arbeit des Autors und des Zeichners getrennt wurden. Das geschah vor allem, um die Arbeit an den Heften rationell zu gestalten. In Amerika gehörten der Zeichner Jack Kirby und der Autor Stan Lee zu den Künstlern, die das "Golden Age" der Superhelden in den Vierziger Jahren und das "Silver Age" in den 1960er Jahren prägten. In den 1950ern kam es wegen des Comics Codes zur Schließung vieler kleiner Verlage und Dominanz der Superheldencomics in den USA. Auch in Europa wurde die Arbeitsteilung häufiger. Während der 1980er Jahre kam es kurzzeitig zu einer Rückkehr der Generalisten, die die Geschichten schrieben und zeichneten. In den 1990er Jahren kehrte man in den USA und Frankreich wieder zu der Aufteilung zurück. Diese Entwicklung führte dazu, dass die Autoren mehr Aufmerksamkeit genießen und die Zeichner, besonders in Amerika, von diesen Autoren ausgewählt werden. Zugleich entwickelte sich in Amerika seit den Sechziger Jahren der Undergroundcomic um Künstler wie Robert Crumb und Gilbert Shelton, der sich dem Medium als politischem Forum widmete. Einer der bedeutendsten Vertreter ist Art Spiegelman, der in den 1980er Jahren "Maus – Die Geschichte eines Überlebenden" schuf. In Japan entwickelte sich der Comic nach dem Zweiten Weltkrieg neu. Der Künstler Osamu Tezuka, der unter anderem "Astro Boy" schuf, hatte großen Einfluss auf die Weiterentwicklung des Mangas in der Nachkriegszeit. Der Comic fand in Japan weite Verbreitung in allen Gesellschaftsschichten und erreichte ab den 1960er und 1970er Jahren auch viele weibliche Leser. Auch gab es vermehrt weibliche Zeichner, darunter die Gruppe der 24er. Ab den 1980er Jahren, besonders in den Neunzigern, wurden Mangas auch außerhalb Japans populär, darunter bekannte Reihen wie "Sailor Moon" und "Dragonball". Ab den 1990er Jahren gewannen Graphic Novels an Bedeutung, so autobiografische Werke wie Marjane Satrapis "Persepolis", Joe Saccos Reportagen "Palästina" oder die Reiseberichte Guy Delisles. Seit 1995 mit "Argon Zark" von Charley Parker der erste Webcomic erschien, wird auch das Internet von zahlreichen Comicproduzenten zur Veröffentlichung und Bewerbung ihrer Werke genutzt und dient Comiclesern und Comicschaffenden zum Gedankenaustausch. Comicstrip. Der Comicstrip (vom englischen "comic strip", strip = Streifen) umfasst als Begriff sowohl die "daily strips" („Tagesstrips“) als auch die "Sunday pages" („Sonntags-Strips“ oder Sonntagsseiten). Der Ursprung von Comicstrips liegt in den amerikanischen Sonntagszeitungen, wo sie zunächst eine ganze Seite füllten. Er ging hervor aus den im Laufe des 19. Jahrhunderts in Zeitungen verbreiteten Bilderfolgen und Karikaturen sowie aus dem älteren Bilderbogen. Als erster Comicstrip gilt "Hogan’s Alley", später bekannt als "The Yellow Kid," von Richard Felton Outcault, der 1894 entstand. Ab der Jahrhundertwende fanden Comicstrips auch in Zeitungen anderer englischsprachiger Länder Verbreitung, in Kontinentaleuropa erst in den 1920er Jahren. Eine Verbreitung wie in den USA fanden sie hier nie. 1903 erschien der erste werktägliche "daily strip" auf den Sportseiten der "Chicago American", ab 1912 wurde zum ersten Mal eine fortlaufende Serie abgedruckt. Der Tagesstrip, der von Anfang an nur auf schwarz-weiß beschränkt war, sollte auch von seinem Platz her sparsam sein. Da er nur eine Leiste umfassen sollte, wurde die Länge auf drei oder vier Bilder beschränkt, die in der Regel mit einer Pointe endeten. Bis heute hat sich erhalten, dass der Comicstrip eine feststehende Länge besitzt, die über eine Längsseite gehen sollte. Häufig werden bestimmte Motive variiert und ihnen dadurch neue Perspektiven abgewonnen. Nur in absoluten Ausnahmefällen ergeben sich längerfristige Veränderungen, meist handelt es sich um die Einführung neuer Nebenfiguren. In der Serie "Gasoline Alley" altern die Figuren sogar. Erscheinen die Geschichten täglich, werden sie häufig eingesetzt, um im Laufe einer Woche eine Art Handlungsbogen zu bestimmen, der in der nächsten Woche von einem neuen abgelöst wird. Deshalb setzte sich vermehrt die Praxis durch, dass die "Sunday pages" unabhängig von dem Handlungsbogen funktionieren mussten, da es einerseits einen Leserstamm ausschließlich für die Sonntagszeitungen gab, der die vorhergehenden Geschichten nicht kannte und außerdem die Sonntagsstrips zum Teil separat vertrieben wurden. Aufgrund der wirtschaftlichen Zwänge beim Druck der Strips gab es während des Zweiten Weltkriegs immer stärkere Einschränkungen der formalen Möglichkeiten. Zudem verloren die Zeitungsstrips wegen der zunehmenden Konkurrenz durch andere Medien an Beliebtheit und Bedeutung. So wurde der Comicstrip seit den 1940er Jahren formal und inhaltlich nur noch wenig verändert. Bedeutende Ausnahmen sind Walt Kellys "Pogo", die "Peanuts" von Charles M. Schulz oder Bill Wattersons "Calvin & Hobbes". Der, wie "Pogo", politische Comicstrip "Doonesbury" wurde 1975 mit dem Pulitzer-Preis ausgezeichnet. Nach einer inhaltlichen Erweiterung hin zu gesellschaftskritischen Themen und formalen Experimenten in den 1960er Jahren bewegten sich die nachfolgenden Künstler innerhalb der bestehenden Konventionen. Seit Anfang des 20. Jahrhunderts werden Zeitungsstrips auch gesammelt in Heft- oder Buchausgaben veröffentlicht. Bis 1909 erschienen bereits 70 solcher Nachdrucke. Auch heute erscheinen viele aktuelle oder historische Comicstrips nachgedruckt in anderen Formaten. Heft- und Buchformate. In den 1930er-Jahren etablierte sich der Vertrieb von Comics in den Vereinigten Staaten in Heftform. 1933 veröffentlichte die Eastern Color Printing Company erstmals ein Comicheft in noch heute gebräuchlicher Form, das aus einem Druckbogen auf 16 Seiten gefalzt und gebunden wurde. Die Seitenzahl beträgt entsprechend in der Regel 32, 48 oder 64. Zunächst wurden die Hefte als Werbegeschenk von Firmen für ihre Kunden verbreitet, gefüllt noch mit Sammlungen von Comicstrips. Bald wurden die Hefte als regelmäßige Publikationen von Verlagen auch direkt vertrieben und mit eigenen Produktionen gefüllt. Die Hefte "Detective Comics" (1937) und "Action Comics" (1938) vom Verlag Detective Comics waren die ersten bedeutenden Vertreter, mit dem Start von "Action Comics" war auch der erste Auftritt von "Superman" verbunden. Aufgrund des Formates wurden sie in den USA "Comic Books" genannt und stellen seit Ende der 1940er Jahre die gängige Vertriebsform in vielen Ländern dar. Nach dem Zweiten Weltkrieg, teilweise schon in den 1930er Jahren, kam das Heftformat nach Europa und fand in Form von Comic-Magazinen wie dem "Micky-Maus"-Magazin Verbreitung. Das Magazin vereint verschiedene Beiträge unterschiedlicher Autoren und Zeichner, die es häufiger als Fortsetzungen übernimmt, und ergänzt diese unter Umständen um redaktionelle Beiträge. Zu unterscheiden sind Magazine wie das an Jugendliche gerichtete "Yps", in dem importierte Reihen wie "Lucky Luke" und "Asterix und Obelix" neben deutschen Beiträgen zu finden sind und deren Aufmachung Heftcharakter besitzt, von den an Erwachsene gerichteten Sammlungen wie "Schwermetall" oder "U-Comix". Zu den bedeutendsten Magazinen des Frankobelgischen Comics zählen "Spirou" (seit 1938), "Tintin" (1946–1988) und "Pilote" (1959–1989). "Fix und Foxi" von Rolf Kauka, eine der erfolgreichsten Comic-Serien aus deutscher Produktion, erschien ab 1953 als Comic-Magazin. Sie besitzt inzwischen allerdings keine große wirtschaftliche Relevanz mehr. Im Osten Deutschlands wurden die eigenen Comiczeitschriften, zur Unterscheidung von westlichen Comics, als "Bilderzeitschriften" bzw. "Bildergeschichten" bezeichnet. Besonders prägte das "Mosaik" mit seinen lustigen unpolitischen Abenteuergeschichten die dortige Comiclandschaft. Das "Mosaik" von Hannes Hegen mit Digedags wurde 1955 in Ost-Berlin gegründet. Später wurde die Comiczeitschrift mit den Abrafaxen fortgeführt. Das "Mosaik" erscheint noch immer als monatliches Heft mit einer Auflage von etwa 100.000 Exemplaren im Jahr 2009, wie sie keine andere Zeitschrift mit deutschen Comics erreicht. Mittlerweile existieren kaum noch erfolgreiche Magazine in Deutschland und Comics werden vornehmlich in Buch- und Albenformaten veröffentlicht. In Japan erschien 1947 mit "Manga Shōnen" das erste reine Comic-Magazin, dem bald weitere folgten. Dabei entwickelten sich eigene und insbesondere im Vergleich zum europäischen Magazin deutlich umfangreichere Formate mit bis zu 1000 Seiten. Auf dem Höhepunkt der Verkäufe im Jahr 1996 gab es 265 Magazine und fast 1,6 Mrd. Exemplaren Auflage pro Jahr. Das bedeutendste Magazin, "Shōnen Jump", hatte eine Auflage von 6 Mio. pro Woche. Seit Mitte der 1990er Jahre sind die Verkaufszahlen rückläufig. Neben den Comic-Heften setzten sich auch das Album und das Taschenbuch durch. Comicalben erschienen in Frankreich und Belgien ab den 1930er Jahren. In ihnen werden die in Magazinen veröffentlichten Comics gesammelt und als abgeschlossene Geschichte abgedruckt. Ihr Umfang beträgt, bedingt durch die Verwendung 16-fach bedruckter Bögen, in der Regel 48 oder 64 Seiten. Im Gegensatz zu Heften sind sie wie Bücher gebunden, von diesen heben sie sich durch ihr Format, meist DIN A4 oder größer, ab. Sie sind insbesondere in Europa verbreitet. Seit es weniger Comic-Magazine gibt, erscheinen Comics in Europa meist ohne Vorabdruck direkt als Album. Bekannte in Albenform erschienene Comics sind "Tim und Struppi" oder "Yakari". In den 1950er- und 1960er-Jahren brachte der Walter Lehning Verlag das aus Italien stammende Piccolo-Format nach Deutschland. Die mit 20 Pfennig günstigen Hefte wurden mit den Comics Hansrudi Wäschers erfolgreich verkauft und prägten den damaligen deutschen Comic. Regal mit Mangas in verschiedenen Buchformaten in einem amerikanischen Buchladen. Comic-Publikationen in Buchformaten entstanden in den 1960er Jahren und kamen mit den Veröffentlichungen des Verlags Eric Losfeld auch nach Deutschland. Die 1967 gestarteten "Lustigen Taschenbücher" erscheinen noch heute. Ab den 1970er Jahren wurden bei den Verlagen Ehapa und Condor auch Superhelden im Taschenbuchformat etabliert, darunter "Superman" und "Spider-Man". Dazu kamen in diesem Format humoristische Serien, wie etwa "Hägar". In Japan etablierte sich, als Gegenstück zum europäischen Album, das Buch für zusammenfassende Veröffentlichung von Serien. Die entstandenen Tankōbon-Formate setzten sich in den 1990er Jahren auch im Westen für die Veröffentlichung von Mangas durch. Mit Hugo Pratt in Europa sowie Will Eisner in den USA entstanden ab den 1970ern erstmals Geschichten als Graphic Novel, die unabhängig von festen Formaten, in ähnlicher Weise wie Romane veröffentlicht wurden. Der Begriff „Graphic Novel“ selbst wurde aber zunächst nur von Eisner verwendet und setzte sich erst deutlich später durch. Die zunehmende Zahl von Graphic Novels wird üblicherweise in Hard- oder Softcover-Buchausgaben herausgebracht. Auch ursprünglich in Einzelheften erschienene Comicserien, wie "From Hell" oder "Watchmen", werden, in Buchform gesammelt, als Graphic Novels bezeichnet. Techniken. Die meisten Comics wurden und werden mit Techniken der Grafik geschaffen, insbesondere als Zeichnung mit Bleistift oder Tusche. Üblich ist auch, dass zunächst Vorzeichnungen mit Bleistift oder anderen leicht entfernbaren Stiften gezeichnet werden und danach eine Reinzeichnung mit Tusche erfolgt. Als Ergänzung dazu ist teilweise der Einsatz von Rasterfolie oder vorgefertigten, mit Bildmotiven bedruckten Folien verbreitet. Neben der Zeichnung mit Stift und Tusche sind auch alle anderen Techniken der Grafik und Malerei sowie die Fotografie zur Produktion von Comics möglich und finden Anwendung, beispielsweise in Fotoromanen. Bis zum 19. Jahrhundert, in dem sich mit dem modernen Comic auch die heute üblichen Techniken durchsetzten, gab es bereits eine große Bandbreite an künstlerischen Verfahren für Bildgeschichten. So das Malen in Öl und Drucken mit Stichen, Fresken, Stickerei oder aus farbigem Glas gesetzte Fenster. Auch mit Relief und Vollplastik wurden Comics geschaffen. Seit den 1990er Jahren hat die im Ergebnis dem traditionellen Zeichnen optisch oft ähnliche Fertigung mit elektronischen Mitteln wie dem Zeichenbrett größere Verbreitung erfahren. Darüber hinaus entstand mit dem ausschließlich elektronischen Zeichnen auch neue Stile und Techniken. Eine Sonderform bilden die 3D-Comics. Bestimmend für die Wahl der Technik war oft, dass die Bilder mit Druckverfahren vervielfältigt werden. Daher dominieren Werke mit Grafiken, die aus festen Linien bestehen. Für farbige Bilder werden in der Regel im Druck Flächenfarben oder Rasterfarben des Vierfarbdrucks ergänzt. Durch die Verbreitung von Scanner und Computer zur Vervielfältigung sowie dem Internet als Verbreitungsweg sind die Möglichkeiten der Zeichner, andere Mittel und Techniken zu nutzen und zu entwickeln, deutlich gewachsen. Künstler und Produktionsabläufe. In Amerika und Europa traten in der Comicbranche lange Zeit fast ausschließlich weiße, heterosexuelle Männer in Erscheinung. Jedoch war in der ersten Hälfte des 20. Jahrhunderts über die meisten Künstler nur wenig bekannt. Angehörige von Minderheiten konnten so Vorurteilen entgehen. Frauen und gesellschaftliche Minderheiten traten erst ab den 1970er Jahren vermehrt als Autoren und Zeichner in Erscheinung. Dies ging häufig einher mit der Gründung von eigenen Organisationen, wie der "Wimmen’s Comicx Collective" oder dem Verlag "Afrocentric" in den Vereinigten Staaten. Bis ins 19. Jahrhundert wurden Comics und Bildergeschichten fast ausschließlich von einzelnen Künstlern allein angefertigt. Durch die Veröffentlichung der Comics in Zeitungen und zuvor bereits in ähnlichen Massenprintmedien waren die Künstler im 19. immer öfter für einen Verlag tätig. Ihr Produkt war dennoch individuell und Serien wurden eingestellt, wenn der Künstler sie nicht selbst fortsetzte. Mit Beginn des 20. Jahrhunderts kam es häufiger zu Kooperationen von Zeichnern und Autoren, die gemeinsam im Auftrag eines Verlags an einer Serie arbeiteten. Zunehmend wurden Serien auch mit anderen Künstlern fortgesetzt. In großen Verlagen wie "Marvel Comics" oder unter den Herausgebern der Disney-Comics haben sich so Stilvorgaben durchgesetzt, die ein einheitliches Erscheinungsbild von Serien ermöglichen sollen, auch wenn die Beteiligten ausgewechselt werden. Dennoch gibt es auch in diesem Umfeld Künstler, die mit ihrem Stil auffallen und prägen. Im Gegensatz dazu entwickelten sich auch Comic-Studios, die selbstständiger von Verlagen sind. Teilweise werden diese von einem einzelnen Künstler dominiert oder bestehen schlicht zur Unterstützung des Schaffens eines Künstlers. Eine solche Konstellation findet sich beispielsweise bei Hergé und ist in Japan weit verbreitet. In Anlehnung an den von den Regisseuren der Nouvelle Vague geprägten Begriff des Autorenfilms entstand auch der Begriff des "Autorencomic", der im Gegensatz zu den arbeitsteilig entstehenden konventionellen Mainstream-Comics nicht als Auftragsarbeit, sondern als Ausdruck einer persönlichen künstlerischen und literarischen Handschrift, die sich kontinuierlich durch das gesamte Werk eines Autors zieht, entsteht. Je nach Arbeitsweise – allein, im Team oder direkt für einen Verlag – verfügt der einzelne Mitwirkende über mehr oder weniger Spielraum, was sich auch auf die Qualität des Werkes auswirkt. Sowohl bei Verlagen als auch bei Studios einzelner Künstler ist die Arbeit in der Regel auf mehrere Personen verteilt. So kann das Schreiben des Szenarios, das Anfertigen von Seitenlayouts, das Vorzeichnen der Seiten, das Tuschen von Bleistiftzeichnungen und das Setzen von Text von verschiedenen Personen ausgeführt werden. Auch die Anfertigung von Teilen des Bildes wie Zeichnen von Figuren und Hintergrund, Setzen von Schraffuren und Rasterfolie und das Kolorieren kann auf mehrere Mitwirkende verteilt sein. Vertriebswege. Populäre Lithographien, frühe Comics und Bildgeschichten, wurden in Deutschland von Lumpensammlern verkauft, die diese mit sich trugen. Später wurden Comics in Nordamerika und Europa bis in die 1930er Jahre fast ausschließlich über Zeitungen verbreitet. Mit den Comicheften kam in den USA ein Remittendensystem auf, in dem die Comics über Zeitungskioske vertrieben wurde. Nicht verkaufte Exemplare gingen dabei zum Verlag zurück oder wurden auf dessen Kosten vernichtet. Ab den 1960er Jahren konnten sich reine Comicläden etablieren und mit ihnen der „Direct Market“, in dem der Verlag die Bücher direkt an den Laden verkauft. Auch neu entstandene Formate wie das Comicalbum oder Comicbook wurden über diesen Weg an ihren Kunden gebracht. Durch die Entwicklung des Elektronischen Handels ab den 1990er Jahren nahm der Direktvertrieb vom Verlag oder direkt vom Künstler zum Leser zu, darunter der Vertrieb von digitalen statt gedruckten Comics. Dieser bietet den Vorteil geringerer Produktionskosten, was zusammen mit der für alle Verkäufer großen Reichweite und Marketing über soziale Netzwerke zu größeren Chancen auch für kleinere Anbieter, wie Selbstverleger und Kleinverlage, führt. Rechtliche Aspekte. Der Umgang mit den Urheber- und Nutzungsrechten an Comics war in der Geschichte des Mediums immer wieder umstritten. So führte der Erfolg von William Hogarths Bildergeschichten dazu, dass diese von anderen kopiert wurden. Zum Schutz des Urhebers verabschiedete das englische Parlament daher 1734 den "Engraver’s Act". Künstler, die ihre Werke selbst und allein schaffen, verfügen über die Rechte an diesen Werken und können über deren Veröffentlichung bestimmen. Im 19. und beginnenden 20. Jahrhundert traten neue Konflikte auf, da zunehmend mehr Menschen an einem einzelnen Comic beteiligt waren, so der Redakteur oder verschiedene Zeichner und Autoren. Dies führte unter anderem dazu, dass die Rechte einer Serie zwischen einem Verlag und dem Künstler aufgeteilt wurden oder dass die Urheber im Vergleich zum Erlös des Verlags nur eine geringe Bezahlung erhielten. Im Laufe des 20. Jahrhunderts etablierten sich Verträge zwischen allen Beteiligten, die zu einer klaren Rechtslage führen. Formensprache. Einzelbild mit Sprechblase als Symbol für Sprache, Speedlines zur Darstellung von Bewegung und von Strahlen umgebene Köpfe zur Verdeutlichung eines Schocks. Neben vielfältigen Techniken hat sich im Comic eine eigene Formensprache entwickelt, da das Medium besonders auf bildhafte Symbole angewiesen ist. Diese dienen zur Verdeutlichung von Gemütszuständen oder der Sichtbarmachung nicht gegenständlicher Elemente der dargestellten Ereignisse. Dabei finden übertrieben dargestellte, aber tatsächlich auftretende „Symptome“ wie Schweißtropfen oder Tränen, oder gänzlich metaphorische Symbole Verwendung. Besonders verbreitet ist die Sprechblase als symbolische Darstellung der nicht sichtbaren Sprache und zugleich Mittel zur Integration von Text. Zur symbolhaften Darstellung von Bewegung finden vor allem „Speedlines“, die den Weg des Bewegten nachzeichnen, oder eine schemenhafte Darstellung mehrerer Bewegungsphasen Anwendung. Insbesondere beim Einsatz verschiedener Strich-, Linien- und Schraffurformen als expressionistisches Mittel zur Vermittlung von Emotionen hat sich im Comic eine große Bandbreite entwickelt. Sehr ähnlich wie der Strich wird die Schriftart und -größe von Text eingesetzt. Der Einsatz von Farben, wenn überhaupt, wird sehr verschieden gehandhabt. Da die meist eingesetzten flächigen Kolorierungen die Konturen betonen und damit das Bild statisch erscheinen lassen und die Identifizierung des Lesers erschweren können, ist die Farbkomposition auch für das Erzählen der Geschichte und die Wirkung der Figuren von großer Bedeutung. Neben dem Einsatz der eigentlichen Symbole werden oft auch die handelnden Figuren sowie die dargestellte Szenerie vereinfacht, stilisiert oder überzeichnet dargestellt. Verschiedene Ebenen des Bildes, wie Figuren und Hintergründe, aber auch unterschiedliche Figuren, können dabei verschieden stark abstrahiert werden. Es existiert ein breites Spektrum an inhaltlicher oder formaler Abstraktion, von fotografischen oder fotorealistischen Darstellungen bis zu weitgehend abstrakten Formen oder reinen Bildsymbolen. Gerade die stilisierte, cartoonhafte Darstellung der handelnden Figuren ist bedeutend, da sie der leichten Identifikation des Lesers mit diesen Figuren dient. Durch verschiedene Maße der Stilisierung kann auf diese Weise auch die Identifikation und Sympathie des Lesers beeinflusst werden. So ist es laut Scott McCloud in vielen Stilen, wie der Ligne claire oder Manga, die Kombination von stark stilisierten Figuren und einem eher realistischen Hintergrund üblich, um den Leser "„hinter der Maske einer Figur gefahrlos in eine Welt sinnlicher Reize“" eintreten zu lassen. Er nennt dies den „Maskierungseffekt“. Dieser kann auch flexibel eingesetzt werden, sodass die Veränderung der Darstellungsart einer Figur oder eines Gegenstandes auch zu einer anderen Wahrnehmung dieser führt. Die Stilisierung und Übertreibung von Merkmalen der Figuren dient auch ihrer Charakterisierung und Unterscheidbarkeit für den Leser. Durch die Verwendung von physischen Stereotypen werden Erwartungen des Lesers geweckt oder auch bewusst gebrochen. Grafisches Erzählen. Seite eines Webcomics mit verschiedenen Panelgrößen und -formen. Die besondere Form des ersten Panels betont den Klingelton des Weckers. Für das Erzählen mit Comics zentral ist die Art, wie die Inhalte der Geschichte in Bilder aufgeteilt werden, welche Ausschnitte und Perspektiven der Autor wählt und wie die Panels angeordnet werden. Die drei Prinzipien der Erzählung im Comic nennt Eckart Sackmann das kontinuierende, integrierende und separierende, und nimmt dabei Bezug auf den Kunsthistoriker Franz Wickhoff. In Erstem reihen sich die Ereignisse ohne Trennung aneinander (zum Beispiel Trajanssäule), das integrierende Prinzip vereint die zeitlich versetzten Szenen in einem großen Bild (zum Beispiel Bilderbogen oder Wiener Genesis). Das separierende Prinzip, das im modernen Comic vorherrscht, trennt die Vorgänge in nacheinander folgende Bilder. Aus den inhaltlichen Unterschieden zwischen aufeinanderfolgenden Panels schließt der Leser durch Induktion auf die Geschehnisse, auch ohne dass jeder Moment dargestellt wird. Je nach inhaltlicher Nähe beziehungsweise Ferne der Bilder wird dem Leser verschieden großer Interpretationsspielraum gewährt. Scott McCloud ordnet die Panelübergänge in sechs Kategorien: Von Augenblick zu Augenblick, von Handlung zu Handlung (bei gleich bleibendem betrachteten Gegenstand), von Gegenstand zu Gegenstand, von Szene zu Szene, von Aspekt zu Aspekt und schließlich der Bildwechsel ohne logischen Bezug. Er stellt fest, dass für Erzählungen besonders häufig die Kategorien 2 bis 4 verwendet werden, während die letzte Kategorie für Narration gänzlich ungeeignet ist. Der Umfang, in dem bestimmte Kategorien verwendet werden, unterscheidet sich stark je nach Erzählstil. Ein bedeutender Unterschied besteht zwischen westlichen Comics bis zu den 1990er Jahren und Mangas, in denen die Kategorien 1 und 5 deutlich stärkere Verwendung finden. Dietrich Grünewald definiert dagegen nur zwei Arten von Anordnungen: die „enge“ und die „weite Bildfolge“. Während die erste Aktionen und Prozesse abbilde und seit dem ausgehenden 19. Jahrhundert den Comic vorrangig präge, beschränke sich die zweite auf deutlich weiter auseinanderliegende, ausgewählte Stationen eines Geschehens. Diese miteinander zu verbinden verlange eine aufmerksamere Betrachtung des einzelnen Bildes; bis zum modernen Comic sei dies die vorherrschende Erzählweise gewesen. Die Panelübergänge beeinflussen sowohl die Wahrnehmung von Bewegung und welche Aspekte der Handlung oder des Dargestellten vom Leser besonders wahrgenommen werden, als auch die vom Leser gefühlte Zeit und den Lesefluss. Für die Wahrnehmung von Zeit und Bewegung ist darüber hinaus das Layout der Seiten von Bedeutung. Bewegung, und mit ihr auch Zeit, wird außerdem durch Symbole dargestellt. Auch die Verwendung von Text, insbesondere der von Figuren gesprochener Sprache, wirkt sich auf den Eindruck von erzählter Zeit aus. Ebenso dient der Einsatz verschiedener Panelformen und -funktionen dem Erzählen. Verbreitet ist die Verwendung von „Establishing Shots“ bzw. eines „Splash Panel“, die in eine Szene bzw. einen neuen Ort der Handlung einführen. Diese sind auch ein Anwendungsfall teilweise oder ganz randloser Panels. Die Auswahl des Bildausschnitts und dargestellten Moments einer Bewegung beeinflusst des Lesefluss insofern, dass die Wahl des „fruchtbaren Moments“, also der geeigneten Pose, die Illusion einer Bewegung und damit die Induktion unterstützt. Die Integration von Text geschieht im Comic sowohl über Sprechblasen, als auch die Platzierung von Wörtern, insbesondere Onomatopoesien und Inflektive, direkt im Bild oder unter dem Bild. Text und Bild können auf verschiedene Weise zusammen wirken: sich inhaltlich ergänzen oder verstärken, beide den gleichen Inhalt transportieren oder ohne direkten Bezug sein. Ebenso kann ein Bild bloße Illustration des Textes oder dieser nur eine Ergänzung des Bildes sein. Der Leser des Comics nimmt zum einen das Gesamtbild einer Seite, eines Comicstrips oder eines einzeln präsentierten Panels als Einheit wahr. Es folgt die Betrachtung der einzelnen Panels, der Teilinhalte der Bilder und der Texte, in der Regel geführt durch Seitenlayout und Bildaufbau. Dabei findet sowohl aufeinander folgende als auch simultane, abstrakte und anschauliche Wahrnehmung statt. Die oft symbolischen Darstellungen werden vom Leser interpretiert und in einen, soweit ihm bekannten, Kontext gesetzt und das dargestellte Geschehen und seine Bedeutung daraus aktiv konstruiert. Dietrich Grünewald nennt, auf Grundlage der Arbeit Erwin Panowskys, vier inhaltliche Ebenen der Bildgeschichte. Die erste Ebene, „vorikonografische“ ist die der dargestellten Formen, Grünewald nennt dies auch die „Inszenierung“, also die Auswahl und Anordnung der Formen sowie der Bilder und Panel auf der Seite. Die zweite, „ikonografische“ Ebene umfasst die Bedeutung der Formen als Symbole, Allegorien u.A. Die „ikonologische“ dritte Ebene ist die der eigentlichen Bedeutung und Inhalt des Werks, wie sie sich auch aus dem Kontext ihrer Zeit und des künstlerischen Werks des Schöpfers ergibt. Eine vierte Ebene sieht er in der Bildgeschichte als Spiegel der Zeit, in der sie entstanden ist, und in dem, was sie über ihren Künstler, ihr Genre oder ihren gesellschaftlichen Kontext aussagt. Inhaltliche Aspekte. Der Comic als Kunstform und Medium ist an kein Genre gebunden. Dennoch sind bestimmte Genres innerhalb des Comics besonders weit verbreitet oder haben in ihm ihren Ursprung. So entstand durch Serien wie "Krazy Kat" bereits zu Beginn des 20. Jahrhunderts mit dem „Funny Animal“-Comicstrip ein dem Medium eigenes Genre, das später auch im Trickfilm Verwendung fand. Die seit dieser Zeit entstandenen humorvollen Comics werden allgemein als Funnys bezeichnet. Daneben waren zunächst vor allem Geschichten aus dem Alltag der Leser oder über realistische oder phantastische Reisen verbreitet. Die amerikanischen Abenteuercomics der 1930er Jahre prägten gemeinsam mit dem damaligen Film Kriminal- und Piratengeschichten, Western und Science-Fiction. Zugleich entstand als eine Zwischenform von Funny und Abenteuercomic der Semifunny. Mit dem Superhelden entstand in den USA Ende der 1930er Jahre erneut ein Comic-eigenes Genre, das sich später insbesondere auch in Film und Fernsehen fand. Das kurzzeitig umfangreiche Aufkommen von Comics mit Horror- und besonders gewaltorientierten Krimi-Themen, vor allem publiziert vom Verlag EC Comics, wurde durch den Comics Code zu Beginn der 1950er Jahre beendet. Im europäischen Comic hat sich neben humoristischen Zeitungsstrips eine Tradition etwas längerer Abenteuergeschichten gebildet, dessen bedeutendste frühe Vertreter Hergé und Jijé sind. In Japan entstand mit der Entwicklung des modernen Mangas eine große Anzahl an Genres, die dem Medium eigen sind und sich später auch im Anime etablierten. Einige bedeutende Genres, wie Shōnen und Shōjo, kategorisieren dabei nicht nach Thema des Werks, sondern nach Zielgruppe, in diesem Falle Jungen und Mädchen. Dabei wurde, in zuvor durch das Medium Comic nicht erreichtem Umfang, auch eine weibliche Leserschaft angesprochen. Nachdem Comics mit romantischen Geschichten, die sich traditionell an Mädchen richteten, im westlichen Comic fast völlig verschwunden waren, konnten sich weibliche Zeichner und Comics für ein weibliches Publikum ab den 1970er Jahren nur langsam durchsetzen. In der gleichen Zeit wurden Underground Comix mit Zeichnern wie Robert Crumb und Art Spiegelman zum Ausdruck der Gegenkultur in den USA. Wie auch in Japan wurden zunehmend Werke mit politischen und historischen Themen, später auch biografische Werke und Reportagen, veröffentlicht und es entwickelte sich die Graphic Novel bzw. Gekiga als Sammelbegriff für solche Comics. Bis zum 19. Jahrhundert griffen Comics vor allem den Alltag ihres Publikums komisch oder satirisch auf, vermittelten historische Begebenheiten oder religiöse Themen. Mit dem modernen Comic kamen zu den Werken mit Unterhaltungsfunktion oder politischer Intention auch wissensvermittelnde Sachcomics. Film. Der Leser eines Comics fügt die Inhalte der einzelnen Panels zu einem Geschehen zusammen. Damit dies möglichst gut gelingt, werden auch Techniken verwendet, wie sie in der Filmkunst ähnlich vorkommen. Die einzelnen Panels zeigen Einstellungsgrößen wie "Totale" oder "Halbnahe", es wird zwischen verschiedenen Perspektiven gewechselt. Fast alle Techniken der Filmkunst haben ihr Pendant im Comic, wobei im Comic durch den variablen Panelrahmen die Veränderung des Ausschnitts noch leichter fällt als im Film. So entspricht dem genannten Establishing Shot in vielen Comics ein „Eröffnungs-Panel“ bzw. ein Splash Panel, das die Szenerie zeigt. Die enge Verwandtschaft zeigt sich auch in der Erstellung von Storyboards während der Produktionsphase eines Films, die den Verlauf des Films und insbesondere die Kameraeinstellung in einem Comic skizzieren und dem Regisseur und Kameramann als Anregung oder Vorlage dienen. Der textliche Entwurf eines Comics, geschrieben vom Autor, wird „Skript“ genannt und dient dem Zeichner als Grundlage für seine Arbeit. Während die durch die Gutter-Struktur vorgegebenen „Informationslücken“ im (skizzenhaften) Film-Storyboard vernachlässigt und im späteren Produkt durch filmische Mittel geschlossen werden können, erfordern sie von Comic-Autoren eine erhöhte Aufmerksamkeit, damit beim endgültigen Produkt ein flüssiges Leseverstehen seitens der Leserschaft gewährleistet ist. Im Unterschied zum Film erfordert der Comic jedoch das Ausfüllen der Lücken zwischen den Panels. Denn anders als im Film, wo sowohl eine Änderung der Perspektive durch Kameraschwenk und/oder Zoom als auch Bewegungsabläufe von Personen und Objekten innerhalb einer Einstellung vermittelt werden können, kann dies im Comic innerhalb eines Panels allenfalls durch "Bewegungslinien", einander in "Bewegungsschemata" überlagernde Bilder oder "Panel im Panel" angedeutet werden. Zwischen den Panels ergibt sich so zwangsläufig eine Informationslücke, die im Allgemeinen größer ist, als die zwischen Einstellung und Einstellung. Der Comic-Leser ist also im Vergleich zum Film-Zuschauer stärker gefordert, durch selbsttätiges Denken – „Induktion“; vgl. Induktion (Film) – einen dynamischen Ablauf aus statischen Bildern zu konstruieren. Auf diese Weise und auch wegen der in der Regel geringeren Zahl an Beteiligten an einem Werk ist die Beziehung zwischen Autor und Konsument im Comic intimer und aktiver als im Film. Ein weiterer Unterschied ist die Lese- bzw. Sehgeschwindigkeit sowie die Reihenfolge, in der die Bilder erfasst werden. Im Film ist dies vorgegeben, der Comicleser dagegen bestimmt diese frei, kann dabei aber vom Künstler geleitet werden. Ähnliches gilt für den Inhalt der Einzelbilder, dessen Wahrnehmung beim Film durch die Tiefenschärfe gelenkt wird und auf eine gleichzeitig laufende Handlung eingeschränkt. Im Comic dagegen sind in der Regel alle Teile des Bildes scharf dargestellt und es gibt die Möglichkeit, zwei parallele Handlungen, zum Beispiel Kommentare von Figuren im Hintergrund, in einem Bild darzustellen. Die stärkste Verwandtschaft der Medien Film und Comic zeigt sich im Fotocomic, da für diesen die einzelnen Bilder der Comicseite nicht gezeichnet, sondern wie beim Film mit einer Kamera produziert werden. Literatur. Ähnlich wie bei der Vorstellung der Handlung in rein wortbasierten Literaturformen ist im Comic die aktive Mitwirkung des Lesers erforderlich. Im Unterschied zur reinen Textliteratur ist das Kopfkino beim Comic-Lesen in der Regel stärker visuell ausgeprägt, der Gebrauch bildlicher Mittel ist der bedeutendste Unterschied zwischen Comic und Textliteratur. Durch Gebrauch von Bildsymbolen wirkt der Comic unmittelbarer auf den Leser als die Erzählstimme der Prosa. Auch kann der Autor nicht nur durch die Wahl der Worte, sondern auch in den Bildern einen persönlichen Stil zeigen. Die Notwendigkeit, Textkohäsion durch grafische Mittel herzustellen, führt Scott McCloud als wichtiges Kriterium von Comics an. Aufgrund dieses Kriteriums sind Comics aus literaturwissenschaftlicher Perspektive eine Form von Literatur, obgleich sie dessen unbeschadet aus kunstwissenschaftlicher Sicht eine eigenständige Kunstform darstellen. Theater. In der Bedeutung von markanten Posen, Symbolen und stilisierten Figuren weist der Comic Gemeinsamkeiten mit dem Theater auf, insbesondere mit dem Papiertheater. In beiden Medien soll der Rezipient die Figuren durch hervorgehobene Eigenschaften, in Gesicht oder dem Kostüm, wiedererkennen um dem Geschehen folgen zu können. Dabei werden durch Stereotypen bekannte Muster und Vorurteile angesprochen, die das Verständnis der Geschichte erleichtern oder erzählerischen Kniffen dienen. Auch die Darstellung des Handlungsortes durch einen einfachen aber prägnanten Hintergrund bzw. ein Bühnenbild ist in beiden Medien wichtig. Einige Techniken des Theaters zur Vermittlung von Raumtiefe und Dreidimensionalität, so die Überlagerung von Figuren aus dem Papiertheater, die Fluchtperspektiven des Theaters der Renaissance oder das Ansteigen des Bühnenbodens nach hinten, wurden vom Comic adaptiert. Während im Theater jedoch, eingeschränkt auch im Papiertheater, Bewegung direkt dargestellt werden kann, ist der Comic auf die Verwendung von Symbolen und die Abbildung von mehreren Bewegungsphasen angewiesen. Ähnlich verhält es sich mit Geräuschen und Sprache. Im Comic fällt es dagegen leichter, parallele Handlungen, Ort- und Zeitsprünge abzubilden. Bildende Kunst. Da der Comic sich der Mittel der bildenden Kunst zur Darstellung des Handlungsablaufs bedient, gibt es einige Schnittmengen zwischen beiden Kunstformen. So ist in beiden die Wahl von Bildausschnitt, Perspektive und dargestelltem Moment bzw. Pose bedeutsam. Der richtig gewählte „fruchtbare Moment“ lässt ein Bild lebendiger, überzeugender wirken und unterstützt im Comic den Lesefluss. Methoden zur Darstellung von Bewegung, die Künstler des Futurismus erkundet haben, fanden später Anwendung im Comic. Öffentliche Wahrnehmung. In der Anfangszeit des modernen Comic wurde das Medium als Unterhaltung für die ganze Familie verstanden. Auch ernsthafte Künstler wie Lyonel Feininger beschäftigten sich mit dem Comic und Pablo Picasso war begeistert vom Strip "Krazy Kat". Erst mit der von den Vertrieben vorgeschriebenen Beschränkung der Strips auf simple Gags und der Etablierung des Fernsehens als vorherrschendes Familienunterhaltungmedium wandelt sich die Wahrnehmung der Comics in den USA. Zunehmend wurde Comics der Vorwurf gemacht, sie übten auf jugendliche Leser einen verrohenden Einfluss aus, der zu einer oberflächlichen, klischeehaften Wahrnehmung ihrer Umwelt führe. Ein Artikel von Sterling North, in dem erstmals auf die vermeintliche Gefahr durch Comics aufmerksam gemacht wurde, leitete 1940 in den USA landesweit eine erste Kampagne gegen Comics ein. Höhepunkt waren die Bemühungen im Amerika der 1950er Jahre, Horror- und Crime-Comics wie "Geschichten aus der Gruft" vom Verlag EC Comics zu verbieten. 1954 veröffentlichte der Psychiater Fredric Wertham sein einflussreiches Buch "Seduction of the Innocent", in dem er die schädliche Wirkung der Crime- und Horrorcomics auf Kinder und Jugendliche nachzuweisen suchte. Einer Studie von 2012 gemäß sind zahlreiche der Forschungsergebnisse in Werthams Buch durch den Autor bewusst manipuliert oder sogar erfunden worden; in seiner Zeit wurde es jedoch breit rezipiert und wirkte sich nachhaltig auf die Produktion und das Verständnis von Comics aus. Es folgten Senatsanhörungen zum Problem der Comics, was zwar nicht zum generellen Comicverbot, aber zur Einführung des Comics Code führte, einer Selbstzensur der Comicindustrie. Die hier festgelegten Verpflichtungen wie das Verbot, Verbrecher in irgendeiner Weise sympathisch und ihre Handlungen nachvollziehbar erscheinen zu lassen, führten zu einer erzählerischen Verflachung der Comics. Die Wahrnehmung der Comics beschränkte sich danach im englischen Sprachraum lange Zeit auf Genres wie den Superhelden-Comic oder Funny Animal. In Deutschland kam es in den 1950er Jahren zu einer ähnlich gearteten, sogenannten „Schmutz-und-Schund“-Kampagne. In dieser wurden Comics pauschal als Ursache für Unbildung und Verdummung der Jugend, als „Gift“, „süchtig machendes Opium“ und „Volksseuche“ bezeichnet. Auf dem Höhepunkt der Kampagne wurden Comics öffentlichkeitswirksam verbrannt und vergraben. Die Forderungen der Kritiker waren ähnlich wie in den Vereinigten Staaten und gingen bis zu einem generellem Verbot von Comics. Dies wurde jedoch nicht erfüllt, der Bundesgerichtshof forderte eine konkrete Prüfung der einzelnen Darstellung. Die dafür neu gegründete Bundesprüfstelle für jugendgefährdende Schriften indizierte schließlich deutlich weniger Werke, als von den Kritikern gewünscht. Ebenso wie in den USA wurde in Deutschland eine Freiwillige Selbstkontrolle (FSS) gegründet, die Comics auf sittliche Verstöße und Gewalt prüfte und mit einem Prüfsiegel versah. Ähnliche Initiativen und Entwicklungen gab es auch in anderen europäischen Ländern. In der Folge galten Comics, insbesondere in Deutschland, seit den frühen 1950er Jahren als Inbegriff der Schundliteratur. Langfristige Folge war, so urteilt Bernd Dolle-Weinkauff 1990, nicht die Verdrängung der Comics, sondern die Abschreckung von Autoren, Zeichnern und Verlagen mit qualitativem Anspruch, sodass „die Produktion von Schund […] kräftig gefördert“ wurde. Die Wahrnehmung von Comics wurde im Nachgang der „Schmutz-und-Schund“-Kampagne geteilt – Bilderfolgen von Dürer bis Masereel wurden als Hochkultur anerkannt, ebenso einige Werke des frühen modernen Comics, darunter Wilhelm Busch. Die als Massenmedien verbreiteten Werke des 20. Jahrhunderts wurde als Unterhaltende, minderwertige Kunst gesehen. Seit den 1970er Jahren schwächte sich dies ab, da zum einen Populärkultur allgemein immer weniger pauschal abgewertet wird und Einfluss auf anerkannte Hochkunst nahm, zum anderen haben Werke wie Art Spiegelmans "Maus – Die Geschichte eines Überlebenden" die öffentliche Sicht auf Comics verändert. Seitdem findet beispielsweise auch in Feuilletons die Rezension von Comics statt. Das Schweizerische Jugendschriftenwerk titelte in der Ausgabe 4/1987 einem Artikel "Vom Schund zum Schulmittel" von Claudia Scherrer. Mit den Worten "„Das Medium Comic ist so salonfähig geworden, daß selbst das Schweizerische Jugendschriftenwerk SJW Bildgeschichten ins Programm aufgenommen hat – dies, obwohl“" [sic] "„das SJW zum Schutz der Jugend gegen Schundliteratur gegründet worden war“" empfahl es auch Werke anderer Verlage. Auch in Deutschland und Österreich sind Comics seit den 1970er Jahren unterrichtsrelevant, sowohl als Thema im Deutsch-, Kunst- oder Sozialkundeunterricht als auch als Unterrichtsmittel in anderen Fächern. Kritik am Inhalt von Comics seit den 1960er Jahren bezieht sich oft auf wiederholende, nur wenig variierte Motive, wie sie insbesondere in den Abenteuer-Genres üblich sind (Western, Science-Fiction, Fantasy). Dem Leser werde eine einfache Welt geboten, in der er sich mit dem Guten identifiziere und mit diesem einen (Teil-)Sieg erringe. Dem wird entgegnet, dass der Reiz für den Leser gerade darin liege, dass er in Geschichten mit solchen Motiven aus seiner komplexen aber erlebnisarmen Alltagswelt ausbrechen könne. Einen vergleichbaren Zugang und Reiz wie die Abenteuer-Genres böten die älteren Märchen. Wiederholende Themen und Strukturen böten einen einfachen Einstieg in die Unterhaltungslektüre. Schließlich bevorzuge der Leser dabei Geschichten, die nicht zu weit von seinen Erwartungen abweichen, was Künstler und Verlage, die eine breite Leserschaft erreichen wollen, zu einer gewissen Konformität zwingt. Dies wirkt aber bei anderen Medien der Popkultur, wie Film und Fernsehen, ähnlich. Dennoch entwickeln sich die Motive bei gesellschaftlichen Änderungen weiter und nehmen an diesen Teil. Beispielsweise zeigt sich das an der Entwicklung der Superheldencomics, in denen mit der Zeit auch Themen wie Gleichberechtigung und soziales Engagement Einzug hielten. Inhaltliche Kritik gab es außerdem an Comics, in den 1970er Jahren vor allem Disney-Geschichten, in denen die Vermittlung imperialistischer, kapitalistischer oder anderer Ideologie vermutet wurde. Jedoch gab es auch widersprechende Interpretationen, so kann die Figur des Dagobert Duck als Verniedlichung des Kapitalismus, aber auch als Satire mit dem Mitteln der Übertreibung gelesen werden. Sowohl bei der Flucht des Lesers aus dem Alltag in eine Fantasiewelt, bei der negative Auswirkungen auf Leben und Wahrnehmung des Lesers unterstellt werden, als auch der Furcht vor Ideologie, hängt die Sicht auf die jeweiligen Comic-Werke vor allem davon ab, welche Fähigkeit zur Distanzierung und Interpretation dem Leser zugetraut werden. Darüber hinaus gibt es viele Comics, die zwar oft keine große Bekanntheit erreichen, sich inhaltlich aber jenseits der kritisierten Motive und Klischees bewegen. Besonders in den USA kam es immer wieder zu Auseinandersetzungen und Prozessen um Comics, die pornografisch waren oder so angesehen wurden, da Comics als reine Kinderliteratur wahrgenommen wurden. In Deutschland blieben juristische Maßnahmen wie Beschlagnahmen von Comics die Ausnahme, Gerichte räumten der Kunstfreiheit in der Regel auch bei Comics einen höheren Rang ein als dem Jugendschutz. In lexikalischen Werken wurden Comics meist abschätzig beurteilt. So befand noch die Brockhaus Enzyklopädie in ihrer 19. Auflage, Bd. 4 (1987), die meisten der Serien seien als triviale Massenzeichenware zu charakterisieren, als „auf Konsum angelegte Unterhaltung, die von Wiederholungen, von Klischees bestimmt wird und ihren Lesern kurzfristig Ablenkung von ihren Alltagsproblemen bietet“. Daneben gebe es aber auch ein Comic-Angebot, das sich künstlerischer Qualität verpflichtet fühle. Comicforschung. a>, Herausgeber der Reihe "Deutsche Comicforschung" Wissenschaftliche Schriften zu Comics erschienen ab den 1940er Jahren, standen dem Medium jedoch oft einseitig und undifferenziert kritisch gegenüber und setzten sich nicht mit den Funktionsweisen und Aspekten des Comics auseinander. In den USA erschien mit Martin Sheridans "Comics and Their Creators" 1942 das erste Buch, das sich dem Comic widmete. Es folgten zunächst Beschäftigungen mit der Geschichte der Comics und erste Schriften, die den Umfang an erschienenen Werken systematisch erschließen sollten. Comics wurden in Deutschland zunächst wegen der „Schmutz-und-Schund“-Kampagne der 1950er Jahre nur wenig wissenschaftliche Beachtung. In bestimmten Kreisen der Literaturwissenschaft wurde dem Comic der Vorwurf der Sprachverarmung gemacht, was durch den häufigeren Gebrauch von unvollständigen Sätzen und umgangssprachlichen Ausdrücken in Comics gegenüber der Jugendliteratur nachgewiesen werden sollte. Dabei wurde missverstanden, dass der Text in den meisten Comics fast ausschließlich aus Dialogen besteht, und eine eher dem Kino und dem Theater als der Literatur vergleichbare Funktion besitzt. Die Kritik der Sprachverarmung kann auch aus dem Grunde als veraltet und ahistorisch bezeichnet werden, als die Verwendung von Umgangs- und Vulgärsprache in der Literatur schon lange kein Qualitätskriterium mehr darstellt. Eine ernsthaftere, kulturwissenschaftliche Beschäftigung begann in den 1960er Jahren zunächst in Frankreich, begonnen mit der Gründung des "Centre d’Études des Littératures d’Expression Graphique" (CELEG) 1962. Der Umfang der Veröffentlichungen nahm zu, neben der Geschichte wurden auch Genres, Gattungen, einzelne Werke und Künstler untersucht. Es erschienen lexikalische Werke über Comics, erste Ausstellungen fanden statt und Museen wurden gegründet. Bald geschah dies auch in anderen europäischen Ländern, Nordamerika und Japan. Mit der Zeit entstanden auch erste Studiengänge zu Comics. Die umfangreichere wissenschaftliche Auseinandersetzung mit Comics begann in den Vereinigten Staaten in den 1970er Jahren und beschränkte sich zunächst auf soziologische Gesichtspunkte. Unter dem Einfluss der 68er-Bewegung wurde der Comic dann zunächst unter dem Aspekt des Massenmediums oder der Massenzeichenware betrachtet und als solche definiert. Soziologisch und medienkritisch orientierte Betrachtungen waren daher zunächst vorherrschend, später kamen auch psychologische dazu, wie die Untersuchung der Auswirkung von Gewaltdarstellungen auf Kinder. Auch nachdem diese stärker eingeschränkte Definition bis spätestens in den 1990er Jahren zugunsten der heutigen verworfen wurde, bleibt die Betrachtung dieser Aspekte ein wichtiger Teil der Comicforschung- und theorie. Untersuchungen des Erzählens mit Comics fand zunächst mit Methoden statt, die für die Textliteratur entstanden und für den Comic angepasst wurden. In Berlin gründete sich mit der Interessengemeinschaft Comic Strip (INCOS) ein erster deutscher Verband zur Förderung der Comicforschung. 1981 folgte ihm der Interessenverband Comic, Cartoon, Illustration und Trickfilm (ICOM), der in seinen Anfangsjahren Veranstaltungen organisierte, darunter 1984 mit dem Comic-Salon Erlangen die bedeutendste deutsche Veranstaltung zu Comics, sowie Comicforschung unterstützt. So enthält das seit 2000 als Nachfolger des verbandseigenen Fachmagazins erscheinende COMIC!-Jahrbuch neben Interviews auch immer wieder Artikel zur Struktur und Entwicklung des Mediums. 2007 gründete sich die Gesellschaft für Comicforschung. Seit den 1970er Jahren erscheinen auch im deutschsprachigen Raum Fachmagazine und Fanzines zu Comics, darunter die "Comixene", "Comic Forum" und "Rraah!". Auch Museen zeigten seitdem Ausstellungen zu Comics und die systematische Erfassung deutscher Werke begann. In der DDR fand dagegen nur wenig wissenschaftliche Beschäftigung mit Comics statt, diese war zudem auf die Abgrenzung von „kapitalistischem Comic“ und „sozialistischer Bildgeschichte“, das heißt die Produktionen der sozialistischen Länder, fokussiert. Gemeinsam mit der ersten Comicforschung begann in den 1970er Jahren die Diskussion, ob Comics eine eigene Kunstform darstellen. In den 1990er Jahren wurden Comics zunehmend als Kunst anerkannt und es erfolgte die Auseinandersetzung mit den Formen und der Semiotik des Comics, zu der auch Erzähltheorien des Comics entwickelt wurden. Auch empirische Untersuchungen des Leseverhaltens finden seitdem statt, jedoch oft motiviert durch die Verlage und mit Methoden, die in Zweifel gezogen werden. In der universitären Forschung etablierte sich die 1992 gegründete Arbeitsstelle für Graphische Literatur (ArGL) an der Universität Hamburg, darüber hinaus finden sporadisch Symposien und Tagungen statt. Compact Disc. Die (kurz CD, für "kompakte Scheibe") ist ein optischer Speicher, der Anfang der 1980er Jahre zur digitalen Speicherung von Musik von Philips/PolyGram und Sony eingeführt wurde und die Schallplatte ablösen sollte. Später wurde das Format der Compact Disc erweitert, damit man nicht nur Musik (CD-DA) abspeichern konnte. Als CD-ROM wird sie seitdem auch zur Speicherung von Daten für Computer eingesetzt. Als beschreibbare CD-R löste sie Ende der 1990er Jahre die Compact Cassette als bevorzugtes Audio-Aufnahmemedium im Privatbereich ab, wurde aber in den 2000er Jahren durch die MP3-Technologie weitgehend verdrängt. Geschichte. CD betrachtet mit Raster-Elektronen-Mikroskop (Schutzlack entfernt) In den 1970er Jahren forschten Techniker sehr vieler Elektronikkonzerne im Bereich digitaler Audio-Aufzeichnung. Die ersten Prototypen basierten auf magnetischen Speichermedien, wie etwa der klassischen Audiokassette. Das erste Gerät auf dem Markt war im Jahr 1977 eine Erweiterung des Betamax-Videorekorders der Firma Sony um einen Analog-Digital- bzw. Digital-Analog-Wandler (PCM-Modulator bzw. -Demodulator). Dabei wird durch den Videorekorder statt eines Video-Signals das PCM-Signal aufgezeichnet, das – durch entsprechende Kodierung in "Zeilen" bzw. "Bilder" "(Frames)" – aus der Sicht eines Videorekorders wie ein Videosignal aussieht. Das klobige Gerät und die Störgeräusche bei der Aufnahme konnten die Konsumenten nicht überzeugen. Sony entwickelte spezielle Verfahren, um die Störgeräusche zu eliminieren. Um diese Verfahren zu testen, wurden heimlich bei einer Probe eines Konzertes von Herbert von Karajan im September 1978 Aufnahmen gemacht. Karajan wurde später von Sony eingeladen, die Aufnahmen zu beurteilen. Nach einigen Differenzen schlug Sony vor, dass die neue CD zumindest Ludwig van Beethovens Neunte Sinfonie in voller Länge erfassen sollte. Dieser Vorschlag hing mit Sonys damaligem Vizepräsidenten Norio Ōga zusammen, der ausgebildeter Opernsänger war und sich schon immer wünschte, Beethovens Neunte ohne störendes Wechseln des Tonträgers hören zu können. Ōgas Lieblingsversion, dirigiert von Herbert von Karajan, dauert 66 Minuten, die Techniker hielten sich an die damals längste zur Verfügung stehende Version von Wilhelm Furtwängler. Die Aufnahme aus dem Jahr 1951 hat eine Spieldauer von exakt 74 Minuten. 74 Minuten bedeuteten zwölf Zentimeter Durchmesser des optischen Datenträgers. Die Entwickler von Philips reagierten mit Skepsis, da eine so große Scheibe nicht in die Anzugtaschen passen würde. Daraufhin maßen Sony-Entwickler Anzüge aus aller Welt aus, mit dem Ergebnis, dass für zwölf Zentimeter überall Platz sei. Damit hatte Beethoven einen neuen Standard festgelegt. Eine ähnliche Version der Geschichte wird von Philips offiziell verbreitet; der Einfluss von Beethoven auf die CD-Spieldauer wird jedoch teilweise auch bestritten. Im Jahr 1980 wurden von Philips und Sony für Audioaufnahmen der „Red Book“-Standard festgelegt. Der Durchmesser des Innenloches der CD (15 mm) wurde eher durch Zufall durch die niederländischen Philips-Entwickler bestimmt. Als Maßstab diente das seinerzeit weltweit kleinste Geldstück, das niederländische Zehn-Cent-Stück (das sogenannte "Dubbeltje"), das ein Entwickler bei der Festlegung des Durchmessers dabei hatte. Auf der Funkausstellung 1981 in Berlin wurde die CD erstmals öffentlich vorgestellt. Im Jahr darauf, am 17. August 1982, begann in Langenhagen bei Hannover, in den Produktionsstätten der damaligen Polygram, die weltweit erste industrielle Produktion des letzten ABBA-Albums "The Visitors", und zwar noch bevor am 1. Oktober 1982 der erste in Serie produzierte CD-Spieler auf dem Markt angeboten werden konnte. 1983 kostete eine Compact Disc zwischen 30 und 45 DM, rund 700 Titel waren verfügbar. Im selben Jahr wurden in der Bundesrepublik Deutschland rund 70.000 CD-Player verkauft, deren Anschaffungspreis 1984 zwischen 650 und 1800 DM lag. Im Jahr 1988 wurden weltweit bereits 100 Millionen Audio-CDs produziert. Ab diesem Jahr gab es Systeme, mit denen CDs gebrannt werden konnten, und nicht mehr, wie bis dahin, gespritzt werden mussten. Hinweis: Das Jahr des größten Absatzes ist jeweils grau hinterlegt. Herstellung. CDs bestehen aus Polycarbonat, sowie einer dünnen Metallschicht (z. B. Aluminiumbedampfung) mit Schutzlack und Druckfarben. Sie werden – im Gegensatz zu Schallplatten – nicht gepresst, sondern in Spritzgussmaschinen in Form auf die Vater-Matrize gespritzt. Die Anlagen zur Herstellung optischer Datenträger werden dennoch Presswerk genannt. Funktionsweise. Die Informationen der CD, das sogenannte „Programm“, sind auf einer spiralförmig nach außen verlaufenden Spur angeordnet, sie belegen maximal 85 % der CD-Gesamtfläche. Der Programmbereich reflektiert Licht mit deutlichen Farberscheinungen wegen seiner Mikrostruktur, den Pits. Länge und Abstand dieser kleinen Vertiefungen bilden einen seriellen digitalen Code, der die gespeicherte Information repräsentiert. Auf einer Audio-CD können maximal 99 Musiktitel gespeichert werden, dazu hat jede Scheibe ein Inhaltsverzeichnis (TOC, table of contents) und einen der Information eingelagerten Zeitcode, Texteinblendungen und weitergehende Informationen können optional aufgebracht werden. Die Abtastung der CD erfolgt kontaktlos über einen der Spur nachgeführten Laser-Interferenzdetektor von der spiegelnden Unterseite her. Die Taktfrequenz der eingelesenen Daten hängt von der Drehzahl der CD ab, diese wird zugunsten einer konstanten Datentaktrate für das nach außen fahrende Abtastsystem gedrosselt, so dass sich eine konstante Lineargeschwindigkeit (CLV) ergibt. Bei Verfahren ähnlich der Analogschallplatte spricht man hingegen von konstanter Winkelgeschwindigkeit (CAV). Aufbau einer CD. Bei einer CD werden Daten mit Hilfe einer von innen nach außen laufenden Spiralspur gespeichert (also umgekehrt wie bei der Schallplatte). Die Spiralspur besteht aus "Pits" (Gruben) und "Lands" (Flächen), die auf dem Polycarbonat aufgebracht sind. Die Pits haben eine Länge von 0,833 bis 3,054 µm und eine Breite von 0,5 µm. Die Spiralspur hat etwa eine Länge von sechs Kilometern. Je nachdem, wie die CD erstellt wird, entstehen die Pits. Bei der industriellen Herstellung werden zunächst auf photochemischem Wege ein Glas-Master und darauf dann auf galvanischem Wege ein oder auch mehrere Stamper (Negativ) gefertigt. Anschließend wird damit in Presswerken per Spritzverfahren eine Polycarbonatscheibe geprägt und die Reflexions- und Schutzschicht angefügt. Eine CD besteht demnach zum größten Teil aus Polycarbonat. Die Reflexionsschicht darüber besteht aus einer im Vakuum aufgedampften Aluminiumschicht. Zwischen dem Aufdruck (Grafik und Text) und der Aluminiumschicht (Dicke der Reflexionsschicht: 50 bis 100 nm) befindet sich noch eine Schutzlackschicht, um das Aluminium vor äußeren Einflüssen zu schützen. Der Abschluss ist der Aufdruck, der mit dem Siebdruckverfahren (bis zu sechs Farben) aufgebracht wird. Alternativ kann hier auch das Offsetdruckverfahren eingesetzt werden. Datenrate einer CD. Bei einfacher Geschwindigkeit (1×) werden die Daten mit 150 kByte/s gelesen. Die gleiche Geschwindigkeit wird auch beim Abspielen von Audio-CDs benutzt, da aber bei Audio-CDs die Sektorgröße nicht künstlich auf 2048 Byte beschränkt ist sondern die ursprünglichen 2352 Byte pro Sektor weiterverwendet, steigt die Datenrate auf 176 kByte/s. Daten-CDs können je nach verwendetem Laufwerk mit höheren Datenraten gelesen werden. CD-RW (Compact disc rewritable). Ein CD-RW-Medium besitzt im Prinzip die gleichen Schichten wie ein CD-R-Medium. Die reflektierende Schicht ist jedoch eine Silber-Indium-Antimon-Tellur-Legierung, die im ursprünglichen Zustand eine polykristalline Struktur und reflektierende Eigenschaften besitzt. Beim Schreiben benutzt der Schreibstrahl seine maximale Leistung und erhitzt das Material punktuell auf 500 bis 700 °C. Das führt zu einer Verflüssigung des Materials. In diesem Zustand verliert die Legierung ihre polykristalline Struktur, nimmt einen amorphen Zustand an und verliert ihre Reflexionskraft. Der polykristalline Zustand des Datenträgers bildet die Gräben, der amorphe die Erhebungen. Das Abtastsignal beim Auslesen entsteht also nicht durch Auslöschung oder Verstärkung des Laser-Lichtes durch Überlagerung des reflektierten Lichtes mit dem ausgesendeten wie bei gepressten CDs (Interferenz), sondern wie bei beschreibbaren CDs durch gegebene oder nicht gegebene (bzw. schwächere) Reflexion des Laserstrahls. Zum Löschen des Datenträgers erhitzt der Schreibstrahl die - nur metastabilen - amorphen Bereiche mit niedriger Leistung auf etwa 200 °C. Die Legierung wird nicht verflüssigt, kehrt aber in den polykristallinen Zustand zurück und wird damit wieder reflexionsfähig. Lesevorgang. Lichtmikroskopische Aufnahme im Randbereich der Daten Mikroaufnahme von "Pits" und "Lands" einer CD Das Abtasten einer CD erfolgt mittels einer Laserdiode (Wellenlänge 780 nm), wobei die CD von unten gelesen wird. Der Laserstrahl wird an der CD reflektiert und mit einem halbdurchlässigen Spiegel in eine Anordnung mehrerer Fotodioden gebündelt. Der Spiegel muss deswegen halbdurchlässig sein, weil der Laserstrahl auf seinem Weg zur CD dort hindurch muss. Die Fotodioden registrieren Schwankungen in der Helligkeit. Die Helligkeitsschwankungen entstehen teilweise aufgrund von destruktiver Interferenz des Laserstrahls mit sich selbst: Der Fokus des Laserstrahls ist etwa zwei- bis dreimal so groß wie die Breite eines Pits. Wird gerade ein "Pit" ausgelesen, dann wird der Laserstrahl teilweise vom "Pit" und teilweise vom umliegenden "Land" reflektiert. Dann kommen zwei Teilwellen zurück, die einen leicht unterschiedlichen Laufweg haben. Der Höhenunterschied zwischen "Pit" und "Land" ist so gewählt, dass der Laufzeitunterschied etwa eine halbe Wellenlänge beträgt (siehe auch Abschnitt „Funktionsweise“), so dass wegen destruktiver Interferenz die Intensität des reflektierten Lichts abnimmt. Zusätzlich wird bei den "Pits" ein Teil des Lichtes an dessen Kanten weggestreut. Die Fotodioden registrieren also auf den "Pits" eine reduzierte Helligkeit. Da die CDs von der Oberseite gepresst werden, sind die Pits (Vertiefungen) von der Unterseite her als Hügel zu erkennen. Durch eine spezielle Lichtführung auf die Fotodioden, beispielsweise durch einen Astigmaten auf eine quadratische Anordnung von vier Fotodioden, können durch Differenzbildung der Signale unterschiedlicher Fotodioden neben dem Nutzsignal (Summe aller Signale) auch Regelgrößen für die Spurführung und den Fokus (richtigen Abstand zwischen CD und Leseoptik) ermittelt werden. Die Optik mit dem Laser bewegt sich beim Abspielen vom ersten zum letzten Track – im Gegensatz zur Schallplatte – von innen nach außen. Außerdem hat die CD keine feste Winkelgeschwindigkeit "(Umdrehungszahl);" diese wird der momentanen Position des Lesekopfs angepasst, so dass die Bahngeschwindigkeit (CLV) und nicht, wie bei der Schallplatte, die Winkelgeschwindigkeit (CAV) konstant ist. Wenn der Lesekopf weiter außen auf der CD liest, wird die CD also langsamer gedreht. Auf diese Weise kann überall auf der CD mit voller Aufzeichnungsdichte gearbeitet werden, und es ist ein konstanter Datenstrom gewährleistet, wie er bei Audio-CDs benötigt wird. Im Red Book sind zwei verschiedene Geschwindigkeiten festgelegt, 1,2 m/s und 1,4 m/s. Somit sind entsprechend Spielzeiten von 74:41 Min. bzw. 64:01 Min., unter maximaler Ausnutzung aller Toleranzen 80:29 Min. möglich. Das entspricht einer Umdrehungsgeschwindigkeit von 500 min−1 am Anfang der CD (innere Spuren) bis 200 min−1 am Außenrand der CD. Die Umdrehungsgeschwindigkeit wird durch einen Regelkreis anhand des Füllstandes eines FIFO-Puffers geregelt. Daher muss keine Umschaltung (weder manuell noch automatisch) je nach benutzter Linear-Geschwindigkeit erfolgen. Durch den genannten Puffer wirken sich Schwankungen der Drehzahl nicht auf die Wiedergabegeschwindigkeit aus. Viele moderne CD-ROM-Laufwerke, ab etwa einer 32-fachen Lesegeschwindigkeit, lesen Daten-CDs hingegen mit konstanter Umdrehungsgeschwindigkeit, um das zeitraubende Beschleunigen und Abbremsen der CD beim Hin- und Herspringen der Leseposition zu vermeiden. Dadurch hängt bei Daten-CDs die Datenrate von der Position des Lesekopfes ab. Die auf der Verpackung angegebene Geschwindigkeit ist fast immer die maximale, nicht die durchschnittliche. Durch die mechanische Festigkeit der CD sind der Steigerung der Lesegeschwindigkeit durch Erhöhung der Umdrehungsgeschwindigkeit Grenzen gesetzt. Sogenannte „52-fach“-Laufwerke drehen die CD mit bis zu 10.000 min−1. Bei diesen Geschwindigkeiten führen selbst kleinste Unwuchten der CD zu starken Vibrationen, die einerseits deutlich hörbar sind und zum anderen auf Dauer sowohl Laufwerk als auch Medium beschädigen können. Datenkodierung. Zur Aufzeichnung der Nutzdaten auf der CD müssen diese mit einer passenden Kanalkodierung (genauer: Leitungskodierung) kodiert werden, die den Eigenheiten des Speichermediums (hier also der optischen Abtastung und der Form und Größe der Pits) Rechnung tragen muss. Bei der CD ist das die sogenannte "Eight-to-Fourteen-Modulation" (EFM). Diese stellt sicher, dass sich alle zwei bis zehn Takte die Polarität des ausgelesenen Signals ändert. Das geschieht, wenn der Laser in der Spur einen Übergang von einer Vertiefung "(pit)" zu einem Abschnitt ohne Vertiefung "(land)" passiert oder umgekehrt. Der Hintergrund ist folgender: Die Abschnitte mit Vertiefungen bzw. ohne Vertiefungen müssen lang genug sein, damit der Laser die Veränderung erkennen kann. Würde man ein Bitmuster direkt auf den Datenträger schreiben, würden bei einem alternierenden Signal (1010101010101010…) falsche Werte ausgelesen, da der Laser den Übergang von 1 nach 0 beziehungsweise von 0 nach 1 nicht verlässlich auslesen könnte bzw. diese Übergänge gar nicht erst in Kunststoff ‚gepresst‘ werden könnten. Die EFM-Modulation bläht das Signal von acht auf 14 Bit auf. Hinzu kommen noch weitere drei Füllbits, die so gewählt werden, dass die oben erwähnte Forderung, dass sich alle zwei bis zehn Takte die Polarität ändert, auch zwischen den 14-Bit-Symbolen erfüllt wird. Durch diese Modulation wird zwar einerseits rechnerisch die Datenrate erhöht, andererseits aber kann die Datenrate so hoch gewählt werden, dass unmodulierte Daten gar nicht mehr in "pits" und "land" aufgelöst werden könnten; ein "pit" kann nicht kürzer sein als seine Breite, trotzdem kann die Länge auch in Bruchteilen der eigenen Breite variieren – diese Tatsache wird durch die Kodierung ausgenutzt. Sie ist mithin eine Designentscheidung, die (unter anderen) für die Spieldauer verantwortlich ist. Weiterhin wird durch die Kodierung dafür gesorgt, dass das Signal der Fotodioden keinen Gleichanteil enthält; dadurch wird die Signalverarbeitung wesentlich vereinfacht. Fehlerkorrektur und Fehlerverdeckung. Damit sich Kratzer nicht negativ auf die Lesbarkeit der Daten auswirken, sind die Daten mittels Reed-Solomon-Fehlerkorrektur gesichert, so dass Bitfehler erkannt und korrigiert werden können. Weiterhin sind aufeinanderfolgende Datenbytes per Interleaving auf eine größere Länge verteilt. Der Cross Interleaved Reed-Solomon-Code (CIRC) ist dadurch in der Lage, einen Fehler von bis zu 3500 Bit (das entspricht einer Spurlänge von etwa 2,4 mm) zu korrigieren und Fehler von bis zu 12000 Bit (etwa 8,5 mm Spurlänge) bei der Audio-CD zu verdecken. Bei der Verdeckung wird der Fehler nicht korrigiert, sondern es wird versucht, ihn unhörbar zu machen, zum Beispiel über eine Interpolation. Bei sehr starker Verkratzung des Datenträgers von der Unterseite ist jedoch die Lesbarkeit eingeschränkt oder ganz unmöglich. Man unterscheidet zwischen C1- und C2-Fehlern. C1-Fehler geben singuläre Einzelfehler an (beispielsweise kleine Kratzer), C2 größere Blockfehler, welche von der ersten Korrekturstufe nicht mehr korrigiert werden konnten. Die Fehler vom Typ C1 können nur von wenigen Laufwerken gemeldet werden, zum Beispiel von auf Plextor oder Lite-On basierenden mit spezieller Software "(Cdrtools, Plextools, k-probe)." C2-Fehler können von den meisten Laufwerken bestimmt werden, und es gibt Software für sogenannte C2-Scans, zum Beispiel "readcd", "Nero CD-Speed" oder "CD-Doctor". Informationen, die sich aus C1- oder C2-Fehlern ableiten lassen, geben Auskunft über den Zustand der optischen Datenträgern (beeinflusst durch Alterung, Kratzer etc.), über die prinzipielle Lese- oder Brennqualität eines optischen Laufwerks in Abhängigkeit von der Geschwindigkeit (beispielsweise über eine C2-Statistik vieler Medien) und über die Qualität von frisch gebrannten Medien für eine langfristige Datenspeicherung (große C1-/C2-Werte nach dem Brennen weisen auf eine nur begrenzte langfristige Datensicherheit hin). Ein Problem ist, dass sich die Fehlerursachen nur schwer oder gar nicht trennen lassen. So kann beispielsweise ein Rohlingstyp, der mit einem spezifischen Brenner schlechte Werte erzielt, mit einem anderen Brenner-Typ trotzdem gute Ergebnisse erreichen. Außerdem lassen sich die C2-Informationen verwenden, um beim Übertragen von Audiomaterial auf einen Computer auf die Güte zu schließen, mit der Audiodaten von CD ausgelesen wurden. Dadurch können kritische Stellen ggf. erneut gelesen werden bzw. andersherum das erneute Lesen auf die kritischen Stellen eingeschränkt werden. Bei der Interpretation für Medien gilt, dass neue CDs maximal 250 C1-Fehler pro Sekunde und keine C2-Fehler aufweisen sollten. Ein häufiges Auftreten von C2-Fehlern kann ein Indikator für eine fortschreitende Alterung des Mediums darstellen. Zur Datensicherung empfiehlt sich ein Umkopieren auf ein neues Medium. Eine solche Datensicherung sollte auch sofort nach dem Kauf von Medien erfolgen, die mit einem ‚Kopierschutz‘-Mechanismus ausgestattet sind („Un-CDs“), da diese meist absichtlich mit weit über 250 C1-Fehlern pro Sekunde produziert werden und daher schon eine geringe Menge sonst harmloser Kratzer solche Medien unlesbar machen kann. Ferner ist die Verwendung eines Reparatursprays oder von Schleif- und Poliergeräten möglich, um eine beschädigte CD oder DVD zu retten. Zufriedenstellende Ergebnisse können jedoch nicht in jedem Fall garantiert werden. Physische Formate. CDs gibt es in zwei verschiedenen Größen, am weitesten verbreitet ist die Version mit einem Durchmesser von 120 mm und 15 Gramm Gewicht, seltener die Mini-CD mit einem Durchmesser von 80 mm und 30 % der Speicherkapazität bei einem Gewicht von 6,7 Gramm. Daneben gibt es auch CDs, die eine andere Form als eine runde Scheibe haben. Diese sogenannten Shape-CDs fanden aber aufgrund von Abspielproblemen (Unwucht, kein Einzug in Slot-Laufwerke) nur eine geringe Verbreitung. Übliche Größen. Die Format-Spezifikationen der Audio-CD (kurz "CD-DA"), bekannt als „Red Book“-Standard, wurde von dem niederländischen Elektronikunternehmen Philips entworfen. Philips besitzt auch das Recht der Lizenzierung des „Compact Disc Digital Audio“-Logos. Die Musikinformationen werden in 16-Bit-Stereo (Quantisierung mit 216 = 65.536 Stufen) und einer Abtastrate von 44,1 Kilohertz gespeichert. Die Spezifikationen der "CD-ROM" sind im „Yellow Book“-Standard festgelegt. Ein plattformübergreifendes Dateisystem der CD-ROM wurde von der ISO im Standard ISO 9660 festgeschrieben. Sein Nachfolger lautet UDF. Es gibt verschiedene Möglichkeiten, Audio-CD-Inhalte und CD-ROM-Inhalte auf einer Scheibe zu kombinieren. Die einfachste Möglichkeit ist, einen Datentrack mit dem CD-ROM-Inhalt als ersten Track auf die CD zu bringen ("Mixed Mode CD", von einigen Herstellern auch „Enhanced CD“ genannt). Dem heute praktisch nichtigen Vorteil, dass der CD-ROM-Teil auch in ausschließlich Single-Session-fähigen CD-ROM-Laufwerken gelesen werden kann, steht der vergleichsweise große Nachteil der Sichtbarkeit dieses Datentracks für normale Audio-CD-Spieler entgegen – insbesondere, da manche ältere CD-Spieler auch eine Wiedergabe der CD-ROM-Daten als Audio-Daten ermöglichen. Das äußert sich je nach Lautstärke-Einstellung in ohrenbetäubendem und für die Lautsprecher potenziell gefährlichem Krach. Als Weiterentwicklung wurde der Datentrack mit einer Index-Position von 0 versehen, wodurch dieser nicht ohne Weiteres vom CD-Spieler angefahren wird ("i-Trax"). Das Audiomaterial beginnt, wie bei einfachen Audio-CDs, an Index-Position 1 von Track 1. (Problematisch für die Abspielkompatibilität könnte die Tatsache sein, dass innerhalb des Tracks der Modus von "CD-ROM Mode 1" auf "Audio" wechselt.) Heute werden zu diesem Zwecke praktisch ausschließlich Multisession-CDs benutzt – die Audio-Daten liegen in der ersten Session, während die CD-ROM-Daten in einer zweiten Session enthalten sind, die nicht von Audio-CD-Spielern gelesen wird ("CD-Extra", "CD-Plus"). Natürlich wird für den CD-ROM-Teil ein multisessionfähiges CD-ROM-Laufwerk benötigt. Eine Mischform ist die CD+G (CD+Graphics). Diese CD stellt zeitgleich zur Musik grafische Daten, wie beispielsweise den Liedtext, auf einem Bildschirm dar. Häufigste Anwendung dieses Formats ist Karaoke. In einem normalen CD-Spieler ist die CD+G als normale Audio-CD abspielbar. Auf speziellen Geräten (in jüngerer Zeit auch auf einigen DVD-Spielern) ist zur Musik auch die Grafik auf dem Bildschirm sichtbar. Die zusätzlichen Daten sind im Subcode der CD gespeichert, d. h. sie sind im Gegensatz zum Inhalt von Datentracks nicht ohne weiteres für ein Betriebssystem sichtbar. Deutlich häufiger anzutreffen sind dagegen CDs mit "CD-Text". Dabei werden im Subcode der CD (meistens im Lead-in) zusätzliche Informationen gespeichert, beispielsweise Titel und Künstler. Diese Informationen werden dann von geeigneten Geräten während des Abspielens der CD angezeigt. Daneben gibt es noch sogenannte "HDCD"-CDs. Diese sind mit echten 20-Bit-Musik-Information kodiert (anstatt mit 16) und sollen in Verbindung mit entsprechenden CD-Playern besser klingen. HDCD-CDs sind vollständig kompatibel mit „normalen“ CD-Spielern. Weiterentwicklungen der CD sind die "DVD-Audio" und die "Super Audio Compact Disc" (SACD). DVD-Medien bieten wesentlich größere Speicherkapazitäten von 4,7 (eine Schicht) bis 8,5 Gigabyte (zwei Schichten). Der Hauptvorteil ist dabei nicht eine längere Spielzeit, sondern dass die Audiodaten im "5.1-Soundformat" vorliegen. Während die Super-Audio-CD und DVD Audio ausschließlich für Audiodaten verwendet werden, sind bei der DVD verschiedene Datenarten möglich (DVD Data, DVD-Video, DVD-Audio, DVD-ROM, DVD+/-R(W)). Allerdings hat sich die DVD im Audiobereich noch nicht durchgesetzt. Eine von Sony weiterentwickelte Variante der CD war die "Double Density Compact Disc" (DDCD). Die Speicherkapazität beträgt das Doppelte der Speicherkapazität der 640-MB-CD. Sie war in zwei Varianten erhältlich (eine beschreibbare DDCD-R und eine wiederbeschreibbare DDCD-RW), konnte sich jedoch nicht gegen die DVD durchsetzen. Eine weitere von Sony entwickelte Variante ist die Blu-spec CD, die 2008 im Markt eingeführt wurde. Das "CD-Videoformat" ist (im Gegensatz zur Video-CD) keine Compact Disc, sondern eine LV/LD (Bildplatte) mit analogen Videodaten und digitalen Audio-Daten. Kopierschutz. Die CD-Standards sehen keinen Kopierschutz vor, da zur Zeit ihrer Festlegung Anfang der 1980er Jahre noch nicht absehbar war, dass in näherer Zukunft beschreibbare digitale Speichermedien mit der nötigen Datenkapazität für den Endverbraucher erschwinglich sein würden – das Kopieren wurde also einfach dadurch verhindert, dass es nichts gab, wohin die Daten realistischerweise kopiert werden konnten. Es blieb nur die qualitativ schlechtere und nicht beliebig wiederholbare Analogkopie auf Audiokassetten, die ebenso wie bei Schallplatten in Kauf genommen wurde. Das Aufkommen von CD-Brennern, hochkapazitiven Festplatten, Kompressionsverfahren wie etwa MP3 und Internet-Tauschbörsen in den 1990er Jahren hat diese Situation entscheidend geändert. Seit dem Jahr 2001 werden in Deutschland auch Medien verkauft, die einen Kopierschutz enthalten, der das digitale Auslesen der Audiodaten (und damit das Kopieren der Daten) verhindern soll. Sie wurden zwar teils ebenfalls als "Audio-CD" bezeichnet, entsprechen aber nicht den Bestimmungen des Red Book und sind daher in diesem Sinne keine echten Audio-CDs. Diese CDs werden daher auch als „Un-CDs“ "(Nicht-CDs)" bezeichnet. Der Kopierschutz wird realisiert, indem Fehler oder eine zweite fehlerhafte Session eingebracht werden. Auch Abweichungen vom Red-Book-Standard sind möglich, aber eher selten. Der „Abspielschutz“ ergibt sich daraus, dass die Fehler bewirken sollen, dass sich die Scheiben nicht mehr in dem CD-Laufwerk eines PC abspielen lassen. So soll das Kopieren verhindert werden. Manche CD-Laufwerke und die meisten DVD-Laufwerke lassen sich davon aber nicht beeinflussen und können die Daten trotzdem lesen, wodurch diese Idee des „Kopierschutzes“ letztendlich nutzlos wird. Stattdessen verursachen die Fehler auf der „kopiergeschützten“ CD Probleme auf zahlreichen normalen Audio-CD-Spielern und vielen Autoradios mit integrierter CD-Einheit. Diese können diese Medien entweder gar nicht oder nur teilweise abspielen, teilweise entstehen sogar ernsthafte Hardware-Defekte, etwa wenn die Firmware des CD-Spielers abstürzt und sich das Medium nicht mehr auswerfen lässt. Außerdem leiden oft die Tonqualität und die Lebensdauer des Abspielgerätes unter dem Kopierschutz. Seit dem 1. November 2003 sind die Hersteller in Deutschland durch § 95d UrhG gesetzlich verpflichtet, kopiergeschützte Medien als solche zu kennzeichnen. Solchen Kennzeichnungen ist jedoch kaum zu entnehmen, welche Probleme im Einzelfall mit Autoradios, MP3-CD-Spielern, DVD-Spielern und anderen Geräten auftreten können. Da der Kopierschutz in der Praxis kaum wirksam ist, immer wieder zu Problemen beim Abspielen führt und auch eine teilweise Kaufzurückhaltung zur Folge hatte, haben ab ca. 2009 immer mehr Labels das Konzept „kopiergeschützte CD“ wieder aufgegeben. Zunehmend werden wieder gewöhnliche, ungeschützte CDs nach dem Red Book veröffentlicht, zumal sich so außerdem Lizenzgebühren für den Kopierschutz einsparen lassen. Herstellerangaben und Produktionsstätten. Die meisten CDs sind auf dem Innenring der Abtastseite mit Angaben zum Hersteller, dem Produktionsland (zum Beispiel "Made in Germany by EDC", "Made in France by PDO" oder "Mastered by DADC Austria") und weiteren Kennungen (zum Beispiel Katalog-Nr., IFPI-Kennung, "Source Identification Code (SID)") versehen. Diese Identifizierungsmerkmale befinden sich i. d. R. auf einem etwa 5 mm breiten Kreis (dem Spiegel) und sind mit dem bloßen Auge nur schwer zu erkennen. Gerade für Sammler von CDs sind solche Hinweise teilweise sehr wichtig, da man daran zum einen die legal hergestellte CD von einer Schwarzkopie unterscheiden und zum anderen „Sonderpressungen“ erkennen kann. Oft werden CDs eines Interpreten mit gleichem Inhalt in verschiedenen Ländern produziert. Die Auflagen können unterschiedlich hoch und dementsprechend wertvoll für Sammler und Fans sein. Beschreibbare CDs. Beschreibbare CDs gibt es in einer einmal beschreibbaren Variante (CD-R: CD recordable) und in einer mehrfach wiederbeschreibbaren Variante (CD-RW: CD rewritable). Während die Reflexionseigenschaften einer CD-R denen einer normalen CD nahezu gleichen und diese somit auch in älteren CD-Laufwerken gelesen werden können sollte, ist das Lesekopf-Ausgangssignal einer CD-RW weitaus schwächer, so dass diese Medien nur von entsprechend ausgestatteten (neueren) Laufwerken bzw. Spielern gelesen werden können. Zum Beschreiben einer CD kann kein gewöhnlicher CD-Spieler benutzt werden. Es ist ein sogenannter ‚CD-Brenner‘ (bzw. ein CD-Rekorder) notwendig. CD-Brenner können CDs nicht nur beschreiben, sondern auch lesen. Daher sind reine CD-ROM-Lesegeräte für Computer inzwischen praktisch vom Markt verschwunden. Das ISO-9660-Dateiformat einer CD-ROM gestattet keine nachträglichen Änderungen. Außerdem können beschreibbare CDs – im Gegensatz zu Festplatten – nicht blockweise beschrieben werden. Deshalb muss erst ein Speicherabbild angelegt werden, das eine exakte Kopie der auf die CD zu brennenden Daten enthält. Dieses Abbild kann dann (als eine Spur) in einem Durchgang auf die CD „gebrannt“ werden. Dafür sind spezielle CD-Brennprogramme nötig. Aktuelle Brennprogramme beherrschen das Erstellen des Abbildes „on-the-fly“, das heißt, das ISO-Abbild wird während des Schreibens erzeugt. Allerdings kann man, solange die CD nicht abgeschlossen („finalisiert“) wurde, mit einem weiteren Schreibvorgang nachträglich in einem weiteren Track (das heißt normalerweise in einer weiteren Session) der CD ein neues Dateisystem erzeugen. Die Verzeichnisse dieses neuen Dateisystems können auch auf Dateien in den älteren Tracks referenzieren. Da beim normalen Betrieb immer das Dateisystem des letzten Tracks benutzt wird, ist es so möglich, Dateien hinzuzufügen, umzubenennen, zu „löschen“ und zu „überschreiben“. Natürlich kann der belegte Platz nicht erneut benutzt werden. Mit spezieller Software (zum Beispiel IsoBuster unter Windows oder ISO Master unter Linux) kann auch auf die älteren Dateisysteme zugegriffen werden, das heißt, die „gelöschten“ Dateien bzw. die älteren Versionen ‚überschriebener‘ Dateien sind damit noch erreichbar (Multisession-CD). Alternativ können die Dateisysteme in den Tracks einer CD (analog zu Partitionen einer Festplatte) als unterschiedliche virtuelle Laufwerke betrachtet werden (Multivolume-CD). Dieses Verfahren wurde zum Beispiel beim Mac OS in den Versionen 8 und bis 9 eingesetzt, ist jedoch sonst kaum verbreitet. CD-RWs können theoretisch blockweise beschrieben werden. Das muss auch vom CD-Brenner unterstützt werden. Da das auf CD-ROMs verwendete ISO-9660-Dateiformat keine nachträglichen Änderungen an Dateien unterstützt, wurde dafür ein eigenes Dateisystem namens UDF eingeführt, das auch auf DVDs verwendet wird. Dieses Format erlaubt es, wie zum Beispiel bei einer Diskette, direkt Dateien auf der CD zu speichern. Umweltschutz. Die Compact Disc besteht hauptsächlich aus dem wertvollen Kunststoff Polycarbonat. Ein sortenreines Recycling lohnt sich zwar nicht für die Herstellung neuer Compact Discs, jedoch kann der sehr hochwertige Rohstoff in der Medizin, der PC- und der Autoindustrie verwendet werden. Verschiedene Firmen bieten Sammelsysteme an. Dabei werden Sammelbehälter kostenlos bereitgestellt. Sammelstellen (zum Beispiel Betriebe oder Kommunen) haben somit keinerlei Risiko, sondern müssen nur eine entsprechende Fläche für den Sammelbehälter vorhalten. Die Deutsche Telekom nimmt eigene CDs in ihren Shops zurück, AOL-CDs können unfrei an AOL gesendet werden. Vernichtung der Daten. Da eine CD auch vertrauliche Daten enthalten kann, muss es sichere Verfahren geben, um diese Daten vor der Entsorgung unleserlich zu machen, sei es, weil die Daten nicht mehr benötigt werden oder weil sie gelöscht werden müssen. Effektive Verfahren. Die oben beschriebenen mechanischen und thermischen Verfahren sind nur eingeschränkt empfehlenswert, da durch eine derartige Behandlung der Datenträger Chemikalien der Beschichtung zum Teil als sehr kleine Partikel in die Umgebungsluft abgegeben werden. Unter gesundheitlichen Gesichtspunkten ist "Smart-Erase" das einzige unbedenkliche Verfahren.. Carl Amery. Carl Amery (Pseudonym von "Christian Anton Mayer"; * 9. April 1922 in München; † 24. Mai 2005 ebenda) war ein deutscher Schriftsteller und Umweltaktivist. Er war Mitglied der Gruppe 47, 1976/77 Vorsitzender im Verband deutscher Schriftsteller (VS) und von 1989 bis 1991 Präsident des deutschen PEN-Zentrums. Von 1967 bis 1974 war Amery Mitglied der SPD, nachdem er zuvor der GVP angehört hatte. Später war Amery Gründungsmitglied der Partei Die Grünen beim Bundeskongress der Grünen in Karlsruhe am 13. Januar 1980 und Schirmherr der Wasserallianz München. Als Initiator und Mitbegründer war Amery von 1980 bis 1995 Präsident der E.-F.-Schumacher-Gesellschaft. Leben. Die Krypta des Freisinger Doms Seine Kindheit verbrachte Carl Amery vorwiegend in Passau und Freising als Schüler des Humanistischen Gymnasiums Passau bzw. des Dom-Gymnasiums – beide Städte sollten ihre Spuren in seinem Werk hinterlassen (z. B. Passau in "Der Wettbewerb" und "Der Untergang der Stadt Passau" und Freising in "Das Geheimnis der Krypta"). Anschließend war Amery Stipendiat des Maximilianeums und studierte Neuphilologie an der Ludwig-Maximilians-Universität München, später dasselbe Fach, dazu Literaturtheorie und -kritik, an der Catholic University of America in Washington, D.C. Im Zweiten Weltkrieg geriet er mit 21 Jahren in amerikanische Kriegsgefangenschaft und kehrte 1946 nach München zurück, wo er sein unterbrochenes Studium (Sprachen und Literaturwissenschaft) wieder aufnahm. Er begann zu schreiben, zunächst unter seinem leicht amerikanisierten Namen als "Chris Mayer", dann wählte er sich als Pseudonym "Carl Amery", wobei "Amery" ein Anagramm von "Mayer" ist. 1954 erschien sein erster Roman ("Der Wettbewerb"). Inzwischen Mitglied der Gruppe 47, begründete er 1958 durch den Roman "Die große Deutsche Tour" seinen Ruf als Satiriker. Dieser Ruf blieb lange haften. Eine andere Seite seines Arbeitens zeigte er in der 1963 erschienenen kirchenkritischen Schrift "Die Kapitulation oder Deutscher Katholizismus heute," gefolgt von "Das Ende der Vorsehung. Die gnadenlosen Folgen des Christentums", in dem er dem Christentum Mitschuld an der globalen Umweltzerstörung zuwies. Dies prädestinierte Amery für die Rolle des Vordenkers der politischen Ökologie, die er mit weiteren Schriften wie insbesondere "Die ökologische Chance" ausfüllte und durch sein persönliches Engagement unterstrich – zunächst in der Anfangsphase bei der Partei Die Grünen, dann 1980 durch die Gründung der unabhängigen E.-F.-Schumacher-Gesellschaft, deren Vorsitzender er bis 1995 war. Von 1967 bis 1971 war Amery Direktor der Städtischen Bibliotheken in München – mit einer entsprechend langen Publikationspause. 1974 schließlich wandte er sich einem dritten Genre zu, der Science Fiction, was damals für einen der Hochliteratur zugerechneten Autor ein etwas überraschender Schritt war. Beeinflusst war er dabei nicht zuletzt durch Gilbert Keith Chesterton, dessen Science-Fiction-Romane er später in überarbeiteten deutschen Fassungen herausgab. Vor allem drei Romane Amerys gehören in diesen Bereich, nämlich Zwei weitere mit Fantasy-Elementen durchsetzte Romane Amerys thematisieren bayrische Spiritualität: In "Die Wallfahrer" (1986) bewegen sich die Protagonisten auf den alten Gnadenort Tuntenhausen zu; und im "Geheimnis der Krypta" bildet die Krypta im Freisinger Dom (und dort die sogenannte Bestiensäule) das Zentrum der sich über drei Generationen erstreckenden Handlung, wobei die aus den "Feuern der Leyermark" (aber auch aus dem "Königsprojekt") her bekannte Fragestellung zu einer Wissenschaft der „Sphagistik“ erhoben wird, wie die Geschichte aufgrund geringfügig veränderter Einzelbedingungen hätte ganz anders verlaufen können. Ab 1985 erschienen Amerys gesammelte Werke in Einzelausgaben im Münchner Paul List-Verlag. 2001 erklärte Amery in einem Interview, dass er aus gesundheitlichen Gründen keine weiteren Romane verfassen werde. Carl Amerys Gesundheitszustand verschlechterte sich in den letzten Lebensjahren aufgrund eines Lungenemphysems bis zu seinem Tod zunehmend. Er wurde am 30. Mai 2005 am Münchner Ostfriedhof im engsten Familienkreis beigesetzt. Die Rechte an seinen Publikationen liegen bei seiner Witwe Marijane Mayer. 2007 erschien posthum der Aufsatzband "Arbeit an der Zukunft", der das Fragment einer Streitschrift gegen die US-amerikanische Religiöse Rechte enthält, an der Amery bis kurz vor seinem Tod arbeitete. Auszeichnungen und Ehrungen. 2007 stiftete der "Verband deutscher Schriftsteller in Bayern" zu seinem Gedächtnis den Carl-Amery-Literaturpreis. Chomsky-Hierarchie. Chomsky-Hierarchie, gelegentlich Chomsky-Schützenberger-Hierarchie (benannt nach dem Linguisten Noam Chomsky und dem Mathematiker Marcel Schützenberger), ist ein Begriff aus der Theoretischen Informatik. Sie ist eine Hierarchie von Klassen formaler Grammatiken, die formale Sprachen erzeugen, und wurde 1956 erstmals von Noam Chomsky beschrieben. Die Hierarchiestufen unterscheiden sich darin, wie rigide die Einschränkungen für die Form zulässiger Produktionsregeln auf der jeweiligen Stufe sind; bei Typ-0-Grammatiken sind sie uneingeschränkt, bei höheren Stufen fortschreitend stärker beschränkt. Grammatiken niedrigeren Typs sind erzeugungsmächtiger als die höherer Typen. Eine Sprache, die von einer "Grammatik des Typs k" erzeugt wird, heißt eine "Sprache des Typs k". Neben die Chomsky-Hierarchie der Grammatiken tritt in diesem Sinne eine Chomsky-Hierarchie der Sprachen. Hintergründe. Formale Sprachen haben den Vorzug, mathematisch exakt analysiert werden zu können. Formalen Sprachen liegt ein vorgegebenes "Alphabet" (ein Zeichensatz) zugrunde, das häufig mit formula_1 bezeichnet wird. Beliebig lange, endliche Folgen von Elementen des Alphabets werden als "Wörter" über dem Alphabet bezeichnet. Mengen solcher Wörter sind schließlich "formale Sprachen". Die umfassendste formale Sprache über einem vorgegebenen Alphabet formula_1 ist unendlich groß; sie enthält sämtliche Wörter, die durch beliebiges Zusammenfügen von Zeichen des Alphabets gebildet werden können. Sie lässt sich durch die Kleenesche Hülle des Alphabets beschreiben, also formula_3. Die kleinste formale Sprache enthält gar keine Wörter. Andere formale Sprachen bestehen nur aus wenigen Wörtern und lassen sich somit als endliche Menge notieren; beispielsweise für das Alphabet formula_4 die Sprache aller Wörter der Länge zwei: formula_5. Unendliche Sprachen lassen sich begreiflicherweise nicht durch Aufzählen notieren. Um sie exakt zu beschreiben, ist ein Konzept nötig, das auch unendliche Mengen definieren kann. Hierzu werden im Rahmen der formalen Sprachen vor allem "Erzeugungsverfahren" benutzt. Geht man von einem vorhandenen Wort über einem Alphabet aus, lassen sich durch Semi-Thue-Systeme Wortmengen spezifizieren, die sich durch beliebig wiederholtes Anwenden von "Ersetzungsregeln" ergeben. Ersetzungsregeln der Form formula_6 schreiben vor, dass in einem Wort, das ein Segment formula_7 enthält, dieses Segment durch formula_8 ersetzt wird. Semi-Thue-Systeme geben daher eine "Ableitungsrelation" zwischen Wörtern formaler Sprachen an: Zwei Wörter stehen in Relation, wenn das eine Wort durch eine Ersetzungsregel vom anderen Wort abgeleitet werden kann. Zur Beschreibung von formalen Sprachen eignen sich "formale Grammatiken", ein gegenüber Semi-Thue-Systemen erweitertes und mächtigeres Konzept. Sie unterscheiden sich von Semi-Thue-Systemen darin, dass sie sogenannte Terminalsymbole und Nichtterminalsymbole kennen. Terminalsymbole einer Grammatik sind gerade alle Zeichen ihres Zeichensatzes formula_1. Die erste anwendbare Regel geht immer von einem nichtterminalen Startsymbol aus, und das Ergebnis eines Ersetzungsvorgangs gilt nur dann als Wort ihrer formalen Sprache, wenn es keine Nichtterminalsymbole enthält. Das folgende Beispiel beschreibt eine Sprache, mit der sich beliebig lange Summen der Ziffern 1, 2 und 3 ausdrücken lassen. Das dafür angemessene Alphabet ist formula_10. Die entsprechenden Terminalsymbole sind unterstrichen dargestellt, Nicht-Terminale kursiv. Die folgenden Zeilen stellen die Regeln dar. Nicht alle unendlichen Sprachen lassen sich als formale Sprachen mit diesem Erzeugungsprinzip beschreiben, es ist aber kein tauglicheres Konzept bekannt. Ein anderer gängiger Formalismus zur Beschreibung von Sprachen sind Automatenmodelle, vor allem Turingmaschinen. Uneingeschränkte formale Grammatiken und Turingmaschinen sind bei der Beschreibung von formalen Sprachen gleichmächtig, d.h. zu jeder von einer formalen Grammatik erzeugten Sprache gibt es eine Turingmaschine, die genau diese akzeptiert, und umgekehrt. Ebenso wie verschiedene Automatenmodelle definiert wurden, definierte Chomsky in seiner Arbeit verschiedene Grammatiktypen. Durch drei fortlaufend schärfere Einschränkungen an die jeweils darin zulässigen Ersetzungsregeln stellte er eine Hierarchie aus vier Klassen von formalen Grammatiken auf, wodurch die weniger eingeschränkten Klassen die stärker regulierten Klassen jeweils echt umfassen. Das Gleiche gilt für die von den jeweiligen Grammatikklassen beschriebenen Sprachklassen: auch sie bilden eine Hierarchie. Sprachen eingeschränkteren Grammatiktyps sind üblicherweise einfacher algorithmisch zu verarbeiten – um den Preis, weniger ausdrucksmächtig zu sein. Reguläre Ausdrücke, mit denen man etwa Muster für die Suche in Texten definiert, entsprechen zum Beispiel den sehr eingeschränkten Chomsky-Grammatiken des Typs 3 (reguläre Grammatiken) und solche Textsuchen sind effektiv und schnell. Dagegen taugen Grammatiken des Typs 3 wegen ihrer Einfachheit nicht zur Beschreibung von Programmiersprachen, für die man meist weniger eingeschränkte Typ-2-Grammatiken benutzt. Die Hierarchie. Die Chomsky-Hierarchie umfasst vier Typen formaler Grammatiken, gezählt von 0 bis 3. Typ 0 umfasst alle formalen Grammatiken überhaupt, also ohne Einschränkung an die Gestalt zulässiger Erzeugungsregeln. Grammatiken des Typs 1 bis Typ 3 sind dann zunehmend stärker eingeschränkt. Allein nach Definition ist eine Grammatik vom Typ 1 auch vom Typ 0, eine Grammatik vom Typ 2 auch vom Typ 1, eine Grammatik vom Typ 3 auch vom Typ 2; die Umkehrungen gelten nicht. Deshalb bilden diese Klassen eine echte Hierarchie. Bei den entsprechenden Sprachklassen zeigen Gegenbeispiele, dass ebenfalls die Umkehrungen nicht gelten, weshalb auch sie eine echte Hierarchie bilden. Chomsky forderte für Typ-1-, Typ-2- und Typ-3-Grammatiken, dass die rechte Seite von Produktionsregeln nicht kürzer als die linke Seite sein darf, was auch das leere Wort auf jeder rechten Seite einer Produktionsregel ausschließt. Heute ist man oft weniger restriktiv; die Definitionen sind oft so gefasst, dass die Hierarchie der Sprachen nicht gestört wird, sie es aber auch Grammatiken des Typs 1 (kontextsensitive Grammatiken) durch eine Ausnahmeregel erlauben, das leere Wort zu erzeugen, und den Typen 2 (kontextfreien Grammatiken) und 3 (regulären Grammatiken) sogar ohne Einschränkung das leere Wort als rechte Seite von Ersetzungsregeln gestatten. Definition. Typ-0-Grammatiken werden auch "unbeschränkte" Grammatiken genannt. Es handelt sich dabei um die Klasse aller formalen Grammatiken der Form formula_13, wobei formula_14 ein "Vokabular" ist, bestehend aus einem endlichen Alphabet formula_1 und einer Menge von Nichtterminalen formula_16. Das ausgezeichnete Symbol formula_17 wird als "Startsymbol" bezeichnet und formula_18 ist eine Menge von Produktionsregeln formula_19, d.h. auf der linken Seite jeder Produktionsregel steht wenigstens ein Nicht-Terminalsymbol. Für einzelne Regeln schreibt man anstelle von formula_20 meistens formula_6. Um die Zugehörigkeit zur Klasse der Typ-0-Grammatiken auszudrücken, schreibt man formula_22 Von Typ-0-Grammatiken erzeugte Sprachen. Jede Typ-0-Grammatik erzeugt eine Sprache, die von einer Turingmaschine "akzeptiert" werden kann, und umgekehrt existiert für jede Sprache, die von einer Turingmaschine akzeptiert werden kann, eine Typ-0-Grammatik, die diese Sprache erzeugt. Diese Sprachen sind auch bekannt als die rekursiv aufzählbaren Sprachen (oft auch "semi-entscheidbare Sprachen" genannt), d. h. die zugehörige Turingmaschine hält bei jedem Wort, das in der Sprache liegt, und liefert das Ergebnis 1. Es ist allerdings nicht gefordert, dass die Turingmaschine für ein Wort, das nicht in der Sprache liegt, mit dem Ergebnis 0 hält (die Maschine muss also nicht terminieren). Man beachte, dass sich diese Menge von Sprachen von der Menge der rekursiven Sprachen (oft auch "entscheidbare Sprachen" genannt) unterscheidet, welche durch Turingmaschinen "entschieden" werden können. Definition. Typ-1-Grammatiken werden auch "kontextsensitive Grammatiken" genannt. Es handelt sich dabei um Typ-0-Grammatiken, bei denen alle Produktionsregeln die Form formula_23 oder formula_24 haben, wobei formula_25 ein Nichtterminal und formula_26 Wörter bestehend aus Terminalen formula_27 und Nichtterminalen formula_28 sind. formula_29 bezeichnet das leere Wort. Die Wörter formula_7 und formula_8 können leer sein, aber formula_32 muss mindestens ein Symbol (also ein Terminal oder ein Nichtterminal) enthalten. Diese Eigenschaft wird Längenbeschränktheit genannt. Als einzige Ausnahme von dieser Forderung lässt man formula_24 zu, wenn das Startsymbol nirgends auf der rechten Seite einer Produktion auftritt. Damit erreicht man, dass die kontextsensitiven Sprachen auch das oft erwünschte leere Wort enthalten können, das dann aber immer nur in einer einschrittigen Ableitung aus dem Startsymbol selbst entsteht, und ohne für alle anderen Ableitungen die Eigenschaft zu stören, dass in jedem Teilschritt die Satzform länger wird oder gleich lang bleibt. Ist eine Grammatik formula_34 kontextsensitiv, so schreibt man formula_35. Anders als bei kontextfreien Grammatiken können auf der linken Seite der Produktionen kontextsensitiver Grammatiken durchaus statt einzelner Symbole ganze Symbolfolgen stehen, sofern sie mindestens ein Nichtterminalsymbol enthalten. Von Typ-1-Grammatiken erzeugte Sprachen. Die kontextsensitiven Grammatiken erzeugen genau die kontextsensitiven Sprachen, das heißt jede Typ-1-Grammatik erzeugt eine kontextsensitive Sprache und zu jeder kontextsensitiven Sprache existiert eine Typ-1-Grammatik, die diese erzeugt. Die kontextsensitiven Sprachen sind genau die Sprachen, die von einer nichtdeterministischen, linear beschränkten Turingmaschine erkannt werden können; das heißt von einer nichtdeterministischen Turingmaschine, deren Band linear durch die Länge der Eingabe beschränkt ist (das heißt, es gibt eine konstante Zahl formula_36, sodass das Band der Turingmaschine höchstens formula_37 Felder besitzt, wobei formula_38 die Länge des Eingabewortes ist). Monotone Grammatiken. Einige Autoren bezeichnen eine Grammatik schon dann als kontextsensitiv, wenn bis auf die Ausnahme formula_39 (s.o.) alle Produktionsregeln formula_40 nur die Bedingung formula_41 erfüllen, d.h. dass die rechte Seite einer solchen Produktion nicht kürzer als deren linke Seite ist. Häufiger findet man dafür jedoch den Begriff der monotonen Grammatik oder der nichtverkürzenden Grammatik. Es erweist sich, dass die monotonen Grammatiken genau wieder die kontextsensitiven Sprachen erzeugen, weshalb die beiden Klassen von Grammatiken als äquivalent betrachtet werden und manche Autoren nur die eine oder die andere Grammatikklasse überhaupt behandeln. Aber nicht jede monotone Ersetzungsregel ist auch eine kontextsensitive, deshalb ist auch nicht jede monotone Grammatik eine kontextsensitive. Definition. Typ-2-Grammatiken werden auch "kontextfreie Grammatiken" genannt. Es sind Grammatiken, für die gelten muss: formula_42 In jeder Regel der Grammatik muss also auf der linken Seite genau ein nicht-terminales Symbol stehen und auf der rechten Seite kann eine beliebige nicht-leere Folge von terminalen und nichtterminalen Symbolen stehen. Außerdem kann wie bei Typ-1-Grammatiken die Ausnahmeregel formula_39 zugelassen werden, wenn formula_44 auf keiner rechten Seite einer Regel vorkommt. Man schreibt formula_45 Kontextfreie Grammatiken werden oft so definiert, dass die rechte Seite auch leer sein darf, also formula_46. Solche Grammatiken erfüllen nicht mehr alle Eigenschaften von Typ-2-Grammatiken und stünden nicht mehr in der von Chomsky definierten Hierarchie. Sie erfüllen aber die Bedingungen von monotonen Grammatiken. Von Typ-2-Grammatiken erzeugte Sprachen. Kontextfreie Grammatiken (mit formula_29-Ausnahmeregel) erzeugen genau die kontextfreien Sprachen, jede Typ-2-Grammatik erzeugt also eine kontextfreie Sprache und zu jeder kontextfreien Sprache existiert eine Typ-2-Grammatik, die diese erzeugt. Die kontextfreien Sprachen sind genau die Sprachen, die von einem nichtdeterministischen Kellerautomaten (NPDA) erkannt werden können. Eine Teilmenge dieser Sprachen bildet die theoretische Basis für die Syntax der meisten Programmiersprachen. Definition. Typ-3-Grammatiken werden auch "reguläre Grammatiken" genannt. Es handelt sich um Typ-2-Grammatiken, bei denen auf der rechten Seite von Produktionen genau ein Terminalsymbol auftreten darf und maximal ein weiteres Nichtterminalsymbol. Die erlaubte Stellung solcher Nichtterminalsymbole muss außerdem über alle Produktionen hinweg einheitlich "immer vor" oder "immer hinter" dem Terminalsymbol sein, je nachdem spricht man auch genauer von "linksregulären" und "rechtsregulären Grammatiken". Sie stimmen mit den links- beziehungsweise rechts-linearen Grammatiken überein, wohingegen lineare Grammatiken nicht den regulären Grammatiken entsprechen. Für "linksreguläre" Typ-3-Grammatiken muss also die Bedingung erfüllt sein, dass formula_48 formula_49. Sie dürfen also nur "links"reguläre Produktionen (Nichtterminalsymbol auf der rechten Seite in "Vorder" stellung) enthalten. Üblicherweise gestattet man für reguläre Grammatiken, wie auch für kontextfreie Grammatiken Regeln mit leerer rechter Seite, also formula_50. "Rechtsreguläre Grammatiken" erfüllen dagegen die analoge Bedingung formula_48 formula_52. Diese enthalten also nur "rechts"reguläre Produktionen (Nichtterminalsymbol auf der rechten Seite allenfalls in "Hinter"stellung). Diese Bedingung drückt auch schon die Erlaubnis leerer rechter Seiten aus. Linksreguläre und rechtsreguläre Grammatiken erzeugen genau dieselbe Sprachklasse, es gibt also zu jeder linksregulären Grammatik auch eine rechtsreguläre, die dieselbe Sprache erzeugt, und umgekehrt. Man beachte, dass beim Auftreten von linksregulären "und" rechtsregulären Produktionen in ein und derselben Chomsky-Grammatik diese "nicht" regulär ist. Die Grammatiken mit sowohl linksregulären als auch rechtsregulären Produktionen erzeugen nämlich eine echt größere Sprachklasse. Manche Autoren erlauben in den Definitionen für reguläre / linksreguläre / rechtsreguläre Grammatiken überall dort, wo hier in Produktionen nur ein einzelnes Nichtterminalzeichen stehen darf, auch eine beliebige nichtleere terminale Zeichenkette. An der Erzeugungsmächtigkeit der Klassen ändert sich dadurch nichts. Man schreibt formula_53 für reguläre Grammatiken formula_34. Von Typ-3-Grammatiken erzeugte Sprachen. Reguläre Grammatiken erzeugen genau die regulären Sprachen, das heißt, jede Typ-3-Grammatik erzeugt eine reguläre Sprache und zu jeder regulären Sprache existiert eine Typ-3-Grammatik, die diese erzeugt. Reguläre Sprachen können alternativ auch durch reguläre Ausdrücke beschrieben werden und die regulären Sprachen sind genau die Sprachen, die von endlichen Automaten erkannt werden können. Sie werden häufig genutzt, um Suchmuster oder die lexikalische Struktur von Programmiersprachen zu definieren. Übersicht. Die folgende Tabelle führt für die vier Grammatiktypen auf, welche Form ihre Regeln haben, welchen Namen die erzeugten Sprachen haben und welche Automatentypen diese Sprachen erkennen, also das Wortproblem zumindest semi-entscheiden (Wort in Sprache: Maschine hält in akzeptierenden Endzustand, Wort nicht in Sprache: Maschine hält nie oder hält in nicht akzeptierenden Zustand → sicher hält die Maschine also nur, wenn das Wort in der Sprache ist). Da in der Chomsky-Hierarchie für die Sprachmengen aber eine echte Teilmengenbeziehung gilt (siehe nächster Abschnitt) entscheiden z.B. Turingmaschinen selbstverständlich ebenfalls das Wortproblem für Sprachen vom Typ 1 bis 3. Außerdem wird vermerkt, gegenüber welchen Operationen die erzeugten Sprachen abgeschlossen sind. In der obigen Tabelle werden somit mit deutschen/lateinischen Großbuchstaben Nichtterminalsymbole dargestellt, formula_85 formula_86 und griechische Kleinbuchstaben werden verwendet, wenn es sich sowohl um Nichtterminal als auch um Terminalsymbole handeln kann. Chomsky-Hierarchie für formale Sprachen. formula_96 ist vom Typ formula_97 falls es eine Grammatik formula_98 mit formula_99 gibt. Man schreibt dann formula_100 In der Chomsky-Hierarchie für formale Sprachen besteht zwischen den Sprachmengen benachbarter Ebenen eine echte Teilmengenbeziehung. Jede kontextsensitive Sprache ist rekursiv aufzählbar, aber es gibt rekursiv aufzählbare Sprachen, die nicht kontextsensitiv sind. Ebenso ist jede kontextfreie Sprache auch kontextsensitiv, aber nicht umgekehrt, und jede reguläre Sprache ist kontextfrei, aber nicht jede kontextfreie Sprache ist regulär. Formal ausgedrückt bedeutet dies für die "Klassen" der durch die obigen Grammatiken erzeugten Sprachen: formula_101 wobei gelegentlich auch folgende Symbole verwendet werden: formula_102 Beweise für die Nichtzugehörigkeit bestimmter Sprachen zu den Sprachklassen formula_105 und formula_106 wie hier werden oft mit dem Schleifensatz geführt. Natürliche Sprachen. Obwohl Chomsky seine Forschungen mit dem Ziel verfolgte, eine mathematische Beschreibung der natürlichen Sprachen zu finden, ist bis heute für keine natürliche Sprache der Nachweis einer korrekten und vollständigen formalen Grammatik gelungen. Das Problem besteht u.a. im Zusammenspiel der verschiedenen Grammatikteile, die jeweils einzelne sprachliche Phänomene modellieren. Beim praktischen Einsatz formaler Grammatiken in der Computerlinguistik kommen Mehrdeutigkeiten auf verschiedenen Ebenen der Sprachbetrachtung hinzu; diese müssen (z.B. in der maschinellen Übersetzung) anhand des Kontextes aufgelöst werden. Polymerase-Kettenreaktion. Die Polymerase-Kettenreaktion () ist eine Methode, um die Erbsubstanz DNA "in vitro" zu vervielfältigen. Dazu wird ein Enzym verwendet, die DNA-Polymerase. Der Begriff „Kettenreaktion” beschreibt in diesem Zusammenhang die Tatsache, dass die Produkte vorheriger Zyklen als Ausgangsstoffe für den nächsten Zyklus dienen und somit eine exponentielle Vervielfältigung ermöglichen. Die PCR wird in biologischen und medizinischen Laboratorien zum Beispiel für die Erkennung von Erbkrankheiten und Virusinfektionen, für das Erstellen und Überprüfen genetischer Fingerabdrücke, für das Klonieren von Genen und für Abstammungsgutachten verwendet. Die PCR zählt zu den wichtigsten Methoden der modernen Molekularbiologie und viele wissenschaftliche Fortschritte auf diesem Gebiet (z. B. im Rahmen des Humangenomprojekts) wären ohne diese Methode nicht möglich gewesen. Geschichte. Anfang der 1970er Jahre kam der norwegische Postdoc Kjell Kleppe im Labor von Nobelpreisträger Har Gobind Khorana auf den Gedanken, DNA durch zwei flankierende Primer zu vervielfältigen, jedoch geriet die Idee in Vergessenheit. Die Polymerase-Kettenreaktion selbst wurde 1983 von Kary Mullis erneut erfunden. Seine Absicht war es, ein neuartiges DNA-Syntheseverfahren zu entwickeln, das DNA durch wiederholte Verdopplung in mehreren Zyklen mithilfe eines Enzyms namens DNA-Polymerase künstlich vervielfältigt. Sieben Jahre nachdem er seine Idee veröffentlicht hatte, wurde Mullis hierfür 1993 der Nobelpreis für Chemie verliehen. DNA-Polymerase kommt in allen Lebewesen vor und verdoppelt während der Replikation die DNA vor der Zellteilung. Dazu bindet sie sich an einen einzelnen DNA-Strang und synthetisiert mithilfe eines kurzen komplementären Oligonukleotids (Primer) einen dazu komplementären Strang. Bereits in Mullis’ ursprünglichem PCR-Versuch wurde das Enzym "in vitro" verwendet. Die doppelsträngige DNA wurde zunächst durch Erhitzen auf 96 °C in zwei Einzelstränge getrennt. Bei dieser Temperatur wurde die dabei zunächst verwendete DNA-Polymerase I von "E. coli" zerstört und musste daher nach jedem Erhitzen erneut zugegeben werden. Diese Folge von Arbeitsschritten musste mehrere dutzendmal in Folge wiederholt werden, um eine ausreichende Amplifikation zu erreichen. Mullis’ ursprüngliches Verfahren war daher sehr ineffizient, da es viel Zeit, große Mengen DNA-Polymerase und ständige Aufmerksamkeit erforderte. Eine entscheidende Verbesserung der PCR-Technologie brachte die Verwendung von thermostabilen DNA-Polymerasen, das heißt von Enzymen, die auch bei Temperaturen von annähernd 100 °C ihre Polymerase-Aktivität behalten und nicht denaturieren. Eine der ersten thermostabilen DNA-Polymerasen wurde aus dem in heißen Quellen lebenden thermophilen Bakterium "Thermus aquaticus" gewonnen und "Taq"-Polymerase genannt. Durch die Verwendung thermostabiler DNA-Polymerasen bestand keine Notwendigkeit mehr, ständig neue Polymerase zuzugeben, und der ganze PCR-Prozess konnte erheblich vereinfacht und automatisiert werden. Mullis arbeitete zu dieser Zeit für die kalifornische Biotech-Firma "Cetus" und wurde mit einer Prämie von 10.000 US-Dollar abgefunden. Jahre später verkaufte Cetus dann die Rechte an der PCR-Methode mitsamt dem Patent für die von ihm verwendete DNA-Polymerase "Taq" an die Firma Roche für 300 Millionen Dollar. Das Enzym Taq wurde jedoch bereits 1980 von dem russischen Forscher Kaledin beschrieben. Aus diesem Grund wurde nach jahrelangem Rechtsstreit der Firma Roche das Patent für Taq inzwischen entzogen. Die US-Patente für die PCR-Technologie selbst liefen im März 2005 aus. Die "Taq"-Polymerase erfährt nach wie vor breite Anwendung. Ihr Nachteil liegt darin, dass sie manchmal Fehler beim Kopieren der DNA produziert, was zu Mutationen in der DNA-Sequenz führt. Polymerasen wie "Pwo" und "Pfu", die aus Archaea gewonnen werden, haben einen Korrektur-Mechanismus, der die Anzahl der Mutationen in der kopierten DNA erheblich senkt. Zwei Thermocycler mit einem gemeinsamen Bedienelement Geöffneter Thermocycler, Heizblock mit 8 PCR-Reaktionsgefäßen PCR in der Praxis. PCR wird eingesetzt, um einen kurzen, genau definierten Teil eines DNA-Strangs zu vervielfältigen (liegt genügend Ausgangsmaterial vor, so wird zur Erstellung eines genetischen Fingerabdrucks auch die RFLP-Methode bzw. deren Nachfolger angewendet). Der zu vervielfältigende Bereich der DNA wird auch als "Amplicon" bezeichnet, die bei der PCR entstehenden Produkte als "Amplifikate". Dabei kann es sich um ein Gen oder auch nur um einen Teil eines Gens handeln oder auch um nichtcodierende DNA-Sequenzen. Im Gegensatz zu lebenden Organismen kann der PCR-Prozess nur relativ kurze DNA-Abschnitte kopieren. Bei einer Standard-PCR können dies bis zu etwa dreitausend Basenpaare (3 kbp) lange DNA-Fragmente sein. Mithilfe bestimmter Polymerasen-Gemische, weiterer Additive in der PCR und optimalen Bedingungen können sogar Fragmente mit einer Länge von über 20–40 kbp vervielfältigt werden, was immer noch sehr viel kürzer ist als die chromosomale DNA einer eukaryotischen Zelle. Eine menschliche Zelle enthält beispielsweise etwa drei Milliarden Basenpaare pro haploidem Genom. Die Polymerase-Kettenreaktion findet in einem sogenannten Thermocycler statt. Diese Maschine erhitzt und kühlt die in ihr befindlichen Reaktionsgefäße präzise auf die Temperatur, die für den jeweiligen Schritt benötigt wird. Um Verdunstung zu verhindern, wird ein dicht schließendes Reaktionsgefäß oder eine Ölschicht auf dem Reaktionsgemisch verwendet. Etwaige Kondensatbildung im Deckel des Gefäßes wird durch einen beheizbaren Gerätedeckel (über 100 °C) verhindert. Soll die PCR vor allem als quantitativer Nachweis dienen, empfiehlt sich die sog. Real Time PCR. Die Verwendung einer Pyrophosphatase kann unter Umständen die Effektivität der PCR steigern. Das Enzym katalysiert die Hydrolyse des von den Nukleosidtriphosphaten abgespaltenen Pyrophosphats zu Orthophosphat. Pyrophosphat kann als Inhibitor bei der PCR wirken. PCR-Platte für 96 Ansätze mit Gummiabdeckung Beispiel. Ein 200-µl-Reaktionsgefäß mit den 50 µl Gemisch wird in den Thermocycler gestellt. Als Reaktionsgefäß können, je nach Probeneinsatz bzw. Heizblock des Thermocyclers, neben einzelnen 200-µl-Reaktionsgefäßen auch acht zusammenhängende 200-µl-Reaktionsgefäße oder PCR-Platten für bis zu 96 Ansätze mit 200 µl oder auch 384 Ansätze zu je 50 µl verwendet werden. Die Platten werden entweder mit einer Gummiabdeckung oder einer selbstklebenden Klarsichtfolie verschlossen. Die Thermocycler der ersten Generation besaßen noch keinen beheizten Deckel, weshalb bei diesen Geräten zur Vermeidung einer Verdampfung von Wasser während der PCR die Reaktionsansätze mit Mineralöl überschichtet wurden. Theoretischer Ablauf. Im ersten Zyklus entstehen pro DNA-Ausgangsdoppelstrang 2 DNA-Stränge, welche im Bereich der Zielsequenz doppelsträngig sind. Nach dem Schmelzen am Anfang des zweiten Zyklus stehen dadurch die beiden ursprünglichen DNA-Einzelstränge und zwei am 3’-Ende überlange Einzelstränge zur Verfügung. Dies ist damit zu erklären, dass lediglich ein Startpunkt (Primer), nicht aber ein Endpunkt exakt festgelegt ist. Der Abbruch der Strangsynthese erfolgt dabei spätestens durch die Strangtrennung im folgenden Denaturierungsschritt. Im zweiten Zyklus stehen die eingesetzte DNA sowie die gerade gebildeten DNA-Stränge zur Verfügung. An Ersterer erfolgt derselbe Prozess wie im ersten Zyklus. An die neu gebildeten DNA-Einzelstränge, welche an 5’ bereits dort enden wo sie sollen, lagern sich nun wieder Primer in der 3’-Region an. Die nun gebildeten Stränge haben auch keinen 3’-Überhang, da das Template am 5’ Ende bereits richtig endet (durch erste Syntheserunde und ersten Primer). Am Ende des zweiten Zyklus stehen damit erstmals unmittelbar Produkte der gewünschten Länge zur Verfügung. In den folgenden Zyklen vermehren sich die gewünschten Produkte exponentiell (da sie selbst als Matrize für weitere Strangsynthesen dienen), während die ungewünschten langen Produkte (siehe Produkte des ersten Zyklus) nur linear ansteigen (nur eingesetzte DNA dient als Matrix). Dies ist der theoretische Idealfall, in der Praxis fallen zudem in geringem Maße auch kürzere Fragmente als die gewünschte Ziel-DNA an. Diese kurzen Fragmente häufen sich vor allem in den späten Zyklen an, wodurch meist nur etwa 30 Zyklen durchlaufen werden, um insgesamt vorwiegend DNA der gewünschten Länge und Sequenz zu erhalten. Das PCR-Produkt kann durch Agarose-Gelelektrophorese anhand seiner Größe identifiziert werden. (Die Agarose-Gelelektrophorese ist ein Verfahren, bei der DNA in ein Agarose-Gel eingebracht wird und anschließend eine Spannung angelegt wird. Dann bewegen sich die kürzeren DNA-Stränge schneller als die längeren auf den Pluspol zu.) Die Länge des PCR-Produkts kann durch einen Vergleich mit einer DNA-Leiter, die DNA-Fragmente bekannter Größe enthält und parallel zur Probe im Gel mitläuft, bestimmt werden. PCR-Optimierung. Verschiedene Methoden können eingesetzt werden, um die Synthesemengen zu steigern oder Inhibitoren der PCR zu beseitigen. PCR-Techniken. Die klassische PCR ist durch zahlreiche Variationen erweitert und verbessert worden. Dadurch können verschiedene Aufgaben spezifisch angegangen werden. Alternativ zur PCR können auch verschiedene Methoden der isothermalen DNA-Amplifikation verwendet werden. Echtzeit-PCR (real-time PCR) bzw. quantitative PCR (qPCR). Im Laborjargon wird fast nur der englische Begriff "real-time PCR" oder "quantitative PCR" verwendet, kurz qPCR oder missverständlich auch rt-PCR, was aber zu Verwechslungen mit dem länger etablierten Begriff RT-PCR mit vorgeschalteter reverser Transkription (s. nächster Abschnitt) führt. Bei der real-time PCR wird der Reaktion ein zunächst inaktiver Fluoreszenzfarbstoff beigemischt, der durch die DNA-Produktion aktiv wird. (Zum Beispiel, weil er sich in die DNA einlagert (wie SYBR Green) oder weil ein "Quencher", der die Fluoreszenz zunächst löscht, bei der Amplifikation entfernt wird.) Bei jedem Zyklus – also „in Echtzeit” - wird die Fluoreszenz gemessen, woraus man auf die Menge der amplifizierten DNA schließen kann. Abhängig von der ursprünglichen Anzahl an Kopien wird ein gewisser Schwellenwert des Fluoreszenzsignals früher oder später (oder gar nicht) erreicht. Wegen dieser Zusatzinformation hat die real-time PCR den Beinamen „quantitative PCR (qPCR)“. Z. B. durch die Verwendung von Standardkurven erlaubt diese Technik auch eine absolute Quantifizierung (als Kopienzahl pro Reaktion). Obwohl Geräte und farbstoffmarkierte Reagenzien teurer sind als bei der „klassischen” Endpunkt-PCR, ist ein Sichtbarmachen der Amplifikate auf einem Gel nicht unbedingt nötig, so dass sich Arbeit und vor allem Zeit sparen lassen. Die Technik der qPCR lässt sich auch mit einer vorgeschalteten reversen Transkription (RT) kombinieren, z. B. um RNA-Viren nachzuweisen, dann spricht man von qRT-PCR. Reverse Transkription und PCR (RT-PCR). Die Amplifikation von RNA (z. B. eines Transkriptoms oder eines RNA-Virus) erfolgt in einer Reverse-Transkriptions-PCR (engl.) über eine reverse Transkription der RNA in DNA mit einer reversen Transkriptase. In Kombination mit einer Konzentrationsbestimmung in Echtzeit (qPCR) bezeichnet man die Reaktion als qRT-PCR. Multiplex-PCR. Bei der Multiplex-PCR verwendet man mehr als ein Primerpaar für die Amplifikation eines bestimmten Gens oder auch mehrerer Gene auf einmal. Die Multiplex-PCR spielt u. a. in der Diagnostik von Krankheiten eine Rolle, beispielsweise beim Lesch-Nyhan-Syndrom. Ursache für das Lesch-Nyhan-Syndrom ist eine Mutation des "HPRT1"-Gens, das für eine Hypoxanthin-Guanin-Phosphoribosyltransferase codiert. Das Gen hat neun Exons, in Patienten mit dem Lesch-Nyhan-Syndrom kann eines dieser Exons fehlen. Durch eine Multiplex-PCR kann dies leicht entdeckt werden. Immunoquantitative Echtzeit-PCR (irt-PCR). Manchmal müssen selbst geringe Mengen an Pathogenen wirksam erkannt werden, da sie auch einzeln für den Menschen gefährlich werden können. Die Detektionsschwelle vieler immunologischer Methoden (z. B. ELISA) kann für diese Fälle unzureichend sein, so dass man hier auf die immunoquantitative Echtzeit-PCR ("immunoquantitative real-time PCR") zurückgreift. Hierbei kombiniert man die hohe Spezifität von Antikörpern mit einer qPCR. Wie beim klassischen ELISA nutzt man zwei Antikörper. Der erste wird an einer Mikrotiterplatte fixiert und erkennt das gesuchte Antigen. Daran bindet dann der zweite Antikörper. Im herkömmlichen ELISA wird der immunologische Komplex aus erstem Antikörper, Antigen und zweitem Antikörper durch eine chemische Farbreaktion sichtbar gemacht, dagegen ist in der irt-PCR der zweite Antikörper über einen Streptavidin-Biotin-Komplex mit einer 246bp-langen doppelsträngigen DNA verbunden. Wenn der immunologische Komplex entsteht, kann diese Marker-DNA durch qPCR amplifiziert, detektiert und quantifiziert werden. Diese Methode ist etwa 1000-mal sensitiver als ein klassischer ELISA. "Nested"-PCR. Die "nested" (verschachtelte bzw. geschachtelte) PCR eignet sich sehr gut, wenn nur sehr geringe Mengen der zu amplifizierenden DNA relativ zur Gesamtprobenmenge an DNA vorhanden sind. Hierbei werden zwei PCR hintereinander ausgeführt. Durch die erste PCR wird – neben unerwünschten Sequenzbereichen infolge unspezifischer Bindung der Primer – der gewünschte Abschnitt der DNA (Amplikon) erzeugt. Letztere wird für eine zweite PCR als Matrize verwendet. Durch Primer, die an Bereichen innerhalb der ersten Matrize binden ("downstream" der ersten Primer), wird der gewünschte Sequenzbereich mit sehr hoher Spezifität generiert. Da auch die DNA-Region der Wahl zum zweiten Mal amplifiziert wurde, entsteht ausreichend DNA für weiteres Prozedere. Anwendung findet die "nested"-PCR beispielsweise in der Gen-Diagnostik, in der Forensik (bei sehr wenig verwertbaren Spuren wie Haaren oder Bluttropfen wie im Kriminalfall JonBenét Ramsey) oder bei phylogenetischen Untersuchungen. Auch Mikrochimärismus bei Leukozyten nach einer Bluttransfusion kann mittels "nested"-PCR nachgewiesen werden. "Touchdown"-PCR. Die "Touchdown"-PCR vermeidet eine Amplifizierung unspezifischer DNA-Sequenzen. In den ersten Synthese-Zyklen wird die Annealing-Temperatur nur knapp unterhalb der Denaturierungstemperatur gewählt. Damit ist die Primerbindung und somit auch das Amplifikat höchst spezifisch. In den weiteren Zyklen wird die Annealing-Temperatur herabgesetzt. Die Primer können jetzt zwar unspezifische Bindungen eingehen, allerdings verhindern die spezifischen Replikate der frühen Reaktion eine übermäßige Amplifikation der unspezifischen Sequenzen. Ein weiterer Vorteil ist eine enorme Steigerung der Amplifikatmenge. Diese abgewandelte PCR erlaubt somit eine starke und sehr spezifische DNA-Amplifikation. Digital PCR. Bei der "digital PCR" (dPCR) wird die DNA verdünnt und auf eine große Anzahl an Femtoliter-Reaktionsgefäßen verteilt. Pro Reaktionsgefäß entsteht entweder DNA oder nicht (digital). Durch Auszählen einer großen Anzahl an Reaktionsgefäßen kann der Anteil erfolgter Reaktionen zur Mengenbestimmung verwendet werden. PCR-Anwendungsgebiete. Die PCR kann für eine Vielzahl von Experimenten und Analysen eingesetzt werden, einige Beispiele werden weiter unten vorgestellt. Genetischer Fingerabdruck. Der genetische Fingerabdruck wird in der Forensischen Genetik zur Identifizierung einer Person eingesetzt, indem ihre DNA mit einer vorhandenen Probe verglichen wird. Beispielsweise kann eine Blutprobe von einem Tatort mit dem Blut eines Verdächtigen verglichen werden. Die Probe kann minimal sein, das heißt, eine einzige Zelle (nur weiße Blutzellen kommen infrage, da in roten kein Kern ist) genügt. An Tatorten findet man meistens Blut, Sperma, Speichel, Haut, Haare oder ähnliche Zellen (Speichel und Haare enthalten zwar keine Zellkerne, jedoch sind im Speichel meist Zellreste zu finden, an Haaren oft die Haarwurzeln). Theoretisch genügt ein einziger Strang. Zuerst spaltet man die DNA-Probe in Fragmente auf, die dann mittels PCR vervielfältigt werden. Die vervielfältigten Fragmente werden anschließend durch Gelelektrophorese getrennt. Da diese Fragmente von polymorphen Bereichen (Polymorphismen) vervielfältigt werden, welche hochvariabel sind, ergibt sich bei jeder Person ein einzigartiges Muster und man spricht vom DNA-Fingerabdruck. Polymorphismen liegen im nicht-codierenden Bereich der DNA (junk DNA), sie spiegeln also keine Gene wider. Deshalb lässt sich anhand des genetischen Fingerabdrucks keine Disposition feststellen. Vaterschaftstest. Elektrophorese von PCR vervielfältigter DNA-Fragmente. (1) Vater. (2) Kind. (3) Mutter. Das Kind hat Teile der Fingerabdrücke der beiden Elternteile geerbt wodurch es über einen eigenen, einzigartigen Fingerabdruck verfügt. Obwohl diese erzeugten „Fingerabdrücke“ einzigartig sind (bei eineiigen Zwillingen sind sie nahezu identisch; Unterschiede können hier nur mit zusätzlichem Aufwand nachgewiesen werden), können genetische Beziehungen, zum Beispiel zwischen Eltern und Kindern oder zwischen Geschwistern, durch zwei oder mehr genetische Fingerabdrücke bestimmt werden, was bei einem Vaterschaftstests zum Einsatz kommt (siehe Abbildung). Eine Abwandlung dieser Technik wird auch zur Bestimmung evolutionärer Beziehungen zwischen Organismen angewandt. Erkennung von Krankheiten. Die Erkennung von Erbkrankheiten in einem vorliegenden Genom ist ein langwieriger und komplizierter Vorgang, der durch den Einsatz von PCR bedeutend verkürzt werden kann. Jedes Gen, das infrage kommt, kann durch PCR mit den entsprechenden Primern amplifiziert (= vervielfältigt) und anschließend sequenziert werden (DNA sequenzieren heißt, die Sequenz der Nukleotide (oder Basen) der DNA zu bestimmen), um Mutationen aufzuspüren. Virale Erkrankungen können ebenfalls durch PCR erkannt werden, indem man die Virus-DNA vervielfältigt bzw. bei RNA-Viren diese RNA erst in DNA umschreibt und dann mittels PCR vervielfältigt (die RT-PCR). Diese Analyse kann sofort nach der Infektion erfolgen, oft Tage oder Wochen vor dem Auftreten der Symptome. Erfolgt die Diagnose so früh, erleichtert das den Medizinern die Behandlung erheblich. Darüber hinaus wird die quantitative PCR auch für die Diagnostik verwendet, z.B. um die genaue Viruslast bei einer bekannten HIV-Infektion zu bestimmen, um die Entwicklung des Therapieerfolgs nachzuvollziehen. Die PCR kann auch zu Reihenuntersuchungen eingesetzt werden. So wird sie z. B. von Blutspendediensten zur Routineuntersuchung von Blutkonserven eingesetzt. Durch die frühestmögliche Entdeckung einer gefährlichen Infektionskrankheit beim Spender (z. B. HIV, Hepatitis B) kann das sogenannte diagnostische Fenster nahezu geschlossen werden. Durch die Empfindlichkeit der PCR-Tests ist es möglich, Proben in sogenannten Pools (z. B. 96 Einzelproben) zusammenzufassen. Wird ein Pool positiv getestet, wird seine Größe solange verkleinert (meistens halbiert), bis die verursachende Probe gefunden ist. Klonierung von Genen. Das Klonieren eines Gens – nicht zu verwechseln mit dem Klonen eines ganzen Organismus – ist ein Vorgang, bei dem ein Gen aus einem Organismus isoliert und anschließend in einen anderen eingepflanzt wird. PCR wird oft benutzt, um das Gen zu vervielfältigen, das dann in einen Vektor (ein Vektor ist ein Mittel, mit dem ein Gen in einen Organismus verpflanzt werden kann), beispielsweise ein Plasmid (ein ringförmiges DNA-Molekül), eingefügt wird (Abb. 4). Die DNA kann anschließend in einen anderen Organismus eingesetzt werden, in dem das Gen oder sein Produkt besser untersucht werden kann. Das Exprimieren eines klonierten Gens kann auch zur massenhaften Herstellung nutzbarer Proteine wie z. B. Arzneimittel dienen. Mutagenese. Mutagenese ist eine Möglichkeit, die Sequenz der Nukleotide (Basen) der DNA zu verändern. Es gibt Situationen, in denen man mutierte (veränderte) Kopien eines bestimmten DNA-Strangs benötigt, um die Funktion eines Gens zu bestimmen. Mutationen können in kopierte DNA-Sequenzen auf zwei grundsätzlich verschiedene Arten während des PCR-Prozesses eingefügt werden. Gezielte Mutagenese (zum Beispiel „site-directed mutagenesis“) erlaubt es dem Forscher, an spezifischen Stellen auf dem DNA-Strang Mutationen zu erzeugen. Meist wird dafür die gewünschte Mutation in die Primer integriert, die für die PCR verwendet werden. Bei der "gezielten bzw. stellenspezifischen Mutagenese" ist mindestens einer der Primer nicht 100-prozentig identisch mit der DNA, an die er sich anlagert. Während der Amplifikation wird so eine Mutation in das DNA-Fragment eingeführt. Zufällige Mutagenese („random mutagenesis“) beruht hingegen auf der Verwendung von fehlerträchtigen Polymerasen (bzw. Polymerasen ohne Mechanismus zur Fehlerkorrektur) während des PCR-Prozess. Bei der zufälligen Mutagenese können Ort und Art der Mutationen nicht beeinflusst werden und müssen erst durch eine Sequenzierung identifiziert werden. Eine Anwendung der zufälligen oder gezielten Mutagenese ist die Analyse der Struktur-Funktions-Beziehungen eines Proteins. Nach der Veränderung der DNA-Sequenz kann man das entstandene Protein mit dem Original vergleichen und die Funktion aller Teile des Proteins bestimmen. Weiterhin können damit auch Funktionen der Nukleinsäure selbst (mRNA-Transport, mRNA-Lokalisation etc.) untersucht werden. Analyse alter (fossiler) DNA. Da die PCR aus nur geringen DNA-Probemengen eine beliebige Menge von Material erzeugen kann, ist sie besonders für die sehr alte aDNA geeignet, die in der Natur nur noch in für Untersuchungen nicht mehr ausreichenden Mengen vorkommt. Dabei beruhen nahezu alle wissenschaftlichen Erkenntnisgewinne in Bezug auf die aDNA und somit viele seit langem ausgestorbener Arten auf der Methode der PCR. Geschlechtsbestimmung. Die PCR kann eingesetzt werden, um Material für einen Nachweis der geschlechtsspezifischen Chromosomen zu gewinnen. Das ist bei den klassischen Haussäugetieren nicht üblich, außer eventuell bei Zwittern. Bei manchen Tieren im Zoo, besonders aber bei Vögeln, Reptilien oder Fischen, ist es die schonendste und sicherste Variante. Im Heimtierbereich ist diese PCR-Methode bei Papageien üblich. Deutschland (Begriffsklärung). Deutschland ist ein mitteleuropäischer Staat. Datenkompression. Die Datenkompression oder Datenkomprimierung ist ein Vorgang, bei dem die Menge digitaler Daten reduziert wird. Dadurch sinkt der benötigte Speicherplatz und die Übertragungszeit der Daten verkürzt sich. In der Nachrichtentechnik wird die Komprimierung von Nachrichten aus einer Quelle durch einen Sender als Quellenkodierung bezeichnet. Grundsätzlich wird bei der Datenkompression versucht, überflüssige Informationen zu entfernen. Dazu werden die Daten in eine Darstellung überführt, mit der sich alle – oder zumindest die meisten – Informationen in kürzerer Form darstellen lassen. Diesen Vorgang übernimmt ein Kodierer und man bezeichnet den Vorgang als "Kompression" oder "Komprimierung". Die Umkehrung bezeichnet man als "Dekompression" oder "Dekomprimierung". Man spricht von "verlustfreier Kompression, verlustfreier Kodierung" oder "Redundanzreduktion," wenn aus den komprimierten Daten wieder alle Originaldaten gewonnen werden können. Das ist beispielsweise bei der Kompression ausführbarer Programmdateien notwendig. Bei der "verlustbehafteten Kompression" bzw. "Irrelevanzreduktion" können die Originaldaten nicht mehr aus den komprimierten Daten zurückgewonnen werden, das heißt, ein Teil der Information geht verloren. Solche Verfahren werden häufig zur Bild- oder Videokompression und Audiodatenkompression eingesetzt. Allgemein. Datenkompression findet heutzutage bei jeglicher Übertragung digitaler Daten statt. Sie hilft, Ressourcen bei der Übertragung oder Speicherung von Daten einzusparen, indem sie in eine Form verwandelt werden, die ̣– abhängig von der Anwendung – möglichst minimal ist. Dabei können nur Daten komprimiert werden, die in irgendeiner Form redundant sind. Ist keine Redundanz vorhanden - zum Beispiel bei völlig zufälligen Daten - ist Kompression wegen der Kolmogorov-Komplexität prinzipiell unmöglich. Ebenso verbietet das Taubenschlagprinzip, dass jede beliebige Datei komprimiert werden kann. Hingegen ist verlustbehaftete Kompression immer möglich, da der Algorithmus entscheidet, welche Daten redundant sind und sodann verworfen werden. Mitunter werden die Daten vor der Kompression noch in eine andere Darstellung transformiert. Das ermöglicht einigen Verfahren die Daten anschließend effizienter zu komprimieren. Dieser Vorverarbeitungsschritt wird "Präkodierung" genannt. Ein Beispiel dafür ist die Burrows-Wheeler-Transformation und Move to front bei bzip2. Das Fachgebiet der Datenkompression überschneidet sich zum Teil mit Informationstheorie und künstlicher Intelligenz, und im Bereich der verlustbehafteten Datenkompression auch mit Wahrnehmungspsychologie (s. weiter unten). Informationstheorie ist insofern betroffen, weil die Dateigrösse eines bestmöglich komprimierten Datensatzes direkt den Informationsgehalt dieses Datensatzes angibt. Kann ein Kompressionsalgorithmus lernen, unter welchen Umständen auf die Zeichenkette "ABC" ein "D" folgt, muss das "D" in der komprimierten Datei gar nicht gespeichert werden – bei der Wiederherstellung der ursprünglichen Datei weiß der Algorithmus, an welchen Stellen ein "D" einzufügen ist. Obwohl noch kein derartiger Kompressionsalgorithmus in der Praxis verwendet wird, sind diverse Kompressionsverfahren, die neuronale Netzwerke und maschinelles Lernen verwenden, in Entwicklung. Grenzen der Komprimierbarkeit. Verlustbehaftete Kompression ist, wie oben beschrieben, stets möglich - Daten werden nämlich für redundant erklärt, und weggelassen. "Das Haus ist groß" könnte man zu "Das Haus ist gr" verwandeln, welches vom Leser trotzdem verstanden werden kann: Das Haus ist beispielsweise entweder grau, grün oder groß. Bei Bildern erreicht man aber irgendwann eine Fläche mit einheitlicher Farbe, und eine Audio-Aufnahme würde nach größtmöglicher Kompression nur noch einen sauberen Sinuston aufweisen. Bei verlustfreier Kompression gelten Limiten, da die komprimierte Datei eindeutig in die Originaldatei transformiert werden muss. Die Kolmogorow-Komplexität befasst sich mit der kleinstmöglichen "Anleitung", die notwendig ist, um aus den komprimierten Daten die Originaldaten wieder herzustellen. So zum Beispiel lässt sich die Zahl "100000000000000000000000000000000000" sehr einfach komprimieren: "Schreibe 1 und dann 35 Nullen", was eine Kompression von 36 auf 29 Zeichen darstellt. Ebenfalls lassen sich beliebig viele Nachkommastellen der Kreiszahl Pi mit ihrer Berechnungsvorschrift komprimieren - wobei der Kompressionsalgorithmus dann erkennen müsste, dass es sich um die Zahl Pi handelt. Zu beachten ist, dass bei komprimierten Dateien der Wiederherstellungs-Algorithmus ebenfalls zur Dateigröße hinzugerechnet werden müsste, da jede komprimierte Datei ohne einen solchen Algorithmus wertlos ist. So ließe sich die obige Zahl auch mit "10^35" oder "1e35" komprimieren, wobei dann der Leser von der Wiederherstellungsmethode, nämlich der Potenzschreibweise, Kenntnis haben muss. Weist eine Zeichenkette aber keinerlei erkennbare Struktur auf, dann ist eine Kompression nicht möglich – die Anleitung müsste die unveränderten Originaldaten beinhalten. Ein weiterer Grund für die Unkomprimierbarkeit mancher Daten ist das sogenannte Taubenschlagprinzip: Gibt es weniger Nistplätze für Tauben als es Tauben im Taubenschlag gibt, müssen sich zwangsläufig zwei oder mehr Tauben einen Nistplatz teilen. Auf einem n bit großen Speicherplatz kann man eine von 2n möglichen Informationen abspeichern, und auf einem Speicherplatz, der um ein bit kleiner ist, kann man folglich nur eine von halb so viel möglichen Informationen Speichern: 16 bits → 216 = 65536 mögliche Informationen, 15 bits → 215 = 32768 mögliche Informationen. Unter der Annahme, man könne jede mögliche Datei um ein bit verkleinern, würde dies nach dem Taubenschlagprinzip bedeuten, dass jeder Speicherplatz gleichzeitig zwei verschiedene komprimierte Dateien enthalten müsste. Da aber in der verlustfreien Kompression eine umkehrbar eindeutige Zuordnung zwischen komprimierter und unkomprimierter Datei bestehen muss, verbietet sich dies. Würde das Taubenschlagprinzip nicht gelten und gäbe es einen Algorithmus, der jede beliebige Datei um mindestens ein bit komprimieren kann, könnte dieser rekursiv auf die jeweils komprimierte Datei angewendet werden – die gesamte Wikipedia ließe sich damit auf einige wenige bits, die man problemlos auswendig lernen kann, reduzieren. In der Praxis lassen sich nur dann bereits komprimierte Daten nochmals komprimieren, wenn im vorherigen Durchlauf ein ineffizienter Algorithmus verwendet wurde, welcher die Redundanz noch nicht vollständig entfernt hatte (z.B. eine sehr große Datei voller Nullen wird zwei Mal mit gzip komprimiert). Aus diesen beiden Tatsachen ergibt sich die Schlussfolgerung, dass rein zufällige Daten unkomprimierbar sind (da sie keine Struktur aufweisen), und dass zwar viele, aber nicht alle, Daten komprimiert werden können. Zwei Preisgelder, 100 Dollar für die erfolgreiche Kompression von einer Million zufälliger Ziffern und 5000 Dollar für die erfolgreiche Kompression einer Datei beliebiger Länge, die vom Preisstifter, Mike Goldman, erzeugt wird, wurden bis heute nicht ausbezahlt. Verlustfreie Kompression. Bei der verlustfreien Kompression können die Originaldaten exakt aus den komprimierten Daten wiederhergestellt werden. Dabei geht keinerlei Information verloren. Im Wesentlichen nutzen verlustfreie Kompressionsverfahren die Redundanz von Daten aus, man spricht auch von Redundanzreduktion. Die theoretische Grundlage bildet die Informationstheorie (verwandt mit der algorithmischen Informationstheorie). Sie gibt durch den Informationsgehalt eine minimale Anzahl an Bits vor, die zur Kodierung eines Symbols benötigt werden. Verlustlose Kompressionsverfahren versuchen nun Nachrichten so zu kodieren, dass sie sich ihrer Entropie möglichst gut annähern. Text. Texte, sofern sie aus Buchstaben bestehen oder als Zeichenketten abgespeichert sind, und somit nicht als Bild (Rastergrafik, typischerweise eine Bilddatei nach dem Einscannen eines Buches), belegen vergleichsweise wenig Speicherplatz. Dieser lässt sich durch ein Verfahren zur verlustfreien Kompression auf 20 % bis 10 % des ursprünglich von ihr benötigten Platzes reduzieren. Ausgangstext: AUCH EIN KLEINER BEITRAG IST EIN BEITRAG Kodiertext: AUCH EIN KLEINER BEITRAG IST -4 -3 Hier wurde erkannt, dass die Wörter EIN und BEITRAG zweimal auftauchen, und dadurch angegeben, dass diese mit den gerade zurückliegenden übereinstimmen. Bei genauerer Betrachtung könnte dann auch das EIN in KLEINER entsprechend kodiert werden. Wörterbuchmethode. Verwandt ist die tokenbasierte Kompression. Häufig wiederkehrende Schlüsselwörter werden durch Abkürzungen, "Tokens", ersetzt. Die Zuordnung von den Tokens zu den eigentlichen Wörtern muss in der komprimierten Datei ersichtlich sein. Run length encoding (RLE). Ausgangstext: In den letzten Tagen betrug die Temperatur 10 Grad, 10 Grad, 10 Grad, und dann 14 Grad. Kodiertext: In den letzten Tagen betrug die Temperatur/3/ 10 Grad,/ und dann 14 Grad. Die Burrows-Wheeler-Transformation ist eine umkehrbare Operation, welche einen gegebenen Text so umformt, dass dieselben Buchstaben möglichst oft gleich hintereinander stehen. So können die Daten dann mit RLE komprimiert werden. Entropiekodierung. Der bekannte Morse-Code funktioniert nach einem ähnlichen Prinzip, und dient als gutes Beispiel: Häufige Buchstaben der englischen Sprache (z.B. E =.) werden als kurze Codes abgespeichert, seltene als lange Codes (z.B. Q = _ _. _). WENN HINTER FLIEGEN FLIEGEN FLIEGEN, FLIEGEN FLIEGEN FLIEGEN NACH. Der mit diesem Wörterbuch komprimierte Text lautet 10 100 1 1 1 101 1 1 1 11 und benötigt in binärer Kodierung 50 bit, denn das Ergebnis enthält drei verschiedene Zeichen (0, 1 und das Trennzeichen " "), also 2 bit pro Zeichen. Ein Huffman-Code, also folgendes Wörterbuch, In beiden Fällen muss aber auch das Wörterbuch in der komprimierten Datei abgespeichert werden – sonst lässt sich der Ausgangstext nicht rekonstruieren. Programmdateien. Bei Programmdateien ist es kritisch, dass sie nach erfolgter Dekomprimierung wieder im ursprünglichen Zustand sind. Andernfalls wäre eine fehlerfreie bzw. korrekte Ausführung unwahrscheinlich. Komprimierte Programmdateien sind meist selbst wieder ausführbare Dateien. Sie bestehen aus einer Routine, die den Programmcode wieder dekomprimiert und anschließend ausführt. Dadurch ist die Kompression des Programms für den Benutzer vollkommen transparent. Anwendungsbeispiele sind UPX und Upack. Verlustbehaftete Kompression. Bei der verlustbehafteten Kompression werden irrelevante Informationen entfernt, man spricht auch von Irrelevanzreduktion. Dabei geht ein Teil der Information aus den Originaldaten verloren, sodass aus den komprimierten Daten nicht mehr das Original rekonstruiert werden kann. Es wird ein Modell benötigt, das entscheidet, welcher Anteil der Information für den Empfänger entbehrlich ist. Verlustbehaftete Kompression findet meist in der Bild-, Video- und Audio-Übertragung Anwendung. Als Modell wird dort die menschliche Wahrnehmung zugrunde gelegt. Ein populäres Beispiel ist das Audio-Format MP3, das Frequenzmuster entfernt, die der Mensch schlecht oder gar nicht hört. Die theoretische Grundlage bildet die Rate-Distortion-Theorie. Sie beschreibt, welche Datenübertragungsrate mindestens nötig ist, um Informationen mit einer bestimmten Güte zu übertragen. Bilder, Videos und Tonaufnahmen. a> ab. Oben Originalgröße, unten Ausschnittsvergrößerung Vergleich der Kompressionsartefakte im JPEG-Format mit dem verlustfreien PNG-Format Ton, Bild und Film sind Einsatzgebiete verlustbehafteter Kompression. Anders wären die oftmals enormen Datenmengen sehr schwer zu handhaben. Bereits die Aufnahmegeräte begrenzen das Datenvolumen. Die Reduktion der gespeicherten Daten orientiert sich an den physiologischen Wahrnehmungseigenschaften des Menschen. Die Kompression durch Algorithmen bedient sich dabei typischerweise der Wandlung von Signalverläufen von Abtastsignalen in eine Frequenzdarstellung. In der akustischen Wahrnehmung des Menschen werden Frequenzen oberhalb von ca. 20 kHz nicht mehr wahrgenommen und können bereits im Aufnahmesystem beschnitten werden. Ebenso werden existierende, leise Nebentöne in einem Klanggemisch nur schwer wahrgenommen, wenn zur exakt gleichen Zeit sehr laute Töne auftreten, so dass die unhörbaren Frequenzanteile vom Daten-Kompressions-System entfernt werden können (siehe Psychoakustik), ohne dass dies als störend vom Hörer wahrgenommen würde. Der Mensch kann bei einer Reduktion digitalisierter, akustischer Ereignisse (Musik, Sprache, Geräusche) auf Werte um etwa 192 kbit/s (wie bei vielen Internet-Downloads) kaum oder gar keine Qualitätsunterschiede zum unkomprimierten Ausgangsmaterial (so bei einer CD) feststellen. In der optischen Wahrnehmung des Menschen werden Farben weniger stark aufgelöst als Helligkeitsänderungen, daraus leitet sich die schon beim analogen Farbfernsehen bekannte YUV-422 Reduzierung ab. Kanten sind dagegen bedeutsamer, und es existiert eine biologische Kontrastanhebung (Machsche Streifen). Mit moderater Tiefpassfilterung zur Farbreduktion, zum Beispiel durch den auf DCT-Transformation basierenden JPEG-Algorithmus oder den neueren auf Wavelet-Transformation basierenden JPEG2000-Algorithmus lässt sich die Datenmenge auf 10 % oder weniger der ursprünglichen Datenmenge ohne sichtbare Qualitätsverringerungen reduzieren. Bewegtbilder (Filme) bestehen aus aufeinanderfolgenden Phasen-Bildern. Die heutzutage erreichbaren Kompressionsraten sind dabei nur erreichbar, wenn man bei der Kodierung die Ähnlichkeit von benachbarten Bildern (engl. Frames) berücksichtigt. Dazu wird das Bild in kleinere Kästchen (typische Größen liegen zwischen 4×4 und 16×16 Pixel) zerlegt und es werden ähnliche Kästchen in schon übertragenen Bildern gesucht und als Vorlage verwendet. Die Einsparung ergibt sich daraus, dass statt des gesamten Bildinhalts nur noch die Unterschiede der an sich ähnlichen Kästchen übertragen werden müssen. Kompressionsartefakte. Als Kompressionsartefakte bezeichnet man Signalstörungen, die durch die verlustbehaftete Kompression verursacht werden. Anwendung in der Nachrichtentechnik. a> und Leitungskodierung zur Übertragung eines Signals Bei der Datenübertragung wird häufig die zu übertragende Datenmenge durch Kompression reduziert. In so einem Fall spricht man dann auch von "Quellenkodierung". Die Quellenkodierung wird dabei häufig zusammen mit Kanalkodierung und Leitungskodierung verwendet, sollte aber nicht mit diesen verwechselt werden: Während die Quellencodierung überflüssige (redundante) Information einer Datenquelle reduziert, hat die Kanalcodierung die Aufgabe, durch zusätzlich eingebrachte Redundanz Übertragungs- bzw. Speicherfehler im Rahmen der Datenübertragung erkennen und korrigieren zu können. Die Leitungskodierung hingegen nimmt eine spektrale Anpassung des Signals an die Anforderungen des Übertragungskanals vor. Biologie. Sinneswahrnehmungen werden gefiltert, was auch eine Art der Kompression darstellt, genauer eine verlustbehaftete Kompression, da nur aktuell relevante Informationen wahrgenommen werden. Fehlendes wird bei Bedarf unbewusst ersetzt. So sehen menschliche Augen beispielsweise nur in einem kleinen Bereich (Fovea centralis) scharf, außerhalb dieses engen Blickfeldes werden fehlende Informationen durch Muster unbewusst ersetzt. Aber auch beim Hören von Geräuschen werden schwache oder fehlende Signale ersetzt, was sich auch Algorithmen wie MPEG (MP3) oder Vorbis zunutze machen. Deutscher Film. Die deutsche Filmgeschichte ist Teil der internationalen Filmkultur. Sie reicht von technischen Pionierleistungen über die frühen Kinokunstwerke des Stummfilms und neu etablierten Genres bis zu Propagandafilmen, Heimatfilmen, Autorenkino, populären Kassenschlagern und zu europäischen Koproduktionen. Die Herstellung von Fernsehfilmen und Serien, Werbefilmen, Dokumentarfilmen, Trickfilmen und Musikvideos gehört ebenfalls zum Filmschaffen in Deutschland. 1895–1918: Pionierzeit – Vom Kintopp zur Filmindustrie. Die Filmgeschichte beginnt in Deutschland bereits im Geburtsjahr des Films überhaupt: Schon vor der ersten Vorführung der Brüder Lumière am 28. Dezember 1895 in Paris zeigten die Brüder Skladanowsky im Wintergartenpalais zu Berlin am 1. November 1895 kurze Filme auf einem Überblendprojektor. Dessen aufwändige Technik konnte allerdings gegenüber dem praktischeren Gerät der Lumières, das sowohl zur Aufnahme als auch Projektion genutzt werden konnte, nicht bestehen. Weitere bekannte deutsche Filmpioniere waren Guido Seeber und Oskar Messter. Die neuartige Kinematographie war zunächst eine Attraktion für die „höheren Schichten“, die Neuheit nutzte sich allerdings rasch ab – belanglose Kurzfilmchen wurden Jahrmarktsattraktionen für Kleinbürger und Arbeiter. Um das Publikum auch weiterhin fürs Kino zu begeistern, versuchten manche Filmhersteller an die Sensationslust des Publikums zu appellieren. Beispielhaft waren diesbezüglich die Filme von Joseph Delmont, der in Berliner Studios „wilde Raubtiere“ in Szene setzte und damit weltweit Bekanntheit erlangte. Die Ladenbuden, in denen damals Kino veranstaltet wurde, hießen im Volksmund einigermaßen verächtlich „Kintopp“. Dem versuchten künstlerisch interessierte Filmleute mit längeren Spielhandlungen nach literarischen Vorbildern entgegenzuwirken: Nach 1910 entstanden erste künstlerische Filme, beispielsweise "Der Student von Prag" (1913) des Reinhardt-Schauspielers und Regisseurs Paul Wegener. Ein weiterer Pionier des deutschen Films war der vielseitige Ernst Lubitsch. Ebenfalls beeinflusst von Max Reinhardt inszenierte er zuerst zwei- und dreiaktige Filme, nach 1918 aber vor allem präzise inszenierte Kammerspiele. Vor 1914 wurden allerdings auch viele ausländische Filme importiert, besonders dänische und italienische Kunstfilme standen in hohem Kurs, Sprachgrenzen gab es im Stummfilm nicht. Der Wunsch des Publikums nach weiteren Filmen mit ganz bestimmten Darstellern schuf auch in Deutschland das Phänomen des Filmstars, die Schauspielerinnen Henny Porten und die aus Dänemark kommende Asta Nielsen gehörten zu den ersten Stars. Der Wunsch der Zuschauer nach Fortsetzungen bestimmter Filme regte die Produktion von Filmserien (Serials) an, beliebt war vor allem der Detektivfilm – hier begann auch der Regisseur Fritz Lang seine glänzende Karriere. Der Boykott beispielsweise französischer Filme in der Kriegszeit hinterließ eine spürbare Lücke, teilweise mussten Filmvorführungen durch Varieté-Nummern ergänzt oder ersetzt werden. Um 1916 existierten schon 2000 feste Abspielstätten im Deutschen Reich. Bereits 1917 setzte mit der Gründung der Universum Film (UFA) die massive und halbstaatliche Konzentration der deutschen Filmindustrie ein, auch als Reaktion auf die sehr effektive Nutzung des neuen Mediums durch die alliierten Kriegsgegner zu Propagandazwecken. Unter militärischer Ägide entstanden sogenannte „vaterländische Filme“, die in Sachen der Propaganda und der Verfemung des Kriegsgegners entsprechenden Streifen der Alliierten teilweise gleichkamen. Das Publikum kam aber eher wegen der Unterhaltungsfilme in die Kinos, welche daher ebenfalls gefördert wurden. Auf diese Weise wuchs die deutsche Filmindustrie zur größten Europas heran. 1918–1933: Stummfilmklassiker und früher Tonfilm. a> (1919) leitete eine frühe Blütephase des deutschen Films ein. Aus dem Ersten Weltkrieg ging die deutsche Filmwirtschaft gestärkt hervor. Bereits 1919 setzte die deutsche Filmproduktion zu ihrem Höhenflug an. Fünfhundert Filme wurden in diesem Jahr fertig gestellt. Die 3000 deutschen Kinos verzeichneten trotz der herrschenden Inflation und Armut über 350 Millionen Besucher. Aufgrund der schwachen Währung des an Nachkriegsfolgen wie Inflation leidenden Deutschlands florierten auch die Exporte von Filmen. So war auch der größte Teil der deutschen Filmwirtschaft kommerziell ausgerichtet. Unterhaltungs-, Abenteuer- und Kriminalfilme wurden am laufenden Band hergestellt. Filmgeschichtlich relevant ist jedoch nur jener kleine Teil des damaligen Produktionsaufkommens, der auch künstlerischen, ästhetischen und teils auch gesellschaftspolitischen Ansprüchen genügen sollte. Filme, die heute dem Aufklärungsfilm, der Neuen Sachlichkeit, dem Kammerspielfilm und dem expressionistischen Film zugeordnet werden. Publizisten wie Albert Hellwig warnten nachdrücklich vor „Schundfilmen“. Artikel 118 der Weimarer Verfassung wies deshalb eigens darauf hin, dass für Lichtspiele durch Gesetz von der Zensurfreiheit abweichende Bestimmungen getroffen werden könnten. Das Reichslichtspielgesetz von 1920 führte schließlich eine ordentliche Staatszensur ein. Zu kontrollieren war, ob der Film die öffentliche Ordnung und Sicherheit gefährden, das religiöse Empfinden verletzen, verrohend oder entsittlichend wirken, das deutsche Ansehen oder die Beziehungen Deutschlands zu auswärtigen Staaten gefährden könne. Diese Auflagen waren umso bemerkenswerter, als nicht nur die Presse sondern auch das Theater unzensiert blieben. Es gab jedoch auch ansprechende Unterhaltungsfilme. So gelang etwa Ernst Lubitsch mit seiner Großproduktion „Madame Dubarry“ im Jahr 1919 eine präzise Inszenierung mit den aufsteigenden Stars des deutschen Films Pola Negri und Emil Jannings. Auch der phantastische Film verzeichnete in Deutschland mit „Der Golem, wie er in die Welt kam“ (1920) von Paul Wegener einen großen Erfolg. Der international erfolgreichste deutsche Film vor 1920 lief monatelang in ausverkauften Häusern von den Vereinigten Staaten bis nach China. Ab 1919 erlangte der deutsche expressionistische Film Weltruhm. Als Grundstein und Höhepunkt zugleich gilt hier „Das Cabinet des Dr. Caligari“ (1919) von Robert Wiene. In diesem Film fand der expressionistische Kunststil, der seit 1905 durch die Künstlergruppe „Brücke“ propagiert wurde, seinen ersten Niederschlag im Film. Schräge, verbogene und verzerrte Wände, Kulissen und Dekorationsobjekte machten den Film rund um einen wahnsinnigen Mörder zum schauerromantischen Erlebnis. Die expressiven Kulissen erforderten auch von den Schauspielern expressivere Ausdrucksweisen, was zumeist nun in Ansätzen gelang. Überzeugend in dieser Hinsicht war jedoch Fritz Kortner, der sein Können erstmals im österreichischen Beethoven-Porträt „Der Märtyrer seines Herzens“ zeigen konnte, und in der Folge etwa in Leopold Jessners „Hintertreppe“ (1921) oder Robert Wienes „Orlac’s Hände“ (1924) expressiv darstellte. In „Nosferatu, eine Symphonie des Grauens“ erweiterte Friedrich Wilhelm Murnau 1922 den ausgeprägten Licht-Schatten-Gegensatz vom visuellen Effekt zum dramaturgischen Aufbauelement. Der expressionistische Film, geboren aus der Not, eher mit improvisatorischer Phantasie als mit großem Budget arbeiten zu müssen, schien eine vorübergehende Modeerscheinung zu sein. Er beeinflusste jedoch stark die düstere Ästhetik späterer Horror- und Gangsterfilme weltweit. Auch Regisseure wie Jean Cocteau oder Ingmar Bergman ließen sich hier inspirieren. Von der Filmkritik – siehe Lotte Eisner und Siegfried Kracauer – wurden dem frühen deutschen Kunstfilm im Nachhinein allerdings auch apokalyptische und autoritätsfromme Tendenzen attestiert. Nachfolgestil war der stärker sozialkritisch geprägte neusachliche Film, realisiert beispielsweise von Georg Wilhelm Pabst („Die freudlose Gasse“, 1925; „Die Büchse der Pandora“, 1929). Weitere bedeutende Filme der Neuen Sachlichkeit in Deutschland sind „Die Abenteuer eines Zehnmarkscheines“ (1926), dessen Drehbuch der große ungarische Filmtheoretiker Béla Balázs verfasste, und „Menschen am Sonntag“ (1930), bei dem mit Billy Wilder, Edgar G. Ulmer, Fred Zinnemann und den Gebrüdern Curt und Robert Siodmak gleich mehrere junge Talente des Regie- und Drehbuchfaches mitwirkten. Ebenfalls vom Expressionismus mit seinen düsteren Elementen, Wahn- und Traumvorstellungen beeinflusst war der Kammerspielfilm. Dieser erzählte Geschichten von der Verelendung des Kleinbürgertums, der vorherrschenden Armut und der Psychologie des Alltags. Bedeutendste Werke waren diesbezüglich „Scherben“ (1921), „Hintertreppe“ (1921), „Sylvester“ (1923) und „Der letzte Mann“ (1924). Letztgenannter Film gilt nicht zuletzt aufgrund seiner „entfesselten Kamera“ – Karl Freund wandte die von ihm entwickelte Technik der Kamerafahrt bzw. des „Kameraflugs“ an, was dem Film eine bisher noch nie da gewesene optische Dynamik verleiht – als Glanzleistung des deutschen Stummfilms. Zeitweise produzierten über 230 Filmgesellschaften allein in Berlin, neue Studios in Babelsberg ermöglichten noch größere Filmprojekte: im Kinospektakel „Metropolis“ (1927) von Fritz Lang wirkten 36.000 Komparsen mit, der Kameramann und Tricktechniker Eugen Schüfftan brachte hier sein revolutionäres Spiegeltrick-Verfahren erstmals ausführlich zum Einsatz. Fritz Lang schuf gemeinsam mit seiner Frau Thea von Harbou, die häufig die Drehbücher für seine Filme verfasste, einige Meisterwerke des Stummfilms. So etwa der gesellschaftskritische, im Berliner Milieu spielende Verbrecherfilm Dr. Mabuse, der Spieler (1922) oder das monumentale, zweiteilige Heldenepos „Die Nibelungen“ (1924). Ab Mitte der 1920er Jahre wurden riesige Kinopaläste mit 1600 und mehr Plätzen eröffnet. Der deutsche Stummfilm wurde wichtiges Exportprodukt und Devisenbringer für den verarmten Kriegsverlierer Deutschland. Die Abwertung der einheimischen Währung begünstigte die vorübergehende kreative und ökonomische Blüte des deutschen Kinos. Die deutsche Filmindustrie manövrierte dabei zwischen Glanz und Elend; auch wegen der gesamtwirtschaftlich instabilen Verhältnisse und ruinöser Großproduktionen. Wie in anderen Branchen konnten spektakuläre Pleiten (teilweise sogar mit politischen Hintergründen, vgl. die Phoebus-Affäre), Übernahmen und Konzentrationsprozesse beobachtet werden (vgl. Parufamet). So zog es nicht wenige der fähigsten deutschen Filmschaffenden – wie z. B. 1923 das Komödiengenie Ernst Lubitsch – früh nach Amerika. Außerdem: sogenannte Asphalt- und Sittenfilme nahmen sich „anrüchiger“ Themen (Abtreibung, Prostitution, Homosexualität, Nacktkultur, Drogensucht etc.) an und zogen die Kritik konservativer Kreise sowie die Zensur auf sich. Auch Dokumentar- und Experimentalfilm blühten auf, siehe etwa das Schaffen der Lotte Reiniger, Oskar Fischingers, Robert Siodmaks oder Walter Ruttmanns. Eine neuartige Mischung aus Natur- und Spielfilm stellte das Bergfilm-Genre dar. Der Düsseldorfer Draufgänger Harry Piel realisierte frühe Spielarten des Actionfilms. Die umstrittenen „Preußenfilme“ erfreuten sich bei der politischen Rechten großer Beliebtheit, das „Dritte Reich“ sollte diese Reihe fortsetzen. Die UFA war 1927 Teil des konservativen Hugenberg-Konzerns geworden. Auf der Linken entwickelte sich die „Volksfilm-Bewegung“ mit der Ende 1925 gegründeten Prometheus Film als größter „linker“ Filmfirma der Weimarer Republik. Diese schuf Klassiker wie den kommunistischen Film „Kuhle Wampe“ (1932) über die gleichnamige Zeltkolonie am Berliner Stadtrand. Zu den nennenswerten Regisseure des linken Spektrums gehört auch Werner Hochbaum, der nach zwei Wahlfilmen für die Sozialdemokraten mit „Brüder“ (1929) seinen ersten Langspielfilm dreht, der eine realistische Schilderung der tristen Wohn- und Arbeitssituation des Hamburger Proletariats ist. Filme mit sozialistischem Gedankengut hatten es bisher schwer, da Produzenten und Geldgeber in der Regel selbst zu den Bessergestellten gehörten und kein Interesse hatten sozialrevolutionäre Proteste zu unterstützen. Doch auch die Prometheus hatte Probleme mit der Zensur, zumal die staatliche Filmprüfstelle bereits in deutschnationaler Hand war. Konnten rechtskonservative Filme wie Gustav Ucickys „Das Flötenkonzert von Sanssouci“ (1930) große Publikumserfolge feiern, wurden antiautoritäre Filme, wie etwa der pazifistische US-amerikanische Filmklassiker „Im Westen nichts Neues“ (1930) von den Nationalsozialisten boykottiert und in der Folge verboten. Die beliebten Reisefilme zeigten exotische Schauplätze, die ein Durchschnittsverdiener damals nur auf der Leinwand besichtigen konnte. Mit dem Wechsel vom Stumm- zum Tonfilm in den 1920er Jahren bis etwa 1936 erlebte die Filmwelt eine enorme Umstellung. Hatte sich bis dahin der Stummfilm zu einer formal hochstehenden Kunstrichtung entwickelt, musste der Tonfilm zuerst einen enormen künstlerischen Rückschritt erleben. Abgefilmte Sprechszenen ersetzten die erprobte Kombination aus ausdrucksbetonten Darstellern, visuellen Effekten, Dekor, Kameraführung und Montage, die anstelle des Textes den Inhalt und die Botschaft eines Films übermittelten, wodurch kaum noch Zwischentitel in den Filmen nötig waren. Zugleich bedeutete der Tonfilm eine massive Einschränkung des Absatzmarktes für deutsche Produktionen, die sich nun auf den deutschsprachigen Raum beschränken musste. Die Synchronisation war technisch noch nicht möglich, und sollten Filme auch im fremdsprachigen Ausland gezeigt werden, mussten sie in der jeweiligen Sprache und mit dementsprechend veränderter Besetzung gleichzeitig mit der deutschen Version gefilmt werden – so genannte Versionenfilme. Dennoch konnte der frühe deutsche Tonfilm (1929 bis 1933) rasch an frühere Erfolge anknüpfen und teils sogar übertrumpfen. Werke wie Josef von Sternbergs „Der blaue Engel“ (1930), wie „Berlin – Alexanderplatz“ (1931) oder wie die Filmversion von Brechts „Dreigroschenoper“ (1931) entstanden. Fritz Lang drehte weitere Meisterwerke, unter anderem „M“ (1931). Trotz – oder gerade wegen – der Weltwirtschaftskrise waren die Lichtspielhäuser damals gut frequentiert. 1932 existierten bereits 3800 Tonfilmkinos. 1933–1945: Film im Nationalsozialismus. Logo der Universum-Film AG (UFA) Mit der Machtübernahme Hitlers und Errichtung der nationalsozialistischen Diktatur veränderte sich die Produktion: Über 1.500 Filmschaffende emigrierten – unter anderem Fritz Lang, Marlene Dietrich, Peter Lorre, Max Ophüls, Elisabeth Bergner, Friedrich Hollaender, Erich Pommer, später auch Detlef Sierck (Siehe dazu auch die Liste bekannter deutschsprachiger Emigranten und Exilanten (1933–1945)). Wegen der antisemitischen „Arisierungs“politik der Nationalsozialisten mussten Filmkünstler jüdischer Herkunft ihre Arbeit im Deutschen Reich aufgeben. Einige Künstler, wie beispielsweise Kurt Gerron, entkamen dem Regime nicht und wurden später in Konzentrationslagern ermordet. Es wurden nur noch solche Filme genehmigt, die dem Regime ungefährlich erschienen. In den späten 1930er und frühen 1940er-Jahren entstanden dementsprechend vor allem Unterhaltungsfilme („Die Feuerzangenbowle“, 1944), Durchhalte- und Propagandafilme („Jud Süß“, 1940; Filme zum Thema Friedrich der Große, regelmäßig mit Otto Gebühr). Offensive NS-Propaganda – vgl. z. B. den Pseudodokumentarfilm „Der ewige Jude“ – wurde dabei zugunsten glamouröser und erstmals auch farbiger UFA-Zerstreuung an die Seite gedrängt: Vom meist tristen Alltag im totalitären Deutschland, später auch vom Schrecken des „totalen Krieges“ konnten sich die Zuschauer so ablenken. Nebenbei propagierten viele Unterhaltungsstreifen auch Werte wie Schicksalsergebenheit und das Führerprinzip. 1943 und 1944, auf dem Höhepunkt des Bombenkrieges, wurden jährliche Zuschauerzahlen von über einer Milliarde erreicht. Leni Riefenstahl während der Dreharbeiten zu den Olympia-Filmen, 1936 Es gab aber durchaus Werke, welche nicht ganz dem NS-Menschenbild und der Ideologie der Machthaber entsprachen, siehe „Viktor und Viktoria“ (1933), „Der Maulkorb“ (1938) und die Filme von Helmut Käutner und Curt Goetz. Auch die „Soundtracks“ vieler Musikfilme waren beschwingter, als es die Vorstellung der Nationalsozialisten über völkische Folklore eigentlich erlaubte (vgl. Peter Kreuder und andere). Mutige Filmschaffende waren aber immer auch von Repression und Zensur bedroht. Meist war offizielle Zensur jedoch unnötig; so hatte die Filmindustrie sich schon 1933 in quasi vorauseilendem Gehorsam mit der Produktion des Propagandafilms „Hitlerjunge Quex“ der NS-Bewegung angedient. 1934 wurde die Präventivzensur von Filmen, bzw. Drehbüchern, eingeführt, 1936 die Filmkritik endgültig verboten. Mitte 1936 übertrug auch ein Gesetz zur „Vorführung ausländischer Filme im Deutschen Reich“ dem NS-Propagandaministerium die alleinige Entscheidungsbefugnis über die Vorführungszulassung. Deutsche Revue-, Musical- und Spielfilme mussten nach der Einführungsbeschränkung auch den Mangel an ausländischen, vor allem amerikanischen Filmen ausgleichen. Ab 1937 stand die Filmindustrie gänzlich unter staatlicher Kontrolle. Die Produktion von Unterhaltungsware wurde von der NS-Führung zu einem Staatsziel erklärt. Die dem Kinofilm vom Regime zugemessene Wichtigkeit wurde auch durch die Aufrechterhaltung von aufwändigen Filmprojekten – z. B. Herstellung eines deutschen Langfilms in Farbe noch 1943 – und Großproduktionen praktisch bis zum Kriegsende deutlich (vgl. „Kolberg“). Technisch innovatives und gleichzeitig politisch fatales leistete Leni Riefenstahl mit ihren Reichsparteitags- und Olympia-Dokumentationen sowohl für den Dokumentar-, als auch für den Sportfilm (1936–1938). Die Werke zeichneten sich durch die verführerische Massenästhetik des Totalitarismus aus. Nachkriegszeit und Besatzung. Nach dem Zweiten Weltkrieg änderten sich die ökonomischen Rahmenbedingungen der Filmproduktion, denn die Alliierten beschlagnahmten und kontrollierten das Vermögen der Dachgesellschaft UFA-Film. Sie verfügten im Rahmen der in den ersten Nachkriegsjahren verfolgten Politik der Dekartellierung der deutschen Wirtschaft, dass sie ihre Produktionstätigkeit einstellt. Um eine erneute ökonomische Konzentration in der Filmindustrie zu verhindern, erteilten sie in den folgenden Jahren Produktionslizenzen an eine Vielzahl von mittleren und kleinen Firmen. Im Rahmen des am 21. August 1949 in Kraft getretenen Besatzungsstatuts legten die Alliierten unter anderem fest, dass die Bundesrepublik keine Importbeschränkungen für ausländische Filme festsetzen darf, um ihre eigene Filmwirtschaft gegen Konkurrenz aus dem Ausland zu schützen. Diese Bestimmung geht auf eine intensive Lobbyarbeit der amerikanischen MPAA zurück. Denn die großen Hollywood-Studios gerieten in dieser Zeit durch das aufkommende Fernsehen selbst in Bedrängnis und waren auf Einnahmen aus dem Exportgeschäft dringend angewiesen. Diese besatzungsrechtlichen Regelungen wurde auch in den folgenden Jahren durch bilaterale Verträge zwischen den USA und der Bundesrepublik Deutschland fortgeschrieben. Als Bestandteil der Reeducation bekamen viele Deutschen erstmals schockierende Filmbilder der NS-Konzentrationslager zu sehen. Andererseits waren jetzt auch ausländische Spielfilme wieder in Deutschland zugänglich. Besonders beliebt bei den Zuschauern waren Filme mit Charlie Chaplin und US-Melodramen. Dennoch war der Anteil amerikanischer Filme in der unmittelbaren Nachkriegszeit und den 50er Jahren noch vergleichsweise gering: Der Marktanteil der deutschen Filme lag in dieser Zeit bei 40 %, während die mit doppelt so viel Filmen in Verleih sich befindenden amerikanischen Filme nur auf einen Marktanteil von 30 % kamen. Dies änderte sich erst in den 1960er Jahren (vgl. Schneider: Film, Fernsehen & Co., S. 35, 42 und 44). Die meisten deutschen Filme der unmittelbaren Nachkriegszeit werden als Trümmerfilme bezeichnet und beschäftigten sich mit dem Leben im weitgehend zerstörten Nachkriegsdeutschland und mit der Vergangenheitsbewältigung. Sie waren stark vom italienischen Neorealismus beeinflusst und häufig dokumentarisch orientiert. Der erste deutsche Nachkriegsfilm war Wolfgang Staudtes Film „Die Mörder sind unter uns“ aus dem Jahr 1946. Ein weiterer bekannter Trümmerfilm war „Liebe 47“ (1949, Regie: Wolfgang Liebeneiner) nach dem Roman „Draußen vor der Tür“ von Wolfgang Borchert. Der italienische Regisseur Roberto Rossellini drehte im Jahr 1946 im zerbombten Berlin den Film „Deutschland im Jahre Null“ an Originalschauplätzen und mit Laiendarstellern. Westdeutscher Film in den 1950er-Jahren. Aufnahmen zu der Filmkomödie "Alles für Papa" im Filmatelier Göttingen, 1953 Nach dem kurzen Intermezzo des „Trümmerfilms“ setzte man in den 50er Jahren in Westdeutschland wieder vorwiegend auf Unterhaltung, besonders auf den Heimatfilm, den Schlagerfilm und auf Kriegsfilme. Weitere typische Genres der Zeit waren Operetten- und Arztfilme sowie Gesellschaftskomödien. Der Erfolg deutscher "Heimatfilme" begann mit dem ersten deutschen Nachkriegsfarbfilm „Schwarzwaldmädel“ (1950), nach der gleichnamigen Operette von August Neidhart und Leon Jessel. Regie führte Hans Deppe. Sonja Ziemann und Rudolf Prack stellten das Traumpaar dieses Films dar. Weitere erfolgreiche Heimatfilme waren „Grün ist die Heide“ (1951), ebenfalls von Hans Deppe, „Wenn die Abendglocken läuten“ (1951) von Alfred Braun, „Am Brunnen vor dem Tore“ (1952) von Hans Wolff, „Der Förster vom Silberwald“ (1954) von Alfons Stummer, „Das Schweigen im Walde“ (1955) von Helmut Weiss und „Das Mädchen vom Moorhof“ (1958) von Gustav Ucicky. Insgesamt wurden in den 1950er Jahren mehr als 300 Filme dieses Genres gedreht. Charakteristisch für Heimatfilme der 1950er Jahre waren eine melodramatische Handlung, die meistens eine Liebesgeschichte beinhaltete, sowie komische oder tragische Verwechslungen. Häufig gab es Musikeinlagen. Die Handlung spielte in abgelegenen, aber spektakulären und durch den Zweiten Weltkrieg unzerstörten Landschaften wie dem Schwarzwald, den Alpen oder der Lüneburger Heide. Es werden insbesondere konservative Werte wie Ehe und Familie betont. Frauen werden meistens nur als Hausfrau und Mutter positiv dargestellt. Die Obrigkeit darf nicht in Frage gestellt werden und Heiraten waren nur innerhalb derselben sozialen Gruppe möglich. Viele Heimatfilme dieser Zeit waren Remakes alter UFA-Produktionen, die nun allerdings weitgehend von der Blut-und-Boden-Schwere der Vorbilder aus der NS-Zeit befreit waren. Der Heimatfilm, von der seriösen Kritik lange ignoriert, wird seit einigen Jahren auch zwecks Analyse früher westdeutscher Befindlichkeiten ernsthaft untersucht. Mit der Wiederbewaffnung Westdeutschlands 1955 setzte auch eine populäre Kriegsfilmwelle ein. Beispiele waren „15“ (1954) von Paul May nach dem gleichnamigen Roman von Hans Hellmut Kirst, „Canaris“ (1954) von Alfred Weidenmann und „Der Arzt von Stalingrad“ (1958) von Géza von Radványi nach einem Roman von Heinz G. Konsalik. Die problematischen Streifen zeigten den deutschen Soldaten des Zweiten Weltkrieges als tapferen, unpolitischen Kämpfer, der eigentlich immer schon „dagegen" gewesen war. Ansonsten erschöpfte sich die „Vergangenheitsbewältigung“ weitgehend in einigen Filmen zum militärischen Widerstand gegen Hitler. Hier wäre besonders der Film „Der 20. Juli (1955) von Regisseur Falk Harnack zu nennen, der während der Zeit des Nationalsozialismus selbst als Widerstandskämpfer tätig war und der Gruppe der Weißen Rose zuzurechnen ist. Das dritte wichtige Genre im westdeutschen Kino der 1950er Jahre war der Schlagerfilm, wie etwa „Liebe, Tanz und 1000 Schlager“ (1954) von Paul Martin, „Peter schießt den Vogel ab“ (1959) von Géza von Radványi oder „Wenn die Conny mit dem Peter“ (1958) von Fritz Umgelter, letzterer eine biedere Antwort der deutschen Filmindustrie auf die amerikanische Jugendkultur und die dortigen Rock-’n’-Roll-Filme. In diesen Filmen war die Handlung wenig ausgearbeitet, sie diente nur als Rahmen für Gesangsauftritte. Meistens ging es um Liebe oder Klamauk. Schlagerfilme blieben in Westdeutschland noch bis in die 1970er Jahre erfolgreich. Fernsehen (ab 1954) und verpasster Anschluss an neue Filmtrends führten zur Krise des westdeutschen Kinos, auch wenn es durchaus einzelne Qualitätsfilme wie etwa Bernhard Wickis „Die Brücke“ (1959) und kontroverse Produktionen wie „Die Sünderin“ (1951, mit Hildegard Knef) gab. Ungewöhnlich für die damalige Zeit war auch der Film „Mädchen in Uniform“ (1958) von Géza von Radványi mit Romy Schneider als Schülerin eines Internats, die sich in ihre Klassenlehrerin verliebt. Aus den Reihen der Heimatfilmdarsteller ging mit Romy Schneider ein späterer Weltstar hervor. Für den Oscar als bester fremdsprachiger Film war unter anderem "Der Hauptmann von Köpenick" (1956) von Helmut Käutner nominiert. Von der internationalen Bedeutung her konnte sich die westdeutsche Filmindustrie nicht mehr mit der französischen, italienischen oder japanischen messen. Deutsche Filme wurden im Ausland als provinziell wahrgenommen und Verkäufe an andere Länder waren eher selten. Koproduktionen mit ausländischen Partnern, die in dieser Zeit etwa zwischen italienischen und französischen Firmen schon üblich waren, wurden von den deutschen Produzenten meistens abgelehnt. In den 1950er Jahren erlebte das deutsche Kino trotz allem eine (Schein)blüte, auch als „Kinowunder“ bezeichnet. Sowohl die Zahl der gezeigten Produktionen als auch die Anzahl der Kinobesuche und der Leinwände stieg in der Zeit von 1946 bis 1956 rapide an. In diesem Jahr erreichten die bundesrepublikanischen Zuschauerzahlen mit 817 Millionen Kinobesuchern ihren Zenit. Ostdeutscher Film. Logo der "Deutschen Film AG" (DEFA) Der ostdeutsche Film konnte zunächst davon profitieren, dass die Infrastruktur der alten UFA-Filmstudios im nun sowjetisch besetzten Teil Deutschlands (Gebiet der späteren DDR) lag. Die Spielfilmproduktion kam daher schneller in Gang als in den Westsektoren. Grundsätzlich verband die Filmschaffenden und die Kulturpolitiker der DDR, bei allen sonstigen Differenzen und Reibungspunkten, das antifaschistische Engagement und die Überzeugung, für das „bessere Deutschland“ zu arbeiten. Allerdings war dabei „vielen 'führenden' Antifaschisten zugleich auch der Stalinismus in Fleisch und Blut übergegangen.“ (Ralf Schenk) In der DDR entstanden unter Regisseuren wie beispielsweise Wolfgang Staudte einige bemerkenswerte Filme (unter anderem „Der Untertan“ nach Heinrich Mann, 1951). Staudte ging später nach Westdeutschland. Von der Produktion heroischer Personenkultfilme wie denen der „Ernst Thälmann“-Serie (ab 1954) nahm man später Abstand. Weitere bekannte Filme des halbstaatlichen ostdeutschen DEFA-Monopolbetriebs waren etwa „Der geteilte Himmel“ (1964, nach Christa Wolfs gleichnamigem Roman), „Die Legende von Paul und Paula“ (1973), „Solo Sunny“ (1978), „Jakob der Lügner“ (1975, nach Jurek Becker). Produktionen, die sich kritisch mit dem DDR-Alltag beschäftigten, wurden von der Parteiführung mitunter aus dem Verleih genommen – vergleiche die „Spur der Steine“ von 1966. Dieses Werk gehörte zu jener fast kompletten DEFA-Jahresproduktion von Gegenwartsfilmen, die in einem rabiaten Kahlschlag nach dem 11. Plenum des ZK der SED im Dezember 1965 verboten wurde. Bekannte ostdeutsche Regisseure waren beispielsweise Frank Beyer, Konrad Wolf und Egon Günther. Nach 1976 verließen auch zahlreiche bekannte Filmschauspieler die DDR, unter anderem Angelica Domröse, Eva-Maria Hagen, Katharina Thalbach, Hilmar Thate, Manfred Krug. Armin Mueller-Stahl konnte seine Karriere gar in Hollywood fortsetzen. Da die DDR in den 1980er Jahren auch zahlreiche Filme aus dem Westen in ihr Verleihsystem nahm, reduzierte sich die Rolle der DEFA immer stärker. Während ihres Bestehens produzierte die DEFA neben TV-Filmen und – teils sehr guten – Dokumentarfilmen (Volker Koepp, Barbara und Winfried Junge und andere) insgesamt ungefähr 750 abendfüllende Spielfilme fürs Kino. Ähnlich wie andere Filmnationen Osteuropas – hier ist z. B. die Tschechoslowakei zu nennen – hatte das Kino der DDR auch besondere Stärken beim Kinderfilm. Der Jugendfilm Sieben Sommersprossen (1978), Regie Herrmann Zschoche, war mit 1,2 Millionen Zuschauern eine der erfolgreichsten DEFA-Produktionen überhaupt. Die Kinokrise und die „Altbranche“. Am Ende der fünfziger Jahre wuchs die Unzufriedenheit mit der bundesdeutschen Filmproduktion. Bundesinnenminister Gerhard Schröder (CDU) kritisierte 1958 bei der Verleihung des Deutschen Filmpreises die „Misere des deutschen Filmschaffens“ und befand: „Unsere Hoffnungen wurden leider enttäuscht“. Das Feuilleton übte immer heftiger Kritik. 1961 erschienen zwei intensiv diskutierte und folgenreiche Beiträge, die ein vernichtendes Urteil über das deutsche Filmschaffen fällten: "Der deutsche Film kann gar nicht besser sein" von Joe Hembus und "Kunst oder Kasse" von Walther Schmieding. Im Zuge der Verbreitung von Fernsehgeräten in privaten Haushalten stagnierten die jahrelang angestiegenen Filmbesucherzahlen nun und wurden dann rückläufig. Besonders in den 1960er Jahren ging der Kinobesuch rapide zurück. Wurden im Jahr 1959 noch 670,8 Mio. Besucher gezählt, waren es im Jahr 1969 nur noch 172,2 Mio. Zahlreiche Kinos mussten in dieser Zeit schließen, man sprach vom „Kinosterben“. Als Reaktion drosselten die deutschen Hersteller den Ausstoß von Filmen. Wurden im Jahr 1955 noch 123 deutsche Filme produziert, so waren es im Jahr 1965 nur 56. Als Folge dieses rapiden Besucherrückgangs gingen eine Reihe von Produktions- und Verleihfirmen bankrott, weil deren Produkte nun nicht mehr die Herstellungskosten erwirtschafteten und deshalb die Banken schließlich weitere Kredite und Bürgschaften verweigerten. Der spektakulärste Fall war die Pleite der UFA AG im Jahr 1962. Die damals größte Produktionsgesellschaft Westdeutschlands ging 1964 an den Bertelsmann-Konzern über. Den österreichischen Film, inhaltlich, personell und wirtschaftlich eng mit dem deutschen Film verbunden, ereilte dasselbe Schicksal. Nach dem Untergang der Epoche des Unterhaltungsfilms und mit dem Aufrücken jüngerer Generationen begann der österreichische und deutsche Film ab den 60er Jahren zumindest inhaltlich zunehmend eigene Wege zu beschreiten. Die Kinokrise hatte aber tiefer gehende Ursachen. Infolge des Wirtschaftswunders kam es zu einer deutlichen Steigerung des Durchschnittseinkommens der Bevölkerung. Damit nahmen auch die Möglichkeiten der Freizeitgestaltung zu und sie fokussierten sich nicht mehr auf den Kinobesuch. Zugleich wurde das Fernsehen zu einem Massenmedium: Während im Jahr 1953 nur 10.000 Fernsehempfänger registriert waren, stieg ihre Anzahl im Jahr 1962 auf 7 Mio. (vgl. Schneider: Film, Fernsehen & Co., S. 49 und Hoffmann: Am Ende Video – Video am Ende?, S. 69f). Die meisten in den 1960er Jahren gedrehten bundesdeutschen Filme waren Genrewerke (Western-, Agenten-, Sexfilme). Es entstanden auch Filmreihen nach Autoren wie Karl May (Winnetou) und Edgar Wallace, später die sogenannten „Lümmelfilme“ über Schülerstreiche sowie die Reihe der Verfilmungen nach Johannes Mario Simmel. Die zentrale Produzentenpersönlichkeit hinter den Wallace- und Winnetou-Filmen war Horst Wendlandt. Der erste bundesdeutsche Edgar-Wallace-Film war „Der Frosch mit der Maske“ (1958) von Harald Reinl. Später folgten unter anderem „Die Bande des Schreckens“ (1960) und „Der unheimliche Mönch“ (1965), bei dem Harald Reinl ebenfalls Regie führte, sowie „Der Zinker“ (1963), „Der Hexer“ (1964) und „Der Mönch mit der Peitsche“ (1967). Bei den letzten drei Filmen führte Alfred Vohrer Regie, der als klassischer Wallace-Regisseur gilt. In den insgesamt über 30 Filmen traten immer dieselben Schauspieler auf, die ganz bestimmte, klischeehaft überzeichnete Charaktere darstellten: die verführerische Karin Dor, der zwielichtige Klaus Kinski, die braven Kommissare Heinz Drache und Joachim Fuchsberger, der schrullige Eddi Arent, die undurchsichtige Elisabeth Flickenschildt etc. Die Figuren entwickeln sich in den Filmen nicht weiter, Gut und Böse stehen sich unverrückbar gegenüber. Spannung wird (im Gegensatz zum Thriller) vor allem durch äußere Settings wie Nebelschwaden, Verliese, unheimliche Gänge, alte Herrenhäuser oder Käuzchenrufe hergestellt. Die Filme enthalten meistens auch eine gute Prise Humor sowie eine Liebesgeschichte. Während die Wallace-Filme überwiegend heimische Schauspieler zeigten, schmückten sich die Karl-May-Filme mit ausländischen Hauptdarstellern. Beispiele für die Karl-May-Filme sind: „Der Schatz im Silbersee“ (1961), „Winnetou“ (1963), „Winnetou II“ (1964), „Winnetou III“ (1965), bei allen führte Harald Reinl Regie. Karl-May-Filme von Alfred Vohrer sind „Unter Geiern“ (1964) und „Old Surehand“ (1965) jeweils mit dem Engländer Stewart Granger als "Old Surehand". Den edlen Uramerikaner des westdeutschen Kinos gab der Franzose Pierre Brice, Old Shatterhand wurde von dem Amerikaner Lex Barker dargestellt. In den DEFA-Indianerfilmen der DDR spielte vor allem der Jugoslave Gojko Mitić die Hauptrollen. Die Filme waren standardisiert und billig zu produzieren. Dennoch dominierten sie nicht mehr die bundesdeutschen Kinos. Denn einheimische Unterhaltungsfilme, die in den 1950er Jahren noch sehr erfolgreich waren, wurden nun von vielen Kinogängern gemieden, die jetzt eher amerikanische Filme bevorzugten. Inzwischen hatte sich das Publikum so sehr an die technisch und inhaltlich aufwendigen Hollywoodproduktionen gewöhnt, dass Filme aus anderen Ländern meistens nur noch eine Chance hatten, wenn sie etwas zeigten, was den Hollywoodfilmen aufgrund der damals noch sehr strikten amerikanischen Zensurbestimmungen unmöglich war. Das heißt, diese Filme mussten entweder gewalttätiger oder sexueller sein als die üblichen Hollywoodfilme (vgl. Ungureit: Das Film-Fernseh-Abkommen, S. 87). Als Beispiel für Filme, die in der damaligen Zeit als sehr gewalttätig galten, können einige Italowestern genannt werden. Sie waren häufig Koproduktionen, mit einer Beteiligung auch von deutschen Firmen. So wurde beispielsweise der Westernklassiker „Für ein paar Dollar mehr“ (1965) mit Beteiligung der deutschen Constantin Film gedreht und es spielte in ihm auch der Schauspieler Klaus Kinski mit. In dieser Zeit entstanden auch Aufklärungsfilme von Oswalt Kolle und die zahlreichen Sexfilme der Report-Serien, beispielsweise der „“ (1970). Die Filme waren zwar ökonomisch wieder erfolgreich, wurden jedoch von der Filmkritik eher abgelehnt. Zu dieser Zeit befand sich das Ansehen der traditionellen deutschen Filmproduzenten („Altbranche“) auf seinem Tiefpunkt. Der Neue Deutsche Film. Der gesellschaftskritische „Neue Deutsche Film“ versuchte, sich von „Papas Kino“ – also dem Serienkino der 1950er und 60er Jahre – abzuheben. Als dessen Geburtsstunde gilt das 1962 veröffentlichte "Oberhausener Manifest", in dem eine Gruppe junger Filmemacher den Anspruch erhob, von nun an ein radikal neues Kino zu machen. In dem Manifest heißt es: "„Der Zusammenbruch des konventionellen deutschen Films entzieht einer von uns abgelehnten Geisteshaltung endlich den wirtschaftlichen Boden. Dadurch hat der neue Film die Chance, lebendig zu werden. […] Wir erklären unseren Anspruch, den neuen deutschen Spielfilm zu schaffen. Dieser neue Film braucht neue Freiheiten. Freiheit von den branchenüblichen Konventionen. Freiheit von der Beeinflussung durch kommerzielle Partner. Freiheit von der Bevormundung durch kommerzielle Interessengruppen. Wir haben von der Produktion des neuen deutschen Films konkrete geistige, formale und wirtschaftliche Vorstellungen. Wir sind gemeinsam bereit, wirtschaftliche Risiken zu tragen. Der alte Film ist tot. Wir glauben an den neuen.“" Das Manifest wurde unter anderem von Haro Senft, Alexander Kluge, Edgar Reitz, Peter Schamoni und Franz Josef Spieker unterzeichnet. Als zweite Generation stießen später noch zu dieser Gruppe Volker Schlöndorff, Werner Herzog, Jean-Marie Straub, Wim Wenders und Rainer Werner Fassbinder. Die Gruppe lehnte eine Zusammenarbeit mit Altbranche meistens ab. Denn sie verstanden sich als Autorenfilmer und hatten den Anspruch, alle künstlerischen Tätigkeiten einer Filmproduktion wie Regie, Kameraarbeit und Schnitt zu kontrollieren. Ein Film wurde vor allem als ein individuelles Kunstwerk des jeweiligen Regisseurs verstanden. Insbesondere kommerziell motivierte Eingriffe der Produzenten oder Produktionsfirmen wurden vehement abgelehnt. Die „ästhetische Linke“ (Enno Patalas) des neuen Films kann sogar als eine Art Vorläufer und Anregerin der Studentenbewegung der 1960er Jahre gelten. Im Jahr 1965 wurde das "Kuratorium Junger Deutscher Film" zur direkten Förderung neuer Talente gegründet. Manchmal wird auch zwischen dem eher avantgardistischen „Jungen Deutschen Film“ der 1960er und dem zugänglicheren „Neuen Deutschen Film“ der 1970er Jahre unterschieden. Einflüsse waren der italienische Neorealismus, die französische Neue Welle und das britische Free Cinema. Eklektisch wurden auch Traditionen des Hollywood-Kinos mit seinen wohletablierten Genres aufgegriffen und zitiert. Die jungen deutschen Regisseure hatten kaum Chancen, in der kommerziellen deutschen Filmproduktion zu arbeiten, die – etwa im Vergleich zu Frankreich und Italien – besonders provinziell war. Stattdessen bot sich das Fernsehen als Partner an. Insbesondere Sendeplätze wie „Das kleine Fernsehspiel“ oder „Tatort“ boten auch Nachwuchstalenten Chancen zur Erprobung ihres Könnens. Allerdings verlangten die Sender früher eine Fernsehpremiere des von ihnen vollständig oder zum großen Teil finanzierten Films: So wurde Schlöndorffs Film „Der plötzliche Reichtum der armen Leute von Kombach“ im Jahr 1971 zuerst im Fernsehen ausgestrahlt, bevor er in die Kinos kam. Die Kinobesitzer boykottierten jedoch solche Filme in der Regel, denn sie befürchteten „zum Nachspieler von Fernsehausstrahlungen“ zu werden. Diese Situation änderte sich mit dem 1974 zwischen der ARD, dem ZDF und der Filmförderungsanstalt geschlossenen "Film-Fernseh-Abkommen". Es erweiterte insbesondere die materiellen Möglichkeiten für den Neuen Deutschen Film erheblich. Dieses Abkommen, das bis heute immer wieder verlängert wurde, sieht vor, dass die Fernsehanstalten pro Jahr eine bestimmte Geldsumme zur Verfügung stellen, mit der Filme gefördert werden, die sowohl zum Kinoabspiel als auch zur Fernsehausstrahlung geeignet sind. Das Gesamtvolumen der Zahlungen der öffentlich-rechtlichen Rundfunkanstalten schwankt zwischen 4,5 und 12,94 Mio. Euro pro Jahr. Das Film-Fernseh-Abkommen legt fest, dass die Kinoauswertung 24 Monate betragen sollte und die Filme erst danach auch im Fernsehen gezeigt werden dürfen. Die Video- bzw. DVD-Auswertung darf erst 6 Monate nach der Kinopremiere erfolgen. Durch diese Bestimmungen bekamen deutsche Spielfilme insbesondere des Neuen Deutschen Films die Chance, auch an der Kinokasse erfolgreich zu sein, bevor sie im Fernsehen ausgestrahlt wurden (vgl. Blaney: Symbiosis or Confrontation?, S. 204f). Mit der neuen Bewegung gewann der deutsche Film erstmals seit den 1920er und frühen 1930er Jahren wieder etwas internationale Bedeutung. In erster Linie in Kritikerkreisen und weniger beim Publikumszuspruch. Die deutschen Autorenfilme waren dabei im Ausland oft früher anerkannt als in der Heimat. Die folgenden Werke werden besonders häufig als typisch für den Neuen Deutschen Film betrachtet: „Abschied von gestern“ (1966), Regie: Alexander Kluge, war der erste Film eines Regisseurs, der das Oberhausener Manifest unterschrieben hat, und gilt als der künstlerische Durchbruch der neuen Generation. Er erhielt auf internationalen Festivals zahlreiche Preise und erzählt die Geschichte der Anita G., einer deutschen Jüdin, geboren 1937, die in der Zeit des Nationalsozialismus vom Schulbesuch ausgeschlossen wurde, sich auch in der DDR nicht zurechtfand und 1957 in den Westen kommt. Der Film „Es“ (1966) von Ulrich Schamoni behandelt das Thema Abtreibung und die Beziehungskrise eines jungen Paares. Er griff damalige Tabuthemen auf, die bisher so nie im deutschen Film gezeigt werden konnten und gewann zahlreiche Preise. „Zur Sache, Schätzchen“ (1968) von May Spils ist eine unterhaltsame Komödie über mehrere Jugendliche aus Schwabing. Er erlangte Kultstatus, weil er sich als einer der ersten Filme mit dem Lebensgefühl junger Menschen zur Zeit der 68er-Bewegung auseinandersetzte. „Jagdszenen aus Niederbayern“ (1969) von Peter Fleischmann ist ein „progressiver Heimatfilm“. Er beschreibt die Diskriminierung eines Homosexuellen in einem fiktiven bayrischen Dorf. In dem Film „Die verlorene Ehre der Katharina Blum“ (1975), Regie: Volker Schlöndorff, wird die Terrorismus-Hysterie der 1970er-Jahre und die Rolle der Massenmedien thematisiert. Die völlig unschuldige Katharina Blum wird aufgrund von Zufällen verdächtigt, eine Terroristin zu sein. Der Film gewann zahlreiche Preise und war auch kommerziell erfolgreich. Weitere wichtige Filme waren „Die Angst des Tormanns beim Elfmeter“ (1972) und „Paris, Texas“ (1984), beide von Wim Wenders und „Aguirre, der Zorn Gottes“ (1972) von Werner Herzog. Dieser Film beschäftigt sich mit der Suche der Spanier nach dem sagenhaften Eldorado. Klaus Kinski spielte die Hauptrolle, den größenwahnsinnigen Konquistador Don Lope de Aguirre. Rainer Werner Fassbinder gilt als der wichtigste deutsche Autorenfilmer der 1970er Jahre. Er war stark vom Theater geprägt, für das er selbst einige Stücke geschrieben hat. Vorbild für viele seiner Filme sind die Melodramen von Douglas Sirk. Fassbinder schilderte häufig unglückliche Liebesbeziehungen, die an den repressiven und vorurteilsbehafteten Verhältnissen scheitern. Er betrieb mit dem Engagement von Stars der deutschen Kinotradition auch eine Versöhnung von neuem und altem deutschen Film. Seine bedeutendsten Filme waren „Händler der vier Jahreszeiten“, 1971 gleichzeitig im Kino und Fernsehen gezeigt, „Angst essen Seele auf“ (1974) und „Die Ehe der Maria Braun“ (1979). Im Jahr 1977 produzierte er zusammen mit anderen Regisseuren die Film-Collage Deutschland im Herbst, die sich kritisch mit dem zunehmenden Konformismus der deutschen Gesellschaft nach den Ereignissen des Deutschen Herbstes auseinandersetzte. Literarische Vorlagen des neuen deutschen Films lieferten vielfach die Werke Heinrich Bölls und Günter Grass' (vgl. etwa Die verlorene Ehre der Katharina Blum und Die Blechtrommel aus dem Jahr 1979). In Zusammenhang mit dem neuen deutschen Film entwickelte sich ebenfalls der feministische Film, vertreten beispielsweise von den Regisseurinnen Helma Sanders-Brahms, Helke Sander und Margarethe von Trotta. Jugendfilme, die realistische Lebenssituationen zeigten, drehte Hark Bohm, wie beispielsweise „Nordsee ist Mordsee“ (1976). Großproduktionen. Nachdem der neue (west-)deutsche Film manche seiner Ziele durchsetzen konnte (Etablierung der staatlichen Filmförderung, Oscar 1980 für Die Blechtrommel und andere) zeigte er gegen Ende der 1970er- bzw. am Anfang der 1980er-Jahre Ermüdungserscheinungen, wenn auch Protagonisten wie Werner Herzog, Werner Schroeter, Volker Schlöndorff, Edgar Reitz oder Wim Wenders weiterhin erfolgreich produzierten. Insbesondere der Deutsche Herbst im Jahr 1977 bewirkte ein Ende der gesellschaftlichen Aufbruchstimmung, die vorher die 1970er-Jahre prägte. Auch viele Regisseure des neuen deutschen Films hatten den Anspruch, in ihren Filmen die gesellschaftliche Wirklichkeit abzubilden und kritisch zu hinterfragen. Sie gerieten damit wie andere Linksintellektuelle pauschal unter Terrorismusverdacht. Diese gesellschaftliche Entwicklung führte auch dazu, dass die Vergabegremien und Fernsehanstalten kaum noch außergewöhnliche bzw. inhaltlich oder ästhetisch radikale Projekte bewilligten. Als von allen akzeptierbarer Kompromiss dominierten in dieser Zeit Literaturverfilmungen, die etwas abfällig als „Studienratskino“ bezeichnet werden. Beispiele hierfür sind etwa die Filme wie Grete Minde (1980) von Heidi Genée nach Theodor Fontane, "Mädchenkrieg" (1977) von Bernhard Sinkel / Alf Brustellin nach Manfred Bieler, "Heinrich" (1977) von Helma Sanders-Brahms nach Briefen von Heinrich von Kleist und Belcanto (1977) von Robert van Ackeren, nach Thomas Mann. Eine neue Generation von Produzenten und Regisseuren versuchte in den 1980er-Jahren aus dieser Konstellation auszubrechen und Kinofilme auf eine andere Art und Weise zu produzieren. Insbesondere in den Münchner Bavariastudios entstanden Großproduktionen wie „Das Boot“, „Die unendliche Geschichte“ oder „Der Name der Rose“. Solche Produktionen wurden oft in Englisch gedreht und auf internationale Verkaufbarkeit zugeschnitten. Dies zeigte sich beispielsweise in der Auswahl der Schauspieler und der Regisseure. Diese Filme waren häufig Koproduktionen mit Gesellschaften im europäischen Ausland. Als Produzent dieser Art von Filmen tat sich v. a. Bernd Eichinger hervor. Beispiele für solche Großprojekte in den 80er Jahren sind Berlin Alexanderplatz, (1980, Serie, Regie: Rainer Werner Fassbinder), Das Boot, (1981, Kinofilm und Serie, Regie: Wolfgang Petersen), Fitzcarraldo (1982, Regie: Werner Herzog), Die unendliche Geschichte (1984, Regie: Wolfgang Petersen) , Momo (1985, Regie: Johannes Schaaf) und Der Name der Rose (1986, Regie: Jean-Jacques Annaud). Einen Wendepunkt für den deutschen Autorenfilm bewirkte Herbert Achternbuschs Werk "Das Gespenst" aus dem Jahr 1982. Dieser Film war aufgrund einer vom Bundesinnenministerium in Höhe von 300.000 DM zugesagten Prämie produziert worden. Nach Protesten strich der neue Bundesinnenminister Friedrich Zimmermann die noch ausstehende Summe von 75.000 Mark. Zimmermann setzte danach wesentliche Änderungen für die Vergabe der Bundesfilmpreise durch. Unter anderem sollte das Preisgeld für das nächste Projekt nur noch 30 Prozent der gesamten Produktionskosten ausmachen. In der Bundestagssitzung vom 24. Oktober 1983 erklärte Zimmermann, er werde keine Filme finanzieren, die außer dem Produzenten niemand sehen wolle. Für den deutschen Autorenfilm hatte diese Maßnahme schwerwiegende Folgen, da künftig kaum ein Filmemacher in der Lage war, die restlichen 70 Prozent einer Produktion vorzufinanzieren oder gar einzuspielen. Es wurde versucht, andere Finanzierungsquellen für Filme zu finden, um damit vom Einfluss des Fernsehens und der Fördergremien unabhängiger zu werden. Die wichtigsten Finanzierungsquellen waren der (möglichst) weltweite Vorabverkauf der Kino-, Fernseh- und Videorechte. Gremien und Fernsehsender haben auch zu diesen Filmen Gelder beigesteuert, allerdings waren ihr Anteil geringer, als es in den 1970er Jahren üblich war. Ein Beispiel hierfür ist die Finanzierung des Films „Das Boot“. Die Anteile der Gelder von öffentlich-rechtlichen Institutionen macht hier zusammen nur 23 % der Gesamtkosten aus. Weitere Kassenschlager in den 1980er-Jahren waren die Otto-Filme (ab 1985) und das Roadmovie „Theo gegen den Rest der Welt“ (1980). Der kontrovers diskutiert Film „Christiane F. – Wir Kinder vom Bahnhof Zoo“ (1981) spielt im Milieu der minderjährigen Heroin-Abhängigen, die ihre Sucht durch Prostitution finanzieren. Der Weg in Richtung auf eine Kommerzialisierung und Internationalisierung des bundesdeutschen Films wurde dadurch geebnet, dass der neue deutsche Film schon in den 1970er Jahren auch international – zumindest künstlerisch – erfolgreich war. Insbesondere der Film „Das Boot“, aber auch einige andere dieser Großfilme waren ökonomisch durchaus erfolgreich. Allerdings konnten sie die bundesdeutsche Kinolandschaft nicht grundsätzlich umgestalten. Die letzten dieser Großfilme „Die Katze“ (1988, Regie Dominik Graf) und „Die Sieger“ (1994, Regie: Dominik Graf), waren kommerzielle Misserfolge. Die Ursachen für das Scheitern dieser Strategie sind vielfältig und unter anderem darin zu sehen, dass diese Filme letztendlich doch nicht mit den immer aufwendigeren Hollywoodproduktionen mithalten konnten. Deshalb konnten sie die Präferenzen des an amerikanische Großproduktionen gewöhnten Publikums auch nicht dauerhaft verändern. In den 1980er Jahren gingen die Besucherzahlen abermals deutlich zurück und zahlreiche Kinos mussten schließen. Es kam zu einer Umstrukturierung der Medienlandschaft, die die Stellung des Kinos zunächst weiter schwächte. Denn das Filmangebot wurde für die Bevölkerung durch die jetzt gegründeten privaten Fernsehsender und das damals neuen Medium Video erheblich erweitert. In der Folge teilten viele Kinobesitzer ihre großen Säle in mehrere kleine Kinos auf. Diese wurden als Schachtelkinos bezeichnet. Das hatte den Vorteil, dass mehrere Filme auf einmal gezeigt und so auch mehr Zuschauer angelockt werden konnten. 1984 waren im Rahmen des Ludwigshafener Kabelpilotprojektes erstmals private Sender, also damals RTL+ und Sat.1, in der BRD zu empfangen. In den ersten Jahren ihres Bestehens machten Spielfilme einen großen Anteil ihres Programms aus, sie wurden insbesondere zur Hauptsendezeit ausgestrahlt. Um Zuschauerverlusten vorzubeugen, zeigten zu Beginn der 1980er Jahre auch die öffentlich-rechtlichen Fernsehanstalten ARD und ZDF deutlich mehr Spielfilme als vorher. Ab 1985 reduzierten sie ihre Ausstrahlung von Spielfilmen aufgrund des massiven Drucks von Privatsendern, Kinobesitzern und konservativen Politikern wieder (vgl. Karstens / Schütte 1999). In den 1980er Jahren wurde auch der Videorecorder zu einem Massenkonsumgut. Die Konsumenten waren nicht mehr auf das starre Programmraster von Fernsehen und Kino angewiesen. Zudem standen ihnen als Kauf- oder Leihvideos viel mehr Filme zur Verfügung, als aktuell im Kino bzw. Fernsehen ausgestrahlt wurden. Jetzt waren auf einmal auch Genres verfügbar, wie Splatter- oder Pornofilm, die in der BRD bisher nicht oder nur selten zu sehen waren (vgl. Zielinski 1994). Die darauffolgende politische Debatte über Gewalt in den Medien führte zu verschärftem Jugendschutz in Videotheken und Fernsehen. Dennoch verließ insbesondere der Pornofilm seine Nischenexistenz. Über 20 Prozent aller Deutschen, darunter vor allem Männer bis zum 30. Lebensjahr, konsumieren regelmäßig Werke dieses Genres. Aufbruch und Stagnation zugleich. In den 1990er Jahren nahm erstmals seit langem der Kinobesuch in Deutschland wieder zu. Die Statistik wurde durch das neue Zuschauerpotential auf dem Territorium der ehemaligen DDR begünstigt. Hinzu kam ein Boom durch zahlreiche, neueröffnete Multiplex-Kinos, die im Unterschied zu den Schachtelkinos der 1980er Jahre großen Wert auf breite Leinwände und mittels Raumklangverfahren auf hohe Tonqualität gelegt haben. Obwohl die überwiegende Mehrheit der Zuschauer nach wie vor amerikanische Spielfilme bevorzugt, nahm in den 1990er Jahren auch der Besuch von deutschen Filmen zu. Am Beginn der 1990er Jahre kam es zu einem Boom deutscher Beziehungskomödien. Ein Vorläufer dieser Welle war der Film „Männer“ (1985, Regie: Doris Dörrie). Filme wie beispielsweise „Allein unter Frauen“ (1991), „Abgeschminkt!“ (1993, Regie: Katja von Garnier), „Der bewegte Mann“ (1994, Regie: Sönke Wortmann) oder „Stadtgespräch“ (1995, Regie: Rainer Kaufmann) waren sehr erfolgreich. Besonders die Schauspielerin Katja Riemann war in vielen dieser Beziehungskomödien zu sehen. Ein weiterer Filmemacher der neuen Generation ist Detlev Buck. In seiner Komödie „Wir können auch anders…“ (1993) behandelt er auf satirische Weise Probleme der Wiedervereinigung der Bundesrepublik und der DDR. Seine bisher erfolgreichste Komödie war aber „Karniggels“ (1991). Während die amerikanischen Filme in den 1990er Jahren immer aufwendiger hergestellt wurden und sie dementsprechende Schauwerte zu bieten hatten, kam es bei den bundesdeutschen Filmen nicht zu einer vergleichbaren Entwicklung. Deshalb blieb der Erfolg der deutschen Filme an der Kinokasse alles in allem begrenzt. Auch an den ökonomischen Bedingungen der Filmproduktion änderte sich nur wenig. Nach wie vor waren die deutschen Filme auf die Förderung durch Vergabegremien und das Fernsehen angewiesen. Im Fernsehprogramm wurden deutlich weniger Spielfilme ausgestrahlt, als noch in den 1980er Jahren. Die öffentlich-rechtlichen Sender hatten wegen des faktischen Filmhandelsmonopols von Leo Kirch kaum noch Zugang zu attraktiven amerikanischen Spielfilmen. Die Privatsender bevorzugten inzwischen Eigenproduktionen. Im Rahmen des Film-Fernseh-Abkommens für Filmproduktionen investierten sie nun mehr und reagierten auf den Bedarf an eigenproduzierten „Formaten“. Zahlreiche neue Talente nutzen die „Privaten“ als Sprungbrett zum Film. Die sich neu etablierenden privaten Musiksender verhalfen der Produktion von deutschen Musikvideos zu einem Aufschwung. Neben den Komödien entstanden in den 1990er Jahren auch eine Reihe von Filmen, die – in der Tradition des neuen deutschen Films – versuchten, die gesellschaftliche Realität zu reflektieren. Beispiele für solche Filme sind: „Winterschläfer“ (1997, Regie Tom Tykwer), „Das Leben ist eine Baustelle“ (1997, Regie: Wolfgang Becker) und „Der Krieger und die Kaiserin“ (2000). Die meisten dieser Filme waren allerdings kommerziell nicht besonders erfolgreich. Daneben werden in den 1990er-Jahren in Deutschland auch wieder häufiger Genrefilme gedreht, beispielsweise „Lola rennt“ (1998, Regie: Tom Tykwer), „Bandits“ (1997, Regie: Katja von Garnier) oder der Horrorfilm „Anatomie“ (2000, Regie: Stefan Ruzowitzky). Der Undergroundfilm florierte ebenfalls: Die morbiden Splatterkunstfilme des Jörg Buttgereit beispielsweise sind in der einschlägigen Szene international bekannt geworden. Etwas abseits des Mainstreams befinden sich auch die Filme von Helge Schneider. Seine Werke, wie auch der mit dem Europäischen Filmpreis ausgezeichnete Dokumentarfilm Buena Vista Social Club (1999, Regie: Wim Wenders), werden in erster Linie in Programmkinos gezeigt. Ende der 1990er Jahre veränderten zudem erstmals vermehrt Filmemacher mit Migrationshintergrund die Filmlandschaft. Das Deutsch-türkische Kino entstand. Ihr häufig transnationaler Ansatz leistete einen bedeutenden Beitrag insbesondere zur internationalen Aufmerksamkeit, die der deutsche Film ab diesem Zeitpunkt wieder erfuhr. Als ungewöhnlicher Regisseur zwischen Dokumentar- und Spielfilm erwies sich Romuald Karmakar. Die deutschen Regisseure Wolfgang Petersen und Roland Emmerich konnten sich nach ihren einheimischen Erfolgen in den USA etablieren. Mit Filmen wie Independence Day (1996) oder In the Line of Fire – Die zweite Chance (1993) erreichten sie ein globales Publikum. Der Filmkomponist Hans Zimmer ist seit den 1990er Jahren ebenfalls einer der erfolgreichsten Künstler in den Vereinigten Staaten. Seine Kompositionen für mehr als 100 weltweit erfolgreicher Filme gelten als stilprägend. Strukturelle Defizite und ausbleibender Publikumserfolg. Die Bedingungen für die Filmbranche im 21. Jahrhundert haben sich verändert. Seit dem Jahre 2001 sind die Besucherzahlen in den Kinos zurückgegangen. Die Digitale Revolution führte zum Aufkommen von Tausch-Netzwerken im Internet in denen aktuelle Filme illegal verbreitet werden konnten. Die für den Kinobesuch relevante junge Zielgruppe ging infolge demographischer Entwicklungen zurück. Computerspiele und Freizeitaktivitäten im Zusammenhang mit dem Internet wurden eine Konkurrenz. Positiv hingegen verlief der Verkauf und die Vermietung von Videokassetten und später DVDs. Der Kinoumsatz lag im Jahr 2005 bei 745 Mio. Euro, der Videogesamtmarktumsatz bei 1,686 Mrd. Euro. Die Verbreitung großer Flachbildschirme, und verbesserter Tonanlagen für das private Heimkino beschleunigte den Trend. Streaming-Dienste für Filme konnten zurückgegangene Umsätze an der Kinokasse wieder ausgleichen. Der deutsche Film konnte seit dem Jahr 2000 vereinzelt Erfolge bei internationalen Preisverleihungen verbuchen. Die Präsenz deutscher Filmproduktionen innerhalb Deutschlands blieb jedoch trotz verbesserter Marktanteile sehr begrenzt. Außerhalb von Deutschland war der Publikumserfolg deutscher Filme wie in den Jahrzehnten zuvor äußerst gering. 2003 wurde die Deutsche Filmakademie gegründet, 2007 konnte der Deutsche Filmförderfonds und 2015 der "German Motion Picture Fund" eingerichtet werden. Caroline Links Literaturverfilmung „Nirgendwo in Afrika“ wurde 2003 mit dem Oscar für den besten fremdsprachigen Film ausgezeichnet. Für Oliver Hirschbiegels „Der Untergang“ wurde 2005 und für „Sophie Scholl – Die letzten Tage“ (Regie: Marc Rothemund), im Jahr 2006 eine Nominierung ausgesprochen. Ein Jahr später konnte Florian Henckel von Donnersmarcks Film „Das Leben der Anderen“ einen Oscar nach Deutschland holen. Ansonsten setzen sich viele Filmtrends aus den 1990er-Jahren fort. Beim deutschsprachigen Kinopublikum erfolgreich waren in den Jahren nach der Jahrtausendwende Komödien mit dem Schauspieler und Regisseur Til Schweiger, von Matthias Schweighöfer, oder Filmparodien wie beispielsweise Michael Herbigs „Der Schuh des Manitu“ (2001) und „(T)Raumschiff Surprise – Periode 1“ (2004), die Zuschauerzahlen im zweistelligen Millionenbereich anziehen konnten. Wolfgang Beckers Komödie „Good Bye, Lenin!“ (2003) war ebenfalls ein großer Erfolg an den Kinokassen und wurde gleichzeitig mit dem Deutschen Filmpreis und Europäischen Filmpreis bedacht. Der Film „Das Wunder von Bern“ (2003), Regie: Sönke Wortmann, über Deutschlands unerwarteten Titelgewinn bei der Fußball-Weltmeisterschaft 1954 war mit über 3 Millionen Zuschauern ein bemerkenswerter kommerzieller Erfolg. Ebenso wie der Genrefilm „Das Experiment“ (2001). Beispiele für Dramen in den 2000er Jahren sind „Die fetten Jahre sind vorbei“ (2004), Regie: Hans Weingartner, der sich vor dem Hintergrund der globalisierungskritischen Bewegung mit der Prekarisierung der Arbeit und dem Widerstand dagegen beschäftigt. Fatih Akin mit seinen international ausgezeichneten Filmen „Gegen die Wand“ (2004) und „Auf der anderen Seite“ (2007) sowie andere Regisseure thematisierten Verwerfungen und Konflikte der multikulturellen Gesellschaft. Der mit 2,4 Millionen Zuschauern erfolgreiche und in den Medien intensiv diskutierte Film „Der Baader-Meinhof-Komplex“ (2008), Regie Uli Edel, setzt sich mit der Geschichte der RAF bis zum Deutschen Herbst 1977 auseinander. Produzent war Bernd Eichinger. Der Film „Das weiße Band“ (2009), Regie Michael Haneke, ist eine deutsch-österreichische Koproduktion. Er thematisiert autoritäre Erziehung in einem fiktiven norddeutschen Dorf vor 1914 und gewann die Goldene Palme der Filmfestspiele von Cannes. Weitere internationale Koproduktionen mit deutscher Beteiligung waren u.a. The International (2009) und Das Parfum – Die Geschichte eines Mörders (2006). Cloud Atlas (2012) galt zum Zeitpunkt der Veröffentlichung als die teuerste heimische Filmproduktion. Viele dieser Großproduktionen werden seit der Jahrhundertwende in den Filmstudios von Babelsberg hergestellt. Babelsberg und das in der Nachbarschaft liegende Berlin konnten sich auch vermehrt als Standort für die Produktion von US-Filmen etablieren. Unter dem Begriff der Berliner Schule ist weit abseits des publikumswirksamen Films ein Autorenstil im deutschsprachigen Raum bekannt geworden. Christian Petzold, der in Filmen wie „Die innere Sicherheit“ (2000) Regie führte, zählt u.a. zu den Vertretern. Wim Wenders konnte mit der Tanzfilm-Dokumentation „Pina“ (2011) gefilmt in 3D, technisch wie künstlerisch, Neuland betreten. Die unabhängige Filmszene, konnte in mit minimalem Budget gedrehten Streifen wie „Status Yo!“ (2004) Aufmerksamkeit erringen. Hier zeigten sich auch die Folgen neuer technischer Möglichkeiten im Bereich der Filmproduktion. Camcorder mit qualitativ guter Videofunktion wurden praktisch für jeden erschwinglich. Der Schnitt des Materials konnte nun von einem handelsüblichen Computer erledigt werden. Diese Entwicklung ermöglichte es mehr Menschen als bisher, selbst Filme zu drehen. Als international konkurrenzfähig hat sich die deutsche Werbebranche mit ihren Filmen erwiesen. Bei dem Cannes Lions International Festival of Creativity konnte Deutschland in der Nationenwertung 2011 den dritten Platz belegen. Die Verbreitung besonders populärer Werbefilme geschieht zunehmend über soziale Medien und Internetforen aller Art. Bedeutung. Der deutsche Film konnte nach 1933 nicht mehr an seine international ausstrahlende Kinotradition anknüpfen. Die Gründe für den Bedeutungsverlust der bis zur Gegenwart nicht aufgeholt werden konnte sind vielfältig und zahlreich. Zum einen musste nach 1945 ein starker Verlust an kreativem Talent hingenommen werden. Zum anderen führten die langandauernde geschichtliche Bewältigung des Zweiten Weltkriegs und die Teilung Deutschlands zu einem Abbruch vieler Filmtraditionen. Eine Ablehnung regionaler, nationaler oder gar europäischer Identität ging mit dieser Entwicklung einher. Die staatlich gestützte (westdeutsche) Kulturförderung zog sich weitgehend aus der zum Leitmedium des 20. Jahrhunderts aufgestiegenen Kunstform Film zurück. Man verließ sich in der Nachfolgezeit insbesondere auf Filmimporte aus den Vereinigten Staaten. Künstlerisch dargestellte gesellschaftliche Diskurse der Gegenwart fanden bis in die späten 1990er Jahre in erster Linie auf lokal orientierten Theaterbühnen oder im Fernsehen ihre Repräsentation. Im Jahr 2010 beliefen sich die staatlichen Gesamtausgaben für subventionierte Kultureinrichtungen auf etwa 9,5 Mrd. Euro. Die Filmförderung auf Länderebene und Bundesebene zusammengenommen verzeichnete 2013 Ausgaben von etwa 250 Millionen Euro. Angesichts der finanziellen Ausstattung nimmt der Film demnach als Kunstform in Deutschland bis heute eine sehr untergeordnete Rolle ein. Auf privatwirtschaftlicher Ebene konnte sich, bis auf Ausnahmen, nur eine im nationalen Kontext selbsttragende Filmbranche entwickeln. Eine dem Aufkommen der privaten Fernsehsender während der 1980er Jahre vergleichbare Entwicklung war innerhalb der Filmbranche nur zu einem sehr geringen Maße zu beobachten. Die unterdurchschnittliche materielle Ausstattung und die jahrzehntelange fehlende Wertschätzung des Films als Kunstform zog u.a. eine geringe Talentdichte nach sich. Ein Starsystem beispielsweise, also die Herausbildung einer Vielzahl international anerkannter Schauspielerpersönlichkeiten, ist bis heute nicht zu beobachten. Populäres, an den Kinokassen erfolgreiches Genrekino, wie etwa im Action- Abenteuer- oder Sciencefiction Bereich, konnte nach der Blütezeit in den 1920er Jahren nicht wieder aufgebaut werden. Selbst ein nach künstlerischen Maßstäben profiliertes Autorenkino, das zuletzt in den 1970er Jahren für Aufmerksamkeit in Kritikerkreisen sorgte, fand in den Jahrzehnten nach 1990 keine Fortsetzung. Im medialen Diskurs gehen verschiedene Autoren auf die Ursachen zu weiteren strukturellen Defiziten ein. Im Fokus der Kritik stehen hier u.a. die sowohl personell als auch inhaltlich eher regional ausgerichteten Fernsehsender, die als Fördergeldgeber über Filmprojekte mitentscheiden. Für die geringe Präsenz des deutschen Films auf dem heimischen Markt (20-25 % Marktanteil) und die Erfolglosigkeit beim internationalen Publikum werden auch Schwächen bei der Anwendung technischer Möglichkeiten und unzureichende emotionale Zuschauerbindung genannt. Die fehlende Ausrichtung auf publikumswirksame, identitätstiftende und zeitgemäße Drehbücher werden als weitere Gründe für den geringen Stellenwert der hiesigen Filmproduktion angeführt. Weblinks. ! David Fincher. David Andrew Leo Fincher (* 28. August 1962 in Denver, Colorado) ist ein US-amerikanischer Filmregisseur, Filmproduzent und Schauspieler. Biografie. David Fincher wurde am 28. August 1962 (anderen Angaben zufolge am 10. Mai 1962) als Sohn des Reporters Howard Fincher geboren. Sein Vater arbeitete unter anderem für das Magazin "Life" und seine Mutter Claire war in einer Klinik zur Rehabilitation von Drogenabhängigen beschäftigt. Als Kind zog er mit seiner Familie ins kalifornische Marin County. Früh hegte er den Wunsch, später als Filmregisseur zu arbeiten. Inspiriert durch George Roy Hills Western-Komödie "Zwei Banditen" (1969) begann er bereits als Achtjähriger eigene Filme mit einer 8-mm-Filmkamera im heimischen Garten aufzunehmen. Ebenfalls sollte er durch George Lucas’ Science-Fiction-Film "Das Imperium schlägt zurück" (1981) beeinflusst werden. Er besuchte auch die Dreharbeiten zu Lucas’ "American Graffiti" (1973), der in Marin County gedreht wurde. Als Schüler besuchte er die "Ashland High School" in Ashland (Oregon). Dort arbeitete er nebenbei als Filmvorführer und sah so die gesamte Filmproduktion dieser Jahre bis zu 180 mal. Samstags arbeitete er bei einem lokalen Fernsehsender als Produktionsassistent. Der Autodidakt Fincher, der nie eine Filmhochschule besuchte, erlernte das Handwerk ab dem achtzehnten Lebensjahr bei der Trickfilm-Firma "Korty Films" in Mill Valley, Kalifornien. Er profitierte davon, dass George Lucas ein direkter Nachbar seines Elternhauses war, so dass er von 1981 bis 1983 bei George Lucas’ Spezialeffekte-Firma Industrial Light & Magic (ILM) arbeiten konnte, wo er als Trickfilmzeichner begann. Nach der Mitarbeit an Projekten wie Lucas’ "Die Rückkehr der Jedi-Ritter" (1983) oder Steven Spielbergs Abenteuerfilm "Indiana Jones und der Tempel des Todes" (1984) gründete Fincher 1986 − zusammen mit späteren Hollywood-Regisseuren wie Mark Romanek, Michel Gondry, Neil LaBute und Michael Bay − die Produktionsfirma "Propaganda Films". Der Amerikaner drehte in dieser Zeit unter anderem Musikvideos für Künstler wie Michael Jackson, Madonna, George Michael, Aerosmith oder die Rolling Stones. Zusätzlich produzierte Fincher beginnend mit seinem „rauchenden Fötus“ (1984, American Cancer Society) Werbefilme. Zu seinen Kunden zählten unter anderem Adidas, AT&T, Budweiser, Chanel, Coca-Cola, Heineken, Levi’s, Nike und Pepsi. 1992 gab Fincher mit "Alien 3" sein Debüt als Spielfilmregisseur. Der Film erhielt jedoch keine guten Kritiken, und er blieb kommerziell etwas unter den hohen Erwartungen (1,5 Mio. Besucher in Deutschland und inflationsbereinigt 86 Mio. US-Dollar in den Vereinigten Staaten). Verständlich wurde dieser Fehlschlag jedoch einige Jahre später, als die katastrophalen Produktionsbedingungen des Films bekannt gemacht wurden: Während Fincher den Film bereits drehte, wurde gleichzeitig noch am Drehbuch gearbeitet. Sein Thriller "Sieben" (1995) konnte drei Jahre später jedoch die Kritiker überzeugen und wurde zudem ein großer Erfolg an den Kinokassen. Das Werk, in dem Morgan Freeman und Brad Pitt einen Psychopathen (gespielt von Kevin Spacey) jagen, der eine Serie krankhafter Morde nach der Reihenfolge der sieben Todsünden begeht, war prägend für die Definition des modernen Thrillers (Neo-Thriller). An den vorangegangenen Erfolg konnte Fincher mit dem Thriller "The Game" (1997) anknüpfen, in dem ein egoistischer Wirtschaftsboss (Michael Douglas) durch seinen Bruder (Sean Penn) zum unfreiwilligen Teilnehmer in einem lebensbedrohlichen Spiel wird. Das darauf folgende Werk "Fight Club" (1999) mit Edward Norton und Brad Pitt in den Hauptrollen konnte zwar die Kritiker, aber nicht an den Kinokassen überzeugen und avancierte erst nach seiner Video- und DVD-Auswertung zum Kultfilm. Mit Pitt arbeitete Fincher auch 2008 beim Drama "Der seltsame Fall des Benjamin Button" zusammen, der auf der gleichnamigen Kurzgeschichte von F. Scott Fitzgerald basiert und ihm seine ersten Nominierungen als Regisseur für den Golden Globe Award und Oscar einbrachten. Dazwischen entstanden die Thriller "Panic Room" (2002) und "Zodiac – Die Spur des Killers" (2007), bei denen Fincher mit so bekannten Akteuren wie Robert Downey jr., Jodie Foster, Jake Gyllenhaal und Forest Whitaker zusammenarbeitete. Letztgenannter Film erzählt die Geschichte des gleichnamigen Serienmörders, der Ende der 1960er Jahre in der San Francisco Bay Area für Angst und Schrecken sorgte. Mit dem Projekt "The Social Network", das im Februar 2010 abgedreht wurde und im Oktober 2010 in die Kinos kam, nahm sich Fincher der Entstehungsgeschichte des sozialen Netzwerkes Facebook an. Die Hauptrolle des Facebook-Gründers Mark Zuckerberg übernahm Jesse Eisenberg. Das "„komplexe Geflecht aus Rückblenden, Perspektivwechseln, Anekdoten und Abschweifungen, dessen gewagtes Tempo eine sogartige Wirkung entfaltet“" stand trotz Kritik am Wahrheitsgehalt der Geschichte in der Gunst von Publikum und Kritikern. "„Hollywoods Parforce-Kunsthandwerker“" wurden daraufhin zahlreiche Auszeichnungen zuteil, darunter die Regiepreise der Filmkritikervereinigungen von Los Angeles und New York, der National Board of Review Award, der National Society of Film Critics Award, der Golden Globe Award sowie eine Oscar-Nominierung. Die Veröffentlichung des ersten Teils der Millennium-Trilogie "Verblendung" erfolgte im Dezember 2011. Fincher öffnete sich neuen Medien und schuf als Executive Producer für Netflix die Online-Serie House of Cards von 2013. Neben der Produktion führte er in zwei Episoden Regie und war für das Marketing der Serie verantwortlich. Im Jahr 2014 kam Finchers Verfilmung des Romans "Gone Girl – Das perfekte Opfer" von Gillian Flynn ins Kino. Er thematisiert die Beziehungsebene einer Ehe anhand des plötzlichen Verschwindens einer Frau (gespielt von Rosamund Pike) und des aufkommenden Verdachts gegenüber ihrem Ehemann (Ben Affleck). Fincher dreht seit "Zodiac" (2007) seine Filme mit digitalen Kinokameras. In der Filmbranche gilt das „Wunderkind“ als Perfektionist. So ließ Fincher unter anderem den achtminütigen Anfangsdialog zu "The Social Network" mit Jesse Eisenberg und Rooney Mara 99 Mal drehen. David Fincher war von 1990 bis 1995 mit Donya Fiorentino verheiratet. Er ist Vater einer Tochter. Auszeichnungen (Auswahl). David Fincher wurde, vor allem für seine Tätigkeiten als Regisseur, für die verschiedensten Preise nominiert und ausgezeichnet. So erhielt Fincher bisher (Stand: Januar 2015) 67 Nominierungen und wurde 58-mal prämiert. Er konnte u.a. einen Golden Globe, einen BAFTA Award, einen Grammy, einen César sowie einen Emmy gewinnen und war zweimal für den Oscar nominiert. Die nachfolgende Auflistung stellt eine Auswahl dar. Golden Globe Award BAFTA Award Internationale Filmfestspiele von Cannes Saturn Award Welt am Draht. Welt am Draht ist ein zweiteiliger Fernsehfilm von Rainer Werner Fassbinder aus dem Jahr 1973. Vorlage ist der 1964 erschienene Science-Fiction-Roman "Simulacron-3" von Daniel F. Galouye. Teil 1. Die Handlung spielt in der Gegenwart der 1970er Jahre. Am „Institut für Kybernetik und Zukunftsforschung (IKZ)“ wurde ein Supercomputer namens Simulacron-1 entwickelt, der imstande ist, eine Kleinstadt zu simulieren. Diese Simulation läuft rund um die Uhr und wird von „Identitätseinheiten“ bevölkert, die in etwa dasselbe Leben führen wie normal lebende Menschen und ein Bewusstsein besitzen. Außer einer einzigen „Kontakteinheit“ weiß keiner der simulierten Menschen, dass ihre Welt eine Simulation bzw. ein Simulakrum ist. Fred Stiller wird zum neuen Direktor des Instituts befördert, nachdem sein Vorgänger, Professor Henry Vollmer, unter ungeklärten Umständen ums Leben kam. Zuvor hatte dieser gegenüber seinem Mitarbeiter Günther Lause noch angedeutet, eine „ungeheure Entdeckung“ gemacht zu haben. Einige Tage später, auf einer Party von Stillers Vorgesetztem Herbert Siskins, verschwindet Lause wie vom Erdboden verschluckt, unmittelbar, bevor er Stiller über Vollmers Entdeckung in Kenntnis setzen konnte. Stiller macht sich auf die Suche nach Lause, doch niemand außer ihm scheint den einstigen Sicherheitschef des Instituts überhaupt gekannt zu haben. Auch in den Personaldatenbanken des Instituts ist der Name nicht verzeichnet – offiziell hat Lause nie existiert. Während Stiller weitere Nachforschungen anstellt, ereignen sich innerhalb der Computersimulation seltsame Dinge: Eine der Identitätseinheiten wollte Selbstmord begehen und wird daraufhin von Stillers Mitarbeiter Walfang aus der Simulation gelöscht. Die Kontakteinheit namens Einstein will das System verlassen und in die wirkliche Welt gelangen. Eines Tages gelingt es Einstein, in den Körper des Mitarbeiters und Freundes von Stiller, Fritz Walfang, zu schlüpfen, als dieser sich mittels einer „Kontaktschaltung“ in die Simulationswelt einklinkt. Doch die falsche Identität wird entdeckt. Damit endet der erste Teil. Teil 2. Einstein wird zu Beginn des zweiten Teils wieder in seine simulierte Welt zurückgeschickt. Während sich am Institut die politischen Auseinandersetzungen über die Nutzung der Forschungsergebnisse zuspitzen – Siskins will das System der Industrie zur Verfügung stellen – geht Stiller langsam dem Wahnsinn entgegen. Er spürt, dass auch er, wie sein Vorgänger Lause, ausgeschaltet werden soll. Begleitet von einer zarten Affäre zwischen Stiller und Eva Vollmer, der Tochter des ehemaligen Direktors, entdeckt er, dass auch seine eigene Welt nicht die wirkliche Welt ist, sondern ebenfalls eine weiter fortgeschrittene Simulation, die von einer höheren Ebene aus programmiert wurde. Aufgrund seines Verhaltens wird Stiller von seinen Kollegen für verrückt erklärt und beurlaubt, später werden ihm zwei Morde in die Schuhe geschoben. Er trifft Eva wieder, die ihm verrät, dass sie die Projektion einer Eva aus der realen Welt ist und dass er selbst als Fred Stiller ein Wiedergänger seines Erschaffers ist, der ihn nach seinem Ebenbild ersonnen hat. Stiller wird von der Polizei erschossen; Eva gelingt es jedoch, sein Bewusstsein mit dem des echten Stiller auszutauschen, wodurch er in der realen Welt auftaucht. Hintergrund. Der Film wurde zwischen Januar 1973 und März 1973 in 44 Drehtagen abgedreht. Drehorte waren dabei Köln, München, Paris und Versailles. Die Romanvorlage von Galouye ("Simulacron Drei", Heyne Verlag München 1983, ISBN 3-453-30904-9) wurde erneut 1999 als "The 13th Floor – Bist du was du denkst?" verfilmt. Kritiken. Zahlreiche Kritiker loben den Film aufgrund seiner Ästhetik und seines Spiels mit der Realität. Die besondere Qualität des Ensembles und der Kameraführung wurden wiederholt hervorgehoben. Bei der Verleihung des Adolf-Grimme-Preises 1974 erhielt Fassbinder für die Regie eine ehrende Anerkennung. Veröffentlichung. Der Zweiteiler wurde am 14. Oktober 1973 (Teil 1) und am 16. Oktober 1973 (Teil 2) im Fernsehen von der ARD ausgestrahlt und war danach viele Jahre weder im Kino noch auf käuflichen Medien verfügbar. Im Rahmen der Berlinale 2010 hatte eine restaurierte Fassung in der Reihe "Berlinale Special" am 14. Februar 2010 ihre Welturaufführung. Die künstlerische Leitung der Restaurierung hatte Michael Ballhaus, Kameramann der ursprünglichen Aufnahmen im Auftrag der Rainer Werner Fassbinder Foundation inne. Zu den Förderern zählten u.a. die Kulturstiftung des Bundes als auch das MoMA. Am 18. Februar 2010 wurde diese Fassung als Doppel-DVD innerhalb der „Arthaus Premium“-Reihe von Kinowelt/Arthaus veröffentlicht. Am 6. Oktober 2010 erschien der Film in Frankreich beim Label Carlotta Films erstmals auf Blu-ray. Am 8. Juni 2012 erfolgte erstmals seit 2002 eine Ausstrahlung im deutschen Fernsehen auf Arte. Dabei handelt es sich um beide Teile der restaurierten Fassung in nativem HD. Differenz (Systemtheorie). Differenz im Sinne der Systemtheorie ist ein epistemologischer Grundbegriff der soziologischen Systemtheorie von Niklas Luhmann. Er bezeichnet, dass etwas von etwas anderem unterschieden oder getrennt werden kann. Details. Der Begriff „Differenz“ ist sehr abstrakt gefasst. Ihm liegt die Überzeugung zugrunde, dass die beispielsweise mit der Sprache bezeichneten Dinge nicht aus sich heraus eine Wesenhaftigkeit haben, die ihre Unterscheidbarkeit sicherstellt. Sondern jede Unterscheidung muss in die Welt eingeführt werden. Es gibt keine feste Welt, die unabhängig von einem Beobachter ist, wie sie ist - sondern was es 'gibt' ist das, was Beobachter beobachten; das heißt, auf welche Weise Beobachter differenzieren. (Luhmann liest demnach den Beginn des ersten Schöpfungsberichtes der Genesis so, dass darin ausgedrückt wird, dass die Welt erst durch die erste Unterscheidung zwischen Tag und Nacht wird; der Mensch, der zu unterscheiden lernt – das Böse und das Gute –, wird aus dem Paradies vertrieben.) Luhmann beruft sich für diese Grundposition auf George Spencer-Brown und seine "distinction" (Unterscheidung), doch greift er auch gewisse Gesichtspunkte der Betrachtungen auf, die Jacques Derrida zum Ausdruck différance entwickelt. Luhmanns Zuspitzung und Präzisierung des Konzeptes korrespondiert mit einer konstruktivistischen Beschreibung der Welt. Mit einer Differenz etabliert man gewissermaßen erst die Möglichkeit eines Zugriffs. So ist die Unterscheidbarkeit einer Blume durch nichts Wesenhaftes an ihr vorgegeben; es gibt nicht die Blume, deren Existenz sich als solche einem Beobachter aufdrängen kann; selbst die Tatsache, dass ein Mensch aus den Sinnesdaten letztlich eine Blume zu einem Objekt macht (und nicht etwa nur die Blüten oder die Blume von der Wiese nicht unterscheiden kann), ist keineswegs durch irgendetwas erzwungen. Es ist demnach auch nicht zu begründen und zu erklären, wie eine Differenz in die Welt kommt; sie emergiert. Auch Differenz ist nur als Differenz, als Unterscheidung zwischen Differenz und Identität zu begreifen. Identität meint dabei im engeren Sinne, dass etwas von etwas anderem nicht unterschieden wird. Damit bezeichnet es auch das (zumindest kurzzeitige) Fixieren von etwas, um es weiteren Operationen zugänglich zu machen. Differenz ist im Wesentlichen gleichwertig mit dem systemtheoretischen Begriff der Unterscheidung, doch akzentuiert "Unterscheidung" die Operation, während die Differenz die Getrenntheit oder Geschiedenheit selbst bezeichnet. Auf ähnliche Weise ist der Begriff mit der Medium-Form-Unterscheidung verknüpft. Eine Unterscheidung lässt sich auch auffassen als eine Verwendung einer Form im Sinne der Medium-Form-Unterscheidung; die Differenz ließe sich, wenn man sich eine Form wie George Spencer-Brown verbildlicht, als die Trennlinie auffassen. Wichtige Differenzen für die soziologische Systemtheorie sind System/Umwelt, Erleben/Handeln, Aktualität/Möglichkeit (Sinn). Delphi-Methode. Die Delphi-Methode (auch Delphi-Studie, Delphi-Verfahren oder Delphi-Befragung genannt) ist ein systematisches, mehrstufiges Befragungsverfahren mit Rückkopplung und ist eine Schätzmethode, die dazu dient, zukünftige Ereignisse, Trends, technische Entwicklungen und dergleichen möglichst gut einschätzen zu können. Namensgeber der Methode ist das antike Orakel von Delphi, das seinen Zuhörern Ratschläge für die Zukunft erteilte. Geschichte. Die Delphi-Methode wurde – nach Vorarbeiten Ende der 1950er Jahre – von der amerikanischen RAND-Corporation 1963 entwickelt und wird seitdem häufig, wenn auch in variierter Form, für die Ermittlung von Prognosen/Trends sowie für andere Meinungsbildungen im Rahmen von Systemaufgaben angewendet. Mehr und mehr hat sich das Verfahren zu einem Bewertungsverfahren für Themen entwickelt, in dem festgestellt werden kann, ob es einen Konsens über das Thema gibt (bzw. ob dieser erreicht werden kann) oder nicht. In Deutschland war es in den 90er Jahren das damalige Bundesministerium für Forschung und Technologie (BMFT), das die ersten Delphi-Studien zur Entwicklung von Wissenschaft und Technik in Auftrag gab. Die Studien "Deutscher Delphi-Bericht zur Entwicklung von Wissenschaft und Technik" (1993) und "Delphi '98 Umfrage. Zukunft nachgefragt. Studie zur globalen Entwicklung von Wissenschaft und Technik" (1998) wurden vom Fraunhofer-Institut für System- und Innovationsforschung (ISI) durchgeführt. Die Aussagekraft der Ergebnisse von Delphi-Studien hält sich jedoch in Grenzen. Typisch sind die sehr allgemeinen Aussagen auf Metalevel (Bsp: 'Zukunftsfähige Energielösungen werden an Bedeutung zunehmen') Vorgehensweise. Bei einer Delphi-Befragung wird einer Gruppe von Experten ein Fragen- oder Thesenkatalog des betreffenden Fachgebiets vorgelegt. Die Befragten haben in zwei oder mehr sogenannten "Runden" die Möglichkeit, die Thesen einzuschätzen. Ab der zweiten Runde wird Feedback gegeben, wie andere Experten geantwortet haben, in der Regel anonym. Auf diese Weise wird versucht, der üblichen Gruppendynamik mit sehr dominanten Personen entgegenzuwirken. Die in der ersten Runde schriftlich erhaltenen Antworten, Schätzungen, Ergebnisse etc. werden daher aufgelistet und beispielsweise mit Hilfe einer speziellen Mittelwertbildung, Perzentilen oder Durchschnittswertberechnungen zusammengefasst und den Fachleuten anonymisiert erneut für eine weitere Diskussion, Klärung und Verfeinerung der Schätzungen vorgelegt. Dieser kontrollierte Prozess der Meinungsbildung erfolgt gewöhnlich über mehrere Stufen. Das Endergebnis ist eine aufbereitete Gruppenmeinung, die die Aussagen selbst und Angaben über die Bandbreite vorhandener Meinungen enthält. Der Meinungsbildungsprozess enthält die Elemente: Generation, Korrektur bzw. teilweise Anpassung oder Verfeinerung, Mittelwertbildung bzw. Grenzwertbildung, oft auch offene Felder für Erläuterungen. Störende Einflüsse werden durch die Anonymisierung, den Zwang zur Schriftform und die Individualisierung eliminiert. Die Strategie der Delphi-Methode besteht aus: Konzentration auf das Wesentliche, mehrstufigem, teilweise rückgekoppeltem Editierprozess und sichereren, umfassenderen Aussagen durch Zulassen statistischer fuzzyartiger Ergebnisse. Ein häufiges Problem besteht darin, dass die Experten ihre einmal geäußerte Meinung in den folgenden Runden trotz Anonymität nicht ändern, sodass der Zusatznutzen weiterer Runden oft klein ist. Als Ergänzung der Delphi Methode kann z. B. die Cross-Impact-Matrix-Methode verwendet werden. Auch in der D2-Methode finden sich Elemente der Delphi-Methode wieder. Kombinationen mit Szenarien werden inzwischen ebenfalls erprobt. Aus Delphi-Ergebnissen lassen sich einfache Roadmaps ableiten, so dass auch diese Kombination sich zunehmender Beliebtheit erfreut. Man findet diverse Formen der Delphi-Methode, die das Verfahren der Schätzung etwas variieren: die Standard- und die Breitband-Methode sind einige der Varianten. Inzwischen werden die meisten Verfahren elektronisch durchgeführt. Realtime-Delphi-Verfahren (mit einer sofortigen Rückkopplung der Ergebnisse) sind eine Variante, die nur elektronisch möglich ist. Standard-Delphi-Methode. Das Fehlen jeglicher Diskussionen hat zwei Aspekte, die ein Projektleiter bewerten muss: Einerseits wird damit verhindert, dass sich aufgrund einer ungewollten Gruppendynamik Strömungen und Tendenzen in den Meinungen herausbilden, die unter Umständen gute Schätzungen verhindern. Auf der anderen Seite könnten Gruppendiskussionen dazu beitragen, Defizite im Know-how einzelner Experten und die damit verbundenen Fehleinschätzungen zu vermeiden. Häufig werden Delphi-Umfragen schriftlich und getrennt durchgeführt, die Fragebogen werden also den Experten per Brief oder Mail gesandt. Die einzelnen Experten sehen sich nie und wissen auch erst nach Abschluss aller Umfragerunden die Namen der anderen Befragten. Dieses Vorgehen ist zuverlässiger als das Versammeln aller Experten in einem Raum. Liegt der Schlussbericht einmal vor, werden in der Regel alle Experten und andere Interessierte zu einem Symposium eingeladen. Breitband-Delphi-Methode. Durch die Wechselwirkungen der Experten untereinander werden unterschiedliche Ansichten vermittelt, was eine Konsens-Bildung beschleunigt. Vorteil dieser Methode ist zum einen die Anonymität der Schätzungen: Die Experten werden nicht mit ihren gravierenden Abweichungen der Schätzungen konfrontiert und können damit die Schätzaufwände in ihrem Sinne beeinflussen. Starke Abweichungen von Mittelwerten werden offengelegt. Nachteil dieser Methode ist die Gefahr einer Meinungsbildung durch die Gruppendynamik, in der eine unter Umständen notwendige gravierende Schätzabweichung dem Gruppenzwang unterliegt. Ein weiterer Nachteil ist, dass aufgrund mehrerer Iterations-Schleifen für die Meinungsbildung der gesamte Schätzaufwand recht umfangreich werden kann. Die Breitband-Delphi-Methode ist eine sinnvolle Technik für das Schätzen von großen Projekten, in denen komplexe Architekturen durch eine große Expertenrunde mit Hilfe der Interaktion der Experten untereinander zu realistischen Werten führen kann. Kritik. Die Delphi-Methode versucht, durch das mehrstufige, manchmal auf Konsens angelegte Design, Fehleinschätzungen der Experten zu reduzieren. Dennoch lassen sich nicht alle Probleme der Expertenbefragung vermeiden; durch die Befragung mehrerer Personen entstehen weitere Einschränkungen. Distinktion. Distinktion () steht allgemein für "Auszeichnung", "Rang", "hoher Rang" oder "Unterschied". Sprachwissenschaft. Die Sprachwissenschaft definiert bedeutungsunterscheidende Komponenten einer sprachlichen Einheit als "distinktive Merkmale". Soziologie. In der Soziologie wird der Begriff der Distinktion verwendet, um die mehr oder weniger bewusste Abgrenzung von Angehörigen bestimmter sozialer Gruppierungen (z. B. Religionsgemeinschaften, Klassen, aber auch kleinere Einheiten wie etwa Jugendkulturen) zu bezeichnen. Logik. In der Spätscholastik verwendet Johannes Duns Scotus den Terminus zur Unterscheidung von Wesensmerkmalen bei der Begriffsbildung – insbesondere auch für eine spezielle nach der von George Spencer-Brown entwickelten Logik arbeitende Unterscheidung. In dessen Hauptwerk "Laws of Form" (dt. "Gesetze der Form") wurde diese Ur-Unterscheidung bzw. Ur-Operation formalisiert und gleichzeitig mit dem berühmten Satz "Draw a distinction" umschrieben. Aufbauend auf dem Formkalkül der "Laws of Form," unterscheidet die Logik der Distinktionen (Rodrigo Jokisch, 1996) zwei Formen von Distinktion: die asymmetrische (dichotome, entweder-oder) Unterscheidung, die der von George Spencer Brown entspricht, und die symmetrische (bivalente, sowohl-als auch) Differenz. Im Anfang von "etwas" steht dabei immer eine tetradische Ereignisrelation aus einer Differenz und einer Unterscheidung als Ur-Distinktionen, die "etwas" möglich machen. Distinktionsabzeichen. In Österreich wird der Begriff "Distinktion" traditionell zur Bezeichnung der Rangabzeichen oder Distinktionsabzeichen verwendet, welche an Uniformen angebracht oder getragen werden, wie z. B. beim Bundesheer, der Bundespolizei, der Feuerwehr oder auch im Rettungs- und Krankentransportdienst bzw. Katastrophenhilfsdienst des Österreichischen Roten Kreuzes und Samariterbundes Österreichs. Da Distinktionsabzeichen in der Regel paarweise angebracht bzw. verwendet werden, spricht man in der Mehrzahl von "Distinktionen". David Cronenberg. David Paul Cronenberg (* 15. März 1943 in Toronto, Ontario) ist ein vielfach preisgekrönter kanadischer Filmregisseur. Während sein Frühwerk vor allem dem Experimental-, Horror- und Science-Fiction-Film zuzuordnen ist, liegt das Augenmerk in seinen späteren Arbeiten vornehmlich auf dem Filmdrama und der Literaturverfilmung. Zu seinen bekanntesten Werken zählen "Die Fliege", "Naked Lunch" und in jüngeren Jahren "A History of Violence". Leben und Werk. Cronenberg wurde als Sohn einer Musikerin und eines Schriftstellers in Toronto geboren. Beider jüdische Großeltern stammten aus Litauen. Er besuchte das North Toronto Collegiate Institute und schrieb sich 1963 zuerst im Bereich Naturwissenschaften an der University of Toronto ein. Später wechselte er in die Fachbereiche englische Sprache und Literatur und erwarb 1967 seinen Abschluss als „Bachelor of Arts“. Beeinflusst von William S. Burroughs und Vladimir Nabokov, versuchte er sich zunächst erfolglos als Autor. Erst die Sichtung eines von Kommilitonen gedrehten Films weckte in ihm den Wunsch, selbst Filmemacher zu werden. Ab den späten 1960er Jahren begann Cronenberg seine ersten, experimentellen Kurz- und Langfilme zu drehen. Obwohl beeindruckt von Regisseuren wie Federico Fellini und Ingmar Bergman, verneinte er filmgeschichtliche Einflüsse auf sein Werk und verwies stattdessen wiederholt auf Burroughs, Nabokov sowie den Existentialismus. In den expliziten, Elemente des Horror- und Science-Fiction-Films einbindenden Arbeiten "Parasiten-Mörder" (1975) und "Rabid – Der brüllende Tod" (1977) stand der physische Horror im Vordergrund. Mit "Die Brut" (1979), seinem „autobiografischsten“ Film, begann Cronenberg psychologischen mit physischem Horror zu verbinden. "Die Brut" markierte auch die erste Zusammenarbeit mit dem Komponisten Howard Shore, der seitdem zu Cronenbergs festen Stamm von Mitarbeitern zählt, den der Regisseur im Laufe der Jahre um sich scharte, darunter Cutter Ronald Sanders und Kameramann Mark Irwin, der 1988 durch Peter Suschitzky ersetzt wurde. Seinen ersten größeren kommerziellen Erfolg verzeichnete Cronenberg mit "Scanners – Ihre Gedanken können töten" (1981), einen weiteren mit "Die Fliege" (1986), einem Remake des gleichnamigen Films von 1958. Mit "Die Unzertrennlichen" (1988), den er neben "Die Brut" und "Die Fliege" zu seinen persönlicheren Werken zählte, trat die extreme Darstellung körperlicher Deformationen in seinen Filmen zusehends in den Hintergrund. Inhaltlich verschob sich die Gewichtung vom Horror- und Science-Fiction-Genre hin zum Filmdrama, auch entstanden die nachfolgenden Arbeiten mehrheitlich nicht mehr nach seinen Originaldrehbüchern, sondern nach literarischen Vorlagen. "Naked Lunch" (1991) basierte auf einem Buch von Cronenbergs favorisiertem Literaten Burroughs und war die erste Zusammenarbeit mit dem namhaften Produzenten Jeremy Thomas. Zu seinen prämierten Filmen zählen "Crash" (Cannes 1996) und "eXistenZ" (Berlinale 1999). Am 28. September 2007 erhielt Cronenberg im Rahmen des Filmfests Hamburg bei der Aufführung seines Werkes "Tödliche Versprechen – Eastern Promises" den Douglas-Sirk-Preis 2007 als Regisseur, „der konsequent grenzüberschreitende, irrationale, verstörende Filme dreht. Vom Publikum und von der Kritik teils bejubelt und teils verrissen, provoziert er eine gesunde Polemik, die dem Kino – wie allen Künsten – immer zugute kommt.“ (Leiter Albert Wiederspiel) 2012 stellte er das Drama "Cosmopolis" vor, das auf dem gleichnamigen Roman von Don DeLillo basiert. Der Film brachte ihm seine vierte Einladung in den Wettbewerb der Internationalen Filmfestspiele von Cannes ein. Cronenberg drehte neben Kinofilmen auch Fernseh- und Werbefilme. Zusätzlich zu seiner Regiearbeit trat er in kleinen Rollen und Cameos in Erscheinung, so 1990 in Clive Barkers "Cabal – Die Brut der Nacht". 2013 soll Cronenberg bei der Fernsehserie "Knifeman" als Regisseur des Pilotfilms sowie als Executive Producer mitwirken. Themen. Cronenberg gilt als Mitbegegründer des Body Horror (dt. "Körperhorror"), einer Stilrichtung des Horrorfilms, „dessen Hauptmotiv die deutlich gezeigte Zerstörung oder der Verfall eines menschlichen Körpers oder menschlicher Körper ist bzw. sind.“ Der Regisseur selbst lehnt diese Zuordnung ab. Rüdiger Suchsland vom film-dienst sieht Cronenberg nach eher klassischen Horrorfilmen 2004 als „Meister des subtilen Horrors“ zwischen den Polen Angst, Gesellschaftskritik und Deformation des Körpers. Cronenberg auf Suchslands Frage nach seiner Weltsicht: „Die Basis ist eine existenzialistische Sicht der Realität. Das bedeutet: Es gibt keine absolute Realität. Es gibt nur ein oder zwei Tatsachen über das Leben – die eine ist der Tod, eine weitere das Leben. Dazwischen müssen wir alles selbst erfinden und hervorbringen. Die Verantwortung dafür ist ganz und gar unsere eigene – niemand nimmt uns das ab. Es gibt keine Regeln, außer die, die wir selbst erfinden. […] Das ist erschreckend und aufregend zugleich.“ David Lynch. David Lynch im Januar 2007 David Keith Lynch (* 20. Januar 1946 in Missoula, Montana) ist ein US-amerikanischer Künstler, der zugleich als Regisseur, Produzent, Drehbuchautor, Schauspieler, Maler, Fotograf und Komponist arbeitet. Bekanntheit erlangte Lynch vor allem durch seine Filme, die sich den Genres surrealistischer Film, Thriller, Horrorfilm und Film noir zuordnen lassen. Lynchs albtraumhafte, surrealistische Bilder und das bedrohliche, minutiöse Sounddesign sind die bestimmenden stilistischen Elemente. Albträume, fremde Welten, Metamorphosen, Voyeurismus und das Unterbewusstsein sind wiederkehrende Themen in filmischen Werken wie "Eraserhead" (1977), "Blue Velvet" (1986), "Twin Peaks" (1990–1991), "Lost Highway" (1997) oder auch "Mulholland Drive" (2001). Lynch bekam 1990 die Goldene Palme von Cannes für "Wild at Heart – Die Geschichte von Sailor und Lula" verliehen, 2006 einen Goldenen Löwen für sein Lebenswerk auf den internationalen Filmfestspielen von Venedig. Des Weiteren wurde er viermal für den Oscar nominiert. Er ist darüber hinaus Ritter und Offizier der französischen Ehrenlegion. Leben. Die Eltern Donald Walton Lynch und Edwina Lynch (geb. Sundholm) hatten sich während ihrer Studienzeit an der "Duke University" im US-Bundesstaat North Carolina kennengelernt. Der Vater arbeitete als Agrarwissenschaftler für das Landwirtschaftsministerium der Vereinigten Staaten. Er war auf einer Farm im Nordwesten der USA aufgewachsen. Die Mutter stammte aus Brooklyn und gab Sprachunterricht. Später war sie Hausfrau und kümmerte sich um die Kinder. David Keith Lynch wurde am 20. Januar 1946 in Missoula, Montana geboren. Zwei Monate später zog die Familie nach Sandpoint, Idaho. Lynchs Vater war durch seine Arbeit gezwungen, häufig die Orte zu wechseln, weshalb die Familie ein Wanderleben führte. In dem neuen Zuhause wurde Davids Bruder John geboren. Es folgte ein Umzug nach Spokane, Washington, wo seine Schwester Martha zur Welt kam, und anschließend einer nach Durham, North Carolina. In Boise, Idaho siedelte sich die Familie schließlich für eine längere Zeit an. David, der presbyterianisch erzogen wurde, besuchte dort von der 3. bis zur 8. Klasse die Schule. Zu dieser Zeit sah er auch den ersten Film, an den er sich erinnern kann: "Wait till the sun shines, Nellie" (1952) von Henry King. Rückblickend betrachtet meint Lynch, er habe eine glückliche Kindheit gehabt und sei wohlbehütet und in einer friedlichen Umgebung aufgewachsen: „"Meine Kindheit bestand aus eleganten Einfamilienhäusern, Alleen, dem Milchmann, Burgenbauen im Garten, Flugzeuggebrumm, blauem Himmel, Gartenzäunen, grünem Gras und Kirschbäumen".“ Durch seinen Vater kam er bereits in sehr frühen Jahren mit der Natur in Kontakt. „"Mein Vater machte häufig Experimente zu Baumkrankheiten und Insekten. Ihm standen riesige Wälder als Versuchsareal zur Verfügung. Dadurch kam ich mit Insekten, Krankheiten und Wachstum in einer organischen Welt in Berührung, einem Wald etwa, oder einem Garten"“, so Lynch, der parallel auch einige Tiere wie Mäuse oder Frösche sezierte. Die Berührung mit dieser organischen Welt hat den jungen David tief geprägt, was sich in seinen späteren Arbeiten widerspiegelt. 1960 ließen sich die Eltern endgültig in Alexandria, Virginia nieder. Der 14-jährige Lynch wurde als Schüler der "Francis C. Hammond High School" Pfadfinder ("Eagle Scout") und entwickelte nebenher ein Hobby: die Malerei. Trotz seines bayerischen Onkels, der als Maler in München tätig war, sah er darin keine aussichtsreiche Zukunft. Der Vater seines Schulfreunds Toby Bushnell Keeler brachte ihn schließlich auf andere Gedanken: Der professionelle Maler bot Lynch und dessen Freund Jack Fisk an, ihnen einen Raum in seinem Studio in Georgetown zu untervermieten. Die beiden nahmen an und konnten ihrer Kreativität somit freien Lauf lassen. Während dieser Zeit pendelte Lynch am Wochenende nach Washington D.C., wo er Kurse an der "Corcoran School of Art" belegt hatte. Es sollte schließlich ein Buch sein, das Lynch den Traum vom Künstlerdasein leben ließ: "The Art Spirit" von Robert Henri. Bushnell Keeler hatte ihn darauf aufmerksam gemacht. Lynch: „"[…] es wurde sozusagen zu meiner Bibel, es enthielt die Regeln fürs Künstlerleben"“. David Lynch mit 45 Jahren Nach dem Examen an der High School 1964, beschloss er an der privaten Kunsthochschule "School of the Museum of Fine Arts" in Boston zu studieren. Wegen mangelnder Inspiration und „unseriösen“ Kommilitonen brach er bereits nach einem Jahr ab. Zusammen mit seinem Freund Jack Fisk reiste Lynch daraufhin nach Europa, um dort in Salzburg Student der Sommerakademie Oskar Kokoschkas zu werden. Da beiden die Stadt zu „sauber“ war, machten sie sich alsbald jedoch auf den Weg nach Paris. Von da aus ging es anschließend per Orientexpress nach Athen. Aber auch diese Stadt gefiel nicht. „"Ich dachte darüber nach, dass ich 7000 Meilen vom nächsten McDonald’s entfernt war – und ich vermißte es, ich vermißte Amerika. Mir wurde klar, dass ich Amerikaner war und in Amerika leben wollte"“, erinnert sich Lynch. Zurück in den USA gab es von Seiten der Eltern keine finanzielle Unterstützung mehr, weshalb Lynch gezwungen war, sich mit diversen Nebenjobs über Wasser zu halten. Er arbeitete zunächst im Architekturbüro des Onkels seines Freundes Toby, später in einem Rahmengeschäft, über dem er auch wohnen konnte. Schließlich wurde er zum Hausmeister des Geschäfts ernannt. Nach mehreren Monaten fasste er den Entschluss, weiter zu studieren: Er bewarb sich an der "Pennsylvania Academy of Fine Arts" in Philadelphia, an der auch sein Freund Jack Fisk eingeschrieben war. Nach der erfolgreichen Aufnahmeprüfung zogen Lynch und Fisk Ende 1965/Anfang 1966 nach Philadelphia in eine Wohnung in einem dortigen Industriegebiet. An der Akademie studierte Lynch zwei Jahre lang, blieb darüber hinaus aber bis 1970 in der Stadt. 1967 heiratete er Margeret (Peggy) Reavey. Sie brachte am 7. April 1968 ihre gemeinsame Tochter Jennifer Lynch zur Welt. Auf Grund von Platzmangel zog die Familie in ein Haus, das Lynch für 3.500 US-Dollar erworben hatte. Der Nachteil: Es war äußerst heruntergekommen und lag in einer sehr armen Wohngegend. Es wurde mehrmals eingebrochen und ein Mord auf offener Straße miterlebt. „"Um uns herum gab es Gewalt und Haß und Dreck"“, so Lynch. Im Juli 2005 gründete Lynch die Stiftung "David Lynch Foundation for Consciousness Based Education and World Peace" (DLF), die sich um die Einrichtung von Meditationsprogrammen in Schulen kümmert, Stipendien zum Erlernen der Transzendentalen Meditation (TM) vergibt und ein auf Bewusstseinsbildung gegründetes Bildungs- und Erziehungswesens fördert. Bereits 1992 hatte er die Produktionsfirma "Asymmetrical Productions" gegründet. Sie hat ihren Sitz in Los Angeles, das Logo stammt von Lynch selbst. Lynch trennte sich 1974 von seiner ersten Frau Peggy. Drei Jahre später heiratete er Mary Fisk, die Schwester seines Freundes Jack. Gemeinsam haben sie einen Sohn namens Austin. 1987 wurde die Ehe geschieden. Von 1986 bis 1990 war Lynch mit der Schauspielerin Isabella Rossellini liiert. 2006 nahm er seine langjährige Cutterin und Produzentin Mary Sweeney zur Frau, reichte aber bereits einen Monat später die Scheidung ein. Aus dieser 1991 begonnenen Beziehung stammt sein zweiter Sohn Riley. 2009 heiratete er die Schauspielerin Emily Stofle. Am 28. August 2012 kam Lynchs zweite Tochter Lula Boginia zur Welt. Bildende Künste und erste Kurzfilme (1964–1970). Als Student an der "Pennsylvania Academy of Fine Arts" entstanden Lynchs erste düstere Zeichnungen und Gemälde. Zuvor hatte er noch bunte, farbenfrohe Bilder produziert. Nun malte er große, breite, dunkle Kunstwerke. Eines der ersten war "The Bride". Es zeigte eine abstrakte Figur einer Braut bei einer Selbstabtreibung. Es folgten diverse Action Paintings. Hierfür klatschte Lynch schwarze Farbe auf eine Leinwand und fügte „"kantige Formen"“ hinzu. Als er eines seiner Bilder betrachtete – ein schwarzes mit einer Figur in der Mitte – fehlten ihm Ton und Bewegung: „"Und wie ich so die Figur auf dem Bild betrachte, höre ich plötzlich einen Atemzug und sehe eine kleine Bewegung. Da wünschte ich mir, dass sich das Bild wirklich bewegen könnte, nur ein ganz kleines bißchen".“ Das war für Lynch der Anlass einige Filmexperimente zu starten. Da er nicht viel Ahnung vom Film hatte, kaufte er sich eine 16-mm-Kamera und folgte diversen Instruktionen. Lynch ließ sich von seinem Freund Jack Fisk Gipsabdrücke machen, die er zusammenfügte, sodass daraus eine Projektionsfläche wurde. Darauf projizierte er einen kurzen Animationsfilm, „"der zu einer Schlaufe zusammengeklebt wurde und endlos durch den Projektor laufen konnte, wobei er erst zur Decke und dann zurück in den Vorführappart geführt wurde"“. Dazu waren Polizeisirenen zu hören. Lynch nannte sein animiertes Gemälde "Six Men Getting Sick" (1967) und gewann den ersten Preis der Akademie. Dem wohlhabenden Kommilitonen H. Barton Wasserman gefiel dieses Kunstwerk so sehr, dass er Lynch mit 1.000 US-Dollar beauftragte, ihm auch so eine Filmskulptur anzufertigen. Lynch kaufte sich eine Bolex-Kamera für 450 Dollar und machte sich zwei Monate lang an die Arbeit. „"Den fertigen Film brachte ich ins Labor und holte ihn am nächsten Tag ab. […] Ich sah den ganzen Film durch, er war von vorne bis hinten im Eimer. Die Kamera hatte einen defekten Transportmechanismus, und der Film wurde ohne Führung durchs Bildfenster gezogen, statt Bild für Bild"“, erinnert sich Lynch. Wasserman erlaubte daraufhin dem angehenden Künstler, das restliche Geld für einen anderen Film zu verwenden, solange er davon eine Kopie bekomme. Lynch kam die Idee, Animations- und Realfilm zu kombinieren. So entstand der vierminütige Kurzfilm "The Alphabet" (1968), der teils von den Eltern mitfinanziert wurde. Die Hauptrolle spielte seine damalige Frau Peggy. Den Alptraum eines Mädchens vor dem Alphabet und allgemeiner vor dem Lernen unterlegte Lynch mit dem aufgenommenen Geschrei seiner frisch geborenen Tochter Jennifer. Auf Bushnell Keelers Empfehlung beantragte er anschließend ein Stipendium beim American Film Institute (AFI). Dazu schickte er eine Kopie von "The Alphabet" und ein fertiges Drehbuch ein. Der bei einer Druckerei arbeitende Lynch erhielt schließlich eine Antwort: Er bekomme das Stipendium, wenn er das Drehbuch auch mit 5.000 statt mit den angesetzten 7.118 Dollar umsetzen könne. Lynch willigte ein. Das Drehbuch, für das er das Stipendium bekam, war "The Grandmother" (1970). Er machte sich sogleich an die Arbeit und strich den dritten Stock in seinem Haus komplett schwarz. Während des Drehs merkte Lynch aber, dass das Geld nicht reichen würde. Nach einem Testscreening der bereits gedrehten Szenen für Tony Vellani vom AFI wurden ihm weitere 2.000 Dollar zugesagt. Den Ton gestaltete er erstmals zusammen mit Alan Splet, der bis zu "Blue Velvet" (1986) sein fester Sounddesigner bleiben wird. Nach der Fertigstellung des vierunddreißig Minuten langen "The Grandmother" war die Resonanz überaus positiv. Der Film lief auf Festivals in Atlanta und San Francisco und wurde unter anderem auf den Oberhausener Kurzfilmtagen vorgeführt. Außerdem bekam Lynch den Critics’ Choice Movie Award für den besten Film, der mit einem AFI-Stipendium gedreht wurde. Filmstudium und erster Spielfilm (1970–1979). Tony Vellani war von "The Grandmother" begeistert und motivierte Lynch dafür, sich am neuen "Center for Advanced Filmstudies" des AFI in Los Angeles zu bewerben. 1970 bewarb sich der junge David Lynch also für einen Studienplatz. Einreichen musste er dafür eine abgeschlossene Arbeit und eine Idee zu einem Drehbuch. "The Grandmother" war der fertige Film und "Gardenback" das Drehbuchprojekt, das Lynch nach seiner Annahme zu einem 45-seitigen Skript ausarbeitete. Man bot Alan Splet die Leitung der Tonabteilung an. Dieser nahm an und folgte zusammen mit Jack Fisk Lynch nach Los Angeles. Lynch gefiel das Studium, vor allem die praktische Seite. Eines der wenigen theoretischen Fächer, die er mochte, war Filmanalyse von Frantisek Daniel, dem Lehrer von Miloš Forman. Unter seinen Kommilitonen waren unter anderem Terrence Malick, Tim Hunter und Jeremy Kagan. Lynch wurde von seinem Mitstudenten Caleb Deschanel auf einen Produzenten von 20th Century-Fox aufmerksam gemacht, der sich für das Filmprojekt "Gardenback" interessierte. Er war bereit, Lynchs Projekt mit 50.000 US-Dollar unter der Bedingung zu unterstützen, dass das Skript zu 110 Seiten ausgearbeitet werde, damit ein richtiger Spielfilm zustande kommen könne. Lynch, der sich mit dieser Idee überhaupt nicht anfreunden konnte, lehnte nach einigen Bearbeitungsversuchen frustriert ab. Nach und nach verlor er die Begeisterung für seine Horror-Ehebruchgeschichte und erklärte dem AFI, er wolle stattdessen ein Projekt mit dem Titel "Eraserhead" realisieren. „"Unter dem Druck von "Gardenback" schlich ich mich manchmal davon und machte mir Notizen für "Eraserhead". Denn mir kamen Ideen, von denen ich wusste, dass sie für "Gardenback" nicht funktionieren würden, die ich aber trotzdem ziemlich aufregend fand. […] Und auf einmal fand ich "Eraserhead" viel interessanter"“, so Lynch. Die Verantwortlichen des AFI bewilligten das neue Projekt. Das Drehbuch zu "Eraserhead" war 21 Seiten lang. Da man bei der AFI aus Erfahrung pro Drehbuchseite eine Filmminute kalkulierte, ging man davon aus, dass der Film etwa 21 Minuten dauern werde. Einen Langfilm war man nicht bereit zu finanzieren, denn kurz zuvor war ein solches Großprojekt gescheitert. Nun hatte Lynch aber einen äußerst komprimierten Schreibstil und wollte viele Szenen erst beim Dreh entwickeln. Er erwähnte deshalb, dass der Film länger dauern würde. Man einigte sich auf 42 Minuten, Schwarzweiß und 35 mm. Er bekam außerdem 10.000 US-Dollar Budget zur Verfügung gestellt. Anfang 1972 begannen schließlich die Vorbereitungen zum Dreh. Zum Filmteam gehörten der Sounddesigner Alan Splet, Produktionsleiterin Doreen G. Small und Kameramann Herbert Cardwell. Um Musik, Dekor, Szenenbild und Schnitt wollte sich Lynch selbst kümmern. Er schätzte die Dauer der Dreharbeiten auf rund sechs Wochen, doch auch nach einem Jahr war noch nicht Schluss. Nach neun Monaten Drehzeit musste Kameramann Cardwell aus finanziellen Gründen die Produktion verlassen. Er wurde durch Frederick Elmes ersetzt. Die Produktionsbedingungen stellten sich als äußerst schwierig heraus. Als das Geld vom AFI aufgebraucht war, wollte man Lynchs Projekt keine weiteren Zuschüsse gewähren. Man stelle die technischen Mittel weiterhin zur Verfügung, wenn sich der Regisseur selbst um die Finanzierung der Dreharbeiten kümmere, hieß es. Lynch geriet in tiefe Verzweiflung und spielte mit der Idee, die restlichen Szenen mit kleinen Puppen als Animation zu realisieren. Der Gedanke wurde aber schnell wieder verworfen. Nach einjähriger Drehpause konnte die Produktion im Mai 1974 fortgesetzt werden, als es Lynch gelang, sich Geld von Freunden und Familie zu borgen. Außerdem arbeitete er jeden Tag um Mitternacht für zwei Stunden als Zeitungsbote und trug für 48 Dollar die Woche das "Wall Street Journal" aus. Nachdem man alle Szenen im Kasten hatte, musste noch der Ton kreiert werden. Das AFI setzte Lynch und Splet eine nicht einhaltbare Deadline und dann beide sprichwörtlich vor die Tür. Sie richteten sich daraufhin ein Tonstudio in einer Garage ein, wo von Sommer 1975 bis Frühling 1976 am Ton und Soundtrack zu "Eraserhead" gearbeitet wurde. Endgültig fertiggestellt wurde der Film nach vierjähriger Arbeit dann im Sommer 1976. Motiviert durch seine neue Frau Mary Fisk, reichte Lynch seinen Film bei dem Los Angeles Film Festival Filmex ein. Dort wurde "Eraserhead" am 19. März 1977 in einer 108-minütigen Fassung uraufgeführt, die Lynch im Nachhinein auf 89 Minuten kürzte. Grund dafür war die Reaktion im Vorführsaal, die ihm deutlich gemacht hatte, dass das letzte Drittel des Films zu langwierig und langsam war. Ben Bahrenholz, unabhängiger Filmverleiher aus New York, der mit so genannten Mitternachtsvorstellungen in Off-Kinos bekannt geworden ist, wurde auf Lynchs Film aufmerksam und nahm ihn alsbald in sein Programm auf. Noch im selben Jahr im Herbst wurde der Film im "Cinema Village" in New York City aufgeführt. Nach einem beschwerlichen Start wurde "Eraserhead" zu einem Mitternachts-Underground-Geheimtipp und lief bis 1982 in 17 US-amerikanischen Städten mit einer Anzahl von 32 Kopien. Die Rezensionen fielen überwiegend positiv aus und sahen in "Eraserhead" einen „"künstlerisch ambitionierte[n] Film"“ der in der Tradition des europäischen Autorenkinos stehe und dem Surrealismus und Expressionismus nahe komme. Der Film bedeutete Lynchs künstlerischen Durchbruch und gilt heute als Kultfilm. Durchbruch und Erfolg (1980–1991). Nach "Eraserhead" arbeitete Lynch an einem Drehbuch mit dem Titel "Ronnie Rocket", indem es um einen Zwerg, Elektrizität und Industrie gehen sollte. Doch die Filmstudios zeigten kein Interesse. Jack Fisk, der mittlerweile mit Sissy Spacek verheiratet war, veranlasste, dass er eine Nebenrolle in dem Film "Heart Beat" (1980) von John Byrum bekam. Im Schneideraum wurde Lynchs Rolle jedoch komplett vom endgültigen Film entfernt. Während der Dreharbeiten machte er die Bekanntschaft mit Patricia Norris, die seine spätere Kostümbildnerin wird. a>, der „Elefantenmensch“ (Foto von 1889). Zur selben Zeit suchte Stuart Cornfeld geeignete Projekte für "Brooksfilms", Mel Brooks neugegründeter Produktionsfirma. Cornfeld hatte "Eraserhead" gesehen und er war begeistert. Er nahm deshalb Kontakt zu Lynch auf. Als Cornfeld auf das Drehbuch "The Elephant Man" von Christopher De Vore und Eric Bergren stieß, schlug er Lynch vor, die Geschichte zu verfilmen. Dieser zeigte sich angetan und akzeptierte: „"Dieser Stoff schien mir nicht nur als zweiter Film nach "Eraserhead" ideal zu sein, sondern auch als Gelegenheit, im Mainstream Fuß zu fassen, ohne sofort größere Kompromisse machen zu müssen"”. Mel Brooks, dem der Name David Lynch kein Begriff war, schaute sich dessen Erstlingswerk an und war positiv überrascht. Er gab dem Projekt grünes Licht. Mitproduziert wurde der Film von NBC, EMI und Paramount Pictures. Von 1979 bis 1980 fanden die Dreharbeiten in den "Lee-International-Studios" in Wembley, London mit einem Budget von 5 Millionen US-Dollar statt. Gefilmt wurde in Schwarzweiß und CinemaScope. "Der Elefantenmensch" (1980) basiert auf der realen Geschichte von Joseph Merrick, der von Geburt an unter schweren Deformationen seines Körpers litt, die seine Gestalt und sein Gesicht völlig entstellten. Der Film feierte am 3. Oktober 1980 in New York City seine Weltpremiere. Ab dem 10. Oktober 1980 war er in den Vereinigten Staaten für die Öffentlichkeit zugänglich. In Europa startete der Film erst im folgenden Jahr. In den USA konnte man mit 26 Millionen US-Dollar mehr als das Fünffache der Produktionskosten wieder einspielen, in Großbritannien waren es 3,75 Millionen Pfund. 1981 wurde "Der Elefantenmensch" für acht Oscars nominiert. Lynch galt folglich als eines der „"vielversprechendsten neuen Talente des Hollywood-Establishments"”. In der Folge bot sich Francis Ford Coppola an, Lynchs Drehbuch "Ronnie Rocket" zu produzieren. Doch Coppolas "Zoetrope-Studios" machten Konkurs und das Projekt kam nicht zustande. Es folgten zwei andere Angebote: George Lucas wollte Lynch für "Die Rückkehr der Jedi-Ritter" gewinnen und Dino De Laurentiis kontaktierte ihn für eine Adaption des Science-Fiction Romans "Dune" von Frank Herbert. Alejandro Jodorowsky und Ridley Scott hatten sich bereits an der Literaturverfilmung versucht, waren aber an der Finanzierung gescheitert. Scott gab "Dune" deshalb für "Blade Runner" auf. Lynch hatte nach dem erneuten Nicht-Zustandekommen von "Ronnie Rocket" mit der Idee gespielt, den Thomas Harris Roman "Roter Drache" mit Richard Roth zu verfilmen. Nach De Laurentiis Vorschlag, bei einer "Dune"-Adaption Regie zu führen, entschied er sich jedoch dafür. Lynch verfasste zusammen mit Christopher De Vore und Eric Bergren das "Dune"-Drehbuch. Bei der dritten Fassung stiegen letztere auf Druck von De Laurentiis aus. Lynch schrieb alleine weiter, Drehbuchversion Nummer 7 wurde schließlich akzeptiert. Parallel dazu schlossen De Laurentiis und Lynch einen Vertrag über vier weitere Filme: "Blue Velvet", "Ronnie Rocket", "Dune II" und "Dune III". Die Dreharbeiten begannen am 30. März 1983 und endeten Anfang Januar 1984. Für Lynch wurde "Dune" der erste Spielfilm in Farbe. Die Kosten für den Science-Fiction-Film beliefen sich auf 52 Millionen US-Dollar – der bis heute teuerste Lynch-Film. Lynchs Fassung dauerte über dreieinhalb Stunden, die Produzenten forderten ihn auf, den Film auf etwa zwei Stunden zusammen zu schneiden: "„Ich hatte "Dune" nicht im Griff. Ich machte den Film für die Produzenten, nicht für mich selbst. Deshalb ist das recht auf den Final Cut so wichtig. Nur eine Person kann der Filter für das Ganze sein.”" Die Rezeption der Literaturverfilmung bestand überwiegend aus Verrissen: „"die Kritiker reagierten höhnisch bis bösartig […], Lynch habe Frank Herberts Wüsten-Epos in den Sand gesetzt"”. Seinen Ruf als Ausnahmeregisseur hatte Lynch so gut wie verloren. Nach dem Misserfolg von "Dune" stand die für Januar 1985 geplante Vorproduktion von "Blue Velvet" in der Schwebe. Raffaela De Laurentiis, die Tochter von Dino De Laurentiis, wünschte sich zur selben Zeit eine Adaption des Romans "Tai Pan" von James Clavell. Lynch zeigte sich interessiert, die Regie wurde dann aber Daryl Duke zugewiesen. Dino De Laurentiis ermöglichte ihm schließlich doch die Realisierung von "Blue Velvet", nicht zuletzt, weil er in dem Drehbuch, das Lynch bereits drei Jahre zuvor geschrieben hatte, die Gelegenheit witterte, an dem Publikumserfolg von ebenso existentiell tiefsinnigen Filmen wie "The Outsider" (1983) oder "Rumble Fish " (1983) von Francis Ford Coppola anzuknüpfen. Er schlug Lynch vor, dessen Gehalt und Budget zu kürzen. Im Gegenzug überließe er ihm die künstlerische Kontrolle. Lynch akzeptierte und bekam so die ihm wichtige künstlerische Freiheit, das Recht auf den Endschnitt und die Zusage, dass sich die Produzenten nicht mehr einmischen würden. Die Dreharbeiten begannen schließlich am 10. Februar 1986 und dauerten bis zum 22. April 1986. Gedreht wurde in dem Studiokomplex von Dino de Laurentiis Produktionsfirma in Wilmington, North Carolina. Die Produktionskosten beliefen sich auf fünf Millionen US-Dollar. Lynch arbeitete hier zum ersten Mal mit dem Komponisten Angelo Badalamenti zusammen, der seitdem zu allen Lynch-Filmen die Musik geschrieben hat. "Blue Velvet" stieß nach seiner Veröffentlichung auf positive Resonanz, löste aber auch Kontroversen und Diskussionen über die Darstellung der Frau im Film aus. Die Zuschauermassen blieben trotz wohlwollender Kritiken aus, was Lynchs Werk aber nicht daran hinderte, zu einem Kultfilm zu avancieren. Mit "Blue Velvet" hatte Lynch seinen Ruf als Regiekünstler wiederherstellen können. Dino De Laurentiis zeigte sich bereit, "Ronnie Rocket" zu produzieren. Es sollten sieben Millionen US-Dollar Budget zur Verfügung stehen und der Drehbeginn war für den Herbst 1987 angesetzt. Doch Ende des Jahres 1987 bedrohte ein Konkurs die "De Laurentiis Entertainment Group" und alle vertraglich an die Produktionsgesellschaft gebundenen Lynch-Projekte wurden stillgelegt. Dieser herbe Rückschlag trieb Lynch in andere Gewässer. Neben seinen Arbeiten am Film hatte er viel gemalt und gezeichnet. Bei den Dreharbeiten zu "Blue Velvet" hatte er Isabella Rosselini kennengelernt, mit der er bis 1990 zusammen blieb. Sie mochte seine Bilder und gab den Anstoß für einige Ausstellungen zu Lynchs Werken: Zwischen 1987 und 1989 wurden dessen Gemälde in den "Roger La Pelle Galleries" in Philadelphia, in der "James Corcoran Gallery" in Los Angeles und in der "Leo Castelli Gallery" in New York zur Schau gestellt. Außerdem gestaltete Lynch 1987 die Statuette für den "Rossellini Award" und gab seit 1983 jede Woche einmal den Comic-Strip "The Angriest Dog in the World" im "Los Angeles Reader" und anderen Zeitungen heraus. Darüber hinaus übernahm Lynch eine Nebenrolle in "Zelly and Me" (1988) von Tina Rathborne. Rossellini spielte die Hauptrolle und er verkörperte ihren Liebhaber im Film. Im selben Jahr wurde Lynch von einem Filmproduzenten aus Frankreich gefragt, ob er nicht Lust habe, zum 10-jährigen Jubiläum des "Le Figaro Magazine" einen Kurzfilm zu dem Thema „Frankreich aus der Sicht von …“ zu drehen. So entstand 1988 der 23 Minuten lange "The Cowboy and the Frenchman". David Lynch traf 1986 den Drehbuchautor Mark Frost auf Initiative von Tony Krantz, der beide Autoren mit seiner "Creative Artists Agency" (CAA) vertrat. Sie verstanden sich gut miteinander und erste gemeinsame Projekte entstanden: Drehbücher wie "The Goddess" (1987) oder "One Saliva Bubble" (1987) fanden jedoch keinen Abnehmer. Krantz schlug beiden daraufhin vor, sich gemeinsam an einer Fernsehserie zu versuchen. Er sah darin die Chance, Frosts Erfahrung von "Polizeirevier Hill Street" mit Lynchs visionärem Querdenken zu verbinden. Nach anfänglicher Skepsis setzten sich beide zusammen und entwickelten ein Drehbuch mit dem Titel "The Lemurians" für den Pilotfilm einer Serie um ein paar Detektive, die gegen Außerirdische kämpfen müssen, die sich unter die Erdbevölkerung geschlichen haben. Der Sender NBC, Frosts Arbeitgeber, lehnte das Skript ab. Daraufhin machten sich beide an die Arbeit ein neues Drehbuch zu verfassen: "Northwest Passage". Dem Projekt lag die Idee zugrunde, in einer Soap Opera einen Mord passieren zu lassen, auf den anschließend der gesamte Inhalt aufbaut. Handlungsort sollte eine Kleinstadt im Norden der USA sein. Um sich besser zurechtzufinden, entwarf Frost eine Karte der Stadt und ihrer Umgebung. Dabei lag die Stadt zwischen zwei Bergen und die Autoren benannten ihr Projekt in "Twin Peaks" um. Nach drei Monaten fruchtbarer Diskussion schrieben Lynch und Frost das Drehbuch für den Pilotfilm innerhalb von 10 Tagen. Der Fernsehsender ABC zeigte sich bereit, den Pilotfilm zu finanzieren, und ließ dabei den Schöpfern den nötigen Freiraum. Für dreieinhalb Millionen US-Dollar entstand der Pilotfilm, der im Mai 1989 auf einer Vorführung für internationale Programmeinkäufer großen Erfolg hatte: "Twin Peaks" wurde später in 55 Länder verkauft. ABC gab eine provisorische Reihe von sieben Folgen in Auftrag. Im September 1989 wurde der Pilotfilm auf dem Filmfestival in Telluride in Colorado offiziell uraufgeführt. Die Kritiken fielen positiv bis lobend aus, trotzdem befürchtete der Sender, eine Serie für bloße Filmliebhaber produziert zu haben. Als am 8. April 1990 der Film schließlich im US-amerikanischen Fernsehen ausgestrahlt wurde, wurde klar, dass man einen Hit gelandet hatte: 35 Millionen Zuschauer verfolgten den Pilot, was einem Anteil von 33 Prozent entsprach. Nach diesem anfänglichen Hoch wurden Mark Frost und David Lynch vom Sender ABC im Mai 1990 mit der Produktion einer weiteren Staffel bestehend aus einem zweiten Pilotfilm und zwölf Folgen beauftragt. Doch nach der Enthüllung des Mörders in Episode 16 sanken die Zuschauerzahlen drastisch und die Serie wurde nach Ende der zweiten Staffel 1991 eingestellt. Am 6. Oktober 2014 kündigte der Sender "Showtime", Mark Frost und David Lynch per YouTube-Video an, dass es Anfang 2016 eine Fortsetzung der Serie geben werde. Die dritte Staffel soll aus neun Episoden bestehen, bei denen allesamt Lynch die Regie übernehmen sollte. Im April 2015 gab Lynch jedoch bekannt, dass er am Reboot der Serie nicht mitwirken werde. Nach dem vorläufigen Ende von "Twin Peaks" blieb Lynch jedoch beim Fernsehen und entwickelte zwei weitere Serien: "On the Air – Voll auf Sendung" (1992) zusammen mit Mark Frost und "Hotel Room" (1993) gemeinsam mit dem Schriftsteller Barry Gifford. Erstere war eine Slapstick-Komödie in Form von 7 Episoden. Das Drehbuch zur ersten Folge hatten Lynch und Frost schon Ende 1990 geschrieben. Beide verfassten mit Robert Engels abwechselnd die restlichen Skripte. Am 20. Juni 1992 konnte die erste Folge im US-amerikanischen Fernsehen auf ABC ausgestrahlt werden. Regie führte David Lynch selbst. Schlechte Einschaltquoten und Kritiken zwangen ABC dazu, die Serie bereits nach der dritten Episode abzusetzen. Frost gab die Schuld hierfür der undurchdachten Sendezeit und dem „"mangelnden Sinn des amerikanischen Publikums für bizarren Humor"”. "Hotel Room" besteht aus drei Folgen: "Tricks", "Getting Rid of Robert" und "Blackout". Sie spielen jeweils in ein und demselben Hotelzimmer, aber zu jeweils verschiedenen Zeiten. Lynch produzierte die Mini-Serie mit seiner eigens gegründeten Produktionsfirma "Asymmetrical Pictures" und führte bei Folge 1 und 3 Regie. Die Drehbücher dazu stammten jeweils von Barry Gifford. Der Kabelsender HBO strahlte die drei Geschichten am 8. Januar 1993 aus. Parallel zu "Twin Peaks" hatte Lynch bereits 1989 mit Barry Gifford zusammengearbeitet: Er hatte dessen Roman "Wild at Heart" mit Nicolas Cage und Laura Dern in den Hauptrollen verfilmt. Das Roadmovie "Wild at Heart – Die Geschichte von Sailor und Lula" wurde im Mai 1990 auf den internationalen Filmfestspielen unter der Leitung von Bernardo Bertolucci mit der Goldenen Palme ausgezeichnet. Die Kritiker waren zutiefst gespalten. 1989 wirkten Cage und Dern auch bei der musikalischen Live-Performance "Industrial Symphony No. 1: Dream of the Broken Heart" von David Lynch und Angelo Badalamenti mit. Aufgeführt wurde sie am 10. November an der "Brooklyn Academy of Music" anlässlich des "New Music America"-Festivals. Rückschlag und Krise (1992–1995). In der amerikanischen Fachpresse konnte man Ende Mai 1991 kurz vor der Ausstrahlung der letzten Folge von "Twin Peaks" lesen, dass der Koproduzent Aaron Spelling zusammen mit David Lynch einen Kinofilm plane. Die Idee kam ihnen, als ABC ankündigt hatte, die Serie nach Folge 30 abzusetzen. Lynch hatte zwischenzeitig mit der Filmproduktionsgesellschaft "Ciby2000" des Franzosen Francis Bouygues einen Vertrag über drei Filme mit einem Gesamtbudget von 58 Millionen US-Dollar unterschrieben. Die erste gemeinsame Arbeit sollte "Ronnie Rocket" werden. Das Projekt musste aber stetig verschoben werden, so dass der "Twin Peaks"-Kinofilm den Vorzug bekam. Lynch und sein Koautor Robert Engels, der schon einige Folgen von "Twin Peaks" geschrieben hatte, entschieden sich dafür, ein Prequel zur Serie zu verfassen. Der Kinofilm sollte sich mit den letzten Tagen im Leben der siebzehnjährigen Laura Palmer befassen. Zwischenzeitlich herrschte ein Streit zwischen "Ciby2000" und Aaron Spelling um die Vertriebsrechte des zukünftigen Films, was dessen Realisierung blockierte. Außerdem hatte sich Lynch während der zweiten Staffel von "Twin Peaks" mit Koproduzent und -autor Mark Frost überworfen, der nun lieber seinen eigenen Film "Storyville" drehte. Als dann endlich der Konflikt zwischen "Ciby2000" und Spelling beigelegt wurde, stand einem Drehbeginn nichts mehr im Weg. Die Dreharbeiten mit einem Budget von rund 10 Millionen US-Dollar begannen am 5. September 1991 in der Nähe von Seattle im Bundesstaat Washington. Am 1. November 1991 fiel schließlich die letzte Klappe. Nach der Uraufführung auf den Filmfestspielen von Cannes 1992 am 16. Mai wurde "Twin Peaks – Fire Walk With Me" vom Publikum ausgebuht und stieß bei den anwesenden Kritikern auf eine Mauer der Ablehnung: Für die Kenner der Fernsehserie hob sich der Film zu sehr von deren Inhalt und Form ab, für die Unvorbelasteten war er eine einzige Überforderung. Auch finanziell wurde der Film zu einem Misserfolg. Lynch zu der Pressekonferenz in Cannes: „"Ich musste erkennen, dass ich "Twin Peaks" mit diesem Film endgültig den Todesstoß versetzt hatte. Es herrschte eine ausgesprochen feindselige Atmosphäre. Wenn man einen Raum betritt, in dem eine wütende Menge wartet, spürt man das, ohne dass jemand den Mund aufzumachen braucht".” Die negative, teilweise feindselige Rezeption und der finanzielle Flop von "Twin Peaks – Fire Walk With Me" führten dazu, dass Lynch nun als „Risikofaktor” in der Filmbranche galt: Großprojekte traute man ihm nicht mehr zu. Lynch trieb es daraufhin in eine Schaffenskrise, vor allem was filmische Projekte anbelangte. Neben seiner Arbeit als Maler, drehte er aus finanziellen Gründen notgedrungen zahlreiche Werbespots. 1992 drehte er einen für "Giò" von Armani, 1993 vier Spots für Georgia Coffee, zwei für Alka-Seltzer Plus und jeweils einen für Barilla Nudeln, Adidas und Jil Sander. 1994 entstand ein weiterer Werbespot für Karl Lagerfeld. 1990 waren bereits Werbefilme für die Parfüme "Obsession" von Calvin Klein und "Opium" von Yves Saint Laurent produziert worden. Des Weiteren drehte Lynch 1993 einen Film für die "American Cancer Society" zur Vorbeugung gegen Brustkrebs. 1993 produzierte Lynch zusammen mit Angelo Badalamenti das Album "The Voice of Love" von Julee Cruise. Bereits vier Jahre zuvor war das Album "Floating Into the Night" von Julee Cruise mit Texten von Lynch veröffentlicht worden. Letzterer fungierte gemeinsam mit seiner Frau Mary Sweeney des Weiteren als Produzent bei dem Vampirfilm "Nadja" (1994) von Michael Almereyda. 1995 wirkte Lynch bei dem internationalen Filmprojekt "Lumière et compagnie" mit. Anlässlich des 100-jährigen Jubiläums der Erfindung des Cinématographen durch die Brüder Lumière drehten 41 Regisseure Kurzfilme, die sie mit der originalen Kamera aus dem 19. Jahrhundert umsetzten. Die Idee für diese Hommage stammte von Philippe Poulet, einem Forscher im Kinomuseum von Lyon. Die Filme durften nicht länger als 52 Sekunden sein. Zudem mussten sie ohne Schnitte, ohne künstliches Licht und ohne nachsynchronisierten Ton realisiert werden. Lynchs Beitrag trägt den Titel "Premonitions Following An Evil Dead". Zwischen 1994 und 1995 suchte Lynch ohne Erfolg nach Geldgebern für sein Projekt "Dream of the Bovine", einer Komödie, die er zusammen mit Robert Engels geschrieben hatte. Rückkehr ins Kino (1996–2001). Lynchs weiter oben angesprochener Filmvertrag mit der französischen Produktionsfirma "Ciby2000" galt weiterhin. Nach dem Tod des Vorsitzenden Francis Bouygues wurde es für ihn jedoch schwieriger Projekte finanziert zu bekommen. "Dream of the Bovine" hatte auch bei "Ciby2000" keine Chance. Bei seiner Lektüre des Romans "Night People" von Barry Gifford erweckte die vom Autor verwendete Wortkombination „lost highway” Lynchs Interesse: „"Ich erwähnte Barry gegenüber, daß "Lost Highway" ein toller Titel wäre und wir was schreiben sollten. Das war etwa ein Jahr, bevor wir tatsächlich mit dem Drehbuch begannen. Dieser Ausdruck war der zündende Funke".” Im März 1995 war das Drehbuch fertig, "Ciby2000" akzeptierte es, sodass die Dreharbeiten im Herbst 1995 beginnen konnten. Das Produktionsbudget betrug dabei 15 Millionen US-Dollar. Premiere feierte der Film im Januar 1997 in Paris und stieß dabei auf überwiegend positive Kritikerstimmen. Olga Neuwirth und Literaturnobelpreisträgerin Elfriede Jelinek bereiteten später "Lost Highway" als Oper auf. Die Uraufführung fand am 31. Oktober 2003 in Graz statt. Zwei Jahre später erzählte Lynch in "Eine wahre Geschichte – The Straight Story" (1999), linear und filmisch eher einfach dargestellt, die Geschichte eines alten Mannes, der mit seinem Aufsitz-Rasenmäher die USA durchquert, um seinen kranken Bruder wiederzufinden. Das Drehbuch stammte erstmals nicht von ihm, sondern von seiner damaligen Lebensgefährtin Mary Sweeney. Produziert wurden die Dreharbeiten von der "The Picture Factory". Lynch hatte diese Produktionsfirma 1997 zusammen mit Sweeney und Neal Edelstein gegründet. Der Film lief auf den Internationalen Filmfestspielen von Cannes 1999 und wurde von der Kritik überwiegend positiv aufgenommen. Diese zeigte sich über den Kurswechsel des Regisseurs irritiert, denn es war der erste Film, der keine Gewaltszenen oder Szenen enthielt, die das Publikum vor unlösbare Rätsel stellten. Das ist auch der Grund, weshalb einige Besprechungen das Werk als Lynchs erste „"erwachsene"“ Arbeit bezeichneten. Anfang 1999 begann Lynch mit den Arbeiten an einer neuen Fernsehserie mit dem Titel "Mulholland Drive" für ABC. Das Projekt wurde zunächst ad acta gelegt, aber mit Hilfe von Freunden und des französischen Senders Canal+ um acht neue Szenen erweitert und zu einem Kinofilm ausgebaut: "Mulholland Drive – Straße der Finsternis". Für die Leistung, aus der „"Ruine der TV-Serie einen Kinofilm gebaut zu haben"“ (Zitat der Jury), wurde er 2001 bei den Filmfestspielen von Cannes mit dem Regiepreis ausgezeichnet. 1998 war zudem das Album "Lux Vivens (Living Light)" erschienen, an dem er zusammen mit der Sängerin Jocelyn Montgomery gearbeitet hatte und welches auf Liedern der Heiligen Hildegard von Bingen basiert. Zusammen mit John Neff brachte er 2001 außerdem das Album "Blue Bob" heraus. Dabei handelt es sich um experimentellen Rock. Aufgenommen wurde es von April 1998 bis März 2000 in dem "Asymmetrical Studio" in Kalifornien. Internetarbeit, Experimentalfilm und Musik (2002–2013). Ende 2001 hatte Lynch seine eigene Website "davidlynch.com" ins Leben gerufen. Fortan veröffentlichte er mehrere Arbeiten über das Internet. So entstanden 2002 die animierte Online-Kurzserie "DumbLand" und acht Kurzfilme im Stil einer surrealistischen Sitcom mit dem Titel "Rabbits". Teile dieser Serie finden sich in dem Film "Inland Empire" (2006) wieder. Im selben Jahr wurde Lynch zum Präsidenten der 55. Internationalen Filmfestspiele von Cannes berufen. 2005 gründete Lynch die "David Lynch Foundation for Consciousness Based Education and World Peace", die sich für die Nutzung der Transzendentalen Meditation einsetzt. Lynch praktiziert diese von Maharishi Mahesh Yogi begründete Meditationstechnik seit 1973 und nahm im Sommer 2002 an einem einmonatigen Erleuchtungskurs bei Maharishi im niederländischen Vlodrop teil. 2007 ging Lynch auf Welttournee und warb, zum Teil zusammen mit dem schottischen Folksänger Donovan, für den Bau von „Unbesiegbarkeits-Universitäten“. Diese von Maharishi angeregten Einrichtungen sollen neben herkömmlichen Studiengängen das Studium des Bewusstseins mit Hilfe Transzendentaler Meditation als Basis-Disziplin anbieten. Am 25. März 2009 ging "David Lynch Foundation Television" mit einer Beta-Version online, ein Internet-gestützter Fernsehkanal, der „Bewusstsein, Kreativität und Glück“ feiern will. Neben Video-Beiträgen der "David Lynch Foundation" will der Sender Dokumentationen und Exklusivbeiträge von Lynch online stellen. Offizieller Start war der 4. April 2009. Lynchs letzter Kinofilm "Inland Empire" hatte Anfang September 2006 in Venedig Premiere. Bei diesen Filmfestspielen wurde Lynch zudem der Goldene Löwe für sein Lebenswerk verliehen. "Inland Empire" wurde komplett mit einer digitalen Handkamera gedreht und zum Teil improvisierend ohne Drehbuch gefilmt. Einige Szenen waren in Polen entstanden. Bei dieser Gelegenheit machte Lynch eine Fotoserie alter Industriegebiete. Die "Fondation Cartier pour l'Art Contemporain" zeigte von März bis Mai 2007 in Paris die bis dato größte Ausstellung von Lynchs Werken. Insgesamt waren 800 Arbeiten zu sehen, überwiegend Gemälde, Zeichnungen, Fotografien, Grafiken, Collagen, Installationen und Kurzfilme. Lynch realisierte im Jahr der Ausstellung eine Fotoserie französischer Schauspielerinnen für die Zeitschrift "Elle" und wurde von dem damaligen Präsident Nicolas Sarkozy zum Offizier der Ehrenlegion ernannt. a> zur Foto-Ausstellung in Düsseldorf, 2008 Vom 27. September bis zum 23. November 2008 fand im "Epson Kunstbetrieb" unter dem Titel "New Photographs" in Düsseldorf und damit zum ersten Mal in Deutschland eine Ausstellung von Fotografien von David Lynch statt. Eine weitere Werksausstellung konnte vom November 2009 bis zum März 2010 in dem Max-Ernst-Museum Brühl besucht werden. Sie umfasste 150 Exponate und lief unter dem Titel "Dark Splendor". Schließlich zeigte das Goslarer Mönchehaus-Museum für moderne Kunst von Oktober 2010 bis Januar 2011 90 verschiedene Gemälde, Lithografien und Fotografien. Parallel dazu wurde Lynch der Kaiserring der Stadt Goslar verliehen. Im April 2009 veröffentlichte der US-amerikanische Musiker Moby seine Single "Shot in the Back of the Head"; das dazugehörige Musikvideo stammte von David Lynch. Im Juni desselben Jahres erschien das Album "Dark Night of the Soul" von DJ Danger Mouse und Sparklehorse. Das Album enthält ein Booklet mit visuellen Inhalten von David Lynch. Außerdem hat Lynch zu zwei der auf dem Album enthaltenen Lieder den Text geschrieben und diese gesungen. Im selben Jahr war auf Lynchs Website die Dokumentarserie "Interview Project" zu sehen, die er zusammen mit seinem Sohn Austin produziert hatte. Letzterer war durch die USA gereist und hatte dabei alle möglichen Menschen interviewt. Es existieren insgesamt 121 Interviews, von denen Lynch alle drei Tage eines veröffentlichte. Dieses Konzept wurde dann nochmals im Interview Project Germany aufgegriffen. 2009 produzierte er außerdem Werner Herzogs Film "My Son, My Son, What Have Ye Done?" und 2010 entstand ein 16-minütiger Online-Werbefilm für Dior: "Lady Blue Shanghai" mit Marion Cotillard. Darüber hinaus gestaltete Lynch 2011 den privaten Nachtclub "Silencio" im zweiten Pariser Arrondissement. Er ist auch dessen Inhaber. Von Oktober 2011 bis März 2012 stellte Lynch die Ideen des Mathematikers Misha Gromov im Rahmen der Ausstellung "Mathématiques, un dépaysement soudain" in der Fondation Cartier künstlerisch dar. Nachdem Lynch sich bereits für eigene Film-Soundtracks und das Album "Dark Night of the Soul" musikalisch betätigt hatte, erschien im Januar 2011 seine erste Solo-Single mit dem Titel "Good Day Today/I Know". Das dazugehörige Album trägt den Titel "Crazy Clown Time" und wurde in Deutschland am 4. November 2011 veröffentlicht. Das Album entstand in Zusammenarbeit mit dem Tontechniker Dean Hurley. Es enthält auch einen Gastauftritt von Karen O von den "Yeah Yeah Yeahs". Im Februar 2013 stellte Lynch den von ihm gedrehten Dokumentarfilm "Idem Paris" über den Prozess der Lithografie ins Internet. Am 15. Juli 2013 erschien schließlich Lynchs zweites Solo-Album "The Big Dream" bei dem Musiklabel Sunday Best. Überblick. Lynchs Werk ist ungewöhnlich breit und umfasst ebenso gut wie den Film die Malerei, die Musik, die Fotografie, die Lithografie sowie die Gestaltung von Räumen, Möbeln oder auch Champagnerflaschen. Dabei vermag es Lynch in jedem künstlerischen Bereich seine persönliche Vision umzusetzen, eine rätselhafte, suggestive Atmosphäre: „"Als Regisseur hält er damit die Interpreten bis heute in Atem. Als Musiker übersetzt er seine Bilderwelten geschickt ins akustische Medium. Als Designer schließlich lädt er […] dazu ein, zu Akteuren in einer lynchschen Originalkulisse zu werden".“ Der Kunsthistoriker Thomas W. Gaehtgens sieht ebenfalls eine Kontinuität und Gemeinsamkeit in Lynchs filmischen, malerischen und musikalischen Werk: „"Alle diese Tätigkeiten sind Lynch gleich wichtig und in gewisser Weise kongruent. Sie alle beruhen auf dem von ihm verfolgten Thema, den menschlichen Verhaltensweisen als Spiegelung seelischer Vorgänge nachzuspüren".“ Im Folgenden wird Lynchs Werk in Bezug auf dessen Form und Inhalt betrachtet, der Schwerpunkt liegt dabei auf seiner filmischen Arbeit. Der Filmwissenschaftler Georg Seeßlen definiert Lynchs eigen erschaffene Filmwelt als „Lynchville“, in der Popkultur wird Lynchs Filmsprache auch als „lynchean“ oder „lynchesk“ umschrieben. Einflüsse. David Lynchs Werk ist vor allem durch Maler beeinflusst worden. Er selbst nennt Edward Hopper, Francis Bacon und Henri Rousseau als die wichtigsten Vorbilder. Hopper hat ihn durch sein Thema der Einsamkeit geprägt, Bacon durch seine Bilder, die Deformationen des Fleisches zeigen, und Henri Rousseau durch sein Motiv des Geheimnisses. Des Weiteren nennt Lynch Ed Kienholz, Lucian Freud und David Hockney als verehrte und inspirierende Künstler. Aus der Filmgeschichte haben ihn vor allem Jacques Tati und Federico Fellini beeinflusst. Lynch erwähnt darüber hinaus Ingmar Bergman, Werner Herzog, Stanley Kubrick, Alfred Hitchcock und Billy Wilder als Vorbilder. Zu seinen Lieblingsfilmen zählen "Der Zauberer von Oz" (1939), "Sunset Boulevard" (1950) und "Lolita" (1962). Des Weiteren hat die Lektüre von Franz Kafka Lynch tief geprägt. Lange Zeit wollte er auch dessen Novelle "Die Verwandlung" (1915) verfilmen.„"Der eine Künstler, bei dem ich wirklich das Gefühl habe, er könnte mein Bruder sein [...] ist Franz Kafka. Auf den stehe ich wirklich sehr. Einige Sachen zählen zum absolut Aufregendsten, was ich überhaupt gelesen habe"”, so Lynch. Die Lynchsche Filmkunst. Die surrealistischen Filme werden durch thematische und motivische Stilmittel zu einem großen Ganzen zusammengebunden, wobei er sich sehr stark am Film noir orientiert. Thematisch greift Lynch auf die Gegebenheiten seiner Kindheit in den fünfziger Jahren und die großen Erfahrungen in der Mitte der US-amerikanischen Gesellschaft zurück. Wiederkehrende Themen sind der Mittelstand, die Geborgenheit der Kleinstadt, die Musik, die Familie, Liebe und Romantik – und deren dunkle Kehrseite: unterdrückte Gewalt und Libido, das Unbewusste, das Irrationale, das Verschwiegene. Das Werk formt aus Banalem den Horror, es lässt Gewalt in Komik umschlagen, macht aus Mystischem Alltägliches, es ergänzt Pathos mit überlangen Ausführungen, mischt Improvisiertes mit Zufälligem. Das Paradoxe und die absolute Metapher sind in Lynchs Werk charakteristisch. Kritiker Andreas Kilb sprach 1997 in der Zeit auch von dem „ewige[n] Drama des ‚nicht zu Ende geborenen Mannes‘ (Georg Seeßlen)“ und von einem Glauben an die Beseeltheit von Objekten im Gegensatz zur „Maskenhaftigkeit“ menschlicher Gesichter. Dabei sei er als (amerikanischer) Autorenfilmer doch immer vergleichsweise marktgängig geblieben. In seinem späteren Werk gewinnen zum einen die Frauen, zum anderen die Bezugnahme auf Hollywood an Gewicht. Auf der Motivebene tauchen greifbar auf (mustergültig in "Lost Highway)": das Feuer, Hütte, Heim oder Flure, die Straße als Weg des Schicksals, die Farbe Rot oder das Schwarz, die verborgene Kammer, seltsame Mittler aus einer anderen Welt, entstellte Gestalten und organischer Verfall, der Sternenhimmel, Doppelgänger, Elektrizität und vieles mehr. Daher besteht eine von verschiedenen möglichen Vorgehensweisen in der Interpretation darin, Motive eines einzelnen Films im Zusammenspiel mit den anderen Filmen zu untersuchen, als Teil einer übergeordneten Struktur. Nach logischen Erklärungen und rationalen Auflösungen einer Narration zu suchen, hat sich für viele Rezipienten als weniger fruchtbar erwiesen. Mittlerweile ist man in der Lynch-Rezeption so weit, dass man die Filme vorwiegend auf ihre intensive Atmosphäre hin untersucht und akzeptiert, dass sich Lynch wenig bis gar nicht für rationale, übergeordnete Strukturen oder übliche Formen des filmischen Erzählens interessiert. Zumindest formuliert Lynch es selber so. Wenn man sich mit weniger bekannten und seltener genutzten Dramaturgien resp. Erzählstrukturen beschäftigt, wird klar, dass es sich bei Lynchs Filmen um Filme der „offenen Form“ handelt und er sowohl das Modell der „seltsamen Schleife“ − auch als „Möbiusband“ bekannt – verwendet und sich der Mittel der Postmoderne und vor allem der Dekonstruktion bedient. Lynch selbst verweist immer darauf, dass er auf die Intuition und das Traumhafte zurückgreife, er vergleicht den Prozess des Filmemachens mit dem des Malens, womit er den Blick von der Konstruktion auf den Eindruck der Intuition lenkt. Der Soundtrack ist ein bewusst gewählter Rückgriff auf die Popkultur, in der sich der Sound der Nachkriegsjahre mit den Songs der Gegenwart abwechselt. Öffentliche Resonanz und Kritik. Die Rezeption der Lynchschen Kunst beschränkt sich meistens auf die Filme, die seinen Ruf als Kultfigur durch internationale Aufführungen und Besprechungen gefestigt haben. Oft wird dabei der „Universalkünstler“ David Lynch vergessen, der auch Gemälde, Zeichnungen, Musik und Möbel produziert. Erst seit der Jahrtausendwende werden auch Lynchs andere Arbeiten verstärkt rezipiert, was unter anderem an den vielen Ausstellungen liegt. Allgemein gibt es zwei Haltungen gegenüber Lynchs Werk: Entweder wird es als „"merkwürdig, abwegig, unverständlich [und] provozierend"“ abgelehnt oder als innovativ und künstlerisch gefeiert. Vor allem seine Filme werden wegen der exzessiven Darstellung von Gewalt und Sex kritisiert. Lynch dazu: „"Das Leben ist nun mal sehr kontrastreich und voller Gewalt und man muss in der Lage sein dürfen, die Geschichten zu erzählen, die da sind. Wichtig ist, wie Gewalt verankert wird. Wenn sie im Kontext der Geschichte steht und nicht als Selbstzweck benutzt wird, dann finde ich es in Ordnung, aber man sollte sich seiner Verantwortung stets bewusst sein".“ Auch Seeßlen ist der Meinung, dass Lynch es schaffe, zu zeigen, wieso die Darstellung von Gewalt wichtig und notwendig sei. Für ihn sei sie „"der Übergang vom Äußeren zum Inneren, das Eindringen in den Körper der Welt, die fundamentale Lebenserfahrung"“. Lynch wird häufig für sein Engagement für Transzendentale Meditation (TM) kritisiert. In David Sievekings Dokumentation "David wants to fly" (2010) nimmt Lynch z. B. eine zentrale Rolle ein. Sieveking ist langjähriger Fan seiner Filme. Nach einem Interview mit dem Regisseur über das von Lynch favorisierte Thema der Transzendentalen Meditation bekommt Sieveking einen zunehmend zwielichtigen Eindruck von dieser Organisation und weicht mehr und mehr von einer anfangs positiven Haltung gegenüber dem Künstler ab. Diese Abkehr wird dadurch verstärkt, dass Lynch während eines weiteren Interviews jede kritische Frage verbietet. Kritisiert werden bei dem Erlernen von TM vor allem die großen finanziellen Hürden: Wie in vielen anderen Sekten, steigen die Kosten auch hier mit dem „Level“, also der Stufe zur Erleuchtung. Beginnt man bei etwa 2.000 Euro für den Einführungskurs, folgen viele weitere Schulungen, die jedes Mal teurer werden. Für einen der höchsten Ränge müsste man z. B. mehr als 100.000 Dollar zahlen, um in den Genuss der Ausbildung zu kommen. Dementsprechend finden sich – vergleichbar mit der Situation bei Scientology – viele Prominente unter den Anhängern der Transzendentalen Meditation; so sind neben David Lynch z. B. Paul McCartney oder Ringo Starr von ihr begeistert. Lynch will mit der Stiftung "David Lynch Foundation" Schülern und Studenten das Erlernen der Transzendentalen Meditation und des Yogischen Fliegens ermöglichen. Er ist hierzu auch in Deutschland unterwegs, wo er schon 200 Berliner Jugendliche eingeladen hat, auf diese Weise Berlin „unbesiegbar“ zu machen. Laut Lynch sei es wissenschaftlich erwiesen, dass „durch eine solche Kohärenz erzeugende Gruppe von 200 Yogischen Fliegern die negativen Tendenzen in einer Stadt abnehmen und die positiven Tendenzen ansteigen“. Einnahmen. Abgesehen von "Dune", hat keine Produktion eines David Lynch-Films mehr als 15 Millionen US-Dollar gekostet. Als finanzielle Erfolge können "Der Elefantenmensch", "Blue Velvet", "Wild at Heart" und "Mulholland Drive" gesehen werden. Folgende Tabelle illustriert die Einspielergebnisse und – soweit dies möglich ist – auch die Besucherzahlen der verschiedenen Filme von David Lynch in der Bundesrepublik Deutschland. DVD- und Blu-ray-Disc-Verkäufe werden dabei nicht berücksichtigt. Auszeichnungen (Auswahl). David Lynch wurde insgesamt mit 42 Filmpreisen ausgezeichnet und für 38 weitere nominiert, unter anderem für vier "Oscars". 1989 bekam er die Goldene Palme der internationalen Filmfestspiele von Cannes, bei denen er 2001 auch mit dem Regie-Preis ausgezeichnet wurde. Darüber hinaus wurde ihm auf den Filmfestspielen von Venedig 2006 ein Goldener Löwe für sein Lebenswerk verliehen. 2002 wurde er durch Kulturminister Jean-Jacques Aillagon zum Ritter und 2007 durch Nicolas Sarkozy zum Offizier der französischen Ehrenlegion ernannt. Den Kaiserring der Stadt Goslar bekam er 2010 überreicht. Auf der Cologne Conference wurde er im selben Jahr mit dem "Filmpreis Köln" ausgezeichnet. In der Liste der 40 besten Regisseure der britischen Zeitung "The Guardian" rangiert David Lynch auf Platz eins. Die folgende Liste gibt einen Überblick der wichtigsten Auszeichnungen und Nominierungen. Die Familie mit dem umgekehrten Düsenantrieb. Die Familie mit dem umgekehrten Düsenantrieb (jap., "Gyakufunsha Kazoku") ist ein japanischer Film von Sōgo Ishii aus dem Jahr 1984, der innerhalb weniger Wochen mit einem Budget von nur 300.000 Euro produziert wurde. Handlung. Der Film zeigt zunächst eine ganz normale japanische Familie. Es folgen Streitereien und Konflikte, dann eine sich fortwährend steigernde Eskalation der Situation und Geschehnisse innerhalb des Hauses, die extreme Elemente von Katastrophentheorie, Tragik und Komödie bis zu surrealem Wahnsinn enthält. Erläuterung zum Titel. Seit ein Pilot in einem Anfall von Wahn im Flug den Umkehrschub einschaltete und einen Absturz verursachte, ist der „umgekehrte Düsenantrieb“ in Japan ein geflügeltes Wort für plötzlich auftretenden Irrsinn mit katastrophalen Folgen. Im Abspann wird der Titel, entgegen der unten angegebenen Links, mit "Die Familie mit umgekehrtem Düsenantrieb" bezeichnet. Kritiken. Volker Hummel bezeichnete den Film in der taz als „Klassiker des modernen japanischen Kinos und eine der besten Eskalationskomödien überhaupt.“ Den „Punk-Spirit seines Regisseurs“ merke man ihm noch heute an. Laut Lexikon des internationalen Films bringt sich die „zu Beginn […] furiose Satire auf sinnentleerte und ritualisierte Lebensformen und die Unwirtlichkeit der Großstadt“ jedoch „durch zunehmende Hektik und Gewalttätigkeit um ihre Aussage“. David Wark Griffith. David Llewelyn Wark Griffith (häufig nur "D. W. Griffith"; * 22. Januar 1875 in La Grange, Kentucky; † 23. Juli 1948 in Hollywood, Kalifornien) war ein US-amerikanischer Regisseur, Drehbuchautor, Filmproduzent und Schauspieler. Er drehte zwischen 1908 und den frühen 1930er-Jahren insgesamt 535 Filme, von denen mehr als 400 noch erhalten sind, und gilt als einer der einflussreichsten Regisseure der Geschichte. Griffith wird häufig als Begründer des Erzählkinos und als Schöpfer der „filmischen Grammatik“ bezeichnet. Tatsächlich hat er weniger selbst erfunden, als vielmehr systematisiert. Als einer der ersten hat er während seiner Zeit bei der Filmgesellschaft Biograph (1908 bis 1913) Elemente wie Großaufnahme, Parallelmontage und viele andere konsequent eingesetzt und später in seinen richtungsweisenden Langfilmen perfektioniert. Insbesondere seine Filmepen "Die Geburt einer Nation" (1915) und "Intoleranz" (1916) wurden zu Meilensteinen der Filmgeschichte. Er zählte ebenfalls zu den Mitbegründern der Filmindustrie in Hollywood sowie des Filmstudios United Artists. Frühes Leben. David Wark Griffith wurde am 22. Januar 1875 im ländlichen La Grange in Kentucky als Sohn von Mary Perkins und Jacob Griffith geboren. Sein Vater diente als Soldat im Sezessionskrieg in der Armee der Konföderierten und starb, als sein Sohn erst zehn Jahre alt war. Seine Schulbildung erhielt er in einer Einzimmerschule von seiner älteren Schwester Mattie Griffith, die Familie wuchs methodistisch auf. Als Griffith vierzehn Jahre alt war, gab die Mutter ihre Landwirtschaft auf und zog mit ihm nach Louisville. Dort eröffnete die Mutter ein Boardinghouse, das sie jedoch schon nach kurzer Zeit wegen Misserfolges schließen musste. Um seiner Familie zu helfen, verließ Griffith die Highschool und arbeitete in der Folge in einem Trockenwarenhandel und später einem Bücherladen. Karriere. Seine kreative Laufbahn begann Griffith als Theaterautor, doch nur eines von seinen vielen Stücken wurde angenommen und gespielt, es hatte jedoch auch nur mittelmäßigen Erfolg. Er entschied sich, Theaterschauspieler zu werden, bekam aber zunächst auch nur Statistenrollen. Er versuchte aber weiterhin, seine Stücke zu verkaufen und geriet so an den Filmproduzenten Edwin S. Porter. Der lehnte Griffiths Stück ab, gab ihm allerdings eine kleine Rolle als Schauspieler in "Rescued from an Eagle’s Nest" von James Searle Dawley, was sein Filmdebüt bedeutete. Nach dieser ersten Erfahrung fühlte er sich vom Filmgeschäft angezogen und akzeptierte einen Vertrag als Schauspieler beim Filmstudio Biograph. Als Biographs Hauptregisseur Wallace McCutcheon Sr. erkrankte und sein Sohn McCutcheon Jr. als Ersatz nur eine schwache Leistung brachte, wurde der mitspielende Griffith als Regisseur besetzt. Der Film unter dem Titel "The Adventures of Dollie" erschien noch 1908. Die Produzenten waren mit dem Ergebnis so zufrieden, dass sie Griffith auch bei weiteren Filmen Regie führen ließen. 1910 führte Griffith Regie bei "In Old California", dem wahrscheinlich ersten Film, der in Hollywood gedreht wurde. Er entdeckte das damals ländliche Hollywood auf seinen Reisen durch Kalifornien und drehte dort wegen der schönen Landschaft und den freundlichen Leuten. Bereits seine zahlreichen Kurzfilme bei Biograph zeugten von filmischen Innovationen und schnell baute Griffith sich einen guten Ruf in der jungen Filmindustrie auf. Sein Biograph-Film "Judith von Bethulien" (1914) mit Blanche Sweet, einer Verfilmung des Buchs Judit, war einer der ersten Langfilme Amerikas und erhielt gute Kritiken. Allerdings wurde er auch wegen der Einbindung einer Orgienszene kritisiert. Für seinen 1915 fertiggestellten, dreistündigen Film "Die Geburt einer Nation" über den amerikanischen Bürgerkrieg, in dem er deutlich Partei für die Südstaaten ergreift und den Ku Klux Klan glorifiziert, wurde Griffith schon bei der Veröffentlichung wegen des offenen Rassismus gegen Afroamerikaner im Film und einer Verzerrung der „Fakten“ des amerikanischen Bürgerkriegs kritisiert. Der Film beruht auf der ebenfalls rassistischen Romanvorlage "The Clansman" (1905) von Thomas Dixon (1864–1946). "Die Geburt einer Nation" war der bis dahin teuerste, aber auch erfolgreichste Film der Filmgeschichte. Mit einer Rekordlänge von drei Stunden, zahlreichen Massenszenen und vielen filmischen Neuerungen gilt "The Birth of a Nation" laut Filmhistorikern als „das wichtigste Einzelwerk der amerikanischen Filmgeschichte und ein Schlüsselwerk der gesamten Filmgeschichte: Es enthält viele filmtechnische Neuerungen und Verbesserungen, technische Effekte und künstlerische Errungenschaften, darunter eine Farbsequenz am Schluss. Er hatte einen formgebenden Einfluss auf zukünftige Filme und hat eine erkennbare Wirkung auf die Filmgeschichte und die Entwicklung des Films als Kunstform.“ Das im folgenden Jahr herausgebrachte Werk "Intoleranz" wurde hingegen ein finanzielles Desaster. Mit diesem noch ambitionierteren und noch teureren Film wollte Griffith aufzeigen, wie Intoleranz seit jeher das menschliche Schicksal bestimmt. Mittels Parallel- und Kontrastmontagen schilderte Griffith vier Episoden – den Fall Babylons, die Passion Christi, die Bartholomäusnacht und die zeitgenössische Geschichte „Die Mutter und das Gesetz“. Der Film, in dem Griffith auch pazifistische und humanistische Ansichten teilt, gilt heute als Meisterwerk der Filmgeschichte. 1919 gründete Griffith gemeinsam mit Mary Pickford, Douglas Fairbanks senior und Charlie Chaplin die Filmfirma United Artists. Seine Schauspielerführung in "Gebrochene Blüten" (1919) wurde von der Kritik nach einigen finanziell wenig erfolgreichen Werken wieder hoch gelobt. Hauptdarstellerin des Filmes war Lillian Gish, die auch in vielen anderen Filmen Griffiths spielte. Auch weil sie sich bis zu ihrem Tod 1992 intensiv um das filmische Erbe Griffiths kümmerte, werden ihre Namen in der amerikanischen Öffentlichkeit häufig miteinander assoziiert. Weitere Filme wie "Weit im Osten" (1920) und "Zwei Waisen im Sturm" wurden ebenfalls Erfolge für Griffith. Anschließend bekamen Griffiths Filme oft Probleme an den Kinokassen: Die aufwendigen Produktionen mussten fast automatisch zu großen Kinoerfolgen werden, um überhaupt einen Gewinn zu erzielen. So musste er 1924 nach mehreren Misserfolgen die United Artist verlassen. Er drehte noch weitere Filme von unterschiedlicher Qualität, ehe er sich nach dem Flop seines dritten Tonfilmes "Der Kampf" (1931) aus dem Filmgeschäft zurückzog. Ruhestand und Privatleben. 1936 erhielt er den Ehrenoscar für sein Lebenswerk. 1940 versuchte er ein Comeback mit dem Abenteuerfilm "Tumak, der Herr des Urwalds (One Million B.C.)", doch nach einem Streit mit dem Produzenten Hal Roach verließ er den Regiestuhl. Der Film wurde von Roach selber zu Ende geführt. Griffith war zweimal verheiratet: Von 1906 bis 1936 mit der Schauspielerin Linda Arvidson (1884–1949), dann von 1936 bis 1947 mit der Schauspielerin Evelyn Baldwin (1910–2004). Beide Ehen wurden geschieden. Den letzten Abschnitt seines Lebens verbrachte er im Knickerbocker Hotel in Los Angeles. Er verstarb 1948 im Alter von 73 Jahren an einer Hirnblutung und wurde auf dem Friedhof in Centerfield, Kentucky begraben. Filmografie (Auswahl). Kinoposter "Die Geburt einer Nation" Auszeichnungen. Amerikanische Briefmarke zu Griffiths 100. Geburtstag 1975 Zudem verneigten sich zahlreiche Regiekollegen wie John Ford, Alfred Hitchcock, Orson Welles, Lev Kuleshov, Jean Renoir, Cecil B. DeMille, King Vidor, Victor Fleming, Raoul Walsh, Carl Theodor Dreyer, Sergei Eisenstein und Stanley Kubrick vor Griffith oder bestimmten seiner Werke. Charlie Chaplin nannte ihn "The Teacher of us All" und bemerkte, dass die gesamte Filmindustrie ihm seine Existenz verdanke. und Orson Welles sagte: „Ich habe nie wirklich Hollywood gehasst, außer für seine Behandlung von D. W. Griffith. Keine Stadt, keine Industrie, kein Beruf, keine Kunst verdankt soviel einem einzigen Mann.“ Dysprosium. Dysprosium (von griech. δυσπρόσιτος „unzugänglich“) ist ein chemisches Element mit dem Elementsymbol Dy und der Ordnungszahl 66. Im Periodensystem steht es in der Gruppe der Lanthanoide und zählt damit auch zu den Metallen der seltenen Erden. Geschichte. 1886 gelang dem Franzosen P.E. Lecoq de Boisbaudran die Isolierung von Dysprosium(III)-oxid aus einer Probe Holmiumoxid, das man bis zu diesem Zeitpunkt noch für eine einheitliche Substanz gehalten hatte. Da die chemischen Eigenschaften der Lanthanoide sehr ähnlich sind und sie in der Natur stets vergesellschaftet vorkommen, war auch hier eine Unterscheidung nur mit sehr aufwendigen Analysemethoden möglich. Sein Anteil am Aufbau der Erdkruste wird mit 0,00042 Gewichtsprozent angegeben. Die Ausgangsmaterialien sind Monazit und Bastnäsit. Gewinnung und Darstellung. Nach einer aufwändigen Abtrennung der anderen Dysprosiumbegleiter wird das Oxid mit Fluorwasserstoff zum Dysprosiumfluorid umgesetzt. Anschließend wird dies mit Calcium unter Bildung von Calciumfluorid zum metallischen Dysprosium reduziert. Die Abtrennung verbliebener Calciumreste und anderer Verunreinigungen erfolgt in einer zusätzlichen Umschmelzung im Vakuum. Nach einer Destillation im Hochvakuum gelangt man zum hochreinen Dysprosium. Eigenschaften. Dysprosium ist ein silbergraues Schwermetall, das bieg- und dehnbar ist. Von dem Metall der seltenen Erden existieren zwei Modifikationen: Bei 1384 °C wandelt sich α-Dysprosium (hexagonal-dichtest) in β-Dysprosium (kubisch-raumzentriert) um. Das Metall ist sehr unedel und daher sehr reaktionsfähig. An der Luft überzieht es sich mit einer Oxidschicht, in Wasser wird es langsam unter Hydroxidbildung angegriffen, in verdünnten Säuren wird es unter Wasserstoffbildung zu Salzen gelöst. Verwendung. Wirtschaftliche und technische Bedeutung von Dysprosium sind relativ gering. So wird seine Fördermenge auf weniger als 100 Tonnen pro Jahr geschätzt. Es findet Verwendung in verschiedenen Legierungen, in Spezialmagneten und mit Blei legiert als Abschirmmaterial in Kernreaktoren. Jedoch gerade die Verwendung in Permanentmagneten, wie sie u.a. in den Generatoren mancher Windkraftanlagentypen verwendet werden, hat diese Metalle der seltenen Erden zum raren Rohstoff gemacht, zudem drosselt der weltweit größte Lieferant China seine Lieferung, um die eigene Wertschöpfung zu erhöhen. Deutsche Bundesbank. Haupteingang der Deutschen Bundesbank an der Wilhelm-Epstein-Straße Die Deutsche Bundesbank ist die Zentralbank der Bundesrepublik Deutschland mit Hauptsitz in Frankfurt am Main und Teil des Europäischen Systems der Zentralbanken. Sie ist eine bundesunmittelbare juristische Person des öffentlichen Rechts und gehört zur mittelbaren öffentlichen Verwaltung. Vorgänger „Bank deutscher Länder“ (1948–1957). Die Geschichte der Deutschen Bundesbank ist eng mit der Währungsgeschichte Deutschlands nach Ende des Zweiten Weltkriegs verbunden. Angesichts der völligen Zerrüttung der deutschen Währung nach dem Krieg wurde eine Währungsreform erforderlich. Dabei trat in den westlichen Besatzungszonen einschließlich West-Berlins am 21. Juni 1948 die Deutsche Mark an die Stelle der praktisch wertlosen Reichsmark. Die Währungsreform basierte auf Gesetzen der alliierten Militärregierung. Zur Vorbereitung errichteten die Westmächte in ihren Besatzungszonen ein neues, zweistufiges Zentralbanksystem, das in seinem streng föderativen Aufbau das Federal Reserve System der Vereinigten Staaten von Amerika (USA) zum Vorbild hatte. Es bestand aus den rechtlich selbständigen Landeszentralbanken in den einzelnen Ländern der westlichen Besatzungszonen und der am 1. März 1948 gegründeten Bank deutscher Länder in Frankfurt am Main. Die Landeszentralbanken fungierten in ihren Bereichen als Zentralbanken. Die Bank deutscher Länder, deren Grundkapital bei den Landeszentralbanken lag, war für die Notenausgabe, die Koordinierung der Politik und für bestimmte zentrale Aufgaben – darunter auch die Devisenbewirtschaftung – zuständig. Oberstes Organ des zweistufigen Zentralbanksystems war der bei der Bank deutscher Länder eingerichtete Zentralbankrat. Er bestand aus seinem Präsidenten, den Präsidenten der Landeszentralbanken und dem Präsidenten des Direktoriums der Bank deutscher Länder. Der Zentralbankrat bestimmte insbesondere die Diskontpolitik und die neu eingeführte Mindestreservepolitik. Er stellte ferner Richtlinien für die Offenmarktpolitik und die Kreditvergabe auf. Nach den schlechten Erfahrungen mit einer an Weisungen der Regierung gebundenen Notenbank setzte sich in Deutschland nach dem Zweiten Weltkrieg das Prinzip einer unabhängigen Zentralbank durch. Die Bank deutscher Länder war von Anfang an unabhängig von deutschen Staatsorganen, auch von der ab September 1949 tätig werdenden Bundesregierung (Kabinett Adenauer I). Ihre Autonomie gegenüber den Alliierten erlangte sie 1951. Vor dem Vertrag von Maastricht (1958–1993). Durch des am 24. Mai 1949 in Kraft getretenen Grundgesetzes wurde der Bund verpflichtet, eine Währungs- und Notenbank als Bundesbank zu errichten und damit das bis dahin geltende Besatzungsrecht durch deutsches Recht abzulösen. Diesem Auftrag kam der Gesetzgeber allerdings erst 1957 nach. Mit dem Gesetz über die Deutsche Bundesbank (BBankG) vom 26. Juli 1957 wurde der zweistufige Aufbau des Zentralbanksystems beseitigt. Die Zuständigkeiten wurden der neu gegründeten Deutschen Bundesbank übertragen. Dafür wurden die Landeszentralbanken einschließlich der Berliner Zentralbank mit der Bank deutscher Länder verschmolzen. Die Landeszentralbanken waren nun rechtlich nicht mehr selbstständige Notenbanken, sondern wurden als Hauptverwaltungen Teil der Bundesbank. Sie behielten den Namen „Landeszentralbank“ bei und blieben teilweise in ihren Entscheidungen unabhängig, so in Bezug auf die Mitwirkung an den geldpolitischen Entscheidungen im Zentralbankrat (sog. Vorbehaltszuständigkeit). Das in Frankfurt am Main ansässige Direktorium bestand aus dem Präsidenten und dem Vizepräsidenten der Deutschen Bundesbank sowie bis zu sechs weiteren Mitgliedern. Als geschäftsführendes Organ war es für die Durchführung der Beschlüsse des Zentralbankrats verantwortlich. Das Direktorium leitete und verwaltete die Bank und war insbesondere für Geschäfte mit dem Bund und seinen Sondervermögen, für Geschäfte mit im gesamten Bundesgebiet operierenden Kreditinstituten, für Devisengeschäfte und Geschäfte im Verkehr mit dem Ausland sowie für Geschäfte am offenen Markt zuständig. Als oberstes Entscheidungsorgan der Deutschen Bundesbank fungierte weiterhin der Zentralbankrat, der über die Währungs- und Kreditpolitik der Bundesbank entschied und Richtlinien für die Geschäftsführung und Verwaltung aufstellte. Ihm gehörten neben den Mitgliedern des Direktoriums auch die elf Präsidenten der Landeszentralbanken an. Die Landeszentralbanken führten die in ihren Bereich fallenden Geschäfte und Verwaltungsangelegenheiten in eigener Verantwortung durch. Das Bundesbankgesetz wies ihnen ausdrücklich Geschäfte mit öffentlichen Stellen und Verwaltungen sowie mit Kreditinstituten ihres Bereiches zu. Den Landeszentralbanken waren darüber hinaus die Zweiganstalten (heute Filialen) unterstellt. Die Leitung oblag einem Vorstand, der in der Regel aus dem Präsidenten und dem Vizepräsidenten der Landeszentralbank bestand. Im Kalten Krieg wurde von 1962 bis 1964 zur Aufbewahrung einer Notstandswährung der Bundesbankbunker Cochem im Moseltal errichtet. In der bis 1988 betriebenen und streng geheimen Anlage wurden bis zu 15 Mrd. DM gelagert. Am 5. Dezember 1974 kündigte die Deutsche Bundesbank nach der Übernahme monetaristischer Grundsätze als erste Zentralbank überhaupt ein Geldmengenziel für das darauffolgende Jahr an. Mit dem am 1. Juli 1990 in Kraft getretenen Staatsvertrag über die Schaffung einer Währungs-, Wirtschafts- und Sozialunion zwischen der Bundesrepublik Deutschland und der damaligen Deutschen Demokratischen Republik (DDR) wurde die D-Mark alleiniges gesetzliches Zahlungsmittel in beiden deutschen Staaten. Gleichzeitig ging die Zuständigkeit für die Geld- und Währungspolitik im erweiterten Geltungsbereich der D-Mark auf die Deutsche Bundesbank über. Dazu wurde in Umsetzung des Staatsvertrages vom 18. Mai 1990 die Vorläufige Verwaltungsstelle in Berlin errichtet, die über die staatliche Vereinigung am 3. Oktober 1990 hinaus noch bis zum 31. Oktober 1992 tätig war. Die Organisationsstruktur der Deutschen Bundesbank wurde über eine Novellierung des Bundesbankgesetzes an die veränderten Gegebenheiten aufgrund der deutschen Wiedervereinigung angepasst und zugleich gestrafft. Aus den ehemals elf Landeszentralbanken und der Vorläufigen Verwaltungsstelle in Berlin wurden neun Landeszentralbanken mit wirtschaftlich annähernd gleich großen Hauptverwaltungsbereichen geschaffen. Nach dem Vertrag von Maastricht (1993). Mit dem am 1. November 1993 in Kraft getretenen Vertrag von Maastricht wurden die Grundlagen für die Europäische Wirtschafts- und Währungsunion gelegt. Die nationalen Verantwortlichkeiten für die Geldpolitik wurden auf die Gemeinschaftsebene an das Europäische System der Zentralbanken (ESZB), bestehend aus der Europäischen Zentralbank (EZB) und den nationalen Zentralbanken (NZBen) der EU-Staaten, übertragen. Das Bundesbankgesetz wurde im Hinblick auf die Europäische Wirtschafts- und Währungsunion letztmals im Jahre 2002 mit dem 7. Gesetz zur Änderung des Gesetzes über die Deutsche Bundesbank vom 30. April 2002 grundlegend novelliert und gab der Bank ihre heutige organisatorische Verfassung. Finanzkrise. Im Verlauf der Finanzkrise ab 2007 und der Eurokrise erhöhten sich Bilanzsumme, TARGET2-Saldo und Einlagefazilität der Deutschen Bundesbank deutlich. Im März 2012 stieg die Bilanzsumme erstmals über eine Billion Euro. Im Durchschnitt des Jahres 2002 betrug die Bilanzsumme 222,4 Milliarden Euro. Im August 2012 waren es mit 1135,4 Milliarden Euro fünfmal so viel wie im Jahr 2002. Die Notenbanken der Eurozone, darunter die Deutsche Bundesbank, betreiben das europäische Großbetragszahlungssystem TARGET2. Beim Start der Plattform im November 2007 betrug der Saldo der Bundesbank 72,6 Milliarden Euro. Im August 2012 stieg die Forderung der Bundesbank gegenüber den nationalen Zentralbanken der Eurozone (positiver TARGET2-Saldo) auf ein Allzeithoch von 751,4 Milliarden Euro. Seit November 2007 entspricht das einem Anstieg um 935,0 Prozent. Zwischen 1999 und 2006 lag der Durchschnitt der Auslandsposition bei 1,6 Milliarden Euro. Die Inanspruchnahme der Einlagefazilität der Bundesbank durch die Geschäftsbanken betrug im April 2012 die Rekordsumme von 276,9 Milliarden Euro. Der Mittelwert für den Zeitraum Januar 2002 bis August 2008 liegt bei 0,2 Milliarden Euro. Umstrittene Geldtransfers mit Iran (2011). Im Zusammenhang mit ihrer Funktion als Clearingstelle (vgl. Abschnitt Zentralbank) kam die Bundesbank zusammen mit dem Auswärtigen Amt und Wirtschaftsministerium Ende März 2011 in die Kritik, als bekannt wurde, dass die Deutsche Bundesbank seit Anfang Februar 2011 durch die Ausführung von Überweisungen in einem Volumen von 9 Milliarden Euro dem Iran ermöglicht haben soll, Sanktionen der USA zu umgehen. Ölkäufer überweisen wegen der Sanktionen kein Geld direkt an den iranischen Staat, sondern über die Bundesbank an die Europäisch-Iranische Handelsbank (EIHB) in Hamburg. Die EIHB befindet sich im Eigentum der iranischen Banken Bank of Industry and Mine, Bank Mellat, "Bank Tejarat" und "Bank Refah", welche alle unter Kontrolle – und zum Teil selbst von internationalen Sanktionen betroffen – der Islamischen Republik Iran wirtschaften. Die Sanktionen, in Form von Handelsbeschränkungen und Einfrierungen von Vermögenswerten, sollen die Verbreitung von konventionellen und atomaren Waffen beschränken. Aufgaben. Die Deutsche Bundesbank besteht auch nach dem Maastricht-Vertrag weiter. Ihre neuen Aufgaben wurden mit dem 7. Gesetz zur Änderung des „Gesetzes über die Deutsche Bundesbank“ vom 30. April 2002 neu festgelegt. Sie sind im § 3 des Bundesbankgesetzes definiert. Dort heißt es: „Die Deutsche Bundesbank ist als Zentralbank der Bundesrepublik Deutschland integraler Bestandteil des Europäischen Systems der Zentralbanken. Sie wirkt an der Erfüllung seiner Aufgaben mit dem vorrangigen Ziel mit, die Preisstabilität zu gewährleisten, hält und verwaltet die Währungsreserven der Bundesrepublik Deutschland, sorgt für die bankmäßige Abwicklung des Zahlungsverkehrs im Inland und mit dem Ausland und trägt zur Stabilität der Zahlungs- und Verrechnungssysteme bei.“ Aus dem Bundesbankgesetz und der EZB-Satzung leiten sich vier Tätigkeitsfelder der Bundesbank ab, die sie meist zusammen mit der EZB bearbeitet. Die Deutsche Bundesbank unterstützt im Finanzplanungsrat die Koordination zwischen Haushaltsplanung und mehrjähriger Finanzplanung der Gebietskörperschaften. Notenbank. Die Bundesbank versorgt als Notenbank die Wirtschaft mit Bargeld und sichert die physische Umlauffähigkeit des Bargeldes. Sie überprüft das von den Banken und Wertdienstleistern eingezahlte Bargeld, stellt Falschgeld sicher und übergibt es an die Polizei. Sie tauscht noch im Verkehr befindliche DM-Bestände ohne Frist um und ersetzt zerstörte Banknoten (NAC – Nationales Analysezentrum). Darüber hinaus informiert sie über die Bargeldsicherheitsmerkmale und wöchentlich über die umlaufende Bargeldmenge. Zentralbank. Zunächst ist die Bundesbank "Refinanzierungsquelle" und "Clearingstelle" für Kreditinstitute. Die Kreditinstitute können ihren Bedarf an Zentralbankgeld über die Bundesbank / EZB durch sogenannte Refinanzierungsinstrumente decken. Die damit zusammenhängende Steuerung der Geldmenge war bis Ende 1998 wesentliche Aufgabe der Bundesbank. Seit dem 1. Januar 1999 ist es das vorrangige Ziel der EZB, mit Hilfe ihrer geldpolitischen Strategie Preisniveaustabilität zu gewährleisten. Kreditinstitute können nicht benötigte Gelder kurzfristig bei der Bundesbank / EZB anlegen (sogenannte Einlagenfazilität). Die Bundesbank unterstützt den netzübergreifenden Zahlungsverkehr zwischen inländischen und ausländischen Geschäftsbanken, beispielsweise den Großbetragszahlungsverkehr über RTGSplus, TARGET und zukünftig TARGET2. Damit sollen sekundengenau Beträge in Milliardenhöhe zwischen Banken in der ganzen EU übertragen werden. Die Bankleitzahl (BLZ) einer Bank fungiert bei der Bundesbank als Kontonummer der Bank. Bankenaufsicht. Andererseits wirkt die Bundesbank an der Bankenaufsicht mit. Hierbei arbeitet sie eng mit der BaFin zusammen. Dabei geht es vor allem um die Sicherung der Stabilität des Finanzsystems. Die Bundesbank übernimmt dabei die laufende Überwachung der Banken, wertet also die Jahresabschlussberichte der Institute aus und führt Prüfungen nach § 44 KWG (siehe Kreditwesengesetz) durch. Sie liefert die statistischen Daten zur wirtschaftlichen Lage der Kreditinstitute. Die BaFin erlässt Verfügungen, Prüfungsanordnungen und Rundschreiben, meist in Abstimmung mit der Bundesbank. Bankgeschäft. Die neun Hauptverwaltungen der Bundesbank Hauptverwaltung in Hessen, Frankfurt am Main Als Bank des Staates führt die Bundesbank kostenlos Konten für Bundes-, Landes- und Kommunalbehörden (einschließlich Universitäten) sowie für die Sozialversicherungsträger und wickelt für diese normale Bankdienstleistungen ab. Sämtliche Konten werden auf Guthabensbasis geführt, d. h. der Bundesbank ist es aufgrund des in Art 101 des EU-Vertrages (jetzt: Art 123 Abs. 1 AEUV) verankerten Verbots der monetären Staatsfinanzierung durch die Zentralbanken grundsätzlich nicht gestattet, Kredite an die öffentliche Hand zu erteilen. Die Bundesbank führt Girokonten und Depots außerdem auch für karitative Einrichtungen sowie für ihre eigenen Mitarbeiter. Der Service für Letztere geriet 2013 wegen seiner Kosten in die Kritik. Weiterhin unterliegen die Konten bei der Deutschen Bundesbank nicht der Überwachung laut Kreditwesengeschäft. Bis Ende 2012 war noch die Depoteröffnung für alle Privatpersonen und der Kauf von Bundeswertpapieren möglich (ab 2003 über die Bundeswertpapierverwaltung, heute Deutsche Finanzagentur, für die die Bundesbank allerdings weiterhin das Wertpapiergeschäft ausführte). Daneben ermöglichte sie in ihren Filialen Privatpersonen ohne Girokonto gegen eine Gebühr von einem Euro pro Transaktion die Bargeld-Einzahlung auf Girokonten in Deutschland. Seit 1. März 2012 ist dies aus wirtschaftlichen Gründen nur noch für Zahlungen an Behörden oder Institutionen möglich, die eine Kontoverbindung bei der Bundesbank unterhalten. Die Bundesbank unterhält in den Bundesländern neun Hauptverwaltungen (die ehemaligen Landeszentralbanken) und 38 Filialen. In der Zeit bis 2025 ist eine Verringerung auf 31 Filialen geplant. Die Filialen stehen Banken, den öffentlichen Verwaltungen, den Wertdienstleistern (WDL) sowie den Mitarbeitern der Bundesbank für die Bargeldversorgung und die Abwicklung des bargeldlosen Zahlungsverkehrs zur Verfügung. Währungsreserven. Die Bundesbank ist zuständig für die Verwaltung der Währungsreserven. Dies sind sämtliche Vermögen der Bundesbank, die nicht auf Euro lauten, beispielsweise Goldreserven, Sorten, Wertpapiere in ausländischer Währung und Guthaben in ausländischer Währung bei Banken. Die Währungsreserven bilden dabei einen Gegenwert zur eigenen Währung. Sie werden möglichst rentabel angelegt und bilden zudem eine Möglichkeit zur Intervention bei starken Schwankungen des Wechselkurses. Die Goldreserven der Bundesbank sind die zweitgrößten nach den Goldreserven der US-Notenbank. Derzeit verwaltet die Bundesbank von Frankfurt aus, laut eigenen Angaben, 3384 Tonnen Gold (Stand: 31. Dezember 2014) zu einem Marktwert von rund 140 Milliarden Euro (Stand 4. November 2011). Der größte Teil dieser Goldreserven lagert "historisch und marktbedingt" bei der Bundesbank in Frankfurt, der Federal Reserve Bank of New York, der Bank of England in London und zu einem kleinen Anteil in Paris bei der Banque de France. Die Bundesbank entschloss sich Anfang 2013 das Goldlagerkonzept zu überarbeiten. Künftig soll die Hälfte der Goldreserven im Inland lagern. Der Lagerstandort Paris soll bis 2020 komplett aufgegeben werden. Forderungen nach einem Verkauf der Goldreserven, unter anderem mit dem Hinweis auf die fehlenden Zinserträge, lehnte die Bundesbank immer wieder ab. Sie schreibt dazu: "Nationale Goldreserven haben auch in einer Währungsunion eine vertrauens- und stabilitätssichernde Funktion für die gemeinsame Währung. […] Gold stellt für die Bundesbank auch vor diesem Hintergrund einen Vermögenswert dar, der ihren Ansprüchen nach Werthaltigkeit und Diversifikation ihres Portfolios – bestehend aus Devisen und Gold als Währungsreserven – gerecht wird." Diese These ist unter Wirtschaftswissenschaftlern umstritten. Vorstand. Für drei Vorstandsmitglieder (Präsident, Vizepräsident und ein weiteres Mitglied) liegt das Vorschlagsrecht bei der Bundesregierung. Die anderen drei Mitglieder werden vom Bundesrat im Einvernehmen mit der Bundesregierung vorgeschlagen. Bestellt werden alle Mitglieder des Vorstands nach § 7 Abs. 3 des Bundesbankgesetzes vom Bundespräsidenten, in der Regel für acht Jahre, mindestens aber für fünf Jahre. Die Bezüge des Präsidenten betrugen 2009 388.074 Euro, die des Vizepräsidenten 309.482 Euro. Mitarbeiter. Insgesamt beschäftigt die Deutsche Bundesbank am 31. Dezember 2014 10.308 Mitarbeiter (= 9.531,7 Vollzeitstellen). Zum Ende der DM-Zeit am 31. Dezember 2001 waren es noch 14 800 Vollzeitstellen. Gewinn. Die Bundesbank erzielte bis einschließlich 2010 Gewinne in Höhe von über 1 Milliarde Euro (siehe Grafik) vor allem aus der Refinanzierung der Kreditinstitute und aus einer zinsbringenden Anlage der Währungsreserven. Das Ergebnis aus der Anlage der Währungsreserven wird auch durch Währungsschwankungen beeinflusst: Steigende Wechselkurse ausländischer Währungen beeinflussen das Ergebnis tendenziell positiv, fallende dagegen negativ. Die Höhe der Gewinne aus der Refinanzierung der Kreditinstitute verläuft parallel zum Zinsniveau. Ihren Gewinn führt die Deutsche Bundesbank an den Bund als Eigentümer ab. Bis zur Höhe von 3,5 Milliarden Euro steht dieser dem laufenden Bundeshaushalt zur Verfügung, der darüber hinausgehende Betrag wird seit 1995 zur Tilgung der Schulden des Erblastentilgungsfonds verwendet. In den Jahren 1976–1979 erzielte die Bundesbank Verluste aus der Neubewertung ihrer Währungsreserven (Grund war die Schwäche von US-Dollar und Pfund Sterling (Großbritannien)). 1997 erzielte sie einen Gewinn von umgerechnet 12,4 Milliarden Euro, den höchsten Gewinn ihrer Geschichte. Durch das "Gesetz zur Sicherung von Beschäftigung und Stabilität in Deutschland" (Konjunkturpaket II) änderte sich ab 1. Januar 2010 die Verteilung des Bundesbankgewinns. Nicht zuletzt, da auch der Erblastentilgungsfonds demnächst vollständig getilgt ist, fließt der über den Anteil für den Bundeshaushalt hinausgehende Gewinn ab 2010 in die Tilgung des Sondervermögens für das Konjunkturpaket II. Zugleich sinkt der Anteil des Gewinns, der an den Bund abgeführt wird, ab 2012 schrittweise auf 2,5 Milliarden Euro. Im März 2012 veröffentlichte die Bundesbank einen Gewinneinbruch für 2011 von 70 %. Lediglich 643 Millionen Euro, statt der erwarteten 2,5 Milliarden Euro konnten an das Bundesfinanzministerium überwiesen werden. Der Grund liegt in der Erhöhung der Risikovorsorge von 4,1 Milliarden Euro auf 7,7 Milliarden Euro. Die Gefahr von Ausfällen bei Staatsanleihen, beispielsweise von Griechenland, welche die Europäische Zentralbank (EZB) während der Finanzkrise kauft, machte diese Entscheidung laut Aussage von Bundesbankpräsident Jens Weidmann notwendig. 2012 machte die Bundesbank nur einen Gewinn in Höhe von 664 Millionen Euro. Der Bundesfinanzminister hatte 1,5 Milliarden Euro einkalkuliert. Auch 2012 bildete die Bundesbank neue Milliardenrückstellungen für riskante Geschäfte im Auftrag der Europäischen Zentralbank (EZB). 2013 stieg der Gewinn auf 4,6 Milliarden Euro. Die Bundesregierung hatte in ihrem Haushalt mit mindestens 2,5 Milliarden Euro gerechnet. Das deutliche Plus erklärte der Bundesbankpräsident vor allem damit, dass es keinen Bedarf für weitere Risikovorsorge gegeben habe. Hintergrund war die Entspannung der Euro-Schuldenkrise. 2014 belief sich der Gewinn auf 2,95 Milliarden Euro; ein Rückgang von 35 % gegenüber 2013. Da Zinserträge aus Refinanzierungsoperationen noch immer die größte Einnahmequelle für die Bundesbank darstellen, hatte die Senkung des Leitzinses auf 0,05 % im Jahr 2014 einen verringerten Erlös zur Folge. Auf die Auflösung der Wagnisrückstellung (Stand: 14,4 Milliarden Euro) zur Profitaufstockung wurde verzichtet, da das Niedrigzinsniveau laut Aussage von Joachim Nagel, Vorstandsmitglied der Bundesbank, einen erhöhten Risikofaktor im Rahmen der Kreditvergabe, wie auch eine verschlechterte Jahresprognose für 2015, mit sich bringt. Sonstiges. Die Bundesbank hat eine auch öffentlich nutzbare große Fachbibliothek und ein angeschlossenes Geldmuseum der Deutschen Bundesbank. In Hachenburg betreibt die Bundesbank für die Beamtenanwärter des gehobenen Dienstes die Hochschule der Deutschen Bundesbank. Die bisher gewährte "Bundesbankzulage" von 19 % wurde 2006 für neue Mitarbeiter der Zentrale auf 9 % des Grundgehalts und für die der Hauptverwaltungen auf 5 % verringert, für die Filialmitarbeiter komplett abgeschafft. Die Zulage nimmt jedoch nicht an Besoldungserhöhungen teil, so dass sich die genannten Werte auf die Gehaltstabellen von 2006 beziehen und mittlerweile relativ geringer ausfallen. Für bestehende Beschäftigungsverhältnisse erfolgt durch eine hälftige Anrechnung von Gehaltssteigerungen ein Abschmelzen auf diese Werte. In Eltville am Rhein unterhält die Deutsche Bundesbank ein Tagungszentrum. Am 9. August 2007 gab die Bundesrepublik Deutschland anlässlich des Jubiläums „50 Jahre Deutsche Bundesbank“ eine 10-Euro-Silbergedenkmünze und eine Sondermarke heraus. Einzelnachweise. ! Der Gefangene von Zenda. Die Zweite Auflage von Der Gefangene von Zenda Der Gefangene von Zenda, englischer Originaltitel "The Prisoner of Zenda", ist ein 1894 erschienener Abenteuerroman des britischen Autors Anthony Hope. Der Roman war ein Bestseller, nicht nur in Großbritannien, sondern auch in Europa und den USA, und begründete das später sehr populäre Genre der „ruritanischen Romanze“. 1898 veröffentlichte Hope eine Fortsetzung unter dem Titel "Rupert von Hentzau". Handlung. Rudolf Rassendyll, ein neugieriger junger Engländer, reist in das fiktive Land Ruritanien (das ungefähr in Mähren liegt), um dort der Krönung des Königs beizuwohnen. Rassendyll sieht dem König sehr ähnlich - auf Grund einer Affaire eines Vorfahren des Königs. Dies führt zu einer Reihe von Verwechslungen und schließlich zur Rettung des Königs in einer Verschwörung. Verfilmungen. Der Film "Royal Flash" weist eine ähnliche Handlung auf, und der Film Das große Rennen rund um die Welt parodiert in der Episode in Karpanien die Geschichte Hopes. Dyn. Seit dem 1. Januar 1978 ist dyn für die Angabe der Kraft nicht mehr zulässig, sondern vollständig durch die SI-Einheit Newton ersetzt. Das Dyn wurde als Krafteinheit 1873 vereinbart und war die erste international verbindliche Einheit der Kraft überhaupt. Dominikaner. Der Orden der Dominikaner, auch Predigerorden, lat. "Ordo fratrum Praedicatorum" (Ordenskürzel OP), wurde im frühen 13. Jahrhundert vom heiligen Dominikus gegründet. Gründung und frühe Geschichte. Dominikus wurde im Jahr 1170 in der kastilischen Ortschaft Caleruega geboren. Schule und Studium absolvierte er in Palencia. Im Jahr 1196 trat er in das Domkapitel von Osma in Kastilien ein, wurde dort zum Priester geweiht und wurde 1201 Subprior des Kapitels. Auf Reisen im Gefolge seines Bischofs Diego de Acevedo wurde er in Südfrankreich mit den dortigen Erfolgen der Katharer konfrontiert. Der Katharismus fand aufgrund der asketischen Lebensweise und rhetorischen Überzeugungskraft seiner Prediger großen Anklang in der Bevölkerung. Von den örtlichen Feudalherren wurde er toleriert oder auch gefördert, während die theologisch und seelsorgerisch wenig ambitionierte katholische Geistlichkeit hauptsächlich um die Sicherung ihrer Pfründen und weltlichen Privilegien bemüht war. Auch die von Papst Innozenz III. als Legaten beauftragten Zisterzienser, die den Schwerpunkt ihrer Tätigkeit nicht in der Missionierung, sondern in der politischen Diplomatie und der Herbeiführung repressiver Maßnahmen sahen, hatten sich vor allem den Hass der Bevölkerung zugezogen, aber dem Katharismus keine wirksamen Maßnahmen entgegensetzen können. Bischof Diego hatte zunächst das Projekt einer Missionierung der Türken verfolgt und ersuchte den Papst in Rom dafür um Befreiung von seinem Bischofsamt. Dem Papst war jedoch die innerchristliche Missionierung in Südfrankreich das vordringliche Anliegen. Ende des Jahres 1204 kehrten die beiden über Cîteaux nach Südfrankreich zurück und stimmten ihre Missionstätigkeit mit den päpstlichen Legaten (u. a. Pierre de Castelnau) ab. Mit Unterstützung des neuen Bischofs von Toulouse, des Zisterziensers und ehemaligen Trobadors Folquet de Marseille, gründeten sie 1206/1207 in Prouille (okzitanisch: "Prolha") in der Nähe von Fanjeaux einen Konvent für bekehrte Katharerinnen, die in den ersten Jahren nach der Regel der Zisterzienser lebten. Während Diego nach Osma zurückkehrte und dort Ende 1207 verstarb, blieb Dominikus in Südfrankreich und widmete sich von Prouille aus weiter seiner inneren Berufung, durch ein Wanderleben zu Fuß, statt herrschaftlich zu Pferde, in apostolischer Armut und durch rastlosen Einsatz als Prediger die Bevölkerung wieder zum katholischen Glauben zu bekehren. Diesem Programm, das das Betteln als Form des Lebensunterhalts einschloss und dadurch im Widerspruch zu den noch gültigen kirchlichen Vorschriften stand, erteilte am 17. November 1206 auch der Papst eine erste offizielle Genehmigung. Als es im Jahr 1208 zu dem vom Papst seit längerem vorbereiteten militärischen Kreuzzug gegen die Katharer kam (siehe: Albigenserkreuzzug), war Dominikus anscheinend nicht maßgeblich an der Organisation und Propaganda des Kreuzzuges beteiligt, sondern ihm fiel vor allem die Aufgabe zu, die Überlebenden in der mit großer militärischer Brutalität unterworfenen Region nunmehr auch geistlich zu bekehren, wobei seine Missionstätigkeit unter anderem dadurch gefördert wurde, dass der militärische Anführer des Kreuzzuges, Simon IV. de Montfort, und die neuen katholischen Herren den Konvent von Prouille mit Schenkungen und Privilegien bedachten. Im Jahr 1215 wurden Dominikus und sechs seiner Gefährten durch Bischof Fulko von Toulouse in rechtsverbindlicher Form als Predigergemeinschaft approbiert. Grundlage des Ordens war von Anfang an die Augustinusregel, weshalb die Dominikaner zu den augustinischen Orden gezählt werden. Diesen Regeln fügte die Gemeinschaft Konstitutionen bei, die sich auf die Durchführung des Predigtauftrags bezogen. Die Brüder waren beauftragt, die Häresie zu bekämpfen und den Glauben zu predigen, und erhielten dazu die Erlaubnis, als Wanderprediger ein Leben in religiöser Armut zu führen. Die dafür erforderlichen Mittel wurden ihnen durch Almosen der Diözese zugeteilt; was davon nicht gemäß der Zweckbestimmung verbraucht wurde, war am Ende des Jahres zurückzuerstatten. Diese neue Institution wurde noch im selben Jahr durch ein päpstliches Schreiben approbiert und 1215 dann durch den 10. Kanon des IV. Laterankonzils, dort allerdings ohne Festlegung des Prinzips apostolischer Armut, allen Bischöfen vorgeschrieben. Zurückgekehrt nach Toulouse entsandte Dominikus am Fest Mariä Himmelfahrt des Jahres 1217 (15. August) seine Mitbrüder in die Welt – zunächst nach Paris und nach Spanien – zur Gründung neuer Konvente, hierin dem biblischen Vorbild Christi bei der Entsendung der Jünger folgend. Zum Jahreswechsel hielt er sich erneut in Rom auf und erwirkte am 11. Februar 1218 eine päpstliche Enzyklika, in der das Armutsprinzip der Prediger bekräftigt und die Amtsträger der Kirche zu deren Unterstützung aufgefordert wurden. Im selben Jahr folgten Gründungen der ersten italienischen Konvente, in Bologna und durch Dominikus selber in Rom. Von Rom begab er sich über Toulouse nach Spanien, Nordfrankreich (Paris) und erneut nach Italien, um die Gründung und Organisation neuer Konvente persönlich zu unterstützen. Als besonders folgenreich erwiesen sich hiervon die frühen Gründungen in Paris und Bologna, die wesentlich dazu beitrugen, dass der Orden durch Lehrstühle an den entstehenden Universitäten und durch Einrichtung eigener Generalstudien bald eine führende Rolle in der mittelalterlichen Wissenschaft einnehmen konnte. Im Jahr 1220, als bereits annähernd 60 Niederlassungen bestanden, hielt Dominikus zu Pfingsten in Bologna die erste Generalversammlung des Ordens ab. Das Generalkapitel ergänzte die erste Fassung ("prima distinctio") der Satzungen von 1216 durch eine "secunda distinctio" und gab dem Orden seine in den Grundzügen bis heute gültige Organisationsform. Es besiegelte zugleich die Entwicklung von einem Kanonikerorden zu einem Bettelorden "sui generis" durch die Verschärfung des Armutsprinzips, indem außer dem persönlichen auch der gemeinschaftliche Besitz und feste Einkünfte ausgeschlossen wurden. Nach neuerlichen Predigten in Oberitalien, wo Honorius III. zum Vorgehen gegen die aus Südfrankreich zugelaufenen Katharer aufgerufen hatte, verstarb Dominikus am 6. August in Bologna. Die von dem zweiten Ordensmeister Jordan von Sachsen als "Constitutiones" zusammengestellten Satzungen und Regelwerke des Ordens wurden von dessen Nachfolger Raimund von Peñafort, einem der größten Kanonisten seiner Zeit, in eine systematische Ordnung gebracht und seither durch die Generalkapitel immer wieder geändert oder ergänzt. Seit der frühen Zeit herrschte allerdings ein gewisser Pragmatismus in der Anwendung der Vorschriften, indem in Einzelfällen Dispensationen möglich waren und tatsächlich auch häufig erteilt wurden, um Hindernisse bei der Ausübung des Studiums oder der Predigt auszuräumen. Seit dem Generalkapitel von 1236 wurden Verstöße gegen die Constitutiones außerdem nicht mehr als Sünde, sondern als durch Buße abzugeltendes Vergehen bewertet. Das strenge Armutsprinzip wurde im Lauf des 14. Jahrhunderts vielfach dadurch gelockert, dass einzelne Ordensmitglieder Benefizien annahmen und dadurch die "vita privata" als Usus einführten. Durch das große abendländische Schisma wurde der Orden zeitweise in drei "Observanzen" zerrissen. Raimund von Capua als Generalmeister der römisch-urbanianischen Observanz initiierte 1390 eine Reformbewegung, die die "vita privata" zurückdrängen und die "vita apostolica" erneuern sollte. Dies führte zur Gründung von Reformkonventen, die sich ihrerseits zu Reformkongregationen und Reformprovinzen zusammenschlossen. Als bindende Vorschrift wurde das ursprüngliche Armutsprinzip "de jure" aufgehoben, als Martin V. im Jahr 1425 zunächst einzelnen Konventen und Sixtus IV. 1475 dem gesamten Orden Besitz und feste Einkünfte erlaubte. Verfassung des Ordens. Was den Orden der Predigerbrüder von seiner Gründung her auszeichnet, ist seine demokratische Verfassung. Alle Brüder tragen gemeinsam die Verantwortung für die Verwirklichung der Ziele der Ordensgemeinschaft. Es gibt ein Mitspracherecht auf allen Ebenen. Alle Oberen werden auf Zeit gewählt. Wichtige Entscheidungen werden von der Gemeinschaft der Brüder oder ihrer jeweiligen Delegierten im Konvents-, Provinz- oder Generalkapitel getroffen. Der kleinste Baustein des Ordens ist ein Kloster, der sogenannte Konvent, der traditionell aus mindestens sechs Mitgliedern besteht. Hier leben die Brüder in Gemeinschaft zusammen, halten gemeinsam das Chorgebet und erfüllen ihre Aufgaben im Studium, in der Predigt innerhalb und außerhalb des Konvents und zum Teil auch in Übernahme von Aufgaben der pfarrlichen oder kategorialen Seelsorge (Krankenhaus, Gefängnis, Beratungsdienste etc.). Der Obere eines Konventes wird Prior genannt und auf drei Jahre gewählt. Er wird vom nächsthöheren Oberen, dem Provinzial, bestätigt. Die Konvente sind zu Provinzen zusammengeschlossen, heute insgesamt 42, denen jeweils ein Provinzial vorsteht. Er wird für vier Jahre auf dem alle vier Jahre tagenden Provinzkapitel gewählt, das sich aus den gewählten Prioren und zusätzlich gewählten Delegierten zusammensetzt. Der Provinzial wird vom Ordensmeister, dem höchsten Oberen des Ordens bestätigt. Der Ordensmeister wiederum wird vom Generalkapitel, der obersten gesetzgebenden Versammlung, auf neun Jahre gewählt. Wähler sind hier jeweils die gewählten Provinziale sowie von den Provinzen gewählte Delegierte. Spiritualität. Die Spiritualität des Ordens wird vom Ziel her bestimmt: „den Namen des Herrn Jesus Christus aller Welt zu verkündigen” (Papst Honorius III.). Die Predigt fließt aus der Fülle der Beschauung, so dass Thomas von Aquin formulieren konnte: (‚sich der Kontemplation widmen und die Frucht der Kontemplation weitergeben‘). Die spezifische Lebensform der Dominikaner, für die das Gemeinschaftsleben, das feierliche gemeinsame Chorgebet und das ständige Studium charakteristisch sind, führt zur Verkündigung in Wort und anderen apostolischen Aktivitäten. Inquisition. Der Dominikanerorden stellte seit dem Beginn der Inquisition zu Beginn des 13. Jahrhunderts im päpstlichen Auftrag Inquisitoren zur Aufspürung und Verfolgung von Häretikern. Aufgrund der Erfahrungen, die der Orden bereits früh in Auseinandersetzung mit Häretikern gesammelt hatte sowie seiner intellektuellen Ausrichtungen, bot er dafür besonders gute Voraussetzungen. Bereits 1231-33 vergab Papst Gregor IX. in seinem mehrfach ausgestellten Sendschreiben "Ille humani generis" mehreren Dominikanerkonventen den Auftrag zur Verfolgung von Häresien. Besonders aktiv wurden die Dominikaner, die man deshalb auch als "domini canes" ("Hunde des Herrn") bezeichnete, daraufhin in Südfrankreich bei der inquisitorischen Bekämpfung der Katharer. Neben Inquisitoren aus den Reihen anderer Orden, etwa der Franziskaner, wirkten Dominikaner als Inquisitoren während des gesamten Mittelalters v.a. in Frankreich, Italien und im Heiligen Römischen Reich. Bedeutende Dominikanerinquisitoren waren u. a. Bernard Gui († 1331), Walter Kerlinger († 1373), Tomás de Torquemada († 1498), der erste Generalinquisitor der Spanischen Inquisition, oder Jakob van Hoogstraten († 1527). Umgekehrt fielen auch Mitglieder des Dominikanerordens der Inquisition zum Opfer, wie Giordano Bruno. Dominikaner beteiligten sich auch an den Anfängen der Hexenverfolgung, darunter Nicolas Jacquier († 1472) oder Heinrich Kramer († 1505), der Autor des Hexenhammers. Im Jahr 2000 nahm das Provinzkapitel der Dominikanerprovinz Teutonia zur historischen Beteiligung der Dominikaner an der Inquisition und Hexenverfolgung kritisch Stellung (siehe hier). Der Orden in der Gegenwart. Bedeutende Dominikanerkirchen, auch Predigerkirchen genannt, sind die Französische Kirche in Bern sowie weitere Beispiele in Basel, Eisenach, Erfurt, Regensburg, Rottweil oder Zürich. Viele davon befinden sich heute nicht mehr im Besitz des Dominikanerordens. 1953 baute der bekannte schweizerisch-französische Architekt Le Corbusier Kirche und Kloster der Dominikaner Sainte-Marie de la Tourette bei Lyon. Der Generalobere der Dominikaner wird Ordensmeister (Magister Ordinis) genannt. Der derzeitige Ordensmeister (seit September 2010) ist Bruno Cadoré. Statistik. Das Dominikanerkloster in Mainz (Neubau in der Bildmitte) Heute gibt es weltweit ca. 6.000 Brüder, ferner 3.000 kontemplativ lebende Dominikanerinnen und über 30.000 apostolisch-karitativ tätige Schwestern im "Dritten Orden". Die Laiendominikaner beiderlei Geschlechts führen ein christliches Leben im Geiste der dominikanischen Tradition, leben aber nicht im Kloster, sondern gehen einem normalen Beruf nach und können auch verheiratet sein. Zur Provinz "Teutonia" (gegründet 1221) gehören 9 Konvente: Köln (Provinzialat), Düsseldorf, Vechta, Hamburg, Berlin, Braunschweig, Leipzig, Worms, Mainz (Studienhaus). Das Noviziat befindet sich in Worms. Darüber hinaus gibt es eine kleinere Niederlassung (Domus) im Wallfahrtsort Klausen bei Trier. Zur Provinz Teutonia gehörte bis 2013 ein Vikariat in Bolivien mit 6 Niederlassungen (Santa Cruz de la Sierra, Cochabamba, Pampagrande, Comarapa, Samaipata, Mairana, Potosi). Das Vikariat wurde 2013 als Vizeprovinz von Bolivien selbstständig. Die Süddeutsch-Österreichische Provinz umfasst vier Konvente: ein Konvent in Baden-Württemberg (Freiburg), zwei in Bayern (Augsburg, München) und einer in Österreich (Wien). "Siehe auch:" Liste von Dominikanerklöstern. Das Wappen der Dominikaner. Als Wappen des Dominikanerordens sind zwei unterschiedliche Motive zu finden, das "Lilienkreuz" und das "Mantelwappen". Das heutige Dominikanerwappen zeigt "im von schwarz und silber achtfach geständerten Schild ein schwarz und silber geständertes Lilienkreuz". Das Lilienkreuz tritt seit dem 15. Jahrhundert auf und ist damit älter als das schwarz-silberne ekklesische Mantelwappen. Es ist ein ursprünglich der Inquisition zugeordnetes Emblem und findet erst seit dem 17. Jahrhundert allgemeine Verbreitung als Symbol für den Predigerorden. Das Mantelwappen (heraldisch: Mantelzug) ist eine "silberne Spitze auf schwarzem Feld" – gedeutet wird es als. Es erscheint erstmals 1494 in einem venezianischen Processionarium und wird dann in Europa zum üblichen Zeichen für die Dominikaner. Das eigentlich ältere Lilienkreuz verdrängt das Mantelwappen erst an der Wende zum 20. Jahrhundert, beim Generalkapitel in Bologna 1961 wird das Mantelwappen jedoch wieder zum verbindlichen Abzeichen des Dominikanerordens erklärt. Diese Vorschrift wird 1965 beim Generalkapitel in Bogotá allerdings aufgehoben, und die Verwendung beider Wappenbilder ist freigestellt. Zeit des Nationalsozialismus. Als Zeit des Nationalsozialismus (abgekürzt NS-Zeit) wird die Regierungszeit der Nationalsozialistischen Deutschen Arbeiterpartei (NSDAP) im Deutschen Reich bezeichnet. Sie begann am 30. Januar 1933 mit der Ernennung Adolf Hitlers zum Reichskanzler und endete am 8. Mai 1945 mit der bedingungslosen Kapitulation der Wehrmacht vor den Alliierten und ihren Verbündeten. Die Nationalsozialisten errichteten in Deutschland eine Diktatur nach dem Führerprinzip und entfesselten mit dem Überfall auf Polen am 1. September 1939 den Zweiten Weltkrieg. Neben der Verfolgung und Ermordung politisch Andersdenkender verübten sie zahlreiche weitere Verbrechen gegen die Menschlichkeit gegenüber ethnischen, religiösen und anderen Minderheiten. Etwa sechs Millionen europäische Juden wurden im historisch beispiellosen Holocaust, bis zu 500.000 Sinti und Roma im Porajmos und etwa 100.000 Menschen mit geistigen und körperlichen Behinderungen im Rahmen der „Aktion T4“ und der „Aktion Brandt“ ermordet. Nach der Strategie des sogenannten Hungerplans ließen die deutschen Besatzer in der Sowjetunion zwischen 1941 und 1944 geschätzt 4,2 Millionen Menschen bewusst verhungern und rund 3,1 Millionen sowjetische Soldaten starben in deutscher Kriegsgefangenschaft. Die Ära der nationalsozialistischen Herrschaft in Deutschland und über weite Teile Europas wird in einem ethisch-moralischen Sinn als Zivilisationsbruch und als Tiefpunkt insbesondere der deutschen, aber auch der europäischen Geschichte insgesamt angesehen. Überblick. Aufmarsch beim Reichsparteitag der NSDAP 1935 Die Zeit des Nationalsozialismus wird oft einer Epoche des Faschismus zugeordnet. Dieser entstand in Italien und herrschte dort von 1922 bis 1943. Beide hatten wesentliche Merkmale gemeinsam: die Diktatur einer einzigen, zentralistisch aufgebauten Partei, einen Führerkult, Militarismus, aggressiven Nationalismus und antidemokratische, antikommunistische Tendenzen sowie den Anspruch auf eine „Einheit von Volk und Staat“. Vom italienischen Faschismus unterschied sich der Nationalsozialismus jedoch durch einen fundamentalistischen Rassismus und Antisemitismus, mit dem seine weiträumigen Eroberungs- und Vernichtungsziele begründet wurden. Das NS-Regime begann, als der deutsche Reichspräsident Paul von Hindenburg den NSDAP-Führer Adolf Hitler zum deutschen Reichskanzler ernannte und dieser das Kabinett Hitler aus Nationalsozialisten, Deutschnationalen und Stahlhelm, Bund der Frontsoldaten zur neuen Regierung berief. Es wurde bis 1934 durch Terrormaßnahmen gegen politische Gegner, gesetzliche Aufhebung großer Teile der Weimarer Reichsverfassung, Verbot aller anderen Parteien und Gleichschaltung fast aller politisch-gesellschaftlichen Kräfte durchgesetzt und gefestigt. Von Anfang an verfolgte das Regime eine Innen- und Außenpolitik, die Deutschlands Niederlage im Ersten Weltkrieg vergessen machen und seine damals verlorene Großmachtstellung erneuern und erweitern sollte. Dazu wurden von deutscher Seite bis 1936 mit dem Austritt aus dem Völkerbund, der Aufrüstung der Wehrmacht sowie der Besetzung des entmilitarisierten Rheinlands wichtige Teile des Versailler Vertrags außer Kraft gesetzt. 1938 folgte der Anschluss Österreichs an das nunmehr „Großdeutsche Reich“. Im selben Jahr erlaubte das Münchner Abkommen Deutschland die Eingliederung des Sudetenlandes. Mit dem Überfall auf Polen begann das NS-Regime, seine jahrelang vorbereitete Eroberungs- und Germanisierungspolitik mit Krieg durchzusetzen. Im Laufe des Zweiten Weltkriegs beging das nationalsozialistische Deutschland millionenfachen Völkermord. Am 27. September 1940 schlossen Deutschland, das faschistisch regierte Italien und das Kaiserreich Japan – die sogenannten Achsenmächte – den Dreimächtepakt als politische und militärische Koalition. Nach raschen Siegen über die Niederlande, Belgien, Frankreich und Norwegen 1940 brach das NS-Regime den deutsch-sowjetischen Nichtangriffspakt von 1939 und griff am 22. Juni 1941 die Sowjetunion an („Unternehmen Barbarossa“). Am 11. Dezember 1941 erfolgte die Kriegserklärung Deutschlands und Italiens an die Vereinigten Staaten. Die Kriegswende begann im Herbst und Winter 1942/1943 mit den deutschen Niederlagen in den Schlachten von El Alamein und Stalingrad. Mitte 1943 war der Wendepunkt des deutschen U-Boot-Kriegs im Atlantik. Die britischen und US-amerikanischen Luftstreitkräfte erreichten ab Frühjahr/Sommer 1944 fast die völlige Luftherrschaft über Deutschland und zerstörten im Bombenkrieg ganze Städte. Anfang Juni 1944 landeten westalliierte Truppen in der Normandie (Operation Overlord) und eröffneten damit die zweite Front im Westen mit dem Ziel, die Truppen der Wehrmacht auf deutsches Gebiet zurückzudrängen und das NS-Regime schließlich zu stürzen. Die alliierten Truppen erreichten die Grenzen des „Altreichs“ im Oktober 1944. US-amerikanische und sowjetische Truppen trafen sich in Mitteldeutschland am 25. April 1945 („Elbe Day“). Nach Hitlers Selbstmord am 30. April 1945 endete zwei Tage später die Schlacht um Berlin. Daraufhin kapitulierte die Wehrmacht am 8. Mai 1945 bedingungslos vor den Alliierten und ihren Verbündeten. Der Zweite Weltkrieg kostete weltweit über 62 Millionen Menschen das Leben. In seinem Verlauf ermordeten Nationalsozialisten und ihre Helfer etwa ein Drittel aller europäischen Juden (Shoah), etwa 3,5 Millionen nichtjüdische Sowjetbürger und Polen (siehe dazu Verbrechen der Wehrmacht), mindestens 100.000, eventuell über 500.000 Sinti und Roma (Porajmos), etwa 200.000 Behinderte (u. a. „Aktion T4“), eine unbekannte Zahl deutscher „Asozialer“ und etwa 5.000 Homosexuelle (→ Rosa Winkel). In der nationalsozialistischen Rassenhygiene galten diese Gruppen als „minderwertige“ bzw. „lebensunwerte“ „Rassenschädlinge“. Vor dem Krieg waren bereits etwa 20.000 als gefährlich eingestufte politische Regimegegner, meist Angehörige der Linksparteien, und etwa 1.200 Zeugen Jehovas ermordet worden. Deserteure, Plünderer und Saboteure erhielten als „Volksschädlinge“ in der Regel die Todesstrafe. Erster Weltkrieg. Für den Ersten Weltkrieg waren primär die Berliner und Wiener Regierungen und deren Militärstäbe verantwortlich. Die Niederlage Deutschlands war vor allem Folge verfehlter Kriegsziele und Kriegsführung der dritten kaiserlichen OHL unter Erich Ludendorff und Paul von Hindenburg. Ihr Streben nach einem „Siegfrieden“ und weitreichenden Eroberungen, der bedingungslose U-Boot-Krieg, der den Kriegseintritt der Vereinigten Staaten von Amerika bewirkte, und die Ablehnung von inneren Friedensbemühungen und äußeren Verhandlungsangeboten bewirkten zuletzt eine vollständige Niederlage und eine soziale Revolution. Nach der gescheiterten Frühjahrsoffensive an der Westfront versuchten die beiden Generäle, ihr Versagen den liberalen und demokratischen Kräften im Reichstag aufzubürden, indem sie empfahlen, diese in die Regierung einzubinden und die zuvor abgelehnten Waffenstillstandsbedingungen des US-Präsidenten Woodrow Wilson anzunehmen. Dies geschah in der Oktoberreform 1918. Damit schoben sie zugleich die Verantwortung für die Folgen der Niederlage den demokratischen Kräften zu, die nun statt ihrer die Kapitulationsbedingungen des 10. November 1918 und später den Versailler Vertrag akzeptieren und unterzeichnen mussten. Das bereitete die seit 1919 verbreitete Propagandalüge der "Dolchstoßlegende" vor. Von 1880 bis 1914 etablierte sich der Antisemitismus in Deutschland, so in der Deutschen Turnerschaft, dem Offizierskorps, den meisten Studentenverbindungen und einigen nationalistischen und rassistischen Parteien. Diese Gruppen radikalisierten sich während des Krieges. Das Programm der Deutschvölkischen Partei erklärte die „Vernichtung des Judentums“ zur „Weltfrage des 20. Jahrhunderts“. Zu Deutschbund, Gobineaugesellschaft, Reichshammerbund kamen im Kriegsverlauf u. a. die Thulegesellschaft und der Alldeutsche Verband hinzu. Dessen Vorsitzender Heinrich Claß wollte die nahe Kriegsniederlage den Juden anlasten und sie nach Kriegsende gewaltsam vertreiben lassen. Anhänger dieser Ziele sammelten sich dann vielfach in der NSDAP. Novemberrevolution. Die Novemberrevolution beendete die faktisch bestehende Militärdiktatur in Deutschland und ermöglichte die Gründung einer parlamentarischen Republik. Doch in ihrem Verlauf stützte sich die SPD-Führung um Friedrich Ebert, Philipp Scheidemann und Gustav Noske auf das kaiserliche Militär, um weitergehende Forderungen der Revolutionäre abzuwehren. Dazu schloss Ebert am 9. November 1918 den geheimen Ebert-Groener-Pakt mit der OHL. Den Spartakusaufstand und Anläufe zu einer Räterepublik in einigen Großstädten ließ er mit Hilfe zurückgekehrter kaiserlicher Fronttruppen und republikfeindlicher Freikorps niederschlagen. Diese blutigen, bürgerkriegsartigen Kämpfe überschatteten die Entstehung der Weimarer Demokratie und begünstigten auch bei Teilen der linken Wählerbasis eine republikfeindliche Einstellung. Die kaiserlichen Militärs behielten trotz der Kriegsniederlage ihre bisherige Stellung und wurden nicht demokratisiert. Die Strukturen und das Personal der Kaiserzeit mit oft rechtsextremer Einstellung in weiten Teilen von Wirtschaft, Verwaltung, Justiz und Militär wurden in die Weimarer Republik übernommen. Die Weimarer Reichsverfassung schützte ausdrücklich einige Privilegien des kaiserlichen Beamtenapparats. In dieser innenpolitischen Situation entstand die NSDAP. Sie war weder die einzige noch die erste rechtsextreme Partei, die die Republik von Grund auf ablehnte und bekämpfte. Diese Haltung verband sie mit einer Reihe von national-konservativen und nationalistischen Parteien, die sich um 1918/1919 neu gründeten, vor allem die DNVP. Sie vertrat die antidemokratische Grundhaltung von großen Teilen des konservativen, das heißt monarchistisch-kaisertreuen Bürgertums. Seit 1919 begingen Rechtsextremisten einige politische Morde an bedeutenden Vertretern der Arbeiterbewegung wie Rosa Luxemburg, Karl Liebknecht und Kurt Eisner. Die Münchner Räterepublik wurde durch die Freikorps brutal niedergeschlagen, und auch liberale und konservative „Erfüllungspolitiker“ (Walter Rathenau, Matthias Erzberger) wurden ermordet. Rechtsextreme Täter entgingen häufig einer Strafverfolgung oder wurden milde bestraft, gegen politisch motivierte Straftaten von Sozialisten und Kommunisten ging die Justiz dagegen mit äußerster Härte vor. Die Weimarer Justiz ließ auch die massenwirksame Propaganda von der Kriegsschuldlüge, den Novemberverbrechern und der Dolchstoßlegende zu, die rechtsextreme, rechtskonservative und sogar Teile der liberalen Parteien und Medien vertraten. Ebert hatte bei der Rückkehr der Fronttruppen vom „im Felde unbesiegten“ deutschen Heer gesprochen; Hindenburg behauptete 1920 vor dem Untersuchungsausschuss für Kriegsschuldfragen, das Heer sei „von hinten… erdolcht“ worden. Der Vorwurf sollte die demokratischen und linken Kräfte treffen, deren Revolution das von den Generälen hinausgezögerte Kriegsende erzwungen hatte. Die Dolchstoßlegende wurde von zahlreichen Medien, vor allem des Hugenberg-Pressekonzerns, aufgegriffen und propagiert. Die Demokraten in der Verwaltung der Weimarer Republik wurden zum Teil systematisch verunglimpft – so z. B. der Berliner Polizeipräsident Bernhard Weiß, der gegen Rechtsbrüche der SA vorging. Die Bildung solcher paramilitärischen Verbände wurde ebenfalls von den Behörden geduldet: Die SA begleitete die Versammlungen und Kundgebungen ihrer Partei und begann auch bei anderen Parteiversammlungen immer wieder Straßen- und Saalschlachten. Ferner verhinderten institutionelle Probleme der Weimarer Republik eine tragfähige, demokratisch legitimierte Politik. Da im Parlament selten konstruktive parlamentarische Mehrheiten entstanden, wurden mehrfach Neuwahlen ausgerufen. Gerade dies führte am Ende der Republik zu einer Politik, die von Notverordnungen des mächtigen Reichspräsidenten geprägt war. All dies lähmte den demokratischen Willensbildungsprozess und verstärkte die Unzufriedenheit der Bürger mit den etablierten politischen Parteien in den Zeiten der Krise. 1920–1925: Gründung, Verbot und Neuaufbau. Die NSDAP ging am 24. Februar 1920 aus der Deutschen Arbeiterpartei (DAP) in München hervor. Sie vertrat in ihrem 25-Punkte-Programm von Anfang an entschieden antidemokratische, völkisch-nationalistische und rassistische, vor allem antisemitische Positionen. Ende des Jahres erwarb sie den "Münchner Beobachter" und machte ihn zum Völkischen Beobachter (VB), dem „"Kampfblatt der nationalsozialistischen Bewegung Großdeutschlands"“. Adolf Hitler war bis dahin ein in der Öffentlichkeit unbekannter, erfolgloser österreichischer Kunstmaler. Er war im Ersten Weltkrieg einfacher Gefreiter in einem bayerischen Regiment gewesen. Im Auftrag des Militärs besuchte er unter anderem Veranstaltungen der DAP (Deutsche Arbeiterpartei) und wurde zunächst von ihr als Redner angeworben. In dieser Funktion kam er zum Ruf eines „Trommlers“ und „Einpeitschers“ der Partei, der er in Bayern schnell einen gewissen Zulauf aus völkischen Kreisen verschaffen konnte. Hitler wurde 1921 Vorsitzender der NSDAP. Der Organisation schlossen sich auch ehemals führende kaisertreue Militärs an, so zum Beispiel der ehemalige OHL-General Erich Ludendorff. Die NSDAP-Mitglieder gehörten von Beginn an zu den entschiedensten Gegnern der Republik, obwohl auch sie in ihrem Rahmen Wähler zu gewinnen versuchten. Anfangs konnte die neue rechtsextreme Partei die antidemokratische Grundströmung nicht auf ihre Mühlen lenken. Aber sie nutzte die allgemeine Ablehnung des Versailler Vertrages, um die von ihr so bezeichneten „Novemberverbrecher“ an den öffentlichen Pranger zu stellen. Wie allen Rechtsextremen galten ihr besonders die führenden SPD-Politiker, denen 1918 die Macht übergeben worden bzw. „zugefallen“ war (Friedrich Ebert, Philipp Scheidemann), als Erfüllungsgehilfen der alliierten Siegermächte des Ersten Weltkrieges. Sie diffamierte die Demokratie als vorübergehende Erscheinung und nannte sie „Systemzeit“. Diese Propaganda wurde durch die Reparationsforderungen der Alliierten begünstigt. Der Kapp-Putsch vom März 1920 stellte die Republik auf eine erste Bewährungsprobe. Freikorps unter General von Lüttwitz besetzten das Berliner Regierungsviertel und ernannten den ehemaligen Generallandschaftsdirektor Wolfgang Kapp zum Reichskanzler. Die legale Regierung zog sich zunächst nach Dresden und anschließend nach Stuttgart zurück und rief von dort aus zum Generalstreik gegen die Putschisten auf. Der Putsch scheiterte rasch; entscheidend für die Niederlage war die Weigerung der Ministerialbürokratie, den Anordnungen Kapps Folge zu leisten. Die Reichswehr hatte sich demgegenüber abwartend verhalten (Hans von Seeckt: „Truppe schießt nicht auf Truppe.“). Die NSDAP gewann zunächst vor allem in München eine gewisse Anhängerschaft, spielte aber in Bayern während der ersten Jahre der Republik ansonsten kaum eine wichtige politische Rolle. Außerhalb Bayerns wurde Hitler Anfang der 1920er Jahre nicht wirklich ernst genommen. Dennoch versuchten nationalsozialistische Putschisten unter der Führung von Hitler und Ludendorff am 9. November 1923 mit dem sogenannten Hitler-Ludendorff-Putsch die Regierung in Bayern und im Reich abzusetzen. Mitglieder und Anhängerschaft der nationalsozialistischen Bewegung kamen in hohem Maße aus den von der Inflation ruinierten und von anhaltender Deklassierung bedrohten Mittelschichten. Der von der nationalsozialistischen Propaganda so bezeichnete „Marsch auf die Feldherrnhalle“ in München wurde von der bayerischen Landespolizei niedergeschlagen. Im anschließenden Hitler-Prozess wurde Hitler zur gesetzlichen Mindeststrafe von fünf Jahren Festungshaft in der Festung Landsberg verurteilt. Ludendorff wurde freigesprochen. Die NSDAP wurde verboten. Es entstanden daraufhin zugelassene Ersatzorganisationen. Hitler konnte den Prozess als Propagandaveranstaltung nutzen. In der Haft, während der Hitler viele Vergünstigungen genoss, entschloss sich Hitler, die Macht in Deutschland auf legalem Wege zu erringen. Er diktierte seinem damaligen Sekretär und späteren Stellvertreter Rudolf Heß seine programmatische Autobiografie "„Mein Kampf“", in der er seine Ziele und Vorhaben formulierte. Schon am 20. Dezember 1924 wurde Hitler wieder aus der Haft entlassen. Der Putsch war der vorläufige Höhepunkt der Rechtsextremen gewesen, mit einem wirtschaftlichen Aufschwung fiel ihre Bedeutung. Auf dem Markt erschienen Neuheiten wie der für alle zugängliche Rundfunk oder erschwingliche Autos aus der Massenproduktion. Die nationalsozialistische Bewegung zerbrach in mehrere Parteien, von denen aber nur zwei eine gewisse Bedeutung erreichten und die auch insgesamt an Stimmen verloren. Eine der beiden bedeutenderen war die Großdeutsche Volksgemeinschaft unter dem von Hitler ausgewählten Alfred Rosenberg, der im Juli 1924 von Julius Streicher und Hermann Esser abgelöst wurde. Sie konkurrierte mit der Nationalsozialistischen Freiheitsbewegung Großdeutschlands mit Gregor Strasser und Erich Ludendorff. 1925–1929: die NSDAP als Splitterpartei. Am 27. Februar 1925 wurde die NSDAP in München neu gegründet, und die meisten nationalsozialistischen Gruppen und Parteien vereinigten sich in ihr unter der unumschränkten Führung Hitlers. Die Strukturen der Partei wurden in den folgenden Jahren geprüft und ihre Organisation verbessert. Als 1924 dem Reichspräsidenten Friedrich Ebert durch das Urteil im Magdeburger Prozess vorgeworfen wurde, durch seine Beteiligung an den Streiks während des Weltkrieges habe er Landesverrat begangen, ließ er eine Blinddarmentzündung nicht rechtzeitig behandeln und starb 1925. Die folgende Wahl gewann der trotz gegenteiliger öffentlicher Bekundungen noch immer seinem ehemaligen Kaiser treue parteilose Paul von Hindenburg, der von den meisten Rechtsparteien, ihnen voran der DNVP, unterstützt wurde. Für die Wahl hatte die NSDAP mit Erich Ludendorff ebenfalls einen Kandidaten aufgestellt, der aber mit 1,1 % im ersten Wahlgang scheiterte. Hitler, der im selben Jahr seine österreichische Staatsbürgerschaft abgelegt hatte und somit vorerst (bis 1932) als staatenlos firmierte, hatte jedoch zunächst in einigen deutschen Ländern noch öffentliches Redeverbot, das zuletzt 1928 in Preußen aufgehoben wurde, nachdem er nun bekundete, die Machtübernahme auf legalem Weg erreichen zu wollen. 1926 konnte sich Hitler auf dem zweiten Reichsparteitag der NSDAP, der in Weimar stattfand, gegen die Brüder Gregor und Otto Strasser durchsetzen, die als Angehörige des linken Parteiflügels einen nationalen Sozialismus sowie eine außenpolitische Zusammenarbeit mit der Sowjetunion verlangten. Im Dezember 1926 erschien der zweite Band von "Mein Kampf", mit dem Hitler die NS-Bewegung endgültig auf antisowjetische Ziele festlegte: den Kampf gegen den jüdischen Bolschewismus und die Eroberung von Lebensraum im Osten. Fortan setzte Hitler seine Hoffnungen insbesondere in die Wählerschichten des Mittelstandes und der Landbevölkerung, die mit der herrschenden Politik aufgrund wirtschaftlicher Belastungen und entsprechender Einbußen besonders unzufrieden waren. Allerdings war die NSDAP bis zur Reichstagswahl 1930 kaum mehr als eine Splitterpartei und nur eine von vielen im Reichstag vertretenen völkischen Parteien am politisch rechten Rand. Die lange Zeit größte und einflussreichste unter ihnen, die den völkischen Block anführte, war die DNVP. Bei der Reichstagswahl am 20. Mai 1928 verlor die NSDAP sogar zwei Mandate und kam mit 2,6 % der Wählerstimmen auf nur 12 Sitze im Reichstag. Nachdem sich die politischen, wirtschaftlichen und sozialen Verhältnisse in Deutschland, die seit 1924 relativ stabil geworden waren, ab Mitte 1929 innerhalb weniger Monate wieder dramatisch verschlechterten, änderte sich die politische Parteienlandschaft in kurzer Zeit zugunsten der ideologischen Pole des links- und rechtsextremen Spektrums, was sich gerade auch auf die NSDAP begünstigend auswirkte. 1929–1933: Weltwirtschaftskrise und Demokratiekrise. 1929 fand ein Volksentscheid zu „Young-Plan und Kriegsschuldlüge“ statt. Im Mittelpunkt stand eine Neuregelung der Reparationszahlungen. Getragen wurde der Volksentscheid von einem Bündnis aus DNVP, Stahlhelm, NSDAP und Deutschvölkischer Freiheitsbewegung. Die NSDAP durfte sich an der Seite ihrer Bündnispartner als politisch rehabilitiert betrachten. Der Volksentscheid scheiterte, die NSDAP aber hatte mit ihrer Propaganda neue Wählerkreise erreichen können. In den folgenden Jahren gewann die NSDAP immer mehr an Bedeutung. Grund war vor allem die Weltwirtschaftskrise, die auch durch die starken Finanzverflechtungen in Verbindung mit den Reparationszahlungen Deutschlands verstärkt wurde. Im Kontext der Weltwirtschaftskrise stieg die Arbeitslosigkeit in Deutschland sprunghaft an. So verstärkte sich bei vielen Wählern nun der Ruf nach einem „starken Mann“. Vor diesem Hintergrund gewann die Propaganda der NSDAP innerhalb kurzer Zeit ungeahnte Überzeugungskraft: Hitlers Wahlkampfparole, sein Ziel sei es, die „politischen Parteien aus Deutschland hinweg zu fegen“, stieß nun bei vielen Unzufriedenen, besonders aus der Mittelschicht, auf offene Ohren. Sie trieb ihm viele Wähler zu, nicht nur aus dem völkisch-nationalen, sondern auch dem bürgerlich-konservativen Lager. Die Nationalsozialisten verstanden es, die Massen durch Großveranstaltungen für sich zu gewinnen und nutzten modernste Wahlkampfmittel, zum Beispiel die konsequente Emotionalisierung und die Nutzung von Flugzeugen. Ihre Angriffe richteten sich gegen alles, was mit dem "Weimarer System" in Verbindung gebracht wurde – vom Parteiensystem, bestehend aus verschiedenen relativ kleinen Parteien und Splitterparteien, bis hin zum eigentlichen demokratisch-parlamentarischen Prinzip. Auf die am 28. März 1930 an der Frage der Regelung der Arbeitslosenversicherung gescheiterten SPD-geführten Regierung Hermann Müller folgte ein Kabinett unter der Führung von Heinrich Brüning vom rechten Flügel des Zentrums. Er beabsichtigte eine drastische Senkung der Einkommen der Lohnabhängigen und der Sozialleistungen. Nachdem er sich damit im Parlament nicht durchsetzen konnte, regierte er durch die mit Art. 48 der Weimarer Verfassung mögliche Notverordnung. Mit dem Ernennungsrecht nach Art. 53 der Weimarer Verfassung war in Verbindung mit dem Notverordnungsrecht nach Art. 48 WRV und dem Parlamentsauflösungsrecht nach Art. 25 ein Präsidialkabinett möglich, also eine Minderheitsregierung, die nur auf das Vertrauen des Präsidenten und dessen Notstandsvollmachten gestützt war. Ein solches Präsidialkabinett wurde unter Brünings Führung etabliert. SPD, KPD, NSDAP und Teile der DNVP verlangten Aufhebung der Notverordnung. Dem folgte der Reichspräsident. Bei den anschließenden Wahlen konnte die NSDAP die Zahl ihrer Abgeordneten von 12 auf 107 erhöhen und wurde damit zur zweitstärksten Partei. Es kam zum zweiten Präsidialkabinett Brüning, nun von der SPD toleriert. Die Regierung verfügte Lohn- und Gehaltskürzungen, beschränkte die Leistungen der Arbeitslosenversicherung, hob aber gleichzeitig die Beitragssätze an. Zugleich erhöhte sie die Steuern auf Löhne und Einkommen, die Umsatzsteuer sowie die Steuern auf Bier, Tabak und Zucker. Die Präsidialkabinette Brüning (1930–1932) trugen wesentlich zur Entfremdung der Bevölkerung von der Weimarer Demokratie bei und gewöhnten sie an nichtdemokratische politische Verhältnisse. In einem Prozess gegen Offiziere der Reichswehr, denen die Verbreitung von nationalsozialistischer Propaganda vorgeworfen wurde, bezeugte Hitler in seinem öffentlichkeitswirksamen Legalitätseid, dass er die Macht „nicht mit illegalen Mitteln“ anstrebe, und trat damit Gerüchten über einen Putsch entgegen. Die NSDAP brauche „noch zwei bis drei Wahlen“, dann werde sie „in der Mehrheit sitzen“ und „den Staat so gestalten, wie wir ihn haben wollen“. a> während der Großveranstaltung "„Zehn Jahre Versailler Vertrag“". Innerhalb des rechten Parteispektrums vollzog sich eine Verschiebung von der Mitte hin zum Rechtsradikalismus. Massenhaft gingen Wähler aus den Parteien der bürgerlichen Mitte wie der DStP und der DVP nach rechtsaußen. Traditionelle Wähler der rechtsradikalen DNVP gingen über zur noch weiter rechts stehenden NSDAP. Geringere Verschiebungen gab es innerhalb der Linken. Die Sozialdemokraten blieben die linke Mehrheitskraft, verloren zwar Stimmen an die KPD, die jedoch bis in die erste Jahreshälfte 1932 über etwa 13 % nicht hinauskam. Inzwischen hatte sich die politische Auseinandersetzung stark in den außerparlamentarischen Raum verlagert. Die Wehrverbände der Parteien – die SA der NSDAP, der der DNVP nahestehende Stahlhelm, der an die KPD angelehnte Rotfrontkämpferbund, das sozialdemokratisch dominierte Reichsbanner Schwarz-Rot-Gold – begegneten sich in militant ausgetragenen Konflikten auf den Straßen und in den Versammlungssälen. Es ereigneten sich bürgerkriegsähnliche Szenen. Sie verstärkten vor allem innerhalb der kleinbürgerlichen und bürgerlichen Schichten das dort traditionell starke Verlangen nach „Ruhe und Ordnung“ und kamen so den Nationalsozialisten entgegen, die dort vermehrt als die Kraft betrachtet wurden, die mit einer Beseitigung demokratischer Verhältnisse die Ordnung wiederherstellen würde. Am 11. Oktober 1931 vereinigten sich auf Initiative der DNVP unter ihrem Vorsitzenden, dem Mediengroßunternehmer Alfred Hugenberg, DNVP, Stahlhelm, NSDAP und weitere rechtsradikale Organisationen zur kurzlebigen Harzburger Front. Zu einer stabilen Kooperation zwischen Nationalsozialisten und konservativen Nationalisten kam es vor 1933 nicht. Als Reaktion bildeten die republiktreuen Organisationen unter dem Fahnensymbol der drei Pfeile die Eiserne Front. Der NSDAP gelang es, die Stimmung der Bevölkerung durch populäre Parolen gegen den Parlamentarismus aufzugreifen. Am 27. Januar 1932 hielt Hitler einen Vortrag im Düsseldorfer Industrieclub, wo er sowohl das auf Privateigentum gegründete freie Unternehmertum als auch das nationalsozialistische Führerprinzip auf das Leistungsprinzip zurückführte. Die Kontakte zwischen NSDAP und Industrie sollten zudem durch zwei miteinander rivalisierende Beraterstäbe gefördert werden, durch die vom ehemaligen Reichsbankpräsidenten Hjalmar Schacht gegründete Arbeitsstelle Dr. Schacht sowie den vom Chemieunternehmer Wilhelm Keppler geleiteten Industrieausschuss für Wirtschaftsfragen. Die Spenden der Industrie blieben aber wenig bedeutend. Zwar erhielt die Partei mitunter beträchtliche Zuwendungen von einzelnen Großunternehmern, etwa von Friedrich Flick, Albert Vögler und vor allem Fritz Thyssen. Ihre wichtigsten Geldquellen blieben aber Mitgliedsbeiträge und der Verkauf von Eintrittskarten zu Parteiversammlungen. Erst nach der Machtübernahme kooperierte die Großindustrie verstärkt mit der nationalsozialistischen Führung. Hitler, der ab 1925 auf eigenes Betreiben staatenlos war, erlangte Ende Februar 1932 die deutsche Staatsangehörigkeit (→ Einbürgerung Adolf Hitlers). Dadurch konnte er bei der Reichspräsidentenwahl 1932 kandidieren. Bezeichnend für die Situation der Republik war, dass keiner der Kandidaten Thälmann, Hitler, Hindenburg und Theodor Duesterberg ein Demokrat war. Die Parteien der Mitte bis zur SPD unterstützten den Sieger Hindenburg, um einen Erfolg Hitlers zu verhindern. Das gelang, Hindenburg wurde wiedergewählt. Weil dies aber nur mit Unterstützung der von ihm verachteten Sozialdemokraten gelungen war, war der alte Herr verstimmt. Reichskanzler Brüning hatte sich zudem mit seinem Verbot der SA und der Osthilfeverordnung, die von den ostpreußischen Grundbesitzern – zu denen auch Hindenburg gehörte – stark kritisiert wurde, beim Reichspräsidenten in Misskredit gebracht. Hindenburg nahm ihm zudem übel, dass er auf sein Betreiben auch von den Anhängern der SPD zum Reichspräsidenten gewählt worden war. Er entzog ihm sein Vertrauen, und Brüning, der aufgrund seiner Sparpolitik in der Bevölkerung ohnehin kaum Rückhalt besaß, musste zurücktreten. Der Kanzler wurde nach eigenem Bekunden „hundert Meter vor dem Ziel“ gestürzt, da seine Deflationspolitik noch keine Wirkung entfalten konnte. Auch sein Ziel der Gleichberechtigung Deutschlands und der endgültigen Aufhebung der Reparationen hatte er nicht erreicht. Sein Nachfolger Franz von Papen ersuchte Hindenburg sofort um Auflösung des Parlaments. Er wollte die Unterstützung der Nationalsozialisten und hob dafür das Verbot der SA und der SS wieder auf. Hitler hatte die Wahl zum Reichspräsidenten verloren, aber einen großen Popularitätsanstieg erreicht. Bei der nächsten Reichstagswahl am 31. Juli 1932 erhielt die NSDAP 230 Mandate und war damit die stärkste Fraktion im Reichstag. Dies war das höchste Wahlergebnis der NSDAP bei demokratischen Wahlen. Hitler wollte von Hindenburg zum Kanzler ernannt werden, die angebotene Vizekanzlerschaft lehnte er ab. Da die Kommunisten 89 Mandate errungen hatten, hatten die beiden extremen Flügelparteien eine negative Mehrheit erreicht, die jede parlamentarische Arbeit unmöglich machte. Papen löste den gerade erst gewählten Reichstag nach einem mit großer Mehrheit gegen ihn gerichteten Misstrauensvotum durch eine vorbereitete Order Hindenburgs wieder auf. Bereits am 20. Juli hatte er die Regierung von Preußen abgesetzt, die letzte Bastion der Republik. Als Vorwand für den „Preußenschlag“, der häufig als Staatsstreich bezeichnet wurde, diente das angebliche Versagen der preußischen Polizei am „Altonaer Blutsonntag“, heftigen Straßenkämpfen zwischen Kommunisten und der von Papen wieder erlaubten SA. Die Neuwahlen vom November des Jahres brachten einen Rückgang der Stimmen für die NSDAP. Die meisten Beobachter interpretierten dies als Anfang vom Ende der NSDAP. Eine regierungsfähige Mehrheit existierte weiterhin nicht. Papen, der inzwischen Konjunkturprogramme gestartet hatte, trat zurück, nachdem ihm klar geworden war, dass er die Unterstützung der Reichswehr bei der Absicherung einer Diktaturregierung nicht besaß. Zudem hatte es der Reichstag aufgrund eines Verfahrensfehlers Papens geschafft, ihm rechtlich wirkungslos, aber öffentlichkeitswirksam das Misstrauen auszusprechen. Aufgrund der fehlenden Unterstützung durch Wehrminister General Kurt von Schleicher, die im Zuge einer militärischen Simulation eines möglichen Aufstandes (des „Planspiels Ott“) sichtbar geworden war, verweigerte Hindenburg die geforderte Auflösung des Reichstags ohne Festsetzung von Neuwahlen. Diese Ausschaltung des Parlaments, gestützt auf das Argument des Staatsnotstands, hätte einen offensichtlichen Verfassungsbruch dargestellt. Papens Nachfolger wurde Kurt von Schleicher, der bis dahin im Hintergrund die Fäden gezogen hatte und für Papens Sturz verantwortlich war. Doch auch sein Konzept, einen Ausweg aus der Krise zu finden, scheiterte. Er hatte eine breite „Querfront“ von den Gewerkschaften bis zum linken Flügel der NSDAP um Gregor Strasser erstrebt, Strasser musste aber vor Hitler kapitulieren. Am 28. Januar 1933 musste auch Schleicher zurücktreten, nachdem er zuletzt selbst von Hindenburg erfolglos die Ausrufung des Staatsnotstands gefordert hatte. Schleicher selbst war kein Demokrat, sein Verhältnis zur NSDAP wandelte sich mehrmals, zuletzt empfahl er Hindenburg ein Kabinett unter Hitler (Akten der Reichskanzlei, Dok. Nr. 72 vom 28. Januar 1933). Schleicher konnte nicht wissen, dass ausgerechnet er, Meister der Intrigen, nun selbst Opfer einer Intrige geworden war: Schon am 4. Januar 1933 hatte sich sein ehemaliger Schützling Franz von Papen mit Hitler zu Geheimverhandlungen im Privathaus des Kölner Bankiers Kurt von Schröder getroffen. Diesem Gespräch folgten weitere, zuletzt auch unter Anwesenheit des Staatssekretärs des Reichspräsidenten, Otto Meissner, und des Sohnes des Reichspräsidenten, Oskar von Hindenburg, beides einflussreiche Berater in der Kamarilla des greisen Paul von Hindenburg. Sie vereinbarten eine Koalitionsregierung aus Deutschnationalen und NSDAP, der außer Hitler nur zwei weitere Nationalsozialisten, nämlich Wilhelm Frick als Innenminister und Hermann Göring als Minister ohne Geschäftsbereich und kommissarischer preußischer Innenminister, angehören sollten. Papen selbst war als Vizekanzler und Reichskommissar für Preußen vorgesehen. Hindenburg, der sich bis zuletzt gegen eine Kanzlerschaft des „böhmischen Gefreiten“ Hitler gesträubt hatte, konnte mit dem Hinweis, dass ein von einer konservativen Kabinettsmehrheit „eingerahmter“ NSDAP-Führer nur eine geringe Gefahr bedeute, beruhigt werden. Ein weiteres zentrales Argument für Hindenburg war die formale Verfassungskonformität der Lösung Hitler. Die Ernennung Hitlers zum Reichskanzler am 30. Januar 1933 bedeutete faktisch das Ende der Weimarer Republik – auch wenn die Weimarer Verfassung formal nie außer Kraft gesetzt wurde. Paul von Hindenburg war in diesen Wochen von verschiedenen Lobbyistenverbänden und den Beratern seiner Kamarilla bearbeitet worden. So forderten ihn im November 1932 in der berühmten Industrielleneingabe mehrere Agrarier, Bankiers und Industrielle auf, Hitler zum Kanzler zu ernennen, während im selben Monat ein DNVP-naher „Deutscher Ausschuss“ sich unter der Überschrift „Mit Hindenburg für Volk und Reich!“ für die Regierung Papen, für die DNVP und damit klar gegen die NSDAP aussprach. Hinzu kamen Pressionen im Zusammenhang mit der Osthilfe. Inwieweit all dies das seine Entscheidung wirklich beeinflusste, ist schwer zu sagen – Hindenburg hatte zu diesem Zeitpunkt das 86. Lebensjahr erreicht. Errichtung der Diktatur. Die Nationalsozialisten feierten die Übergabe der politischen Gewalt an sie und ihre rechtskonservativen Verbündeten, die mit Hitlers Ernennung zum Reichskanzler am 30. Januar 1933 erfolgt war, als "„Machtübernahme“", "„Machtergreifung“" und "„nationale Revolution“", wovon aber nicht die Rede sein kann; vielmehr war Hitler formell mit der Regierungsbildung beauftragt worden, weshalb man in der modernen Geschichtswissenschaft von „"Machtübertragung"“ o. Ä. spricht. Auch viele nicht-nationalsozialistische Deutsche begrüßten die Machtübertragung. In den Folgemonaten begann die Durchsetzung und Festigung der NS-Diktatur. Mit seiner Regierungsbildung („Kabinett Hitler“) setzte Hitler auf ein Bündnis mit alten Eliten: Nur drei Minister kamen aus der NSDAP, die übrigen waren Mitglieder der DNVP und des Stahlhelms. Hindenburg löste den Reichstag am 1. Februar 1933 auf und setzte Neuwahlen an. In der Verordnung des Reichspräsidenten zum Schutze des Deutschen Volkes am 4. Februar wurde die KPD verboten und erste Notverordnungen erlassen, die vor allem gegen Kommunisten und Sozialisten gerichtet waren und die Presse-, Meinungs- sowie Versammlungsfreiheit einschränkten. Nach dem Reichstagsbrand vom 27. Februar 1933 erließ Hindenburg die Verordnung des Reichspräsidenten zum Schutz von Volk und Staat, die diese Grundrechte der Weimarer Verfassung noch stärker beschnitt. Die Nationalsozialisten sahen zunächst in der organisierten Arbeiterbewegung ihren Hauptgegner, weshalb sie in einem ersten Schritt zur Machtfestigung deren Organisationen verboten und zerschlugen. Viele Mitglieder der KPD, der SPD und der kleineren kommunistischen und sozialistischen Parteien sowie der freien Gewerkschaften wurden misshandelt und in „Schutzhaft“ genommen. Überall im Reich entstanden in Turnhallen, Scheunen oder Kellern provisorische Haftorte der "SA", in denen politische Gegner festgehalten und gefoltert wurden. Ein erstes Konzentrationslager des später dann planmäßig und zentralstaatlich eingerichteten Lagersystems der SS wurde in Dachau errichtet. Es wurde in den Medien bekannt gemacht und gegenüber der Bevölkerung als „Polizeimaßnahme“ für „politische Kriminelle“ begründet. Eine große Zahl der in den Lagern Inhaftierten fiel den Haftbedingungen zum Opfer, zu denen auch Folter und Mord gehörten. Kommunisten und Sozialdemokraten versuchten, sich im Untergrund zu organisieren oder flohen ins Ausland. Dort bildeten sie neue Leitungen, so die SPD in Prag mit ihrer Exilorganisation Sopade. Die vorher verfeindeten Parteien traten nun in einen Dialog. Bei der Reichstagswahl am 5. März 1933, zu der die Industrie der NSDAP beim Geheimtreffen vom 20. Februar 1933 drei Millionen Reichsmark gespendet hatte, verfehlte die NSDAP die absolute Mehrheit, verschaffte sich diese aber, indem die von der KPD gewonnenen Sitze vor der ersten Reichstagssitzung annulliert wurden. SA-Mitglieder in den Reichstagssitzungen dienten der Einschüchterung der verbliebenen Abgeordneten. Am 21. März 1933 inszenierten die Nationalsozialisten den "Tag von Potsdam", um damit die Verbrüderung mit den Traditionen und Eliten Preußens zu demonstrieren und so weiteren Rückhalt im In- und Ausland zu gewinnen. Das sogenannte Ermächtigungsgesetz vom 23. März gab der Regierung zunächst für die Frist von vier Jahren fast uneingeschränkte Gesetzgebungsbefugnisse. Es entmachtete die noch bestehenden anderen Parteien, die außer der SPD im Reichstag alle selbst dafür gestimmt hatten. Im Juli wurden auch sie verboten, die anderen Parteien hatten sich aufgelöst und mit dem Gesetz gegen die Neubildung von Parteien vom 14. Juli 1933 war die NSDAP die einzig zugelassene Partei in Deutschland. Dementsprechend gab es bei der nächsten Reichstagswahl am 12. November 1933 nur eine Einheitsliste aus NSDAP-Mitgliedern und ausgesuchten Gästen. Der Reichstag verkam zu einem reinen Akklamationsgremium. Die NS-Propaganda ersetzte die freie Presse und Kultur in allen Lebensbereichen. Die NSDAP erhielt viele neue Mitglieder, die die älteren Nationalsozialisten nach dem Wahltermin spöttisch als „Märzgefallene“ bezeichneten. „Gleichschaltung“. Nachdem die NSDAP die Macht übernommen hatte, begann die "Gleichschaltung", das heißt Unterwerfung, Selbstunterwerfung und Angleichung aller gesellschaftlichen Organisationen und Institutionen unter das NS-Regime. Somit ist dieser Begriff der NS-Propaganda eine verharmlosende Umschreibung. Erster Schritt war die „Gleichschaltung der Länder“, die alle hoheitlichen Aufgaben verloren. Ähnliche Maßnahmen betrafen bis Ende 1934 die meisten Vereine, Verbände, Gewerkschaften, die Handwerkerschaft, Studentenverbindungen, Medien, Kultureinrichtungen und die Justiz. Viele der betroffenen Organisationen ordneten sich oft lieber unter, statt von dem neuen System aufgelöst oder verboten zu werden. In Vereinen wurde das „Führerprinzip“ Mitte des Jahres 1933 umgesetzt. Dies äußerte sich formal darin, dass der Vorsitzende des Vereins „entsprechend der Gleichschaltung neugewählt“ wurde. Seine Vertreter ernannte er dann, was „der Genehmigung der höheren Stellen unterlag“. Danach nannte er sich nicht mehr „Vorsitzender“, sondern „Führer“. Parteiorganisationen der NSDAP übernahmen in vielen Bereichen die vormaligen Aufgaben staatlicher Stellen und nichtstaatlicher Interessenverbände. Auf der anderen Seite entstanden innerhalb der nationalsozialistischen und der staatlichen Strukturen zahlreiche neue Ämter sowie Untergliederungen, deren Kompetenzen sich oft überschnitten. Am 10. Mai 1933 fanden vielerorts in Deutschland Bücherverbrennungen statt; dabei wurden Bücher von linksgerichteten, liberalen oder als „entartet“ angesehenen Autoren öffentlich verbrannt. Die beiden großen Kirchen waren anfangs von der organisatorischen "Gleichschaltung" ausgenommen. Die katholischen Bischöfe behielten durch das Reichskonkordat ihre Ämter und Bistümer, die evangelischen Landeskirchen schlossen sich vorbeugend im Juni/Juli 1933 zu einer Reichskirche unter Leitung eines Reichsbischofs zusammen. Jedoch spaltete sich dann die evangelische Kirche in von Deutschen Christen beherrschte sogenannte „zerstörte“ Landeskirchen einerseits und in Gemeinden der Bekennenden Kirche andererseits. Die Deutschen Christen propagierten ein „judenreines“ Evangelium und waren dem "Führer" ergeben. In der Bekennenden Kirche sammelten sich Christen, die Übergriffe des Staates auf den Glauben und den Ausschluss von Mitgliedern jüdischer Herkunft ablehnten. Dennoch bildeten diese keine einheitliche Opposition gegen das NS-Regime, vielmehr blieben große Teile dem „Führerstaat“ treu und bejahten den Zweiten Weltkrieg. Nach anfänglichen Erfolgen wurde auch die Bekennende Kirche etwa ab 1937 zunehmend verfolgt. Judenverfolgung 1933–1938. Die Entrechtung und Verfolgung der deutschen Juden begann direkt nach Hitlers Machtübernahme, zunächst mit gezieltem Straßenterror der SA. Ab März 1933 wurden jüdische Ärzte, Rechtsanwälte, Apotheker, Bademeister usw. aus ihren Freiberufen gedrängt, von ihren Verbänden ausgegrenzt und erhielten Berufsverbote. Am 1. April 1933 organisierte die SA den ersten Boykott jüdischer Geschäfte. Mit dem "Gesetz zur Wiederherstellung des Berufsbeamtentums" vom 7. April 1933 wurden missliebige Beamte aus dem Staatsdienst entfernt. Der darin enthaltene Arierparagraph war das erste rassistische Gesetz für „Nicht-Arier“ und betraf Anhänger des jüdischen Glaubens oder vermuteter jüdischer Herkunft. Sie wurden zuerst aus dem öffentlichen Dienst, dann auch aus Vereinen, Berufsverbänden und evangelischen Landeskirchen entfernt, die ähnliche Regelungen einführten. Sie wurden dann auch gesetzlich aus allgemeinen Schulen und allmählich aus dem gesamten öffentlichen Leben ausgeschlossen. Nur ehemaligen jüdischen Soldaten des Ersten Weltkriegs bot das Frontkämpferprivileg bis 1935 einen geringen Schutz. Das "Gesetz über die Zulassung zur Rechtsanwaltschaft" zielte auf die Ausschaltung jüdischer Rechtsanwälte und wurde ebenfalls am 7. April 1933 erlassen. Infolgedessen wählten etwa 200.000 politisch oder rassisch Verfolgte den Weg der Emigration. Das NS-Regime begrüßte dies als „Flucht von Systemgegnern“. Gleichzeitig ließ es Konzentrationslager – zuerst das KZ Dachau – einrichten, in denen vor allem politische Gegner, aber auch religiöse Minderheiten massenhaft interniert wurden. Damit wurde der diktatorische Charakter des Regimes im In- und Ausland offensichtlich. 1935 entzog das Reichsbürgergesetz sämtlichen deutschen Juden ihre Bürgerrechte. Dennoch emigrierten daraufhin nur wenig mehr von ihnen als zuvor. Die meisten hatten sich auf die Diskriminierungen eingestellt und hofften auf Ablösung des Regimes; dies stellte sich in den Folgejahren als tödlicher Irrtum heraus. 1938 setzte sich die systematische Entrechtung der deutschen Juden mit den Arisierungen, der Verordnung zur Ausschaltung der Juden aus dem deutschen Wirtschaftsleben und der Verordnung über den Einsatz des jüdischen Vermögens fort. Mit administrativen Maßnahmen wie z. B. durch einen zusätzlichen Vornamen, einem „J“ im Reisepass, Kennkarten und Meldelisten wurden alle Juden erfasst. Die Novemberpogrome 1938 vernichteten reichsweit die jüdische Kultur in Deutschland. Erstmals wurden zehntausende Juden in Konzentrationslagern inhaftiert. Im Verlauf der nächsten Tage und Wochen wurden Hunderte von ihnen misshandelt, ermordet oder in den Tod getrieben. Entmachtung des Röhm-Flügels und Machtkonzentration. In ihrem 25-Punkte-Programm hatte die NSDAP unter anderem die Enteignung und Verstaatlichung von Großbetrieben gefordert. Hitler ignorierte dies jedoch, um die Unterstützung der Großindustrie und Reichswehr nicht zu verlieren. Dies rief in der NSDAP Unzufriedenheit und Konflikte über das weitere Vorgehen hervor. Die Sturmabteilung (SA) unter Hitlers Duzfreund Ernst Röhm wollte die Reichswehr übernehmen und trat für eine soziale Umgestaltung der Gesellschaft ein. Dies war mit Hitlers Kriegsplänen nicht vereinbar. Auf Rat von Himmler, Goebbels und Göring ließ Hitler zwischen 30. Juni und 1. Juli 1934 reichsweit etwa 200 Gegner und mögliche Konkurrenten in der NSDAP als vermeintliche Teilnehmer eines – angeblich – durch Röhm geplanten Putsches ermorden. Unter den Opfern waren Gregor Strasser, von Bredow, von Schleicher, von Kahr und Röhm. Damit entschied Hitler den innerparteilichen Machtkampf. Eine gerichtliche Untersuchung dieser Taten fand nie statt. Der Mörder amnestierte sich und die Mittäter öffentlich mit einem Sondergesetz. Es wird vermutet, dass die Reichswehr Hitlers Ernennung zum Reichspräsidenten und damit auch zu ihrem Oberbefehlshaber förderte und dafür Hitlers Zusage erhielt, sie werde der einzige Waffenträger im Reich bleiben. Nach Hindenburgs Tod am 2. August 1934 übernahm Hitler nach einem Gesetz, das ebenfalls seine Regierung beschlossen hatte, das Amt des Reichspräsidenten und trug nun die Titel "Führer und Reichskanzler". Durch ein Plebiszit ließ er sich sein Vorgehen nachträglich bestätigen. Kriegsminister Werner von Blomberg, den Hindenburg noch vor Hitler gegen die Verfassung zum Minister ernannt hatte und der mit anderen dessen Macht im Konzept der Konservativen „einrahmen“ (relativieren) sollte, ließ die Reichswehr nun auf Hitlers Person vereidigen. Auch die Beamten mussten einen „Führereid“ ablegen. Aus den öffentlichen Verwaltungen wurden regimekritische Mitarbeiter entfernt. Damit hatte Hitler seine Herrschaft innenpolitisch durchgesetzt, stabilisiert und dauerhaft abgesichert. Propaganda und Personenkult. Die Mittel der Nationalsozialisten zur Machtsicherung waren Propaganda, Personenkult um Hitler und populistische Maßnahmen auf der einen Seite, Überwachung und Unterdrückung auf der anderen. Ein Teil der Bevölkerung stimmte den Maßnahmen der NSDAP zu, ein weiterer Teil passte sich an, um sein eigenes Leben ungestört führen zu können. Die Propaganda wurde im neu gegründeten Propagandaministerium unter Joseph Goebbels sowie in der Reichskulturkammer gebündelt und mit großer Effektivität betrieben. Die Presse wurde durch wirtschaftliche Mittel wie der Förderung genehmer Verlage sowie mit direkten Presseanweisungen gesteuert. Massenorganisationen wie die Hitler-Jugend, der BDM, die Deutsche Arbeitsfront und Kraft durch Freude erfassten und beeinflussten fast alle Lebensbereiche. Der Nationalsozialismus war öffentlich z. B. durch Aufmärsche, Rituale und Gesten wie dem Hitlergruß ständig und überall präsent. Polizeistaat. Ein Unterdrückungsapparat aus Gestapo, SS, SD und Sicherheitspolizei wurde aufgebaut. Zum Wesen der gewaltsamen Unterdrückung gehörten die Inhaftierungen und die Einrichtung ungesetzlicher Konzentrationslager als einer Polizeimaßnahme im Jahr 1933 direkt nach der Parlamentswahl im März (als „Schutzhaft“ deklarierte Vorbeugehaft). Der Stahlhelm und die Sturmabteilungen (SA) der NSDAP wurden zur „Hilfspolizei“ gemacht, die ihre bisherigen Gegner willkürlich erniedrigte und misshandelte. In Bremerhaven wurden Gefangene auf dem „Gespensterschiff“ gefoltert. Die Gestapo war in den folgenden Jahren vor allem für die Bekämpfung „staatsfeindlicher Bestrebungen“ zuständig und hatte 32.000 Mitarbeiter; dies war verhältnismäßig wenig, jedoch konnte das Regime auf die vielen NS-Sympathisanten und Denunzianten setzen. Rechtspolitik. An Aufbau, Aufgaben und grundsätzlicher Struktur der Gerichte änderte sich im Übergang von der Weimarer Republik zum Nationalsozialismus nichts. Auch ein Großteil der Gesetze, wie das Bürgerliche Gesetzbuch (BGB) oder das Strafgesetzbuch (StGB), wurde allenfalls in Teilen verändert. Die Weimarer Reichsverfassung (WRV) blieb offiziell die Verfassung des Deutschen Reiches. Faktisch wurde sie jedoch durch eine Vielzahl von Gesetzen ausgehebelt. Dies betraf insbesondere die Grundrechte, die Gewaltenteilung und die Gesetzgebung. Viele Gesetze und Verordnungen standen im direkten Widerspruch zur WRV. Geänderte Strafgesetze galten rückwirkend. Als neue Rechtsquelle trat neben Parlamentsgesetze und Ministerialverordnungen der sog. Führererlass, von NS-Juristen als Rechtsquelle sui generis angesehen, die über allen anderen Rechtsquellen stand. Zur Umsetzung wurden Sondergerichte eingeführt. Das BGB wurde kaum geändert, aber durch die „Einfallstore“ der Generalklauseln der §§ 138, 242, 826 BGB wurde die nationalsozialistische Ideologie auch im Zivilrecht umgesetzt. Beispielsweise war jeder Vertrag i. S. d. BGB, der mit einem Homosexuellen oder Juden geschlossen wurde, gemäß § 138 BGB sittenwidrig und damit nichtig. Die WRV wurde nicht offiziell aufgehoben, aber materiell (vgl. das „Gesetz zur Behebung der Not von Volk und Reich“ (Ermächtigungsgesetz) vom 24. März 1933 und „VO zum Schutz von Volk und Staat“ vom 28. Februar 1933, die sog. Reichstagsbrandverordnung) bzw. von der NS-Rechtslehre nicht anerkannt (vgl. etwa Carl Schmitt, "Staat, Bewegung, Volk", 1933: „in Wahrheit ist [das] Ermächtigungsgesetz ein vorläufiges Verfassungsgesetz des neuen Deutschland“). a>. Symbol der Justiz, das Paragraphen-Zeichen, am Galgen aufgehängt. 1934 Die durch die „Einheit von Partei und Staat“ sehr häufigen Überlagerungen von NSDAP-Richtlinien und Verwaltungsrecht führten zur Marginalisierung des Letzteren. Als neuer Verwaltungszweck galt die Erfüllung eines Gemeinschaftszwecks. In diesem Zusammenhang kam es zu einer Ausschaltung der subjektiv-öffentlichen Rechte (Abwehrrechte des Bürgers gegen das Staatshandeln) und zu einem Kompetenzverlust der Verwaltungsgerichtsbarkeit. Durch die sogenannte Schutzhaft (Inhaftierung durch SA und SS vollkommen ohne Verfahren) wurden im Vorfeld von Strafprozessen Zeugen und Angeklagte gezielt unter Druck gesetzt oder ausgeschaltet. Folter galt als legitimes Mittel der Beweiserhebung u. a. durch die Gestapo. Ein Schuldeingeständnis zu Beginn des Prozesses (ähnlich dem "guilty plea" im anglophonen Rechtskreis) zur Verkürzung des Verfahrens wurde eingeführt und auch angewendet. Strafgesetze wurden mittels der analogen Gesetzesanwendung (§ 2a StGB a.F.) auf eine Vielzahl von Tatbeständen erstreckt. Als erweitertes Gewohnheitsrecht galt das „gesunde Volksempfinden“. Spezielle Straftatbestände für Minderheiten oder Personengruppen (Juden, Zwangsarbeiter, Ausländer) wurden ins Strafrecht aufgenommen. Auch die Verfolgung der Homosexuellen verschärfte sich in der Zeit des Nationalsozialismus. 1935 wurde § 175 RStGB in Tatbestandsfassung wie Strafmaß massiv verschärft und somit die Totalkriminalisierung von männlicher Homosexualität verordnet. 1936 wurde eine „Reichzentrale zur Bekämpfung der Homosexualität und der Abtreibung“ eingerichtet. Mit der schrittweisen Ausdehnung des Deutschen Reiches wurden für die unterworfenen Völker (besonders in Ost- und Südosteuropa) besondere „Rechtsgrundsätze“ angewandt. Die nationalsozialistische Hierarchie von „"Über-"“ und „"Untermenschen"“ fand während des Zweiten Weltkriegs ihren Ausdruck in zahlreichen Erlassen, "Führerbefehlen" und Vorschriften, am konsequentesten durchgesetzt in den Ostgebieten (u. a. dem Generalgouvernement, "siehe auch unter:" Polen-Erlasse, Polenstrafrechtsverordnung). Das Strafrecht des Dritten Reiches war größtenteils nicht tatbezogen, sondern auf den Täter fokussiert (vgl. das "Gewohnheitsverbrechergesetz" von 1933 und die "Verordnung gegen Volksschädlinge" von 1939). Dies bedeutete, dass die Strafe nicht vorrangig nach der Schwere der Tat bestimmt wurde, sondern danach, welche Gefahr vom Täter für das Volk vermeintlich ausging. Im Vordergrund des Strafvollzuges im nationalsozialistischen Deutschland stand die „Sühne“ der Schuld sowie die Abschreckung im Sinne der Generalprävention. Spezialprävention spielte nur eine untergeordnete Rolle. Ab 1944 wurden im ganzen Reichsgebiet verstärkt Standgerichte eingesetzt, um „Wehrkraftzersetzer“ und Deserteure abzuurteilen. Diese waren im Allgemeinen durch Laienrichter besetzt (z. B. durch den Bürgermeister eines Ortes). 1934 wurde der Volksgerichtshof (VGH) geschaffen. Er diente vor allem dazu, politische Schauprozesse abzuwickeln. Von 1934 bis Juni 1944 wurden vom VGH 5375 Todesurteile verhängt. Für die Zeit von Juli 1944 bis April 1945 gehen Schätzungen von ca. 2.000 weiteren Todesurteilen aus. Auch die Mitglieder der Weißen Rose und die Attentäter vom 20. Juli 1944 wurden vom VGH zum Tode verurteilt. Die Rechtswissenschaft wandelte ihre grundsätzliche Ausrichtung von der Interessenjurisprudenz hin zur Weltanschauungsjurisprudenz. Damit einher ging eine strikte Ablehnung eines Naturrechts. In der nationalsozialistischen Rechtswissenschaft galt Rechtsetzung durch Interpretation (Umgehung der Gesetzgebung, „Führerwort“) als allgemein anerkannt. Wirtschaftspolitik. Das Wirtschaftsleben im NS-Staat gründete auf Anreiz und Verpflichtung. Dabei blieb die privatwirtschaftliche Verfügung über die Unternehmen grundsätzlich unangetastet. Zugleich investierte das Regime, wie bereits vor 1933 seinen Förderern in der Großwirtschaft angekündigt und zugesagt, in die Aufrüstung der Wehrmacht sowie in die militärisch-zivile Infrastruktur (Autobahn-, Kasernenbau) und profitierte von der bereits vor der Machtübergabe eingetretenen Erholung der Weltkonjunktur mit der allseits begrüßten Folge einer Verminderung, dann Beendigung der allgemeinen Arbeitslosigkeit. Während die Arbeiterbewegung mit allen Mitteln unterdrückt und verfolgt wurde, wurde zugleich beschränkt auf „deutschblütige“ Arbeitskräfte eine Reihe sozialpolitischer Verbesserungen eingeführt. So wurde symbolisch-demagogisch bereits 1933 der 1. Mai als traditioneller „Kampftag“ der Arbeiterbewegung zum arbeitsfreien Feiertag umgewidmet und die Freizeitorganisation „Kraft durch Freude“ bot Urlaubsmöglichkeiten und Kulturveranstaltungen an. Teile der Wirtschaft spielten eine wichtige Rolle für die Machtübernahme und die Ziele Hitlers. Eine Gruppe von Industriellen, darunter der Reichsbankpräsident und spätere Wirtschaftsminister Hjalmar Schacht, richtete 1932 eine Eingabe an Reichspräsident Hindenburg, in der sie die Ernennung Hitlers zum Reichskanzler forderten. Außerdem erhielt Hitler von Großindustriellen wie Flick und Krupp und Bankiers (Keppler-Kreis) vor und insbesondere nach der Machtübernahme Spenden, z. B. die Adolf-Hitler-Spende der deutschen Wirtschaft. Für den Erfolg der Nationalsozialisten war die allgemeine Zustimmung in weiten und wachsenden Teilen der „deutschen Volksgemeinschaft“ wichtig, zunächst aufgrund politischer und weltanschaulicher Übereinstimmung und im weiteren Verlauf aufgrund ökonomischer Erfolge und sozialpolitischer Verbesserungen, die als Privilegierung gegenüber Minderheiten zu verstehen waren. Einen wesentlichen Beitrag zur allgemeinen Zufriedenheit und zu deren wirtschaftlicher Absicherung bewirkten seit Kriegsbeginn die anfänglichen militärischen Erfolge, vor allem der Sieg über Frankreich. Eine der dringendsten Aufgaben Hitlers nach der Machtübernahme war die Überwindung der Wirtschaftskrise, die ihm zur Erringung der Macht verholfen hatte, ihn bei einem Misserfolg aber auch gefährdet hätte. Dies erreichte er vor allem durch deficit spending, also mit Krediten (den Mefo-Wechseln) finanzierte Konjunkturprogramme und Arbeitsbeschaffungsmaßnahmen. Auch das Ende der Reparationszahlungen noch während der Weimarer Republik begann zu wirken, und die erste Besserung der Konjunktur hatte es schon vor Hitler gegeben. Mit der Abkehr von der deflatorischen Politik Brünings waren entgegen weitverbreiteter Meinung bereits unter den vorhergehenden Regierungen Franz von Papen und Kurt von Schleicher Maßnahmen zur Konjunkturbelebung eingeleitet worden, die nicht in erster Linie der Kriegsvorbereitung dienten, wie der Bau der Autobahnen. Kriegsvorbereitungen spielten zunächst für die Öffentlichkeit keine große Rolle bei der Belebung der Konjunktur. Augenscheinlicher waren beispielsweise eher bevölkerungspolitisch gedachte Maßnahmen wie Ehestandsdarlehen: Dabei wurde einem Paar bei der Heirat ein Darlehen von tausend Reichsmark angeboten, wenn die Frau dann dauerhaft aus dem Berufsleben ausschied. Eine Rolle spielten auch diktatorische Schritte, wie die Abschaffung der Gewerkschaften oder die Ermordung des antikapitalistisch gesinnten SA-Stabschefs Ernst Röhm, der eine soziale Revolution nach dem 25-Punkte-Programm forderte. Eine wichtige Maßnahme war die Erzeugungsschlacht in der Landwirtschaft. Im September 1933 wurden alle landwirtschaftlichen Betriebe, Genossenschaften und Landwirtschaftskammern im Reichsnährstand zwangsvereinigt. Der Nährstand wurde verherrlicht und als Quelle der rassischen Erneuerung popularisiert, in der Realität verlor er aber an Bedeutung. Der durchschnittliche Lohn in der Landwirtschaft fiel stetig, und der Anteil der in der Landwirtschaft Beschäftigten fiel ebenfalls ab. Auch die Industrie sollte unabhängiger vom Ausland werden, sodass die Gewinnung einheimischer Rohstoffe verstärkt wurde. Die Einrichtung des Reichsarbeitsdienstes verband hierbei den propagandistischen Zweck, kurzfristig augenscheinlich die jugendlichen Arbeitslosen „von der Straße zu holen“ mit dem Autarkiebestreben, neue landwirtschaftliche Flächen durch z. B. Trockenlegung von Mooren und Sümpfen zu gewinnen. Mit dem "Gesetz zur Ordnung der nationalen Arbeit" wurde am 20. April 1934 auch in den Unternehmen das Führerprinzip eingeführt. In der Betriebsgemeinschaft war der Betriebsführer für seine „Gefolgschaft“ verantwortlich; diese war ihm zu Treue verpflichtet. Um wichtige Industrielle an die Wehrmacht zu binden, wurden sie zu Wehrwirtschaftsführern ernannt. Treuhänder der Arbeit kontrollierten schon seit Mai 1933 die Betriebe und sorgten für die Gleichschaltung der Wirtschaft, sie regelten auch den Erlass der Tarifordnungen. Zu einer Erhöhung des Lebensstandards kam es für die meisten Berufstätigen nicht, da bald die Rüstung Priorität erhielt. So mussten z. B. eine verdeckte Inflation, Einschränkungen bei der Berufswahl, bei der freien Wahl des Arbeitsplatzes und eine Verlängerung der Arbeitszeiten akzeptiert werden. Das Wachstum basierte auf Planwirtschaft und diente der systematischen Aufrüstung und Kriegsvorbereitung. Mit dem "Gesetz zur Wiederherstellung des Berufsbeamtentums" von 1933, der Entlassung von jüdischen Beamten und Richtern aufgrund des „Arierparagraphen“, der bald auf Ärzte und Apotheker, Anwälte und Journalisten, Universitätsprofessoren und Künstler ausgedehnt wurde, und der Arisierung von Betrieben, Vermögensgegenständen, Wohnungen und Mobiliar kam eine gigantische Arbeitsplatz- und Vermögensumverteilung in Gang, von der bald auch solche Deutsche profitierten, die während der Weltwirtschaftskrise nicht arbeitslos geworden waren. Drei Tage vor dem auf 1. September 1939 festgelegten Angriff auf Polen, dem Beginn des Zweiten Weltkrieges, wurde mit der Verteilung von Lebensmittelkarten begonnen. Bald wurden Kriegsgefangene und immer mehr verschleppte Zivilisten teilweise unter unmenschlichen Bedingungen als Zwangsarbeiter eingesetzt; bei Kriegsende waren es ca. neun Millionen ("siehe auch unter:" Polen-Erlasse, Polenstrafrechtsverordnung, Ostarbeiter, "Generalbevollmächtigter für den Arbeitseinsatz" Fritz Sauckel). Da die Männer im Krieg gebraucht wurden, arbeiteten in den Fabriken, im Widerspruch zu den Aussagen von "Mein Kampf", immer mehr Frauen. Erst nach den ersten Niederlagen gegen die Sowjetunion und dem Kriegseintritt der USA Ende 1941 kam es zu einer deutlichen Umstellung hin zur Kriegswirtschaft; der totale Krieg mit dem Ziel der vollen Ausnützung des wirtschaftlichen und personellen Potenzials für die Kriegsführung wurde erst am 18. Februar 1943 von Joseph Goebbels ausgerufen. Am Ende des Krieges brach die Industrie durch die Bombardierung der Infrastruktur (Eisenbahn) und Industrieanlagen und die fehlende Rohstoffversorgung zusammen, die Versorgung mit Lebensmitteln wurde problematisch, der Schwarzmarkt blühte auf. Zu einer allmählichen Erholung kam es erst mit den Darlehen des Marshallplans und der Währungsreform. Sozialpolitik. Die gesellschaftspolitischen Maßnahmen der Nationalsozialisten dienten dazu, die Menschen zu „erfassen“ und sie in Organisationen wie dem Deutschen Jungvolk, der Hitler-Jugend, der Reichswehr oder dem Reichsarbeitsdienst zu beeinflussen. Schon für die Kleinkinder gab es nationalsozialistische Kindergärten mit ausgebildeten Erziehern, für uneheliche oder überzählige Kinder gab es die Einrichtung Lebensborn, wo sie in staatlichen Heimen erzogen wurden. Die einzelnen Berufe wurden in nationalsozialistischen Organisationen zusammengefasst, so zum Beispiel dem Deutschen Kraftfahrerbund, dem Reichslehrerbund oder dem Deutschen Ärztebund. Auch die Freizeit wurde „organisiert“. Reisen, Ferienlager und sonstige Veranstaltungen der Organisation Kraft durch Freude (KdF) sollten die Leute für den Nationalsozialismus einnehmen. Die sozialen Leistungen, wie zum Beispiel die Ausweitung der Sozialversicherungen, die Einbeziehung der Rentner in die Krankenversicherung, staatliche Darlehen für Hausbauer, Einführung von Kindergeld, Konzertaufführungen in Betrieben, Maßnahmen des Arbeitsschutzes und Arbeitspausen, dienten vor allem der Überzeugung und Gewinnung der Leute sowie der Stärkung der Arbeitskraft. Der Führer der Deutschen Arbeitsfront, Robert Ley, verglich den Berufstätigen mit einer „Maschine, die von Zeit zu Zeit überholt werden muss“, damit sie gut arbeiten kann. Natürlich galten all diese sozialen Leistungen nur für „erbtüchtige“, „gesunde“ und „leistungsbereite“ „Volksgenossen“. Angehörige von als „schädlich“ beurteilten „Fremdrassen“ wie Juden, Sinti, Roma, Slawen und Schwarze, körperlich oder geistig Behinderte sowie die zahlreichen Gruppen des subproletarischen Rands der deutschen Mehrheitsbevölkerung („Asoziale“) blieben davon ausgeschlossen. "Siehe auch: Erziehung im Nationalsozialismus, Eintopfsonntag, Mutterkreuz und Muttertag, Reichsnährstand, Pflichtjahr" Frauen- und Familienpolitik. In der Folgezeit wurden Frauen aus dem Arbeitsleben verdrängt, um Arbeitsplätze für Männer zu schaffen („Die Welt der Frau ist das Heim.“). Das nationalsozialistische Frauenbild wurde im BDM früh vermittelt. Frauen mussten ein Pflichtdienstjahr ohne Ausbildung absolvieren, um sich auf die Ehe vorzubereiten. Frauen, die heirateten, wurden finanziell unterstützt. 1941 wurde die Produktion von Verhütungsmitteln verboten. Auf Schwangerschaftsabbrüche stand ab 1943 die Todesstrafe. Religionspolitik. Die Kirchen- und Religionspolitik des Nationalsozialismus war uneinheitlich und voller Widersprüche. Während die ältere Forschung noch von einem einheitlichen Willen zur Vernichtung von Kirchen und Christentum ausging, standen sich sowohl in Partei als auch in Regierungsstellen Gegner, Sympathisanten und Neutralisten von Kirchen und Christentum gegenüber. Abgesehen vom Verbot des Schächtens im April 1933 wurden die Gesetze der jüdischen Religion zwar im Wesentlichen nicht beeinträchtigt. Doch wurden die jüdischen Gemeinden im Zuge der allgemeinen, rassisch begründeten Judenverfolgung sukzessive ihres Schutzes und Rechtsstatus beraubt. Den beiden Großkirchen hatte Hitler in seiner Regierungserklärung vom März 1933 eine staatstragende Rolle zugesprochen. Er setzte dann zunächst auf die Deutschen Christen, die bei den Kirchenwahlen im Juni 1933 einen Erdrutschsieg erreichten und dann einen Teil der Landeskirchen beherrschten. Daraufhin wählten auch die unterlegenen Gruppen Ludwig Müller zum Reichsbischof. Gegen den Ausschluss von getauften Juden entstand der Pfarrernotbund, aus dem 1934 die Bekennende Kirche hervorging. Diese kämpfte auf der Basis der Barmer Theologischen Erklärung gegen staatliche Übergriffe auf kirchliche Angelegenheiten und gegen den totalen Staat ohne Rechtsbindung. Praktisch wurden daraus nur ansatzweise Konsequenzen gezogen, z. B. die Bildung einer eigenen Organisationsstruktur mit der "Vereinigten Kirchenleitung", eine Denkschrift an Hitler gegen Entrechtung von Minderheiten und KZs, später die Einrichtung des Büros Grüber als Hilfe für verfolgte Judenchristen und Juden. Ab 1937 wurden die Tätigkeiten der BK immer stärker staatlicher Kontrolle unterworfen und viele ihrer Vertreter inhaftiert, ab 1939 wurden die meisten BK-Pastoren zum Wehrdienst eingezogen. In der Regel zeigten sich aber die evangelischen Kirchen und ihre Hierarchien als willfährige Unterstützer und Sympathisanten des Regimes. Die katholische Kirche distanzierte sich bis 1933 vom Rassismus der NSDAP. Am 22. Juli 1933 aber schloss der Vatikan überraschend das Reichskonkordat mit der neuen Reichsregierung, um so die deutschen katholischen Bischöfe, ihre Bistümer und Strukturen vor Zugriffen des Regimes zu schützen. Im Gegenzug wurden Priester und Bischöfe verpflichtet, sich nicht in Politik einzumischen. Damit gab die bis dahin recht starke Zentrumspartei ihre Oppositionshaltung auf und verlor dann ihre Existenzberechtigung. Hitler gewann durch das Konkordat auf diplomatischer Bühne internationales Ansehen. Trotzdem kam es zu Angriffen auf katholische Orden, die Kolpingjugend und andere katholische Gruppen. In den Jahren 1936 und 1937 organisierte der NS-Staat eine Serie von rund 250 Strafprozessen gegen katholische Priester und Ordensleute, die verschiedener Sexualdelikte wie homosexueller Handlungen unter Männern oder Kindesmissbrauch angeklagt wurden. Die Prozesse, die zum Teil sehr nachlässig vorbereitet worden waren – ein Zeuge wollte im Sommer 1937 beispielsweise in dem Vorsitzenden Richter statt in dem Angeklagten seinen angeblichen Belästiger erkennen – wurden auf Anweisung von Propagandaminister Goebbels in der Presse mit hämischen Kommentaren begleitet. Ziel war eine Diskreditierung der Kirche und eine Aufweichung ihrer im Reichskonkordat zugesagten Rechte. Papst Pius XI. wandte sich 1937 mit seiner Enzyklika "Mit brennender Sorge" scharf gegen die deutsche Kirchenpolitik und wies auf den von den Nationalsozialisten nicht erfüllten Teil der Konkordatsvereinbarungen, aber auch auf Gegensätze zwischen christlichem Glauben und NS-Ideologie hin. Die Enzyklika prangerte die systematische Entrechtung der Juden oder anderer Religions- und Bevölkerungsgruppen nicht direkt an, verurteilte aber eine Unterscheidung nach Rassen. Der Nationalsozialismus hatte auch eigene religiöse Elemente, vor allem den Führerkult und rituelle Massenaufmärsche mit gottesdienstartigen Formen, Führergruß, Fackeln, feierlichen Proklamationen und Hymnen. Der „Parteiphilosoph“ Alfred Rosenberg wollte nach dem „Endsieg“ durch „Gegenpäpste“ die katholische und die evangelische Kirche in einander bekämpfende Gruppen spalten und versuchte, die altgermanische, persische und indische Religion wiederzubeleben, um „der vergehenden biblischen Tradition eine noch ältere und bessere unterzuschieben“. Der Privatsekretär Hitlers, Martin Bormann, arbeitete einen nationalsozialistischen Katechismus aus, dessen Lehren allmählich die Zehn Gebote der Bibel ersetzen sollten. Reichsführer SS Heinrich Himmler hatte weitreichende Vorstellungen über die Einführung eines altgermanisch-heidnischen Götterglaubens und über die „Befriedung“ der slawischen Völker durch die „Lehre der Ernsten Bibelforscher“. Gegenüber den meisten kleineren Religionsgemeinschaften hegten die offiziellen Stellen Vorbehalte. Verbindungen ins Ausland, insbesondere in die USA, Verweigerung von Eidesleistung und grundsätzliche Distanz zur nationalsozialistischen „Volksgemeinschaft“ machten solche Gruppierungen suspekt; Pazifismus und Ablehnung der nationalsozialistischen Rassenlehre ließen sie als Gegner des Regimes erscheinen. Der Sicherheitsdienst forderte deshalb die Vernichtung des weit überwiegenden Teils des „Sektenwesens“, während „harmlose“ Gruppen bestehen bleiben sollten, um die „Zersplitterung im kirchlich-religiösen Gebiet“ zu fördern. Manche Stellen wie das Auswärtige Amt warnten jedoch mit Rücksicht auf deren internationale Verbindungen vor der Auflösung einiger Religionsgemeinschaften wie der Mormonen oder der Christlichen Wissenschaft. Der nationalsozialistische Staat verfuhr deshalb auf Grund politischer Rücksichten und abhängig vom Grad der Anpassung unterschiedlich mit den einzelnen kleinen Religionsgemeinschaften. Besonders scharf verfolgt wurden von Anfang an die Zeugen Jehovas ("siehe auch:" Zeugen Jehovas in der Zeit des Nationalsozialismus). Als angeblich dem Judentum nahestehend, aus den USA fremdbestimmt und pazifistisch wurden die "Zeugen Jehovas" 1933 verboten. Etwa 10.000 von ihnen wurden in der Zeit des Nationalsozialismus inhaftiert, 2.000 davon in Konzentrationslagern; 1.200 Zeugen Jehovas wurden hingerichtet oder ermordet. Die "Christliche Wissenschaft" wurde in ihrer Betätigung zwar schrittweise eingeschränkt, aber erst 1941 verboten. Die Siebenten-Tags-Adventisten wurden zwar 1933 verboten, vielleicht auch, weil sie mit den pazifistischen Reformadventisten verwechselt wurden. Das Verbot wurde aber nach zehn Tagen wieder aufgehoben, woraufhin die Kirchenführung versuchte, sich dem Staat anzupassen, um die Kirchenauflösung zu vermeiden. Die Reformadventisten wurden dagegen im Jahre 1936 verboten. Ganze Gemeinden standen vor Gericht und viele ihrer Glieder wurden verurteilt. Junge Männer wie Anton Brugger wurden wegen Kriegsdienstverweigerung zum Tode verurteilt. Bis zum Ende der NS-Herrschaft blieben die Reformadventisten im Untergrund. Andere Gemeinschaften wie die Mormonen konnten hingegen unbeschränkt fortbestehen. Forschung und Medizin. Hauptanliegen vieler nationalsozialistisch gesinnter Ärzte und Professoren im Deutschen Reich war die „"Heranzüchtung kerngesunder Körper"“ (Zitat Adolf Hitler) und die „"Ausmerzung des Schwachen und Kranken"“ bzw. der Juden. Diesen Zwecken dienten z. B. die "Lebensborn-Heime", in denen "arische" Kinder geboren und aufgezogen wurden, die Rassenhygiene sowie die eugenischen Maßnahmen (der Mord an Kranken und Behinderten: "siehe" Euthanasie und Aktion T4). Auch andere Bereiche der Wissenschaft und Forschung wurden instrumentalisiert und im Sinne des Nationalsozialismus organisiert. Ein Beispiel ist die Soziologie im Nationalsozialismus. Kulturpolitik. Das kulturelle Leben war geprägt von der Politik und diente propagandistischen Zwecken. Die meisten Werke entstanden von regimekonformen Künstlern und dienten der NS-Propaganda oder vermittelten zumindest die Auffassungen der Nationalsozialisten. So wurden häufig eine von der modernen Technik unberührte landwirtschaftliche Idylle oder auch germanische Götter dargestellt. Die bildende Kunst war antimodernistisch und folgte einem Konzept des Realismus des 19. Jahrhunderts, in dem beispielsweise heroisch überzeichnete Motive oder solche von kleinbürgerlicher Idylle im Vordergrund standen. Pathetische Darstellungen im Sinne der nationalsozialistischen Ideologie verklärten die landwirtschaftliche Arbeit (Blut-und-Boden-Ideologie), Mutterschaft oder den Krieg. In der Bildhauerei und der Architektur standen monumentale Darstellungen, die sich wesentlich am Klassizismus orientierten, oft im Vordergrund. Moderne Kunst wie beispielsweise Bilder aus den Bereichen "Neue Sachlichkeit" oder aus dem Expressionismus wurden als „entartet“ verurteilt und verbrannt, die Schöpfer der Werke zunächst deklassiert, dann verfolgt. "Siehe auch: Entartete Kunst, Architektur im Nationalsozialismus, Nationalsozialistische Filmpolitik, Bücherverbrennung 1933 in Deutschland, Reichsmusikkammer, Literatur in der Zeit des Nationalsozialismus" Naturschutz. Der Naturschutz im Nationalsozialismus begann 1933 mit der Gleichschaltung der Naturschutzverbände und dem Ausschluss der Mitglieder jüdischen Glaubens aus den Vereinen. Umfassende gesetzliche Neuregelungen in den Jahren 1933 bis 1935 des NS-Regimes im Bereich des Natur- und Umweltschutzes, allen voran das Reichsnaturschutzgesetz (RNG), regelten erstmals den Ausgleich nach privaten Eingriffen und führten den schwächer geschützten „Landschaftsschutz“ als neue Kategorie ein. In der Praxis hielt das NS-Regime sich nicht an den anfangs gesetzlich vorgezeichneten Weg eines umfassenden Naturschutzes. Organisation des Militärs. Mit der Reichswehr übernahmen die Nationalsozialisten die Streitkräfte der Weimarer Republik. Die Reichswehr war staatstreu und unterstützte die NSDAP bis zur Machtübernahme nicht aktiv, viele Soldaten waren aber selbst keine Anhänger der Republik, sodass sie diese auch nicht verteidigten. Die Reichswehr hoffte unter Hitler auch auf einen Fortschritt bei der Revision des Versailler Vertrages, die Führung der Reichswehr war schon am 3. Februar über die Pläne Hitlers informiert worden, Befürchtungen hatte sie gegenüber der SA. Bestrebungen innerhalb der SA, die Reichswehr zu übernehmen, beendete Hitler durch die Niederschlagung des sogenannten Röhm-Putsches, bei dem er die SA ausschaltete, da er die Reichswehr als für den Krieg besser geeignet ansah. An dieser Aktion war auch die Reichswehr beteiligt, sie tolerierte sogar die Ermordung zweier ihrer Generäle. Am 3. August wurde die Reichswehr nach dem Tod des bisherigen Oberbefehlshabers, Reichspräsident von Hindenburg, auf die Person Hitlers vereidigt und damit zu einem Instrument Hitlers. Mit der Wiedereinführung der Wehrpflicht am 16. März 1935 wurde die Reichswehr in Wehrmacht umbenannt. Die Wehrmacht wurde ausgebaut und modernisiert, 1939 hatte sie eine Stärke von 2,75 Millionen Mann. Den Widerstand innerhalb der Wehrmachtführung gegen seine Kriegspläne, mehr aus Zweifel an der Machbarkeit der Pläne als aus ideologischen Gründen, schaltete er durch die Blomberg-Fritsch-Krise aus und schuf das Oberkommando der Wehrmacht. Der weiter vorhandene Widerstand konnte sich, insbesondere nach den ersten Kriegserfolgen, nicht durchsetzen. Die Wehrmacht tolerierte den Vernichtungskrieg gegen die Sowjetunion, Teile der Wehrmacht waren auch an Exekutionen beteiligt. Erst als Deutschland Niederlagen wie in der bei Stalingrad hinnehmen musste, versuchten Mitglieder der Wehrmacht im Attentat vom 20. Juli 1944 durch eine Beseitigung Hitlers ein Ende des Krieges zu erreichen. Außen- und Rüstungspolitik. Der Vertrag von Versailles wurde schrittweise gebrochen und aufgehoben. Zugleich beteuerte Hitler seinen Friedenswillen. Dies wurde im Ausland, vor allem in der Appeasement-Ära Großbritanniens, zunächst geglaubt; man versuchte, Hitler durch Entgegenkommen zu „zähmen“ und einen neuen Weltkrieg zu vermeiden. 1935 wurde das Saarland wieder ins Deutsche Reich integriert, nachdem eine unter internationaler Kontrolle durchgeführte Volksabstimmung eine überwältigende Zustimmung dafür (90,8 %) ergab. Die Reichswehr wurde mit Einführung der Wehrpflicht in die Wehrmacht umgewandelt, gleichzeitig wurde die Existenz der Luftwaffe enthüllt. Beide Schritte verletzten den Versailler Vertrag. Auch der Einmarsch in das entmilitarisierte Rheinland am 7. März 1936 stellte einen Bruch des friedensnobelpreisgekrönten Locarno-Paktes dar, was Hitler mit der Ratifizierung des französisch-sowjetischen Beistandspakts durch Frankreich begründete, welcher einen Bruch des Locarno-Paktes seitens Frankreichs dargestellt hätte. Auf dem Reichsparteitag der NSDAP 1935 wurden die Nürnberger Rassengesetze beschlossen, die die schon 1933 begonnene Ausgrenzung und Isolierung der deutschen Juden als Staatsgesetze verankerten und ihnen mit rassistischer Begründung einen Großteil ihrer staatsbürgerlichen Rechte raubte. Himmler hielt vor SS-Mitgliedern 1935 seine Rede "Der Untermensch", in der er den angeblichen Gräueltaten der Juden die guten und großen Kulturtaten der "Menschen" gegenüberstellte. Im August 1936 benutzte Hitler die Olympischen Spiele in Berlin als Propagandabühne für die Weltöffentlichkeit. Der Vierjahresplan sollte das Deutsche Reich bis spätestens 1940 kriegsbereit machen. Das Regime unterstützte nun zusammen mit Mussolinis Italien den faschistischen General Franco im Spanischen Bürgerkrieg gegen die dortige Republik auch militärisch. Dies bot Hitler die Gelegenheit, die Einsatzfähigkeit seines Militärs im Kriegsfall zu testen. Die Legion Condor der deutschen Luftwaffe zerstörte 1937 bei einem ersten Flächenbombardement die baskische Stadt Guernica. In einer in der Hoßbach-Niederschrift festgehaltenen Besprechung stellte Hitler am 5. November 1937 den wichtigsten Vertretern der Wehrmacht und dem Außenminister seine Pläne zur deutschen Kriegs- und Außenpolitik vor. Am 20. Februar 1938 verkündete Hitler in einer Rede sein Ziel, alle Deutschen Mitteleuropas in einem Staat zu vereinen. Am 12. März 1938 kam er einer beabsichtigten Volksabstimmung in Österreich zuvor und verkündete nach dem Einmarsch der Wehrmacht (Unternehmen Otto), unter dem Jubel der auf dem Heldenplatz versammelten Wiener, den „Eintritt meiner Heimat in das Deutsche Reich“. Ein weiteres vor allem von Deutschen bewohntes Gebiet außerhalb des Reiches war das tschechische Sudetenland. Durch das praktisch unerfüllbare Karlsbader Programm provozierte Hitler die Sudetenkrise, die am 29. September 1938 im Münchner Abkommen zur Angliederung des Sudetenlandes an das Deutsche Reich führte. Hitler hatte beabsichtigt, die Krise für den Beginn eines Krieges zu nutzen, und war von Mussolini und Göring zum Abkommen gedrängt worden, das er als politische Niederlage empfand. Nach dem Anschlag auf Ernst Eduard vom Rath am 7. November 1938 in Paris inszenierten die Nationalsozialisten die Novemberpogrome. Zum Teil als Zivilpersonen auftretende ortsbekannte SA- und SS-Angehörige legten in zahlreichen Synagogen Feuer, misshandelten und ermordeten viele deutsche Juden vor den Augen der Polizei, die befehlsgemäß nicht einschritt, und deportierten ab dem 10. November Zehntausende Juden in die KZs. Die den Opfern auferlegte „Judenbuße“ von über einer Milliarde Reichsmark wurde zur Finanzierung der Aufrüstung als unmittelbare Kriegsvorbereitung genutzt. Mitte März 1939 wurde die Slowakei als selbständiger Staat ausgerufen. Das danach von der ehemaligen Tschechoslowakischen Republik verbliebene Gebiet wurde als Protektorat Böhmen und Mähren vom Deutschen Reich abhängig. Eine Woche später wurde auch das Memelland dem Deutschen Reich angegliedert. Um sich den Rücken für seine Expansionsziele im Osten freizuhalten, schloss Hitler mit der Sowjetunion im August 1939 den Deutsch-sowjetischen Nichtangriffspakt. In dessen geheimem Zusatzprotokoll wurde Polen für den Fall eines Krieges zwischen den beiden Staaten aufgeteilt. Dagegen versprach Hitler, nicht gegen Stalin zu agieren, falls dieser sich Finnlands bemächtige, was er daraufhin auch tat. Sportpolitik. In der Weimarer Zeit gab es zwar separate Sportorganisationen der Kommunisten, der Sozialdemokraten, der Katholiken, der Protestanten, aber keine nationalsozialistischen. Bei Gregor Strasser als dem Organisationsleiter der NSPAP wurde daher im Herbst 1932 angefragt, ob man eine solche gründen solle. Er schrieb, es sei hierfür zu spät so etwas vernünftig zu machen, die Zeit bis zur Machtübernahme sei zu kurz, man würde den faschistischen Weg des Staatssports wie in Italien gehen. Da sich keine Persönlichkeit der NSDAP als potenzieller Reichssportführer hervorgetan hatte, wurde daher Hans von Tschammer und Osten ausgewählt, der als gewaltbereiter Kommissar in Mitteldeutschland für die Aufgabe seiner marodierenden SA-Leute entschädigt werden musste. Die Sportpolitik verlief in mehreren Schritten: Im Frühjahr 1933 wurden Juden und Demokraten aus den Vereinen und Verbänden herausgedrängt, Arbeitersportorganisationen wurde geschlossen, eine Einheitssportorganisation mit Gleichschaltung wurde gegründet. Im Sommer folgte die Aufnahme des Betriebssports in Kraft durch Freude, im Herbst wurde der Fokus auf die Olympischen Spiele 1936 gelegt. Im Sommer 1935 folgte die Schließung der kirchlichen Sportorganisationen sowie die Durchführung der Olympischen Spiele. Die gesamte sportliche Jugendarbeit wurde fortan von der Hitlerjugend übernommen, 1938 erfolgte die Übernahme der Sportorganisationen durch die NSDAP (NSRL). Jüdische Vereine wurden verboten. Der Sport erlebte in nationalsozialistischen Diktatur eine "Aufwertung wie nie zuvor in der Geschichte. Vor allem die junge Generation wurde in der Schule und in der HJ in einem Ausmaß sportlich gedrillt, das beispiellos war." Körperliche Fitness galt als Grundlage militärischer Leistungsfähigkeit. Zudem sahen die Nationalsozialisten im Sport ein Instrument, um militärische Tugenden wie Härte, Mut und Disziplin zu fördern. Und schließlich war Sport auch ein Mittel, um die Volksgesundheit zu stärken. Daher erfuhr auch der Frauensport im NS-Staat einen kräftigen Aufschwung. Eroberungen (1939–1942). Der deutsche Angriff auf Polen ohne Kriegserklärung am 1. September 1939 löste den Zweiten Weltkrieg aus. Am 3. September erklärten zunächst Großbritannien und Frankreich dem Deutschen Reich den Krieg. Nach dem Sieg der Wehrmacht über Polen wurde dessen Westteil (Großpolen, Westpreußen, Oberschlesien) von Deutschland annektiert und die Mitte zum Generalgouvernement erklärt. Am 17. September besetzte die Rote Armee fast kampflos Ostpolen; Polen wurde, wie im Hitler-Stalin-Pakt vereinbart, aufgeteilt. Am 8. November 1939 verübte Georg Elser ein monatelang vorbereitetes Bombenattentat auf Hitler im Münchner Bürgerbräukeller. Dieses scheiterte jedoch, weil Hitler bei dieser jährlichen NS-Propagandaveranstaltung, anders als sonst, sofort nach seiner Rede und wenige Minuten vor der Explosion den Saal verließ. Elser wurde noch vor der Bombenexplosion beim Versuch, in die Schweiz zu gelangen, festgenommen, dann interniert und im April 1945 auf Hitlers Befehl im KZ Dachau ermordet. 1940 besetzte die Wehrmacht Dänemark und Norwegen und besiegte dann im so genannten „Blitzkrieg“, der nur sechs Wochen dauerte, die Staaten Luxemburg, Niederlande, Belgien und Frankreich. Frankreich wurde nach dem Westfeldzug in zwei Zonen geteilt. Nur der Norden und Westen Frankreichs blieb unter deutscher Besatzung. Marschall Pétain verlegte den Regierungssitz nach Vichy im unbesetzten Teil Frankreichs. Hitlers Popularität erreichte durch die „Auslöschung der Schande von Versailles” ihren Höhepunkt. Die geplante Invasion Großbritanniens – das „Unternehmen Seelöwe“ – wurde von Hitler abgesagt, da die deutsche Luftwaffe in der Luftschlacht um England trotz zahlenmäßiger Überlegenheit bei den Piloten (6:1) nicht die Lufthoheit über England erringen konnte. 1940/1941 besetzte Deutschland zusammen mit dem faschistischen Italien die Länder Jugoslawien und Griechenland. Beide Länder wurden unter den verbündeten Diktaturen aufgeteilt. Ihrer Eroberung folgte jedoch ein zermürbender Partisanenkrieg. Ungarn, Rumänien und Bulgarien wurden als Verbündete des "Großdeutschen Reiches" gewonnen. Auf Bitten Mussolinis wurden die italienischen Truppen in Nordafrika ab Januar 1941 durch deutsche Verbände unterstützt, das Deutsche Afrikakorps, bekannt geworden durch Generalfeldmarschall Erwin Rommel, den „Wüstenfuchs“. Am 22. Juni 1941 marschierte die Wehrmacht in den sowjetisch besetzten Teil Polens ein und überfiel unmittelbar danach unter Bruch des deutsch-sowjetischen Nichtangriffspakts die Sowjetunion selbst. In dem als Vernichtungskrieg geplanten „Unternehmen Barbarossa“ gelangten die deutschen Streitkräfte bis vor Moskau, Leningrad und Stalingrad. Die Schlacht von Stalingrad markierte den Wendepunkt an der Ostfront. Die besetzten Gebiete im Osten wurden auf Weisung der Nationalsozialisten systematisch ausgeplündert. Das besetzte sowjetische Gebiet wurde in verschiedene "Reichskommissariate" aufgeteilt, die jeweils einem "Reichskommissar" unterstellt waren. Der Gesamtplan sah die Aufteilung der UdSSR und ihre Zerstörung als selbständigen Staat vor. Dieses Endziel wurde nur durch den weiteren Kriegsverlauf verhindert, aber mit der systematischen Ausplünderung, Unterdrückung und Ermordung der Zivilbevölkerung wurde begonnen. Der von Reichsführer SS Heinrich Himmler ausgearbeitete „Generalplan Ost“ sah die Dezimierung der slawischen Völker um insgesamt 30 Millionen und die Unterdrückung der Übrigen vor, die als Bauarbeiter, Hilfsarbeiter, Fabrikarbeiter, Hauspersonal, als Landarbeiter, in der Rüstungsindustrie, beim Straßenbau etc. arbeiten sollten. Gewissermaßen als „ein Vorspiel zum ‚Generalplan Ost‘“ wurden nach dem deutschen Hungerplan vom Mai 1941 landwirtschaftliche Erzeugnisse aus der Ukraine und aus Südrussland in großem Umfang nach Deutschland geschafft. Während dabei bis zu 30 Millionen Hungertote einkalkuliert wurden, verhungerten auf Grund des fehlgeschlagenen Blitzkriegs mindestens vier Millionen Menschen in den besetzten Gebieten der Sowjetunion. Zu den Opfern des „Hungerplans“ werden auch die 2,6 Millionen sowjetischen Soldaten gerechnet, die in deutscher Kriegsgefangenschaft verhungerten. Die jüdische Bevölkerung in den besetzten Gebieten wurde erfasst und in Konzentrationslager deportiert, unzureichend ernährt, zur Zwangsarbeit herangezogen und in dafür eigens eingerichteten Gaswagen und Gaskammern in Vernichtungslagern ermordet. Besonders in den besetzten Ostgebieten wurden auch viele Tausende Juden von den Einsatzgruppen der Sicherheitspolizei und des SD sowie von SS-Einheiten erschossen und anschließend in Massengräbern verscharrt. Die Zahl der im Holocaust insgesamt durch Erschießungen, Vergasungen, Hunger, Misshandlung, Zwangsarbeit und Krankheiten umgekommenen Juden wird auf ungefähr sechs Millionen geschätzt. Ihr Besitz wurde enteignet und zu Reichseigentum erklärt. Auf diese Weise standen den Besatzungstruppen finanzielle Mittel in Landeswährung zur Verfügung. Von Stalingrad bis zur Kapitulation (1942–1945). Im Winter 1941/1942 geriet die Offensive der Wehrmacht in der Sowjetunion ins Stocken. Am 11. Dezember 1941 erklärte Hitler, nach dem Angriff des deutschen Verbündeten Japan auf den amerikanischen Stützpunkt Pearl Harbor, den USA den Krieg, die Großbritannien mit Gütern versorgten. In der Schlacht von Stalingrad musste die Wehrmacht durch Fehlentscheidungen Hitlers ihre erste (kriegsentscheidende) Niederlage hinnehmen. Bis Ende 1943 konnte die Rote Armee der Sowjetunion, die auch von den USA mit Waffenlieferungen unterstützt wurde, weite Gebiete zurückerobern. Am 13. Mai 1943 mussten die Achsenmächte in Nordafrika kapitulieren. Buchenwald bei Weimar am 24. April 1945 Inzwischen war der seit 1924 ideologisch angekündigte und seit 1933 politisch angebahnte Holocaust an den Juden im Gang. 1943 begann der Bombenkrieg der Alliierten auf deutsche Städte, bei dem etwa 300.000 Zivilisten ums Leben kamen. Am 18. Februar 1943 verkündete Goebbels in der Sportpalastrede den „Totalen Krieg“. Ab Ende 1944 flohen viele Deutsche aus ihrer angestammten Heimat im Osten vor der anrückenden Roten Armee. 1944 eroberte diese weite Teile von Südosteuropa. Am 6. Juni begann die Invasion der westlichen Alliierten in der Normandie, nachdem sie schon zuvor nach der Landung auf Sizilien von Süden her Italien eroberten und gegen Deutschland im Vormarsch waren. Am 20. Juli scheiterten ein Attentat und ein Putschversuch von Wehrmachtangehörigen und Mitgliedern der Widerstandsgruppe des „Kreisauer Kreises“ gegen Hitler. Anfang 1945 beschlossen die Alliierten auf der Konferenz von Jalta die Aufteilung des Reiches nach dem Krieg. Um den Alliierten keine brauchbare Infrastruktur zu hinterlassen, erteilte Hitler am 19. März 1945 den Nerobefehl, der aber nur teilweise ausgeführt wurde. Im April erreichten die sowjetischen Truppen die Reichshauptstadt und es kam zur Schlacht um Berlin. Hitler tötete sich am 30. April im Bunker der Reichskanzlei, nachdem er testamentarisch Admiral Karl Dönitz zu seinem Nachfolger als Reichspräsident und Oberbefehlshaber der Wehrmacht bestimmt hatte. Neben Hitler töteten sich in der Folge auch andere führende Funktionäre, so Joseph Goebbels und Heinrich Himmler – dieser jedoch erst später in Gefangenschaft, nachdem er mit gefälschten Ausweisen gestellt wurde. In den frühen Morgenstunden des 7. Mai 1945 schließlich unterzeichnete Generaloberst Jodl – von Dönitz hierzu autorisiert – die bedingungslose Kapitulation der deutschen Streitkräfte, die durch Unterzeichnung einer weiteren Kapitulationsurkunde ratifiziert am nächsten Tag in Kraft treten sollte. Kurz nach der bedingungslosen Kapitulation wurde außerdem die sogenannte geschäftsführende Reichsregierung mit Karl Dönitz in Flensburg-Mürwik verhaftet. Der Zweite Weltkrieg dauerte in Südostasien noch bis zum 2. September an. Er forderte insgesamt etwa 60 Millionen Tote. In den letzten Kriegsmonaten und im Anschluss an die Besetzung des Reichs wurden die meisten noch verbliebenen Deutschen aus Osteuropa vertrieben. Widerstand gegen den Nationalsozialismus. Schon vor der Machtübernahme begann der Widerstand verschiedenster Gruppen gegen die Nationalsozialisten. In der Zeit des Nationalsozialismus selbst beschränkte sich der Widerstand, der immer mit Lebensgefahr verbunden war, auf eine verschwindend kleine Minderheit der deutschen Bevölkerung, wohingegen dieser Widerstand in den im Zweiten Weltkrieg besetzten Gebieten, beispielsweise im Partisanenkrieg, größere Ausmaße angenommen hatte. Kurz nach der Machtübernahme der NSDAP waren vor allem kommunistische, sozialdemokratische und andere linke Gruppen aktiv. Diese wurden jedoch innerhalb weniger Jahre durch die Gestapo und die SS stark geschwächt. Im Reich konnte beispielsweise der katholische Bischof von Münster und Kardinal Clemens August Graf von Galen durch seine öffentliche Verurteilung der Morde an den Behinderten dazu beitragen, dass die Aktion T4 von den Nationalsozialisten eingestellt wurde. Einzelpersonen der evangelischen Bekennenden Kirche wie etwa Pastor Martin Niemöller oder Dietrich Bonhoeffer schlossen sich nach Ausbruch des Zweiten Weltkrieges Widerstandskreisen an. Bonhoeffer musste wie viele andere NS-Gegner seinen Mut im KZ mit dem Leben bezahlen. Der kommunistische Einzelkämpfer Georg Elser verübte am 8. November 1939 im Münchner Bürgerbräukeller ein Bombenattentat auf Hitler, das dieser aber überlebte, weil er den Saal unerwartet kurz vor der mit einem Zeitzünder eingestellten Detonation der Bombe verließ. Elser wurde bald gefasst und im April 1945 im KZ Dachau ermordet. Die Münchner studentische Widerstandsgruppe "Weiße Rose" um die Geschwister Hans und Sophie Scholl rief in mehreren Flugblättern zum Widerstand gegen das NS-Regime auf. Außerdem suchte diese Gruppe Kontakt zu Widerstandskreisen in der Wehrmacht. Die bedeutendsten Mitglieder der Gruppe wurden im Februar 1943 gefasst und vom Volksgerichtshof unter dem Vorsitz des berüchtigten Richters Roland Freisler zum Tode verurteilt und kurze Zeit später hingerichtet. Im Kölner Raum traten die Edelweißpiraten auf, einige Gruppen von aus der bündischen und kommunistischen Tradition kommenden Jugendlichen, die sich zunächst gegen die Uniformität der Hitler-Jugend wandten, im Lauf des Krieges aber auch zu konkreten Widerstandsaktionen übergingen, die bis hin zu Sabotageakten reichten. Die Widerstandsgruppe "Rote Kapelle" bestand aus verschiedenen unabhängigen Gruppen, die auf mehreren Ebenen gegen das Regime arbeitete. Der vereinzelt und vergleichsweise selten vorkommende Widerstand von Privatpersonen, der sich eher im Stillen abspielte, entsprang oft einer moralischen Abscheu gegen die Taten des Regimes oder aus Mitleid mit den Opfern. Er reichte von der Verweigerung des Hitlergrußes bis hin zur verbotenen Versorgung mit Lebensmitteln für Zwangsarbeiter oder dem Verstecken von Verfolgten, meist Juden. Hitler überlebte mehrere Anschläge, darunter das bis heute bekannteste Attentat vom 20. Juli 1944, das vom militärischen Widerstand, der auch Kontakt zur Widerstandsgruppe Kreisauer Kreis hatte, organisiert worden war. Im Anschluss an das Sprengstoffattentat, das von Oberst Claus Schenk Graf von Stauffenberg durchgeführt wurde, kam es in Berlin in der „Operation Walküre“ zu einem Putschversuch, der aber nach dem Bekanntwerden von Hitlers Überleben schnell in sich zusammenfiel und niedergeschlagen wurde. Die unmittelbaren Akteure des Putschversuchs, Mitglieder der Wehrmacht, unter ihnen auch Stauffenberg selbst, wurden noch in der Nacht vom 20. auf den 21. Juli 1944 erschossen. Im Zuge der folgenden Ermittlungen kam es zur Entdeckung weiterer Umsturzpläne aus den Jahren 1938 bis 1944. Bis zum Kriegsende wurden in Prozessen vor dem Volksgerichtshof, die anfangs in Ausschnitten in der Wochenschau gezeigt wurden, über 200 Personen im Zusammenhang mit dem Attentat vom 20. Juli zum Tode verurteilt. Mehreren populären Generälen (u. a. Erwin Rommel, Günther von Kluge), die in den Verdacht der Mitwisserschaft gerieten, wurde der Ehrensuizid nahegelegt. Wichtige exekutive Instanzen der Verfolgung vor allem des innerdeutschen Widerstands waren die Gestapo – Kurzwort (Akronym) für die Geheime Staatspolizei – und der Volksgerichtshof. Widerstand leisteten auch in Deutschland oder im Exil lebende Künstler wie der kritische Schriftsteller und Dramatiker Bertolt Brecht und andere, die sich mit ihren Mitteln – meist publizistisch – gegen das NS-Regime wandten. Neben dem Widerstand in Deutschland entstanden nach Kriegsbeginn auch in den besetzten Gebieten Widerstandsgruppen wie zum Beispiel die Polnische Heimatarmee oder die Résistance in Frankreich. Sie lieferten den Deutschen unter deren Besatzung erbitterten Widerstand im Partisanenkrieg, der vor allem in den Balkanstaaten Jugoslawien, Albanien und Griechenland sowie in Polen (Warschauer Aufstand) besonders effektiv war, allerdings auch äußerst grausame Vergeltungsaktionen der deutschen Besatzer nach sich zog – wie etwa massenhafte Geiselerschießungen von Zivilisten. Insbesondere im besetzten Polen wurde sehr häufig wahllos die Bevölkerung ganzer Dörfer und Städte als Vergeltungsakte für geleisteten Widerstand ermordet. Von den Alliierten wurde der Widerstand in Deutschland selbst, anders als der in den besetzten Gebieten, so gut wie nicht unterstützt, vielmehr führte das alliierte Kriegsziel einer bedingungslosen Kapitulation zu einer indirekten Solidarisierung mit der Führung und ließ auch nach einem Staatsstreich kaum günstigere Friedensbedingungen erwarten. Völkermord und andere Verbrechen gegen die Menschlichkeit. Anhänger der Linksparteien, Zeugen Jehovas und oppositionell eingestellte Jugendliche waren schon vor Kriegsbeginn als politisch unerwünschte Gruppen verfolgt und zu Tausenden ermordet worden. Die Ermordung von Bevölkerungsgruppen aus Gründen der „Rassenhygiene“ begann noch vor dem Krieg mit dem Massenmord an deutschen Behinderten. Die „Aktion T4“ wurde ab Kriegsbeginn auch mit Mangel an Lazarettplätzen begründet und als „Euthanasie“ verschleiert. Die „Behandlung“ – Ermordung – der dazu ausgesuchten Behinderten wurde mit ihrer Arbeitsunfähigkeit begründet. Dazu wurden Fachabteilungen psychiatrischer Anstalten an etwa 30 Orten für die Tötungen umgebaut. Die Ermordung geschah auch auf dem Transport in abgedichteten LKWs („Gaswagen“) mit deren Abgasen oder mit Kohlenstoffmonoxid. Die Leichen wurden verbrannt, ihre Angehörigen erhielten falsche Todesbescheinigungen. Die Täter wurden danach als Spezialisten in den Todesfabriken in Osteuropa eingesetzt. Der Holocaust, der systematische Völkermord an etwa sechs Millionen Juden und „Judenmischlingen“, darunter über drei Millionen Polen und 1,8 Millionen Kindern, war das größte Verbrechen der Nationalsozialisten. Er begann mit Massenerschießungen von Juden und polnischen Führungskräften durch besondere „Einsatzgruppen“ im Polenfeldzug. Es folgten großangelegte Deportationen (unter der Tarnbezeichnung „Umsiedlung“) und Internierungen in Ghettos und Arbeitslager, wo bereits Hunderttausende als Zwangsarbeiter umkamen. Dorthin wurden auch deutsche und österreichische Juden deportiert; mit Massakern wie dem in Babyn Jar (29./30. September 1941) und Riga (29. November–1. Dezember 1941) wurden überfüllte Ghettos für nachrückende Judentransporte geleert. Mit dem Krieg gegen die Sowjetunion 1941–1945 weiteten sich die Judenmorde zum flächendeckenden Völkermord aus. Zur Durchführung der Aktion Reinhardt ab Juni 1941 wurden drei Vernichtungslager eingerichtet; ab Dezember 1941 begannen die ersten Morde in Gaswagen nach dem Vorbild der Aktion T4. Damit sollte die Wirkung von Giftgas getestet werden, um effektiver töten zu können und moralische Skrupel der Mörder bei Massenerschießungen zu vermeiden. Auf der geheimen Wannseekonferenz am 20. Januar 1942 organisierten Vertreter aller wichtigen NS-Behörden die begonnene „Endlösung der Judenfrage“ im Detail und verabredeten europaweite Deportationen von bis zu 11 Millionen Juden in die osteuropäischen Ghettos und Lager. Bis Sommer 1942 waren die Krematorien im KZ Auschwitz-Birkenau fertiggestellt; nun wurden die Massenmorde auf industrielle Vergasung konzentriert. Die Verwertung des Eigentums der etwa drei Millionen Vergasten wurde bis ins Detail geregelt. Außer den Juden betrachtete die nationalsozialistische Rassenpolitik auch „Zigeuner“, Slawen oder Homosexuelle als „lebensunwert“ bzw. als „rassisch minderwertig“. Diese Gruppen – die größte unter ihnen etwa 2,5 bis 4 Millionen sowjetische Kriegsgefangene – wurden ebenfalls massenhaft ermordet, teilweise ebenfalls in den Vernichtungslagern. Diese Menschen, so Timothy Snyder, wurden „gezielt umgebracht, oder es lag die bewusste Absicht vor, sie den Hungertod sterben zu lassen. Wäre der Holocaust nicht gewesen, man würde dies als das schlimmste Kriegsverbrechen der Neuzeit erinnern.“ Hauptgrund für diese Verbrechen war die Rassen- und Lebensraum-Ideologie, die Hitler 1924 in "Mein Kampf" dargelegt hatte und die seit 1939 in einem Weltkrieg verwirklicht wurde. Die NS-Täter versuchten, ihre Verbrechen möglichst geheim zu halten und mit Euphemismen wie "Umsiedlung" oder "Sonderbehandlung" zu tarnen. Die Deutschen erfuhren durch private Berichte und Andeutungen in Medien dennoch genug Details, um auf den organisierten Judenmord schließen zu können. Das spurlose Verschwinden jüdischer Nachbarn, das Ziel ihrer öffentlichen Abtransporte wurde wahrgenommen, aber nicht weiter hinterfragt. Der Satz „du kommst sonst ins KZ“ war ab 1933 ein Drohwort für fast jeden. Gerüchte über die Lager „im Osten“ kamen mit den Fronturlaubern praktisch in jedes Dorf; alliierte Rundfunksender (die gehört wurden, obwohl das Hören von Feindsendern verboten war und teils drakonisch bestraft wurde) meldeten die Massenmorde. Der polnische Geheimdienst lieferte den Briten bereits 1942 den Beweis für den Massenmord in Auschwitz. Auch der damalige Papst Pius XII. wusste früh davon. Die ständigen Angriffe gegen jüdische Bevölkerungsteile ab April 1933 wurden zum Teil passiv akzeptiert und von Nutznießern begrüßt. Enteignungsartige „Arisierungen“ selbst kleinster Geschäfte oder Betriebe hatten immer Nutznießer und geschahen vor den Augen der örtlichen Bevölkerung. Rettungsaktionen für Juden waren eine seltene Ausnahme; Mittäterschaft oder Gleichgültigkeit waren die Regel. Oskar Schindler bewahrte rund 1200 jüdische Zwangsarbeiter aus Krakau vor der Ermordung. Das von der Bekennenden Kirche 1938 eingerichtete Büro Grüber verhalf vor allem Judenchristen bis zu seiner Schließung 1940 heimlich zur Ausreise. In den Nürnberger Prozessen wurden nur führende Personen unter anderem wegen Verbrechen gegen die Menschheit und Kriegsverbrecher verurteilt. Eine wirkliche Aufarbeitung der NS-Verbrechen und ihrer Ermöglichung begann in Westdeutschland erst um 1960. Seit 1945 hat die Holocaustleugnung eine dauerhafte und internationale Tradition. Am United States Holocaust Memorial Museum wird seit dem Jahr 2000 an einer "Encyclopedia of Camps and Ghettos" geschrieben (Leitung: Geoffrey Megargee und Martin Dean). 2013 nannten sie über 42.500 Orte der Gewalt, die es im Dritten Reich im besetzten Europa gab (darunter Konzentrationslager, Arbeitslager, Gettos, Judenhäuser und Orte, an denen Frauen zur Prostitution gezwungen wurden). Bis dahin war diese Zahl weit geringer geschätzt worden. Zwangsarbeiter und Beutekinder. Hunderttausende Menschen aus den besetzten Gebieten, insbesondere aus Polen, den Balkanländern und der Sowjetunion, wurden ins Reichsgebiet als Zwangsarbeiter entführt. Viele von ihnen überlebten den Zweiten Weltkrieg nicht. Die Kinder der Zwangsarbeiterinnen wurden in auf Himmlers Befehl eingerichtete „Ausländerkinderpflegestätten“ gebracht, die kein anderes Ziel hatten, als diese „unerwünschten“ Kinder unbemerkt von der Öffentlichkeit verkümmern zu lassen. Daneben wurden zehntausende polnische Kinder, die die „rassischen Merkmale“ erfüllten, ihren Familien weggenommen und nach Deutschland deportiert, von denen die wenigsten nach dem Krieg zu ihren Eltern zurückkehren konnten. Andere, die die rassischen Merkmale nicht erfüllten, wurden massenhaft in Konzentrationslagern ermordet. Der bekannteste Fall dürfte der der Deportation zehntausender Kinder aus der Gegend um Zamość – in der Deutsche aus dem Baltikum und Bessarabien angesiedelt wurden – nach Auschwitz sein. Diät. Es gibt sehr unterschiedliche Diätformen, nicht alle sind uneingeschränkt gesundheitsfördernd Die Bezeichnung Diät kommt von "(díaita)" und wurde ursprünglich im Sinne von „Lebensführung“/„Lebensweise“ verwendet. Die Diätetik beschäftigt sich auch heute noch wissenschaftlich mit der „richtigen“ Ernährungs- und Lebensweise. Im deutschsprachigen Raum bezeichnet der Begriff bestimmte Ernährungsweisen und Kostformen, die entweder zur Gewichtsab- oder -zunahme oder zur Behandlung von Krankheiten dienen sollen. Im englischsprachigen Raum wird unter „diet“ die alltägliche Ernährungsweise eines Menschen verstanden, unabhängig von gewichts- oder krankheitsbedingten Kostformen. Umgangssprachlich wird der Begriff in Deutschland häufig mit einer Reduktionsdiät (Reduktionskost) zur Gewichtsabnahme gleichgesetzt. Er bildet somit ein Synonym zur Schlankheitskur. Diätformen. Seit Hippokrates wird als Diät eine spezielle Ernährung des Menschen bezeichnet, bei der längerfristig oder dauerhaft eine spezielle Auswahl von Lebensmitteln verzehrt wird. Im deutschsprachigen Raum wird als Diät entweder eine "kurzfristige" Veränderung der Ernährungsform zur Gewichtsreduktion (z. B. bei Adipositas), in einigen Fällen auch zur Gewichtszunahme (z. B. bei Anorexie) oder eine "längerfristige" bis dauerhafte Ernährungsumstellung zur unterstützenden Behandlung einer Krankheit (z. B. bei Zöliakie, Lactoseunverträglichkeit, Fruchtzuckerunverträglichkeit) bezeichnet. Fasten bedeutet dagegen den vorübergehenden Verzicht auf Lebensmittel aus religiöser (im Islam der Ramadan, in der christlichen Kirche die vorösterliche Fastenzeit) oder gesundheitlicher Motivation (das Heilfasten). Jede Diätform, sei es zur Gewichtsreduktion, sei es zur unterstützenden Krankheitsbehandlung, basiert auf einer Verminderung oder Vermehrung des relativen Anteils eines Nahrungsbestandteils (Kohlenhydrate, Fette, Eiweiße, Vitamine, Mineral- und Konservierungsstoffe) gegenüber den anderen und/oder einer Erniedrigung oder Erhöhung der zugeführten Gesamtenergiemenge (siehe: Physiologischer Brennwert) sowie ggf. einer bilanzierten Veränderung der Flüssigkeitszufuhr. Reduktionsdiäten. Eine Reduktionsdiät zielt auf die Reduktion des Körpergewichts. Es gibt zahlreiche Reduktionsdiäten, die sich in ihren Methoden teilweise erheblich voneinander unterscheiden. Nur wenige Diätformen sind wissenschaftlich überprüft. Die Entwicklung und Propagierung der Reduktionsdiäten ist nicht nur den Veränderungen wissenschaftlicher Erkenntnisse, sondern auch Moden und Weltanschauungen unterworfen. Einige Diätformen gelten in der Medizin sogar als gesundheitsgefährdend. Gemäß den Empfehlungen der Deutschen Gesellschaft für Ernährung und der Deutschen Gesellschaft für Ernährungsmedizin sollten Reduktionsdiäten nur kurzzeitig erfolgen (und bei Extremformen nur unter ärztlicher Aufsicht). Allgemeiner Konsens ist, dass eine Reduktionsdiät nur dann dauerhaften Erfolg haben kann, wenn ihr eine dauerhafte Umstellung der Ernährung folgt, in der die Energiebilanz des Körpers ausgeglichen ist, d. h. in der nicht mehr Energie über Lebensmittel zugeführt wird als der Körper braucht. Eine Lebensumstellung hin zu vollwertiger Ernährung und vermehrter körperlicher Aktivität gilt als empfehlenswert. Beim Rückfall in alte Ess- und Lebensgewohnheiten kommt es meist zu einem Wiederanstieg des Körpergewichts, dem sogenannten Jo-Jo-Effekt, weil der Körper bei sehr energiearmen Diäten auf den Hungerstoffwechsel umstellt. Es gibt zahlreiche Diäten mit unterschiedlichen Konzeptionen. Diese heißen zum Beispiel Low-Carb, Low-Fat, Trennkost oder Glyx-Diät. Nach einer im Jahr 2005 an Mäusen durchgeführten Studie des Deutschen Instituts für Ernährungsforschung besteht ein Zusammenhang zwischen dem Konsum von Fruchtzucker (Fructose) und Übergewicht, der nicht auf der vermehrten Energieaufnahme beruht, sondern darauf, dass Fructose die Stoffwechsel­tätigkeit beeinflusst und auf diese Weise die Anreicherung von Körperfett begünstigt. Die Selfish-Brain-Theorie, die auch einen Ansatz zur Erklärung von Adipositas enthält, stellt nicht die kurzfristige Wirkung von Reduktionsdiäten, wohl aber deren langfristigen Erfolg grundsätzlich infrage. Diäten zur Krankheitsbehandlung (Krankenkost). Diäten werden als Einzelmaßnahme oder zusätzlich zur medikamentösen und evtl. operativen Therapie zur Behandlung von Krankheiten eingesetzt. Mit der Entwicklung wirksamer Ernährungsstrategien beschäftigt sich die Ernährungsmedizin. Bis in die 1980er Jahre gab es fast für jede Krankheit eine eigene Diät. Heutzutage wird für die meisten Erkrankungen, wie auch für die Allgemeinbevölkerung, eine, evtl. modifizierte, lactovegetabile Vollwertkost (s. o.) in Verbindung mit körperlicher Aktivität empfohlen. Insbesondere in der Diabetesbehandlung kam es seit den 1990er Jahren zu einem Paradigmenwechsel, der weg von einer sehr streng reglementierten Ernährung zu einer fast völligen Freigabe der Ernährungsempfehlungen führte („energiereduzierte Mischkost“). Die Diätempfehlungen sind ständigen, wissenschaftlich begründeten Veränderungen unterworfen und werden in Leitlinien der medizinischen Fachgesellschaften wie z. B. der Deutschen Gesellschaft für Ernährungsmedizin veröffentlicht. Diäten zur Krankheitsbehandlung sollten besonders in der Anfangsphase unter ärztlicher Begleitung erfolgen. Sonstiges. Bei schweren Krankheiten wie Krebs kann eine Diät nur eine unterstützende Therapieform sein. Bei Essstörungen ist eine Psychotherapie erforderlich, zu deren Begleitung eine Diättherapie erfolgen kann. Daten. Unter Daten versteht man im Allgemeinen Angaben, (Zahlen-)Werte oder formulierbare Befunde, die durch Messung, Beobachtung u. a. gewonnen wurden. In der Umgangssprache versteht man darunter Gegebenheiten, Tatsachen, Ereignisse. Daneben existieren in verschiedenen Fachbereichen, wie z. B. der Informatik oder der Wirtschaftstheorie, unterschiedliche – wenn auch meist ähnliche – Definitionen. Eine einheitliche Definition gibt es jedoch nicht. Im Datenschutzrecht sind damit im Wesentlichen die personenbezogenen Daten gemeint, d. h. Angaben über natürliche Personen, z. B. das Geburtsdatum oder der Wohnort. Für die Datenverarbeitung und (Wirtschafts-)Informatik werden Daten als Zeichen (oder Symbole) definiert, die Informationen darstellen und die dem Zweck der Verarbeitung dienen. Die Wirtschaftstheorie beschreibt Daten als diejenigen volkswirtschaftliche Gegebenheiten, die einen wesentlichen Einfluss auf den Ablauf der Wirtschaft haben, selbst dabei aber nicht beeinflusst werden. Die Semiotik definiert Daten als potenzielle Information, siehe dazu semiotisches Dreieck. Hier werden Daten heute in die Sigmatik-Ebene eingeordnet. Etymologie und Sprachgebrauch. "Daten" oder zuvor "Data" sind eigentlich Pluralbildungen von "Datum", das als Lehnwort aus dem Lateinischen zurückgeht auf "datum" ‚gegeben‘ (PPP zu lat. "dare" ‚geben‘) bzw. substantiviert ‚das Gegebene‘. Auf wichtigeren Schriftstücken war in der üblichen Einleitungsformel vermerkt „datum …“ („gegeben (am) …“) mit und eventueller – womit deren Inhalt „das Gegebene“ wurde. Die Pluralform "Daten" zu "Datum" folgt anderen Wörtern lateinischen Ursprungs wie "Studien" – "Studium" oder "Individuen" – "Individuum". Da sich in der deutschen Sprache die Bedeutung von „Datum“ im allgemeinen Sprachgebrauch eingeengt hat auf ‚Kalenderdatum‘, wird für die Pluralbildung im Sinne von Zeitpunkten oft nicht die Wortform „Daten” benutzt, sondern stattdessen von „Datumsangaben“ oder „Terminen“ gesprochen. Umgekehrt werden für die Einzahl von „Daten“ im weiteren Sinn als eine gegebene Messung, Information oder Zeichen(kette) dann Wörter wie „Wert“, „Angabe“ oder „Datenelement“ verwendet. Es handelt sich also um einen Pluraletantum. Obwohl diese beiden Ausdrücke in der Standardsprache synonym benutzt werden, unterscheidet die Informationstheorie beide dem Begriff nach grundlegend voneinander, Details und Beispiele siehe Information. Recht. Das deutsche Recht verwendet an verschiedenen Stellen den Datenbegriff, weist aber keine diesbezügliche Definition auf. Verwendet wird der Begriff etwa im Datenschutz oder im Strafrecht unter „Ausspähen von Daten“ (§ 202a StGB); „Daten“ in diesem Sinn sind „nur solche, die elektronisch, magnetisch oder sonst nicht unmittelbar wahrnehmbar gespeichert sind oder übermittelt werden.“ Das österreichische Kernstrafrecht kennt den Datenbegriff seit der Einführung des StGB (Datenbeschädigung). Im Laufe der Zeit wurden weitere Tatbestände hinzugefügt, sodass heute auch der betrügerische Datenverarbeitungsmissbrauch (StGB), Datenfälschung (StGB), die Störung der Funktionsfähigkeit eines Computersystems (StGB) und diverse Vorfelddelikte (ua, und StGB) bestraft werden können. Weiters findet sich eine differenzierte Darstellung des Begriffs im Datenschutzgesetz 2000 (DSG). So wird zwischen personenbezogenen und nicht personenbezogenen Daten unterschieden, wobei nur erstere durch das DSG geschützt werden. Informatik. Laut Definition der inzwischen abgelösten Norm DIN 44300 Nr. 19 waren Daten (ab 1985) "Gebilde aus Zeichen oder kontinuierliche Funktionen, die aufgrund bekannter oder unterstellter Abmachungen Informationen darstellen, vorrangig zum Zweck der Verarbeitung und als deren Ergebnis." Gemäß Terminologie der geltenden Norm des internationalen Technologiestandards ISO/IEC 2382-1 für Informationstechnik (seit 1993) sind Daten – "Data": „a reinterpretable representation of information in a formalized manner, suitable for communication, interpretation, or processing“ – eine wieder interpretierbare Darstellung von Information in formalisierter Art, geeignet zur Kommunikation, Interpretation oder Verarbeitung. In der Informatik und Datenverarbeitung versteht man "Daten" gemeinhin als (maschinen-) lesbare und -bearbeitbare, in der Regel digitale Repräsentation von Information. Ihr Inhalt wird dazu meist zunächst in Zeichen bzw. Zeichenketten kodiert, deren Aufbau strengen Regeln folgt, der sogenannten Syntax. Um aus Daten wieder die "Informationen" zu abstrahieren, müssen sie in einem Bedeutungskontext interpretiert werden. So kann eine Ziffernfolge wie „123456“ zum Beispiel in Abhängigkeit vom Kontext für eine Telefonnummer, eine Kontonummer oder die Anzahl von Kfz-Neuzulassungen in einem bestimmten Zeitraum stehen. Die betrachtete Zeichenfolge „123456“ oder auch „11110001001000000“ als solche kann nur als Aneinanderreihung von Ziffern erkannt werden; ihre konkrete Bedeutung wird erst im jeweils passenden Kontext (siehe Semantik) klar. Die Speicherung von Daten erfolgt auf Datenspeichern, wie z. B. Festplatten, DVDs, Flash-Speichern oder auch Magnetbändern, früher z. B. auch Lochkarten. Diese Datenträger gelten als Hardware, während die auf/in ihnen enthaltenen Daten als „immaterieller Begriff“ zu verstehen sind. Die Form der Darstellung von Daten nennt man Kodierung, die Menge der dabei möglichen Zeichen nennt man Codealphabet (z. B. UTF-8). Daten können unterschiedlich kodiert sein, d. h. in unterschiedlichen Codes notieren, aber dennoch die gleiche Information repräsentieren. In der heutigen Digitaltechnik hat sich die Kodierung in binärer Form fast ausschließlich durchgesetzt. Ein Bit ist dabei die kleinste Informationseinheit. Grundsätzlich ist neben Binärcode auch die Verwendung von Alphabeten mit mehr als zwei Symbolen möglich. Formen der Verarbeitung von Daten. Als "Datenoperationen" beim Speichern von Daten sind nach dem Prinzip „CRUD“ das erstmalige Erfassen von Daten (c"reate"), das Lesen (r"ead"), das Verändern (u"pdate") und das Löschen (d"elete") zu unterscheiden. Gegenstand solcher Operationen ist zumeist eine bestimmte "Gruppe von Daten" (wie eine Kundenadresse, Bestellung etc.), die z. B. nach den Regeln der Datenmodellierung gebildet wurde. Diese datentechnischen Operationen werden durch Computerprogramme ausgelöst, d. h. über entsprechende, in diesen enthaltene Befehle (als Teil eines implementierten Algorithmus’) vorgegeben. Die Operationen sind einerseits selbst Input-/Output-Befehle in Bezug auf den Datenbestand, sie stehen zum Teil aber auch im Zusammenhang mit Eingabe und Ausgabe seitens der Benutzer des Computerprogramms. Zweck der Speicherung von Daten ist in der Regel ihre spätere "Nutzung". Dabei lässt sich die einfache Wiedergabe (z. B. in Form von Anzeigen oder Listen) unterscheiden von dem Auswerten, bei dem die Daten in unterschiedliche logische, mathematische oder darstellende Verfahren einfließen (z. B. zur Summenbildung, Durchschnittsberechnung, Differenzbildung, Datenabgleich, als grafische Diagramme etc.). Eine besondere Form der Daten-Verarbeitung sind der "Datenimport" (Dateiimport) und "Datenexport" (Dateiexport) als gängige Methode zum Datenaustausch zwischen verschiedenen Systemen. Hierbei ist unter Umständen auch eine Datenkonvertierung erforderlich, wenn Ausgangs- und Zielsystem unterschiedliche Datenformate oder Dateiformate verwenden. Daten in der Programmierung. Weitere Datenbegriffe, denen in der Programmierung / Softwareentwicklung eine wesentliche Bedeutung zukommt, sind beispielsweise: Datenmodellierung, Eingabe und Ausgabe, Datenfluss, … Bemerkenswertes. Seit der Jahrtausendwende soll der Anteil der digitalen Daten, die der analogen Aufzeichnungsbestände überschritten haben. Auf der Erde gibt es (Stand 2011) 1,8 Zettabytes (1021 Bytes = 1,8 Billionen Gigabytes) an digitalen Informationen. Das Gesamtvolumen wuchs in den letzten fünf Jahren um den Faktor fünf und wächst zurzeit täglich um 1018 Bytes. Wollte man die gesamte Datenmenge auf DVD brennen, so benötigte man einen Stapel DVDs, der von der Erde zum Mond und wieder zurück reichen würde. Auch in den nächsten Jahren wird sich der weltweite Datenverkehr voraussichtlich vervielfachen. Für 2020 wird „die Menge an Daten, die erstellt, vervielfältigt und konsumiert werden, bei etwa 40 Zettabytes liegen – und damit 50-mal so hoch sein wie noch vor drei Jahren. Deskriptive Linguistik. Deskriptive Linguistik (auch Deskriptivismus) im weiteren Sinn (beschreibende Linguistik) ist ein Synonym für "moderne Linguistik" ("Sprachwissenschaft"), das verdeutlicht, dass die moderne Linguistik – im Gegensatz zu den Gepflogenheiten der meisten Gelehrten und Sprachwissenschaftler in früheren Jahrhunderten – Einzelsprachen, Sprachsysteme und Sprachwandel wertungsfrei beschreibt und analysiert. Der Begriff ist also insofern tautologisch, als alle modernen Wissenschaften deskriptiv statt präskriptiv sind, d.h. keine Vorschriften und Normen aufstellen. Diachrone und historische Gesichtspunkte werden jedoch in der deskriptiven Linguistik oft nicht berücksichtigt. Der genauen Beschreibung der Daten (Beobachtungsadäquatheit) wird in der deskriptiven Linguistik viel mehr Raum zugemessen als möglichen Erklärungen für die beschriebenen Phänomene. Im engeren Sinne wird die deskriptive Linguistik dem amerikanischen Strukturalismus in der Tradition von L. Bloomfield zugerechnet. Verhältnis zu und Entstehung aus präskriptiven Sprachbeschreibungen. Präskriptive Schriften über Sprachgebrauch werden heutzutage von Wissenschaftlern weitestgehend als unwissenschaftlich abgelehnt, aber sie sind sehr beliebt in der allgemeinen Bevölkerung und werden sogar zu Bestsellern, wie z.B. "Der Dativ ist dem Genitiv sein Tod" (siehe Sprachverfall und Zwiebelfisch). Bis in die jüngste Vergangenheit haben jedoch auch Sprachwissenschaftler (normative) Sprachratgeber und normative Handbücher (Grammatiken und Wörterbücher) herausgegeben, besonders im deutschen Sprachraum. Selbst die neuesten Ausgaben deutscher Wörterbücher sind weiterhin hauptsächlich präskriptiv und beschreiben nur wenige Abweichungen der tatsächlich gesprochenen Sprache von der in der Schule unterrichteten Standardsprache (Standarddeutsch). Genauer gesagt bestand die Sprachwissenschaft jahrhundertelang überwiegend aus präskriptiven Sprachbeschreibungen. Englische Wörterbücher sind schon seit längerer Zeit weitgehend deskriptiv, obwohl auch diese noch Warnungen über weniger angesehene oder nicht standardsprachliche Formen enthalten. Moderne normativ orientierte Arbeiten, die dennoch als wissenschaftliche angesehen werden, sind im Sinne von ' zu verstehen, aber solche Arbeiten nehmen im akademischen Bereich nur wenig Raum ein. Gerade in Bezug auf normative Schlussfolgerungen herrschen hier zum Teil sehr kontroverse Ansichten. Beispielsweise wird immer wieder heftig debattiert, inwieweit Sprachkritik überhaupt ein Gegenstand linguistischer Forschung sein bzw. von Linguisten betrieben werden kann und soll, weil sie ja entweder leicht eine werthaltige Norm des Gebrauchs von Sprache mit einfließen lässt oder oft gleichzeitig auch Gesellschaftskritik darstellt. Präskriptive Arbeiten werden − mit wenigen Ausnahmen wie etwa Sprachentwicklungstests, die den Sprachstand eines Kindes gemessen an einer ermittelten Entwicklungsnorm festlegen − weitestgehend nicht in der akademischen Forschung und Lehre behandelt, sondern meist von wirtschaftlicher oder privater Seite erstellt. Dortmund. Dortmund (westfälisch "Düörpm", niederländisch [veraltet] "Dortmond", französisch [veraltet] "Trémoigne", spanisch [veraltet] und, altsächsisch "Throtmanni") ist eine Großstadt am östlichen Rand der Metropolregion Rhein-Ruhr in Nordrhein-Westfalen. Sie ist das Wirtschafts- und Handelszentrum Westfalens und mit über 580.000 Einwohnern die bevölkerungsreichste Stadt sowohl dieses Landesteils als auch des Ruhrgebiets. Dortmund gehört zum Regierungsbezirk Arnsberg und war 2010 zusammen mit anderen Städten des Ruhrgebiets Kulturhauptstadt Europas. Die vermutlich auf eine karolingische Reichshofgründung zurückgehende, einst wichtige Reichs- und Hansestadt entlang des Hellwegs entwickelt sich heute von einer Industriemetropole zu einem bedeutenden Dienstleistungs- und Technologiestandort: Früher vor allem bekannt durch Stahl, Kohle und Bier, ist Dortmund heute nach langjährigem Strukturwandel ein Zentrum der Versicherungswirtschaft und des Einzelhandels. Mit etwa 50.000 Studierenden an sechs Hochschulen, darunter die Technische Universität Dortmund und 19 weiteren wissenschaftlichen Einrichtungen gehört Dortmund zu den zehn größten Hochschulstädten Deutschlands und ist auch ein bedeutender Wissenschafts- und Hochtechnologie-Standort. Neuansiedlungen und Existenzgründungen entstehen deshalb bevorzugt in den Bereichen Logistik, Informations- und Mikrosystemtechnik. Dortmund ist mit seinem Hauptbahnhof und Flughafen der wichtigste Verkehrsknoten im östlichen Ruhrgebiet und Anziehungspunkt für das vor allem östlich der Stadt ländlich geprägte Umland. Überregionale Bekanntheit genießt Dortmund durch den Fußballverein Borussia Dortmund mit seiner Heimspielstätte Signal Iduna Park, dem früheren Westfalenstadion. Weitere Anziehungspunkte und Wahrzeichen der Stadt sind außerdem das Dortmunder U, das Deutsche Fußballmuseum, der Westenhellweg als meist frequentierte Einkaufsstraße Deutschlands, die Reinoldikirche, die Westfalenhalle und der Florianturm. Das Stadtbild wird auch durch markante Hochhäuser geprägt. Lage. Dortmund liegt auf. Der Dortmunder Stadtteil Aplerbecker Mark liegt nach Angaben des Landesvermessungsamt Nordrhein-Westfalen sogar mit den Koordinaten mitten in Nordrhein-Westfalen. In Dortmund gilt wie in ganz Deutschland die Mitteleuropäische Zeit, die mittlere Ortszeit bleibt dieser gegenüber 30 Minuten und 7,7 Sekunden zurück. Dortmund liegt im Südwesten der Westfälischen Bucht, dem südlichen Fortsatz der Norddeutschen Tiefebene an der Grenze zum Deutschen Mittelgebirge; südlich erheben sich die Ausläufer des Sauerlands und das Ardeygebirge, zu dem als nördlichste Erhebung noch der Dortmunder Rücken im Osten der Stadt gezählt wird. Hinter diesem liegt, als Teil der Hellwegbörden, die Werl-Unnaer Börde, nördlich grenzen das Lippetal und die Lipper Höhen im Münsterland an. Der Westen wird bestimmt durch den Ballungsraum Ruhrgebiet, dessen östlichem, westfälischem Teil Dortmund angehört. Auch wenn Dortmund größte Stadt und ein Zentrum dieses Raums ist, nimmt die Stadt geographisch doch eher eine Randlage im Nordosten des Ruhrgebiets ein. Der Stadtkern von Dortmund liegt auf der Grenze zwischen nördlichem Flach- und südlichem Hügelland, dem sogenannten westfälischen Hellweg; entsprechend hat die Stadt Anteil an den Naturräumen der Hellwegbörden und des Westenhellwegs. Da auch der Oberlauf der Emscher durch Dortmund fließt, ist sie ebenso Teil des weiter nördlich gelegenen Naturraums Emscherland. Im Süden, unterhalb der Hohensyburg, bildet der Mittellauf der Ruhr die Stadtgrenze, in die auf Hagener Gebiet die Lenne mündet und dort den Hengsteysee bildet. Im Dortmunder Stadthafen beginnt außerdem der in den Norden führende Dortmund-Ems-Kanal. Gewässer. Das Dortmunder Stadtgebiet ist relativ arm an natürlichen Gewässern. Zu den größeren Fließgewässern zählt neben der Ruhr im Dortmunder Süden an der Stadtgrenze zu den Städten Hagen und Herdecke nur der Fluss Emscher, der sich von Osten nach Westen durch das Stadtgebiet zieht. Darüber hinaus gibt es zahlreiche kleinere Bäche wie den Hörder Bach, Rüpingsbach, Schondelle, Roßbach oder Körnebach, die in die erstgenannten Flüsse münden oder zum Einzugsgebiet der Lippe gehören. Viele der Bäche dienten der Abwasserentsorgung, wurden jedoch im Zuge der Emscher-Renaturierung durch die Emschergenossenschaft nach und nach wieder in ihren naturnahen Zustand versetzt. Durch die Renaturierung wird das Umfeld der Bäche hierbei erheblich aufgewertet. Außerdem befindet sich der Dortmund-Ems-Kanal (DEK, Gewässerkennzahl: 70501) als eine Bundeswasserstraße zwischen dem Dortmunder Stadthafen und Papenburg/Ems. Mit der Hallerey, dem Lanstroper See und dem Pleckenbrinksee sind drei Seen eng mit der Bergbaugeschichte in Dortmund verknüpft. Diese Gewässer entstanden durch Bergsenkungen. Weiterhin wurden mit dem Hengsteysee und Phoenix-See zwei weitere Seen künstlich geschaffen. Ausdehnung. Das Stadtgebiet Dortmunds umfasst 280,401 km². Damit liegt Dortmund auf Rang 26 unter den flächengrößten Städten und Gemeinden Deutschlands, unter den Großstädten auf dem neunten Platz. Seine Fläche wird in Nordrhein-Westfalen nur von den Großstädten Köln und Münster und der Stadt Schmallenberg überboten. Der nördlichste Punkt Dortmunds liegt zwischen dem Stadtteil Groppenbruch und Lünen-Brambauer auf dem Gebiet der ehemaligen Gemeinde Schwieringhausen (), der südlichste 21 km von diesem entfernt gegenüber der Lennemündung (), der östlichste Punkt Dortmunds liegt nördlich des Flughafens im Stadtteil Wickede und grenzt an Unna-Massen (), der westlichste 23 km von diesem entfernt im Stadtteil Holte an der Grenze zu Bochum (). Grob kann man sich diese beiden Achsen als Diagonalen eines Quadrats vorstellen, das das Dortmunder Stadtgebiet bildet. Höchste Erhebung Dortmunds ist der im Stadtteil Syburg gelegene Klusenberg mit, der niedrigste Punkt befindet sich mit im Stadtteil Derne. Nachbargemeinden. Dortmund grenzt auf 21 km an den Kreis Recklinghausen mit den Städten Castrop-Rauxel im Westen und Waltrop im Nordwesten. Von Norden bis Südosten ist Dortmund auf insgesamt 76 km vom Kreis Unna mit den Städten Lünen im Norden, Kamen im Nordosten, Unna im Osten, der Gemeinde Holzwickede sowie der Stadt Schwerte (beide im Südosten) umklammert. Daran schließt sich die nur zwei Kilometer lange Stadtgrenze zur kreisfreien Stadt Hagen direkt im Süden an. Im Dortmunder Südwesten stößt die Stadt über 17 km an den Ennepe-Ruhr-Kreis mit den Städten Herdecke und Witten. Genau im Westen liegt schließlich die kreisfreie Stadt Bochum, die Stadtgrenze ist hier zehn Kilometer lang. Insgesamt umfasst die Dortmunder Stadtgrenze somit 126 km. Politische Geographie. Stadtbezirke und Nachbargemeinden der Stadt Dortmund ist historisch ein Teil Westfalens und liegt heute im Bundesland Nordrhein-Westfalen. Die Stadt ist kreisfrei und liegt im Bereich des Regierungsbezirks Arnsberg. Sie gehört sowohl dem Landschaftsverband Westfalen-Lippe als auch dem Regionalverband Ruhr an. Daneben ist sie noch Mitglied in weiteren Zweckverbänden wie dem Verkehrsverbund Rhein-Ruhr, dem Ruhrverband, der Emschergenossenschaft oder dem Lippeverband. Dortmund ist ein Oberzentrum Nordrhein-Westfalens und Teil der europäischen Metropolregion Rhein-Ruhr. Seit dem 1. Januar 1975 gliedert sich die Stadt Dortmund in zwölf Stadtbezirke. Dieses sind die drei Innenstadtbezirke West, Nord und Ost sowie der sie umgebene Ring aus den im Uhrzeigersinn (beginnend im Norden) neun weiteren Bezirken Eving, Scharnhorst, Brackel, Aplerbeck, Hörde, Hombruch, Lütgendortmund, Huckarde und Mengede. Jeder dieser Stadtbezirke wählt bei den Kommunalwahlen eine Bezirksvertretung und diese aus ihren Reihen einen Bezirksbürgermeister. In den Außenbezirken finden sich außerdem Bezirksverwaltungsstellen. Unterhalb der Stadtbezirke wird die Stadt weiter in 62 statistische Bezirke und diese wiederum in insgesamt 170 statistische Unterbezirke unterteilt. Außerhalb der Innenstadtbezirke entsprechen diese häufig den in die Stadt Dortmund eingemeindeten ehemals eigenständigen Ortschaften. Neben dieser offiziellen Einteilung existieren auch noch die weiter unten aufgeführten urbanen Viertel. Klima. Dortmund liegt wie ganz Deutschland in einer gemäßigten Klimazone. Die Stadt wird dem nordwestdeutschen Klimabereich zugeordnet und befindet sich auf der Grenze zwischen den Klimabezirken Münster- und Sauerland und damit im Übergangsbereich zwischen atlantisch-maritimem und Kontinentalklima. Charakteristisch sind milde Winter und relativ kühle Sommer. Die mittlere Jahrestemperatur beträgt 9–10 °C, die Niederschlagsmenge im langjährigen Durchschnitt 750 mm. Überwiegende Windrichtung ist Südwest. Die Niederschläge sind recht gleichmäßig über das Jahr verteilt, im Winter dominiert Dauerregen, im Sommer kürzere, aber ergiebigere Regenschauer. Dementsprechend wird das Maximum im Juli mit 80–90 mm erreicht, das Minimum liegt bei 40–50 mm im Februar. Auch die Temperaturschwankungen fallen mit unter 20 °C eher gering aus, kältester Monat ist der Januar mit −6 bis 11 °C, am wärmsten wird es im August mit 10–35 °C. In Dortmund zeigen sich klimatische Merkmale dicht besiedelter Räume, so bilden sich beispielsweise für ein Stadtklima typische Wärmeinseln aus. Demografie. Am 31. Dezember 2013 lebten in Dortmund 575.944 Menschen. Damit liegt Dortmund innerhalb der Europäischen Union vor Essen auf Rang 41 unter den größten Städten, innerhalb Deutschlands auf Rang 8 und in Nordrhein-Westfalen als größte Stadt des Ruhrgebiets auf Rang 3 hinter Köln und Düsseldorf. Dortmund gehört zur europäischen Metropolregion Rhein-Ruhr, die mit gut 10 Millionen Einwohnern nach den Agglomerationen Moskau, London, Paris und Istanbul die fünftgrößte Agglomeration Europas darstellt. Innerhalb dieser Metropolregion ist Dortmund Teil des Ballungsgebiets Ruhr und geht insbesondere im Westen fließend in die übrigen Städte des Ruhrgebiets über. Allein im Bereich des Regionalverbands Ruhr, dem Zweckverband des Ruhrgebiets, leben wiederum etwa 4,95 Millionen Menschen. Zählt man alle Nachbargemeinden, mit denen Dortmund eine direkte gemeinsame Grenze verbindet, hinzu, umfasst das Gebiet etwa 1,65 Millionen Einwohner und würde für sich selbst eine Metropolregion bilden. Aus der Einwohnerzahl ergibt sich eine Bevölkerungsdichte von 2.085 Einwohnern je km². Damit liegt Dortmund deutschlandweit auf Rang 37 der Gemeinden mit der größten Bevölkerungsdichte. Die Einwohnerdichte innerhalb des Stadtgebiets unterscheidet sich gravierend: zum einen ist nur etwa ein Sechstel des Stadtgebiets besiedelt, womit sich für diesen Bereich eine Bevölkerungsdichte von 124 Einwohnern je ha ergibt, zum anderen leben außerhalb des Innenstadtbereichs deutlich weniger Menschen pro Quadratkilometer als in der Innenstadt und die Dichte nimmt von Nord nach Süd sowie von West nach Ost ab. Die Werte reichten dabei 2006 von etwa 2.900 Einwohnern je km² im statistischen Unterbezirk Syburg (Stadtbezirk Hörde) bis zu etwa 43.200 Einwohnern je km² im statistischen Unterbezirk Nordmarkt-Südost (Stadtbezirk Innenstadt-Nord). Bevölkerungsstruktur. Von den 581.308 Einwohnern Dortmunds sind 51,03 % Frauen und 48,97 % Männer. Schon im Mittelalter war Dortmund Einwanderungsstadt, mit Beginn der Industrialisierung stieg der Zuzug aber enorm an. Unter diesen Einwanderern waren auch viele Polen und damit erstmals eine große Gruppe nicht-deutschsprachiger Personen mit anderer Religion, die sich aber letztlich assimilierten. Weitere gezielte Anwerbungen von Gastarbeitern fanden vor allem in den 1960er Jahren statt, um den Arbeitskräftebedarf in der Montanindustrie zu decken. Der Ausländeranteil in der Stadt beträgt laut den offiziellen Zahlen des Landesbetriebs Information und Technik Nordrhein-Westfalen zum 31. Dezember 2009 15,7 %. Das ist für westdeutsche Großstädte ein durchschnittlicher Wert. Unter den Frauen liegt der Anteil bei 14,6 % und unter den Männern bei 16,86 %. In absoluten Zahlen sind dies 92.778 Menschen aus 140 verschiedenen Staaten, die in Dortmund leben. Nach einer Untersuchung der Stadt, allerdings mit Daten vom 31. Dezember 2007, stammten von diesen 27,2 % aus der Europäischen Union, 35,0 % hatten die türkische, 7,4 % die polnische und 4,8 % die griechische Staatsangehörigkeit. Ein Jahr zuvor hatten 61.945 weitere Einwohner zwar die deutsche Staatsangehörigkeit, verfügen aber über einen Migrationshintergrund, das heißt, sie oder ihre Eltern hatten nicht von Geburt an die deutsche Staatsbürgerschaft. Ähnlich wie bei der Bevölkerungsdichte zeigen sich innerhalb des Stadtgebiets deutliche Unterschiede. Zum 31. Dezember 2005 lebten im Stadtbezirk Innenstadt-Nord etwa ein Drittel aller Ausländer in Dortmund. Auch in vielen der äußeren Stadtteile im Dortmunder Norden wie etwa Eving (Ausländernanteil von 22 %), Derne (Ausländeranteil von 16 %) und Scharnhorst-Ost (Ausländeranteil von 15 %) wohnen verhältnismäßig viele Ausländer. Ein extremer Siedlungsschwerpunkt außerhalb des Dortmunder Nordens ist die Siedlung Clarenberg in Hörde (Ausländeranteil von 30,2 %). Auffallend ist, dass wiederum in vielen östlichen und südlichen Dortmunder Stadtteilen wie Grevel, Asseln, Bittermark und Höchsten der Ausländeranteil ungewöhnlich niedrig ist. In Dortmund gibt es große Unterschiede zwischen den verschiedenen Nationen, so ist beispielsweise der Anteil EU-Bürger an den Ausländern am Stadtrand deutlich höher. Eine besondere Gruppe unter den Ausländern in Dortmund stellen die an den Hochschulen eingeschriebenen ausländischen Studenten dar: sie sind meist nur für einen kurzen Zeitraum in der Stadt und stammen zu einem großen Teil aus Asien und Afrika. Insgesamt waren an Technischer Universität, Fachhochschule, International School of Management und Fachhochschule für Oekonomie & Management zum Wintersemester 2012/2013 43.189 Studenten eingeschrieben. 45,1 % der Einwohner sind verheiratet, 39,3 % ledig, 8,1 % verwitwet und 7,4 % geschieden. Einkommens- und Leistungsstruktur. Ende Dezember 2006 bezogen 94.700 Dortmunder Leistungen nach dem Zweiten Sozialgesetzbuch (Arbeitslosengeld II, Sozialgeld), dies sind 16,2 % der Gesamtbevölkerung. Besonders häufig sind Kinder betroffen, 30,2 % der Dortmunder Kinder leben in Familien ohne oder ohne ausreichendes Erwerbseinkommen. Auch bei der Anzahl der Leistungsempfänger existieren wieder große Schwankungen zwischen den Stadtbezirken. In vielen nördlichen Bezirken wie etwa Eving, Lindenhorst und Nette ist der Anteil an Leistungsempfängern und Arbeitslosen relativ hoch. In der nördlichen Innenstadt und in der Großsiedlung Scharnhorst Ost liegt dieser Anteil sogar über 20 %. Dennoch gibt es im Norden auch einige Stadtteile mit niedriger Arbeitslosigkeit und hohem Einkommensdurchschnitt wie etwa Husen, Kurl, Grevel, Holthausen und Brechten. Im Dortmunder Süden hingegen herrscht nur in Hörde hohe Arbeitslosigkeit und im Dortmunder Osten nur in Wickede. Der Altersdurchschnitt der Dortmunder Bevölkerung beträgt etwa 43 Jahre. Der Jugendquotient, also das Verhältnis der unter 20-jährigen zur erwerbsfähigen Bevölkerung beträgt 34,5, der Altenquotient, das heißt der Anteil der Personen mit 60 oder mehr Lebensjahren bezogen auf die erwerbsfähige Bevölkerung 47,0 und das Abhängigkeitsverhältnis von erwerbsfähiger zu nicht erwerbsfähiger Bevölkerung somit etwa 5:4. Dies sind Werte, wie sie auch für ganz Deutschland anzutreffen sind. Bevölkerungsentwicklung. Nachdem die Einwohnerzahl Dortmunds einige Jahre lang sank, steigt sie mittlerweile wieder an. Im Jahr 2013 stieg die Einwohnerzahl um zirka 4600 Einwohner. Auf 1.000 Einwohner kommen 8,2 Neugeborene, die Sterberate beträgt 11 Personen pro 1000 Einwohner und wird durch einen Wanderungsüberschuss von insgesamt 841 Personen (2006) teilweise ausgeglichen. Die durchschnittliche Kinderzahl stieg von 1,25 im Jahre 1978 auf 1,46 im Jahr 1997. Seitdem ist sie wieder auf 1,33 im Jahre 2009 gesunken. Geschichte. a>s der Stadt Dortmund von 1647 Stadtgeschichte. Erste Spuren der Besiedlung auf dem heutigen Dortmunder Stadtgebiet reichen bis in die Jungsteinzeit zurück. Dortmund wurde um 880 das erste Mal als ' erwähnt. Die Ersterwähnung der Dortmunder Marktrechte stammt aus dem Jahr 990. Im 11. Jahrhundert wurde der Legende nach Reinoldus der Schutzpatron der Stadt. Älteste bekannte Dortmunder Ansicht 1470 Im Jahr 1152 fand in Dortmund ein Hoftag unter König Friedrich Barbarossa, dem späteren Kaiser statt. In Folge dessen siedelten vermehrt Handwerker und Händler um die Königspfalz und trugen zur allmählichen Stadtwerdung Dortmunds bei. Bereits im Jahr 1200 wurde die heutige Ausdehnung der Stadtmitte von 82h erreicht und mit Stadtmauern befestigt. Im Jahr 1232 (oder 1231) kam es zu einem großen Stadtbrand. Vermutlich durch Brandstiftung ausgelöst, zerstörte er die Stadt fast vollständig. Das Feuer wütete wohl vor allem im dicht besiedelten Stadtkern nördlich des Hellwegs und zerstörte nicht nur die hölzernen Häuser der Krämer und Handwerker, sondern auch die steinerne Reinoldikirche. Durch den Brand ging auch das Archiv der Stadt verloren und mit ihm sämtliche Urkunden aus der Zeit vor dem Stadtbrand. Die beim Stadtbrand verloren gegangenen Privilegien Dortmunds wurden 1236 von Friedrich II. erneuert und die Stadt erstmals als Reichsstadt (wörtlich: „civitas nostra Tremoniensis imperalis“) bezeichnet. Dortmund um 1610 von Detmar Muhler Im Jahr 1293 wurde der Stadt das Braurecht verliehen und es begann eine beispiellose Entwicklung der Bierindustrie innerhalb der Stadt. Nach dem großen Stadtbrand erstarkte auch der Einfluss der Dortmunder Bürgerschaft. Dieser reichte dabei weit über das Stadtgebiet hinaus und war dabei so stark, dass um 1252 die baltische Stadt Memel unter Mithilfe von Dortmunder Kaufleuten gegründet und erwogen wurde, die Stadt „Neu-Dortmund“ zu nennen. Diese Bürgerschaft bzw. Patriziat, das sich selbstbewusst rempublicam Tremoniensem gubernantes (etwa: regierende Herren des Staates Dortmund) nannte und bestand aus einflussreichen Familien wie den Kleppings, Sudermanns, von Wickedes, Swartes, Muddepennings, vom Berges, Lembergs, Berswordts, Wales und Brakes. Letztere besaßen allesamt exzellente Handelsbeziehungen in ganz Europa und im Speziellen nach England. Die Vormachtstellung der Dortmunder Kaufleute führte sogar dazu, dass Englands König, Eduard III. im Jahr 1339 die englische Königskrone an ein von Dortmunder Kaufleuten geführtes Konsortium verpfändete. Im Jahr 1389 überstand Dortmund die Große Dortmunder Fehde gegen den Grafen von der Mark und den Erzbischof von Köln sowie deren Verbündete, allerdings wurde langsam der wirtschaftliche Niedergang der Stadt eingeleitet. Letzterer wurde durch den Dreißigjährigen Krieg fortgeführt und führte dazu, dass die Stadt zum Ackerbürgerstädtchen herab sank und später sogar seine reichsstädtischen Freiheit verlor. Die Einwohnerzahl Dortmunds sank hierdurch bis zum Jahre 1793 auf 4500 Einwohner. Die ehemals Freie Reichsstadt kam danach als Exklave zum Fürstentum Oranien-Nassau. Im Jahr 1806 wurde Dortmund als Teil des Großherzogtums Berg Sitz der Präfektur des Ruhrdépartements. Nach dem preußischen Sieg über Napoleon fiel Dortmund 1815 schließlich an die preußische Provinz Westfalen. Hier wurde Dortmund 1817 Sitz eines Landkreises innerhalb des Regierungsbezirks Arnsberg, aus dem Dortmund 1875 als Immediatstadt (Stadtkreis) ausschied. Erst mit dem Beginn der Industrialisierung Anfang des 19. Jahrhunderts konnte der Niedergang gestoppt werden. Nach der Urkatasteraufnahme aus dem Jahr 1826 lebten in innerhalb der Wallanlagen circa 4000 Menschen in 940 Wohnhäusern und 453 Stallungen und Scheunen. Das Stadtbild wurde geprägt von engen ungepflasterten Straßen und Gassen und vielen Fachwerkhäusern. Einzig die vier großen mittelalterlichen Stadtkirchen und einige wenige steinerne Profanbauten zeugten vom großen kulturellen Erbe der Vergangenheit. Ab der Mitte des 19. Jahrhunderts begann durch die Kohlenförderung und Stahlverarbeitung der erneute Aufstieg Dortmunds und der Wandel zu einer Industriestadt. Seit der Eröffnung der Cöln-Mindener Eisenbahn im Jahr 1847 wurde Dortmund zu einem wichtigen Verkehrsknoten im Ruhrgebiet. Einen weiteren bedeutenden Beitrag zur wirtschaftlichen Entwicklung leistete 1899 die Eröffnung des Dortmund-Ems-Kanals und damit des Hafens. Blick auf den Hiltropwall mit Synagoge Bereits 1905 begann mit der Eingliederung von Körne eine Welle von Eingemeindungen, die mit dem Gesetz über die kommunale Neuordnung des Ruhrgebiets von 1928 ihren Höhepunkt mit der Eingemeindung der Stadt Hörde (die bereits 1340 Stadtrechte erhielt) erreichte. Das Gebiet Dortmunds liegt seit den Eingemeindungen von 1928 und 1929 zu größeren Teilen auf dem Gebiet der ehemaligen Grafschaft Mark als auf dem der ehemaligen Freien Reichsstadt Dortmund. Bis zum Ausbruch des 2.Weltkrieges wandelte sich das Stadtbild vom Ackerbürgerstädtchen zum großstädtischen Aussehen. Innerhalb weniger Jahre, wurde dass Stadtzentrum durch den Neubau von Bauwerken, wie dem Kaufhausbau von Althoff 1904, dem Krügerhaus 1912 oder dem gesamten Bahnhofsumfeld durch den Bau eines neuen Hauptbahnhofes, Postamtes und dem Löwenhof als Handelszentrum oder städtebaulichen Maßnahmen wie dem Durchbruch Hansastraße radikal verändert. Während des Zweiten Weltkriegs wurde die Stadt mitsamt ihren historischen Kirchen durch insgesamt 105 Luftangriffe und mehr als 22.242 Tonnen Bomben im Zentrum zu 98 Prozent zerstört. Die hohe Prozentzahl liegt teilweise in den acht Großangriffen begründet, in denen die Stadt Dortmund als alleiniges Ziel in den Mittelpunkt eines Angriffes rückte. Der Großangriff vom 12. März 1945 mit 1.108 Flugzeugen, beladen mit über 5000 Minen-Sprengbomben, gilt dabei als größter konventioneller Bombenangriff, der weltweit je gegen eine Stadt geflogen wurde. Nach diesem letzten folgenschweren Angriff kam das komplette gesellschaftliche und wirtschaftliche Leben zum Erliegen. Zeitgenössischen Berichten zufolge wurde zunächst erwogen, die Innenstadt nicht wieder aufzubauen. Moderner Wiederaufbau der Dortmunder Innenstadt Der tatsächliche Wiederaufbau wurde jedoch durch die im Boden vorhandenen Infrastrukturleitungen und den darüber liegenden Straßen bestimmt, die im Nachkriegsalltag als Transport und Verbindungswege zuerst geräumt wurden. Somit wurde der Umgang der Innenstädte als Wiederaufbau und Modifikationsmöglichkeit gesehen, anstatt einer völligen Neuplanung. Das öffentliche Bewusstsein der Nachkriegszeit war jedoch vom Wunsch geprägt, die städtebauliche Situation als Produkt der Industrialisierung auf den Grundrissen der mittelalterlichen Stadt nicht zu wiederholen. Planungsziel der Wiederaufbaujahre war somit ein neues, offenes und zukunftsfähiges Dortmund, welches sich bewusst von dem Gewesenen und dem alten historischen Erbe absetzen sollte. Trotz heftigen Widerstands der Dortmunder Bevölkerung wurden hierbei viele stadtbildprägende Gebäude wie das Rathaus oder die Synagoge abgerissen oder nicht wieder aufgebaut. Der Wiederaufbau ging somit insgesamt gesehen schnell voran, dass 1950 der 500.000ste Einwohner geboren wurde. Die weltweite Nachfrage nach Stahl und Eisen führte dazu, dass Dortmund bereits 1951 zur größten Industriestadt Nordrhein-Westfalens wurde. Bei einer Arbeitslosenquote von 2,3 % herrschte 1952 Vollbeschäftigung und die hervorragenden wirtschaftlichen Bedingungen zogen vermehrt Zuwanderer, insbesondere Flüchtlinge aus den Ostgebieten, an. Schon 1956 zählte Dortmund 624.000 Einwohner. 1965 erreichte die Stadt mit 658.075 Einwohnern einen historischen Höchststand. Ortsname. Dortmund wurde erstmals im Werdener Urbar erwähnt, das zwischen 880 und 884 entstand. Der lateinische Eintrag lautet:. Danach gibt es eine große Anzahl verschiedener, aber auf den gleichen Lautstamm zurückgehender Namen. Ihre jeweilige Verwendung in den Quellen erscheint willkürlich und zufällig. Ein Jahr nach seinem Aufenthalt in Dortmund stellte der König Friedrich Barbarossa 1152 dem Kölner Erzbischof Arnold II. von Wied eine Urkunde aus, die die lateinische Bezeichnung enthält. Die Bezeichnung ' leitet sich nicht von ab. Man vermutet, dass bei Verwendung dieser Bezeichnung der gute Klang und der vermeintliche Sinngehalt eine Rolle spielten. Der Name würde sich dann aus den Wörtern ' oder ' (deutsch: "drei") und ' (deutsch: "Mauer") zusammensetzen und soviel wie "Dreimauernstadt" bedeuten. Erst mit dem Aufkommen deutscher Quellen im 14. Jahrhundert wurde die alte Form sprachlich weiterentwickelt wieder aufgegriffen. Im westfälischen Platt wurde sie dann zu verkürzt. wird heute selten verwendet, das lateinische ' ist gelegentlich noch anzutreffen. Bei der Wortbedeutung von "Dortmund" wird im Allgemeinen von einem Determinativkompositum ausgegangen. Das Bestimmungswort ist vermutlich germanisch ", " mit der Bedeutung "Kehle / Gurgel / Schlund / Hals". Die Bedeutung des Grundworts ist unklar. Nach einer Theorie ist es das altsächsische Gewässerwort ", ". Nach einer anderen Theorie ist es germanisch ' mit der Bedeutung "Berg / Hügel / Anhöhe / Erhebung". In der ersten Theorie wäre die Bedeutung "Kehlbach / Gurgelbach / Siedlung am gurgelnden Gewässer", in der zweiten Theorie als "*Throdmend- Berg mit einer Kerbe / Berg mit einem Einschnitt / Hügel mit einer Kerbe / Hügel mit einem Einschnitt". Bei beiden Deutungen handelt es sich um eine geografische Besonderheit, die heute überbaut ist und nicht mehr zu erkennen ist oder – in der zweiten Theorie – einen Hinweis auf eine Burg nördlich der Stadtmauern mit dem Fluss Kuckelke als Einschnitt gibt. Die Existenz einer solchen Burg ist umstritten. Von spätmittelalterlichen Chronisten ist eine volksetymologische Deutung bekannt, nach der es zwei Dörfer gegeben habe, das ' und das ', die beide bei der Burg "Munda" lagen. Um diese Burg habe es eine Auseinandersetzung zwischen Sachsen und Römern – oder auch Franken – gegeben. Den Schlachtruf ' hätten die Burgmannen als "truz" oder "trot" interpretiert und die Angreifer höhnisch "Trotmanni" ("Trutzmänner") genannt. Die Bezeichnung sei dann auf den Ort übergegangen. Bevölkerungsentwicklung. 1895 überschritt die Stadt Dortmund die Grenze von 100.000 Einwohnern, was sie zur Großstadt machte. Nach der Eingemeindung der Stadt Hörde und der Landkreise Dortmund und Hörde lebten 1929 etwa 536.000 Personen in der Stadt. Der Zweite Weltkrieg entvölkerte das zerstörte Dortmund. Im April 1945 zählte man 340.000 Menschen. Danach siedelten sich viele ins ländliche Umland evakuierte Menschen und Flüchtlinge in Dortmund an. Die Einwohnerzahlen stiegen rasch. 1965 wurde mit 657.804 Bürgern ein Höchststand erreicht. Stadtplaner träumten von einer Millionenmetropole, doch wie in den umliegenden Städten des Ruhrgebiets sank die Bevölkerungszahl. So lag die amtliche Einwohnerzahl am 31. Dezember 2014 bei 589.283. Dieser Trend hat sich aber mittlerweile wieder umgekehrt. So prognostiziert der Landesbetrieb Information und Technik Nordrhein-Westfalen (IT.NRW) für Dortmund bis zum Jahr 2040 einen Anstieg der Bevölkerungszahlen um 5,1 % auf 604.100 Personen. Religionen. Von den 588.168 Einwohnern Dortmunds gehören 34,6 % der evangelischen und 29,6 % der katholischen Kirche an. 0,7 % sind jüdischen Glaubens. Die Religionszugehörigkeit von 34,8 % der Bevölkerung wird vom Amt für Statistik und Wahlen der Stadt Dortmund (entsprechend der deutschen amtlichen Statistik) statistisch nicht aufgegliedert. Von ihnen sind etwa 25 % konfessionslos; gemessen an den Zahlen zur Herkunft der Dortmunder Bevölkerung sind etwa 6 bis 8 % islamischen Glaubens. Christentum. Die Propsteikirche vom Hansaplatz aus gesehen Dortmund gehörte seit der Gründung zum Erzbistum Köln und war Sitz eines Archidiakonats. Ab 1523 fasste allmählich die Reformation Fuß. Doch wurde erst ab 1562 das Abendmahl in beiderlei Gestalt ausgeteilt. Die Stadt war danach überwiegend protestantisch. Als Freie Reichsstadt konnte Dortmund auch die religiösen Angelegenheiten selbst regeln und so erhielt die Stadt 1570 ein neues Kirchenregiment. Vorherrschend war das lutherische Bekenntnis. Das reformierte Bekenntnis war bis 1786 überhaupt nicht zugelassen. 1625 errichtete der Rat die Superintendentur Dortmund. Hieraus entstand nach dem Übergang an Preußen der spätere Kirchenkreis Dortmund innerhalb der Evangelischen Kirche in Preußen beziehungsweise dessen westfälischer Provinzialkirche. 1960 wurde der Kirchenkreis Dortmund in vier Kirchenkreise aufgeteilt. Bis Ende 2013 bildeten die Kirchenkreise Dortmund-Mitte-Nordost (12 Kirchengemeinden), 2002 fusioniert aus den Kirchenkreisen Dortmund-Mitte und Dortmund-Nordost, Dortmund-Süd (8 Kirchengemeinden) und Dortmund-West (5 Kirchengemeinden) mit ihren zugehörigen Kirchengemeinden zusammen mit dem benachbarten Kirchenkreis Lünen (4 Kirchengemeinden) die „Vereinigten Kirchenkreise Dortmund - Verband der evangelischen Kirchengemeinden und Kirchenkreise in Dortmund und Lünen“. Am 1. Januar 2014 haben sich die vier Kirchenkreise zum Evangelischen Kirchenkreis Dortmund vereinigt. Mit seinen 28 Kirchengemeinden, 24 in Dortmund, 3 in Lünen und einer in Selm ist er Teil der Evangelischen Kirche von Westfalen. Evangelischen Kirche von Westfalen. Auch nach Einführung der Reformation gab es noch wenige Katholiken in Dortmund, die weiterhin zum Erzbistum Köln gehörten. Ihnen verblieben zunächst nur die Klosterkirchen für gottesdienstliche Nutzungen. 1616 erhielt jedoch das Dominikanerkloster wieder Pfarrrechte. Nach 1803 wurden die katholischen Klosterkirchen entweder säkularisiert oder gar abgebrochen. Die Kirche des aufgehobenen Dominikanerklosters blieb als Propsteikirche erhalten. 1821 wurden die Katholiken dem Bistum beziehungsweise Erzbistum Paderborn zugeordnet. Infolge starker Zuwanderung im 19. Jahrhundert und frühen 20. Jahrhundert, insbesondere aus der damaligen Provinz Posen, nahm auch die Zahl der Katholiken stark zu. 1832 wurde Dortmund Sitz eines katholischen Dekanats. Neben den landeskirchlich-evangelischen und katholischen Gemeinden in Dortmund existieren verschiedene Freikirchen, darunter mehrere evangelisch-freikirchliche Gemeinden (Baptisten) (Christuskirche Dortmund-Mitte, Feldherrnstraße, Brückengemeinde Dortmund-Hörde, Auferstehungsgemeinde Dortmund-Eving, Evangelisch-Freikirchliche Gemeinde Dortmund-Asseln, Evangelisch-Freikirchliche Gemeinde Dortmund-Mitte, Saarbrücker Straße (Brüderbewegung) und Evangelisch-Freikirchliche Gemeinde Dortmund-Huckarde), die Freie evangelische Gemeinde Dortmund-Körne und die Evangelisch-methodistische Kirche Dortmund-Mitte. Auch die Altkatholische Kirche ist in Dortmund vertreten. Griechisch-orthodoxe Kirche der Heiligen Apostel In Dortmund sind die griechisch-orthodoxe Kirche, die Serbisch-Orthodoxe Kirche und die Mazedonisch-Orthodoxe Kirche vertreten.1961 wurde unter dem Archimandriten Ánthimos Drakonákis der Beschluss gefasst, eine griechisch-orthodoxen Gemeinde in Dortmund zu gründen (Kirche der Heiligen Apostel zu Dortmund, griech. I.N. Αγίων Αποστόλων Ντόρτμουντ - I.N. Agíon Apostólon Dortmund). Es handelt sich somit vermutlich um die erste Gründung einer griechisch-orthodoxen Gemeinde, die im Zusammenhang mit dem Anwerben von Gastarbeitern steht. Bis dahin hatte es nur dort Gemeinden gegeben, wo Griechen seit über 200 Jahre als Kaufleute sesshaft waren. Der damalige griechisch-orthodoxe Metropolit von Deutschland, Polífektos (Finfinís), wies den neu gegründeten griechisch-orthodoxen Gemeinden in Deutschland ihren jeweiligen Amtsbezirk zu. Dem frisch geweihten Presbyter Tilémachos (Margarítis) übergab er Ende des Jahres 1965 die Kirchengemeinde Dortmund und damit die seelsorgerliche Verantwortung für die orthodoxen Christen des östlichen Ruhrgebiets. Tilemachos hatte dieses Amt bis zum Oktober 2006 inne. Ihm folgte der Archimandrit Dr. Filótheos. Dortmund ist Sitz des Sekretariats der Orthodoxen Bischofskonferenz in Deutschland. Daneben gibt es als weitere Religionsgemeinschaften, die ihre Wurzeln im Christentum haben, die Zeugen Jehovas und die Kirche Jesu Christi der Heiligen der Letzten Tage („Mormonen“). Die Mormonen betreiben in Dortmund eine genealogische Forschungsstelle. Seit dem Jahr 1896 ist durch die Gründung der Gemeinde Dortmund-Nord (fusionierte 2008 mit der Gemeinde Dortmund-Eving) die Neuapostolische Kirche auch in Dortmund vertreten. Ebenfalls befindet sich seit rund 60 Jahren die Verwaltung der Neuapostolischen Kirche Nordrhein-Westfalen in Dortmund. Sie beschäftigt dort 34 Mitarbeiter in den Bereichen Kirchenleitung, Verwaltungsleitung, Bau, Finanzen und Service. Durch den demographischen Wandel in der Gesellschaft und die steigende Zahl inaktiver Kirchenmitglieder wurden in den letzten Jahren einige Standorte aufgegeben und Gemeinden zusammengelegt. Im Jahr 2012 gab es noch 24 Gemeinden im Stadtgebiet, aktuell (Stand 2015) sind es 17 Gemeinden. Islam. Bedeutendste nichtchristliche Religionsgemeinschaft in Dortmund ist der Islam. Viele Moscheen und Gebetshäuser (vor allem in der stark türkisch besiedelten nördlichen Innenstadt) machen dies deutlich. Zurzeit gibt es in Dortmund etwa 30 Moscheevereine, die seit September 2007 von einem gemeinsamen Rat der Muslime in Dortmund vertreten werden. Die islamischen Strukturen in Dortmund gründeten in Vereinen meist türkischstämmiger Arbeitsmigranten. Der 1966 gegründete Verein Türkischer Arbeitnehmer in Dortmund und Umgebung richtete 1973 die erste islamische Gebetsstätte in einem ehemaligen evangelischen Gemeindehaus in der Dortmunder Nordstadt ein. Mitte der siebziger Jahre gab es zahlreiche Gründungen von Vereinen gemeinsamer religiöser Identität. Unterstützt wurden diese Gemeinden häufig durch das Amt für Religiöse Angelegenheiten (türkisch:, kurz: DİB), das seit Anfang der 1970er Jahre in der Türkei ausgebildete islamische Theologen in die deutschen Moscheevereine entsandte. Im November 1976 wurde der erste islamische Theologe als Lehrer und Vorbeter in Dortmund begrüßt. Zwischen 1979 und 1983 bestand die Islamische Gemeinde Dortmund als selbstständiger Dachverband der islamischen Gemeinden in Dortmund. Diese löste sich 1983 auf, da die Gründung einer sogenannten Diyanet-Stiftung seitens des Religionsattachés der türkischen Botschaft angedacht war. Diese Stiftung wurde letztlich nicht realisiert und die Dortmunder Gemeinden schlossen sich schließlich der Türkisch-Islamischen Union der Anstalt für Religion (türkisch:, kurz: D.I.T.I.B.) an. Zur D.I.T.I.B. gehören heute zehn Gemeinden in Dortmund. Neben den an den nationalen Gegebenheiten in der Türkei orientierten Moscheevereinen existieren in Dortmund weitere islamische Gemeinden, zum Beispiel die Islamische Gemeinschaft Millî Görüş und Alevitische Gemeinde mit anderen spirituellen Ausrichtungen. Als sich in den 1990er Jahren abzeichnete, dass die Arbeitsmigranten dauerhaft in Dortmund bleiben würden, hatte dies auch Auswirkung auf die Moscheevereine. Die bis dahin lose organisierten Vereine organisierten sich nach deutschem Vereinsrecht und strebten Gemeinnützigkeit an. Die zuvor häufig in Hinterhäusern untergebrachten Gebetsstätten zogen in die Vorderhäuser. Der Islam wurde sichtbarer. Der Trend zum Bau repräsentativer Moscheen, wie er in ganz Deutschland zu beobachten ist, hält auch in Dortmund an. Im Herbst 2007 bildeten die Vertreter der meisten Moscheegemeinden unter Beteiligung aller wichtigen islamischen Organisationen in Deutschland einen „Rat der muslimischen Gemeinden in Dortmund“. Judentum. Dortmunder Synagoge und Sitz des Landesverbandes jüdischer Gemeinden von Westfalen-Lippe Das früheste Dokument, das auf die Existenz von Juden in der früheren Hanse- und Reichsstadt Dortmund hinweist, ist ein Privileg Heinrichs IV. von 1074; eine zweite urkundliche Erwähnung von Juden stammt aus dem Jahre 1096. Die meisten Wohnstätten der Dortmunder Juden, ihr Bethaus und die Mikwe lagen am westlichen Rand des Stadtkerns. Im Zusammenhang mit den Pestpogromen 1460/1465 wurden die Juden aus Dortmund vertrieben und siedelten sich erst im 16. Jahrhundert wieder in umliegenden Ortschaften u.a. in Dorstfeld, Hörde, Schwerte, Unna an. Erst zu Beginn des 19.Jahrhunderts gestattete die Stadt Dortmund wieder jüdische Ansiedlung in ihren Mauern. Seit Mitte des 19.Jahrhunderts wuchs die Zahl der in Dortmund ansässigen Juden stetig infolge der industriellen Entwicklung des Ruhrgebietes. Im Zuge dessen entstand 1895 als zentrale, repräsentative Betstätte die Alte Synagoge. Mit 1300 Plätzen, davon 750 für Männer reservierte Sitzplätze im Erdgeschoss und 450 Plätze für Frauen auf den Emporen des Kuppelbaus, war die Synagoge zu ihrer Zeit eines der größten jüdischen Bethäuser in Deutschland. Als eine von wenigen jüdischen Gemeinden in Deutschland, wurde die Gemeinde noch vor den Novemberpogromen 1938 ihres Besitzes enteignet und der Abriss vollzogen. Neben der großen Synagoge in der Innenstadt gab es auch in Dortmund-Hörde und Dortmund-Dorstfeld jüdische Gemeinden mit eigenen Synagogen, die ebenfalls zerstört wurden. Die anschließende erzwungene Auswanderung im Nationalsozialismus und der Holocaust dezimierten die jüdische Bevölkerung Dortmunds drastisch. In den 1990er Jahren ist die Jüdische Gemeinde durch den Zuzug von Juden aus der ehemaligen Sowjetunion wieder erheblich gewachsen. Heute umfasst die orthodoxe Kultusgemeinde 4200 Mitglieder. Sie betreibt neben einer Synagoge auch einen Kindergarten. Auch der jüdische Teil des Dortmunder Hauptfriedhofs wird heute wieder aktiv genutzt. Dortmund ist Sitz des Landesverbandes der Jüdischen Gemeinden von Westfalen-Lippe. Weitere Religionsgemeinschaften. In Dortmund existieren zwei Thai-Buddhistische Gemeindezentren: das Wat Metta Parami im Hüttenbruchweg und das Wat Dhammabharami auf der Engelbertstrasse. Neben diesen beiden Gemeinden, die am Theravada-Zweig des Buddhismus orientiert sind, gibt es auch ein Zentrum, das eine Form des Vajrayana vertritt. Dieses gehört dem Buddhistischen Dachverband Diamantweg e. V. an. Für die hinduistische Gemeinde der in Dortmund lebenden Tamilen ist der Sri-Kamadchi-Ampal-Tempel in Hamm von großer Bedeutung. Interreligiöser Dialog. Die Ursprünge des christlich-islamischen Dialogs in Dortmund finden sich im 1969 initiierten Arbeitskreis für Religion und Weltanschauung der Rheinisch-Westfälische Auslandsgesellschaft. In den 1990er Jahren fanden erste direkte Kontakte zwischen christlichen und islamischen Gemeinden im Arbeitskreis Kirche und Moschee statt. Diese Arbeitskreise existieren heute nicht mehr. Seit 1993 widmet sich das gemeinsam von Christen und Muslimen initiierte Dortmunder Islamseminar der interreligiösen Zusammenarbeit zwischen Muslimen und Christen. Träger des Islamseminars sind die Abu-Bakr-Moschee Dortmund, die Moschee Bachstraße des VIKZ, die (evangelischen) Kirchenkreis Dortmund-Lünen, das Katholische Forum Dortmund und die Dortmunder DITIB-Gemeinden. Dem Zusammenleben von Juden und Christen in Dortmund widmet sich die Gesellschaft für christlich-jüdische Zusammenarbeit Dortmund e. V. Überblick. a> als eine von 12 Bezirksvertretungen in Dortmund Dortmund ist eine kreisfreie Stadt im Regierungsbezirk Arnsberg des Lands Nordrhein-Westfalen und handelt in freier Selbstverwaltung durch ihre Organe. Gemäß dem Gesetz über die Kommunalwahlen im Lande Nordrhein-Westfalen, der Gemeindeordnung für das Land Nordrhein-Westfalen und der Hauptsatzung der Stadt Dortmund sind dies der Rat der Stadt Dortmund und der Oberbürgermeister. Alle fünf Jahre wählen die Dortmunder Bürger den 82-köpfigen ehrenamtlichen Rat der Stadt Dortmund (2012: zusätzlich 4 Überhang- und Ausgleichsmandate) und den hauptamtlichen Oberbürgermeister. Der Rat wählt zwei ehrenamtliche Bürgermeister als Stellvertreter des Oberbürgermeisters. In den zwölf Stadtbezirken wird außerdem jeweils eine 19-köpfige ehrenamtliche Bezirksvertretung gewählt, die aus ihrer Mitte einen Bezirksbürgermeister (bis 2008: Bezirksvorsteher) und einen oder mehrere Stellvertreter wählt. Dem Oberbürgermeister obliegen die Geschäfte der laufenden Verwaltung, er leitet die Ratssitzungen und repräsentiert die Stadt. Der Oberbürgermeister ist verpflichtet, die Beschlüsse des Rats auszuführen. Der Rat wählt außerdem einen Stadtdirektor und bis zu neun weitere Stadträte als Stellvertreter des Oberbürgermeisters in der Verwaltung der Stadt. In den neun Außenstadtbezirken befinden sich Bezirksverwaltungsstellen. Neben den Organen der kommunalen Selbstverwaltung werden in Dortmund vier Landtagsabgeordnete und zwei Bundestagsabgeordnete per Direktmandat gewählt, bei der Europawahl werden die Kandidaten ausschließlich über Listen gewählt. In der Parteienlandschaft Dortmunds sind alle großen deutschen Parteien vertreten. Als rein kommunale Gruppe treten die Bürgerliste für Dortmund, die im Rat eine Fraktionsgemeinschaft mit der FDP bildet, auf. Eine dominierende Stellung nimmt die SPD ein: sie stellt seit 1946 ununterbrochen den Oberbürgermeister, bis 1999 auch die absolute Mehrheit im Rat, sämtliche direkt gewählten Abgeordneten auf Landes- und Bundesebene und erzielen bis heute Wahlergebnisse um die 50 %. Herbert Wehner sprach in diesem Zusammenhang von Dortmund als der „Herzkammer der Sozialdemokratie“. Politische Geschichte. Die Selbstverwaltung der Stadt Dortmund hat eine lange Tradition. Seit etwa 1240 ist ein Rat belegt und vom König anerkannt, 1288 wurden erstmals Bürgermeister erwähnt und 1504 gingen auch die verbliebenen Rechte an der die Stadt umgebenen Grafschaft Dortmund von den Grafen an die Stadt über. An der Spitze der Stadt Dortmund stand in Zeiten der Freien Reichsstadt der 18-köpfige, später zwölfköpfige, patrizische Rat, der im Laufe der Zeit verschiedentlich zusammengesetzt war. Die Amtszeit dauerte zunächst ein Jahr, wobei die Mitglieder turnusmäßig wechselten, sodass es einen „alten Rat“ und einen „neuen Rat“ beziehungsweise „sitzenden Rat“ gab. Seit Ende des 15. Jahrhunderts wurden die Ratsherren auf Lebenszeit gewählt. Von den sechs Obersten Ratsherren führten zwei den Titel „Bürgermeister“. Der siebte Sitz war dem Freigrafen vorbehalten. Nach 1803 übernahm ein fürstlich-oranischer Stadtmagistrat die Amtsgeschäfte und in französischer Zeit gab es einen Maire, dem ein Munizipalrat zur Seite stand. Als Dortmund 1815 preußisch wurde, gab es einen Bürgermeister und einen Gemeinderat. Mit Einführung der Städteordnung 1835 leiteten der Magistrat und das Stadtverordnetenkolleg unter Vorsitz des Bürgermeisters die Verwaltung. Ab 1860 trug das Stadtoberhaupt den Titel Oberbürgermeister. Während der Zeit des Nationalsozialismus wurde der Oberbürgermeister von der NSDAP eingesetzt. Nach dem Zweiten Weltkrieg setzte die Militärregierung der Britischen Besatzungszone einen neuen Oberbürgermeister ein und 1946 führte sie die Kommunalverfassung nach britischem Vorbild ein. Danach gab es einen vom Volk gewählten Rat der Stadt (anfangs noch nach dem britischen Mehrheitswahlrecht gewählt), dessen Mitglieder man als Stadtverordnete bezeichnet. Der Rat wählte anfangs aus seiner Mitte den Oberbürgermeister als Vorsitzenden und Repräsentanten der Stadt, der ehrenamtlich tätig war. Des Weiteren wählte der Rat ab 1946 ebenfalls einen hauptamtlichen Oberstadtdirektor als Leiter der Stadtverwaltung. 1999 wurde die Doppelspitze in der Stadtverwaltung aufgegeben. Seither gibt es nur noch den hauptamtlichen Oberbürgermeister. Rat und Oberbürgermeister. → "Siehe auch: Ergebnisse der Kommunalwahlen in Dortmund", "Ergebnisse der Kommunalwahlen vor 1975" Die letzte Kommunalwahl fand in Dortmund am 25. Mai 2014 statt. Die SPD erreichte 38,2 % der Stimmen (36 Sitze), die CDU 27,2 % (26 Sitze), die Grünen 15,4 % (15 Sitze), Die Linke 6,8 % (6 Sitze), die AfD 3,4 % (3 Sitze), die FDP 2,4 % (2 Sitze), die Piraten 2,3 % (2 Sitze), Die Rechte 1,0 % (1 Sitz), die Bürgerliste für Dortmund 1,0 % (1 Sitz), die NPD 0,9 % (1 Sitz) und die Freie Bürger-Initiative 0,7 % (1 Sitz). Nicht im Stadtrat vertreten sind das BIG mit 0,3 %, Die PARTEI mit 0,1 %, die DKP mit 0,1 %, die Demokratische Unabhängige Wählervereinigung mit 0,1 % sowie ein Einzelbewerber mit 0,0 %. Bei der Wahl zum Oberbürgermeister am 25. Mai 2014 verfehlte der seit 2009 amtierende Oberbürgermeister Ullrich Sierau (SPD) die absolute Mehrheit. Deshalb muss er sich am 15. Juni 2014 einer Stichwahl gegen Annette Littmann, Kandidatin von CDU und Bürgerliste, stellen. Im ersten Wahlgang erhielt Sierau 43,7 %, Littmann 32,0 %. Daniela Schneckenburger (Grüne) erhielt 11,2 %, Hans-Christian Tödt (Die Linke) 5,8 %. 5 weitere Kandidaten erhielten zusammen 7,5 %. In der Stichwahl setzte sich Ullrich Sierau (SPD) mit 51,6 % der Stimmen gegen Annette Littmann (CDU), die 48,4 % der Stimmen erhielt, durch. Unterbrochen von einer konfliktgeladenen Koalition mit den Grünen (2004–2009) regiert die SPD seit dem Verlust der absoluten Mehrheit im Jahr 1999 mit wechselnden Mehrheiten. Die Haushaltspläne werden in der Regel gemeinsam von SPD und CDU beschlossen, fallweise auch von SPD und Grünen. Die nächste reguläre Kommunalwahl findet wieder im Jahr 2020 statt. Parteien und Wählergruppen. In Dortmund sind folgende Parteien und Wählergruppen vertreten: die SPD (Unterbezirksvorsitzende Nadja Lüders, Fraktionsvorsitzender Norbert Schilff), die CDU (Kreisvorsitzender Steffen Kanitz, Fraktionsvorsitzender Ulrich Monegel), die GRÜNEN (Kreisverbandssprecher Hilke Schwingeler und Remo Licandro, Fraktionssprecher Ingrid Reuter und Ulrich Langhorst), DIE LINKE. (Kreissprecher Christian Seyda und Christiane Tenbensel, Fraktionsvorsitzender DIE LINKE & PIRATEN Utz Kowalewski), die PIRATEN (Kreisvorstandsvorsitzende Dirk Pullem und Nadja Reigl, stv. Fraktionsvorsitzender DIE LINKE & PIRATEN Christian Gebel), die AfD (Kreisvorstandssprecher Peter Bohnhof, Fraktionsvorsitzender Heiner Garbe), die FDP (Kreisvorsitzender Michael Kauch, Fraktionsvorsitzender FDP/BL Lars Rettstadt), die Bürgerliste für Dortmund (Erster Vorsitzender und stv. Fraktionsvorsitzender FDP/BL Thomas Reinbold), DIE RECHTE (Kreisvorstandsvorsitzender zurzeit unbekannt), die NPD (Kreisvorsitzender Matthias Wächter), die FBI (Vorsitzender Detlef Münch), das BIG (Kreisvorsitzender zurzeit unbekannt), Die PARTEI (Kreisverbandsvorsitzender Olaf Schlösser), die DKP (Kreisvorsitzende Doris Borowski), die DUW (Vorsitzender Ingo Meyer), das RRP (Kreisvorstandsvorsitz zurzeit vakant) und Pro NRW (Kreisvorsitzender Max Branghofer). Bundestagsabgeordnete. Das Dortmunder Stadtgebiet bildet zwei Bundestagswahlkreise. Der Bundestagswahlkreis 142 (ehem. 143) Dortmund I umfasst die westlichen Stadtbezirke. Hier fiel 2013 mit 45,4 Prozent der abgegebenen Erststimmen das Direktmandat an den SPD-Abgeordneten Marco Bülow, der auch schon 2009, 2005 und 2002 diesen Wahlkreis errungen hatte. Über die Landesliste zogen im Jahre 2013 Markus Kurth, GRÜNE, sowie Ulla Jelpke, DIE LINKE, in den 18. Deutschen Bundestag ein. Am 1. Januar 2015 rückte Thorsten Hoffmann, CDU, über die Landesliste in den Bundestag nach. Die östlichen Stadtbezirke bilden den Bundestagswahlkreis 143 (ehem. 144) Dortmund II. Hier fiel das Direktmandat 2013 mit 46,7 Prozent auf Sabine Poschmann, SPD. Über die Landesliste wurde Steffen Kanitz, CDU, gewählt. Verschuldung. Die Gesamtsumme der Verschuldung der Stadt Dortmund beläuft sich zum Jahresende 2012 auf 3,541 Milliarden Euro. Jeder Einwohner ist damit mit 6197 Euro verschuldet. Wappen und Farben. „Die Flagge der Stadt enthält die Farben Rot und Weiß in Längsstreifen.“ Neben Wappen und Farben gab es seit 1994 ein Logo, das die stilisierten Buchstaben DO in einem rechtsoffenen Halbkreis aus neun dunkelblauen fünfzackigen Sternen zeigt. Die Sterne werden nach unten hin kleiner. Der senkrechte Strich im D ist nach oben verlängert und nochmals kurz gekreuzt. Er soll den Florianturm darstellen, während zwei gebogene Striche über dem O auf die große Westfalenhalle anspielen. Die beiden Buchstaben sind in Petrol gehalten. Die Darstellung mit Sternen galt als Europalogo, teilweise fand man das Logo auch ohne Sterne. Im Frühjahr 2005 wurde das städtische Corporate Design aber wieder auf die traditionellen Farben und Symbole umgestellt. Außerdem stellt die Stadt Dortmund für Bürger oder Unternehmen, die ihre Verbundenheit mit Dortmund zeigen wollen, noch eine Stadtsilhouette mit mehreren markanten Gebäuden in der Farbe des ehemaligen Logos zur Verfügung. Städtepartnerschaften. Dortmund pflegt derzeit offiziell acht internationale Städtepartnerschaften sowie eine innerdeutsche Städtefreundschaft. Die älteste Städtepartnerschaft Dortmunds besteht zu Amiens in Frankreich. Erste Schritte zu einer solchen Partnerschaft entwickelten sich aus privaten Kontakten eines Bürgermeisters und Überlegungen des Auslandsinstituts bereits 1952. Ab 1957 kam es zu verstärkten Kontakten zwischen den Städten, und am 2. April 1960 erfolgte die Proklamation durch den Rat der Stadt Dortmund. Noch weiter reicht die Partnerschaft zu Leeds im Vereinigten Königreich zurück. Bereits Ende 1949 wurde von der britischen der Vorschlag gemacht, Beziehungen zwischen dem und dem Regierungsbezirk Arnsberg aufzunehmen, da sich beide Gebiete strukturell ähnelten. Die eigentliche Städtepartnerschaft geht auf eine Reise mehrerer Bürgermeister aus dem Ruhrgebiet in diese Region im Jahr 1957 zurück, bei der eine partnerschaftliche Beziehung zwischen Leeds und Dortmund erwogen wurde. In der Folge intensivierten sich die Kontakte, und am 2. Juni 1969 kam es schließlich zur Unterzeichnung des Partnerschaftsabkommen durch die Stadt Dortmund. Beide Partnerschaften standen noch im Schatten des Zweiten Weltkriegs und waren geprägt von dem Willen, eine derartige Katastrophe sich nicht wiederholen zu lassen. Sie sollten den Gedanken der Völkerverständigung und europäischen Freundschaft auch in der Bevölkerung verankern. Der Gedanke der Völkerverständigung spiegelte sich auch in der Partnerschaft zu Buffalo im US-Bundesstaat New York wider, allerdings gingen hier die Bemühungen wesentlich stärker von der Partnerstadt aus, die sich daneben von dieser auch eine Stärkung der Kultur der dortigen deutschstämmigen Bevölkerung erhoffte. Erste Bemühungen vonseiten Buffalos fanden bereits 1950 statt, zu einem umfangreicheren Austausch kam es aber erst Mitte der 1970er Jahre. Der offizielle Beschluss wurde schließlich am 4. Juli 1977 gefasst. Exakt ein Jahr später fasste der Rat den Beschluss, auch eine Städtepartnerschaft mit Rostow am Don in der damaligen UdSSR (heute Russland) aufzunehmen. Sie entwickelten sich aus den Auslandskulturtagen der Stadt von 1973 mit der Sowjetunion. Aufgrund der großen geographischen Entfernung und der Zugehörigkeit zu unterschiedlichen Blöcken, stellte diese Städtepartnerschaft von Anfang an eine Besonderheit dar. Zu intensiven Kontakten kam es entsprechend erst nach Ende des Kalten Krieges. Die Städtepartnerschaft zu Netanja in Israel, am 12. Juni 1980 vom Rat der Stadt Dortmund beschlossen, geht auf eine Einladung aus dem Jahr 1972 an ehemalige Dortmunder Bürger, die als Juden aus Deutschland fliehen mussten, die Stadt zu besuchen, zurück. Infolgedessen wurde von Seiten Dortmunds der Wunsch an den israelischen Städteverband gerichtet, eine Partnerschaft mit einer israelischen Stadt aufzunehmen. Kurz darauf kündigte der Bürgermeister von Netanja Interesse an einer solchen Partnerschaft an. Aus dieser sind sechs Dortmunder Schulpartnerschaften hervorgegangen. Ebenfalls auf die Dortmunder Auslandskulturtage geht die Partnerschaft mit Novi Sad im damaligen Jugoslawien (heute Serbien) zurück. Im Anschluss an die Veranstaltung 1978 teilte der Bürgermeister Novi Sads mit, dass vom jugoslawischen Konsulat eine Städtepartnerschaft mit Dortmund in Erwägung gezogen werde. Am 26. März 1981 unterzeichnete der Rat schließlich ein Partnerschaftsabkommen. Die jüngste Dortmunder Städtepartnerschaft mit Xi’an in der Volksrepublik China geht auf geschäftliche Kontakte der ThyssenKrupp Uhde GmbH und eine Partnerschaft der Technischen Universität Dortmund mit der Jiaotong-Universität Xi’an zurück. Im Februar 1986 lagen Dortmund Anfragen mehrerer Städte nach einer Partnerschaft vor, und man entschied sich schließlich aufgrund der bestehenden Kontakte und der guten Verkehrsanbindung für Xi’an. Daraufhin intensivierten sich die Kontakte und am 1. April 1989 unterzeichnete der Volkskongress der Stadt Xi’an die Partnerschaftserklärung. Aufgrund des Tian’anmen-Massakers bestätigte die Stadt Dortmund die Partnerschaft nicht offiziell, sodass diese formal erst seit dem 27. Juni 1991 besteht. Am 2. Juni 2014 wurde die Städtepartnerschaft zwischen Trabzon und Dortmund besiegelt. Der damalige Ausländerbeirat, heute Integrationsrat, hatte sich bereits 2008 für die Projektpartnerschaft ausgesprochen und sich im Nachgang – unter Beteiligung zahlreicher Akteure innerhalb und außerhalb von Politik und Verwaltung – intensiv für die Begründung einer offiziellen Städtepartnerschaft eingesetzt. Neben diesen bilateralen Beziehungen ist Dortmund Mitglied in den Vereinigungen Eurocities, Rat der Gemeinden und Regionen Europas und. Historische Beziehungen zu anderen Städten leben in der Neuen Hanse fort. Seit dem 14. Januar 2008 ist die Stadt Mitglied des innen. Nach dem Zweiten Weltkrieg bildete sich der Patenschaftsarbeitskreis Waldenburger Bergland/Dortmund, der bis 2008 alle zwei Jahre das Waldenburger Heimattreffen für den Kreis und die Stadt Waldenburg in der Westfalenhalle veranstaltete. Jugendpolitik. Dortmund ist bekannt als Hochburg der Schüler- und Jugendpolitik. Die Bezirksschülervertretung Dortmund gehört zu den bundesweit stärksten Schülerorganisationen. Seit 2005 gewinnen die Schülervertretungen in der Stadtöffentlichkeit an Bedeutung und sitzen mit im Kinder- und Jugendring sowie im Kinder- und Jugendausschuss des Rates. Dem „Ring Politische Jugend Dortmund“, der die Gelder für Dortmunder Jugendorganisationen verteilt, gehören die Jusos, die Junge Union, die Grüne Jugend, die Jungen Liberalen und die Linksjugend an. Als bekanntestes, von Jugendlichen organisiertes Projekt gilt Rock in den Ruinen, mit über 15.000 Besuchern, das jährlich von der Juso AG Hörde und dem SPD-Stadtbezirk Hörde organisiert wird. Stadtbild. Boulevard Kampstraße als Beispiel der autogerechten Stadtplanung Durch insgesamt 105 Luftangriffe und mehr als 22.242 Tonnen Bomben wurde das historische Stadtzentrum zu 95 % zerstört. Insbesondere durch den Luftangriff vom 12. März 1945, der der schwerste konventionelle Luftangriff war, der im gesamten Verlauf des Zweiten Weltkriegs gegen eine Stadt in Europa durchgeführt worden war, sind in der ehemaligen Altstadt innerhalb des Wallringes nur noch wenige alte Gebäude und Straßenzüge in ihrer ursprünglichen Form erhalten geblieben. Es wurde von der britischen Militärregierung und dem Dortmunder Baudezernenten Friedrich Delfs sogar erwogen, die Trümmer als Mahnmal gegen den Krieg vor Ort liegen zu lassen und Dortmund an einer anderen Stelle neu zu errichten. Der tatsächliche Wiederaufbau wurde jedoch durch die im Boden vorhandenen Infrastrukturleitungen und die darüber liegenden Straßen bestimmt. Ausnahme bilden hierbei die Nord-Süd Achse entlang der Kleppingstraße und die Ost-West Achse entlang der Kampstraße in der Innenstadt, die im Zeitgeist der aufgelockerten und autogerechten Stadtentwicklung durch die Altstadt geschlagen worden sind. Beim Großteil des Wiederaufbaus wurden jedoch Straßenverläufe und die historischen Straßennamen beibehalten, die Bebauung erfolgte hierbei allerdings im Stil der 1950er Jahre. Das öffentliche Bewusstsein der Nachkriegszeit war vom Wunsch geprägt, die städtebauliche Situation als Produkt der Industrialisierung auf den Grundrissen der mittelalterlichen Stadt nicht zu wiederholen. Somit sind weite Teile der Innenstadt von Nachkriegsarchitektur geprägt; dazwischen befinden sich einzelne Bauten, die erhalten geblieben sind. Wenngleich aufgrund der Kriegszerstörung und der Nachkriegs-Stadtplanung kein geschlossenes historisches Stadtbild mehr existiert, so besitzt die Stadt doch zahlreiche Gebäude vieler Epochen, insbesondere hierbei herausragende Beispiele der Nachkriegsmoderne. In den letzten Jahren wurde das Stadtbild durch große städtebauliche Umbaumaßnahmen wie den Umbau der Kampstraße als Boulevard oder den Bau der Thier-Galerie als Einkaufszentrum geprägt. Architektur. Architektonisch gesehen ist Dortmund eine Stadt voller Widersprüche. Die Wahrnehmung wird stark vom Stil der Nachkriegs- und Postmoderne geprägt und erweckt den Eindruck einer jungen Stadt. Tatsächlich besteht aufgrund der über 1125-jährigen Stadtgeschichte jedoch eine Vielzahl von Bauwerken aus verschiedenen Architekturepochen. Besonders sehenswerte Bauten werden zumeist in eigenen Artikeln beschrieben. Bauwerke innerhalb des Wallrings. Die bekannte Häuserzeile am Ostenhellweg Stadtmauer und Adlerturm als Reste der mittelalterlichen Stadtbefestigung Krügerpassage im Krügerhaus am Westenhellweg Entlang des Dortmunder Ostwalls sind lassen sich noch die Strukturen und Ausdehnungen der mittelalterlichen Dortmunder Stadtbefestigung erkennen. Als einziger Wall zeigt der Ostwall jetzt noch die alte Mittelpromenade mit Kastanienallee, die im Zeitraum von 1810 bis 1874 durch das Schleifen der Stadtmauer entstanden ist. Bekannte Bauwerke am Ostwall sind das Schüchtermann-Denkmal, das alte Museum am Ostwall, der Adlerturm und ein Teilstück der historischen über 800 Jahre alten Stadtmauer. Das Alte Stadthaus wurde 1899 nach einem Entwurf von Stadtbaurat Friedrich Kullrich im Stil der Neurenaissance errichtet. Wie viele Gebäude Dortmunds wurde es im Zweiten Weltkrieg stark beschädigt. Zwischen zwei Fenstern der Westseite befindet sich der westfälische Spruch „So fast as düörpm“, zu deutsch: „So fest wie Dortmund“. An der Frontseite sind die Wappen von acht Hansestädten zu sehen, unter anderem von Bremen, Lübeck, Hamburg, Münster und Köln. Den Balkon über dem Portal umrahmen zwei weibliche allegorische Figuren, deren linke die Blütezeit Dortmunds im Mittelalter symbolisiert. In einer Hand hält die Figur das mittelalterliche Rathaus, in der anderen die Hansekogge. Die rechte Figur ist ein Symbol für das neu herangebrochene Industriezeitalter, denn die Figur stützt sich mit dem Arm auf einem Dampfhammer ab, in den Händen hält sie ein Messgerät und einen Plan. Angrenzend an das Alte Stadthaus stehen mit seinem Erweiterungsbau von 1929 an der Ecke Olpe/Kleppingstraße, dem neuen Stadthaus am Südwall von 1952 sowie der Berswordt-Halle von 2002 weitere Gebäude, die zusammen den städtischen Verwaltungskomplex gegenüber dem Dortmunder Rathaus bilden. Neben dem neuen Stadthaus am Südwall befinden sich mit der ehemalige Hauptverwaltung der Vereinigte Elektrizitätswerke Westfalen heute Hauptsitz der DEW 21 und dem Gebäudekomplex der Versicherung für Handwerk, Handel Gewerbe, das heute als Jugendamt der Stadt Dortmund genutzt wird, weitere herausragende Großbauten der 1950er Jahre am Dortmunder Neutor. Die Krügerpassage in der Dortmunder Innenstadt ist die älteste Passage auf Dortmunder Stadtgebiet; sie wurde 1912 im Stil der Neorenaissance von Paul Lutter und Hugo Steinbach erbaut. Jedoch fiel sie im Zweiten Weltkrieg wie viele bedeutende Dortmunder Bauwerke dem Krieg zum Opfer und wurde erst 1953 wieder aufgebaut. Das Vehoff-Haus am Ostenhellweg gehört zu den ältesten steinernen Profanbauten im Dortmunder Stadtzentrum. Es wurde im Jahr 1607 erbaut, im Jahr 1905 durch einen Brand zerstört und in seinen Grundzügen als Kopie des historischen Hauses wiedererrichtet. Dabei wurde es in seiner Höhe an die Nachbargebäude angepasst. Nach der Zerstörung im Zweiten Weltkrieg erfolgte ein zweiter Wiederaufbau mit der Originalhöhe des historischen Hauses von 1607. Es grenzt hierbei direkt an die Dortmunder Marienkirche und befindet sich am Kreuzungsbereich zwischen Westenhellweg und Ostenhellweg. Die Stadt- und Landesbibliothek mit IWO-Hochhaus, RWE-Tower und Sparkassen-Hochhaus Aufgrund der Kriegszerstörung und der Nachkriegs-Stadtplanung befinden sich innerhalb des Dortmunder Wallrings eine Vielzahl von herausragenden Beispielen der Nachkriegsmoderne. Namhafte Architekten wie Harald Deilmann, Will Schwarz und Fido Spröde verwirklichten sich hierbei im Stadtzentrum, herausragende Bauten sind unter anderem das Fritz-Henßler-Haus, das Museum am Ostwall und das Gesundheitshaus Dortmund. Die Gebäude der Architekten rücken hierbei in der letzten Zeit vermehrt in den Fokus des Interesses und werden aufwendig saniert, wie das Beispiel der ehemaligen WestLB Dortmund zeigt. Letztere wurde wegen seiner zeittypischen, von der Pop-Art inspirierten Architektur als jüngstes Baudenkmal 2011 in die Denkmalliste der Stadt Dortmund eingetragen und fachgerecht saniert. Weiterhin befinden sich eine große Anzahl von kleineren Bauwerken innerhalb des Wallrings, die unter Denkmalschutz gestellt wurden oder bereits tief im Bewusstsein der Dortmunder Bevölkerung verankert sind. Der RWE Tower, erbaut nach Plänen des Architekturbüros Gerber, ist nach der Petrikirche und der Reinoldikirche das dritthöchste Bauwerk der Dortmunder Innenstadt und wurde am 24. August 2005 eingeweiht. Das 100 m hohe, im Grundriss linsenförmige Gebäude mit einer Fassade aus anthrazitfarbenem chinesischem Granit wird von der RWE AG genutzt. Er ist zusammen mit den Innenstadtkirchen, dem angrenzenden IWO-Hochhaus und dem Sparkassen-Hochhaus eines der höchsten Gebäude innerhalb des Wallrings Die Stadt- und Landesbibliothek Dortmund wurde 1999 südlich des Dortmunder Hauptbahnhofs eröffnet. Der von Architekt Mario Botta gestaltete Bibliotheksbau besteht aus einem rechteckigen Baukörper aus rosafarbenem Sandstein und einer vorgelagerten Glasrotunde. Das Konzerthaus Dortmund im Brückstraßenviertel an der Kreuzung der Brückstraße mit der Ludwigstraße wurde im September 2002 eröffnet. Das Konzerthaus (auch Philharmonie für Westfalen genannt) reiht sich in die vorhandene Fassadenreihe ein, aber sticht gleichzeitig durch die Eckposition und die schräge hervor. Die optische Verbindung mit den anderen Fassaden wird durch eine gläserne Passage zwischen Konzerthaus und Nachbargebäude erreicht. In den Abend,- und Nachtstunden kann wird die komplette Fassade durch LED-Elemente bespielt werden. Durch die enge und dichte Bebauung innerhalb des Brückstraßenviertel musste auf einen Vorplatz verzichtet werden, doch das Eingangsfoyer, die ganz aus Glas gestaltete Erdgeschosszone, bindet das Haus ganz natürlich in den Stadtraum ein. Die Thier-Galerie mit ihren 33.000 Quadratmetern ist eines der neusten Großprojekte innerhalb des Wallrings. Neben einem modernen großflächigen Neubau, wurde außerdem der ehemalige Verwaltungsbau der Thier-Brauerei aus den 1950er Jahren reaktiviert und das ehemalige Clemenschen Kaufhaus von 1902 als Repräsentationsbaut des Klassizismus am Westenhellweg detailgetreu und mit einer neuen Außenterrasse rekonstruiert. Bauwerke außerhalb des Wallrings. Neben dem RWE Tower, IWO-Hochhaus und dem Sparkassen-Hochhaus besitzt Dortmund noch weitere Hochhäuser, denn in den letzten Jahren hat sich in der Stadt ein beachtliches Cluster an Hochhäusern mittlerer Gebäudehöhe entwickelt. Zusammen mit dem mittelalterlichen Kirchen St. Reinoldi und St. Petri bilden die Bürotürme die Dortmunder Skyline. Die Entwicklung wird derzeitig von der Stadt im neuen Stadtentwicklungskonzept Dortmund 2030 weiter voran getrieben. Hierbei sollen einzelne Orte innerhalb der Innenstadt als Stadttore akzentuiert und kenntlich gemacht werden und so eine stark ausgeprägte Silhouette – die „City-Krone“ – ausbilden. Weitere Hochhäuser sind das im April 1994 eröffnete Harenberg City-Center mit 19 oberirdischen und 2 unterirdischen Geschossen bei einer Höhe von 70 m eines der höchsten Häuser der Stadt sowie das Ellipson mit einer Höhe von 60 und 17 Etagen und dem neuen Volkswohl Bund Hochhaus mit 63 Metern am Hohen Wall. Darüber hinaus bestehen am "Rheinlanddamm" und "Westfalendamm" weitere Hochhäuser wie der Florianturm mit 208 Meter, das Telekom-Hochhaus mit 88 Meter und der Westfalentower mit 86 Meter. Das Landesoberbergamt Dortmund – ursprünglich Oberbergamt Dortmund – im Kaiserstraßenviertel entstand im Jahr 1910 nach einem Entwurf des Regierungsbaumeisters Behrendt und des Dortmunder Baurats Claren. Das repräsentative, dreigeschossige Bauwerk nebst Seitenflügel und schiefergedecktem Uhrenturm wurde während des Zweiten Weltkriegs stark beschädigt, aber nach dem Krieg weitgehend im Ursprungszustand wieder aufgebaut. Das Gebäude beherbergt die Abteilung "Bergbau und Energie in NRW" der Bezirksregierung Arnsberg. Das Verwaltungsgebäude Union ist der ehemalige Hauptsitz der Union, AG für Bergbau, Eisen- und Stahl-Industrie an der Rheinische Straßen im Unionviertel. Der neoklassizistischer Backsteinbau aus dem Jahr 1921, wurde von den Architekten Dietrich und Karl Schulze geplant und weist Ähnlichkeiten mit dem Mannesmann-Verwaltungsgebäude in Düsseldorf von Peter Behrens aus dem Jahre 1911/12 auf. Das Union-Gebäude umschließt im Inneren drei Lichthöfe. Nach außen zur Rheinischen Straße präsentiert sich das Gebäude als monumentaler Block. An der Kopfseite des Gebäudes befinden sich zehn Säulen im Stile der Neorenaissance. Oberhalb dieser Säulenreihe prangt weithin sichtbar die Inschrift "„Es lobt den Mann die Arbeit und die Tat.“" Das Dortmunder U, ein denkmalgeschütztes Industriehochhaus aus dem Jahre 1926, gilt als markantes Wahrzeichen der Stadt. Auf dem Dach des ursprünglich als Brauerei genutzten Gebäudes prangt seit 1968 das neun Meter hohe beleuchtete goldene Dortmunder U als Unternehmenszeichen der Union-Brauerei. Nach dem Umzug der Brauerei in die Peripherie wurden seit 2003 alle umliegenden Gebäude abgerissen. Das Gebäude wurde nach seinem Umbau im Zuge der Ruhr.2010 ab Mai 2010 in Etappen wiedereröffnet und wird heute als Kultur- und Kreativzentrum genutzt. Auf zwei der insgesamt acht Etagen befinden sich die Ausstellungsräume des hierher umgezogenen Museums Ostwall. Das Alte Hafenamt wurde 1899 im Stil der Neurenaissance nach Plänen von Stadtbaurat Friedrich Kullrich errichtet. Der zweigeschossige Bau mit einem zentralen Frontturm besitzt einen sechseckigen Grundriss und wurde am 11. August 1899 durch Kaiser Wilhelm II. eingeweiht. Bis 1962 war das Gebäude Sitz der Dortmunder Hafen AG. Heute beherbergt das Hafenamt die Wasserschutzpolizei und die Ausstellung Hafen und Schifffahrt mit Exponaten zur Hafengeschichte. Das Seminargebäude der Industrie- und Handelskammer zu Dortmund wurde 1928–1930 von den Dortmunder Architekten Peter Grund & Karl Pinno entworfen und 1965 nach Planungen des Dortmunder Architekten Werner Lehmann erweitert. Der flachgedeckte mit Sandstein verkleidete Baukörper aus den 1930er Jahren erstreckt sich dabei über 100 Meter entlang der Märkischen Straße und bildet zusammen mit dem Kammergebäude aus den 1960er Jahren einen großen Vorplatz. Letzteres ist mit geschliffenen Tafeln aus Leca-Beton verkleidet und gilt in seiner architektonischen Ausprägung als Musterbeispiel seiner Bauweise. Das Haus Schulte-Witten ist ein 1880 erbautes Herrenhaus unweit des Dortmunder Stadtzentrums im Stadtteil Dorstfeld. Archäologische Funde belegen ein Vorgebäude am gleichen Standort, das sich auf den Dreißigjährigen Krieg datieren lässt. Hinter dem Haus befindet sich ein weitläufiges Parkgelände sowie das ehemalige Wirtschafts- und Renteigebäude an. Das Haus Schulte-Witten gehört heute der Stadt Dortmund und wird als Stadtteilbibliothek und für sogenannte Ambiente-Trauungen genutzt. Der Wasserturm des Dortmunder Südbahnhofs ist ein 43 Meter hohen alter Wasserhochbehälter am ehemaligen Bahnbetriebswerk Dortmund Süd. Er wurde zwischen 1923 und 1927 als Stahlbeton-Skelett-Bau von der Deutschen Reichsbahn errichtet und beherbergt diverse Büros von Architekten und Werbeagenturen. Die Spielbank Hohensyburg wurde 1985 nach Plänen des Architekten Harald Deilmann und zweijähriger Bauzeit auf der Hohensyburg fertiggestellt. Deutschlands umsatzstärkstes Casino liegt oberhalb des Hengsteysees und bietet einen weitschweifenden Blick über das Ruhrtal bei Hagen. Im Stadtwald Bittermark erinnert das Mahnmal Bittermark an die Endphaseverbrechen im Rombergpark und in der Bittermark durch die Geheime Staatspolizei. Bedeutende Sakralbauten. Türme der Marienkirche (rechts) und der Reinoldikirche Auf Dortmunder Stadtgebiet befinden sich 63 römisch-katholischen Kirchen, 43 evangelische Kirchen sowie weitere Kirchenbauten aus verschiedenen architektonischen Epochen. Darüber hinaus besitzt Dortmund nach Köln und Regensburg unter den deutschen Städten die drittmeisten romanischen Kirchen auf seinem Stadtgebiet. Mit dem Bau der Reinoldikirche wurde 1250 begonnen. Die evangelische Kirche ist nach dem heiligen Reinoldus, dem Schutzpatron der Stadt benannt. Der ursprünglich 112 m hohe Turm der Reinoldikirche galt nach seiner Vollendung 1454 als „Wunder von Westfalen“. Nach Erdbebenschäden stürzte dieser 1661 ein und wurde unmittelbar wiederaufgebaut. Der Turm der Reinoldikirche mit einer heutigen Höhe von 104 m kann bis zur ersten Plattform durch den Glockenturm bestiegen werden. Gegenüber der Reinoldikirche liegt die Marienkirche. Der wahrscheinlich älteste Gewölbebau Westfalens entstand in der zweiten Hälfte des 12. Jahrhunderts als spätromanische Pfeilerbasilika. Ende des 14. Jahrhunderts wurde ein gotischer Chor ergänzt und auch andere Bauteile gotisch erneuert, etwa die Fensterfront der Südseite. Die Kirche hatte ursprünglich zwei Türme. Das Innere der Kirche schmücken ein Marienaltar des Dortmunder Meisters Conrad von Soest aus dem Jahr 1420 und der ältere Altar des namentlich unbekannten Berswordtmeisters, der die Kreuzigung darstellt. Auch die Petrikirche wurde am Hellweg errichtet. Der dreijochige Bau wurde im frühen 14. Jahrhundert begonnen und als gotische Hallenkirche vollendet. Im Inneren von St. Petri befindet sich das Goldene Wunder von Westfalen, ein prächtiger Flügelaltar aus dem Jahre 1521, der derzeit aufwändig restauriert wird. Die Propsteikirche St. Johannes war die Klosterkirche des 1330 gegründeten ehemaligen Dominikanerklosters St. Johann und ist die einzige katholische Kirche in der Dortmunder Innenstadt. Zu den erhaltenen Sehenswürdigkeiten des Klosters zählt ein Altarretabel des Weseler Malers Derick Baegert aus dem 15. Jahrhundert. Auch in den Stadtteilen gibt es zahlreiche historisch bedeutende Sakralbauten, unter anderem mehrere kleine romanische und gotische Kirchen, aber auch Beispiele für den modernen Kirchenbau. Besonders sehenswerte Bauten werden in den Artikeln der jeweiligen Stadtteile beschrieben. Die älteste Kirche auf Dortmunder Stadtgebiet ist St. Peter zu Syburg. Die ursprüngliche Kirche wurde 776 auf der Hohensyburg durch Karl den Großen errichtet und 779 durch Papst Leo III. geweiht. Auf den Ruinen dieses Bauwerks erstand im 11. Jahrhundert die bis heute erhaltene Wehrkirche. Die Alte Kirche Wellinghofen stammt aus dem 12. Jahrhundert. Sie stand unter dem Patronat der Familie von Romberg. In der Kirche befinden sich ein romanischer Taufstein und viele Schätze mittelalterlicher Kirchenkunst. In Kirchhörde findet sich die Kleinreinoldi genannte, ebenfalls aus dem 12. Jahrhundert stammende, evangelische Patrokluskirche (Kirchhörde). Aus dem 13. Jahrhundert stammen die St.-Margareta-Kirche in Eichlinghofen, die Margaretenkapelle in Barop, die St.-Josef-Kirche in Kirchlinde und die St.-Remigius-Kirche in Mengede. Burgen und Schlösser. Oberhalb des Zusammenflusses von Ruhr und Lenne in den Hengsteysee auf dem Rücken des Ardeygebirges liegt die historisch bedeutsame Hohensyburg. Von der sächsischen Sigiburg, deren erste urkundliche Nennung im Jahr 775 erfolgte, sind bis heute Ruinen erhalten. Auf dem Syberg findet sich weiterhin die auf das Jahr 1100 datierte historische Wehrkirche St. Peter zu Syburg, der 1857 errichtete Vincketurm und ein 1893 bis 1902 erbautes Kaiser-Wilhelm-Denkmal. Die 1985 fertiggestellte Spielbank Hohensyburg gilt als das umsatzstärkste Casino Deutschlands. Von der im 12. Jahrhundert an der Emscher erbauten Hörder Burg ist nur noch der Hauptturm erhalten. Die Burg diente lange Zeit als Gerichtssitz. Die Hörder Burg gilt als eine Wiege der Ruhrindustrie. Der Iserlohner Fabrikant Hermann Diedrich Piepenstock errichtete hier 1852 ein Puddel- und Walzwerk, die spätere Hermannshütte. Nach dem Niedergang der Montanindustrie befindet sich heute zu Füßen der Hörder Burg der Phoenix-See. Das im 13. Jahrhundert erbaute Wasserschloss Haus Dellwig vereinigt verschiedene architektonische Stile und liegt reizvoll in der hügeligen Moränenlandschaft im Dellwiger Bachtal, umgeben vom Naturschutzgebiet Dellwiger Wald. In fußläufiger Entfernung findet sich das Westfälische Industriemuseum Zeche Zollern II/IV. Im Dortmunder Stadtteil Aplerbeck liegt das 1290 erstmals urkundlich erwähnte Wasserschloss Haus Rodenberg. Das vom Ritter Diederich von dem Rodenberge erbaute Wasserschloss gehört heute der Stadt Dortmund, wurde 1996 grundlegend saniert und dient als Seminargebäude der Volkshochschule. Das Wasserschloss Haus Bodelschwingh wurde im 13. Jahrhundert von der Familie von Bodelschwingh errichtet und befindet sich bis heute im Familienbesitz. Das von der Familie von Romberg im 13. Jahrhundert erbaute Schloss Brünninghausen wurde im Zweiten Weltkrieg weitgehend zerstört. An das ehemalige Wasserschloss erinnern heute das als städtische Kunstgalerie genutzte Torhaus und der ehemalige Schlosspark. Der Rittersitz Haus Wenge wurde im 13. Jahrhundert von Goswin und Johann von der Wenge angelegt und präsentiert sich heute als einziges im Dortmunder Raum erhaltenes Adelshaus des 16. Jahrhunderts mit gotischen Formen. Von der ehemaligen Wall- und Befestigungsanlage der freien Reichsstadt Dortmund zeugen der Adlerturm und, als vorgelagerte Warte, der Steinerne Turm. Industriedenkmäler. Der zunehmende Verfall und der drohende Abriss einer Vielzahl von Zeugnissen der zurückliegenden wirtschaftlichen Blütezeit mit seinen tiefgreifenden Auswirkungen, die die Industrialisierung auf das Zusammenleben der Menschen hatte, wurden von der Dortmunder Bevölkerung als existentieller Angriff auf die eigene Identität begriffen. Als einer der ersten Orte im Ruhrgebiet entstand hier der Kampf für den Erhalt des historischen Erbes der Industrialisierung und ihrer gesellschaftlicher Anerkennung. Der Ausgangspunkt der gesamten Bewegung war hierbei die Maschinenhalle der Zeche Zollern, die dank der Initiative von Hans P. Koellmann 1969 nicht wie geplant abgebrochen, sondern als erstes Industriebauwerk in Deutschland unter Denkmalschutz gestellt wurde. Im Jahr 1981 integrierte der Landschaftsverband Westfalen-Lippe die Zeche in das dezentrale Westfälische Industriemuseum. Nach und nach wurden die umliegenden Gebäude restauriert und für die Öffentlichkeit zugänglich gemacht. Neben den eindrucksvollen Bauwerken sind auch die Außenanlagen Teil des Museums. Die Kohleverladestation, der ehemalige Zechenbahnhof und ein begehbares Fördergerüst gehören zu den Attraktionen. Hochofenreste und Gasometer des ehemaligen Stahlwerks Phoenix-West Die 1928 errichtete ehemalige Kokerei Hansa befindet sich seit 1995 Besitz der Stiftung Industriedenkmalpflege und Geschichtskultur. Seit 1998 sind die meisten Anlagenteile unter Denkmalschutz gestellt und das Denkmal Kokerei Hansa ist Teil der Route der Industriekultur. Die Anlage kann im Zuge von Führungen durch ehemalige Mitarbeiter und angelernte, fachkundige Begleiter erfahren werden. Die Alte Kolonie Eving ist eine denkmalgeschützte Arbeitersiedlung im Stadtteil Eving. Die Siedlung wurde zwischen 1898 und 1899 von der Zeche Vereinigte Stein und Hardenberg für in dieser Zeit verstärkt angeworbene auswärtige Arbeiter errichtet und bestand ursprünglich aus 76 Häusern mit 270 Wohnungen. Auf dem stillgelegten, teilweise denkmalgeschützten und zum größten Teil abgerissenen Hochofenwerk Phoenix-West südlich des Westfalenparks erinnern zwei in Teilen erhaltene Hochöfen, ein Gasometer, die sanierte und ungenutzte Gebläsehalle, das heute als Veranstaltungshalle genutzte ehemalige Reserveteillager und einige weitere Fragmente an die Industriegeschichte des Stadtteils Hörde. Das Besucherbergwerk Graf Wittekind am Syburger Bergbauweg erlaubt einen Einblick in die Anfänge des Bergbaus im südlichen Ruhrgebiet. Plätze. Wie jede Großstadt verfügt Dortmund über eine Vielzahl öffentlicher Plätze. Die Entstehungsgeschichte der verschiedenen Plätze ist dabei so unterschiedlich wie die Gestaltung. Neben der Keimzelle der Stadt wie der Alte Markt, entstanden andere während der Industrialisierung oder sind Produkt aktueller Stadtgestaltung. Die meisten liegen im Fußgängerbereich des historischen Stadtkerns. Der Alte Markt bildet das historische Zentrum der Stadt. Um den Markt gruppierten sich im Mittelalter die historischen Zunft- und Gildenhäuser der Dortmunder Hanse-Kaufleute. Bis heute findet sich hier das Stammhaus der Privatbrauerei Dortmunder Kronen sowie die Adler Apotheke. Bis 1955 befand sich außerdem die Ruine des im Zweiten Weltkrieg zerstörten Alten Rathauses, das als das älteste steinerne Rathaus Deutschlands galt, und die Ruine der 1914 erbauten Städtischen Sparkasse, die nach dem Umzug in die Hansastraße bis 1943 als Bücherei benutzt wurde. Von beiden, ehemals prachtvollen Gebäuden, standen nach Kriegsende 1945 nur noch die Außenmauern. Heute dominiert rund um den Alten Markt die Gastronomie, die in den Sommermonaten annähernd den gesamten Platz bestuhlt. Der Alte Markt wird weiterhin häufig für Stadtfeste genutzt. Eine Besonderheit ist dabei der 1901 erbaute Bläserbrunnen, der an die Markttradition Dortmunds erinnert. Bereits im 12. Jh. wurden diese Stelle in der Stadt als Handelspunkt für Kaufleute, Handwerker und Bürger genutzt. Der Bläserbrunnen wurde dabei als Tränke für die Pferde der Markthändler angelegt. Seinen Namen bekam der Brunnen durch seine markante Figur auf seiner Mittelsäule, die von dem Berliner Prof. Gerhard Janensch geschaffen wurde. Sie soll dabei einen fahrenden Musikanten aus dem Mittelalter darstellen. 1964 wurde der Brunnen in der heutigen Form an der Ostseite des Alten Marktes angelegt, mit modernem Brunnenbecken, aber der alten Bläserfigur. Im Südwesten an den Alte Markt anschließend befindet sich der Hansaplatz, der bis zum Ende des 19. Jahrhunderts noch Wickedeplatz hieß. Bevor dieser am Anfang des letzten Jahrhunderts zusammen mit dem Bau der Hansestraße entstand, verliefen durch diese Gegend zwei Straßenzüge mit einer dichten, kleinteiligen und dörflichen Bebauung. Anfang des 20. Jahrhunderts wurde mit dem Straßendurchbruch diese Bebauung abgebrochen und es entstanden repräsentative Neubauten wie das Althoffgebäude, - heute Karstadt –, die Wandelhalle als Probstei Arkarden, die Commerzbank und das Gebäude der ehemaligen Dresdener Bank. Heute findet auf dem Platz mittwochs, freitags und samstags der Wochenmarkt statt. Als große Attraktion steht während des Weihnachtsmarkts im Zeitraum von November bis Dezember auf dem Hanseplatz ein großer Weihnachtsbaum, der aus aus einer Vielzahl einzelner Tannenbäumen zusammengesetzt ist und als größer Weihnachtsbaum der Welt tituliert wird. Der Friedensplatz ist der zentrale Veranstaltungsplatz der Stadt. Am Friedensplatz befinden sich wichtige städtische Einrichtungen wie das Rathaus, das aus rotem Sandstein erbaute Alte Stadthaus, die Berswordt-Halle, das Neue Stadthaus sowie die städtische Dortmund-Agentur. In der Mitte des Platzes ragt die Friedenssäule in den Himmel. Rund um die Reinoldikirche liegen der Willy-Brandt-Platz, der Reinoldikirchplatz und der Platz von Leeds mit viel Außengastronomie. Letzterer ist dabei einer von insgesamt fünf Plätzen in der Dortmunder Innenstadt, die nach einer Partnerstadt benannt sind. Weitere Plätze sind dabei der Platz von Buffalo, Platz von Amiens, Platz Rostow am Don und Platz von Netanya. Außerhalb der City finden sich vor allem in der Nordstadt städtebaulich interessante Plätze, so der Borsigplatz, die Wiege des Ballspielvereins Borussia Dortmund, der Nordmarkt, der Fredenbaumplatz und der Steinplatz. Urbane Viertel. Die Dortmunder Innenstadt wurde im Zweiten Weltkrieg weitgehend zerstört. In den benachbarten Stadtvierteln haben sich zahlreiche Altbauten und eine lokale Stadtteilkultur erhalten. Das Kreuzviertel im Südwesten der Innenstadt wurde zwischen 1904 und 1908 vom Beamten-Wohnungsverein bebaut und gilt noch heute als ein Wohnviertel der oberen Mittelschicht. Als Standort der Fachhochschule Dortmund und mit Nähe zur Universität ist das Kreuzviertel bei Studenten sehr beliebt. Die Kneipenszene des Viertels genießt einen guten Ruf. Die Nordstadt wurde zwischen 1858 und 1913 als Arbeiterviertel errichtet und wird heute überwiegend von südeuropäischen, osteuropäischen und asiatischen Einwanderern bewohnt. Nördlich des Dortmunder Hauptbahnhofs gelegen ist die Nordstadt das größte zusammenhängende städtische Wohnviertel in Nordrhein-Westfalen. Die Kaiserstraße ist Teil des Hellwegs zwischen Ostentor und Funkenburg und traditionell Sitz der Dortmunder Gerichte. Südlich der Kaiserstraße finden sich viele gründerzeitliche Unternehmervillen. Das italienische Konsulat, die Abteilung "Bergbau und Energie in NRW" der Bezirksregierung Arnsberg sowie die Synagoge sind hier angesiedelt. Das Brückstraßenviertel ist der letzte Teil der Innenstadt, dessen Straßennetz aus der Vorkriegszeit erhalten geblieben ist. Als Kinomeile und Standort zahlreicher Diskotheken hatte die Brückstraße ein zwielichtiges Image. Auch eine über die Stadt hinaus bekannte offene Drogenszene war bis Mitte der 1990er Jahre hier aktiv. Mit der Ansiedlung hochwertiger kultureller Einrichtungen (Konzerthaus, Volkshochschule und Orchesterzentrum NRW) und einem Quartiersmanagement durch die Stadt konnte hier eine gegenläufige Entwicklung eingeleitet werden. Heute präsentiert sich die Brückstraße als moderne, hochfrequentierte Einkaufsstraße mit einem kulturellen Hintergrund. Parks und Grünflächen. Von Anfang an galt Dortmund trotz umfangreicher Industrie als die grüne Stadt des Reviers. Die Stadt veranstaltete aus Imagegründen regelmäßig den 49-Prozent-Lauf. Dieser sollte betonen, dass noch immer die Hälfte der Stadtfläche aus Grün- und Parkanlagen bestand. Nach dem Niedergang der Montanindustrie ist dies trotz zunehmender Zersiedlung durch Eigenheimbau kein Thema mehr. Dortmund präsentiert sich mit vielen Parks und Naturflächen als lebenswerte Großstadt. 1897 entstanden aus einem patriotischen Zeitgeist überall im Ruhrgebiet so genannte Kaisergärten, etwa in Oberhausen. Der Dortmunder Kaiserhain lag südlich der Bundesstraße 1. Auf diesem Gelände entstand 1959 zur Bundesgartenschau der Westfalenpark mit dem Deutschen Rosarium und dem Florianturm. In dem 75 Hektar großen Park fanden 1969 und 1991 weitere Bundesgartenschauen statt. Etwa zwei Kilometer südlich, auf dem Gelände des Schlossparks des ehemaligen Schlosses Brünninghausen, findet sich der etwa 65 Hektar große Rombergpark. Er entstand als Botanischer und Englischer Landschaftsgarten und ist insbesondere für seine Gehölzsammlung bekannt. Als Besonderheit finden sich in dem naturnah belassenen Park ein Heilkräutergarten sowie eine künstliche Moor-Heide-Landschaft. Das Gelände zwischen Westfalenpark und Rombergpark, früher Standort des Stahlwerks Phoenix-West wird momentan renaturiert. Das Zusammenwachsen der beiden großen Dortmunder Parks wird damit vorbereitet. Auch der Dortmunder Zoo gehört zu dieser großen städtischen Grünfläche. Am südlichen Ende des Rombergparks liegt der früher als „Tierpark Dortmund“ bekannte Zoo. Auf einer Gesamtfläche von 28 Hektar finden sich 1.840 Tiere in 265 Arten. Schwerpunkt des Zoos sind Haltung und Zucht südamerikanischer Tierarten. Die größte Dortmunder Grünanlage ist mit 135 Hektar der weiterhin als Friedhof genutzte Hauptfriedhof. Auf dem im historistischen Stil entstandenen Friedhof finden sich große, freie Rasenflächen, landschaftsarchitektonisch interessante Sichtachsen und alter Baumbestand. Der innenstadtnahe Ostenfriedhof verfügt über alten Baumbestand und eine Vielzahl historischer Gräber berühmter Dortmunder Bürger. In der Dortmunder Nordstadt lädt der Fredenbaumpark auf dem Gelände des ehemaligen Stadtwalds Westerholt und der Freizeitanlage Lunapark auf 63 Hektar zu ausgedehnten Spaziergängen und Erholung ein. Eine Öffnung des Fredenbaumparks zum Wasser wurde 2007 mit URBAN II-Mitteln realisiert. Im Nordwesten wurde der Park zum Dortmund-Ems-Kanal und den dortigen Ruderhäusern ausgeweitet. Auch der Hoeschpark liegt im Dortmunder Norden. In der 1937 vom Reichsarbeitsdienst in unmittelbarer Nähe der Westfalenhütte und des Borsigplatzes angelegten Grünanlage finden sich zahlreiche Sportanlagen und das Warmwasserfreibad Stockheide. Nach dem Verkauf durch den Thyssen Konzern an die Stadt wird der Park momentan saniert und wieder hergerichtet. Der 1811 als Westentotenhof in der westlichen Innenstadt angelegte Westpark lädt mit Biergarten und Boulebahnen zum sommerlichen Verweilen ein. Ebenso wie der nahe gelegene Tremoniapark auf dem Gelände der ehemaligen Zeche Tremonia, dessen große Wiese als Liegewiese und Fußballplatz genutzt wird. Beide Grünanlagen werden insbesondere von der jüngeren Bevölkerung als Treffpunkt für Erholung und freundschaftliches Beisammensein genutzt. Auch der Revierpark Wischlingen und das Naturschutzgebiet Hallerey liegen im Westen der Stadt. Von der Volksgartenbewegung Ende des 18. Jahrhunderts zeugen die Volksgärten Mengede und Lütgendortmund. In der Dortmunder Peripherie an den Grenzen zu Sauerland und Münsterland liegen die ausgedehnten Waldgebiete Bolmke, Stadtwald Bittermark, Schwerter Wald, Niederhofer Wald, Grävingholz, Kurler Busch, Rahmer Wald und das Wannebachtal. Diese sind durch Wander- und Radwege hervorragend erreichbar und lassen das großstädtische Leben schnell vergessen. Ein wichtiges Naherholungsgebiet ist auch der Ortsteil Syburg mit Burgruinen, dem Kaiser-Wilhelm-Denkmal, dem Spielcasino, einer Naturbühne und einem Lehrpfad zur Bergbaugeschichte. Südlich der Hohensyburg fällt das Gelände steil zum Hengsteysee mit Bootsrevieren und Wanderwegen ab. Sportstätten. Nachdem die ersten Pferderennen bereits 1887 an der Hobertsburg am Fredenbaum stattgefunden hatten, wurde 1913 die Galopprennbahn Dortmund mit einer Sand- und Rasenbahn in Wambel eröffnet. Die historische Rennbahn ist Austragungsort des Deutschen St. Leger. Die erste Sportstätte des Ballspielvereins Borussia Dortmund (BVB) war die Weiße Wiese an der Westfalenhütte im Dortmunder Norden. Dieses erste Stadion der Borussia bot 1924 als Sportpark Borussia Platz für 18.000 Zuschauer. 1937 wurde das Sportgelände von den Nationalsozialisten enteignet und der Reichsarbeitsdienst begann hier mit der Errichtung des Hoeschparks. An die Weiße Wiese erinnert heute nur noch eine Gedenktafel im Freibad Stockheide nahe dem Hoeschpark. Die 1926 neu erbaute Kampfbahn Rote Erde im bürgerlichen Süden der Stadt wurde neue Spielstätte des BVB. Das Stadion Rote Erde war Teil des Volksparks Dortmund und beruhte auf der städtebaulichen Planung des Baurats Hans Strobel. Zum Dortmunder Volkspark gehörten zur damaligen Zeit ebenfalls die Westfalenhalle, die Rosenterrassen und das seit 2007 unter Denkmalschutz stehende Volksbad Dortmund unmittelbar südlich der alten Reichsstraße 1. Seine großen Zeiten erlebte das Stadion Rote Erde mit den Erfolgen der Borussia Mitte der 1960er Jahre. Mit hölzernen Behelfstribünen wurde die Zuschauerkapazität auf 42.000 Menschen angehoben. Nach dem Umzug Borussia Dortmunds in das Westfalenstadion, diente die Rote Erde bis in die 1990er Jahre als Trainingsstätte für die Profimannschaft des BVB. Heute dient das Stadion, mit einer Kapazität von 25.000 Zuschauern, als Leichtathletikstadion und ist Austragungsort nationaler und internationaler Wettkämpfe. Außerdem dient es als Spielstätte für die in der Fußball-Regionalliga West spielenden zweiten Mannschaft von Borussia Dortmund. Zur Fußball-Weltmeisterschaft 1974 wurde das Westfalenstadion mit einer Kapazität von 54.000 Zuschauern neu errichtet. Ein reines Fußballstadion im Stil der 1970er Jahre aus Beton, und doch wurde es von der Bevölkerung und den Fans enthusiastisch angenommen. Trotz ausbleibender Erfolge der Borussia und einer Zeit in der Zweiten Bundesliga wurden Besucherrekorde gefeiert. Mit den Erfolgen Borussia Dortmunds Mitte der 1990er Jahre begann der sukzessive Ausbau des „Fußballtempels“. Das Westfalenstadion ist heute mit einer Zuschauerkapazität von 81.359 (bei intl. Spielen 65.851) Zuschauern das größte Fußballstadion Deutschlands. Eine Besonderheit und äußerst sehenswert ist die Südtribüne. Als größte Stehplatztribüne Europas ist sie die Heimat der Fans der Borussia. Auch 2006 war das Stadion Spielstätte bei der Weltmeisterschaft. In Dortmund fanden sechs Spiele inklusive einer Achtel- und einer Halbfinalbegegnung statt. Die Kapazität wurde für alle sechs Spiele aus Sicherheitsgründen auf 60.285 (alles Sitzplätze) reduziert. Das Stadion war nach dem Olympiastadion Berlin die zweitgrößte Spielstätte der Weltmeisterschaft. Westfalenhalle I und das Kongresszentrum Die Westfalenhalle wurde als hölzerne Rundhalle durch Baurat Strobel in den 1920er Jahren errichtet. Mit einer Kapazität von 15.000 Zuschauern war sie zeitweilig das größte Hallengebäude Europas. Legendär ist der Weltmeisterschaftskampf von Max Schmeling im Jahre 1927. Im Zweiten Weltkrieg wurde die Halle als Kriegsgefangenenlager missbraucht, bei der Bombardierung der Halle durch die Alliierten kamen zahlreiche Gefangene ums Leben. Schon kurz nach dem Krieg wurde die Halle neu errichtet. 1952 wurde die neue Halle, erbaut als freitragende Dachkonstruktion mit einer Kapazität von 20.000 Zuschauern, durch Bundespräsident Theodor Heuss ihrer Bestimmung übergeben. Heute ist die Halle Teil des Messezentrums Westfalenhallen mit insgesamt 9 Veranstaltungshallen. Das Ruderleistungszentrum befindet sich am Dortmund-Ems-Kanal, nahe dem Fredenbaumpark. Hier trainiert unter anderem der Deutschland-Achter. Theater. Das 1904 gegründete Theater Dortmund bietet Oper, Ballett, Schauspiel und ein Kinder- und Jugendtheater. Auf dem Gelände der ehemaligen Synagoge wurden nach dem Zweiten Weltkrieg die Spielstätten Opernhaus, Schauspielhaus und die Studiobühne neu errichtet und galten als wichtiges Symbol des Wiederaufbaus der kriegszerstörten Stadt. Ein Gedenkstein vor dem Opernhaus erinnert an die Zerstörung der Synagoge in der Reichspogromnacht. Das Kinder- und Jugendtheater „Theater Sckellstraße“ hat seine Spielstätte an der gleichnamigen Straße in unmittelbarer Nähe des Westfalenparks. In den nächsten ist es geplant den Standort zu schließen und das Kinder- und Jugendtheater in die Innenstadt zu verlagern. Ziel ist es mit der „Jungen Bühne Westfalen“ bzw. dem Kinder- und Jugendtheater am Hohen Wall einen großen Oper-Theater-Komplex entstehen zu lassen, der alle Bühnen an einem zentralen Ort vereinigt. Das Ensemble Fletch Bizzel wurde 1979 gegründet. Seit 1985 verfügt das Theater Fletch Bizzel über eine eigene Bühne am Alfons-Spielhoff-Platz. Neben eigenen Inszenierungen des Ensembles werden im Theater regelmäßig Kindertheater- und Puppentheaterproduktionen gezeigt. Zum Theater gehören eine Galerie und eine Kulturwerkstatt, die als Weiterbildungsstätte im Bereich Theater, Tanz und Gesang dient. Die bekannteste Produktion des Theaters ist die alljährlich in der Zeche Zollern stattfinde Veranstaltungsreihe Geierabend. In einem ehemaligen Straßenbahndepot an der Immermannstraße in der Dortmunder Nordstadt hat das Theater im Depot seine Spielstätte gefunden. Die sich als Zentrum der freien Theaterkunst verstehende Bühne bietet seit Januar 2001 zum großen Teil Eigenproduktionen, aber auch andere freie Theatergruppen ohne eigene Spielstätte finden hier ein Zuhause. Eine Theaterwerkstatt mit Kursen und Workshops für Amateure und Laienschauspieler rundet das Programm ab. Das private Theater Olpketal ist die Heimatbühne des Dortmunder Originals Bruno Knust, genannt Günna. Der aus Funk und Fernsehen bekannte Günna widmet sich in seinen mit viel Lokalkolorit gewürzten Produktionen immer wieder den Themen Ruhrgebiet, den Bewohnern dieser Region sowie dem Fußball. Er ist ebenfalls Autor regelmäßiger Kolumnen in den Ruhr Nachrichten. Über die landschaftlich schönste Spielstätte verfügt die Naturbühne Hohensyburg mitten im Syburger Wald am Fuße der Hohensyburg. Seit 1952 werden hier in den Sommermonaten unterschiedliche Inszenierungen für große und kleine Theaterfreunde von Laienschauspielern aufgeführt. Seit 2003 wird in den Wintermonaten die Spielsaison im Studio der Naturbühne fortgesetzt. Die „Schule für Tanzkunst“ bildet das Tanztheater Cordula Nolte. In einer historischen Turnhalle an der Rheinischen Straße finden seit 1998 regelmäßig Tanztheaterinszenierungen auf einer privaten Studiobühne statt. Die Absolventen der Theaterschule Là Bouche bilden das freie Roto-Theater. Theaterschule und Roto-Theater verfügen über eine Bühne im Dortmunder Norden. Das mit nur 45 Plätzen kleinste Dortmunder Theater ist das Nostalgische Puppentheater im Westfalenpark. Musik. Das Konzerthaus aus der Luft Das 2002 eröffnete, neu erbaute Konzerthaus Dortmund gilt als Leuchtturmprojekt der Dortmunder Musikkultur. Darüber hinaus zählt es seit dem Jahr 2014 zum europäischen Spitzenverband der European Concert Hall Organisation (ECHO). Das in einer modernen Stahl-Glas-Architektur errichtete Konzerthaus verfügt über 1500 Plätze und gilt als Klangkörper mit einer herausragenden Akustik. Der Dortmunder Oratorienchor wurde 1899 als „Lehrer-Gesangverein Dortmund“ gegründet und gab seinen ersten musikalischen Vortrag zur Eröffnung des Dortmunder Hafens in Anwesenheit von Kaiser Wilhelm. Seit 1905 besteht eine Zusammenarbeit mit dem Philharmonischen Orchester Dortmund. Während der nationalsozialistischen Diktatur werden viele Mitglieder des Chores aufgrund ihrer jüdischen Abstammung ausgeschlossen und die Kriegswirren bedeuten das vorläufige Ende des Chors. Erst 1957 findet der Lehrerchor wieder zusammen und wird mangels sangesfreudiger Lehrer 1986 zum Dortmunder Oratorienchor. Das Repertoire des Chores umfasst klassische Musik von Bach bis Vivaldi. Unmittelbar nach dem Zweiten Weltkrieg wurde 1946 im zerbombten Dortmund von Emil Rabe der Dortmunder Kammerchor aus der Taufe gehoben. Auf zahlreichen Auslandsreisen errang der Chor eine Vielzahl von internationalen Auszeichnungen, so zum Beispiel im Jahre 1954 den „Großen Preis der Republik Irland“. Der Dortmunder Kammerchor wurde bereits viermal mit dem Titel Meisterchor des Sängerbundes Nordrhein-Westfalen ausgezeichnet. Die Chorakademie am Konzerthaus Dortmund ist europaweit eine der größten Singschulen ihrer Art. Sie betreut um die 1.300 Sängerinnen und Sänger, die in mehr als 30 verschiedenen Chorensembles singen. In Dortmund besteht sie aus 17 Kinderchören und acht Chören im Leistungsbereich. Weitere Standorte gibt es in Essen und Gelsenkirchen mit jeweils sechs Kinderchören. Der Internationale Schubert-Wettbewerb für Pianisten wird seit 1987 veranstaltet. Das 1968 von der Stadt Dortmund eröffnete Freizeitzentrum West (FZW) gilt als Veranstalter innovativer Jugend- und Popkultur. Der vom Verein für Unabhängige Kultur (VUK) getragene Club bietet jährlich über 250 Veranstaltungen für verschiedene jugendliche Subkulturen und musikalische Szenen. Im FZW spielen in den Locations Halle, Club und Biergarten neben regionalen Größen regelmäßig internationale Topacts verschiedener Musikrichtungen. Auch als Party-Location hat das FZW einen guten Ruf. Legendär ist die Ü-30-Party. Als einer der ersten Clubs Deutschlands erkannte das FZW früh den Bedarf mittelalter Menschen an guter Musik und Tanz und gründete den Club30. Das Electronic Music Festival Juicy Beats hat in der Clubkultur des FZW seinen Ursprung. Seit 1969 existiert der Jazzclub domicil. Ursprünglich in den Kellerräumen einer Kindertagesstätte beheimatet, fand dieser 2005 eine Heimat im früheren Studio-Kino im Westfalenhaus an der Hansastraße. Der als Verein organisierte Jazzclub veranstaltete in seiner Geschichte unzählige Konzertveranstaltungen mit regionalen und internationalen Interpreten. Die Webseite des Clubs verfügt über ein umfangreiches Veranstaltungsarchiv. Der WDR und der Deutschlandfunk nutzen den Club regelmäßig zu Konzertmitschnitten. Das renommierte New Yorker Jazzmagazin Down Beat zählt das domicil zu den 100 besten Jazzclubs der Welt. Das JugendJazzOrchester Nordrhein-Westfalen wird 1975 mit dem Ziel der Nachwuchsförderung als erstes Jugendjazzorchester Deutschlands etabliert. Von den mittlerweile mehr als 500 Künstlern, die im JugendJazzOrchester ihre ersten Meriten sammelten, hat gut ein Drittel den Weg des professionellen Musikers eingeschlagen. Auf eine mittlerweile mehr als 50-jährige Geschichte konnte die Jazzband Siggi Gerhard-Swingtett zurückblicken. Im 1948 gegründeten Hot Club Dortmund fanden Siggi Gerhard und Hilbert Homberg zueinander und gründeten die bis 2013 bestehende Formation, die mit ihrem eingängigen Swing große Popularität und Auftritte im WDR und beim Deutschen Jazzfestival hatte. Der Ausbildung von Musikern widmet sich die Musikschule Dortmund. Schon 1901 als Konservatorium gegründet blickt die Musikschule auf eine lange Geschichte zurück. Heute betreut die Musikschule mit 150 Lehrkräften jährlich mehr als 4000 Musiker jeden Alters. Der Barbershop-Chor Ladies First gehört zu den erfolgreichsten Chören dieses Genres in Deutschland. Anfang der 1980er Jahre erlangte die in der Hausbesetzerszene beheimatete Folkrock-Band Cochise überregionale Bedeutung. Auf der Friedensdemo gegen den NATO-Doppelbeschluss am 10. Juni 1982 in Bonn spielte die Band vor 350.000 Menschen. Heute wird die vielfältige unabhängige Musikszene durch Bands und Interpreten wie Cosmo Klein, Sasha, Too Strong, Orange but Green oder Axxis deutschlandweit wahrgenommen. Am 19. Juli 2008 fand mit 1,6 Millionen Besuchern die größte Loveparade insgesamt auf dem Rheinlanddamm und dem Parkplatz der Westfalenhallen statt. Chöre. Dortmund verfügt eine Vielzahl von Chören, die teilweise im Verband Deutscher Konzertchöre oder im Chorverband Nordrhein-Westfalen Mitglied sind. Museen. Museum für Kunst und Kulturgeschichte Das 1947 gegründete Museum Ostwall im Dortmunder U für moderne und zeitgenössische Kunst sammelt Gemälde, Skulpturen, Objekte, Fotos des 20. Jahrhunderts. Es beherbergt die größte Sammlung von Werken des Malers Alexej von Jawlensky in Deutschland sowie die Sammlung "Die Brücke" aus dem Umfeld des "Blauen Reiters". Zudem wurden Anfang der 1990er Jahre über 1000 Arbeiten von Marcel Duchamp bis Joseph Beuys, von Günther Uecker bis Jean Tinguely aus der Sammlung von Siegfried Cremer erworben, die einen weiteren Schwerpunkt des Museums bilden (Informelle Kunst, ZERO und Fluxus). Das Museum für Kunst und Kulturgeschichte findet sich heute in einem 1924 von Hugo Steinbach als Städtische Sparkasse erbauten Art-déco-Bau. Die Sammlung des Museums gibt anhand von Gemälden, Skulpturen, Möbeln und Kunsthandwerk einen Einblick in die Kulturgeschichte der Stadt. Zeitlich umfasst die Sammlung Exponate der Ur- und Frühgeschichte bis hin zu Exponaten des 20. Jahrhunderts. Der Förderkreis Vermessungstechnisches Museum e. V. unterhält eine ständige Ausstellung zur Geschichte des Vermessungswesens und präsentiert seltene geodätische Instrumente. Die Räumlichkeiten des Museum werden regelmäßig zur Präsentation von überregional bedeutenden Kunst- und Kulturausstellungen genutzt. Das Museum Adlerturm beherbergt eine Ausstellung zur mittelalterlichen Stadtgeschichte. Zu sehen sind Ausgrabungsfunde und ein Modell der mittelalterlichen Stadt. Zeitgenössische Darstellungen, historische Waffen und Gebrauchsgegenstände veranschaulichen das Erscheinungsbild Dortmunds im Verlauf der vergangenen Jahrhunderte. Das Museum für Naturkunde am Fredenbaumpark Das Museum für Naturkunde wurde 1912 gegründet und versucht die Erdgeschichte, Mineralien und die heimische Tier- und Pflanzenwelt dem Publikum näher zu bringen. Die Geologie bildet einen Schwerpunkt des Museums. Höhepunkte des Museums sind ein Mineralien-Kabinett mit einer Bergkristall-Gruppe, ein Besucher-Schaubergwerk und ein etwa 90.000 Liter großes Aquarium, in dem die Fischwelt gezeigt wird, die im Möhnesee lebt. 2012 ersetzte dieses Aquarium ein etwa 72.000 Liter fassendes Aquarium, aus dem Jahre 1980, das mit tropischen Süßwasserfischen aus Mittel- und Südamerika. Im Mittelpunkt des Deutschen Kochbuchmuseums Dortmund steht die Kochbuchautorin Henriette Davidis, die von 1856 bis 1876 in Dortmund lebte. Das Museum möchte anhand der ausgestellten Exponate Gesellschaftsleben und Küchentechnik, Sozialunterschiede und Tischkultur des 19. Jahrhunderts erlebbar machen. 1910 als Einrichtung zur Lehrerfortbildung und als Lehrmittel-Schausammlung gegründet, blickt das Westfälische Schulmuseum auf eine traditionsreiche Geschichte zurück. Das Museum beherbergt eine der bedeutendsten schulhistorischen Sammlungen in Deutschland und besticht durch ein umfangreiches museumspädagogisches Programm. Das LWL-Industriemuseum hat seine Zentrale auf der Zeche Zollern II/IV, einem Ankerpunkt der Europäischen Route der Industriekultur (ERIH). Die 1903 fertiggestellte Musterzeche der Gelsenkirchener Bergwerks-AG wurde im Jugendstil erbaut und trägt Züge norddeutscher Backstein-Gotik. Das Jugendstilportal rettete die Halle 1969 vor dem drohenden Abriss und machte sie damit zum Pionierbau der Industriedenkmalpflege in Deutschland. Heute ist in Zeche Zollern das "Museum der Sozial- und Kulturgeschichte des Ruhrbergbaus". Die 1992 stillgelegte Kokerei Hansa bietet als begehbare Großskulptur faszinierende Einblicke in die Geschichte der Schwerindustrie des vergangenen Jahrhunderts. Auf einem Erlebnispfad Natur und Technik können Besucher die unter Denkmalschutz stehenden Produktionsbereiche der Kokerei begehen. Herausragend ist eine erhaltene Maschinenhalle mit fünf Gaskompressoren der Demag. Hansa ist Sitz der Stiftung Industriedenkmalpflege und Geschichtskultur. Das 2005 wiedereröffnete Hoesch-Museum findet sich im ehemaligen Portierhaus I der Westfalenhütte. Das durch die Zusammenarbeit ehemaliger „Hoeschianer“, dem Museum für Kunst und Kulturgeschichte und der Stiftung Westfälisches Wirtschaftsarchiv entstandene Museum zeigt die Bedeutung des Unternehmens Hoesch AG für die Stadt auf und präsentiert die Industriegeschichte der Stahlindustrie von 1871 bis zum Niedergang Ende des 20. Jahrhunderts. Die DASA – Arbeitswelt Ausstellung ist ein 1993 gegründetes technisches Museum im Dortmunder Stadtteil Dorstfeld in der Nähe der Technischen Universität Dortmund. Die Ausstellung zeigt moderne und vergangene Technik-Welten. Die Technik wird dabei nicht als Selbstzweck dargestellt, sondern immer der Bezug zum damit arbeitenden Menschen hergestellt. Die Steinwache in Dortmund ist eine Mahn- und Gedenkstätte an die Gräuel der Zeit des Nationalsozialismus und beherbergt die ständige Ausstellung „Widerstand und Verfolgung in Dortmund 1933–1945“ des Dortmunder Stadtarchivs. Im April 2006 wurde das Brauerei-Museum Dortmund wiedereröffnet. Untergebracht im historischen Maschinenhaus der ehemaligen Hansa-Brauerei mit angrenzender Produktionshalle aus den 1960er Jahren gibt das Museum einen Überblick über die Brauhistorie der Stadt. Die Ausstellung Hafen und Schifffahrt im Alten Hafenamt informiert anhand von Schiffs- und Hafenmodellen über das Schifffahrtswesen und die moderne Hafenwirtschaft. Seit dem 19. Dezember 2008, dem 99. Geburtstag von Borussia Dortmund, befindet sich in der Nordostecke des Signal Iduna Parks das Borusseum, ein Museum rund um die Geschichte des Vereins. Das Deutsche Fußballmuseum ist das offizielle nationale Fußballmuseum des Deutschen Fußball-Bundes (DFB) und wurde am 23. Oktober 2015 eröffnet. Das Gebäude in unmittelbarer Nähe zum Hauptbahnhof wurde von 'HPP Hentrich-Petschnigg + Partner' aus Düsseldorf konzipiert und gliedert sich in die Dortmunder Kunst- und Kulturmeile ein. Inhaltlich ist es ein Erinnerungs- und Erfahrungsort der deutscher Fußballgeschichte. Dabei steht die Information über fußballhistorische Ereignisse und die Entwicklung des Sports in all seinen Facetten ebenso im Mittelpunkt wie soziale und gesellschaftliche Themen rund um den Fußballsport. In den Kellerräumen der Adler-Apotheke, der ältesten Apotheke in Nordrhein-Westfalen, befindet sich ein kleines privates Apotheken-Museum. Auf knapp 100 m² Ausstellungsflächen findet sich eine historische Apotheke mit Offizin (Handverkaufsraum), Materialkammer, Labor, Vorratsräumen sowie einer Kräuterkammer. Das Magnetmuseum ist ein privates Museum des Unternehmens Tridelta. Die Ausstellung gibt einen Überblick über historische und aktuelle Anwendungen von Dauermagneten in der Elektrotechnik. In dem Museum wird der Einsatz von Dauermagneten in Zählern, Lautsprechern, Telefonen, Schaltern, Relais, Uhren, Messgeräten, Kleinmotoren und Generatoren beleuchtet. Das Nahverkehrsmuseum ist im Stadtteil Nette beheimatet und zeigt Exponate aus dem Bestand der Dortmunder Stadtwerke AG und ihrer Vorgängergesellschaften. Das Industrielack Museum liegt im Dortmunder Hafen und möchte seinen Besuchern den Industrielack mit all seinen Facetten näher bringen. Kunst im öffentlichen Raum. Über 660 verschiedene Werke stehen im öffentlichen Raum der Stadt Dortmund verteilt – Kunst der letzten 150 Jahre. Von Skulpturen, Plastiken, Pflasterstein, Malereien, Mosaiken, Industrierelikten, Skulpturen oder Brunnen. Neben Denkmälern wie dem Löwendenkmal und dem Schüchtermanndenkmal entstanden seit Mitte der 1980er Jahre in der Innenstadt durch den Umbau der Kleppingstraße und Kampstraße unter anderem drei große Brunnenanlagen, künstlerisch gestaltete U-Bahn Stationen, Spielplätze und Plastiken wie der „Chip“ am Platz von Amiens, der sich nach seiner Aufstellung zum Treffpunkt vor allem junger Leute entwickelt hat. Stolpersteine an der Köln-Berliner Straße Besonders hervorzuheben ist der Europabrunnen an der Kleppingstraße, der von Joachim Schmettau entworfen und 1989 in Granit und Bronze ausgeführt wurde. Um den Europabrunnen ist mittlerweile entlang der gesamten Kleppingstraße eine rege Straßencafé-Szene entstanden. Ein weiterer Anziehungspunkt ist der Gauklerbrunnen im Zentrum des Stadtgarten. Der von Prof. Eberhard Linke zum 1125-jährigen Stadtjubiläum entworfene Gauklerbrunnen ist etwa 30 Meter lang und 12 Meter breit und überwindet dabei eine Höhendifferenz von 4 Metern. Das Wasser fließt in Kaskaden vom Quellbecken in das untere Brunnenbecken. Hier stehen die namensgebenden, bronzenen Gauklerfiguren, die das Brunnenwasser auf unterschiedliche Art versprühen. Innerhalb des Wallrings und darüber hinaus steht außerdem das Kunstprojekt Dortmunder Nashorn. Das Nashorn mit Flügeln ("„Rhinoceros alatus“") ist das Wappentier des Dortmunder Konzerthauses und wurden für eine Kunstaktion im Stadtraum in Zusammenarbeit mit lokalen Künstlern und Jugendgruppen in duzender Ausführung an markanten Stadtpunkten aufgestellt. Seit 2003 werden auch in Dortmund durch den Künstler Gunter Demnig Stolpersteine für Opfer des Nationalsozialismus verlegt. Bis zum Sommer 2014 waren rund 200 Steine in zahlreichen Stadtteilen gesetzt. Galerien. Das Künstlerhaus Dortmund wird seit 1983 von Künstlern in Selbstorganisation geführt und als Ausstellungsort für zeitgenössische und experimentelle Kunst genutzt. Es befindet sich in der Dortmunder Nordstadt in einem ehemaligen Betriebsgebäude der Zeche Vereinigte Westphalia. Der Dortmunder Kunstverein wurde 1984 gegründet und hat seinen Sitz in der Volkshochschule. Das Ausstellungsprogramm umfasst jährlich vier bis sechs Präsentationen zeitgenössischer junger Kunst aus den unterschiedlichsten Bereichen wie Malerei, Zeichnung, Bildhauerei, Fotografie oder Videokunst. Auch das Torhaus Rombergpark des ehemaligen Schloss Brünninghausen der Familie von Romberg wird als städtische Galerie genutzt. Kino. Am Nordausgang des Dortmunder Hauptbahnhofs befindet sich ein Multiplex-Kino der Cinestar-Gruppe. Auf der ehemaligen Kinomeile Brückstraße ist als letztes Kino an der Brückstraße das unabhängige Lichtspieltheater Schauburg erhalten geblieben. Im Dortmunder U befindet sich ebenfalls ein Kino, in dem regelmäßig ein anspruchsvolles Film-Programm gezeigt wird. In der Nordstadt sind die Programmkinos Roxy, Camera und sweetSixteen. Im Stadtteil Aplerbeck existiert außerdem die „Filmbühne Zur Postkutsche“ als einziges Kino in einem Vorort Dortmunds. Fernsehen. Die Stadt Dortmund ist seit 2012 ein Schauplatz der ARD-Serie Tatort. Regelmäßige Veranstaltungen. Juicy Beats 2013 im Westfalenpark Dortmund Viele Festivals machen Dortmund zum Mekka der elektronischen Musik. Während im Sommer das Musikfestival Juicy Beats mehr als 30.000 Besucher in den Westfalenpark lockt, gilt die Mayday in den Westfalenhallen mit 20.000 bis 25.000 Besuchern pro Jahr, als das größte Indoor-Rave Festival Deutschlands. Hinzu kommen weitere elektronische Tanzveranstaltungen wie das Syndicate Festival oder das deutsch-russische Dance Event Glamotion in den Westfalenhallen zwischen 15.000 und 20.000 Besuchern. Der Hansemarkt in der Dortmunder Innenstadt ist ein alljährliches Spektakel und vereint zahlreiche Händler und Akteure aus ganz Deutschland. Er greift die jahrhunderte alte Tradition des Stadtmarktes auf. Und er findet noch immer an historisch bedeutsamer Stelle statt, denn der Dortmunder Markt ist einer der größten Märkte im Mittelalter gewesen. Die Stadt Dortmund vergibt alle zwei Jahre den Nelly-Sachs-Preis für Literatur. Seit 1957 gibt es die Internationalen Kulturtage der Stadt Dortmund, das mittlerweile älteste kontinuierlich stattfindende Kulturfestival in Deutschland. Alle zwei Jahre stellt ein europäisches Partnerland Exponate seiner kulturellen Vielfalt auf unterschiedlichen Veranstaltungen vor. Rund 20 europäische Länder waren bisher zu Gast. Heute sind die Dortmunder Kulturtage Kern des landesweiten Ereignisses. Eingebunden in die Kulturtage wird beim Jazzfestival europhonics die Jazzszene des jeweiligen Partnerlandes beleuchtet und vorgestellt. Das 1987 zunächst unter dem Titel Dortmunder Jazzfrühling initiierte Musikfest präsentiert jährlich zeitgenössischen, europäischen Jazz an unterschiedlichen Spielorten in der Stadt. Das Frauenfilmfestival femme totale wird seit 1987 zweijährlich veranstaltet. Bei dem Festival mit einem thematischen Schwerpunkt, werden Produktionen gezeigt in denen Frauen im Bereich Regie, Drehbuch, Ton oder Kamera maßgeblich mitgewirkt haben. Auf dem Filmfestival werden zudem ein themenunabhängiger Spielfilmwettbewerb für Regisseurinnen, ein Nachwuchsförderpreis für junge Bildgestalterinnen und ein Förderpreis für Kamerafrauen vergeben. Das Festival fusionierte im Jahre 2005 mit der Kölner feminale zum Köln, das nun abwechselnd in Dortmund und Köln stattfindet. Seit 1997 richtet sich das Tanz- und Theaterfestival off limits an die freie Tanz- und Theaterszene. Parallel zum Festival wird ein Symposium veranstaltet. Jährlich wird das Dortmunder Literaturfestival LesArt abgehalten. Wie in anderen deutschen Städten öffnet sich die Kulturlandschaft der Stadt jährlich auf dem Tag des offenen Denkmals und der Dortmunder Museumsnacht einem breiten Publikum. Der Dortmunder Weihnachtsmarkt ist mit über 300 Ständen einer der größten Weihnachtsmärkte Deutschlands und wird alljährlich von mehr als zwei Millionen Besuchern aus der Stadt, der Region und aus dem Ausland besucht. Die Attraktion des auf mehreren Plätzen der Innenstadt stattfindenden Dortmunder Weihnachtsmarktes ist der als Gerüstkonstruktion errichtete höchste Weihnachtsbaum der Welt auf dem Hansaplatz mit einer Höhe von 45 Metern. Die Gerüstkonstruktion, in der eine Sprinkleranlage (52 Löschdüsen, 3200 Liter/Minute) zur Brandbekämpfung installiert ist, wird mit 1700 Rotfichten bestückt. 44.000 Lämpchen sorgen für die Beleuchtung. Der Baum hat ein Eigengewicht von 30 Tonnen und wird mit einem Betonfundament von 140 Tonnen gesichert. Auf Grund des bereits jetzt hohen Gewichts ist kein höherer Baum möglich, da die maximale statische Belastbarkeit der unter dem Hansaplatz gelegenen mehrgeschossigen Tiefgarage erreicht ist. Jedes Jahr wird von Ende November bis Anfang Januar des folgenden Jahres der Westfalenpark im Rahmen der Aktion „Winterleuchten“ illuminiert. Kulinarische Spezialitäten. Am Dortmunder Bier, gerne als Stößchen getrunken, führt in der Dortmunder Küche kein Weg vorbei. Trotz des Niedergangs des ehemals größten Brauereistandorts in Europa hat das Dortmunder Helle, ein herbes, untergäriges Exportbier, weiterhin Weltruf. Als bodenständiges Getränk, gereicht zu den westfälischen Spezialitäten Pfefferpotthast mit Pumpernickel, Panhas oder Möppkenbrot, findet es bis heute viele Liebhaber. Die Dortmunder Gastronomie feiert jährlich neben der publikumswirksamen Leistungsschau Dortmund à la carte ein Pfefferpotthastfest auf dem Alten Markt. Eine Gebäckspezialität ist der Salzkuchen, ein kreisrundes, mit Salz und Kümmel gewürztes Brötchen mit einer Vertiefung in der Mitte. Er wird häufig mit Mett belegt gegessen, wobei die Vertiefung gehackte Zwiebeln aufnimmt. Sport. Dortmund ist für den Sport als Heimat bekannter Sportvereine, als Austragungsort wichtiger Wettbewerbe, als Standort großer Sportstätten sowie als Sitz nationaler Sportverbände von Bedeutung. Mehr als 140.000 Menschen sind in 564 Sportvereinen organisiert und geben damit dem Breitensport als auch dem Leistungssport in der Region wichtige Impulse. Sportverbände. Hauptsitz der Handball-Bundesliga GmbH (HBL GmbH) Dortmund Sitz des Deutschen Handballbundes, der mit aktuell etwa 803.000 Mitgliedern in etwa 4.500 Vereinen mit etwa 24.000 Mannschaften als weltweit größter Handball-Dachverband gilt. Der Hauptsitz befindet sich Willi-Daume-Haus an der Strobelallee. Darüber hinaus ist Dortmund gleichzeitig Sitz der Handball-Bundesliga GmbH, mit ihrem Standort am Phoenixsee. Die Kernaufgaben der Handball-Bundesliga GmbH (HBL GmbH) bestehen dabei in der Organisation und der Zentralvermarktung der deutschen Profi-Handballbundesligen. In Dortmund ist außerdem der Olympiastützpunkt Westfalen als drittgrößter Stützpunkt Deutschlands beheimatet. An den Standorten Dortmund, Bochum, Warendorf und Winterberg werden mehr als 550 Sportlerinnen und Sportler in über 20 Sportarten betreut. Das Bundesleistungszentrum Rudern ist seit vielen Jahren Trainingsheimat des Deutschland-Achters und bietet den Ruderern ideale Trainings- und Umfeldbedingungen. In den vergangenen Jahren stieg die zentrale Bedeutung des Stützpunktes stetig. Aufgrund einer deutlich gestiegenen Anzahl an Kader-Athletinnen und -Athleten wurde mit Hilfe der Stadt Dortmund, der Ministerien des Bundes und des Landes das Zentrum zu einer modernen Trainingsstätte für das Leistungsrudern ausgebaut. Auch der Deutsche Ringer Bund hat seine Geschäftsstelle in Dortmund. Daneben existieren Leistungszentren für die Sportarten Schießen, Eiskunstlauf und Eistanz. Vereine und Sportstätten. Schachstar Kramnik (links) beim Chess-Meeting 2006 Dortmunds sportliches Aushängeschild ist der traditionsreiche Fußball-Bundesligist Borussia Dortmund, Deutscher Fußballmeister 1956, 1957, 1963, 1995, 1996, 2002, 2011 und 2012, DFB-Pokal-Sieger 1965, 1989 und 2012, Europapokalsieger der Pokalsieger 1966 sowie Champions-League- und Weltpokalsieger 1997, der im Signal Iduna Park (ehemals Westfalenstadion) südlich der Innenstadt spielt. Der Verein hat etwa 90.000 Mitglieder und einen Zuschauerschnitt von 79.141 Zuschauern. Die 2. Mannschaft stieg 2012 in die 3. Liga auf. Die Handballdamen des BVB spielen zur Saison 2008/09 wieder in der Bundesliga. Die erste Mannschaft der Tischtennisabteilung gehört der zweiten Bundesliga an. Die ausgeprägte Fußball- und Sportbegeisterung der Menschen in Dortmund ist international bekannt. Das Westfalenstadion war Spielstätte der Fußball-Weltmeisterschaften 1974 und 2006. Es bietet Platz für 80.720 Zuschauer und ist damit das größte reine Fußballstadion in Deutschland und das viertgrößte Stadion in Europa. In direkter Nachbarschaft befindet sich das Stadion Rote Erde und das Leichtathletikzentrum Helmut-Körnig-Halle. Die ebenfalls benachbarten Westfalenhallen sind bekannt als Schauplatz zahlreicher Europa- und Weltmeisterschaften in verschiedenen Sportarten, wie der Handballweltmeisterschaft 2007. Seit 1925 wird in der Westfalenhalle das traditionelle Steherrennen immer am 2. Weihnachtsfeiertag abgehalten, dem am gleichen Ort 1926 das jährliche Sechstagerennen bis 2008 folgte. Das internationale Reit- und Springturnier in der Dortmunder Westfalenhalle zählt zu den wichtigsten Veranstaltungen des Reitsports in Deutschland. Die Helmut-Körnig-Halle und das Stadion Rote Erde stellen die Hauptstützpunkte der Dortmunder Leichtathletikgemeinde dar. Zahlreiche Vereinsmannschaften haben sich in der LG Olympia Dortmund zusammengefunden; zahlreiche Sportler der LGO erzielen auf nationaler und internationaler Ebene große Erfolge. Auch Basketball findet einen großen Zuspruch. Der in Dortmund ansässige Verein SVD 49 Dortmund spielt derzeit in der Basketball-Regionalliga und erfreut sich bei Heimspielen in der Brügmannhalle regelmäßig an einer ausverkauften Halle. Besonders seit dem Bundesliga-Jahr 1992/93 erregt der Verein ein breites Interesse in der Öffentlichkeit. Ein weiterer Traditionsverein in Dortmund ist die Eishockeymannschaft des EHC Dortmund. Die Ursprünge des Vereins gehen auf das Jahr 1937 zurück, als der EV Westfalen Dortmund gegründet wurde. In der Folgezeit gab es weitere drei Nachfolgevereine, die allesamt den Spielbetrieb aus finanziellen Gründen einstellen mussten. Der EHC Dortmund besteht seit 1996 und feierte im Sommer 2006 sein zehntes Jubiläum. Aktuell spielt der EHC in der dritthöchsten deutschen Eishockeyliga, der Oberliga. In den Jahren 2007 sowie 2008 konnte der Verein jeweils die Regionalliga-Meisterschaft gewinnen. Die Heimspielstätte der "Elche" ist das Eissportzentrum Westfalenhallen. Der 1. Snooker Club Dortmund spielt seit 2011 in der 1. Snooker-Bundesliga. Im Dortmunder Schauspielhaus wird das Sparkassen Chess-Meeting Dortmund ausgetragen. Hervorgegangen aus den seit 1973 jährlich stattfindenden Internationalen Dortmunder Schachtagen gilt es als wichtigstes und stärkstes Schachturnier in Deutschland und besitzt internationale Bedeutung. Der Schachclub Hansa Dortmund e. V. spielte 2011/2012 in der Schachbundesliga, derzeit in der Staffel West der 2. Schachbundesliga. Die seit 1913 bestehende Dortmunder Galopprennbahn im Stadtteil Wambel verfügt über eine 2000-m-Grasbahn und eine 1600-m-Allwettersandbahn. Auf der mit Flutlichtanlage und überdachten Tribünen ausgestatteten Rennbahn werden jährlich das Deutsche St. Leger und der Große Preis der Dortmunder Wirtschaft ausgetragen. In Dortmund gibt es drei Golfplätze: Den seit 1956 in der Reichsmark vom Dortmunder Golf Club e. V. betriebenen 18-Loch-Platz, die von der ehemaligen britischen Rheinarmee zu Besatzungszeiten angelegte 18-Loch-Anlage Royal Saint Barbara’s in Brackel sowie einen 9-Loch-Golfplatz im Innenfeld der Dortmunder Galopprennbahn. Südlich des Westfalenparks existiert mit der Dortmunder Niere eine Trainingsstrecke für Radsportler. Im Freizeitbereich und beim Breitensport bietet Dortmund ein vielfältiges Angebot. Unter anderem verfügt die Stadt über zehn Schwimmbäder, zahlreiche Sporthallen und -anlagen, ein inzwischen relativ gut ausgebautes, 300 km umfassendes Fahrradwegenetz, eine Mountainbike-Arena (auf dem Gelände der ehemaligen Hausmülldeponie im Stadtteil Deusen, Deusenberg), drei Kletteranlagen, einen Hochseilgarten sowie mehreren Funsportanlagen (Skateboard-, BMX- und Beachvolleyball-Anlagen) und natürlich die vielen Parks und Grünflächen. Insgesamt gibt es fast 600 Sportvereine in Dortmund mit ungefähr 140.000 Mitgliedern. Das denkmalgeschützte Dortmunder Südbad in der Innenstadt ist die traditionelle Austragungsstätte zahlreicher, national bedeutender Schwimmveranstaltungen. Das Bad wurde kürzlich saniert und steht seit Anfang 2007 wieder für Schwimmwettkämpfe zur Verfügung. Eine besondere Bedeutung für den Breitensport besitzen der mit ca. 7000 Mitgliedern größte Verein TSC Eintracht Dortmund, der Stadtsportbund und die Sport Welt Dortmund GmbH, als Betreiber der Dortmunder Schwimmbäder. Eine große Tradition besitzt auch das Ringen in Dortmund. Zwischen 1927 und 1957 wurde der ASV Heros Dortmund zehnmal und der Sportklub Hörde 04 dreimal deutscher Mannschaftsmeister. Seit 2002 kommt es in Dortmund jährlich zu einem Treffen der Weltelite im griechisch-römischen Ringkampf. Mit Unterstützung des Landes Nordrhein-Westfalen und der Stadt Dortmund wird der „Grand Prix der Bundesrepublik Deutschland“ in der Aber auch Randsportarten wie American Football, Poker und Baseball finden in Dortmund Beachtung. So waren 1980 die Dortmund Giants einer der ersten deutschen Footballvereine. Nun spielen die Giants in der dritthöchsten deutschen Spielklasse, in der Regionalliga. Im Jahre 2008 spielt die Baseballmannschaft der Dortmund Wanderers in der höchsten deutschen Spielklasse, der 1. Bundesliga. Im Dortmunder Casino Hohensyburg wurde die European Poker Tour von 2007 bis 2009 veranstaltet. Straßenverkehr. Die Stadt wurde nach dem Zweiten Weltkrieg autofreundlich wieder aufgebaut. Auffälligste Merkmale sind die südlich des Stadtkerns durch das Stadtgebiet verlaufende B 1 und der vier- bis sechsspurige Innenstadtring entlang des ehemaligen Stadtwalls. Innerhalb dieses Rings ist der Autoverkehr nur noch sehr eingeschränkt möglich – der größte Teil dieses Gebiets ist zur Fußgängerzone ausgebaut. Dortmund ist der bedeutendste Verkehrsknotenpunkt Westfalens. Im Straßenverkehr ist die Stadt über die sechs Autobahnen A 1 (Bremen–Köln), A 2 (Oberhausen–Berlin), A 40 (Dortmund–Venlo), A 42 (Dortmund–Kamp-Lintfort), A 44 (Aachen–Dortmund sowie Dortmund–Kassel), A 45 (Dortmund–Aschaffenburg) und vier Bundesstraßen (B 1, B 54, B 235 und B 236) an das deutsche Fernstraßennetz angebunden. Mit dem Kamener Kreuz, dem Westhofener Kreuz sowie den Autobahnkreuzen Unna und Dortmund-Nordwest liegen wichtige deutsche Autobahnkreuze auf oder in Nähe des Dortmunder Stadtgebiets. Schienenverkehr. Im Schienenverkehr verfügt Dortmund mit dem Dortmunder Hauptbahnhof über einen ICE-Fernbahnhof. Er zählt mit 41 Millionen Fahrgästen jährlich zu den wichtigsten Eisenbahnknoten im deutschen Personenverkehr. Darüber hinaus gibt es 23 Regionalbahnhöfe auf Dortmunder Stadtgebiet. Gemessen an den Anbindungen im Regionalverkehr bilden der Bahnhof Dortmund-Hörde sowie der Bahnhof Dortmund-Kurl die zweitwichtigsten Verkehrspunkte im Schienenverkehr, hinzu kommen 25 weitere S-Bahn-Stationen in Dortmund. Eine weitere wichtige Verkehrsanlage ist dabei auch der im Osten der Stadt an der Strecke nach Hamm gelegene Betriebsbahnhof als Standort der DB Regio NRW und DB Fernverkehr AG. Neben den Elektrolokomotiven und den Dieseltriebwagen des Regionalverkehrs und den Waggons des Fernverkehrs wird hier auch der ICE 3 gewartet. Im Schienengüterverkehr ist Dortmund jedoch nach Stilllegung der beiden Rangierbahnhöfe Dortmund Rbf und Dortmunderfeld kein Eisenbahnknoten mehr. Luftfahrt. Der Flughafen Dortmund, liegt im Osten Dortmunds an der Stadtgrenze zu Holzwickede und Unna. Der ehemalige Verkehrslandeplatz entwickelte sich in den letzten Jahren gemessen am Passagieraufkommen zum drittgrößten Verkehrsflughafen in Nordrhein-Westfalen. Aufgrund des allmählichen Rückzugs des langjährigen Hauptnutzers Eurowings hat sich der Flughafen auf die Gewinnung neuer Fluggesellschaften konzentriert. Daher machen heute Billigfluggesellschaften einen Großteil des Flugbetriebs aus. Hinzu kommt ein größerer Anteil an touristischem Linienverkehr, der Geschäftsreiseverkehr sowie die allgemeine Luftfahrt. Auf dem Gelände des Flughafens befindet sich außerdem eine Einsatzstaffel der Polizeiflieger Nordrhein-Westfalen und eine Station der DRF Luftrettung. Der Flughafen Dortmund ist über die B 1 sowie im öffentlichen Nahverkehr über einen Transferbus direkt über den Bahnhof Holzwickede/Dortmund-Flughafen erreichbar. Seit 2004 betreibt der Flughafen Dortmund zusätzlich den FlughafenExpress, der zwischen dem Zentralen Omnibus Bahnhof am Dortmunder Hauptbahnhof und dem Flughafen verkehrt. Der VRR-Tarif gilt auf dieser Strecke nicht. Der Flughafen Düsseldorf International ist in etwa einer Stunde mit der Bahn oder dem PKW zu erreichen. Schifffahrt. In der Binnenschifffahrt ist Dortmund über den Dortmund-Ems-Kanal mit dem Rhein und der Nordsee verbunden und verfügt über den größten Kanalhafen Europas. Nahverkehr. Der Dortmunder Nahverkehr wird zum Großteil durch die DSW21 im Verkehrsverbund Rhein-Ruhr betrieben. Im Schienenpersonennahverkehr (SPNV) ist Dortmund durch die vier S-Bahn-Linien S 1, S 2, S 4 und S 5, zahlreiche Regional-Express-Züge und Regionalbahnen erschlossen. Im Kommunalen Personennahverkehr verfügt Dortmund über ein Netz aus acht innerstädtisch unterirdisch verlaufenden Stadtbahnlinien: U 41, U 42, U 43, U 44, U 45, U 46, U 47 und U 49. Im April 2008 wurden unter der Innenstadt die letzten Tunnelstrecken fertiggestellt. Die beiden letzten Straßenbahnlinien 403 und 404 wurden nach Eröffnung des Ost-West-Tunnels umgewandelt und heißen nun U 43 und U 44. Außerdem sind eine Verlängerung der U 49 nach Wellinghofen und ein neuer Abzweig an der U 47 nach Kirchlinde in Planung. Es gibt noch 73 Buslinien. Dieses Streckennetz umfasst 852,1 Kilometer und befördert jährlich 125 Millionen Personen. Es bestanden Planungen, die Volmetalbahn von Dortmund über Hagen nach Lüdenscheid als Stadtbahn umzusetzen. Die Stadtbahn sollte direkt vom Dortmunder Stadtzentrum über das Hagener Stadtzentrum bis in die Innenstadt von Lüdenscheid geführt werden. 1997 wurde dazu ein Konzept zur Regionalstadtbahn Hagen vorgestellt, was trotz des verkehrlichen Nutzens aus Kostengründen abgelehnt wurde. Zudem gibt es eine automatische H-Bahn zwischen den beiden Universitätsstandorten und dem Stadtteil Eichlinghofen sowie dem Technologiepark. Auffallend waren die roten Doppeldecker-Schnellbusse, mit denen die VKU den ZOB am Hauptbahnhof Dortmund mit dem Busbahnhof in Bergkamen verband. Jetzt verkehren dort meistens Gelenkomnibusse. Traditionelle Wirtschaftssektoren, Wandel und Perspektiven. a> auf dem früheren Standort der Union-Brauerei Im Rahmen der Industrialisierung entwickelte sich Dortmund rasch zu einem Zentrum der Schwerindustrie (Kohle- und Stahlindustrie). Bedeutende Dortmunder Konzerne waren Hoesch, die Dortmunder Union, die Phoenix AG für Bergbau und Hüttenbetrieb sowie die ab 1969 unter dem Dach der Ruhrkohle AG zusammengefassten Dortmunder Zechen. Noch Mitte des 20. Jahrhunderts gab es auf dem heutigen Dortmunder Stadtgebiet mehr als 15 Kohlebergwerke, deren letztes 1987 den Betrieb einstellte. "Siehe auch Liste ehemaliger Bergwerke in Dortmund." Der letzte bedeutende Bergbauzulieferer, die Maschinenfabrik Gustav Schade, wurde erst später geschlossen. Die wirtschaftlich gesunde Hoesch AG wurde 1992 von der Essener Krupp Stahl AG übernommen. 1997 fusionierten Krupp-Hoesch und die Düsseldorfer Thyssen Stahl AG zur ThyssenKrupp Stahl AG, mit drastischen Folgen für die Dortmunder Hüttenstandorte. Die Flüssig-Phasen der Eisen- und Stahlproduktionen wurden in Dortmund in den Folgejahren stillgelegt, weil der neue Konzern seine Stahlsparte an der geografisch günstigeren Rheinschiene konzentrierte. Der hieraus entstandene Arbeitsplatzabbau war für Dortmunds Wirtschaft eine schwere Belastung. Der Maschinen- und Anlagenbau besitzt in Dortmund eine große Tradition. Aktiv sind neben der Chemieanlagenbau-Gesellschaft ThyssenKrupp Uhde GmbH, die heute ebenfalls zur ThyssenKrupp AG gehört, der Maschinen- und Anlagenbauer "KHS GmbH", früher "Holstein & Kappert", mit Unternehmenssitz in der Juchostraße, Hersteller von Verpackungs- und Getränkeabfüllmaschinen. Ein nicht mehr in Dortmund tätigendes Unternehmen ist die Thyssen Klönne AG. Baufahrzeuge wurden früher in Dortmund durch das Unternehmen Orenstein & Koppel hergestellt, die bei den Hoesch-Krupp-Fusionen zur Krupp Fördertechnik und deren Schwesterunternehmen kam. Die O&K Baggersparte wurde durch den amerikanischen Terex-Konzern übernommen und fertigt bis heute schwere Baumaschinen in Dortmund. Auch der Werkzeugmaschinenbau hat eine namhafte Dortmunder Vergangenheit: in Lütgendortmund an der Stadtgrenze zu Bochum existierte bis in die 1980er Jahre das Familienunternehmen Tönshoff, ehedem weltbekannter Hersteller von Mehrspindel-Drehautomaten. Mit der früheren „Hoesch Maschinenfabrik Deutschland“ hatte Dortmund an der Bornstraße nahe der Westfalenhütte einen Hersteller von Größt-Drehmaschinen aufzuweisen. Die Maschinenfabrik Rothe Erde ist ein führender Hersteller von Großwälzlagern. Der Boom der Windenergie sichert dem Unternehmen steigende Absatzzahlen. Mittlerweile haben sich in Dortmund Unternehmen der Versicherungs- und Finanzwirtschaft sowie im Umfeld der Universität viele moderne IT- und Dienstleistungsunternehmen etabliert, die für Beschäftigung sorgen. Über seine Grenzen hinaus wurde Dortmund als Bierstadt durch das Brauen von Exportbier bekannt. Von den zahlreichen Dortmunder Brauereien (unter anderem Bergmann, Borussia, Actien (DAB), Union (DUB), Kronen, Hansa, Ritter, Stifts, Thier), die nach dem Ersten Weltkrieg zu Großbrauereien wuchsen und nahezu 50 Jahre lang den deutschen Biermarkt beherrschten, blieb nur noch eine übrig: Unter dem Dach der zur Bielefelder Dr. August Oetker KG gehörenden Dortmunder Actien-Brauerei (DAB) sind heute alle Dortmunder Biermarken vereint. Strukturwandel. In der Zeit von 1960 bis 1994 verringerte sich die Zahl der Industriebeschäftigten von 127.000 auf 37.000 Personen. Neue Arbeitsplätze wurden hauptsächlich im Bereich der Informationsverarbeitung sowie bei Banken und Versicherungen geschaffen. Ein zukunftsweisendes Signal war Ende 1968 die Gründung der Universität Dortmund. Die Campus-Universität legte den Grundstein für den heutigen Wissenschaftsstandort. In räumlicher Nähe zur Universität wurde 1984 das Technologiezentrum als eines der ersten Deutschlands eröffnet. Im angrenzenden Technologiepark siedelten sich seit 1988 mehr als 225 Unternehmen mit über 8500 Mitarbeitern an. Das Projekt Stadtkrone-Ost auf dem ehemaligen Kasernengelände an der B 1 ist ein weiteres positives Beispiel des mit der Kohlekrise von 1958 einsetzenden und bis heute unverändert anhaltenden Strukturwandels in Dortmund. Dort ist auch der Hauptsitz der börsennotierten Adesso AG, eines der Top 25 IT-Beratungs und Systemintegrations-Unternehmen Deutschlands. Mit dem dortmund-project einem Public Private Partnership zwischen der Stadt, dem Konzern ThyssenKrupp, das vom Unternehmensberater McKinsey & Company nach dem Vorbild der Wolfsburg AG erarbeitet wurde, soll sowohl die durch den Strukturwandel entstandene Beschäftigungslücke geschlossen werden, als auch neue Leitbranchen für die Stadt entwickelt und gestärkt werden. Die Industriebrachen wurden in das Gesamtkonzept mit eingebunden. Die Kompetenzfelder Logistik, Mikrosystemtechnik (MST) und Informations- und Kommunikationstechnologien wurden als neue Führungsbranchen auserkoren. Später kamen die Gesundheitswirtschaft, die Biomedizin und die Energietechnik hinzu. Das Projekt ist im Jahr 2005 unbefristet in die städtische Wirtschaftsförderung integriert worden. Unter anderem sollte im Rahmes des Projektes die Zahl der Erwerbstätigen bis zum Jahr 2010 den Stand von 325.000 Erwerbstätigen vor dem Einbruch der Montanindustrie erreichen. Im April 2011 waren durch direkte und indirekte Folgen des Projektes 298.000 Erwerbstätige erreicht, was 53.000 der fehlenden 80.000 entsprach. Im Jahr 2008 wurden weitere Ziele bis zum Jahr 2018 veröffentlicht: Nach ihnen sollen die Arbeitslosenquote den einstelligen Bereich erreichen und die Einwohnerzahl stabil bleiben. Außerdem sollte sich die Zentralitätskennziffer (u. a. durch die Thier-Galerie) von 114 (2008) auf 118 erhöhen. Dieser Wert konnte inzwischen (2014) sogar auf 124 gesteigert werden. Im Logistik-Bereich zeigen sich nach der EU-Osterweiterung Erfolge. Ikea baute sein Europa-Distributionscenter in Dortmund. Auch Branchengrößen wie Rhenus oder DHL betreiben in Dortmund für einige Kunden Logistikzentren mit europäischer Reichweite. Insgesamt arbeiten heute 26.316 Menschen in 860 Unternehmen im Logistikbereich. Der tertiäre Sektor (Dienstleistungen) bildet heute den mit Abstand größten Anteil (73 %) im Dortmunder Wirtschaftsgeschehen und hat sich mit Vorliebe im weiträumigen Bereich entlang der B 1 (Westfalendamm und Rheinlanddamm) und an den südlichen City-Ausfallstraßen angesiedelt. Die Stadt ist mittlerweile mehrfach für den erfolgreichen Strukturwandel gelobt worden. Laut dem Wirtschaftsmagazins Capital ist Dortmund die Stadt im Ruhrgebiet, die die besten Wirtschaftsaussichten bis 2013 besitzt. Das Handelsblatt bezeichnete die Stadt 2004 in ihrem Zukunftsatlas als „stillen Star“. 2006 erhielt die Stadt für die MST.factory die Eurocities-Auszeichnung in der Kategorie „Innovation“. Ebenso stieg die Bedeutung Dortmunds als Oberzentrum des Einzelhandels. Der Westenhellweg im Herzen der Innenstadt gilt neben der Kaufingerstraße in München, der Zeil in Frankfurt am Main und der Schildergasse in Köln als eine der am häufigsten frequentierten Einkaufsmeilen Deutschlands. Die hohen Mietpreise und nicht vorhandene Leerstände auf dem Westenhellweg und Ostenhellweg reflektieren diese Entwicklung. Arbeitslosigkeit. Trotz des in Ansätzen erfolgreichen Strukturwandels ist die Anzahl Erwerbsloser in Dortmund sehr hoch. Wie im gesamten Ruhrgebiet liegt die Arbeitslosenquote über dem Bundes- und Landesdurchschnitt, ist aber selbst im Vergleich zu anderen Ruhrgebietsstädten ausgesprochen hoch. Allerdings unterscheidet sich die Situation in den einzelnen Stadtteilen mit einer deutlich höheren Ausprägung in den nördlichen Stadtteilen. So lag die Arbeitslosenquote bezogen auf abhängige zivile Erwerbspersonen im Stadtbezirk Innenstadt-Nord 2003 bei schätzungsweise 27,2 % im Vergleich zu nur 9,6 % im Stadtbezirk Hombruch. In den letzten Jahren verringerte sich die Zahl der Arbeitslosen. Als Grund hierfür sind vor allem der deutschlandweite Konjunkturaufschwung sowie die wachsende MST- und IT-Branche anzusehen, in der etwa 15.000 Arbeitsplätze entstanden sein sollen. Nach den Angaben des Amts für Statistik und Wahlen der Stadt Dortmund betrug die Arbeitslosenquote (in Prozent) in Dortmund jeweils zum 30. Juni Ansässige Unternehmen. a> GmbH und RWE Service GmbH Einer der größten Arbeitgeber Dortmunds ist die Stadt selbst mit zahlreichen Tochterunternehmen. Die Dortmunder Stadtwerke AG (DSW21), die ehemaligen Dortmunder Stadtwerke, beschäftigten in ihren zahlreichen Tochterunternehmen in den Geschäftsfeldern Transport, Energie, Telekommunikation, Wohnungsbau und Stadtentwicklung über 3.000 Menschen. Zusammen mit den Bochumer Stadtwerken besitzen die Dortmunder Stadtwerke die Gelsenwasser AG. Die Dortmunder Energie- und Wasserversorgung GmbH (DEW21) ist ein gemeinsames Unternehmen der DSW21 und der RWE und versorgt die Einwohner der Stadt Dortmund mit Erdgas, Strom, Wärme und Wasser und bietet Dienstleistungen rund um diese Produkte für Geschäfts- und Privatkunden an. Die Stadt besitzt außerdem Aktienanteile an der RWE AG, die Dortmund zu einem wichtigen Unternehmensstandort ausgebaut hat. Darüber hinaus bestehen mit der Westfalenhallen Dortmund GmbH als Betreiber des Veranstaltungszentrum Westfalenhallen und der dortigen Messe, der Entsorgung Dortmund GmbH (EDG) ist ein in den 1990er Jahren gegründetes Unternehmen der Entsorgungsbranche in Dortmund. Die Hauptaufgabe der EDG ist die Reinigung öffentlicher Flächen sowie der Müllabtransport und der Dokom21 als Gesellschaft für Telekommunikation mbH Dortmund ist eines der wichtigsten Zentren der deutschen Versicherungswirtschaft. Neben der Continentale Krankenversicherung, der Muttergesellschaft des Continentale Versicherungsverbundes, hat auch die Signal Iduna Gruppe als ein Zusammenschluss der Hamburger Iduna-Gruppe und der Dortmunder Signal-Versicherungen einen Hauptsitz in der Stadt. Beide Unternehmen zählen zu den 20 größten Versicherungen nach Beitragseinnahmen in Deutschland. Zu ansässigen Kreditinstitute der Finanzwirtschaft zählen die Sparkasse Dortmund AöR, die Volksbank Dortmund-Nordwest eG sowie die Dortmunder Volksbank eG die 2013 mit der Volksbank Hamm fusionierte. Am Schwanenwall befindet sich der Hauptsitz der Bank für Kirche und Diakonie eG – KD-Bank, ein Spezialist in allen Finanzfragen für Kirchen und Diakonie in Deutschland. Mit mehr als 12.000 Beschäftigten in über 100 Unternehmen bildet Dortmund einen wichtigen Standort für die Kommunikationsverarbeitung und Informationstechnologie-Wirtschaft. Dies liegt darin begründet, das mit der TU Dortmund, der Fachhochschule und dem IT-Center Dortmund eine der ältesten und größten Ausbildungsstätten mit der gesamten Bandbreite der Informationstechnik in der Stadt angesiedelt ist. Mit der Adesso AG und der Materna GmbH sind zwei der 25 größten deutschen IT-Beratungs- und Systemintegrations-Unternehmen in der Stadt beheimatet. Durch verschiedene Förderungen und Initiative der Stadt Dortmund sowie der Kooperation mit den Bildungseinrichtungen mit der TU Dortmund oder der FH Dortmund hat sich in und um die Stadt Dortmund ein Netzwerk von Start-Up Unternehmen entwickelt. So zählt das Dortmunder Unternehmen Baby-Markt zu den größten und ältesten Online-Shops Deutschlands, beschäftigt inzwischen 300 Mitarbeiter und ist mit über 40.000 Artikeln einer der führenden Anbieter von Baby- und Kinderausstattungen im Land. Weitere Unternehmen sind RapidMiner, acardo group AG, Shop.Co, experiencr, Urlaubsguru, LUEX, GEOMobile und die Readbox. Trotz tiefgreifendem Strukturwandel ist Dortmund weiterhin einer der größten Standorte Deutschlands im Anlagen- und Maschinenbau. Neben der WILO SE als weltweit führender Hersteller für Pumpensysteme für die Heizungs-, Kälte- und Klimatechnik besitzen mit der KHS GmbH mit über 1.200 Mitarbeitern der größte industrielle Arbeitgeber der Stadt und der ABP Induction Systems GmbH führenden Hersteller von Anlagen- und Maschinenbau ihren Hauptsitz in Dortmund. Weitere Unternehmen der Brachen mit Hauptsitz in Dortmund sind ThyssenKrupp Rothe Erde, ThyssenKrupp Uhde GmbH, Anker-Schroeder.DE ASDO GmbH und Elmos Semiconductor AG. Die Mercedes-Benz Minibus GmbH fertigt in Dortmund Kleinbusse mit 8 bis 22 Sitzplätzen auf Basis des Kleintransporters Sprinter. Darüber hinaus besitzt die Caterpillar Global Mining HMS GmbH ein Produktionswerk für Großhydraulikbagger für den weltweiten Einsatz im Bergbau in Dortmund-Dorstfeld. Darüber hinaus gehört Dortmund zu den führenden Logistikstandorten Deutschlands und hat sich zu einer wichtigen Logistikdrehscheibe im Zentrum Europas entwickelt. Über 800 Unternehmen der Logistik und verwandter Branchen beschäftigen heute über 26.000 Menschen innerhalb der Stadt. Derzeit existieren in Dortmund rund 50 Distributionszentren von renommierten Unternehmen wie dem Ikea Zentrallager der Ikea Lager und Service GmbH und der Rhenus AG & Co. KG. Darüber hinaus steuern Unternehmen wie ETL Fiege, Kaufland, Rewe, Tedi oder ThyssenKrupp Materials von Dortmund aus europaweit ihre Warenströme. Zu ansässigen Unternehmen der Gasnetz, Verteilernetzbetreiber sowie Übertragungsnetzbetreiber zählen neben der Amprion GmbH als zweitgrößter Übertragungsnetzbetreiber in Deutschland und die Schweiz außerdem RWE Vertrieb, Thyssengas und Progas. Der größte Verteilnetzbetreiber in Deutschland Westnetz GmbH hat seinen Hauptsitz an der Florianstraße in der Nähe des Westfalenparks. Zu weiteren Großunternehmen mit Sitz in Dortmund zählen Verizon Deutschland GmbH, Borussia Dortmund GmbH & Co. KGaA, Dortmunder Actien-Brauerei AG, RGM Holding, Captrain Deutschland, Rewe Dortmund Großhandel eG, Hellweg – Die Profi-Baumärkte GmbH & Co. KG und TEDi GmbH & Co. KG. Ende 2014 kündigte die Nordwest Handel AG an, bis 2016 ihren Hauptsitz nach Dortmund zu verlegen. Ab 2018 wird Dortmund mit dem Standort Hörder Burg Sitz der Sparkassenakademie NRW. Einzelhandel. Der etwa 900 Meter lange Westenhellweg in der Innenstadt ist die bekannteste und umsatzstärkste Einkaufsstraße in Dortmund und dem gesamten Ruhrgebiet. Seit Beginn der Messung der Passantenströme im Jahre 1999 durch Jones Lang LaSalle gehört der Westenhellweg zu den meistfrequentierten Einkaufsstraßen Deutschlands. Die im Jahre 2013 durchgeführte Untersuchung ergab 12.950 Besucher pro Stunde, was dem Westenhellweg den Titel der meistfrequentierten Einkaufsstraßen Deutschlands brachte. Darüber hinaus liegt der Westenhellweg im bundesweiten Mietpreisvergleich für Einzelhandelsflächen immer unter den Top 10 Standorten in Deutschland. Insgesamt wird der Westenhellweg stark durch Filialen großer Einzelhandels- (Kaufhof, Karstadt, C&A, H&M), Mode- (Peek & Cloppenburg, Esprit, s.Oliver, Zara) und Handelsketten (Parfümerie Douglas, Mayersche Buchhandlung) sowie Boutiquen, Fachgeschäfte und Gastronomie geprägt. Ein Ladenbesitzer zahlt hier bis zu 235 Euro pro Quadratmeter. Im Jahr 2011 eröffnete das neue Einkaufszentrum Thier-Galerie am oberen Westenhellweg. Darüber hinaus gibt es weitere diverse Einkaufsstraßen innerhalb des Dortmunder Stadtzentrums mit unterschiedlichen Schwerpunkten des Einzelhandels, wie den Ostenhellweg, die Kaiserstraße als Verlängerung des Hellweges oder die Brückstraße. Während die genannten Einkaufsstraßen ansässigen Geschäfte in der günstigen bis mittleren Preiskategorie liegen, ist die nahe gelegene Kleppingstraße für ihre hochpreisigen Modeläden, Boutiquen, Designer-Shops und Galerien bekannt. Des Weiteren hat sich zwischen Ostwallmuseum, Südwall und altem Markt eine erheblich ausgeprägte Gastronomieszene mit mediterranem Flair entwickelt. Einen weiteren Einzelhandelsstandort repräsentiert der Indupark im Dortmunder Westen. Als Einkaufs- und Gewerbezentrum, das auf dem Gelände einer ehemaligen Zeche errichtet wurde, bietet der Indupark Platz für großflächige Geschäfte wie IKEA, Media-Markt oder Decathlon. Kennzahlen des Einzelhandels. Dortmund weist mit einer Kennziffer von lediglich 93,0 im Jahr 2014 ein vergleichsweise geringes Kaufkraftniveau auf. Wie die Abbildung zeigt, ist die Kaufkraftkennziffer in Dortmund in den vergangenen Jahren stetig gefallen und lag noch vor sechs Jahren mit 100,2 im Jahr 2008 über dem Bundesdurchschnitt. Verglichen mit umliegenden Städten wie Bochum, Unna oder Witten ist das Kaufkraftniveau Dortmunds relativ moderat. Insbesondere in den südlich an das Stadtgebiet angrenzenden Städten wie Herdecke oder Schwerte lässt sich ein vergleichsweise höheres Kaufkraftniveau feststellen, wohingegen die nördlich angrenzenden Städte wie Lünen eine tendenziell niedrigere Kaufkraftkennziffer aufweisen. Bezüglich der Zentralitätskennziffer zeigt sich die hohe Bedeutung Dortmunds als Einzelhandelsstandort in der Region. Mit einer Zentralitätskennziffer von 124,0 im Jahr 2014 liegt Dortmund deutlich über dem Bundesdurchschnitt sowie dem Schnitt der umliegenden Städte. In allen herangezogenen Vergleichsstädten liegt die Handelszentralität unter dem Wert von Dortmund. Dies verdeutlicht, dass Dortmund trotz des vergleichsweise geringen Kaufkraftniveaus der eigenen Bevölkerung im Stande ist, durch einen bedeutenden Kaufkraftabzug aus dem Umland eine sehr hohe Handelszentralität aufzuweisen. Messen. Zum Messezentrum Westfalenhallen gehören neun klimatisierte Hallen mit Flächen zwischen 1.000 und 10.600 Quadratmetern. Die neuste Halle, die Westfalenhalle 3B, wurde im Frühjahr 2005 mit einer Fläche von 10.600 m² eröffnet. Insgesamt bietet das Messezentrum Westfalenhallen eine Ausstellungsfläche von 59.000 m². Zeitungen und Zeitschriften. Lensing Carée als Verlagssitz der Ruhrnachrichten Vor dem Zweiten Weltkrieg erschien in Dortmund mit dem General-Anzeiger für Dortmund die auflagenstärkste überregionale Tageszeitung Deutschlands außerhalb von Berlin. Nach einer Hitler-Karikatur von Emil Stumpp wurde die 1890 von Friedrich Wilhelm Ruhfus gegründete, linksliberale Zeitung von den Nationalsozialisten eingestellt und erschien fortan als Parteiorgan unter dem Namen „Westfälische Landeszeitung – Rote Erde“. An die publizistische Tradition konnte nach Ende des Krieges nicht angeknüpft werden. Heute erscheinen mit der Westfälischen Rundschau (WR), der Westdeutschen Allgemeinen Zeitung (WAZ) und den Ruhr Nachrichten (RN) vor Ort drei lokale Zeitungen. Allerdings gehört die WR zur Funke Mediengruppe, die in Dortmund den Lokalteil eingestellt hat und Inhalte der Ruhr Nachrichten übernimmt. Einmal im Monat erscheint das Obdachlosenmagazin Bodo und wird in der Stadt zum Verkauf angeboten. Kostenlos verteilt werden in Dortmund zahlreiche Anzeigenmagazine wie zum Beispiel der Stadt-Anzeiger und der Nordanzeiger. Diese erscheinen in der Regel wöchentlich. Die kostenlosen Veranstaltungsmagazine coolibri und Heinz liegen monatlich in Kultureinrichtungen und Gaststätten aus. Der Visions-Verlag verlegt in Dortmund das monatlich erscheinende, bundesweit erhältliche Musikmagazin Visions. Des Weiteren befindet sich die Redaktion des größten Rock- und Metal-Magazins Europas, Rock Hard, im Stadtteil Körne. An der TU Dortmund erscheint dreimal pro Semester die Campuszeitung Pflichtlektüre. Fernsehen. Sowohl der Westdeutsche Rundfunk Köln (WDR) als auch Sat.1 betreiben in Dortmund Landesstudios. Der WDR produziert in Dortmund die Sendungen Planet Wissen und Lokalzeit aus Dortmund. Die Lokalzeit aus Dortmund berichtet täglich mit aktuellen Nachrichten über die Region. Sat.1 produziert die NRW-Ausgabe von in Dortmund. Außerdem werden manche Beiträge für verschiedenen Sendungen zum Beispiel für Blitz in Dortmund produziert. Der landesweite TV-Lernsender nrwision hat seinen Standort ebenfalls in Dortmund. An dem Programm beteiligen sich Lehrredaktionen, Amateurfilmer und Bürgergruppen aus ganz NRW. In seiner Mediathek werden gezielt alle Fernsehsendungen nach einzelnen nordrhein-westfälischen Städten bzw. Fernsehmachern aus diesen Orten gebündelt. Der Lernsender wird von der Landesanstalt für Medien Nordrhein-Westfalen gefördert und vom Institut für Journalistik an der TU Dortmund entwickelt und betrieben. Hörfunk. Im WDR Studio Dortmund werden Teile der Hörfunkwellen WDR 2 und WDR 4 sowie die Verkehrsnachrichten produziert. Das lokale Privatradio Radio 91.2 bietet regionale Informationen sowie das Rahmenprogramm von Radio NRW. Das studentische Radio eldoradio* spielt rund um die Uhr Musik, sendet morgens und abends auch Wortbeiträge und kann in Dortmund über Antenne, Kabel und darüber hinaus als Webradio empfangen werden. Die zuvor in Dortmund ansässige Deutsche Hörfunkakademie hat im Jahre 2005 ihre Geschäftsstelle nach Oberhausen verlagert. Seminare und Weiterbildungsveranstaltungen finden allerdings weiterhin am Nollendorfplatz in Eving statt. Verlage. Das Medienhaus Lensing ist der drittgrößte unabhängige Zeitungsverleger in Nordrhein-Westfalen. Der Harenberg Verlag verlegt die Fachzeitschrift "buchreport" und die "Spiegel"-Bestsellerlisten. Einer allgemeinen Öffentlichkeit bekannt wurde der Verlag durch die Reihe "Die Bibliophilen Taschenbücher" und insbesondere die "Chronik des 20. Jahrhunderts". Die Busche Verlagsgesellschaft ist ein Verlag für Hotel- und Gastronomiekritik. Bekannt sind insbesondere die jährlich erscheinenden Werke "Schlemmer Atlas" und "Schlummer Atlas". Der Grafit Verlag verlegt Kriminalromane. Das Plattenlabel Century Media hat seinen Sitz in Dortmund und gehört seit 2015 zu Sony Music Entertainment. Die Aktive Musik Verlagsgesellschaft produziert unter dem Label Igel-Records Kinderkassetten, CDs und Kinderhörbücher Weitere in Dortmund ansässige Verlage sind Auer Verlag, Borgmann Verlag, IFS-Verlag, Ingrid Lessing Verlag, OCM Verlag, pläne, Udeis Verlag, VBE-Verlag, Verlagsgruppe Hermann, Verkehrsblatt-Verlag und Verlag modernes Lernen. Öffentliche Einrichtungen. Gerichtsplatz mit Amtsgericht und Staatsanwaltschaft Als regional bedeutsamer Gerichtsstandort verfügt Dortmund über ein Landgericht, ein Amtsgericht, ein Arbeitsgericht und ein Sozialgericht. Außerdem existieren in Dortmund Generalkonsulate Italiens und Griechenlands sowie Honorarkonsulate von Bangladesch, Ghana, Südafrika und Tschechien. Hochschulen. Mathematikgebäude der Technischen Universität Dortmund Forschungsinstitute. Die Basis der Dortmunder Bildungslandschaft bildet eine Vielzahl unterschiedlicher Schulformen. Dortmund ist außerdem „Korporativ Förderndes Mitglied“ der Max-Planck-Gesellschaft. Schulen. Die Stadt Dortmund verfügt über 160 Schulen, darunter 16 Gymnasien (14 städtische). Insbesondere zu nennen sind dabei das Stadtgymnasium Dortmund als ältestes Gymnasium der Stadt (gegründet 1543), das Max-Planck-Gymnasium als zweitältestes Gymnasium Dortmunds (gegründet 1858) und einziger Schule Deutschlands mit Portugiesisch als Abiturfach, und das Leibniz-Gymnasium als eine von nur ca. 30 Schulen bundesweit mit International Baccalaureate-Abschluss. → "Siehe auch: Liste der Schulen in der Stadt Dortmund" Persönlichkeiten. Zu den bekannten gebürtigen Dortmundern der Gegenwart zählen insbesondere die Fußballer der Stadt wie Sigfried Held, Hans Tilkowski, Michael Zorc, Thorsten Fink, Christian Nerlinger, Marco Reus und Kevin Großkreutz. Darüber hinaus bekannte Schauspieler wie Dietmar Bär, Max Herbrechter und Amelie Plaas-Link, die deutschen Regisseure Peter Thorwarth und Martin Papirowski, die Filmregisseurin und Drehbuchautorin Yasemin Şamdereli, der Autor Ralf Husmann, die Journalisten Freddie Röckenhaus und Jörg Thadeusz, der Musiker Phillip Boa, der Kabarettist Bruno Knust oder Politiker wie Steffen Kanitz, Manuel Sarrazin und Marco Bülow. Weitere gebürtige und bereits verstorbene Dortmunder sind der Verleger, Gründer des Verlagshauses „F. A. Brockhaus“ und Herausgeber des Brockhaus Friedrich Arnold Brockhaus, der Industriemagnat Leopold Hoesch, der deutsche Admiral und Widerstandskämpfer Wilhelm Canaris, die Schauspieler Dieter Pfaff und Rudolf Platte, die Fußballer wie August Lenz oder Lothar Emmerich. Deutsches Alphabet. Das deutsche Alphabet ist ein Alphabet, das zur Schreibung der deutschen Sprache verwendet wird. Es ist in Deutschland, Österreich, der Schweiz sowie in Liechtenstein und Luxemburg in Gebrauch, darüber hinaus in Ländern mit deutschsprachigen Minderheiten wie Belgien, Dänemark (Nordschleswig), Italien (Südtirol) und Polen (Oberschlesien). Das deutsche Alphabet ist eine Erweiterung des lateinischen Alphabets. Im heutigen standardisierten Gebrauch umfasst es die 26 Grundbuchstaben des lateinischen Alphabets, die drei Umlaute (Ä, Ö, Ü) sowie das Eszett (ß). In der Schweiz und in Liechtenstein wird das ß jedoch heute nicht mehr verwendet (stattdessen wird ss geschrieben). Das große ß (ẞ) ist in der Tabelle eingeklammert, weil seine Zugehörigkeit zum deutschen Alphabet noch nicht allgemein anerkannt ist (siehe unten Bewertung des großen ß). Die Bezeichnungen der einzelnen Buchstaben haben neutrales Genus (sächliches Geschlecht): „das A“, „das B“ usw. Sowohl in der Schreibung von Mundarten wie in historischen Dokumenten werden und wurden darüber hinaus zahlreiche Buchstabenvarianten und auch weitere Buchstaben gebraucht. Das Gleiche gilt für die Schreibung von Fremdwörtern, z. B. kommen é und è mit Akzent in französischen Fremdwörtern häufig vor. Herkunft der Umlautbuchstaben. Entstehung der Umlautpunkte am Beispiel des ä Auf diesem Plakat von 1806 wurde der Umlaut noch mit kleinem "e" über dem Vokal geschrieben (siehe die Wörter "König, Bürgerpflicht, Brüder") Eine Titelseite aus dem Jahr 1843 mit neuen und alten Umlautformen Die "Umlautbuchstaben" (ä, ö und ü) entstanden aus der Kombination des jeweiligen lateinischen Buchstabens (also a, o und u) mit einem den Umlaut anzeigenden "e". Sie sind in dieser Form erst seit dem 16. Jahrhundert in allgemeinem Gebrauch. Umlautbuchstaben werden heute auch in zahlreichen anderen Sprachen verwendet. In althochdeutschen Handschriften sind Umlaute nur dort bezeichnet, wo ein geeigneter Buchstabe zur Verfügung stand, nämlich "e" für kurzes "ä" und später "iu" für langes "ü", nachdem der Diphthong zum "ü" monophthongiert war. Die Buchstaben "o" und "u" konnten also in alt- und mittelhochdeutschen Schriften sowohl "o" und "u" wie auch "ö" und "ü" oder "üe" bedeuten. Seit etwa dem 13. Jahrhundert wurde in manchen Handschriften die Ligatur "æ" für langes oder offen gesprochenes "ä" verwendet oder ein "e" oder "i" zur Unterscheidung über den umgelauteten Buchstaben gesetzt, seltener auch hinter ihn. Dieses kleine "e" sieht in handgeschriebener Schrift etwa seit dem 16. Jahrhundert wie zwei senkrechte Striche aus, aus denen schließlich die zwei heute häufig verwendeten Punkte wurden. Einige Schriftarten verwenden immer noch die senkrechten Striche für die Umlautbuchstaben. Herkunft des Eszett. Das Eszett (ß), das auch als "scharfes s" bekannt ist, ist ursprünglich eine Ligatur aus dem langen ſ (s) und entweder dem runden s oder dem z in den spätmittelalterlichen Bastarden und der neuzeitlichen Frakturschrift. Ab etwa dem Anfang des 19. Jahrhunderts wurde die Antiqua auch in deutschsprachigen Ländern gebräuchlicher. Damals enthielten die meisten Antiqua-Schriften keine Buchstaben für das "ß", Drucke aus dem 19. Jahrhundert sind daher oftmals ohne ß gesetzt. Bei der Orthographischen Konferenz von 1901 wurde festgelegt, dass die Schriftgießereien in Zukunft ihre Antiqua-Schriften mit der Letter ß zu liefern hätten und für vorhandene Schriften ein ß nachzuliefern sei. Das lange s (ſ) wurde auch in der Antiqua gelegentlich gesetzt, es findet sich beispielsweise noch im Leipziger Duden von 1951. In Versalschrift wird ersatzweise SS oder (seltener) SZ geschrieben. Für amtliche Dokumente und Formulare ist in versal geschriebenen Namen jedoch zur Unterscheidung ein ß zu schreiben. Bereits Anfang des 20. Jahrhunderts wurde die Schaffung eines Großbuchstabens diskutiert, von den Entwürfen hat sich aber keiner durchgesetzt. Am 4. April 2008 wurde schließlich das große ß (Versal-Eszett) in den Unicode-Standard Version 5.1 als „U+1E9E“ (ẞ) aufgenommen. Die Verwendung des Versal-Eszett ist für die amtliche Schreibung geografischer Namen verbindlich. Benennung der Buchstaben. Besonders beim Buchstabieren ist es hilfreich, statt des Buchstabens ein festgelegtes Wort mit dem entsprechenden Anfangsbuchstaben auszusprechen, zum Beispiel „Friedrich“ für F. Siehe dazu Deutschsprachige Buchstabiertafeln. Reihenfolge der Buchstaben. a>. Die Umlaute wurden hier separat angeordnet, das ß als letzter Kleinbuchstabe. Bei der alphabetischen Sortierung von ganzen Wörtern werden die Umlaute und ß anders behandelt (siehe unten). Alphabetische Sortierung. In Österreich werden teilweise andere Normen angewendet. Häufigkeit der Buchstaben im Deutschen. Der häufigste Buchstabe ist das E, gefolgt vom N. Der seltenste Buchstabe ist das Q. Die Art der Texte (Lyrik, Prosa, Bedienungsanleitungen etc.) hat keinen Einfluss auf die Buchstabenverteilung. Bei den Buchstabenpaaren (Bigrammen) sind ER und EN am häufigsten vertreten, und zwar hauptsächlich am Wortende. Die häufigsten Dreiergruppen (Trigramme) sind SCH und DER. Umstrittene Zahl der Buchstaben. Der Begriff Buchstabe ist unscharf, wenn die Frage lautet, ob zum Beispiel A und Ä zwei "eigenständige" Buchstaben sind oder nur zwei Varianten desselben Buchstabens. Eine ähnliche Unsicherheit ergibt sich beim Vergleich von a mit A oder beim Zeichen ß. Großbuchstaben und Kleinbuchstaben. Einigkeit besteht darin, dass Großbuchstaben und Kleinbuchstaben nicht separat gezählt werden, trotz der erheblichen Unterschiede ihrer Gestalt. Das liegt daran, dass ein Buchstabe ein Schriftzeichen ist, „das einen Laut oder eine Lautverbindung wiedergibt“. Da zum Beispiel A und a bei der Schreibung eines bestimmten Wortes für denselben Laut stehen, handelt es sich im Sinne der Definition um denselben Buchstaben beziehungsweise um zwei Formen desselben Buchstabens: „groß“ und „klein“. Die zusammenfassende Zählung von A/a, B/b usw. als jeweils nur ein Buchstabe wird verständlich, wenn man bedenkt, dass man Texte auch nur mit Großbuchstaben oder nur mit Kleinbuchstaben schreiben kann, ohne dass sich ein Unterschied in der Aussprache oder in der Bedeutung ergibt. Einige Alphabete kennen die Unterscheidung zwischen Groß- und Kleinbuchstaben gar nicht, zum Beispiel das hebräische Alphabet. Buchstaben mit diakritischen Zeichen und Glyphen. Zumindest beim deutschen Alphabet gelten Zeichen wie é oder è, die in Fremdwörtern und Namen vorkommen, nicht als eigenständige Buchstaben, sondern als Kombination von Buchstabe und Akzent, allgemeiner: als Buchstabe kombiniert mit einem diakritischen Zeichen. Dies ist nicht selbstverständlich, da ein Buchstabe mit einem diakritischen Zeichen oft für einen anderen Laut steht als der Grundbuchstabe und damit den Platz eines neuen, anderen Buchstabens einnimmt. Es ist auch folgende Interpretation möglich: Wenn zum Beispiel in dem Wort "Séance" ein "é" auftaucht, ist das ein Buchstabe des französischen Alphabets. Die Verwendung von Fremdwörtern hat zur Folge, dass auch die Buchstaben der Fremdsprachen im Deutschen mitverwendet werden, ohne dass sie dadurch Bestandteil des deutschen Alphabets werden. Weiterhin werden Glyphen (Gestaltungsformen) eines Buchstabens nicht als eigenständige Buchstaben bewertet, auch dann nicht, wenn sie auffällig unterschiedlich aussehen. Das betrifft im Deutschen zum Beispiel das ſ („langes s“) oder das ʒ („z mit Unterschlinge“), die in einigen Schriften verwendet werden. Eine Ligatur – die verschmolzene Schreibweise zweier Buchstaben – ist zwar eine eigenständige Glyphe, aber kein eigenständiger, zusätzlicher Buchstabe. Siehe auch die Erläuterungen bei der Begriffsabgrenzung unter Graph (Linguistik). Bewertung der Umlaute. Ob es sich bei den Umlauten Ä, Ö, Ü um eigenständige Buchstaben handelt oder um Varianten der Buchstaben A, O, U, hängt von der Sichtweise ab und ist umstritten. Es gibt Argumente für beide Sichtweisen. Die Umlaute sind historisch aus einer Kombination zweier Buchstaben entstanden (z. B. ae > ä) und sind insofern Ligaturen, also keine eigenständigen Buchstaben. Dies zeigt sich noch heute darin, dass die Ligatur wieder aufgelöst wird, wenn auf einer Tastatur der Umlaut nicht zur Verfügung steht: "Kaefer" ist in diesem Fall eine korrekte Schreibweise für "Käfer". Man kann ein Ä auch als „A mit Umlaut-Pünktchen“ interpretieren, also als A mit einem diakritischen Zeichen. Aufschlussreich ist ferner, dass die Schriftzeichen Ä, Ö und Ü regelmäßig als „Umlautbuchstaben“ angesprochen werden könnten, falls es sich um vollwertige Buchstaben handelt. Ganz überwiegend lautet die Bezeichnung jedoch nur „Umlaut“ – obwohl dadurch die wichtige sprachliche Unterscheidung zwischen Lauten und Buchstaben verloren geht (zudem hat das Wort "Umlaut" noch eine weitere Bedeutung und bezeichnet auch bestimmte Arten des Lautwandels). Auch dies deutet darauf hin, dass Umlaute (Umlautbuchstaben) als Modifikationen der Grundbuchstaben verstanden werden. Andererseits erscheinen Ä, Ö, Ü als vollwertige Buchstaben, wenn man ihren abweichenden Lautwert betrachtet: "Bär" klingt anders als "Bar" und hat auch eine ganz andere Bedeutung. Nicht zuletzt stellt sich die Frage, warum Ä, Ö, Ü und ebenso ß überhaupt als Bestandteile des Alphabets (Gesamtheit der Buchstaben) genannt werden, wenn es keine eigenständigen Buchstaben sein sollen. Sie werden stets als Bestandteile des Alphabets aufgeführt, ganz anders als gewöhnliche Ligaturen oder Buchstaben mit Akzent. Dies sind starke Argumente für die Einstufung von Ä, Ö, Ü als eigenständige Buchstaben. Bewertung des ß. Die Interpretation als Ligatur entspricht auch hier einer Verneinung des Status als eigenständiger Buchstabe. Andererseits hat ß in bestimmten Fällen einen eigenen Lautwert beim Vergleich mit dem einfachen Buchstaben s – zum Beispiel wird in "reißen" der s-Laut stimmlos ausgesprochen, in "reisen" dagegen stimmhaft, womit verschiedene Bedeutungen verbunden sind. Bewertung des großen ß. Das große ß wurde erst im Jahr 2008 in den Unicode-Standard und in die Norm IEC 10646 aufgenommen. Seine Anwendung ist für die meisten Schreiber nicht verbindlich, im amtlichen Regelwerk der Rechtschreibreform taucht es nicht auf. Somit stellt sich die Frage, ob das große ß überhaupt Bestandteil des deutschen Alphabets ist. Da aber Klein- und Großbuchstaben ohnehin nur paarweise als jeweils ein Buchstabe gezählt werden, spielt dieser Zweifelsfall keine Rolle für die Frage, wie viele Buchstaben das deutsche Alphabet enthält. Fazit. Die Umlaute Ä, Ö, Ü sowie ß haben einen unklaren Status. Sie erscheinen insbesondere aus historischer Perspektive als Ligaturen oder Zeichenvarianten, andererseits als eigenständige Buchstaben, wenn man den Lautwert und die Auswirkung auf die Wortbedeutung betrachtet. Es gibt keinen allgemeinen Konsens über den Vorrang bestimmter Kriterien. Bei der Zählung der Buchstaben im deutschen Alphabet überwiegt die Sichtweise, dass dieses 26 Buchstaben enthält und „zusätzlich“ die Umlaute sowie ß. Ein Grund dafür ist darin zu sehen, dass die Reihenfolge der Buchstaben in einem Alphabet normalerweise festgelegt ist. Die vier zusätzlichen Zeichen haben jedoch keinen festen Platz im Alphabet – unabhängig davon, ob man sie als selbständige Buchstaben bewertet (siehe oben: Reihenfolge und Sortierung). Daneben kommt die Zählung von 30 oder auch 27 Buchstaben vor. Unabhängig davon, ob die Umlaute und ß als "eigenständige" Buchstaben gelten sollen, werden sie in bestimmten Zusammenhängen selbstverständlich als „Buchstaben“ bezeichnet, so etwa bei der Bedeutungsangaben für diese Zeichen im Duden. Man wird auch A (Großbuchstabe) und a (Kleinbuchstabe) als „verschiedene Buchstaben“ bezeichnen können, wenn von der Gestalt der Zeichen die Rede ist und nicht von ihrer Funktion, einen Laut zu repräsentieren. Deutscher Herbst. Als Deutscher Herbst wird die Zeit und ihre politische Atmosphäre in Westdeutschland im September und Oktober 1977 bezeichnet, die geprägt war durch Anschläge der terroristischen Vereinigung Rote Armee Fraktion (RAF). Die Entführung und Ermordung Hanns Martin Schleyers, die Entführung des Lufthansa-Flugzeugs "Landshut" und die Selbstmorde der inhaftierten führenden Mitglieder der ersten Generation der RAF stellten den Schlussakt der so genannten Offensive 77 der RAF dar. Der Deutsche Herbst gilt als eine der schwersten Krisen in der Geschichte der Bundesrepublik Deutschland. Der Begriff „Deutscher Herbst“ leitet sich von dem Film Deutschland im Herbst von 1978 ab, einer Collage mehrerer Dokumentarfilme von elf Regisseuren des „Neuen Deutschen Films“, die sich mit der Reaktion des Staates auf den Terrorismus aus unterschiedlichen Blickwinkeln kritisch auseinandersetzen. Ereignisse im Frühjahr und Sommer des Jahres 1977. Im Jahr 1977 erreichten die Aktivitäten der sogenannten zweiten Generation der RAF ihren Höhepunkt. Die Ereignisse vor September werden aber allgemein nicht dem Deutschen Herbst zugerechnet. Am 7. April 1977 wurden in Karlsruhe vom "Kommando Ulrike Meinhof" der Generalbundesanwalt Siegfried Buback, sein Fahrer Wolfgang Göbel und der Leiter der Fahrbereitschaft der Bundesanwaltschaft Georg Wurster von einem Motorrad aus in ihrem Auto erschossen. Die Täter wurden bis heute nicht zweifelsfrei identifiziert. Am 30. Juli 1977 wurde der Vorstandssprecher der Dresdner Bank AG Jürgen Ponto ermordet. Das RAF-Mitglied Susanne Albrecht war mit dem Bankier persönlich bekannt, so dass dieser sie in seinem Privathaus in der Oberhöchstadter Straße in Oberursel empfing. Susanne Albrecht, Brigitte Mohnhaupt und Christian Klar erschienen in Pontos Villa um ihn zu entführen. Als Ponto sich zur Wehr setzte, schossen Klar und Mohnhaupt mehrere Male auf Ponto und trafen ihn tödlich. Danach flohen Mohnhaupt, Klar und Albrecht mit dem von Peter-Jürgen Boock gesteuerten Auto. Am 25. August 1977 scheiterte ein Anschlag auf das Gebäude der Bundesanwaltschaft in Karlsruhe. Verlauf des Herbstes 1977. Am 5. September 1977 wurde der Arbeitgeberpräsident Hanns Martin Schleyer in Köln überfallen und verschleppt, dabei wurden sein Fahrer und drei Polizeibeamte getötet. Die Entführer forderten die Freilassung von elf gefangenen RAF-Mitgliedern. Da die Bundesregierung – anders als bei der Entführung von Peter Lorenz zwei Jahre zuvor – nicht zu einem Gefangenenaustausch bereit war, versuchten mit der RAF verbündete Terroristen der PFLP, den Druck durch die Entführung der Lufthansa-Maschine „Landshut“ am 13. Oktober 1977 zu erhöhen. Nach einer Odyssee des Flugzeuges durch die arabische Welt und der Ermordung des Kapitäns Jürgen Schumann landeten die Terroristen auf dem Flughafen Mogadischus, der Hauptstadt des ostafrikanischen Somalia. Hier wurde das Flugzeug am 18. Oktober gegen 0:30 Uhr durch die GSG 9 gestürmt. Um 0:38 Uhr kam eine Sondermeldung des Deutschlandfunkes, dass „alle Geiseln befreit sind. Ob es unter ihnen Tote und Verletzte gab, wissen wir zu dieser Stunde noch nicht …“. Die 86 Geiseln konnten unverletzt befreit werden. Kurz danach, noch in der Nacht vom 17. zum 18. Oktober 1977, der Todesnacht von Stammheim, begingen die in Stuttgart-Stammheim inhaftierten RAF-Terroristen Andreas Baader, Gudrun Ensslin und Jan-Carl Raspe Selbstmord. Die ebenfalls in Stammheim inhaftierte Irmgard Möller überlebte mit vier Messerstichen in der Herzgegend. Als Reaktion auf die Stürmung des Flugzeuges „Landshut“ wurde Hanns Martin Schleyer von seinen Entführern erschossen. Seine Leiche wurde am Abend des 19. Oktober in Mülhausen im Elsass gefunden. Die gesellschaftspolitische Atmosphäre während des Deutschen Herbstes. Der Begriff „Deutscher Herbst“ steht auch für die Atmosphäre in Westdeutschland und West-Berlin im Herbst 1977. Nach der Verhaftung der ersten Generation der RAF im Jahr 1972 hatten viele geglaubt, das Kapitel Linksterrorismus sei nun geschlossen. Es stellte sich jedoch heraus, dass die RAF eine zweite Generation hervorgebracht hatte. Durch die sympathisierenden Rechtsanwälte, wie die später selbst verurteilten Klaus Croissant und Siegfried Haag, gelang es der RAF, neue Untergrundkämpfer zu rekrutieren. Außerdem versorgten die Anwälte die linke Szene, aber auch die Medien, mit immer neuen Nachrichten über die inhaftierten Mitglieder der ersten Generation. Es wurde von Isolationshaft gesprochen und für die Häftlinge der Status von Kriegsgefangenen gefordert. Zwischen 1972 und 1977 hatte es sechs Hungerstreiks gegeben, an denen sich bis zu 90 Häftlinge beteiligten. Holger Meins war 1974 an den Folgen eines Hungerstreiks gestorben. Ab 1975 kam es zu einer neuen Anschlagserie. Diese Ereignisse polarisierten. Für die Medien war der RAF-Terror nun ein beherrschendes Thema. Neue polizeitaktische Methoden, unter anderem die Rasterfahndung, hatten zu einigen Fahndungserfolgen geführt, aber auch viele Unbeteiligte in den Fahndungsprozess mit einbezogen. Straßensperren, Personenkontrollen und schwer bewaffnete Polizisten gehörten zum Straßenbild. Die Angst vor neuen Anschlägen war weit verbreitet. Die linke Szene, aber auch weite Teile sozialdemokratischer und liberaler Kreise fühlten sich andererseits durch die neuen Gesetze in ihren Grundrechten bedroht und wollten sich ideologisch mit der RAF auseinandersetzen. Vielen dieser Gruppen und Personen, die nach den Ursachen des Terrorismus fragten, wurde fehlende Distanz zur RAF vorgeworfen und sie wurden als Sympathisanten der Terroristen angegriffen. So forderte der damalige Bundesinnenminister im April 1977 in einer Rede vor dem Innen- und Rechtsausschuss des Bundestages eine Schon Anfang 1972 hatte der spätere Literaturnobelpreisträger Heinrich Böll im Spiegel sein Plädoyer "Will Ulrike Gnade oder freies Geleit?" veröffentlicht, in dem er sich mit den Motiven der RAF kritisch, aber sachlich auseinandersetzte und den Sensationsjournalismus der "Bild-Zeitung" in diesem Zusammenhang scharf kritisierte. Die Reaktion darauf war jedoch entgegengesetzt den Absichten von Böll, er galt von da an weithin als „Sympathisant“ des Terrors, was vermutlich durch den vom Spiegel verfälschten Titel – die scheinbar vertraute Anrede „Ulrike“ kam in Bölls Originaltext nicht vor – verstärkt worden war. Als Reaktion auf die folgende äußerst negative Berichterstattung vor allem der Springer-Medien veröffentlichte er 1974 die Erzählung "Die verlorene Ehre der Katharina Blum", die als kämpferische Kritik am Sensationsjournalismus im Zusammenhang mit dem linken Terrorismus konzipiert war. Dies führte zu einer weiteren Verhärtung der publizistischen Fronten. Am 25. April 1977 veröffentlichte ein anonymer Student der Göttinger Universität, der so genannte Göttinger Mescalero, in der damaligen Studentenzeitung "Göttinger Nachrichten" einen Text unter dem Titel "„Buback – ein Nachruf“", in dessen Einleitung er bekundete, eine "klammheimliche Freude" über den Tod des ermordeten Generalbundesanwalts Siegfried Buback "nicht verhehlen" zu können, um im weiteren Verlauf des Textes trotz inhaltlicher Sympathie für die Ziele der RAF deren Strategie der Gewalt grundlegend als Weg in eine Sackgasse zu kritisieren. Bekannt wurde vor allem die Einleitungspassage, woraufhin der Text verboten wurde. Um dagegen zu protestieren, wurde der Text mit einer einführenden Einleitung und der Unterschrift von 48 Hochschulprofessoren mehrfach nachgedruckt und demonstrativ in verschiedenen kritischen Medien veröffentlicht, was zu über 140 Strafanzeigen gegen die Herausgeber und die veröffentlichenden Professoren führte, die letztlich jedoch alle freigesprochen wurden. Reaktion der Politik. Auch die Parteien gerieten im Deutschen Herbst in heftige Auseinandersetzungen. Die CDU/CSU-Opposition vermutete bei der regierenden sozial-liberalen SPD/FDP-Koalition unter Helmut Schmidt (SPD) eine ideologische Nähe zu den Terroristen. Die Koalition ihrerseits warf der Opposition hysterische Überreaktionen vor und unterstellte ihr, sie nutze die Gelegenheit, die Bundesrepublik ein Stück weit in einen Polizeistaat zu verwandeln. Trotz dieser Gegensätze berief Bundeskanzler Schmidt zu Beginn der Schleyer-Entführung den so genannten Großen Krisenstab ein, dem Mitglieder aller Fraktionen des Deutschen Bundestages angehörten. Der Historiker Wolfgang Kraushaar bezeichnete diese Zeit später als „nicht-erklärten Ausnahmezustand“. Ein Ergebnis des parteiübergreifenden Konsenses war das im Herbst 1977 verabschiedete Kontaktsperregesetz, das die Möglichkeit zu einem Kontaktverbot für Häftlinge schuf. Dieses Kontaktverbot bezog sich auch auf die Gespräche mit Rechtsanwälten. Außerdem wurde die Strafprozessordnung dahingehend geändert, dass ein Angeklagter höchstens drei Wahlverteidiger benennen durfte. Bereits 1976 war mit dem § 129a StGB der Straftatbestand „Bildung terroristischer Vereinigungen“ geschaffen worden. David Arquette. David Arquette (* 8. September 1971 in Winchester, Virginia) ist ein US-amerikanischer Schauspieler und Musiker. Leben. Sowohl sein Großvater Cliff und sein Vater Lewis als auch seine Geschwister Patricia, Rosanna, Alexis und Richmond waren bzw. sind Schauspieler. David Arquette absolvierte eine Ausbildung bei der "Second City Theatre Group" und begann seine Karriere 1989 mit Francis Ford Coppolas Fernsehserie "The Outsiders". Bekannt wurde er vor allem durch seine Darstellung des naiven Polizisten Dewey in der Horrorfilm-Tetralogie "Scream" (1996, 1997, 2000 & 2011). Bei den Dreharbeiten lernte er seine spätere Frau Courteney Cox (bekannt aus der US-Sitcom "Friends") kennen, die er 1999 heiratete. Am 13. Juni 2004 kam die gemeinsame Tochter zur Welt. Im Oktober 2010 gaben David und Courteney ihre Trennung bekannt. Im Jahr 2011 war er in "Scream 4" erneut neben Courteney Cox und Neve Campbell zu sehen. David Arquette ist auch als Regisseur und Komponist tätig. In seiner Freizeit tourt er häufig mit seiner Band "Ear 2000" durch die USA. Um den Film "Ready to Rumble" zu bewerben, trat David Arquette im April 2000 mehrfach bei der Wrestling Promotion WCW auf. Obwohl er keine Erfahrung in Sachen Wrestling hatte und nur einfache Anfänger-Aktionen zeigte, wurde er im April 2000 WCW World Heavyweight Champion. Diese Entscheidung der Führung der WCW wird noch heute in vielen Internetforen verspottet und als der Tod der Liga angesehen. Den Titel hielt Arquette 12 Tage. Danny DeVito. Daniel Michael „Danny“ DeVito (* 17. November 1944 in Asbury Park, New Jersey) ist ein US-amerikanischer Schauspieler, Regisseur und Filmproduzent. Leben. Der Sohn italienischstämmiger Eltern begann als Kosmetiker im Schönheitssalon seiner Schwester und ging an die American Academy of Dramatic Arts in New York City, um Maskenbildner zu werden, wechselte dann aber zur Schauspielerei. Während seines Studiums teilte er sich sein Zimmer mit seinem Kommilitonen Michael Douglas. Wegen seiner geringen Körpergröße – er ist mit 1,52 Metern einer der kleinsten Schauspieler Hollywoods – hatte es DeVito anfangs schwer, im Filmgeschäft Fuß zu fassen. Eine seiner ersten Rollen war der geisteskranke "Martini" in der Bühnenversion des Romans "Einer flog über das Kuckucksnest". Als das Buch sieben Jahre später mit Jack Nicholson verfilmt wurde, erinnerte sich Michael Douglas als Produzent des Films an seinen Freund aus Studienzeiten und engagierte ihn für das Projekt. Der große Erfolg des Films "Einer flog über das Kuckucksnest" beim Publikum und in der Kritik verhalf DeVito zum Durchbruch. Von 1978 bis 1982 war er neben Andy Kaufman in der Sitcom "Taxi" zu sehen. Bei einigen Episoden führte er sogar Regie. Mitte der 1980er Jahre drehte er gemeinsam mit Michael Douglas und Kathleen Turner die Abenteuerfilme "Auf der Jagd nach dem grünen Diamanten" und "Auf der Jagd nach dem Juwel vom Nil" und etablierte sich als Hollywood-Star und einer der führenden Filmkomödianten. 1987 fungierte DeVito für die schwarze Komödie "Schmeiß’ die Mama aus dem Zug!", einer Variante von "Der Fremde im Zug", erstmals als Regisseur bei einem Kinofilm. Weitere große Erfolge hatte er mit "Twins" neben Arnold Schwarzenegger und seiner zweiten Regiearbeit "Der Rosenkrieg", in der ebenfalls Michael Douglas und Kathleen Turner mitwirkten. 1992 drehte er "Hoffa", ein Porträt über den einflussreichen und in das organisierte Verbrechen verstrickten Gewerkschaftsführer Jimmy Hoffa. Neben seiner Karriere als Schauspieler bewies DeVito auch als (ausführender) Produzent stets ein gutes Gespür. 1992 gründete er zusammen mit seiner Ehefrau und Michael Shamberg die Produktionsfirma Jersey Films und war maßgeblich an der Entstehung von Erfolgsfilmen wie "Reality Bites", "Pulp Fiction", "Schnappt Shorty", "Out of Sight", "Garden State" und "Erin Brockovich" beteiligt. Für letzteren erhielt er eine Oscar-Nominierung in der Kategorie Bester Film. Einer seiner persönlichsten Filme ist "Der Mondmann" mit Jim Carrey von 1999. Es geht darin um seinen früheren "Taxi"-Kollegen Andy Kaufman, der in jungen Jahren an Krebs starb. Für die Musik aller seiner Filme war der Komponist David Newman verantwortlich. Die meiste Zeit wurde DeVito von Gerd Duwner ("Barney Geröllheimer" aus "Familie Feuerstein" und "Ernie" aus der "Sesamstraße") synchronisiert, nach dessen Tod im Jahre 1996 von Klaus Sonnenschein (Standard-Synchronstimme von Morgan Freeman und John Goodman). Danny DeVito ist seit 1982 mit der Schauspielerin Rhea Perlman, bekannt aus der Sitcom "Cheers", verheiratet. Sie lernten sich 1970 bei der Broadway-Aufführung "The Shrinking Bride" kennen. Beide haben drei gemeinsame Kinder, darunter die Schauspielerin Lucy DeVito. Am 18. August 2011 wurde DeVito auf dem Hollywood Walk of Fame mit einem Stern in der Kategorie Fernsehen geehrt. Dennis Hopper. a> bei den 62. Academy Awards 1990 Dennis Lee Hopper (* 17. Mai 1936 in Dodge City; † 29. Mai 2010 in Los Angeles) war ein US-amerikanischer Schauspieler und Regisseur. Leben. Dennis Hopper wuchs auf einer Farm in Dodge City auf, bevor er mit seinen Eltern nach San Diego zog. Er hat vier Kinder von vier verschiedenen Frauen. Im Januar 2010 reichte Hopper die Scheidung von Duffy ein. Hopper starb in seinem Haus in Venice an den Folgen von Prostatakrebs. Er wurde in Taos, New Mexico, beerdigt. In diesem Ort und Umgebung entstanden weite Teile des Films "Easy Rider". Dennis Hopper sprach fließend Deutsch, wie in dem Film "Straight Shooter" zu hören war. Dieser wurde auf deutsch gedreht, mit Dennis Hopper in einer der Hauptrollen. Filmschauspieler und -regisseur. In San Diego ermutigte ihn die Schauspielerin Dorothy McGuire Mitte der 1950er Jahre, nach Hollywood zu gehen und sein Glück im Filmgeschäft zu suchen. Nach einigen Auftritten im Fernsehen wurde er von Warner Brothers unter Vertrag genommen. Zwei seiner ersten Filmrollen hatte er in den James-Dean-Klassikern "…  denn sie wissen nicht, was sie tun" und "Giganten". Dean zählte auch privat zu seinen Freunden; sie beide verband die Leidenschaft für schnelle Autos und Motorräder. Da Hopper jedoch als stur und unbelehrbar galt, wurden ihm kaum Hauptrollen angeboten. Er besuchte die Lee-Strasberg-Schule The Actors Studio und trat in einigen Western in Nebenrollen auf. Über den B-Movie-Regisseur Roger Corman lernte er Peter Fonda kennen und freundete sich mit ihm an. 1969 drehten die beiden für 400.000 US-Dollar das Roadmovie "Easy Rider". Der Film wurde zum Kulthit der Hippie-Bewegung und schließlich zur Legende, ebenso wie der berühmte Titelsong "Born to Be Wild". Der Grund dafür war vor allem, dass er sich grundlegend von allem unterschied, was man je zuvor im Kino gesehen hatte. "Easy Rider" passte in kein Schema, wirkte nicht angestaubt, sondern frisch – New Hollywood war geboren und hatte mit Dennis Hopper, Peter Fonda und Jack Nicholson drei seiner ersten Helden gefunden. Hopper galt weiterhin als Exzentriker. Mit seiner nächsten Regiearbeit "The Last Movie" gewann er 1971 den Kritikerpreis als bester Film bei den Filmfestspielen in Venedig. Doch in Hollywood erhielt Hopper durchgehend schlechte Kritiken. Da er durch seine Eigenwilligkeit in Konflikt mit den meisten Regisseuren geriet, stand er lange Zeit auf einer so genannten Schwarzen Liste. In den 1970er und 1980er Jahren hatte er aus diesem Grund fast keine kommerziellen Erfolge, mit Ausnahme seiner Nebenrolle als Journalist im preisgekrönten Meilenstein der New-Hollywood-Ära Apocalypse Now (1979). Dennis Hopper drehte viel in Europa und arbeitete u.  a. mit dem deutschen Regisseur Roland Klick für den Film "White Star" zusammen. Wim Wenders holte ihn für Der amerikanische Freund neben u. a. Bruno Ganz und Lisa Kreuzer vor die Kamera. 1986 erregte Hopper Aufsehen in der Rolle eines Sadisten in David Lynchs "Blue Velvet". 1988 erreichte er mit seiner Regiearbeit "Colors – Farben der Gewalt" erstmals seit "Easy Rider" wieder ein breiteres Publikum. Nach einem längeren Aufenthalt in einer Therapieeinrichtung wegen seines hohen Drogen- und Alkoholkonsums zog er von Texas, wo er zu der Zeit lebte, nach Los Angeles zurück und war in den Folgejahren in mehreren Hollywoodproduktionen zu sehen – meist in Nebenrollen. Einer seiner bekanntesten Filme aus den 1990er Jahren ist "Speed", in dem er den psychopathischen Verbrecher Howard Payne spielt, der einen Bus in die Luft jagen will. Doch das ist nur eines von fast 50 Projekten, an denen Hopper in den 1990er Jahren mitwirkte. Insgesamt hat er über 140 Filme gedreht. Der deutsche Synchronsprecher von Hopper war seit 1976 Joachim Kerzel. Fotografie und Malerei. Zwei seiner größten Leidenschaften neben der Schauspielerei waren die Fotografie und die Malerei. Seine Werke wurden weltweit ausgestellt. Seine Fotografien aus der Zeit von 1961 bis 1967 wurden unter dem Titel "Dennis Hopper: The Lost Album" im Herbst 2012 im Martin-Gropius-Bau in Berlin ausgestellt. Hierbei handelt es sich um Aufnahmen, die Hopper an verschiedenen Orten in den USA machte. Sie zeigen sowohl Alltagssituationen als auch Prominente der 1960er Jahre, wie z.B. Paul Newman, Phil Spector, Jane Fonda, Ike & Tina Turner, Andy Warhol und Martin Luther King auf dem Marsch von Selma nach Montgomery. Teilweise waren die Fotografien bereits in Zeitschriften wie Vogue oder Artforum veröffentlicht worden. Dem bildenden Künstler Dennis Hopper widmete das Museum of Contemporary Art, Los Angeles (MOCA) 2010 eine Ausstellung: „Dennis Hopper: Double Standard“. Die Ausstellung wurde von Julian Schnabel kuratiert, der Hopper sein künstlerisches Vorbild nennt. Deutsches Rotes Kreuz. Deutsches Rotes Kreuz – Rundlogo Das Deutsche Rote Kreuz (DRK) ist die Nationale Rotkreuz-Gesellschaft in Deutschland nach den Genfer Abkommen und als solche Teil der Internationalen Rotkreuz- und Rothalbmond-Bewegung mit Hauptsitz in Berlin. Derzeit verzeichnet es etwa vier Millionen Mitglieder. Das DRK ist – als einer der großen Wohlfahrtsverbände in Deutschland – Spitzenverband der Freien Wohlfahrtspflege. Grundsätze. Die Grundsätze wurden von der XX. Internationalen Rotkreuzkonferenz 1965 in Wien proklamiert. Der vorliegende angepasste Text ist in den Statuten der Internationalen Rotkreuz- und Rothalbmondbewegung enthalten, die von der XXV. Internationalen Rotkreuzkonferenz 1986 in Genf angenommen wurden. Aufgaben und Selbstverständnis. Krankenhausbett des DRK (um 1900) Katastrophenschutz. Das Rote Kreuz beteiligt sich in Deutschland am Katastrophenschutz, indem es Personal aus den örtlichen Bereitschaften sowie Fahrzeuge und Material stellt. Im Katastrophenfall hat sich das DRK verpflichtet, alle verfügbaren Helfer und alles Material einzusetzen, also nicht nur die von Bund und Ländern zugewiesenen Fahrzeuge/Material. Die Ausbildungen in den Rotkreuz-Bereitschaften umfassen neben den Ausbildungen für Zwecke wie Blutspende- und Sanitätswachdienste auch Ausbildungen, die dem Katastrophenschutz zuzuordnen sind, diese gliedern sich in eine umfassende Grundausbildung und eine spezielle Fachdienstausbildung. Die Mitarbeit im Katastrophenschutz ist landesspezifisch unterschiedlich. So gibt es zum Beispiel Hilfszüge, die regional aufgestellt sind, Einsatzeinheiten, die kreisweit aufgestellt sind, sowie diverse Schnelleinsatzgruppen, die sich zum Teil nur aus örtlichen Kräften, zum Teil aber auch regional zusammensetzen. All diese Einheiten sind jedoch bundesweit sowie in EU-grenznahen Gebieten auch international einsetzbar. Wohlfahrts- und Sozialarbeit. Das Deutsche Rote Kreuz ist anerkannter Spitzenverband der Freien Wohlfahrtspflege und mit seinen Einrichtungen, Angeboten und Diensten bundesweit in allen Feldern der Wohlfahrts- und Sozialarbeit sowohl mit ehrenamtlich als auch hauptamtlich Tätigen aktiv. Das DRK nimmt in seiner anwaltschaftlichen Funktion die Interessenvertretung der schwächsten und verletzlichsten Bevölkerungsgruppen („most vulnerable“) wahr. Der Anspruch der Wohlfahrts- und Sozialarbeit des DRK. In allen Feldern der Wohlfahrts- und Sozialarbeit ist das DRK aufgrund seines Selbstverständnisses und seiner Grundsätze verpflichtet, seine ihm in Form von Spenden oder öffentlichen Zuwendungen zur Verfügung gestellten Mittel wohlfahrtspflegerisch effektiv und wirtschaftlich effizient einzusetzen. Dies erfordert eine permanente Anpassung seiner Strukturen und Prozesse an aktuelle Anforderungen und Bedingungen sowie die Entwicklung eigener Konzepte, die zu erwartende soziale und gesellschaftliche Veränderungen antizipieren und das DRK auf neue Herausforderungen vorbereiten. Die DRK-Wohlfahrts- und Sozialarbeit setzt das sozialstaatliche Subsidiaritätsprinzip fort, indem es – soweit es möglich ist – Hilfe zur Selbsthilfe leistet und damit Selbstständigkeit und Verantwortung fördert. Die Aufgaben der Wohlfahrts- und Sozialarbeit des DRK. Die Wohlfahrts- und Sozialarbeit des DRK setzt die Aufgaben um, die sich das DRK in seiner Satzung gestellt hat, namentlich Ergänzend wirkt die Wohlfahrts- und Sozialarbeit des DRK auf die Zielerreichung der aktuellen DRK-Strategie „Menschen helfen, Gesellschaft gestalten“ hin. Die Aufgaben der Wohlfahrts- und Sozialarbeit auf der Bundesebene Kinder-, Jugend- und Familienhilfe. Die Kinder-, Jugend- und Familienhilfe ist Teil der Wohlfahrts- und Sozialarbeit des DRK. Das DRK ist in allen Feldern der Kinder-, Jugend- und Familienhilfe aktiv. Als auf Bundesebene zusammengeschlossener Verband der Freien Wohlfahrtspflege ist das DRK anerkannter Träger der freien Jugendhilfe gemäß §75 SGB VIII. Das DRK nimmt auf Bundesebene die zentralen Aufgaben im Bereich des Kinder- und Jugendplan des Bundes und der Familienförderung wahr und regt mit bundesweiten Modellprojekten fachliche Entwicklungen an. In der Kinder-, Jugend- und Familienhilfe stellt das DRK Altenhilfe und Gesundheitsförderung. Die Altenhilfe und die Gesundheitsförderung sind Teil der Wohlfahrts- und Sozialarbeit des DRK. Auf der Bundesebene wird die Altenhilfe sowie die Gesundheitsförderung strategisch weiterentwickelt, fachpolitische Stellungnahmen und Grundsatzpositionen erarbeitet und bewertet sowie die Mitgliedsverbände bei der Umsetzung unterstützt. In der Altenhilfe vereint das DRK Wohlfahrtspflege und soziales Engagement. Die Grundlagen der Wohlfahrtspflege, das soziale Ehrenamt und die Freiwilligendienste sind Teil der Wohlfahrts- und Sozialarbeit des DRK. Auf der Bundesebene werden Grundsatzthemen der Wohlfahrtsarbeit auf nationaler und europäischer Ebene bearbeitet und bewertet. Zudem werden die Mitgliedsverbände bei der Gewinnung und beim Einsatz von Freiwilligen und Ehrenamtlichen beraten. Im Bereich der Freiwilligendienste stellt das DRK In der Wohlfahrts- und Sozialarbeit engagieren sich Migration, Interkulturelle Öffnung und Inklusion. Dienstleistungen und Angebote im Bereich der Migration, der Interkulturellen Öffnung und der Inklusion sind Teil der Wohlfahrts- und Sozialarbeit des DRK. Auf der Bundesebene arbeitet das DRK für und mit sozial benachteiligten Menschen, Menschen mit Behinderungen und Menschen mit Migrationshintergrund, um Chancengerechtigkeit sowie die Wertschätzung von Vielfalt und Individualität zu fördern. Menschen mit Migrationshintergrund wendet sich das DRK zu mit Menschen mit Behinderung bietet das DRK Für Menschen in persönlicher und sozialer Notlage hält das DRK bereit Jugendrotkreuz. Das Jugendrotkreuz ist der eigenständige Jugendverband des Deutschen Roten Kreuzes und ist im ehrenamtlich besetzten Präsidium des Bundesverbandes vertreten. Krankenpflege. Der Verband der Schwesternschaften (VdS) ist zuständig für alle Fragen der beruflichen Kranken- und Kinderkrankenpflege sowie deren Ausbildung im DRK. Er unterhält die Pflegeschule „Werner-Schule vom Deutschen Roten Kreuz“ in Göttingen; bis 2008. Große Träger von Krankenhausgesellschaften sind zum Beispiel die DRK-Schwesternschaft vom Bayerischen Roten Kreuz, die DRK-Schwesternschaft Berlin sowie die DRK-Landesverbände Rheinland-Pfalz, Mecklenburg-Vorpommern, Schleswig-Holstein und Thüringen. DRK-Suchdienst. Eine vordringliche Aufgabe des DRK nach dem Zweiten Weltkrieg war der Suchdienst, der ausgebombte, vermisste, verschleppte, vertriebene Menschen wieder ihren Familien zuführte oder Heimstellen für Waisenkinder fand. Er wurde durch Helmut Schelsky aufgebaut. Der Physiker Kurt Wagner und Joachim Leusch von der Seetransport-Leitstelle des Marineoberkommandos Ost gehörten zu den Gründern in Flensburg. Das DRK wurde nach dem Zweiten Weltkrieg durch die Besatzungsmächte weitgehend aufgelöst und erst 1952 wieder in die Liga der Rotkreuz-Gesellschaften aufgenommen. Der Suchdienst befand sich in diesen Jahren in München in der Wagmüllerstraße, einer Querstraße zur Prinzregentenstraße, auf der Höhe des Gebäudekomplexes, welcher für den Luftgau Süd erstellt wurde. Seit der Gründung im Jahre 1945 in München konnten vom Suchdienst mehr als 16 Millionen Menschen zusammengeführt, mehr als 500.000 Kinderschicksale geklärt und weltweit rund 600.000 Menschen über den Verbleib von Angehörigen in Konflikten und Katastrophen benachrichtigt werden. Von 1946 bis 1976 war Kurt Wagner Leiter des DRK-Suchdienstes. Vom Verband der Heimkehrer, Kriegsgefangenen und Vermisstenangehörigen Deutschlands wurde 1955 eine Bild-Sammlung von 45.000 vermissten Personen übernommen. Der Suchdienst des DRK erstellte Gutachten über das Schicksal von verschollenen deutschen Soldaten des Zweiten Weltkrieges, in denen auch die Kriegsverläufe in der Gegend und zum Zeitpunkt des Verschollenseins geschildert wurden. Ende 1957 gingen diese Vermisstenbildlisten in Druck, die schließlich 199 Bände (davon 187 mit 1,4 Millionen Namen und über 900.000 Bildern) umfassten. Dazu kamen noch 26 Bände über Zivilverschollene. Durch die etappenweise Öffnung und Freigabe von Archiven der östlichen Staaten können auch heute noch Schicksale geklärt werden. Mit der Deutschen Dienststelle (WASt) wird laufend zusammengearbeitet. Das heutige Spektrum des DRK-Suchdienstes umfasst im Wesentlichen die Aufgabenbereiche Einsatz in Großschadens- und Katastrophenfällen, Nachforschungen, Familienzusammenführung, Ausreisen sowie den Hilfs- und Beratungsdienst der Angehörigen, Vermissten und Verletzten. Die Zentrale des DRK-Suchdienstes (Suchdienst-Leitstelle, Direktion des Amtlichen Auskunftsbüros (D/AAB)) hat ihren Sitz beim Generalsekretariat des Deutschen Roten Kreuzes in Berlin. Die Bearbeitung von Suchanfragen aus aller Welt und anderen mit der Aufgabenstellung verbundenen Anliegen wird – je nach Zuständigkeit – in den beiden Außenstellen (DRK-Suchdienst Hamburg und DRK-Suchdienst München) in Zusammenarbeit mit den DRK-Landes- und Kreisverbänden vorgenommen. Verbreitungsarbeit. Zur Durchführung dieser Aufgabe bestellen die Kreis- und Landesverbände "Konventionsbeauftragte". Das DRK hat einen Fachausschuss Humanitäres Völkerrecht, der die Funktion des "Deutschen Komitees zum Humanitären Völkerrechts" wahrnimmt. Weitere Mittel der Verbreitungsarbeit sind juristische Konferenzen zu Themen des humanitären Völkerrechts, Schulungsangebote (z. B. DRK-Sommerkurs im Humanitären Völkerrecht) und Publikationen (z. B. CD-Rom Handbuch Verbreitungsarbeit). Die Zusammenarbeit wird u.a. mit dem Institut für Friedenssicherungsrecht und Humanitäres Völkerrecht durchgeführt. Internationale Hilfe. Nach dem Grundsatz der Universalität ist jede nationale Gesellschaft verpflichtet, nach den eigenen Möglichkeiten Hilfen in Notfällen auch an Schwestergesellschaften anzubieten. Die Koordination der internationalen Hilfen erfolgt über die Internationale Föderation der Rotkreuz- und Rothalbmondgesellschaften (IFRC) (Internationale Rotkreuz- und Rothalbmond-Bewegung) in Fällen von Naturkatastrophen bzw. durch das Internationale Komitee vom Roten Kreuz (IKRK) in Fällen von Kriegen und Konflikten. Beide Organisationen haben ihren Sitz in Genf. Die Zusammenarbeit vor Ort findet immer in engster Abstimmung mit der jeweiligen Landesgesellschaft und – darüber – den staatlichen Institutionen vor Ort statt. Durch ein System von geschulten Katastrophendelegierten, die sich nach Schadensfällen sofort ein eigenes Bild von der Lage machen, wird eine weltweit vernetzte, optimal auf die Bedürfnisse des betroffenen Landes abgestimmte Hilfe innerhalb weniger Stunden und Tage nach der Katastrophe sichergestellt. Das DRK ist in der Auslandshilfe eine der leistungsfähigsten Landesgesellschaften der Welt. Es beschäftigt durchschnittlich 150 Mitarbeiter in der Zentrale und in ca. 50 Einsatzorten über die ganze Welt. Hilfen werden als Prävention, in der Akutphase und im Wiederaufbau sowie in langfristigen Hilfe- und Entwicklungsprojekten geleistet. Das DRK bietet als Hilfe zur Selbsthilfe insbesondere Leistungen zum Aufbau und Stärkung lokaler Katastrophenschutz-Strukturen an. In der Akutphase ist das DRK neben der Lieferung praktisch aller benötigten Materialien spezialisiert auf die Massenaufbereitung von Wasser, Prävention von Krankheiten durch Sanitäranlagen und der medizinischen Hilfe. In sogenannten Emergency Response Units (ERU) werden ständig in leicht zu transportierenden Verpackungen alle hierzu notwendigen Materialien vorgehalten und können innerhalb von 24 Stunden zum Einsatz gebracht werden. Im Logistikzentrum Berlin-Schönefeld lagert beispielsweise Material zur Errichtung eines ganzen Krankenhauses, welches für die medizinische Versorgung von bis zu 250.000 Menschen ausgelegt ist, auf seinen nächsten Einsatz. Das DRK hat sich zudem auf den Wiederaufbau nach extremen Zerstörungen spezialisiert. Nach Katastrophen wie dem Tsunami, dem Erdbeben in Pakistan und ähnlichen Ereignissen ist es nicht nur Ziel, möglichst schnell Wohnungen, Schulen und Gesundheitsinfrastruktur wiederherzustellen. Genauso wichtig ist, dass die vom Unglück betroffenen Menschen unmittelbar in den Wiederaufbau einbezogen werden, um ihnen und ihren überlebenden Familienmitgliedern eine neue Lebensperspektive zu schaffen. Das DRK hat Ende des Jahres 2009 offiziell die Aufbauarbeit aus den Schäden des verheerenden Tsunamis in Südasien im Dezember 2004 für beendet erklärt. Alle erhaltenen Spenden in Höhe von über 135 Millionen € konnten vollständig umgesetzt werden. Gliederung und Aufbau. Das DRK ist ein föderal gegliederter Mitgliederverband mit weitreichender rechtlicher Selbstständigkeit der Untergliederungen. Rechtsträger des Namens und des Zeichens „Deutsches Rotes Kreuz“ ist der DRK e. V., der Bundesverband. Die Bundessatzung regelt die Mitgliedschaft und daraus erwachsende Rechte und Pflichten im DRK. Zweite Stufe sind die Landesverbände und der Verband der Schwesternschaften. In der dritten Organisationsstufe finden sich die Kreisverbände und die Schwesternschaften. Die unmittelbarste Verbindung zur Basis des DRK, den bedürftigen Menschen, den Ehrenamtlichen und den Mitgliedern, wird über die Ortsverbände hergestellt. Die persönlichen Mitgliedschaften (ca. 4 Mio. Mitglieder) bestehen auf den Ebenen der Orts- bzw. Kreisverbände. Rechtsform. Das Deutsche Rote Kreuz e. V. (Bundesverband) ist ein eingetragener Verein. Der Sitz des Generalsekretariats ist seit dem 1990 gefassten Beschluss über die Verlegung Berlin. Die heute gültige Anerkennung als nationale Rotkreuz-Gesellschaft wurde nach der deutschen Wiedervereinigung und dem Beitritt der Landesverbände des ehemaligen DRK der DDR durch die Bundesregierung am 6. März 1991 und am 1. Mai 1991 durch das IKRK ausgesprochen. Die Mitgliedsverbände des DRK e. V. sind, bis auf das Bayerische Rote Kreuz (BRK), ebenfalls eingetragene Vereine. Gleiches gilt für deren unmittelbare Mitgliedsverbände. Ausgründungen von Aufgabenfeldern – zum Beispiel Blutspendedienste, Rettungsdienste, Altenpflegeheime und Krankenhäuser – aus den Vereinen wurden in Form von gemeinnützigen GmbHs vorgenommen. Eigentümer sind jedoch weiterhin die DRK-Vereine. Eine Ausnahme bildet das Bayerische Rote Kreuz, dem bereits im Jahr 1921 und nach dem Zweiten Weltkrieg am 27. Juli 1945 die Stellung einer Körperschaft des öffentlichen Rechts verliehen wurde. Das BRK ist insgesamt in einer Körperschaft des öffentlichen Rechts organisiert; die Bezirks- und Kreisverbände haben daher keine rechtliche Eigenständigkeit gegenüber dem Landesverband. Der Landesverband Hessen, der zunächst ebenfalls öffentlich-rechtliche Körperschaft war, hat diesen Status inzwischen abgelegt und den eines eingetragenen Vereins angenommen. Das DRK ist zwar eine Körperschaft privaten Rechts, und seine internationale Dachorganisation wird als nichtstaatliche Organisation bezeichnet, doch nimmt das DRK die völkerrechtlich vorgegebenen Aufgaben der Nationalen Rotkreuzgesellschaft in Deutschland wahr. Damit ist es eine Mischung aus einer privaten und einer staatlichen Organisation. Am 5. Dezember 2008 hat der Deutsche Bundestag das "Gesetz über das Deutsche Rote Kreuz und andere freiwillige Hilfsgesellschaften im Sinne der Genfer Rotkreuz-Abkommen" (DRK-Gesetz) verabschiedet; mit der Verkündigung im Bundesgesetzblatt ist dieses Gesetz seit dem 11. Dezember 2008 in Kraft. Es löst ein aus dem Jahre 1937 stammendes DRK-Gesetz ab, das in den meisten Punkten überholt war. Das DRK-Gesetz beschreibt die Funktion des Deutschen Roten Kreuzes als „Nationale Gesellschaft des Roten Kreuzes auf dem Gebiet der Bundesrepublik Deutschland und freiwillige Hilfsgesellschaft der deutschen Behörden im humanitären Bereich“ und legt die gesetzlichen Pflichtaufgaben fest, die das DRK bundesweit zu erfüllen hat. Die Zuordnung weiterer Aufgaben durch Bundes- oder Landesgesetz bleibt ausdrücklich möglich. Schließlich sichert das Gesetz den Schutz des Zeichens des Roten Kreuzes und überträgt dem DRK das Recht auf Verwendung dieses Zeichens. Nicht unwichtig ist auch, dass in einem weiteren Paragrafen die Rechtsstellung und Aufgaben der Johanniter-Unfallhilfe und des Malteser-Hilfsdienstes geregelt werden, die ebenfalls Nationale Hilfsgesellschaften nach den Genfer Abkommen sind. Die Aufgaben von JUH und MHD nach dem Gesetz beschränken sich jedoch im Unterschied zu der umfassenden Rechtsstellung des DRK im humanitären Bereich auf die Ermächtigung zur Unterstützung des Sanitätsdienstes der Bundeswehr. Weggefallen ist nunmehr endgültig die häufig in der Vergangenheit umstrittene Befreiung des DRK von Gerichtsgebühren, wie sie sich aus dem alten DRK-Gesetz ergeben hatte; das neue DRK-Gesetz kennt keine vergleichbare Regelung mehr. Mitgliedsverbände. Mitgliedsverbände des DRK e. V. sind Mitglieder der Landesverbände sind wiederum ca. 480 Kreisverbände, Mitglieder des VdS sind 33 DRK-Schwesternschaften. Gemeinschaften. Die Gemeinschaften des Deutschen Roten Kreuzes stellen die ehrenamtliche Basis der Hilfsorganisation dar. Die meisten aktiven Mitglieder des DRK sind in diesen organisiert. Es gibt im Deutschen Roten Kreuz auch zahlreiche weitere Formen der ehrenamtlichen Arbeit außerhalb der Rotkreuz-Gemeinschaften. Beispielsweise sind dies Arbeitskreise und Selbsthilfegruppen für Patienten oder die ehrenamtliche Mitarbeit im Hausnotruf oder Rettungsdienst. Mitgliedschaften. Das DRK ist Mitglied der Soziallotterie Aktion Mensch. Finanzierung. Die Leistungen des DRK werden im ideellen Bereich durch 300.000 freiwillige Helfer und im Bereich refinanzierter Leistungen durch 110.000 Mitarbeiter erbracht. Durch den föderalen Aufbau des DRK – alle 520 Kreisverbände, die Landesverbände, und der Bundesverband sind rechtlich selbstständig, arbeiten jedoch mit Satzungen, die Kontrollen und in besonderen Fällen Eingriffe der jeweils oberen Ebene ermöglichen. Aus diesem Grund existiert keine zusammengefasste Bilanz, aus der alle wichtigen Zahlen sofort erkennbar sind. Ab einer bestimmten Größenordnung der Umsatzerlöse ist die Untergliederung zur Prüfung durch den Wirtschaftsprüfer verpflichtet. Die Jahresabschlüsse müssen in jedem Fall bei dem Aufsicht führenden Verband (Landes- oder Bundesverband) eingereicht werden. Aufgrund der gesetzlichen Veröffentlichungspflichten können die Bilanzen der DRK-GmbHs, einschließlich der Blutspendedienste, im elektronischen Bundesanzeiger direkt eingesehen werden. Die Umsatzerlöse der Blutspendedienste betragen ca. 500 Millionen Euro (siehe Bundesanzeiger), der erzielte Umsatz der DRK-Rettungsdienste beträgt bundesweit mehr als 700 Millionen Euro. Die Gesamtumsätze werden auf etwa 4,5 Mrd. Euro geschätzt. Finanzierung des ideellen Bereichs. Zu den ideellen Aufgaben zählen zum Beispiel Vorhaltungen für den Katastrophenschutz, die Ausbildungen von Freiwilligen und die Koordination der ehrenamtlichen Arbeit, die Arbeit des Jugendrotkreuzes mit 100.000 jugendlichen Mitgliedern, Ausstattungen für die Freiwilligenarbeit, Katastropheneinsätze im In- und Ausland, Projekte für Menschen in besonderen Notsituationen, die nicht durch staatliche Fürsorge abgedeckt ist. Hierfür erhält das DRK auf Ebene der Kreis- und Ortsverbände Mitgliedsbeiträge von seinen vier Millionen Mitgliedern. Darüber hinaus werden Spenden für diese ideelle Arbeit und insbesondere zweckgebunden zum Beispiel zur unmittelbaren Hilfe bei weltweiten Katastrophen eingeworben. Weiterhin werden hier für besondere Aufgaben wie zum Beispiel Spezialfahrzeuge des Katastrophenschutzes von Bund und Ländern Mittel zur Verfügung gestellt. Das DRK ist als Organisation für seine sparsame und satzungsgemäße Verwendung der Spendengelder mit dem DZI Spenden-Siegel ausgezeichnet. Refinanzierte Leistungen. Unter refinanzierten Leistungen sind alle Leistungen zu verstehen, die sich aus den Sozialgesetzbüchern und aus einem sonstigen Leistungsaustausch ergeben. Hierzu gehören Leistungen des Gesundheitswesens, die Pflegedienste, Kinder- und Jugendeinrichtungen, Einrichtungen und Dienste für Menschen mit Behinderungen, Sozialberatungsstellen, die Notfallrettung und die Sicherung der Blutversorgung. Finanziert werden diese Leistungen durch Leistungsentgelte (Beiträge und Pflegesätze) und öffentliche Zuwendungen bzw. staatliche Zuschüsse. Sie kommen von Krankenkassen, Pflegekassen, den Leistungsnehmern selbst – zum Beispiel Erste-Hilfe-Ausbildung – und dem Bund, den Ländern und Kommunen. Dabei gelten für alle privaten und gemeinnützigen Anbieter die gleichen Regeln. Für besondere Projekte – zum Beispiel für Menschen mit Behinderung – können zudem Zuwendungen von den Soziallotterien beantragt werden. Die Untergliederungen des DRK sind, wie alle gemeinnützigen Organisationen, insoweit von Ertragsteuern befreit. Entwicklung bis 1921. Gemeinhin gilt als Ursprung der internationalen Rotkreuzbewegung die Schlacht von Solferino vom 24. Juni 1859 mit Henry Dunant als Vater der Idee. Bereits ebenfalls 1859 gründete die damalige badische Großherzogin Luise den badischen Frauenverein (siehe: Frauenverein) als Vorläufer der Rotkreuz-Schwesternschaften. In den Ländern des Deutschen Reichs erfolgte die Gründung von Rotkreuzgemeinschaften zunächst relativ unabhängig voneinander, meist auch unter anderem Namen. Am 12. November 1863 wurde der Württembergische Sanitätsverein als erste Nationale Rotkreuzgesellschaft auf dem Gebiet des späteren Reiches gegründet, als zweite folgte im Januar 1864 der Verein zur Pflege verwundeter Krieger im Großherzogtum Oldenburg. Ein Großteil der Arbeit des Roten Kreuzes wurde am Anfang vor allem von Frauen getragen (Vaterländischer Frauenverein). In Sachsen beispielsweise gründete nach dem Krieg von 1866 die sorbische Kaufmannsfrau Marie Simon unter dem Schutz der Prinzessin Carola den Verein der Albertinerinnen (benannt nach Carolas Mann, Prinz Albert), die später allmählich den Namen Rot-Kreuz-Schwestern annahmen. Wann die offizielle Umbenennung erfolgte, ist unklar, da die Bezeichnungen auch parallel auftauchen. Neben dem Hauptanliegen des Vereins, der Pflege verwundeter Soldaten, betätigten sich die Schwestern auch in der zivilen Krankenpflege. Als Dachorganisation gründeten zwölf Landesverbände am 20. April 1869 das „Centralkomité der deutschen Vereine zur Pflege im Felde verwundeter und erkrankter Krieger“, das ab Dezember 1879 den Namen „Zentralkomitee der deutschen Vereine vom Roten Kreuz“ trug und seinen Sitz in Berlin hatte. Vorsitzender des Zentralkomitees während des Ersten Weltkrieges war der General Kurt W. von Pfuel. Das DRK in der Weimarer Republik. Am 25. Januar 1921 wurde in Bamberg das Deutsche Rote Kreuz unter seinem ersten Präsidenten Joachim von Winterfeldt-Menkin gegründet, als eingetragener, rechtsfähiger Verein bürgerlichen Rechts und Dachorganisation der jeweiligen Landesvereine (Männer- und Frauenvereine) vom Roten Kreuz, deren Selbstständigkeit durch den Zusammenschluss nur marginal berührt wurde. Die Neuorganisation der deutschen Rotkreuzgesellschaften war notwendig geworden, um zahlreichen Angriffen von außen und innerorganisatorischen Problemen ein Konzept organisatorischer Geschlossenheit entgegenzusetzen. Insbesondere durch den Versailler Friedensvertrag vom 28. Juni 1919 waren die deutschen Rotkreuzvereine in eine ernste Krise gestürzt worden. „Das Deutsche Rote Kreuz ist ein Glied der Weltgemeinschaft des Roten Kreuzes und betätigt sich als solches auf allen Arbeitsgebieten, deren Zweck die Verhütung, Bekämpfung und Linderung gesundheitlicher, wirtschaftlicher und sittlicher Not bildet“. Nach einer Aufzählung vorwiegend karitativer und wohlfahrtsorientierter Friedensaufgaben folgt erst als letzter Punkt die Verwundetenfürsorge, wobei auch hier in Bezug auf den § 25 der Völkerbundsakte die internationale Anbindung als nationale Rotkreuzgesellschaft betont wurde. Mit dieser Neuorientierung auf die Friedenstätigkeit und dem Beitritt zur „Internationalen Liga der Rotkreuzgesellschaften“ konnte sich das Deutsche Rote Kreuz in der Weimarer Republik als Wohlfahrtsorganisation etablieren. Gleichzeitig blieb die traditionelle Aufgabe des Kriegssanitätsdienstes und die damit zusammenhängende militärische Organisationsstruktur beibehalten. Die nach 1918 propagierte Demilitarisierung des Roten Kreuzes fand jedoch nur oberflächlich statt und konnte jederzeit rückgängig gemacht werden. Ebenso überdauerten die traditionell monarchistisch-konservativ eingestellten Führungskräfte im Roten Kreuz. Das DRK während des Nationalsozialismus. a>, Präsident des Deutschen Roten Kreuzes spricht am 11. November 1936 anlässlich des 70-jährigen DRK-Jubiläums DRK Verbandpäckchen aus der NS-Zeit mit dem damaligen Logo der Organisation Die Gleichschaltung des DRK begann kurz nach der sogenannten Machtergreifung im Jahre 1933. Personelle Veränderungen und neue juristische Grundlagen kündigten einen Wechsel im Selbstverständnis des DRK an. Am 29. November 1933 trat eine neue Satzung in Kraft. Der seit 1919 amtierende Präsident Joachim von Winterfeldt-Menkin kündigte bereits am 8. Juni 1933 seinen Rücktritt an, der zum 29. November gültig wurde. Unter seiner Präsidentschaft wurde das DRK als Mitglied in das Internationale Rote Kreuz – und somit nach dem Ersten Weltkrieg wieder in die internationale Gemeinschaft – aufgenommen. Allerdings wurden bereits auch jüdische Rot-Kreuz-Mitglieder ausgeschlossen, der Hitlergruß eingeführt und der Neutralitätsgrundsatz weitestgehend aufgegeben. Nachfolger wurde am 30. November 1933 der SA-Ehrenführer Carl-Eduard Herzog von Sachsen-Coburg und Gotha. Sein stellvertretender Präsident, der Chef des Sanitätswesens der SA, Paul Hocheisen, wurde bereits zu Beginn der Hitler-Diktatur vom Stellvertreter des Führers, Rudolf Heß, zum Kommissar für die Gleichschaltung des DRK bestellt. Hocheisen war es auch, der in der Folgezeit die eigentlichen Amtsgeschäfte führte. Eine weitere einschneidende Änderung erfuhr das Deutsche Rote Kreuz vier Jahre später durch die Ernennung des SS-Oberführers Ernst-Robert Grawitz zum stellvertretenden Präsidenten. Grawitz, der in seiner Funktion als Reichsarzt SS maßgeblich für die Euthanasie-Verbrechen und Menschenversuche an KZ-Häftlingen verantwortlich war, gestaltete das Deutsche Rote Kreuz im Sinne des ‚Führerprinzips‘ völlig um. Das Ergebnis war ein DRK-Gesetz, das am 9. Dezember 1937 erlassen wurde und auf dessen Grundlage Grawitz vom DRK-Schirmherrn, Adolf Hitler, zum geschäftsführenden Präsidenten berufen wurde. Mit der neuen Satzung vom 24. Dezember desselben Jahres band sich das DRK noch enger an den ‚Führer‘, den Staat und die NSDAP. Die neue zentralisierte Organisationsstruktur mit dem Präsidium an der Spitze ermöglichte zugleich eine noch effektivere Indienststellung des DRK für die Mobilmachung, die seit der Neuschaffung der Wehrmacht im Jahr 1935 zu einer der wichtigsten Aufgaben der Hilfsorganisation wurde. Neben dem engen Verhältnis zur Partei wird spätestens ab 1938 eine starke, wenn auch weitgehend informelle Verbindung zur SS sichtbar, die sich vor allem in personellen Überschneidungen in führenden Positionen beider Organisationen bemerkbar macht. Von den 29 Mitgliedern der gesamten DRK-Führung waren 18 hohe SS-Führer. So fand neben dem Reichsarzt SS Ernst-Robert Grawitz der damalige Verwaltungschef SS, Oswald Pohl, dem ab 1942 die Konzentrationslager unterstanden, eine Nebentätigkeit als „Generalbevollmächtigter für alle vermögensrechtlichen Angelegenheiten des DRK“. In dieser Funktion konnte Pohl für die SS Kredite in Millionenhöhe bewilligen: DRK-Gelder, die über die „SS-Spargemeinschaft e. V.“ unter anderem für die Gründung von Wirtschaftsunternehmungen an die SS flossen. Am 26. April 1945 besetzten sowjetische Truppen das DRK-Hauptlager und DRK-Präsidium in Babelsberg. Die SS-Führungsspitze war zu diesem Zeitpunkt bereits geflohen. Ernst-Robert Grawitz hatte sich drei Tage zuvor samt Familie in seiner Wohnung in die Luft gesprengt. Der Rest der DRK-Führung gründete ein vorübergehendes Komitee und versuchte bei den Alliierten ein Fortbestehen der Organisation zu erreichen. Der Leibarzt Heinrich Himmlers, Karl Gebhardt, behauptete später im Nürnberger Ärzteprozess, er habe in den letzten Tagen des Zweiten Weltkriegs als Präsident des Deutschen Roten Kreuzes amtiert, dies wurde erst nach Gebhardts Tod widerlegt. Er wurde trotz dieser Schutzbehauptung wegen Kriegsverbrechen und Verbrechen gegen die Menschlichkeit am 20. August 1947 zum Strang verurteilt und am 2. Juni 1948 gehängt. Das DRK nach 1945. Das DRK wurde am 19. September 1945 in der sowjetischen und in der französischen Besatzungszone am 3. Januar 1946 aufgelöst. In der amerikanischen Besatzungszone (heute der nördliche Teil von Baden-Württemberg, Bremen, Hessen und Bayern) konnte das DRK dagegen in seiner bisherigen Rechtsform der „Körperschaft des öffentlichen Rechts“ weiterarbeiten, während in der britischen Zone und später auch in der französischen Zone DRK-Landesverbände als „eingetragene Vereine“ neu gegründet wurden. Eine Ausnahme bildete zunächst das Saargebiet, wo das bisherige DRK unter der Bezeichnung „Saarländischer Sanitäts- und Hilfsdienst“ (SSHD) seine Arbeit fortsetzte. Das „Deutsche Rote Kreuz in der Bundesrepublik Deutschland e. V.“ als Bundesverband wurde am 4. Februar 1950 in Koblenz wiedergegründet. Am 26. Februar 1951 wurde es durch die deutsche Bundesregierung als nationale Rotkreuz-Gesellschaft der Bundesrepublik Deutschland anerkannt. Diese Anerkennung wurde mit Schreiben vom 27. September 1956, bedingt durch den Aufbau der Bundeswehr, neu gefasst. Die Anerkennung durch das IKRK erfolgte am 26. Juni 1952. Der „Saarländische Sanitäts- und Hilfsdienst“ wurde nach der Eingliederung des Saargebietes in die Bundesrepublik Deutschland als „Landesverband Saarland“ wieder Bestandteil des Deutschen Roten Kreuzes. In Deutschland sind derzeit (Stand 2013) etwa vier Millionen Mitglieder (aktiv/fördernd) und Mitarbeiter für das Rote Kreuz tätig. DRK in der DDR. Das „Deutsche Rote Kreuz der DDR“ wurde am 23. Oktober 1952 gegründet. Am 9. November 1954 erfolgte die Anerkennung als nationale Rotkreuz-Gesellschaft durch das IKRK und wenig später die Aufnahme in die Liga der Rotkreuz-Gesellschaften. Der Zentralausschuss und das Präsidium als die leitenden Organe hatten ihren Sitz in Dresden. Seine wichtigsten Aufgaben waren der Katastrophen- und Bevölkerungsschutz, die Verbreitungsarbeit, die Durchführung des Rettungsdienstes in Form der Schnellen Medizinischen Hilfe (SMH) und die Gesundheitserziehung. Für den Bereich des Bevölkerungsschutzes unterstand das DRK dem Ministerium des Innern. Weitere Tätigkeitsfelder waren der Bereich der Pflege und Altenversorgung, das Blutspendewesen, der Suchdienst sowie die Wasser-, Berg- und Grubenrettungsdienste. Präsident des DRK der DDR von seiner Gründung bis 1981 war der Militärarzt Werner Ludwig. Das DRK in der DDR erfüllte neben den Aufgaben, die sich direkt oder indirekt aus der Tätigkeit als nationale Gesellschaft vom Roten Kreuz ergaben, darüber hinaus auch die einer Massenorganisation. Jeder größere Betrieb hatte ebenso wie Wohngebiete eine Grundorganisation des DRK, von denen es landesweit etwa 14.000 gab. Über den Grundorganisationen existierten Stadtbezirks-, Kreis- und Bezirkskomitees als weitere Organisationsebenen. DRK-Arbeit galt als „gesellschaftliche Tätigkeit“, sie wurde der beruflichen Arbeit gleich gewertet und man wurde für Ausbildungen und Einsätze teilweise bezahlt von der Arbeit freigestellt. Die Zahl der erwachsenen Mitglieder betrug Mitte der 1980er Jahre rund 650.000 Menschen. Daneben gab es die Form des unterstützenden Freundeskreises für Nicht-Mitglieder, die mit einem kleinen Monatsbeitrag die Arbeit der Organisation unterstützen konnten. Am Anfang der Mitgliedschaft stand die kostenlose Ausbildung zum Gesundheitshelfer (Erste Hilfe), wer wollte, konnte auch einen Kurs für häusliche Krankenpflege besuchen. Die Einsätze erfolgten bei Theater- und Konzertaufführungen, Großveranstaltungen vor allem im Sport, Krankenhäusern, Pflegeheimen oder beim DRK-Bahnhofsdienst. Es wurde eine kleine Entschädigung gezahlt. Das DRK der DDR hatte eine eigene Zeitschrift („Deutsches Rotes Kreuz“). Als Vorbild galt Albert Schweitzer, aber auch die Tradition der Arbeitersamariter. Deutsch-deutsche Rotkreuzgespräche und Wiedervereinigung. Rotkreuz-Kontakte zwischen den beiden Rotkreuz-Gesellschaften hat es fortlaufend gegeben. Kurz nach Gründung des DRK der DDR suchte dessen Präsident Werner Ludwig Kontakt zu seinem westdeutschen Kollegen, dem DRK-Präsidenten Heinrich Weitz und schlug eine Zusammenarbeit der beiden deutschen Rotkreuzorganisationen vor. Ein erstes Treffen fand am 7. Juli 1954 statt. Zunächst konnte eine Zusammenarbeit im Bereich des Suchdienstes vereinbart werden. Zwischen den Jahren 1954 und 1957 gab es ca. 20 Zusammenkünfte zwischen beiden Gesellschaften. Trotz des Mauerbaus riss der Kontakt nicht ab, wenn er auch schwieriger wurde. So war das Rote Kreuz beider Staaten in Beratungen involviert, um das Passierscheinabkommen durchzuführen bzw. um Familienzusammenführungen zu erleichtern. Das DRK der DDR unterließ es aber auch nicht, zum Beispiel die westdeutsche Rotkreuzführung unter Präsident Hans Ritter von Lex und dessen Vizepräsidenten, Walter Bargatzky, zu verunglimpfen. Aber trotz deutlicher Abkühlung der deutsch-deutschen Rotkreuzgespräche, fanden weitere Treffen auf hochrangiger Ebene statt. Vielfach boten auch die Internationalen Rotkreuz-Konferenzen Möglichkeiten, sich zwischen den beiden Gesellschaften auszutauschen. Einen Jugendaustausch zwischen den beiden Jugendorganisationen gab es seit Anfang der 1980er Jahre. Eine erste Gruppe aus der DDR konnte im Jahr 1984 am Internationalen Erste-Hilfe-Turnier in Hamburg teilnehmen. Der Fall der Mauer brachte für beide Gesellschaften große Veränderungen mit sich. Die amtierenden Rotkreuz-Präsidenten, auf der westdeutschen Seite Botho Prinz zu Sayn-Wittgenstein-Hohenstein, auf der ostdeutschen Seite seit 7. April 1990 Christoph Brückner, arbeiteten vertrauensvoll und zukunftsweisend auf eine neue, gesamtdeutsche, Rotkreuzorganisation hin. Mit dem Vertrag über die Herstellung der Einheit des DRK vom 8. November 1990 und dem am 6. Oktober 1990 gefassten Beschluss der Hauptversammlung über die Auflösung des DRK der DDR zum 31. Dezember 1990 endete dessen Geschichte als Dachverband der Rotkreuzorganisationen in der DDR; die zuvor neugegründeten DRK-Landesverbände Berlin (Ost), Brandenburg, Mecklenburg-Vorpommern, Sachsen, Sachsen-Anhalt und Thüringen blieben jedoch bestehen. Auf einer gemeinsamen Bundesversammlung des DRK am 9. November 1990 wurden diese neuen Landesverbände mit Wirkung zum 1. Januar 1991 in das Deutsche Rote Kreuz der Bundesrepublik Deutschland aufgenommen. Präsidenten des DRK. Rudolf Seiters, seit 2003 Präsident des Deutschen Roten Kreuzes Kritik. Als Hauptkritikpunkt am Deutschen Roten Kreuz nach dem Zweiten Weltkrieg wird gesehen, dass die sehr stark föderale Struktur eine Kontrolle und Lenkung von oben nach unten deutlich erschwert. Dies begünstigt regelmäßig Skandale in Untergliederungen, zum Beispiel der „Blutbeutelskandal“ (1999) bei einem Blutspendedienst, bei dem bestechliche Führungskräfte überteuerte Medizinprodukte eingekauft hatten oder die von der "Kreiszeitung Syke" 2006 und von "Monitor" 2007 aufgedeckte Schwarzarbeit im Rettungsdienst. Auf der anderen Seite hat die föderale Struktur auch Vorteile, denn die Gliederung kann sich so besser auf die örtlichen Gegebenheiten einstellen. Diese Kritik sowie die Notwendigkeit, mit den regelfinanzierten Leistungen im Gesundheitswesen, in der Pflege und zunehmend im Bereich des Rettungsdienstes mit immer stärkeren Marktkräften Schritt halten zu können, war der Auslöser einer Neuorganisation. Unter dem Titel „Strategie 2010plus“ wurden in einer im März 2009 neu gefassten Bundessatzung (Eintrag ins Vereinsregister 11/09) die Zuständigkeiten und die Eingriffsrechte der Ebenen Bund, Länder und Kreise neu geregelt und ein Managementsystem zur übergreifenden Umsetzung gemeinsamer Standards geregelt. Weitere Elemente der Neuorganisation sind die Trennung zwischen Aufsicht und Exekutive und die Herstellung von Transparenz auf allen Ebenen. Ziel ist die Konzentration auf die ideelle Ausrichtung und die Steuerungsfähigkeit des Gesamtverbandes. Einzelnachweise. Rotes Kreuz Dave Brubeck. Dave Brubeck in New York im März 2008 David Warren „Dave“ Brubeck (* 6. Dezember 1920 in Concord, Kalifornien; † 5. Dezember 2012 in Norwalk, Connecticut) war ein US-amerikanischer Jazzpianist, Komponist und Bandleader. Er leitete mit seinem Quartett eine der langlebigsten und erfolgreichsten Combos des Modern Jazz und eroberte dem Jazz mit der intellektuellen Mittelschicht ein neues Publikum. In seinen Stücken verband er Jazz sowohl mit europäischer Konzertmusik als auch mit außereuropäischer Musik. In Brubecks Klavierspiel nahmen Blockakkorde und im rhythmischen Aufbau seiner Stücke ungerade Taktarten einen großen Raum ein. Leben und Wirken. Brubeck wuchs auf einer Farm auf, sein Vater war Viehzüchter. In der Jazz-Filmreihe von Ken Burns sagte er scherzhaft, sein Jugendtraum sei gewesen, dass das von ihm gehütete Vieh den Tourbus des Benny-Goodman-Orchesters stoppen würde, sodass er ihm vorspielen könnte. Seine ersten Musikkontakte hatte er zur Country Music. Brubecks Mutter hatte in England mit dem Ziel, Konzertpianistin zu werden, Klavier studiert und war mit Henry Cowell bekannt. Sie unterrichtete auch nebenbei Klavier; ab dem vierten Lebensjahr auch Dave, der außerdem lernte, Cello zu spielen. Brubeck war nicht besonders daran interessiert, nach einer bestimmten Methode zu lernen, sondern wollte eher seine eigenen Melodien schaffen – dadurch lernte er nie, vom Blatt zu spielen. Brubeck studierte erst Tiermedizin und wechselte 1941 zur Musik. Er studierte zunächst am "College of Pacific", wo er auch ein Orchester leitete. 1942 wechselte er auf das Mills College. Als einer seiner Professoren entdeckte, dass er keine Noten lesen konnte, wurde er beinahe vom College ausgeschlossen. Mehrere seiner Professoren setzten sich für ihn ein und wiesen auf seine Fähigkeiten in Kontrapunkt und Harmonielehre hin. Da die Schule fürchtete, dass es zu einem Skandal kommen könnte, gewährte sie ihm angeblich den Abschluss nur gegen sein Versprechen, nie selbst zu unterrichten. 1943 wurde er in die Armee eingezogen. Zu Beginn des Militärdienstes hatte er Gelegenheit, an der University of California Vorlesungen bei Arnold Schönberg zu besuchen. Dann diente er in George Pattons Dritter Armee während der Ardennenschlacht. Er spielte in einer Band, die er kurzfristig – vor allem mit afroamerikanischen Musikern – zusammenstellte und gewann schnell Bekanntheit und Anerkennung. Nach drei Jahren Militärdienst kehrte er zum Mills College zurück und studierte 1946 ein halbes Jahr bei Darius Milhaud, der ihn ermutigte, sich nicht nur mit klassischem Klavier, sondern auch mit Kontrapunkt und Arrangement zu beschäftigen. Außerdem wandte er seine Aufmerksamkeit wieder dem Jazz zu. Noch als Student startete Brubeck ein Oktett, unter anderem mit Cal Tjader und Paul Desmond. Das Oktett "The Jazz Workshop Ensemble" war sehr experimentierfreudig, machte aber nur wenige Aufnahmen und bekam sehr wenig Auftrittsmöglichkeiten. Ein wenig entmutigt startete Brubeck 1949 mit zwei Mitgliedern ein Trio, das er 1951 mit Desmond zum Quartett erweiterte und verbrachte mehrere Jahre damit, ausschließlich Jazz-Standards zu spielen. Ein erster Erfolg war sein Auftritt im Oberlin College 1953, später veröffentlicht als "Jazz at Oberlin". 1954 erschien Brubeck als erster Musiker nach Louis Armstrong auf einem Titelbild von "Time"; er wurde in zahlreichen Polls ausgezeichnet. Dann formierte er das „Dave Brubeck Quartet“ mit Joe Dodge am Schlagzeug, Bob Bates am Bass, Paul Desmond am Saxophon und ihm selbst am Klavier. Mitte der 1950er Jahre wurden Bates und Dodge durch Eugene Wright und Joe Morello ersetzt. In den späten 1950er Jahren sagte Brubeck mehrere Konzerte ab, weil der Clubbesitzer von ihm verlangte, einen anderen Bassisten als den Afroamerikaner Eugene Wright zu suchen. Er sagte auch mehrere Fernsehauftritte ab, als er herausfand, dass man vorhatte, Wright nicht ins Bild zu bringen. 1959 führte er den "Dialogue for Jazz Combo and Symphony" seines Bruders Howard mit Leonard Bernstein und dem New York Philharmonic Orchestra auf. 1959 brachte das Quartett das Album „Time Out“ heraus, das von ihrem Label zwar enthusiastisch aufgenommen, aber trotzdem nur widerstrebend veröffentlicht wurde: Es enthielt ausschließlich Originalkompositionen, und nur eine von ihnen "(Strange Meadow Lark)" stand durchgängig im üblichen 4/4-Takt. Trotzdem erreichte die Platte schnell Platin-Status. 1961 nahm er mit Louis Armstrong, Jon Hendricks, Dave Lambert, Annie Ross und Carmen McRae Stücke des Musicals "The Real Ambassador" auf und gab ein Konzert an der Berliner Mauer. Auf den Berliner Jazztagen 1964 führte er seine "Elementals" für Quartett und Symphonie-Orchester auf; im gleichen Jahr gab er ein Konzert im Weißen Haus. Das erste Brubeck-Quartett trennte sich 1967; Brubeck trat ab 1968 mit Gerry Mulligan auf, mit dem er auch Aufnahmen machte. Parallel bildete Brubeck eine neue Gruppe mit Perry Robinson bzw. Jerry Bergonzi als Bläser und mit seinen drei Söhnen Dan am Schlagzeug, Darius am Bass und Chris am Keyboard. 1972 erneuerte er die Zusammenarbeit mit Paul Desmond, 1975/76 gaben sie eine Reihe von Reunion-Konzerten mit dem klassischen Quartett und Mulligan als gelegentlichem Gast. Nach Desmonds Tod 1977 machten Mulligan und Brubeck die nächsten sechs Jahre gemeinsame Aufnahmen. 1980 wurde Brubeck Katholik. Er bezeichnete diesen Schritt nicht als Konversion, sondern als Anfang eines ernsthaften religiösen Bekenntnisses. Die unmittelbare Anregung dazu dürfte seine Arbeit an der Messkomposition "To Hope" gewesen sein. Er erhielt den Auftrag dazu vom amerikanischen Redakteur Ed Murray, Herausgeber der katholischen Wochenzeitschrift "Our Sunday Visitor". Brubeck beschäftigte sich auch mit der Musik der nordamerikanischen Indianer. Er gab in etwa 80 Städten pro Jahr Konzerte, davon üblicherweise im Frühling in 20 europäischen. In den letzten Jahren gehörten der Altsaxophonist Bobby Militello, der Bassist Michael Moore (der Alec Dankworth und Jack Six ersetzte) und der Schlagzeuger Randy Jones zu seinem Quartett. Seit 2006 gab Dave Brubeck in Europa keine Konzerte mehr. Brubeck komponierte Jazzstandards wie "In Your Own Sweet Way" oder "The Duke". Einige seiner Stücke stehen in ungewöhnlichen Taktarten: "Pick Up Sticks" in 6/4, "Unsquare Dance" in 7/4 und "Blue Rondo A La Turk" in 9/8; sein langjähriger musikalischer Partner Paul Desmond schrieb das sicherlich berühmteste Stück des Dave-Brubeck-Quartetts, "Take Five" im 5/4-Takt. Daneben beschäftigte er sich auch mit dem Schreiben von Werken des Third Stream und anderen aufwändig geschichteten Kompositionen. Neben sinfonischen und kammermusikalischen Werken, etwa für das Brodsky Quartet, komponierte er auch Oratorien, Ballettmusiken und geistliche Musik "(To Hope! A Celebration)". Privatleben. Mit seiner Ehefrau Iola (geb. Iola Marie Whitlock, * 14. August 1923, † 12. März 2014), die er 1942 heiratete, hatte Dave Brubeck sechs Kinder (Michael, Catherine, Darius, Chris, Dan und Matthew), von denen Darius und drei weitere ebenfalls professionelle Musiker wurden. Dave Brubeck starb am 5. Dezember 2012, einen Tag vor seinem 92. Geburtstag, im Norwalk Hospital nach Herzversagen. Auszeichnungen und Ehrungen. Dave Brubeck erhielt 1996 in einer international ausgestrahlten Grammy Awards Show den Ehrenpreis für sein Lebenswerk. Daneben erhielt er in seinem Leben weitere Auszeichnungen, darunter einen Stern auf dem „Hollywood Walk of Fame“, von sechs amerikanischen Universitäten den Ehrendoktor, den Ehrengrad der Universität Nottingham (England), den Ehrendoktor der Universität Freiburg (Schweiz) und den Ehrendoktor der Universität Duisburg. 1994 verlieh ihm Bill Clinton die National Medal of Arts. Im Februar 2006 wurde der Asteroid (5079) Brubeck nach ihm benannt. Im Dezember 2009 wurde Brubeck von Präsident Barack Obama der Preis des Kennedy Centers in Washington überreicht. Anlässlich von Brubecks neunzigstem Geburtstag fand 2010 die Premiere des Dokumentarfilms „Dave Brubeck - In His Own Sweet Way“ statt, den Clint Eastwood produzierte und bei dem Bruce Ricker Regie führte. 2011 wurde Brubeck in die American Academy of Arts and Sciences gewählt. Mit der Gründung des „Brubeck Institute“, das sich für die Verbreitung moderner Musikstile einsetzt, ehrte die University of the Pacific Dave Brubeck als Namensgeber ihres Departments für Jazz Studies. Neben einer Brubeck Summer Jazz Colony veranstaltet man dort jährlich ein kleines zweitägiges Brubeck Festival. Diskografie (Auswahl). Dave Brubeck 1990 in Deauville Dschalalabad. Dschalalabad (auch Dschellalabad;; paschtunisch, "Ǧalālkoť", "Dschalalkot") ist die etwa 85.000 Einwohner zählende Hauptstadt der Provinz Nangarhar in Afghanistan. Lage. Dschalalabad liegt knapp 160 Kilometer östlich von Kabul am Fluss Kabul nahe dem Khyber-Pass in einer Höhe von ca. 600 m ü. d. M. Die in Pakistan gelegene Stadt Peschawar ist nur ca. 130 km in südöstlicher Richtung entfernt. Infrastruktur. Der Flugplatz liegt fünf Kilometer südöstlich (). Dort unterhalten die Vereinigten Staaten mit der FOB Fenty (Forward Operation Base) einen wichtigen Stützpunkt. Von hier aus starten unter anderem so genannte Drohnen für ihre Einsätze in Afghanistan, aber auch im benachbarten Pakistan. Geschichte. Die Stadt hieß Adīnapūr bevor sie Ende des 16. Jahrhunderts umbenannt wurde. Sie war ein Zentrum der Gandhara-Kultur. Hier befand sich der berühmte Garten Bāgh-i-wafā, den Babur in seiner Autobiographie Baburnama beschrieb. Der Boden war mit Klee bedeckt, im Garten standen Granatäpfel und Orangenbäume. Babur ließ 1523 Kochbananen aus Indien für den Garten importieren. Dschalalabad wurde 1570 durch den indischen Großmogul Akbar gegründet, sie war vorher die Winterresidenz des Emirs von Afghanistan sowie Garnisonsstadt und ein wichtiger Handelsplatz. Im Ersten Anglo-Afghanischen Krieg konnte General Robert Henry Sale vom 12. November 1841 bis zum 8. April 1842 in Dschalalabad mit 1.500 Mann einer Belagerung von Dschalalabad durch 5.000 Afghanen standhalten. Nachdem er vom bevorstehenden Entsatz durch General George Pollock erfahren hatte, unternahm Sale am 7. April einen Ausfall und vertrieb die Belagerer. Am 19. Februar 2011 töteten mehrere Selbstmordattentäter mehr als 38 Menschen in einer Filiale der Kabul Bank in Dschalalabad. Mehr als die Hälfte der Opfer waren Angehörige der afghanischen Sicherheitskräfte. Am 27. Februar 2012 sprengte sich am Flughafen ein Selbstmordattentäter in die Luft. Dabei starben neun Menschen, acht wurden verletzt. Laut den Taliban, die sich zu dem Anschlag bekannten, wurde er als Rache für die Koran-Verbrennungen auf dem US-Stützpunkt Bagram durchgeführt. Am 18. April 2015 kam es zu einem Selbstmordanschlag, der mindestens 33 Todesopfer und über 100 Verletzte zur Folge hatte. Der afghanische Präsident Aschraf Ghani machte den Islamischen Staat dafür verantwortlich, auch nachdem die Taliban ihre Beteiligung abstritten. Umgebung. Etwa 11 km westlich von Dschalalabad wurden im 19. Jahrhundert beim Dorf Bimaran die Ruinen zweier buddhistischer Stupas entdeckt und untersucht; dabei fand sich das bedeutende Bimaran-Reliquiar, welches seitdem im British Museum aufbewahrt wird. Dreißigjähriger Krieg. Der Dreißigjährige Krieg von 1618 bis 1648 war ein Konflikt um die Hegemonie im Heiligen Römischen Reich Deutscher Nation und in Europa und zugleich ein Religionskrieg. In ihm entluden sich auf europäischer Ebene der habsburgisch-französische Gegensatz und auf Reichsebene derjenige zwischen Kaiser und Katholischer Liga einerseits und Protestantischer Union andererseits. Gemeinsam mit ihren jeweiligen Verbündeten im Reich trugen die habsburgischen Mächte Österreich und Spanien ihre dynastischen Interessenkonflikte mit Frankreich, den Niederlanden, Dänemark und Schweden aus. Infolgedessen verbanden sich eine Reihe weiterer Konflikte mit dem Dreißigjährigen Krieg: der Achtzigjährige Krieg (1568–1648) zwischen den Niederlanden und Spanien, der Französisch-Spanische Krieg (1635–1659) und der Torstenssonkrieg (1643–1645) zwischen Schweden und Dänemark. Als Auslöser des Krieges gilt der Prager Fenstersturz vom 23. Mai 1618, mit dem der Aufstand der protestantischen böhmischen Stände offen ausbrach. Dieser richtete sich gegen die Rekatholisierungsversuche des böhmischen Königs aus dem Haus Habsburg, der zugleich römisch-deutscher Kaiser war. Insgesamt folgten in den 30 Jahren von 1618 bis 1648 vier Konflikte aufeinander, die von der Geschichtswissenschaft nach den jeweiligen Gegnern des Kaisers und der Habsburger Mächte als Böhmisch-Pfälzischer, Dänisch-Niedersächsischer, Schwedischer und Schwedisch-Französischer Krieg bezeichnet wurden. Zwei Versuche, den Konflikt zu beenden, der Friede von Lübeck 1629 und der Friede von Prag 1635, scheiterten daran, dass sie nicht die Interessen aller direkt oder indirekt Beteiligten berücksichtigten. Das gelang erst mit dem gesamteuropäischen Friedenskongress von Münster und Osnabrück (1641–1648). Der Westfälische Friede legte die Machtbalance zwischen Kaiser und Reichsständen neu fest und wurde Teil der bis 1806 geltenden Verfassungsordnung des Reiches. Darüber hinaus sah er Gebietsabtretungen an Frankreich und Schweden vor sowie das Ausscheiden der Vereinigten Niederlande und der Schweizer Eidgenossenschaft aus dem Reichsverband. Am 24. Oktober 1648 endete der Krieg in Deutschland. Seine Feldzüge und Schlachten hatten überwiegend auf dem Gebiet des Heiligen Römischen Reiches stattgefunden. Die Kriegshandlungen selbst, aber auch die durch sie verursachten Hungersnöte und Seuchen verwüsteten und entvölkerten ganze Landstriche. In Teilen Süddeutschlands etwa überlebte nur ein Drittel der Bevölkerung. Nach den wirtschaftlichen und sozialen Verheerungen benötigten einige vom Krieg betroffene Territorien mehr als ein Jahrhundert, um sich von deren Folgen zu erholen. Vorgeschichte und Ursachen. Im Vorfeld des Dreißigjährigen Krieges hatte sich in Europa und dem Heiligen Römischen Reich Deutscher Nation ein vielfältiges Spannungsfeld aus politischen, dynastischen, konfessionellen und innenpolitischen Gegensätzen aufgebaut. Die Ursachen reichen zeitlich weit zurück. Mächteverhältnisse in Europa. In der Zeit vor dem Dreißigjährigen Krieg gab es drei wesentliche Konflikträume: Westeuropa, Oberitalien und den Ostseeraum. In Westeuropa und Oberitalien wurden die dynastischen Konflikte zwischen Habsburg und dem französischen König ausgetragen, während im Ostseeraum mit Dänemark und Schweden zwei Reiche mit Großmachtambitionen um die Vorherrschaft stritten. Bestimmend in Westeuropa war der Konflikt zwischen Frankreich und Spanien, der wiederum aus dem dynastischen Gegensatz der Habsburger und französischen Könige entstand. Spanien war eine europäische Großmacht mit Besitzungen in Süditalien, der Po-Ebene und den Niederlanden. Seine verstreuten Stützpunkte hatten für Spanien zur Folge, dass es in Westeuropa kaum noch einen Krieg geben konnte, der nicht spanische Interessen tangierte. Frankreich wiederum sah sich im Süden, Norden und Südosten mit spanischen Ländern konfrontiert, was zu dem französischen „Einkreisungskomplex“ führte. Wegen ihrer vielen gewaltsamen Auseinandersetzungen rüsteten Frankreich und Spanien ihre Armeen auf. Neben den finanziellen Schwierigkeiten musste Spanien ab 1566 auch den Aufstand in den Niederlanden bekämpfen, der jedoch 1609 de facto mit der Unabhängigkeit der Vereinigten Niederlande und einem auf zwölf Jahre begrenzten Waffenstillstand endete. Der Konflikt in Westeuropa hätte im Jülich-Klevischen Erbfolgestreit zu einem großen europäischen Krieg eskalieren können, als der Herzog von Jülich-Kleve-Berg verstarb und die Erbanwärter ihre Ansprüche geltend machten, darunter Kurfürst Sigismund von Brandenburg und Pfalzgraf Wolfgang Wilhelm von Neuburg. Eine internationale Dimension erhielt der Krieg durch die Intervention Heinrichs IV. von Frankreich, der die Fürsten der Protestantischen Union unterstützte und im Gegenzug ihre Hilfe in einem Krieg gegen Spanien forderte. Die Ermordung Heinrichs IV. 1610 beendete das französische Engagement am Niederrhein aber vorerst. In Oberitalien dagegen bestanden viele kleine Fürstentümer. Einige der Territorien gehörten Spanien, das unter anderem mit Mailand eine stabile Machtbasis in Italien besaß. Die einzigen weiteren Mächte europäischen Ranges waren der Papst und die Republik Venedig, wobei die Kurie in Rom von französisch-, spanisch- und kaiserfreundlichen Kardinälen beherrscht war, während die Interessen Venedigs eher im Mittelmeer und an der Adriaküste lagen als in Italien. Daher waren Spanien und Frankreich die einflussreichsten Kräfte in Norditalien, wobei Frankreich bemüht war, die spanische Macht zu schwächen und selbst die Vorherrschaft in der Region zu erlangen. Beide Staaten versuchten, die einheimischen Fürsten für sich zu gewinnen, sodass viele Herrscher unter dem Einfluss französischer und spanischer Abgesandter gleichzeitig standen. Besonders deutlich erfuhren dies die Herzoge von Savoyen, da das Herzogtum eine strategisch bedeutsame Lage hatte: Über dessen Alpenpässe und Festungen konnte die wichtige Nachschubroute der spanischen Truppen in die Niederlande kontrolliert werden. Die Kriege im Ostseeraum, die auch als Nordische Kriege bekannt sind, sahen vor und während des Dreißigjährigen Krieges drei Hauptakteure: Polen, Schweden und Dänemark. Polen und Schweden wurden von zwei Linien der Wasa-Dynastie beherrscht. Sigismund III. verhinderte als König eine Ausbreitung des Protestantismus in Polen, das deshalb während des Dreißigjährigen Krieges auch den Verbündeten Habsburgs zuzurechnen war. Sigismund war als König von Polen nicht nur Fürst von Litauen in Personalunion, sondern zeitweilig auch noch König von Schweden. Dies änderte sich im Jahre 1599, als einige schwedische Adelige gegen Sigismund revoltierten, ihn als schwedischen König absetzten und seine Getreuen hinrichten ließen. Das, was folgte, war einerseits die Etablierung des lutherischen Glaubens in Schweden, andererseits eine Serie von Polnisch-Schwedischen Kriegen. Die ersten Feldzüge des neuen schwedischen Königs, Karls IX., verliefen aber zunächst erfolglos und ermutigten den Rivalen von Schweden, Christian IV. von Dänemark, zum Angriff. Dänemark war zu dieser Zeit mit 1,5 Millionen Einwohnern zwar bevölkerungsärmer als Schweden oder Polen, durch den Besitz Norwegens, Südschwedens und großer Teile der schwedischen Westküste aber hatte der dänische Monarch die alleinige Kontrolle über den Öresund und verbuchte daher hohe Zolleinkünfte. Karl IX. von Schweden hingegen gründete 1603 Göteborg in der Hoffnung, dadurch einen Teil der Zolleinkünfte aus dem Öresund einstreichen zu können. Als Christian IV. 1611 den Kalmarkrieg begann, erwartete Karl IX. deshalb auch den Angriff auf Göteborg, stattdessen marschierte das dänische Heer überraschend auf Kalmar und nahm die Stadt ein. 1611 starb Karl IX. und sein Sohn Gustav II. Adolf musste für den Frieden mit Dänemark einen hohen Preis entrichten: Kalmar, Nordnorwegen und Ösel fielen an Dänemark, hinzu kamen Kriegskontributionen in Höhe von einer Million Reichsmark. Um diese Summe bezahlen zu können, verschuldete sich Gustav Adolf bei den Vereinigten Niederlanden. Diese Kriegsschulden belasteten Schweden sehr und schwächten seine außenpolitische Stellung. Dänemark dagegen war durch den Krieg zur Ostseemacht geworden und Christian IV. hielt sich deshalb einerseits für einen großen Feldherrn und glaubte andererseits, über genug Geld für weitere Kriege zu verfügen. Konfessionelle Gegensätze. Nach der ersten Phase der Reformation, die Deutschland konfessionell gespalten hatte, versuchten die katholischen und protestantischen Landesherren zunächst eine für beide Seiten akzeptable Verfassungsordnung und ein Mächtegleichgewicht zwischen den Konfessionen im Reich zu finden. Im Augsburger Religionsfrieden vom 25. September 1555 einigten sie sich schließlich auf das Jus reformandi, das Reformationsrecht (später zusammengefasst als "cuius regio, eius religio", lat. für: wessen Gebiet, dessen Religion; „Herrschaft bestimmt das Bekenntnis“). Demzufolge hatten die Landesherren das Recht, die Konfession der ansässigen Bevölkerung zu bestimmen. Gleichzeitig wurde aber auch das Jus emigrandi, das Auswanderungsrecht eingeführt, das es Personen einer anderen Konfession ermöglichte, auszuwandern. Unklar blieb aber das Reformationsrecht der freien Reichsstädte, denn der Augsburger Religionsfrieden legte nicht fest, wie sie das Bekenntnis wechseln sollten. Seither waren das katholische und das lutherische Glaubensbekenntnis als gleichberechtigt anerkannt, nicht jedoch das reformierte. Ebenfalls aufgenommen wurde das Reservatum ecclesiasticum (lat. für: „geistlicher Vorbehalt“), das garantierte, dass Besitzungen der katholischen Kirche von 1555 katholisch bleiben sollten. Sollte ein katholischer Bischof konvertieren, verlöre er seinen Bischofssitz und ein neuer Bischof würde gewählt werden. Diese Regelung sicherte auch die Mehrheitsverhältnisse im Kurfürstenkollegium, in dem sich vier katholische und drei protestantische Kurfürsten gegenüberstanden. Der geistliche Vorbehalt wurde nur deshalb von den protestantischen Fürsten geduldet, weil mit der Declaratio Ferdinandea (lat. für: „ferdinandinische Erklärung“) zugesichert wurde, dass bereits reformierte Städte und Stände in geistlichen Territorien nicht zwangskonvertiert oder zur Auswanderung gezwungen wurden. Verschärfung der Konfliktlage und Verfall der politischen Ordnung im Reich. Zwar verhinderten die Regelungen des Augsburger Religionsfriedens für 60 Jahre den Ausbruch eines großen Religionskrieges, aber es gab Auseinandersetzungen um seine Auslegung und eine konfrontative Haltung einer neuen Herrschergeneration trug zur Verschärfung der Konfliktlage und dem Verfall der politischen Ordnung bei. Wegen des fehlenden militärischen Potenzials der Kontrahenten verliefen die Konflikte jedoch lange weitgehend gewaltfrei. Eine Auswirkung des Augsburger Religionsfriedens war eine heute als „Konfessionalisierung“ bezeichnete Entwicklung. Die Landesfürsten versuchten dabei, religiöse Uniformität zu schaffen und die Bevölkerung von unterschiedlichen religiösen Einflüssen abzuschirmen. Die protestantischen Fürsten fürchteten eine Spaltung der protestantischen Bewegung, die dadurch möglicherweise ihren Schutz durch den Augsburger Religionsfrieden verlieren würde und nutzten ihre Stellung als Notbischöfe zur Disziplinierung der Geistlichen und der Bevölkerung im Sinne ihrer Konfession (Sozialdisziplinierung). In der Folge kam es zur Bürokratisierung und Zentralisierung, der Territorialstaat wurde gestärkt. Der Frieden im Reich geriet in den Jahrzehnten nach dem Augsburger Religionsfrieden mehr und mehr in Gefahr, als die Herrscher, Theologen und Juristen, die noch den Schmalkaldischen Krieg erlebt hatten, abtraten und ihre Amtsnachfolger eine radikalere Politik vertraten und die Folgen einer Zuspitzung des Konfliktes nicht beachteten. Diese Radikalisierung zeigte sich unter anderem an der Handhabung des „geistlichen Vorbehalts“, denn während Kaiser Maximilian II. protestantischen Adeligen mit katholischen Bischofsstellen noch „Lehnsindulte“ ausstellte (sie also vorläufig belehnte, damit sie politisch handlungsfähig blieben, obwohl sie mangels päpstlicher Bestätigung keine richtigen Bischöfe waren), beendete sein Nachfolger Rudolf II. diese Praxis. Folglich waren die protestantischen Administratoren ohne Belehnung und Indulte auf Reichstagen nicht mehr stimmberechtigt. Problematisch wurde dies 1588, als der Reichstag eine Visitationsdeputation bilden sollte. Die Visitationsdeputation war eine Berufungsinstanz: Verstöße gegen Reichsrecht (wie der Einzug von Gütern der katholischen Kirche durch protestantische Landesherren) wurden vor dem Reichskammergericht verhandelt. Die Revision wurde vor der Reichskammergerichtsdeputation oder kurz Visitationsdeputation verhandelt. Diese Deputation wurde turnusgemäß besetzt, und 1588 hätte der Erzbischof von Magdeburg Mitglied sein sollen. Da der lutherische Administrator von Magdeburg, Joachim Friedrich von Brandenburg, ohne Indult aber auf dem Reichstag nicht stimmberechtigt war, konnte er auch nicht in der Visitationsdeputation mitwirken, die deshalb nicht handlungsfähig war. Rudolf II. vertagte daher die Bildung der Deputation auf das nächste Jahr, doch auch 1589 konnte keine Einigung erzielt werden, ebenso in den folgenden Jahren, weshalb eine wichtige Revisionsinstitution nicht mehr funktionierte. Wegen der steigenden Zahl der Revisionsfälle, darunter vor allem Einziehung von Klöstern durch Territorialherren, wurde 1594 die Kompetenz der Visitationsdeputation auf die Reichsdeputation übertragen. Als sich 1600 in vier Revisionsfällen (Klostersäkularisierungen durch die freie Reichsstadt Straßburg, den Grafen von Baden, den Markgrafen von Oettingen-Oettingen und den Reichsritter von Hirschhorn) eine katholische Mehrheit in der Reichdeputation abzeichnete, verließen die Kurpfalz, Brandenburg und Braunschweig den Ausschuss und lähmten die Reichdeputation dadurch. Der Ausfall der Revisionsinstitutionen schwächte das Reichskammergericht; die Fürsten verhandelten ihre Streitfälle lieber vor dem Reichshofrat, der dadurch gestärkt wurde. Aufgrund seiner gegenreformatorischen Einstellung bedeutete die Stärkung des Reichshofrates auch eine Stärkung der katholischen Seite im Reich. Wegen der Stärkung der Staaten, der Konfrontationspolitik der neuen Herrscher, der Lähmung des Reichskammergerichts als Instanz der friedlichen Konfliktlösung im Reich und der Stärkung der katholischen Fürsten durch den Reichshofrat kam es zur Bildung verfeindeter Fürstengruppierungen. In der Folge und als Reaktion auf das Kreuz- und Fahnengefecht in der Stadt Donauwörth trat die Kurpfalz aus dem Reichstag aus. Ein Reichstagsabschied zur Türkensteuer kam deshalb nicht zustande und der Reichstag als wichtigstes Verfassungsorgan war inaktiv. Am 14. Mai 1608 gründete sich unter Führung der Kurpfalz die Protestantische Union, der bald 29 Reichsstände angehörten. Die protestantischen Fürsten betrachteten die Union vor allem als Schutzbündnis, das notwendig geworden war, da alle Reichsinstitutionen wie das Reichskammergericht infolge der konfessionellen Gegensätze blockiert waren, und sie den Friedensschutz im Reich nicht mehr als gegeben ansahen. Politisch einflussreich wurde die Protestantische Union erst durch die Verbindung nach Frankreich, weil sich die protestantischen Fürsten durch eine Militärkoalition mit Frankreich Respekt von den katholischen Fürsten verschaffen wollten. Frankreich versuchte seinerseits, sich die Union im Kampf gegen Spanien zum Verbündeten zu machen. Nach dem Tode des französischen Königs Heinrich IV. 1610 bemühte man sich um eine Koalition mit den Niederlanden, doch die Generalstaaten wollten nicht in reichsinterne Konflikte hineingezogen werden und beließen es bei einem 1613 geschlossenen Defensivbündnis für 12 Jahre. Als Gegenstück zur Protestantischen Union gründete Maximilian I. von Bayern am 10. Juli 1609 die Katholische Liga, die die katholische Macht im Reich sichern sollte. Zwar war die katholische Liga in der besseren Position, doch im Gegensatz zur Protestantischen Union gab es keine mächtige Führungsfigur, sondern die Rangfolgekämpfe insbesondere zwischen Maximilian I. von Bayern und dem Kurfürsten von Mainz behinderten die Katholische Liga immer wieder. Ausbruch des Krieges. a>Aus einem dieser Fenster wurden Martinitz, Slavata und Fabricius geworfen. Eigentlicher Auslöser des Krieges war der Ständeaufstand in Böhmen von 1618. Er hat seine Wurzeln im Streit um den Majestätsbrief, der 1609 von Kaiser Rudolf II. ausgestellt worden war und den böhmischen Ständen Religionsfreiheit zugesichert hatte. Sein ab 1612 regierender Bruder Matthias erkannte den Majestätsbrief bei Regierungsantritt zwar an, versuchte aber, die von seinem Vorgänger gemachten Zugeständnisse an die böhmischen Stände wieder rückgängig zu machen. Als Matthias die Schließung der evangelischen Kirche in Braunau anordnete, die Ausübung der evangelischen Religion überhaupt verbot, in die Verwaltung der Städte eingriff und eine im März 1618 folgende Protestnote der böhmischen Stände mit einem Versammlungsverbot des böhmischen Landtages beantwortete, stürmten am 23. Mai 1618 mit Degen und Pistolen bewaffnete Adelige die Böhmische Kanzlei in der Prager Burg. Am Ende einer hitzigen Diskussion mit den kaiserlichen Stellvertretern Jaroslav Borsita von Martinic und Wilhelm Slavata wurden diese beiden und der Kanzleisekretär Philipp Fabricius aus dem Fenster geworfen (Zweiter Prager Fenstersturz). Diese Tat sollte spontan wirken, war aber von Anfang an geplant. Zwar überlebten die drei Opfer, doch der Angriff auf die kaiserlichen Stellvertreter war auch ein symbolischer Angriff auf den Kaiser selbst und kam deshalb einer Kriegserklärung gleich. Die folgende Strafaktion des Kaisers war somit bewusst provoziert. Krieg in Böhmen. Nach der Revolte bildeten die böhmischen Stände in Prag ein dreißigköpfiges "Direktorium", das die neue Macht des Adels sichern sollte. Seine Hauptaufgaben waren das Ausarbeiten einer Verfassung, die Wahl eines neuen Königs und die militärische Verteidigung gegen den Kaiser. Im Sommer 1618 begannen die ersten Gefechte in Südböhmen, während beide Seiten Verbündete suchten und sich für einen großen militärischen Schlag rüsteten. Die böhmischen Rebellen konnten Friedrich V. von der Pfalz, das Oberhaupt der Protestantischen Union und den Herzog von Savoyen Karl Emanuel I. für sich gewinnen. Letztgenannter finanzierte die Armee unter Peter Ernst II. von Mansfeld zur Unterstützung Böhmens. Die deutschen Habsburger dagegen engagierten den Grafen von Bucquoy, der sich Ende August in Marsch auf Böhmen setzte. Der Feldzug nach Prag wurde aber vorerst von Mansfelds Truppen gestoppt, der Ende November Pilsen eroberte. Die Kaiserlichen mussten sich nach Budweis zurückziehen. Anfänglich schien es so, als würden die böhmischen Stände mit ihrem Aufstand erfolgreich sein. Das böhmische Heer unter Heinrich Matthias von Thurn zwang zunächst auch die mährischen Stände zum Anschluss an den Aufstand und drang dann in die österreichischen Stammlande der Habsburger ein und stand am 6. Juni 1619 vor Wien. Doch dem Grafen von Bucquoy gelang es, Mansfeld bei Sablat zu schlagen, sodass das Direktorium in Prag Thurn zur Verteidigung Böhmens zurückrufen musste. Im Sommer 1619 wurde die Böhmische Konföderation gegründet und die böhmische Ständeversammlung setzte Ferdinand als König von Böhmen am 19. August ab und wählte am 24. August Friedrich V. von der Pfalz zum neuen König. Gleichzeitig reiste Ferdinand zur Wahl nach Frankfurt am Main, wo ihn die Kurfürsten am 28. August einstimmig zum römisch-deutschen Kaiser kürten. Mit dem Vertrag von München vom 8. Oktober 1619 gelang es Kaiser Ferdinand II. zwar unter großen Zugeständnissen, den bayrischen Herzog Maximilian I. zum Kriegseintritt zu bewegen, doch geriet Ferdinand noch im Oktober unter Druck, als der mit Böhmen verbündete Fürst von Siebenbürgen Gabriel Bethlen Wien belagerte. Bethlen zog sich jedoch bald wieder zurück, da er fürchtete, dass ihm eine vom Kaiser in Polen angeworbene Armee in den Rücken fallen könnte. Im folgenden Jahr wurde die fehlende Unterstützung für die protestantischen Aufständischen deutlich, die zunehmend in die Defensive gerieten. Eine von Friedrich einberufene Versammlung aller protestantischen Fürsten in Nürnberg im Dezember 1619 wurde nur von Mitgliedern der Protestantischen Union besucht, während der Kaiser im März 1620 die kaisertreuen protestantischen Fürsten an sich binden konnte. Kursachsen wurde für seine Unterstützung die Lausitz zugesichert. Mit dem Ulmer Vertrag schlossen die Katholische Liga und die Protestantische Union ein Nichtangriffsabkommen, womit Friedrich keine Hilfe mehr erwarten konnte. Deshalb konnte im September das Ligaheer ungehindert über Oberösterreich in Böhmen einmarschieren, während sächsische Truppen die Lausitz besetzten. Auch Bethlens Soldaten konnten den Gegner nicht aufhalten. Am 8. November 1620 kam es bei Prag zur Schlacht am Weißen Berg, in der das böhmische Ständeheer von den Feldherren Karl Bonaventura Graf von Buquoy und Johann t’Serclaes von Tilly schwer geschlagen wurde. Friedrich musste aus Prag über Schlesien und Brandenburg nach Den Haag fliehen und suchte in Norddeutschland nach Verbündeten. Schlesien dagegen löste sich aus der Böhmischen Konföderation. Im Januar verhängte Kaiser Ferdinand die Reichsacht über Friedrich. Im April 1621 löste sich die Protestantische Union schließlich selbst auf. Nach dem Sieg hielt der Kaiser in Böhmen ein Strafgericht ab: 27 Personen wurden im Folgenden wegen Majestätsbeleidigung angeklagt und hingerichtet. Um den Protestantismus in Böhmen wieder zurückzudrängen, vertrieb Ferdinand 30.000 Familien und zog 650 adelige Güter als Reparationen ein, die er zur Tilgung seiner Schulden an seine katholischen Gläubiger verteilte. Krieg in der Kurpfalz. Herzog Christian von Braunschweig-Wolfenbüttel (Gemälde von Paulus Moreelse, 1619) Schon im Sommer 1620 eroberte der spanische Heerführer Ambrosio Spinola aus Flandern kommend die linksrheinische Pfalz, zog sich im Frühjahr 1621 aber wieder nach Flandern zurück. Eine 11.000 Soldaten starke Garnison blieb in der Pfalz. Die noch verbliebenen protestantischen Heerführer Christian von Braunschweig-Wolfenbüttel, der "„tolle Halberstädter“" genannt, und Ernst von Mansfeld sowie der Markgraf Georg Friedrich von Baden-Durlach zogen im Frühjahr 1622 aus unterschiedlichen Richtungen in die Pfalz. In den pfälzischen Erblanden des „Winterkönigs“ konnten die protestantischen Truppen zunächst die Schlacht bei Mingolsheim (27. April 1622) für sich entscheiden. In den folgenden Monaten erlitten sie jedoch schwere Niederlagen, weil sie den Kaisertreuen zwar zahlenmäßig überlegen waren, es ihnen jedoch nicht gelang, sich zu vereinigen. Die badischen Truppen wurden in der Schlacht bei Wimpfen (6. Mai 1622) vernichtend geschlagen, in der Schlacht bei Höchst unterlag Christian von Braunschweig-Wolfenbüttel dem Liga-Heer unter Tilly. Christian von Braunschweig-Wolfenbüttel trat daraufhin mit Ernst von Mansfeld in niederländische Dienste, wohin sich die beiden Heere absetzten. Auf dem Marsch trafen sie auf ein spanisches Heer, über das sie in der Schlacht bei Fleurus (29. August 1622) einen Pyrrhussieg erringen konnten. Ab Sommer 1622 war die rechtsrheinische Pfalz von Ligatruppen besetzt und Friedrich V. verlor am 23. Februar 1623 die Kurwürde, die auf Maximilian von Bayern übertragen wurde. Christian von Braunschweig-Wolfenbüttel erlitt bei Stadtlohn erneut eine verheerende Niederlage und seine dezimierten Truppen waren fortan für die Kaiserlichen kein ernstzunehmender Gegner mehr. Die Oberpfalz fiel an Bayern und wurde bis 1628 katholisiert. Ebenfalls 1628 wurde die Kurwürde der Bayrischen Herzöge erblich, ebenso der Besitz der Oberpfalz. Im Gegenzug erließ Maximilian Kaiser Ferdinand die Erstattung von 13 Millionen Gulden Kriegskosten. Wiederbeginn des Achtzigjährigen Krieges. Als 1621 der zwölfjährige Waffenstillstand zwischen den Niederlanden und Spanien auslief, begann auch der niederländische Unabhängigkeitskrieg wieder. Spanien hatte die Friedenszeit genutzt, um seine militärische Kraft zu stärken, sodass es mit einer 60.000 Mann starken Armee die Niederlande bedrohte. Im Juni 1625 gelang es nach fast einjähriger Belagerung die niederländische Stadt Breda zur Kapitulation zu zwingen, doch eine erneute Finanzknappheit der spanischen Krone behinderte weitere Operationen der flandrischen Armee und verhinderte so die vollständige Eroberung der niederländischen Republik. Dänisch-niedersächsischer Krieg (1623–1629). Nach dem Sieg des Kaisers über die protestantischen Fürsten im Reich betrieb Frankreich ab 1624 wieder eine antihabsburgische Politik. Dazu schloss der französische König Ludwig XIII. nicht nur ein Bündnis mit Savoyen und Venedig in Italien, sondern initiierte auch ein Bündnis der protestantischen Herrscher in Nordeuropa gegen den habsburgischen Kaiser. 1625 kam es zur Gründung der Haager Allianz zwischen England, den Niederlanden und Dänemark. Ziel war es, gemeinsam eine Armee unter Führung von Christian IV. von Dänemark zu unterhalten, mit der Norddeutschland gegen den Kaiser gesichert werden sollte. Christian IV. versprach, nur 30.000 Soldaten zu benötigen, von denen der Großteil vom niedersächsischen Reichskreis bezahlt werden sollte, in dem Christian als Herzog von Holstein stimmberechtigtes Mitglied war. Damit setzte er sich gegen den schwedischen König Gustav II. Adolf durch, der 50.000 Soldaten forderte. Wesentliche Motivation Christians für den Kriegseintritt war es, Verden, Osnabrück und Halberstadt für seinen Sohn zu gewinnen. Zeitgenössische Darstellung der Schlacht bei Lutter Christian warb sofort ein 14.000 Mann starkes Heer an und versuchte auf dem Kreistag in Lüneburg im März 1625, die Kreisstände zur Finanzierung weiterer 14.000 Söldner zu bewegen und ihn zum Kreisobristen zu wählen. Die Stände aber wollten keinen Krieg und machten es deshalb zur Bedingung, dass das neue Heer nur zur Verteidigung des Kreises diene und das Kreisgebiet deshalb nicht verlassen dürfe. Der dänische König hielt sich nicht an die Regelung und besetzte mit Verden und Nienburg Städte, die sich schon im niederrheinisch-westfälischen Reichskreis befanden. In dieser Bedrohungssituation bot der böhmische Adelige Albrecht von Wallenstein dem Kaiser an, zunächst auf eigene Rechnung ein Heer aufzustellen. Im Mai und Juni 1625 berieten die kaiserlichen Räte über das Angebot. Hauptsorge war dabei, durch die Aufstellung einer Armee einen neuen Krieg zu provozieren. Da die Mehrheit der Räte aber einen Angriff Dänemarks für wahrscheinlich hielt und sich dagegen rüsten wollte, wurde Wallenstein Mitte Juni 1625 im mährischen Nikolsburg zum Herzog erhoben. Mitte Juli erhielt er sein Patent zum ersten Generalat und den Auftrag zur Aushebung einer 24.000 Mann starken Armee, die von weiteren Regimentern aus anderen Teilen des Reiches verstärkt wurde. Zum Ende des Jahres war Wallensteins Armee so auf 50.000 Mann gewachsen. Wallenstein bezog in Magdeburg und Halberstadt sein Winterquartier und besetzte so die Elbe, während das Ligaheer unter Tilly weiter im östlichen Westfalen und in Hessen lagerte. Mit seinem Verbündeten Ernst von Mansfeld plante Christian einen Feldzug, der sich zunächst gegen Thüringen und dann gegen Süddeutschland richten sollte. Wie zuvor die Böhmen und Friedrich von der Pfalz wartete aber auch Christian vergeblich auf nennenswerte Unterstützung durch andere protestantische Mächte und sah sich zudem im Sommer 1626 nicht nur dem Heer der Liga sondern auch der Armee Wallensteins gegenüber. Am 27. August 1626 erlitten die Dänen in der Schlacht bei Lutter am Barenberge eine vernichtende Niederlage gegen Tilly, die sie die Unterstützung ihrer deutschen Verbündeten kostete. Bereits am 25. April 1626 hatte Wallenstein Christians Verbündeten Ernst von Mansfeld in der Schlacht an der Dessauer Elbbrücke besiegt. Mansfeld gelang es danach noch einmal, ein Heer aufzustellen, mit dem er nach Süden auswich. In Ungarn beabsichtigte er, seine Truppen mit denen Bethlens zu vereinigen, um anschließend Wien anzugreifen. Doch Wallenstein verfolgte den Söldnerführer und zwang ihn schließlich zur Flucht. Kurz darauf starb Mansfeld in der Nähe von Sarajewo. Im Sommer 1627 stieß Wallenstein in wenigen Wochen nach Norddeutschland und auf die Halbinsel Jütland vor. Nur die dänischen Inseln blieben von den Kaiserlichen unbesetzt, da sie nicht über Schiffe verfügten. 1629 schloss Dänemark den Frieden von Lübeck und schied aus dem Krieg aus. Die protestantische Sache im Reich schien verloren. Wie 1623 Friedrich von der Pfalz, so wurden nun die mit Dänemark verbündeten Herzöge von Mecklenburg für abgesetzt erklärt. Ihre Landesherrschaft übertrug der Kaiser auf Wallenstein, um damit seine Schulden bei ihm zu begleichen. Gleichfalls 1629 erließ Ferdinand II. das Restitutionsedikt, das die Rückerstattung aller seit 1555 von protestantischen Fürsten eingezogenen geistlichen Besitztümer vorsah. Das Edikt markiert zugleich den Höhepunkt der kaiserlichen Macht im Reich und den Wendepunkt des Krieges, denn es fachte den schon gebrochenen Widerstand der Protestanten erneut an und führte ihnen Verbündete zu, denen Kaiser und Liga am Ende nicht gewachsen waren. Schwedischer Krieg (1630–1635). Gustav II. Adolf wurde in der Schlacht bei Lützen tödlich verwundet. Nachdem mit Dänemark eine Ostseemacht aus dem Dreißigjährigen Krieg ausgeschieden war, sah Gustav Adolf von Schweden die Chance gekommen, seine hegemonialen Ansprüche in Nordosteuropa durchzusetzen. Er landete mit seiner Armee am 6. Juli 1630 auf Usedom und zwang Pommern, Mecklenburg, Brandenburg und Sachsen zu einem Bündnisvertrag. Am 17. September 1631 trafen die Schweden bei Breitenfeld auf die kaiserlichen Truppen unter Tilly, der noch kurz zuvor die Stadt Magdeburg dem Erdboden gleichgemacht hatte (Magdeburger Hochzeit). Tilly wurde vernichtend geschlagen und konnte auch im folgenden Jahr den Vormarsch der Schweden in Süddeutschland nicht aufhalten. In der Schlacht bei Rain am Lech (14./15. April 1632) wurde er verwundet und zog sich nach Ingolstadt zurück, wo er am 30. April an den Folgen der Verwundung starb. Die Schweden versuchten die Stadt einzunehmen, was ihnen jedoch nicht gelang. Diesen Zeitvorsprung nutzte Kurfürst Maximilian, um von Ingolstadt nach Regensburg zu ziehen und es zu besetzen. Die Schweden drangen daraufhin bis München vor und bedrohten Österreich. In dieser für ihn gefährlichen Situation ernannte der Kaiser den 1630 auf dem Reichstag in Regensburg entlassenen Wallenstein erneut zum Oberbefehlshaber der kaiserlichen Truppen (April 1632). Wallenstein gelang es tatsächlich, Gustav Adolf am 3. September 1632 in der Schlacht an der Alten Veste (bei Nürnberg) Verluste beizubringen. Der schwedische König verlor in der Schlacht bei Lützen am 16. November 1632 das Leben. Die Herrschaft für die noch unmündige Christina von Schweden, Tochter Gustav Adolfs, übernahm Axel Oxenstierna. Dieser schloss mit den Protestanten des fränkischen, schwäbischen und rheinischen Reichskreises den Heilbronner Bund (1633–1634) und führte den Kampf weiter. Sein fähigster Gegner, Albrecht von Wallenstein, wurde am 25. Februar 1634 in Eger ermordet. Im selben Jahr konnten die kaiserlichen Armeen in der Schlacht bei Nördlingen den ersten wirklich großen Sieg über die Schweden unter dem bedeutenden Feldherrn Bernhard von Sachsen-Weimar erringen. Die protestantischen Reichsstände, zuallererst Kursachsen, brachen im Jahre 1635 aus dem Bündnis mit Schweden aus und schlossen mit Kaiser Ferdinand II. den Prager Frieden, der die Aussetzung des Restitutionsedikts von 1629 für vierzig Jahre beinhaltete. Man beschloss auch, nun gemeinsam gegen die Feinde des Reiches vorzugehen. Der Dreißigjährige Krieg hörte damit endgültig auf, ein Krieg der Konfessionen zu sein, da sich ab 1635 die protestantischen Schweden mit den katholischen Franzosen im Vertrag von Wismar verbanden, um gemeinsam die kaiserliche Macht der Habsburger einzudämmen. Schwedisch-Französischer Krieg (1635–1648). In dieser Situation fürchtete Frankreich nun, dass der Konflikt durch einen möglichen Friedensschluss des Reiches mit Schweden zum Vorteil des Kaisers ausgehen würde. Daher entschloss man sich in Paris zum Angriff auf das Reichsgebiet. 13 Jahre dauerten die folgenden, als „Französisch-Schwedischer Krieg“ bezeichneten Kämpfe auf deutschem Boden noch an, ohne dass es eine entscheidende Schlacht und einen militärischen Sieger gab. Ab 1643 verhandelten die kriegführenden Parteien – das Reich, Frankreich und Schweden – in Münster und Osnabrück über einen möglichen Frieden, 1645 schloss Sachsen mit den Schweden den Waffenstillstand von Kötzschenbroda und schied aus dem Krieg aus. Die Verhandlungen und Kämpfe dauerten aber noch weitere drei Jahre an; erst 1648 wurde dann der „Westfälische Frieden“ verkündet. Darin wurde der Augsburger Religionsfrieden von 1555 wiederhergestellt und damit die freie Kirchenwahl festgeschrieben. Zudem wurden dem deutschen Kaiser Rechte entzogen und auf den Reichstag übertragen, die Reichsstände wurden souverän und Europa unter den im Krieg verfeindeten Mächten neu aufgeteilt. Der Westfälische Friede und die Kriegsfolgen. Ein Flugblatt gibt den Friedensschluss zu Münster bekannt, der den Dreißigjährigen Krieg beendet. Verteilung des kriegsbedingten Bevölkerungsrückgangs im Reich Im Rahmen der Hamburger Präliminarien einigte man sich Ende 1641 schließlich, einen allgemeinen Friedenskongress in den Städten Münster (für die Katholiken) und Osnabrück (für die protestantische Seite) abzuhalten. Zuvor war an Köln und später an Lübeck und Hamburg als Kongressorte gedacht worden. Nachdem der Chefunterhändler Graf Maximilian von Trauttmansdorff nach seinem gescheiterten Schlichtungsversuch aus Münster abgereist war, führten Reichshofrat Isaak Volmar und der kaiserliche Gesandte, Graf (später Fürst) Johann Ludwig von Nassau-Hadamar die Friedensverhandlungen endlich zum erfolgreichen Abschluss. Im Westfälischen Frieden wurde neben der katholischen und der lutherischen nun auch die reformierte Konfession im Reich als gleichberechtigt anerkannt. In vier konfessionell gemischten Reichsstädten wurde Parität verordnet, so in Augsburg und Biberach. Umfangreiche Regelungen betrafen die religiösen Streitfragen. Dabei fand man zu teilweise pragmatischen, teilweise auch zu kuriosen Lösungen. So wurde für das Hochstift Osnabrück eine alternierende Regierung von evangelischen Bischöfen (aus dem Hause Braunschweig-Lüneburg) und katholischen Bischöfen geschaffen. Das Fürstbistum Lübeck wurde als einziges evangelisches Fürstbistum mit Sitz und Stimme im Reichstag erhalten, um das Haus Gottorf mit einer Sekundogenitur zu versorgen. Für die katholischen Klöster in den erloschenen Bistümern Halberstadt und Magdeburg, die ab 1680 an Brandenburg fielen, wurden Sonderregelungen getroffen. Die neue Großmacht Schweden erhielt 1648 auf Kosten des erbberechtigten Brandenburgs Vorpommern einschließlich Stettin mit der gesamten Odermündung, die Stadt Wismar samt Neukloster sowie das Erzbistum Bremen mitsamt dem Bistum Verden als Reichslehen. Dänemark, das die so genannten Elbherzogtümer für sich beanspruchte, wurde übergangen. Spanien einigte sich mit den Generalstaaten auf eine staatliche Unabhängigkeit. Das Erzherzogtum Österreich trat an Frankreich den Sundgau ab. Eine katholische Hegemonie über das Reich wurde nicht erreicht. Ansonsten änderte sich im Reich vergleichsweise wenig: Das Machtsystem zwischen Kaiser und Reichsständen wurde neu austariert, ohne die Gewichte im Vergleich zur Situation vor dem Krieg stark zu verschieben. Die Reichspolitik wurde nicht entkonfessionalisiert, sondern nur der Umgang der Konfessionen neu geregelt. Frankreich hingegen wurde zum mächtigsten Land Westeuropas. Die Generalstaaten und die Eidgenossenschaft schieden aus dem Reichsverbund aus, was im Fall der Eidgenossenschaft jedoch nur die De-jure-Feststellung eines de facto seit Ende des Schwabenkrieges von 1499 feststehenden Umstandes war. Noch offen gebliebene Fragen, insbesondere zum Thema Truppenabzug, wurden in den Folgemonaten im Friedensexekutionskongress in Nürnberg geklärt. Teile des Heiligen Römischen Reichs waren stark verwüstet worden. Die Höhe des Rückgangs der Gesamtbevölkerung im Reichsgebiet von zuvor rund 16 Millionen ist nicht genau bekannt. Die Schätzungen reichen von 20 bis 45 %. Nach einer verbreiteten Angabe sind etwa 40 % der deutschen Landbevölkerung dem Krieg und den Seuchen zum Opfer gefallen. In den Städten wird der Verlust auf weniger als 33% geschätzt. Die Verteilung des Bevölkerungsrückgangs war dabei sehr unterschiedlich: Die Verluste waren dort am größten, wo die Armeen durchzogen oder lagerten. In den von den Kriegswirren besonders betroffenen Gebieten Mecklenburgs, Pommerns, der Pfalz oder Teilen Thüringens und Württembergs kam es zu Verlusten bis weit über 50 %, stellenweise sogar bis mehr als 70 % der Bevölkerung. Der Nordwesten und Südosten des Reiches war hingegen kaum von einer Entvölkerung durch das Kriegsgeschehen betroffen. Zu den Gewinnern des Konfliktes zählte unter anderem die Stadt Hamburg. Das Ziel, die Anerkennung ihrer Reichsstandschaft zu erlangen, wurde zwar nicht erfüllt, jedoch konnte sie große Teile des Handels mit Mitteldeutschland auf sich konzentrieren. Für die großen oberdeutschen Handelsmetropolen beschleunigte der Krieg noch einmal die Abschwungphase des ausgehenden 16. Jahrhunderts. Wenig beachtet ist, dass mit der Unabhängigkeit der Niederlande und dem Verlust wichtiger Küstenregionen und Ostseehäfen an Schweden praktisch alle großen Flussmündungen unter fremdem Einfluss standen. Die deutschen Staaten hatten kaum Zugang zur Hohen See und waren damit weitgehend vom überseeischen Handel ausgeschlossen. Die Möglichkeiten des Reichs, vom wieder erstarkenden Seehandel zu profitieren, waren dadurch eingeschränkt. Die Spätfolgen des Dreißigjährigen Krieges für die Kolonialisierung, die in der Folgezeit zu großen Gebietsgewinnen anderer europäischer Länder führte, sind in der Forschung umstritten. Frankreich, England, Schweden und die Niederlande konnten sich nach dem Dreißigjährigen Krieg zu Nationalstaaten entwickeln. Mit dem aufblühenden Handel ging in diesen Ländern ein Aufschwung des liberalen Bürgertums einher. Umstritten ist dabei, welche geschichtlichen und gesellschaftlichen Folgen dies für das Reich und später Deutschland hatte. Das Reich bildete weiterhin einen lockeren Verbund von Fürstentümern. Wenn dieser Verbund auch zum wesentlichen Friedensfaktor im Europa der nächsten 150 Jahre wurde, so geschah das ebenso auf Kosten der wirtschaftlichen Chancen des Reiches. Die Finanzierung des Krieges. Die frühmodernen Staaten Europas verfügten zu Beginn des 17. Jahrhunderts weder in finanzieller noch in administrativer Hinsicht über Strukturen, die effizient genug gewesen wären, um stehende Heere von der Größe zu unterhalten, wie sie der Dreißigjährige Krieg erforderlich machte. Die Finanzierung der riesigen Söldnerarmeen stürzte daher alle Kriegsparteien in ständige Geldnot, ganz besonders die deutschen Fürsten, deren Territorien aufgrund der Länge und Intensität des Konflikts schon bald weitgehend ausgeblutet waren. (siehe auch Kipper- und Wipperzeit) Die vermeintliche Lösung beschrieb die Parole „Der Krieg ernährt den Krieg“. Die Heere trieben in den von ihnen durchstreiften Gebieten Abgaben und Kontributionen in Form von Geld und Naturalleistungen ein. Das heißt: Das Land, in dem gerade gekämpft oder das besetzt wurde, musste für die Kriegskosten aufkommen. Dabei achteten die Feldherren darauf, möglichst die Gebiete gegnerischer Parteien zu belasten. Je länger der Krieg dauerte, desto mehr wuchs sich diese Praxis zu willkürlicher Plünderung mit allen Begleiterscheinungen von Raub und Mord aus. Wallenstein wird die Äußerung zugeschrieben, dass sich ein großes Heer leichter finanzieren lasse als ein kleines, da es auf die Zivilbevölkerung stärker Druck ausüben könne. Halbwegs regelmäßig besoldete Truppen wie die Wallensteins oder Gustav Adolfs gingen bei der Eintreibung von Geld und Material – zumindest in den ersten Kriegsjahren – disziplinierter vor als die freien Söldnertruppen, die sich je nach Kriegslage mal der einen, mal der anderen Partei anschlossen. Ihnen gehörten Söldner aus nahezu allen Ländern Europas an. Der Krieg in der kollektiven Erinnerung und in der Literatur. Der Historiker Friedrich Oertel schrieb 1947 über die Auswirkungen des Dreißigjährigen Krieges auf den deutschen Nationalcharakter: „Deutsche Eigenschaften bleiben allerdings das mangelnde Gefühl für die ‚liberalitas’ des von innen her souveränen Menschen und das mangelnde Gefühl für ‚dignitas’. Die Nachwirkungen des Dreißigjährigen Krieges lasten eben noch in tragischer Weise auf der Geschichte unseres Volkes und haben den Reifeprozess aufgehalten. Wann werden die Schatten endlich weichen, wird das Versäumte nachgeholt sein?“ Der Dreißigjährige Krieg hat vielfältige Spuren in Kunst und Alltagsleben hinterlassen – von einfachen Kinderreimen wie "Bet’, Kindchen, bet’, morgen kommt der Schwed’" bis zu großen Werken der Dichtkunst. In seinem Schelmenroman "Der abenteuerliche Simplicissimus", erschienen 1669, schilderte Hans Jakob Christoffel von Grimmelshausen (1625–1676) die Wirren und Gräuel des Krieges und schuf damit den ersten bedeutenden Roman der deutschen Literatur. Einen Augenzeugenbericht hat der Söldner Peter Hagendorf in seiner Chronik hinterlassen. Der als Volksheld und Retter in der Not gefeierte Martin Rinckart verfasste „Nun danket alle Gott“, und dem Leipziger Zeitzeugen Gregor Ritzsch verdanken wir „Ich hab den Schweden mit Augen gesehen; er tat mir wohl gefallen.“ Im 18. Jahrhundert beschäftigte sich Friedrich Schiller als Historiker und Dramatiker mit dem Krieg. 1792 veröffentlichte er eine „Geschichte des Dreißigjährigen Krieges“. Sieben Jahre später vollendete er sein dreiteiliges Drama „Wallenstein“. Mit wachsendem zeitlichem Abstand sahen Schriftsteller in dem großen Konflikt des 17. Jahrhunderts zunehmend eine Metapher für die Schrecken des Krieges überhaupt. Das bekannteste Beispiel dafür aus dem 20. Jahrhundert ist Bertolt Brechts Stück „Mutter Courage und ihre Kinder“, das im Dreißigjährigen Krieg angesiedelt ist, aber deutlich macht, dass die Verrohung und Zerstörung des Menschen durch die Gewalt überall und zu jeder Zeit möglich ist. Der Begriff „Dreißigjähriger Krieg“. Verschiedene Konzeptionen und Herangehensweisen in der Geschichtswissenschaft führten nach dem Zweiten Weltkrieg dazu, dass der Begriff „Dreißigjähriger Krieg“ grundsätzlich infrage gestellt wurde. Im Jahre 1947 wandte sich der Historiker Sigfrid Heinrich Steinberg in einem Aufsatz für die englische Fachzeitschrift "History" erstmals gegen seine Verwendung. Später, im Jahre 1966, kam er in "The Thirty Years War and the Conflict for European Hegemony 1600–1660" zu dem Schluss, es handele sich bei dem Begriff lediglich um ein "„Produkt rückschauender Phantasie“". Demnach "„benutzte weder Pufendorf, noch irgendein anderer Zeitgenosse den Ausdruck 'Dreißigjähriger Krieg'.“" Gegen diese Aussage wandten sich zunächst nur vereinzelt andere Historiker. Schließlich aber widerlegte der deutsche Historiker Konrad Repgen Steinbergs These, zunächst in einigen Artikeln, später in einem umfangreichen Aufsatz. Anhand zahlreicher Quellen wies er nach, dass der Begriff „Dreißigjähriger Krieg“ schon um die Zeit des Westfälischen Friedens entstanden war. Die Zeitzeugen hätten dabei vom Anfang des Krieges an dessen Dauer in Jahren angegeben; die humanistischen Gelehrten seien zudem durch das Vorbild antiker Schriftsteller inspiriert worden. Die Benennung führte Repgen auch auf das Bedürfnis der Zeitgenossen zurück, der gänzlich neuen Erfahrung Ausdruck zu verleihen, die der Krieg für sie dargestellt habe. Diese Interpretation wurde von anderen Historikern weitgehend übernommen. Johannes Burkhardt wies gleichwohl darauf hin, dass der Begriff, obwohl zeitgenössisch, dennoch ein Konstrukt bezeichnet haben könne, da es sich beim Dreißigjährigen Krieg in Wirklichkeit um eine Vielzahl paralleler und aufeinander folgender Kriege gehandelt habe. Er führte den Namen darauf zurück, dass die „Kriegsverdichtung“ solche Ausmaße angenommen habe, dass es für die Zeitgenossen fast unmöglich gewesen sei, zwischen den einzelnen Konflikten zu unterscheiden. Diese Annahme stützte 1999 eine Studie von Geoffrey Mortimer über zeitgenössische Tagebücher. Andere Historiker folgen bis heute der Tradition Steinbergs, den „Dreißigjährigen Krieg“ als eine nachträgliche Konstruktion deutscher Historiker zu betrachten. Rezeption in Museen. Im Wiener Heeresgeschichtlichen Museum ist dem Dreißigjährigen Krieg ein großer Bereich gewidmet. Ausgestellt sind alle Arten von Bewaffnungen dieser Zeit, wie etwa Hakenbüchsen, Luntenschloss-, Radschloss- und Steinschlossmusketen. Figurinen kaiserlicher Pikeniere, Musketiere, Kürassiere und Arkebusiere zeigen die Schutzwaffen und Ausrüstungen der Zeit. Zahlreiche Harnische, Hieb-, Stich- und Stoßwaffen runden den Bereich des Dreißigjährigen Krieges ab. Das Wirken und Schicksal der Feldherren, wie Albrecht von Wallenstein wird ebenso veranschaulicht. Ein besonderes Exponat dabei ist das eigenhändige Handschreiben Wallensteins an seinen Feldmarschall Gottfried Heinrich zu Pappenheim vom 15. November 1632, das am Vorabend der Schlacht bei Lützen geschrieben wurde und bis zum heutigen Tag großflächige Blutspuren Pappenheims aufweist, der tags darauf das Schreiben Wallensteins noch bei sich trug, als er in der Schlacht tödlich verwundet wurde. Besonders beeindruckend ist die so genannte "„Piccolomini-Serie“" des flämischen Schlachtenmalers Pieter Snayers. Es handelt sich dabei um zwölf großformatige Schlachtengemälde, die zwischen 1639 und 1651 entstanden sind und die Feldzüge Octavio Piccolominis in Lothringen und Frankreich in den letzten Jahren des Dreißigjährigen Krieges zeigen. In Wittstock an der Dosse befindet sich im Turm der Alten Bischofsburg seit 1998 das Museum des Dreißigjährigen Krieges, welches die Ursachen, den Verlauf, die unmittelbaren Ergebnisse und Folgen sowie die Nachwirkungen des Krieges dokumentiert. In Rothenburg ob der Tauber ist im so genannten „Historiengewölbe mit Staatsverlies“ eine kleinere Ausstellung über die Gesamtsituation der Stadt in der Zeit des Krieges zu sehen, unter anderem Waffen, Geschütze, Kriegsgerät und militärische Ausrüstungsgegenstände der Zeit. Historische Quellen. Im Bestand „Wilhelmshöher Kriegskarten“ verwahrt das Hessische Staatsarchiv Marburg eine größere Anzahl an Karten zum Dreißigjährigen Krieg. Die Karten dokumentieren Kriegsschauplätze und Kriegsereignisse. Außerdem geben sie Einblicke in die Veränderung der Landschaften, der Städte, der Straßen und Wege usw. Die einzelnen Karten sind vollständig erschlossen und als Digitalisate online einsehbar. Ebenfalls dort wird auch die Stausebacher Ortschronik des Caspar Preis aufbewahrt, der aus seiner bäuerlichen Sicht der Dinge den Kriegsverlauf in Hessen beschreibt. Dodekaeder. Das Dodekaeder (von griech. "Zwölfflächner"; dt. auch "(das) Zwölfflach") ist ein Körper mit zwölf Flächen. In der Regel ist damit ein platonischer Körper gemeint, nämlich das (regelmäßige) Pentagondodekaeder, ein Körper mit Es gibt aber auch andere Dodekaeder von hoher Symmetrie. Das regelmäßige Pentagondodekaeder. Wegen seiner hohen Symmetrie – alle Ecken, Kanten und Flächen sind Insgesamt hat die Symmetriegruppe des Dodekaeders – die "Dodekaeder-" oder "Ikosaedergruppe" – 120 Elemente. Die 60 orientierungserhaltenden Symmetrien entsprechen der alternierenden Gruppe formula_1. Manchmal wird auch diese Untergruppe „Ikosaedergruppe“ genannt. Die volle Symmetriegruppe ist isomorph zu dem direkten Produkt formula_2. Dass das Produkt direkt ist, sieht man daran, dass die Punktspiegelung am Mittelpunkt mit den Drehungen kommutiert. Die Symmetrie des Dodekaeders ist durch die hier auftretenden fünfzähligen Symmetrieachsen mit einer periodischen Raumstruktur nicht verträglich (siehe Parkettierung). Es kann daher kein Kristallgitter mit Ikosaedersymmetrie geben (vgl. jedoch Quasikristalle). Zur Struktur. Dualität von Dodekaeder (rot) und Ikosaeder (grün) Das Ikosaeder ist das zum Dodekaeder duale Polyeder (und umgekehrt). Mit Hilfe von Dodekaeder und Ikosaeder können zahlreiche Körper konstruiert werden, die ebenfalls die Dodekaedergruppe als Symmetriegruppe haben. So erhält man zum Beispiel Aus den Kanten des Dodekaeders kann man drei Paare gegenüber liegender (also insgesamt sechs) Kanten so auswählen, dass diese Paare drei kongruente, zueinander paarweise orthogonale Rechtecke aufspannen. Die restlichen acht Ecken bilden dann die Ecken eines (dem Dodekaeder eingeschriebenen) Würfels. Insgesamt gibt es fünf derartige Positionen, wobei jede Kante des Dodekaeders zu genau einer solchen Position gehört, und jede Ecke Eckpunkt von zwei einbeschriebenen Würfeln ist. Die Symmetriegruppe des Dodekaeders bewirkt alle "5!=120" Permutationen dieser fünf Positionen bzw. Würfel. Da die Kanten des einbeschriebenen Würfels Diagonalen der Fünfecke sind, entspricht das Verhältnis der Längen der Kanten des Dodekaeders und jener eines eingeschriebenen Würfels dem Goldenen Schnitt. Das kubische Pentagondodekaeder. Das kubische Pentagondodekaeder kann äußerlich leicht mit dem regelmäßigen Pentagondodekaeder verwechselt werden. Es hat ebenfalls 12 Flächen, 20 Ecken und 30 Kanten. Die Flächen (Fünfecke) sind aber nicht gleichseitig. Jede der 12 Flächen hat vier kürzere und eine längere Kante. Insgesamt besitzt das Polyeder 24 kürzere und 6 längere Kanten. Es besitzt dabei kubische Symmetrie. In der Natur kommt Pyrit (FeS2) manchmal in der Gestalt von kubischen Pentagondodekaedern vor. Deshalb wird das kubische Pentagondodekaeder auch Pyrit-Dodekaeder oder Pyritoeder genannt. Bei Kristallen sind fünfzählige Achsen unmöglich, wie das reguläre Pentagondodekaeder sie besitzt, weil es keine lückenlose periodische Flächenfüllung mit fünfzähliger Symmetrie gibt. Nur bei nicht streng periodischen „Kristallen“, also Quasikristallen, ist ein reguläres Pentagondodekaeder denkbar. Douglas Coupland. Douglas Coupland (* 30. Dezember 1961 in Rheinmünster-Söllingen) ist ein kanadischer Schriftsteller und bildender Künstler. Sein erzählerisches Werk wird ergänzt durch eine international anerkannte Tätigkeit als Designer und bildender Künstler. Sein erster Roman "Generation X", der im Jahr 1991 erschien, wurde zu einem internationalen Bestseller und führte Begriffe wie "McJob" und "Generation X" in den allgemeinen Sprachgebrauch ein. Ein durchgehendes Merkmal von Couplands Romanen und Kurzgeschichte ist ihre Synthese von postmoderner Religiosität, Web 2.0, Sexualität und Popkultur. Coupland lebt gemeinsam mit seinem Lebensgefährten David Weir in West Vancouver, British Columbia. Er hat mittlerweile 15 Romane veröffentlicht und eine Biografie über Marshall McLuhan verfasst. Coupland war 2006 und 2010 für den Scotiabank Giller-Preis und 2009 für den Writers' Trust Fiction Prize sowie 2011 für seine Biografie über McLuhan für den Hubert Evans Non-Fiction Prize nominiert. Die britische Zeitung The Guardian nahm 2009 zwei seiner Erzählungen, nämlich "Girlfriend in a Coma" und "Microsklaven" in die Liste der 1000 Romane auf, die jeder gelesen haben muss. 2013 wurde Coupland der Order of Canada verliehen, die höchste Auszeichnung, die kanadische Zivilpersonen erhalten können. Leben. a>", Skulptur von Douglas Coupland in Vancouver Bis 1986 folgten Auslandsaufenthalte in Italien und Japan. An der Universität von Hokkaidō besuchte Coupland Kurse in Produktdesign. Es gelang ihm anschließend, sich in Tokyo als Designer zu etablieren. Er kehrte aus gesundheitlichen Gründen nach Kanada zurück. Dort stellte er seine Arbeiten 1987 unter dem Titel „The Floating World“ in der Vancouver Art Gallery aus. In den späten Achtzigern begann er für lokale Magazine zu schreiben, um damit seine Arbeit als Künstler zu finanzieren. Daraus resultierte sein Erstlingswerk Generation X, welches ihn schlagartig berühmt machte und zum Sprachrohr einer Generation werden ließ. Zahlreiche weitere Veröffentlichungen untermauerten den Status des Kultautors. Daneben arbeitet er nach wie vor an Skulpturen und Installationen. 2004 schuf er das „Canada House“, eine Installation, die sich mit Stereotypen kanadischer Identität anhand von Alltagsgegenständen auseinandersetzte. 2005 schrieb er außerdem das Drehbuch zu dem Film „Everything's Gone Green“. Im selben Jahr outete sich Coupland als homosexuell. Coupland ist unverändert als bildender Künstler tätig. Er schuf unter anderem im Rahmen eines Kunstprojekts die Skulptur Digital Orca, die 2010 auf dem Jack Poole Plaza in Vancouver aufgestellt wurde. Werk. Von 1989 bis 1990 lebte Coupland in einer Region der Mojave-Wüste, um dort einen Vertrag mit St. Martins Press zu erfüllen, der eigentlich bestimmte, dass Coupland ein Sachbuch über die Generation zu schreiben habe, die nach den Baby-Boomern auf die Welt kamen. Statt des Sachbuchs entstand jedoch ein Roman, den Coupland den Titel "Generation X" gab. Der Roman fand in Kanada zunächst keinen Verleger, schließlich konnte Coupland ihn 1991 bei einem US-amerikanischen Verlagshaus unterbringen. Der Roman war kein sofortiger Erfolg, gewann jedoch allmählich eine große Leserschaft, die ihr Lebensgefühl in diesem Roman reflektiert sah. Gegen seinen eigenen Widerstand gelangte Coupland in den Ruf, ein Sprecher für diese konsumkritische Bevölkerungsschicht zu sein. Der Roman "Generation X" wurde letztendlich ein Welterfolg, der Titel wurde zum sprichwörtlichen Begriff und namensgebend für eine vom Konsumwahn abgestoßene Bewegung. Das Buch schildert in anekdotenhafter Form den Selbstfindungsprozess dreier exemplarischer Vertreter der Generation X und ihr Streben, der zunehmenden Kommerzialisierung ein eigenes Wertesystem entgegenzustellen. Douglas Coupland liest aus "Eleanor Rigby" (San Francisco, 2005) 1992 folgte der Roman Shampoo Planet. Er handelt von der Generation, die der Generation X nachfolgte und die jetzt gewöhnlich als Generation Y bezeichnet word. In ihm wird eine Jugend dargestellt, die Statussymbole und Karrieredenken in den Vordergrund stellt, damit allerdings in starkem Widerspruch zu den der Hippie-Generation zugehörigen Eltern steht. Coupland ließ sich kurz nach der Veröffentlichung permanent in Vancouver nieder. Er begründete diese Rückkehr in die Stadt seiner Kindheit damit, dass er sein drittes Lebensjahrzehnt damit verbracht habe, nach einem Ort zu suchen, der eine bessere Stadt als Vancouver sei, ihm aber jetzt klar werde, dass Vancouver der bestmögliche Lebensmittelpunkt sei. Das 1993 erschienene Life After God schildert episodenhaft die Existenzängste der Generation X: Atomare Bedrohung, Zerstörung der Umwelt, Tod und die Suche nach Gott charakterisieren die assoziativ geformte Erzählung. 1995 veröffentlichte Coupland den satirischen Roman „Microserfs“ (von engl. serf, Leibeigener) über die Angestellten des Microsoft-Konzerns, der gleichzeitig den IT-Boom der Neunziger parodiert. Er erschien 1996 auf Deutsch unter dem Titel Microsklaven. Das Buch entstand aus einer Kurzgeschichte über Angestellte dieses Konzerns, die Coupland 1994 für das damals neu gegründete Magazin Wired geschrieben hatte. Während der Recherchen zu "Mikrosklaven" lebte Coupland für einige Wochen in Redmond, Washington, dem Hauptsitz von Microsoft, und anschließlich für vier Monate in Palo Alto, Silicon Valley um das Leben der Personen besser zu verstehen, die direkt an der Informationsrevolution beteiligt sind. Er selbst verglich seine Recherchearbeiten mit der Vorgehensweise der bekannten Verhaltensforscherin Dian Fossey. Er habe die dort lebenden Personen so ähnlich intensiv und neugierig beobachtet wie Dian Fossey ihre Gorillas. Für ihn wäre alles von Interesse gewesen; Was sie in ihrem Handschuhfach aufbewahren, welche Art von Fastfood sie bevorzugen, welche Poster bei ihnen im Schlafzimmer hingen. Coupland, der selber aus einer religiösen Familie stammte, nannte die "Jetzt"-Orientierung der von ihm beobachteten Personen besonders auffällig. Maschinen seien die Idole, die ihre Wünsche, Hoffnungen, Ziele und Träume beeinflussten. Als besonders verblüffend bezeichnete er es, dass sie sich nicht mit Fragen wie Tod und einem Leben nach dem Tod auseinandersetzen. 1996 publizierte Coupland den Essay-Sammelband „Polaroids From The Dead“ (deutsch: Amerikanische Polaroids, 1998), in dem er abermals die gesellschaftlichen Veränderungen der Dekade unter die Lupe nahm. Die verschiedenen Themen, die Coupland in diesen Essays aufgreift, sind ein Besuch bei einem Konzert der Grateful Dead, Betrachtungen über den Film Harold and Maude, der Besuch eines deutschen Journalisten, den Jahrestag des Todes von Marilyn Monroe und über das Leben in der Stadt Brentwood während der Zeit des Mordprozesses gegen den ehemaligen Football-Spieler O. J. Simpson. Im selben Jahr war Coupland auf einer Promotionstour durch Europa für seinen Roman "Mikrosklaven". Die hohe Arbeitsbelastung sorgte für eine Lebensphase, die von Erschöpfung und Niedergeschlagenheit gekennzeichnet war. Diese Erfahrungen spiegeln sich auch in seinem nächsten Roman Girlfriend in a Coma wider, den eine Abkehr von Couplands lakonischem Schreibstil kennzeichnet. Das 1998 auf Deutsch erschienene Buch ist ein apokalyptisches Märchen, welches die gescheiterten Träume der Protagonisten thematisiert. Im Jahr 2000 folgte Miss Wyoming, dessen deutsche Ausgabe unter demselben Titel 2003 erschien. Eleanor Rigby greift 2004 abermals das Motiv radioaktiver Strahlung auf und erzählt die Geschichte einer Mittdreißigerin, deren Leben aus den gewohnten Bahnen bricht, nach dem ihr Sohn, den sie nach der Geburt zur Adoption frei gab, nach 20 Jahren in ihr Leben tritt. Bei The Gum Thief (engl., 2007) rekrutiert sich das Personal aus den Angestellten und Kunden eines Büroartikel-Großmarkts. In die Haupterzählung eingewoben ist der fiktive Roman „Glove Pond“, den einer der Angestellten angelehnt an die Ereignisse seiner Kollegen Kapitel für Kapitel fortschreibt. In der Haupterzählung geht es darum, dass zwei Menschen am Tiefpunkt angekommen sind und sich dessen bewusst werden. Dann nehmen sie das ihnen entglittene Leben wieder in die Hand: Der eine, indem er den Roman „Glove Pond“ schreibt, die andere, indem sie ein Studium beginnt. 2009 veröffentlichte Coupland den Roman Generation A. Rückgreifend auf seinen Debüt mit "Generation X" unternimmt Coupland hier erneut den Versuch das Lebensgefühl einer zunehmend individualisierten Generation zwischen Youtube, Google und Twitter zu dokumentieren. Zu diesem Zweck integriert die Erzählung zahlreiche stilistische und gestalterische Elemente des Web 2.0. Die Geschichte spielt in der nahen Zukunft: Bienen gelten als weltweit ausgestorben bis unvermittelt fünf Personen, verstreut über den gesamten Erdball, gestochen werden. Die fünf Protagonisten werden kurz nach diesem Vorfall auf abenteuerliche Weise gefangen genommen, isoliert, schließlich an einem entlegenen Ort zusammengebracht. Es gilt herauszufinden, was die Bienen dazu animierte, ebendiese Personen zu stechen. In Player One beschreibt Coupland das Zusammentreffen verschiedener Charaktere in einer Flughafenbar. Ein nicht näher beschriebener Zwischenfall sorgt dafür, dass sie von der Außenwelt abgeschnitten sind und so ihre Verhaltensweisen und Einstellungen teils drastisch ändern. Douglas Adams. Douglas Adams, Photographie von Michael Hughes Douglas Noël Adams (* 11. März 1952 in Cambridge; † 11. Mai 2001 in Santa Barbara, Kalifornien) war ein britischer Schriftsteller. Er wurde vor allem mit der satirischen Science-Fiction-Reihe "Per Anhalter durch die Galaxis" bekannt. Leben. Douglas Adams’ Signatur von 1995 Nach der Scheidung der Eltern zog die Mutter mit dem fünfjährigen Douglas Adams nach Brentwood in Essex. Dort wuchs er gemeinsam mit seiner jüngeren Schwester Sue auf. 1964 heiratete seine Mutter ein zweites Mal. Aus dieser Ehe stammten die jüngeren Halbgeschwister Jane und James. Ab 1959 besuchte Adams die Brentwood-School, wo er vor allem an den Naturwissenschaften interessiert war. Damals fing er an, sich als Autor zu betätigen, wobei er mit seinen Texten auf große Zustimmung des Lehrpersonals stieß und einen Literaturwettbewerb gewann. Sein erster veröffentlichter Text war eine komische Kurzgeschichte über einen Mann, der sein Gedächtnis in der Londoner U-Bahn verlor und sich im Fundbüro erkundigte, ob es dort abgegeben wurde. Dieser Text wurde in einer Science-Fiction-Zeitschrift für Jugendliche veröffentlicht. Adams arbeitete während seiner Studienzeit in einer anderen universitären Komödianten-Gruppe namens "Footlights" mit (die auch der Kristallisationspunkt für die Komikertruppe Monty Python war), bei der er seinen späteren Partner Simon Jones kennenlernte. 1974 verließ Adams das College mit dem festen Vorsatz, Schriftsteller zu werden. Anfangs gelang ihm das nur mäßig erfolgreich. Unter anderem arbeitete er mit Graham Chapman von Monty Python zusammen. In Folge 42 von „Monty Python’s Flying Circus“ trat er in einer Nebenrolle auf, an der letzten Folge "Party Political Broadcast on Behalf of the Liberal Party" wirkte er als Autor mit. 1977 gelang ihm der Durchbruch, als er mit Simon Brett einen Vertrag über die Ausstrahlung einer Science-Fiction-Radiosendung abschloss. Die Sendung trug den Namen „The Hitchhiker's Guide to the Galaxy“ und wurde zum ersten Mal 1978 vom britischen Radiosender BBC Radio 4 gespielt. In stark veränderter und erweiterter Form wurde die Serie zwischen 1979 und 1982 zunächst als Trilogie in Buchform veröffentlicht; eine wesentliche Änderung ist das Entfernen aller zusammen mit John Lloyd geschriebenen Anteile der Radiosendungen fünf und sechs. Der Inhalt des ursprünglichen Hörspiels findet sich vor allem im ersten Band. Die Bücher wurden Bestseller. 1984 folgte ein vierter (deutsch: „Macht’s gut, und danke für den Fisch“) Band, 1992 ein fünfter („Mostly harmless“, deutsch „Einmal Rupert und zurück“) mit dem Untertitel „Fünfter Band einer vierteiligen Trilogie“. 1991 heiratete Adams Jane Belson, 1994 wurde seine Tochter Polly Jane geboren. Anfangs lebte er mit seiner Familie in London, 1999 zog er nach Kalifornien, vor allem, um die Verfilmung von „Per Anhalter durch die Galaxis“ für das Kino zu unterstützen. Er starb am 11. Mai 2001 an einem Herzinfarkt, den er in einem Fitnessstudio erlitt. Sein Grab befindet sich auf dem Friedhof Highgate in London. Zu seinem Gedenken findet jährlich am 25. Mai der sogenannte Towel Day (Handtuchtag) statt. Stil. Adams’ Geschichten, allen voran "Per Anhalter durch die Galaxis", zeichnen sich durch ihren sarkastischen, satirischen Stil aus. Seine Romane spielen meist in absurden, fremdartigen Welten, die sich jedoch in vielerlei Hinsicht (etwa: Bürokratie, Neidgesellschaften, Wirtschaftssysteme) von der realen Welt kaum unterscheiden. Adams stellte stets utopische und oft übersinnliche Vorgänge im Zusammenhang mit Banalitäten und Alltäglichkeiten dar. Viele Elemente des für Adams typischen Stils sind teilweise bei anderen Autoren wiederzufinden, z. B. in der Scheibenwelt-Saga (orig.) des britischen Autors Terry Pratchett. Die Serie Doctor Who. Douglas Adams schrieb außerdem einen Entwurf zu einer Folge "Doctor Who and the Krikkitmen", die später die Grundlage für den dritten Hitchhiker-Roman "Das Leben, das Universum und der ganze Rest" bildete. Die Bücher der "Anhalter"-Serie. "Der Anhalter" wird als „die einzige vierbändige Trilogie in fünf Teilen“ bezeichnet, da die ersten drei Bände, die in etwa den beiden ursprünglichen Hörspielserien entsprechen, eine gewisse innere Geschlossenheit als Trilogie erreichen, der vierte Band als Vervollständigung und der fünfte als Abschluss gelten kann. Sonstiges. Douglas Adams erschuf 1984 zusammen mit Steve Meretzky von Infocom das auf dem Buch basierende Textadventure „The Hitchhiker's Guide to the Galaxy“. Später beteiligte er sich an einem weiteren Infocom-Adventure namens „Bureaucracy“. Zusammen mit seiner Firma "The Digital Village" schuf er 1999 das Adventure Starship Titanic sowie die Website h2g2, die gewissermaßen das Projekt des "Anhalters" darstellt, in dem jeder seine Artikel über "Life", "the Universe" und "Everything" publik machen kann. 2004 und 2005 produzierte das BBC Radio 4 die Bücher 3–5 der Anhalter-Serie als Hörspiel-Sequel zu den Originalhörspielen "The Hitch Hiker’s Guide to the Galaxy" unter den Titeln "Tertiary Phase", "Quandary Phase" und "Quintessential Phase". Der 2005 gestartete Kinofilm wird von einigen Fans dafür kritisiert, dass er sich zwar anfangs an die literarische Vorlage hält, später aber zunehmend in Klamauk verfällt, und weil er Szenen und Begebenheiten enthält, die weder im Hörspiel noch im Roman enthalten sind. Dies trifft jedoch auch auf die Bücher zu, deren Handlung nicht genau den Vorlagen, dem Radiohörspiel, entspricht. Das gesamte Werk von Douglas Adams enthält derartige Stellen, da er seine Werke in verschiedenen Medienformen umsetzte (Radio, Fernsehen, Schallplatte, Computer, Kino); meist war er selbst der Autor dieser Abweichungen. Adams über sich selbst. Adams brachte in zahlreichen Interviews seine Enttäuschung darüber zum Ausdruck, dass er in der Wahrnehmung der Öffentlichkeit nur als Autor von "Per Anhalter durch die Galaxis" gesehen werde und sein restliches Werk weitgehend unbeachtet geblieben sei. Besonders hob Adams das Buch "Die Letzten ihrer Art" hervor, auf das er sehr stolz sei. Es ist eine dokumentarische Reportage über eine Reise zu mehreren aussterbenden Tierarten der Welt. Adams war überzeugt davon, dass er, wenn er noch einmal die Wahl gehabt hätte, Zoologe statt Schriftsteller geworden wäre. Ein besonderes Vorbild war für ihn der Evolutionsbiologe Richard Dawkins; Adams hat sich mehrmals als „Dawkinsist“ beschrieben. Außerdem war er ein überzeugter Atheist, er selbst nannte sich sogar einen „radikalen Atheisten“, um sich bewusst vom Agnostizismus abzugrenzen. Demokrit. Demokrit, Kupferstich nach antiker Büste, 18. Jahrhundert Demokrit (griechisch Δημόκριτος "Dēmókritos", auch "Demokrit von Abdera"; * 460/459 v. Chr. in Abdera in Thrakien verstarb vermutlich † 371 v. Chr.) war ein antiker griechischer Philosoph, der den Vorsokratikern zugerechnet wird. Als Schüler des Leukipp wirkte und lehrte er in seiner Heimatstadt Abdera; er selber beeinflusste Epikur. Demokrit wurde in seinen philosophischen und wissenschaftlichen Arbeiten entschieden geprägt durch seinen Aufenthalt in Babylonien, der Wiege der Wissenschaften zu seiner Zeit. Demokrit verfasste Schriften zur Mathematik, Astronomie, Physik, Logik, Ethik und „Seelenlehre“. Leben. Demokrits Heimatstadt Abdera war eine ionische Kolonie in Thrakien. Er war der Sohn reicher Eltern, sein Vermögen verwendete er für ausgedehnte Reisen. Er rühmte sich, von allen Menschen seiner Zeit die meisten Länder bereist zu haben und zu den gebildetsten Männern unter den Lebenden zu gehören. Von den Schriften Demokrits sind nur Fragmente erhalten. Das erhaltene Verzeichnis seiner überaus zahlreichen Schriften zeigt jedoch, dass seine Kenntnisse sich über den ganzen Umfang des damaligen Wissens erstreckten. Auch über die Kriegskunst wusste er Bescheid. Darin scheint ihn unter den späteren Philosophen der Antike nur Aristoteles übertroffen zu haben. Schon seine Zeitgenossen nannten Demokrit den „lachenden“ Philosophen, vielleicht weil seine Heimatstadt Abdera in Griechenland den Ruf einer Schildbürgerstadt hatte. Vor allem aber zielte er mit seiner Lehre darauf ab, dass die Seele durch die Theorie des Wesens der Dinge eine "heitere", gelassene Stimmung erlange und nicht länger von Furcht oder Hoffnung umgetrieben werde. Diese gleichmütige Gestimmtheit nannte er „Euthymia“ (wörtlich: "Wohlgemutheit") und bezeichnete sie als höchstes Gut. Demokrit starb vermutlich im frühen 4. Jahrhundert v. Chr. Atomistischer Materialismus. Jedes dieser Atome sollte fest und massiv, aber nicht gleich sein. Es gebe unendlich viele Atome: runde, glatte, unregelmäßige und krumme. Wenn diese sich einander näherten, zusammenfielen oder miteinander verflöchten, dann erschienen die einen als Wasser, andere als Feuer, als Pflanze oder als Mensch. Seiner Meinung nach lassen sich auch Sinneswahrnehmung und Seelenexistenz auf atomistische Prinzipien zurückführen, indem die Seele aus Seelenatomen bestehe. Stirbt ein Mensch, streuen diese Seelenatome aus und können sich einer neuen Seele anschließen, die sich gerade bildet. Alles, was sich im Weltall bewege, gründe entweder auf Zufall oder auf Notwendigkeit. Diese Lehre ist ein konsequenter und atomistischer Materialismus. Die wesentlichen Grundzüge finden sich bei den materialistisch gesinnten Naturforschern späterer Perioden beinahe unverändert wieder. Demokrit verwirft die Annahme eines vom körperlichen Stoffe verschiedenen geistigen Prinzips, wie es der Nous seines Vorgängers Anaxagoras war. Dieses Prinzip sollte die Dinge ihrem Endzweck gemäß gestalten. Dagegen führte Demokrit das Werden der Dinge auf die unteilbaren Elemente der Materie, die körperlichen Atome zurück. Diese besitzen von Anbeginn an eine ihnen innewohnende Bewegung im Leeren. Das heißt, er führt eine Änderung auf deren mechanisch wirkende Ursachen zurück. Die Atome sind nicht der Beschaffenheit (wie bei Anaxagoras) nach voneinander zu unterscheiden, sondern nur der Gestalt nach. Demokrit nahm an, dass jedes Atom die Form eines regelmäßigen geometrischen Körpers hat, wie Kugel, Zylinder, Pyramide, Würfel. Folgerichtig können auch die aus Atomen zusammengesetzten Körper nicht qualitativ, sondern nur quantitativ unterschieden werden, also der Gestalt, der Ordnung und Lage ihrer Elemente nach. Die Größe der Körper entspricht in ihrer Menge und ihrer Schwere dem Vielfachen der Menge und Schwere der Atome. Aus den Verschiedenheiten lässt sich alle Mannigfaltigkeit der Erscheinungswelt erklären. Weder bei den Atomen noch bei deren Eigenschaften, ebenso wenig wie bei deren Bewegung, darf man nach einer Ursache fragen. Sie sind sämtlich ewig. Doch liegt es in der Natur der Schwere, dass die größeren (also auch schwereren) Atome eine raschere Bewegung – und zwar nach unten – annahmen. Dadurch werden die kleineren (und folglich leichteren) verdrängt und nach oben getrieben. Durch die zusammenstoßenden Atome entstehen Seitenbewegungen und dadurch wiederum ein sich allmählich immer weiter ausbreitender Wirbel, der die Weltbildung herbeiführte. Wie sich beim Worfeln des Getreides von selbst Spreu zur Spreu und Korn zum Korn findet, so musste durch die wirbelnde Bewegung durch Naturnotwendigkeit das Leichtere zum Leichten, das Schwerere zum Schweren gelangen und durch dauernde Verflechtung der Atome der Grund zur Bildung größerer Atomenaggregate (Körper) und ganzer Körperwelten gelegt werden. Einer der auf diesem Wege gewordenen Körper ist die ursprünglich wie alles übrige in Bewegung befindlich gewesene, allmählich zur Ruhe gelangte Erde, aus deren feuchtem Zustand die organischen Wesen hervorgegangen sind. Auch die Seele ist ein Atomenaggregat, ein Körper, aber ein solcher, dessen Bestandteile die vollkommensten, das heißt feinsten, glattesten und kugelförmigsten Atome sind, welche der Erscheinung des Feurigen entsprechen. Teile derselben werden, solange das Leben währt, durch Ausatmen an die Luft abgegeben und durch das Einatmen derselben als Ersatz wieder aufgenommen. Ebenso lösen sich von den uns umgebenden Dingen unaufhörlich feine Ausflüsse, die durch die Öffnungen unseres Leibes (die Sinnesorgane) an die im Innern desselben befindliche Seele gelangen und dort durch Eindruck ihnen ähnliche Bilder erzeugen, welches die Sinneswahrnehmungen sind. Letztere bilden die einzige, aber, da jene Ausflüsse auf dem Weg zur Seele mehr oder weniger störende Umbildungen erfahren können, nicht absolut zuverlässige und objektive Quelle unserer Erkenntnis, die sich daher nicht über die Stufe der Wahrscheinlichkeit erhebt. Zu der Seele, die von Natur aus die Erkenntnis möglich macht, verhält sich der übrige Mensch (sein Leib) nur wie ein „Zelt“; wer die Gaben der Ersteren liebt, liebt das Göttliche, wer die des Leibes liebt, das Menschliche. Erkenntnis aber gewährt Einsicht in das Ansich der Dinge, d. h. die Atome und das Leere, und in die gesetzliche Notwendigkeit des Verlaufs der Dinge, die weder einer Leitung durch außenstehende Mächte bedürftig noch einer Störung durch solche zugänglich ist. Während alle Unterschiede für uns nur Einsicht in die sinnlichen Erscheinungen sind, befreit die Erkenntnis von törichter Furcht wie von eitler Hoffnung und bewirkt jene Gelassenheit (Ataraxie), die das höchste Gut und zugleich die wahre Glückseligkeit ist. Demokrit soll bei dieser Weltbetrachtung das 100. Lebensjahr erreicht haben; inwiefern sie ausschließlich sein eigenes Werk ist oder von seinem, gewöhnlich mit ihm zugleich genannten, aber noch weniger bekannten Landsmann Leukippos entnommen war, lässt sich aus Mangel genauer Nachrichten nicht mehr entscheiden. Biologie und Medizin. Soweit die (v.a. bei Aristoteles überlieferten) erhaltenen Fragmente dies erkennen lassen, hat Demokrit Erklärungen sowohl zu botanischen als auch zu zoologischen Sachverhalten gegeben. Auf dem Feld der Botanik hat Demokrit (gemäß Theophrast, De causis plantarum I. 8.3) das unterschiedliche Wachstumstempo von Bäumen auf den Unterschied der Dichte des Gewebes zurückgeführt. Ebenfalls die Frage, warum die Bäume so besonders lange leben, hat Demokrit erörtert. Im Bereich der Zoologie hat er sich beispielsweise über die Embryonalgenese, die Atmung der Tiere, Zahnwachstum, den Bau der Spinnennetze, die Fruchtbarkeit von Hunden, Schweinen bzw. die Unfruchtbarkeit von Mulis und Halbeseln geäußert und versucht das Wachstum der Hörner von Geweihtieren zu erklären. Stets hob er dabei das Prinzip der Artenkonstanz (»Gleiches zu Gleichem«) hervor. Wie in der Zoologie führte Demokrit auch in der Botanik Lebensprozesse exklusiv auf ein rein materielles Wirken zurück: Demokrit begreift das Leben selbst als Ansammlung besonderer Seelenatome und erklärt diesen „Atomkomplex“ durch das allgemeine Prinzip eines atomaren ‚Wirbels’. Sonstiges. Ihm wird (zusammen mit Anaxagoras) die Theorie zugeschrieben, dass die Milchstraße eine Anhäufung von Sternen sei. Das wurde erst nach Erfindung des Fernrohrs durch Galileo Galilei bestätigt. Er nahm an, dass die Erde eine ovale Form habe (halb so breit wie lang) und keine Scheibe sei, wie Leukipp meinte. Außerdem erkannte er, dass der Mond Berge und Täler hat und von der Sonne sein Licht erhält. Für ihn ist das Weltall unendlich. Nachleben. Christoph Martin Wieland machte Demokrit zum Helden seines ironischen Romans „Geschichte der Abderiten“, in dem er die Torheiten seiner Zeitgenossen verspottet. Außerdem sind nach ihm der Mondkrater Democritus und die 1973 gegründete Demokrit-Universität in Westthrakien (Griechenland) benannt. Pseudo-Demokrit. Es gibt auch fälschlich ihm zugeschriebene alchemistische Literatur ("Pseudo-Demokrit"), möglicherweise von Bolos von Mendes, was aber von anderen bezweifelt wird. Die Hauptschrift des Pseudo-Demokrit ist "Physika kai Mystika". Dinosaurier. Die Dinosaurier (Dinosauria, von "deinós" ‚schrecklich‘, ‚gewaltig‘ und "sauros" ‚Eidechse‘) waren die Gruppe der Landwirbeltiere (Tetrapoda), die im Mesozoikum (Erdmittelalter) von der Oberen Trias vor rund 235 Millionen Jahren bis zur Kreide-Tertiär-Grenze vor etwa 65 Millionen Jahren die festländischen Ökosysteme dominierte. In der klassischen Systematik werden die Dinosaurier als ausgestorbener Zweig der Reptilien betrachtet, aus kladistischer Sicht jedoch schließen die Dinosaurier als systematische Einheit die Vögel, die wahrscheinlich aus kleinen theropoden Dinosauriern hervorgingen, mit ein. Somit sind nicht alle Dinosaurier während des Massenaussterbens am Ende des Mesozoikums untergegangen, sondern mit den Vögeln überlebte eine spezielle Entwicklungslinie der Dinosaurier bis heute. Diese Linie erwies sich als außerordentlich anpassungsfähig und erfolgreich: Die Vögel stellen etwa ein Drittel aller rezenten (heute lebenden) Landwirbeltierarten, sind in faktisch allen terrestrischen Ökosystemen vertreten und weisen zudem mit den Pinguinen eine Gruppe auf, die sekundär stark an ein Leben an und im Wasser angepasst ist. In der Zoologie, die sich vorwiegend mit rezenten Tieren beschäftigt, und speziell in der Ornithologie (Vogelkunde) werden die Vögel jedoch aus pragmatischen Gründen nach wie vor als eigenständige Klasse und nicht als Dinosaurier bzw. Reptilien betrachtet. Gleiches gilt für den allgemeinen Sprachgebrauch. Auch in der modernen Wirbeltierpaläontologie ist eine informelle Trennung von Vögeln und Dinosauriern im klassischen Sinn durchaus üblich. Letztgenannte werden, um der kladistischen Sichtweise gerecht zu werden, auch als „Nichtvogeldinosaurier“ (engl. "non-avian dinosaurs") bezeichnet. Deshalb sind stets „Nichtvogeldinosaurier“ gemeint, wenn im Folgenden von „Dinosauriern“ die Rede ist. Das Wissen über die Dinosaurier erhalten Paläontologen durch die Untersuchung von Fossilien, die in Form von versteinerten Knochen, Haut- und Gewebeabdrücken überliefert sind – und durch Spurenfossilien, also Fußspuren, Eier, Nester, Magensteine oder versteinerten Kot. Überreste von Dinosauriern sind auf allen Kontinenten gefunden worden, einschließlich Antarktikas, da die Dinosaurier zu einer Zeit entstanden, als alles Festland im Superkontinent Pangaea vereinigt war. In der ersten Hälfte des 20. Jahrhunderts galten Dinosaurier als wechselwarme, träge und wenig intelligente Tiere. Zahlreiche Studien seit den 1970er Jahren haben jedoch gezeigt, dass es sich um aktive Tiere mit erhöhten Stoffwechselraten und soziale Interaktionen ermöglichenden Anpassungen handelte. Dinosaurier sind zu einem Teil der weltweiten Populärkultur geworden und spielen in einigen der erfolgreichsten Bücher und Filme eine Rolle (unter anderem in "Jurassic Park"). Neue Entdeckungen erscheinen regelmäßig in den Medien. Beschreibung der Dinosaurier. Der englische Anatom Richard Owen stellte das Taxon „Dinosauria“ im April 1842 auf. Nach der heutigen kladistischen Auffassung schließen die Dinosaurier alle Nachfahren des gemeinsamen Vorfahren von "Triceratops" und der Vögel ein. Alternativ wurde vorgeschlagen, die Dinosaurier als alle Nachfahren des gemeinsamen Vorfahren von "Megalosaurus" und "Iguanodon" zu definieren, da dies zwei der drei Gattungen sind, die Owen bei seiner Erstbeschreibung der Dinosaurier nannte. Beide Definitionen fassen dieselben Taxa zur Gruppe der Dinosaurier zusammen: Die Theropoden (zweibeinige Karnivoren), Sauropodomorphen (mehrheitlich große Pflanzenfresser mit langen Hälsen und Schwänzen), Ankylosaurier (vierbeinige Pflanzenfresser mit massiven Hautpanzern), Stegosaurier (vierbeinige, Knochenplatten tragende Pflanzenfresser), Ceratopsia (vierbeinige Pflanzenfresser mit Hörnern und Nackenschilden) und Ornithopoden (zwei- oder vierbeinige Pflanzenfresser). Die Dinosaurier waren durch eine immense Formenvielfalt gekennzeichnet. Einige waren Herbivoren (Pflanzenfresser), andere Karnivoren (Fleischfresser); einige waren quadruped (vierbeinig), andere biped (zweibeinig), und wieder andere, wie zum Beispiel "Iguanodon", konnten sich sowohl biped als auch quadruped fortbewegen. Viele hatten eine Panzerung, Hörner, Knochenplatten, Schilde oder Rückensegel. Obwohl sie für eine gigantische Größe bekannt sind, variierte ihre Größe beträchtlich; so waren viele Dinosaurier nur so groß wie ein Mensch oder kleiner. Jedoch beschränkte sich diese Formenvielfalt faktisch ausschließlich auf terrestrische Lebensräume. Nur einige wenige Arten zeigen gewisse Anpassungen an ein Leben an bzw. in Süßgewässern. Auch den Luftraum beherrschten sie nicht wirklich. Wie gut der erste und noch recht dinosaurierhafte Vogel "Archaeopteryx" fliegen konnte, ist umstritten. Entsprechend muss davon ausgegangen werden, dass seine bislang unbekannten, möglicherweise schon recht vogelähnlichen unmittelbaren Vorfahren nicht gut oder gar nicht fliegen konnten. Auch die einer anderen Entwicklungslinie angehörenden „vier-flügeligen Dinosaurier“ der Unterkreide ("Microraptor", "Changyuraptor") konnten wahrscheinlich nicht wirklich fliegen, sondern bewegten sich nur von Baum zu Baum gleitend fort. Bis 2006 wurden 527 Dinosauriergattungen von einer geschätzten Gesamtzahl von etwa 1850 Gattungen wissenschaftlich beschrieben. Eine Studie von 1995 schätzt die Gesamtanzahl auf 3400 – wovon jedoch viele nicht als Fossilien überliefert seien. Im Mittel kommen derzeit pro Monat zwei neue Gattungen und pro Jahr mindestens 30 neue Arten hinzu. Gruppenspezifische Merkmale. Während urtümliche Dinosaurier alle diese Merkmale aufweisen, kann der Knochenbau späterer Formen stark abweichen, so dass manche der aufgeführten Charakteristika nicht mehr vorhanden oder nachzuvollziehen sind. Beckenanatomien und Gangarten verschiedener Gruppen landlebender Wirbeltiere Darüber hinaus gibt es verschiedene weitere Merkmale, die viele Dinosaurier gemeinsam haben, aber nicht als gemeinsam abgeleitete Merkmale bezeichnet werden, da sie sich gleichfalls bei einigen Nicht-Dinosauriern finden oder nicht bei allen frühen Dinosauriern auftreten. Dies sind unter anderem das verlängerte Schulterblatt (Scapula), drei oder mehr Kreuzbein-Wirbel im Bereich des Beckengürtels (drei Kreuzbeinwirbel wurden bei einigen anderen Archosauriern gefunden, jedoch nur zwei bei "Herrerasaurus") oder eine offene (perforierte) Hüftgelenkpfanne (geschlossen bei "Saturnalia"). Bei den Dinosauriern standen die Beine senkrecht unter dem Körper, ähnlich wie bei den meisten Säugetieren – aber anders als bei den meisten anderen Reptilien, deren Beine gespreizt nach außen hin abstehen (Spreizgang). Durch ihre aufrechte Haltung konnten Dinosaurier beim Bewegen leichter atmen, was wahrscheinlich Ausdauer- und Aktivitätslevel erlaubte, welche die anderer Reptilien mit gespreizten Beinen übertrafen. Außerdem hat die gerade Stellung der Beine eventuell die Evolution des Gigantismus unterstützt, da so die Beine entlastet wurden. Fossilbelege. Das Wissen über die Dinosaurier erhalten Paläontologen durch die Untersuchung von Fossilien, wobei Knochenfunde eine herausragende Rolle spielen – durch sie werden wichtige Daten über Verwandtschaftsbeziehungen, Anatomie und Körperbau, Biomechanik und vieles mehr gewonnen. Weitere Hinweise, besonders über das Verhalten der Dinosaurier, liefern die Spurenfossilien, etwa Zahnabdrücke an Knochen von Beutetieren, Hautabdrücke, Schwanzabdrücke, und vor allem fossile Fußspuren, die mit Abstand häufigsten Spurenfossilien. Spurenfossilien ermöglichen es, Dinosaurier aus einer anderen Perspektive zu studieren, da das Tier lebte, als die Spuren hinterlassen wurden – während Knochen immer von toten Tieren stammen. Weitere Informationen werden aus fossilen Eiern und Nestern, aus Koprolithen (versteinerten Kot) und Gastrolithen (Magensteine, die zur Zerkleinerung der Nahrung von einigen Dinosauriern verschluckt wurden) gewonnen. Ursprung. Viele Wissenschaftler dachten lange, Dinosaurier seien eine polyphyletische Gruppe und bestünden aus miteinander nicht näher verwandten Archosauriern – heute werden Dinosaurier als selbstständige Gruppe angesehen. Die ersten Dinosaurier gingen möglicherweise schon während der mittleren Trias vor etwa 245 Millionen Jahren aus ursprünglichen Vertretern der Ornithodiren- bzw. Avemetatarsalier-Linie der Archosaurier hervor, wie der ostafrikanische "Nyasasaurus" bezeugt, der entweder der frühste Dinosaurier oder ihr nächster bekannter Verwandter ist. Die Fossilien der ältesten unzweifelhaften Dinosaurier "Eoraptor" und "Herrerasaurus" entstammen der etwa 230 Millionen Jahre (späte Trias) alten Ischigualasto-Formation in Argentinien. "Eoraptor" gilt als der ursprünglichste Vertreter und sah wahrscheinlich dem gemeinsamen Vorfahren aller Dinosaurier sehr ähnlich. Somit dürften die ersten Dinosaurier kleine, bipede Fleischfresser gewesen sein. Diese Sichtweise wird bestätigt durch Funde primitiver, dinosaurierähnlicher Ornithodiren wie "Marasuchus" und "Lagerpeton". Diese Gattungen werden zwar außerhalb der Dinosaurier klassifiziert, waren aber wahrscheinlich mit dem gemeinsamen Vorfahren aller Dinosaurier nahe verwandt. Als die ersten Dinosaurier erschienen, waren die Nischen der terrestrischen Ökosysteme von verschiedenen Arten urtümlicher Archosaurier und Therapsiden besetzt: Aetosaurier, Cynodonten, Dicynodonten, Ornithosuchiden, Rauisuchier sowie Rhynchosaurier. Die meisten dieser Gruppen starben noch in der Trias aus; so gab es am Übergang zwischen Karnium und Norium ein Massenaussterben, bei dem die Dicynodonten und verschiedene basale Archosauromorphen wie die Prolacertiformen und Rhynchosaurier verschwanden. Darauf folgte ein weiteres Massenaussterben am Übergang zwischen Trias und Jura, bei dem die meisten anderen frühen Archosauriergruppen, wie Aetosaurier, Ornithosuchier, Phytosaurier und Rauisuchier ausstarben. Diese Verluste hinterließen eine Landfauna, die aus Crocodylomorphen, Dinosauriern, Säugetieren, Pterosauriern und Schildkröten bestand. Die frühen Dinosaurier besetzten wahrscheinlich die Nischen, die durch die ausgestorbenen Gruppen frei wurden. Früher wurde davon ausgegangen, dass die Dinosaurier die älteren Gruppen in einem langen Konkurrenzkampf zurückdrängten – dies wird heute aus mehreren Gründen als unwahrscheinlich angesehen: Die Zahl der Dinosaurier nahm nicht allmählich zu, wie es bei einem Verdrängen anderer Gruppen der Fall gewesen wäre; vielmehr machte ihre Individuenzahl im Karnium lediglich 1–2 % der Fauna aus, während sie nach dem Aussterben einiger älterer Gruppen im Norium bereits 50–90 % ausmachte. Ferner war die senkrechte Stellung der Beine, die lange als Schlüsselanpassung der Dinosaurier galt, ebenso in anderen zeitgenössischen Gruppen ausgeprägt, die nicht so erfolgreich waren (Aetosaurier, Ornithosuchier, Rauisuchier und einige Crocodylomorphen). Systematik und Phylogenese. Vereinfachtes Diagramm der Systematik der Dinosaurier Die Überordnung der Dinosaurier wird, wie die meisten heutigen Reptilien, zu den Diapsiden gezählt. Diese unterscheiden sich von den Synapsiden (aus denen die Säugetiere hervorgingen) und von den Anapsiden (die heutigen Schildkröten) durch zwei paarweise angeordnete Schädelfenster hinter den Augen. Innerhalb der Diapsiden werden sie zu den Archosauriern, den Herrscherreptilien, gezählt, die mit zwei weiteren zusätzlichen Schädelfenstern ausgestattet sind. Heutige Überbleibsel dieser Reptiliengruppe sind neben den Krokodilen die Vögel. Die Dinosaurier selber werden in zwei Ordnungen, Saurischia (auch Echsenbeckendinosaurier) und Ornithischia (auch Vogelbeckendinosaurier), aufgeteilt. Diese unterscheiden sich vorrangig an der Beckenstruktur. Die Saurischia haben die Beckenstruktur ihrer Vorfahren beibehalten und sind durch voneinander abstehende Pubis- und Ischiumknochen zu erkennen. Die Pubis- und Ischiumknochen der Ornithischia jedoch verlaufen beide parallel zueinander schräg nach hinten. Es folgt eine vereinfachte Klassifikation von Dinosauriern auf Familienebene. Eine detailliertere Aufstellung bis auf die Ebene der Gattungen findet sich im Artikel "Systematik der Dinosaurier". Evolution, Paläobiogeografie und Palökologie. Die Evolution der Dinosaurier nach der Trias wurde durch Veränderungen der Vegetation und der Lage der Kontinente beeinflusst. In der späten Trias und im frühen Jura waren alle Kontinente zu der großen Landmasse Pangaea vereinigt, wodurch es eine weltweit einheitliche Dinosaurierfauna gab, die sich hauptsächlich aus karnivoren Coelophysoideen und herbivoren Prosauropoden zusammensetzte. Nacktsamige Pflanzen, insbesondere Koniferen, verbreiteten sich während der späten Trias als mögliche Futterquelle. Prosauropoden konnten das Pflanzenmaterial nicht im Mund verarbeiten und waren auf andere Mittel zur Aufschlüsselung der Nahrung im Verdauungstrakt angewiesen. Die Homogenität der Dinosaurierfaunen setzte sich bis in den mittleren und späten Jura fort: Unter den karnivoren Theropoden dominierten die Ceratosaurier, die Spinosauroideen und die Carnosaurier, während unter den Herbivoren die Stegosaurier, die Ornithischier und die Sauropoden verbreitet waren. Wichtige, gut bekannte Faunen des späten Jura schließen die der Morrison-Formation in Nordamerika und der Tendaguru Beds in Tansania mit ein. Faunen aus China zeigen jedoch bereits einige Unterschiede wie die spezialisierten Sinraptoriden unter den Karnivoren und ungewöhnliche, langhalsige Sauropoden wie "Mamenchisaurus" unter den Herbivoren. Ankylosaurier und Ornithopoden verbreiteten sich zunehmend, die Prosauropoden jedoch starben aus. Koniferen und andere Pflanzengruppen wie Farne und Schachtelhalme waren die dominierenden Pflanzen. Anders als Prosauropoden und Sauropoden haben die Ornithischier Mechanismen entwickelt, die eine Verarbeitung von Nahrung im Mund erlaubten. So hielten backenähnliche Organe die Nahrung im Mund, und durch Kieferbewegungen konnte die Nahrung zermahlen werden. Während der frühen Kreide setzte sich das Auseinanderbrechen Pangaeas fort, wodurch sich die Dinosaurierfaunen verschiedener Kontinente mehr und mehr unterschieden. Die Ankylosaurier, Iguanodonten und Brachiosauriden verbreiteten sich über Europa, Nordamerika und Nordafrika. Später kamen besonders in Afrika Theropoden wie die großen Spinosauriden und Carcharodontosauriden hinzu; außerdem gewannen Sauropodengruppen wie die Rebbachisauriden und die Titanosaurier an Bedeutung. In Asien wurden Maniraptoren wie die Dromaeosauriden, Troodontiden und Oviraptorosaurier häufig, Ankylosaurier und frühe Ceratopsier wie "Psittacosaurus" wurden wichtige Herbivoren. Währenddessen wurde Australien die Heimat ursprünglicher Ankylosaurier, Hypsilophodonten und Iguanodonten. Die Stegosaurier sind anscheinend in der späten Unterkreide oder der frühen Oberkreide ausgestorben. Eine große Veränderung in der Unterkreide brachte das Auftreten der Blütenpflanzen. Zur selben Zeit entwickelten verschiedene Gruppen von Herbivoren Zahnbatterien, die aus übereinander gestapelten Ersatzzähnen bestanden. Den Ceratopsiern dienten die Zahnbatterien zum Schneiden, während sie besonders bei Hadrosauriden zum Mahlen eingesetzt wurden. Einige Sauropoden haben ebenfalls Zahnbatterien entwickelt, am deutlichsten sind sie bei "Nigersaurus" ausgeprägt. In der Oberkreide gab es drei große Dinosaurierfaunen. In Nordamerika und Asien dominierten unter den Karnivoren die Tyrannosaurier und verschiedene Typen kleinerer Maniraptoren, die Herbivoren waren überwiegend Ornithischier und setzten sich aus Hadrosauriden, Ceratopsiern, Ankylosauriern und Pachycephalosauriern zusammen. In den südlichen Kontinenten waren die Abelisauriden die vorherrschenden Predatoren und Titanosaurier die vorherrschenden Herbivoren. Die Fauna Europas schließlich setzte sich aus Dromaeosauriden, Rhabdodontiden (Iguanodontia), Nodosauriden (Ankylosauria) und Titanosauriern zusammen. Blütenpflanzen breiteten sich weiter aus, und die ersten Gräser tauchten am Ende der Kreide auf. Hadrosauriden, welche Nahrung zermahlten, und Ceratopsier, welche Nahrung lediglich abschnitten, erlangten gegen Ende der Kreide in Nordamerika und Asien eine große Häufigkeit und Vielfalt. Einige Theropoden entwickelten sich derweil zu Herbivoren oder Omnivoren (Allesfressern), wie die Therizinosaurier und die Ornithomimosaurier. Gefiederte Dinosaurier und Ursprung der Vögel. Der erste als Vogel geltende Dinosaurier, "Archaeopteryx", lebte im späten Jura Mitteleuropas (siehe Solnhofener Plattenkalk). Er entwickelte sich wahrscheinlich aus frühen Vertretern der Maniraptoren, einer Gruppe sehr vogelähnlicher Theropoden aus der relativ modernen Untergruppe Coelurosauria. "Archaeopteryx" weist ein Mosaik aus Merkmalen der Vögel und der Theropoden auf, ähnelt jedoch so sehr den Theropoden, dass mindestens ein Fossil ohne klar erkennbare Federabdrücke fälschlicherweise dem "Compsognathus", einem kleinen Nichtvogeldinosaurier, zugeschrieben wurde. Obwohl das erste fast vollständige Exemplar von "Archaeopteryx" bereits im Jahr 1861 gefunden wurde, fand die Idee, dass Vögel von Dinosauriern abstammen, erst wesentlich später allgemeine Anerkennung, nachdem sie 1970 von John Ostrom neu aufgegriffen worden war. Bis heute wurden zahlreiche anatomische Gemeinsamkeiten zwischen theropoden Dinosauriern und "Archaeopteryx" nachgewiesen. Ähnlichkeiten zeigen sich besonders im Bau der Halswirbelsäule, des Schambeins (Pubis), des Handgelenks, des Schultergürtels, des Gabelbeins und des Brustbeins. Ab den 1990er Jahren wurden eine Reihe von gefiederten coelurosauriden Theropoden entdeckt, die weitere Anhaltspunkte auf die enge Verwandtschaft zwischen Dinosauriern und Vögeln liefern. Die meisten dieser Funde stammen aus der Jehol-Gruppe im Nordosten Chinas, einer mächtigen Sedimentabfolge, die durch exzellent erhaltene Fossilien berühmt ist. Einige der in der Jehol-Gruppe gefundenen Vertreter mit daunenartigen Federn ("Protofedern") sind relativ ursprüngliche und mit den Vögeln nicht sonderlich nahe verwandte Coelurosaurier, zum Beispiel der Compsognathide "Sinosauropteryx", der Therizinosauroide "Beipiaosaurus" sowie die Tyrannosauroiden "Dilong" und "Yutyrannus"; letzterer der nach heutigem Kenntnisstand (Stand Juni 2015) mit Abstand größte gefiederte Dinosaurier, der aus der Yixian-Formation (Barremium bis frühes Aptium) der Provinz Liaoning stammt. Dies zeigt, dass ein primitives Gefieder ein ursprüngliches Merkmal der Theropoden, zumindest aber der Coelurosaurier zu sein scheint, und dass viele andere Theropoden, von denen heute nur Skelettteile bekannt sind, zu Lebzeiten ebenfalls gefiedert waren, ihr Gefieder jedoch nicht fossil überliefert wurde. Daran ändert auch nichts, dass die Sedimente der Jehol-Gruppe erst in der Unterkreide abgelagert worden sind und damit geologisch jünger als der Solnhofener Plattenkalk und "Archaeopteryx" sind. Funde „gefiederter Dinosaurier“ sind generell selten, was sehr wahrscheinlich daran liegt, dass Weichteile wie Haut und Federn nur unter besonders günstigen Bedingungen, wie sie in den Sedimenten der Jehol-Gruppe und im Solnhofener Plattenkalk offenbar herrschten, fossilieren. Viele der gefiederten Nichtvogeldinosaurier in der Jehol-Gruppe wären demnach die ältesten mit Gefieder überlieferten Vertreter ihrer Entwicklungslinien, obwohl alle geologisch älteren Vertreter dieser Linien sowie deren gemeinsamer Vorfahr ebenfalls Federn hatten. Die für Vögel so typischen Konturfedern finden sich jedoch nur bei Vertretern der Coelurosaurier-Untergruppe Maniraptora, welche die Oviraptorosaurier, die Troodontiden, die Dromaeosauriden und die Vögel umfasst. Protofedern entwickelten sich ursprünglich wahrscheinlich zur Wärmeisolierung, die Konturfedern speziell für die optische Kommunikation mit Artgenossen. Die Funktion des Erzeugens von Auftrieb beim Fliegen oder Segeln durch die Luft übernahmen sie erst später in der Evolution. Bei "Microraptor gui", einem etwa huhngroßen Dinosaurier aus der Jehol-Gruppe, sind nicht nur die Arme und Hände, sondern auch die Beine als mit Konturfedern bestückte Flügel ausgebildet, und es wird angenommen, dass "Microraptor" auf diesen vier Schwingen von Baum zu Baum gesegelt ist. Allerdings gilt "Microraptor", obwohl geologisch jünger als "Archaeopteryx", nicht als Vogel. Sein vogelähnliches äußeres geht stattdessen auf eine Parallelentwicklung (Konvergenz) innerhalb der Maniraptora zurück. Mit "Jeholornis" gab es aber auch einen frühen „echten“ Vogel in der Jehol-Gruppe. Dass "Microraptor" nicht als Vogel betrachtet wird, liegt nicht daran, dass er lediglich zur Fortbewegung per Gleitflug fähig war, sondern an seiner Skelettanatomie, die ihn als Dromaeosauriden ausweist. Schließlich sind auch die fliegerischen Fähigkeiten von "Archaeopteryx" durchaus umstritten. Eine Hypothese zur Entwicklung der Flugfähigkeit der „echten“ Vögel besagt, dass diese sich aus dem Gleitflug entwickelt hat. Die Vorfahren von "Archaeopteryx", möglicherweise sogar "Archaeopteryx" selbst, wären demnach ebenfalls Gleitflieger gewesen. Jedoch gibt es auch andere Ansichten. Größe. Bekannte Dinosaurier im Größenverhältnis zum Menschen Obwohl Dinosaurier in der Größe stark variierten, waren sie als Gruppe groß. Der durchschnittliche Dinosaurier war nach einer Schätzung etwa eine bis zehn Tonnen schwer, während das durchschnittliche Säugetier des Känozoikums nur zwei bis fünf Kilogramm schwer wurde. Einige Dinosaurier waren gar gigantisch; insbesondere die langhalsigen Sauropoden, zu denen die größten Landtiere der Erdgeschichte gehörten. Die Ursache dieses Gigantismus konnte noch nicht hinreichend geklärt werden. Für die Sauropoden nehmen einige Forscher an, dass ihre Größe Vorteile für die Verdauung brachte, da die Nahrung länger im Verdauungstrakt verweilt als bei kleineren Tieren und so intensiver genutzt werden kann. Dies würde ein Überleben mit nährstoffarmen Pflanzen erlauben. Welches die größten oder kleinsten Dinosaurier waren, wird wahrscheinlich nie mit Sicherheit gesagt werden können. Die Überlieferung durch Fossilien ist oft sehr unvollständig, nur die wenigsten Dinosaurier sind durch vollständige Skelette bekannt – von vermutlich besonders großen Arten werden meist lediglich Knochenfragmente gefunden. Paläontologen können zwar die Form und Größe der Knochen mit denen besser bekannter Arten vergleichen, um die Größe zu schätzen – dies ist allerdings ungenau. Noch schlechter lässt sich das Gewicht der Tiere schätzen, da es unter anderem davon abhängt, wie ein Modell mit Muskeln und Sehnen versehen wird, deren Lage Paläontologen anhand von Muskelansatzstellen an den Knochen herausfinden müssen. a> nach Abschluss der Überarbeitung 2007 Der größte und schwerste Dinosaurier, der durch gute Skelettfunde bekannt ist, ist der Sauropode "Brachiosaurus" (auch bekannt als "Giraffatitan"). Ein Skelett, das aus den Knochen verschiedener etwa gleich großer Individuen besteht, ist im Berliner Naturkundemuseum ausgestellt und hat eine Höhe von 12 Metern und eine Länge von 22,5 Meter; ein solches Tier hätte wahrscheinlich ein Gewicht von 30 bis 60 Tonnen gehabt. Der längste durch vollständige Skelette bekannte Dinosaurier ist "Diplodocus", ein Skelettfund zeigt eine Länge von 27 Metern. Noch größere Sauropoden sind nur durch Skelettfragmente bekannt. Einer der größten Dinosaurier könnte "Argentinosaurus" gewesen sein, der manchmal auf ein Gewicht von bis zu hundert Tonnen geschätzt wird; der 33,5 Meter lange "Diplodocus hallorum" (früher "Seismosaurus") könnte zusammen mit dem 33 Meter langen "Supersaurus" vielleicht zu den längsten Dinosauriern gehört haben. Unter den fleischfressenden Dinosauriern gab es ebenfalls Riesen. Der größte durch fast vollständige Skelettfunde bekannte Theropode ist der etwa 12 Meter lange "Tyrannosaurus rex", jedoch gibt es hier ebenso Skelettfragmente, die auf noch größere Gattungen schließen lassen. Der größte bekannte Theropode war vielleicht "Spinosaurus" mit einer Länge von 16 bis 18 Meter und einem Gewicht von acht Tonnen, weitere sehr große Theropoden schließen "Giganotosaurus", "Mapusaurus" und "Carcharodontosaurus" mit ein. Die kleinsten Dinosaurier hatten die Größe eines Huhns – so waren die Theropoden "Microraptor" und "Parvicursor" beide weniger als 60 Zentimeter lang. Die kleineren Dinosaurier ernährten sich fast ausschließlich karnivor. Verhalten. Interpretationen über das Verhalten der Dinosaurier basieren meistens auf der Haltung von Skelettfunden, auf Spurenfossilien wie fossilen Fußspuren, auf dem Habitat, in welchem die Tiere lebten, auf Computersimulationen der Biomechanik und auf Vergleichen mit rezenten Tieren ähnlicher ökologischer Nischen. Viele Hypothesen über das Verhalten der Dinosaurier sind lediglich spekulativ, einige finden aber Zustimmung bei den meisten Forschern. Der Fund eines "Iguanodon"-Massengrabs in Bernissart (Belgien) im Jahr 1878 gab einen ersten Hinweis auf Herdenleben bei Dinosauriern. Heute sind viele weitere Hinweise auf ein Herdenleben bei vielen Dinosaurierarten bekannt, so wurden neben weiteren Massengräbern auch viele parallel verlaufende Fährtenfolgen entdeckt. Hadrosauriden wanderten vermutlich in großen Herden, ähnlich wie die heutigen Springböcke oder Amerikanischen Bisons; so enthält ein Massengrab von "Maiasaura" aus Montana (USA) die Überreste von mindestens 10.000 Individuen. Sauropodenspuren aus Oxford (England) zeigen, dass diese Sauropoden in gemischten Herden mit unterschiedlichen Arten wanderten. Vielleicht bildeten Dinosaurier Herden zur Verteidigung gegen Fressfeinde, zum Schutz der Jungtiere oder für periodische Wanderungen. Einige karnivore Dinosaurier werden ebenso oft gesellig dargestellt, wobei sie in einer Gruppe selbst größere Beute erlegt haben könnten. Jedenfalls ist das Jagen in Gruppen bei den nächsten lebenden Verwandten der Dinosaurier, den Vögeln und den Krokodilen, recht ungewöhnlich, und vermeintliche Nachweise für ein Jagen in Gruppen bei den Theropoden "Deinonychus" und "Allosaurus" könnten die Ergebnisse von tödlichen Auseinandersetzungen zwischen fressenden Tieren sein, wie bei modernen Reptilien häufig zu beobachten. Eine "Maiasaura"-Nestkolonie, die Jack Horner im Jahr 1978 in Montana (USA) entdeckt hat, zeigt, dass einige Dinosaurier ihre Jungen noch lange nach dem Schlüpfen betreuten und beschützten. In der Mongolei wurde 1993 das Skelett des Oviraptoriden "Citipati" in einer brütenden Position über seinen Eiern entdeckt; dies könnte auf isolierende Federn hinweisen, welche die Eier warm hielten. Andere Funde zeigen ebenfalls elterliche Fürsorge. So wurde zum Beispiel in Liaoning (China) ein erwachsenes Exemplar des Ceratopsier "Psittacosaurus" zusammen mit 34 Jungtieren gefunden – die große Anzahl des Nachwuchses könnte darauf hindeuten, dass das erwachsene Tier den Nachwuchs von verschiedenen Individuen betreut hat, ähnlich wie bei heutigen Straußen. Die Auca-Mahuevo-Fundstelle in Patagonien barg tausende Nester mit Eiern, die Sauropoden zugeschrieben werden und Hinweise auf große Nistkolonien dieser Dinosaurier geben, ähnlich denen der heutigen Pinguine. Sauropoden betrieben allerdings wahrscheinlich keine elterliche Fürsorge, was nicht zuletzt wegen der Größe der Elterntiere im Vergleich zu den Jungtieren angenommen wird. Die mannigfaltigen Kämme und Schilde einiger Dinosaurier, wie die der Marginocephalia, der Theropoden und der Lambeosaurinen, waren zur aktiven Verteidigung vielleicht zu zerbrechlich. Wahrscheinlicher ist, dass sie zur sexuellen Zurschaustellung dienten oder Artgenossen einschüchtern sollten – jedoch ist nur wenig über die Paarung und das Territorialverhalten der Dinosaurier bekannt. Bisswunden an den Schädeln von einigen Theropoden lassen aktive aggressive Konfrontationen zumindest bei diesen Dinosauriern vermuten. Die Kommunikation der Dinosaurier untereinander bleibt ebenfalls mysteriös, ist aber ein aktives Gebiet der Forschung. Beispielsweise haben jüngere Studien gezeigt, dass die Kopfkämme der Lambeosaurinen als Resonanzverstärker für ein breites Spektrum von Rufen gedient haben könnten. Ein Fossil eines Troodontiden aus China zeigte, dass dieser kleine Theropode den Kopf beim Schlafen unter die Arme steckte, um ihn warm zu halten; ähnlich wie heutige Vögel. Eines der für die Verhaltensforschung wertvollsten Dinosaurier-Fossilien wurde im Jahr 1971 in der Wüste Gobi entdeckt und beinhaltet einen "Velociraptor", der einen "Protoceratops" attackiert hat; der Fund zeigt die Tiere annähernd in Lebenddarstellung. Weitere Hinweise auf das Jagen lebender Beute liefert eine teilweise verheilte Schwanzverletzung eines zu den Hadrosauriern zählenden "Edmontosaurus" – der Schwanz wurde von einem Tyrannosaurier gebissen, das Tier überlebte aber. Kannibalismus konnte bei einigen Theropoden wie "Majungasaurus" nachgewiesen werden; so wurden im Jahr 2003 in Madagaskar entsprechende Bissspuren gefunden. Neue Funde wie "Oryctodromeus" zeigen, dass einige herbivore Arten anscheinend in einem Bau unter der Erde lebten, während einige vogelähnliche Arten vielleicht baumbewohnend waren, wie "Microraptor" und die rätselhaften Scansoriopterygiden. Die meisten Dinosaurier bewegten sich jedoch auf dem Boden fort. Ein gutes Verständnis der Art der Fortbewegung ist ein Schlüssel für die Verhaltensforschung, und die Biomechanik hat bedeutende Fortschritte auf diesem Gebiet gebracht. So gab es Studien über die von Muskeln ausgeübten Kräfte und über das auf dem Skelett lastende Gewicht, wodurch geschätzt wurde, wie schnell Dinosaurier rennen konnten. Weiter wurde untersucht, ob Diplodociden mit ihrem Schwanz einen Überschallknall erzeugen konnten oder ob Sauropoden schwimmen konnten. Für Theropoden wurde anhand von Kratzspuren im Sediment eines Sees nachgewiesen, dass sie schwimmen konnten. Physiologie. Seit den 1960er Jahren läuft eine energische Diskussion über die Temperatur-Regulierung der Dinosaurier. Obwohl die Theorie, dass Dinosaurier ihre Körpertemperatur überhaupt regulieren konnten, ursprünglich von Wissenschaftlern abgelehnt wurde, ist die Warmblütigkeit (Endothermie) der Dinosaurier die heute gängige Sichtweise, und die Debatte hat sich mehr auf die Mechanismen der Thermoregulation fokussiert. Als die ersten Dinosaurier entdeckt wurden, glaubten die Wissenschaftler, Dinosaurier seien wechselwarme (ektotherme) Tiere – „schreckliche Echsen“, wie ihr Name nahelegt. Man stellte sich Dinosaurier als langsame, träge Tiere vor und verglich sie mit Reptilien, die sich erst durch die Sonne aufwärmen müssen, um sich aktiv bewegen zu können. Die Vorstellung von wechselwarmen Dinosauriern herrschte vor, bis Robert „Bob“ Bakker, ein früher Verfechter der Warmblütigkeit der Dinosaurier, eine einflussreiche Arbeit zum Thema veröffentlichte. Hinweise auf Warmblütigkeit liefern Entdeckungen aus Antarktika und Australien, wo „Polar-Dinosaurier“ gefunden wurden, die dort einen kalten, sechsmonatigen Winter überstehen mussten. Erst kürzlich wurden Funde aus der Kreidezeit in Nordalaska gemacht, die zeigen, dass in diesen schon damals kalten Gebieten sogar dieselben Arten wie im übrigen Nordamerika lebten. Zusätzlich lässt der Skelettbau vieler Dinosaurier – insbesondere der Theropoden – auf eine hohe Aktivität schließen, die ebenfalls für eine hohe Stoffwechselrate spricht. Ebenso konnte die für warmblütige Tiere typischen Blutgefäß-Strukturen in Dinosaurierknochen nachgewiesen werden. Eine nicht unbedeutende Anzahl von kleineren Dinosauriern verfügte außerdem über ein isolierendes Federkleid. Sauropoden zeigen jedoch weniger Anzeichen auf Warmblütigkeit. Es ist daher möglich, dass einige Dinosaurier warmblütig waren, andere aber nicht. Die Debatte wird dadurch verkompliziert, das Warmblütigkeit auf mehr als nur einen Mechanismus beruhen kann. In den meisten Diskussionen wird die Dinosaurier-Warmblütigkeit mit der von durchschnittlich großen Vögeln oder Säugetieren verglichen, welche Energie aufwenden, um ihre Körpertemperatur über der Umgebungstemperatur zu halten. Kleine Säugetiere und Vögel besitzen außerdem eine Isolierung in Form von Fett, Fell oder Federn, die den Wärmeverlust verringert. Jedenfalls haben große Tiere wie Elefanten ein ganz anderes Problem – wird ein Tier größer, vergrößert sich das Volumen viel schneller als die Hautfläche (Haldanes Prinzip). Ab einem gewissen Punkt übersteigt die vom Körper produzierte Wärme den Wärmeverlust über die Haut, sodass den Tieren Überhitzung droht. Besonders in Bezug auf Sauropoden wird daher die Theorie diskutiert, dass große Dinosaurier durch ihre schiere Größe wärmer als die Umgebung waren "(gigantotherm)", ohne dass sie spezielle Anpassungen wie Säugetiere oder Vögel besessen hätten. 2011 hatten Forscher in Science berichtet, dass die Körpertemperatur für einige große pflanzenfressende Dinosaurier auf 36 bis 38 Grad bestimmt wurde. Theropoden und wahrscheinlich ebenso Sauropoden besaßen Luftsäcke, die wie Blasebälge Luft durch die Lunge führten. Da dieses Merkmal unter heute lebenden Tieren nur bei den Vögeln bekannt ist, gilt es als weiterer Hinweis auf eine Abstammung der Vögel von den Dinosauriern. Außerdem wird es als Hinweis gedeutet, dass ebenso größere Dinosaurier wie die Sauropoden warmblütig gewesen sein könnten, da Verdunstung in den Luftsäcken einen effektiven Kühlmechanismus darstellt. Computertomografische Untersuchungen von Hohlräumen in der Brustgegend des Ornithopoden "Thescelosaurus" zeigten im Jahr 2000 die Überreste eines komplexen, vierkammerigen Herzes. In Fachkreisen besteht zwar Uneinigkeit über die Richtigkeit der Ergebnisse, das Vorkommen eines vierkammerigen Herzens sowohl bei Vögeln als auch bei Krokodilen könnte jedoch darauf hindeuten, dass Dinosaurier ebenfalls ein solches besessen haben. Histologische Untersuchungen an Dinosaurierknochen lieferten Hinweise auf enge physiologische Parallelen zwischen weiblichen Dinosauriern und Vögeln bei der Eierschalenproduktion. Bei weiblichen Vögeln wächst infolge der Ausschüttung von Östrogen im Zeitraum vor der Eiablage eine sehr calciumreiche Knochensubstanz in den Beinknochen, an der Innenseite der harten Außenknochen (corticaler Knochen) in die Markhöhle hinein. Diese Knochensubstanz wird als "medullärer Knochen" bezeichnet und ist reich an Proteoglykanen und Glykoproteinen, an die die Calcium-Ionen gebunden werden, sowie arm an Kollagen. Medullärer Knochen dient als Reservoir, in dem Calcium gespeichert wird, das für die Bildung der Eierschalen nötig ist. Knochensubstanz, die als medullärer Knochen gedeutet wird, fand sich auch in den Beinknochen eines "Tyrannosaurus rex". Dies lässt vermuten, dass die Calciumeinlagerung bei Dinosauriern und Vögeln ähnlich funktionierte. Zudem kann das Vorhandensein von medullärem Knochen bei fossilen Vögeln oder bei Dinosauriern für die Bestimmung weiblicher Tiere genutzt werden. Nach weiteren Forschungen wurde medullärer Knochen auch bei "Allosaurus" und dem Vogelbeckensaurier "Tenontosaurus" entdeckt. Da diese beiden Gattungen jeweils einer der beiden Hauptlinien der Dinosaurier angehören, wird davon ausgegangen, dass medullärer Knochen zur Calciumspeicherung bereits sehr früh in der Dinosaurierevolution entstanden ist und dass deshalb nahezu alle Dinosaurier dieses Merkmal besessen haben dürften. Dass diese Knochensubstanz auch bei noch nicht voll ausgewachsenen Tieren gefunden wurde, lässt den Schluss zu, dass Dinosaurier sehr früh in ihrer Individualentwicklung die Geschlechtsreife erreichten. Weiches Gewebe und DNA. a>"-Skelett mit Hautabdrücken in Mailand, Italien (2007) Eines der besten Beispiele für Abdrücke von weichem Gewebe in einem Dinosaurierfossil wurde in Petraroia, Italien entdeckt. Der im Jahr 1998 beschriebene Fund stammt von dem kleinen, sehr jungen Coelurosaurier "Scipionyx" und zeigt Abdrücke verschiedener Darmabschnitte, der Leber, der Muskeln und der Luftröhre. Im Jahr 2005 stellten Dr. Mary Higby Schweitzer und ihr Team erstmals flexibles Gewebe-Material eines Dinosauriers vor, das in einem 68 Millionen Jahre alten Beinknochen eines "Tyrannosaurus rex" aus der Hell-Creek-Formation in Montana (USA) gefunden wurde. Nach einer Rehydrierung wurde das Material wieder elastisch, und nach einer mehrere Wochen währenden Behandlung zum Entfernen der Mineralien (Demineralisierung) konnten intakte Strukturen wie Blutgefäße, Knochenmatrix und Knochenfasern nachgewiesen werden. Genauere Untersuchungen unter dem Mikroskop zeigten darüber hinaus, dass sogar noch Mikrostrukturen auf zellulärer Ebene erhalten geblieben sind. Thomas Kaye et al. stellen die Ergebnisse in einer kürzlich veröffentlichten Studie jedoch in Frage – nach diesen Forschern handelt es sich bei dem vermeintlichen Gewebematerial um bakterielle Biofilme. Die Bakterien kolonisierten einst die Hohlräume des Knochens, die zuvor von echten Zellen besetzt waren. Die von Schweitzer aufgrund ihrer Eisenhaltigkeit als Blutgefäße interpretierten Strukturen deuten die Forscher zudem als Framboide – rundliche, mikroskopisch kleine Mineralstrukturen. Die erfolgreiche Gewinnung von Dinosaurier-DNA wurde zwar in zwei Fällen gemeldet, keine dieser beiden Studien konnte jedoch bestätigt werden. Jedenfalls wurde bereits das theoretische Peptid Rhodopsin eines Dinosauriers kloniert, wobei die Gene von Krokodilen und Vögeln, der nächsten heute lebenden Verwandten der Dinosaurier, als Grundlage für die phylogenetische Ableitung dieses Peptids dienten. Das in Zellkultur exprimierte und aufgereinigte Rhodopsin zeigte sich aktiv in funktionellen Tests. Des Weiteren wurden verschiedene Proteine in Dinosaurierfossilien entdeckt, inklusive des roten Blutfarbstoffs Hämoglobin. Die Möglichkeit des Klonens von Dinosauriern, wie in Michael Crichtons berühmtem Roman "DinoPark" (1993 verfilmt als "Jurassic Park"), kann aufgrund mangelnder genetischer Information für die nähere Zukunft ausgeschlossen werden. Lebensalterbestimmung. Für die Altersdiagnostik bei Dinosauriern werden Konzepte der Histologie, Parodontologie, Osteologie und Paleontologie herangezogen. Insgesamt gestaltet sich das Abschätzen des vermutlichen Lebensalters von Dinosauriern jedoch schwierig, was Paläontologen dennoch nicht davon abgehalten hat lange über die mögliche Lebenserwartung von Dinosauriern zu spekulieren. Nachdem Dinosaurier und besonders ihre Knochen seit mehr als hundert Jahren gezielt erforscht werden, sind viele Informationen über Neurologie, mögliches Verhalten und Physiologie dieser urzeitlichen Lebewesen zu Tage gefördert worden. Empirische Daten zur Entwicklung und Lebenserwartung wie beispielsweise, Langlebigkeit und somatische Reife und Wachstumsraten sind jedoch teilweise noch Objekt intensiver Debatten. Verschiedenen Methoden um das Alter ganzer Spezies aber auch einzelner Dinosaurier, abzuschätzen wurden vorgeschlagen und durchgeführt. Vögel, die nächsten Verwandten der Dinosaurier, können erfahrungsgemäß sehr alt werden, genau so wie Krokodile, doch können derlei Beobachtungen allenfalls schwache Hinweise auf die Lebenserwartung von Dinosauriern geben. Histologische Untersuchungen an Dinosaurierknochen legen nahe, dass diese relativ schnell wuchsen. Da jedoch eindeutige Indikatoren für das Erreichen der Geschlechtsreife, bei dem das Wachstum wahrscheinlich stoppen wird, selten sind, lässt sich so die Lebenserwartung von Dinosauriern nur schwer abschätzen. Eine Kandidat dies betreffend ist der Calciumgehalt der Markknochen, da dieser bei Vögeln erfahrungsgemäß vor der Ovulation abnimmt um die Eischale zu bilden. Untersuchungen an Allosaurus (einem Echsenbeckensaurier) und Tenontosaurus (einem Vogelbeckensaurier) lassen ein Erreichen der Geschlechtsreife im Alter zwischen 8 und 18 Jahren wahrscheinlich erscheinen. Jedoch wurden Dinosaurier wahrscheinlich vor Erreichen der asymptotischen Größe geschlechtsreif, da diese Fortpflanzungsstrategie auch in mittelgroßen bis großen Säugetiere vorkommt und mit der Strategie des anhaltenden Mehrjahreswachstum korreliert, die bei diesen Dinosauriern offensichtlich vorliegt. (Sie schlüpften nicht voll ausgewachsen.) Die Lebensaltersbestimmung anhand von Wachstumsringen bei Dinosauriern ist grundsätzlich schwierig, da sich die mächtigeren, Gewicht tragenden Knochen während ihrer körperlichen Entwicklung umformten und dabei die inneren Wachstumsringe vernichteten. Untersuchungen an den Rippen von Tyrannosauriern eignen sich jedoch möglicherweise besser um Wachstumsgeschwindigkeit und Lebenserwartung zu bestimmen. Die entsprechenden Daten lassen vermuten, dass die Raubsaurier zwischen 14 und 18 Jahren täglich mindestens zwei Kilogramm zunahmen und ungefähr im Alter von 20 Jahren ihr Maximalgewicht von fünf Tonnen erreicht hatten, woraufhin sie noch etwa zehn Jahre lebten. Aussterben. In den letzten 550 Millionen Jahren gab es fünf große Massenaussterben, bei denen jeweils mindestens 40 % aller Gattungen ausstarben. Am berühmtesten ist das Kreide-Tertiär-Massenaussterben vor etwa 65 Millionen Jahren, bei dem schätzungsweise 50 % der Gattungen und 20 % der Familien verschwanden, darunter alle Nicht-Vogel-Dinosaurier. Es wurden die verschiedensten Hypothesen aufgestellt, um die Ursachen dieses Massensterbens zu klären. Die meisten aktuellen Theorien sehen die Ursache in einem Meteoriteneinschlag oder einem gesteigerten Vulkanismus, einige schließen beide Ereignisse mit ein. Das rapide Absinken des Meeresspiegels könnte gleichfalls zum Massensterben beigetragen haben, da die großen Flachmeere verschwanden und sich Landbrücken bildeten. In der Kreide-Tertiär-Grenze, einer dünnen, dunklen Sedimentschicht aus der Zeit des Massensterbens, fand Luis Alvarez eine Anreicherung des sonst in der Erdkruste seltenen Schwermetalls Iridium "(siehe Iridium-Anomalie)". Alvarez postulierte 1980, dass das Iridium durch einen Meteoriten auf die Erde gelangt sein könnte, welcher das Massensterben auslöste. Die Theorie wurde 1990 durch den Fund des 170 km durchmessenden Chicxulub-Kraters am Rande der Yukatan-Halbinsel im Golf von Mexiko untermauert, der durch einen etwa 10 km großen Meteoriten entstanden ist. Die möglichen Folgen für die Ökosysteme sind schwer zu ermitteln. Forscher diskutieren beispielsweise mögliche starke Temperaturschwankungen, ebenso könnte eine Staubwolke das Sonnenlicht für einige Jahre um 10 bis 20 % reduziert haben, was die Photosynthese der Pflanzen reduziert hätte. Weitere Folgen wären wahrscheinlich Tsunamis und saurer Regen. Ein Indiz für die Vulkanismustheorie ist der gewaltige Dekkan-Trapp-Vulkanismus der indischen Dekkan-Hochebene, der mindestens zwei Millionen Kubikkilometer Basalt (Flutbasalt, Trapp) förderte. Neben einer verminderten Sonneneinstrahlung (Insolation) könnten große Mengen Kohlenstoffdioxid in die Atmosphäre gelangt sein, was einen Treibhauseffekt zur Folge gehabt hätte. Die Dauer des Aussterbeprozesses ist umstritten. Einige Dinosaurierknochen wurden aus 64,5 Millionen Jahren alten känozoischen Schichten gefunden, was von einigen Forschern als Hinweis auf ein langsames Aussterben gedeutet wurde. Andere Wissenschaftler widersprachen jedoch dieser These mit der Begründung, die Knochen seien mit der Zeit aus älteren Ablagerungen erodiert und in den känozoischen Schichten neu eingelagert worden. Dinosaurier und Menschen. a> „Für die Jugend“. "Plateosaurus", "Tyrannosaurus", "Triceratops", "Diplodocus" Keine andere Gruppe ausgestorbener Tiere hat eine derart wichtige kulturelle Bedeutung wie die Dinosaurier. Seit die Dinosaurier im 19. Jahrhundert erstmals ins Licht der Öffentlichkeit rückten, erfreuen sie sich weltweit großen Interesses und so großer Beliebtheit, dass teilweise von einer bis heute anhaltenden „Dinomanie“ gesprochen wird. Fast so bekannt wie die Dinosaurier selbst ist die Tatsache, dass sie innerhalb kürzester Zeit ausgestorben sind. Daher wird der Name Dinosaurier oft als Metapher für Denk- und Handelsweisen oder für Dinge benutzt, die als rückwärtsgewandt und nicht mehr zeitgemäß empfunden werden, wie etwa beim Dinosaurier des Jahres. Entdeckungsgeschichte. Die ersten Dinosaurierfossilien sind schon vor hunderten, wahrscheinlich tausenden von Jahren gefunden worden, wobei ihre wahre Natur nicht erkannt wurde. Im China der östlichen Jin-Dynastie berichtete Cháng Qú (常璩) in seinem Buch "Huàyángguó zhì" () im 4. Jahrhundert über die Entdeckung von „Drachenknochen“ aus der Provinz Sichuan, die vielleicht von Dinosauriern stammten. Dorfbewohner in Zentralchina haben derartige Drachenknochen seit Jahrzehnten ausgegraben, um aus ihnen traditionelle Medizin herzustellen. Die antiken Griechen und Römer fanden ebenso entsprechende Fossilien, die Stoff für ihre Legenden und Sagen boten. Im Jahr 1677 fertigte Robert Plot die erste formelle Beschreibung eines Dinosaurierfossils an, das in der Nähe von Cornwell bei Oxfordshire (England) entdeckt und heute "Megalosaurus" zugeschrieben wird. Obwohl er den großen Knochen zuerst einem Elefanten zuordnete, der mit den Römern nach Britannien gekommen war, erkannte Plot später eine scheinbare Ähnlichkeit mit Menschenknochen und schrieb ihn einem Riesen der biblischen Vorsintflut zu. Einer der ersten, der über diese Gruppe urzeitlicher Riesenreptilien wusste und danach forschte, war der englische Arzt Gideon Mantell. Bereits im Jahre 1822 fand er den ersten fossilen Zahn, den er einige Jahre später und nach weiteren Funden "Iguanodon" nannte. 1824 beschrieb der Amateurpaläontologe William Buckland mit "Megalosaurus" erstmals einen Dinosaurier in einem wissenschaftlichen Journal. Den Begriff Dinosauria prägte jedoch ein anderer, der englische Anatom Richard Owen. Im Jahr 1842 fasste er "Megalosaurus" und "Iguanodon" mit einer weiteren Gattung, "Hylaeosaurus", zu einer Gruppe zusammen, die er Dinosauria nannte. Im Jahr 1858 wurde dann das erste fast vollständige Dinosaurierskelett in Nordamerika entdeckt. Dieser als "Hadrosaurus foulkii" beschriebene Fund aus Haddonfield (New Jersey) zeigte, dass dieser Dinosaurier wohl zweibeinig lief, und revolutionierte damit das öffentliche Bild der Dinosaurier – zuvor stellte man sich Dinosaurier wie "Megalosaurus" als riesige, auf vier Beinen laufende, waranähnliche Wesen vor. Diese Entdeckung löste eine wahre "Dinomanie" (Dinosaurier-Enthusiasmus) in den USA aus. In den Folgejahren begann eine Feindschaft zwischen zwei berühmten Dinosaurierforschern, Edward Drinker Cope und Othniel Charles Marsh, die in den berühmten „Knochenkriegen“ eskalierte. Vielleicht begann der Streit, als Cope scharfe Kritik seitens Marsh erhielt, als er den Schädel des neu entdeckten, seltsamen Meeresreptils "Elasmosaurus" am falschen Ende des Körpers platzierte. Dies war der Beginn von Missgunst und Eifersucht zwischen den beiden Forschern, und ihr Streit endete erst 30 Jahre später im Jahr 1897 nach dem Tod Copes. Jeder der beiden Kontrahenten versuchte mit seinem Team, immer mehr Dinosaurierknochen zu finden als der andere – mit allen Mitteln. Sie zerstörten sich gegenseitig viele Knochenfunde, weitere Knochen fielen dem Dynamit zum Opfer, mit dem damals Knochen freigesprengt wurden. Das Resultat der Rivalität waren 142 neu entdeckte Dinosaurierspezies, wozu Marsh 86 Arten und Cope 56 Arten beitrug. Seitdem werden auf der ganzen Welt Dinosaurierfossilien gefunden: So startete das Berliner Museum für Naturkunde eine große Expedition unter der Leitung von Werner Janensch nach Deutsch-Ostafrika, dem heutigen Tansania, die einzigartige Funde wie "Brachiosaurus" oder "Kentrosaurus" zutage förderte. Weitere wichtige Entdeckungen wurden unter anderem in Südamerika, Madagaskar, Indien, der Mongolei, China und ebenso in Deutschland gemacht. Obwohl Dinosaurier anfangs als lebhafte, agile Tiere galten, wurde dieses Bild durch die Entdeckungen von Marsh und Cope verändert; Dinosaurier wurden zunehmend als dumme, langsame und unbeholfene Kreaturen betrachtet. Einen Sauropoden beschrieb Marsh aufgrund seines im Vergleich zur Körpergröße lächerlich klein erscheinenden Kopfes sogar als "Morosaurus" („dumme Echse“), später hatte sich jedoch Copes Bezeichnung "Camarasaurus" durchgesetzt. Erst seit den 1970er Jahren näherte sich die wissenschaftliche Meinung wieder dem ursprünglichen Bild von lebhaften, aktiven Tieren an, nachdem John Ostrom "Deinonychus" beschrieben hatte und die Idee von einer Warmblütigkeit der Dinosaurier aufkam. Diese Entwicklung löste die Dinosaurier-Renaissance aus, eine bemerkenswerte Zunahme von Aktivitäten innerhalb der Dinosaurierforschung, die bis heute andauert. Derzeit stammen die meisten neuen Funde unter anderem aus China und Südamerika, insbesondere Argentinien. Dinosaurier in der Kultur. a>" von 1854 im Crystal Palace Park, London Breites öffentliches Interesse an Dinosauriern erregte erstmals der Crystal Palace Park in London, wo im Jahr 1853 eine Urlandschaft mit verschiedenen, lebensgroßen Modellen ausgestorbener Tiere modelliert wurde, die noch heute zu bestaunen ist. Der Bildhauer Benjamin Waterhouse Hawkins fertigte, unter Beratung von Owen, vier Dinosauriermodelle an. Die Popularität der Dinosaurier im Crystal Palace Park wurde so groß, dass Hawkins für ein ähnliches Projekt im Central Park in New York engagiert wurde. Eine neue Verwaltung des Parks ließ diesen Plan jedoch fallen, und die halbfertigen Modelle wurden zerstört. Seit Anfang des 19. Jahrhunderts zogen ausgestellte Skelette urzeitlicher Säugetiere eine Vielzahl von Besuchern an. Mit Reiseausstellungen, die durch die USA und Europa zogen, konnte viel Geld eingenommen werden. Daher sollten schon bald nach der Entdeckung vollständiger Dinosaurierskelette diese ausgestellt werden. Im Jahr 1868 wurde Hawkins beauftragt, erstmals Dinosaurier-Skelette ("Hadrosaurus" und "Dryptosaurus") zu montieren und der Öffentlichkeit zu präsentieren. In einem New Yorker Museum gab es einen regelrechten Besucheransturm. In den folgenden Jahrzehnten wurden durch diese neuen Attraktionen in den Museen viele Skelette anderer urtümlicher Tiere in die Museumskeller verbannt, und in Deutschland konnten im Jahr 2006 allenfalls noch Relikte der Ägypter mit der Popularität von Dinosaurierskeletten konkurrieren. Von Beginn des 20. Jahrhunderts an wurde das Motiv Dinosaurier in Literatur und Film wirtschaftlich immer bedeutender und ertragreicher. Eine der ersten und eine der berühmtesten Fantasy-Geschichten ist Arthur Conan Doyles Roman "Die vergessene Welt" („The Lost World“, 1912), die ab 1925 vielfach verfilmt wurde. Wie diese handeln viele andere solcher Geschichten von der Entdeckung eines bis dahin isolierten Gebietes, zum Beispiel im Regenwald oder auf einer Insel, wo Dinosaurier bis in unsere Zeit überlebt haben. In der auch in Deutschland sehr erfolgreichen Zeichentrickserie Familie Feuerstein (1960–1966) gehörten Dinosaurier zum regelmäßigen Inventar. Später entstand eine Reihe von Hollywood-Action-Filmen, in denen die Dinosaurier jedoch, mit Ausnahme einiger, aber nicht aller Darstellungen in Filmen der "Jurassic-Park-" bzw. "Jurassic-World"-Reihe, übertrieben bzw. nicht den wissenschaftlichen Erkenntnissen entsprechend gezeigt werden. So wurden Dinosaurier meist ahistorisch als menschenfressende Ungetüme, oft mit Höhlenmenschen zusammenlebend, dargestellt. Im Jahr 1954 zeigte der preisgekrönte tschechoslowakische Fantasy-Film "Reise in die Urzeit", in dem Kinder auf einem Fluss immer tiefer in die Vergangenheit reisen, erstmals die Urzeittiere in den richtigen Zeitaltern. Neueste Dinosaurierfilme sind oft Dokumentarfilme, zum Beispiel die mit großem Aufwand produzierte BBC-Serie "Dinosaurier – Im Reich der Giganten" (englischer Titel: „Walking with Dinosaurs“), in der versucht wird, Dinosaurier in ihrem Lebensraum darzustellen. Erst durch die moderne und oft aufwändige dreidimensionale Bewegtgrafik (Computer Generated Imagery) ist es glaubhaft möglich, diese Kreaturen lebensecht bildlich darzustellen. Dennoch hat im wissenschaftlichen Bereich die handwerkliche, oftmals kunstfertige und ästhetische Illustration – im englischen Sprachraum wird diese Disziplin manchmal als Paleoart bezeichnet – ihre Bedeutung nicht verloren. Selbst in großen Kinoproduktionen wird heute immer mit Storyboards gearbeitet. Nach dem immensen wirtschaftlichen Erfolg des Films "Jurassic Park", der in der Internet Movie Database 2007 als weltweit neunterfolgreichster Film geführt wird, erobert der "Darsteller Dinosaurier" ebenso die Welt des Computerspiels. Bilder eines (regelmäßig grünhäutig dargestellten) Sauropoden im Stile einer Kinderbuchillustration werden in Leselern-Materialien (Anlauttabellen) als Beispielwort-Bild in der Bedeutung "Dinosaurier" oder "Dino" für den Buchstaben D verwendet, z. B. in einer 2014 in bayerischen Grundschulen verwendeten Ausgabe. Dies impliziert, dass heute der Begriff „Dino(saurier)“ verbunden mit dem Ikon des Sauropoden als Bestandteil des rezeptiven Wortschatzes deutschsprachiger Schulanfänger allgemein vorausgesetzt wird. Dixieland (Jazz). New Orleans Traditional – eine traditionelle Dixieland-Jazz-Band 2005 in New Orleans Die Stilrichtung des Dixieland entwickelte sich in den 1910er-Jahren aus der Nachahmung des New Orleans Jazz durch weiße Musiker und verbreitete sich von New Orleans aus nach Chicago und New York. Stil. Beim Dixieland-Jazz treten im Vergleich zum traditionellen New Orleans Jazz die ursprüngliche Tonbildung, Schleiftöne, expressives Vibrato und der Gesamtausdruck zurück. Die Melodien sind glatter und die Harmonien reiner. Seit Beginn der 1930er Jahre ist Dixieland-Jazz nicht mehr scharf vom New-Orleans-Jazz abzutrennen. Im Laufe der Zeit spielten Musiker unabhängig von ihrer Hautfarbe beide Stilrichtungen. Louis Armstrong zum Beispiel spielte mit seinen "All-Stars" auch Dixieland. Heute gibt es drei Hauptströmungen des Dixieland-Jazz: Den Chicago Style, West Coast Revival und New Orleans Traditional. Die typische Besetzung einer Dixieland-Formation ist eine Melodiegruppe aus Trompete oder Kornett, Klarinette, Posaune mit den drei Hauptstimmen, sowie eine Rhythmusgruppe bestehend aus Schlagzeug, Piano, Kontrabass bzw. Sousaphon oder Tuba sowie Banjo oder Gitarre. Allgemeine Stilmerkmale sind die Kollektivimprovisation, Breaks, die Trompete als Leadinstrument und die Umspielung der Melodie durch Klarinette und Posaune. Die Melodien und Improvisationen sind oft eingängig und in der Regel künstlerisch weniger ambitioniert. Musikalische Merkmale. Der Dixieland-Jazz zeichnet sich besonders durch Kollektivimprovisation bzw. Variantenheterophonie aus, die durch die Melodiegruppe verwirklicht wird. Es handelt sich also beispielsweise um eine Art Ruf- und Antwortfunktion (Call and Response). Die Rhythmusgruppe ist für das „Time Keeping“ – also das Tempo-Halten – verantwortlich. Bestehend aus Basstrommel, Tuba, Kontrabass, Banjo und Klavier übernimmt diese zusätzlich die Aufgabe des Betonens der 1. und 3. Zählzeit. Damit handelt es sich um ein weiteres wichtiges Charakteristikum des Dixieland-Jazz – den „Two Beat“. Die Vorrangstellung bzw. Lead-Position der Trompete ist beim Dixieland-Jazz genauso unbestritten wie beim New-Orleans-Jazz. Als weitere Teile der Melodiegruppe bildet die Posaune dafür eine Art Fundamentstimme, und die Klarinette sorgt für eine harmonische Umspielung des Trompeten-Parts. Um Pausen, wie z. B. Ragtime-Breaks, kümmert sich vorrangig das Klavier. Im Gegensatz zum klassischen New-Orleans-Jazz sind die Melodien des Dixieland-Jazz glatter, die Harmonien reiner und die Technik ist versierter. Die Bestandteile der „Hot-Intonation“, also Dirty Tones (unsauber intonierte Töne), „Off-Pitchness“ (geringfügige Tonhöhenabweichungen), Vibrato, Growling (Tonbrechung durch gleichzeitiges Spielen mehrerer Töne), „Tailgate“ der Zugposaune (glissandoartige, also gleitende Füllparts) und das Slapping des Kontrabasses (Technik zum Erzeugen eines klatschenden Geräusches) treten beim Dixieland eher in den Hintergrund. Gelegentlich lassen sich bei Werken des Dixieland-Jazz Tierstimmenimitationen nachweisen (z. B. bei "Original Dixieland Jass Band": „Barnyard Blues“, 1917). Entstehung. Der Dixieland-Jazz entstand, als weiße Musiker den New Orleans Jazz interpretierten. Als Vater des Dixieland Jazz gilt – weniger wegen der von ihm gespielten Musik als wegen der weißen Musiker in seiner Band, die im frühen Jazz zu Prominenz gelangten – Papa Jack Laine, der mit seiner Street Band musizierend durch die Straßen von New Orleans marschierte. Zu seinen Musikern gehörte Nick LaRocca. Stilbildend und ursächlich für die Verbreitung des neuen Stils waren vor allem die Original Dixieland Jass Band und die New Orleans Rhythm Kings. Etwa Mitte der 1920er-Jahre entwickelte sich aus dem Dixieland-Stil der Chicago Jazz. Ende der 1930er gab es ein Wiederaufleben des Dixieland, als man in der Swing-Ära anfing, sich mit den Ursprüngen des Jazz zu beschäftigen. Bandleader wie Tommy Dorsey oder Bob Crosby bildeten aus den Mitgliedern ihrer Swingorchester Dixielandformationen für Schallplattenaufnahmen (sogenannte „band within a band“). Revival. Nach Europa kam dieser Stil erst nach dem Zweiten Weltkrieg durch Bands wie die von Wilbur De Paris. In den 1950er Jahren kam es zu einem regelrechten "Dixieland-Revival", der einige Titel in die Spitze der Plattenverkäufe brachte. Dixieland wurde hier zum Teil nicht mehr in der ursprünglichen Form gespielt. Vielmehr gingen in diesen Traditional Jazz auch Spielerfahrungen aus dem New Orleans-Stil und aus der Skifflemusik ein. Mit dem Revival verbunden sind Namen wie Chris Barber, Acker Bilk, Ken Colyer, Monty Sunshine oder die Dutch Swing College Band. Dogma 95. Dogma 95 () ist ein von den dänischen Filmregisseuren Lars von Trier, Thomas Vinterberg, Kristian Levring und Søren Kragh-Jacobsen am 13. März 1995 unterzeichnetes Manifest für ihre Produktion von Filmen. Geschichte. Vor dem Dogma 95 gab es frühere Aktionen zur Erneuerung des Films, nämlich in den 1950er Jahren die aus Frankreich stammende Nouvelle Vague sowie das Oberhausener Manifest, das 1962 veröffentlicht wurde. Dogma 95 wurde am 20. März 1995 unter großem Aufsehen der Medien bei einer Konferenz im Pariser Odeon-Theater anlässlich des 100. Geburtstags des Films vorgestellt. Im Jahr 1998 präsentierten Thomas Vinterberg und Lars von Trier mit "Das Fest" und "Idioten" auf den Filmfestspielen in Cannes die ersten nach dem Dogma 95 entstandenen Filme. Am 20. März 2005 − zehn Jahre nach der Präsentation in Paris − entschieden die vier maßgeblich beteiligten Regisseure, die Idee teilweise fallen zu lassen. Jedem Produzenten steht es somit frei, zu entscheiden, ob sein Film den im Internet veröffentlichten Dogma-95-Kriterien entspricht. 2008 wurde die Bewegung um von Trier, Vinterberg, Levring und Kragh-Jacobsen mit dem Europäischen Filmpreis in der Kategorie "Beste europäische Leistung im Weltkino" bedacht. Anforderungen. Das Manifest Dogma 95 richtet sich insbesondere gegen die zunehmende Wirklichkeitsentfremdung des Kinos und verbannt Effekte und technische Raffinessen, Illusion und dramaturgische Vorhersehbarkeit. Dogma 95 sieht sich auch als Gegenbewegung zur Auteur-Theorie, die zwar – so die Dogma-Initiatoren – ursprünglich (Anfang der 1960er Jahre) denselben Missständen entgegentrat, letztendlich aber innerhalb des Systems verhaftet blieb und daher scheiterte. Die meisten Dogma-Filme verstoßen jedoch gegen eine oder mehrere Regeln, was dann oft ironisch reumütig im Abspann erwähnt wird. Dollar. Dollar ist der Name verschiedener Währungen. Die gegenwärtig wichtigste Dollarwährung ist der Dollar der Vereinigten Staaten, der die weltweit wichtigste Leitwährung ist. Namensherkunft und Entstehung. Das Wort "Dollar" leitet sich ursprünglich aus dem niederdeutschen Wort "Daler" ab, das der alten deutschsprachigen Münzbezeichnung "Taler" (vom böhmischen Joachimsthaler Guldengroschen – Silbermünze im Wert eines Guldens) entspricht. Der Name "Dolaro" oder "Dolares" tauchte zum ersten Male unter Kaiser Karl V. zur Unterscheidung der umlaufenden verschlechterten 8-Reales-Stücke (Peso) gegen die im Silbergehalt vollwertigen Stücke auf. Der Name "Dolaro" entstand in Anlehnung an den holländischen "Daalder" (Taler), als die Niederlande unter spanischer Besatzung standen. Erste offizielle "Dolaros" ließ dann König Philipp II. von Spanien ab 1575 in Potosí (heute Bolivien) prägen. Sie waren gleichgewichtig mit den holländischen "Phillipusdaaldern" und wurden häufig von englischen Freibeutern (Kaperschiffen) erbeutet. Dadurch kamen sie in die britischen Nordamerikakolonien und wurden so ein begehrtes (Ersatz-)Zahlungsmittel mangels ausreichender englischer Zahlungsmittel (Silver-Crowns). Erste "Dollars" ließ dann Königin Elisabeth I. von England offiziell ab 1600 prägen und diese dann über die britische East India Company in ihren Kolonien verbreiten. Gleichzeitig war noch eine 10-Dollar-Goldmünze zu 24,7 grains fein vorgesehen, was einem Gold/Silber-Wertverhältnis von 1:15 entsprach. Jeder Bürger konnte fortan auch Gold- und Silbermünzen nach diesen gesetzlichen Münzfüßen – bei einer entsprechenden Edelmetallanlieferung – privat ausmünzen und sich so sein Geld mit staatlichem Münzbild „herstellen“ lassen. Sprachlich verwandt ist auch die ehemalige Währung Tolar des Staates Slowenien (1991–2007). Dollarzeichen. Dollarzeichen mit einem Strich, kann aber auch mit zwei Strichen (ursprüngliche Version) abgebildet werden Das Währungssymbol für den Dollar ist das „Dollarzeichen“ $, es taucht spätestens in den 1770er Jahren zunächst in Handschriften im Geschäftsverkehr zwischen Mexiko und den britischen Kolonien Nordamerikas zur Kennzeichnung der spanischen Währung auf. Die Herkunft lässt sich nicht eindeutig belegen, es ist aber wahrscheinlich, dass es sich im Laufe der Zeit aus der handschriftlichen Abkürzung Ps für Peso(s) oder Piaster (ursprünglich Gewichtsmaße) entwickelt hat. Das Dollarzeichen wird als großes S mit früher zwei senkrechten Strichen, heute oft mit nur einem senkrechten Strich dargestellt. Oft wird das Zeichen auch als Symbol für die „Säulen des Herakles“ (die zwei senkrechten Striche) gesehen, die den (spanischen) Anspruch auf überseeische Herrschaft symbolisieren. Die geschwungene S-Linie wäre in diesem Fall ein stilisiertes „Spruchband“. Das Spruchband war ursprünglich auf den 8-Reales-Stücken des 16./17. Jahrhunderts als Bestandteil des spanischen Wappens aufgeprägt und gehört noch heute zum Wappen Spaniens. Entgegen weitverbreiteter Ansicht entstand das „Dollarzeichen“ nicht durch Überlagerung der Buchstaben „U“ und „S“ zu „$“. Domitian. Titus Flavius Domitianus (* 24. Oktober 51 in Rom; † 18. September 96 ebenda), meist kurz Domitian genannt, war römischer Kaiser von 81 bis 96. Als Nachfolger seines Vaters Vespasian und seines Bruders Titus war er der dritte und letzte Herrscher aus dem Geschlecht der Flavier. Domitian wurde in der traditionell von Senatoren verfassten Geschichtsschreibung als schlechter Princeps und Tyrann "(pessimus princeps)" dargestellt, da er dem Senat nicht den gewünschten Respekt entgegenbrachte und Entscheidungen traf, ohne ihn zu konsultieren. Nach seinem Tod sollte seine Selbstdarstellung als Kaiser offiziell ausgelöscht werden. Erst die moderne Forschung ab Ende des 20. Jahrhunderts revidierte das Domitianbild. Seine militärischen Erfolge in Germanien und Pannonien sowie seine Finanz- und Provinzpolitik lassen ihn als fähigen Herrscher erscheinen. Zugleich bleiben seine Persönlichkeit und Herrschaftsauffassung in Teilen unerklärlich. Leben bis zur Übernahme der Herrschaft. Domitian wurde am 24. Oktober 51 in Rom als zweiter Sohn des Senators Titus Flavius Vespasianus, des späteren Kaisers, geboren. Über seine Jugend ist wenig bekannt. Laut Sueton verbrachte er sie unter ärmlichen Umständen, was jedoch nicht den Tatsachen entsprochen haben dürfte. Als Sohn einer senatorischen Familie, die neben finanziellen Mitteln auch Ansehen und Einfluss hatte, dürfte Domitian standesgemäß erzogen worden sein. Als Vespasian im Vierkaiserjahr 69 zum Kaiser ausgerufen wurde, konnte Domitian, im Gegensatz zu seinem Onkel Titus Flavius Sabinus, der Verfolgung durch die Anhänger des Vitellius entkommen und war nach dem Sieg der Flavier zusammen mit Gaius Licinius Mucianus der politische Statthalter des neuen Kaisers in Rom. In den folgenden Jahren wurde Domitian von seinem Vater zwar nicht bewusst zurückgesetzt, spielte aber neben seinem als Mitherrscher und Nachfolger herausgestellten Bruder Titus nur eine nachgeordnete Rolle und wurde nicht auf die Rolle des Princeps vorbereitet. Er erhielt den Titel Caesar, wurde fünfmal Suffektkonsul und bekleidete einmal, im Jahr 73, ein ordentliches Konsulat. Damit war er bis zu Titus’ Herrschaftsantritt insgesamt einmal weniger Konsul als sein Bruder, zweimal weniger als sein Vater. Als Titus im Jahr 79 Vespasians Nachfolge antrat, machte er seinen Bruder zum Kollegen im ordentlichen Konsulat des Jahres 80, verlieh ihm jedoch nicht die "tribunicia potestas", die er selbst während der Herrschaft Vespasians erhalten hatte. Regierungsantritt. Antike Autoren hielten es für möglich, dass Domitian den Tod seines Bruders Titus am 13. September 81 herbeigeführt hatte, doch erlauben die widersprüchlichen Quellen keine eindeutige Beurteilung. Am selben Tag riefen die Prätorianer Domitian zum "Imperator" aus, er versprach ihnen ein Donativum. Am 14. September trat er die Nachfolge als Kaiser an. Der Senat verlieh ihm die Titel "Imperator", "pater patriae", "pontifex maximus", "Augustus" sowie die "tribunicia potestas" und erkannte damit den Herrschaftsübergang an. Domitian bemühte sich um personelle und legislative Kontinuität. Der Freundeskreis "(amici)" des Kaisers hatte weitgehend die gleiche Zusammensetzung wie unter Vespasian und Titus, seine Sachentscheidungen knüpften sowohl an die der julisch-claudischen Dynastie als auch an die seines Vaters und Bruders an. Domitian erwies sich damit am Anfang seiner Regierungszeit auch in den Augen des Senats als fähiger Regierungschef. Er bekämpfte energisch die Korruption, steigerte die Effizienz der Verwaltung und brachte die Staatsfinanzen in Ordnung. Unter den zahlreichen von Domitian verwirklichten Bauvorhaben sind besonders das monumentale Stadion auf dem Marsfeld, der Titusbogen, das Forum Transitorium und sein überlebensgroßes Reiterstandbild "(Equus Domitiani)" auf dem Forum Romanum zu erwähnen. Verhältnis zum Senat. Den Senat brachte Domitian nicht lange nach seinem Herrschaftsantritt gegen sich auf, weil er ihn kaum noch zu Rate zog und sich angeblich von seinem Umfeld als "dominus et deus" („Herr und Gott“) anreden ließ. Nicht anders als seine Vorgänger auch, richtete Domitian ein "consilium principis" ein, eine Art informellen Kronrat. Allerdings nahmen an diesem Rat auch Ritter teil, was den Senat teils brüskierte, insbesondere dann, wenn der Kaiser von den besten Männern aus beiden Ständen sprach, die sich um ihn versammelt hätten. Darüber hinaus gerieten die wenigen Treffen des "consilium" in der Villa des Princeps in den Albaner Bergen – und nicht in Rom – in den Ruf der Heimlichtuerei und der bewussten Abgrenzung. Wie vermutlich unter Tiberius auch, setzte Domitian einen ehemaligen Quästor ein, der sich um die Belange des Senats kümmern und diesen betreuen sollte. Ähnlich wie vor ihm Caligula und nach ihm Commodus brach Domitian damit die Spielregeln des Prinzipats, denen zufolge der Kaiser zwar faktisch alle Macht in Händen hielt, nach außen aber die Rolle von Volk und Senat in Ehren zu halten hatte. Domitian scheint diese seit Augustus übliche Fassade zumindest in der zweiten Hälfte seiner Regierung immer weniger gepflegt zu haben und brüskierte durch die Offenlegung der tatsächlichen Machtverhältnisse den Senat immer mehr. 85 übernahm er schließlich noch das Amt des Zensors auf Lebenszeit und damit das Recht, Senatoren zu ernennen und zu entlassen. Als einziger Kaiser führte Domitian offiziell den Titel eines "censor perpetuus". Allerdings nahm Domitian für sich nicht in Anspruch, selbst ein Gott zu sein, und er forderte für sich selbst keine göttliche Verehrung, vielmehr sah er sich unter göttlichem Schutz stehend. Domitians autokratische Herrschaft führte zum Widerstand senatorischer Kreise sowie einiger Philosophen, die gegen den Prinzipat Stellung bezogen. Die Feindseligkeit dieser Kreise, die in den Plinius-Briefen bezeugt ist, trug entscheidend dazu bei, das Bild Domitians nach seinem Tod zu verdunkeln. Heute gehen daher die meisten Althistoriker davon aus, der Kaiser sei in der Innen- und Außenpolitik weitaus erfolgreicher gewesen, als es die Quellen suggerieren. Die Forschung sieht Domitians Umgang mit dem Senat differenzierter. Er wählte Amtsinhaber, insbesondere militärische, nach ihrer Fähigkeit aus und nicht nach ihrer Ahnenliste. Dies wirkte sich unmittelbar auf die Aufstiegsmöglichkeiten der senatorischen Elite aus. Domitian entschied sich auch für Kommandanten aus dem Ritterstand, wie zum Beispiel Iulius Ursus oder Cornelius Fuscus, während er patrizische Legaten abberief oder nicht wie erwartet beförderte. Dennoch suchte der Princeps die Unterstützung des Senats und hinderte fähige Senatoren nicht an ihrer Karriere. Als die Chatten im Winter 88/89 n. Chr. den obergermanischen Statthalter Lucius Antonius Saturninus gegen Domitian unterstützen wollten, reagierte Domitian nach Niederschlagung der Revolte auf dieses Angebot mit einem Kriegszug gegen sie. Es ist bezeichnend, dass die Revolte sehr rasch zusammenbrach, was dafür spricht, dass der Kaiser auch weiterhin die Unterstützung der Armee und ihrer Kommandeure besaß. Mehrere Senatoren ließ Domitian hinrichten, andere schickte er in die Verbannung und beschlagnahmte ihr Eigentum. In den meisten Fällen war die Begründung für die Maßnahmen entweder Anstiftung zum Umsturz oder Beleidigung des Herrschers und des Herrscherhauses. Die durchweg summarische Beschreibung des „Terrors“ von Domitian gerade bei Sueton deutet auf eine Vielzahl von Ermordungen und Exilierungen hin, allerdings werden nur 14 Senatoren namentlich genannt. Für Claudius hingegen sind 35 Hinrichtungen von Senatoren und über 300 von Rittern überliefert. Wie alle römischen Kaiser förderte Domitian Kunst und Künstler und war unter anderem Mäzen der Dichter Statius und Martial. Aktivitäten in Germanien. Unter Domitian begann die Phase einer erneuten römischen Expansion rechts des Rheins im Bereich der obergermanischen Heeresgruppe. Als ein Krieg in Germanien unausweichlich schien, entschied der Kaiser nach einer Ratssitzung, unter dem Vorwand eines Zensus in Gallien im Jahre 83 über den Rhein zu marschieren. Vermutlich im Frühjahr 83 begann der Krieg gegen die Chatten, dessen Ziel die Schwächung der Chatten als letztem größeren Unruheherd in Rheinnähe war. Domitian stieß tief bis in das chattische Kernland vor, also weit ins heutige Hessen. Im Herbst wurde der Kriegszug in Germanien gegen die Chatten zu einem erfolgreichen Abschluss gebracht. Dabei gelang die Unterwerfung des Gebiets zwischen Taunus, Lahn und Main (Wetterau). Domitian begann schließlich mit der Errichtung des Limes, des römischen Grenzwalles zwischen Rhein und Donau. Außerdem nahm Domitian zwischen Juni und August 83 den Siegerbeinamen "Germanicus" an. Dies war das erste Mal, dass ein Prinzeps diesen nicht vererbt bekommen hatte, sondern durch eigene militärische Leistungen für sich beanspruchte. Am Ende des Jahres 83 feierte er den Triumph in Rom und bekam weitere Ehrungen durch den Senat verliehen. Hierzu zählen vor allem, vor dem Senat im Triumphgewand erscheinen zu dürfen und von 24 Liktoren begleitet zu werden. Außerdem wurde der Oktober in "Domitianus" umbenannt. Nach einem erneuten Chattenkrieg im Jahre 85 gelang es Domitian, den Erfolg im Chattenland durch die Einrichtung der Taunuskastelle und Dislozierung von Truppen zu festigen; die Bereiche des ober- und niedergermanischen Heeres wurden in zwei ordentliche Provinzen umgewandelt. Der Chattenkrieg stellte für längere Zeit die letzte große militärische Machtdemonstration im rechtsrheinischen Germanien dar. Manches spricht dafür, dass die Domitian feindlich gesinnte Überlieferung den Erfolg dieser Operationen kleinredet; tatsächlich blieb die Grenze zum freien Germanien in der Folgezeit fast 100 Jahre lang weitgehend friedlich. Es gibt keine Anzeichen dafür, dass Domitian seine Ziele in diesem Raum nicht erreicht hat. Domitian erklärte so das seit Augustus ungelöste Germanienproblem durch die offizielle Gründung der beiden Provinzen "Germania superior" („Obergermanien“) und "Germania inferior" („Niedergermanien“) für beendet. Noch im Jahre 82 war in offiziellen Dokumenten nur von der "Germania" die Rede gewesen. Kurz darauf tauchen die ersten Inschriften auf, die von "duae Germaniae" sprechen. Tilmann Bechert nimmt daher an, dass "Germania inferior" etwa in den Jahren 83/84 seine "lex provinciae" erhalten hat, die alle Fragen der Gerichtsbarkeit, Steuergesetzgebung und Verwaltung in der Provinz gesetzlich und endgültig regelte. Anhand von Militärdiplomen scheint die offizielle Einrichtung der beiden Provinzen hingegen auf die Zeit zwischen 82 und 90 datierbar zu sein. Die exakte Amtsbezeichnung des niedergermanischen Statthalters lautete jetzt: "legatus Augusti pro praetore Germaniae inferioris" (vorher: "legatus Augusti pro praetore exercitus Germanici inferioris"). Seit dem Ende der 80er Jahre wurden aus den Legaten der germanischen Heere konsularische Statthalter der beiden schmalen Grenzprovinzen Ober- und Niedergermanien. Im Rang und in ihrer Laufbahn standen sie etwa zwischen den Statthaltern der beiden moesischen und denen der großen, mit drei Legionen besetzten Provinzen wie Britannien, wohin der militärische und politische Aufstieg die Statthalter der germanischen Provinzen häufig führte. Zensus und Finanzverwaltung und damit das gesamte Steuerwesen unterstanden weiterhin dem Prokurator von Gallien (Sitz: Augusta Treverorum). Die Hauptstädte der beiden Provinzen und Sitze der Statthalter blieben in Colonia Claudia Ara Agrippinensium (Köln) und Mogontiacum (Mainz), wo sich das Oberkommando der beiden Heere befunden hatte. Domitian und seine Berater hatten schnell erkannt, dass der Wert der vertraglichen Beziehungen zu den germanischen Stammeseliten bei ausreichender Stärke der römischen Grenztruppen nicht hoch einzustufen war. Ein aktives Eingreifen in innergermanische Konflikte im Sinne einer Schutzmacht stand nie zur Diskussion. Als die Cherusker ein Jahr nach dem Chattenkrieg Domitians von diesen bedrängt Rom um Hilfe baten, erhielten sie keine militärische, sondern finanzielle Unterstützung. Danach fanden nahezu keine erkennbaren diplomatischen Aktivitäten jenseits des Limes statt. In der außen- und militärpolitischen Praxis könnte Tiberius ein Vorbild für Domitian gewesen sein. Dieser setzte die Politik, die ihm in Senatskreisen größte Vorwürfe einbrachte, fort: Er führte nur dann Kriege, wenn sie unumgänglich waren, und verstärkte ansonsten die Grenzsicherung. Domitian wollte, wie sein Vater und sein Bruder, militärische Erfolge vorweisen. Daker- und Pannonische Kriege. Die Feldzüge gegen die Chatten brachten reiche Beute ein und führten zu kleineren Gebietsgewinnen für die Römer; sie mussten abgebrochen werden, da die Legionen an der Donau benötigt wurden. Mitte 85 drangen starke dakische Kriegerverbände des Stammesfürsten Diurpaneus von Nordosten in die römische Provinz Moesien ein und trafen die Römer völlig unvorbereitet. Der Statthalter Gaius Oppius Sabinus fiel während der gescheiterten Abwehrkämpfe, die Daker plünderten und brandschatzten viele Siedlungen und Kastelle. Der Kaiser ordnete eine Verlegung von Legionen aus allen Teilen des Reiches an und begab sich selbst mit seinen Prätorianern unter dem Befehl von Cornelius Fuscus an die moesische Front. Auf dem Marsch von Rom aus verstärkte Domitian seine Truppen aus Pannonien und Dalmatien. Das Oberkommando führte der Kaiser, den Oberbefehl erhielt Fuscus, ihm beigeordnet waren die Legaten Marcus Cornelius Nigrinus Curiatius Maternus und Lucius Funisulanus Vettonianus. Mit zwei erfolgreichen Expeditionen konnte Diurpaneus über die Donau zurückgetrieben werden, Domitian erhielt drei imperatorische Akklamationen und kehrte nach Rom zurück, wo er seinen ersten Dakertriumph feierte. Fuscus blieb als Oberbefehlshaber in Moesien, reorganisierte die Provinz und das Heer und bereitete den Rachefeldzug gegen die Daker vor. Mitte 86 überschritt er die Donau, stellte Diurpaneus und verlor in der ersten Schlacht, die ihn das Leben kostete, fast die gesamte Expeditionsarmee. Diese zweite Niederlage innerhalb kurzer Zeit hätte Domitian neben dem außenpolitischen Schaden auch innenpolitisch in Bedrängnis bringen können, sodass er erneut nach Moesien aufbrach und Truppen verlegte. Eine Konsequenz der Verlegung war die Aufgabe und Schleifung des schottischen Kastells Inchtuthil und damit die Beschränkung des römischen Gebietes auf die Gebiete südlich des Forth-Clyde-Kanals. Bis Ende 86 schlug Cornelius Nigrinus als neuer Oberbefehlshaber mindestens zwei erfolgreiche Schlachten gegen die Daker und in erster Linie Diurpaneus. Im Spätherbst 86 kehrte Domitian nach Rom zurück und verzichtete auf einen Triumph. Nach dem Ausfall von Diurpaneus wurde Decebalus zum Führer der dakischen Stämme. Bisher hatte er sich neutral verhalten und dem Kaiser bei beiden Aufenthalten in Moesien seine Neutralität versichert und vermutlich ein Bündnis angeboten. Nun verband er sich mit den in der Walachei sitzenden sarmatischen Panzerreitern der Roxolanen. Domitian reagierte mit Truppenverlegungen und Reorganisation. Die schon im Herbst 86 durchgeführte Trennung der römischen Provinz in "Moesia superior" (Obermösien) und "Moesia inferior" (Niedermösien) zeugt davon, dass der Kaiser eine systematische Befriedung der Daker plante, die er nun umsetzte. Während Cornelius Nigrinus in "Moesia Inferior" die Ordnung hielt und die römische Position ausbaute, griff Lucius Tettius Iulianus von "Moesia superior" aus im Jahr 88 Sarmizegetusa, das dakischen Machtzentrum in den Westkarpaten, an. Nach Verlusten mussten die Römer sich zurückziehen und überwinterten in Obermoesien. Nach der Schlacht von Tapae, die für Decebalus mit einer Niederlage endete, bot dieser Domitian einen Friedensschluss an, den der Kaiser aber ablehnte. Stattdessen sollten die Legionen von Mainz und Britannien aus verstärkt werden, was sich aufgrund des Saturninusaufstandes verzögerte. Im Sommer 89 startete die zweite Strafexpedition gegen Decebalus und Sarmizegetusa, die sich zuerst gegen die Markomannen richtete, deren Bündnisangebot Domitian abgelehnt hatte. Der Widerstand war jedoch so groß, dass die Römer sich über die Donau zurückziehen mussten. Als Folge des Angriffs und der römischen Niederlage traten die Quaden und Jazygen in den Krieg ein und bildeten eine bedrohliche pannonische Allianz gegen die Römer. Der Kaiser änderte nach Beratungen seine Strategie: Er nahm Friedensverhandlungen mit Decebalus auf. Der Dakerkönig unterwarf sich Rom, Domitian selbst reiste in das dakische Hinterland, wo der Bruder des Königs, Diegis, zum römischen Klientelfürsten gekrönt wurde. Decebalus erhielt zivile und militärische Unterstützung sowie Subsidienzahlungen, die wirtschaftlichen Beziehungen prosperierten in der Folgezeit. Die nicht unüblichen Zahlungen an die Daker waren einer der Gründe für den Feldzug Trajans gegen die Daker. Domitian erhielt drei imperatorische Akklamationen und feierte bei seiner Rückkehr im Herbst 89 einen Triumph. Im Jahr 92 war Domitian erneut an der östlichen Donaufront, um die Einfälle der sarmatischen Jazygen niederzuschlagen, die zuvor bei Brigetio die Legio XXI Rapax vernichtet hatten. Dieser Sarmatenkrieg wurde anschließend von dem Dichter Arruntius Stella verherrlicht. Britannien. In Britannien gelang es Domitian mit Hilfe des Statthalters Gnaeus Iulius Agricola, dem Schwiegervater des Geschichtsschreibers Tacitus, den römischen Machtbereich bis zur Grenze des schottischen Hochlandes zu erweitern. Im Jahr 83 oder 84 überschritt Agricola auf Anweisung des Kaisers den Firth of Clyde, um die schottischen Gebiete endgültig zu befrieden. Die Gegenwehr der Kaledonen unter ihrem Führer Calgacus war massiv, sodass Agricola sieben Feldzüge führen musste. Die letzte Schlacht fand am "mons Graupius" statt, die Kaledonen flohen und Rom stand der Weg nach Norden offen. Ein römischer Flottenverband umsegelte Schottland und nahm die Unterwerfung der Orkneyinseln entgegen. Kurz nach den Erfolgen in Britannien ließ Domitian die Truppen verlegen. Agricolas erzwungenen Abzug und die damit verbundene Aufgabe Schottlands und Konsolidierung des römischen Machtbereichs begründet Tacitus mit dem Neid und schlechten Wesen Domitians. Tatsächlich hatte der Kaiser aufgrund der Lage in Pannonien gute Gründe, diese Front stillzulegen und die Legionen zu verlegen, er ließ Agricola vom Senat mit Triumphinsignien und einer Statue ehren. Bis 86 wurde das gerade erst aufgebaute Fort Inchtuthil geschleift, die Truppen zogen sich in die Nähe des späteren Hadrianswalls zurück. Agricolas Nachfolger als Legat in Britannien wurde Sallustius Lucullus, den Domitian vermutlich 96 hinrichten ließ. Der Rückzug sicherte die schottische Front und sorgte für Ruhe im Norden; unter Trajan wurde die Grenzlinie noch weiter nach Süden gelegt. Tod. Die Ermordung Domitians geschah aus dem inneren Kreis am Hof und aus persönlichen Motiven heraus. Begründet wird sie damit, dass der Kaiser zunehmend misstrauisch wurde, Verschwörungen gegen sich fürchtete und entsprechend brutal agierte. Unter anderem wird angeführt, dass er seinen Cousin Titus Flavius Sabinus, den Mann seiner Nichte Iulia, der Tochter des Titus, aus ebenso marginalen Gründen hinrichten ließ wie seinen Vetter Clemens, den Vater der designierten Thronerben Vespasian und Domitian. Das auslösende Moment für die Verschwörer soll die Ermordung von Epaphroditos gewesen sein, die die engsten Mitarbeiter Domitians auch um ihr Leben fürchten ließ. Umstritten ist, wer genau zur Gruppe dazugehörte und wer eingeweiht war. Fest steht, dass Stephanus, der Prokurator von Domitians Nichte Domitilla, sowie Maximus, ein Freigelassener von Domitians Kammerdiener Parthenios, die Tat ausführten; Stephanus drohte eine Anklage wegen Unterschlagung. Die weitere Besetzung differiert, es sollen rangniedrige Soldaten, weitere Freigelassene und Kammerdiener sowie Gladiatoren beteiligt gewesen sein. Ob Domitians Frau Domitia Longina treibende Kraft war, ob Nerva zumindest Kenntnis hatte und ob die Prätorianerpräfekten die Verschwörung billigten, lässt sich nicht sagen. Domitian wurde schließlich am 18. September 96 in seinem Palast in Rom „hinterlistig ermordet“. Ausgeführt wurde die Tat von Stephanus, der einige Tage zuvor bereits einen Arm verbunden hatte und eine Verletzung vortäuschte, um in den Binden einen Dolch zu verstecken. Der Kaiser starb unter starker Gegenwehr, die Täter wurden noch vor Ort von den Wachen getötet. Domitians vollständige Titulatur zum Zeitpunkt seines Todes lautete "Imperator Caesar Domitianus Augustus Germanicus, Pontifex maximus, Tribuniciae potestatis XVI, Imperator XXIII, Consul XVII, Pater patriae". Der Senat billigte die Tat, das Andenken Domitians fiel der "damnatio memoriae" anheim. Die Dynastie der Flavier endete mit ihm. Sein Nachfolger wurde der langjährige Senator Nerva. Er war als Übergangskandidat zum einen aus dem flavischen Kreis und so für die Prätorianer und besonders den Senat tragbar, zum anderen war von ihm als kinderlosem, älteren Mann keine lange Regierungszeit zu erwarten. Seine Position war jedoch gefährdet, da Domitian bei Armee und Volk sehr beliebt gewesen war. Antike Autoren. Die beiden wichtigsten überlieferten Historiker der frühen römischen Kaiserzeit, Tacitus und Sueton, schrieben ihre Werke in Erinnerung an die von ihnen dargestellte Gewaltherrschaft des Kaisers (in der Forschung manchmal „Domitianerlebnis“ genannt) sowie in der Regierungszeit der Adoptivkaiser, die Domitian als Negativfolie ihrer eigenen Politik sahen. Dementsprechend ist das überlieferte Domitianbild sehr negativ. Zwar beschreibt insbesondere Sueton die Regierungsarbeit des Kaisers zum größten Teil positiv, wirft ihm jedoch Verschwendung, Missbrauch der Staatsgelder und Rechtsbeugung vor und zeichnet insgesamt das Bild eines grausamen Herrschers mit äußerst schlechtem Charakter. Hinsichtlich des Werkes von Tacitus lässt sich dies freilich nicht mehr sicher sagen, da die Teile seiner "Historien", welche die Regierungsjahre des Domitian behandelten, nicht erhalten sind. Aufgrund von Beschreibungen des jungen Domitian, Anspielungen in früheren Büchern sowie Selbstaussagen des Autors kann jedoch geschlossen werden, dass Tacitus Domitian ähnlich ungünstig beschrieb wie Sueton. Plinius der Jüngere beschrieb Domitian in seinem Panegyrikus an Nervas berühmten Nachfolger Trajan ebenfalls mit den Eigenschaften eines Tyrannen. Die Christen wurden regional zurückgedrängt, so in Rom und Kleinasien. In diesem Zusammenhang entstand die ursprünglich an sieben Gemeinden in Kleinasien gerichtete "Offenbarung des Johannes" (auch: "Apokalypse"). Die christlichen Autoren des 2. und 3. Jahrhunderts schildern Domitian als grausamen Christenverfolger. Tertullian, Eusebius von Caesarea und Laktanz nennen ihn in einer Reihe mit Nero. Bei Tertullian wird er als „halber Nero“ bezeichnet, für Eusebius ist er der zweite Christenverfolger, Laktanz reiht ihn direkt nach Nero und vor andere berühmte Verfolger wie Decius oder Diokletian ein. Obwohl keine systematische Christenverfolgung unter Domitian stattfand, hat insbesondere die christliche Historiografie das Domitianbild nachhaltig negativ geprägt. Auch spätere antike Geschichtsschreiber wie Jordanes gehen knapp auf Domitian ein. Noch Prokopios von Caesarea schildert ihn um 550 als Tyrannen und behauptet, die Römer hätten derart unter ihm gelitten, dass sie seinen Körper nach seiner Ermordung in kleine Stücke zerhackt hätten. Die 4. Satire Juvenals, auch als „Fischsatire“ bekannt, gibt eine parodistische Schilderung einer Consiliumssitzung unter Domitian: Der Kaiser wird darin als grausamer Tyrann geschildert, der Rom „ungestraft und ohne Richter“ die besten Geister geraubt habe. Dieses alte Domitianbild wird auch in zahlreichen historischen Romanen verarbeitet, so zum Beispiel in Kate Quinns "Die Hure des Kaisers" (2009). Moderne Forschung. Mit der ersten modernen Domitianbiografie legte Stéphane Gsell Ende des 19. Jahrhunderts für lange Jahre das Domitianbild fest. Den Quellen folgend, sah er den Kaiser als einen hochmütigen Menschen, der eine absolutistische Regierung durchsetzen und den Senat völlig entmachten wollte. Ähnlich urteilte Alfred von Domaszewski; er sprach von Verachtung, Anmaßung und Autokratie als einzigen Elementen der Regierungszeit. Die Darstellung Domitians als "pessimus princeps" korrelierte insbesondere mit dem positiven Bild Trajans als "optimus princeps". Die Kritiker des negativen Domitianbildes setzten bei Tacitus und Plinius an und stellten die Leistungen des Kaisers heraus, ohne das Gesamtbild aufgrund der Domitian zugeschriebenen schlechten Eigenschaften revidieren zu können. Seit den 1960er Jahren begann die Forschung, das Domitianbild zu revidieren. Rainald Goetz (1978) und Brian Jones (1979) näherten sich dem Kaiser prosopographisch mit einer Untersuchung seiner Unterstützer und Gegner an. Ihr Urteil ist, dass Domitian als Person schwierig gewesen sein kann, seine Herrschaft komplex und vieles unerklärlich sei. Insgesamt sehen sie seine Regierungszeit als positiv an und die Schwierigkeiten in der Missachtung des Senats. In den 1990er Jahren versuchten Christian Witschel und Pat Southern, den Kaiser psychologisch zu deuten, und sahen ihn als Opfer seines Ehrgeizes, seiner Kindheit und Jugend oder seiner Zurücksetzung hinter Titus. Die neueste Einführung zur Zeit der Flavier von Stefan Pfeiffer aus dem Jahr 2009 lehnt die psychologisierenden Ansätze ab. Pfeiffer kategorisiert, ähnlich wie Jones, Domitian als fähigen Herrscher und Verwalter und sieht die Gründe für sein Scheitern im Verhältnis zum Senat und dessen deutlichen Ausschluss an der politischen Teilhabe. Christiana Urner, die in ihrer Dissertation die Quellenlage und die Forschungsliteratur bis 1989 untersucht, enthält sich weitgehend einer Beurteilung des Kaisers. Sie stellt fest, dass Informationen, die für Domitian und seine Herrschaft sprechen, weit weniger berücksichtigt wurden als die, die gegen ihn sprechen. Sie folgert daraus, dass das Domitianbild einem Wandel vom Tyrannen hin zum umsichtigen Staatsmann unterläge. Anhand der Kriegsführung an der Donau kommt Karl Strobel zu einem ähnlichen Ergebnis. Er sieht Domitian als erfolgreichsten Feldherrn nach Augustus, zugleich deutet er die Niederlagen in den Dakerkriegen als Auslöser für das Zerwürfnis mit dem Senat und schwindende Legitimation. In seiner Trajan-Biografie aus dem Jahr 2010 baut Strobel diese Sichtweise weiter aus. Ein Unterkapitel behandelt die Frage nach Domitians Leistungen und Herrschaftsausübung. Strobel betont, dass Domitian ein klares und systematisches Konzept seiner Herrschaft gehabt habe, in dem sich autokratische und hellenistische Elemente wiederfinden ließen; die Abwertung seiner Herrschaft als "pessimus princeps" resultiere in erster Linie aus der Inszenierung und Aufwertung Trajans als "optimus princeps". Digitale Revolution. Der Begriff Digitale Revolution (auch Elektronische Revolution) bezeichnet den durch die Digitalisierung und Computer ausgelösten Umbruch, der seit Ausgang des 20. Jahrhunderts einen Wandel sowohl der Technik als auch (fast) aller Lebensbereiche bewirkt, ähnlich wie die Industrielle Revolution 200 Jahre zuvor. Heinrich Klotz spricht von einer „Zweiten Moderne“. Verlauf und Trend. Es wird angenommen, dass es der Menschheit im Jahr 2002 das erste Mal möglich war, mehr Informationen digital als im Analogformat zu speichern, was deshalb als der Beginn des „Digitalen Zeitalters“ gesehen werden kann. Die fast vollständige Digitalisierung der weltweit gespeicherten Informationsmenge vollzog sich in weniger als 10 Jahren, während des Jahrzehnts um die Millenniumswende. Es wird geschätzt, dass im Jahr 1993 lediglich 3 % der weltweiten Informationsspeicherkapazität digital war, während es 2007 bereits 94 % war. Die weltweite Telekommunikationskapazität (bidirektionaler Informationsaustausch) war bereits 1986 zu 20 %, 1993 zu zwei Dritteln (68 %), und im Jahr 2000 zu 98 % digitalisiert. Die globale Broadcast und Rundfunkkapazität hingegen (unidirektionale Informationsübermittlung), hinkt deutlich hinterher. Im Jahre 2007 waren erst 25 % digital. Die Digitalisierung von Informations- und Kommunikationsprozessen hat zu einer Informationsexplosion geführt. Vor allem die weltweite Telekommunikations- und Informationsspeicherkapazitäten pro Kopf sind in den zwei Jahrzehnten zwischen 1986 und 2007 zwischen 23 % und 28 % pro Jahr gewachsen (zum Vergleich: die Weltwirtschaft wächst ungefähr 3 % bis 6 % pro Jahr). Technischer Wandel. Die "digitale Revolution" basiert auf der Erfindung des Mikrochips (Integrierter Schaltkreis) und dessen stetiger Leistungssteigerung (Mooresches Gesetz), der Einführung der flexiblen Automatisierung in der Produktion und dem Aufbau weltweiter Kommunikations-Netze wie dem Internet. Eine wichtige Rolle spielte dabei auch die allgemeine Computerisierung. Dieser Begriff bezeichnet einen gegen Mitte des 20. Jahrhunderts einsetzenden Trend, Arbeitsprozesse mithilfe von Computern zu rationalisieren bzw. zunehmend zu automatisieren. In den 1980er Jahren begannen Computer nicht nur in Beruf und Forschung, sondern auch im privaten Bereich Anwendung zu finden, teilweise kamen grafische Benutzeroberflächen zum Einsatz, die den herkömmlichen Schreibtisch imitierten. Anfangs noch Spielzeug der Hacker, wurde der Heimcomputer bald zum geschätzten Werkzeug, das ebenso selbstverständlich verwendet wird wie Telefon und Fernsehen. Der Computer ist heute am Arbeitsplatz, in Wissenschaft, Erziehung und vielen weiteren Arbeits- und Handlungssystemen selbstverständlich geworden. Eine entscheidende Rolle nehmen dabei die so genannten digitalen Güter (Software und digitale Informationen) ein. Diese unterscheiden sich von klassischen, materiellen Produkten (z. B. Hardware) dadurch, dass sie beliebig oft benutzt oder kopiert werden können, ohne sich zu verbrauchen und unabhängig davon, wie viel Arbeit in ihnen steckt. Digitale bzw. nachträglich digitalisierte Güter lassen sich vor allem über das Internet kostengünstig und direkt verteilen oder an Kunden verkaufen. Das hat insbesondere im Medienbereich einen entscheidenden Einfluss auf klassische Vertriebswege. Neben neuen Mitbewerbern erwächst dem Handel hier weitere Konkurrenz durch frei verfügbare Güter oder die illegale Verbreitung urheberrechtlich geschützten Materials, z. B. mittels Filesharing-Plattformen. Diesem Umstand wird versucht, mittels Ausdehnung des Patentrechts und internationalen Abkommen (wie z. B. TRIPS) zu begegnen, die Geistiges Eigentum an Software und Informationen sichern sollen. Dem steht das Konzept der freien Software entgegen. Die neue Technik erbrachte auch Gefahren datennetzbezogener Katastrophen ("D-Gefahren"), ein Arbeitsfeld des Katastrophenschutzes. In der ersten Moderne wurde die Muskelkraft (siehe auch Pferdestärke) durch die Dampfmaschine (siehe auch Watt) ersetzt. In der zweiten Moderne wird die Denkleistung des Menschen (s. a. IQ) durch die Maschine (s. a. KI) ersetzt. Ein Beispiel dafür sind Schachcomputer wie Deep Blue oder Hydra, die von keinem Menschen mehr sicher bezwungen werden können. Eine Kombination aus technischer Kraft und technischer Denkleistung ist der Roboter. Industrieroboter verdrängen mehr und mehr den Menschen aus der industriellen Produktion. Gleichzeitig entstehen komplett neue Industriezweige. So war das Mobiltelefon erst mit Computereinsatz (Schaltung von Verbindungen) realisierbar. Der Anfang war die Entwicklung des Computers in den 1940er Jahren. Nur mit Hilfe des Computers wurde die Raumfahrt in den 1960er Jahren möglich. 1967 wurde der Taschenrechner entwickelt. Mit dem PC wurde der Computer in den 1970er Jahren für jedermann erschwinglich. In den 1980er Jahren kamen das Global Positioning System (GPS) sowie multimediale Neuerungen, wie die CD und der analoge Videorekorder, in den 1990er Jahren das Mobiltelefon, der Roboter, das Internet, die DVD, die Kernspintomographie bzw. bildgebende Verfahren, Computeranimation insbesondere für Simulationen und in der Filmkunst. 1996 konnte erstmals eine Maschine (Deep Blue) den amtierenden Schachweltmeister in einer Partie schlagen. Es folgten Digitalkamera, Videokamera, Digitalfernsehen, Digitalradio, Navigationssystem, RFID, Drohnen, selbstfahrende Autos. Alleine das Internet – die Vernetzung fast aller Computer – entwickelt sich mehr und mehr zum ersten Kommunikationsmedium und vereinnahmt oder ersetzt nach und nach traditionelle Medien wie Printmedien (siehe auch Zeitung), Telefon (siehe VoIP), Radio (siehe Webradio), Fernsehen (siehe IPTV), Fax und Brief (siehe E-Mail), und entwickelt ganz eigene, bis dahin unbekannte Formen wie Suchmaschinen, Versteigerungsbörsen, „Mitmach“-Enzyklopädien (siehe Wikis), Diskussionsforen usw. Mit dem Internet startet das Informationszeitalter. Im Jahr 2011 schlägt die künstliche Intelligenz Watson in der Quizshow "Jeopardy!" die früheren Champions Ken Jennings und Brad Rutter, welche in der Show zuvor Rekordsummen gewonnen hatten. Die digitale Revolution ist nicht abgeschlossen. Ein großes Potential wird z. B. noch bei der Entwicklung der Roboter gesehen. Als Beispiel rechnet Ian Pearson, Chef-Futurologe bei British Telecom, ab 2020 mit Maschinen mit Bewusstsein. "siehe auch: Industrie 4.0". Ebenso werden auch bei der künstlichen Intelligenz noch große Fortschritte erwartet. Der Zeitpunkt, an dem künstliche Intelligenz die menschliche Intelligenz übertreffen wird und dann selbst den Fortschritt vorantreiben wird, wird Technologische Singularität genannt. Wie der Name schon sagt ein Ereignis, „nach [dem] das Leben der Menschen, so wie wir es kennen, nicht weitergehen kann“, so Stanislaw Ulam. Hans Moravec bezifferte die Rechenleistung des Gehirns auf 100 Teraflops, Raymond Kurzweil auf 10.000 Teraflops. Diese Rechenleistung haben Supercomputer bereits erreicht. Nach Gordon Moore verdoppelt sich die Rechenleistung alle 18 Monate. (Quellen siehe Technologische Singularität) Soziale und ökonomische Folgen. Weltweit führte die digitale Revolution zu großen Mentalitätsänderungen, besonders durch ihre Auswirkung auf die Kinder- und Jugendkultur. Sie hatte als weltumspannende wirtschaftliche, soziale und kulturelle Konkurrenz und Kommunikation bedeutenden Anteil an der Richtung des Prozesses der Globalisierung. Nach Auffassung des US-Ökonomen Jeremy Rifkin wird durch die digitale Revolution langfristig die Arbeit verschwinden, da selbst die billigste menschliche Arbeitskraft teurer sei als die Maschine. Auf Grundlage dieser Annahme argumentiert ein Teil der Befürworter eines Grundeinkommens. Internet und Mobiltelefonie werden von Entwicklungspolitikern und Hilfsorganisationen mittlerweile als Aspekt der Grundbedürfnisse definiert, da diese Demokratie förderten. Die Entwicklung in der Informationswirtschaft führt auch zur Stabilisierung der Marktwirtschaft und dem Erreichen von Wohlstand: „Informationen bringen Märkte zum funktionieren, und Märkte schaffen Wohlstand“. Zugleich macht sich zunehmend eine „digitale Polarisierung“ (Thiede) bemerkbar: Immer mehr Menschen sehen nicht nur die Vorteile, sondern auch die Einschränkungen und „Freiheitsfallen“ (z. B. „Digitale Demenz“ [Manfred Spitzer]), die die digitale Revolution desto mehr mit sich bringt, je mehr sie weiterentwickelt wird. Rechtliche und politische Auswirkungen. Die massenhafte Sammlung, Speicherung und Übertragung digitaler Daten erschuf einen "Status quo" der Überwachung, wie er in der Geschichte der Menschheit zuvor unbekannt war. Die durch die digitale Revolution eröffneten technischen Möglichkeiten, ihre potenziellen Gefahren für das Recht auf Privatsphäre und die Möglichkeit eines weitgehend gläsernen Bürgers waren noch weitgehend unbekannt, als die grundlegenden Menschenrechtsabkommen der Vereinten Nationen einschließlich des UN-Zivilpakts abgeschlossen wurden. Die völkerrechtlichen Fragen, die durch die digitale Revolution aufgeworfen werden, rückten im Zuge der Überwachungs- und Spionageaffäre 2013 sprunghaft in den Fokus der gesellschaftlichen und politischen Diskussion. Dies schließt weitgehend ungelöste Fragen bezüglich der Menschenrechte, der Spionageabwehr und der staatlichen Souveränität ein. Auswirkungen auf die Wissenschaft. Nach Ansicht von Pieter Drenth, Ex-Präsident der All European Academies, hat die digitale Revolution Fortschritte der Wissenschaft auf verschiedensten Gebieten ermöglicht: Erfolge in der Genom-Entschlüsselung, Voraussagen der Klimaforschung, komplexe Modelle in Physik und Chemie, Nanotechnologie, neurophysiologische Grundlagen der Sprachentwicklung und der kognitiven Funktionen, ökonomische Simulationen sowie vergleichende Studien in Sprach- und Literaturwissenschaften. Eigentlich habe jede wissenschaftliche Disziplin von den Entwicklungen der Computertechnologie profitiert. Debian. Debian () ist ein seit 1993 gemeinschaftlich entwickeltes freies Betriebssystem. Debian GNU/Linux, das auf den grundlegenden Systemwerkzeugen des GNU-Projektes sowie dem Linux-Kernel basiert. Es ist eine der ältesten, einflussreichsten und am weitesten verbreiteten Linux-Distributionen. Viele weitere Distributionen benutzen Debian als Grundlage. Das heute bekannteste Debian-GNU/Linux-Derivat ist Ubuntu. Die aktuelle Version ist Debian 8 „Jessie“. Seit Version 6.0 „Squeeze“ ist mit Debian GNU/kFreeBSD die erste offizielle Portierung auf einen anderen Betriebssystemkern – jenen des FreeBSD-Projektes – als Technologievorschau verfügbar. Auf diese Portierung wurde in Version 8 verzichtet. Für Version 7 „Wheezy“ wurde die Veröffentlichung von Debian GNU/Hurd, einer offiziellen Portierung auf den GNU Hurd, diskutiert. Dies wurde jedoch verworfen. Debian enthält eine große Auswahl an Anwendungsprogrammen und Werkzeugen; derzeit sind es über 43.000 Programmpakete. Projekt. Debian wurde im August 1993 von Ian Murdock ins Leben gerufen und wird seitdem aktiv weiterentwickelt. Heute hat das Projekt über 1.000 offizielle Entwickler. Debian-Entwickler kann jeder werden, der den sogenannten New-Member-Prozess erfolgreich durchläuft: Bewerber werden hinsichtlich ihrer Kenntnisse und Fähigkeiten geprüft, außerdem wird sichergestellt, dass sie mit der Ideologie des Projektes vertraut sind. Der Name des Betriebssystems leitet sich von den Vornamen des Debian-Gründers Ian Murdock und seiner damaligen Freundin und späteren Ehefrau Debra Lynn ab. Bereits wenige Monate nach der Gründung, im Mai 1994, entschied sich das Projekt zu einer Änderung des offiziellen Namens von "Debian Linux" zu "Debian GNU/Linux", womit es der Auffassung der Free Software Foundation folgte, dass das häufig als Linux bezeichnete Betriebssystem eine Variante des GNU-Systems sei (zu den Hintergründen der diesbezüglichen Meinungsverschiedenheiten siehe Linux-Namensstreit). Da Debian seit Version 6.0 "(Squeeze)" offiziell in zwei Varianten – GNU/Linux und GNU/kFreeBSD – verfügbar ist, wird seitdem nur noch in Bezug auf diese der jeweilige Namenszusatz genannt; allgemein wird heute also nur noch von "Debian" gesprochen. Das System ist bekannt für seine Paketverwaltung dpkg und deren Frontend APT. Mit diesen ist es möglich, alte Versionen von Debian GNU/Linux durch aktuelle zu ersetzen oder neue Softwarepakete zu installieren. Sie sind ebenfalls dafür zuständig, alle von einem Programm benötigten Abhängigkeiten aufzulösen, also alle Programmpakete zu laden und zu installieren, welche die gewünschte Software benötigt. 1993 bis 1998. Am 16. August 1993 wurde von Ian Murdock das „Debian Linux Release“ angekündigt. Er hatte versucht, SLS, das eine der ersten umfassenden Linux-Distributionen war, zu nutzen. Da er jedoch mit deren Qualität unzufrieden war, konzipierte er sein eigenes System, ließ sich aber von SLS inspirieren. Im selben Jahr veröffentlichte er auch das "Debian-Manifest," eine Zusammenstellung seiner Sichtweise zu Debian. Im Vordergrund stand hier eine offene Entwicklung „im Geiste von Linux und GNU“. Bis 1995 veröffentlichte das Projekt die ersten Entwicklungsversionen mit den Versionsnummern 0.9x. In dieser Zeit wurde es auch von der Free Software Foundation gesponsert und zählte etwa 60 Entwickler. 1996 wurde letztlich die erste stabile Version 1.1 veröffentlicht. Weil ein CD-ROM-Verkäufer versehentlich eine Vorversion unter der Nummer 1.0 veröffentlicht hatte, kam es – um Verwirrung zu vermeiden – nie zu einer tatsächlichen Version 1.0. Im April 1996 wurde Murdock von Bruce Perens als Leiter des Projekts abgelöst. In den darauffolgenden Jahren wechselte diese Position einige Male. Am 17. Juni 1996 folgte mit "Buzz" (Version 1.1) das erste Release, welches einen Aliasnamen trug. Alle weiteren Veröffentlichungen wurden ebenfalls mit einem solchen versehen, wobei sich dieser immer nach einer Figur aus dem Film Toy Story richtet. 1997 wurde nach vorheriger Diskussion der Debian-Gesellschaftsvertrag ratifiziert. Am 24. Juli 1998 wurde die Version 2.0 "Hamm" veröffentlicht, welche erstmals für mehrere Architekturen zur Verfügung stand. Das Projekt umfasste zu diesem Zeitpunkt 1500 Pakete und 400 Entwickler. 1999 bis 2004. Es folgten weitere 2.x-Veröffentlichungen mit neuen Portierungen zu anderen Architekturen sowie einer steigenden Zahl von Paketen. Besonders hervorzuheben ist die Entwicklung von APT. Auch entstand mit Hurd die erste Portierung zu einem Nicht-Linux-Kernel. Im Jahr 2000 wurde der "Testing-"Zweig gegründet. In der nachfolgenden Zeit wurde die Debian-Webseite in 20 Sprachen übersetzt. Es kam zur Gründung der Unterprojekte "Debian-Junior" und "Debian-Med," die sich an Kinder bzw. medizinische Forschung und Praxis richteten. Im gleichen Jahr fand auch erstmals die Entwicklerkonferenz DebConf statt, welche seitdem jährlich an unterschiedlichen Orten abgehalten wird. Die Version 3.0 "Woody" vom 19. Juli 2002 enthielt erstmals das "K Desktop Environment," nachdem die Lizenzproblematik von Qt geklärt war. Das Projekt war auf 900 Entwickler und 8500 Binärpakete angewachsen. Die offizielle Distribution bestand aus 7 CDs. Seit 2005. Erst knappe drei Jahre später, am 6. Juni 2005, kam es zur Veröffentlichung von Version 3.1 "Sarge." Der lange Zeitraum brachte dem Projekt einige Kritik ein. Mit Ubuntu entstand zwischenzeitlich auch das heute bedeutendste Debian-Derivat. "Sarge" enthielt etwa 15.400 Pakete und benötigte damit 14 CDs. Es beteiligten sich etwa 1500 Entwickler an dieser Veröffentlichung. Neben der Masse an aktualisierten und neu hinzugekommenen Paketen ist vor allem das neu geschriebene Installationsprogramm hervorzuheben, das in 40 Sprachen übersetzt wurde. Erstmals wurde auch OpenOffice.org aufgenommen. 2006 wurde in Oaxtepec, Mexiko, die siebte DebConf abgehalten. Zudem wurde nach dem Namensstreit zwischen Debian und Mozilla seitens Debian das entsprechende Paket des Mozilla Firefox in "Iceweasel," sowie das von Mozilla Thunderbird in "Icedove" umbenannt. Am 8. April 2007 wurde von etwa 1000 Entwicklern Version 4.0 "Etch" veröffentlicht. Diese enthielt rund 18.200 Binärpakete. Im Februar 2009 folgte 5.0 "Lenny", und im Februar 2011 wurde "Lenny" "oldstable" und 6.0 "Squeeze" mit über 29.000 Softwarepaketen als "stable" veröffentlicht. Am 4. Mai 2013 wurde mit "Wheezy" die Version 7 als „stable“ gesetzt. Diese enthielt erstmals LibreOffice. Am 25. April 2015 folgte ihr Version 8, Codename "Jessie", mit der systemd standardmäßig als init-System eingeführt wurde. Organisation. Das Debian-Projekt konstituiert sich durch die Debian-Verfassung. Sie regelt die demokratische Organisationsstruktur mit regelmäßigen Wahlen. Darüber hinaus verpflichtet sich das Projekt mit dem Gesellschaftsvertrag "Debian Social Contract" zu "freier Software." Seit dem 26. April 2004 ist die Version 1.1 des Gesellschaftsvertrages gültig. Die eigentliche inhaltliche Änderung besagt, dass alle Komponenten des Debian-Systems (im Hauptzweig "main") frei sein müssen, nicht mehr nur die Software. Die "Debian-Richtlinien für freie Software" beziehen sich also nicht mehr nur auf freie Software, sondern allgemein auf freie Werke. Da diese Auswirkungen einer als „editoriell“ bezeichneten Änderung für viele Entwickler überraschend war, wurde in einer zusätzlichen Abstimmung im Juli 2004 beschlossen, dass diese Änderung erst nach dem Release von Sarge im Juni 2005 wirksam wird. Aktueller Leiter des Debian-Projekts ist Neil McGovern. Der Posten wird einmal im Jahr per Wahl neu vergeben. Alle Wahlen und Abstimmungen erfolgen elektronisch (mit Hilfe einer digitalen Signatur) nach der Schulze-Methode. Als eine Dachorganisation für Debian und weitere Freie-Software-Projekte wurde 1997 Software in the Public Interest gegründet. Debian-Gesellschaftsvertrag. Der Debian-Gesellschaftsvertrag (engl.) ist eine vom Debian-Projekt beschlossene öffentliche Richtlinie, die Grundlagen regelt, wie die freie Software Debian hergestellt, verteilt und betreut wird. Der Gesellschaftsvertrag geht auf einen Vorschlag von Ean Schuessler zurück. Bruce Perens entwarf eine erste Version des Dokumentes, das dann mit anderen Debian-Entwicklern im Juni 1997 verfeinert wurde, bevor es als öffentliche Richtlinie akzeptiert wurde. Version 1.0 wurde am 5. Juli 1997 ratifiziert. Am 26. April 2004 wurde die überarbeitete Version 1.1 ratifiziert. Sie ersetzt seitdem ihren Vorgänger. Ein besonders bedeutender, auch über das Debian-Projekt hinaus genutzter Teil des Vertrages sind die "Debian-Richtlinien für freie Software" (DFSG). Die Gemeinschaft um die Etablierung des Begriffes "Open Source" in der Öffentlichkeit verwendete diese als Grundlage, um ihre Definition von "Open Source" zu verfassen. Bruce Perens verallgemeinerte die Richtlinien, indem er Debian aus dem Text strich, um "The Open Source Definition" (dt. "Die Open Source Definition") zu schaffen. Sie wird seitdem von der Open Source Initiative (OSI) verwendet. Mit der Zeit haben sich hier allerdings einige Unterschiede ergeben. Die im Vertrag festgehaltene Verpflichtung zur Bereitstellung von freier Software wird vom Debian-Projekt sehr ernst genommen. Zentrale Diskussionen im Linux-Umfeld werden maßgeblich vom Projekt bestimmt, wie die konsequent freie Dokumentation der Programme (Diskussion über die GFDL) oder die Vermeidung von Markennamen, weil ein Hersteller darüber das Projekt beeinflussen kann. Eine Auswirkung dieser Politik war der Namensstreit zwischen Debian und Mozilla, der zu einer Umbenennung der Anwendung Firefox in Iceweasel innerhalb von Debian führte. Debian und Sicherheit. Softwareprobleme werden öffentlich behandelt, so auch sämtliche Sicherheitsprobleme. Aspekte der Sicherheit werden öffentlich auf der "debian-security-announce-"Mailingliste diskutiert. Debians Sicherheitsgutachten werden über eine öffentliche Mailingliste gesendet (sowohl innerhalb als auch außerhalb) und auf einem öffentlichen Server bekanntgegeben. Von dieser Verfahrensweise verspricht man sich ein schnelleres Auffinden von Sicherheitslücken und damit die Möglichkeit, diese eher beheben zu können. Die entgegengesetzte Herangehensweise des Security through obscurity wird dagegen als unpraktikabel angesehen. Die Tatsache, dass die Weiterentwicklung der Distribution öffentlich sichtbar unter Beteiligung einer Vielzahl von Personen geschieht, erfordert besondere Sicherheitsmaßnahmen. Beispielsweise werden Änderungen an Paketen grundsätzlich mit einem verifizierbaren Schlüssel digital signiert. Beim Anwender wird dann vor der Installation die Gültigkeit der Signatur überprüft. Diese Maßnahme soll es Dritten erschweren, schädliche Software in Debian-Pakete einzuschleusen. Die Paketbetreuer passen die Sicherheitsaspekte ihrer jeweiligen Software an die allgemeinen Grundsätze von Debian an. Daher sind Dienste nach der Installation oft „sicher“ voreingestellt, was von einem Benutzer als „Einschränkung“ empfunden werden kann. Dennoch versucht Debian, Sicherheitsaspekte und einfache Administration abzuwägen. Zum Beispiel werden Dienste wie ssh und ntp nicht inaktiv installiert, wie es bei den Distributionen der BSD-Familie üblich ist. Wenn ein Sicherheitsproblem in einem Debian-Paket entdeckt wurde, wird es zusammen mit einer Einschätzung der dadurch entstehenden Gefahr direkt veröffentlicht. Parallel wird so schnell wie möglich ein Sicherheitsupdate dieses Pakets vorbereitet und auf speziellen Servern veröffentlicht. Kritische Sicherheitslücken werden auf diese Weise häufig innerhalb von Stunden geschlossen. Sicherheitslücke im Schlüsselgenerator. Die von Debian angepasste Implementierung des für die Schlüsselerstellung zuständigen Zufallsgenerators der OpenSSL-Bibliothek arbeitete von September 2006 bis 13. Mai 2008 mit einer erheblichen Sicherheitslücke. Die generierten geheimen Schlüssel konnten abgeschätzt und damit in kurzer Zeit (vor-)berechnet werden (1024- und 2048-Bit-Schlüssel in ungefähr zwei Stunden). Insbesondere OpenSSH und die sichere Kommunikation in Webbrowsern waren davon betroffen – GnuPG hingegen nicht. Das Sicherheitsrisiko besteht weiterhin für alle RSA-Schlüssel, die in diesem Zeitraum auf betroffenen Systemen erstellt wurden und seit der Aktualisierung der Bibliothek nicht neu erstellt wurden. Auch alle DSA-Schlüssel, die jemals von einem Rechner (Client) mit fehlerhaftem Zufallszahlengenerator verwendet wurden, sind seitdem unsicher, selbst wenn diese ursprünglich auf einem Rechner mit korrekt arbeitendem Zufallszahlengenerator erstellt wurden. Veröffentlichungen. Debian Sarge mit GNOME und GNOME-Terminal Veröffentlichungszyklus. Von Debian werden zu jedem Zeitpunkt drei Varianten (Releases) parallel angeboten: (‚stabil‘), (‚Erprobung‘) und (‚instabil‘). Nach der Veröffentlichung jeder stable-Version wird die vorige stable-Version als (‚alt-stabil‘) für mindestens ein Jahr weitergeführt. Als im Frühjahr 2014 die reguläre Unterstützung der Version 6.x "Squeeze" endete, folgte erstmals Langzeitunterstützung, englisch "long term support" (LTS), für die meisten Pakete auf den Architekturen i386 und amd64 bis Februar 2016 durch das neu gegründete Projekt "Debian Long Term Support" ("debian-lts"). Dieses hat sich zum Ziel gesetzt zukünftig alle Versionen für mindestens 5 Jahre mit Sicherheitsupdates zu versorgen. Jede Version hat einen Codenamen, der von Charakteren des Films "Toy Story" stammt. Derzeit ist „Jessie“ (Debian 8) der Name des aktuellen "stable-"Zweigs. "unstable" wird seit Dezember 2000 immer „Sid“ genannt. Sid war im Film Toy Story der Junge von nebenan, der Spielzeuge kaputtgemacht hat. Erstmals erhielt Debian mit Veröffentlichung der Version 1.1 (17. Juni 1996) einen Aliasnamen. Zu diesem Zeitpunkt hatte Bruce Perens die Leitung des Projekts von Ian Murdock übernommen. Perens arbeitete beim Filmstudio Pixar, das die Toy Story-Filme produziert. Zeitweise lagen große Zeiträume zwischen den Veröffentlichungen. Darauf gab es verschiedene Reaktionen, etwa wurden Pakete verschiedener Veröffentlichungen gemischt. Dies wird jedoch unmöglich, wenn sich zentrale Teile des Systems zu stark unterscheiden. So gab es zwischen Sarge und Etch eine Änderung der glibc-ABI, die für die meisten Pakete eine Aktualisierung nötig machte. Für einige Aufgaben wie Spam- und Virenerkennung bot Debian zeitweise eine Paketquelle namens „volatile“ "(unbeständig)" an, die mit "Squeeze" durch eine neue Paket-Quelle „updates“ ersetzt wurde. Für einige Programme kann man sich auch mit sogenannten Backports behelfen. Das sind Pakete von neueren Programmversionen, die für eine alte Veröffentlichung kompiliert wurden. Softwarekategorien. Innerhalb eines Releases enthält die Abteilung "main" das eigentliche Debian-System. "main" besteht komplett aus freier Software und sonstigen Werken gemäß DFSG. Es ist möglich, allein mit Paketen aus "main" ein funktionstüchtiges System zu installieren. "non-free" enthält Software, die proprietär ist, und "contrib" beherbergt Software, die selbst frei ist, jedoch ohne Software aus "non-free" nicht lauffähig ist, wie früher Java-Programme, die die Java-Laufzeitumgebung von Sun Microsystems benötigten. "contrib" und "non-free" sind kein offizieller Teil von Debian, werden jedoch unter anderem durch Bereitstellung der für "main" üblichen Infrastruktur unterstützt. Architekturen. Debian unterstützt eine Anzahl verschiedener Hardware-Architekturen. Dabei wird zwischen offiziellen Release-Architekturen und "Ports" unterschieden. Um als Release-Architektur offiziell unterstützt zu werden, muss eine Anzahl Bedingungen erfüllt sein. So ist ein ausreichend großes Team nötig, eine ausreichende Anzahl entsprechender Rechner muss dem Debian-Projekt zum Erstellen von Paketen zur Verfügung stehen, und fast alle Pakete müssen auf der Architektur gebaut werden können und die Software benutzbar sein. Jede Architektur wird zunächst als Port unterstützt und kann zu einer offiziell unterstützten Architektur aufgewertet werden. Umgekehrt kann eine offizielle Release-Architektur zum Port abgewertet werden, wenn die Anforderungen an Release-Architekturen nicht mehr erfüllt sind. Für Ports gibt es keine stable-Veröffentlichungen, sondern es existiert nur die unstable-Variante. Versionsgeschichte. Releasezeiträume und Paketumfänge im Zeitverlauf Verbreitung. Laut einer Online-Umfrage von Heise online im Februar 2009 ist Debian Linux mit 47 Prozent (Mehrfachnennung möglich) das am meisten verwendete freie Server-Betriebssystem in deutschen Unternehmen. Bei den freien Desktop-Betriebssystemen belegt Debian Linux mit einer Verbreitung von 29,9 % den zweiten Platz hinter Ubuntu (60,8 %), das auch von Debian abstammt – dicht gefolgt von openSUSE (28,8 %, Stand Februar 2009). Debian Linux ist die meistverwendete Linux-Distribution für Web-Server. Debian wird neben Scientific Linux, Red Hat Enterprise Linux und Microsoft Windows auf der Internationalen Raumstation (ISS) eingesetzt, wie die NASA bekannt gab. Nutzung durch öffentliche Einrichtungen. Die Regierung der spanischen Region Extremadura hat von 2002 bis 2011 die Debian-basierte Distribution LinEx entwickelt und in den Schulen und im öffentlichen Gesundheitssystem eingeführt. Anfang 2012 gab die Regionalverwaltung bekannt, dass LinEx eingestellt werde, kurz darauf kündigte sie an, dass nun 40.000 Arbeitsplätze der Verwaltung auf Debian umgestellt würden. Die Stadt München ist mit ihren Debian-basierten Betriebssystemen LiMux zwischen 2006 und 2013 auf freie Software umgestiegen. Das deutsche Bundesamt für Sicherheit in der Informationstechnik setzt unter anderem Debian auf Desktopsystemen ein. Auch Wien bot von 2004 bis 2009 mit Wienux der Stadtverwaltung eine Debian-basierte freie Alternative an. 2009 wurde Skolelinux, eine angepasste Debian-Version, in einer Pilotphase an elf Schulen im Land Rheinland-Pfalz getestet, nachdem bereits in Hamburg das System vom „Projekt 3s“ in etlichen Schulen eingeführt worden war. Kernel. Das Debian-Projekt unterstützt neben der Linux-Distribution "Debian GNU/Linux" mit Linux-Kernel noch weitere Varianten des GNU-Systems mit anderen Kernen. Durch die Veröffentlichung von "Squeeze" im Jahre 2011 fand mit kFreeBSD die erste Veröffentlichung mit dem Kernel des FreeBSD-Betriebssystems statt. Diese steht vorerst nur für x86-Architekturen (32 und 64 Bit) zur Verfügung. Die Namensgebung Debian GNU/kFreeBSD soll betonen, dass es sich lediglich um den Kernel von FreeBSD handelt, während die Systemwerkzeuge wie make dem GNU-System entsprechen, nicht der BSD-Familie. Das System ist also für Anwender meist ähnlicher zu Debian GNU/Linux als zu FreeBSD. "Jessie" wird den GNU/kFreeBSD-Port aufgrund anhaltender Probleme und enttäuschender Entwicklungsfortschritte jedoch nicht mehr enthalten. In Zukunft soll auch die Variante HURD mit dem Kernel GNU Hurd veröffentlicht werden. Konkrete Veröffentlichungspläne gibt es allerdings noch nicht. Eine Variante NetBSD mit dem Kernel von NetBSD wurde 2002 aufgegeben. Debian Pure Blends. Unter einem "Debian Pure Blend" (Debian-intern auch kurz "Blend") versteht man eine interne Anpassung von Debian GNU/Linux, die einem speziellen Anwendungszweck dient. Blends bilden thematische Substrukturen innerhalb des unstrukturierten Paketpools von etwa 30.000 Binärpaketen von Debian und erlauben daher einen einfachen Zugriff auf die relevanten Pakete für spezifische Fachgebiete. Darüber hinaus steht hinter einem Blend auch ein für das Fachgebiet kompetentes Entwicklerteam, das als Ansprechpartner für bestimmte Fachgebiete dient und sich mit der Paketierung der zu diesem Fachgebiet gehörenden Software beschäftigt. Debian-Derivate. Die große Auswahl an Paketen und das zuverlässige System der Paketverwaltung machen Debian attraktiv, um davon weitere eigenständige Distributionen abzuleiten. Rechtlich wird dies durch die für alle Komponenten geltende, weitgehende Freiheit gewährende Lizenz möglich. Daher gibt es eine große Anzahl von Distributionen, die hauptsächlich oder ausschließlich Pakete aus Debian verwenden. Viele dieser Distributionen sind für einen speziellen Zweck, wie zum Beispiel den Einsatz als Server oder in der Schule, ausgerichtet. Laut gldt gehen aus Debian und den daraus abgeleiteten Derivaten über 200 auf Debian basierende Distributionen hervor. Stand Oktober 2012 Einige weitverbreitete, von Debian abgeleitete Distributionen sind Ubuntu, Knoppix oder auch Linux Mint. Trivia. Nach einer vagen Schätzung des Debian-Entwicklers James Bromberger ist der Quellcode aller in Debian 7.0 enthaltenen Programme etwa 14 Milliarden Euro wert. Der Schätzung liegen Annahmen über das Jahresgehalt und die Programmierleistung eines durchschnittlichen Programmierers zugrunde. Dynamisches HTML. Die Begriffe DHTML, dynamisches HTML (engl. dynamic HTML) oder auch DOM-Scripting bezeichnen bestimmte Webdesign-Methoden, bei denen während der Anzeige einer Webseite diese selbst, ausgelöst durch Benutzereingaben, verändert wird. Der Begriff „dynamisch“ bezieht sich dabei auf die Idee, dass diese Änderungen von Ereignissen bedingt werden, die auch mehrfach beim Anzeigen einer Seite auftreten können. Geschichte. Die Skriptsprachen JavaScript im Netscape Navigator und JScript im Microsoft Internet Explorer hatten schon Mitte der 1990er Jahre die ereignisbasierte Veränderung von Webseiten ermöglicht gehabt. Damals wurde der Begriff DHTML benutzt um auf diese Fähigkeiten der inzwischen vom Markt verschwundenen Programme hinzuweisen. Durch die Standardisierung des Document Object Model und das Platzen der damaligen Dotcom-Blase geriet der Begriff aus der Mode. Auch die damalige Software wurde inzwischen vom Markt genommen. Heutzutage ist die Verwendung von Javascript nahezu Standard und nahezu alle Webseiten reagieren auf bestimmte Ereigniss ohne kontakt zum Server herzustellen. Techniken. Dabei müssen nicht unbedingt alle Techniken dieser Liste in einem Dokument verwendet werden (insbesondere die zur Datenübertragung nach dem ersten Laden nicht), um es als Anwendung von dynamischem HTML bezeichnen zu können. Kritik und Nachteile. Oft wird dynamisches HTML für effekt-orientierte Funktionen verwendet, bei denen der Nutzen nicht klar erkennbar ist und die eher stören. In der Anfangszeit konnte DHTML nur über Browser-spezifische sogenannte "DHTML-Modelle" realisiert werden, die nicht zueinander kompatibel waren. Daher führten einige DHTML Seiten unter bestimmten Browsern zu Fehlern. Dieser Ruf hängt dynamischem HTML bis heute an. Daher wird heute auch der Begriff "DOM Scripting" verwendet, mit dem man standardkonformes DHTML von Browser-spezifischen Varianten abgrenzen möchte. Dynamisches HTML stellt teils hohe Anforderungen an die JavaScript-Fähigkeiten des Browsers, die nur von den neueren Browsergenerationen erfüllt werden. Wenn die Verwendung von JavaScript, z. B. aus Sicherheitsgründen, deaktiviert wird, kann dynamisches HTML nicht verwendet werden. Darüber hinaus kann sich die Zugänglichkeit für Anwender verschlechtern, die wegen körperlichen Einschränkungen auf alternative Eingabe- bzw. Ausgabemethoden zurückgreifen müssen (siehe Barrierefreies Internet). Es ist aber möglich, dynamisches HTML so zu verwenden, dass es nur bei Browsern verwendet wird, die damit auch umgehen können. Die übrigen Anwender können die Website dann verwenden, als ob diese gar kein dynamisches HTML einsetzen würde. Auch Suchmaschinen können dynamisches HTML nicht verwenden und bei falscher Anwendung nicht mehr alle Inhalte der Seite auffinden. Document Object Model. Document Object Model (DOM) ist eine Spezifikation einer Schnittstelle für den Zugriff auf HTML- oder XML-Dokumente. Sie wird vom World Wide Web Consortium definiert. Eine Implementierung, die dieser Spezifikation genügt, besteht im Sinne der objektorientierten Programmierung aus einem Satz von Klassen zusammen mit deren Methoden und Attributen. Sie erlaubt Computerprogrammen, dynamisch den Inhalt, die Struktur und das Layout eines Dokuments zu verändern. Benennung. Bei der Bezeichnung “Document Object "Model"” handelt es sich eigentlich um eine Fehlbenennung, da DOM nicht als Modell, sondern als Schnittstelle (Interface) für den Datenzugriff definiert ist und vom W3C auch so bezeichnet wird. Der Wortlaut der Bezeichnung betont hingegen das der Schnittstelle zugrundeliegende wohldefinierte Objektmodell, dessen Gültigkeit Voraussetzung für die Gültigkeit der darauf aufgebauten Schnittstelle ist. Auf einer höheren Abstraktionsebene ist auch eine Schnittstelle ein Modell, nämlich für die Art und Weise, auf Objekte oder Daten zuzugreifen. Geschichte. DOM ist ursprünglich unter dem Eindruck von mindestens zwei Entwicklungen entstanden, die die Computerwelt in der jüngsten Vergangenheit maßgeblich prägten. Beiden liegt die Notwendigkeit zugrunde, auf die strukturierten Daten in HTML- und XML-Dokumenten einfach und einheitlich zugreifen zu können. Mitte der 1990er Jahre, als sogleich das World Wide Web an Popularität zunahm, wurde die Skriptsprache JavaScript erfunden und gängige Webbrowser enthielten seitdem Interpreter, die solche Scripte ausführen. JavaScript definierte rudimentäre Möglichkeiten zum Zugriff auf das HTML-Dokument und zur Ereignisbehandlung. Später erfanden verschiedene Browserhersteller unterschiedliche Modelle für "dynamisches HTML" (DHTML), die eine umfassendere Änderung der Struktur und des Aussehens des Dokuments ermöglichten, während das Dokument im Browser angezeigt wird. Diese Unterschiede machten allerdings die Arbeit für Webentwickler, welche dynamisches HTML nutzen wollten, zu einer äußerst mühsamen Angelegenheit, da sie oft praktisch gezwungen waren, für jeden zu unterstützenden Browser eine eigene Version zu schreiben. Die ersten DOM-Standards des W3C sind daher Versuche, die verschiedenen proprietären JavaScript- und DHTML-Techniken, die während der Zeit der Browserkriege entstanden, zusammenzuführen, zu standardisieren und letztlich abzulösen. Dies ist gelungen, so dass DOM heutzutage eine zentrale Bedeutung bei der JavaScript-Programmierung einnimmt. Gleichzeitig entstand XML als allgemeines Austauschformat zur menschenlesbaren Darstellung von strukturierten Daten, das an den Erfolg von HTML anknüpfte. Zur Verarbeitung von XML-Dokumenten war eine verständliche, leistungsfähige und programmiersprachenübergreifende Schnittstelle nötig. DOM bietet eine solche und definiert darüber hinaus zusätzliche Schnittstellen für einen komfortablen Umgang mit XML-Dokumenten. Grundlagen von DOM anhand eines Beispiels. So sieht es im Browser aus DOM Baumstruktur zu den Unterelementen An diesem Beispiel lässt sich der prinzipielle Aufbau des Objektmodells diskutieren: Dokumente werden logisch wie ein Stammbaum dargestellt. Knoten ("nodes") stehen über „Verwandtschaftsbeziehungen“ zueinander in Verbindung. Arten von Beziehungen. Ausgehend von einem beliebigen Knoten ist jeder andere Knoten über diese Verwandtschaftsbeziehungen erreichbar. Arten von Knoten. Attributknoten sind eine besondere Knotenart, denn sie kommen nicht als Knoten in der Baumstruktur vor, die vor allem durch Elementknoten gebildet wird. Attributknoten sind demnach keine „Kinder“ von Elementknoten, sondern Eigenschaften von ihnen. Verarbeitung eines Dokuments. Im ersten Schritt wird ein bestehendes Dokument durch das Programm eingelesen und ein Dokument-Objekt erzeugt. Anhand dieses Objekts kann mittels der Methoden des API auf die Inhalte, Struktur und Darstellung zugegriffen werden. Am Ende der Verarbeitung kann aus dem Dokument-Objekt durch so genannte Serialisierung ein neues XML- oder HTML-Dokument generiert werden. DOM Level 0. Dieses Level wurde nie formal spezifiziert. "Level 0" bezeichnet die mittels JavaScript nutzbaren Techniken zum Zugriff auf HTML-Dokumente. Diese wurden von Webbrowsern wie Internet Explorer und Netscape Navigator vor der Standardisierung von DOM eingeführt. Domain Name System. Das Domain Name System (DNS'") ist einer der wichtigsten Dienste in vielen IP-basierten Netzwerken. Seine Hauptaufgabe ist die Beantwortung von Anfragen zur Namensauflösung. Das DNS funktioniert ähnlich wie eine Telefonauskunft. Der Benutzer kennt die Domain (den für Menschen merkbaren Namen eines Rechners im Internet) – zum Beispiel example.org. Diese sendet er als Anfrage in das Internet. Der URL wird dann dort vom DNS in die zugehörige IP-Adresse (die „Anschlussnummer“ im Internet) umgewandelt – zum Beispiel eine IPv4-Adresse der Form 192.0.2.42 oder eine IPv6-Adresse wie 2001:db8:85a3:8d3:1319:8a2e:370:7347, und führt so zum richtigen Rechner. Überblick. Das DNS ist ein weltweit auf tausenden von Servern verteilter hierarchischer Verzeichnisdienst, der den Namensraum des Internets verwaltet. Dieser Namensraum ist in so genannte Zonen unterteilt, für die jeweils unabhängige Administratoren zuständig sind. Für lokale Anforderungen – etwa innerhalb eines Firmennetzes – ist es auch möglich, ein vom Internet unabhängiges DNS zu betreiben. Hauptsächlich wird das DNS zur Umsetzung von Domainnamen in IP-Adressen ("„“") benutzt. Dies ist vergleichbar mit einem Telefonbuch, das die Namen der Teilnehmer in ihre Telefonnummer auflöst. Das DNS bietet somit eine Vereinfachung, weil Menschen sich Namen weitaus besser merken können als Zahlenkolonnen. So kann man sich einen Domainnamen wie "example.org" in der Regel leichter merken als die dazugehörende IP-Adresse 192.0.32.10. Dieser Punkt gewinnt im Zuge der Einführung von IPv6 noch an Bedeutung, denn dann werden einem Namen jeweils IPv4- und IPv6-Adressen zugeordnet. So löst sich beispielsweise der Name "www.kame.net" in die IPv4-Adresse 203.178.141.194 und die IPv6-Adresse 2001:200:0:8002:203:47ff:fea5:3085 auf. Ein weiterer Vorteil ist, dass IP-Adressen – etwa von Web-Servern – relativ risikolos geändert werden können. Da Internetteilnehmer nur den (unveränderten) DNS-Namen ansprechen, bleiben ihnen Änderungen der untergeordneten IP-Ebene weitestgehend verborgen. Da einem Namen auch mehrere IP-Adressen zugeordnet werden können, kann sogar eine einfache Lastverteilung per DNS (') realisiert werden. Mit dem DNS ist auch eine umgekehrte Auflösung von IP-Adressen in Namen ("Reverse DNS") möglich. In Analogie zum Telefonbuch entspricht dies einer Suche nach dem Namen eines Teilnehmers zu einer bekannten Rufnummer, was innerhalb der Telekommunikationsbranche unter dem Namen Inverssuche bekannt ist. Das DNS wurde 1983 von Paul Mockapetris entworfen und in RFC 882 und RFC 883 (RFC = Request for Comments) beschrieben. Beide wurden inzwischen von RFC 1034 und RFC 1035 abgelöst und durch zahlreiche weitere Standards ergänzt. Ursprüngliche Aufgabe war es, die lokalen "hosts"-Dateien abzulösen, die bis dahin für die Namensauflösung zuständig waren und die der enorm zunehmenden Zahl von Neueinträgen nicht mehr gewachsen waren. Aufgrund der erwiesenermaßen hohen Zuverlässigkeit und Flexibilität wurden nach und nach weitere Datenbestände in das DNS integriert und so den Internetnutzern zur Verfügung gestellt (siehe unten: Erweiterung des DNS). Domain-Namensraum. Der Domain-Namensraum hat eine baumförmige Struktur. Die Blätter und Knoten des Baumes werden als Labels bezeichnet. Ein kompletter Domainname eines Objektes besteht aus der Verkettung aller Labels eines Pfades. Labels sind Zeichenketten, die jeweils mindestens ein Oktett und maximal 63 Oktetts lang sind (RFC 2181, Abschnitt „11. Name syntax“). Einzelne Labels werden durch Punkte voneinander getrennt. Ein Domainname wird mit einem Punkt abgeschlossen (der letzte Punkt wird normalerweise weggelassen, gehört rein formal aber zu einem vollständigen Domainnamen dazu). Somit lautet ein korrekter, vollständiger Domainname (auch (FQDN) genannt) zum Beispiel codice_1 und darf inklusive aller Punkte maximal 255 Oktetts lang sein. Ein Domainname wird immer von rechts nach links delegiert und aufgelöst, das heißt je weiter rechts ein Label steht, umso höher steht es im Baum. Der Punkt am rechten Ende eines Domainnamens trennt das Label für die erste Hierarchieebene von der Wurzel (engl. '). Diese erste Ebene wird auch als Top-Level-Domain (TLD) bezeichnet. Die DNS-Objekte einer Domäne (zum Beispiel die Rechnernamen) werden als Satz von Resource Records meist in einer Zonendatei gehalten, die auf einem oder mehreren autoritativen Nameservern vorhanden ist. Anstelle von "Zonendatei" wird meist der etwas allgemeinere Ausdruck Zone verwendet. Nameserver. Ein Nameserver ist ein Server, der Namensauflösung anbietet. Namensauflösung ist das Verfahren, das es ermöglicht, Namen von Rechnern bzw. Diensten in eine vom Computer bearbeitbare Adresse aufzulösen (z. B. "www.wikipedia.org" in "91.198.174.192"). Die meisten Nameserver sind Teil des Domain Systems, das auch im Internet benutzt wird. Nameserver sind zum einen Programme, die auf Basis einer DNS-Datenbank Anfragen zum Domain-Namensraum beantworten, im Sprachgebrauch werden allerdings auch die Rechner, auf denen diese Programme zum Einsatz kommen, als Nameserver bezeichnet. Man unterscheidet zwischen autoritativen und nicht-autoritativen Nameservern. Ein autoritativer Nameserver ist verantwortlich für eine Zone. Seine Informationen über diese Zone werden deshalb als "gesichert" angesehen. Für jede Zone existiert mindestens ein autoritativer Server, der Primary Nameserver. Dieser wird im SOA Resource Record einer Zonendatei aufgeführt. Aus Redundanz- und Lastverteilungsgründen werden autoritative Nameserver fast immer als Server-Cluster realisiert, wobei die Zonendaten identisch auf einem oder mehreren Secondary Nameservern liegen. Die Synchronisation zwischen Primary und Secondary Nameservern erfolgt per Zonentransfer. Ein nicht-autoritativer Nameserver bezieht seine Informationen über eine Zone von anderen Nameservern sozusagen aus zweiter oder dritter Hand. Seine Informationen werden als "nicht gesichert" angesehen. Da sich DNS-Daten normalerweise nur sehr selten ändern, speichern nicht-autoritative Nameserver die einmal von einem Resolver angefragten Informationen im lokalen RAM ab, damit diese bei einer erneuten Anfrage schneller vorliegen. Diese Technik wird als Caching bezeichnet. Jeder dieser Einträge besitzt ein eigenes Verfallsdatum (TTL "time to live"), nach dessen Ablauf der Eintrag aus dem Cache gelöscht wird. Die TTL wird dabei durch einen autoritativen Nameserver für diesen Eintrag festgelegt und wird nach der Änderungswahrscheinlichkeit des Eintrages bestimmt (sich häufig ändernde DNS-Daten erhalten eine niedrige TTL). Das kann unter Umständen aber auch bedeuten, dass der Nameserver in dieser Zeit falsche Informationen liefern kann, wenn sich die Daten zwischenzeitlich geändert haben. Anders konzipierte Namensauflösungen durch Server, wie der NetWare Name Service oder der Windows Internet Naming Service, sind meistens auf Local Area Networks beschränkt und werden zunehmend von der Internetprotokollfamilie verdrängt. Resolver. Schematische Darstellung der rekursiven und iterativen DNS-Abfrage Resolver sind einfach aufgebaute Software-Module, die auf dem Rechner eines DNS-Teilnehmers installiert sind und die Informationen von Nameservern abrufen können. Sie bilden die Schnittstelle zwischen Anwendung und Nameserver. Der Resolver übernimmt die Anfrage einer Anwendung, ergänzt sie, falls notwendig, zu einem FQDN und übermittelt sie an einen normalerweise fest zugeordneten Nameserver. Ein Resolver arbeitet entweder rekursiv oder iterativ. Im rekursiven Modus schickt der Resolver eine rekursive Anfrage an den ihm zugeordneten Nameserver. Hat dieser die gewünschte Information nicht im eigenen Datenbestand, so kontaktiert der Nameserver weitere Server, und zwar solange bis er entweder eine positive Antwort oder bis er von einem autoritativen Server eine negative Antwort erhält. Rekursiv arbeitende Resolver überlassen also die Arbeit zur vollständigen Auflösung ihrem Nameserver. Bei einer iterativen Anfrage bekommt der Resolver entweder den gewünschten Resource Record oder einen Verweis auf weitere Nameserver, die er als Nächstes fragt. Der Resolver hangelt sich so von Nameserver zu Nameserver, bis er von einem eine verbindliche Antwort erhält. Die so gewonnene Antwort übergibt der Resolver an das Programm, das die Daten angefordert hat, beispielsweise an den Webbrowser. Übliche Resolver von Clients arbeiten ausschließlich rekursiv, sie werden dann auch als Stub-Resolver bezeichnet. Nameserver besitzen in der Regel eigene Resolver. Diese arbeiten gewöhnlich iterativ. Bekannte Programme zur Überprüfung der Namensauflösung sind nslookup, "host" und dig. Protokoll. DNS-Anfragen werden normalerweise per UDP Port 53 zum Namensserver gesendet. Der DNS-Standard fordert aber auch die Unterstützung von TCP für Fragen, deren Antworten zu groß für UDP-Übertragungen sind. Falls kein Extended DNS verwendet wird (EDNS), beträgt die maximal zulässige Länge des DNS-UDP-Pakets 512 Bytes. Überlange Antworten werden daher abgeschnitten übertragen. Durch Setzen des Truncated-Flags wird der anfragende Client über diesen Sachverhalt informiert. Er muss dann entscheiden, ob ihm die Antwort reicht oder nicht. Gegebenenfalls wird er die Anfrage per TCP Port 53 wiederholen. Zonentransfers werden stets über Port 53 TCP durchgeführt. Die Auslösung von Zonentransfers erfolgt aber gewöhnlich per UDP. Aufbau der DNS-Datenbank. Das Domain Name System kann als verteilte Datenbank mit baumförmiger Struktur aufgefasst werden. Beim Internet-DNS liegen die Daten auf einer Vielzahl von weltweit verstreuten Servern, die untereinander über Verweise – in der DNS-Terminologie "Delegierungen" genannt – verknüpft sind. Im Laufe der Zeit wurden neue Typen definiert, mit denen Erweiterungen des DNS realisiert wurden. Dieser Prozess ist noch nicht abgeschlossen. Eine umfassende Liste findet sich unter "Resource Record". Folgender "NS Resource Record" ist in der Zonendatei der Domain „"org."“ definiert: Die Zonendatei für die Domain „"wikipedia.org."“ befindet sich auf dem Server „"ns0.wikimedia.org."“. Der Punkt am Ende ist wichtig, da dieser klarstellt, dass kein relativer Name gemeint ist, also hinter „"org"“ nichts mehr zu ergänzen ist. „"IN"“ meint, dass der Eintrag die Klasse „Internet“ besitzt und die Zahl davor bedeutet die "Time To Live (TTL)" in Sekunden, sie besagt, wie lange diese Information in einem Cache zwischengespeichert werden könnte, bevor sie neu erfragt werden sollte. Bei dynamischen IP-Adressen liegt diese Zahl meistens zwischen 20 und 300 Sekunden. Folgender "CNAME Resource Record" in der Zonendatei der Domain „"wikipedia.org."“ definiert: Der Name „"de.wikipedia.org."“ verweist auf den Namen „"rr.wikimedia.org."“. Folgende "Resource Records" in der Zonendatei der Domain „"wikimedia.org."“ definieren: Der Name „"rr.wikimedia.org."“ verweist auf den Namen „"rr.esams.wikimedia.org."“ und diesem wiederum ist die IPv4-Adresse 91.198.174.232 zugewiesen. Letztlich müssen also alle Rechner, die sich mit „"de.wikipedia.org."“ verbinden möchten, IPv4-Pakete an die IP-Adresse 91.198.174.232 senden. Auflösung eines DNS-Requests. Angenommen, ein Rechner "X" will eine Verbindung zu „"de.wikipedia.org."“ (Rechner "Y") aufbauen. Dazu braucht er dessen IP-Adresse. In den folgenden Schritten wird beschrieben, wie dies ablaufen könnte. Falls der Rechner "X" IPv6-fähig ist, läuft der Vorgang zunächst für IPv6 (Abfrage von "AAAA Resource Record") und sofort danach für IPv4 (Abfrage von "A Resource Record") ab. Dabei kann eine Anfrage nach einer IPv6-Adresse mittels IPv4-Übertragung an einen IPv4-DNS-Server gerichtet werden. Falls am Ende eine IPv6- und eine IPv4-Adresse für Rechner "Y" ermittelt werden, wird in der Regel laut der "Default Policy Table" in RFC 3484 die Kommunikation zwischen "X" und "Y" über IPv6 bevorzugt, es sei denn im Betriebssystem oder in den benutzten Anwendungen, wie zum Beispiel dem Webbrowser, wurde dieses Verhalten anders eingestellt. Beispiel Namensauflösung. $ dig +trace +additional -t A www.heise.de. 192.168.2.1 (siehe letzte Zeile) ist der eingetragene Nameserver des abfragenden Rechners, welcher auf die Root-Nameserver verweist, die alle weiter via IPv4 befragt werden können, einige zusätzlich auch mittels IPv6. Die Root-Nameserver verwalten die Wurzel-Zone (Zone, die die Nameserver für.org.de.com und andere Top Level Domains enthält) der Namensauflösung, dargestellt durch einen Punkt. Die IP-Adressen der Root-Nameserver ändern sich sehr selten und müssen allen Nameservern bekannt sein, sofern sie das Internet betreffende Anfragen beantworten. (Diese IP-Adressen können beispielsweise in einer als "Root Hints" bezeichneten Textdatei mitgeliefert werden.) Aus den 13 genannten Root-Nameservern wurde zufällig „"I.ROOT-SERVERS.NET."“ ausgewählt, um ihm die Frage nach „"www.heise.de."“ zu stellen. Er antwortete mit sechs Nameservern zur Auswahl, die für die Zone „"de."“ verantwortlich sind. Auch hier ist bei zwei Servern die Abfrage mittels IPv6 möglich. Aus den sechs genannten Nameservern wurde zufällig „"F.NIC.de."“ ausgewählt, um Näheres über „"www.heise.de."“ zu erfahren. Er beantwortet die Anfrage mit fünf möglichen Delegierungen. Unter anderem mit einer Delegierung auf den Server „"ns.heise.de."“. Diese Information würde ohne den dazugehörigen "A Resource Record", auf 193.99.145.37 zeigend, auf demselben Server nichts helfen, denn der Name liegt in der Zone „"heise.de."“, die er selbst verwaltet. Man spricht bei dieser Art von Information auch von "Glue Records" (von engl. "glue", kleben). Sollte der Server „"ns2.pop-hannover.net."“ für den nächsten Schritt ausgewählt werden, so wäre in einer gesonderten Namensauflösung zunächst dessen IP-Adresse zu bestimmen, da diese hier nicht mitgesendet wurde. Aus den fünf genannten Nameservern wurde zufällig „"ns.pop-hannover.de."“ herangezogen, um die Frage nach „"www.heise.de."“ zu beantworten. Die Antwort lautet 193.99.144.85. Damit ist die Anfrage am Ziel angelangt. Es werden auch wieder dieselben Nameserver als verantwortlich für „"heise.de."“ genannt, ohne also auf andere Nameserver zu verweisen. Beispiel Reverse Lookup. Für den "Reverse Lookup", also das Auffinden eines Namens zu einer IP-Adresse, wandelt man die IP-Adresse zunächst formal in einen Namen um, für den man dann das DNS nach einem "PTR Resource Record" befragt. Da die Hierarchie bei IP-Adressen von links nach rechts spezieller wird (siehe Subnetz), beim DNS aber von rechts nach links, dreht man beim ersten Schritt die Reihenfolge der Zahlen um und aus der IPv4-Adresse 193.99.144.85 wird z. B. der Name „85.144.99.193.in-addr.arpa.“ sowie aus der IPv6-Adresse 2a02:2e0:3fe:100::6 der Name „6.0.0.0.0.0.0.0.0.0.0.0.0.0.0.0.0.0.1.0.e.f.3.0.0.e.2.0.2.0.a.2.ip6.arpa.“ erzeugt. (Dieser Name ist lang, da die implizit enthaltenen Nullen nun wieder explizit genannt werden müssen.) $ dig +trace +additional -t PTR 85.144.99.193.in-addr.arpa. Die Antwort lautet also „"www.heise.de."“. Es ist jedoch weder notwendig, dass jeder IP-Adresse ein Name zugeordnet ist, noch müssen Hin- und Rückauflösung einander entsprechen. Die Auflösung beginnt wieder mit dem Verweis auf die Root-Nameserver und die Delegierungen finden offensichtlich an den durch Punkte markierten Grenzen zwischen den Zahlen statt. Man sieht in dem Beispiel jedoch auch, dass nicht an jedem Punkt in einem Namen delegiert werden muss. Erweiterungen. Da sich das DNS als zuverlässig und flexibel erwiesen hat, wurden im Laufe der Jahre mehrere größere Erweiterungen eingeführt. Ein Ende dieses Trends ist nicht absehbar. Dynamisches DNS. Im klassischen DNS ist es aufwendig, einem Namen eine neue IP-Adresse zuzuordnen. Das zugehörige Zonenfile muss (meist manuell) geändert und der Nameserver neu geladen werden. Zeitliche Verzögerungen bis hin zu mehreren Tagen sind üblich. Mit dynamischem DNS sind Änderungen durch Senden einer Aktualisierungsanfrage mit geringer Zeitverzögerung möglich. Das Dynamische DNS gilt als Sicherheitsrisiko, da ohne spezielle Vorkehrungen jedermann DNS-Einträge löschen oder verändern kann. In Zusammenhang mit DHCP ist Dynamisches DNS nahezu zwingend erforderlich, da einem User häufig neue IP-Adressen zugewiesen werden. Der DHCP-Server sendet dazu bei jeder Adressänderung eine entsprechende Mitteilung an den Nameserver. Internationalisierung. Bisher waren die Labels auf alphanumerische Zeichen und das Zeichen ‚-‘ eingeschränkt. Möglich, aber nicht standardkonform, ist bei Subdomains zudem ‚_‘. Dieser begrenzte Zeichenvorrat hängt vor allem damit zusammen, dass das DNS (wie auch das Internet ursprünglich) in den USA entwickelt wurde. Damit waren in vielen Ländern gebräuchliche Schriftzeichen (im deutschen Sprachraum zum Beispiel die Umlaute ä, ö und ü sowie ß) oder Zeichen aus komplett anderen Schriftsystemen (zum Beispiel Chinesisch) ursprünglich nicht in Domainnamen möglich. Ein mittlerweile etablierter Ansatz zur Vergrößerung des Zeichenvorrats ist die 2003 in RFC 3490 eingeführte und 2010 mit RFC 5890 aktualisierte Internationalisierung von Domainnamen (IDNA). Um das neue System mit dem bisherigen kompatibel zu halten, werden die erweiterten Zeichensätze mit den bislang zulässigen Zeichen kodiert. Die erweiterten Zeichensätze werden dabei zunächst normalisiert, um unter anderem Großbuchstaben auf Kleinbuchstaben abzubilden, und anschließend per Punycode auf einen ASCII-kompatiblen String abgebildet. IDNA erfordert eine Anpassung der Netzwerkanwendungen (zum Beispiel Webbrowser), die Nameserver-Infrastruktur (Server, Resolver) braucht jedoch nicht verändert zu werden. Im deutschsprachigen Raum können seit März 2004 deutsche, liechtensteinische, österreichische und schweizerische Domains (.de.li.at und.ch) mit Umlauten registriert und verwendet werden. Auch bei anderen Top-Level-Domains, insbesondere im asiatischen Raum, ist die Verwendung von internationalisierten Domainnamen möglich. Extended DNS. 1999 beschrieb Paul Vixie im RFC 2671 einige kleinere, abwärtskompatible Erweiterungen am Domain Name System, die als EDNS Version 0 bezeichnet werden. Durch Einsatz eines Pseudo-Records als Header-Erweiterung kann der Anfragende zusätzliche Optionen setzen. Insbesondere kann er übermitteln, dass er UDP-Antworten größer als 512 Bytes entgegennehmen kann. DNSSEC-fähige Server und Resolver müssen EDNS beherrschen. Verwaltung von Telefonnummern. Eine weitere aktuelle Erweiterung des DNS stellt ENUM (RFC 2916) dar. Diese Anwendung ermöglicht die Adressierung von Internet-Diensten über Telefonnummern, also das „Anwählen“ von per Internet erreichbaren Geräten mit dem aus dem Telefonnetz bekannten Nummerierungsschema. Aus dem breiten Spektrum der Einsatzmöglichkeiten bietet sich insbesondere die Verwendung für Voice over IP Services an. RFID-Unterstützung. Mit der Radio Frequency Identification können auf speziellen RFID-Etiketten abgelegte IDs – so genannte elektronische Produktcodes oder EPCs – berührungslos gelesen werden. Das DNS kann dazu verwendet werden, zu einer ID den Server zu ermitteln, der Daten über das zugehörige Objekt enthält. Der Object Naming Service ONS wandelt dazu den EPC in einen DNS-Namen um und erfragt per Standard-DNS einen oder mehrere Naming Authority Pointer NAPTR. Spam-Abwehr. Zur Filterung von Spam-Mails überprüfen viele Mailserver den DNS-Eintrag des sendenden Mailservers routinemäßig mit Hilfe des Reverse DNS Lookup. Dieser muss nicht nur auch vorwärts wieder korrekt auflösen und auf die IP-Adresse des sendenden Systems zeigen (Forward-confirmed reverse DNS), sondern muss auch dem im SMTP-Protokoll genannten HELO-Hostnamen des sendenden Systems entsprechen. Mittels Sender Policy Framework wird versucht, den Versand von gefälschten Absendern durch Dritte möglichst zu unterbinden. Zu jeder Mail-Domain wird dabei über einen speziellen SPF Resource Record explizit aufgelistet, von welchen Servern und IP-Netzen mit E-Mails dieser Domain zu rechnen ist. SPF steht jedoch wegen zahlreicher technischer Schwierigkeiten, beispielsweise bei Weiterleitungen, in der Kritik. Auch der Anti-Spam-Mechanismus DomainKeys (DKIM) greift auf Einträge im DNS zurück, indem sendende Mailserver in DNS-TXT-Records ihren Public-Key veröffentlichen, mit dem die Signatur ihrer ausgehenden E-Mails verifiziert werden kann. Sonstiges. Neben den IP-Adressen können DNS-Namen auch ISDN-Nummern, X.25-Adressen, ATM-Adressen, öffentliche Schlüssel, Text-Zeilen usw. zugeordnet werden. In der Praxis sind derartige Anwendungsfälle aber die Ausnahme. DNS im lokalen Netz. DNS ist nicht auf das Internet beschränkt. Es ist ohne weiteres möglich und mit der Definition verträglich, für die Auflösung lokaler Namen eigene Zonen im Nameserver einzurichten und dort die entsprechenden Adressen einzutragen. Der einmalige Aufwand zur Installation lohnt sich auch bei relativ kleinen Netzen, da dann alle Adressen im Netz zentral verwaltet werden können. Bei größeren Firmen oder Organisationen ist häufig ein aus lokalem und Internet-DNS bestehendes Mischsystem (Split-DNS) anzutreffen. Die internen Nutzer greifen auf das lokale und die externen auf das Internet-DNS zu. In der Praxis können dadurch sehr komplizierte Konstellationen entstehen. Der DNS-Server BIND kann auch mit DHCP zusammenarbeiten und damit für jeden Client im Netz eine Namensauflösung ermöglichen. Unter Windows gibt es noch einen anderen Dienst zur Namensauflösung – WINS, der eine ähnliche Funktion zur Verfügung stellt, allerdings ein anderes Protokoll verwendet. DNS-Serververbund. Es ist möglich, mehrere DNS-Server zu verbinden. Die als Master bezeichneten Server sind für eine oder mehrere Domains verantwortlich. Die Slaves aktualisieren nach einer Änderung selbst die Daten, der Master verteilt diese Daten nicht automatisiert. Die Abholung der Daten wird über einen Zonentransfer realisiert. Beispielsweise kann eine Firma mit mehreren Standorten an einem Platz einen Master für ihr internes DNS betreiben, der die Server in den Außenstellen versorgt. Der Zonentransfer geht bei BIND über TCP (per Default Port 53) und erfordert empfohlenerweise Authentifizierung. Die Slaves aktualisieren sich, wenn sich die Seriennummer für eine Zonendatei ändert oder sie eine entsprechende Nachricht vom Master erhalten. Die Freigabe für den Transferport sollte man per Firewall an die IP-Adresse des Masters binden. Bei anderen Softwarepaketen werden die Daten unter Umständen auf anderen Wegen abgeglichen, beispielsweise durch LDAP-Replikation, rsync, oder noch andere Mechanismen. Angriffsformen. Hauptziel von DNS-Angriffen ist es, durch Manipulation DNS-Teilnehmer auf falsche Webseiten zu lenken, um anschließend Passwörter, PINs, Kreditkartennummern usw. zu erhalten. In seltenen Fällen wird versucht, den Internet-DNS durch Denial-of-Service-Attacken komplett auszuschalten und so das Internet lahmzulegen. Außerdem kann das DNS dazu verwendet werden, gezielte Angriffe auf Einzelpersonen oder Unternehmen zu intensivieren. DDoS-Angriff auf Nameserver. Bei einem Distributed-Denial-of-Service-Angriff werden Nameserver durch einen hohen Datenstrom von DNS-Anfragen überlastet, so dass legitime Anfragen nicht mehr beantwortet werden können. Gegen DDoS-Angriffe auf Nameserver gibt es zur Zeit keine Abwehrmöglichkeit. Als vorbeugende Maßnahme kann lediglich versucht werden, die Nameserver entsprechend zu dimensionieren bzw. ein verteiltes Netz mit möglichst vielen Servern zu installieren. Um eine große Anzahl DNS-Anfragen zu erzeugen, werden bei solchen Angriffen Botnetze eingesetzt. Ein DDoS-Angriff kann unbeabsichtigt einen DNS-Server betreffen und zum Ausfall bringen, wenn der Domainname des Angriffsziels wiederholt aufgelöst wird ohne zwischengespeichert zu werden. Der Effekt auf DNS-Server wird verhindert, wenn das DDoS-Schadprogramm DNS-Caching verwendet. DNS-Amplification-Angriff. Die DNS Amplification Attack ist ein Denial-of-Service-Angriff, bei der nicht der DNS-Server selbst das eigentliche Angriffsziel ist, sondern ein Dritter. Ausgenutzt wird, dass DNS-Server in manchen Fällen auf kurze Anfragen sehr lange Antworten zurücksenden. Durch eine gefälschte Absenderadresse werden diese an die IP-Adresse des Opfers gesendet. Ein Angreifer kann damit den von ihm ausgehenden Datenstrom substanziell verstärken und so den Internet-Zugang seines Angriffziels stören. DNS-Spoofing. Beim DNS-Spoofing bekommt ein anfragender Client eine falsche IP-Adresse als Antwort, um ihn (z.B. zwecks Internet-Zensur oder Phishing) auf eine falsche bzw. gefälschte Website zu führen. Cache Poisoning. Beim Cache Poisoning werden einem anfragenden Client zusätzlich zur korrekten Antwort manipulierte Daten übermittelt, die dieser in seinen Cache übernimmt und später, möglicherweise ungeprüft, verwendet. Offener DNS-Server. Wer einen autoritativen DNS-Server für seine eigenen Domains betreibt, muss natürlich für Anfragen von beliebigen IP-Adressen offen sein. Um zu verhindern, dass Internetteilnehmer diesen Server als allgemeinen Nameserver verwenden (z. B. für Angriffe auf Root-Server), erlaubt BIND es, die Antworten auf die eigenen Domains einzuschränken. Z. B. bewirkt die Option codice_2, dass rekursive Anfragen, d. h. Anfragen auf andere Domains, ausschließlich für den lokalen Host (localhost) sowie 172.16.1.4 beantwortet werden. Alle anderen IP-Adressen bekommen nur auf Anfragen auf eigene Domains eine Antwort. Ein offener DNS-Server kann auch eine Falle sein, wenn er gefälschte IP-Adressen zurückgibt, siehe Pharming. Spamabwehr. Bei Schwarzen Listen (auch 'RBL'; Abkürzung für engl.) z. B. gegen Spammer, wird DNS angewendet, um abzufragen, ob ein Domainname oder eine IP-Adresse gelistet ist: Der Client schickt eine DNS-Anfrage an den Rbl-Server. Dieser antwortet mit '127.0.0.1', wenn die Adresse nicht gelistet ist, sonst mit '127.0.0.x', x>1. Der Wert von 'x' kann noch zusätzliche Informationen über die gelistete Adresse enthalten. Da der Bereich 127.0.0.0/8 für Localhost reserviert ist, sind Missdeutungen nicht möglich. Domain-Registrierung. Um DNS-Namen im Internet bekannt machen zu können, muss der Besitzer die Domain, die diesen Namen enthält, registrieren. Durch eine Registrierung wird sichergestellt, dass bestimmte formale Regeln eingehalten werden und dass Domain-Namen weltweit eindeutig sind. Domain-Registrierungen werden von Organisationen (Registrars) vorgenommen, die dazu von der IANA bzw. ICANN autorisiert wurden. Registrierungen sind (von wenigen Ausnahmen abgesehen) gebührenpflichtig. Für Domains unter.de ist die DENIC zuständig. Detaillierte Informationen finden sich unter Domain-Registrierung. Bonjour bzw. Zeroconf. Apple hat bei der Entwicklung von OS X mehrere Erweiterungen am DNS vorgenommen, welche die umfassende Selbstkonfiguration von Diensten in LANs ermöglichen soll. Zum einen wurde Multicast DNS („mDNS“) eingeführt, das die Namensauflösungen in einem LAN ohne einen dedizierten Namensserver erlaubt. Zusätzlich wurde noch DNS-SD (für „DNS Service Discovery“) eingeführt, die die Suche („Browsing“) nach Netzwerkdiensten in das DNS beziehungsweise mDNS ermöglicht. mDNS und DNS-SD sind bisher keine offiziellen RFCs des IETF, sind aber trotzdem bereits in verschiedenen (auch freien) Implementationen verfügbar. Zusammen mit einer Reihe von anderen Techniken fasst Apple DNS-SD und mDNS unter dem Namen „Zeroconf“ zusammen, als Bestandteil von OS X auch als „Rendezvous“ bzw. „Bonjour“. Die meisten Linux Distributionen unterstützen diese Erweiterung z.B. mit der avahi-Implementierung von Zeroconf. Zensur und alternative DNS. Seit den Debatten um Sperrungen von Internetinhalten in Deutschland und Zensur im Internet allgemein, gibt es eine Reihe von alternativen DNS-Anbietern, die Domains nach eigener Aussage nicht zensieren. Beispiele sind Open Root Server Network, Cesidian ROOT, OpenNIC, Projekte von deutschen Vereinen wie dem Chaos Computer Club, digitalcourage und der German Privacy Foundation, sowie kommerzielle Anbieter wie OpenDNS. Namecoin. Namecoin ist ein alternatives verteiltes Domain-Name-System (DNS) auf der Basis der Bitcoin-Software. Es erweitert die Software derart, dass Transaktionen zum Registrieren, Aktualisieren und Übertragen von Domains dienen. Ebenso wie Bitcoin ist Namecoin ein Peer-to-Peer-System, das unter der Annahme einer ehrlichen Teilnehmermehrheit nicht durch einen einzelnen Staat oder eine Firma kontrolliert werden kann. Die Software ist Open Source und wird auf GitHub gehostet. Dresden. Dresden (, von altsorbisch „Sumpf-“ oder „Auwald-Bewohner“) ist die Landeshauptstadt des Freistaates Sachsen. Mit 536.308 Einwohnern (31. Dezember 2014) ist Dresden nach Leipzig die zweitbevölkerungsreichste sächsische Stadt und die zwölftstärkste Kommune Deutschlands. Als Sitz der sächsischen Landesregierung und des Landtags sowie zahlreicher Landesbehörden ist die Stadt politisches Zentrum des Landes. Außerdem sind viele bedeutende Bildungs- und Kultureinrichtungen des Freistaates hier konzentriert, darunter die renommierte TU Dresden, die HTW und die Kunstakademie. Die an der Elbe gelegene "kreisfreie Stadt" ist sowohl eines der sechs Oberzentren Sachsens als auch Verkehrsknotenpunkt und wirtschaftliches Zentrum des Ballungsraumes Dresden, einer der ökonomisch dynamischsten Regionen in Deutschland mit über 760.000 Einwohnern. Innovationen und Spitzentechnologien spielen im Raum Dresden eine herausragende Rolle, wirtschaftlich bedeutend sind etwa die Informationstechnik und Nanoelektronik, bei denen Dresden weltweit eine führende Rolle spielt, weshalb es sich auch als Zentrum von „Silicon Saxony“ positioniert. Ebenfalls große Wertschöpfung im Raum Dresden erbringen die Branchen Pharmazie und Kosmetik, Maschinen-, Fahrzeug- und Anlagenbau, Lebensmittel, die optische Industrie, Dienstleistungen und Handel sowie der Tourismus. Archäologische Spuren auf dem späteren Stadtgebiet deuten auf eine Besiedlung schon in der Steinzeit hin. In erhaltenen Urkunden wurde Dresden 1206 erstmals erwähnt und entwickelte sich zur kurfürstlichen, später königlichen Residenz und Hauptstadt der sächsischen Republiken. International bekannt ist die Landeshauptstadt für ihre in großen Teilen rekonstruierte und durch verschiedene architektonische Epochen geprägte Altstadt mit der Frauenkirche am Neumarkt, der Semperoper und der Hofkirche sowie dem Residenzschloss und dem Zwinger. Der 1434 begründete Striezelmarkt ist einer der ältesten und bekanntesten Weihnachtsmärkte Deutschlands. Dresden wurde historisch auch „Elbflorenz“ genannt, ursprünglich vor allem wegen seiner Kunstsammlungen; maßgeblich trug dazu sowohl seine barocke und mediterran geprägte Architektur als auch seine Lage im Elbtal bei. Elbpanorama der historischen Altstadt Dresdens Lage und Fläche. Blick von der Frauenkirche flussaufwärts Die Stadt liegt beiderseits der Elbe zu großen Teilen in der Dresdner Elbtalweitung, eingebettet zwischen den Ausläufern des Osterzgebirges, dem Steilabfall der Lausitzer Granitplatte und dem Elbsandsteingebirge am Übergang vom Nordostdeutschen Tiefland zu den östlichen Mittelgebirgen im Süden Ostdeutschlands. Das nördliche und nordöstliche Stadtgebiet gehört naturräumlich daher zum Westlausitzer Hügel- und Bergland (Dresdner Heide und Schönfelder Hochland). Im Süden kennzeichnen die Talausgänge der Erzgebirgsabflüsse und Hochlagen den Übergang zum Östlichen Erzgebirgsvorland (eingegrenzter als "Dresdner Erzgebirgsvorland" und Meißner Hochland bezeichnet). Die Dresdner Elbtalweitung ist eine Untereinheit des Sächsischen Elblands. Vom Bundesamt für Naturschutz wurde Dresden vollständig der naturräumlichen Großlandschaft „D19 Sächsisches Hügelland und Erzgebirgsvorland“ zugeordnet. Als Höhenreferenz für Dresden gilt der Altmarkt als zentraler Platz der Stadt mit einer Höhe von, der Nullpunkt des Elbpegels liegt bei 102,73 m. Die höchste Erhebung im Stadtgebiet ist der rechts der Elbe gelegene 383 m hohe Triebenberg, der tiefste Punkt liegt am Elbufer in Niederwartha mit 101 m. Die Stadt ist nach teils großflächigen Eingemeindungen hinter Berlin, Hamburg und Köln und vor Bremen und München ihrer Fläche nach die viertgrößte Großstadt Deutschlands und steht in der Liste der flächengrößten Städte und Gemeinden Deutschlands insgesamt an dreizehnter Stelle. Die Länge der Stadtgrenze beträgt 139,65 km. Die Ausdehnung des Stadtgebiets beläuft sich in Nord-Süd-Richtung auf 22,6, in Ost-West-Richtung auf 27,1 km. Durch das Stadtgebiet fließen außer der schiffbaren Elbe (Länge im Stadtgebiet: 30 km) die beiden im Osterzgebirge entspringenden linken Nebenflüsse Weißeritz und Lockwitzbach sowie die rechts zufließende Prießnitz. Daneben fließen auf dem Stadtgebiet noch kleinere Flüsse wie der Kaitzbach oder der Lausenbach. "Siehe auch: Liste der Landschaften in Sachsen, Liste der Gewässer in Sachsen" Natur. Dresden gehört nach großflächigen Eingemeindungen mit 63 % Grün- und Waldflächen zu den grünsten Großstädten in Europa, wovon die Dresdner Heide mit 5876 ha die größte geschlossene Waldfläche bildet. Insgesamt liegen in Dresden 7341 ha Waldflächen und 676 ha Wasserflächen. Im Stadtgebiet gibt es drei Naturschutzgebiete mit 241 ha und elf Landschaftsschutzgebiete mit mehr als 12.000 ha Fläche, teilweise deckungsgleich mit zehn FFH-Gebieten mit knapp 1900 ha Fläche. Zahlreiche denkmalgeschützte Gärten, Alleen und Parkanlagen sowie Friedhöfe bilden 112 Naturdenkmäler mit 140 ha oder 15 geschützte Landschaftsbestandteile mit 71 ha. Im Stadtgebiet liegen zudem drei Vogelschutzgebiete mit 1612 ha. Das ehemalige UNESCO-Weltkulturerbe Dresdner Elbtal richtete schon im Namen den Fokus auf die Bewahrung der kulturlandschaftlichen Elemente. Die Natur- und Kulturräume der Elbwiesen ziehen sich fast 20 km durch das Stadtgebiet, sind aber in der Innenstadt unterbrochen. An einer zentralen und besonders breiten Stelle werden durch die von 2007 bis 2013 errichtete Waldschlößchenbrücke durchschnitten, weshalb nach jahrelanger Kontroverse 2009 die UNESCO die Streichung des Elbtals aus der Welterbeliste beschloss. Klima. Dresden liegt mit seinem vollhumiden Klima in der kühl-gemäßigten Klimazone, jedoch ist ein Übergang zum Kontinentalklima spürbar. Der größte Teil des bewohnten Stadtgebietes liegt im Elbtal. Dort herrscht ein milderes Klima als in den Stadtteilen auf den Hängen und im Hügelland der näheren Umgebung. Die Wetterwarte Dresden-Klotzsche befindet sich am nördlichen Stadtrand, oberhalb des Elbkessels. An ihrem Standort auf ist es das ganze Jahr etwa 1–2 Grad kälter als in der Innenstadt. In der Periode 1981 bis 2010 betrug die mittlere Temperatur in Klotzsche im Januar 0,1 °C und im Juli 19,0 °C. Die Monatstemperaturen in der Innenstadt weisen etwa ähnliche Werte auf wie die in südwestdeutschen Städten. Mit einer Jahresmitteltemperatur im Innenstadtbereich von 10,4 °C gehört Dresden zu den wärmsten Städten in Deutschland. Vor allem im Sommer ist die Lage zwischen der sehr warmen Lausitz und dem kühleren Erzgebirge bemerkenswert. Zwischen diesen beiden Regionen können an einzelnen Tagen Temperaturunterschiede von bis zu 10 Grad herrschen. Die Stadtgrenze ist dann in gewisser Weise zugleich eine Isotherme. Das Erzgebirge kann durch Föhnwetterlagen auf Sachsen wärmend einwirken. Der Februar ist mit im Mittel unter 40 mm Niederschlagshöhe der niederschlagsärmste Monate im langjährigen Mittel 1981 bis 2010, der Juli der niederschlagsreichste; dabei fallen in den westlichen Stadtteilen (Station Dresden-Gohlis, 591 mm) im Mittel rund 10 % weniger Niederschläge als in den östlichen Stadtteilen (Station Dresden-Hosterwitz, 670 mm). Die höchste Regenmenge innerhalb von 24 Stunden fiel am 12. August 2002 mit 158 mm. Die sogenannte Vb-Wetterlage, die zu diesem Niederschlagsereignis führte und den gesamten sächsischen und böhmischen Raum betraf, hatte ein starkes Elbhochwasser zur Folge. Hochwasserschutz. Aufgrund der Lage Dresdens an der Elbe und an Nebengewässern aus dem Osterzgebirge musste der Hochwasserschutz in der Entwicklung der Stadt berücksichtigt werden. Dazu wurden Freiräume belassen und Altarme weitestgehend baufrei gehalten. Zusätzlich zu dieser Retention gibt es Flutrinnen, die Wasser schneller abführen sollen. Systeme zur Hochwasserregulierung befinden sich dagegen kaum in der Stadt, sondern im südlich gelegenen Erzgebirge und am Oberlauf der Elbe. Umgebung. Nahe gelegene deutsche Großstädte sind Chemnitz (80 km südwestlich), Leipzig (100 km nordwestlich) und Berlin (200 km nördlich). 150 km südlich befindet sich die tschechische Hauptstadt Prag; 230 km östlich liegt Breslau "(Wrocław)", die nächstgelegene Partnerstadt Dresdens. In der Nachbarschaft liegen der Landkreis Bautzen mit der Stadt Radeberg, der Landkreis Sächsische Schweiz-Osterzgebirge mit den Städten Pirna, Heidenau und Freital und der Landkreis Meißen mit Moritzburg und der Stadt Radebeul. Alle erwähnten Städte grenzen direkt an Dresden und bilden den Kernraum des Ballungsraumes Dresden. Etwas weiter entfernt liegen Meißen, Riesa und die Bergstadt Freiberg. Weitere angrenzende Gemeinden sind die Stadt Wilsdruff und Klipphausen im Westen, Radeburg, Ottendorf-Okrilla und Wachau im Norden sowie Arnsdorf und Dürrröhrsdorf-Dittersbach im Osten. Südlich benachbart liegen Dohna, Kreischa und Bannewitz. Bevölkerung. Am Anfang des 20. Jahrhunderts gehörte Dresden zu den fünf bevölkerungsreichsten Städten in Deutschland. 1933 wurde mit 642.143 Einwohnern der höchste Wert in der Geschichte der Stadt erreicht. Die Volkszählung am 17. Mai 1939 ergab 629.713 Einwohner, davon 281.379 Männer und 348.334 Frauen. Durch den Zweiten Weltkrieg verringerte sich die Stadtbevölkerung auf etwa 468.000 (Zählung von 1946). Zwischenzeitlich wieder auf mehr als 500.000 Einwohner angestiegen, sank die Anzahl an wohnberechtigter Bevölkerung mit Erstwohnsitz durch Abwanderung und Suburbanisierung bis 1995 erneut auf etwa 469.000 Einwohner und damit auf nur knapp mehr als 1946. Danach wurde sie durch Eingemeindungen erhöht und steigt mittlerweile dauerhaft durch einen leichten Wanderungs- und Geburtenüberschuss an. Die Einwohnerzahl betrug am 30. Juni 2006 genau 500.068 (nur Hauptwohnsitze). Am 12. August 2006 wurde deshalb nach umfangreichen Ermittlungen ein Neugeborener symbolisch als der 500.000. Einwohner der Stadt nachträglich vom Oberbürgermeister begrüßt. Am 31. Dezember 2014 lebten in Dresden laut Melderegister der Landeshauptstadt 541.304 Einwohner. Mit inzwischen mehr als 6000 Geburten (im Jahr 2012) gilt Dresden mittlerweile als „Geburtenhauptstadt“ unter deutschen Großstädten. Im Jahr 2014 bezifferte sich die Arbeitslosenquote, d. h. Arbeitslose in Prozent aller zivilen Erwerbspersonen, auf 7,9 Prozent bzw. 22.255 Personen. Ende Dezember 2014 belief sich der Ausländeranteil (Wohnbevölkerung ohne deutsche Staatsangehörigkeit) auf 5,1 Prozent bzw. 27.796 Personen. Zu den größten im Verlauf des Jahres 2014 zugezogenen Ausländergruppen zählten Personen aus Syrien (512 Personen), Eritrea (216), China (172), Indien (129), Tunesien (109) und Libyen (78). Im Jahr 2013 nahm Dresden 1.333 Asylbewerber auf, 2014 wird mit 1.740 gerechnet. Im Juli 2015 lebten rund 2.600 Asylbewerber in Dresden. Aufgrund der steigenden Flüchtlingszahlen plant Dresden bis Ende 2016 14 neue Übergangswohnheime in Betrieb zu nehmen bzw. die Zahl der Übergangswohnheime auf 19 Standorte zu erweitern. Im Stadtgebiet entfallen 8087 Hektar auf Gebäude- und Freiflächen, im Jahr 2011 gab es in Dresden 292.740 Wohnungen mit 286.889 Haushalten. Wie feinstrukturiert und unterschiedlich die urbanen Räume besiedelt sind, zeigt sich beim Vergleich von Äußerer und Innerer Neustadt. Die Äußere Neustadt ist mit mehr als 11.000 Bewohnern pro Quadratkilometer der am dichtesten besiedelte Stadtteil Dresdens, während die Innere (historische) Neustadt mit etwa 3.000 Einwohnern pro km² eine weit geringere Bevölkerungsdichte hat, die jedoch noch weit über anderen Stadtteilen liegt. Der Bereich mit der dichtesten Besiedlung ist der Ortsamtsbereich Blasewitz: Dies ist vor allem mit dem Stadtteil Striesen verbunden, weniger mit dem früheren Gemeindegebiet von Blasewitz. Dichte Besiedlung ist hier nicht Anzeichen für schlechteren Wohnraum, wie es zu Zeiten enger Hinterhofbebauung noch gelten konnte, im Gegenteil: Die Grundsätze für die Bebauung haben schon in den 1880er Jahren einerseits zu den Dresdner Villen als Typus eines Mehrfamilienhauses geführt, andererseits führte dies trotz dichter Bebauung zu einem durchgrünten Stadtteil. Die Elbe mit ihren Auen wirkt im Bereich von Blasewitz überdies als Grenze des urbanen Raums, weshalb die linkselbischen dicht besiedelten und die rechtselbisch quasi unbewohnten Flächen der Dresdner Heide sehr nahe beieinander liegen. Blasewitz selbst wurde erst 1921 an Dresden angegliedert, wobei zu jener Zeit schon weite Teile des heutigen Ortsamtsbereichs (Striesen seit 1892) zur Stadt gehörten. Die Dresdner Heide wiederum liegt im Ortsamtsbereich Loschwitz, das mit 268 Einwohnern je Quadratkilometer das am dünnsten besiedelte Ortsamt ist. Erste Besiedlung, Stadtgründung und Mittelalter. Bereits in der Jungsteinzeit bestanden erste Siedlungen im Raum Dresden. Die Kreisgrabenanlagen in Nickern aus dem 5. Jahrtausend v. Chr. waren die ersten Monumentalbauten im heutigen Stadtgebiet. Die Furt durch die Elbe in Höhe der heutigen Altstadt bestand wahrscheinlich schon im frühen Mittelalter. Eine Besiedlung blieb aber trotz der lukrativen Lage an der Elbe und seiner fruchtbaren Böden aufgrund der starken Bewaldung problematisch. Das nahe Meißen war ab 986 bis 1423 ein zentraler Ort innerhalb der Markgrafschaft Meißen, die im Zuge der Expansion und Eingliederung der sorbischen Siedlungsgebiete östlich von Elbe und Saale errichtet wurde und ungefähr das Gebiet des heutigen Landes Sachsen umfasste. Südöstlich von Dresden befand sich zu dieser Zeit die reichsunmittelbare Burggrafschaft Dohna. Im Jahre 1206 wird Dresden erstmals in einer erhaltenen Urkunde genannt: "Acta sunt hec Dresdene". Das in Dresden ausgestellte Schriftstück befasst sich mit einer Gerichtsverhandlung wegen Schleifung der Burg Thorun auf dem Burgwartsberg, der im Gebiet der heutigen Stadt Freital südlich von Dresden zwischen Potschappel und Pesterwitz liegt. Die damalige Bezeichnung „Dresdene“ war vermutlich vom slawischen Begriff „Drežďany“ („Auwaldbewohner“, Mehrzahlform) abgeleitet, mit dem ursprünglich die Bewohner des Ortes bezeichnet worden waren. In einer Urkunde vom 21. Januar 1216 wird Dresden bereits als Stadt erwähnt: '. Eine Urkunde zur Verleihung des Stadtrechts ist bisher nicht aufgefunden worden, aber 1350 wird das rechtselbisch gelegene Dresden (Altendresden), die heutige Innere Neustadt, als selbstständige Ansiedlung „Antiqua Dressdin“ erstmals erwähnt. Die Verleihung des Stadtrechts an Altendresden soll am 21. Dezember 1403 durch Wilhelm I. erfolgt sein. Erst am 29. März 1549 bildeten unter Kurfürst Moritz die rechts- und linkselbischen Teile der Stadt eine Einheit. Frühe Neuzeit. Bei der Erlangung des Stapelrechts am 17. September 1455 war Dresden noch eine recht unbedeutende Stadt, wurde jedoch nach der Leipziger Teilung der wettinischen Länder 1485 für Jahrhunderte herzogliche Residenzstadt der sächsischen Herrscher und erfuhr mit der Erhebung des wettinischen Herrschaftsbesitzes zum Kurfürstentum und Königreich eine Aufwertung als politisches und kulturelles Zentrum. Durch den Übergang der kurfürstlichen Würde innerhalb des Hauses Wettin (Wittenberger Kapitulation) wurde die Stadt zur Hauptstadt des wichtigsten protestantischen Landes innerhalb des Heiligen Römischen Reiches Deutscher Nation. In dieser Zeit wurden wichtige kulturelle Einrichtungen begründet, die bis in die Gegenwart die besondere Geltung der Stadt ausmachen. Die von Kurfürst August 1556 zunächst in unmittelbarer Nähe des Residenzschlosses errichtete Münzstätte Dresden wurde nach Schließung sämtlicher Landesmünzstätten einzige Münzstätte im Kurfürstentum. Im Dreißigjährigen Krieg wurde Dresden nie geplündert oder zerstört, aber durch Pest und Hunger sowie die allgemeine wirtschaftliche Stagnation in seiner Entwicklung gestört. Die Geschichte seit dem Dreißigjährigen Krieg ist sehr wechselvoll: Zum einen entstanden die weltbekannten Bauwerke und Parkanlagen; auf der anderen Seite war die Stadt in fast alle großen europäischen Kriege verwickelt und wurde dabei mehrfach in Mitleidenschaft gezogen. Dresden war 1407–1695 von Hexenverfolgung betroffen. 22 Personen, 14 Frauen und acht Männer gerieten in Hexenprozesse. Darunter waren 1567 zwei Juden: Aron, gebürtig aus Prag, und Salomon, gebürtig aus Posen, unter dem Vorwurf des Besitzes eines Zauberbüchleins. Vier Frauen wurden verbrannt. Auch die Dresdner Ortsteile Cotta, Lausa und Leuben waren von Hexenverfolgung betroffen. 1685 brannte Altendresden komplett ab. Es wurde hernach über mehrere Jahrzehnte wiederaufgebaut und erst 1732 als „Neue Königliche Stadt“ vollendet. Schon seit längerem wird der Stadtteil deshalb als „Neustadt“ bezeichnet. Unter Friedrich August I., genannt „August der Starke“, errang Dresden die kulturelle Bedeutung, die es bis in die Moderne hat. Im Dezember 1745 wurde die Stadt im österreichischen Erbfolgekrieg zum ersten Mal durch Preußen erobert. Erneut wurde es im Siebenjährigen Krieg 1756 durch Preußen erfolglos besetzt. Als sich die österreichische Armee der Stadt näherte, rief der preußische Gouverneur zu Vergeltungsaktionen auf und ließ die Stadt teilweise abbrennen. 1760 belagerte Preußen Dresden erfolglos und beschoss dabei die Innenstadt. 1785 schrieb Friedrich Schiller für die Tafel der Freimaurerloge „Zu den drei Schwertern“ in Dresden das Gedicht "An die Freude". Dieses Gedicht wurde von Ludwig van Beethoven für seine 9. Sinfonie vertont. Die Melodie des Themas dieser Vertonung ist die Hymne der Europäischen Union. Im Frühjahr des Jahres 1791 wurde im nahe gelegenen Ort Pillnitz mit der Pillnitzer Deklaration ein Initial für die mehr als 150 Jahre währende Feindseligkeit zwischen Deutschland und Frankreich gelegt. Darin riefen die vornehmlich deutschen Monarchen die europäischen Mächte zur Zerschlagung der Französischen Revolution auf. 19. und frühes 20. Jahrhundert. In den Befreiungskriegen gegen Napoleon im Jahr 1813 fanden zahlreiche vorentscheidende Schlachten der Völkerschlacht bei Leipzig im Großraum Dresden statt. Sachsen, und damit Dresden, kämpfte auf der Seite von Frankreich; die Stadt wurde durch die Franzosen weiter befestigt und durch deren Truppen geschützt. Der auf die Märzrevolutionen folgende Dresdner Maiaufstand vom 3. bis 9. Mai 1849 zwang den sächsischen König Friedrich August II., die Stadt zu verlassen. Er konnte sie erst durch preußische Unterstützung wieder gewinnen. Bekannte Teilnehmer des Aufstandes waren Richard Wagner und Gottfried Semper; beide verließen daraufhin Sachsen. Nach Niederschlagung der Revolution fanden hier 1850/1851 die Dresdner Konferenzen statt, die einzigen in der Zeit des Deutschen Bundes, auf der alle Staaten vertreten waren. Im weiteren 19. Jahrhundert blieb Dresden von Kriegen verschont und wurde Hauptstadt eines der wohlhabendsten Bundesstaaten im Deutschen Reich. Im Ersten Weltkrieg blieb die Stadt zwar von direkten Kampfhandlungen unberührt, aber die Einwohnerzahl ging zwischen 1910 und dem ersten Nachkriegsjahr 1919 um fast 20.000 Menschen zurück. Weimarer Republik. Nach der Novemberrevolution 1918 wurde Dresden Hauptstadt des (ersten) Freistaates Sachsen. Es gehörte zu den zehn größten Städten in Deutschland und war ein kulturelles und wirtschaftliches Zentrum der Weimarer Republik. 1919 gründete sich die Dresdner Sezession, deren bekanntestes Mitglied Otto Dix war. Dieser Gruppe ging schon vor dem Ersten Weltkrieg die Vereinigung Brücke voraus. 1925 wurde mit der Palucca-Schule Dresden neben der bestehenden Hochschule für Bildende Künste eine bedeutende Schule der Darstellenden Kunst gegründet. Die Sächsische Staatsoper war eine bedeutende Bühne für Uraufführungen. Bis 1913 entstand das "Schauspielhaus" des Staatstheaters. Zwar verlegte die 1872 gegründete Dresdner Bank ihre Hauptverwaltung noch im 19. Jahrhundert nach Berlin, Dresden blieb aber bedeutender Bankenstandort vor allem kleinerer familiengeführter Privatbanken bis in die 1920er Jahre. Führende Unternehmen bestanden hier zwischen 1918 und 1933 im (Elektro-)Maschinenbau, der Pharmazie und Kosmetik sowie in der Tabakverarbeitung und Lebens- und Genussmittelindustrie. Teilweise haben sich diese Unternehmen (häufig in neu gegründeter Form) bis in die Gegenwart erhalten. Die durch die Stadt 1909 übernommenen Straßenbahnbetriebe wurden 1930 als Dresdner Straßenbahn AG wieder privatisiert. Zeit des Nationalsozialismus. Die etwa 5000 jüdischen Dresdner, die noch 1933 Gemeindemitglieder waren, wurden vertrieben oder später in Konzentrationslager deportiert. Der Antisemitismus in Dresden ist vor allem durch die Tagebücher Victor Klemperers („Ich will Zeugnis ablegen bis zum letzten“) dokumentiert. Nach dem Zweiten Weltkrieg lebten nur noch 41 Juden in der Stadt. Bei den Bücherverbrennungen am 10. Mai 1933 sollte unter anderem das Werk des Dresdners Erich Kästner „symbolisch für immer ausgetilgt werden“. Das vor allem expressionistische Kulturleben Dresdens aus dem ersten Viertel des 20. Jahrhunderts endete 1933. Die Werke von Ernst Ludwig Kirchner, Max Pechstein, Karl Schmidt-Rottluff oder Otto Dix dieser Zeit waren Teil der Ausstellung „Entartete Kunst“. 56 Werke der Galerie Neue Meister wurden beschlagnahmt. Auch die Staatsoper, geprägt von Werken von Richard Strauss, geriet in Bedrängnis. Schon im März 1933 wurde durch einen von der SA inszenierten Theater-Skandal bei einer „Rigoletto“-Aufführung ihr berühmter langjähriger Generalmusikdirektor Fritz Busch aus Dresden vertrieben; die einst von Busch entdeckte Erna Berger, inzwischen an der Berliner Staatsoper engagiert und an diesem Abend als Gilda gastierend, wurde Zeugin dieser Barbarei. Die Strauss-Oper „Die schweigsame Frau“ konnte dort 1935 wegen ihres jüdischen Librettisten Stefan Zweig überhaupt nur dank der Prominenz ihres Komponisten uraufgeführt werden, musste aber nach nur drei Wiederholungen vom Spielplan genommen werden und verschwand in Deutschland von der Bildfläche. Während der Novemberpogrome 1938 wurde die Alte Synagoge (Sempersynagoge) niedergebrannt. Zahlreiche Geschäfte und Wohnungen wurden vor den Augen der Polizei verwüstet und geplündert, jüdische Bürger misshandelt. Die männlichen wohlhabenden jüdischen Bürger wurden anschließend in Konzentrationslager verschleppt, um sie zur Emigration zu nötigen und ihr Vermögen zu arisieren. Zwischen 1939 und 1945 befanden sich KZ-Häftlinge, vor allem aus den Lagern in Auschwitz und Flossenbürg, in der Stadt in KZ-Außenlagern. Mehrere Hundert Frauen mussten Zwangsarbeit in der Rüstungsindustrie bei den Firmen Zeiss Ikon AG (im Goehle-Werk und in Dresden-Reick) und in der "Universelle"-Maschinenfabrik leisten. Außerdem gab es ein KZ-Außenlager in der Schandauer Straße 68 in Dresden-Striesen für den Berliner Rüstungsbetrieb "Bernsdorf & Co." 500 Juden im Alter zwischen 4 und 68 Jahren mussten hier im "Metallwerk Striesen" Zwangsarbeit leisten und wurden nach der Bombardierung Dresdens zu großen Teilen provisorisch nach Pirna, und später nach Zwodau und Theresienstadt evakuiert. In der Ausländerkinder-Pflegestätte „Kiesgrube Dresden“ wurden 497 Kinder geboren, 225 Säuglinge und Kleinkinder verstarben dort. Die noch erhaltenen Privatbanken im jüdischen Familienbesitz wurden unter Zwang der Dresdner Bank angeschlossen. Dresden war seit Jahrhunderten ein militärisches Zentrum und diente bis 1945 zur Aufstellung militärischer Großverbände. Die Albertstadt nördlich des Stadtzentrums war als autarke Militärstadt angelegt und wurde in der Zeit des Nationalsozialismus weiter ausgebaut. Der gleiche Blick nach der Trümmerberäumung 1949 Im Zweiten Weltkrieg wurden erste Luftangriffe auf den Großraum bereits im August 1944 geflogen, und die Stadt wurde auf Bombardierungen vorbereitet. Bei den Luftangriffen auf Dresden wurden in vier aufeinanderfolgenden nächtlichen Angriffswellen vom 13. bis 15. Februar 1945 weite Teile des Stadtgebietes durch britische und US-amerikanische Bomber schwer beschädigt. Die genaue Zahl der Opfer ist ungewiss. Früher fand sich in einzelnen – und weiter unbeirrt in vielen geschichtsrevisionistischen und rechtsradikalen – Publikationen die falsche Angabe von rund 350.000 Toten. Der "Report of the Joint Relief 1941–1946" des Internationalen Roten Kreuzes nennt eine ebenfalls falsche Opferzahl von 275.000. In jüngerer Zeit sind die Opferzahlen auf 22.700, höchstens 25.000 korrigiert worden. Dem Historiker Frederick Taylor zufolge gehe die falsche Opferzahl auf eine Fälschung der Nazis selber zurück: Ihr sei einfach eine Null hinzugefügt worden, um in neutralen Medien und Ländern Stimmung gegen die Alliierten zu machen. Der Schaden an Gebäuden wird ebenfalls häufig zu hoch angegeben. 60 Prozent des Stadtgebietes waren von den Angriffen schwer betroffen, 15 km² ausgehend von der Innenstadt wurden gar total zerstört; Stadtteile im Norden und Nordwesten waren dagegen wenig zerstört. Vorwiegend vom Flughafen Dresden aus wurde das ab Mitte Februar 1945 bis zum 6. Mai eingekesselte Breslau versorgt, ehe Dresden selbst am 8. Mai, dem Tag der bedingungslosen Kapitulation der Wehrmacht, von der Roten Armee besetzt wurde. Zuvor wurde in einer verdeckten Aktion ohne Wissen des jeweils anderen von dem Arbeiter Paul Zickler und dem Klempnermeister Erich Stöckel die von der SS geplante Sprengung des "Blauen Wunders" vereitelt. DDR-Zeit. Während der Zeit des Sozialismus wurden viele Reste der stark zerstörten Stadt beseitigt. Viele Ruinen Dresdens, darunter auch die Überreste der Sophienkirche, vor allem aber die historische Wohnbebauung, wurden abgetragen oder gesprengt. Das historische Stadtzentrum wurde dabei entkernt und fortlaufend wieder bebaut. Die Umgebung der einst so belebten Prager Straße glich einer Brachlandschaft, ehe sie anfangs der 1960er Jahre im sozialistischen Stil wieder bebaut wurde. Erneuert bzw. vollständig rekonstruiert wurden vor allem die historischen Monumentalbauwerke, so das Ständehaus (1946), die Augustusbrücke (1949), die Kreuzkirche (bis 1955), der Zwinger (bis 1963), die Katholische Hofkirche (bis 1965), die Semperoper (bis 1985), das Japanische Palais (bis 1987) und die beiden größten Bahnhöfe (teilweise fortlaufend). Einige dieser Arbeiten zogen sich, geprägt von der wirtschaftlichen Gesamtlage der DDR, über Jahrzehnte hin und waren mitunter für längere Zeit unterbrochen worden. Das Schloss wurde über viele Jahre gesichert und Teile rekonstruiert (so der Stallhof). Erst ab 1986 begann der Wiederaufbau, der bis in die Gegenwart dauert. Die Ruine der Frauenkirche sollte als Mahnmal gegen den Krieg auf dem Neumarkt verbleiben. Während so Theater- und Schloßplatz 1990 zumindest nach historischem Vorbild bebaut waren, blieb der Neumarkt völlig unbebaut. Der Altmarkt dagegen ist geprägt von Bauten des Sozialistischen Klassizismus und einer Raumgestaltung und -ausrichtung nach sozialistischen Idealen (z. B. Kulturpalast). Von 1955 bis 1958 wurde ein großer Teil der von der Sowjetunion erbeuteten Kunstschätze zurückgegeben, so dass ab 1960 viele Museen der Staatlichen Kunstsammlungen in wiedererbauten Einrichtungen oder Interimsausstellungen eröffnet werden konnten. Die wichtigen Klangkörper wie die Staatskapelle traten in Ausweichspielstätten auf (zum Beispiel im Kulturpalast ab 1969). Teile der Kultureinrichtungen wurden aus der Innenstadt herausverlegt (so die Landesbibliothek in die Albertstadt). Die im Krieg nahezu unzerstörte Äußere Neustadt blieb aufgrund von Bürgerprotesten erhalten. Ihr drohte in den 1980er Jahren der Abriss, da ihre Bebauung stark vernachlässigt wurde und deshalb in schlechtem Zustand war. In Prohlis und Gorbitz entstanden Großsiedlungen in Plattenbauweise auf zuvor unbebautem Land. Die Johannstadt und andere Gebiete im Stadtzentrum wurden ebenso in Großblockbauweise überbaut. Weitestgehend erhalten wurden die Villenviertel in Blasewitz, Striesen, Kleinzschachwitz, Loschwitz und am Weißen Hirsch. Bis zum Ende des Kalten Krieges waren in und um Dresden die 1. Gardepanzerarmee der Sowjetarmee (4 Divisionen, Friedensstärke 9.767 Mann; Stab in Radebeul) sowie die 7. Panzerdivision der Nationalen Volksarmee (1956 aufgestellt, Friedensstärke 9.139 Mann) stationiert. Nach der Wende in der DDR ab 1989 wurden gemäß den Bestimmungen des Zwei-plus-Vier-Vertrags von 1990 die russischen Truppen Anfang der 1990er Jahre aus Deutschland abgezogen und die NVA aufgelöst. Zwischen dem 30. September und dem 5. Oktober 1989 fuhren Sonderzüge mit den Flüchtlingen aus der bundesdeutschen Prager Botschaft über Dresden und Plauen in die Bundesrepublik. Besonders in der Nacht vom 4. zum 5. Oktober versammelten sich tausende Menschen am Hauptbahnhof. Dabei kam es zu gewaltsamen Auseinandersetzungen zwischen Sicherheitskräften und Bürgern, die teils demonstrierten, teils die Züge zur Flucht erreichen wollten. Am 8. Oktober zogen rund 20.000 Menschen durch Dresden und demonstrierten unter anderem für Reise- und Meinungsfreiheit. Ein großer Teil von ihnen wurde von der Polizei auf der Prager Straße eingekesselt. Es bildete sich spontan die „Gruppe der 20“, die am nächsten Tag dem SED-Oberbürgermeister Wolfgang Berghofer die Forderungen der Demonstranten vorbrachte. Am Tag darauf fand in Leipzig die erste große Montagsdemonstration statt, wie sie in den folgenden Wochen in Dresden ebenfalls stattfanden. Seit 1990. Nach der politischen Wende 1989 und der deutschen Wiedervereinigung 1990 wurde Dresden wieder die Hauptstadt des neu errichteten Landes Sachsen. In der Stadt wurden nochmals einige alte Gebäude abgerissen. Viele andere wurden jedoch mit Hilfe steuerlicher Subventionen wieder restauriert. Viele Gebiete Dresdens gelten daher als Beispiele für die gelungene Restaurierung von Baudenkmälern und stehen als Gesamtensembles unter Denkmalschutz. Im August 2002 wurde die Stadt von der „Jahrhundertflut“ getroffen. Dabei überschwemmte die Elbe nebst mehrerer ihrer Nebengewässer die Stadt. Die Elbe erreichte einen Pegelstand, der das bis dato schwerste Hochwasser von 1845 übertraf. Das Reparieren der Infrastruktur dauert nach dem Hochwasser bis in die Gegenwart an; betroffene Bauwerke waren wesentlich schneller wieder hergerichtet. 2004 (bis 2009) wurde die Kulturlandschaft Dresdner Elbtal UNESCO-Weltkulturerbe. Am 30. Oktober 2005 wurde die Frauenkirche nach einem zehnjährigen Wiederaufbau, der weitgehend durch Spendengelder finanziert wurde, geweiht („Wunder von Dresden“). 2006 feierte die Stadt ihr 800-jähriges Bestehen (formal am Tag ihrer ersten urkundlichen Erwähnung am 31. März). Höhepunkt war dabei im Rahmen des Festumzuges im August eine Nachstellung des kompletten Fürstenzuges durch Reiter in historischen Kostümen. Am 5. Juni 2009 besuchte mit Barack Obama erstmals ein Präsident der Vereinigten Staaten die Stadt und traf sich mit Bundeskanzlerin Angela Merkel im Residenzschloss. Er besichtigte anschließend die Frauenkirche. 2009 entzog die UNESCO für das Elbtal erstmals den Weltkulturerbe-Status. 2012 wurde die TU Dresden in den Kreis der „Elite-Hochschulen“ Deutschlands aufgenommen. Um die Jahreswende 2014/2015 wurde Dresden weltweit als Ausgangsort der PEGIDA-Demonstrationen erwähnt. Die Stadt erhielt am 21. April 2015 zusammen mit der schwedischen Stadt Vara den Europapreis, welcher jährlich vom Ministerkomitee des Europarats an Gemeinden verliehen wird, die sich um den europäischen Gedanken verdient gemacht haben. Stadtgebietsentwicklung und Stadtgliederung. Ursprünglich lag der älteste Teil der Stadt rechtselbisch, also nördlich der Elbe. Den Stadtteil Altendresden gibt es nicht mehr. Nachdem er abbrannte, wurde er 1732 als "Neue Königliche Stadt", später vereinfacht "Neustadt", neu angelegt und ist mit der heutigen Inneren Neustadt deckungsgleich. Der Stadtteil südlich der Elbe wird daher mittlerweile als die historische Altstadt bezeichnet. Die flachere südliche Tallage hat eine stärkere Entwicklung begünstigt, so dass sich damit die gesamte Stadt nach Süden verlagert hat. Die Stadt dehnt sich nicht gleichmäßig aus, sondern folgt dem Tal in südöstlicher beziehungsweise nordwestlicher Richtung. Überall wuchs Dresden zunächst durch Vorstädte, die anfangs der Stadtbefestigung vorgelagert waren. Eingemeindungen von umliegenden Gemeinden gab es seit 1835, als Dresden sich nach Norden und Westen ausdehnte. Seitdem wurden 65 Landgemeinden, die vier Gutsbezirke Albertstadt, Wilder Mann, das Gorbitzer und das Pillnitzer Kammergut sowie die Stadt Klotzsche nach Dresden eingemeindet. Landgemeinden, die nach 1990 eingemeindet wurden, erhielten innerhalb der kommunalen Struktur kraft Gesetzes den Sonderstatus „Ortschaft“. Die größte Eingemeindung war die von Schönfeld-Weißig im Osten des Stadtgebietes. Dresden ist nicht nur durch die Eingemeindungen in den 1990er Jahren eine weitläufige Stadt mit unterschiedlichen Strukturen in den einzelnen Stadtteilen. Viele Stadtteile besitzen einen erhaltenen Dorfkern; einige sind vollständig dörflich erhalten. Andere prägende Strukturen sind die der Vorstädte und der Einzelbebauung durch Stadtvillen sowie die Plattenbauviertel. Es gibt daneben zahlreiche Stadtteile, die teilweise in enger Nachbarschaft verschiedene Strukturmerkmale aufweisen. Zur ursprünglichen Stadt gehörten Stadtteile, die in der gegenwärtigen Struktur fast alle zu den Ortsämtern Altstadt und Neustadt gehören. Neben diesen innerhalb der Stadtfestung liegenden Teilen entstanden außerhalb der Stadtmauern, jedoch meist auf Dresdner Flur, Vorstädte, die z. T. auf Anweisung sächsischer Herrscher angelegt worden waren und zum Teil nach diesen benannt wurden (Friedrichstadt, Albertstadt, Johannstadt). Weitere Dresdner Vorstädte wurden nach Stadttoren bzw. Ausfallstraßen (Wilsdruffer Vorstadt, Pirnaische Vorstadt) oder nach – nicht mehr vorhandenen – Naturmerkmalen (Seevorstadt) benannt. Die Antonstadt ist mittlerweile weitgehend unter dem Begriff Äußere Neustadt bekannt. Die anderen, nach Königen benannten Vorstädte blieben ihrerseits als Begriff erhalten. Später wuchs die Stadt vor allem im 19. Jahrhundert, als weitere Dörfer dichter bebaut wurden. Der Begriff Vorstadt wurde nach dem Ersten Weltkrieg für weitere Stadtteile nicht mehr verwendet. Von 1957 bis 1991 war das Stadtgebiet in die fünf Stadtbezirke Dresden-Mitte, -Ost, -West, -Süd und -Nord eingeteilt. Ortsamtsbereiche und Ortschaften. Seit 1991 gibt es die Gliederung in zehn Ortsamtsbereiche (für das Stadtgebiet vor 1990) und neun Ortschaften (nach 1990 eingemeindete Flächen). Ortsamtsbereiche sind Stadtteile beziehungsweise Ortsteile des Stadtgebietes mit Flächenstand vom 31. Dezember 1990 und haben jeweils ein Ortsamt, das heißt ein "Rathaus vor Ort", sowie einen Ortsbeirat im Sinne des von § 71 der Sächsischen Gemeindeordnung genannten Stadtbezirksrat, der zu allen wichtigen Angelegenheiten, die den Ortsamtsbereich betreffen, vom Stadtrat und seinen Ausschüssen anzuhören ist. Vorsitzender des Ortsbeirats ist die Oberbürgermeisterin oder eine von ihr beauftragte Person. Diese beauftragte Person ist in der Regel die Leiterin oder der Leiter der Verwaltung des Ortsamtsbereiches (Ortsamtsleiter). Die ehrenamtlich tätigen Mitglieder der Ortsbeiräte werden vom Stadtrat nach einem Parteien- und Listenproporz gewählt, der sich an den Wahlergebnissen bei der Stadtratswahl in den jeweiligen Ortsamtsbereichen orientiert. Die Ortsbeiräte (als Person) müssen ihren Hauptwohnsitz im jeweiligen Ortsamtsbereich haben. Der Ortsamtsbereich mit der größten Bevölkerung ist der von Blasewitz, der flächengrößte der von Loschwitz. Die Dresdner Innenstadt liegt in den Ortsamtsbereichen Altstadt und Neustadt. Bei den neun Ortschaften, die zum Teil ihrerseits aus mehreren Ortsteilen bestehen, handelt es sich – mit Ausnahme der Ortschaften Oberwartha und Schönborn – um erst Ende der 1990er Jahre eingegliederte und bis dahin selbständige Gemeinden. Eine weitere Ausnahme ist der Ortsteil Kauscha, der, bis 1999 zu Bannewitz gehörig, dem Ortsamt Prohlis angegliedert wurde. Für die Ortschaften wurden insgesamt fünf Verwaltungsstellen eingerichtet, lediglich die Ortschaft Altfranken wird vom Ortsamt Cotta mitverwaltet. Je Ortschaft existiert ein Ortschaftsrat, der – im Gegensatz zu den Ortsbeiräten der Ortsamtsbereiche – direkt von den Bürgern der Ortschaft zeitgleich mit dem Stadtrat gewählt wird. Jeder Ortschaftsrat wählt für seine Ortschaft einen Ortsvorsteher. Im Gegensatz zu den Ortsbeiräten haben die Ortschaftsräte eigene Entscheidungskompetenzen und dafür eigene Budgets innerhalb des Stadthaushaltes, über das sie selbst verfügen. Soweit sich ihre Entscheidungsbefugnisse nicht aus der Sächsischen Gemeindeordnung ergeben, regeln die jeweiligen Eingemeindungsverträge im Detail ihre Kompetenzen. Die größte und bevölkerungsreichste Ortschaft ist Schönfeld-Weißig, die sich im Schönfelder Hochland erstreckt. Sie entstand ihrerseits aus mehreren ehemaligen Gemeinden, die sich in den 1990er Jahren zunächst als Gemeinde Schönfeld-Weißig vereinigt hatten. Die viele Jahre nur inoffiziell diskutierte „Einführung der Ortschaftsverfassung für das gesamte Stadtgebiet Dresdens“ war 2014 ein Wahlkampfthema und wird wahrscheinlich zur nächsten Stadtratswahl 2019 eingeführt. Dresdner Ortsämter, Ortschaften und Stadtteile im Detail Namensherkunft der Ortsteile. Sehr viele Stadtteilnamen sind wie der Stadtname Dresdens sorbischer Herkunft. Typische Endungen der Namen sind „-itz“ und – ursprünglich eine Suffixverbindung mit dem Vorigen – „-witz“. Beide Endungen haben adjektivische Funktion; erstere sind Ableitungen von Appellativen, letztere von Personennamen und sind damit Patronyme. "-nitz" ist etymologisch keine eigene Endung, sondern eine Verbindung von stammauslautendem "-n" mit der Endung "-itz". Die im Gefolge der Ostkolonisation eingedeutschten Endungen gehen somit häufig auf ursprüngliche (mittelalterliche) Besitzverhältnisse zurück. Leutewitz zum Beispiel wurde erstmals als "Ludiwice" „bei den Ludischen, d. h. bei den Leuten des Lud, Dorf des Lud“ erwähnt. Pillnitz hieß ursprünglich "Belenewitz" „Dorf des Belan“. Andere Stadtteilteilnamen sind aus geografischen Merkmalen gebildet worden; so bedeutet Klotzsche „gerodeter Wald“. Sehr wenige Ortsbezeichnungen wie Langebrück haben ihren Ursprung tatsächlich in der deutschen Sprache. Die (neueren) Ortsbezeichnungen „Weißer Hirsch“ und „Wilder Mann“ gehen beide auf Gastwirtschaften zurück, die sich in diesen Randlagen der Stadt befanden. Die Stadtteilbezeichnung Gittersee ist eine Volksetymologie und entwickelte sich aus dem slawischen „Geterssin“. Politik. a>“ ist der Sitz der Stadtverwaltung Stadtverwaltung. Die insgesamt 70 Stadträte Dresdens werden nach dem in Sachsen auf kommunaler Ebene üblichen Personen-Mehrstimmenwahlsystem mit drei Stimmen – wobei Kumulieren und Panaschieren möglich ist – für eine Amtszeit von fünf Jahren gewählt. Die Stadt selbst wird dabei vor jeder Kommunalwahl in Wahlkreise aufgeteilt, die sich an einer annähernden Gleichzahl der Stimmberechtigten orientieren, womit sich allerdings ihre Grenzen von Wahl zu Wahl verschieben. Die Sitzverteilung im Stadtrat wird nach dem D’Hondt-Verfahren berechnet (KomWG) und auf dieser Grundlage, zunächst über die jeweilig höchste Stimmzahl der Wahlliste in den Wahlkreisen und anschließend die persönlich erreichte Stimmzahl auf der Wahlliste innerhalb des Wahlkreises, wiederum die gewählte Person oder die gewählten Personen bestimmt. Hauptorgan der Stadt ist der Stadtrat; er nimmt satzungsgebende Kompetenzen wahr und erlässt allgemein geltende Verordnungen, definiert die Grundlagen und fasst die Beschlüsse, nach denen die Stadtverwaltung (einschließlich Oberbürgermeister) zu handeln hat. Als Organ bestimmt er direkt über solche Angelegenheiten, die nicht im Kompetenzbereich des Oberbürgermeisters liegen. Die Mitglieder des Stadtrates bilden sechs Fraktionen – die Abgeordneten des Bürgerbündnisses und der Freien Bürger sind eine gemeinsame Fraktion, die NPD-Abgeordneten gelten als fraktionslos. Die Stadträte arbeiten in elf beschließenden Ausschüssen und einem beratenden Ausschuss und wirken außerdem in sieben Beiräten mit. Dem einzelnen Mitglied stehen umfangreiche Frage- und Auskunftsrechte zu sowie mit weiteren gemeinsam ein Akteneinsichtsrecht. Der Oberbürgermeister wiederum ist allein für die Weisungsaufgaben nach Bundes- und Landesrecht zuständig. Er leitet die Stadtverwaltung, verantwortet laufende Tagesgeschäfte und repräsentiert die Stadt. Entsprechend den Regelungen der Sächsischen Gemeindeordnung (SächsGemO) wird er für eine Amtszeit von sieben Jahren direkt von den Bürgern gewählt. Ihm zur Seite gestellt sind sieben Beigeordnete, die für einzelne Geschäftskreise zuständig sind und diese eigenverantwortlich leiten. Sie führen den Titel „Bürgermeister“, wobei der „Erste Bürgermeister“ den Oberbürgermeister ständig vertritt. Dies kam Ende 2014 bis Mitte 2015 voll zum Tragen, da die Oberbürgermeisterin Helma Orosz aus gesundheitlichen Gründen vorzeitig in den Ruhestand gegangen war. Ihr Stellvertreter, der seit 2008 Erste Bürgermeister Dirk Hilbert (FDP), wurde im zweiten Wahlgang am 5. Juli 2015 mit 54,2 % der Stimmen zum neuen Oberbürgermeister gewählt. Für Senioren, Ausländer und Behinderte sowie für geheimzuhaltende Angelegenheiten hat der Stadtrat Beiräte berufen, letzterer hat jedoch seit 1994 bis heute kein einziges Mal getagt. Alle Stadträte Dresdens sind auf der Internetseite abgeordnetenwatch.de vertreten. Auf dieser kann jeder Bürger den gewählten Kommunalpolitikern öffentlich Fragen stellen. Seit der Stadtratswahl 2014 hatte Oberbürgermeisterin Orosz (CDU) keine „eigene“ schwarz-gelbe Mehrheit mehr im Stadtrat. Im Nachgang der Wahl schlossen die Fraktionen SPD, Grüne, Die Linke sowie die beiden fraktionslosen Abgeordneten der Piraten eine „Kooperationsvereinbarung“. Diese haben mit 37 von 70 Sitzen eine Mehrheit im Stadtrat. Historische Entwicklung der städtischen Verwaltung. An der Spitze der Stadt gab es seit dem 13. Jahrhundert (1292) einen Rat mit einem Bürgermeister. Dieser wurde vom Rat gewählt und wechselte jährlich. Er war ehrenamtlich tätig. Besonderen Einfluss auf das Umland konnte die Stadt über das Brückenamt der Kreuzkirchgemeinde ausbauen, das in Konkurrenz zum Kloster Altzella Güter und Dörfer insbesondere auf dem späteren Stadtgebiet erwarb. Nach Einführung der Allgemeinen Städteordnung des Königreichs Sachsen im Jahr 1832 gab es neben dem Bürgermeister noch gewählte Stadträte. Wie Köln und München überschritt Dresden 1852 als vierte deutsche Stadt nach Berlin, Hamburg und Breslau die 100.000-Einwohnern-Grenze, wodurch es zur Großstadt wurde. 1853 wurde dem Bürgermeister der den Großstädten vorbehaltene Titel Oberbürgermeister zuerkannt. Bereits 1874 schied die Stadt aus der Amtshauptmannschaft aus und wurde eine „exemte Stadt“ (kreisfreie Stadt). Sie blieb weiterhin Sitz der Amtshauptmannschaft Dresden (bzw. beider AHM Dresden-Altstadt und -Neustadt) sowie der Kreishauptmannschaft Dresden. Mit der DDR-Kreisreform wurde Dresden 1952 als Stadtkreis definiert; der Kreis Dresden-Land erhielt einen neuen Zuschnitt, mit dem er bis zu seiner Auflösung Anfang 1996 fortbestand. Während der Zeit des Nationalsozialismus wurden Oberbürgermeister und Ratsherren entsprechend der Deutschen Gemeindeordnung von der NSDAP eingesetzt. Nach dem Ende des Zweiten Weltkriegs setzte die sowjetische Stadtkommandantur 1945 zunächst eine Verwaltung ein. Im September 1946 wurde als Stadtparlament eine Stadtverordnetenversammlung gewählt. Bei späteren Wahlen bis 1989 traten alle Parteien und Organisationen auf einer gemeinsamen Liste auf. Nach dem Beitritt der DDR zur Bundesrepublik Deutschland wurde das zunächst als Stadtverordnetenversammlung, nunmehr als Stadtrat bezeichnete Gremium wieder frei gewählt. Vorsitzender dieses Gremiums war zunächst ein besonderer Präsident beziehungsweise eine Präsidentin (ab 1990 Evelyn Müller, CDU). Die Wahl des Oberbürgermeisters war Sache der Stadtverordnetenversammlung. Nach Einführung der Süddeutschen Ratsverfassung in Sachsen ist seit 1994 der nunmehr direkt vom Volk gewählte Oberbürgermeister zugleich Vorsitzender des Stadtrates. Stadtrat. Im Jahr 2013 haben die Wählergemeinschaften Freie Bürger und BürgerBündnis beschlossen sich zum Bündnis Freie Bürger Dresden (BFB Dresden) zusammenzuschließen. Im Stadtrat haben sich folgende Fraktionen gebildet: CDU (21 Mitglieder), DIE LINKE. (inklusive PIRATEN, 17 Mitglieder), GRÜNE (11 Mitglieder), SPD (9 Mitglieder), AfD (5 Mitglieder), FDP/FB (4 Mitglieder). Drei Ratsmitglieder sind fraktionslos: NPD (2 Mitglieder), BFB Dresden (1 Mitglied). DIE LINKE., GRÜNE, SPD und PIRATEN haben im Stadtrat ein Kooperationsabkommen geschlossen. Sie verfügen über 37 von 70 Sitzen. Wappen der Landeshauptstadt Dresden. Blasonierung: Gespaltener goldener Schild; vorn ein schwarzer steigender Löwe, hinten zwei schwarze Pfähle. Bedeutung: Der Löwe steht für die Markgrafschaft Meißen, die „Landsberger Pfähle“ für die Markgrafschaft Landsberg, beides Kernländer der Wettiner, welche die Stadt seit dem Mittelalter beherrschten. Beide Wappensymbole sind bereits seit 1309 in den Siegeln der Stadt nachweisbar. Ursprünglich waren die Pfähle blau (vergleiche die Wappen von Leipzig und Chemnitz), doch wurden sie später schwarz gefärbt, um Verwechslungen mit ebendiesen Städten zu vermeiden. Die Stadtfarben sind daher schwarz und gelb. a> das wohl am häufigsten diskutierte Thema in Dresden Neumarkt. Die Wiederbebauung des Neumarktes – in welcher Verdichtung und ob modern oder historisiert – steht exemplarisch für das internationale Interesse an der Dresdner Architektur. (siehe Gesellschaft Historischer Neumarkt Dresden – ein Verein, der wegen dieser Auseinandersetzung gegründet wurde) Waldschlößchenbrücke. Über den Bau einer neuen Elbquerung, der Waldschlößchenbrücke, entschied 2005 ein rechtsverbindlicher Bürgerentscheid zustimmend. Durch die UNESCO wurde geprüft, ob die Brücke inmitten der Kulturlandschaft Dresdner Elbtal das Welterbe gefährdet. Die Stadtverwaltung setzte daraufhin den für das Frühjahr 2006 geplanten Baubeginn aus, um die Entscheidung der UNESCO abzuwarten. Diese fiel negativ aus; Dresden wurde auf die Rote Liste des gefährdeten Welterbes gesetzt. Als sich daraufhin im Stadtrat Mehrheiten weder für den Baustart noch für einen neuen Bürgerentscheid fanden, forcierte das Regierungspräsidium aus rechtlichen Gründen (Bürgerentscheid) den Beginn des Brückenbaus durch Ersatzvornahmen und erhielt dabei Rückhalt durch den CDU-Teil der sächsischen Landesregierung unter Georg Milbradt. Die Stadt versuchte indes, statt des sofortigen Baus der von der UNESCO abgelehnten Brücke noch Spielraum für eine Kompromissfindung mit der Weltorganisation zu erlangen. Sie scheiterte aber vor Verwaltungs- und Verfassungsgerichten und musste im November 2007 den Baubeginn hinnehmen. Die UNESCO erneuerte indes im kanadischen Quebec am 4. Juli 2008 die Ankündigung der Titel-Aberkennung und beließ das "Dresdner Elbtal" ein weiteres Jahr auf der „Roten Liste“ der gefährdeten Objekte: Dresden könne den Titel nur dauerhaft erhalten, wenn in dieser Zeit der begonnene Bau der Waldschlößchenbrücke gestoppt und der ursprüngliche Zustand der Elbauen wieder hergestellt werde. Gleichzeitig wurde der Kompromiss einer Querung als Elbtunnel, für den ein rechtsunwirksames Bürgerbegehren mehr als 50.000 Unterschriften gesammelt hat, von der UNESCO akzeptiert, aber nicht in die Praxis umgesetzt. Im August 2013 erfolgte dann die Eröffnung der neuen Elbbrücke. Schuldenfreie Stadt durch WOBA-Verkauf. Im März 2006 beschloss der Stadtrat den Verkauf der Wohnungsbaugesellschaft WOBA Dresden an die US-amerikanische Investmentgesellschaft Fortress Investment Group LLC. Dadurch wurde Dresden zur ersten faktisch schuldenfreien Großstadt Deutschlands, weil die eingenommenen 987 Millionen Euro (netto, nach Abzug der Übernahme der Verbindlichkeiten der WOBA selbst; der tatsächliche Kaufpreis lag bei ca. 1,6 Milliarden Euro) zur Tilgung der 741,4 Millionen Euro Schulden des städtischen Haushaltes verwendet werden konnten. Da die WOBA mit damals ca. 47.000 Wohnungen wirtschaftlich schwächeren Schichten Wohnraum preiswert anbot (und jetzt noch anbietet), war der Verkauf höchst umstritten und löste ein breites Medienecho aus. Abgesichert wurde der Verkauf – allerdings nur für die ersten 10 Jahre – mit einer umfangreichen Sozialcharta, um die Mieter zu schützen. Ein wesentlicher Grund für die Verkaufsentscheidung waren die zur Haushaltskonsolidierung 2005 erteilten Auflagen: Um weitere Kürzungen in den kommunal wichtigen Bereichen z. B. der Jugend- und Sportförderung abzuwenden, sollte damit die hohe städtische Zinsbelastung von damals 72 Millionen Euro pro Jahr, die die Einnahmen aus der WOBA (damals ca. 9 Millionen Euro pro Jahr) weit übertraf, dem gegengerechnet werden – was letztlich gelang. Die Stadt vermutet heute (Stand November 2011), dass das Unternehmen GAGFAH, in das die WOBA eingegliedert wurde, beim Weiterverkauf von Dresdner Immobilien Verpflichtungen des Mieterschutzes (beim Verkauf wurde eine Sozialcharta vereinbart) verletzt habe. Sie hat deshalb Anfang des Jahres die GAGFAH um einen Betrag von über 900 Millionen Euro aus der Verletzung der erteilten Auflagen des Verkaufes („Pönalen“) verklagt, was die GAGFAH mit einer Widerklage beantwortet hat. Am 21. Juni 2007 nahm der Stadtrat mit 37 zu 12 Stimmen (bei 9 Enthaltungen) ein Verschuldungsverbot in die Hauptsatzung auf. Dessen etwaige zukünftige Streichung ist nun nur noch mit der Mehrheit aller Stimmen des Stadtrates, das heißt 36 Stimmen, möglich. Eine Vorfinanzierung von Investitionen durch Kredite ist allerdings weiterhin ausnahmsweise zulässig, sofern eine rechtsverbindliche Fördermittelzusage vorliegt und der Fördermittelgeber die Zinsen ebenfalls übernimmt. Zum 31. Dezember 2009 betrug laut Statistischem Landesamt die Schuldenlast der durch den Verkauf des kommunalen Wohnungbestands kurze Zeit schuldenfreien Landeshauptstadt erneut 730 Millionen Euro, was hauptsächlich daran liegt, dass seit 2008 alle von den Kommunen des Freistaates Sachsen gegebenen Bürgschaften rechnerisch als kommunale Schulden zählen. Den größten Anteil daran hat die Bürgschaft in Höhe von 616 Millionen Euro für einen Rückkauf von 35 Prozent der Anteile am kommunalen Versorger Drewag, ein weiterer großer Posten ist eine Baubürgschaft in Höhe von 40,7 Millionen Euro für das Dynamo-Stadion. Schulden im engeren Sinne (das heißt kommunale Kredite) hat die Stadt Dresden allerdings weiterhin nicht aufzuweisen. Entsprechend der Vorjahre wurden keine Kredite für Investitionen sowie keine Kassenkredite zur Liquiditätssicherung aufgenommen. Nach dem Doppelhaushalt 2011/2012 betrug die Pro-Kopf-Verschuldung aus kreditähnlichen Rechtsgeschäften (ohne Eigenbetriebe) zum 31. Dezember 2008 29,45 EUR/Einwohner. Der Zinsaufwand beträgt 1,2 Mio. EUR = 0,1 % der Gesamtausgaben in Höhe von 1.083.383.845 EUR. Staatsoperette. Ein weiteres kommunalpolitisch vieldiskutiertes Thema ist die Errichtung eines Neubaus für Staatsoperette und Theater Junge Generation, 2014 erfolgte die Grundsteinlegung am ehemaligen Kraftwerk Mitte. Die Eröffnung ist für Dezember 2016 vorgesehen. Bundestagsabgeordnete. Der Wahlkreis 160 (Dresden I) umfasst die Stadtteile südlich der Elbe mit Ausnahme einiger westlicher Bereiche. In diesem Wahlkreis ist Andreas Lämmel von der CDU gewählter Abgeordneter. Der Wahlkreis 161 (Dresden II) schließt alle Stadtteile nördlich der Elbe und einige westliche südlich der Elbe ein und reicht bis in den Landkreis Meißen. Abgeordneter dieses Wahlkreises ist Arnold Vaatz von der CDU. Weiterhin vertreten von den Landeslisten der jeweiligen Parteien Katja Kipping (Linke) und Stephan Kühn (Bündnis 90/Die Grünen) sowie die Meißner Bundestagsabgeordnete Susann Rüthrich (SPD) die Stadt. Städtepartnerschaften. a> (l.), die Vereinbarung zur Entwicklung kommunaler Beziehungen im Plenarsaal des Rathauses in Dresden. Konsulate und Auslandsvertretungen. Neben einem tschechischen Generalkonsulat befinden sich in Dresden die Honorarkonsulate von Dänemark, Ecuador, Finnland, Italien, Kap Verde, Kasachstan, Kroatien, Litauen, Luxemburg, Niederlande, Österreich, Panama, den Philippinen, der Schweiz, Slowenien, Spanien, Südafrika, Südkorea und Ungarn. Außerdem befindet sich in Dresden ein Institut Français. Religionen. Die Reformation setzte sich in Dresden 1539 durch. Ab etwa 1571 vertrat die Stadt ein strenges Luthertum. Im Jahre 1661 gab es in Dresden erstmals wieder katholische Gottesdienste. Kurfürst Friedrich August I. veranlasste 1697 den Wechsel des Hofstaates zum katholischen Glauben, um zum polnischen König August II. gekrönt werden zu können. Die katholischen Gemeinden wurden erst 1807 den evangelischen gleichgestellt und blieben nach Mitgliederzahl eine kleine Minderheit. Das Ende der Monarchie führte nach dem Ersten Weltkrieg zur Trennung von Kirche und Staat und 1922 zur Wahl des ersten evangelischen Landesbischofs. In der DDR-Zeit ging der Anteil der evangelischen Kirchenmitglieder von etwa 85 % (1949) auf 22 % (1989) zurück. 1980 wurde Dresden Sitz eines katholischen Bischofs, wobei die Katholische Hofkirche zur Kathedrale des Bistums Dresden-Meißen erhoben wurde. Eine Mehrheit von 80 % der Dresdner ist heute konfessionell nicht gebunden. Etwa 20.000 Menschen gehören einer römisch-katholischen und etwa 75.000 einer evangelisch-lutherischen Gemeinde an. Dies entspricht einem Anteil von 4 % beziehungsweise 15 % der Gesamtbevölkerung mit Erstwohnsitz in der Stadt. Die Stadtverwaltung schätzt die heutige Anzahl der Mitglieder von Freikirchen und nicht-christlichen Gemeinden auf etwa 5000 Menschen. Bis zu seiner Vereinigung mit der Apostolischen Gemeinschaft im Jahr 1994 hatte der seinerzeit etwa 1000 Mitglieder umfassende Reformiert-Apostolische Gemeindebund seinen Sitz in der Elbmetropole. In Dresden leben heute etwa 760 Juden. Kultur und Sehenswürdigkeiten. Blick auf Dresden bei Nacht Dresden ist eine Kunst- und Kulturstadt von Weltrang und war in den Jahren 2004 bis 2009 zugleich Weltkulturerbestätte der UNESCO. Die Stadt beherbergt über 50 Museen, darunter weltberühmte Sammlungen, mehr als 35 Theater und Kleinkunstbühnen, international herausragende Klangkörper und berühmte Bauwerke aus zahlreichen Epochen. Oftmals befinden sich bedeutende aktuelle kulturelle Einrichtungen in – gleichnamigen – historisch bedeutsamen Bauwerken. Zahlreiche Großveranstaltungen ziehen jedes Jahr viele Gäste aus dem In- und Ausland an. Es besteht eine Verzahnung von Kunst mit Wissenschaft und Technik, wie sie übergangslos in vielen Sammlungen erkennbar ist. Jährlich wird der Kunstpreis der Landeshauptstadt Dresden verliehen. Theater und Bühnen. Die Sächsische Staatsoper Dresden im bekannten Bauwerk der Semperoper wurde 1841 am jetzigen Standort, dem Theaterplatz, gegründet. Das Bauwerk der Oper wurde in seiner Geschichte zweimal zerstört. Insgesamt war die Staatsoper in mehr als 50 Jahren ihrer etwa 160-jährigen Geschichte gezwungen, an einem anderen Ort als der Semperoper zu spielen. In der Semperoper und ihren Vorgängerbauten wurden Opern u. a. von Richard Wagner und Richard Strauss uraufgeführt. Das Orchester der Oper ist die Sächsische Staatskapelle (siehe Abschnitt Musik). Die Semperoper verfügt außerdem über eine Kammerbühne, die „Semper 2“. Das Staatsschauspiel Dresden betreibt das „Schauspielhaus“, – allgemein als das „Große Haus“ bekannt – und damit das größte Theater der Stadt, sowie das „Kleine Haus“ in der Glacisstraße. Am Theaterplatz befindet sich der Theaterkahn, eine Bühne auf einem Elbschiff. Für die Staatsoperette Dresden wurde seit Jahren nach einer Spielstätte in der Innenstadt gesucht. Seit 2012 ist beschlossen, dass ein Neubau des Operettentheaters im Gebiet des ehemaligen Kraftwerks Mitte als neue Spielstätte errichtet wird. Entgegen ihrer Bezeichnung als Staatseinrichtung ist die Stadt Besitzer und Betreiber der Operette. Die bedeutenden Kabaretttheater der Stadt sind „Die Herkuleskeule“, das „Breschke & Schuch“, die „Comödie Dresden“ und das „Boulevardtheater Dresden“. Theater für moderne Formen von Aufführungen sind das Theater Junge Generation, zu dem auch ein Puppentheater gehört, das neubauLABOR im Kleinen Haus des Staatsschauspiels und insbesondere das Festspielhaus Hellerau, welches das Europäische Zentrum der Künste beherbergt. Weitere Theater und Aufführungsstätten sind das Societaetstheater, „die bühne“, „Das Projekttheater“ sowie die „Theaterruine St. Pauli“ in der Neustadt und das „Boulevardtheater Dresden“. Die Kulturvereine „Mimenstudio Dresden e. V.“, „Kulturverein riesa efau“ und die „Motorenhalle – Projektzentrum für zeitgenössische Kunst“ zeigen ebenfalls Aufführungen; auch das Tanztheater Derewo ist in Dresden beheimatet. Musik. In Dresden sind mehrere berühmte Orchester und Chöre zu Hause. Die Sächsische Staatskapelle Dresden gilt als das älteste durchgängig musizierende Orchester der Welt und zählt nach wie vor zu den besten Klangkörpern überhaupt. Ihre Vorgängerin, die "Königliche Hofcantorey", wurde von Moritz von Sachsen bereits 1548 gegründet. Anfang des 17. Jahrhunderts begann die Dresdner Hofkapelle Opernaufführungen zu begleiten, ihr Kapellmeister Heinrich Schütz komponierte und führte mit ihr 1627 in Torgau die erste deutschsprachige Oper "Daphne" auf. Das Textbuch schrieb Martin Opitz nach der italienischen Oper des Jacopo Peri. Johann Georg Pisendel, seit 1728 Konzertmeister, führte eine „neuzeitliche Orchesterleitung“ ein, wodurch das Orchester in der ersten Hälfte des 18. Jahrhunderts in Europa führend wurde. Musikdirektoren im 19. Jahrhundert wurden unter anderen Carl Maria von Weber, Heinrich Marschner sowie als Assistent Richard Wagner. Seit September 2012 ist Christian Thielemann Chefdirigent. Die Dresdner Philharmonie, das Konzertorchester der Stadt, wurde 1871 gegründet und ist ebenfalls international geachtet. Bis 1915 trug das Orchester den Namen „Gewerbehaus-Kapelle“, bis 1923 „Dresdner Philharmonisches Orchester“. Chefdirigenten in jüngerer Zeit waren unter anderen Kurt Masur und Marek Janowski. Derzeitiger Chefdirigent ist Michael Sanderling. Ein junges Orchester sind die 1996 von Sven Helbig und Markus Rindt gegründeten Dresdner Sinfoniker. Das Sinfonieorchester trägt sich über die Mitglieder nahezu selbst. Es widmet sich ausschließlich der zeitgenössischen Musik abseits des normalen Konzertrepertoires sowie dem Crossoverbereich. 2004 wurde es mit dem Echo Klassik ausgezeichnet und vertonte zusammen mit den Pet Shop Boys den Film "Panzerkreuzer Potemkin" neu. Weitere Orchester sind das „ensemble courage“, ein Spezialensemble für zeitgenössische (Kammer-) Musik, 2004 mit dem Förderpreis der Stadt Dresden ausgezeichnet, Sinfonietta Dresden, ein Kammerorchester mit vielfältigen Aufgaben im städtischen Musikleben und einer eigenen Konzertreihe, das Dresdner Barockorchester, die Dresdner Kapellsolisten sowie die Virtuosi Saxoniae. Sven Helbig ist zugleich Produzent der Band Polarkreis 18, der 2008 als erster Dresdner Band mit "Allein Allein" eine Spitzenposition in den deutschen Media-Control-Charts gelang. In den 1970er Jahren war Dresden mit Bands wie electra und Lift ein Zentrum der Rockmusik in der DDR. Die Mitglieder dieser Bands waren vorrangig Studenten der Hochschule für Musik Carl Maria von Weber. Hier begann unter anderem Veronika Fischer ihre musikalische Karriere. Anfang der 1990er Jahre galten die Freunde der italienischen Oper unter vielen Journalisten als beste und innovativste Band der neuen Länder. Ray & the Rockets veröffentlichten im Jahre 1998, 44 Jahre nach der „Erfindung“ des Rock ’n’ Roll den ersten Rock-’n’-Roll-Tonträger Dresdens. Bekannte Komponisten, die in Dresden wirkten, sind zum Beispiel Fritz Geißler, Jörg Herchet, Heinrich Schütz, Richard Wagner, Carl Maria von Weber und Jan Dismas Zelenka. In Dresden haben zahlreiche Komponisten ihren Wohnsitz, darunter Thuon Burtevitz, Alexander Keuk, Wilfried Krätzschmar, Karoline Schulz, Jorge García del Valle Méndez und Udo Zimmermann. Museen und Galerien. Blick in die Skulpturensammlung mit den vor der Flut ausgegliederten Gipsabgüssen „Elbflorenz“ hat eine außergewöhnlich vielseitige Museumslandschaft – eine Komposition von historisch gewachsenen und wertvollen jüngeren Einrichtungen. Der schon über Jahrhunderte anhaltende, weltweit gewürdigte kulturelle Beitrag Dresdens, aber auch Regionales und Zeitgenössisches wird mit etwa 50 Museen repräsentiert – darunter viele halbstaatliche und private Institutionen, deren Zuordnung zum Teil nicht eindeutig ist. Landesmuseen. Die Staatlichen Kunstsammlungen Dresden (SKD) enthalten die berühmtesten Museen der Stadt. Zahlreiche einzelne Exponate ziehen international Besucher an oder werden weltweit an andere Museen und Ausstellungen verliehen. Die zentralen Einrichtungen der Kunstsammlungen sind das Dresdner Schloss und der Zwinger. Die Gemäldegalerie Alte Meister befindet sich seit 1855 im Semperbau des Zwingers. Das berühmteste Exponat ist die Sixtinische Madonna von Raffael, die ursprünglich 1512/13 als Altarbild gemalt wurde. Mit weiteren Werken unter anderen von Rembrandt, Rubens und Canaletto führt die Galerie Bilder der Renaissance und des Barock. Der Begriff „Alte Meister“ soll dabei die epochale Abgrenzung zu den Malern der Galerie Neue Meister späterer Epochen schaffen. Zu den Neuen Meistern zählen Maler wie Caspar David Friedrich, Max Liebermann, Max Slevogt, Otto Dix und Künstler der Gruppe Brücke. Damit führt die Galerie Werke der Romantik, des Impressionismus und des Expressionismus. Im Gegensatz zu den Alten Meistern hatten bei den Künstlern dieser Galerie sehr viele einen persönlichen Bezug zu Dresden, indem sie an der Kunstakademie studierten, lehrten oder hier lebten. Das Goldene Kaffeezeug ("Pretiosen Coffe Zeug") (1697–1701) Eine weitere berühmte Einrichtung der SKD ist das Grüne Gewölbe. Es beherbergt die Sammlung der sächsischen Kurfürsten und Könige. Der Schatz in Form von Schmuck und repräsentativen Ausstellungsstücken ist eine Sammlung europäischer Goldschmiedekunst und des Feinhandwerks. Die wohl bekanntesten Werke entstanden durch den Hofgoldschmied Johann Melchior Dinglinger und seine Söhne. Der "„Hofstaat zu Delhi am Geburtstag des Großmoguls Aurang-Zeb“" und "„Das Goldene Kaffeezeug“" (original: Pretiosen Coffe Zeug) zählen zu den herausragenden Stücken der Sammlung. Besonders bekannt ist der mit 185 menschlichen Köpfen beschnitzte Kirschkern. Ein besonderes Museum der SKD ist der Mathematisch-Physikalische Salon, der sich ebenfalls im Zwinger befindet. Er enthält mathematische und physikalische Instrumente aus der Zeit des Barock und der Aufklärung sowie Globen und astronomische Kartografien. Er ist eines der frühesten Zeugnisse für die Verbindung von Kultur und Wissenschaft in Dresden und wurde 1728 aus der allgemeinen Kunstsammlung ausgegründet. Die Grundlagen dieser Sammlung wurden dort schon Jahrhunderte vorher gelegt. Weitere Einrichtungen der Kunstsammlungen sind das Kunstgewerbemuseum im Schloss Pillnitz, das Kupferstichkabinett mit dem Josef-Hegenbarth-Archiv, das Museum für Sächsische Volkskunst, die Porzellansammlung – eine Sammlung Meißner Porzellan, die Puppentheatersammlung, die Skulpturensammlung und die Kunsthalle im Lipsius-Bau. Nationale Museen. Das Deutsche Hygiene-Museum dient seit seiner Gründung 1912 der gesundheitlichen, humanbiologischen und medizinischen Aufklärung der breiten Bevölkerung. Bekanntestes Exponat ist die Gläserne Frau, die einen plastischen Einblick auf alle inneren Organe zulässt. Im Norden der Stadt, in der ehemaligen Kasernenvorstadt Albertstadt, liegt das Militärhistorische Museum der Bundeswehr. Es wurde von 2006 bis 2011 nach Plänen von Daniel Libeskind umgebaut (siehe Moderne Bauwerke) und führt eine Sammlung von Waffen und Kriegsgeräten aus mehreren Jahrhunderten. Städtische Museen. Das Stadtmuseum Dresden und die Städtische Galerie Dresden sind im Landhaus (dem ersten Tagungsgebäude für die Landstände) am Pirnaischen Platz untergebracht. Weitere Museen in städtischer Verantwortung sind die Technischen Sammlungen, das Carl-Maria-von-Weber-Museum, das Kraszewski-Museum, das Kügelgenhaus – Museum der Dresdner Romantik, das Schillerhäuschen, das Palitzsch-Museum, Leonhardi-Museum und das Kunsthaus Dresden. Literatur. Besonders erwähnenswert unter den Autorinnen und Autoren, die zumindest einen Teil ihres Lebens in Dresden verbracht haben, sind Volker Braun, Heinz Czechowski, Durs Grünbein, Erich Kästner, Victor Klemperer, Theodor Körner, Karl Mickel, Ludwig Renn, Friedrich Schiller, Ingo Schulze, Ludwig Tieck und Józef Ignacy Kraszewski. Bekannte Autoren, die zurzeit in Dresden ihren Wohnsitz haben, sind zum Beispiel Marcel Beyer, Ralf Günther, Undine Materni, Thomas Rosenlöcher, Volker Sielaff, Uwe Tellkamp, Jens Wonneberger und Michael Wüstefeld. Einmal im Jahr schreibt Dresden den Dresdner Stadtschreiber aus. Der ausgewählte Schriftsteller lebt jeweils für sechs Monate in der Stadt. Alle zwei Jahre wird der Dresdner Lyrikpreis ausgelobt. Darüber hinaus widmen sich zahlreiche in Dresden ansässige Vereine der Förderung der zeitgenössischen Literatur, so die Literarische Arena, das Literaturbüro und das Literaturforum Dresden. Bibliotheken. Sächsische Landes- und Universitätsbibliothek (SLUB) Die Sächsische Landesbibliothek – Staats- und Universitätsbibliothek Dresden (SLUB, siehe unten) befindet sich im Süden der Stadt auf dem Campus der Technischen Universität. Sie entstand 1996 aus dem Zusammenschluss der Dresdner Universitätsbibliothek mit der Sächsischen Landesbibliothek, die 1556 als Hofbibliothek gegründet wurde. Sie gehört mit etwa neun Millionen Bestandseinheiten zu den größten Bibliotheken in Deutschland und hat das Pflichtexemplarrecht für in Sachsen erschienene und erscheinende Bücher. In der Bibliothek befindet sich die Deutsche Fotothek. Die Stadt selbst betreibt mit den Städtischen Bibliotheken eine der am intensivsten genutzten Bibliotheken in Deutschland. Jährlich entleiht sie mehr als fünf Millionen Bücher und andere Medien. Sie unterteilt sich in 19 Stadtteilbibliotheken, 28 Haltestellen der Fahrbibliothek und eine Hauptstelle. Kinos. Die Kinolandschaft ist ausgesprochen vielfältig. In Dresden gibt es 18 Kinos mit insgesamt 10.701 Sitzplätzen. Mit dem "CinemaxX" in Blasewitz (2000 eröffnet), dem "UCI" im Elbe-Park (1997 eröffnet) und dem Ufa-Kristallpalast an der Prager Straße (1998 eröffnet) existieren insgesamt drei Multiplex-Kinos. Nach deren Eröffnung war Dresden mit über 12.000 Kinositzen in den Jahren 2001 und 2002 die deutsche Stadt mit über 200.000 Einwohnern mit den meisten Plätzen pro Einwohner. Mittlerweile liegt Dresden hinter Augsburg und Magdeburg auf Platz 3 dieser Statistik. Besonders der UFA-Palast ist architektonisch interessant; der vom Architekturbüro Coop Himmelb(l)au entworfene auffällige „Glaskristall“ (siehe unten) steht direkt neben dem ebenso markanten Rundkino aus DDR-Zeiten. Trotz der Häufung von Multiplex-Kinos bestehen weiterhin verschiedene Programmkinos und mit der Schauburg in der Neustadt ein großes „klassisches“ Kino. Trotz der Konkurrenz wurde beispielsweise die Schauburg wiederholt bei Umfragen eines Stadtmagazins zum beliebtesten Kino gewählt. Unter den Programmkinos sind vor allem das "Programmkino Ost", das "Kino im Dach", das "Kino im Kasten" und das "Thalia" zu nennen. Im Jahr 2006 wiedereröffnet wurde das "Kino in der Fabrik" (kurz KIF), das jedoch kein reines Programmkino ist. Erwähnenswert ist dessen ungewöhnliches Ambiente in einer ehemaligen Fabrik, das unter anderem durch eine ausgefallene Farbgebung besticht. Bauwerke. Schloss (rechts) und Hofkirche am Theaterplatz Brühlsche Terrasse mit der im Aufbau befindlichen Frauenkirche Dresden ist berühmt als Stadt des Barock, wobei Dresden (mit der Ausnahme der Inneren Neustadt) keine Barockstadt im eigentlichen, fachlichen Sinne ist. Im Bereich der Architektur hat sich der Dresdner Barock entwickelt, wobei die erhaltenen Bauwerke meist für sächsische Monarchen errichtet worden und teilweise dem Neobarock zuzuordnen sind. Für den (originalen) bürgerlichen Barock gibt es wenige erhaltene Beispiele. Auf der anderen Seite werden viele Gebäude irrtümlich dem Barock zugeordnet: So sind weite Bereiche der Stadt entweder im Stil der Renaissance oder des Klassizismus, vor allem aber im „Neobaustil“ des Historismus errichtet worden und lange Zeit nach der Barockzeit entstanden. Der eigentlichen barocken Zielsetzung einer Beherrschung der Natur und Einordnung in klare symmetrische Formen entgegengestellt, achtete man bei der Stadtplanung auf Freiräume für die Elbe. Die Elbe durchläuft die Stadt deshalb immer noch in weiten Mäandern. Dieser Umgang mit den elbnahen Räumen setzte sich dabei über Jahrhunderte bis in die Gegenwart durch. Zu diesem Kulturraum zählen damit – über den Barock hinaus – zudem viele bürgerliche und industrielle Bauwerke. Kulturelles Erbe. Ein Wahrzeichen der Stadt ist die Frauenkirche. Nach der Zerstörung Dresdens am 13./14. Februar 1945 standen nur zwei Seitenmauern um ihren Trümmerberg. Ihre Stätte wird seither als "Mahnmal des Krieges" wahrgenommen, insbesondere beim alljährlichen Gedenken an den 13. Februar 1945. Seit dem 2005 beendeten Wiederaufbau versteht sich die Frauenkirche zudem als „weltweites Symbol für Frieden und Versöhnung“. In den ersten zweieinhalb Jahren nach der Neueröffnung wurde sie von fünf Millionen Menschen besucht. Kulturelle Wahrzeichen der Stadt sind die Semperoper und der Zwinger. Die Semperoper wurde von 1977 bis 1985 nach Originalplänen des zweiten Opernbaus (1878 bis 1945) von Gottfried Semper wieder errichtet. Sie ist ein Bauwerk des Historismus und trägt vor allem Elemente des Klassizismus. Mit Ausnahme der von 1847 bis 1854 errichteten "Sempergalerie" wurde der Zwinger von 1711 bis 1728 im barocken Baustil als Ort für königlichen Feste sowie Kunstausstellungen auf einer ehemaligen Bastion der Stadtfestung errichtet. Auf der Südseite blieben dabei die Reste der Stadtmauer erhalten. Hier steht das Kronentor, das der königlichen Krone nachempfunden ist. Als eines der ersten Gebäude wurde es nach dem Zweiten Weltkrieg wiederaufgebaut und restauriert. Zusammen mit dem Italienischen Dörfchen, der Altstädtischen Hauptwache und der Hofkirche bilden der Zwinger und die Semperoper die architektonische Einheit des Theaterplatzes. "Zitronenpresse" für die Kuppel der Hochschule der Bildenden Künste Die Brühlsche Terrasse erstreckt sich in der Innenstadt entlang des Elbufers. Sie ist eine Zusammenstellung aus mehreren Bauwerken und befindet sich auf der alten Stadtbefestigung etwa zehn Meter über der Elbe. Die Kasematten, die ehemaligen unzugänglichen Wehranlagen der Stadt, unter der Terrasse sind in Form eines Museums begehbar. Gebäude, die zur Brühlschen Terrasse gezählt werden, sind zum Beispiel das Albertinum, die Kunstakademie und die Sekundogenitur. Am östlichen Ende befinden sich die Jungfernbastei und der Brühlsche Garten. Das Dresdner Residenzschloss war Wohnsitz der sächsischen Kurfürsten und später Könige. Es ist im Verlauf seiner Geschichte häufig erweitert und verändert worden. Es weist daher sehr viele Baustile in verschiedenen Flügeln und Teilen des Gesamtbauwerks auf. Die ältesten Strukturen lassen sich auf Stichen des 15. Jahrhunderts erkennen. Der Georgenbau ist dabei einer der wenigen erhaltenen Renaissancebauten in Dresden. Der Wiederaufbau des Schlosses begann 1986 und ist im Jahre 2015 weit fortgeschritten und es wird umfangreich durch die Staatlichen Kunstsammlungen Dresden genutzt. Als erstes eigenständiges Element der Schlossanlagen konnte der Stallhof fertiggestellt werden. Zur architektonischen Einheit des Schloßplatzes zählen noch die Hofkirche (siehe unten), der Fürstenzug und das erst Ende des 19. Jahrhunderts errichtete Ständehaus. Am Rand der Innenstadt befindet sich der Große Garten, ein Park mit Merkmalen barocker Gartenbauweise und symmetrischer Wegführung, allerdings mit freien Verläufen von Bewaldung. Dort befindet sich das Sommerpalais. Der Große Garten gehörte nicht zum Weltkulturerbe. Am Rande von Dresden, direkt an der Elbe, liegt das Schloss Pillnitz. Dieses besteht aus drei Palais im barocken und chinamodischen Baustil und wurde als Sommerresidenz genutzt. Am Palais an der Elbseite liegt die berühmte Treppe zur Elbe, über die es möglich war, aus der Innenstadt per Gondel an diesem Schloss zu landen. In die europäische Geschichte ging es über die Pillnitzer Deklaration ein. Welterbestätten und -bewerbungen. a> war Teil der Dresdner Welterbe-Stätten Zum kulturellen Erbe gehörte als Gesamteinheit das Weltkulturerbe Dresdner Elbtal. Die Kulturlandschaft des Elbtales mit einer Ausdehnung von Schloss Pillnitz bis Schloss Übigau (das sind ca. 12 km Längenausdehnung und eine Breite zwischen 200 Metern und einem Kilometer, zuzüglich einer erweiterten Beobachtungszone) wurde im Jahr 2004 durch die UNESCO in die Liste der Welterbestätten aufgenommenen (Antragstellung 2003, Übergabe der Ernennungsurkunde 2005). Im Jahr 2005 begann die UNESCO, vor einer Gefährdung der "Kulturlandschaft Dresdner Elbtal" durch den Bau der Waldschlößchenbrücke zu warnen. Als sich drei Jahre nach Eintragung auf die Rote Liste des gefährdeten Welterbes (2006) noch kein Einlenken in Dresden abzeichnete, wurde der Welterbetitel am 25. Juni 2009 aberkannt. ("Siehe auch:" Abschnitt "Kommunalpolitische Themen".) Zu Beginn des 20. Jahrhunderts entstanden im Dresdner Raum bedeutende Bauwerke der Reformbaukunst. Für die daraus besonders hervorzuhebende 1909 gegründete erste deutsche Gartenstadt Dresden-Hellerau laufen seit ca. 2011 Bemühungen, für diesen Dresdner Stadtteil die Aufnahme in das UNESCO-Welterbe zu beantragen. Namhafte Künstler und Architekten wie Richard Riemerschmid, Hermann Muthesius, Theodor Fischer, Kurt Frick und Heinrich Tessenow waren an der Gestaltung der von Karl Schmidt-Hellerau gegründeten Reformsiedlung beteiligt. Ebenfalls von Tessenow stammt das Festspielhaus Hellerau, von 1911 bis 1914 Wirkungsstätte des Schweizer Musikpädagogen Émile Jaques-Dalcroze, in dessen Umfeld Hellerau kurzzeitig zu einem Zentrum der Moderne wurde. Sakralbauten. Das berühmteste Wahrzeichen der Stadt ist die evangelische Frauenkirche. Sie ist international bekannt als Mahnmal gegen Krieg und als Zeugnis von Versöhnung. Die Frauenkirche wurde nach ihrer Zerstörung am 14. Februar 1945 infolge der Luftangriffe auf Dresden und langjährigem Wiederaufbau, der sich wesentlich über Spendengelder aus der ganzen Welt finanzierte, am 30. Oktober 2005 geweiht. Mit ihrer hohen und breiten Kuppel beherrscht sie das Stadtbild, auf das man von der begehbaren Laterne an der Spitze einen Rundblick werfen kann. Das Original von George Bähr war eines der wenigen hervorragenden Beispiele für bürgerlichen Barock. Die Kirche wurde von 1723 bis 1743 erbaut und ersetzte einen gotischen Vorläufer. Die Bauzeit von 17 Jahren war für damalige Zeiten sicher sehr schnell, wenn man bedenkt, dass der Wiederaufbau mit wesentlich besseren Kränen und Baugeräten etwa zehn Jahre dauerte. Die Kirche in ihrer alten Form wie in ihrem Neubau ist etwas mehr als 91 Meter hoch. Durch den Wiederaufbau der Frauenkirche ist die Katholische Hofkirche wieder das zweithöchste Kirchengebäude der Stadt. Sie wurde zwischen 1739 und 1751 erbaut und im selben Jahr der Heiligsten Dreifaltigkeit („Sanctissimae Trinitatis“) geweiht. Ebenfalls am 13. Februar 1945 zerstört, wurde sie dennoch ab Juni 1945 weiter zur Feier von Gottesdiensten benutzt. 1962 konnte auch das Hauptschiff wieder genutzt werden. 1964 wurde die Hofkirche zur "Kon-Kathedrale" (svw. "Mit-Kathedrale") erhoben. Durch den Umzug des Bischofs von Bautzen nach Dresden ist sie seit 1980 Kathedrale des Bistums Dresden-Meißen. Evangelische Hauptkirche ist allerdings die am Südost-Rand des Altmarkts gelegene Kreuzkirche. Sie ist der größte Kirchenbau Sachsens und, durch Zerstörungen oder Brände mit anschließenden Wiederaufbauten in veränderter Form, seit dem 13. Jahrhundert überliefert. Die Sophienkirche, die am Postplatz in unmittelbarer Nähe des Zwingers stand, war eines der wenigen Bauwerke der Gotik in der Stadt. Die Ruine dieser Kirche wurde trotz eines guten Erhaltungszustandes im Rahmen einer sozialistisch-antikirchlichen Einstellung abgetragen und musste der HO-Gaststätte „Am Zwinger“ weichen (von den Dresdnern "Fresswürfel" genannt), die ihrerseits den Start in die Marktwirtschaft nicht überlebte. Heute geben einerseits der Cholerabrunnen, andererseits durch die Bemühungen bürgerschaftlichen Engagements, Elemente der Busmannkapelle der früheren Sophienkirche Auskunft über den vormaligen Standort. Mit ihr verbunden ist der Sophienschatz im Stadtmuseum Dresden. Auch die in der Südvorstadt gelegene Zionskirche fiel – als damals eine der jüngsten Kirchen in der Stadt – dem Zweiten Weltkrieg zum Opfer. Nach der Grundsteinlegung im Jahr 1901 wurde die im Jugendstil errichtete Kirche schließlich im September 1912 geweiht. In der Bombennacht vom 13. Februar 1945 brannte das Gotteshaus völlig aus. In einer Baracke in unmittelbarer Nähe der Ruine fanden ab 1949 Aktivitäten der evangelischen Studentengemeinde statt, die die Räumlichkeiten ab 1956 mit der Zionsgemeinde teilte. Im Juni 1981 wurde mit dem Bau der neuen Zionskirche in der Bayreuther Straße begonnen, der durch die Unterstützung der schwedischen Kirche möglich wurde. Deren feierliche Weihe fand am 31. Oktober 1982 statt. Die kirchenfeindliche Haltung der sozialistischen Zeit hat dazu geführt, dass mehrere Ruinen Dresdner Kirchen in den fünfziger Jahren endgültig beräumt wurden, davon wären einige wiederaufbaufähig gewesen: Neben der Sophienkirche waren dies die Johanneskirche, die Jakobikirche, die anglikanische und die amerikanische Kirche, die Kirche des Ehrlich’schen Gestifts und die Erlöser-Andreas-Kirche, die Reformierte Kirche, die schottische Kirche und in den sechziger Jahren die katholische Kirche des hl. Franziskus-Xaverius in der Inneren Neustadt. Andere Kirchenruinen konnten vor einem Abriss bewahrt und zum Teil wieder aufgebaut werden. Von der im Neorenaissancestil errichteten Trinitatiskirche in Johannstadt wurden der Turm und Mauerreste erhalten und einzelne Räume in den 1990er Jahren, nach Enttrümmerung und Sicherung der Ruine, wieder ausgebaut. Heute dient sie der evangelisch-lutherischen Johanneskirchgemeinde Dresden-Johannstadt-Striesen wieder als Kirchenraum, dem Förderverein als Veranstaltungsort, unter anderem für Konzerte, der Offenen Sozialen Jugendarbeit der Gemeinde als Anlaufpunkt für Kinder und Jugendliche aus dem Stadtteil und fungiert als Ausgabestelle der Dresdner Tafel. Die St.-Pauli-Kirche im Hechtviertel wird von einem gemeinnützigen Verein intensiv als Sommertheater genutzt. Am südlichen Rand der Innenstadt, ebenfalls in der Südvorstadt, liegen die Russisch-Orthodoxe Kirche und die Lukaskirche. In der Inneren Neustadt befindet sich die Dreikönigskirche mit ihrem Totentanzrelief. Ihre Kriegsruine wurde im Zusammenhang mit der Fertigstellung der Neustädter Hauptstraße wieder aufgebaut. Von 1990 bis 1993 war sie Sitz des sächsischen Landtags. Die im Stadtteil Strehlen auf einer Anhöhe am Kaitzbach gelegene Christuskirche entstand in den Jahren 1902–1905. Erbaut von den Dresdner Architekten Schilling & Graebner, stellt sie eine der modernsten und kühnsten Kirchenbauten ihrer Zeit in Deutschland dar und wird der Reformarchitektur zugeordnet. Die Alte Synagoge wurde während der Reichspogromnacht am 9. November 1938 zerstört. Der Architekt des von 1838 bis 1840 erbauten Sakralgebäudes war Gottfried Semper. Aus dem alten Gebäude konnte nur einer der beiden Davidsterne gerettet werden. Fast exakt am selben Ort entstand der Bau der Neuen Synagoge, die am 9. November 2001 eingeweiht wurde. Moderne Bauwerke. Obwohl Dresden hauptsächlich für seine Bauwerke aus dem Barock beziehungsweise Historismus bekannt ist, befinden sich jedoch viele Baudenkmäler des 19. und 20. Jahrhunderts in der Stadt. Die neudeutsche Romantik ist ebenso vertreten wie neoklassizistische Bauten und Gebäude der Gründerzeit, des Jugendstils und der Moderne wie Postmoderne. Teilweise bauen diese neuen Bauwerke auf Vorgängern auf beziehungsweise dienen der Erneuerung dieser Bauwerke. In der Gegenwart werden in Dresden wieder Projekte von international bedeutsamen Architekten durchgeführt. Das Gebäude des Sächsischen Landtags besteht aus mehreren Flügeln. Der alte südliche, 1928 bis 1931 errichtete Teil gehört dem Bauhaus-Stil an und beherbergt jetzt die Büros der Abgeordneten. Ursprünglich wurde das Gebäude als Landesfinanzamt errichtet und nach 1945 bis 1990 durch die SED-Bezirksleitung genutzt. Neu errichtet wurden der Glasflügel im Norden und die davorliegende „Neue Terrasse“ an der Elbe. Der Plenarsaal und die Räume für die Sitzung befinden sich den Fluss entlang in diesem Glasanbau. Ein weiteres Gebäude, das der Architektur der Weimarer Republik angehört, ist das 1930 eröffnete Deutsche Hygiene-Museum. Es befindet sich in Verlängerung der Hauptachse des Großen Gartens zwischen diesem und der Innenstadt. Der mehrflügelige Bau nimmt die Symmetrie des barocken Parks auf, ist also bewusst als modernes Bauwerk in die bestehende Stadtlandschaft integriert worden. Er trägt vor allem Stilelemente des späten Historismus und bedient sich als solches bei verschiedenen europäischen Baustilen. a>, Ensemble der Moderne in Dresden Direkt gegenüber dem Landtag befindet sich das Kongresszentrum der Stadt. Es soll die Innenstadt nach Westen hin abschließen, besteht zu großen Teilen aus Glas und nimmt in seiner Form der Fassade die Kurven des Flusses auf. Eine weitere Einrichtung für große Veranstaltungen ist der Kulturpalast, der von 1962 bis 1969 errichtet wurde und seit 2013 bis voraussichtlich 2017 umgebaut wird. Er schließt den Altmarkt in Richtung der wiedererrichteten Frauenkirche ab und brach vor deren Rekonstruktion die Leere in der entkernten Stadt. Das sonstige Umfeld am Altmarkt wurde durch Gebäude im Stil des Neoklassizismus errichtet. In der nördlichen Albertstadt, dem ehemaligen Garnisonskomplex, befindet sich das Militärhistorische Museum der Bundeswehr. Dessen Bauwerk (das Arsenal), das 1875 das Albertinum in der Altstadt als Zeughaus ersetzte, wurde nach Plänen von Daniel Libeskind erneuert, umgebaut und 2011 wiedereröffnet. Libeskind ist zudem der Architekt des Imperial War Museum North in Trafford bei Manchester. Am 10. November 2006 wurde der nach Plänen von Norman Foster umgebaute und modernisierte Dresdner Hauptbahnhof wiedereröffnet. Wie schon beim Reichstag in Berlin oder dem British Museum wird dabei die alte Struktur und Beschaffenheit des Gebäudes mit neuen Materialien und Formen kombiniert. Das Hauptaugenmerk beim Hauptbahnhof lag auf der Erneuerung des Daches, das mit einem lichtdurchlässigen Teflon-Glasfaser-Gewebe belegt wurde. Dabei heben sich die filigrane Stahlkonstruktion der Bahnhofshalle und der schlicht fallende Stoff gegenseitig hervor. Durch die Dachform des reißfesten Stoffes ergeben sich weitere Einblicke in die Struktur der Stahlträger. Ebenfalls nach Bestrebungen von Foster wurde die lange Zeit mit einem festen Dachbelag überbaute Glaskuppel der Empfangshalle wieder lichtdurchlässig gestaltet. Das Gebäude ist dadurch insgesamt heller und transparenter geworden. Direkt am Hauptbahnhof befindet sich das neuerrichtete Glaskugelhaus. Der Gedanke eines Hauses in Kugelform wurde erstmals 1928 in Dresden verwirklicht. Das für Ausstellungszwecke errichtete Kugelhaus befand sich bis 1938 auf dem Messe- und Ausstellungsgelände, dem heutigen Gelände der Gläsernen Manufaktur. Das neue Kugelhaus, das eine reine Glasfassade hat, soll das Motiv der Kugel wieder aufnehmen. Eines der Gebäude der Moderne ist der Ufa-Kristallpalast des Architekturbüros Coop Himmelb(l)au. Dieses mittlerweile bekannte Büro baute mit diesem Gebäude sein erstes großes Projekt. Es gehört trotz nutzungsbedingter Kompromisse zum Dekonstruktivismus, was vor allem am großen Glaskubus des Baus zu erkennen ist. Weitere bekannte glasbetonende Bauwerke sind zum Beispiel das World Trade Center oder die Gläserne Manufaktur von VW, beide am sogenannten „26er Ring“ (Straßenzug um die Altstadt aus Ammonstraße, Wiener Straße, Lennéstraße und Güntzstraße) gelegen. Zu den der Überbetonung des Glases entgegengestellten Bauwerken gehört die Synagoge, ein auch wegen der markanten Lage am alten Standort der 1938 in der Reichspogromnacht zerstörten Synagoge von Gottfried Semper direkt an der Elbe in seiner Gestaltung umstrittenes Gebäude. Sie besteht aus zwei Flügeln, dem Gebets- und Gemeinderaum. Der Gebetsraum ist nach außen fast völlig fensterlos. Auffällig an dem Gebäude sind die verdrehten senkrechten Kanten. Das Gebäude wurde 2001 zum Europäischen Gebäude des Jahres ernannt. In der Auffassung von Glas sehr ähnlich ist die Sächsische Landesbibliothek – Staats- und Universitätsbibliothek Dresden. Die Auslage- und Lesebereiche der Bibliothek liegen größtenteils unter der Erde. Die einzige echte Fassade des Bauwerks besitzen die beiden aufragenden Riegel, die wenig Fensterfläche aufweisen. Eine natürliche Beleuchtung der Bibliothek wird über Lichtschächte und das große Glasdach des zentralen Lesesaals erreicht. Die Innenarchitektur wirkt ruhig und gleicht der einer Klosterbibliothek mit sehr vielen Nischen, Galerien und Säulen. Am Rande der Innenstadt befindet sich das St. Benno-Gymnasium, einer der wenigen Schulneubauten nach 1989. Das von Behnisch Architekten entworfene Gebäude fällt durch seine aufgelockerte und farbige Gestaltung auf. Ebenso auffallend gestaltet ist das ehemalige Kinderkaufhaus in der Wallstraße. Ein repräsentativer Bau der 1990er ist das Gebäude der sächsischen Landesärztekammer auf der Schützenhöhe. Brücken. Dresden, beiderseits der Elbe gelegen, weist mehrere Elbbrücken auf. Die berühmteste ist das 1893 fertiggestellte Blaue Wunder (eigentlich Loschwitzer Brücke). Die Stahlfachwerkbrücke gehört zu den technischen Sehenswürdigkeiten und liegt etwas stromaufwärts der Innenstadt zwischen Loschwitz und Blasewitz. Sie überspannt die Elbe über eine Länge von 141,5 m. Nach jahrelangem politischen und juristischen Tauziehen (siehe Abschnitt "Kommunalpolitische Themen") wurde am 24. August 2013 östlich der Innenstadt die neue Waldschlößchenbrücke eröffnet. Blaues Wunder, Elbbrücke zwischen Blasewitz und Loschwitz Elbe 2015 Wasserstand 65 cm, Blick zur Carolabrücke. Die Albertbrücke folgt auf die Waldschlößchenbrücke und wurde als letzte der alten Steinbrücken angelegt. Neben der spätestestens seit 2008 sanierungsbedürftigen Brücke wurde Ende 2011 die Behelfsbrücke „Kleine Albertbrücke“ für den nichtmotorisierten Individualverkehr errichtet. Seit 2014 wird die Brücke saniert und ist für den Verkehr gesperrt. Ein neben der Baustelle verlegtes Straßenbahngleis dient der Aufrechterhaltung der regulären ÖPNV-Verbindungen. Mit Fertigstellung der elbaufwärtigen Brückenseite im Spätsommer 2015 wurde diese für den Fuß-, Rad- und Straßenbahnverkehr freigegeben und die Kleine Albertbrücke zurückgebaut. Die Carolabrücke folgt etwa 640 Meter weiter. Sie war ursprünglich eine auf steinernen Pfeilern ruhende Bogenbrücke mit Bögen aus Stahlfachwerk, wurde aber nach der Zerstörung im Zweiten Weltkrieg durch eine Spannbetonbrücke ersetzt. Diese trägt mit der vierspurigen B 170 eine der wichtigsten Nord-Süd-Verbindungen der Stadt und zudem einen separaten Gleiskörper der Straßenbahn. Zu DDR-Zeiten trug sie den Namen "Dr.-Rudolf-Friedrichs-Brücke". Weitere 600 Meter flussabwärts folgt die Augustusbrücke. Sie ist ebenfalls eine Stahlbetonbrücke, allerdings in Bogenbauweise und von außen mit Sandstein verkleidet, mit der 1910 eine unter August dem Starken 1727 errichtete Brücke ersetzt wurde. Sie liegt direkt im alten Stadtkern. Die stromabwärts letzte Brücke im Stadtzentrum ist die Marienbrücke, die eigentlich aus zwei Brücken besteht: flussaufwärts eine Straßenbrücke und flussabwärts eine fünfgleisige Eisenbahnbrücke. Da beide Brücken sehr nah beieinander liegen und ursprünglich Eisenbahn und Straße gemeinsam auf der stadtnäheren Brücke geführt wurden, werden beide Brücken oft in einem Atemzug genannt. Zwischen den Brücken der Altstadt knickt die Elbe auf einer Strecke von zwei Kilometern um etwa 90 Grad ab. Verlängert man die Brückenachsen gedanklich, treffen sie sich am Albertplatz, der bewusst als Fokus der Verkehrsachsen angelegt wurde. Aufgrund der zahlreichen Brückenpfeiler im Elbebogen gehört diese Strecke für die Binnenschifffahrt zu den schwierigsten Passagen des weitestgehend begradigten Flusses. Weiter flussabwärts liegt die zwischen den Kriegen gebaute Flügelwegbrücke, die die Stadtteile Kaditz und Cotta verbindet. Der Brückenüberbau wurde 2004 komplett ausgetauscht und trägt nun sechs Fahrstreifen der Westumfahrung Dresdens. Weitere Brücken auf dem Stadtgebiet sind die ebenfalls erneuerte Autobahnbrücke der A 4 sowie die Niederwarthaer Eisenbahnbrücke der Berlin-Dresdner Eisenbahn im äußersten Westen. Beide Brücken haben zusätzlich gesonderte Fuß- und Radwege. Dazu kommt die 2008 fertiggestellte Straßenbrücke zwischen dem Ortsteil Niederwartha und Radebeul, die direkt neben der dortigen Eisenbahnbrücke entstanden ist. Die Fertigstellung einer Vorlandbrücke und die Anbindung der Straßen verzögerte sich bis 12. Dezember 2011, da aus Gründen des Hochwasserschutzes umfangreiche Umplanungen (Verlängerung von ursprünglich geplanten 68 m auf 112 m) an der Vorlandbrücke vorgenommen wurden. Für weitere Elbbrücken gab es bereits teilweise recht detaillierte Planungen, die zugunsten der Waldschlößchenbrücke wieder aufgegeben wurden. Technische Bauwerke. Die Standseilbahn zu ihrem 110. Jubiläum An den Elbhängen im Stadtteil Loschwitz befinden sich die beiden Dresdner Bergbahnen. Die Standseilbahn verbindet Loschwitz über eine 547 Meter lange Strecke mit dem 95 Meter höher gelegenen Stadtteil Weißer Hirsch. Auf gegenüberliegender Seite des Nebentals des Loschwitzbachs verbindet die Schwebebahn die Stadtteile Loschwitz mit Oberloschwitz. Sie überwindet auf 274 Meter Länge 84 Höhenmeter. Beide Einrichtungen zählen weltweit zu den ersten ihrer Art; die Standseilbahn wurde 1895, die Schwebebahn 1901 als erste Bergschwebebahn der Welt eröffnet. Die Berghänge machen eine Fahrt mit diesen zu den Dresdner Verkehrsbetrieben gehörenden Fortbewegungsmitteln sehr reizvoll. Die Hänge von Loschwitz gehörten vor 100 Jahren zu den teuersten Wohnflächen in Europa. Nach 1905 entstanden unter dem Stadtbaurat Hans Erlwein zahlreiche Industriebauten, die bewusst so gestaltet waren, dass sie das Stadtbild in der Innenstadt so wenig wie möglich stören. Markantestes Beispiel dafür ist der unter Denkmalschutz stehende Erlweinspeicher, der wenige Meter hinter der Semperoper liegt. Er gehört zu den ersten in Stahlbetonbauweise errichteten Gebäuden. Damit das zehngeschossige Gebäude nicht zu grob wirkt, hat Erlwein das Dach und die Fassade in kleinen Strukturen gebrochen. Im Frühjahr 2006 wurde der Umbau des Speichers in ein Hotel abgeschlossen. Weitere bedeutende Gebäude von Erlwein sind der Gasometer in Reick und der (neue) Schlachthof im Ostragehege, in dem sich seit 1999 die Messe Dresden befindet. Der Alte Schlachthof liegt auf der anderen Elbseite in der Leipziger Vorstadt und wird als Veranstaltungsort für Konzerte genutzt. Die einer Moschee nachempfundene Tabak- und Zigarettenfabrik „Yenidze“ In Sichtweite des Erlweinspeichers wurde von 1908 bis 1909 die Tabakwarenfabrik Yenidze im Stil einer Moschee erbaut, die ebenfalls unter Denkmalschutz steht. Sie wird immer wieder für einen Sakralbau gehalten. Der Baustil war damals insbesondere wegen der Distanz zur orientalischen Kultur äußerst umstritten. Seit seiner Restaurierung 1996 dient das Gebäude als Bürokomplex. An der Yenidze vorbei führt die Bahnstrecke zwischen Hauptbahnhof und dem Bahnhof Dresden-Neustadt. Sie wurde ähnlich wie die Berliner Stadtbahn auf Viadukten durch die enge Innenstadt gebaut. Bis zur Fertigstellung des durchgängigen Bahnsystems gab es zahlreiche Stichbahnhöfe wie den Leipziger Bahnhof und den Schlesischen Bahnhof auf Neustädter Elbseite sowie den Berliner Bahnhof, den Böhmischen Bahnhof und den Albertbahnhof auf südlicher Elbseite, die mittels ebenerdiger Bahngleise lose verbunden gewesen waren, die wiederum die Straßenbrücke Marienbrücke für die Elbquerung nutzten. All diese Bahnhöfe konnten ab 1901 durch den Hauptbahnhof und den Bahnhof Dresden-Neustadt ersetzt werden. Zwischen den beiden Bahnhöfen wurde der Bahnhof Wettiner Straße (heute Dresden-Mitte) errichtet. Alle drei Bahnhöfe waren Hallenbahnhöfe. Einmalig in seinem Aufbau ist der Hauptbahnhof: Der mittlere Teil ist als ebenerdiger Kopfbahnhof für Züge aus Richtung Leipzig, Nürnberg oder Berlin errichtet. Auf beiden Seiten gibt es aber durchgängige Hochbahnsteige Richtung Prag, mit jeweils zusätzlicher Bahnhofshalle. Das Empfangsgebäude befindet sich auf der Stirnseite des Kopfbahnhofteils zwischen den Durchgangsgleisen. Derzeit wird der Bahnhof vollständig umgebaut und erneuert. Der Fernsehturm befindet sich am Rand des östlichen Hochlands und ist 252 Meter hoch. Er überragt die Stadt aufgrund der Berglage um etwa 370 Meter und wurde 1969 eröffnet. Bis 1991 befand sich eine gastronomische Einrichtung auf knapp 150 Metern Höhe, also etwa 268 Meter über der Stadt. Ebenfalls am Elbhang, wenngleich am südlichen in der nordwestlich gelegenen Ortschaft Cossebaude, liegt das Pumpspeicherwerk Niederwartha. Es wurde 1930 erbaut und hat eine Leistung von 120 Megawatt. Aus dem oberen Becken strömt das Wasser 143 Meter in das untere, das an der Elbe liegt. Weitere nennenswerte technische Bauwerke sind das Krematorium Tolkewitz, das Wasserwerk Saloppe und das Automatische Parkhaus Dresden-Neustadt, das im Rahmen der zur Fußball WM 2006 gestarteten Initiative „Deutschland – Land der Ideen“ als einer von 365 repräsentativen Orten ausgezeichnet wurde. Brunnen, Denkmäler und Skulpturen. Die bekannteste Skulptur in Dresden ist der Goldene Reiter, ein Abbild August des Starken im römischen Schuppenpanzer hoch zu Ross. Er scheint als König von Polen in Richtung Warschau zu reiten. Das Denkmal befindet sich auf der Hauptstraße in der historischen Neustadt. Das Modell stammt vermutlich von Hofbildhauer Jean Joseph Vinache. Der Kanonenschmied Ludwig Wiedemann (1690–1754) trieb die Figuren 1733 in Kupfer. Im gleichen Jahr starb August der Starke und erlebte die Aufstellung seines Denkmals nicht mehr. 1735 wurde die erste Feuervergoldung aufgebracht, die Denkmalweihe fand am 26. November 1736 statt. Die Figuren sind heute mit Blattgold beschichtet. Ganz in der Nähe des "Goldenen Reiters" befindet sich ein Denkmal für Augusts Hofnarren Joseph Fröhlich, und zwar an der Stelle, wo bis 1945 dessen Wohnhaus stand, das sogenannte "Narrenhäusel". Aus Dankbarkeit, dass die Stadt von der Cholera verschont blieb, wurde der Cholerabrunnen 1846 auf dem Postplatz errichtet. Aus Platzgründen (der Postplatz war bereits um 1920 das Drehkreuz des Dresdner Straßenbahnnetzes) wurde er später etwas abseits des Platzes in die Nähe der Hofkirche verlegt. Er ist eines der wenigen Bauwerke der Neogotik in Dresden. Am Albertplatz befindet sich ein 240 Meter tiefer artesischer Brunnen, der ursprünglich der Trinkwasserversorgung in der damals stark wachsenden Antonstadt dienen sollte, dies aber nie erreichen konnte. Auf dem Albertplatz befinden sich zwei Zierbrunnen, stadteinwärts links „Stille Wasser“ und „Stürmische Wogen“ stadteinwärts rechts, auf dem parkähnlichen und kreisrunden Albertplatz, zwischen denen sich die Straßenbahnhaltestellen befinden. Ein historischer und ebenfalls sehr berühmter Springbrunnen ist das Nymphenbad im Zwinger. Zur Erinnerung an Opfer des Nationalsozialismus wurden seit 2009 über 100 Stolpersteine verlegt. Die Leistung der Dresdner Frauen bei der Enttrümmerung nach dem Zweiten Weltkrieg wird durch das Denkmal der Trümmerfrau von Walter Reinhold von 1952 gewürdigt. Es steht, nach 1990 in Bronze neu gegossen, in einer Grünanlage vor dem Neuen Rathaus. Dieses Denkmal war das erste seiner Art in der DDR. In Dresden befinden sich etwa 300 Brunnen, Wasserspiele und Fontänen. Darunter sind auch moderne Anlagen wie die „Pusteblumen“ auf der Prager Straße (diese sind den Springbrunnen aus sozialistischen Zeiten nachempfunden, die sich am selben Ort befanden) oder die Brunnen vor dem Hauptbahnhof, in denen sich das Glasdach der darunterliegenden Tiefgarage befindet. Ausflugsziele/Erholung. Dresden hat sowohl auf eigenem Stadtgebiet als auch im Umland zahlreiche Ausflugsziele. Gerade der touristische Wert der Stadt ergibt sich aus der Nähe zu einigen für sich schon bekannten Regionen oder Bauwerken, wie zum Beispiel Schloss Moritzburg, Meißen oder dem Erzgebirge sowie der Sächsischen Schweiz (Elbsandsteingebirge). Dorthin bieten sich vor allem Fahrten mit den neun historischen Raddampfern der Sächsischen Dampfschiffahrtsgesellschaft an – jeder für sich ein Technik-Denkmal. Der Schillergarten, eine alte Gaststätte in Blasewitz, liegt direkt neben dem Blauen Wunder. Bekannt ist Friedrich Schillers Verewigung der Tochter des damaligen Wirts als "Gustel von Blasewitz" in "Wallensteins Lager". Der unmittelbar an das Blaue Wunder anschließende Schillerplatz ist eines der bedeutendsten Stadtzentren außerhalb der Innenstadt. Weite Teile des Stadtgebietes dienen der Naherholung; einige Stadtteile sind ehemalige Kurorte. Die Gesamtgröße der Erholungsflächen in Dresden beläuft sich auf 1561 Hektar (30,5 m² je Einwohner). Davon sind 890 Hektar öffentliche Grünflächen und Erholungsanlagen. Des Weiteren existieren in Dresden 374 Kleingartenanlagen auf einer Fläche von 783 Hektar. Ungefähr 50.000 Dresdnerinnen und Dresdner sind aktive Kleingärtner (Stand: Ende 2009). Außerdem gibt es in der Stadt 58 Friedhöfe mit einer Gesamtfläche von 196 Hektar, mehr als 50.000 Straßenbäume sowie etwa 900 öffentlich zugängliche Spielplätze. Im Nordosten der Stadt liegt die Dresdner Heide. Sie bedeckt mit 58 Quadratkilometern etwa 15 % der heutigen Stadtfläche. Sie wird von den Stadtteilen und Ortschaften Klotzsche, Weixdorf und Langebrück umfasst. Südlich schließen direkt an die Dresdner Heide die Elbwiesen an. Diese landwirtschaftlich genutzten, flussnahen Grünflächen durchziehen die gesamte Stadt und bilden damit etwa 5 % des Stadtgebiets. Direkt an die Elbwiesen schließen dabei verlandete Altarme der Elbe an, die ebenfalls weitestgehend Weideflächen, Feucht- oder Trockenwiesen geblieben sind. Etwa einen Kilometer flussaufwärts der Altstadt befinden sich die drei Dresdner Elbschlösser mit ihren Parkanlagen: Schloss Albrechtsberg, Lingnerschloss (Villa Stockhausen) und Schloss Eckberg. Sie bilden den Anfang des Dresdner Elbhangs, der ab dort bis zur Stadtgrenze im Osten verläuft. An diesen Hängen, die teilweise an die Dresdner Heide grenzen, befinden sich 24 Hektar Weinanbauflächen. Zentral auf Altstädter Elbseite liegt der Große Garten, in dem der Zoologische Garten Dresden, die Parkeisenbahn (ehemalige Pioniereisenbahn), der Botanische Garten der TU Dresden und der Carolasee liegen. Der Große Garten ist im Grundriss rechteckig, 1,9 Kilometer lang und knapp 2 Quadratkilometer groß. An den Großen Garten schließen sich weitere Parkanlagen wie die Bürgerwiese und der Blüherpark an, weitere kleine Parks wie der Rothermundt- und der Beutlerpark befinden sich unweit davon in angrenzenden Stadtteilen. Auf der Neustädter Elbseite liegen an der Albertbrücke der Stauden- und der Rosengarten, beide in den 1930er Jahren angelegt. Mit dem Alaunpark und dem Albertpark gibt es auch in der Neustadt zwei große Parkanlagen. Weitere große Parks sind der Schlosspark in Pillnitz und der Waldpark Blasewitz. Im Schlosspark Pillnitz befindet sich die Pillnitzer Kamelie. Der etwa 200 Jahre alte Baum gilt als älteste Kamelie in Europa. Besonders die Zeit der reichen Blüte des Baums zwischen Februar und April zieht viele Besucher an. Musische Aktivitäten. Im Heinrich-Schütz-Konservatorium Dresden erhalten 4000 Schüler im Alter zwischen 18 Monaten und 60 Jahren eine qualifizierte Ausbildung. Vereinssport in Dresden. Ein früher Fußballverein war der Dresden English Football Club. In den Kriegsjahren des Zweiten Weltkriegs konnte der Dresdner Sportclub (DSC) um den Nationalspieler und späteren Bundestrainer Helmut Schön jeweils zweimal den deutschen Pokal (Tschammerpokal) und die Deutsche Meisterschaft erringen. Der Dresdner SC spielt mittlerweile nur noch in der Bezirksliga (7. Liga). Der heute höchstklassierte Fußballverein SG Dynamo Dresden spielte ab 1968 bis 1991 ununterbrochen in der Oberliga, der höchsten Spielklasse im DDR-Fußball. Insgesamt achtmal gelang der Mannschaft der Gewinn der Meisterschaft. Unter den 98 Europapokal-Spielen war der größte Erfolg das Erreichen des UEFA-Pokal-Halbfinales 1989. Als Vizemeister in der letzten Saison der Oberliga qualifizierte sich Dynamo für die Fußball-Bundesliga, in der der Verein bis 1995 spielte. Dann musste er wegen Lizenzentzugs in die Regionalliga absteigen. Später wurde bei der Reform der Regionalligen der qualifizierende Platz verpasst, wodurch der Verein gezwungen war, in der Oberliga zu spielen. Nachdem Dynamo Dresden zwischenzeitlich in der Regionalliga und der 2. Fußball-Bundesliga spielte, ist der Verein heute wieder in der 3. Liga zu finden. Die hohe Schuldenlage aus der Erstligazeit und die geringeren Einnahmen in den unteren Spielklassen führten beinahe zum Konkurs des Vereins. Seine Heimspielstätte, das Rudolf-Harbig-Stadion, wurde komplett abgerissen und durch einen Stadionneubau ersetzt. Das neue Stadion war ein Schauplatz der Frauen-Fußball-Weltmeisterschaft 2011 in Deutschland. Seit dem Sommer 2014 trägt das Stadion, dessen Eigentümer die Stadt Dresden ist, den schlichten Namen „Stadion Dresden“. Zur Saison 2007/08 benannten sich die beiden höchstklassierten Fußballvereine der Stadt um: Der 1. FC Dynamo Dresden nennt sich wieder Sportgemeinschaft und der derzeit zweithöchst klassierte Dresdner Fußballverein FV Dresden-Nord nannte sich in SC Borea Dresden um (wobei Borea die Bezeichnung Nord ersetzt). Wesentlich erfolgreicher als die Herrenfußball-Abteilung des DSC ist heute die Damenabteilung des DSC im Volleyball, die seit ihrem Aufstieg in die Bundesliga zweimal Deutscher Meister und 2010 Europapokalsieger wurde. Dresden Citylauf 10. Juni 2012 Erfolgreiche Sportvereine in anderen Sportarten sind die Dresden Monarchs, die in der GFL, der ersten Bundesliga des American Football spielen, und die Dresdner Eislöwen, die in der DEL2 spielen. Die Abteilung Sledge-Eishockey (Dresden Cardinals) spielt in der ersten Liga. Dresden ist zudem ein historisches Schachzentrum in Deutschland. Dem Dresdner Schachbund gehören mehr als zehn Schachvereine, teils mit langer Tradition, an; im Jahr 2008 wurde hier die Schacholympiade ausgetragen. Der Snooker-Verein SAX-MAX Dresden spielt seit 2013 in der 1. Snooker-Bundesliga. Im Breitensport sehr erfolgreich ist das "Dresdner Nachtskaten", das als erste Veranstaltung dieser Art nächtliches Skaten auf verschiedenen Routen durch die Stadt ermöglicht. Diese Veranstaltungen finden den ganzen Sommer über statt. Der älteste Mannschaftsduathlon Deutschlands – der 100km-Duathlon – findet seit 1996 jedes Frühjahr statt und verläuft auf einer 100 km langen Wettkampfstrecke rund um Dresden. Eine Abteilung Rollstuhltanz (Breitensport) gibt es im Tanzclub Saxonia e. V. Dresden (in Kooperation mit dem Verein Eureha e. V.). Darüber hinaus wird im Rollstuhl-Turniertanz trainiert, um an die Erfolge der vergangenen Jahre anzuknüpfen, wo ein Paar mehrfacher Deutscher Meister war und 2004 einen 3. Platz bei der WM in Tokio erreichte. Sportanlagen. Jahrelang wurde die Modernisierung von Sportstätten vernachlässigt. Am 19. November 2007 begann der Abriss des altehrwürdigen "Rudolf-Harbig-Stadions". Die zuletzt max. für 23.000 Zuschauer zugelassene Arena wurde durch einen Stadionneubau an gleicher Stelle ersetzt, der am 15. September 2009 fertiggestellt wurde. Von Ende 2010 bis Sommer 2014 trug das Stadion den Namen "glücksgas Stadion" und heißt seitdem "Stadion Dresden". Das neue Stadion, das als reine Fußballarena konzipiert wurde und in der Regel somit als Fußballstadion, aber teilweise auch für American Football, Konzerte und als Kongressstätte der Zeugen Jehovas genutzt wird, bietet Platz für maximal 32.066 Zuschauer und war Austragungsort von drei Vorrunden- sowie einem Viertelfinalspiel der Fußball-Weltmeisterschaft der Frauen 2011. Das zweite große Stadion ist das Heinz-Steyer-Stadion, das im Moment 5000 Zuschauer fasst. Es liegt in der Friedrichstadt direkt an der Marienbrücke. Die ohnehin marode "Eissporthalle Pieschner Allee" wurde durch das Elbhochwasser 2002 in Mitleidenschaft gezogen und durch einen Neubau ersetzt. Der Nachfolgebau, die EnergieVerbund Arena, konnte 2007 eingeweiht werden. Weitere Anlagen sind die Margon Arena, die Anlagen im Ostragehege, in denen eine Leichtathletikhalle neuerrichtet und einige Tennisplätze hochwassersicher verlegt wurden, sowie die Schwimmhalle und die Wasserspringhalle an der Freiberger Straße. Im Stadtteil Seidnitz gibt es eine Pferderennbahn. Nachtleben. Die Äußere Neustadt ist eines der größten erhaltenen Stadtgebiete der Gründerzeit in Deutschland. Gleichzeitig befindet sich dort das mit etwa 175 gastronomischen Einrichtungen größte Szene- und Kneipenviertel der Stadt. Hervorgegangen aus dem schlechten Zustand der Bausubstanz entwickelte sich dort eine alternative Kulturszene in der Stadt. 1989 bildeten einige Bewohner aus Protest eine Interessengemeinschaft gegen die schlechte Wohnraumsituation und Abrisspläne, riefen 1990 die Bunte Republik Neustadt aus und begründeten damit den Charakter eines Szeneviertels. Dort ist die höchste Konzentration an Clubs, Bars und Kneipen in der Stadt. Der Zustand des Viertels hat sich in den letzten Jahren stark verbessert, weshalb es durch sein vielseitiges Kulturangebot zu den beliebtesten Wohngegenden junger Menschen in Dresden zählt. Das Spektrum der Lokale ist sehr vielseitig und reicht von Jazzbar, Indie- und Elektroclubs bis Kleinraum-Disko. Auf südlicher Elbseite, in der Nähe der Hochschulen, befinden sich die vierzehn Studentenklubs der Stadt. Die meisten werden vom Studentenwerk Dresden unterstützt, sind aber in der Regel selbständige Vereine. Bereits in den 1960er Jahren ins Leben gerufen, ist der „Bärenzwinger“ im Gewölbe der ehemaligen Kasematten unter der Brühlschen Terrasse einer der ältesten und der einst bekannteste Studentenklub in Dresden. Die anderen Klubs liegen meist an, teilweise in den Wohnheimen sowie in den Mensen der Technischen Universität und der Hochschule für Technik und Wirtschaft. Seit der Verkleinerung des Bärenzwingers im Jahre 2000 zählen heute der „Klub Neue Mensa“ (KNM) und der „Club Mensa“ (CM) zu den bekanntesten Studentenklubs in Dresden. Sehr bekannt ist der Jazzclub Tonne, der in seiner Geschichte in vielen Gewölbekellern Dresdens residierte und daher seinen Namen trägt. Seit dem Jahr 2000 befindet sich der Club im Keller des Kulturrathauses in der Inneren Neustadt. Im als „Industriegelände“ bekannten Industriegebiet im Norden der Stadt haben nicht wenige Industriegebäude eine Umnutzung zu Diskothek- und Konzertsälen erfahren, sodass sich in dem Gebiet mittlerweile an Wochenend-Nächten mehr Menschen aufhalten als an Arbeitstagen. Weiterhin gehören zum Nachtleben zahlreiche Konzertsäle und -häuser, die dauerhaft oder vorübergehend für Veranstaltungen mit Bühnen genutzt werden. Dauerhafte Konzerteinrichtungen sind der Alte Schlachthof, der bis zu 1800 Besucher fasst, der „Beatpol“ (bis 2007: „Starclub“) in Briesnitz und die Freilichtbühne „Junge Garde“ im Großen Garten. Gelegentlich werden für Konzerte die Messe im Neuen Schlachthof, das Kongresszentrum sowie Teile des Campus der Technischen Universität und der Elbwiesen genutzt. Bei den Filmnächten am Elbufer finden ebenfalls Konzerte statt. Regelmäßige Veranstaltungen. In Dresden gibt es das ganze Jahr über verschiedene Festivals und Großveranstaltungen. Insbesondere die musikalischen Veranstaltungen genießen internationale Bedeutung. Zahlreiche Stadtteilfeste mit verschiedenem Hintergrund ergänzen dieses Angebot. Frühjahr. Im April findet das Filmfest Dresden statt. Es ist ein bedeutendes Festival für Animations- und Kurzfilm. Viel weiter reichende Tradition haben die Dresdner Musikfestspiele, deren ursprüngliche Vorläufer die Musikfeste des barocken Hofs waren. Sie sind als Veranstaltung klassischer Musik deutschlandweit bekannt. 1971 wurde das erste Internationale Dixieland-Festival ausgetragen. Mittlerweile gehört es zu den weltweit bedeutendsten Jazz- und Bluesveranstaltungen. Mit jährlich etwa 500.000 Besuchern ist es außerdem die größte Kulturveranstaltung in Sachsen. Elemente des Festivals wie die "Jazzmeile", die sich quer durch die Stadt zieht, sind ohne Eintritt erreichbar. Der Hauptteil des Festivals findet aber auf viele Clubs und Bars verteilt statt. Jedes Jahr im Frühjahr findet die Internationale Tanzwoche Dresden statt. Sie präsentiert seit 1992 Ensembles von internationalem Rang vom Ballett, Tanztheater bis zum zeitgenössischen Tanz an mehreren Spielstätten in Dresden. Sommer. Gegenüber der Altstadtsilhouette finden seit 1990 jedes Jahr die Filmnächte am Elbufer statt. Schon beim ersten Mal dauerte die Veranstaltung zehn Tage. Mittlerweile ziehen Filme, Veranstaltungen und Konzerte in rund 60 Tagen 150.000 Zuschauer an, wodurch die Veranstaltung als die größte ihrer Art in Deutschland gilt. Eine Veranstaltung mit politischem Ursprung ist die Bunte Republik Neustadt. Von 1990 bis 1993 bestand im Stadtteil Äußere Neustadt aus Protest gegen die maroden Wohnbedingungen die gleichnamige Mikronation. Bereits 1990 gab es ein entsprechendes Stadtteilfest, das weiterhin veranstaltet wird. 2001 und 2002 kam es während des Festes zu Ausschreitungen, während die letzten Jahre friedlich verliefen. Das Fest ist eines der alternativen Szenekultur geblieben. Am rechten Elbufer entlang findet am Dresdner Elbhang alljährlich das Elbhangfest statt. Es erstreckt sich vom Stadtteil Loschwitz bis Pillnitz. Höhepunkt ist unter anderem eine Drachenboot-Regatta. Nach der Elbflut 2002, die neben dem Stadtteil Kleinzschachwitz Laubegast mit einschloss, findet dort auf der anderen Elbseite das "Inselfest" statt. Im Sommer finden zahlreiche Veranstaltungen in den Abend- und Nachtstunden statt. Ende Juni oder Anfang Juli laden die zahlreichen Forschungseinrichtungen und Hochschulen zur Langen Nacht der Wissenschaften ein. Die Veranstaltung kostet keinen Eintritt. Für die Hochschulen, Institute und die kooperierenden Technologieunternehmen bietet die Veranstaltung die Möglichkeit, die eigenen Ergebnisse und Arbeiten einem großen Publikum vorzustellen. Kurze Zeit später findet die "Museumssommernacht" statt, in der zahlreiche Museen der Stadt besucht werden können. Einem ähnlichen Konzept folgt die seit 2003 stattfindende "Nacht der Kirchen", bei der – inzwischen alle zwei Jahre – etwa sechzig Kirchen und Gemeindehäuser aller christlichen Konfessionen ihre Türen öffnen. Im August findet das "Stadtfest" statt. Es erstreckt sich über die gesamte Innenstadt. Neben Live-Musik bietet es ein auf Familien zugeschnittenes Programm, das jährlich etwa 500.000 Gäste zählt. Weitere Festivals und Veranstaltungen im Sommer sind das Dresdner Kunstfest, die Kulturnacht und das Nachtskaten, das vielfach im Sommer freitags stattfindet. Dabei rollen mehrere tausend Inlineskater einen Parcours auf gesperrten Straßen durch die Stadt. Herbst. Im Herbst findet das "Volkstanzfest und Drehorgeltreffen" statt. Weitere Veranstaltungen im Herbst sind die Dresdner Tage der zeitgenössischen Musik, das Literaturfestival "Bardinale" und das "Festival der Zauberkunst" sowie alle zwei Jahre der "Tag der Dorfkirchen". 1997 fand als Höhepunkt der Zauberkunstaktivitäten in Dresden die jeweils dreijährlich stattfindende Weltmeisterschaft des internationalen Dachverbands FISM statt. Winter. Dresden im Winter, Blick unter der Marienbrücke zur Stadt am 10. Februar 2012 Während der Adventszeit findet der Dresdner Striezelmarkt statt. Dieser seit 1434 bestehende Weihnachtsmarkt ist einer der ältesten in Deutschland. Er wird in der Regel auf dem Altmarkt errichtet und gehört zu den größten Touristenattraktionen in der Weihnachtszeit. Der Name des Marktes leitet sich von seinem Hauptprodukt, dem Dresdner Stollen („Striezel“), ab. Ein Höhepunkt des Marktes ist das Dresdner Stollenfest. Gleichzeitig mit dem Striezelmarkt findet jedes Jahr ein mittelalterlicher Weihnachtsmarkt im Stallhof des Dresdner Schlosses statt. Am 13. Januar 2006 fand erstmals seit 67 Jahren wieder der Dresdner Opernball in der Semperoper statt. Mittlerweile findet der Opernball regelmäßig jedes Jahr statt und erfreut sich immer größerer Beliebtheit. Stargast des Opernballs 2009 war der russische Ministerpräsident Wladimir Putin. Im Februar findet das Fest sächsischer Puppen- und Marionettenspieler statt. Kennzahlen. Dresden bildet das Zentrum des gegenwärtig wirtschaftsstärksten Raums der neuen Bundesländer und gehört zu den wirtschaftlich stärksten Räumen in Deutschland. Das Bruttoinlandsprodukt erreichte im Jahr 2008 einen Wert von 15,3 Milliarden Euro. Das entspricht etwa 30.200 Euro pro Einwohner bzw. 50.200 Euro je Erwerbstätigen. Der Kaufkraftindex pro Einwohner lag 2013 bei 90,1 (Deutschland: 100). Es ist zu beobachten, dass der Kaufkraftindex pro Einwohner jährlich abnimmt. Im europäischen Vergleich erhielte Dresden einen Index von etwa 121 (EU-27: 100) im Vergleich zum ehemaligen Direktionsbezirk Dresden 87,7, Sachsen 86,1 und Deutschland 115,1. Besonders hohen Anteil an der gesamten wirtschaftlichen Leistung hat das verarbeitende Gewerbe. Allein die Unternehmen der Mikroelektronik erreichten mehr als drei Milliarden Euro Umsatz. Die Arbeitslosenquote in Dresden lag 2014 durchschnittlich bei 8,4 Prozent. Etwa 215.000 sozialversicherungspflichtige Beschäftigte arbeiten in der Stadt, während etwa 170.000 Arbeitnehmer dort ihren Erstwohnsitz haben, wodurch Dresden eine Einpendlerstadt ist. Etwa 20 Prozent der Beschäftigten haben einen Hochschulabschluss. Diese hohe Zahl und die vielen Einrichtungen der angewandten Forschung zeigen, dass sich die Dresdner Wirtschaft von dem strukturellen Prinzip der „Verlängerten Werkbank“ entfernt. Schwachpunkt der Dresdner Wirtschaftsstruktur bleibt die geringe Anzahl an Unternehmenszentralen in der Stadt: Alle Großansiedlungen der letzten Jahre sind nur als Tochterunternehmungen im Dresdner Handelsregister eingetragen. Im Stadtgebiet entfällt eine Fläche von 307 Hektar auf Betriebsflächen, 10.885 Hektar werden landwirtschaftlich genutzt. Tourismus. Als touristisches Ziel ist Dresden weltweit bekannt. Jährlich besuchen etwa sieben Millionen Gäste die Stadt, von denen 1,1 Millionen durchschnittlich etwa zwei Tage in Dresden verbleiben. Diese Werte gehören gegenwärtig schon zu den Spitzenwerten in Deutschland und Europa. Der Tourismus wird stark durch Ereignisse im Kulturleben gestützt. So stieg die Zahl der Besucher im Jahr 2005 (dem Jahr der Eröffnung der Frauenkirche) auf 8,8 Millionen Gäste. Der jährliche Umsatz durch Tourismus liegt bei etwa einer halben Milliarde Euro. 2011 gab es 1,9 Millionen Übernachtungsgäste, darunter etwa 20 Prozent aus dem Ausland; 116 Hotels boten rund 20.000 Betten an. Dabei gibt es eine im nationalen Vergleich hohe Dichte von 26 Hotels der Ober- und Luxusklasse. Die Kapazität wird noch ausgebaut; die Bettenauslastung liegt bei rund 50 Prozent. Zusammen mit der Messe Dresden und dem neuen Kongresszentrum versucht sich die Stadt auch als Kongress- und Tagungsort zu profilieren. Ansässige Unternehmen. Viele der Kompetenzfelder entstanden nicht erst in den letzten Jahren. Einige, wie zum Beispiel die Mikroelektronik, die schon vor 1989 in Dresden ein Zentrum besaß, wurden aber erfolgreich ausgebaut. Durch die Möglichkeiten der engen Zusammenarbeit der Industrie mit den hier ansässigen Universitäten und Forschungseinrichtungen entwickelt sich die Stadt immer mehr zu einem der führenden Zentren der Halbleiterfertigung in Europa. So entstanden in den vergangenen Jahren zahlreiche neue Fertigungsstätten führender Unternehmen wie Globalfoundries und Infineon. Viele Bereiche der Zulieferindustrie (Reinraumtechnik, Spezialmaschinenbau, Siliziumwafer) lassen sich in und um Dresden nieder, sodass in Anlehnung an das Silicon Valley in Kalifornien oft vom Silicon Saxony gesprochen wird. Durch Forschungsarbeit im Bereich der Nanotechnologie und Werkstoffe erhofft man sich, führender Wirtschaftsstandort der aufkommenden Nanoelektronik, die einen Quantensprung für die elektronische Datenverarbeitung darstellen wird, zu werden. An der wirtschaftlichen Nutzung von besonderen elektromagnetischen Eigenschaften von Supraleitern (Meißner-Ochsenfeld-Effekt) wird ebenfalls gearbeitet. Neben der Mikroelektronik- und Halbleiterindustrie ist auch die Softwareindustrie vertreten, etwa durch das T-Systems-Tochterunternehmen T-Systems MMS sowie die Niederlassungen der Softwarehersteller SAP Deutschland AG & Co. KG und der polnischen Comarch. Nach der Wende hat die Siemens AG in Dresden einen Standort errichtet. Der Konzern kaufte 1991 von der Treuhandanstalt das "Transformatoren- und Röntgenwerk „Hermann Matern“", das auf die Koch & Sterzel AG zurückgeht. Um dieses Werk herum im Stadtteil Übigau übernahm der Konzern eine Grundstücksfläche von rund 350.000 Quadratmetern. Volkswagen lässt in der Gläsernen Manufaktur das Luxusfahrzeug (VW Phaeton) des Konzerns herstellen. Die Airbus Group (bis 2013 EADS) hat in Dresden mit den Elbe Flugzeugwerken ein Tochterunternehmen insbesondere zum Umbau von Airbus-Flugzeugen. Der Standort ist auch an der Entwicklung des Airbus A380 beteiligt. Zum einen stammen Teile der Innenausstattung aus den Werken, zum anderen wird eine der beiden Materialtestprozeduren bei IABG/IMA durchgeführt. Viele Zulieferer der Automobilindustrie für elektronische Komponenten produzieren in Dresden. Ein Tochterunternehmen der Linde AG konzipiert und plant Anlagen der Pharmazie- und Chemieindustrie. Im Bereich Pharma und Arzneimittel spielt Dresden seit mehr als hundert Jahren eine bedeutende Rolle. Viele Verfahren zur industriellen Produktion von Arzneimitteln wurden hier entwickelt und angewandt. Das ehemalige Sächsische Serumwerk Dresden (heute Teil des GlaxoSmithKline-Konzerns) ist ein international bedeutsamer Lieferant für Grippeimpfstoffe. Sie zählt zum Beispiel das US-amerikanische Gesundheitsministerium zu ihren wichtigsten Kunden. Wieder an Bedeutung gewinnt ebenso die im benachbarten Radebeul ansässige und auf eine lange Tradition (als Chemische Fabrik Dr. F. von Heyden und Arzneimittelwerk Dresden) zurückblickende Arzneimittelproduktion, die jetzt zur italienischen Menarini-Gruppe gehört. Einzelhandel. Vor der Zerstörung durch den Luftangriff befand sich das repräsentative Einkaufszentrum der Stadt mit zahlreichen Fachgeschäften in der Prager Straße, während die großen Kaufhäuser den Bereich des Altmarktes prägten. Den Wiederbeginn 1952 markierte der Bau des Warenhauses an der Wilsdruffer Straße nahe dem Postplatz. Stand damals dieser Bau für das erwachende Dresden, so ist heute dessen Bedeutung für die Stadt zu Beginn der 1950er Jahre durch die neueren umliegenden Bauten kaum noch nachzuvollziehen. Blick vom Hauptbahnhof in die Prager Straße Die größte Konzentration von Warenhäusern und Geschäften befindet sich heute im Dresdner Stadtzentrum an der nördlichen Prager Straße und am Altmarkt. Dort haben sich Filialen der großen Warenhausketten angesiedelt und bilden mit der Altmarkt-Galerie eines der großen Einkaufszentren der Stadt. Das Gebiet ist durch mehrere Straßenbahnhaltestellen erschlossen. Auch der Hauptbahnhof, am südlichen Ende der Prager Straße, soll nach seiner Fertigstellung und der Bebauung des Wiener Platzes ein bedeutendes Zentrum des Einzelhandels sein. Am Nordende der Prager Straße befindet sich die Centrum-Galerie. Die Altmarkt-Galerie wurde erweitert und hat nun mehr als 200 Geschäfte (darunter viele einmalige Markenstores in Ostdeutschland wie Hollister, Apple, O’Neill). Das Parkplatzangebot wurde in den letzten Jahren durch zahlreiche Tiefgaragen verbessert. Als Einkaufsstraße für hochwertige Güter und Luxusartikel − früher das Privileg der Prager Straße − hat sich dagegen die Königstraße in Dresden-Neustadt etabliert. Geschäfte dieser Preisklasse sind stark mit dem Tourismus der Stadt verwoben. Eine ähnliche Struktur hat sich am Neumarkt rund um die Frauenkirche entwickelt. a> (1982) mit "Goldenem Reiter" (links) und Eingang zur "Hauptstraße" (rechts) Die zur Fußgängerzone umgebaute Neustädter Hauptstraße „hatte ihre beste Zeit“ in den 1980er Jahren. In deren Nähe liegt die Neustädter Markthalle, ein kleines Einkaufszentrum mit 20 Händlern in einem rekonstruierten Jugendstilgebäude. Auch in alten Stadtteilzentren wie am Schillerplatz in Blasewitz wurden wieder bedeutende Einkaufszentren geschaffen. Andere Anlagen wie der "Elbepark" konzentrieren sich außerhalb der Innenstadt an Autobahnausfahrten und haben so einen deutlich überregionalen Einfluss. Der Preisdruck auf die Handelsflächen im Stadtzentrum durch große Einkaufszentren der Peripherie ist auch in Dresden spürbar und wird häufig kritisiert. In der Innenstadt werden gerade einmal 22 Prozent des Umsatzes des Einzelhandels erzielt. Das ist vergleichsweise wenig, wenngleich mehrere Nebenzentren existieren. Traditionsunternehmen/Ehemalige Unternehmen. Eines der bekanntesten Unternehmen war die am 12. November 1872 gegründete Dresdner Bank. Bereits 1885 wurde die operative Geschäftsführung nach Berlin verlegt, bis 1950 blieb die Bank aber im Handelsregister der Stadt Dresden eingetragen. Die Raddampferflotte, die von der Sächsischen Dampfschiffahrtsgesellschaft betrieben wird, gilt als die größte und älteste der Welt. Der 1879 gebaute Raddampfer „Stadt Wehlen“, benannt nach dem Ort Wehlen in der Sächsischen Schweiz, ist das älteste Schiff der Flotte. Im Jahr fahren etwa 500.000 Passagiere auf den 13 Schiffen. Nur wenig jünger ist die Genossenschaft Konsum Dresden, ein Handelsunternehmen, das im Jahr 1888 als „Konsumverein Vorwärts“ gegründet wurde. Verunreinigte und überteuerte Lebensmittel führten damals dazu, dass mehrere Dresdner Familien selbst einkaufen und miteinander handeln wollten. Mit eigenen Produktions- und Logistikstrukturen wurde ein Ladennetz aufgebaut und bereits 1931 die erste konsumeigene Fleischfabrik in Dresden eröffnet. Heute betreibt das Unternehmen noch über 40 Filialen und hat rund 25.600 Mitglieder. Das im Jahr 1892 vom Dresdner Unternehmer Karl August Lingner herausgebrachte Mundwasser "Odol" wurde in den 1945 zerstörten Dresdner "Lingner-Werken" hergestellt. Die „Sachsenwerk, Licht- und Kraft AG“ wurde 1903 gegründet und baute vor allem Transformatoren und Schaltgeräte für elektrische Beleuchtungen sowie große elektrische Maschinen. Seit den 1920er Jahren ist das Werk ein bedeutender Hersteller von Straßenbahn- und Lokomotivmotoren. Heute gehört die VEM Sachsenwerk GmbH zur VEM Gruppe. 1907 begann auf dem Dachboden der Löwenapotheke die Produktion der Zahncreme Chlorodont, die ab 1917 in den neu gegründeten Leowerken in immer größerem Stil erzeugt und vermarktet wurde. Das Nachfolgeunternehmen nutzt die Räume noch heute. Das seit Jahrzehnten international tätige Unternehmen Melitta wurde am 15. Dezember 1908 mit 73 Pfennigen Eigenkapital von Melitta Bentz ins Dresdner Handelsregister eingetragen. Mit dem Zentrum Mikroelektronik Dresden (ZMD) und dem VEB Kombinat Robotron begann 1961 die Zeit der Mikroelektronik und Computerfertigung in Dresden. 1989 waren etwa 4000 Angestellte beim Zentrum Mikroelektronik, im Kombinat Robotron wurden bis zu 68.000 Mitarbeiter beschäftigt. Das ZMD firmierte von 1961 bis 1976 als Arbeitsstelle für Molekularelektronik Dresden (zunächst AME, ab 1969 AMD). Nach weiteren Umbenennungen und der Privatisierung in den 1990er Jahren arbeiteten 2011 in dem nun „ZMD AG“ genannten Unternehmen ca. 300 Ingenieure, Techniker und Facharbeiter. Das Kombinat Robotron wurde 1990 aufgelöst und dessen Teilbetriebe wurden privatisiert. Von diesen Nachfolgeunternehmen existiert in Dresden nur noch die Robotron Datenbank-Software GmbH mit 264 Mitarbeitern (Geschäftsjahr 2011/2012). Der Dresdner Maschinenbau hat eine Tradition als direkter Zulieferer der ansässigen Industrien der Pharmazeutik, Optik und Lebensmittelherstellung. Wettbewerbsvorteile konnte die Sächsische Industrie vor allem durch die Anwendung der Feinmechanik im Großmaschinenbau erlangen. Die Historie setzte sich zuletzt bei den Spezialmaschinenbauern für Reinraumtechnik fort. Dresden und Umland war bis in die Nachkriegszeit hinein ein Schwerpunkt der deutschen optisch-feinmechanischen Industrie, insbesondere im Bereich des Kamerabaus. Die Ernemann-Werke, Zeiss-Ikon, die Ihagee (Erfindung der einäugigen Kleinbild-Spiegelreflexkamera), die Kamera-Werke Niedersedlitz sowie das Kombinat VEB Pentacon (Praktica-Kameras) hatten hier ihren Sitz. Ebenfalls in Dresden wurde 1923 von dem 18-jährigen gelernten Fotografen Martin Hanke Hama gegründet. Die "Elbe Flugzeugwerft", die heute als Elbe Flugzeugwerke firmiert und zur Airbus Group (bis 2013 EADS) gehört, war schon sehr früh nach dem Zweiten Weltkrieg ein bedeutendes Werk des Flugzeugbaus, das am Nordostrand des Flughafens Dresden-Klotzsche auf einem Teil des Geländes der vormaligen Luftkriegsschule 1 errichtet wurde. Mit der Baade 152 entstand dort in den 1950er Jahren das erste deutsche Verkehrsflugzeug mit Strahltriebwerken. Auf Beschluss des Politbüros der SED musste 1961 aufgrund mangelnder Absatzmöglichkeiten der Flugzeugbau in der DDR und damit auch dieses Projekt eingestellt werden. Verkehr. Dresden ist einer der wichtigsten Knotenpunkte im Straßen- und Schienenverkehr Ostdeutschlands und hat einen Flughafen. Etwa 3335 Hektar des Stadtgebiets entfallen auf Verkehrsflächen. Modal Split. In den vergangenen Jahren ist der Anteil der zurückgelegte Wegen mit dem ÖPNV relativ konstant geblieben. Der Anteil des motorisierten Individualverkehrs stieg nach der Wende stark an, seit den letzten zehn Jahren ist er aber wieder rückläufig. Der Anteil der Wege hingegen, die mit dem Fahrrad zurückgelegt werden, steigt seit 1991 kontinuierlich an. Schienenverkehr. Der Eisenbahnknoten Dresden verbindet fünf Haupt- und Fernstrecken. Dresden Hauptbahnhof ist einer von 20 Fernverkehrsknoten in Deutschland und neben dem Bahnhof Dresden-Neustadt der wichtigste Bahnhof der Stadt. Direkte Fernverkehrsverbindungen im Tagesverkehr besitzt Dresden unter anderem mit Leipzig, Berlin, Prag, Erfurt, Magdeburg, Frankfurt am Main, Wiesbaden, Hamburg, Hannover, Brünn, Bratislava und Budapest. Im Nachtverkehr bestehen Verbindungen nach Zürich, nach Köln und ins Ruhrgebiet sowie nach Wien. Die S-Bahn Dresden verbindet die Stadt mit dem Umland und dem Flughafen. Im Regionalverkehr ist Dresden mit der Lausitz, Chemnitz, Zwickau sowie Leipzig und Nürnberg verbunden. Größter Güterbahnhof der Stadt ist der Bahnhof Dresden-Friedrichstadt mit einem Güterverkehrszentrum und Containerterminal für den kombinierten Verkehr. Straßenverkehr. Erläuterung eines Straßennamens auf dem Straßenschild Durch das nordwestliche Stadtgebiet führt die Bundesautobahn A 4 in Richtung Görlitz beziehungsweise Chemnitz–Erfurt mit fünf Anschlussstellen. Von der A 4 zweigen im äußersten Norden der Stadt die A 13 in Richtung Berlin und westlich von Dresden die A 14 nach Leipzig ab. Die 2006 fertiggestellte A 17 beginnt im Westen von Dresden und tangiert die Stadt südlich mit drei Anschlussstellen. Sie ist gleichzeitig die Europastraße E 55 und führt durch das Erzgebirge nach Prag. Unter zwei Dresdner Stadtteilen verläuft die A 17 in Tunneln. Die Autobahn ist besonders bedeutend für den LKW-Fernverkehr in Nord-Süd-Richtung und entlastet die Hauptstraßen der Stadt im Berufsverkehr, da sie parallel und nah zum Verdichtungsraum um Dresden verläuft und dadurch Pendlern aus Pirna und Heidenau nutzt. Kritisiert wurden die hohen Kosten der neuen Strecke sowie die damit verbundene Förderung der Zersiedelung. Durch die neu erschlossenen Wohnungsstandorte würden langfristig neuer Pendlerverkehr erzeugt und Entlastungen wieder wettgemacht. Der Einfluss auf die Luftzufuhr der Stadt wurde ebenfalls kritisch gesehen. a> im Mordgrund am Rand der Dresdner Heide Ferner führen folgende Bundesstraßen durch die Stadt: Die B 6, die B 97, die B 170, die B 172 und die B 173. Die Stadt Dresden galt mit vielen vierspurigen Straßen und stark gestiegenen, vergleichsweise hohen Reisegeschwindigkeiten zwar als autofreundlich, wobei allerdings das parallel sehr hohe Niveau des öffentlichen Verkehrs nicht geleugnet wurde bzw. wird. Der Elberadweg, der im Jahr 2015 zum elften Mal in Folge von Mitgliedern des ADFC zum beliebtesten Fernradweg Deutschlands gewählt wurde, führt innerhalb der Stadt mit wenigen Ausnahmen durchgehend an der Elbe entlang. In den deutschlandweiten Umfragen zur Radfahrfreundlichkeit (Fahrradklimatest) belegt Dresden einen Platz im Mittelfeld hinter Chemnitz und Leipzig (beim Test im Jahr 2014 war es Platz 21 unter den insgesamt 38 beurteilten Großstädten über 200.000 Einwohner). In der kommunalen Bürgerumfrage 2014 gaben 71 % der Befragten an, dass die Stadtverwaltung sich mehr für den Radverkehr engagieren müsse. Dennoch begeistern sich die Dresdner für das Fahrrad: Schon bei der ersten Teilnahme am Wettbewerb "Stadtradeln" 2011 Sieger in der Kategorie "Fahrradaktivste Stadt mit den meisten Radkilometern". Insgesamt umfasst das Straßennetz in kommunaler Verwaltung 1400 km Straßen, 1908 km Fußwege und 370 km Radwege. Öffentlicher Personennahverkehr. Den Öffentlichen Personennahverkehr bedienen neben der S-Bahn zwölf Straßenbahn- und über 30 Buslinien der Dresdner Verkehrsbetriebe sowie einiger Busunternehmen. Bedeutende Überlandlinien mit Verbindung nach Dresden betreiben die Oberelbische Verkehrsgesellschaft Pirna-Sebnitz und der Regionalverkehr Dresden. Straßenbahnen verkehren in der ehemaligen sächsischen Residenzstadt seit 1872, zunächst als Pferdebahnen, ab 1893 zunehmend elektrisch. Dabei bestanden zeitweise zwei konkurrierende private Unternehmen, deren äußeres Erkennungszeichen die unterschiedlichen Wagenfarben waren (daher wurden sie in der Bevölkerung als „gelbe“ bzw. „rote“ Gesellschaft bezeichnet). Diese wurden 1905 in der Städtischen Straßenbahn Dresden vereinigt. Seitdem wird das Straßenbahnnetz unter einheitlicher Regie betrieben, zunächst von der Stadt selbst, im Laufe der Zeit von unterschiedlichen mehr oder weniger von der Stadt abhängigen Trägern. Bekannt ist die Dresdner Straßenbahn für den zwischen 1931 und 1972 eingesetzten großen Hechtwagen. Schon in der Weimarer Republik gab es teilweise einen Dreiminutentakt. Seit der letzten Linienumstellung verkehren zwölf Straßenbahnlinien auf einem etwa 204 km langen Liniennetz, das bis zu den benachbarten Städte Radebeul, Coswig und Weinböhla reicht; diese Überlandbahn wird touristisch als "Kultourlinie" vermarktet. Autofähre über die Elbe in Dresden-Pillnitz Die Dresdner Verkehrsbetriebe modernisieren seit Jahren ihr Netz und ihren Fuhrpark. Seit Juni 2010 sind im Normalfall ausschließlich Niederflurbahnen von Bombardier Transportation aus Bautzen mit bequemen stufenlosen Einstiegen im Einsatz. Lediglich für Sonderleistungen kommen gelegentlich noch die Tatra-Wagen des Typs T4D zum Einsatz. Drei Elbfähren ermöglichen neben den Brücken (jeweils mit öffentlichem Nahverkehr per Eisenbahn, Bus oder Straßenbahn) den Übergang über die Elbe: von der Johannstadt zur Neustadt, von Niederpoyritz nach Alttolkewitz sowie von Kleinzschachwitz nach Pillnitz. Im Stadtteil Loschwitz gibt es außerdem die historischen Bergbahnen: eine Standseilbahn zum Nobelviertel Weißer Hirsch sowie eine Schwebebahn nach Oberloschwitz, an deren Bergstation sich eine hervorragende Aussicht auf die Stadt und das südwestliche Umland bietet. Auf der Elbe fahren die Raddampfer der Weißen Flotte und stellen ausschließlich touristisch genutzte Verbindungen elbaufwärts in die Sächsische Schweiz und elbabwärts nach Meißen bereit. Dresden ist auch Haltepunkt für Passagierschiffe der Flusskreuzfahrt-Veranstalter. Flugverkehr. Im Norden von Dresden, in Klotzsche, liegt seit 1935 der Flughafen Dresden mit nationalen und internationalen Fluglinien. Er wurde nach der Wiedervereinigung saniert und hat daher ein gut ausgebautes Terminal sowie eine gute Anbindung an den öffentlichen Personennahverkehr. Der Flughafen Dresden hat eine eingeschränkte Nachtruhe zwischen 0 und 5 Uhr, die darüber hinaus in den weiteren Randzeiten davor und danach nur eingeschränkt Flugverkehr zulässt Fernbusverkehr. Dresden hat kein eigenes Fernbusterminal. Genutzt werden die Bushaltestellen in der "Bayrischen Straße" am Dresdner Hauptbahnhof oder die Haltestelle am Bahnhof Dresden-Neustadt. Insbesondere die Bushaltestelle südlich des Hauptbahnhofs ist jedoch nicht für den expandierenden Fernbusverkehr ausgelegt. Vor allem fehlt es an Unterständen und Sitzbänken. So existieren Überlegungen einen Zentralen Omnisbus-Bahnhof nördlich des Hauptbahnhofs am westlichen Ende des Wiener Platzes zu errichten. Genaue Planungen existieren derzeit aber nicht (Stand Oktober 2014). Neben einer Vielzahl nationaler, bedienen auch einige internationale Linien Dresden. So können unter anderem die Städte Amsterdam, Budapest, Brüssel, London, Kopenhagen, Paris, Prag, Stockholm, Wien oder Zürich umstiegsfrei erreicht werden. Güterverkehr. Dresden war und ist ein wichtiger Eisenbahnknoten im Güterverkehr, zu dessen Eisenbahnanlagen der Rangierbahnhof Dresden-Friedrichstadt in der seltenen Bauform des Gefällebahnhofes gehört. Durch die Automobilwerke des Volkswagen-Konzerns in Chemnitz, Zwickau, bei der tschechischen Tochter Škoda in Mladá Boleslav und in Dresden selbst kommt dem Güterbahnhof als Logistikzentrum eine wichtige Funktion zu. In der Regel wird hier die Lokomotive gewechselt, da in Deutschland und Tschechien verschiedene Bahnstromsysteme betrieben werden. Täglich rollen etwa 200 Güterzüge über die Elbtalbahn von und nach Tschechien. Eine Besonderheit stellt die Güterstraßenbahn CarGoTram dar, die die Gläserne Manufaktur von Volkswagen am Großen Garten bedient. Die Bahn wurde eingerichtet, um die Innenstadt vor einer zusätzlichen Belastung durch LKW zu bewahren, denn die Altstadt liegt zwischen der Manufaktur und dem Logistikzentrum am Güterbahnhof in der Friedrichstadt. Dresdens Hafen liegt linkselbisch in Dresden-Friedrichstadt und dient der Elbe-Containerlinie und der Binnenschiffslinie ETS-Elbe. Er erhielt 2007 zusätzlich eine RoRo-Anlage mit einer zulässigen Höchstlast von 500 Tonnen. Dresden liegt am Kreuzungspunkt der E 40 und E 55, zweier wichtiger Europastraßen. Über die A 17 ist es gelungen, den Güterfernverkehr aus der Stadt zu verlagern. Alleine die E 55 nutzen täglich mehr als 2000 LKW. Tageszeitungen. Mit der Sächsischen Zeitung (SZ) und den Dresdner Neuesten Nachrichten (DNN) erscheinen zwei traditionelle Tageszeitungen. Die Sächsische Zeitung war ab 1946 und zu DDR-Zeiten Organ der SED. Heute gehört sie mehrheitlich zum Verlagshaus Gruner + Jahr. Die Vorläufer der DNN waren Zeitungen der NDPD (Sächsische Neueste Nachrichten), LDPD (Sächsisches Tageblatt) beziehungsweise CDU (Die Union). Die DNN gehören heute zur Leipziger Verlags- und Druckereigesellschaft, die zudem Gesellschafterin der Leipziger Volkszeitung (LVZ) ist. An der Leipziger Verlags- und Druckereigesellschaft ist zu 100 % die Verlagsgesellschaft Madsack beteiligt, an welcher wiederum zu über 20 % die Deutsche Druck- und Verlagsgesellschaft (dd_vg) beteiligt ist, das Medienbeteiligungsunternehmen der SPD. Weitere Zeitungen sind die Dresdner Morgenpost und die Lokalausgabe der Bild-Zeitung. Sonstige Zeitungen und Zeitschriften. Das kostenlose Dresdner Amtsblatt (DDA) erscheint als Veröffentlichungsorgan der Stadtverwaltung wöchentlich. Da der erste Vorgänger bereits 1839 erschien, gilt es als dienstältestes Printmedium Dresdens. Dresdner Kulturmagazin (kostenlos) und Sax sind monatlich erscheinende Stadtmagazine mit Veranstaltungskalender. Das Gastronomiemagazin „Augusto“ erscheint jährlich. Weitere Magazine sind "Frizz", "Spot", "DD-INside", "Skunk", SPIESSER, "Urania", ad rem, "caz", Prinz und port01, die teilweise werbefinanziert sind. Einige dieser Blätter sind auch in anderen deutschen Städten vertreten. Weiterhin werden in Dresden noch die kostenlosen Anzeigenblätter "Sächsischer Bote" und "Wochenkurier" verteilt. Die Sächsische Zeitung gibt außerdem kostenlos "freitagSZ" und "Dresden am Wochenende" heraus. Des Weiteren gibt es Anzeigenblätter für die jeweiligen Stadtteile, beispielsweise die "Leubener Zeitung" für das Ortsamt Leuben. Darüber hinaus erscheinen in Dresden die Literaturzeitschriften Ostragehege und Signum. Hörfunk und Fernsehen. Da in der Tallage nur an wenigen Orten im Stadtgebiet überregional ausgestrahlte Rundfunkprogramme zu empfangen waren, wurde 1969 der 252 Meter hohe Fernsehturm eröffnet, der heute noch in Betrieb ist. In Dresden befinden sich ein Landesfunkhaus des MDR und zahlreiche Produktions- und Dienstleistungsunternehmen für die Hauptstelle des MDR in Leipzig. Auch private Radiosender, wie Hitradio RTL, Radio PSR, Radio Energy (NRJ), Radio Dresden und R.SA sind mit ihren Programmen in Dresden vertreten. Neben Fernsehsendern in den einzelnen Stadtteilen die von Antennengemeinschaften veranstaltet werden, gibt es Dresden Fernsehen als Sender für das gesamte Stadtgebiet. Außerdem senden rund um die Uhr über Kabel Deutschland die Lokalfernsehsender DresdenEins und tvM (Meissen Fernsehen) sowie der Dresden Fernsehen-Ableger 8Dresden. Über Primacom wird der regionale Sportsender 8Sport in Dresden verbreitet. In Dresden beheimatet sind zwei SAEK (Sächsische Ausbildungs- und Erprobungskanäle) – ein schulisch spezialisierter SAEK im St. Benno-Gymnasium und einer im Medienkulturzentrum Pentacon. Hier findet der interessierte Bürger offene Studios, zwei Magazine im Ballungsraumfernsehen in Dresden, Leipzig und Chemnitz und kann das Produzieren sowie Senden erlernen und sogar auf Sendung gehen (eigener Radiosender NEON 425 auf 104,25 MHz im Dresdner Kabel). Neben den öffentlichen und privaten Radiosendern besteht in Dresden das Freie Radio coloRadio, das wochentags von 18 bis 24 Uhr sowie am Wochenende von 12 bis 24 Uhr auf den Frequenzen 98,4 und 99,3 MHz zu hören ist. Diese Frequenzen teilt sich coloRadio mit apollo radio. Sonstiges. Während der DDR-Zeit konnten in Dresden größtenteils keine westlichen Fernsehsender empfangen werden, weshalb Dresden den Namen Tal der Ahnungslosen bekam. Im Volksmund wurde der Name der ARD als Außer Raum Dresden gedeutet. Um dennoch westdeutsche Fernsehsender empfangen zu können, gründeten sich ab 1987 mehrere Bürgerinitiativen, die staatlich toleriert über Satelliten empfangene Signale westdeutscher Fernsehprogramme in kleinen Kabelnetzen verbreiteten. Teils wurden in diesen Kabelnetzen schon vorher terrestrisch schwach empfangbare westdeutsche Programme mit hohem Aufwand aufbereitet und in schwankender, aber nur an wenigen Tagen wirklich guter Qualität angeboten. Zusätzlich wurden tschechische Fernsehprogramme mit aufbereitet, in denen manchmal deutschsprachige Filme mit tschechischen Untertiteln liefen. Öffentliche Einrichtungen von überregionaler Bedeutung. Aufgrund ihres Status als Landeshauptstadt haben in Dresden zahlreiche öffentliche Einrichtungen und Institutionen beziehungsweise Körperschaften des öffentlichen Rechts der Landesebene ihren Sitz, so der Sächsische Landtag, die Sächsische Staatskanzlei, alle Ministerien der Sächsischen Staatsregierung, das Landeskriminalamt Sachsen und weitere Landesbehörden. Das Prinzip der räumlichen Trennung der Legislative und Exekutive von der Judikative wurde in Sachsen in der Weise eingehalten, dass sich außer dem Oberlandesgericht für die ordentliche Gerichtsbarkeit alle weiteren Landesgerichte in Leipzig, Chemnitz und Bautzen befinden. Das aus der 1954 gegründeten Medizinischen Akademie Dresden entstandene Universitätsklinikum Carl Gustav Carus Dresden an der Technischen Universität Dresden ist das Krankenhaus der Maximalversorgung für Ostsachsen und stellt etwa 1300 Betten zur Verfügung. Das städtische Klinikum Krankenhaus Dresden-Friedrichstadt ist ein Krankenhaus der Schwerpunktversorgung. (siehe auch: Liste der Krankenhäuser in Dresden) Des Weiteren gibt es eine Handwerkskammer und eine Industrie- und Handelskammer. Das Wasser- und Schifffahrtsamt Dresden ist der Wasser- und Schifffahrtsdirektion Ost untergeordnet und hauptsächlich für die Elbe auf einer Länge von 290 km verantwortlich. Zur Bundeszollverwaltung gehören ein Zollfahndungsamt und ein Hauptzollamt mit Sitz in Dresden. Letzteres und das dazugehörige Zollamt sind der Bundesfinanzdirektion Mitte in Potsdam unterstellt. Bis zum 31. Dezember 2007 war es der Zoll- und Verbrauchsteuerabteilung (ZuVA) der Oberfinanzdirektion Chemnitz nachgeordnet. Mit Ablauf dieses Datums wurde die ZuVA aufgelöst. In Dresden sind die Offizierschule des Heeres sowie die Verwaltung und der Stab eines Wehrbereichskommandos beheimatet. Die Bundesanstalt Technisches Hilfswerk hat in Dresden eine Geschäftsstelle und einen Ortsverband. Diese sind dem THW Länderverband Sachsen, Thüringen mit Sitz in Altenburg unterstellt. Die Bundesnetzagentur für Elektrizität, Gas, Telekommunikation, Post und Eisenbahnen ist in Dresden mit einer Außenstelle vertreten. Darüber hinaus haben die Sächsische Akademie der Künste, die Sächsische Landesstiftung Natur und Umwelt, die Bürgerstiftung und die Most-Stiftung Ihren Sitz in Dresden. Bildung und Forschung. Dresden ist schon traditionell geprägt als Standort wichtiger und zukunftsweisender Unternehmen und Institutionen, was den weiteren Ausbau zu einem der weltweit führenden Technologiestandorte fördert, aber als Kunst- und Kulturstadt den Bildenden Künsten und Geisteswissenschaften ebenso verpflichtet. Das Netzwerk aus Forschung, Wirtschaft und Kultur, die Verankerung von Wissenschaft in der breiten Bevölkerung sowie die wissenschaftliche Tradition und gegenwärtige Rolle Dresdens haben dazu beigetragen, dass Dresden vom Stifterverband für die Deutsche Wissenschaft für das Jahr 2006 zur „Stadt der Wissenschaft“ ernannt wurde. Die damit verbundenen Veranstaltungen wurden eng an das 800-Jahr-Fest der Stadt gebunden. Die Verankerung von Wissenschaft und Bildung in der Bevölkerung zeigt sich besonders in der jährlich stattfindenden, gut besuchten "Langen Nacht der Wissenschaften". Hochschulbildung und universitäre Forschung. Die Hochschule für Bildende Künste an der Brühlschen Terrasse In der Stadt existieren derzeit neun Hochschulen. Traditionell liegen deren Stärken und Bedeutungen einerseits in der Technik und Wirtschaft, andererseits in Kunst und Kultur. Insgesamt studieren hier mehr als 40.000 Menschen. Die Studenten der Hochschulen werden durch das Studentenwerk Dresden betreut. Die Technische Universität Dresden (TUD) ist eine Volluniversität und gehört mit etwa 36.500 Studenten und rund 8000 Mitarbeitern zu den zehn größten Universitäten Deutschlands. Ihr Campus liegt südlich der Innenstadt in der Nähe des Hauptbahnhofs, einen Großteil beherbergt die Südvorstadt. Eine Ausgründung der TU Dresden ist die Dresden International University (DIU), an der nur postgraduale Abschlüsse erworben werden können. Außerdem wird an der TUD in jedem Semester eine Kinderuniversität in der Art einer Ringvorlesung zu verschiedensten Themen veranstaltet. Die größte Fachhochschule Dresdens ist die Hochschule für Technik und Wirtschaft Dresden (HTW Dresden). Die Hauptgebäude der HTW Dresden liegen direkt am Hauptbahnhof. Sie beherbergten bis 1992 die Hochschule für Verkehrswesen „Friedrich List“, die seit 1992 die gleichnamige Fakultät für Verkehrswesen in der TU Dresden bildet. Derzeit studieren etwa 5000 Studenten an der HTW Dresden. Bedeutung im Bereich der Bildenden Künste besitzt die Hochschule für Bildende Künste (HfBK), die sich direkt in der Innenstadt an der Brühlschen Terrasse befindet. Ebenfalls in ihren Bereichen bedeutend sind die Palucca Hochschule für Tanz Dresden und die Hochschule für Musik „Carl Maria von Weber“ (HfM). Seit Dezember 2012 ist zudem die Universität der Vereinten Nationen (United Nations University, UNU) mit dem Institute for Integrated Management of Material Fluxes and of Resources (UNU-FLORES) in Dresden vertreten. UNU-FLORES wird sich mit dem Fokus des Globalen Wandels sowie der Ressourcensteuerung zur Green Economy beschäftigen. Weitere Hochschulen sind die Evangelische Hochschule für Soziale Arbeit und die Hochschule für Kirchenmusik. Daneben existieren als weitere wichtige Bildungsanstalten die Staatliche Studienakademie Dresden (Berufsakademie), eine Zweigstelle der Staatlichen Studienakademie Sachsen sowie die Sächsische Verwaltungs- und Wirtschafts-Akademie e. V. als reine Fortbildungseinrichtung. Ebenfalls den höheren Bildungseinrichtungen kann die Offizierschule des Heeres zugeordnet werden, die traditionell die Offiziere des deutschen Heeres ausbildet. Fraunhofer-Gesellschaft. Derzeit baut die Fraunhofer-Gesellschaft in Dresden mit ihren elf Einrichtungen und dem Institutszentrum ihren deutschlandweit größten Standort auf. Als führende Trägerorganisation der angewandten Forschung in Deutschland betreibt sie in ihren Instituten Vertragsforschung. Die Forschung der Fraunhofer-Einrichtungen ist für viele hoch technologisierte Unternehmen ein bedeutsamer Standortfaktor geworden. So betreibt die Gesellschaft – in die Anlagen des ehemaligen Qimonda-Werks integriert – das Fraunhofer-Center Nanoelektronische Technologien (CNT) in Zusammenarbeit in Form einer Public Private Partnership mit AMD Saxony und Qimonda. Mit dem Standort Dresden verbunden wird zudem das Zentrum All Silicon System Integration Dresden (IZM-ASSID), das direkt an der Stadtgrenze in Boxdorf steht. Max-Planck-Gesellschaft. Max-Planck-Institut für molekulare Zellbiologie und Genetik Die Max-Planck-Gesellschaft betreibt in Dresden seit 2001 das Max-Planck-Institut für molekulare Zellbiologie und Genetik (MPI CBG). Seitdem hat es sich über Forschungsprogramme wie "Molecular Bioengineering Dresden" zu einem wichtigen Institut im Bereich der funktionellen Genomik entwickelt. Etwa 300 Mitarbeiter arbeiten in diesem Institut. Weitere Institute der Gesellschaft sind das Max-Planck-Institut für Chemische Physik fester Stoffe (MPI CPfS) und Max-Planck-Institut für Physik komplexer Systeme (MPI PKS). Helmholtz-Gemeinschaft. Das Helmholtz-Zentrum Dresden-Rossendorf e. V. (HZDR) gehörte bis 2011 zur Wissenschaftsgemeinschaft Gottfried Wilhelm Leibniz und hat Forschungsschwerpunkte in den Lebenswissenschaften (insbesondere Krebsforschung), der Energieforschung und in der Materialforschung. Seit 2009 hat das Deutsche Zentrum für Neurodegenerative Erkrankungen (DZNE) einen Standort in Dresden. Projekte. In Dresden finden an Hochschulen und in Forschungseinrichtungen zahlreiche wissenschaftliche Projekte statt. Unter der Führung der TUD entsteht derzeit eines der wichtigsten Forschungszentren der Biotechnologie. Das Forschungszentrum „Regenerative Therapien“ wird von der Deutschen Forschungsgemeinschaft mit 60 Millionen Euro gefördert. Es soll Erkenntnisse der Grundlagenforschung des Dresdner Max-Planck-Instituts für molekulare Zellbiologie und Genetik nutzen und in enger Kooperation weltweiter Einrichtungen zum Beispiel der Harvard University arbeiten. Das Fraunhofer-Institut für Verkehrs- und Infrastruktursysteme wirkt in Dresden insbesondere durch den Aufbau der Verkehrsinformationssysteme im öffentlichen Nahverkehr und im Straßenverkehr. Am Institut wird mit der AutoTram ein automatisch geführter Bus entwickelt. Ein weiteres Projekt ist das ALLFA-Ticket. Mit dem Thema „Vielfalt Leben“ gehört Dresden zu den zehn deutschen Städten, die im Wissenschaftsjahr 2009 als Treffpunkt der Wissenschaft benannt worden waren. Gymnasien. Dresden verfügt über 25 Gymnasien, darunter acht in freier und eins in Landesträgerschaft. Das Martin-Andersen-Nexö-Gymnasium vermittelt eine vertiefte mathematisch-naturwissenschaftliche, das Romain-Rolland-Gymnasium eine vertiefte sprachliche Ausbildung und das Semper-Gymnasium eine vertiefte künstlerische Ausbildung. Dresdens altsprachliches Gymnasium und zugleich die älteste Schule der Stadt ist das Evangelische Kreuzgymnasium, dessen Geschichte bis in das 13. Jahrhundert zurückreicht. Das Sächsische Landesgymnasium für Musik „Carl Maria von Weber“ bildet musikalisch besonders begabte Schüler aus. Weiterhin gibt es eine Eliteschule des Sports, das Sportgymnasium. Kriminalität. Die Polizei registrierte im Jahr 2014 in Dresden 61.295 Straftaten. Das waren 2,7 Prozent mehr als im Vorjahr. 31.522 Straftaten konnten aufgeklärt werden, dies ergibt eine Quote von 51,4 Prozent. 71,7 Prozent der Tatverdächtigen waren männlich, 28,3 Prozent weiblich. Mit einem Anteil von 17,3 Prozent nichtdeutscher Tatverdächtiger ist ihr Anteil gegenüber dem vorangegangenen Jahr um 3,8 Prozentpunkte gestiegen. Laut der Polizeilichen Kriminalstatistik stieg die allgemeine Kriminalität im Stadtgebiet in den letzten 5 Jahren um 40 Prozent. Ehrenbürger. Zu den Ehrenbürgern der Stadt zählen neben Monarchen und Politikern insbesondere Wissenschaftler und Künstler, die in Dresden wirkten – beispielsweise der Wissenschaftler Manfred von Ardenne, die Tanzpädagogin Gret Palucca und der Musiker Richard Strauss. Adolf Hitler war während der Zeit des Nationalsozialismus, wie damals üblich, ebenfalls Ehrenbürger der Stadt. Dieser Status wurde ihm aber nach Mai 1945 wieder aberkannt. Söhne und Töchter der Stadt. Der weltweit bekannte Autor Erich Kästner wurde in Dresden geboren und wuchs im Stadtteil Neustadt auf. Zu den bekannten Menschen, die in Dresden geboren wurden, zählt der Maler Gerhard Richter. Er studierte an der Kunstakademie und zählt zu den bedeutendsten deutschen Malern der Nachkriegszeit. Ebenfalls aus Dresden stammen der langjährige SPD-Fraktionsvorsitzende Herbert Wehner und sein FDP-Kollege Wolfgang Mischnick sowie der Fußballtrainer Helmut Schön, der die Auswahl der Bundesrepublik 1974 zur Weltmeisterschaft führte. Die ehemalige Bundesministerin für Familie, Christine Bergmann, wurde in Dresden geboren. Weitere Personen, die längere Zeit in Dresden lebten und wirkten, waren (u. a.) Carl Gustav Carus, Heinrich von Kleist, Pierre I Mercier, Daniel Pöppelmann, Richard Wagner, Karl Gutzkow, Berthold Auerbach, Felix Draeseke, Hans Erlwein, Otto Dix, Victor Klemperer, Carl Maria von Weber, Wilhelm Rudolph, Caspar David Friedrich, Johan Christian Clausen Dahl, Nicolaus Ludwig Graf von Zinzendorf und Otto Zirnbauer. Dermatologie. Die Dermatologie (von griechisch "δέρμα - derma" „Haut“ und -logie, von "λόγος") ist das Teilgebiet der Medizin, das sich mit der Abklärung, Behandlung und Betreuung von Patienten mit nichtinfektiösen und infektiösen Erkrankungen der Haut sowie mit gut- und bösartigen Hauttumoren befasst. Spezialgebiete. Spezialgebiete der Dermatologie umfassen unter anderem Hauttumore (Dermatoonkologie), insbesondere das maligne Melanom, Basalzellkarzinom sowie das Spinozelluläre Karzinom, Erkrankungen der Übergangsschleimhäute und Hautanhangsgebilde (z. B. Trichologie), die Dermatoallergologie, die Dermatochirurgie, Andrologie, physikalische Therapien wie Ultraviolett-Bestrahlung z. B. PUVA, Photodynamische Therapie und Lasertherapie, die Dermatohistologie, die Phlebologie, Venerologie, Psychosomatische Dermatologie und die kosmetische Dermatotherapie. Mit der Venerologie deckt die Dermatologie die sexuell übertragbaren Krankheiten ab inklusive der eigentlichen Geschlechtskrankheiten "(Venerea)". Allgemeine Dermatologie, Allergologie, Autoimmundermatosen. Stationäre Behandlung von Patienten aus allen Gebieten der allgemeinen Dermatologie, Allergologie sowie Autoimmundermatosen. Untersuchungsverfahren. Zur optischen Untersuchung wird gelegentlich die Diaskopie mit Glasspatel zur Beurteilung extravasaler Infiltrate bei Entzündungen verwendet. Ein anderes optisches Verfahren, das häufig u. a. für Hautkrebsvorsorgeuntersuchungen eingesetzt wird, ist die Dermatoskopie bzw. Auflichtmikroskopie zur detaillierteren Untersuchung insbesondere oberflächlicher Neubildungen der Haut. Ein einfacher klinischer Test bei Verdacht auf Mastozytose, Urticaria factitia und Atopie ist die Prüfung des Dermographismus. Heute aufgrund etablierter serologischer Verfahren nur noch selten eingesetzte klinische Untersuchungsverfahren sind die Prüfung des Nikolski-Phänomens und der Tzanck-Test. Anzahl der Hautärzte. Im Jahre 2010 gab es nach Angaben der Bundesärztekammer 5.314 Fachärzte für Haut- und Geschlechtskrankheiten in Deutschland. Berufsvertretung. Die Deutsche Dermatologische Gesellschaft e. V. (DDG) ist eine wissenschaftliche Fachgesellschaft für Dermatologie in Deutschland. Sie ist Mitglied der Arbeitsgemeinschaft der Wissenschaftlichen Medizinischen Fachgesellschaften (AWMF). Die 1998 gegründete Deutsche Dermatologische Akademie (DDA) ermöglicht und überwacht die qualitätsgesicherte und effektive wissenschaftliche Weiterbildung der Hautärzte. Der Berufsverband der Deutschen Dermatologen e. V. (BVDD) ist der Zusammenschluss der deutschen niedergelassenen Hautärzte zur Vertretung Ihrer wirtschaftlichen und sozialpolitischen Interessen. Mit seiner „AG JuDerm“ - Junge Dermatologen hat der BVDD Anfang 2013 eine eigene Interessenvertretung der Studenten und Weiterbildungsassistenten zur Nachwuchsförderung und Unterstützung der niedergelassenen Dermatologen ins Leben gerufen. Dungeons & Dragons. D&D mit Plan und Figuren Dungeons & Dragons (englisch für "Verliese und Drachen", kurz D&D oder DnD) von Gary Gygax und Dave Arneson gilt als erstes Pen-&-Paper-Rollenspiel. 1974 wurde D&D in den Vereinigten Staaten erstmals von der dazu gegründeten Firma Tactical Studies Rules erfolgreich vertrieben. Im November 1983 brachte die "Fantasy Spiele Verlags-GmbH" die erste deutsche Übersetzung auf den Markt. Das Spiel wird nunmehr von der Firma Wizards of the Coast hergestellt und vertrieben. Die deutsche Version, die nicht sämtliche Produkte des Originals umfasst, wurde bis Ende 2008 von Feder & Schwert produziert. Derzeit gibt es keinen deutschen Lizenznehmer. Eine Weiterentwicklung von D&D stellt das Regelwerk "Advanced Dungeons & Dragons" (englisch für "Fortgeschrittenes Verliese und Drachen", kurz "AD&D" oder "ADnD") dar, welches ebenfalls von Gary Gygax entwickelt wurde und in Komplexität seinen Vorgänger übertraf. Im Jahr 1977 erschien eine erste Edition, eine zweite folgte im Jahr 1989. Die Regelwerke AD&D und D&D existierten jahrzehntelang parallel nebeneinander, wobei ersteres die Urversion zunehmend in den Schatten stellte. Schließlich wurde im Jahr 2000 der Vertrieb von D&D gänzlich eingestellt. AD&D wurde neu überarbeitet und unter dem marktgängigeren Namen D&D Version 3.0 sowie dessen Überarbeitung 3.5 weitergeführt. Im Juni 2008 erschien mit der Version 4.0 eine tiefgreifende Weiterentwicklung des Regelsystems. 2014 erschien die Version 5. Zu Beginn spielte D&D ausschließlich in großen unterirdischen Irrgärten, den namengebenden Dungeons. Später wurden auch Regeln für Wildnisabenteuer entworfen, die schließlich auf die Einführung neuer Spielwelten hinausliefen. Regelwerk. Mit Version 3.0 von D&D wurden die vormals sehr strengen Lizenzbedingungen stark gelockert. Unter der so genannten Open Game License ist das Grundregelwerk frei verfügbar. Dies ermöglichte zahlreichen Herstellern, Zusatzprodukte (Spielwelten, Ergänzungsregeln etc.) zu veröffentlichen, die vollkommen kompatibel zu D&D 3.0 bzw. D&D 3.5 waren. Viele von Wizards of the Coast selbst nicht mehr weitergepflegte Spielwelt-Linien werden nun von anderen Anbietern mit D&D-kompatiblen Neuprodukten weiterversorgt (zum Beispiel Ravenloft und Dragonlance). Solche D&D-kompatiblen Produkte von Fremdherstellern sind meist mit einem "d20"-Logo gekennzeichnet (d20 = dice 20 = der zwanzigseitige Spielwürfel, der Name des Spielsystems der D&D-Spiele). Einige dieser Produkte werden auch in deutscher Version vertrieben. Das Grundregelwerk besteht aus Spielerhandbuch (Player’s Handbook), Spielleiterhandbuch (Dungeon Master’s Guide) und Monsterhandbuch (Monster Manual). Gelegentlich wird Dungeons & Dragons nachgesagt, es handle sich um ein reines Hack-&-Slay-Spielsystem. Und tatsächlich sind die Abläufe während eines Kampfes sehr detailliert ausgearbeitet. Andererseits bietet das Regelwerk dem unerfahrenen Spielleiter praktisch für alles eine per Würfel nutzbare Zufallstabelle. So kann vom Wetter über Häufigkeit und Stärke von Zufallsbegegnungen bis zur Beschaffenheit der Tür vor den Spielern alles per Zufall bestimmt werden. Der Spielleiter muss sich praktisch „nur“ über die Handlung Gedanken machen. Dies bietet gerade Einsteigern viel Unterstützung. Nutzt man diese Tabellen aber zu intensiv, wird das Spiel in der Tat sehr schnell zu einem Hack-and-Slay-Erlebnis. Spieler können zwischen verschiedenen Völkern (im Grundspiel Mensch, Halbelf, Elf, Halbork, Zwerg, Halbling und Gnom) und Charakterklassen (Kämpfer, Magier, Schurke, Kleriker, Waldläufer, Mönch, Hexenmeister, Barbar, Druide, Barde und Paladin) wählen. Unterschiedliche Fertigkeiten und Talente sowie im fortgeschrittenen Spiel eine weitere Klassenspezialisierung (so genannte "Prestigeklassen") erlauben es, Spielercharaktere ganz nach eigenem Geschmack auszugestalten. Des Weiteren besitzen alle Charaktere eine Gesinnung in einer Kombination der Ausrichtungen rechtschaffen, neutral und chaotisch und gut, neutral, böse. Hier ist anzumerken, dass diese Gesinnungen bei D&D nicht nur philosophische Wertvorstellungen sind, sondern in den meisten Welten auch von Göttern und Urkräften vertreten werden. Zum Beispiel existiert in den Vergessenen Reichen ein Gleichgewicht zwischen den guten und bösen Göttern, das von Ao, dem „Übergott“, aufrechterhalten wird. Charaktere beginnen das Spiel für gewöhnlich auf der ersten Stufe ("Level"), und steigen mit der Zeit durch Ansammlung von Erfahrungspunkten auf, wodurch ihre Macht extrem stark zunimmt. Im Grundregelwerk sind 20 Stufen vorgesehen, es gibt weiterhin eine Erweiterung für „epische“ Charaktere jenseits der 20. Stufe, die hierdurch nahezu gottgleiche Eigenschaften erhalten. Die Spielercharaktere müssen nicht in einer vorgegebenen Fantasy-Spielwelt gespielt werden: neben vom Spielleiter selbst erschaffenen Spielwelten wurden von den D&D-Herstellern zahlreiche sehr detaillierte Spielwelten veröffentlicht. Seit Juni 2008 ist die Version 4.0 des Dungeons & Dragons Regelwerkes erhältlich, das sich in vielen Punkten von der Version 3.0 unterscheidet. Zum Beispiel wurde der Levelbereich auf 30 Stufen erweitert. Die gravierendste Änderung jedoch betrifft bestimmte Fertigkeiten. Diese werden klassifiziert als "At-Will-", "Encounter-", "Daily-" oder "Utility"fertigkeiten. Über diesen Mechanismus werden nun die Zauber realisiert, aber auch spezielle Angriffe für Kämpfer und so weiter. Mechanik. Zwei DnD-Spieler auf dem Boden spielend mit Regelbüchern, Charakterbögen, Würfeln und Plan. Generell fallen für alle wahrscheinlichkeitsabhängigen Handlungen zur Feststellung des Erfolgs „Würfe“ an, die ausschließlich mit einem d20 gewürfelt werden. Dies sind z. B. Angriffswürfe, Rettungswürfe (gegen Zauber und andere schädliche Effekte), und Fertigkeitsproben. Das Würfelergebnis kann noch durch Modifikatoren (Boni und Malusse) erhöht oder verringert werden. Diese ergeben sich v.a. aus Eigenschaften und Fertigkeiten des Charakters sowie den äußeren Umständen; oft fallen mehrere Modifikatoren gleichzeitig an. Von besonderer Wichtigkeit sind in D&D „Buffs“, womit Zaubersprüche gemeint sind, die die Werte eines Charakters kurzzeitig verbessern. Das Gesamtergebnis aus Wurf und Modifikatoren wird mit einem situationsabhängigen Zielwert (Schwierigkeitsgrad, SG) verglichen, der mindestens erreicht werden muss. Während der Angriffsbonus kontinuierlich über die Level steigt, ändert sich der für die Verteidigung relevante Wert, die "Rüstungsklasse" (engl. Armour Class) prinzipiell nicht. Lediglich die Wahl bestimmter Charakterklassen sowie Steigerung bestimmter Attribute kann inhärente Rüstungsklassenboni mit sich bringen, die aber meistens eher gering ausfallen. Zum Ausgleich benötigen die Charaktere magische Gegenstände wie Rüstungen, Amulette und dergleichen, die die Rüstungsklasse über das weltliche Maß hinaus anheben. Diese Eigenart ist typisch für D&D und tritt bei kaum einem anderen Rollenspiel auf. Damit geht natürlich eine extrem starke Abhängigkeit von magischen Gegenständen einher. Diese Besonderheit sorgt andererseits dafür, dass Kämpfe auch in höheren Levels nicht zur abendfüllenden Beschäftigung werden. Denn auch die Monster haben (in der Regel) nur eine Rüstungsklasse und einen Angriffsbonus im Bereich der Spielercharaktere. Der stetig ansteigende Angriffsbonus führt damit auch in anderer Richtung zu mehr Treffern. Auf der anderen Seite werden auch die Trefferpunkte für die Spielercharaktere mit jeder Stufe erhöht, ebenso wie stärkere Monster auch mehr Trefferpunkte haben. Insgesamt führen der höhere Angriffsbonus und das Mehr an Trefferpunkten auch auf höheren Stufen so zu einem gleichmäßigen Spielablauf, wo sich in anderen Systemen Kämpfe auf hohen Stufen tatsächlich über Stunden ziehen können. Völker. In D&D-Spielen können die Spieler, von der verwendeten Kampagnenwelt abhängig, unter einer Vielzahl von Völkern wählen. Grundsätzlich teilt das Regelwerk diese in vom Spieler spielbare und nicht spielbare ein, doch kann der jeweiligen Spielleiter diese Begrenzungen auch aufheben. Die Völker aus dem Standard-Regelwerk 3.5 sind Menschen, Elfen, Halbelfen, Gnome, Halblinge, Zwerge und Halborks. In der 4. Edition sind Gnome und Halborks keine spielbaren Völker im Standard-Regelwerk mehr, dafür kommen Tieflinge, Eladrin (feenartige Ur-Elfen) und Drachengeborene hinzu. In den Monsterhandbüchern und anderen Regelerweiterungen sind in beiden Editionen weitere spielbare Völker beschrieben, die der Spielleiter in seinem Spiel zulassen kann oder auch nicht. Monster. In den Veröffentlichungen finden sich passende Beschreibungen und Statistik-Blöcke zu praktisch allen Kreaturen aus Mythologien der ganzen Welt; von denen viele nur vom Namen her an die Vorbilder angelehnt, andere vollkommen neu erdacht sind. Im Juli 2006 erschien das fünfte Buch, das sich ausschließlich mit neuen Kreaturen auseinandersetzt. Jeder Band umfasst etwa 300 Seiten. In Dungeons & Dragons sind Drachen riesige geflügelte Reptilien. Geflügelte Drachen können fliegen, und die meisten Drachenarten sind intelligenter als Menschen. Außerdem besitzt jede Drachenart einen speziellen Odem. Dungeons & Dragons unterteilt Drachen in die Gruppe der chromatischen, bösen Drachen und in die Gruppe der metallischen, guten Drachen. Weiterhin ist jede Drachenart einem der fünf Elementen zugeordnet (Kälte, Feuer, Erde, Wasser und Luft). Diesen zehn ursprünglichen Drachenarten wurden über die Jahre noch viele weitere Drachenarten hinzugefügt. Aufgrund ihrer magischen Natur können sich Drachen mit nahezu jedem anderen Wesen paaren, daher existieren auch viele Halbdrachen. Eines der drei Logos der Monstrous-Arcana-Serie, hier mit einem Beholder (TSR, 1996) Der "Beholder", auch "Betrachter" oder "Augentyrann" genannt, ist ein bekanntes Monster aus der AD&D-Welt. Er ist kugelförmig, schwebt in der Luft und ist mit einem großen, zahnbewehrten Mund und einem großen Hauptauge ausgestattet. Dieses Hauptauge dient als magischer Schutzschild, da es in einem kegelförmigen Bereich vor sich Magie außer Kraft setzt. Typische magische Angriffe wie Feuerball und dergleichen haben daher gegen einen Beholder keinerlei Wirkung, wenn sie von vorne gewirkt werden, auch magische Gegenstände versagen. Außerdem besitzt das Wesen zehn kleinere Augen, die an beweglichen Stielen oben am Körper befestigt und für unterschiedliche magische Angriffsformen zuständig sind. Die Kreatur lebt in unterirdischen Gewölben und Höhlen und tritt für gewöhnlich als Einzelgänger auf. Sie versteht sich selbst als das schönste aller Geschöpfe und hasst alles andere – einschließlich anderer Beholder. Der Beholder stellt selbst für eine erfahrene Abenteuergruppe eine große Gefahr dar, da er neben seinem magie-auflösenden Schutzschild auch über eine Vielzahl von simultan ausführbaren Angriffen verfügt, von denen einige tödliche Wirkung besitzen. Es gibt mehrere Varianten, z. B. untote Betrachter. Als Erfinder des Monsters wird Terry Kuntz genannt. Weitere wichtige Monster, die, wie der Beholder, als Aushängeschild des Unternehmens gelten und nicht unter der Open Game License stehen, sind: Gedankenschinder (Mind Flayer), Gauth, Aaskriecher, Versetzerbiest, Githyanki, Githzerai, Kuo-Toa, Slaad, Erdkoloss und Yuan-Ti. Spielwelten. Über die Jahre wurden zahlreiche Spielwelten veröffentlicht, die eine unterschiedliche Art von Rollenspiel ermöglichen. Greyhawk. a> (1938–2008), der Erfinder des Fantasy-Rollenspiels D&D Die Original-Kampagne von Gary Gygax spielt auf der Welt Oerde (engl: Oerth) und startete schon vor der ersten Veröffentlichung der D&D-Regeln. Diese wurde mit dem Erscheinen der ersten Auflagen von Advanced Dungeons & Dragons 1980 zur Standardhintergrund-Welt dieses Regelwerks, geriet allerdings ab Mitte der 1990er ein wenig in Vergessenheit. Greyhawk besitzt eine besonders treue Anhängerschaft, was sicherlich auch daran liegt, dass einige der bekanntesten Abenteuer-Klassiker der goldenen D&D-Frühperiode in Greyhawk spielen. Die Original-Kampagne nannte sich "World of Greyhawk" (WoG) und beschrieb nur einen kleinen Teil der Welt. Diese wurde nur mit einer bestimmten Detailtiefe beschrieben, um Spielleitern zu ermöglichen, Anpassungen an ihre eigene Kampagne vorzunehmen und weitere Kampagnen auf dieser Welt zu starten, die ein anderes Flair haben konnten (wie zum Beispiel fernöstliche Abenteuer). Ursprünglich waren einige der heute anderen Welten zugerechneten Dinge und Kampagnen für die Greyhawk-Kampagne entwickelt worden oder auch mit ihr verbunden, so zum Beispiel für Ravenloft, Spelljammer, Planescape oder Oriental Adventures. Mit Erscheinen der dritten Auflage im Jahr 2000 wurde Greyhawk wieder zur Standardspielwelt von D&D, das heißt, dass mit dem Grundregelwerk erstellte Spielercharaktere sofort in Greyhawk einsetzbar sind – andere Spielwelten weisen oft so genannte Kampagnenbände mit zusätzlichen Regeln auf, die bei der Erstellung von spielweltgeeigneten Charakteren zu berücksichtigen sind. In einem weiteren Schritt wurde Greyhawk an die RPGA (kurz für Role Playing Gamers’ Association Network) übergeben, und diese startete damit die Living-Greyhawk-Kampagne. Auf Rollenspielturnieren, Spielemessen oder im privaten Kreis können seitdem neue Abenteuer in Greyhawk erlebt werden. Da die Ergebnisse der Abenteuer von RPGA-Spielern zentral ausgewertet werden, kann ein RPGA-Mitglied weltweit mit seinem Charakter immer neue Abenteuer erleben. Forgotten Realms. Die "Vergessenen Reiche" (Forgotten Realms) sind eine der bedeutendsten D&D-Welten und besitzen zur Zeit die meisten Anhänger. Diverse PC-Spiele, wie Neverwinter Nights und Baldur’s Gate, handeln in dieser Welt. Zusätzliche Bekanntheit hat sie durch "Die Saga vom Dunkelelf" von R. A. Salvatore erlangt. Drachenlanze. Die Spielwelt der Drachenlanze (im Original "Dragonlance") entstand zusammen mit der Romanserie von Margaret Weis und Tracy Hickman, die Anfang der 1980er auf den Bestsellerlisten der New York Times zu finden war. Dragonlance ist epische Fantasy, das heißt die Spieler sind Helden, von deren Erfolg das Schicksal der ganzen Welt Krynn abhängt. Eine besondere, zentrale Rolle spielen Drachen, die übermächtige Wesen darstellen und in grauer Vorzeit nur mithilfe der namensgebenden Drachenlanzen besiegt werden konnten. Die Gesinnungen (gut, neutral oder böse) spielen ebenfalls eine wichtige Rolle, da in dieser Welt sehr klar umrissene Fraktionen in einem ständigen Streit um die Vorherrschaft sind: an ihrer Spitze die jeweiligen guten, neutralen und bösen Götterpantheone Krynns. Seit der Erstveröffentlichung der Spielwelt in den 1980er Jahren fanden einige welterschütternde Ereignisse statt, so dass inzwischen nach dem Krieg der Drachenlanze das "Zeitalter der Sterblichen" (Age of Mortals) eingetreten ist. Von Wizards of the Coast ist der Kampagnenstartband erschienen, ein Monsterbestiarum und Zusatzbände für das Age of Mortals sowie den Krieg der Drachenlanze wurden von Sovereign Press veröffentlicht. Die aus den Romanen bekannten Hauptcharaktere sind Tanis Halb-Elf (Half-Elven), Raistlin Majere, Caramon Majere, Tika Waylan, Tolpan Barfuß (Tasselhoff Burrfoot), Flint Feuerschmied (Fireforge), Sturm Feuerklinge (Brightblade), Flusswind (Riverwind), Goldmond (Goldmoon), Laurana (Lauralanthalasa), Gilthanas, Lord Soth und Kitiara. Beschriebene Orte sind Solace, Neraka, Treibgut und Tarsis. Ravenloft. Ravenloft (zu deutsch: "Rabenhorst") ist eine Dark-Fantasy- und Horror-Spielwelt. Sie beinhaltet verschiedene Länder ("Domains") mit unterschiedlichen Kulturstufen, von der Steinzeit bis zur Renaissance. Die Spielwelt ist Grundlage für eine Reihe von Romanen, insbesondere P. N. Elrods "I, Strahd: The Memoirs of a Vampire". Sie entstand zur Zeit von AD&D und wurde 2001 von Sword & Sorcery für D&D 3 und 3.5 neu aufgelegt. Sword & Sorcery hat jedoch inzwischen die Lizenz an Wizards of the Coast zurückgegeben. Eine intensive Weiterführung der Welt ist unwahrscheinlich, wenn sich kein neuer Lizenznehmer findet, auch wenn ein einzelnes Ravenloft-Abenteuer durch Wizards of the Coast angekündigt ist. Die Besonderheit an Ravenloft ist, dass die Welt von Ravenloft quasi ein Eigenleben führt bzw. einen eigenen Willen besitzt, kollektive bezeichnet als die Nebel von Ravenloft oder Die Dunklen Mächte. Ravenloft sucht sich aus allen AD&D-Welten die interessantesten Bösewichter heraus, stellt ihnen ein Reich/Domäne zur Verfügung, gibt ihnen fast gottähnliche Macht und konfrontiert sie auf ewig mit ihrer eigenen Nemesis; gleichwohl können sie diese Domäne auch niemals wieder verlassen. Doch allein böse zu sein reicht meist nicht, denn oft müssen große Gefühle, Wünsche und Dramen im Hintergrund abgelaufen sein, damit Ravenloft jemanden für „würdig“ hält, ihm eine Domäne anzubieten. Eine weitere Eigenart von Ravenloft ist es, dass es versucht, gute Charaktere nach und nach von dem Bösen zu überzeugen. Durch Träume, Angebote, Schicksalsschläge und weitere Manipulationen sollen sie von der anderen Seite überzeugt werden. Nach und nach sollen sie Fähigkeiten erhalten, und am Ende schließlich eine eigene Domäne – sofern sie dann eine entsprechend schreckliche Tat (oder mehrere) vollbracht haben. Birthright. Die Kampagne Birthright (Rich Baker und Colin McComb) handelt von der Spielwelt Cerilia, in der die Spieler die Rolle von mächtigen Herrschern übernehmen. Die Kampagne erschien 1995 und beinhaltete ein Regelsystem für ein politisches Rollenspiel. Die Spieler sind Inhaber einer Blutlinie, wodurch sie das Geburtsrecht (Birthright) zum Herrschen eines Königreichs oder Leiten einer überregionalen Gilde oder Kirche erhalten. Es wurde 1995 mit einem Origins Award für die beste Rollenspielerweiterung ausgezeichnet. Ein zusätzliches Regelwerk ergänzt die AD&D-Standardregeln um Regeln, die den Haushalt eines Königreichs betreffen, Diplomatie oder Sabotage regeln oder militärische Auseinandersetzungen auf hoher Abstraktionsebene ermöglichen. Die Landkarte von Cerilia ist dafür in hunderte kleine politische Einheiten aufgeteilt und jede mit Spielstatistiken versehen. Ende der 1990er wurde die Serie eingestellt, da die Nachfrage an klassischen Rollenspielen nach dem Aufkommen von Fantasy-Sammelkartenspielen stark nachgelassen hatte und TSR sich auf die ertragreichsten Spielwelten konzentrieren wollte. Zu dieser Spielwelt erschien das PC-Spiel '. Eberron. Die Spielwelt Eberron basiert auf einem Kampagnen-Konzept von Keith Baker, der bei einem Wettbewerb bei Wizards of the Coast aus über 11.000 Einsendungen ausgewählt wurde. Durch verschiedene neue Elemente wie z. B. der Spielerrasse Kriegsgeschmiedete, einem insgesamt hohen technologischen Fortschritt der arkanen Künste und den Drachenmalhäusern ist die Spielwelt mit ihren Möglichkeiten eine sehr moderne Welt mit vielen Möglichkeiten für politische oder auch wirtschaftliche Kampagnenhintergründe. Diese Spielwelt wird unter anderem in dem Computerspiel Dungeons & Dragons Online verwendet. Dark Sun. In den 1990ern kam der Wunsch nach einem nicht klassischen Fantasy-Setting auf. Das Ergebnis war Dark Sun (dt. "Unter der dunklen Sonne"), eine der härtesten Spielwelten, die bis dato erschienen sind: Diese Spielwelt unterscheidet sich in einigen wichtigen Punkten von den übrigen Spielwelten, da sie episches Rollenspiel so gut wie nicht vorsieht. Dark Sun spielt auf Athas, einer Welt, die durch die Benutzung von Magie zur Wüste geworden ist. Grausame Hexerkönige haben die Macht seit Jahrtausenden an sich gerissen und regieren mit eiserner Hand. Abenteuer auf Athas drehen sich häufig um das nackte Überleben. Der Reiz der Welt liegt in ihrer Fremdartigkeit und Brutalität. Die gewohnten Spielerrassen sind stark verändert, auch gibt es neue Rassen: Mule, eine Kreuzung aus Mensch und Zwerg; Halbriesen, eine magische Rasse aus Riesen und Menschen, und Thri-Kreen, halbhumanoide Gottesanbeterinnen (welche auch aus den "Vergessenen Reichen" bekannt sind). Die bekannten Rassen Mensch, Elf und Halbling sind so stark verändert, dass sie nur noch den Namen gemein haben; Gnome gibt es auf Athas nicht. Des Weiteren ist das Magiesystem stark verändert und mit den Psi-Kräften vereinigt worden. Sämtliche magische Fähigkeiten richten außerdem, unabhängig von ihrem Effekt, schwere Schäden an der Umwelt an, was ihre Benutzung einschränkt. Diese Spielwelt ist allerdings nur etwas für erfahrene Spielleiter und Gruppen. Da die Spieler sehr früh sehr mächtig sind, muss der Spielleiter einiges an Fantasie aufwenden, um das Spiel interessant zu halten – vorausgesetzt, die Charaktere überleben lange genug, da Athas zudem von vornherein als eine extrem tödliche Spielwelt ausgelegt ist und die (A)D&D-typischen Methoden zur Wiederbelebung gefallener Gefährten weniger zuverlässig bzw. verfügbar sind. Im Sommer 2010 sind das Kampagnenset und weitere Veröffentlichungen erschienen, so dass Dark Sun eine der offiziellen Kampagnenwelten der 4. Edition wurde. Planescape. Bereits das von Gary Gygax erfundene Ur-D&D versuchte, rund um die (damals noch einzige) Spielwelt eine eigene Kosmologie zu erfinden. Das Ergebnis war das so genannte "Multiversum", die Gesamtheit der möglichen Existenzebenen, die parallel zur Spielwelt (der so genannten "Hauptebene") existieren und von denen aus Götter, Dämonen und Elementarherrscher ihren Einfluss auf die Welt der Menschen ausüben. Anfang der 1990er entstand daraus für die zweite Auflage von (A)D&D eine ganz eigene Spielwelt, die die existierenden Kampagnen nicht ersetzte, sondern in den größeren Zusammenhang des Multiversums einordnete: Planescape. Alle Ebenen des Multiversums – von der Hölle über Arborea (die Welt der olympischen Götter) bis hin zum Elysium – kreisen in einem Ring um die "Außenländer", die Welt der Neutralität. In deren Zentrum: Sigil, die Stadt der Tore, die von keinem Gott betreten werden kann – denn dort regiert die „Dame der Schmerzen“, eine Wesenheit von großer Macht und unbekannten Absichten. Hier gehört es zum Alltag, dass man auf der Straße mit einem Dämon zusammenrempelt, von einem Teufel auf ein Würfelspiel eingeladen wird oder sich in angeregter Unterhaltung mit einem Elementarwesen wiederfindet. Hier gibt es nichts, was es nicht gibt – denn alles, was auf den Existenzebenen kreucht und fleucht, sammelt sich in Sigil. Die Planescape-Kampagnenwelt wurde vom Hersteller für das D&D 3-Regelwerk offiziell eingestellt, lediglich das „Manual of the Planes“ bietet eine kurze Zusammenfassung über das „Multiversum“ nach D&D 3-Regeln. Allerdings bemüht sich mit „Planewalker“ (s. Links weiter unten) eine aktive Community um das Fortbestehen der Kampagne und ihre Anpassung an die D&D 3-Regeln. Auch das Hausmagazin "Dragon" greift bisweilen Details aus dem Setting auf und passt sie den aktuellen Regeln an: Dragon 287, 315 und 339 aktualisieren die Factions, 351 die Gatetown Ecstasy usw. Die für dieses System veröffentlichten Quellenbücher waren meist nur in englischer Sprache erhältlich, auch wenn einige wenige der regeltechnisch „AD&D“ zugeordneten Bücher auch auf Deutsch erschienen sind. Planescape spielt also in einer äußerst komplexen und vielschichtigen Welt voller offensichtlich philosophischer Aspekte, erfreut sich allerdings trotz oder gerade wegen seines hohen Schwierigkeitsgrades und der nicht gerade für Rollenspielanfänger geeigneten Spielwelt bei etwas älteren und erfahreneren Spielern einer dauerhaften Beliebtheit. Das PC-Rollenspiel ' basiert gleichfalls auf dieser Spielwelt. Dungeons & Dragons 1. Logo der 1. Edition Dungeons and Dragons; alternativ auch einzeilig verwendet Gary Gygax, ein Amerikaner schweizerischer Abstammung, gründete 1965 in Lake Geneva (Wisconsin) einen Club namens "Tactical Studies Association", der sich mit Konfliktsimulationsspielen beschäftigte. 1970 entwickelte Dave Wesely aus einem KoSim zur Ausbildung amerikanischer Offiziere die Idee des strategischen Rollenspiels, das sich nach seiner Version "Braunstein" nannte. Dave Arneson entwickelte 1971 den mittelalterlichen Hintergrund "Blackmoor" zu dem Spiel "Twin City Wargame" von Dave Wesely. Er ging dazu über, Karten der gewaltigen unterirdischen Labyrinthe, die sich unter dem Schloss von Blackmoor befinden, als Spielpläne zu zeichnen. Auf diese Weise entstanden die ersten Dungeons (Verliese). 1972 schrieb Gary Gygax das erste mittelalterliche Regelwerk "Chainmail" für Tabletop-Spiele, übernommen aus Dave Arnesons Blackmoor-Hintergrund. Eine überarbeitete Version von Chainmail wurde 1974 in dem nur für diesen Zweck von Gary Gygax gegründeten Verlag "Tactical Studies Rules" (TSR) unter dem Namen "Dungeons & Dragons" (D&D) veröffentlicht. 1975 fiel Gygax eine kleine britische Zeitschrift namens "Owl and Weasel" in die Hände und er nahm mit den Herausgebern Kontakt auf. Er schickte ihnen eine Version seines Spiels und zwei der britischen Autoren (Ian Livingstone und Steve Jackson) waren sofort begeistert. Sie begannen, D&D in England mit ihrer neu gegründeten Firma Games Workshop mit großem Erfolg zu verkaufen. Im November 1983 brachte die "Fantasy Spiele Verlags-GmbH" die erste deutsche Übersetzung von D&D unter dem gleichnamigen Titel auf den Markt. Advanced Dungeons & Dragons. Inzwischen hatte TSR D&D überarbeitet und erstellte 1980 das Fantasy-Rollenspiel "Advanced Dungeons & Dragons" (AD&D). AD&D war ursprünglich als ein Regelwerk für fortgeschrittene Spieler von D&D gedacht. Da der Zuspruch zu AD&D jedoch sehr groß war, erschienen bald die ersten Quellenbücher exklusiv für AD&D und auch die ersten kompletten Spielwelten wurden für AD&D entwickelt. Eine Zeit lang trat D&D klar hinter den Verkaufszahlen von AD&D zurück, weshalb der Hersteller TSR D&D immer mehr vernachlässigte. Dungeon & Dragons 3. Wizards of the Coast erwarb 1997 TSR, die Herstellerfirma von AD&D. Da der Markenname "Dungeons & Dragons" jedoch weit bekannter war als die Wortschöpfung "AD&D", entschloss sich Wizards of the Coast nach der Übernahme, die Neuauflage des Spiels unter dem Titel "Dungeons & Dragons (3rd edition)" (D&D 3.0) zu veröffentlichen. Dungeons & Dragons 3.5. Eine nach zahlreichem Feedback aus der Rollenspielgemeinde leicht überarbeitete Fassung des Spiels erschien 2003 als "Dungeons & Dragons 3.5", um zu dokumentieren, dass es sich lediglich um eine optimierte Fassung des sehr erfolgreichen D&D 3.0 handelt. Die Amigo Spiel + Freizeit GmbH übernahm 1999 die Lizenz und den Vertrieb von TSR-Produkten in Deutschland, Österreich und der Schweiz. Amigo veröffentlichte dort 2001 unter Lizenz die Neuauflage von D&D. Zum 1. Juli 2004 ging die Lizenz mit Erscheinen der deutschsprachigen Version von "Dungeons & Dragons 3.5" an Feder & Schwert über. Basierend auf dem Regelwerk von Dungeons & Dragons 3.5 wurde das Pen and Paper Rollenspiel Pathfinder entwickelt. Dungeons & Dragons 4. Im August 2007 kündigte Wizards of the Coast die vierte Edition des Rollenspiels an. Anfang Juli 2008 begann die Auslieferung der ersten Regelbücher. Mittlerweile sind sowohl das Spielerhandbuch, das Monsterhandbuch als auch das Spielleiterhandbuch für die vierte Edition auf Deutsch erschienen (das Spiel ist mit den drei Grundbüchern Spielerhandbuch, Monsterhandbuch und Spielleiterhandbuch vollständig spielbar). Allerdings hat der deutsche Verlag Feder und Schwert die Übersetzungen zum 1. Januar 2009 eingestellt, da es nicht zu einer Einigung mit Hasbro über eine Verlängerung der Lizenz kam. Das Monsterhandbuch ist das letzte von Feder und Schwert realisierte deutsche D&D Buch der vierten Edition. Bisher ist es Hasbro nicht gelungen einen neuen Lizenzpartner für Dungeons & Dragons in Deutschland zu finden. Nach einer erfolgreichen deutschen D&D-Geschichte von gut 30 Jahren, die zahllose Rollenspiel-Publikationen, Romane, Computerspiele und zeitweise sogar eine eigenständige deutsche D&D-Zeitschrift gesehen hat, ist damit die Zukunft weiterer Veröffentlichungen sowie die zukünftige Verfügbarkeit der Grundregelbücher (das Spielerhandbuch ist bereits vergriffen) von D&D in deutscher Sprache zum jetzigen Zeitpunkt (November 2009) noch unklar. Dungeons & Dragons 5. Am 9. Januar 2012 kündigte Wizards of the Coast die fünfte Edition von Dungeons & Dragons an, in der erstmals auch die Spieler in die Konzeption einbezogen werden. Am 19. August 2014 wurde das 'Player's Handbook' veröffentlicht, es folgte die fünfte Version von 'Monster Manual' am 30. September 2014, am 9. Dezember 2014 wurde schließlich das 'Dungeon Master's Guide' veröffentlicht, eine deutsche Übersetzung ist derzeit nicht geplant. Verfilmungen. "Mazes and Monsters" (engl. "maze" „Labyrinth, Irrgarten“), der Originaltitel des Spielfilms "Labyrinth der Monster" von 1982, ist eine direkte Anspielung auf das Pen-&-Paper-Rollenspiel "Dungeons and Dragons". Thematisiert werden unter anderem die LARP-Aspekte von D&D sowie Gefahren des Realitätsverlusts und Eskapismus. "Labyrinth der Monster" ist einer der ersten Filme mit dem später berühmt gewordenen Schauspieler Tom Hanks, der zum Zeitpunkt der Dreharbeiten 26 Jahre alt war. Im Jahr 1983 wurde auf Grundlage des Spiels die Zeichentrickserie "Dungeons and Dragons – Im Land der fantastischen Drachen" produziert. Die Serie umfasst drei Staffeln und wurde bis 1985 gesendet. 2000 entstand die Realverfilmung "Dungeons & Dragons". In den Hauptrollen waren u.a. Justin Whalin, Thora Birch und Jeremy Irons zu sehen. 2005 folgte "Dungeons & Dragons – Die Macht der Elemente", eine von Gerry Lively inszenierte Direct-to-DVD-Produktion. Mit "Dungeons & Dragons 3: Das Buch der Dunklen Schatten" entstand 2012 eine Fernsehfortsetzung der Reihe, bei der erneut Gerry Lively die Regie übernahm. Computerspiele. Zu D&D sind zahlreiche Computerspiele erschienen, die das Spielsystem benutzen. Die meisten spielen in den Forgotten Realms (Toril). Relativ bekannt wurde die "Eye-of-the-Beholder"-Trilogie. Weitere Spiele sind die "Baldur’s-Gate"-Serie, ', die "Icewind-Dale"-Serie und "Neverwinter Nights". Letzteres ist das erste größere D&D-Computerspiel mit einer 3D-Engine und eines der ersten, die auf der dritten Edition von D&D aufbauen. Außerdem wurden die D20-Regeln, die auf dem D&D-System basieren, als Grundlage für ' verwendet. Im Frühjahr 2006 ist das MMORPG "Dungeons & Dragons Online" (Stormreach) erschienen, das in Eberron spielt. "Siehe auch:" Liste der offiziellen D&D-Computerspiele. Das Schwarze Auge. Das Schwarze Auge (DSA) ist ein deutsches Pen-&-Paper-Rollenspiel, das von Ulrich Kiesow 1984 für Schmidt Spiele in Kooperation mit Droemer Knaur herausgegeben wurde. Es basiert auf der Fantasy-Spielwelt Aventurien, die von Hans Joachim Alpers, Werner Fuchs und Ulrich Kiesow entworfen wurde. Spielmechanismus. Der erste Charakterbogen (zweite Auflage) für "Das Schwarze Auge", 1984, mit nur fünf Eigenschaften Das Spiel ist ein klassisches Pen-&-Paper-Rollenspiel und wurde seit der ersten Ausgabe 1984 stark verändert. Derzeit am weitesten verbreitet (Stand 2015) ist die Hardcoverausgabe der 4. Edition, welche inoffiziell aufgrund der Änderungen im Vergleich zur Erstauflage dieser Edition als 4.1 bezeichnet wird. Im August 2015 wurde die 5. Edition ("DSA 5") veröffentlicht. Die Spielercharaktere werden zufallsunabhängig nach einem Punktesystem generiert, wobei es Spielrassen, Kulturen, Berufe und Vor- und Nachteile gibt. Starre Charakterklassen existieren nicht mehr; die Charaktererschaffung ähnelt in vielen Elementen dem Rollenspiel-System GURPS. Erfolgsproben werden mit dem zwanzigseitigen Würfel abgelegt, wobei im Regelfall 1 das beste und 20 das schlechteste Ergebnis ist. Die Eigenschaften sind Mut, Klugheit, Intuition, Charisma, Fingerfertigkeit, Gewandtheit, Konstitution und Körperkraft. Diese können Werte von 1 bis über 21 haben und liegen bei neu erschaffenen Helden in der Regel zwischen 8 und 14. Verfeinert wird die Spielmechanik durch Talente (z. B. Schleichen oder Menschenkenntnis), die der Spielfigur eine besondere Ausrichtung geben. Eine Talentprobe setzt sich aus drei Eigenschaftsproben zusammen, so dass stets drei Würfe erforderlich sind. Die Talentfähigkeit kann zum Ausgleich überwürfelter Ergebnisse verwendet werden oder wird – bei negativen Talentwerten – als Malus auf alle Einzelproben gewertet. Das Kampfsystem baut auf Attacken und Paraden auf. Gelingt es, einen Gegner anzugreifen, hat dieser die Chance, mit einem Paradewurf den Treffer zu vereiteln. Ergänzt wird dies durch sog. Kampfmanöver, welche es zum Beispiel durch eine selbst auferlegte Erschwernis auf die Attacke ermöglichen, den Schaden zu verstärken oder die Abwehr des Gegners zu schwächen. Noch komplexere Manöver machen Kämpfe interessanter und spannender. Das Magiesystem basiert auf einzeln festgelegten Sprüchen, die wie Talente gehandhabt werden. Über die Astralenergie werden die Fähigkeiten von Zauberern begrenzt. Wie in vielen anderen Rollenspielen auch erhalten Charaktere Erfahrungspunkte, mit denen die Werte verbessert werden können. Es gibt verschiedene Kriterien, um diese Punkte zu bestimmen; dazu zählen beispielsweise das Erreichen von Zielen, Erfolg im Kampf oder das Lösen von Rätseln. Spielwelten und Kontinente. Eine Runde DSA-Spieler auf dem Burg-Con in Berlin 2009 Auf der Welt Dere – ein Anagramm von "Erde" – befindet sich der Hauptkontinent Aventurien, der mit dem Spiel seit 1984 entwickelt wird. Andere Kontinente wie Myranor oder die Hohlwelt "Tharun" wurden erst später oder nur inoffiziell ausgearbeitet. Für gewöhnlich spielt eine Spielfigur nur auf einer dieser Spielwelten, da Reisen zwischen diesen Kontinenten äußerst selten und schwierig sind. Aventurien. Aventurien ist ein fiktiver Kontinent und die Fantasy-Spielwelt von DSA. Der Kontinent liegt auf der Spielwelt "Dere" und hat etwa ein Viertel der Fläche Europas. Dennoch befinden sich dort sämtliche von der Erde bekannten Klimazonen, sowie viele verschiedene Rassen und Kulturen. Neben Menschen gibt es Elfen, Halbelfen, Zwerge, Orks, Oger, Goblins, Yetis, Zyklopen, Kobolde, Feen, Riesen, Trolle, Drachen und Achaz (Echsenmenschen). Das kulturelle Niveau variiert zwischen Jungsteinzeit und Renaissance, angereichert durch fantastische Elemente. Als größtes Land ist das Mittelreich mit der Hauptstadt "Gareth" zu nennen, das feudal in Lehen aufgeteilt ist. Bei fast allen Rassen gibt es magiebegabte Individuen wie Magier, Druiden, Hexen, Schamanen oder Geoden, mit einer ausgefeilten Spruchmagie, der jedoch deutliche Grenzen gesetzt sind. Die Geschichte Aventuriens ist detailliert ausgearbeitet und wird durch epische Kampagnen wie die „Borbarad-Kampagne“, die „Phileasson-Saga“ und die Kampagne „Das Jahr des Feuers“ gestaltet. Einen entscheidenden geschichtlichen Wendepunkt stellt die Rückkehr des Zauberers Borbarad dar, wodurch High-Fantasy-Elemente einbezogen wurden. Die vorherrschende Religion ist der Zwölfgötterglaube mit den Göttern Praios, Boron, Firun, Phex, Ingerimm und Efferd sowie den Göttinnen Hesinde, Rahja, Tsa, Peraine, Rondra und Travia. Es gibt noch einige Neben- und Halbgötter sowie andere Religionen, z. B. den Glauben an Eingott Rastullah und verschiedene Naturreligionen. Myranor. Myranor ist eine im Vergleich zu Aventurien exotischere Spielwelt. Der Kontinent ist wesentlich größer als Aventurien, klimatisch reicht er von der Arktis im Norden bis zur Antarktis im Süden, und besitzt eine außergewöhnliche Fauna und Flora (z. B. Riesenbäume). Die Hauptbevölkerung sind Menschen, weiter leben dort zahlreiche Mischrassen, wie Katzen-, Löwen- oder Fischmenschen. Kulturell ist das Imperium hervorzuheben, ein zerfallendes, mehrere tausend Jahre altes Reich. Es existieren abenteuerliche Konstrukte wie Flugschiffe oder fliegende Städte. Ein Pantheon von acht Staatsgöttern herrscht vor, wobei "Brajan" Gott der Sonne und der Ordnung ist. Als sagenumwobener Kontinent jenseits des westlich von Aventurien gelegenen "Meer der sieben Winde" war Myranor bereits in der Anfangszeit von DSA als „das "Güldenland"“ bekannt. Den aventurischen Geschichten zufolge begann ein wesentlicher Teil der menschlichen Besiedelung Aventuriens als Kolonisation aus dem "Güldenland". Tharun. "Tharun" ist eine von Hadmar von Wieser erfundene Hohlwelt. Sie wurde 1987 mit der Erweiterung "DSA Professional" als exotischeres Gegenstück zu Aventurien für sehr erfahrene Spielercharaktere entworfen. Das eigenständige Regelwerk wurde von Ulrich Kiesow geschrieben, hervorzuheben sind die – für das damalige DSA völlig untypischen − freien Magieregeln. Nach der Veröffentlichung von zwei Boxen wurde das System eingestellt und inoffiziell nur noch von einigen Fans fortgeführt. 2010 kündigte Ulisses die Veröffentlichung der Fortsetzung von Tharun als Spielwelt an. 2011 wurde bekannt, dass der Uhrwerk Verlag als Lizenznehmer diese Spielwelt bearbeiten werde. Nach einigen Verzögerungen erschien schließlich im Dezember 2013 mit der Weltenbeschreibung "Tharun – Die Welt der Schwertmeister" nach 25 Jahren der erste neue Band zur Spielwelt. Inhaltlich ist "Tharun" eine Hohlwelt. Die Bewohner leben an den Innenwänden einer kugelförmigen Welt, die "Sonne" schwebt im Zentrum und ändert im Verlauf des Tages ihre Farbe. Wenn sie sich verdunkelt, herrscht für 10 Stunden Nacht. Auch in Tharun herrschen Menschen als Lebewesen vor. Sie leben in neun aus jeweils zahlreichen Inseln und Archipeln bestehenden Inselreichen, von denen sich acht um das im Zentrum liegende Reich des Herrschers anordnen. Das zentrale Reich heißt ebenso wie dessen Hauptinsel und der Herrscher ebenfalls Tharun. Anders als in den anderen Spielwelten von DSA sehen sich die menschlichen Bewohner Tharuns jedoch mit unbezähmbaren Gefahren konfrontiert, darunter eine Vielzahl an Riesen, Seeungeheuern und sogenannten "Giganten" (Berge, Vulkane, Wolkenbänke). Diese Gefahren können unvermittelt ganze Siedlungen auslöschen und machen zudem Fernreisen sehr gefährlich. In Tharun hat sich so eine nach Vervollkommnung ihrer persönlichen Fähigkeiten strebende Kriegerkultur als herrschende Kaste herausgebildet, die "Schwertmeister". Wissen ist in Tharun nicht allgemein zugänglich, zahlreiche Gruppierungen stützen ihre Macht auf geheim gehaltene Erkenntnisse. Die acht sogenannten Neugötter herrschen über Tharun: Arkan'Zin, Sindayru, Zirraku, Shin-Xirit, Ojo'Sombri, Numinoru, Pateshi und als einzige Göttin Nanurta. Sie verlangen von den Menschen – vom Tharun über die Herrscher der Reiche, den Archipelaren, Insellords, Kriegern, Dienern bis zu den Bauern – vollkommene Unterwerfung unter ihr Gesetz. Sonstige Kontinente. Rakshazar (das "Riesland") ist von Aventurien durch das "Eherne Schwert," ein unüberwindbares Gebirge, und durch das "Perlenmeer" östlich von Aventurien getrennt und fast vollständig unbekannt. Es existiert keine offizielle Ausarbeitung, Fans haben jedoch eine umfassende Beschreibung entworfen. 2011 deutete der Verlag eine mögliche Zusammenarbeit zur offiziellen Ausarbeitung des Kontinents an. Bis 2013 sind bereits zwei Hardcoverspielhilfen erschienen, die der Verlag in Kooperation mit dem Fanprojekt druckt und vertreibt. Der wenig bekannte Kontinent "Uthuria" liegt im Süden von Dere und ist von Aventurien durch das Südmeer getrennt. Spieler entwerfen hierzu eine Beschreibung. Am 14. Februar 2013 erschien der erste Band der Abenteuer-Trilogie „Grüne Hölle“ namens „Porto Velvenya“, der auf Uthuria spielt. Der zweite Band dieser Trilogie heißt „Der Fluch des Blutsteins“ und folgte am 22. August 2013. Der dritte Band soll „Der Gott der Xo’Artal“ genannt werden. Publikationen. Spielmaterialien aus verschiedenen Ausgaben von "Das Schwarze Auge". Die Regeln werden in Spielboxen und in Buchform veröffentlicht. Daneben existieren Regionalbeschreibungen und Abenteuerbände. Die Hauptregeln der aktuellen vierten Regelauflage bilden die Boxen "Schwerter und Helden," "Zauberei und Hexenwerk" und "Götter und Dämonen." Diese umfassen und erweitern die im Grundkasten "Das Schwarze Auge" dargelegte Basisversion der Regeln. Letztgenannte Box richtet sich laut Verlagsplanung an Einsteiger. Die Box "Schwerter und Helden" erweitert das Basis-Regelsystem um Optional- und Expertenregeln, sowie um ausführliche Generierungsmöglichkeiten für nicht magiebegabte Helden. "Zauberei und Hexenwerk" vertieft die Regeln für die Magie und erlaubt es, eine Vielzahl zauberkundiger Charaktere zu erstellen. "Götter und Dämonen" widmet sich religiös motivierten Charakteren und behandelt die Mythologie und Kosmologie der Hintergrundwelt Aventurien. Diese Boxen werden inzwischen durch überarbeitete Regelwerke ersetzt: "Wege der Helden" (Generierung sämtlicher Helden), "Wege des Schwerts" (Kampf und Talenteinsatz), "Wege der Zauberei" (Magieregeln und -einsatz), nebst „Liber Cantiones” (einzelnen Zaubersprüche), "Wege der Götter" (Regeln für Geweihte und Schamanen) und "Wege der Alchimie" (Alchimie, Artefakte und Zauberzeichen). Im Laufe von mehr als 20 Jahren wurden fünf Regelauflagen, knapp zwei Dutzend Regionalbeschreibungen, über 240 Abenteuerbände und mehr als 160 Romane offiziell publiziert. Eine Übersicht bietet die Publikationen-Sektion der Wiki Aventurica (siehe Weblinks). Geschichte. Die verschwägerten Kiesow und Fuchs spielten unter anderem mit Ina Kramer seit 1978 Fantasy-Rollenspiele, zunächst "Tunnels & Trolls". Sie, "Dungeons and Dragons" zu spielen. Fuchs empfahl dem Verlag Droemer Knaur den Einstieg in den Rollenspiele-Markt, und gemeinsam mit Kiesow und Alpers erhielt er Ende 1982 den Auftrag, für den US-Verlag Tactical Studies Rules (TSR) "Dungeons and Dragons" ins Deutsche zu übersetzen. Während die von Kiesow, Fuchs und Alpers gegründete "Fantasy Productions" 1983 Kiesows Übersetzung von "Tunnels & Trolls" als "Schwerter & Dämonen" veröffentlichte, erschien im selben Jahr im Verlag ASS die von Kiesow verantwortete Übersetzung von "Dungeons and Dragons". Schmidt Spiele und Droemer Knaur hatten das TSR-Angebot zur Veröffentlichung von "Dungeons and Dragons" aufgrund der hohen finanziellen Forderungen zur Lizenzierung abgelehnt. Die beiden Verlage suchten nach einer Möglichkeit, doch in den Rollenspiel-Bereich einzusteigen: Die von Kiesow mit Kramer, Alpers und Fuchs für die Ansprüche ihrer privaten Spielrunde entwickelte stimmungsvolle Hintergrundwelt mit zugehörigen Spielregeln musste daher rasch zu einem präsentationsfähigen Konzept ausgearbeitet werden. Ein "rechtes" schwarzes Auge wurde zuerst auf dem Sichtschirm für den Spielleiter („Meisterschirm“) verwendet, der dem „Abenteuer Basis-Spiel“ (1984) beigelegt war. Auf dem Cover des „Abenteuer Ausbau-Spiel“ (1985) war ebenfalls ein rechtes Auge zu sehen. Das Marketing von Schmidt Spiele erfand den Titel "Das Schwarze Auge" und riet von "Aventuria" ab. Ein "Schwarzes Auge" gab es in der Spielwelt noch nicht, so dass die Autoren zur Erläuterung des Titels auf J. R. R. Tolkiens "Der Herr der Ringe" zurückgriffen, in dem „Palantíri“ genannte Orakelsteine eine ähnliche Funktion besaßen. Vor allem die Marktstellung des damals zweitgrößten deutschen Spieleherstellers Schmidt verhalf "DSA" mit 100.000 verkauften Basisboxen bereits 1984 zum: Fernsehwerbung – in Deutschland einzigartig für Pen-&-Paper-Rollenspiele – warb zur Einführung für die zu DSA gehörigen Produkte. DSA war, anders als alle anderen Rollenspiele, Droemer Knaur und Schmidt Spiele präsentierten "Das Schwarze Auge" Anfang 1984 auf der Nürnberger Spielwarenmesse. Die Vermarktung durch einen Spielwarenhersteller sorgte für die Beigabe von Spielmaterial, das Rollenspielprodukten sonst fremd ist: So lag der ersten Ausgabe der "Werkzeuge des Meisters", einer Zusatzbox zum damaligen Basisspiel, eine "Maske des Meisters" bei: Es war eine dünne Plastikmaske mit schrägen Sehschlitzen in Form einer Fledermaus für Kinderköpfe. Um das Spiel bekannt zu machen, wurden zudem Schokoladenstücke in Maskenform an die Presse verteilt. Obendrein wurde Mitte der 80er auch Fernsehwerbung geschaltet. Die Maske wurde als sogenanntes Easter Egg im PC-Spiel "Drakensang" eingebaut. Die erste Version des Basisspiels wurde nach zwei Wochen vom Markt genommen und in Text und Bild entschärft, da Kritiker dem Spiel zu große Gewalttätigkeit vorwarfen. Droemer Knaur zog sich bald aus dem Projekt zurück, und Schmidt Spiele setzte es allein fort. In den Folgejahren erschienen viele Spielemodule, Abenteuerbücher, Soloabenteuerbücher und Computerspiele. Auch der Aventurische Bote, eine zweimonatlich erscheinende Rollenspielzeitung, die über die aktuelle politische Lage in Aventurien informiert, etablierte sich. Nach der Insolvenz von Schmidt Spiele im Jahr 1997 wurde das Spiel von Fantasy Productions übernommen, 2001 erschienen die Basisregeln der vierten Edition. 2004 feierte DSA seinen 20. Geburtstag. Nachdem Anfang 2007 die Lizenz für Myranor zu Ulisses Spiele gewechselt war, wurde im April des gleichen Jahres der Übergang auf das ganze Spielsystem ausgedehnt. Lediglich die Romane wurden bis Juli 2011 weiterhin von Fantasy Productions verlegt. Die Rechte an der Marke „Das Schwarze Auge“ liegen seit 2007 bei der "Significant Fantasy GbR", deren Gesellschafter Werner Fuchs, Ina Kramer, Britta Neigel sowie der im Februar 2011 verstorbene Hans Joachim Alpers sind bzw. waren. Bei der im Jahr 2003 veröffentlichten englischen Übersetzung wurde auf die wörtliche Übersetzung „black eye“ verzichtet, da dies im Englischen „Veilchen“ beziehungsweise „blaues Auge“ bedeutet. Stattdessen wurde der Titel „The Dark Eye“ gewählt. Das Spiel wurde Mitte der 1980er Jahre ins Französische ("L’Œil noir"), Italienische ("Uno Sguardo nel Buio") und Niederländische ("Het Oog des Meesters") übersetzt und wurde nach Einführung bald wieder eingestellt. Alle internationalen Ausgaben sind seit 2008 eingestellt. Im März 2011 wurde die vielköpfige und seit den 1980er Jahren dezentral und freiberuflich bzw. ehrenamtlich arbeitende DSA-Redaktion durch eine kleine, festangestellt am Firmensitz von Ulisses Spiele in Waldems im Rheingau-Taunus-Kreis arbeitende Redaktion ersetzt. Besonderen Einfluss auf die Entwicklung und Ausgestaltung des Rollenspiels DSA und seiner Spielwelt Aventurien hatten bis dahin neben dem Begründer Ulrich Kiesow vor allem die Autoren Hadmar von Wieser, Thomas Römer, Bernhard Hennen, Jörg Raddatz, Thomas Finn, Karl-Heinz Witzko, Lena Falkenhagen, Peter Diehn, Florian Don-Schauen, Stefan Küppers, Anton Weste, Ralf Hlawatsch, Michelle Melchers, Werner Fuchs und Ina Kramer. Im Mai 2011 verkündete der Verlag Ulisses Spiele im Rahmen eines Workshops auf der RPC, dass er sämtliche Lizenzen für Veröffentlichungen rund um das Thema Das Schwarze Auge erworben habe und damit die weitere Koordination über Filme und Computerspiele ebenfalls gezielt von jetzt an mitbestimmen könne. Im August 2013 kündigte Ulisses Spiele auf der Rollenspiel-Messe Ratcon in Unna die Entwicklung der 5. Regeledition für DSA an. Der Verlag setzt dabei auf die rege Mithilfe der Spielerschaft. Über Umfragen, Forenbeiträge sowie Twitter und Facebook soll das Feedback der Fans aufgenommen und Entwürfe zur Diskussion gestellt werden. Im Mai 2014 erschien eine vorläufige Version der neuen Spielregeln, die intensiv probegespielt wurde. Diese Version bezeichnet der Verlag als „Beta-Regelwerk“, in Anlehnung an die Beta-Versionen von Computerprogrammen. Im August 2015 (erste Planungen lauteten auf Mai 2015) erschien dann zur Rollenspiel-Messe Ratcon endgültig das neue „Das Schwarze Auge 5 Regelwerk“. Belletristik. 1985 gab es erste Romane zum Spiel, seit 1995 erscheinen diese regelmäßig. Bis 2014 wurden über 150 DSA-Romane in verschiedenen Verlagen veröffentlicht. Im Horchposten-Verlag erscheint seit 2005 eine Reihe von DSA-Hörbüchern, vielfach auf Basis dieser Romane. Unabhängig von der Romanreihe erschienen 2008 drei DSA-Hörspiele beim Hörspiellabel Europa. Ferner gab es 2007 einen DSA-Comic mit den Helden Nibor und Salkin bei Tigerpress. Gesellschaftsspiele. Schmidt Spiele verwendete 1990 die Zeichnungen, die für DSA-Publikationen entstanden waren, um ein Quartett namens "Das Schwarze Auge" zu bebildern. Anschließend vermarktete Schmidt 1992–1994 vier Brettspiele zu "Das Schwarze Auge", die im Stil von HeroQuest ausgestattet waren: "Die Burg des Schreckens" und die Nachfolgeprodukte "Dorf des Grauens" und "Tal des Drachens", außerdem das eigenständige Spiel "Die Schlacht der Dinosaurier". In den Jahren 2005 und 2006 brachte Fanpro zwei weitere Brettspiele auf dem Markt, "Der Weg nach Drakonia" und "Drachenjäger von Xorlosch" von Folker Jung. Außerdem gab es ein Sammelkartenspiel namens "Dark Force". Nach Veröffentlichung einzelner Zinnfiguren zu DSA wurden diese schließlich in das inzwischen eingestellte Tabletop "Armalion" integriert. Seit 2012 veröffentlicht Ulisses Spiele ein neues Tabletop-Spiel namens Schicksalspfade. Computerspiele. Weiterhin gibt es die dreiteilige Computerspielreihe "Nordland-Trilogie" (bestehend aus: "Die Schicksalsklinge", "Sternenschweif" und "Schatten über Riva") sowie eine Serie von Spielen für Mobiltelefone. Im August 2008 wurde das Computerspiel "Drakensang" veröffentlicht. Am 12. Februar 2010 wurde die Fortsetzung von "Drakensang", ' veröffentlicht, dem noch das Add-on "Phileassons Geheimnis" folgte. Die Silver Style Studios entwickeln seit Ende 2010 "Herokon Online", ein Browser-MMORPG im DSA-Universum. 2012 veröffentlichte Daedalic Entertainment das klassische Point-and-Click-Adventure "Satinavs Ketten". Am 30. August 2013 erschien der Nachfolger namens "Memoria". Im Oktober 2013 erschien das story-lastige "Demonicon". Unter dem Titel "Blackguards" erschien am 24. Januar 2014 erschien ein Strategie-Rollenspiel. Ein Hack-’n’-Slay-Spiel namens ' kam am 4. Dezember 2014 auf den Markt. Augmented Reality App. Am 11. September 2013 wurde unter dem Titel "Das Schwarze Auge – Hexenwald" eine Augmented Reality App veröffentlicht. Sie ist mit iOS und Android Smartphones im Berliner Tiergarten spielbar. Die dem Spiel zugrunde liegende Hintergrundgeschichte stammt von Mark Wachholz. Film. KSM sicherte sich die Filmrechte an "Das Schwarze Auge" und plant seit 2012 eine Verfilmung unter gleichem Titel. Das Preview verantwortet Mark Wachholz, Darsteller werden u.a. Mathis Landwehr, Sebastian Ströbel, Dennenesch Zoudé und Helmut Rühl sein. Drehbuchautor ist Robert Löhr. Hörbücher. Der Horchposten Verlag veröffentlichte zahlreiche Hörbücher bis dieser aufgrund von mangelnden Verkäufen die Produktion einstellte. Nachfolger war die Firma Holysoft Studios Ltd, deren Hörbücher aufwändig inszeniert wurden, aber nach sechs Werken ebenso eingestellt wurden. Dezember. Der Dezember ist der zwölfte und letzte Monat des Jahres des gregorianischen Kalenders und hat 31 Tage. Im römischen Kalender war der December der zehnte Monat (lat. "decem" = zehn) des 354-tägigen Mondkalenders. Im Jahr 153 v. Chr. wurde der Jahresbeginn um zwei Monate vorverlegt, sodass die direkte Beziehung zwischen Namen und Monatszählung verloren ging. Dies wird manchmal bei der Übertragung früher verwendeter lateinischer Datumsangaben vergessen. Unter Kaiser Commodus wurde der Monat in "Exsuperatorius" umbenannt, nach dem Tod des Kaisers erhielt er allerdings wieder seinen alten Namen zurück. Am 21. oder 22. Dezember ist der Tag der Sonnenwende – die Sonne steht genau über dem Wendekreis des Steinbocks am südlichen Breitengrad von 23°26,3'. Dieser Tag ist auf der Nordhalbkugel der kürzeste im Jahr, die Nacht ist die längste, auf der Südhalbkugel ist es umgekehrt. Der alte deutsche Name des Dezembers ist "Julmond". Der Name kommt vom Julfest, der germanischen Feier der Wintersonnenwende. Andere Namen für Dezember sind "Christmonat", da Weihnachten – das Christfest – im Dezember gefeiert wird, oder auch "Heilmond", da „Christus das Heil bringt“. Letztere Namen kamen erst nach der Umwidmung des Julfestes im Zuge der Christianisierung auf. Was das christliche Kirchenjahr betrifft, so beginnt es, abweichend von der normalen Kalenderzählung, mit dem ersten Adventsonntag. Dieser kann Ende November oder Anfang Dezember sein, je nachdem, auf welchen Wochentag Weihnachten fällt. Der Dezember beginnt immer mit demselben Wochentag wie der September. Ist der 29., 30. oder 31. Dezember ein Montag, werden die Tage ab Montag der ersten Kalenderwoche des Folgejahres zugerechnet. In diesem Fall endet die letzte Kalenderwoche des Jahres nach der DIN-Norm mit dem letzten Sonntag des Dezembers. Ein solches Jahr hat dann immer 52 Kalenderwochen. Brücke (Künstlergruppe). Die Brücke war eine expressionistische Künstlergruppe (auch "KG Brücke" genannt), die am 7. Juni 1905 in Dresden von den vier Architekturstudenten Ernst Ludwig Kirchner, Fritz Bleyl, Erich Heckel und Karl Schmidt-Rottluff gegründet wurde und als ein Wegbereiter des deutschen Expressionismus gilt. Weitere Mitglieder der Künstlergruppe wurden Max Pechstein, Otto Mueller und Cuno Amiet, kurzzeitig auch Emil Nolde und Kees van Dongen. Begriff. Dresden um 1900. Hier wurde 1905 die Künstlergruppe "Brücke" gegründet. Der Name "Brücke" geht auf Schmidt-Rottluff zurück. Nicht abschließend geklärt ist, ob er sich damit auf die vielen Brücken Dresdens bezog, die den Künstlern häufig als Motiv dienten, oder ob es sich um eine Metapher für den Willen zum Uferwechsel in der Kunst und die Überwindung alter Konventionen handeln sollte. Vermutet wird auch, dass der Name aus Friedrich Nietzsches Also sprach Zarathustra entlehnt wurde, in dem es heißt: „Ihr seid nur Brücken: mögen Höhere auf euch hinüber schreiten!“ Heckel schrieb über die Namengebung in sein Tagebuch: „Wir haben natürlich überlegt, wie wir an die Öffentlichkeit treten könnten. Eines Abends sprachen wir auf dem Nachhauseweg wieder davon. Schmidt-Rottluff sagte, wir könnten das "Brücke" nennen – das sei ein vielschichtiges Wort, würde kein Programm bedeuten, aber gewissermaßen von einem Ufer zum anderen führen.“ Charakterisierung und Zielsetzung. Im Gegensatz zum französischen Fauvismus waren für die "Brücke"-Maler neben der malerischen Form und Bildkomposition auch die seelisch-psychischen Momente und die damit in ihren Augen verbundene Erkenntnis oder Vermutung über den Kern der Dinge bedeutsam. Dabei wandten sie sich vom Menschenbild des 19. Jahrhunderts ab und stellten bisherige Tabuthemen in ihren Malereien dar. Sie wollten ihre Mitmenschen aufrütteln und beunruhigen. Programm der "Brücke", 1906, Holzschnitt von Ernst Ludwig Kirchner Die genauen Zielsetzungen der Künstlergruppe standen im Gründungsjahr noch nicht fest. „Wovon wir weg mussten, war uns klar – wohin wir kommen würden, stand allerdings weniger fest“, erinnerte sich Heckel später. Das von Kirchner verfasste Programm der "Brücke" wurde am 9. Oktober 1906 der Öffentlichkeit in der "Elbtal-Abendpost" präsentiert. Kirchner fertigte einen Holzschnitt an, auf dem er das Programm der Künstlergruppe wiedergab. Ein zur gleichen Zeit in Dresden herausgegebener Handzettel enthielt den Programmtext in folgender Form: „Mit dem Glauben an Entwicklung, an eine neue Generation der Schaffenden wie der Geniessenden rufen wir alle Jugend zusammen. Und als Jugend, die die Zukunft trägt, wollen wir uns Arm- und Lebensfreiheit verschaffen gegenüber den wohlangesessenen, älteren Kräften. Jeder gehört zu uns, der unmittelbar und unverfälscht wiedergibt, was ihn zum Schaffen drängt.“ Die Bildung eines einheitlichen Gruppenstils zählte zu den erklärten Zielen der "Brücke". Wesentliche malerische Merkmale sind eine intensive und kontrastreiche Benutzung von Farbe, die Veränderung der Form durch bewusste Vergröberung und Verzicht auf Details, der "„holzschnittartige“" Charakter der Malerei, kantige Formen und eine kühne Raumgestaltung. Weitere Techniken umfassen den Holzschnitt, die Lithografie und das Aquarell. Die Farbe wurde teilweise sehr pastos aufgetragen, manchmal aber auch mit Benzin verdünnt, um ein schnelleres Arbeiten zu ermöglichen. Zu den bevorzugten Motiven der "Brücke"-Maler zählten der Mensch in Bewegung, Zirkus und Varieté, die Nacht, das Hintergründige, Mensch und Natur, Tanz, Leben in der Großstadt, Akte und Badende. Gründung in Dresden – Juni 1905. Im Jahr 1902 lernten sich die Architekturstudenten Ernst Ludwig Kirchner und Fritz Bleyl an der Technischen Hochschule Dresden kennen. Zur gleichen Zeit schlossen die Gymnasiasten Karl Schmidt-Rottluff und Erich Heckel Bekanntschaft. Zwei Jahre später gingen auch sie nach Dresden, um dort Architektur zu studieren. Über Heckels Bruder, der mit Kirchner befreundet war, kamen Schmidt-Rottluff und Heckel mit diesem in Kontakt. Schon bald entdeckten die vier Kommilitonen ihr gemeinsames Interesse an der Kunst und beschlossen, eine Künstlergruppe zu gründen, obwohl keiner von ihnen eine malerische Ausbildung besaß. Ihnen war jedoch der Wunsch gemein, die akademische Malweise hinter sich zu lassen und der Kunst eine völlig neue Richtung zu geben. Schmidt-Rottluff und Heckel brachen ihr Studium ab, um sich vollends der Malerei widmen zu können. Das genaue Gründungsdatum der Künstlergruppe war lange Zeit umstritten. Kunstkritiker wie Karl Scheffler, Carl Einstein, Will Grohmann und Franz Roh schwankten in ihren Angaben zwischen den Jahren 1900 und 1906. Erst 1973 offenbarte die Entdeckung einer Kirchner-Skizze den 7. Juni 1905 als Gründungstag. Unmittelbar nach ihrem Zusammenschluss legte die Gruppe das Stammbuch "Odi profanum" an, in dem jedes Mitglied seine Ideen und Vorstellungen notierte. Das Motto leiteten sie in Anspielung auf eine Ode des Horaz ab – "Odi profanum vulgus (Hinweg, unheil’ger Pöbel)". Kirchners Wohnung und Bleyls Atelier im Dachgeschoss des Hauses auf der Berliner Straße 65 wurden als gemeinschaftliche Arbeitsräume bald zu eng. Auf der Berliner Straße 60 in der Dresdner Friedrichstadt mietete Heckel daher einen leerstehenden Fleischerladen an, der für die Künstler als Lager und später von Kirchner als Wohn-, Schlaf- und Arbeitsstätte genutzt wurde. Als Atelier diente ein ehemaliger Schusterladen, der über gutes Licht verfügte. Die Räume wurden mit Batiken und Bildern geschmückt und mit selbst angefertigten und bemalten Möbeln eingerichtet. In dieser Umgebung gingen die Künstler ans Werk. In ihren Freundinnen fanden sie die ersten Aktmodelle und widmeten sich nebenbei der Lektüre von Nietzsche, Arno Holz und Walt Whitman. Die Anfangszeit der "Brücke" war sehr produktiv. Heckel sagte später: "Hier [im Atelier] waren wir jede freie Stunde." Da Heckel seine Bilder jedoch teilweise übermalte und Schmidt-Rottluff die meisten seiner frühen Arbeiten vernichtete, sind aus dieser Phase nur wenige Werke erhalten. Werbung weiterer Mitglieder ab 1906. Schon früh begann das Werben um weitere aktive als auch passive Mitglieder. Den Passivmitgliedern wurde – gegen einen jährlichen Mitgliedsbeitrag von 12 und später 25 Mark – eine Jahresmappe mit Originalgraphiken der Künstler sowie ein Jahresbericht mit Informationen über die Arbeit der "Brücke" angeboten. 1906 trat neben Max Pechstein auch Emil Nolde der Gruppe bei. Schmitt-Rottluf schrieb dem 17 Jahre älteren und fortgeschritteneren Nolde im Frühjahr 1906, „die hiesige Künstlergruppe Brücke würde es sich zur hohen Ehre anrechnen, Sie als Mitglied begrüßen zu können.“ Der Appell zum Anschluss fand Gehör. Nolde hatte der Künstlergruppe nicht nur kunsthistorisch folgenreiche Kontakte vermittelt, sondern auch die Kunst der Radierung. Er verließ die Gruppe jedoch bereits 1907. Er fühlte sich von dem Trend zum Einheitsstil künstlerisch „gestört“ und äußerte: „Ihr solltet euch nicht Brücke, sondern "van Goghiana" nennen“. Auch Bleyl schied aus der Gruppe aus, um einen Lehrauftrag als Architekt in Freiberg zu übernehmen. Die Werbung weiterer aktiver Mitglieder war nicht ohne Erfolg, jedoch blieben sie meist ferne, gelegentlich hilfreiche Trabanten. Am stärksten traten der Schweizer Cuno Amiet und der Niederländer Kees van Dongen aus dem Kreis der "Fauves" in Erscheinung. Amiet wurde von Heckel 1906 postalisch und van Dongen 1908 von Pechstein persönlich in Paris angesprochen. Van Dongen, die international bedeutendste Anwerbung der Brücke, beteiligte sich 1908 an der Parallelausstellung französischer Künstler im Kunstsalon Emil Richter und wird ein Jahr als Mitglied geführt. Mit Edvard Munch und Henri Matisse forderte die Brücke zudem die Überväter der eigenen Rebellion zum Beitritt auf – vergeblich. Bis zum Zeitpunkt ihrer Auflösung hatte die Gruppe 68 Passivmitglieder, vorwiegend Intellektuelle und Angehörige des Bürgertums. In Hamburg waren es zuerst der Jurist und Graphiksammler Gustav Schiefler mit seiner Frau Luise, die im Herbst 1905 von der Gründung der "Brücke" hörten und nach Dresden reisten. Schiefler erstellte Werkverzeichnisse von vielen Künstlern und begann 1917, Kirchners Druckgraphik zu katalogisieren. Im Jahr 1907 bat die Hamburger Kunsthistorikerin Dr. Rosa Schapire um Aufnahme als passives Mitglied. Sie widmete ihr Leben den Werken der "Brücke"-Künstler, hielt Vorträge, erstellte Werkverzeichnisse und stand in regem Postkarten- und Briefwechsel mit den Malern. Der von ihr am höchsten geschätzte Karl Schmidt-Rottluff malte 1911 das "Bildnis Rosa Schapire". Ebenfalls 1907 wurde Martha Rauert, Ehefrau des Hamburger Rechtsanwalts und bekannten Kunstmäzens Dr. Paul Rauert, Schwager und enger Freund Albert Ballins, in die Reihen der passiven Mitglieder der Brücke aufgenommen. Karl Schmidt-Rottluff malte Paul Rauert 1911. Emil Nolde malte ihn 1910 und 1915. Pechstein zieht nach Berlin – 1908. 1908 zog Pechstein nach Berlin. Er sollte ein Haus des Architekten Bruno Schneidereit am Kurfürstendamm ausmalen und richtete sich dort ein Atelier ein. Heckel und Kirchner besuchten ihn mehrmals. Pechstein berichtete später: „Als wir in Berlin beisammen waren, vereinbarte ich mit Heckel und Kirchner, dass wir zu dritt an den Seen um Moritzburg nahe Dresden arbeiten wollten.“ Das Ziel dieser Ausflüge war die Darstellung der Harmonie von Mensch und Landschaft. Die Künstler wollten den Menschen in seiner wahren Natur darstellen. Ein sehr beliebtes Motiv waren "Badende". Als Aktmodelle dienten neben Freunden der Künstler auch Kinder. Besonders die neunjährige Fränzi wurde von den "Brücke"-Malern gern und häufig porträtiert. Pechstein war der Meinung, dass die Arbeit an den Moritzburger Seen das Wirken der Gemeinschaft „abermals ein großes Stück vorwärts gebracht“ habe. Um diese Zeit war erstmals ein einheitlicher Gruppenstil erkennbar. Gründung der "Neuen Secession" – 1910. 1910 wurden unter anderem Pechsteins Bilder von der Berliner Secession abgelehnt. Dies hatte die Gründung der Neuen Secession unter Pechsteins Leitung zur Folge, der aus Solidarität auch die übrigen "Brücke"-Mitglieder beitraten. Im Mai 1910 fand im Kunstsalon "Macht" an der Kaiser-Wilhelm-Gedächtniskirche die Protestausstellung "Zurückgewiesener der Secession Berlin" statt. Die Kritiken fielen vernichtend aus. Max Osborn schrieb, wenn die Gruppe auf diesem Weg blind weitertappe, werde das Ende ein großes Fiasko und ein ungeheurer Katzenjammer sein. Pechstein notierte in seinen Erinnerungen: „Man bespie unsere Bilder, auf die Rahmen wurden Schimpfworte gekritzelt und ein Gemälde von mir (…) von einem Missetäter mit einem Nagel oder Bleistift durchbohrt.“ Infolge dieser Ausstellung trat Otto Mueller als letztes Mitglied der Gruppe bei. Umzug nach Berlin – Ende 1911. Ende des Jahres 1911 folgten die anderen Mitglieder Pechstein und siedelten ebenfalls in die Hauptstadt über. Heckel übernahm das Atelier von Mueller in Steglitz. Kirchner zog nach Wilmersdorf, wo auch Pechstein arbeitete, und gründete mit diesem die Malschule MUIM-Institut ("Moderner Unterricht im Malen"), die jedoch wenig später wegen Schülermangels wieder schließen musste. In Berlin erhofften sich die "Brücke"-Maler einen besseren Kontakt zu Sammlern und Händlern sowie ein aufgeschlossenes Publikum. Doch das Leben war hart, und die Künstler hatten mit schwerer finanzieller Not zu kämpfen. Sie nahmen Kontakt zu den Verlegern Herwarth Walden und Franz Pfemfert auf und veröffentlichten ihre Arbeiten in deren Zeitschriften Der Sturm und Die Aktion. Umschlag der Jahresmappe 1912 nach einem Entwurf von Otto Mueller, die wegen Pechsteins Ausschluss nie veröffentlicht wurde Das Leben in der Großstadt beeinflusste die Künstler nachhaltig. Hier kamen sie erstmals mit den Werken des Kubismus und des Futurismus in Berührung, deren Stilelemente in ihre eigenen Bilder einflossen. Auch wenn die "Brücke"-Mitglieder nach wie vor zusammenarbeiteten, löste sich der Gruppenstil langsam auf, und mehrere Individualstile nahmen seinen Platz ein. Sie stellten im Februar 1912 in der Galerie Goltz in München gemeinsam in der zweiten Ausstellung des Blauen Reiters aus, der dort ein Jahr zuvor gegründet worden war, und beteiligten sich im Sommer an der bedeutenden Sonderbundausstellung in Köln. Kurz darauf wurde Pechstein als Verräter aus der "Brücke" ausgeschlossen, da er ohne Erlaubnis der anderen in der Berliner Secession ausgestellt hatte. Kirchner sprach später von einem "Vertrauensbruch". Die bereits fertiggestellte Jahresmappe über Pechstein wurde daraufhin nicht mehr veröffentlicht, und die Gruppe trat geschlossen aus der "Neuen Secession" aus. Auflösung – Mai 1913. Im Jahresbericht 1912 kündigte Kirchner an, dass noch im Frühjahr eine Chronik von "Brücke" erscheinen werde. Diese von Kirchner verfasste Schrift entstand zwar im Einvernehmen mit den anderen Gruppenmitgliedern, doch der Text war ihnen zu einseitig und wurde abgelehnt. Kirchner stellte sich in der Chronik selbst als wahres Genie der Gruppe dar und hob seinen Einfluss hervor. Er schrieb außerdem unter einem Pseudonym Kritiken über die Werke der "Brücke"-Maler, in denen er die anderen Mitglieder beschuldigte, von ihm abgeschaut zu haben. Um seinen Führungsanspruch zu untermauern, datierte er sogar einige seiner Bilder vor. Heckel sagte später über die Chronik: „Der Text hat uns vor den Kopf gestoßen.“ Kirchner empfand die Ablehnung durch seine Kameraden wiederum als Undankbarkeit und zog sich in der Folgezeit immer mehr zurück. Im Mai 1913 beschlossen daraufhin die übrigen Mitglieder die Auflösung der Gruppe. In einem Brief, der von Kirchner nicht mehr unterzeichnet wurde, setzten Heckel und Schmidt-Rottluff die Passivmitglieder davon in Kenntnis. Die Chronik, die letztlich zum Ende der Gemeinschaft geführt hatte, wurde von Kirchner einige Jahre später doch noch veröffentlicht. Später distanzierte er sich von der "Brücke" und wollte nicht mehr in Zusammenhang mit dieser genannt werden. Bildthemen. Die ersten Themen der "Brücke" waren das Stadtleben, Zirkus und Varieté, der Mensch in Bewegung, Tanz, Aktdarstellungen und Landschaften. Sie veranstalteten schon bald Exkursionen aufs Land und in die freie Natur, zum Beispiel nach Goppeln. 1907 entdeckte Heckel durch Zufall die Ortschaft Dangast im Atlas, die von den Künstlern in den darauf folgenden Jahren häufig besucht und in zahlreichen Bildern festgehalten wurde. Auch andere Ausflüge, etwa nach Fehmarn, die Flensburger Förde oder Nidden auf der Kurischen Nehrung wurden unternommen, häufig jedoch nicht geschlossen, sondern in Kleingruppen oder alleine. Ausstellungen. 1905 fand im Durchgangsraum der Leipziger Kunsthalle von Beyer und Sohn erstmals eine Ausstellung von "Brücke"-Bildern statt. Im Juli 1906 wurden weitere Werke in Braunschweig gezeigt. Die erste "Brücke"-Ausstellung in Dresden fand am 24. September 1906 im Mustersaal der Lampenfabrik (der Dresdner Kunstwerkstätten Karl Max Seifert in Dresden-Löbtau, Gröbelstraße 17) statt. Ein von Bleyl gefertigtes Plakat, das einen Frauenakt zeigte, war von der Polizei im Vorfeld verboten worden. Die Veranstaltung war kein Erfolg. Die Zuschauer blieben fern und auch die Kritiken waren gemischt. Das konservative, monarchisch geprägte Dresdner Publikum reagierte größtenteils ablehnend und schockiert auf die Werke der Maler, ebenso wie auf deren unkonventionelle Lebens- und Arbeitsweise. Von ihren Kritikern wurden sie als "„Hottentotten im Frack“" bezeichnet. In den Folgejahren wurden Wanderausstellungen der "Brücke"-Künstler in ganz Deutschland gezeigt. Mitglieder der Brücke. Folgende Künstler wurden zwar in die Gruppe aufgenommen, werden jedoch bis heute nicht zum engeren Kreis der "Brücke"-Mitglieder gezählt, da sie eher selten mit den anderen Mitgliedern zusammenarbeiteten und nur an wenigen Ausstellungen beteiligt waren. Vorbilder. Ein großes Vorbild der "Brücke" war Vincent van Gogh, von dem bereits 1905 in der Dresdner Galerie Arnold 50 Gemälde ausgestellt waren. Fritz Schumacher, ein ehemaliger Lehrer der "Brücke"-Mitglieder sagte, die Künstler seien angesichts der Bilder "„außer Rand und Band“" geraten. Van Goghs Einfluss wird vor allem hinsichtlich der Pinselführung und der Farbgebung deutlich. Auch Paul Gauguin beeinflusste die Kunst der "Brücke" nachhaltig. Seine Bilder wurden 1906 in Dresden gezeigt. Gauguins Reisen nach Tahiti veranlassten Nolde und Pechstein später zu Aufenthalten in der Südsee und auf Palau. Zahlreiche Anregungen holten sich die "Brücke"-Maler bei Besuchen im Dresdner Kupferstichkabinett und den dort ausgestellten Werken der Renaissance und des Barock. Kirchner war ein großer Bewunderer Albrecht Dürers, den er in der Chronik als „"Pfadfinder der Gestaltung"“ bezeichnete. Die Künstler beschäftigten sich eingehend mit den Holzschnitten des 15. und 16. Jahrhunderts und dem Flächenholzschnitt des 19. Jahrhunderts. Im Dresdner Völkerkundemuseum lernten sie die afrikanische Primitivkunst ("Art primitif") kennen, deren Holzplastiken und Masken sie in ihrem gestalterischen Ausdruck beeinflussten. Entsprechende Studienobjekte erstand man bei seinerzeit in Deutschland noch seltenen Händlern exotischer Kunst, wie dem Volkskundler Julius Konietzko. Während ihrer Zeit in Dresden bezog die Gruppe mehrere Kunstzeitschriften, darunter die englische "Studio" und die "Münchner Jugend". In Publikationen wie "Ver Sacrum" entdeckten sie den Symbolismus und den Jugendstil. Einmal brachte Kirchner aus einer Bibliothek einen Band von Julius Meier-Graefe über moderne französische Kunst mit. Bleyl sagte dazu: "„Wir waren begeistert (…) Wir suchten Weiterbildung, fortschrittliche Entwicklung und Lösung von Herkömmlichen.“" 1907 reiste Pechstein im Anschluss an einen Italienaufenthalt nach Paris und lernte dort die Arbeiten der Fauves kennen. 1908 stellten die beiden Gruppen gemeinsam in Dresden aus. In den Berliner Jahren der "Brücke" finden sich kubistische und futuristische Elemente in den Bildern der Künstler. Nicht eindeutig belegt ist der Einfluss Edvard Munchs auf die Künstlergruppe. 1906 waren im Sächsischen Kunstverein 20 Werke des Malers zu sehen, um dessen Mitgliedschaft sich die "Brücke" vergeblich bemühte. Später bestritten jedoch alle Mitglieder, von Munch beeinflusst worden zu sein. Nachwirkung. In den Jahren der Weimarer Republik erlangten vor allem die ehemaligen "Brücke"-Mitglieder Emil Nolde, Max Pechstein und Ernst Ludwig Kirchner große Popularität. Die stimmungsvollen Bilder der Künstlergruppe hatten darüber hinaus einen entscheidenden Einfluss auf die Entwicklung des deutschen Films der 1920er und 1930er Jahre. Regisseure wie Fritz Lang ("Metropolis"), Friedrich Wilhelm Murnau ("Nosferatu – Eine Symphonie des Grauens") oder Robert Wiene ("Das Cabinet des Dr. Caligari") zitierten in ihren Werken Stilmittel der Expressionisten. 1926 malte Kirchner das Gruppenbild "Eine Künstlergemeinschaft", auf dem neben ihm selbst Schmidt-Rottluff, Heckel und Mueller zu sehen sind. Während der Zeit des Nationalsozialismus galten expressionistische Bilder als "„Entartete Kunst“". Die "Ausstellung „Entartete Kunst“", die insgesamt etwa 650 Bilder zeigte, bestand annähernd zur Hälfte aus Werken der "Brücke"-Maler. 1957 veranstaltete der Oldenburger Kunstverein die bahnbrechende Ausstellung „Maler der Brücke in Dangast von 1907 bis 1912“, die vom damaligen Kustos am Niedersächsischen Landesmuseum für Kunst und Kulturgeschichte, Gerhard Wietek, kuratiert wurde. Die Ausstellung, mit der auch die kunstgeschichtliche Bedeutung des Nordseebades Dangast gezeigt werden konnte, trug wesentlich zur nachfolgenden Forschung über die Künstlergruppe bei. 1967 wurde in Berlin das "Brücke"-Museum eröffnet, dessen Bau von Schmidt-Rottluff angeregt worden war. Das Museum zählt etwa 400 Gemälde und Plastiken und einige Tausend Zeichnungen, Aquarelle und Graphiken und ist damit die weltweit größte zusammenhängende Sammlung von Werken dieser expressionistischen Künstler. 2001 wurde das Museum der Phantasie in Bernried eröffnet, das die von Lothar-Günther Buchheim zusammengetragene umfangreiche Sammlung von namhaften Werken der Brücke-Maler ausstellt. Die Künstlergruppe Brücke und ihre Werke genießen neben dem Blauen Reiter bei vielen Kunstkennern den Ruf, sie seien der bedeutendste Beitrag der deutschen Kunst des 20. Jahrhunderts an der „Weltkunst“. 2005 fanden anlässlich des 100. Gründungsjubiläums der "Brücke" zahlreiche Sonderausstellungen statt. Das Bundesministerium der Finanzen gab eine 55-Cent-Sonderbriefmarke heraus. Berlin-Dahlem. Dahlem ist ein Berliner Ortsteil im Bezirk Steglitz-Zehlendorf und zählt zu den wohlhabendsten Gebieten Berlins. Dahlem befindet sich im Südwesten der Stadt zwischen den Ortsteilen Zehlendorf und Steglitz, der Villenkolonie Lichterfelde-West und dem Forst Grunewald gelegen. Viele Villen und kleine Parkanlagen prägen das Bild des Ortsteils. Zahlreiche Wissenschaftseinrichtungen sind in Dahlem angesiedelt, darunter auch die Freie Universität Berlin. Zudem befindet sich hier mit dem Museumszentrum Berlin-Dahlem ein Museumsstandort der Staatlichen Museen zu Berlin mit einer der weltweit bedeutendsten ethnologischen Sammlungen. Dahlem im Mittelalter. a>, als Steinbau begonnen um 1300, das älteste Gebäude von Dahlem Das Dorf Dahlem entstand Anfang des 13. Jahrhunderts etwa zwischen 1200 und 1220 „aus wilder Wurzel“, also ohne slawische Vorbesiedlung. Allerdings sind offenbar Slawen aus kleinen benachbarten Siedlungen, die aufgegeben wurden, in das neu gegründete Dorf als Kossäten umgesiedelt worden. Die erste Dorfkirche aus Stein entstand vermutlich um 1300. Die erste urkundliche Erwähnung Dahlems stammt aus dem Jahr 1375 "(Dalm)". Im Schossregister, einem Steuerverzeichnis der damaligen Zeit, findet sich bereits 1450 eine Erwähnung des Ritterhofes des Otto von Milow. Nach dem Tod des letzten Milow ging das Dorf Dahlem und der Ritterhof an die Brüder Heinrich und Peter von Spiel, die schon 1480 über 20 der 52 Hufen Dahlems verfügten. Ein Wohnhof der von Spiel wird schon 1518 erwähnt. Das repräsentative Gutshaus wurde 1560 von den Spiels erbaut und ist heute das älteste Profangebäude von Berlin. 1655 wurde das wüst liegende Dahlem und das Rittergut an Georg Adam von Pfuel verkauft, der es sechs Jahre später an seinen Neffen Cuno Hans von Wilmerstorff veräußerte. Letzterer begann intensive Baumaßnahmen in dem vom Dreißigjährigen Krieg schwer in Mitleidenschaft gezogenen Dorf. 1799 verkaufte der letzte Wilmerstorff Dahlem und Schmargendorf an den Grafen Friedrich Heinrich von Podewils, der aber bereits 1804 starb. In seiner Zeit als Gutsherr wurden die letzten Bauern umgesiedelt und durch Landarbeiter ersetzt. Für 80.000 Taler erwarb Carl Friedrich von Beyme das Gut. Nach dem Tod Beymes im Jahr 1838 verkaufte seine Tochter Charlotte Gerlach 1841 das Dorf an den preußischen Domänenfiskus. Ab 1901 erfolgt die Aufteilung der Königlichen Domäne Dahlem mit dem Ziel, dort einen vornehmen Villenort mit angegliederten wissenschaftlichen Einrichtungen („Deutsches Oxford“) zu bauen. Die angrenzenden Gründerzeit-Villenkolonien Lichterfelde-West und Grunewald waren bereits eine begehrte und teure Wohnlage. Entwicklung ab 1901. Bis zum Ende des 19. Jahrhunderts gab es in Dahlem lediglich die traditionelle Verbindung zwischen Steglitz und dem Jagdschloss Grunewald, aus der die heutige Königin-Luise-Straße hervorging und den Dahlemer Weg, die Verbindung nach Schmargendorf und Zehlendorf. Die Pläne des preußischen Kulturpolitikers Friedrich Althoff zur Verlegung des Botanischen Gartens von Schöneberg nach Dahlem und für einen Wissenschaftsstandort („Deutsches Oxford“) führten ab 1897 zu ersten Veränderungen. Mit dem Ende des letzten Pachtvertrages der Domäne Dahlem, 1901, begann die Entwicklung zur heutigen Form. Am 25. März 1901 trat das "Gesetz zur Aufteilung des Domänengeländes" in Kraft, für dessen Umsetzung die Königliche "Kommission zur Aufteilung der Domäne Dahlem" zuständig war. Die ersten Mitglieder der Kommission waren Hugo Thiel, Ministerialdirektor im preußischen Landwirtschaftsministerium, Eberhard Ramm, Oberregierungsrat im preußischen Landwirtschaftsministerium und bis 1920 Amtsvorsteher der Domäne Dahlem, Rudolf Zarnack, Gutsverwalter, Nathan Dorn, für den Verkauf der Grundstücke zuständig, drei Beamte der beteiligten Ministerien sowie der Architekt Walter Kyllmann. Ab 1910 gehörten auch der erste Direktor der Kaiser-Wilhelm-Gesellschaft Adolf von Harnack und Hofbaumeister Ernst von Ihne der Kommission an. 1919 wurde sie in "Staatliche Kommission zur Aufteilung der Domäne Dahlem" umbenannt. Sie wurde erst 1933 im Rahmen von Verwaltungsreformen aufgelöst. Die Kommission war dem preußischen Finanz- und Landwirtschaftsministerium direkt unterstellt. Die Kommission entschied sich das Gelände für die Villenkolonie selber zu vermarkten um einen höheren Gewinn für den Staat zu erzielen und gleichzeitig die Bodenspekulation einzudämmen. Sie traf sich viele Jahre im "Alten Krug" in der Königin-Luise-Straße. Bereits 1898 gab es einen Plan von Walter Kyllmann zur Entwicklung der Villenkolonie, der einen Verbund mit den bereits bestehenden Villenkolonien in Grunewald, Steglitz und Lichterfelde in gleichförmiger Parzellierung vorsah. Aufgrund dieses Planes entstanden bis 1907 die Rheinbaben- und Podbielskiallee mitsamt den Nebenstraßen und die Altensteinallee, ab 1902 die Habelschwerdter Allee, Goßlerstraße, Rudeloffweg, Von-Laue- und Bötticherstraße. Die Habelschwerdter Allee, Schorlemer-, Lentze-, Engler- Thiel- und Pacelliallee wurden auf Wunsch Wilhelm II. mit breitem Mittelstreifen für Reitwege 1904 angelegt. Die als Anmarschweg des Garde-Schützen-Bataillon zu den Schießplätzen im Grunewald dienende Fabeckstraße wurde auf einer Hälfte gepflastert und auf der anderen Hälfte mit einem Marsch- und Reitweg versehen. 1908 erhielt auch der westliche Teil der Königin-Luise-Straße, der zu den Schießständen führte, eine Pflasterung. Bereits 1905 verkehrte hier die Straßenbahn der Gemeinde Steglitz. Kyllmans Plan, der im Laufe der Zeit viele Veränderungen erfuhr, rief viel Kritik hervor, weil er wenig Rücksicht auf die landschaftlichen Gegebenheiten Dahlems nahm. Hugo Thiel zog deshalb 1907 für die weitere Planung, die unter anderem wegen der geplanten Einschnittbahn notwendig geworden war, den jungen Architekten Heinrich Schweitzer hinzu, der gemeinsam mit dem Stadtplaner Hermann Jansen einen neuen Bebauungsplan nach den Gesichtspunkten eines landschaftsbezogenen Städtebaus entwickelte. Die neu entstandene Einschnittbahn führte deshalb in einem weiten Bogen mit begrünten Böschungen bis zur damaligen Endhaltestelle U-Bahnhof Thielplatz. Die neu geplanten Straßen entstanden in einem geschwungenen, den natürlichen Höhenlinien folgenden Netz, das für eine optimale Besonnung der Grundstücke sorgen sollte. Die langen Grünzüge Messel- und Finkenpark sowie Thielpark und Schwarzer Grund bieten vielen Grundstücken eine Parklage. Zwischen 1901 und 1915 entstanden so 539 Grundstücke für 27 Millionen Mark (inflationsbereinigt in heutiger Währung: rund  Euro) mit 384 privaten Neubauten. Die Anzahl der Bewohner wuchs von 194 auf 5.500. Der Käufer war verpflichtet innerhalb von zwei Jahren ein villenartiges Haus zu errichten und musste bei Überschreitung des Termins eine Vertragsstrafe von 1000 Mark pro Jahr zahlen. Die Besiedlung Dahlems blieb aufgrund der hohen Grundstückspreise nur wohlhabenderen Schichten vorbehalten, hierfür sorgte nicht zuletzt die Aufteilungskommission mit ihrem Verkaufsleiter Nathan Dorn. Trotzdem entstanden in Dahlem im Zuge der Ansiedlung von Behörden und Forschungsinstituten Mietwohnungen für mittlere Beamte und Wissenschaftler, wie in der Ladenbergstraße, in der Umgebung der Habelschwerdter Allee und am Corrensplatz. Bei der Umsetzung der Pläne für eine Villenkolonie kam es zu Interessenkollisionen mit dem von Friedrich Althoff entwickelten Konzept für ein „Deutsches Oxford“. Die beiden Bebauungspläne von Kyllmann (1899) und Schweitzer/Jansen (1911) versuchten die unterschiedlichen Interessen zu berücksichtigen. Auf persönliche Intervention Kaiser Wilhelm II. wurden deshalb große Flächen für Staatsbauten reserviert. Eingemeindung nach Berlin. Ehemaliges Postamt in der Königin-Luise-Straße Am 1. Oktober 1920 wurde der Gutsbezirk Berlin-Dahlem mit 6.244 Einwohnern zusammen mit den Landgemeinden Zehlendorf, Wannsee und Nikolassee sowie den Gutsbezirken Kleinglienicke, Pfaueninsel und dem nördlichen Teil von Potsdam (Forst) im Bezirk Zehlendorf nach Groß-Berlin eingemeindet. Dies geschah trotz heftiger Proteste der Anwohner, die den Ort als „Domäne und Villenort Dahlem“ selbstständig belassen wollten. Die Aufteilungskommission blieb zwar erhalten, benötigte aber nun die Zustimmung des Magistrats von Berlin. Bei der Eingemeindung erhielt Dahlem die Gebiete bis zum heutigen Waldfriedhof sowie bis zum heutigen Goldfinkweg westlich der heutigen Clayallee. In die Jahre der Weimarer Republik fällt die Errichtung zahlreicher neuer Wohnbauten, die Fertigstellung des Geheimen Staatsarchivs, der Bau der St. Bernhard und der Jesus-Christus-Kirche, die Anlage des Waldfriedhofs und die Verlängerung der U-Bahnlinie. Ebenfalls wurden die Wissenschaftsbauten der Kaiser-Wilhelm-Gesellschaft erweitert und der Umzug der Landwirtschaftlichen Hochschule realisiert. In dieser Zeit entstanden in Dahlem eine Reihe von Bauten der Moderne, für die die Bauten von Hans und Wassili Luckhardt in der Schorlemerallee beispielhaft sind. Zeit des Nationalsozialismus. Eine einschneidende Veränderung in der Zeit des Nationalsozialismus war die Verdrängung und Emigration der jüdischen und oppositionellen Wissenschaftler und Bewohner Dahlems. Viele Bewohner des Ortsteils gehörten nach 1933 zur NS-Führungsriege, wie Außenminister Joachim von Ribbentrop, Reichsbankpräsident Hjalmar Schacht und Konstantin von Neurath, um nur einige zu nennen. In die Villen der Vertriebenen oder Enteigneten zog die nationalsozialistische Elite, wie Martin Bormann, Heinrich Himmler, SA-Stabschef Viktor Lutze und Reichsbauernführer Walther Darré. Viele namhafte Militärs wohnten ebenfalls in Dahlem. Darunter Wilhelm Keitel, Walther von Brauchitsch, Friedrich Paulus, Albert Kesselring, Erich von Manstein, Alfred Jodl, Heinz Guderian und Karl Dönitz. Neue Grenzen durch die Verwaltungsreform. Durch die Verwaltungsreform vom 1. April 1938 wurden die Grenzen von Dahlem markant geändert. Die Nordgrenze verlief von nun ab entlang der Lentzeallee und der Pücklerstraße. Die Ostgrenze zu Steglitz, die bisher mitten durch die Häuserblöcke verlief, bildete nun die Englerallee und die Altensteinstraße die Grenze zu Lichterfelde. Im Süden wurde das Gebiet südlich der Berliner Straße – mit dem Staatlichen Materialprüfungsamt – Lichterfelde zugeordnet und die Schützallee wurde zur Südgrenze. Im Westen ging ein Stück vom Grunewald von Wilmersdorf an Dahlem, sodass das Jagdschloss Grunewald heute in Dahlem liegt. Durch die geänderten Grenzen kam nun der Botanische Garten, der bei seiner Gründung auch nur teilweise in Dahlem lag, vollständig zu Lichterfelde. Die wichtigste Änderung war aber der Verlust des Villengebietes um die Rheinbabenallee, das im Rahmen der ersten Bebauungsphase ab 1901 entstand und in seinem städtebaulichen Bezug noch immer zu Dahlem gehört. Dieses Gebiet umfasste die Linie vom Wilden Eber entlang der Warnemünder Straße, Hundekehlenstraße, Hagenstraße bis zur Hömanstraße, dann entlang der Linie Regerstraße, Wildpfad, Waldmeisterstraße, Goldfinkweg bis zur Pücklerstraße, die ab jetzt die Nordgrenze bildete. Bebauung in den 1930er Jahren. Von 1936 bis 1938 entstand auf dem damals noch ungenutzten Gelände an der Kronprinzenallee (heute: Clayallee) das Luftgaukommando III Berlin (später US-Hauptquartier). Zusammen mit den Dienstwohngebäuden in der Saargemünder Straße gehört diese von Fritz Fuß errichtete Anlage zu den ersten monumentalen Bauten, die vom neuen Baustil der Nationalsozialisten zeugen. Ein weiteres Gebäude aus dieser Zeit ist das Ateliergebäude für Arno Breker von Hans Freese, das zwischen 1939 und 1942 errichtet wurde. Im Jahr 1938 wurde die Familie Wertheim gezwungen, nicht nur ihre Kaufhäuser, sondern auch ihr Grundstück an der Messel- und Max-Eyth-Straße (heute in Schmargendorf) zu verkaufen. Das Grundstück wurde parzelliert und die darauf befindliche, von Max Landsberg entworfene Villa Wertheim aus dem Jahr 1910 abgerissen. Es entstanden mehrere Wohnhäuser wie auch die Villa Riefenstahl für die Regisseurin Leni Riefenstahl. Gleichschaltung und Widerstand. Nach der „Machtergreifung“ hatten die Nationalsozialisten in den Forschungseinrichtungen und Behörden die Führung übernommen. Die Institute der Kaiser-Wilhelm-Gesellschaft stellten sich mehr oder weniger freiwillig in die Dienste der Nationalsozialisten. Dies hatte zur Folge, dass jüdische Wissenschaftler ihre Anstellung verloren oder von ihren Ämtern zurücktraten und ins Ausland flohen. Hierzu gehörten Albert Einstein, der Deutschland bereits im Dezember 1932 verlassen hatte und nicht mehr zurückkehrte. Sein Nachfolger als Direktor am Kaiser-Wilhelm-Institut für Physik, der Niederländer Peter Debye verließ Deutschland 1939. Danach wurde das Institut dem Heereswaffenamt unterstellt um die Nutzung der Kernspaltung zu erforschen. Nach Entzug ihrer Lehrbefugnis 1933 konnte Lise Meitner als österreichische Staatsbürgerin ihre Arbeit zunächst am (nicht staatlichen) Kaiser-Wilhelm-Institut für Chemie fortsetzen. Nach dem Anschluss Österreichs war sie nun aber als gebürtige Jüdin in besonderer Weise gefährdet und konnte dank Otto Hahns Hilfe im Juli 1938 nach Schweden emigrieren. Am Kaiser-Wilhelm-Institut für physikalische Chemie und Elektrochemie waren bereits im April 1933 auf Grund der Arierparagraphen alle jüdischen Mitarbeiter entlassen worden. Der Institutsleiter, Nobelpreisträger Fritz Haber, ließ sich im Mai 1933 in den Ruhestand versetzen und verließ Deutschland im Herbst 1933, um nach Cambridge zu gehen. Das Institut wurde der Heeresverwaltung unterstellt und die militärische Forschung wieder aufgenommen. Weitere Institute, die sich in den Dienst der nationalsozialistischen Sache stellten, waren das Kaiser-Wilhelm-Institut für Anthropologie, menschliche Erblehre und Eugenik, das Reichsgesundheitsamt, das unter seinem neuen Präsidenten Hans Reiter die Abteilung „Menschliche Erblehre und Rassenpflege zur Förderung der erbgesunden, kinderreichen Familie deutschen Blutes“ einrichtete. Die Materialprüfungsanstalt und das Institut für Wasser-, Boden- und Lufthygiene erfüllten ebenfalls kriegsbedingte Aufgaben. Martin Niemöller war von 1931 bis zu seiner Inhaftierung 1937 Pfarrer der evangelischen Kirchengemeinde Berlin-Dahlem, die sich unter seiner Führung zu einem Zentrum des kirchlichen Widerstands entwickelte. Sein Vertreter bis 1940 wurde Helmut Gollwitzer. Die zweite Bekenntnissynode der Bekennenden Kirche wurde 1934 in Dahlem abgehalten, die das kirchliche Notrecht ausrief. Gebäude. In Dahlem befinden sich zahlreiche Sehenswürdigkeiten und Museen. Darüber hinaus haben sich am Dahlemer Wissenschaftsstandort viele international bedeutende Wissenschafts- und Forschungseinrichtungen angesiedelt. Der U-Bahnhof Dahlem-Dorf wurde 1987 in Japan zum schönsten U-Bahnhof Europas gekürt. Die Raumskulpturen "Liebespaare" auf dem Bahnsteig schuf der in Berlin lebende und 2012 verstorbene Bildhauer Wolf van Roy. Sehenswürdigkeiten. Der dem Ortsteil Dahlem oftmals zugeschriebene Botanische Garten liegt allerdings nicht in Dahlem, sondern seit der Gründung von Groß-Berlin im Jahr 1920 in Lichterfelde. Ursprünglich (1895) gehörte rund ein Viertel der Fläche zur Gemarkung Dahlem (siehe Grafik im Artikel "Botanischer Garten Berlin"). Einzelnachweise. Dahlem Definitionsmenge. Die Definitionsmenge dieser Funktion X → Y ist, in diesem Falle die ganze Grundmenge X. In der Mathematik versteht man unter Definitionsmenge oder Definitionsbereich jene Teilmenge einer Grundmenge, für die im jeweiligen Zusammenhang eine wohldefinierte Aussage möglich ist. In der Schulmathematik wird die Definitionsmenge oft mit formula_1 abgekürzt, manchmal wird das formula_2 auch mit einem Doppelstrich geschrieben. Definitionsbereich einer Funktion. Eine Funktion formula_3 ist eine spezielle Relation, die "jedem" Element der Definitionsmenge formula_4 "genau ein" Element der Zielmenge formula_5 zuweist. Die Definitionsmenge wird mit formula_6 bezeichnet. Hat die Funktion einen anderen Namen als formula_7 wie z. B. formula_8 oder formula_9, dann wird der Definitionsbereich entsprechend mit formula_10 oder formula_11 bezeichnet. aller Funktionswerte formula_13 von formula_7 heißt Bild- oder Wertemenge formula_15 von formula_7 und ist eine Teilmenge der Zielmenge. Die Grundmenge und die Zielmenge einer Funktion sind wesentliche Teile ihrer Definition. Häufig werden aber die Grundmenge und die Zielmenge einer Funktion nicht mit angegeben, wenn die Funktion auf der maximal möglichen Definitionsmenge gemeint ist (die dann meist eine Teilmenge der reellen Zahlen formula_17 oder komplexen Zahlen formula_18 ist). Zwei Funktionen mit gleicher funktionaler Abhängigkeit, aber verschiedenen Grundmengen oder verschiedenen Zielmengen, sind jedoch unterschiedliche Funktionen und können unterschiedliche Eigenschaften haben. Beispiele. Gegeben sei die Abbildung formula_19 mit der Grundmenge formula_17 und der Zielmenge formula_17. Dann gilt: formula_7 ist eine Funktion mit formula_23 und formula_24. Einschränkung und Fortsetzung einer Funktion. Sei formula_41 eine Funktion und formula_42, formula_43. Die Funktion formula_44 heißt "Einschränkung" von formula_7, wenn formula_46 für alle formula_47 gilt. formula_7 heißt in dieser Situation "Erweiterung" oder "Fortsetzung" von formula_49. Die Einschränkung formula_49 wird oft als formula_51 geschrieben. Diese Notation ist nicht völlig exakt, da die Menge formula_52 nicht mit angegeben wird; in den interessanten Fällen wird aber meist formula_53 gewählt. Für eine Funktion formula_41 und zwei gegebene Mengen formula_42, formula_56 gibt es höchstens eine Einschränkung formula_57 von formula_7; diese existiert genau dann, wenn die Bildmenge von formula_7 Teilmenge von formula_52 ist. Im Gegensatz zur Einschränkung einer Funktion ist die Fortsetzung nicht eindeutig. Beispiel. Mögliche Fortsetzungen auf den Definitionsbereich formula_31, also als Funktionen formula_63, sind beispielsweise sowohl formula_66 ist insofern eine „schönere“ Fortsetzung, als formula_66 stetig ist, formula_68 hingegen nicht. Dies ändert aber nichts daran, dass beide Funktionen korrekte Fortsetzungen sind, da eine eindeutige Fortsetzung in der Funktionsdefinition selbst nicht erhalten ist. Eindeutigkeit ergibt sich erst aus zusätzlichen Forderungen, wie eben Stetigkeit in diesem Beispiel, oder beispielsweise in der Forderung nach einer holomorphen Fortsetzung auf die komplexen Zahlen von einer Funktion, die zunächst nur auf einer Teilmenge der reellen Zahlen definiert ist. Definitionsbereich einer Relation. Unter dem Definitionsbereich der Relation formula_69 mit Beispiel. Gegeben sei die Relation formula_76 mit Da für reelle formula_78 das Quadrat immer nichtnegativ (positiv) ist und umgekehrt für jedes nichtnegative reelle formula_79 mindestens eine reelle Zahl formula_78 mit formula_81 existiert, ist für diese Relation der Definitionsbereich die Menge der nichtnegativen reellen Zahlen: formula_82. Definitionsbereich eines Terms. Der Definitionsbereich eines Terms mit formula_83 Variablen formula_84 und den dazugehörigen Grundmengen formula_85 ist die Menge aller n-Tupel formula_86, formula_87 für formula_88, für die der Term in sinnvolle Werte übergeht. Beispiele. Der Definitionsbereich des Terms formula_89 in einer Variablen mit der Grundmenge formula_90 ist formula_91, da der Bruch nur für einen von Null verschiedenen Wert des Nenners sinnvoll definiert ist. Der Definitionsbereich des Terms formula_92 in zwei Variablen mit der Grundmenge formula_93 ist formula_94, da im reellen Fall die Wurzel nur für nichtnegative Werte sinnvoll definiert ist. Definitionsbereich von Gleichungen und Ungleichungen. Sind formula_95 und formula_96 Terme, so nennt man und ähnliche Ausdrücke nennt man Ungleichungen. Beim Lösen einer Gleichung bzw. Ungleichung sucht man jene Werte aus dem Grundbereich, für welche die Gleichung bzw. Ungleichung in eine wahre Aussage übergeht. Als Definitionsbereich bezeichnet man jene Teilmenge des Grundbereiches, für die alle in der Gleichung bzw. Ungleichung auftretenden Terme sinnvoll definiert sind, also die Durchschnittsmenge der Definitionsmenge von formula_95 und formula_96. Insbesondere bei komplizierteren Gleichungen kann es vorkommen, dass beim Lösen der Ausgangsgleichung auf eine Gleichung umgeformt wird, die auch Lösungen enthält, die nicht im Definitionsbereich der Ausgangsgleichung enthalten sind. In einem solchen Fall muss also nach dem Lösen der Gleichung überprüft werden, ob die erhaltenen Lösungswerte tatsächlich im Definitionsbereich enthalten sind und gegebenenfalls einige Werte ausgeschieden werden. Beispiel. Es sind die reellen Lösungen der Gleichung gesucht. Da unter der Wurzel nur nichtnegative Werte stehen dürfen, ist der Definitionsbereich der Gleichung formula_103. Quadrieren ist keine Äquivalenzumformung, es gilt zwar formula_106, aber nicht formula_107, die umgeformte Gleichung kann also mehr Lösungen als die Ausgangsgleichung enthalten. Nochmaliges Quadrieren ergibt Diese Gleichung hat die beiden Lösungen formula_110 und formula_111. Der Wert formula_110 ist nicht im Definitionsbereich der Gleichung enthalten und ist somit keine Lösung; der Wert formula_111 ergibt in die Ausgangsgleichung eingesetzt eine wahre Aussage und ist somit die einzige Lösung der Gleichung. Dampf. Dampf wird in Naturwissenschaft und Technik als Bezeichnung für einen chemisch reinen, gasförmigen Stoff gewählt, wenn man ihn in Bezug zu seinem flüssigen oder festen Aggregatzustand betrachtet. Dampf kann durch Verdampfung der Flüssigkeit bzw. Sublimation des Feststoffs entstehen, und sich durch Kondensation wieder in diese bzw. durch Resublimieren in diesen umwandeln. Dampf bezeichnet in der Umgangssprache meist eine Beimischung der Luft, die dadurch sichtbar ist, dass der Stoff zum Teil in Gestalt kleinster Tröpfchen, also in flüssiger Form vorliegt. Dampf-Flüssig-Gleichgewicht. Mit der Zeit und sofern keine Störung auftritt, stellt sich ein dynamisches Gleichgewicht ein, bei dem genauso viele Teilchen der flüssigen bzw. festen Phase in die gasförmige Phase übertreten, wie umgekehrt aus dem Gas zurückwechseln. Der Dampf ist dann gesättigt und wird auch als Brüden, "Brodem" oder Wrasen bezeichnet. Wie viele Teilchen von einer in die andere Phase wechseln, hängt unter anderem stark von Druck und Temperatur des betrachteten Systems ab. In der Technik spielt das Gleichgewicht zwischen flüssiger und gasförmiger Phase bei thermischen Trennverfahren eine große Rolle. Überhitzter Dampf. Steht die Gasphase nicht mehr mit der zugehörigen flüssigen oder festen Phase in Kontakt und wird dem Dampf weiter Wärme zugeführt, wird er überhitzt und liegt als überhitzter Dampf vor. Je stärker diese Erwärmung ist, desto weiter entfernt man sich von dem Bereich, in dem man noch von Dampf spricht, und nähert sich einem Verhalten, das man dann als "gasartig" bezeichnet. Kondensation. Kühlt man überhitzten Dampf langsam ab, wird irgendwann der so genannte Taupunkt erreicht, an dem der Dampf wieder gesättigt ist und bei weiterer Kühlung erneut zu einer Flüssigkeit kondensiert. Im Falle des direkten Überganges vom gasförmigen zum festen Zustand, also bei einer Resublimation, nennt man diesen Punkt Frostpunkt. Kritische Temperatur. Oberhalb der kritischen Temperatur ist ein Gas durch Erhöhung des Drucks nicht mehr kondensierbar. Daher wird ein überkritischer Stoff nicht mehr als Dampf, sondern nur noch als Gas bezeichnet. Gebräuchlich ist außerdem der Begriff Fluid für einen überkritischen Stoff. Bedeutungen von Dampf in der Sprache. Während Dampf als ein aus einer Flüssigkeit gebildetes Gas – abgesehen von stoffeigenen Färbungen – unsichtbar ist, spricht man im Alltag bei Dampf meist von einer sichtbaren Mischung aus Luft und feinsten Flüssigkeitstropfen, wie er sich beispielsweise bei der Kondensation von Wasserdampf bildet und beispielsweise aus vielen Schornsteinen entweichend gesehen werden kann. Für dieselbe Form fein verteilter, kleiner Wassertropfen in Luft werden in der Alltagssprache zusätzlich auch die Ausdrücke Kondensstreifen (am Ausgang einer Flugzeugturbine) oder bei großflächigen Wetterphänomenen Nebel (in Bodennähe) bzw. Wolke (am Himmel) verwendet. Der korrekte naturwissenschaftliche Fachausdruck für ein Gemisch aus fein verteilten Flüssigkeitstropfen in einem Gas lautet Nebel. Bei extrem kleinen Flüssigkeitstropfen (und/oder Feststoffpartikeln) bezeichnet man diese Mischung auch als Aerosol. Im Spezialfall des Wassers spricht man in der Technik von Nassdampf. Dampfmaschine. Animation einer doppelt wirkenden Dampfmaschine mit Fliehkraftregler Eine Dampfmaschine "im engeren Sinne" ist eine Kolben-Wärmekraftmaschine. Sie erzeugt in einem Dampferzeuger, der als Bestandteil der Maschine gilt, durch Verbrennung Dampf und wandelt die im Dampf enthaltene Wärmeenergie (auch "Druckenergie") mittels Kolben in mechanische Arbeit um. Dampfmaschinen sind Wärmekraftmaschinen mit "äußerer Verbrennung", was sie von Verbrennungsmotoren unterscheidet. Als Dampfmaschine "im weiteren Sinne" kann umgangssprachlich auch jede andere Maschine verstanden werden, die durch Dampf direkt oder indirekt angetrieben wird. Dies sind sowohl Kraftmaschinen wie die Dampfturbine als auch dampfgetriebene Arbeitsmaschinen. Manchmal werden auch dampfgetriebene Transport- und Verkehrsmittel, Landmaschinen und sogar einige Apparate als Dampfmaschine bezeichnet. Die frühsten Anwendungen der Dampfmaschinen fanden sich im Bergbau zur Wasserhaltung. Nach allmählichen Verbesserungen wurden sie ebenfalls in der wachsenden Textilindustrie zum Antrieb von Textilmaschinen eingesetzt und verbreiteten sich schließlich auch in weiteren Industriebranchen. Zudem spielten sie eine wichtige Rolle im Verkehrswesen, insbesondere zum Antrieb von Dampfschiffen und Dampflokomotiven. Ebenfalls nicht unbedeutend war zudem der Einsatz als Lokomobilen. Wenig erfolgreich war dagegen ihre Anwendung in Dampfwagen und Lkw. Auch das erste Luftschiff wurde 1852 von einer Dampfmaschine angetrieben. Der folgende Artikel behandelt nur Kolbenkraftmaschinen (Dampfmaschinen "im engeren Sinne"). Wirkungsweise einer Kolbendampfmaschine. Die Kolbendampfmaschine setzt thermodynamische Energie (Dampfdruck) aus Dampferzeugern in mechanische Rotationsenergie um. Dabei bewegt sich ein Kolben in dem zugehörigen Zylinder hin und her, er führt eine oszillierende Bewegung aus. Benötigt wird für die mechanische Nutzenergie jedoch zumeist eine Rotationsbewegung. Die Hinbewegung des Kolbens wird mit Druck des Dampfes als Arbeitstakt ausgeführt. Die Rückbewegung wird bei einseitig beaufschlagtem Kolben aus gespeicherter Rotations-Schwungenergie ausgeführt. Bei zweiseitig beaufschlagten Kolben hingegen wird die Rückbewegung des Kolbens ebenfalls als Arbeitstakt verrichtet, per Dampfdruck-Ansteuerung nunmehr auf die Unterseite des Kolbens. Die Dampfzufuhr in den Zylinder steuert ein Schieber. Der Kolben wird mit dem Druck erst nach unten bzw. in Richtung der Kurbelwelle verschoben. Die Linearbewegung des Kolbens wird mittels Kreuzkopf und Pleuel als Koppelglied am Kurbelzapfen der Kurbelwelle in eine Rotationsbewegung umgesetzt. Das Pleuel schiebt anschließend (im einseitigen Betrieb) mit der im Schwungrad und in der Kurbelwelle gespeicherten Rotationsenergie den Kolben wieder aus der unteren Lage linear zurück in seine obere Ausgangsposition. Das Arbeitsverfahren einer Dampfmaschine ist somit in zwei Takte gegliedert und ist daher ein Zweitaktverfahren. Atmosphärische Dampfmaschine. Vergleich zwischen atmosphärischer Dampfmaschine und Überdruckdampfmaschine In einer atmosphärischen Dampfmaschine wird der Zylinderraum unter dem Kolben mit Wasserdampf gefüllt. Im nächsten Arbeitstakt wird Wasser in den Zylinder eingedüst, so dass der Wasserdampf abkühlt und dabei kondensiert. Es wird ein Unterdruck erzeugt, so dass der Kolben durch den äußeren Atmosphärendruck in den Zylinder gedrückt wird. Die ausfahrende Bewegung des Kolbens erfolgt bei geöffnetem Dampfventil und durch eine Schwungmasse, die an einem Hebelarm, dem sogenannten Balancier, angebracht ist. Der bekannteste Vertreter dieser Bauart war die atmosphärische Dampfmaschine von Thomas Newcomen ab 1712. Die Dampfmaschine wurde vorwiegend für die Wasserhaltung in Kohlenzechen eingesetzt. Der energetische Wirkungsgrad dieser Maschine lag unter 1 %. Niederdruckdampfmaschine. Pumpenhaus einer Wasserhebungsdampfmaschine mit Balancier und Pumpengestänge Bei der Niederdruckdampfmaschine wird der Dampf mit einem leichten Überdruck von einigen 100 mbar aufgegeben. Im Gegensatz zur Newcomen-Dampfmaschine wird nicht nur bei der Kondensation, sondern auch bei der Befüllung des Zylinders Arbeit verrichtet. Dies führt zur Steigerung der Leistungsfähigkeit und war Ausgangspunkt für die Weiterentwicklung der Dampfmaschine zu höheren Dampfdrücken. Die bekanntesten Vertreter dieser Bauart waren die Dampfmaschinen von James Watt ab etwa 1769 (siehe unten). Watt entwickelte auch die "einfach wirkende Dampfmaschine", die nur von der Unterseite den Kolben beaufschlagt, zur "doppelt wirkenden Dampfmaschine", bei der der Kolben sowohl von der Ober- und Unterseite beaufschlagt wird, weiter und erhöhte so den Wirkungsgrad. Auch die "Expansionsmaschine", wo nur Dampf zu Anfang eines Hubes einströmt, dann expandiert und mit niedrigerem Druck aus dem Zylinder tritt, war eine Weiterentwicklung der Niederdruckdampfmaschine und brachte eine Effektivitätssteigerung gegenüber der "Volldruckmaschine", die während des gesamten Hubes vollen Dampfdruck erhält. Hochdruckdampfmaschine. Bei Hochdruckdampfmaschinen wird der Dampf weit über 100 °C erwärmt, so dass sich ein höherer Druck aufbaut. Auf eine Abkühlung des aus dem Zylinder austretenden Wasserdampfes kann verzichtet werden (Auspuffbetrieb). Der Kondensator kann also wegfallen, was diesen Maschinentyp in Verbindung mit der höheren Energiedichte des unter Druck stehenden Dampfes erheblich leichter macht und damit den Einsatz von Dampfmaschinen in Dampflokomotiven erst ermöglichte. Vertreter dieser Bauart sind praktisch alle Kolbendampfmaschinen in Fahrzeugen seit Oliver Evans und Richard Trevithick ab etwa 1802 (s. u.). Verbunddampfmaschine. Eine Verbunddampfmaschine oder Mehrfach-Expansionsmaschine ist eine Dampfmaschine mit mindestens zwei in Dampfrichtung nacheinander geschalteten Arbeitseinheiten. Geschichte der Dampfmaschine. Die Geschichte der Dampfmaschine reicht zurück bis ins erste nachchristliche Jahrhundert – der erste Bericht über eine technische, rudimentär als „Dampfmaschine“ zu bezeichnende Apparatur, den Heronsball (auch "Aeolipile" genannt), stammt aus der Feder des griechischen Mathematikers Heron von Alexandria. In den Jahrhunderten, die den ersten neuzeitlichen Dampfmaschinen vorangingen, wurden dampfgetriebene „Maschinen“ hauptsächlich zu Demonstrationszwecken gebaut, um das Prinzip der Dampfkraft zu illustrieren. Die ersten Versuche einer Dampfmaschine kamen unter anderem von Blasco de Garay 1543, Denis Papin 1690 und Thomas Savery 1698. Sie alle waren aber ohne Erfolg. Thomas Newcomen. Die erste verwendbare Dampfmaschine wurde 1712 von Thomas Newcomen konstruiert und diente zur Wasserhebung in Bergwerken. Diese sogenannte atmosphärische Dampfmaschine erzeugte durch Einspritzen von Wasser in einen mit Dampf gefüllten Zylinder einen Unterdruck gegenüber der Atmosphäre. Mit diesem Druckunterschied wurde der Kolben im Arbeitstakt vom atmosphärischen Luftdruck nach unten gedrückt und anschließend durch das Eigengewicht der anzutreibenden Pumpenstange wieder nach oben in die Ausgangsposition gezogen. Die Kraftübertragung zwischen Kolbenstange und Balancier erfolgte mittels einer Kette. Der Wirkungsgrad der newcomenschen Maschine lag bei 0,5 Prozent. James Watt. Planetengetriebe zur Umwandlung der Auf- und Abbewegung in eine Rotation James Watt, dem oft fälschlicherweise die Erfindung der Dampfmaschine zugeschrieben wird, verbesserte den Wirkungsgrad der Newcomenschen Dampfmaschine erheblich. Er verlagerte mit seiner 1769 patentierten und sechs Jahre später von John Wilkinson gebauten Konstruktion den Abkühlvorgang aus dem Zylinder heraus in einen separaten Kondensator. So konnte Watt auf das atmosphärische Rückführen des Kolbens verzichten und die Maschine bei beiden Kolbenhüben Arbeit verrichten lassen. Das von ihm erfundene Wattsche Parallelogramm sorgte für die geradlinige Auf- und Abbewegung der Kolbenstange bei diesen einfachwirkenden Dampfmaschinen. Sowohl Newcomens als auch Watts Dampfmaschinen hatten ursprünglich nur stehende Zylinder, die die Auf- und Abbewegung des Kolbens über einen Balancier lediglich umlenkten, um sie in den Schacht auf das Pumpengestänge zu übertragen. Erst später konstruierte Watt ein Planetengetriebe, um die Kolbenbewegung umzuformen und so die Maschine ein Schwungrad drehen zu lassen. Die Verwendung eines Kurbeltriebes war ihm in England durch ein von James Pickard gehaltenes Patent nicht möglich. Das Planetengetriebe ist eine wesentlich aufwendigere Lösung des Problems, eine geradlinige in eine rotierende Bewegung umzuformen, hatte andererseits aber den Vorteil, dass damit gleichzeitig eine Über- oder Untersetzung möglich war. Spätere Watt’sche Dampfmaschinen waren doppeltwirkend, der Kolben wurde abwechselnd von der einen und der anderen Seite mit Dampf beaufschlagt. Auf der jeweils gegenüberliegenden Seite befand sich der Auslass zum Kondensator. James Watt gilt als Entdecker des Nutzens der Dampfexpansion. Bei der Dampfmaschine wird dieser Effekt durch ein vorzeitiges Schließen der Ventile erreicht; dadurch wird die Zuführung von Dampf in den Zylinder unterbrochen, während der darin eingeschlossene Dampf weiter Arbeit leistet. Weiterhin führte James Watt 1788 den Fliehkraftregler zur Geschwindigkeitsregulierung seiner Maschine ein. Vorher war dieses Maschinenelement bereits beim Bau und Betrieb von Mühlen eingesetzt worden. Um die Fähigkeit seiner Dampfmaschinen zu demonstrieren, erfand Watt die Leistungseinheit "Pferdestärke". Die wattsche Dampfmaschine ersparte durch diese Verbesserungen gegenüber ihren Vorgängern ein Vielfaches der Wärmeenergie, die zum Betrieb der Maschine notwendig war. Der Wirkungsgrad der wattschen Maschine erreichte schließlich drei Prozent. Mit seinem kaufmännischen Teilhaber Matthew Boulton verkaufte er seine Maschinen jedoch nicht, sondern stellte sie seinen Kunden zur Verfügung, um sich einen Teil der eingesparten Brennstoffkosten auszahlen zu lassen. Damit war eine frühe Form des Contractings geboren. Mit diesen Entwicklungen sowie weiteren technischen Verbesserungen wurden Dampfmaschinen ab der zweiten Hälfte des 18. Jahrhunderts – zumindest im Kohlebergbau – nun auch wirtschaftlich. Wenn auch allmählich weitere Anwendungsgebiete in Industrie und Transport erschlossen wurden, dauerte es bis in die 1860er Jahre, bis Dampfmaschinen in England massenhaft verwendet wurden. In anderen Staaten wie beispielsweise Frankreich und den USA, wo die Wasserkraft ein starker Konkurrent war, erfolgte der endgültige Durchbruch der Dampfmaschine noch etwas später. Hochdruck und Heißdampf. Dampfmaschine nach Jacob Leupold von 1720. Erste Darstellung einer Hochdruck-Dampfmaschine aus seinem Buch "Theatri Machinarum Hydraulicarum Tomus II" 1720 beschrieb Jacob Leupold, Mathematico und Mechanico in Preußen und Sachsen, eine Hochdruckdampfmaschine mit zwei Zylindern. Die Erfindung wurde in seinem Hauptwerk „Theatri Machinarum Hydraulicarum Tomus II” veröffentlicht. Die Maschine verwendete zwei mit Blei belastete Kolben, die ihre kontinuierliche Bewegung einer Wasserpumpe zur Verfügung stellten. Jeder Kolben wurde durch den Dampfdruck gehoben und kehrte durch sein Eigengewicht in die ursprüngliche Stellung zurück. Die zwei Kolben teilten sich ein gemeinsames Vier-Wege-Ventil, welches direkt mit dem Dampfkessel verbunden war. Eine weitere Hochdruckdampfmaschine wurde 1784 von Oliver Evans konstruiert. Das erste Exemplar wurde von ihm jedoch erst 1812 gebaut. Ihm zuvor kam Richard Trevithick, der 1801 die erste Hochdruckdampfmaschine in ein Straßenfahrzeug einbaute. Voraussetzung für die Funktionsfähigkeit der Hochdruckdampfmaschinen war der Fortschritt in der Metallherstellung und -bearbeitung zu dieser Zeit, denn in Hochdruckmaschinen müssen die Maschinenteile sehr passgenau sitzen. Außerdem bestand die Gefahr der Explosion des Kessels. Die kontinuierliche Weiterentwicklung der druckbetriebenen Dampfmaschine, die zuerst mit so genanntem „Sattdampf“ arbeitete, führte über die einzylindrige Heißdampfmaschine zur zwei- oder dreizylindrischen Compound-Maschine und zuletzt zur mehrzylindrischen Heißdampf-Hochdruck-Dampfmaschine, wie sie von Kemna angeboten wurde. Bei der Sattdampfmaschine befinden sich im Kessel alle Siederohre für die Dampferzeugung im Wasserbett, die Heißdampfmaschine besitzt ein zweites Röhrensystem, das vom Feuer oder den heißen Rauchgasen bestrichen wird. Dadurch wird der Dampf „überhitzt“ und erreicht Temperaturen um 350 Grad Celsius. Die Compound-Maschine oder Verbundmaschine besitzt einen Hochdruckzylinder mit kleiner Bohrung und einen oder mehrere in Serie geschaltete Niederdruckzylinder. Der als Heißdampf in den Hochdruckzylinder eingespeiste, nunmehr teilentspannte und kühlere entweichende Dampf hat immer noch genug Arbeitsvermögen, um den mit einer wesentlich größeren Bohrung versehenen Niederdruckzylinder zu betreiben. Dabei wird versucht, die Zylinderbohrungen so abzustimmen, dass das erzeugte Drehmoment beider Zylinder auf die Kurbelwelle etwa gleich ist. Auch muss das Volumen beider Zylinder auf die Drehzahl der Dampfmaschine abgestimmt sein, damit die Entspannung des Dampfes auf beide Zylinder verteilt wird. Kemna baute ab 1908 Dampfmaschinen mit zwei Hochdruckzylindern. Die besten Maschinen hatten bereits um 1910 einen sehr hohen Wirkungsgrad und erreichten mit Steinkohle mittlerer Güte einen Verbrauch von etwa 0,5 kg/PS-Stunde. Preußen. a>, kolorierte Tuschzeichnung von Jacob Niebeling, 1822 In Preußen war man bereits 1769 auf die „Feuermaschinen“ aus England aufmerksam geworden. Besonders der Oberkonsistorialrat Johann Esaias Silberschlag, der sich auch als Naturwissenschaftler einen Namen gemacht hatte, erkannte frühzeitig den Nutzen dieser Maschine und fertigte bis 1771 mehrere umfangreiche Gutachten darüber an. 1785 wurde dann die erste, in Preußen nachgebaute Dampfmaschine wattscher Bauart bei Burgörner in Betrieb genommen. Bereits 1778 hatte sich James Watt bereiterklärt, der preußischen Bergverwaltung seine verbesserte Dampfmaschine zur Wasserhebung unter fachmännischer Anleitung zu überlassen. Seine Firma Boulton & Watt forderte jedoch ein 14-jähriges Liefermonopol, eine Bedingung, auf die man im merkantilistischen Preußen nicht eingehen wollte. Unter dem Vorwand einer Erwerbsabsicht wurden der Oberbergrat Waitz von Eschen und der Assessor Carl Friedrich Bückling (1756–1812) vom preußischen Minister Friedrich Anton von Heynitz nach England geschickt. Waitz sollte sich speziell mit der Funktionsweise der Maschine vertraut machen und Bückling entsprechende Baupläne anfertigen. Wohl lediglich eine englische Dampfmaschine wurde erworben und 1779 auf einer Braunkohlengrube bei Altenweddingen eingesetzt. Nachdem Bückling noch ein zweites Mal nach England geschickt worden war, war er in der Lage, exakte Baupläne für eine eigene Dampfmaschine nach dem Vorbild der wattschen unter Mitwirkung der Preußischen Akademie der Wissenschaften zu entwerfen. Bis 1783 wurde ein verkleinertes, funktionsfähiges Modell gebaut, von da an wurden die Teile in Originalgröße hergestellt und zusammengesetzt. Am 23. August 1785 wurde die erste deutsche Dampfmaschine wattscher Bauart auf dem König-Friedrich-Schacht bei Hettstedt offiziell in Betrieb genommen. Ihre Störanfälligkeit brachte der Maschine anfangs viel Spott ein. Durch die Abwerbung des britischen Dampfmaschinen-Mechanikers William Richards konnten die Probleme in Hettstedt bis 1787 beseitigt werden. Die Maschine wurde zu einem ökonomischen Erfolg. 1794 wurde sie durch eine stärkere ersetzt und nun auf einem Steinkohlenschacht bei Löbejün aufgestellt, wo sie noch bis 1848 arbeitete. Im Mansfeld-Museum in Hettstedt steht seit 1985 ein 1:1-Nachbau dieser Dampfmaschine, der in Bewegung vorgeführt werden kann. Im oberschlesischen Tarnowitz wurde am 19. Januar 1788 eine Dampfmaschine in Betrieb genommen, die zur Entwässerung der Tarnowitzer Bergwerke diente. Von dieser Dampfmaschine wird fälschlich behauptet, sie sei die erste auf dem europäischen Festland gewesen. Die erste Dampfmaschine des Aachener Reviers stand 1793 in Eschweiler und wurde dort ebenfalls für die Wasserhaltung im Bergbau eingesetzt. 1803 baute Franz Dinnendahl in Essen die erste Dampfmaschine im Ruhrgebiet. Bereits zwei Jahre zuvor hatte Dinnendahl den Einsatz der ersten Dampfmaschine zur Wasserhaltung im Ruhrbergbau betreut. Hergestellt in England, wurde diese auf der Zeche Vollmond in Bochum-Langendreer in Betrieb genommen. Andere deutsche Staaten. Etwa zeitgleich wurde im Herzogtum Sachsen-Gotha in einem kleinen Vitriol-Bergwerk bei Mühlberg (Thüringen) vom späteren Ingenieur-Leutnant Carl Christoph Besser, der von 1763 bis 1774 bei dem Bergwerk tätig war, die erste funktionsfähige Dampfmaschine Thüringens aufgebaut und über Wochen in Betrieb gehalten, sie diente zum permanenten Fördern des Grubenwassers und wurde von zwei Heizern bzw. Maschinisten Tag und Nacht am Laufen gehalten. Der vielseits talentierte Besser wurde später vom Herzog Ernst als Ingenieur und Architekt beim Bau der Seeberg-Sternwarte und anderer Projekte in Gotha eingesetzt und verlor so das Interesse am Maschinenbau. Von diesen frühen Anfängen bis zur weiten Verbreitung der Dampfmaschine in der Wirtschaft vergingen jedoch einige Jahrzehnte. 1836 erstellte man die erste deutsche Dampfmaschinenstatistik, und zwar für den Regierungsbezirk Düsseldorf. Durch technische Verbesserungen, der beginnenden Konzentration der sich formierenden Industrie, zunehmend ausgeschöpfter Wasserkraftpotentiale sowie der massiven Verbilligung des Kohletransportes durch die Eisenbahn wurden Dampfmaschinen wirtschaftlich immer rentabler. Nach einer nicht ganz vollständigen Statistik des Jahres 1846 gab es im Zollverein 1518 Dampfmaschinen. 1861 war die Zahl bereits auf 8695 Stück gestiegen. In der Stahlindustrie wurden Dampfmaschinen unter anderem zum Antrieb von Gebläsen, Pumpen und Walzstraßen eingesetzt. Zwei Walzenzugmaschinen mit Leistungen von maximal 10.000 PS, Baujahr 1913, und 15.000 PS, Baujahr 1911, arbeiteten zuverlässig in der Maxhütte (Sulzbach-Rosenberg) bis zu deren Stilllegung im Jahr 2002. Sie gehörten zu den stärksten Dampfmaschinen weltweit. Dampfmaschinen heute. Als Fahrzeugantrieb sind Dampfmaschinen weitgehend durch Verbrennungsmotoren abgelöst worden, die ohne Aufwärmzeit starten, einen höheren Wirkungsgrad haben, größere Leistung bei geringerem Gewicht bieten und komfortabler zu bedienen sind. Weiterhin hat die Dampfmaschine durch die flächendeckende Versorgung mit elektrischer Energie ihre Funktion als zentrale Energiequelle eines Industrieunternehmens verloren, die sie lange Zeit innehatte. Im Steinkohlenbergbau wurden und werden noch Dampfmaschinen in Förderanlagen eingesetzt, denn dort kann die Dampfmaschine sowohl als Fördermaschine zum Heben von Kohle als auch als Bremse zum Herablassen von Versatzmaterial dienen. Beim Bremsen wird die Energie zur Erhitzung des Dampfes verwendet. Obwohl die Zeit der Kolbendampfmaschine schon lange vorbei zu sein scheint, ist eine Renaissance nicht ausgeschlossen. Einer ihrer Vorteile gegenüber dem Verbrennungsmotor ist ihr kontinuierlicher Verbrennungsvorgang, der sich emissionsärmer gestalten lässt. Ein weiterer Vorteil der Dampfmaschine ist ihre extreme Überlastbarkeit bei der Nachfrage von Leistungsspitzen. Durch den heute üblichen geschlossenen Kreislauf von Dampf und Speisewasser ergibt sich eine emissionsarme Schmierung von Zylinder und Kolben der Maschine. In diesem Sinne ist als modernisierte Dampfmaschine der Dampfmotor entwickelt worden. Im Auftrag der Volkswagen AG hat die IAV GmbH in den späten 1990er Jahren eine solche moderne „Dampfmaschine“ entwickelt, die über eine extrem emissionsarme externe Verbrennung einen gewissen Vorrat an hochgespanntem Dampf erzeugt, der dann wie beim Dieselmotor über Düsen je nach Energiebedarf eingespritzt wird. Ende 2000 ist hieraus die Firma Enginion hervorgegangen und hat aus dem ZEE-Prototypen (Zero Emission Engine) die heutige „SteamCell“ weiterentwickelt. Diese Maschine arbeitete im Zweitaktverfahren und kam außerdem ohne übliche Schmiermittel aus, weil die Verschleißteile aus modernen Kohlenstoffkomponenten gefertigt waren. Enginion musste 2005 Insolvenz anmelden. Der fliegende Holländer. Der fliegende Holländer, „Romantische Oper in drei Aufzügen“ (so die Originalbezeichnung), ist eine Oper von Richard Wagner, die 1843 uraufgeführt wurde. Den Stoff für die Handlung lieferte die Geschichte des niederländischen Kapitäns "Bernard Fokke" (siehe die "Sage vom Fliegenden Holländer"). Diesem gelang es – anders als vielen anderen Seefahrern – nicht, das Kap der Guten Hoffnung zu umfahren. Er versuchte, Gott und den Kräften der Natur zu trotzen, rang sie aber nicht nieder, weil er sie verfluchte, und war seither dazu verdammt, für immer mit seinem Geisterschiff auf den Weltmeeren zu kreuzen. Jedem, dem dieses Schiff mit schwarzem Mast und blutroten Segeln begegnete, war Unglück vorbestimmt. Richard Wagner schrieb die Oper unter dem Eindruck einer stürmischen Schiffsreise und verlegte die Handlung vom Kap der Guten Hoffnung in der Urfassung von 1841 nach Schottland, später dann nach Norwegen. Oft wird das Stück als sein Durchbruch zum eigenen Stil angesehen. Die Oper wurde in ihrer Urfassung 1841 vollendet und am 2. Januar 1843 mit mäßigem Erfolg am Königlichen Hoftheater in Dresden uraufgeführt. Bereits nach vier Aufführungen wurde sie wieder vom Spielplan genommen. Im Jahr 1860 hat Wagner dann die Urfassung überarbeitet, musikalisch wurde insbesondere die Ouvertüre und der Schluss verändert. Biografische Hintergründe und Entstehung. Richard Wagner im Jahre 1842 Richard Wagner trat im August 1837 am Theater in Riga die Stelle des Musikdirektors an. Dort wurde er 1837/38 durch die "Memoiren des Herren von Schnabelewopski" von Heinrich Heine erstmals auf die Sage vom "Fliegenden Holländer" aufmerksam. 1839 verlor er seine Anstellung und sah sich aus Furcht vor seinen Gläubigern, die er nicht bezahlen konnte, dazu gezwungen, die russisch-ostpreußische Grenze zu überschreiten und zu fliehen. Er buchte eine Passage auf dem Schoner/der Bark "Thetis" nach London. Die länger als zwei Wochen dauernde Reise war durch stürmische See verzögert worden, das Schiff geriet fast in Seenot. Wagner lernte sowohl im Hafen von Pillau als auch bei der Überfahrt nach England durch die Matrosen einige charakteristische Motive und Seemannsbräuche kennen. Unterwegs lief das Schiff wegen des tobenden Sturmes zweimal norwegische Häfen an, von denen einer, Sandwike, namentlich im Werk zitiert wird. – Alles Erlebte war für Wagner lebendiges Kolorit für das spätere Werk. Richard Wagner beschrieb in seiner Autobiografie "Mein Leben", wie nachhaltig diese zwei Wochen auf See ihm Stimmung und Charakter der Sage vor Augen führten und ihm zur Inspiration wurden. Er stützte sich zunächst auf Heines Erzählung, brachte aber eine entscheidende und wesentliche Änderung an: Er fügte die zusätzliche Figur des Erik ein, so dass seine weibliche Hauptfigur, die er dann Senta nannte, zwischen diesem tatsächlichen Geliebten und der erträumten mystischen Figur des "Holländers" hin- und hergerissen ist. Die Sehnsucht nach der ewigen Treue einer geliebten Frau ist das zentrale Thema dieses Werkes. Nach kurzem Aufenthalt in London reiste Wagner nach Paris, seinem eigentlichen Ziel, weiter. Im damaligen Zentrum der Musikwelt konnte er sich nur mit Mühe und durch schlecht bezahlte schriftstellerische und übersetzerische Tätigkeiten seinen Lebensunterhalt verdienen. In dieser Notsituation musste er auch seinen Entwurf für den "Fliegenden Holländer" an die Pariser Oper verkaufen (er wurde unter dem Titel "Le vaisseau fantôme" – „Das Geisterschiff“ von Pierre-Louis Dietsch vertont), da es ihm nicht gelang, selbst einen Kompositionsauftrag dafür zu bekommen. Er machte sich ab Anfang 1841 allerdings selbst an die Komposition des Werks, dessen Orchesterskizze er im August mit der Bemerkung „In Noth und Sorgen“ beendete; im November war mit der Partitur auch das Werk vollendet. Versuche, es in Berlin zur Uraufführung bringen zu lassen, blieben erfolglos. Richard Wagner verließ im April 1842 Paris Richtung Dresden, wo man sein Werk "Rienzi" zur Uraufführung angenommen hatte. Nach dem glänzenden Erfolg dieses Werks stand auch der Uraufführung seines "Fliegenden Holländers" nichts mehr im Wege, die dann bereits am 2. Januar 1843 ebenfalls am Dresdner Hoftheater stattfand. Erster Aufzug. Trotzdem wirbt er bei Daland um die Hand von dessen Tochter Senta. Daland, beeindruckt von den reichen Schätzen, die der Holländer auf seiner Fahrt gesammelt hat, stimmt zu. Nachdem der Sturm nachgelassen hat, segeln die beiden Schiffe in Richtung Dalands Heimat. Zweiter Aufzug. In einer Stube erwarten die Mädchen singend und spinnend die Rückkehr ihrer zur See fahrenden Liebsten. Nur Senta verweigert sich und trägt stattdessen die Ballade vom „Fliegenden Holländer“ vor, dessen Schicksal sie rührt. Senta wird vom jungen Jäger Erik umworben, der besorgt die Träumereien seiner Liebsten wahrnimmt, die immer vor dem düsteren Bild des Seefahrers alles Andere zu vergessen scheint. Senta fühlt sich berufen, den „armen Mann“ zu erlösen. Verzweifelt verlässt Erik das Mädchen, als Sentas Vater mit dem Holländer das Zimmer betritt. Senta weiß nun, dass ihr beschieden ist, das Erlösungswerk zu vollbringen. Zwischen ihr und dem Holländer entsteht ein inniges Einverständnis, und die Verbindung wird vorbereitet. Dritter Aufzug. Im dritten Aufzug rüsten die Seeleute zum Fest ("Steuermann lass die Wacht"). Verwegen versuchen sie auch die Mannschaft des Holländer-Schiffes einzuladen, doch aus dem Schiff schallt ihnen nur beängstigendes geisterhaftes Dröhnen entgegen, so dass sie entsetzt und verängstigt fliehen. Erik bittet Senta noch einmal, sich ihrer früheren Vertrautheit und Liebe zu entsinnen, und erinnert sie daran, dass sie ihm ewige Treue gelobt habe, was Senta erschrocken leugnet. Der eintretende Holländer hat das Gespräch mitgehört und ist sich sicher, dass auch Senta ihm nicht die erhoffte Treue halten kann und wird. Um sie vor der Verdammnis zu bewahren, erzählt er ihr (was sie längst weiß) von seinem Fluch ("Erfahre das Geschick, vor dem ich Dich bewahr"). Er eilt zu seinem Schiff, um auf ewig unerlöst zu bleiben. Doch Senta setzt ihm nach, verkündet nochmals laut, ihm "treu […] bis zum Tod" zu sein, und stürzt sich von dem Felsen ins Meer. Augenblicklich versinkt das Schiff des Holländers in den Fluten. Der Holländer ist erlöst. – In einer späteren Korrektur des Schlusses (1860) sieht man zur Musik mit dem „Erlösungsmotiv“ den Holländer und Senta aus dem Meer zum Himmel aufsteigen. Musik. Erinnerungsblatt an Mitwirkende der Zürcher Wagner-Konzerte 1853 Wagners „Holländer“, seine vierte vollendete Oper, steht an der Schwelle zum durchkomponierten Musikdrama. Während man ab Lohengrin von einer „unendlichen Melodie“ sprechen kann, herrscht im „Holländer“ noch der „Nummernoper-Charakter“ vor. Rezitative, Balladen, Arien, Duette und Chornummern sind noch deutlich zu erkennen. Um den „Balladencharakter“ des Werkes zu unterstreichen, sollte es nach der Intention Wagners ohne Pausen durchgespielt werden, was jedoch nicht immer praktiziert wird. Im Zentrum des Werks steht die Ballade der Senta, die den eher schroffen Charakter des gesamten Werks gut zusammenfasst. Der düstere und impulsive Ton wird aber bereits durch die stürmische Ouvertüre des Werks angeschlagen. In diesem Ton ist auch die Arie des Holländers bei seinem Auftritt im ersten Aufzug gehalten. Die Vorherrschaft geschlossener Liedformen zieht sich über die ersten beiden Bilder. Charakteristisch für die gesamte Oper ist die musikalisch eindrückliche Darstellung der Naturgewalten. Streicher lassen hohe Wogen an die zerklüftete norwegische Küste donnern, Unwetter und Blitze werden durch Blechbläser, vor allem Posaunen und Trompeten, und prägnante musikalische Motive bezeichnet. Fast schaurig wirkt das „Johohoe“ der Matrosen des Geisterschiffs, während die Welt Dalands und seiner Männer eher biedermeierlich gemütlich gezeichnet ist. Als einer der berühmtesten Opernchöre zeigt der "Matrosenchor" zu Beginn des dritten Bildes die Unvereinbarkeit von Wirklichkeit und Vision: das scheinbar so kräftige Lied der Matrosen Dalands wird langsam überlagert und geradezu aufgesogen von den unwirklichen Klängen aus dem Holländerschiff. Bemerkenswert erscheint, dass der Komponist noch 1880, drei Jahre vor seinem Tod (1883), an eine Umarbeitung und Verbesserung seines längst überall erfolgreich gespielten Werks von 1841 dachte. Bei den Bayreuther Festspielen wurde "Der fliegende Holländer" erstmals 1901 in einer Inszenierung von Siegfried Wagner und unter der musikalischen Leitung von Felix Mottl aufgeführt. Damit war der „Kanon“ der bis heute in Bayreuth zur Aufführung kommenden Werke Wagners vollständig. Spieldauer (am Beispiel der Bayreuther Festspiele). Bei den Bayreuther Festspielen war es üblich, die Länge der einzelnen Aufzüge zu dokumentieren, jedoch wurden dort nicht alle Jahre erfasst. Die Dauer unterschied sich auch beim gleichen Dirigenten von Jahr zu Jahr und Aufführung zu Aufführung. Einfluss auf die Dauer hatten auch die Art der Stimme und das Temperament der Sänger. Digitaldruck. Digitaldruck (auch kurz „Digidruck“) bezeichnet eine Gruppe von Druckverfahren, bei denen das Druckbild direkt von einem Computer in eine Druckmaschine übertragen wird, ohne dass eine statische Druckform benutzt wird. Bei dem Drucksystem handelt es sich meist um ein elektrofotografisches Drucksystem wie einen Laserdrucker, der für hohe Auflagenzahlen konstruiert ist. Auch andere Verfahren finden Verwendung, beispielsweise Tintenstrahldruck für großformatige Plakate und Poster. Druckverfahren. Anders als zum Beispiel im Offsetdruck wird beim Digitaldruck keine feste Druckvorlage (Druckform) benötigt, so dass jeder Bogen anders bedruckt werden kann (NIP = Non Impact Printing). Das auch als "Direct Digital Printing" (DDP) bezeichnete Verfahren ermöglicht personalisierte Drucke wie Rechnungen, Kreditkartenabrechnungen, Kontoauszüge oder auch gezielt auf den Empfänger abgestimmte Werbung (siehe Direktmarketing). Außerdem können mehrseitige Dokumente ohne Wechsel der Druckform sofort in der richtigen Reihenfolge gedruckt werden, ein späteres Zusammentragen (Sortieren) entfällt. Zusätzlich kann das Drucksystem weitere Einrichtungen zum Schneiden und Binden aufweisen. Dadurch wird die Fertigung kompletter Druckprodukte in kürzester Zeit möglich. Mittlerweile gibt es eine Reihe an unterschiedlichen Digitaldruckvarianten. Hierzu gehören die Tintenstrahl- oder Laserdrucker, die hauptsächlich für sehr kleine Auflagen im privaten Bereich genutzt werden. Danach kommen die sogenannten „Schnellkopierer“, die häufig dem Laserdrucker gleichen, aber deutlich höhere Durchsätze in weniger Zeit erreichen. Diese werden meistens in Copyshops oder firmeninternen „Druckereien“ eingesetzt. Einen großen Bereich nehmen allerdings auch die industriellen Systeme ein. Viele tonerbasierende Gerätefabrikate (wie z.B. HP, Canon, Xerox, Ricoh, Konica-Minolta), aber auch namhafte Offsetgerätehersteller (wie z.B. Heideldruck, ManRoland, KBA) versuchen mit Neuentwicklungen in diesem wachsenden Markt Fuß zu fassen. Auch im Großformat (Large Format) werden zunehmend digitale Tintenstrahlsysteme eingesetzt, die annähernd Offsetdruckqualität auf den verschiedensten Bedruckstoffen ermöglichen. Hier wird mit dem flüssigen "Electro-Ink-Verfahren" Druckfarbe auf das Material aufgebracht. Bei dieser Produktionsart werden Druckbreiten von bis zu 5 Metern erzielt. Diese sind meistens Rollensysteme, auf denen wetterfeste Materialien (z.B. PVC-Banner, Meshgewebe, Canvas-Leinen etc.) bedruckt werden. Diese sind für mehrere Jahre im Außenbereich nutzbar, witterungsbeständig und farbecht. Die neueste Generation der Digitaldrucksysteme stellt der „Plattendirektdruck“ dar. Auf diesem System können starre Materialien meistens im "UV-Inkjet-Verfahren" bedruckt werden. Je nach System ist der Bedruckstoff nur von der Dicke her relevant. Es können Materialien wie z.B. Kunststoffe, Holz, Glas, Metalle, Stein, Papier etc. bedruckt werden. Einsatzgebiete. Digitaler Druck ist für kleinere Auflagenzahlen kostengünstiger als Offsetdruck. Personalisierte Drucke sind wirtschaftlich überhaupt nur im Digitaldruck möglich, mitunter werden z.B. bei der Katalogproduktion Digitaldruck einerseits und Offset- bzw. Tiefdruckverfahren andererseits kombiniert. Da inzwischen im Digitaldruck günstige Fertigungskosten erzielbar sind, erscheinen heute bereits viele Bücher (noch) unbekannter Autoren – teilweise auf eigenes Risiko oder über kleine Verlage – zu marktfähigen Preisen und in handelsüblicher Qualität. Mit dem Herausbringen von solch digital gedruckten Kleinauflagen hat man zwar höhere Stückkosten, aber kann bei z.B. unter 100 Büchern mit wesentlich weniger Investition in einen Markttest der Auflage auskommen. Ein neues Feld für den Digitaldruck bietet auch ein personalisiertes Buch. Einen Boom erlebt der Digitaldruck derzeit durch Digitalfotografie. Fotobücher, Kalender, Grußkarten usw. werden millionenfach direkt von Konsumenten hergestellt. Ein weiteres Einsatzgebiet des Digitaldrucks ist auch der "Large Format Print" (Großformatdruck). U.a. kann dieser zur Herstellung individueller Tapeten eingesetzt werden. Stärken und Schwächen. Digitaldrucke besitzen eine hohe Universalität und unter dem Gesichtspunkt des individuellen Druckens ein sehr gutes Preis-Leistungs-Verhältnis. Eine Schwäche des Digitaldrucks ist die Passgenauigkeit auf doppelseitigen Drucken, die durch das nicht aufliegende Druckmedium auf der Druckfarbe während des Drucks entsteht, zum Beispiel beim Tintenstrahldrucker, der die Farbe aus einer bestimmten Höhe auf das Medium aufbringt. Abgrenzung. Der Übergang zwischen einem leistungsfähigen Fotokopierer und einem Digitaldrucksystem ist fließend. Digitaldrucksysteme weisen oft noch Möglichkeiten zum Speichern der Druckvorlage auf. Sie drucken mit höherer Bildqualität, sind zuverlässiger und produktiver als Kopierer. Im digitalen Farbdruck wird außerdem die genaue farbtreue Wiedergabe von Vorlagen oder bestimmter normierter Farbtöne unterstützt. Um eine hohe Farbgenauigkeit zu erreichen, gibt es meist aufwändige Einstellungen und Kalibrierungen, das so genannte Farbmanagement. Digitaldrucksysteme haben mehr Möglichkeiten, die Anordnung der Seiten eines Dokuments auf dem Bogen zu steuern. Mehrere kleinere Seiten können auf einem großen Bogen angeordnet werden (Nutzenmontage). Falzen und Binden der Drucke zum fertigen Produkt werden vorbereitet. Das Beschneiden wird durch zusätzlich aufgedruckte Schneidmarken und geeignete Ränder vereinfacht. Digitaldruck kann jedoch auch im Zusammenspiel von aufeinander abgestimmten Einzelarbeitsplätzen und Maschinen verschiedener Hersteller erfolgen. Dies ermöglicht die Auswahl mehrerer Drucktechniken mit ganz speziellen Eigenschaften (Tintenstrahldruck, Wachsdruck, digitaler Siebdruck, Laserdruck usw.) – sowie wesentlich breitere Auswahl bei der Weiterverarbeitung nach dem Druck. Herkömmliche Druckereien betreiben den Digitaldruck als Angebotsergänzung vorzugsweise mit einem einzigen Multifunktionsgerät (meist Laserdruck). Kombinationen verschiedener Fertigungsschritte. Dagegen arbeiten spezielle Digitaldruckereien lieber mit für jede Teilaufgabe idealen Maschinen. So ist der Umschlagdruck mit Tinte bei anschließendem Schützen durch das Laminieren/Kaschieren/Cellophanieren z.B. unempfindlich gegen abplatzende Farbschichten an Knicken, Falzen, Nuten und Schnitträndern, aber auch weniger kratzempfindlich gegenüber aufgebrachten Lack-, Wachs- oder Tonerschichten. Laminierfolie hält auf farbintensiven Laserdrucken und Wachsdrucken wegen des Trennmittels Silikonöl nur unzuverlässig am bedruckten Umschlag, jedoch bestens auf mit Tinte bedruckten Bogen. Beim Druck von einfarbigen Seiten oder bunten Bildern im Buch lassen die Druckkosten oft andere Verfahren zum Zuge kommen. Digital hergestellte Drucke wie Briefpapier (Kopfbogen) und Formulare erzwingen die Abstimmung mit dem danach beim Kunden verwendeten Druckverfahren. Nutzt dieser heiße Drucktechnik (Laserdrucker, Wachsdrucker), dann verbietet sich das Auftragen von später im Drucker des Kunden schmelzenden Farbschichten. Handschriftlich auszufüllende Formulare neigen bei Wachs- und Laserdruck dazu, dass darauf Füller und Kugelschreiber ohne Farbabgabe hin- und herkratzen. Heiß aufgetragene Farbschichten sind eher geeignet für den letzten Gang im Druck. Wachsdruck (von Tektronix/Xerox) erzielt die mit Abstand höchste Leuchtkraft und Intensität bei Farben durch den dicksten Farbauftrag. Tintenstrahldruck, Laserdruck und digitales Eloxal-Verfahren. Tintenstrahldrucke bieten auf Spezialpapier derzeit eine qualitativ akzeptable Auflösung und fotoähnliche Qualität. Farblaserdrucker sind bei regelmäßiger Auslastung oft die billigste Anschaffung bei geringstem Pauschalseitenpreis. Es gibt auch vom Band druckende schnelle Digitaldruckmaschinen, die problemlos ganze Räume ausfüllen, Tinte in eimergroßen Tanks vorhalten und deren Tinten-Druckköpfe die ganze Druckbreite überspannen und deshalb nicht zeitraubend hin- und herpendeln müssen. Bei solchen Großanlagen entscheiden vor allem die Auslastung und der Kreditzinssatz der Mehrere-Millionen-Euro-Investition über den pauschalen Seitenpreis. Spezielle digitale Großformatdrucker können Stoffbahnen, Bretter, Bleche und andere Materialien bedrucken – sogar Torten, wofür zugelassene Lebensmittelfarben verfügbar sind. Beim digitalen Eloxal-Verfahren werden die Druckfarben unter einer glasklaren schützenden Eloxalschicht fest im Aluminium eingebettet. Dadurch sind die Aluminium-Schilder sehr widerstandsfähig gegen mechanische, thermische und chemische Belastungen. DVCAM. DVCAM ist ein digitales Videoformat, das 1996 eingeführt wurde. Es handelt sich um die von Sony hergestellte professionelle Variante von "Consumer DV" (Digital Video). Die einzigen veränderten Merkmale sind Spurbreite von 10 µm auf 15 µm und eine schnellere Bandgeschwindigkeit (2,8 cm/s gegenüber "Consumer DV" mit 1,9 cm/s), woraus eine verkürzte Kassettenlaufzeit resultiert, aber auch eine geringere Fehlerquote auf den Bändern. Die gleichen Informationen werden auf „mehr“ Band geschrieben. Als Bandmaterial wird wie bei DV bedampftes Metallband verwendet. Es existieren Standard- und Kompakt-Kassetten wie auch bei Consumer DV, mit Laufzeiten von bis zu 184 bzw. 40 Minuten. Ein erwähnenswerter Unterschied zu DV ist noch die 4-fache Abspielgeschwindigkeit. Beispielsweise kann man über die SDTI-Schnittstelle Bandmaterial in 4-facher Geschwindigkeit über ein Schnittprogramm auf eine Festplatte kopieren. DVCAM-Player und Rekorder sind DV- (bzw. mini-DV-) kompatibel. Des Weiteren arbeitet DVCAM im "Locked Audio-format" (die Audio- und Video-Informationen sind gekoppelt). Im Gegensatz dazu ist bei "Consumer DV" eine maximale Abweichung zwischen Bild und Ton von ±⅓ Vollbild ("frame") erlaubt. Dänische Sprache. Geografische Verteilung der dänischen Dialekte, die sich grob in jeweils eine jütländische, inseldänische und ostdänische Dialektgruppe (wo auch der schonische Dialekte eingeordnet werden kann) einsortieren lassen. Die dänische Sprache (dänisch "dansk sprog, det danske sprog"), kurz Dänisch "(dansk)," gehört zu den germanischen Sprachen und dort zur Gruppe der skandinavischen (nordgermanischen) Sprachen. Zusammen mit Schwedisch bildet es den "ostskandinavischen" Zweig. Dänisch ist die alleinige Landessprache von Dänemark und als Reichsdänisch "(rigsdansk)" standardisiert. Der "Language Code" ist "da" bzw. "dan" (nach ISO 639). Verbreitung. In Dänemark wird das Dänische von ca. 5 Millionen Muttersprachlern gesprochen. Weitere Muttersprachler verteilen sich vor allem auf Grönland und die Färöer (beide politisch zu Dänemark gehörend), Südschleswig, Island, Norwegen und Schweden, daneben auf Argentinien, Kanada und die USA, z. B. im kalifornischen Solvang. In den früheren dänischen Kolonien in West- und Ostindien sowie an der Goldküste hatte Dänisch nie mehr als einen marginalen Status; erhalten haben sich bis heute gewisse Orts- und Festungsnamen in dänischer Sprache. Status. Dänisch ist de facto die Amtssprache in Dänemark, ohne dass dies rechtlich irgendwo festgehalten wäre. Es ist zweite Amtssprache in Grönland (neben Grönländisch) und auf den Färöern (neben Färöisch). Auf Island wird es als Pflichtfach unterrichtet, hat aber 1990 den Status als erste Fremdsprache an das Englische verloren. In Südschleswig hat es den Status einer Regional- und Minderheitensprache. Seit 1973, als Dänemark der EU beitrat, ist Dänisch offizielle EU-Sprache. Im bis 1864 dänisch verwalteten Südschleswig sprechen von den ca. 50.000 Angehörigen der dänischen Minderheit 8.000–10.000 deutsche Staatsbürger Dänisch im Alltag bzw. 20.000 Dänisch als Muttersprache in unterschiedlichen Dialekten: "reines" Standarddänisch, Sydslesvigdansk, Sønderjysk. Von den rund 250.000 Einwohnern Nordschleswigs gehören ca. 15.000 der autochthonen deutschen Minderheit an. Dänisch ist in Schleswig-Holstein durch die Landesverfassung besonders geschützt. Dänischunterricht gibt es sowohl an dänischen als auch deutschen Schulen, vor allem im Landesteil Schleswig. Seit 2008 gibt es auch für Flensburg zweisprachige Ortsschilder (dänisch "Flensborg"). Obwohl es vom Wortschatz her stark vom Niederdeutschen beeinflusst ist, ist die Sprachgrenze zu den deutschen Dialekten in linguistischer Hinsicht keine fließende, sondern eine harte (vgl. hingegen die Sprachgrenze zwischen dem Deutschen und dem Niederländischen). Sie verlief historisch auf einer Linie Eider – Treene – Eckernförde. Seit dem Hochmittelalter (ca. 1050 bis 1250) setzte sich jedoch auch nördlich der Eider die deutsche Sprache immer stärker durch. Heute ist die deutsch-dänische Grenze zugleich weitestgehend Sprachgrenze. Skandinavische Sprachgemeinschaft. Zum Teil stehen die heutigen skandinavischen Schriftsprachen einander näher als die am stärksten abweichenden Dialekte des jeweiligen Landes; andererseits gibt es auch spezifische dänische, schwedische bzw. norwegische Sprachcharakteristika. Die Dialektgrenzen zwischen den Sprachen stellen weiche Übergänge dar, man spricht von einem Dialektkontinuum Dänisch-Norwegisch-Schwedisch. Aus politischer und kultureller Tradition wurde jedoch an drei eigenständigen Sprachen festgehalten. Entscheidend dafür ist, dass in Dänemark und Schweden spätestens im 16. Jahrhundert eigene normierte Schriftsprachen entwickelt wurden. In Norwegen geschah dies erst mit der Selbständigkeit im 19. Jahrhundert und führte zu zwei Schriftsprachen, weil die gebildete Schicht bis dahin Dänisch als Hochsprache beibehielt. Dänisch, Norwegisch und Schwedisch. Die Bokmål-Variante des Norwegischen ist linguistisch gesehen ein dänischer Dialekt mit norwegischen Einflüssen. Kulturhistorisch wird es aber als eine der zwei offiziellen norwegischen Schriftsprachen angesehen und auch von seinen Anwendern deutlich als norwegisch empfunden. Die Anhänger des Nynorsk, das auf den Dialekten basiert, haben dagegen oft gegen diese „dänische“ Sprache der Stadtbevölkerung und Oberschicht polemisiert. Vom Linguisten Max Weinreich wird der Ausspruch "Eine Sprache ist ein Dialekt mit einer Armee und einer Marine" überliefert, der auch auf Skandinavien zutrifft. Linguistisch gesehen "könnten" Dänisch, Schwedisch und Norwegisch als Dialekte derselben Sprache angesehen werden, da die Sprachen noch immer gegenseitig verständlich sind. Allerdings gibt es eine solche Dachsprache nicht. Man bedient sich zur interskandinavischen Kommunikation immer einer der drei Einzelsprachen. So spricht jeder „Skandinavisch“ auf seine Art. Dänisch, Schwedisch und Norwegisch bilden die Gruppe der festlandskandinavischen Sprachen. Norwegisch ist aber eine westnordische Sprache im Gegensatz zu Dänisch und Schwedisch. Sie entwickelten sich aus einer gemeinsamen urnordischen Sprache; bedeutender war aber, dass die skandinavischen Länder durch die Jahrhunderte immer in enger politischer, kultureller und wirtschaftlicher Verbindung standen und auch in großem Umfang die gleichen Lehnwörter aus dem Niederdeutschen, Französischen und Niederfränkischen übernahmen. Dabei stand das „kontinentale“ Skandinavien im Gegensatz zum "Inselskandinavischen" auf den Färöern und Island, das ein altertümliches (altnordisches) Gepräge behalten hat. Freilich bestehen ähnliche sprachliche Verwandtschaften beispielsweise auch zwischen Tschechen und Slowaken. Jedoch dürfte die skandinavische Sprachgemeinschaft durch ihre politischen Bestrebungen, die Sprachen nicht voneinander zu entfernen, einmalig sein. Die Übereinstimmungen im Wortschatz liegen im Falle von Dänisch und Norwegisch bei schätzungsweise über 95 %, bei Dänisch und Schwedisch um 85–90 %. Dabei kann die faktische Verständigung in der gesprochenen Sprache durchaus von der Angewöhnung abhängen; in neuester Zeit kommt es auch vor, dass sich Skandinavier auf Englisch unterhalten. In der Schriftsprache besteht weitgehende gegenseitige Verständlichkeit, sodass auch Nichtskandinavier mit dänischen Sprachkenntnissen norwegische und schwedische Texte verstehen können (und umgekehrt). Von Ostskandinavisch zu Südskandinavisch. Der ostskandinavische oder schwedisch-dänische Zweig wird hauptsächlich durch die sog. "ostskandinavische Monophthongierung" (ab 800) von den westskandinavischen Sprachen (Isländisch, Färöisch, Norwegisch) unterschieden. Dialekte. Die auf der Ostseeinsel Bornholm und in Jütland gesprochenen Dialekte sind nur schwer verständlich für Nichtmuttersprachler. Das Schonische wird aus dänischer Sicht als ostdänischer, in schwedischer Sicht als südschwedischer Dialekt aufgefasst. Das von vielen dänischen Südschleswigern gesprochene Südschleswigdänische ist eine stark norddeutsch beeinflusste Variante des Reichsdänischen, deren linguistische Eingruppierung als bloße Varietät, Dialekt oder Kontaktsprache noch nicht abgeschlossen ist. Soziolekte. Die traditionellen Dialekte wurden in den letzten Jahrzehnten allerdings zunehmend von der Standardsprache verdrängt. In den größeren Städten sind hingegen urbane Soziolekte entstanden (z. B. "vulgärkopenhagenerisch"), die sich auch auf das Land ausbreiten. Die soziale Ausdifferenzierung des Dänischen findet besonders seit der 2. Hälfte des 20. Jahrhunderts statt. Die Aussprachevarietäten verschiedener sozialer Schichten und Generationen ist im Dänischen ausgeprägter als in anderen germanischen Sprachen. Nur Englisch ist hier vergleichbar. Mischsprachen. Verwandt mit dem Dänischen ist das Petuh in Flensburg. Das Petuh beruht teilweise auf dänischer Grammatik (Satzbau), einer Reihe Danismen, ist aber vom Wortschatz her dem Hoch- und Niederdeutschen sehr ähnlich, so dass es dort eingeordnet und auch als "Petuh-Tanten-Deutsch" bekannt ist. Es stammt aus dem 19. Jahrhundert und kann als der Versuch von Dänen verstanden werden, Deutsch zu sprechen. Das Schleswigsche in Angeln, das dort das einstige Angeldänisch verdrängt hat, ist ebenfalls von Danismen geprägt und weicht von den südlicheren niederdeutschen Dialekten ab; der Sprachenwechsel fand hier erst im 19. Jahrhundert statt. Weiter gab es bis ins 20. Jahrhundert das Kreoldänische in Dänisch-Westindien, das aber mittlerweile von niemandem mehr gesprochen wird und auch nicht in Schriftform erhalten geblieben ist. Danistik und Dänischunterricht in Deutschland. "Danistik" ist die dänische Philologie. In der Praxis wird sie immer in Zusammenhang mit den anderen skandinavischen Sprachen als Skandinavistik (auch: Nordistik) ausgeübt. Größere Institute für Skandinavistik befinden sich in Berlin, Greifswald und Kiel. In Südschleswig gibt es eine Reihe dänischer Schulen, die für die dänische Minderheit gedacht sind. Da sie seit mittlerweile über 60 Jahren auch von Kindern deutscher Muttersprachler besucht werden, was möglich ist, wenn sich die Eltern ebenfalls Dänisch aneignen (Elternabende finden in der Regel auf Dänisch statt), sind die dänischen Muttersprachler hier inzwischen in der Minderheit. Innerhalb der Minderheit ist deswegen die Frage strittig, ob der Erfolg des dänischen Schulwesens über die Kerngruppe hinaus erwünscht sei oder ob er eher zu einer Verdünnung der Identität führe. Da jedoch das Prinzip des freien Bekenntnisses für die Zugehörigkeit zur Minderheit gilt, lassen sich keine ethnischen Kriterien aufstellen. Bekannteste und traditionsreichste dänische Schule in Deutschland ist die Duborg-Skolen in Flensburg, die bis 2008 das einzige dänische Gymnasium in Deutschland war. Mit der A. P. Møller-Skolen wurde am 1. September 2008 in Schleswig ein weiteres dänisches Gymnasium eröffnet; es ist ein Geschenk im Wert von 40 Mio. € des Kopenhagener Schiffsreeders Mærsk McKinney Møller an die dänische Minderheit in Deutschland. In Schleswig-Holstein gibt es darüber hinaus eine Reihe öffentlicher deutscher Schulen, an denen Dänischunterricht als Fremdsprache angeboten wird. Danismen. Als Danismus wird eine dänische Ausdrucksweise oder Bedeutung bezeichnet, die in eine andere Sprache eingeflossen ist. Einen starken Einfluss übte das Dänische im Mittelalter auf das Altenglische und damit auf die moderne englische Sprache aus, da Teile des angelsächsischen Ostenglands (Danelag) vom unter anderem aus Dänemark stammenden Großen Heidnischen Heer besetzt worden waren und in der Folge dauerhaft besiedelt wurden; genetisch sind sie kaum von den norwegischen Lehnwörtern zu unterscheiden. Oft stehen im heutigen Englisch das skandinavische Lehnwort und das aus dem Altenglischen ererbte Erbwort nebeneinander, wobei das Erbwort bedeutungsmäßig eingeschränkt oder sonstwie spezialisiert ist. Beispiele sind: dän. "dø" (,sterben‘) → engl. "die" (daneben noch: "starve",hungers sterben, verhungern‘), altdän. "take" (bzw. neudän. "tage;",nehmen‘) → engl. "take" (daneben noch: "nim",stibitzen, klauen‘; "numb",benommen, taub, vom Finger‘), dän. "kaste" → engl. "cast" (daneben noch: "warp",werfen, verziehen, vom Holz‘), dän. "sky" (,Wolke‘) → engl. "sky" (‚Himmel‘, veraltet ‚Wolke‘, daneben noch: "heaven",Himmel im religiösen Sinn‘). Eine nennenswert von Danismen beeinflusste Sprache ist im Weiteren das Färöische, wobei viele als Danismen empfundene Wörter ihrerseits Lehnwörter aus dem Deutschen bzw. Niederdeutschen sind (siehe Färöische Sprachpolitik). Norwegisch (Bokmål) wurde aufgrund der Jahrhunderte anhaltenden politischen Bindung des Landes an Dänemark stark beeinflusst. Fremdsprachliche Einflüsse auf das Dänische. Besonders bedeutend ist der Einfluss des Deutschen, speziell (und über Vermittlung durch die geographische Nähe und den Handel) des Niederdeutschen im ausgehenden Mittelalter und der frühen Neuzeit. So besteht ein großer Teil des dänischen Vokabulars (etwa 50–60 %) aus niederdeutschen Lehnwörtern und Lehnübersetzungen. Das macht Deutsch-Sprechern das Erlernen des Dänischen einfacher. Viele Begriffe kann man durch Raten selbst finden, wenn man weiß, auf welche Art ins Dänische lehnübersetzt wurde. Deutsch war bis ins 19. Jahrhundert gleichzeitig Sprache am dänischen Hof. Es galt also als vornehm, ähnlich wie Französisch am preußischen Hof. Das beförderte die Übernahme deutscher Begriffe. Im heutigen Dänisch gibt es sodann – wie im Deutschen auch – eine große Anzahl sogenannter Internationalismen (in den letzten Jahrzehnten verstärkt Anglizismen). Dennoch ist Dänisch eine skandinavische Sprache, es existiert also eine harte Sprachgrenze zum Hochdeutschen. Diese andere Herkunft unterscheidet es in Genese und Struktur der Sprache mehr vom Deutschen als etwa das Englische, das wie das Deutsche westgermanischer Herkunft ist. Wenn dennoch des Öfteren besonders im Bereich des Wortschatzes eine größere Ähnlichkeit des Deutschen mit dem Dänischen als mit dem Englischen festzustellen ist, dann beruht das allein auf sekundären Gründen, nämlich einerseits auf der erwähnten niederdeutschen Beeinflussung des Dänischen und andererseits auf der starken Beeinflussung des Englischen während des Mittelalters durch das Französische. Das dänische Alphabet. Dänische Tastatur mit den Buchstaben Æ, Ø, und Å. Diese drei Sonderbuchstaben stehen am Ende des Alphabets, also so: A, B, C, […] X, Y, Z, Æ, Ø, Å (Aa). Im "deutschen Schriftsatz" gilt, dass diese drei Buchstaben in dänischen Namen, Stichwörtern und Zitaten oder gar im Gebrauch des Dänischen selbst niemals mit Ä, Ö, und Aa umschrieben werden sollen (obwohl Dänen das dennoch entziffern könnten). Dies gilt analog für das Internet, mit Ausnahme von Domains, wobei im letzteren Fall die Umschrift nicht immer eindeutig ist: beispielsweise ist der Sänger Stig Møller unter "stigmoe'"ller.dk" im WWW vertreten, während die Sängerin Lis Sørensen unter der Adresse "lisso'"rensen.dk" zu finden ist. Weitere Ausnahmen außerhalb des Internets bilden nur Personennamen wie z. B. Kierkegaard, hierbei handelt es sich um die Erhaltung der alten Rechtschreibung. Früher wurde in der Handschrift "Ø" und "ø" oft durch "Ó " und "ó" "(O mit Akut)" ersetzt. Heute sieht man das etwas seltener, aber es dreht sich da nur um die verwendete Schreibschrift. Bis 1875 wurde die Frakturschrift, genannt ‚gotisk skrift‘ „gotische Schrift“ verwendet, danach die ‚skråskrift‘, bis diese am Ende des 20. Jahrhunderts allmählich von der ‚formskrift‘ (1952 nach norwegischer Vorlage von Alvhild Bjerkenes von Christian Clemens Hansen in Dänemark eingeführt) fast ersetzt wurde. Für Computerbenutzer gibt es zahlreiche Hilfsmittel, die die Verwendung dänischer (und andersartiger) Sonderbuchstaben und Akzente erleichtern. So kann unter GNU/Linux und Mac OS X eine Tastatur-Variante gewählt werden, die das tatsächliche Layout um verschiedene Sonderzeichen erweitern kann. Alternativ kann auch auf Zeichentabellen (z. B. kcharselect, charmap.exe etc.) zurückgegriffen werden. Auf vielen UNIX-Systemen kann man diese Zeichen auch mit „Compose“ + „a“ + „e“, „Compose“ + „/“ + „o“ und „Compose“ + „*“ + „a“ eingeben. Unter Mac OS X kann man einzelne Sonderzeichen mit Hilfe der Wahltaste "alt" erzeugen: alt+a für å, alt+o für ø und alt+ä für æ. Die dänischen Großbuchstaben erhält man durch Benutzung der deutschen Großbuchstaben. Unter Windows können die Zeichen durch Druck auf die Alt-Taste und Eingabe der Zeichencodes aus Codepage 850 (siehe nebenstehende Tabelle) auf dem Ziffernblock der Tastatur eingegeben werden. Die HTML-Codes der Sonderzeichen sind ebenfalls in der nebenstehenden Tabelle angegeben. Vokale. Das Dänische besitzt 15 kurze und 12 lange Monophthonge. Alternativ können sie analysiert werden als bestehend aus Vokal und. Konsonanten. Das Dänische hat 17 Konsonanten. Hans Basbøll, "The phonology of Danish", Oxford 2005. Der Stoßlaut (Stød). Nur die Dialekte im Südosten haben keinen "stød". Im grün markierten Gebiet gibt es stattdessen einen tonalen Akzent, im blauen Gebiet weder Akzent noch Stoßton. Der Stød ist eine Laryngalisierung, die lange Vokale und gewisse Konsonanten begleitet. Es gibt heute keine einheitlichen Regeln mehr dafür, wo und wann der Stød Anwendung findet; ursprünglich war der Stød einfach ein Merkmal im Satz betonter einsilbiger Wörter mit langem Vokal oder mit stimmhaften Konsonanten im Auslaut. Dies ist nicht nur eine Frage des Dialekts, sondern auch des Soziolekts, wobei gilt, dass gehobenere Schichten den Stød öfter verwenden und dass er im Süden des gesamten Sprachgebiets fehlt. Zudem gibt es einige Fälle, in denen gleichgeschriebene Wörter durch den Stød einen Bedeutungsunterschied erfahren, z. B. 'anderer' ~ 'die Ente', 'das Atmen' ~ 'der Geist', ['hεnɐ] 'geschieht' ~ ['hɛnˀɐ] 'Hände'. Der dänische Stød hat in seinen skandinavischen Verwandten, dem Schwedischen und dem Norwegischen, seine Entsprechung im ‚einfachen‘ musikalischen Akzent 1, der ursprünglich auch nur in einsilbigen Wörtern vorkam. Siehe auch: Akzente in den skandinavischen Sprachen. Vokalqualitäten. Die dänischen Vokale ähneln den deutschen, doch sind manche nicht identisch. Grundsätzlich sind alle Vokale vor oder nach dem /r/ (das uvular gesprochen oder vokalisiert wird) offener. Das /a/ wird heller ausgesprochen (ähnlich dem Englischen). Das Å wird kurz und in der Stellung nach "r" ausgesprochen wie das deutsche "o" in "Torte;" sonst ungefähr wie im französischen "chose". Stumme Konsonanten. Wenn beklagt wird, dass das Dänische bei weitem nicht so gesprochen werde, wie man es schreibe, so liegt das zum großen Teil nicht nur am "weichen D" (das weicher ist als das englische "th" in "that"), sondern auch daran, dass diverse historische Konsonanten stumm geworden sind bzw. umgekehrt gesagt: dass längst nicht mehr gesprochene Konsonanten immer noch geschrieben werden. Betroffen hiervon sind meist im Auslaut oder im Wortinneren befindliche /d/, /g/, /t/ und andere Konsonanten. Zum Beispiel wird "det" (deutsch: "das") nicht etwa [det] ausgesprochen, sondern immer [de]. Auch z. B. die Pronomen "mig" und "dig" werden anders gesprochen als geschrieben: ['mai] bzw. ['dai]. Nicht alle dieser stummen Konsonanten, die die Schrift kennt, sind etymologisch gerechtfertigt; so wurde das /d/ etwa in "finde" ursprünglich gesprochen (vgl. deutsch "finden"), wogegen es etwa in "mand" eine rein analogische Schreibung repräsentiert (vgl. deutsch "Mann"). "-er" im Auslaut verfärbt sich wie im Deutschen zu einer Art Vokal, "hammer" = (ähnlich dem deutschen "Hammer"). "En snegl på vejen er tegn på regn i Spanien" "Eine Schnecke auf dem Weg ist ein Zeichen für Regen in Spanien" Lautentsprechungen. Einige Regeln kann man (bei einigen Ausnahmen) aufstellen. Grammatische Geschlechter. Die dänische Standardsprache kennt zwei grammatikalische Geschlechter, das Neutrum und das Utrum. Im Utrum sind die ursprünglichen indogermanischen Genera Maskulinum und Femininum zusammengefallen. Welchem Genus ein Substantiv angehört, ist an seiner Endung zu erkennen. Flexion. Das Dänische kennt mit Ausnahme des Genitivs keine Kasusbeugung der Substantive. Der Genitiv wird einheitlich durch Anhängen der Endung -s gebildet: Københavns Lufthavn (‚Kopenhagener Flughafen‘) Bestimmtheit. Um zu unterscheiden, dass es sich um "ein" Kind handelt, und nicht "zwei", kann man einen Akzent setzen: "ét" barn – to børn (‚"ein" Kind‘ – ‚zwei Kinder‘). Ist der Stammvokal kurz, so muss der auslautende Konsonant verdoppelt werden: rum (‚Raum‘) → rummet (‚der Raum‘) bzw. rummene (‚die Räume‘). Tritt ein Adjektiv hinzu, wird die Bestimmtheit wie im Deutschen durch einen vorangestellten bestimmten Artikel ausgedrückt. Flexion des Positivs. Manden er stor, barnet er stort, børn er store (,der Mann ist groß, das Kind ist groß, die Kinder sind groß‘) Steigerung. ny (,neu‘) → nyere (neuer), nyest (neu[e]st) Der Komparativ zeigt keine weiteren Flexionsformen, der Superlativ kennt Nullendung und -e. Bei den meisten drei- und mehrsilbigen Adjektiven sowie bei Fremdwörtern und Partizipien ist die Steigerung auch mit mere und mest möglich: intelligent → mere intelligent, mest intelligent Personalpronomen. Die 2. Personen Plural I wird im Nominativ immer groß geschrieben, die 3. Person Plural in Nominativ und Objektiv dann, wenn sie als Höflichkeitsform De, Dem fungiert. Possessivpronomen. In der 3. Person Plural wird De, Deres mit Großbuchstaben geschrieben, wenn sie als Höflichkeitsformen fungieren. Grundzahlen. 0 nul, 1 en (utrum), et (neutrum), 2 to, 3 tre, 4 fire, 5 fem, 6 seks, 7 syv, 8 otte, 9 ni, 10 ti, 11 elleve, 12 tolv 13 treten, 14 fjorten, 15 femten, 16 seksten, 17 sytten, 18 atten, 19 nitten 20 tyve, 30 tredive (oder: trevde), 40 fyrre. Neben "fyrre" gibt es die ältere, manchmal noch in Emphase verwendete Langform "fyrretyve," eigentlich „vier Zehner“. 20 toti (wörtlich: zwei Zehner), 30 treti, 40 firti, 50 femti, 60 seksti, 70 syvti, 80 otti, 90 niti Dieses Zahlensystem ist keine Entlehnung aus dem Schwedischen, wie vielfach angenommen wird, sondern war schon im Altdänischen bekannt. Mit der Einführung der Dezimalwährung in Dänemark 1875 wurde es für den Handel wiederbelebt, gewann aber keine breite Anwendung mehr. Das auf dem 50-Kronen-Schein stehende „FEMTI KRONER“ wurde deshalb 2009 wieder aufgegeben. 100 hundrede, 1000 tusinde (oder: tusind), 1.000.000 en million, 1.000.000.000 en milliard, 1.000.000.000.000 en billion Eine Gemeinsamkeit mit dem Deutschen ist, dass die Einerstelle vor der Zehnerstelle ausgesprochen wird. So wird etwa die Zahl 21 als "enogtyve" ausgesprochen (en = ein, og = und, tyve = zwanzig), die Zahl 32 als "toogtredive" (to = zwei, og = und, tredive = dreißig), die Zahl 53 als "treoghalvtreds," 67 als "syvogtres," 89 als "niogfirs," 95 als "femoghalvfems". Wendet man hingegen die Zahlen des Bankwesens an, gilt die englische oder schwedische Wortfolge; 21 heißt dann "totien". Die Hunderterstellen werden durch das entsprechende Zahlwort von 1 bis 9 plus "hundrede" gebildet: 100 = et hundrede, 300 = tre hundrede. Werden Zehner und/oder Einerstellen benutzt, wird das Zahlwort zusammengeschrieben: 754 = syvhundredefireoghalvtreds. Ordnungszahlen. 1. første, 2. anden (utrum), andet (neutrum), 3. tredje, 4. fjerde, 5. femte, 6. sjette, 7. syvende, 8. ottende, 9. niende, 10. tiende, 11. ellevte oder elvte, 12. tolvte, 13. trettende, 14. fjortende, 15. femtende, 16. sekstende, 17. syttende, 18. attende, 19. nittende, 20. tyvende, 30. trevide oder trevde. Die Ordinalzahl von 40 wird von der Langform "fyrretyve" (vgl. oben) gebildet und lautet "fyrretyvende". 50. halvtredsindstyvende, 60. tresindstyvende, 70. halvfjerdsindstavende, 80. firsindstyvende, 90. halvfemsindstyvende. Unverändert bleiben die Ordinalzahlen von "hundrede" und "tusinde:" 100. hundrede, 1000. tusinde. Die (selten gebrauchten) Ordinalzahlen von "million, milliard, billion" werden mit "-te" gebildet: "millionte, milliardte, billionte". Person. Einige wenige Verben zeigen im Präsens eine unregelmäßige Endung, siehe unten. (Singular:) jeg/du/han synger → (Plural:) vi/I/de synge. Konjugationsklassen. lægge (,legen‘) → lagde, lagt; tælle (,zählen‘) → talte, talt; kvæle (,ersticken‘) → kvalte, kvalt; træde (,treten‘) → trådte, trådt; sælge (,verkaufen‘) → solgte, solgt; sige (,sagen‘) → sagde, sagt; bringe (,bringen‘) → bragte, bragt; gjørde (,machen‘) → gjorde, gjort; følge (,folgen‘) → fulgte, fulgt. Modus. Der Imperativ endet auf den Wortstamm und kennt nur eine einzige Form: kom! (,komm[e]! kommt!‘). Alte Texte kennen eine besondere Pluralendung -er: Kommer hid, I Pige smaa! (,Kommet her, ihr kleinen Mädchen!‘ N. F. S. Grundtvig). leve Dronningen (,es lebe die Königin‘), Herren være med jer (,der Herr sei mit euch‘), Gud ske lov (,Gott sei Dank‘, wörtlich: Gott geschehe Lob). Im Übrigen ist er entweder vom Indikativ verdrängt worden oder aber, im Irrealis, mit dem Indikativ des Präteritums zusammengefallen: hvis jeg var rig... (,wenn ich reich wäre‘). Hauptsatz. Dem dänischen Satzbau liegt das Schema Subjekt + Prädikat + Objekt zugrunde, er ist im Hauptsatz jedoch durch eine Verbzweit-Regel erweitert, wie sie auch im Deutschen vorliegt. Das heißt, der Hauptsatz besitzt ein sogenanntes Vorfeld und anschließend eine vorgezogene Position für das finite Verb. Im Vorfeld stehen können außer dem finiten Verb prinzipiell alle Satzteile, am häufigsten allerdings das Subjekt. Wenn ein Satzteil ins Vorfeld gestellt wird, so bleibt dessen Platz im Satzinneren unbesetzt (dies gilt auch für das Subjekt). Das folgende Feldschema, das auf den dänischen Linguisten Paul Diderichsen zurückgeht, zeigt die Struktur des dänischen Hauptsatzes an einigen Beispielen. Literatur. Die Dänische Zentralbibliothek für Südschleswig enthält die größte Sammlung dänischer Titel in Deutschland. Einzelnachweise. Danische Dinkel. Dinkel ("Triticum aestivum" subsp. "spelta") oder Spelz (auch: Spelt, Fesen, Vesen oder Schwabenkorn'") ist eine Getreideart und ein enger Verwandter des heutigen Weizens. Es gibt sehr viele Mischformen und Übergänge zwischen „modernem“ Weizen und Dinkel, weil beide in manchen Regionen gemeinsam angebaut und auch miteinander gekreuzt wurden. Genetik. Dinkel ist − wie auch der Weichweizen ("Triticum aestivum") − mit einem hexaploiden (sechsfachen) Chromosomensatz ausgestattet. Wildformen von Dinkel und Weichweizen sind nicht bekannt, weshalb man annimmt, dass er durch Mutation aus älteren Weizenarten wie dem Hartweizen ("Triticum durum") mit vierfachem Chromosomensatz, dem Emmer ("Triticum dicoccum") oder dem Einkorn ("Triticum monococcum"), einer steinzeitlichen Form, entstanden ist. Geschichte. Dinkel, links ohne, rechts mit Spelzen Die ältesten Funde von Dinkel stammen aus Westgeorgien und den Tälern des Ararat-Gebirges (6. bis 5. Jahrtausend v. Chr.) Weitere Funde stammen aus Bulgarien (3700 v. Chr.), Rumänien (Hărman, Körös-Kultur), Polen und Südschweden (2500 bis 1700 v. Chr.) sowie Dänemark (1900 bis 1600 v. Chr.) In der Jungsteinzeit wurde Dinkel in Mittel- und Nordeuropa (vor allem im Alpenraum) angebaut, was archäologische Funde beweisen. Ab 1700 v. Chr. kam er in der heutigen Deutschschweiz vor. Im 18. Jahrhundert war Dinkel ein wichtiges Handelsgetreide. Das Wort "Dinkel" erscheint in den Ortsnamen "Dinkels"bühl und "Dinkel"scherben sowie deren Wappen (jeweils drei Ähren). Daran kann abgelesen werden, wie hoch dieses Getreide geschätzt wurde. Die Tradition, dass ein Teil des Dinkels schon vor der Reife, also noch grün geerntet wird, stammt aus dem Bedarf an nährstoffreichen Grundnahrungsmitteln für die Feldarbeit im Sommer. Das unreife Getreide, Grünkern genannt, ist nicht lagerfähig, weshalb es gedarrt, d. h. getrocknet wird. Grünkern ist nicht backbar, es kann zu Suppen oder Grünkernküchle verarbeitet werden. Im 20. Jahrhundert verringerte sich der Anbau, da er schlechte Ernteerträge erbrachte. Außerdem ist das Spelzgetreide schlecht zu verarbeiten und backtechnisch kompliziert. In neuerer Zeit erlebt dieses Getreide wieder eine gewisse Renaissance, insbesondere im Biobereich, wohl auch, weil es von vielen Allergikern geschätzt wird. Insbesondere bei Baby- und Kindernahrung bildet Dinkel mittlerweile eine beliebte Alternative zu Weizen. Dinkel ist außerdem fester Bestandteil der modernen Hildegard-Medizin, die sich auf die mittelalterliche Mystikerin Hildegard von Bingen beruft. Anbau. Dinkel wird in jüngerer Zeit in Deutschland wieder verstärkt angebaut. Die Anbaufläche wurde auf über 50.000 ha ausgeweitet. Typische Anbaugebiete sind Baden-Württemberg (Sorten: "Bauländer Spelz", "Schwabenkorn"), die Schweiz (Sorten: "Oberkulmer Rotkorn", "Ostro"), Belgien ("Rouquin"), Finnland ("Speltti") und in Asturien, Nordspanien ("Escanda"). Auch im Mittelburgenland zählt Dinkel zu den früher stark vertretenen Getreidesorten. Wegen der aufwendigen Kultivierung ging zwar der Anbau zurück, ist aber seit den 1980er Jahren wieder verstärkt vertreten. Aus diesem Grund wurde die Kultivierung als "Mittelburgenland Dinkel" in das österreichische Register der Traditionellen Lebensmittel aufgenommen, sowie die Gegend in die Genuss Region Österreich aufgenommen. Die Sorte "Franckenkorn" wurde von Peter Franck gezüchtet, der Name hat mit der Region Franken nichts zu tun. Im Moment werden nur Winterdinkelsorten angebaut. Es gibt in Deutschland keine zugelassene Sommerdinkelsorte. Das wichtigste Züchtungsziel ist momentan die Standfestigkeit der Ähren. Daher haben die kurzen Dinkelsorten "(Franckenkorn" und "Zollernspelz)" Vorteile gegenüber den langen Dinkelsorten "(Oberkulmer Rotkorn" und "Bauländer Spelz)". Dinkel verträgt nicht so viel Stickstoff in der Düngung wie Weizen. Im Ertrag bleibt der Dinkel zwar hinter dem Weizen zurück, er verträgt jedoch ein raueres Klima als dieser. Seine früher behauptete bessere Resistenz gegen Krankheiten wie beim Weichweizen trifft auf die heutigen Sorten nicht mehr zu. Der größte Teil der Dinkelsorten ist anfällig bis hochgradig anfällig für Echten Mehltau "(Blumeria graminis)" und Braunrost "(Puccinia triticina)". Verarbeitung. Im Unterschied zum Weizen ist das Dinkelkorn fest mit den Spelzen verwachsen (wie etwa auch Gerste). Dadurch ist es zwar besser geschützt, die Verarbeitung erfordert aber einen zusätzlichen Verarbeitungsschritt – es wurde früher auf einem „Gerbgang“ entspelzt ("gegerbt" oder "geröllt"). Dies ist ein Mahlgang („Unterläuferschälgang“), bei dem der Abstand zwischen den Mahlsteinen größer gewählt wurde, damit das Korn von den Spelzen befreit, aber nicht schon zerkleinert wurde. In modernen Getreidemühlen wird Dinkel mit Hilfe von Gummiwalzenschälern oder Vertikalschleifern entspelzt. Dinkel spielt im Bereich der Nutztierfütterung lediglich bei der Pferdezucht eine gewisse Rolle, dort erlebt er seit einigen Jahren eine Renaissance. Man verwendet dabei entweder den vollständigen Dinkel (also inklusive Spelz) oder nur dessen Spelz. Dinkelreis. Als Dinkelreis werden entspelzte und geschliffene Dinkelkörner bezeichnet. Durch diese spezielle Vorbehandlung erhält das Korn reisähnliche Eigenschaften und kann auch in gleicher Weise weiterverarbeitet werden. Dinkelmehl. Dinkelmehl kann zwar einen höheren Klebergehalt besitzen als Weizenmehl, seine Backfähigkeit ist jedoch schlechter als die von reinem Weizenmehl. Typische Dinkelprodukte sind Dinkelnudeln und Dinkelbrote wie Schwäbische Seele und Knauzenwecken. Backtechnische Eigenschaften. Obwohl Dinkel einen hohen Proteingehalt hat, ist er nicht einfach zu behandeln. Der Kleber ist geschmeidig und gut dehnbar, aber empfindlich, weshalb die Gefahr einer Überknetung besteht. Die Verbesserung der Mehle wird mit der Zugabe von 0,008 % Ascorbinsäure erreicht. Im Biobereich kann ersatzweise 0,1 % Acerolakirschpulver verwendet werden. Gebäck aus Dinkelmehl wird schon nach kurzer Zeit trocken und hart. Ein Grund dafür ist vermutlich die Überknetung und die schlechte Verarbeitbarkeit des weichen Dinkelteigs, weswegen eine festere Führung bevorzugt wird. In der Praxis wird diese Problematik mit Vorteigen und Dinkelsauer (Sauerteigführung) vermieden. Gebäck aus Dinkel erfüllt daher nur schwerlich die Kriterien von Weizengebäcken. Dinkelkaffee. Gerösteter Dinkel wird auch zur Herstellung von Dinkelkaffee verwendet, ähnlich wie andere Getreidesorten beim Malzkaffee. Ernährungsphysiologische Eigenschaften. Dinkel werden mitunter besondere gesundheitliche Vorteile im Vergleich zu allen anderen Getreidesorten zugeschrieben. Die wichtigste historische Quelle basiert auf Beschreibungen der Hildegard von Bingen in ihrem Buch „Physika“. Allerdings gibt es bis heute keine wissenschaftlich gesicherten Erkenntnisse über die bessere Verträglichkeit des Dinkels. Wissenschaftlich gesichert ist bislang lediglich, dass Dinkel bei Zöliakie nicht vertragen wird, da er nicht glutenfrei ist. Es gibt jedoch Fälle von Weizenunverträglichkeiten, bei denen Dinkel als Ersatzgetreide vertragen wird. Die Grundlage für dieses Phänomen ist unbekannt, sodass in diesem Bereich noch Forschungsbedarf besteht. Die Reinheit des Ausgangsproduktes ist für diese Verbraucher von entscheidender Bedeutung. Dabei muss sowohl bei der Auswahl des Getreides als auch bei der Produktion darauf geachtet werden, dass Weizen dem Produkt fernbleibt. Inhaltsstoffe. Sofern auch gewisse Unterschiede zwischen Dinkel und Weizen hinsichtlich des Gehaltes an Fett und Fettsäuren, Aminosäuren, Vitaminen und Mineralstoffen bestehen, ist fraglich, ob diese Unterschiede über die natürliche Schwankungsbreite hinausgehen und ob diese Unterschiede bei den heute üblichen Verzehrgewohnheiten überhaupt zum Tragen kommen. Brennwert: 1420 kJ/338 kcal pro 100 g verzehrbarem Anteil Desoxyribonukleinsäure. Desoxyribonukleinsäure (Des|oxy|ri|bo|nu|kle|in|säu|re; kurz DNS; englisch DNA für "deoxyribonucleic acid") (lat.-fr.-gr. Kunstwort) ist ein in allen Lebewesen und in bestimmten Virentypen (sogenannte DNA-Viren) vorkommendes Biomolekül und Träger der Erbinformation, also der Gene. Das Wort setzt sich zusammen aus des-, Oxygenium (Sauerstoff), Ribose (siehe "Desoxyribose") und Nukleinsäure. Im Normalzustand ist DNA in Form einer Doppelhelix aufgebaut. Chemisch gesehen handelt es sich um Nukleinsäuren, lange Kettenmoleküle (Polymere), die aus vier verschiedenen Bausteinen, den Nukleotiden aufgebaut sind. Jedes Nukleotid besteht aus einem Phosphat-Rest, dem Zucker Desoxyribose und einer von vier organischen Basen (Adenin, Thymin, Guanin und Cytosin, oft abgekürzt mit A, T, G und C). Die Gene in der DNA enthalten die Information für die Herstellung der Ribonukleinsäuren (RNA, im Deutschen auch RNS). Eine wichtige Gruppe von RNA, die mRNA, enthält wiederum die Information für den Bau der Proteine (Eiweiße), welche für die biologische Entwicklung eines Lebewesens und den Stoffwechsel in der Zelle notwendig sind. Innerhalb der Protein-codierenden Gene legt die Abfolge der Basen die Abfolge der Aminosäuren des jeweiligen Proteins fest: Im genetischen Code stehen jeweils drei Basen für eine bestimmte Aminosäure. In den Zellen von Eukaryoten, zu denen auch Pflanzen, Tiere und Pilze gehören, ist der Großteil der DNA im Zellkern als Chromosomen organisiert, ein kleiner Teil befindet sich in den Mitochondrien – den „Kraftwerken“ – der Zellen. Pflanzen und Algen haben außerdem DNA in ihren Chloroplasten, den Photosynthese betreibenden Organellen. Bei Bakterien und Archaeen – den Prokaryoten, die keinen Zellkern besitzen – liegt die DNA im Cytoplasma. Manche Viren, die RNA-Viren, haben keine DNA, sondern RNA, um die genetische Information zu speichern. Im allgemeinen Sprachgebrauch wird die Desoxyribonukleinsäure überwiegend mit der englischen Abkürzung DNA bezeichnet; die parallel bestehende deutsche Abkürzung DNS wird hingegen seltener verwendet und ist laut Duden „veraltend“. Entdeckungsgeschichte. DNA-Modell von Crick und Watson (1953) 1869 entdeckte der Schweizer Arzt Friedrich Miescher in einem Extrakt aus Eiter eine aus den Zellkernen der Lymphozyten kommende Substanz, die er Nuklein nannte. Miescher arbeitete damals im Labor von Felix Hoppe-Seyler im Tübinger Schloss. 1889 isoliert der Deutsche Richard Altmann aus dem Nuklein Proteine und die Nukleinsäure. 1896 entdeckt der Deutsche Albrecht Kossel in der Nukleinsäure die vier Basen A, C, T und G. 1919 identifizierte Phoebus Levene die Bestandteile der DNA (Base, Zucker und Phosphatrest). Levene schlug eine kettenartige Struktur der DNA vor, in welcher die Nukleotide durch die Phosphatreste zusammengefügt sind und sich stetig wiederholen. 1937 publizierte William Astbury erstmals Röntgenbeugungsmuster, die auf eine repetitive Struktur der DNA hinwiesen. 1943 wies Oswald Avery nach, dass die Transformation von Bakterien, das heißt die Weitergabe erblicher Information von einem Bakterien-Stamm auf einen anderen, auf der Übertragung von DNA beruht. Dies widersprach der damals allgemein favorisierten Annahme, dass nicht die DNA, sondern Proteine die Träger der Erbinformation seien. Unterstützung in seiner Interpretation erhielt Avery 1952, als Alfred Hershey und Martha Chase nachwiesen, dass DNA die Erbinformation des T2-Phagen enthält. Der strukturelle Aufbau der DNA wurde erstmals 1953 von dem US-Amerikaner James Watson und dem Briten Francis Crick in ihrem berühmten Artikel ' beschrieben. Watson kam 1951 nach England, nachdem er ein Jahr zuvor an der Indiana University Bloomington in den USA promoviert hatte. Er hatte zwar ein Stipendium für Molekularbiologie bekommen, beschäftigte sich aber vermehrt mit der Frage des menschlichen Erbguts. Crick widmete sich in Cambridge gerade erfolglos seiner Promotion über die Kristallstruktur des Hämoglobinmoleküls, als er 1951 Watson traf. Zu dieser Zeit war bereits ein erbitterter Wettlauf um die Struktur der DNA entbrannt, an dem sich neben anderen auch Linus Pauling am California Institute of Technology beteiligte. Watson und Crick waren eigentlich anderen Projekten zugeteilt worden und besaßen kein bedeutendes Fachwissen in Chemie. Sie bauten ihre Überlegungen auf den Forschungsergebnissen der anderen Wissenschaftler auf. Watson sagte, er "wolle das Erbgut entschlüsseln, ohne Chemie lernen zu müssen." In einem Gespräch mit dem renommierten Chemiker und Ersteller der Chargaff-Regeln, Erwin Chargaff, vergaß Crick wichtige Molekülstrukturen und Watson machte im selben Gespräch unpassende Anmerkungen, die seine Unkenntnis auf dem Gebiet der Chemie verrieten. Chargaff nannte die jungen Kollegen im Anschluss „wissenschaftliche Clowns“. Watson besuchte Ende 1952 am King’s College in London Maurice Wilkins, der ihm DNA-Röntgenaufnahmen von Rosalind Franklin zeigte (was gegen den Willen von Franklin geschah). Watson sah sofort, dass es sich bei dem Molekül um eine "Doppel"-Helix handeln musste; Franklin selbst hatte aufgrund der Daten auch das Vorhandensein einer Helix vermutet, jedoch hatte sie kein überzeugendes Modell für die Struktur vorzuweisen. Da bekannt war, dass die Purin- und Pyrimidin-Basen Paare bilden, gelang es Watson und Crick, die ganze Molekularstruktur herzuleiten. So entwickelten sie am Cavendish-Laboratorium der Universität Cambridge das Doppelhelix-Modell der DNA mit den Basenpaaren in der Mitte, das am 25. April 1953 in der Zeitschrift Nature publiziert wurde. Diese denkwürdige Veröffentlichung enthält gegen Ende den Satz „"It has not escaped our notice that the specific pairing we have postulated immediately suggests a possible copying mechanism for the genetic material"“. (Es ist unserer Aufmerksamkeit nicht entgangen, dass die spezifische Paarung, die wir als gegeben voraussetzen, unmittelbar auf einen möglichen Vervielfältigungsmechanismus für das Erbgut schließen lässt.) „Für ihre Entdeckungen über die Molekularstruktur der Nukleinsäuren und ihre Bedeutung für die Informationsübertragung in lebender Substanz“ erhielten Watson und Crick zusammen mit Maurice Wilkins 1962 den Nobelpreis für Medizin. Rosalind Franklin, deren Röntgenbeugungsdiagramme wesentlich zur Entschlüsselung der DNA-Struktur beigetragen hatten, war zu diesem Zeitpunkt bereits verstorben und konnte daher nicht mehr nominiert werden. Für weitere geschichtliche Informationen zur Entschlüsselung der Vererbungsvorgänge siehe „Forschungsgeschichte des Zellkerns“ sowie „Forschungsgeschichte der Chromosomen“ und „Chromosomentheorie der Vererbung“. Bausteine. Die Desoxyribonukleinsäure ist ein langes Kettenmolekül (Polymer) aus vielen Bausteinen, die man Desoxyribonukleotide oder kurz "Nukleotide" nennt. Jedes Nukleotid hat drei Bestandteile: Phosphorsäure bzw. Phosphat, den Zucker Desoxyribose sowie eine heterozyklische Nukleobase oder kurz Base. Die Desoxyribose- und Phosphorsäure-Untereinheiten sind bei jedem Nukleotid gleich. Sie bilden das Rückgrat des Moleküls. Einheiten aus Base und Zucker (ohne Phosphat) werden als Nukleoside bezeichnet. Die "Phosphatreste" sind aufgrund ihrer negativen Ladung hydrophil, sie geben DNA in wässriger Lösung insgesamt eine negative Ladung. Da diese negativ geladene, in Wasser gelöste DNA keine weiteren Protonen abgeben kann, handelt es sich streng genommen nicht (mehr) um eine Säure. Der Begriff Desoxyribonuklein"säure" bezieht sich auf einen ungeladenen Zustand, in dem Protonen an die Phosphatreste angelagert sind. Bei der "Base" kann es sich um ein Purin, nämlich Adenin ("A") oder Guanin ("G"), oder um ein Pyrimidin, nämlich Thymin ("T") oder Cytosin ("C"), handeln. Da sich die vier verschiedenen Nukleotide nur durch ihre Base unterscheiden, werden die Abkürzungen A, G, T und C auch für die entsprechenden Nukleotide verwendet. Die fünf Kohlenstoffatome einer "Desoxyribose" sind von 1' (sprich "Eins Strich") bis 5' nummeriert. Am 1'-Ende dieses Zuckers ist die Base gebunden. Am 5'-Ende hängt der Phosphatrest. Genau genommen handelt es sich bei der Desoxyribose um die 2-Desoxyribose; der Name kommt daher, dass im Vergleich zu einem Ribose-Molekül eine alkoholische OH-Gruppe an der 2'-Position fehlt (bzw. durch ein Wasserstoffatom ersetzt wurde). An der 3'-Position ist eine OH-Gruppe vorhanden, welche die Desoxyribose über eine sogenannte Phosphodiester-Bindung mit dem 5'-Kohlenstoffatom des Zuckers des nächsten Nukleotids verknüpft (siehe Abbildung). Dadurch besitzt jeder sogenannte "Einzelstrang" zwei verschiedene Enden: ein 5'- und ein 3'-Ende. DNA-Polymerasen, die in der belebten Welt die Synthese von DNA-Strängen durchführen, können neue Nukleotide nur an die OH-Gruppe am 3'-Ende anfügen, nicht aber am 5'-Ende. Der Einzelstrang wächst also immer von 5' nach 3' (siehe auch DNA-Replikation weiter unten). Dabei wird ein Nukleosidtriphosphat (mit drei Phosphatresten) als neuer Baustein angeliefert, von dem zwei Phosphate in Form von Pyrophosphat abgespalten werden. Der verbleibende Phosphatrest des jeweils neu hinzukommenden Nukleotids wird mit der OH-Gruppe am 3'-Ende des letzten im Strang vorhandenen Nukleotids unter Wasserabspaltung verbunden. Die Abfolge der Basen im Strang codiert die genetische Information. Die Doppelhelix. Strukturmodell eines Ausschnitts aus der DNA-Doppelhelix (B-Form) mit 20 Basenpaarungen a> eines DNA-Moleküls. Während andere Modelle gut geeignet sind, die Beziehung der einzelnen Atome zueinander darzustellen, zeigt ein Kalottenmodell die Belegung des Raumvolumens. Es wird daher der falsche Eindruck vermieden, dass zwischen den einzelnen Atomen noch viel Raum sei. DNA kommt normalerweise als schraubenförmige Doppelhelix in einer Konformation vor, die B-DNA genannt wird. Zwei der oben beschriebenen Einzelstränge sind dabei aneinandergelagert, und zwar in entgegengesetzter Richtung: An jedem Ende der Doppelhelix hat einer der beiden Einzelstränge sein 3'-Ende, der andere sein 5'-Ende. Durch die Aneinanderlagerung stehen sich in der Mitte der Doppelhelix immer zwei bestimmte Basen gegenüber, sie sind „gepaart“. Die Doppelhelix wird hauptsächlich durch Stapelwechselwirkungen zwischen aufeinanderfolgenden Basen stabilisiert (und nicht, wie oft behauptet, durch Wasserstoffbrücken). Es paaren sich immer Adenin und Thymin, die dabei zwei Wasserstoffbrücken ausbilden, oder Cytosin mit Guanin, die über drei Wasserstoffbrücken miteinander verbunden sind. Eine Brückenbildung erfolgt zwischen den Molekülpositionen 1=1 sowie 6=6, bei Guanin-Cytosin-Paarungen zusätzlich zwischen 2=2. Da sich immer die gleichen Basen paaren, lässt sich aus der Sequenz der Basen in einem Strang die des anderen Strangs ableiten, die Sequenzen sind "komplementär" (siehe auch: Basenpaar). Dabei sind die Wasserstoffbrücken fast ausschließlich für die Spezifität der Paarung verantwortlich, nicht aber für die Stabilität der Doppelhelix. Da stets ein Purin mit einem Pyrimidin kombiniert wird, ist der Abstand zwischen den Strängen überall gleich, es entsteht eine regelmäßige Struktur. Die ganze Helix hat einen Durchmesser von ungefähr 2 Nanometern (nm) und windet sich mit jedem Zuckermolekül um 0,34 nm weiter. Die Ebenen der Zuckermoleküle stehen in einem Winkel von 36° zueinander, und eine vollständige Drehung wird folglich nach 10 Basen (360°) und 3,4 nm erreicht. DNA-Moleküle können sehr groß werden. Beispielsweise enthält das größte menschliche Chromosom 247 Millionen Basenpaare. Beim Umeinanderwinden der beiden Einzelstränge verbleiben seitliche Lücken, sodass hier die Basen direkt an der Oberfläche liegen. Von diesen "Furchen" gibt es zwei, die sich um die Doppelhelix herumwinden (siehe Abbildungen und Animation am Artikelanfang). Die „große Furche“ ist 2,2 nm breit, die „kleine Furche“ nur 1,2 nm. Entsprechend sind die Basen in der großen Furche besser zugänglich. Proteine, die sequenzspezifisch an die DNA binden, wie zum Beispiel Transkriptionsfaktoren, binden daher meist an der großen Furche. Auch manche DNA-Farbstoffe, wie zum Beispiel DAPI, lagern sich an einer Furche an. Die kumulierte Bindungsenergie zwischen den beiden Einzelsträngen hält diese zusammen. Kovalente Bindungen sind hier nicht vorhanden, die DNA-Doppelhelix besteht also nicht aus einem Molekül, sondern aus zweien. Dadurch können die beiden Stränge in biologischen Prozessen zeitweise getrennt werden. Neben der eben beschriebenen B-DNA existieren auch A-DNA sowie eine 1979 von Alexander Rich und seinen Kollegen am MIT erstmals auch untersuchte, linkshändige, sogenannte Z-DNA. Diese tritt besonders in G-C-reichen Abschnitten auf. Erst 2005 wurde über eine Kristallstruktur berichtet, welche Z-DNA direkt in einer Verbindung mit B-DNA zeigt und so Hinweise auf eine biologische Aktivität von Z-DNA liefert. Die folgende Tabelle und die daneben stehende Abbildung zeigen die Unterschiede der drei Formen im direkten Vergleich. a) rechtsgängige, b) linksgängige Doppelhelix Die Stapel der Basenpaare () liegen nicht wie Bücher exakt parallel aufeinander, sondern bilden Keile, die die Helix in die eine oder andere Richtung neigen. Den größten Keil bilden Adenosine, die mit Thymidinen des anderen Stranges gepaart sind. Folglich bildet eine Serie von AT-Paaren einen Bogen in der Helix. Wenn solche Serien in kurzen Abständen aufeinander folgen, nimmt das DNA-Molekül eine gebogene bzw. eine gekrümmte Struktur an, welche stabil ist. Dies wird auch Sequenz-induzierte Beugung genannt, da die Beugung auch von Proteinen hervorgerufen werden kann (die sogenannte Protein-induzierte Beugung). Sequenzinduzierte Beugung findet man häufig an wichtigen Stellen im Genom. Chromatin und Chromosomen. Präparation von menschlichen Chromosomen im Stadium der Zellkernteilung Organisiert ist die DNA in der eukaryotischen Zelle in Form von Chromatinfäden, genannt Chromosomen, die im Zellkern liegen. Ein einzelnes Chromosom enthält jeweils einen langen, kontinuierlichen DNA-Doppelstrang. Da ein solcher DNA-Faden mehrere Zentimeter lang sein kann, ein Zellkern aber nur wenige Mikrometer Durchmesser hat, muss die DNA zusätzlich komprimiert bzw. „gepackt“ werden. Dies geschieht bei Eukaryoten mit sogenannten Chromatinproteinen, von denen besonders die basischen Histone zu erwähnen sind. Sie bilden die Nukleosomen, um die die DNA auf der niedrigsten Verpackungsebene herumgewickelt wird. Während der Kernteilung (Mitose) wird jedes Chromosom zu einer kompakten Form kondensiert. Dadurch werden sie lichtmikroskopisch bereits bei geringer Vergrößerung sichtbar. Bakterielle und virale DNA. In prokaryotischen Zellen liegt die doppelsträngige DNA in den bisher dokumentierten Fällen mehrheitlich nicht als lineare Stränge mit jeweils einem Anfang und einem Ende vor, sondern als zirkuläre Moleküle – jedes Molekül (d.h. jeder DNA-Strang) schließt sich mit seinem 3'- und seinem 5'-Ende zum Kreis. Diese zwei ringförmigen, geschlossenen DNA-Moleküle werden je nach Länge der Sequenz als Bakterienchromosom oder Plasmid bezeichnet. Sie befinden sich bei Bakterien auch nicht in einem Zellkern, sondern liegen frei im Plasma vor. Die Prokaryoten-DNA wird mit Hilfe von Enzymen (zum Beispiel Topoisomerasen und Gyrasen) zu einfachen „Supercoils“ aufgewickelt, die einer geringelten Telefonschnur ähneln. Indem die Helices noch um sich selbst gedreht werden, sinkt der Platzbedarf für die Erbinformation. In den Bakterien sorgen Topoisomerasen dafür, dass durch ständiges Schneiden und Wiederverknüpfen der DNA der verdrillte Doppelstrang an einer gewünschten Stelle entwunden wird (Voraussetzung für Transkription und Replikation). Viren enthalten je nach Typ als Erbinformation entweder DNA oder RNA. Sowohl bei den DNA- wie den RNA-Viren wird die Nukleinsäure durch eine Protein-Hülle geschützt. Chemische und physikalische Eigenschaften der DNA-Doppelhelix. Die DNA ist bei neutralem pH-Wert ein negativ geladenes Molekül, wobei die negativen Ladungen auf den Phosphaten im Rückgrat der Stränge sitzen. Zwar sind zwei der drei sauren OH-Gruppen der Phosphate mit den jeweils benachbarten Desoxyribosen verestert, die dritte ist jedoch noch vorhanden und gibt bei neutralem pH-Wert ein Proton ab, was die negative Ladung bewirkt. Diese Eigenschaft macht man sich bei der Agarose-Gelelektrophorese zu Nutze, um verschiedene DNA-Stränge nach ihrer Länge aufzutrennen. Einige physikalische Eigenschaften wie die freie Energie und der Schmelzpunkt der DNA hängen direkt mit dem GC-Gehalt zusammen, sind also sequenzabhängig. Stapelwechselwirkungen. Für die Stabilität der Doppelhelix sind hauptsächlich zwei Faktoren verantwortlich: die Basenpaarung zwischen komplementären Basen sowie Stapelwechselwirkungen ("stacking interactions") zwischen aufeinanderfolgenden Basen. Anders als zunächst angenommen, ist der Energiegewinn durch Wasserstoffbrückenbindungen vernachlässigbar, da die Basen mit dem umgebenden Wasser ähnlich gute Wasserstoffbrückenbindungen eingehen können. Die Wasserstoffbrücken eines GC-Basenpaares tragen nur minimal zur Stabilität der Doppelhelix bei, während diejenigen eines AT-Basenpaares sogar destabilisierend wirken. Stapelwechselwirkungen hingegen wirken nur in der Doppelhelix zwischen aufeinanderfolgenden Basenpaaren: Zwischen den aromatischen Ringsystemen der heterozyklischen Basen entsteht eine dipol-induzierte Dipol-Wechselwirkung, welche energetisch günstig ist. Somit ist die Bildung des ersten Basenpaares aufgrund des geringen Energiegewinnes und des -verlustes recht ungünstig, jedoch die Elongation (Verlängerung) der Helix ist energetisch günstig, da die Basenpaarstapelung unter Energiegewinn verläuft. Die Stapelwechselwirkungen sind jedoch sequenzabhängig und energetisch am günstigsten für gestapelte GC-GC, weniger günstig für gestapelte AT-AT. Die Unterschiede in den Stapelwechselwirkungen erklären hauptsächlich, warum GC-reiche DNA-Abschnitte thermodynamisch stabiler sind als AT-reiche, während Wasserstoffbrückenbildung eine untergeordnete Rolle spielt. Schmelzpunkt. Der "Schmelzpunkt der DNA" ist die Temperatur, bei der die Bindungskräfte zwischen den beiden Einzelsträngen überwunden werden und diese sich voneinander trennen. Dies wird auch als "Denaturierung" bezeichnet. Solange die DNA in einem kooperativen Übergang denaturiert (der sich in einem enggefassten Temperaturbereich vollzieht), bezeichnet der Schmelzpunkt die Temperatur, bei der die Hälfte der Doppelstränge in Einzelstränge denaturiert ist. Von dieser Definition sind die korrekten Bezeichnungen „midpoint of transition temperature“ bzw. Mittelpunktstemperatur formula_1 abgeleitet. Der Schmelzpunkt hängt von der jeweiligen Basensequenz in der Helix ab. Er steigt, wenn in ihr mehr GC-Basenpaare liegen, da diese entropisch günstiger sind als AT-Basenpaare. Das liegt nicht so sehr an der unterschiedlichen Zahl der Wasserstoffbrücken, welche die beiden Paare ausbilden, sondern viel mehr an den unterschiedlichen Stapelwechselwirkungen "(stacking interactions)." Die stacking-Energie zweier Basenpaare ist viel kleiner, wenn eines der beiden Paare ein AT-Basenpaar ist. GC-Stapel dagegen sind energetisch günstiger und stabilisieren die Doppelhelix stärker. Das Verhältnis der GC-Basenpaare zur Gesamtzahl aller Basenpaare wird durch den GC-Gehalt angegeben. Da einzelsträngige DNA UV-Licht etwa 40 % stärker absorbiert als doppelsträngige, lässt sich die Übergangstemperatur in einem Photometer gut bestimmen. Wenn die Temperatur der Lösung unter Tm zurückfällt, können sich die Einzelstränge wieder aneinanderlagern. Dieser Vorgang heißt "Renaturierung" oder "Hybridisierung." Das Wechselspiel von De- und Renaturierung wird bei vielen biotechnologischen Verfahren ausgenutzt, zum Beispiel bei der Polymerase-Kettenreaktion (PCR), bei Southern Blots und der In-situ-Hybridisierung. Kreuzförmige DNA an Palindromen. Ein Palindrom ist eine Folge von Nukleotiden, bei denen sich die beiden komplementären Stränge jeweils von rechts genauso lesen lassen wie von links. Unter natürlichen Bedingungen (bei hoher Drehspannung der DNA) oder künstlich im Reagenzglas kann sich diese lineare Helix als Kreuzform (cruciform) herausbilden, indem zwei Zweige entstehen, die aus dem linearen Doppelstrang herausragen. Die Zweige stellen jeweils für sich eine Helix dar, allerdings bleiben am Ende eines Zweiges mindestens drei Nukleotide ungepaart. Beim Übergang von der Kreuzform in die lineare Helix bleibt die Basenpaarung wegen der Biegungsfähigkeit des Phosphodiester-Zucker-Rückgrates erhalten. Die spontane Zusammenlagerung von komplementären Basen zu sog. Stamm-Schleifen-Strukturen wird häufig auch bei Einzelstrang-DNA oder -RNA beobachtet. Enantiomere. DNA tritt in Lebewesen als D-DNA auf – L-DNA kann allerdings synthetisiert werden (gleiches gilt analog für RNA). L-DNA wird langsamer von Enzymen abgebaut als die natürliche Form, was sie für die Pharmaforschung interessant macht. Genetischer Informationsgehalt und Transkription. DNA-Moleküle spielen als Informationsträger und „Andockstelle“ eine wichtige Rolle für Enzyme, die für die Transkription zuständig sind. Weiterhin ist die Information bestimmter DNA-Abschnitte, wie sie etwa in operativen Einheiten wie dem Operon vorliegt, wichtig für Regulationsprozesse innerhalb der Zelle. Bestimmte Abschnitte der DNA, die sogenannten Gene, codieren genetische Informationen, die Aufbau und Organisation des Organismus beeinflussen. Gene enthalten „Baupläne“ für Proteine oder Moleküle, die bei der Proteinsynthese oder der Regulation des Stoffwechsels einer Zelle beteiligt sind. Die Reihenfolge der Basen bestimmt dabei die genetische Information. Diese Basensequenz kann mittels Sequenzierung zum Beispiel über die Sanger-Methode ermittelt werden. Die Basenabfolge (Basensequenz) eines Genabschnitts der DNA wird zunächst durch die Transkription in die komplementäre Basensequenz eines sogenannten Ribonukleinsäure-Moleküls überschrieben (abgekürzt RNA). RNA enthält im Unterschied zu DNA den Zucker Ribose anstelle von Desoxyribose und die Base Uracil anstelle von Thymin, der Informationsgehalt ist aber derselbe. Für die Proteinsynthese werden sogenannte mRNAs verwendet, einsträngige RNA-Moleküle, die aus dem Zellkern ins Zytoplasma hinaustransportiert werden, wo die Proteinsynthese stattfindet ("siehe" Proteinbiosynthese). Nach der sog. „Ein-Gen-Ein-Protein-Hypothese“ wird von einem codierenden Abschnitt auf der DNA die Sequenz jeweils eines Proteinmoleküls abgelesen. Es gibt aber Regionen der DNA, die durch Verwendung unterschiedlicher "Leseraster" bei der Transkription jeweils mehrere Proteine codieren. Außerdem können durch alternatives Spleißen (nachträgliches Schneiden der mRNA) verschiedene Isoformen eines Proteins hergestellt werden. Neben der codierenden DNA (den Genen) gibt es nichtcodierende DNA, die etwa beim Menschen über 90 % der gesamten DNA einer Zelle ausmacht. Die Speicherkapazität der DNA konnte bisher nicht technisch nachgebildet werden. 1 Gramm getrockneter DNA enthält den Informationsgehalt von 1 Billion Compact Discs (CD). Mit der Informationsdichte in einem Teelöffel getrockneter DNA könnte die aktuelle Weltbevölkerung etwa 350 Mal nachgebaut werden. DNA-Replikation. Die DNA kann sich nach dem sog. "semikonservativen" Prinzip mit Hilfe von Enzymen selbst verdoppeln (replizieren). Die doppelsträngige Helix wird durch das Enzym "Helikase" aufgetrennt. Die entstehenden Einzelstränge dienen als Matrize (Vorlage) für den jeweils zu synthetisierenden komplementären Gegenstrang, der sich an sie anlagert. Die DNA-Synthese, d. h. die Bindung der zu verknüpfenden Nukleotide, wird durch Enzyme aus der Gruppe der "DNA-Polymerasen" vollzogen. Ein zu verknüpfendes Nukleotid muss in der Triphosphat-Verbindung – also als Desoxyribonukleosidtriphosphat – vorliegen. Durch Abspaltung zweier Phosphatteile wird die für den Bindungsvorgang benötigte Energie frei. Das Enzym Helikase bildet eine "Replikationsgabel," zwei auseinander laufende DNA-Einzelstränge. In ihrem Bereich markiert ein "RNA-Primer", der durch das Enzym Primase synthetisiert wird, den Startpunkt der DNA-Neusynthese. An dieses RNA-Molekül hängt die DNA-Polymerase nacheinander Nukleotide, die denen der DNA-Einzelstränge komplementär sind. Die Verknüpfung der neuen Nukleotide zu einem komplementären DNA-Einzelstrang kann an den beiden alten Strängen nur in 5'→3' Richtung verlaufen und tut das demzufolge ohne Unterbrechung den alten 3'→5'-Strang entlang in Richtung der sich immer weiter öffnenden Replikationsgabel. Die Synthese des neuen Stranges am alten 5'→3'-Strang dagegen kann nicht kontinuierlich auf die Replikationsgabel zu, sondern nur von dieser weg ebenfalls in 5'→3'-Richtung erfolgen. Der alte Doppelstrang ist aber zu Beginn der Replikation nur ein Stück weit geöffnet, so dass an dem zweiten Strang – in „unpassender“ Gegenrichtung – immer nur ein kurzes Stück neuer komplementärer DNA entstehen kann. Da dabei eine DNA-Polymerase jeweils nur etwa 1000 Nukleotide verknüpft, ist es nötig, den gesamten komplementären Strang in einzelnen Stücken zu synthetisieren. Wenn sich die Replikationsgabel etwas weiter geöffnet hat, lagert sich daher ein neuer RNA-Primer wieder direkt an der Gabelungsstelle an den zweiten Einzelstrang an und initiiert die nächste DNA-Polymerase. Bei der Synthese des 3'→5'-Stranges wird deshalb pro DNA-Syntheseeinheit jeweils ein neuer RNA-Primer benötigt. Primer und zugehörige Syntheseeinheit bezeichnet man als "Okazaki-Fragment". Die für den Replikations-Start benötigten RNA-Primer werden anschließend enzymatisch abgebaut. Dadurch entstehen Lücken im neuen DNA-Strang, die durch spezielle DNA-Polymerasen mit DNA-Nukleotiden aufgefüllt werden. Zum Abschluss verknüpft das Enzym "Ligase" die noch nicht miteinander verbundenen neuen DNA-Abschnitte zu einem einzigen Strang. Mutationen und andere DNA-Schäden. Mutationen von DNA-Abschnitten – zum Beispiel Austausch von Basen gegen andere oder Änderungen in der Basensequenz – führen zu Veränderungen des Erbgutes, die zum Teil tödlich (letal) für den betroffenen Organismus sein können. In seltenen Fällen sind solche Mutationen aber auch von Vorteil; sie bilden dann den Ausgangspunkt für die Veränderung von Lebewesen im Rahmen der Evolution. Mittels der Rekombination bei der geschlechtlichen Fortpflanzung wird diese Veränderung der DNA sogar zu einem entscheidenden Faktor bei der Evolution: Die eukaryotische Zelle besitzt in der Regel mehrere Chromosomensätze, d. h., ein DNA-Doppelstrang liegt mindestens zweimal vor. Durch wechselseitigen Austausch von Teilen dieser DNA-Stränge, das Crossing-over bei der Meiose, können so neue Eigenschaften entstehen. DNA-Moleküle können durch verschiedene Einflüsse beschädigt werden. Ionisierende Strahlung, wie zum Beispiel UV- oder γ-Strahlung, Alkylierung sowie Oxidation können die DNA-Basen chemisch verändern oder zum Strangbruch führen. Diese chemischen Änderungen beeinträchtigen unter Umständen die Paarungseigenschaften der betroffenen Basen. Viele der Mutationen während der Replikation kommen so zustande. DNA-Reinigung und Nachweis. DNA kann durch eine DNA-Reinigung, z. B. per DNA-Extraktion, von anderen Biomolekülen getrennt werden. Der qualitative Nachweis von DNA (welche DNA vorliegt) erfolgt meistens durch eine Polymerasekettenreaktion, eine isothermale DNA-Amplifikation, eine DNA-Sequenzierung, einen Southern Blot oder durch eine In-situ-Hybridisierung. Der quantitative Nachweis (wie viel DNA vorliegt) erfolgt meistens durch eine qPCR, bei gereinigten Proben mit nur einer DNA-Sequenz kann eine Konzentration auch durch Photometrie bei einer Wellenlänge von 260 nm gemessen werden. Durch interkalierende Farbstoffe wie Ethidiumbromid, Propidiumiodid oder SYBR Green I sowie durch Furchenbindende Farbstoffe wie DAPI, Pentamidine, Lexitropsine (z. B. Netropsin, Distamycin), Hoechst 33342 oder "Hoechst 33258" kann DNA angefärbt werden. Weniger spezifisch gebundene DNA-Farbstoffe und Färbemethoden sind z. B. Methylenblau, der Carbocyanin-Farbstoff Stains-All oder die Silberfärbung. Durch "Molecular Combing" kann die DNA gestreckt und ausgerichtet werden. „Alte“ DNA. Als aDNA („ancient DNA“; alte DNA) werden Reste von Erbgutmolekülen in toten Organismen bezeichnet, wenn keine direkten Verwandten des beprobten Organismus mehr leben. Auch wird die DNA des Menschen dann als aDNA bezeichnet, wenn das Individuum mindestens 75 Jahre vor der Probenuntersuchung verstorben ist. Das Abendmahl (Leonardo da Vinci). Das Abendmahl (italienisch: "Il Cenacolo" bzw. "L'Ultima Cena") des italienischen Malers Leonardo da Vinci ist eines der berühmtesten Wandgemälde der Welt. Das in der Seccotechnik ausgeführte Werk wurde in den Jahren 1494 bis 1498 im Auftrag des Mailänder Herzogs Ludovico Sforza geschaffen. Es schmückt die Nordwand des Refektoriums (Speisesaal) des Dominikanerklosters Santa Maria delle Grazie in Mailand und gilt als Höhepunkt in Leonardos malerischem Schaffen. Allgemeines. Das Bild misst 422 × 904 cm und zeigt Jesus mit den zwölf Aposteln in dem Augenblick unmittelbar nachdem dieser ihnen erklärt hat: „Einer von euch wird mich verraten“. Es gilt als Meilenstein der Renaissance, denn es nahm wegen seiner korrekt wiedergegebenen perspektivischen Tiefe bahnbrechenden Einfluss auf die Malerei des Abendlandes. Der Tisch und die Apostel sind an der vorderen Begrenzung des Raums angeordnet, in dem das Mahl stattfindet. Dahinter verengt sich der Raum, und die dargestellten Personen scheinen in den Raum des Refektoriums zu blicken. Das Licht, das die Szene ausleuchtet, kommt jedoch nicht aus dem dreiteiligen gemalten Fenster, sondern schräg von links wie das wirkliche Licht, das durch Fenster an der linken Wand einfällt. In diesem Bild findet man an vielen Stellen den goldenen Schnitt, zum Beispiel dort, wo die Hände Jesu und Jakobus’ des Älteren (rechts neben Jesus) auf dem Tisch liegen, wird das Bild in diesem Verhältnis geteilt. Aus konservatorischen Gründen ist eine Besichtigung nur in kleinen Gruppen für jeweils 15 Minuten möglich. Das Buchen von Eintrittskarten zu festen Terminen (Zeitfenster-Tickets) ist obligatorisch. Geschichte. a>, London, wie das Bild einmal ausgesehen haben mag. Nachdem Leonardo die Arbeit am Tonmodell des Sforza-Denkmals beendet hatte, begann er – ebenfalls im Auftrage des Herzogs Ludovico Sforza – 1495 das "Abendmahl" im Refektorium des Klosters Santa Maria delle Grazie. Erste Ideen hatte er bereits auf einer Studie zur „Anbetung der Könige“ skizziert: Eine Gruppe von Männern aus dem Gefolge der Könige an einer Tafel. In einer Rötelzeichnung ordnete er die Jünger in Zweiergruppen und zeigte dabei noch Anlehnungen an die Abendmahlsdarstellungen Domenico Ghirlandaios und Andrea del Castagnos. Johannes ruht ebenfalls zur Linken Christi mit dem Oberkörper auf dem Tisch und Judas sitzt von den übrigen Aposteln isoliert vor der Tafel. In sorgfältigen Einzelstudien, die sich heute in Schloss Windsor befinden, bereitete Leonardo die Apostelköpfe vor und suchte nach einem geeigneten Modell für Jesus. Bei der Ausführung versuchte Leonardo, die Öltechnik für die Wandmalerei zu nutzen. Wegen der Feuchtigkeit der Mauer und des Gebrauchs experimenteller organischer Farben, die sich bald als Fehlgriff erwiesen, erlitt das Gemälde jedoch noch zu Lebzeiten Leonardos schwere Schäden durch feine Risse. Im Laufe der Zeit blätterte auch die Farbe über weite Flächen ab. Einer später in die Wand eingezogenen Tür fielen Jesu Füße zum Opfer, die Leonardo ursprünglich abgebildet hatte. Der französische König Franz I. war so angetan von dem Bild, dass er es von der Wand ablösen lassen und nach Frankreich mitnehmen wollte. Doch die damit verbundenen Schwierigkeiten hatten laut Giorgio Vasari „zur Folge, daß seine Majestät die Lust verlor und es [das Bild] den Mailändern blieb“. Während der folgenden zwanzig oder dreißig Jahre wurden in Italien und Flandern zahlreiche Kopien angefertigt, die zum Teil noch erhalten sind und einen Eindruck davon geben, wie das "Abendmahl" ursprünglich ausgesehen haben mag. Als der Dauphin von Frankreich, der spätere Heinrich II., im Jahr 1533 Caterina de’ Medici heiratete, sandte König Franz I. einen großen Gobelin mit einer Kopie von Leonardos "Abendmahl", der heute im Vatikan zu sehen ist. Der Gobelin ist reichhaltig verziert und zeigt im Hintergrund eine komplizierte Architektur im italienisierenden Stil, wie er in Frankreich damals üblich war. Napoleons Besatzungstruppen machten das Refektorium dann zu einem Pferdestall. Napoléon ließ auch eine Mosaikkopie in Auftrag geben, die jedoch erst nach seinem Sturz beendet wurde und von seinem Schwiegervater Kaiser Franz I gekauft wurde. Für seinen ursprünglich vorgesehenen Aufstellungsort im Belvedere erwies sie sich als zu groß, so dass sie letztlich in die Wiener Minoritenkirche kam. 1943 überstand das Gemälde einen Bombenangriff, der die Südwand des Saals zum Einsturz brachte. Doch das Abendmahl blieb unversehrt, da es von den Mönchen des Klosters mit Sandsäcken geschützt worden war. "Das Abendmahl" wurde bereits mehrfach restauriert, vor allem durch Bellotti (1726), Mazza (1770) und Berezzi (1819). Erst in jüngster Zeit (1978 bis 1999) gelang es durch moderne Techniken den Verfall des Bildes aufzuhalten. Heute kann es wieder besichtigt werden, wird jedoch durch Sicherheits- und Staubschleusen geschützt. Pro Stunde werden nur etwa 100 Besucher zugelassen, daher gibt es lange Wartelisten und eine Anmeldung ist notwendig. 1980 wurde die Kirche gemeinsam mit dem Gemälde von der UNESCO zum Weltkulturerbe erklärt. Dargestellte. Leonardos Komposition dieses traditionellen kirchlichen Themas ist lebhafter/bewegter als frühere Werke. Er verzichtet auf Heiligenscheine und die bildhafte Isolierung des Verräters Judas. Er gruppiert die Apostel in vier Teileinheiten, die auf unterschiedliche Weise auf seine Enthüllung „Einer von euch wird mich verraten“ reagieren. Bartholomäus, Jakobus und Andreas. Bartholomäus, Jakobus der Jüngere und Andreas bilden am linken Rand eine Dreiergruppe, die die Überraschung des Moments ausdrückt. Petrus, Judas und Johannes. Petrus beugt sich zu Jesu Lieblingsjünger Johannes, der den Kopf beugt, während sich der Verräter Judas von beiden distanzierend abwendet. Jesus. Jesus (mit rotem Gewand und blauem Überwurf) scheint in Richtung seiner nach oben gedrehten Handfläche zu blicken. Die rechte Hand liegt auf dem Tisch. Durch die Zentralperspektive und den Lichteinfall wird Jesu Bedeutung klar hervorgehoben. Thomas, Jakobus und Philippus. Thomas, Jakobus der Ältere und Philippus drücken mehr Zorn und Fragen aus. Jakobus breitet seine Arme aus und bildet dadurch eine Barriere, die den fragenden Gesten von Thomas (mit erhobenen Zeigefinger) und Philippus (beide Hände zeigen auf seine Brust) Einhalt gebietet. Matthäus, Thaddäus und Simon. Matthäus und Thaddäus wenden sich fragend zu dem ganz rechts sitzenden Simon aus Kanaan. Sie debattieren die Enthüllung Jesu, wobei ihre Gesten die Erschütterung verstärken. Die Perspektive. In der Geschichte perspektivischer Darstellungsweisen vollzog sich im 15. Jahrhundert der Sprung vom Gebrauch handwerklicher Regeln und Erfahrungen zur Anwendung mathematisch fundierter Konstruktionssysteme – das Abendmahl Leonardos ist "das" Paradebeispiel. Es handelt sich bei der im Abendmahl angewendeten Perspektive um eine Zentralperspektive, wie wir sie heute noch verwenden. Wie der Name bereits andeutet, definiert sich diese Abbildungsart einer dreidimensionalen Welt auf eine Fläche durch das Vorhandensein eines Projektionszentrums, auch Augpunkt genannt. Bei dem Augpunkt handelt es sich um den Standpunkt des Betrachters. Dieser Augpunkt befindet sich beim Abendmahl nachweislich in der Schläfe der Christusfigur (das ist bei den letzten Restaurierungsarbeiten festgestellt worden – man hat das Loch eines Nagels gefunden), das heißt, das von Leonardo da Vinci festgelegte Zentrum des Bildes ist die Schläfe der Christusfigur und gleichzeitig der Punkt, in dem sich alle (perspektivischen) Strahlen treffen. Da Vinci hat die Strahlen mittels eines Nagels und gespannter Schnüre ermittelt. Ladwein formuliert die These, dass die Gesamtkomposition des Bildes mit den Linien der Zentralachse einen kreuzförmigen Heiligenschein um das Haupt Jesu andeute. Zur Perspektive des Abendmahls gab es anlässlich einer Ausstellung in der Wiener Minoritenkirche einen Versuchsaufbau, der belegte, dass die Perspektive des Abendmahls eine Zentralperspektive ist, bei der sich der Augpunkt auf Höhe der Schläfe der Christusfigur befindet. Um das zu beweisen, wurde eine Treppe installiert, die es dem Betrachter ermöglichte, diesen Betrachtungspunkt einzunehmen. Der genaue Abstand des Betrachters wurde von David Sayn durch ein Computermodell errechnet. Rezeption. Was ist das aber für ein Haufen von aufgeregten, gestikulierenden, vorlauten Menschen, deren Gesichter alles andere als angenehm zu empfinden sind. (…) Die sind mir keine gute Gesellschaft! Das Gemälde in der Modernen Kunst. Andy Warhols letzte großformatige Arbeit sollte die Auseinandersetzung mit Leonardo da Vincis Abendmahl werden. Das Gemälde entstand für die neuerstellten Ausstellungsräume der Bank Credito Valtellinese, unmittelbar gegenüber der Heimstatt des Originals des Abendmahls in der Dominikanerkirche Santa Maria delle Grazie in Mailand. Die Bank – der Palast und Tempel des Kapitals – verbindet sich geschickt mit der religiösen Ikone und konterkariert sie zugleich. Warhol aber neutralisierte die dem Auftrag inneliegende Nobilitierung des Kapitals. Er machte sich nicht zu einem schnöden Lieferanten eines Dekors. Er beschäftigte sich nicht mit dem Original, sondern legte das Foto einer billigen Reproduktion des Originalgemäldes von Leonardo zugrunde, die er zusammen mit einer Gipsplastik in einem Ramschladen in Little Italy fand. Daraus entstand ein riesiger Gemäldezyklus, über 100 meist traditionell mit dem Pinsel gemalter Bilder, teilweise über 4 × 10 Meter groß. Er wählte aber für die Ausstellung nicht die handgemalten Arbeiten aus, sondern insgesamt 22 im Siebdruck umgesetzte druckgraphische Versionen. Dreiperiodensystem. Das Dreiperiodensystem ist ein grundsätzliches Ordnungsprinzip der Archäologie, das die europäische Urgeschichte anhand charakteristischer Materialien zur Werkzeug-, Waffen- und Schmuckherstellung in die drei Perioden Steinzeit, Bronzezeit und Eisenzeit gliedert. Die Erkenntnis einer solchen Gliederung verhalf der Prähistorie in der ersten Hälfte des 19. Jahrhunderts zu einer wissenschaftlichen Struktur. Grundsätzlich ist diese Gliederung bis heute beibehalten worden, auch wenn mit der Steinzeit damals lediglich die Jungsteinzeit im Fokus der Forscher stand. Eine Definition der Altsteinzeit erfolgte erst 1865 durch John Lubbock, der die Steinzeit damit in die „Periode des geschlagenen Steins“ ("Old Stone Age",Altsteinzeit‘) sowie die „Periode des geschliffenen Steins“ ("New Stone Age",Jungsteinzeit‘) teilte. Das Dreiperiodensystem von Thomsen. Das System wurde maßgeblich vom dänischen Archäologen Christian Jürgensen Thomsen entwickelt. 1807 stieß Thomsen zu der im selben Jahr gegründeten „Kommission zur Erhaltung von Altertümern“ unter Leitung von Professor Rasmus Nyerup (1759–1829). 1816 legte Nyerup sein Amt als Leiter der Kommission nieder und Thomsen übernahm diesen Posten. Im Jahre 1819 wurde aus der Altertümersammlung das Dänische Nationalmuseum zu Kopenhagen und Thomsen wurde der erste Kustos der so genannten „Altnordischen Sammlung“. Bei der Neuordnung dieser Sammlung in den Jahren 1821 bis 1825 erkannte er, dass sich der Fundstoff chronologisch in Gebrauchsgegenstände und Waffen aus Stein, Bronze und Eisen gliedern lässt. Die Einengung der Phase, in der Thomsen die neue Zeiteinteilung vornahm, geht aus dem posthum veröffentlichten Briefwechsel zwischen Thomsen und Johann Gustav Gottlieb Büsching aus den Jahren 1823 – 1825 hervor. Da es zur Zeit Thomsens keinerlei radiometrische Datierungen gab, halfen ihm lediglich stilistische Beobachtungen bei dieser Sortierung, deren Fundkontext meist nicht überliefert war. Infolge der in Dänemark vergleichsweise wenigen Funde des Spätglazials (Hamburger Kultur, Bromme-Kultur) sowie des Mesolithikums, hatte Thomsen bei Funden aus Stein hauptsächlich als Grabbeigaben überlieferte Objekte aus der Jungsteinzeit im Blick. Als Beispiele der von ihm „heidnischen Zeit“ genannten frühesten Phase (heute Jungsteinzeit) werden „Schleifsteine“, „Keile“, „Meißel“, „Messer“ und „Lanzenspitzen“ genannt, die zum Teil aus Feuerstein bestehen und den Abbildungen zufolge der Trichterbecherkultur zuzuordnen sind. Hammeräxte mit rundem oder kantigem Schaftloch deuten auf die Einbeziehung endneolithischer Formen hin, wie sie in der Dolchzeit bzw. Einzelgrabkultur vorkommen. Auch hier handelte es sich überwiegend um Funde aus Gräbern. Die insgesamt aus der Ordnung der Bestände abgeleitete Dreiteilung der dänischen Vorgeschichte wurde von ihm schließlich 1836 (anonym) im Museumsführer "Ledetraad til nordisk Oldkyndighed" veröffentlicht. Die deutsche Übersetzung "Leitfaden zur nordischen Alterthumskunde" erschien im Jahre 1837 ebenfalls in Kopenhagen. Andere Entdecker des Dreiperiodensystems. Bereits 1835 hatte der deutsche Johann Friedrich Danneil einen Bericht über eine Ausgrabung bei Salzwedel verfasst, in welchem er aufgrund von Beobachtungen an Grabhügeln ebenfalls die Dreiteilung der Vorgeschichte postulierte. Ein Jahr später veröffentlichte Georg Christian Friedrich Lisch eine Studie zur chronologischen und ethnologischen Einteilung der Vorgeschichte, die er schließlich 1839 – unter Einfluss von Thomsens Erkenntnissen – zu einem Dreiperiodensystem erweiterte. Es ist davon auszugehen, dass zumindest Thomsen und Danneil unabhängig voneinander das Dreiperiodensystem entwickelt haben. Dennoch entbrannte um die Frage, wer von beiden zuerst jene Idee hatte, eine heftige Debatte zwischen deutschen und dänischen Archäologen, die hauptsächlich politische Motive hatte, und die deshalb nicht zufällig ihren Höhepunkt während des Deutsch-Dänischen Krieges von 1864 fand. Die deutschen Archäologen Hugo Mötefindt (1893–1932) und Gustaf Kossinna verwiesen beispielsweise darauf, dass Danneil selbst ausgrub, während Thomsen als Museumsdirektor lediglich die Funde von Kollegen auswertete. Dennoch war die Wirkung des Kopenhagener Museumsführers, die auf einer großen Materialbasis beruhte, international weit größer als die regionale Grabungsbeobachtung Danneils. Kritik. Erste zeitgenössische Kritik an Thomsens Dreiperiodensystem kam vom deutschen Archäologen Ludwig Lindenschmit, der auf die zeitlichen Unterschiede von Stein- und Bronzeverwendung in Nord- und Süddeutschland verwies. Des Weiteren setzte sich – allerdings erst später – die Vorstellung durch, dass die Übergänge zwischen den Perioden fließend verlaufen; insbesondere zwischen Stein- und Bronzezeit, wozwischen heute eine Übergangsperiode, die Kupfersteinzeit eingefügt wird. Bereits im 19. Jahrhundert erwies sich das Dreiperiodensystem in seiner Einteilung als zu grob und wurde schon 1859–61 von Thomsens Schüler Jens Jacob Asmussen Worsaae weiter unterteilt. Bis heute unterteilten Generationen von Vor- und Frühgeschichtlern das Dreiperiodensystem in mehrere dutzend Abschnitte. Das Dreiperiodensystem wurde ursprünglich für Mitteleuropa entwickelt, lässt sich aber auf ganz Europa und weite Teile Asiens anwenden. In Afrika dagegen gibt es keine Bronzezeit, sondern einen direkten Übergang von der Stein- zur Eisenzeit; und auch auf beiden amerikanischen Kontinenten ist das System nicht anwendbar. Einzelnachweise. ! Großer Brand von London. Das Feuer am Dienstag, dem 4. September 1666 Der Große Brand von London () war eine Feuersbrunst, die vom 2. bis 6. September 1666 vier Fünftel der City of London, darunter die meisten mittelalterlichen Bauten, zerstörte und etwa 100.000 Einwohner obdachlos machte, aber nach offiziellen Zahlen nur sechs Personen das Leben kostete. Nur wenige Monate zuvor war London von einer anderen Katastrophe heimgesucht worden, der letzten Großen Pest. Entstehung und Ausbreitung des Feuers. Der Sommer des Jahres 1666 war heiß und trocken. Ab Ende August blies ein warmer Südwestwind durch London, der von vielen als Pestbringer gefürchtet wurde. Die Feuergefahr hingegen war für die Londoner Teil des täglichen Lebens – Streichhölzer wurden erst 1820 erfunden, Feuer wurden mit Zunder oder mit glühenden Kohlen entfacht, die in Eimern von Haus zu Haus transportiert wurden. Oft ließ man auch aus Bequemlichkeit das Herdfeuer über Nacht weiterglimmen, Brände waren keine Seltenheit. Der Große Brand brach am frühen Sonntagmorgen des 2. September in der Backstube eines königlichen Bäckers in der Pudding Lane nahe dem Themseufer aus. Der Bäcker Thomas Farynor (oder Farrinor oder Farryner oder Faryner) hatte wohl die Glut im Backofen übersehen, als er am Abend seine Backstube abschloss. Der Bäcker wurde in der Nacht durch das Feuer geweckt und konnte mit seiner Familie fliehen, dagegen wurde seine Hausmagd zum ersten Opfer. Zu dieser Zeit war es üblich, bei Aufstockungen jedes Stockwerk überhängend auf das darunter liegende zu bauen. Diese Bauweise führte dazu, dass die ohnehin engen Gassen nach oben immer enger wurden und die Häuser auf Höhe eines zweiten Stockwerks fast zusammenstießen. So sprang das Feuer sehr leicht über die natürliche Grenze der Straßen und Gassen hinweg. Durch starken Wind und die leicht entflammbaren Baumaterialien der meist aus Holzfachwerk erbauten Häuser konnte es sich sehr schnell ausbreiten. Innerhalb weniger Stunden hatte das Feuer die aus Holz und Pech gebauten Häuser der Pudding Lane zerstört. Das Star Inn, ein Gasthaus an der London Bridge, war abgebrannt, und das Feuer griff auf die Thames Street über. In den dortigen Lagerhäusern befindliche Rohstoffe wie Öl, Hanf, Flachs, Pech, Teer, Seile, Hopfen und Weinbrand fachten das Feuer weiter an, das so auf die angrenzenden Werften, wo Holz und Kohle gelagert wurden, übergriff. Sir Thomas Bludworth jedoch, der Bürgermeister Londons, der aus dem Schlaf geholt wurde, meinte: „Pish! A woman might piss it out!“ (etwa: „Pah, eine Frau könnte es auspinkeln“) und ging wieder zu Bett. Bekämpfung. Löschversuche mit Wasser aus Ledereimern waren praktisch wirkungslos, auch weil die Wasserrohre Londons damals aus Holz und damit oftmals undicht und unzuverlässig waren – nun zerstörte das Feuer auch noch Teile der Zuleitungen. Im Regelfall wurden bei Feuer an bestimmten Punkten der Wasserleitungen Pumpen angeschlossen – eine frühe Form des Hydranten. Im Chaos des Großbrandes jedoch wurden Straßen aufgerissen, um an die Wasserleitungen zu kommen, was den Wasserdruck gegen Null sinken ließ. Samuel Pepys, der das Feuer schon in der Nacht beobachtet hatte, fuhr am Sonntagvormittag zum Palast von Whitehall, um Karl II. zu sprechen. Die Hofgesellschaft hatte noch nicht vom Brand gehört. Pepys berichtete vom Stand der Dinge und bat im Gespräch mit dem König und seinem Bruder Jakob, dem Herzog von York, die Sprengung von Häuserzeilen anzuordnen, da dies die einzige Möglichkeit sei, das Feuer aufzuhalten. Danach eilte Pepys zum Bürgermeister, der in der Canning (Cannon) Street Löscharbeiten befehligte und sich beklagte, dass man seinen Anordnungen nicht Folge leistete. Hausbesitzer, deren Güter nicht unmittelbar bedroht schienen, weigerten sich, ihre Häuser einreißen zu lassen. Das Feuer sprang inzwischen schneller von Haus zu Haus, als die Retter diese abreißen konnten. Am Sonntagabend beobachtete Pepys "„one entire arch of fire from this to the other side of the bridge, and in a bow up the hill, for an arch of above a mile long: it made me weep to see it.“" („ein einziger Bogen von Feuer von hier bis ans andere Ende der Brücke und in einem Bogen den Hügel hinauf, einen Bogen von mehr als einer Meile formend: der Anblick ließ mich weinen.“). Der Brand vom Südufer der Themse aus Am Montag wurde klar, dass nur noch die Flucht übrig blieb, die Straßen waren verstopft mit Wagen und Menschen mit ihren Habseligkeiten, der Fluss voll mit Booten. Das Feuer übersprang Cornhill und verschlang das kommerzielle Zentrum Londons, die Royal Exchange, wo sich dieser Zweig des Brandes mit einem östlichen und einem südlichen vereinigte und Cheapside vernichtete. Dienstag war der schlimmste Tag des Feuers, die eingerüstete St Paul’s Cathedral fing Feuer, was auch die in der St Faith’s Chapel gelagerten Vorräte der Londoner Buchhändler komplett vernichtete. Der Schriftsteller und Tagebuchautor John Evelyn beschrieb, wie das geschmolzene Blei aus der Kuppel von St Paul’s in Bächen über die rotglühenden Pflastersteine lief und die Steinquader des Gebäudes wie Granaten ringsum einschlugen. Eines der wenigen Gebäude, die der Hitze widerstehen konnten, war die mittelalterliche Guildhall, in deren Krypta auch die Papiere der Stadt das Feuer überstanden. Während im Westen der Stadt der König und sein Bruder, dem das Kommando über die Stadt übertragen worden war, relativ erfolglos Löschmaßnahmen koordinierten, vor allem weil der Wind gegen sie arbeitete, war im Nordosten, der windabgewandten Seite, die Chance höher, Objekte zu sichern. Als Beamter der Royal Navy organisierte Pepys gemeinsam mit Admiral William Penn die Sprengung von Häusern rund um das Navy Office am Tower of London. Auf dieselbe Art wurde auch der Tower selbst gerettet. Am Abend schrieb Pepys seinem Vater einen Brief über die Ereignisse, aber da das Postamt abgebrannt war, konnte der Brief nicht abgeschickt werden ("„the posthouse being burnt, the letter could not go“"). Erst als am Mittwoch die Flammen den Palast von Whitehall bedrohten, folgte man schließlich den Empfehlungen der Marine und sprengte eine Feuerbresche, die das Feuer aufhielt. Der Wind ließ gegen Mittwochabend nach, so dass nach und nach der Brand unter Kontrolle gebracht und schließlich gelöscht werden konnte. Schäden. Alles in allem zerstörte der Brand rund 400 Straßen, 13.200 Häuser und 87 Kirchen, darunter auch die alte St Paul’s Cathedral, das Christ’s Hospital, das Gefängnis von Newgate, das Zollhaus, die Royal Exchange, drei der Stadttore und auch den deutschen Stalhof. Die Guildhall war innen ausgebrannt, die mittelalterlichen Mauern aber standen noch. Der Tower of London konnte nur gerettet werden, weil man die Häuser ringsherum sprengte. 80 Prozent der Häuser innerhalb der Stadtmauern auf einer Fläche von etwa 1,3 Quadratkilometern waren verbrannt. Rund 100.000 Einwohner Londons wurden obdachlos. Und obwohl nach offiziellen Angaben nur vier, acht oder neun Menschen starben, wird davon ausgegangen, dass weitaus mehr Einwohner ihr Leben ließen. Der materielle Schaden wurde später auf etwa zehn Millionen Pfund geschätzt, was einem Wert von einer Milliarde Pfund im Jahr 2005 entspricht. Suche nach einem Schuldigen. Obwohl der Brand offenkundig in der Bäckerei entstanden war, verbreitete sich rasch die Verschwörungstheorie, die Jesuiten hätten ihn gelegt. Der französische Uhrmacher Robert „Lucky“ Hubert gestand – wahrscheinlich unter der Folter – er sei ein Agent des Papstes und habe das Feuer in Westminster gelegt. Später verbesserte er seine Aussage dahingehend, er habe es in der Bäckerei in der Pudding Lane entfacht. Trotz überwältigender Beweise für seine Unschuld wurde er verurteilt und am 28. September 1666 gehängt. Erst nachträglich stellte sich heraus, dass er erst zwei Tage nach dem Brand nach London gekommen war. Virulent wurde der Irrglaube an eine katholische Verschwörung noch einmal zwölf Jahre später in der sogenannten Papisten-Verschwörung. Eine Tafel an dem an das Feuer erinnernden Monument, welche die Schuld an dem Feuer den Katholiken zuwies, wurde erst im 19. Jahrhundert entfernt. Wiederaufbau. Die Aufräumungsarbeiten wurden zunächst den jeweiligen Grundeigentümern überlassen, im November gab der König jedoch hundert Pfund aus, um die immer noch herumliegenden Trümmer wegräumen zu lassen. Der Wiederaufbau der zerstörten Flächen war für Gelehrte wie den Astronomen und Architekten Christopher Wren, den Geometrieprofessor Robert Hooke, John Evelyn, Peter Mills (1598–1670) und Richard Newcourt (um 1610–1679) die Gelegenheit, ihre Pläne für eine Stadt mit weiten Boulevards und italienischen Piazzas vorzulegen. Wie man an Wenzel Hollars Plan der Stadt nach dem Brand sieht, waren jedoch vielfach Grundmauern erhalten und Straßenzüge erkennbar geblieben. Schon Mitte September hatten sich König, Parlament und die Corporation of London als Vertreter Londons geeinigt, dass ein Plan, der auf bestehende Grundbesitzverhältnisse keine Rücksicht nahm, zu teuer und daher undurchführbar war. Die Stadt als Körperschaft war in finanziellen Schwierigkeiten – ihre Einkünfte bestanden bis zu dem Feuer aus Besitz, der verbrannt war und den Abgaben der Einwohner, die geflohen und in vielen Fällen ruiniert waren. Die Finanzen des Königs waren desolat, und das Parlament war nicht gewillt, die Kosten Londons zu tragen. Da der Staatshaushalt nicht zuletzt von den Steuereinnahmen Londons abhing, war ein schneller Wiederaufbau zwingend. Monument to the Great Fire Am 13. September proklamierte der König neue Bauvorschriften, in denen Stein und Ziegel als einzige erlaubte Baumaterialien für neue Häuser die Feuergefahr eindämmen sollten. Das Überhängen von Stockwerken wurde verboten, Hauptstraßen mussten eine Mindestbreite haben und am Flussufer sollte ein breiter Kai gebaut werden. Die genaue Ausarbeitung der Vorschriften wurde einer Kommission aus sechs Personen übertragen. Drei wurden vom König nominiert: Christopher Wren, Hugh May (1621–1684), ein Beamter mit Erfahrungen im Bereich Architektur, und Roger Pratt (1620–1684), ein Architekt und drei von der Stadt bestellt: Robert Hooke, Kurator der Royal Society, und zwei Männer mit Lokalkenntnissen, Edward Jerman (um 1605–1668) und Peter Mills, der Stadtvermesser. Am 8. Februar 1667 wurde der "First Rebuilding Act" vom Parlament beschlossen. Er legte drei Arten von Standardhäusern fest, mit geregelten Stockwerkshöhen und Wandstärken und einem Maximum von vier Etagen. Er beinhaltete auch Vorgaben, wie Streitigkeiten zwischen Nachbarn um Grundstücksverläufe zu regeln seien, und schrieb vor, dass einzeln neuerbaute Häuser auf beiden Seiten Ziegel vorstehen lassen mussten, um später daneben gebauten Häusern „Anschluss“ zu geben. Handwerkern, die sich am Wiederaufbau beteiligten, wurde die Bürgerschaft für sieben Jahre angeboten. Eine Steuer auf Kohle, die in London gelöscht wurde, glich einen Teil des enormen Verlustes aus. Ein Teil dieser Steuer wurde auch für den Wiederaufbau der St Paul’s Cathedral verwendet, welche Christopher Wren neben vielen anderen Kirchen und Gebäuden errichtete. Gemeinsam mit Hooke baute er zudem auch das Monument, das als Erinnerung an das Große Feuer entstand. Die Höhe des Monuments (61 m) entspricht der Distanz zwischen seinem Standort und der ehemaligen Bäckerei Thomas Farynners in der Pudding Lane, wo das Feuer ausbrach. Anmerkungen. Grosser Brand Deutsches Reich. Deutsches Reich war der Name des deutschen Nationalstaates in den Jahren zwischen 1871 und 1945 und zugleich auch die staatsrechtliche Bezeichnung Deutschlands bis 1943 (ab 1943 amtlich – jedoch nicht offiziell proklamiert – als Großdeutsches Reich). Der Terminus "Deutsches Reich" wird gelegentlich auch gebraucht, um das mit dem deutschen Sprachraum nicht übereinstimmende Heilige Römische Reich zu bezeichnen: ein übernationales, letztlich überstaatliches Herrschaftsgebilde, das ab dem 15./16. Jahrhundert mit dem Zusatz "„Deutscher Nation“" versehen worden war. 1849 wurde im Zuge des weiteren Verlaufs der bürgerlichen Märzrevolution von 1848 versucht, mit der Paulskirchenverfassung ein „Deutsches Reich“ zu begründen. Durch den Widerstand der deutschen Fürsten und insbesondere des Königs von Preußen konnte diese Verfassung aber nicht durchgesetzt werden. Der 1849/50 nachfolgende Versuch, eine Deutsche Union zu gründen, scheiterte ebenfalls. Gründungsumstände. Das formell am 1. Januar 1871 entstandene Deutsche Kaiserreich wurde zwar als erster einheitlicher Nationalstaat aller Deutschen angesehen (→ Reichsdeutsche), umfasste während seines Bestehens als kleindeutsche Lösung jedoch nie alle Gebilde, die sich selbst (oder die das Reich) als zu Deutschland gehörig betrachteten – wie die deutschen Länder der 1867 neu geordneten Vielvölkermonarchie Österreich-Ungarn, welche bis zum Deutschen Krieg 1866 noch Teil des Deutschen Bundes waren. Dies ist zurückzuführen auf die Umstände der Reichsgründung. Das neue Reich ging aus dem unter preußischer Regie stehenden Norddeutschen Bund hervor. In der Märzrevolution von 1848 hatte Preußen nationalistische Bestrebungen, einen deutschen Nationalstaat im Zeichen der Volkssouveränität zu schaffen, noch bekämpft. Später nutzte Preußen unter Kanzler Otto von Bismarck nationalliberale Strömungen, um Österreich aus dem Reich auszuschließen und Preußens Vorherrschaft zu erringen. Insbesondere in den Grenzregionen Deutschlands waren allerdings viele Einwohner keine ethnischen Deutschen, darunter Polen (5,5 %) und Litauer (0,2 %) im Osten, Franzosen (0,4 %) im Südwesten und Dänen (0,25 %) im Norden. Aufgrund ähnlicher nationalistischer Gefühle in Dänemark kam es 1864 im Streit um Schleswig zum Deutsch-Dänischen Krieg, dem ersten der drei später so genannten Reichseinigungskriege. Auslöser des Deutschen Krieges war der Bruch der Gasteiner Konvention über Schleswig-Holstein durch Preußen. Der Bund verhängte gegen Preußen die Bundesexekution, worauf Preußen aus dem Deutschen Bund austrat. Das Königreich Preußen besiegte das Kaisertum Österreich und das Königreich Sachsen in der entscheidenden Schlacht von Königgrätz, daraufhin wurde der Deutsche Bund mit dem Prager Frieden vom 23. August 1866 aufgelöst, was Bismarck gegen den Widerstand des österreichischen Monarchen erzwang. Preußen annektierte die meisten deutschen Staaten, die in der Bundesversammlung gegen Preußen gestimmt hatten, und beanspruchte für König Wilhelm I. die Kaiserkrone des zukünftigen preußisch-deutschen Reiches. Infolgedessen schlossen sich die norddeutschen Staaten unter preußischer Führung zum Norddeutschen Bund zusammen. Preußen vermied eine Expansion über die Mainlinie hinweg, um Frankreich nicht offen zu provozieren. Bayern, Württemberg, Baden und das Großherzogtum Hessen nahmen die Möglichkeit nicht wahr, einen Süddeutschen Bund zu bilden. Hessen-Darmstadt wurde mit seiner nördlich des Mains gelegenen Provinz Oberhessen teilweise Mitglied des Norddeutschen Bundes. Österreich, Luxemburg und Liechtenstein schlossen sich keinem Bund an; die deutsche Kulturnation (Deutschland) wurde durch diese Ereignisse faktisch dreigeteilt. Dem französischen Kaiser Napoléon III. lag jedoch nichts daran, einen Konkurrenten um die innereuropäische Hegemonie erstarken zu lassen. Aufgrund der Gefahr einer französischen Intervention hatten die nord- und süddeutschen Staaten daher bereits geheime Schutz- und Trutzbündnisse abgeschlossen. Frankreich, bestrebt, stärkste Macht auf dem europäischen Kontinent zu bleiben, erkannte die von einem Zusammenschluss deutscher Staaten ausgehende Bedrohung, zumal Preußen und seine Verbündeten ihre gemeinsame militärische Macht bereits zweimal demonstriert hatten. Durch die Emser Depesche und die Kandidatur der Hohenzollern für die spanische Thronfolge fühlte sich Frankreich provoziert und erklärte Preußen im Sommer 1870 den Krieg. Dieser Deutsch-Französische Krieg verlief für Frankreich katastrophal, und Anfang 1871 besetzten deutsche Truppen Paris. Gestärkt durch die Euphorie des Sieges, der die preußische Dominanz weiter verstärkt hatte, verkündete der preußische König Wilhelm I. – nun Deutscher Kaiser – am 18. Januar 1871 im Spiegelsaal von Versailles die Gründung des Deutschen Reiches. Geschichte. Als im Jahre 1868 die spanische Königin Isabella II. gestürzt wurde, bot der Erbprinz Leopold des Königshauses Hohenzollern-Sigmaringen (welches mit dem spanischen Königshaus verwandt ist) seine Dienste als zukünftiger König an. Jedoch fühlte sich Frankreich dadurch bedroht und versuchte diese Königswahl militärisch zu unterbinden. Es kam zum Deutsch-Französischen Krieg. Bismarck nutzte diesen, um sein Ziel, die Einigung der deutschen Staaten, durch einen gemeinsamen Feind durchzusetzen. Er erreichte sein Ziel und so wurde nach dem triumphalen Sieg über Frankreich am 18. Januar 1871 im Schloss Versailles bei Paris das Deutsche Reich gegründet. Nach der militärischen Niederlage des Deutschen Reichs im Zweiten Weltkrieg wurde Deutschland 1945 unter Besatzung durch britische, französische, amerikanische und sowjetische Truppen gestellt. Die Gebiete östlich von Oder und Neiße und die westlich dieser Linie gelegene Stadt Swinemünde (entsprechend den Bestimmungen des Potsdamer Abkommens) sowie darüber hinaus die Stadt Stettin (insgesamt etwa ein Viertel der Fläche von 1937) wurden faktisch vom Reich abgetrennt und, laut Potsdamer Abkommen, „vorläufig“ unter polnische bzw. sowjetische Verwaltung gestellt – letztendlich aber "de facto" annektiert. Die in den Ostgebieten ansässige deutsche Bevölkerung wurde, soweit sie nicht bereits im Zuge des Kriegsgeschehens in Richtung Westen geflüchtet war, in den folgenden Jahren weitestgehend und völkerrechtswidrig vertrieben. Mit der Wiederherstellung der Republik Österreich ab 27. April 1945 (Unabhängigkeitserklärung) – bis 1955 unter den vier Besatzungsmächten, dann als souveräner Staat –, der Gründung der Bundesrepublik Deutschland und der Deutschen Demokratischen Republik 1949 hörte das Deutsche Reich zwar unter historischen Gesichtspunkten faktisch, aber keinesfalls "de jure" auf zu existieren: Die Weimarer Verfassung wurde auch nach der deutschen Kapitulation im Mai 1945 und der Übernahme der Hoheitsgewalt über Deutschland durch die vier Besatzungsmächte nicht offiziell aufgehoben und das Deutsche Reich nicht aufgelöst.Die sich aus dieser De-jure-Fortexistenz ergebenden Folgen sind im Abschnitt "Staatsrechtliche Fragen" erläutert. Als Karl Dönitz 1980 starb, hatte er laut einem Leserbrief in der Frankfurter Allgemeinen Zeitung (FAZ) vorher testamentarisch festgelegt: „Im Bewusstsein nicht endender Verantwortung, gegenüber dem Deutschen Volk, übertrage ich Inhalt und Aufgabe meines Amtes als letztes Staatsoberhaupt des Deutschen Reiches auf den Bundespräsidenten der Bundesrepublik Deutschland.“ Staatsoberhäupter und Regierungschefs. "Siehe:" Liste der Staatsoberhäupter des Deutschen Reiches und Reichskanzler Entstehung des Begriffs. In der deutschen Verfassungsgeschichte sind die Begriffe "Reich" und "Bund" in gewisser Hinsicht austauschbar. Die Präambel der Bismarck-Verfassung von 1871 sagte beispielsweise, dass der preußische König und die süddeutschen Fürsten einen "ewigen Bund" geschlossen hätten. So erklärte Bismarck ausdrücklich vor dem Bundesrat: "„Das Deutsche Reich hat die feste Basis in der Bundestreue der Fürsten, in welcher seine Zukunft verbürgt ist.“" Die Verwendung der Begrifflichkeit "Deutsches Reich" knüpfte an das "Heilige Römische Reich Deutscher Nation" (962–1806). Dieses war 1806 zerbrochen angesichts von Säkularisation und napoleonischer Übermacht (Diktat). Der Habsburger Kaiser Franz II., der sich 1804 nach Napoleons Vorbild zum Kaiser von Österreich proklamiert hatte, legte den Titel des römisch-deutschen Kaisers nieder und entließ alle Reichsbeamten und -organe aus ihren Verpflichtungen gegenüber dem „deutschen Reich“. Mit dem Akt der Niederlegung der Kaiserkrone endete das "Heilige Römische Reich Deutscher Nation". Die spätere Epoche des wilhelminischen Kaiserreiches wurde als "Zweites Reich" bezeichnet. Diese Wortwahl deutete eine Nachfolgerschaft zum „ersten deutschen Reich“ an, ohne sie explizit auszusprechen. Diese Zurückhaltung war taktisch und diplomatisch geboten. Das Kaisertum Österreich und dessen Kaiser betrachteten sich als Nachfolger des Heiligen Römischen Reichs und wären somit indirekt als illegitim bezeichnet worden. Der Begriff „Zweites Reich“ wurde 1923 von Arthur Moeller van den Bruck geprägt; in seinem Buch "Das dritte Reich" bezeichnete dieser das römisch-deutsche Reich als „Erstes Reich“ und das Deutsche Kaiserreich von 1871 bis 1918 als das „Zweite Reich“. Er erwartete, dass diesem ein „Drittes Reich“ folgen werde. Der Begriff wurde rasch in die Propaganda der NSDAP übernommen, die damit ihre Ablehnung der Weimarer Republik ausdrückte (→ „Drittes Reich“ im Nationalsozialismus). Allerdings sah der Nationalsozialismus bald wieder vom Begriff „Drittes Reich“ ab. „Reich“ hingegen blieb in Verwendung, überspannt und pseudoreligiös, dadurch wurde der Begriff im Laufe der Nachkriegszeit vermehrt mit dem Nationalsozialismus selbst in Verbindung gebracht. Im angelsächsischen Raum spricht man noch heute von "the Third Reich" oder "the German Reich". Das englische Wort "Empire" wird bei einer Republik als ungeeignet empfunden, weshalb es "German Empire" nur für die Zeit bis 1918/1919 heißt. Begriff nach 1945. Auch in den ersten Jahren nach 1945 war "Deutsches Reich" und "Reich" eine gängige Bezeichnung für den wiederherzustellenden beziehungsweise neu zu organisierenden Staat. Das Völkerrechtssubjekt selbst blieb unangetastet; als solches wurde Deutschland bis 1948 durch den Alliierten Kontrollrat vertreten, während die höchste Regierungsgewalt in der jeweiligen Besatzungszone von den Oberbefehlshabern der Streitkräfte und für Berlin von der Alliierten Kommandantur ausgeübt wurde. In vielen Entwürfen für eine neue Verfassung der Jahre 1946/1947, beispielsweise der CDU, FDP und DP bzw. deren Politikern, findet sich der Ausdruck „Deutsches Reich“ wieder. Auch die unter alliierter Herrschaft ausgegebenen Pfennigmünzen der Jahrgänge 1945 bis 1948 trugen weiterhin die Bezeichnungen "Reichspfennig" und "Deutsches Reich". Staatsrechtliche Fragen. a> auf einer deutschen Briefmarke, 1969 Die Bundesrepublik Deutschland könne also nicht als Nachfolgestaat angesehen werden, sondern sei vielmehr "als Staat" identisch mit dem Staat "Deutsches Reich" und "nicht dessen Nachfolger" resp. Rechtsnachfolger. Damit wird eine zum Teil staatsrechtliche Kontinuität und die völkerrechtliche Identität – durch das Völkerrechtssubjekt»Deutschland«vertreten und verdeutlicht –, die 1871 mit dem Deutschen Kaiserreich und vorausgehend 1867 mit dem Norddeutschen Bund begann, unter der Bezeichnung "Bundesrepublik Deutschland" fortgeführt. Diese Ansicht wird durch die herrschende Meinung in der Rechtswissenschaft sowie internationale Verträge – u. a. das "Reichskonkordat" – gestützt. Davon bleibt aber unberührt, dass, von einer "politisch-historischen Perspektive" aus betrachtet, das Reich mit der Niederlage im Zweiten Weltkrieg im Jahre 1945 untergegangen, das heißt „institutionell zusammengebrochen“ war. Das Deutsche Reich im Gebietsstand vom 31. Dezember 1937 wurde jedoch bis zum Abschluss des Warschauer Vertrages 1970 sowie bestätigend (u. a. der deutschen Ostgrenze) durch den Zwei-plus-Vier-Vertrag – letztendlich 1990 einhergehend mit der Deutschen Einheit – begrifflich mit "Deutschland" gleichgesetzt und auch so bezeichnet (vgl. den Begriff „Deutschland als Ganzes“). Mit der Wiedererlangung voller staatlicher Souveränität durch Inkrafttreten der "Abschließenden Erklärung" des Zwei-plus-Vier-Vertrags am 15. März 1991 wurde die (erweiterte) Bundesrepublik Deutschland endgültig das, was zuvor bereits das "Deutsche Reich" (von 1871) gewesen war: ein gesamtdeutscher Nationalstaat beziehungsweise der gegenwärtige föderale und föderative Bundesstaat, der (als wesentlichen Bestandteil der europäischen Friedensordnung) die Nachkriegsordnung mit seinen Grenzen anerkannt hat. Ackerbohne. Weiße, zygomorphe Blüte mit dem dunklen Saftmal Geöffnete, unreife Hülsenfrucht mit nierenförmigen Samen Die Ackerbohne ("Vicia faba"), auch Saubohne, Schweinsbohne, Favabohne, Dicke Bohne, Große Bohne, Pferdebohne, Viehbohne, Faberbohne oder Puffbohne genannt, ist eine Pflanzenart in der Unterfamilie Schmetterlingsblütler (Faboideae) innerhalb der Familie der Hülsenfrüchtler (Fabaceae oder Leguminosae). Diese Nutzpflanze gehört zur Gattung der Wicken ("Vicia"), im Gegensatz zur Gartenbohne, die der Gattung "Phaseolus" angehört. Die Puffbohne wurde durch den Verein zur Erhaltung der Nutzpflanzenvielfalt (VEN) zum Gemüse des Jahres 1998/1999 gewählt. Kulturgeschichte. Die Wildform, von der die Ackerbohne abstammt, ist nicht bekannt. Heute kommt die Ackerbohne nur als Kulturpflanze vor. Als Kandidaten genannte Wildpflanzen ("Vicia narbonensis" L., "Vicia galilaea" Plitmann & Zohary) sind heutigen Erkenntnissen nach zwar nahe Verwandte, aber keine Stammformen. "Vicia faba" und "Vicia narbonensis" sind nach neueren Erkenntnissen Geschwister einer Elternform, die heute ausgestorben ist. Am nächsten zur vermuteten Wildform wird die in Indien, am Himalaja und in Südostspanien angebaute Unterart "Vicia faba" subsp. "paucijuga" angesehen, eine stark verzweigte Wuchsform ohne Haupttrieb und ohne Samen. Als weitere Verwandte, die Ausgangsformen für "Vicia faba" sein könnten, werden genannt: "Vicia galilaea", die im Vorderen Orient beheimatet ist, und "Vicia pliniana" aus Algerien, die wahrscheinlich nur eine kleinsamige Form von "Vicia faba" ist. Frühe Formen der „Dicken Bohne“ waren gar nicht so dick. Man findet diese kleineren Samen erstmals in archäologischen Ausgrabungen in einer Steinzeitsiedlung bei Nazaret in Israel, die zwischen 6800 v. Chr. und 6500 v. Chr., eventuell auch nur 6000 v. Chr. datiert sind. Es ist nicht klar, ob diese Samenfunde gesammelte Wildsamen oder angebaute Bohnen sind. Erst seit dem 3. vorchristlichen Jahrtausend findet sich die Dicke Bohne in vielen Ausgrabungsstätten im Mittelmeerraum. Seitdem hat die Ackerbohne ihren Siegeszug bis nach Mitteleuropa angetreten. In den ersten Jahrhunderten nach Christus entwickelte sich ein Anbauschwerpunkt an der Nordseeküste, weil sie als einzige Hülsenfrucht auf salzigen Böden in Küstennähe gedeiht. Neben anderen Hülsenfrüchten (Linse, Erbse) stellte sie die Versorgung der Menschen mit Proteinen sicher. Im Mittelalter war sie eines der wichtigsten Nahrungsmittel, auch bedingt durch die hohen Erträge. In dieser Zeit tauchte erstmals die großsamige Varietät auf, die heute verbreitet ist. Seit dem 17. Jahrhundert ging der Anbau in Europa zurück. Die aus Amerika eingeführte Gartenbohne und Feuerbohne wurden zur menschlichen Ernährung vorgezogen. Die Dicke Bohne dient heute hauptsächlich als Viehfutter. In Westfalen und im Rheinland werden Dicke Bohnen mit Speck heute noch gerne genossen. Eine besondere Verbindung besteht zwischen der Stadt Erfurt und der Puffbohne. Aufgrund der dortigen fruchtbaren Böden und des milden Klimas sind die Bohnen dort meist besonders gut gediehen und bekamen wegen ihrer Größe (ausgepuffte, große Bohne) den speziellen Namen Puffbohne. Schon seit dem Mittelalter war sie wegen des hohen Eiweiß- und Stärkegehaltes ein beliebtes und wichtiges Nahrungsmittel für die arme Bevölkerung. Daher gilt die Puffbohne als das Stadtmaskottchen, und jeder gebürtige Erfurter wird auch als „Erfurter Puffbohne“ bezeichnet. Vegetative Merkmale. Die Dicke Bohne ist eine einjährige krautige Pflanze, die Wuchshöhen von 0,3 bis zu 2 Metern erreicht. Die bis zu 1 Meter tiefgehende Pfahlwurzel ist im oberen Bereich stark verzweigt. Der aufrechte, unverzweigte Stängel ist vierkantig, hohl und kahl. Die paarig gefiederten Laubblätter besitzen meist zwei bis drei Paare Fiederblättchen und eine grannenartige Spitze ohne Ranke. Die breiten und ovalen Fiederblättchen sind 3 bis 10 Zentimeter lang, 1 bis 4 Zentimeter breit, blaugrün, etwas fleischig und unbehaart. Die großen Nebenblätter sind 10 bis 17 Millimeter lang, ganzrandig oder an der Spitze leicht gezähnt und besitzen oft violettbraune Nektarien. Generative Merkmale. Die Blütezeit reicht von Mai bis Juni. Ein bis sechs Blüten stehen an kurzen Stielen in den Blattachseln. Die relativ großen, duftenden Blüten sind zygomorph und fünfzählig mit doppelter Blütenhülle. Die fünf 12 bis 15 Millimeter langen Kelchblätter sind röhrig verwachsen; die unteren lanzettlichen Kelchzähnen sind mit 5 Millimetern länger als die anderen. Die fünf Kronblätter sind weiß. Die Flügel sind in der Grundfarbe auch weiß mit jeweils einem dunkel-purpurfarbenen Flecken. Der fast rechtwinklig gebogene Griffel ist oben flaumig und an den Seiten bärtig behaart; er endet mit einer zweiteiligen Narbe. Neun der zehn Staubblätter sind zu einer Röhre verwachsen. Die abstehenden, 8 bis 20 Zentimeter langen und 1 bis 3 Zentimeter dicken Hülsenfrüchte sind unbehaart, anfangs grünlich bei Vollreife braun bis schwarz und enthalten zwei bis sechs Samen. Je nach Sorte sind die glatten Samen verschieden geformt, 1 bis 2,5 Zentimeter lang, und 4,5 bis 9 Millimeter dick. Die Farben der Samen reichen von hell rötlich-braun bis hell bis dunkel grünlich-braun oder hell bis dunkel purpurfarben, oft mit Flecken oder Punkten in ähnlichen oder stärker abweichenden Farben. Die Chromosomengrundzahl beträgt x = meist 6, selten 7; es liegt Diploidie vor mit Chromosomenzahlen von 2n = meist 12, selten 14. Ökologie. Die Ackerbohne ist ein einjähriger, sommerannueller Therophyt. An der Haupt- und den Seitenwurzeln befinden sich zahlreiche "Rhizobium"-Wurzelknöllchen mit dem symbiontischen, stickstoffbindenden Bakterium "Rhizobium leguminosarum" aus. Die Blüten sind weiß, aber ihre Flügel haben ein dunkles Flecksaftmal, hervorgerufen durch Anthophäin aus der bei Pflanzen sonst seltenen Farbstoffgruppe der Melanine. Während der Dämmerung schließt sich die Fahne um die anderen Blütenteile und hüllt sie während der Nacht ein. Die von Juni bis Juli reifenden Früchte sind durch sekundäre Gewebswucherungen quergefächert. Nutzung. Die Ackerbohne wird sowohl als Futtermittel für Tiere als auch zur menschlichen Ernährung genutzt. Zur Verfütterung kommen sowohl die Samen als auch der ganze Spross. Für den Menschen ist die Hülse nur sehr jung genießbar. Die Samen können sowohl frisch als auch getrocknet verwendet werden, getrocknet sind sie ohne weitere Konservierung lagerfähig. Im arabischen Raum werden unter anderem Hummus, Falafeln und Ful aus Favabohnen zubereitet. Der Samenertrag beträgt zwischen 15 und 70 dt pro Hektar Anbaufläche. Daneben werden Ackerbohnen auch zur Gründüngung angebaut. Die Samen enthalten etwa 25 bis 30 % Protein, 1 bis 2 % Fett, 40 bis 50 % Kohlenhydrate, daneben Ballaststoffe und Wasser. Es gibt umfangreiche Untersuchungen zur Gewinnung, Modifizierung und Einsatz der Hauptinhaltsstoffe, wie Protein und Stärke, aus den getrockneten Samen. Anbau. Die Ackerbohne benötigt einen Standort, an dem ihr hoher Wasserbedarf entweder durch tiefgründigen Boden mit hohem Wasserhaltevermögen oder durch einen hohen Grundwasserstand, gleichmäßige Niederschläge bzw. künstliche Bewässerung gedeckt werden kann. Sie wird daher oft in Marschland und auf schwerem Lehm angebaut. Da sie nicht frostempfindlich ist, kann die Dicke Bohne in Gebieten angebaut werden, die für andere Bohnen nicht geeignet sind. Da die Bohnen zur Entwicklung eines gewissen Vernalisationsreizes bedürfen und über eine gute Resistenz gegen Frost verfügen, kann die Aussaat der bereits bei Bodentemperaturen von 2 bis 3 °C keimenden Bohnensamen bei offenem (frostfreiem) Boden bereits im Februar stattfinden, die Ernte erfolgt dann ab Juni. In besonders wintermilden (maritimen) Klimaten wie in England werden Ackerbohnen auch als Winterfrucht bereits im vorausgehenden Herbst ausgesät. Die Aussaat erfolgt zwecks besserer und tieferer Bewurzelung und höherer Standfestigkeit recht tief mit einer Saattiefe zwischen 6 und 10 Zentimeter, bei Herbstaussaat gar bis 15 Zentimeter. Die Ernte der Bohnen erfolgt in der Landwirtschaft mittels Mähdrescher im Mähdruschverfahren, das erhebliche Nährstoffmengen enthaltende Bohnenstroh verbleibt kleingehäckselt auf dem Acker. Krankheiten. "Uromyces viciae-fabae" ist ein bedeutender Schädling der Ackerbohne. Eine Bodenbearbeitung vermindert den Befall, da dieser Pilz in befallenen Pflanzenteilen überwintert. Zugelassen ist eine chemische Bekämpfung mit Folicur und pyrethroidhaltigen Insektiziden. "Botrytis fabae" löst die Schokoladenfleckenkrankheit aus. Bedeutend ist zudem die Brennfleckenkrankheit, die durch "Ascochyta fabae" ausgelöst wird. Verschiedene bodenbürtige Pilze können Auflauf- und Fußkrankheiten auslösen. Systematik. Die Erstveröffentlichung von "Vicia faba" erfolgte 1753 durch Carl von Linné in "Species Plantarum", Band 2, S. 737. Synonyme für "Vicia faba" sind: "Faba bona", "Faba equina", "Faba faba", "Faba major", "Faba minor", "Faba sativa", "Faba vulgaris", "Orobus faba", "Vicia esculenta", "Vicia vulgaris". "Vicia faba" gehört zur Sektion "Faba" der Untergattung "Vicia" aus der Gattung "Vicia" in der Tribus Fabeae in der Unterfamilie Schmetterlingsblütler (Faboideae) innerhalb der Familie der Hülsenfrüchtler (Fabaceae oder Leguminosae). Toxikologie. Ackerbohnen können für Menschen mit der Erbkrankheit G6PD-Mangel zu einem verstärkten Zerfall roter Blutkörperchen führen, zum Favismus. In Mitteleuropa weisen etwa 1 % der Bevölkerung den G6PD-Mangel auf, der zum Favismus führen kann, aber nicht muss. Die Bevölkerung in Malaria-Gebieten – im Mittelmeerraum, in Afrika und Asien – ist zu einem größeren Prozentsatz von dem Gendefekt betroffen. Zum Krankheitsbild des Favismus kann es nach dem Einatmen des Blütenstaubes und nach dem Verzehr der rohen, seltener auch der gekochten Bohnen kommen. 5 bis 48 Stunden nach dem Essen können Übelkeit, Erbrechen und Durchfall, Bauchschmerzen und Schwindelgefühl auftreten. In leichten Fällen verschwinden die Symptome nach einigen Tagen. In schweren Fällen entsteht eine akute hämolytische Anämie. Die Krankheit verläuft nach dem Einatmen des Blütenstaubs oft schwerwiegender. Diese Krankheit kann in seltenen und besonders schweren Fällen zum Tod führen. Beim Favismus wirken die Glucoside Vicin (0,6–0,8 % im Samen der Pflanze) und Convicin (0,1–0,3 %), als Begleitstoffe wirken Lectine und L-Dopa. Vicin und Convicin oxidieren Glutathion. Bei Fehlen des reduzierenden Enzyms Glucose-6-phosphat-Dehydrogenase (G6PD) treten die Symptome des Favismus auf. Auch bei Tieren kommen Vergiftungserscheinungen durch "Vicia"-Arten vor, besonders bei Pferden, Rindern und Schweinen. Das Krankheitsbild bei Pferden zeigt sich in einer schweren Leberdegeneration mit Koliken. Auf eine ausschließliche Verfütterung von Wicken sollte daher verzichtet werden. Seit einiger Zeit gibt es Sorten, bei denen der Gehalt an Vicin und Convicin auf etwa ein Fünftel reduziert ist. Es ist noch unklar, ob damit Favismus unterbleibt. Diese Züchtung wurde vor allem zur Verbesserung der Qualität als Tierfutter durchgeführt. Donau. Die Donau ist mit einer mittleren Wasserführung von rund 6855 m³/s und einer Gesamtlänge von 2857 Kilometern nach der Wolga der zweitgrößte und zweitlängste Fluss in Europa. Der Strom entwässert weite Teile Mittel- und Südosteuropas. Er verbindet als Wasserweg sehr heterogene Kultur- und Wirtschaftsräume und durchfließt dabei zehn Länder (Deutschland, Österreich, Slowakei, Ungarn, Kroatien, Serbien, Bulgarien, Rumänien, Moldawien und Ukraine) – so viele wie kein anderer Fluss auf der Erde. Die Donau führt ihren Namen ab der Vereinigung zweier Quellflüsse, der Brigach und der größeren Breg, die beide im Mittleren Schwarzwald entspringen. Sie durchquert drei große Beckenlandschaften: das nördliche Alpenvorland und das Wiener Becken (Oberlauf), die Pannonische Tiefebene (Mittellauf) und das Walachische Tiefland (Unterlauf). Die trennenden Gebirge durchschneidet sie in Engtälern, deren bekannteste Abschnitte der Donaudurchbruch bei Beuron, die Wachau, die Hainburger Pforte (auch Preßburger Pforte) und das Eiserne Tor sind. Der Strom mündet über das ausgedehnte Donaudelta ins Schwarze Meer. Bedeutung. Die Donau hat eine hohe geografische, historische und kulturelle Bedeutung in Europa und ist im deutschen Sprachraum in ihrer Bedeutung dem Rhein vergleichbar. Hinsichtlich des Einzugsgebietes steht sie mit 796.000 km² (8 % der Fläche Europas; nach anderen Quellen 817.000 km²) hinter der Wolga (1.360.000 km²) und vor dem Dnepr (531.817 km²) an 2.Stelle. Geografie und Wasserführung. Einzugsgebiet und Hauptnebenflüsse der Donau Flusseinzugsgebiete und Hauptwasserscheiden in Europa Das Einzugsgebiet der Donau umfasst etwa 817.000 Quadratkilometer. Es ist etwas asymmetrisch; links (nördlich) der Donau liegen 56 Prozent der Fläche, rechts 44 Prozent. Dennoch steuern die Nebenflüsse der kleineren rechten Seite rund zwei Drittel des Wasservolumens bei, was vom hier größeren Flächenanteil hoher Gebirge herrührt, die zudem einen großen Teil der von West- und Südwestwinden herangeführten Feuchte abfangen. Dies spiegelt sich darin wider, dass im südlichen pannonischen Becken von rechts mit der Save der mit Abstand wasserreichste Nebenfluss mündet und von links mit der kaum halb so großen Theiß der deutlich längste Nebenfluss der Donau. Weiter unterhalb übertrifft die Wasserführung der von rechts kommenden Morava die des am Donaudelta von links kommenden, etwa fünfmal so langen Pruth um gut das Doppelte. Und auch im deutschen Donaugebiet führen die drei größten linken Nebenflüsse (Altmühl, Naab und Regen) zusammen weniger Wasser als der in diesem Teil nur drittgrößte rechte Nebenfluss Lech. Der weitaus größte Nebenfluss der oberen Donau, der Inn, ist der Donau am Zusammenfluss in Passau mindestens ebenbürtig, und bei Ulm wird die Donau von der Iller sogar um gut ein Drittel übertroffen. Die meisten der größeren Nebenflüsse entspringen in den Ostalpen und Karpaten, sowie in den Gebirgen der Balkanhalbinsel. Die Karpaten sind kein Randgebirge des Donaueinzugsgebiets, sondern ragen in es hinein, weil sie ostseitig vom Siret/Prut-System entwässert werden. Sie trennen den unteren Donauraum vom mittleren. Die Alpen springen mit ihren Nordostausläufern ebenfalls ein und gliedern in mittlere und obere Donau. Quellflüsse. Bei Donaueschingen fließen Brigach und Breg zur Donau zusammen. Von den beiden Quellflüssen ist die etwas südlicher und höher entspringende Breg nach allen gewässerkundlichen Merkmalen der etwas größere Fluss. Daneben gilt sinnbildlich der Quelltopf des Donaubachs in der Nähe der Vereinigung beider Quellflüsse traditionell als Donauquelle. Ab hier hat die Donau eine Länge von gut 2810 Kilometern. Nebenflüsse. Eine Länge von über 500 Kilometern haben Theiß, Pruth, Save, Drau, Olt, Sereth und Inn. Flüsse mit einer Wasserführung von über 500 m³/s sind Save, Theiß, Inn und Drau. Liste der Nebenflüsse aus dem "Handbuch für Donaureisen", Wien 1935, herausgegeben von der Ersten Donau-Dampfschiffahrts-Gesellschaft Anliegende Staaten. Die Donau hat (Stand im Jahr 2013) zehn Anrainerstaaten (in Fließrichtung, mit Anteil am Einzugsgebiet): Deutschland (7,3 %), Österreich (9,9 %), Slowakei (5,9 %), Ungarn (11,4 %), Serbien (9,5 %) und Rumänien (28,4 %) auf beiden Ufern sowie einseitig Kroatien (4,3 %), Bulgarien (5,9 %), Moldawien (1,5 %) und die Ukraine (4,0 %). Insgesamt sind 1071 Kilometer des Flusses auf Staatsgrenzen, mithin 37 Prozent des Donaulaufs. Weitere Länder haben Anteile am Einzugsgebiet des Flusses. In absteigender Reihenfolge der Flächenanteile sind dies Bosnien-Herzegowina (4,7 %), Tschechien (3,0 %), Slowenien (2,2 %), Montenegro (0,9 %), das Kosovo (0,7 %), die Schweiz (0,2 %), sowie mit je unter 0,1 % Italien, Mazedonien, Polen und Albanien. Das Flusssystem der Donau ist über zahlreiche Kanäle erschlossen, im Besonderen durch den Main–Donau-Kanal und die Kanäle zum nordöstlichen Nachbarfluss Dnjestr, so dass auch Länder wie Frankreich und die Beneluxstaaten oder Russland, Weißrussland und das Baltikum indirekten Binnenschifffahrts-Zugang zur Donau haben. Städte an der Donau. An der Donau liegen die Städte (* = Hauptstadt) Sigmaringen, Mengen, Riedlingen, Ulm, Neuburg, Ingolstadt, Regensburg, Straubing, Deggendorf, Passau, Linz, Krems, Tulln, Stockerau, Korneuburg, Klosterneuburg, Wien*, Hainburg, Bratislava*, Győr, Komárom, Esztergom, Visegrád, Vác, Budapest*, Dunaújváros, Paks, Kalocsa, Baja, Mohács, Batina, Vukovar, Ilok, Novi Sad, Belgrad*, Pančevo, Smederevo, Drobeta Turnu Severin, Widin, Russe, Brăila, Galați und Tulcea. Deutschland. Namentlich entsteht die Donau 1,4 Kilometer östlich von Donaueschingen durch den Zusammenfluss der beiden Quellflüsse Brigach und Breg („Brigach und Breg bringen die Donau zuweg“). Als Donauquelle wird nicht nur die Quelle des größeren der beiden Quellflüsse, der Breg bei Furtwangen, bezeichnet, sondern auch der gefasste Ursprung des in Donaueschingen entspringenden "Donaubaches" ("siehe auch" Donauquelle). Von der Bregquelle bis zur österreichischen Grenze legt die Donau ihre ersten gut 618 Kilometer zurück; sie bildet damit die viertlängste Flussstrecke in Deutschland. Jedoch verliert sie etwa 75 Kilometer unterhalb des Bregursprungs den größten Teil ihres Wassers in der Donauversinkung; während der überwiegenden Zeit des Jahres sogar vollständig. Die größten Städte des Laufabschnitts sind nacheinander Tuttlingen, Ulm, Neu-Ulm, Neuburg an der Donau, Ingolstadt, Regensburg, Straubing und Passau. Von Ulm bis Kelheim ist die Donau Landeswasserstraße; von Kelheim bis zur Staatsgrenze Bundeswasserstraße mit 203 km Schifffahrtsweg (bei 9,8 km "negativen Fehlstrecken", besonders durch die Abkürzungen in Bad Abbach und Straubing, gegenüber der Differenz der Donaukilometerstationen). In diesem Abschnitt sind die wichtigsten rechtsseitigen Nebenflüsse die Iller in Neu-Ulm, der Lech bei Marxheim (östlich von Donauwörth), die Isar bei Deggendorf und in Passau schließlich der Inn. Linksseitig sind es in Donauwörth die Wörnitz, hinter Kelheim die Altmühl und schließlich bei Regensburg die Naab und der Regen ("„Iller, Lech, Isar, Inn fließen rechts zur Donau hin; Wörnitz, Altmühl, Naab und Regen kommen ihr von links entgegen.“"). Kleinere Nebenflüsse sind Bära, Riß, Roth, Lauchert, Große Lauter, Blau, Nau, Günz, Brenz, Mindel, Zusam, Schmutter, Paar, Abens, Große Laber, Vils, Ilz oder Erlau. Die in Deutschland entspringende Ranna mündet in Österreich. In Passau fließen zunächst die Ilz mit moorbraunem Wasser von links in die dunkelblaue Donau und gleich danach von rechts der grüngraue Inn. Die Donau hat diese drei Farben noch ein längeres Stück nach dem Zusammenfluss. Das Wasser des Inn dominiert hier das Bild; dies rührt weniger von seiner im Mittel größeren Wasserführung her als von seiner geringeren Tiefe (Inn: 1,90 Meter, Donau: 6,80 Meter – „der Inn überströmt die Donau“). Die im Jahresmittel etwa sieben Prozent größere Wasserführung des Inn (738 m³/s gegenüber 690 m³/s) fließt vor allem während seiner stärkeren Hochwasser zur Schneeschmelze ab. Mehr Wasser als der Inn führt die Donau mit ihrer ausgeglicheneren Wasserführung über die sieben Monate von Oktober bis April. Bedeutende Bauwerke am Fluss sind die Erzabtei Beuron, das Fürstenschloss der Hohenzollern in Sigmaringen, das gotische Münster zu Ulm mit dem höchsten Kirchturm der Welt (161,53 m), die am Eingang zur klammartigen Weltenburger Enge errichtete Abtei Weltenburg und die Befreiungshalle bei Kelheim an deren Ende. Es folgen die Steinerne Brücke und der Dom St. Peter in Regensburg sowie die Walhalla bei Donaustauf etwa zehn Kilometer weiter östlich. Das Stadtbild von Passau wird vom Dom St. Stephan beherrscht, in dem die größte Domorgel der Welt steht. Österreich. Das Donautal und seine Nebenlandschaften bilden den Kernraum Österreichs: Es umfasst zwar nur etwa 15 Prozent des Staatsgebietes, aber ungefähr die Hälfte der acht Millionen Einwohner leben hier, davon allein zwei Millionen in der Metropolregion Wien. In diesem Raum konzentriert sich die Wirtschaftsleistung des Landes, mit gewerblichen Kernzonen in Oberösterreich und im Wiener Verdichtungsraum. Das Donautal ist mit den Alpentransitrouten (Brenner, Tauern und Pyhrn) eine wichtige Transitachse Österreichs (West Autobahn, Westbahn). Von der deutschen Grenze bis an die slowakische durchfliesst die Donau Österreich auf rund 349 Kilometer. Die Donau durchbricht in Österreich mehrmals das Granit- und Gneishochland (Böhmische Masse), dazwischen durchfließt sie den Nordrand des Alpenvorlands. Nach der Staatsgrenze – zwischen Passau und Jochenstein in der Flussmitte – folgt das mit etwa 50 km längste dieser Engtäler, das "Oberösterreichische Obere Donautal" mit der "Schlögener Schlinge". Dann durchquert der Strom das fruchtbare "Eferdinger Becken" und Linz, die drittgrößte Stadt Österreichs. Im Auengebiet des "Machlands" fließt sie vorbei an Mauthausen, nimmt bei Enns den gleichnamigen Nebenfluss auf und quert die Landesgrenze zu Niederösterreich. Bei der alten Schifferstadt Grein und Schloss Greinburg hat die Donau mit ca. 20 m ihre tiefste Stelle in Österreich. Es folgen mit "Strudengau" und "Nibelungengau" zwei weitere Engtäler und rund 90 Kilometer hinter Linz erreicht der Strom Melk mit seinem gewaltigen Barockstift. Den Dunkelsteiner Wald abschneidend, durchfließt der Strom auf den folgenden knapp 35 Kilometern eine der schönsten Donaulandschaften, die "Wachau", die an Dürnstein vorüber bis nach Krems reicht; anschließend durchquert sie das "Tullnerfeld", eine weitere landwirtschaftlich geprägte Niederungslandschaft. An der "Korneuburger Pforte" knickt sie um den Wienerwald herum, den letzten Nordost-Ausläufer der Alpen, und erreicht dann durch die Wiener Pforte das weiträumige "Wiener Becken". Hier liegt mit Österreichs Hauptstadt Wien die lange Zeit größte und bedeutendste aller Donaustädte, mit der inzwischen Belgrad und Budapest gleichgezogen haben. Bis kurz hinter Wien hat der Strom eher Gebirgsflusscharakter, erst danach wandelt er sich allmählich zu einem Tieflandfluss. Durch die "Donau-Auen" nähert sich die Donau der Staatsgrenze zur Slowakei und bei der "Thebener Pforte" erreicht sie das Pannonische Becken, womit ihr Oberlauf im eigentlichen Sinne zu Ende geht. Sie verlässt Österreich bei Bratislava. Beinahe das gesamte Staatsgebiet Österreichs entwässert in die Donau und damit zum Schwarzen Meer. Wichtige Zuflüsse der Donau in Österreich sind der Inn (rechts; mündet in Deutschland), die Aist (links), die Traun (rechts), die Enns (rechts), die Ybbs (rechts), die Traisen (rechts), der Kamp (links), die Wien (rechts), die Schwechat (rechts), die March (links) und die Leitha (rechts), die in Ungarn die Donau erreicht. Hydrographisch gliedert sich der Donaueinzugsbereich in Österreich in die Flussgebiete "Donau bis -" (DBJ) und "Donau unterhalb Jochenstein" (DUJ). Der zweite umfasst den Hauptteil des Donaulaufs und der Donauzubringer in Österreich. Auf österreichischem Staatsgebiet liegen elf Donaukraftwerke, sie bilden die Basis der österreichischen Stromversorgung. Slowakei. Nur knapp 45 Kilometer von Wien entfernt, unmittelbar hinter der österreichisch-slowakischen Grenze, passiert die Donau die slowakische Hauptstadt Bratislava. Weiter flussabwärts bildet sie die Grenze zu Ungarn. In der Nähe von Bratislava zweigt am linken Ufer ein Seitenarm, die "Kleine Donau", von der Donau ab und bildet mit der Großen Schüttinsel die größte Flussinsel Europas. Die Kleine Donau verläuft in zahlreichen Mäandern und mündet bei Kolárovo in die Waag, den größten slowakischen Nebenfluss der Donau. Diese wird daher ab diesem Punkt auch "Waager Donau" genannt und fließt selbst bei Komárno wiederum in die Donau zurück. Auf der Elisabethinsel vor Komárno hat Kaiserin Elisabeth (Sisi) das erste Mal den Boden ihres Königreiches Ungarn betreten. Kurz vor der Staatsgrenze zu Ungarn mündet die Hron bei Štúrovo in die Donau. Ungarn. In Čunovo, dem südlichsten Stadtteil Bratislavas an der ungarischen Grenze, teilt sich die Donau erneut. Nur der nördliche Arm bildet die weitere slowakisch-ungarische Staatsgrenze. Der südliche Arm namens "Mosoni Duna" (Moson-Donau oder Kleine Donau) durchfließt kurz nach seiner Abtrennung vom Hauptarm ausschließlich ungarisches Territorium. An seinen Ufern liegt die Industrie-, Handels- und Universitätsstadt Győr. Hier mündet die Raab ein. Östlich von Györ fließt die Mosoni Duna wieder in den Hauptarm. Mit der Donau bildet die Moson-Donau die Kleine Schüttinsel, die teilweise unter Naturschutz steht. Die im Zweiten Weltkrieg zerstörte Donaubrücke in Esztergom, Ansicht von 1969 Die für Ungarn historisch wohl bedeutendste Stadt am weiteren gemeinsamen Flusslauf noch vor dem Donauknie ist die ehemalige Hauptstadt Esztergom. Nahe der Einmündung des Ipel (Ipoly) verlässt die Donau bei Szob die Staatsgrenze und ist nun an beiden Ufern ungarisch. Kurz darauf wird sie vom Börzsöny-Gebirge nach Süden abgedrängt und verläuft zwischen Gerecse- und Pilisgebirge. Ab dem eindrucksvollen, um rund 90 Grad abknickenden Donauknie bei Visegrád strebt die Donau für rund 500 Kilometer strikt südwärts. Nach ungefähr 40 Kilometern durchfließt die Donau Budapest, die Hauptstadt Ungarns, die mit etwas mehr als 1,7 Millionen Einwohnern (Stand 2013) die zweitgrößte Stadt an der Donau nach Wien ist. Hier erreicht der Fluss eine Breite von 400 bis 500 Metern. Budapest ist flussabwärts die letzte Stadt, die beidseitig der Donau liegt. Zugleich verlässt die Donau an dieser Stelle das ungarische Mittelgebirge und markiert ab hier die westliche Grenze der Großen Ungarischen Tiefebene. Nachdem sie zahlreiche kleinere Städte wie Dunaújváros, Paks, Kalocsa und Baja passiert hat, verlässt sie kurz hinter Mohács das ungarische Staatsgebiet. Kroatien. Mit 137 Kilometern Gesamtlänge hat Kroatien den nach Moldawien und der Ukraine kürzesten Anteil am "Dunav" (wie der Fluss hier genannt wird), der im Dreiländereck mit Ungarn und Serbien bei Batina beginnt. Der Fluss bildet die natürliche Grenze zwischen Kroatien und Serbien. Infolge von Flussregulierungen liegen allerdings heute auf zwei kurzen Abschnitten beide Ufer in Kroatien. Die bedeutendste kroatische Stadt an der Donau ist Vukovar, das im Krieg mit Serbien schwere Schäden davontrug, aber auch Osijek liegt in Donaunähe, lediglich 20 Kilometer entfernt von der Mündung der Drau in die Donau. Serbien. Anfangs teilen sich Kroatien (rechtes Ufer) und Serbien (linkes Ufer) die Donau. Unweit Batina zweigt der Große Batschka-Kanal nach links ab, der Teil des heute serbischen Donau-Theiß-Kanalsystems ist. Bei Bačka Palanka macht die Donau einen Knick und durchquert dann Serbien in südöstlicher Richtung, von der kroatischen hin zur rumänischen Grenze. Nur 25 Kilometer, nachdem die Donau von Ungarn her die Grenze und den Grenzrevisionspunkt Bezdan gegenüber von Batina passiert hat, liegt die bis zum Ende des Zweiten Weltkrieges fast nur von Donauschwaben bewohnte Hafenstadt Apatin, die erste größere serbische Stadt an der Donau. a> (Serbien) an der Donau mit Mündung der Jezava Weiter stromabwärts passiert der Strom die Stadt Novi Sad, deren Brücken 1999 im Kosovo-Krieg schwer beschädigt wurden. Über sechs Jahre lief der Verkehr zwischen den beiden Stadthälften über eine provisorische Pontonbrücke. Da diese nur dreimal pro Woche geöffnet wurde, stellte sie das bedeutendste Hindernis für den Schiffsverkehr entlang der Donau dar. Seit der Wiedereröffnung der Freiheitsbrücke am 11. Oktober 2005 ist die Donau wieder ungehindert befahrbar. Nach noch einmal 75 Kilometern erreicht die Donau Belgrad, die mit etwa 1,15 Millionen Einwohnern drittgrößte Stadt an der Donau (Stand 2012) und mit einem Alter von 7000 Jahren eine der ältesten ständig bewohnten Siedlungen an ihren Ufern überhaupt. Sie ist um die Mündung der Save gebaut, ihr Kern ist die gewaltige Festung Kalemegdan auf einer Anhöhe über der Mündung. Auf ihrem weiteren Weg durch Serbien fließt die Donau an den Industriestädten Pančevo, an der Mündung des Temesch, und Smederevo vorüber, wo die Morava in die Donau mündet. Bei Stari Slankamen mündet die Theiß von links, der größte Nebenfluss der Donau. Unterhalb der Ruine der serbischen Festung Golubac tritt sie in die beeindruckende Donauschlucht am Eisernen Tor ein. Die Donau bildet hier die Grenze zwischen Serbien und Rumänien bis zu den beiden Staudämmen "Đerdap 1" und "2". Auf serbischer Seite befindet sich der Nationalpark Đerdap. Rumänien. Auf 1075 Kilometern, über ein Drittel ihrer Gesamtlänge, passiert die Donau (rumänisch: "Dunărea") Rumänien. Das ist der längste Abschnitt aller Anrainerstaaten. Die Donau ist für das Land anfangs Grenzfluss zu Serbien, dann zu Bulgarien. Nach einer Richtungsänderung nordwärts ist sie rumänischer Binnenfluss im Bereich der Regionen Bărăgan und Dobrudscha, um später Grenzfluss zu Moldawien und zur Ukraine zu werden und schließlich ins Schwarze Meer über das Donaudelta zu münden. Auf rumänischem Boden wird die Donau über dem Donau-Schwarzmeer-Kanal schneller mit dem Schwarzen Meer verbunden. Noch vor dem spektakulären Eisernen Tor, für die Schifffahrt vor der Entschärfung zu Beginn der 1970er Jahre der gefährlichste Stromabschnitt, beginnt der rumänische Donaulauf südwestlich des Banater Gebirges. Nahe Orșova passiert sie den engsten Teil und erreicht Drobeta Turnu Severin, wo bei Islaz der Olt in die Donau mündet. Nun macht der Fluss einen Knick nach Süden vorbei an Gruia, Pristol, Cetate und Calafat. Dann beginnt die Donau ihre 400 Kilometer lange Reise gen Osten als Grenze zu Bulgarien. Dabei fließt sie an den Städten Dăbuleni, Corabia, Turnu Măgurele, Zimnicea, Giurgiu (direkt gegenüber auf bulgarischer Seite liegt die Stadt Russe), Oltenița, wo der Argeș in die Donau mündet, und Călărași vorbei. Nun begrenzen sie die Anhöhen der Dobrudscha nach Westen hin, sie fließt vorbei an Cernavodă, Topalu, Hârșova, Giurgeni und Gropeni und erreicht die beiden größeren Städte Brăila und Galați. Kurz dahinter wird sie wieder Grenzfluss zur Ukraine, um in Richtung Osten bald das Donaudelta zu erreichen. Zuvor berührt sie Tulcea und Pardina. Bulgarien. Im Norden Bulgariens wird die Grenze nach Rumänien fast auf ganzer Länge von der Donau gebildet. Die Donau ist zwar der einzige schiffbare Fluss Bulgariens, hat aber verkehrstechnisch nur regionale Bedeutung für diesen dünn besiedelten Landesteil. Es gibt zwölf bulgarische Donauhäfen mit einer kleinen Handelsflotte, darunter Swischtow, Russe, Widin, Nikopol, Lom und Silistra. Als Grenzrevisionspunkt im Nordwesten ist darüber hinaus noch Orjachowo von Bedeutung. In der Stadt Swischtow erreicht die Donau auch ihren südlichsten Punkt, von hier an fließt sie allmählich nordwärts und verlässt dann hinter Silistra das bulgarische Territorium. Moldawien. Der Anteil Moldawiens an der Donau ist der kleinste aller Anrainerstaaten. Nur auf einer Länge von 340 Metern berührte ursprünglich der südlichste Zipfel des Landes die Donau zwischen Rumänien und der Ukraine kurz hinter Galați bei Giurgiulești an der Mündung des Pruth. Im Jahr 1999 überließ die Ukraine Moldawien in einem Gebietstausch weitere 230 Meter, so dass die Gesamtlänge des moldawischen Ufers heute 570 Meter beträgt. Moldawien beabsichtigt, den Zugang zur Donau für den Bau des umstrittenen Hafens in Giurgiulești zu verwenden. Ukraine. Kurz hinter der Mündung des Pruth bildet der Fluss die Grenze zwischen Rumänien auf dem rechten Ufer und der Ukraine. Die bedeutendsten ukrainischen Städte an der Donau sind Ismajil, Kilija sowie Wylkowe, wo der Bystre-Kanal beginnt. Hinter dem ukrainischen Abschnitt wird die Donau in den beiden südlich gelegenen Mündungsarmen wieder auf beiden Ufern rumänisch, während der nördliche Kilijaarm weiterhin die Grenze zur Ukraine bildet. Sie formt bei ihrer Mündung in das Schwarze Meer das Donaudelta mit rund 800.000 Hektar Fläche (davon rund 680.000 Hektar in Rumänien). Geologische Entwicklung. a> Situation an der oberen Donau Erdgeschichtlich markiert die Donau die Linien, an denen sich im Miozän ab etwa zwölf Millionen Jahren vor heute im Zuge der noch andauernden Kollision der afrikanischen und eurasischen Kontinentalplatten das schmale Randmeer der Paratethys von Westen nach Osten schloss und trocken fiel. Die Auffaltungen der Alpen und Karpaten waren bereits im Gange und schlossen zeitweise große brackige Seen ein, in der heutigen ungarischen Tiefebene der "Pannonsee" und ebenso in der südlichen Randsenke der Karpaten, der heutigen Walachischen Tiefebene. Nördlich der Alpen, im heutigen Alpenvorland, entwässerten Vorläufer der Donau auch nach Westen, bevor sich im älteren Pliozän, vor etwa sieben Millionen Jahren, die Urdonau zu formieren begann. Ihr Oberlauf umfasste zeitweilig sogar das alpine Rhonetal, aber schon bei Wien mündete sie in die Restgewässer der Paratethys. Mit der folgenden weiteren Gebirgsbildung und der Landhebung im Donauraum wurden die Seen im heutigen Mittel- und Unterlauf zusedimentiert und das große Flusssystem des Donau-Oberlaufes wurde von den gefälle- und erosionsstärkeren Nachbar-Flusssystemen der Rhone und besonders des Rheins angeschnitten und aufgerieben. Das Donausystem verlagerte sich so ostwärts bis zur heutigen Lage. Dieser Vorgang setzt sich noch immer fort, indem sich das Donaudelta weiter nach Osten ins Schwarze Meer schiebt, vor allem aber im Westen das Einzugsgebiet von den Nebenflüssen des Rheins verkleinert wird. Nachdem zunächst im jüngeren Pliozän die Aare und zu Beginn des mittleren Pleistozän der Alpenrhein zum Rheingraben hin ausbrachen, ging in der Würmkaltzeit der Hauptquellast aus dem Schwarzwald an die Wutach verloren und mit der Donauversinkung in der Schwäbischen Alb ist der Verlust des gesamten Schwarzwälder Einzugsgebietes eingeleitet. Nach einer Strecke von 14 Kilometern durch Klüfte und Höhlen verkarsteten Kalksteins tritt das Donauwasser im Aachtopf aus, von wo es über den Bodensee in den Rhein gelangt. Bei geringer Wasserführung kann es inzwischen über Monate zum völligen Trockenfallen der oberen Donau kommen und damit zu einem Verlust an das Flusssystem des Rheins. Geschichte der Nutzung. Im siebten Jahrhundert vor Christus segelten Griechen, die vom Schwarzen Meer her über die Stadt Tomis, das heutige Constanța, kamen, flussaufwärts. Ihre Erkundungsreise endete am Eisernen Tor, einer felsigen Kataraktstrecke voller Untiefen, deren gefährlicher Verlauf den griechischen Schiffen die Weiterreise über die Linie Südkarpaten und Serbisches Erzgebirge (an der heutigen Grenze von Rumänien zu Serbien) unmöglich machte. Den Unterlauf nannten die Griechen Istros, der Oberlauf war ihnen nicht bekannt. Dieser Name für den Unterlauf war zunächst bei den Römern in Gebrauch; den Oberlauf nannten sie nach dem keltischen Namen Danuvius, der in der Antike als Gott verehrt wurde. Unter den Römern bildete die Donau fast von der Quelle bis zur Mündung die Grenze zu den Völkern im Norden und war zugleich Route für Truppentransporte sowie für die Versorgung der stromabwärts gelegenen Siedlungen. Vom Jahr 37 an bis zur Regierungszeit des Kaisers Valentinian I. (364–375) war der Donaulimes mit gelegentlichen Unterbrechungen, etwa dem Fall des Donaulimes 259, die nordöstliche Grenze des Reiches. Die Überschreitung der Donau nach Dakien hinein gelang dem "Imperium Romanum" erst in zwei Schlachten 102 und 106 nach dem Bau einer Brücke 101 bei der Garnisonsstadt Drobeta am Eisernen Tor. Dieser Sieg über die Daker unter Decebalus ließ die Provinz Dacia entstehen; 271 ging sie wieder verloren. Im neunten Jahrhundert war die Donau Wanderweg für das osteuropäische Hirtenvolk der Magyaren, die donauaufwärts über die Zwischenstation des Chasarenreichs bis in das heutige Ungarn vordrangen und dort gemeinsam mit der slawischen Vorbevölkerung in den kommenden 150 bis 200 Jahren unter Stephan I. die heutige ungarische Nation begründeten. Auch die bereits zwischen 1096 und 1099 beim ersten Kreuzzug vom Heer Gottfried von Bouillons genutzte Route Charlemagne führte von Regensburg bis Belgrad entlang der Donau. Rund 340 Jahre später kehrte sich die Richtung um, denn für das türkische Heer war die Donau auf ihrem Feldzug durch Südosteuropa die zentrale Route für den Transport von Truppen und Nachschub. Der Fluss ermöglichte ein rasches Vorrücken, bereits im Jahr 1440 führten sie 2000 Kilometer hinter der Mündung die ersten Schlachten um Belgrad. Dessen Eroberung gelang 1521. 1526 zerschlug das osmanische Heer in der ersten Schlacht bei Mohács (1526) das ungarische Königreich. Da König Ludwig II. dabei zu Tode kam, fiel Ungarn an das habsburgische Österreich. Dies gilt als der Keim der Donaumonarchie. Im Jahr 1529 erreichten die Türken Wien (damals das Zentrum Mitteleuropas) und belagerten es, wurden aber geschlagen. So war die Expansion der Osmanen entlang der Donau gestoppt und ab der zweiten Schlacht bei Mohács (1687) verloren sie wieder Land und Macht. Das allmähliche Zurückdrängen der Türken ging im Wesentlichen auf die Initiative Österreich-Ungarns zurück, das daran erstarkte, zumal es gleichzeitig aus dem Heiligen Römischen Reich Deutscher Nation verdrängt wurde. Neben den Österreichern blieb das Osmanische Reich aber weiterhin bis zum endgültigen Verlust seiner Balkangebiete durch die russisch-türkischen Kriege (1768–1774) und die Balkankriege 1912/13 der bedeutendste politische Faktor Südosteuropas. Die Donau war dabei nicht nur militärische und kommerzielle Hauptschlagader, sondern auch politische, kulturelle und religiöse Grenze zwischen Morgen- und Abendland. Im Friedensvertrag von Versailles nach dem Ersten Weltkrieg wurde die Donau 1919 zusammen mit Elbe, Memel und Oder zum Internationalen Fluss erklärt. Nach dem Zweiten Weltkrieg (die Sowjetunion besetzte unter anderem Ungarn und Teile Österreichs) wurde 1946 eine neue Regelung des Flussverkehrs ins Auge gefasst, die das Pariser Abkommen von 1921 ablösen sollte. Zur Belgrader Konferenz 1948 waren alle Anrainerstaaten bis auf Deutschland und Österreich zugelassen. Mit Unterzeichnung des fertigen Übereinkommens wurde zugleich ein Anhang signiert, der Österreich anschließend in die Donaukommission aufnahm. Die Bundesrepublik Deutschland konnte dem Übereinkommen und der Donaukommission aufgrund sowjetischer bzw. russischer Vorbehalte gegen eine deutsche Mitbestimmung erst im März 1998 beitreten, fast 50 Jahre nach der Belgrader Konferenz. 1977 wurde ein ungarisch-tschechoslowakischer „Staatsvertrag zur gemeinsamen Nutzung der Donau-Energie“ besiegelt. Geplant war das „Staustufenprojekt Gabčikovo-Nagymaros“. Zwischen dem slowakischen Ort Gabčikovo und dem ungarischen Nagymaros am Donauknie sollte ein 200 Kilometer umfassendes Staustufensystem entstehen. Es sollten dafür verschiedene Stauseen entstehen und ein Teil des Donauhauptarms verlegt werden. Ab 1983 verschleppte die ungarische Seite das Projekt aus finanziellen Gründen. Im Frühjahr 1984 bekräftigten ungarische Umweltschützer durch eine Unterschriftenaktion ihre Bedenken gegen das Mammutprojekt. Aus dem Protest entstand der „Unabhängige Donau-Kreis“ (Független Duna Kör). Der Kreis erhielt 1985 den Alternativen Nobelpreis. Nach dem Rücktritt des langjährigen Präsidenten Kádár im Mai 1988 lebte der Protest neu auf. Das Erscheinen auch kritischer Berichte in der Presse war nun möglich und Demonstrationen wurden toleriert. Im März 1989 wurden dem ungarischen Parlament 140.000 Stimmen vorgelegt. Noch bevor es zu einer Entscheidung kam, verkündete Ministerpräsident Miklos Németh die Einstellung der Bauarbeiten. Die einseitige Kündigung der Verträge von 1977 führte zu einem offenen Konflikt, der 1993 vor den Internationalen Gerichtshof in Den Haag kam. In den 1980er Jahren wurden die vier Druckwasserreaktoren des Kernkraftwerk Paks fertiggestellt und ans Stromnetz genommen. Sie nutzen Donauwasser als Kühlwasser, ebenso wie das Kernkraftwerk Kosloduj, das einzige Kernkraftwerk Bulgariens. Dort sind vier alte Kernreaktoren russischer Bauweise (WWER-440/230) stillgelegt; zwei neuere Blöcke (WWER-1000/320) sind (Stand 2013) in Betrieb. Auch das Kernkraftwerk Cernavodă, das einzige Kernkraftwerk Rumäniens, verwendet Kühlwasser aus der Donau. 1996 wurde (nach einer Bauzeit von 14 Jahren) der erste Block fertiggestellt, 2007 der zweite (nach 25-jähriger Bauzeit). Kulturelle Rezeption. Als zweitgrößter europäischer Fluss hat die Donau in den Kulturen ihrer Anrainerländer und darüber hinaus viele Spuren hinterlassen. Die Donau wird mit ihrer griechischen Bezeichnung bei Hesiod als Sohn des Okeanos und der Tethys bezeichnet (Theogonie 339). Neben zahlreichen Sagen und Legenden haben sich auch Schriftsteller mit ihr auseinandergesetzt, von Ovid, der in den Tristia, Buch 3, Gedicht 10, den starken Eindruck der zugefrorenen Donau besang, bis zu Claudio Magris und Péter Esterházy, die sich am Ende des 20. Jahrhunderts mit dem Thema beschäftigten. Ihren verbreitetsten kulturellen Widerhall fand die Donau in der Musik, im (ursprünglich mit einem anderen Text komponierten und uraufgeführten) "Donauwalzer" aus der Feder von Johann Strauß. Österreich hat ein besonders eng mit der Donau verbundenes Image, das an die einstige "Donaumonarchie" (mit etwa 1300 Donaukilometern; heute nur noch etwa 350 km) anknüpft und unter anderem seinen Ausdruck findet in der Phrase "Land am Strome" der Österreichischen Bundeshymne. Auch in den Nationalhymnen der Anrainerstaaten Bulgarien (Mila Rodino), Kroatien (Lijepa naša domovino) und Ungarn (Himnusz) wird der Fluss erwähnt. Namen und Etymologie. Die Donau ist, wie die meisten Flüsse im deutschen Sprachraum, weiblich. Der rumänische Name der Donau lautet "Dunărea", auf Bulgarisch, Serbisch und Kroatisch heißt sie "Dunav", auf Slowenisch "Donava", auf Ungarisch "Duna" und auf Slowakisch, Russisch, Polnisch, Tschechisch und Ukrainisch "Dunaj". Diese Namen leiten sich zunächst vom Namen "Danuvius" der Römerzeit (mit männlichem Flussgott) ab, gehen aber auf ältere Wurzeln zurück. "Donau" ist wie auch die Flussnamen "Dnepr", "Dnister", "Donez" und "Don" möglicherweise iranischen oder keltischen Ursprungs. Die Namen könnten von den iranischsprachigen Skythen und Sarmaten, wie auch von den Kelten Osteuropas herkommen. Eine genaue sprachliche Zuordnung ist schwierig, da sowohl das Keltische als auch das Iranische indogermanische Sprachen sind und das Wort „Fluss“ sowohl auf altiranisch (Avestisch) als auch auf Keltisch „Danu“ heißt (indogermanische Wurzel "*" ‚Fluss‘) und beide Volksstämme bis an den Don und die Donau vordrangen. Der mittelhochdeutsche Name der Donau war "diu Tuonowe" (frühneuhochdeutsch "Tonaw, Donaw"). Der germanische Wortbestandteil ', eine Bezeichnung für Aue oder Flusslandschaft, kann zum weiblichen Geschlecht des deutschen Namens beigetragen haben. Hans Bahlow geht davon aus, dass sich der Name von "es," "as" oder "os" (Sumpfwasser) ableiten lässt. Eine weitere Interpretation bezieht sich auf eine hypothetische indogermanische Wurzel "es" oder "is" und leitet daraus eine generische Bezeichnung für „(fließendes) Wasser“ ab. Erst um die Zeitenwende, als das Römische Reich sich über den ganzen Donaulauf ausgedehnt hatte und die kartografischen Zusammenhänge erschlossen wurden, wurde die Einheit beider Flussabschnitte erkannt. Noch bis zum Ende der Antike war "Ister" der Name des Flusses, "Danuvius" bezeichnete eher den Oberlauf. Da die Donau im Schwarzwald entspringt und im Schwarzen Meer mündet, wird sie mitunter scherzhaft als "Schwarzer Fluss" bezeichnet. Lebensraum Donau. Die Donau passiert viele Landschaften und Klimazonen, entsprechend vielfältig ist ihre Flora und Fauna. Trotz zahlreicher, teils schwerer, menschlicher Eingriffe ist die Flusslandschaft in vielen Abschnitten noch immer außerordentlich artenreich, auch weil einige besonders sensible Lebensräume unter Schutz gestellt wurden. Fauna der Donau. Insgesamt sind über 300 Vogelarten an der Donau beheimatet. Die Donau ist eine der bedeutendsten europäischen Vogelzugstraßen und die an ihr gelegenen noch naturnahen Gebiete bilden oftmals wichtige Areale für Überwinterung, Brut und Rast, darunter auch für seltene Arten wie Uhu, Eisvogel, Seeadler, Schwarzstorch, Schwarzmilan und Würgfalke. Herausragend sind dabei die Schutzgebiete "Donauauen", " Kopački rit" und vor allem das Donaudelta. Die "Donauauen" sind verbindendes Glied der Lebensräume um Neusiedlersee, Donau und March. Sie beherbergen vor allem im Winter sowohl große Mengen an Gänsen, Seeschwalben, Gänsesäger, Schellenten, Limikolen, Stockenten, aber auch viele eher seltene Arten wie Schelladler, Fischadler oder Singschwäne. Auch "Kopački rit", ein noch unberührtes Sumpfgebiet an der Draumündung in die Donau im Nordosten Kroatiens, ist ein wichtiges Überwinterungsgebiet; über 260 Vogelarten nisten hier, darunter auch so seltene wie der Seeadler. Zahllose weitere Arten nutzen es als Rast- und Überwinterungsgebiet. Am wichtigsten für die Vogelwelt an der Donau ist das Donaudelta, ein zentraler Punkt der europäischen Vogelzugstraße und zugleich Übergangszone von europäischer und asiatischer Fauna. Weit über 300 Vogelarten rasten, überwintern oder brüten hier, darunter zum Beispiel Pelikane, Reiher, Löffler, Greifvögel oder auch die seltene Rothalsgans. Typische Donaufische sind Barbe, Nase, Blaunase, Aitel, Hasel, Brachse, Karpfen, Güster, Hecht, Zander, Barsch, Aal, Schied, Huchen, Sterlet und Welse sowie Bitterling, Gründling, Schlammpeitzger, Schrätzer, Zingel und Streber, wobei die Störartigen anders als früher durch den Bau der Staustufe am Eisernen Tor nicht mehr bis Wien gelangen können. Einige Arten sind gar in der Donau oder ihren Nebenflüssen endemisch, so zum Beispiel das Donauneunauge. Begünstigt durch verstärkten Landschaftsschutz und Renaturierungen von Donaueinzugsgebieten konnten seltenere Fischarten vor allem in Deutschland und Österreich wieder etabliert werden. So wurde der eigentlich seit 1975 ausgestorben geglaubte Hundsfisch "(Umbra krameri)," ein Hechtverwandter, 1992 wiederentdeckt und konnte im Rahmen von Nachzuchtprogrammen wieder angesiedelt werden. Im Donaudelta finden sich über 150 Fischarten, etwa Stör, europäischer Hausen, Karpfen, Wels, Zander, Hecht und Barsch. Aber auch Säugetierarten wie Steinmarder, Edelmarder, Wiesel, Dachs oder gar Wildkatze, Biber und Otter sind hier heimisch, im Delta finden sich unter anderem Europäischer Nerz, Fischotter, Steppeniltis und Ziesel. Ebenso bietet die Donau zahlreichen Amphibien und Reptilien Raum, darunter Äskulapnatter, Östliche Smaragdeidechse, Mauereidechse, Ringelnatter, Glattnatter und Zauneidechse, Griechische Landschildkröte, Maurische Landschildkröte und Europäische Sumpfschildkröte sowie Endemiten wie dem Donau-Kammmolch. Eine besonders hohe Artendichte weist auch hier wiederum das Delta auf. Flora der Donau. Wichtige Baumarten der Weichholz-Auen sind die Silber-Pappel "(Populus alba)", am Oberlauf auch die Grau-Erle sowie die Silberweide. Für die Hartholz-Aue ist die Schmalblättrige Esche erwähnenswert, die von Wien abwärts vorkommt, des Weiteren sind noch Feld- und Flatter-Ulme und Stieleiche belegt. In der Donau selbst finden sich seltene Wasserpflanzen wie die Wasserfalle oder Wasserschläuche. Naturpark Obere Donau. Zwischen Immendingen und Ertingen durchquert der Fluss den Naturpark Obere Donau. Die landschaftlich attraktiven Felsen im Donaudurchbruch Schwäbische Alb gehören zu den wenigen, natürlich unbewaldeten Pflanzenstandorten in Deutschland. Da dieser Untergrund sehr trocken ist und die Temperaturen stark schwanken, konnten sich viele sehr lichthungrige Pflanzen, teils als eiszeitliche Relikte, hier erhalten. So kommt es im Naturpark zur ungewöhnlichen Kombination von mediterraner, alpiner und tundrischer Flora. Mit fast 750 Pflanzenarten, darunter einigen bedrohten oder vom Aussterben bedrohten, ist die Region, die von menschlichen Einflüssen weitgehend verschont blieb, eine der artenreichsten Baden-Württembergs. Naturschutzgebiet Donauleiten. Das Naturschutzgebiet Donauleiten (NSG-00277.01) liegt donauabwärts zwischen Passau und Jochenstein auf der linken, nördlichen Donauseite und umfasst 401 Hektar. Es ist Teil des 68 km langen Donauengtals zwischen Vilshofen (Deutschland) und Aschach (Österreich) im Südosten des Böhmischen Grundgebirges. Es handelt sich um ein epigenetisches Durchbruchstal aus dem Jungtertiär. Durch die zentrale Stromtallage in Mitteleuropa finden sich Tier- und Pflanzenarten aus vier arealgeografischen Regionen: präalpine/ montane, subatlantische, kontinentale und submediterrane Arten. Durch die Exponierung gegen Süden wärmen sich Granit und Gneis der Donauhänge auf und sorgen für ein mildes Klima. Dementsprechend beheimaten die Donauleiten viele wärmeliebende Arten aus Fauna und Flora. So gelten die Donauleiten in Deutschland als bedeutendstes Vorkommen der bis zu zwei Meter langen schwärzlich-grünen Äskulapnatter. Weitere sechs Reptilienarten, wie die Östliche Smaragdeidechse, die Italienische Mauereidechse oder die Schlingnatter, sind hier beheimatet. Die Vielfalt an Insekten ist bemerkenswert: Fetthennen-Bläuling, Dunkler Wiesenknopf-Ameisenbläuling, Heller Wiesenknopf-Ameisenbläuling, Segelfalter, großer Schillerfalter und Hirschkäfer können häufig beobachtet werden. Aufgrund des Mosaiks unterschiedlicher Lebensraumtypen, wie extrem trockenen Standorten auf waldfreien Blockhalden und Fels, mageren, eher bodensauren Eichen-Hainbuchenwäldern, feuchteren Buchenwäldern auf humosen Böden und kühlen, feuchten Bachschluchten, existiert eine abwechslungsreiche Flora, zu nennen sind etwa Alpenveilchen, Schneeglöckchen, Frühlings-Knotenblume, Michelis-Segge, Besen-Beifuß, Ästige Graslilie, Türkenbund-Lilie, Großblütiger Fingerhut, Seidelbast und Orchideen wie das Männliche Knabenkraut und das Waldvögelein. Nationalpark Donau-Auen. Eines der größten Auengebiete in Mitteleuropa sind die Donauauen nahe Wien bei Hainburg, dort erstreckt sich von der Lobau (noch auf Wiener Stadtgebiet) bis zur Einmündung der March der Nationalpark Donau-Auen, in dem rund 70 Fisch-, 30 Säugetier- und 100 Vogelarten leben. Der Nationalpark Donau-Auen wurde nicht durch die Regierung Österreichs initiiert, sondern 1983/1984 durch Bürgerproteste vor dem beabsichtigten Bau eines Donaukraftwerks gerettet, der die Auen zerstört hätte. Dabei kam es im Dezember 1984 zur spektakulären Besetzung der Hainburger Au durch mehrere tausend Menschen und einem von über 350.000 Menschen unterzeichneten Volksbegehren. Diese Bürgerbewegung gilt als die Geburtsstunde der österreichischen Grünen. 1996 wurden die Auen zum Nationalpark erklärt. Im 21. Jahrhundert ist dieser Nationalpark durch die geplante Lobauautobahn bedroht. Sie soll großteils unter dem Nationalpark als Tunnel verlaufen, müsste aber zahlreiche Oberbauten aufweisen. Das für die Donau-Auen wichtige, heikle Grundwassersystem könnte durch den Bau gestört werden. Nationalpark Donau-Eipel in Ungarn. Der Nationalpark Donau-Eipel, ungarisch "Duna-Ipoly Nemzeti Park," umfasst das Börzsöny-Gebirge, das Pilis-Gebirge, das Visegráder Gebirge, das linke Ufer der Eipel, die Szentendre-Insel und das linke Ufer der Donau in diesem Bereich mit dem Zentrum des Donauknies. Zweitausend verschiedene Pflanzenarten und einige tausend Tiergattungen leben im Nationalpark, darunter auch der endemische "Piliser Lein". Naturpark Kopački rit. Der Naturpark Kopački rit liegt am Zusammenfluss der Drau in die Donau in Kroatien. Die unberührten Sumpf, Moor- und Auengebiete sind Heimstätte vieler Tier- und Pflanzenarten, darunter 260 Vogelarten. In den zahlreichen Seitenarmen leben 40 Fischarten. Der Naturpark Kopački rit ist nominiert für die Liste des UNESCO-Weltnaturerbes. Biosphärenreservat Srebarna. Das Biosphärenreservat Srebarna befindet sich an der Donau, im Nordosten Bulgariens, ca. 17 km westlich von Silistra entfernt. Es erstreckt sich über 900 Hektar, auf denen 99 Vogelarten brüten und 80 Zugvogelarten überwintern und gehört zum UNESCO-Weltnaturerbe. Spezial-Naturreservat Deliblatska peščara. Das Spezial-Naturreservat Deliblatska Peščara liegt im Bezirk Južni Banat in der Autonomen Provinz Vojvodina in Serbien. Es erstreckt sich zwischen der Donau, den Südkarpaten und dem Fluss Tamiš über 354 km und über eine Fläche von 30.000 Hektar. Das Reservat stellt ein wüstenartiges Phänomen dar, eine Sanddünenlandschaft mitten im Balkan, mit einer einzigartigen Orografie, Flora und Fauna in Europa. Daher wird es in Serbien auch umgangssprachlich "Evropska Sahara" (Europäische Sahara) genannt. Am Anfang des 19. Jahrhunderts wurde die Sanddüne mit Akazien und anderen Bäumen befestigt. HInzwischen ist mehr als die Hälfte der Sandlandschaft bepflanzt und manche Teile sind reiche Saisonjagdorte. Die imposante Größe der Sandberge mit über 200 m über NN, ihre Schönheit, das ständige Wechseln der Blütenfarben der verschiedensten Pflanzenarten machen diese Düne für Besucher attraktiv. Nationalpark Đerdap und weitere Gebiete. Der Nationalpark Đerdap erstreckt sich entlang der Donau, von der Stadt Golubac bis zur Kleingemeinde Tekija, über eine Länge von 100 km und über eine Fläche von 63.680 Hektar. Das Einzigartige an diesem Park sind die riesigen Schluchten und Pässe, die die Donau durchquert. "Đerdapska klisura" wird der größte Pass bezeichnet, der gleichzeitig auch der größte Europas ist. Die tertiäre Flora, Vegetation und Fauna machen ihn zu einem einzigartigen Naturreservat. Die über 1100 hier vorkommenden Pflanzenarten und auch Bären, Luchse, Wölfe, Goldschakale, Schwarzstörche, einige Eulenarten und andere seltene Tiere bestätigen dies ebenfalls. Trotz dieses Naturreichtums war der Mensch in diesem Gebiet stets präsent, was die zahlreichen Funde bezeugen. Lepenski Vir, Tabula Traiana und Traians Brücke sind nur einige der bedeutenden archäologischen Funde in diesem Nationalpark. Bisher unerschlossene Funde befinden sich heute auf dem Grund des riesigen Stausees des Eisernen Tores. Viele geborgene Funde sind in das Museum Lepenski Vir gebracht worden. Weitere serbische Nationalparks entlang der Donau sind das Spezial-Naturreservat Gornje Podunavlje und der Nationalpark Fruška Gora. Naturpark Eisernes Tor. Der Naturpark Eisernes Tor ist ein Naturschutzgebiet am Donaudurchbruchstal Eisernes Tor im Südwesten Rumäniens. Der Naturpark Eisernes Tor erstreckt sich auf einem Areal von 115.655 Hektar und dehnt sich über die südlichen Ausläufer des Banater Gebirges aus. Der Naturpark Eisernes Tor wurde im Jahr 2000 von der rumänischen Regierung als Naturschutzgebiet von nationaler Bedeutung gegründet und 2007 durch die Weltnaturschutzunion IUCN als Schutzgebiet der Kategorie V (Naturpark) anerkannt. Im Jahr 2011 erfolgte die Eintragung des Naturparks Eisernes Tor in die Liste der Schutzgebiete von internationaler Bedeutung der Ramsar-Konvention. Langfristig ist vorgesehen, die Schutzgebiete auf beiden Seiten der Donau – den Nationalpark Đerdap auf serbischer Seite und den Naturpark Eisernes Tor auf rumänischer Seite – zu einem grenzüberschreitenden Biosphärenreservat als Teil der künftigen Euroregion Donauraum zu vereinen. Biosphärenreservat Donaudelta. Das Donaudelta in Rumänien ist das Mündungsgebiet der Donau am Schwarzen Meer und – nach dem Wolgadelta – das zweitgrößte Flussdelta Europas. Es besteht aus drei Hauptarmen sowie unzähligen Seitenarmen, Röhrichten, schwimmenden Inseln, Altarmen und Seen, aber auch Auwäldern sowie extremen Trockenbiotopen auf Dünen. Kurz vor Tulcea teilt sich der Strom in zwei Arme nach Chilia und Tulcea, kurz hinter Tulcea teilt er sich erneut in zwei Arme nach Sulina und Sfântu Gheorghe. Das 5000 km² große, weltweit einmalige Ökosystem ist Europas größtes Feuchtgebiet, es gilt als größtes zusammenhängendes Schilfrohrgebiet der Erde und ist der Lebensraum von über 4000 Tier- und über 1000 Pflanzenarten. Urtümliche Galeriewälder aus Eichen, Weiden und Pappeln säumen die Ufer des Donaudeltas. Im Jahr 1991 erklärte die UNESCO das Delta zu einem Teil des Weltnaturerbes, seitdem ist es Biosphärenreservat. Am 5. Juni 2000 verpflichteten sich die Regierungen Rumäniens, Bulgariens, Moldawiens und der Ukraine zum Schutz und zur Renaturierung der Feuchtgebiete entlang der etwa 1000 Kilometer langen unteren Donau. Dieser "Grüne Korridor" wurde damit zum größten grenzüberschreitenden Schutzgebiet Europas. Nach der Jahrtausendwende entwickelte sich das Gebiet zunehmend zum Touristenziel. Allein zwischen Mai und Juli 2004 kamen fast 54.000 Gäste, was eine Steigerung von fast 50 Prozent gegenüber dem Vorjahr bedeutet. Von den Naturfreunden International wurde das Donaudelta zur Landschaft des Jahres 2007/2008 gewählt. Das Donaudelta besteht aus einem dichten Gewässernetz von Seen, Altarmen, Flüssen und Kanälen, welche die Hälfte der rumänischen Binnenfischproduktion liefern. Zu den häufigsten Fischarten gehören Störe, Wildkarpfen, Karauschen, Brassen, Rotaugen, Rotfeder, Schleien sowie Raubfische wie Flussbarsche, Zander, Rapfen, Hechte und Welse. Das Donaudelta gehörte aufgrund seiner Größe und Naturbelassenheit mit zu den weltbesten Fischrevieren für Wildkarpfen und Großwelse, Letztere angeblich bis 2 Meter lang und 100 Kilogramm schwer. Berufsfischer erbeuteten einen Wels von 162 Kilogramm. Durch jahrelangen Raubbau sind die Durchschnittsgewichte bei Hechten und Karpfen stark gesunken. Geplante Schutzmaßnahmen. Als gemeinsames Projekt der Staaten Slowenien, Serbien, Ungarn, Kroatien und Österreich soll ein UNESCO-Biosphärenpark im Ausmaß von 630.000 Hektar im Gebiet der Donau-Drau-Mur entstehen. Ein entsprechendes Abkommen wurde im September 2009 in Barcs unterzeichnet. Dieses Naturschutzgebiet hätte eine Kernzone, die größer als alle österreichischen Nationalparks gemeinsam wäre. Erste Flussverlegungen und wirtschaftliche Interessen. Die Donau bei Wien um 1770 (vor der Regulierung mit zahlreichen Hochwasserarmen) Wie viele andere Flüsse hat die Donau seit dem Beginn der Industrialisierung zahlreiche schwere Eingriffe durch Menschenhand erfahren. Nur 20 Prozent der Überschwemmungsgebiete, die im 19. Jahrhundert existierten, sind noch vorhanden und nur noch die Hälfte des Flusslaufs kann als zumindest „naturnah“ bezeichnet werden. Die Internationale Kommission zum Schutz der Donau (IKSD) mit Sitz in Wien hat 2008 mit dem "Joint Danube Survey 2, Final Scientific Report" einen umfangreichen Bericht über die Wasserqualität des Flusses vorgelegt. Um beispielsweise die Auswirkungen der Donau-Überschwemmungen in Wien zu vermindern, wurde ab 1870 der Fluss durch massive Eingriffe wie die Wiener Donauregulierung verändert. Dadurch entstanden der Donaukanal und die Alte Donau, die ehemalige Flussarme waren, und in jüngerer Zeit Stadtviertel wie die Donaucity und die als Erholungs- und Überschwemmungsgebiet genutzte Donauinsel. Teil der östlich von der heutigen Donau gelegenen Bezirke wie Floridsdorf und Donaustadt waren einst ausgedehnte Donauauen. Durch die zeitlich schon länger zurückliegenden starken Eingriffe werden diese Vorgänge subjektiv nicht so stark wahrgenommen, wie Eingriffe in den Donauraum in jüngerer Vergangenheit. Neben der zunehmenden Verschmutzung durch Industrie, Landwirtschaft, Tourismus und der Zuleitung von Abwässern sowie der Regulierung durch Staustufen und Schleusenkanäle, Letzteres vor allem in Deutschland und Österreich, setzen vor allem Großprojekte dem Lebensraum Donau stark zu. Da gleich zehn Staaten, darunter einige der ärmsten Länder Europas wie Rumänien, Moldawien oder die Ukraine vor allem ihre wirtschaftlichen Interessen am Fluss wahrnehmen und von seiner Lage profitieren wollen, ist ein grenzüberschreitender Schutz schwierig. Das Kraftwerk „Eisernes Tor“. Im Jahr 1964 begannen das damalige Jugoslawien und Rumänien zwischen den Südkarpaten und dem Serbischen Erzgebirge an der Grenze von Rumänien zu Serbien mit dem gemeinsamen Bau des Wasserkraftwerks Kraftwerk Eisernes Tor 1, das 1972 eröffnet wurde. Der Staudamm mit zwei Schleusen ließ einen 150 Kilometer langen Stausee entstehen, der Wasserspiegel wurde um 35 Meter gehoben. Neben der Energiegewinnung wurde auch die Wasserstraße Donau ausgebaut und die Schiffsdurchfahrt durch die Sprengung der Katarakte im Fluss erleichtert. Im Jahr 1977 begannen Planungen für das Kraftwerk Eisernes Tor 2, das 1984 fertig gestellt wurde. Für den Stausee, dessen Ausläufer bis Belgrad reichen, mussten unter anderem die Stadt Orșova und fünf Dörfer weichen und die seit 1669 von Türken bewohnte Insel Ada Kaleh wurde überflutet. Die meisten Türken verließen Rumänien und gingen in die Türkei. Insgesamt mussten 17.000 Menschen umgesiedelt werden, ihre angestammten und teils kulturell bedeutenden Wohnorte wurden vom Wasser begraben. Auch für die Umwelt hat die Errichtung des Damms Folgen gehabt, so können seither Störe nicht mehr zum Ablaichen die Donau hinaufschwimmen. Um den kulturellen und ökologischen Schaden zu begrenzen, sind Objekte der Flora und Fauna, ebenso wie geomorphologische, archäologische und kulturhistorische Artefakte in zwei Nationalparks und Museen bewahrt worden, in Serbien im Nationalpark Đerdap, der seit 1974 besteht und 63.608 Hektar umfasst, und in Rumänien im Naturpark Eisernes Tor, der 2001 eingerichtet wurde und eine Fläche von 115.655 Hektar besitzt. Gabčíkovo-Nagymaros. Im Budapester Vertrag vom 16. September 1977 vereinbarten die damalige Tschechoslowakei und Ungarn in Budapest den Bau des riesigen Staustufenverbunds Gabčíkovo zwischen Gabčíkovo nahe Bratislava und Nagymaros in Ungarn zur Energiegewinnung, erste Planungen für das Projekt reichten zurück bis in das Jahr 1946. Durch den Bau befürchteten ungarische und teilweise auch österreichische Experten zerstörerische Auswirkungen auf die nahen österreichischen Donauauen, die Landschafts- und Siedlungsräume entlang der slowakisch-ungarischen Grenze sowie die Budapester Wasserversorgung. Nachdem bereits seit 1983 die Arbeiten daran verlangsamt wurden, gründete sich 1984 in Budapest "Duna Kör," der „Donau-Kreis“. Diese Umweltbewegung, die vielfach als Keim der „samtenen Revolution“ in Ungarn angesehen wird, fand starken Rückhalt in der Bevölkerung. 140.000 Menschen unterzeichneten ihre Petition gegen den Staudamm und 1988 kam es zu einer Demonstration mit rund 40.000 Teilnehmern vor dem ungarischen Parlament. Im Rahmen der politischen Erschütterungen des Ostblocks 1989 zog sich Ungarn unter dem Druck der Bevölkerung von dem Projekt zurück. Die Tschechoslowakei und seit 1993 die Slowakei betrieb den Weiterbau des Kraftwerks Gabčíkovo an einer anderen Stelle und verklagte Ungarn 1993 und erneut 1997 beim Internationalen Gerichtshof auch auf die Erfüllung des Budapester Vertrages von 1977. Ungarn warf nun der Slowakei zusätzlich vor, teilweise Wasser aus dem Grenzfluss in den neu gebildeten künstlichen Gabčíkovo-Kanal entzogen zu haben. Der Gerichtshof hat im Prinzip entschieden, dass der Vertrag von 1977 gilt und die beiden Länder vereinbaren sollen, wie sie ihn erfüllen. Die entsprechende Einigung ist bis heute (Stand Sommer 2013) nicht zustande gekommen. Durch diese Situation sind die Beziehungen zwischen Ungarn und der Slowakei bis in die Gegenwart belastet. Hafen Giurgiulești. Im Jahr 1995 gründete die moldawische Regierung "Terminal S. A.," ein Joint-Venture mit griechischer Beteiligung zur Errichtung eines Hafens mit angeschlossener Ölraffinerie an ihrem Uferstück bei Giurgiulești. 1996 gewährte die Europäische Bank für Wiederaufbau und Entwicklung einen Kredit über 19 Millionen Dollar und erhielt damit einen Anteil von 20 Prozent. 41 Prozent hält die moldawische Tirex-Petrol und 39 Prozent die griechische Technovax. Der Grundstein für den Bau wurde im November 1998 gelegt, seither kommt das Projekt allerdings nur sehr mäßig voran. Im 21. Jahrhundert versucht die moldawische Regierung ihren Anteil zu verkaufen, seit 2003 werden vor allem Interessenten aus Russland und Aserbaidschan genannt. Da das Donaudelta sehr nahe ist, würden Einträge belastenden Materials insbesondere im Falle von Havarien schnell und unverdünnt dort hinein gelangen und das Schutzgebiet stark gefährden. Entsprechend führten diese Pläne zu Protesten durch Umweltschutzverbände, von der moldawischen Regierung werden sie aber konsequent weiterverfolgt. Baia-Mare-Dammbruch. Am 30. Januar 2000 ereignete sich in dem rumänischen Ort Baia Mare ein Dammbruch in einer Golderz-Aufbereitungsanlage, infolgedessen über 100.000 m³ Natriumcyanidlauge über Nebenflüsse in die Theiß gelangten. Zwei Wochen später erreichte die Schadstoffwelle die Donau, in der – wie auch in der Theiß – ein Fischsterben die Folge war. Darüber hinaus wurden bis zur Donaumündung ins Schwarze Meer die Zyanid-Grenzwerte überschritten. Bystre-Kanal. Am 27. August 2004 wurde in der kleinen ukrainischen Stadt Wylkowe der Bystre-Kanal wiedereröffnet. Da er mitten durch das Naturreservoir des Donaudeltas führt und durch eine Senkung des Wasserspiegels eine irreparable Schädigung der einzigartigen Flora und Fauna nach sich ziehen könnte, protestierten zuvor unter anderem Umweltverbände, die rumänische Regierung und das EU-Umweltkommissariat gegen den Kanal. Die ukrainische Regierung entgegnete, dass hinter den Vorwürfen vor allem wirtschaftliche Interessen Rumäniens steckten, da dieses bisher eine Art Monopol auf den Schiffsverkehr zum Schwarzen Meer hätte, verbat sich die „Einmischung in innere Angelegenheiten“ und setzte ungeachtet aller Aufforderungen die Arbeiten fort. Gefährdungen. Der WWF zählt die Donau aufgrund der massiven Ausbaubestrebungen für die Schifffahrt und die noch geplanten Wasserkraftnutzungen zu den zehn gefährdetsten Flüssen der Welt. Unter anderem sieht ein EU-Programm zum Ausbau der Infrastruktur zwischen West- und Osteuropa (Transeuropäische Netze, TEN-T) vor, auf einer Länge von etwa 1.000 Flusskilometern Hindernisse und Engstellen an der Donau zu beseitigen. Von diesen Baumaßnahmen wären Schutzgebiete und Naturräume betroffen. Donauausbau in Niederbayern. Der etwa 70 km lange Donauabschnitt zwischen Straubing und Vilshofen gehört zu den letzten frei fließenden, nicht durch Staubauwerke zerteilten Donauabschnitten in Europa. Für diesen Bereich bestehen Pläne, die als Bundeswasserstraße ausgewiesene Donau für die Schifffahrt weiter auszubauen. Hier stehen sich zwei Ausbauvarianten gegenüber, die "Variante A" und die "Variante C 2,80". Die mit Bundestagsbeschluss aus dem Jahr 2002 vom Bund gewünschte Variante A beschränkt sich auf flussbauliche Maßnahmen und erhält das für das ökologische Gleichgewicht notwendige Fließen. Variante C 2,80 sieht das Abschneiden der Donauschlinge „Mühlhamer Schleife“ bei Aicha mit einem Durchstichkanal und einer Staustufe vor. Diese Variante wird vom Land Bayern gefordert. Bei Verwirklichung von Variante C 2,80 würde es zu einem Rückstau des Wassers bis in das Naturschutzgebiet Isarmündung kommen. Weite Bereiche würden dadurch überschwemmt. In der Donau selbst droht der Verlust zahlreicher endemischer Arten, die auf die natürliche Fließdynamik angewiesen sind. Bekannte Beispiele für endemische Arten an der Donau sind die Donaukahnschnecke und der Huchen. Aufgrund der politischen Pattsituation zwischen Bund und Land ist es bisher zu keiner einvernehmlichen Einigung für eine Ausbauvariante gekommen. Plastikmüll. Bei einer Untersuchung der Uferbereiche der Donau zwischen Wien und Bratislava von Forschern der Universität Wien zwischen den Jahren 2010 und 2012 stellte sich der zweitgrößte Fluss Europas „sehr überraschend“ als wesentlich stärker mit Plastik verschmutzt als bisher angenommen dar: es wurden pro 1000 Kubikmeter Wasser im Schnitt 317 Plastikteilchen, aber lediglich 275 Fischlarven gefunden. Das Risiko für die Fische bestehe darin, dass sie das Mikroplastik mit ihrer üblichen Nahrung wie Insektenlarven oder Fischeiern verwechselten. Hochgerechnet transportiert die Donau wohl rund 4,2 Tonnen Plastikmüll täglich in das Schwarze Meer. Trinkwasser. Die Donau ist entlang ihres Laufes für rund zehn Millionen Menschen eine bedeutende Trinkwasserquelle. In Baden-Württemberg beliefert der Zweckverband Wasserversorgung den gesamten Raum zwischen Stuttgart, Bad Mergentheim, Aalen und dem Alb-Donau-Kreis mit Trinkwasser, von dem gut 30 Prozent (2004: 30 Millionen Kubikmeter) aufbereitetes Donauwasser sind. Auch Städte wie Ulm oder Passau verwenden großteils noch Donauwasser als Trinkwasser. Österreich dagegen bezieht zu 99 Prozent sein Trinkwasser aus Grund- und Quellwasser, nur sehr selten, zum Beispiel während Hitzeperioden, wird Wasser der Donau entnommen, um daraus Trinkwasser zu gewinnen. Dasselbe gilt in Ungarn, das zu 91 Prozent Grundwasser verwendet. Auch die anderen Staaten entlang des Mittellaufs verzichten aufgrund der starken Verschmutzung auf die Verwendung von Donauwasser als Trinkwasser. Nur Orte an der Donau in Rumänien, wo der Strom wieder sauberer ist, versorgen sich noch weitgehend mit dem Wasser aus der Donau (Drobeta Turnu Severin, Donaudelta). Wasserkraft. Fünf Anrainerstaaten der Donau beziehen nennenswerte Anteile ihrer Energie aus Wasserkraftwerken an der Donau, nämlich Deutschland, Österreich, die Slowakei, Serbien und Rumänien. Anderen Staaten fehlt zum Bau entsprechender Wasserkraftwerke entweder die parzielle territoriale Kontrolle über die Donau (Kroatien, Bulgarien und Moldawien verfügen jeweils nur über ein Ufer des Flusses), oder sie sind politisch nicht durchsetzbar wie in Ungarn oder aber der Lauf der Donau gibt eine solche Verwendung schlicht nicht her wie in der Ukraine. In Deutschland wurden bereits Ende des 19. Jahrhunderts erste Wasserkraftwerke gebaut, insbesondere in der Region der Oberen Donau, aber auch bei Ulm. Allerdings erlangte die Donau als Energielieferant niemals die Bedeutung wie weiter flussabwärts, da sie vergleichsweise schwach und energiearm ist. In Österreich ist die Situation bereits gänzlich anders, wenn auch der Bau des ersten Donaukraftwerkes Ybbs-Persenbeug erst relativ spät begann, nämlich 1953. Die Fertigstellung erfolgte 1957. Heute hat Österreich in Europa nach Island und Norwegen den höchsten Anteil an Flussstauen (zumal das Gefälle der Donau hier stark ist): insgesamt werden rund 20 Prozent des öffentlichen Energiebedarfs durch die Donaukraftwerke gedeckt. Diese Entwicklung gilt allerdings nicht durchweg als positiv: Die Wasserkraft-Monokultur, die sich in Österreich insbesondere an der Donau konzentriert, die von der deutschen Grenze an, mit Ausnahme der Wachau, bis nach Wien mit Laufkraftwerken besetzt ist, verändert den Lauf und die Fließgeschwindigkeit des Gewässers und beeinträchtigt die reguläre Überflutung der ökologisch wertvollen Auwälder. Daneben bilden die Staustufen Barrieren für Fische und andere Lebewesen, die sich nicht mehr frei im Fluss bewegen können. Oder erfordern den gesonderten Bau von Fischtreppen. In der Slowakei ist die Wasserkraft mit gut 16 Prozent Anteil am Energiemix die zweitwichtigste Energiequelle nach der Braunkohle. Der größte Anteil davon, nämlich 11 Prozent der Gesamtproduktion der elektrischen Energie entstammt dem Wasserkraftwerk Gabčíkovo, das ursprünglich als Teil der Doppelstaustufe Gabčíkovo-Nagymaros in Kooperation mit Ungarn geplant war, aus dessen Bau sich Ungarn allerdings später zurückzog und das daraufhin von der Slowakei allein vollendet wurde. Das bis heute größte Wasserkraftwerk Europas am Eisernen Tor wurde 1972 nach achtjähriger Bauzeit gemeinsam von Jugoslawien (heute Serbien) und Rumänien in Betrieb genommen. Bis heute stellt dadurch die Wasserkraft mit 37,1 Prozent in Serbien und 27,6 Prozent in Rumänien eine der bedeutendsten Energiequellen der beiden Länder dar. Donauschleusen (Auswahl). Die oben genannten Wasserkraftwerke erforderten allesamt die Anlage von Schleusen für den ungestörten Schiffsverkehr. Schifffahrt. a> bestehend aus kleinem Schubschiff hinten, einem Containerschubleichter (auf dem Bild rechts) und einem Massengutschubleichter (links) auf der Donau in Linz DDSG-Ausflugsschiff „Prinz Eugen“ in der Wachau Die Donau ist für die Donauschifffahrt mit Fahrzeugen unterhalb der Größe der klassischen Ulmer Schachtel bereits ab Ulm schiffbar. Darauf sind die 22 m × 4 m großen Schleusen sämtlicher Staustufen zwischen Ulm und Kelheim ausgelegt. Dieser Flussabschnitt ist Landeswasserstraße und mit motorisierten Fahrzeugen nur mit Sondergenehmigung zu befahren. Für die Großschifffahrt ist die Donau erst ab km 2415 bei Kelheim (etwa 440 Kilometer unterhalb der Quelle) befahrbar. Die 203 km lange deutsche Strecke von Kelheim bis zur österreichischen Grenze ist eine Bundeswasserstraße, zuständig ist das Wasser- und Schifffahrtsamt Regensburg. Von Kelheim bis zum Schwarzen Meer gibt es insgesamt 20 Staustufen (Schleusen), davon sechs in Deutschland. Die Donau ist mit dem Main-Donau-Kanal, der bei Kelheim in die Donau mündet, von der Nordsee über den Rhein und den Main bis ins Schwarze Meer auch eine durchgehende internationale Wasserstraße. Verschiedene Schifffahrtskanalprojekte in den Alpen, welche die Donau an den Alpenraum angeschlossen hätten, blieben unverwirklicht: So z. B. der Maloja-Inn-Kanal, der von Wien die Donau, über den Inn und weiter über den Malojapass hinweg mit dem Comer See verbunden hätte. Ebenso unverwirklicht blieb der Splügenkanal über den Splügenpass mit Genua und dem Mittelmeer als Endziel – die Donau wäre durch u. a. Donauseitenkanal, Bodensee und Rhein angebunden worden. Historische Schifffahrt an der oberen Donau. Die Donau ist eine der ältesten und bedeutendsten europäischen Handelsrouten. Bereits in frühgeschichtlicher Zeit diente sie als Transportweg für Handelswaren wie zum Beispiel Pelze, die meist noch mit einfachen Flößen den Fluss entlang transportiert wurden. Bereits zur Römerzeit wurde Schifffahrt betrieben, wenn auch bis in die Neuzeit Boote, die nach dem langen und damals noch sehr gefährlichen Weg ihren Zielhafen erreicht hatten, häufig demontiert und als Bauholz verkauft wurden. Wenn mit dem beschwerlichen und langsamen Rückweg auf Schiffen nicht genug verdient werden konnte, wurde dieser vermieden. Typisch für die Donauschifffahrt waren deshalb einfache Schiffskonstruktionen wie Zillen (siehe auch "Ulmer Schachteln") und Plätten, die am Oberlauf ab Ulm (am Inn ab Hall in Tirol) verkehrten und den Holzverbrauch im Vergleich zum Bau von Flößen reduzierten. Größere Zillen mit Längen bis ca. 30 Metern und 2 Tonnen Zuladung, die sog. Kelheimer oder Ulmer Ordinarischiffe, wurden gelegentlich mit lohnender Ladung wie Wein, Salz stromaufwärts zurückgezogen. In der Regel zog man jedoch nur kleinere Zillen mit den Habseligkeiten der Schiffer stromaufwärts. Über die Jahrtausende konnten Boote stromaufwärts nur durch Treideln entlang der hier Treppelpfade genannten Leinpfade vorankommen. Dabei wurden die Boote zuerst von Menschen, ab dem 15. Jahrhundert zunehmend von Zugtieren stromaufwärts gezogen. Diese späteren Schiffszüge waren streng organisiert und umfassten bis zu 60 Pferde und ebenso viel Mannschaft, als Schiffe einen Kelheimer (Hohenau genannt) oder deren mehrere (Nebenbei) und stets mehrere Zillen und Plätten als Funktionsschiffe für Tauwerk, Pferde und Vorräte. Wegen des weit verästelten Flusssystems mit wechselnden Untiefen war ein solcher Schiffszug sehr langsam unterwegs. Oft kam man an einem Tag nur wenige Kilometer voran. Häufig musste mitsamt Pferden die Flussseite gewechselt werden, Wetter und Wasserführung behinderten das Vorankommen. Dampfschifffahrt auf der Donau. Mit dem Aufkommen der Dampfschifffahrt und später der Lokomotiven begann der Niedergang der historischen Donauschifffahrt. Die letzten Schiffszüge wurden um 1900 stromaufwärts gezogen. Im Jahr 1812 wurde in Wien das erste Donaudampfschiff in Betrieb genommen. Kurze Zeit später, im Jahre 1829, gründete sich die erste Donaudampfschifffahrtsgesellschaft. Dadurch wurden die Schiffe schneller, zum Beispiel fuhr das erste Dampfschiff "Franz I" im Jahre 1830 die Talfahrt von Wien nach Budapest in 14 Stunden 15 Minuten. Für die Bergfahrt von Budapest nach Wien benötigte es 48 Stunden 20 Minuten. Im September 1837 fuhr das erste Schiff, die "Maria Anna", von Wien nach Linz. Eines der letzten Exemplare dieses Schiffstyps ist in Regensburg als Museumsschiff zu besichtigen. Mitte bis Ende des 19. Jahrhunderts war auch die Blüte der Kettenschleppschiffe, die sich an einer zuvor fest in der Fahrrinne des Flusses verlegten Kette mit Dampfmaschinenkraft den Fluss hinaufzogen. Solche Ketten wurden zuerst für die Strecke Wien–Pressburg verlegt, 1891 aber auch bei Ybbs und Regensburg. Im Eisernen Tor (Djerdap) wurde im 20. Jahrhundert bis zum Bau des Staudamms mit Lokomotiven getreidelt. Wasserstraßenbau. Abzweigung des Ludwig-Donau-Main-Kanals aus der Donau bei Kelheim, Stahlstich (1845) von Alexander Marx Durch die "Mittelwasserkorrektion" mit Durchstichen, Buhnen und Parallelwerken wurde seit Mitte des 19. Jahrhunderts versucht, die Donauschifffahrt zu fördern. Um das bayerische Kachlet, eine Kette von Felsriffen, oberhalb Passau zu überstauen, wurde 1928 die "Staustufe Kachlet" mit dem damals größten Wasserkraftwerk fertiggestellt. Gleichzeitig begann flussabwärts von Regensburg eine Niederwasserregulierung mit dem Ziel einer Fahrwassertiefe von mindestens 1,40 m. Vier nur einschiffig zu befahrende Engstellen unterhalb Passaus wurden durch die 1956 in Betrieb genommene Staustufe Jochenstein an der deutsch-österreichischen Grenze beseitigt. Fahrzeit und Energiebedarf der Schiffe wurden dadurch fühlbar verbessert. Der erste nachweisbare Plan einer Verbindung zwischen Rhein und Donau geht auf Karl den Großen im Jahr 793 zurück. Er ordnete den Bau der Fossa Carolina "(Karlsgraben)" an. Zwischen 1836 und 1846 wurde im Zuge der Industrialisierung der Ludwig-Donau-Main-Kanal zwischen Kelheim und Bamberg mit einer Länge von 172,4 km verwirklicht. Die Idee einer Wasserstraßenverbindung wurde erst mit dem 1992 fertiggestellten 171 km langen Main-Donau-Kanal (MDK) effektiv umgesetzt. Zwischen der Einmündung des MDK in Kelheim und Regensburg wurden parallel zum Bau des MDK zur Anpassung für die Großschifffahrt 1978 die Staustufen Bad Abbach und Regensburg fertiggestellt. Bis dahin war Regensburg Endstation der Donauschifffahrt. Unterhalb Regensburg folgten 1985 die Staustufe Geisling und 1995 Straubing. Der Donaukanal bei Wien ist eigentlich kein künstliches Gewässer, sondern ein historisches Flussbett. Der Wiener Neustädter Kanal ist eine ebenfalls historische Stichanbindung von lokaler Bedeutung (1803 in Betrieb genommen, maximale Länge 63 km) für Wirtschaftstransporte nach Wien. Seit dem Mittelalter gab es immer wieder Bestrebungen, die Donau mit Oder (Donau-Oder-Kanal) bzw. Elbe (Donau-Oder-Elbe-Kanal) zu verbinden. Bis auf wenige kurze Abschnitte wurde dieses Projekt jedoch nicht realisiert. Im letzten Flussabschnitt verkürzt der Donau-Schwarzmeer-Kanal mit seiner Länge von 64,4 km den Weg ins Schwarze Meer durch die Umfahrung des Deltas um etwa 240 km. Donauschifffahrt heute. Güterschiff fährt in der Donau bei Wien Neben der Frachtschifffahrt gibt es knapp 100 Hotelschiffe, die zu Mehrtages-Kreuzfahrten vorwiegend zwischen Passau, Budapest und dem Schwarzen Meer ablegen, und viele Tagesausflugsschiffe, die in Deutschland vor allem in Passau (Wurm & Köck) und in Österreich vor allem in der Wachau (DDSG Blue Danube) unterwegs sind. Außerdem sind unzählige kleine, private Sportmotorboote auf dem Fluss unterwegs. Zwischen Widin und Passau verkehrt die Khan Asparu, ein Schwerlastkatamaran. Rechtliche Regelungen. Ursprünglich war die Donau ein offener Handelsfluss, nutzbar für jedermann, trotzdem nahm jedes Uferland Handelszölle. Im Pariser Frieden 1856 wurde das Recht des freien Handels auf der Donau erstmals kodifiziert und eine Europäische Donaukommission gegründet, angelehnt an die Bestimmungen der Wiener Kongressakte von 1815 zur freien Schifffahrt. 120 Jahre später, am 18. August 1948, wurde auf der "Belgrader Konferenz" in der "Konvention über die Regelung der Schifffahrt auf der Donau" dieses Recht erneut festgeschrieben: das Befahren der Donau ist Schiffen aller Flaggen erlaubt, nur Kriegsschiffen fremder Flagge ist das Befahren der Donau untersagt. Für den Bereich des eisernen Tores und der unteren Donau wurden internationale Stromsonderverwaltungen geschaffen. Die Einhaltung der Regelungen des Vertrages und die Erhaltung der Schifffahrtstauglichkeit wird durch die Donaukommission überwacht. Sie beschließt auch die "Grundsätzlichen Bestimmungen für die Schifffahrt auf der Donau", die zum Bestandteil der Vorschriften der Anrainerstaaten und der Stromsonderverwaltungen zu machen sind. Weiterer Bestandteil der Vorschriften sind die jeweiligen besonderen Bestimmungen, die von den lokal zuständigen Behörden verantwortet werden. In Deutschland gilt die "Donauschifffahrtspolizeiverordnung", in Österreich die "Wasserstraßen-Verkehrsordnung". Kilometrierung. Die Kilometer der Donau und ihres gesamten Flusssystems werden flussaufwärts gezählt, was sonst unüblich ist. Offizieller Nullpunkt der Kilometrierung ist der alte Leuchtturm von Sulina am Schwarzen Meer. Von Kilometer 0 bis 150 erfolgt die Streckenangabe in nautischen Meilen (0–81 sm). Auch alle Nebengewässer haben ihren Nullpunkt an ihrer Mündung. Mit einer Ausnahme – der Donaukanal in Wien bei Stkm 1933–1919,3 wird – 17 km lang – in Stromrichtung kilometriert. Holzschwemme. Im 18. und 19. Jahrhundert diente die Donau als Transportweg für Holz aus dem Böhmerwald. Holzscheiter wurden vom Böhmerwald aus über den Schwarzenbergschen Schwemmkanal in die Große Mühl geschwemmt, dort aus dem Wasser gezogen, in Schiffe verladen und anschließend bis nach Wien transportiert, wo sie als Brennholz verkauft wurden. Fischerei. Die Bedeutung der Fischerei, von der an manchen Orten im Mittelalter die ganze Bevölkerung lebte, ist im Laufe des 19. und 20. Jahrhunderts stark zurückgegangen. In Deutschland sind nur noch zwei Donaufischer aktiv. Einer fischt zwischen Straubing und Vilshofen, ein weiterer bewirtschaftet die Donau zwischen Passau und Engelhartszell. In Österreich wird in bescheidenem Maße noch um Linz und Wien gefischt. Von größerer Bedeutung ist die Fischerei noch im Donaudelta. Weinbau. In einigen Staaten ist die Donau auch Teil eines Weinanbaugebiets. Das qualitativ hochwertigste dieser drei ist dabei die Wachau in Österreich, dort werden hauptsächlich Grüner Veltliner und Riesling angebaut. In Ungarn wird Wein fast überall entlang der Donau zwischen Visegrád und der Südgrenze des Landes kultiviert, die Hauptstadt des ungarischen Weins war Vác. In der sozialistischen Ära verloren die früher berühmten ungarischen Weine stark an Qualität, seit den neunziger Jahren des 20. Jahrhunderts erlebt der ungarische Weinbau eine Renaissance. Ein weiteres Weinbaugebiet liegt in Deutschland bei Bach an der Donau zwischen Regensburg und Straubing und ist eine wirtschaftlich unbedeutende Kuriosität, zugleich aber ein letztes Relikt der bis auf die Römer zurückgehenden, ursprünglich lebendigen Kultur des Baierweins an der deutschen Donau. Der Wein wird auch unter der Bezeichnung Regensburger Landwein vermarktet. Donaudelta, Satellitenfoto, Landsat, um 2000 Die Gegend um Ilok in Kroatien und die Fruška Gora bei Ruma in Serbien sind regionale Zentren des Weinbaus. Dort werden vor allem die Rebsorten Traminer, Riesling, Burgunder und Graševina angebaut. Tourismus. Neben vielen berühmten und sehenswerten Einzelzielen entlang der Donau sind zahlreiche Donaulandschaften und Nationalparks von touristischer Bedeutung, so zum Beispiel der Naturpark Obere Donau in Deutschland, die Wachau sowie der Nationalpark Donau-Auen in Österreich, das Eiserne Tor zwischen Serbien und Rumänien und das transnationale Donaudelta. Auch der Flusskreuzfahrttourismus ist bedeutend, neben der vielbefahrenen Strecke von Wien nach Budapest fahren einzelne Schiffe auch von Passau bis in das Donaudelta und zurück. Zur Hochsaison sind über 70 Kreuzfahrtschiffe im Einsatz. Insbesondere auf der nicht schiffbaren und daher verkehrsfreien oberen Donau gibt es die Möglichkeit zu Kanu-, Paddel- und Bootstouren. Der Donauraum ist nicht nur hinsichtlich seiner historischen und kulturellen Bedeutung und seiner landschaftlichen Faszination von hoher touristischer Bedeutung, auch gute Infrastruktur und die Rad-, Wander- und Reisemöglichkeiten entlang des Flusses ziehen internationales Publikum an. Allein der österreichische Donauraum kann rund 14 Millionen Nächtigungen und rund 6,5 Millionen Ankünfte im Jahr verzeichnen. Der Donauradweg, der Donausteig und die Straße der Kaiser und Könige tragen weitestgehend zum touristischen Erfolg des Donauraums bei. Donauradweg. Entlang der Donau führt der Donauradweg, ein Radfernweg, der besonders in Deutschland und Österreich stark frequentiert wird. Dieser verläuft vom Donauursprung bis zu deren Mündung ins Schwarze Meer und zählt zu den zehn beliebtesten deutschen Radfernwegen. Donausteig. Im Jahr 2010 wurde der Donausteig eröffnet – ein Fernwanderweg von Passau nach Grein. Der Weitwanderweg ist etwa 450 Kilometer lang und gliedert sich in 23 Etappen. Das Gebiet fünf bayrischer und 40 österreichischer Gemeinden wird durchquert. Beliebte Landschafts- und Aussichtspunkte zählen zu den Höhepunkten des Donausteigs, der größtenteils entlang beider Donauufer verläuft. Insgesamt sind 41 offizielle Donausteigrunden beschildert. Die Straße der Kaiser und Könige. Als die Straße der Kaiser und Könige wird eine internationale touristische Straße, die von Regensburg über Passau,Linz und Wien bis nach Budapest führt, bezeichnet. Eine Internationale Arbeitsgemeinschaft, kurz ARGE „Die Donau-Straße der Kaiser und Könige“, bestehend aus 10 Tourismusorganisationen und Schifffahrtsunternehmen sowie Städte, beteiligt sich an der Erhaltung dieses gemeinsamen europäischen Erbes. Ziel dieser Organisation ist die touristische Erhaltung, Belebung und historische Hinterlegung der Flusslandschaft und des Kulturraums nahe der Donau. Im mittelalterlichen Regensburg mit seiner erhaltenen Altstadt, der steinernen Brücke und dem Dom beginnt die sogenannte Straße der Kaiser und Könige. Der weitere Verlauf führt nach Österreich, nach Engelhartszell. Dort befindet sich Österreichs einziges Trappistenkloster. Die Schlögener Schlinge, Linz, die Kulturhauptstadt Europas 2009 mit seinem zeitgenössischen Kulturangebot, das Stift Melk, die Donau- und Universitätsstadt Krems und die Weltstadt Wien, zählen zu den weiteren Höhepunkten entlang der Donau. Bevor die Straße der Kaiser und Könige endet, führt diese weiter in die Kulturmetropole Bratislava und nach Budapest, das in Zeiten der Donaumonarchie als Schwesterstadt Wiens galt. Auf und entlang der Donau reisten seit der Römerzeit schon etliche berühmte Herrscher mit ihrem Gefolge und nutzten den Fluss als Reise- und Transportweg. Der Transport auf dem Land galt mangels gepflegter Straßen als sehr beschwerlich, weshalb sich die Donau als idealer Reiseweg auf dem Wasser entwickelt hat. Der Straße der Kaiser und Könige sind demzufolge auch zahlreiche geschichtliche Höhepunkte zuzuschreiben, die die Donau bis heute geprägt haben. Die Touristenstraße verdankt ihren Namen unter anderem dem Kaiser Friedrich I. (HRR) von Barbarossa und den Kreuzrittern sowie dem englischen König Richard Löwenherz, der oberhalb der Donau in der Burg Dürnstein inhaftiert war. Den Höhepunkt imperialer Reisen erfuhr der Donauraum durch die Habsburger, diese ließen sich in Frankfurt am Main krönen, verweilten in Wien und hielten in Regensburg den Immerwährenden Reichstag ab. Viele berühmte Burgen, Schlösser, Residenzen und stattliche Klöster wurden von den Herrschern erbaut und prägen bis heute die von Formen und Farben inspirierte Architektur, den Donaubarock. Mittlerweile können Reisende nicht mehr nur zu Wasser, sondern auch mit der Bahn, mit dem Rad entlang des Donauradwegs oder zu Fuß über den Donausteig, die von der UNESCO zum Weltkulturerbe erklärten Städte Regensburg, Wachau und Wien besichtigen. Verschmutzung. Bei der Untersuchung über die Verbreitung von Fischlarven in der Donau zwischen Wien und Bratislava entdeckten Forscher des Departments für Limnologie und Ozeanographie der Universität Wien, dass die Anzahl von Plastikpartikeln weitaus höher ist als die der Jungfische. Nach Hochrechnungen von Hubert Keckeis und seinem Team transportiert die Donau zwischen Wien und Bratislava im Durchschnitt 317 Plastikpartikel (4,8 Gramm) und 275 Fischlarven (3,2 Gramm) pro 1.000 Kubikmeter Wasser. Dies ergibt einen geschätzten Eintrag von 4,2 Tonnen Plastikmüll pro Tag von der Donau ins Schwarze Meer. Bei 79 Prozent der in den Proben entdeckten Plastikpartikel handelt es sich um industrielles Rohmaterial wie Pellets oder Flakes. Die restlichen Kunststoffteilchen sind nach der Meinung der Forscher auf kommunalen Abfall zurückzuführen. 2015 veröffentlichte die IKSD Ergebnisse einer Studie, der "Joint Danube Survey 3". Mittels Wasseranalysen konnten im Donauwasser hohe Konzentrationen von Drogenrückständen und antibiotikaresistenten Keime gemessen werden, auch wurde Fischarmut und ein hoher Verbauungsgrad der Donauufer festgestellt. Darmstadt. Darmstadt ist eine kreisfreie Großstadt im Süden Hessens, Verwaltungssitz des Regierungsbezirks Darmstadt und des Landkreises Darmstadt-Dieburg. Die Stadt gehört zum Rhein-Main-Gebiet und ist eines der zehn Oberzentren des Landes Hessen. Darmstadt hat etwa 152.000 Einwohner, die Stadtregion ("Larger Urban Zone" gemäß Eurostat) etwa 431.000 Einwohner. Darmstadt ist nach Frankfurt am Main, Wiesbaden und Kassel die viertgrößte Stadt des Landes Hessen. Die nächstgelegenen größeren Städte sind Frankfurt am Main und Offenbach, etwa 30 km nördlich, Wiesbaden und Mainz, etwa 40 km nordwestlich, Mannheim, etwa 45 km sowie Heidelberg etwa 55 km südlich. Ihre Bedeutung als "Wissenschaftsstadt" – dieser Titel wurde ihr 1997 vom Hessischen Innenministerium verliehen – verdankt sie der 1877 gegründeten Technischen Universität und den beiden Hochschulen (h_da, EHD) mit insgesamt circa 41.000 Studierenden sowie über 30 weiteren Forschungseinrichtungen und Instituten, darunter das GSI Helmholtzzentrum für Schwerionenforschung, das Europäische Raumflugkontrollzentrum (ESA/ESOC), die Europäische Organisation für die Nutzung meteorologischer Satelliten (EUMETSAT) und drei Institute der Fraunhofer-Gesellschaft. Dazu kommen große Firmen und Einrichtungen der Kommunikations- und IT-Branche, die angewandte Forschung und Entwicklung betreiben. Darmstadts Ruf als "Zentrum des Jugendstils" geht auf die 1899 von Großherzog Ernst Ludwig eingerichtete Künstlerkolonie auf der Mathildenhöhe zurück. Darmstadt ist Heimat des Fußball-Bundesligisten SV Darmstadt 98. Geografische Lage. In Darmstadt treffen vier Naturräume aufeinander: Der Westen des Stadtgebiets befindet sich in der Oberrheinischen Tiefebene. Daran schließt sich im südlichen Stadtgebiet nach Osten hin der schmale Saum der Bergstraße an, die hier ihren Beginn hat. Der Südosten des Stadtgebiets zählt bis etwa zur Mathildenhöhe zum Vorderen Odenwald. Der nördlichste Punkt des Odenwaldes liegt an der B 26 in der Nähe des Institutes für Botanik und Zoologie. Der Nordosten Darmstadts hingegen zählt zum Naturraum Messeler Hügelland. Die Stadt wird unter anderen vom Darmbach und im südlichen Stadtteil Eberstadt von der Modau durchflossen. Nachbargemeinden. Darmstadt grenzt im Norden an den Landkreis Offenbach und im Osten, Süden und Westen an den Landkreis Darmstadt-Dieburg. Es grenzt (von Norden im Uhrzeigersinn) an die Gemeinde Egelsbach, die Städte Langen und Dreieich (alle drei Landkreis Offenbach), die Gemeinden Messel, Groß-Zimmern und Roßdorf, die Stadt Ober-Ramstadt, die Gemeinden Mühltal und Seeheim-Jugenheim, die Städte Pfungstadt, Griesheim und Weiterstadt sowie die Gemeinde Erzhausen (alle Landkreis Darmstadt-Dieburg). Stadtgliederung und Stadtteile. ² Durch die Eingemeindungen von Arheilgen und Eberstadt am 1. April 1937 wurde Darmstadt zur Großstadt. Die Sozialgeografie Darmstadts weist ein relativ starkes Gefälle zwischen wohlhabenden und sozial schwächeren Stadtvierteln auf, das schon seit dem 19. Jahrhundert besteht. In der Kernstadt (ohne äußere Stadtteile) gibt es ein deutliches Ost-West-Gefälle mit den wohlhabendsten Wohnvierteln am östlichen Stadtrand vom Komponistenviertel im Norden über Rosen- und Mathildenhöhe, Lichtwiese und Paulusviertel bis zur Ludwigshöhe im Süden. Das Stadtzentrum mit seiner wiederaufgebauten Nachkriegsbausubstanz liegt im Durchschnitt, während Johannesviertel und Martinsviertel im Norden sowie Alt-Bessungen im Süden aufgrund ihrer in Teilen erhaltenen Altbausubstanz zu den begehrteren Wohnvierteln zählen in denen seit etwa 1975 Gentrifizierungsprozesse stattfinden. Demgegenüber ist der Westen Darmstadts durch eine starke Funktionsmischung von Gewerbe, Wohnen und ehemals militärischer Nutzung geprägt, sodass hier viele Konversionsflächen liegen und die hohen Immissionsbelastungen von Industrie und Verkehr sowie die teilweise fehlende soziale Infrastruktur für städtebauliche Problemlagen sorgen. Andererseits ist der Westen die einzige Innenstadtfläche, auf der noch in nennenswertem Umfang neuer Wohnraum geschaffen werden kann, um den allgemeinen Mangel in Darmstadt zu lindern. So ist dieses Gebiet entlang der Main-Neckar-Bahn als "Weststadt" in der Zeit seit der Jahrtausendwende im Fokus der Darmstädter Stadtplanung und in einem starken Wandel begriffen. Der Name „Darmstadt“. Ernst-Ludwigsplatz mit Weißem Turm nach einer Postkarte von ca. 1899 → "Weitere ausführliche Erklärungen zur Namensherleitung im Parallelartikel: Geschichte der Stadt Darmstadt" Christentum. Darmstadt ist Hauptstadt des Dekanats Darmstadt im Bistum Mainz (bis zur Reformation "Erzbistum Mainz"). 1526 führte Landgraf Philipp der Großmütige die Reformation nach lutherischem Bekenntnis ein, so dass Darmstadt lange Zeit eine lutherische Stadt blieb. Die Christen reformierten Bekenntnisses erhielten erst 1770/71 das Recht, Gottesdienste abzuhalten. Da Darmstadt Residenzstadt war, befand sich hier das Konsistorium (Kirchenverwaltung) der Evangelischen Landeskirche in Hessen, die 1934 bzw. 1947 mit den Landeskirchen von Frankfurt und Nassau vereinigt wurde. Ferner befindet sich in Darmstadt der Sitz der Superintendentur beziehungsweise Propstei Starkenburg. Heute sind alle evangelischen Gemeindeglieder Darmstadts – sofern sie nicht zu einer evangelischen Freikirche oder einer Gemeinde der Selbständigen Evangelisch-Lutherische Kirche gehören – dem Dekanat Darmstadt-Stadt innerhalb der Evangelischen Kirche in Hessen und Nassau zugeordnet. Römisch-katholische Gemeindeglieder zogen spätestens im 18. Jahrhundert wieder in die Stadt. Ihnen wurde es ab 1790 gestattet, wieder Gottesdienste abzuhalten. 1827 wurde die kuppelüberdachte Ludwigskirche fertiggestellt. Des Weiteren finden sich in Darmstadt verschiedene christliche Freikirchen, von denen einige der Evangelischen Allianz angeschlossen sind. Hierzu gehören beispielsweise das Christliche Zentrum Darmstadt (CZD), die Freie Evangelische Gemeinde Darmstadt (FeG), die Freie Christengemeinde (FCG), die Gemeinde der Christen Ecclesia, die Christliche Gemeinde (Brüderbewegung) sowie zahlreiche andere christliche Gemeinschaften. Auch die Orthodoxie ist in Darmstadt vertreten. Die russisch-orthodoxe Gemeinde feiert Gottesdienste in der Russischen Kapelle (Kirche der Hl. Maria Magdalena) auf der Mathildenhöhe, die griechisch-orthodoxe Gemeinde in der Kirche des Hl. Nikolaos in Eberstadt. Judentum. Auch ein aktives jüdisches Gemeindeleben gibt es in Darmstadt. 1988 wurde die neue Synagoge eingeweiht. Gedenktafel auf dem Julius-Landsberger-Platz, am Erinnerungsort Liberale Synagoge Darmstadt (2013) Im Oktober 2003 wurden während der Bauarbeiten auf dem Gelände der Klinikum Darmstadt GmbH Reste der am 9. November 1938 zerstörten Liberalen Synagoge freigelegt. Ein Teil dieser einstigen Synagoge wurde 1940 bei der Anlage eines Löschwasserbeckens zerstört. 1970 wurden aufgrund neuerlicher Erweiterungsbauten der Klinik weitere Fundamente beseitigt. Die Liberale Synagoge wurde 1873 bis 1876 erbaut. Neben den Fundamentresten wurden im Keller nicht nur Reste einer Umluftheizung gefunden, sondern auch zahllose Metall- und Glasfragmente. Das konservatorische Konzept des Landesamtes für Denkmalpflege, das die Sicherung der Funde übernommen hat, verfolgt eine „ungeschönte und möglichst unveränderte Darstellung des geschichtlichen Momentes der Zerstörung“. Der Besucher kann seit November 2009 das Fundareal in einem "Erinnerungsort Liberale Synagoge" besichtigen. Ein Mitarbeiter des Instituts Mathildenhöhe stellte bis zum Jahre 2006 ein Modell der Liberalen Synagoge im Maßstab 1:50 fertig. Es befindet sich seit 2010 im Gemeindezentrum der jüdischen Gemeinde. Die Orthodoxe Synagoge Darmstadts an der Bleichstraße wurde ebenfalls am 9. November 1938 zerstört. 2010 erinnerte ein Gedenkstein an den Standort des Gotteshauses. Seit einigen Jahren sind im Darmstädter Stadtgebiet symbolische „Stolpersteine“ des Künstlers Gunter Demnig zu finden. Diese sollen, im Boden vor Gebäuden eingelassen, an deren ehemalige jüdische Bewohner erinnern, die in der Zeit des Nationalsozialismus vertrieben oder ermordet wurden. Islam. In Darmstadt gibt es mehrere muslimische Gemeinden unterschiedlicher religiöser oder ethnischer Gruppen. Die größten Moscheen sind die Emir-Sultan-Moschee der ATIB-Gemeinde, IRD (Islamische Religionsgemeinschaft Darmstadt e. V.), die arabischsprachige Salam Moschee (Mesjid Issalaam) und, unter anderem, auch die Ahmadiyya Muslim Gemeinschaft Nuur-ud-Din-Moschee. Daneben gibt es mehrere andere Gebetsräume, insbesondere der vom türkischen Staat betriebenen DİTİB-Gemeinden. Eingemeindungen. Die Gemeinde Bessungen wurde am 1. April 1888 eingegliedert. Am 1. April 1937 kamen Arheilgen und Eberstadt sowie ca. 25 % Griesheims, darunter der Truppenübungsplatz mit dem August-Euler-Flugplatz, die Siedlung Tann und das heutige Sankt Stephan, hinzu. Wixhausen folgte am 1. Januar 1977. Ausgliederungen. Am 1. Januar 1977 wurde die Sankt Stephans-Siedlung mit damals etwa 2.000 Einwohnern an die Nachbarstadt Griesheim zurückgegeben. Wüstungen. Klappach war vom 13. bis zum 15. Jahrhundert ein Weiler, gelegen südlich des Dorfes Bessungen bei Darmstadt. Einwohnerentwicklung. Bevölkerungsentwicklung der Stadt Darmstadt 1570–2010 Am 1. April 1937 überschritt die Einwohnerzahl der Stadt auf Grund der Eingemeindungen von Arheilgen und Eberstadt die Grenze von 100.000. Im Zweiten Weltkrieg verlor die Stadt zwischen 1939 (115.000 Einwohner) und 1945 (70.000 Einwohner) rund 40 Prozent (45.000) ihrer Bewohner. 1953 hatte die Bevölkerungszahl wieder den Vorkriegsstand erreicht. Ihren bisherigen Höchststand erreichte die Einwohnerzahl von Darmstadt am 31. Dezember 2014 mit 154.002 gemeldeten Einwohnern. Die folgende Übersicht zeigt die Einwohnerzahlen nach dem jeweiligen Gebietsstand. Bis 1833 sind es meist Schätzungen, danach Volkszählungsergebnisse (farbig hinterlegt) oder amtliche Fortschreibungen der jeweiligen Statistischen Ämter beziehungsweise der Stadtverwaltung selbst. Die Angaben beziehen sich ab 1843 auf die „Ortsanwesende Bevölkerung“, ab 1925 auf die Wohnbevölkerung und seit 1987 auf die „Bevölkerung am Ort der Hauptwohnung“. Vor 1843 wurde die Einwohnerzahl uneinheitlich erhoben. Politik. Bürger- und Ordnungsamt in der Grafenstraße 30 Stadtverordnetenversammlung. Die Stadtverordnetenversammlung der Stadt Darmstadt besteht aus 71 gewählten Stadtverordneten. Magistrat. Diese Personen sind aktuell hauptamtliche Mitglieder des Magistrates der Stadt Darmstadt (zusätzlich gehören dem Magistrat 13 ehrenamtliche Mitglieder an):1 Bürgermeister. An der Spitze der Stadtverwaltung stand im Mittelalter ein Schultheiß. Spätestens ab Mitte des 15. Jahrhunderts gibt es zudem das Amt des Bürgermeisters, der zunächst jedoch nur die Aufgaben eines Stadtkämmerers hatte. Erst nach und nach gingen die Aufgaben der Stadtverwaltung vom Schultheiß auf den Bürgermeister über. Vermutlich schon im 15., spätestens aber im frühen 16. Jahrhundert wurde das Bürgermeisteramt doppelt vergeben, so dass es sowohl einen „Ratsbürgermeister“ gab (später Oberbürgermeister genannt), der vom Stadtrat für ein Jahr gewählt wurde, als auch einen „jüngeren Bürgermeister“ (später Unterbürgermeister, heute schlicht Bürgermeister), der von der Bürgerschaft gewählt wurde. Ab 1874 waren die Oberbürgermeister hauptamtlich tätig. Seit 1993 wird das Stadtoberhaupt direkt vom Volk gewählt. Vorher wählte die Stadtverordnetenversammlung den Oberbürgermeister. Darmstadt gilt als rot-grüne Hochburg, die SPD stellte bis 2011 alle Nachkriegs-Oberbürgermeister. 2011 wurde Jochen Partsch (Grüne) als Nachfolger von Walter Hoffmann in dieses Amt gewählt, seine Vereidigung fand am 21. Juni 2011 statt; der Amtsantritt war der 25. Juni 2011. Er führt einen grün-schwarzen Magistrat an. Ortsbeirat. Im Stadtteil Wixhausen wurde gemäß § 8 der Hauptsatzung der Stadt ein Ortsbeirat mit einem Ortsvorsteher als Vorsitzenden gebildet. Der Ortsbeirat besteht aus neun Mitgliedern und ist zu wichtigen, den Stadtteil Wixhausen betreffenden Angelegenheiten zu hören. Die endgültige Entscheidung über eine Maßnahme obliegt dann allerdings der Stadtverordnetenversammlung der Gesamtstadt. Finanzen. Darmstadt gehört zu den am höchsten verschuldeten Städten Hessens. Mit Offenbach am Main und Kassel gehört Darmstadt zu den kreisfreien Städten in Hessen, die aufgrund ihrer schlechten Finanzlage berechtigt sind, am Kommunalen Schutzschirm des Landes Hessen teilzunehmen. Die Stadt hatte 2010 rund 300 Millionen Euro Schulden. Zum Jahresende 2012 führte Darmstadt die Ranking-Liste der 103 kreisfreien Städte Deutschlands mit einer Gesamtschuld von rund 1,849 Milliarden Euro im öffentlichen Bereich an. Auf jeden Einwohner kamen somit 12.622 Euro Schulden. Wappen. Das Wappen der Stadt Darmstadt zeigt unter einer auf den oberen Schildrand gesetzten rot ausgeschlagenen großherzoglichen Krone im geteilten Schild, oben in Gold ein blau bewehrter und bezungter, wachsender roter Löwe, unten in Blau eine silberne Lilie. Das Wappen wird oft ohne Krone dargestellt. Das Wappen mit Löwe und Lilie befindet sich bereits auf einem Schlussstein des unteren Gewölbes des Stadtkirchenturmes aus dem 15. Jahrhundert. Das Wappen wurde 1917 in den heutigen Formen und Farben vom damaligen Großherzog von Hessen neu verliehen. Der Löwe ist das Wappentier der Grafen von Katzenelnbogen, die über die Stadt herrschten. Der Löwe der Katzenelnbogener ist ebenfalls in den Wappen von Auerbach (Bensheim-Auerbach), Zwingenberg a.d.B., Pfungstadt, Katzenelnbogen und St. Goar zu sehen. Die Lilie ist später in das Wappen eingefügt worden, vermutlich zur Unterscheidung von Löwendarstellungen in anderen Wappen. Die Herkunft der Lilie ist nicht mit Sicherheit nachzuweisen. Es wird jedoch vermutet, dass die Lilie die ursprünglich der Gottesmutter Maria geweihte Stadtkirche in Darmstadt versinnbildlichen soll. Die Lilie gilt als Zeichen der Reinheit und wird daher oft als Attribut der Gottesmutter Maria dargestellt. Kleines Stadtwappen. Kleines Wappen der Stadt Darmstadt Das kleine Wappen der Stadt Darmstadt zeigt im geteilten Schild, oben in Gold einen blau bewehrten und bezungten, wachsenden roten Löwen, unten in Blau eine silberne Lilie. „Ort der Vielfalt“. Am 23. September 2008 erhielt Darmstadt den von der Bundesregierung verliehenen Titel „Ort der Vielfalt“. Kultur und Sehenswürdigkeiten. a> stilisiert als Stadtsignet der Stadt Darmstadt Theater. In Darmstadt befinden sich mehrere Theater. Das bekannteste ist das in den letzten Jahren sanierte Staatstheater mit Großem Haus, dem Kleinen Haus und den Kammerspielen. Im Theater HalbNeun wird Unterschiedliches aufgeführt, das Portfolio reicht vom Kabarett „Kabbaratz“ bis zu Auftritten von Musikgruppen. In Bessungen findet sich das Kindertheater „Kikeriki“ und das in der ehemaligen Bessunger Turnhalle aufgeführte Erwachsenen-Puppentheater „Comedy-Hall“ mit verschiedenen Programmen. Die Vorstellungen der „Darmstädter Neuen Bühne“ sind regelmäßig ausverkauft. Mit dem „Theater Moller Haus“ verfügt die freie Theaterszene in Darmstadt über eine eigene Spielstätte. Im „Darmstädter Pädagog“ befindet sich das „Theater im Pädagog“ (TiP). Das „HoffART Theater“ befindet sich im Martinsviertel. Aufgrund der zahlreichen Hochschulen hat Darmstadt auch eine lebendige studentische Theaterszene. Hier hat sich vor allem die Studentenverbindung „musische gruppe auerbach“ mit regelmäßigen Theater- und Musicalproduktionen etabliert. Eine Ausgründung der „musischen gruppe auerbach“ ist die Improvisationstheatergruppe „KurzFormChaos“, die im Rhein-Main-Gebiet aktiv ist. Museen. Das Hessische Landesmuseum ist ein Universalmuseum mit zahlreichen und umfangreichen Dauerausstellungen, u. a. zu Funden aus der Grube Messel und dem Werkkomplex Joseph Beuys. Das wichtigste Museum zum Jugendstil ist das Museum Künstlerkolonie im Ernst-Ludwig-Haus auf der Mathildenhöhe. Es zeigt die Geschichte der Darmstädter Künstlergemeinschaft von 1899 bis 1914 und das künstlerische Schaffen ihrer Mitglieder. Werke sind die von ihnen entworfenen Gegenstände des täglichen Gebrauchs, aber auch anderes aus der Kunst des Jugendstils. Daneben befinden sich auch im Hessischen Landesmuseum im Untergeschoss Schmuck, Gerät und Möbel des Jugendstils u. a. von Joseph Maria Olbrich, Peter Behrens und Henry van de Velde. Eröffnung der Ausstellung "Kunst und Kultur im Reich des letzten Zaren" Im Design Haus Darmstadt (Eugen-Bracht-Weg 6) werden abwechselnd von den dort ansässigen Instituten Design Zentrum Hessen e. V. und dem Institut für Neue Technische Form – INTEF Ausstellungen gezeigt. Darmstadt wurde in den vergangenen Jahrhunderten geprägt durch seine Funktion als Residenzstadt. Dazu bietet das Schlossmuseum im Glockenbau des Schlosses einen Überblick über 250 Jahre höfischen Lebens. Das berühmteste Exponat war die „Darmstädter Madonna“ von Hans Holbein, die sich seit 2012 in der Johanniterhalle in Schwäbisch Hall befindet. Am Rande des Herrngartens liegt das barocke Prinz-Georg-Palais mit der Großherzoglich-Hessischen Porzellansammlung. Teil der umfangreichen dort ausgestellten Bestände ist auch die weltweit größte Sammlung an Kelsterbacher Porzellan. Im Jagdschloss Kranichstein, einem der wenigen noch erhaltenen Renaissance-Jagdschlösser in Deutschland, befindet sich heute ein Jagdmuseum mit Jagdwaffen und -geräten, Einrichtungsgegenständen und Gemälden mit Jagddarstellungen. Die Kunsthalle Darmstadt präsentiert im Jahr vier bis fünf Ausstellungen von nationalem und internationalem Rang. Schwerpunkt sind die Klassische Moderne und zeitgenössische Kunst. Ebenso bietet das neben dem Hochzeitsturm gelegene Ausstellungsgebäude Mathildenhöhe wechselnde Ausstellungen. Auch Technikgeschichte ist in Darmstadt in verschiedensten Formen zu besichtigen: Das Eisenbahnmuseum Darmstadt-Kranichstein zeigt Lokomotiven, Wagen und anderes historisches Eisenbahnmaterial in originalgetreuer Umgebung. Im Haus für Industriekultur sind eine Ausstellung von Maschinen aus der Druckindustrie, Schriftgießerei und alte Techniken des Buchdrucks zu finden. Auf der Mathildenhöhe wird im „Institut für Neue Technische Form – Braun Design Sammlung“ Industriedesign seit 1955 gezeigt. Der Stadtgeschichte widmen sich weitere kleinere Museen: Das Altstadtmuseum im Hinkelsturm, dem letzten Wehrturm der Stadt, erinnert an die im Zweiten Weltkrieg zerstörte Altstadt Darmstadts u. a. mit einem Modell der Altstadt von 1930. Das Wixhäuser Dorfmuseum ist ein Heimatmuseum in einem fränkischen Fachwerkbauernhaus mit alten Möbeln und Hausrat aus dem 18. und 19. Jahrhundert. Musik. Die Stadt Darmstadt beherbergt die Akademie für Tonkunst, das Internationale Musikinstitut Darmstadt (IMD) und das Jazzinstitut Darmstadt. Veranstaltungen wie die Internationalen Ferienkurse für Neue Musik und das Darmstädter Jazzforum haben über die Jahrzehnte dazu beigetragen, dass die Stadt ein wichtiger internationaler Begegnungsort für Musiker und Musikwissenschaftler geworden ist. In Darmstadt gibt es verschiedene bekannte Chöre, darunter den Bach-Chor Darmstadt e. V., die Darmstädter Kantorei, den Konzertchor Darmstadt e. V., die Kirchenmusik in der Pauluskirche Darmstadt, den SurpriSing Chor 2002 Darmstadt e. V. und das Vocalensemble Darmstadt e. V. Weiterhin sind zu nennen die Darmstädter Residenzfestspiele e. V., die Darmstädter Hofkapelle, Marching Devils e. V., Chor und Orchester der TU Darmstadt und der Musikzug Darmstadt e. V. Seit 1999 findet jährlich an vier Tagen Ende Mai das Schlossgrabenfest statt. Darüber hinaus gilt Darmstadt als Hochburg der klassischen Gitarre. Davon zeugen unter anderem die jährlich stattfindenden Darmstädter Gitarrentage, die stets im Dezember internationale Größen der Gitarrenszene in die Stadt locken. Literarisches Leben. Das "John-F.-Kennedy-Haus", Sitz des Literaturhauses Darmstadt, am Kennedyplatz in Darmstadt Die Kultur- und Wissenschaftsstadt Darmstadt strahlt außergewöhnlich stark auf das Gebiet der Literatur aus, was an ansässigen Literaturinstituten und -vereinigungen wie auch den zahlreichen hier vergebenen Literaturpreisen deutlich wird. Die Deutsche Akademie für Sprache und Dichtung mit Sitz auf der Mathildenhöhe ist hier zur Pflege und Förderung der deutschen Literatur und Sprache aktiv. Sie vergibt alljährlich den Georg-Büchner-Preis, den Johann-Heinrich-Voß-Preis für Übersetzung, den Johann-Heinrich-Merck-Preis für literarische Kritik und Essay sowie den Sigmund-Freud-Preis für wissenschaftliche Prosa. Die Stadt Darmstadt veranstaltet mit dem "Literarischen März" einen Literaturwettbewerb für Nachwuchsautoren im Bereich der Lyrik mit Vergabe der Leonce-und-Lena-Preise und Wolfgang-Weyrauch-Förderpreise. Alle drei Jahre vergibt die Stadt außerdem den Ricarda-Huch-Preis. Das Darmstädter Literaturhaus ist als Zentrum der zahlreichen Literaturgesellschaften und -initiativen anzusehen; regelmäßig werden hier Lesungen angeboten. Der Deutsche Literaturfonds fördert die deutschsprachige Gegenwartsliteratur durch Vergabe des Kranichsteiner Literaturpreises sowie weiterer Preise und Stipendien. Auch die Schriftstellervereinigung P.E.N.-Zentrum Deutschland hat ihren Sitz in Darmstadt, wie auch die "Martin-Behaim-Gesellschaft" zur Verbreitung des deutschen Buchs im Ausland. Die Universitäts- und Landesbibliothek Darmstadt ist heute in ihrer Funktion als zentrale Universitätsbibliothek organisatorisch in die Technische Universität Darmstadt eingebunden. Weiterhin ist sie als Landesbibliothek zuständig für die wissenschaftliche Literatur- und Informationsversorgung der Region Darmstadt und Südhessen. Daneben unterhält die Stadt die Stadtbibliothek Darmstadt als Bildungs- und Kultureinrichtung für alle Bevölkerungsgruppen. Bauwerke. Waldspirale (jedes Fenster in diesem Haus ist anders) Während des Zweiten Weltkriegs wurde die Bausubstanz durch Kriegshandlungen sehr stark beschädigt und in der Innenstadt fast vollständig zerstört. Nach Kriegsende wurden die meisten Ruinen abgebrochen, wodurch bis auf wenige Ausnahmen praktisch alle historischen Bauwerke von kunstgeschichtlichem Wert – darunter sämtliche Adels- und Bürgerhäuser, das Kasino, das Kleine Theater, das Ständehaus, die Kasernen, der Neue Fürstenhof, das Alte und das Neue Palais – verloren gingen. Die Wiederherrichtung der übrigen Gebäude fand meist in vereinfachter Form mit moderner Innengestaltung statt. Sport. Der bekannteste Darmstädter Sportverein ist der SV Darmstadt 98, der aktuell in der ersten Fußball-Bundesliga spielt und seine Heimspiele im Merck-Stadion am Böllenfalltor sowie im HEAG-Stadion (Kunstrasenplatz) austrägt. Weitere bekannte Darmstädter Sportvereine sind der DSW 1912 Darmstadt, mit vielen deutschen Meisterschaften einer der erfolgreichen Schwimm- und Triathlonvereine Deutschlands, sowie die Darmstadt Diamonds, eines der ersten American-Football-Teams in Hessen (Stadion am Böllenfalltor und Stadion im Bürgerpark-Nord, Rasenplatz). Der RSC Darmstadt ist der einzige süddeutsche Vertreter in der höchsten Spielklasse des Rollhockey. Daneben gibt es zwei Baseballvereine in Darmstadt, die in der Bundesliga spielen oder spielten, die Darmstadt Rockets und die Darmstadt Whippets. Zwei Spitzenverbände des Deutschen Sportbundes haben ihren Sitz in Darmstadt, nämlich der Deutsche Leichtathletik-Verband und der Deutsche Verband für Modernen Fünfkampf. Der WV Darmstadt’70 ist einer der Traditionsvereine des Hessischen Wasserballsports. Nach dem Zusammenschluss 1970 aus den drei großen Schwimmvereinen Darmstadts entwickelte sich der Verein schnell zu einem Erfolgsgarant und stieg schnell bis in die Regionalliga Süd auf, in der der WVD’70 bis heute ohne Unterbrechung zu finden ist. Der Verein ist neben seinen Herrenmannschaften stolz auf seine 1986 gegründete Damenmannschaft. Der "Darmstädter Lauf-Treff" ist mit über 60 Betreuern nicht nur der größte, sondern mit Gründungsjahr 1974 auch einer der ältesten Deutschlands. Der Lauftreff ist ehrenamtlich organisiert und kein Verein, jeder kann kostenlos mitlaufen. Am 28. Juni 1980 verlief die 2. Etappe der Tour de France 1980 (Radrennen) durch Darmstadt. Jene Etappe war in Frankfurt am Main gestartet worden und verlief über 276 km bis nach Metz. Der Knastmarathon Darmstadt wird seit 2007 auf dem Gelände der Justizvollzugsanstalt Darmstadt als Marathonlauf für Inhaftierte und externe Freizeitsportler mit über 100 Teilnehmern ausgetragen. Der "Datterich Ultra" – benannt nach dem Mundartstück von Ernst Elias Niebergall – ist ein Volkstriathlon mit hohem Unterhaltungswert, bei dem jedes Mitglied der je elfköpfigen Mannschaften ein Zehntel der Ultra-Triathlon-Strecken 3,8 km Schwimmen, 180 km Radfahren und 42,195 km Laufen leisten muss. Wegen des großen Andrangs ist der "Datterich" inzwischen in zwei Sportereignisse aufgeteilt worden, zunächst die Veranstaltung für Hobby-Mannschaften aller Art, einige Wochen später dann die für Firmen-Mannschaften. Die Sektion "Darmstadt-Starkenburg" des Deutschen Alpenvereins gehört mit über 10.000 Mitgliedern (Stand 2014) zu den größten Sport- und Kulturvereinen in Darmstadt. Sie entstand 2006 aus den Sektionen "Darmstadt" (gegründet 1870) und "Starkenburg" (gegründet 1884). Sie bietet ein großes Angebot an Ausbildungsveranstaltungen mit über 60 Fachübungsleitern. Zu den vereinseigenen Sportstätten gehören eine Kletterhalle und ein Steinbruch in Heubach (Odenwald). Daneben wird ein gepachteter Steinbruch bei Hainstadt (Breuberg) für den Klettersport unterhalten. Die Sektion betreibt zwei alpine Schutzhütten in Tirol, Österreich: Darmstädter Hütte in der Verwallgruppe auf dem Gebiet von Sankt Anton am Arlberg und Starkenburger Hütte in den Stubaier Alpen bei Neustift im Stubaital. Breit gefächert sind die vom Hochschulsportzentrum der TU Darmstadt angebotenen Sportarten. Neben Studierenden und Angestellten der TU steht das Programm auch Interessierten über eine Mitgliedschaft im "Verein zur Förderung des Darmstädter Hochschulsports e. V." offen. Die Stadt Darmstadt ist auch regelmäßig bei den Internationalen Schülerspielen vertreten. Des Weiteren kommt der Präsident dieser Organisation, Torsten Rasch, aus Darmstadt, ebenso wie der Generalsekretär, Richard Smith. Seit 1999 gibt es wieder einen Cricket Club in Darmstadt, Darmstadt Cricket Club (TU and FH Darmstadt). Dieser Cricket Club wurde von Studierenden gegründet und nimmt jedes Jahr in der hessischen Liga teil. Ansässige Unternehmen. Die Merck KGaA in der Frankfurter Straße Die Kernbranchen des Darmstädter Wirtschaftslebens sind: der IT-Sektor, Chemie/Pharma, Maschinenbau/Mechatronik, Haarkosmetik sowie die Weltraum- und Satellitentechnik. Ihre Technologie- und Forschungsorientierung charakterisiert die Wirtschaft der Stadt. Die Nähe zu den zahlreichen Forschungs- und Entwicklungsinstituten ist ein zentraler Standortfaktor, neben der Nähe zum Weltflughafen Frankfurt. Das größte Unternehmen der Stadt ist der Chemie- und Pharmakonzern Merck, mit ca. 8900 Beschäftigten und über 500 Auszubildenden; Sein Stammsitz ist in Darmstadt. Die Merck KGaA ist das älteste chemisch-pharmazeutische Unternehmen der Welt. Weitere bedeutende Industrieunternehmen sind die Röhm GmbH (Teil der Degussa GmbH bzw. jetzt Evonik Industries), Carl Schenck AG, Wella (heute Teil des Coty-Konzerns), Döhler GmbH und die Goldwell GmbH (Teil der KAO Corporation, Tokio, Japan). Alle diese Firmen haben in Darmstadt ausgeprägte Forschungs- oder Entwicklungsabteilungen. Eine eigene Erfolgsgeschichte schrieb die Software AG, welche 1969 mit Sitz in Darmstadt gegründet wurde und inzwischen nach der SAP AG das zweitgrößte deutsche Software-Unternehmen ist. Auf dem Gelände des ehemaligen Fernmeldetechnischen Zentralamtes (FTZ) „Am Kavalleriesand“ sind heute mehrere Unternehmensteile der Deutschen Telekom angesiedelt. Hier ist ein großer Gebäudekomplex der T-Systems entstanden, und 2005 wurde der Firmensitz von T-Online nach Darmstadt verlegt. 2006 wurde die Tochtergesellschaft T-Online International AG jedoch wieder in den Mutterkonzern Deutsche Telekom integriert. Die Telekom und ihre Tochtergesellschaften sind zweitgrößter Arbeitgeber in der Stadt. Die Deutsche Post AG unterhält in Darmstadt ihr TrustCenter, zuständig für die Elektronische Signatur, sowie das Briefzentrum 64. Die HEAG AG ist bekannt als das lokale Verkehrsunternehmen (Straßenbahnen und Busse der HEAG mobilo GmbH) und als regionaler Südhessischer Energieversorger (Elektrizität, Wasser und Gas der ENTEGA AG). Die Wissenschaftliche Buchgesellschaft ist ein Verlag mit Sitz in Darmstadt. Der TÜV Hessen hat seine Zentrale im Stadtteil Bessungen. Darmstadt besitzt ein leistungsstarkes Müllheizkraftwerk sowie ein Gasturbinenkraftwerk. In Darmstadt sind drei Brauereien ansässig; die Ratskeller Hausbrauerei (seit 1989), die Brauerei Grohe (seit 1838) und die Darmstädter Privatbrauerei (seit 1847). Der Ratskeller ist hierbei die einzige Hausbrauerei, deren Bier man ausschließlich vor Ort konsumieren und kaufen kann. Die Brauerei Grohe ist traditioneller und vertreibt ihr Bier auch in ausgewählten Getränkenmärkten. Die wirtschaftlich erfolgreichste Brauerei ist jedoch die Darmstädter Privatbrauerei, deren Bier regional bezogen werden kann. Europas größter IT-Vermieter Xchange Technology GmbH hat seit 1996 seinen Deutschlandsitz und die europäische Logistikzentrale in Darmstadt Arheilgen. Ein weiteres Unternehmen der Pharmabranche ist die "Steigerwald Arzneimittelwerk GmbH". Darmstadt ist Sitz der Sparkasse Darmstadt. Das Technologie- und Innovationszentrum Darmstadt (oder TIZ Darmstadt) ist ein Gründerzentrum im Darmstädter Europaviertel, 111 Firmen haben dort momentan einen Sitz. Dazu gehört auch die cesah GmbH – „Centrum für Satellitennavigation Hessen“ mit über 30 Startups. Im Jahr 1998 haben sich die Stadt Darmstadt, die Technische Universität Darmstadt, die Industrie- und Handelskammer und die Sparkasse Darmstadt zur Innovationsgesellschaft Darmstadt mbH zusammengeschlossen. Nach Umwandlung im Jahr 2009 ist die Technische Universität Darmstadt seit Anfang 2012 die alleinige Gesellschafterin der TIZ Darmstadt GmbH. Medien. Seit den 1950er- und 60er-Jahren sind in Darmstadt im so genannten "Verlagsviertel", welches mit der Idee der Mischung von rauchloser Industrie und Wohnen neu gegründet wurde, eine Großzahl an Verlagen und Druckereien vertreten. Unter den mehr als 50 Betrieben finden sich unter anderem Firmen wie die A. Springer-Tiefdruck (aufgelöst), der Verlag Hoppenstedt (2013 aufgelöst) und die ABC der deutschen Wirtschaft–Verlagsgesellschaft mbH. Aktuelle Berichterstattung in Darmstadt findet hauptsächlich in der in Darmstadt ansässigen Tageszeitung Darmstädter Echo, daneben auch in den Regionalausgaben der Frankfurter Rundschau und der Frankfurter Allgemeinen Zeitung sowie in der Online-Tageszeitung "Heinertown.de" statt. Seit 2013 erscheint unter dem Titel Darmstädter Tagblatt eine neue kostenlose Darmstädter Zeitung als Wochenblatt. Darüber hinaus erscheinen in einigen Stadtvierteln Wochen- und Monatszeitungen wie die „Bessunger Neue Nachrichten“ in Bessungen, dem Woogsviertel und der Heimstättensiedlung, der „Lokalanzeiger“ in Eberstadt und Mühltal, die "Arheilger Post" sowie "Die Lokale Zeitung" in Bessungen, dem Woogs- und Komponistenviertel und Eberstadt sowie Mühltal. Als kostenlose, monatlich erscheinende Stadtillustrierte gibt es "Frizz – Das Magazin", "Vorhang Auf", die "kulturnachrichten" sowie das "Stadtkulturmagazin P". Zweimonatlich erscheint das Frauenmagazin Mathilde. Aus Darmstadt sendet das nichtkommerzielle Lokalradio "Radio Darmstadt" ("Radar"). Der "Hessische Rundfunk" und "Radio FFH" sind jeweils mit einem Regionalstudio in Darmstadt vertreten. Ehrung. Die Johann-Heinrich-Merck-Ehrung ist eine undotierte regional bezogene Ehrung der Wissenschaftsstadt Darmstadt. Die Ehrung, erstmals 1955 vergeben, kann an Persönlichkeiten verliehen werden, die in ihrem Beruf einmalige oder wiederkehrende hervorragende wissenschaftliche, künstlerische oder wirtschaftliche Leistungen zur Förderung des Wohls der Stadt und der Mehrung ihres Ansehens erbracht haben. Unregelmäßig wird sie vom Stifter und Träger der Auszeichnung, dem Magistrat der Stadt, vergeben. Hochschulen. Blick auf das Residenzschloss, das den Fachbereich Gesellschafts- und Geschichtswissenschaften und das Institut für VWL beherbergt Nicht zuletzt wegen seiner Hochschulen konnte die Stadt Darmstadt den Titel „Wissenschaftsstadt“ erlangen. In Darmstadt sind Hochschulen mit insgesamt rund 41.000 Studierenden angesiedelt. Die prominenteste darunter ist die 1877 gegründete Technische Universität Darmstadt mit etwa 26.000 Studierenden. Mit circa 13.500 Studierenden zweitgrößte Hochschule ist die Hochschule Darmstadt (h_da). Sie hieß bis 2006 "Fachhochschule Darmstadt" und ging aus der ehemaligen, 1876 gegründeten Landesbaugewerkschule, der Werkkunstschule und der Städtischen Maschinenbauschule hervor. Neben den Darmstädter Standorten ist die h_da auch mit dem „Campus Dieburg“ im Landkreis vertreten. Neben den beiden großen Darmstädter Hochschulen existieren die 1971 gegründete und in Trägerschaft der Evangelischen Kirche in Hessen und Nassau befindliche Evangelische Hochschule Darmstadt (EHD) und die 1851 als private Musikschule gegründete Akademie für Tonkunst, welche den eher technischen Schwerpunkt der großen Hochschulen flankieren. An der EHD lernen etwa 1700 Studierende. Duale Studiengänge mit hochschulrechtlich gleichgestellten Abschlüssen führt die Internationale Berufsakademie durch. Darmstadt ist zudem „Korporativ Förderndes Mitglied“ der Max-Planck-Gesellschaft. Erwachsenenbildung. Das Katholische Bildungswerk Darmstadt/Dieburg ist Träger der Katholischen Erwachsenenbildung im Diözesanbildungswerk Mainz in den Kreisen Darmstadt und Dieburg. Schulen. In Darmstadt findet man viele Schulen und Gymnasien. Dies hängt auch damit zusammen, dass viele Schüler täglich aus dem Landkreis Darmstadt-Dieburg nach Darmstadt zur Schule gehen. Es kommt aber auch immer wieder zu Konflikten, wenn am Anfang des Schuljahres die Darmstädter Gymnasien nicht alle Schüler aus dem Landkreis aufnehmen können. Gerichte. Darmstadt ist Sitz von Gerichten verschiedener Gerichtsbarkeiten. Als Gerichte der ordentlichen Gerichtsbarkeit sind das Amtsgericht Darmstadt, dessen Bezirk die Stadt Darmstadt und umliegende Gemeinden umfasst, und das Landgericht Darmstadt, dem die Amtsgerichtsbezirke südlich des Mains, einschließlich der Stadt Offenbach zugeordnet sind, im Justizzentrum am Mathildenplatz ansässig. Die Arbeitsgerichtsbarkeit ist mit dem Arbeitsgericht Darmstadt vertreten, aus der Sozialgerichtsbarkeit sind das Sozialgericht Darmstadt und das Hessische Landessozialgericht in Darmstadt ansässig. Mit dem Verwaltungsgericht Darmstadt ist schließlich auch eines der fünf hessischen Verwaltungsgerichte hier ansässig. In Darmstadt befinden sich auch noch ausgelagerte Zivilsenate des Oberlandesgerichts Frankfurt am Main. Feuerwehr. Die Feuerwehr Darmstadt besteht aus der Wache der Berufsfeuerwehr in der Bismarckstraße 86, bei der rund 160 Mitarbeiter, davon etwa 110 Beamte im Einsatzdienst, verteilt auf drei Wachabteilungen, beschäftigt sind. Unterstützt wird die Berufsfeuerwehr durch die vier Freiwilligen Feuerwehren Arheilgen, Eberstadt, Innenstadt und Wixhausen. Militärische Einrichtungen. Die Darmstädter Garnison des Großherzogtums Hessen beherbergte, unter anderem in mehreren Kasernen in Bessungen, Anfang des 20. Jahrhunderts rund 5000 Soldaten. Sie umfasste das Leibgarde-Infanterie-Regiment (1. Großherzoglich Hessisches) Nr. 115, das Garde-Dragoner-Regiment (1. Großherzoglich Hessisches) Nr. 23, das Leib-Dragoner-Regiment (2. Großherzoglich Hessisches) Nr. 24, das 1. Großherzoglich Hessische Feldartillerie-Regiment Nr. 25, eine Abteilung des 2. Großherzoglich Hessischen Feldartillerie-Regiments Nr. 61 und das Trainbataillon Nr. 18. Die alten Kasernengelände wurden nach dem Zweiten Weltkrieg überbaut. Daneben existierte im Westen von Darmstadt – damals auf Griesheimer Gemarkung – der Truppenübungsplatz Griesheim. Das Gelände wurde 1937 Darmstädter Stadtgebiet. Das Kreiswehrersatzamt mit seinen 38 Mitarbeitern wurde im Zuge der Bundeswehrreform 2011 aufgelöst. Karte von 1980 mit den Einrichtungen der US-Streitkräfte in Darmstadt und der näheren Umgebung Die US-Streitkräfte haben 2008 den Standort Darmstadt offiziell aufgelöst. Bis zu 10.000 GIs waren hier stationiert. Eine Reihe von Einrichtungen wurden in Darmstadt unterhalten, insbesondere in Kasernen aus den 1930er Jahren. Ein Trainingskomplex in der Nähe des Flugplatzes wurde nicht aufgegeben, sondern zum Dagger Complex ausgebaut. Die frühere Ernst-Ludwig-Kaserne wurde in den 1990er Jahren geräumt und 2003 abgerissen. Das Gelände wurde im Rahmen des „Projekt Eigenheim 2004“ in ein Wohngebiet, den Ernst-Ludwig-Park, umgestaltet. Die St.-Barbara-Siedlung wurde zwischenzeitlich bereits saniert und wird nun zivil genutzt. Die Lincoln-Siedlung, Cambrai-Fritsch-Kaserne und Jefferson-Siedlung in Bessungen sind Konversionsflächen und sollen zu zivilen Wohngebieten umgebaut werden. Sonstige Behörden. Darmstadt ist der Sitz des Hessischen Rechnungshofs, des Regierungspräsidiums Darmstadt und einer Geschäftsstelle der Sozialversicherung für Landwirtschaft, Forsten und Gartenbau (SVLFG). Straßenverkehr. Umweltzone in Darmstadt seit 1. November 2015 Durch das westliche Stadtgebiet führen die Bundesautobahnen 5 (Karlsruhe–Frankfurt) und 67 (Mannheim–Rüsselsheim). Beide treffen sich am Darmstädter Kreuz. Folgende Bundesstraßen führen durch das Stadtgebiet: B 3 (Heidelberg–Frankfurt), B 26 (Wolfskehlen−Bamberg), B 42 (Bonn−Darmstadt), B 426 (Obernburg−Gernsheim) und B 449 (Darmstadt−Mühltal). Die Stadt wird durch Berlin Linien Bus, Ecolines und Eurolines an das innerdeutsche und internationale Fernbusnetz angeschlossen. Als Teil des Luftreinhalteplan führte Darmstadt zum 1. November 2015 eine Umweltzone ein und weitete das Durchfahrtsverbot für Lkw aus. Demnach dürfen nur noch PKW mit einer grünen Schadstoffplakette oder einer Sondergenehmigung in das Stadtgebiet einfahren. Ausgenommen hiervon sind die Abschnitt der B 3 ab Wixhausen zur B 42 in Richtung Autobahnauffahrt A 5 in Weiterstadt, die A 672, die Abschnitte der A5 im Stadtgebiet und die B 426 als südliche Umfahrung. Planungen. Im Anschluss an die B 26 aus östlicher Richtung wurde längere Zeit die Nordostumgehung geplant. Das Bauvorhaben wurde im Mai 2011 gestoppt, mit einer baldigen Realisierung ist nicht zu rechnen. Zusätzlich ist eine Fortführung der B 3 (Arheilger Ortsumgehung) durch den Westwald an den Eifelring in Planung. Der Eifelring soll später bis zur Eschollbrücker Straße fortgeführt werden. Bahnverkehr. Der Darmstädter Hauptbahnhof liegt an der Strecke der Main-Neckar-Eisenbahn und ist Endpunkt der Odenwaldbahn. Regionalverbindungen bestehen somit nach Frankfurt am Main, Wiesbaden, Aschaffenburg, Mannheim, Heidelberg sowie nach Erbach und Eberbach. Regelmäßige IC-Direktverbindungen bestehen in Richtung Karlsruhe/Konstanz, Stuttgart/München/Salzburg sowie in Richtung Norden nach Hamburg, über Kassel, Göttingen und Hannover. Derzeit halten nur vereinzelt ICE-Züge in Darmstadt; eine regelmäßige Anbindung im Zuge der geplanten Neubaustrecke zwischen dem Rhein-Main-Gebiet und der Region Rhein-Neckar steht derzeit (2008) in der Diskussion. Im Eisenbahngüterverkehr ist Darmstadt seit der Stilllegung des Rangierbahnhofes Darmstadt-Kranichstein kein Eisenbahnknoten mehr. Öffentlicher Personennahverkehr. Den öffentlichen Personennahverkehr versorgen mehrere Straßenbahn- und Buslinien der HEAG mobilo GmbH, einer Tochtergesellschaft der HEAG AG, sowie Buslinien anderer Verkehrsbetriebe. Der Anteil des ÖPNV im Modal Split der Stadt lag 2008 trotz des relativ engmaschigen Netzes und eines hohen Studierendenanteils mit verpflichtendem Semesterticket lediglich bei 13,3 %, während einige andere Städte vergleichbarer Größe Werte von über 20 % erreichen. Darmstadt ist an die S-Bahn Rhein-Main angeschlossen. Die Linie S3 fährt von Darmstadt über Frankfurt am Main nach Bad Soden am Taunus. Für alle Schienen- und Buslinien im Stadtgebiet gelten die einheitlichen Preise des Rhein-Main-Verkehrsverbunds (RMV). Fahrradverkehr. Der Radverkehrsanteil beträgt in Darmstadt etwa 15 %. Beim Fahrradklimatest 2012 des ADFC erreichte Darmstadt den 14. Platz und damit knapp eine Bewertung im oberen Drittel der untersuchten Städte zwischen 100.000 und 200.000 Einwohnern. Die Radverkehrsanlagen in Darmstadt haben eine Länge von 137 km – für 118 km davon ist eine Benutzungspflicht für Radfahrer angeordnet. Zwischen 1997 und 2006 wurde auf Strecken mit der Gesamtlänge von 8,4 km die Benutzungspflicht aufgehoben, weil die örtliche Straßenverkehrsbehörde die Anforderungen der Verwaltungsvorschrift zur Straßenverkehrs-Ordnung nicht erfüllt sah. Am Hauptbahnhof gibt es eine Fahrradstation (Fahrrad-Parkhaus) mit 540 Plätzen. Flugverkehr. Darmstadt liegt verkehrsgünstig zum internationalen Flughafen Frankfurt in zirka 25 Kilometern Entfernung. Vom Hauptbahnhof zum Flughafen Frankfurt gibt es eine Busverbindung, den "Airliner". Außerdem gibt es noch als Verkehrslandeplatz für kleinere Flugzeuge in rund 15 Kilometern Entfernung den Flugplatz Frankfurt-Egelsbach. Deutscher Tanzsportverband. Der Deutsche Tanzsportverband e. V. (DTV) betreut den Tanzsport in Deutschland. Er hat seinen Sitz in Frankfurt am Main. Geschichte. Der Verband wurde 1920 informell gegründet und rechtlich als "Reichsverband für Tanzsport RfT" am 4. November 1921 in das Vereinsregister in Berlin eingetragen. Seit 1965 repräsentiert der Verband als Spitzenfachverband im Deutschen Olympischen Sportbund (früher Deutschen Sportbund) die Sportart Tanzen, zudem ist er Mitglied des Tanzsport-Weltverbands "World Dance Sport Federation" (WDSF). Der Verband firmiert auch unter Tanzsport Deutschland. Die amtierende Präsidentin ist seit 2014 Heidi Estler. Struktur. Außerdem besteht der DTV aus verschiedenen Landestanzsportverbänden. Das Fachorgan des DTV ist der monatlich erscheinende "Tanzspiegel". Einzelnachweise. Tanzsport Deutscher Sportbund. Der Deutsche Sportbund (DSB) war die Dachorganisation der Landessportbünde und Sportfachverbände in Deutschland in der Rechtsform eines eingetragenen Vereins (e. V.). Am 20. Mai 2006 ist der Deutsche Sportbund mit dem Nationalen Olympischen Komitee für Deutschland zum Deutschen Olympischen Sportbund (DOSB) verschmolzen. Geschichte. Historische Entwicklung deutscher Sportdachverbände und Nationaler Olympischer Komitees Der DSB wurde am 10. Dezember 1950 in Hannover als erster demokratischer und den ganzen Sport umfassender Zusammenschluss in der Bundesrepublik Deutschland einschließlich Berlin (West) gegründet. Der Gründung war ein fast fünfjähriger Diskussionsprozess vorausgegangen in dem die Interessen des Spitzen- und des Breitensports, des bürgerlichen und des Arbeitersports sowie von Turnen und vom Sport auf einen gemeinsamen Nenner gebracht werden mussten. Erster Präsident des DSB wurde Willi Daume (bürgerlicher Sport), seine Stellvertreter wurden Heinrich Hünecke (Arbeitersport) und Oscar Drees (Arbeitersport). Weitere Mitglieder des ersten Präsidiums waren Max Danz, Bernhard Baier, Gerhard Schlegel, Walter Wülfing, Paul Reinberg, Johannes Stoll, August Zeuner, Ottoheinz Ertl, Ludwig Wolker, Herbert Kunze, Heinz Lindner und Grete Nordhoff (1899–1976). Hauptgeschäftsführer, dann umbenannt in Generalsekretär des DSB von 1954 bis 31. Dezember 1963 Guido von Mengden, von 1964 bis 1989 Karlheinz Gieseler und von 1990 bis 1994 Norbert Wolf. 1990 traten die meisten der im Deutschen Turn- und Sportbund der DDR vertretenen Sportverbände dem DSB bei. Mit 27 Millionen Mitgliedern war der DSB die größte Personenorganisation Deutschlands. Mitgliedsorganisationen des DSB waren die 16 Landessportbünde, 55 Spitzenverbände sowie elf Sportverbände mit besonderer Aufgabenstellung, sechs Verbände für Wissenschaft und Bildung und zwei Förderverbände. Sitz der Geschäftsstelle war in Frankfurt am Main. Trivia. Der letzte noch lebende Gründer des Deutschen Sportbundes war Fredy Stober, der am 18. Dezember 2010 im Alter von 100 Jahren starb. Einzelnachweise. Sportbund Deutsche Mark. 1-DM-Schein der Erstausgabe 1948Vorder- und Rückseite Die Deutsche Mark (abgekürzt "DM" und im internationalen Bankenverkehr "DEM", umgangssprachlich auch D-Mark oder kurz "Mark", im englischsprachigen Raum meist „Deutschmark“) war von 1948 bis 1998 als Buchgeld, bis 2001 nur noch als Bargeld die offizielle Währung in der Bundesrepublik Deutschland und vor deren Gründung in den drei westlichen Besatzungszonen Deutschlands und den westlichen Sektoren Berlins. Sie wurde am 21. Juni 1948 in der Trizone und drei Tage später in den drei Westsektoren Berlins durch die Währungsreform 1948 als gesetzliches Zahlungsmittel eingeführt und löste die Reichsmark als gesetzliche Währungseinheit ab. Auch nach der Gründung der Bundesrepublik Deutschland am 23. Mai 1949 blieb die Deutsche Mark die Währungseinheit in der Bundesrepublik einschließlich West-Berlin. Mit Inkrafttreten der Währungs-, Wirtschafts- und Sozialunion am 1. Juli 1990 löste sie die Mark der DDR ab. Die D-Mark blieb im wiedervereinigten Deutschland das gesetzliche Zahlungsmittel. Nach Errichtung der Europäischen Wirtschafts- und Währungsunion wurde die Deutsche Mark schließlich am 1. Januar 1999 als Buchgeld und am 1. Januar 2002 als Bargeld durch den Euro ersetzt. Mit Stand 31. Dezember 2014 waren nach Angaben der Deutschen Bundesbank noch DM-Banknoten im Nennwert von 6,13 Mrd. DM und Münzen im Wert von 6,81 Mrd. DM (Summe: 12,94 Mrd. DM) nicht umgetauscht, das sind 5,29 % der Umlaufmenge des Jahres 2000 von 244,8 Mrd. DM. Eine Deutsche Mark war unterteilt in einhundert Pfennig. Die Währung wurde in Münzen und Scheinen ausgegeben. Es gab vier Serien von Banknoten. Von 1948 bis 1964 trug auch die Mark der DDR offiziell die Bezeichnung „Deutsche Mark“, abgekürzt „DM“. Benennung. Die Bezeichnung „Deutsche Mark“ für die neue Währung der Trizone wurde auf Vorschlag des amerikanischen Offiziers Edward A. Tenenbaum, der als Assistent des Finanzberaters von Militärgouverneur Lucius D. Clay fungierte, auf Konferenzen der Besatzungsmächte einstimmig akzeptiert. Tenenbaum, der einer polnisch-jüdischen Familie entstammte und 1942 in Yale über die deutsche Wirtschaftsgeschichte promoviert hatte, war überdies einer der führenden theoretischen Köpfe und Vorbereiter der Währungsreform von 1948. Seine Bedeutung als „Vater der D-Mark“ ist in der deutschen Öffentlichkeit kaum bekannt und wurde erst relativ spät in den Geschichtswissenschaften gewürdigt, so zum Beispiel bei Wolfgang Benz, Hans-Ulrich Wehler und Werner Abelshauser. Münzen. Alle Kursmünzen der Deutschen Mark, mit Ausnahme der 2-DM-Münzen „Ähren“ und „Max Planck“, maßstabsgetreu im Größenvergleich Es gab Münzen zu 1, 2, 5, 10 Pfennig, die aus Eisen bestanden und nur dünn mit Kupfer oder Messing plattiert waren, sowie Münzen aus einer Legierung aus Kupfer und Nickel zu 50 Pfennig und 1, 2 und 5 D-Mark. Aus Anlass der Ausrichtung der Olympischen Sommerspiele 1972 und ab 1987 wurden 10-D-Mark-Gedenkmünzen ausgegeben. Die ersten Münzen wurden von der Bank deutscher Länder herausgegeben, erst nach Inkrafttreten des Bundesgesetzes über die Ausprägung von Scheidemünzen vom 8. Juli 1950 (BGBl. S. 323) ging das Münzregal auf den Bund über. Aus diesem Grund trugen die Münzen zu Beginn die Umschrift „BANK DEUTSCHER LÄNDER“ und seit Mitte 1950 die Umschrift „BUNDESREPUBLIK DEUTSCHLAND“. Das Erscheinungsbild der Münzen blieb während der über 50 Jahre, in der die D-Mark herausgegeben wurde, mit wenigen Ausnahmen, nahezu unverändert. Aufgrund häufiger Verwechselungen mit der 1-D-Mark-Münze wurde das 2-DM-Stück 1958 durch eine etwas größere Münze mit dem Bildnis von Max Planck ersetzt. Da Automaten Schwierigkeiten hatten, diese Münze von anderen Münzen, vor allem ausländischen mit niedrigerem Wert, zu unterscheiden, wurde das 2-DM-Stück in den 1970er Jahren erneut ausgetauscht und die bis zum Ende der D-Mark gültige „Politiker-Serie“ aus Magnimat eingeführt. Auch bei der 5-Mark-Münze wurden 1975 das Motiv und das Material getauscht. Der Preis des Silbers war so stark gestiegen, dass der Materialwert der Münze höher zu werden drohte als der Nennwert. Fortan wurde die 5-Mark-Münze wie die 2-DM-Münzen der Politiker-Serie aus Magnimat gefertigt. Bei der 2-Pfennig-Münze beschränkte man sich darauf, nur das Material zu wechseln, das Motiv aber unverändert zu belassen. Sie bestand bis 1967 aus einer 95-prozentigen Kupferlegierung. Die Münzen wurden nach festgelegtem Prägeschlüssel von den vier in der Bundesrepublik stehenden Münzprägeanstalten in München (Münzzeichen D), Stuttgart (F), Karlsruhe (G) und Hamburg (J) geprägt. Kurz vor der Einführung der Währungs-, Wirtschafts- und Sozialunion am 1. Juli 1990 wurde in Berlin (Münzzeichen A) damit begonnen, D-Mark-Münzen zu prägen. Zuvor waren dort die Münzen für die Mark der DDR geprägt worden. Banknoten. Diese Ausführung des Zwanzig-Mark-Scheins war die Banknote, die am längsten unverändert im Umlauf war. Sie wurde als erste Banknote der dritten Serie am 10. Februar 1961 erstmals ausgegeben, erst nach 11.371 Tagen (über 31 Jahren) wurde die Nachfolgenote in Umlauf gebracht. Bei den Banknoten gab es vier offiziell herausgegebene Serien. Daneben ist die Existenz von zwei Ersatzserien bekannt, die im Bundesbankbunker Cochem gelagert waren, aber nie in den Verkehr gebracht wurden. Zusätzlich gab es noch Bundeskassenscheine, eine Ersatzbanknotenserie, die in Krisenzeiten die Münzen ersetzen sollte, aber ebenfalls nie ausgegeben wurde. Die Banknoten der ersten Serie (etwa 6 Milliarden Mark) wurden in den USA gedruckt und in der streng geheimgehaltenen Operation „Bird Dog“ über Bremerhaven nach Deutschland transportiert. Die Geldscheine trugen noch keinen Namen der ausgebenden Bank und enthielten keine Angaben über den Ausgabeort und das genaue Ausgabedatum. Diese, optisch stark an den US-Dollar erinnernden, Banknoten wurden dann mit der Währungsreform am 20. Juni 1948 durch die Bank deutscher Länder unter der Hoheit der westlichen Alliierten herausgegeben. Vier Tage später wurde die Deutsche Mark in den West-Sektoren Berlins eingeführt, jedoch waren diese Banknoten mit einem Stempel und / oder Perforation „B“ gekennzeichnet. Die Nennwerte dieser Serie waren ½, 1, 2, 5, 10, 20, 50 und 100 Mark, wobei es zwei verschiedene Motive für die 20- und 50-Mark-Banknote gab. Da noch ein Mangel an Münzen herrschte, konnten bestimmte Reichsmarkmünzen zu einem Zehntel ihres Nennwerts vorübergehend weiter verwendet werden. Auf der zweiten Serie war nun der Name der ausgebenden Bank „Bank deutscher Länder“ gedruckt. Sie ersetzte nach und nach die erste Ausgabe. Zudem wurden drei Banknotenwerte von Max Bittrof gestaltet, bei denen Kopfporträts oder Gestalten der Mythologie die Banknote dominierten. Diese Serie bestand aus den Nominalen 5 und 10 Pfennig sowie 5, 10, 20, 50 und 100 Mark. Die dritte Banknotenserie wurde von 1961 bis Anfang der 1990er Jahre ausgegeben und zum 30. Juni 1995 außer Kurs gesetzt. Die Pläne für die neue Banknotenserie wurden bereits 1957 bei der Umwandlung der Bank deutscher Länder zur Deutschen Bundesbank gefasst, da die auf der Vorgängerserie gedruckte Angabe „Bank deutscher Länder“ nun nicht mehr korrekt war. Als erste Serie, die von der Bundesbank herausgegeben wurde, trägt sie die interne Bezeichnung „BBk I“. Aus einem Gestaltungswettbewerb ging der Schweizer Hermann Eidenbenz als Sieger hervor, jedoch waren Kopfbildnisse, Inschriften und Format der Banknoten von der Bundesbank vorher festgelegt worden. Diese Serie umfasste die Nominale 5, 10, 20, 50 und 100 Mark. Zudem wurden die Werte 500 und 1000 Mark neu eingeführt. 1981 beschloss der Zentralbankrat der Deutschen Bundesbank, eine neue Banknotenserie auszugeben. Sie war aufgrund des technischen Fortschritts notwendig geworden, durch den die Fälschung der alten Banknoten immer leichter wurde. Die neue Serie sollte für den automatischen Zahlungsverkehr besser geeignet sein. Fast zehn Jahre später, am 1. Oktober 1990, wurden die ersten beiden Banknotenwerte der von Reinhold Gerstetter entworfenen Serie in Umlauf gebracht, die durch den neuen 200-DM-Schein auf acht Nennwerte erweitert wurde. Die Banknoten trugen die interne Bezeichnung „BBk III“, da „BBk II“ bereits für die oben genannte Ersatzserie verwendet wurde. In den Jahren 1997 und 1998 wurden die Banknoten im Wert von 50, 100 und 200 Mark mit überarbeiteten Sicherheitsmerkmalen herausgegeben, da sie am häufigsten gefälscht wurden. Das neue Geld wird in Augenschein genommen Die Deutsche Mark wurde am Montag, dem 21. Juni 1948, in den westlichen Besatzungszonen, also in den Ländern Schleswig-Holstein, Hamburg, Bremen, Niedersachsen, Nordrhein-Westfalen, Hessen, Rheinland-Pfalz, Baden, Württemberg-Baden, Württemberg-Hohenzollern und Bayern eingeführt und war dort von da an alleiniges Zahlungsmittel. In den drei Westsektoren von Berlin erfolgte die Einführung der neuen Währung mit einer Verzögerung von drei Tagen am 24. Juni 1948 und löste die sowjetische Berlin-Blockade aus. Alleiniges gesetzliches Zahlungsmittel wurde die „Westmark“ hier erst am 20. März 1949. Für Grenzgänger zwischen Ost- und West-Berlin wurde eine Lohnausgleichskasse eingerichtet. Warteschlange vor einer Umtauschstelle in Essen Die neue Währung wurde an den Ausgabestellen für die Lebensmittelmarken ausgegeben. Pro Person wurde nur ein so genanntes „Kopfgeld“ von 60 DM ausgezahlt; 40 DM sofort und weitere 20 DM zwei Monate später. Ferner erhielten Unternehmen auf Antrag bei ihrer Bank pro Angestellten einen so genannten „Geschäftsbetrag“ von 60 DM. Der „Geschäftsbetrag“ und das „Kopfgeld“ wurden später bei der Umstellung des Barvermögens angerechnet. Altes Reichsmark-Barvermögen musste zur Umstellung bis zum 26. Juni 1948 bei einer Hauptumtauschstelle abgeliefert und angemeldet werden. Dort wurde nach Genehmigung durch das Finanzamt das Gesamtgeld über ein „Reichsbank-Abwicklungskonto“ umgestellt. Bei den natürlichen Personen wurde vom Gesamtaltgeld zunächst der neunfache Kopfbetrag abgezogen. Der Rest wurde zu je 50 % auf ein Freikonto und 50 % auf ein Festkonto umgestellt. Kurze Zeit später wurde das Festkonto aufgelöst, indem 70 % seines Betrages vernichtet, 20 % auf das Freikonto und 10 % auf das Anlagekonto übertragen wurden. Dadurch sollte der Gefahr einer erneuten Inflation durch eine zu große Geldmenge vorgebeugt werden. Letztlich ergab sich so ein faktisches Umstellungsverhältnis von 10:0,65, das heißt, je 100 RM erhielt man 6,50 DM. Bei den Wirtschaftsunternehmen wurde vom Altgeld der zehnfache Geschäftsbetrag abgezogen und die Umstellung danach wie bei den natürlichen Personen vorgenommen. Die Altgeldguthaben der Banken sowie der öffentlichen Hand erloschen. Löhne und Gehälter, Mieten und Steuern und ähnliche wiederkehrende Zahlungen wurden mit dem Umstellungstag im Verhältnis 1:1 in DM fällig. Die neue Währung verursachte in der Sowjetischen Besatzungszone (später DDR) eine Inflation, da die Reichsmark dort weiterhin gültiges Zahlungsmittel war. Als Notmaßnahme wurden am 23. Juni 1948 Reichsmarknoten im Wert von maximal 70 Reichsmark umgetauscht, die von den sowjetischen Behörden einfach mit Wertmarken beklebt wurden, wenn der Besitzer der Geldscheine deren rechtmäßige Herkunft nachweisen konnte. Im Volksmund hießen die Geldscheine daher „Klebemark“ oder „Tapetenmark“. Kurz darauf wurde am 24. Juli in der Sowjetischen Besatzungszone eine neue Währung eingeführt, die ebenfalls „Deutsche Mark“ hieß. Diese blieb bis zum 31. Juli 1964 die Währung der DDR; ersetzt wurde sie durch die Mark der Deutschen Notenbank (MDN). Im Saarland (Saarprotektorat) wurde die Reichsmark bereits im Juni 1947 durch die Saar-Mark abgelöst; noch im selben Jahr erfolgte die Umstellung auf den Saar-Franken. Nach dem Beitritt des Saarlandes zur Bundesrepublik Deutschland am 1. Januar 1957 dauerte es noch bis zum Ablauf der Währungsvereinbarungen mit Frankreich am 7. Juli 1959, bis die D-Mark die offizielle Währung wurde. Die Deutsche Mark unter der Bank deutscher Länder. Die Bank deutscher Länder, die in Vorbereitung der Währungsreform gegründet wurde, hatte die Aufgabe, die Währungspolitik der amerikanischen und britischen, später auch der französischen Zone umzusetzen. Außerdem war sie befugt, Banknoten und Münzen herauszugeben. Das Münzrecht wurde nach der Gründung der Bundesrepublik an den Bund abgegeben. Die Unabhängigkeit erreichte sie 1951; zuvor war sie an Weisungen der Alliierten gebunden. Mit der Währungsreform hob Ludwig Erhard die Preisbindung fast vollständig auf. Das ermöglichte eine nahezu freie Marktwirtschaft, in der Angebot und Nachfrage den Preis bestimmten und führte zu einer starken Inflation. So hatte die Deutsche Mark nach einem halben Jahr schon 11 % ihres Wertes verloren. Als im Juni 1950 der Koreakrieg ausbrach, verlagerten amerikanische Industrieunternehmen ihre Produktion auf Rüstungsgüter. Die aufstrebenden Firmen der jungen Bundesrepublik nutzten das Angebotsminus und konnten ihre Produkte auf dem Weltmarkt anbieten. Der von den Alliierten festgelegte Kurs von 4,20 DM je US-Dollar sorgte für hohe Gewinne der deutschen Unternehmen und für einen hohen Exportüberschuss. Vom 1. April 1954 an war es Devisenausländern gestattet, „"be"schränkt "ko"nvertierbare“ Konten in DM (der sogenannten Beko-Mark) zu eröffnen, auf die Deviseninländer Einzahlungen vornehmen durften. Die Konten wurden unverzinslich geführt und konnten zu Zahlungen in Drittländern verwendet werden. Bis zu 1500 Mark pro Jahr durfte jeder Bundesbürger in ausländische Währungen umtauschen; somit wurden Urlaubsreisen im Ausland bezahlbar. Die Deutsche Mark unter der Deutschen Bundesbank. Mit der Gründung der Deutschen Bundesbank im Jahr 1957 wurde die Deutsche Mark von ihr herausgegeben. Sie hatte nach dem Bundesbankgesetz die Hoheit über die Banknoten und die Festlegung der Umlaufmenge (das Notenprivileg). Neben der offiziellen Ausgabe hielt die Deutsche Bundesbank von 1960 bis 1988 mit den Bundeskassenscheinen und einer Ersatzbanknoten-Serie ein geheimes Ersatzgeld für Krisenzeiten bereit (siehe Ersatzserie). Seit dem 30. Juni 1958 waren die Deutsche Mark und die Guthaben der Beko-Konten frei konvertierbar. Im Zuge der Währungsunion mit der DDR wurde die D-Mark am 1. Juli 1990 in der DDR eingeführt. Dies war für die Bürger im Osten wohl eine der größten Umstellungen während des Prozesses der Wiedervereinigung, da die D-Mark in der DDR ein Symbol für das Wirtschaftswunder und den Wohlstand in der Bundesrepublik war. Gleichzeitig wurde damit nicht nur eine wesentliche Forderung der DDR-Bürger erfüllt (während der Demonstrationen wurde skandiert: „Kommt die D-Mark bleiben wir, kommt sie nicht, geh'n wir zu ihr.“), sondern auch die massenhafte Übersiedlung aus der DDR in die Alt-Bundesrepublik deutlich verlangsamt, was in Anbetracht der Eingliederungsmöglichkeiten sowohl bezüglich Arbeitsplätzen als auch Wohnraum politisch dringend erforderlich war. Diese politische Notwendigkeit erklärt den Umtauschkurs von DDR-Mark zu D-Mark. Er variierte für DDR-Bürger je nach Alter: Personen ab 60 Jahren durften bis zu 6000, unter 60 Jahren bis zu 4000, Kinder unter 14 Jahren bis zu 2000 „Ost-Mark“ jeweils im Verhältnis 1:1 umtauschen. Löhne, Gehälter, Stipendien, Renten, Mieten und Pachten sowie weitere wiederkehrende Zahlungen wurden zu diesem Kurs umgestellt. Für über den angegebenen Obergrenzen liegende Guthaben sowie Schulden erfolgte eine Umstellung im Verhältnis 2:1. Für Nicht-DDR-Bürger galt einheitlich ein Wechselkurs von 3:1. Bei der Währungs-, Wirtschafts- und Sozialunion wurde aus innenpolitischen Gründen der Fehler gemacht, einen viel zu hohen Umtauschkurs der Ostmark zur D-Mark festzusetzen. Die Umstellung der Bestandsgrößen (Bargeld, Forderungen und Verbindlichkeiten) führte zu einer Geldmenge in der DDR, die um 50 % über den Empfehlungen der Bundesbank lag. Hieraus ergab sich aber kein inflatorischer Impuls, weil der größte Teil gespart wurde und sich somit nicht auf die Preise auswirkte. Die Umstellung führte jedoch zu einer Aufblähung der Bilanzen, insbesondere der Verbindlichkeiten. In der DDR war es üblich gewesen, Anlagevermögen zu überhöhten Werten anzuschaffen und dabei überhöhte Verbindlichkeiten einzugehen. Dadurch waren die DDR-Bilanzen dramatisch aufgebläht. Nach Umstellung auf DM-Bilanzen waren fast alle ostdeutschen Betriebe überschuldet, weil das Anlagevermögen auf realistische Werte abgeschrieben werden musste, die Verbindlichkeiten aber mit dem Nennwert bestehen blieben. Die Umstellung der volkswirtschaftlichen Stromgrößen und insbesondere der Löhne im Verhältnis 1:1 bereitete Probleme, weil sie die Lohnstückkosten auf ein Niveau erhöhte, das dasjenige bei Konkurrenzunternehmen im Ausland und den alten Bundesländern deutlich übertraf. Diese Faktoren beseitigten die nationale und internationale Wettbewerbsfähigkeit der meisten ostdeutschen Unternehmen. Deutlich wird dies am Wechselkurs auf dem grauen Markt (einen offiziellen Wechselkurs gab es nicht, dennoch handelten Wechselstuben und Banken mit der Ostmark), der vor der Maueröffnung bei 10:1 (Ost- zu Westmark) gelegen hatte. Nach dem Ansturm in den ersten Wochen sackte er aber auf 20:1 ab, um sich dann im Bereich 7:1 bis 6:1 zu etablieren, was wohl dem wirtschaftlich korrekten Wert entsprochen haben dürfte. Nach Bekanntgabe der Konditionen der Währungsumstellung stieg der Kurs auf 3:1. Mit Auslaufen der Transferrubel-Verrechnung am 31. Dezember 1990 brach der ostdeutsche Export schlagartig zusammen. Die Deutsche Mark nach der Einführung des Euro. Durch die Errichtung der Europäischen Wirtschafts- und Währungsunion und die Einführung des Euro am 1. Januar 1999 wurde die D-Mark als eigenständige Währungseinheit abgelöst. Sie war danach ein festgesetzter Bruchteil (1/1,95583) der neuen Währungseinheit Euro. Die DM-Münzen und -Banknoten waren noch bis einschließlich 31. Dezember 2001 gesetzliches Zahlungsmittel. Seither können sie bei der Bundesbank und ihren Niederlassungen zeitlich unbegrenzt und gebührenfrei in Euro umgetauscht werden. Von großen Teilen des Handels und Banken wurde das alte Zahlungsmittel nach Einführung des Euro-Bargelds im Rahmen einer freiwilligen Selbstverpflichtung noch bis zum 28. Februar 2002 angenommen. Einzelne Geschäfte bieten Jahre nach der Euro-Einführung noch gelegentlich die Möglichkeit, Waren mit DM zu bezahlen. Eine Besonderheit stellte die Kontoführung dar. Wurden die Kurse von Aktien und ähnlichen Wertpapieren bereits ab 2. Januar 1999 in Euro notiert (Anleihen werden in „Prozent“ notiert und sind bei der Kursnotation daher nicht betroffen), so boten die meisten Geldinstitute ihren Kunden die Wahl an, das Konto entweder weiterhin in DM zu führen oder schon auf Euro umzustellen (Letzteres nutzten nur wenige). Die Umstellung aller noch in DM geführten Konten erfolgte dann mit Wirkung zum 31. Dezember 2001, teilweise etwas früher: Einige Geldinstitute stellten zur Vermeidung der Überlappung mit dem Jahresendgeschäft (Zinsberechnung) im Laufe des letzten Quartals 2001 die bei ihnen geführten Konten durchgängig auf Euro um. In einigen Bereichen gibt es die DM weiterhin – nicht nur in Form von Bargeld-Restbeständen. Sämtliche vor 1999 ausgegebenen Anleihen in DM wurden nicht umgestellt, sondern werden bei Kauf, Verkauf, Zinszahlung und Tilgung weiterhin in DM berechnet und erst danach mit dem amtlichen Umrechnungskurs in Euro umgerechnet. Bei Kapitalgesellschaften kann der Wert der Anteile noch heute auf DM lauten, obwohl die meisten Gesellschaften den Wert der Anteile auf Euro oder Stück umgestellt haben. Außenwert der Deutschen Mark. Wechselkurse für 100 DM zu USD, GBP, CHF und 1 DM zu JPY Der anfängliche Kurs zum US-Dollar mit 3,33 DM entsprach in etwa dem historischen Wertverhältnis bei Einführung der Mark (1873); denn der Dollar ist aus dem Thaler entstanden, der mit 3 Mark bewertet wurde. Die Wechselkurse von der DM zum Dollar wurden bis etwa 1971 festgelegt („Bretton-Woods-System“). In dieser Zeit wurde die Mark langsam aufgewertet. Die Deutsche Mark erreichte ihren historischen Höchststand zum US-Dollar am 19. April 1995, als 1 US-Dollar nur noch 1,3620 DM wert war (umgerechnet 1 € = 1,4360 $). Ihren Tiefststand zum Dollar hatte die D-Mark vom 3. bis zum 9. April 1956, als 1 US-Dollar 4,2161 DM kostete (umgerechnet 1 € = 0,4639 $). Auch gegenüber dem Britischen Pfund gewann die D-Mark deutlich an Wert. Wurde das Pfund am 1. März 1955 noch für 11,881 DM gehandelt, so wurden am 17. November 1995 nur noch 2,1845 DM für 1 Pfund gezahlt. Anders hingegen die Situation beim Schweizer Franken und dem Japanischen Yen: Lange Zeit war eine D-Mark mehr wert als ein Schweizer Franken; den Höchstwert erreichte die Mark am 31. Oktober 1973, als für 100 Schweizer Franken lediglich 79,– DM gezahlt wurden. Am 16. Dezember 1975 fiel der Wert einer D-Mark erstmals unter den des Schweizer Frankens. Nach einer kurzen Erholung der Mark sackte diese im zweiten Halbjahr 1977 erneut ab und notierte am 17. Oktober 1977 zuletzt höher als der Schweizer Franken (100 CHF = 99,97 DM). Schon kurze Zeit später, am 26. September 1978, notierte der Schweizer Franken bei 132,70 DM für 100 CHF, dem historischen Höchststand gegenüber der D-Mark. Zum Vergleich: am 9. August 2011 erreichte der Schweizer Franken mit 1,0070 fast die Parität zum Euro. In D-Mark umgerechnet, entspräche das einem Kurs von 194,22 DM für 100 Schweizer Franken. Nachdem die Kursbindung zwischen US-Dollar und Japanischem Yen aufgehoben wurde, blieb das Kursverhältnis zwischen DM und Yen ein paar Jahre bei ungefähr 100 Yen zu 1 DM. Im Jahr 1974 setzte die DM jedoch zum Höhenflug an und erreichte am 3. Dezember 1979 den Höchststand bei 100 YEN = 0,6875 DM. Danach ging es stetig bergab. Der Tiefststand zum Yen wurde am 10. April 1995 bei 100 YEN = 1,6909 DM erreicht. Auswirkung auf die internationale Wettbewerbsfähigkeit. Die im Wesentlichen in den Vereinigten Staaten geplante Währungsreform von 1948 hatte zu einer Unterbewertung der D-Mark geführt, was die internationale Wettbewerbsfähigkeit der jungen Bundesrepublik steigerte. Das Bundesbankgesetz von 1957 gab der Deutschen Bundesbank zwar Preisniveaustabilität als wichtigstes Ziel vor; allerdings führte die Teilnahme am Bretton-Woods-System von 1949 bis 1973 dazu, dass die Deutsche Bundesbank häufig zur Stützung der festen Wechselkurse Devisenankäufe tätigen musste, was die Geldmenge erhöhte, gleichzeitig aber zu einer Stabilisierung der Unterbewertung der DM und damit zu günstigen Exportbedingungen führte. Die chronische Unterbewertung der D-Mark bis 1973 trug stark zum Aufstieg der deutschen Automobilindustrie bei. Ökonomen sehen eine Verschlechterung der Wettbewerbsfähigkeit Deutschlands nach der Deutschen Wiedervereinigung, da sich die Deutsche Bundesbank aufgrund vermuteten Inflationsdrucks und steigender Staatsverschuldung zu einer restriktiven Geldpolitik veranlasst sah, was den Wechselkurs der DM steigen ließ. Um das Preisniveau zu korrigieren, sei eine innere Abwertung insbesondere durch Reallohnverluste erforderlich gewesen. Insgesamt kann man sagen, dass die Auf- und Abwertungen der DM mit einem time lag von etwa einem Jahr zu einer Verringerung oder Erhöhung der deutschen Exporte führten. Geldwert. Danach hatte sich zwar der Geldwert der D-Mark – um mehr als die Hälfte – verringert; dies war jedoch weniger als bei wichtigen Referenzwährungen. In den rund 50 Jahren von ihrer Einführung 1948 bis zur Einführung des Euro Anfang 1999 sank der Geldwert der D-Mark auf etwa ein Viertel. Die Inflationsrate betrug in diesem Zeitraum durchschnittlich knapp drei Prozent pro Jahr; das ist höher als bisher (Stand 2012) beim als eher „weich“ empfundenen Euro. In anderen Staaten. Bereits in den 1960er Jahren etablierte sich die D-Mark in den Ländern des Balkans als Parallelwährung. Gastarbeiter aus dem damaligen Jugoslawien brachten das Geld zurück in ihre alte Heimat. Nach dem Ausbruch der gewaltsamen Konflikte in dieser Region verlor der Jugoslawische Dinar stark an Wert. War nach der Währungsreform im Jahr 1994 ein Dinar genau eine Mark wert, lag der offizielle Kurs 1999 schon bei 6:1 (auf dem Schwarzmarkt und in den Wechselstuben wurden zwischen 10 und 16 Dinar für eine D-Mark gezahlt). Auch Montenegro führte am 2. November 1999 die D-Mark als Parallelwährung ein. Nur ein Jahr später, am 13. November 2000, wurde die D-Mark sogar zur alleinigen Währung des Landes erklärt. Im Kosovo war die D-Mark zeitweise als offizielle Währung im Umlauf. Dies hängt damit zusammen, dass die Mark als Symbol für das Wirtschaftswunder in Deutschland steht. Diese Einstellung hat den Begriff „Teuro“ entstehen lassen. In diesem Zusammenhang wird häufig angeführt, dass viele Waren mittlerweile in Euro einen ähnlich hohen Betrag kosten wie seinerzeit in D-Mark. Dies liegt daran, dass die jährliche Teuerungsrate nicht einbezogen wird. Tatsächlich war dieser Effekt auch zu DM-Zeiten zu beobachten; jedoch gab es keinen Fixpunkt durch ein Basisjahr. Dennoch sehen laut einer Umfrage des Bundesverbandes deutscher Banken (BdB) aus dem Jahr 2008 etwa die Hälfte der Befragten (53 %) die Einführung des Euro als Hauptgrund für die Preissteigerungen der letzten Jahre. Tatsächlich gab es unmittelbar nach der Euro-Einführung in vielen für den Verbraucher alltäglichen Sparten drastische Preissteigerungen: So verteuerten sich etwa Bienenhonig von 2001 bis 2003 um 39 %, Eier um 15 % und ein Kinobesuch um 8 %. Preise, mit denen man im Alltag seltener direkt zu tun hat, veränderten sich nicht oder sanken sogar. Die Wohnungsmieten oder Versicherungsbeiträge etwa (die in der Berechnung der Inflationsrate zudem eine höhere Gewichtung haben) haben sich nach der Euro-Einführung kaum verändert; sinkende Preise gab es beim Gas (−2,7 %), Heizöl (−16 %) und Telefonieren (−1,6 %). Dinge, die man seltener kauft, wurden häufig günstiger, wie Computer, die ca. 17 % billiger wurden. Im Zuge der Eurokrise ist in Deutschland eine wachsende Skepsis gegenüber der gemeinsamen Währung zu verzeichnen; in verschiedenen Medien wird diskutiert, ob eine Rückkehr zur Deutschen Mark möglich oder sinnvoll sei. Nach einer Umfrage von Infratest dimap aus dem Dezember 2010 sind über die Hälfte der Befragten der Auffassung, dass Deutschland die Deutsche Mark besser behalten hätte, anstatt den Euro einzuführen. Allerdings ist eine Abschaffung des Euro eher unwahrscheinlich, da damit ein Austritt Deutschlands aus der Europäischen Wirtschafts- und Währungsunion (EWU) verbunden wäre und die mit dem Euro eingetretene Wechselkurssicherheit aufgehoben würde, was nach Meinung einiger Ökonomen negative Folgen für die Wirtschaft haben würde. Discounter. Als Discounter (Scheinanglizismus von ‚Preisnachlass‘, ‚Rabatt‘), in Österreich auch Diskonter'", auch Discounthäuser oder Discounthandel, bezeichnet man Unternehmen des stationären Einzelhandels, die sich tendenziell durch ein relativ schmales und flaches Warensortiment, einfache Warenpräsentation, oft relativ kleine, aber intensiv genutzte Verkaufsflächen und durch geringere Verkaufspreise als bei Mitbewerbern anderer Betriebsform auszeichnen. Die erfolgreiche Niedrigpreispolitik der Discounter beruhte in der Anfangszeit hauptsächlich auf rigorosen Kosteneinsparungen bei allen eingesetzten Betriebsfaktoren. Mit dem Begriff Discounter sollte zum Ausdruck gebracht werden, dass gleichsam ein Rabatt in den Verkaufspreis eingerechnet wird, statt ihn – wie früher üblich – nur Stammkunden oder über Rabattmarken zu gewähren. Im Verlaufe des „Siegeszugs von Selbstbedienung und Discounting“ beruhte die erfolgreiche Niedrigpreispolitik der Discounter, vor allem im Lebensmitteleinzelhandel, jedoch mehr und mehr auf zwei spezifischen Erfolgsfaktoren, a) auf qualitativ hochwertigen "Eigenmarken" und b) auf dem "Finanzierungsvorteil", der aus einem über 52-maligen Lagerumschlag (Lagerumschlagshäufigkeit) des gesamten Sortiments pro Jahr resultiert. Der Begriff „Diskont“ beschreibt den Zinsabschlag für vor Fälligkeit eingereichte Wechsel und ist daher unzutreffend. Bei den Energieversorgungsunternehmen hat sich der Name "Energiediscounter" für vergleichsweise günstige Anbieter etabliert. Merkmale. Einfache Warenpräsentation in einem Aldi-Markt Im Gegensatz zum traditionellen Handel beschränken sich Discounter auf Schnelldreher und erheblich weniger Alternativprodukte innerhalb einer Warengruppe. So sinken die Kosten der Lagerhaltung und der Sortimentspflege. Zudem entfallen Rohertragseinbußen durch schlecht verkäufliche Artikel. Unterschieden wird zwischen einem normalen Discounter und einem "Harddiscounter". Letzterer Geschäftstyp zeichnet sich durch besonders starke Einschränkungen bezüglich Warensortiment (weniger als 1500 Produkte im Sortiment) und Verkaufsfläche (max. 1000 m²) aus. Discountmärkte, insbesondere die Harddiscounter, verzichteten in der Vergangenheit weitgehend auf Herstellermarken zugunsten von eigenen Handelsmarken. Um neue Käuferkreise zu erschließen, nehmen jedoch auch die Harddiscounter mehr und mehr Herstellermarken („Markenartikel“) in das Sortiment auf. Sie zielen damit auf preissensible und „markenbewusste“ Kunden. Jüngere Entwicklung. Im Gefolge der rasanten Discount-Entwicklung im Lebensmitteleinzelhandel, die dort auch eine Ausweitung sowohl des Sortiments als auch der Verkaufsflächen gestattete, wurde die Discount-Idee auch in anderen Branchen aufgegriffen (z. B. Möbel-Discount, Foto-Discount, Schuh-Discount), wobei ihre Abgrenzung von der eigenständigen Betriebsform des Fachmarkts durch die hier geleistete persönliche Beratung bestimmt wird. Wie andere stationäre Einzelhändler nutzen inzwischen auch die meisten Lebensmittel-Discounter das Internet, um Artikel zu präsentieren und darüber zu informieren. Nur wenige bieten ihre Nonfood-Produkte online zum Kauf an (z. B. Plus). Vor allem Elektroartikel, Kleinmöbel, Kinderkleidung und Spielsachen können in den Online-Shops sehr gut abgesetzt werden. Discounter. In Deutschland tätige Discounter sind Aldi (unterteilt in Aldi Süd und Aldi Nord), KiK (zu Tengelmann), Lidl (zur Schwarz-Gruppe), Netto Marken-Discount (zu Edeka), Netto Supermarkt (zu Dansk Supermarked Gruppen), NKD, Norma, NP-Markt (zu Edeka), Penny (zur Rewe Group), Takko und TEDi (zu Tengelmann) sowie Treff 3000 (zu Edeka). Der nach Umsatz größte Discounter in Deutschland war 2007 Aldi mit etwa 27 Milliarden Euro und 4200 Filialen. Die 2900 zur Schwarz-Gruppe gehörenden Lidl-Märkte setzten circa 13,3 Milliarden Euro um. Die Plus Warenhandelsgesellschaft erwirtschaftete einen Umsatz von 6,7 Milliarden Euro in 2900 Filialen; Netto Marken-Discount 3,7 Milliarden Euro in 1200 Filialen. Beide Unternehmen gaben Ende 2007 bekannt, zukünftig zusammen aufzutreten. Durch die darauf folgende Fusion wurde der drittgrößte Discounter gebildet. Der zur Rewe Group gehörende Discounter Penny erwirtschaftete 2008 einen Umsatz von 9,5 Milliarden Euro in etwa 3200 Filialen. Norma mit seinen 1200 Filialen setzte etwa 3,1 Milliarden Euro um. Entwicklung. Als "Vorboten" des Discounthandels sind die Ende der 1950er-Jahre in der Bundesrepublik Deutschland wiederauflebenden Erscheinungsformen des "Beziehungs-, Betriebs- und Belegschaftshandels" anzusehen. Diesmal entstanden solche Schattenformen des (Lebensmittel-) Einzelhandels nicht aus einer Warenknappheit heraus, sondern um die damalige rigide Preisbindung für fast alle Markenwaren zu unterlaufen. Als „Preisbrecher“ auftretende Existenzen, die solche (zum Teil gesetzeswidrige) Geschäfte betrieben, siedelten ihre kleinen Betriebe nicht selten in Hinterhöfen und Garagen an. Ihre Bedeutung war anfänglich gering. Jedoch war die erste Discountwelle „ein Symptom für ein sich abzeichnendes höheres Preisbewusstsein“. Die ersten nachhaltigen Erfolge mit dem Discount-Prinzip erzielten "Großhändler" wie Hugo Mann (Wertkauf) oder Gerhard Ackermans (Allkauf), vor allem die Firma Terfloth & Snoek, die 1957 in Bochum mit ihrem Ratio-Großmarkt dem neuen Geschäftsprinzip des Abholgroßmarkt-Handels (Selbstbedienung, Barzahlung, Selbstabholung) zum Durchbruch verhalf. Das Jahr 1962 war ein Meilenstein für die bald folgende rasante Discount-Entwicklung im deutschen "Einzelhandel". In diesem Jahr stellten die Brüder Karl und Theo Albrecht die erste Filiale des ererbten Essener Lebensmittelfilialunternehmens nach den strengen Regeln des Discountprinzips um. Diesem Konzept ihres ersten Aldi-Ladens – nur etwa 300 Artikel im Sortiment, bescheidene Ladenausstattung, Dauerniedrigpreise – sollten bald noch viele weitere folgen; auch von Mitbewerbern. Auch wurde im November 1962 unter fachlicher Betreuung durch die Rewe-Genossenschaft eine eigene Einkaufsgenossenschaft für die von Industrie und Wirtschaftspolitik argwöhnisch betrachteten kleinen „Discounthäuser“ gegründet, die "Für sie Handelsgenossenschaft eG" – „eine Verbindung, die in Deutschland bis dahin noch ohne Vorbild war: die Verbindung der altbewährten Genossenschaftsidee mit der jugendfrischen, beinahe ungestümen Idee des Discounthandels.“ Versuche mit einem Discount-Warenhaus WDW im Jahre 1966 verliefen weniger erfolgreich, aber der Weg für neue Discount-Typen war bereitet, wie ihn bald die großräumigen, auf einer Geschäftsebene tätigen „Verbrauchermärkte“, die heutigen SB-Warenhäuser, beschritten. Der Anteil der Discounter in Deutschland am Lebensmitteleinzelhandel ist stetig gewachsen. Im Jahre 2006 betrug er 39,7 % am gesamten Lebensmitteleinzelhandel. Seit einigen Jahren ist jedoch zu verzeichnen, dass der Marktanteil der Discounter am Lebensmitteleinzelhandel stagniert. Frankreich. Lidl, Leader Price, Ed, Aldi Nord, Netto Marken-Discount, Norma, Carrefour Italien. Dico, DPiù Discount, EuroSpin, LD Discount, Lidl Österreich. KiK-Textil-Diskont, NKD-Vertriebs-GmbH, Takko, Hofer, Lidl, Norma, Penny (zur Rewe Group). Russland. Kopeika, Magnit, Pjatjorotschka Schweiz. Denner, Aldi Suisse, Lidl Die Migros startete am 25. August 1925 mit fünf Ford T-Verkaufswagen in Zürich. Minimale Infrastruktur, kleinstes Sortiment (6 Artikel), keine Rabattmarken, hoher Produktumschlag, sowie Ausschaltung des Zwischenhandels ermöglichten der Migros sehr niedrige Preise. Polen. Biedronka, Lidl, Netto (Handelskette), Globi (2008 unbenannt in Carrefour Express), Aldi Nord Dialekt. Ein Dialekt (lateinisch "dialectus" und "dialectos", von "dialegomai" „miteinander reden“) oder eine Mundart ist eine lokale oder regionale Sprachvarietät. Er kann sich von anderen Dialekten wie auch von der Standardsprache (ursprünglich Schriftsprache) in allen Sprachbereichen – Lautebene (Phonologie), Wortbeugung (Morphologie), Wortschatz (Lexik), Satzbau (Syntax) und Idiomatik – unterscheiden. Vom Begriff „Dialekt“ ist der Begriff Akzent abzugrenzen. Akzent bezieht sich lediglich auf die phonologischen Charakteristiken der Aussprache. Derjenige Teil der Sprachwissenschaft, der sich mit der traditionellen Beschreibung der Dialekte befasst, heißt Dialektologie. In der neueren Linguistik befasst sich auch die Soziolinguistik mit Dialekten. Dialekt bzw. Mundart wird auch in der Literatur verwendet; man spricht von Dialektliteratur. Sprache und Dialekt. Grundsätzlich ist es sehr schwierig, eine Sprache von einem Dialekt abzugrenzen, da es hierfür keine standardisierten Kriterien gibt. Es ist fraglich, ob diese Unterscheidung überhaupt wissenschaftlich begründbar ist, da sie, zumindest innerhalb Deutschlands, eine wertende Unterscheidung ist. Im unreflektierten Alltagsgebrauch der beiden Wörter gilt "Sprache" als höherwertig, "Dialekt" als minderwertig. So wird etwa „Hochdeutsch“ als Qualitätsbegriff verstanden, auch wenn dieses Wort ursprünglich nur die geografische Herkunft dieser Sprache bezeichnete. Völlig anders verhält es sich bei Berichten über indigene Volksstämme, Siedlungen und deren Sprachen, z. B. aus Afrika, Asien oder Südamerika. Diese werden fast immer als "Sprachen" und so gut wie nie als "Dialekte" bezeichnet, auch wenn keinerlei Verschriftlichung vorliegt und die Zahl der Sprecher verschwindend gering ist oder nur ein kleines Dorf umfasst. In der Sprachwissenschaft unterscheidet man heute meistens nach Kriterien, die auf Heinz Kloss zurückgehen. Nach seiner Definition muss eine Sprache, um als Sprache zu gelten, Dachsprache, Ausbausprache und Abstandsprache sein. Eine weitere Sicht brachte Eugenio Coseriu ein, der die Unterscheidung in primäre, sekundäre und tertiäre Dialekte traf. Außerdem ist die Anerkennung eines Dialektes als Sprache in vielen Fällen mit Interessenskonflikten verbunden, da eine eigene Sprache eher als ein Dialekt als Legitimation für die Gründung eines Staatsgebiets dienen kann. Dieser Konflikt ließ sich in Europa beispielsweise beim Korsischen, Valencianischen oder Katalanischen beobachten. Ein großer Anteil der Sprecher der jeweiligen Varietäten forderte deren Anerkennung als Sprache, was von den zentralstaatlichen Regierungen aber verweigert wurde. Es spielen jedoch auch Faktoren wie das Bewusstsein der Sprecher, eigene Literatur, gegenseitige Verständlichkeit oder der Status einer Staatssprache eine Rolle für den Unterschied zwischen Dialekt und Sprache. Eine Unterteilung muss daher individuell getroffen werden. Standardsprache als Dachsprache. Eine Standardsprache überdacht (beim Vorhandensein einer Standardvarietät ist diese die Überdachung), die Dialekte der Regionen eines Sprach-/Dialektkontinuums und wird daher als "Dachsprache" bezeichnet. Während sich die Dialekte benachbarter Orte zumeist nur geringfügig unterscheiden und sich deren Sprecher problemlos gegenseitig verstehen, wird die Verständigung schwieriger, je weiter die Dialekte voneinander entfernt sind. Erst die überdachende Standardsprache bzw. Standardvarietät ermöglicht eine gegenseitig verständliche Kommunikation auch zwischen Dialektsprechern derselben Sprache bzw. innerhalb des Sprachsystems, die weit voneinander entfernt wohnen. Ähnlich wie man sich einer Lingua Franca wie Englisch bedient, um über unterschiedliche Sprachräume hinweg, oft international, zu kommunizieren, bedient man sich einer Standardsprache zur Kommunikation im eigenen Sprachraum (oft national), also über alle Dialekte einer Sprache hinweg. So kann ein Dialekt durchaus eine Ausprägung als regionale Standardsprache im überregionalen Sprachraum haben oder sich zu einer solchen entwickeln, wenn er als Dach-, Verkehrs- und/oder Handelssprache unterschiedliche Dialektregionen miteinander verbindet. So überdachte z. B. das Luxemburgische im Standarddeutsch als Standardvarietät einen kleinen Sprachraum mit regionalen Dialektvarietäten. Die Muttersprachler sprechen hier neben ihren jeweiligen moselfränkischen Ortsdialekten eine Varietät einer Standardsprache, die inzwischen dem deutschsprachigen nicht mehr ähnelnde Standardvarietät des Standardluxemburgisch. Bei den Mundarten handelt bzw. handelte es sich um Variationen der deutschländischen Standardvarietät, innerhalb der indoeuropäischen Sprachfamilie der westgermanischen Sprachgruppe. In diesem speziellen luxemburgischen Fall, der sich im Laufe des 20. und 21. Jahrhundert veränderte, heißt dies "Diglossie" in Bezug zur Angehörigkeit zum Standardluxemburgisch und Standardfranzösisch bzw. hieß in der Vergangenheit "Triglossie" zusätzlich zum Standarddeutsch. Ein Dialekt ist die örtliche regionale Ausprägung einer Sprache, die Standardsprache bzw. Standardvarietät eine überörtliche, überregionale Dachsprache mit einem kleineren oder größeren Einzugsgebiet. „Man kann Dialekte daran erkennen, daß man sie vor allem spricht und selten schreibt.“ Standardsprachen bzw. ihre Standardvarietät(en) sind im Vergleich zur Dauer der bisherigen Geschichte von Sprachen, relativ junge Sprachausprägungen. In der historisch und volkskundlich ausgerichteten deutschen Dialektologie seit der Romantik war die Unterscheidung von Dialekt und standardisierter Sprache daher relativ unproblematisch. Die Dialekte führten auf das Alt- und Mittelhochdeutsche zurück, womit sich anhand von deren diachronischer Darstellung die Gesetze des Sprachwandels besonders im phonologischen und morphologischen Bereich erkennen und darstellen ließen. Ausbausprache, Abstandsprache, dachloser Dialekt. Die Bezeichnungen „Abstandsprache“, „Ausbausprache“ und „dachloser Dialekt“ gehen auf den Soziolinguisten Heinz Kloss zurück und stellen Kriterien für die Abgrenzung einer Varietät zu einer Sprache dar. Eine Varietät ist dann eine Abstandsprache, wenn sie linguistisch sehr deutlich von einer anderen abweicht. So hat beispielsweise das deutsche Wort „Haus“ gegenüber dem französischen „maison“ einen großen Abstand, zum englischen „house“ aufgrund der ähnlichen Aussprache einen geringen. Als typisches Beispiel hierfür gilt das Baskische, das als isolierte Sprache unbestreitbar eine Abstandsprache zum Spanischen, Französischen und den in der Umgebung gesprochenen romanischen Dialekten ist. Nach ebendiesem Kriterium gilt auch die sorbische (= slavische) Sprache als Abstandsprache zum (westgermanischen) Deutschen. Aber auch näher verwandte westgermanische Sprachen, wie das Deutsche zum Englischen, verhalten sich wie Abstandsprachen zueinander. Die objektive Messung des linguistischen Abstandes ist jedoch aufgrund der Vielzahl an Kriterien und Wörtern extrem schwierig. Eine Varietät ist dann eine Ausbausprache, wenn sie zwar keine Abstandsprache ist (da zu nahe mit einer anderen Varietät verwandt), aber trotzdem eine autonome, auf der Basis der eigenen Dialekte standardisierte schriftliche Form kennt (Standardsprache) und diese sowohl in der Belletristik als auch z. B. in der wissenschaftlichen Fachliteratur verwendet wird. Ausbausprachen sind zum Beispiel das Jiddische oder das Mazedonische, die linguistisch zwar dem Deutschen bzw. dem Bulgarischen nahestehen, aber gleichwohl in ihrer eigenen Standardvarietät über einen so breiten auch schriftlichen Anwendungsbereich verfügen, dass dieser weit über denjenigen eines Dialekts hinausgeht. Keine Ausbausprachen sind beispielsweise das Bairische, das Meißenische oder die schweizerdeutschen Dialekte, da ihnen sowohl eine überregionale, im eigenen Sprachgebiet allgemein anerkannte Schriftvarietät als auch eine schriftliche Verwendung, die über Mundartliteratur und Gelegenheitsverwendungen hinausgeht, fehlt. Auch keine Ausbausprache ist etwa das Schweizer Hochdeutsch, denn dieses baut nicht etwa auf den schweizerdeutschen Dialekten auf, sondern ist vielmehr eine sich in einer überschaubaren Anzahl Punkte manifestierende Variante der allgemeinen deutschen Standardsprache. Das Luxemburgische hingegen wird oft als Ausbausprache angesehen, auch wenn ihm in der Luxemburger Administration, im Hochschulwesen oder in den Printmedien, wo das Französische und Hochdeutsche dominant sind, nur ein geringer Platz eingeräumt wird. Auch das Begriffspaar „Abstandsprache – Ausbausprache“ kann die Unterscheidung von Dialekt und Standardsprache nicht in allen Fällen klarstellen. Deshalb hat Kloss den Begriff dachloser Dialekt eingeführt. Als solchen bezeichnet man eine Sprachvarietät, die zwar linguistisch als eigene Sprache bezeichnet werden kann, deren Sprecher jedoch keinen Bezug (mehr) zu der entsprechenden Standardvarietät haben bzw. die Standardvarietät einer anderen Sprache anwenden, also etwa im Falle des Niederdeutschen diejenige des Hochdeutschen (in Norddeutschland) bzw. des Niederländischen (in den nordöstlichen Niederlanden). Ein wichtiges Kriterium ist, dass sie nicht als Standardsprache ausgebaut wurde, sondern aus einem niederdeutschen Dialektkontinuum besteht, das allerdings übergangslos in das hochdeutsche Dialektkontinuum wechselt. Freilich ist es oft umstritten, ob in solchen Fällen wirklich „Einzelsprachen“ vorliegen oder nicht. Für das Niederdeutsche wurde dies aber insofern bestätigt, als es von den nördlichen Bundesländern der Bundesrepublik Deutschland und den Niederlanden als eigenständige Regionalsprache im Sinne der EU-Charta der Minderheitssprachen anerkannt worden ist. Gegenseitige Verständlichkeit. Oft wird die gegenseitige Verständlichkeit als Kriterium zur Abgrenzung von Dialekt und Sprache genannt. Die genaue Bestimmung der gegenseitigen Verständlichkeit ist jedoch auch in der Linguistik umstritten. Die gegenseitige Verständlichkeit ist nur ein graduelles Kriterium, da es zwischen vollständiger gegenseitiger Verständlichkeit und Unverständlichkeit eine große Bandbreite von teilweiser Verständlichkeit gibt. Auch hängt sie nicht nur von persönlichem Hintergrund (z. B. Fremdsprachenkenntnisse oder Ferienaufenthalte) und Begabung einzelner Sprecher ab, sondern auch von der Bereitschaft, einander verstehen zu wollen. Zumeist ist es so, dass keine gegenseitige Verständigung möglich ist und beispielsweise ein Sprecher des Walliserdeutsch oder sonstigen Dialektes ein standarddeutsches Gespräch viel besser versteht als umgekehrt ein Sprecher des Standarddeutschen ein rein walliserdeutsches Gespräch oder sonstige Dialektsprecher. Spätestens mit dem Eintritt in die Grundschule erwirbt ein jeder Dialektsprecher eine zusätzliche normierte Standardsprache. Heute sind aufgrund der modernen Kommunikationstechnologien, Rundfunk und Fernsehen sowie überregionalen Printmedien die allermeisten Dialektsprecher je nach Lebenssituation, beruflicher Herausforderung, Mobilität und Kommunikationserfordernis mindestens zweisprachig "(Diglossie)". Gegenwart. Innerhalb einzelner Regionen des deutschen Sprachraumes bestehen deutliche Unterschiede im Stellenwert der Dialekte: Während der Ortsdialekt in vielen Gegenden nur mit Sprechern desselben Dialekts oder innerhalb der Familie noch gesprochen wird und Nichtdialektsprecher diesen oft als ländlich oder bildungsfern empfinden, verwendet man den Dialekt in manchen Sprachregionen, wie zum Beispiel in der Deutschschweiz oder manchen Gegenden Ostfrieslands, in nahezu allen Alltagssituationen unabhängig vom sozialen Status und Bildungsniveau. Der Rückzug der Dialekte aus dem Alltagsleben der Menschen verläuft regional unterschiedlich schnell. Die "deutsche Standardsprache" wurde noch in den 1950er Jahren von den meisten Bewohnern des deutschen Sprachraumes eher als fremde Sprache empfunden, insbesondere im niederdeutschen Sprachraum, heute vielleicht nur noch von vielen Deutschschweizern, Süddeutschen, Westösterreichern und Südtirolern. Die Bestimmung in Artikel 3 des Grundgesetzes ("Anti-Diskriminierungsparagraph") der Bundesrepublik Deutschland "Niemand darf wegen... seiner Sprache, Herkunft und Heimat... benachteiligt oder bevorzugt werden" wird nicht auf so genannte Dialektsprecher angewendet. Dadurch wird der Rückgang der Dialekte faktisch begünstigt. "Siehe auch: Deutsche Dialekte, Schweizerdeutsch, Dialekte in Österreich." Die Zukunft der Dialekte. Die Basisdialekte sind rückläufig und verlieren zunehmend an Sprechern und damit an Bedeutung. In seinem Buch „Pfälzisch“ aus dem Jahr 1990 meint Rudolf Post, dass das Pfälzische mit jeder neuen Generation neun Prozent seines Wortschatzes verliere. Dialekte seien heute kaum mehr fähig, eigenständige Neologismen gegenüber dem Hochdeutschen zu entwickeln, es werde fast stets der hochdeutsche Ausdruck verwendet. Verwendung im Rundfunk. Innerhalb des ARD-Hörfunks wird seit Mitte der neunziger Jahre darüber diskutiert, ob Sprecher mit erkennbarer Mundart oder gar Dialekt abzulehnen sind, ob sie als „regionale Farbtupfer“ toleriert oder gar als Profilmerkmal der Anstalten – und zur Pflege des Kulturgutes – gefördert werden sollen. Generell ist seitdem ein Rückgang des Dialektes im ARD-Hörfunk zu beobachten, auch wenn dies von Presse und Kulturkreisen überwiegend negativ aufgenommen wird. Andererseits ist es schwierig, in Dialekt zu senden, da sich die Sendegebiete besonders der größeren Anstalten über mehrere Dialekträume verteilen. Dialekte bei Programmiersprachen. Die Situation bei Programmiersprachen ist in mehreren Aspekten ähnlich derjenigen bei natürlichen Sprachen. Den Hochsprachen entsprechen oft die von Konsortien (z. B. ANSI) genormten Varianten, während deren Implementierungen mehr oder weniger davon abweichen. Die Unterschiede beziehen sich auf Grammatik und Semantik, manchmal aber auch auf den Vorrat unterschiedlicher Programmierkonzepte. Eine Programmiersprache mit sehr vielen Dialekten ist BASIC. Ebenso wie bei natürlichen Sprachen wird die Dialektvarietät durch historische Veränderungen überlagert. So gibt es praktisch keine Perl-Dialekte, wohl aber z. B. Perl4, welches man als „Alt“-Perl bezeichnen könnte, während heute fast ausschließlich Perl5 verwendet wird. Dialekt im Vogelgesang. Der Begriff "Dialekt" wird auch in der ornithologischen Fachliteratur zur Beschreibung regionaltypischer Unterschiede in den Gesängen und Rufen sehr vieler Singvögel verwendet. Diese Unterschiede sind bei manchen Arten, wie zum Beispiel Goldammer, Ortolan oder Buchfink, sehr auffällig und können von geübten Bestimmern deutlich herausgehört und zugeordnet werden; bei anderen Arten sind sie weniger hörbar und nur im Sonagramm zu differenzieren. In der europäischen Avifauna ist der Gesang des Ortolan eines der besten Beispiele und auch das am besten untersuchte Beispiel der Dialektausprägung bei Vögeln. Deutsche Euromünzen. Die deutschen Euromünzen sind die in Deutschland in Umlauf gebrachten Euromünzen der gemeinsamen europäischen Währung Euro. Am 1. Januar 1999 trat Deutschland der Eurozone bei, womit die Einführung des Euros als zukünftiges Zahlungsmittel gültig wurde. Die ersten Münzen wurden ab dem 17. Dezember 2001 in „Starter-Kits“ an das Publikum abgegeben, Handel und Banken konnten diese im Rahmen des sogenannten „Frontloading“ bereits früher erhalten. Geltung als Zahlungsmittel erhielten sie, wie alle anderen Euromünzen und -scheine auch, am 1. Januar 2002. Umlaufmünzen. Die Umlaufmünzen haben für jede der drei Münzreihen ein eigenes Motiv der nationalen Seite. Die kleinste Reihe der 1-, 2- und 5-Cent-Münzen wurden von Rolf Lederbogen entworfen und weist Eichenlaub auf. Die mittlere Reihe mit den 10-, 20- und 50-Cent-Münzen zeigt das Brandenburger Tor und wurde von Reinhart Heinsdorff gestaltet. Das Design der beiden größten Münzen stammt von Heinz Hoyer und Sneschana Russewa-Hoyer und bildet den Bundesadler ab. Die Gestaltung der 1-, 2- und 5-Cent- sowie der 1- und 2-Euro-Münzen erinnert an Motive der alten DM-Münzen. Im Gegensatz zu den anderen Euroländern werden die deutschen Münzen in fünf verschiedenen Prägestätten hergestellt. Diese sind auf den Münzen durch einen Buchstaben in der Nähe der Jahreszahl gekennzeichnet. Die nachfolgende Tabelle listet alle deutschen Prägestätten und ihre jeweiligen Anteil an der Gesamtauflage der deutschen Euromünzen auf. In der Anfangszeit der Euromünzproduktion kam es zu einem schwerwiegenden Fehler. Die Sterne auf den ersten Münzen waren nicht wie auf der Europaflagge nach oben ausgerichtet, sondern radial. Nachdem dies bemerkt wurde, wurden die bis dahin produzierten Münzen wieder vernichtet. Einige wenige Exemplare gelangten jedoch in den Umlauf. Diese sogenannten drehenden Sterne werden von Sammlern gesucht. Wie die meisten Euroländer prägt Deutschland bereits seit 2007 seine Euromünzen mit der neu gestalteten Vorderseite (neue Europakarte). Durch die Vermischung der nationalen Euromünzen nahm der Anteil der deutschen Euromünzen in Deutschland seit Einführung des Euros langsam aber kontinuierlich ab. Gemäß den Erhebungen der niederländischen Website "Eurodiffusie.nl" lag so der Anteil deutscher Euromünzen in der Bundesrepublik im Jahr 2006 schon bei nur noch knapp 86 %, im Jahr 2009 war er weiter auf ca. 80 % abgesunken. Eichenlaub. Für die kleinsten unter den deutschen Euromünzen wurde ein vertrautes Symbol gewählt: das Eichenlaub, das auch schon den deutschen Pfennig zierte. Das Motiv stammt aus einem Entwurf des Karlsruher Professors Rolf Lederbogen. Das Eichenlaub ist ein Symbol mit Geschichte: Im Deutschen Bund von 1815 hatten noch alle seine Mitglieder die Zoll- und auch die Münzhoheit. Die deutsche Zolleinigung und die Münzeinigung gingen Hand in Hand. Die Symbolkraft des Eichenbaums als Sinnbild des gemeinsamen Deutschtums für die deutschen Münzen zu nutzen, geht auf den Münchner Münzvertrag von 1837 zurück. Dieses Abkommen machte Deutschland zu einem einheitlichen Wirtschaftsgebiet. Brandenburger Tor. Das Brandenburger Tor, ein im klassizistischen Stil von Carl Gotthard Langhans erbautes und mit einer Quadriga gekröntes auffälliges Bauwerk, ist ein Wahrzeichen der deutschen Hauptstadt Berlin. Dieses Gebäude spiegelt die deutsche Geschichte wider. Im Deutschen Reich wurde es für Paraden benutzt. Nach dem Zweiten Weltkrieg wurde das Brandenburger Tor zum Symbol der Teilung Deutschlands. Als im November 1989 die Mauer fiel, trafen sich die Deutschen aus Ost und West am Brandenburger Tor. Seitdem steht das geöffnete Brandenburger Tor für ein vereinigtes Deutschland und ist zugleich ein Symbol für den europäischen Einigungsprozess. Das Brandenburger Tor wurde seit den 1930er Jahren immer wieder als Motiv auf deutschen Münzen verwendet. Bei der originalen Quadriga heben die beiden mittleren Pferde jeweils ihr inneres Bein, auf dem Entwurf des Künstlers Reinhart Heinsdorff jedoch ihre äußeren. Die Erstauflage mit drehenden Sternen entspricht in diesem Detail dem Entwurf, die tatsächlich ausgegebene Münzen dagegen dem Original. Erst seit 2007 werden die 10- und 20-Cent-Münzen nach Heinsdorffs Entwurf geprägt. Bundesadler. Der Bundesadler ist seit dem Jahre 1950 das Staatswappen der Bundesrepublik Deutschland. Damit wurde in beinahe identischer Form das Wappen der Weimarer Republik von 1919 übernommen. Der Adler war auch das Wappen des Deutschen Reiches von 1871. Der Bundesadler ist heute in zahlreichen Umgebungen zu finden. Er hängt im Plenarsaal des Deutschen Bundestages. Zu finden ist er in den deutschen Reisepässen und Ausweisen als grafisches Symbol und als Behördenstempel. Der Entwurf stammt von Sneschana Russewa-Hoyer und Heinz Hoyer aus Berlin. Alle Designs enthalten die zwölf Sterne der EU, das Prägejahr und einen Buchstaben, der die Prägestätte bezeichnet (siehe Tabelle). Gestaltungsrichtlinien von 2008. Ein Großteil der deutschen Euromünzen entspricht nicht vollständig den Gestaltungsrichtlinien der Europäischen Kommission. In diesen sind Empfehlungen für die Gestaltung der nationalen Seiten der Kursmünzen festgelegt. Unter anderem soll auf der nationalen Seite der volle oder abgekürzte Name des Ausgabestaats angegeben sein. Dies wird insbesondere von den deutschen Kursmünzen nicht eingehalten. Dort wird nur die Prägestätte angegeben. Weiter sollen die europäischen Sterne wie auf der europäischen Flagge angeordnet sein – also insbesondere gleichmäßig im Kreis verteilt sein. Dies ist bei den Münzen der Bundesländerserie bis einschließlich 2009 nicht erfüllt. Daher erklärt sich auch der Designunterschied zwischen den ersten vier und den restlichen Münzen der Bundesländer-Serie. Die Länder, deren Münzen den oben beschriebenen Empfehlungen noch nicht entsprechen, können die notwendigen Anpassungen jederzeit vornehmen; bis spätestens zum 20. Juni 2062 müssen sie diese vollziehen. 2-Euro-Gedenkmünzen. 2006 begann Deutschland mit der Ausgabe von 2-Euro-Gedenkmünzen, die jeweils dem Bundesland gewidmet sind, das im Ausgabejahr die Bundesratspräsidentschaft innehat. Auf den Münzen der Bundesländer-Serie wird jeweils ein bekanntes Bauwerk des entsprechenden Bundeslandes abgebildet. Bis 2021 wird so für jedes Bundesland eine Gedenkmünze geprägt. Sammlermünzen. → "Hauptartikel: Gedenkmünzen der Bundesrepublik Deutschland" Seit 2002 werden jährlich in den verschiedenen Prägestätten auch 10-Euro-Gedenkmünzen aus Silber geprägt. Diese erinnern an bestimmte Personen, Ereignisse oder Sehenswürdigkeiten. Als Besonderheit stellen sich hier die Gedenkmünzen anlässlich diverser Sportereignisse (z. B. Fußball-Weltmeisterschaft 2006) dar. Diese Münzen wurden zu gleichen Anteilen in allen fünf deutschen Prägestätten hergestellt. Sie besitzen keinen Prägebuchstaben, sondern lassen sich ihrer Prägeanstalt nur durch minimale Unterschiede zuordnen. Ab 2011 wurde das Gewicht und der Edelmetallgehalt aufgrund des gestiegenen Silberpreises reduziert, außerdem werden die Münzen (mit Ausnahme der ersten 2011er-Münze) auch in einer Kupfer-Nickel-Legierung geprägt. Zusätzlich wird pro Jahr eine 100-Euro-Goldmünze herausgegeben. 2002 wurde die Euroeinführung neben der 10-Euro-Münze aus 925er Silber und der 100-Euro-Goldmünze noch mit einer 200-Euro-Goldmünze gewürdigt. Anfang 2010 gab das Bundesfinanzministerium in Berlin bekannt, dass ab Juni 2010 befristet auf 6 Jahre eine weitere jährliche Goldmünze mit Nennwert 20 Euro erscheint. Während die 100-Euro-Goldmünzen aus einer halben Unze Feingold gefertigt werden (die 200-Euro-Münze 2002 aus einer Unze), werden die 20-Euro-Münzen aus 1/8 Unze Feingold geprägt. Die 100-Euro-Münzen würdigen derzeit die Unesco-Weltkulturstätten in Deutschland. Die 20-Euro-Münzen sind dem Thema „deutscher Wald“ gewidmet. Ab 2016 soll die Serie "deutscher Wald" mit "Heimischen Vögeln" fortgesetzt werden. Ab Juni 2016 wird die Nachtigall den kleinen Goldeuro schmücken. Einzelnachweise. Euromunzen Die Welt. In der Produktion der "Welt kompakt" in Berlin Die Welt (Eigenschreibweise: DIE WELT) ist eine deutsche überregionale Tageszeitung der Axel Springer SE. Von den Siegermächten des Zweiten Weltkriegs in der Britischen Besatzungszone in Hamburg gegründet, erschien sie erstmals am 2. April 1946 und wurde 1953 von Axel Springer übernommen. Das Blatt wird dem bürgerlich-konservativen Spektrum zugerechnet. Wirtschaftspolitisch gilt sie als „deutlich marktliberal eingestellt“. In Berlin und Hamburg werden in der "Welt" tägliche Regionalseiten abgedruckt. Die Zentralredaktion von "Welt" und "Welt am Sonntag" befindet sich in Berlin. Hier wird ebenfalls die "Berliner Morgenpost" erstellt. Ab 2002 wurde die Zusammenlegung der drei Redaktionen umgesetzt. "Die Welt" ist Gründungsmitglied der Leading European Newspaper Alliance (LENA), in der sie zurzeit mit den ausländischen Tageszeitungen "El País", die italienische "La Repubblica", "Le Figaro" aus Frankreich, "Le Soir" aus Belgien, die Schweizer Titel "Tages-Anzeiger" und "Tribune de Genève" in der internationalen Berichterstattung redaktionell zusammenarbeitet und kooperiert. Entwicklung. Die "Welt" erschien zum ersten Mal am 2. April 1946 zum Preis von 20 Pfennig. Das Konzept der Zeitung war, Fakten scharf von Kommentaren zu trennen, in den Leitartikeln kamen gegensätzliche Standpunkte zur Sprache. Unter dem seit Frühjahr 1946 amtierenden Chefredakteur, dem SPD-Mitglied und ehemaligen Insassen des KZs Bergen-Belsen Rudolf Küstermeier, kollidierte das Blatt mehrmals mit den britischen Besatzungsbehörden, die die "Welt" als PR-Organ nutzen wollten. Die Auflage stieg bis auf eine Million Exemplare, so dass beim anstehenden Verkauf 1952 an Interessenten kein Mangel herrschte. Für zwei Millionen DM erhielt Axel Springer den Zuschlag. Unter dem ersten Springer-Chefredakteur, dem rechtskonservativen Hans Zehrer (der bereits 1946 kurzzeitig das Blatt geleitet hatte, aufgrund seiner Vergangenheit aber von den Briten abgesetzt worden war), wandelte sich das einst liberale Blatt zur „großen nationalen Zeitung“, wie sie 1965 offiziell tituliert wurde. Autoren wie Ilse Elsner, Sebastian Haffner und Erich Kuby beendeten allmählich die Mitarbeit. Für die "Welt" arbeiteten Journalisten wie Winfried Martini, Friedrich Zimmermann oder der ehemalige Pressechef im NS-Außenministerium Paul Karl Schmidt alias Paul Carell, der von 1958 bis 1979 für die "Welt" schrieb. Dessen damaliger Mitarbeiter Hans Georg von Studnitz sowie konservative Schreiber wie Matthias Walden und William Schlamm prägten kurzfristig den Charakter der Zeitung. Bei der Springer-Kampagne während der Studentenprotesten in den 1960er Jahren gegen Axel Springer wurde auch "Die Welt" Zielscheibe von Kritik. Die Zentralredaktion der "Welt" zog 1975 von Hamburg nach Bonn und 1993 nach Berlin, die der "Welt am Sonntag" folgte 2001 von Hamburg nach Berlin. Seit Herbst 1998 gibt es eine wöchentliche Literaturbeilage, die nach der 1925 von Willy Haas gegründeten Literaturzeitschrift "Die literarische Welt" benannt ist. Von 1997 bis 2002 enthielten die Ausgaben für Bremen und 2002 kurzzeitig in Bayern täglich Regionalseiten, seither nur noch die Ausgaben für Berlin und Hamburg. "Die Welt" erhielt in den Jahren 2002 und 2005 jeweils eine Rüge vom Deutschen Presserat. Nach 40 Jahren schrieb "Die Welt" 2007 erstmals wieder schwarze Zahlen. 2010 übernahm der vorherige Chefredakteur Thomas Schmid die Position des Herausgebers. Jan-Eric Peters wurde Chefredakteur aller Welt-Publikationen. Am 26. Oktober 2012 gab der Verlag Axel Springer bekannt, die Redaktion der Zeitung "Die Welt" noch vor dem Jahresende mit der des "Hamburger Abendblattes" zusammenzulegen. Die Zentralredaktion wurde in Berlin angesiedelt. In Hamburg blieb nur noch eine Abendblatt-Lokalredaktion bestehen. Dies ist auch im Zusammenhang mit der fünfjährigen Standortgarantie für Hamburg zu sehen, die beim Berlin-Umzug der "Bild" gegeben wurde und am 30. Juni 2013 auslief. 2014 wurde bekannt, dass rund 42 % der gemeldeten verkauften Auflage nicht an Abonnenten oder in den Straßenverkauf gehen, sondern als Bordexemplar oder per Sonderverkauf abgesetzt werden. Der Verlag erhält dafür keine oder wesentlich geringere Erlöse. Seit Januar 2015 sind nur noch 20 Online-Artikel pro Monat kostenlos abrufbar, für darüber hinaus gegehende Abrufe muss ein kostenpflichtiges Abonnement abgeschlossen werden. Ende 2013 kaufte Axel Springer den Fernsehsender N24 und gab im Februar 2014 bekannt, dass die Redaktion von N24 mit der der Welt zusammengelegt wurden, um multimedial Nachrichten zu produzieren. Zum 1. Januar 2015 wurden die Aktivitäten in der WeltN24 GmbH gebündelt. Am 7. Juli 2015 wurde bekannt, dass N24 schrittweise mit der "Welt" unter einem neuen, einheitlichen Logo verschmolzen wird. Am 24. November 2015 gab die WeltN24 GmbH bekannt, dass ab dem 29. November 2015 die "WeLT am Sonntag" und ab dem 30. November 2015 "DIE WeLT" das neue Logo samt Markenauftritt erhalten. Auflage. Die Auflage der "Welt" wird gemeinsam mit der "Welt Kompakt" ausgewiesen. In den vergangenen Jahren haben die beiden Zeitungen an Auflage eingebüßt. Sie beträgt gegenwärtig Das entspricht einem Rückgang von Stück. Der Anteil der Abonnements an der verkauften Auflage liegt bei Prozent. Online-Ausgabe. Unter dem Namen "Welt Online" wurde das Nachrichtenportal der "Welt Gruppe" im Internet entwickelt. Die Website der Zeitung wurde 1995 gestartet und bietet ein kostenloses elektronisches Zeitungsarchiv aller Artikel seit der Digitalisierung ab Mai 1995. Ein PDF-Ganzseitenarchiv erlaubt ferner das Herunterladen von einzelnen Seiten, ausgewählten Bereichen (z. B. „Titel“, „Deutschland“, „Ausland“) oder einer kompletten Ausgabe der seit dem 9. Januar 2001 erschienenen Nummern. Am 10. September 2012 wurde der Internetauftritt in Die Welt umbenannt und zum Kern der Veröffentlichungen gemacht. Ziel ist es, einen einheitlichen Namensauftritt aller Medien der Welt-Gruppe zu erreichen, ausgenommen davon ist die Zeitung Welt am Sonntag. Am 12. Dezember 2012 führte "Die Welt" als erste überregionale Tageszeitung in Deutschland für ihren Internetauftritt ein Bezahlsystem ein. Nutzer können seitdem pro Kalendermonat 20 Artikel kostenlos abrufen, danach wird beim Abruf eines weiteren Artikels der Abschluss eines Abonnements verlangt. Dieses kostet (Stand September 2013) mindestens 4,49 Euro für einen Monat. Nach dem ersten halben Jahr mit einer Paywall zog der General Manager von "Welt Online" bei einer Tagung des BDZV (Bundesverband Deutscher Zeitungsverleger) eine erste Zwischenbilanz. Die konkrete Zahl der Zahler nannte er nicht; er bezeichnete sie als „ermutigend“. Am 7. August 2013 wurde bekanntgegeben, dass die Zahl der digitalen Abonnenten der WELT zum 30. Juni 2013 mehr als 47.000 beträgt. Diskutiert wird allerdings die Aussagekräftigkeit der Zahlen hinsichtlich der Bereitschaft für Inhalte im Netz zu zahlen, da das Abo unter anderem in Kombination mit einem iPad mini beworben und verkauft wurde. Künstlerausgaben. Seit 2010 lässt die Kulturredaktion einmal jährlich sog. "Künstlerausgaben" der Zeitung durch namhafte Bildende Künstler frei nach deren Vorstellung gestalten. Diese Kunstaktionen tragen stets den Titel "Die Welt der/des [Künstlername]". Bis jetzt waren das Kritik. Der Journalist Stefan Niggemeier bezeichnete 2008 in der "FAZ" den Kommentarbereich auf "Welt Online" als „unwirtlicher Ort“ und „als Spielwiese für Rechtsradikale, Spinner und Hetzer aller Art'“. Diamant. Diamant ist die kubische Modifikation des Kohlenstoffs und als natürlich vorkommender Feststoff ein Mineral aus der Mineralklasse der Elemente. Diamant bildet meist oktaederförmige Kristalle, oft mit gebogenen und streifigen Flächen. Weitere beobachtete Formen sind das Tetraeder, Dodekaeder und der Würfel. Die Kristalle sind transparent, farblos oder durch Verunreinigungen (z. B. Stickstoff) oder Kristallgitterdefekte grün, gelb, braun und seltener auch orange, blau, rosa, rot oder grau bis schwarz gefärbt. Diamant ist der härteste natürliche Stoff. In der Härteskala nach Mohs hat er die Härte 10. Seine Schleifhärte nach Rosiwal (auch "absolute Härte") ist 140-mal größer als die des Korunds. Die Härte des Diamanten ist allerdings in verschiedenen Kristallrichtungen unterschiedlich (Anisotropie). Dadurch ist es möglich, Diamant mit Diamant zu schleifen. In dem dazu verwendeten Diamantpulver liegen die Kristalle in jeder Orientierung vor (statistische Isotropie), damit wirken immer auch die härtesten unter ihnen auf den zu schleifenden Körper. Diamant ist optisch isotrop mit hoher Lichtbrechung und hoher Dispersion. Er zeigt Fluoreszenz und Phosphoreszenz und ist triboelektrisch. Er verfügt über die höchste Wärmeleitfähigkeit aller bekannten Minerale. Das Gewicht einzelner Diamanten wird traditionell in Karat angegeben, einer Einheit, die exakt 0,2 Gramm entspricht (siehe Abschnitt „Gewicht in Karat“). Etymologie und Geschichte. Der Name "Diamant" leitet sich aus dem spätlateinischen "diamantem", Akkusativ von "diamas" ab, einer gräzisierenden Abwandlung von "adamas", akk. "adamantem", zu griechisch "ἀδάμας", "adámas", „unbezwingbar“. Im klassischen Latein wurden als "adamas" besonders harte Materialien bezeichnet, so etwa von Plinius der Saphir. Die ältesten Diamantenfunde werden aus Indien, angeblich bereits im 4. Jahrtausend vor Christus, berichtet. Bereits damals sagte man Diamanten magische Wirkungen nach, weshalb man sie auch als Talismane nutzte. Diamanten waren auch bei den alten Römern bekannt und wurden sehr geschätzt. Die Verwendung von Diamanten als Werkzeug beschreibt schon Plinius der Ältere in seinem Werk Naturalis historia, XXXVII 60. Um 600 n. Chr. wurde der erste Diamant auf der indonesischen Insel Borneo gemeldet, doch obwohl Indien nun nicht mehr die einzige Quelle war, blieben die indonesischen Funde unbedeutend, da die Anzahl zu gering und der Transport zu den Handelsstädten zu weit war. Erst im 13. Jahrhundert entdeckte man, dass sich Diamanten bearbeiten lassen, was jedoch in Indien abgelehnt wurde, da die Steine so angeblich ihre magischen Kräfte verlieren könnten. Der heutige typische Brillantschliff wurde erst um 1910 entwickelt. Im 18. Jahrhundert erschöpften sich allmählich die indischen und indonesischen Minen. Als ein Portugiese auf der Suche nach Gold in Brasilien war, entdeckte er den ersten Diamanten außerhalb Asiens. Dieser Fund verursachte einen „Diamantrausch“. Den ersten Diamant im Muttergestein Kimberlit fand man 1869 in Kimberley in Südafrika. Ein Jahr später übernahm Südafrika die Rolle des Hauptlieferanten, da auch Funde in Brasilien seltener wurden. Auf der Weltausstellung in Philadelphia 1876 wurde erstmals eine mit Diamanten besetzte Steinkreissäge einer breiten Öffentlichkeit gezeigt. 1908 entdeckte man auch an der Diamantenküste Deutsch-Südwestafrikas Diamanten, und 1955 wurde schließlich der erste Diamant künstlich hergestellt. Den ersten Diamanten auf dem Meeresgrund fand man erst 1961. Heute ist Russland Hauptlieferant für Diamanten. Klassifikation. In der mittlerweile veralteten, aber noch gebräuchlichen 8. Auflage der Mineralsystematik nach Strunz gehörte der Diamant zur Mineralklasse der „Elemente“ und dort zur Abteilung der „Halbmetalle und Nichtmetalle“, wo er zusammen mit Chaoit, Fullerit, Graphit, Lonsdaleit und Moissanit eine eigenständige Gruppe bildete. Die seit 2001 gültige und von der International Mineralogical Association (IMA) verwendete 9. Auflage der Strunz'schen Mineralsystematik ordnet den Diamant ebenfalls in die Klasse der „Elemente“ und dort in die Abteilung der „Halbmetalle (Metalloide) und Nichtmetalle“ ein. Diese Abteilung ist allerdings weiter unterteilt nach den verwandten, chemischen Elementen, sodass das Mineral entsprechend in der Unterabteilung „Kohlenstoff-Silicium-Familie“ zu finden ist, wo es nur noch zusammen mit Lonsdaleit die unbenannte Gruppe "1.CB.10" bildet. Auch die Systematik der Minerale nach Dana ordnet den Diamant in die Klasse und gleichnamige Abteilung der „Elemente“ ein. Hier ist er zusammen mit Graphit, Lonsdaleit, Chaoit und Fullerit in der „Kohlenstoffpolymorphe“ mit der System-Nr. "01.03.06" innerhalb der Unterabteilung „“ zu finden. Kristallstruktur. Diamant besteht ausschließlich aus reinem, kubisch kristallisiertem Kohlenstoff. Wenn auch der innere Aufbau theoretisch aus reinem Kohlenstoff besteht, so sind die freien Atombindungen an den Grenzflächen des Kristalls doch mit Sauerstoff oder Wasserstoff gesättigt. Im Diamanten sind die Kohlenstoffatome tetraedrisch gebunden; das bedeutet, jedes Atom hat vier symmetrisch ausgerichtete Bindungen zu seinen nächsten Nachbarn. Die große Härte resultiert aus der sehr hohen Bindungsenergie der vollständig in sp3-Hybridisierung vorliegenden chemischen Bindungen. Eigenschaften. Diamant oxidiert in reinem Sauerstoff bei ca. 720 °C, in Luft ebenfalls ab 720 °C in langsamerer Reaktionsgeschwindigkeit zu Kohlendioxid. Die Reaktionsenthalpie ist mit 395,7 kJ/mol 1,89 kJ/mol größer als die von Graphit. Mit Wasserstoff reagiert er bei hohen Temperaturen zu Kohlenwasserstoffen, und in Metallschmelzen kohlenstofflösender Metalle wie Eisen, Nickel, Cobalt, Chrom, Titan, Platin, Palladium und ähnlichen und deren Legierungen ist er löslich. Aufgrund der sehr kleinen reaktiven Oberfläche ist die Umsetzungsgeschwindigkeit ebenfalls entsprechend klein. Altersbestimmung. Das Alter der Diamanten kann anhand ihrer Einschlüsse bestimmt werden. Diese Einschlüsse entstehen gleichzeitig mit dem Diamanten, der sie umschließt, und bestehen oft aus Silikatmineralen der Umgebung. Das Alter der Silikatminerale kann mit der Geochronologie anhand ihrer isotopischen Zusammensetzung bestimmt werden; dazu werden hauptsächlich die Zerfallssystematik von 147Sm zu 143Nd und 187Re zu 187Os verwendet. Anhand der inzwischen großen Datenbank an Isotopendaten lässt sich feststellen, dass die Diamantbildung immer wieder zu verschiedenen Zeiten über alle Erdzeitalter hinweg stattfand, und es nicht nur sehr alte Diamanten gibt, die älter als drei Milliarden Jahre sind, sondern auch jüngere, die allerdings immer noch ein Alter von mehreren hundert Millionen Jahren erreichen, der älteste bekannte Diamant wurde auf ein Alter von 4,25 Mrd. Jahren datiert. Aus dem Verhältnis der stabilen Isotope 13C und 12C lassen sich Rückschlüsse auf den Ursprung des Kohlenstoffs ziehen. Radioaktives 14C hat eine Halbwertszeit von 5730 Jahren. Nach 200.000 Jahren ist 14C praktisch vollständig zerfallen und in Naturdiamanten genauso wie in Naturgraphit nicht mehr vorhanden. Modifikationen und Varietäten. Diamant ist bei Raumtemperatur und Normaldruck metastabil. Die Aktivierungsenergie für den Phasenübergang in die stabile Modifikation (Graphit) ist jedoch so hoch, dass eine Umwandlung in Graphit bei Raumtemperatur praktisch nicht stattfindet. "Ballas" (radialstrahlig, faserig) und "Carbonado" (schwarzer poröser polykristalliner Diamant, der bislang ausschließlich in Zentralafrika und in Südamerika gefunden wurde) sind besondere Diamant-Varietäten, deren Kristallstrukturen durch ungünstige Wachstumsbedingungen vermehrt Gitterfehler aufweisen. Bildung und Fundorte. Oktaedrischer Diamant von etwa 1,8 Karat (6 mm) in Kimberlit aus der „Finsch Diamond Mine“, Südafrika Diamanten, die groß genug für die Schmuckproduktion sind, bilden sich nur im Erdmantel unter hohen Drücken und Temperaturen, typischerweise in Tiefen zwischen 150 bis 660 Kilometern und bei Temperaturen von 1200 bis 1400 °C. Diamant-Muttergesteine im Erdmantel sind Peridotit und Eklogit. Letzterer kann versenkte ozeanische Kruste repräsentieren. Gasreiche vulkanische Gesteine, sogenannte Kimberlite und die nur im Westen Australiens (Kimberley Kraton) vorkommende Lamproite, transportieren Bruchstücke des Erdmantels mit den enthaltenen Diamanten bei ihrer Eruption an die Erdoberfläche, wo sie in den Diatremen (engl. "Pipes"), den vulkanischen Eruptivschloten, gefunden werden. Die jeweilige Transportdauer aus der Tiefe wird auf wenige Stunden geschätzt, so dass aufgrund der Schnelligkeit keine Phasenumwandlung zu Graphit stattfindet. Die letzte Phase der Eruption erfolgt mit Überschallgeschwindigkeit. Diamanten sind Fremd- oder "Xenokristalle" in Kimberlit und Lamproit und in diesen Magmen chemisch nicht stabil (metastabil). So kann man an natürlichen Diamanten immer Auflösungserscheinungen beobachten. Von ihren Vorkommen in Diatremen können die Diamantkristalle durch natürliche Verwitterungsprozesse, bei denen sie aufgrund ihrer Härte intakt bleiben, abtransportiert und in Sedimentgesteinen angereichert werden, die heute eine der Hauptquellen dieses Minerals darstellen. Solche Vorkommen nennt man alluvial. Insbesondere die besten, einschlussarmen Diamanten überstehen den Transport unbeschädigt, sodass alluviale Vorkommen besonders viele Diamanten von Edelsteinqualität enthalten. Metamorphe sogenannte UHP (engl "Ultra-High-Pressure") Mikrodiamanten wurden zum Beispiel im Erzgebirge, in Griechenland und in Kasachstan gefunden. Die Vorkommen sind an Abschnitte der Erdkruste gebunden, die während einer Gebirgsbildung und Metamorphose hohen Drücken und Temperaturen ausgesetzt wurden. Herkunft des Kohlenstoffes. Kohlenstoff kommt im Erdmantel relativ selten vor, entweder stellt er einen Restbestand des Kohlenstoffes dar, der während der Differentiation des Erdkörpers nicht in die Kruste ging, oder er wurde durch die Überschiebung oder Subduktion von ozeanischer Kruste wieder in diese Tiefen gebracht. Mitunter haben daher Diamanten Isotopenzusammensetzungen, die auf einen biogenen Ursprung des Kohlenstoffs hinweisen. Irdische Vorkommen. Die größten Diamantvorkommen befinden sich in Russland, Afrika, insbesondere in Südafrika, Namibia, Angola, Botswana, der Demokratischen Republik Kongo und Sierra Leone, in Australien, Kanada und in Brasilien. Es wurden aber auf allen Kontinenten Diamanten gefunden. Insgesamt kennt man bisher (Stand: 2015) rund 700 Fundorte für Diamant. Der älteste bekannte Diamant hat ein Alter von 4,25 Mrd. Jahren. In Deutschland fand man Diamanten unter anderem am Nördlinger Ries und in der Nähe der Talsperre Saidenbach bei Forchheim. Da Diamanten auf der Erde erst ab ca. 140 km Tiefe stabil sind, findet man die größten Exemplare dann, wenn sie besonders schnell (in der Regel mit Magmen) aus mindestens dieser Tiefe nach oben kamen, es konnten sogar Diamanten aus dem unteren Erdmantel nachgewiesen werden. Durch rein tektonische Prozesse (durch Exhumierung (Geologie)) an die Erdoberfläche gelangte Diamanten sind meist relativ klein (Durchmesser meist kleiner als 1 mm). Diamanten werden meist aus Schloten (engl. pipes) von erloschenen Kimberlitvulkanen gewonnen, die senkrecht nach unten, zuerst im Tagebau, dann unter Tage, abgebaut werden. Das Muttergestein wird dabei zermahlen, um die Diamanten zu gewinnen. In Namibia, im Südwesten Afrikas, kommen darüber hinaus Diamanten in der Wüste und im Küstenbereich des Meeres unter Wasser in Alluvialböden vor, wo sie durch Erosion hingelangten. Für den Abbau zu Wasser werden spezielle Schiffe eingesetzt, die die Diamanten aus dem Sand waschen. Wirtschaftlich abbaubare Diamantvorkommen treten meist in Kimberlitschloten auf, die mindestens 2,5 Milliarden Jahre alte Gesteinskomplexe durchschlagen haben. Diese Gesteinskomplexe sind Teil der geologisch ältesten Bereiche der heutigen Kontinente, der sogenannten Festlandskerne oder Kratone, die sich durch eine enorm hohe Lithosphärendicke (300 km) auszeichnen. Die Entstehung der diamanthaltigen Kimberlite und damit auch der wesentlichen Diamantvorkommen ist an sogenannte Plumes gebunden; in diesen Bereichen steigt Material aus dem Erdmantel auf, erwärmt die darüberliegende Lithosphäre stark und führt zu Vulkanismus (siehe auch Hotspot). Die Weltproduktion an Naturdiamant (etwa durch Rio Tinto Group) liegt heute bei etwa zwanzig Tonnen pro Jahr, womit derzeit nur noch etwa 20 % des industriellen Bedarfs gedeckt werden können. Daher füllen in steigendem Maße synthetisch erzeugte Diamanten, deren Eigenschaften wie Zähigkeit, Kristallhabitus, Leitfähigkeit und Reinheit genau beeinflusst werden können, diese Nachfragelücke. Extraterrestrische Entstehung und Vorkommen. Mikrodiamanten entstehen vor allem bei Meteoriteneinschlägen: Bei den dabei auftretenden hohen Temperaturen und Druckverhältnissen wird irdischer Kohlenstoff so stark komprimiert, dass sich kleine Diamantkristalle und auch Lonsdaleite bilden, die sich aus der Explosionswolke ablagern und noch heute in der Umgebung von Meteoritenkratern wie dem Barringer-Krater nachgewiesen werden können. Mikrodiamanten kommen auch in Fundstücken von Eisenmeteoriten und ureilitischen Achondriten vor, wo sie vermutlich durch Schockereignisse aus Graphit gebildet wurden. Winzige Diamanten, wegen ihrer typischen Größe von nur einigen Nanometern oft Nanodiamanten genannt, kommen zudem in Form von präsolaren Mineralen in primitiven Meteoriten vor. Kohlige Chondriten. Kohlige Chondrite sind Steinmeteorite mit einem vergleichsweise hohen (bis zu 3 %) Anteil an Kohlenstoff. Diese enthalten manchmal winzige, nanometergroße Diamanten, die außerhalb unseres Sonnensystems entstanden. Herstellungsverfahren. Die Herstellung synthetischer Diamanten gelang erstmals am 15. Februar 1953 dem Physiker Erik Lundblad bei dem schwedischen Elektrotechnik-Konzern ASEA. Seit 1955 ist es mit Hilfe des sogenannten Hochdruck-Hochtemperatur-Verfahrens (HPHT – englisch: "high-pressure high-temperature") möglich, künstliche Diamanten herzustellen. Bei diesem Verfahren wird Graphit in einer hydraulischen Presse bei Drücken von bis zu 6 Gigapascal (60.000 bar) und Temperaturen von über 1500 °C zusammengepresst. Unter diesen Bedingungen ist Diamant die thermodynamisch stabilere Form von Kohlenstoff, sodass sich der Graphit zu Diamant umwandelt. Dieser Umwandlungsprozess kann unter Beigabe eines Katalysators beschleunigt werden (meist Eisencarbonyl). Auch mit Katalysator dauert der Umwandlungsprozess immer noch einige Wochen. Analog zum Diamant lässt sich aus der hexagonalen Modifikation des Bornitrids ebenfalls unter Verwendung der Hochdruck-Hochtemperatur-Synthese kubisches Bornitrid (CBN) herstellen. CBN erreicht nicht ganz die Härte von Diamant, ist aber zum Beispiel bei hohen Temperaturen gegen Sauerstoff beständig. Weitere Verfahren zur Erzeugung hoher Temperaturen und Drücke sind die sogenannte Detonationssynthese und die Schockwellensynthese. Bei der Detonationssynthese unterscheidet man zwischen der Detonation eines Gemischs aus Graphit und Explosionsstoff oder ausschließlich die Detonation von Explosionsstoffen. Beim Letztgenannten wird hierzu ein Sprengstoffgemisch aus TNT (Trinitrotoluol) und RDX (Hexogen) in einem abgeschlossenen Behälter gezündet. Der Sprengstoff liefert die benötigte Energie und ist gleichzeitig Kohlenstoffträger. Der nötige Druck zur Umwandlung von Kohlenstoffmaterial in Diamant wird bei der Schockwellensynthese durch das Einwirken einer externen Schockwelle, ebenfalls ausgelöst durch eine Explosion, herbeigeführt. Durch die Explosion wird eine mit Kohlenstoffmaterial gefüllte Kapsel komprimiert. Diese Kraft bewirkt eine Umwandlung des innen liegenden Kohlenstoffmaterials in Diamant. Industriediamant ist ebenso hart wie natürlicher Diamant. Weiterverarbeitung. Dieser kommerziell erfolgreiche Weg liefert Diamantpulver in verschiedenen Feinheiten. Die synthetisch hergestellten Rohdiamanten werden zunächst mechanisch zerkleinert (Mahlen in Kugelmühlen). Verunreinigungen aus Rückständen der Edukte auf der Oberfläche der Diamantpartikel, wie nicht brennbaren Verunreinigungen oder nicht umgewandelte Graphitreste, werden chemisch entfernt. Die Klassierung erfolgt bei gröberen Körnungen durch Siebung. Mikrokörnungen hingegen müssen sedimentiert werden. Hierzu wird das Diamantpulver in ein Wasserbecken gegeben. Mit Hilfe des Stokesschen Gesetzes kann die Sedimentationsgeschwindigkeit eines sphärischen Partikels berechnet werden. Die oberen Schichten des Wasser-Diamantpulver-Gemischs werden nach einer jeweiligen Sedimentationsdauer vorsichtig abgesaugt und physikalisch getrocknet. Beschichtung. Eine Alternative zur Herstellung künstlicher Diamanten ist die Beschichtung von Substraten mit Hilfe der chemischen Gasphasenabscheidung (engl., CVD). Dabei wird in einer Vakuumkammer eine einige Mikrometer dicke CVD-Diamantschicht auf den Substraten, zum Beispiel Hartmetallwerkzeugen, abgeschieden. Ausgangsstoff dabei ist typischerweise ein Gasgemisch aus Methan und Wasserstoff, wobei ersteres als Kohlenstoffquelle dient. Gemäß der Ostwaldschen Stufenregel sollte sich hauptsächlich metastabiler Diamant abscheiden; nach der Ostwald-Volmer-Regel bildet sich wegen seiner geringeren Dichte vorwiegend Graphit. Mit atomarem Wasserstoff gelingt es, Graphit selektiv zu zersetzen und die Bildung von Diamant zu begünstigen. Atomarer Wasserstoff (H) entsteht in einem thermisch oder elektrisch aufgeheizten Plasma aus molekularem Wasserstoffgas (H2). Die Substrattemperatur muss unterhalb von 1000 °C liegen, um die Umwandlung in das stabile Graphit zu unterbinden. Es lassen sich dann Wachstumsraten von mehreren Mikrometern pro Stunde erreichen. Als weitere Entwicklung können mit Hilfe der Technik der Plasmabeschichtung zum Beispiel mit PECVD nur wenige Nanometer bis Mikrometer dünne Schichten aus sogenanntem diamantartigen Kohlenstoff (DLC: "diamond-like carbon") hergestellt werden. Diese Schichten vereinigen gleichzeitig eine sehr hohe Härte und sehr gute Gleitreibungseigenschaften. In ihnen liegt, je nach Beschichtungsparametern, eine Mischung von sp2- und sp3-hybridisierten Kohlenstoffatomen vor. Es handelt sich daher bei diesen Schichten nicht um Diamant. Diese Schichten haben jedoch bestimmte Eigenschaften des Diamanten und werden daher als „diamantähnlich“ oder „diamantartig“ bezeichnet. Über die Steuerung des Prozesses und der Wahl des Precursormaterials können viele Arten von harten wasserstofffreien bis hin zu sehr elastischen wasserstoffhaltigen Kohlenstoffschichten erzeugt werden. Magnetischer Diamant. Am "Rensselaer Polytechnic Institute" in Troy gelang es, magnetische Diamanten herzustellen. Sie sind nur fünf Nanometer groß und besitzen ein eigenes Magnetfeld. Der Effekt beruht auf einem Defekt im Kristallgitter. Anwendungen des gesundheitsverträglichen Kohlenstoffs werden vor allem in der Medizin prognostiziert. Diamantarten. Man unterscheidet zwischen monokristallinen und polykristallinen Diamanten. Monokristallines Diamantpulver. Monokristalliner Industriediamant (Einkristall) ist relativ kostengünstig und in großen Mengen herstellbar. In der industriellen Technik ist er deshalb weit verbreitet in Schleif-, Läpp- und Polierprozessen. Der Diamant weist eine monokristalline Gitterstruktur auf, die Gleitebenen sind parallel zur optischen Achse (111-Ebene) orientiert. Bei Belastung bricht das monokristalline Diamantkorn entlang der parallelen Spaltebenen. Hierdurch entstehen Körner in blockiger Form mit scharfen Schneidkanten. Sinnbildlich ausgedrückt bricht ein monokristallines Diamantkorn wie eine Salami, die in Scheiben geschnitten wird („Salamischeibenmodell“). Polykristallines Diamantpulver. Ein polykristalliner (Industrie-) Diamant (Vielkristall) ist aus einer Vielzahl winziger Diamantkörner zusammengesetzt. Bei Belastung brechen kleine Ecken und Kanten aus dem Diamantkorn heraus, so dass immer wieder neue, scharfe Schneidkanten entstehen (Selbstschärfungseffekt). Durch diese Charakteristik werden hohe Abtragsraten und zugleich feinste Oberflächen erreicht. Er eignet sich für das Läppen und Polieren extrem harter Materialien, wie beispielsweise Keramik oder Saphirglas. Nanodiamant. Nanodiamantpulver findet in verschiedenen Anwendungen und Forschungsgebieten Verwendung. Durch das große Volumen-Oberflächenverhältnis entstehen neue physikalische und chemische Eigenschaften. Nanodiamanten haben beispielsweise perfekte Schmiereigenschaften und werden daher Schmierölen zugesetzt. Ein weiteres Einsatzgebiet für Nanodiamanten soll die Krebstherapie sein. Naturdiamantpulver. Das monokristalline Naturdiamantpulver wird bevorzugt für die Herstellung galvanisch gebundener Diamantwerkzeuge verwendet. Als Abfallprodukt der Schmuckindustrie ist es sehr selten und entsprechend hochpreisig. Beschichtetes Diamantpulver. Mit Nickel, Kupfer oder Titan beschichtetes monokristallines Industriediamantpulver findet unter anderem Anwendung zur Herstellung galvanisch gebundener Diamantwerkzeuge. Verwendung als Schmuckstein. Ein Diamant hat eine sehr hohe Lichtbrechung und einen starken Glanz, gepaart mit einer auffallenden Dispersion, weshalb er bis heute vorwiegend als Schmuckstein genutzt wird. Seine Brillanz beruht auf zahllosen inneren Lichtreflexionen, die durch den sorgfältigen Schliff der einzelnen Facetten hervorgerufen werden, welche in speziell gewählten Winkelverhältnissen zueinander stehen müssen. Das Ziel ist es, einen hohen Prozentsatz des einfallenden Lichtes durch Reflexionen im Inneren des Steines wieder in Richtung des Betrachters aus dem Stein austreten zu lassen. Mittlerweile werden Schliffe und deren Wirkung auf Rechnern simuliert und die Steine auf Automaten geschliffen, um über eine exakte Ausführung optimale Ergebnisse zu erreichen. Nur ein Viertel aller Diamanten ist qualitativ als Schmuckstein geeignet. Davon erfüllt nur ein kleiner Bruchteil die Kriterien, die heute an Edelsteine gestellt werden: Ausreichende Größe, geeignete Form, hohe Reinheit, Fehlerfreiheit, Schliffgüte, Brillanzwirkung, Farbenzerstreuung, Härte, Seltenheit und je nach Wunsch Farbigkeit oder Farblosigkeit. Im frühen Mittelalter hatte der Diamant mangels Bearbeitungsmöglichkeiten noch keinen besonderen Wert und meist wurden nur die farbigen Steine als Edelsteine bezeichnet. Beginnend vermutlich im 14. Jahrhundert und bis zum 16. Jahrhundert wurden Diamanten mit einer glatten Spaltfläche nach unten und oben in gewölbter Form in Facetten geschliffen. Diesen Schliff nannte man Rosenschliff, spätere Varianten mit mehreren Facettenebenen die „Antwerpener Rose“. Diese Diamanten wurden dann zur Erhöhung der Reflexion in Silber über einer folierten Vertiefung gefasst, die poliert war und manchmal ebenfalls Abdrücke der Facetten des Rosenschliffes hatte. Mit Erfindung besserer Schleifscheiben im 17. Jahrhundert konnte man Diamanten mit spitzem Unterteil schleifen, die erstmals durch Totalreflexion von oben einfallendes Licht wieder zum Betrachter zurück reflektieren konnten. Solche Diamanten wurden dann unten offen gefasst und viele Diamantrosen sollen dann auch umgeschliffen worden sein. Diese Schlifform zeigte, wie die unten folierten Diamantrosen eine gute Brillanz und das "Feuer" (Dispersion) des Diamanten. Bis zum 19. Jahrhundert bestand die Bearbeitung nur in zwei Techniken, dem Spalten entlang der Spaltebenen (Oktaederflächen) und dem schleifen/polieren. Durch die Erfindung des Sägens konnten Diamanten im modernen Schliff und mit geringerem Verarbeitungsverlust entwickelt werden. Der moderne Schliff entstand so im 20. Jahrhundert, mit einer deutlich höheren Lichtausbeute die das Feuer (Dispersion) in den Hintergrund drängt. Seit den 1980er Jahren werden Diamanten unter anderem mit Lasern bearbeitet, um dunkle Einschlüsse zu entfernen und Steine zu kennzeichnen. Die Eigenfarbe von Diamant lässt sich nicht so einfach wie bei anderen Schmucksteinen beeinflussen. Unansehnliche Steine gibt man zur Farbveränderung seit den 1960er Jahren in Kernreaktoren zur Bestrahlung. Das Resultat sind dauerhafte Farbveränderungen. Schmutzig graue, weiße und gelbliche Steine erhalten ein leuchtendes Blau oder Grün. Daran kann sich noch eine Wärmebehandlung anschließen, wobei die durch Strahlung erzeugten Kristallveränderungen zum Teil wieder „ausheilen“ und als weitere Farbveränderung sichtbar werden. Die Resultate sind nicht immer eindeutig vorhersehbar. Diamantbestimmung. Kriterien zur Erkennung eines Diamanten sind u. a. seine Dichte, Härte, Wärmeleitfähigkeit, Glanz, Lichtstreuung oder Dispersion, Lichtbrechung oder Refraktion sowie Art und Ausbildung vorhandener Einschlüsse. Ein weiteres wichtiges Unterscheidungsinstrument zwischen naturfarbenen und künstlich gefärbten Diamanten liegt in der Absorptions-Spektroskopie. Diamanten kommen in verschiedenen Farben und Schattierungen vor, unter anderem Gelb, Braun, Rot und Blau. Die Farben beruhen hauptsächlich auf Einbau von Fremdelementen (z. B. Stickstoff oder Bor) im Kohlenstoffgitter des natürlichen Diamanten. Brillanten. Eine besonders charakteristische – und für Diamanten die mit Abstand häufigste – Schliffform ist der Brillantschliff. Seine Merkmale sind mindestens 32 Facetten und die Tafel im Oberteil, eine kreisrunde Rundiste, sowie mindestens 24 Facetten im Unterteil. Nur derartig geschliffene Diamanten dürfen als "Brillanten" bezeichnet werden. Zusätzliche Angaben wie "echt" oder ähnliche sind dabei nicht erlaubt, da irreführend. Die Bezeichnung Brillant bezieht sich stets auf Diamanten. Zwar ist es möglich – und auch nicht unüblich –, andere Edelsteine oder Imitate im Brillantschliff zu verarbeiten, diese müssen dann aber eindeutig bezeichnet sein, zum Beispiel als "Zirkonia in Brillantschliff". Bewertung von geschliffenen Diamanten. Zur Bewertung der Qualität und damit auch des Preises eines geschliffenen Diamanten werden als Kriterien die sogenannten vier C (Carat, Color, Clarity, Cut) herangezogen. Der Preis pro Karat liegt 2010 laut dem Kimberley Process Certification Scheme zwischen 342,92 US$ (bei Diamanten aus Namibia) und 67,34 US$ (aus Russland). Gewicht in Karat "(carat weight)". Die Gewichtseinheit für Edelsteine ist das Karat, Abkürzung ct. Der Name dieser Einheit leitet sich von der arabischen bzw. griechischen Bezeichnung für die Samen des Johannisbrotbaums (lat. Ceratonia siliqua) ab. Diese wurden früher als Gewichte verwendet, da sie sehr gleichmäßig groß sind. Ein metrisches Karat entspricht exakt 0,2 Gramm. Schliff "(cut)". Natürlicher Diamant im Tropfenschliff (Pendeloque) Fluoreszenz. Die Fluoreszenz beschreibt ein Bewertungskriterium bei geschliffenen Diamanten. Ein Diamant mit niedriger Fluoreszenz leuchtet unter UV-Licht leicht, bei höherer Fluoreszenz stark bläulich. Starke Fluoreszenzen können den Wert weißer Diamanten herabsetzen. Konflikte "(conflicts)". Rohdiamanten zur Finanzierung von Bürgerkriegen (siehe Abschnitt Soziale Einflüsse) sind geächtet und treten zunehmend als „fünftes C“ in das Bewusstsein der Bevölkerung. Rohdiamanten ohne Herkunftsangabe und Kimberly-Zertifikat werden von Händlern weitgehend geächtet. Für geschliffene Diamanten gibt es in der Regel keinen Herkunftsnachweis. Fancy Diamonds. Der Name "Fancy Diamonds" (englisch "fancy" „schick“), auch kurz Fancys genannt, bezeichnet farbige Diamanten. Zwar sind die meisten Diamanten farbig, viele sind jedoch unattraktiv; so kann die Eigenfarbe des Diamanten von allen Tönungen im Bereich Grau, Gelb, Grün, Braun dominiert werden; gelegentlich wechselt sie auch innerhalb eines Steines. Reine intensive Farben sind selten und wertvoll; entsprechend werden bessere Preise dafür bezahlt, die zum Teil beträchtlich über dem Standard für farblose Diamanten liegen können. So werden pinkfarbene Diamanten um den Faktor 50 höher bewertet als weiße. Statistisch gesehen ist bei 100.000 Diamanten durchschnittlich nur ein „Fancy“-Diamant dabei. Gelb- und Brauntöne, die mehr als 80 Prozent aller farbigen Diamanten ausmachen, sind im engeren Sinne keine Fancys. Kanariengelb oder Cognacgoldbraun sind hingegen Fancy-Farben. Eine große Sammlung farbiger Diamanten ist die Aurora Collection. Ein Diamant kann durch radioaktive Bestrahlung seine Farbe verändern. Nach einer künstlichen Bestrahlung folgt oft eine Temperaturbehandlung, die die Farbe ebenfalls beeinflusst. Bei künstlich bestrahlten Diamanten muss die Farbbehandlung im Zertifikat angegeben werden, da sie deutlich geringwertiger sind. Die Farbbezeichnungen werden zu Verkaufszwecken gewählt: Goldorange, Lemon, Schoko, Noir/Black, Electric-Blue. Die erste große Fancy-Quelle wurde 1867 in Südafrika gefunden. Seit den 1980ern ist die Argyle Mine in Australien die wichtigste Fundstätte für pinkfarbene bis rote Fancy-Diamanten. Schwarze Diamanten. Schwarze Diamanten sind in den 1990er-Jahren als Modeschmuck beliebt geworden. Neben dem seltenen, natürlich vorkommenden Carbonado, der wahrscheinlich durch Meteoriten auf die Erde gekommen ist und härter ist als Diamant, gibt es natürliche, schwarze Diamanten. Der bekannteste ist der 67,5 Karat schwere Schwarze Orlov. Heute werden schwarze Diamanten häufig aus (minderwertigen) hellen Exemplaren durch intensive Neutronenbestrahlung erzeugt und als Schmucksteine angeboten. Große und berühmte Diamanten. Darstellung bekannter Diamanten im "Nordisk Familjebok".Großmogul (Abb. 1)Regent o. Pitt (Abb. 2 u. 11)Florentiner (Abb. 3 u. 5)Sancy (Abb. 6)Dresdner Grüner Diamant (Abb. 7)Koh-i-Noor (Abb. 8 u. 10)Hope (Abb. 9) Handel. Ein Großteil der ungeschliffenen und geschliffenen Diamanten wird über Diamantbörsen gehandelt, von denen es weltweit 30 gibt. Eine der bedeutendsten hat ihren Sitz in Antwerpen. Auch der Weltverband der Diamantbörsen residiert dort. Unter den Produzenten und Händlern ist De Beers der bedeutendste und hatte lange Zeit eine Monopolstellung inne. Umstritten war der Konzern vor allem wegen seiner Vorgehensweise, überschüssige Diamanten aufzukaufen und somit den Preis für Diamanten stabil zu halten. Die Deutsche Diamant- und Edelsteinbörse ist eine kombinierte Börse für sowohl Diamanten als auch für Schmucksteine. Weitere Verwendung. Die prestigeträchtigste Anwendung finden Diamanten als hochwertige Edelsteine. Zur Abgrenzung werden unedle, nicht als Schmuckstein zu verwendende Diamanten, feiner Diamantstaub bzw. Industriediamanten als „Bort“ bezeichnet, die allerdings eine höhere wirtschaftliche Bedeutung haben als Schmuckdiamanten. Bort wird aufgrund seiner großen Härte, Verschleißfestigkeit und Wärmeleitvermögen in der industriellen Fertigung vor allem als Schneidstoff von Bohr-, Schneid- und Schleifwerkzeugen sowie als Zugabe in Polierpasten verwendet. Es ist in vielen Bereichen ausgesprochen wirtschaftlich, Diamantwerkzeuge einzusetzen, wodurch Ausfallkosten und Umrüstzeiten zum Beispiel für Werkzeuge minimiert werden können. Die geforderte Oberflächenqualität lässt sich oft mit Hilfe von Diamantwerkzeugen ohne zusätzliche Bearbeitung in einem Arbeitsschritt erreichen. Dünne Schichten aus diamantartigem Kohlenstoff dienen in großtechnischem Maßstab als Verschleißschutz. Diamantbesetzte Skalpelle könnten zum Beispiel in der Medizin zum Einsatz kommen. Durch Zusatz von Bor, Phosphor oder Stickstoff kann Diamant leitfähig gemacht werden und als Halbleiter oder sogar als Supraleiter fungieren. Ein Einsatz in elektronischen Schaltungen könnte wegen der hohen Beweglichkeit der Ladungsträger im Diamant-Einkristall und der guten Temperaturverträglichkeit zu höheren Schaltgeschwindigkeiten führen. Mit elektrisch leitfähiger Diamantbeschichtung können Elektroden für den Einsatz in chemischen Reaktionen hergestellt werden, die sehr reaktiven Radikalen standhalten müssen. Großtechnisch kommt hier die Abwasserbehandlung und -reinigung ins Blickfeld, wo CVD-Diamantelektroden zur Oxidation und Desinfektion von z. B. Abwässern und Prozesswässern eingesetzt werden. Bereits verwirklicht wurde die Beschichtung von Silizium-Wafern mit künstlichem Diamant, die von der Halbleiterindustrie eingesetzt werden kann, um eine bessere Kühlung elektronischer Schaltungen zu bewerkstelligen. Zur Blütezeit der Schallplatten bestanden die hochwertigeren Spitzen der Tonabnehmer, die Abtastnadeln, aus Diamant. Weniger hochwertige Exemplare waren mit Saphir­nadeln bestückt, die sich wegen der geringeren Härte schneller abnutzten. Ein weiteres Anwendungsfeld ist die Spektroskopie mit infrarotem Licht, da Diamant Infrarotstrahlung nur in geringem Umfang absorbiert. Soziale Einflüsse. Während der Großteil der heutigen Diamanten mit modernen Mitteln von sehr wenigen international operierenden Konzernen wie der Firma De Beers abgebaut wird, kommt es durch den exorbitanten Preis, der für Diamanten gezahlt wird, vor allem in den unterentwickelten Regionen und Krisengebieten der Welt zu Grabungen unter erbärmlichen und zum Teil lebensgefährlichen Bedingungen. Selbst wenn einzeln schürfende Arbeiter fündig werden, werden die Rohdiamanten zumeist billig an die lokalen Machthaber verkauft, sodass nur ein Bruchteil der Gewinne bei den eigentlichen Schürfern verbleibt. Mit den Gewinnen aus dem Diamantenhandel werden auf dem afrikanischen Kontinent auch mehrere Bürgerkriege finanziert, so zum Beispiel in der Demokratischen Republik Kongo. Auch aus diesem Grunde wird heute versucht, den Handel mit diesen Blutdiamanten beziehungsweise Konfliktdiamanten zu unterbinden. Allerdings ist es nicht ganz leicht, einem Diamanten seine Herkunft anzusehen, und Zertifikate, die einen Herkunftsnachweis geben sollen, werden häufig gefälscht. Heute ist es möglich, Diamanten mit Lasern individuell zu markieren. Die Herkunft kann dann aufgrund dieser Identifikationsnummer überprüft werden. Im illegalen Waffenhandel, besonders in Westafrika, ist die Bezahlung mit Diamanten nicht selten. Die Gründe hierfür liegen auf der Hand: Sie sind klein (daher leicht zu transportieren und zu verbergen), wertvoll, und ihr Wert schwankt kaum. Bei den örtlichen Währungen ist all dies meist nicht gegeben. Definition. Eine Definition („Abgrenzung“, aus "de" „(von etw.) herab/ weg“ und "finis" „Grenze“) ist je nach der Definitionslehre, der hierbei gefolgt wird, entweder In der Informatik, insbesondere bei Programmiersprachen, wird der Ausdruck ‚Definition‘ uneinheitlich als Synonym oder Unterbegriff von ‚Deklaration‘ verwendet. Intension und Extension. In der Definitionstheorie unterscheidet man zwischen der Intension und der Extension eines Ausdruckes. Die Intension (Begriffsinhalt, Sinn, Konnotation) umfasst die Menge der Merkmale (Attribute, Eigenschaften), die gegeben sein müssen, damit Objekte (Personen, Gegenstände) mit dem Ausdruck bezeichnet werden. Die Extension (Begriffsumfang, Bedeutung, Denotation) umfasst die Menge aller Objekte, die mit dem Ausdruck bezeichnet werden. Die Extension kann leer sein („der gegenwärtige König von Frankreich“). Konnotative Definitionen. Eine Definition, die die Intension eines Wortes angibt, nennt man "intensionale" bzw. "konnotative Definition". Äquivalenzdefinition. In der Äquivalenzdefinition wird der zu definierende Ausdruck ("Definiendum") und der definierende Ausdruck ("Definiens") mit Hilfe einer Kopula verbunden, die ausdrückt, dass zwischen Definiendum und Definiens eine Äquivalenz besteht, d. h., dass der erste Ausdruck dem zweiten intensionsgleich ist. Das klassisch-griechische Begriffsgefüge (griech. ορίζειν (ορίζεσθαι) ορισμός) wurde bei der Übersetzung in das Lateinische aufgespalten in "definire" / "definitio" und "determinare" / "determinatio". Dabei ist die "definitio" (Begriffs-Erklärung) vom zu definierenden „Objekt“ her, die "determinatio" (begriffliche Festlegung) vom definierenden „Subjekt“ her bestimmt. Für die klassisch-griechische Denkform war beides noch in einem einzigen Begriff zusammengefallen. Beispiele für solche Kopula sind „… nennen wir …“, „… heißt soviel wie …“, „unter … sollte man … verstehen“, „ist … genau dann, wenn …“. Definition über die Gattung und den Artunterschied. Noch im 19. Jahrhundert war die aristotelische Lehre geläufig, wonach der nächsthöhere Gattungsbegriff ("genus proximum") und der artbildende Unterschied ("differentia specifica") anzugeben sei. Sie ist aber im Grunde nur für Klassifikationen brauchbar und steht zudem bei Aristoteles mit seiner besonderen Metaphysik in engem Zusammenhang. Aristoteles hat für eine solche Definition folgendes Schema aufgestellt: Jeder Begriff kann als Art ("eidos, species") definiert werden Die klassische Form der Definition ist demnach die unter Angabe eines "genus proximum" (Gattung) und einer "differentia specifica" (spezifisches Abgrenzungskriterium). Während man lange Zeit glaubte, es handle sich dabei um eine universelle Form, zeigt bereits das einfache Beispiel „Ein Skandinavier ist ein Mensch, der aus Dänemark, Norwegen oder Schweden kommt“, dass sinnvolle Definitionen diesem Schema nicht unbedingt entsprechen müssen. "Definitionen über die Gattung und den Artunterschied" (lat.: definitio fit per genus proximum et differentiam specificam) bilden die wichtigste Gruppe der Äquivalenzdefinitionen. Der Ausdruck wird mithilfe eines umfangreicheren Ausdrucks bestimmt und ein Unterschied angegeben, der nur bei der jeweiligen Art von Gegenständen vorkommt und bei allen anderen Arten der Gattung fehlt. Es scheint zunächst sinnvoll zu sein, eine möglichst große Anzahl von Eigenschaften zu wählen. Eine solche Aufzählung könnte jedoch nicht vollständig sein. Deshalb versucht man ein Merkmal zu finden, das genügt, die Gegenstände der Art von anderen Gegenständen der Gattung zu unterscheiden. In Definitionen über die Gattung und den Artunterschied, insbesondere in den Geistes- und Sozialwissenschaften, findet man häufig den Fehler, dass sich mehrere Gattungen finden. Man nennt Definitionen mit diesem Definitionsfehler "Definition mit mehreren Gattungen". Denotative Definition. Eine Definition, die die Extension eines Wortes angibt, wird als "extensionale" oder "denotative Definition" bezeichnet. Deiktische Definition. Eine „deiktische“ (oder „epideiktische“) Definition ist eine Begriffsdefinition, sagen wir eines „Elefanten“, die im hinweisenden Zeigen auf ein Exemplar der durch den betreffenden Begriff bezeichneten Klasse besteht (siehe Deixis). Beispiel: Dies hier ist rot: rot Deskriptive Definition. Als deskriptive Definition (oder auch feststellende Definition) bezeichnet man eine Definition, die einen gewohnten Sprachgebrauch festhält. Festsetzende Definition. Als festsetzende Definition bezeichnet man eine Definition, bei der ein neuer Ausdruck eingeführt wird. Thomas Hobbes war einer der ersten, der entschieden eine Definition als Festsetzung der Bedeutung aufgefasst hat. Doch waren für ihn wie für Spinoza „richtige“ Definitionen der Ausgangspunkt für jede echte Wissenschaft. Blaise Pascal ("L’Esprit Géométrique", Logik von Port-Royal) war sodann der erste, der die Lehre vom Definieren als Begriffsfestsetzen logisch sauber durchgeführt hat. Christoph Sigwart. Christoph von Sigwart (1830–1904) wollte „Definition“ nur den Satz nennen, der die Bedeutung zweier Ausdrücke gleichsetzt. Gottlob Frege. Die "Fregesche Theorie" – die Dubislav so nennt, weil Gottlob Frege es war, der die Unterscheidung von Zeichen und Bezeichnetem entwickelt hat – versteht Definitionen als Substitutionsregeln über Zeichen. Eine Definition gibt die Bedeutung eines Zeichens an, indem sie angibt, auf welche Weise ein Zeichen durch ein anderes in logisch äquivalenter Weise zu ersetzen ist. Karl R. Popper. Nach herkömmlicher Auffassung bilden Definitionen die Grundbausteine einer jeden Wissenschaft. Für Karl Popper jedoch sind Definitionen gegenüber Problemen und Theorien eher unwichtig. Denn Begriffe sind in ihrer logischen Funktion den Aussagen und Theorien untergeordnet, in deren Zusammenhang sie verwendet werden. „Nicht durch die Definition wird die Anwendung eines Begriffes festgelegt, sondern die Verwendung des Begriffes legt das fest, was man seine ‚Definition‘ oder seine ‚Bedeutung‘ nennt. Anders ausgedrückt: Es gibt nur Gebrauchsdefinitionen.“ Die herkömmliche Auffassung, man müsse, bevor man eine Diskussion beginnt, erst einmal die Begriffe definieren, d. h. Übereinstimmung über das zu verwendende Vokabular erzielen, hält Popper für grundfalsch. Denn alle Definitionen, inkl. operationaler Definitionen, können nur das Problem von einer Seite der Definitionsrelation auf die andere Seite verschieben. Das führt zu einem infiniten Regress; letzten Endes bleiben immer undefinierte Ausdrücke übrig. Es sei aus logischen Gründen unmöglich, wissenschaftliche Begriffe empirisch zu definieren oder zu „konstituieren“. Doch ist es, um Verwirrung zu beseitigen, oftmals nötig, Begriffe (wie etwa „wahrheitsähnlich“ oder „wahrscheinlich“) zu unterscheiden. Die Begriffe der empirischen Wissenschaft sind immer nur implizit definiert, und zwar durch die Sätze, in denen sie auftreten. Diese implizite Definition ist als solche nur eine logisch-formale; sie gibt den implizit definierten Termen keine bestimmte Bedeutung (implizit definierte Terme sind Variable). Eine „bestimmte Bedeutung“ und zwar eine empirische „Bedeutung“ erhalten die implizit definierten Terme erst durch den empirischen Gebrauch der Sätze, in denen sie auftreten. Die irrtümliche Ansicht, dass es möglich ist, Begriffe entweder explizit (durch Konstitution) oder durch Hinweis (durch eine sog. „Zuordnungsdefinition“) empirisch zu definieren, kann durch den Hinweis auf die unüberbrückbare Kluft zwischen Universalien (Allgemeinbegriffen) und Individualien (Eigennamen) widerlegt werden. Es ist trivial, dass man weder durch eine Klasse von Eigennamen einen Universalbegriff definieren kann, noch einen Eigennamen durch Spezifikation von Universalbegriffen. Zwischen Individual- und Universalbegriffen gibt es also keinen Übergang in dem Sinn, dass Individualien durch Universalien oder Universalien durch Individualien definierbar sind; es gibt zwischen ihnen nur eine Substitutionsbeziehung: Jeder Individualbegriff kann nicht nur als Element einer individualen, sondern auch als Element einer universalen Klasse auftreten (aber nicht umgekehrt). Ein analoges Verhältnis wie zwischen Begriff und Gegenstand besteht zwischen Satz und Tatsache. Der Satz stellt einen Sachverhalt dar. Diesen Sachverhalt kann man von der Tatsache (einem irrationalen Stück Wirklichkeit), die der Satz bezeichnet und von welcher der Sachverhalt ein „rationales Teilmoment“ bildet, unterscheiden. Von jedem Gegenstand kann man seine Merkmale aussagen. Jeder Satz, der ein Merkmal aussagt, stellt einen Sachverhalt dar. Dass ein Gegenstand unendlich viele Merkmale hat, entspricht also dem Umstand, dass eine Tatsache unendlich viele Sachverhalte als rationale Teilmomente hat. Diese zweite Ausdrucksweise, die sich auf Tatsachen, Sachverhalte und Sätze bezieht, ist zweifellos wichtiger als die Ausdrucksweise, die von Gegenständen, Merkmalen und Begriffen redet. Aber ebenso, wie ein Gegenstand nicht aus Merkmalen besteht, und wie die Merkmale sich schon dadurch als von uns an den Gegenstand herangebracht erweisen, dass sie sich – rein logisch – immer als "willkürlich" herausgegriffen erweisen (herausgegriffen aus einer unendlichen Menge möglicher Merkmale), ebenso erweisen sich die Sachverhalte als rationale, von uns in die nicht-rationalisierte Wirklichkeit hineingetragene Koordinaten. Der naive induktivistische Empirismus hält die Sätze für Abbildungen der Wirklichkeit. Er glaubt also, dass die Sätze das darstellen, was hier als „Tatsachen“ bezeichnet wird; und er übersieht also den Unterschied zwischen „Sachverhalt“ und „Tatsache“. Er hält nicht die Tatsachen, sondern die Sachverhalte für in irgendeinem Sinne „gegeben“ oder „beobachtbar“. Ein weniger naiver Standpunkt, der Sachverhalt und Tatsache unterscheidet, steht, wenn er induktivistisch vorgeht, vor dem Rätsel, wie sich aus den irrationalen Tatsachen die rationalen Sachverhalte abheben. Für den Deduktivismus besteht hier keine grundsätzliche Schwierigkeit. Seine Theorienansätze usw. sind durchweg rationale Konstruktionen. Dass ein Sachverhalt sich als rationales Teilmoment einer Tatsache erweist, bedeutet für ihn nichts anderes als die Möglichkeit, dass die Tatsachen rationalen Sachverhalten widersprechen können – anders ausgedrückt, und zwar biologisch-pragmatisch: dass Reaktionen sich als zweckmäßig und unzweckmäßig erweisen können. „Die Grundsätze der Theorien (nichtempirischer wie empirischer) können als implizite Definitionen der auftretenden Grundbegriffe aufgefasst werden. Das ist für nichtempirische Theorien anerkannt; bei empirischen Theorien ist man jedoch meist der Meinung, dass die Grundbegriffe als nichtlogische Konstanten oder dergleichen aufzufassen sind und dass ihnen irgend etwas in der Wirklichkeit zugeordnet ist. Diese Auffassung ist in dieser Form unhaltbar (insbesondere die angegebene Auffassung von den Zuordnungsdefinitionen). Denn dass ein Grundbegriff seinem Gegenstand in der Wirklichkeit zugeordnet werden kann, würde besagen, dass Allgemeinbegriffe aufweisbare Gegenstände bezeichnen (das heißt die These „universalia sunt realia“ in primitivster Form)." Die Sache verhält sich so, dass auch die Grundbegriffe der empirischen Wissenschaften implizit definiert sind. Die Zuordnung zur Wirklichkeit geschieht nicht für die Grundbegriffe, sondern für die Theorie als Ganzes, mit allen ihren Begriffen (dadurch, dass angegeben wird unter welchen Umständen sie als widerlegt anzusehen ist). Anders ausgedrückt: Die Zuordnung geschieht durch die Methode der Entscheidung über die besonderen Folgesätze der Theorie, durch Entscheidung über die abgeleiteten Prognosen, in denen die Grundbegriffe gar nicht mehr auftreten. (Die Zuordnung ist Anwendung der Theorie, ist Praxis, sie beruht auf praktischen Entschlüssen; - eine Bemerkung, die eine Auseinandersetzung des Unterschiedes der transzendentalen und der erkenntnispsychologischen Betrachtungsweise dringlich macht.).“ Während die "Logik der Forschung" eine Methodologie im Sinne des Empirismus vorschlägt, grenzt Popper letztere ab von einer anderen, für die ein jedes wissenschaftliches System maßgeblich aus Definitionen besteht. Der Konventionalismus ist nach Popper zwar ebenfalls eine deduktivistische Methodologie; aber für diese sind Gesetzesaussagen keine Aussagen, die sich auf die Wirklichkeit oder die Erfahrung beziehen, sondern analytische Urteile, die auf Definitionen gründen. In einem umfassenderen Sinne können an Stelle von expliziten Definitionen auch „implizite Definitionen“ durch die Interpretation und die begriffliche Vernetzung innerhalb eines axiomatischen Systems treten. Hierbei werden die Begriffe also nicht explizit, sondern durch die axiomatische Theorie definiert. Der grundsätzliche Unterschied aber zwischen Konventionalismus und dem von Popper vertretenen Empirismus ist nicht erkenntnislogisch festzumachen, sondern beruht auf einem Unterschied der Entscheidung für eine bestimmte methodologische Ausrichtung: Während der Empirismus wissenschaftliche Aussagen an der Erfahrung scheitern lassen will, kann der Konventionalist durch eine „konventionalistische Wendung“ in der unterschiedlichsten Art und Weise seine bevorzugte Theorie stets aufrechterhalten. Denn diese ist schon aufgrund definitorischer Setzung (logisch) wahr; sie legt dann ihrerseits fest, etwa durch Messverfahren, was relevante Daten für sie sind. Stipulative Definition und ihre Explikation. Als "stipulative Definition" (oder auch regulierende, regelgebende bzw. vorschreibende Definition) bezeichnet man eine Definition, die einen gewohnten Sprachgebrauch zur Grundlage nimmt, aber den Gebrauch neu regelt. Die Analyse des Sprachgebrauchs mit dem Ziel einer stipulativen Definition bezeichnet man als "Explikation". C. G. Hempel. Carl Gustav Hempel empfiehlt, Realdefinitionen ebenso wie der natürlichen oder Alltags-Sprache entnommene Ausdrücke und Begriffe dem Verfahren der Explikation oder Begriffsanalyse zu unterziehen. Erst damit können sie zweckgemäß in wissenschaftlichen Aussagenzusammenhängen eingesetzt werden. Es wird hier deutlich eine Parallele zu Karl Poppers „diakritische Analyse/Dialysis“. Explikationsverfahren. Als "Explikation" bezeichnet man den Vorgang, in dem von einem Ausdruck dessen Bedeutung noch nicht klar ist zu einem wissenschaftlich fundierten Ausdruck gekommen wird. Häufig wird das Ergebnis eine stipulative, d. h. regulierende, Definition sein. Es haben sich verschiedene Explikationsverfahren etabliert. Etymologische Methode. Ausgangspunkt dieser Methode bildet die Wortherkunft. Der Verweis kann auf die Herkunft in derselben Sprache oder die Herkunft in einer anderen Sprache erfolgen. Die Wortherkunft ist häufig nur ein Element beim Explizieren und unzuverlässig, aber es kann durchaus überraschende Ergebnisse und Perspektivenwechsel liefern. Insbesondere kann sie helfen Entwicklungstrends bei der Verwendung des Ausdrucks zu erkennen. Induktive Methode. Eine weitere Methode ist die Analyse (insbesondere der Vergleich) vieler Anwendungsfälle des untersuchten Ausdrucks. Die Methode trägt auch den Namen sokratische Methode, weil Sokrates sie angeblich als erster in seinen Überlegungen über den Sinn verschiedener Wörter systematisch anwendete. Die Bezeichnung "sokratische Methode" ist allerdings problematisch, da dieser Begriff in der philosophiegeschichtlichen Terminologie nicht nur die Induktion beinhaltet. Lexikonmethoden. In der analytischen Philosophie wird häufig versucht, möglichst viel Sprachmaterial zu gewinnen, um in die Analyse eines Wortes einzusteigen. Es gibt verschiedene systematische Hilfsmittel für das Auffinden eines ausreichenden Sprachmaterials. Eine Gruppe dieser Methoden bilden die Lexikonmethoden. Übergang zu anderen Wortarten. In der analytischen Philosophie hat sich ein weiteres Explikationsverfahren etabliert, der Übergang zu anderen Wortarten. Ein typischer Fall ist der Übergang von einem Substantiv zum dazugehörigen Verb. In vielen Fällen, z. B. wenn man statt der Sprache das Sprechen oder Statt der Feststellung das Feststellen untersucht, erhöht man mit diesem Zugang die Betonung des Handlungscharakters des Untersuchungsgegenstandes. In anderen Fällen ändert sich zumindest die Perspektive auf den zu explizierenden Ausdruck. Nominal- und Realdefinition. Im Anschluss an die Topik des Aristoteles werden Nominal- und Realdefinition unterschieden. Nominaldefinition. Mittels einer "Nominaldefinition" setzt der jeweilige Sprecher durch seine eigene Entscheidung fest, was ein Name benennen bzw. ein sprachlicher Ausdruck bedeuten soll. Eine Nominaldefinition kommt in der Verwendung dem gleich, was man heute „Explizitdefinition“ nennt. Beispiel: Unter „AWT“ sei im nachfolgenden Text „Arbeitswerttheorie“ verstanden. Realdefinition. Eine "Realdefinition" beinhaltet im aristotelischen Verständnis eine Aussage darüber, was eine Sache in Wirklichkeit ist. Darüber hinaus beinhaltet sie bestimmte theoretische und philosophische Voraussetzungen, etwa was bestimmte Dinge sind, oder welche es überhaupt gibt, und wie diese geordnet sind (Ontologie). Es werden bei Aristoteles hierbei auch Unterschiede der Art und der Gattung nach gemacht, bzw. die Begriffe in eine Ordnung untereinander gebracht (Taxonomie). Beispiel: „Lagmy“ ≡ Wein, der durch Vergärung des Saftes der Dattelpalme hergestellt wird. Hinter dem Gebrauch von Realdefinitionen steht somit mehr oder weniger deutlich ausgeprägt eine bestimmte philosophische Auffassung von Sein und Wesen (Essentialismus) oder Annahmen über das Vorliegen einer bestimmten Gesetzmäßigkeit, die im Wesen der Sache ihren Ausdruck findet. Gewöhnlich wird mit einer Realdefinition ein Wahrheitsanspruch erhoben. Weniger philosophisch verfänglich ist es, Realdefinitionen dem Verfahren der Bedeutungsanalyse oder Explikation zu unterziehen. Das Ergebnis eines solchen Explikationsversuchs kann dann wie eine explizit eingeführte Definition behandelt werden, ohne dass man sich dabei unbedingt auf eine spezielle philosophische Position festlegen muss. Aristoteles. Die Logik von Aristoteles ist nie „formal“ in dem Sinne, dass sie von allen metaphysischen Annahmen oder anderen sachlichen Vorannahmen frei wäre. Methodologisch ist wichtig, dass nach Aristoteles die höchste Aufgabe der Definition darin besteht, die wissenschaftliche Untersuchung abzuschließen und dadurch das Wesen der untersuchten Objekte festzustellen. G. W. F. Hegel. In der herkömmlichen Philosophie wird das Allgemeine Aristoteles folgend innerhalb der Logik von Begriff, Urteil und Schluss behandelt. Für Hegel ("Jenenser Logik", "Wissenschaft der Logik") aber nun reflektieren diese logischen Formen und Prozesse diejenigen der Wirklichkeit, d. h. sie werden von ihm ontologisch gedeutet. Herkömmlich erfasst durch die Definition das Denken die allgemeine Natur eines Objekts in ihrem wesentlichen Unterschied zu anderen Objekten. Nach Hegel kann die Definition dies nur leisten, weil sie den wirklichen Prozess widerspiegelt, in welchem sich das Objekt von andersartigen unterscheidet: Die Definition drückt die Bewegung aus, in der ein Sein seine Identität in der Bewegung bewahrt. Demnach kann eine wirkliche Definition nicht in einem einzelnen Satz gegeben werden, sondern eigentlich nur durch die wirkliche Geschichte des Objekts selbst, wie es sich gegen anderes Besonderes sowohl verteidigt wie auch erhält und erweitert. Das Allgemeine wird durch die Negation des Besonderen gestaltet, d. h. der Begriff wird dialektisch konstruiert. Der Prozess der Auflösung und Zerstörung der stabilen Welt des gemeinen Menschenverstandes resultiert in der Konstruktion eines Allgemeinen, das in sich konkret ist. Denn es verwirklicht sich im Besonderen und durch das Besondere, d. h. in der Totalität der besonderen Momente. Heinrich Rickert und Emil Lask. Innerhalb des Badischen Neukantianismus haben sich insbesondere Heinrich Rickert und Emil Lask um die Ausarbeitung einer Definitionslehre bemüht. Definieren ist eine möglichst eindeutige Bestimmung eines Begriffes, wobei er gegenüber benachbarten anderen Begriffen abgegrenzt wird. Rickerts "Zur Lehre von der Definition" stellt dessen Dissertation dar. In "Grenzen der naturwissenschaftlichen Begriffsbildung" hat er sodann seine Theorie des Begriffs ohne Rücksicht auf die Definition weiter ausgearbeitet. Die allgemeine Verwirrung in der Definitionslehre beruht auf einer falschen Auffassung vom Begriff. Rickert will an „Definition“ als einer „Begriffsbestimmung“ festhalten. „Jede ausdrücklich zum Bewußtsein gebrachten oder erkannte Wahrheit hat die Form des Urteils, und zu seinem logischen Gehalt gehört notwendig sowohl ein 'intuitives' als auch ein 'diskursives' Moment.“ Rickert behandelt Definieren als Begriffsbildung und Begriffszerlegung und sucht gegen den Intuitionismus etwa von Jakob Friedrich Fries, der glaube, dass es möglich sei, durch bloßes Sehen schon eine Wahrheit theoretisch zu erfassen, zu zeigen, dass der fertig definierte Begriff nicht etwa logisch früher als das Urteil ist, sondern seinem logischen Gehalt nach als ein Produkt des Urteilens verstanden werden muss. Das Urteil ist daher nicht bloße Verbindung von Begriffen als Vorstellungen, sondern ist Träger eines unentbehrlichen diskursiven Elements. Ernst Cassirer. Ernst Cassirer erhebt gegenüber dem Nominalismus den Einwand, dieser könne nicht erklären, warum ein bestimmter Begriff (z. B. der Atom-Begriff) zur Entdeckung neuer, bislang unerforschter Tatsachen führen könne. Kontextdefinition (implizite Definition). Während in "expliziten Definitionen" der definierte Ausdruck alleine auf der linken Seite vorkommt, gilt dies für "Kontextdefinitionen" (oder auch "implizite Definitionen") nicht. In der Kontextdefinition tritt der definierte Begriff also nicht allein auf der linken Seite auf, sondern in einem für ihn charakteristischen Kontext. Die Verwendung in anderen Kontexten ist unzulässig. Fällt beispielsweise eine allgemeine Definition des Prädikates „adäquat“ schwer, so lässt sich leicht definieren, dass die Aussage „X ist ein adäquater Kalkül“ genau dann wahr ist, wenn X ein Kalkül ist, der vollständig und korrekt ist. Adäquatheit wurde damit nur im Kontext „Kalkül“ definiert, und die Frage, wann überhaupt etwas adäquat ist, bzw. welche Dinge unter diesen Begriff fallen, stellt sich nicht. Dieser ontologische Unterschied erspart etwa der modernen Mathematik die philosophische Frage nach dem Wesen der Zahl (empirisch, psychologistisch oder logisch). Denn die mathematischen Axiome sagen nicht, was eine Zahl ist, sondern wann sich etwas Zahl nennen darf und welche arithmetischen Eigenschaften sodann für diese gelten. Spinoza. Baruch Spinoza verwechselt in seiner „Ethik“ Definitionen mit Axiomen. Die Substanz ist von Natur früher als ihre Affektionen. Offenkundig handelt es sich bei (1) und (2) um Vereinbarungen über den Sprach- bzw. Zeichengebrauch. Aus solchen lässt sich noch nicht einmal die Existenz des so Bezeichneten schlussfolgern, geschweige denn eine weitere Existenzbehauptung logisch korrekt ableiten. Wenn es Spinoza gelingt, zu einer interessanten These zu kommen, dann nur darum, weil er seine Definitionen insgeheim als Existenzialaxiome verwendet. "„Omnia determinatio negatio est.“" (dt.: "Jede Bestimmung ist eine Verneinung. ") Partielle Definitionen. "Partielle Definitionen" gelten nur für einen bestimmten Teilbereich. Sie sind anwendbar nur für den Fall, dass eine gewisse Vorbedingung erfüllt ist. Die wichtigste Gruppe der partiellen Definitionen bilden die Definitionen von „Dispositionsbegriffen“, wie zum Beispiel „wasserlöslich“. Solche Definitionen beschreiben nicht Eigenschaften, die direkt durch Beobachtung ablesbar sind, sondern solche, die an eine (Prüf-) Bedingung geknüpft sind. Operationale Definition. Mitunter werden Ausdrücke durch eine Methode definiert, mit der man feststellen kann, ob in einem konkreten Fall der Ausdruck angewendet werden kann. In diesem Fall spricht man von "operationalen Definitionen". Operationale Definitionen sind häufig partiell. Rekursive Definition. In der "rekursiven Definition" – auch "induktive Definition" genannt – wird mit der Nennung der einfachsten Gegenstände begonnen, die dem Definiendum angehören. Dann wird ein Verfahren angegeben, mit dessen Hilfe man die weiteren Gegenstände erzeugen kann, und darauf hingewiesen, dass alles, was nicht durch wiederholte Anwendung des Verfahrens gewonnen werden kann, nicht zum Definiendum gehört. Die Induktion kann strukturell oder vollständig sein. Rekursive Definitionen finden sich vor allem in der Mathematik und der mathematischen Logik. Beispiel: „Die Summe formula_1 der natürlichen Zahlen bis einschließlich formula_2 ist definiert als 0, falls formula_3, und formula_4 sonst.“ Weitere Beispiele sind die rekursive Definition der Fibonacci-Folge oder die rekursive Definition eines Palindroms. Persuasive Definitionen. Persuasive Definitionen finden sich sehr häufig in der Philosophie und in den Sozialwissenschaften. Max Weber. Für die Entwicklung der Theorie der Typenbegriffe waren die Überlegungen von Max Weber zum Idealtyp theoriebildend. C. G. Hempel. Die logischen Untersuchungen von C. G. Hempel zum Typusbegriff sind nicht nur im Hinblick auf Max Webers Idealtypus interessant, sondern allgemein zur Frage, wie eine Taxonomie zu erstellen sei. Wissenschaftssystematische Einordnung. Die Definitionslehre bildet einen Teil der Logik, sofern diese als Methodenlehre aufgefasst wird. Der logische Charakter von „Definition“ ergibt sich hierbei „teleologisch“ aus deren daraus bestimmbarer methodologischer Funktion. Funktionen von Definitionen. Wissenschaftliche Definitionen werden in der Regel dann gefordert, wenn Hypothesen und Theorien aufgestellt oder Modelle konstruiert werden, die von anderen Wissenschaftlern nachvollzogen und diskutiert werden können sollen. Um den Kriterien der Intersubjektivität zu genügen, soll hierbei Einvernehmen über die Bedeutung der verwendeten Begriffe erzielt werden. Nach der Definitionslehre von Karl Popper hingegen wird die Definitionsfrage dadurch miterledigt, dass man die Theorie als Ganzes auf einen Objektbereich anwendet und einzelne Folgerungen daraus an Beobachtungssätzen überprüft. In den Sozialwissenschaften ist die Grenze zwischen Definitionen und Ausdrücken, die keine Definition sind oft fließend. Wenn die äußere Form nicht eindeutig klarstellt, ob es sich um eine Definition handelt, d. h. wenn der Autor weder explizit noch implizit seine Absicht geäußert hat, hängt es von der Intention des Autors ab, die man in diesem Fall nicht klären kann. In diesem Fall kann es zu Verwechslungen von Definitionen und insbesondere empirischen Verallgemeinerungen kommen, die zu Missverständnissen des Textes führen können. Ähnliche Probleme können auftreten, wenn nicht klar ist, zu welcher Klasse von Definitionen eine vorlegte Definition gehören soll. Eine Definitionslehre ist je nach Auffassung von Wissenschaftstheorie und Logik ein methodologischer Entwurf davon, was eine „Definition“ und wonach sie zu beurteilen sei, also welchen Sinn und Zweck sie habe. Wie im Bereich einer Fachsprache Definitionen geschaffen und gehandhabt werden, wird durch die Terminologielehre untersucht und präzise festgelegt. Wenn durch Definitionen Objekte klassifiziert, also in eine bestimmte Klasse eingeordnet werden, ist eine Taxonomie geschaffen. Einer jeden besonderen Definitionslehre liegt eine bestimmte Auffassung von Begriffslehre bzw. eine Auffassung über die Beziehungen zwischen Begriff, Urteil und Theorie zugrunde; sie hat damit eine bestimmte Auffassung von Erkenntnistheorie und/oder Methodologie zur (mehr oder minder explizit gemachten) Voraussetzung. Daher gehen die Auffassungen über die Rolle von Definitionen in der Sprache und auch in wissenschaftlichen Zusammenhängen oft sehr stark auseinander. Nach Auffassung des Nominalismus ist eine Definition nichts weiter als eine Festlegung des betreffenden Ausdrucks bzw. der jeweiligen Zeichenverwendung und kann als Vereinbarungssache überhaupt nicht „wahr oder falsch“ sein, lediglich mehr oder weniger zweckmäßig. Definitionen in diesem Sinne stellen bloß ein technisches Hilfsmittel dar, indem sie erlauben, die Sprechweise abzukürzen. Wer hingegen meint, für jeden Begriff gebe es eine "richtige" Definition, eine entsprechende Aussage könne also wahr oder falsch sein, stellt sich dadurch auf die Seite des Essentialismus als einem der möglichen Antwortversuche auf das Universalienproblem. A) Eine Definition bestimmt das Wesen (Sacherklärung). B) Eine Definition bestimmt den Begriff (Begriffskonstruktion oder -zergliederung). C) Eine Definition stellt fest, wie bzw. mit welcher Bedeutung ein Zeichen tatsächlich verwendet wird. Diese Auffassung ist in der älteren philosophischen Tradition selten ausdrücklich vertreten werden. Sie wird häufig nur implizit vertreten. Zum Beispiel können solche Autoren so interpretiert werden, die den Anspruch auf Wahrheit, den eine Realdefinition macht, auf eine Nominaldefinition zu übertragen suchen. Bisweilen, wie etwa von Christoph von Sigwart, wird unter „Definition“ lediglich die Angabe der Bedeutung eines Ausdrucks verstanden. D) Eine Definition setzt fest, wie bzw. mit welcher Bedeutung ein Zeichen verwendet werden soll. Beträchtliche Verwirrung ist dadurch entstanden, dass selbst Philosophen wie Aristoteles, Leibniz und Immanuel Kant diese vier Konzeptionen begrifflich nicht immer strikt auseinandergehalten haben und daher in ihren Argumentationen zu Inkonsistenzen gekommen sind. Klassische Definitionsregeln. Welche Regeln des Definierens man einhält, ist grundsätzlich abhängig davon, welcher Definitionslehre zu folgen man sich entschieden hat. Auch die "klassischen Definitionsregeln" lassen sich auf Aristoteles zurückführen; sie werden heute vielfach als veraltet und in der modernen Wissenschaft meist als nicht sehr hilfreich angesehen. Nichtkreativität. Von einigen Autoren wird die Nichtkreativität von Definitionen gefordert. Damit ist gemeint, dass unter Hinzunahme der Definition zu einer Theorie nichts erschlossen werden kann, was nicht bereits ohne jene Definition erschließbar wäre. Eliminierbarkeit. Wenn eine Äquivalenzdefinition korrekt gebildet ist, kann in allen Sätzen das Definiendum durch das Definiens oder das Definiens durch das Definiendum ersetzt werden, ohne dass sich der Wahrheitswert der Aussage ändert. Diese Eigenschaft gilt aber nicht für alle Definitionsarten, z. B. nicht für partielle oder rekursive Definitionen. Die Eliminierbarkeit gilt auch nicht, wenn man sich auf der Metaebene befindet. Zum Beispiel folgt aus der Definition „Ein Schimmel ist ein weißes Pferd“ und dem Satz „Der Ausdruck 'Schimmel' hat acht Buchstaben“ nicht „'weißes Pferd' hat acht Buchstaben“. Angemessenheit. Als drittes "Grundgesetz der Definition" bezeichnet Krause die Regel, dass eine Definition weder zu eng noch zu weit sein darf. Eine zu weite Definition wäre „Ein Vogel ist ein eierlegendes Tier“, da auch Krokodile Eier legen. Kürze. Aristoteles und Cicero haben gefordert, dass eine Definition kurz sein soll. Dem steht entgegen, dass Definitionen mitunter sehr lang sind. Häufig deuten aber lange Definitionen darauf hin, dass sie Bestandteile enthalten, die nicht die Verwendung eines Ausdrucks erläutern, sondern zur Untersuchung des mit dem Ausdruck Bezeichneten gehören. Redundanzfreiheit. Eng verwandt mit der Forderung nach Kürze ist die Forderung nach Redundanzfreiheit. Nach dieser Forderung darf eine Definition keine Bestandteile enthalten, die aus dem Rest der Definition logisch folgen. Beispiel: „Ein Parallelogramm ist ein Viereck, bei dem die Gegenseiten jeweils parallel und gleich lang sind sowie die Diagonalen sich gegenseitig halbieren“ ist redundant, da dieser Satz bereits aus dem Satz „Ein Parallelogramm ist ein Viereck, bei dem die Gegenseiten jeweils parallel sind“ folgt. Ist eine Definition nicht redundanzfrei, spricht man von einer "Definition mit Pleonasmus" (definitio abundans). Differenzmaschine. Differenzmaschine No. 1 von Charles Babbage Eine Differenzmaschine (englisch "difference engine") ist ein Rechenwerk, mit dem polynomiale Funktionen ausgewertet werden können. Die ersten Differenzmaschinen waren rein mechanische Umsetzungen eines ansonsten von Menschen durchgeführten Algorithmus, der hauptsächlich in der Berechnung und Erweiterung bestehender Tabellenwerke Anwendung fand. Da jede stetig differenzierbare Funktion durch ein Polynom angenähert werden kann (Approximation), sind Differenzmaschinen vielseitig einsetzbar, sowohl zur Interpolation zwischen Tabelleneinträgen, als auch zur Neuberechnung von Funktionswerten. Trotz dieser allgemein anerkannten Nützlichkeit vergingen fast 80 Jahre von der ersten Maschine bis zum systematischen Einsatz bei der Tabellenerstellung. Erste Gedanken zu einer solchen Maschine fanden sich bereits im ausgehenden 18. Jahrhundert. Unabhängig davon wurde die Idee der Mechanisierung der Erstellung von Tabellenwerken 1812 von Charles Babbage aufgegriffen und 1820–1822 erstmals umgesetzt. Die Versuche von Babbage, eine nutzbare Maschine zu bauen, scheiterten. Die Veröffentlichungen über seine Maschine, insbesondere die von Dionysius Lardner, erwiesen sich jedoch als sehr einflussreich und führten zu zahlreichen Maschinen (Scheutz, Wiberg, Deacon), die jeweils kurzzeitig eingesetzt wurden. Die 1910 von Julius Bauschinger und "Johann Theodor Peters" herausgegebenen achtstelligen Logarithmentafeln waren das erste bedeutende, mit einer Differenzmaschine erstellte Tabellenwerk. Die von Christel Hamann für die Erstellung des Tabellenwerkes konstruierte Differenzmaschine wurde gestohlen, und die Pläne galten bereits 1928 als untergegangen. Getragen von dem Erfolg dieser Maschine, wurden zahlreiche kommerzielle Rechenmaschinen so angepasst, dass sie auch als Differenzmaschinen nutzbar waren: 1912 entwickelte "T. C. Hudson" mit der Burroughs Adding Machine Company eine Maschine für zwei Differenzen. 1928 wurde die Brunsviga-Dupla vorgestellt, eine Rechenmaschine mit zwei Ergebnisregistern, die als Differenzmaschine genutzt werden konnte. 1931 stellte Leslie John Comrie bei der Inspektion einer "National Accounting Machine Class 3000"-Buchungsmaschine fest, dass diese auch als Differenzmaschine mit sechs Differenzen genutzt werden konnte. Für die Berechnung seiner 20-stelligen Logarithmentafel baute "Alexander John Thompson" 1950 eine Differenzmaschine, indem er vier Rechenmaschinen auf einem Holzträger fixierte und mechanisch koppelte. Mit dem Aufkommen der Computer verschwanden erst die Differenzmaschinen und später die Logarithmentafeln. Johann Helfrich von Müller. Nach Fertigstellung seiner Rechenmaschine verfasste Johann Helfrich Müller 1786 ein Benutzerhandbuch, in dessen Anhang er einen Ausblick für zukünftige Verbesserungen darstellte. Neben Andeutungen über die Nützlichkeit eines Druckwerks zur Dokumentation von Rechenergebnissen stellte er auch seine Gedanken über eine neuartige Maschine dar, die Zahlenreihen mittels der Methode der Differenzen berechnen können sollte. Es gibt keinen Hinweis darauf, dass es sich bei der Beschreibung von Müller um mehr als ein Konzept handelte. Vielmehr ist die Beschreibung als Angebot zu sehen, bei entsprechender Finanzierung eine solche Maschine einschließlich eines Druckers zu konstruieren und zu fertigen. Er stand deshalb unter anderem mit dem Göttinger Mathematiker "Albrecht Ludwig Friedrich Meister" im Briefkontakt. Die erste schriftliche Erwähnung der grundlegenden Prinzipien einer Differenzmaschine findet sich in einem Brief von Müller an Meister vom 10. September 1784. In der neueren Forschung wird hervorgehoben, dass der "Gedanke" an den Bau einer solchen Differenzmaschine von Meister ausgegangen sei: Die Ausführungen von Müller belegen, dass dieser von den Anwendungsmöglichkeiten einer solchen Maschine keine Vorstellung besaß. Difference Engine No. 0. Die erste funktionsfähige Differenzmaschine wurde von Charles Babbage zwischen 1820 und 1822 gebaut. Babbage kannte zu diesem Zeitpunkt, nach heutiger Lehrmeinung, die Überlegungen von Johann Helfrich von Müller nicht, diese wurden ihm erst später von seinem Freund John Herschel ins Englische übersetzt. Diese erste Differenzmaschine konnte mit zwei Differenzen bei einer Genauigkeit von sechs Stellen rechnen. Babbage sah die Maschine als Teil-Modell einer noch zu bauenden, größeren Differenzmaschine an. Das Modell hatte die Funktion einer Machbarkeitsstudie, um finanzielle Unterstützung für eine größere Maschine zu erhalten. Das Modell wurde vielfach vorgeführt, seine Rechengeschwindigkeit wurde in einem Brief an den Präsidenten der Royal Society, Sir Humphry Davy, mit 44 Ergebnissen pro Minute angegeben. Auch wenn Babbage die Fertigung der Maschine als verbesserungswürdig beschrieb, so ist festzuhalten, dass die Maschine vor allem aufgrund ihrer konservativen Auslegung hervorragend funktionierte. Auch wenn es die einzige Rechenmaschine war, die Babbage zu Lebzeiten fertigstellte, so zeigt sie, dass er sehr wohl in der Lage war, die fertigungstechnischen Probleme und Ungenauigkeiten seiner Zeit durch ein entsprechendes Design zu kompensieren. Die Maschine verfehlte ihre Wirkung nicht, ein Jahr nach ihrer Vorstellung wurden Babbage von der Regierung 1500 £ für die Entwicklung und Herstellung einer Differenzmaschine zur Verfügung gestellt. In der Fachliteratur wird das Modell als "Differenzmaschine No. 0" bezeichnet. Eine detaillierte Beschreibung einschließlich Funktionszeichnungen von Maschinenteilen finden sich in einem Manuskript von Babbage, das dieser zur Veröffentlichung seinem Freund H. W. Buxton gab. Das Modell, eine zeitgenössische Darstellung des Modells oder dessen Baupläne existieren heute nicht mehr. Es wird angenommen, dass Henry Prevost Babbage Teile der Differenzmaschine No. 0 für die Erstellung der Fragmente der Differenzmaschine No. 1 (siehe unten) nutzte. Difference machine No. 1. Von Charles Babbage als Funktionmodell hergestellte Zahnräder aus Pappe (1831), (Science Museum, London). Mit der gesicherten finanziellen Unterstützung durch die Regierung beauftragte Babbage den Präzisions-Mechaniker Joseph Clement, ihn beim Bau der Differenzmaschine No. 1 zu unterstützen. Clement war zu dem Zeitpunkt der beste Metallbearbeiter Londons. Sein Perfektionismus erstreckte sich sowohl auf die Konstruktion, die Zeichnungen als auch die handwerkliche Ausführung. Mit Babbage und Clement trafen zwei Perfektionisten aus unterschiedlichen Gebieten aufeinander, die sich jedoch darin einig waren, dass die Maschine eher von hervorragender Qualität denn schnell fertiggestellt werden sollte. Babbages Auftraggeber in der Regierung hatten andere Ansichten, die im Jahr 1833 im Zerwürfnis von Babbage und Clement über die Bezahlung von dessen Diensten mündeten. Entsprechend der damaligen Rechtsprechung durfte Babbage nur die gefertigten Teile behalten, die Konstruktionspläne der Differenzmaschine und deren Einzelteile sowie die hergestellten Werkzeuge blieben bei Clement. Zu diesem Zeitpunkt wurde aus den bis dahin von Clement gefertigten Teilen der Demonstrator der Differenzmaschine No. 1 zusammengesetzt. Dieser Demonstrator wurde nie zu einer vollständigen Differenzmaschine ausgebaut, er ist heute im Science Museum in London zu besichtigen. Als Clement die Konstruktionszeichnungen an Babbage aushändigte, war dessen Aufmerksamkeit ganz auf die Analytical Engine gerichtet, eine Maschine, die, wenn fertiggestellt, alle Differenzmaschinen hätte vollständig ersetzen können. Als Besonderheit war in der "Difference Engine No. 1" ein Rekursionsmechanismus vorgesehen, durch den das Rechenergebnis, verschoben um beliebige Zehnerpotenzen, von der zweiten Differenz abgezogen werden konnte. Durch diesen Mechanismus konnten z. B. Trigonometrische Funktionen berechnet und nicht nur vorhandene Tabellenwerte interpoliert werden. Es handelt sich bei dieser Erweiterung um den ersten Rekursionsmechanismus überhaupt. Kurz nach dem Bau des Demonstrators veröffentlichte Dionysius Lardner 1834 in der Edinburgh Review einen Artikel über die Rechenmaschine von Charles Babbage. Babbage lieferte die Details für den Artikel, die Lardner jedoch fast nach Belieben ausschmückte und veränderte. Ziel des Artikels war es, die Regierung von der Nützlichkeit der Maschine zu überzeugen und die weitere Finanzierung zu garantieren. Auch wenn er dieses Ziel verfehlte, so inspirierte er sowohl "George Scheutz" als auch "Alfred Deacon", eigene Differenzmaschinen zu konstruieren und auch zu bauen. Fragmente aus Originalteilen. Auch wenn die Differenzmaschine No. 2 und die Originalteile von Babbage heute im Science Museum in London die zentralen Ausstellungsstücke in der Mathematik- und Computer-Abteilung sind, zu seinen Lebzeiten wollte das Museum die Differenzmaschine, die Demonstratoren späterer Differenzmaschine oder Teile davon nicht aufnehmen. 1879, nach dem Tod von Babbage, setzte sein jüngster Sohn, Henry Prevost Babbage, aus den vorgefundenen Originalteilen, die allesamt vor 1834 hergestellt wurden, sechs eigenständige Differenzmaschinen-Fragmente zusammen und verschenkte sie. Difference Engine No. 2. Im Jahr 1849 besann sich Babbage wieder auf seine Verpflichtungen der Regierung gegenüber und wandte sich von der weiteren Entwicklung der "Analytical Engine" ab, um seine "Difference Engine No. 2" zu konstruieren. Er wollte seine durch die Beschäftigung mit dem Entwurf seiner "Analytical Engine" gewonnenen konstruktiven Fortschritte auf die Differenzmaschinen übertragen. Es ging Babbage hierbei nur um die Anfertigung der Konstruktionszeichnungen, nicht um den eigentlichen Bau der Differenzmaschine. Er ging davon aus, dass die Regierung den Bau der Differenzmaschine No. 2 eigenverantwortlich durchführen würde. Durch die Erstellung der Konstruktionszeichnung wollte er seine Schuld gegenüber der Regierung für die Nichtfertigstellung der Differenzmaschine No. 1 begleichen. Der Satz der Konstruktionszeichnungen für die Differenzmaschine No. 2 ist der einzige vollständige Satz an Konstruktionszeichnungen für eine von Babbages Maschinen, alle anderen Maschinen wurden nur unvollständig dokumentiert. Die Konstruktion der Differenzmaschine No. 2 hatte eine Breite und Höhe von jeweils 3 Metern bei einer Tiefe von 1,5 Metern. Die Maschine konnte mit sechs Differenzen bei jeweils 18 Stellen rechnen. Ein angebauter Drucker sollte die Rechenergebnisse direkt in eine Druckmatrize übertragen. Bau der Differenzmaschine No. 2 im Science Museum, London. Erst zwischen 1989 und 1991 wurde im Londoner Science Museum die "Difference Engine No. 2" gebaut und ihre Funktionsfähigkeit nachgewiesen. 2000 wurde der ebenfalls von Babbage entworfene Drucker fertiggestellt. Die Kombination von Rechenmaschine und Drucker ist etwa fünf Tonnen schwer und wurde aus 8000 Bronze- und Gussteilen zusammengesetzt. 2008 wurde eine weitere, ebenfalls vom Science Museum in London gebaute "Difference Engine No. 2" einschließlich Drucker im kalifornischen Computer History Museum vorgestellt. Das Science Museum legt Wert darauf, dass es sich bei den beiden Differenzmaschinen No. 2 nicht um Replikate handelt, da Charles Babbage niemals eine funktionsfähige ganze Differenzmaschine No. 2 baute. Die Maschinen von 1991 und 2008 werden deshalb als Originale bezeichnet. Scheutz No. 0. Im Rahmen seiner verlegerischen Tätigkeit kam Scheutz 1830 mit den Ausführungen von Charles Babbage über dessen Differenzmaschine in Berührung. Er war von der Idee, eine Maschine zu bauen, die rechnen und das Ergebnis gleich auf Druckplatten festhalten konnte, fasziniert. Mit Hilfe einer detaillierten Funktionsbeschreibung in einer Übersichtsarbeit von "Dionysius Lardner" in der "Edinburgh Review" konstruierte Georg Scheutz ein Modell aus Holz, Draht und Pappe, um sich von der Funktionsfähigkeit des Prinzips zu überzeugen. Im Sommer 1837 erlaubte er seinem 16-jährigen Sohn, dem späteren Ingenieur Edvard Scheutz (1821–1881), ein größeres Modell aus Metall zu bauen. Georg Scheutz war von den Möglichkeiten dieses Modells derart begeistert, dass er es der Königlich Schwedischen Akademie der Wissenschaften vorstellte und um finanzielle Unterstützung für die Herstellung einer vollständigen Differenzmaschine bat. Die Unterstützung wurde nicht gewährt. Edvard Scheutz verfeinerte das Modell weiter: Eine Differenzmaschine mit fünf Stellen und einer Differenz war 1840 fertiggestellt, die Erweiterung auf drei Differenzen 1843. Das Modell von 1843 wurde nach dem Tod von Edvard Scheutz für 50 Kronen an das Nordiska Museet, Stockholm, verkauft. Das Modell wurde im Dezember 1979 von Michael Lindgren, im Rahmen der Recherche für seine Dissertation, im Fundus des Museums wiederentdeckt und zusammen mit "Per Westberg", dem Möbel-Restaurator des Museums, so weit wie möglich restauriert. Da das Hauptantriebs-Zahnrad bereits vor Wiederentdeckung zahlreiche abgebrochene Zähne aufwies und dieses Zahnrad als zentrales Teil der Maschine im Rahmen der Restaurierung nicht ersetzt werden sollte, befindet sich die Maschine derzeit in einem nicht funktionsfähigen Zustand. Das Modell wird im Tekniska museet, Stockholm, ausgestellt. Scheutz No. 1. 1844 suchte George Scheutz bei der schwedischen Krone um finanzielle Unterstützung für den Bau eines vollständigen Modells der Differenzmaschine nach. Erst 1851 wurde ihm ein Drittel des ursprünglichen Betrages für den Fall versprochen, dass er ein vollständig funktionierendes Modell vorführen könne. Mit technischer und logistischer Unterstützung durch Johan Wilhelm Bergström (1812–1881) konnten Georg und Edvard Scheutz im Oktober 1853 eine funktionsfähige 15-stellige Differenzmaschine mit einer Tiefe von vier Differenzen vorstellen, die ein achtstelliges Ergebnis drucken konnte. Die Maschine wird auch als "Scheutz No. 1" bezeichnet: Die erste vollständige Differenzmaschine der Scheutzs. Manche Autoren bezeichnen die No. 1 auch als die zweite Maschine der Scheutzs, sie sehen den Demonstrator von 1843 als erste Differenzmaschine der Scheutzs an. Im Herbst 1854 starteten die Scheutzs auf eine Werbereise für die Differenzmaschine nach England. Hier wurde ihnen am 13. April 1855 ein Patent (No. 2216 aus 1854) erteilt. Die Maschine wurde u. a. in Somerset House der Royal Society ausgestellt, vorgeführt und begutachtet. Anschließend wurde die Maschine auf der Pariser Weltausstellung von 1855 gezeigt. Charles Babbage zeigte Interesse an der Maschine der Scheutzs und unterstützte diese sowohl in London als auch in Paris bei ihren Verkaufsbemühungen, jedoch nicht ohne seinen Beitrag herauszustellen. Er versuchte vergeblich, die Royal Society (London) davon zu überzeugen, Georg Scheutz zum Mitglied zu ernennen. 1856 veranlasste Benjamin A. Gould den Kauf der Differenzmaschine für 1000 £ für das Dudley Observatory in Schenectady, N. Y. Die Maschine wurde im April 1857 geliefert und im nachfolgenden Winter für zwei Monate in Betrieb genommen. Nach diesen zwei Monaten wurde Gould von seinen Aufgaben entbunden und die Maschine nicht weiter genutzt. Die "Scheutz No. 1" wurde somit nie entsprechend ihrer eigentlichen Bestimmung, der direkten Erstellung von Druckvorlagen für Tabellenwerke, eingesetzt. 1963 wurde die Differenzmaschine der Smithsonian Institution übereignet. Scheutz No. 2. Eine zweite Differenzmaschine (Scheutz No. 2), praktisch eine Kopie der ersten Maschine, baute Edvard Scheutz im Auftrag des britischen Finanzministeriums zusammen mit Bryan Donkin in London, England, auf. Die Maschine wurde nach 19 Monaten Bauzeit am 5. Juli 1859 übergeben. Die ersten mit Druckvorlagen aus der Maschine gedruckte Tabellen waren die Barometertabellen von William Gravatt, 1859. In den folgenden Jahren wurden u. a. die Sterbetafeln (London, 1864) mit Hilfe der Differenzmaschine berechnet. Die Maschine wurde 1914 ausgemustert und dem Science Museum in London übereignet. Obwohl die Scheutzs nur zwei Differenzmaschinen bauten und diese Maschinen nicht fehlerfrei funktionierten, gelangt es ihnen, für diese beiden Maschinen ein öffentliches Interesse zu wecken. Neben den Ausstellungen führten die Scheutzs ihre Maschine immer wieder vor. 1857 druckten die Scheutzs eine 50-seitige Broschüre über die Möglichkeiten der Differenzmaschine, einschließlich einer 29-seitigen Logarithmentafel von 1 bis 10.000. Das Buch wurde an alle möglichen Kaufinteressenten einer Differenzmaschine verschickt. Eine französische Ausgabe wurde 1858 fertiggestellt. Alfred Deacon. Die Übersichtsarbeit von "Dionysius Lardner" in der "Edinburgh Review" inspirierte nicht nur George Scheutz zur Konstruktion einer Differenzmaschine, sondern auch unabhängig davon Alfred Deacon aus London. Dessen Maschine konnte mit drei Differenzen und 20 Stellen rechnen. Die Maschine ist verlorengegangen, es ist aber möglich, dass sie sich zumindest zeitweise im Besitz von Charles Babbage befand, der für die Weltausstellung in London (1862) eine kleine Differenzmaschine aus London als Exponat anbot. Martin Wiberg und George Bernard Grant. Der Erfolg von George und Edvard Scheutz in der Konstruktion einer Differenzmaschine führte Martin Wiberg (1826–1905) und George Bernard Grant (1849–1917) zu eigenen Konstruktionen. Martin Wiberg stellte seine Maschine mit vier Differenzen und einem Rechenwerk von 15 Stellen 1860 vor. Neben einer Würdigung durch den zukünftigen schwedischen König Oscar II. und zahlreichen Auszeichnungen wurde die Maschine auf Empfehlung von Charles Babbage in der Académie des sciences vorgestellt und wohlwollend beurteilt. Wibergs Ziel war nicht der Verkauf der Maschine, sondern die Erstellung von wissenschaftlichen Tabellen bzw. deren Druckvorlagen. Eine mit der Maschine berechnete Logarithmentafel konnte Wiberg erst 1875 in Schwedisch und 1876 in Deutsch und Englisch herausgeben. In der Einleitung seiner Tafeln machte Wiberg sein Bemühen um eine ansprechende Typographie für die Verzögerungen verantwortlich. Das Tafelwerk wurde 1876 auf der Weltausstellung in Philadelphia ausgestellt. Die Nachfrage war gering, das Tafelwerk ist heutzutage sehr selten. Die Differenzmaschine befindet sich im Tekniska museet in Stockholm. Differenzmaschine von George Bernard Grant, 1876 George Bernard Grant hörte 1870 noch als Student zum ersten Mal etwas von den Differenzmaschinen des Charles Babbage. Zu diesem Zeitpunkt hatte er schon zahlreiche Versuche unternommen, Rechenvorgänge zu mechanisieren. Seinen Demonstrator einer Differenzmaschine stellte er 1871 fertig und beschrieb ihn in einer Veröffentlichung. Nach seinem Abschluss arbeitete er weiter an der Differenzmaschine. Ziel war es, zur Weltausstellung in Philadelphia (1876) eine funktionsfähige Maschine auszustellen. Die Maschine wurde wenige Tage vorher fertig, jedoch war sie nicht vollständig einsetzbar. Die Maschine war 2,5 m lang und 1,5 m hoch und konnte mit einer Handkurbel betrieben werden. Wurde die Handkurbel durch einen Riementrieb ersetzt, so verdoppelte sich die Rechenleistung von 12 Termen pro Minute auf 24. Als Zugeständnis an seine Geldgeber wurde die Maschine an die University of Pennsylvania übereignet. Die Maschine ist untergegangen. Eine Differenzmaschine nach den Plänen von Grant wurde an die "Provident Mutual Life Insurance Company", wo sie zur Berechnung von Sterbetafeln genutzt wurde, verkauft. Christel Hamann. Als Julius Bauschinger und Johann Theodor Peters (1889–1941) ein Projekt zur Erstellung von achtstelligen statt der bisherigen siebenstelligen Logarithmentafeln für die natürlichen Zahlen und die trigonometrischen Funktionen begannen, wandten sie sich mit der Bitte um die Konstruktion einer Differenzmaschine an Christel Hamann (1870–1948). Hamann lieferte die Maschine 1909 aus. Eine detaillierte Beschreibung der Maschine findet sich im Vorwort des ersten Bandes der Tafeln. Es handelte sich um eine 16-stellige Maschine mit zwei Differenzen und eingebautem Papierdrucker. Die Differenzmaschine war sehr viel einfacher aufgebaut als die bisherigen Konstruktionen: Nicht nur arbeitete sie mit nur zwei Differenzen, auch hatte sie keine Art von Automatik, d. h. der Nutzer musste selbst erst die zweite Differenz durch das Betätigen der einen Kurbel zu der ersten addieren, um dann mit der zweiten Kurbel die erste Differenz zum Funktionswert zu addieren. Trotz dieser Einschränkung konnte ein geübter Benutzer 36 Tabelleneinträge in fünf Minuten berechnen. Bauschinger und Peters planten ihr Tabellenwerk um eine Differenzmaschine mit nur zwei Differenzen, indem sie die Maschine nur zur Interpolation über kleine Intervalle nutzten. Die Maschine selbst ist untergegangen, ein Abbild findet sich in der Umschlagseite der 1910 herausgegebenen Tafeln. Burroughs Adding Machine Company. Eingabefeld, Burroughs Maschine der Nautical Almanac Office Um 1912 trat T. C. Hudson von der Nautical Almanac Office an die Burroughs Adding Machine Company mit der Bitte um die Konstruktion einer im Sechziger-Zahlensystem arbeitende Differenzmaschine heran. Die von Hudson zu berechnenden Tabellen listeten Winkel in Grad, Minuten und Sekunden. Schon die erste Maschine von Babbage konnte, durch einfachen Tausch der Zahlenwalzen, mit verschiedenen Zahlsystemen unterschiedlicher Basen umgehen, da die englische Währung zum damaligen Zeitpunkt aus Pence, Shilling und Pfund nicht auf der Basis gebildet war: 12 Pence = 1 Shilling, 20 Shilling = 1 Pfund. Hudson bekam für seine Arbeit eine tastaturbetriebene Buchhaltungsmaschine, die sowohl im Zehner- als auch im Sechzigersystem rechnen konnte und zusätzlich direkt subtrahieren konnte, also keine Komplementbildung vor der Addition benötigte. Die Maschine konnte jedoch nur eine Addition oder Subtraktion durchführen, weswegen der Ausdruck der ersten Differenz ein weiteres Mal durch die Maschine geführt wurde, um den eigentlichen Funktionswert zu berechnen. Durch geschicktes Einspannen des Ausdrucks wurde das Ergebnis der ersten Rechnung von der Eingabe der ersten Differenz im zweiten Berechnungsschritt überdruckt, wodurch Fehleingaben offensichtlich wurden. Die Maschine wurde 1914 auf der "Napier Tercentenary Exhibition" in Edinburgh ausgestellt. Für die tägliche Nutzung wurden zwei der Maschinen über ihren Ausdruck hintereinander gekoppelt, so dass die erste Maschine die zweiten Differenzen zu ersten addierte und die zweite Maschine die erste Differenz zum Ergebnis addierte. Später fügte Burroughs ein zusätzliches Register für die erste Differenz in die Maschinen hinzu, so dass eine Buchungsmaschine als Differenzmaschine mit zwei Differenzen genutzt werden konnte. Leslie John Comrie. Leslie John Comrie führte die Idee von T. C. Hudson, aus Standard-Büromaschinen durch minimale Änderungen Differenzmaschinen zu bauen, weiter: Jede neue Maschine wurde von ihm detailliert untersucht und beschrieben. Comrie nutzte die Differenzmaschinen hauptsächlich zur Kontrolle von Tabellenwerken. Brunsviga Dupla. 1928 stellte Comrie die Brunsviga-Dupla, eine Rechenmaschine mit Zwischenregister, als Differenzmaschine vor. Er schrieb praktisch eine Bedienungsanleitung für die Rechenmaschine als Differenzmaschine, indem er darlegte, wie man das der Maschine eigene Zwischenregister nutzen sollte. Die Maschine ist sehr selten, die Rechenwege können heutzutage am einfachsten durch Simulationen nachvollzogen werden. Hollerith Tabulationsmaschine. Es war Comrie, der bei der begutachtenden Zerlegung einer neuen Buchungsmaschine, der "Hollerith Tabulating Machine", die in der Maschine versteckten mechanischen Register für die Zwischensummen der Buchungskonten entdeckte und eine Nutzung der Maschine als Differenzmaschine beschrieb. Die Tabulationsmaschinen konnten ohne Umbauten als druckende Differenzmaschine genutzt werden. Triumphator Typ C1.Vier von diesen Maschinen bildeten die Basis für die von Thompson gebaute Differenzmaschine. Alexander John Thompson. Für die Berechnung seiner zwischen 1924 und 1952 herausgegebenen 20-stelligen Logarithmentafeln suchte Alexander John Thompson vergebens nach einer Maschine, die mit vier oder fünf Differenzen rechnen konnte. Er koppelte vier "Triumphator Typ C"-Rechenmaschinen (Sprossenradmaschinen, auch nach Willgodt Theophil Odhner als Odhner-Maschinen bezeichnet) mechanisch so hintereinander, dass der Inhalt des Ergebnisregisters der hinteren Maschine auf die Sprossenräder der vorderen Maschine übertragen werden konnte. Ebenso konnten die Einstellungen der Sprossenräder der vorderen Maschine auf das Ergebnisregister der hinteren Maschine übertragen werden. Weiterhin wurde die Zahl der Sprossenräder jeder Maschine von 9 auf 13 Stellen, die der Ergebnisregister von 13 auf 18 Stellen erweitert. Funktionsweise. Differenzmaschinen dienen der Berechnung von Zahlenfolgen. Als Differenz wird der numerische Abstand zwischen zwei benachbarten Elementen der Folge bezeichnet. Diese Differenzen bilden ihrerseits wieder eine Folge. Berechnet man aus diesen ersten Differenzen erneut die Differenz, so spricht man von der zweiten Differenz. Allgemein gilt, dass bei einer auf einem Polynom n-ter Ordnung basierenden Folge die n-te Differenz konstant ist. Diese Eigenschaft kann man sich dahingehend zu Nutze machen, dass man für die Konstruktion der Folge erst die n-ten, dann die n-1-ten usw. Differenzen durch Addition bildet, bis man die eigentliche Folge berechnet hat. Natürlich muss man für dieses Vorgehen die Startwerte für die einzelnen Differenzen kennen. Die einmalige Bestimmung der Startwerte ist in der Regel aber wesentlich einfacher, als alle Elemente der Folge zu berechnen. Die häufigste Nutzung der Differenzmaschinen war die Interpolation von Werten zwischen bekannten Stützstellen: Man berechnete für eine Funktion die Funktionswerte mit der gesuchten Genauigkeit in einem weiteren Abstand als für die gewünschte Tabelle. Die Zwischenwerte wurden durch Berechnung eines Polynoms n-ter Ordnung durch die berechneten Stützstellen gewonnen. D. h. die Zwischenwerte wurden durch das Polynom nur angenähert. Bei entsprechender Wahl der Abstände zwischen der Stützstellung und einer ausreichenden Genauigkeit der Rechenschritte können die berechneten von den interpolierten Tabellenwerten nicht unterschieden werden. Die Interpolation wurde auch vor der Verfügbarkeit von Differenzmaschinen genutzt, nur dass die Berechnung dann von Menschen durchgeführt werden musste. Auch hier war der Rechenaufwand für die Interpolation deutlich geringer als für die Berechnung der Stützstellen. Früh zeigte sich, dass sich für die Differenzmaschine interessante Einsatzmöglichkeiten ergeben, wenn die n-te Differenz nicht konstant ist. Charles Babbage sah hierfür vor, dass der Bediener die höchste Differenz vor jedem Berechnungsschritt anpassen konnte. Besonders einfach ist dies in der Maschine von Thompson möglich. Da die Differenzmaschine eigentlich nur addieren kann, sah Charles Babbage in seiner Differenzmaschine No. 1 eine Rückkopplung der Folge auf die höchste Differenz vor. Hierbei ist zu beachten, dass er bei der Rückkopplung die Wertigkeit der Stellen um Potenzen von 10 variieren konnte. Durch diesen "Trick" konnte die Differenzmaschine multiplizieren und z. B. die Sinus-Funktion direkt berechnen. Der Legende nach hat Charles Babbage sich den druckenden Differenzmaschinen verschrieben, da in den verfügbaren Logarithmentafeln so viele Fehler waren. Mittlerweile ist die Fehlerzahl in den Logarithmentafeln objektiviert worden. Zwar konnte durch eine Verfolgung der Fehler nachgewiesen werden, welcher Tafelersteller bei wem abgeschrieben hat, insgesamt war die Zahl der Fehler, insbesondere bei Berücksichtigung der Korrekturnotizen, jedoch so gering, dass dies mehr als ein Verlegenheitsargument für die Konstruktion einer solch aufwendigen Maschine zu werten ist. Für die Scheutz No. 2-Maschine liegen umfangreiche Belege über die Funktionsgüte und Reparaturanfälligkeit vor: Die Maschine war weder ohne Fehler, noch war ihr Unterhalt preiswerter als ein menschlicher Berechner. Würdigung. Zum Zeitpunkt der Erfindung der Differenzmaschine durch Charles Babbage bildete die Maschine einen Rechenvorgang, der bis zu dem Zeitpunkt manuell durchgeführt wurde, nach. Charles Babbage gelang es 1822, eine funktionierende Differenzmaschine (No. 0) für Differenzen zweiter Ordnung zu bauen und vorzuführen. Leider ist die Maschine untergegangen, höchst wahrscheinlich wurden Einzelteile im Demonstrator der Differenzmaschine No. 1, sicher jedoch in den Fragmenten der Differenzmaschine No. 1, verbaut. Die von Babbage entworfenen Maschinen waren zu seiner Zeit herstellbar und hätten funktioniert. Durch die zahlreichen Veröffentlichungen über seine Differenzmaschinen und Werbung für Differenzmaschinen, die anhand seiner Artikel konstruiert und gebaut wurden, inspirierte er Generationen von Mathematikern, Ingenieuren und Bastlern, sich an der Automatisierung der Berechnung zu versuchen. Der große Durchbruch der Differenzmaschinen erfolgte durch die Nutzung der Maschine von Christel Hamann für das Tabellenwerk von Bauschinger und Peters. Den Höhepunkt und Abschluss erreichte die Nutzung der Differenzmaschine jedoch in der Vier-Differenz-Maschine von Alexander John Thompson und seiner Berechnung der 20-stelligen Logarithmentafeln zwischen 1924 und 1952. Dezimalsystem. Ein Dezimalsystem (von mittellateinisch "decimalis", zu lateinisch "decem" „zehn“), auch als Zehnersystem oder dekadisches System bezeichnet, ist ein Zahlensystem, das als Basis die Zahl 10 verwendet. In der Regel wird darunter speziell das Dezimalsystem mit Stellenwertsystem verstanden, das in der indischen Zahlschrift entwickelt, durch arabische Vermittlung an die europäischen Länder weitergegeben wurde und heute weltweit als ein internationaler Standard etabliert ist. Als Dezimalsysteme bezeichnet man jedoch auch Zahlensysteme auf der Basis 10 ohne Stellenwertsystem, wie sie, zum Teil in Verbindung mit quinären, vigesimalen oder anders basierten Zahlensystemen, den Zahlwörtern vieler natürlicher Sprachen und älteren Zahlschriften zugrunde liegen. Die Entstehung von Dezimalsystemen ebenso wie die von Quinärsystemen wird anthropologisch mit der Zahl der Finger als Zähl- und Rechenhilfe in Verbindung gebracht, eine Erklärung, die auch dadurch gestützt wird, dass in einigen Sprachen als Zahlwörter für 5 und 10 Ausdrücke mit der Bedeutung „Hand“ (5) bzw. „zwei Hände“ (10) gebraucht werden. Ziffern. Im Dezimalsystem verwendet man die zehn Ziffern Diese Ziffern werden jedoch in verschiedenen Teilen der Welt unterschiedlich geschrieben. Indische Zifferzeichen werden auch heute noch in den verschiedenen indischen Schriften (Devanagari, Bengalische Schrift, Tamilische Schrift usw.) verwendet. Sie unterscheiden sich stark voneinander. Definition. Eine Dezimalzahl wird im deutschen Sprachraum meistens in der Form aufgeschrieben; daneben existieren je nach Verwendungszweck und Ort noch weitere Schreibweisen. Dabei ist jedes zi eine der oben genannten Ziffern. Der Index "i" beschreibt den Stellenwert der jeweiligen Ziffer, die Wertigkeit einer Ziffer ist die Zehnerpotenz 10"i". Die Ziffern werden ohne Trennzeichen hintereinander geschrieben, wobei die höchstwertige Stelle mit der Ziffer "zm" ganz links und die niederwertigeren Stellen mit den Ziffern "zm-1" bis z0 in absteigender Reihenfolge rechts davon stehen. Zur Darstellung von rationalen Zahlen mit nicht-periodischer Entwicklung folgen dann, nach einem trennenden Komma, die Ziffern "z" -1 bis "z -n". Im englischen Sprachraum wird statt des Kommas meist ein Punkt verwendet. Diese Darstellung nennt man auch "Dezimalbruch-Entwicklung". Dezimalbruchentwicklung (periodische Dezimalzahlen in Brüche umformen). Mit Hilfe der "Dezimalbruchentwicklung" kann man jeder reellen Zahl eine Folge von Ziffern zuordnen. Jeder endliche Teil dieser Folge definiert einen Dezimalbruch, der eine Näherung der reellen Zahl ist. Man erhält die reelle Zahl selbst, wenn man von den endlichen Summen der Teile zur unendlichen Reihe über alle Ziffern übergeht. Diese Darstellung ist ein Beispiel einer Reihenentwicklung. Formal wird mit formula_5 also der Wert der Reihe formula_6 bezeichnet. Man sagt, dass die Dezimalbruchentwicklung abbricht, wenn die Ziffernfolge ab einer Stelle n nur noch aus Nullen besteht, die dargestellte reelle Zahl also selbst schon ein Dezimalbruch ist. Insbesondere bei allen irrationalen Zahlen bricht die Ziffernfolge nicht ab; es liegt eine unendliche Dezimalbruchentwicklung vor. Diese Identitäten ergeben sich aus den Rechenregeln für geometrische Reihen, wonach formula_8 für formula_9 gilt. Im ersten Beispiel wählt man formula_10 und beginnt die Summation erst beim ersten Folgenglied. Die Periode wird jeweils in den Zähler übernommen. Im Nenner stehen so viele Neunen, wie die Periode Stellen hat. Gegebenenfalls sollte der entstandene Bruch noch gekürzt werden. Doppeldeutigkeit der Darstellung. Eine besondere Eigenschaft bei der Dezimalbruchentwicklung ist, dass viele rationale Zahlen zwei unterschiedliche Dezimalbruchentwicklungen besitzen. Wie oben beschrieben, kann man formula_27 umformen und zu der Aussage gelangen, siehe den Artikel 0,999… Aus dieser Identität kann man weiter folgern, dass viele rationale Zahlen (nämlich alle mit endlicher Dezimalbruchentwicklung mit Ausnahme der 0) auf zwei verschiedene Weisen darstellbar sind: entweder eben als endlicher Dezimalbruch mit Periode 0, oder als unendlicher mit Periode 9. Um die Darstellung eindeutig zu machen, kann man die Periode 9 (oder seltener die Periode 0) jedoch schlicht verbieten und sich auf endliche Dezimalbrüche beschränken. Formel. Dabei sind "p" die Zahl, "x" die Zahl vor Beginn der Periode (als Ganzzahl), "m" die Anzahl der Ziffern vor Beginn der Periode, "y" die Ziffernfolge der Periode (als Ganzzahl) und "n" die Länge der Periode. Periode. In der Mathematik bezeichnet man als "Periode" eines Dezimalbruchs eine Ziffer oder Ziffernfolge, die sich nach dem Komma immer wieder wiederholt. Alle rationalen Zahlen, und nur diese, haben eine periodische Dezimalbruchentwicklung. Auch endliche Dezimalbrüche zählen zu den periodischen Dezimalbrüchen; nach Einfügung unendlich vieler Nullen ist zum Beispiel 0,12 = 0,12000... Echte Perioden (also keine endlichen Dezimalbrüche) treten im Dezimalsystem genau dann auf, wenn sich der Nenner des zugrunde liegenden Bruches nicht ausschließlich durch die Primfaktoren 2 und 5 erzeugen lässt. 2 und 5 sind die Primfaktoren der Zahl 10, der Basis des Dezimalsystems. Ist der Nenner eine Primzahl formula_33 (außer 2 und 5), so hat die Periode höchstens eine Länge, die um eins niedriger ist als der Wert des Nenners (in den Beispielen fett dargestellt). Die genaue Länge der Periode von formula_34 (falls die Primzahl weder 2 noch 5 ist) entspricht der kleinsten natürlichen Zahl formula_35, bei der formula_33 in der Primfaktorzerlegung von formula_37 vorkommt. 999.999 = 3 · 3 · 3 · 7 · 11 · 13 · 37, 1/7 = 0,142857142857... bzw. 1/13 = 0,076923076923… Sowohl 1/7 als auch 1/13 haben eine Periodenlänge von 6, weil 7 und 13 das erste Mal in der Primfaktorzerlegung von Rn = 106 − 1 auftauchen. 1/37 hat jedoch eine Periodenlänge von nur 3, weil bereits (103 − 1) = 999 = 3 · 3 · 3 · 37. Ist der Nenner keine Primzahl, so ergibt sich die Periodenlänge entsprechend als die Zahl formula_35, bei der der Nenner das erste Mal ein Teiler von formula_37 ist; die Primfaktoren 2 und 5 des Nenners bleiben dabei unberücksichtigt. 1/185 = 1/(5·37) hat die gleiche Periodenlänge wie 1/37, nämlich 3. 1/143 = 1/(11·13) hat die Periodenlänge 6, weil 999.999 = 3 · 3 · 3 · 7 · 143 · 37 (siehe oben) 1/260 = 1/(2·2·5·13) hat die gleiche Periodenlänge wie 1/13, also 6. also hat 1/13 die Periodenlänge 6. Notation. Für periodische Dezimalbruchentwicklungen ist eine Schreibweise üblich, bei der der sich periodisch wiederholende Teil der Nachkommastellen durch einen Überstrich markiert wird. Beispiele sind Nicht periodische Nachkommaziffern-Folge. Wie im Artikel Stellenwertsystem erläutert, besitzen irrationale Zahlen (auch) im Dezimalsystem eine unendliche, nichtperiodische Nachkommaziffern-Folge. Irrationale Zahlen können also nicht durch eine endliche und nicht durch eine periodische Ziffernfolge dargestellt werden. Man kann sich zwar mit endlichen (oder periodischen) Dezimalbrüchen beliebig annähern, jedoch ist eine solche endliche Darstellung niemals exakt. Es ist also nur mithilfe zusätzlicher Symbole möglich, irrationale Zahlen durch endliche Darstellungen anzugeben. Beispiele solcher Symbole sind Wurzelzeichen, wie für formula_52, Buchstaben wie π oder e, sowie mathematische Ausdrücke wie unendliche Reihen oder Grenzwerte. Umrechnung in andere Stellenwertsysteme. Methoden zur Umrechnung von und in das Dezimalsystem werden in den Artikeln zu anderen Stellenwertsystemen und unter Zahlbasiswechsel und Stellenwertsystem beschrieben. Geschichte. Dezimale Zahlensysteme, aber jeweils ohne Stellenwertsystem und ohne Darstellung der Null, lagen im Altertum unter anderem den Zahlschriften der Ägypter, Griechen und Römer zugrunde. Es handelte sich dabei um additive Zahlschriften, mit denen beim Rechnen Zahlen zwar als Gedächtnisstütze niedergeschrieben, aber arithmetische Operationen im Wesentlichen nicht schriftlich durchgeführt werden konnten: diese waren vielmehr mit Kopfrechnen oder mit anderen Hilfsmitteln wie den Rechensteinen (griech. "psephoi", lat. "calculi", im Spätmittelalter auch Rechenpfennige oder franz. "jetons" genannt) auf dem Rechenbrett und möglicherweise mit den Fingerzahlen zu leisten. Fingerzahlen nach Beda Venerabilis, linke Hand Fingerzahlen nach Beda Venerabilis, linke Hand Den in römischer und mittelalterlicher Zeit verbreiteten, in etwas anderer Form auch in der arabischen Welt gebrauchten Fingerzahlen lag ein dezimales System für die Darstellung der Zahlen 1 bis 9999 zugrunde, ohne Zeichen für Null, und mit einem Positionssystem eigener Art. Hierbei wurden durch genau festgelegte Fingerstellungen auf der linken Hand mit kleinem, Ring- und Mittelfinger die Einer 1 bis 9 und mit Zeigefinger und Daumen die Zehner 10 bis 90 dargestellt, während auf der rechten Hand die Hunderter mit Daumen und Zeigefinger spiegelbildlich zu den Zehnern und die Tausender mit den drei übrigen Fingern spiegelbildlich zu den Einern dargestellt wurden. Diese Fingerzahlen sollen nicht nur zum Zählen und zum Merken von Zahlen, sondern auch zum Rechnen verwendet worden sein; die zeitgenössischen Schriftquellen beschränken sich jedoch auf die Beschreibung der Fingerhaltungen und geben keine nähere Auskunft über die damit durchführbaren rechnerischen Operationen. Auf den Rechenbrettern des griechisch-römischen Altertums und des christlichen Mittelalters stand demgegenüber für die Darstellung ganzer Zahlen ein vollwertiges dezimales Stellenwertsystem zur Verfügung, indem für eine gegebene Zahl die Anzahl ihrer Einer, Zehner, Hunderter usw. durch Rechensteine in entsprechenden vertikalen Dezimalspalten dargestellt wurde. Auf dem antiken Abacus geschah dies durch Ablegen oder Anschieben einer entsprechenden Anzahl von "calculi" in der jeweiligen Dezimalspalte, wobei zusätzlich eine Fünferbündelung praktiziert wurde, indem je fünf Einheiten durch einen einzelnen "calculus" in einem seitlichen oder oberen Sonderbereich der Dezimalspalte repräsentiert wurden. Auf dem Klosterabacus des Frühmittelalters, der heute meist mit dem Namen Gerberts verbunden wird und vom 10. bis 12. Jahrhundert in Gebrauch war, wurde stattdessen die Anzahl der Einheiten in der jeweiligen Dezimalspalte nur durch einen einzelnen Stein dargestellt, der mit einer Zahl von 1 bis 9 beziffert war, während das spätere Mittelalter und die Frühe Neuzeit wieder zur Verwendung unbezifferter Rechensteine zurückkehrten und die Spalten bzw. nunmehr horizontal gezogenen Linien entweder für dezimales Rechnen mit ganzen Zahlen an der Basiszahl 10 (mit Fünferbündelung), oder für das Finanzrechnen an den aus dem karolingischen Münzwesen (1 libra = 20 solidi = 240 denarii) ererbten monetären Grundeinheiten nicht-dezimal ausrichteten. Auf den antiken wie auf den mittelalterlichen Varianten dieses Hilfsmittels erfolgte die Darstellung des Wertes Null jeweils durch Freilassen der betreffenden Dezimalspalte bzw. Linie, und so auch auf dem Klosterabacus, auf dem zwar ein Rechenstein mit einer aus dem Arabischen stammenden Ziffer ("cifra") für Null zur Verfügung stand, aber für andere Zwecke bei den abazistischen Rechenoperationen verwendet wurde. Mithilfe der antiken und mittelalterlichen Rechenbretter ließen sich Addition und Subtraktion erheblich vereinfachen, während sie für Multiplikation und Division wenig geeignet waren oder verhältnismäßig komplizierte Operationen erforderten, die besonders für den Klosterabacus in mittelalterlichen Traktaten beschrieben wurden und in ihrer Schwierigkeit berüchtigt waren. Eine Zahlschrift mit vollwertigem Stellenwertsystem, bei dem auch die Position des Zahlzeichens dessen Wert bestimmt, entwickelten zuerst die Babylonier auf der Basis 60 und ergänzten es vermutlich schon vor dem 4. Jahrhundert vor Chr. auch um ein eigenes Zeichen für Null. Eine Zahlschrift mit Stellenwertsystem auf der Basis 10, aber noch ohne Zeichen für die Null, entstand in China vermutlich bereits einige Jahrhunderte vor der Zeitenwende (in Einzelheiten bezeugt seit dem 2. Jahrhundert vor Chr.), wahrscheinlich mithilfe von Rechenstäbchen auf einer schachbrettartig eingeteilten chinesischen Variante des Abacus, und wurde erst unter indischem Einfluss seit dem 8. Jahrhundert auch um ein Zeichen für Null ergänzt. In Indien selbst sind die Anfänge des positionellen Dezimalsystems mit Zeichen für die Null nicht sicher zu bestimmen. Die ältere Brahmi-Zahlschrift, die vom 3. bis zum 8. Jahrhundert in Gebrauch war, verwendete ein dezimales System mit Ansätzen zu positioneller Schreibung, aber noch ohne Zeichen für Null. Die älteste indische Form der heutigen indo-arabischen Ziffern, mit aus der Brahmi-Zahlschrift herzuleitenden Zeichen für 1 bis 9 und einem Punkt oder kleinen Kreis für Null, ist durch sicher datierbare epigraphische Zeugnisse zuerst außerhalb Indiens seit dem 7. Jh. in Südostasien als indischer Export und in Indien selbst seit dem 9. Jahrhundert zu belegen; man nimmt jedoch an, dass die Verwendung dieses Ziffernsystems in Indien bereits im 5. Jahrhundert begann. Das gleiche positionelle Dezimalsystem mit Zeichen für Null lag auch dem in etwa gleichzeitigen gelehrten Zahlwortsystem indischer Astronomen zugrunde, in dem umschreibende Ausdrücke wie „Anfang“ (1), „Augen“ (2), „die drei Zeitstufen“ (3) für die Zahlen 1 bis 9 und „Himmel“, „Leere“, „Punkt“ oder andere Wörter für Null gemäß ihrem dezimalen Stellenwert als sprachliche Umschreibung mehrstelliger Zahlen gereiht wurden. Als frühes Zeugnis einer solchen positionellen Setzung von in diesem Fall weitgehend unmetaphorischen sprachlichen Zahlenbezeichnungen gilt bereits das 458 in Prakrit verfasste Lokavibhaga, das allerdings nur in einer späteren Sanskritübersetzung erhalten ist. Voll ausgebildet findet sich das umschreibende Zahlwortsystem dann bei Bhaskara I. (7. Jh.). Von den Arabern und den von ihnen arabisierten Völkern wurde für die Schreibung von Zahlen zunächst das dezimale additive System der alphabetischen griechischen Zahlschrift, anfangs vermittelt durch hebräisches und syrisches Vorbild, übernommen und auf die 28 Buchstaben des arabischen Alphabets übertragen. Spätestens seit dem 8. Jahrhundert wurden jedoch zuerst im arabischen Orient und im Verlauf des 9. Jahrhunderts dann auch in Nordafrika und Al-Andalus die indischen Ziffern und darauf beruhenden Rechenmethoden bekannt. Die früheste Erwähnung findet sich im 7. Jahrhundert durch den syrischen Bischof Severus Sebokht, der das indische System ausdrücklich lobt. Eine wichtige Rolle bei der Verbreitung in der arabischen und der westlichen Welt spielte Muhammad ibn Musa al-Chwarizmi, der die neuen Ziffern nicht nur in seinen mathematischen Werken verwendete, sondern um 825 auch eine nur in lateinischer Übertragung erhaltene Einführung "Kitāb al-Dschamʿ wa-l-tafrīq bi-ḥisāb al-Hind" („Über das Rechnen mit indischen Ziffern“) mit einer für den Anfänger geeigneten Beschreibung des Ziffernsystems und der darauf beruhenden schriftlichen Grundrechenarten verfasste. Nachdem im 10./11. Jahrhundert im lateinischen Westen bereits westarabische oder daraus abgeleitete Ziffern ("apices" genannt) auf den Rechensteinen des Klosterabacus aufgetaucht waren, aber nicht auch darüber hinaus als Zahlschrift oder sogar für schriftliches Rechnen verwendet worden und zusammen mit dem Klosterabacus wieder in Vergessenheit geraten waren, war es die Einführung Al-Chwarizmis, die seit dem 12. Jahrhundert in lateinischen Bearbeitungen und daran anknüpfenden volkssprachlichen Traktaten dem indischen Ziffernrechnen zum Durchbruch verhalf und durch ihre Anfangsworte „Dixit Algorismi“ auch bewirkte, dass „Algorismus“, die lateinische Wiedergabe seines Namens, sich weithin als Name dieser neuen Rechenkunst etablierte. Besonders in Italien, wo Leonardo da Pisa es in seinem Liber abbaci auch aus eigener, in Nordafrika erworbener Kenntnis bekannt machte, konnte das indische Ziffernrechnen seit dem 13. Jahrhundert den Abacus (mit unbezifferten Rechensteinen) im Finanzwesen und kaufmännischen Bereich nahezu vollständig verdrängen und sogar dessen Namen ("abbaco") annehmen, während es in übrigen Ländern zwar zum Gegenstand des wissenschaftlichen und kaufmännischen Unterrichts wurde, bis zur Frühen Neuzeit aber im Linienrechnen auf dem Rechenbrett einen übermächtigen Konkurrenten besaß. Auch als einfache Zahlschrift für die praktischen Zwecke des Niederschreiben von Zahlen und des Nummerierens, für die kein Stellenwertsystem benötigt wird, konnten sich die indo-arabischen Ziffern erst seit der frühen Neuzeit allmählich gegen die römischen Zahlen durchsetzen. Distributivgesetz. Die Distributivgesetze (lat. "distribuere" „verteilen“) sind mathematische Regeln, die angeben, wie sich zwei zweistellige Verknüpfungen bei der Auflösung von Klammern zueinander verhalten, nämlich dass die eine Verknüpfung in einer bestimmten Weise verträglich ist mit der anderen Verknüpfung. Insbesondere in der Schulmathematik bezeichnet man die Verwendung des Distributivgesetzes zur Umwandlung einer Summe in ein Produkt als Ausklammern oder Herausheben. Das Auflösen von Klammern durch Anwenden des Distributivgesetzes wird als Ausmultiplizieren bezeichnet. Das Distributivgesetz bildet mit dem Assoziativgesetz und dem Kommutativgesetz grundlegende Regeln der Algebra. Formale Definition. Auf einer Menge formula_1 seien zwei zweistellige Verknüpfungen formula_2 und formula_3 definiert. Die Verknüpfung formula_4 heißt Wenn die Verknüpfung formula_4 kommutativ ist, so sind diese drei Bedingungen äquivalent. Bedeutung. Als Beispiel können die zweistelligen Verknüpfungen der Addition formula_14 und der Multiplikation formula_15 von Zahlen dienen. Ist die „übergeordnete“ Verknüpfung, in diesem Fall die Multiplikation, kommutativ, so kann man aus der Linksdistributivität auch die Rechtsdistributivität folgern und umgekehrt. Die Distributivgesetze gehören zu den Axiomen für Ringe und Körper. Beispiele für Strukturen, in denen zwei Funktionen sich gegenseitig zueinander distributiv verhalten, sind Boolesche Algebren, wie die Algebra der Mengen oder die Schaltalgebra. Es gibt aber auch Kombinationen von Verknüpfungen, die sich nicht distributiv zueinander verhalten; zum Beispiel ist die Addition nicht distributiv über der Multiplikation. Das Multiplizieren von Summen kann man auch folgendermaßen in Worte fassen: Eine Summe wird mit einer Summe multipliziert, indem man jeden Summanden der einen Summe mit jedem Summanden der anderen Summe – unter Beachtung der Vorzeichen – multipliziert und die entstehenden Produkte addiert. Reelle Zahlen. In den folgenden Beispielen wird die Verwendung des Distributivgesetzes auf der Menge der reellen Zahlen formula_23 illustriert. In der Schulmathematik spricht man bei diesen Beispielen meist von Ausmultiplizieren. Aus der Sicht der Algebra bilden die reellen Zahlen einen Körper, was die Gültigkeit des Distributivgesetzes sichert. Man will 6·16 im Kopf berechnen. Dazu multipliziert man 6·10 sowie 6·6 und addiert die Zwischenergebnisse. Auch das "schriftliche Multiplizieren" beruht auf dem Distributivgesetz. Matrizen. Auch für die Matrizenmultiplikation ist das Distributivgesetz gültig. Genauer gesagt gilt für alle formula_31-Matrizen formula_32 und formula_33-Matrizen formula_34 sowie für alle formula_31-Matrizen formula_1 und formula_33-Matrizen formula_39. Da für die Matrizenmultiplikation das Kommutativgesetz nicht gilt, folgt aus dem ersten Gesetz nicht das zweite. Es handelt sich in diesem Fall also um zwei verschiedene Gesetze. Donnerstag. Der Donnerstag, bairisch auch Pfinztag, ist der vierte (und damit mittlere) Wochentag des bürgerlichen Kalenders nach international standardisierter Zählung (ISO 8601), die Montag als Wochenbeginn festlegt. Nach christlicher, jüdischer und islamischer Zählung, die den Wochenanfang auf Sonntag legt, ist er der fünfte Tag. Der erste Donnerstag im Jahr legt die erste Kalenderwoche fest. Etymologie. Der Donnerstag ist nach dem germanischen Donnergott Donar, Thor benannt. In deutscher Sprache ist der Name seit der althochdeutschen Phase als bei Notker als "toniristac" belegt. Weitere Formen in germanischen Sprachen sind: mittelniederländisch "donresdach", altfriesisch "Thunersdei", nordfriesisch "Türs dei". Der Tag war in der Antike nach dem Gott Jupiter bzw. dem Planeten Jupiter benannt (lat. "Dies Iovis", davon auch franz. "jeudi", span. "jueves", italienisch "giovedì"). Mit der Übernahme der ursprünglich babylonischen 7-Tage-Woche durch die Germanen wurde Donnerstag analog zu "Dies Iovis" gebildet. Im bairischen Sprachraum findet sich auch heute noch die Form "Pfinztag", entlehnt aus griechisch "pempte hemera" („fünfter Tag“), mit dem Zweck, den heidnischen Bezug auf den Donnergott zu eliminieren. Das Lehnwort gelangte vermutlich über gotische Vermittlung ins Bairische. Umgangssprachlich wird der Donnerstag auch „kleiner Freitag“ genannt und bringt die Vorfreude auf das bevorstehende Wochenende zum Ausdruck. Im Kanton Wallis in der Schweiz wurde der Donnerstag früher auch "Frontag" genannt. Diese Bezeichnung bezog sich auf den an diesem Tage zu leistenden Frondienst, der dem Gutsherrn oder für die Pflege der Allmende zu leisten war. Dienstag. Der Dienstag ist nach deutscher Zählung (überholt: DIN 1355) und nach internationaler Zählung (ISO 8601) der zweite Wochentag; nach jüdischer, christlicher und islamischer Zählung der Dritte. Etymologie. Der Name „Dienstag“, mittelniederdeutsch "dingesdach", geht auf den mit dem latinisierten Namen "Mars Thingsus" belegten nordisch-germanischen Gott Tyr, Beschützer des Things, zurück und ist eine Lehnübertragung von lat. "Dies Martis" „Tag des Mars“. Das Wort hat sich vom Niederrhein her im deutschen Sprachgebiet ausgebreitet und die ursprüngliche Form "Ziestag" verdrängt. Diese ist lediglich im alemannischen "Zischtig/Zischdi" noch erhalten und kommt über althochdeutsch "ziestag/ziostag" („Tag des Ziu“) vom selben Gott Tyr in der althochdeutschen Schreibform "Ziu". Diese Schreibweise wiederum entspricht dem englischen "Tuesday" (altenglisch "tiw" „Ziu“, daher "tiwesdæg" „Dienstag“). Die nordgermanische Variante "Tyr" taucht zum Beispiel in dänisch "tirsdag" und norwegisch "tirsdag/tysdag" (auf Bokmål/ Nynorsk) auf und geht auf das altnordische "tysdagr" zurück, vermutlich unter Vermittlung gotischer Missionare, ähnlich wie bei Samstag und "Pfinztag" (Donnerstag). Im Schwäbischen, vor allem im Gebiet der Diözese Augsburg, wurde der Dienstag auch als "Aftermontag" (Nachmontag) bezeichnet. Das bairische Mundartwort "Ertag" ("Erchtag", "Irda") geht wohl über gotische Vermittlung auf den griechischen Tagesnamen "Ἄρεως ἡμέρα (Áreôs hêméra)" („Tag des Ares“ = Mars) zurück, wobei bei den durch Wulfila zum Arianismus bekehrten Goten der Name des Arius bei der Verbreitung mitgespielt haben dürfte. Symbol. Das Zeichen für den Dienstag ist ♂, das unter anderem für den Mann und den Planeten Mars steht. Deutsches Technikmuseum Berlin. Ehemaliger Anhalter Güterbahnhof (Deutsches Technikmuseum Berlin) Das Deutsche Technikmuseum Berlin (DTMB) wurde 1983 zunächst unter dem Namen "Museum für Verkehr und Technik" eröffnet, den es bis 1996 trug. Das Museum sieht sich als Nachfolgeinstitution der über 100 technischen Sammlungen, die es in den vergangenen Jahrhunderten in Berlin gegeben hat, zuletzt der Sammlung aus dem ehemaligen Verkehrs- und Baumuseum (im Hamburger Bahnhof), hat mit über 25.000 m² eine große Ausstellungsfläche auf dem Gelände einer Eisfabrikation und des Anhalter Güter- und Postbahnhofs und wird von 600 000 Menschen jährlich besucht. Schwerpunkte sind vor allem der Wasserstraßen- und Schienenverkehr in/um Berlin und in Deutschland, die Bier-, Schmuckproduktion und Energiegewinnung. Geschichte des Museums. Das "Deutsche Technikmuseum Berlin" wurde 1982 gegründet und 1983 eröffnet. Es führt die Tradition namhafter Technikmuseen fort, die bis zum Zweiten Weltkrieg in Berlin beheimatet waren. In der Gründungsphase ist es nicht gelungen, das Verkehrs- und Baumuseum (VBM) im Hamburger Bahnhof als Standort für das DTMB zu erhalten. Die Objekte des VBM wurden 1984 nach Übernahme der S-Bahn in West-Berlin durch die BVG auf das Verkehrsmuseum Dresden und das DTMB verteilt. Das Museum liegt in der Nähe des Landwehrkanals in der Trebbiner Straße auf einem ehemaligen Gewerbe- und Bahngelände von 1874, auf dem sich das Bahnbetriebswerk des Anhalter Bahnhofs mit zwei Ringlokschuppen und die Verwaltungsgebäude der Markt- und Kühlhallengesellschaft befinden, neben dem ehemaligen Postbahnhof Luckenwalder Straße unweit des U-Bahnhofs Gleisdreieck. Dieses historische Gebäudeensemble ist zugleich das wertvollste Objekt des Museums, das auch eine Pferdetreppe und eine „Alt-Berliner“ Kneipe beherbergt. Ein 1996 begonnener Neubau wurde dem Museum am 21. März 2001 übergeben, die offizielle Einweihung erfolgte am 14. Dezember 2003. Der für den Neubau charakteristische Rosinenbomber vom Typ Douglas C-47 B Skytrain wurde am 8. Mai 1999 angebracht. Nach Abschluss der ersten Ausbauphasen mit der Errichtung des Neubaus verfügt das Haus seit dem 16. April 2005 über 25.000 m² Ausstellungsfläche. Zum 1. September 1996 erfolgte die Umbenennung in "Deutsches Technikmuseum Berlin". Im Jahr 2002 wurde die "Stiftung Deutsches Technikmuseum Berlin" gegründet, die das DTMB mit den Außenstellen Archenhold-Sternwarte in Alt-Treptow, Zeiss-Großplanetarium in Prenzlauer Berg, Zucker-Museum im Wedding und Science Center "Spectrum", das ebenfalls auf dem ehemaligen Betriebsgelände des Anhalter Güterbahnhofs liegt, verbindet. Das Museum steht seit dem Jahr 2000 unter der stellvertretenden Leitung von Dirk Böndel, im Jahr 2003 wurde er vom Stiftungsrat und der Senatsverwaltung für Kultur zum amtierenden Direktor berufen. Seit 2011 ist das Technikmuseum gemeinsam mit der Hochschule für Technik und Wirtschaft Berlin (HTW) ein Träger des Berliner Zentrums für Industriekultur (BZI). Das BZI beschäftigt sich mit dem industriellen Erbe in Berlin und arbeitet mithilfe verschiedener Formate daran die Industriegeschichte Berlins einer breiteren Öffentlichkeit zugänglich zu machen. Im Jahr 2013 feierte das Technikmuseum das 30-jährige Gründungsjubiläum mit zahlreichen Veranstaltungen. Luft- und Raumfahrt. Die Luft- und Raumfahrtausstellung dokumentiert die Entwicklung auf diesen Gebieten während des 20. Jahrhunderts. Zu den zahlreichen Exponaten zählen die einzige erhaltene Jeannin-Stahltaube, Baujahr 1914, aus den Anfängen der militärischen Luftfahrt. Zentrales Objekt dieser Ausstellung ist das Verkehrsflugzeug Junkers Ju 52, besser bekannt als "Tante Ju", das den Namen „Hans Kirschstein“ trägt. Seltene Erinnerungsstücke eines Flugkapitäns der Deutschen Lufthansa und eines bekannten Sportfliegers beleuchten ihren fliegerischen Alltag. Das zweisitzige kunstflugtaugliche Reise- und Schulflugzeug Arado Ar 79 zeigt den Stand der Entwicklung des Zivilflugzeugbaus bei den Arado Flugzeugwerken vor dem Zweiten Weltkrieg. Der Ausstellungsbereich zum Zweiten Weltkrieg thematisiert Aufbau und Untergang der deutschen Luftwaffe und zeigt, wie die Nationalsozialisten die Faszination des Fliegens für ihre Zwecke missbrauchten. Das Wrack eines Junkers Ju 87 Sturzkampfbombers lässt das Zerstörungspotential des Flugzeugs als Waffe erahnen. Seit 2003 lässt das Museum eine Focke-Wulf Fw 200 wiederaufbauen, der Typ, ab 1937 zivil und militärisch genutzt, soll ab 2025 ausgestellt werden. Die Medienstation "Mensch und Krieg" zeigt anhand von sechs Biografien die Lebenswege ehemaliger Luftwaffenangehöriger. Seit März 2008 befindet sich eine VFW-614 als Beispiel für eine deutsche Flugzeugentwicklung nach dem Zweiten Weltkrieg im Besitz des Technikmuseums. Eine Ausstellungseinheit zur Flugzeugtechnik veranschaulicht die Entwicklung und Funktionsweise von Einzelkomponenten wie Motor, Fahrwerk oder Propeller. Ein "gläsernes Flugzeug", eine partiell geöffnete Arado Ar 96 aus dem Jahr 1943, gewährt einen Einblick in die komplexe Technik eines Luftfahrzeugs. Im Mittelpunkt des Raumfahrtbereichs steht der deutsche Beitrag zur Entwicklung der Raketentechnologie. Die Darstellung beginnt mit den Phantasien und Experimenten der frühen Enthusiasten und endet mit der Vereinnahmung dieser Technologie für die Rüstungspläne der Nationalsozialisten. Zeichnungen von Augenzeugen dokumentieren die menschenverachtenden Arbeitsbedingungen der KZ-Häftlinge, die in der Raketenproduktion in Dora-Mittelbau eingesetzt wurden. Holger Steinle war von 1985 bis zu seiner Pensionierung 2013 Leiter der Luft- und Raumfahrtabteilung. Schifffahrt. Schiffsmodelle zeigen die Entwicklung des Schiffbaus Die Schifffahrtsgeschichte in den letzten 10.000 Jahren wird mit rund 1500 Exponaten dokumentiert. Während im Erdgeschoss die Binnenschifffahrt mit mehreren Großobjekten wie dem märkischen Schlepper Kurt Heinz von 1901 oder dem 33 Meter langen Kaffenkahn von 1840 präsentiert wird, wird im zweiten Obergeschoss die internationale Hochseeschifffahrt gezeigt. Im Galeriegeschoss sind die Sportschifffahrt, der Modellbau und wissenschaftliche Versuche ausgestellt, die das "Deutsche Technikmuseum Berlin" in einem interdisziplinären Forschungsprojekt in Zusammenarbeit mit dem Institut für Schiffs- und Meerestechnik sowie der Versuchsanstalt für Wasserbau und Schiffbau an der Technischen Universität Berlin durchführte. Schienenverkehr. Die Eisenbahn-Abteilung des Museums wurde bereits 1987/1988 als erster Bereich im endgültigen Zustand ausgebaut und weitgehend eingerichtet. Standort der Eisenbahn-Abteilung ist die auf dem Museumsgelände gelegene historische Lokschuppenanlage des ehemaligen Betriebswerks Anhalter Bahnhof von 1874, in der auf 33 Gleisen insgesamt 40 Schienenfahrzeuge im Original zu sehen sind. Dazu kommt eine Fülle von Modellen und kleineren Objekten. Einige Exponate wurden auch im verfallenen Zustand belassen, um die Gebrauchsspuren und den Verschleiß zu verdeutlichen. Die Ausstellung ist chronologisch in 33 "Stationen der Eisenbahngeschichte" gegliedert (die beiden Lokschuppen besitzen insgesamt 33 Gleise). Historisch bedeutsamen Jahreszahlen folgend führt die Ausstellung von den Anfängen der Eisenbahn bis zum heutigen Tag. Der erste Lokschuppen enthält diese Stationen von 1800 bis 1914, der zweite Lokschuppen zeigt die Stationen von 1918 bis 1980. a> befindet sich hinter den Gebäuden rechts (dem Standort des Modells). Die Dauerausstellung "„Judendeportationen“ mit der Deutschen Reichsbahn 1941–1945" präsentiert seit 1988 zwölf Berliner Schicksale. Im historischen Lokschuppen befindet sich außerdem eine Modelleisenbahn, die die Gleisanlagen und Gebäude des Anhalter Personenbahnhofs, Güterbahnhofs und des Bahnbetriebswerks sowie einige umliegende Gebäude im Zustand von 1938 im Maßstab 1:87 (Modellgröße H0) zeigt. Interessant ist dabei insbesondere der Vergleich zwischen dem Modell und dem heutigen Zustand des Originals. Neben dieser H0-Modelleisenbahnanlage befindet sich eine Anlage in der Modellgröße Spur 0, die mit historischem Märklin-Material von einem Team des "Märklin Insider Stammtischs Berlin/Brandenburg" (MIST1) aufgebaut und betreut wird. Ein Abschnitt von drei Gleisen im ersten Lokschuppen erinnert daran, dass das Gelände 30 Jahre lang brachlag. Hier wachsen die sonst im Mittelmeerraum übliche Steinweichsel und der aus Sibirien stammende Staudenknöterich hat sich ebenso verbreitet wie die beiden Heilkräuter Nachtkerze und Frauenmantel. Produktionstechniken. In dieser Abteilung werden Beispiele manueller und industrieller Produktionstechniken aus dem 19. und 20. Jahrhundert gezeigt. Dazu gehört eine Kofferproduktion als Beispiel für die Herstellung eines alltäglichen Produkts in den 1920er Jahren. In der Ausstellung zur manufakturellen Schmuckproduktion werden Produktionstechniken wie Prägen-Pressen-Stanzen, Ziehen-Walzen, Gießen, Schleifen-Polieren, Guillochieren-Gravieren, die Kettenherstellung und die handwerklichen Techniken des Goldschmiedeberufs vorgestellt, mit denen Schmuckstücke wie Armreife, Ringe, Broschen, Creolen, Manschettenknöpfe, Serviettenringe und vieles mehr hergestellt wurden. Es finden Vorführungen an historischen Maschinen wie einem Fallhammer zum Hohlprägen, der Schleudergussanlage zum Gießen von unterschiedlichen Schmuckteilen und der Guillochiermaschine zum Dekorieren von glatten Oberflächen mit geometrischen Mustern statt. In der Eingangshalle befindet sich eine historische Werkstatt mit typischen transmissionsangetriebenen Werkzeugmaschinen aus dem Bereich der Metallbearbeitung, die im Zuge der technisch-industriellen Entwicklung im 19. Jahrhundert zum Standard wurden und in kleineren Betrieben bis in die 1970er Jahre Verwendung fanden. Straßen- und Kommunalverkehr. Historische Automobile und Berliner Linienbusse im Depot des Museums Die Ausstellungen im Bereich Straßenverkehr zeigen die Entwicklungsgeschichte des Automobils anhand herausragender Konstruktionen und großer, heute oft vergessener Automobilfirmen, deren Konstruktionen als Dreirad-, Kleinwagen-, Stromlinien-, Elektro- oder Amphibienfahrzeuge oft in „genialen Sackgassen“ endeten. Obwohl die Abteilung Straßenverkehr eine der umfangreichsten Sammlungen des Deutschen Technikmuseums Berlin umfasst, konnte das Gros aller Exponate der Öffentlichkeit in Ermangelung geeigneter Ausstellungsräume bisher nur unregelmäßig gezeigt werden. Ein repräsentativer Teil der Sammlung mit fast 70 Automobilen, Motorrädern, Kutschen und Leichenwagen aus zwei Jahrhunderten kann in einem Schaudepot im ehemaligen Anhalter Güterbahnhof besichtigt werden. Zahlreiche Automobile und Zweiräder stehen überdies als Dauerleihgabe in ausländischen Partnermuseen. Zum Bestand der Abteilung Straßenverkehr gehören unter anderem 20 Pferdekutschen und -schlitten, rund 400 Fahrräder (vom Drais'schen Laufrad bis zum Klappfahrrad), über 200 Motorräder (darunter die aus über 80 Motorrädern bestehende Zündapp-Werkssammlung, die zusammen mit dem Zündapp-Werksarchiv nach dem Zündapp-Konkurs 1984 an das Technikmuseum ging; die Sammlung ist jedoch nicht für die Öffentlichkeit zugänglich, da sich die Fahrzeuge gegen Korrosion geschützt in Containern in einer Halle in Reinickendorf befinden) sowie knapp 200 Kraftfahrzeuge (vom De Dion-Dampfwagen, Baujahr 1883, bis zum NSU Ro 80 mit Kreiskolbenmotor, Baujahr 1972). Als Dauerleihgabe befindet sich eine Solex-Vergaser-Sammlung in der Obhut des Museums. Das DTMB beabsichtigt, eine weitere Ausstellung zum Thema Kommunalverkehr einzurichten. Das Museum besitzt bereits eine Vielzahl entsprechender Exponate wie zum Beispiel historische Straßenbahnen, Oberleitungsbusse, Omnibusse und sonstige Fahrzeuge, für die der Platz in den bisherigen Räumlichkeiten jedoch ebenfalls nicht ausreicht. Die nicht ausgestellten Exponate sind zurzeit in einem Depot (ehemalige Schnelltriebwagenhalle der Deutschen Reichsbahn) etwas abseits des Museumsgeländes gelagert. Das Depot ist jährlich an den Septembersonntagen zu den Tagen der Offenen Tür für die Öffentlichkeit zugänglich. Textiltechnik. Die Ausstellung Textiltechnik zeigt Textilien verschiedener Art und ihre Herstellung, wobei den Maschinen die damit hergestellten Erzeugnisse gegenübergestellt werden. Foto- und Diapräsentationen zeigen die Arbeit in den dokumentierten Betrieben. Die weltweite Arbeitsteilung mit ihrer Verlagerung der Industriearbeit in den Süden wird am Beispiel von Indien thematisiert. Dem gegenüber steht die Entwicklung von Hochtechnologien im Norden. Weltweite Zusammenhänge werden anhand des Einsatzes der Informationstechnologie aufgezeigt, die in der Textiltechnik schon seit 1805 eine herausragende Rolle spielt. Ein Bandwebstuhl ist das zentrale Exponat zur Verwandtschaft zwischen Textil- und Datentechnik. Die Geschichte der Filzherstellung, Hutmacherei und Seidenblumenmanufaktur wird ebenfalls dokumentiert. In das Thema Filz ist am Beispiel eines Teils einer Jurte das Thema "Textiles Bauen" integriert. Rechen- und Automationstechnik, Nachrichtentechnik. Das Lebenswerk Konrad Zuses ist Thema einer Ausstellung des Museums zur Rechen- und Informationstechnik. Zu sehen sind fast alle von ihm gebauten Rechner – von der Z1 bis zur Z31 mit der Vielfalt ihrer Zusatzgeräte und Anwendungen – im Zusammenhang mit der Firmen- und Familiengeschichte sowie das Originalbuch mit der Programmiersprache Plankalkül zu sehen. Gezeigt wird auch die andere Seite des Technikers: seine abstrakten und expressiven Gemälde. Die Ausstellung zur Geschichte der Nachrichtentechnik gibt mit Themenschwerpunkten einen Querschnitt durch das Sammlungsgebiet. Sie zeigt unter anderem die Anfänge des deutschen Rundfunks in Berlin, einen Nachbau der ersten von Manfred von Ardenne 1931 präsentierten elektronischen Fernsehanlage der Welt sowie das einzige funktionsfähige Schwarzweiß-Fernsehstudio der Welt von 1958. Schreib- und Drucktechnik, Papiertechnik. Die Ausstellung zur Geschichte der Drucktechnik konzentriert sich auf das Verfahren des Hochdrucks. Besucher können unter Aufsicht der Vorführer auf einer hölzernen Presse aus dem 17. Jahrhundert oder auf gusseisernen Pressen aus dem 19. Jahrhundert drucken. Auf der Linotype können sie Zeilen für eine Visitenkarte setzen und diese auf einer Boston-Tiegeldruckpresse anschließend drucken. Der Bereich Bürotechnik zeigt eine Auswahl aus der umfangreichen Sammlung von Büromaschinen; einen Teil davon können Besucher selbst ausprobieren. Neben der Abteilung Drucktechnik befindet sich die Abteilung Papiertechnik mit Vorführungen zur asiatischen und europäischen Papiermacherei. Im Mittelpunkt der Ausstellung steht das handwerkliche Papierschöpfen. Die Besucher können sich in Gruppen nach vorheriger Anmeldung selbst in der „weißen Kunst“ des Papierschöpfens versuchen. Energietechnik. In der Eingangshalle des Museums befindet sich eine alte Dampfmaschine, die ein ganzes Ensemble von Werkzeugmaschinen antreibt. Sie steht für den Anfang einer eigenständigen Energietechnik. Die fortschreitende Teilung der Industriearbeit zeigen weitere Objekte dieser Abteilung. Am klarsten wird jedoch diese Tendenz in der Elektrotechnik, deren Anfänge zunächst auf zwei Gleisen im "Lokschuppen 1a" dargestellt sind, bis eine ausführliche Ausstellung in dem späteren Hauptgebäude an der Möckernstraße möglich wird. In der jetzigen Präsentation werden einige Aspekte im Spannungsfeld "Kraft – Wärme – Strom" unter historischen und didaktischen Gesichtspunkten dargestellt; auch gegenwärtig diskutierte Alternativen der Stromerzeugung werden einbezogen. Die Anwendung des elektrischen Stroms in Form von Lichtstrom wird am Beispiel der Bogenlampen-Technik demonstriert. Ein weiteres Thema ist die Formgestaltung von Bogenlampen bis hin zur "Großen Sparbogenlampe" der AEG, einem bedeutenden Beispiel des Industriedesigns von Peter Behrens. Von diesem Bereich führt eine Tür in das Freigelände des Museums, auf dem zwei historische Windmühlen – eine Holländer- und eine Bockwindmühle – die vorindustrielle Energieumsetzung demonstrieren. Trotz ihrer ausgeklügelten Mechanik bilden sie einen Kontrast zur industriellen Maschinentechnik: Die Naturkraft Wind und die handwerkliche Bauweise prägen die Konstruktion. Als modernes Gegenstück dazu setzt eine Solaranlage mit Hilfe des Sonnenlichts ein Wasserspiel in Gang. Verkehrs- und Ingenieurbau. Das Museum besitzt die außerordentliche Sammlung zum Wasserbau des ehemaligen Verkehrs- und Baumuseums im Hamburger Bahnhof, die viele funktionsfähige, sehr großmaßstäbliche und technisch hochwertig gearbeitete Modelle sowie eine große Zahl von Plänen, Gemälden und Landkarten umfasst. Obwohl nur ein kleiner Teil davon gezeigt werden kann, vermittelt die Ausstellung bereits jetzt ein intensives Bild der verschiedenen Brückenformen, Wasserregulierungs- und -hebebauten sowie Hafenanlagen und gibt einen Eindruck von der Ingenieurbaukunst des Kanal-, Schleusen-, Straßen- und Brückenbaus. Chemie und Pharmazie. Die Dauerausstellung „Pillen und Pipetten“ stellt nach zwei Jahren Vorbereitung seit Juni 2010 historische und gegenwärtige Aspekte der chemischen und pharmazeutischen Industrie dar. Auf 400 m² vermittelt sie einen Einblick in die Branche am Beispiel des früheren Chemie- und Pharmakonzerns Schering. Erstmals wird damit in Deutschland dieser bedeutende Industriezweig in einem großen Museum präsentiert. Kurator und Leiter des Fachgebietes ist Volker Koesling. Die Besucher erwartet eine inhaltlich und gestalterisch originelle und anspruchsvolle Ausstellung, die allgemein verständlich aufbereitet ist. Gezeigt werden unter anderem Arbeitstechniken eines Labors, Arbeitsmittel von der Glaspipette bis zum modernen Pipettierroboter, die chemische Produktvielfalt, die Grundlagen der pharmazeutischen Industrie und die Probleme der Arzneimittelsicherheit. Man kann überdies gleichsam zum Pyrotechniker werden und virtuell ein Feuerwerk zusammenbauen und zünden. Ein Themenschwerpunkt ist die Entdeckung der Sexualhormone und deren Anwendung als Verhütungsmittel in der von Schering entwickelten „Pille“ mit den Folgen für Sexualität und Familienplanung. Zur Ausstellung erschien der Begleitband "Pillen und Pipetten: Wie Chemie und Pharmazie unser Leben bestimmen". Er ergänzt das im Museum vermittelte Wissen mit zahlreichen Fachbeiträgen. Wissenschaftler präsentieren darin den neuesten Stand der Forschung. Wissenschaftliche Instrumente. Seit Eröffnung der Dauerausstellung "Schifffahrt" im Dezember 2003 ist der Bereich der Navigationsinstrumente wieder in erweiterter Form zu sehen. Andere Bereiche wie Mikroskopie, Spektroskopie, Zeitmessung oder die umfangreiche Sammlung von Waagen und Gewichten lagern zunächst im Depot. Sie sind der Grundstock für eine geplante größere Präsentation im Zuge des weiteren Museumsausbaus. Geschichte der Filmtechnik. Dieser Bereich des Museums präsentiert Geschichte der Filmtechnik von der Laterna magica bis zum modernen Filmprojektor, vom mittelalterlichen Guckkasten über die optischen Spielereien des 19. Jahrhunderts wie die "Wundertrommel", den "Tätigkeits-" oder den "Schnellseher" bis zum Kino- und Videofilm der 1980er Jahre. Zu den mehrere hundert Objekten gehören das "Ochsenauge" von 1750, Guckkästen und "Finstere Kammern", Kine-Messter-Kameras und ein Panzerkino aus der Frühzeit der deutschen Filmindustrie, professionelle Aufnahmekameras aus allen Epochen, Amateuraufnahmegeräte von 1898 bis zu modernen Videokameras, ein Filmset-Diorama mit Originalgeräten und ein Schneideraum. Viele Geräte aus der Vor- und Kinogeschichte und funktionstüchtige Nachbauten früher Filmpioniere können die Besucherinnen und Besucher selbst ausprobieren. Historische Filmausschnitte wie die Kopie eines Original-Edison-Films über die Hinrichtung von Maria Stuart, Filme über die Berliner Pioniere Max Skladanowsky und Oskar Messter sowie frühe Amateurfilme können angesehen werden. Historische Brauerei. Im Museumspark, in einem ehemaligen Lagerhaus der Nürnberger Tucher Bräu AG, wurde eine historische Brauerei eingerichtet, die den Übergang vom handwerklichen zum industriellen Bierbrauen zeigt. Der Schwerpunkt dieser Ausstellung liegt in der Erläuterung des klassischen Bierherstellungsprozesses, mit den technischen Ausrüstungen aus der Anfangszeit des 20. Jahrhunderts. Mittelpunkt der Brauerei ist das Sudhaus mit seinen Braugefäßen aus dem Jahr 1909. Es ist über historische, gusseiserne Treppen zu erreichen und stellt mit den kupfernen Behältern, seinen glänzenden Armaturen, Handrädern und Rohrleitungen ein besonderes technisches Denkmal dar. Museumspark. Das Museumsparksgelände auf dem Gelände des ehemaligen Bahnbetriebswerk des Anhalter Bahnhofs beherbergt eine in Berlin einzigartige Vielfalt an Pflanzen. Im Zusammenhang mit den bereits erfolgten und noch durchzuführenden Baumaßnahmen sorgen landschaftspflegerische Begleitmaßnahmen für den Schutz vorhandener Lebensräume von Pflanzen und Tieren, für schonende Nutzung der Bahnbrachen als Außenanlage des Museums und für die Verknüpfung des Museums mit einem geplanten Stadtteilpark. Der Museumspark ragt in den am 2. September 2011 eröffneten Park am Gleisdreieck hinein. Historisches Archiv und Bibliothek. Das Historische Archiv, die Bibliothek und die Bildstelle sind Serviceeinrichtungen für Museumsbesucher sowie für die Mitarbeiter des Hauses. In den reichhaltigen Beständen zur Technik- und Industriegeschichte mit dem Schwerpunkt Berlin finden sich unter anderem das AEG-, Borsig- oder Zündapp-Archiv, das Stiasny-, Feldhaus-Archiv sowie die VDI- und Kammer der Technik (KdT)-Bibliotheken sowie Teile der Bibliothek des ehemaligen Museums für Meereskunde. Internet. Seit September 2015 gibt es eine neue Dauerausstellung "Das Netz". Die Anschlussbahn. Das Museum verfügt im Bereich des ehemaligen Anhalter Güterbahnhofs über eine eigene Anschlussbahn mit einer Länge von rund 1,8 Kilometern, die direkt an das Schienennetz der Deutschen Bahn nördlich der Dudenstraße angebunden ist. Über diesen Anschluss wird das Museum beispielsweise von historischen Dampfzügen angefahren, und es kann rollfähiges Museumsmaterial transportiert werden. Die Anschlussbahn verfügt unter anderem über einen funktionstüchtigen Wasserkran, eine Schlackegrube und die beiden Drehscheiben mit einem Durchmesser von je 23 Metern. Zwischen den beiden Haltepunkten "Hauptgebäude" und "Depot" finden zu besonderen Anlässen Pendelfahrten mit Personenbeförderung durch den im Jahr 2011 eröffneten Park am Gleisdreieck statt. Der Förderverein. Der Förderverein wurde 1960 von Berliner Bürgern sowie Vertretern verkehrlicher und technischer Einrichtungen als "Gesellschaft für die Wiedererrichtung eines Verkehrsmuseums in Berlin e. V." gegründet, da die entsprechenden Museen durch die Kriegsfolgen nicht verfügbar waren. Nachdem im Mai 1964 in den Räumen der Urania eine Schausammlung eröffnet worden war, erhielt der Verein einen neuen Namen: "Verkehrsmuseum Berlin e. V." Im Jahr 1970 wurde dieser Verein vom Senat von Berlin mit der Projektleitung für die Errichtung eines staatlichen Museums für Verkehr und Technik beauftragt. Nach der Berufung des Direktors, Günther Gottmann, im Jahr 1980 wurde die Gründung des Museums am 15. Mai 1982 gefeiert. Der Verein nennt sich heute "Freunde und Förderer des Deutschen Technikmuseums Berlin e. V. (FDTM)". Er unterstützt das "Deutsche Technikmuseum Berlin" durch Erwerbungen und vielseitige Aktivitäten museumsbezogener Art, z. B. durch den wöchentlich regelmäßigen einmaligen Fahrbetrieb des Bahnmodells „Anhalter Bahnhof“ (Lokschuppen 2) in der Nenngröße H0. Einzelnachweise. De Fundamentale Wechselwirkung. Eine fundamentale Wechselwirkung ist einer der grundlegend verschiedenen Wege, auf denen sich physikalische Objekte (Körper, Felder, Teilchen, Systeme) gegenseitig beeinflussen können. Es gibt die vier fundamentalen Wechselwirkungen Gravitation, Elektromagnetismus, schwache Wechselwirkung, starke Wechselwirkung. Sie werden auch als die vier Grundkräfte der Physik bezeichnet. Einzeln oder in Kombination sind die vier fundamentalen Wechselwirkungen verantwortlich für sämtliche bekannten physikalischen Prozesse, seien es Prozesse zwischen Elementarteilchen oder zwischen Materie und Feldern in makroskopischen Ausmaßen, sei es auf der Erde, in Sternen oder im Weltraum. Weitere Arten von Wechselwirkungen scheinen zur Beschreibung der Natur nicht erforderlich; gelegentlich aufgestellte Hypothesen über eine „fünfte Kraft“, die zur Erklärung bestimmter Beobachtungen nötig wäre, konnten nicht bestätigt werden. Andererseits ist es bisher auch nicht gelungen, die Vielfalt der beobachteten Vorgänge mit weniger als vier fundamentalen Wechselwirkungen zu erklären. Allerdings ist anzumerken, dass dieses einfache Bild, das etwa um die Mitte des 20. Jahrhunderts herausgearbeitet wurde, nach neueren Entwicklungen zu modifizieren ist: Zwei der vier Wechselwirkungen (die elektromagnetische und die schwache Wechselwirkung) werden im heutigen Standardmodell der Elementarteilchenphysik aus einer gemeinsamen Grundlage hergeleitet, die den Namen elektroschwache Wechselwirkung trägt. Daher wird zuweilen von insgesamt nur drei fundamentalen Wechselwirkungen gesprochen. Andererseits enthält das Standardmodell das neuartige Higgs-Feld, das durch eine besondere Art der Wechselwirkung den zunächst als masselos angesetzten Fermionen, z. B. den Elektronen, ihre Masse verleiht. Diese Wechselwirkung wird jedoch gewöhnlich nicht als fünfte fundamentale Wechselwirkung bezeichnet. Gravitation. Die Gravitation, auch "Schwerkraft" genannt, wurde im 17. Jahrhundert von Isaac Newton als Naturkraft identifiziert und mathematisch beschrieben. Sie geht von jedem Körper mit Masse aus und wirkt anziehend auf alle anderen Massen. Sie nimmt mit der Entfernung ab, lässt sich nicht abschirmen und hat eine unendliche Reichweite. Die von der Erde ausgehende Gravitation macht den Hauptanteil der Gewichtskraft aus, die unsere Lebenswelt entscheidend beeinflusst. Die Gravitation ist die vorherrschende Wechselwirkung zwischen den Planeten und der Sonne und somit die Ursache für die Gestalt des Sonnensystems. Sie hat maßgeblichen Einfluss auf den Zustand und die Entwicklung der Sterne, dominiert aber auch die großräumigen Strukturen des Universums. Die Gravitationskraft wirkt auch zwischen je zwei Gegenständen von der Größe, mit der wir täglich umgehen, ist dann aber so schwach, dass sie im Alltag praktisch vernachlässigbar ist und erst Ende des 18. Jahrhunderts von Henry Cavendish experimentell nachgewiesen werden konnte. In Weiterentwicklung des newtonschen Gravitationsgesetzes ist die heute gültige Gravitationstheorie die allgemeine Relativitätstheorie, die Anfang des 20. Jahrhunderts von Albert Einstein aufgestellt wurde. Eine zugehörige Quantenfeldtheorie wurde bisher noch nicht gefunden. Elektromagnetische Wechselwirkung. Die elektromagnetische Wechselwirkung wurde ab Mitte des 19. Jahrhunderts als eine Grundkraft der Natur identifiziert, nachdem James Clerk Maxwell die nach ihm benannten Maxwell-Gleichungen aufgestellt hatte, mit denen die Phänomene der Elektrizität, des Magnetismus und der Optik gleichermaßen beschrieben werden können. Die elektromagnetische Wechselwirkung geht von elektrischen Ladungen, magnetischen Dipolen und elektromagnetischen Feldern aus. Die Kräfte, die sie auf magnetische oder geladene Körper ausübt, können vom Menschen direkt wahrgenommen werden. Wie die Gravitation hat die elektromagnetische Wechselwirkung eine unendliche Reichweite. Sie wirkt aber je nach Vorzeichen der elektrischen Ladung anziehend oder abstoßend und lässt sich deshalb im Gegensatz zur Gravitation abschirmen oder gar eliminieren (positive und negative Ladungen kompensieren sich üblicherweise fast exakt). Die elektromagnetische Wechselwirkung ist verantwortlich für alltägliche Phänomene wie Licht, Elektrizität, Magnetismus, chemische Bindung, also auch für die chemischen Reaktionen und für die unterschiedlichen Materialeigenschaften in Natur, Haus und Technik. Die quantenfeldtheoretische Weiterentwicklung der klassischen Maxwell-Gleichungen führte Mitte des 20. Jahrhunderts zur Quantenelektrodynamik. Darin ist das Photon das für "alle" elektromagnetischen Effekte verantwortliche Austauschteilchen. Schwache Wechselwirkung. Die auch als "schwache Kernkraft" bezeichnete schwache Wechselwirkung wurde 1934 von Enrico Fermi als die neue fundamentale Wechselwirkung entdeckt und beschrieben, die die Betaradioaktivität verursacht. Sie hat die extrem kurze Reichweite von etwa 10−18 m und erscheint deshalb äußerst schwach im Vergleich zur elektromagnetischen Wechselwirkung. Sie wirkt zwischen allen Teilchen vom Typ Lepton und Quarks, wobei sie als einzige der Wechselwirkungen Umwandlungen von einer Teilchenart in eine andere bewirken kann (z. B. Elektron wird Neutrino, up-Quark wird down-Quark, aber nicht zwischen Leptonen und Quarks). Die schwache Wechselwirkung ist auch die einzige, die die Symmetrie der Naturvorgänge gegenüber einer Spiegelung des Raums, einer Umkehrung der Ladungen oder der Zeitrichtung verletzt (s. Paritätsverletzung, Ladungskonjugation, Zeitumkehrinvarianz). Die schwache Wechselwirkung kann vom Menschen nicht direkt wahrgenommen werden, bewirkt aber z. B. unverzichtbare Zwischenschritte bei der Kernfusion von Wasserstoff zu Helium, aus der die Sonne ihre Strahlungsenergie bezieht. (Die Energie selbst wird durch die Starke Wechselwirkung freigesetzt.) Die quantenfeldtheoretische Beschreibung der schwachen Wechselwirkung beruht auf der Zusammenfassung mit der elektromagnetischen zur elektroschwachen Wechselwirkung, die ein Grundpfeiler des Standardmodells der Elementarteilchenphysik ist. Ihre Austauschteilchen sind das Z0, W+ und W−, die durch ihre große Masse die kurze Reichweite bewirken. Im Zusammenhang mit der Erklärung der Masse dieser Austauschteilchen sagt die Theorie ein weiteres Teilchen voraus, das Higgs-Boson. Im Juli 2012 hat das Forschungszentrum CERN den Nachweis eines Teilchens am Large Hadron Collider bekanntgegeben, bei dem es sich mit großer Wahrscheinlichkeit um das Higgs-Boson handelt. Starke Wechselwirkung. Die starke Wechselwirkung, auch "starke Kernkraft" genannt, bindet die Quarks aneinander. Sie bewirkt damit den inneren Zusammenhalt der Hadronen, z. B. des Protons und Neutrons. Sie ist darüber hinaus Ursache der gegenseitigen Anziehungskräfte kurzer Reichweite, die zwischen den Hadronen wirken. Diese werden im engeren Sinn als Kernkräfte bezeichnet, denn sie sind verantwortlich für den Aufbau von Atomkernen aus Protonen und Neutronen. Damit bestimmt die starke Wechselwirkung die Bindungsenergie der Atomkerne und die Energieumsätze bei Kernreaktionen. Diese sind typischerweise millionenfach größer als in der Chemie, wo sie von der elektromagnetischen Wechselwirkung zwischen den Atomhüllen herrühren. Als stärkste Grundkraft der Natur wurde die starke Wechselwirkung seit den 1920er Jahren postuliert, konnte aber erst in den 1970er Jahren nach der Entdeckung, dass alle Hadronen aus zwei oder drei Quarks zusammengesetzt sind, zutreffend beschrieben werden. Die Quantenfeldtheorie der starken Wechselwirkung ist die Quantenchromodynamik (QCD). Sie stellt die Wechselwirkung zwischen zwei Quarks durch den Austausch eines Gluons dar. Die Teilchen tragen einen eigenen Typ Ladung, die im Unterschied zur elektrischen Ladung in drei Varianten auftritt und als Farbladung bezeichnet wird. Charakteristisch für die starke Wechselwirkung ist, dass die elementaren Teilchen, bei denen sie wirkt, nicht isoliert auftreten können. Versucht man z. B. Quarks voneinander zu trennen, muss soviel Energie aufgewendet werden, dass vermöge der Äquivalenz von Masse und Energie weitere Quarks entstehen und sich mit den anderen zu vollständigen Hadronen verbinden. Dieses als Confinement (Einschließung) bezeichnete Phänomen hat zur Folge, dass die Reichweite der starken Wechselwirkung effektiv nicht über den Radius eines Hadrons (ca. 10−15 m) hinausgeht. Die genauen Mechanismen der starken Wechselwirkung sind Gegenstand aktueller Forschung. Tabellarische Auflistung. Hinweis: "Die typische relative Stärke ist so angegeben, wie sie bei Prozessen im Energiebereich bis zu einigen GeV beobachtet wird. Da die Werte stark von der Energie abhängen, ist die schwache Wechselwirkung in einigen Quellen auch mit der relativen Stärke 10−13 angegeben, die Gravitation mit 10−38 oder 10−39. Die wesentliche Feststellung ist die Winzigkeit der Stärke der Gravitation sowie der kleine Wert der schwachen Wechselwirkung bei niedrigen Energien." Hypothetische weitere Kräfte. Obwohl bisher noch keine Nachweise geliefert werden konnten, wird in der theoretischen Physik vielfach über weitere mögliche Kräfte spekuliert. Darunter fallen beispielsweise Technicolor-Theorien, Theorien der Supersymmetrie oder Stringtheorien. Neue makroskopische Kräfte werden gelegentlich unter dem Begriff „Fünfte Kraft“ zusammengefasst. Alle diese Kräfte stellen hypothetische Erweiterungen des Standard-Modells der Elementarteilchenphysik dar. Vereinheitlichende Theorien. Eines der Ziele der Physik ist es herauszufinden, ob alle Grundkräfte oder Wechselwirkungen in einem vereinheitlichten Gesamtkonzept zu beschreiben sind. Damit könnte es möglich sein, alle bekannten Kräfte auf eine einzige Grundkraft zurückzuführen. Man spricht hier von "vereinheitlichten Theorien". Beispielsweise ist die elektromagnetische Wechselwirkung eine Vereinheitlichung der elektrischen und der magnetischen Wechselwirkung. Weiter haben die elektromagnetische Wechselwirkung und die schwache Wechselwirkung bei Energien ab etwa 102 GeV etwa gleiche Stärke und können als elektroschwache Wechselwirkung vereinheitlicht beschrieben werden. Jedoch steht im gegenwärtigen Standardmodell der Elementarteilchenphysik die starke Wechselwirkung unverbunden daneben. Eine Theorie, die diese drei Grundkräfte des gegenwärtigen Standardmodells der Elementarteilchenphysik vereinheitlichen würde, wird große vereinheitlichte Theorie ("Grand Unification Theory" GUT) genannt. Als zentraler Bestandteil gilt die Annäherung der Kopplungskonstanten der drei Wechselwirkungen an einen gemeinsamen Wert, wenn die Prozesse bei immer höherer Energie untersucht werden. Aktuelle Theorien nehmen eine solche Annäherung bei etwa 1016 GeV an, das liegt um einen unerreichbaren Faktor 1012 über der derzeit höchsten in einem Experiment erzielten Teilchenenergie. Eine Theorie, die alle vier Grundkräfte vereint, wird Weltformel oder "Theory of Everything" ("TOE") genannt. Sie muss also über die noch hypothetische GUT hinaus eine bisher ebenfalls unbekannte Quantentheorie der Gravitation beinhalten. Stringtheorien oder Superstringtheorien gelten hier als aussichtsreiche Kandidaten, auch wenn sie bisher kein durch Experimente nachprüfbares Resultat ergeben haben. Literatur. Es gibt wohl wenige Bücher, die alle vier Grundkräfte gleich behandeln. Eine kurze Einführung findet sich jedoch z. B. in Die drei fundamentalen Wechselwirkungen des Standardmodells der Elementarteilchen werden in den meisten einführenden Büchern zur Elementarteilchenphysik behandelt, z. B. in Einführende Bücher zur Gravitation sind z. B. und zur Suche nach einer Theorie der Quantengravitation Dimorphismus. Mit Dimorphismus (von altgriechisch "dímorphos" ‚zweigestaltig‘) bezeichnet man in der Biologie das Auftreten von zwei deutlich verschiedenen Erscheinungsvorkommen bei derselben Art. a> ("hedera helix") lässt sich der Sprossdimorphismus - es gibt Rank- und Blütensprosse, sowie der Blattdimorphismus an derselben Pflanze beobachten. Sexualdimorphismus. Die bekannteste Form des Dimorphismus ist der "Geschlechtsdimorphismus", bei dem sich männliche und weibliche Individuen deutlich voneinander unterscheiden. Der Unterschied kann, wie häufig bei Spinnen und bei einigen Fischen, in der Größe liegen. Die Geschlechter können aber auch unterschiedliche Färbungen aufweisen, wie bei vielen Vogelarten, bei denen das Weibchen zur Tarnung oft unscheinbar braun gefärbt ist, während das Männchen leuchtende Farben besitzt. Bei Walrossen ist der Geschlechtsdimorphismus durch die Stoßzähne des Männchens gegeben, die den Weibchen fehlen. Außerbiologischer Gebrauch. Der Begriff wurde inzwischen im Allgemeinen Sinne von Zweigestaltigkeit bzw. Nebeneinander verschiedener Formen allerdings auch auf andere Wissenschaftsbereiche übertragen, wo er zwei verschiedene Erscheinungsformen einer Grundform bezeichnet kann, etwa in der Archäologie beim "Siedlungsdimorphismus", der unterschiedliche Formen einer grundlegenden Siedlungsart (etwa beim Dorf) anzeigt. Auch urgeschichtliche Werkzeugkategorien werden so mitunter differenziert. Bei diesem eher unspezifischen Gebrauch ist die Grenze zum Polymorphismus jedoch mitunter fließend, da man vor allem ein Auseinanderdriften von zunächst zwei, später aber auch mehr, nicht immer genau abgrenzbaren Varianten beschreiben möchte, etwa in der Paläoanthropologie der umweltbedingte Dimorphismus beim Australopithecus in grazile und robuste Formen (A.robustus vs. A. africanus). In der Mineralogie bezeichnet Dimorphismus Minerale, wenn sie in zwei verschiedenen Kristallsystemen auftreten. Deuterium. Deuterium (von "deúteros", „der Zweite“) ist ein natürliches Isotop des Wasserstoffs. Sein Atomkern wird auch Deuteron genannt, er besteht aus einem Proton und einem Neutron (2H). Deuterium wird aufgrund seiner Masse auch als „schwerer Wasserstoff“ bezeichnet. Es wurde 1931 von dem US-amerikanischen Chemiker Harold C. Urey entdeckt. Er erhielt dafür 1934 den Nobelpreis für Chemie. Die beiden anderen Isotope des Wasserstoffs sind Protium (1H) und Tritium (3H). Eigenständige Namen und Symbole für Isotope eines Elements gibt es nur bei Deuterium (Symbol D anstatt 2H) und Tritium (Symbol T anstatt 3H), weil das Massenverhältnis zwischen Protium und seinen Isotopen verhältnismäßig groß ist (Deuterium 1:2 und Tritium 1:3) und sich daraus merkliche Unterschiede im chemischen Verhalten ergeben. (Zum Vergleich: Bei dem nächstgrößeren Isotopenpaar 3He und 4He sind es 1:1,33; bei 235U und 238U nur noch 1:1,013). Beschreibung. Das chemische Symbol ist 2H; aus Gründen der Vereinfachung in der Formelschreibweise wird häufig auch D verwendet. Im Gegensatz zum 1H-Wasserstoff, dessen Atomkern nur aus einem einzigen Proton besteht, enthält der Deuteriumkern außer diesem Proton ein Neutron. Der Anteil an Deuterium in natürlich vorkommendem Wasserstoff beträgt 0,015 %. Es wird davon ausgegangen, dass Deuterium allein in der primordialen Nukleosynthese unmittelbar nach dem Urknall entstanden ist, denn das bei der stellaren Nukleosynthese gebildete Deuterium fusioniert nach kurzer Zeit weiter zu Helium. Deshalb ist die Häufigkeit des Deuteriums im Kosmos ein wichtiger Parameter für kosmologische Modelle. Chemisch verbinden sich im einfachsten Fall zwei Deuterium-Atome zu einem Deuterium-Molekül. Dabei gibt es je nach Gesamtspin IG des Moleküls zwei Varianten, das Orthodeuterium (o-D2), wenn das Kernspinisomer den Gesamtspin 0 oder 2 besitzt, und das Paradeuterium (p-D2) im Falle IG = 1. Wesentlich häufiger wird es aber in Form des Molküls HD vorkommen. Vorkommen. Die natürliche Häufigkeit des Isotops D beträgt 0,015 % von H. Das auf der Erde vorkommende Wasser (1,4 Milliarden Kubikkilometer oder 1,4 · 1018 t) besteht zu rund einem Neuntel der Masse (2 von 18 u) oder rund 11,1 % aus Wasserstoff (einschließlich Deuterium), demnach enthält es 0,000018 % oder 2,5 · 1013 t Deuterium, weit überwiegend als DHO und sehr selten als D2O. Gewinnung. Deuterium lässt sich aufgrund des großen relativen Massenunterschieds leichter anreichern als die Isotope anderer Elemente wie z. B. Uran. In den ersten Anreicherungsstufen kommt gewöhnlich der Girdler-Sulfid-Prozess zum Einsatz. Dabei wird ausgenutzt, dass in einer wässrigen Schwefelwasserstoff-Lösung die Wasserstoffatome und die Deuteriumatome ihre Plätze zwischen beiden Molekülarten tauschen: Bei niedrigen Temperaturen wandert das Deuterium bevorzugt in das Wassermolekül, bei hohen Temperaturen in das Schwefelwasserstoffmolekül. In der letzten Anreicherungsstufe wird das Gemisch aus H2O, HDO und D2O durch Destillation getrennt. Anwendungen. Eingesetzt wird Deuterium als Moderator in Kernreaktoren (hier in Form von schwerem Wasser), als Brennstoff in Wasserstoffbomben und künftig in Kernfusionsreaktoren, als Ersatz für Protium (gewöhnlichen Wasserstoff) in Lösungsmitteln für die 1H-NMR-Spektroskopie und als Tracer in der Chemie und Biologie. Dort ist es ebenfalls in der NMR-Spektroskopie (insbesondere der Festkörper-NMR) ein wichtiges Isotopen-Label, um die Dynamik in organischen Substanzen zu detektieren und Strukturen aufzuklären. Ferner wird gasförmiges Deuterium in Speziallampen in Photometern eingesetzt, z. B. in der Atomspektroskopie als Quelle für UV-Licht. Schweres Wasser. Ersetzt man beim Wasser (H2O) den Wasserstoff durch "Deuterium", so erhält man schweres Wasser (D2O). In Mischungen liegt durch den schnellen Austausch von Protonen und Deuteronen statistisch auch halbschweres Wasser (HDO) vor. Die Dichte von D2O beträgt 1,1047 g·cm−3 bei 25 °C, der Schmelzpunkt liegt bei 3,8 °C und der Siedepunkt bei 101,4 °C. Das Dichtemaximum liegt bei 11,2 °C (Wasser: 3,98 °C). Diese Unterschiede der physikalischen Eigenschaften gegenüber Wasser bezeichnet man als Isotopeneffekt. Er ist unter allen Nukliden zwischen 1H und 2H am stärksten ausgeprägt. Schweres Wasser verlangsamt oder unterbindet viele Stoffwechselvorgänge, weswegen die meisten Lebewesen bei sehr hohem Deuteriumgehalt nur noch eingeschränkt lebensfähig sind. Sicherheitshinweise. Deuterium ist im GHS (früher: In der EWG) nicht aufgeführt, ist aber in dieser Beziehung wie Wasserstoff zu betrachten, da sich alle Isotope eines Elements bezüglich ihres chemischen Verhaltens und ihrer Gefährlichkeit sehr ähnlich sind. Diabetes. Diabetes (griechisch, altgriechische Aussprache ', „die Harnruhr“, von, ' für „hindurchgehen“, „hindurchfließen“) steht für Dreiecksungleichung. Die Dreiecksungleichung ist in der Geometrie ein Satz, der besagt, dass eine Dreiecksseite höchstens so lang wie die Summe der beiden anderen Seiten ist. Das „höchstens“ schließt dabei den Sonderfall der Gleichheit ein. Die Dreiecksungleichung spielt auch in anderen Teilgebieten der Mathematik wie der Linearen Algebra oder der Funktionalanalysis eine wichtige Rolle. Dreiecksungleichung für Dreiecke. Man kann auch sagen, der Abstand von "A" nach "B" ist stets höchstens so groß wie der Abstand von "A" nach "C" und von "C" nach "B" zusammen, oder um es populär auszudrücken: „Der direkte Weg ist immer der kürzeste.“ Das Gleichheitszeichen gilt dabei nur, wenn das Dreieck entartet ist und a und b Teilstrecken von c sind. Da aus Symmetriegründen auch formula_2 gilt, folgt formula_3, analog erhält man formula_4, insgesamt also Die linke Ungleichung formula_6 wird gelegentlich auch als "umgekehrte Dreiecksungleichung" bezeichnet. Die Dreiecksungleichung charakterisiert Abstands- und Betragsfunktionen. Sie wird daher als ein Axiom der abstrakten Abstandsfunktion in metrischen Räumen verwendet. Dreiecksungleichung für reelle Zahlen. Für reelle Zahlen gilt: formula_7 Umgekehrte Dreiecksungleichung. Es gilt formula_12 Einsetzen von formula_13 gibt setzt man stattdessen formula_15 so ergibt sich zusammen also (denn für beliebige reelle Zahlen formula_17 und formula_18 mit formula_19 und formula_20 gilt auch formula_21) Ersetzt man formula_23 durch formula_24 so erhält man auch Dreiecksungleichung für komplexe Zahlen. Analog wie im reellen Fall folgt aus dieser Ungleichung auch Dreiecksungleichung für Summen und Integrale. Mehrmalige Anwendung der Dreiecksungleichung bzw. vollständige Induktion ergibt Ist formula_40, wobei formula_41 ein Intervall ist, Riemann-integrierbar, dann gilt Dies gilt auch für komplexwertige Funktionen formula_43, vgl.. Dann existiert nämlich eine komplexe Zahl formula_44 so, dass reell ist, muss formula_48 gleich Null sein. Außerdem gilt Dreiecksungleichung für Vektoren. Die Gültigkeit dieser Beziehung sieht man durch Quadrieren Auch hier folgt wie im reellen Fall Dreiecksungleichung für sphärische Dreiecke. In sphärischen Dreiecken gilt die Dreiecksungleichung im Allgemeinen "nicht". Sie gilt jedoch, wenn man sich auf eulersche Dreiecke beschränkt, also solche, in denen jede Seite kürzer als ein halber Großkreis ist. jedoch ist formula_57. Dreiecksungleichung für normierte Räume. In einem normierten Raum formula_58 wird die Dreiecksungleichung in der Form als eine der Eigenschaften gefordert, die die Norm für alle formula_60erfüllen muss. Insbesondere folgt auch hier Im Spezialfall der L"p"-Räume wird die Dreiecksungleichung Minkowski-Ungleichung genannt und mittels der Hölderschen Ungleichung bewiesen. Dreiecksungleichung für metrische Räume. In einem metrischen Raum formula_64 wird als Axiom für die abstrakte Abstandsfunktion verlangt, dass die Dreiecksungleichung in der Form für alle formula_66 erfüllt ist. In jedem metrischen Raum gilt also per Definition die Dreiecksungleichung. Daraus lässt sich ableiten, dass in einem metrischen Raum auch die umgekehrte Dreiecksungleichung für alle formula_66 gilt. Außerdem gilt für beliebige formula_69 die Ungleichung Dogmatik. Dogmatik ist ein eigenständiges Lehrfach an katholischen und evangelischen theologischen Fakultäten über die dogmatische Auslegung des Inhalts der christlichen Glaubenslehre. Die Dogmatik nimmt besonders in der römisch-katholischen Kirche eine zentrale Stellung ein, da hier die Glaubenswahrheiten der katholischen Kirche vermittelt werden. Sie ist neben den Fachgebieten der Christlichen Ethik (Theologische Ethik und Moraltheologie) sowie Christliche Sozialethik (Christliche Soziallehre) und der katholischen Fundamentaltheologie Teilgebiet der Systematischen Theologie. Die Darstellung der historischen Entwicklung der Dogmen ist Gegenstand der Dogmengeschichte. Begriff und Geschichte. Das griechische Wort Dogma bedeutete ursprünglich eine rechtliche Verordnung oder eine philosophische Grundlehre. In der christlichen Dogmatik geht es um Glaubenslehren. Der Begriff „Dogmatik“ kam erst im 17. Jahrhundert auf, das damit verbundene Anliegen ist aber weit älter. Als erste christliche Dogmatik gilt das theologische Hauptwerk von Origenes, "De principiis" (deutsch: "Von den Grundlehren"). Im späteren Mittelalter sehr einflussreich wurden die vier Bücher "Sententiarum" ("über die Grund-Sätze") des Petrus Lombardus und die "Summa theologiae" ("Zusammenfassung der Theologie") des Thomas von Aquin. Überblick. In der theologischen Dogmatik geht es nicht darum, ein Lehrgebäude auf wenige Grundsätze zurückzuführen. Vielmehr geht es darum, das Ganze der Offenbarung und des christlichen Glaubens zu entwickeln, der allerdings bezogen auf einzelne zentrale Glaubenswahrheiten im Verständnis wenigstens der katholischen und orthodoxen Theologie in den Lehrentscheidungen (Dogmen) der Kirche bis heute verbindlichen Ausdruck gefunden hat. In der Theologie geht es deshalb immer auch um die Begründung, Entfaltung und Deutung dieser Lehrentscheidungen. Ähnlich kann der Begriff auch in Bezug auf andere Wissenschaften verwendet werden. So ist die "Rechtsdogmatik" etwa der Versuch einer systematischen Entwicklung und Darstellung des geltenden Rechts. Ähnlich ist die Verwendung des Begriffes "Dogmatik" in der Ökonomie möglich. Zu unterscheiden ist der Begriff der Dogmatik zum einen von dem der "deduktiven" oder enger "axiomatischen Methode", in der ausgehend von wenigen Basisaussagen (Axiomen) andere Lehrsätze oder Schlussfolgerungen abgeleitet werden. Zum anderen vom Dogmatismus, einer Geisteshaltung, die unkritisch bestimmte Überzeugungen (»Dogmen«im übertragenen Sinn) als nicht hinterfragbar festhält und so die Freiheit des Denkens und Weiterentwicklung der Wissenschaft behindert. Das Spektrum systematisch-theologischer und dogmatischer Aussagen ist naturgemäß sehr breit gefächert. Unbeschadet der Gemeinsamkeit im apostolischen oder nicaenischen Glaubensbekenntnis gibt es dennoch sowohl konfessionelle Unterschiede - wie evangelische, katholische, orthodoxe Theologie - als auch verschiedene theologische Schulen - wie fundamentalistisch, konservativ, evangelikal, liberal, dialektisch, existenzial, feministisch, befreiungstheologisch usw. -, die verschiedene Deutungen anbieten. Dogmatiker. Im Alltagsgebrauch bezeichnet man als "Dogmatiker" eine Person, die sich (im Negativen) stur weigert von bestimmten Grundsätzen abzulassen. Der Begriff beschreibt jedoch eigentlich Theologen, die sich mit dem Fachgebiet der Dogmatik befassen. Bedeutende Dogmatiker sind in der entsprechenden Kategorie verzeichnet. Daphne du Maurier. Daphne du Maurier (um 1930)Dame Daphne du Maurier, DBE (* 13. Mai 1907 in London; † 19. April 1989 in Par, Cornwall) war eine britische Schriftstellerin. Bekannt wurde sie durch ihren Roman "Rebecca" und dessen Verfilmung durch Alfred Hitchcock, der außerdem ihren Roman "Gasthaus Jamaika" (als "Riff-Piraten") und ihre Kurzgeschichte "Die Vögel" verfilmte. Ein Teil ihres Lebens wurde 2007 unter dem Titel "Daphne" mit Geraldine Somerville in der Hauptrolle verfilmt. Leben. Als Tochter des Schauspielers Gerald du Maurier und seiner Frau Muriel Beaumont sowie Enkelin des Schriftstellers George du Maurier wuchs sie wohlbehütet mit ihren zwei Schwestern in London und Paris auf, wo sie Privatunterricht erhielt. Finanziell unabhängig widmete sie sich dem Segeln und Reisen – und schrieb nebenbei ihre ersten Kurzgeschichten. Im Alter von 19 entschied sie nach einem Urlaub in Cornwall, sich dort niederzulassen. Fortan spielten ihre Geschichten vorwiegend an der englischen Küste. Daphne du Maurier (ganz rechts) mit ihrer Mutter und den Schwestern Angela und Jeanne (1912) 1928 begann du Maurier Kurzgeschichten zu schreiben und veröffentlichte 1931 ihren ersten Roman "Der Geist von Plyn", der ihr nicht nur ersten Erfolg bei Publikum und Kritik bescherte, sondern auch die Aufmerksamkeit ihres späteren Ehemannes, des Generals Frederick Browning (Heirat 1932), einbrachte, mit dem sie drei Kinder hatte – zwei Töchter und einen Sohn. Berühmt wurde sie durch die erfolgreichen Romane "Gasthaus Jamaika" und "Rebecca", die von dem Regisseur Alfred Hitchcock verfilmt wurden. Von 1943 bis 1969 bewohnte sie 'Menabilly' zur Miete (ihr Vorbild für 'Manderley' – in dem der Roman spielt). "Rebecca", mit Joan Fontaine und Laurence Olivier in den Hauptrollen besetzt, wurde 1940 mit dem Oscar für den besten Film des Jahres ausgezeichnet. 1963 folgte die Verfilmung von du Mauriers Kurzgeschichte "Die Vögel", die ebenfalls von Alfred Hitchcock auf die Leinwand gebracht wurde. Ähnlich erfolgreich war die Verfilmung ihrer Erzählung "Dreh dich nicht um", die als "Wenn die Gondeln Trauer tragen" (1973) von Regisseur Nicolas Roeg mit Donald Sutherland und Julie Christie inszeniert wurde. Ihre Romane und Erzählungen zeichnen sich durch Spannung und psychologische Tiefe aus, auch wenn sie meist Abenteuer und Romanzen zum Thema haben und zu ihrer Zeit als melodramatisch galten. Doch du Maurier verfasste auch historische Romane, Theaterstücke und Biographien. 1969 wurde sie durch Königin Elizabeth II. als Dame Commander of the Order of the British Empire (DBE) in den britischen Adelsstand erhoben. Sie lebte zuletzt recht zurückgezogen und schrieb ab 1977 nicht mehr. 1989 verstarb Daphne du Maurier in Cornwall. Zeitlebens kämpfte sie gegen ihre lesbischen Gefühle. Von ihr stammt der berühmte Ausdruck „der Junge in der Schachtel“ ("the boy in the box"), eine Metapher für unterdrückte und verdrängte lesbische Gefühle. Trotz ihres großen Erfolgs beim Publikum und allerhöchster Anerkennung als Dame wurden du Mauriers Werke von englischen Literaturkritikern zu ihren Lebzeiten nicht als hochwertig eingeschätzt. Auch in "Daten der englischen und amerikanischen Literatur von 1890 bis zur Gegenwart" von Wolfgang Karrer und Eberhard Kreutzer (dtv, München 1973) ist sie nicht erwähnt. Bekannte Werke. Angegeben ist meist das Jahr der englischen Veröffentlichung. Bühnenwerke. "Rebecca" (Musical) – nach dem gleichnamigen Roman, Komponist Sylvester Levay, Text Michael Kunze Département Var. Das Département Var ist das französische Département mit der Ordnungsnummer 83. Es liegt im Südosten des Landes in der Region Provence-Alpes-Côte d’Azur und ist nach dem gleichnamigen Fluss Var benannt, der jedoch seit 1859 nicht mehr zum Département gehört. Geographie. Das im Osten angrenzende Département ist Alpes-Maritimes, das im Westen angrenzende Bouches-du-Rhône. Die nördliche Grenze stellt das Département Alpes-de-Haute-Provence dar, sowie auf einer Länge von wenigen Hundert Metern das Département Vaucluse im Nordwesten. Den Süden des Départements bildet die Mittelmeerküste mit der westlichen Côte d’Azur. Wappen. Beschreibung: In Gold eine gestürzte blaue Spitze mit einer goldenen Lilie. Ein roter dreilätziger Turnierkragen liegt in Schildhauptnähe. Geschichte. Das Département entstand 1790 auf Basis der ehemaligen Grafschaft Provence und erstreckte sich ursprünglich bis zum gleichnamigen Fluss Var, nach dem das Département benannt ist. Die neun Distrikte des Départements waren Barjols, Brignoles, Draguignan, Fréjus, Grasse, Hyères, Saint-Maximin, Saint-Paul-de-Vence, Toulon. Das Flussgebiet des Var liegt seit 1859 nicht mehr im Département. In jenem Jahr trat Italien unter anderem die Grafschaft Nizza an Frankreich ab, woraufhin dann das Arrondissement Grasse (Antibes, Cannes, Grasse) mit dem Fluss Var vom Département Var abgetrennt wurde, um mit der Grafschaft Nizza zusammen das Département Alpes-Maritimes erneut zu errichten. Der Sitz der Präfektur wechselte mehrmals: 1790 Toulon, 1793 Grasse, 1795 Brignoles, 1797 Draguignan. Seit 1974 ist Toulon wieder Sitz der Präfektur des Départements.. Bevölkerungsentwicklung. Im Vergleich zum französischen Durchschnitt kann das Département Var durch Zuwanderung aus anderen Teilen Frankreichs ein deutlich höheres Bevölkerungswachstum verzeichnen. Tourismus. Die Haupteinnahmequelle ist wie in den meisten Départements an der Mittelmeerküste der Tourismus. Zu den besonderen Anziehungspunkten zählen die Weinberge und Weinkeller in Bandol, Wanderungen im Esterel, Wind- und Kitesurfen an der Presqu'île de Giens sowie Ausflüge zu den Inseln Porquerolles und Port-Cros. Der längste Sandstrand der Region ist der Strand von Cavalaire-sur-Mer, der berühmteste wohl der Golf von Saint-Tropez. Im Haute-Var, dem Norden des Départements, befinden sich die hochgelegenen provenzalischen Dörfer des Pays de Fayence (Montauroux, Fayence, Callian, Seillans, Tourrettes, Saint-Paul-en-Forêt, Tanneron) und die beeindruckende Natur der Verdonschlucht und des Lac de Sainte-Croix. Landwirtschaft. In der landwirtschaftlichen Produktion werden traditionell Blumen, Obst, Gemüse und Wein angebaut. Etwa 800 km², das sind 13 % der Fläche, werden landwirtschaftlich genutzt. Hinzu kommen etwa 10 km² in denen Gartenbau betrieben wird. Das Département Var ist mit einer jährlichen Produktion von 500 Millionen Blumen der größte Schnittblumenproduzent Frankreichs. Weitere wichtige Produkte sind Feigen (80 % der französischen Produktion), Oliven (25 % der französischen Produktion) und Honig. Im Bereich der Viehzucht werden vorwiegend Schafe (50.000 Tiere) und Ziegen (4.200 Tiere) gehalten. Fast die Hälfte der landwirtschaftlich genutzten Fläche dient dem Weinbau. Die jährliche Produktion liegt bei 150 Millionen Litern, wobei überwiegend Roséwein produziert wird. Ein Großteil des Weinbaugebietes Côtes de Provence, das seit 1977 über den Status einer Appellation d’Origine Contrôlée (AOC) verfügt, liegt im Département Var. Eingebettet in die Appelation ist das Weinbaugebiet Coteaux Varois en Provence, das seit 1993 über eine eigene AOC verfügt. Die AOC Bandol im Südwesten des Départements besteht bereits seit 1941. Medien. Der lokale Radiosender France Bleu Provence sendet in den Départements Var und Bouches-du-Rhône. Klima. Das Klima im Département ist ein ausgeprägtes, warmes Mittelmeerklima. Toulon ist statistisch die wärmste und sonnenreichste Stadt des französischen Mutterlandes. Am 16. Juni 2010 waren innerhalb weniger Stunden an bestimmten Orten 350 Liter Niederschlag pro Quadratmeter gefallen, so viel wie sonst in mehreren Monaten. Die starken Regenfälle werden "épisodes cévenols" genannt, da diese Wettererscheinung häufig in den Cevennen vorkommt. Es kam zu starken Überschwemmungen im Umkreis der Stadt Draguignan. Der Katastrophenzustand wurde ausgerufen. Künftig soll streng darauf geachtet werden, dass in Überschwemmungsgebieten nicht mehr gebaut wird. Einzelnachweise. Var Deflation. Unter Deflation versteht man in der Volkswirtschaftslehre einen allgemeinen, signifikanten und anhaltenden Rückgang des Preisniveaus für Waren und Dienstleistungen. Deflation entsteht, wenn die gesamtwirtschaftliche Nachfrage geringer ist als das gesamtwirtschaftliche Angebot (Absatzkrise). Deflation tritt üblicherweise zusammen mit einer Depression auf. Auswirkungen. Preissenkungen wirken sich positiv auf die Wohlfahrt aus, wenn sie auf gestiegener Effizienz beruhen. Im Gegensatz dazu beruhen die Preissenkungen bei Deflation meist auf fehlender Nachfrage. Dies führt dazu, dass Unternehmen nicht mehr investieren, weil Investitionen keinen Gewinn mehr versprechen und Konsumenten ihre Konsumausgaben möglichst nach hinten schieben, weil die Produkte immer billiger werden. Deflation führt dann zu einer schweren Wirtschaftskrise und hoher Arbeitslosigkeit, so wie z. B. in der Großen Depression. Direkte Auswirkungen. Waren und Dienstleistungen werden stetig billiger. Folglich sinken die Gewinnerwartungen der Unternehmen, diese investieren weniger und versuchen stattdessen, die Kosten zu senken, z. B. durch Senkung der Güterproduktion (Kurzarbeit, Standortschließungen etc.), durch Entlassungen und durch Lohnsenkungen. Die Arbeitslosigkeit steigt, die Einkommen sinken. Es kann weniger konsumiert werden, die Nachfrage nach Konsumgütern schrumpft und die Steuereinnahmen des Staates sinken. Die gesamte Wirtschaftsleistung verringert sich zunehmend. Die Folge ist eine Wirtschaftskrise. Während Preise, Gewinne und Löhne in einer Deflation sinken, bleibt der Nennwert von Krediten und anderen Schuldtiteln unverändert. Dadurch werden Schuldner benachteiligt, da ihre über Kredite finanzierten Sachgüter in Geldeinheiten gemessen an Wert verlieren, aber sie nach wie vor den gleichen anfangs festgesetzten monetären Wert begleichen müssen. Hingegen profitieren Besitzer von Geldvermögen von einer Deflation, da ihr Kapital nun – zinsbereinigt – einen höheren Wert hat als am Anfang der Periode. In der Folge kommt es vermehrt zu Insolvenzen von verschuldeten Unternehmen, mit negativen Auswirkungen auf deren Arbeitnehmer und Gläubiger. Die weitere Folge kann eine Schuldendeflation sein, also eine Finanzkrise und eine sich durch die Sparmaßnahmen der Wirtschaftsakteure immer weiter verstärkende Deflation mit der Folge der Vertiefung der Wirtschaftskrise. Die Kaufkraft der Konsumenten steigt, wenn die Löhne nicht stärker sinken als die Preise. Wenn die Löhne stabil bleiben, obwohl die Unternehmen Löhne in der Höhe nicht mehr finanzieren können (Lohnrigidität), führt dies zu Unternehmensinsolvenzen. Geldpolitische Reaktion. „Klassische Deflationen“ in Form von massivem Preisverfall über breite Güter- und Dienstleistungsangebote hinweg hatten z. B. in der Weltwirtschaftskrise um 1930 eine starke Tendenz zu einer gewissen Dauerhaftigkeit. Litt ein Land einmal unter einer deflationären Phase, so war die Gefahr einer selbsterhaltenden bzw. sogar selbstverstärkenden Tendenz sehr groß: Sinkende Preise und Einkommen führten zu einer merklichen Kaufzurückhaltung der Konsumenten, da diese mit weiter sinkenden Preisen bzw. Einkommen rechneten. Die sinkende Nachfrage wiederum bewirkte eine niedrigere Auslastung der Produktionskapazitäten oder gar Insolvenzen und damit weiter sinkende Preise und Einkommen. Aufgrund der negativen Auswirkungen auf die Gläubiger, z. B. Banken, schränken diese ihre Kreditvergabe ein, was die Geldmenge vermindert und Wirtschaftswachstum erschwert. Diesen Kreislauf bezeichnet man im Allgemeinen als Deflationsspirale. Seit dem Aufkommen keynesianischer und monetaristischer Theorie gilt Deflation als verhinderbar. So geht z.B. Ben Bernanke davon aus, dass eine Deflation durch geldpolitische und fiskalpolitische Maßnahmen, notfalls auch durch Quantitative Lockerung schnell beendet werden kann. Im Rahmen der Finanzkrise ab 2007 wurde eine „Gefahr der Deflation“ gesehen. In Japan ist seit den 1990er Jahren ein rückläufiges Preisniveau zu beobachten. Konsum- und Investitionszurückhaltung. Wenn sich eine Volkswirtschaft im Abschwung eines Konjunkturzyklus befindet, reagieren die Menschen vorsichtig. Sie erwarten, dass sich ihre Einkommenslage verschlechtern wird, sie fürchten um ihren Arbeitsplatz, und geben deshalb in der Erwartung eines zukünftig geringeren Einkommens und der daraus resultierenden Haltung der Existenzsicherung weniger Geld aus (Konsumstreik). Eine vermehrte Zunahme der persönlichen finanziellen Rücklagen setzt allenfalls dann ein, wenn der Zustrom an Geld für die Person nicht so stark sinkt wie der Abfluss an Geld. Auch die Unternehmen halten sich zurück. Es wird nur das Nötigste gekauft und wenig investiert (sogenannte Investitionszurückhaltung). Dieser Nachfragerückgang führt dazu, dass Unternehmen geringere Umsätze bzw. auch Gewinne verbuchen und im Anfangsstadium rationalisieren (häufig durch Massenentlassungen) oder schließlich, in letzter Instanz, zahlungsunfähig werden. Insgesamt sinkt nun die Gesamtgüternachfrage bei ungefähr gleich bleibendem Güterangebot (Nachfragelücke). Grundsätzlich sind geringere Bedürfnisse die Ursache von Konsumzurückhaltung. Ob diese geringeren Bedürfnisse aus Selbstbeherrschung oder mangelndem Geld resultieren ist eine andere Sache. Eine größere Sparneigung kann ebenfalls ein Grund sein, hervorgerufen durch eine verschlechterte Zukunftserwartung. Dieses Phänomen ist zurzeit in Japan zu beobachten (Stand: 2011). Vermögensdeflation, Kreditdeflation. Besonders durch das Platzen von Spekulationsblasen wie z.B. Immobilienblasen kommt es zu einer Vermögensdeflation, vor allem, wenn die Vermögensgegenstände durch Kredite finanziert worden sind. Die sinkenden Vermögenspreise führen dann zur Überschuldung von Haushalten, wodurch es zu Kreditausfällen kommt und auch die Banken in Bedrängnis geraten. Da nun weniger neue Kredite vergeben werden als auslaufen und ausfallen, sinkt die Geldmenge. Die Konsumenten können ebenfalls ihre Konsumausgaben kaum noch mit Krediten finanzieren, so dass in der Volkswirtschaft die Nachfrage zurückgeht. So kann die Vermögensdeflation eine allgemeine Deflation auslösen. Der Ökonom Heiner Flassbeck spricht von „Schuldendeflation“, die ihre Ursachen in der Spekulation von Banken und Fonds auf dauerhaft steigende Preise von Vermögensanlagen und den Kurswert bestimmter Währungen hat. Wenn diese Wetten zusammenbrechen, müssen fieberhaft Vermögensanlagen verkauft werden, deren Preise durch das gleichzeitige hohe Angebot kollapsartig verfallen. Eine solche Spirale nach unten übersteigt die sog. „Selbstheilungskräfte“ des Marktes. Lohndeflation. Wegen der positiven Rückkopplung der Entwicklung von Löhnen und Preisen (Lohn-Preis-Spirale) führt eine Deflation bzw. Lohndeflation zu einem sich kumulativ selbstverstärkenden Prozess in einer Volkswirtschaft, bei dem Güter- und Faktorpreise gleichzeitig fallen. Bilden sich langfristige "Deflationserwartungen" heraus, dann fällt es der Zentralbank äußerst schwer, diese durch eine expansive Geldpolitik zu brechen. Dieses Phänomen wird als Liquiditätsfalle bezeichnet: Aufgrund verfestigter Deflationserwartungen in der Wirtschaft bieten selbst nominale Zinsen von Null Prozent keine Anreize für die Kreditvergabe durch Geschäftsbanken an Investoren oder Konsumenten. Die Kreditrisiken der Gläubiger gegenüber den potenziellen Schuldnern werden von den Gläubigern aufgrund der allgemeinen Unsicherheit über die zukünftige Wirtschaftsentwicklung infolge der Deflation höher als die durch die Kreditvergabe für die Gläubiger erzielbaren Zinserlöse angesehen. Kreditrationierung durch die Kreditinstitute verhindert dann, dass die potenziell vorhandene Liquidität durch die Nullzinspolitik der Zentralbank in effektive Nachfrage bei Investoren und Konsumenten umgesetzt werden kann, was über steigende Kreditvergabe durch Geschäftsbanken durchaus möglich wäre. Erst wenn wieder Vertrauen in der Wirtschaft auf ein nahes Ende der Deflation entsteht, löst sich die Liquiditätsfalle, in der die Geldpolitik steckt, auf, und der normale Wirkungszusammenhang stellt sich wieder her. Marktliberalisierung. Zunehmender Wettbewerb durch binnen- oder außenwirtschaftliche Liberalisierung wirkt in der Regel preissenkend. Deregulierungsmaßnahmen wie die Abschaffung von (ggf. staatlichen) Monopolen oder Preisbindungen sowie verstärkter internationaler Freihandel können deshalb deflatorisch wirken, sofern sie auf breiter Front erfolgen und eine Vielzahl von Branchen betreffen. Reduktion der Staatsausgaben. Eine weitere mögliche Quelle für Deflation ist der Staatssektor. Wenn eine Regierung die Staatsausgaben drastisch kürzt, etwa um das Budgetdefizit zu verringern oder einen Budgetüberschuss zu erzielen, fällt die staatliche Nachfrage auf den Märkten kleiner aus, und man gelangt wieder bei gleich bleibendem Angebot zu einer Nachfragelücke. Außenwirtschaftliche Ursachen. Erstens im Fall wegbrechender Nachfrage aus dem Ausland wegen dort regional lahmender Konjunktur oder einer Weltwirtschaftskrise. Dies trifft die eigene Volkswirtschaft umso mehr, je größer der Exportanteil ist. Zweitens durch Aufwertung der eigenen Währung, die die Ausfuhren für die ausländischen Kunden teurer macht. Wenn etwa der Euro gegenüber dem US-Dollar aufwertet, d.h. der Eurokurs im Verhältnis zum USD steigt, erhöhen sich die Dollarpreise für deutsche Exportgüter in den USA und die Nachfrage nach diesen Gütern sinkt. Gleichzeitig macht die Aufwertung der Inlandswährung Importprodukte günstiger und setzt zusätzlich die inländische Produktion unter Druck, die ggf. ebenfalls ihre Preise reduzieren muss. Beides schlägt sich im inländischen Preisniveau nieder. Drittens kann ein Angebotsüberschuss im Inland entstehen, wenn ausländische Märkte sich abschotten, etwa durch Zölle oder andere protektionistische Maßnahmen. Währungsverbünde. Wenn ein Land seine Währung (etwa durch ein Currency Board) an die eines anderen Landes koppelt, das ein höheres Produktivitätswachstum, eine günstigere Entwicklung der Lohnstückkosten o.Ä. aufweist, muss es zum Erhalt seiner Wettbewerbsfähigkeit entweder selbst in gleichem Maße produktiver werden oder seine Faktorpreise (z.B. Löhne) senken. Letzteres führt in Richtung Deflation. Einen analogen Effekt wie feste Wechselkurssysteme haben Währungsunionen. Monetäre Ursachen. Nach monetaristischer Vorstellung sind Inflation und Deflation "immer und überall ein monetäres Phänomen" (Milton Friedman). Die dahinterstehende Idee ist, dass eine restriktive Geldpolitik (Erhöhung der Mindestreserve, Steigerung des Zinssatzes) über die Quantitätsgleichung zu niedrigeren Preisen führt. Doch auch nach nicht-monetaristischer Sicht führt eine restriktive Geldpolitik zu Deflation, da sie (beispielsweise durch die höheren Zentralbankzinsen) die gesamtwirtschaftliche Nachfrage dämpft. Quantitätstheoretischer Ansatz (Monetarismus). Das Ergebnis der Schuldendeflation ist scheinbar paradox: je mehr Schulden zurückgezahlt werden, desto stärker sinkt die Geldmenge (falls Regierung und Zentralbank so wie zu Anfang der Weltwirtschaftskrise nicht reflationierend eingreifen), desto stärker sinkt das Preisniveau, desto drückender wird das reale Gewicht der verbleibenden Schuldenlast. Liquiditätshypothese (Keynesianismus). Während die neoklassische Theorie immer behauptet hatte, dass Änderungen der Preise keine Auswirkungen auf die Realwirtschaft hätten, warnte John Maynard Keynes bereits 1923 vor den Folgen einer mit der Rückkehr zum internationalen Goldstandard verbundenen Deflation. Der Fall der Preise würde Verluste für Investitionen bedeuten und auf Kredit finanzierte Geschäfte zum Stillstand bringen. Unternehmer würden sich während einer schweren Deflation am besten ganz aus dem Geschäft zurückziehen und jedermann sollte geplante Ausgaben möglichst lange aufschieben. Ein Weiser werde seine Anlagen zu Geld machen, sich von allen Risiken und Aktivitäten fernhalten und in ländlicher Zurückgezogenheit die ständige Wertsteigerung seines Geldes abwarten. Auf Basis der allgemeinen Gleichgewichtstheorie betrachtet führt Schuldendeflation zwar zu einer Kaufkraftumverteilung von den Schuldnern hin zu den Gläubigern, der Markt bleibt aber im Gleichgewicht. In diesem Modell hat nicht die Schuldendeflation selbst, sondern erst die dadurch ausgelöste Erwartungshaltung der Menschen fatale Folgen. Normalerweise würden niedrige Zinsen ein Investitionssignal setzen (tun sie jedoch dann nicht, wenn die Unternehmer mit weiter sinkender Nachfrage und "steigendem Realzins" rechnen – siehe auch Investitionsfalle). Während einer Deflation gehen Konsumenten und Unternehmer aufgrund sinkender Löhne und Preise erfahrungsgemäß davon aus, dass die Löhne und Preise zukünftig noch weiter sinken werden. Da die Menschen erwarten, dass sich aufgrund sinkender Löhne und Profite die reale Schuldenlast mit der Zeit erhöht, die Einnahmen sich vermindern, verzichten sie auf Konsum bzw. Investitionen (Sparparadoxon). Da Kredite zurückgezahlt und neue Kredite nur sehr zurückhaltend aufgenommen werden, verringert sich die gesamtsektorale Nettokreditaufnahme, es kommt zu einer Verringerung der Geldmenge, woraus die Deflationsspirale sich weiter nach unten dreht. Freiwirtschaftliche Theorie. Die freiwirtschaftliche Theorie – die von der überwiegenden Mehrheit der Wirtschaftswissenschaftler abgelehnt wird – betrachtet die nach ihrer Überzeugung sinkende Geldumlaufgeschwindigkeit als Hauptursache der Deflation. Diese „Geldhortung“ entsteht laut Freiwirtschaftslehre dadurch, dass eine Investition, deren Rendite geringer als die Liquiditätsprämie ist, nicht mehr lukrativ sei und das Geldangebot auf dem Kapitalmarkt deshalb zurückgehe. Produktivitätssteigerungen. Wie die Quantitätstheorie des Geldes nahelegt, kann eine Deflation nicht nur durch eine Verknappung des Geldangebots, sondern auch durch eine Ausweitung des Güterangebots entstehen. Ist dies der Fall, kann eine Deflation sich durchaus positiv auf den Wohlstand der Bevölkerung auswirken, weil diese bei gleichen Nominallöhnen mehr Kaufkraft hat. Während der Zweiten Industriellen Revolution von 1873–1896 erweiterte sich durch neue Technologien und die weltweite Ausweitung von Eisenbahnnetzen das Güterangebot, während der Beitritt einiger europäischer Staaten (Deutschland, Belgien, die Niederlande, Skandinavien und später Frankreich) in den Goldstandard die Geldmenge verknappte. Diese Zeit erlebte eine durchschnittliche Deflation von 2 % im Jahr bei einem jährlichen Wachstum von 3 %. In den „goldenen“ 1920er Jahren wuchs das Güterangebot ebenfalls, vor allem durch die Verbreitung von Automobilen, Kühlschränken und Radios in US-amerikanischen Haushalten. Die Deflation betrug in dieser Zeit 1–2 % im Jahr. Ein ähnliches Phänomen, das digitale Deflation genannt wird, ist derzeit im IT-Sektor zu beobachten: Durch stetige technologische Verbesserungen fällt der Preis von Produkten aus dieser Sparte beständig – eine Abwandlung des Mooreschen Gesetzes prognostiziert eine Halbierung des Preises für ein IT-Produkt etwa alle 18 Monate. Da hier die Preissenkungen nur eine gewisse Branche und nicht die Gesamtwirtschaft betrifft, ist die Bezeichnung als Deflation eigentlich falsch. Gegenmaßnahmen. Bis in die 1930er Jahre glaubten die meisten Volkswirte, dass eine Deflation sich durch das freie Spiel der Marktkräfte selbst überwindet. Das sinkende Preisniveau werde auch ohne staatliche Eingriffe wieder zu einer steigenden Nachfrage führen (Liquidationsthese). Die Weltwirtschaftskrise widerlegte diese These. In den Vereinigten Staaten wurde die Deflation im Rahmen des New Deal durch die Änderung der Geldpolitik, insbesondere die Abkehr vom Goldstandard, bekämpft. Der deutschen Regierung unter Hitler und Hjalmar Schacht als Reichsbankdirektor gelang es mit den Mefo-Wechseln die Deflation erfolgreich zu bekämpfen. Dazu erhöhten sie die Geldmenge. Es wurde Reflationspolitik als möglichen Gegenmaßnahme gegen eine Deflation entwickelt. Geldpolitik. Als Geldpolitik werden alle wirtschaftspolitischen Maßnahmen der Zentralbank bezeichnet. Da sie eine wichtige Rolle bei der Bekämpfung der Inflation übernehmen, sind sie auch bei der Bekämpfung von Deflation wichtig. So ist z. B. die EZB darauf verpflichtet, Preisniveaustabilität (und somit weder De- noch Inflation) anzustreben. Ihr selbst gestecktes Preisziel sieht sie bei einem Wachstum des Harmonisierten Verbraucherpreisindexes von "knapp unter zwei Prozent". Zur Bekämpfung einer Deflation greifen Zentralbanken im Allgemeinen zu Zinssenkungen. Oft führt dies aber zum keynesianisch als Liquiditätsfalle bezeichneten Zustand nicht mehr weiter steigender Geldnachfrage bzw. zu Zinsen nahe am Nullpunkt. Somit kann eine expansive Geldpolitik über die Zinsen nicht mehr erreicht werden. Als geldpolitische Gegenmaßnahme verbleibt dann noch die Quantitative Lockerung. Über die Offenmarktpolitik kann die Zentralbank eines Landes am Markt befindliche Anlageformen (beispielsweise Kreditforderungen von Geschäftsbanken) aufkaufen, um somit die Geldmenge trotz Null-Zinsen weiter ausdehnen zu können. Nachfrageorientierte Wirtschaftspolitik. Eine pro-zyklische Steuerpolitik oder ein Austeritätskurs in Reaktion auf eine Wirtschaftskrise können in eine Deflationsfalle führen, woraus eine Volkswirtschaft nur durch eine nachfrageorientierte Wirtschaftspolitik herausgeführt werden kann, falls andere positive Einflüsse ausfallen. So wurden in der Weltwirtschaftskrise 1929 vielfach staatliche Investitionsprogramme beschlossen. Eine theoretische Grundlage für eine derartige Politik wurde insbesondere durch John Maynard Keynes geschaffen (1936). Der Staat erhöht seine Nachfrage, etwa durch Beschäftigungs- und Infrastrukturprogramme – auch über Kreditfinanzierung ("Deficit spending") – und senkt die Steuern, um dadurch der Volkswirtschaft eine Initialzündung zu geben. Seither hat es eine Deflation insbesondere seit den frühen 90er-Jahren in Japan gegeben. Keynesianisch orientierte Ökonomen wie Heiner Flassbeck rechneten 2008 in Folge der weltweiten Finanzkrise auch für Deutschland, durch die fehlende Binnennachfrage, mit dem Abgleiten in eine Deflation. Anfang 2010 sieht Paul Krugman Griechenland durch Staatsverschuldung und Kreditverteuerung, der es ohne geldpolitische Handlungsspielraum nicht gegensteuern kann, in einer Deflationsspirale gefangen. EU-Währungskommissar Olli Rehn hat angesichts der Griechenland-Krise nicht nur eine effektivere Überwachung der Haushaltspolitik der Euro-Staaten gefordert, sondern die EU-Länder, die Zahlungsbilanzüberschüsse aufweisen, zu einer Stärkung der Binnennachfrage aufgerufen. Der ehemalige IWF-Chef Dominique Strauss-Kahn sieht zu einer Deflation für Griechenland keine Alternative. Gemäß Desmond Lachman (zuvor IWF, danach AEI) sind Deflation und Depression die Folge, wenn Griechenland exakt das tut, was IWF und Europäische Union von ihm erwarten. Sonstige Gegenmaßnahmen. Der Staat kann auch gezielt bestimmte Produkte aufkaufen, um Preisverfall zu bremsen. So hat vor dem Hintergrund der Finanzkrise ab 2007 die Bundesanstalt für Landwirtschaft und Ernährung im Monat März 2009 5000 Tonnen Butter aufgekauft. Außerdem werden auch andere, jedoch von Politik und Wissenschaft kaum beachtete Lösungsvorschläge gemacht. So fordert die Freiwirtschaftslehre die Einführung einer "Geldumlaufgebühr" als drittes geldpolitisches Instrument der Zentralbank (neben Geldmenge und Zinssatz). Weiterhin könne eine Deflation auch durch private Initiativen wie Tauschringe und/oder durch Ausgabe einer privaten Komplementärwährung bekämpft werden. Internationale wirtschaftliche Wachstumsstörungen im letzten Viertel des 19. Jahrhunderts. Nach einer längeren weltwirtschaftlichen Wachstumsphase seit 1850 schlug die Konjunktur 1873 mit einem raschen Einbruch zahlreicher Finanzmärkte um. Die Baisse leitete eine bis 1879 dauernde scharfe Zäsur ein. In den frühen 1880er Jahren hielt sich eine aufsteigende Tendenz, ehe erneut eine heftige zweite, bis 1886 dauernde Krise einsetzte. Eine weitere Abfolge von Auf- und nochmals leichtem Abschwung nach dem Zusammenbruch der Barings Bank 1890 geschah bis 1896. Wirtschaftstheoretiker der 1920er Jahre postulierten für den Zeitraum von 1873 bis 1896 eine zusammenhängende Weltwirtschaftskrise. Sie bezeichneten diese als Große Depression bzw. Lange Depression und verstanden sie als Teil einer Langen Welle (ökonomische Auf- und Abschwungphase) von 1850 bis 1896. Für die Situation im Deutschen Reich und in Österreich-Ungarn wird auch der Begriff Gründerkrise verwendet. Angesichts der ökonomischen Indikatoren (das Wirtschaftswachstum nahm insgesamt bloß leicht ab, die Preise fielen aber um durchschnittlich ein Drittel) spricht mehr für ein Preis- als eine Produktionskrise, weswegen auch die alternative Epochenbezeichnung „Große Deflation“ vorgeschlagen wurde. Globale Deflation während der Weltwirtschaftskrise der 1930er-Jahre (in den USA auch als „Great Depression“ bezeichnet). Die letzte große weltweit wirksame Deflation gab es in der Weltwirtschaftskrise der frühen 1930er Jahre. Verantwortlich dafür waren die Überproduktion nach dem Ersten Weltkrieg, der Schwarze Donnerstag an den US-Börsen und die verfehlte Politik der US-Notenbank, die die Geldmenge um 30 % senkte. Die eigenen Probleme veranlassten die USA, ihre hohen Kredite an Deutschland zurückzufordern, wobei die Begleichung der Schulden hauptsächlich in Gold erfolgte. Da das umlaufende Geld im Deutschen Reich nur zu 40 % durch Gold und Devisen gedeckt sein musste, wirkte sich der Goldabfluss mit einem 2,5-fachen Hebel auf die Geldmenge aus, die dadurch drastisch sank. In der Folge verringerte sich der Geldumlauf ebenso schnell, was den Effekt weiter verstärkte. Die Gehälter sanken, die Preise brachen ein und die Arbeitslosigkeit stieg auf mehr als sechs Millionen, was einem Anteil von 20 % der Erwerbsbevölkerung entsprach. Die damalige Regierung und die Arbeitgeber fachten die Krise noch weiter an, da sie durch Sparmaßnahmen und Lohnkürzungen die Deflation verschärften (siehe Deflationspolitik). In der Gemeinde Wörgl in Österreich wurde 1932 mit dem Freigeldexperiment, bei dem basierend auf der Freiwirtschaftslehre von Silvio Gesell so genannte Arbeitswertscheine mit einer monatlichen Umlaufsicherungsgebühr von 1 % des Nominale von der Gemeinde ausgegeben wurden, die Deflation erfolgreich bekämpft. Der Versuch wurde jedoch von der Österreichischen Nationalbank wegen Verletzung des Geldmonopols nach einem Jahr eingestellt. Rezession in Japan 1990er Jahre (auch als „Verlorene Dekade“ bezeichnet). a> erstellt. Ab 1993 sind diese Preisindizes rückläufig. Etwa ab 1993 litt Japan unter fallenden Preisen verbunden mit einer starken Rezession und einem Anstieg der Arbeitslosigkeit. Als Auslöser für die japanische Krise werden im Allgemeinen die Finanzmärkte gesehen. So stieg der japanische Aktienindex Nikkei 225 zwischen 1985 und 1989 von 13.000 auf über 38.000 Punkte – der Preis einer durchschnittlichen japanischen Aktie verdreifachte sich fast innerhalb von nur vier Jahren. Ähnlich wie die Aktienkurse entwickelten sich auch andere Vermögenspreise – z. B. für Immobilien und Grundstücke. Die meisten Ökonomen deuteten dies als eine spekulative Blase, die sich zuerst ausdehnte und dann platzte. In der Folge fiel der Nikkei-Index von 1990 bis 1992 auf 16.000 Punkte. Offensichtlich führte der enorme Vermögensanstieg in den 1980ern zu einem Boom bei der Nachfrage nach japanischen Waren und Dienstleistungen, dem jedoch nach dem Platzen der Blase eine nicht minder starke Rezession folgte; die starken Verluste der Vermögenspreise (wie Aktien oder Immobilien) veranlassten die japanischen Konsumenten zu einem wesentlich stärkeren Sparverhalten. Die daraus folgende Konsumzurückhaltung führte zu einer Unterauslastung der Produktionskapazitäten und der oben beschriebenen Deflationsspirale. Der japanische Staat reagierte mit einer expansiven Geld- und Fiskalpolitik. Allerdings empfahlen 1997 IWF sowie OECD den aufgrund des Deficit spendings gestiegenen Defiziten mittels restriktiver Fiskalpolitik entgegenzuwirken - woraus kein Wirtschaftsabschwung initiiert würde. Es entstand ein Sparparadoxon. Japan geriet in die Deflation. Obwohl die Zentralbankzinsen in Japan über Jahre nahe oder bei Null lagen und die japanische Zentralbank wiederholt quantitative Lockerung betrieb, konnte der private Sektor nicht mehr zu nennenswerten Mehrausgaben (Deleveraging) animiert werden (Bilanzrezession). Japan ist heute das mit Abstand am stärksten (öffentlich) verschuldete Industrieland der Welt. Eine teilweise Beendigung der Krise gelang erst 2003 und 2004 durch eine konsequente Restrukturierungspolitik verbunden mit dem Aufkauf "fauler Kredite" durch die Zentralbank. Im Zuge der weltweiten Finanz- und Wirtschaftskrise fiel Japan allerdings in die Deflation zurück, im August 2009 stieg die Deflationsrate auf 2,4 % und lag damit höher als während der Verlorenen Dekade. Argentinien-Krise 1998–2002. In den 90er Jahren litt Argentinien unter Hyperinflation. Um diese zu stoppen, wurde ein Currency Board, über das sich das Land an den US-Dollar band, eingerichtet. Die Inflation konnte so zunächst deutlich zurückgefahren werden, allerdings schaffte es der Staat nicht, seine Verschuldung in den Griff zu bekommen, vor allem konnten nicht genügend Steuern eingetrieben werden. Infolge der Asienkrise ab 1998 bewerteten die Anleger auch Argentinien und den argentinischen Peso als Anlagemöglichkeit neu und verloren wegen der Überschuldung des Landes das Vertrauen. Das in der Folge abgezogene ausländische Kapital verschärfte die Krise und zwang das argentinische Currency Board zu einer kontinuierlichen Erhöhung der inländischen Zinsen, um die Geldmenge an die schwindenden Devisenreserven anzupassen. Die Hochzinspolitik brachte aber Konsum und Investitionen zum Einbruch und führte zu einem starken Rückgang der Preise (Argentinien-Krise). Anfang 2002 gab Argentinien seine Wechselkursbindung auf. Bulgarien und Griechenland seit 2013. Im Verlauf des Jahres 2013 unterschritt die Verbraucherpreisentwicklung in den südosteuropäischen Staaten Bulgarien und Griechenland die Nulllinie und bewegt sich seitdem im negativen Bereich. Die bulgarische Währung Lew ist mit einem festen Wechselkurs an den Euro gebunden, in Griechenland ist der Euro offizielle Landeswährung. In der Europäischen Union (EU) und der Eurozone insgesamt war im gleichen Zeitraum eine disinflationäre Entwicklung mit fallenden Inflationsraten zu beobachten, die erst im Dezember 2014 in den deflationären Bereich wechselte. Quelle: Eurostat, zuletzt abgerufen am 21. März 2015 Dynamische Optimierung. Bei der dynamischen Optimierung handelt es sich um eine Optimierungstechnik, die das Laufzeitverhalten von Software während der Ausführung erheblich verbessert. Hierbei wird unter anderem die Tatsache ausgenutzt, dass die Werte bestimmter Variablen eines Programms zwar vor Ausführung des Programms nicht bekannt sind, aber für eine ganze Zeit lang während des Ablaufs des Programms konstant sind. Wird also während der Ausführung eines Programms erkannt, dass eine Variable doch eher eine Konstante zu sein scheint, so kann das Programm so kompiliert werden, als wäre die Variable tatsächlich eine Konstante. Diese kompilierte Form ist dann oft schneller als eine kompilierte Form des Programms, in dem eine Variable als variabel angesehen wird. Diese kompilierte Form kann dann so lange ablaufen, bis sich der Wert der Variablen wieder ändert. Dynamische Optimierung ist derzeit nur innerhalb von virtuellen Maschinen bekannt, da die virtuelle Maschine diejenige ist, die erkennen muss, dass der Wert einer Variablen konstant ist, um dann die Neukompilierung des Codes vorzunehmen. Datenfernübertragung. Datenfernübertragung (DFÜ) ist die Übermittlung von Daten zwischen Computern über ein Medium, bei der ein zusätzliches Kommunikationsprotokoll verwendet wird. Am weitesten verbreitet ist die DFÜ über das Telefonnetz. Üblich sind aber auch andere Übertragungsmedien wie Funk oder Licht (IrDA). Im deutschen Sprachraum wird im spezielleren Sinn auch das wesentlich enger definierte Electronic Data Interchange (EDI) als DFÜ bezeichnet. Systeme zur Fernschaltung von Anlagen und Fernwirkeinrichtungen der BMSR können Standards aus der Datenfernübertragung benutzen. Auch die Kommunikation mit einem PC in das Internet ist eine Form der Datenfernübertragung. Um die Daten übertragen zu können, müssen sie für das Medium geeignet aufbereitet werden. Dafür ist spezielle Hardware, z. B. ein Modem oder eine ISDN-Karte, notwendig. Geschichte. In der Anfangszeit der Datenfernübertragung waren zum Austausch von Daten die Verwendung von Disketten, Magnetbändern, Lochstreifen und der Versand dieser Datenträger per Kurier (das so genannte "Turnschuhnetz") üblich. Die elektronische Datenfernübertragung wurde anfangs auch über Spezialadapter auf speziellen Daten- oder Telex-Leitungen, über Fernschreiber, aber auch über die serielle Schnittstellen und analoge Telefonleitungen oder über einfache Funkverbindungen betrieben. Dazu wurden anfangs Akustikkoppler, die an einem normalen Telefonhörer angebracht werden konnten, und später Modems verwendet. Die DFÜ erlangte Ende der 1980er Jahre auch für Privatanwender mit den entstandenen lokalen und globalen Mailboxsystemen, z. B. dem FidoNet, CompuServe oder dem Datex-P eine große Bedeutung. Viele dieser Systeme hatten später über Gateways eine Verbindung in das Internet, wurden jedoch mit dem Siegeszug des Internets Ende der 1990er Jahre größtenteils eingestellt. DIN lang. DIN lang ist die umgangssprachliche Bezeichnung für mehrere ähnliche Formate für Briefumschläge, die ursprünglich zur Verwendung für zweifach quer gefaltete Briefbogen DIN A4 gedacht sind, sowie für weitere zu diesen Umschlägen passende Einlageformate. Die Bezeichnung lehnt sich an die Papierformate nach DIN an. Verbreitung in Deutschland und Österreich. In Deutschland und Österreich sind Briefumschläge im Format DL und C6/C5 im geschäftlichen Briefverkehr die meistverwendeten Briefhüllen. Die ebenfalls genormte Ausführung mit Sichtfenster erlaubt den Versand von nach DIN 5008 gestalteten, auf 105 mm × 210 mm gefalteten Schriftstücken ohne zusätzliche Adress- und Absenderbeschriftung des Umschlags. Das Fenster ist 90 mm breit und 45 mm hoch, es liegt 20 mm vom linken und 15 mm von unteren Rand entfernt. Viele Druckerzeugnisse, beispielsweise Faltblätter, Kurzmitteilungen und Beilagen in Heftform, werden speziell für den Versand im DIN-lang-Umschlag gestaltet, da dieses Umschlagformat neben dem für diese Zwecke wenig geeigneten C6-Format die niedrigsten Portokosten verursacht. Schweiz. In der Schweiz findet dieser Umschlag kaum Verwendung. Während früher ausschließlich C6 verwendet wurde, ist heute C5 Standard. Für die Post sind die Kosten für den Versand eines C5 nur marginal größer als der eines DIN-lang-Kuverts und deshalb in der Schweiz für Kunden auch gleich teuer. Hingegen überwiegen die Vorteile der einfachen Faltung des C5 gegenüber der doppelten Faltung beim DIN lang. Domäne (Biologie). Die Domäne ist in der jetzt allgemein akzeptierten systematischen Einteilung der Lebewesen nach Carl R. Woese (University of Illinois) die höchste Klassifizierungskategorie. Man kann die Lebewesen auch danach unterscheiden, ob in den Zellen ein Zellkern vorhanden ist oder nicht. Diese Einteilung in nur zwei Gruppen war früher üblich. Sie beruht jedoch nicht auf den Verwandtschaftsverhältnissen und ist deshalb keine systematische Einteilung. Viren, Viroide und Prionen, die nicht generell unter Lebewesen eingeordnet werden, unterliegen einer eigenen Klassifikation. Systematische Einteilung in Domänen. Diese systematische Unterteilung beruht in erster Linie auf der unterschiedlichen Struktur der ribosomalen Ribonukleinsäure (rRNA). Bakterien und Archaeen unterscheiden sich außerdem in der Zusammensetzung ihrer Zellmembran und in der Biochemie ihres Stoffwechsels. Die Eukaryoten unterscheiden sich von den beiden anderen Domänen durch den Zellkern in ihren Zellen. Für die Domäne "Eukaryota" ist auch die Bezeichnung "Eukarya" oder "Eucarya" gebräuchlich. Woese, Kandler und Wheelis verwendeten bei ihrem 1990 veröffentlichten Vorschlag zur Einteilung der Lebewesen in drei Domänen die Schreibweise "Eucarya". Alternative Einteilung nach der Zellstruktur. Diese Einteilung ist keine taxonomische Einteilung im verwandtschaftlichen System der Lebewesen. Historische Systematik. Hinweis: Anstelle der modernen Bezeichnungen "Prokaryoten" und "Eukaryoten" wurden früher die Bezeichnungen "Prokaryonten" und "Eukaryonten" genutzt. Sie sind auch heute noch sehr gebräuchlich und gelten allgemein als zulässig. Tulpenmanie. Broschüre von der Tulpenmanie in den Niederlanden, gedruckt 1637 Bei der Tulpenmanie (auch "Tulipomanie", "Tulpenwahn", "Tulpenfieber" oder "Tulpenhysterie";, oder) handelt es sich um eine Periode im Goldenen Zeitalter der Niederlande, in der Tulpenzwiebeln zum Spekulationsobjekt wurden. Tulpen waren seit ihrer Einführung in die Niederlande in der zweiten Hälfte des 16. Jahrhunderts ein Liebhaberobjekt. Sie wurden in den Gärten der sozial gehobenen Schichten des gebildeten Bürgertums, der Gelehrten und der Aristokratie kultiviert. Zu den auf Tauschhandel gegründeten Beziehungen dieser Liebhaber kam zum Ende des 16. Jahrhunderts der kommerzielle Handel mit Tulpen hinzu. In den 30er Jahren des 17. Jahrhunderts steigerten sich die Preise für Tulpenzwiebeln auf ein vergleichsweise extrem hohes Niveau, bevor der Markt zu Beginn des Februars 1637 abrupt einbrach. Die Tulpenmanie wird als die erste relativ gut dokumentierte Spekulationsblase der Wirtschaftsgeschichte angesehen. Sie wird auch metaphorisch zur Charakterisierung anderer, anscheinend irrationaler und riskanter Finanzentwicklungen gebraucht. Die Deutungen über den Anlass, den Verlauf und die gesellschaftlichen und wirtschaftlichen Folgen der Tulpenmanie gehen auseinander. Für die traditionelle Lesart der Ereignisse und Auswirkungen, die sich schon in der zeitgenössischen Kritik findet und von späteren Interpretationen aufgegriffen wurde, waren in den Handel mit Tulpen in den 1630er Jahren große Teile der niederländischen Bevölkerung bis in die untersten Gesellschaftsschichten involviert. Der rasche Preisverfall habe demgemäß den Ruin vieler Beteiligter bedeutet und der niederländischen Wirtschaft insgesamt einen schweren Schaden zugefügt. Andere Lesarten bemühen sich, den Preisanstieg und Preisverfall von Tulpen im Lichte der Effizienzmarkthypothese nicht als irrationale und singuläre Manie darzustellen, kehren institutionelle Ursachen für die Blase hervor und relativieren die gesamtwirtschaftliche Relevanz. Tulpenliebhaberei in den Niederlanden. Das Zentrum der Artenvielfalt der Pflanzengattung Tulpen ("Tulipa") liegt im südöstlichen Mittelmeerraum. Von den Persern übernahmen die Türken die Kultivierung der Tulpen im 15. Jahrhundert. Im Osmanischen Reich galt sie als eine der edelsten Blumen und wurde spätestens im 18. Jahrhundert in großen Mengen in den Gärten des Sultans gepflanzt. Aus dem Osmanischen Reich gelangten Tulpen um 1555–60 über Konstantinopel (heute Istanbul) nach Wien. Wahrscheinlich importierte erstmals Ogier Ghislain de Busbecq, ein flämischer Edelmann und Botschafter von Kaiser Ferdinand I. am Hofe Süleyman I., Tulpensamen und -zwiebeln. Von ihm hat sich auch eine der frühesten, möglicherweise sogar die erste angefertigte Beschreibung eines Westeuropäers von einer Tulpe überliefert. In einem Brief vom 1. September 1555 gab er ihr den Namen "Tulipan". Auch auf anderen Wegen, etwa aus Südeuropa oder im Zuge des Handels mit der Levante, gelangten Tulpen nach Mitteleuropa. 1559 sah der Schweizer Gelehrte Conrad Gesner im Garten des Augsburger Bankiers Johannes Heinrich Herwarth eine rote Tulpe, die er als "Tulipa Turcarum" beschrieb. Die Einführung der Tulpe leitete in der Geschichte der Gartenkunst die sogenannte orientalische Periode ein, in der neben Tulpen auch Hyazinthen und Narzissen in die westeuropäische Gartenkultur Eingang fanden und sich dort großer Wertschätzung erfreuten. Der flämische Botaniker Carolus Clusius, seit 1573 Präfekt des Kaiserlichen Heilkräutergartens ("Hortus botanicus medicinae") in Wien, kultivierte Tulpen ab 1574 in großem Stile. Im Garten Maximilians II. ließ er Zwiebeln und Samen auspflanzen bzw. aussäen. In der Folgezeit wurden blühende Tulpen unabhängig voneinander in Brüssel (1577), in Leiden (1590), in Breslau (1594) und in Montpellier (1598) beschrieben. Nach einer Station in Frankfurt am Main wurde Clusius 1593 zum Professor für Botanik in Leiden berufen und stand dort dem "Hortus botanicus" vor. Wie bereits in Frankfurt und in Wien war Clusius in Leiden ein wichtiger Punkt in einem Netzwerk an Blumenliebhabern, den '. Sie waren durch ihren gehobenen gesellschaftlichen Rang, ihre humanistische Bildung und ihre Wertschätzung für Pflanzen miteinander verbunden. Im exklusiven Zirkel dieser Enthusiasten mischten sich Vertreter verschiedener sozialer Kreise. Zu den Blumenliebhabern zählten Gelehrte, gebildete und wohlhabende Bürger (Apotheker, Ärzte, Notare, Händler, Advokaten) sowie Adlige, für welche alle der Umgang mit Pflanzen keine Landwirtschaft, sondern eine Liebhaberei war. Tulpen wurden aufgrund mehrerer Eigenschaften geschätzt. Sie waren neu, exotisch, exklusiv, dekorativ und anspruchsvoll. Um ihre Begeisterung für die Blumenzucht und ' zu pflegen, legten Amateure private Gärten an und besuchten sich gegenseitig in diesen, um sich über die Kultivierung der neuen Sorten auszutauschen und die jeweiligen Exemplare in Augenschein zu nehmen. Befördert wurde die Anlegung privater Gärten durch das Wachstum der holländischen Städte jenseits der Stadtmauern. So wurden beispielsweise die Häuser, die in der ersten Hälfte des 17. Jahrhunderts an den Kanälen der Amsterdamer Herengracht, Keizersgracht und Prinsengracht gebaut wurden, mit rückwärtigen Gärten konzipiert. In anderen Städten wie in Haarlem legte man Gärten außerhalb der Stadtmauern an. In diesen Gärten wurden nicht mehr nur Heil- und Nutzkräuter gezogen, sondern die Gärten dienten auch der Kultivierung neuer Pflanzenarten wie Tulpen. So enthielt der "Hortus botanicus" in Leiden, der vor allem für Pflanzen zur medizinischen Verwendung angelegt wurde, bei Clusius’ Tod mehr als 600 Tulpenzwiebeln, mit denen keinerlei medizinische Wirkung verbunden wurde. Manche Blumenliebhaber spezialisierten sich auf das Sammeln und die Zucht von Tulpen, die in den Beeten mit großzügigem Abstand zueinander einzeln wuchsen. Ausdruck fand die gesteigerte Wertschätzung und Bekanntheit für Blumen in den Stillleben, wie sie in dieser Periode etwa von Ambrosius Bosschaert d.Ä., Balthasar van der Ast und Roelant Savery gemalt wurden. In manchen dieser Werke taucht die Tulpe in Verbindung mit anderen Gegenständen als Symbol der Vanitas auf. Die kurze Blühdauer von April bis Juni und das zeitige Vergehen der Pflanzen nach der Blüte machten die Tulpen, so eine Lesart dieser Bilder, zum Memento mori. Tulpen wurden auch in Wunderkammern gesammelt. Diese Kollektionen waren im Prinzip unterteilt in "naturalia" und "artificialia". Jedoch wurden in der Praxis in der Natur vorkommende und menschgemachte Objekte zusammen gesammelt und ausgestellt. Beispielsweise gehörte zum "Hortus botanicus" in Leiden auch eine Galerie (das "Ambulacrum"), in der die Raritätensammlung des Barent ten Broecke d.Ä. (Bernardus Paludanus) untergebracht war. Tulpenzwiebeln und Bilder von Tulpen fanden sich in diesen Kunst- und Naturalienkabinetten neben Kunstwerken und anderen raren und wertvollen Dingen wie Straußeneiern, Narwalhörnern, seltenen Mineralien und Muscheln. Manche Autoren wie der Sieur de La Chesnée Monstereul gingen soweit, die Tulpe zu den "artificialia" und nicht zu den "naturalia" zu zählen, weil in den Tulpenzüchtungen natürliche und menschliche Faktoren zusammenkamen. Das Sammeln von Tulpen und anderen Raritäten wurde bereits zu Beginn des 17. Jahrhunderts in den Niederlanden kritisch begutachtet. In seiner 1614 erschienenen polemischen Sammlung von Emblemen ' (‚Sinnsprüche‘, Amsterdam 1614) vergleicht Roemer Visscher den Eifer der Sammler von Muscheln mit dem der Sammler von Tulpen. In zwei aufeinander folgenden Blättern zeigt er zum einen exotische Muscheln unter dem Titel ' („Es ist verrückt, für was ein Narr sein Geld ausgibt“), zum anderen Tulpen unter der Überschrift ' („Ein Narr und sein Geld sind eilends geschieden“). Die Tulpenliebhaber unterhielten ihre Beziehungen durch den Tausch, nicht den Verkauf von Tulpen. Ihre Reputation beruhte auf Kennerschaft, Ehrlichkeit, Verlässlichkeit und der Bereitschaft, Wissen und Güter bereitwillig zu tauschen. Jedoch bedingte die hohe Wertschätzung und Seltenheit der Tulpen auch, dass sie zu einem finanziell kostbaren Gut wurden. Dies zeigt sich etwa in den Diebstählen von Tulpenzwiebeln. So wurde Clusius allein 1569 zweimal beraubt und ihm wurden dabei über 100 Tulpen gestohlen. Zu der Kultur der Blumenliebhaber trat der kommerzielle Handel mit Blumen. Seit mindestens der Mitte der 70er Jahre des 16. Jahrhunderts wurden seltene Pflanzen und Blumen gehandelt. Clusius berichtet beispielsweise von Händlern, die 1576 Schneerosen in Wien verkauft hätten. Zu den etablierten Amateuren und ihren Tauschgeschäften kamen neue Akteure hinzu, die mit Blumen kommerziell handelten ("rhizotomi" ‚Wurzelschneider‘, wie Clusius sie nannte). Es finden sich aber auch Belege, dass die ' selbst und nicht nur neu dazukommende Händler aktiv an der Kommodifizierung der Tulpen teilgehabt haben und Tulpen sowohl kauften als auch verkauften. Tulpenzucht. Die Seltenheit von Tulpen begründete sich nicht nur in ihrer klimabedingten Anfälligkeit für Krankheiten und Fäulnis. Auch die bevorzugte Art der Vermehrung setzte einer massenhaften Verbreitung Grenzen: Zwar können Tulpen über Samen verbreitet werden, doch benötigt in dieser Form das Heranwachsen einer blühfähigen Pflanze sieben bis zehn Jahre. Daher erfolgte die Vermehrung vegetativ mittels Tochterzwiebeln. Als Geophyten bilden Tulpen in der Erde geschützte Zwiebeln aus, um den Winter zu überdauern und im nächsten Frühjahr erneut auszutreiben. Nach der Blüte wachsen im Frühjahr bis zum Sommer an den Mutterzwiebeln Tochterzwiebeln, die nach der Blüte „gerodet“ werden können. Sie existieren dann als eigenständige blühfähige Exemplare. Die Mutterzwiebeln werden nach der Blüte mit den gebildeten Tochterzwiebeln den Sommer über aus der Erde genommen und erst im September bzw. Oktober wieder eingepflanzt, wo sie bis zur nächsten Blüte überwintern. In den Niederlanden trieben die Züchter und Sammler neben der mengenmäßigen Vergrößerung des Tulpenbestandes zudem die Zucht von Sorten voran. Das Wissen über die korrekte Bestellung und Pflege der Pflanzen wurde sowohl in Abhandlungen von Botanikern wie Rembert Dodoens und Matthias de L’Obel als auch in populären Schriften wie Emmanuel Sweerts "Florilegium" oder Crispijn van de Passes d.Ä. "Hortus Floridus" verbreitet. Tulpen wurden wegen ihrer spontanen Farb- und Formwechsel und der dadurch erzielten unzähligen Varianten geschätzt. In der Zeit zwischen 1630 und 1650 kannte man rund 800 namentlich unterschiedene Tulpensorten. Die in der Zucht entstandenen Cultivare wurden in Gruppen klassifiziert: Unter die "Couleren" zählten beispielsweise alle einfarbigen roten, gelben und weißen Tulpen, die "Rozen" zeigten eine violette bzw. lila Färbung auf weißem Grund, während zu den "Bizarden" alle Tulpen gerechnet wurden, die eine rote, braune oder violette Färbung auf gelbem Grund aufwiesen. Die gemusterten Blütenblätter („das Brechen“) sind Resultat des Tulpenmosaikvirus, das von Blattläusen übertragen wird und über infizierte Tochterzwiebeln weitergegeben werden kann. Dementsprechend unberechenbar und selten waren erfolgreiche Zuchtlinien, insbesondere deshalb, weil der Grund für die plötzliche Farbänderung den damaligen Züchtern unbekannt war – er wurde erst 1924 gefunden – und weil die gebrochenen Tulpen schwächer und anfälliger sowie in ihrem Farbmuster weniger konstant waren als gesunde Tulpen. Auch wenn den Züchtern der Grund der Farbvariationen unbekannt war, suchten sie nach Wegen, Tulpen gezielt zu brechen. Beispielsweise wurden zwei Hälften verschiedener Zwiebeln zusammengebunden, Tulpenzwiebeln wurden mit Tinte getränkt, oder Taubenmist wurde auf dem Gartenboden verbrannt. Die Wertschätzung für Tulpen in den Niederlanden drückt sich in ihrer Benennung aus. So finden sich zahlreiche Tulpen mit den Namensbestandteilen "Admirael" und "Generael", was den höchsten in dieser Zeit erreichbaren gesellschaftlichen Positionen entspricht. Zum Beispiel hieß eine der Tulpen des Züchters Francesco Gomes da Costa 'Admirael da Costa' oder die Sorten 'Admirael van Enkhuizen' bzw. 'Generael der Generaels van Gouda' kamen aus Enkhuizen bzw. Gouda. Zudem gab es Anspielungen auf kostbare Materialien (z. B. " ‚Goldstoff‘) oder bekannte Figuren der klassischen Antike (z. B. " ‚Schöne Helena‘). Auch wurden zur Bezeichnung von Tulpensorten häufig Anleihen bei anderen in den Wunderkammern gezeigten Gegenständen gemacht. So finden sich Hinweise zu Sorten mit den französischen bzw. niederländischen Namen 'Agaat' (Achat), 'Morillon' (ungeschliffener Smaragd), 'Ghemarmerde' (marmoriert) oder 'Marquetrine' (Marketerie). Es waren besonders die mehrfarbig geflammten, gestrichelten, gestreiften, geränderten oder gesprenkelten Tulpen, die im Zentrum der Spekulationsgeschäfte der Tulpenmanie standen. Die meisten dieser Sorten sind mittlerweile ausgestorben. So ist von der damals wertvollsten Tulpe, 'Semper Augustus' (‚der immer Erhabene‘), kein Exemplar erhalten, weil in jüngerer Zeit mit dem Tulpenmosaikvirus befallene Pflanzen von den Züchtern vernichtet werden, damit sie nicht den gesamten Bestand infizieren. Organisation des niederländischen Tulpenhandels. Zwiebeln wurden während der Pflanzzeit in den Sommermonaten gehandelt. Die gerodeten Zwiebeln wurden dabei in Spotmärkten verkauft. Der Handel mit Tulpen ließ sich nicht auf diese kurze Periode beschränken. Die Händler gingen dazu über, auch solche Zwiebeln zu kaufen und zu verkaufen, die sich noch in der Erde befanden und erst später, nach der Blüte, ausgegraben werden konnten. Die in diesen Transaktionen getätigten Börsen- bzw. Terminkontrakte konnten notariell beglaubigt werden oder wurden inoffiziell auf Papierstreifen ("coopcedulle") festgehalten. Gelegentlich bedienten sich die beiden Handelsparteien eines Vermittlers (') zur Aushandlung der Kaufbedingungen. Die Bezahlung der Tulpen war gewöhnlich dann fällig, wenn die Zwiebeln nach der Blüte aus der Erde genommen und übergeben wurden. Als Konsequenz entwickelte sich der Tulpenhandel zum Spekulationsgeschäft, da niemand in der Lage war, verbindliche Aussagen darüber zu treffen, wie die gehandelten Tulpen aussehen, noch ob sie in der neuen Saison überhaupt blühen würden. Aufgrund dieser unklaren Handelsgrundlage wurde das Geschäft mit Tulpen auch als ' bezeichnet. Zum Zwecke der Veranschaulichung des zu erwartenden Aussehens einer Tulpe gaben die Züchter und Händler Kupferstiche, Aquarelle und Gouachen von Tulpensorten in Auftrag und sammelten diese in Handels- bzw. Versteigerungskatalogen, so genannten "Tulpenbüchern". Von ihnen sind Anfang des 21. Jahrhunderts insgesamt 45 Exemplare erhalten geblieben. Die Besonderheit dieser Tulpenbücher ist, dass neben den Illustrationen selbst auch die Namen und gelegentlich auch noch das Gewicht und die Preise der abgebildeten Sorten am Rand der Blätter verzeichnet sind. alt=farbige Zeichnung neun unterschiedlicher Tulpen und einer Zwiebel Mit der steigenden Beliebtheit der Zierpflanze kamen neue Formen des Tulpenhandels dazu und ab der Mitte der 1630er Jahre ist im Vergleich zu anderen Produkten ein Preisanstieg zu bemerken. Spätestens um das Jahr 1634 betraten Spekulanten den Markt, die Tulpen nicht nur in der Hoffnung kauften, sie zu späterer Zeit selbst in ihren Garten zu setzen, sondern sie erwarben, um sie bei steigenden Preisen mit Gewinn weiterzuverkaufen. Der Leerverkauf war auch in anderen Sektoren der niederländischen Wirtschaft verbreitet. So verkaufte die Niederländische Ostindien-Kompanie ihre verschifften Waren, noch bevor diese ausgeliefert werden konnten. Jedoch untersagten die Generalstaaten 1610 diese Art des Handels, und das Verbot wurde in den Folgejahren, 1621, 1630 und 1636, bestätigt. Dies bedeutete, dass entsprechende Verträge nicht vor Gericht einklagbar waren. Jedoch wurden die Händler, die solcherart Geschäfte betrieben, auch nicht explizit verfolgt, so dass Formen des Leerverkaufs stets genutzt wurden. Auch konnten diese Verdikte nicht verhindern, dass Optionsscheine auf Tulpenzwiebelanteile gehandelt wurden. Die umfassendste Beschreibung der Organisation des niederländischen Tulpenhandels zur Zeit der Tulpenmanie hat sich in dem spekulationskritischen Pamphlet ' erhalten, das drei satirische Dialoge der beiden Weber ' (‚Habgier‘) und ' (‚Wahrmund‘) wiedergibt. Es wurde kurz nach dem Ende der Spekulationsblase 1637 von Adriaen Roman aus Haarlem verbreitet. Folgt man der dortigen Beschreibung, dann fand der Handel mit Tulpenzwiebeln nicht in Börsengebäuden statt, sondern die Händler trafen sich in so genannten "Kollegs" (' bzw. ') in bestimmten Herbergen und Schankhäusern. Bei den Treffen der Kollegs wurden Tulpen gehandelt, bewertet und das Wissen über Sorten und Akteure ausgetauscht. Tulpenzwiebeln wurden zum Teil als einzelne Zwiebelexemplare, zum Teil nach Gewicht verkauft, im Speziellen nach der Goldschmiedeeinheit "asen" (ein "Aes" = 0,048 Gramm und ein Pfund = 9.729 Asen in Haarlem bzw. 10.240 Asen in Amsterdam). Der Verkäufer hatte die Möglichkeit einer Auktion (') oder beide Seiten schrieben ihren Preiswunsch auf einen Zettel bzw. ein Brett (') und zwei jeweils gewählte Unterhändler (') einigten sich auf einen Preis ('). Käufer waren verpflichtet, eine Gebühr von 2,5 Prozent des Verkaufspreises bzw. bis zu drei Gulden (das sog. „Weingeld“ bzw. ' in holländischen Gulden, also in "florins" (Dfl) bzw. "guilders") zu zahlen, die vor Ort für Speisen, Getränke und Trinkgelder ausgegeben wurden. Wenn man aus bereits angelaufenen Verkaufsverhandlungen wieder aussteigen wollte, dann war die Zahlung eines ' (Bußgeld) fällig. Mitunter wurde die Verpflichtung, eine Zwiebel zu liefern, über Zwischenhändler weiterverhandelt. Tulpen wurden außerdem auf offiziellen Auktionen versteigert, wie bei den Auktionen einer ' (Waisenhaus), wenn diese den Nachlass eines Verstorbenen zu Gunsten seiner Kinder versteigerte. Tulpenpreise. Für den Zeitraum von 1630 bis 1637 haben sich keine vollständigen Preisdaten erhalten. Daher ist es nicht möglich, exakte Aussagen über den Preisverlauf und das Ausmaß des Wertverlusts von Tulpenzwiebeln zu machen. In der Mehrzahl stammen die Daten auch aus dem '. Die Aufstellung des amerikanischen Wirtschaftshistorikers Peter M. Garber, der die Informationen zu Verkäufen von 161 Zwiebeln von 39 Sorten zwischen 1633 und 1637 zusammentrug, zeigt, dass selbst gleiche Tulpensorten zum selben Zeitpunkt zu unterschiedlichen Preisen gehandelt wurden. Der Grund hierfür liegt in den verschiedenen möglichen Handelsweisen und Handelsorten. Tulpen konnten in den Terminbörsen der "Kollegs", bei Auktionen, auf Spotmärkten beim Züchter und durch notariell beglaubigte Terminkontrakte verkauft bzw. erworben werden. alt=Diagramm, das die Preisentwicklung von Tulpen zwischen November 1636 und Mai 1637 zeigt Schon in den 20er Jahren des 17. Jahrhunderts war es unter Umständen möglich, für einzelne Tulpensorten sehr hohe Preise zu erzielen. Beispielhaft hierfür steht die Tulpe 'Semper Augustus'. Sie wurde 1637 als teuerste Tulpe aller Zeiten gehandelt. Einem Bericht aus dem Jahr 1623 zufolge sollten alle damals existierenden zwölf Tulpen dieser Sorte dem Amsterdamer Bürger Adriaan Pauw auf seinem Gut Heemstede gehören. 1623 kostete jede dieser Zwiebeln 1.000 Gulden, 1624 stand der Preis bei 1.200 Gulden, 1633 war er auf 5.500 Gulden gestiegen und 1637 wurden für drei Zwiebeln 30.000 Gulden geboten. Zum Vergleich: Das Durchschnittsjahreseinkommen in den Niederlanden lag bei etwa 150 Gulden, die teuersten Häuser an einer Amsterdamer Gracht kosteten rund 10.000 Gulden. Jedoch scheinen diese sehr hohen Tulpenpreise zu jener Zeit die Ausnahme gewesen zu sein. So wurden 1611 Tulpen der Sorte ' (‚Kerzen auf einem Leuchter‘) für 20 Gulden verkauft. Aus dem Oktober 1635 haben sich Daten zum Verkauf einer Tulpe der Sorte ' für 30 Gulden erhalten. Dass die Preise für Tulpenzwiebeln zu Beginn der 1630er Jahre anzogen, lässt sich an den Sorten ablesen, für die in zeitlicher Folge mehrere Preisdaten verfügbar sind. Beispielsweise verdoppelte sich der Preis einer Tulpe der Sorte ' von 0,07 Gulden per Aes am 28. Dezember 1636 auf 0,15 Gulden per Aes am 12. Januar 1637. Der Preis der Sorte "Switserts" stieg in diesen zwei Wochen von 125 Gulden auf 1.500 Gulden für das Pfund, ein Anstieg auf das Zwölffache. Verlauf. Ihren Höhepunkt erreichten die Preise für Tulpen bei der "Weeskamer"-Versteigerung am 5. Februar 1637 in Alkmaar. Sie wurde von den "weesmesters" (Rektoren des Waisenhauses) für die Nachkommen von Wouter Bartholomeusz Winckel veranstaltet. Auf der Auktion wurden für 99 Posten Tulpenzwiebeln insgesamt rund 90.000 Gulden erzielt. Es finden sich aber weder für die einzelnen Preise noch für die Käufer verlässliche Belege. Ein kurze Zeit nach der Auktion erschienenes Flugblatt enthält eine Preisliste, doch ohne Angaben, wer diese Summen auf der Auktion geboten haben soll. Der durchschnittliche Preis der versteigerten Tulpen betrug 792,88 Gulden. Das meiste Interesse zogen in den späteren Auseinandersetzungen mit den Ereignissen die Tulpen auf sich, für welche weitaus höhere Preise geboten worden sein sollen. So kam eine Tulpe der Sorte 'Viceroy' für 4.203 Gulden unter den Hammer, eine "Admirael van Enchhysen" wurde für 5.200 Gulden verkauft. Zwei Tage vor der Auktion in Alkmaar, am 3. Februar 1637, hatte der Verfall von Preisen in Haarlem seinen Anfang genommen. Bei einer der regelmäßigen Wirtshausversteigerungen konnte keine der angebotenen Tulpen zu dem erwarteten Preis verkauft werden. In den nächsten Tagen brach dann in den gesamten Niederlanden der Tulpenmarkt zusammen. Das System des Handels funktionierte nur so lange, wie die Händler mit steigenden Preisen und der Option rechneten, dass ein Käufer bereit wäre, die reale Tulpenzwiebel zu erwerben. Als sich keine neuen Käufer fanden, die in die Preisspirale einsteigen wollten, fiel der Wert von Tulpen um geschätzt mehr als 95 Prozent. Am Ende der Spekulationsblase fanden sich Händler mit Verpflichtungen, Tulpenzwiebeln im Sommer zu einem Preis weit über den aktuellen Marktpreisen zu erwerben, während andere Tulpenzwiebeln verkauft hatten, die nur noch einen Bruchteil des Wertes besaßen, für den sie ihnen abgekauft wurden. alt=Flugblatt Um einen Weg aus dieser Krise zu finden, entsandten am 23. Februar 1637 verschiedene Städte Delegierte zu einem Treffen nach Amsterdam. So waren bei dieser Zusammenkunft insgesamt 36 Blumenhändler aus zwölf Städten und Regionen (Haarlem, Leiden, Alkmaar, Utrecht, Gouda, Delft, Vianen, Enkhuizen, Hoorn, Medemblik und der Region De Streeck) vertreten. Auch Händler aus Amsterdam selbst waren zugegen, doch weigerten sie sich, die getroffene Vereinbarung zu unterzeichnen. Die Abmachung sah vor, allen Kaufverträgen Gültigkeit zuzusichern. Aber jeder Käufer hatte bis März 1637 das Recht, Käufe zu annullieren, die nach dem 30. November 1636 (dem Ende der vorherigen Pflanzsaison) getätigt worden waren. Als Ausgleich hätten in diesem Fall nur 10 Prozent des Kaufpreises als Bußgeld gezahlt werden müssen. Weil aber diese Abmachung nicht rechtlich verbindlich war und mit Amsterdam ein wichtiges Zentrum des Handels sich weigerte, zu kooperieren, wurde die Vereinbarung nicht eingehalten. Ein zweiter Anlauf zur Lösung der Krise ging von Städten unter dem Druck einflussreicher Blumenhändler aus. So wurde in Haarlem vorgeschlagen, den Staaten von Holland und Westfriesland die Idee zu unterbreiten, alle Transaktionen seit dem Ende der letzten Pflanzzeit ("planttijt") Ende September 1636 ohne Strafzahlungen zu annullieren. Der Ältestenrat ("vroedschap") diskutierte diesen Vorschlag am 4. März 1637 und kam zu dem Entschluss, dass dieses Anliegen vor den Staaten vertreten werden sollte. Diesen Beschluss unterstützten auch die Bürgermeister ("burgemeesters"), wohl auch unter dem Einfluss wichtiger "regenten" (Mitglieder der patrizischen Stadtregierung in den Niederlanden) wie Cornelis Guldewagen und Johan de Wael. Beide besaßen Brauereien in Haarlem, gehörten zur bürgerlichen Oberschicht und bekleideten über Jahrzehnte verschiedene öffentliche Ämter in der Stadtverwaltung. Kurz vor dem Preisverfall waren sie in das Geschäft mit Tulpen eingestiegen, indem sie 1.300 Zwiebeln aus dem Garten des bankrotten Amsterdamer Händlers Anthony de Flory kauften. In den Gerichtsakten tauchen sie auf, weil sie in der Folgezeit mehrfach versuchten, gerichtlich aus dem Vertrag auszusteigen. In Hoorn ging der Magistrat denselben Weg, während Alkmaar einen entgegengesetzten Kurs einschlug. Am 14. März 1637 forderte Alkmaar seine Repräsentanten in den Staaten auf, die Einhaltung aller Verträge einzufordern. Zwar beschäftigten sich die Staaten mit den Eingaben, doch verwiesen sie die Städte am 11. April 1637 an den obersten Gerichtshof der Provinz Holland ("Hof van Holland"). In seiner Entscheidung vom 23. April 1637, die von den Staaten am 25. April 1637 verkündet wurde, erklärte der Gerichtshof: Erstens sollten alle Verträge in Kraft bleiben. Zweitens sollten die einzelnen Städte die "bloemisten" bei ihrer Suche nach einvernehmlichen Lösungen ("viam concordiea") unterstützen. Wo dies nicht gelänge, sollten die Probleme dem Gerichtshof rückgemeldet werden. Drittens war es den Verkäufern erlaubt, im Fall, dass die Käufer ihre Abmachung brechen würden, die betreffenden Zwiebeln nochmals zu verkaufen. Dabei sollte der erste Käufer für die Differenz zwischen dem ersten abgemachten und dem zweiten erzielten Preis einstehen. In Haarlem wurde dieser Schiedsspruch so umgesetzt, dass ab 1. Mai 1637 Streitigkeiten wegen Tulpenverkäufen nicht mehr vor Gericht gebracht werden durften. Die Blumenhändler mussten sich untereinander einig werden. Da aber auf diese Weise viele Streitfälle ungelöst blieben, wandten sich die "burgemeesters" von Haarlem im Juni 1637 erneut an den "Hof van Holland" mit der Bitte, den Schiedsspruch aufzuheben. Weil aber der Gerichtshof diesem Antrag nicht folgte, stellten die "burgemeesters" von Haarlem am 30. Januar 1638 eine Kommission zusammen ("Commisarissen van den Bloemen Saecken"). Eine ähnliche Lösung wurde in Alkmaar und nach heutigem Kenntnisstand eventuell auch in weiteren Städten gefunden. Ziel war es, die Konflikte einvernehmlich beizulegen (per "accomodatie"). Die endgültige Lösung bestätigten die Bürgermeister von Haarlem am 28. Mai 1638: Die Verträge konnten annulliert werden, wenn die Käufer zur Zahlung einer Strafe in Höhe von 3,5 Prozent des ursprünglichen Kaufpreises bereit waren. Erklärungen. Es existieren verschiedene Ansätze, den Preisanstieg und Preisverfall von Tulpen im Winter 1636/37 zu erklären. Während traditionell eine kritische Deutung der Ereignisse als irrationale Manie vorherrschte, bemühen sich neuere Arbeiten aus marktrationalen, institutionellen und historischen Perspektiven um ausgewogenere Interpretationen. Traditionelle Deutungen. Die traditionelle Deutung des Preisanstiegs und Preisverfalls von Tulpen versteht diese Ereignisse als exzessive Finanzspekulation und leichtsinnige Verrücktheit. Entscheidend für die Verbreitung der Idee einer Tulpen"manie" war das Buch ', das der schottische Journalist Charles Mackay 1841 in London veröffentlichte. Mackay vertrat darin die These vom irrationalen Massenverhalten und unterstützte diese durch die Beispiele der Südseeblase und des Skandals um die Mississippi-Kompanie (beide 1720). Grundelemente seiner Darstellung, die in den anschließenden Auseinandersetzungen vielmals weitergetragen wurden, sind zum einen die Behauptung, die Tulpenmanie habe alle Bevölkerungsschichten der Niederlande erfasst und in kommerzielle Spekulationen getrieben, und zum anderen die Behauptung, sie habe die Beteiligten ruiniert und der niederländischen Wirtschaft insgesamt einen schweren Schaden zugefügt. Außerdem verbreitete Mackays Text einige danach immer wieder zu findende Anekdoten, etwa die vom Tausch eines sehr umfangreichen Warenkorbs gegen eine Tulpe der Sorte 'Viceroy' oder die vom Missgeschick eines Mannes, der aus Versehen eine der kostbaren Tulpenzwiebeln mit einer einfachen Gemüsezwiebel verwechselt und verspeist habe. Mackays wichtigste Quelle für seine Informationen und die von ihm vorgebrachte kritische Lesart der Tulpenmanie ist Johann Beckmann, welcher wiederum auf den niederländischen Botaniker Abraham Munting vertraute. Dieser wurde 1626 geboren und ist kein Augenzeuge der Tulpenmanie. Munting verließ sich auf zwei Dokumente, die damit die Grundlage für alle späteren Texte und deren kritischen Deutung des Tulpenhandels bilden. Zum einen ist dies eine Chronik von Lieuwe van Aitzema und zum anderen das Pamphlet ' von Adriaen Roman. Da Aitzema wiederum seine Beschreibung auf Pamphlete und Flugblätter gründet, bildet diese Sammlung an zeitgenössischen Texten die Hauptquelle der populären Auseinandersetzung mit der Tulpenmanie. Der überwiegende Teil der Kritik in diesen Flugblättern und Handzetteln, die im Frühjahr 1637 in verschiedenen Städten kursierten, wirft den Blumenhändlern vor, sie hätten Tulpen zu ihren Götzen gemacht und damit Gott beleidigt, sie hätten durch unlauteren Handel nach Geld gestrebt und sie hätten die soziale Ordnung gefährdet. Das von Mackay entworfene Bild des Preisanstiegs und Preisverfalls von Tulpen als umfassender und zerstörerischer Manie macht das historische Ereignis zum Paradebeispiel einer durch Massenhysterie fehlgeleiteten Marktentwicklung. In dieser Form findet die Tulpenmanie Eingang in populärwissenschaftliche Betrachtungen zu Finanzmärkten und späteren Finanzkrisen, wie etwa Burton Malkiels ' (1973) oder Kenneth Galbraiths ' (1990). So taucht die Tulpenmanie auch in Oliver Stones Film ' (2010) auf. Darin nutzt der Spekulant Gordon Gekko eine historische Darstellung des sich wandelnden Marktwerts von Tulpen, um die Finanzkrise ab 2007 zu erklären und zu bewerten. Marktrationale Erklärung. Seit den 1980er Jahren haben sich Ökonomen an einer positiveren Sicht auf das spekulative Verhalten versucht und Mackays Deutung kritisch begutachtet. Hinterfragt werden dabei das Ausmaß, in dem die Spekulationswelle die Bevölkerung erfasste, und das Ausmaß der negativen ökonomischen Auswirkungen der Tulpenmanie. In seiner Erklärung, warum die Händler immer höhere Preise für Tulpen zu zahlen bereit waren, hebt der amerikanische Wirtschaftshistoriker Peter M. Garber den Aspekt der spielerischen Zerstreuung und die erhöhte Risikobereitschaft in Pestzeiten hervor. Während der ersten Hälfte des 17. Jahrhunderts grassierten in Abständen Beulenpestepidemien in den niederländischen Städten, was Garber als Begründung für die Bereitschaft zum Risiko und als Erklärung für die zur Verfügung stehenden Geldsummen (durch Erbschaft) anführt. Anhand der von ihm genutzten Preisdaten für Tulpenverkäufe im Winter 1636/1637 und für danach erfolgte Transaktionen von Tulpen in den Jahren 1643, 1722 und 1739 argumentiert er, dass der jährliche Preisverfall von Sorte zu Sorte variierte und von 76 Prozent bis 24 Prozent betragen konnte. Im Vergleich mit den Preisen für Hyazinthen im 18. Jahrhundert erklärt Garber, dass die Behauptung, die Tulpenmanie sei ein einmaliges Geschehen, nicht aufrechterhalten werden könne. Vielmehr würden die Preiskurven deutliche Parallelen aufweisen. Auch bei Hyazinthen seien die Preise für die teuersten Sorten innerhalb von drei Jahrzehnten auf ein bis zwei Prozent des ursprünglichen Wertes gefallen. An Garbers marktrationale Erklärung, basierend auf der Effizienzmarkthypothese, schließt die Überlegung von Douglas French an. Er behauptet, die Tulpenmanie sei auch deshalb möglich geworden, weil die Geldpolitik der Amsterdamer Wechselbank ("Wisselbank") und die Kaperung der Spanischen Silberflotte am 17. September 1628 durch Piet Pieterszoon Heyn dazu führten, dass mehr Geld verfügbar war, welches spekulativ eingesetzt werden konnte. Institutionelle Erklärung. Garbers vergleichender Argumentation widerspricht der amerikanische Ökonom Earl A. Thompson. Er weist darauf hin, dass der Preisverfall von Tulpen in den 30er Jahren des 17. Jahrhunderts nicht die behauptete Änderung um rund 40 Prozent betrug, sondern 99,999 Prozent. Dass die Händler im Winter 1636/1637 bereit waren, immer höhere Geldsummen für Tulpen zu bieten, erklärt Thompson mit dem Dekret, welches die Delegierten der Händler am 24. Februar in Amsterdam verabschiedeten. Er geht davon aus, dass dieses Dokument nicht die Reaktion auf den Preissturz zu Beginn des Monats Februar gewesen sei, sondern nur der Endpunkt eines längeren Vorhabens. Die Händler hätten demnach danach gestrebt, die Verträge im Bedarfsfall verlustlos annullieren zu können, und seien in Erwartung der Bestätigung dieses Ansinnens bereits vorfristig risikoreiche Verträge eingegangen. In seiner Deutung eröffnet das Dekret eine Ausstiegsklausel für Kaufverträge. Dem Käufer von Tulpenzwiebeln stand es frei, aus eingegangenen Verträgen auszusteigen und in diesem Fall eine Vertragsstrafe in Höhe von 3,5 Prozent des Handelswertes zu zahlen. Diese Möglichkeit habe die preistreibenden Spekulationen der Händler begünstigt, welche mit steigenden Preisen und Weiterverkaufsgewinnen rechneten, aber bei Gefahr eines Preisverfalls unter Verlust nur eines Bruchteils der Vertragssumme hätten aussteigen können. In diesem Sinne sei die Manie nur eine ökonomisch-rationale Antwort auf die Änderung rechtlicher Rahmenbedingungen. Der Preissturz wiederum sei durch Ereignisse im Dreißigjährigen Krieg hervorgerufen worden. Der Vormarsch der Schweden nach der Schlacht bei Wittstock habe die Erwartung der holländischen Händler gedämpft, deutsche Fürsten würden in den Tulpenhandel einsteigen und die überteuerten Tulpen aufkaufen. Historische Erklärung. Die amerikanische Historikerin Anne Goldgar überprüft in ihrer Studie des sozio-ökonomischen Kontextes von Tulpenzucht und Tulpenhandel im Goldenen Zeitalter der Niederlande mehrere populäre Behauptungen zu den Umständen und Folgen der Tulpenmanie. Ihre Arbeit beruht im Wesentlichen auf der Auswertung historischer Quellen, insbesondere der erhaltenen Zeugnisse von Verkäufen und Gerichtsakten für drei Zentren des Tulpenhandels: Amsterdam, Haarlem und Enkhuizen. Zu Beginn ihrer Darstellung weist sie auf ein Problem jeder Untersuchung der Tulpenmanie hin, die damit umgehen müsse, dass sich die Dokumente über Preise, Transaktionen und beteiligte Akteure nur unvollständig erhalten haben. Die erste von ihr untersuchte Behauptung betrifft das Ausmaß der Handelsaktivitäten. Entgegen der bereits in den frühen Flugschriften und später von Mackay vertretenen Idee, die Tulpenmanie habe große Teile der Bevölkerung erfasst, vertritt Goldgar die Meinung, das Phänomen habe nur eine kleine Gruppe der Bevölkerung betroffen, vor allem wohlhabende Kaufleute und Handwerker. Die einschlägigen Berichte über wahnhaften und massenhaften Handel gingen dagegen auf zeitgenössische Propaganda und religiös motivierte Sozialkritik zurück. Insgesamt konnte sie 285 Personen identifizieren, die in Haarlem zu Beginn des 17. Jahrhunderts in den Tulpenhandel involviert gewesen waren. In Amsterdam waren es etwa 60, in Enkhuizen rund 25. In dieser kleinen Gruppe der "bloemisten" bzw. "floristen" seien weder Angehörige der obersten noch der untersten gesellschaftlichen Schichten vertreten gewesen. Der Kauf und Verkauf von Tulpen war, so behauptet sie, ein urbanes Phänomen, welches insbesondere in der dicht besiedelten Provinz Holland und dort besonders von Kaufleuten, Notaren, Ärzten, Silberschmieden, Handwerksmeistern, Schankwirten, Brauereibesitzern und Apothekern betrieben wurde. In manchen Fällen seien auch Bürgermeister, "schepen" (‚Schöffen‘) und Mitglieder des Ältestenrats in die Tulpengeschäfte involviert gewesen. Auch formierten sich ab Mitte der 1630er Jahre Kompanien, bei denen mehrere geldgebende und ausführende Partner zusammen auf dem Markt agierten. Sie alle hätten sich, wie den Steuerregistern zu entnehmen ist (1631 für Amsterdam sowie 1628, 1650 und 1653 für Haarlem angelegt), in der Schicht der wohlhabenden Stadtbürger befunden. Weder für die Teilnahme von den in den Pamphleten häufig genannten Webern und Schornsteinfegern noch für die Präsenz Adliger konnte Goldgar Belege ausfindig machen. alt=Titelblatt Goldgar argumentiert, dass der Tulpenhandel auch während der Tulpenmanie ein Phänomen der bürgerlich-gehobenen Schichten war. Es bestehe demgemäß eine Kontinuität zwischen den ', die Tulpen besonders wegen ihrer Schönheit und Seltenheit schätzten, und den "bloemisten", die in den Tulpen auch Handelswaren und Wertanlagen sahen. Wie die Tulpenliebhaber seien auch die Tulpenhändler in engen familiären, religiösen (ein überproportional hoher Anteil an Mennoniten handelte mit Tulpen), örtlichen und geschäftlichen Netzwerken miteinander verbunden gewesen. Der Handel war zudem, auch dies zeigten die Dialoge im ', ein geordnetes System an Verpflichtungen und Abläufen, wie sie in den Kollegs gepflegt wurden. Die Kollegs waren nicht allein die soziale Veranstaltung des Handels mit Tulpen, sondern zugleich eine moralische, wenn auch keine rechtlich bindende Autorität der Begutachtung von Tulpen und der Bewertung der Transaktionen. Die Verhandlungen in den Kollegs versteht Goldgar als Ausdruck der niederländischen "discussiecultuur", die über Diskussion, Ausgleich und Verhandlung kommerzielle und soziale Probleme zu lösen versuchte. Außerdem behauptet Goldgar, dass die Händler im Umgang mit den Risiken des "windhandels" geübt waren. In einer auf den Seehandel orientierten niederländischen Wirtschaft waren spekulative Geschäfte üblich. So verkaufte die Niederländische Ostindien-Kompanie ihre Waren, bevor diese die Kunden erreicht hatten. Auch erfreuten sich Wetten und Lotterien großer Beliebtheit, und Tulpen wurden selbst zu Wetteinsätzen gemacht. Als Beleg für die Ernsthaftigkeit und Bedeutung des Handels mit Tulpen sieht Goldgar das Vorhaben der Generalstaaten im Sommer 1636, die Transaktionen zu besteuern. Parallel zu Überlegungen, Abgaben für andere Luxusgüter wie den Besitz einer Dienerschaft, den Genuss von Tabak oder das Kartenspiel einzuführen, sollte der Handel mit Tulpen besteuert werden. Dem üblichen Prozedere folgend, verwiesen die Generalstaaten diesen Vorschlag an die einzelnen Städte zur Diskussion, doch endete die Sitzungsperiode mit dem 7. Februar 1637 und im Mai 1637 wurde die Idee aufgrund der gesunkenen Preise wieder verworfen. Ein wichtiger Faktor für den raschen Preisverfall scheint der vertrauensbasierte Handel mit „immateriellen“ Gütern gewesen sein. Nicht reale Tulpenzwiebeln wurden ver- und gekauft, sondern die Option auf eine zukünftig nach einem bestimmten Muster blühende Tulpe. Eine Ursache des Preisverfalls könnte vor diesem Hintergrund das Gerücht einer Überproduktion infolge der Nachfragesteigerung gewesen sein, denn der Preis bemaß sich auch an der Seltenheit der Tulpensorte. Zweitens bestreitet Goldgar, dass die Tulpenmanie ernsthafte negative Konsequenzen für die niederländische Wirtschaft und für die einzelnen Tulpenhändler gehabt habe. Die Praxis des Tulpenhandels sah vor, dass der Kaufpreis erst fällig wurde, wenn die Tulpenzwiebel nach ihrer Blüte aus der Erde gehoben wurde. Deshalb wechselten in den Transaktionen im Winter 1636/1637 weder reale Tulpenzwiebeln noch Geldmengen ihre Besitzer. Wenn in der Folge der sinkenden Preise die beiden Handelsparteien sich deshalb auf eine Annullierung des Kaufes einigten, so erlitt niemand ernsthaften finanziellen Schaden. Die Verkäufer konnten ihre Tulpen zwar nicht für den erhofften Preis absetzen, gerieten im Prinzip aber nur dann in Schwierigkeiten, wenn sie die zu erwartenden Einnahmen bereits vorfristig für anderen Zwecke als Kredit eingesetzt hatten. Die Käufer wiederum konnten zwar nicht auf einen Weiterverkauf mit Gewinn hoffen, doch kamen sie, wenn eine Strafzahlung fällig wurde, mit einem vergleichsweise geringen Verlust aus dem Geschäft. In den Ketten von Käufern und Verkäufern musste wiederum nur derjenige Verluste hinnehmen, der die Tulpe auch real besaß. In der längsten dieser Ketten, in denen eine Tulpenzwiebel in einer Pflanzperiode weiterverkauft wurde, zählt Goldgar insgesamt fünf Beteiligte. Was den behaupteten Bankrott zahlreicher Händler angeht, so findet Goldgar nur vereinzelt Hinweise auf derartige Konsequenzen. Im Falle des Malers Jan van Goyen, der bei seinen Tulpengeschäften 894 Gulden verlor, zeigt Goldgar, dass dieser mehr Verluste durch die Spekulation mit Grundstücken als durch den Handel mit Tulpen erlitten habe. Zudem habe der Einbruch der Tulpenpreise für die Niederlande keinen wirtschaftlichen Abschwung bedeutet. Insgesamt betrachtet wuchs die Wirtschaft stetig bis zur Mitte des 17. Jahrhunderts. Die nachweislichen kürzeren Phasen wirtschaftlichen Abschwungs hätten in den frühen 20er Jahren und zwischen 1626 und 1631 stattgefunden, nicht aber in der Folge der Tulpenmanie nach 1637. Die Tulpenmanie sei daher weniger eine finanzielle Krise, sondern eine kulturelle Krise gewesen, in der das Zutrauen in den Markt, in die Zahlungssicherheit und in den vertrauensbasierten Handel erschüttert wurde. Rezeption in der Kunst und Literatur. alt=Kupferstich „Florae’s Gecks-kap“ Der aus den Fugen geratene Tulpenhandel wurde unmittelbar künstlerisch verarbeitet. Der Kupferstich ' von Crispin van der Passe d.J. enthält eine moralisierende Kritik, die zur Deutung der Tulpenmanie als Phase zügelloser Spekulationssucht wesentlich beigetragen hat. Den Tulpen, die die Göttin Flora auf einem Segelwagen trägt, sind Namen von Tulpensorten beigegeben, die stellvertretend für die Kostbarkeit der gehandelten Blumen stehen: "Semper Augustus", "Generael Bol" und "Admirael van(n) Horn". Die Bürger, die dem Wagen nachrennen rufen: "Wy willen mee vaeren" (‚Wir wollen mitfahren‘). Ein Affe, der sich an den Mast klammert, beschmutzt Flora, die in manchen Schmähschriften als "Bloemenhoertje" (‚Blumenhure‘) bezeichnet wurde. Der Wagen selbst steuert auf die "Laetus vloet", die Flut des Vergessens, zu. Am Strand versucht ein Bauer ("Santvorder Boer", ein Bauer aus Zandvoort), den "Schout", also den Schulzen, auf die Katastrophe hinzuweisen. Die Wappen am Wagen können möglicherweise in Zusammenhang mit bestimmten Schankhäusern gebracht werden, da die angegebenen Bezeichnungen wie "Witte Wambuis" oder "Bastart Pyp" typische Namen für solche Örtlichkeiten waren. In den vier Darstellungen in den Ecken des Stiches wiederum werden Szenen aus dem Tulpenhandel gezeigt: Links oben ein Tulpenbeet mit einem Käufer, rechts oben die "Compariti der Bloemisten", unten links nochmals eine Handelsszene im Wirtshaus. Rechts unten ist das abrupte Ende der Spekulationen illustriert. ' („Wenn die Tat der Narren geschehen ist, wird weiser Rat gesucht“). Die Händler sitzen und stehen in Konfusion aufgelöst, während ein Handwerker am rechten Bildrand bemerkt: "Wie hat dat gemeent" („Wer hätte das gedacht“). Bekannter noch als der Kupferstich von Crispin van der Passe d.J. ist das auf dieser Vorlage um 1640 von Hendrik Gerritz Pot gemalte satirische Bild von "Floras Narrenwagen" ("Flora’s Mallewagen", Frans-Hals-Museum, Haarlem). Abgebildet ist auch hier ein Segelwagen, in dem Flora mit Tulpensträußen in der Hand sitzt. Ihr zu Füßen sieht man eine trinkende Figur mit Narrenkappe, die "Leckebaerd" (Schleckmaul, Leckerbeck) genannt wird und die Völlerei symbolisiert. Diesem Bildmuster nach versammelt der Wagen noch weitere Laster. So heißt der mit einer tulpengeschmückten Narrenkappe versehene Mann "Liegwagen" (das Lügenmaul), der ältere Mann mit der Stockbörse und der Uhr wird als "Graegreich" (Gernereich) gedeutet, die Frau mit der Waage in der Hand ist die "Vergaer al" (Häufe an) und die Figur mit den zwei Gesichtern, die vorne auf dem Wagen sitzt, ist die "Ydel Hope" (Eitle Hoffnung). Sie streckt die Hand nach einem Vogel aus, der "Ydel Hope ontflogen" (Entflogenen eitlen Hoffnung). Im linken Hintergrund des Bildes ist Haarlem mit der Kirche St. Bavo zu sehen, während im Bildvordergrund ein Webstuhl und ein Gesetzbuch mit Füßen getreten werden. Im rechten Hintergrund sieht man bereits das Schicksal des Gefährts und seiner Insassen: Unlenkbar geworden stürzt es ins Meer. Noch deutlicher wird der Bezug zwischen Narrentum und Tulpenspekulation in dem Stich "Florae’s Gecks-kap" von Cornelis Danckerts. Es zeigt eine überdimensionierte Narrenkappe, in der ein Wirtshaus Raum gefunden hat, in welchem eine Tulpenauktion im Gange ist. Die Waage auf dem Tisch scheint zum Abwiegen der Tulpen zu dienen. Hinter der Kappe wird Flora, auf einem Esel sitzend, von einer wütenden Menge bedrängt. Im Vordergrund links und rechts werden die verblühten Tulpen zum Abfall gebracht. Der lachende Dritte ist der Wirt, der an den handelnden Tulpenliebhabern und Spekulanten verdient hat. Der Teufel im linken Bildhintergrund hält an einer Angelrute die Narrenkappe und als Köder einen Stapel von Einschreibungen für die Tulpenversteigerung. Wiederum anders geht Jan Brueghel der Jüngere das Thema an. Seine "Persiflage auf die Tulpomanie" (2. Viertel 17. Jahrhundert, Frans-Hals-Museum, Haarlem) stellt in mehreren narrativen Einzelszenen Affen in Menschenkleidern dar. In ihren Rollen als Tulpenmakler und Tulpenkäufer verweisen sie auf den Irrwitz des Tulpenhandels. So sieht der Betrachter ein Festmahl, mit dem potentielle Käufer amüsiert werden sollten, sowie die verschiedenen Stadien des Handels bis zur Verzweiflung der ruinierten Käufer. In der Preisliste, die einer der Affen im Vordergrund studiert, ist unter anderem zu lesen: "„Preis von / Blumen / viceroy 300 / asen 1500“". Der Name der Tulpensorte "Viceroy", die 4.600 Gulden bei einer Versteigerung 1637 einbrachte, findet sich auch im Giebelstein der Herberge wieder. Zudem sind Affen dargestellt, die das Gewicht von Tulpenzwiebeln prüfen; ein Affe wird von seiner Frau verprügelt, weil er das Geld für die teuren Tulpenzwiebeln vergeudet hat, ein anderer wird von Wegelagerern überfallen, ausgeraubt und getötet. Eine zweite Version aus einer österreichischen Privatsammlung (Allegorie der Tulipomanie) wurde 2011 im Wiener Auktionshaus Im Kinsky für insgesamt 92.500 Euro versteigert. 1966 wurde das Buch von Rombach verfilmt: Adrian der Tulpendieb war einer der ersten Fernsehfilme, die in Farbe ausgestrahlt wurden. Der Knecht Adrian gaunert sich durch die Tulpenmanie, wird reich und wieder bettelarm. In jüngerer Zeit wurde die Tulpenmanie insbesondere als historischer Hintergrund für Erzählungen genutzt. Deborah Moggachs Buch "Tulpenfieber" (2001) erzählt von der unglücklichen Liebe zwischen einem Maler und seinem Modell und von dem riskanten Versuch, durch den Erwerb einer "Semper Augustus" zu Reichtum zu kommen. Zur Zeit der Tulpenmanie spielen auch Enie van Aanthuis’ Roman "Die Tulpenkönigin" (2007), in welchem einem Waisenkind Tulpenzwiebeln vermacht werden und sie diese Erbschaft nutzt, um als Tulpenhändlerin reich zu werden, und Olivier Bleys’ Werk "Semper Augustus" (2007) über die skrupellosen Machenschaften eines Tulpenhändlers. Discofox. Discofox ist ein Gesellschaftstanz, der paarweise getanzt wird. Entstehung. Der Discofox (in den 60er Jahren als "Beat-Fox" bekannt) ging aus dem Foxtrott hervor, als Mitte der 70er Jahre frei improvisierende Discotänzer zur Tanzhaltung zurückkehrten und den klassischen Foxtrott um Elemente aus Swing, Boogie-Woogie und Two-Step bereicherten. Dabei entstand in den USA der Hustle, in Europa der Discofox, der 1979 in das Welttanzprogramm aufgenommen wurde. Erste Turniere wurden Ende der 1980er Jahre in der Schweiz ausgetragen; hier entstand auch die schweizweite Bezeichnung Disco Swing, als mehr und mehr Elemente aus anderen Tänzen wie Rock ’n’ Roll, Boogie Woogie, Swing, Mambo, Salsa und Cha-Cha-Cha in den Discofox integriert wurden. 1992 fand die erste Discofox-Weltmeisterschaft in Basel statt, organisiert wurde sie von der International Dance Organization. Erst acht Jahre später folgte die zweite Weltmeisterschaft in Miami, seitdem werden Europa- und Weltmeisterschaften jährlich durchgeführt. Während die raumgreifenden klassischen Tänze einen größeren Saal benötigen, ist der Discofox auf Grund seiner Entstehungsgeschichte nahezu auf der Stelle und damit auch auf dem zumeist begrenzten Flächenangebot einer Diskothek tanzbar. Technik. Der Discofox ist eine Fusion vieler verschiedener Elemente aus anderen Tänzen, weshalb er keine eigenen technischen Elemente entwickelt hat, sondern aus denen anderer Tänze besteht. So kombiniert er die aus dem Foxtrott abgeleiteten Schrittmuster mit der klassischen Tanzhaltung, der Improvisationsfreiheit des Swing, den Drehtechniken der lateinamerikanischen Tänze, den Wickelfiguren der Salsa und den akrobatischen Figuren des Rock ’n’ Roll und Boogie Woogie. Rhythmus und Musik. Takt: 1. 2. 3. 4. 1. 2. 3. 4. 3er-Schritt: |X X t |X X t |X... 4er-Schritt (1 2&3): |X X x X |X X x X |X... 4er-Schritt (1 2a3): |X X xX |X X xX |X... 4er-Schritt (1 2 3&): |X X X X|X X X X|X... Legende: X = Schritt (belastet), x = Stützschritt, t = Tap (unbelastet), Der "American Hustle" verbindet beide Grundschritte, begonnen wird meist mit "Tap". Als Musik eignet sich prinzipiell jede Form der Tanzmusik mit regelmäßigem 4/4-Rhythmus und einer Geschwindigkeit von rund 30 TPM bzw. 120 BPM. Insbesondere wird aktuelle Tanzmusik der Discos, d. h. Euro Disco und Eurodance, aber auch Spielarten des Techno, verwendet. Stilrichtungen. Die Stile unterscheiden sich hauptsächlich in den Zählweisen. Einige Stile zeichnen sich durch besonderen Einsatz von Spaßelementen aus, so z. B. der "Rope Hustle", bei dem die Tanzpartner durch ein Seil verbunden sind. Am verbreitetsten sind "New York" und "Three Count Hustle"; beide orientieren sich stark am Urstil des "Hustle", wie er 1977 durch den Film "Saturday Night Fever" bekannt wurde. Verbreitung. Der Discofox ist heute neben Salsa der populärste Paartanz in der Schweiz, Österreich, Deutschland und Südtirol (Norditalien), was u. a. an seiner technischen Unkompliziertheit und an seiner Vielseitigkeit liegt. Man kann ihn zu einem breiten Spektrum an Musikstilen und -tempi tanzen. Weniger verbreitet ist er in Australien (Ceroc), Frankreich, Russland ("Disco Hustle") und Schweden. Die Schweiz war seit Ende der 1990er Jahre bis etwa 2005 weltweit die erfolgreichste Discofox-Nation. So gingen fast alle Europa- und Weltmeistertitel dieser Jahre in die Schweiz. Discofox als Turniertanz. Der Discofox wird in der IDO international als Turniertanz geführt. Die nationalen Discofox-Verbände im deutschsprachigen Raum sind in Österreich der ÖTF, in Deutschland der TAF. Körperhaltung. Für den Grundschritt stehen sich beide Tanzpartner nah gegenüber. Die Füße stehen parallel zum Partner, der Körper steht aufrecht. Handhaltung. Die Handhaltung beim Discofox ähnelt der der Standardtänze, und die führenden Hände werden locker etwa in Schulterhöhe neben dem Kopf zusammengeführt. Der Herr legt seine rechte Hand flach zwischen Schulterblatt und Hüfte der Dame, während ihre linke Hand auf der Schulter des Herrn ruht. Schritte. Der nächste Schritt fängt dann ohne Pause wieder bei Schritt 1 an, sodass eine nahtlose Tanzfolge entsteht. Demokratie. Demokratie („Herrschaft des Staatsvolkes“, von "dēmos" ‚Staatsvolk‘ und -kratie: "kratía" ‚Herrschaft‘) bezeichnet Herrschaftsformen, politische Ordnungen oder politische Systeme, in denen Macht und Regierung vom Volk ausgehen, indem dieses – entweder unmittelbar oder durch Auswahl entscheidungstragender Repräsentanten – an allen Entscheidungen, die die Allgemeinheit verbindlich betreffen, beteiligt ist. In demokratischen Staaten und politischen Systemen geht die Regierung durch politische Wahlen aus dem Volk hervor. Typische Merkmale einer Demokratie sind freie Wahlen, das Mehrheitsprinzip, die Akzeptanz einer politischen Opposition, Verfassungsmäßigkeit, Schutz der Grundrechte, Schutz der Bürgerrechte und Achtung der Menschenrechte. Da die Herrschaft durch die Allgemeinheit ausgeübt wird, sind Meinungs- und Pressefreiheit zur politischen Willensbildung unerlässlich. „Demokratie“ ist in den meisten demokratischen Ländern formell ein tragendes Verfassungsprinzip, so in Deutschland (Art. 20 Abs. 1 GG), Österreich (Artikel 1 B-VG) und der Schweiz (Präambel der schweizerischen Bundesverfassung). Dies ist auch in vielen Staaten der Fall, deren demokratischer Charakter umstritten ist, wie beispielsweise im vorrevolutionären Libyen durch "das Grüne Buch" (dort: „Die Lösung des Demokratie-Problems“, 1975). Moderne Monarchien sind mit dem Demokratiebegriff in vielerlei Hinsicht vereinbar geworden – so haben sich Staatsformen wie die parlamentarische Monarchie herausgebildet, die entscheidende Elemente einer Demokratie in sich vereinen. Viele der existierenden Demokratien sind außerdem Republiken. Etymologie. Das Wort „Demokratie“ ist im antiken Griechenland entstanden und bedeutete dort die direkte "Volksherrschaft". Der Begriff „Volk“ wurde in jener Zeit sehr eng gefasst, da mit diesem nur einer äußerst begrenzten Gruppe von Bürgern politische Partizipationsrechte eingeräumt wurden. So konnten in einer griechischen Polis nur freie Männer an Volksversammlungen teilnehmen. Die Abkehr vom Grundgedanken der Demokratie wurde Ochlokratie („Herrschaft des Pöbels“) genannt. Demokratietheorien. Zweck und Funktionsweise der Demokratie werden in verschiedenen Demokratietheorien diskutiert. Normative Demokratietheorien beinhalten eine bestimmte Vorstellung von Demokratie und befürworten jeweils unterschiedliche Demokratieformen wie direkte Demokratie, repräsentative Demokratie, partizipatorische Demokratie, Demarchie, Radikaldemokratie oder Basisdemokratie. Legitimation der Demokratie. Eine wichtige Legitimationstheorie der Demokratie gründet sich auf das Ideal einer „Volksherrschaft“, die auf der Zustimmung und Mitwirkung der Mehrheit der Bürger beruhen solle. Theoretisch kann man eine Begründung dafür in folgender Überlegung suchen: Die Ordnung der politischen Gemeinschaft solle sich auf Gerechtigkeit gründen. Die letzte Grundlage, zu der alles Bemühen um Gerechtigkeitseinsicht vordringen kann, ist das, was das individuelle Gewissen nach bestmöglichem Vernunftgebrauch für gut und gerecht befindet. Daher gilt jeder als eine dem anderen gleich zu achtende moralische Instanz, wie Kant feststellte. Dies führt „für den Bereich des Staates und des Rechts zu dem demokratischen Anspruch, dass alle in einem freien Wettbewerb der Überzeugungen auch über die Fragen des Rechts und der Gerechtigkeit mitbestimmen und mitentscheiden sollten“. Diesen Gedanken folgend gilt heute die Demokratie im westlichen Verständnis für die einzige legitime Staatsordnung (siehe auch Demokratismus). Oft wird dabei Demokratie kurzerhand mit Rechtsstaatlichkeit gleichgesetzt, obwohl sie staatstheoretisch nicht notwendig (und oft auch tatsächlich nicht) mit dieser verbunden ist. Die Einschätzung der Demokratie als der „(einzig) richtigen Staatsform“ hat zu dem sogenannten Demokratisierungsprozess geführt. Dabei wird unterschieden zwischen der Demokratisierung von „oben“ und von „unten“; das heißt, die Demokratie wird entweder durch eine Revolution des Volkes von innen heraus eingeführt, oder aber das Land wird durch eine fremde Macht von außen „demokratisiert“. Letzteres kann als abgeschwächte Form zum Beispiel durch Demokratieförderung, oder aber auch durch die gewaltsame „Befreiung“ eines Landes (wie es beispielsweise bei der Entnazifizierung oder in Afghanistan und dem Irak der Fall war) geschehen. Aus der Sicht der politikwissenschaftlichen Souveränitätstheorie ist die Demokratie ein politisches System, in dem das Volk der souveräne Träger der Staatsgewalt ist. Je nachdem, ob der verbindliche Volkswille unmittelbar durch die Bürger oder durch gewählte Repräsentanten gebildet wird, unterscheidet man unmittelbare und repräsentative Demokratien. Parlamentarische Demokratien, die unter Wahrung der Volkssouveränität ein erbliches Staatsoberhaupt mit im wesentlichen repräsentativen Funktionen haben (wie z. B. Großbritannien oder Belgien) zählt man, staatstheoretisch zutreffend, zu den Demokratien, bezeichnet sie aber auch, unter Verwendung des inzwischen gewandelten Begriffs der Monarchie, als parlamentarische Monarchien. Vereinzelt hat man zwischen Demokratien und Nicht-Demokratien danach entschieden, ob ein Volk über seine Staatsform selbst entscheiden kann, oder sie ihm aufgezwungen wird. Nach Ansicht des Kritischen Rationalismus bedürfen auch die Legitimationstheorien einer kritischen Überprüfung, insbesondere auf Fehler, die sie anfällig für totalitäre Tendenzen machen. Diese Fehler ähnelten der fehlerhaften erkenntnistheoretischen Annahme autoritativer Quellen der Erkenntnis und ihrer Begründung. Sie gründeten sich letztlich auf eine unkritische Antwort auf die Frage „Wer soll herrschen?“. Die üblichen Demokratietheorien setzten diese Frage als staatsphilosophische Grundposition voraus und behaupteten, darauf die Antwort geben zu können: „Das Volk soll herrschen“ oder „Die Mehrheit soll herrschen“. Nach Karl Popper, dem Begründer des Kritischen Rationalismus, sei diese Frage falsch gestellt und auch die Antwort sei falsch, weil weder das Volk noch die Mehrheit, sondern die Regierung in einer Demokratie tatsächlich herrsche oder überhaupt herrschen könne. Diese Frage müsse ersetzt werden durch die bessere Frage, wie eine Tyrannis vermieden werden könne und wie der Staat so gestaltet und die Gewalten so geteilt und kontrolliert werden könnten, dass Herrscher keinen zu großen Schaden anrichten könnten und unblutig abgesetzt werden könnten. Handlungen von Regierungen sind nach dieser Theorie nicht grundsätzlich legitimiert und können sich nicht über die Moral stellen. Weder das Volk, noch die Regierung, seien oder sollten demnach souverän sein; die Regierung müsse Minderheiten auch gegen den Willen von Mehrheiten schützen, und das Volk müsse die Regierung gegen ihren Willen bei Wahlen zur Verantwortung ziehen. Die demokratische Wahl ist nach dieser Ansicht keine souveräne Auswahl und Legitimation einer neuen Regierung, die am besten fähig ist, den Willen des Volkes oder der Mehrheit durchzusetzen, sondern sie ist ein Volksgericht über die bestehende Regierung, bei dem Bürger darüber entscheiden, ob sie tüchtig genug ist und ob ihre Handlungen moralisch vertretbar sind. Die Theorie der Mehrheitsherrschaft müsse durch die Theorie der Entlassungsgewalt der Mehrheit ersetzt werden. Daraus zieht Popper auch praktische Konsequenzen, z. B. behauptet er die moralische Überlegenheit des Mehrheitswahlrechts und der Zweiparteiendemokratie gegenüber dem Verhältniswahlrecht und der Mehrparteiendemokratie, während die Souveränitäts- und Legitimationstheorien üblicherweise zu der entgegengesetzten Ansicht neigen. Die Kultivierungsbedürftigkeit demokratischer Entscheidungen. Die Demokratie bedarf mehrfacher Strukturierung, um effektiv und anpassungsfähig als freiheitliches und bürgernahes politisches System zu funktionieren, schon deshalb, damit nicht durch einen Mehrheitsabsolutismus ein Teil der Gemeinschaft durch einen anderen unterdrückt wird. Erwägungen dieser Art spielten bereits in den Vorüberlegungen zur Verfassung der USA eine Rolle. Später vertieften Alexis de Tocqeville und John Stuart Mill diese Überlegungen. Der Freiheitsgewährleistung dienen rechtsstaatliche Bindungen der Staatsgewalt, insbesondere Grundrechte und eine rechtsstaatliche Strukturierung der Entscheidungsverfahren durch Rollenverteilungen, rechtsstaatliche Verfahrensgrundsätze und Kontrollen. Einer Kultivierung des politischen Handelns dient auch die Dezentralisation der Entscheidungskompetenzen in Verbindung mit dem Subsidiaritätsprinzip: Grundlage ist die föderative Gliederung eines Staates in Länder und die Gliederung der Länder in Selbstverwaltungskörperschaften bis hin zu den Gemeinden. In diesem gegliederten Gemeinwesen sollen nach dem altüberkommenen Subsidiaritätsprinzip die nachgeordneten politischen Einheiten alles erledigen, was sie besser oder ebenso gut besorgen können wie die übergeordneten. Dadurch sollen die kleineren Gemeinschaften und deren Mitglieder ein Höchstmaß an Selbstbestimmung und Verantwortung für ihren eigenen Lebensbereich erhalten; insgesamt soll auf diese Weise für Bürgernähe gesorgt werden. Die demokratische Dezentralisation der politischen Gemeinwesen dient also insbesondere deren Vermenschlichung; doch findet sie im „Allzumenschlichen“ auch gewisse Grenzen. Es wird auch argumentiert, dass eine weitestgehende Umsetzung des Prinzips der Subsidiarität Grundvoraussetzung einer Demokratie ist. Nach dem Historiker Peter Jósika sollte jegliche demokratische Selbstbestimmung und Staatlichkeit immer von der Gemeinde als kleinste und bürgernaheste politische Einheit ausgehen. Demnach sollten Gemeinden jederzeit selbst über ihre Zugehörigkeit zu einem größeren politischen Gemeinwesen (z. B. einem Staat, einer Region, einer Provinz, einem Kanton oder einem Bundesland) entscheiden können. Jósika verweist diesbezüglich insbesondere auf das politische Modell der Schweiz, wo Gemeinden traditionell als Ausgangspunkt des demokratischen Staatswesens fungieren, über umfangreiche Autonomie verfügen und somit auch jederzeit ihre Kantonszugehörigkeit wechseln können. Er kritisiert die Mehrheit der heutigen Nationalstaaten in diesem Zusammenhang als zentralistisch und daher bürgerfern sowie undemokratisch. In einer territorialen Gliederung liegt zugleich eine föderative („vertikale“) Gewaltenteilung. Gleichermaßen erhebt sich die Forderung nach einer Gewaltenkontrolle durch eine „horizontale“, organisatorische Teilung der Regelungskompetenzen, aber auch (etwa bei Aristoteles) nach einer Ausbalancierung der gesellschaftlichen „Vermögen“ und Mächte. Solche Forderungen reichen in die Antike zurück und wurden teils von Aristoteles, teils von Polybios vertreten. Das Prinzip der horizontalen Gewaltenteilung fand seine bekannteste, neuzeitliche Ausformung durch John Locke und Montesquieu. Eine repräsentative Willensbildung soll nicht nur der Funktionsfähigkeit, sondern auch der Rationalität demokratischen Handelns dienen. Darauf, dass die Demokratie durch eine repräsentative Verfassung zu kultivieren sei, wies vor allem Jean Louis de Lolme hin: Wenn das Volk durch von ihm bestellte Repräsentanten an den politischen Entscheidungen teilnehme, könne man ihm nicht, wie etwa der altrömischen Volksversammlung, von heiligen Hühnern etwas vorschwatzen. Vielmehr lägen die Entscheidungen dann in den Händen einer überschaubaren Anzahl politisch informierter und engagierter Persönlichkeiten. Deren Verhandlungen spielten sich in einem geordneten Verfahren ab. So gewährleistet (kann man hinzufügen) die Gliederung der Volksvertretung in Regierungspartei und Opposition, dass die Willensbildung der Repräsentanten wenigstens der äußeren Form nach als Austausch von Argumenten und nicht als solidarische Zustimmung strukturiert wird. Zudem baute de Lolme auf die Kontrolle durch eine informierte öffentliche Meinung. Dass die moderne repräsentative Demokratie trotz aller Bemühungen um ihre Kultivierung stark mit oligarchischen Komponenten durchsetzt ist, bleibt gleichwohl unbestritten. Die demokratische Entscheidung. Damit eine Wahl in repräsentativen Demokratien, bzw. eine Abstimmung in direkten Demokratien demokratischen Mindeststandards entspricht, müssen neben dem Mehrheits- oder Konsensprinzip weitere Kriterien erfüllt sein. Die konkrete Ausprägung dieser Kriterien hängt vom jeweiligen Wahlverfahren ab. Als Ergebnis der Freiheit, zu kandidieren (passives Wahlrecht), kann es zur Situation kommen, dass nur ein Kandidat zur Wahl steht. Eine echte Entscheidung kann freilich nur getroffen werden, wenn es mehrere Alternativen gibt. Dennoch gilt aber auch eine Abstimmung mit nur einer Alternative als demokratisch, sofern die anderen Demokratiekriterien gewahrt bleiben. Eine Demokratie setzt die Einhaltung der Grundrechte voraus. Insbesondere gilt dies für die Geschichte. Die Geschichte der Demokratie ist eng verknüpft mit der Entwicklung der Idee des Naturrechts, die wiederum eng verwandt ist mit dem Begriff der Menschenrechte. Ihre Wurzeln finden sich bereits in den akephalen "(herrschaftsfreien)" traditionellen Gesellschaften (z. B. Jäger und Sammler-Gemeinschaften), die von dem Soziologen Thomas Wagner als „egalitäre Konsensdemokratie“ bezeichnet wurden. Antike. Ausgehend von den Naturrechten wurde die Idee der Gleichberechtigung der Freien entwickelt, die sich in den frühen Ansätzen demokratischer Gesellschaften wiederfindet. Die Mitgestaltungsbefugnisse eines Menschen hingen zunächst vom Status der Person ab: Nur freie Bürger hatten diese Rechte inne – was Sklaven, Frauen und Nicht-Bürger (z. B. Ausländer) ausschloss. Griechische Stadtstaaten. Als frühestes Beispiel einer Demokratie in der Geschichte wird die antike Attische Demokratie angesehen, die nach heftigem Ringen des Adels und der Reichen mit dem einfachen Volk errichtet wurde. Sie gewährte allen männlichen Vollbürgern der Stadt Athen ab dem 30.Lebensjahr Mitbestimmung in der Regierung. Ausgeschlossen blieben Frauen, Zugezogene, unter 30 jährige und Zehntausende von Sklaven. Die Anzahl der Vollbürger betrug etwa 30.000 bis 40.000 Männer, das waren rund 10 % der Gesamtbevölkerung. Bei wichtigen Entscheidungen, z. B. über Krieg und Frieden, mussten mindestens 6.000 anwesend sein. Beamte (z. B. die Archonten) wurden ursprünglich durch das Los bestimmt – abgesehen von den Strategen, welche für die Armee zuständig waren und im Krieg eine große Rolle spielten. Da sie allerdings eine große Verantwortung trugen, wurden sie nach einer Niederlage z. T. durch das Scherbengericht für 10 Jahre aus Attika verbannt. Diese antike Staatsform war nicht unumstritten, gewährte sie doch beispielsweise den Bürgern das Recht, Mitbürger, die als gefährlich für die Demokratie angesehen wurden, mit Hilfe des sogenannten Scherbengerichts (Ostrakismos) in die Verbannung zu schicken. Auch waren die Beschlüsse der Volksversammlung leicht beeinflussbar. Demagogen spielten nicht selten eine fatale Rolle in der Politik Athens. Auch in anderen Poleis des attischen Seebunds wurden Demokratien eingerichtet, die aber vor allem dafür sorgen sollten, dass die Interessen Athens gewahrt wurden. Der Althistoriker Christian Meier erklärte die Einführung der Demokratie durch die antiken Griechen folgendermaßen: Demokratie sei die Antwort auf die Frage gewesen, wie es der Politik gelingen könne, auch die Herrschaft selbst zum Gegenstand von Politik zu machen. Aufgrund der Unzufriedenheit breiter Bevölkerungsschichten im griechischen Mutterland in spätarchaischer Zeit (7. und 6. Jahrhundert v. Chr.) und des Vorhandenseins unabhängigen und öffentlichen politischen Denkens, kam es zuerst zur Vorstufe der Demokratie, der "Isonomie". Nicht zuletzt auf Grund der Erfolge der freien griechischen Poleis während der Perserkriege wurde diese Entwicklung beschleunigt und fand ihren Endpunkt in der attischen Demokratie, in der die Bürger in Athen die Möglichkeit bekamen, in einer auf breiteren Schichten basierenden politischen Ordnung mitzuwirken. Aristoteles’ politisches Denken. Aristoteles verwendet den Begriff Demokratie in seinem Werk Πολιτικά ("Politik") zunächst negativ, um die Herrschaft der freigeborenen Armen zu bezeichnen. Diese nach seiner Auffassung verfehlte Staatsform würde nicht das Wohl der Allgemeinheit, sondern nur das Wohl des herrschenden Teils der Bevölkerung (eben der Armen) verfolgen. Allerdings lehnt er die Beteiligung des einfachen Volkes – in gemäßigter Form – nicht strikt ab, wie etwa noch sein Lehrer Platon dies tat, wovon seine „Summierungstheorie“ ein Zeugnis abgibt. Im Rahmen seiner sogenannten "zweiten Staatsformenlehre" liefert Aristoteles darüber hinaus eine differenzierte Theorie der Demokratie und ihrer Formen. Letztendlich aber plädiert er für eine Form der Mischverfassung zwischen Demokratie und Oligarchie als stabilster und gerechter Staatsform: für die sogenannte Politie. In ihr hat das Volk über die Wahl der Beamten und die Kontrolle ihrer Amtsführung seinen rechtmäßigen Anteil an der Regierung, die insgesamt zum allgemeinen Wohl und nicht zu Lasten eines Teils des Staates (z. B. der Wohlhabenden) ausgeübt werde. Als Grundlage der demokratischen Staatsform bezeichnete Aristoteles die Freiheit (Pol. VI). Da die Freiheit wichtigste Eigenschaft der Demokratie sei, wollten sich Demokraten am liebsten nicht regieren lassen, oder dann doch nur abwechslungsweise. Zur Freiheit gehöre also, dass man abwechselnd regiere und regiert werde: „Alle Ämter werden aus allen besetzt, alle herrschen über jeden und jeder abwechslungsweise über alle“. Diese Ämter würden durch Los besetzt, vorzugsweise alle, jedoch diese, die nicht besonderer Erfahrung oder Kenntnisse bedürften. Die Ämter seien alle kurzfristiger Natur und dürften – abgesehen von Kriegsämtern – nur wenige Male besetzt werden. Römische Republik. Auch die Römische Republik verwirklichte bis zur schrittweisen, kontinuierlichen Ablösung durch den Prinzipat eine Gesellschaft mit rudimentären demokratischen Elementen, basierend auf der Idee der Gleichberechtigung der Freien bei der Wahl der republikanischen Magistrate, wenn auch das oligarchische Prinzip bestimmend war. Bei der Wahl der Konsuln war es so, dass aufgrund des Systems der Comitia Centuriata die Stimme eines Reichen deutlich mehr zählte als die eines Armen. Andererseits vertritt der Historiker Fergus Millar einen anderen Standpunkt und interpretiert die Römische Republik vielmehr als eine Art direkt-demokratisches Staatswesen. Die historisch bedeutendere Leistung Roms dürfte allerdings die Etablierung einer frühen Form eines Rechtsstaats sein – ein Konzept, das ebenfalls eng mit unserem heutigen Demokratieverständnis zusammenhängt. Bei Marcus Tullius Cicero wird der Begriff der Demokratie als "civitas popularis" „romanisiert“ ("De re publica", I), womit die spätrepublikanische Bezeichnung der Parteiung der „Popularen“ zum Namensgeber der entsprechenden Verfassungsform wird. Nach Cicero besticht diese Herrschaftsform durch die Freiheit, welche die Bürger in ihr genießen, wobei er diese aber auch stets durch die Gefahr der Zügellosigkeit der Masse bedroht sieht. Mittelalter und Neuzeit. Eine neue Qualität der demokratischen Bewegung setzte aber erst mit der Entstehung des britischen Unterhauses (House of Commons) im 13. Jahrhundert ein. Dieses anfangs rudimentäre Parlament hatte nur sehr wenige Rechte und war der Macht des Monarchen fast schutzlos ausgeliefert. Mit der Entwicklung der absoluten Monarchie verringerten sich die Einflussmöglichkeiten sogar noch. Erst mit dem englischen Bürgerkrieg entstand im 17. Jahrhundert mit dem besagten Unterhaus eine Volksvertretung mit umfangreichen Rechten. Das bedeutendste Dokument des Parlamentarismus ist die Bill of Rights von 1689, in der das nach England eingeladene neue Königspaar Wilhelm und Maria dem Parlament Immunität, Verfügung über die Finanzen und Recht auf Zusammentretung ohne Aufforderung des Königs zugestand, und damit die Grundrechte eines modernen Parlaments schuf. Die erste neuzeitliche Demokratie war entstanden. Es gab Abgeordnete, wie John Lilburne, der im Gegensatz zum System der attischen Demokratie, die Abschaffung von Sklaverei, Leibeigenschaft, dafür aber ein allgemeines und gleiches Wahlrecht für alle Männer forderten, die als „frei geboren“ gelten sollten. Lilburne war Wortführer der sogenannten "Levellers" („Gleichmacher“). Diese Sichtweisen stießen jedoch auf den Widerstand der Oberschicht. So wurde er unter der Herrschaft Oliver Cromwells jahrelang inhaftiert. Wie bereits die antiken Herrscher, so betrachtete auch die Oberschicht alle demokratischen Bewegungen mit größtem Misstrauen und warf ihnen aus Angst vor dem Verlust ihrer Privilegien vor, den Pöbel an die Macht bringen zu wollen. 1755 schrieb Pasquale Paoli eine Verfassung für Korsika. Es handelt sich dabei um eine Mischverfassung nach antikem Vorbild mit demokratischen Elementen, die sich auch aus regionalen Traditionen Korsikas speisten. Sie ist damit die erste moderne Verfassung weltweit. 1762 veröffentlichte Jean-Jacques Rousseau seine Idee vom Gesellschaftsvertrag ("Du contract Social; ou Principes du Droit Politique") und etablierte mit dieser Vertragstheorie die identitäre Demokratie, die Herrscher und Beherrschte gleichsetzt. Das so entstandene Prinzip der Volkssouveränität basiert auf dem Gemeinwillen, der "volonté générale". Auch die von John Locke und Charles Montesquieu etablierte Gewaltenteilung in Legislative, Judikative und Exekutive wird als elementarer Bestandteil eines modernen demokratischen Rechtsstaates betrachtet. Zu dieser Zeit hatten sich in Nordamerika 5 Indianerstämme zum Bund der Irokesen zusammengeschlossen und sich eine Räteverfassung gegeben. Benjamin Franklin und andere amerikanische Staatsmänner ließen sich hinsichtlich der Ausgestaltung der amerikanischen Verfassung unter anderem von den Irokesen anregen. Die Vorarbeiten dieser Philosophen, das Vorbild des englischen Parlamentarismus und auch das Vorbild der irokesischen Verfassung fanden Berücksichtigung, als mit der Verfassung der Vereinigten Staaten von Amerika 1787 der erste moderne demokratische Staat entstand. Polen-Litauen gab sich als mit der Verfassung vom 3. Mai 1791 eine demokratische Staatsordnung. Dabei wurde mit der Einführung der „Landbotenkammer“ das politische Mitspracherecht, das bis dahin auf den Adel beschränkt war, auf das wohlhabende Bürgertum ausgedehnt. Diese Prozesse inspirierten die Französische Revolution und führten zu einer schrittweisen Demokratisierung anderer europäischer Länder, wobei der englische Parlamentarismus besondere Erwähnung verdient. Zahlreiche der heute in Europa anzutreffenden demokratischen Regierungsformen basieren auf landesspezifischen aristokratischen Vorläufermodellen. Die herrschenden Schichten Adel, Kirchenvertreter und wohlhabendes Bürgertum nahmen im Mittelalter und der frühen Neuzeit in den Landständen ihre politischen Rechte gegenüber dem Herrscher im Sinne ihrer Standesinteressen wahr. Das betraf insbesondere Territorial- und Grenzkonflikte, Kriegsdienste und Steuererhebung, Fragen der Gewaltenteilung und der Herrscherwahl (siehe auch Ständeordnung). Die weitere neuzeitliche Entwicklung der Demokratie in Europa im 17. und 18. Jahrhundert ist eng mit dem Republikanismus verbunden. Unter Revolutionären der amerikanischen und französischen Revolution gab es durchaus Bedenken, ob Demokratie im Sinne einer Beteiligung des gesamten Volkes an der Macht stabil bleiben könne oder sich zu einer Pöbelherrschaft entwickeln würde. Auch war die Demokratie in dieser Zeit der Skepsis ausgesetzt, ob sie in großen Flächenstaaten, die sich von den antiken Demokratien auch dadurch unterschieden, dass sich die Bürger untereinander nicht persönlich kannten, überhaupt verwirklicht werden könne. Ein weiteres Problem wurde in den im Vergleich zu antiken Demokratien größeren sozialen und kulturellen Unterschieden in der Bevölkerung gesehen. Nach den Berichten von Freedom House, einer amerikanischen Organisation, die die Entwicklung der Demokratie weltweit beobachtet, gab es im Jahre 1900 weltweit 55 souveräne Staaten, von denen keiner eine Demokratie war. Dies liegt daran, dass die freiheitlich verfassten Staaten dieses Jahres kein passives Wahlrecht für Frauen kannten, was nach den Kriterien von Freedom House eine Grundvoraussetzung für eine Demokratie ist. Im Jahr 1950 gab es unter den nunmehr 80 souveränen Staaten immerhin schon 22 Demokratien. Für 1999 zählt Freedom House 192 souveräne Staaten und fast die Hälfte, 85 Staaten, zu den Demokratien. Entscheidend für diese Einstufung sind zwei Kriterien: politische Rechte ("political rights") und Bürgerfreiheiten ("civil liberties"), die in diesen Ländern Mindeststandards genügen. Unter den hinzugekommenen Staaten sind viele junge Demokratien, die erst in den letzten beiden Jahrzehnten des 20. Jahrhunderts in Osteuropa, Asien und Lateinamerika entstanden sind. Demokratieformen. Demokratie ist eine wandelbare Herrschaftsform. Im Laufe der Geschichte und in der politikwissenschaftlichen Theorie hat sie sehr unterschiedliche Ausgestaltungen erfahren. Direkte Demokratie. a>, 2006 – eine immer noch praktizierte Form der direkten Demokratie In der "unmittelbaren" bzw. "direkten Demokratie" nimmt das Volk unmittelbar und unvertretbar durch Abstimmungen über Sachfragen am Staatsgeschehen teil. Das ausgeprägteste direktdemokratische System besteht in der Schweiz. In vielen Staaten wird das politische System durch einzelne Elemente direkter oder plebiszitärer Demokratie ergänzt. In weiten Teilen der 68er- und Alternativbewegungen war statt direkter Demokratie der Begriff „Basisdemokratie“ üblich. Direkte Demokratie oder zumindest die Einführung von mehr plebiszitären Elementen auf Bundes- und Landesebene galten als erklärte Ziele. Repräsentative Demokratie. In der "Repräsentativen Demokratie" sind Repräsentanten des Volkes für eine begrenzte Zeit zur Machtausübung autorisiert. Nach Ablauf dieser Periode muss über die Zusammensetzung der Volksvertretung durch Wahl neu entschieden werden. Die Periode beträgt üblicherweise mehrere Jahre. In vielen Staaten hat sich ein Zeitraum von 4 bis 8 Jahren eingebürgert. Repräsentiert wird das Volk nicht nur in den gesetzgebenden Organen (Parlament, Rat) sondern auch in den gesetzesausführenden Organen (Regierung, Verwaltung). Letztere werden gelegentlich nicht vom Volk direkt gewählt, sondern indirekt über Volksvertreter. Bei Wahlen als politischer Beteiligungsform geht die Staatsgewalt insoweit vom Volke aus, als dieses die Repräsentanten wählt (Personen oder Parteien), die die politischen Entscheidungen für die Zeit der nächsten Wahlperiode treffen. Beim reinen Verhältniswahlrecht kann der Wähler eine Partei benennen, die seinen politischen Vorstellungen am nächsten kommt. Im Parlament sind die Parteien dann mit der Stärke vertreten, die ihrem Stimmenanteil entspricht. Beim reinen Mehrheitswahlrecht zieht aus jedem Wahlkreis derjenige Bewerber ins Parlament ein, der dort die meisten Stimmen auf sich vereint. Auch verschiedene Mischformen kommen vor. Demarchie. In der "Demarchie" werden Volksvertreter und Regierung nicht vom Volk gewählt, sondern per Zufallsauswahl aus dem Volk bestimmt. Die Demarchie ist vom Charakter her zwischen direkter und repräsentativer Demokratie einzuordnen. Dies wird deutlich, wenn man einerseits Entscheidungen in der Demarchie als über eine Stichprobe ermittelte Volksmeinung ansieht, was der direkten Demokratie entspricht. Andererseits kann man die per Zufallsauswahl Ermittelten im Sinne der repräsentativen Demokratie als Repräsentanten des Volkes ansehen, die nur auf andere Weise bestimmt wurden. Plebiszitäre Demokratie. Die meisten modernen Demokratien sind repräsentative Demokratien mit direktdemokratischen Elementen auf nationaler und/oder kommunaler Ebene. Das Volk trifft sowohl Personal- als auch Sachentscheidungen (Plebiszite). Eine solche Mischform nennt man plebiszitäre Demokratie. Die Gewichtung der repräsentativen und direktdemokratischen Elemente kann dabei von Staat zu Staat unterschiedlich ausfallen. Deshalb unterscheidet man weiter zwischen "halbdirekter", "gemischter" und "bedingt repräsentativer Demokratie". Der Begriff "plebiszitäre Demokratie" wird daneben auch als Sammelbezeichnung für alle volksunmittelbaren Abstimmungen (Sachentscheidungen) verwendet. In der Schweiz ist der Begriff insofern gleichbedeutend mit "Volksrechte". Die Schweiz ist auf nationaler, kantonaler und kommunaler Ebene eine plebiszitäre Demokratie, wobei auf nationaler und in den meisten Kantonen auch auf kantonaler Ebene und in größeren Städten auf kommunaler Ebene ein Parlament legislativ tätig ist, und das Volk bei Parlamentsentscheiden nur über Verfassungsänderungen und über Gesetzesänderungen abstimmt. Zusätzlich gibt es für das Volk noch das Recht der Verfassungsinitiative, bei dem eine Anzahl Bürger eine Änderung der Verfassung vorschlagen kann, über die abgestimmt werden muss. Zudem kann mit genügend Unterschriften eine Volksabstimmung über ein vom Parlament beschlossenes Gesetz erzwungen werden. Einige kleine Kantone haben statt des Parlaments die Landsgemeinde. Auf kommunaler Ebene gibt es in kleineren Orten keine Volksvertretung, sondern Entscheide, die direkt in einer Bürgerversammlung diskutiert und abgestimmt werden. Rätedemokratie. Das Rätesystem stellt eine weitere Mischform zwischen direkter und repräsentativer Demokratie dar. Präsidentielle und parlamentarische Regierungssysteme. Um den Bestand einer Demokratie nicht durch Machtkonzentration zu gefährden, werden üblicherweise nach dem Prinzip der Gewaltenteilung die Gesetzgebung und die Regierung voneinander getrennt. In der Praxis sind beide nicht unabhängig voneinander zu sehen (etwa über Parteizugehörigkeiten): Die Fraktion, die in der Volksvertretung die Mehrheit hat, stellt in der Praxis meist auch die Regierung. Das Gewaltenteilungsprinzip wird dadurch teilweise durchbrochen (siehe auch Fraktionsdisziplin). Der Unterschied zwischen einem eher präsidentiell und einem eher parlamentarisch ausgerichteten Regierungssystem liegt im Ausmaß der Abhängigkeit der Regierung von der Volksvertretung. Der Unterschied der Systeme wird beim Zustimmungserfordernis für bestimmte Entscheidungen deutlich: in den USA etwa kann der Präsident frei einen Militäreinsatz befehlen, in Deutschland benötigt der Bundeskanzler (Regierungschef) hierfür ein positives Votum des Parlamentes (→ Prinzip der Parlamentsarmee). In präsidentiell orientierten Systemen wird der Präsident häufig direkt durch das Volk gewählt, um die starke Machtstellung durch stärkere Nähe zum Souverän besser zu legitimieren. Der Gewählte kann politische Opponenten auf seine hervorgehobene demokratische Legitimation und Machtfülle verweisen. In einer parlamentarischen Demokratie wird die Regierung meist vom Parlament gewählt und kann vom Parlament durch ein Misstrauensvotum auch wieder abgesetzt werden. Umgekehrt kann häufig auch das Parlament durch die Regierung aufgelöst werden. Mehrheitsdemokratie, Konkordanzdemokratie und Konsensdemokratie. In Mehrheitsdemokratien wird die Regierung aus Parteien zusammengesetzt, die gemeinsam im Parlament die Mehrheit haben. Damit hat die Regierung gute Chancen, ihr politisches Programm beim Parlament durchzusetzen. Bei einem Regierungswechsel kann jedoch eine entgegengesetzte Politik eingeschlagen werden. Großbritannien und die Vereinigten Staaten von Amerika sind Beispiele für Mehrheitsdemokratien. In einer Konkordanzdemokratie werden öffentliche Ämter nach Proporz oder Parität verteilt. Alle größeren Parteien und wichtigen Interessengruppen sind an der Entscheidungsfindung beteiligt und die Entscheidung ist praktisch immer ein Kompromiss. Der Entscheidungsprozess braucht mehr Zeit und große Veränderungen sind kaum möglich, andererseits sind die Verhältnisse auch über längere Zeit stabil und es werden keine politischen Entscheide bei einem Regierungswechsel umgestürzt. Die Schweiz ist ein Beispiel für eine Konkordanzdemokratie. Die Abgrenzung von Konkordanz- und Konsensdemokratie ist schwierig und variiert sehr stark je nach Autor. Konsensdemokratien zeigen gemeinhin eine ausgeprägte Machtteilung in der Exekutive, ein gleichberechtigtes Zwei-Kammern-System, die Nutzung des Verhältniswahlrechts und eine starre, nur durch Zweidrittelmehrheit zu ändernde Verfassung. Deutschland wird daher als Konsensdemokratie gesehen. Scheindemokratie und Defekte Demokratie. Gegenwärtig stellt sich kaum ein Staat der Welt nach außen nicht als demokratisch dar. Der Begriff „Demokratie“ wird oftmals bereits im Staatsnamen geführt. Dennoch weisen zahlreiche Staaten, obwohl sie sich als Demokratien darstellen und benennen, Defizite in der Verwirklichung wesentlicher demokratischer Elemente und Grundrechte (beispielsweise freie, gleiche und geheime Wahlen oder Abstimmungen, Meinungs- und Pressefreiheit) auf. Solche Staaten und politischen Systeme, die sich zwar den Anschein einer Demokratie geben, den etablierten Ansprüchen an eine Demokratie aber nicht genügen, werden als Scheindemokratie bezeichnet. Demokratiemessungen versuchen den tatsächlichen Demokratisierungsgrad eines Staates oder politischen Systems zu erfassen. Als defekte Demokratie werden in der vergleichenden Politikwissenschaft politische Systeme bezeichnet, in denen zwar demokratische Wahlen stattfinden, die jedoch gemessen an den normativen Grundlagen liberaler Demokratien (Teilhaberechte, Freiheitsrechte, Gewaltenkontrolle etc.) verschiedene Defekte aufweisen. Man unterscheidet innerhalb der Defekten Demokratien: Exklusive Demokratie, Illiberale Demokratie, Delegative Demokratie und Enklavendemokratie. Das Konzept der defekten Demokratie ist in der Politikwissenschaft umstritten. Wirkungen und Probleme der Demokratie. Demokratische Strukturen haben sich in vielen Staaten durchgesetzt, ebenso in einigen Kirchen, zum Beispiel in Presbyterianische Kirchen, der Evangelisch-methodistische Kirche und Schweizer Landeskirchen (in der Schweiz werden sogar katholische Pfarrer von der Gemeinde gewählt). Gesamtgesellschaftliche Perspektive. Der demokratische Gedanke bedarf einer Verwirklichung in der Gesellschaft. In Demokratien kann ein wesentlicher, wenn nicht der entscheidende Prozess der politischen Meinungs- und Willensbildung bei den Bürgern verortet werden. Dies entspricht schon dem Demokratieverständnis der Antike, als Marktplatz, Agora oder Forum bedeutende Orte der politischen Meinungsbildung waren. Aber auch entsprechend zahlreichen demokratietheoretischen Überlegungen der Gegenwart wird einer zivilgesellschaftlich verankerten politischen Öffentlichkeit zentrale Bedeutung als Bedingung funktionsfähiger Demokratie zugemessen. Eine besondere Situation ergibt sich in jenen Staaten, die einen abrupten Wechsel zur Demokratie vollziehen, wie dieses zum Beispiel 1918, 1945 und 1990 in Deutschland erfolgt ist (Demokratisierung). Es zeigen sich in solchen Fällen über die oben genannten Einflüsse hinaus Nachwirkungen der abgelegten Systeme, die auf Grund der damit einhergehenden sozialen und ökonomischen Verwerfungen zu signifikanten Akzeptanzproblemen führen können. Die vom Statistischen Bundesamt veröffentlichten Daten ergeben für die Bundesrepublik Deutschland eine abnehmende Akzeptanz der Demokratie. Die Zahl derer, die in den alten Bundesländern eine andere Staatsform als die Demokratie besser finden, ist im Zeitraum von 2000 bis 2005 von 9 % auf 17 % gestiegen, in Ostdeutschland von 27 % auf 41 %. Hierbei stehen Arbeitslose und Arbeiter der Demokratie am Kritischsten gegenüber (Quelle: Datenreport 2006). Auch andere Untersuchungen, wie etwa die im November 2006 bekannt gewordene Studie "Vom Rand zur Mitte" über den Rechtsextremismus in Deutschland, deuten den gleichen Sachverhalt an. Globalisierung, Sozialabbau und Zuwanderung haben dazu geführt, dass das Zutrauen der Europäer in die Demokratie schwindet. Die Euphorie von 1989, dem welthistorischen Durchbruch des demokratischen Gedankens, ist verflogen. In den Mühen der Ebene wächst der Wunsch nach Umkehr zu alten Ordnungen und Gewissheiten. Die Wertordnung des Westens hat in den neuen osteuropäischen EU-Mitgliedstaaten die einstige Strahlkraft verloren. Und auch im alten Westen wachsen Zweifel an der freiheitlichen Verfassung und an den Vorzügen der Demokratie. Die von der Mehrzahl der Printmedien nach Auffassung von Kritikern verfälscht dargestellten Schlüsse aus diesen empirischen Befunden sehen nach deren Auffassung darüber hinweg, dass es sich bei diesen Ergebnissen um Urteile über die real existierende Demokratie handelt und deshalb nicht zwangsläufig eine Ablehnung der verfassungsgemäß vorgesehenen Demokratie unterstellt werden kann. Dieses selbstkritisch zu erkennen sei den meisten Medien nicht möglich, da sie selbst einem Politikverständnis aus vordemokratischer Zeit verhaftet seien. Durch Schlagzeilen und Leitartikel fördere die Presse eine Politik, die sich den Strömungen der Wirtschaft annähert. Als Rechtfertigung würden häufig Effizienzargumente angeführt: „So wie die (Politiker) versuchen, den Staat zu lenken, könnte nicht "ein" Unternehmen zum Erfolg kommen.“ Hierbei würde übersehen, dass demokratisch verfasste Staaten auf die Herbeiführung eines Konsenses in oft langwierigen Abstimmungs- und Verhandlungsprozessen angewiesen sind. Insofern ist eine allein an der Geschwindigkeit und Effizienz orientierte Kritik an parlamentarischen Abläufen und die Rufe nach schnellen Expertenrunden zutiefst undemokratisch. Der Parteienforscher Franz Walter fasst die vorherrschende Haltung der Medien so zusammen: Der Siegeszug der Mediendemokratie habe „einen neoautoritären, planierenden Zug in die Politik gebracht“. Ein weiterer Maßstab für die demokratische Qualität des Staates ist sein Verständnis vom Menschen als Empfänger von Leistungen. Dass die staatlichen Verwaltungen kein Selbstzweck sind, sondern den Menschen dienen sollen, ist ein traditioneller Bestandteil der europäischen und speziell der deutschen Verwaltungskultur. Dennoch haben sich an vielen Stellen der Verwaltungen noch obrigkeitliche Vorstellungen erhalten, die mit dem Verständnis von Demokratie und Rechtsstaat unvereinbar sind, weil sie nicht von den Wirkungen auf die Menschen her konzipiert sind. Ein weiterer Grund hierfür ist die zunehmende Korruptionsanfälligkeit, die ihre Ursachen u. a. im allgemeinen Vorteilsdenken und schlechten Verdienstmöglichkeiten hat. Trotz diverser Schwächen der Demokratie ergibt sich vor dem Hintergrund vergangener und gegenwärtiger Faschismen und anderer totalitärer bzw. autoritärer Systeme eine positive Bilanz demokratischer Systeme, die entscheidend und nach Hermann Broch geradezu als Voraussetzung für die Entwicklung der Humanität gewirkt haben und noch wirken. Ein dauerhafter Bestand der Demokratie ist nach Broch jedoch erst dann gewährleistet, wenn sie sich zu einer Zivilreligion entwickelt hat. Eine solche Zivilreligion wird auch von dem einflussreichen Politikwissenschaftler Benjamin R. Barber gefordert: "„Wir brauchen eine Art weltweite Zivilreligion, also das, was wir auf US-amerikanischer Ebene bereits haben. Wir brauchen einen Zivilglauben, der Blut und lokale Zugehörigkeit übersteigt und es den Menschen ermöglicht, sich rund um gemeinsame Prinzipien zu organisieren“". Ausschluss von demokratischen Wahlen. Das Wahlrecht ist als Bürgerrecht teilweise aberkennbar. Beispielsweise dürfen Strafgefangene in manchen US-Staaten nicht wählen. Dieses Recht hängt nicht an der Zugehörigkeit zur realen Bevölkerung sondern an der Staatsbürgerschaft. Frauen haben mittlerweile in anerkannten Demokratien ein Wahlrecht. In der Schweiz gibt es das Frauenwahlrecht allerdings erst seit 1971, Appenzell Innerrhoden führte es auf kantonaler Ebene als letzter Kanton und aufgrund eines entsprechenden Bundesgerichtsurteils erst 1990 ein (siehe auch: Frauenstimmrecht in der Schweiz). Ausländer, die die Staatsbürgerschaft nicht besitzen, dürfen sich auch gegenwärtig üblicherweise nicht an demokratischen Wahlen des Landes, in dem sie leben, beteiligen (weder passiv noch aktiv). Einige demokratische Staaten haben sehr hohe Ausländerquoten, zum Beispiel hat Luxemburg eine Ausländerquote von 43,5 %, die Schweiz 21,7 %, Spanien 12,3 %, Österreich 10,3 % und Deutschland 8,8 % (Stand 2010). Allerdings gibt es Ausnahmefälle, in denen das Ausländerwahlrecht gewährt wird: In einigen Schweizer Kantonen und Gemeinden sind Ausländer stimmberechtigt. Auch dürfen EU-Bürger in EU-Staaten an politischen Wahlen auf kommunaler Ebene grundsätzlich teilnehmen – auch wenn sie Staatsbürger eines anderen EU-Staates sind. Friedensfunktion. Eine politikwissenschaftliche These ist die Idee des demokratischen Friedens. Sie besagt, dass Demokratien in der Geschichte bisher kaum Kriege gegeneinander geführt haben und wertet dies als positive Eigenschaft des demokratischen Systems. Allerdings kann zumindest die athenische Demokratie nicht als Beispiel für diese These herangezogen werden (wenngleich sie keine Demokratie im modernen Sinne war). Nach Kant sollen Demokratien deshalb vergleichsweise friedlich sein, da ihre Wähler sich ungern selber in einen Krieg schickten. Dies wird jedoch von verschiedenen Friedens- und Konfliktforschern bestritten, denn einige empirische Untersuchungen ziehen diese These in Zweifel. Es konnte bislang nicht nachgewiesen werden, dass Demokratien insgesamt weniger Kriege führen als undemokratische Staaten. Gerade gegenüber Nicht-Demokratien wird die Verbreitung demokratischer Strukturen oft als Kriegsgrund angegeben. Untereinander aber führen Demokratien tatsächlich in signifikant geringerem Umfang Kriege, als dies zwischen in anderer Staatsform verfassten Nationen der Fall ist. Wirtschaftswachstum. Zum Zusammenhang zwischen Demokratie und Wirtschaftswachstum liegen Forschungen aus mehreren Jahrzehnten vor. Studien aus den 1980er Jahren kamen zu dem Schluss, dass einige Indikatoren politischer Freiheit statistisch signifikante positive Effekte auf Wachstum haben. Studien aus den 1990er Jahren kamen zu widersprüchlichen Ergebnissen. So kommt Barro (1996) zum Schluss, dass Demokratie und Wirtschaftswachstum nicht kausal miteinander in Verbindung stehen, sondern durch dritte Faktoren wie Humankapital gemeinsam beeinflusst werden. Rodrik (1997) stellt fest, dass es keinen starken, deterministischen Zusammenhang zwischen Demokratie und Wachstum gebe, wenn man andere Faktoren konstant hält. Mehrere Argumente werden in diesem Zusammenhang geäußert: Erstens erlaubten es Demokratien, unfähige, ineffiziente und korrupte Regierungen abzuwählen, wodurch auf lange Sicht die Qualität der Regierung höher sei. Autoritäre Regime könnten zufällig hochwertige Regierungen stellen, doch wenn sie es nicht tun, sei es schwerer, sie wieder loszuwerden. Laut Sen (2000) müssen die Regierenden in einer Demokratie auf die Wünsche der Wähler hören, wenn sie Kritik ausgesetzt sind und Unterstützung in Wahlen erlangen wollen. Auf der anderen Seite wird argumentiert, dass Interessengruppen durch Lobbyismus um Macht und Renten die Demokratie lähmen und für den Entwicklungsprozess bedeutsame Entscheidungen verhindern können. So argumentiert der ehemalige Premierminister von Singapur Lee Kuan Yew, dass das beachtliche Wachstum seines Landes in den letzten 30 Jahren angeblich nicht ohne die strengen Einschränkungen von politischen Rechten möglich gewesen wäre. Andere haben auf die erfolgreichen Wirtschaftsreformen der Volksrepublik China verwiesen und sie mit dem wirtschaftlich weniger erfolgreichen, aber demokratischeren Russland verglichen. Auch herrsche in manchen Demokratien (beispielsweise in Lateinamerika) eine ähnliche Machtstruktur wie in autoritären Regimes. Als weiteres Argument gegen die Auffassung, dass Demokratie wachstumsförderlich sei, ist, dass Demokratie Investitionen unterminieren könnte, indem sie Wünsche nach unmittelbarem Konsum deutlich ansteigen ließe. So kann der Schluss gezogen werden, dass eine Demokratisierung (z. B. politische Rechte, Bürgerrechte oder freie Presse) eine verbesserte Regierung nicht zwangsweise nach sich zieht. Rivera-Batiz (2002) bestätigt aus einer Analyse empirischer Daten zu 115 Ländern 1960–1990, dass Demokratie ein signifikanter Bestimmungsfaktor der totalen Faktorproduktivität nur dann ist, wenn demokratische Institutionen mit einer höheren Governance-Qualität (z. B. wenig Korruption, sichere Eigentumsrechte) einhergehen. Demokratie und Rechtsstaat. Die wesentlichen zwei Funktionen zur Erreichung und Wahrung von Freiheit und Sicherheit sind Demokratie (Selbstherrschaft des Volkes durch (Ab-)Wahl seiner Regierung) und Rechtsstaatlichkeit: Nicht Willkür, sondern nachprüfbare Anwendung schriftlich niedergelegter Gesetze soll Macht an den Bürgerwillen binden und durch Gerichte überprüfbar machen. Es ist unstrittig, dass Mehrheiten in einer Demokratie Gesetze verabschieden und deren Durchsetzung veranlassen können, die Minderheitenrechte verletzen oder sogar dem Rechtsgedanken an sich zuwiderhandeln; Demokratie als äußere Form schützt nicht vor Entgleisungen, bewahrt nicht davor, dass die Mehrheit eine Minderheit unterdrückt oder zum Krieg ruft. Es wurde in Philosophie und Staatstheorie oft diskutiert (mehr als abstraktes Denkmodell denn als Empfehlung für die Praxis): Wenn die Rechtsstaatlichkeit als gesichert angesehen werden könnte – ob dann Demokratie noch ein zwingendes Staatselement sein müsse? Als sicher wird angesehen, dass Demokratie allein keinen Zustand der Freiheit und Sicherheit herstellen kann, weil das Misstrauen aller gegen alle durch die formalen Bestimmungen von Wahl, Regierungsbildung usw. allein nicht beseitigt werden kann. Nur das Vertrauen in die Institutionen kann gegenseitiges Misstrauen abbauen und allseitiges Vertrauen wachsen lassen. Rechtsstaatlichkeit schafft Institutionen und Verfahren, die ihrerseits Vertrauen bilden und Macht an Recht binden. Demokratie als Sphäre der Politik lebt vom Meinungsstreit; der Rechtsstaat mit seinen Rechtsstreitigkeiten lebt vom Glauben an die Legitimität des Gesetzes und von der Treue gegenüber Recht und Verfassung. Für wirtschaftliche Entscheidungen spielen die Beständigkeit der Rechtsordnung und die Vorhersehbarkeit bestimmter Entwicklungen (z. B. Steuergesetzgebung) eine große Rolle; Investoren suchen für langjährige und kapitalintensive Unternehmungen gerne eine Umgebung, die als berechenbar und sicher angesehen werden kann. Dies führt nicht selten dazu, dass Rechtssicherheit völlig losgelöst von Demokratie akzeptiert wird. So ist das Engagement deutscher Unternehmen im vormals burischen Südafrika (Rassentrennung, Apartheid) oder im post-maoistischen China (kapitalistische Reformen bei totalem Herrschaftsanspruch der kommunistischen Partei) immer wieder kritisiert worden. Vermeintlich irrationale und ignorante Wähler. Seit Milton Friedman haben Ökonomen die Effizienz der Demokratie stark kritisiert. Die Kritik basiert auf der Annahme des ignoranten bzw. irrationalen Wählers. Argumentiert wird, dass Wähler bezüglich vieler politischer Themen, insbesondere ökonomischer, schlecht informiert seien und auch in ihnen besser bekannten Feldern systematischen Verzerrungen unterliegen würden. Bezüglich Ursachen und Folgen der Ignoranz von Wählern prägte Anthony Downs bereits 1957 die Idee der "rationalen Ignoranz". In seinem Modell wägen Wähler den Kosten und den Nutzen der politischen Informationsbeschaffung und Wahlbeteiligung ab, was aus einer gesellschaftlichen Perspektive des Gemeinwohls wegen fehlendem Einfluss auf das Ergebnis zu irrationalen politischen Entscheidungen oder auch Nichtwählen führt. Mancur Olson (1965) benennt die Tendenz in der Demokratie von handlungsfähigen, gut organisierten Interessengruppen zur politischen Einflussnahme (besonders sogenannter „privilegierter Gruppen“ von geringer Größe und mit Sonderinteressen wie z. B. Milchbauern, Stahlproduzenten oder Pilotengewerkschaften), die sich daraus ergibt, was Einzelne bereit sind dafür oder dagegen einzusetzen. Die große Mehrheit der Wähler entwickelt rationale Ignoranz, da der Einzelne nur zu einem jeweils sehr geringen Teil von einer rationalen Politik persönlich profitieren kann oder eine irrationale Politik finanzieren würde (z. B. Agrarsubvention) und sich daher nicht organisiert. Es kommt daher gar nicht erst zu einer Politik, die den Interessen der verschiedenen Mehrheiten als Ganzes am besten dient. Daniel Kahneman, Amos Tversky (1982) und andere Vertreter der Verhaltensökonomik zeigten, dass Menschen eine Tendenz zum Status quo aufweisen, was in demokratischen Wahlen gesamtgesellschaftlich positive politische Reformen behindern könnte. Empirische Befunde zur Ignoranz von Wählern gibt es seit Jahrzehnten. Häufig interessieren sich Wähler (allerdings von Land zu Land unterschiedlich stark ausgeprägt) wenig oder gar nicht für Politik und wissen auf vielen wichtigen Feldern nicht, wofür einzelne Parteien stehen. Nur 29 % der erwachsenen US-Amerikaner kennen den Namen ihres Kongressabgeordneten, nur 24 % kennen den 1. Zusatzartikel zur Verfassung der Vereinigten Staaten. Da Wähler nicht egoistisch wählen, sondern mit Blick auf das soziale Wohl, könnte diese Ignoranz über Politikzusammenhänge zum Problem werden. Der Ökonom Donald Wittman (1997) hat versucht, diese Kritik zu entkräften. Er argumentiert, dass Demokratie effizient sei, solange Wähler rational, Wahlen wettbewerblich, und politische Transaktionskosten gering sind. Mangelnde Information führe nicht zu Verzerrungen, da sich unter der Prämisse des rationalen Wählers Fehler im Durchschnitt ausgleichen würden. Laut manchen empirischen Befunden sind Wähler jedoch häufig irrational. Das Problem sei also nicht mangelnde Information, sondern systematisch verfehlte Interpretation von Informationen. So gibt es Nachweise für systematische Meinungsverschiedenheiten zwischen Experten und Laien. Beispielsweise halten Laien Paracelsus Grundsatz „Allein die Menge macht das Gift“ deutlich öfter für falsch als Naturwissenschaftler, und im Vergleich zu Wirtschaftswissenschaftlern unterschätzen Laien den Nutzen des Handels. Zweitens lassen sich auch innerhalb der Öffentlichkeit sich widersprechende Meinungen finden. So glauben etwa die Hälfte der US-Bürger, dass Gott die Menschen erschaffen habe oder dass Astrologie wissenschaftliche Erkenntnisse liefert. Wären die Bürger rational und wahrheitssuchend, könnten sich solche fundamentalen Meinungsunterschiede innerhalb der Bevölkerung nicht ergeben. Zur Lösung der Demokratieprobleme gibt es seitens Bryan Caplan den Ansatz, mehr Entscheidungen aus der öffentlichen in die private Sphäre zu verlagern. Robin Hanson schlägt eine Futarchie vor, in der mehr Entscheidungen auf Prognosemärkten getroffen werden. Der Philosoph Jason Brennan befürwortet eine moderate Epistokratie, in der das Wahlrecht ausreichend kompetenten Bürgern vorbehalten wird. Lobbyarbeit. Anne O. Krueger (1974) kritisierte, dass in Demokratien Unternehmen Ressourcen von ihrem produktiven Gebrauch in Lobbyarbeit umlenken, um Politische Renten zu erhalten, beispielsweise in Form von Protektionismus. Kurzfristigkeit. Modernen Demokratien wird auch kurzfristiges Denken vorgeworfen. Speziell kritisiert werden institutionelle Mängel mit ökologischen Problemen umzugehen, die meist langfristig sind. Im Zentrum der Kritik stehen die kurzen Entscheidungshorizonte. So werden Entscheidungen meist nach 4 bis 5 Jahren bewertet (Ende der „Legislaturperiode“). Deshalb – so die Kritik – würden Entscheidungen, die sich anfänglich negativ auswirken und erst später Vorteile entfalten würden, meist nicht getroffen. Medien. Die Medien gelten für eine funktionsfähige und freiheitliche Demokratie als essentiell. Sie erfüllen entscheidende Funktionen wie Kontrolle der politischen Abläufe und Informationsvermittlung. Oft wird die Presse daher als „vierte Gewalt“ bezeichnet. Damit diese Funktionen wahrgenommen und objektiv ausgeführt werden können, müssen die Medien jedoch unabhängig sein. Da Massenmedien meinungsbildend wirken, können sie Einfluss auf die Bevölkerung, und damit auf die Politik, nehmen. Dies kann auch problematische Gestalt annehmen, wenn z. B. Medien das politische Klima und die politischen Entscheidungen in einem Land bestimmen („Mediendemokratie“). Andererseits können politische Akteure auch Einfluss auf die Medien nehmen und so die Wählenden manipulieren. Des Weiteren wird die Motivation der Medien kritisiert. Die Profitorientierung der Medien führt oft zum Primat der Einschaltquoten über sachlicher Berichterstattung und investigativem Journalismus. „Skandalisierung, Dramatisierung und Personalisierung lassen Argumente und politische Positionen zurücktreten.“ Mehrheitsprinzip. Die Demokratie kann die Freiheit des Individuums unterdrücken, ähnlich wie in Diktaturen. Mehrheitsentscheidungen können zur Benachteiligung von Individuen führen, die nicht zu dieser Mehrheit gehören. Alexis de Tocqueville bezeichnete diese Problematik als „Diktatur der Mehrheit“. Zudem kritisiert die partizipatorische Demokratietheorie, dass zu wenig Mitentscheidungs- und Selbstverwirklichungsmöglichkeiten in der modernen Demokratie gegeben sind. Deshalb stellt das Grundprinzip des Minderheitenschutzes, das Teil des wichtigen Freiheitskonzeptes des Pluralismus ist, den Ausgleich gegenüber dem Mehrheitsprinzip dar. Im real-politischen Kontext wird dieser beispielsweise durch die sogenannte Ständemehr in der Schweiz dargestellt: Neben der Mehrheit der Stimmen muss auch die Mehrheit der Kantone (Stände) eine Verfassungsänderung befürworten (bei Gesetzesänderungen gilt das einfache Volksmehr). Philosophische Kritik. Aristoteles zählt die Demokratie in seiner Staatsformenlehre zu einer der drei „entarteten“ Verfassungen, in denen die Regierenden nur ihrem Eigennutz dienen. So beschreibt er die Demokratie als eine Herrschaft der vielen Freien und Armen zur Lasten der Tüchtigen und Wohlhabenden, da diese aufgrund ihrer Mehrheit die Politik bestimmen. Zu beachten ist dabei aber, dass er dabei im heutigen Verständnis eher auf die Ochlokratie anspielte (die Entartung der Demokratie durch "Herrschaft des Pöbels") und nicht auf unser Verständnis von Demokratie. Politische Instabilität. Neuerdings wird Demokratie dafür kritisiert, zu wenig politische Stabilität aufzuweisen. Dies sei dadurch zu erklären, dass häufig wechselnde Regierungen den institutionellen und rechtlichen Rahmen schnell veränderten. Unter anderem soll sich dieser Umstand negativ auf das Wirtschaftswachstum auswirken, da ökonomische Investitionen einen kalkulierbaren politischen Rahmen bevorzugen. Manche politischen Analysen kommen deshalb zu dem Schluss, dass Demokratie für die ökonomische Entwicklung wenig entwickelter Länder unpassend ist. Auf der anderen Seite betonen andere politische Analysen, dass Demokratien sich zwar verändern, jedoch nicht so drastisch wie z. B. Diktaturen. Gestützt wird diese Aussage auch dadurch, dass Demokratie Mehrheitsentscheidungen benötigt und deshalb meist zu einem Kompromiss neigt. Selbstüberforderung. Politische Akteure überbieten sich im Wahlkampf häufig mit Versprechungen, um die Stimmen der Wählenden zu gewinnen. Überzogene Versprechungen können jedoch selten umgesetzt werden. Zusätzlich vermeiden es politische Akteure ihre Versprechungen zu korrigieren, da sie Verlust von Wählerstimmen befürchten. „Die Demokratie steht so immer in der Gefahr, sich selbst zu überfordern, die Bürgerinnen und Bürger zu enttäuschen und deshalb Vertrauen und Zustimmung zu verlieren.“ Düsseldorf. Offizielles Logo der Landeshauptstadt Düsseldorf ist die Landeshauptstadt von Nordrhein-Westfalen, Behördensitz des Regierungsbezirks Düsseldorf und mit Einwohnern () die zweitgrößte Stadt des Landes. Sie liegt am Rhein, in der Mitte der Metropolregion Rhein-Ruhr mit ihren rund zehn Millionen Einwohnern und im Kern des zentralen europäischen Wirtschaftsraumes. Die Stadt zählt zu den fünf wichtigsten, international stark verflochtenen Wirtschaftszentren Deutschlands. Düsseldorf ist Messestadt und Sitz vieler börsennotierter Unternehmen, darunter der am DAX notierten Konzerne E.ON, Henkel und Vonovia. Zudem ist sie der umsatzstärkste deutsche Standort für Wirtschaftsprüfung, Unternehmens- und Rechtsberatung, Werbung und Kleidermode sowie ein wichtiger Banken- und Börsenplatz. Düsseldorf besitzt mehrere Rheinhäfen. Sein Flughafen ist das interkontinentale Drehkreuz Nordrhein-Westfalens. Die Stadt ist des Weiteren Sitz von 22 Hochschulen, darunter der renommierten Kunstakademie und der Heinrich-Heine-Universität. Überregionale Bekanntheit genießt Düsseldorf außerdem durch seine Altstadt („längste Theke der Welt“), seinen Einkaufsboulevard Königsallee („Kö“), seinen Karneval, den Fußballverein Fortuna Düsseldorf und den Eishockeyverein Düsseldorfer EG. Weitere Anziehungspunkte sind zahlreiche Museen und Galerien sowie die Rheinuferpromenade und der moderne Medienhafen. Das Stadtbild wird auch durch zahlreiche Hochhäuser und Kirchtürme, den 240 Meter hohen Rheinturm, viele Baudenkmäler und sieben Rheinbrücken geprägt. Bemerkenswert ist die große Anzahl ostasiatischer Einwohner, darunter die japanische Gemeinde. Räumliche Lage. Siedlungsstruktur Nordrhein-Westfalens, zentral gelegen der Ballungsraum Rhein-Ruhr mit Düsseldorf im Zentrum Düsseldorf liegt im mittleren Teil des Niederrheinischen Tieflands – überwiegend am rechten Ufer des Rheins auf einer von zahlreichen Rheinarmen durchzogenen Niederterrassenfläche an der Mündung des namensgebenden Flüsschens Düssel. Lediglich die Stadtteile Oberkassel, Niederkassel, Heerdt und Lörick liegen am linken Rheinufer. Die Stadt ist Teil der prosperierenden Rheinschiene und grenzt südwestlich an das Ruhrgebiet. Sie liegt damit im Herzen der Metropolregion Rhein-Ruhr sowie im Übergangsbereich zwischen dem Niederrhein und dem Bergischen Land, zu dem die Stadt, historisch betrachtet, gehört. Die Metropolregion Rhein-Ruhr ist eine Wirtschaftsregion und ein städtischer Ballungsraum im Westen Deutschlands. Sie zählt zu den größten Verdichtungsräumen innerhalb der europäischen Megalopolis und ist der größte in Deutschland. In den 20 kreisfreien Städten und zehn Kreisen der Region leben rund elf Millionen Einwohner auf knapp 10.000 km² (Stand 2005). Allein in einem Umkreis von 50 Kilometern um Düsseldorf leben etwa neun Millionen Menschen. Die zentrale Lage im größten Ballungsraum Deutschlands, die Hauptstadtfunktion für das bevölkerungsreiche Bundesland Nordrhein-Westfalen, die Vielzahl bedeutender Unternehmen sowie die Ausstattung mit Infrastrukturen und Angeboten aller Art verschaffen der Stadt große Fühlungs- und Agglomerationsvorteile, die ihr Wachstum und die Entstehung innovativer Milieus erheblich begünstigen. Eine Reihe von Agglomerationsnachteilen, etwa ein häufig kollabierendes Verkehrsnetz, ein extrem belastendes Stadtklima oder Immobilienpreise auf europäischem Spitzenniveau, bleiben der Stadt andererseits erspart, weil sie selbst keine Millionenstadt ist, einem polyzentrischen Städtenetz angehört und weil landschaftliche Freiräume sowie Erholungsgebiete sie allseits nah umgeben. Die Lage am Rhein gibt der Stadt die Möglichkeit, mit ihrer Skyline das Stadtbild im Kontrast zum Fluss, der aufgrund seiner Größe einen weitläufigen Landschaftsraum bildet, imposant zu inszenieren und beides zu einer einprägsamen Stadtlandschaft zu verschmelzen. Der höchstgelegene Punkt im Stadtgebiet, der Sandberg im Stadtteil Hubbelrath, misst, der niedrigste Punkt, die Mündung des Schwarzbachs in den Rhein bei Wittlaer. Der geografische Mittelpunkt Düsseldorfs befindet sich im Düsseltal, der Punkt ist mit einer Bronzetafel gekennzeichnet. Düsseldorf liegt im Zentrum der Zone der Mitteleuropäischen Zeit. Klima. Das Klima des Düsseldorfer Raumes ist durch die reliefbedingte Öffnung in Richtung Nordsee ozeanisch geprägt. Überwiegend westliche Windströmungen tragen feuchte Luftmassen heran. Die Folgen sind milde, schneearme Winter und mäßig warme und feuchte Sommer. Insgesamt ist die Witterung wechselhaft. So gibt es in der Stadt bei einer Jahresmitteltemperatur von 10,6 °C im Mittel rund 800 mm Niederschlag. Der Raum Düsseldorf gehört zu den Gebieten mit den mildesten Wintern in Deutschland. Im Durchschnitt fällt lediglich an elf Tagen im Jahr Schnee. Mit rund 1550 Sonnenstunden nimmt Düsseldorf in der Liste der sonnenscheinreichen Städte in Deutschland einen der hinteren Plätze ein. Das milde Klima ermöglicht es, dass selbst exotische Pflanzen wie Hanfpalmen und Yuccas im Freien gedeihen. Stadtgebiet. Das Stadtgebiet Düsseldorfs besteht aus zehn Stadtbezirken, die in 50 Stadtteile unterteilt sind. In jedem Stadtbezirk gibt es eine Bezirksvertretung mit 19 Mitgliedern unter Vorsitz eines Bezirksvorstehers. Die Bezirksvertretungen sind zu wichtigen, den Stadtbezirk betreffenden Angelegenheiten zu hören und werden bei jeder Kommunalwahl neu gewählt. Die Stadtbezirke mit ihren zugehörigen Stadtteilen Karte der Stadtbezirke und Stadtteile von Düsseldorf Im Unterschied zu anderen nordrhein-westfälischen Großstädten haben die Stadtbezirke in Düsseldorf keine eigenen Namen, sondern sind von 1 bis 10 durchnummeriert. Die meisten Einwohner hat der Stadtbezirk 3 mit ca. 109.000 Einwohnern, mit Bilk (rund 37.000 Menschen leben dort) liegt auch der einwohnerreichste Stadtteil im Stadtbezirk 3. Die geringste Bevölkerung hat dagegen der Stadtbezirk 10 mit etwa 25.000 Bewohnern, bei den Stadtteilen weist der Hafen mit 123 Einwohnern die kleinste Bevölkerungszahl auf. Weitere Informationen zum Thema befinden sich in der Liste der Stadtbezirke von Düsseldorf und der Liste der Stadtteile von Düsseldorf. Nachbarstädte. Die Stadt Düsseldorf grenzt im Norden an die kreisfreie Stadt Duisburg und an die Stadt Ratingen, im Osten an die Städte Mettmann, Erkrath und Hilden, im Süden an die Städte Langenfeld (Rheinland) und Monheim am Rhein (alle Kreis Mettmann) sowie im Westen an die Städte Dormagen, Neuss und Meerbusch (alle Rhein-Kreis Neuss). Von den Anfängen bis zur frühneuzeitlichen Stadt. Die mittelalterliche Stadt Düsseldorf wurde im 12./13. Jahrhundert zwar in der Nähe von frühmittelalterlichen Altsiedlungen gegründet, ging aber als Neugründung – ähnlich wie beispielsweise auch in Alpen oder Kalkar – nicht unmittelbar aus einer dieser Altsiedlungen hervor. Die Siedlung trug ihren Namen nach dem kleinen Fluss "Düssel", der südlich der Straße "Altestadt" in den Rhein mündete. Der Name "Düssel" entstand wahrscheinlich aus dem germanischen Begriff "thusila" und bedeutet "die Rauschende". Die Landschaft, in der Düsseldorf gegründet wurde, war vor der Entstehung der Grafschaft Berg der Keldachgau, ein Herrschaftsgebiet der Ezzonen. Die erste schriftliche Erwähnung von "Dusseldorp" in einer Schreinskarte kann nicht sicher datiert werden und stammt frühestens aus dem Jahr 1135. Am 5. Juni 1288 fand die Schlacht von Worringen statt, in deren Folge Graf Adolf V. von Berg Düsseldorf am 14. August 1288 die Stadtrechte verlieh. Die nur 3,8 Hektar große Stadt war bereits früh ein mit einer Stadtmauer und einem Graben gesicherter Ort, der die Westgrenze der Grafschaft Berg markierte. 1363 findet sich eine Erwähnung in der Bergischen Ämterverfassung für den Anschluss an die Grafschaft Berg. 1380 wurde Graf Wilhelm II. von König Wenzel in den Reichsfürstenstand erhoben. Noch im selben Jahr beschloss der neue Herzog zum Ausdruck seiner reichspolitischen Funktion und Stellung, die relativ abgelegene Burg an der Wupper als Regierungssitz aufzugeben und das am Rhein gelegene Düsseldorf zur neuen Residenz zu entwickeln. Für die geplante bergische Hauptstadt Düsseldorf wurde erstmals 1382 eine Burg urkundlich erwähnt, die in den folgenden Jahrhunderten zum Düsseldorfer Residenzschloss ausgebaut wurde. Seit 1386 residierten der Herzog und seine Gemahlin Anna dort. Zwischen 1384 und 1394 wurde die Stadt erheblich erweitert; der Bau der backsteingotischen Hallenkirche St. Lambertus und ihre reichhaltige Ausstattung mit Reliquien und Pfründen datieren in dieser Zeit. Durch geschickte Heiratspolitik vereinigten die Herzöge von Berg die Herzogtümer Jülich und Kleve mit dem ihren zum gemeinsamen Herzogtum Jülich-Kleve-Berg. In den Jahren 1538 bis 1543 war Düsseldorf die Hauptstadt eines Verbundes von Territorialstaaten, der neben Jülich-Kleve-Berg auch das Herzogtum Geldern, die Grafschaften Mark, Ravensberg und Zutphen sowie die Herrschaft Ravenstein umfasste. Insbesondere unter Wilhelm dem Reichen wurde die Region zu einem Zentrum humanistischer Wissenschaft und liberaler Katholizität. Gegenüber Juden setzte sich unter seiner Herrschaft mit der Polizeiverordnung von 1554, die die Ausweisung aller Juden verlangte, allerdings eine antijudaische Linie durch. 1585 wurde bei der Vermählung des Erbprinzen Johann Wilhelm mit der Markgräfin Jakobe von Baden die wohl prunkvollste dokumentierte Hochzeit des 16. Jahrhunderts ausgerichtet. Unter dem Titel "Orpheus und Amphion" kam dabei zum ersten Mal ein opernartiges theatralisches Schauspiel mit Gesang und Musik zur Aufführung. Wilhelm der Reiche sorgte für den Wiederaufbau und Ausbau des Düsseldorfer Schlosses durch den Renaissance-Baumeister Alessandro Pasqualini. Nach dem Aussterben des jülich-bergisch-klevischen Regentenstammes 1609 und während eines Erbfolgestreits zwischen Brandenburg und Pfalz-Neuburg besetzte der spanische General Ambrosio Spinola als kaiserlicher Kommissar 1614 die Stadt. Bergische Residenz- und Landeshauptstadt. Nach der Beilegung des Jülich-Klevischen Erbfolgestreits gehörte Düsseldorf mit dem Herzogtum Jülich-Berg zum damals zunächst noch protestantischen Haus Pfalz-Neuburg, einem Zweig des Adelsgeschlechtes der Wittelsbacher. In der ersten Phase der pfälzischen Herrschaft kam es zu schweren Auseinandersetzungen zwischen katholisch, lutherisch und reformiert geprägten Beamten bei Hofe und in der Stadt. Unter dem Einfluss seiner Frau, Magdalene von Bayern, konvertierte Erbprinz Wolfgang Wilhelm 1613 zum Katholizismus, wodurch er sich in den politischen Auseinandersetzungen seiner Zeit die Unterstützung der Katholischen Liga sichern konnte. Mit der Übernahme der Pfalzgrafen- und Herzogswürde im Jahre 1614 führte die Konversion Wolfgang Wilhelms in seinen Territorien zu einer Repression der protestantischen Konfessionen und zu einer Begünstigung der römisch-katholischen Kultur. Bei der nun einsetzenden Gegenreformation hatten die bei Hofe verkehrenden Jesuiten eine Schlüsselrolle. Johann Wilhelm von der Pfalz, von den Niederfränkisch sprechenden Düsseldorfern „Jan Wellem“ genannt, schon als pfälzischer Erbprinz seit 1679 Regent von Jülich-Berg, seit 1690 schließlich Kurfürst von der Pfalz sowie Herzog von Jülich-Berg, hielt auch als Souverän an Düsseldorf als Hauptresidenz fest, zumal die frühere kurfürstliche Hauptresidenz in Heidelberg durch den Pfälzischen Erbfolgekrieg zerstört worden war. In der Regierungszeit Johann Wilhelms erfuhr Düsseldorf durch die Präsenz des glanzvollen Hofes eine beachtliche wirtschaftliche, kulturelle und städtebauliche Entwicklung, die sich unter Kurfürst Karl Theodor von der Pfalz fortsetzte, der Schlösser, Sammlungen, Institute gründete und die Carlstadt anlegen ließ. Herausragend und berühmt war die noch von Johann Wilhelm gegründete, unter Karl Theodor ebenfalls geförderte Gemäldegalerie. Allerdings hatte Düsseldorf den Status einer kurfürstlichen Hauptresidenz schon seit 1718 wieder an Heidelberg verloren. 1720 ging diese Funktion dann an Mannheim und 1778 an München über, von wo aus Karl Theodor die Territorien Kurpfalz-Bayern und Jülich-Berg regierte. Eine weitere kurze Blüte der Stadt erfolgte unter dem kurfürstlichen Statthalter Johann Ludwig Franz Graf von Goltstein. 1769 wurde Düsseldorf Sitz des Jülich-Bergischen Oberappellationsgerichtes. Seit 1732 weiter neuzeitlich befestigt, wurde die Stadt im Siebenjährigen Krieg 1757 von den Franzosen besetzt und nach der Schlacht bei Krefeld 1758 von Herzog Ferdinand von Braunschweig durch Kapitulation eingenommen, jedoch bald wieder verlassen. Im Zuge der durch die Französische Revolution entfesselten Koalitionskriege kapitulierte Düsseldorf im Jahre 1795 der französischen Revolutionsarmee und blieb unter französischer Besetzung, bis es im Frieden von Lunéville 1801 an Kurpfalz-Bayern zurückgegeben wurde. Daraufhin erfolgte die vertraglich bedingte Schleifung der Festungswerke. Doch bereits infolge eines Gebietstausches, der in dem Vertrag von Schönbrunn und im Vertrag von Brünn zwischen Kurpfalz-Bayern, Preußen und Frankreich festgelegt worden war, gelangte die Stadt ab 1806 wieder unter französischen Einfluss und wurde Landeshauptstadt des Großherzogtums Berg, das auf der Grundlage der Rheinbundakte als souveräner, mit Frankreich alliierter Staat aus dem Heiligen Römischen Reich ausschied und faktisch bis Ende 1813 bestand. Großherzöge waren Joachim Murat bis 1808, sodann Napoleon selbst, schließlich ab 1809 unter Napoleons Regentschaft sein minderjähriger Neffe Napoléon Louis Bonaparte. Unter der neuen Regierung hielten bedeutende soziale und administrative Reformen Einzug. 1810 führte Napoleon den bergischen Code civil ein, der unter anderem den von Heinrich Heine begrüßten Durchbruch in Richtung einer Gleichstellung der Juden mit sich brachte. Anspruchsvolle Maßnahmen zur städtebaulichen Erneuerung und Verschönerung Düsseldorfs wurden vollzogen, insbesondere nach Entwürfen des Landschaftsarchitekten Maximilian Friedrich Weyhe. So pflanzte man die "Neue Allee", die spätere Königsallee, und bepflanzte den "Boulevard Napoléon", die spätere Heinrich-Heine-Allee erstmals als elegante Esplanaden; der Hofgarten erfuhr einen weiteren Ausbau zu einem Englischen Landschaftsgarten. Gleichwohl war das Großherzogtum für Frankreich im Rahmen seiner imperialistischen Expansion letztlich nur als Satelliten- und Pufferstaat sowie als Ressource für Finanzeinnahmen und Truppenaushebungen von Relevanz. Zudem geriet das Großherzogtum zunehmend in eine schwere Wirtschaftskrise, weil die französischen Zölle, die im Zuge der Kontinentalsperre an seinen westlichen und nördlichen Staatsgrenzen erhoben wurden, es von wichtigen Marktgebieten abschnitten. Die Wende brachte die Völkerschlacht bei Leipzig, in deren Folge die französischen Truppen und Spitzenbeamten das Großherzogtum Berg verließen. Preußische Provinzstadt und Industrialisierung. Das von den Franzosen verlassene Großherzogtum Berg wurde ab Ende 1813 von Truppen des Königreichs Preußen besetzt und von preußischen Beamten als Generalgouvernement Berg interimistisch verwaltet. Auf der Grundlage der Neuordnung Europas, die in den Jahren 1814 bis 1815 auf dem Wiener Kongress verhandelt worden war, nahm der preußische König Friedrich Wilhelm III. das Territorium und dessen Hauptstadt Düsseldorf am 5. April 1815 schließlich in Besitz. Rechtlich gehörte es ab dem 21. April 1815 zu Preußen. Düsseldorf wurde 1816 Sitz des Landkreises Düsseldorf. Düsseldorf selbst war dabei aber zunächst kreisfreie Stadt, doch schon 1820 wurde die Stadt in den Landkreis Düsseldorf eingegliedert. Am 22. April 1816 nahm die Bezirksregierung Düsseldorf ihre Arbeit auf. Mit der Schaffung der Rheinprovinz wurde Düsseldorf 1822 Sitz eines "Landeshauptmanns" und 1823 Sitz eines "Provinziallandtags". Durch die Eingliederung in Preußen hatte Düsseldorf nach über 400 Jahren den Status einer Landeshauptstadt und damit sämtliche Behörden der Landesregierung verloren. Düsseldorf war somit nur noch der Mittelpunkt einer Provinz und eine Beamtenstadt, nach Schleifung der Festungswerke von einem geschlossenen Ring ausgedehnter Parks umgeben, dem sich eine erste Stadterweiterung im klassizistischen Stil anschloss. Nach zeitgenössischen Beschreibungen bot die Stadt in der Zeit des Biedermeier insgesamt ein vergleichsweise harmonisches Stadtbild, bemerkte doch etwa Carl Julius Weber: "„Das heitere Düsseldorf gefällt doppelt, wenn man aus dem finsteren Cöln herkommt.“" Allerdings war die politische und administrative Bedeutung der Stadt aufgrund des Verlustes der Hauptstadtfunktion nicht so hoch wie der Rang des geistigen und künstlerischen Lebens in jener Zeit, aus der Düsseldorfs Ruf als "Kunst- und Gartenstadt" stammt. In der Zeit des Vormärz und der Deutschen Revolution waren die in der Stadt vertretenen bürgerlichen Milieus mit den Persönlichkeiten Lorenz Cantador, Ferdinand Freiligrath, Ferdinand Lassalle und Hugo Wesendonck ein Brennpunkt der sich formierenden demokratischen und Arbeiterbewegung. Ab Mitte der 1830er Jahre erfasste der durch die Industrialisierung ausgelöste gesellschaftliche und wirtschaftliche Umbruch die kleine preußische Provinzstadt. Die Ablösung des Kölner Stapelrechts durch die Mainzer Akte (1831), die Dampfschifffahrt auf dem zunehmend regulierten Rhein, die Einrichtung eines Freihafens (1831) sowie die Anlage der ersten westdeutschen Eisenbahnstrecken (1838) schufen die Voraussetzungen für die Entwicklung Düsseldorfs zur Industriestadt. Die zwischen Rotterdam und Mannheim verkehrende "Dampfschiffahrts-Gesellschaft für den Nieder- und Mittelrhein" wurde 1836 in Düsseldorf gegründet. 1837 fand die erste Gewerbeausstellung in der Flinger Straße statt, die Grundlage für die spätere Entwicklung zur Messestadt. Ab 1850 siedelten sich die ersten Stahlwerke unter anderem in Oberbilk an. Es folgten zahlreiche weitere Industriebetriebe wie beispielsweise die Gerresheimer Glashütte. Allerdings dominierte bis 1870 noch das Textilgewerbe. Eine Berufsfeuerwehr hat Düsseldorf seit 1872. Düsseldorf am Rhein vor 1898 1872 wurde Düsseldorf erneut kreisfrei. Um 1880 bestand es aus sechs Stadtteilen: der Altstadt (dem ursprünglichen Düsseldorf) mit engen und unregelmäßigen Straßen sowie den beiden Mündungen der nördlichen und der südlichen Düssel, der Carlstadt an der Südseite der Altstadt (1767 angelegt), der in einiger Entfernung liegenden Neustadt, die 1690–1716 erbaut wurde, der Friedrichstadt am Südostende, der Königstadt und schließlich Pempelfort im Norden und Nordosten. 1880 fand in Düsseldorf die "Rheinisch-Westphälische Gewerbeausstellung" statt, die über eine Million Besucher anzog und der Stadt weitere Wachstumsimpulse gab. Nach der Volkszählung vom 1. Dezember 1880 lebten in der Stadt auf 49 Quadratkilometern Fläche 95.458 Menschen. Die verkehrsgünstig und wirtschaftsgeografisch zentral gelegene preußische Stadt, die 50 Jahre zuvor aus politischer und wirtschaftlicher Sicht nur wenig Bedeutendes vorzuweisen hatte, stand dank fortschreitender Industrialisierung, ausgebauter Verkehrsinfrastrukturen, rasanten Bevölkerungswachstums und des Fortfalls von Zollschranken, der sich mit der Verwirklichung des Deutschen Zollvereins ab 1834 ergeben hatte, an der Schwelle der Entwicklung zu einer der bedeutenden Groß- und Industriestädte des 1871 gegründeten Nationalstaats Deutsches Reich, dessen bundesstaatlicher Rahmen das Königreich Preußen nunmehr als einen Gliedstaat umfasste. In der Zeit von 1880 bis 1900 stieg die Bevölkerung auf mehr als das Doppelte an, 215.000 Einwohner. Aufstieg zur Wirtschaftsmetropole und Niedergang. An der Wende zum 20. Jahrhundert war Düsseldorf eine geschäftige und aufstrebende Industriestadt. 1902 wurde eine große Gewerbe-, Industrie- und Kunstausstellung mit über 2500 Ausstellern auf einem 70 Hektar großen Gelände am Rheinufer organisiert, die weltweit Beachtung fand. Eine gute Finanzverfassung, niedrige Steuern und städtebauliche Anreize zogen vermögende Leute und Unternehmen aus dem ganzen Reich an. Dank der Konzentration von Verwaltungen und unternehmensnahen Dienstleistungen sowie dank der Ansiedlung einer Börse, großer Bankhäuser und einer Reihe wichtiger Zusammenschlüsse der Industrie etablierte sich die Stadt schon zu Beginn des 20. Jahrhunderts als „Schreibtisch des Ruhrgebiets“. 1909 wurde ein Zeppelinflugfeld auf der Golzheimer Heide eingerichtet. Im gleichen Jahr erfolgten die ersten großen Eingemeindungen seit dem Mittelalter. Dadurch wuchs die Stadt um 62,5 km² und erreichte mit einem Zuwachs von rund 63.000 Einwohnern eine Gesamteinwohnerzahl von 345.000. Ihren neuen Zuschnitt nahm die Stadt zum Anlass, im August 1910 eine "Internationale Städtebau-Ausstellung" abzuhalten, zu deren Gelingen neben deutschen Großstädten auch Chicago, Boston, London, Zürich, Kopenhagen, Stockholm und Helsinki stadtplanerische Exponate beitrugen. In der 1912 folgenden "Städte-Ausstellung Düsseldorf für Rheinland, Westfalen und benachbarte Gebiete" wurden Pläne für die „Millionenstadt Düsseldorf“ vorgestellt. Der US-amerikanische Publizist und Reformer Frederic C. Howe pries Düsseldorfs Stadtentwicklung als vorbildlich. Das Wachstum der Stadt schien den Zeitgenossen unaufhaltsam zu sein. Der Ausbruch des Ersten Weltkrieges traf Düsseldorf vollkommen unvorbereitet. Am 31. Juli 1914 übernahm das Militär die Exekutive und am folgenden Tag wurde die allgemeine Mobilmachung verkündet. Schon bald veränderte sich das Leben in der Stadt merklich. Die Düsseldorfer Industrie stellte auf Kriegsproduktion um und wurde eine der größten Waffenschmieden des Reiches. Die Stadt wandelte sich zu einem Nachschubzentrum und Lazarettstandort. 1915 waren 46.000 Reservisten in Düsseldorf stationiert, 1917 gab es rund 8000 Lazarettbetten. Durch den wirtschaftlichen Niedergang sank der Hafenumschlag auf unter 30 % des Vorkriegsniveaus. Die Geburtenzahlen verringerten sich um 42 %; es herrschte Mangel an Lebensmitteln und Kleidung; die Sterberaten stiegen massiv an; über 10.000 Soldaten kehrten nicht mehr zurück. Im Juni 1917 kam es wegen des Hungers in der Bevölkerung zu Protesten und zu Plünderungen von Läden. Mehrfach wurde der Belagerungszustand verkündet. Am 8. November 1918 trugen aus Köln kommende Matrosen die Novemberrevolution in die Stadt. Es bildete sich ein provisorischer Arbeiter- und Soldatenrat, der in Zusammenarbeit mit der Stadtverwaltung zunächst die öffentliche Ordnung aufrechterhalten konnte. Infolge des Waffenstillstandes von Compiègne, der Beendigung des Ersten Weltkrieges, besetzten am 4. Dezember 1918 belgische Truppen die linksrheinischen Stadtteile. Himmelgeist und das damals noch selbständige Benrath waren britisch besetzt. Der Rest der Stadt lag in der entmilitarisierten Zone entsprechend Artikel 42, 43 des Versailler Vertrages. Die Soldaten schieden formell aus dem Arbeiter- und Soldatenrat aus, der Arbeiterrat formierte sich neu. Vom 7. bis zum 9. Januar 1919 übernahm nach Streiks, Besetzung von Zeitungsredaktionen und einer Massendemonstration gegen die Regierung Ebert-Scheidemann ein "Vollzugsrat des Arbeiterrates" aus Mitgliedern des Spartakusbundes und linken USPDlern die Macht. Ziel dieser Gruppen war eine Revolution nach russischem Vorbild. Der Hauptbahnhof, das Polizeipräsidium und das Fernsprechamt wurden besetzt. Aus dem Gefängnis "Ulmer Höh" wurden rund 150 Insassen befreit. Oberbürgermeister Oehler, Regierungspräsident Kruse und einige andere Personen des öffentlichen Lebens konnten sich ins belgisch besetzte Oberkassel retten, andere angesehene Bürger wurden als Geiseln genommen. Aus Protest legten am 10. Januar die städtischen Beamten die Arbeit nieder. Ein "Vollzugsrat des Arbeiterrates" erklärte die Einsetzung Karl Schmidtchens als Oberbürgermeister. Es kam zu Streiks und blutigen Zusammenstößen mit zahlreichen Toten und Schwerverletzten in der Graf-Adolf-Straße. Nach fünf Wochen, am 28. Februar 1919, wurde die Stadt vom Freikorps Lichtschlag erobert und der Vollzugsrat abgesetzt. Dennoch kam es bis Mitte April 1919 immer wieder zu bewaffneten Auseinandersetzungen zwischen Spartakisten und den reaktionären Freikorpstruppen, insbesondere während der Generalstreiksbewegung an der Ruhr vom 8. bis zum 13. April. Heftig umkämpft war der Stadtteil Oberbilk, der nur mit Artillerieunterstützung erobert werden konnte. Bis 1933 blieb Düsseldorf in weiten Teilen dennoch eine „rote Stadt“ in Preußen, das 1918 durch den Sturz der Hohenzollern-Monarchie als Freistaat Preußen eine Republik im Deutschen Reich geworden war. Am 8. März 1921 rückten gegen Mittag französische und belgische Truppen in Düsseldorf und anderen Ruhrgebietsstädten ein und besetzten sie. Hintergrund war die Weigerung der Reichsregierung, Reparationszahlungen aus dem Versailler Vertrag in Höhe von 269 Milliarden Goldmark anzuerkennen. Zwei Jahre später begannen die Franzosen von ihren Brückenköpfen Duisburg und Düsseldorf aus mit der Besetzung des Ruhrgebiets. Mit Annahme des Dawes-Plans am 1. September 1925 durch die deutsche Regierung endete die Besetzung. Aus diesem Anlass kam Reichspräsident Paul von Hindenburg nach Düsseldorf und hielt im Rheinstadion vor rund 50.000 Zuhörern eine patriotische Rede. 1926 fand mit der "GeSoLei" die mit 7,5 Millionen Besuchern größte Messe der Weimarer Republik im und am dafür konzipierten Ehrenhof statt. 1929 ging der Landkreis Düsseldorf größtenteils im neuen Landkreis Düsseldorf-Mettmann auf, der nördliche Teil wurde den Städten Duisburg und Mülheim zugeschlagen. Düsseldorf-Mettmann wurde bei der Kreisreform 1975 in Kreis Mettmann umbenannt. Am 13. April 1931 begann in Düsseldorf der Strafprozess zu einem der spektakulärsten Kriminalfälle der Weimarer Republik. Zu Gericht saß der schon von 1894 bis 1921 und seit 1925 wieder in Düsseldorf wohnende Serienmörder Peter Kürten, den die Boulevardpresse wegen seiner Vorliebe für das Blut seiner zahlreichen Opfer den „Vampir von Düsseldorf“ nannte. Der Prozess, der auch große internationale Beachtung fand – an die neunzig Auslandskorrespondenten hatten sich angesagt –, führte am 21. April 1931 zu einem Todesurteil, das am 2. Juli 1931 in Köln vollstreckt wurde. In Deutschland löste das Ereignis eine erneute Debatte über die Zulässigkeit der Todesstrafe aus. Der Kriminalfall inspirierte den Regisseur Fritz Lang zu seinem Streifen "M – Eine Stadt sucht einen Mörder", einem der ersten Tonfilme. Die Zeit des Nationalsozialismus und Zweiter Weltkrieg. Nach der Machtübernahme durch die Nationalsozialisten kam es schon am 11. April 1933 in Düsseldorf zur ersten Verbrennung „unerwünschter Literatur“ durch die Deutsche Studentenschaft, unter anderem von Büchern Heinrich Heines. Der NSDAP-Gauleiter Friedrich Karl Florian initiierte das massenwirksame Gedenken an Albert Leo Schlageter sowie die personelle Umstrukturierung von Stadtverwaltung und Behörden. Der bisherige Polizeipräsident Hans Langels (Zentrumspartei) wurde abgesetzt und durch den SS-Gruppenführer Fritz Weitzel ersetzt. Zahlreiche Regimegegner wurden verhaftet, misshandelt oder getötet. Düsseldorf war als Hauptstadt des Gaus Düsseldorf (1930–1945) Sitz zahlreicher NS-Verbände und sicherheitspolizeilicher Institutionen: der Staatspolizeileitstelle Düsseldorf, des Höheren SS- und Polizeiführers West (ab 1938), des Inspekteurs der Sicherheitspolizei und des SD, des SS-Oberabschnitts West, des SD-Oberabschnitts West, der SA-Gruppe Niederrhein, der 20. SS-Standarte, eines HJ-Banns (Nr. 39, Obergebiet West, Gebiet Ruhr-Niederrhein), ab 1936 einer Heeresstandortverwaltung und eines Wehrbezirkskommandos der Wehrmacht. Zu den kulturpolitischen „Höhepunkten“ zählten die Propagandaschauen Reichsausstellung Schaffendes Volk (1937) und Entartete Musik (1938). Am 10. November 1938 wurden in der Pogromnacht die Synagogen auf der Kasernenstraße und in Benrath niedergebrannt, die jüdische Bevölkerung der Stadt wurde verfolgt und mindestens 18 Personen wurden ermordet. Für die Deportation von fast 6000 Juden aus dem gesamten Regierungsbezirk war das „Judenreferat“ der Staatspolizeileitstelle Düsseldorf verantwortlich. Am 27. Oktober 1941 fuhr der erste Zug mit insgesamt 1003 Düsseldorfer und niederrheinischen Juden vom Güterbahnhof Derendorf in die deutschen Konzentrationslager im besetzten Polen (siehe Juden in Düsseldorf). Über 2200 Düsseldorfer Juden wurden ermordet. 1944 lebten in den etwa 400 Lagern Düsseldorfs rund 35.000 ausländische Zivilarbeiter, mehrere tausend Kriegsgefangene sowie KZ-Häftlinge, die Zwangsarbeit leisten mussten. An die Opfer des Nationalsozialismus in Düsseldorf erinnert seit 1987 die Mahn- und Gedenkstätte Düsseldorf im ehemaligen Polizeipräsidium an der Mühlenstraße (Stadthaus). Es gibt darüber hinaus zahlreiche Düsseldorfer Gedenkorte für Opfer des Nationalsozialismus. Im Zweiten Weltkrieg fielen 1940 die ersten Bomben auf Düsseldorf. Die alliierten Luftangriffe forderten bis 1945 mehr als 5000 Tote unter der Zivilbevölkerung. Etwa die Hälfte der Gebäude wurde zerstört, rund 90 Prozent wurden beschädigt. Alle Rheinbrücken, die meisten Straßen, Hochwasserdeiche, Unter- und Überführungen sowie das städtische Entwässerungsnetz waren größtenteils zerstört. Die Trümmermenge wurde auf etwa zehn Millionen Kubikmeter geschätzt. Ab dem 28. Februar 1945 wurde Düsseldorf für sieben Wochen zur Frontstadt mit amerikanischem Dauerbeschuss vom linken Rheinufer und im März immer mehr eingekreist. Im April versuchten einige Düsseldorfer Bürger des Widerstands um Rechtsanwalt Karl August Wiedenhofen bei Schutzpolizei-Kommandeur Franz Jürgens die Festsetzung des Polizeipräsidenten August Korreng zu erwirken, um die Stadt kampflos an die Alliierten zu übergeben. Der Putschversuch gelang zunächst, wurde dann aber verraten. Nach der Befreiung Korrengs durch loyale Kräfte von Gauleiter Friedrich Karl Florian, der fünf der Widerstandsmitglieder standrechtlich erschießen ließ (darunter Jürgens), gelang es den beiden letzten Mitgliedern Rechtsanwalt Wiedenhofen und Architekt Aloys Odenthal zu entkommen, die im Osten der Stadt heranrückenden amerikanischen Streitkräfte zu erreichen und die endgültige Zerstörung der Stadt durch einen bereits vorbereiteten großen Luftangriff abzuwenden. Wiederaufbau und Entwicklung zur Landeshauptstadt Nordrhein-Westfalens. a> sind beispielhafte Bauten der 1950er und 1960er Jahre Am 17. April 1945 besetzten US-amerikanische Truppen, im Zuge der Militäroperation "Ruhrkessel" von Mettmann kommend, Düsseldorf nahezu kampflos. Nur noch etwa die Hälfte der Bewohner lebte in der in weiten Teilen zerstörten Stadt, die im Zuge der Einteilung Deutschlands in Besatzungszonen unter britische Militärverwaltung kam. Die britische Militärregierung setzte bereits im Juni 1945 eine deutsche Kommunalverwaltung ein. Zum Ende der Kampfhandlungen befanden sich noch etwa 235.000 Menschen in Düsseldorf, zum Jahresende 1945 lebten bereits wieder 394.765 Einwohner in der Stadt. Nach Vorentscheidungen in London gründeten die Briten am 23. August 1946 als einen Nachfolgestaat des nur noch de jure existierenden Freistaats Preußen das Land Nordrhein-Westfalen mit Düsseldorf als Hauptstadt, um die bedeutenden industriellen Ressourcen des Landes der politischen Einflussnahme der Sowjetunion und Frankreichs zu entziehen. Die geografische Zentralität, insbesondere die gewachsene Funktion als wirtschaftliches Entscheidungszentrum („Schreibtisch des Ruhrgebiets“), und das Bestehen unzerstörter Verwaltungsbauten gaben den Ausschlag für die Bestimmung Düsseldorfs zum politischen Zentrum des neuen Landes. Mit Wohnungsnotprogrammen konnten bis 1947 etwa 70.000 Wohnungen zur Verfügung gestellt werden. 1947 fand bereits wieder eine erste Messe in Düsseldorf statt. 1949, dem Gründungsjahr der Bundesrepublik Deutschland, erreichte die Einwohnerzahl Düsseldorfs schon fast wieder Vorkriegsniveau, der systematische Wiederaufbau setzte Anfang der 1950er Jahre ein. Von 1949 bis 1952 war Düsseldorf Sitz der Internationalen Ruhrbehörde, einer Vorläuferin der Europäischen Gemeinschaft für Kohle und Stahl. Dank des Marketingverbundes Igedo und wegen der Nähe zur Textilindustrie konnte sich das Messe- und Ausstellungsgelände am Ehrenhof in dieser Zeit mit der "Verkaufs- und Modewoche Düsseldorf" als neuer deutscher Standort des Modehandels durchsetzen. Mit dem Neuordnungsplan von 1950 wurden die Grundlagen für die weitere Stadtentwicklung der nächsten Jahrzehnte geschaffen, die das Stadtbild und die Verkehrsführung entscheidend verändern sollte, weitgehend nach dem Leitbild der "Autogerechten Stadt". Zahlreiche Straßen wurden verbreitert und zerstörte Gebäude um zwei bis drei Geschosse höher wieder aufgebaut. Ab Mitte der 1950er Jahre entstanden die ersten Hochhäuser. Düsseldorf entwickelte sich zur Verwaltungsstadt. Dennoch blieb Düsseldorf bis in die 1980er Jahre ein bedeutender Industriestandort. Aufgrund der Nähe zum Ruhrgebiet sowie zur damaligen Bundeshauptstadt Bonn ließen sich zahlreiche Verbände und Interessensvertretungen aus dem Stahlbereich in der Stadt nieder. Die 1960er und 1970er Jahre brachten große Veränderungen. Die Stadt hatte in dieser Zeit den höchsten Bevölkerungsstand ihrer Geschichte. Ab 1961 entstand mit Garath ein völlig neuer Stadtteil in Form einer Trabantenstadt am südlichen Stadtrand. 1965 wurde Düsseldorf Universitätsstadt. Es folgten 1970 die Eröffnung des neuen Schauspielhauses, 1971 der Neuen Messe und 1978 der neuen Tonhalle. 1975 erfolgte die größte Eingemeindung seit 1929. Es entstanden zwei neue Rheinbrücken und es wurde mit dem Bau einer U-Stadtbahn begonnen, deren erste Strecke 1981 eingeweiht werden konnte. In den 1980er Jahren wurde mit weiteren städtebaulichen Projekten das Stadtbild abermals nachhaltig verändert, dem Neubau des Landtages, der Entwicklung des Medienhafens und dem Bau des Rheinufertunnels, dessen Fertigstellung sich bis in die 1990er Jahre hinzog. Seit 1993 fließt der Autoverkehr unterirdisch und die Altstadt ist mit der Rheinuferpromenade wieder an den Rhein gerückt. In den 1990er Jahren entwickelte sich im Medienhafen ein neues Büro-, Geschäfts- und Freizeitviertel. 1996 vernichtete ein Großbrand ein Terminal des Düsseldorfer Flughafens. Der Flughafen und die Anbindung an die Stadt wurden komplett umgeplant. Die Arbeiten waren 2003 abgeschlossen. Bei einem Sprengstoffanschlag am Bahnhof Düsseldorf-Wehrhahn wurden am 27. Juli 2000 zehn Menschen zum Teil lebensgefährlich verletzt, eine schwangere Frau verlor ihr ungeborenes Kind. Nach einem Brandanschlag auf die Neue Synagoge in Düsseldorf am 2. Oktober 2000 wandte sich der damalige Bundeskanzler Gerhard Schröder mit einem Appell an die bundesdeutsche Öffentlichkeit, in dem er zum „Aufstand der Anständigen“ aufforderte. Am 25. Mai 2009 erhielt die Stadt den von der Bundesregierung verliehenen Titel „Ort der Vielfalt“. Seitens der städtischen Verwaltung wird Düsseldorf als schuldenfrei erklärt, was jedoch vom Land NRW und dessen Statistikamt in Frage gestellt wird. Die unterschiedlichen Auffassungen ergeben sich aus unterschiedlichen Bewertungen und sind auch parteipolitisch auf Landes- und Stadtebene motiviert. Zum Stichtag 31. Dezember 2013 hatte die Stadt Verbindlichkeiten in Höhe von insgesamt 383 Millionen Euro. Damit ist Düsseldorf allerdings die am wenigsten verschuldete kreisfreie Stadt Nordrhein-Westfalens. Eingemeindungen. ¹ "Der Monheimer Stadtteil Hitdorf wurde nach Leverkusen eingegliedert. Aufgrund des Gesetzes über Gebietsänderungen im Neugliederungsraum Düsseldorf wurde Monheim mit Wirkung vom 1. Juni 1976 wieder ausgegliedert und zur eigenständigen Stadt erklärt. Lediglich ein kleiner kaum bewohnter Teil der Urdenbacher Kämpe verblieb bei Düsseldorf. Der ehemalige Stadtteil Hitdorf verblieb weiterhin bei Leverkusen." Bevölkerung. Am 31. Dezember 2012 betrug die „Amtliche Einwohnerzahl“ für Düsseldorf nach Fortschreibung auf Basis des Zensus 2011 593.682 Einwohner. Davon waren 308.014 Frauen (51,88 %) und 285.668 Männer (48,11 %). Der Ausländeranteil betrug 16,55 %, d. h. 98.235 Einwohner. Nach Zählung der Stadt stellten 2006 die Türken mit 15.191 Personen die größte Gruppe der Nichtdeutschen, gefolgt von den Griechen mit 10.591 und den Italienern mit 6890 Personen. Von den außereuropäischen Herkunftsländern stellen die Asiaten (ohne Türken) mit 14.639 die größte Gruppe, darunter Japaner mit 4951, Iraner mit 1419, Chinesen mit 1375 und Koreaner mit 1003 Personen. Stark ansteigend ist die Zahl chinesischer Einwohner der Landeshauptstadt infolge der Ansiedlung von etwa 300 chinesischen Unternehmen (Stand 2011). Zum Stichtag 31. Dezember 2010 hatte Düsseldorf im Vergleich zu den anderen Städten und Gemeinden in Nordrhein-Westfalen den größten Ausländeranteil. Nach Angaben des Statistischen Landesamts hatten 19,3 Prozent der Düsseldorfer einen ausländischen Pass. In Düsseldorf lebten nicht nur die meisten Japaner (nämlich 59 Prozent aller Japaner in Nordrhein-Westfalen), sondern auch die meisten Schweden, Ghanaer, Süd-Koreaner, Iren, Franzosen und Marokkaner des Landes. Mit Beginn der Industrialisierung im 19. Jahrhundert setzte in Düsseldorf ein starkes Bevölkerungswachstum ein. Lag die Einwohnerzahl der Stadt 1834 bei rund 20.000, so überschritt sie schon 1882 die Grenze von 100.000, wodurch Düsseldorf zur Großstadt wurde. 1905 hatte die Stadt 250.000 Einwohner, bis 1933 verdoppelte sich diese Zahl auf 500.000. Im Jahre 1962 erreichte die Bevölkerungszahl mit 705.391 ihren historischen Höchststand. In den folgenden Jahren sank die Einwohnerzahl jedoch wieder stark. Dieser Trend konnte auch durch die kommunale Neugliederung in den 1970er Jahren, in dessen Folge einige umliegende Gemeinden nach Düsseldorf eingegliedert wurden, nicht gedreht werden. Der Wegzug in die Umlandgemeinden führte dazu, dass sich die Einwohnerzahlen in den 1980er und auch 1990er Jahren bei 570.000 Einwohnern einpendelten. Erst zur Jahrtausendwende kehrte sich der Trend um. So betrug am 30. Juni 2005 die „Amtliche Einwohnerzahl“ für Düsseldorf nach Fortschreibung des Landesbetriebs Information und Technik Nordrhein-Westfalen 573.449 (nur Hauptwohnsitze und nach Abgleich mit den anderen Landesämtern). Am 20. Juli 2014 wurde die 600.000. Einwohnerin Düsseldorfs geboren. Erstmals seit 1978 gibt es wieder mehr als 600.000 Einwohner in Düsseldorf. Das hat das Amt für Statistik ermittelt. Für das Jahr 2030 werden 611.970, 623.600 bzw. 645.000 Einwohner prognostiziert. Bei der Bevölkerungsdichte rangiert Düsseldorf unter den Städten Nordrhein-Westfalens mit 2730,7 Einwohner pro km² hinter Herne und vor Oberhausen auf Platz 2 (Stand: 31. Dezember 2012). Nach dem Einwohnermelderegister der Stadt Düsseldorf, das seit 2015 seine Bevölkerungszahl aus dem Statistikabzug des Einwohnermelderegisters statt aus der Fortschreibung der Volkszählung von 1987 generiert, ergab sich zum 1. Januar 2015 eine Zahl von 619.651 Einwohnern. Mundart. Der in Düsseldorf nur noch in wenigen Milieus gesprochene Dialekt zählt zum Limburgischen, das durch die Benrather Linie (maache-maake-Grenze) zum auch in Teilen Düsseldorfs gesprochenen Ripuarischen abgegrenzt wird. Durch die Uerdinger Linie (isch-ick-Grenze) im Norden wird es vom Nord-Niederfränkischen unterschieden. Platt wird heutzutage zumeist nur noch von der älteren Generation gesprochen bzw. verstanden. Anstelle des Originalen Düsseldorfer Platt wird in neuerer Zeit häufig ein so genannter Regiolekt benutzt, Rheinisches Deutsch genannt. Religionen. Zum protestantischen Glauben bekannten sich im Jahr 2013 19,2 Prozent und zum katholischen Glauben 31,7 Prozent. Die verbleibenden 49,1 Prozent gehörten anderen Religionen an oder waren konfessionslos. Zum protestantischen Glauben bekannten sich im Jahr 2011 19,7 Prozent und zum katholischen Glauben 33,1 Prozent. Die verbleibenden 47,2 Prozent gehörten anderen Religionen an oder waren konfessionslos. Christentum. "Eine Übersicht der Kirchengemeinden und -gebäude findet sich in der Liste von Sakralbauten in Düsseldorf." Römisch-katholisch. Düsseldorf gehörte von Anfang an zum Erzbistum Köln und war dem Archidiakonat des Domdechanten unterstellt. Obwohl die Reformation anfangs mehrheitlich Fuß fassen konnte, verblieben auch weiterhin Katholiken in der Stadt. Sie gehörten bis 1627 zum Dekanat Neuss, ehe Düsseldorf selbst Sitz eines Dekanats wurde. Der frühzeitige Untergang des Großherzogtums Berg im Jahre 1813 verhinderte die von Napoléon angeregte Gründung eines Bistums Düsseldorf. Ein solches hatte bereits Herzog Wolfgang Wilhelm von Pfalz-Neuburg für seine Hauptresidenz angestrebt. Heute gehören alle katholischen Pfarrgemeinden der Stadt zum Stadtdekanat Düsseldorf, das aus den Dekanaten Nord, Mitte/Heerdt, Ost, Süd und Benrath besteht. In Düsseldorf leben heute etwa 191.000 Katholiken, was einem Bevölkerungsanteil von etwa 32 % entspricht. Der katholische Stadtverband hat seit 2006 im umgebauten Kloster der Maxkirche ein neues Zentralgebäude in der Carlstadt. Seit 1394 wird Apollinaris von Ravenna, dessen Reliquien im Apollinarisschrein der Stadtkirche St. Lambertus ruhen, als Schutzheiliger und Stadtpatron Düsseldorfs verehrt. Die Größte Kirmes am Rhein ist das Stadtfest zu seinem Namenstag (23. Juli). Evangelisch-uniert. Die Reformation konnte sich ab 1527 teilweise durchsetzen, begünstigt vor allem durch den Reformkatholizismus von Herzog Wilhelm V. Neben dem Psalmengesang wurde die Kommunion in beiderlei Gestalt in der Stiftskirche St. Lambertus eingeführt. Dies war die Gründung der lutherischen Gemeinde. 1571 gab es einen erneuten Umschwung am Hofe, dem zufolge die Protestanten unterdrückt wurden. Die lutherische und die 1573 gegründete reformierte Gemeinde trafen sich danach heimlich, bis die Unterdrückung ab 1590 beendet wurde Ab 1609 konnten die Protestanten zunächst ihre Gottesdienste öffentlich abhalten: die Reformierten in ihrem Predigthaus an der Andreasstraße, die Lutheraner an der Berger Straße. 1614 setzte unter dem römisch-katholischen Herrscher Wolfgang Wilhelm wieder die Unterdrückung ein. Bis Mitte des 17. Jahrhunderts konnten die Protestanten nur heimlich ihre Gottesdienste abhalten. Dann erhielten sie das Recht zur freien Religionsausübung. Die erste überlieferte evangelische Predigt in Düsseldorf wurde im Predigthaus an der Bolkerstraße gehalten, das aus dem Jahr 1651 erhalten ist. 1683 konnte sich die reformierte Gemeinde ihre eigene Kirche bauen, die 1916 den Namen Neanderkirche erhielt. Der Turm wurde 1687 fertiggestellt. Im selben Jahr entstand die lutherische Kirche an der Berger Straße. Gehörte die protestantische Gemeinde Düsseldorfs zunächst zur kölnischen Klasse, später zur Bergischen Synode (1589), so wurde Düsseldorf 1611 Sitz einer eigenen Klasse (Kirchenverwaltungsbezirk). Nach dem Übergang an Preußen vereinigten sich 1825 (→ über die Vereinigung zur Union in Preußen: Agendenstreit) die beiden protestantischen Kirchengemeinden zur „Evangelischen Gemeinde Düsseldorf“, die zur Superintendentur Düsseldorf gehörte. Bereits 1815 war Düsseldorf Sitz des preußischen Oberkonsistoriums der Provinz Jülich-Kleve-Berg geworden, doch zog dieses schon 1816 nach Köln um. 1827 gab es in Düsseldorf eine Synode. Die protestantische Gemeinde Düsseldorfs wuchs ständig und weitere Kirchen wurden gebaut, so etwa die Johanneskirche am Martin-Luther-Platz (1881), die Christuskirche (1899), die Friedenskirche (1899) und die alte Matthäikirche (1899) sowie die Kreuzkirche (1910). 1905 entstand aus Teilen der Gemeinden Urdenbach und Gerresheim die Kirchengemeinde Eller-Wersten. Durch Eingemeindungen gab es weitere Kirchengemeinden im Stadtgebiet. Am 1. Oktober 1934 wurde der Sitz des Konsistoriums der rheinischen Provinzialkirche Preußens beziehungsweise der Evangelischen Kirche im Rheinland von Koblenz nach Düsseldorf verlegt. Die heutige Kirchenverwaltung ist in der Hans-Böckler-Straße im Stadtteil Golzheim. Weiterhin gibt es ein „Haus der Kirche“ in der Bastionstraße in der Carlstadt. 1936 wurde für alle Düsseldorfer evangelischen Gemeinden ein Gesamtverband gegründet. 1948 wurde die Kirchengemeinde Düsseldorf aufgeteilt. Auch in den Außenbezirken gab es Veränderungen in den Kirchengemeinden. 1964 wurde der Kirchenkreis Düsseldorf in die Kirchenkreise Düsseldorf-Mettmann, Düsseldorf-Nord, Düsseldorf-Ost und Düsseldorf-Süd aufgeteilt, wobei der Kirchenkreis Düsseldorf-Mettmann vor allem Kirchengemeinden außerhalb der Stadt Düsseldorf umfasst. Die drei Kirchenkreise im Stadtgebiet bildeten bis Mitte 2007 den Kirchenkreisverband Düsseldorf innerhalb der Evangelischen Kirche im Rheinland. Am 16. Juni 2007 trat die Synode des neugebildeten Kirchenkreises Düsseldorf erstmals zusammen. Er ist aus dem Zusammenschluss der Kirchenkreise Düsseldorf-Nord, Düsseldorf-Ost und Düsseldorf-Süd hervorgegangen und repräsentiert 24 evangelische Gemeinden und damit 116.550 Protestanten der Landeshauptstadt, die rund 20 Prozent der Bevölkerung ausmachen. Evangelisch-lutherisch. Als Reaktion auf die Vereinigung der Evangelisch-Lutherischen Kirche in Preußen und einiger reformierter Gemeinden zur unierten Evangelischen Kirche in Preußen durch Kabinettsorder von König Friedrich Wilhelm III. 1817 und 1830 bildete sich die Evangelisch-Lutherische (altlutherische) Kirche Preußens. Die Altlutheraner bestanden auf die Anerkennung des lutherischen Bekenntnisses. Sie forderten uneingeschränkte lutherische Gottesdienste, Verfassung und Lehre. Nach harter Verfolgungszeit seitens des Staates und unter Billigung der neuen evangelischen Kirche der Union konnten sie sich 1841 unter König Friedrich Wilhelm IV. konstituieren und wurden anerkannt. Ab 1844 wurden in Düsseldorf wieder lutherische Gottesdienste gefeiert in einer Gemeinde aus Lutheranern der Gemeinde vor der Zwangsvereinigung sowie Zugewanderten aus Sachsen und Bayern. 1882 weihte die Gemeinde ein eigenes Gotteshaus in der Kreuzstraße, das am 12. Juni 1943 einem Luftangriff zum Opfer fiel. 1884 wurde die Gemeinde vom preußischen Staat als juristische Person anerkannt. Da das Grundstück in der Kreuzstraße nach dem Krieg aus stadtplanerischen Gründen nicht mehr bebaut werden durfte, erwarb die Gemeinde ihr jetziges Grundstück und weihte am 2. April 1956 in der Eichendorffstraße in Stockum ihre Erlöserkirche. Die Kirchengemeinde gehört heute zum Kirchenbezirk Rheinland der Selbständigen Evangelisch-Lutherischen Kirche (SELK). In dieser Kirchengemeinde wurde auch Silvia Sommerlath, die nachmalige Königin Silvia von Schweden, durch Superintendent Nagel konfirmiert. Orthodoxe Kirchen. In Düsseldorf sind zahlreiche orthodoxe Kirchen beheimatet. Es sind dies die Kommission der orthodoxen Kirche in Düsseldorf mit Gemeinden der griechisch-orthodoxen Kirche Am Schönenkamp in Reisholz, der georgisch-orthodoxen Kirche in der Fährstraße in Düsseldorf-Hamm, der russisch-orthodoxen Kirche, der rumänisch-orthodoxen Kirche und der serbisch-orthodoxen Kirche, der koptisch-orthodoxen Kirche auf dem Pöhlenweg in Grafenberg und der ukrainisch-orthodoxen Kirche. Anglikaner und Alt-Katholiken. Die Anglikanische Kirche, die mit der alt-katholischen Kirche in voller Kirchengemeinschaft "(full communion)" steht, ist mit einer Gemeinde in der Rotterdamer Straße am Nordpark ansässig. Die Pfarrkirche der alt-katholischen Gemeinde Düsseldorf ist die Thomaskirche, die vormalige Klarenbachkapelle in der Steubenstraße in Reisholz. Freikirchen. In Düsseldorf sind neben den anderen großen christlichen Konfessionen auch zahlreiche Freikirchen beheimatet: die Apostolische Gemeinschaft mit ihrem Deutschlandsitz und der Düsseldorfer Hauptgemeinde in der Cantadorstraße sowie der Gemeinde in Eller (Klein Eller); das Christliche Zentrum Düsseldorf (Pfingstbewegung) in der Bruchstraße; die Evangelisch-Freikirchlichen Gemeinden (Baptisten) in der Acker-, Luisen- und Christophstraße; die Evangelisch-methodistische Kirche in der Hohenzollernstraße; die Freie evangelische Gemeinde in der Bendemannstraße; die Heilsarmee; die Herrnhuter Brüdergemeine in Heerdt; die Jesus-Haus-Gemeinde (Pfingstbewegung) in der Grafenberger Allee. Außerdem gibt es die Mosaik-Gemeinde, derzeit in Derendorf. 1990 und 2001 veranstalteten die Düsseldorfer Freikirchen einen Freikirchentag im Robert-Schumann-Saal und auf dem früheren BUGA-Gelände. Alle bis hier genannten Kirchen, also die beiden katholischen, die evangelische, einige orthodoxe und die Freikirchen sind Mitglied in der Arbeitsgemeinschaft Christlicher Kirchen (ACK). Sonstige Kirchen und Gemeinschaften. Ferner sind in Düsseldorf die Christengemeinschaft, die Kirche Jesu Christi der Heiligen der Letzten Tage (Mormonen), die Neuapostolische Kirche mit fünf Gemeinden in Benrath, Derendorf, Eller, Flingern und Gerresheim sowie die Zeugen Jehovas mit mehreren Gemeinden vertreten. Daneben gibt es in Düsseldorf die russischsprachige jüdisch-messianische Gemeinde "Beit Hesed", die auch die deutschsprachige Zeitschrift "Kol Hesed" herausgibt. Judentum. Die jüdische Gemeinde Düsseldorf ist mit ca. 7500 Mitgliedern die größte in Nordrhein-Westfalen und die drittgrößte in Deutschland. Ihre neue Synagoge wurde 1958 gebaut und liegt in der Zietenstraße im Stadtteil Golzheim. Sie wird rund um die Uhr von der Polizei bewacht. Die alte Synagoge stand in der Kasernenstraße in der Carlstadt auf dem heutigen Grundstück des Handelsblattverlages. Sie ist den Novemberpogromen 1938 zum Opfer gefallen. Die Gemeinde als Körperschaft des öffentlichen Rechts ist gemäß ihrer Satzung eine Einheitsgemeinde. Das bedeutet, dass alle religiösen Richtungen respektiert werden. Die Gottesdienste entsprechen dem orthodoxen Ritus. Rabbiner war bis Juli 2011 Julien Chaim Soussan, einer der jüngsten Gemeinderabbiner in Deutschland. 90 % der Gemeindemitglieder stammen aus der ehemaligen Sowjetunion. Zur Gemeinde gehören u. a. ein Kindergarten und eine Grundschule, die Yitzhak-Rabin-Schule. Sie ist eine staatlich anerkannte Grundschule und eine jüdische Konfessionsschule, die für die koschere Ernährung der Kinder sorgt. Kürzlich stellte sich in einer landesweiten Vergleichsarbeit heraus, dass die Schule zu den 25 besten Grundschulen des Landes Nordrhein-Westfalen gehört. Die Gemeinde verfügt auch über einen Sportverein (Makkabi), ein Jugendzentrum und einen Friedhof. Islam. In der Landeshauptstadt gibt es auch eine Reihe muslimischer Gemeinden. Diese bilden jedoch keinen einheitlichen Verband, sondern sind gemäß der nationalen Zugehörigkeit ihrer Mitglieder als türkische, bosnische, marokkanische und sonstige Moscheevereine organisiert. Die größte türkische Vereinigung, die Türkisch-Islamische Union der Anstalt für Religion e. V., besitzt in Düsseldorf drei Moscheen. Sie befinden sich in Lörick, Eller und Derendorf. Insgesamt gibt es in Düsseldorf rund 20 Moscheen. Die Freitagsgebete werden nach Angaben der verschiedenen Trägervereine von rund 4000 Gläubigen besucht, wobei die beiden größten Moscheen in Derendorf und Flingern bis zu 1000 Teilnehmern Platz bieten. Gepredigt wird u. a. auf Türkisch, Arabisch, Berberisch, Bosnisch, Albanisch, Romani und Deutsch. Buddhismus. Im linksrheinischen Stadtteil Niederkassel liegt der einzige buddhistische Tempel in der Tradition der Jōdo-Shinshū Europas, auf dem Grundstück des japanischen Ekō-Hauses. Er ist im japanischen Stil als Betonkonstruktion errichtet und von einem japanischen Garten umgeben. Dem Ekō-Haus sind außerdem ein traditionelles japanisches Haus für Teezeremonien, eine Bibliothek und ein Kindergarten angeschlossen. Ferner gibt es eine Anzahl buddhistischer Zentren in Düsseldorf aller namhaften Traditionen des Buddhismus. Eine Auswahl: Rigpa (tibetischer Buddhismus, Lehrer Sogyal Rinpoche), Amitabha-Stiftung (ebenfalls tibetischer Buddhismus) sowie Kanzeon Sangha (Zen-Tradition) und Diamantweg-Buddhismus (Lama Ole Nydahl) sowie weitere buddhistische Gruppen und Zentren. Somit offerieren die buddhistischen Gruppen in Düsseldorf ein großes Angebot in Nordrhein-Westfalen. Politik. An der Spitze der Stadt Düsseldorf standen im 13. Jahrhundert die Schöffen, die bis 1806 die oberste und mächtigste Klasse in der Stadtverwaltung darstellten. Seit 1303 ist ein Bürgermeister genannt, der anfangs ebenso ein Schöffe war. Daneben gab es ab 1358 auch einen Rat, der sich teilweise in einen Alten und einen Jungen Rat aufteilte. Die Mitglieder wurden entweder auf Lebenszeit gewählt (Alter Rat), oder aber auch jährlich bestimmt (Junger Rat). Als herzoglicher Vertreter war ferner ein Schultheiß an der Verwaltung der Stadt beteiligt, der den Titel „Amtmann“ führte. Etwa seit dem 15. Jahrhundert gab es neben den genannten Gremien auch einen Gemeindeausschuss von 12 Personen („Zwölfer“), der an der Wahl des Bürgermeisters teilnahm und zu wichtigen Beschlussfassungen herangezogen wurde, eigentlich aber keine wirkliche Bürgerbeteiligung darstellte. Erst in französischer Zeit gab es einen Munizipalrat, ab 1815 einen Gemeinderat mit 30 Mitgliedern. Seit 1856 waren es die „Stadtverordneten“, später Ratsherren, deren Gesamtzahl sich mehrmals veränderte. Die Leitung der Stadt übernahm in französischer Zeit der Maire, der von drei Beigeordneten unterstützt wurde. Seit preußischer Zeit trug das Stadtoberhaupt den Titel Oberbürgermeister. 1856 wurde die Rheinische Städteordnung eingeführt. Während der Zeit der Nationalsozialisten wurde der Oberbürgermeister von der NSDAP eingesetzt. Nach dem Zweiten Weltkrieg setzte die Militärregierung der Britischen Besatzungszone einen neuen Oberbürgermeister ein und führte 1946 die Kommunalverfassung nach britischem Vorbild ein. Danach gab es einen vom Volk gewählten „Rat der Stadt“, dessen Mitglieder man als „Stadtverordnete“ bezeichnete. Der Rat wählte anfangs aus seiner Mitte den Oberbürgermeister als Vorsitzenden und Repräsentanten der Stadt, der sein Amt ehrenamtlich ausübte. Des Weiteren wählte der Rat ab 1946 ebenfalls einen hauptamtlichen Oberstadtdirektor als Leiter der Stadtverwaltung. 1999 wurde die Doppelspitze in der Stadtverwaltung aufgegeben. Seither gibt es nur noch den hauptamtlichen Oberbürgermeister. Dieser ist Vorsitzender des Rates, Leiter der Stadtverwaltung und Repräsentant der Stadt. Er wurde 1999 erstmals direkt von den Bürgern gewählt. Oberbürgermeister seit 1815. Düsseldorfs amtierender Oberbürgermeister Thomas Geisel (2014) Verschuldung. Die Gesamtsumme der Verschuldung der Stadt Düsseldorf (des öffentlichen Bereichs) belief sich zum Jahresende 2012 auf 872,2 Millionen Euro. Das sind 1478 Euro pro Einwohner. Von den 103 kreisfreien Städten in Deutschland lag Düsseldorf damit auf Platz 100 bei der Pro-Kopf-Verschuldung; das heißt, nur in drei anderen kreisfreien Städten war die Pro-Kopf-Verschuldung geringer. Für das Haushaltsjahr 2014 hat die Stadt Düsseldorf im Gesamtergebnisplan einen Haushaltsüberschuss in ordentlichen Erträgen und Aufwendungen (einschließlich Finanzerträgen und -aufwendungen) in Höhe von 3,1 Millionen Euro (5 Euro je Einwohner) veranschlagt. Die Stadt Düsseldorf ist damit (neben Krefeld und Münster (Westfalen)) eine von nur drei kreisfreien Städten in Nordrhein-Westfalen, die im Jahr 2014 kein Haushaltsdefizit im Gesamtergebnisplan aufweist. Stadtrat. Im Oktober 2014 haben SPD, Grüne und FDP eine Kooperationsvereinbarung beschlossen. Diese drei Parteien verfügen im Stadtrat über exakt die Hälfte der Sitze (41 von 82). Zusammen mit der Stimme des Oberbürgermeisters haben sie eine Mehrheit von einer Stimme. Wappenzeichen. Für private und geschäftliche Zwecke entstand im Februar 2002 ein Stadtwappen, das von den offiziellen Stadtfarben abweicht und ohne Genehmigung der Stadtverwaltung benutzt werden kann. In dem rot-weiß geteilten Schild befindet sich ein silberner doppelgeschwänzter, aufgerichteter, silbernbekrönter und -bewehrter Löwe mit gesenktem schwarzem Anker in den Pranken. Stadtlogo. Die Stadt Düsseldorf verwendet in offiziellen Schreiben und Publikationen ein Logo, das in einem Quadrat in der linken Hälfte die Rheinschleifen im Düsseldorfer Stadtgebiet andeutet und im rechten oberen Quadranten den Bergischen Löwen mit Anker zeigt. Das Stadtlogo wird in verschiedenen Farben verwendet, wobei jedem der derzeit acht Dezernate jeweils ein Farbton zugeordnet ist. Dachmarke. 2011 startete die Stadt zur Verbesserung ihres Marketings und ihrer öffentlichen Wahrnehmung einen Prozess der Entwicklung einer Dachmarke. Nach einer Markenkernanalyse folgte ein öffentlicher Wettbewerb, der über 2000 Foto-, Video- und Textbeiträge ergab. Im März 2012 begann ein Verfahren der Interessenbekundung zu einem Wettbewerb von Kreativagenturen. Den sich anschließenden Wettbewerb zur Entwicklung der Dachmarke gewann die Agentur BBDO Proximity, die das Logo der neuen Dachmarke, das Emoticon ":D", am 26. November 2012 der Öffentlichkeit vorstellte. Das Düsseldorfer "„smiling:D“" ist in Rot, der Farbe des Bergischen Löwen, und in der Schriftart Helvetica ausgeführt. Es hat insbesondere die Aufgabe, „das emotionale, sympathische Düsseldorf“ zu transportieren. Die Verfahren bei der Einführung der neuen Dachmarke und ihres Logos waren begleitet durch eine öffentliche Kontroverse. Kultur und Sehenswürdigkeiten. Ansehen genießt Düsseldorf ebenfalls hinsichtlich Kultur, Kunst und moderner Architektur. So gibt es neben der großen Kunstsammlung Nordrhein-Westfalen und einer Menge weiterer Museen und Galerien auch die international renommierte Kunstakademie Düsseldorf, die im 19. Jahrhundert die Düsseldorfer Malerschule und im 20. Jahrhundert die Düsseldorfer Photoschule hervorgebracht hat. Bekannte Bühnen sind mit dem Schauspielhaus und dem Kom(m)ödchen in der Stadt vertreten. Zudem sind einige der populären Musiker und Dichter Deutschlands in der Stadt geboren oder waren dort beheimatet. Bedeutende Architekten haben nicht nur im Medienhafen ihre Projekte verwirklicht. Klassisches und modernes Sprechtheater. Düsseldorf hat eine Theatertradition, die sich bis in das 16. Jahrhundert zurückverfolgen lässt. Die ersten theatralischen Veranstaltungen werden auf das Jahr 1585 datiert. Das heutige "Düsseldorfer Schauspielhaus" mit seiner modernen geschwungenen Architektur wurde 1970 fertiggestellt. Es ist am Gustaf-Gründgens-Platz, der nach dem ehemaligen Intendanten benannt ist, gelegen. Die größte Düsseldorfer Bühne hat einen hohen Bekanntheitsgrad im deutschsprachigen Raum. Weitere größere Theater in der nordrhein-westfälischen Metropole sind das "Forum Freies Theater", bestehend aus "Juta" (Jugendtheater) und "Kammerspielen", das ein breites Spektrum an Bühnenkunst bietet, die "Komödie Düsseldorf", ein klassisches Boulevardtheater, das "Theater an der Kö", das vor allem Komödien und moderne Theaterstücke zu bieten hat und von der bekannten Theaterfamilie "Heinersdorff" geführt wird, das "Theater an der Luegallee" in Oberkassel, das "Theater FLIN" in Flingern sowie das "Savoy-Theater". Im JUTA gastiert häufig das "Theater der Klänge". Es ist ein seit 1987 bestehendes Tourneetheater, das unter der Leitung von Jörg Udo Lensing jährlich mit einer Neuproduktion auf zumeist kurze Tourneen geht. Für Kinder ist das "Theateratelier Takelgarn" mit Comedy, Kabarett, Figuren- und Kindertheater besonders interessant. Das "Puppentheater an der Helmholtzstraße" richtet sich ebenso wie das "Düsseldorfer Marionetten-Theater" an Kinder und Erwachsene gleichermaßen. Letzteres wurde 1956 gegründet und befindet sich im Palais Wittgenstein, das daneben noch weitere kulturelle Projekte beheimatet. Oper, Musiktheater und Varieté. Sehr traditionsreich ist auch die "Deutsche Oper am Rhein". Sie zeigt an ihren beiden Standorten Düsseldorf und Duisburg Oper, Operette und Ballett. "Roncalli’s Apollo Varieté" unterhalb der Rheinkniebrücke am carlstädtischen Rheinufer bietet klassisches Varieté-Theater im Stil des frühen 20. Jahrhunderts. Die 1925 als Planetarium errichtete "Tonhalle Düsseldorf" ist Veranstaltungsort für Konzerte und sonstige musikalische Veranstaltungen aus den Bereichen Klassik, Jazz, Pop und Kabarett. Das Capitol Theater ist das größte Theater der Landeshauptstadt und bietet eine Bühne für wechselndes Musical- und Live-Entertainment. Kabarett. Das "Kom(m)ödchen" ist die älteste noch bestehende Kabarettbühne Deutschlands. Gegründet wurde es 1946 von Kay und Lore Lorentz. Viele später bedeutende Kabarettisten konnten sich hier erstmals bewähren. Museen, Ausstellungsinstitute und Bibliotheken. Die Stadt verfügt über ein vielfältiges Ausstellungsangebot. Allein die 18 städtischen Museen zogen seit 2001 jährlich regelmäßig über eine Million Besucher an, im Jahr 2006 waren es 1,34 Millionen Menschen. Daneben locken mehrere private Museen, Sammlungen und zahlreiche Galerien Besucher an. Meistbesuchtes Museum ist der Aquazoo im Nordpark. Kunstmuseen. Düsseldorf hat eine lange Tradition als Kunststadt. Die erste große Gemäldesammlung legten bereits der Kurfürst Johann Wilhelm zu Pfalz-Neuburg, kurz Jan-Wellem, und seine Frau Anna Maria de Medici an. Untergebracht wurde die Sammlung in der 1709 bis 1714 errichteten Gemäldegalerie Düsseldorf, einem der frühesten selbständigen Museumsbauten der Welt. Unter Kurfürst Maximilian IV., dem späteren König Maximilian I. Joseph, wurde die Sammlung 1805 zum großen Teil nach München verbracht und bildete dort den Grundstock zur Alten Pinakothek. Die Kunstakademie Düsseldorf erlangte bereits im 19. Jahrhundert unter dem Begriff "Düsseldorfer Malerschule" als eine der wichtigsten Ausbildungsstätten von Landschafts- und Genremalern Bedeutung. Der "Kunstverein für die Rheinlande und Westfalen" wurde im Jahre 1829 gegründet, um den in Düsseldorf ausgebildeten Malern eine Möglichkeit der Präsentation ihrer Werke in wechselnden Ausstellungen zu bieten. Einige in Düsseldorf verbliebenen Exponate der kurfürstlichen Gemäldegalerie sowie etliche Werke der Düsseldorfer Malerschule wurden in das "Museum Kunstpalast" übernommen. Es beinhaltet darüber hinaus Graphiken, Zeichnungen, Gemälde und Skulpturen aus allen Stilepochen von der Antike bis ins 21. Jahrhundert. Neben europäischen Exponaten sind weitere Schwerpunkte der Sammlung japanische Holzschnitte und Netsuke. Es ist im Ehrenhof-Komplex integriert, der auch das NRW-Forum beheimatet. Der zweite Höhepunkt in der Entwicklung Düsseldorfs als Kunststadt folgte in der zweiten Hälfte des 20. Jahrhunderts, als u. a. Joseph Beuys an der Kunstakademie unterrichtete. Als Landeshauptstadt Nordrhein-Westfalens beherbergt Düsseldorf die "Kunstsammlung Nordrhein-Westfalen". Sie ist gegliedert in das "K20" am Grabbeplatz, das "K21" im Ständehaus und das Schmela-Haus in der Mutter-Ey-Straße. Sie hat sich vor allem auf Kunst des 20. und 21. Jahrhundert spezialisiert, entsprechend der Namensgebung der Teilsammlungen aufgeteilt auf die Standorte. Die Kunsthalle Düsseldorf befindet sich gegenüber dem K20 am Grabbeplatz und hat ihren Schwerpunkt auf zeitgenössischer nationaler und internationaler Gegenwartskunst. Einen sehr ungewöhnlichen Standort hat hingegen das KIT (Kunst im Tunnel), das der Kunsthalle Düsseldorf angegliedert ist. Es befindet sich am Mannesmannufer und ist ein unterirdischer Ausstellungsraum für zeitgenössische Kunst. Museen zu Literatur, Theater und Film. Zwei Düsseldorfer Museen widmen sich Dichtern. Mit Johann Wolfgang von Goethe befasst sich das "Goethe-Museum", das sich im Schloss Jägerhof im nordöstlichen Teil des Hofgartens befindet. Die sehr umfangreiche, inzwischen deutlich erweiterte Sammlung aus Privatbesitz ist in mehreren Stockwerken untergebracht. Sie enthält unter anderem die Originalreinschrift von Goethes bekanntem Gedicht Gingo biloba. Heinrich Heine, dem wohl berühmtesten Sohn der Stadt, gilt das Heinrich-Heine-Institut in der Carlstadt. Es zeigt u. a. Originaldokumente und -schriften von und über Heine, Stücke aus seinem Nachlass sowie seine Totenmaske. Ebenfalls in der Carlstadt gelegen ist das "Filmmuseum" mit seinem angeschlossenen Kino. Das Theater-Museum mit dem Dumont-Lindemann-Archiv befindet sich im Hofgärtnerhaus im Hofgarten. Naturkunde und Gartenkunst. Das meistbesuchte Museum Düsseldorfs, mit über 400.000 Besuchern pro Jahr, ist der "Aquazoo". Es befindet sich seit den späten 1980er Jahren im Norden der Stadt im Nordpark. Zuvor war es in einem Bunker gegenüber dem Zoopark untergebracht. Neben Wasserlebewesen werden dort auch Weichtiere und geologische Exponate gezeigt. Der Zoologische Garten Düsseldorf wurde im Zweiten Weltkrieg zerstört und nicht wiederaufgebaut. Eine weitere Attraktion des Nordparks ist der von der japanischen Gemeinde gestiftete Japanische Garten, der 1976 eröffnet wurde. Allerdings bekam Düsseldorf bereits 1904 als erste deutsche Stadt einen Japanischen Garten, der sich etwa an der Stelle des ebenfalls am Rhein gelegenen Ehrenhofs befand. Auf das ganze Stadtgebiet verteilt, ist Düsseldorf von Gartenanlagen durchzogen, was auf das Leitbild der Stadtentwicklung während der Industrialisierung zurückzuführen ist, die wiederum die gärtnerischen Anlagen des 18. und 19. Jahrhundert weiterentwickelte und Düsseldorfs Ruf als Gartenstadt begründete. Dem trägt das Museum für Europäische Gartenkunst Rechnung, das zur Stiftung Schloss und Park Benrath gehört, ebenso wie das Naturkundliche Heimatmuseum, in dem in Dioramen die verschiedenen Lebensräume der Region, vom Rhein bis zur Lösshochfläche, dargestellt werden. Im Jahre 1987 fand die Bundesgartenschau (BUGA) in Düsseldorf statt, deren Gelände heute den Südpark bildet. Geschichtliche Dauerausstellungen. Das "Stadtmuseum" in der Altstadt besitzt eine große Ausstellung, die die Entwicklung der Stadt Düsseldorf historisch-chronologisch nachvollzieht. Die "Mahn- und Gedenkstätte Düsseldorf" erinnert an die Opfer der Naziherrschaft im 20. Jahrhundert. Sie befindet sich in historischen Räumen, die in der NS-Zeit als Büros, Vernehmungsräume und Haftzellen der Polizei genutzt wurden, und beinhaltet die Dauerausstellung „Verfolgung und Widerstand in Düsseldorf 1933–1945“. Brauchtum, Technik und Alltägliches im Museum. Zum klassischen Brauchtum in Düsseldorf gehört der Karneval. Ihm widmet sich im Haus des Karnevals das "Karnevalmuseum" in der Altstadt. Ebenfalls in der Altstadt gelegen ist das "Schifffahrtsmuseum" im Schlossturm. Es befindet sich im Schlossturm am Rheinufer und zeigt die Entwicklung der Rheinschifffahrt von der Antike bis in die Neuzeit. Das "Senfmuseum" würdigt die Tradition der fast 300-jährigen Senfherstellung. Das "Hetjens-Museum (Deutsches Keramikmuseum)" hat seinen Sitz im Palais Nesselrode in der Carlstadt und zeigt als einziges Institut weltweit Keramikprodukte verschiedener Kulturen aus sämtlichen Epochen in einer Dauerausstellung. Im Ehrenhof-Komplex ist das "NRW-Forum" beheimatet, das Ausstellungen zu verschiedenen Themen befristet zeigt, insbesondere fotografische Werke. Quadriennale. Zum dritten und vorläufig letzten Mal fand vom 5. April bis 10. August 2014 die Quadriennale statt. Unter dem Leitmotiv "Über das Morgen hinaus" präsentierten mehrere Kulturinstitute ein Kulturfestival mit Sonderausstellungen und Begleitprogramm. Bibliotheken. Die Universitäts- und Landesbibliothek (ULB) Düsseldorf entstand 1965 bis 1969 aus der Bibliothek der Medizinischen Akademie und wurde 1970 gegründet. Die ULB verfügt über eine Zentralbibliothek und fünf weitere Standorte, die insgesamt rund 2,4 Millionen Medien vorhalten. Es gibt rund 23.000 regelmäßige Nutzer. Die Stadt Düsseldorf unterhält eine Stadtbücherei mit einer Zentralbibliothek, 14 Stadtteilbibliotheken und einer Autobücherei. Insgesamt werden rund 800.000 Medien angeboten. Die über 1,4 Millionen Besucher liehen im Jahr über 4,7 Millionen Medien aus. Musik. Düsseldorf hat eine reichhaltige Musiktradition, die bereits vor dem 19. Jahrhundert einsetzte. Bedeutende Musiker wie Johann Hugo von Wilderer, Friedrich August Burgmüller, Felix Mendelssohn Bartholdy und das Ehepaar Clara und Robert Schumann hatten zeitweise ihre Wirkungsstätte in der Stadt gefunden. Aber auch im 20. Jahrhundert hatte Düsseldorf in so unterschiedlichen Stilrichtungen wie dem Jazz, der Neuen Deutschen Welle oder dem Punkrock eine führende Rolle. Klassische Musik. Das bedeutendste Konzerthaus der Landeshauptstadt ist die Tonhalle Düsseldorf mit mehr als 200 Veranstaltungen im Jahr. Die Tonhalle ist auch der Sitz der Düsseldorfer Symphoniker, die als Konzertorchester der Landeshauptstadt und als Opernorchester der Deutschen Oper am Rhein fungieren. Das Konzerthaus, ein ehemaliges Planetarium, wurde im Jahre 2005 aufwändig saniert und weist seither eine gute Akustik auf. Bereits die Düsseldorfer Höfe des 16., 17. und 18. Jahrhunderts brachten ein reges musikalisches Leben hervor. Es ist verbunden mit den Namen Martin Peudargent, Giacomo Negri, Egidio Hennio, Giovanni Battista Mocchi, Georg Andreas Kraft, Sebastiano Moratelli, Stefano Pallavicini, Valeriano Pellegrini, Giorgio Maria Rapparini, Agostino Steffani und Francesco Maria Veracini. Seit 1807 wirkte in Düsseldorf die Familie des Musikers Friedrich August Burgmüller, die mit Friedrich und Norbert Burgmüller zwei bekannte Komponisten der Romantik hervorbrachte. 1818 gründete sich der Städtische Musikverein zu Düsseldorf und veranstaltete das erste von vielen Niederrheinischen Musikfesten, die im 19. Jahrhundert, auch durch die Mitwirkung von Felix Mendelssohn Bartholdy und Robert Schumann, beides Musikdirektoren in Düsseldorf, internationale Bedeutung hatten. Der Städtische Musikverein kann auf eine ungebrochene und musikhistorisch außerordentliche Geschichte von 1818 bis heute verweisen und gilt als der musikalische Botschafter der Stadt in allen großen Konzertsälen Deutschlands und Europas. In Düsseldorf komponierte Felix Mendelssohn Bartholdy 1833 den Vespergesang, 1834 bis 1836 das Oratorium "Paulus", 1850 Robert Schumann seine berühmte 3. Sinfonie („die Rheinische“). Außerdem gibt es in Düsseldorf eine lebendige und breitgefächerte Chorszene, darunter sind beispielsweise der Bachverein Düsseldorf mit einer ebenfalls langen Tradition oder Chöre und Chorschule an St. Margareta in Gerresheim. Jazz. Einer der bekanntesten Jazz-Musiker mit Wurzeln in Düsseldorf ist Klaus Doldinger, der auch als Komponist von Filmmusik (Das Boot, Tatort) bekannt ist. Seit einigen Jahren ist er Schirmherr der Düsseldorfer Jazz-Rally. 1995 gründete sich der "Jazz in Düsseldorf e. V.", der den modernen Jazz durch Konzerte in der Jazz-Schmiede mit Musikern aus der ganzen Welt präsentiert. Mit der Jazz-Schmiede hat der Jazz wieder einen festen Veranstaltungsort in Düsseldorf. Zu den Hofgarten-Konzerten der Jazz-Schmiede im Sommer an vier Samstagen kommen jedes Jahr viele hundert Besucher. Unterhaltungsmusik. Der Volkssänger Heino ist im Düsseldorfer Stadtteil Oberbilk geboren und aufgewachsen. Auf dem Sektor der Unterhaltungsmusik war Düsseldorf ab den 1970er Jahren ein führendes Zentrum der elektronischen Popmusik. International bekannt waren und sind vor allem Kraftwerk, deren historisches Kling-Klang-Studio in der Düsseldorfer Friedrichstadt lag, aber auch Neu! und La Düsseldorf. In ihrem Titel "Trans-Europa-Express" und dem dazugehörigen Musikvideo thematisiert die Gruppe Kraftwerk auf avantgardistische Weise das Lebensgefühl Düsseldorfer Geschäftsleute, die dank transnationaler Eisenbahnnetze einen Lebensstil mit wechselnden Aufenthalten in europäischen Metropolen genießen. In der Tradition dieser 'Düsseldorfer Schulen' der Siebziger Jahre steht heute noch die international viel beachtete Band Kreidler. Im Sektor Elektropop macht derzeit die im Raum Düsseldorf beheimatete Band Susanne Blech auf sich aufmerksam, im Genre Deep House der Düsseldorfer Künstler Loco Dice, im Indie-Rock die Band PDR. Ein bekannter DJ aus Düsseldorf ist Lukas Langeheine, alias DJ Rafik. Anfang der 1980er Jahre war Düsseldorf neben West-Berlin und Hamburg Hochburg der deutschen Punk- und NDW-Musik. Die wichtigsten Bands waren und sind Die Toten Hosen, Broilers, Deutsch Amerikanische Freundschaft, Propaganda, Rheingold, Die Krupps, Fehlfarben, Der Plan, KFC, Male, Mittagspause, Tommi Stumpff, Family 5 und Nachzehrer. Marius Müller-Westernhagen ist in Düsseldorf geboren und zur Schule gegangen (Humboldt-Gymnasium). In seinem Titel "Mit 18" wird der "Hühner-Hugo" aus der Düsseldorfer Altstadt genannt. Neben Heino, den Toten Hosen und Kraftwerk gehört er zu den erfolgreichsten und bekanntesten Musikern Düsseldorfer Herkunft. Eine Reihe teils international bekannter Metal-Bands stammt ebenfalls aus Düsseldorf, so z. B. Warlock (mit Doro Pesch, die ab 1989 solo unter "Doro" weiter machte), Stormwind, Callejon, Warrant und Falkenbach. Die Düsseldorfer "Mundart"band "Alt Schuss" ist eine der bekannten im Großraum Düsseldorf. Ebenfalls zu diesem Musikgenre gehört die Band "Halve Hahn". Die Wurzeln beider Gruppen liegen im Unterbacher Karneval. Mit Farid Bang, Blumio, Antilopen Gang, NMZS, Plattenpapzt, Toony, Al-Gear und vielen anderen hat Düsseldorf eine bedeutende Szene des deutschsprachigen Rap (Gangsta-Rap, Hip-Hop) hervorgebracht. Im Album "Asphalt Massaka 2" erwies Farid Bang seiner Heimatstadt mit dem Titel "Ich bin Düsseldorf" die besondere Ehrerbietung. Auch sein Kollege Kollegah, bekannt durch seinen „Zuhälter-Rap“, ist in Düsseldorf zuhause. Im Sektor des Elektro-Rap ist JayJay ein bekannter, im Milieu Düsseldorfer Fortunafans beheimateter Künstler, der im Titel "Knüppel Klopp" seinen Sprechgesang weitgehend auf Düsseldorfer Rheinisch darbietet. Tbo und Glenn A. von D.I.U gehen über das Schema des Gangsta-Rap hinaus, indem sie soziale Probleme wie Diskriminierung, Gewalt, Hass, Armut, Ungerechtigkeit, Arbeitslosigkeit, Materialismus und Stigmatisierung differenziert behandeln. DTC (D-Town Chillaz) vertreten eine englischsprachige Variante des "Düsseldorf Rap". Nabil M. mixt in seinem Rap Deutsch, Arabisch und Französisch. Wurzeln des deutschsprachigen Rap liegen unweit in Ratingen-West, wo die Gruppe Fresh Familee mit "Ahmet Gündüz" um 1990 den ersten Rap-Song in deutscher Sprache kreierte und in den Handel brachte. Thematisiert wurde die Stadt 1968 im Schlager und Evergreen "Wärst du doch in Düsseldorf geblieben", mit dem die deutsch-dänische Sängerin Dorthe Kollo eine Goldene Schallplatte gewann. Am 10., 12. und 14. Mai 2011 fand der Eurovision Song Contest in der ESPRIT arena statt. Es war die 56. Ausgabe dieses Liedwettbewerbs, der zum dritten Mal seit Bestehen in Deutschland ausgetragen wurde. Bildende Kunst. Die Stadt Düsseldorf war als Aufenthaltsort und Studienort für Künstler ebenso beliebt wie als Standort für Kunstsammlungen und Museen. Vor allem der Kunst des 19. und 20. Jahrhunderts widmen sich einige Museen in Düsseldorf. Begründung der Kunsttradition durch die kurfürstliche Sammlung. Die vorhandene kleine kurfürstliche Gemäldesammlung in Düsseldorf wurde unter Kurfürst Johann Wilhelm von der Pfalz und seiner Ehefrau Anna Maria Luisa de’ Medici zu einer berühmten Kunstgalerie ausgebaut. Im frühen 19. Jahrhundert wurde die Sammlung, darunter bedeutende Werke von Rubens, jedoch nach München abtransportiert, wo sie den Kernbestand der heutigen Alten Pinakothek bildet. Von der Düsseldorfer Schule zum Malkasten. Im 19. Jahrhundert hatte die Düsseldorfer Malerschule, aus der u. a. Oswald Achenbach hervorging, wichtigen Einfluss auf die Malerei. Gegründet wurde die Akademie 1810 von Peter von Cornelius, der sie zunächst leitete; ab 1826 war Wilhelm von Schadow Direktor. Die Akademie diversifizierte sich und brachte insbesondere sozialkritische Genremalerei und bedeutende Landschaftsmaler hervor. Ihre Schüler kamen nicht nur aus dem Rheinland, aus Westfalen und Altpreußen, sondern auch aus den übrigen deutschen Ländern sowie Polen, Russland, den skandinavischen Ländern und den Vereinigten Staaten von Amerika. In der finnischen Kunst gibt es eine eigene "Düsseldorfer Epoche". Nach der Revolution von 1848 fanden Künstler und Gelehrte im Kunstverein Malkasten in Düsseldorf zusammen. 1846 wurde der Verein zur Errichtung einer Gemäldegalerie zu Düsseldorf, der vor allem Werke der Düsseldorfer Malerschule ankaufte, gegründet. Aus der Initiative dieses Verein ging schließlich das Museum Kunstpalast hervor. Vom Rheinischen Expressionismus zum Zentrum der Moderne. Nach dem Ersten Weltkrieg war die Gruppe Das Junge Rheinland die aktivste Künstlergruppe in der Stadt. Zu ihr gehörten u. a. Otto Dix, Max Ernst und Walter Ophey. Den Mittelpunkt der Künstlergruppe bildete die Altstadt-Galerie Junge Kunst – Frau Ey, die von der noch heute in Düsseldorf bekannten Mutter Ey geführt wurde. Viele der Künstler der Vereinigung waren dem Rheinischen Expressionismus verbunden. Nach dem Zweiten Weltkrieg war Joseph Beuys prägend und Düsseldorf galt, nicht nur auf Grund seines Wirkens an der Kunstakademie Düsseldorf, in den 1970er und 1980er Jahren als eine „Weltkunsthauptstadt“. Heute haben einige Beuys-Schüler wie Katharina Sieverding und Anselm Kiefer Einfluss auf Entwicklung der internationalen Kunstszene. Der Fotograf Bernd Becher, der 1976 eine Professur an der Kunstakademie Düsseldorf übernahm, bildete zusammen mit seiner Frau Hilla Becher viele fotografische Persönlichkeiten aus, die heute aus internationaler Sicht herausragende Vertreter der deutschen Fotografie sind. Zu dieser „Düsseldorfer Photoschule“ zählen insbesondere Boris Becker, Laurenz Berges, Elger Esser, Andreas Gursky, Candida Höfer, Axel Hütte, Simone Nieweg, Thomas Ruff, Jörg Sasse, Thomas Struth und Peter Wunderlich. Kunst im Öffentlichen Raum. Neben traditionellen Denkmälern und Statuen, wie der Mariensäule oder dem Schadow-Denkmal, hat Düsseldorf zahlreiche weitere Kunstobjekte im Öffentlichen Raum zu bieten. So beherbergt der Südpark viele künstlerische Brunnen, Skulpturen und sonstige Kunstobjekte, von denen das bekannteste das Zeitfeld von Klaus Rinke sein dürfte. Auffällig sind in der Innenstadt auch die so genannten Säulenheiligen, Plastiken realistisch nachgebildeter Alltagsbürger auf Litfaßsäulen von Christoph Pöggeler. Einige Kunstwerke waren lange umstritten, beispielsweise das Heine-Monument von Bert Gerresheim. Zur Kunst im Öffentlichen Raum werden auch die Bahnhöfe der im Bau befindlichen Wehrhahn-Linie beitragen, die jeweils eine eigene künstlerische Gestaltung erhalten. Bauwerke und Architektur. Die umsatzstärkste Geschäftsstraße und eine der bedeutendsten Einkaufsstraßen Deutschlands ist die Schadowstraße. Ihrer städtebaulichen Anlage und ihrer exklusiven Läden wegen bekannter ist allerdings die Königsallee, kurz „die Kö“. In ihrer Mitte verläuft der Stadtgraben, an dessen Nordende sich als Wahrzeichen der Kö die Tritonengruppe, ein Brunnen aus dem Jahre 1902, befindet. In der Altstadt findet man viele Häuser, die unter Denkmalschutz stehen. Weitere erhaltene historische Ortskerne können die Stadtteile Kaiserswerth und Gerresheim vorweisen. Der dörfliche Charakter der Ortskerne von Angermund, Kalkum, Oberlörick, Heerdt, Hamm, Himmelgeist und Urdenbach ist weitgehend erhalten geblieben. Burgen und Schlösser. Das möglicherweise älteste Gebäude im Stadtgebiet ist die Ruine der Kaiserpfalz in Kaiserswerth. Sie geht auf eine Burg zurück, die im Jahr 1016 errichtet wurde. Diese wiederum ist auf ein Kloster zurückzuführen, das um das Jahr 700 entstand. Um 1193 zur Festung ausgebaut, wurde sie 1702 von französischen Truppen im Spanischen Erbfolgekrieg zerstört. Ebenfalls sehr alt ist das ursprüngliche Schloss Kalkum. Die Burg entwickelte sich aus einem Fronhof, der erstmals im 9. Jahrhundert erwähnt wurde. Sie wurde 1810 bis 1819 umgebaut. Die Ursprünge des Schlosses Heltorf in Angermund sollen auf das 11. Jahrhundert zurückgehen. Ein Umbau erfolgte in den Jahren 1822 bis 1827. Der Schlossturm am Burgplatz in der Altstadt war ursprünglich Teil des Düsseldorfer Schlosses, eines der Wahrzeichen der Stadt, das im 13. Jahrhundert errichtet und bis ins 16. Jahrhundert immer weiter ausgebaut wurde. Der Turm wurde 1845 von dem Düsseldorfer Architekten Rudolf Wiegmann im Stil der italienischen Neorenaissance umgebaut. Der Turm ist der einzige noch stehende Rest des Düsseldorfer Schlosses, das durch einen Brand im Jahr 1872 zerstört wurde. Im 14. Jahrhundert wurden die Burg Angermund als nördlichste Bastion der Grafen von Berg ebenso wie der Vorgänger des Schlosses Eller erbaut. Das heutige Schloss Eller hingegen wurde 1826 errichtet und 1902 um- und ausgebaut. Die Zeitalter des Barock und des Rokoko haben in Düsseldorf im Gartenbau sowie in Form von Schlössern ihre Spuren hinterlassen. Zu Beginn des Barock-Zeitalters entstand Schloss Garath. Sein Bau erfolgte im 16. Jahrhundert, Umbauten und Ergänzungen erfolgten bis ins 18. Jahrhundert. Nördlich des Hofgartens entstand zwischen 1752 und 1763 das Schloss Jägerhof. Es wurde erbaut von dem Architekten Johann Joseph Couven. Heute beherbergt es das Goethe-Museum. Einen ähnlichen Baustil hat auch das Hofgärtnerhaus vorzuweisen, das sich im Hofgarten befindet und das Theatermuseum beinhaltet. Architekt des Hofgärtnerhauses war Nicolas de Pigage. Ebenfalls auf de Pigage geht das Schloss Benrath zurück. Erbaut wurde es 1755 bis 1773 im Auftrag von Kurfürst Karl Theodor von der Pfalz. Das denkmalgeschützte Ensemble von Lustschloss, Jagdpark, Weihern und Kanalsystem gilt als bedeutsamstes architektonisches Gesamtkunstwerk von Düsseldorf und wurde von der Stadt zur Aufnahme in die UNESCO-Liste des Weltkulturerbes vorgeschlagen. Das 1843 errichtete Schloss Mickeln in Himmelgeist hingegen wurde nach dem Vorbild von Renaissance-Villen erbaut. Eigentlich nicht zum Stadtgebiet zählt hingegen das Haus Unterbach, Urzelle des Ortsteiles Unterbach. Es liegt aufgrund kurioser Grenzbestimmung im Zuge der kommunalen Neugliederung im Jahre 1975 um Bürgersteigbreite auf Erkrather Gebiet. Altstadt und Carlstadt. Innerhalb der Düsseldorfer Altstadt ist St. Lambertus am Stiftsplatz 1 die älteste Kirche. Erbaut wurde sie 1288 bis 1394 im gotischen Stil, die Kirchweihe war am 13. Juli 1394. Seit 1974 ist St. Lambertus päpstliche Basilica minor. Wesentlich jünger ist die Kreuzherrenkirche in der Ursulinengasse, die von 1445 bis 1455 erbaut wurde. Die ebenfalls katholische Kirche St. Andreas in der Andreasstraße ist hingegen ein Barockbau, der im Zuge der Gegenreformation zwischen 1622 und 1629 als Hof- und Jesuitenkirche entstanden ist. Die erste Kirche der Lutherischen Gemeinde in Düsseldorf war die Berger Kirche in der Berger Straße, die von 1683 bis 1687 errichtet wurde. Zur selben Zeit baute die Reformierte Gemeinde ihre erste Kirche in Düsseldorf, die Neanderkirche in der Bolkerstraße 36. Katholisch ist hingegen St. Maximilian, meist kurz „Maxkirche“ genannt, in der Schulstraße, Ecke Citadellstraße, erbaut in den Jahren 1735 bis 1743. Im übrigen Stadtgebiet. Als älteste Kirche Düsseldorfs gilt die im 12. Jahrhundert erbaute Pfarrkirche Alt St. Martin in Bilk, auch Alte Bilker Kirche genannt. Entsprechend ihrer Errichtungszeit ist sie im romanischen Stil erbaut. Alt St. Martin war auch die Pfarrkirche des Dorfes Düsseldorf vor der Errichtung von St. Lambertus. Als zweitälteste Kirche kann St. Suitbertus in Kaiserswerth, erbaut 11. bis 13. Jahrhundert, gelten, seit 1967 päpstliche Basilica minor. St. Suitbertus ist eine romanische Kirche mit zwei gotischen Erweiterungen, der Apsis und dem seitlichen Eingang. Ebenso alt ist St. Nikolaus in Himmelgeist, ebenfalls erbaut 11. bis 13. Jahrhundert. Die Basilika St. Margareta in Gerresheim ist seit 1982 die dritte päpstliche Basilica minor in Düsseldorf. Errichtet wurde sie 1220 bis 1240 als Stiftskirche des Gerresheimer Stifts. Das Stiftsgebäude stammt aus derselben Epoche. Bei beiden Kirchen handelt es sich ebenfalls um Beispiele romanischer Architektur. Die größte protestantische Kirche im Stadtgebiet ist die evangelisch-lutherische Johanneskirche in der Stadtmitte. Sie wurde in den Jahren 1875 bis 1881 im neugotischen Stil erbaut. Linksrheinisch ist die katholische Kirche St. Antonius in Oberkassel mit ihrem neoromanischen Stil besonders interessant, erbaut wurde sie 1909 bis 1911. Architekturgeschichtlich interessant ist ebenfalls die evangelische Oberkasseler Auferstehungskirche von 1913–1914 in rheinischer Backsteinarchitektur mit Jugendstilelementen. Zentral auf dem Kirchplatz gelegen ist St. Peter (kath.) in Friedrichstadt. Diese Kirche hat neugotische und neoromanische Elemente. Erbaut wurde sie zwischen 1887 und 1898. Weitere interessante Kirchen finden sich in vielen Stadtteilen, so zum Beispiel St. Paulus (kath.) in Düsseltal, St. Maria Rosenkranz (kath.) von 1908 in Wersten und die St.-Josef-Kirche in Oberrath, alle im neoromanischen Stil errichtet. St. Paulus und St. Josef gehen auf den Düsseldorfer Architekten Josef Kleesattel zurück, ebenso St. Blasius in Hamm, die Häuserzeilenkirche St. Elisabeth und St. Vinzenz in der Stadtmitte, Heilig Geist in Pempelfort, Herz Jesu in Derendorf und St. Ursula in Grafenberg. Weitere neuromanische Kirchen im Stadtgebiet entwarfen die Architekten Caspar Clemens Pickel (z. B. St. Adolfus und St. Apollinaris), Paul und Wilhelm Sültenfuß. Aus älteren Zeiten stammen St. Agnes in Angermund, St. Hubertus in Itter, St. Lambertus in Kalkum und St. Cäcilia in Hubbelrath. Als architektonische Besonderheiten aus der Zeit des Wiederaufbaus nach dem Zweiten Weltkrieg sind zwei Kirchen hervorzuheben: die Bunkerkirche Sankt Sakrament in Heerdt, die in einem Luftschutzbunker errichtet wurde, und die Rochuskirche in Pempelfort. Die Rochuskirche war bis zu ihrer Zerstörung im Zweiten Weltkrieg eine sehr große und prächtige neoromanische Kirche, die 1897 von Josef Kleesattel errichtet worden war. Nach verheerenden Bombardierungen war sie eine Ruine. 1950 wurde entschieden, nur den Turm zu retten, das Kirchenschiff jedoch durch einen Neubau zu ersetzen. Dieser hat die Form eines Kuppeldachs und wurde von Paul Schneider-Esleben entworfen. Weitere herausragende Beispiele moderner Kirchenarchitektur sind die katholischen Kirchen St. Bruno, St. Franziskus Xaverius, St. Matthäus, die Altenheimkapelle St. Hildegardis und die im parabolischen Grundriss angelegte Katharinenkirche in Gerresheim aus den 1960er Jahren sowie die evangelische Matthäikirche aus der Zwischenkriegszeit der Weimarer Republik. Sonstige historische Gebäude (vor 1945). Das älteste Profangebäude der Stadt ist das Löwenhaus in der Liefergasse in der Altstadt. Es stammt aus dem Jahr der Stadterhebung 1288. Das Düsseldorfer Rathaus hingegen geht auf das 16. Jahrhundert zurück. Der älteste Teil wurde 1570 bis 1573 durch Heinrich Tussmann erbaut. In späteren Jahrhunderten kamen weitere Gebäudetrakte hinzu. Vor dem Rathaus erstreckt sich der Marktplatz mit dem Jan-Wellem-Reiterstandbild, das 1712 von Gabriel de Grupello gegossen wurde. An der Grenze der Altstadt wurde 1811 bis 1815 das Ratinger Tor durch Adolph von Vagedes errichtet. Südlich der Altstadt, zwischen Carlstadt, Friedrichstadt und Unterbilk gelegen, befindet sich das Ständehaus. Es wurde 1876 bis 1880 von Julius Raschdorff erbaut und diente zunächst dem Preußischen Provinzialparlament als Sitz, von 1949 bis 1988 beherbergte es dann den Landtag des Landes Nordrhein-Westfalen. Heute befindet sich dort die Kunstsammlung Nordrhein-Westfalen K21. Die Expansion und der ökonomische Aufstieg der Stadt bis zum Ausbruch des Ersten Weltkriegs führten auch zu Kaufhausgründungen, so dass mit Kaufhof an der Kö, ehem. Leonhard Tietz AG, erbaut 1906 bis 1908 von Joseph Maria Olbrich, und dem Carsch-Haus, erbaut von 1914 bis 1916 durch Otto Engler, zwei heute noch genutzte Kaufhäuser, entstanden. Das ehemalige Verwaltungsgebäude der Mannesmannröhren-Werke AG am Mannesmann-Ufer wurde 1912 durch den Architekten Peter Behrens erbaut. Direkt daneben am Rheinufer errichtete der Architekt Hermann vom Endt zwischen 1909 und 1911 im Auftrag des Rheinischen Provinzialverbandes das Landeshaus und die nach dem späteren Landeshauptmann benannte Villa Horion. Eines der ersten Hochhäuser Deutschlands ist das an der heutigen Heinrich-Heine-Allee befindliche Wilhelm-Marx-Haus, das zwischen 1922 und 1924 durch Wilhelm Kreis errichtet wurde. Ebenfalls von Kreis stammt der Ehrenhof-Komplex einschließlich der ursprünglich als Planetarium gedachten Tonhalle und auch die in der Nähe gelegene Rheinterrasse. Der Ehrenhof ist heute Heimstatt mehrerer Museen und Ausstellungsinstitute, u. a. des NRW-Forums und des Museum Kunstpalast. Errichtet wurde der Komplex im Rahmen der "Großen Ausstellung für Gesundheitspflege, soziale Fürsorge und Leibesübungen", kurz „GeSoLei“ im Jahre 1926. Die Skulptur „Aurora“ über dem Nordportal stammt von Arno Breker. Der Hauptbahnhof wurde 1932 bis 1936 von den Architekten Krüger und Eduard Behne errichtet, nachdem der zentrale Eisenbahnhaltepunkt der Stadt vom Graf-Adolf-Platz weg zu einer am Rande der innerstädtischen Bezirke gelegenen Stelle verlegt worden war. Moderne und postmoderne Gebäude. Düsseldorf wurde nach dem Zweiten Weltkrieg teilweise wiederaufgebaut, an vielen Stellen entschied man sich jedoch für moderne Bauten. Als Planungsdezernent wirkte Friedrich Tamms maßgeblich an der Neugestaltung der Stadt in den 1950er bis 1960er Jahren mit und war u. a. für die Neuanlage der Berliner Allee verantwortlich. Architektonisch ragt hier einerseits das Hochhaus der Stadtsparkasse Düsseldorf heraus, andererseits das Ensemble aus dem Thyssen-Hochhaus („Dreischeibenhaus“), erbaut 1957 bis 1960 von den Architekten Helmut Hentrich und Hubert Petschnigg, dem Düsseldorfer Schauspielhaus, errichtet 1965 bis 1970 durch den Architekten Bernhard Pfau, und den im April 2013 abgerissenen Tausendfüßler. Die Neuordnung des innerstädtischen Bereichs war seinerzeit hoch umstritten, die Personalpolitik des Dezernenten Tamms führte zudem zum Düsseldorfer Architektenstreit. Heute wird der Bereich wieder überplant, in seinem Zentrum befindet sich nunmehr der Kö-Bogen von Daniel Libeskind. Mitprägend für das Stadtbild an der Rheinfront wurde das Mannesmann-Hochhaus in der Carlstadt, erbaut 1956 bis 1958 durch Paul Schneider-Esleben, der ebenfalls für die Haniel-Garage, Deutschlands erste Hochgarage nach dem Krieg, erbaut 1949–1950, sowie auch das inzwischen wieder abgerissene ARAG-Terrassenhaus in Mörsenbroich verantwortlich zeichnet. Neben den historischen Gebäuden, den Schrägseilbrücken und dem Mannesmann-Hochhaus formen weitere Gebäude die Rheinfront, deren Gesamtbild einen hohen Wiedererkennungswert aufweist. Besonders markant sind dabei der Rheinturm (erbaut 1979 bis 1982) des Architekten Harald Deilmann, mit 240,5 m höchstes Wahrzeichen der Stadt und das Landtagsgebäude Nordrhein-Westfalen (erbaut 1980 bis 1988). Die Zeitanzeige des Rheinturms gilt als weltweit größte Digitaluhr. An den Rheinturm schließt seit den 1990er Jahren der Rheinpark Bilk an. Hinter dem Rheinpark entstand ab dieser Zeit unter der Bezeichnung "Medienhafen" im vorderen Teil des alten Rheinhafens an der Lausward eine städtebauliche und architektonische Collage aus Neubauten und umgebauten Altbauten, von denen der "Neue Zollhof" mit den drei "Gehry-Bauten", benannt nach ihrem Architekten Frank Gehry (erbaut 1996 bis 1999), sowie das Colorium, ein 17-geschossiges Bürogebäude (fertiggestellt 2001), besonders ins Auge fallen. Das so entstandene Gesamtensemble, das durch maßstäbliche Sprünge, Formen- und Materialvielfalt sowie funktionale und ästhetische Gegensätze gekennzeichnet ist, bildet nicht nur einen begehrten Büro- und Hotelstandort in der Landeshauptstadt, sondern fungiert auch als neue Tourismus-Destination. Der Neubau des Sendehauses und Landesstudios des Westdeutschen Rundfunks an der Stromstraße ist ein weiteres markantes postmodernes Gebäude, das an den Rheinpark angrenzt. Die Stromstraße führt dann weiter über den Tunnel Gladbacher Straße, über dem das international ausgezeichnete Stadttor thront, das u. a. als Sitz der nordrhein-westfälischen Staatskanzlei dient. Weiter Richtung Innenstadt fällt am Graf-Adolf-Platz die ovale Hochhausarchitektur des 89 m hohen GAP 15 ins Auge, das 2005 nach Plänen der Architekten J. S. K. erbaut wurde. In der Nähe des Graf-Adolf-Platzes, an der Friedrichstraße, befindet sich das DRV-Hochhaus. Es ist 120 m hoch und hat eine typische 1970er-Jahre-Architektur (Fertigstellung: 1978). Verantwortlicher Architekt war Harald Deilmann. Die Fassade wurde 2006/2007 neu gestaltet. Einen vollständigen Umbau erlebte hingegen das Gebäude der WestLB am Kirchplatz, Ecke Fürstenwall/Friedrichstraße. Der ursprüngliche Bau aus den späten 1960er Jahren, erbaut für die Bausparkasse Rheinprovinz, überragte die Kirche St. Peter, sein Nachfolger hingegen hat eine geringere Traufhöhe. Das andere in der Nähe befindliche Gebäude der WestLB ist ein Hochhauskomplex, dessen Ausführung für die 1970er Jahre typisch ist. Nördlich der Oberkasseler Brücke erscheint hinter dem neoklassizistischen Oberlandesgericht deutlich der Victoria-Turm als höchstes Gebäude im postmodernen Gebäude-Komplex der Versicherungsgesellschaft an der Fischerstraße. Im Norden der Stadt setzte die ARAG-Versicherung ihre Zeichen. Das sogenannte Mörsenbroicher Ei war und ist umgeben von Gebäuden dieser Gesellschaft. Das alte Stufenhaus von Paul Schneider-Esleben musste dem 1998 bis 2000 erbauten, 125 m hohen ARAG-Turm des Architekten Sir Norman Foster weichen, der das höchste Verwaltungsgebäude im Stadtgebiet darstellt. Weichen musste ebenfalls das 1968 bis 1975 erbaute Rheinstadion. An seiner Stelle steht nun die ESPRIT arena. Sie wurde zwischen 2002 und 2004 nach Plänen der Architekten J.S.K. erbaut. Ebenfalls im Norden der Stadt, in Rath, befindet sich der ISS-Dome. Erbaut wurde er in den Jahren 2005 bis 2006 von den Architekten Rhode Kellermann Wawrowsky (RKW). Im Süden Düsseldorfs ist das Kuppelgewächshaus im Botanischen Garten Düsseldorf noch erwähnenswert. Die Heinrich-Heine-Universität selbst ist in einer für 1960er und 1970er Jahren typischen Bauweise mit etlichen Hochgebäuden für die Institute in Sichtbeton mit großen Glasfenstern, Hörsaalgebäuden mit Sichtbeton und teilweise roter Verklinkerung und weiteren teils rot verklinkerten, teils mit Sichtbeton errichteten Gebäuden gebaut worden. Etwas untypisch ist die verstreute Lage der Gebäude entlang einer geschwungenen Hauptachse des Geländes. Düsseldorfer Brückenfamilie. Die Düsseldorfer Brückenfamilie war ursprünglich ein Sammelbegriff für die drei zentralen Schrägseilbrücken Theodor-Heuss-Brücke, Oberkasseler Brücke und Rheinkniebrücke, die die Entwicklung dieses Brückentyps weltweit für viele Jahre maßgeblich beeinflusst hatten. Die zwischen Golzheim und Niederkassel liegende Theodor-Heuss-Brücke, früher auch "Nordbrücke" genannt, gilt als die erste Schrägseilbrücke Deutschlands. Sie wurde 1952 im Auftrag des Düsseldorfer Stadtplanungsamtes unter Leitung des Architekten Friedrich Tamms von einer Gruppe um den Bauingenieur und Tragwerksplaner Fritz Leonhardt entworfen. Ihre schlanken, freitragenden Pylonstiele und die harfenförmige, parallele Anordnung der Seile wurden von Tamms veranlasst. Bald nach ihrer Fertigstellung im Jahr 1957 beauftragte Tamms auch die Planung der Oberkasseler Brücke und der Rheinkniebrücke, wobei Fritz Leonhardt für die Rheinkniebrücke, Hans Grassl für die Oberkasseler Brücke federführend war. Die ein kleines Stück weiter südlich stehende Oberkasseler Brücke zwischen der Innenstadt und Oberkassel war die älteste und lange auch die einzige Düsseldorfer Straßenbrücke. Sie ersetzte ab 1898 die Pontonbrücke von 1839, die bis dahin die einzige Verbindung mit dem linken Rheinufer darstellte, und wurde 1924 erweitert. Nach der Zerstörung 1945 wurde ab 1948 erneut eine Behelfsbrücke errichtet. Aus verkehrstechnischen Gründen konnte erst 1973 die von Hans Grassl entworfene Schrägseilbrücke neben ihr errichtet werden. 1976 erfolgte der vielbeachtete endgültige Verschub der neuen Brücke an die historische Stelle. Sie leistet die Verbindung von der Altstadt nach Oberkassel und trägt die Stadtbahnlinien, die von der Heinrich-Heine-Allee ins Linksrheinische führen. Die noch weiter südlich stehende Rheinkniebrücke verbindet die Friedrichstadt mit Oberkassel. Sie musste aus verkehrstechnischen Gründen vor dem Neubau der Oberkasseler Brücke gebaut werden. Sie wurde zwischen 1965 und 1969 nach den Plänen von Leonhardt errichtet und ist genauso wie die Theodor-Heuss-Brücke und die nach ihr gebaute Oberkasseler Brücke eine Schrägseilbrücke. Diese drei Schrägseilbrücken zeichnen sich durch die gleichen Stilelemente aus – ein flaches stählernes Brückendeck, schlanke senkrechte Pylone und wenige, harfenförmig angeordnete Schrägseile. Aufgrund ihrer Lage in kurzer Entfernung voneinander konnten sie außerdem schon vor ihrer Fertigstellung in Modellen und Zeichnungen gemeinsam dargestellt werden. Die Düsseldorfer Brückenfamilie wurde 2007 für die Auszeichnung als Historisches Wahrzeichen der Ingenieurbaukunst in Deutschland nominiert. Weiter südlich verbinden drei ganz anders konstruierte Brücken Düsseldorf mit der Nachbarstadt Neuss. Zunächst kommt von Nord nach Süd vorgehend die Hammer Eisenbahnbrücke, eine an einem Stahlbogen abgehängte Fachwerkbrücke, deren Vorgänger aus dem Jahre 1870 stammt. Reste dieser alten Brücke sind in Form der Türme an den Ufern noch zu sehen. Die heutige Brücke wurde 1987 direkt neben der historischen Trasse im Zuge des Baues der Ost-West-S-Bahnlinie S 8 errichtet. Im Gegensatz zu ihrem Vorgänger trägt sie vier Eisenbahngleise. Einen Fuß- oder Radweg gibt es ebenso wenig wie eine Fahrbahn für Autos. In Sichtweite steht die Josef-Kardinal-Frings-Brücke, vormals "Südbrücke", ein Neubau der Jahre 1950 bis 1951, nachdem die alte Brücke von 1929 im letzten Kriegsjahr 1945 zerstört worden war. Sie ist die erste Hohlkasten-Balkenbrücke, die in Schweißtechnik ausgeführt wurde. Über die Josef-Kardinal-Frings-Brücke führen die Bundesstraße 1 und eine Straßenbahnlinie. Die südlichste Düsseldorfer Rheinbrücke ist die Fleher Brücke, eine Schrägseilbrücke mit dem höchsten Brückenpylon in Deutschland und einer Vielzahl von fächerförmig angeordneten Seilen. Erbaut wurde sie von 1976 bis 1979. Auf ihr verläuft die Bundesautobahn 46. Im Norden der Stadt steht die Flughafenbrücke, eine Schrägseilbrücke mit zu Dreiecken verkürzten Pylonen, die von Düsseldorf-Stockum nach Meerbusch führt und dabei den Verlauf der Bundesautobahn 44 vorgibt. Sie ist die jüngste Düsseldorfer Rheinbrücke, sie wurde zwischen 1998 und 2002 gebaut. Parks und Grünflächen. Düsseldorf, das oft den Beinamen "Gartenstadt" erhält, verfügt heute über 1238 Hektar öffentliche Grünflächen, davon 641 Hektar Parks, die sich über das Stadtgebiet verteilen. Der Rhein bildet mit seinen in großen, in weiten Teilen unbebauten Uferzonen ein grünes Band, das verschiedene Parks in nord-südlicher Richtung miteinander verbindet. Am östlichen Stadtrand befinden sich zudem mit 2180 Hektar ausgedehnte Stadtwaldflächen. Der Hofgarten. Der Ruf als Gartenstadt geht auf die zweite Hälfte des 18. Jahrhunderts zurück. 1769 ließ der Statthalter des Kurfürsten Karl-Theodor den „Alten Hofgarten“ als ersten Volksgarten Deutschlands nach den Plänen von Nicolas de Pigage im Rahmen von Arbeitsbeschaffungsmaßnahmen anlegen. Die Anlage wurde richtungsweisend für ähnliche Parks in anderen Städten. Nach der Schleifung der Festungswerke 1801 wurde der Park durch Maximilian Friedrich Weyhe umgestaltet und in Form einer offenen Gartenlandschaft weiterentwickelt. Dieser „Neue Hofgarten“ mit seinen Gartenlokalen und Unterhaltungsangeboten war gesellschaftlicher Treffpunkt und eine Besonderheit Düsseldorfs. Der Hofgarten blieb bis 1875 die einzige Grünfläche innerhalb des bebauten Stadtgebietes. Die Gärten der Großstadt. Die durch die Industrialisierung hervorgerufene starke städtische Expansion lieferte die Grundlage für die Anlage neuer Parks. So entstanden in privater Initiative 1875 der Florapark und 1876 der Zoologische Garten, beide mit durch die Düssel gespeisten Teichanlagen. Einen großen Einfluss auf die Gestaltung der Grünflächen hatte H.F.A. Hillebrecht, der von 1879 bis 1910 Stadtgärtner von Düsseldorf war. Seit Mitte der 1880er Jahre verfolgte die Stadt Düsseldorf das Ziel, Grundstücke für die Anlage von Parks und Erholungsflächen zu erwerben. 1892 wurde der Oberbilker Volksgarten, heute Teil des Südparks, angelegt. Es folgte 1898 der Ostpark. 1903 übernahm die Stadt den Florapark und 1905 den Zoologischen Garten. Ausstellungsgärten. 1904 fand die große Gartenbau-Ausstellung in Düsseldorf statt, in deren Fokus die Reform des Gartenbaus hin zu einer architektonischen Gestaltung stand. Verfechter dieser Reformen waren Peter Behrens und Walter von Engelhardt aus dem Umfeld der Düsseldorfer Kunstgewerbeschule. Nach ihren Ideen plante Reinhold Hoemann den Kaiser-Wilhelm-Park am Rhein. Im Rahmen der GeSoLei 1926 wurden Teile der Rheinufers aufgeschüttet und gärtnerisch gestaltet. Aus dem Kaiser-Wilhelm-Park und den neuen, aufgeschütteten Flächen wurde der heutige Rheinpark Golzheim, der über den Komplex des Museum Kunstpalast mit dem Hofgarten verbunden ist. Im Rahmen der Reichsausstellung Schaffendes Volk entstand zwischen Rheinufer und der Kaiserswerther Straße der Nordpark. Der Volksgarten und der Südpark waren Teil des Geländes der Bundesgartenschau 1987. Südlich hiervon befindet sich der Botanische Garten. Herrensitze. Die Parks mehrerer Schlösser und Herrensitze, die heute zum Stadtgebiet gehören, sind für die Öffentlichkeit zugänglich. Der bekannteste ist der Park von Schloss Benrath im Süden der Stadt. Ferner sind dies in den südlichen Stadtteilen der Park Elbroich sowie die Parks der Schlösser Eller, Mickeln und Garath. Im Norden der Stadt liegen der Park von Schloss Kalkum sowie der Lantz’sche Park. Zwischen der Carlstadt und der Friedrichstadt liegen der Ständehauspark mit dem Spee’schen Graben, Kaiserteich und Schwanenspiegel. In Pempelfort schließt sich an den Hofgarten das Gelände des Künstlervereins Malkasten mit dem Jacobigarten an. Liste der Düsseldorfer Parks. Von den Düsseldorfer Parkanlagen wurden allein neun wegen ihrer Qualität und Bedeutung 2004 in die Straße der Gartenkunst zwischen Rhein und Maas aufgenommen. Sie sind in der folgenden Liste durch * hervorgehoben. Landschafts- und Naturschutzgebiete. Düsseldorf hat im Stadtgebiet 43 Naturdenkmäler und zwölf Naturschutzgebiete mit einer Gesamtfläche von 1435 Hektar. In der Vergangenheit erstreckte sich im Südosten der Stadt durch das Mäandern des Rheins zwischen dem Altrhein und dem heutigen Flussverlauf ein großes Sumpf- und Moorgebiet, das große Teile der heutigen Stadtbezirke 8, 9 und 10 sowie der Nachbarstadt Hilden als auch einige der dort gelegenen Wälder umschloss. Viele der heutigen Naturschutzgebiete gingen aus den verschiedenen Ausprägungen dieses Sumpfes hervor. Der sandtragende Teil dieses "In den Benden" genannten Gebietes wurde inzwischen ausgekiest und hinterließ den Unterbacher See (vormals "Bendensee"), Elbsee, Menzelsee und Dreiecksweiher in Unterbach. Nässegebiete blieben die "Urdenbacher Kämpe", der "Eller Forst" und der "Himmelgeister Rheinbogen", die ebenso wie Teile des Elbsees und Dreiecksweiher unter Naturschutz gestellt wurden. Durch die Konzentration des Wassers konnten große Flächen des Sumpfgebietes unter anderem durch Torfbruch trockengelegt und kultiviert werden. Zuvor umging der historische Mauspfad dieses Gebiet als Höhenweg über die ersten Ausläufer des Bergischen Landes am Übergang zur niederrheinische Ebene. Die Urdenbacher Kämpe bildet heute als Flussauenlandschaft mit einer Fläche von 316 ha das größte Naturschutzgebiet in Düsseldorf. Sie ist durch die in der Niederrheinregion häufigen Streuobste im Auwald geprägt und FFH-Gebiet. Im Osten der Stadt, übergehend in den Landkreis Mettmann, befindet sich das "Rotthäuser Bachtal", das ebenfalls FFH-Gebiet ist und in dem Teiche und Hecken sowie wiederum Auwälder die hügelige Landschaft prägen. Das dritte FFH-Gebiet ist die Überanger Mark im Nordosten Düsseldorfs, das vor allem aus Erlen- und Hainbuchenbewaldung besteht. Naherholungsgebiete und Freizeitparks. Beliebtestes Naherholungsgebiet der Stadt ist der Unterbacher See. Er ist an der Stadtgrenze zu Erkrath und Hilden gelegen und grenzt an den Eller Forst. An ihm sind zahlreiche Freizeit- und Sportmöglichkeiten von Segeln und Tretbootfahren bis Minigolf und Schwimmen möglich. Darüber hinaus existieren zwei Campingplätze. Das Gebiet um den See herum steht unter Naturschutz. Außerdem dient der Düsseldorfer Stadtwald als Teil der "grünen Lunge" zur Naherholung. Die Stadt hat drei Freizeitparks für Kinder und Familien in den 1970er und 1980er Jahren eingerichtet, die seitdem modernisiert wurden. Es handelt sich um den Freizeitpark Ulenbergstraße in Bilk, den Freizeitpark Heerdt im linksrheinischen Heerdt und den Freizeitpark Niederheid, der zudem einen Kinderbauernhof enthält. Interkulturelle Bezüge, internationale Kultur. In Düsseldorf leben insgesamt rund 110.000 Ausländer und es haben sich etwa 5000 ausländische Unternehmen angesiedelt, die die Stadt prägen. Unter anderem führen die Unternehmensniederlassungen zu einem außergewöhnlich hohen Anteil japanischer Einwohner, sowie zahlreicher Niederländer, US-Amerikaner, Briten, Franzosen, Chinesen und Koreaner. Daneben gibt es, wie in anderen vergleichbaren Städten, große türkische, griechische, marokkanische, serbische, italienische und polnische Gemeinden. In der Stadt befinden sich zahlreiche kulturelle und religiöse Einrichtungen der verschiedenen Nationalitäten und Glaubensrichtungen. 40 von 71 der in Nordrhein-Westfalen angesiedelten konsularischen Vertretungen und Zweigstellen lagen Anfang 2013 in Düsseldorf. Hinzu kommen 33 ausländische Handelskammern und Außenhandelsorganisationen. Die 2014 beim Staatsbesuch des chinesischen Staatspräsidenten Xi Jinping in Nordrhein-Westfalen angekündigte Eröffnung eines viertes die chinesischen Generalkonsulats in Deutschland in Düsseldorf wurde am 19. Dezember 2015 in Gegenwart von Ministerpräsidentin Hannelore Kraft und Außenminister Wang Yi vollzogen. Düsseldorf hat eine englischsprachige internationale Schule im Norden der Stadt mit 950 Schülern aus 44 Nationen, im benachbarten Neuss befindet sich eine weitere internationale Schule. Im Stadtteil Düsseltal befindet sich eine französische Schule mit ca. 430 Schülern, linksrheinisch eine japanische internationale Schule mit ca. 650 Schülern und ein griechisches Lyzeum mit ca. 820 Schülern. Die Yitzhak-Rabin-Schule ist eine der wenigen jüdischen Grundschulen in Deutschland. Als Kulturorganisationen sind u. a. das seit 1950 in Düsseldorf bestehende Institut français und das Instytut Polski zu erwähnen. Der Japanische Club ist mit 5000 Mitgliedern einer der größten Vereine der Stadt. An der Heinrich-Heine-Universität ist ein Konfuzius-Institut angesiedelt. Der jährlich stattfindende Japantag, wie auch das Frankreichfest im Juli, gehören zu den kulturellen Höhepunkten im Stadtleben. Außerdem werden alle vier Jahre die jüdischen Kulturtage im Rheinland mit unterschiedlichen Sparten durchgeführt. Im Stadtteil Gerresheim gibt es einige Straßenzüge, die sehr stark süditalienisch geprägt sind, die griechische Gemeinde ist in Düsseldorf ebenfalls stark. Rund um die Ellerstraße in Oberbilk hat sich in den letzten Jahren ein marokkanisch-tunesisches Viertel gebildet. In Düsseldorf sind christliche Heimatgemeinden u. a. aus Südkorea, Polen und Vietnam verankert, die Russisch-Orthodoxe Kirche unterhält in Düsseldorf ein Patriarchat. Die Koptisch-Orthodoxe Kirche ist mit einer Gemeinde und einer Kirche in der Stadt vertreten. Gastronomie. Die Düsseldorfer Altstadt wird wegen ihrer vielen Kneipen als die „längste Theke der Welt“ bezeichnet. Die Formulierung geht auf den Werbeschaffenden Carl Schweik in den 1960er Jahren zurück. Neben der Altbierkneipe Uerige gibt es die Häuser „Brauerei im Füchschen“, „Brauerei Schumacher“, „Brauerei Zum Schlüssel“ und viele weitere. Es finden sich Hunderte Bars, Restaurants, Diskos und Kneipen auf einem erstaunlich engen Areal. Das Gebiet umfasst im Wesentlichen den historischen Teil der Altstadt, im Norden begrenzt von der Ratinger Straße, im Westen von der Rheinpromenade, im Osten von der Heinrich-Heine-Allee und im Süden vom Carlsplatz. Im November 2009 ist die bisher geltende Sperrstunde in der Altstadt aufgehoben worden. Konkurrenz bekommt die Altstadt durch den modernen Medienhafen mit den architektonisch bedeutsamen Gehry-Bauten und den interessanten Clubs und Diskotheken, in denen oft auch Prominente verkehren. Beliebt in gastronomischer Hinsicht ist auch die linke Rheinseite mit den Stadtteilen Oberkassel und Niederkassel. In Bilk hat sich in den letzten Jahrzehnten zaghaft eine studentische Kneipenkultur entwickelt. In den Stadtteilen Derendorf, Flingern und Pempelfort ist eher Szene-Publikum unterwegs. Insbesondere in Pempelfort hat sich im Umfeld der Tußmannstraße und des ehemaligen Geländes des Güterbahnhofes Derendorf eine rege Kneipen- und Gastronomie-Szene entwickelt. In den genannten Vergnügungszentren und in den zahlreichen Kneipen der Stadtteile wird in erster Linie das obergärige Altbier ausgeschenkt. Fast alle Kneipen bieten aber auch andere Biersorten an. Neben dem Altbier gelten der Senf („Mostert“) der Marken "Löwensenf" und "ABB-Senf" sowie der Beerenlikör "Killepitsch" als weitere Spezialitäten der lokalen Gastronomie. Eine beliebte Flaniermeile ist die Königsallee "(Kö)". „Sehen und gesehen werden“ heißt hier das Motto. Die zahlreichen Straßencafés des Boulevards laden zudem zum Verweilen ein. Auch die Rheinuferpromenade, die den Medienhafen mit der Altstadt verbindet, bietet eine Fülle an Cafés und Restaurants mit Außengastronomie. Brauchtum. Die wichtigsten Elemente des Düsseldorfer Brauchtums sind der Karneval mit dem Rosenmontagszug als Höhepunkt, die Schützenfeste in den Stadtteilen und im Juli das große Düsseldorfer Schützenfest mit der größten Kirmes am Rhein. Der St.-Sebastianus-Schützenverein besteht seit spätestens 1435, geht aber vermutlich auf das 14. Jahrhundert zurück. Eine alte Tradition ist auch das Radschlagen. Für „Eene Penning“ führten die Düsseldorfer Radschläger – meist schulpflichtige Knaben – ihre Kunst vor. Weniger touristisch und wirtschaftlich bedeutsam, für die Kinder Düsseldorfs aber umso wichtiger, sind die Martinsumzüge in der Altstadt und in den Stadtteilen. Zu Ehren des Heiligen Martin von Tours ziehen sie in der ersten November-Hälfte mit selbst gebastelten Laternen singend hinter einem den Hl. Martin darstellenden Reiter her. Im Anschluss an die Umzüge „gripschen“ sie Süßigkeiten in Geschäften und an Haustüren als Gegenleistung für ein Ständchen. Neben den Karnevals- und Schützenvereinen pflegt der Heimatverein der Düsseldorfer Jonges in besonderem Maße Brauchtum und Tradition. Sport. Rund 112.000 Menschen in Düsseldorf betreiben Breitensport in 369 Vereinen, deren Dachorganisation der Stadtsportbund Düsseldorf darstellt. 36 Vereine sind in ihrer jeweiligen Sportart mindestens in der Regionalliga vertreten und repräsentieren den Leistungssport. Die bekanntesten Düsseldorfer Profivereine sind im Fußball Fortuna Düsseldorf und im Eishockey die Düsseldorfer EG. Vor dem Hintergrund der letztlich erfolglosen Olympiabewerbung Düsseldorf/Rhein-Ruhr für das Jahr 2012 hat die Stadt Düsseldorf massiv in den Bau neuer Sportstätten sowohl für den Profi-, als auch den Breitensport investiert. Dem Stadtmarketing wurde eine Sportagentur angegliedert, die unter dem Slogan „Sportstadt Düsseldorf“ nationale und internationale Sportereignisse in die Stadt zieht und vermarktet. Seit dem 1. Juli 2009 heißt die LTU Arena ESPRIT Arena. Fußball. Bekanntestes sportliches Aushängeschild der Stadt ist der Traditionsverein Fortuna Düsseldorf. Die größten sportlichen Erfolge sind der Gewinn der Deutschen Fußballmeisterschaft 1933, die DFB-Pokalgewinne 1979 und 1980 sowie der Finaleinzug im Europapokalturnier der Pokalsieger 1979. Fortuna Düsseldorf spielte seit der 10 in der 2. Fußball-Bundesliga und stieg am 15. Mai 2012 erneut in die 1. Bundesliga auf und am letzten Spieltag der Saison 2012/2013 nach einem Jahr in der 1. Liga wieder ab. Weitere bekannte Fußballvereine der Stadt sind die Fußballabteilung von TuRU Düsseldorf, die von der Saison 2004/2005 bis zur Saison 2007/08 in der Oberliga Nordrhein spielte, der BV 04 Düsseldorf, der seit 1963 regelmäßig zu Ostern ein internationales Junioren-Fußball-Turnier (U19 Champions Trophy) ausrichtet, sowie der VfL Benrath, der 1957 Deutscher Amateurmeister wurde und in den 1930er Jahren die beiden deutschen Nationalspieler Karl Hohmann und Josef Rasselnberg stellte. Eishockey. Genauso bekannt wie die Fußballmannschaft von Fortuna sind die Düsseldorfer EG. Als achtfacher Deutscher Meister seit 1967 gehört die DEG zu den erfolgreichsten Clubs in Deutschland. 2006 wurden außerdem erstmals der Deutsche Pokalsieg und die Vizemeisterschaft errungen. Erneut wurde die Vizemeisterschaft in der Saison 08/09 geholt. Im Eisstadion an der Brehmstraße, Spielort der DEG von 1935 bis 2006, fanden mehrere europäische Eishockey-Wettbewerbe und Weltmeisterschaftsspiele statt. Seit September 2006 werden die Spiele der DEG im ISS-Dome ausgetragen. Seit dem Ausstieg des Hauptsponsors 2012 hat die DEG mit finanziellen Problemen zu kämpfen. Trotzdem konnte der Verbleib in der DEL in der Spielzeit 2012/2013 und auch 2013/2014 durch lokale Kooperationen gesichert werden. American Football. Der älteste American-Football-Verein Düsseldorfs sind die Düsseldorf Panther, die seit ihrer Gründung 1978 sechsmal die deutsche Meisterschaft der German Football League gewannen, damit bis 2008 über lange Jahre deutscher Rekordmeister waren und als das älteste noch existierende deutsche American-Football-Team gelten. Die Düsseldorf Bulldozer, gegründet 1979, blicken auch auf eine lange Tradition zurück und haben in den Anfangsjahren der deutschen Ligen ebenfalls in den oberen Klassen mitgespielt. Die Mannschaft von Rhein Fire gehörte von 1994 bis zur Auflösung 2007 zu den sportlichen Glanzlichtern Düsseldorfs. Rhein Fire war 2006, wie schon 1999, 2002, 2004 und 2005, Gastgeber des World Bowls und konnte diesen nach fünf Finalteilnahmen auch in den Jahren 1998 und 2000 gewinnen. Tischtennis. Der Tischtennisverein Borussia Düsseldorf war zuletzt 2014 Deutscher Meister und hat neben 26 nationalen Meistertiteln auch 22-mal den Deutschen Pokalsieg errungen. Die Borussia holte sechsmal den Europapokal der Landesmeister sowie zweimal den ETTU-Pokal und gewann 2000, 2009, 2010 und 2011 die Champions League im Tischtennis. Hinzu kommt ein 3. Platz bei der ersten Weltmeisterschaft für Vereinsmannschaften. Der 1949 gegründete Lokalkonkurrent TuSa 06 Düsseldorf wurde zwischen 1962 und 1967 fünfmal Deutscher Mannschaftsmeister der Herren sowie von 1964 bis 1966 dreimal in Folge Deutscher Pokalmeister. Er gehörte zu den Gründungsmitgliedern der Tischtennis-Bundesliga, in der er bis 1971 verblieb. Mit Eberhard Schöler, Jörg Roßkopf, Dimitrij Ovtcharov und Timo Boll spiel(t)en vier der erfolgreichsten deutschen Tischtennisspieler Jahre lang in Düsseldorf. Außerdem finden in Düsseldorf jedes Jahr die „Kids Open“ statt, das größte Tischtennis-Jugendturnier Europas. Tennis. Der erfolgreichste Tennisclub der Stadt sind die Herren des Rochusclubs in der 1. Bundesliga, bei den Damen hingegen erzielt der TC Benrath in der 1. Bundesliga die meisten Erfolge. Die Mannschaftsweltmeisterschaft World Team Cup wurde zwischen 1978 und 2012 jedes Jahr im Mai auf dem Gelände des Düsseldorfer Rochusclubs ausgetragen. Trampolinturnen. Der TV Unterbach 1905 wurde fünfmal zwischen 1978 und 1984 in der olympischen Disziplin Trampolinturnen deutscher Mannschaftsmeister. Dazu kamen viele Teilnahmen und Titel in den Einzelmeisterschaften auf Deutschland-, Europa- und Weltebene. Zudem stellte der Verein über Jahrzehnte einen Großteil der deutschen Nationalmannschaft und die Leitung der Trampolin-Bundesliga. Internationale Pionierarbeit leistete der Verein mit der Veranstaltung des "Unterbach-Cup" als erstem und höchststehendem europaweiten Wettkampf für Jugendliche, zuletzt mit weltweiter Beteiligung. Weiter gehört der "Turnerbund Hassels 1925" zu den wenigen Sportvereinen, die in Düsseldorf Trampolinturnen anbieten. Tanzsport. Das Ehepaar Anneliese und Siegfried Krehn betrieb über Jahrzehnte eine der ersten Tanzschulen in Düsseldorf. In den 1950er und 1960er Jahren errangen sie zahllose vordere Plätze bei Welt-, Europa- und Deutschen Meisterschaften, zunächst als Amateure für den Boston Club Düsseldorf, später als Profis. Unter anderem gewannen sie die deutschen Meisterschaften in den Standardtänzen siebenmal in Folge sowie in den lateinamerikanischen Tänzen dreimal in Folge Außerdem sicherten sie sich in diesen beiden Disziplinen gleichzeitig die Vize-Weltmeistertitel des Jahres 1966. Im Zuge dieser Erfolge standen sie und ihre Tanzschule im Mittelpunkt des ersten Tanzunterrichts im Deutschen Fernsehen. Basketball. Das bekannteste Düsseldorfer Basketballteam sind die Gloria Giants Düsseldorf, die in der zweiten Basketball-Bundesliga ProA spielen. In den 1980er Jahren war die Mannschaft DJK Agon 08 Düsseldorf im deutschen Basketball der Damen dominierend (neunmal deutscher Meister in Folge von 1980 bis 1988, außerdem 1975 sowie in den Jahren 1990 und 1991) und auch in den europäischen Wettbewerben erfolgreich vertreten (zwei Finalteilnahmen 1983 und 1986). Außerdem wurde DJK Agon 08 Düsseldorf noch siebenmal Deutscher Pokalsieger der Damen. Handball und weitere Sportarten. TuRU Düsseldorf, der HSV Düsseldorf bzw. die HSG Düsseldorf spielten von 1983 bis 2012 in der 1. und 2. Handball-Bundesliga. Weitere Sportarten, in denen Düsseldorf mit Mannschaften in den obersten Ligen vertreten ist, sind Hockey (1. und 2. Bundesliga), Lacrosse (1. Bundesliga), Baseball, Tanzsport, Kanusport und Faustball (2. Bundesliga). Internationale Sportereignisse in Düsseldorf. Der Sport in Düsseldorf erlebte und erlebt Jahr für Jahr verschiedene Sportveranstaltungen mit bundesweiter und auch weltweiter Beachtung. Hier wären die bereits erwähnte Mannschaftsweltmeisterschaft im Tennis im Rochusclub, der METRO Group Marathon, der Skilanglauf-Weltcup am Rheinufer, das Jugendfußballturnier des BV 04, das Radrennen Rund um die Kö und der Kö-Lauf zu nennen. Im internationalen Fußball war Düsseldorf mit seinem Rheinstadion Gastgeber mehrerer Spiele der Fußball-Weltmeisterschaft 1974 sowie des Eröffnungs- und mehrerer Gruppenspiele der Fußball-Europameisterschaft 1988. Das Eisstadion an der Brehmstraße war WM-Standort bei den Eishockey-Weltmeisterschaften 1955, 1975 und 1983. 1977 wurde im Rheinstadion der WorldCup, ein Vorläufer der heutigen Leichtathletik-Weltmeisterschaften, ausgetragen. In der Leichtathletik war die Stadt Schauplatz der Crosslauf-Weltmeisterschaften 1977 und ist seit 2006 Gastgeber des Düsseldorfer Indoor-Meetings. Zwischen 2000 und 2003 bewarb sich Düsseldorf auf nationaler Ebene um die Ausrichtung der Olympischen Spiele 2012. Im nationalen Vorentscheid wurde Düsseldorf hinter Leipzig und Hamburg Dritter. Wirtschaft und Infrastruktur. Düsseldorf ist eine wirtschaftsstarke, diversifizierte und global intensiv verflochtene Stadt in der Mitte der Metropolregion Rhein-Ruhr, in der sie eine funktionale Primatstellung innehat (→ "Global City"). Unter den Metropolfunktionen überragt der Sektor "Entscheidungs- und Kontrollfunktionen" alle Kreise und kreisfreien Städte in Nordrhein-Westfalen deutlich. In diesem Sektor rangiert Düsseldorf in Deutschland nach München und Berlin und vor Frankfurt am Main an dritter Stelle. Auch als "Gateway", also hinsichtlich seiner Ferninfrastrukturen und weltweiten Kontakte, ist Düsseldorf von überragender Funktion in Nordrhein-Westfalen. Einerseits ist hierfür die zentrale Lage im bevölkerungsreichsten Ballungsraum Deutschlands ausschlaggebend. Andererseits stellen der drittgrößte Flughafen Deutschlands, Düsseldorf Airport, sowie die Messe Düsseldorf mit 25 internationalen Leitmessen wichtige Faktoren für die wirtschaftliche Bedeutung der Stadt dar, insbesondere im Hinblick auf ihre internationale Verflechtung. Die starke Stellung des Düsseldorfer Arbeitsmarkts manifestiert sich in dem mit Abstand größten Einpendlerüberschuss unter den Kreisen und kreisfreien Städten Nordrhein-Westfalens (per saldo +151.387 sozialversicherungspflichtige Beschäftigte). Das günstige Standortklima für wirtschaftliche Innovation und Unternehmensgründung ist an der relativ hohen Zahl neugegründeter Unternehmen ablesbar. 2009 war Düsseldorf bundesweit die führende Stadt bei Unternehmensneugründungen, geprägt durch Gründungen vor allem im Bereich forschungsintensiver Industrien. 2011 war die Stadt der deutsche Ort mit den meisten Direktinvestitionen aus dem Ausland. Die Zahl der durch Auslandsinvestitionen geschaffenen Stellen lag 2011 dreimal so hoch wie 2010 und innerhalb Deutschlands am höchsten. Damit war Düsseldorf auch nach diesem Parameter der beliebteste Standort für Auslandsinvestitionen in Deutschland. Nach einer Untersuchung des Beratungsunternehmens Ernst & Young war Düsseldorf 2013 – vor London und Paris – der Großraum mit der höchsten Zahl von Direktinvestitionen aus der Volksrepublik China in Europa. Dies wird einerseits mit den Standortvorteilen erklärt, die die in Nordrhein-Westfalen bestehenden Technologie-Unternehmen, die zentrale Lage in Europa und der Messestandort bieten, andererseits mit der Eigendynamik einer bereits vorhandenen chinesischen Community, die sich einrichtet und engere Netzwerke knüpft. Düsseldorf ist führender Standort in den Branchen Werbung, europäisches Patentwesen, Telekommunikation und Unternehmensberatung sowie Deutschlands „Stadt der Mode“. Mit den "Igedo Fashion Fairs" und den "Collections Premieren Düsseldorf" (CPD) fanden sich hier führende Modemessen Europas. Mit dem neuen Format "The Gallery Düsseldorf" versucht der Messeveranstalter Igedo an frühere Erfolge anzuknüpfen. Über 600 Showrooms verschiedenster Hersteller sowie große Textilhandelsfirmen konzentrieren sich in der Landeshauptstadt, über 1.300 in der Agglomeration Düsseldorf. Den räumlichen Schwerpunkt bildet hierbei ein Cluster von Orderbüros rund um die Kaiserswerther Straße im Stadtteil Golzheim. Weiterhin ist Düsseldorf, gemessen am Umsatz, Deutschlands Modestandort Nummer eins: Mit rund 18 Milliarden Euro ist der Modeumsatz in Düsseldorf nach einer Untersuchung des Kölner Instituts für Handelsforschung mehr als doppelt so hoch wie in München und Berlin zusammen. Geschätzt werden Nüchternheit und geschäftliche Effizienz des Modestandorts am Rhein. Die Kultur- und Kreativwirtschaft der Stadt umfasst rund 4.100 Unternehmen mit einem Jahresumsatz von etwa 7,4 Milliarden Euro, der Anteil der Kreativen Klasse an den sozialversicherungspflichtig Beschäftigten ist nach einer Untersuchung für das Jahr 2008 unter den Kreisen und kreisfreien Städten Nordrhein-Westfalens in Düsseldorf am höchsten. Innerhalb Deutschlands gilt die eng verflochtene Metropolregion Rhein-Ruhr als führendes Zentrum der Kreativwirtschaft. Düsseldorf ist nach Frankfurt am Main die zweitgrößte Banken- und Börsenstadt (Börse Düsseldorf) – ca. 170 Banken haben eine Filiale oder ihre Zentrale in Düsseldorf, das traditionsreiche Bankenhaus HSBC Trinkaus & Burkhardt ist hier beheimatet. Zahlreiche internationale Firmen haben hier ihren Sitz: L’Oréal Deutschland, Komatsu Mining Germany, Air Liquide Deutschland, Nikon Deutschland, Vodafone Deutschland, die Metro AG, E.ON, Rheinmetall, Henkel, Tata Steel mit Vallourec & Mannesmann Tubes, NRW.Bank, E-Plus, Qiagen und die ERGO Versicherungsgruppe, zu der wiederum beispielsweise die Victoria und die Hamburg-Mannheimer gehören. Daimler produziert in Düsseldorf die geschlossenen Baureihen des Mercedes-Benz Sprinter sowie für VW den technisch verwandten Crafter. Zahlreiche Mittelstandsfirmen im Bereich Hochtechnologie, Medizintechnik, Sondermaschinen- und Anlagenbau sowie Antriebs- und Produktionstechnik und Nahrungsmittelsproduktion sind seit Jahrzehnten fester Bestandteil der Düsseldorfer Industrielandschaft. Dazu gehören unter anderem die Firmen Gerresheimer AG, Demag Cranes AG, Vossloh AG, GEA Group AG, A.u.K. Müller GmbH & Co. KG, Walter Flender Gruppe und Zamek. Die größte japanische Kolonie in Kontinentaleuropa hat Düsseldorf den Beinamen „Nippon am Rhein“ eingebracht. In der Stadt sind allerdings auch Unternehmen aus anderen Ländern in erheblichem Maße aktiv – besonders aus den Niederlanden, aus Großbritannien, Frankreich, Skandinavien und China. Mit der Provinzial Rheinland hat ein großer öffentlicher Versicherer in Düsseldorf seinen Sitz. Ein weiteres bekanntes Versicherungsunternehmen aus der Landeshauptstadt ist der ARAG-Konzern. Seit der Jahrtausendwende hat sich in Düsseldorf zudem eine lebendige Startup-Szene im Bereich der Internetwirtschaft entwickelt, die allerdings mit Städten wie Berlin, Hamburg und München noch nicht konkurrieren kann. Zu den bekanntesten Düsseldorfer Start-ups zählt die Hotelsuchmaschine Trivago. Die wirtschaftliche Stärke Düsseldorfs hat der Stadt zu soliden kommunalen Finanzen mit ausgeglichenen Haushalten seit 1999 verholfen. Seit dem 12. September 2007 ist die Stadt als zweite Großstadt Deutschlands schuldenfrei. Als erste deutsche Stadt hat sich Düsseldorf zudem 2005 einem Kreditrating unterzogen und wurde hierbei von der Ratingagentur Moody’s mit Aa1 bewertet, der zweitbesten möglichen Wertung. Die Kreditwürdigkeit Düsseldorfs wurde damit höher eingeschätzt als etwa jene Nordrhein-Westfalens (Aa2), der Deutschen Bank (Aa3) oder der Commerzbank (A2). 2012 betrug das Bruttoinlandsprodukt in Düsseldorf 41,5 Milliarden Euro. Das ist ein Anteil von 7,1 Prozent am Bruttoinlandsprodukt Nordrhein-Westfalens im Jahr 2012. Das BIP pro Erwerbstätigem in Düsseldorf betrug 2012 82.667 Euro – 125,3 Prozent des Werts in ganz Nordrhein-Westfalen. Im bundesweiten Städtevergleich liegt die Stadt damit zusammen mit Frankfurt am Main an der Spitze in Deutschland. Der Kaufkraftindex für die Landeshauptstadt liegt im langjährigen Vergleich rund 20 Prozent über dem Bundesdurchschnitt. Trotz der differenzierten Wirtschaft und der guten Rahmenbedingungen liegt die Arbeitslosigkeit seit Jahren höher als im Bundesdurchschnitt, was mit dem Wegfall von über 50.000 Arbeitsplätzen in der Industrie und dem verarbeitenden Gewerbe in den vergangenen 30 Jahren zusammenhängt. Der Immobilienstandort Düsseldorf, der innerhalb der Metropolregion Rhein-Ruhr die Spitzenstellung einnimmt, zieht aufgrund seiner Werthaltigkeit sowie aufgrund seiner guten demografischen und wirtschaftlichen Aussichten hochwertige Immobilienentwicklungen und Investitionen an, sowohl im gewerblichen Bereich als auch auf dem Sektor der Wohnimmobilien. Das Beratungsunternehmen "bulwiengesa" stuft die Stadt aufgrund ihrer Bedeutung für den Immobilienmarkt neben sechs weiteren deutschen Metropolen in die Gruppe der sogenannten "A-Städte" ein. Nach einer Untersuchung der CBRE gehörte Düsseldorf im ersten Halbjahr 2013 zu den zehn führenden Investmentmärkten für Gewerbeimmobilien in Europa. Bevölkerungswachstum (vor allem durch Zuzug von Neubürgern) und eine steigende Belegung von Wohnflächen durch Ältere könnten die Wohnflächennachfrage zwischen 2006 und 2025 um insgesamt 3,1 Prozent steigen lassen. Die durch die Metropolisierung geförderte Gentrifizierung, die sich auf dem Wohnungsmarkt stark nachgefragter Stadtteile als Verdrängung einkommensschwacher Milieus durch Neubürger mit höherem Einkommen realisiert, führt in der Stadt zunehmend zu einer wohnungspolitischen Debatte. Der starken Nachfrage nach Wohnungen stehen eine geringe Zahl freier Wohnungen und eine geringe Zahl von Wohnungsneubauten gegenüber, was die Preise für Wohnraum nach oben treibt. Diese vorerst anhaltende Situation führt nach Ansicht von Wohnungsmarktbeobachtern zu einem optimalen wirtschaftlichen Umfeld für renditeträchtige Investitionen, insbesondere für Investitionen in den modern konzipierten, hochwertigen Geschosswohnungsneubau, zumal infolge der geringen Neubautätigkeiten der letzten Jahrzehnte mittlerweile etwa 81 Prozent des Wohnungsbestandes älter als 30 Jahre ist. Gemessen am durchschnittlichen Nettohaushaltseinkommen der Düsseldorfer liegen die Mietpreise in der Stadt im großstädtischen Vergleich allerdings niedrig. Eine im Oktober 2012 veröffentlichte Untersuchung des Immobilienverbandes Deutschland ergab, in Bezug auf eine Dreizimmer-Mietwohnung mit 70 Quadratmetern in mittlerer Lage als Referenzgröße, dass ein Düsseldorfer Haushalt dafür im Durchschnitt 19,8 Prozent des Einkommens aufwendet, ein durchschnittlicher Berliner Haushalt jedoch 23,0 Prozent. 2013 berichtete die Deutsche Bundesbank, dass die Preisentwicklung auf Wohnungsmärkten in deutschen Großstädten, namentlich auch in Düsseldorf, möglicherweise zu „Übertreibungen“ geführt hätte. Als Folge der Finanz- und Weltwirtschaftskrise überlagerten sich in Düsseldorf in den letzten Jahren mehrere Trends, die bei Wohnimmobilien außergewöhnlich hohe Kauf- und Mietpreisanstiege erzeugten, vor allem in den innerstädtischen Lagen: ein Trend zurück in die Stadt (Reurbanisierung), kommunale Liberalisierungsbestrebungen, negative Realzinsen, die „Flucht“ von Privatanlegern in Sachwerte, schlechte Anlagealternativen für risikoarme Investments institutioneller Investoren und ein gewisses Bevölkerungswachstum. Verkehr. Düsseldorf zählt unter den Städten mit vergleichbarer Bedeutung zu den Zentren mit den dichtesten und leistungsfähigsten Verkehrsinfrastrukturen in der Welt. Hierzu trägt besonders die gute Ausstattung mit Anlagen des öffentlichen Personennahverkehrs und des motorisierten Individualverkehrs bei. Außerdem reduzieren die geringere Stadtgröße und die Lage in einer verkehrlich gut ausgebauten polyzentrischen Raumstruktur die Wahrscheinlichkeit von Verkehrsstaus erheblich. Im Hinblick auf Erreichbarkeitspotenziale im Straßen- und Schienenverkehr weist die Metropolregion Rhein-Ruhr, in deren Zentrum Düsseldorf liegt, die Spitzenposition in Europa auf. Dem gegenüber steht beispielsweise ein Vergleich der Unternehmensberatung Arthur D. Little, die Düsseldorf im Hinblick auf die Abstimmung und Vernetzung der ÖPNV-Systeme deutscher Großstädte auf dem letzten Platz sieht. Carsharing. Neben stationärem Carsharing bieten seit 2012 Car2go, Greenwheels, Stadtmobil und DriveNow erstmals in direkter Konkurrenz Free Floating Cars an, die im städtischen Straßenraum Düsseldorfs auf jedem regulären Parkplatz abgestellt werden dürfen. Flugverkehr. Der Düsseldorf Airport ist gemessen an den Passagierzahlen nach Frankfurt und München der drittgrößte internationale Flughafen Deutschlands. Im Jahre 2012 flogen rund 20,8 Millionen Menschen mit 60 verschiedenen Fluggesellschaften von und zu weltweit 200 Zielen in über 50 Ländern. Die Lage des Flughafens Düsseldorf zeichnet sich durch seine Nähe zum Stadtzentrum sowie zum Messegelände in Stockum aus und ermöglicht daher kurze Transferzeiten. In der weiteren Umgebung bieten die Flughäfen Bonn, Dortmund und Weeze ebenfalls kontinentale und interkontinentale Flugverbindungen an. Häfen und Wasserstraßen. Düsseldorf liegt durch seine Position am Rhein auch an der Schifffahrtsroute Rotterdam–Constanța, die die Nordsee mit dem Schwarzen Meer verbindet. Durch zwei Häfen ist Düsseldorf in Reisholz und in Innenstadtnähe im gleichnamigen Stadtteil an das europäische Binnenwasserstraßennetz angebunden. Des Weiteren gibt es Anlegestellen für die Köln-Düsseldorfer Rheinschifffahrts AG (kd) und die Weiße Flotte der Rheinbahn. Für Wassersportler gibt es am Rheinpark Golzheim einen Sport- und Yachthafen. Einbindung in das Autobahn- und Bundesstraßennetz. Das Stadtgebiet Düsseldorfs ist von folgenden Bundesautobahnen umgeben beziehungsweise wird teilweise von diesen berührt: Im Norden die A 44 Aachen–Velbert und die A 52 Marl–Essen–Düsseldorf, im Süden die A 46 Heinsberg–Hagen und die A 59 vom Autobahnkreuz Düsseldorf-Süd in Richtung Leverkusen, im Westen die A 52 Düsseldorf–Roermond und die A 57 Köln–Nimwegen sowie im Osten die A 3 Frankfurt am Main–Oberhausen. Von diesen bilden die A 3, die A 44, die A 46 und die A 57 den Autobahnring Düsseldorf. Ferner führen die Bundesstraßen B 1, B 7, B 8, B 228 und B 326 durch die Stadt. Eisenbahnverkehr. Düsseldorf verfügt über die ICE-Fernbahnhöfe "Hauptbahnhof" und "Düsseldorf Flughafen", den Regionalbahnhof "Benrath" sowie 25 S-Bahn-Stationen. Der Flughafen ist dabei einerseits über den Fernbahnhof, der den Übergang in Züge der Kategorien IC/EC und ICE sowie in den Regionalverkehr und die S-Bahn-Linie 1 ermöglicht, und andererseits über den S-Bahnhof Düsseldorf-Flughafen Terminal doppelt an das Schienennetz angebunden. Im Eisenbahngüterverkehr ist Düsseldorf jedoch nach Stilllegung und Abbruch seines Rangierbahnhofes Düsseldorf-Derendorf "kein" Eisenbahnknoten mehr, der größte Güterbahnhof des gesamten Düsseldorfer Eisenbahnkomplexes ist heute im Bahnhof des benachbarten Neuss. Des Weiteren verfügt die Stadt über ein dichtes Netz an Stadtbahnen, Straßenbahnen- und Stadtbus-Linien. Der öffentliche Personennahverkehr (ÖPNV) in der Stadt wird durch die Rheinbahn, die Regiobahn und die Deutsche Bahn betrieben. Alle Linien sind zu einheitlichen Preisen innerhalb des Verkehrsverbundes Rhein-Ruhr zu benutzen. Bei Fahrten in Richtung Leverkusen gilt seit dem 1. Februar 2005 der Tarif des Verkehrsverbundes Rhein-Sieg als Übergangstarif. Straßenbahn- und Stadtbahnnetz. Ein Straßenbahnnetz wurde gegen Ende des 19. Jahrhunderts aufgebaut, zunächst mit Wagen, die von Pferden über die Gleise gezogen wurden, ab 1896 dann elektrisch. Dieses Bahnnetz umfasste auch Fernlinien nach Krefeld (K-Bahn) und Duisburg (D-Bahn) sowie von Benrath nach Solingen-Ohligs. Die Fernverbindungen nach Krefeld und Duisburg werden bis heute als Stadtbahnlinien U 70 und U 76 (Krefeld) sowie U 79 (Duisburg) bedient. Weitere ortsübergreifende Linien bestehen nach Neuss und Ratingen. Ab 1982 begann der Betrieb der Stadtbahn Düsseldorf. Die Stadtbahn Düsseldorf umfasst derzeit sieben Linien, die im Kernbereich des Innenstadttunnels zwischen U-Bahnhof Heinrich-Heine-Allee und dem Hauptbahnhof parallel verlaufen. Alle Stadtbahnstrecken haben oberirdische Zulaufstrecken, teilweise verläuft das Gleisbett dort auf der Fahrbahn für den Autoverkehr. Eine weitere Tunnelstrecke, die Wehrhahn-Linie, befindet sich im Bau. Der U-Bahnhof Heinrich-Heine-Allee wird zum zentralen Umstiegspunkt zwischen allen Stadtbahnlinien werden. Es wird drei neue Stadtbahnlinien geben. Fahrrad- und Fußgängerverkehr. Seit dem Jahr 2008 verfügt die Innenstadt Düsseldorfs über ein Fahrradverleihsystem mit Netzcharakter, das auch für Einwegfahrten geeignet ist. Betreiber ist das Unternehmen nextbike. 2011 stehen 400 Mieträder an 58 markierten Stationen im Stadtgebiet zur Verfügung. Pedelecs werden an der Fahrradstation am Hauptbahnhof verliehen. Die Stadt Düsseldorf ist Mitglied der Arbeitsgemeinschaft fußgänger- und fahrradfreundlicher Städte, Gemeinden und Kreise in Nordrhein-Westfalen, von der sie 2007 das Prädikat „fahrradfreundliche Stadt“ verliehen bekommen hat, auch wenn das Radwegenetz nach Ansicht vieler Bürger noch als sehr lückenhaft angesehen wird. Düsseldorf ist eine der wenigen Städte in Deutschland, deren Lichtsignalanlagen für Fußgänger über eine separate Gelbphase verfügen. Hier wird das Gelbsignal durch einen rechteckigen gelben Balken gekennzeichnet. Während dieser Zeit haben die Fußgänger die Möglichkeit, die Kreuzung zu räumen, ohne – wie in anderen Städten – gegen Rot laufen zu müssen. Unmittelbar nachdem das Fußgängersignal von Gelb auf Rot wechselt, wird die Freigabe für den Querverkehr eingeleitet. Auch vor der Grünphase gibt es für Fußgänger eine kurze Rot-Gelb-Phase von weniger als einer Sekunde Dauer. Ampeln in Düsseldorf sind zu einem erheblichen Teil bereits auf Leuchtdioden-Technik umgestellt, was gegenüber Glühlampen niedrigeren Wartungsaufwand, bessere Erkennbarkeit und auch einen geringeren Energieverbrauch gewährleisten soll. Technologie, Industrie und verarbeitendes Gewerbe. a>-Europazentrale, seit 2013 Sitz des Wirtschaftsministeriums Düsseldorfs stürmische Entwicklung zur Großstadt wurde durch die Ansiedlung von Industriebetrieben im 19. Jahrhundert vorangetrieben. Noch heute ist die nordrhein-westfälische Landeshauptstadt eine industriell geprägte Stadt. Die 1129 Betriebe des verarbeitenden Gewerbes (ohne Baugewerbe und Energie- und Wasserversorgung) erwirtschafteten 2005 etwa 29 % des steuerbaren Umsatzes aller Unternehmen in der Stadt und damit nur etwas weniger als der Handel (ca. 32 %), aber deutlich mehr als das Dienstleistungsgewerbe (ca. 9 %). Allerdings ist die Bedeutung des verarbeitenden Gewerbes in den vergangenen Jahren deutlich zurückgegangen. Während die Düsseldorfer Industriebetriebe 1979 noch 90.000 Arbeitsplätze boten, ist die Beschäftigtenzahl in diesem Bereich bis 2006 auf nur noch 38.791 im Jahresmittel zurückgegangen mit fallender Tendenz. Der größte und bekannteste Düsseldorfer Industriebetrieb ist der Henkel-Konzern, ein Chemieunternehmen, das Wasch- und Reinigungsmittel, Kosmetik und Körperpflegeprodukte sowie Klebstoffe, Dichtstoffe und Produkte für die Oberflächentechnik herstellt und bis heute im Stadtteil Reisholz produziert. Im Bereich Kosmetik und Hygienemittel sind in Düsseldorf die L’Oréal Deutschland GmbH, die Marbert AG sowie die Hakle-Kimberly Deutschland GmbH (Kimberly-Clark Corporation) tätig. Im Bereich Medizintechnik und Pharma ist die Firma Gerresheimer AG ansässig, ein MDAX-notierter, weltweit tätiger Experte für Hochleistungsgläser und biokompatible Kunststoffprodukte. Das metallverarbeitende Gewerbe hat eine lange Tradition. Das bekannteste Unternehmen aus diesem Bereich war Mannesmann, das nach seiner Zerschlagung in Teilen in Düsseldorf weiter produziert, darunter die Vallourec & Mannesmann Tubes (Stahlröhren). Ebenfalls bekannt ist der Rheinmetall-Konzern, der größte deutsche Waffenproduzent. Weitere metallverarbeitende Unternehmen sind Schmolz + Bickenbach (Edelstahl-Langprodukte) und Hille & Müller GmbH. Seit 2011 hat die GEA Group AG, ein international tätiges Unternehmen im Bereich des Spezialmaschinenbaus, ihren Sitz in Düsseldorf. Im Bereich Fahrzeugtechnik, Verkehr und Transport ist der größte Betrieb das Mercedes-Benz-Werk in Derendorf, in dem der Mercedes-Benz Sprinter und der VW Crafter montiert werden sowie CKD für Freightliner Sprinter hergestellt werden. Ebenfalls in Derendorf befindet sich die Zentrale der Rheinmetall AG, einem Hersteller von Automobil- und Rüstungstechnik. Demag Cranes produziert in Benrath Hafen-, Terminal- und Eisenbahnkräne sowie automatisch gesteuerte Transportfahrzeuge und entwickelt dazugehörige Management- und Navigationssoftware. Benachbart stellt die Komatsu Mining Germany GmbH Großhydraulik- und Minenhydraulikbagger her. Demag Cranes und Komatsu Mining Germany verbindet der gemeinsame Ursprung aus der Carlshütte AG. Weiterhin stellt die Vossloh Kiepe GmbH Steuerungs- und Antriebstechnik für Straßenbahnen und O-Busse sowie Hybridantriebe und Spezialfahrzeuge her. Die Walther Flender Gruppe ist weltweiter Anbieter von Antriebs- und Fördertechnik. Aus der Vergangenheit sind die Schiess AG und die DUEWAG erwähnenswert. Die Papierindustrie ist in der Stadt durch die Firmen Julius Schulte Söhne GmbH & Co. und den Stora-Enso-Konzern vertreten, der bis 2008 einen Produktionsstandort in Reisholz betrieb und heute seine Deutschlandzentrale in Düsseldorf unterhält. Seinen Ursprung hat die Papierproduktion in Düsseldorf im Feldmühle-Konzern. Guschky & Tönnesmann GmbH & Co. KG stellen Ausrüstungen für die Papier- und Verpackungsindustrie her. Aus dem Bereich Nahrungsmittel sind Zamek Nahrungsmittel GmbH & Co. KG, die Teekanne GmbH, die Düsseldorfer Löwensenf GmbH sowie BASF Personal Care and Nutrition und die Fortin Mühlenwerke bekannt. Das traditionelle Altbier wird außer in Hausbrauereien in Düsseldorf heute jedoch nicht mehr gebraut. Die großen Brauereistandorte in Derendorf und Heerdt sind heute Konversionsflächen. Mit der Deutschen Tiernahrung Cremer ist Deutschlands größter Mischfutterhersteller in Düsseldorf beheimatet. Weitere bekannte Betriebe sind die SMS Siemag, die Hütten- und Walzwerkstechnik herstellt, die TELBA AG im Bereich Telekommunikations- und Sicherheitstechnik, die behr Labor-Technik GmbH, A.u.K. Müller GmbH & Co. KG, ein weltweit operierender Spezialist und Anbieter von Magnetventilen, MHG Strahlanlagen GmbH sowie die "Carborundum-Dilumit Schleiftechnik GmbH", eine Spezialistin für Schleifscheiben, die aus der insolventen "Carbo Group" hervorgegangen ist. Handel und Dienstleistungsgewerbe. Mit der Metro-Gruppe und ihrer Tochter Metro Cash & Carry sitzt einer der größten Handelskonzerne der Welt in der nordrhein-westfälischen Landeshauptstadt. Weiterhin befinden sich die Zentralen von Bekleidungshäusern wie Peek & Cloppenburg Düsseldorf (P&C) sowie C&A im Stadtgebiet. Als Standort des Modehandels und durch die Messen "igedo" und "CPD" konnte die Stadt den Ruf einer Modestadt erwerben. Einen Schwerpunkt der städtischen Wirtschaftsstruktur bilden mit rund 1.500 Unternehmen und 24.000 Beschäftigten die Branchen der Informations- und Kommunikationstechnik, darin besonders die Mobilfunkbranche. Mehr als die Hälfte des deutschen Mobiltelefon- und SIM-Karten-Absatzes wird von Düsseldorf aus gesteuert. Die Vodafone GmbH als Nachfolgerin von Mannesmann Mobilfunk hat ihren Sitz ebenso in der Stadt wie E-Plus. Vodafone hat darüber hinaus seine Deutschland- und seine Europazentrale im Vodafone-Campus im linksrheinischen Düsseldorf-Heerdt angesiedelt. Im Jahre 2008 hat das chinesische Telekommunikationsunternehmen Huawei sein europäisches Headquarter von London nach Düsseldorf verlegt. Hier baut das Unternehmen seine Europazentrale und ein Forschungs- und Entwicklungszentrum für die Bedürfnisse seiner europäischen Kunden auf. Schon 2005 hatte der ebenfalls chinesische Telekommunikationsausrüster ZTE Deutschland GmbH sein Hauptquartier in Düsseldorf errichtet. Das schwedische Telekommunikationsunternehmen Ericsson tat dies für sein Deutschlandgeschäft bereits 1955. Die Holding der E.ON AG sowie mehrere ihrer Tochterunternehmen haben ihren Hauptsitz in Düsseldorf. Weitere Energieversorger im Stadtgebiet sind die Stadtwerke Düsseldorf und die Naturstrom AG. Mister Minit, eines der größten Franchiseunternehmen Deutschlands, hat seine Servicezentrale seit 2011 im Düsseldorfer Norden. Medien. In Düsseldorf befinden sich Studios der öffentlich-rechtlichen Fernsehsender Westdeutscher Rundfunk (WDR-Studio Düsseldorf) und Zweites Deutsches Fernsehen (ZDF-Landesstudio Düsseldorf). Aus Düsseldorf kommen außerdem die Programme von NRW.TV und QVC. Ehemals in Düsseldorf ansässig waren von 1998 bis 2006 NBC GIGA, von 1995 bis zu seiner Einstellung 1998 Nickelodeon sowie von 1996 bis zu seiner Einstellung 1998 Der Wetterkanal. Außerdem wurde aus der Landeshauptstadt bis Ende 2003 ein deutsches Programmfenster auf dem Nachrichtensender CNN produziert. Die in Düsseldorf ansässige DFA produzierte oder produziert unter anderem für NBC GIGA, Der Wetterkanal, CNN D und für NRW.TV. Seit 2006 produziert das in Düsseldorf ansässige center.tv lokale Nachrichten und Ereignisse für den Großraum Düsseldorf/Neuss. Des Weiteren befinden sich in Düsseldorf diverse unabhängige Filmproduktionsfirmen, wie zum Beispiel die Public Vision TV OHG und Busse & Halberschmidt. Ebenso hat die Nachrichtenagentur ISQ.networks Press Agency mit 24.000 Beschäftigten weltweit ihr globales Headquarter im GAP 15 am Graf-Adolf-Platz. Das Unternehmen verfügt zwar über mehr als 100 Studios weltweit, in Düsseldorf selbst ist jedoch kein Studio vorhanden. Der landesweite TV-Lernsender nrwision bündelt in seiner Mediathek Fernsehsendungen über Düsseldorf bzw. von Fernsehmachern aus Düsseldorf. Die Stadt ist auch Sitz des 1990 gegründeten "Verbands der Betriebsgesellschaften in Nordrhein-Westfalen e. V. (BGNRW)", der die Interessen von 43 Betriebsgesellschaften des nordrhein-westfälischen Lokalfunks vertritt. Der Verband ist Mitglied in der "Arbeitsgemeinschaft Privater Rundfunk (APR)" mit Sitz in München. In Düsseldorf ist die private Rundfunkstation Antenne Düsseldorf mit Rahmenprogramm von Radio NRW ansässig. Hörfunk für die Düsseldorfer Hochschulen macht hochschulradio düsseldorf, ein Campusradio mit eigener 24-Stunden-Frequenz. Als Tageszeitungen erscheinen in Düsseldorf die Westdeutsche Zeitung, die Rheinische Post, eine Lokalausgabe des Express sowie von der in Essen erscheinenden Neue Ruhr-Zeitung. Die Regionalseiten in der Welt kompakt erschienen letztmals am 28. August 2015. Als bedeutende überregionale Veröffentlichungen sind das Handelsblatt, die Wirtschaftswoche und die mittlerweile eingestellte Junge Karriere zu nennen. Wöchentlich erscheinen außerdem das Düsseldorfer Amtsblatt und die Anzeigenblätter „Düsseldorfer Anzeiger“ und „Rheinbote“. Zudem ist die Stadt der Sitz des bundesweit erscheinenden Content-Marketing-Magazins Wirtschaftsblatt. Düsseldorf ist zudem der umsatzstärkste Werbestandort der Bundesrepublik. Neben den Riesen BBDO, Grey und Ogilvy & Mather und Publicis hat eine Vielzahl kleiner Agenturen ihren Sitz oder eine deutsche Niederlassung in Düsseldorf. Informationstechnologie (IT) und Datenverkehr. Düsseldorf gehört zu den führenden IT-Standorten in Deutschland. Die IT-Infrastruktur der Stadt verfügt über internationale und regionale Internet-Knoten. Ab Oktober 2011 steht in Düsseldorf das LTE-Mobilfunknetz zur Verfügung. Am 9. Januar 2012 soll der Probebetrieb für den "Digitalfunk der Behörden und Organisationen mit Sicherheitsaufgaben (BOS)" in Düsseldorf starten. Die Firma Wall AG bietet an demnächst 50 Hotspots kostenlos öffentliches Einzelhandel. Düsseldorf hat sich als vielseitiger Standort für Einkaufszentren und Geschäfte unterschiedlichster Art und Größe entwickelt. Die Gesamtverkaufsfläche im Stadtgebiet wird seitens der Stadtverwaltung mit 834.215 m² angegeben und liegt damit bezogen auf das Verhältnis von Verkaufsfläche zu Einwohnern höher als in München und niedriger als in Frankfurt am Main. Insbesondere im Bereich der Mode hat die Stadt – nicht zuletzt begünstigt durch die Modemessen und die ansässigen Handelsunternehmen P&C und C&A – eine Vorreiterrolle, beim Textileinzelhandel ist sie deutschlandweit führend. Auch im Segment der Luxusbekleidung ist Düsseldorf führend. Die Kö ist laut Jones Lang LaSalle nach wie vor Deutschlands meistbesuchte Luxusmeile. Im Jahr 2012 stellte Jones Lang LaSalle in einer Untersuchung fest, dass die Kö ihren Vorsprung nochmals ausbauen konnte. Mit 5.935 (2011: 5.800) Passanten pro Stunde liegt sie weit vor der Stiftstraße in Stuttgart (2.310 Passanten) sowie der Goethestraße in Frankfurt am Main (1.520 Passanten). Die Düsseldorfer Schadowstraße ist die europaweit umsatzstärkste Einkaufsmeile. Durch den Bau einer neuen U-Bahn-Linie, der Wehrhahn-Linie, ist es jedoch zu einem Rückgang der Besucherzahlen gekommen, da die Straße abschnittsweise gesperrt ist und der Zugang zu den Geschäften dadurch eingeschränkt wird. Dennoch behält die Schadowstraße ihr Merkmal als umsatzstärkste Einkaufsstraße Europas. Einkaufszentren. a> im Jahr 2005, Ende 2011 nach Umbau wiedereröffnet. Neben den klassischen Einkaufsstraßen wie der sehr bekannten Kö, der Schadowstraße und der Flinger Straße verfügt Düsseldorf über mehrere Einkaufszentren, die teilweise an die Einkaufsstraßen angrenzen. Die Flinger Straße, die in der günstigen bis mittleren Preiskategorie liegt, schafft mit 10.150 Passanten pro Stunde erstmals den Sprung in die Top 10 der meistbesuchten Einkaufsstraßen in Deutschland. Auf der Königsallee sind dies vor allem das Kö-Center an der nördlichen Allee, die Kö-Galerie in der Nähe der Kreuzung mit der Steinstraße mit Zu- und Durchgang zur Stadtsparkasse auf der Berliner Allee und das Sevens Center zwischen der Kreuzung mit der Steinstraße und der Kö-Galerie. In Nähe zur Königsallee befinden sich zudem die Schadow-Arkaden im Block Schadow-, Blumenstraße und Martin-Luther-Platz. In weniger belebten Teilen der Innenstadt sind ebenfalls Einkaufscenter vorzufinden, insbesondere das Stilwerk auf der Grünstraße und die Düsseldorf Arcaden am Bilker Bahnhof, die auch das Stadtteilzentrum, ein öffentliches Schwimmbad und eine Zweigstelle der Stadtbüchereien Düsseldorf beheimaten. Außerhalb der Innenstadt gibt es weitere Einkaufszentren wie etwa das Einkaufszentrum Westfalenstraße an der gleichnamigen Straße in Rath, das im Frühjahr 2010 neu eröffnete B8 Center in Flingern und für die sowohl für Reisende als auch andere Besucher konzipierten AirportArkaden im Flughafen Düsseldorf. Öffentliche Einrichtungen. "Einrichtungen und Körperschaften des öffentlichen Rechts:" Düsseldorf entwickelte sich vor allem in der preußischen Ära im 19. und frühen 20. Jahrhundert zu einem wichtigen Verwaltungssitz. Die Ansiedlung des Oberlandesgericht Düsseldorf förderte diese Entwicklung besonders. Neben dem Oberlandesgericht beherbergt Düsseldorf zahlreiche weitere Gerichte, so das Amts- und das Landgericht Düsseldorf, das Sozialgericht Düsseldorf, das Finanzgericht Düsseldorf, das Verwaltungsgericht Düsseldorf, das Arbeitsgericht Düsseldorf und das Landesarbeitsgericht Nordrhein-Westfalen. Durch Düsseldorfer Gerichte wurden Entscheidungen von bundesweiter Bedeutung getroffen. Im Bereich patentrechtlicher Gerichtsverfahren haben die Zivilgerichte Düsseldorfs mittlerweile eine internationale Bedeutung erlangt. Die Deutsche Rentenversicherung Rheinland (ehemals LVA Rheinprovinz) hat seit ihrer Gründung im 19. Jahrhundert ihren Sitz in Düsseldorf. Ferner besteht ein regionaler Standort der Sozialversicherung für Landwirtschaft, Forsten und Gartenbau (SVLFG). Als direkte Folge der Verwaltungsansiedlung durch Preußen wurde das Regierungspräsidium für den Niederrhein und das Bergische Land bei der Neuordnung Preußens im 19. Jahrhundert in Düsseldorf angesiedelt. Noch heute hat die Bezirksregierung Düsseldorf hier ihren Sitz. Bis vor wenigen Jahren war ebenso die Oberfinanzdirektion Rheinland seit der preußischen Herrschaft über das Rheinland in Düsseldorf ansässig. Die Handwerkskammer Düsseldorf umfasst als Kammerbezirk den Regierungsbezirk Düsseldorf, und hat dort ebenfalls seinen Sitz. Den Kammerbezirk der Industrie- und Handelskammer zu Düsseldorf (IHK Düsseldorf) bilden die Stadt Düsseldorf und der Kreis Mettmann, die früher den Landkreis Düsseldorf-Mettmann bildeten. Die Architektenkammer Nordrhein-Westfalen, die größte Einrichtung dieser Art in Deutschland, betreut von der Landeshauptstadt aus die Architekten und Stadtplaner des Landes. Die Rechtsanwaltskammer Düsseldorf vertritt die Interessen von 11.403 Rechtsanwälten im Bezirk des Oberlandesgerichts Düsseldorf. Sie ist somit die sechstgrößte von 28 Rechtsanwaltskammern in Deutschland. Der Preußische Provinziallandtag für das Rheinland nahm ebenfalls in Düsseldorf, im Ständehaus, seinen Sitz, ebenso die Evangelische Kirche im Rheinland. Durch Entscheidung der Militärregierung der britischen Besatzungszone wurde Düsseldorf im Jahre 1946 zum Regierungssitz des Landes Nordrhein-Westfalen bestimmt. Die Stadt führt seither die offizielle, gleichwohl rechtlich nicht normierte Bezeichnung "Landeshauptstadt". Der Landtag, die Staatskanzlei, alle Landesministerien und der Landesrechnungshof sind in Düsseldorf angesiedelt; über die letzten Jahrzehnte hat sich im Bereich der Rheinkniebrücke auf dem rechten Rheinufer ein Regierungsviertel herausgebildet. Dort getroffene Richtungsentscheidungen gelten als Indikatoren für die Entwicklungen in Deutschland. Nordrhein-westfälischen Regierungsbildungen und Regierungskrisen kommen Signalwirkungen für die Bundespolitik zu. Sonstige zentrale Einrichtungen. Aber auch zahlreiche kleinere Verbände haben ihren Sitz in Düsseldorf, beispielsweise der Deutsche Verband für Schweißen und verwandte Verfahren (DVS), der Architekten- und Ingenieurverein Düsseldorf, der Landesmusikrat Nordrhein-Westfalen und der Verband türkischer Unternehmer und Industrieller in Europa. Bildung und Forschung. Düsseldorf hat als langjährige bergische Residenzstadt und späterer Verwaltungssitz in der Rheinprovinz Preußens neben repräsentativen Verpflichtungen auch stets zentralörtliche Funktionen erfüllt. Die erste Lateinschule wurde im 14. Jahrhundert erwähnt. 1545 wurde das älteste Gymnasium, dessen Tradition bis heute besteht, gegründet. Für die Ausbildung von Künstlern war Düsseldorf seit dem 18. Jahrhundert ein bedeutender Akademiestandort. Die Franziskaner boten ab 1673 theologische Kurse in Düsseldorf an. Ab 1728 wurden in Düsseldorf Kurse in Philosophie und Theologie angeboten, die als Bestandteile eines Studiums gewertet werden konnten, eine juristische Akademie erhielt 1755 die kurfürstliche Bestätigung zur Ausbildung höherer Beamter, 1747 entstand das "Collegio anatomico-chirurgicum" zur Ausbildung von Militär- und Wundärzten. Ab 1779 mussten höhere Beamte der Landesverwaltung mindestens zwei Jahre in Düsseldorf Rechtswesen studiert haben. Auf Grund der Nähe des Ruhrgebietes wurde 1917 Düsseldorf zum Sitz des Kaiser-Wilhelm-Instituts für Eisenforschung, des heutigen Max-Planck-Instituts für Eisenforschung. Eine medizinische Akademie kam zu Beginn des 20. Jahrhunderts hinzu. Dennoch wurde Düsseldorf erst 1965 Universitätsstadt. 1964 trat die Stadt dem „Institut zur Erlangung der Hochschulreife für Handwerker, Facharbeiter und andere Berufstätige mit abgeschlossener Ausbildung e.V.“ bei und ist seit dem Träger des Wilhelm-Heinrich-Riehl-Kollegs. Im Bereich der Stiftungen, die Bildung und Forschung fördern, genießt die in Düsseldorf ansässige Gerda-Henkel-Stiftung einen besonderen Ruf. Grundschulen und allgemeinbildende Schulen. In Düsseldorf gibt es 110 Grundschulen, 14 Hauptschulen, 13 Realschulen und 21 Gymnasien. Weiterhin gibt es 8 Gesamt- und Waldorfschulen sowie 6 ausländische Schulen und das Wilhelm-Heinrich-Riehl-Kolleg als Institution der Erwachsenenbildung. Einen Schwerpunkt hat die Stadt Düsseldorf auf die Qualität der Schulgebäude gelegt. So wurde im Jahr 2000 eine Immobilienfirma beauftragt, die Mängel sämtlicher Schulgebäude zu erfassen und einen Plan für deren Beseitigung zu erstellen. Statt der bis dahin jährlichen Investitionen von < 5 Mio. Euro wurde ein Bedarf von 35 Millionen Euro pro Jahr diagnostiziert. Daraufhin wurde eine „Masterplan-Schule“ beschlossen, mit dem in den Jahren 2002–2020 insgesamt 600 Millionen Euro investiert werden sollen. Deutschlandweit einzigartig ist die nachhaltige musikalische Breitenförderung durch die vom Städtischen Musikverein initiierte SingPause an mehr als der Hälfte der Düsseldorfer Grundschulen. Kindertagesstätten und Betreuungsplätze für Kinder unter drei Jahren. Durch Beschluss des Stadtrates sind die Düsseldorfer Kindertagesstätten für alle Kinder ab drei Jahren beitragsfrei, während in Nordrhein-Westfalen regulär nur das letzte Kindergartenjahr beitragsfrei gestellt ist. Bei der Quote von Betreuungsplätzen für Kinder unter drei Jahren liegt Düsseldorf an der Spitze der Großstädte in Nordrhein-Westfalen mit 38,4 % zu Beginn des Jahres 2013. Damit liegt die Betreuungsquote in Düsseldorf bereits vor Inkrafttretens des im Kinderförderungsgesetz verankerten Rechtsanspruchs auf einen Betreuungsplatz zum 1. August 2013 über dem Ziel der Landesregierung von 32 %. Dennoch strebt die Stadt zeitnah eine Betreuungsquote von 50 % und mittelfristig von 60 % an. Beurteilung von Wirtschaftskraft, Zukunftsfähigkeit und Lebensqualität durch Rankings. Düsseldorf hat in zahlreichen deutschlandweiten wie internationalen Städtevergleichen und Rankings zumeist vordere Plätze belegt. Hierbei wurden unterschiedliche Indikatoren für die Wirtschaftskraft, die Qualität der Infrastruktur und die Lebensqualität herangezogen. Insbesondere aus den internationalen Städtevergleichen ergibt sich, dass die Landeshauptstadt dem transnationalen Netz der Global Cities zugerechnet wird. Das gute Abschneiden in vielen Rankings beruht auf der Schuldenfreiheit der Stadt bei gleichzeitig hohem Vermögensstand, dem internationalen Flughafen, der zentralen Lage, der reichhaltigen Bildungsinfrastruktur und dem Kulturleben, dem hohen durchschnittlichen Pro-Kopf-Einkommen und den steigenden Einwohnerzahlen. Einzelne Rankings berücksichtigen auch Faktoren wie die Dichte international tätiger Unternehmen oder das reiche Angebot an Grünflächen und Naherholungsgebieten. Ehrungen. Die Stadt Düsseldorf vergibt neben dem Ehrenbürgerrecht noch andere Ehrungen und Auszeichnungen. Seit 1972 wird im dreijährigen, seit 1981 im zweijährigen Abstand der Heinrich-Heine-Preis an „Persönlichkeiten, die durch ihr geistiges Schaffen im Sinne der Grundrechte der Menschen, für die sich Heinrich Heine eingesetzt hat, den sozialen und politischen Fortschritt fördern, der Völkerverständigung dienen oder die Erkenntnisse von der Zusammengehörigkeit aller Menschen verbreiten“. Vorgänger des Preises war der Immermann-Preis. Der Helmut-Käutner-Preis ist eine zweijährlich vergebene Auszeichnung, die an Persönlichkeiten verliehen wird, die „durch ihr Schaffen die Entwicklung der deutschen Filmkultur nachdrücklich unterstützt und beeinflusst, ihr Verständnis gefördert und zu ihrer Anerkennung beigetragen haben“. Der Förderpreis für Literatur der Landeshauptstadt Düsseldorf wird seit 1972 einmal im Jahr durch den Rat der Landeshauptstadt an Künstler und Gruppen, insbesondere der Bereiche Dichtung, Schriftstellerei, Kritik und Übersetzung vergeben. Der Förderpreis wird sowohl für eine einzige künstlerische Leistung als auch für die bisherige Gesamtleistung eines jungen Künstlers verliehen, deren bzw. dessen weitere Entwicklung eine Förderung verdient. Weitere Auszeichnungen sind der „Große Ehrenring“, der „Jan-Wellem-Ring“ und die „Verdienstplakette“. Datei. Eine Datei () ist ein Bestand meist inhaltlich zusammengehöriger Daten, der auf einem Datenträger oder Speichermedium gespeichert ist. Diese Daten können somit über die Laufzeit eines Programms hinaus existieren und werden als "persistent" bezeichnet – sie sind bei Programmende nicht verloren. In der elektronischen Datenverarbeitung ist der Inhalt jeder Datei zunächst eine eindimensionale Aneinanderreihung von Bits, die normalerweise in Byte-Blöcken zusammengefasst interpretiert werden. Erst der Anwender einer Datei bzw. ein Anwendungsprogramm oder das Betriebssystem selbst interpretieren diese Bit- oder Bytefolge beispielsweise als einen Text, ein ausführbares Programm, ein Bild oder eine Tonaufzeichnung. Eine Datei besitzt also ein Dateiformat. Wortherkunft und Übersetzung. Das Wort „Datei“ ist ein Kofferwort aus "Da"ten und Kar"tei", geschaffen durch das Deutsche Institut für Normung (DIN). Der deutsche Begriff „Datei“ ist deutlich enger gefasst als die englische Übersetzung "file", welche oft auch eine (Papier-)Akte, eine (Papier-)Kartei oder einen Karteikasten beschreibt. Evtl. ist eine Präzisierung auf ' oder ' notwendig. Der Duden lässt eine Bedeutung von „Datei“ als (Papier-)Sammlung von Informationen zu, diese Verwendung ist aber wohl selten. Dateisysteme. Dateien werden in den meisten Betriebssystemen über Dateisysteme verwaltet. Ein Dateisystem verwaltet das Speichermedium, indem in Listen vermerkt wird, welche Bereiche des Mediums durch welche Dateien belegt sind, welche Bereiche frei sind, sowie oft oder abgeschlossenen Änderungen. Obwohl eine Aufgabe des Dateisystems darin besteht, vom konkreten Medium zu abstrahieren („alle gleich zu behandeln“), sind doch viele Dateisysteme an die üblichen technischen Eigenschaften der Speichermedien angepasst (z. B. Blockgröße 512 Byte für Festplatten). Für die meisten Dateisysteme ist 1 Byte die kleinste Verwaltungseinheit, d. h. die Länge des Dateiinhalt-Bitstroms muss auf ganze Bytes aufgehen (wobei im Allgemeinen auch 0 Byte = 0 Bit erlaubt sind). Das Dateisystem verwaltet neben Verzeichnissen mit Dateinamen und -speicherort noch weitere Dateiattribute. Zu diesen gehören der Dateityp (Verzeichnis, normale Datei, spezielle Datei), die Dateigröße (Anzahl der Bytes in der Datei), Schreib- und Leserechte, Zeitstempel („Datum“, der Erzeugung, des letzten Zugriffs und der letzten Änderung) sowie gegebenenfalls noch andere Informationen. Eine Datei kann durch ein Attribut als versteckte Datei gekennzeichnet werden. Die in Dateinamen verwendbaren Zeichen sind abhängig von Dateisystem, Betriebssystem und gegebenenfalls Sprachoptionen. Bei Unix-kompatiblen Dateisystemen dürfen in einem Dateinamen kein Schrägstrich („/“) und kein Nullzeichen stehen, ferner ist die Länge des Dateinamens auf 255 Zeichen begrenzt. Die Zeichen können unterschiedlich codiert sein. Neuere Betriebssysteme unterstützen auch Unicode. Arten von Dateien. Moderne Dateisysteme unterstützen auch sogenannte „Sparse-Dateien“: Nur tatsächlich mit Daten gefüllte Abschnitte einer (großen) Datei werden tatsächlich gespeichert; die dazwischen liegenden „freien Bereiche“ werden nicht gespeichert und als „mit Null-Bytes gefüllt“ angenommen/bewertet. Manche Dateisysteme bieten ferner an, Dateien transparent zu komprimieren oder zu verschlüsseln („transparent“: Das lesende/bearbeitende Programm kann die Datei normal verwenden, als ob die Datei nicht komprimiert/verschlüsselt wäre – es „sieht durch diesen Vorgang ungestört hindurch“). wie Dateien gehandhabt (vor allem Betriebssysteme der Unix-Familie). Möglichkeiten, das Dateiformat zu kennzeichnen, beinhalten Eine solche Kennzeichnung ist teilweise obligatorisch, teilweise dient sie lediglich der Orientierung des Benutzers. Oft fehlen Kennzeichnungen jeder Art; für solche Situationen gibt es spezielle Programme, die den Typ einer Datei zu bestimmen versuchen. Im Unix-Umfeld ist dafür z. B. der Befehl "file" sehr verbreitet. Symbolische Darstellung. In grafischen Dateimanagern wie Finder, Windows-Explorer, Nautilus oder Dolphin werden Dateien gewöhnlich als Liste oder Symbole auf einem Arbeitsblatt (Fenster, Ordner u. a.) dargestellt. Dateimanager. Ein Dateimanager () ist ein Computerprogramm zum Verwalten von Inhalten auf Dateisystemen, die sich auf unterschiedlichen Speichermedien befinden können. Neben der übersichtlichen Darstellung in Form einer (oft grafischen) Benutzerschnittstelle zählen das Auflisten, das Umbenennen und Verschieben, das Kopieren und das Löschen von Dateien und Verzeichnissen zu den Grundfunktionen. Gängig ist auch die Möglichkeit zur Bearbeitung von Metadaten unterstützter Dateisysteme, wie beispielsweise Dateiattribute, Dateiberechtigungen und Verknüpfung. Geschichte. Anders als im Server-Umfeld, in dem teils heute noch textbasierte Shells vorzufinden sind, entstand auf Personal Computern schon früh eine grafische Bedienoberfläche (, kurz “GUI”), in der die Aufgabe des Dateimanagements ein spezielles Programm übernahm: der Dateimanager. Anfang der 1980er Jahre findet man einfache Dateimanager beim Xerox Star oder bei der Apple Lisa. Weil diese Systeme für damalige Verhältnisse teuer waren, setzten sie sich nicht durch. Erst Mitte der 1990er Jahre findet sich der Dateimanager als Teil des Standardrepertoires fast aller Desktop-Betriebssysteme. Bis dahin gab es einige meist textbasierte Dateimanager für die meistverbreiteten Betriebssysteme, etwa den Norton Commander unter DOS. In aktuellen Betriebssystemen für PCs und Notebooks ist immer ein Dateimanager enthalten. Auch gibt es eine Vielzahl an Dateimanagern von Drittanbietern für alle gängigen Betriebssysteme, die dem enthaltenen Dateimanager meist in einigen Punkten überlegen sind. Außer auf PCs findet man sie jedoch auch auf PDAs, eingebetteten Systemen (wie Routern oder Firewalls), Satellitenreceivern und Smartphones, obwohl sie auf vielen dieser Systeme meist nachinstalliert werden müssen. Der Grund hierfür ist einerseits die Computer-Sicherheit, andererseits wünscht der Hersteller eines solchen Geräts oft nicht, dass ein Anwender direkt am Dateisystem arbeitet. Konzepte. Navigatorische Dateimanager stellen die Inhalte eines beliebigen Verzeichnisses umschaltbar in einem Fenster dar, wobei noch eine Übersicht der Verzeichnisstruktur und ihrer Dateiinhalte, wie beispielsweise eine Baumansicht neben der Verzeichnisansicht, möglich ist. Bekannte Beispiele sind der Windows-Explorer und Nautilus. NeXTStep und Mac OS X sowie einige weitere Dateimanager wie ranger oder One Commander verwenden mit den "Miller-Spalten" eine Darstellung, in der die Ordnerstruktur horizontal statt vertikal angezeigt wird. Dateimanager nach Vorbild des PathMinders mit zweispaltiger Ansicht () stellen die Inhalte zweier Verzeichnisse gegenüber dar. Beim räumlichen Konzept (Spatial) wird für jeden geöffneten Ordner ein neues Fenster erzeugt, was als Entsprechung zum Umgang mit physischen Objekten wirken soll. Dabei ist ein einzelnes Fenster fest einem bestimmten Verzeichnis zugeordnet und umgekehrt. Dateisystem. Das Dateisystem (oder) ist eine Ablageorganisation auf einem Datenträger eines Computers. Dateien können gespeichert, gelesen, verändert oder gelöscht werden. Für den Nutzer müssen Dateiname und computerinterne Dateiadressen in Einklang gebracht werden. Das leichte Wiederfinden und das sichere Abspeichern sind wesentlich. Das Ordnungs- und Zugriffssystem berücksichtigt die Geräteeigenschaften und ist normalerweise Bestandteil des Betriebssystems. Dateien haben in einem Dateisystem fast immer mindestens einen Dateinamen sowie Attribute, die nähere Informationen über die Datei geben. Die Dateinamen sind in "Verzeichnissen" abgelegt; Verzeichnisse sind üblicherweise spezielle Dateien. Über derartige Verzeichnisse kann ein Dateiname (und damit eine Datei) sowie die zur Datei gehörenden Daten vom System gefunden werden. Ein Dateisystem bildet somit einen Namensraum. Alle Dateien (oder dateiähnlichen Objekte) sind so über eine eindeutige Adresse (Dateiname inkl. Pfad oder URI) – innerhalb des Dateisystems – aufrufbar. Der Name einer Datei und weitere Informationen, die den gespeicherten Dateien zugeordnet sind, werden als Metadaten bezeichnet. Für unterschiedliche Datenträger (wie Magnetband, Festplattenlaufwerk, optische Datenträger (CD, DVD, …), Flashspeicher, …) gibt es spezielle Dateisysteme. Das Dateisystem stellt eine bestimmte Schicht des Betriebssystems dar: Alle Schichten darüber (Rest des Betriebssystems, Anwendungen) können auf Dateien abstrakt über deren Klartext-Namen zugreifen. Erst mit dem Dateisystem werden diese abstrakten Angaben in physische Adressen (Blocknummer, Spur, Sektor usw.) auf dem Speichermedium umgesetzt. In der Schicht darunter kommuniziert der Dateisystemtreiber dazu mit dem jeweiligen Gerätetreiber und mittelbar auch mit der Firmware des Speichersystems (Laufwerks). Letztere nimmt weitere Organisationsaufgaben wahr, beispielsweise den transparenten Ersatz fehlerhafter Blöcke durch Reserveblöcke. Geschichte. Historisch gesehen sind schon die ersten Lochstreifen- (auf Film- später auf Papierstreifen) und Lochkarten-Dateien Dateisysteme. Sie bilden ebenso wie Magnetbandspeicher lineare Dateisysteme. Die später für die Massenspeicherung und schnellen Zugriff entwickelten Trommel- und Festplattenspeicher ermöglichten dann erstmals durch wahlfreien Zugriff auf beliebige Positionen im Dateisystem komplexere Dateisysteme. Diese Dateisysteme bieten die Möglichkeit, per Namen auf eine Datei zuzugreifen. Das Konzept der Dateisysteme wurde schließlich soweit abstrahiert, dass auch Zugriffe auf Dateien im Netz und auf Geräte, die virtuell als Datei verwaltet werden, über Dateisysteme durchgeführt werden können. Somit sind Anwendungsprogramme in der Lage, auf diese unterschiedlichen Datenquellen über eine einheitliche Schnittstelle zuzugreifen. Organisation von Massenspeichern. Massenspeichergeräte wie Festplatten-, CD-ROM- und Diskettenlaufwerke haben normalerweise eine Blockstruktur, d. h. aus Betriebssystemsicht lassen sich Daten nur als Folge ganzer Datenblöcke lesen oder schreiben. Die Hardware der Speichergeräte präsentiert sich gegenüber dem Betriebssystem auf einer bestimmten Ebene lediglich als große lineare Fläche mit vielen nummerierten Blöcken. Ein Block umfasst heute meistens 512 (= 29) oder 4096 (= 212) Bytes, auf optischen Medien (CD-ROM, DVD-ROM) 2048 (= 211) Bytes. Moderne Betriebssysteme fassen aus Performance- und Verwaltungsgründen mehrere Blöcke zu einem Cluster fester Größe zusammen. Heute sind Cluster mit acht oder noch mehr Blöcken üblich, also 4096 Bytes pro Cluster. Die Clustergröße ist im Allgemeinen eine Zweierpotenz (1024, 2048, 4096, 8192, …). Eine Datei ist ein definierter Abschnitt eines Datenspeichers, der auf dem Gerät aus einem oder mehreren Clustern besteht. Jede Datei erhält außerdem eine Beschreibungsstruktur, die die tatsächliche Größe, Referenzen auf die verwendeten Cluster und evtl. weitere Informationen wie Dateityp, Eigentümer, Zugriffsrechte enthalten kann (Metadaten). Für die Zuordnung von Clustern zu Dateien gibt es dabei mehrere Möglichkeiten. Verzeichnisse enthalten Dateinamen und Referenzen zu den jeweiligen Beschreibungsstrukturen. Da Verzeichnisse auch Speicherflächen sind, werden meist speziell gekennzeichnete Dateien als Verzeichnisse verwendet. Die erste Beschreibungsstruktur kann dabei das Ausgangsverzeichnis enthalten. Ein weiterer eigener Bereich auf dem Speichermedium dient der Buchführung, welche Blöcke oder Cluster schon belegt und welche noch frei sind. Ein oft dafür genutztes Mittel ist die "Block Availability Map" (BAM), in der für jeden Block ein Speicherbit angelegt ist, das anzeigt, ob der Block belegt oder frei ist. Die BAM enthält im Prinzip redundante Informationen und dient der Effizienz der Verwaltung; sollten die dort gespeicherten Informationen verlorengehen, so kann die BAM neu erstellt werden. Im Allgemeinen ist der erste Block für einen so genannten "Bootblock" (z. B. Master Boot Record) reserviert, der für das Hochfahren des Systems verwendet werden kann. Auf einem Speichermedium mit mehreren Partitionen steht unmittelbar im Anschluss typischerweise die Partitionstabelle, die Organisationsdaten zu den Partitionen enthält. Weder Bootblock noch Partitionstabelle sind Teil des eigentlichen Dateisystems. Meist enthält jede Partition ein eigenes, von den Daten auf anderen Partitionen unabhängiges Dateisystem; die Ausführungen oben beziehen sich auf die einzelnen Partitionen, die sich eine nach der anderen an die Partitionstabelle anschließen. Aus Effizienzgründen, also vor allem zur Erhöhung der Leistung/Zugriffsgeschwindigkeit, wurden diverse Strategien entwickelt, wie diese Organisationsstrukturen innerhalb des zur Verfügung stehenden Speicherbereichs angeordnet werden. Da es beispielsweise in vielen Dateisystemen beliebig viele Unterverzeichnisse geben kann, verbietet es sich von vornherein, feste Plätze für diese Verzeichnisstrukturen zu reservieren, es muss alles dynamisch organisiert werden. Es gibt auch Dateisysteme wie einige von Commodore, die die grundlegenden Organisationsstrukturen wie Wurzelverzeichnis und BAM in der Mitte des Speicherbereichs (statt wie meist bei anderen an dessen Anfang) anordnen, damit der Weg, den der Schreib-Lese-Kopf von dort zu den eigentlichen Daten und zurück zurückzulegen hat, im Mittel verringert wird. Allgemein kann es ein Strategieansatz sein, eigentliche Daten und ihre Organisationsdaten physisch möglichst nah beieinander anzuordnen. Zugriff auf Massenspeicher. Außerdem bietet das Betriebssystem Verwaltungsfunktionen, zum Beispiel für das Umbenennen, das Kopieren und Verschieben, Erzeugen eines Dateisystems auf einem neuen Datenträger, für Konsistenzprüfung, Komprimierung oder Sicherung (je nach Betriebssystem und Dateisystem verschieden). Die Umsetzung der Systemaufrufe eines Programms wird oft vom Kernel eines Betriebssystems implementiert und unterscheidet sich bei den verschiedenen Dateisystemen. Der Kernel übersetzt die Zugriffe dann in die Blockoperationen des jeweiligen Massenspeichers. (Anmerkung: Tatsächlich trifft dies nur auf so genannte monolithische Kernel zu. Hingegen sind auf einem Mikrokernel oder Hybridkernel aufgebaute Systeme so konzipiert, dass die Dateisystemoperationen nicht vom Kernel selbst ausgeführt werden müssen.) Wenn ein Programm eine Datei mittels "open" öffnet, wird der Dateiname im Verzeichnis gesucht. Die Blöcke auf dem Massenspeicher ermittelt das Betriebssystem aus den entsprechenden Beschreibungsstrukturen. Falls eine Datei im Verzeichnis gefunden wird, erhält das Betriebssystem auch ihre Beschreibungsstruktur und damit die Referenzen zu den zugehörigen Clustern und gelangt über diese zu den konkreten Blöcken. Mit "read" kann das Programm dann auf die Cluster der Datei (und damit auf die Blöcke auf dem Massenspeicher) zugreifen. Wird eine Datei aufgrund von "write" größer, wird bei Bedarf ein neuer Cluster aus der Freiliste entnommen und in der Beschreibungsstruktur der Datei hinzugefügt. Auch die anderen Systemaufrufe lassen sich so in Cluster- bzw. Blockzugriffe übersetzen. Lineare Dateisysteme. Die historisch ersten Dateisysteme waren lineare Dateisysteme auf Lochband oder Lochkarte sowie die noch heute für die Sicherung von Daten eingesetzten Magnetbandsysteme. Hierarchische Dateisysteme. Frühe Dateisysteme (M, Apple DOS, Commodore DOS) hatten nur ein einzelnes Verzeichnis, das dann Verweise auf alle Dateien des Massenspeichers enthielt. Mit wachsender Kapazität der Datenträger wurde es immer schwieriger, den Überblick über hunderte und tausende Dateien zu bewahren, deshalb wurde das Konzept der Unterverzeichnisse eingeführt. So wurde dieses eine Verzeichnis in den meisten modernen Dateisystemen zum Wurzelverzeichnis, das neben normalen Dateien auch Verweise auf weitere Verzeichnisse, die Unterverzeichnisse, enthalten kann. Auch diese dürfen wieder Unterverzeichnisse haben. Dadurch entsteht eine Verzeichnisstruktur, die oft als Verzeichnisbaum dargestellt wird. Das Festplattenlaufwerk C: unter Windows beinhaltet beispielsweise neben Dateien wie "boot.ini" und "ntldr" auch Verzeichnisse wie "Programme", "Dokumente und Einstellungen" usw. Ein Verzeichnis wie zum Beispiel "Eigene Dateien" kann dann wieder Unterverzeichnisse wie "Eigene Bilder" oder "Texte" enthalten. In "Texte" können dann beispielsweise die normalen Dateien "Brief1.txt" und "Brief2.txt" stehen. Die Verzeichnisse werden auch Ordner genannt und sind, je nach Betriebssystem, durch "umgekehrten Schrägstrich" (englisch "Backslash") „\“ (DOS, Windows, TOS), "Schrägstrich" (englisch "Slash") „/“ (Unix, Linux, Mac OS X, AmigaOS), "Punkt" „.“ (OpenVMS) oder "Doppelpunkt" „:“ (ältere Mac-OS-Versionen) getrennt. Da sich eine Hierarchie von Verzeichnissen und Dateien ergibt, spricht man hier von hierarchischen Dateisystemen. Den Weg durch das Dateisystem, angegeben durch Verzeichnisnamen, die mit den Trennzeichen voneinander getrennt werden, nennt man Pfad. Auf die Datei "Brief1.txt" kann mit zugegriffen werden. Bei "DOS/Windows" gibt es Laufwerksbuchstaben gefolgt von einem Doppelpunkt, die den Pfaden innerhalb des Dateisystems vorangestellt werden. Jeder Datenträger bekommt seinen eigenen Buchstaben, zum Beispiel meist C: für die erste Partition der ersten Festplatte. Bei "Unix" gibt es keine Laufwerksbuchstaben, sondern nur einen einzigen Verzeichnisbaum. Die einzelnen Datenträger werden dort an bestimmten Stellen im Baum "eingehängt" (Kommando mount), so dass alle Datenträger zusammen den Gesamtbaum ergeben. Windows-Varianten, die auf Windows NT basieren, arbeiten intern ebenfalls mit einem solchen Baum, dieser Baum wird aber gegenüber dem Anwender verborgen. Unter "AmigaOS" erfolgt eine Mischung der Ansätze von DOS und Unix. Die nach Unix-Nomenklatur bezeichneten Laufwerke werden mit Doppelpunkt angesprochen (df0:, hda1:, sda2:). Darüber hinaus können „logische“ Doppelpunkt-Laufwerksbezeichnungen wie codice_21 per codice_22 unabhängig vom „physikalischen Datenträger“ vergeben werden. Die Verzeichnispfade von "OpenVMS" unterscheiden sich stark von Unix-, DOS- und Windows-Pfaden. Zuerst nennt OpenVMS die Geräteart, z. B. bezeichnet „codice_23“ einen lokalen Datenträger. Der Laufwerksname (bis zu 255 Zeichen lang) wird angefügt und mit einem Doppelpunkt abgeschlossen. Der Verzeichnis-Teil wird in eckige Klammern gesetzt. Die Unterverzeichnisse werden durch Punkte getrennt, z. B. „codice_24“. Am Ende des Pfads folgt der Dateiname, beispielsweise „codice_25“. Dessen erster Teil ist ein sprechender Name und bis zu 39 Zeichen lang. Nach einem Punkt folgt der dreistellige Dateityp, ähnlich wie bei Windows. Am Ende wird die Version der Datei, getrennt durch ein Semikolon „;“, angefügt. Häufig bezeichnet der Begriff Dateisystem nicht nur die Struktur und die Art, wie die Daten auf einem Datenträger organisiert werden, sondern allgemein den ganzen Baum mit mehreren verschiedenen Dateisystemen (Festplatte, CD-ROM, …). Korrekterweise müsste man hier von einem "Namensraum" sprechen, der von verschiedenen Teilnamensräumen (den Dateisystemen der eingebundenen Datenträger) gebildet wird, da aber dieser Namensraum sehr dateibezogen ist, wird häufig nur vom Dateisystem gesprochen. Netzwerkdateisysteme. Die Systemaufrufe wie "open", "read" usw. können auch über ein Netzwerk an einen Server übertragen werden. Dieser führt dann die Zugriffe auf seine Massenspeicher durch und liefert die angeforderte Information an den Client zurück. Da dieselben Systemaufrufe verwendet werden, unterscheiden sich die Zugriffe aus Programm- und Anwendersicht nicht von der auf die lokalen Geräte. Man spricht hier von "transparenten" Zugriffen, weil der Anwender die Umlenkung auf den anderen Rechner nicht sieht, sondern scheinbar unmittelbar auf die Platte des entfernten Rechners schaut – wie durch eine transparente Glasscheibe. Für Netzwerkdateisysteme stehen spezielle Netzwerkprotokolle zur Verfügung. Kann auf ein Dateisystem etwa in einem Storage Area Network (SAN) von mehreren Systemen parallel direkt zugriffen werden, spricht man von einem Globalen- oder Cluster-Dateisystem. Dabei sind zusätzliche Maßnahmen zu ergreifen, um Datenverlust (engl. "data corruption") durch gegenseitiges Überschreiben zu vermeiden. Dazu wird ein Metadaten-Server eingesetzt. Alle Systeme leiten die Metadaten-Zugriffe – typischerweise über ein LAN – an den Metadaten-Server weiter, der diese Operationen wie Verzeichniszugriffe und Block- beziehungsweise Clusterzuweisungen vornimmt. Der eigentliche Datenzugriff erfolgt dann über das SAN, als ob das Dateisystem lokal angeschlossen wäre. Da der Zusatzaufwand (engl. „overhead“) durch die Übertragung an den Metadaten-Server insbesondere bei großen Dateien kaum ins Gewicht fällt, kann eine Übertragungsgeschwindigkeit ähnlich der eines direkt angeschlossenen Dateisystems realisiert werden. Eine Besonderheit stellt das WebDAV-Protokoll dar, das Dateisystem-Zugriffe auf entfernt liegende Dateien via HTTP ermöglicht. Spezielle virtuelle Dateisysteme. Das "open"-"read"-Modell lässt sich auch auf Geräte und Objekte anwenden, die normalerweise nicht über Dateisysteme angesprochen werden. Dadurch wird der Zugriff auf diese Objekte identisch mit dem Zugriff auf normale Dateien, was meist Vorteile bringt. Unter den derzeitigen Linux-Kernels (u. a. Version 2.6) lassen sich System- und Prozessinformation über das virtuelle "proc"-Dateisystem abfragen und ändern. Die virtuelle Datei "/proc/cpuinfo" liefert zum Beispiel Informationen über den Prozessor. Unter Linux gibt es einige solcher Pseudo-Dateisysteme. Dazu zählen "sysfs", "usbfs" oder "devpts"; unter einigen BSDs gibt es ein "kernfs". All diese Dateisysteme enthalten nur rein virtuell vorhandene Dateien mit Informationen oder Geräten, die auf eine „Datei“ abgebildet werden. Der Kernel gaukelt hier quasi die Existenz einer Datei vor, wie sie auch auf einem Massenspeicher vorhanden sein könnte. Dateien in "ramfs" oder "tmpfs" und ähnlichen Dateisystemen existieren demgegenüber tatsächlich, werden aber nur im Arbeitsspeicher gehalten. Sie werden aus Geschwindigkeitsgründen und aus logisch-technischen Gründen während der Boot-Phase eingesetzt. Neben Linux gibt es auch für diverse andere Betriebssysteme sogenannte RAM-Disks, mit denen ein komplettes virtuelles Laufwerk im Arbeitsspeicher realisiert wird, vor allem aus Geschwindigkeitsgründen. Besonderheiten. Viele moderne Dateisysteme haben das Prinzip der Datei verallgemeinert, so dass man in einer Datei nicht nur eine Folge von Bytes, einen so genannten "Stream" (engl. Strom), sondern mehrere solcher Folgen (Alternate Data Streams) abspeichern kann. Dadurch ist es möglich, Teile einer Datei zu bearbeiten, ohne eventuell vorhandene andere Teile, die sehr groß sein können, verschieben zu müssen. Problematisch ist die mangelnde Unterstützung von multiplen Streams. Das äußert sich zum Einen darin, dass alternative Daten beim Transfer auf andere Dateisysteme (ISO 9660, FAT, ext2) ohne Warnung verloren gehen, zum Anderen darin, dass kaum ein Werkzeug diese unterstützt, weshalb man die dort gespeicherten Daten nicht ohne Weiteres einsehen kann und beispielsweise Virenscanner dort abgespeicherte Viren übersehen. Aus der Tatsache, dass der Hauptdatenstrom von Änderungen an den anderen Strömen nicht berührt wird, ergeben sich Vorteile für die Performance, den Platzbedarf und die Datensicherheit. Unter Inode-basierten Dateisystemen sind Sparse-Dateien, Hardlinks und symbolische Verknüpfungen möglich. Auch technisch anders aufgebaute Dateisysteme kennen neuerdings zum Teil diese Eigenschaften. Für Massenspeicher wie CD-ROM oder DVD gibt es eigene Dateisysteme, die Betriebssystem-übergreifend Anwendung finden, vor allem ISO 9660, weitere siehe unten bei Sonstige. Dateisysteme aus dem Unix-Bereich kennen besondere "Gerätedateien". Deren Namen sind dabei oft per Übereinkommen festgelegt, sie können nach Belieben umbenannt werden; so haben zum Beispiel auch die Tastatur, Maus und andere Schnittstellen spezielle Dateinamen, auf die mit "open", "read", "write" zugegriffen werden kann, sogar der Hauptspeicher hat einen Dateinamen ("/dev/mem"). (Die Unix-Philosophie dazu lautet: „Alles ist eine Datei, und wenn nicht, sollte es eine Datei sein.“) In anderen Betriebssystemen (wie unter MS-DOS ab Version 2.0) gibt es Gerätenamen mit besonderen Bedeutungen, die dem System der Gerätedateien ähnlich sind: COM:, CON:, LPT:, PRN: und andere. Diese Geräte können analog zu einer Datei geöffnet und über eine Zugriffsnummer "(Handle)" gelesen und beschrieben werden. Sie haben aber verständlicherweise keinen Dateizeiger. Im Unterschied zu den Blockgeräten (auch „Laufwerke“ genannt: A:, B:, C: usw.) "enthalten" sie keine Dateien, sondern verhalten sich selbst – mit gewissen Einschränkungen – wie Dateien. Diese Pseudodateien existieren seit DOS 2, das stark von UNIX beeinflusst wurde. Unter Berücksichtigung der DOS-Gerätetreiberspezifikation ist es dem Benutzer möglich, eigene Gerätetreiber zu schreiben, sie per DEVICE-Befehl zu laden und über ebensolche Pseudodateinamen anzusprechen. Diese besonderen Dateinamen waren in der Vergangenheit öfters Anlass von Sicherheitsproblemen, da die entsprechenden Namen zum Teil einigen Applikationen nicht bekannt waren und daher nicht herausgefiltert wurden, aber zum Teil auch weil der Zugriffsschutz auf die damit assoziierten Geräte unzureichend geregelt war. Darüber hinaus existieren Dateisysteme, die mehrere darunterliegende Speichermedien („Volumes“) überspannen können, die eine Versionierung von Dateien schon inhärent ermöglichen (VMS), deren Größe zur Laufzeit geändert werden kann (AIX). Manche Dateisysteme bieten Verschlüsselungsfunktionen an, Umfang und Sicherheit der Funktionen variieren dabei. Assoziative Dateiverwaltung. Diese werden häufig fälschlicherweise als Datenbankdateisysteme oder SQL-Dateisysteme bezeichnet, hierbei handelt es sich eigentlich nicht um Dateisysteme, sondern um Informationen eines Dateisystems, die in aufgewerteter Form in einer Datenbank gespeichert und in, für den Anwender intuitiver Form, über das virtuelle Dateisystem des Betriebssystems dargestellt werden. Hauptartikel: assoziative Dateiverwaltung Sicherheitsaspekte. Wenn im Multitasking mehrere Aufgaben gleichzeitig anstehen, muss das Dateisystem die einzelnen Aktionen sauber auseinanderhalten, damit nichts durcheinanderkommt. Wenn die Aufgaben auch noch dieselbe Datei ansprechen, sei es nur lesend oder auch schreibend, werden typischerweise entsprechende Sperrmechanismen ("Locks") zur Verfügung gestellt oder automatisch in Kraft gesetzt, um Konflikte zu vermeiden. Gleichzeitige Zugriffe von mehreren Seiten z. B. auf eine große Datenbankdatei sind aber auch der Normalfall, so dass man neben globalen Sperren, die die ganze Datei betreffen, auch solche nur für einzelne Datensätze ("Records") benutzen kann. Wenn ein Laufwerk gerade auf ein Speichermedium schreibt und die Betriebsspannung in diesem Moment ausfällt, dann besteht die Gefahr, dass nicht nur die eigentlichen Daten unvollständig geschrieben werden, sondern dass vor allem die organisatorischen Einträge im Verzeichnis nicht mehr korrekt aktualisiert werden. Um diese Gefahr zumindest möglichst klein zu halten, wird einerseits per Hardware versucht, genug Energiepuffer (Kondensatoren in der Versorgung) bereitzuhalten, so dass ein Arbeitsvorgang noch zu Ende geführt werden kann, andererseits ist die Software so ausgelegt, dass die Arbeitsschritte möglichst „atomar“ ausgelegt sind, das heißt die empfindliche Zeitspanne mit unvollständigen Dateneinträgen so kurz wie möglich gehalten wird. Wenn dies im Extremfall dann doch nicht hilft, gibt es als neuere Entwicklung sogenannte Journaling-Dateisysteme, die in einem zusätzlichen Bereich des Speichermediums Buch über jeden Arbeitsschritt führen, so dass im Nachhinein rekonstruiert werden kann, was noch erledigt werden konnte und was nicht mehr. Eigene Gesichtspunkte gibt es bei Flash-Speichern, indem diese beim Löschen und Wiederbeschreiben einem Verschleiß ausgesetzt sind, der je nach Typ nur ca. 100.000 bis 1.000.000 Schreibzyklen zulässt. Dabei können in der Regel nicht einzelne Bytes für sich gelöscht werden, sondern meist nur ganze Blöcke (von je nach Modell variierender Größe) auf einmal. Das Dateisystem kann hier daraufhin optimiert werden, dass es die Schreibvorgänge möglichst gleichmäßig über den gesamten Speicherbereich des Flash-Bausteins verteilt und beispielsweise nicht einfach immer bei Adresse 0 anfängt zu schreiben. Stichwort: "Wear-Leveling-Algorithmen", siehe bei Solid-State-Drive. Dem Aspekt der Datensicherheit gegenüber Ausspähung durch Unberechtigte dienen Dateisysteme, die alle Daten verschlüsseln können, ohne dass andere Schichten des Betriebssystems dafür Aufwand zu treiben bräuchten. Eine weitere Gefahrenquelle für die Integrität der Daten besteht in Schreibaktionen, die von irgendwelcher Software unter Umgehung des Dateisystems direkt auf physische Adressen auf dem Speichermedium erfolgen. Bei älteren Betriebssystemen war das ohne weiteres möglich und führte zu entsprechend häufigen Datenverlusten. Neuere Betriebssysteme können diese tieferen Ebenen wesentlich effektiver vor unautorisiertem Zugriff schützen, so dass mit den Rechten eines Normalbenutzers gar kein direkter Zugriff auf physische Medienadressen mehr erlaubt ist. Wenn bestimmte Diagnose- oder Reparatur-Dienstprogramme ("Tools") so einen Zugriff doch benötigen, müssen sie mit Administratorrechten ausgestattet sein. Lebenszyklusaspekte. Bei der Migration von Dateibeständen, etwa auf Grund einer Systemablösung, müssen häufig Dateien von einem Dateisystem auf ein anderes übernommen werden. Das ist im Allgemeinen ein schwieriges Unterfangen, denn viele Dateisysteme sind untereinander funktional nicht kompatibel, d. h. das Zieldateisystem kann nicht alle Dateien mit allen Attributen aufnehmen, die auf dem Quelldateisystem gespeichert sind. Ein Beispiel hierfür wäre die Migration von NTFS-Dateien mit Alternate Data Streams auf ein Dateisystem ohne Unterstützung für solche Streams. Demokratische Republik Kongo. Die Demokratische Republik Kongo (,), von 1971 bis 1997 Zaire (frz. "Zaïre"), abgekürzt DR Kongo, Kongo (Kinshasa) bzw. Kongo-Kinshasa oder einfach der Kongo, ist eine Republik in Zentralafrika. Sie grenzt (von Norden im Uhrzeigersinn) an die Zentralafrikanische Republik, den Südsudan, Uganda, Ruanda, Burundi, Tansania, Sambia, Angola, den Atlantik und die Republik Kongo. Die DR Kongo ist an Fläche der zweitgrößte und an Bevölkerung der viertgrößte Staat Afrikas. Das Land wird vom Äquator durchzogen; es herrscht ein tropisches Klima. Große Teile des Staatsgebietes sind von tropischem Regenwald bedeckt. Die etwa 80 Millionen Einwohner kann man in mehr als 200 Ethnien einteilen. Es existiert eine große Sprachvielfalt, die Verkehrssprache ist Französisch. Etwa die Hälfte der Einwohner bekennt sich zur katholischen Kirche, die andere Hälfte verteilt sich auf Kimbanguisten, andere christliche Kirchen, traditionelle Religionen und den Islam. Das Gebiet des heutigen Staates kam 1885 unter belgische Kolonialherrschaft. Die Herrschaft des belgischen Königs Leopold II. gilt als eines der grausamsten Kolonialregimes. Nach der Unabhängigkeit 1960 wurde es nach mehrjährigen innenpolitischen Konflikten 32 Jahre lang von Mobutu Sese Seko diktatorisch regiert. 1997 wurde Mobutu von dem Rebellenchef Laurent-Désiré Kabila gestürzt. Auf den Machtwechsel folgte ein weiterer Bürgerkrieg, der aufgrund der Verwicklung zahlreicher afrikanischer Staaten als "Afrikanischer Weltkrieg" bekannt wurde. 2002 wurde ein Friedensabkommen unterzeichnet, im Osten des Landes finden aber bis heute weiterhin Kämpfe statt. Erstmals seit 1965 fanden 2006 freie Wahlen statt. Trotz seines Rohstoffreichtums zählt der Staat, bedingt durch jahrzehntelange Ausbeutung, Korruption, jahrelange Kriege und ständige Bevölkerungszunahme, heute zu den ärmsten Ländern der Welt. Im Human Development Index der Vereinten Nationen nahm die Demokratische Republik Kongo im Jahr 2013 den vorletzten Platz ein. Geographie. Das Gebiet der Demokratischen Republik Kongo umfasst als zweitgrößter Staat Afrikas 2.344.885 km² und ist somit 6,6-mal so groß wie Deutschland und 76,9-mal so groß wie die Fläche der ehemaligen Kolonialmacht Belgien. Es liegt in Zentralafrika am Äquator. Sowohl Flora als auch Fauna sind sehr vielfältig, damit besitzt es ein sehr hohes naturräumliches Potenzial. Deshalb ist die Meinung vieler Experten, dass die Demokratische Republik Kongo heute einer der führenden afrikanischen Staaten wäre, hätte es keine Kolonialausbeutung und ethnischen Konflikte gegeben. Rund 60 Prozent des Landes nimmt das Kongobecken mit seinen tropischen Regenwäldern ein. Es ist in allen Richtungen von Bergzügen von 500 bis 1000 Meter Höhe begrenzt. Im Süden wird es vom Shaba- oder Katanga-Bergland begrenzt, das Teil der Lundaschwelle ist. Im Süden und Osten des Landes steigen die Bergzüge zu Hochgebirgen auf, wie die Mitumba-Berge und die Kundelungu-Berge im Süden und die Zentralafrikanische Schwelle und Virunga-Vulkane im Osten. Sie erreichen Höhen von bis zu 4500 Meter und sind reich an Bodenschätzen wie Kupfer und Uran. Die höchste Erhebung ist mit 5109 Meter der Margherita Peak und befindet sich im Ruwenzori-Gebirge an der Grenze zu Uganda. Der größte und längste Fluss, der durch die Demokratische Republik Kongo fließt, ist der Kongo mit 4374 Kilometern Länge. Er ist nach dem Nil der zweitlängste Fluss des afrikanischen Kontinents. Gemessen an seiner Wasserführung von 39.160 m³/s ist er sogar der größte Fluss Afrikas und der zweitgrößte Fluss weltweit. Der Kongo entspringt im Süden im Mitumbagebirge und fließt etwa 1000 Kilometer nach Norden, von wo er nach Westsüdwesten umgelenkt wird. Hier besteht auch ein Binnendelta. Anschließend bildet er die Grenze zwischen der Demokratischen Republik Kongo und der Republik Kongo, bevor er in den Atlantik mündet. Es gibt zahlreiche Flüsse, die im Kongo münden. Der mit einer Wasserführung von 9.873 m³/s bei weitem größte dieser Nebenflüsse ist der aus Angola kommende Kasai, der ebenfalls mehrere Nebenflüsse aufweist und in den Gebirgen im Süden entspringt. Dies trifft ebenfalls auf den Lomami zu, er hat sein Quellgebiet in der ehemaligen Provinz Katanga. Der größte von Norden kommende Zufluss des Kongos ist der Ubangi, der nahezu über seine gesamte Länge die Grenze zur Zentralafrikanischen Republik und zur Republik Kongo bildet. Die 40 Kilometer lange Küste nördlich der Kongomündung in den Ozean stellt die einzige Öffnung zum Atlantischen Ozean dar. Hier liegen die beiden Hafenstädte Muanda und Banana. An diesem nur 40 km langen Küstenstreifen befinden sich unter anderem Erdölvorkommen. Im Osten des Landes befindet sich die Seenkette des Großen Afrikanischen Grabens, die die Ostgrenze bildet. Dazu gehören unter anderem (von Nord nach Süd) der Albertsee, Eduardsee, Kiwusee und Tanganjikasee. Sie birgt darüber hinaus bedeutende Bodenschätze. Hier wurde beispielsweise Erdgas gefunden, im Osten und Nordosten auch Gold und Zinn. Die sogenannten Oxisolböden im Kongobecken sind oft stark verwittert und weisen nur geringe Fruchtbarkeit auf, während die höher gelegenen Gebiete im Norden und Süden fruchtbar sind und zum Ackerbau genutzt werden. Klima. In der Demokratischen Republik Kongo herrscht aufgrund der geographischen Lage ein Äquatorialklima vor. In den meisten Landesteilen gibt es daher ein sehr warmes, tropisches Feuchtklima mit einer Durchschnittstemperatur von rund 20 °C in der Trockenzeit und rund 30 °C in der Regenzeit. Das Klima wird relativ wenig durch Jahreszeiten wie Trocken- und Regenzeit beeinflusst. Dennoch gibt es wegen der sehr großen Landesfläche regionale Disparitäten. Durch die nördliche Landesmitte, in welcher die Städte Mbandaka und Kisangani liegen, verläuft der Äquator. In diesem rund 300 Kilometer breiten Gebiet gibt es das ganze Jahr über heftige Regenfälle, die durchschnittlich rund 1500–2000 mm betragen, während die Temperatur konstant bei rund 26 °C bleibt. Kinshasas Klima ist gekennzeichnet durch eine Jahresdurchschnittstemperatur von über 25 °C sowie einer Wechselfolge zwischen den Trockenzeiten (vier Monate insgesamt) und den Regenzeiten, welche ihre extremste Ausprägung in den Monaten November und April haben. Im ganzen Jahr fallen in Kinshasa insgesamt rund 1400 mm Regen. Im Norden des Landes lässt der große Waldflächenanteil, der typisch für das Äquatorialklima ist, Platz für eine Baumsavanne. Dort beginnt die Trockenzeit, gegensätzlich zum Süden, meist zwei bis drei Monate vor dem Jahreswechsel und endet rund zwei bis drei Monate nach dem Jahreswechsel. Deshalb fallen hier rund 90 % der Jahresniederschläge in der Zeit zwischen März und November. Im Süden beginnt eine Zone des tropischen Klimas, die mit einer Trockenzeit (drei bis sechs Monate, meist Mai bis September) und einer Regenzeit (sechs bis neun Monate, meist Oktober bis April) ausgeprägte Jahreszeiten aufweist. So gibt es zum Beispiel in Lubumbashi in der Provinz Katanga sogar sechs Monate relativer Trockenheit und sehr ausgeprägte Tages-Nacht-Temperaturschwankungen. Der gebirgige Ostteil der Demokratischen Republik Kongo ist von Höhenklima geprägt und deutlich kühler im Vergleich zu den anderen Gebieten. Da die Temperatur dort pro 80 Höhenmeter um durchschnittlich 1 °C sinkt, kann man namhafte klimatische und ökologische Unterschiede beim Anstieg der Gebirge im Nationalpark Virunga und der Gefälle des Ruwenzori-Gebirges feststellen. An den höchsten Punkten dieser Gebiete ist sogar Schneefall nicht ungewöhnlich. Hier fallen auch die meisten Niederschläge des Landes. Es gibt auch eine kleine Zone maritimen Klimas. Im kleinen Küstengebiet im äußersten Westen, wo auch der Kongo-Fluss mündet, senkt der kalte Benguelastrom Temperatur und Niederschlagsmenge deutlich ab, sodass es beispielsweise in der Stadt Boma im Jahr durchschnittlich weniger als 800 mm Niederschlag gibt. Flora und Fauna. In der Demokratischen Republik Kongo liegen die größten noch existierenden Regenwaldgebiete Afrikas. Rund zwei Drittel der Landesfläche sind von tropischem Regen- und Höhenwald bedeckt. In höheren Lagen in Äquatornähe gibt es vor allem Bergregenwald und Nebelwald. Hier findet man vorrangig Bäume und Pflanzen mit langen Stämmen, dünner Baumrinde und festen Blättern. Beispiele hierfür sind der Gummibaum und Hartholzpflanzen wie der Teakbaum und Mahagonigewächse. Außerdem gibt es dort Ölpalmen, Würgefeigen und Aufsitzerpflanzen wie Orchideen. Nördlich und südlich der Regenwaldregion befinden sich 200 und 500 Kilometer breite Streifen mit Feuchtsavanne. Diese Verteilung ist niederschlagsbedingt und gründet sich auf die innertropische Konvergenzzone (ITC). Eine im Feuchtsavannengebiet vorkommende Pflanzengattung ist die Wolfsmilch. Die Feuchtsavanne geht schließlich in die Trockensavanne mit Miombowaldgebieten über. Die typische Vegetation besteht dort hauptsächlich aus Akazien und Sukkulenten. Obwohl einige Säugetiere wie der Löwe, der Leopard, das Nashorn, der Elefant, das Zebra, der Schakal, die Hyäne sowie eine Reihe von Antilopenarten bevorzugt in den Savannenregionen leben, gibt es vor allem durch den hohen Waldanteil sehr viele verschiedene Säugetierarten – insgesamt 415 – im Land. Insbesondere die fünf als UNESCO-Welterbe ausgezeichneten Gebiete Garamba, Kahuzi-Biéga, Salonga, Virunga (Nationalparks) und das Okapi-Wildtierreservat stellen einen wichtigen Lebensraum für viele Säugetiere wie Bonobos, Östliche Gorillas, Okapis und Afrikanische Büffel dar. Besonders die Vielfalt an Menschenaffen ist bemerkenswert: Die Demokratische Republik Kongo beherbergt als weltweit einziges Land drei Menschenaffenarten: neben Gorillas und Bonobos auch Schimpansen. Diese sind dort allerdings kaum noch aufzufinden und akut vom Aussterben bedroht. Auch die Lage der Bonobos ist bedrohlich: Der Bestand der Tierart, welche man nirgendwo sonst weltweit in Freiheit beobachten kann, wird derzeit auf rund 3000 Tiere im Staatsgebiet geschätzt. Vor den 1980er Jahren lag diese Zahl bei über 100.000. Hauptgrund des Aussterbens der Menschenaffen sind Wilderer, welche das sogenannte Bushmeat als Delikatesse in den Städten verkaufen. Auch bei anderen Säugetieren besteht das Problem des Artensterbens. Doch im Gegensatz zu dem Affenfleisch werden andere bedrohte Tierarten vor allem aufgrund des immensen Proteinbedarfs der wegen der sehr hohen Fertilitätsrate der Frauen schnell wachsenden Bevölkerung gejagt. Oftmals ist das Jagen geschützter Tierarten für Landesbewohner überlebenswichtig. Doch auf diese Weise schrumpften die Bestände mancher Wildtierarten so sehr, dass einige Arten laut Forschungsprognosen schon in rund 50 Jahren ausgestorben sein könnten. Auch die anderen Tierklassen lassen sich in großer Zahl finden, es gibt 268 verschiedene Reptilien und je über tausend Fisch- und Vogelarten. Sehr groß ist auch die Anzahl von Insekten, so gibt es alleine über 1300 verschiedene Arten von Schmetterlingen. In keinem anderen Land weltweit ist dieser Wert größer. Vorkoloniale Geschichte. Die Urbevölkerung des heutigen Staates bestand aus Pygmäen, welche heute nur noch eine kleine Minderheit darstellen. Über Jahrhunderte hinweg wanderten Bantuvölker ein, es entstanden verschiedene Gesellschaftsformen, von Jägern und Sammlern über Ackerbaubevölkerungen bis hin zu größeren Staatswesen. Unter den dortigen Staaten trat insbesondere das im 14. Jahrhundert gegründete Königreich Kongo, eines der größten afrikanischen Staatswesen überhaupt, hervor. Im 15. Jahrhundert erkundeten portugiesische Seefahrer das Gebiet der Kongomündung und nahmen 1491 diplomatische Beziehungen zum Kongoreich auf. Der König besuchte Portugal und trat zum Katholizismus über, und es begann eine kurze Phase annähernd gleichberechtigten Umgangs zwischen dem Kongo und Portugal. In der Neuzeit lieferte das Kongoreich Sklaven in die amerikanischen Kolonien, die Einnahmen aus dem Sklavenhandel ließen eine reiche Oberschicht in den afrikanischen Hafenstädten entstehen. Vom 16. Jahrhundert an war das Kongoreich im Niedergang begriffen. Bis zum Ende des 17. Jahrhunderts erfolgte die völlige Zerstörung des Königreiches sowie seine Ausbeutung und Plünderung durch Sklavenjäger, die nach dem Zerfall der portugiesischen Vorherrschaft durch Niederländer und Briten fortgeführt wurde. Am Anfang des 18. Jahrhunderts war das Kongoreich fast vollständig zerfallen. 1866 zogen die letzten Portugiesen ab. In den 1870er Jahren bereiste der Waliser Henry Morton Stanley als erster Europäer das Hinterland, sein Vorschlag, den Kongo dem britischen Kolonialreich anzugliedern, wurde von der britischen Regierung, die sich vor allem für die Nilquellen interessierte, aber abgelehnt. Belgische Kolonialzeit. Der belgische König Leopold II. jedoch, von dem Gedanken an ein Kolonialreich seit langem fasziniert, wollte die Gelegenheit nutzen. 1885 vereinnahmte Leopold den Kongo im Nachgefolge der Kongokonferenz als seinen „Privatbesitz“. Dieser Status jenseits allen Völkerrechts war in der ganzen Kolonialgeschichte einzigartig. Da mit dem Kongo zugleich auch alle seine Bewohner als rechtloser Privatbesitz angesehen wurden, kam es bei der wirtschaftlichen Ausbeutung (Kautschukboom) zu solch grausamen Exzessen, dass sie als so genannte Kongogräuel 1908 international für Aufsehen und Empörung sorgten und Leopold zur Übergabe des Kongo als „normale“ Kolonie an den belgischen Staat zwangen. Zwar verbesserten sich die Verhältnisse nun ein wenig, aber nach wie vor wurden der Kongo und seine Bevölkerung von der autoritären Kolonialmacht Belgien ausgebeutet. Mit den weltweit in den Kolonien zunehmenden Unabhängigkeitsbestrebungen wuchs auch im Kongo der Druck nach staatlicher Selbstbestimmung. Nach ersten Unruhen in der Hauptstadt Léopoldville und unter dem Druck der Weltöffentlichkeit zog sich Belgien Anfang 1959 schlagartig aus dem Kongo zurück und hinterließ ein Chaos. Unabhängigkeit und Kongokrise. Am 30. Juni 1960 wurde die „Republik Kongo“ unabhängig. Joseph Kasavubu, Führer der Alliance des Bakongo (ABAKO), wurde Staatspräsident. Der bedeutende Panafrikanist und Führer der kongolesischen Unabhängigkeitsbewegung Patrice Lumumba wurde der erste Ministerpräsident des jungen Landes, das er allerdings aufgrund mangelnder Fachkräfte und angesichts sezessionistischer Bestrebungen, insbesondere in der Provinz Katanga, nicht zusammenzuhalten vermochte. Insbesondere die kontinuierlichen Interventionen Belgiens, der USA, aber auch der Sowjetunion führten zu einem allmählichen Zerreißen der jungen Nation. Lumumba wurde schließlich vom Militär abgesetzt und verhaftet. Zwar konnte er der Haft kurz entfliehen, wurde aber kurze Zeit später wieder ergriffen, seinem Gegner Moïse Tschombé – dem Sezessionistenführer in Katanga – ausgeliefert und anschließend ermordet. Eine persönliche Beteiligung der CIA sowie des belgischen Geheimdienstes wurde im Jahr 2000 bestätigt, weswegen die belgische Generalstaatsanwaltschaft 2012 ein Ermittlungsverfahren eröffnete. Diktatur Mobutu. 1965 putschte der frühere Assistent Lumumbas, Joseph Mobutu, und errichtete in den folgenden Jahrzehnten eine der längsten und korruptesten Diktaturen Afrikas. Moïse Tschombé konnte zeitweise über Teile des Kongos mit einer Söldnerarmee, die überwiegend aus Europäern bestand, herrschen. Ein Höhepunkt der Söldneraktivität im Kongo stellt die Besetzung von Bukavu durch Tschombés europäische Söldner von August bis November 1967 dar. Mobutu begann eine Afrikanisierung des Landes und versuchte, die europäischen Einflüsse im Land zu eliminieren. Europäische Unternehmen wurden verstaatlicht, 1971 das Land in "Zaire" umbenannt. Mobutu errichtete einen Einparteienstaat mit einem bizarren Personenkult, der erhebliche Unterstützung aus westlichen Ländern erhielt, und bekämpfte dafür den Einfluss der Sowjetunion in Afrika. 1977/78 wurde mit internationaler, unter anderem belgischer und französischer Militärhilfe für die Regierung Mobutu Sese Seko die Shaba-Invasion der Front national de libération du Congo des Rebellenführers Nathaniel Mbumba aus Angola niedergeschlagen (Schlacht um Kolwezi). Kongokriege. Karte der Staaten, die am Zweiten Kongokrieg beteiligt waren Unter dem Eindruck des Niedergangs der zairischen Wirtschaft und dem Ende des Ost-West-Konflikts stimmte Mobutu ab 1990 einer schrittweisen Demokratisierung des Landes zu, die aber zu keinem Erfolg führte. Das Ende der Diktatur Mobutus begann stattdessen mit dem Völkermord in Ruanda, in dessen Folge Hunderttausende der am Völkermord beteiligten Hutu nach Zaire flohen. Einer Allianz der neuen ruandischen Tutsi-Regierung und verschiedener Mobutu-Gegner gelang es schließlich innerhalb weniger Monate, ganz Zaire zu erobern und den schwer kranken und international mittlerweile isolierten Mobutu zu stürzen. Der Rebellenchef Laurent-Désiré Kabila wurde 1997 neuer Präsident und benannte Zaire wieder in "Demokratische Republik Kongo" um. Die einstigen Verbündeten hatten sich rasch zerstritten, und 1998 versuchten erneut von Ruanda gestützte Rebellenorganisationen von Osten aus das Land zu erobern. Eine Intervention von Angola und Simbabwe auf Seiten Kabilas konnte den Sturz der Regierung aber abwenden, und es entwickelte sich ein jahrelanger Stellungskrieg; das Land wurde schließlich in mehrere Machtbereiche aufgespalten. Langwierige Verhandlungen beendeten 2003 den Krieg, alle Kriegsparteien bildeten eine gemeinsame Übergangsregierung. Der Kongokrieg hatte schwerwiegende sozioökonomische Auswirkungen auf das Land. Wirtschaft und Sozialsysteme, die bereits vor dem Krieg am Boden lagen, brachen völlig zusammen, ganze Landstriche wurden weitgehend entvölkert. Die Zahl der Opfer ist unbekannt, Hochrechnungen gehen von mehr als drei Millionen indirekter Kriegsopfer aus. Nachkriegszeit. Bereits im Januar 2001 fiel Laurent-Désiré Kabila einem Attentat zum Opfer, und sein Sohn Joseph Kabila erbte seine Stellung als Staatspräsident. Joseph Kabila gewann schließlich die im Friedensvertrag vorgesehene Wahl im Jahre 2006 und ist damit erster frei gewählter Präsident der Demokratischen Republik Kongo seit 1965. Mit Kabila führt zum ersten Mal seit 1960 ein Mann den Staat, der zu Gesprächen zur Befriedung und Stabilisierung der Region bereit ist. Ihm im Wege steht dabei allerdings der fast vollständige Zerfall der Infrastruktur, Verwaltung und Wirtschaft des Landes und insbesondere die Ausplünderung der äußerst rohstoffreichen Ostprovinzen des Kongo, in denen die Zentralregierung fast völlig machtlos ist, durch Uganda, Ruanda und verschiedene lokale Machthaber. Konflikt im Ostkongo. In den Gebieten Kivu und Ituri im Osten findet auch nach Ende des zweiten Kongokrieges weiterhin ein bewaffneter Konflikt statt, weil die dortigen lokalen Milizen nicht an den Friedensverhandlungen beteiligt waren. Zwischen August 2007 und Januar 2009 eskalierte der Konflikt: Im dritten Kongokrieg kämpften in Nordkivu die kongolesischen Streitkräfte, UN-Truppen der MONUC und Mai-Mai-Milizen gegen die Rebellen des Nationalkongress zur Verteidigung des Volkes (CNDP) unter der Führung des Tutsi Laurent Nkunda, eines ehemaligen Generals der Rebellenorganisation RCD. Nkunda behauptete, die lokale Tutsi-Bevölkerung gegen die Hutu-Extremisten der Demokratischen Kräfte zur Befreiung Ruandas (FDLR) zu verteidigen, die auf kongolesischem Gebiet operieren und von Nkunda der Zusammenarbeit mit der kongolesischen Regierung bezichtigt werden. Ende 2008 eroberte die CNDP immer größere Gebiete im Nordkivu, Verhandlungen zwischen Regierung und Rebellen unter Vermittlung der UN blieben erfolglos. Im Dezember 2008 schlossen die kongolesische Regierung und Ruanda ein Abkommen über eine gemeinsame Bekämpfung der FDLR. Ruandische Soldaten marschierten in den Kongo ein und verhafteten Nkunda, der wenige Tage zuvor von der CNDP für abgesetzt erklärt worden war. Im März 2009 unterzeichneten Regierung und CNDP ein Friedensabkommen. Hoffnungen, dass nach dem Ende der CNDP und der Zusammenarbeit zwischen kongolesischer Regierung und Ruanda im Kampf gegen die FDLR nun auch eine Befriedung der Ostprovinzen möglich sei, erfüllten sich nicht. In den letzten Jahren operierten Dutzende bewaffneter Gruppierungen in den Kivuprovinzen. Deren Stärken reichen von wenigen Dutzend bis zu mehreren tausend Kämpfern. An vielen Gruppen sind desertierte Soldaten der FARDC oder andere Sicherheitskräfte beteiligt. Zu den größten zählen die FDLR, die Raïa Mutomboki, die "Alliance des patriotes pour un Congo libre et souverain" und die Nyatura. Die Bewegung 23. März wurde im April 2012 von ehemaligen Mitgliedern der CNDP aus Unzufriedenheit über die Umsetzung des Friedensabkommens gegründet. Sie erlangte maßgeblich Kontrolle im Territorium Rutshuru und erregte großes Aufsehen durch die zwischenzeitliche Einnahme der Provinzhauptstadt Goma. Nach mehreren gescheiterten Verhandlungsrunden mit der Regierung und der Etablierung einer UN-Eingreiftruppe unterlag sie Anfang November 2013 schließlich militärisch. Bevölkerung. a>, 2004). Bevölkerung in tausend Einwohnern "Boulevard du 30 juin" in Kinshasa, der mit Abstand größten Stadt des Landes Die Demokratische Republik Kongo zählte im Juli 2010 etwas mehr als 68 Millionen Einwohner und ist damit der viertbevölkerungsreichste Staat Afrikas. Die Bevölkerungsdichte ist mit etwas mehr als 30,2 Einwohner pro km² eher gering. Das Bevölkerungswachstum zählt mit fast 3 % zu den höchsten der Welt; jede Frau bringt durchschnittlich 6,3 Kinder zur Welt. Im weltweiten Vergleich hat das Land laut "Fund For Peace" die problematischste Demografieentwicklung aller Staaten. Eine Volkszählung fand zuletzt 1984 statt; seitdem hat sich die Bevölkerungszahl mehr als verdoppelt. Der Kongo hat daher auch eine der jüngsten Bevölkerungen der Welt: 46,9 % der Einwohner sind jünger als 15 Jahre, nur 2,5 % älter als 65 Jahre. Die Lebenserwartung liegt bei 52,9 Jahren für Männer und 56,6 Jahren für Frauen. Während der Bürgerkriege ab Mitte der 1990er Jahre kam es zu einer bis heute anhaltenden ausgeprägten Landflucht; zwischen 2005 und 2010 wuchs die Stadtbevölkerung jährlich im Mittel um 5,1 %, 2010 leben 34 % der Einwohner in Städten. Städteentwicklung. Die mit Abstand größte Agglomeration des Landes ist die Hauptstadt Kinshasa mit knapp 10 Millionen Einwohnern. Damit konzentrieren sich 14 Prozent der Bevölkerung der Demokratischen Republik Kongo auf dieses Gebiet. Neben der Großregion Kinshasa konzentriert sich die Bevölkerung vor allem auf die Bergbauprovinzen Katanga, Kasai-Occidental und Kasai-Oriental. Die Stadtbevölkerung steigt in fast allen Großstädten des Staates durch anhaltende Landflucht stark an. 2008 lebten 34 % der Einwohner in städtischen Gebieten, die Zuwachsrate betrug zwischen 2005 und 2010 mehr als 5 % jährlich. Im Landesosten können die Einwohnerzahlen, bedingt durch Flüchtlingsbewegungen, erheblich schwanken, 2008 waren dort nach UN-Angaben zwischen 500.000 und einer Million Menschen auf der Flucht. Ethnien. Während der Kolonionalzeit wurden auch im Kongo Ethnien konstruiert. Einige dieser ethnischen Identitäten beruhen auf prämodernen Stammeszugehörigkeiten, andere, wie zum Beispiel die Baluba, wurden gänzlich neu konstruiert. Heute existieren weit mehr als 200 Ethnien in der DRK. Von den Angehörigen dieser Ethnien verstehen sich etwa 80 % als Bantu. Die meisten Bewohner des Landes werden nur einigen wenigen Ethnien zugerechnet, davon die vier großen Bantuvölker: Die beiden größten Gruppen sind Bakongo (16 %) und Baluba (18 %), daneben sind auch die Mongo (13 %) und die Banjaruanda (10 %) zahlenmäßig stark. Die restlichen 20 % der Landesbewohner setzen sich zu 18 % aus sudansprachigen Völkern, zu 2 % aus Niloten und aus 20.000 bis 50.000 Pygmäen zusammen. Von den etwa 100.000 Europäern (meist Belgier), die zum Zeitpunkt der Unabhängigkeit im Land lebten, sind bis heute etwa 20.000 geblieben. Bereits vor der Unabhängigkeit schürte die belgische Kolonialmacht Rivalitäten zwischen den Volksgruppen; diese werden bis heute als maßgebliche Ursache für die Kriege und Konflikte im Land genannt. Sprachen. In der Demokratischen Republik gibt es eine Sprachenvielfalt, die im Land ähnlich groß ist wie die Vielfalt an Volksgruppen: Insgesamt wird die Anzahl der Sprachen und Dialekte des Kongo mit 214 angegeben. Aufgrund der kolonialen Vergangenheit nimmt das Französische den Rang der Amts-, Literatur- und Bildungssprache ein. Daneben gibt es vier offizielle Nationalsprachen: Lingála, Kikongo, Tschiluba und eine kongolesische Variante des Swahili, deren Rechtschreibung 1974 geregelt wurde. Auch diese wurden in der Kolonialzeit von Belgien festgelegt, um die Sprachenvielfalt zu begrenzen. Kikongo ist die Sprache des früheren Kongo-Reiches und ist auch in den Nachbarländern Republik Kongo und Angola verbreitet, während Tshiluba vor allem in den beiden Provinzen Kasai-Occidental und Kasai-Oriental gesprochen wird. Der Ursprung des Lingála befindet sich in dem Land selbst. Diese Sprache, die der Volksgruppe der Bangala zuzuordnen ist, breitete sich aus der Region Équateur entlang der Flüsse aus. Gefördert wurde diese Ausbreitung durch die Europäer, die es als Kommunikationssprache nutzten, später durch die Diktatur von Mobutu, der sich durch die Medien auf Lingala an sein Volk wandte, und heute durch die Popmusik. Swahili ist eine Verkehrssprache in ganz Ostafrika, welche, wenngleich sie im Kongo wenig Muttersprachler hat, diesen Status auch im Osten des Landes besitzt. Außerdem wurde nach dem Ende des Mobutu-Regimes Swahili offizielle Armeesprache und dadurch im gesamten Landesgebiet zunehmend populärer. Artikel 1 der Verfassung bestimmt neben Französisch als „offizieller Sprache“: «… langues nationales sont le kikongo, le lingala, le swahili et le tshiluba». Laut Artikel 142 sind alle Gesetze binnen 60 Tagen in diesen Sprachen zu veröffentlichen. Im Osten des Landes ist Swahili die vorherrschende Sprache der Kommunikation und wird auch in Schulen und auf Ämtern benutzt. Weitere Sprachen sind beispielsweise das mit Tschiluba nah verwandte Kiluba, Chokwe und Kituba. In den nationalen Medien herrscht unter den vier Sprachen weitgehende Gleichverteilung; in den Regionalmedien wird jedoch die jeweilige Regionalsprache bevorzugt. Schriftsprache ist weiterhin Französisch, doch in der jüngsten Vergangenheit werden oft französischsprachige Texte mit Wörtern der einheimischen Sprachen verknüpft, denen häufig die Funktion eines Stilmittels zukommt. Indigene Religionen. Indigene Glaubenssysteme drehen sich meist um die Geister der Vorfahren und um Hexer und Zauberer "(ndoki)", die mit diesen kommunizieren können. Des Weiteren glaubt man an die Existenz von Geistern des Wassers, der Fruchtbarkeit und ähnlichen Mächten "(mbumba)", die entweder unsichtbar sind oder in Form von natürlichen Objekten (besonders geformten Felsen, Bäumen oder auch Menschen mit besonderen Eigenschaften wie Albinos) annehmen und die entsprechend verehrt werden. Die Vorstellung von Dämonen, vor denen man sich schützen muss, verlangt die Herstellung von Fetischen und anderen Objekten. Katholizismus. Die dominierende Religion ist das Christentum. Bereits nach dem ersten Kontakt mit den portugiesischen Entdeckern unter Diogo Cão 1482 blieben Missionare im Land. Anfang des 16. Jahrhunderts wurden die ersten Schulen gebaut, und man überzeugte den König und seine unmittelbare Umgebung, sich taufen zu lassen. Die Region der Kongo-Mündung gehört somit neben Angola und Mosambik zu jenen Gebieten in Afrika, wo die Missionierungsbemühungen der Portugiesen am erfolgreichsten waren. Nach dem Zerfall des Königreichs gab es im 19. Jahrhundert eine zweite Phase der Missionierung. 1878 errichteten protestantische Missionare in der heutigen Hafenstadt Matadi einen ersten Posten. Die früheste katholische Mission dieser „zweiten Evangelisierung des Kongo“ entstand 1880 in Boma. Die Kongregation vom Unbefleckten Herzen Mariens (Congregatio Immaculati Cordis Mariae, CICM) übernahm das 1886 gegründete „Apostolische Vikariat Belgisch-Kongo“ und errichtete Missionsstationen in Kwamouth (1888) und Leopoldville (1899). 1892 gründeten Jesuiten in Kwango ihre erste Missionsstation. Andere Orden folgten. 1906 sicherte eine Übereinkunft zwischen dem Vatikan und Leopold II. den katholischen belgischen Missionen je 100 bis 200 Hektar unbefristeten Landbesitz zu. Bedingung war, dass jede Missionsstation eine Schule unter staatlicher Aufsicht zur landwirtschaftlichen und handwerklichen Ausbildung unterhielt. Nach dem Ersten Weltkrieg betrieben 22 Missionsgesellschaften von Belgien aus die Kongo-Mission. Vor allem das Schulsystem war in katholischer Hand. 1926 wurden alle staatlichen Schulen im Kongo den katholischen Missionen anvertraut, wobei die Kolonialregierung beträchtliche Summen für den Betrieb zur Verfügung stellte. Nichtkatholische Schulen erhielten erst ab 1946 staatliche Unterstützung. Die Voraussetzung für den Schulbesuch der Kinder war die Taufe. 1930 gab es 640.000 Katholiken (zehn Prozent der Gesamtbevölkerung). 1959 waren es 5,5 Millionen (40 Prozent). Mit dem System der Missionsstationen, die Kirche, Schule und Krankenhaus an einem Ort zusammenführten, bildete die katholische Kirche im ganzen Land eine Infrastruktur aus, die sich bis heute erhalten hat. Sie wuchs damit zu einer mächtigen Kraft in der Gesellschaft. Das Verhältnis von Kirche und Staat war bis zur staatlichen Unabhängigkeit von verschiedenen Tendenzen geprägt. Die ersten Missionare sahen durch ihre Nähe zur einheimischen Bevölkerung Unterschiede zwischen dem kolonialen System wirtschaftlicher Ausbeutung und einer Entwicklung gemäß christlich-sozialen Vorstellungen und standen dem Unternehmen König Leopolds II. häufig kritisch gegenüber. Die großen Missionsstationen nach dem Ersten Weltkrieg banden die Missionare jedoch enger in das koloniale System ein. Der Unabhängigkeitsbewegung stimmten führende Kirchenvertreter zunächst nur zögerlich zu. Anfang der 1970er Jahre stellte sich Mobutu mit seiner Kampagne der „Authentizität“ auch gegen das Christentum und die katholische Kirche. Christliche Vornamen wurden verboten. Die katholischen Schulen und die katholische Universität wurden verstaatlicht. Später wurden die Schulen wieder an die Kirche zurückgegeben, da der staatliche Apparat mit deren Verwaltung und Führung überfordert war. In den 1970er Jahren entstanden einheimische Schwesternkongregationen. Mehr Schwarze wurden zu Priestern geweiht, Führungspositionen in der Kirche mit Afrikanern besetzt. Der Vatikan erkannte einen eigens entworfenen Zairischen Messritus offiziell an. Bei der beginnenden Demokratisierung zu Beginn der 1990er Jahre spielte die katholische Kirche eine bedeutende Rolle. Laurent Monsengwo Pasinya, der damalige Erzbischof von Kisangani und heutige Erzbischof von Kinshasa, wurde zum Präsidenten der Nationalkonferenz (Conférence Nationale Souveraine) gewählt. Als Mobutu im Januar 1992 die Nationalkonferenz auflöste, protestierten weite Teile der Bevölkerung mit dem berühmten „Marsch der Christen“. Nach dem Sturz Mobutus und den anschließenden Kriegen riefen die Führer religiöser Gemeinschaften zum Frieden auf und forderten Demokratisierungsprozesse ein. Die Bischofskonferenz hat ein ständiges Büro eingerichtet, das den Demokratisierungsprozess unterstützt. Im Konflikt zwischen afrikanischen Staaten engagiert sich die katholische Kirche auf der Ebene der gemeinsamen Bischofskonferenz von Burundi, Ruanda und Kongo für Dialog und Versöhnung. Finanziell und teilweise auch personell ist sie noch immer vom Ausland abhängig. Seit November 2010 stellt das Land mit Laurent Monsengwo Pasinya auch einen zum Konklave berechtigten Kardinal. Protestantische Kirchen. 1878 kamen die ersten protestantischen Missionare in die Kongo-Region. Während der Existenz des sogenannten Kongo-Freistaats (1885 bis 1908) veröffentlichten einige von ihnen die missbräuchliche Behandlung und Ausbeutung von einheimischen Arbeitern durch die Kolonialgesellschaften und die Kolonialverwaltung. Dies führte mit dazu, dass Leopold II. seinen „Freistaat“ an Belgien übergeben musste. Im Unterschied zur katholischen Kirche, die enger mit dem Staat und den Kolonialgesellschaften verbunden war, hatten die protestantischen Missionare zunächst weniger Vertrauen von Seiten der Regierung und bekamen staatliche Unterstützung für von ihnen betriebene Krankenhäuser und Schulen erst nach dem Zweiten Weltkrieg. Der Kolonialstaat hatte den verschiedenen Missionsgesellschaften unterschiedliche Territorien zugewiesen. Zur Zeit der Unabhängigkeitserklärung waren etwa 46 protestantische Gruppen aktiv, zumeist aus Nordamerika, Großbritannien und Skandinavien. Sie waren zunächst locker in einem Komitee verbunden. Später schlossen sie sich zur „Eglise du Christ“ („Kirche Christi“) zusammen. Dieser Verbund wurde stark von Diktator Mobuto kontrolliert. Seit der Unabhängigkeit gingen das Eigentum der Missionsgesellschaften und die internen Führungspositionen zunehmend in die Hände von Einheimischen über. Die Regierung Mobutu suchte durch enge Verbindungen zur Führung der „Kirche Christi“ ein Gegengewicht zur Kritik der mächtigen katholischen Kirche aufzubauen. Im Gegenzug half die Regierung dem protestantischen Kirchenbund, neue religiöse Bewegungen und Splittergruppen durch rechtliche und formale Hindernisse in deren Ausbreitung zu behindern. Afrikanische Kirchen. Die Kimbanguistenkirche wird zu den afrikanischen Kirchen gezählt. Sie wurde während der Kolonialzeit von Simon Kimbangu gegründet, der sich als Erlöser der Schwarzen von der belgischen Unterdrückung ausgab. Die Kimbanguisten überstanden die Bekämpfung durch die Kolonialmacht und haben heute je nach Quelle zwischen 5 Millionen und 10 Millionen Anhänger. Der bis nach Europa verbreitete pfingstlerische Combat Spirituel hat sein Zentrum im Kongo und allein in Kinshasa rund 50.000 Mitglieder. Staatspräsident Joseph Kabila ist der prominenteste Anhänger dieser Religionsgruppe. Der Combat Spirituel wird von der Öffentlichkeit kritisch gesehen, seitdem bekannt wurde, dass vereinzelte Mitglieder gewaltsame Exorzismusriten an Kindern ausführen. Die Leitung der Kirche distanziert sich zwar von diesen Vorfällen, bekennt sich allerdings zum grundsätzlichen Glauben an die Hexerei von Kindern. Seit der Unabhängigkeit haben sich zahlreiche weitere christliche Mikrokirchen und Sekten gebildet, deren Zahl von einem Dutzend in den 1960er Jahren auf über 1000 heute angestiegen ist. Sie bilden sich häufig um charismatische, wirtschaftlich erfolgreiche Personen, wobei magische Praktiken eine bedeutende Rolle spielen (z. B. Unverletzbarkeit von Kriegern mittels Verabreichung von Weihwasser). Vielfach zeigt sich eine enge Verflechtung religiöser und erfolgsorientierter materieller Motive. Soziale Situation. Der Kongo zählt zu den ärmsten Ländern der Welt. Eine Untersuchung der kongolesischen Regierung von 2006 ergab folgende Zahlen: 76 % der Bevölkerung konnten ihre Kinder nicht zur Schule schicken, 79 % waren unterernährt, 81 % hatten keinen ausreichenden Wohnraum und 82 % keinen Zugang zu medizinischer Versorgung. Insgesamt 71 % der Bevölkerung lebten in absoluter Armut. Die Armut ist recht unterschiedlich verteilt, in der ärmsten Provinz Équateur oder in den besonders vom Krieg betroffenen Kivuprovinzen wurden die höchsten Werte festgestellt. Sozialsystem. Das Sozialsystem des Landes zählt zu den schlechtesten der Welt. Theoretisch ist das seinerzeit vorbildliche, noch aus der Kolonialzeit stammende Sozialversicherungssystem weiterhin in Kraft. Faktisch ist es aber nicht funktionsfähig, allein schon deshalb, weil es heute kaum feste Arbeitsverhältnisse gibt. Ab 1992 stellte die Regierung jahrelang den Unterhalt der Sozialsysteme komplett ein. Staatsbedienstete erhielten keine Gehälter mehr. Nach dem Sturz Mobutus versuchte die neue Regierung zwar, wieder Gehälter zu bezahlen. Dies geschah aber nur unregelmäßig und reichte nicht aus, um den Lebensunterhalt zu bestreiten. Es bürgerte sich ein, dass jeder Bürger staatliche Dienstleistungen direkt bezahlte. Solche Zahlungen, die sowohl an Lehrer und Ärzte als auch an Beamte oder Polizisten erfolgen, werden im kongolesischen Französisch als "la motivation" bezeichnet. Versuche der Regierung, diese Praxis zu verbieten und den Staatsbediensteten wieder Gehälter zu bezahlen, hatten wenig Erfolg: Weder Bürger noch Angestellte trauen der Regierung zu, dass diese regelmäßig gezahlt werden. Soziale Dienste werden vor allem von der katholischen Kirche betrieben, die unter anderem deswegen in der Bevölkerung ein hohes Ansehen genießt. Gesundheit. Die medizinische Lage in der Demokratischen Republik Kongo ist sehr schlecht. Ein öffentliches Gesundheitssystem ist kaum vorhanden, viele der ohnehin kaum ausgebauten Einrichtungen wurden infolge des Krieges zerstört. So gibt es nur einen Arzt pro 10.000 Menschen, in anderen Staaten ist dieser Wert teilweise 40-mal so hoch. 2005 betrugen die Gesundheitsausgaben der Zentralregierung weniger als eine Million US-Dollar. Laut den Daten der WHO betrugen die Gesundheitsausgaben im Jahr 2009 rund 2 % des Bruttoinlandsprodukts (circa 220 Mio. US-Dollar) oder umgerechnet etwa 3 US-Dollar pro Einwohner. Zur mangelhaften Versorgungssituation kommt auch das Problem, dass in den ländlichen Regionen nur 29 % und in den Städten 82 % der Menschen Zugang zu sauberem Trinkwasser haben. Insgesamt beläuft sich die Zahl der Kongolesen ohne Trinkwasserzugang laut einer UN-Studie von 2011 auf rund 51 Millionen, obwohl der Staat über mehr als 50 % der Wasserressourcen Afrikas verfügt. Außerdem besteht nur für ein knappes Drittel der Kongolesen die Möglichkeit, Sanitäreinrichtungen zu nutzen. Durch den dadurch hervorgerufenen Mangel an Hygiene treten häufig verschiedene Durchfallerkrankungen auf, ebenfalls weit verbreitet sind andere Infektionskrankheiten wie Typhus und Hepatitis A. Der Kongo hat eine der höchsten Kindersterblichkeitsraten (laut Angaben der Weltbank waren es 2012 ca. 167,7 Tote pro 1.000 Lebendgeborene unter fünf Jahren, laut "The World Factbook" der CIA 76,63, Erhebungen aus dem Jahr 2010 kommen auf jährlich 540.000 gestorbene Kinder unter fünf Jahren). Ebenfalls sehr hoch sind die Werte für Säuglings- (126 Todesfälle je 1.000 Geburten) und Müttersterblichkeit (580 Todesfälle pro 100.000 Geburten). Laut Aussagen des Präsidenten der kongolesischen Kinderarztvereinigung von März 2013 gibt es im Kongo etwa 85 Kinderärzte, davon ca. 50 in der Hauptstadt Kinshasa und 20 in der Provinz Katanga. Weiterhin herrscht ganzjährig ein sehr hohes Malariarisiko im gesamten Land, während des Krieges soll allein diese Krankheit hunderttausende Tote pro Jahr gefordert haben, über ein Drittel davon Kinder unter fünf Jahren. Sehr verbreitet ist auch die Schlafkrankheit, von der 1999 fast zwei Prozent der Bevölkerung betroffen waren. Im Februar 2005 breitete sich in Bas-Uele im Nordwesten des Landes die Lungenpest aus, die WHO berichtete von 61 Toten. Eine weitere Ausbreitung konnte aber verhindert werden. Im Juni 2006 wurden weitere 100 Pesttote im Distrikt Ituri gemeldet. In der Demokratischen Republik Kongo wurde das Zaire-Ebolavirus erstmals entdeckt, welches nach dem Fluss Ebola nahe dem Ursprungsort benannt wurde. Mit einer Letalitätsrate von 60–90 % ist dies die gefährlichste Spezies des Ebolavirus, das seit 1976 immer wieder auftritt, im Land selbst aber vergleichsweise wenig Opfer fordert, da die Ausbrüche meist in ländlichen Gegenden erfolgten. Der bisher letzte Ausbruch wurde im August 2014 bekannt, er kostete mehr als 40 Menschen das Leben. Die HIV-Rate lag im Kongo 2012 bei rund 1,1 % der Erwachsenen, was knapp einer halben Million Menschen entspricht. Dieser Wert ist verglichen mit den Daten anderer Staaten Subsahara-Afrikas eher niedrig. Die Krankheit fordert jedes Jahr rund 30.000 Todesopfer. Bildung. Die Alphabetisierungsrate von rund 67,2 % (Männer 80,9 %, Frauen 54,1 %, Zahlen von 2001) ist im Kongo weitaus besser als in Staaten wie Mali oder Niger. Dennoch ist sie durch den Krieg und die damit verbundene Auflösung vieler staatlicher Strukturen seit Mitte der 1990er Jahre deutlich gesunken: Im Jahr 1995 konnten noch 77 % der Menschen lesen und schreiben. Schulen. Formal ist zwar eine Grundbildung vorgeschrieben (6. bis 12. Lebensjahr) und staatlich garantiert, faktisch ist aber ein öffentliches Bildungssystem kaum existent. Die meisten Schulen erhalten keine staatliche Unterstützung. Daher müssen die Eltern die Lehrer direkt bezahlen. Bedingt durch den Krieg ging der Anteil der Kinder, die eine Schule besuchen, von rund 70 % auf nunmehr etwa 40 % zurück, weil für große Teile der Bevölkerung das Schulgeld unerschwinglich geworden ist. Die Unterrichtsqualität wird generell als schlecht betrachtet, sodass die erworbenen Kenntnisse zumeist unzureichend sind und viele Schulabsolventen keine angemessenen Lese- und Schreibkompetenzen vorweisen können. Ein weiteres Problem ist der Mangel an Lehrpersonal. 2008 kamen auf einen Lehrer 39 Schüler. Aufgrund der demographischen Entwicklung ist mit einer weiteren Verschlechterung des Bildungswesens zu rechnen. Universitäten. Bis zur Mitte der 1950er Jahre existierte im damaligen Belgisch-Kongo keine Universitätsausbildung. Es gab einige Ausbildungsstätten für Lehrer, für technische und medizinische Berufe, für Agrarwissenschaft und öffentliche Verwaltung sowie religiöse Seminare. Diese führten jedoch nicht zu anerkannten Studienabschlüssen. 1953 wurde in Kinshasa die Katholische Universität Lovanium gegründet. Sie war eng verbunden mit der Katholischen Universität von Löwen in Belgien. 1955 wurde in Lubumbashi eine staatliche Universität eröffnet. 1962 entstand unter protestantischer Schirmherrschaft eine dritte Universität bei Kisangani. Nach der Unabhängigkeit wurde eine Reihe von Fachhochschulen geschaffen. Im August 1971 wurden die drei Universitäten zur "Université Nationale du Zaire" vereinigt mit separaten Standorten in Kinshasa, Lubumbashi und Kisangani. 1981 kam es wieder zur Aufteilung in selbständige Universitäten an diesen drei Orten. Die kongolesischen Universitäten gehörten einst zu den besten Afrikas. Heute ist die Unterrichtsqualität unzureichend. Es fehlt sowohl an Lehrmaterial als auch an qualifiziertem Lehrpersonal. Korruption ist auch hier anzutreffen. So werden Abschlüsse häufig durch Bestechung erworben. Arbeitsmarkt. Zum Zeitpunkt der Unabhängigkeit war ein Drittel der arbeitsfähigen Bevölkerung in einem festen Arbeitsverhältnis. Bis in die 1990er Jahre sank dieser Anteil auf 15–20 %, wobei die Einkommen erheblich gefallen waren und nicht mehr zum Leben ausreichten. Seitdem ist fast jeder gezwungen, zusätzliches Geld im informellen Sektor zu verdienen, bereits in den 1980er Jahren war das reale Einkommen im Durchschnitt dreimal so hoch wie offiziell gezahltes Gehalt. Die Zahl fester Arbeitsverhältnisse ging seitdem weiter zurück, während des Krieges betrug ihr Anteil nicht einmal mehr 5 %, ein Drittel der Bevölkerung verfügte über gar kein Geldeinkommen. Politisches System. Die Verfassung von 2006 definiert den Kongo als einen säkularen, demokratischen Rechtsstaat mit einem semipräsidentiellen Regierungssystem. Der Präsident wird vom Volk in allgemeinen, freien und gleichen Wahlen für fünf Jahre direkt gewählt. Eine einmalige Wiederwahl ist möglich. Er ernennt den Premierminister und dessen Kabinett. Es gibt ein Zweikammersystem, bestehend aus Oberhaus (Senat) und Unterhaus (Nationalversammlung). Die 108 Mitglieder des Senats werden für fünf Jahre von den Provinzparlamenten gewählt, die Nationalversammlung mit 500 Abgeordneten wird vom Volk gewählt. 61 Sitze werden nach Mehrheitswahlrecht bestimmt, die übrigen nach Verhältniswahl in offenen Listen. In der Praxis erfüllt der Staat, abgesehen von der erfolgreichen Wahl 2006, in keiner Weise die Merkmale einer Demokratie und eines Rechtsstaates. Eine Gewaltenteilung existiert nur in der Theorie, es gibt praktisch keine unabhängige Justiz, und Gesetze werden nicht durchgesetzt. Alle staatlichen Institutionen sind hochgradig korrupt und unzuverlässig, und es ist seit Jahrzehnten allgemein üblich, dass Posten in staatlichen Institutionen und Betrieben zur persönlichen Bereicherung ausgenutzt werden. Der Staat steht auf dem weltweiten Demokratieindex auf dem 155. von 167 Plätzen und wird der Kategorie "Autoritäres Regime" zugeordnet. Die territoriale Souveränität der Regierung ist insbesondere im Osten des Landes nicht mehr gegeben. Aufgrund ihrer Instabilität wird die Demokratische Republik Kongo als gescheiterter Staat bezeichnet, gleichwohl keine der zahlreichen Rebellengruppen, die seit der Unabhängigkeit existierten, je die Legitimität des Staates in Frage oder sezessionistische Forderungen stellten. "Siehe auch: Liste der Präsidenten der Demokratischen Republik Kongo" Verfassung. Am 16. Mai 2005 beschloss das 2003 ernannte Übergangsparlament den Entwurf einer neuen Verfassung. Die Macht des Präsidenten wird darin eingeschränkt. Der Premierminister ist nun nicht mehr dem Präsidenten verantwortlich, sondern der Mehrheitsfraktion im Parlament. Am 27. Oktober 2005 sollte das Volk über die neue Verfassung abstimmen. Der Abstimmung ging eine langwierige, von EU und UN unterstützte Wählerregistrierung voraus. Jeder Wähler erhielt einen fälschungssicheren Personalausweis, und trotz diverser Boykottaufrufe ließen sich insgesamt 25.650.751 Wähler registrieren, von geschätzt 28 Millionen prinzipiell Wahlberechtigten. Nachdem die Wählerregistrierung erheblich länger als geplant gedauert hatte (in abgelegenen Gebieten Équatuers und Bandundus wurden die letzten Wähler erst im Februar 2006 registriert), wurde die Abstimmung schließlich verschoben. Am 18. und 19. Dezember 2005 stimmten 84,3 % der Wähler bei einer Wahlbeteiligung von 62 % in einem Verfassungsreferendum für die Annahme der neuen Verfassung. Die Zustimmung war je nach Landesteil unterschiedlich verteilt, in Kinshasa stimmten aufgrund der dortigen Boykottkampagnen nur etwas mehr als 50 % dafür, in den Kivuprovinzen lag sie bei über 90 %. Am 18. Februar 2006 trat die neue Verfassung in Kraft. Wahlen 2006 und 2011. Am 30. Juli 2006 fanden die Wahlen für das Präsidentenamt und das Parlament statt. Es war die erste freie Wahl im Kongo seit 1965. Es gab 43 Bewerber für das Präsidentenamt, darunter zahlreiche frühere Rebellenführer, und über 60 Parteien für das Parlament. Unterschiedliche Programme hatten die Kandidaten nicht zu bieten, es ging lediglich um die Frage, wer das Land zukünftig regieren durfte. Der Wahlkampf war von Gewalt, willkürlichen Verhaftungen und Hetzkampagnen der Presse überschattet. Für den Fall, dass die ehemaligen Kriegsherren die Ergebnisse nicht anerkennen würden, wurden schwere Unruhen bis hin zu einem erneuten Ausbruch des Bürgerkriegs befürchtet. Zu Absicherung der Wahl entsandte die EU zusätzlich zur UN-Mission MONUC eine eigene Militärmission, die EUFOR RD Congo. Der Wahltag selbst verlief dann weitgehend friedlich. Im ersten Wahlgang erhielt Kabila 44,8 %, Jean-Pierre Bemba 20,0 % und Antoine Gizenga 13,1 %, die Anteile aller anderen Kandidaten lagen bei weit unter 10 %. Die Ergebnisse der Parlamentswahl verhielten sich ähnlich: Die PPRD (Kabila) erhielt 111 von 500 Sitzen, die MLC (Bemba) 64 und die PALU (Gizenga) 34, der Rest ging an zahlreiche kleine Parteien und unabhängige Kandidaten. Die Ergebnisse waren wie schon bei dem Verfassungsreferendum sehr unterschiedlich verteilt, in den Ostprovinzen, die während des Krieges unter Rebellenkontrolle standen, erzielte Kabila sehr hohe Ergebnisse, während im Westen die Stimmen breiter verteilt waren. Die befürchteten Unruhen blieben weitgehend aus, es kam lediglich zu begrenzten Gefechten zwischen den Truppen Bembas und Kabilas in Kinshasa. Da keiner der Kandidaten für das Präsidentenamt eine absolute Mehrheit erreicht hatte, fand am 29. Oktober 2006 eine Stichwahl statt, die Kabila mit 58,05 % der Stimmen gewann. Die Ergebnisse waren wieder ungleich verteilt, die westlichen Provinzen Équateur, Bas-Congo, Kinshasa und Kasai fielen Bemba zu, der Osten Kabila. Die nächste Wahl fand am 27. November 2011 statt. Im Vorfeld dieser Wahlen gab es Auseinandersetzungen um eine Verfassungsänderung, die nach Auffassung der Opposition eindeutig die Wiederwahl Kabilas begünstigte. Am 12. Januar 2011 stimmte die Nationalversammlung und am folgenden Tag auch der Senat als zweite Parlamentskammer für eine Abschaffung der Stichwahl um das Präsidentenamt. Demnach reicht die einfache Mehrheit im ersten Wahlgang. In der Wahl, bei der es in Einzelheiten Hinweise auf Unregelmäßigkeiten bzw. Wahlbetrug gab, wurde Kabila mit 48,95 % wiedergewählt, sein wesentlicher Konkurrent Étienne Tshisekedi erhielt 32,33 %. 2006 bis 2012. Nach den Wahlen wurde am 30. Dezember 2006 Antoine Gizenga, der alte Lumumbistenführer der 1960er Jahre, zum Premierminister ernannt, am 7. Februar stand die neue, aus 60 Ministern und Vizeministern bestehende Regierung. Erstmals seit Jahrzehnten gab es wieder eine Regierung, die eine gute Regierungsführung zumindest versuchte. Die Erfolge der neuen Regierung blieben gering, der alte Gizenga war der Situation nicht mehr gewachsen, die Macht im Land blieb bei Präsident Kabila und beim Militär. Am 25. September 2008 reichte Gizenga altersbedingt seinen Rücktritt ein, Nachfolger wurde am 10. Oktober 2008 Haushaltsminister Adolphe Muzito. Er gehört ebenfalls der PALU an, dies war wegen eines Koalitionsabkommens zwischen den Regierungsparteien PPRD, PALU und UDEMO eine der Bedingungen bei der Neubesetzung des Postens. Zusammen mit Muzito wurden 16 Minister neu ernannt. Die Mehrheit der Minister der Koalition hält Kabilas PPRD. Seit 2012. Muzito trat am 7. März 2012 zurück. Nachfolger als Premierminister wurde am 18. April 2012 der bisherige Finanzminister Augustin Matata Ponyo. Er stellte am 28. April sein neues Kabinett vor. Vizepremier blieb Daniel Mukoko Samba, der auch den Posten des Haushaltsministers übernahm. Weitere Kabinettsmitglieder sind Louise Munga Mesozi, Alexandre Luba Ntambo (auch zweiter Vizepremier), Richard Mujey Magez, Raymond Tshibanda, Wivine Mumba Matipa, Célestin Vunabandi, Kinkiey Mulumba, Christostome Vahamwiti, Jean-Claude Kibala, Martin Kabwelulu, Lambert Mende, Remy Musungayi Bampale und Nemoyato Begepole Menschenrechte. Der Kongo ist eines der Länder, in denen die Menschenrechte wenig geachtet werden. Dies trifft insbesondere auf die Kriegsgebiete zu, wo die Kriegsparteien kaum Rücksicht auf die Zivilbevölkerung nehmen. Vergewaltigung war und ist in der Demokratischen Republik Kongo eine Kriegswaffe. In den Jahren 2006 bis 2009 wurden allein von dem Hilfswerk „Heal Africa“ 12.000 vergewaltigte Frauen betreut. Die Organisation geht von der zehnfachen Zahl an Vergewaltigungen aus. Laut einer Studie sind rund 39 % aller Frauen und 24 % aller Männer im Land mindestens einmal in ihrem Leben Opfer einer Vergewaltigung geworden. Immer wieder gibt es Berichte über Massenvergewaltigungen, etwa 2010 in Luvungi. Sowohl Angehörige bewaffneter Gruppen als auch staatliche Sicherheitskräfte verübten routinemäßig Folterungen und Misshandlungen, insbesondere gegen vermeintliche politische Gegner. Zu den Foltermethoden gehörten Schläge, Verletzungen durch Messerstiche, Vergewaltigungen und das Aufhängen von Personen an Gitterstäben. In den meisten Hafteinrichtungen und Gefängnissen herrschten derart harte Bedingungen, dass sie grausamer, unmenschlicher oder erniedrigender Behandlung gleichkamen. In Berichten hieß es regelmäßig, dass Gefangene an Unterernährung und behandelbaren Krankheiten starben. Ein weiterer humanitärer Krisenschwerpunkt ist die Nordost-Region der Provinz Orientale, wo die aus Uganda stammenden Lord’s Resistance Army (LRA) im Gefolge einer gescheiterten gemeinsamen Militäraktion von der Demokratischen Republik Kongo, Sudan und Uganda seit Dezember 2007 wiederholt grausame Attacken auf die Zivilbevölkerung verübt. Die LRA wird für den Tod von über 1.200 Menschen und die Entführung von über 600 Kindern seit September 2008 verantwortlich gemacht. 2008 verurteilten Militärgerichte mindestens 50 Menschen zum Tode, darunter auch Zivilisten. Es wurden allerdings keine Hinrichtungen gemeldet – so Amnesty International. Sicherheitskräfte der Regierung und bewaffnete Gruppen überfielen und entführten Menschenrechtsverteidiger, schüchterten sie ein und bedrohten sie mit Mord. In Nord-Kivu mussten viele, die sich für die Menschenrechte einsetzten, untertauchen oder fliehen. Andere wurden zur Zielscheibe, weil sie an der Aufarbeitung politisch brisanter Menschenrechtsverletzungen beteiligt waren. Im Jahr 2008 befanden sich Schätzungen zufolge immer noch 3000–4000 Kinder in den Reihen bewaffneter Gruppen. In einem im Dezember 2009 von Human Rights Watch veröffentlichten Bericht wird detailliert die gezielte Tötung von mehr als 1400 Zivilisten zwischen Januar und September 2010 während zwei aufeinander folgender kongolesischer Militäroperationen gegen die ruandische Hutu-Miliz „Demokratischen Kräfte zur Befreiung Ruandas“ (FDLR) dokumentiert. Sowohl kongolesische Regierungssoldaten als auch FDLR-Rebellenmilizen haben Zivilisten angegriffen, ihnen vorgeworfen, mit dem Gegner zu kollaborieren, und sie „bestraft“, indem sie mit Macheten zu Tode gehackt wurden. Beide Seiten haben darüber hinaus Zivilisten bei Fluchtversuchen erschossen oder sie absichtlich in ihren Häusern verbrannt. Einige Opfer wurden gefesselt, bevor ihnen, einem Zeugen zufolge, die Kehlen „wie Hühnern durchgeschnitten“ wurden. Die Mehrheit der Opfer waren Frauen, Kinder und ältere Menschen. Am 1. Oktober 2010 veröffentlichte das Amt des Hohen Kommissars der Vereinten Nationen für Menschenrechte (OHCHR) einen ausführlichen Bericht über schwerste Menschenrechtsverletzungen und Verletzungen internationalen humanitären Rechts auf dem Territorium der Demokratischen Republik Kongo im Zeitraum von März 1992 bis Juni 2003. Die Regierung von Ruanda hatte vor der Veröffentlichung dieses Berichts vergeblich Änderungen verlangt. Hintergrund war, dass einige der schwersten dokumentierten Verbrechen von Angehörigen der "Rwandan Patriotic Army" (RPA) und der mit ihnen verbündeten "Alliance des forces démocratiques pour la libération du Congo-Zaïre" (AFDL) begangen worden waren. Sie könnten nach Aussage des Berichts möglicherweise als Genozid bezeichnet werden. Militär. Kongolesische Soldaten werden von US-Militärberatern ausgebildet Die kongolesischen Streitkräfte (frz. "Forces Armées de la République Démocratique du Congo" — FARDC) entstanden in ihrer heutigen Form nach dem Zweiten Kongokrieg, als die Regierungsarmee mit den verschiedenen Rebellenstreitkräften zusammengelegt wurde. 2003 meldeten Regierung und Rebellen über 300.000 Soldaten für die Eingliederung in die neuen Streitkräfte, nach einer unabhängigen Schätzung waren es aber allenfalls 200.000 Soldaten. Die Sollstärke der FARDC sollte bei etwa 120.000 Mann liegen. Bis 2008 waren aber erst etwa 45.000 Mann in 15 Brigaden einsatzbereit. Bei Aufstellung der neuen Streitkräfte wurden „gemischte“ Einheiten gegründet, das heißt in der FARDC dienen Soldaten verschiedener Bürgerkriegsparteien in ein und derselben Einheit. Der Neuaufbau der Armee ist noch lange nicht abgeschlossen, die alten Strukturen der Rebellen bestehen weiter fort, zehntausende Soldaten befinden sich außerhalb der regulären Befehlsstrukturen unter dem Kommando ehemaliger Bürgerkriegsgeneräle. Dies ist vor allem im Osten des Landes, in den Kivuprovinzen der Fall, in der bis heute verschiedene lokale Milizen die Macht ausüben. Die FARDC hat sowohl mit starken Organisations- als auch Moralproblemen zu kämpfen. Die Soldaten sind unzureichend ausgebildet und ausgerüstet, der Sold wird nur unregelmäßig ausbezahlt und reicht nicht aus, um den Lebensunterhalt zu bestreiten. Die Moral der Truppe ist entsprechend schlecht und die Desertationsrate hoch. Bei Kämpfen im Kivu kam es immer wieder zu Massendesertationen tausender Soldaten. Zahlreiche Menschenrechtsverletzungen gehen auf Kräfte der FARDC zurück, regelmäßig kommt es zu Übergriffen auf Zivilisten mit Plünderungen und Vergewaltigungen seitens der Angehörigen der FARDC. Verwaltungsgliederung. In der Demokratischen Republik Kongo herrscht traditionell eine streng zentralistische Verwaltung. Das Land ist in zehn Provinzen und den Hauptstadtdistrikt gegliedert. Die 2005 beschlossene Verfassung sah eine Dezentralisierung vor, bei der die 11 Gebietskörperschaften in 26 neue Provinzen mit eigenen Parlamenten aufgeteilt werden sollten. 40 % der auf dem Gebiet einer neuen Provinz eingenommenen Steuern sollten künftig dort verbleiben. Diese Verwaltungsreform sollte erst 2011 komplett umgesetzt worden sein. Im Januar 2011 wurde die Neuaufteilung des Landes jedoch durch eine Verfassungsänderung abgesagt. Die folgende Tabelle gibt die derzeitigen Provinzen des Landes mit Fläche und Einwohnerzahl an. Kinshasa wird offiziell nicht als Provinz, sondern als Hauptstadtdistrikt bezeichnet. Wirtschaft. Entwicklung des "Bruttoinlandsprodukts (BIP)" der DR Kongo. Jahrzehntelange Misswirtschaft, extreme Korruption und jahrelange Bürgerkriege machten den Kongo, der kurz nach der Unabhängigkeit eines der wirtschaftlich am höchsten entwickelten Länder Afrikas war und über die größten Naturreichtümer des Kontinents verfügt, zu einem der ärmsten Länder der Welt, das in allen Entwicklungsindikatoren weit hinten angesiedelt ist. Das kaufkraftbereinigte Bruttoinlandsprodukt ("BIP") beträgt etwa 25,44 Milliarden US-Dollar (etwa Milliarden Euro), das BIP pro Einwohner ungefähr 375 US-Dollar (etwa Euro). Die Frauenerwerbsquote liegt bei etwa 71 %. Die Inflationsrate ist beständig hoch und betrug 2011 13,3 %, seit Jahrzehnten dient daher der US-Dollar als Zweitwährung und Wertaufbewahrungsmittel. Charakteristisch für das Land ist der große informelle Sektor, der nicht in die Berechnung des BIP einfließt. Bereits in den 1980er Jahren soll die informelle Wirtschaft dreimal so groß wie die offizielle gewesen sein. Grund für diese Entwicklung waren und sind die extreme Korruption und die mangelnde Effektivität staatlicher Organe, die ein solides Wirtschaften enorm erschweren. Von staatlicher Seite werden erst in jüngster Zeit Anstrengungen unternommen, den Zustand zu ändern. Seit Abschaffung einer Einheitsgewerkschaft 1990 besitzt das Land nun zwar mehrere unabhängige Gewerkschaften, welche aber kaum noch Einfluss auf die Unternehmen haben. Wirtschaftsgeschichte. Die Wirtschaft des Landes erlebte in den vergangenen Jahrzehnten eine wechselvolle Entwicklung. In vorkolonialer Zeit war das heutige Staatsgebiet eine bedeutende Quelle für Sklavenhändler. Die von Sansibar aus operierenden islamischen Sklavenhändler, die von lokalen Herrschern und Milizen unterstützt wurden, beuteten das Land weit schwerwiegender aus als die Europäer im Westen des Landes. Die europäische Kolonialisierung ab 1876 setzte sich die Beendigung des Sklavenhandel zum Ziel, der Widerstand der Sklavenhändler wurde blutig niedergeschlagen. Nach Errichtung des Kongo-Freistaats durch Belgien begann eine in der Kolonialgeschichte beispiellose Ausplünderung des Landes. Der Bevölkerung wurde Zwangsarbeit auferlegt, um Elfenbein, Palmöl und vor allem Kautschuk zu exportieren. Mit Gründung von Belgisch-Kongo 1908 rückte allmählich der Bergbau zum Hauptwirtschaftszweig auf, es wurden vor allem Kupfer und Diamanten abgebaut. Die Landbevölkerung wurde gezwungen, Exportprodukte wie Baumwolle und Palmöl zu produzieren. Es entstanden ein modernes, dichtes Straßennetz und ein effizientes Gesundheitssystem, welches auch den Lebensstandard der Einheimischen hob. In den letzten Jahren vor der Unabhängigkeit zählte die Kolonie zu den wirtschaftlich am höchsten entwickelten afrikanischen Staaten, der Wohlstand war jedoch extrem zugunsten der immer zahlreicher werdenden belgischen Siedler verteilt: Die Hälfte des Volkseinkommens lag bei den 1 % Europäern, von gesellschaftlicher und politischer Teilhabe blieben die Kongolesen weitgehend ausgeschlossen. Die Wirren nach der Unabhängigkeit und die Ausreise vieler Belgier hatten zunächst einen wirtschaftlichen Einbruch zur Folge, von dem sich das Land aber innerhalb weniger Jahre erholte. Von hohen Rohstoffpreisen getragene teilweise zweistellige Wachstumsraten Ende der 1960er und Anfang der 1970er Jahre ermöglichten große, aber unrentable Bauprojekte wie den Inga-Staudamm und die HGÜ Inga-Shaba. Es wurde erwartet, dass sich das Land innerhalb weniger Jahre zur Industrienation entwickeln würde. Als infolge der Ölkrise ab 1973 die Rohstoffpreise zu sinken begannen, begann auch der Niedergang der zairischen Wirtschaft. Die immer weiter ausufernde Korruption Mobutus und seiner Herrschaftclique sorgte dafür, dass Exporteinnahmen nicht mehr reinvestiert wurden und die Wirtschaftsbetriebe verfielen. Während der 1980er und zu Beginn der 1990er Jahre befand sich die Wirtschaft im freien Fall, zwischen 1990 und 1994 hatte sich das Bruttoinlandsprodukt fast halbiert, die Kupferproduktion war um über 90 % gesunken, die Inflationsrate dreistellig. Immer größere Teile der Wirtschaft wanderten in den informellen Sektor ab. Zwar stabilisierte sich die Lage kurzzeitig wieder, aber die Kriege ab 1996 führten zu einem weiteren Rückgang der Wirtschaftsleistung. Nach Kriegsende begann, getragen durch hohe Rohstoffpreise und internationale Investitionen im bedeutenden Bergbausektor, ein erneuter Aufschwung. Der Ausbruch der Finanzkrise 2008 belastet mit sinkenden Rohstoffpreisen und weniger Investitionen auch die kongolesische Wirtschaft außerordentlich stark. Allgemein. Der Kongo zählt zu den rohstoffreichsten Ländern der Welt, Bergbauprodukte sind daher seit Jahrzehnten Hauptexportgut, wichtigster Devisenbringer des Landes und Haupteinnahmequelle des Staates. Gefördert werden vor allem Diamanten (Kasai), Gold (Kivu, Ituri), Kupfer (Katanga), Coltan (Kivu), Mangan (Katanga), Blei und Zink (Katanga) sowie Zinn (Katanga). Der Reichtum an mineralischen Rohstoffen führte wiederholt zu politischen und bewaffneten Konflikten im Land. Südafrika hat nach 1994 sein außenwirtschaftliches Engagement in der DRC unter neuen politischen Prämissen zunehmend ausgebaut. Im Fokus der Bemühungen steht dabei die Entwicklung der Verkehrsinfrastruktur im Süden des Landes. Ein wichtiger Akteur bildet dabei die südafrikanische IDC. Ein weiteres von der IDC unterstütztes Investitionsfeld bildet der Kupferbergbau. Die Volksrepublik China schloss 2007 mit der DRC ein Abkommen ab, auf dessen Grundlage ein Darlehen von 5 Mrd. US-Dollar, 2008 auf 9 Mrd. erhöht, für Infrastrukturbauten gewährt wurde. Als davon profitierende Sektoren wurden genannt: Rohstofferkundungen sowie der Ausbau der Verkehrs- und Sozialinfrastruktur in der Katangaprovinz. Ein Jointventure mit dem Namen "Sicomines" zwischen Gécamines, Sinohydro und der China Railway Engineering Corporation wurde vereinbart. Coltan-Thematik. Besondere Bekanntheit seit Ende des 20. Jahrhunderts hat hier der Abbau des Erzes Coltan erlangt. Es enthält die wirtschaftlich bedeutsamen Metalloxidminerale "Columbit" und "Tantalit", aus denen Niob und Tantal gewonnen werden. Tantal ist für die Produktion elektronischer Geräte von großer Bedeutung, Niob dient als Legierungszusatz in der Stahlproduktion bei der Herstellung hitzebeständiger Metallbauteile in der Luft- und Raumfahrtindustrie. Die noch aus der Kolonialzeit und den ersten Jahren nach der Unabhängigkeit entstandenen Förderanlagen an einigen Orten sind mangels Instandhaltung heute weitgehend zerfallen, deren Wiederaufbau kommt nur schleppend voran. Artisanaler Bergbau, der weitgehend ohne maschinelle Unterstützung erfolgt, stellt heute daher einen bedeutsamen Wirtschaftszweig mit vielen Erwerbstätigen, dem größten Anteil am Bruttoinlandsprodukt und an den Exporten dar. Diese Wirtschaftsform entzieht sich weitgehend staatlicher Kontrolle. Während des Krieges war der Verkauf von Bodenschätzen wichtigste Einnahmequelle sowohl für Regierung als auch die Rebellen, auch die Nachbarstaaten und private Gesellschaften waren an der jahrelangen systematischen Ausplünderung des Landes beteiligt. Nach wie vor wird der Osten des Landes, in dem sich die meisten Bodenschatzvorkommen befinden, nicht von der Regierung, sondern zu großen Teilen von aufständischen Milizen kontrolliert. Die Schürfer müssen ihre Erze zu Preisen, die weit unter Weltmarktpreisen liegen, an Exporthändler verkaufen, die von den lokalen Machthabern konzessioniert sind. Dieses System beschert den Bewaffneten stetige Einnahmen und ermöglicht damit die Finanzierung des Kriegs. Zukünftig soll ein Zertifizierungssystem für kongolesische Rohstoffe dafür sorgen, dass diese legal gehandelt werden. Der Import von Coltan aus der DRC steht in den Industriestaaten seit Jahren in der Kritik, weil damit westliche Unternehmen indirekt maßgeblich zur Aufrechterhaltung des Kriegszustandes beitragen. Verschiedene Nichtregierungsorganisationen organisierten immer wieder Boykottkampagnen gegen Coltan aus dem Kongo, ließen dabei aber außer Acht, dass der Coltanexport Haupteinnahmequelle der Bevölkerung des Kivu ist. Um die Geldquellen der Profiteure dieser Geschäfte trockenzulegen, verhängte die Regierung am 11. September 2010 einen totalen Stopp sämtlicher Bergbauaktivitäten für die Provinzen Nord-Kivu, Sud-Kivu und Maniema im Osten des Kongos, das Schürfer, Händler, Exporteure und Inhaber von Abbaurechten betraf. Dadurch konnten die Bergbauaktivitäten jedoch nicht gestoppt werden, sondern wurden stattdessen in den illegalen Bereich gedrängt. Während kriminelle Unternehmen profitierten, brach die sonstige Wirtschaft in der Kivu-Region fast vollständig zusammen. Deshalb wurde das Bergbauverbot im März 2011 wieder aufgehoben. Erdöl. Die Erdölreserven im gesamten Staatsgebiet werden auf 180 Millionen Barrel geschätzt, im Jahr 2009 wurden täglich rund 16.360 Barrel Erdöl gefördert. Die Regierung forciert die Erdölförderung, missachtet aber dabei häufig Umwelt- und Sicherheitsbedenken. Im Jahr 2010 erhielten SOCO, Dominion Petroleum und das Staatsunternehmen Cohydro die Konzession für Ölbohrungen im Nationalpark Virunga, der zum Weltnaturerbe zählt und mitten in einem von Rebellen kontrollierten Gebiet liegt. Auf Druck von EU-Kommission, UNESCO und zuständigen UN-Stellen wurde die Genehmigung des Projekts jedoch im März 2011 von der Regierung zurückgenommen. Das Land besitzt Erdgasreserven von 991,1 Millionen Kubikmetern, derzeit findet jedoch noch keine Förderung statt. Landwirtschaft. Während der Kolonialzeit wurde die Landbevölkerung zum Anbau von Feldfrüchten für den Export gezwungen, in den Jahren vor der Unabhängigkeit entstanden auch von Europäern geleitete Agrargroßbetriebe. Seit 1960 ging die landwirtschaftliche Produktion stetig zurück, besonders die Verstaatlichung ab 1973, in der viele produktive Betriebe enteignet wurden, verursachte einen deutlichen Einbruch. Seitdem wird die Landwirtschaft vor allem zugunsten des lukrativeren artisanalen Bergbaus vernachlässigt. In den meisten ländlichen Regionen herrscht heute Subsistenzwirtschaft vor, ein Transport der Ernte in die Städte wäre aufgrund fehlender Verkehrswege ohnehin kaum möglich. Nur knapp drei Prozent der Landfläche wird landwirtschaftlich genutzt, dennoch macht die Landwirtschaft mehr als die Hälfte des Bruttoinlandsprodukts aus und beschäftigt fast zwei Drittel der erwerbstätigen Bevölkerung. Die Produktion von Nahrungsmittel reicht für den Eigenbedarf nicht aus, das Land muss solche importieren. Typische Agrarprodukte sind Maniok, Zuckerrohr, Kaffee, Palmöl, Kautschuk und Bananen. Ebenfalls besteht eine nennenswerte Holzwirtschaft. Industrie. Der industrielle Sektor konzentriert sich heute auf die Verarbeitung der vorhandenen Bodenschätze. Während des Wirtschaftsbooms um das Jahr 1970 wurde zwar mit dem Aufbau einer importsubstituierenden Industrie begonnen, diese war aber gegenüber Importen nicht konkurrenzfähig und verschwand bis in die 1990er Jahre fast völlig. Industrielle Großbetriebe bestehen heute kaum noch. Die verarbeitende Industrie besteht heute aus Kleinbetrieben, die verschiedene Konsumgüter wie Textilien, Schuhe oder Zigaretten produzieren bzw. in der Lebensmittelverarbeitung tätig sind. Außenhandel. 2007 exportierte das Land Waren im Wert von 6,1 Milliarden US-Dollar, die Hauptexportprodukte sind Diamanten, Gold, Kupfer sowie Holz und Kaffee. Die Exporte gingen im Jahr 2009 fast zur Hälfte (46,8 %) in die Volksrepublik China, es folgten die USA mit 15,4 % und Belgien mit 10,7 % sowie Sambia (5,8 %) und Finnland (4,4 %). Den Ausfuhren stehen Importe im Wert von 5,2 Milliarden US-Dollar gegenüber. Es handelt sich bei den Einfuhren zumeist um Maschinen und Fahrzeuge aller Art sowie Nahrungsmittel und Treibstoffe. Die Produkte kommen vorwiegend aus Südafrika (18,2 %), Belgien (10,2 %), China (8,3 %), Sambia (7,8 %), Frankreich (7,3 %) und weiteren afrikanischen und europäischen Staaten. Die Außenhandelsbilanz des gesamten Landes ist zumeist nahezu ausgeglichen, allerdings bestehen innerhalb des Landes hohe Ungleichgewichte, denn nahezu alle Exportgüter werden in nur wenigen Landesteilen produziert. Lokale Handelsbilanzdefizite werden zumeist durch informellen Handel, der in den Statistiken nicht auftaucht, ausgeglichen. Staatshaushalt. Der Staatshaushalt umfasste 2010 Ausgaben von umgerechnet 4 Milliarden US-Dollar, dem standen Einnahmen von umgerechnet 4,31 Milliarden US-Dollar gegenüber. Daraus ergibt sich ein Haushaltsüberschuss in Höhe von 2,4 % des Bruttoinlandsprodukts. Die Staatsverschuldung betrug 2010 3,87 Mrd. US-Dollar oder 29,5 % des BIP. 2010 wurden der Demokratischen Republik Kongo Staatsschulden in Höhe von ca. 12 Milliarden US-Dollar erlassen; 2009 entsprach die Staatsverschuldung noch 138,3 % des BIP und war damit, gemessen an der Wirtschaftsleistung, eine der höchsten der Welt. Infrastruktur. Schematische Darstellung der Verkehrsinfrastruktur im Kongo Karte der Eisenbahnstrecken im Land, welche allerdings nicht mehr alle vollständig betrieben werden geplanter Staudamm "Grand Inga" mit geplantem Staubecken nach Umleitung des Kongo Die Demokratische Republik Kongo steht großen Herausforderungen gegenüber, was die Infrastruktur betrifft. Die bewaffneten Konflikte der näheren Vergangenheit haben dazu geführt, dass die Einrichtungen entweder direkt beschädigt oder ihr Erhalt vernachlässigt wurden. Somit ist mehr als die Hälfte der Anlagen dringend erneuerungsbedürftig. Um auf den Stand eines durchschnittlichen Entwicklungslandes zu kommen, müsste die Demokratische Republik Kongo jährlich etwa 5,3 Milliarden US-Dollar bzw. 75 % ihres Bruttoinlandsproduktes von 2006 aufwenden, gleichzeitig geht aktuell jährlich fast eine halbe Milliarde US-Dollar durch ineffiziente Infrastruktur verloren. Straßenverkehr. Der Kongo erbte bei seiner Unabhängigkeit ein teils sehr gutes Straßennetz von über 100.000 Kilometern Länge, das sich über das gesamte Land erstreckte. Unzureichende Wartung während der Herrschaft Mobutus sorgte dafür, dass in den 1990er Jahren nur noch etwa 10.000 Kilometer Straße befahrbar waren, die Überlandstraßen waren fast vollständig verschwunden. Die Länge des Straßennetzes wird heute mit rund 150.000 Kilometer angegeben, von denen nur rund 3000 Kilometer asphaltiert sind; es gibt in der Welt kaum ein Land, das ein so dünnes Straßennetz hat wie die Demokratische Republik Kongo. Auf 1000 km² kommen im Schnitt gerade 1 km befestigter und 14 km unbefestigter Straße. Weniger als die Hälfte des Straßennetzes befindet sich in annehmbaren Zustand und die Wiederherstellung vernünftiger Straßenverbindungen zwischen den Ballungsräumen des Landes gehört zu den dringendsten Aufgaben der Regierung. Die niedrige Bevölkerungsdichte, das Klima und die Topographie lassen den Unterhalt eines gut ausgebauten Straßennetzes aber sehr teuer werden, so dass das Land etwa 5 % seines Bruttonationalproduktes jährlich allein für den Unterhalt seiner Verkehrsinfrastruktur ausgeben müsste. Das ist ein Vielfaches dessen, was für öffentliche Investitionen in den letzten Jahren zur Verfügung gestanden ist. Als Konsequenz des Ganzen kostet es dreimal so viel, Güter auf der Straße wie auf dem Wasserweg zu transportieren, der Straßentransport ist in der Demokratischen Republik Kongo dreimal so teuer wie in seinen Nachbarländern. Schienenverkehr. In der Kolonialzeit wurde der Ausbau eines Eisenbahnnetzes vorangetrieben, vorrangig zur effizienteren Ausbeutung der Rohstoffe, die per Bahn schneller aus dem Landesinneren an die Küste gelangen konnten. Heute verfügt die Demokratische Republik Kongo auf dem Papier über rund 5100 Kilometer Gleis in mehreren voneinander unabhängigen Netzen. Die Chemin de Fer Matadi-Kinshasa (CFMK) betreibt eine 366 km lange Verbindung zwischen Kinshasa und dem Hafen Matadi. Diese eingleisige, elektrifizierte Strecke stammt aus den 1980er Jahren und ist in relativ gutem Zustand. Die Société Nationale des Chemins de fer du Congo (SNCC) betreibt ein weitaus größeres Netz mit Zentrum im Südosten des Landes, wobei die wichtigste Verbindung zwischen Kolwezi und der Grenze zu Sambia verläuft. Über die SNCC verlassen Rohstoffe, vor allem Kupfer, das Land. Die SNCC ist von Ilebo über den Fluss Kongo mit Kinshasa und damit der CFMK verbunden. Nachdem in Angola bis 2014 die Benguelabahn wiedererrichtet wurde, soll sie innerhalb der DR Kongo mit dem Netz der SNCC verbunden werden, was Kupferexporte über den Atlantikhafen Lobito ermöglichen wird. Die Infrastruktur der SNCC ist alt und in sehr schlechtem Zustand, so dass mehr und mehr Rohstoffe über die Straße befördert werden. Die Uelle-Bahnen werden größtenteils schon lange nicht mehr bedient, jedoch wurde der Abschnitt zwischen Bumba und Aketi im Jahr 2005 wiederhergestellt. Im Vergleich mit den Eisenbahnnetzen seiner Nachbarländer verkehren auf den Schienen des Kongo sehr wenige Züge, die Indikatoren für Effizienz und Zuverlässigkeit sind deutlich schlechter und die Preise für die Güter- wie Personenbeförderung deutlich höher. Schiffsverkehr. Der Hafen von Matadi ist mit 2,5 Millionen Tonnen Kapazität der wichtigste Seehafen der Demokratischen Republik Kongo. Er liegt nahe der Kongo-Mündung, hat jedoch den Nachteil, dass er aufgrund der geringen Tiefe des Flusses nur von kleinen Schiffen erreicht wird, womit er vom Umladen in Pointe-Noire abhängt. Während Matadi für den Westteil des Landes von hoher Bedeutung ist, liegen die Häfen für die Städte im Osten der Demokratischen Republik Kongo an der afrikanischen Ostküste: Mombasa für den Nordosten, Daressalam und Durban für den Südosten. Der Hafen von Matadi ist auch im afrikanischen Kontext ineffizient bei gleichzeitig hohen Kosten, darüber hinaus muss er regelmäßig ausgebaggert werden. Dies gilt auch für die kleineren Häfen Boma und Banana. Der direkte Zugang zum Tiefseehafen Pointe-Noire ist für die Demokratische Republik Kongo durch den desolaten Zustand der Bahn- und Straßeninfrastruktur in der benachbarten Republik Kongo versperrt. Angesichts der schlechten Straßen und Gleise hat der Schiffsverkehr auf den Flüssen die größte Bedeutung für das Land. Mehr als 15.000 km des Kongo und seiner Nebenflüsse sind schiffbar. Schlechte Wartung der Schiffe und nicht mehr funktionierende Leitsysteme führen jedoch immer wieder zu Unglücken mit zahlreichen Todesopfern. Flugverkehr. Aufgrund des schlechten Straßensystems und der geographischen Größe des Landes kommt dem Luftverkehr erhebliche Bedeutung zu. Während des Krieges waren viele Städte nur per Flugzeug erreichbar, Reisen auf dem Landweg waren durch die Rebellenpräsenz zu gefährlich. Von großer Bedeutung ist der Luftfrachtverkehr, die abgebauten Bodenschätze werden vor allem im Osten des Landes auf dem Luftweg abtransportiert, weil die Straßen unter Rebellenkontrolle stehen. Im Land gibt es fast 200 Flugplätze, aber nur 26 mit befestigter Landebahn. Größter Flughafen ist der Flughafen Ndjili in Kinshasa, weitere internationale Flughäfen befinden sich in den Städten Lubumbashi, Bukavu, Goma und Kisangani. Aufgrund schlechter Wartung und mangelnder Sicherheitskontrollen kam es in Kongo wiederholt zu Flugzeugunglücken, weshalb alle rund 50 kongolesischen Fluggesellschaften auf der schwarzen Liste der EU-Kommission stehen. Die einstmals größte Linie Hewa Bora musste 2011 nach einem Absturz ihren Betrieb einstellen. Viele Inlandsflüge werden von Kongolesen als Umsteigeverbindungen über das Ausland gebucht, um die einheimischen Luftlinien zu umgehen. Somit ist die Schaffung einer effizienten Aufsichtsbehörde über den Luftverkehr von oberster Dringlichkeit. Energie- und Wasserversorgung. Die Demokratische Republik Kongo gewinnt elektrische Energie fast ausschließlich aus Wasserkraft. Die beiden größten Kraftwerke sind die zwei Inga-Staudämme am Unterlauf des Kongo. Sie gingen 1972 (Inga I) bzw. 1982 (Inga II) in Betrieb und versorgen sowohl die Hauptstadt Kinshasa als auch Bergbaubetriebe in Katanga mittels der HGÜ Inga-Shaba mit Strom. Die Demokratische Republik Kongo hat das größte Wasserkraft-Potenzial Afrikas. Es beträgt 100 GW, ist kostengünstig zu erschließen und könnte neben dem Kongo selbst auch die Exportmärkte im südlichen Afrika versorgen. Bis dato ist das Potenzial jedoch weitgehend ungenutzt, im Jahr 2009 waren nur 2,4 GW Leistung installiert, die Vernachlässigung während der Bürgerkriege hat jedoch dazu geführt, dass nur 1 GW überhaupt einsatzbereit ist. Der im Mai 2013 angekündigte Ausbau der Inga-Staudämme kann als Schritt in Richtung der Entwicklung des riesigen Potenzials verstanden werden. In der Demokratischen Republik Kongo haben etwa 30 % der Bevölkerung Zugang zu Leitungswasser, meist öffentlich oder auch im eigenen Haus. Fast ein Viertel der Bevölkerung ist jedoch auf Oberflächen-Wasser angewiesen. Besorgniserregend ist, dass dieser Anteil im Steigen begriffen ist. Der Anteil der Bevölkerung, die nicht einmal Zugang zu einer Latrine hat, liegt bei einem Sechstel, auch dieser Anteil ist am Steigen. Der öffentliche Wasserversorger heißt "Regideso", er agiert bei weitem weniger effizient als seine Pendants in anderen afrikanischen Staaten. 40 % des Wassers gehen in seinem Netz verloren und nur 70 % des konsumierten Wassers wird bezahlt. Telekommunikation. Das Telefonnetz des staatlichen Betreibers OCPT ist unzuverlässig und unzureichend, es gibt daher nur rund 10.000 Festnetzanschlüsse im ganzen Land. Trotz schwieriger wirtschaftlicher Rahmenbedingungen hat sich die Mobiltelefonie in der Demokratischen Republik Kongo schnell entwickelt. Im Jahr 2006 waren 65 % der Bevölkerung von einem GSM-Signal abgedeckt; aufgrund der schwierigen Topographie des Landes sind aber etwa 20 % ohne Subvention nicht wirtschaftlich erschließbar. Im Jahre 2009 hatten etwa drei von 100 Einwohnern der Demokratischen Republik Kongo einen Mobilfunk-Vertrag. Der lebhafte Wettbewerb zwischen den vier Anbietern führt zu niedrigen Preisen, wie auch in den Nachbarländern. Die Demokratische Republik Kongo ist erst seit 2012 an ein Unterseekabel angeschlossen, wodurch Internetzugang sehr teuer ist. Als Ergebnis dessen liegt der Anteil der Internet-Benutzer in der Demokratischen Republik Kongo noch weit unter dem afrikanischen Durchschnitt. Kultur. Die kulturellen Aktivitäten der Demokratischen Republik Kongo sind geprägt durch Synthesen von Musik, Tanz, Theater, Bildender Kunst und Film. Die traditionelle Tanzmusik wurde weltweit populär; sie wird vor allem von Musikgruppen der Hauptstadt Kinshasa mit experimentellen Musikformen, Video und Performances verknüpft. Literatur. Ein bekannter Autor war V. Y. Mudimbe, der die archaischen und gewaltsamen Strukturen der postkolonialen Stammesgesellschaft in der Zeit der politischen Wirren der 1960er Jahre beschrieb. Ins Englische übersetzt wurde sein Buch "Before the Birth of the Moon" (zuerst frz. 1976), ins Deutsche ein Erzählungsband. Als Lyrikerin und durch Kurzgeschichten wurde Clémentine Nzuji bekannt. Verschiedene Autoren emigrierten unter der Herrschaft Mobutus nach Kongo (Brazzaville) und Europa, so auch In Koli Jean Bofane, der seit 1993 in Belgien lebt und auch in Deutschland durch die Bücher "Warum der Löwe nicht mehr König der Tiere ist" und "Bibi und die Enten" bekannt wurde. Pressefreiheit. Trotz der in der Verfassung des Landes garantierten Informations- und Pressefreiheit ist die Pressefreiheit im Land laut „Reporter ohne Grenzen“ derzeit in einer „schwierigen Situation“. Die Organisation führt die Demokratische Republik Kongo im weltweiten Medienindex 2013 auf dem 142. von 179 Plätzen. Die Medien im Land sind zum überwiegenden Teil im Besitz oder unter dem Einfluss politischer Gruppierungen. Die Journalisten sind finanziell von ihren Auftraggebern abhängig, eine Situation die unabhängige Berichterstattung auch ohne direkte staatliche Interventionen einschränkt. Die Qualität der Berichterstattung ist allgemein schlecht. Die Journalisten sind unzureichend ausgebildet, schlecht bezahlt, korrupt und durch ihre Auftraggeber in der Berichterstattung eingeschränkt. Kritische Journalisten werden bedroht, erpresst, verhaftet und gelegentlich ermordet, sodass Selbstzensur weit verbreitet ist. Urheberrechte werden selten beachtet. Radio. Das Radio ist das reichweitenstärkste Medium des Landes und ist auch im ländlichen Raum sehr verbreitet. 2007 gab es im Land 2 staatliche und über 200 private, lokale Radiosender. Die UNO betreibt das landesweit empfangbare Radio Okapi; daneben sind die ausländischen Sender BBC World Service und Radio France Internationale zu empfangen. RFI musste 2009 zeitweilig den Betrieb im Kongo einstellen, nachdem der Sender Kritik an der kongolesischen Armee geübt hatte. Ende 2012 wurde zeitweilig die Ausstrahlung von Radio Okapi unterbunden, laut Mutmaßungen infolge eines Interviews mit dem Präsidenten der Bewegung 23. März, offiziell jedoch aus administrativen Gründen. Fernsehen. Das Fernsehen wurde 1978 eingeführt und verbreitete anfangs Mobutus Propaganda, der sich als vom Himmel auf die Erde herabschwebender Halbgott darstellen ließ. Heute gibt es neben dem staatlichen Radio-Télévision nationale congolaise (RTNC) bis zu 50 weitere, zumeist lokale, Privatsender wie Radio Télévision Groupe L’Avenir (RTG@). Generell ist das Programm aus Geldknappheit qualitativ eher schlecht, so werden zumeist Musik, Wiederholungen oder politische Reden ausgestrahlt. Printmedien. Zeitungen sind mit einem Preis von etwa einem US-Dollar für die meisten Kongolesen unerschwinglich und daher wenig verbreitet. Grund für die hohen Preis ist der fehlende Anzeigenmarkt, wodurch sich die Zeitungen fast vollständig über den Verkaufspreis finanzieren müssen. Der Zeitungsmarkt konzentriert sich fast nur auf die Landeshauptstadt Kinshasa, der Vertrieb auf dem flachen Land ist mangels Infrastruktur zu teuer. In Kinshasa gibt es neun regelmäßig erscheinende Zeitungen, von denen sechs der Opposition und drei der Regierung zugewandt sind. Im ganzen Land dürfte es über 200 Zeitungen geben, die allerdings mitunter nur sehr unregelmäßig erscheinen. Internet. Während laut einer 2013 veröffentlichten Studie 35 % aller Kongolesen ein Mobiltelefon besitzen, haben nur 2,3 % der Bevölkerung Zugang zum Internet. Dies liegt hauptsächlich an den extrem hohen Preisen. Eine verlässliche Internetflatrate kann 100 US-Dollar im Monat kosten, für die meisten Menschen mehr als ein Monatsgehalt. Wie viele Personen regelmäßig ein Internetcafe aufsuchen, ist unbekannt. Beobachter rechnen allerdings damit, dass nach der Fertigstellung des "West Africa Cable System", einem durch viele afrikanische Staaten verlaufendes See-Telekommunikationskabel von Südafrika nach Großbritannien, die Internetnutzung einen starken Anstieg erleben könnte. Küche. Eine kongolesische Frau trägt Bananen Das Hauptnahrungsmittel in der Demokratischen Republik Kongo ist Maniok, dessen Wurzeln gekocht, gebraten, zu Brot oder Fufu-Brei verarbeitet oder als Atiéké konsumiert werden, weiters Taro, Mais und Reis; letztere vor allem in Kasai und Katanga. Die Blätter der Maniok-Pflanze werden ebenfalls konsumiert: "Pondu" ist ein im ganzen Land verbreitetes, häufig an Festtagen zubereitetes Gericht, bei dem feingeschnittene Maniok-Blätter gekocht und dann in Palmöl geschmort werden. Dazu isst man häufig gestampfte Erdnüsse. Weiters sind die Kongolesen relativ große Konsumenten von Fleisch, neben Rindfleisch (vor allem in Kivu) sowie Geflügel-, Schweine- und Hammelfleisch kommen auch häufig Wildtiere wie Krokodil, Büffel, Schlange oder Insekten (Bushmeat) auf den Tisch. Bedingt durch die große Anzahl von Flüssen wird auch viel Fisch konsumiert, häufig getrocknet oder gesalzen. In der Regel ist das Essen scharf gewürzt, wobei Gewürze wie Chili, Ingwer, Knoblauch und Pfeffer, manchmal auch Koriander, Kümmel, Sesam, Muskat oder schwarzer Kardamom zum Einsatz kommen. Als Zwischenmahlzeit dienen oft Früchte wie Ananas, Bananen, Papayas, Mangos und Kokosnüsse. Fremde Küchen haben auf die Kochkunst des Kongo wenig Einfluss gehabt; zu nennen ist hier jedoch der von den Portugiesen übernommene gesalzene Stockfisch. Kunst. Das Kunstzentrum des Landes ist Kinshasa, dort befindet sich Zentralafrikas einzige Kunstakademie universitären Niveaus, die "Académie des Beaux-Arts de Kinshasa". Die bekanntesten Künstler des Landes unterrichten hier. Neben der Galerie der Akademie wird Kunst im französischen und belgischen Kulturzentrum und in der Galerie "Symphonie des Arts" präsentiert, ebenso wie in den privaten Studios der größeren Künstler wie Claudy Khan, Henri Kalama Akulez und Lema Kusa. Musik. In der präkolonialen Zeit gab es in der Demokratischen Republik Kongo sehr viele verschiedene Arten der traditionellen afrikanischen Musik, welche von Region zu Region variierten und sich meist in religiösen Gesängen ausdrückten. Diese besaßen Tonsysteme mit fünf-, sechs- und siebentönigen Tonleitern. Während der Kolonialzeit bildete sich dann in den 1920er Jahren eine größere Musikszene in der Koloniehauptstadt Léopoldville (heute Kinshasa). Sie bestand sowohl aus Kongolesen als auch aus westafrikanischen Ausländern wie den Hausa und französischen und US-amerikanischen Soldaten. So bildete sich nach und nach der Soukous-Musikstil heraus, welcher auch heute noch typisch für die Kongoregion ist. Neben dem Gesang waren die damals wichtigsten Instrumente Gitarre, Schlagzeug, Akkordeon und Klarinette. Nach und nach kamen Saxophone, Trommeln und später E-Gitarren hinzu. Es entstand auch ein Soukous-Tanz, welcher vor allem vom Rumba-Tanz inspiriert wurde. Der bekannteste kongolesische Sänger der 1950er Jahre war Wendo. Er veröffentlichte den Hit "Marie-Louise", der von vielen als Ausgangspunkt für die moderne kongolesische Musik gesehen wird. Die Gruppe "Staff Benda Bilili" 2010 in Frankfurt am Main Nach der Unabhängigkeit des Landes 1960 entstanden immer mehr kleinere Musikgruppen in Léopoldville, die das Musikgeschäft stetig wachsen ließen. Bands wie "African Jazz" und "OK Jazz" erreichten europaweite Bekanntheit und tourten vor allem durch Belgien. In den 1970er Jahren begann aber die Phase der sogenannten "Zaiko-Generation", welche vor allem gitarrenlastig war und von Musikern wie Papa Wemba oder der Musikgruppe "Madilu System" vertreten wurde. Auch heute noch treten die bekanntesten Musikgruppen des Landes auch international auf, doch der Musikstil hat sich weiter gewandelt: Neben der besonders in kongolesischen Diskotheken beliebten schnellen Soukous-Variante N’dombolo, zu der sehr körperbetont getanzt wird, gibt es erfolgreiche kongolesische Weltmusik-Gruppen. Zu ihnen zählt beispielsweise die Band "Staff Benda Bilili", welche 2009 auf der World Music Expo den Künstler-Preis für Weltmusik gewann. Die Gruppe wurde wie das "Orchestre Symphonique Kimbanguiste" durch einen Dokumentarfilm bekannt. Beim Orchestre Symphonique Kimbanguiste handelt es sich um das einzige Symphonieorchester Zentralafrikas. Einem breiteren Publikum in Europa ist der kongolesische Sänger und Tänzer Jessy Matador bekannt, seit er für Frankreich beim Eurovision Song Contest 2010 auftrat. Er verkörpert die moderne kongolesische Popmusik. Kino. Erste Filmstudios entstanden bereits in der Zeit der belgischen Kolonialherrschaft. Aufgrund des Mangels an finanziellen Mitteln und technischer Ausrüstung sind Filmproduktionen in der DR Kongo so gering geblieben, dass sie nicht einmal im afrikanischen Kontext eine Rolle spielen. Lediglich zwei kongolesische Regisseure konnten beim Panafrikanischen Film- und Fernsehfestival eine Auszeichnung gewinnen, nämlich Kwamy Mambu Nzinga und Mwenze Ngangura. Fußball. Der dominierende Sport in der Demokratischen Republik Kongo ist der Fußball. Obwohl die Stadien häufig in einem sehr schlechten Zustand sind, sind Fußballspiele in der Lage, eine große Anzahl an Zuschauern anzuziehen. Die größten Erfolge der Nationalmannschaft des Landes liegen indes schon weit zurück: Die Auswahl gewann die Afrikameisterschaften von 1968 und 1974; 1974 war das damalige Zaire zudem der erste schwarzafrikanische Teilnehmer bei einer Fußballweltmeisterschaft, blieb dort aber chancenlos. Angesichts der wenigen Aufstiegsmöglichkeiten versuchen die kongolesischen Fußballer, im Ausland bei einem Club anzuheuern. Zu jenen, die dabei Glück und Erfolg hatten, gehörten Muntubile Santos und Eugène Kabongo in den 1980er Jahren. Eine nationale Fußballliga gibt es in der Demokratischen Republik Kongo nicht. Der Versuch, eine landesweite Liga zu etablieren, wurde in den 1980er Jahren zwar unternommen, nach zwei Spielzeiten jedoch aufgegeben. Die Infrastruktur erwies sich als zu schwach, die Distanzen zu groß und die finanziellen Möglichkeiten zu gering. Der Landesmeister wird deshalb in regionalen Ligen ermittelt, deren beste Mannschaften im K.O.-System gegeneinander um die "Coupe du Congo" spielen. Der derzeit mit Abstand erfolgreichste Fußballverein des Kongo ist Tout Puissant Mazembe aus Lubumbashi. Der Club, der Mois Katumbi, dem reichen Gouverneur der Provinz Katanga, gehört, gewann in den Jahren 2009 und 2010 die CAF Champions League und zog 2010 als erste afrikanischer Fußballmannschaft überhaupt ins Finale der FIFA-Klub-Weltmeisterschaft ein. Außer Mazembe konnten der AS Vita Club und der Daring Club Motema Pembe die CAF Champions League gewinnen. Andere bekannte Vereine sind der FC Bilima, FC Saint Eloi Lupopo und Lubumbashi Sport. Das mit einer Kapazität von 80.000 Plätzen mit Abstand größte Stadion des Landes ist das Stade des Martyrs. Dort tragen die Hauptstadtvereine Daring Club Motema Pembe und Inter Kinshasa Fußballspiele aus. Andere Sportarten. Weitere Sportarten spielen eine sehr untergeordnete Rolle. International konnte die Basketballmannschaft der Damen auf sich aufmerksam machen. Des Weiteren genießen Boxen und Catchen eine gewisse Popularität. 1968 nahmen erstmals Athleten Zaires an den Olympischen Sommerspielen teil. Danach kam es 1984 wieder zu einer Teilnahme. Seitdem nehmen Athleten der DR Kongo und ihrer Vorgängerstaaten ununterbrochen an den Sommerspielen teil, ohne allerdings dabei eine Medaille errungen zu haben. In der Zeit der Diktatur von Mobutu Sese Seko wurden Sportereignisse auch zu Propagandazwecken benutzt, um die Macht Mobutus zu stärken und dem Staat Zaire internationale Anerkennung zu sichern. Hierfür ist vor allem der berühmte Boxkampf "Rumble in the Jungle" zwischen George Foreman und Muhammad Ali zu nennen, der 1974 im Stade Tata Raphaël in Kinshasa stattfand. Es war das erste große Sportereignis auf afrikanischem Boden. Einzelnachweise. Kongo Demokratische Republik Kongo Demokratische Republik Kongo Demokratische Republik Digitalfotografie. Als Digitalfotografie (Gegenteil: Analogfotografie) wird die Fotografie mit Hilfe einer digitalen Fotokamera oder einer Kamera mit digitaler Rückwand bezeichnet. Die technischen Grundlagen der Digitalfotografie weichen von der klassischen, optochemisch basierten Fotografie ab und ähneln, insbesondere bei der Bildwandlung, einerseits der Videotechnik, andererseits den bildgebenden Verfahren. Werden nicht-digitale Fotos (Papierbilder, Negative, Dias) gescannt (digitalisiert), spricht man nicht von digitaler Fotografie, sondern von digitaler Bildbearbeitung. Geschichte. Das Bestreben, Fotos elektronisch abspeichern zu können, ohne den Umweg über Bild- oder Diascanner machen zu müssen, ist eng mit dem Aufkommen des Fernsehens im ersten Drittel des 20. Jahrhunderts verbunden. Fernsehbilder zeigten, dass es möglich ist, Bilder elektronisch zu übertragen und direkt von der Fernsehkamera auf den heimischen Apparat zu projizieren. Das große Problem stellte jedoch die nichtanaloge Speicherung dieser Bilder dar. Russell Kirsch von NBS hatte schon 1957 den Digital-Scanner entwickelt. Das allererste derart gescannte Bild war ein Babyfoto seines neugeborenen Sohns Walden, 176 mal 176 Pixel. Auf diesen Ideen baute Steve Sasson in den frühen 1970er Jahren auf. Die erste Kamera, die als Vorreiter der Digitalkamera angesehen werden kann, wurde deshalb auch als „“ bezeichnet und war ein 1975 von Steve Sasson bei Kodak entwickelter Prototyp. Das Potential der Entwicklung wurde jedoch nicht erkannt und so gilt gemeinhin die 1981 von Sony unter dem Namen Mavica vorgestellte erste kommerzielle Kamera nach demselben Funktionsprinzip als „Ur-Digitalkamera“. Allerdings arbeitete diese Kamera, wie der Name schon vermuten lässt, mit einem Magnetband (auch Video Floppy genannt), welches keine digitale Speicherung der Daten zuließ. Vorrangig in den USA brachten Kamerahersteller wie Canon, Nikon, Konica oder Fuji Weiterentwicklungen dieses Modells auf den Markt. In Europa war das Interesse an dieser Technologie eher verhalten. Die erste wirkliche Digitalkamera stellte 1991 die kalifornische Firma Dycam auf der Computerfachmesse CeBIT unter dem Namen "Model 1" vor. Die Kamera war mit einem lichtempfindlichen CCD-Sensor sowie einem Speichermodul ausgestattet, das die direkte Übertragung der Bilder auf den Computer ermöglichte. Trotz des schwarz-weißen Aufnahmemodus’ und einer – aus heutiger Sicht geringen – Auflösung von 376 × 284 Bildpunkten war die Fachpresse begeistert. Das US-amerikanische Wirtschaftsmagazin Fortune wagte sogar folgende Prognose: „Ein Sturm technologischer Innovationen und neuer Produkte sammelt sich über der Welt der Fotografie an, der viel von dem wegblasen wird, was bis heute altbekannt ist. Filme, Chemikalien und Dunkelkammer werden ersetzt werden durch eine Technologie, die blendend und altbacken zugleich ist: den Computer.“ Auf der photokina, einer internationalen Fachmesse für die Photo- und Bildbearbeitungsbranche in Köln, präsentierten 1992 nahezu alle namhaften Firmen aus den unterschiedlichsten Bereichen ihre Prototypen. Neben klassischen Kameraherstellern wie etwa Kodak und Rollei waren der Videogigant Sony und Leaf ebenfalls mit Digitalkamerastudien vertreten, denn das Schlagwort „“ verkündete für alle die Entstehung eines neuen Marktes. Nur zwei Jahre später lautete das Motto der photokina „digital total“ und machte deutlich, wohin die zukünftige Entwicklung gehen würde. 1994 wird auch als das „offizielle“ Startjahr der Digitalen Fotografie in Deutschland angesehen, da die Vogelsänger-Studios den Einsatz von Digitalkameras bekannt gaben. Diese Mitteilung hatte deshalb eine besondere Relevanz, weil die Vogelsänger-Studios – ein großes, europäisches Fotostudio im Bereich Interieurfotografie – für ihren hohen Qualitätsanspruch an Bilder, Bildermacher und Handwerkszeug bekannt sind. Indem einer der Branchenführer im Bereich der Werbefotografie auf digitale Kameratechnik setzte, machte er hierzulande den Weg für die Digitalkamera frei. Allerdings übten sich die Verbraucher bei einem anfänglichen stolzen Preis für die ersten Modelle von ca. 2.000 DM (entsprechend ca. 1000 €. Unter Berücksichtigung der Inflation entspricht der D-Mark-Betrag in Höhe von 2.000,00 DM aus dem Jahr 1992 sogar 1.552,93 Euro nach heutiger Kaufkraft, Stand 11. Mai 2014 ) in Zurückhaltung, und so blieb der Kundenkreis für die neuen Kameras in den Folgejahren in überschaubarem Rahmen. Ebenfalls im Jahre 1994 tätigten PC- und Fotoexperten folgende Analyse: „Für den oft zitierten Otto Normalverbraucher dürfte die Digitale Fotografie erst dann interessant werden, wenn namhafte Einzelhandelketten einfachst zu handhabende Digitalkameras als Massenware in ihren Regalen feilbieten und der Fotohandel gleichzeitig die Möglichkeit bietet, von den elektronischen Aufnahmen preisgünstige Papierbilder herzustellen – und dies wird aller Wahrscheinlichkeit nach noch eine geraume Zeit dauern.“ Bildwandlung. In der Digitalfotografie werden zur Wandlung der Lichtwellen in digitale Signale Halbleiter-Strahlungsdetektoren in CCD- oder CMOS-Technik als Bildsensoren verwendet. Bei dieser Digitalisierung eines analogen Bildes handelt es sich um eine Bildwandlung, bei der eine Diskretisierung (Zerlegung in Bildpunkte) und Quantisierung (Umwandlung der Farbinformation in einen digitalen Wert) des analogen Bildes durchgeführt wird. Hybridverfahren. Eine Übergangslösung zwischen analoger und digitaler Fotografie stellt die Fotografie mit dem klassischen „Silberfilm“ dar, bei der anschließend das Negativ oder Positiv zunächst mit einem Scanner digitalisiert wird und dann das gespeicherte Bild digital weiterbearbeitet wird. Als kostengünstigere Variante können – etwa seit 1999 – sogenannte „hochaufgelöste“ (Eigenwerbung) Scans gemeinsam mit der Filmentwicklung bestellt werden. Auf der gelieferten CD sind die Aufnahmen mit geringerer Auflösung im verlustbehafteten JPG-Format gespeichert. Die Qualität dieser Scans ist nur für die Betrachtung am Monitor, aber nicht für eine Weiterverarbeitung geeignet. Kamerainterne Bildverarbeitung. Aufgrund der Architektur der Bildaufnehmer ist zwangsläufig eine Interpolation der Farb- und Helligkeitswerte (sog.) notwendig um ein Bild anzeigen zu können. Diese Berechnung und eine Reihe von weiteren Bild verändernden Verarbeitungsprozessen wie das Bestimmen des Weißabgleiches, Erhöhung der Farbsättigung, Anheben des Kontrasts, Durchführung einer Tonwertkorrektur, Filterung (die u. a. eine Rauschreduktion bewirken kann), Verbesserung des Schärfeeindrucks und ggf. eine verlustbehaftete Komprimierung übernimmt die Kameraelektronik und die Firmware der Kamera, wenn direkt auf die Speicherkarte eine JPEG-Bilddatei (oder ein vergleichbares Dateiformat) gespeichert werden soll. Die kamerainterne Bildverarbeitung kann bei hochwertigen Kameras umgangen werden, indem direkt die Metadaten und die Bild gebenden Sensordaten in einer sog. RAW-Datei abgespeichert werden; dabei handelt es sich um ein Rohdatenformat, das von Hersteller zu Hersteller unterschiedlich aufgebaut ist. Dieses wird oft als „digitales Negativ“ bezeichnet. Bei der RAW-Konversion, die Teil der Postproduktion am Rechner ist, wird dann aus den im Rohdatenformat gespeicherten Messwerten ein Bild interpoliert und die oben beschriebenen Bild verändernden Bearbeitungsschritte (bei Bedarf vom Nutzer „manuell“) durchgeführt. Seitenverhältnis. Bei digitalen Kompaktkameras hat der Sensor ein Seitenverhältnis von 1,33 (4:3), daher werden die Bilder standardmäßig auch mit diesem Seitenverhältnis gespeichert. Teilweise ist auch die Speicherung mit anderen Seitenverhältnissen möglich, dies erfolgt überwiegend durch Speicherung eines Bildausschnitts. Diese Praxis hatte ursprünglich historische Gründe: Die ersten Digitalkameras waren auf existierende Sensoren angewiesen, und da 4:3 dem Seitenverhältnis der verbreiteten Computermonitore und Fernsehnormen NTSC, PAL und SECAM entspricht (was wiederum von den frühesten Kinofilmen herrührt), waren überwiegend Sensoren mit diesem Seitenverhältnis verfügbar. Digitale Spiegelreflexkameras und andere Systemkameras dagegen verwenden in der Regel Sensoren mit dem Seitenverhältnis 3:2, das dem des Kleinbildfilms entspricht. Ausnahme sind hierbei die Kameras der Four-Thirds- und Pentax-Q-Systeme, die das Seitenverhältnis 4:3 anwenden. Viele Kameras des vom Four-Thirds-Standard abgeleiteten Micro-Four-Thirds-Systems sowie einzelne Kompaktkameras ermöglichen die Auswahl verschiedener Seitenverhältnisse, wobei immer ein Ausschnitt aus einer Sensorfläche genutzt wird, die insgesamt über den Bildkreis der Objektive hinausreicht. Hierdurch wird ein Auflösungsverlust, wie er durch reinen Beschnitt entstehen würde, vermindert. Pixelanzahl und Auflösung. Die Anzahl der Bildpunkte, Pixel genannt, wird vom Hersteller einerseits als rein technische Eigenschaft des Sensors und andererseits als nutzbare Pixelanzahl angegeben. Letztere entspricht üblicherweise der maximal möglichen Bildauflösung der Kamera. Beim in den meisten Fällen verwendeten Sensor des Bayer-Typs handelt es sich hierbei jedoch um Pixel, die mit unterschiedlichen Farbfiltern versehen sind und daher nur für Ausschnitte des Lichtspektrums empfindlich sind. Die fehlenden Farbinformationen werden aus den umgebenden Pixeln interpoliert. Beim Bayer-Sensor hat die Hälfte der Pixel grüne und je ein Viertel blaue und rote Farbfilter. Varianten, bei denen die Hälfte der grünen Farbfilter durch türkisfarbene ersetzt wurden, haben sich nicht durchgesetzt. Dies gilt ebenso für den Xenia-Sensor, der die Primärfarben Gelb, Cyan und Magenta verwendete. Bei Bayer-Sensoren mit abweichenden Pixelanordnungen (z. B. rechteckige Pixel bei der Nikon D1X oder diagonal angeordnete Pixel beim Super-CCD-Sensor von Fujifilm) werden die Bilder zwar mit der Pixelanzahl ausgegeben, die der tatsächlichen Anzahl der Pixel entspricht, jedoch besteht hier keine eindeutige Relation von Sensor-Pixel und Bild-Pixel mehr. Super-CCD-Sensoren enthalten teilweise zusätzliche farbunempfindliche Pixel, die nicht zur Bildauflösung beitragen, sondern zur Erhöhung des Dynamikumfangs dienen. Von der Pixelanzahl her nicht unmittelbar vergleichbar sind die Foveon-X3-Sensoren, da bei diesen die Flächen unterschiedlicher Farbempfindlichkeit übereinander angeordnet sind. Hier hat also jeder Pixel volle Farbempfindlichkeit, das Interpolieren der Farben entfällt. Zu beachten ist hierbei allerdings, dass aus Marketinggründen die Pixelanzahl oft bereits verdreifacht angegeben wird. Zurzeit wird der Sensor nur von Kameras der Marke Sigma verwendet. Die Pixelanzahl allein erlaubt allerdings noch keine Aussage zur erreichbaren Auflösung, da hierfür auch die Qualität des verwendeten Objektivs wichtig ist. Bei Ausgabe des Bilds im JPEG-Dateiformat wirkt sich zudem die Aufbereitung der Bilddaten in der Kamera auf die Auflösung aus. Insbesondere bei digitalen Kompaktkameras und Mobiltelefonen bleibt die tatsächliche Bildauflösung oftmals deutlich hinter der sich aus der Pixelanzahl ergebenden theoretischen Auflösung zurück. Die Ursache hierfür liegt in den geringen Sensorabmessungen und den üblicherweise verwendeten Objektiven einfacher Bauart und daher begrenzter Abbildungsleistung. Die Auflösung digitaler Bilder ist nur eingeschränkt mit der Auflösung eines Filmnegativs oder Abzugs zu vergleichen, da es je nach Ausgabemedium zu Verlusten kommen kann. Zudem wird die heute erreichbare Auflösung bei üblichen Ausgabegrößen wie dem Druck bis Postkartengröße oder Vollbilddarstellung an Bildschirmen bei weitem nicht ausgenutzt. Die Pixelanzahl gibt nicht unbedingt die Auflösung feiner Strukturen wieder. Bei der Digitalisierung gilt das Nyquist-Shannon-Abtasttheorem. Danach darf die maximale im Bild auftretende Frequenz formula_1 maximal halb so groß sein wie die Abtastfrequenz formula_2, weil es sonst zu unerwünschten Bildverfälschungen, zum Beispiel zu Moiré-Effekte, kommt und das Originalsignal nicht wiederhergestellt werden kann. Eine weitere Einschränkung der Vergleichbarkeit konventioneller und digitaler Aufnahmen ergibt sich aus der Tatsache, dass es sich beim Filmkorn - technisch betrachtet - um ein "stochastisches", also ein völlig zufälliges und unregelmäßiges Rauschen handelt, das bei technisch gleicher Auflösung meist weitaus weniger störend wirkt als das Rauschen im strikt regelmäßigen Pixelmuster digitaler Aufnahmen. Visuell wirken somit „analoge“ Bilder mit sichtbarem Korn - bei gleichem Informationsgehalt - entweder erträglicher oder gestört. In der Praxis bedeutet das, dass man vor der Digitalisierung die maximale Frequenz kennen oder herausfinden muss und dann das Signal zwecks Digitalisierung mit mehr als der doppelten Frequenz abgetastet werden muss. Bei der Digitalfotografie kann man, um die Moiré-Effekte von vornherein zu vermeiden, die Optik leicht unscharf stellen. Das entspricht einer Tiefpass-Filterung. Wenn die Pixelzahl des Sensors erhöht wird, muss die Optik neu angepasst werden, weil sonst die erhöhte Pixelzahl nicht ausgenutzt werden kann. In der Praxis wird auch ein sog. Moiré-Filter benutzt, der im Strahlengang sitzt und somit die Nutzung perfekt abgestimmter Optiken ermöglicht. Beim Scannen gerasterter Bilder muss man die Auflösung ebenfalls so groß wählen, dass die feinsten Strukturen des Rasters dargestellt werden können. Anschließend kann man entrastern (dazu gibt es unterschiedliche Funktionen) und dann die Auflösung herabsetzen. Dateiformat. Die bei der Digitalfotografie entstehenden Bilder, die in Form digitaler Daten vorliegen, werden in der Regel elektronisch, elektromagnetisch oder optisch gespeichert; jedem Bild entspricht dabei i.d.R. eine Datei, die meist in einem standardisierten Grafikformat abgespeichert ist. Aktuelle Digitalkameras verwenden JFIF (JPEG-Komprimierung), einige besser ausgestattete auch das Rohdatenformat und TIFF. Bei den Hybridverfahren wie der Kodak Photo CD entstehen "ImagePacs". Beim Scannen analoger Vorlagen hat man meist freie Auswahl über das digitale Speicherformat. Für maximale Bildqualität in der Nachbearbeitung empfiehlt sich das Rohdatenformat. Früher wurden die Bildsensordaten unkomprimiert gespeichert, ab 2005 setzten sich Lossless-Kompressionen infolge stärkerer Prozessoren durch. Dieses Format bedarf jedoch deutlich größerer Mengen Speicherplatz und wird insbesondere im professionellen Umfeld angewendet. JPEG ist dagegen verlustbehaftet, kann aber je nach Kompressionsgrad sehr speicherökonomisch, unter günstigen Umständen aber auch sehr nah am Original sein. JPEG2000 beherrscht mittlerweile die verlustlose Komprimierung und einen größeren Farbraum, wird aus Lizenzgründen aber kaum unterstützt. Der Fotograf muss also bereits "vor" dem Fotografieren eine Entscheidung über den Kompressionsgrad und damit über den möglichen Detailreichtum fällen. Eine vergleichbare Vorabentscheidung trifft der analog Fotografierende mit der Auswahl des Filmmaterials, und er muss selbiges wechseln, um beispielsweise eine andere Lichtempfindlichkeit oder Filmkörnigkeit zu erreichen. Es gibt nach wie vor viele proprietäre Dateiformate, die nicht mehr ohne weiteres gelesen werden können, wenn die entsprechende Software nicht verfügbar ist. Rohdatenkritiker merken an, dass man entsprechend darauf reagieren muss, z. B. diese zu konvertieren (Umwandlung in ein offenes oder verbreitetes Dateiformat, wie beispielsweise Digital Negative (DNG)) oder die damalige Bearbeitungs-/Entwicklungssoftware zu sichern. Meta-Informationen. Zu den Vorteilen der digitalen Bildspeicherung gehört die Möglichkeit, umfangreiche Meta-Informationen (oder auch Metadaten) in der Datei zu speichern; diese Zusatzfunktion ist im Exchangeable Image File Format (Exif) standardisiert und wird zumindest mit Basisdaten von allen Digitalkameras realisiert. Die Option der Speicherung von GPS-Positionsdaten bei Aufnahme (Georeferenzierung) in den Metadaten ist nur mit entsprechend ausgestatteten Kameras möglich, die hierfür in der Regel auf den Anschluss eines externen GPS-Empfängers angewiesen sind. Die entsprechenden Felder in den Metadaten können aber auch händisch oder durch entsprechende Programme ausgefüllt werden. Einige Kameras verfügen zusätzlich über einen integrierten Kompass, welcher die Blickrichtung der Fotos abspeichert. Bereits das Hybridsystem APS verfügte über noch vergleichsweise eingeschränkte Möglichkeiten der Speicherung von Meta-Informationen, und auch bei Kleinbildkameras ist das Einfügen von Zeit- und Datumsangaben sowie der Bildnummer auf den Filmstreifen möglich, wenn die Kamera über eine entsprechende Funktion verfügt. Einige Kleinbild-Spiegelreflexkameras verfügen über eine Möglichkeit, zahlreiche Aufnahmeparameter zu speichern und in eine Textdatei ausgeben zu können; allerdings ist die Verknüpfung dieser Daten mit den gescannten Bilddateien ausschließlich händisch möglich. Bei den in die digitale Bilddatei eingebetteten Exif-Daten ist zu beachten, dass einige Programme diese Daten bei einer Bildbearbeitung nicht erhalten; dies betrifft z. B. ältere Versionen der Bildbearbeitungssoftware Adobe Photoshop. Kameras und Kamerasysteme. Analoge Kameras und Kamerasysteme wurden über Jahrzehnte entwickelt und optimiert bevor ihre Weiterentwicklung bei den marktführenden Herstellern in den letzten Jahren eingestellt wurde. Die Bedienung der meisten analogen Kleinbildkameras war ähnlich – wobei Autofokus, Intervallometer, Belichtungsmessung etc. je nach Hersteller deutlich variierte. Die Benutzung von Tasten und Menüsystemen bei Digitalkameras kann deutlich umfassender und komplexer sein und erfordert weiteres Wissen über die Photochemie hinaus - da viele digitale Kameras zahlreiche Funktionen mehr bieten als ihre mechanischen Vorgänger. Bei der Digitalfotografie ist damit zu rechnen, dass der Fotograf bei jedem Systemwechsel neue Dinge erlernen kann, während die Grundlagen stets gleich bleiben – wie Blende, Brennweite, Verschlusszeit etc. Die Kompatibilität der Modelle untereinander ist stark unterschiedlich. Sie ist zum einen herstellerabhängig, modellreihenabhängig und – gerade bei einfacheren Nicht-Spiegelreflexmodellen – oft nicht oder kaum gegeben. Einige Hersteller führten auch zusammen mit ihren digitalen Kameras vollkommen neue Systeme ein. Digitale Kamerarückwände. Digitale Bilder können nicht nur mit nativen Digitalkameras oder durch Digitalisieren analoger Vorlagen, sondern auch mit einer digitalen Kamerarückwand angefertigt werden. Scanbacks funktionieren nach dem Prinzip eines Flachbettscanners; es wird dabei zwischen Single-shot- und Multi-Shot-Verfahren unterschieden. Wirkung der Objektive. Bei heutigen Digitalkameras sind meistens Bildsensoren mit einer gegenüber den klassischen Filmformaten geringeren Aufnahmefläche verbaut. Aufgrund des kleineren Bildformates verkleinert sich bei vorgegebener Brennweite der Bildwinkel eines Objektivs, und die Schärfentiefe wird bei vorgegebener Blendenzahl kleiner. Dies bedeutet, dass ein Objektiv mit einer Brennweite, das bei Kleinbildfilm als Normalobjektiv eingesetzt wird, bei einer Digitalkamera mit kleinerem Aufnahmesensor den Bildwinkel eines Teleobjektivs hat. Bei gleichem Bildwinkel und gleicher Blendenzahl vergrößert sich der Bereich der Schärfentiefe. Das Verhältnis von Normalbild-Diagonale und tatsächlicher Diagonale des Aufnahmesensors wird als „Formatfaktor“ bezeichnet und wird in der Regel im Datenblatt der Kamera beziehungsweise des Objektivs angegeben. Er beschreibt, mit welcher Zahl man die tatsächliche Brennweite des Objektivs einer Kamera multiplizieren muss, um für das Kleinbildformat ein Objektiv mit gleichem Bildwinkel zu erhalten. Hat der Aufnahmesensor beispielsweise die Größe 12 mm x 18 mm, also die halbe Diagonale des Kleinbildformats 24 mm mal 36 mm, beträgt der Formatfaktor 2. Ein Objektiv von 25 mm hat bei dieser Digitalkamera den gleichen Bildwinkel wie ein 50-mm-Objektiv bei Kleinbild, und es resultiert bei gleicher Blendenzahl die gleiche Belichtungszeit. Wird die Blendenzahl durch den Formatfaktor dividiert, resultiert die Blendenzahl, bei der die gleiche Schärfentiefe erreicht wird. Digitale Aufnahmepraxis. Die digitale Aufnahmepraxis weist gegenüber der konventionellen Fotografie einige Besonderheiten auf. Bildgestaltung. Als Beispiel sei hier die Veränderung der Schärfentiefe erwähnt, die sich aus dem Formatfaktor ergibt (oft fälschlich Brennweitenverlängerung genannt: Die Brennweite eines Objektivs ändert sich jedoch nicht, nur dessen genutzter Bildwinkel durch das veränderte Aufnahmeformat); Objektive, die in der Kleinbildfotografie als Weitwinkel gelten, treten bei den meisten Digitalkameras als Normalobjektiv auf. Da sich die optischen Gesetzmäßigkeiten nicht verändern, nimmt die effektive Schärfentiefe (genauer: der "Schärfebereich") des Bildes zu. Mit Digitalkameras ist es daher schwerer als in der Kleinbildfotografie, einen in Unschärfe zerfließenden Bildhintergrund zu erzielen, wie er beispielsweise in der Porträt- und Aktfotografie aus gestalterischen Gründen häufig erwünscht ist. Einige moderne Spiegelreflex-Digitalkameras verfügen bereits über einen Vollformatsensor (engl. Full Frame) (24 mm × 36 mm). Diese Kameras verhalten sich genauso wie analoge Kleinbild-Spiegelreflexkameras. Spezialfunktionen. Viele Digitalkameras bieten dreh- oder schwenkbare Displays, mit denen einige Aufnahmetechniken komfortabler als mit herkömmlichen Kameras machbar sind. Hierzu gehören beispielsweise Aufnahmestandpunkte in Bodennähe, wie sie häufig in der Makrofotografie benötigt werden, oder Aufnahmen „über Kopf“, um über eine Menschenmenge hinweg zu fotografieren. Die Nachteile der Displays liegen im hohen Stromverbrauch und der mangelnden Sichtbarkeit in hellen Umgebungen (helles Tageslicht). Aktuelle Digitalkameras bieten fast ausnahmslos die Möglichkeit der Aufzeichnung kurzer Videoclips von etwa einer Minute in unterschiedlichen Formaten von QQVGA oder QVGA bis hin zu WUXGA, in der Regel auch mit Ton. Tendenziell ist eine Entwicklung der digitalen Fototechnik zu beobachten, immer weiter mit der Videotechnik zu konvergieren; in Spitzenmodellen ist die Länge der Videoclips nur noch durch die Kapazität des Speichermediums begrenzt; die Bildauflösung liegt dabei im Bereich der Qualität von VHS bis hin zu Blu-ray (VGA, 640 × 480 bzw. PAL, 720 × 576 bis Full HD, 1920 × 1080). Elektronische Bildbearbeitung. Neben der automatisch durch die Kamera durchgeführten Bildverarbeitung eröffnet die Digitalfotografie zahlreiche Möglichkeiten der Bildmanipulation und -optimierung durch die elektronische Bildbearbeitung, die über konventionelle Bildretusche und Ausschnittvergrößerung weit hinausgehen. Beispielsweise können aus einer Folge von Einzelbildern komfortabel Panoramafotos montiert, Bildhintergründe ausgetauscht oder Personen aus Bildern entfernt oder hineinkopiert werden. Speichermedien zum Fotografieren. Vorder- und Rückseite einer SD-Karte Als Speichermedien werden in der Digitalfotografie üblicherweise Speicherkarten verwendet. Weit überwiegend sind dies SD-Karten (Secure Digital Memory Card, auch als Typen SDHC und SDXC). Nur noch geringe Bedeutung haben firmenspezifische Kartentypen wie Memory Stick (Sony) und xD-Picture Card (Fujifilm und Olympus). Die etwas größeren CompactFlash-Karten (CF) waren lange Zeit Standard, werden inzwischen aber nur noch für wenige hochwertige Spiegelreflexkameras benötigt. Zeitweise waren Microdrives eine kompatible Alternative für größere Speicherkapazitäten zu CompactFlash-Karten. Mobiltelefone mit Kamerafunktion speichern üblicherweise auf microSD-Karten. In der Anfangszeit der Digitalfotografie wurden PC-Karten verwendet, diese sind ebenso wie Kameras für SmartMedia-Karten jedoch vollständig vom Markt verschwunden. Digitale Kompaktkameras haben zudem häufig einen internen Speicher, der die Speicherung einer geringen Anzahl von Bildern ohne Speicherkarte ermöglicht. Bei einigen digitalen Spiegelreflexkameras ist mit entsprechender Software auch die Fernsteuerung von einem Computer aus möglich. Die Speicherung kann dann direkt auf der Festplatte des Computers erfolgen, eine Speicherkarte wird dann nicht benötigt. Die Verbindung zwischen Computer und Kamera erfolgt entweder durch USB- oder SCSI-Kabel oder über WLAN. Bei einigen Kameras ist ebenfalls möglich, die Bilddateien über WLAN auch ohne Fernsteuerung zu versenden. Speicherkarten werden üblicherweise nur zur vorübergehenden Speicherung bis zur Übertragung der Bilddateien auf einen Computer verwendet. Sie werden anschließend formatiert und stehen dann wieder zur Verfügung. Für den Fall, dass größere Datenmengen anfallen, kann der Inhalt der Speicherkarten zunächst auf Image Tanks übertragen werden, die teilweise auch eine Anzeige der Bilder ermöglichen. Von den Image Tanks werden die Dateien später auf den Computer übertragen. Durch die Möglichkeit der Fernsteuerung und durch die Möglichkeit der Speicherung großer Bildmengen hat die Digitalfotografie schon früh Einsatz unter extremen klimatischen Bedingungen gefunden, wie beispielsweise im Weltall, Wüsten oder Polargebieten. Speichermedien zum Archivieren. Für die langfristige Speicherung von Bilddaten gelten grundsätzlich die gleichen Anforderungen, die generell auf die Archivierung digitaler Daten zutreffen. Als weiteres Problem kommt bei Bilddateien hinzu, dass bei Verwendung von RAW-Formaten die langfristige Lesbarkeit der Dateien nicht sichergestellt ist. Bisher (Stand 2011) sind jedoch noch für alle jemals verwendeten RAW-Formate aktuelle Programme verfügbar, mit denen die Bilddateien geöffnet und weiterverarbeitet werden können. Während beim Film ein beschädigtes Original verwendet werden kann, ist dies bei digitalen Daten in der Regel nicht oder nur mit hohem technischen Aufwand möglich. Der Hauptvorteil digitaler Daten ist, anders als beim chemischen Film, dass beliebig viele identische Kopien erzeugt werden können. Auch der Transport digitaler Daten ist wesentlich unkomplizierter. Bilddatenbanken. Analog zur konventionellen Fotografie gibt es die Möglichkeit eines Index-Prints, in Form von Thumbnails in einem Ordner. Spezielle Programme zum Auffinden von archivierten Bilddateien erleichtern die Suche nach Bildern, die in der „analogen Welt“ einem gut gewartetem Negativsortiersystem entspricht. Während in der analogen Fotografie Kontaktabzüge noch zum normalen Arbeitsablauf gehörten, sind diese Techniken - auch bei Speicherung im Rohdatenformat - im Betriebssystem integrierbar. Ein Leuchttisch wird damit überflüssig. Die so genannten Bilddatenbanken erzeugen ein Vorschaubild des Bildes und bieten Felder zur Beschreibung des Bildes und der Aufnahmesituation; ein gewisser Komfort ergibt sich durch die Metadaten, die durch das Exif-Format automatisch aufgezeichnet werden (Datum, Uhrzeit, Brennweite, Blende etc.). Viele dieser Funktionen sind in aktuellen Betriebssystemen bereits enthalten. Für ambitionierte Fotografen oder Berufsfotografen sind Online-Fotoagenturen geeignete Plattformen, um ihre Fotos zu speichern und von dort direkt an die Käufer (Zeitungen, Verlage, Redaktionen etc.) zu vertreiben. Entsprechend große Server und Speicherplätze sind jedoch Voraussetzung. Darüber hinaus ist eine „Verschlagwortung“ mit passenden Schlüsselworten möglich, um aus den Datenbanken entsprechende Bilder zu finden. Bedingt durch den Vorteil der Rechentechnik dauert dies nur einen Bruchteil der für Bildmaterialsuche analoger Aufnahmen benötigten Zeit. Zur Verschlagwortung werden die im Bild gespeicherten IPTC-Felder genutzt. Präsentation. Digitale Bilder können ebenso präsentiert werden wie konventionelle Fotografien; für nahezu alle Präsentationsformen existieren mehr oder minder sinnvolle Äquivalente. Die Diaprojektion vor kleinem Publikum wird beispielsweise ersetzt durch die Projektion mit einem Videoprojektor ("Video-Beamer"); das Fotoalbum durch die Webgalerie; das gerahmte Foto durch ein spezielles batteriebetriebenes Display usw. Wird eine erneute Bildwandlung (A-Wandlung) in Kauf genommen, können digitale Bilder ausgedruckt oder ausbelichtet werden und anschließend genauso wie konventionelle Papierabzüge genutzt werden; sogar die Ausbelichtung auf Diafilm ist möglich. Allerdings erfordern alle derzeitigen digitalen Präsentationsformen ausreichende Technikkenntnisse sowie recht kostspielige Technik; der billigste Video-Beamer kostet derzeit noch immer etwa das Fünffache eines guten Diaprojektors. Als weiteres neues Problem stellt sich das der Kalibrierung des Ausgabegeräts, was bei den meisten Monitoren, jedoch nur bei wenigen Flüssigkristallbildschirmen (LCDs) möglich ist und insbesondere bei Beamern einen erheblichen Aufwand verursachen kann. Fotowirtschaft. Durch die enge Verwandtschaft der Digitalfotografie einerseits mit der Videotechnik und andererseits mit der Informations- und Kommunikationstechnik erschienen ab den 1980er Jahren eine Reihe von neuen Anbietern auf dem Fotomarkt, die ihr Know-how aus dem Bereich der Video- und Computertechnik gewinnbringend einsetzen konnten. Traditionelle Fotoanbieter gingen Kooperationen mit Elektronikunternehmen ein, um kostspielige Eigenentwicklungen zu vermeiden. Der Digitalfotografie kommt in der Fotowirtschaft eine wachsende Bedeutung zu. So wurden nach Branchenschätzungen bereits 1999 neben 83 Milliarden analogen Fotografien schon 10 Milliarden Digitalbilder hergestellt. Der Branchenverband Bitkom berichtet, dass im Jahr 2006 circa 58 Prozent aller Deutschen über 10 Jahren eine Digitalkamera verwendeten. Nach Angaben des Marktforschungsunternehmens Lyra Research wurden 1996 weltweit insgesamt 990.000 Digitalkameras abgesetzt. In Deutschland wurden im Jahr 2003 erstmals mehr Digitalkameras als analoge Kameras verkauft; nach Aussagen des Einzelhandels wurden 2004 bereits teilweise doppelt so viele digitale Geräte wie analoge Kameras abgesetzt. 2010 wurden nach Angabe des japanischen Branchenverbandes CIPA weltweit rund 121,5 Mio. Digitalkameras verkauft. Neben der Ausbreitung der Digitalfotografie in den Massenmarkt gibt es einen Trend zum Zurückdrängen der analogen Fotografie. Seit etwa 2004 ist beispielsweise eine großflächige Verdrängung fotochemischer Produkte aus dem Angebot von Fotohändlern und Elektronikmärkten zu beobachten: So ging das Produktsortiment an fotografischen Filmen gegenüber dem Vorjahr deutlich zurück. Die Entwicklung neuer Materialien für die Fotografie auf Silberfilm bleibt dennoch nicht stehen. Insgesamt sind zwischen 2006 und 2008 23 neue oder verbesserte Filmemulsionen auf den Markt gekommen. Digitaltechnik. Die Digitaltechnik beschäftigt sich mit Signalen, den Digitalsignalen, die eine bestimmte Anzahl von diskreten Zuständen annehmen können. Die Anzahl an Zuständen kann im Prinzip eine beliebige, endliche Menge umfassen. Die in der Praxis bedeutsamste Form stellt die binäre Digitaltechnik dar, die nur zwei diskrete Signalzustände umfasst. Diese werden üblicherweise als logisch Null "(0)" und als logisch Eins "(1)" bezeichnet. Nichtbinäre digitale Schaltungen, dabei liegen mehr als zwei Wertzuständen vor, stellen beispielsweise MLC-Speicherzellen dar, wo pro MLC-Speicherzelle mehr als ein Bit an Information dargestellt und gespeichert werden kann. Außerdem findet die nichtbinäre Digitaltechnik im Rahmen der digitalen Signalverarbeitung wie bei digitalen Modulationsverfahren Anwendung. Elektronische Bauelemente der Digitaltechnik sind beispielsweise Logikgatter, Mikroprozessoren und Datenspeicher. In der Analogtechnik kann ein Analogsignal beliebige viele Wertzustände annehmen, der Übergang findet in sogenannten Mixed-Signal-Schaltkreisen, wie beispielsweise Analog-Digital-Umsetzern bzw. Digital-Analog-Umsetzern, statt. Allgemeines. Die binäre Digitaltechnik, im Folgenden erfolgt eine Einschränkung auf diese, bedient sich des Dualsystems mit zwei möglichen Signalzuständen. Diese beiden Werte sind je nach Zusammenhang verschiedenartig bezeichnet. Beispiele für die Bezeichnung sind logisch Null ("0"), "L" (), oder „Falsch“. Das zweite Symbol wird üblicherweise als logisch Eins ("1"), "H" (), oder „Wahr“ bezeichnet. Wenn ein High-Pegel mit 1 und ein Low-Pegel mit 0 dargestellt wird, spricht man von positiver Logik, bei umgekehrtem Sachverhalt von negativer Logik. Digitale Schaltungen bestehen hauptsächlich aus Logikgattern, wie AND, NAND, OR, NOR, NOT, XOR, XNOR und anderen, mit denen binäre Informationen miteinander verknüpft werden, z. B. im Rahmen von Zählern oder Flipflops. Komplexere Anwendungen sind Prozessoren. Theoretisch reicht eine einzige Art ("NAND" oder "NOR") von Gattern, dann als „Basis“ bezeichnet, um alle anderen logischen Funktionen zusammenzusetzen. Bei der Digitaltechnik wird meist unter Verwendung der Schaltalgebra das Dualsystem (entsprechend obiger Ja/Nein-Unterscheidung) zugrunde gelegt. So lässt sich für jedes Logikelement eine Schaltfunktion erstellen, die ihre Funktionsweise beschreibt. In der Praxis verwendet man meist nur NAND-Gatter, mit denen man die Funktionen der anderen Gatter nachbilden kann. Digitale Schaltungen können zusätzlich zu logischen Funktionen auch zeitabhängige Bestandteile enthalten und ferner takt- oder zustandsgesteuert (synchron/asynchron) arbeiten. Enthält eine digitale Schaltung lediglich Logikelemente ohne Rückkopplung von Ausgängen auf Eingänge, so spricht man von einem Schaltnetz. Werden zusätzlich Speicher verwendet, oder mindestens ein Ausgang auf einen Eingang zurückgekoppelt, so handelt es sich um ein Schaltwerk oder auch einen Automaten. Ein Mikrocontroller oder Prozessor besteht hauptsächlich aus diesen Logikelementen und wird über einen Datenbus mit Speichern und anderen digitalen Baugruppen erweitert. Eine zeitlich gestaffelte Ausführung von Logikverknüpfungen ist möglich. Diese können festverdrahtet oder programmiert sein. Eigenschaften. Digitale Signale unterliegen keiner Fehlerfortpflanzung, solange die auftretenden Fehler unterhalb einer gewissen Grenze bleiben. Diese Eigenschaft erlaubt den effizienten Einsatz von Fehlererkennungs- und Fehlerkorrekturmethoden im Rahmen der Digitaltechnik und spielt in diesem Bereich in der Rahmen der digitalen Nachrichtentechnik eine Rolle. Es lassen sich aufgrund dieser Eigenschaft komplexe Systeme erstellen, da dabei systematische Fehler vermieden werden können. Weitere Vorteile der digitalen Signalverarbeitung gegenüber der analogen Technik liegen, neben den geringeren Kosten der Bauteile aufgrund hoher Integrationsdichte und vereinfachter Entwicklung, vor allem in der höheren Flexibilität. Mit Hilfe spezieller Signalprozessoren oder Computer können Schaltungen in Software realisiert werden. Dadurch lassen sich Funktionen leichter an veränderte Anforderungen anpassen. Außerdem sind komplexe Algorithmen einfach anwendbar, die analog nur mit hohem Aufwand oder gar nicht realisierbar wären. In der Digitaltechnik können spezielle Entwicklerwerkzeuge im Rahmen des Computer-aided engineering (CAE) und Beschreibungssprachen wie Very High Speed Integrated Circuit Hardware Description Language (VHDL) oder Verilog bei der schnellen Entwicklung neuer Anwendungen und Schaltungen eingesetzt werden. Die Anzahl der benötigten Schaltungsbestandteile ist in der Digitaltechnik um ein Vielfaches höher als bei analogen Systemen. Das wird jedoch durch eine hohe Integrationsdichte auf entsprechenden Chips kompensiert. Außerdem tritt bei der Umwandlung von analogen Signalen in digitale Signale ein Quantisierungsfehler auf. Douglas Sirk. Douglas Sirk (* 26. April 1897 in Hamburg; † 14. Januar 1987 in Lugano, Schweiz; bürgerlich "Hans Detlef Sierck") war ein deutsch-amerikanischer Film- und Bühnenregisseur. Er wurde als Deutscher geboren, musste wegen der Verfolgung durch die Nationalsozialisten im Jahre 1937 aus Deutschland fliehen und begann eine erfolgreiche Karriere in Hollywood. Leben. Detlef Sierck verbrachte als Sohn eines Lehrers seine Jugend teilweise in Hamburg und in Dänemark. Nach dem Abitur verbrachte er das Ende des Ersten Weltkriegs als Seekadett bei der Reichsmarine. Ab 1917 studierte er unter anderem Rechtswissenschaft an verschiedenen Universitäten und arbeitete anschließend zunächst als Redakteur bei der "Neuen Hamburger Zeitung". Ab 1920/21 war er Hilfsdramaturg am Deutschen Schauspielhaus in Hamburg. Von 1923 bis 1929 war er Oberspielleiter am Bremer Schauspielhaus. Nach weiteren Engagements war er von 1929 bis 1935 Intendant des Alten Theaters in Leipzig. Obwohl als Gegner der Nationalsozialisten bekannt, erhielt er 1934 von der Ufa, die nach der Auswanderung vieler namhafter Künstler gute Regisseure suchte, einen Vertrag als Regisseur. 1935 drehte er seinen ersten Film und war in den darauf folgenden Jahren verantwortlich für den Aufstieg von Zarah Leander. Sein größter Erfolg in Deutschland war der Film "Schlußakkord". In erster Ehe war Sierck mit der Theaterschauspielerin Lydia Brincken († 1947), verheiratet, die auch nach der Trennung seinen Namen behielt, und hatte mit ihr einen Sohn, den Schauspieler Klaus Detlef Sierck. Die Ehe wurde 1934 geschieden. 1934 heiratete er Hilde Jary. Mit Rücksicht auf die als Jüdin verfolgte Hilde Jary verließ das Paar 1937 Deutschland und ging über die Niederlande zunächst nach Frankreich, um dann in die USA überzusiedeln. In Hollywood, wo sich Detlef Sierck in "Douglas Sirk" umbenannte, versuchte er sich zunächst als Drehbuchautor. Erst 1943 gab das Filmstudio MGM ihm den ersten Regieauftrag. Sein erster Film in Hollywood war der Anti-Nazi-Film "Hitler’s Madman", ein Film über Reinhard Heydrich. Er gewann an Reputation mit dem elegant inszenierten Melodrama "Summer Storm" von 1944, das auf einem Stück von Anton Tschechow basierte. Die Kritiker lobten die intelligente Umsetzung der Vorlage und besonders die sensible Führung der Schauspieler, darunter Linda Darnell in ihrer bislang besten Rolle. 1948 wurde er von Claudette Colbert persönlich ausgewählt, Regie bei dem Film Noir "Sleep, My Love" zu führen, in dessen Verlauf Don Ameche versucht, Colbert als ahnungslose Ehefrau in den Wahnsinn zu treiben. 1949 kehrte Sirk für kurze Zeit nach Deutschland zurück, kehrte jedoch bald zurück nach Hollywood, wo er schließlich bei Universal Pictures seine neue künstlerische Heimat fand. In den 1950er Jahren entwickelte er sich zu einem der erfolgreichsten Regisseure von Melodramen, die zu seinem Markenzeichen wurden. Gemeinsam mit dem Produzenten Ross Hunter drehte er ab 1953 einige der stilvollsten Filme des Genres, oft als Remakes von alten Universal-Klassikern. Nach einigen kleineren Filmen fand er mit "All meine Sehnsucht", der das Schicksal einer Frau mit dubioser Vergangenheit, gespielt von Barbara Stanwyck schildert, zu seiner eigentlichen Formsprache als Regisseur. In seinen Filmen kämpft das Individuum um einen Platz für seine Gefühle gegen die konformistischen und restriktiven Verhaltenskodizes der Gesellschaft. In Jane Wyman fand Sirk seine ideale Darstellerin für gefühlvoll geschilderte Frauenschicksale. Die beiden Filme "Die wunderbare Macht" von 1954 und "Was der Himmel erlaubt" von 1954 waren an der Kinokasse erfolgreich und fanden wohlwollende Aufnahme seitens der Kritiker. Daneben sorgten sie für den Aufstieg von Rock Hudson zum Topstar des Studios, der unter Sirks Regie seine besten darstellerischen Leistungen erbrachte. In den Folgejahren drehte Sirk mit "In den Wind geschrieben", "Battle Hymn", "The Tarnished Angels" und "Zeit zu leben und Zeit zu sterben" einige der besten Filme des Genres überhaupt. Besonders durch den letztgenannten Film, eine einfühlsame Adaption des gleichnamigen Romans von Erich Maria Remarque mit Liselotte Pulver, gewann Sirk den besonderen Respekt von Jean-Luc Godard und François Truffaut, die sich begeistert zeigten vom innovativen Einsatz neuer Techniken wie Cinemascope und Technicolor für die Schilderung auch sensibler und intimer Momente. 1959 drehte Sirk mit "Solange es Menschen gibt" mit Lana Turner und Sandra Dee in den Hauptrollen seinen letzten und finanziell erfolgreichsten Film. Der Streifen bot eine zurückhaltende Studie über Rassenvorurteile und die Unfähigkeit, Gefühle und Karriere zu vereinen. Juanita Moore wurde für ihre Darstellung einer aufopferungsvollen Mutter für einen Oscar als beste Nebendarstellerin nominiert. Kurze Zeit später zog sich Sirk aus Gesundheitsgründen ins Privatleben zurück nach Lugano. In den 1960er Jahren führte er sporadisch Regie bei einigen Theaterstücken in Deutschland, vor allem am Hamburger Thalia-Theater und am Münchener Residenztheater. Von 1974 bis 1978 unterrichtete er als Gastdozent an der Hochschule für Fernsehen und Film München, wo Rainer Werner Fassbinder einen seiner Kurse besuchte. 1978 erhielt er für sein Lebenswerk den Deutschen Filmpreis und 1986 den Bayerischen Filmpreis. Würdigung. Sirk gehört zu den heute am meisten geschätzten Regisseuren der 1950er Jahre. Rainer Werner Fassbinder äußerte sich teilweise ekstatisch über die filmischen Qualitäten von Sirk und gab stets unumwunden zu, von seinem Werk beeinflusst worden zu sein. Auch Pedro Almodóvar und Kathryn Bigelow zählen ihn zu ihren Vorbildern. Wim Wenders nannte Sirk einen „Dante der Soap Operas“, der meisterhaft in der Lage gewesen sei, die mit dem American Dream verbundenen Schattenseiten in dramatischen Bilder zu vermitteln. Douglas-Sirk-Preis. Das Filmfest Hamburg vergibt seit 1995 den Douglas-Sirk-Preis jährlich an eine Persönlichkeit, die sich um Filmkultur und Filmbranche verdient gemacht hat. Digital-Analog-Umsetzer. Ein Digital-Analog-Umsetzer (DAU, engl. "digital-to-analog converter" (DAC)), auch Digital-Analog-Wandler oder D/A-Wandler genannt, wird verwendet, um digitale Signale oder einzelne Werte in analoge Signale umzusetzen. DAUs sind elementare Bestandteile fast aller Geräte der digitalen Unterhaltungselektronik (z. B. CD-Player) und der Kommunikationstechnik (z.  B. von Mobiltelefonen). In der Regel wird der DAU als integrierter Schaltkreis (IC) ausgeführt. Funktion. a>s durch eine Folge roter Abtastpunkte Mögliche Ausgangssignale durch die gegebenen digitalen Abtastpunkte Ein Analog-Digital-Umsetzer erzeugt aus einem kontinuierlichen Wertevorrat ein gestuftes Signal. Ein Digital-Analog-Umsetzer kann aus dem gestuften Signal nicht wieder ein kontinuierliches Signal erzeugen. Die einmal eingetretene Stufung in Schritten von 1 LSB (least significant bit) ist nicht wieder rückgängig zu machen. Bei einer Folge von veränderlichen Werten wird die Stufung allerdings durch eine notwendige Filterung verschliffen. Ein Digitalsignal ist ein zeitdiskretes und wertdiskretes Signal, wie es nebenstehende Darstellung zeigt. Der Digital-Analog-Umsetzer setzt die quantisierten Informationen, die als binäre Information vorliegen, in ein Signal um, das kontinuierlich einem analogtechnisch arbeitenden Gerät bereitgestellt werden kann. Schritte der Umsetzung. Bei einer Umsetzung in ein zeitkontinuierliches (aber noch wertdiskretes) Signal wird der Signalwert bis zum nächsten Abtastpunkt in einem Eingangsregister festgehalten. Bei einzelnen Messpunkten und bei langsam veränderlichen Größen entsteht am Ausgang ein Verlauf wie im zweiten Bild als waagerechte Strecken eingetragen. Bei einer raschen Folge von Punkten mit unterschiedlichen Signalwerten sind aufgrund der Abtastpunkte für das entstehende analoge (also auch wertkontinuierliche) Signal vielfältige Verläufe möglich. Die punktierte Linie im zweiten Bild folgt den Abtastwerten, ähnelt aber dem Ursprungssignal nicht. Sie enthält höhere Frequenzanteile, welche üblicherweise durch Anti-Aliasing-Filter auf analoger Seite verhindert werden müssen. Die Speicherung der Abtastpunkte wird in diesem Fall vom Filter beherrscht. Spektrum einer Harmonischen am Ausgang eines DAU Im nächsten Bild ist der Betragsverlauf des Frequenzspektrums eines DAU ohne Anti-Aliasing-Filter dargestellt, welcher eine Sinusschwingung mit der Frequenz "f"out ausgibt. Diese Sinusschwingung tritt mehrfach in Oberschwingungen auf. Dabei ist "f"c die Abtastfrequenz. Alle Signalanteile mit einer Frequenz oberhalb der halben Abtastfrequenz soll das Filter unterdrücken. Durch die Quantisierungsstufen weist das Spektrum Verzerrungen auf, welche durch den rot-strichliert gezeichneten und einhüllenden Betragsverlauf der Sinc-Funktion bedingt sind. Dadurch kommt es auch unterhalb der halben Abtastfrequenz, also im erwünschten Frequenzbereich, zu einer Verzerrung und Absenkung der Amplituden. Diese linearen Verzerrungen werden durch zusätzliche Filter üblicherweise auf der digitalen Seite kompensiert, im Bild blau punktiert eingezeichnet. Dabei werden höhere Frequenzanteile unterhalb der halben Abtastfrequenz invers zur Sinc-Funktionsverlauf stärker angehoben. Ist die Signalfrequenz deutlich niedriger als die Grenzfrequenz des Filters, nähert sich der Verlauf des Ausgangssignals dem gestuften Verlauf an. Die Stufung macht sich als Quantisierungsrauschen bemerkbar. Bezugswert. Da das dem DAU zugeführte Digitalsignal dimensionslos ist, muss es mit einem vorgegebenen Wert "Uref" multipliziert werden. Hier gibt es prinzipiell zwei Möglichkeiten. Quantisierungskennlinie. Bei einem idealen Digital-Analog-Umsetzer besteht vorzugsweise ein linearer Zusammenhang zwischen Eingangs- und Ausgangsgröße. Es gibt wobei daneben auch andere Kodierungen, beispielsweise Zweierkomplement, BCD-Code verwendbar sind. Ferner gibt es DA-Umsetzer mit nicht linearer Quantisierungskennlinie z. B. nach dem logarithmischen A-law- und µ-law-Verfahren für Telefonnetze. Abweichungen. Zusätzlich zum Quantisierungsfehler sind weitere Fehler zu beachten. Nullpunktfehler, Verstärkungsfehler und Nichtlinearitätsfehler. Kennlinie eines DAU und seine möglichen Fehler Der Verstärkungsfehler wird oft als Bruchteil des aktuellen Wertes angegeben, der Nullpunktfehler zusammen mit dem Quantisierungsfehler und der Nichtlinearitätsfehler als Bruchteile des Endwertes oder als Vielfache eines LSB. Fehler in der Stufung. Abweichungen in der Stufung a) bei ungleicher Höhe einer Stufe, b) dgl. bei einer höherwertigen Stufe Einzelne Stufen können unterschiedlich hoch ausfallen. Bei Schritt für Schritt steigender Eingangsgröße kann es je nach Realisierungsverfahren vorkommen, dass sich ein Wert der Ausgangsgröße verkleinert, insbesondere dann, wenn es einen Übertrag über mehrere Binärstellen gibt, beispielsweise von 0111 1111 nach 1000 0000. In diesem Falle ist der Umsetzer nicht monoton. Zeitliche und Apertur-Fehler. Zeitliche Schwankungen im Takt (Jitter) beeinträchtigen die Konstruktion des Ausgangssignals. Einzelheiten zum maximal erlaubten Jitter siehe unter derselben Überschrift im Artikel ADU. Direktes Verfahren. Hier wird das Ausgangssignal durch so viele Widerstände in einem Spannungsteiler erzeugt wie es Stufen gibt; jeder Widerstand ist gleich gewichtet. Mit dem digitalen Wert wird die zugeordnete Stufe über einen 1-aus-"n"-Schalter (Multiplexer) ausgewählt. Dieses Verfahren ist schnell und garantiert monoton, mit zunehmender Auflösung aber vergleichsweise aufwändig. Ein Beispiel für das Verfahren ist ein 8-Bit-Umsetzer mit 256 Widerständen und 272 Schaltern. Paralleles Verfahren. Hier wird das Ausgangssignal durch so viele Widerstände erzeugt wie es Binärstellen gibt; jeder Widerstand ist so gewichtet, wie es der Wertigkeit der zugeordneten Stelle entspricht. Einfacher in der Herstellung und in der Umsetzung ist das R2R-Netzwerk, das in einer Kette von Stromteilern jeweils eine Halbierung eines elektrischen Stromes vornimmt (nur mit Dualkode möglich). Man benötigt so viele Schalter, wie Bits zur Darstellung der digitalen Werte verwendet werden. Die unterschiedlich gewichteten Ströme werden je nach Wert (1 oder 0) der zugehörigen Binärstelle auf eine Sammelleitung geschaltet oder ungenutzt abgeleitet. Die Summe der zugeschalteten Ströme wird – heute meist in der Schaltung integriert – mittels eines Operationsverstärkers in eine Spannung umgeformt. Das Parallel-Verfahren bietet einen guten Kompromiss zwischen Aufwand und Umsetzungsdauer und wird häufig verwendet. Zählverfahren / 1-Bit-Umsetzer. Hier wird das Ausgangssignal durch so viele Zeitschritte erzeugt wie es Stufen gibt. Mit dem digitalen Wert werden die Einschaltzeit eines einzigen Schalters und bei periodischer Wiederholung der Tastgrad in einer Pulsweitenmodulation festgelegt. Das endgültige Ausgangssignal ist der Gleichwert einer so ein/ausgeschalteten Spannung. Dieses einfach und preiswert zu realisierende Verfahren benötigt unter den hier vorgestellten Verfahren die größte Umsetzungszeit, weil das Verfahren mit einer Abzählung von Zeitschritten und mit Mittelwertbildung verbunden ist. Dieser garantiert monoton arbeitende DAU lässt sich gut als integrierte Schaltung realisieren und ist besonders in Zusammenhang mit dem Taktsignal bei Mikroprozessoren verbreitet. Für die Mittelwertbildung kann üblicherweise ein einfacher Tiefpass verwendet werden. Delta-Sigma-Verfahren/1-Bit- bis N-Bit-Umsetzer. Die Deltamodulation, die hier gewisse Ähnlichkeiten zur Pulsweitenmodulation hat, wird in der "Delta-Sigma-Modulation" verwendet. Ähnlich dem Zählverfahren wird mit einem oder mehreren 1-Bit-Umsetzern durch zusätzliche kontinuierliche Differenzbildung und Integration der Ausgangsfehler reduziert und eine Rauschformung erreicht, die das Rauschen in höhere Frequenzbereiche verschiebt. Es ist ein gewisser digitaler Rechenaufwand nötig für Abtastfrequenz-Umsetzung und digitale Filterung. Für gute Ergebnisse werden Delta-Sigma-Modulatoren höherer Ordnung mit hoher Überabtastung verwendet, z. B. 5. Ordnung und 64-facher Überabtastung. Dieses Verfahren erfordert durch eine hohe Überabtastung einen geringen Filteraufwand, ist gut integrierbar, bietet eine hohe Genauigkeit und ist bei Verwendung eines 1-Bit-Umsetzers garantiert monoton. Der wesentliche Vorteil gegenüber dem Zählverfahren liegt in der prinzipbedingten Rauschformung, die höhere Frequenzen ermöglicht. Dieses Verfahren wird heute zunehmend nicht nur in der Audio-, sondern auch in der Messtechnik verwendet. Hybrid-Umsetzer. Dies ist kein eigenständiges Verfahren, sondern es werden Kombinationen aus den obigen Verfahren verwendet. Das hochgenaue Delta-Sigma-Verfahren wird z. B. mit einem einfachen, niedrig auflösenden Parallel-Umsetzer für die niederwertigen Bits kombiniert, um die Vorteile beider Verfahren zu verbinden. Digitale Ansteuerung. Ein weiteres Klassifizierungsmerkmal ist die Art, wie die digitalen Werte dem Umsetzer zugeführt wird (Interface) Die Eingangssignale sind meistens elektrische Spannungen mit standardisierter Darstellung der zwei Signalzustände, beispielsweise TTL, ECL, CMOS, LVDS. Um die Gültigkeit der anstehenden Daten zu signalisieren oder den Baustein weiter zu konfigurieren, sind noch weitere Steuerleitungen erforderlich. Bei seriell angesteuerten Umsetzern muss das Eingaberegister in einer Anzahl von Takten beschrieben werden, ehe die Information zur Umsetzung bereitsteht. Analoger Ausgang und Ausgabe. Das generierte Signal steht am Ausgang entweder als zur Verfügung. Fast immer erfordert die ungünstige Impedanz und Kapazität der Umsetzer-Schaltung eine weitere Aufbereitung des Signals. Eine für diesen Zweck eingesetzte Verstärkungsschaltung bestimmt durch ihre begrenzenden Parameter die dynamischen Eigenschaften der Gesamtschaltung (z. B. Bandbreite) wesentlich mit. Audio. Audiosignale werden oft in digitaler Form gespeichert (z. B. MP3s und CDs). Um sie über Lautsprecher hörbar machen zu können, ist eine Umsetzung in analoge Signale erforderlich. DAUs finden sich daher in CD- und digitalen Musikabspielgeräten sowie PC-Soundkarten. DAUs sind auch als Einzelgeräte für mobile Anwendungen oder als Komponenten in Stereoanlagen verfügbar. Video. Digital generierte Videosignale (z. B. eines Computers) müssen vor der Darstellung auf einem analogen Monitor umgesetzt werden. Hier wird dem DAU meist ein Speicher (RAM) angegliedert, in dem Tabellen für die Gammakorrektur, den Kontrast und Helligkeitseinstellung abgelegt sind. Eine solche Schaltung wird als RAMDAC bezeichnet. Technische Steuerungen. In vielen technischen Geräten werden elektromechanische oder elektrochemische Aktoren mit digital berechneten Werten angesteuert, deren Umsetzung ein DAU besorgt. Ebenso werden DAUs in Akku-Ladegeräten und digital einstellbaren Netzteilen eingesetzt. Digitales Potentiometer und Multiplizierer. Der DAU kann auch einen variablen, analogen Bezugswert mit dem digitalen Eingangssignal multiplizieren. Ein Anwendungsbereich ist das digitale Potentiometer, das als einstellbarer Widerstand (z. B. für die Lautstärkeregelung in Audioverstärkern oder Fernsehgeräten) digital angesteuert werden kann. Digitale Potentiometer mit EEPROM-Speicher "merken" sich den zuletzt eingestellten Wert, auch wenn das Gerät von der Netzspannung getrennt wurde. Nachrichtentechnik. Extrem schnelle DA-Umsetzer mit integrierten Misch- und Filterfunktionen, (engl. "Transmit-DACs") werden in der Nachrichtentechnik verwendet, z. B. für die Erzeugung von Sendesignalen bei Mobilfunkgeräten. Doldenblütler. Die Doldenblütler oder Doldengewächse (Apiaceae oder Umbelliferae) sind eine Pflanzenfamilie in der Ordnung der Doldenblütlerartigen (Apiales). Die meisten Arten sind krautige Pflanzen mit mehrfach geteilten Blättern und Doppeldolden als Blütenstand, wodurch sie leicht der Familie zuzuordnen sind. Die Familie enthält etwa 434 Gattungen mit etwa 3780 Arten, und ist weltweit in den gemäßigten Zonen vertreten. Zu den Doldenblütlern zählen viele Gewürzpflanzen und Nahrungspflanzen, aber auch einige sehr giftige Pflanzenarten, beispielsweise der Wasserschierling und der Gefleckte Schierling. Vegetative Merkmale. Die Vertreter der Doldenblütler sind fast ausschließlich ausdauernde krautige Pflanzen. Einige wenige Taxa, wie etwa in der Unterfamilie Mackinlayoideae, sind verholzt. Die Sprossachse ist in der Regel hohl und knotig. Die Wuchshöhen reichen von mehrere Meter hohen Pflanzen in den Steppen Zentralasiens ("Ferula") bis zu wenigen Zentimeter hohen Polsterpflanzen der Antarktis ("Azorella"). Viele Arten bilden eine Pfahlwurzel aus. Die Seitenwurzeln entstehen an beiden Seiten der Xylempole, da an der Spitze des Xylempols ein Harzgang verläuft. Die wechselständigen Laubblätter sind einfach oder mehrfach gefiedert. Nur in Ausnahmen besitzen sie einfache Blätter ("Bupleurum"). Die Blätter besitzen eine Blattscheide. Blütenstände. a>– deutlich zu erkennen die einzelnen Döldchen Der Blütenstand ist meist eine vielstrahlige Doppeldolde, eine Dolde aus meist vielen Döldchen. Dieser Bau der Blütenstände ist sehr charakteristisch für die Doldenblütler und hat ihnen auch ihren alten wissenschaftlichen Namen Umbelliferae (Schirm-Träger) eingebracht. Die Tragblätter der Dolden sind dicht zusammengedrängt und bilden die Hülle (Involucrum), häufig sind sie auch nur schwach ausgeprägt oder fehlen. Hier entspringen die Döldchenstiele = Doldenstrahlen. Die Döldchen (Umbellulae) sind wiederum von einem (oft auch fehlenden) Hüllchen (Involucellum) umgeben. Die Blütenstiele werden nicht „Döldchenstrahlen“ genannt. Häufig bildet der Blütenstand eine Kuppel oder sogar eine Fläche, auf der häufig Insekten anzutreffen sind. Seltener sind einfache Dolden. Es gibt auch Arten mit Einzelblüten ("Azorella"). Bei sehr großen Arten können auch mehrere Doppeldolden zu einem noch größeren Blütenstand zusammengefasst sein (Riesen-Bärenklau, "Heracleum mantegazzianum"). Blüten. Die meist unscheinbaren Blüten sind mit Ausnahme des Gynoeceums fünfzählig und in der Regel radiärsymmetrisch. Bei einigen Arten sind insbesondere die Randblüten aber auch asymmetrisch und dadurch zygomorph. Kelchblätter sind ursprünglich fünf vorhanden, jedoch sind sie oft verkümmert oder fehlen ganz. Die fünf Kronblätter sind frei und sind meist weiß, seltener gelb, rosa bis violett. Die Kronblätter besitzen häufig an der Spitze ein eingeschlagenes Läppchen (Lobulum inflexum). Seine Gestalt sowie die Gestalt der Vorderkante des Kronblattes (Flexurkante) sind wichtige Bestimmungsmerkmale. Es gibt nur einen Kreis mit fünf freien, fertilen Staubblättern, die in der Knospe gekrümmt sind. Zwei Fruchtblätter sind zu einem unterständigen Fruchtknoten verwachsen. Die zwei Griffel (auch als Schnabel bezeichnet) sitzen auf einem scheibenförmigen bis kegelförmigen, glänzenden, Griffelpolster. Dieses dient als Nektarium, d. h. es scheidet Nektar aus. In jedem der zwei Fruchtknotenfächer befindet sich eine hängende anatrope Samenanlage. Eine zweite verkümmert sehr früh. formula_1 Die Blüten sind meist protandrisch. Die Bestäubung erfolgt in der Regel über Fliegen, Käfer und andere kurzrüsselige Insekten (Entomophilie). Früchte und Samen. Die Frucht ist eine trockene, zweiteilige Spaltfrucht, auch Doppelachäne genannt. Die Gestalt ist häufig zylindrisch mit rundem bis elliptischem Querschnitt. Seltener sind kugelige ("Coriandrum") und doppelkugelige Gestalt ("Bifora"). Die zwei Teilfrüchte (Mericarpien oder Carpiden) bleiben zunächst noch mit der Oberseite an einem Fruchthalter (Karpophor) hängen, der sich in der Mitte befindet. Jede Teilfrucht hat an ihrer freien Seite fünf Längsrippen oder Hauptrippen (juga primaria) mit je einem Gefäßbündel. Dazwischen liegen Tälchen (valleculae), in deren Wand sich je ein meist dunkler schizogener (durch das Auseinanderweichen von Zellen entstehender) Ölgang (hier als Ölstrieme bezeichnet) befindet. Bei manchen Arten besitzt jedes Tälchen noch eine Nebenrippe (jugum secundarium, etwa die Karotte mit stacheligen Nebenrippen). Die Ölgänge können auch vermehrt ("Pimpinella") oder reduziert ("Coriandrum") sein oder ganz fehlen ("Conium"). Der Samen besteht aus einem sehr kleinen Embryo in einem großen, fett- und proteinreichen Endosperm. Der Embryo liegt am oberen Ende des Samens mit nach oben gerichtetem Hypokotyl. Die Samenschale ist mit der Fruchtwand verklebt. Die Ausbreitung erfolgt durch Tiere (Epizoochorie), den Wind (Anemochorie), Wasser (Hydrochorie), durch Selbstausbreitung (Autochorie) und teilweise durch den Menschen (Hemerochorie). Chemische Merkmale. Die Hauptbestandteile der ätherischen Öle können je nach Art überwiegend aus Terpenen oder aus Phenylpropanoiden gebildet werden. Beim Koriander ist es überwiegend (+)-Linalool (Terpen), beim Kümmel (+)-Carvon (Terpen), bei Fenchel und Anis Anethol (Phenylpropanoid). Die Doldenblütler sind die Familie mit dem größten Spektrum an Cumarinverbindungen. Neben einfachen Cumarinen und Hydroxycumarinen (z. B. Umbelliferon) treten auch eine Vielzahl an prenylierten, geranylierten und farnesylierten Cumarinderivaten auf. Dazu zählen auch die Furano- und Pyranocumarine. Erstere können linear oder angulär sein. Hydroxy- und Furanocumarine wirken abschreckend auf Herbivoren (deterrent), als Phytoalexine und als Keimungsinhibitoren. Dabei steigt die Toxizität von Hydroxy- über lineare zu angulären Furanocumarinen an. Die Furanocumarine sind phototoxisch: Bei Einwirkung von UV-Licht wird die DNA inaktiviert (Photosensibilisierung). Anguläre Furanocumarine sind stärker toxisch als lineare, obwohl ihre Phototoxizität geringer ist. Die meisten der holarktitsch verbreiteten, artenreichen Gattungen der Familie enthalten Furanocumarine (etwa "Bupleurum" und "Pimpinella" mit je 150 Arten), während viele monotypische Gattungen mit eingeschränkter geographischer Verbreitung keine Furanocumarine enthalten. Sesquiterpenlactone sind mit über 100 Verbindungen in der Familie vertreten. Es treten die gleichen Grundstrukturen (z. B. Germacranolide, Eudesmanolide, Eremophilanolide und Elemanolide) auf wie bei den Korbblütlern, jedoch stereochemisch unterschiedlich. Außerdem sind sie häufiger hydroxyliert und verestert, insbesondere am C11. In den Doldenblütlern wurden über 150 Polyacetylen-Verbindungen nachgewiesen. Am häufigsten sind die C17-Diin-diene der Falcarinol-Gruppe. Die Giftigkeit des Wasserschierlings ("Cicuta virosa") und der Safranrebendolde ("Oenanthe crocata") beruht auf Polyacetylenen. Alkaloide sind selten. Coniin und ähnliche Piperidin-Derivate kommen im Gefleckten Schierling ("Conium maculatum") vor. In der Unterfamilie Saniculoideae treten häufig Triterpensaponine auf. Typische Kohlenhydrate sind das Trisaccharid Umbelliferose und der Zuckeralkohol Mannitol. Das Vorkommen von Petroselinsäure als Hauptfettsäure bezeugt die enge Verbindung zwischen den Apiaceae und den Araliaceae. Verwendung. Aufgrund der ätherischen Öle werden viele Arten als Gewürz-, Gemüse- und Heilpflanzen verwendet. Verwendung finden dabei die Früchte, Blätter und Wurzeln. Beispiele sind Kümmel ("Carum carvi"), Anis ("Pimpinella anisum"), Koriander ("Coriandrum sativum"), Dill ("Anethum graveolens"), Liebstöckel ("Levisticum officinale"), Fenchel ("Foeniculum vulgare"), Petersilie ("Petroselinum crispum"), und Sellerie ("Apium graveolens"). Eine gewisse Ausnahme bilden die Karotte ("Daucus carota") und der Pastinak ("Pastinaca sativa"), die vor allem aufgrund ihres Kohlenhydrat-Gehaltes angebaut werden. Einige Arten sind sehr giftig. Der Gefleckte Schierling ("Conium maculatum") lieferte das Gift für den erzwungenen Selbstmord des Sokrates. Ebenfalls sehr giftig ist der Wasserschierling ("Cicuta virosa"). Weniger giftig ist die Hundspetersilie ("Aethusa cynapium"), die jedoch oft mit der Petersilie verwechselt wird, wodurch es häufig zu Vergiftungen kommt. Viele Arten sind aufgrund ihrer Furanocumarine photosensibilisierend und phototoxisch. Zu erwähnen ist hier besonders der Riesen-Bärenklau ("Heracleum mantegazzianum"). Das in den phototoxischen Arten enthaltene Psoralen wird jedoch in der Medizin im Rahmen der PUVA-Therapie zur Behandlung von Hauterkrankungen eingesetzt. Vorkommen. Die Familie ist weltweit verbreitet, jedoch liegt der Schwerpunkt in den nördlichen gemäßigten Zonen. In den Tropen sind die Doldenblütler besonders in den montanen Höhenstufen verbreitet. Die Doldenblütler wachsen vorwiegend in Steppen, Sümpfen, Wiesen und Wäldern. Systematik. Synonyme für Apiaceae nom. cons. sind: Umbelliferae nom. cons., Actinotaceae, Ammiaceae, Angelicaceae, Daucaceae, Ferulaceae, Saniculaceae. Das Schwestertaxon der Doldenblütler innerhalb der Ordnung Apiales ist die Gruppe aus Pittosporaceae, Araliaceae und Myodocarpaceae. Die Familie enthält etwa 434 Gattungen mit etwa 3780 Arten. Sie wird seit 2010 nur noch in drei Unterfamilien gegliedert. Digitale Signalverarbeitung. a> begann der Einzug der digitalen Signalverarbeitung in den Privatbereich. Die digitale Signalverarbeitung ist ein Teilgebiet der Nachrichtentechnik und beschäftigt sich mit der Erzeugung und Verarbeitung digitaler Signale mit Hilfe digitaler Systeme. Im engeren Sinn liegt ihr Schwerpunkt in der Speicherung, Übermittlung und Transformation von Information im Sinne der Informationstheorie in Form von digitalen, zeitdiskreten Signalen. In der praktischen Anwendung beruhen heute fast sämtliche Aufzeichnungs-, Übertragungs- und Speicherungsverfahren für Bilder und Film (Foto, Fernsehen, Video) und Ton (Musik, Kommunikationstechnik) auf elektronischer Verarbeitung der entsprechenden Signale. Sie ermöglicht eine Vielzahl von Umwandlungs- und Bearbeitungsarten für solche Daten, z. B. die Kompression von Audio- und Videodaten, Nonlinearen Videoschnitt oder die Bildbearbeitung bei Fotos. Darüber hinaus wird digitale Signalverarbeitung auch – neben vielen anderen industriellen Anwendungsgebieten – in der Mess-, Steuerungs- und Regelungstechnik und in der Medizintechnik eingesetzt, etwa bei der Kernspintomographie. Die digitale Signalverarbeitung beruht auf elektronischen Bauelementen, wie beispielsweise digitalen Signalprozessoren ("DSP") oder leistungsfähigen Mikroprozessoren, entsprechenden Speicherelementen und Schnittstellen zur Signaleingabe und -ausgabe. Die Algorithmen zur Signalverarbeitung können bei einer programmierbaren Hardware durch zusätzliche Software ergänzt werden, welche den Signalfluss steuert. Die digitale Signalverarbeitung bietet Möglichkeiten und Verarbeitungsmöglichkeiten, welche in der früher üblichen analogen Schaltungstechnik gar nicht oder nur mit hohem Aufwand realisierbar sind. Die Methoden der digitalen Signalverarbeitung stehen der Mathematik, wie beispielsweise den Teilgebieten der Zahlentheorie oder der Codierungstheorie, viel näher als der klassischen Elektrotechnik. Ausgangspunkt war die allgemeine Bekanntheit der schnellen Fourier-Transformation (FFT) ab dem Jahr 1965 durch eine Veröffentlichung von J. W. Cooley und John Tukey. Zusätzlich verbesserten sich in demselben Zeitraum die praktischen Möglichkeiten der digitalen Schaltungstechnik, so dass die neuentwickelten Verfahren Anwendung finden konnten. Aufbau eines digitalen Signalverarbeitungs-Systems. Das Schaubild zeigt den typischen Aufbau eines Signalverarbeitungs-Systems, das immer auch analoge Komponenten an der Schnittstelle zur "Außenwelt" besitzt. Zum digitalen Signalverarbeitungs-System im engeren Sinne gehören nur die rot gefärbten Komponenten im unteren Bildteil. Verfolgen wir den Weg der Signale in der Grafik: Mittels eines Sensors werden physikalische Größen in ein, häufig schwaches, elektrisches Signal konvertiert. Dieses Signal wird für die weitere Verarbeitung z. B. mit Hilfe eines Operationsverstärkers auf den für die nachfolgenden Schritte nötigen Pegel angehoben. Aus dem verstärkten Analogsignal tastet die Sample-and-Hold-Stufe in bestimmten Zeitintervallen Werte ab und hält sie während eines Intervalls konstant. Aus einer analogen zeitkontinuierlichen Kurve wird so eine zeitdiskretes analoges Signal. Ein für eine gewisse Zeit konstantes Signal wird vom Analog-Digital-Wandler benötigt, um die diskreten digitalen Werte zu ermitteln. Diese können dann vom digitalen Signalprozessor verarbeitet werden. Das Signal nimmt dann den umgekehrten Weg und kann über einen Aktor gegebenenfalls wieder in den technischen Prozess einfließen. Objekt: Was ist ein Signal? Ein digitales Signal ist, im Gegensatz zu den kontinuierlichen Funktionen der analogen Signalverarbeitung, diskret in Zeit- und Wertebereich, also eine Folge von Elementarsignalen (z. B. Rechteckimpulsen). Diese Folge entsteht meist in einem zeit- oder ortsperiodischen Messprozess. So wird zum Beispiel Schall über die Auslenkung einer Membran oder Verbiegung eines Piezokristalls in eine elektrische Spannung umgewandelt und diese Spannung mittels eines AD-Wandlers zeitperiodisch wiederholt in digitale Daten konvertiert. Solch ein realistischer Messprozess ist endlich, die entstehende Folge besitzt einen Anfangsindex "α" und einen Endindex "ω". Wir können das Signal also als Datenstruktur "(δ, α, ω, s)" definieren, mit dem Abstand "δ" zwischen zwei Datenpunkten, den Indizes "α<ω" und der endlichen Folge (Array) "s=(sα,…,sω)" der Daten. Die Daten sind Instanzen einer Datenstruktur. Die einfachste Datenstruktur ist das Bit, am gebräuchlichsten sind (1, 2, 4 Byte-)Integer- und Gleitkommazahl-Daten. Es ist aber auch möglich, dass das einzelne Datum selbst ein Vektor oder eine Folge ist, wie zum Beispiel bei der Kodierung von Farbinformation als RGB-Tripel oder RGBA-Quadrupel, oder dass das Signal "s" die Spalten "sk" eines Rasterbildes enthält. Dabei ist die einzelne Spalte wieder ein Signal, das zum Beispiel Grau- oder Farbwerte als Daten enthält. Abstraktion eines Signals. Um in der Theorie Signale nicht nach Anfang und Ende gesondert betrachten zu müssen, werden die endlichen Folgen in den abstrakten Signalraum formula_1, einen Hilbertraum, eingebettet. Bedingung: Die Basisfunktionen sind orthogonal zueinander, ihre Kreuzkorrelation ergibt demzufolge Null. Ein abstraktes Signal ist also durch ein Paar "(δ, s)", "δ>0", formula_2, gegeben. Dabei modelliert der euklidische Vektorraum "V" den Datentyp des Signals, zum Beispiel formula_3 für einfache Daten, formula_4 für RGB-Farbtripel. Ein Element in formula_1 ist eine doppelt unendliche Folge formula_6. Die definierende Eigenschaft für den Folgenraum ist, dass die sogenannte Energie des Signals endlich ist ("siehe auch Energiesignal"), das heißt Methoden: Transformation von Signalen. Die Bearbeitung digitaler Signale erfolgt durch Signalprozessoren. Das theoretische Modell der elektronischen Schaltung ist der Algorithmus. In der digitalen Signalverarbeitung werden Algorithmen wie Mischer, Filter, Diskrete Fourier-Transformation, Diskrete Wavelet-Transformation, PID-Regelung eingesetzt. Der Algorithmus ist aus elementaren Operationen zusammengesetzt; solche sind zum Beispiel die gliedweise Addition von Signalwerten, die gliedweise Multiplikation von Signalwerten mit einer Konstanten, die Verzögerung, das heißt Zeitverschiebung, eines Signals, sowie weitere mathematische Operationen, die periodisch aus einem Ausschnitt eines (oder mehrerer) Signals(e) einen neuen Wert generieren und aus diesen Werten ein neues Signal. Abstrakte Transformationen: Filter. Eine Abbildung "F" zwischen zwei Signalräumen wird allgemein "System" genannt. Eine erste Einschränkung ist die Forderung der Zeitinvarianz (TI für engl.) der Abbildung "F". Diese entsteht grob betrachtet dadurch, dass ein zeitdiskretes signalverarbeitendes System aus einem Schieberegister, das eine beschränkte Vergangenheit speichert, und einer Funktion "f", die aus den gespeicherten Werten einen neuen erzeugt, besteht. Betrachtet man auch ortsabhängige Signale, wie z. B. in der Bildverarbeitung, so stehen neben den vorhergehenden Werten auch nachfolgende zur Verfügung. Um die Allgemeinheit zu wahren, ist also eine zweiseitige Umgebung des jeweils aktuellen Datenpunktes zu betrachten. Die Umgebung habe einen Radius "d", zum Zeitpunkt "δn" befinden sich die Werte formula_8 eines zeitdiskreten Eingangssignals "(δ, a)" im Umgebungsspeicher. Aus diesen wird mittels der die Schaltung verkörpernden Funktion "f" der Wert "bn" zum Zeitpunkt "nδ" des Ausgangssignals "(δ, b)=F(δ, a)" bestimmt, Die Funktion "f" kann auch von einigen der Argumente unabhängig sein. Bei zeitabhängigen Signalen wäre es wenig sinnvoll, wenn "f" von Werten des Signals zu Zeitpunkten "(n+1)δ,…,(n+d)δ" in der Zukunft abhinge. Man kann zeitinvariante Systeme beliebig kombinieren und hintereinanderschalten und erhält wieder zeitinvariante Systeme. TI-Systeme "F", die von einer linearen Abbildung "f" erzeugt werden, etwa nennt man Faltungsfilter. Sie sind ein Spezialfall der linearen zeitinvarianten Filter (LTI) und können auch als "F(a)=f*a" geschrieben werden. Dabei bezeichnet "*" den Faltungsoperator. LTI-Systeme können im Orts- bzw. Zeitbereich oder im Frequenzbereich definiert und analysiert werden. Nichtlineare oder gar nicht zeitinvariante Filter wie Regelungen können als Echtzeitsysteme nur im Zeitbereich betrachtet werden. Ein LTI-System "F" kann im Zeitbereich mittels seiner Impulsantwortfunktion "f"=:="F"(δ0) oder im Frequenzbereich mittels seiner Übertragungsfunktion (engl., RAO) formula_10, analysiert und realisiert werden. Die Impulsantwort eines Faltungsfilters "F(a)=f*a" ist gerade "F(δ0)=f". Man kann LTI-Systeme konstruieren, die bestimmte Frequenzbereiche unterdrücken und andere invariant lassen. Möchte man die frequenzselektive Wirkung eines solchen Systems hervorheben, so nennt man es Filter. Eine zentrale Rolle in der praktischen Implementierung von LTI-Systemen spielt der FFT-Algorithmus, der zwischen der Darstellung eines Signals im Zeitbereich und im Frequenzbereich vermittelt. Insbesondere kann eine Faltung im Zeitbereich durch eine Multiplikation im Frequenzbereich realisiert werden. Zur Realisierung der Filterarten gibt es mehrere Möglichkeiten. Vorteile der digitalen Signalverarbeitung gegenüber konventionellen Techniken. Im Gegensatz zu konventionellen Filtersystemen in der Nachrichtentechnik, die einzeln in Hardware realisiert werden müssen, können mit der digitalen Signalverarbeitung beliebige Filter einfach bei Bedarf in „Echtzeit“ (z. B. zur Decodierung) mit Hilfe von Software ein- oder ausgeschaltet werden. Dabei können je nach Leistungsfähigkeit des Systems beliebig viele Filter und aufwendige Filterkurven und sogar Phasenverschiebungen in Abhängigkeit von weiteren Parametern in „Echtzeit“ erzeugt und so das Ursprungsignal bearbeitet werden. Deshalb ist mit der digitalen Signalverarbeitung durch DSPs eine wesentlich wirkungsvollere Signalbearbeitung als mit konventionellen Filtersystemen (z. B. bei der Rauschunterdrückung analoger Signale) möglich, siehe Rauschfilter. Vorteile am Beispiel einer Audio-CD. Am Beispiel der CD lassen sich einige Vorteile der digitalen gegenüber der analogen Signalverarbeitung erkennen: Die auf einer CD digital gespeicherten Messwerte ändern sich auch nach Jahren nicht, es gibt kein „Übersprechen“ von einer Spur zur anderen, es gehen keine hohen Frequenzen verloren. Auch bei beliebig häufigem Abspielen der CD werden die Daten nicht verändert wie bei einer Schallplatte: Dort „schleift“ die Nadel des Tonabnehmers bei jeder Wiedergabe ein wenig Material weg und glättet die Kanten mit der Folge, dass die hohen Frequenzanteile geändert werden. Danaergeschenk. Ein Danaergeschenk (gesprochen Da-na-er-geschenk) ist ein Geschenk, das sich für den Empfänger als unheilvoll und schadenstiftend erweist. Der Begriff stammt aus der griechischen Mythologie. Benannt ist es in Anlehnung an das hölzerne Trojanische Pferd, mit dessen Hilfe die „Danaer“ (bei Homer eine Bezeichnung für die Griechen/Hellenen überhaupt) die Stadt Troja eroberten. Die Bezeichnung ist aus dem Lateinischen ins Deutsche gelangt. Vergil lässt den Priester Laokoon in der "Aeneis" (Buch II, Vers 48-49) sagen: Das englische Sprichwort "Beware of Greeks bearing gifts" (deutsch: "Hüte Dich vor Griechen mit Geschenken") geht auf denselben Vers in Vergils Aeneis zurück. Zur stehenden Redewendung wurde auch ein Ausspruch aus Senecas Tragödie "Agamemnon" (624): „Danaum fatale munus“ (lateinisch, „ein verhängnisvolles Danaergeschenk“). Danunäer. Danunäer bzw. Danuna (akkadisch "KurDa-nu-na", phönizisch "Dnn-im", ägyptisch "Dnwn/Dnjn/Dnan") ist die Bezeichnung eines Volks, das in der Region Adana ansässig war. Die Herkunft ihres Namens wird deshalb auch mit dem Ort Adana in Verbindung gebracht. Lage und Herkunft. Das Siedlungsgebiet der Danunäer lag in einer Talebene am Meer, eingeschlossen von hohen Bergketten. Eine Gleichsetzung mit dem Stamm Dan wird kontrovers diskutiert. Nach biblischer Überlieferung besiedelte der Stamm "Dan" ein ähnliches Gebiet, jedoch geografisch weiter entfernt in südlicher Richtung. Historische Quellen. Die Danunäer werden als Bewohner des Königreiches Qu'e sowohl in der Bilingue von Karatepe als auch in der ebenfalls zweisprachigen Inschrift auf der Statue von Çineköy erwähnt. Biblische Quellen. W. Max Müller wollte die Rodanim der Völkertafel mit den Danuna der Amarna-Briefe gleichsetzen. Die diskutierte Gleichsetzung der Danunäer mit der Abstammung von "Jawan" als Volk von Rhodos beruht auf der Völkertafel der Genesis () und der Chronik () mit der Aufzählung der "Dodanim, Tharsisa, Elisa und Chittim". "Jawan" entspricht bei dieser Deutung den "Achi-jawa". Bezüge zu den Danaern. Mukana (Mykene), Deqajis (Theben oder die Landschaft um Theben), Misana (Messenenien), Nuplija (Nafplio), Kutira (Kythera), Weleja (Elis). Der Ort Amukla (Amyklai), nur wenige Kilometer südlich von Sparta, wurde von dieser Liste gestrichen. Der Grund ist unklar. Die zeitgleiche Erwähnung der "Danuna" im Gebiet der Levante widerspricht jedoch einer direkten Ableitung der festlandsgriechischen Danaer in Verbindung mit den Angriffen der "Seevölker", weshalb auch mögliche Gleichsetzungen kontrovers diskutiert wurden. Donald E. Knuth. Donald Ervin „Don“ Knuth (* 10. Januar 1938 in Milwaukee, Wisconsin) ist ein US-amerikanischer Informatiker. Er ist emeritierter Professor an der Stanford University, Autor des Standardwerks "The Art of Computer Programming" und Urvater des Textsatzsystems TeX. Leben. Knuth ist der Sohn eines Lehrers. Er besuchte die Milwaukee Lutheran High School und begann sein Physikstudium am California Institute of Technology im September 1956. Aus zweierlei Gründen schlug er ab seinem zweiten Studienjahr jedoch den Weg zur Mathematik ein: Zum einen löste er ein Problem eines seiner Mathematikprofessoren, was ihm eine 1,0 als Note einbrachte, zum anderen fand er wenig Gefallen an den physikalischen Praktika. Er erhielt einen Bachelor- und einen Master-Abschluss 1960 an der Case Western Reserve University. 1963 erhielt er seinen Ph.D. vom California Institute of Technology bei Marshall Hall, wo er dann auch nach der Promotion Assistant Professor und 1966 Associate Professor und schließlich Professor wurde. 1968 wurde er Professor für Informatik an der Stanford University. Ab 1977 war er dort "Fletcher Jones Professor of Computer Science" und ab 1990 "Professor of the Art of Computer Programming". Seit 1993 ist er Professor Emeritus. 1960 bis 1968 war er Berater der Burroughs Corporation, wo er unter anderem frühe Compiler schrieb. 1968/69 war er Staff Mathematician in der Communication Research Division des Institute for Defense Analyses. 2006 erfuhr Knuth, dass er an Prostatakrebs im Frühstadium erkrankt war. Er unterzog sich im Dezember des Jahres einer Operation, gefolgt von einer leichten Strahlentherapie als Vorsorgemaßnahme. In seiner Video-Autobiographie nannte er die Prognose "ziemlich gut". Er ist seit 1961 mit Nancy Jill Carter verheiratet und hat einen Sohn und eine Tochter. Arbeit. Bereits 1964 erlangte er durch seinen Designvorschlag eines Input/Output-Systems für die Programmiersprache Algol 60 internationale Bekanntheit. Dieses System wurde in den meisten Algol-60-Systemen als Komponente implementiert. Eigens für sein mehrbändiges Werk "The Art of Computer Programming", an dem er weiterhin arbeitet, schuf er mit TeX und METAFONT Computerprogramme, die druckreifen Textsatz ermöglichen und die besonders im mathematisch-akademischen Bereich eingesetzt werden. Er prägte den Begriff "literate programming" – die Auffassung, Computerprogramme mit derselben Sorgfalt wie einen literarischen Text zu verfassen und Quelltext und Softwaredokumentation zu vereinen. In diesem Sinne veröffentlichte er Bücher, in denen der vollständige Quelltext von TeX und METAFONT in Abschnitten zusammen mit Erläuterungen zum Design und zur Wirkungsweise der Algorithmen abgedruckt ist (natürlich unter Verwendung dieser Programme). Die außerdem erschienenen Benutzerhandbücher enthalten nicht nur Bedienungshinweise für die Anwender dieser Programme („wie weise ich TeX auf mögliche Worttrennungen hin?“), sondern auch – in technischerer Sprache und kleinerer Schrift – detaillierte Angaben zur Funktionsweise („wie funktioniert der Worttrennalgorithmus?“). Sie umfassen damit zugleich auch die Spezifikation dieser Programme. Neben Knuths Bemühen um ein ansprechendes ästhetisches Erscheinungsbild beim Textsatz ist ihm Korrektheit ein erstrangiges Anliegen. Deshalb vergibt er für jeden neu gefundenen Fehler in seinen Büchern oder Programmen eine Belohnung von einem „hexadezimalen Dollar“ im Wert von $2,56 (100 hexadezimal entspricht 256 dezimal). Sehr wenige dieser Schecks sind bisher eingelöst worden. Da Knuth Schecks nicht mehr für sicher hält, werden die begehrten Anerkennungsschecks seit 2008 als persönliche Einlagen bei der fiktiven "Bank von San Serriffe" ausgestellt. 1974 beschrieb und popularisierte er in seinem Buch "Surreal Numbers: How Two Ex-Students Turned on to Pure Mathematics and Found Total Happiness" die von John Horton Conway vorgestellten surrealen Zahlen. Seine Vorliebe für schön gedruckte Texte verband er mit seinem theologischen Interesse (er ist evangelisch-lutherisch) im "3:16-Projekt", als er 1985, aufbauend auf einer Schlüsselstelle der Bibel (Johannes 3,16), aus jedem Buch der Bibel Kapitel 3, Vers 16 studierte und eine eigene englische Übersetzung davon von jeweils unterschiedlichen Künstlern schreiben ließ und diese Kalligrafien mit seinen Überlegungen zu den Versen veröffentlichte. Am 1. Januar 1990 teilte Knuth mit, ab jetzt keine E-Mail-Adresse mehr zu verwenden, um sich auf seine Arbeit zu konzentrieren. Seit 1993 befindet sich Knuth im Ruhestand, um sich ausschließlich der Fertigstellung von "The Art of Computer Programming" zu widmen. Seit Februar 2011 liegt Band 4A vor, der sich mit Kombinatorik beschäftigt. Band 4B und 4C sollen folgen, Band 5 (von sieben geplanten) hofft er bis 2020 fertigzustellen. Im Herbst 1999 hielt er am MIT im Rahmen einer mehrjährigen Vortragsreihe prominenter Wissenschaftler zum Thema „Gott und Computer“ sechs Vorlesungen über Querverbindungen zwischen Informatik und Religion aus seiner persönlichen Sicht, und nahm an einer abschließenden Podiumsdiskussion teil. Deren Mitschriften wurden in seinem Buch "Things a computer scientist rarely talks about" veröffentlicht. Mehrfach kritisierte er in jüngster Zeit öffentlich die Vergabe von Softwarepatenten in den USA und engagierte sich in der Diskussion über freieren Zugang zu Veröffentlichungen in wissenschaftlichen Zeitschriften. Knuth hat im Zuge seiner weiteren Forschungen für "The Art of Computer Programming" eine neue Prozessorarchitektur mit zugehörigem Assembler entwickelt und wird diese in einer zukünftigen Ausgabe des ersten Bandes veröffentlichen (die entsprechende Beschreibung liegt bereits als Vorabversion vor). Diese 64-Bit-Architektur (MMIX) unterstützt ein Unix-ähnliches Betriebssystem (genannt NNIX), auf dem dann wiederum der TeX-Interpreter ausführbar wäre. Somit wären "The Art of Computer Programming" und "Computers and Typesetting" in Kombination mit freier Software ein vollständig selbstdokumentierendes System, bestehend aus Hard- und Software. "The Art of Computer Programming" enthält auch zahlreiche detaillierte mathematikhistorische Anmerkungen; daneben verfasste er auch einige Aufsätze zur Mathematikgeschichte. Zudem ist Knuth auch bekannt für seine wissenschaftlichen Witze, so schrieb er einen Artikel "The Complexity of Songs" ‚Über die Komplexität von Liedern‘ und entwarf das "Potrzebie-Einheitensystem", in dem die Dicke des 26. "MAD-Magazines" als elementare Längeneinheit dient. Das war auch seine erste Veröffentlichung, im "MAD-Magazin" (Heft 33) von 1957. Auszeichnungen. Er ist vielfacher Ehrendoktor; von 1980 bis 2005 wurden ihm 25 Ehrendoktortitel verliehen, unter anderem von der ETH Zürich (2005) und der Eberhard Karls Universität Tübingen (2001). Zudem ist Knuth der Namenspate für den seit 1997 jährlich vergebenen Knuth-Preis. Der Asteroid (21656) Knuth ist nach ihm benannt. 1992 wurde er auswärtiges Mitglied der Académie des sciences und 2008 der Russischen Akademie der Wissenschaften, 1973 der American Academy of Arts and Sciences, 1975 der National Academy of Sciences, 2003 auswärtiges Mitglied der Royal Society, 1982 Ehrenmitglied der IEEE, Fellow der Association for Computing Machinery (ACM) und 1981 der National Academy of Engineering. Er ist assoziiertes Mitglied der Norwegischen Akademie der Wissenschaften. Er ist Fellow der American Mathematical Society. Diskrete Mathematik. Die diskrete Mathematik als Teilgebiet der Mathematik befasst sich mit mathematischen Operationen über endlichen oder höchstens abzählbar unendlichen Mengen. Im Gegensatz zu Gebieten wie der Analysis, die sich mit kontinuierlichen Funktionen oder Kurven auf nicht abzählbaren, unendlichen Mengen beschäftigt, spielt die Stetigkeit in der diskreten Mathematik keine Rolle. Die in der diskreten Mathematik vertretenen Gebiete (wie etwa die Zahlentheorie oder die Graphentheorie) sind zum Teil schon recht alt, aber die diskrete Mathematik stand lange im Schatten der „kontinuierlichen“ Mathematik, die seit der Entwicklung der Infinitesimalrechnung durch ihre vielfältigen Anwendungen in den Naturwissenschaften (insbesondere der Physik) in den Mittelpunkt des Interesses getreten ist. Erst im 20. Jahrhundert entstand durch die Möglichkeit der raschen digitalen Datenverarbeitung durch Computer (die naturbedingt mit diskreten Zuständen arbeiten) eine Vielzahl von neuen Anwendungen der diskreten Mathematik. Gleichzeitig gab es eine rasante Entwicklung der diskreten Mathematik, die in großem Maße durch Fragestellungen im Zusammenhang mit dem Computer (Algorithmen, theoretische Informatik usw.) vorangetrieben wurde. Ein Beispiel für ein Gebiet, das am Schnittpunkt von Analysis und diskreter Mathematik liegt, ist die numerische Mathematik, die sich mit der Approximation von kontinuierlichen durch diskrete Größen beschäftigt sowie mit der Abschätzung (und Minimierung) dabei auftretender Fehler. Wissenschaftspreis. Die Fachgruppe Diskrete Mathematik der Deutschen Mathematiker-Vereinigung vergibt im Zwei-Jahres-Rhythmus den nach dem deutschen Mathematiker Richard Rado benannten Richard-Rado-Preis für die beste Dissertation in Diskreter Mathematik. Studium. Ein Studium der Diskreten Mathematik ist an verschiedenen Universitäten (u. a. TU Berlin) durch eine entsprechende Schwerpunktsetzung innerhalb des Mathematikstudiums möglich. Unter anderem die Technische Hochschule Mittelhessen, die Philipps-Universität Marburg, die Georg-August-Universität Göttingen, die Hochschule Bremerhaven, die Fachhochschule Münster, die Fachhochschule Nordwestschweiz sowie die Friedrich-Schiller-Universität Jena behandeln die diskrete Mathematik als Pflichtmodul im Grundstudium der Informatik. Unter den Fachhochschulen bietet die Hochschule Mittweida im Rahmen eines spezialisierten Masterstudiums diese Möglichkeit. In der Fachhochschule RheinMain in Wiesbaden ist die diskrete Mathematik ein Pflichtmodul im Masterstudiengang Informatik. Dickdarm. Der Dickdarm (lat. "Intestinum crassum") ist der letzte Teil des Verdauungstraktes der Wirbeltiere und damit auch des Menschen. Er ist der Teil des Darms, der nach dem Dünndarm beginnt und an der Kloake oder am Anus endet. Seine wesentliche Funktion liegt im Transport und in der Speicherung des Stuhls. Der Dickdarm entzieht dem Stuhl Wasser und dickt ihn dadurch ein. Durch seine Fähigkeit, Natrium-, Kalium- und Chlorid-Ionen aufzunehmen oder auszuscheiden, ist er an der Feinregulation des Elektrolyt-Haushaltes beteiligt. Die Darmflora ist vor allem im Dickdarm zu finden. Erkrankungen des Dickdarms sind beim Menschen häufig: die akute Appendizitis ist ein gängiges Krankheitsbild der Chirurgie und Darmkrebs gehört zu den häufigsten Krebsdiagnosen. Vergleichende Anatomie des Dickdarms. a>"), partiell aufgeschnitten. Zugang vom Magen rechts, Abgang zum Enddarm links im Bild. Der Dickdarm ist der bei den Wirbeltieren vom Dünndarm differenzierte Teil des Mitteldarms (Intestinum), also des mittleren Abschnitts des Darmes zwischen dem Magen und den Anhangsorganen sowie der Kloake bzw. dem Anus. Im einfachsten Fall bilden beide Mitteldarmabschnitte ein einfaches und gestrecktes Rohr, in dem sowohl die enzymatische Zersetzung wie auch die Resorption der Nährstoffe stattfindet. Diese einfache Form findet sich bei den Schleimaalen, den Neunaugen sowie den Knochenfischen. Bei den Knorpelfischen ist der Mitteldarm durch eine spezifische Faltenbildung zur Vergrößerung der Oberfläche gekennzeichnet, die je nach Taxon mehr oder weniger spiralförmig ist und entsprechend als Spiraldarm bezeichnet wird. Amphibien und Reptilien besitzen meist nur einen kurzen, in wenige Schlingen gelegten Dickdarm. Der Blinddarm ist klein oder fehlt ganz. Bei beiden Gruppen endet der Dickdarm in einen kurzen Enddarm und danach in der Kloake. Bei Vögeln unterscheidet man zwei Dickdarmabschnitte: den Blinddarm und den Enddarm. Die Bauunterschiede betreffen vor allem den Blinddarm, der bei Vögeln paarig angelegt ist. So besitzen Hühner- oder Straußenvögel große Blinddärme, während sie bei Tauben sehr klein sind und keine Verdauungsfunktion haben und bei Papageien, vielen Greif- und Sperlingsvögeln ganz fehlen. Die Säugetiere sind, mit Ausnahme der Kloakentiere, die einzige Tiergruppe, bei der es zu einer Trennung von Geschlechtsöffnung und Darmaustritt in Form eines Anus gekommen ist. Innerhalb der Säugetiere zeigt der Dickdarm erhebliche Unterschiede im Aufbau. So besitzen Raubtiere einen kleinen Blinddarm, ein einfaches U-förmiges Colon und einen kurzen Mastdarm (Rektum), die allesamt keine Bandstreifen (Tänien) besitzen. Der Darm der Primaten entspricht dem in diesem Artikel ausführlich dargestellten Aufbau beim Menschen. Einige Pflanzenfresser wie Pferde oder herbivore Nagetiere haben dagegen einen sehr großen Blinddarm, der bei ihnen als Gärkammer dient. Am Colon zeigt vor allem der aufsteigende Teil ("Colon ascendens") erhebliche Gestaltvariationen, bei Pflanzenfressern ist er stark vergrößert. Die Schlingen des "Colon ascendens" sind beispielsweise bei Pferden in Form zweier übereinandergelegter, nach hinten offener Hufeisen angeordnet, bei Schweinen bienenkorbartig und bei Wiederkäuern scheibenförmig aufgerollt (Einzelheiten siehe den Artikel zum jeweiligen Dickdarmabschnitt). Die Anzahl der Bandstreifen ist ebenfalls tierartlich verschieden. Elefanten besitzen einen sehr langen Darm von insgesamt etwa 25 Metern Länge, von denen 6 Meter auf den Dickdarm und 4 Meter auf das Rektum entfallen. Bei den Walen sind der Dünndarm und der Dickdarm nur anhand der Epithelzellen zu unterscheiden. Lage und Struktur. Der Dickdarm liegt größtenteils in der Bauchhöhle, wo er die Dünndarmschlingen umrahmt. Er beginnt bei den meisten Menschen im rechten Unterbauch, wo der Dünndarm seitlich einmündet und die Leerdarm-Blinddarm-Klappe (Ileozäkalklappe, Bauhin-Klappe) bildet. Unterhalb der Einmündung endet der Dickdarm blind, entsprechend wird dieser Abschnitt Blinddarm "(Caecum)" genannt. An seinem Ende verengt sich der Blinddarm zum Wurmfortsatz "(Appendix vermiformis)", dessen Lage sehr variabel ist. Oberhalb der Bauhin-Klappe beginnt der Grimmdarm "(Colon)", der bis unter die Leber aufsteigt "(Colon ascendens)", unterhalb der Leber nach links umbiegt "(Flexura coli dextra)" und quer durch die Bauchhöhle in den linken Oberbauch zieht ("Colon transversum", auch Quercolon genannt). Hier biegt er erneut um "(Flexura coli sinistra)" und steigt in das Becken ab "(Colon descendens)", wo er anschließend S-förmig nach hinten "(dorsal)" zum Kreuzbein zieht "(Colon sigmoideum)". Dort biegt er nach unten "(kaudal)" um, verlässt die Bauchhöhle und bildet den Enddarm. Dieser wird in den Mastdarm und den Analkanal unterteilt. Die Gesamtlänge des Dickdarms beträgt beim Menschen etwa 1,5 Meter. Die einzelnen Abschnitte können intraperitoneal, retroperitoneal und extraperitoneal liegen. Damit ist die Lage zum Bauchfell "(Peritoneum)" gemeint. Ein Organ liegt intraperitoneal, wenn es vollständig von Bauchfell überzogen ist und mit einem breiten Band (Gekröse, "Meso") an der Rumpfwand aufgehängt ist, wodurch es relativ frei beweglich ist. Beim Dickdarm gilt das für Blinddarm, Wurmfortsatz, Quercolon und Colon sigmoideum. Retroperitoneal bedeutet, dass das Organ nicht von allen Seiten von Bauchfell überzogen ist, sondern an einer Seite direkt mit der Rumpfwand verwachsen ist. Das gilt für den auf- und absteigenden Grimmdarm ("Colon ascendens" und "Colon descendens") und das obere Rektum. Ein Organ liegt extraperitoneal, wenn es außerhalb der Bauchhöhle liegt und deswegen nicht vom Peritoneum überzogen ist. Im Falle des Dickdarms trifft das auf das Endstück des Rektums und den Analkanal zu. Charakteristisch für den Dickdarm ist die Wand des Colons. Sie ist gekennzeichnet durch drei sichtbare Längsmuskelzüge, die Bandstreifen genannt werden, halbmondförmige Einziehungen "(Plicae semilunares)" und Aussackungen (Poschen oder Haustren) zwischen den Einziehungen "(siehe Abschnitt Feinbau)". Blutversorgung und Lymphabfluss. a>" (blau). Die Blutversorgung des Rektum ist nicht dargestellt. Die Abschnitte des Dickdarmes werden von den Ästen dreier großer Arterien versorgt. Blinddarm, Wurmfortsatz, aufsteigendes Colon und der größte Teil des Quercolon erhalten Äste der "Arteria mesenterica superior", der restliche Teil des Quercolon, das absteigende Colon, das Colon sigmoideum und das obere Rektum solche von der "Arteria mesenterica inferior". Das untere Rektum und der Analkanal erhalten Blut aus der "Arteria pudenda interna". Der Blutabfluss erfolgt über Venen, die mit den Arterien verlaufen und gleichlautend benannt sind, also über die "Vena mesenterica superior", "Vena mesenterica inferior" und "Vena pudenda interna". Die beiden erstgenannten münden in die Pfortader der Leber, nur die "Vena pudenda interna" mündet in die "Vena iliaca interna", deren Blut in die untere Hohlvene gelangt, ohne die Leber zu passieren. Da Lymphgefäße in der Regel mit Arterien verlaufen, entsprechen die Lymphabflussgebiete des Dickdarms in etwa den arteriellen Versorgungsgebieten. Die Lymphe aus dem Stromgebiet der "Arteria mesenterica superior" fließt über die Mesenteriallymphknoten an der Austrittsstelle der Arterie aus der Bauchaorta "(Noduli mesenterici superiores)" in den "Truncus intestinalis", der in die "Cisterna chyli" mündet. Die Lymphe aus dem Stromgebiet der "Arteria mesenterica inferior" gelangt entsprechend über die Lymphknoten neben dem Arterienaustritt "(Noduli mesenterici inferiores)" und über den linken "Truncus lumbalis" in die "Cisterna chyli". Innervation. In der Wand des Darms befindet sich ein Netzwerk aus Nervenzellen, das die Bewegungen des Darms koordiniert. Dieses sogenannte enterische Nervensystem arbeitet weitgehend autonom, seine Aktivität wird aber von den beiden Anteilen des vegetativen Nervensystems beeinflusst: der Parasympathikus steigert die Darmaktivität, der Sympathikus setzt sie herab. Ähnlich der arteriellen Versorgung wird der Dickdarm bis kurz vor der linken Colonflexur anders innerviert als der Darm dahinter. Die parasympathischen Fasern für den ersten Abschnitt stammen aus dem Vagusnerv, die für den zweiten Abschnitt entspringen aus dem untersten Teil des Rückenmarks und verlaufen als "Nervi splanchnici pelvici". Als Cannon-Böhm-Punkt wird das Gebiet bezeichnet, in dem sich die Innervationsgebiete überlappen. Feinbau. Mikroskopisches Bild der Dickdarmschleimhaut. Oben sind die Krypten angeschnitten. Der Dickdarm zeigt den typischen Wandaufbau des Magen-Darm-Traktes mit vier Schichten. Die innerste Schicht ist eine Schleimhaut ("Tunica mucosa", kurz "Mukosa"), die ihrerseits aus drei Schichten aufgebaut ist: die Oberfläche ist mit Epithel "(Lamina epithelialis)" bedeckt, das durch lockeres Bindegewebe "(Lamina propria mucosae)" von einer Schicht aus glatten Muskelzellen "(Lamina muscularis mucosae)" getrennt ist. Die Schleimhaut liegt einer lockeren Bindegewebsschicht ("Tunica submucosa", kurz "Submukosa") auf. Diese führt die Blut- und Lymphgefäße für die Mukosa und beinhaltet ein Nervengeflecht, den "Plexus submucosus". Sie dient zudem als Verschiebeschicht zur dritten Wandschicht, der "Tunica muscularis", die dem Organ mit einer inneren Ringmuskelschicht "(Stratum circulare)" und einer äußeren Längsmuskelschicht "(Stratum longitudinale)" peristaltische Bewegungen ermöglicht. Zwischen den Muskelschichten liegt ein weiteres Nervengeflecht, der "Plexus myentericus", der ebenso wie der "Plexus submucosus" zum enterischen Nervensystem gehört. Die vierte Schicht ist je nach Abschnitt des Dickdarms entweder lockeres Bindegewebe "(Adventitia)" oder das Bauchfell. Ein wichtiger feinbaulicher Unterschied zum Dünndarm besteht in dem Fehlen von Darmzotten, die Dickdarmschleimhaut hat nur tiefe Krypten, die von zylinderförmigen Zellen "(hochprismatisches Epithel)" ausgekleidet sind. Viele dieser Zellen produzieren Gleitschleim, andere nehmen Wasser auf und dicken so den Stuhl ein. Auch die Dickdarmwand ist wie die Wand des Dünndarms in Falten geworfen. Diese entstehen aber durch örtliche Einziehungen der inneren Ringmuskelschicht, die im Querschnitt halbmondförmig erscheinen (daher der lateinische Name "Plicae semilunares"). Zwischen den Einziehungen bildet die Darmwand Aussackungen, die als "Haustren" (deutsch: Poschen) bezeichnet werden. Bei einigen Säugetieren, auch beim Menschen, ist die äußere Längsmuskelschicht zu drei kräftigen Strängen ("Tänien") verdickt. An diesen Tänien hängen außen Ansammlungen von Fettgewebe "(Appendices epiploicae)". Von diesem Muster weicht die "Appendix vermiformis" ab. Sie hat keine Tänien, sondern wie die anderen Abschnitte des Verdauungstraktes eine durchgehende Längsmuskelschicht. In der "Lamina propria" der Schleimhaut sind große Lymphfollikel zu finden. Das Rektum hat statt der Tänien eine durchgehende Längsmuskelschicht, keine Haustren und keine Fettanhängsel. Am Analkanal geht das Epithel des Rektums in mehrschichtig unverhorntes Plattenepithel über. Entwicklung und Fehlbildungen. Aus dem "Entoderm", dem inneren Keimblatt des Embryos, bildet sich zunächst das primitive Darmrohr aus, an dem Vorder-, Mittel- und Hinterdarm zu unterscheiden sind. Aus der weiteren Entwicklung des Mitteldarms geht der größte Teil des Dünndarms und der Dickdarm einschließlich der ersten zwei Drittel des Quercolons hervor. Der Rest des Dickdarms bildet sich aus dem Hinterdarm, während das letzte Stück des Analkanals durch die Einstülpung von "Ektoderm" entsteht. Die Entwicklung des Darmes erklärt auch die Innervation und die Blutversorgung: die Mitteldarmarterie wird zur "Arteria mesenterica superior", die Enddarmarterie zur "Arteria mesenterica inferior". Im Laufe der Entwicklung verwachsen "Colon ascendens" und "Colon descendens" mit der rückwärtigen Rumpfwand. Beim "Colon ascendens" kann diese Verwachsung unvollständig sein und im Extremfall gar nicht stattfinden, sodass es wie das Quercolon über ein eigenes Mesenterium verfügt. Das "Colon ascendens" ist dann abnorm beweglich, es kann zum Volvulus kommen oder zur Einklemmung von Dünndarmschlingen. Während der Embryonalentwicklung dreht sich der Darm und „verpackt“ sich in der Bauchhöhle. Auch bei diesem Prozess können Fehler auftreten, die dazu führen, dass sich etwa der gesamte Dickdarm auf der linken Seite befindet oder das Quercolon hinter dem Zwölffingerdarm zu liegen kommt. Als Atresie bezeichnet man den Verschluss von Hohlorganen: Am Dickdarm sind am häufigsten Rektum und Analkanal betroffen, bei der "Rektoanalatresie" fehlt die Verbindung zwischen den beiden Abschnitten und der Dickdarm endet blind. Häufig ist der Mastdarm dann durch Fisteln mit angrenzenden Organen verbunden. Bei Jungen ist das häufig die Harnröhre, bei Mädchen die Vagina. Das angeborene Megacolon "(Morbus Hirschsprung)" steht möglicherweise mit dieser Atresie in Verbindung, hat aber wahrscheinlich andere Ursachen. Bei dieser Erkrankung ist der Darm krankhaft erweitert. Funktion. Der Dickdarm nimmt den Speisebrei aus dem Dünndarm auf, transportiert ihn weiter, speichert ihn im Mastdarm und scheidet ihn letztlich aus. Dabei entzieht er ihm weiteres Wasser, indem er Natrium-Ionen resorbiert. Daneben ist er auch an der Regulation des Chlorid- und Kalium-Ionen-Haushaltes beteiligt, wobei er im Gegensatz zum Dünndarm auch zur aktiven Sekretion von Kalium in der Lage ist. Abgesehen von kurzkettigen Fettsäuren werden im Dickdarm keine Nährstoffe aufgenommen. Eine bedeutende Rolle bei der Bildung dieser Fettsäuren spielen die Bakterien des Dickdarms, die Darmflora. Stuhltransport. Die Ileozäkalklappe trennt den letzten Abschnitt des Dünndarms, das Ileum, vom Blinddarm. In Ruhe ist diese Klappe teilweise geschlossen, sodass ein langsamer Durchtritt des Speisebreis möglich ist. Der Übertritt des Speisebreis vom Ileum in den Blinddarm findet bei Nahrungsaufnahme verstärkt statt: Die Magendehnung führt über einen Reflex zu verstärkter Peristaltik des Ileums und über die Ausschüttung des Hormons Gastrin zur Entspannung des zur Klappe gehörenden Schließmuskels. Der Transport des Speisebreis findet im Dünndarm mit einer recht konstanten Geschwindigkeit statt. So staut sich Speisebrei vor der Ileozäkalklappe und dehnt das Ileum. Ohne die entspannende Wirkung des Gastrins bewirkt die Dehnung des Ileums eine Kontraktion des Schließmuskels, ohne Nahrungsaufnahme wird also der Übertritt des Speisebreis blockiert. Nach der Passage des Ileozäkalsphinkters sammelt sich der Speisebrei im Blinddarm und im aufsteigenden Colon. Typisch für alle Abschnitte des Dickdarms ist die Haustralbewegung. Dabei füllt sich eine Haustre bis zu einem bestimmten Grad und zieht sich dann zusammen, wobei sie ihren Inhalt in die benachbarte Haustre drückt. Daneben ist eine sehr langsame propulsive Peristaltik zu beobachten, bei der sich die Einschnürungen zwischen den Haustren sozusagen Richtung Anus bewegen. Im aufsteigenden Colon und im Quercolon sind Segmentationsbewegungen zu beobachten, die den Stuhl durchmischen. Im Quercolon tritt gelegentlich eine Antiperistaltik auf, die den Stuhl zurück in den Blinddarm treibt. In Verbindung mit der Nahrungsaufnahme tritt eine sogenannte Massenperistaltik auf: Ausgelöst durch die Dehnung des Magens entsteht im mittleren Quercolon eine peristaltische Welle, die den Stuhl in kurzer Zeit über das absteigende Colon und das "Colon sigmoideum" in den Mastdarm befördert (Gastrocolischer Reflex). Die Darmentleerung ist ein Reflex, der durch die Dehnung der Rektumwand ausgelöst wird. Dabei kontrahieren sich die Längsmuskeln des Mastdarms, verkürzen ihn und erhöhen so den Druck. Der innere Schließmuskel des Anus wird unwillkürlich entspannt. Durch die willentliche Entspannung des äußeren Schließmuskels kann sich der Mastdarm entleeren. Die gesamte Passagezeit des Dickdarms ist individuell sehr verschieden und reicht von 12 bis 48 Stunden. Wasser, Elektrolyte und Nährstoffaufnahme. Der Dickdarm nimmt mit unter 2 Litern am Tag weniger Wasser auf als der Dünndarm, kann die Resorption jedoch auf 4 bis 5 Liter steigern. Der Wassertransport erfolgt grundsätzlich über die Resorption von Natrium-Ionen: diese werden aktiv aufgenommen, das Wasser folgt passiv nach "(Osmose)". Die Zellen des Dickdarms sind wie die Zellen des Dünndarms in der Lage, Natrium-, Kalium- und Chlorid-Ionen aufzunehmen und im Fall von Chlorid auch auszuscheiden, wenn auch die zellulären Mechanismen dahinter unterschiedlich sind. Zwei wesentliche Unterschiede liegen darin, dass die Dickdarmzellen Natrium auch gegen einen Konzentrationsgradienten aufnehmen und Kalium nicht nur aufnehmen, sondern auch ausscheiden. Damit spielt der Dickdarm eine wichtige Rolle in der Feinregulation des Kalium-Haushaltes. Kohlenhydrate und Proteine, die in den Dickdarm gelangen, werden dort von Bakterien abgebaut. Der Dickdarm kann nur die dabei entstehenden kurzkettigen Fettsäuren resorbieren. Bakterielle Besiedlung. Bei allen Tieren ist der Darm von Bakterien besiedelt, die in ihrer Gesamtheit die Darmflora bilden. Die Zusammensetzung der Darmflora und die Verteilung der Bakterien unterscheiden sich zwischen Pflanzen-, Fleisch- und Allesfressern. Die Bakterien leben dabei in Symbiose mit ihrem Wirt, indem sie ihm nicht verdaubare Nahrungsbestandteile verdauen und zugänglich machen. Da die Bakterien unter Ausschluss von Sauerstoff, also anaerob arbeiten müssen, handelt es sich um Vergärungsprozesse. Bei Fleischfressern und beim Menschen ist ein Großteil der Darmflora im Dickdarm beheimatet. Hier produzieren sie bei der Vergärung des Speisebreis in erster Linie kurze Fettsäuren, die vom Dickdarm aufgenommen werden. Hinzu kommt Vitamin K, das ebenfalls resorbiert wird. Während Wiederkäuer die unverdaulichen Bestandteile der pflanzlichen Nahrung, nämlich Cellulose, Xylan, Pectin und andere Polysaccharide, in ihrem Pansen vergären lassen, finden diese Prozesse bei Pferden, Eseln, den meisten anderen Unpaarhufern und Kaninchen im Blinddarm und Colon statt. Die Art und Menge, sozusagen das Ökosystem der verschiedenen Bakterien im Dickdarm ist Gegenstand aktueller Forschung. Ernährung, aber auch Übertragung von Mensch zu Mensch spielen hier eine Rolle. Das Immunsystem und Erkrankungen werden davon beeinflusst, eine Interventionsmöglichkeit stellt die Stuhltransplantation dar. Entzündungen. Eine Entzündung des Dickdarms wird allgemein Kolitis genannt. Die Entzündung des Wurmfortsatzes (Appendizitis) ist die häufigste Entzündung im Bauchraum. Ursachen für Dickdarmentzündungen sind Infektionen mit Krankheitserregern, Allergien, bestimmte Medikamente, Strahlung, Minderdurchblutung oder unbekannte Faktoren, die zum Beispiel bei der Entstehung der chronisch-entzündlichen Darmerkrankungen eine Rolle spielen. Infektiöse Kolitis. Bei einer Gastroenteritis, also der Magen-Darm-Entzündung, ist der Dickdarm in der Regel mitbetroffen. Eine solche Entzündung entsteht durch die Infektion mit Bakterien, Viren und seltener Parasiten. Häufige bakterielle Erreger sind besondere Typen von "Escherichia coli" (EHEC, ETEC, EIEC und EPEC), einige Yersinien- und Campylobacter-Spezies, des Weiteren enteritische Salmonellen und Cholera-Erreger. In manchen Fällen manifestiert sich auch eine Tuberkulose im Dickdarm. Kleinräumige Ausbrüche einer infektiösen Gastroenteritis werden häufig durch Viren hervorgerufen, überwiegend Noroviren, bei Kleinkindern häufiger Rotaviren. Seltenere virale Erreger sind Astroviren, Sapoviren und das Humane Adenovirus F. In Sommermonaten überwiegen in Mitteleuropa die bakteriellen Gastroenteritiden, im Herbst und Winter hingegen virale. Eine Erkrankung, die nur den Dickdarm betrifft, ist die Dysenterie (Ruhr). Sie wird in Mitteleuropa vor allem durch Shigellen (Bakterienruhr) verursacht. In tropischen und subtropischen Regionen ist die Amöbenruhr weiter verbreitet, deren Erreger "Entamoeba histolytica" sich vor allem in Colon und Leber festsetzt. Bei schlechter Abwehrlage, etwa bei AIDS-Erkrankten, können weitere Erreger krankheitsauslösend sein, darunter einige atypische Mykobakterien (MOTT), Kryptosporidien und Candida-Pilze. Selten kommt es bei Immundefizienten zu einer Kolitis aufgrund einer Reaktivierung des Cytomegalievirus. In tropischen Regionen spielt auch die Infektion mit Schistosomen eine Rolle. Die durch diese Würmer ausgelöste Erkrankung wird Bilharziose genannt. Chronisch-entzündliche Darmerkrankungen. Zu den chronisch-entzündlichen Darmerkrankungen werden üblicherweise "Morbus Crohn" und "Colitis ulcerosa" gezählt, die in Deutschland mit jeweils 5–6 Neuerkrankungen pro 100.000 Einwohner pro Jahr etwa gleich häufig auftreten. Kennzeichnend ist eine dauerhafte (chronische) Immunreaktion in der Darmwand, die in Schüben auftritt. Bei beiden Erkrankungen sind die Auslöser und Mechanismen der Krankheitsentstehung noch unklar. Franz Alexander zählte sie 1950 zu den sieben psychosomatischen Krankheiten, den „Holy Seven“, mittlerweile wurden aber auch genetische Faktoren identifiziert, die bei der Entstehung der Krankheiten eine Rolle spielen könnten. "Morbus Crohn" und "Colitis ulcerosa" unterscheiden sich hinsichtlich des Krankheitsverlaufs und ihres Erscheinungsbildes (Morphologie). Der Morbus Crohn ist die Entzündung der ganzen Darmwand mit allen Schichten, weshalb es häufig zu Fisteln (beispielsweise Analfisteln) kommt. Grundsätzlich kann der gesamte Verdauungstrakt befallen sein, typischerweise betrifft die Entzündung aber den Endabschnitt des Dünndarms (Ileum) und den Dickdarm. Die Entzündung breitet sich nicht kontinuierlich vom Entstehungsort aus, sondern „springt“ von Abschnitt zu Abschnitt. Der Morbus Crohn heilt häufig nur unvollständig ab und ist durch eine hohe Rezidiv-Rate, also wiederkehrende Entzündungen, gekennzeichnet. Bei der Colitis ulcerosa beschränkt sich die Entzündung dagegen auf die Schleimhaut. In der Regel beginnt die Entzündung akut im Rektum und breitet sich von dort kontinuierlich auf die restlichen Dickdarmabschnitte aus. Ist der ganze Dickdarm befallen, ist von einer "Pancolitis" die Rede. Bei etwa 10 bis 20 % der Pancolitiden kommt es zur sogenannten „Backwash-Ileitis“, bei der die Entzündung auf das Ileum des Dünndarms übergreift. Auch die Colitis ulcerosa verläuft rezidivierend, also mit wiederkehrenden Schüben. Zwischen den Schüben heilt der Darm in der Regel aber vollständig ab. Beim akut fulminanten Verlauf ist das toxische Megacolon eine seltene, aber lebensbedrohliche Komplikation mit der Gefahr einer eitrigen Bauchfellentzündung. Colitis ulcerosa erhöht das Risiko, an Darmkrebs zu erkranken. Eine weitere, schlecht erforschte Erkrankung ist die mikroskopische Colitis, die ebenfalls zu den chronisch entzündlichen Darmerkrankungen gezählt werden kann. Sie verursacht wässrige Durchfälle, aber keine mit dem bloßen Auge oder dem Endoskop sichtbaren Schleimhautveränderungen. Die Diagnose kann nur durch die mikroskopische Untersuchung der Schleimhaut nach der Biopsie gestellt werden. Unterschieden werden zwei Formen: die Lymphozytäre Colitis ist durch eine Vermehrung von bestimmten Immunzellen, den Lymphozyten, im Epithel charakterisiert. Die Kollagene Colitis entspricht der Lymphozytären Colitis, zusätzlich hat sich unter der Basalmembran des Schleimhautepithels eine Schicht aus Kollagenfasern gebildet. Ischämische Kolitis. Eine ischämische Kolitis entsteht, wenn die Dickdarmschleimhaut aufgrund von Gefäßverengungen oder Verschlüssen (häufig durch Arteriosklerose) überhaupt nicht mehr oder nicht mehr ausreichend durchblutet und dadurch geschädigt wird "(Mesenteriale Ischämie)". Die Reaktion auf den Gewebeschaden ist die Entzündung im betroffenen Gebiet. Beim Dickdarm ist die Durchblutungsstörung häufig auf kleinere Areale begrenzt und tritt etwas häufiger im Bereich der linken Colonflexur auf, da dieses Gebiet an der Grenze der Versorgungsgebiete von "Arteria mesenterica superior" und "Arteria mesenterica inferior" liegt und die Anastomosen zwischen den Versorgungsgebieten aufgrund von Arteriosklerose nicht mehr in der Lage sind, Durchblutungsstörungen auszugleichen. Das Rektum ist in der Regel nicht betroffen, da es aus den Beckenarterien ausreichend versorgt ist. Medikamentenassoziierte Kolitis. Auch die Wirkung vieler Medikamente kann Dünn- und Dickdarm schädigen und eine Entzündung "(Enterocolitis)" verursachen, etwa nichtsteroidale Antirheumatika (NSAR) wie Aspirin oder Ibuprofen, Antibiotika, Zytostatika und blutdrucksenkende Mittel wie Diuretika. Schätzungsweise ist jede zehnte Entzündung des (Dick-)Darms auf den Gebrauch von NSAR zurückzuführen. Die Entzündung heilt ab, wenn das Medikament abgesetzt wird. Antibiotika hemmen die Darmflora und begünstigen dadurch die Vermehrung krankheitserregender Bakterien, vor allem "Clostridium difficile", dessen Enterotoxine die Dickdarmschleimhaut angreifen und zur Entzündung führen. Wegen typischer Schleimhautveränderungen werden diese Entzündungen als pseudomembranöse Kolitiden bezeichnet. Bei einer starken Verminderung der Anzahl der neutrophilen Granulozyten im Blut (Neutropenie), häufig als Nebenwirkung einer Chemotherapie mit Zytostatika, kann es zu einer schweren, nekrotisierenden Entzündung des Blinddarms und des aufsteigenden Colons kommen, der sogenannten neutropenischen Colitis "(Typhlitis)". Reizdarmsyndrom. Das Reizdarmsyndrom ist ein Komplex mehrerer gastrointestinaler Symptome, das mit psychischen Belastungsfaktoren in Verbindung gebracht wird und auch nach einer Darminfektion auftreten kann. Das Reizdarmsyndrom ist eine Ausschlussdiagnose, die gestellt wird, wenn die lang anhaltenden Beschwerden wie Bauchschmerzen, Blähungen und Stuhlveränderungen mit keiner anderen Diagnose in Einklang gebracht werden können. Rund die Hälfte der Patienten mit gastrointestinalen Beschwerden soll an einem Reizdarmsyndrom leiden. Divertikel. Divertikel sind allgemein Ausstülpungen der Wand eines Hohlorgans, die am Dickdarm am häufigsten auftreten. Unterschieden werden echte Divertikel und unechte Divertikel "(Pseudodivertikel)". Bei Ersteren sind alle Wandschichten an der Bildung des Divertikels beteiligt, bei den Pseudodivertikeln wird in der Regel nur die Schleimhaut durch die Muskelschichten gedrückt. Pseudodivertikel können entweder noch in der Darmwand "(intramural)" liegen oder sich komplett daraus herausstülpen ("extramurale" Divertikel). Etwa zwei Drittel der Dickdarmdivertikel treten am "Colon sigmoideum" auf und sind typischerweise Pseudodivertikel. Das gehäufte, keine Beschwerden verursachende Auftreten von Divertikeln wird als Divertikulose bezeichnet, die in eine Divertikulitis, also eine eitrige Entzündung der Divertikel, übergehen kann und therapiert werden muss. Im schlimmsten Fall können entzündete Divertikel aufbrechen (perforieren), was zu Abszessen in der Bauchhöhle und Entzündungen des Bauchfells führen kann. Tumoren. Tumoröse Schleimhautveränderungen an einem längs aufgeschnittenen Teil des Dickdarms. In der linken Hälfte ist die Schleimhaut unverändert, rechts sind zwei Polypen und ein Karzinom (mit „Cancer“ beschriftet) zu sehen. Der Dickdarm ist mit über 60000 jährlichen Neuerkrankungen in Deutschland nach der Prostata und der Brustdrüse der dritthäufigste Entstehungsort von Krebs, dem kolorektalen Karzinom. Die Ursachen sind nicht genau bekannt, als Risikofaktoren gelten Rauchen, Bewegungsmangel, Übergewicht, Alkohol und rotes Fleisch. Darüber hinaus gibt es seltene erbliche Formen wie die familiäre adenomatöse Polyposis oder das hereditäre nicht-polypöse kolorektale Krebssyndrom. Das gängige Modell der Entstehung von Dickdarmkrebs geht von einer Adenom-Karzinom-Sequenz aus. Das bedeutet, dass in einem mehrstufigen Prozess durch genetische Veränderungen das Drüsenepithel des Dickdarms entartet: Dafür reicht eine Zelle, die sich wegen dieser genetischen Veränderungen unkontrolliert teilt. Zunächst entsteht so ein gutartiger Tumor, ein Adenom, der bei der Koloskopie als Dickdarmpolyp auffällt. Die Zellen des Adenoms sind aber anfällig für weitere Genmutationen, sodass irgendwann Krebszellen entstehen, die bösartig in das umliegende Gewebe einwachsen und sich schnell teilen. Über 90 % der kolorektalen Karzinome gehen aus Adenomen hervor, weswegen die Entfernung eines Adenoms immer angezeigt ist. Tumoren des Bindegewebes sind selten, gerade im Vergleich zu den oben beschriebenen epithelialen Tumoren. Die häufigsten Bindegewebstumoren sind Tumoren des Fettgewebes, der glatten Muskelzellen, der Lymphgefäße und Gastrointestinale Stromatumoren. Maligne Lymphome, insbesondere das Mantelzelllymphom, können sich als "lymphomatöse Polypose" manifestieren, wobei sich zahlreiche Polypen im Colon finden. Neuroendokrine Tumoren gehen im Magen-Darm-Trakt von den Zellen des Diffusen neuroendokrinen Systems aus. Sie sind am Colon sehr selten, am Rektum finden sich dagegen 13 % aller gastrointestinalen Neuroendokrinen Tumoren, während am Wurmfortsatz fast jeder fünfte dieser Tumoren lokalisiert ist. Untersuchungsmöglichkeiten. Endoskopische Untersuchung des "Colon transversum" (Normalbefund). Der Dickdarm kann mit den Händen und Fingern, endoskopischen und anderen bildgebenden Verfahren untersucht werden. Beim Abtasten des Bauches im Rahmen der körperlichen Untersuchung können Tumoren des Dickdarms festgestellt werden. Eine häufige Untersuchung ist die digitale Palpation, das Abtasten mit den Fingern (von lat. "digitus", Finger). Dabei führt der Untersuchende einen (in der Regel behandschuhten) Finger in den Anus ein, tastet den Analkanal ab, prüft den Ruhetonus und den Druck des Analsphinkters bei der aktiven Anspannung, schiebt den Finger bis in die Rektumampulle vor und tastet auch diese aus. Bei Männern kann auf diesem Wege auch die Prostata beurteilt werden. Auf diese Art können Tumoren oder schmerzhafte Stellen ausgemacht werden. Nicht zuletzt können Stuhl, Blut oder Eiter am Finger Hinweise auf Erkrankungen geben. Zur endoskopischen Untersuchung stehen verschiedene Verfahren zur Verfügung. Das Rektoskop ist ein starres Endoskop, das nur zur Beurteilung von Analkanal und Rektum geeignet ist. Eine Sigmoidoskopie zur Beurteilung des Darms bis zum "Colon sigmoideum" kann mit einem bis zu 60 cm langen, flexiblen Endoskop erfolgen. Die Koloskopie (Darmspiegelung) ist die endoskopische Untersuchung des gesamten Dickdarms mit einem langen Endoskop. Sie gilt als Goldstandard für die Beurteilung der Schleimhaut. Mit diesem Verfahren können nicht nur sichtbare Veränderungen beschrieben, sondern auch Proben entnommen (biopsiert) und kleine therapeutische Eingriffe durchgeführt werden (beispielsweise die Entfernung eines Polypen). Die klassische Ultraschalluntersuchung des Bauches spielt für die Beurteilung des Dickdarms eine untergeordnete Rolle. Nützlich ist sie zur Diagnostik der akuten Appendizitis und der Divertikulitis. Die Endosonografie ist ein kombiniertes Verfahren, bei dem ein rotierender Schallkopf an einem flexiblen Endoskop in den Darm eingeführt wird. Dabei entsteht ein Querschnittsbild des Darms, mit dem alle Wandschichten beurteilt werden können. Das konventionelle Röntgen des Bauches bietet eine schnelle Diagnostik. Es eignet sich zur Identifizierung freier Luft im Bauchraum, die einen Hinweis auf die Perforation eines Hohlorgans gibt, zur Diagnostik eines Darmverschlusses (Ileus) durch den Nachweis von Luft-Flüssigkeits-Spiegeln in den Darmschlingen oder dem Nachweis von Fremdkörpern oder eingebrachten Materialien. Die Computertomographie erlaubt die Beurteilung der Wandschichten des Dickdarms sowie anderer Organe und Lymphknoten, weshalb dieses Verfahren für die Stadienbestimmung von Tumoren "(Staging)" verwendet wird. Bei jungen Patienten mit chronisch-entzündlichen Darmerkrankungen kommt wegen der fehlenden Strahlenbelastung die Magnetresonanztomographie (MRT) zum Einsatz. Daneben spielt dieses Verfahren auch für das Staging von Rektumkarzinomen eine Rolle. Kontrastmitteluntersuchungen haben wegen der Verbreitung endoskopischer Verfahren an Bedeutung verloren. Sie kommen zum Einsatz, wenn eine endoskopische Untersuchung nicht möglich ist, etwa durch eine hochgradige Stenose des Darmlumens. Mit dieser Technik können beispielsweise Divertikel dargestellt werden. Die funktionelle Untersuchung des Vorgangs der Stuhlausscheidung mit Kontrastmittel oder MRT wird Defäkographie genannt. Auch der Stuhl selbst kann Gegenstand der Untersuchung sein. Insbesondere der Nachweis von sichtbarem (Hämatochezie) oder nicht sichtbarem (Guajak-Test) Blut im Stuhl kann Ausgangspunkt weiterführender Diagnostik sein. Chirurgische Eingriffe. Chirurgische Eingriffe können am Dickdarm von Mensch und Tier vorgenommen werden. Beim Menschen werden diese Eingriffe relativ häufig durchgeführt. Die folgende Liste soll einen Überblick über die typischen Operationsverfahren beim Menschen geben. Grundsätzlich unterscheidet sich die Operationstechnik bei gutartigen Erkrankungen (wie Entzündungen) und bösartigen Erkrankungen. Bei bösartigen Erkrankungen, wie Tumoren, werden nach den Prinzipien der onkologischen Chirurgie größere Teile des Dickdarms mit umliegendem Gewebe entfernt, um mögliche Metastasen in den Lymphgefäßen und -knoten mit zu entfernen. Alle Verfahren können offen mit Laparotomie oder laparoskopisch durchgeführt werden. Bei der laparoskopisch assistierten Operation wird das Operationsgebiet laparoskopisch präpariert. Die Resektion selbst erfolgt dann offen chirurgisch. Welche Operationstechnik angewandt wird, hängt von der Art der Erkrankung ab: während bei gutartigen Erkrankungen die Laparoskopie einen hohen Stellenwert hat, war sie bei Darmkrebs-Operationen lange umstritten. Mittlerweile wurde aber nachgewiesen, dass die Langzeitergebnisse der Laparoskopie bei lokal begrenzten Tumoren den Langzeitergebnissen der offenen Chirurgie ähnlich sind, die Laparoskopie ist daher auch in diesen Fällen ein etabliertes Verfahren. In der Tiermedizin werden chirurgische Eingriffe vor allem bei Pferden mit Koliken vorgenommen, die häufig vom Dickdarm ausgehen. Hier sind es vor allem Verdrehungen, Verstopfungen und Einstülpungen des Blinddarms und des „großen Colons“ (Colon ascendens), die meist nur chirurgisch zu beheben sind. Bei Hunden und Katzen werden chirurgische Eingriffe vor allem bei Mastdarmvorfällen, Tumoren oder einem Megacolon durchgeführt. Eine Verankerung des absteigenden Colons an der rückenseitigen Rumpfwand (Colopexie) kann sowohl bei Mastdarmvorfällen als auch bei Perinealhernien angezeigt sein. Düssel. Die Düssel ist ein rund 40 Kilometer langer rechter Nebenfluss des Rheins in Nordrhein-Westfalen. Sie entspringt in Wülfrath-Blomrath an der Stadtgrenze zu Velbert-Neviges im Kreis Mettmann. Nach einem Verlauf durch die Städte Wülfrath, Wuppertal, Mettmann, Haan und Erkrath mündet sie im Stadtgebiet von Düsseldorf vierarmig in den Rhein. Die Düssel ist die Namensgeberin für den Wülfrather Ortsteil Düssel und das dortige Haus Düssel, die Stadt Düsseldorf und deren Ortsteil Düsseltal. Etymologie. Der Name "Düssel" geht wahrscheinlich auf das germanische "thusila" zurück und bedeutet „brausen, rauschen, tosen“, althochdeutsch "doson". Um 1065 wird der Bach als "Tussale" (die Brausende, Rauschende, Tosende) bezeichnet. Naturräumliche Gliederung des Verlaufs. Die Düssel durchquert laut dem Handbuch der naturräumlichen Gliederung Deutschlands in ihrem Lauf mehrere Naturräumliche Einheiten. Der Quellbereich liegt in dem Düsselhügelland (3371.18), der Oberlauf berührt kurz das Dornaper Kalkgebiet (3371.16) und der Mittellauf mit dem Neandertal durchquert die Mettmanner Lößterrassen (3371.00). Es schließt sich bei Alt-Erkrath ein kurzer Abschnitt durch den Naturraum Düsseltalmündung (550.13) an. Das Mündungsdelta befindet sich in der Düsseldorf-Duisburger Rheinebene (575.30). Verlauf bis Düsseldorf. Die Düsselschlucht im Neandertal 1835 Quelle der Düssel bei Velbert-Neviges Die Düssel im Neandertal bei Hochwasser Die Düssel in Erkrath im Normalzustand Die Düssel in Erkrath bei Hochwasser Die Nördliche Düssel in Düsseldorf-Gerresheim Staustufe des Kittelbachs in der Heinrichstraße Die Düssel bildet sich aus vier bis acht Quellgewässern. Die höchstgelegene der Quellen, die der eigentlichen Düssel, befindet sich in Wülfrath bei Gut Blomtrath an der Stadtgrenze zu Neviges. Von hier durchfließt die Düssel die Wülfrather Ortsteile Schlupkothen, Aprath und Düssel, am ehemaligen Schloss Aprath und der Aprather Mühle vorbei, bevor sie in Hahnenfurth und Schöller Wuppertaler Gebiet passiert und ihren Lauf auf dem Gebiet der Stadt Haan fortsetzt. Hier vereint sie sich im Ortskern von Gruiten-Dorf mit der Kleinen Düssel, einem Zufluss, der 4,3 km lang ist und östlich in der Gemarkung Bolthausen im Wuppertaler Stadtteil Vohwinkel entspringt. Westlich von Gruiten fließt sie durch das Naturschutzgebiet Neandertal und markiert dort die Stadtgrenze zwischen Erkrath und Mettmann. Dort hat sich der Fluss tief in den Untergrund aus devonischen Tonschiefern und Riffkalksteinen eingeschnitten und bildet so ein teilweise enges Tal, das in der ersten Hälfte des 20. Jahrhunderts zwischen Gruiten und Braken nur durch die Trassen einer werkseigenen Kleinbahn für den Kalksteinabbau erschlossen war (heute Wegetrassen). Die schluchtartige Enge der "Flasche" ist mit dem Kalksteinabbau verschwunden. Die zweite Enge am 1672 erwähnten und 1986 restaurierten und zwischen den Höfen Thunis und Bracken befindlichen Kalkofen "Huppertsbracken" ist noch erhalten. Zahlreiche Mühlengebäude wie die Winkelsmühle liegen in diesem Talabschnitt. Teilweise sind Anlagen zur Wiesenbewässerung erhalten "(Flößgräben)". Als größter Nebenbach fließt der Düssel, aus einem weiträumigeren Tal kommend, der "Mettmanner Bach" zu. An dieser Stelle, einer kleinen Talweitung, querte die mittelalterliche "Kölnische Straße (Strata coloniensis)" das Tal. Danach verengte es sich abrupt zu einer für den nordwestdeutschen Raum außergewöhnlichen Schlucht, "Gesteins" oder "Hundsklipp" genannt. Diese Schlucht wurde ab etwa 1800 nach dem berühmten, in Düsseldorf lebenden Pastor, Komponisten und Kirchenmusiker Joachim Neander "Neandershöhle" und ab etwa 1850 "Neanderthal" genannt. In der ersten Hälfte des 19. Jahrhunderts war das Tal ein beliebtes Ziel für die Maler der Düsseldorfer Schule, die hier ihre Studien an Felsformationen und Pflanzen betrieben. 1837 regte das Neanderthal den Maler Eduard Steinbrück zum allegorischen Bild "Die Nymphe der Düssel" an, das Prinz Carl von Preußen ihm abkaufte. Durch den Kalksteinabbau ab 1849 ist die Enge des früheren Neanderthals, die die Maler zu romantischen Motiven angeregt hatte, verschwunden und ein weiträumiges Tal entstanden. An der Einmündung des Mettmanner Baches befinden sich der Kunstweg MenschenSpuren und das 1996 eingeweihte Neanderthal Museum. Etwas weiter dem Düssellauf folgend befindet sich an der pittoresken Felsnase "Rabenstein" die Fundstelle des berühmten Fossils Neandertal 1, das für den Neandertaler namensgebend war, einen Urzeitmenschen des Pleistozäns. Die Fundstelle konnte 1997 wiederentdeckt werden und wurde vor einigen Jahren der Öffentlichkeit zugänglich gemacht. Aus dem Neandertal kommend durchfließt die Düssel die Stadt Erkrath, wo sie unter anderem zwischen den 1950er und 1970er Jahren wegen der Ausbreitung der Wohngebiete, dem Straßenbau und Neubauten wie der Stadthalle an einigen Stellen in ein neues Flussbett verlegt wurde. Hier münden der Hubbelrather Bach, in den kurz vorher der Stinderbach mündete, und der Rotthäuser Bach in die Düssel. Hinter dem Ortsausgang schlängelt sie sich an Haus Morp vorbei durch die überwiegend landwirtschaftlich genutzte Fläche zwischen Erkrath und Düsseldorf-Gerresheim; dies ist der letzte noch naturbelassene Abschnitt des Flusses. Binnendelta in Düsseldorf. Für Düsseldorf ist die Düssel namensgebend. Ein Binnendelta mit vier Armen zum Rhein liegt komplett auf dem Stadtgebiet. Erstmals teilt sich der Fluss am Höherhof in Düsseldorf-Gerresheim in die "Nördliche" und die "Südliche Düssel". Beide Bachläufe teilen sich später erneut. Von der Nördlichen Düssel zweigt der Kittelbach ab, von der Südlichen Düssel der Brückerbach. Zur Unterscheidung spricht man ab dort mit Sicht auf das gesamte Delta auch von der Inneren Nördlichen bzw. Südlichen Düssel. Die nur wenig voneinander entfernten unterirdischen Mündungen dieser beiden in der Düsseldorfer Altstadt verlaufenden Arme sind wegen des Rheinufertunnels verrohrt, während sich die Mündungen der beiden anderen Bäche naturbelassen in den Rhein erfließen. Durch Spaltwerke an den drei Scheiden kann der Abfluss geregelt werden. Bei Hochwasser des Rheins wird so der Zufluss zu den inneren Armen gedrosselt, so dass deren kritischere Mündungen in der Innenstadt entlastet werden. Fast alle Wasserarchitekturen der Stadt mit Ausnahme der des Benrather Schlosses werden von Düsselwasser gespeist. Im Jahre 2012 durchgeführte Ausgrabungen deuten darauf hin, dass das Viereck Rhein, Mündungsgebiet der Südlichen und Nördlichen Düssel sowie ein historisch diese beiden Arme künstlich verbindender Stadtgraben ehemals die Verteidigungslinie der Kernstadt Düsseldorf darstellten. Nördliche Düssel. Die Düssel verläuft aus Erkrath kommend zuerst durch Gerresheim in Richtung Westen und teilt sich nach wenigen hundert Metern in die Nördliche Düssel und die Südliche Düssel. Die Nördliche Düssel fließt dann unter den Gleisanlagen am Gerresheimer Bahnhof und dem Gelände der ehemaligen Glashütte hindurch und dann oberirdisch schnurgerade kanalisiert an Kleingärten vorbei nach Nordwesten bis sie die Dreherstraße kreuzt. Hiernach fließt sie durch den Ostpark, quert die Grafenberger Allee und die Simrockstraße, dahinter auch die Graf-Recke-Straße und verläuft weiter in Richtung Norden. Am Spaltwerk Heinrichstraße, das sich an deren Beginn befindet, wird der Kittelbach abgezweigt, der weiter nach Norden verläuft, während die Innere Nördliche Düssel ihren Weg nach Westen in Richtung Zoopark im Stadtteil Düsseltal findet. Durch diesen Park, wo sich früher der Düsseldorfer Zoo befand, fließt sie hindurch und ist einer der wenigen Stellen im Düsseldorfer Stadtgebiet wo die Düssel relativ naturbelassen durch eine Grünanlage fließen darf. Hinter dem Zoopark durchquert sie das Gelände des Eisstadions an der Brehmstraße zwischen dem Hauptstadion und der neuerbauten Trainingshalle, unterfließt die Brehmstraße und verläuft dann oberirdisch an der Kühlwetterstraße entlang unter der Grunerstraße hindurch zur Buscher Mühle. Hiernach kreuzt sie die Nord-Süd Bahntrasse, an der Yorckstraße wurde die nördliche Düssel in einem kleinen Park renaturiert (hier ist eine Erweiterung im Zuge der Neuen Stadtquartiere Derendorf im Bau), um dann wieder für viele Kilometer unterirdisch verrohrt quer durch die Stadt zu verlaufen. Hierbei kreuzt sie die Bülowstraße und die Sommersstraße, knickt dann zur Jülicher Straße ab, um dann an der Annastraße wieder kurzzeitig zum Vorschein zu kommen. Danach fließt sie erneut als Tunnel in Richtung Süden an der Eulerstraße entlang, kommt wieder zum Vorschein und fließt an der Prinz-Georg-Straße zunächst als sehr schmaler, kanalisierter Bach zwischen den Straßen entlang, bevor sie abermals unterirdisch verläuft. Nachdem sie die Vagedesstraße gekreuzt hat und am Jacobihaus (Malkasten) vorbeigeflossen ist, tritt sie wieder hervor. Sie fließt an der Goltsteinstraße in Richtung Hofgarten und durchfließt diesen. An der Querung zur Heinrich-Heine-Allee wird sie wieder zum Tunnel und fließt, für die Altstadtbesucher unsichtbar, an der Kunstsammlung Nordrhein-Westfalen, am Grabbeplatz und am Kom(m)ödchen unter der Mühlenstraße vorbei. An der Josef-Wimmer-Straße tritt sie dann letztmals wieder hervor und fließt im Bereich der Liefergasse in einem Kanal. Direkt zu Beginn des Burgplatzes fließt sie verrohrt quer und unsichtbar unter dem Platz hindurch, am Schlossturm vorbei, um dann von außen nicht erkennbar und nur wenige hundert Meter vom Einleitungsbereich der Südlichen Düssel entfernt an einer Anlegestelle in den Rhein abgeleitet zu werden. An dieser Stelle verlieh die Düssel schon im Mittelalter dem Dorf an seinem Ufer den Namen "Düsseldorf". Dort werden mit dem Wasser der nördlichen Düssel auch der Neptunbrunnen und damit auch der Stadtgraben auf der Königsallee gespeist. Im Jahre 2012 wurde der historisch mit dieser Aufgabe betraute Kanal wieder gefunden. Kittelbach. Der Kittelbach ist ein Nebenarm der Nördlichen Düssel, der im Verlauf der Heinrichstraße in Richtung Norden abzweigt. Im Vergleich zur Nördlichen Düssel ist er weniger unterirdisch verrohrt. Er verläuft in Richtung Nordwesten zum Mörsenbroicher Ei, am ARAG-Tower vorbei und dann entlang der Grashofstraße. Hier ist der Bach teilweise vertunnelt und ändert seine Richtung nach Norden. Nachdem der Kittelbach die Nord-Süd Bahntrasse und ein großes Industriegebiet in Düsseldorf-Derendorf unterflossen hat, kommt er wieder und fließt durch den Stadtteil Unterrath. Er kreuzt die Straße An der Piwipp und verläuft weiter nahezu geradewegs nach Norden. In Unterrath verläuft der Bach Richtung Nordwesten und kreuzt die Unterrather Straße. Im weiteren Verlauf wurde das Flussbett renaturiert, kreuzt die Autobahn A44 und schlängelt sich dann durch einen Parkplatzbereich des Flughafens. Hiernach fließt der Kittelbach quer durch das Gelände des Düsseldorfer Flughafens und seiner Start- und Landebahnen und kommt dahinter wieder zum Vorschein, um nun westlich in Richtung Düsseldorf-Kaiserswerth zu fließen. Dort kreuzt er die Alte Landstraße und die Niederrheinstraße und mündet südlich der Ruine der Kaiserpfalz Kaiserswerth in den Rhein. Der Kittelbach war Namensgeber für die „Kittelbachpiraten“, einen 1925 gegründeten, „militant rechtsgerichteten Jugendverband“, dessen Mitglieder sich 1933 größtenteils der Hitlerjugend oder der SA anschlossen. Im Zweiten Weltkrieg wurde die Bezeichnung von einer losen Gruppe widerständiger und verfolgter Jugendlicher übernommen, vergleichbar den Edelweißpiraten in Köln. Südliche Düssel. Nach der Teilung der Düssel fließt die Südliche Düssel oberirdisch in südlicher Richtung durch Düsseldorf-Vennhausen zunächst parallel zum Reichenbacher Weg. Hierbei kreuzt sie den Sandträgerweg. Anschließend verläuft sie ungefähr parallel zum Neusalzer Weg und Kamper Weg, bis sie die Güterbahnstrecke Duisburg–Köln nördlich des Bahnhofes Eller erreicht. Sie unterquert diese Bahnstrecke und weniger als 100 Meter weiter – inzwischen auf dem Gebiet von Düsseldorf-Eller – auch noch die Gleise der S-Bahn-Linie 1. Nun fließt sie parallel zur Vennhauser Allee, unterquert die Gumbertstraße, in einem sehr spitzen Winkel die Karlsruher Straße und schließlich die Heidelberger Straße. Anschließend verläuft sie zwischen Reiterhof und Schützenplatz zur Unterführung der Bahnstrecke Düsseldorf–Köln etwa 200 Meter südlich des S-Bahn-Haltepunktes Eller Süd. Hinter der Unterführung fließt die Südliche Düssel in südwestlicher Richtung in einem gewissen Abstand parallel zur Straße Am Straußenkreuz bis zu deren Ende. Anschließend am Rand des Friedhofes Eller verlaufend behält sie zunächst ihre Richtung bei. Auf diese Weise erreicht sie die Nähe der Autobahn A 46. Dort, wo auch der "Eselsbach" in die Südliche Düssel einmündet, macht sie eine Rechtskurve und fließt zunächst auf der nördlichen Seite rund 200 Meter parallel zur Autobahn und Friedhofsgrenze. Vor seiner Einmündung fließt der Eselsbach, als Vereinigung von Sedentaler Bach (Quelle in Millrath), Mahnerter Bach und Hühnerbach (Quellen nördlich von Haan), in Erkrath-Sandheide am Unterbacher See vorbei, durch den Eller Forst sowie den Schlosspark Eller und vereinigt sich rund 700 Meter vor seiner Mündung mit dem Hoxbach, der in Haan entspringt, die Hildener Heide sowie Hilden-Nord durchfließt und den Menzelsee, den Hasseler Forst, den Stadtteil Hassels parallel zur A 59 und Ikea Reisholz tangiert. Der Bereich der südlichen Düssel ab Zulauf des "Eselsbaches" bis zum neuen Spaltwerk wurde ab Oktober 1919 reguliert. Zur gleichen Zeit wurden im Bereich des Spaltwerkes und in Höhe der Straße "Werstener Feld" zwei neue Betonbrücken über die Düssel errichtet. Seit dem Ausbau der A 46 in 1970er Jahren unterquert die Südliche Düssel in Höhe der Straße Werstener Feld die Autobahn und fließt anschließend oberirdisch auf der südlichen Seite parallel zur Autobahn weiter. Rund 250 Meter vor der Anschlussstelle Düsseldorf-Wersten, wo sich die Autobahn in einem Tunnel befindet, wird sie in einem Düker unter die Autobahn geführt. Hier zweigt am Spaltwerk Wersten der Brückerbach ab. Auf der nördlichen Seite fließt die Innere Südliche Düssel wieder offen zunächst entlang der Nixenstraße und dann hinter den östlichen Grundstücken der Kölner Landstraße. Anschließend unterquert sie die Kölner Landstraße an der Abzweigung Harffstraße, fließt durch das östliche Randgebiet des Südparks, an der Mitsubishi Electric Halle vorbei nach Norden und weiter nach Westen entlang dem nördlichen Rand des Volksgartens in unmittelbarer Nähe der Eisenbahnstrecke. Zur Bundesgartenschau 1987, deren Veranstaltungsgelände den Südpark und den Volksgarten umfasste, wurde die Düssel renaturiert und in Höhe der damaligen Philipshalle, heute Mitsubishi Electric Halle, zu einer Teichlandschaft ausgeweitet. Nach der Querung der Straße Auf’m Hennekamp fließt sie zunächst parallel zur Feuerbachstraße und dann in Düsseldorf-Bilk zwischen den beiden Fahrtrichtungen der Karolingerstraße, wo sie unter anderem die Merowingerstraße und die Aachener Straße kreuzt und ihren Weg wieder in Richtung Norden fortsetzt. Den überwiegenden Teil des nun folgenden Flusslaufes verläuft sie verrohrt unterirdisch durch die Innenstadt. Hierbei quert sie die Bilker Allee und fließt unter der Konkordiastraße und dem Fürstenwall hindurch. Dann kommt sie auf dem Schulgelände der Konkordiaschule wieder zum Vorschein und durchfließt offen den Häuserblock zwischen Konkordiastraße und Kronprinzenstraße. Unterirdisch quert sie die Zufahrt der Rheinkniebrücke, um dann nördlich der Brückenrampe hinter der NRW-Bank wieder in einem renaturierten Abschnitt im Bereich Wasserstraße dem Schwanenspiegel zuzufließen. Diesen durchfließt sie und mündet anschließend nach Unterquerung der Kreuzung Haroldstraße / Kavalleriestraße / Poststraße den Spee’schen Graben. Unterirdisch fließt sie durch Düsseldorf-Carlstadt und dann unter der Schulstraße (wo auch Heinrich Heine zur Schule ging) entlang. Sie mündet zuerst in den kleinen Binnenhafen am Rathausufer, um dann schließlich verrohrt unter der Rheinuferpromenade geführt zu werden, wo sie, unweit und sehr ähnlich wie die Nördliche Düssel, in den Rhein abgeleitet wird. Brückerbach. Der Brückerbach ist ein Mündungsarm der Südlichen Düssel, der bis Anfang des 20. Jahrhunderts weiter nördlich in Höhe der "Harffstraße" vom südlichen Düsselarm abzweigte und in "Himmelgeist" in den Rhein floss. Anfang des Jahrhunderts wurde die geplante Kiesgewinnung südwestlich von der historischen "Scheidlings Mühle" durch den alten Bachverlauf behindert. 1908 wurde deshalb im Bereich des aktuellen "Werstener Kreuzes" ein "Spaltwerk" errichtet und dadurch das Bachbett nach Süden verlegt. Der Brückerbach zweigt vor dem Düker im Bereich des Spaltwerkes ab, fließt durch einen eigenen rund 500 Meter langen Tunnel und kreuzt auf diese Weise sowohl die Kölner Landstraße wie auch die BA 46. Anschließend ist er bis zu seiner Mündung beidseitig eingedeicht, um die Wohngebiete vor Überflutung durch Rheinhochwasser zu schützen. Zwischen 2005 und 2008 wurden nicht nur die Deiche erneuert, sondern auch das Bachbett renaturiert, sein Gefälle reduziert und in diesem Zusammenhang drei Fischtreppen gebaut. Zunächst verläuft der Brückerbach parallel zur Straße Am Gansbruch erst in südlicher dann in westlicher Richtung. Danach wendet er sich wieder nach Süden und bildet die Grenze zwischen den Stadtteilen Wersten und Bilk. Auf der Bilker Seite liegt der Botanische Garten der Heinrich-Heine-Universität. Unmittelbar vor der Unterführung wendet sich der Brückerbach wieder nach Westen. Nachdem er auch die Himmelgeister Straße und die Zufahrt zum Wasserwerk Flehe (ehemals Himmelgeister Landstraße) unterquert hat, fließt er in das für Fußgänger gesperrte Wasserschutzgebiet "Fleher Wäldchen", wo er am südlichen Ende unbemerkt in den Rhein mündet. Naturschutz. Der Düssellauf ist abschnittsweise naturgeschützt. Auf Wuppertaler Stadtgebiet bei Hahnenfurth und Schöller ist eine Fläche von rund 32 Hektar des Fließgewässers mit seinen Ufern als NSG „Düsseltal“ ausgewiesen. Bei der Grube 7 vor Haan-Gruiten-Dorf berührt die Düssel nur am Rand das 60 Hektar große NSG „Grube 7 und ehemaliger Klärteich“ während hinter Gruiten-Dorf das komplette Düsseltal mit seinen umgebenden Höhen und Seitentälern im 223 Hektar großen NSG „Neandertal“ liegt. Es schließen sich ab dem Neanderthal Museum die Naturschutzgebiete NSG „Laubacher Steinbruch“ (6 Hektar) und NSG „Westliches Neandertal“ (32 Hektar) an. Hinter Erkrath fließt die Düssel durch das 146 Hektar große NSG „Düsselaue bei Gödinghoven“. Die Naturschutzflächen im Düsseltal und dem Neandertal zwischen Haan und Erkrath sind zugleich als Fauna-Flora-Habitat gemäß der EWG innerhalb des Verbundnetzes Natura 2000 ausgewiesen. Anmerkung. 1Dussel Disjunktion. a> von Mengen wird über die Disjunktion definiert Seltener gebrauchte Bezeichnungen für die Disjunktion lauten Alternative, Kontrajunktion, Bisubtraktion und Alternation. Die mehrdeutige Verwendung von „Disjunktion“ etc. ist auf die verschiedenen Rollen des natürlich-sprachlichen oder rückführbar. Die Teilaussagen einer Disjunktion (Adjunktion) werden Disjunkte (Adjunkte) genannt, das die Teilaussagen verknüpfende Wort („oder“) wird als Disjunktor (Adjunktor) genannt. Nicht-ausschließende Disjunktion. Die nicht-ausschließende Disjunktion (Alternative, Adjunktion) ist eine zusammengesetzte Aussage vom Typ „A oder B (oder beides)“; sie sagt aus, dass mindestens eine der beiden beteiligten Aussagen wahr ist. In der Notation formula_1 einer Verknüpfung von Aussagen steht das Symbol formula_4 (Unicode: U+2228, ∨) für die nicht-ausschließende Disjunktion als aussagenlogischen Junktor. Es ähnelt dem Zeichen formula_5 für die Vereinigungsmenge und erinnert an den Buchstaben „v“, mit dem das lateinische Wort „vel“ anfängt, das für ein solches nicht-ausschließendes Oder steht. Eine Disjunktion ist ein Boolescher Ausdruck, sie ist assoziativ und kommutativ. Beispiel. Keine der beiden Teilaussagen schließt hier die andere aus. Die Aussage ist falsch, wenn weder Tom noch Anna beim Streichen helfen, ansonsten wahr. Sie ist insbesondere auch wahr, wenn sowohl Tom als auch Anna beim Streichen helfen. ausschließende Disjunktion. Die ausschließende Disjunktion (Kontravalenz, XOR) ist eine zusammengesetzte Aussage, bei der zwei Aussagen mit der Formulierung „entweder – oder (aber nicht beides)“ verknüpft werden, zum Beispiel die Aussage „Anna studiert "entweder" Französisch "oder" sie studiert Spanisch (aber nicht beides).“ Damit ausgeschlossen ist der Fall, dass beide Teilaussagen wahr sind – im Beispiel also der Fall, dass Anna "sowohl" Französisch "als auch" Spanisch studiert, – eben hierin besteht der Unterschied zur nicht-ausschließenden Disjunktion. Der lateinische Ausdruck für das ausschließende Oder lautet „aut – aut“. Ableitungen im Kalkül des natürlichen Schließens. Aus einer Aussage "A" kann die Disjunktion "A oder B" geschlossen werden. Für die durch die Disjunktion zur bereits gegebenen Aussage "A" hinzugefügte Aussage "B" müssen keine vorherigen Voraussetzungen erfüllt sein, wie die folgende Beispielableitung zeigt. Zur Auflösung einer Disjunktion muss aus beiden Teilen der Disjunktion dieselbe Aussage hergeleitet werden können. Dysplasie. Dysplasie (aus altgriech. δυσ- (dys) 'miss-, un-' und πλάσσειν (plassein) 'formen, bilden', neugriechisch:) bezeichnet in der Humanmedizin und Veterinärmedizin eine Fehlbildung. Verschiedene noch reversible Veränderungen von Zellen, Geweben und Organen durch atypische Wachstumsvorgänge und Verlust der Differenzierung. Die Übergänge zur Anaplasie sind fließend. Bei der Betrachtung des feingeweblichen Aufbaus eines Organs versteht man unter dem Begriff Dysplasie eine Abweichung der Gewebestruktur vom normalen Bild. Treten Dysplasien gehäuft im mikroskopischen Untersuchungsbefund (der histologischen Untersuchung) auf, so können dies Krebsvorstufen sein. Mittelgradige und schwere Dysplasien werden als Präkanzerosen eingestuft (Vorstufen eines malignen Tumors). Dysplasien von Skelett und Bindegewebe. Es handelt sich bei den Dysplasien von Skelett und Bindegewebe um systemhafte Störungen des Knochen- und Knorpelgewebes. Somit sind sie keine "Organ"-, sondern "Gewebs"defekte. Dodo. Der Dodo oder auch die Dronte, seltener "Doudo" oder "Dudu", ("Raphus cucullatus", „kapuzentragender Nachtvogel“) war ein etwa einen Meter großer, flugunfähiger Vogel, der ausschließlich auf den Inseln Mauritius und Réunion im Indischen Ozean vorkam. Der Dodo ernährte sich von vergorenen Früchten und nistete auf dem Boden. Die Forschung geht davon aus, dass die Spezies um 1690 ausstarb. Aussehen. Aus Berichten weiß man, dass der Dodo ein blaugraues Gefieder, einen etwa 23 Zentimeter langen, schwärzlichen, gebogenen Schnabel mit einem rötlichen Punkt sowie kleine Flügel hatte, die ihn nicht zum Fliegen befähigten. Weiterhin bildete ein Büschel gekräuselter Federn den Schwanz und der Vogel legte gelbe Eier. Dodos waren relativ groß und wogen über 20 Kilogramm. Auch wegen seiner schwachen Brustmuskulatur konnte der Dodo nicht fliegen. Das war auch nicht nötig, da er auf Mauritius keine Fressfeinde hatte. Traditionell hat man vom Dodo die Vorstellung eines massigen, plumpen und unbeholfenen Vogels. Der Biologe Andrew Kitchen erklärt den Eindruck dadurch, dass die alten Zeichnungen überfettete, in Gefangenschaft lebende Vögel zeigen. Da Mauritius trockene und feuchte Jahreszeiten hat, hat der Dodo sich möglicherweise am Ende der Regenzeit Fett angefressen, um so die Trockenperioden, in denen Nahrungsmangel herrschte, zu überdauern. In Verbindung mit der Gefangenschaft, in der Nahrung das ganze Jahr vorhanden war, wurde der Dodo ständig überfüttert. Eine der wenigen realistischen Abbildungen eines lebenden Dodo schuf der indische Maler Mansur zu Beginn des 17. Jahrhunderts. Aussterben. 1690 berichtete der Engländer Benjamin Harry zum letzten Mal von einem Dodo auf Mauritius. Hauptgrund für das Aussterben der Art dürften eingeschleppte Ratten sowie eingeführte und verwilderte Haustiere gewesen sein und hier vor allem Schweine und Affen, welche die Gelege der bodenbrütenden Vögel zerstörten, indem sie ihre Eier fraßen. Da der Dodo ursprünglich keine Feinde besaß, verfügte er über kein Flucht- oder Verteidigungsverhalten. Die Zutraulichkeit des Dodo und die Flugunfähigkeit machten ihn auch für Menschen zu einer leichten Beute. Er war zwar nicht wohlschmeckend, aber als Frischfleisch für lange Seefahrten geeignet. Auch die Eier wurden von Seeleuten in Massen gegessen. Diese beiden Gefahren haben ebenso die Existenz der Galápagos-Riesenschildkröte stark bedroht und einige ihrer Unterarten ausgerottet. Weniger als 100 Jahre nach seiner Entdeckung war der Dodo ausgestorben. Davon wurde wenig Notiz genommen, bis der Dodo 1865 in "Alice im Wunderland" von Lewis Carroll erwähnt wurde. Mit der Popularität des Buches wuchs auch die Popularität des Vogels. Forschung. Einem Forscherteam der Oxford-Universität um Beth Shapiro gelang es 2002, DNA-Bruchstücke aus Knochen zu isolieren. Der DNA-Vergleich zeigte eine enge Verwandtschaft des Dodo mit dem ebenfalls ausgestorbenen Rodrigues-Solitär und der heute noch lebenden ostasiatischen flugfähigen Kragentaube. Im Juni 2006 entdeckte eine von dem niederländischen Geologen Kenneth Rijsdijk geleitete Forschergruppe auf Mauritius ein ganzes Depot von Tierknochen und Pflanzensamen in einer Grube in einem ehemaligen Moor. Unter diesen wurden auch viele Skelett-Teile des Dodos gefunden, etwa ein vollständiges Bein und ein sehr selten gefundener Schnabel. Rijsdijk schätzte seinen Dodo-Fund als den umfangreichsten überhaupt ein. Der Fund des Dodo-Massengrabes wird von dem niederländischen Forschungsteam auch als Indiz dafür gewertet, dass eine Naturkatastrophe noch vor Ankunft des Menschen einen signifikanten Teil des Dodo-Ökotops und der Dodo-Population ausgelöscht hat. Bei der Naturkatastrophe könnte es sich um einen Zyklon oder ein plötzliches Ansteigen des Meeresspiegels gehandelt haben. Obwohl einige Museen eine Kollektion von Dodo-Skeletten ausstellen, gibt es bisher weltweit kein vollständig erhaltenes Skelett. Anfang 2011 wurde im Grant-Museum für Zoologie und vergleichende Anatomie der Universität London bei einem Umzug in einer Schublade die Hälfte eines Dodos entdeckt. Ein Dodo-Ei wird im East London Museum in Südafrika gezeigt. Der Vogel und der Dodobaum. Der Samen des Calvariabaumes (Dodobaum) "Sideroxylon grandiflorum", eines früher häufig vorkommenden Baumes auf Mauritius, kann nur schwer zum Keimen gebracht werden. Die Theorie, dass er nur nach Passage des Darmtrakts des Dodo keimt, ist aber nicht ausreichend belegt. Verwandte Arten. Mit dem Rodrigues-Solitär auf Rodrigues wurde der Dodo (früher wissenschaftlich auch "Didus ineptus" genannt) in der Familie der "Dronten" (Raphidae) innerhalb der Ordnung Taubenvögel zusammengefasst. Nach Gesichtspunkten der Abstammungsgeschichte (Phylogenese) müssen diese zwei Arten in die Familie der Tauben (Columbidae; A. Janoo 2005) gestellt werden. Alle Dronten waren flugunfähige, große Vögel, die ausschließlich auf je einer der Inseln des Maskarenen-Archipels lebten. Vom rätselhaften Réunion-Solitär („"Raphus solitarius"“, „Weißer Dodo“) von der Insel Réunion sind nur einige schwer interpretierbare Abbildungen übriggeblieben. Nach einer neueren Theorie ist er identisch mit dem ausgestorbenen Ibis "Threskiornis solitarius". Nach anderen Ansichten handelte es sich um Vögel, die durch Seefahrer von Mauritius nach Réunion gebracht worden waren. Das hellere Gefieder wäre dann dadurch erklärbar, dass es sich um Albinos oder um Jungvögel gehandelt haben könnte. Heraldik. Der Dodo ist das Wappentier im Wappen von Mauritius. Hier ist er der (heraldisch) rechte Schildhalter. Divisionsalgebra. Divisionsalgebra ist ein Begriff aus dem mathematischen Teilgebiet der abstrakten Algebra. Grob gesprochen handelt es sich bei einer Divisionsalgebra um einen Vektorraum, in dem man Elemente multiplizieren und dividieren kann. Definition und Beispiel. Eine Divisionsalgebra ist eine nicht notwendigerweise assoziative Algebra formula_1, in der zu je zwei Elementen formula_2 die Gleichungen formula_3 und formula_4 stets eindeutige Lösungen formula_5 besitzen. Dabei bezeichnet "·" die Vektormultiplikation in der Algebra. Enthält die Divisionsalgebra die Zahl 1, so dass formula_6 gilt, spricht man von einer Divisionsalgebra mit Eins. formula_9 Sätze über reelle Divisionsalgebren. Eine endlichdimensionale Divisionsalgebra über den reellen Zahlen hat stets die Dimension 1, 2, 4 oder 8. Das wurde 1958 mit topologischen Methoden von John Milnor und Michel Kervaire bewiesen. Dieses Resultat ist als Satz von Hurwitz (1898) bekannt. Jede reelle, endlichdimensionale und assoziative Divisionsalgebra ist isomorph zu den reellen Zahlen, den komplexen Zahlen oder zu den Quaternionen; dies ist der Satz von Frobenius (1877). Deckung. Der Ausdruck Deckungsgrad bezeichnet in der Statistik den Anteil einer mit einem bestimmten Merkmal gekennzeichneten Teilmenge an einer Gesamtmenge. Diogenes von Sinope. Diogenes von Sinope (altgriechisch Διογένης ὁ Σινωπεύς "Diogénēs hò Sinōpeús", latinisiert "Diogenes Sinopeus"; * vermutlich um 410 v. Chr. in Sinope; † vermutlich 323 v. Chr. in Korinth) war ein griechischer antiker Philosoph. Er zählt zur Strömung des Kynismus. Wilhelm Busch hat der antiken Figur in seiner Bildergeschichte "Diogenes und die bösen Buben von Korinth" ein für ihn typisches humoristisches Denkmal gesetzt, das wesentlich zu dessen Popularität beigetragen hat. Quellenlage. Über den historischen Diogenes sind kaum gesicherte Daten erhalten. Fast alle Informationen wurden in Form von Anekdoten überliefert, deren Wahrheitsgehalt Gegenstand wissenschaftlicher Spekulationen ist. Die früheste Quelle zu Diogenes ist eine kurze Stelle bei Aristoteles, die mit Abstand wichtigste der allerdings erst im 3. Jahrhundert tätige Doxograph Diogenes Laertios, dessen Bericht sich wiederum auf zahlreiche ältere Autoren stützt – deren Angaben sich schon damals widersprachen. Insgesamt sind die antiken Berichte zu Diogenes überdurchschnittlich zahlreich, besonders in popularphilosophischen Schriften und in der Buntschriftstellerei. Die Verlässlichkeit sämtlicher Zeugnisse zu Diogenes ist umstritten; vermutlich bildeten sich bereits zu Lebzeiten Legenden, und es ist anzunehmen, dass seit seinem Tod etliche Anekdoten hinzuerfunden worden sind. Leben. Die Lebensdaten Diogenes’ sind unbekannt, es liegen dazu verschiedene, teils widersprüchliche Angaben vor. Nach Auswertung der betreffenden Zeugnisse geht man davon aus, dass Diogenes gegen Ende des 5. Jahrhunderts v. Chr., möglicherweise um das Jahr 410 v. Chr. in Sinope am Schwarzen Meer (heutiger Teil der Türkei) geboren wurde und gegen Anfang der 320er Jahre v. Chr. in Athen oder Korinth gestorben ist. Trotz anderslautender Thesen muss Diogenes spätestens in den frühen 360er Jahren v. Chr. nach Athen übersiedelt sein, vielleicht auch noch früher. Die Gründe für die Übersiedlung von Sinope nach Athen sind unklar, auch wenn dazu verschiedene Anekdoten und Geschichten überliefert sind. So berichten Diogenes Laertios und einige andere Autoren die Legende, dass er geflohen oder verbannt worden sei, weil er selbst oder sein Vater als Bankier oder Finanzbeamter der Münze von Sinope Münzen gefälscht hätten. In Athen wurde er Schüler Antisthenes’ und machte Bekanntschaft mit den berühmten Philosophen seiner Zeit: mit Platon, Aischines von Sphettos, Euklid von Megara, erfunden ist hingegen möglicherweise die Begegnung mit Aristippos von Kyrene. Hündische Lebensweise. Sein Beiname „der Hund“ "(kýōn)" war ursprünglich vermutlich als auf seine Schamlosigkeit bezogenes Schimpfwort gemeint. Diogenes aber fand ihn passend und hat sich seither selbst so bezeichnet. Eine von vielen Anekdoten, die diesen Beinamen betreffen, ist die, dass sich Alexander der Große bei Diogenes so vorgestellt haben soll: „Ich bin Alexander, der große König.“ Worauf Diogenes gesagt haben soll: „Und ich Diogenes, der Hund.“ Diogenes soll freiwillig das Leben der Armen geführt und dies öffentlich zur Schau gestellt haben. Angeblich hatte er keinen festen Wohnsitz und verbrachte die Nächte an verschiedenen Orten, wie etwa öffentlichen Säulengängen. Als Schlafstätte soll ihm dabei gelegentlich ein Vorratsgefäß" (píthos)" gedient haben. Zu Diogenes’ Ausstattung gehörte laut Diogenes Laertios ein einfacher Wollmantel, ein Rucksack mit Proviant und einigen Utensilien sowie ein Stock, den er benutzt haben soll. Nach einer Anekdote soll er sogar seinen Trinkbecher und seine Essschüssel weggeworfen haben, als er Kinder aus den Händen trinken und Linsenbrei in einem ausgehöhlten Brot aufbewahren sah. Ernährt habe er sich von Wasser, rohem Gemüse, wild gewachsenen Kräutern, Bohnen, Linsen, Oliven, Feigen, einfachem Gerstenbrot und Ähnlichem. Zu Diogenes’ Zeit galt es in Griechenland als unanständig, in der Öffentlichkeit zu essen. Er tat aber nicht nur dies, sondern befriedigte auch seine sexuellen Triebe vor aller Augen. Da ihm dies als einfachster Weg galt, erledigte er Letzteres durch Masturbation. Einer Anekdote zufolge soll er sich gewünscht haben, auch das Hungergefühl durch einfaches Reiben des Bauches stillen zu können. Schriften. Diogenes Laertios hat zwei unterschiedliche zu seiner Zeit kursierende Listen überliefert, in denen Titel von Schriften Diogenes’ verzeichnet waren. Die erste umfasst 13 Dialoge, 7 Tragödien und Briefe, die zweite, von Sotion von Alexandria stammende, umfasst 12 Dialoge, Chrien und Briefe. Laut Sosikrates von Rhodos und Satyros, so Diogenes Laertios, habe Diogenes allerdings überhaupt keine Schriften verfasst. Lehre. Da seine Schriften verloren sind und Berichte zu philosophischen Positionen, die Diogenes vertreten hat, weit seltener sind als die zahlreich überlieferten Anekdoten, sind seine philosophischen Ansichten nur in groben Umrissen bekannt. Es ist davon auszugehen, dass Diogenes —wie sein Lehrer Antisthenes — die grundsätzliche Ansicht vertreten hat, dass richtig glücklich nur der sein kann, der sich erstens von überflüssigen Bedürfnissen freimacht und zweitens unabhängig von äußeren Zwängen ist. Ein zentraler Begriff ist dabei auch die daraus resultierende Selbstgenügsamkeit "(autárkeia)": „es sei göttlich, nichts zu bedürfen, und gottähnlich, nur wenig nötig zu haben.“ Bedürfnislosigkeit. Diogenes, Gemälde von Jules Bastien-Lepage (1873) Diogenes erkannte ausschließlich die Elementarbedürfnisse nach Essen, Trinken, Kleidung, Behausung und Geschlechtsverkehr an. Alle darüber hinausgehenden Bedürfnissen solle man ablegen, so soll er sogar gegen die verzichtbaren Bedürfnisse trainiert haben: Um sich körperlich abzuhärten, hat er sich im Sommer in glühend heissem Sand gewälzt und im Winter schneebedeckte Statuen umarmt. Und um sich geistig abzuhärten, trainierte er es, Wünsche nicht erfüllt zu bekommen, indem er steinerne Statuen um Gaben anbettelte. Dieses naturgemäße Sichplagen "(pónoi)" unterschied Diogenes von dem öfter vorkommenden unnützen Sichplagen, dessen Ziel die Erlangung von Scheingütern sei. Etlichen Anekdoten ist schließlich auch zu entnehmen, dass Diogenes Bequemheit nicht nur ablehnte, sondern wohl auch als Ursache vieler Übel seiner Zeit ansah. Lust "(hēdonḗ)" und Lustempfindungen scheint Diogenes nicht als besonders wertvoll und auch nicht als unbedingt notwendig angesehen zu haben, er nahm aber beispielsweise die Lust, die man bei sexueller Betätigung empfindet, als zumindest unvermeidlich hin. Sexuelle Betätigung (wie etwa Masturbation) sei jedenfalls der Natur gemäß und ein elementares Bedürfnis. Sexual- und Ehepartner. Als ein Beispiel für Abhängigkeit von anderen Personen galt Diogenes der Geschlechtsverkehr mit Frauen, so wird ihm in etlichen Anekdoten eine gewisse Frauenfeindlichkeit nachgesagt. Trotzdem erkannte er die Notwendigkeit des Geschlechtsverkehrs zum Überleben des Menschen an. An der Ehe, einer seiner Ansicht nach zu engen Bindung, hat Diogenes deshalb aber nicht festgehalten – wie Platon trat er hingegen für die Einrichtung der Frauen- und Kindergemeinschaft ein. Gesellschaftliche Konventionen, Staatsordnung und Religion. Als äußeren Zwang erachtete Diogenes gesellschaftliche Konventionen, die er teils auf radikale Art und Weise ablehnte. Von Dingen wie der öffentlichen Masturbation und anderen provokativen Verstößen gegen den guten Ton war schon die Rede. Diogenes soll in seinen Schriften aber noch andere, äußerst anstößige Standpunkte vertreten haben. In einer seiner Schriften, der "Politeia", soll er etwa geäußert haben, dass nichts gegen das Essen von verstorbenen Menschen und als Opfer geschlachteten Kindern spreche und dass sexuelle Beziehungen zu Müttern, Schwestern, Brüdern und Söhnen erlaubt seien. Bereits Herodot berichtete an einigen Stellen von menschenfressenden Völkern, Stämmen, die Frauengemeinschaft gewohnt waren, anderen, bei denen es Brauch war, die verstorbenen Eltern zu essen und wieder anderen, bei denen Menschen geopfert wurden. Auch war bekannt, dass (ob wahr oder nicht) bei den Persern sexueller Verkehr zwischen Söhnen und Müttern üblich war. Diese Tatsachen veranlassten ihn, die betreffenden gesellschaftlichen Verbote und Konventionen als bloßes Produkt verschiedener eingeübter Gewohnheiten zu betrachten, die sich als Gesetze "(nómoi)", Sitten und Bräuche verfestigt hätten. Aus ihnen resultierende Zwänge seien also nicht von Natur aus richtig, sondern hindern vielmehr daran, ein glückliches Leben zu führen. Wie Herakles müsse man sich über diese Zwänge hinwegsetzen. Ob Diogenes allen Ernstes auffordern wollte, die eigenen Eltern zu essen und mit Geschwistern sexuell zu verkehren oder ob er mit seinen Ausführungen lediglich allgemein auf die Nichtigkeit äußerer Zwänge hinweisen wollte, die den Einzelnen an seinem Glück hindern, kann heute nicht mehr geklärt werden. Zu vermuten ist, dass es auch in den nicht erhaltenen Tragödien um ähnliche Tabubrüche ging. Ebenfalls in der "Politeia" soll er die Abschaffung aller seinerzeit bekannten Staatsformen gefordert haben, da „die einzige wahre Staatsordnung die Ordnung im Kosmos sei.“ So soll sich Diogenes selbst als einer der ersten als Weltbürger "(kosmopolítēs)" bezeichnet und somit einen Kosmopolitismus vertreten haben. Diogenes’ religiöse Ansichten sind unbekannt, anzunehmen ist aufgrund einiger Anekdoten eine spöttisch-ironische Distanz zu religiösen Fragen. Bildung, Dialektik und Philosophie. Von anderen Philosophen dachte Diogenes gering. Die Lehren seines Lehrers Antisthenes hat er zwar hoch geschätzt und daran angeknüpft, über die Person Antisthenes’ hingegen und seine Umsetzung seiner Lehren war er anderer Meinung. Er soll ihn als weich bezeichnet und mit einer Trompete verglichen haben, die zwar laute Töne von sich gibt, sich selbst aber nicht hören kann. Diogenes und Platon. Nach Diogenes Laertios dürfte das Verhältnis Diogenes’ zu Platon nicht das beste gewesen sein. Dessen Ideenlehre habe Diogenes folgendermaßen ins Lächerliche zu ziehen versucht: „Als Platon sich über seine Ideen vernehmen ließ und von einer Tischheit und einer Becherheit redete, meinte Diogenes: ‚Was mich anbelangt, Platon, so sehe ich wohl einen Tisch und einen Becher, aber eine Tischheit und Becherheit nun und nimmermehr.‘ Darauf Platon: ‚Sehr begreiflich; denn Augen, mit denen man Becher und Tisch sieht, hast du allerdings; aber Verstand, mit dem man Tischheit und Becherheit erschaut, hast du nicht.‘“ Auch Platons Bemühungen um Definitionen verschiedener Begriffe, scheint er nicht ganz ernst genommen zu haben: „Als Platon die Definition aufstellte, der Mensch ist ein federloses zweifüßiges Tier, und damit Beifall fand, rupfte Diogenes einem Hahn die Federn aus und brachte ihn in dessen Schule mit den Worten: ‚Das ist Platons Mensch‘; infolgedessen ward der Zusatz gemacht ‚mit platten Nägeln‘.“ Rezeption. Philosophie- und Kulturhistoriker sowie Künstler stellen Diogenes als denjenigen dar, der anders als sein Lehrer Antisthenes nicht in erster Linie Thesen aufstellte, sondern seine ureigenen Erkenntnisse öffentlich und demonstrativ in die Tat umsetzte. In diesem Zusammenhang wird denn gelegentlich auch der Begriff ‚Aktionsphilosoph’ verwendet. In der Philosophie. Aus den Reihen der Philosophen erhielt Diogenes sowohl allerhöchste Zustimmung als auch strikte Zurückweisung. So nannte Plato ihn in diffamierender Absicht einen „rasend gewordenen Sokrates.“. Hegel kritisierte an Diogenes nicht nur dessen Volksnähe, er warf ihm auch vor, „unwichtige Dinge zu wichtig“ zu nehmen. Dazu gehört die öffentlich zur Schau gestellte Bedürfnislosigkeit. Indem Friedrich Nietzsche in ihr bloß ein „Heilmittel gegen alle socialen Umsturzgedanken.“ sah, sprach er dem antiken Philosophen die Subversivität ab. Michel Foucault dagegen sah in den frechen Eskapaden und in der radikalen Freiheit, die sich Diogenes mit ihnen nahm, zugleich die größtmögliche Chance auf Wahrheit ("Parrhesia"): „Der Mut zur Wahrheit seitens desjenigen, der spricht und das Risiko eingeht, trotz allem die ganze Wahrheit zu sagen, die er denkt.“ Während Plato Diogenes im Vergleich mit Sokrates herabzustufen sucht, stellt ihn Peter Sloterdijk auf eine Stufe mit ihm und deutet die „Bizarrerien seines Verhaltens“ als „Versuch, den listigen Dialektiker komödiantisch zu übertrumpfen.“ Ulf Poschardt holt Diogenes in seiner phänomenologischen Studie über Coolness ganz nah an unsere Gegenwart heran und zieht eine direkte Verbindungslinie zur Popkultur: "Diogenes lebte laut wie ein Popstar". Beider Interpretation zufolge — so Harry Walter — repräsentiere Diogenes „mit seinem öffentlichen Querliegen eine Kultur der gestischen Subversion“ Den Gedanken der Subversion übersetzt Natias Neutert 1986 in ein Ein-Mensch-Theater-Stück, bei der er Autor und Akteur in einem ist. Er zeigt auf, wie die „quer zur heroischen Geschichtsbildung liegende Körperphilosophie“ auch heutzutage in der Lage sein kann, „die Posen der großen Wahrheit“ad absurdum zu führen. In der Kunst. Abbildung (19. Jahrhundert) einer Statuette, die von einigen Forschern als Diogenes identifiziert wird. Die kulturgeschichtliche Ausnahmeerscheinung des Diogenes spiegelt sich in einer Fülle künstlerischer Darstellungen wider, sowohl Bilder als auch Skulpturen. So sind drei, nicht mehr vollständige Statuetten gleichen Typs erhalten, von denen angenommen wird, dass sie Diogenes darstellen: Sie zeigen einen bärtigen nackten Mann in vornübergebeugter Haltung. Eine dieser Statuetten wurde in der Villa Albani in Rom gefunden. Original daran sind jedoch nur Kopf, Rumpf, Schultern und rechter Oberschenkel; alles Übrige ist später hinzugefügt worden. Von den anderen beiden Statuetten gibt es nur noch Bruchstücke der Beine, allerdings fanden sich bei ihnen auch Fragmente eines Hundes und eines Rucksacks, also typische Attribute des Diogenes. Ein guterhaltenes Mosaik aus dem 2. Jahrhundert zeigt Diogenes in seinem Fass, darunter ist sein Name zu lesen. Das Mosaik befindet sich heute im Römisch-Germanischen Museum zu Köln. Weblinks. Modernes Diogenes-Denkmal im türkischen Sinop Eigentum. Eigentum (Lehnübersetzung aus dem lat. "proprietas" zu "proprius" „eigen”) bezeichnet die umfassendste Sachherrschaft, welche die Rechtsordnung an einer Sache zulässt. Merkmale moderner Formen des Eigentums sind die rechtliche Zuordnung von Gegenständen zu einer natürlichen oder juristischen Person, die Anerkennung der beliebigen Verfügungsgewalt des Eigentümers und die Beschränkung des Eigentümerbeliebens durch Gesetze. Eigentum ist in den meisten Verfassungen als Grundrecht geschützt, aber nicht inhaltlich bestimmt. Der materiale Gehalt des Eigentums ergibt sich aus einer Vielzahl von Gesetzen des Privatrechts und Öffentlichen Rechts (Bodenrecht, Mietrecht, Kaufrecht, Denkmalschutz, Umweltrecht, Steuergesetze etc.; als Besonderheit: Tierschutz) oder gerichtlichen Präzedenzfällen. Man spricht daher auch von Eigentum als einem „Bündel von Rechten und Berechtigungen“, das die Beziehungen und das Handeln zwischen Personen symbolisiert. Der Gehalt des Eigentumsbegriffs ist nicht statisch und naturgegeben, sondern entwickelt sich im Laufe der Zeit durch die gewohnheitsrechtliche Praxis, Rechtsprechung und Gesetzgebung. Das Institut des Eigentums ist außer in der Rechtswissenschaft Gegenstand verschiedener Wissenschaften. Die Rechts- und Sozialphilosophie fragt nach der Begründung und Rechtfertigung von Eigentum; die Soziologie befasst sich mit den gesellschaftlichen Funktionen (Macht, Status, Soziale Ungleichheit), die Geschichtswissenschaft mit dem Einfluss auf und die Prägung durch die historische Entwicklung, die Politikwissenschaft mit den Folgen und möglichen Wirkungen der Gestaltung der Eigentumsordnung. Die Ethnologie untersucht Eigentumsverhältnisse in unterschiedlichen menschlichen Gesellschaften. In der Ökonomie sowie in anderen Wirtschaftswissenschaften gilt ein gesetzlich gesichertes und möglichst unantastbares Eigentumsrecht als wichtige Grundlage für ein funktionierendes Wirtschaftssystem. Vom Eigentum zu unterscheiden ist der Besitz, der sich auf die tatsächliche Herrschaft über eine Sache bezieht. Bei Miete oder Leihe fallen Eigentum und Besitz regelmäßig auseinander. Wenn der Besitzer nicht durch einen formalen Vertrag (z. B. Mietvertrag) geschützt ist, kann der Eigentümer die Herausgabe einer Sache (z. B. von einem Finder oder Dieb) verlangen. Im Mietvertrag wird der Mieter Besitzer, der Vermieter bleibt jedoch Eigentümer. Der Mieter erhält also die tatsächliche Sachherrschaft, kann aber den gemieteten Gegenstand nicht als Aktivposten (Vermögen) in seiner Bilanz verbuchen. Dies kann nur der Vermieter (Eigentümer). Daraus wird deutlich, dass Eigentum ein Vermögensrecht ist. Ökonomischen Wert hat nicht der Gegenstand an sich, sondern nur der Eigentumstitel, der mit dem Besitz (dem tatsächlichen „Haben“) nicht zusammenfallen muss, sondern ein zusätzlich zum Gegenstand bestehender abstrakter Rechtstitel ist. Wo keine solche Eigentumstitel existieren, kann daher auch keine Geldwirtschaft existieren. Die Dokumentation von Eigentum kann an einen Rechtstitel oder die Eintragung in ein Register (z. B. Grundbuch) gebunden sein. Der Eigentümer von Booten und Schiffen heißt Eigner, deren Zusammenschluss "Eignergemeinschaft". Verwendung in der deutschen Sprache. "Eigentum" und "Besitz" werden sprachlich oft gleichgesetzt, sind jedoch im juristischen und ökonomischen Kontext streng voneinander zu unterscheiden. So kann ein Gegenstand sich vorübergehend oder auf Dauer im Besitz einer anderen Person als des "Eigentümers" befinden (zum Beispiel bei einer Mietwohnung). Daneben wird der Begriff des Eigentums umgangssprachlich auch für das Objekt des Eigentums verwendet („Das ist mein Eigentum“). Der Begriff Eigentum wird meist nur in Gesellschaften oder Populationen gebraucht, in denen es eine rechtliche Unterscheidung von Eigentum und Besitz gibt. Den früheren Inuit-Populationen war beispielsweise der Begriff des Eigentums unbekannt. In sogenannten realsozialistischen Ländern hingegen gab und gibt es oft eine sprachliche, aber weder eine rechtliche Unterscheidung von Eigentum und Besitz, noch wiesen die in diesen Ländern als Eigentum ausgewiesenen Sachen die für das Eigentum charakteristischen ökonomischen Operationsmöglichkeiten (Beleihung, Pfändung, Vermietung, Verpachtung etc.) auf, es handelte sich dabei also stets um Besitz im engeren Sinne. Rechtlich wird zudem zwischen Eigentum und Vermögenswert unterschieden. Auch wenn Eigentum im Alltag oft mit Privateigentum gleichgesetzt wird, werden auch kollektive Verfügungsrechte an Sachen, die exklusiv von einer Gemeinschaft oder vom Staat ausgeübt werden, als Eigentum bezeichnet. Frühgeschichte. Über die historischen Wurzeln des Eigentums gibt es wenig gesichertes Wissen. Aus der Steinzeit kennt man Grab-Beigaben, die den Toten mitgegeben wurden. Dabei dürfte es sich um persönliche Habseligkeiten gehandelt haben wie Waffen, Schmuck und Gebrauchsgegenstände, für die eine besondere Bindung an die Person bestand. Gesellschaftliches Eigentum entstand bereits in der Frühzeit, zunächst durch Abgrenzung von Jagdrevieren einzelner Horden und Stämme, die diese gegeneinander verteidigten. Wie die Eigentumsrechte am Land in typischen Jäger und Sammler-Gesellschaften ausgestaltet sind, ist Gegenstand einer wiederkehrenden ethnologischen Debatte. Die von Henry Lewis Morgan vertretene und später von Friedrich Engels übernommene These eines „Urkommunismus“ in der menschheitsgeschichtlichen Entwicklung wurde durch Frank G. Specks Beispiel familienbezogener Jagdreviere der Algonkin in Kanada in Frage gestellt. Ob diese Familienreviere jedoch schon zu präkolumbianischer Zeit bestanden haben und ob sie als eine dem europäischen Privateigentum ähnliche Institution angesehen werden können, ist weiterhin umstritten. Neuere Forschungsergebnisse weisen darauf hin, dass auch in den Familienterritorien der Algonkin Rechte primär größeren sozialen Gruppen zugeordnet sind. Grundbesitz soll zudem auf spiritueller und sozialer Reziprozität beruhen, das heißt auf wechselseitigen, nicht im Sinne eines Tausches direkt miteinander verknüpften Gaben und Gegengaben. Eigentum gab es schon bei den noch nicht sesshaften Hirtenvölkern. Individuelles Eigentum an Grund und Boden entstand erst im Übergang zum Ackerbau und im Zuge der allmählichen Ablösung der Sippen durch kleinere Familienverbände und die Entstehung von Siedlungen. (Neolithische Revolution) Bedrohungen von außen, aber auch gemeinsame Projekte wie der Siedlungswasserbau im Zweistromland, im Industal oder in Ägypten führten zur Institutionalisierung von Herrschaftsstrukturen und schließlich zu den bekannten Königreichen. In diesem Zuge entstanden auch Rechtsordnungen, in denen es möglich war, das Eigentum durchzusetzen. Die älteste bekannte Kodifizierung ist der Codex Ḫammurapi, der bereits Kaufrecht und Erbrecht kannte. Im 3. Jahrtausend vor Christus entstanden in Mesopotamien die Tempelwirtschaft, in der in regionalen Zentren rund um den Tempel die Wirtschaft in der Hand der Priester lag und die Rechte zur Bewirtschaftung des Landes gegen Abgaben von der Tempelverwaltung vergeben wurde. Gleichzeitig ist privater Grundbesitz anhand von Kaufverträgen in Keilschrift dokumentiert. Reichtum entstand durch kriegerische Ausweitung des Machtbereiches, aber auch durch Handel zwischen den Zentren und ersten Fernhandel. Es entstanden einerseits grundbesitzende Oberschichten, andererseits wurde der Wohlstand durch Sklaven gemehrt. Antike. Die überlieferte Reflexion über die Bedeutung von Eigentum beginnt mit den Werken von Platon und Aristoteles im antiken Griechenland. Die Gesellschaft dieser Zeit war noch ganz überwiegend landwirtschaftlich geprägt. Selbst in der Polis von Athen lebten noch mehr als dreiviertel der Bevölkerung von der Landwirtschaft. Die Gesellschaft wurde vom Adel und von Großgrundbesitzern dominiert, wenn auch die Reformen des Kleisthenes den Bürgern eine Beteiligung an den Entscheidungen der Polis ermöglicht hatten. Gesellschaftlicher und ökonomischer Kern war der Familienhaushalt (Oikos). Zu diesem Haushalt gehörten auch Sklaven, die man kaufte oder die im Zuge der Kolonialisierung nach Athen gelangt waren. Die Schuldsklaverei war durch die Gesetze Solons abgeschafft worden. Im Oikos war alles dem Hausvater untergeordnet, der über das Vermögen, die Frau, die Kinder und die Sklaven die Rechte des Eigentümers ausübte, aber auch die Verantwortung für ihr Wohlergehen hatte. Platon entwarf in der Politeia das Konzept eines idealen Staates, in dem jeder die ihm angemessene Position einnimmt. So gibt es den Nährstand der Handwerker und Bauern, die auch in diesem Staat über Eigentum verfügen. Den Zusammenhalt des Staates gewährleisten die Wächter (Wehrstand). Diese haben kein Eigentum, sondern erhalten ihr Auskommen von der Gesellschaft und im Gegenzug ist ihr gesamter Lebensbereich, auch die Wohnung, der Öffentlichkeit zugänglich. Auch die Philosophen, die für Platon geeignet sind, nach Erziehung und Ausbildung den Staat zu leiten, bleiben ohne Besitz. In seinem Spätwerk, den Nomoi, setzt sich Platon mit der Frage auseinander, wie die staatliche Ordnung einer noch zu gründenden Kolonie aussehen sollte. Hier sah er eine Verteilung des Grundbesitzes vor. Diese ist allerdings gleichmäßig und der Boden kann nicht verkauft, sondern nur vererbt oder an einen anderen ohne Grundbesitz übertragen werden. Ähnlich wie für Platon ist für Aristoteles das Ziel des menschlichen Lebens das Gute, nicht der Reichtum, der nur ein Mittel zur Erreichung dieses Ziels ist. Das Institut des Eigentums entstammt nicht der natürlichen Ordnung, sondern ist Ergebnis der menschlichen Vernunft. Individuelles Eigentum ist dem gemeinschaftlichen Eigentum vorzuziehen, weil persönliches Eigentum eine größere Sorgfalt gegenüber den Sachen bewirkt. Zum zweiten entspricht Privateigentum dem Prinzip der Leistung. Des Weiteren regelt Eigentum eindeutig die Zuständigkeiten, so dass Streit vermieden werden kann. Persönliches Eigentum dient dem Genuss in der Gemeinschaft und ist Voraussetzung für die Tugend der Freizügigkeit. Gemeineigentum ist deshalb nur dort sinnvoll, wo es gemeinschaftlich genutzt wird oder einer gemeinsamen Finanzierung bedarf. Die frühe Kodifizierung des Rechts im antiken Rom war das Zwölftafelgesetz, das den Zweck hatte, die Konflikte zwischen den grundbesitzenden Patriziern und den Plebejern zu ordnen. Kaufverträge wurden hier sehr formalisiert als Libralakte geregelt. Ähnlich wie in Griechenland war die römische Gesellschaft in Haushalten (Dominium: Eigentum, Besitzrecht) organisiert. Der Hausherr, der Pater familias, war uneingeschränkter Eigentümer. Auch erwachsene Söhne waren nicht geschäftsfähig, wenn sie im Haus des Vaters lebten, selbst wenn sie verheiratet waren und Kinder hatten. Der Pater familas konnte seine Kinder sogar in die Sklaverei verkaufen. Er konnte durch Testament sein Eigentum uneingeschränkt vererben. Lag kein Testament vor, erfolgte die Erbfolge in männlicher Linie. Im römischen Recht gab es keine formale Definition des Eigentumsbegriffs, wohl aber verschiedene Formen des Eigentums. Aus der Beschreibung „meum esse aio“ (ich behaupte, dass es mein ist) lässt sich anhand der Praxis ableiten, dass die Definition in Satz 1 BGB weitgehend mit der inhaltlichen Bestimmung zur Zeit Ciceros übereinstimmt. Cicero setzte sich mit der Begründung von Eigentum auseinander. Für ihn entsteht Privateigentum ursprünglich durch Okkupation. Das Land der eroberten Provinzen betrachteten die Römer als Eigentum des römischen Volkes und begründeten hiermit das Recht auf eine Bodensteuer (Tribut). Die Römer kannten bereits ein Immissionsverbot (siehe BGB), d. h. jemand konnte sein Grundstück nicht beliebig nutzen, wenn er damit den Besitz anderer beeinträchtigte, z. B. durch Entwässerungsgräben, deren Wasser auf fremden Grund abfloss. Eine neue Sicht auf das Eigentum kam in der Patristik durch die Verbreitung christlich-jüdischer Gedanken auf, nach denen das Naturrecht mit dem göttlichen Recht gleichzusetzen ist. Im Tanach („Altes Testament“) wird das Land dem Menschen zur Verwaltung übergeben – es bleibt aber im Eigentum Gottes. Bei den Kirchenvätern wie Clemens von Alexandria stand daher die von der Stoa übernommene Frage des richtigen Gebrauchs von Eigentum im Vordergrund. Sie forderten, das Eigentum, das über den eigenen Bedarf hinausgeht, an die Armen weiterzugeben. Die Reichen in der Gemeinde haben entsprechend der paulinischen Lehre eine Fürsorgepflicht gegenüber den Armen. („Der eine trage des anderen Last“, Gal. 6, 2) Mittelalter. Bei den Germanen hatte sich der Stand der Wehrbauern und das Institut der Allmende entwickelt. Diese Struktur wurde im frühen Mittelalter zur Zeit des Karolingerreiches durch die Herausbildung des Ritterstandes abgelöst, durch den zentrale Herrschaft besser zu sichern war. Die mittelalterliche Eigentumsstruktur war geprägt durch Grundherrschaften, die entweder als Lehen (vom Landesherren verliehenes Nutzungsrecht) oder weniger verbreitet als Allodien (vererbbares Eigentum) bestanden. Grundbesitz in den Städten, aber auch der zum Teil sehr große Grundbesitz der Klöster war zumeist Eigentum (Allod). Auch Allodien waren nicht in jedem Fall frei veräußerlich, sondern waren zum Teil Stammgüter, das heißt von Vorfahren ererbte Immobilien, welche die Bestimmung hatten in derselben Familie zu bleiben (vgl. Familienfideikommiss). Die Landwirtschaft war zumeist autark. Es gab freie und unfreie Bauern. Die Masse des Volkes lebte als Knechte oder Tagelöhner. Es gab die an die Person gebundene Form der Hörigkeit als Leibeigenschaft und die an den Boden gebundene Grundhörigkeit. Während in Italien schon früh die Städte ein Gegengewicht zu den Grundbesitzern gewannen, bildeten sich nördlich der Alpen städtische Strukturen erst allmählich heraus. In den Städten entwickelten sich Handel und Marktrecht, es entstanden vor allem in Flandern Messen, Kaufmannsgilden und Zünfte der Handwerker. Ein Höhepunkt im Hochmittelalter war die Gründung der Hanse. Eigentum wurde bzw. wird oft gekennzeichnet durch so genannte Hausmarken, zum Beispiel Wappen und Brandzeichen. Der Kennzeichnung von Grundbesitz dienen die auf den Hermes-Kult zurückgehenden Grenzsteine. Für Grundstücke führte Wilhelm der Eroberer in England 1086 das wahrscheinlich erste Grundbuch ein, das Domesday Book. Unabhängig davon führten die mittelalterlichen deutschen Städte Stadtbücher, Vorläufer der heutigen Grundbücher. Für die Rechtsgeschichte im Mittelalter von besonderer Bedeutung war das Wiederaufleben römischen Rechts angestoßen von den Forschungen der Legisten an den Universitäten, allen voran der Universität Bologna. Dieses hatte auch Einfluss auf das von den Dekretisten vertretene kanonische Kirchenrecht, das im Decretum Gratiani systematisch zusammengefasst wurde. Thomas von Aquin versuchte eine vermittelnde Position zwischen der Lehre des Aristoteles und den Auffassungen der Patristik zu entwickeln. Ein wichtiger Schritt in der Entwicklung der Auffassung über das Eigentum ist die Lehre Wilhelm von Ockhams, der das als Eigentum bestimmte, was sich vor Gericht einklagen lässt. Das einzige Naturrecht, das Ockham anerkennt, ist das Recht auf Erhalt der eigenen Person. Daraus ergibt sich der Anspruch der Armen, von den Reichen wenigstens soviel zu erhalten, wie sie zum Leben benötigen. Zum Naturrecht gehört auch, dass alle Menschen frei sind, auch wenn das Völkerrecht die Sklaverei zulässt. Gerade in Hinblick auf Sklaven und die Position der Frau stellt er sich gegen die Tradition seit Aristoteles, die von Thomas von Aquin noch vertreten wurde. Frühe Neuzeit. Das im Spätmittelalter einsetzende Wachstum der Städte, die zunehmende Zahl der Universitätsgründungen, die Erfindung des Buchdrucks, die Entdeckung Amerikas, Renaissance und Humanismus kennzeichnen strukturelle Veränderungen der Gesellschaft zu Beginn der Frühen Neuzeit. Das Denken wird säkularer, die Kirche wehrt sich mit der Inquisition, muss aber im Zuge der Reformation, der Entwicklung der Naturwissenschaften und der Herausbildung der Nationalstaaten ihren Machtverlust hinnehmen. Die dominierende Herrschaftsform im 17. und 18. Jahrhundert ist der Absolutismus. Die Subsistenzwirtschaft beginnt sich aufzulösen. Die Strukturen des Feudalismus werden allmählich durch Stadtrechte, Dorfordnungen und Verlagerung der Gerichtsbarkeit in die Gemeinden aufgeweicht. In ländlichen Gebieten entstehen Nachsiedlerschichten wie Heuerlinge oder Kötter und Bödner. Die Wirtschaft wird komplexer mit vorindustriellen Produktionsweisen wie Heimarbeit und ersten Manufakturen und einer sich ausbreitenden Marktwirtschaft. Es entwickelt sich der Übergang zum Merkantilismus und zum Physiokratismus. In dieser Zeit entstand auch Geistiges Eigentum als neue Eigentumsform, zunächst als Privilegien, dann auch geschützt durch Patentrecht (Venedig 1474, Großbritannien 1623, Frankreich 1790). In den Bereich der Privilegien fallen auch die Bergordnungen des 15. und 16. Jahrhunderts. Fragen des Urheberrechts wurden erstmals im 18. Jahrhundert geregelt. Thomas Hobbes, der philosophisch den Absolutismus stützte, entwickelte die Idee des Gesellschaftsvertrages, in dem der Einzelne seine Freiheitsrechte an einen zentralen, allmächtigen Herrscher überträgt. Als absoluter Regent legt dieser Gesetze fest und setzt sie durch. Das Recht des Eigentümers kann niemand einschränken als der Souverän. Der Bürger hat aber auch kein Recht, ihn daran zu hindern. Nach dem englischen Bürgerkrieg war in England das Bürgertum trotz der Stuart-Restauration so stark geworden, dass es nach dem Habeas Corpus Act (1679) in der Glorious Revolution (1688) mit der Bill of Rights die Souveränität des Parlaments gegen den König durchsetzen konnte. In den Zwei Abhandlungen über die Regierung bewertete John Locke das Eigentum als Grundrecht. Jedoch entsteht Eigentum nicht durch einen Vertrag, wie bei Hobbes, sondern beruht auf überpositivem Naturrecht. In der Begründung des Eigentums geht Locke mit seiner Arbeitstheorie einen völlig neuen Weg. Der Mensch ist von Natur aus berechtigt, zum Zweck der Selbsterhaltung sich einen Teil der Natur anzueignen. Indem der Mensch ein Naturgut bearbeitet, bringt er einen Teil seiner selbst in den Gegenstand ein. Naturgüter haben ohne Arbeit einen nur geringen Wert. Wasser in der Natur gehört niemandem. Das Wasser im Krug ist aber unbestritten zu Eigentum geworden. (II § 29). Auch der Wert des Bodens entsteht größtenteils durch Arbeit. (II § 43). Der Erwerb von Eigentum hat bei Locke aber seine Grenze dort, wo der Mensch das von der Natur durch Arbeit Gewonnene nicht mehr verbrauchen kann. (II § 32). Für die Bildung von Reichtum sind die Möglichkeit des Tausches und das Institut des Geldes entscheidend. Indem der Mensch das Ergebnis der Arbeit tauscht, zum Beispiel Äpfel gegen Nüsse, so erhält er etwas weniger Verderbliches. Dieses darf er besitzen, auch wenn er es nicht unmittelbar verwertet. Durch die Einrichtung des Geldes wurde zwischen den Menschen ein Übereinkommen getroffen, dass die Aufbewahrung des Eigentums unbegrenzt erfolgen kann. „Das große und hauptsächliche Ziel, weshalb Menschen sich zu einem Staatswesen zusammenschließen und sich unter eine Regierung stellen, ist also die Erhaltung ihre Eigentums.“(II § 124) Den unterschiedlichen Reichtum erklärt Locke mit unterschiedlichem Fleiß und den unterschiedlichen individuellen Voraussetzungen der Menschen. Eingriffe ins Eigentum durch den Staat bedürfen immer der Zustimmung der Bürger. (II § 139) Nach Jean-Jacques Rousseau führt die Bildung von Eigentum dazu, dass der Mensch den Urzustand verlässt. „Konkurrenz und Rivalität auf der einen Seite, Gegensatz der Interessen auf der anderen, und stets das versteckte Verlangen, seinen Profit auf Kosten anderer zu machen: alle diese Übel sind die erste Wirkung des Eigentums und das untrennbare Gefolge der entstehenden Ungleichheit“. (Diskurs, 209) „Der erste, der ein Stück Land eingezäunt hatte und dreist sagte: 'Das ist mein' und so einfältige Leute fand, die das glaubten, wurde zum wahren Gründer der bürgerlichen Gesellschaft. Wie viele Verbrechen, Kriege, Morde, Leiden und Schrecken würde einer dem Menschengeschlecht erspart haben, hätte er die Pfähle herausgerissen oder den Graben zugeschüttet und seinesgleichen zugerufen: ‚Hört ja nicht auf diesen Betrüger. Ihr seid alle verloren, wenn ihr vergeßt, daß die Früchte allen gehören und die Erde keinem.‘“ Dennoch betrachtet er das Eigentum als „das heiligste von allen Bürgerrechten, in gewissen Beziehungen noch wichtiger als die Freiheit selbst […], weil das Eigentum die wahre Begründung der menschlichen Gesellschaft und der wahre Garant der Verpflichtung der Bürger ist.“ „Was der Mensch durch den Gesellschaftsvertrag verliert, ist seine natürliche Freiheit und ein unbegrenztes Recht auf alles, wonach ihn gelüstet und was er erreichen kann; was er erhält, ist die bürgerliche Freiheit und das Eigentum an allem, was er besitzt. Damit man sich bei diesem Ausgleich nicht täuscht, ist es notwendig, die natürliche Freiheit, die ihre Schranken nur in der Stärke des Individuums findet, deutlich von der bürgerlichen Freiheit zu unterscheiden, die durch den Gemeinwillen begrenzt ist, und den Besitz, der nur eine Folge der Stärke oder des Rechts des ersten Besitznehmers ist, vom Eigentum, das nur auf einen ausdrücklichen Titel gegründet werden kann.“ (CS I 8). Im republikanischen Staat Rousseaus ist die bürgerliche Freiheit durch das Gemeinwohl begrenzt. Entsprechend kann durch demokratischen Beschluss in die Verteilung des Einkommens eingegriffen und durch progressive Steuern eine größere Verteilungsgerechtigkeit hergestellt werden. „Der, welcher nur das einfach Notwendige hat, muß gar nichts beitragen; die Besteuerung desjenigen, der Überflüssiges besitzt, kann im Notfall bis zur Summe dessen gehen, was das ihm Notwendige übersteigt“ Ähnlich wie Locke ein Einfluss auf die amerikanischen Verfassungen, insbesondere die Virginia Bill of Rights von 1776 zugeschrieben wird, hatten die Schriften Rousseaus Einfluss auf die Französische Revolution. In Artikel 17 der Erklärung der Menschen- und Bürgerrechte heißt es: „Da das Eigentum ein unverletzliches und heiliges Recht ist, kann es niemandem entzogen werden, es sei denn, dass dies die gesetzlich festgelegte öffentliche Notwendigkeit offensichtlich fordert, und dass eine gerechte und vorherige Entschädigung geleistet wird.“ Zur Bestimmung des Eigentums unterschied Immanuel Kant das innere und das äußere „Mein und Dein“. Das innere Mein und Dein ist das Recht an der eigenen Person. Eigentum als das äußere Mein und Dein besteht nicht von Natur aus, sondern wird erworben, denn es bedarf der Zustimmung eines anderen, weil durch Eigentum die Sphäre des anderen betroffen ist. (RL, AA VI 245) Eigentum unterscheidet sich von sinnlichem Besitz dadurch, dass es ein intelligibler Besitz ist, den man sich nur durch den Verstand vorstellen kann. Eigentum ohne staatliche Gewalt ist nur provisorisch. Eigentum ist dann nicht legitimiert, wenn es andere in ihrer Freiheit beschränkt, ohne dass diese zugestimmt haben. Hieraus folgt, dass die Bildung von Eigentum denknotwendig zu einem republikanischen Staat führt. Moderne. Der Begriff der Moderne und seine Abgrenzung zur frühen Neuzeit sind unscharf. Für die Theorie des Eigentums ist von Bedeutung, dass sich im Wechsel vom 18. zum 19. Jahrhundert nach den USA und Frankreich eine Reihe von Staaten eine republikanische Verfassung mit der Fixierung von Grundrechten gegeben haben. In einer Reihe von Ländern wurde das Zivilrecht auf der Grundlage des römischen Rechts den neuen Bedürfnissen angepasst (Vernunftrecht). In der wirtschaftlichen Entwicklung setzte sich die Industrialisierung stetig fort. Neben der abhängigen Landbevölkerung entstand in den Städten eine Arbeiterschaft, die in Manufakturen, aber auch in Bergwerken und Großbetrieben der Metallverarbeitung tätig waren. Unzureichende soziale Bedingungen führten zu einer Pauperisierung zunehmender Bevölkerungsteile und dem Aufkommen der Sozialen Frage. Aus der feudalen Ständegesellschaft wird eine Klassengesellschaft, in der das Eigentum an Produktionsmitteln einen wesentlichen Einfluss auf die Stellung in der Gesellschaft ausmacht. Bereits zu Beginn des 19. Jahrhunderts setzte die Kritik der sich entwickelnden Verhältnisse ein. Für den Frühsozialisten Pierre Joseph Proudhon galt: „Eigentum ist Diebstahl“. Aber auch romantische Philosophen wie Franz von Baader kritisierten die soziale Lage der Arbeiter. Eigentum war für Karl Marx und Friedrich Engels Ursache der Entfremdung und der Ausbeutung des Arbeiters. „Das Kapital hat die Bevölkerung agglomeriert, die Produktionsmittel zentralisiert und das Eigentum in wenigen Händen konzentriert. Die Arbeiter, die sich stückweise verkaufen müssen, sind eine Ware wie jeder andere Handelsartikel und daher gleichmäßig allen Wechselfällen der Konkurrenz, allen Schwankungen des Marktes ausgesetzt.“ Sie sahen daher im Kommunismus vor allem ein Projekt zur „Aufhebung des Privateigentums“ an Produktionsmitteln und der darauf basierenden Ausbeutung. Erst die in der zweiten Hälfte des 19. Jahrhunderts einsetzende und seitdem fortschreitende Sozialgesetzgebung verminderte in den westlichen Industrieländern die Konfliktsituation zwischen Besitzenden und Besitzlosen allmählich und mit steigendem Wohlstand begann man von Schichten und schließlich von Milieus zu sprechen. Es bildeten sich bürgerliche Mittelschichten heraus, die ihrerseits Vermögen und Eigentum bildeten. In Russland führte hingegen die Revolution von 1917 zur Bildung eines sozialistischen Staates, der das Privateigentum an Produktionsmitteln unterdrückte. Hinzu kam nach dem Zweiten Weltkrieg die Ausweitung des Machtbereichs der Sowjetunion in eine Reihe osteuropäischer Länder sowie die sozialistische Staatsbildung in China. Diese Regierungsformen, die das Privateigentum an Produktionsmitteln im Allgemeinen unterdrückten, waren zugleich mit erheblichen Einschränkungen individueller bürgerlicher Freiheiten verbunden und konnten sich teilweise nicht gegen die Konkurrenz und Politik der westlichen Industrieländer durchsetzten. Der Streit um die Frage des Privateigentums an Produktionsmitteln wird von reformistischen Kräften mehr als eine Frage der Verteilungsgerechtigkeit und des zulässigen Umfangs von Privateigentum geführt, aber auch radikale, kommunistische Bestrebungen zur Aufhebung des Privateigentums an Produktionsmitteln bestehen weiterhin weltweit. Max Weber betrachtet das Eigentum aus der Perspektive sozialer Beziehungen, die er als „offen“ bezeichnet, wenn niemand daran gehindert ist am gegenseitigen sozialen Handeln teilzunehmen. Wenn hingegen die Teilnahme beschränkt oder an Bedingungen geknüpft ist, spricht er von „Schließung“. Eine Schließung erfolgt immer dann, wenn die Beteiligten sich hiervon eine Verbesserung ihrer Chancen zur Befriedigung ihrer Bedürfnisse erwarten. Eine Schließung nach innen, das heißt innerhalb einer Gruppe, nennt Weber Appropriation. Rechte sind daher für ihn eine Appropriation von Chancen. „Erblich an Einzelne oder an erbliche oder Gesellschaften appropriierte Chancen sollen: „Eigentum“ (der Einzelnen oder der Gemeinschaften oder der Gesellschaften), veräußerlich appropriierte: „freies“ Eigentum heißen.“ Eigentum ist ein Instrument zur Regulierung von Beschaffungskonkurrenz. Hierdurch wird die Verfügungsgewalt über Güter beschränkt. Die katholische Soziallehre schließt an Thomas von Aquin an und fasst das Eigentum als notwendigen Faktor zur Verwirklichung der individuellen Freiheit auf. Auf dem Zweiten Vatikanischen Konzil wurde festgestellt, dass das Privateigentum – auch an den Produktionsmitteln – zur „Selbstdarstellung der Person“ beiträgt und „den unbedingt nötigen Raum für eigenverantwortliche Gestaltung des persönlichen Lebens jedes einzelnen und seiner Familie“ schafft; das Recht auf Eigentum müsse gleichsam „als eine Art Verlängerung der menschlichen Freiheit“ betrachtet werden. Für John Rawls ist das Recht auf Eigentum in seiner "Theorie der Gerechtigkeit" eine der Grundfreiheiten, die gemäß dem ersten und obersten seiner beiden Prinzipien jedem Menschen uneingeschränkt zustehen, soweit durch diese Freiheiten nicht die Freiheiten anderer eingeschränkt werden. Dies sagt noch nichts über die Verteilung von Eigentum aus. Soziale und ökonomische Ungleichheiten sind nach dem zweiten Prinzip nur soweit zulässig, soweit die am wenigsten Begünstigten einer Gesellschaft hieraus Vorteile ziehen. Aus dem zweiten Prinzip folgt, dass eine Umverteilung dann gerechtfertigt ist, wenn sie den am wenigsten Begünstigten einen Vorteil bringt. In einer offenen Marktwirtschaft kann dies bedeuten, dass von einer Umverteilung insofern abzusehen ist, wenn dadurch Wachstum und damit der allgemeine Wohlstand beeinträchtigt werden. In jedem Fall ist durch die Verteilung das Existenzminimum sicherzustellen. Neben dem Eigentumsrecht, das sich nur auf körperliche Gegenstände beziehen kann, gewinnen seit der Industrialisierung die Rechte an geistigen Schöpfungen an Bedeutung („geistiges Eigentum“). Dies betrifft in der Gegenwart über die Frage des Urheberrechts hinaus das Eigentum an natürlichen Prozessen in der Gentechnik oder an immateriellen Gütern wie Software. Eigentumsordnung. Die Eigentumsordnung einer Gesellschaft als Teil der Wirtschaftsordnung regelt die Verfügungsrechte über wirtschaftliche Güter. Neben der direkten Bestimmung des Eigentums im Privatrecht zählen zur Eigentumsordnung die Einstufung des Eigentums als Grundrecht in der Verfassung ("Schutz, Garantie" oder "Unverletzlichkeit des Eigentums") und eine Vielzahl von Regelungen im Öffentlichen Recht (Bodenrecht, Waldrecht, Nachbarschaftsrecht, Gemeindeordnungen u.a.m.), durch die der Gebrauch des Eigentums begrenzt wird. Erst das Zusammenspiel dieser gesetzlichen Bestimmungen spiegelt den materiellen Gehalt einer Eigentumsordnung wider. In der Theorie der Verfügungsrechte wird dabei zwischen Recht auf Nutzung, Veräußerung, Veränderung und Vermietung eines Gutes unterschieden. Die Gesamtheit des Eigentums einer Person (oder einer Gruppe, eines Unternehmens, einer Volkswirtschaft etc.) bezeichnet man auch als deren „Vermögen“. In dem ursprünglichen Sinn des Wortes ist festgehalten, dass Eigentum Macht verleiht, etwa indem jemand andere Menschen dafür bezahlt, dass sie für ihn arbeiten. Neben dem Privateigentum, bei dem eine bestimmte Sache einem bestimmten Individuum gehört, gibt es in entwickelten Gesellschaften auch gemeinschaftliches Eigentum (zwei oder mehr Individuen sind gemeinsame Eigentümer z. B. einer Zufahrt zu ihrem Grundstück), kommunales Eigentum (z. B. ein Wald gehört einer Stadt) und staatliches Eigentum (z. B. der Festlandssockel vor den Meeresküsten gehört dem betreffenden Land). Auch Organisationen wie Behörden, Gesellschaften oder Vereine können Eigentümer sein, z. B. von Grundstücken oder Gebäuden. Außerdem ergeben sich wesentliche Unterschiede durch die unterschiedlich gestalteten Eingriffsrechte der politischen Instanzen (Besteuerung des Eigentums und dessen Vererbung, Regelung von Enteignung und der entsprechenden Entschädigung, Sozialpflichtigkeit des Eigentums). Mit der Eigentumsordnung ist ein Großteil der möglichen sozialen Konflikte geregelt: Ohne abgegrenztes Eigentum gibt es bei allen Gütern, die nicht im Überfluss vorhanden sind, entweder Streit oder es bedarf einer allgemein anerkannten Regelung, wer wann welches Gut benutzen oder verbrauchen darf. Durch die Abgrenzung von Eigentumssphären und deren Zuordnung zu bestimmten Personen wird die soziale Entscheidungsfindung erheblich vereinfacht. Wenn alle über alles entscheiden, ist der Informations- und Entscheidungsprozess extrem aufwendig und kostet weit mehr Zeit, als wenn jeder nur über das Seine entscheidet. Gemäß der Theorie der Verfügungsrechte ist der Vorzug des Privateigentums die Erzeugung einer starken Motivation des Eigentümers zu schonendem und sparsamem Gebrauch von Gütern und zur Schaffung neuer Güter. Kollektiveigentum hingegen führe zu unwirtschaftlichem Verhalten. Dennoch gab es gerade in der Landwirtschaft traditionell kollektives Eigentum. Im vorrevolutionären Frankreich etwa gab es unterschiedliche Formen gemeinschaftlichen Eigentums. Die Teilhaber am kollektiven Grundeigentum wurden von Mirabeau 1769 erstmals als ‚communistes‘ benannt, er sah darin unter anderem soziale Vorteile. Außerdem gab es vor und nach der Revolution von 1789 unter freien Bauern familiale Gütergemeinschaften, die ‚communauté taisible‘. Es komme zur Tragik der Allmende, dem Phänomen, dass Menschen weniger leisten, wenn sie kollektiv tätig sind, da sie weder die Folgen ihrer Handlungen in vollem Umfang tragen müssen noch den individuellen Einsatz in vollem Umfang zugerechnet bekommen. Durch die Eigentumsordnung entstehen aber auch ganz neue Probleme. Gemeinschaftliches und „gesellschaftliches“ Eigentum. In vielen traditionell geprägten Kulturen findet sich eine Zwischenform zwischen Individualeigentum und zentralisiertem Staatseigentum, die sogenannte Allmende. Gemeint ist damit das kollektive Eigentum einer Gemeinschaft, etwa eines Dorfes, an gemeinsam nach bestimmten Regeln genutzten Ressourcen. Nachdem diese Form der Bewirtschaftung von natürlichen Ressourcen aus Perspektive der Tragik der Allmende lange Zeit als ungeeignet angesehen wurde, hat sich in den letzten Jahrzehnten die Bewertung geändert. Eine Sonderform des Kollektiveigentums ist das „gesellschaftliche Eigentum“, eine Eigentumskonzeption des ehemaligen Jugoslawien. Diese Konzeption entstammt der sozialistischen Ideologie insofern, als es eine Abkehr vom marktwirtschaftlichen Eigentumsverständnis bedeutet. Es ist aber nicht mit dem vermeintlich kommunistischen Staats- oder Volkseigentum gleichzusetzen, bei dem der Staat der Rechtsträger ist und welches nach jugoslawischer Anschauung genau wie das Privateigentum zur Ausbeutung und Entfremdung der Arbeiter durch die Monopolisierung der wirtschaftlichen und politischen Macht führt. In der jugoslawischen Verfassung von 1974 wird das gesellschaftliche Eigentum negativ definiert. "Niemand", weder eine Gebietskörperschaft, noch eine Organisation der vereinten Arbeit oder der einzelne Arbeiter ist Träger der Eigentumsrechte an den gesellschaftlichen Produktionsmitteln. Demnach erlangt niemand Eigentumstitel über das Produkt der gesellschaftlichen Arbeit oder kann über die gesellschaftlichen Produktivkräfte verfügen oder ihre Verteilung bestimmen. Die Konkretisierung der Definition und die Interpretation des gesellschaftlichen Eigentums blieb seit seiner Einführung 1953 kontrovers und rechtlich umstritten. Den Kern des Meinungsstreits bildet die Frage, ob es sich beim gesellschaftlichen Eigentum um eine rechtliche oder rein sozioökonomische Kategorie handelt, sowie die Frage nach dem Träger des Eigentumsrechts, so dieses bejaht wird. Ausgehend vom privatkapitalistischen bzw. marktwirtschaftlichen Verständnis wird auch vertreten, dass das gesellschaftliche Eigentum eher eine ordnungspolitische Kategorie als eine Rechtsform oder Kategorie des Eigentums ist. Beim gesellschaftlichen Eigentum fehlt weitgehend die Zuordnung der Herrschaft über eine Sache zu einer juristischen oder natürlichen Person wie in anderen Eigentumsverfassungen. Dennoch entstanden selbst aus dem gesellschaftlichen Eigentum gewisse Individualrechte und es lässt sich in diesem Sinne wohl von einer Eigentumskategorie sprechen, wenngleich sie eben keine Entsprechung in marktwirtschaftlichen Ordnungen findet. Dementsprechend ist das gesellschaftliche Eigentum als ein Eigentumssurrogat oder eigentumsähnliches Nutzungsrecht einzustufen. Gleichwohl ist zu berücksichtigen, dass in dieser sozialistischen Eigentumsordnung Privateigentum nach marktwirtschaftlichen Vorstellungen nebenher weiter existierte. Die Frage nach der rechtlichen Einordnung des gesellschaftlichen Eigentums gewann an Aktualität nach dem Auseinanderbrechen Jugoslawiens und bei dem Versuch der Klärung der Eigentumsverhältnisse Privater sowie bei der Unternehmensprivatisierung. In Bosnien und Herzegowina wurde zur Regelung der offenen Eigentumsansprüche Privater die "Commission for Real Property Claims" (CRPC) und im Kosovo das Wohn- und Eigentumsdirektorat ("Housing and Property Directorate/Claims Commission" – HPD/CC) errichtet. Evolution (Systemtheorie). Evolution (vom lateinischen "evolvere" = abwickeln, entwickeln; PPP "evolutum") ist in der Systemtheorie ein Prozess, bei dem durch Reproduktion oder Replikation von einem System Kopien hergestellt werden, die sich voneinander und von ihrem Ursprungssystem durch Variation unterscheiden und bei dem nur ein Teil dieser Kopien auf Grund von Selektion für einen weiteren Kopiervorgang zugelassen werden. Voraussetzungen der Evolution. Diese Voraussetzungen sind hinreichend trivial, so dass man logisch ableiten kann, dass sie an vielen Orten und Gelegenheiten im Universum gegeben sind. Die Ansichten darüber, ob sich Leben daraus entwickeln "muss", gehen jedoch weit auseinander. Weitgehend Einigkeit hingegen besteht in der Evolutionsbiologie darüber, dass die biologische Evolution nicht zwangsläufig zur Entwicklung von bewusster Intelligenz führt, denn diese ist nur ein Spezialfall, der an weitere, vermutlich sehr selten gegebene Bedingungen geknüpft ist. Der einzige Fall, von dem sicher bekannt ist, dass dies dort eintrat, ist unsere Erde. Aber auch hier wurden die Bedingungen der Evolution von Intelligenz erst nach mindestens 530 Millionen Jahren erfüllt, obwohl die fortschreitende Evolution von Vielzellern schon zuvor eine Reihe notwendiger Voraussetzungen für Intelligenzentwicklung bereitstellte. Die Schwankung von Replikatorenhäufigkeiten in einer Population. Als Evolution bezeichnet man heute allgemein jenen statistischen Vorgang, bei dem die Zusammensetzung einer Replikatoren-Population P2 aus einer Stichprobe einer zuvor bestehenden, anderen Replikatoren-Population P1 bestimmt wird. Wird aus P1 eine Stichprobe unterschiedlicher Replikatoren gezogen und aus ihr die Zusammensetzung von P2 bestimmt, so liegt Evolution vor. Läuft dieser Vorgang wiederholt ab, so weisen spätere Populationen – wie beispielsweise P5 oder P100 – jeweils schwankende Zusammensetzungen auf. Die Evolution kann auch als "kumulierender Stichprobenfehler" bezeichnet werden. Eine evolutionsfähige Population ist eine Menge von Replikatoren. Letztere sind irgendwelche Objekte, von denen Kopien entstehen. Die Evolution als statistischer Vorgang ist ein logisch und empirisch jederzeit beweisbares Faktum und in der Wissenschaft "nicht bestreitbar". Evolution läuft niemals an Objekten, sondern immer nur an Häufigkeiten von Objekten ab. Er kann grundsätzlich an allen Mengen ablaufen, die nicht einmal den bekannten physikalischen Gesetzen gehorchen müssen. Verlauf der Evolution auf der Erde. Evolution im hier definierten Sinn findet auf der Erde besonders im Reich der Lebewesen und in Computersimulationen statt. Der Begriff „Evolution“ wird außerhalb der Fachgebiete Biologie und Systemtheorie auch mit anderen Definitionen verwendet, für Vorgänge, die nach völlig anderen Gesetzmäßigkeiten als „Replikation –> Variation –> Selektion“ verlaufen. Dies betrifft in den Naturwissenschaften beispielsweise die Entstehung und Entwicklung von Galaxien, Sternen und Planeten inklusive der Erde; in den Gesellschaftswissenschaften unter anderem die soziokulturelle Entwicklung des Menschen. Schema zu den Entwicklungsstufen von Kosmos, Lebewesen und Menschheit Die Gemeinsamkeit aller Vorgänge beruht hier auf einer geschichtlichen Entwicklung und häufig einer Entwicklung in Richtung höherer Komplexität. Aus naturwissenschaftlicher Sicht kann die einheitliche Verwendung desselben Begriffes für verschiedene Vorgänge in verwandten Wissenschaftsgebieten leicht zu Missverständnissen führen und sollte vermieden werden. Evolution der Lebewesen. Die Evolution der Lebewesen ist ihre Entwicklung im Laufe großer Zeitspannen innerhalb der Erdgeschichte. Evolution der Psyche. Unter bestimmten Bedingungen führt die Evolution zu Organismen, die über ein Bewusstsein verfügen. Dieser Entwicklungsprozess ist Gegenstand der Evolutionären Psychologie. Evolution des Geistes. Lebewesen seien Träger genetisch gespeicherter Informationen. In der Evolution sammle sich mehr und genauere Information in den Lebewesen an. Der Mensch sei als einziges Lebewesen in der Lage, seine geistigen, im Gehirn gespeicherten Informationen auch außerhalb des Körpers zu speichern, zum Beispiel in Büchern oder auf Disketten. Diese Informationen, unter anderem die wissenschaftlichen Ideen (als „geistige Gene“ betrachtet), könnten an alle Menschen und die Nachwelt „vererbt“ werden. Die Mittel der Evolution, nämlich Vermehrung mit Varianten und deren Selektion, setzten sich fort als wissenschaftliche Hypothesenbildungen und deren Prüfung im Versuch. Evolution der Meme. Aufgrund zahlreicher empirischer Belege glaubt man heute einheitlich, dass die Evolution auf unserem Planeten nicht immer an denselben Replikatoren abgelaufen sein muss. Die Welt der Lebewesen, wie wir sie heute kennen, basierte zwar auf weiten Strecken auf einem chemischen Replikator, der DNA, sie ist jedoch nicht der einzige Replikator. Als weitere Replikatoren erwiesen sich beispielsweise Kristallstrukturen, die ebenfalls Kopien von sich selbst herstellen können. Auch informationstragende Einheiten, die nicht an eine chemische, sondern an eine (bio-)informatische Grundlage gebunden sind, werden als Replikatoren begriffen und wurden von Richard Dawkins 1976 als Meme bezeichnet. Evolutorische Ökonomik. In Form der evolutorischen Ökonomik haben Gedanken der biologischen Evolution auch Eingang in die Wirtschaftswissenschaften gefunden. Hintergrund ist, dass durch freie Märkte eine Selektion unter konkurrierenden Produkten oder Produktionsverfahren stattfindet, in der sich erwünschtere Produkte und effizientere Verfahren gegen weniger gewünschte und ineffizientere durchsetzen. Ständige Produktinnovationen führen so zu einer ständigen Weiterentwicklung, die – wie in der biologischen Evolution – Untersuchungsgegenstand ist. Während in der Biologie aber die Variationen oder Mutationen nur als zufällig modelliert werden, sind sie in der evolutorischen Ökonomik ebenfalls Untersuchungsgegenstand. Kettenbriefe. Bei Kettenbriefen, die als E-Mail verbreitet werden, entfällt die Kopierungenauigkeit. Es gibt für diese Art der Kettenbriefe noch keine Untersuchungen darüber, ob Empfänger den Text bewusst ändern, um ihrer Version eine größere Verbreitung zu ermöglichen. Selbstreplizierende künstliche organische Moleküle. a>-Baustein. (Als Ribose-Baustein wurde ein Derivat eines 2,3-Di-O-isopropyliden-β-D-ribofuranosids verwendet, der Imid-Baustein basierte auf der (1α, 3α, 5α)-1,3,5-Trimethyl-1,3,5-cyclohexantricarbonsäure.) Esoterik. Esoterik (von "esōterikós" ‚innerlich‘, ‚dem inneren Bereich zugehörig‘) ist in der ursprünglichen Bedeutung des Begriffs eine philosophische Lehre, die nur für einen begrenzten „inneren“ Personenkreis zugänglich ist, im Gegensatz zu Exoterik als allgemein zugänglichem Wissen. Andere traditionelle Wortbedeutungen beziehen sich auf einen inneren, spirituellen Erkenntnisweg, etwa synonym mit Mystik, oder auf ein „höheres“, „absolutes“ und arkanes, althergebrachtes Wissen. Heute gibt es weder im wissenschaftlichen noch im populären Sprachgebrauch eine allgemein anerkannte Definition von "Esoterik" beziehungsweise "esoterisch". Im populären Sprachgebrauch versteht man unter Esoterik vielfach „Geheimlehren“. Ebenfalls sehr gebräuchlich ist der Bezug auf „höhere“ Erkenntnis und auf Wege, welche zu dieser führen sollen. Des Weiteren wird das Adjektiv „esoterisch“ häufig abwertend im Sinne von „unverständlich“ oder „versponnen“ verwendet. Antike. Das altgriechische Adjektiv "esoterikos" ist erstmals im 2. Jahrhundert bezeugt: bei Galen, der bestimmte stoische Lehren so bezeichnet, und in einer Satire des Lukian von Samosata, wo sich „esoterisch“ und „exoterisch“ auf zwei Aspekte der Lehren des Aristoteles beziehen (von innen oder von außen betrachtet). Weit älter ist der Gegenbegriff „exoterisch“: Schon Aristoteles (384–322 v. Chr.) nennt seine propädeutischen, für Fachfremde und Anfänger geeigneten Kurse „exoterisch“ (nach außen hin gerichtet) und grenzt sie so vom streng wissenschaftlichen philosophischen Unterricht ab. Erst Cicero (106–43 v. Chr.) bezieht den Begriff „exoterisch“ auf eine bestimmte Gattung von Schriften des Aristoteles und der Peripatetiker, nämlich die „volkstümlich geschriebenen“, für die Öffentlichkeit bestimmten Werke (literarische Dialoge) im Gegensatz zu den nur für internen Gebrauch in der Schule geeigneten Fachschriften; die letzteren nennt er aber nicht „esoterisch“. Im Sinne dieser von Cicero getroffenen, nicht auf Aristoteles selbst zurückgehenden Einteilung des Schrifttums werden noch heute in der Altertumswissenschaft die „exoterischen“ von den „esoterischen“ Schriften des Aristoteles unterschieden. Die „esoterischen“ Schriften enthalten keine Geheimlehren, sondern nur Darlegungen, deren Verständnis philosophische Vorbildung voraussetzt. Schon Aristoteles' Lehrer Platon war der Überzeugung, ein Teil seiner Lehren sei nicht zur Veröffentlichung geeignet (Ungeschriebene Lehre). Daher ist in der modernen Forschungsliteratur von Platons „Esoterik“ oder „esoterischer Philosophie“ die Rede, womit die ungeschriebene Lehre gemeint ist. Im Sinne von „geheim“ benutzte den Begriff "esoterikos" erstmals der Kirchenvater Clemens von Alexandria. In einem ähnlichen Sinn unterschieden Hippolyt von Rom und Iamblichos von Chalkis zwischen exoterischen und esoterischen Schülern des Pythagoras, wobei letztere einen "inneren Kreis" bildeten und bestimmte Lehren exklusiv empfingen. Ins Lateinische wurde das griechische Wort erst in der Spätantike übernommen; der einzige antike Beleg für das lateinische Adjektiv "esotericus" ist eine Stelle in einem Brief des Kirchenvaters Augustinus, der an Ciceros Angaben anknüpfend mit Bezug auf Aristoteles von „esoterischer Philosophie“ schrieb. Allgemeiner Sprachgebrauch der Neuzeit. Den Ausgangspunkt für die Entstehung des neuzeitlichen Esoterik-Begriffs bildete die auf die Pythagoreer bezogene Begriffsverwendung des Iamblichos. Man dachte dabei an die von Iamblichos überlieferte, in der modernen Forschung umstrittene Einteilung der Pythagoreer in die zwei rivalisierenden Gruppen der „Akusmatiker“ und der „Mathematiker“, die beide den Anspruch erhoben haben sollen, die authentische Lehre des Pythagoras zu vertreten. Ob es eine Geheimlehre der frühen Pythagoreer tatsächlich gegeben hat, ist in der Forschung umstritten, doch war die Vorstellung davon in der Frühen Neuzeit allgemein verbreitet und prägte den Begriff „esoterisch“. Man bezeichnete mit diesem Wort ein Geheimwissen, das ein Lehrer nur ausgewählten Schülern mitteilt. Im Englischen kommt das Wort erstmals in der 1655–1662 erschienenen "History of Philosophy" von Thomas Stanley vor. Stanley schreibt, den inneren Kreis der Pythagoreer hätten die "Esotericks" gebildet. Im Französischen ist "ésotérique" erstmals 1752 im Dictionnaire de Trévoux bezeugt, 1755 auch in der Encyclopédie. Im Deutschen ist „esoterisch“ als Fremdwort, wohl aus dem Französischen oder Englischen übernommen, erstmals 1772 belegt; das Adjektiv wird ab dem späten 18. Jahrhundert zur Bezeichnung von Lehren und Kenntnissen verwendet, die nur für einen ausgesuchten Kreis Eingeweihter oder Würdiger bestimmt sind, sowie zur Charakterisierung von wissenschaftlichen und philosophischen Texten, die nur für einen kleinen, exklusiven Kreis von Fachleuten verständlich sind. Seit dem 20. Jahrhundert ist eine abwertende Konnotation verbreitet; „esoterisch“ hat oft die Bedeutung „unverständlich“, „geheimnistuerisch“, „weltfremd“, „versponnen“. (Siehe hierzu auch esoterische Programmiersprachen.) Das Substantiv „Esoteriker“ ist ab dem frühen 19. Jahrhundert gebräuchlich (erster Beleg 1813); anfangs bezeichnete es eine Person, die in die Geheimnisse einer Gesellschaft oder in die Regeln einer Kunst oder Wissenschaft eingeweiht ist. Der Gebrauch des Substantivs „Esoterik“ (französisch "ésotérisme") beginnt 1828 in einem Buch von Jacques Matter über die antike Gnosis. Nachdem auch andere Autoren diesen Neologismus aufgegriffen hatten, wurde er 1852 erstmals in einem französischen Universallexikon als Bezeichnung für Geheimlehren aufgeführt. Weithin gebräuchlich wurde das Wort dann durch die einflussreichen Bücher von Éliphas Lévi über Magie, von wo aus es in das Vokabular des Okkultismus Eingang fand. Seither wurde es (wie auch das Adjektiv) von vielen Autoren und Strömungen als Selbstbezeichnung verwendet, wobei sie es oft in freier Weise neu definierten. Heute wird „Esoterik“ weithin als Bezeichnung für „Geheimlehren“ verstanden, wobei es sich laut Antoine Faivre "de facto" allerdings zumeist um allgemein zugängliche „offene Geheimnisse“ handelt, die sich einer entsprechenden Erkenntnisbemühung erschließen. Nach einer anderen, ebenfalls sehr geläufigen Bedeutung bezieht sich das Wort auf eine "höhere" Stufe der Erkenntnis, auf „wesentliches“, „eigentliches“ oder „absolutes“ Wissen und auf die sehr vielfältigen Wege, welche zu diesem führen sollen. Antike. Pythagoras, dargestellt auf einer antiken Münze Erste Zeugnisse von Lehren und Sozialstrukturen, die aus heutiger Sicht der Esoterik zugerechnet werden können, finden sich schon recht früh im antiken Griechenland und im damals griechisch besiedelten Süditalien, wobei Pythagoras (*um 570, † nach 510 v. Chr.) als Gründer der religiös-philosophischen Schule und Bruderschaft der Pythagoreer in Kroton (heute Crotone) besonders herausragt. Pythagoras glaubte – ebenso wie die Orphiker und Anhänger verschiedener Mysterienkulte – an die Unsterblichkeit der Seele. Damit verbanden die Pythagoreer und die Orphiker die Vorstellung der Seelenwanderung (Reinkarnation). Sie betrachteten den Körper als eine vorübergehende Behausung der Seele, ja als einen Kerker, aus dem sie sich befreien müsse. Diese Erlösung von der körperlichen Existenz strebten sie durch ein sittlich einwandfreies Leben an, das zunächst zu einer Wiedergeburt auf höherer Stufe führen sollte, schließlich aber zur endgültigen Befreiung von der Körperwelt durch Beendigung der Reihe der Wiedergeburten. Diese Vorstellungen standen in scharfem Kontrast zu der älteren, von Homer repräsentierten Anschauung, in dessen Ilias der Begriff der Seele ("psyche") zwar erstmals nachweisbar auftaucht, aber nur als Attribut der ganz mit dem Körper identifizierten Person. Zu den Anhängern des Reinkarnationsgedankens gehörten später auch andere bedeutende Philosophen wie Empedokles und Platon sowie alle antiken Platoniker. Ein weiteres zentrales Motiv der Esoterik, das bei den Pythagoreern erstmals auftrat, ist die Erhebung der "Zahlen" zu den Prinzipien alles Seienden. Sie betrachteten die Welt als eine nach ganzzahligen Verhältnissen harmonisch geordnete Einheit ("Kosmos"), und den Weg der Läuterung der Seele sahen sie in der Unterwerfung unter die allgemeine, mathematisch ausdrückbare Harmonie aller Dinge. Auch die Idee der musikalisch begründeten Sphärenharmonie, basierend auf einem Vergleich der Planetenbewegungen mit den von den Pythagoreern entdeckten Zahlenverhältnissen der musikalischen Intervalle, hat hier ihren Ursprung. Sogar ein moralischer Aspekt wurde den Zahlen zugesprochen, indem man bestimmten Zahlen sittliche Qualitäten wie Gerechtigkeit oder Zwietracht zuordnete. Platon, römische Kopie einer zeitgenössischen Büste Platon (427–347 v. Chr.) war der Erste, der die Unsterblichkeit der Seele argumentativ zu beweisen versuchte (in seinem Dialog "Phaidon"). Dabei identifizierte er die Seele mit der Vernunft, die er als prinzipiell vom Körper unabhängig betrachtete. Ihre eigentliche Heimat sei das Reich der unvergänglichen Ideen und der reinen Geister, welcher sie entstamme und in welche sie nach dem Tod zurückkehre. Wie schon bei den Pythagoreern erscheint auch hier der Körper als Gefängnis, dem die Seele in der Reihe der Wiedergeburten durch eine reine Lebensführung entrinnen und in ein rein geistiges Dasein übergehen kann. Unverkörpert kann sie demnach die ewigen Wesenheiten, denen sie selbst angehört, unmittelbar schauen, während dieses Wissen im Körper verdunkelt ist und gewöhnlich nur im Zuge der in sich selbst begründeten Tätigkeit der Vernunft wie eine Erinnerung auftaucht. Neben den Lebewesen schrieb Platon auch den Gestirnen sowie dem Kosmos als ganzem eigene Seelen und damit Leben zu. Esoterisch war Platons Philosophie auch in dem Sinne, dass sie auf einen "inneren" Weg verwies. Das Eigentliche seiner Lehre sei, so Platon, gar nicht mitteilbar, sondern nur der "eigenen" Erfahrung zugänglich. Er könne als Lehrer nur Hinweise geben, aufgrund derer wenige Auserwählte in der Lage sein würden, sich selbst dieses insofern esoterische Wissen zu erschließen, das in solchen Fällen plötzlich als Idee in der Seele entspringe und sich dann selbst weiter seine Bahn breche. Das Motiv eines inneren Kreises von „Eingeweihten“ (Grundmann) oder Auserwählten, teils verbunden mit der Aufforderung zur Geheimhaltung (Arkandisziplin), tritt auch in den frühchristlichen Schriften, die später als Evangelien in das Neue Testament aufgenommen wurden, des Öfteren auf, wobei allerdings nicht durchgängig ein bestimmter Menschenkreis gemeint ist. Insofern kann von neutestamentlichen Ansätzen einer christlichen Esoterik gesprochen werden, wie der Esoterikforscher Gerhard Wehr es tut. Diesen von Jesus persönlich Auserwählten steht der Apostel Paulus gegenüber, der Jesus nie persönlich begegnet war und dessen Anhänger sogar vehement bekämpfte, aber durch eine "innere" Offenbarung („Damaskuserlebnis“) zum Christentum bekehrt und schließlich zu dessen erfolgreichstem Missionar wurde. Hier spricht Wehr von „paulinischer Esoterik“ im Sinne des inneren Weges. Paulus erhob den Anspruch, das „Pneuma“ (Geist) Gottes empfangen zu haben und daher das Wesen und den Willen Gottes zu kennen, denn der Geist ergründe (anders als die menschliche Weisheit) alles, „auch die Tiefen Gottes“. Eine Sonderstellung unter den Schriften des Neuen Testaments nehmen noch das Johannes-Evangelium und die Offenbarung des Johannes ein, die etwa der Philosoph Leopold Ziegler als „ein durchaus esoterisches Schrifttum“ bezeichnete. Diese Sonderstellung wurde auch im frühen Christentum schon zum Ausdruck gebracht, indem man das Johannes-Evangelium als das „geistige“ oder „pneumatische“ Evangelium von den anderen unterschied (Clemens von Alexandria, Origenes). An Platons Seelenlehre schloss in nachchristlicher Zeit der Neuplatonismus an, dessen herausragender Vertreter der in Rom wirkende Plotin (205–270 n. Chr.) war und der als die bedeutendste philosophische Richtung der ausgehenden Antike gilt. Plotin zog die äußerste Konsequenz aus Platons Ansatz, indem er den ekstatischen Aufschwung zum „Einen“, wie er das Göttliche nannte, das Gewahrwerden des Urgrundes aller Dinge in uns selbst, als das „wahrhafte Endziel für die Seele“ bezeichnete. „An seinem höchsten Punkt erweist sich Plotins Denken als Mystik“, wie der Philosoph Wolfgang Röd schreibt, und der Esoterikforscher Kocku von Stuckrad sieht hier den „archimedischen Punkt europäischer Seeleninterpretation“ und den „Dreh- und Angelpunkt auch heutiger esoterischer Anschauungen“ wie etwa der New-Age-Bewegung. Noch stärker als bei Plotin trat dieses mystische Element, verbunden mit magischen Praktiken, bei späteren Neuplatonikern wie Iamblichos (etwa 275–330 n. Chr.) und Proklos (5. Jh.) hervor. Diese Philosophen folgten dem in jener Zeit überhaupt sehr verbreiteten Interesse an mystischer Religiosität, Magie und Wahrsagung. Röd spricht in diesem Zusammenhang von einer Verwandlung der neuplatonischen Philosophie „zu einer Art Theosophie und Theurgie“. Eine andere in der hellenistischen Antike gestiftete Tradition, die für die Esoterik eine große Bedeutung erlangen sollte, ist die Hermetik, die sich auf Offenbarungen des Gottes Hermes beruft und eine Synthese griechischer Philosophie mit ägyptischer Mythologie und Magie darstellt. Hier trat das bis dahin im griechisch-römischen Denken wenig geläufige Motiv des Mittlers in den Vordergrund, der – ob als Gott oder als „aufgestiegener“ Mensch – höheres Wissen offenbart. Ein weiteres Grundmotiv der Hermetik wie auch der späteren Esoterik allgemein ist die Vorstellung einer alles verbindenden "Sympathie", welche die astrologischen Entsprechungen zwischen Makrokosmos und Mikrokosmos begründen sollte. Später trat das neuplatonische Konzept des Aufstiegs der unsterblichen Seele durch die Planetensphären und der damit verbundenen Erlösung bis hin zum Einswerden mit Gott hinzu, ermöglicht durch Erkenntnis und durch die Erfüllung bestimmter ethischer Anforderungen. Eine besondere Ausprägung erfuhr der Gedanke der Erlösung der Seele durch höhere Erkenntnis in diversen religiösen Strömungen der Spätantike, die zusammenfassend als Gnosis bezeichnet werden. Diese vielfältige Bewegung entstand im ersten nachchristlichen Jahrhundert im Osten des Römischen Reiches und in Ägypten. Sie trat in heidnischen, jüdischen und christlichen Spielarten auf. In ihr verbanden sich Elemente der griechischen Philosophie mit religiösen Vorstellungen. Grundlegend war dabei zumeist ein schroffer Dualismus, d.h. eine scharfe Trennung zwischen der geistigen Welt, der die menschliche Seele entstammt, und der im Grunde nichtigen materiellen Welt, an die sie vorübergehend gebunden ist, – auch verstanden als Gegensatz von Licht und Finsternis oder von Gut und Böse. Die heiligen religiösen Schriften wurden unter diesem Gesichtspunkt als verschlüsselte Botschaften betrachtet, die von „Pneumatikern“, denen das höhere Wissen über die geistige Wirklichkeit zugänglich war, verfasst worden seien und die auch nur von Pneumatikern wirklich verstanden werden könnten. Speziell in der christlichen Gnosis trat noch die Erlösergestalt des Christus und die damit verbundene Vorstellung eines entscheidenden Wendepunktes der Weltgeschichte hinzu. Die Gnosis stieß auf zunehmenden Widerspruch sowohl von philosophischer Seite (besonders Plotin) wie auch von seiten der sich etablierenden und institutionell festigenden christlichen Großkirche, wobei eine scharfe Trennung zwischen der im Entstehen begriffenen kirchlichen Theologie und den heterogenen Spielarten der christlichen Gnosis allerdings kaum möglich war und ist. So standen die einflussreichen Theologen Clemens und Origenes der Gnosis nahe, indem auch sie eine höhere, „geistige“ Erkenntnis propagierten und für sich in Anspruch nahmen, und Origenes wurde von seinem späteren Gegner Epiphanius von Salamis gar als „Oberhaupt der Ketzer“ bezeichnet. Problematisch ist zudem, dass die Bezeichnungen „Gnosis“ und „Gnostizismus“ im Wesentlichen von den kirchlichen Gegnern geprägt wurden, während die so Bezeichneten sich selbst zumeist einfach „Christen“ oder gar „orthodoxe“ Christen nannten. Eine wesentliche Differenz zwischen den kirchlichen Kritikern und den von diesen so genannten Gnostikern bestand darin, dass letztere die eigene Erkenntnis (griech. "gnosis") des Einzelnen betonten und eine „Selbstermächtigung des erkennenden Subjekts“ (Stuckrad) propagierten, während die Kirche großen Wert auf die Begrenztheit des menschlichen Erkenntnisvermögens legte und die höchsten Wahrheiten nur in der göttlichen Offenbarung gegeben sah, die – unter Berufung auf die Amtsnachfolge (apostolische Sukzession) – allein in den von ihr anerkannten (kanonisierten) Schriften sowie in den von ihr vorgegebenen festen Bekenntnisformeln zu finden sei. Im Konkreten entzündeten sich die Auseinandersetzungen besonders an Fragen der Astrologie und der Magie. Ab dem 4. nachchristlichen Jahrhundert hatte sich die Macht der Kirche so weit gefestigt, dass bereits geringfügige Abweichungen vom „rechten Glauben“ mit dem Tod durch Feuer oder Schwert geahndet werden konnten. Die Zeugnisse der Ansichten dieser „Häretiker“ wurden vernichtet und gingen fast restlos verloren, so dass man sich bis weit ins 20. Jahrhundert hinein weitgehend auf die nicht gerade unparteiischen Schilderungen erklärter Gegner wie Irenäus von Lyon stützen musste. Erst 1945 wurde in Nag Hammadi, Ägypten, eine Sammlung gnostischer Texte entdeckt, die den „Säuberungen“ entgangen war und erstmals einen umfassenden und unverfälschten Einblick in dieses nach eigener Einschätzung wahre oder orthodoxe Christentum erlaubte. Mittelalter. Im Mittelalter gerieten große Teile dieser antiken Lehren im christlichen Kulturraum in Vergessenheit, während sie im islamischen Raum bewahrt und vielfach aufgegriffen wurden und teils auch in die jüdische Mystik einflossen. Insbesondere solche Lehren, die eine individuelle Erlösung implizierten oder sich auf religiöse Urkunden beriefen, welche keinen Eingang in den biblischen Kanon gefunden hatten, wurden aus dem orthodoxen Christentum ausgegrenzt. Daneben bestanden allerdings im Mittelmeerraum pagane („heidnische“) Religionen fort, und im Nahen Osten blieben vor allem der Manichäismus, der Zoroastrismus und der Islam neben dem orthodoxen Christentum bestehen. Auf der anderen Seite boten innerhalb des letzteren die neu entstehenden Klöster – insbesondere die des 529 gegründeten Benediktiner-Ordens – Raum für die Pflege kontemplativer Mystik, die sich nun auch nach Norden ausbreitete. Eine große Bedeutung für die mittelalterliche Mystik erlangten einige im 5. und 6. Jahrhundert aufgetauchte Schriften, als deren Autor Dionysios Areopagita genannt wurde, ein Zeitgenosse des Paulus, den dieser in der Apostelgeschichte erwähnt hatte. Dieser Dionysios vertrat eine stark platonisch geprägte „negative“ Theologie, in welcher er zum Ausdruck brachte, dass Gott aller herkömmlichen Erkenntnis unzugänglich sei. Erst der vollkommene Verzicht auf alles „Wissen“ im herkömmlichen Sinn ermögliche die „Einung“ mit Gott und damit eine Erkenntnis, die alles Wissbare sprenge. Daneben war Dionysios der Erste, der eine strukturierte Hierarchie der Engel, d.h. der zwischen Gott und dem Menschen vermittelnden geistigen Wesen, vorlegte. Erst etwa tausend Jahre später kamen ernsthafte Zweifel auf, ob der Autor dieser Schriften wirklich der von Paulus Erwähnte sein konnte, und heute gilt als erwiesen, dass sie frühestens gegen Ende des 5. Jh. entstanden sein konnten. Der Autor wird daher heute meist als Pseudo-Dionysius Areopagita bezeichnet. Ab dem 8. Jahrhundert konnten sich in Südspanien unter der Herrschaft der in religiösen Dingen sehr toleranten Mauren in friedlicher Koexistenz allerlei Spielarten islamischer, jüdischer und christlicher Spiritualität entfalten, unter denen hier vor allem der islamische Sufismus zu nennen ist. Auch Platon und andere griechische Philosophen wurden von hier aus im westlichen Europa näher bekannt. Die herausragende Gestalt der frühmittelalterlichen Mystik und zugleich der bedeutendste Philosoph seiner Epoche war der im 9. Jahrhundert lebende Johannes Scotus Eriugena, der von Kaiser Karl dem Kahlen an die Pariser Hofschule berufen wurde. Seine Lehre war stark von Dionysios Areopagita und dem Neuplatonismus beeinflusst, und er legte die ersten brauchbaren Übersetzungen der Werke des Dionysios ins Lateinische vor, wodurch diese auch im Westen ihre Wirkung entfalten konnten. Ein zentrales Thema seiner Lehre war die Rückkehr des Menschen zu Gott, die „Gottwerdung“ (lat. "deificatio" oder griech. "théosis") durch Erhöhung des Bewusstseins, also ganz im Sinne des Neuplatonismus. Freilich wurden seine Ansichten schon zu seinen Lebzeiten von lokalen Synoden verurteilt, und im 13. Jahrhundert wurden auf Geheiß des Papstes alle greifbaren Exemplare seines Hauptwerks vernichtet. Eine mit der frühchristlichen Gnosis vergleichbare Bewegung sind die Katharer, über die ab der Mitte des 12. Jahrhunderts Berichte vorliegen, deren Ursprung aber weitgehend im Dunkeln liegt. Der Schwerpunkt dieser sich schnell ausbreitenden spirituellen Bewegung lag in Südfrankreich und Norditalien. Sie wich in wesentlichen Punkten von der römisch-katholischen Lehre ab und wurde daher bald massiv bekämpft. Das Katherertum knüpfte vor allem an die Spiritualität des Johannes-Evangeliums an, während es große Teile des Alten Testaments ablehnte. Des Weiteren betrachtete es Christus nicht als Menschen, sondern als einen vom Himmel gesandten Erlöser. Die Erlösung sahen die Katharer darin, dass die Menschenseele aus der als finster betrachteten materiellen Welt in ihre Lichtheimat zurückkehren würde. Die Gemeinschaft der Katharer war streng hierarchisch geordnet; nur der kleine Kreis der in strenger Askese lebenden „Vollendeten“ wurde in ihre Geheimlehre eingeweiht. Als vor allem in weiten Teilen Südfrankreichs sehr beliebte „Gegenkirche“ entwickelte sie sich zur bedeutendsten Konkurrenz der römischen Kirche im Mittelalter, bis diese zu einem regelrechten Kreuzzug aufrief, in dessen Folge das Katharertum vollständig vernichtet wurde. Als neue mystische Geheimlehre trat im 12. Jahrhundert in Südfrankreich und Spanien die jüdische Kabbala auf, die zunächst im Judentum eine große Bedeutung erlangte, später aber auch außerhalb desselben in der Geschichte der Esoterik eine bedeutende Rolle spielen sollte. Ursprünglich auf die Deutung der Heiligen Schrift (Tora) beschränkt, entwickelte die Kabbala bald auch eine eigenständige theologische Lehre (siehe Sephiroth), die mit magischen Elementen (Theurgie) verbunden war. Manche Kabbalisten (am prominentesten Abraham Abulafia) vertraten (wie die christlichen Gnostiker) die Ansicht, dass man nicht nur durch Interpretation der Tora, sondern auch durch direkte mystische Erfahrung zu „absolutem“ Wissen gelangen könne. Bis ins 13. Jahrhundert finden sich auch innerhalb des offiziellen Christentums noch wesentliche Teile dessen, was man später als Esoterik bezeichnen würde, darunter kosmologische Lehren, das Denken in Entsprechungen, die Imagination und die Idee der spirituellen Transformation. Beispiele dafür sind in Deutschland die Mystikerin Hildegard von Bingen, in Frankreich die platonisch ausgerichtete Schule von Chartres (Bernardus Silvestris, Guillaume de Conches, Alanus ab Insulis), in Italien der Visionär Joachim von Fiore und die Franziskaner, in Spanien die neuplatonisch geprägte, der Kabbala nahestehende Lehre des Mallorquiners Ramon Llull und in England die Schule von Oxford (Theosophie des Lichts bei Robert Grosseteste, Alchemie und Astrologie bei Roger Bacon). Um 1300 setzte sich jedoch in der Theologie der Averroismus durch, der den Rationalismus betont und Imaginatives ablehnt. Speziell die Mystik erfuhr allerdings in der ersten Hälfte des 14. Jahrhunderts einen bemerkenswerten Aufschwung und eine Popularisierung, indem ihre Vertreter zum Gebrauch der jeweiligen Volkssprache anstelle des Lateinischen übergingen. Am bedeutendsten waren hier die deutschen Dominikaner Meister Eckhart, Johannes Tauler und Heinrich Seuse; Vergleichbares gab es jedoch auch in den Niederlanden, in England, Frankreich, Italien und Spanien. Bei aller Vielfalt des von diesen Mystikern geschilderten inneren Erlebens und der von ihnen verwendeten Begriffe war ihnen das Ziel der "Unio mystica", der mystischen Vereinigung oder Kommunion des Menschen mit Gott, gemeinsam, die „Gottesgeburt im Seelengrund“. In Eckharts mystischem Denken erreichte die mittelalterliche Mystik einen Höhepunkt; zugleich bildet es aber den Ausgangspunkt für eine neue Richtung der Mystik, die bis in die frühe Neuzeit hinein wirken sollte. Bei ihm stand „Mystik“ nicht für ekstatische Verzückung, sondern für eine besondere Denkweise, die über das Argumentieren und Schlussfolgern hinausgeht und zu einem unmittelbaren Erfassen des Absoluten, ja zum Einswerden mit diesem führt. Damit knüpfte Eckhart an Johannes Scotus Eriugena, Pseudo-Dionysios Areopagita und den Neuplatonismus an. Da er sich vielfach der deutschen Sprache bediente, wurde er zum wirkungsmächtigsten Vertreter dieser platonischen Richtung innerhalb der christlichen Theologie, obwohl Teile seiner Lehre posthum als Häresie verurteilt wurden und auch seine allgemeinverständliche Verbreitung schwieriger theologischer Erörterungen auf Kritik stieß. Esoterische Praktiken wie die Magie und die Astrologie waren im Mittelalter verbreitet. Zur Magie gehörte auch die Beschwörung (Invokation) von Dämonen und Engeln, wobei die Existenz von Dämonen als gefallener Engel auch in der Theologie anerkannt war. Die Alchemie erlangte erst im 12. Jahrhundert eine gewisse Bedeutung, ausgehend von arabisch-muslimischen Quellen in Spanien. Frühe Neuzeit. "Corpus Hermeticum", flämische Ausgabe von 1643 In der Renaissance, in der man sich auf die Antike zurückbesann, erlebte auch die Esoterik einen Aufschwung. Maßgeblich dafür waren die Wiederentdeckung bedeutender hermetischer Schriften ("Corpus Hermeticum"), die Erfindung des Buchdrucks mit beweglichen metallenen Lettern, durch den sich ein viel breiteres Publikum erschloss, und auch die Auswirkungen der Reformation. Antoine Faivre, der Altmeister der Esoterikforschung, sieht im 16. Jahrhundert sogar den eigentlichen "„Ausgangspunkt dessen, was man später als Esoterik bezeichnen sollte“", und betrachtet daher vergleichbare Erscheinungen in der Antike und im Mittelalter lediglich als Vorläufer der Esoterik: "„als sich die Naturwissenschaften von der Theologie ablösten und man begann, sie um ihrer selbst willen zu betreiben […], da konnte sich die Esoterik als eigener Bereich konstituieren, der in der Renaissance zunehmend die Schnittstelle zwischen Metaphysik und Kosmologie einnahm“". Das "Corpus Hermeticum", eine Sammlung von Schriften, die dem nach neuerer Kenntnis fiktiven Autor Hermes Trismegistos zugeschrieben wurden, wurde 1463 in Mazedonien entdeckt und gelangte in den Besitz des Mäzens Cosimo de’ Medici in Florenz. Diese Texte schienen sehr alt zu sein, sogar älter als die Schriften Moses und damit die gesamte jüdisch-christliche Überlieferung, und eine Art „Urwissen“ der Menschheit zu repräsentieren. Cosimo gab deshalb sofort eine Übersetzung ins Lateinische in Auftrag, die 1471 erschien und großes Aufsehen erregte. Das Corpus wurde als „ewige Philosophie“ ("Philosophia perennis") betrachtet, die der ägyptischen, griechischen, jüdischen und christlichen Religion als gemeinsamer Nenner zugrunde liege. Dank des Buchdrucks erlangte es weite Verbreitung, und bis 1641 kamen 25 Neuauflagen heraus; auch wurde es in verschiedene andere Sprachen übersetzt. Im 16. Jahrhundert kamen jedoch Zweifel an der korrekten Datierung dieser Texte auf, und 1614 konnte der Genfer Protestant Isaac Casaubon nachweisen, dass sie erst in nachchristlicher Zeit entstanden sein konnten. Da hatten sie ihre enorme Wirkung jedoch längst entfaltet. Marsilio Ficino, Büste im Dom von Florenz Der Übersetzer des "Corpus Hermeticum", Marsilio Ficino (1433–1499), übertrug auch die Werke Platons und etlicher Neuplatoniker ins Lateinische und verfasste eigene Kommentare und Einführungen in die platonische Philosophie. Die Neuplatoniker wurden dadurch nach langer Vergessenheit überhaupt erst wieder bekannt, und Platon wurde im Wortlaut verfügbar. Auch das hatte enorme Auswirkungen. Platonisches Gedankengut wurde gegen die aristotelisch geprägte Theologie in Stellung gebracht. Ein Aspekt dieser Kontroversen betraf die Frage, wie weit menschliche Erkenntnis reichen kann, womit ein wesentlicher Konflikt aus Zeiten des frühen Christentums wieder auflebte (vgl. oben). Manche Neuplatoniker der Renaissance vertraten sogar pantheistische Positionen, was aus Sicht des monotheistischen Christentums an Häresie grenzte. Ein dritter wichtiger Einfluss auf die Esoterik der Renaissance ging von der Kabbala aus, indem deren Methoden zur Deutung der religiösen Urkunden auch von Christen übernommen wurden. Die bedeutendsten Vertreter dieser „christlichen Kabbala“ waren Giovanni Pico della Mirandola (1463–1494), Johannes Reuchlin (1455–1522) und Guillaume Postel (1510–1581). Im Zentrum der christlich-kabbalistischen Hermeneutik stand der Versuch, auch auf der Grundlage der originär jüdischen Überlieferung die Wahrheit der christlichen Botschaft (Christus ist der Messias) zu beweisen. Das war teils mit anti-jüdischer Polemik verbunden (die Juden würden ihre eigenen heiligen Schriften nicht richtig verstehen), rief aber auf der anderen Seite die Inquisition auf den Plan, was 1520 in der Verurteilung Reuchlins durch den Papst kulminierte. In Deutschland entwickelte der Kölner Philosoph und Theologe Heinrich Cornelius Agrippa von Nettesheim (1486–1535) aus Elementen der Hermetik, des Neuplatonismus und der Kabbala eine „okkulte Philosophie“ ("De occulta philosophia", 1531). Darin unterschied er drei Welten: die elementare, die himmlische und die göttliche Sphäre, denen beim Menschen Körper, Seele und Geist entsprechen. Die antike Lehre von den vier Elementen (Erde, Wasser, Luft und Feuer) ergänzte er durch eine „fünfte Essenz“, womit er den Begriff der Quintessenz prägte. Größte Bedeutung maß Agrippa der Magie bei, die er als höchste Wissenschaft und erhabenste Philosophie auffasste. Nicht durch Wissenschaft im herkömmlichen Sinn, die er scharf verurteilte, sondern nur durch den „guten Willen“ könne der Mensch sich in mystischer Ekstase dem Göttlichen annähern. Die neuplatonische Dreiteilung von Mensch und Welt und die Entsprechung von Mikrokosmos (Mensch) und Makrokosmos liegen auch der medizinischen Lehre des Paracelsus (1493–1541) zugrunde. Neben den vier Elementen maß er besonders den drei Prinzipien der Alchemie (Sal, Sulfur und Mercurius) eine große Bedeutung bei. Der Quintessenz Agrippas entspricht bei ihm der "Archaeus", eine organisierende und formbildende Kraft. Für Paracelsus gehörte auch die Astrologie notwendig zur Medizin hinzu, denn der Mensch trage den ganzen Kosmos in sich, Diagnose und Therapie setzten genaue Kenntnisse der astrologischen Entsprechungen voraus, und die Beurteilung des Krankheitsverlaufs und der Wirkung von Medikamenten müsse unter Berücksichtigung der Planetenbewegungen erfolgen. Zu den bedeutenden Esoterikern der frühen Neuzeit gehört auch Giordano Bruno (1548–1600). Er schrieb mehrere Bücher über Magie, die er als mit der empirischen Naturwissenschaft vereinbar ansah ("Magia naturalis"), und vertrat die Lehre von der Seelenwanderung. Mit der im Geiste Brunos sich vom kirchlichen Dogmatismus befreienden Naturwissenschaft schienen esoterische Anschauungen dagegen vielfach kompatibel zu sein. So waren die astronomischen „Revolutionäre“ Nikolaus Kopernikus (1473–1543), Galileo Galilei (1564–1642) und Johannes Kepler (1571–1630) überzeugte Anhänger der Astrologie, Kepler und Galilei praktizierten diese sogar, und Isaac Newton (1643–1727), der neben Galilei als Begründer der exakten Naturwissenschaft gilt, verfasste daneben auch Beiträge über Hermetik, Alchemie und Astrologie. An die Forderung Martin Luthers, neben der Bibel nur auf einen individuellen Zugang zu Gott zu vertrauen, knüpfte im 16. und 17. Jahrhundert die „klassische“ christliche Theosophie an. Deren wichtigster Vertreter war Jakob Böhme (1575–1624), ein Schuster, der im Alter von 25 Jahren nach einer schweren Lebenskrise eine mystische Vision hatte und später darüber schrieb. Nach Böhme ist der Ausgangspunkt allen Seins der „Zorn Gottes“, den er jedoch nicht wie das Alte Testament als eine Reaktion auf menschliche Verfehlungen, sondern als ein willenshaftes Urprinzip beschreibt, das vor der Schöpfung, ja „vor der Zeit“ besteht. Dem Zorn steht die Liebe gegenüber, die als Sohn Gottes oder auch als dessen Wiedergeburt angesehen wird. Diesen „wiedergeborenen Gott“ kann der Mensch nur erkennen, wenn er selbst „wiedergeboren“ wird, indem er mit Gott kämpft und durch einen Gnadenakt von diesem Kampf erlöst und mit absolutem Wissen beschenkt wird. Diese theosophische Lehre Böhmes wurde als häretisch eingestuft, und nachdem ein erstes, nicht zur Veröffentlichung bestimmtes Manuskript in die Hände eines Pfarrers gelangt war, wurde der Autor zeitweilig inhaftiert und schließlich mit einem Publikationsverbot belegt. Jahre später (ab 1619) widersetzte er sich jedoch diesem Verbot, und seine Schriften trugen in hohem Maß zur Ausbildung eines spirituellen Bewusstseins auf der Grundlage des Protestantismus bei. In den Jahren 1614 bis 1616 erschienen einige mysteriöse Schriften, die großes Aufsehen erregten. Ihre anonymen Autoren beriefen sich auf die mythische Gestalt des Christian Rosencreutz, der von 1378 bis 1484 gelebt haben soll und dessen Hinterlassenschaft sie in seinem Grab entdeckt hätten. Die von diesen ersten Rosenkreuzern propagierte Lehre ist eine Synthese verschiedener esoterischer und naturphilosophischer Traditionen mit der Idee einer „Generalreformation“ der ganzen Welt. Ihre Publikation löste eine Flut von zustimmenden und ablehnenden Kommentaren aus; schon 1620 waren über 200 diesbezügliche Schriften erschienen. Der angeblich dahinter stehende geheime Orden bestand nach heutigem Kenntnisstand jedoch wahrscheinlich nur aus wenigen Personen an der Tübinger Universität, darunter Johann Valentin Andreae (1586–1654). Aufklärung und Romantik. Einen wichtigen Wendepunkt in der Rezeption esoterischer Lehren markiert die 1699/1700 publizierte "Unparteyische Kirchen- und Ketzer-Historie" von Gottfried Arnold, in der erstmals ein Überblick über „alternative“ Anschauungen innerhalb des Christentums gegeben wurde, ohne diese als Irrlehren zu verdammen. Der Protestant Arnold rehabilitierte insbesondere die Gnosis, indem er sie als Suche nach „ursprünglicher Religiosität“ beschrieb. Im 18. Jahrhundert entwickelte sich eine im Vergleich zu den „Klassikern“ wie Jakob Böhme weniger visionäre, dafür stärker intellektuell geprägte Theosophie. Deren wichtigster Vertreter, Friedrich Christoph Oetinger (1702–1782), war zugleich auch ein bedeutender Propagator der lurianischen Kabbala im deutschen Sprachraum. Durch die erste deutsche Übersetzung im Jahre 1706 wurde das "Corpus Hermeticum" breiter bekannt und zum Gegenstand wissenschaftlicher Darstellungen. Populär waren Themen wie Vampirismus und Hexerei, und Gestalten wie der Graf von Saint Germain oder Alessandro Cagliostro hatten Konjunktur. Daneben etablierte sich eine institutionalisierte Esoterik in Form von Geheimen Bruderschaften, Orden und Logen (vor allem die Rosenkreuzer und Teile der Freimaurerei). Eine Sonderstellung im Bereich der Theosophie nimmt der renommierte schwedische Naturwissenschaftler und Erfinder Emanuel Swedenborg (1688–1772) ein, der ähnlich wie Böhme aufgrund von Visionen, die er 1744/45 hatte, zum Mystiker und Theosophen wurde. Nach Swedenborgs Überzeugung leben wir mit unserem Unbewussten in einer jenseitigen geistigen Welt, in welcher wir bewusst „erwachen“, wenn wir sterben. Als Autor etlicher umfangreicher Werke avancierte er bald zu einem der einflussreichsten, aber auch umstrittensten Mystiker im Zeitalter der Aufklärung. Anhänger seiner Lehre gründeten die bis heute bestehende Glaubensgemeinschaft „Neue Kirche“, unter den Theosophen seiner Zeit blieb er jedoch ein wenig geschätzter Außenseiter, und sein bedeutendster Kritiker war kein Geringerer als Immanuel Kant (1724–1804), der ihm 1766 die Streitschrift "Träume eines Geistersehers" widmete. In der Aufklärung, zu deren wichtigstem Denker Kant durch seine späteren Hauptwerke avancieren würde, war der Esoterik neben den etablierten Kirchen eine weitere mächtige Gegnerschaft erwachsen. Aufgrund seines Verständnisses von Vernunft und Wissen musste Kant, obwohl er in jungen Jahren selbst der Seelenwanderungslehre angehangen hatte, Lehren wie diejenige Swedenborgs ablehnen, und darin folgte ihm bald die große Mehrheit der Gelehrten. Zwar könne man, so Kant, nicht "beweisen", dass Swedenborgs Behauptungen über die Existenz von Geistern und dergleichen falsch seien, ebenso wenig aber das Gegenteil, und wenn man auch nur eine einzige Geistererzählung als wahr anerkennen würde, würde man damit das gesamte Selbstverständnis der Naturwissenschaften in Frage stellen. Dass Aufklärung und Esoterik nicht notwendigerweise im Gegensatz zueinander stehen müssen, zeigen hingegen die Freimaurer, bei denen ein aktives Eintreten für die rationale Aufklärung und ein verbreitetes Interesse für Esoterik nebeneinander bestanden und „Aufklärung“ vielfach mit einem Streben nach „höherem“ Wissen gleichgesetzt wurde, verbunden mit dem esoterischen Motiv der Transformation des Individuums. Esoterisch ausgerichteten Orden gehörten im 18. Jahrhundert viele bedeutende Personen an, darunter der preußische Kronprinz und spätere König Friedrich Wilhelm II., dessen Orden allerdings nur bis zu seiner Krönung bestand, weil er damit aus der Sicht der Ordensleitung seinen Zweck erfüllt hatte. Obwohl auch einige andere Adlige bedeutende Freimaurer waren, spielte das Freimaurertum insgesamt aber eher eine Rolle bei der Stärkung des sich emanzipierenden Bürgertums gegenüber dem absolutistischen Staat. In die Naturphilosophie und Kunst der deutschen Romantik floss in erheblichem Maß esoterisches Gedankengut ein. So war Franz von Baader (1765–1841) zugleich ein bedeutender Naturphilosoph und der herausragende Theosoph dieser Epoche. In letzterer Hinsicht knüpfte er stark an Böhme an, allerdings in einer äußerst spekulativen Weise. In der romantischen Dichtung tritt der esoterische Einfluss besonders deutlich bei Novalis (1772–1801) hervor, aber auch etwa bei Johann Wolfgang von Goethe (1749–1832), Justinus Kerner (1786–1862) und etlichen anderen bedeutenden Dichtern. Novalis fasste die Natur als ein großes lebendiges Ganzes auf, mit der der Mensch im Zuge einer Initiation erkennend verschmelzen kann. Dabei griff er auch alchemistische und freimaurerische Symbole auf. In der Musik ist vor allem Mozarts in einem freimaurerischen Umfeld entstandene Oper "Die Zauberflöte" zu nennen, in der Malerei Philipp Otto Runge. Moderne. Mit der Begründung der modernen Chemie im späten 18. Jahrhundert (vor allem durch die Schriften Lavoisiers 1787/1789) war der Niedergang der „operativen“ Alchemie eingeleitet, was deren Popularität allerdings zunächst wenig beeinträchtigte, und daneben bestand eine „spirituelle“ Alchemie als eine spezielle Form der Gnosis weiter. Auch Elektrizität und Magnetismus waren in dieser Zeit geläufige Themen esoterischer Diskurse, wobei sich besonders der schwäbische Arzt Franz Anton Mesmer (1734–1815) mit seiner Theorie des „animalischen Magnetismus“ hervortat. Mesmer verband die alte alchemistische Vorstellung eines alles durchströmenden unsichtbaren Fluidums mit dem modernen Begriff des Magnetismus und mit der Behauptung, damit Krankheiten heilen zu können. Nachdem er sich 1778 in Paris niedergelassen hatte, eroberten die von ihm entwickelten „magnetischen“ Heilgeräte vor allem die dortige Kaffeehaus-Szene. Seine „Therapiemethode“, zu mehreren um ein solches Gerät herumzusitzen, dabei in Trance und Ekstase zu geraten und den „Magnetismus“ daran beteiligter gesunder Personen in sich einströmen zu lassen, kann als ein Vorläufer der späteren spiritistischen Séancen gelten. Die Fox-Schwestern, hier 1852, gelten als Begründerinnen des Spiritismus. Ende des 18. Jahrhunderts tauchte die neue Praktik auf, zumeist weibliche Personen in einen „magnetischen Schlaf“ zu versetzen und dann über die übersinnliche Welt zu "befragen". Im deutschen Sprachraum befasste sich der schon genannte Justinus Kerner damit. Eine Abwandlung dieser Praktik ist der Spiritismus, dessen Ursprung 1848 bei zwei Schwestern in den USA liegt, der aber schnell auch auf Europa übergriff und Millionen Anhänger fand. Auch hierbei dient eine Person als „Medium“, und diesem werden Fragen gestellt, welche sich an die Geister von Verstorbenen wenden. Die Geister sollen antworten, indem sie den Tisch, an dem die Sitzung stattfindet, in Bewegung versetzen. In Verbindung mit dem Reinkarnationsgedanken entwickelte sich daraus eine regelrechte Religion. Als Begründer des Okkultismus im eigentlichen Sinn in der zweiten Hälfte des 19. Jahrhunderts gilt Éliphas Lévi (1810–1875). Obwohl seine Werke nur „wenig geschickte Kompilationen“ (Faivre) waren, war er zeitweilig der bedeutendste Esoteriker überhaupt. Einflussreich war auch das umfangreiche okkultistische Werk von Papus (1865–1916); im deutschen Sprachraum ist vor allem Franz Hartmann (1838–1912) zu nennen. Dieser Okkultismus war eine Gegenströmung gegen die vorherrschende Wissenschaftsgläubigkeit und gegen die Entzauberung der Welt durch den Materialismus. Er verstand sich selbst jedoch als modern (Faivre nennt ihn eine Antwort der Moderne auf sich selbst) und lehnte im Allgemeinen den wissenschaftlichen Fortschritt nicht ab, sondern versuchte, diesen in eine umfassendere Vision zu integrieren. Ein Kennzeichen der Moderne, welche durch die Aufklärer des 18. Jahrhunderts, aber auch durch den Neukantianismus des 19. Jahrhunderts geprägt wurde, ist die zunehmende Trennung von materiellen und sakral-transzendenten Bereichen der Wirklichkeit. Einerseits werden Natur und Kosmos zunehmend rational begriffen und somit „entzaubert“, andererseits wird dem Transzendenten eine außerweltliche Ebene zugewiesen. Daraus kann ebenso die Gegenreaktion erwachsen, die Natur, den Kosmos und die materielle Wirklichkeit erneut sakralisieren zu wollen und somit die Trennung zwischen weltlicher und außerweltlicher Sphäre wieder aufzuheben. Da der Glaube an die Berechenbarkeit aller Dinge und die prinzipielle Ergründbarkeit des Kosmos selbst das Ergebnis einer religionsgeschichtlichen Entwicklung sind, nämlich der schon in der alttestamentlichen Schöpfungsvorstellung angelegten Entseelung des Kosmos, kann gerade die moderne Abwendung von dieser religiösen Tradition auch eine Abwendung von dem Glauben an die rationale Wissenschaft nach sich ziehen. Dies kann zu der Überzeugung führen, dass weder Religion, wie beispielsweise das Christentum, noch Wissenschaft über die „wahre“ Weltdeutungshoheit verfügen, sondern dass eine Erklärung der Welt nur mit wissenschaftlicher und spiritueller Deutung möglich sei. Verschiedene Gruppierungen, die der modernen Esoterik zugeordnet werden können, vertraten genau diese Überzeugung. In einem engeren Sinn wird vielfach das Jahr 1875 als Geburtsjahr der modernen westlichen Esoterik angesehen, markiert durch die Gründung der Theosophischen Gesellschaft (TG) in New York. Initiator und dann auch Präsident dieser Gesellschaft war Henry Steel Olcott (1832–1907), ein renommierter Anwalt, der sich schon lange für esoterische Themen interessiert hatte und den Freimaurern nahestand. Zur wichtigsten Person wurde jedoch schnell Olcotts Lebensgefährtin Helena Petrovna Blavatsky (1831–1891). HPB, wie sie später zumeist genannt wurde, war deutsch-ukrainischer Herkunft und hatte lange Jahre auf Reisen in weiten Teilen der Welt verbracht. Schon seit ihrer Kindheit stand sie in medialer Verbindung zu spirituellen „Meistern“ in Indien, von denen sie nun (laut einem Notizbucheintrag "vor" der Gründung der TG) die „Weisung“ erhalten hatte, eine philosophisch-religiöse Gesellschaft unter der Leitung Olcotts zu gründen. Auch Olcott berief sich auf Anweisungen von „Meistern“, die er allerdings in Form von Briefen erhalten habe. Die Ziele der TG wurden folgendermaßen formuliert: Erstens sollte sie den Kern einer universalen Bruderschaft der Menschheit bilden, zweitens eine vergleichende Synthese von Religionswissenschaft, Philosophie und Naturwissenschaft anregen und drittens ungeklärte Naturgesetze und im Menschen verborgene Kräfte erforschen. Die Bezeichnung „theosophisch“ wurde dabei anscheinend kurzfristig einem Lexikon entnommen. Kurz nach der Gründung der TG machte sich Blavatsky an die Abfassung ihres ersten Bestsellers "Die entschleierte Isis" ("Isis Unveiled"), der 1877 herauskam und dessen erste Auflage bereits nach zehn Tagen vergriffen war. In dieser und in anderen Schriften – das Hauptwerk "Die Geheimlehre" ("The Secret Doctrine") erschien 1888 – bündelte HPB die esoterischen Traditionslinien der Neuzeit und gab ihnen eine neue Form. Von großer Bedeutung war dabei die Verbindung mit östlichen spirituellen Lehren, an denen zwar schon seit der Romantik ein recht reges Interesse bestanden hatte, die nun aber als das reinste „Urweistum“ der Menschheit in den Vordergrund rückten, was die Esoterik des 20. Jahrhunderts entscheidend prägen sollte. Blavatsky selbst gab einerseits an, ihr Wissen zu erheblichen Teilen der beinahe täglichen „Präsenz“ eines „Meisters“ zu verdanken (was man hundert Jahre später einmal „Channeling“ nennen würde). Im Vorwort der "Geheimlehre" hingegen behauptete sie, lediglich ein uraltes und bisher geheim gehaltenes östliches Dokument (das "Buch des Dzyan") zu übersetzen und zu kommentieren. Schon nach dem Erscheinen von "Isis Unveiled" begannen Kritiker jedoch nachzuweisen, dass der Inhalt dieses Buches fast vollständig auch schon in anderer zeitgenössischer Literatur zu finden war, wobei die meisten der betreffenden Bücher für HPB unmittelbar in Olcotts Bibliothek verfügbar waren. Der enormen Wirkung ihres Werks tat das jedoch keinen Abbruch. Das hermetische Rosenkreuz des Golden Dawn Im Umfeld der Theosophischen Gesellschaft entstand gegen Ende des 19. Jahrhunderts eine ganze Reihe neuer initiatischer Gemeinschaften und magischer Orden, überwiegend in freimaurerischer und rosenkreuzerischer Tradition, darunter der Hermetic Order of the Golden Dawn (1888). Dieser Orden war von der christlichen Kabbala und dem Tarot inspiriert, befasste sich mit ägyptischen und anderen antiken Gottheiten und räumte einer zeremoniellen Magie einen erheblichen Raum ein. Für letztere stand vor allem Aleister Crowley (1875–1947), der später dem in Wien gegründeten Ordo Templi Orientis (1901) beitrat und diesem eine sexualmagische und antichristliche Ausrichtung gab. Crowley gilt als der bedeutendste Magier des 20. Jahrhunderts. In Deutschland gründete Franz Hartmann 1886 eine deutsche Abteilung der Theosophischen Gesellschaft und 1888 einen Rosenkreuzer-Orden. Viel bedeutender war hier aber Rudolf Steiner (1861–1925), der 1902 Generalsekretär der neu gegründeten deutschen Sektion der TG wurde. Steiner übernahm zumindest in den ersten Jahren vieles von Blavatsky, war selbst aber stark von den naturwissenschaftlichen Werken Goethes und deutschen Philosophen wie Max Stirner und Friedrich Nietzsche beeinflusst und entwickelte schließlich eine eigene, christlich-abendländische, an der Mystik anknüpfende Lehre, die er später „Anthroposophie“ nannte, nachdem es zum Bruch mit der durch Annie Besant vertretenen internationalen Theosophischen Gesellschaft gekommen war. Als Vertreter einer christlichen Theosophie in Deutschland in der Tradition von Jakob Böhme und Franz von Baader ist im 20. Jahrhundert außerdem Leopold Ziegler (1881–1958) zu nennen. Der populärste Zweig der Esoterik im 20. Jahrhundert war zweifellos die Astrologie. Sie bedient das Bedürfnis, mit Hilfe des Prinzips der Entsprechung die verlorengegangene Einheit von Mensch und Universum wiederherzustellen. Dies kann neben der praktischen Anwendung auch einen „gnostischen“ Aspekt haben, indem man „Zeichen“ zu deuten versucht und eine ganzheitliche Sprache entwickelt. Eine ähnliche Dualität von Praxis und Gnosis liegt auch beim Tarot vor sowie bei der Unterscheidung von zeremonieller und initiatischer Magie. Einen herausragenden Einfluss auf die Entwicklung der populären Esoterik in den letzten Jahrzehnten („New Age“) hatte Carl Gustav Jung (1875–1961). Jung postulierte die Existenz universeller seelischer Symbole, die er „Archetypen“ nannte und durch eine Analyse der Religionsgeschichte und insbesondere auch der Geschichte der Alchemie und Astrologie zu identifizieren suchte. In dieser Sichtweise wurde die innere Transformation des Adepten zum zentralen Inhalt esoterischen Handelns, so u. a. in der „psychologischen“ Astrologie. Dem liegt ein Konzept der Seele zugrunde, wie es in ähnlicher Form schon bei den antiken Neuplatonikern und bei Renaissance-Denkern wie Marsilio Ficino und Giovanni Pico della Mirandola zu finden war. Im Kontrast zur traditionellen Psychologie, die an dem mechanistisch-naturwissenschaftlichen Ansatz der Medizin ausgerichtet ist und die Rede von einer Seele als ein Ergebnis metaphysischer, also unwissenschaftlicher Spekulation betrachtet, wird hier die Seele zum „wahren Kern“ der Persönlichkeit erhoben und geradezu sakralisiert, d. h. ihrem eigentlichen Wesen nach als göttlich angesehen. Der Mensch strebt nach Vollkommenheit, indem er sich in seine eigene Göttlichkeit versenkt, welche im Unterschied zu manchen östlichen Lehren dem "Individuum" zugeschrieben wird. Jungs aus der Theorie der Archetypen entwickeltes Konzept des kollektiven Unbewussten gehört auch zu den Ursprüngen der transpersonalen Psychologie, welche annimmt, dass es Ebenen der Wirklichkeit gibt, auf denen die Grenzen der gewöhnlichen Persönlichkeit überschritten werden können und eine gemeinsame Teilhabe an einer allumfassenden Symbolwelt möglich ist. Solche Vorstellungen verbanden sich in der von Amerika ausgehenden Hippie-Bewegung mit einem großen Interesse an östlichen Meditationstechniken und an psychoaktiven Drogen. Die wichtigsten Theoretiker dieser transpersonalen Bewegung sind Stanislav Grof und Ken Wilber. Grof experimentierte mit LSD und versuchte dabei, eine Systematik der auftretenden „transpersonalen“ Bewusstseinszustände zu entwickeln. Für die Kommunikation mit transzendenten Wesen in einem veränderten Bewusstseinszustand (etwa in Trance) etablierte sich in den 1970er Jahren die Bezeichnung „Channelling“. Sehr populär wurden in diesem Bereich die Prophezeiungen von Edgar Cayce (1877–1945). Weitere bedeutende Medien waren oder sind Jane Roberts (1929–1984), Helen Schucman (1909–1981) und Shirley MacLaine. Auch die Lehren von Theosophen wie Helena Petrovna Blavatsky und Alice Bailey sind hierher zu rechnen, und Vergleichbares findet sich im Neo-Schamanismus, in der modernen Hexenbewegung und im Neopaganismus. Allen gemeinsam ist die Überzeugung von der Existenz anderer Welten und von der Möglichkeit, aus diesen Informationen zu erhalten, die in der diesseitigen Welt nützlich sein können. Ein weiteres zentrales Thema der heutigen Esoterik sind ganzheitliche Konzeptionen der Natur, wobei naturwissenschaftliche oder naturphilosophische Ansätze die Grundlage für eine spirituelle Praxis bilden. Ein Beispiel dafür ist die Tiefenökologie, eine biozentrische und radikal gegen den vorherrschenden Anthropozentrismus gerichtete Synthese ethischer, politischer, biologischer und spiritueller Positionen (Arne Næss, "deep ecology", 1973). Die Tiefenökologie betrachtet die gesamte Biosphäre als ein einziges, zusammenhängendes „Netz“, das nicht nur als solches "erkannt", sondern auch in einer spirituellen Dimension "erfahren" werden soll. Damit verwandt sind James Lovelocks Gaia-Hypothese, die den ganzen Planeten Erde als einen Organismus auffasst, und daran anknüpfende Konzepte von David Bohm, Ilya Prigogine, David Peat, Rupert Sheldrake und Fritjof Capra, die man als „New Age Science“ zusammenfassen kann. Im Bereich der Freimaurerei und des Rosenkreuzertums wurden im 20. Jahrhundert zahlreiche initiatische Gesellschaften neu gegründet. Eine besonders breite Wirkung entfaltete der 1915 gegründete Rosenkreuzer-Orden AMORC. Im deutschen Sprachraum ist die Anthroposophische Gesellschaft mit ihrem Zentrum in Dornach bei Basel am bedeutendsten, was durch den Erfolg der auf anthroposophischer Grundlage arbeitenden Waldorfschulen noch verstärkt wird. Die Theosophische Gesellschaft zerfiel nach Blavatskys Tod in mehrere Gruppierungen, welche heute in diversen Ländern sehr aktiv sind. Wie schon in der Romantik, lassen sich auch in der Moderne vielfach esoterische Einflüsse in Kunst und Literatur aufzeigen. Das gilt etwa für die Architektur Rudolf Steiners (Goetheanum), für die Musik Alexander Skrjabins, die Gedichte Andrej Belyis, die Dramen August Strindbergs und das literarische Werk Hermann Hesses, aber auch für Bereiche der neueren Science Fiction wie etwa die "Star-Wars"-Filmtrilogie von George Lucas. Ein bedeutender Einfluss auf die bildende Kunst ging auch von der Theosophischen Gesellschaft aus. Beispiele für künstlerische Gestaltung im Dienst der Esoterik sind manche Tarot-Blätter und die Illustrationen in manchen esoterischen Büchern. Nicht im eigentlichen Sinn esoterisch beeinflusst, aber beliebte Gegenstände esoterischer Interpretationen waren die Musik Richard Wagners und die Gemälde Arnold Böcklins. Ursprünge der Esoterikforschung. Was heute als westliche Esoterik bezeichnet wird, wurde anscheinend erstmals gegen Ende des 17. Jahrhunderts als eigenständiges und zusammenhängendes Feld erkannt. 1690/1691 publizierte Ehregott Daniel Colberg seine polemische Schrift "Das platonisch-hermetische Christenthum", und 1699/1700 folgte Gottfried Arnolds "Unpartheyische Kirchen- und Ketzer-Historie", in welcher er bis dahin als häretisch eingestufte Spielarten des Christentums aus christlich-theosophischer Sicht verteidigte. Diesen theologisch ausgerichteten Arbeiten folgten philosophiehistorisch orientierte, zunächst Johann Jakob Bruckers "Historia critica Philosophiae" (1742–1744), in der verschiedene Strömungen behandelt wurden, welche heute der westlichen Esoterik zugerechnet werden, und schließlich "Die christliche Gnosis oder die christliche Religions-Philosophie in ihrer geschichtlichen Entwicklung" (1835) von Ferdinand Christian Baur, der eine direkte Linie von der antiken Gnosis über Jacob Böhme bis zum deutschen Idealismus zog. Im weiteren Verlauf des 19. Jahrhunderts wurden derartige Themen weitgehend aus dem wissenschaftlichen Diskurs ausgegrenzt, indem man sie als Produkte irrationaler Schwärmerei betrachtete oder als vor-wissenschaftlich einordnete (die Alchemie als Proto-Chemie oder die Astrologie als Proto-Astronomie). Stattdessen schrieben nun Okkultisten wie Éliphas Lévi oder Helena Petrovna Blavatsky umfangreiche „Historien“ der Esoterik, in denen, wie Hanegraaff schreibt, ihre eigene Fantasie eine kritische Betrachtung historischer Tatbestände ersetzte, was erst recht dazu beitrug, dass ernsthafte Wissenschaftler dieses Themenfeld mieden. Erst 1891–1895 legte Carl Kiesewetter mit seiner "Geschichte des neueren Occultismus" wieder eine bedeutende akademische Studie vor, gefolgt von "Les sources occultes du Romantisme" von Auguste Viatte (1927) und Lynn Thorndikes achtbändiger "History of Magic and Experimental Science" (1923–1958). Eine umfassende Sicht westlicher Esoterik, die etwa der Perspektive heutiger Esoterikforschung entspricht, scheint als Erster Will-Erich Peuckert in seiner 1936 erschienenen "Pansophie – ein Versuch zur Geschichte der weißen und schwarzen Magie" entwickelt zu haben, die mit Marsilio Ficino und Giovanni Pico della Mirandola beginnt und über Paracelsus und die christliche Theosophie zum Rosenkreuzertum führt. Hermetik und neuzeitliche Wissenschaft: das Yates-Paradigma. In ihrem aufsehenerregenden Buch "Giordano Bruno and the Hermetic Tradition" versuchte die Historikerin Frances A. Yates 1964 nachzuweisen, dass die Hermetik, wie sie von Pico della Mirandola, Giordano Bruno und John Dee vertreten wurde, bei der Begründung der neuzeitlichen Wissenschaft in der Renaissance eine wesentliche Rolle gespielt habe und dass diese Wissenschaft ohne den Einfluss der Hermetik gar nicht entstanden wäre. Obwohl das „Yates-Paradigma“ sich in dieser starken Form in akademischen Kreisen letztlich nicht etablieren konnte und Yates’ provozierende Thesen hauptsächlich in religiösem und der Esoterik nahestehendem Schrifttum auf Resonanz stießen, wird es wegen der Debatten, die es auslöste, als wichtige „Initialzündung“ für die moderne Esoterikforschung betrachtet. Esoterik als Denkform: Das Faivre-Paradigma. Antoine Faivre stellte 1992 die These auf, dass man die Esoterik als eine "Denkform" (frz. "forme de pensée") betrachten könne, die im Gegensatz zu wissenschaftlichem, mystischem, theologischem oder utopischem Denken steht. Faivre versteht Esoterik als bestimmte Art und Weise des Denkens, Dieser Ansatz Faivres erwies sich als sehr fruchtbar für die vergleichende Forschung, wurde von vielen anderen Esoterikforschern übernommen und trat weitgehend an die Stelle des Yates-Paradigmas, stieß aber auch auf vielfältige Kritik. So wurde bemängelt, dass Faivre seine Charakterisierung hauptsächlich auf Untersuchungen des Hermetismus der Renaissance, der Naturphilosophie, der christlichen Kabbala und der protestantischen Theosophie stützte und damit den Begriff der Esoterik so eng fasse, dass er auf entsprechende Erscheinungen in der Antike, im Mittelalter und in der Moderne sowie außerhalb der christlichen Kultur (Judentum, Islam, Buddhismus) vielfach nicht mehr anwendbar sei. Zweifellos hat das Faivre-Paradigma jedoch entscheidend dazu beigetragen, dass die Esoterikforschung als Teil des ernsthaften Wissenschaftsbetriebs anerkannt wurde. Institutionen. Ein erster spezieller Lehrstuhl für die „Geschichte der christlichen Esoterik“ wurde 1965 an der Sorbonne in Paris eingerichtet (1979 umbenannt in „Geschichte der esoterischen und mystischen Strömungen im neuzeitlichen und zeitgenössischen Europa“). Diesen Lehrstuhl hatte von 1979 bis 2002 Antoine Faivre inne, seit 2002 als Emeritus neben Jean-Pierre Brach. Seit 1999 gibt es in Amsterdam einen Lehrstuhl für die „Geschichte der hermetischen Philosophie und verwandter Strömungen“ (Wouter J. Hanegraaff). Drittens wurde an der Universität von Exeter (England) ein Zentrum für Esoterikforschung eingerichtet (Nicholas Goodrick-Clarke, † 2012). 2006 richtete auch der Vatikan an der Päpstlichen Universität Angelicum in Rom einen „Lehrstuhl für nichtkonventionelle Religionen und Spiritualitätsformen“ (Michael Fuß) ein. Die wichtigste deutschsprachige Fachzeitschrift ist "Gnostika". Esoterik und Politik. Ab dem frühen 19. Jahrhundert hatten diverse esoterische Strömungen einen erheblichen Einfluss auf die intellektuelle Begründung der Demokratie und auf die Ausbildung eines Geschichtsbewusstseins. Dabei handelte es sich einerseits um eine romantische Rückbesinnung auf das Ursprüngliche in Ablehnung der Moderne, andererseits um eine progressive Erwartung des Eintretens vorhergesagter Ereignisse. Beispiele für letzteres sind Frühsozialisten wie Robert Owen, Pierre Leroux und Barthélemy Prosper Enfantin. Aleister Crowley neigte dem Stalinismus und dem italienischen Faschismus zu. Noch weiter ging Julius Evola, indem er sich auch dem Nationalsozialismus zuwendete. Während Stalin derartigen Erscheinungen gegenüber relativ tolerant war, wurden sie im NS-Deutschland schnell ausgeschaltet. Ein Esoteriker, der die Moderne radikal ablehnte und sich dem Islam zuwendete, war René Guénon. Teile des New Age griffen die Erwartungshaltung des früheren Okkultismus wieder auf. Kirchen. Manche Praktiken, die heute der Esoterik zugerechnet werden, insbesondere Wahrsagen und die Magie, werden schon im Tanach, der Heiligen Schrift des Judentums, scharf verurteilt. Im frühen Christentum entzündeten sich dann darüber hinaus grundsätzliche interne Konflikte, die zur Ausgrenzung vieler sogenannter „gnostischer“ Gruppierungen aus der sich institutionell festigenden Kirche führten, weshalb deren abweichende Lehren und Erkenntnis-Ansprüche heute ebenfalls zur Esoterik zählen (vgl. Kapitel „Geschichte“). Skeptikerbewegung. Grundsätzliche Kritik an jeglicher Esoterik äußern Vertreter der Skeptikerbewegung. So schreibt der Religionswissenschaftler Hartmut Zinser in einer Aufklärungsbroschüre der Hamburger Innenbehörde: "„Über ein Verborgenes können eigentlich keine Aussagen gemacht werden, dann wäre es kein Verborgenes mehr. Anhänger des Okkultismus und der Esoterik aber machen genau dies. Sie schreiben dem Unbekannten und Verborgenen bestimmte Eigenschaften zu, beispielsweise die Wirkung von Geistern, Toten, anderen Lebenden oder eines Weltbewusstseins usw. zu sein. Es ist dies der Grundfehler der Esoterik und des Okkultismus, dass er über ein tatsächliches oder angenommenes Unbekanntes Aussagen macht. Wenn immer es möglich ist, diese Aussagen zu überprüfen, stellt sich heraus, dass die esoterischen Aussagen über ein Unbekanntes und Verborgenes falsch, unnötig und irreführend sind. Esoteriker wie Okkultisten ertragen offensichtlich die Tatsache nicht, dass uns Menschen vieles unbekannt und verborgen ist und schreiben sich ein Wissen und auch Macht über das Unbekannte und Verborgene zu. Dies mag ihren Wünschen entsprechen, nicht aber der Wirklichkeit.“" Der Physiker Martin Lambeck behauptet, die Esoterik wolle das "„mechanistisch-materialistische“" Weltbild der Physik schleifen, die Physik erscheine daher "„wie eine belagerte Festung“". "„Ausgangspunkt aller Esoterik“" ist nach Lambeck (der sich dabei offenbar auf ein Buch von Thorwald Dethlefsen stützt) die Lehre des Hermes Trismegistos; „hermetische Philosophie“ sei gleichbedeutend mit Esoterik. Insbesondere bilde das in dem Satz "„Wie oben, so unten“" klassisch formulierte Analogieprinzip die Grundlage aller Esoterik, und die Esoteriker seien davon überzeugt, auf dieser Grundlage die gesamte Welt des Mikro- und Makrokosmos erforschen zu können. Daraus folge aber, so Lambeck, dass aus der Sicht der Esoterik "„alle seit Galilei mit Fernrohr und Mikroskop durchgeführten Untersuchungen überflüssig“" gewesen seien. Zudem stehe das Analogisieren "„im fundamentalen Widerspruch zur Methode der heutigen Wissenschaft“". Aus diesem und anderen, ähnlichen angeblichen Widersprüchen zieht Lambeck nun allerdings nicht die Konsequenz, Esoterik abzulehnen. Ihm geht es um die Widerspruchsfreiheit des Lehrgebäudes der Physik und um ihren Anspruch, für ihr Gebiet allein zuständig zu sein. Die Esoterik mache Aussagen, die in diesen Zuständigkeitsbereich fielen, beispielsweise dass alles in der Welt aus 10 Urprinzipien aufgebaut sei (laut Lambeck ein grundlegendes Postulat der Esoterik). Die Existenz derartiger sogenannter „Paraphänomene“ müsse daher im Sinne des Popperschen Falsifikationismus empirisch getestet werden. Kommerzialisierung. Viele Kritiker, aber auch manche Esoteriker selber beklagen einen „Supermarkt der Spiritualität“: Verschiedene, teils widersprüchliche spirituelle Traditionen, die über Jahrhunderte in unterschiedlichen Kulturen der Welt entstanden, würden in der Konsumgesellschaft zur Ware, wobei sich verschiedene Trends und Moden schnell abwechselten ("„gestern Yoga, heute Reiki, morgen Kabbala“") und als Produkt auf dem Markt ihres eigentlichen Inhalts beraubt würden. Dieser Umgang sei oberflächlich, reduziere Spiritualität auf Klischees und beraube sie ihres eigentlichen Sinnes. Politik. In jüngerer Zeit (insbesondere seit den 1990er Jahren) werden auch rassistische und anderweitig rechtsextremistische Erscheinungen innerhalb der Esoterik kritisch kommentiert (siehe Rechtsextremismus und Esoterik). So bemerkt der Journalist Rainer Fromm in der schon erwähnten Hamburger Broschüre: "„Die völkische Käuferschaft hat die Esoterik für sich entdeckt.“" Fromm kommt zu der Einschätzung: "„Offener Neonazismus, Ariosophie und antisemitische Verschwörungsliteratur decken nur eine Minderheit der esoterischen Bewegung ab. Irrationalismus, Karma, Rassismus, Gurus und dogmatische Heilslehren hingegen sind zentrale Bestandteile des esoterischen Glaubens und machen ihn anfällig für autoritäre und rechtsextremistische Ideologien.“" Dagegen schreibt der Strafrechtler Alexander A. Niggli in einer im Auftrag der Eidgenössischen Kommission gegen Rassismus erstellten Expertise, dass "„Esoterik grundsätzlich nicht mit Rassendiskriminierung verknüpft ist“". Scharfe Polemik gegen Esoterik übte die ehemalige Grünen-Politikerin Jutta Ditfurth in ihrem zuerst 1992 erschienenen Buch "Feuer in die Herzen". Ditfurth bezeichnet Esoterik als Ideologie, welche „ein übelriechender Eintopf aus geklauten, ihrem sozialen und kulturellen Zusammenhang entrissenen Elementen aus allen traditionellen Religionen“ sei und faschistische Wurzeln habe. Esperanto. Esperanto ist eine Plansprache bzw. eine Welthilfssprache und eine lebende Sprache. Unter dem Pseudonym "Doktoro Esperanto" (,Doktor Hoffender‘) veröffentlichte Ludwik Lejzer Zamenhof 1887 seine noch heute gültigen Grundlagen. Seine Absicht war, eine leicht erlernbare, neutrale Sprache für die internationale Verständigung zu entwickeln. Sprache. Die Wörter bestehen überwiegend aus unveränderlichen Wortelementen, die aneinandergefügt werden. So wird beispielsweise die Mehrzahl eines Substantivs oder Adjektivs und vieler Pronomen durch das Anhängen eines "-j" gebildet: "domo",Haus‘, "domoj",Häuser‘, der Objektfall durch das Anhängen eines weiteren "-n:" "domojn" ‚Häusern‘. Der Wortstamm wird nicht verändert, wie es oft im Deutschen vorkommt. Das hier sichtbare agglutinierende Prinzip ist beispielsweise auch aus dem Finnischen, Ungarischen und Türkischen bekannt. Zur besseren Erkennbarkeit haben einige Wortarten bestimmte Endungen. "-o" beispielsweise ist die Endung für Substantive: "domo",Haus‘; "-a" ist die Endung für Adjektive: "doma",häuslich‘ usw. Auch einige Wörter, die weder Substantive noch Adjektive sind, enden auf "-o" oder "-a," sodass der Endvokal allein zur Wortartbestimmung nicht ausreicht. Die meisten Esperanto-Wörter entstammen dem Latein oder romanischen Sprachen. Ein ziemlich großer Anteil kommt aber auch aus germanischen Sprachen, vor allem dem Deutschen und Englischen (je nach Textkorpus wird dieser Anteil auf fünf bis zwanzig Prozent geschätzt). Dazu gibt es eine Reihe von Wörtern aus slawischen Sprachen, besonders dem Polnischen und dem Russischen. Außerdem wurden Wörter aus dem Griechischen entlehnt. In der Regel sind die Wörter aber in mehreren Sprachen bekannt, zum Beispiel Esperanto "religio" ‚Religion‘: englisch "religion," französisch "religion," polnisch "religia;" Esperanto "lampo" ‚Lampe‘: englisch "lamp," französisch "lampe," polnisch "lampa" usw. Teilweise existieren im Esperanto bewusste Mischformen, zum Beispiel "ĝardeno" ‚Garten‘: Die Schreibung ähnelt englisch "garden," die Aussprache ähnelt französisch "jardin". Die Schreibweise ist phonematisch, das heißt, dass jedem Schriftzeichen nur ein Phonem (Sprachlaut) und jedem Phonem nur ein Schriftzeichen zugeordnet ist. Sie verwendet Buchstaben des lateinischen Alphabets, ergänzt durch Überzeichen (diakritische Zeichen). Beispielsweise entspricht "ŝ" dem deutschen "sch" und "ĉ" dem "tsch" (z. B. in "ŝako" ‚Schach‘ und "Ĉeĉenio" ‚Tschetschenien‘). (Siehe auch Esperanto-Rechtschreibung.) Anwendung und Organisationen. Für Esperantosprecher werden lokale, nationale und internationale Kongresse, Seminare, Kulturveranstaltungen und Feste angeboten. Darüber hinaus sind Internetforen und Chaträume auf Esperanto verfügbar. Ein internationaler Gastgeberdienst namens Pasporta Servo informiert über Esperantosprecher, die bereit sind, andere Esperantosprecher kostenlos für eine kurze Zeit bei sich übernachten zu lassen. Brieffreundschaften auf Esperanto vermitteln beispielsweise der Korrespondenzdienst "Koresponda Servo Mondskala" und Edukado.net. Weit wichtiger als Brieffreundschaften ist heute aber die Kommunikation per Internet über E-Mail, Mailingliste oder Voice over IP. Die größten Esperanto-Organisationen in Deutschland sind der Deutsche Esperanto-Bund sowie dessen Jugendorganisation, die Deutsche Esperanto-Jugend (DEJ), mit ihren Orts-, Regional- und Landesverbänden. Der größte weltweite Dachverband heißt Universala Esperanto-Asocio (Esperanto-Weltbund) mit Sitz in Rotterdam. Die DEJ ist als nationaler Verband der UEA-Jugendorganisation TEJO angeschlossen. Veranstaltungsorte des Esperanto-Weltkongresses, der jährlich größten Veranstaltung mit je nach Land etwa tausend bis dreitausend Teilnehmern, waren zuletzt Reykjavík (2013), Buenos Aires (2014) und Lille (2015). Die nächsten Weltkongresse werden in Nitra (2016) und Seoul (2017) stattfinden. Daneben finden jährlich Hunderte kleinerer Veranstaltungen statt. Nach der direkten Kommunikation unter Esperantisten ist die Esperanto-Literatur der häufigste Anwendungsbereich. Ein weiterer Bereich ist die Esperanto-Musik, das heißt Musik mit Texten in dieser Sprache. Seit den 1920er Jahren gibt es einige regelmäßige Radio-Sendungen auf Esperanto, beispielsweise von Radio China International, Radio Vatikan und Radio Habana Cuba. Es wurden bis heute vier Spielfilme auf Esperanto hergestellt, darunter Inkubo mit William Shatner. Im Internet gab es zunächst private Seiten, später kamen größere Projekte hinzu (2001 die Esperanto-Wikipedia). Verschiedene Esperanto-Fachverbände beschäftigen sich mit einzelnen Themen, so dass auch Wissenschaftssprache auf Esperanto entsteht. Auf den Esperanto-Weltkongressen gibt es eine Sommer-Universität mit Vorträgen aus unterschiedlichen Wissensgebieten. Anzahl der Sprecher. Schätzungen gehen davon aus, dass in den über 125 Jahren seines Bestehens zwischen 5 und 15 Millionen Menschen Esperanto erlernt hätten. Sprecher lebten vor allem in Europa, China, Japan und Brasilien. Laut John R. Edwards gebe es in China ca. 10.000 Esperanto-Sprecher (2004), von denen etwa 10 % die Sprache fließend beherrschten. Bei der ungarischen Volkszählung für 2011 gaben 8.397 Personen Esperanto-Kenntnisse an. Johannes Klare berichtet, unter Verweis auf Angaben des kanadischen Esperantosprechers Mark Fettes aus dem Jahr 2003 sei Sabine Fiedler von weniger als 150.000 Sprechern ausgegangen, während Claude Piron die Sprecherzahl 1989 auf eine halbe Million oder zwei bis 3,5 Millionen geschätzt habe. Das linguistische Sammelwerk Ethnologue gibt eine Zahl von zwei Millionen Esperanto-Sprechern an. Diese Zahl basiert auf zuletzt 1999 aktualisierten Schätzungen von Sidney S. Culbert für den "World Almanac". Der Esperanto-Weltbund (UEA) hatte 2011 insgesamt 5 321 Einzelmitglieder (davon 502 aus Deutschland) und 10 480 zusätzliche Mitglieder über seine weltweiten Landesverbände (davon 653 über den Deutschen Esperanto-Bund). Zwei Drittel der Einzelmitglieder des Esperanto-Weltbundes leben in Europa. Die Website der UEA verzeichnet Delegierte aus 120 Ländern. Esperanto als zweite Muttersprache. In mehreren hundert internationalen Familien weltweit wachsen Kinder neben einer anderen Sprache auch von Geburt an mit Esperanto auf; 1996 waren etwa 350 solche Familien bei der „Familia Rondo“ des Esperanto-Weltbundes registriert. Laut dem Linguisten Harald Haarmann wird Esperanto von „etlichen tausend Menschen“ weltweit als Muttersprache gesprochen. Anzahl der Esperanto-Lerner. Aufgrund einer weltweiten Umfrage hat Zlatko Tišljar die Anzahl der alljährlichen Esperanto-Lerner im Jahr 1983 auf etwas 50 bis 100 000 Personen geschätzt. Die Sprachlernseite Duolingo bieten seit Ende Mai 2015 einen Esperanto-Sprachkurs für Englischsprachige an, den bis Ende Dezember 2015 über 225.000 Lerner begonnen haben. Etwa 0,7 % der Sprachlerner bei Duolingo (alle 13 Sprachen ohne Englisch) beginnen den Esperanto-Sprachkurs. Geschichte. 1887 veröffentlichte Ludwik Lejzer Zamenhof in Warschau eine Broschüre mit den Grundlagen der neuen Sprache. 1889 folgte eine Adressenliste mit den ersten Anhängern, außerdem wurde die auf Esperanto in Nürnberg herausgegebene Zeitschrift "La Esperantisto" gegründet. 1898 gründete Louis de Beaufront eine französische Esperanto-Gesellschaft, die später der erste Esperanto-Landesverband wurde. 1908 wurde die Universala Esperanto-Asocio (der Esperanto-Weltbund) gegründet. Bis zum Ausbruch des Ersten Weltkrieges gab es Verbände oder zumindest Ortsgruppen auf allen Kontinenten. Unterdrückung und Verfolgung in vielen Ländern ab 1933. Zwischen den beiden Weltkriegen kam es in mehr als einem Dutzend Ländern zu politischen Behinderungen. Im nationalsozialistischen Deutschland wurden alle Kunstsprachenvereinigungen verboten. Unter Josef Stalins Herrschaft in der Sowjetunion gab es kein öffentlich bekannt gemachtes Verbot; der Geheimdienst NKWD listete zunächst u. a. „alle Menschen mit Auslandskontakten“ auf, dann „konnten die Verhaftungen beginnen“. Ein Befehl von 1940 aus Litauen listet „Esperantisten“ neben Briefmarkensammlern unter den zu verhaftenden Personengruppen. Die verhafteten Esperantosprecher wurden angeklagt‚ aktives Mitglied einer internationalen Spionageorganisation zu sein, die sich unter dem Namen „Vereinigung sowjetischer Esperantisten“ auf dem Territorium der UdSSR verborgen habe. Das Schicksal der meisten bekannteren sowjetischen Esperantisten ist unbekannt, oder die Angaben sind ungenau. Ernest Dresen etwa soll 1937 erschossen worden sein. Nach anderen Angaben starb er in einem Lager. Nach dem Zweiten Weltkrieg. Während des Kalten Krieges dauerte es längere Zeit, bis in den osteuropäischen Staaten Esperanto-Verbände gegründet werden konnten. Eine Ausnahme bildete Jugoslawien, wo bereits 1953 ein Esperanto-Weltkongress stattfand. 1959 fand in Warschau der erste Weltkongress in einem Land des Ostblocks statt. Nach und nach entwickelten sich Kontakte und Zusammenarbeit zwischen den Landesverbänden in Ost und West. 1980 durfte der chinesische Landesverband dem Esperanto-Weltbund beitreten. Nach dem Fall der Berliner Mauer stieg die Zahl der Landesverbände im Weltbund. Der Heilige Stuhl hat 1990 das Dokument "Norme per la celebrazione della Messa in esperanto" publiziert, welches eine Benutzung von Esperanto während der Messe erlaubt. Esperanto lernen. Der Unterricht von Esperanto in Schulen oder Hochschulen spielt für das Erlernen der Sprache eine untergeordnete Rolle. Weit mehr Esperantosprecher haben Esperanto in privaten Sprachkursen (z. B. Präsenzkurs bei einem Esperanto-Verein, Korrespondenzkurs im Internet) oder als Selbstlerner aus Lehrbüchern oder im Internet gelernt. Esperanto als Unterrichtsfach. Die Kultusministerkonferenz der Bundesrepublik Deutschland ließ 1954/1961 den Esperanto-Schulunterricht grundsätzlich zu: „Gegen den Unterricht von Esperanto in freiwilligen Arbeitsgemeinschaften bestehen keine Bedenken.“ Das Bayerische Staatsministerium für Unterricht und Kultus teilte 1980 mit, dass über die Einrichtung von freien Arbeitsgemeinschaften am Gymnasium hinaus „in der gymnasialen Oberstufe Esperanto durchaus als Grundkursfach gewählt werden“ könne, sofern sich genügend Interessenten für diesen Unterricht finden. Nach Angaben aus dem Jahr 1982 wurde seinerzeit in 36 Ländern Esperanto-Unterricht aufgrund staatlicher Verfügungen erteilt. Dazu gehörten viele sozialistische Staaten, darunter Polen, Ungarn, Bulgarien und die baltischen Sowjetrepubliken. Anfang des 21. Jahrhunderts ist in Ungarn Esperanto als Prüfungsfach an höheren Schulen zugelassen. Es existieren kleinere Schulprojekte an Grundschulen wie das britische "Springboard to Languages", das an vier Grundschulen durchgeführt wird. Lehrveranstaltungen an Universitäten gab es 1970 weltweit an 15 Hochschulen, 1980 an 51 und 1985 an 110 Hochschulen in 22 Ländern. Nach einer Schätzung der "Los Angeles Times" aus dem Jahr 1984 erlernten an 32 chinesischen Universitäten 120.000 Studenten Esperanto. Der wichtigste Esperanto-Studiengang bestand zwischen 1969 und 2002 an der Eötvös-Loránd-Universität in Budapest. Ein zweijähriger Studiengang wird an der Adam-Mickiewicz-Universität Posen angeboten (Stand 2013). Zwischen 1970 und 1999 war das "North American Esperanto Summer Institute" an der San Francisco State University angesiedelt, bevor es über die School for International Training in Vermont an die University of California, San Diego verlagert wurde. Esperanto als Stilmittel. Zuweilen wird Esperanto in der Kunst verwendet. In Charlie Chaplins "Der große Diktator" sind die Ladenaufschriften im jüdischen Ghetto auf Esperanto, und in "Idiot's Delight" mit Clark Gable wird in einer unbenannten europäischen Diktatur Esperanto gesprochen – man wollte nicht ein bestimmtes Land darstellen und wich daher auf die neutrale Sprache aus. Ähnlich war es bei "Street Fighter" (1994) und ' (2004). Der 1965 publizierte Art-House-Horrorfilm "Inkubo" des US-Amerikanischen Regisseures Leslie Stevens mit dem damals noch unbekannten William Shatner in der Hauptrolle gilt bis heute als eine der seltsamsten Produktionen der Filmgeschichte, nicht zuletzt deshalb, weil der gesamte Dialog in Esperanto verfasst wurde. Der Film existiert ansonsten nur mit Untertiteln. In der Science-Fiction-Literatur wird Esperanto vereinzelt als die Hauptsprache einer fernen Zukunft genutzt, beispielsweise im Flusswelt-Zyklus von Philip José Farmer. Auch im Stahlrattenzyklus des SF-Autors Harry Harrison spielt Esperanto die Rolle einer intergalaktischen Verkehrssprache. Teilweise sind Orte und Personen mit Esperantoworten benannt. Edgar G. Ulmer. Edgar G. Ulmer (* 17. September 1904 als "Edgar Georg Ulmer" in Olmütz, Österreich-Ungarn, heute Tschechien; † 30. September 1972 in Woodland Hills, Kalifornien) war ein US-amerikanischer Filmregisseur, Drehbuchautor, Bühnenbildner und Produzent mährisch-österreichischer Herkunft. Ulmer vermochte als Regisseur Produktionen mit niedrigem Budget formell so sehr zu verfeinern, dass sie rückblickend von Filmjournalisten und -historikern hoch geschätzt wurden. Ulmer schuf insgesamt 128 Filme in mehreren Ländern. Leben und Wirken. Edgar Georg Ulmer wurde während eines Ferienaufenthaltes seiner jüdischen Eltern im mährischen Olmütz geboren. Im Jahre 2005 fand der Literaturwissenschaftler Bernd Herzogenrath nach jahrelanger Archivarbeit das Geburtshaus Ulmers – als Resultat der Bemühungen wurde anlässlich des von Herzogenrath organisierten 'ulmerfest' 2006 eine Gedenktafel am Haus angebracht (siehe Foto). Ulmer studierte an der Akademie für angewandte Kunst Wien mit dem Ziel, Bühnenbildner zu werden. Eintritt in die Welt des Films als Szenenbildner. Seine ersten Filmarbeiten dürften eigenen Angaben zufolge ab 1920 erfolgt sein, sind aber nicht mehr verifizierbar. Ab dem Alter von 16 Jahren habe er demnach, da er sich um vier Jahre älter ausgegeben hatte, an deutschen und österreichischen Großproduktionen wie "Der Golem, wie er in die Welt kam", "Sodom und Gomorrha", "Nibelungen" und "Der letzte Mann" als Szenenbildner mitgearbeitet. 1923 begleitete Ulmer Max Reinhardt als Szenenbildner für die "Mirakel"-Inszenierung nach New York. 1924 kam er erneut in die Vereinigten Staaten und fand dort 1925 bei Universal als Ausstattungs- und Regieassistent bei namentlich nicht bekannten „Two-Reel“ (also etwa 20 Minuten langen) Western-Serienproduktionen Beschäftigung. Anschließend arbeitete er als Assistent von Friedrich Wilhelm Murnau, der mittlerweile nach Hollywood gewechselt hatte. Als "Art Director" von "Sunrise" wird Ulmer erstmals auch im Titelvorspann erwähnt. 1929 war Ulmer wieder in Berlin tätig. Er war Produktionsleiter und Szenenbildner bei "Flucht in die Fremdenlegion" und "Spiel um den Mann" und wirkte darüber hinaus an "Menschen am Sonntag" mit, einem Stummfilmklassiker, der unter Federführung einer Reihe damals noch unbekannter Filmschaffender wie Billy Wilder, Fred Zinnemann und den Gebrüdern Siodmak entstand. Danach, 1930, ging Ulmer erneut und endgültig in die Vereinigten Staaten. In Hollywood übernahm er die Postproduktion von Murnaus "Tabu" (1931), nachdem dieser bei einem Autounfall verstorben war. Es folgten Arbeiten als Bühnenbildner für die "Philadelphia Grand Opera Company" und als Art Director für MGM. Karriere als Regisseur. 1932 ging Ulmer nach New Jersey, um in den Metropolitan Studios von Fort Lee die Regie von "The Warning Shadow" zu übernehmen. Der Film kam jedoch nie in die Kinos; möglicherweise wurde er nicht fertiggestellt. Zwei Akte des Films wurden jedoch in der von Ed Sullivan geschriebenen Satirekomödie über New York, "Mr. Broadway", eingebaut. Ein Schwerpunkt in Ulmers Filmen waren eine Zeit lang Minderheiten in den USA. Als „director of minorities“ bezog er Eigenheiten der jeweiligen Volksgruppe mit ein und drehte in Mexiko wie auch an der Ostküste der USA für die ukrainische Minderheit, für osteuropäische jüdische Emigranten oder die schwarze Bevölkerung Harlems. So entstanden besondere „Minderheitenfilme“ wie die jiddischen Melodramen "Grine Felder" und "Die Kliatsche", der auf Ukrainisch gedrehte Film "Zaporozhets Za Dunayem" oder das melodramatische Musical "Moon over Harlem". Diese Filme wurden in Biographien über ihn lange Zeit kaum näher betrachtet. Zwischen 1940 und 1942 stellte Ulmer auch kurze Aufklärungsfilme für die nationale Gesundheitsbehörde und Trainings- und Lehrfilme für die US Army her. Ab 1942 inszenierte er in Zusammenarbeit mit Leon Fromkess als "First Contract Director" 15 Filme für die Producers Leasing Corporation her. Als diese 1946 aus finanziellen Gründen den Betrieb einstellte, gründete Ulmer eine eigene Gesellschaft, die jedoch nach wenigen Monaten ebenfalls pleite war. 1946 inszenierte er die auf Hedy Lamarr zugeschnittene Großproduktion "The Strange Woman", kehrte aber danach wieder zu kleineren „Independent“-Filmgesellschaften zurück. „B-Movies“. Ulmer arbeitete meist unter einschränkenden Umständen, mit knappen Budgets, oft mittelmäßigen Drehbüchern, Zeitdruck und für zweitklassige Studios. Die so entstandenen, so genannten B-Movies waren nicht mit den Großproduktionen der großen Hollywood-Studios vergleichbar. Sie brachten aber Werke hervor, die zwar zu Lebzeiten kaum gewürdigt wurden, aber retrospektiv, im Hinblick auf den Stil des Film noir, von Filmjournalisten und -historikern geschätzt werden. Sein Ruf geht auf jene jeweils innerhalb kürzester Zeit entstandenen Filme zurück, in denen er unter einschränkenden Umständen Möglichkeiten zur atmosphärischen und visuellen Anreicherung geschickt ausnutzte. Erster dieser Filme war der Horrorklassiker "Die schwarze Katze" ("The Black Cat") nach Edgar Allan Poe, in dem die beiden Filmstars Boris Karloff und Bela Lugosi erstmals gemeinsam vor der Kamera standen. Weitere Arbeiten waren "Corregidor", "Bluebeard", der stildefinierende Film noir "Umleitung", die von "Citizen Kane" inspirierte und mit Sozialkritik durchsetzte psychologische Studie "Ruthless", der Western "The Naked Dawn" und der Science-Fiction-Film "Beyond the time Barrier". Seine Filme wurden zur Zeit ihrer Entstehung von der US-amerikanischen Filmkritik überwiegend ignoriert, in Filmkreisen wurde sein Schaffen kontrovers diskutiert. 1956 machte Luc Moullet in der Zeitschrift "Les Cahiers du cinéma" auf den vernachlässigten Künstler der visuellen Sprache, den "le plus maudite cinéaste" (verfluchtester Filmschaffender), aufmerksam und verschaffte einer unvoreingenommeneren Betrachtung Platz. Familie. Ulmer war in zweiter Ehe mit der Autorin Shirley Castle verheiratet, die einige seiner Drehbücher verfasste. Die gemeinsame Tochter Arianné Ulmer Cipes steht der "Edgar G. Ulmer Preservation Corp." in Sherman Oaks vor und trat als Schauspielerin unter dem Namen "Arianne Arden" in drei Nachkriegsfilmen ihres Vaters in Erscheinung. Die 3. und jüngste Tochter von Edgar G. Ulmer, Carola Krempler, lebt mit ihrer Familie in Wien. Filmografie (Auswahl). Edgar G. Ulmer wirkte an folgenden Filmen als Regisseur, Regieassistent, Produzent, Drehbuchautor, Bühnenbildner oder Kameramann mit. Von der Überschrift abweichende Tätigkeiten sind in Klammer angegeben. Establishing Shot. Ein Establishing Shot () ist die erste Einstellung einer Sequenz, häufig eine Totale. Er zeigt meist eine Landschaftsaufnahme oder den jeweiligen Ort des Geschehens. Durch den Establishing Shot soll der Ort der Handlung vorgestellt und dadurch etabliert werden. Er dient damit der räumlichen und zeitlichen Orientierung des Zuschauers im Handlungsraum. Besonders wichtig sind Establishing Shots bei bekannten Schauplätzen wie berühmten Weltstädten. Sie müssen so gestaltet sein, dass der Zuschauer den Handlungsort sofort erkennen kann. Ein sehr populäres Beispiel ist Hongkong, das seit den 1970er Jahren sehr häufig mit immer fast gleichen Aufnahmen eines auf dem berühmten Flughafen Kai Tak landenden Flugzeugs über der Stadt als Establishing Shot eingeführt wurde. Bei Filmen, die in Berlin spielen, wird z. B. der Fernsehturm oder der Bundestag in der Eröffnungssequenz gezeigt, bei Paris meist der Eiffelturm. Eisenhüttenstadt. Eisenhüttenstadt ist eine amtsfreie Stadt an der Oder im Land Brandenburg, unmittelbar an der polnischen Grenze, die als Planstadt während der 1950er Jahre entstand. Sie gehört zum Landkreis Oder-Spree und bildete bis 1993 einen eigenen Stadtkreis. Seitdem hat sie den Status einer Großen kreisangehörigen Stadt. Eisenhüttenstadt befindet sich im äußersten Norden der Niederlausitz und ist nach Cottbus und Żary (Sorau) deren drittgrößte Stadt. Im Landkreis Oder-Spree ist Eisenhüttenstadt, nach Spree, die zweitgrößte Stadt. Geografie. Eisenhüttenstadt liegt auf einer Talsandterrasse des Warschau-Berliner Urstromtales. Im Süden ist es vom Hügelland einer Endmoräne, den Diehloer Bergen, begrenzt. In Eisenhüttenstadt mündet der Oder-Spree-Kanal in die Oder. Die Stadt liegt etwa 25 Kilometer südlich von Frankfurt (Oder), 25 Kilometer nördlich von Guben und 110 Kilometer von Berlin entfernt. Historischer Überblick. Bereits nach 1251 wurde auf dem heutigen Stadtgebiet im Rahmen der Territorialpolitik des meißnischen Markgrafen Heinrichs des Erlauchten die Stadt Fürstenberg (Oder) im Verband der Niederlausitz gegründet. 1286 ist sie als Civitas und Zollstätte bezeugt. Im 14. Jahrhundert veranlasste Kaiser Karl IV. den Bau einer Stadtmauer. Von 1316 bis 1817 stand die Grundherrschaft mit geringen Unterbrechungen dem Kloster Neuzelle zu. Der in der ersten Hälfte des 14. Jahrhunderts gebildete Rat hatte die Niedergerichte inne, gemeinsam mit dem Abt von Neuzelle auch die Obergerichte. 1635 kam Fürstenberg (Oder) nach dem Prager Frieden mit der Niederlausitz zum Kurfürstentum Sachsen, 1815 fiel es an Preußen. Das abseits der Fernstraße Frankfurt (Oder)–Guben an einer wenig bedeutenden Oderfähre gelegene, aber als Zollstätte wichtige Städtchen, in dem auch Fischerei und Schifffahrt betrieben wurden, hatte 1830 eine Einwohnerzahl von 1.686. Mit dem Bau der Bahn von Frankfurt (Oder) nach Breslau 1846 und im Anschluss an den hier in die Oder mündenden Oder-Spree-Kanal (1891) begann eine industrielle Entwicklung mit Glashütten, Werften, Säge-, Öl- und Getreidemühlen. Die Jüdische Gemeinde der Stadt nahm 1890 ihren Friedhof in Nutzung, der später von den Nazis zerstört wurde. Zwischen 1871 und 1900 verdoppelte sich die Bevölkerungszahl auf 5.700, bis 1933 stieg sie auf 7.054. Im Jahre 1925 wurde ein Oderhafen angelegt. Für die Kriegsvorbereitungen der Nationalsozialisten entstand ein unterirdisches Chemiewerk, in dem während des Zweiten Weltkrieges Häftlinge eines Außenlagers des KZ Sachsenhausen und Kriegsgefangene des M-Stammlager III B (Kriegsgefangenen-Mannschafts-Stammlager) Zwangsarbeit verrichteten, bei der Tausende ums Leben kamen. Außerdem wurden sie eingesetzt bei der "Degussa", im Motorenwerk "Borsig", im "Kraftwerk" an der Oder, im "Granitlager", im "Forst" und beim Straßenbau. Zwischen 1940 und 1943 wurde am Oder-Spree-Kanal ein neuer Binnenhafen errichtet, der heutige Hafen Eisenhüttenstadt. Am 24. April 1945 besetzte die Rote Armee die Stadt. Fürstenberg (Oder) war Garnisonsstadt der sowjetischen Truppen. Rodung nach dem symbolischen ersten Axthieb Grundsteinlegung im Hüttenkombinat Ost durch Minister Selbmann Auf dem III. Parteitag der SED vom 20. bis 24. Juli 1950 wurde der Beschluss zum Bau des Eisenhüttenkombinats Ost (EKO) und einer sozialistischen Wohnstadt bei Fürstenberg (Oder) gefasst. Eisenhüttenstadt gilt somit als die erste „sozialistische Stadt“ der DDR und ist als reine Planstadt entstanden. Am 18. August 1950 erfolgte der symbolische erste Axthieb zum Baubeginn des Eisenhüttenkombinats. Am 1. Januar 1951 legte Minister Fritz Selbmann den Grundstein für den ersten Hochofen, der am 19. September 1951 den Betrieb aufnahm. Bis 1955 entstanden fünf weitere Hochöfen. Am 1. Februar 1953 wurde die Wohnstadt als selbstständiger Stadtkreis aus dem Kreis Fürstenberg herausgelöst und am 7. Mai 1953 aus Anlass des Todes von Stalin in Stalinstadt umbenannt. Ursprünglich sollte die Stadt zum 70. Todestag von Karl Marx den Namen "Karl-Marx-Stadt" erhalten., den dann aber stattdessen Chemnitz erhielt. Ende des Jahres 1953 hatte die Stadt 2.400 Einwohner, im Jahre 1960 bereits 24.372. Fürstenberg (Oder) wurde 1952 Kreisstadt und hatte 1960 eine Einwohnerzahl von 6.749. Am 13. November 1961 wurden die Städte Fürstenberg (Oder) (mit dem Ortsteil Schönfließ) und Stalinstadt zu Eisenhüttenstadt zusammengeschlossen, um im Rahmen der Entstalinisierung den unerwünscht gewordenen Namen zu tilgen. Dabei wurde die Stadt Fürstenberg (Oder) aus dem Landkreis Fürstenberg herausgelöst und der bereits unter dem Namen Stalinstadt bestehenden kreisfreien Stadt zugeschlagen. Eisenhüttenstadt war dann bis zur Bildung des Landkreises Oder-Spree sowohl kreisfreie Stadt als auch Kreisstadt des Kreises Eisenhüttenstadt. Am 19. September 1986 wurde unter großer politischer Anteilnahme in der Bundesrepublik ein Abkommen über die erste deutsch-deutsche Städtepartnerschaft zwischen Saarlouis und Eisenhüttenstadt unterzeichnet. Mit dem Ausbau des Hüttenwerks stieg die Einwohnerzahl bis 1988 auf den historischen Höchststand von über 53.000. Im Jahre 1993 erfolgte die Eingemeindung des Ortes Diehlo. 1996 wurde die Neue Deichbrücke über den Oder-Spree-Kanal wiederaufgebaut. Mit dem Strukturwandel nach der Wiedervereinigung ist die Einwohnerzahl auf 31.000 gefallen, mit weiter fallender Tendenz. Um den Schrumpfungsprozess zu beherrschen, wurde inzwischen ein Stadtumbauprogramm begonnen, das unter anderem den Abriss von 4.500 Wohnungen bis zum Jahre 2010 und die Sanierung von 3.500 bis 4.000 Wohnungen bis zum Jahre 2015 vorsieht. Name. Der etwas sperrige Name der Stadt hat immer schon dazu animiert, griffigere Bezeichnungen zu kreieren. In der Umgangssprache wird die Stadt oft verkürzt mit „Hüttenstadt“ oder „Hütte“ bezeichnet. Um die etwas bevorzugte Behandlung der Stadt zu karikieren, wurde die Stadt von der (nicht in Eisenhüttenstadt lebenden) Bevölkerung auch als "Schrottgorod" bezeichnet. Schrott verballhornte darin das Eisen als ein zur Wiederverwertung anstehendes Material, die Endung "-gorod" die russische Endung für -stadt. Eingemeindungen. Die Gemeinde Diehlo wurde im Jahr 1993 Ortsteil von Eisenhüttenstadt. Bevölkerungsentwicklung. "Wohnkomplex II" - Saarlouiser Straße Es folgt eine Übersicht mit den Einwohnerzahlen von Eisenhüttenstadt (vor 1961 Stalinstadt) nach dem jeweiligen Gebietsstand (jeweils 31. Dezember). Dabei handelt es sich um amtliche Fortschreibungen der Staatlichen Zentralverwaltung für Statistik (bis 1989) und des Amtes für Statistik Berlin-Brandenburg (ab 1990). Stadtverordnetenversammlung. Das Rathaus in Eisenhüttenstadt, 2005 Die Stadtverordneten von BVFO (Bürgervereinigung Fürstenberg/Oder), Bündnis 90/Die Grünen und Piraten bilden dabei eine gemeinsame Fraktion. → "Ergebnisse der Kommunalwahlen in Eisenhüttenstadt" Bürgermeister. Püschel wurde in der Bürgermeisterwahl vom 27. September 2009 mit 53,4 % der gültigen Stimmen für eine Amtszeit von acht Jahren gewählt (Wahlbeteiligung 63,5 %). Wappen. Das Wappen wurde am 31. Januar 1992 genehmigt. Blasonierung: „In goldenem Feld über drei blauen Wellenfäden in Rot rechts ein Hochhaus, links ein Hochofensystem überhöht von dem bandförmig blauen Teilumriss einer links gewandten Friedenstaube.“ Eisenhüttenstadt führt seit 1973 ein Wappen, das von Johannes Hansky (1925–2004) entworfen wurde. Im Vordergrund werden ein rotes Hochhaus und daneben ein roter Hochofen dargestellt, die das metallurgische Zentrum symbolisieren. Darüber schwebt stilisiert eine Friedenstaube. Im Schildfuß symbolisieren drei blaue Wellen die Lage an der Oder. Kirchliche Einrichtungen. Die evangelische Friedensgemeinde Eisenhüttenstadt nutzte für Gottesdienste in Schönfließ zunächst einen Raum in einer Gaststätte. In der Neustadt war zunächst ein sogenannter Evangeliumswagen, zwischenzeitlich ein Zelt und ab 1952 eine Baracke vorhanden. Für die geplanten Wohnsiedlungen, damals noch als Stalinstadt, waren seitens Walter Ulbricht keine kirchlichen Einrichtungen und insbesondere "keine Kirchtürme" vorgesehen. Das heutige evangelische Kirchengebäude und Gemeindezentrum in der Neustadt wurde nach 1976 erbaut und geht mit auf den langjährigen Einsatz des späteren Ehrenbürgers Pfarrer Heinz Bräuer zurück. Im Ortsteil Fürstenberg wurde die im Krieg stark zerstörte Nikolaikirche provisorisch aufgebaut und nach der Wende grundlegend saniert. Die neuapostolische Gemeinde in Eisenhüttenstadt hat eine Kirche im Stadtteil Fürstenberg. Seit den 1920er Jahren gab es eine baptistische Gemeindearbeit, aus der 1990 die Evangelisch-Freikirchliche Gemeinde als selbstständige Gemeinde hervorging. Kultur und Sehenswürdigkeiten. Die „Bewahrende (Sich schützende Frau)“ von Robert Riehl In der Liste der Baudenkmale in Eisenhüttenstadt und der Liste der Bodendenkmale in Eisenhüttenstadt stehen die vom Land Brandenburg unter Denkmalschutz gestellten Kulturdenkmale der Stadt. Im Ortsteil Fürstenberg sind an der Königstraße 61 durch den Künstler Gunter Demnig Stolpersteine für Emma und Siegfried Fellert verlegt worden. Sport. Die Fußballvereine Eisenhüttenstädter FC Stahl und FSV Dynamo Eisenhüttenstadt spielen derzeit in der Landesliga Brandenburg. Wirtschaft. a> des Hauptarbeitgebers der Stadt, 2012 Am 18. August 1950 gab der Minister für Industrie der DDR, Fritz Selbmann, mit den ersten Axtschlägen zum Fällen einer Kiefer den Start frei für den Bau des Eisenhüttenkombinats Ost (EKO). Die Wirtschaft in Eisenhüttenstadt wird heute von der ArcelorMittal Eisenhüttenstadt GmbH dominiert. ArcelorMittal Eisenhüttenstadt ist ein integriertes Hüttenwerk und gehört zu ArcelorMittal, dem weltweit größten Stahlkonzern. Das aus dem "VEB Eisenhüttenkombinat Ost" bzw. der "EKO Stahl GmbH" hervorgegangene Unternehmen ist gegenwärtig das größte in Brandenburg. Die kanadische 5N Plus eröffnete 2008 ein Werk in Eisenhüttenstadt. Seit dem Frühjahr 2011 produziert die Firma Progroup AG, Wellpappen-Rohpapiere für die Verpackungsindustrie in Europa. Im Zuge der Ansiedelung der neuen Papierfabrik wurde auf dem Gelände ein neues Heizkraftwerk von der Firma EnBW Propower GmbH sowie eine neue Kläranlage des örtlichen Trink- und Abwasserzweckverbandes in Betrieb genommen. Medien. In Eisenhüttenstadt erscheint als tägliche Regionalzeitung die Märkische Oderzeitung mit einem eigenen Lokalteil. Daneben werden die Anzeigenblätter "Märkischer Markt", "Märkischer Sonntag" und "Der Oderland-Spiegel" herausgegeben. Außerdem wird in der Stadt mit dem "Oder-Spree-Fernsehen" (OSF) ein lokales Fernsehprogramm produziert, das in Eisenhüttenstadt, Neuzelle und Beeskow über Kabel zu empfangen ist. Verkehr. Die Bahnstrecke Frankfurt (Oder)–Cottbus verläuft durch Eisenhüttenstadt. Über sie ist die Stadt durch die stündlich verkehrende Regionalbahn RB 11 mit Cottbus und Frankfurt (Oder) verbunden. In der Hauptverkehrszeit verkehrt zusätzlich der Regional-Express RE 1, dann sind Direktfahrten bis nach Berlin, Potsdam und Magdeburg möglich. Die nächste Autobahn ist die A 12 mit der Auffahrt in Frankfurt (Oder). In der Stadt beginnt die Bundesstraße 246; sie wird von der B 112 durchquert, die gegenwärtig zur Oder-Lausitz-Straße ausgebaut wird. Obwohl die Stadt unmittelbar an der polnischen Grenze liegt, befindet sich kein Grenzübergang in unmittelbarer Nähe. Eine Brücke über die Oder wurde 1945 gesprengt und bisher nicht wieder aufgebaut. Jedoch befindet sich seit 2003 eine Brücke nördlich von Eisenhüttenstadt über die Oder in Planung. Baubeginn und Fertigstellung sind ungewiss, da sich gegen den Bau Widerstand breit macht. Die nächsten Übergänge nach Polen befinden sich in Frankfurt (Oder) und Guben. Der nächstgelegene Flughafen ist Berlin-Schönefeld. Ein Verkehrslandeplatz liegt am Nordwestrand der Stadt im zur Gemeinde Siehdichum gehörenden Pohlitz. Eisenhüttenstadt liegt an einer Bundeswasserstraße der Ausbauklasse III, der Oder-Spree-Kanal mündet hier in die Oder. Auf dem Wasserweg sind die Küsten der Nord- und Ostsee sowie viele europäische Metropolen zu erreichen. Die Stadt verfügt über mehrere Binnenhäfen mit Bahnanschluss und Straßenanbindung. Bildung. Heute existieren in Eisenhüttenstadt fünf Grundschulen, eine Gesamtschule mit gymnasialer Oberstufe und ein Gymnasium. Weiterhin gibt es ein Oberstufenzentrum mit angeschlossenem beruflichem Gymnasium, drei berufliche Schulen und Fachoberschulen, zwei Förderschulen und zwei weitere Weiterbildungseinrichtungen. Träger der Schulen sind die Stadt Eisenhüttenstdt, der Landkreis Oder-Spree und private Träger. Albert-Schweitzer-Gymnasium. 1991 entstand das durch den Stadtkreis Eisenhüttenstadt getragene Gymnasium als "Städtisches Gymnasium Eisenhüttenstadt" Mit Neubildung des Landkreises Oder-Spree wechselte 1993 die Trägerschaft. Am 30. 10. 1996 erhielt die Schule den verpflichtenden Namen "Albert-Schweitzer-Gymnasium". Die Namensgebung erfolgte im Beisein des damaligen Bundespräsidenten Roman Herzog und des Ministerpräsidenten Manfred Stolpe. Seit Mai 2009 kann auf dem Schulgelände eine Albert-Schweitzer-Ausstellung besichtigt werden, die eine Dauerleihgabe des Niederlausitzer Albert-Schweitzer-Freundeskreises ist. Oberstufenzentrum Oder-Spree. Das Oberstufenzentrum Oder-Spree mit über 3500 Auszubildenden und Schülern ist die größte Bildungseinrichtung im Landkreis Oder-Spree und betreibt den Außenstandort "Gottfried-Wilhelm-Leibnitz" in der Waldstraße 10. Die Einrichtung vereint Bildungsgänge der Berufsschule, der Berufsfachschule, der Fachoberschule und des beruflichen Gymnasiums. Ein wesentlicher Schwerpunkt der Bildungs-und Erziehungsarbeit ist die Pflege vielfältiger internationaler Beziehungen mit Partnerschulen unter anderem in Japan, Schweden, Frankreich, Holland, Dänemark und Polen. Die Schule fusionierte 2012 mit dem OSZ Palmnicken in Spree, wo die Schulleitung und das Sekretariat ihren Sitz haben. Einstellungsgröße. Die Einstellungsgröße bezeichnet in der Filmkunst das Größenverhältnis des abgebildeten Subjekts/Objekts zur Cadrage, also dem vorgegebenen Bildfeld. Die Einstellungsgröße ergibt sich aus der Distanz der Kamera zum aufgenommenen Subjekt/Objekt und den gewählten Abbildungsparametern der Kamera. Einstellungsgrößen finden neben der Filmkunst und der Fotografie auch in der Comic-Kunst Anwendung. Sie sind ein wichtiges Mittel bildlichen/filmischen Erzählens und können psychologische Akzente setzen. In der Regel werden die Einstellungsgrößen im Storyboard definiert. Grundsätzlich gibt es viele verschiedene Bezeichnungen und Schemata zur Definition von Einstellungsgrößen. Die Grenzen zwischen den einzelnen Einstellungen sind nicht streng, und es gibt regionale Unterschiede (USA, Europa), wie auch persönliche Handschriften eines Regisseurs, Kameramanns oder Filmemachers. Je mehr Bildinhalt um den fokussierten Hauptinhalt herum zu sehen ist, desto totaler ist die Einstellung. Die Einstellungen werden oft in zwei Hauptgruppen unterteilt: Die "totalen Einstellungen" (engl. "long shots") und die "nahen Einstellungen" "(close-ups)". Im Folgenden sind die wichtigsten kurz vorgestellt: "Supertotale", "Totale", "Halbtotale", "Amerikanische" Einstellung, "Halbnahe", "Nahe", "Groß-", "Detailaufnahme", "Italienische" Einstellung. Ein Wechsel der Einstellungsgröße bei laufender, stationärer Kamera wird als Zoom bezeichnet. Ein Wechsel kann aber auch durch eine Kamerafahrt erfolgen, was bei szenischen Produktionen wesentlich häufiger der Fall ist als ein Zoom. Da sich beim Zoom die Perspektive nicht verändert (der Kamerastandort bleibt gleich), wird diese Methode des Wechsels der Einstellungsgröße als flach und leblos angesehen. Sie entspricht auch nicht der alltäglichen Seherfahrung des Publikums, die eine Veränderung des Bildausschnittes instinktiv mit einer Bewegung des Betrachters verbindet. Eine Sonderform ist der Dolly-Zoom, eine Kamerafahrt mit gleichzeitig gegenläufigem Zoom. Die Einstellungsgröße bleibt bei einem sauber ausgeführten Dolly Zoom gleich, während die Veränderung in der Perspektive ein Schwindelgefühl vermittelt. Extreme Totale. In der "Supertotalen", auch "Weite", "Panorama" oder "Weitwinkel-Ansicht" genannt, ist eine Landschaft der Bildinhalt. Menschen erscheinen darin verschwindend klein. Sie wird zum Beispiel für "Establishing Shots" eingesetzt, um das Geschehen in seine Umgebung eingebettet zu zeigen. Als psychologischer Akzent kann sie Gefühle wie Einsamkeit, Isolation, Fremdheit und/oder Gefahr, aber auch Freiheit und Unendlichkeit ausdrücken. Diese Einstellung eignet sich auch, um die Tiefe der Landschaft zu verdeutlichen, wenn Personen diese betreten oder Fahrzeuge hineinfahren. Totale. Die Einstellung wird verwendet, wenn eine Person oder Gruppe vollständig in ihrer Umgebung, also "total" zu sehen ist, die Landschaft aber nicht den Hauptbildinhalt ausmacht. Der Mensch erscheint zwar größer als in der Supertotalen, aber immer noch relativ unwichtig. Die Totale wird häufig für "Establishing Shots" eingesetzt. In Filmen, die überwiegend oder nur aus Totalen bestehen, wirken die Akteure unnahbar. In Dokumentarfilmen sind totale Einstellungen häufiger als in Spielfilmen zu finden. Sie sind dafür da, um einen Überblick über das Geschehen zu geben. Halbtotale. Die Figuren werden von Kopf bis Fuß gezeigt. Diese Einstellungsgröße lässt sich gut für Menschengruppen einsetzen, oder für körperliche Aktionen, beispielsweise in der Slapstick-Comedy. In der Halbtotalen ist die Körpersprache oft wichtiger als der Dialog. Full Shot. Der "Full Shot" ist eine besondere Form der halbtotalen Einstellung. Er zeigt nur die Personen und wenig oder gar nichts von deren Umgebung. Medium Shot. Die Figuren werden vom Kopf abwärts gezeigt bis zur Hüfte; man nimmt hier die breiteste Stelle der Hüfte als Anhaltspunkt, um die Person anzuschneiden; die unmittelbare Umgebung ist im Hintergrund erkennbar. Eine Sonderform ist die amerikanische Einstellung (american shot, AS), in der die Darsteller bis etwa zum Knie gezeigt werden. Diese Einstellungsgröße wurde oft im Western verwendet, um die Cowboys mitsamt ihrer Waffe zu zeigen. Halbnah. Die Figur wird vom Kopf bis zur Hüfte gezeigt. Diese Einstellung entspricht der natürlichen Sehsituation und wird deswegen häufig in Dialogszenen verwendet. Die halbnahe Einstellung wird aber auch in geschlossenen Räumen verwendet und in der deutschen Filmproduktion als "halbnaher Einer", "Zweier" oder "Dreier" usw. bezeichnet. Nahe. Die Figur wird vom Kopf bis zur Mitte des Oberkörpers gezeigt. Diese Einstellungsgröße kommt zum Beispiel in Gesprächsszenen zum Einsatz, wenn es auf die Mimik und Gestik ankommt. Auch sieht der Zuschauer in dieser Einstellung, wohin die Figur schaut, und kann daraus Schlüsse über den Fortgang der Handlung ziehen. In deutschen Filmproduktionen werden traditionell die Begriffe "nahe Einer" oder "Zweier" verwendet. Großaufnahme. Der Kopf der Figur und ein Teil der Schultern werden abgebildet. Oft sind Teile des gefilmten Objekts (Hüte usw.) abgeschnitten. Die Mimik steht hier deutlich im Vordergrund. Die Einstellungsgröße kann verwendet werden, um Gefühle im Stadium ihrer Entstehung zu zeigen oder Handlungen, die nur mit den Händen vorgenommen werden. Detail. Es wird nur ein Ausschnitt des Gesamtbildes gezeigt, beispielsweise nur die Augen oder der Mund eines Menschen oder andere wichtige Details der Szene, wie etwa die Worte, die auf einem Computer getippt werden. Die Aufmerksamkeit des Zuschauers wird auf einen kleinen Bildausschnitt gelenkt. Die intensive Bildwirkung vermittelt Intimität oder erzeugt auch eine abstoßende Wirkung. Italienisch. Besondere Art der Detailaufnahme, bei der nur die Augen des Protagonisten gezeigt werden. Ein bekanntes Beispiel ist in Sergio Leones Western "C'era una volta il West" "(Spiel mir das Lied vom Tod)" in den Szenen des Duells zwischen Henry Fonda und Charles Bronson zu sehen. Bedeutungen der Einstellungen. Jede Einstellungsform eignet sich für bestimmte Zwecke besonders gut. Eine wichtige Informationsquelle ist aber auch der Wechsel der Einstellungen. An ihr lassen sich stilistische Merkmale und auch die Handschrift des Regisseurs erkennen. Auch verschiedene Filmtraditionen und –kulturen verwenden traditionell sehr unterschiedliche Wechsel in den Einstellungen. Actionfilme oder Dokumentarfilme weisen oft einen hohen Anteil "long shots" auf, weil für diese Filme Mimik und nonverbale Ausdrucksformen weniger wichtig sind, sondern gesamte Vorgänge eingefangen werden. Die erforderlichen schauspielerischen Leistungen sind bei diesen Filmtypen vergleichsweise gering. Auch quasidokumentarische Filme enthalten oft viele totale Einstellungen und verraten hiermit ihre Herkunft aus dem Dokumentarfilm. Filme, die Beziehungen der Figuren und das Gefühl in den Vordergrund stellen, enthalten viele Nahe Einstellungen. Erbium. Erbium ist ein chemisches Element mit dem Elementsymbol Er und der Ordnungszahl 68. Im Periodensystem steht es in der Gruppe der Lanthanoide und zählt damit auch zu den Metallen der seltenen Erden. Der Name leitet sich von der Grube Ytterby bei Stockholm ab, wie auch der von Ytterbium, Terbium und Yttrium. Geschichte. Erbium wurde 1843 von Carl Gustav Mosander entdeckt. Allerdings handelte es sich bei dem vermeintlich reinen Oxid um eine Mischung der Oxide aus Erbium, Scandium, Holmium, Thulium und Ytterbium. Um die spätere Aufklärung machten sich die Chemiker Marc Delafontaine und Nils Johan Berlin verdient. Reines Erbiumoxid stellten 1905 der französische Chemiker Georges Urbain und der amerikanische Chemiker Charles James her. Vorkommen. Erbium ist ein seltenes Metall (3,5 ppm). Gewinnung und Darstellung. Nach einer aufwändigen Abtrennung der anderen Erbiumbegleiter wird das Oxid mit Fluorwasserstoff zum Erbiumfluorid umgesetzt. Anschließend wird mit Calcium unter Bildung von Calciumfluorid zum metallischen Erbium reduziert. Die Abtrennung verbleibender Calciumreste und Verunreinigungen erfolgt in einer zusätzlichen Umschmelzung im Vakuum. Physikalische Eigenschaften. Das silberweiß glänzende Metall der seltenen Erden ist schmiedbar, aber auch ziemlich spröde. Chemische Eigenschaften. In Luft läuft Erbium grau an, ist dann aber recht beständig. Bei höheren Temperaturen verbrennt es zum Sesquioxid Er2O3. Mit Wasser reagiert es unter Wasserstoffentwicklung zum Hydroxid. In Mineralsäuren löst es sich unter Bildung von Wasserstoff auf. In seinen Verbindungen liegt es in der Oxidationsstufe +3 vor, die Er3+-Kationen bilden in Wasser rosafarbene Lösungen. Feste Salze sind ebenfalls rosa gefärbt. Verwendung. Erbium-dotierte Lichtwellenleiter werden für optische Verstärker verwendet, die in der Lage sind, ein Lichtsignal zu verstärken, ohne es zuvor in ein elektrisches Signal zu wandeln. Gold als Wirtsmaterial dotiert mit einigen hundert ppm Erbium wird als Sensormaterial magnetischer Kalorimeter zur hochauflösenden Teilchendetektion in der Physik und Technik verwendet. Erbium wird neben anderen Selten-Erd-Elementen wie Neodym oder Holmium zur Dotierung von Laserkristallen in Festkörperlasern eingesetzt (Er:YAG-Laser, siehe auch). Der Er:YAG-Laser wird hauptsächlich in der Humanmedizin eingesetzt. Er hat eine Wellenlänge von 2940 nm und damit eine extrem hohe Absorption im Gewebewasser von ca. 12000 pro cm. Als reiner Beta-Strahler wird 169Er in der Nuklearmedizin zur Therapie bei der Radiosynoviorthese eingesetzt. Einsteinium. Einsteinium ist ein ausschließlich künstlich erzeugtes chemisches Element mit dem Elementsymbol "Es" und der Ordnungszahl 99. Im Periodensystem steht es in der Gruppe der Actinoide (7. Periode, f-Block) und zählt zu den Transuranen. Einsteinium ist ein radioaktives Metall, welches in gerade noch wägbaren Mengen herstellbar ist. Es wurde 1952 nach dem Test der ersten amerikanischen Wasserstoffbombe entdeckt und Albert Einstein zu Ehren benannt, der jedoch persönlich mit der Entdeckung bzw. Forschung an Einsteinium nichts zu tun hatte. Es entsteht in sehr geringen Mengen in Kernreaktoren. Das Metall wie auch seine Verbindungen werden in geringen Mengen in erster Linie zu Studienzwecken gewonnen. Geschichte. Einsteinium wurde zusammen mit Fermium nach dem Test der ersten amerikanischen Wasserstoffbombe, Ivy Mike, am 1. November 1952 auf dem Eniwetok-Atoll gefunden. Erste Proben erhielt man auf Filterpapieren, die man beim Durchfliegen durch die Explosionswolke mitführte. Größere Mengen isolierte man später aus Korallen. Aus Gründen der militärischen Geheimhaltung wurden die Ergebnisse zunächst nicht publiziert. Eine erste Untersuchung der Explosionsüberreste hatte die Entstehung eines neuen Plutoniumisotops 244Pu aufgezeigt, dies konnte nur durch die Aufnahme von sechs Neutronen durch einen Uran-238-Kern und zwei folgende β-Zerfälle entstanden sein. Zu der Zeit nahm man an, dass die Absorption von Neutronen durch einen schweren Kern ein seltener Vorgang wäre. Die Identifizierung von 244Pu ließ jedoch den Schluss zu, dass Urankerne viele Neutronen einfangen können, was zu neuen Elementen führt. Die Trennung der gelösten Actinoid-Ionen erfolgte in Gegenwart eines Citronensäure/Ammoniumcitrat-Puffers im schwach sauren Medium (pH ≈ 3,5) mit Ionenaustauschern bei erhöhter Temperatur. Element 99 (Einsteinium) wurde schnell nachgewiesen; man fand zuerst das Isotop 253Es, einen hochenergetischen α-Strahler (6,6 MeV). Es entsteht durch Einfangen von 15 Neutronen aus 238U, gefolgt von sieben β-Zerfällen. Das Team in Berkeley war zudem besorgt, dass eine andere Forschergruppe die leichteren Isotope des Elements 100 durch Ionenbeschuss entdecken und veröffentlichen könnte, bevor sie ihre unter Geheimhaltung stehende Forschung hätten veröffentlichen können. Denn im ausgehenden Jahr 1953 sowie zu Anfang des Jahres 1954 beschoss eine Arbeitsgruppe des Nobel-Instituts für Physik in Stockholm Urankerne mit Sauerstoffkernen; es bildete sich das Isotop mit der Massenzahl 250 des Elements 100 (250Fm). Das Team in Berkeley veröffentlichte schon einige Ergebnisse der chemischen Eigenschaften beider Elemente. Schließlich wurden die Ergebnisse der thermonuklearen Explosion im Jahr 1955 freigegeben und anschließend publiziert. Letztlich war die Priorität des Berkeley-Teams allgemein anerkannt, da ihre fünf Publikationen der schwedischen Publikation vorausgingen, und sie sich auf die zuvor noch geheimen Ergebnisse der thermonuklearen Explosion von 1952 stützen konnten. Damit war das Vorrecht verbunden, den neuen Elementen den Namen zu geben. Sie entschieden sich, diese fortan nach berühmten, bereits verstorbenen Wissenschaftlern zu benennen. Man war sich schnell einig, die Namen zu Ehren von Albert Einstein und Enrico Fermi zu vergeben, die beide erst vor kurzem verstorben waren: „We suggest for the name for the element with the atomic number 99, einsteinium (symbol E) after Albert Einstein and for the name for the element with atomic number 100, fermium (symbol Fm), after Enrico Fermi.“ Die Bekanntgabe für die beiden neu entdeckten Elemente "Einsteinium" und "Fermium" erfolgte durch Albert Ghiorso auf der 1. Genfer Atomkonferenz, die vom 8. bis 20. August 1955 stattfand. Das Elementsymbol für Einsteinium wurde später von "E" auf "Es" geändert. Isotope. Sämtliche bisher bekannten 17 Nuklide und 3 Kernisomere sind radioaktiv und instabil. Die bekannten Massenzahlen reichen von 241 bis 258. Die längste Halbwertszeit hat das Isotop 252Es mit 471,7 Tagen, so dass es auf der Erde keine natürlichen Vorkommen mehr geben kann. 254Es hat eine Halbwertzeit von 275,7 Tagen, 255Es von 39,8 Tagen und 253Es von 20,47 Tagen. Alle weiteren radioaktiven Isotope haben Halbwertszeiten unterhalb von 40 Stunden, bei der Mehrzahl von ihnen liegt diese unter 30 Minuten. Von den 3 Kernisomeren ist 254"m"Es das stabilste mit t½ = 39,3 Stunden. "→ Liste der Einsteiniumisotope" Gewinnung und Darstellung. Einsteinium wird durch Beschuss von leichteren Actinoiden mit Neutronen in einem Kernreaktor erzeugt. Die Hauptquelle ist der 85 MW High-Flux-Isotope Reactor am Oak Ridge National Laboratory in Tennessee, USA, der auf die Herstellung von Transcuriumelementen (Z > 96) eingerichtet ist. Im Jahr 1961 wurde genügend Einsteinium synthetisiert, um eine wägbare Menge des Isotops 253Es zu erhalten. Diese Probe wog etwa 0,01 mg und wurde zur Herstellung von Mendelevium eingesetzt. Weiteres Einsteinium wurde am Oak Ridge National Laboratory durch Beschuss von 239Pu mit Neutronen hergestellt. Ungefähr 3 Milligramm wurden in einer vierjährigen Dauerbestrahlung aus einem Kilogramm Plutonium und anschließender Trennung erhalten. Gewinnung von Einsteiniumisotopen. Durch Beschuss von Uran mit fünffach ionisierten Stickstoff- und sechsfach ionisierten Sauerstoffatomen wurden gleichfalls Einsteinium- und Fermiumisotope erzeugt. Das Isotop 248Es wurde beim Beschuss von 249Cf mit Deuterium identifiziert. Es zerfällt hauptsächlich durch Elektroneneinfang (ε) mit einer Halbwertszeit von 25 ± 5 Minuten aber auch durch die Aussendung von α-Teilchen (6,87 ± 0,02 MeV). Das Verhältnis (ε / α) von ∼ 400 konnte durch die Menge des durch Elektroneneinfang entstandenen 248Cf identifiziert werden. Die Isotope 249Es, 250Es, 251Es und 252Es wurden durch Beschuss von 249Bk mit α-Teilchen erzeugt. Dabei können 4 bis 1 Neutronen den Kern verlassen, so dass die Bildung von vier unterschiedlichen Isotopen möglich ist. Obwohl das Isotop 252Es die längste Halbwertszeit ausweist, ist das Isotop 253Es leichter zugänglich und wird überwiegend für die Bestimmung der chemischen Eigenschaften herangezogen. Es wurde durch Bestrahlung von 100 bis 200 μg 252Cf mit thermischen Neutronen erhalten (Flussdichte: 2 bis 5×1014 Neutronen × cm−2 s−1, Zeitraum: 500 bis 900 h). Zur Trennung wurde Ammonium-α-hydroxyisobutyrat verwendet. Darstellung elementaren Einsteiniums. Einsteinium erhält man durch Reduktion von Einsteinium(III)-fluorid mit Lithium oder Einsteinium(III)-oxid mit Lanthan. Eigenschaften. Quarzampulle (9 mm Durchmesser) mit ca. 300 Mikrogramm Es-253. Das Leuchten entsteht durch die intensive Strahlung. Im Periodensystem steht das Einsteinium mit der Ordnungszahl 99 in der Reihe der Actinoide, sein Vorgänger ist das Californium, das nachfolgende Element ist das Fermium. Sein Analogon in der Reihe der Lanthanoide ist das Holmium. Physikalische Eigenschaften. Bei Einsteinium handelt es sich um ein künstliches, radioaktives Metall mit einem Schmelzpunkt von 860 °C, einem Siedepunkt von 996 °C und einer Dichte von 8,84 g/cm3. Es kristallisiert im kubischen Kristallsystem in der mit dem Gitterparameter "a" = 575 pm, was einem kubisch flächenzentrierten Gitter (f.c.c.) beziehungsweise einer kubisch dichtesten Kugelpackung mit der Stapelfolge ABC entspricht. Die Radioaktivität ist derart stark, dass dadurch das Metallgitter zerstört wird. Das Metall ist divalent und besitzt eine merklich hohe Flüchtigkeit. Chemische Eigenschaften. Einsteinium ist wie alle Actinoide sehr reaktionsfähig. In wässriger Lösung ist die dreiwertige Oxidationsstufe am beständigsten, jedoch kennt man auch zwei- und vierwertige Verbindungen. Zweiwertige Verbindungen konnten bereits als Feststoffe dargestellt werden; der vierwertige Zustand konnte bereits beim chemischen Transport in Tracermengen postuliert werden, eine endgültige Bestätigung steht aber noch aus. Wässrige Lösungen mit Es3+-Ionen haben eine blassrosa Farbe. Sicherheitshinweise. Einstufungen nach der Gefahrstoffverordnung liegen nicht vor, weil diese nur die chemische Gefährlichkeit umfassen und eine völlig untergeordnete Rolle gegenüber den auf der Radioaktivität beruhenden Gefahren spielen. Auch Letzteres gilt nur, wenn es sich um eine dafür relevante Stoffmenge handelt. Verwendung. Einsteinium findet vor allem Anwendung bei der Erzeugung höherer Transurane und Transactinoide. Ansonsten werden das Metall wie auch seine Verbindungen in erster Linie in geringen Mengen zu Studienzwecken gewonnen. Oxide. Einsteinium(III)-oxid (Es2O3) wurde durch Glühen des entsprechenden Nitrats in Submikrogramm-Mengen erhalten. Der Gitterparameter des kubisch-raumzentrierten Kristalls beträgt 1076,6(6) pm. Es sind ferner noch eine monokline und eine hexagonale Lanthan(III)-oxid-Struktur bekannt. Oxihalogenide. Bekannt sind die Oxihalogenide Einsteinium(III)-oxichlorid (EsOCl), Einsteinium(III)-oxibromid (EsOBr) und Einsteinium(III)-oxiiodid (EsOI). Einsteinium(III)-oxichlorid besitzt eine tetragonale Struktur vom PbFCl-Typ. Halogenide. Einsteinium(III)-iodid (EsI3), fotografiert im eigenen Licht Halogenide sind für die Oxidationsstufen +2 und +3 bekannt. Die stabilste Stufe +3 ist für sämtliche Verbindungen von Fluor bis Iod bekannt und auch in wässriger Lösung stabil. Einsteinium(III)-fluorid (EsF3) kann durch Ausfällung aus Einsteinium(III)-chlorid-Lösungen mit Fluorid dargestellt werden, als auch aus Einsteinium(III)-oxid durch Umsetzung mit ClF3 oder F2 bei 1–2 Atmosphären Druck und 300–400 °C. Die Kristallstruktur konnte nicht bestimmt werden, es wird aber davon ausgegangen, dass sie wie bei Berkelium(III)-fluorid (BkF3) und Californium(III)-fluorid (CfF3) dem LaF3-Typ entspricht. Einsteinium(III)-chlorid (EsCl3) ist ein orangefarbener Feststoff und bildet eine hexagonale Struktur vom UCl3-Typ, wobei das Es-Atom 9-fach koordiniert ist. Einsteinium(III)-bromid (EsBr3) ist ein weißgelber Feststoff und bildet eine monokline Struktur vom AlCl3-Typ. Einsteinium(III)-iodid (EsI3) ist ein bernsteinfarbener Feststoff und bildet eine hexagonale Struktur vom BiI3-Typ. Die zweiwertigen Verbindungen des Einsteiniums werden durch Reduktion der dreiwertigen Halogenide mit Wasserstoff dargestellt. Von Einsteinium(II)-chlorid (EsCl2), Einsteinium(II)-bromid (EsBr2) und Einsteinium(II)-iodid (EsI2) sind keine näheren kristallographischen Daten bekannt, wohl aber Messwerte von Absorptionsbanden. Europium. Europium ist ein chemisches Element mit dem Elementsymbol Eu und der Ordnungszahl 63. Im Periodensystem steht es in der Gruppe der Lanthanoide und zählt damit auch zu den Metallen der Seltenen Erden. Nur Europium und Americium sind nach einem Erdteil benannte Elemente. Wie die anderen Lanthanoide ist Europium ein silberglänzendes Schwermetall. Die Eigenschaften des Europiums folgen nicht der Lanthanoidenkontraktion. Aufgrund seiner Elektronenkonfiguration weist das Element eine deutlich geringere Dichte sowie einen niedrigeren Schmelz- und Siedepunkt auf als die benachbarten Elemente. Es ist das chemisch reaktivste Seltenerdmetall. Nach ersten Hinweisen auf das Element durch William Crookes und Paul Émile Lecoq de Boisbaudran konnte 1896 Eugène-Anatole Demarçay das Element zunächst spektroskopisch nachweisen und dann isolieren. Europium hat eine hohe technische Bedeutung in Leuchtstoffen, wie sie etwa in Kathodenstrahlröhrenbildschirmen, welche früher für Computermonitore und Fernseher verwendet wurden, in Leuchtstofflampen sowie in Plasmabildschirmen eingesetzt werden. Sowohl der rote als auch der blaue Leuchtstoff in diesen Bildschirmen und Leuchtmitteln sind Substanzen, die mit Europium dotiert sind und dadurch Fluoreszenz in dem entsprechenden Spektralbereich zeigen. Geschichte. Einen ersten Hinweis auf das später Europium genannte Element fand 1885 William Crookes. Bei der Untersuchung von Fluoreszenzspektren von Samarium-Yttrium-Mischungen konnte er Signale einer ungewöhnlichen orangefarbenen Spektrallinie messen, die in Mischungen der Elemente stärker war als in den reinen Stoffen. Diese auf ein unbekanntes Element hindeutende Spektrallinie nannte er „anormale Linie“, das hypothetische Element Sδ. Eine weitere Entdeckung auf dem Weg zum unbekannten Element machte 1892 Paul Émile Lecoq de Boisbaudran, als er im Funkenspektrum von Samarium neben der anormalen Linie Crookes auch drei bislang unbekannte blaue Spektrallinien entdeckte. 1896 postulierte Eugène-Anatole Demarçay anhand von Ultraviolett-Spektren die Existenz eines bislang unbekannten Elements zwischen Samarium und Gadolinium, wobei er im Jahr 1900 erkannte, dass dieses Element gleich dem von Crookes und Boisbaudran vermuteten sein muss. 1901 gelang es Demarçay, dieses durch fraktionierte Kristallisation der Samarium/Europium-Magnesium-Nitrat-Doppelsalze zu isolieren. Er nannte das Element nach dem Kontinent Europa "Europium". In Analogie zum Europium benannten Glenn T. Seaborg, Ralph A. James und Leon O. Morgan 1948 das sich im Periodensystem direkt unter dem Europium befindende Actinoid ebenfalls nach einem Kontinent "Americium". Die erste wichtige technische Anwendung des Elements war die Produktion von mit Europium dotiertem Yttriumvanadat. Dieser 1964 von Albert K. Levine und Frank C. Palilla entdeckte rote Leuchtstoff spielte bald eine wichtige Rolle bei der Entwicklung des Farbfernsehens. Für diese Anwendung wurde daraufhin das erste Bergwerk für die Gewinnung von Seltenen Erden, das seit 1954 im kalifornischen Mountain Pass betrieben wurde, stark ausgebaut. Vorkommen. Europium ist auf der Erde ein seltenes Element, die Häufigkeit in der kontinentalen Erdkruste beträgt etwa 2 ppm. Europium kommt als Nebenbestandteil in verschiedenen Lanthanoid-Mineralen vor, Minerale mit Europium als Hauptbestandteil sind unbekannt. Das Element ist sowohl in Ceriterden wie Monazit und Bastnäsit als auch in Yttererden wie Xenotim enthalten, der Anteil an Europium beträgt in der Regel zwischen 0,1 und 0,2 %. Das für die Gewinnung von Europium wichtigste Vorkommen war bis 1985 das Bastnäsiterz in Mountain Pass, Kalifornien, danach gewannen chinesische Bergwerke – vor allem das Erzvorkommen in Bayan Obo – große Bedeutung. In manchen magmatischen Gesteinen ist die Konzentration an Europium höher oder geringer, als nach dem mit Chondriten als Standard bestimmten relativen Häufigkeitsverhältnis der Seltenerdmetalle zu erwarten wäre. Dieses Phänomen wird als Europiumanomalie bezeichnet und beruht darauf, dass unter reduzierenden Bedingungen in Magma Eu3+ zu Eu2+ reduziert werden kann. Dieses besitzt einen größeren Ionenradius als dreiwertiges Europium und wird darum leicht in bestimmte Minerale, etwa an Stelle von Strontium oder Calcium in Kalifeldspat und Plagioklas eingebaut, welche dadurch eine "positive" Europiumanomalie aufweisen. Diese Minerale kristallisieren aus der Magmaschmelze und werden dadurch abgetrennt, während dreiwertiges Europium in der Restschmelze gelöst bleibt. Für den Einbau in mafische Gesteine wie Pyroxen und Olivin anstelle von Eisen, Magnesium und Calcium ist das Eu2+-Ion dagegen zu groß und es kommt zu einer "negativen" Europiumanomalie. Außer durch Kristallisation von Plagioklas kann eine Europiumanomalie auch beim Aufschmelzen von Gesteinen entstehen. Da der Verteilungskoeffizient zwischen Kristall und Schmelze etwa 10-fach größer als für die anderen Seltenerdelemente ist, wird beim teilweisen Aufschmelzen eines Plagioklas-reichen Gesteins nur wenig Europium in die Schmelze abgegeben und es resultiert beim Wiedererstarren ein Gestein mit negativer Europiumanomalie. Die Europiumanomalie ist ein Indikator für den Fraktionierungsgrad eines magmatischen Gesteins. Eine ausgeprägte Europiumanomalie wurde in Mondgestein gefunden, wobei die Plagioklas-reichen Felsen des Mondhochlandes eine positive (erhöhte Europiumgehalte), die in Kratern und Maria gefundenen Basaltgesteine eine negative Europiumanomalie aufweisen. Dies lässt Rückschlüsse auf die geologische Geschichte des Mondes zu. Dabei wird angenommen, dass die Hochländer mit ihren Anorthositen vor etwa 4,6–4,4 Milliarden Jahren aus dem Mondmantel differenzierten und dieser somit aus Europium-verarmten Olivin-Pyroxen-Gesteinen besteht. Die jüngeren Basalte in den Maria, die aus basaltischen Teilschmelzen dieses Mantels bestehen, sind darum so arm an Europium. Gewinnung und Darstellung. Aufgrund der Ähnlichkeit zu den Begleitmetallen und der geringen Konzentration in den Erzen ist die Abtrennung von den anderen Lanthanoiden schwierig, gleichzeitig aber wegen der Verwendung des Elements technisch besonders wichtig. Nach dem Aufschluss der Ausgangsmaterialien wie Monazit oder Bastnäsit mit Schwefelsäure oder Natronlauge sind verschiedene Wege zur Abtrennung möglich. Neben dem Ionenaustausch wird vor allem ein Verfahren eingesetzt, das auf Flüssig-Flüssig-Extraktion und der Reduktion von Eu3+ zu Eu2+ beruht. Dabei wird bei Bastnäsit als Ausgangsmaterial zunächst das Cer in Form von Cer(IV)-oxid abgetrennt und die verbleibenden Seltenen Erden in Salzsäure gelöst. Daraufhin werden mit Hilfe einer Mischung von DEHPA (Di(2-ethylhexyl)phosphorsäure) und Kerosin in Flüssig-Flüssig-Extraktion Europium, Gadolinium und Samarium von den übrigen Seltenerdmetallen getrennt. Die Trennung dieser drei Elemente erfolgt über die Reduktion des Europiums zu Eu2+ und Fällung als schwerlösliches Europium(II)-sulfat, während die anderen Ionen in Lösung bleiben. 2010 wurden etwa 600 Tonnen Europium produziert und 500 Tonnen verbraucht (jeweils gerechnet als Europiumoxid). Durch den steigenden Bedarf an Europium ist jedoch zu befürchten, dass mittelfristig die Nachfrage das Angebot übersteigt und es zu einer Verknappung kommen wird. Daher wird an einer Ausweitung der Europiumproduktion, insbesondere durch Eröffnung weiterer Minen wie der im australischen Mount Weld und einer Wiedereröffnung der "Mountain Pass Mine" gearbeitet. Durch die hohe Nachfrage nach Europium ist auch der Preis des Elements stark gestiegen. Lag er 2002 noch bei 240 US-Dollar pro Kilogramm, stieg er 2011 auf bis zu 1830 Dollar pro Kilogramm (jeweils 99 % Reinheit). Physikalische Eigenschaften. Kristallstruktur von Europium, a = 455 pm Europium ist wie die anderen Lanthanoide ein silberglänzendes weiches Schwermetall. Es besitzt mit 5,245 g/cm3 eine ungewöhnlich niedrige Dichte, die deutlich niedriger als diejenige der benachbarten Lanthanoide wie Samarium oder Gadolinium und geringer als die des Lanthans ist. Vergleichbares gilt auch für den verhältnismäßig niedrigen Schmelzpunkt von 826 °C und den Siedepunkt von 1527 °C (Gadolinium: Schmelzpunkt 1312 °C, Siedepunkt 3250 °C). Diese Werte stehen der sonst geltenden Lanthanoidenkontraktion entgegen und werden durch die Elektronenkonfiguration [Xe] 4f7 6s2 des Europiums verursacht. Durch die halb gefüllte f-Schale stehen nur die zwei Valenzelektronen (6s2) für metallische Bindungen zur Verfügung; es kommt daher zu geringeren Bindungskräften und zu einem deutlich größeren Metallatomradius. Vergleichbares ist auch bei Ytterbium zu beobachten. Bei diesem Element stehen durch eine vollständig gefüllte f-Schale ebenfalls nur zwei Valenzelektronen für metallische Bindungen zur Verfügung. Europium kristallisiert unter Normalbedingungen in einem kubisch-raumzentrierten Gitter mit dem Gitterparameter a = 455 pm. Neben dieser Struktur sind noch zwei weitere Hochdruckmodifikationen bekannt. Dabei entspricht die Reihenfolge der Modifikationen bei steigendem Druck wie bei Ytterbium nicht derjenigen der übrigen Lanthanoide. So ist weder eine Europiummodifikation in doppelt-hexagonaler Struktur noch in Samarium-Struktur bekannt. Der erste Phasenübergang im Metall findet bei 12,5 GPa statt, oberhalb dieses Druckes kristallisiert Europium in einer hexagonal-dichtesten Struktur mit den Gitterparametern a = 241 pm und c = 545 pm. Oberhalb von 18 GPa wurde mit Eu-III eine weitere, der hexagonal-dichtesten Kugelpackung ähnliche Struktur gefunden. Bei hohen Drücken von mindestens 34 GPa ändert sich die Elektronenkonfiguration des Europiums im Metall von zwei- auf dreiwertig. Dies ermöglicht auch eine Supraleitfähigkeit des Elements, die bei einem Druck von etwa 80 GPa und einer Temperatur von etwa 1,8 K auftritt. Europiumionen, die in geeignete Wirtsgitter eingebaut sind, zeigen eine ausgeprägte Fluoreszenz. Dabei ist die abgestrahlte Wellenlänge von der Oxidationsstufe abhängig. Eu3+ fluoresziert weitgehend unabhängig vom Wirtsgitter zwischen 613 und 618 nm, was einer intensiv roten Farbe entspricht. Das Maximum der Emission von Eu2+ ist dagegen stärker vom Wirtsgitter abhängig und liegt beispielsweise bei Bariummagnesiumaluminat mit 447 nm im blauen, bei Strontiumaluminat (SrAl2O4:Eu2+) mit 520 nm im grünen Spektralbereich. Chemische Eigenschaften. an der Luft oxidierte Europiumscheibe, überzogen mit gelbem Europium(II)-carbonat Europium ist ein typisches unedles Metall und reagiert mit den meisten Nichtmetallen. Es ist das reaktivste der Lanthanoide und reagiert schnell mit Sauerstoff. Wird es auf etwa 180 °C erhitzt, entzündet es sich an der Luft spontan und verbrennt zu Europium(III)-oxid. Auch mit den Halogenen Fluor, Chlor, Brom und Iod reagiert Europium zu den Trihalogeniden. Bei der Reaktion mit Wasserstoff bilden sich nichtstöchiometrische Hydridphasen, wobei der Wasserstoff in die Lücken der Kugelpackung des Metalls eintritt. Europium löst sich in Wasser langsam, in Säuren schnell unter Bildung von Wasserstoff und des farblosen Eu3+-Iones. Das ebenfalls farblose Eu2+-Ion lässt sich durch elektrolytische Reduktion an Kathoden in wässriger Lösung gewinnen. Es ist das einzige zweiwertige Lanthanoid-Ion, das in wässriger Lösung stabil ist. Europium löst sich in Ammoniak, wobei sich wie bei Alkalimetallen eine blaue Lösung bildet, in der solvatisierte Elektronen vorliegen. Isotope. Es sind insgesamt 38 Isotope und weitere 13 Kernisomere des Europiums zwischen 130Eu und 167Eu bekannt. Von diesen ist eines, 153Eu, stabil, ein weiteres, 151Eu, galt lange Zeit als stabil; es wurden 2007 jedoch Hinweise darauf gefunden, dass es mit einer Halbwertszeit von mindestens 1,7 Trillionen Jahren als Alphastrahler zerfällt. Diese beiden Isotope kommen in der Natur vor, wobei 153Eu mit einem Anteil von 52,2 % an der natürlichen Isotopenzusammensetzung das häufigere ist, der Anteil an 151Eu beträgt dementsprechend 47,8 %. Mehrere Europiumisotope wie 152Eu, 154Eu und 155Eu entstehen bei Kernspaltungen von Uran und Plutonium. Dabei ist 155Eu mit einem Anteil von etwa 0,03 % an der Gesamtmenge der Spaltprodukte das häufigste Europiumisotop unter den Spaltprodukten. Es konnte unter anderem im Rongelap-Atoll drei Jahre nach der Kontaminierung durch den Castle-Bravo-Atomwaffentest nachgewiesen werden. Verwendung. Europium wird vor allem als Dotierungsmittel für die Produktion von Leuchtstoffen eingesetzt, die etwa in Kathodenstrahlröhrenbildschirmen, welche früher hauptsächlich für Computerbildschirme und Fernseher verwendet wurden sowie für Flugzeuginstrumente benötigt werden, und in Kompaktleuchtstofflampen Verwendung finden. Es werden Leuchtstoffe sowohl mit zwei- als auch dreiwertigem Europium für verschiedene Farben verwendet. Für rote Leuchtstoffe wird vor allem mit Europium dotiertes Yttriumoxid (Y2O3:Eu3+), früher wurden auch Yttriumoxysulfid oder als erster wichtiger roter Leuchtstoff Yttriumvanadat:Eu3+ genutzt. Eu2+ wird meist als blauer Leuchtstoff in Verbindungen wie Strontiumchlorophosphat (Sr5(PO4)3Cl:Eu2+, Strontiumchloroapatit SCAP) und Bariummagnesiumaluminat (BaMgAl11O17:Eu2+, BAM) eingesetzt. Plasmabildschirme erfordern Leuchtstoffe, die die vom Edelgas-Plasma emittierte VUV-Strahlung in sichtbares Licht umwandeln. Hierfür werden sowohl für das blaue als auch rote Spektrum europiumdotierte Leuchtstoffe genutzt – für blaues Licht BAM, für rotes (Y,Gd)BO3:Eu3+. In Quecksilberhochdrucklampen, die etwa in der Straßenbeleuchtung eingesetzt werden, wird europiumdotiertes Yttriumvanadat auf das Glas aufgebracht, damit das Licht weiß und natürlicher erscheint. Bei Euro-Banknoten wird die Europium-Fluoreszenz gegen Fälschungen verwendet. Sie kann auch in der Fluoreszenzspektroskopie ausgenutzt werden. Dazu wird das Europium beispielsweise in einem geeigneten Komplex gebunden, der an der gewünschten Stelle, etwa mit einem bestimmten Protein, bevorzugt reagiert und sich dort anreichert. Europium kann auf Grund seiner Neutronenabsorption in Steuerstäben für Kernreaktoren verwendet werden. Europiumhaltige Steuerstäbe wurden unter anderem in verschiedenen sowjetischen Versuchsreaktoren wie BOR-60 und BN-600 erprobt. Biologische Bedeutung und Toxizität. Europium kommt nur in minimalen Mengen im Körper vor und hat keine biologische Bedeutung. Auch durch Pflanzenwurzeln kann das Element nicht aufgenommen werden. Lösliche Europiumverbindungen sind leicht giftig; so wurde für Europium(III)-chlorid ein LD50-Wert von 550 mg/kg für intraperitoneale und 5000 mg/kg für orale Gabe an Mäusen ermittelt. Es konnte keine chronische Toxizität festgestellt werden, was möglicherweise mit der geringen Aufnahme von Europium im Darm und der schnellen Umwandlung von löslichem Europiumchlorid zu unlöslichem Europiumoxid unter basischen Bedingungen zusammenhängt. Unlösliche Europiumverbindungen gelten als weitgehend ungiftig, wie in einer Studie mit Europium(III)-hydroxid-Nanopartikeln an Mäusen ermittelt wurde. Bei Europium(III)-hydroxid-Nanopartikeln (nicht jedoch bei amorphem Europium(III)-hydroxid) wurde eine pro-angiogenetische Wirkung festgestellt, sie fördern "in vitro" die Zellproliferation von Endothelzellen, "in vivo" an Hühnereiern wurde eine vermehrte Bildung von kleinen Blutgefäßen beobachtet. Ein möglicher Mechanismus für diese Beobachtung ist die Bildung von reaktiven Sauerstoffspezies und die Aktivierung von MAP-Kinasen durch diese Nanopartikel. Verbindungen. Es sind Verbindungen in den Oxidationsstufen +2 und +3 bekannt, wobei wie bei allen Lanthanoiden zwar die dreiwertige Stufe die stabilere, die zweiwertige jedoch ebenfalls ungewöhnlich stabil ist und daher eine Vielzahl von Eu(II)-Verbindungen existieren. Die Ionenradien unterscheiden sich je nach Oxidationsstufe, wobei Eu2+-Ionen größer als Eu3+-Ionen sind. Mit der Koordinationszahl sechs betragen sie 131 pm für Eu2+ und 108,7 pm für Eu3+. Der "effektive Ionenradius" (der als Bezugsgröße ein mit 140 pm um 14 pm größeres O2−-Ion verwendet) beträgt dementsprechend 117 pm bzw. 94,7 pm für die Koordinationszahl sechs. In höheren Koordinationszahlen sind die Ionenradien größer, so beträgt er für Eu2+ in der Koordinationszahl acht 139 pm. Sauerstoffverbindungen. Europium(III)-oxid, Eu2O3, ist die technisch wichtigste Europiumverbindung und dient als Ausgangsmaterial zur Herstellung anderer Europiumverbindungen sowie als Dotierungsmittel für Fluoreszenzfarbstoffe wie Y2O3:Eu3+, das eine besonders intensive rote Fluoreszenz bei einem Europium(III)-oxid-Gehalt von etwa 10 % zeigt. Es kristallisiert wie die anderen Lanthanoidoxide in der kubischen Lanthanoid-C-Struktur. Europium(II)-oxid, EuO, ist ein violett-schwarzer ferromagnetischer Feststoff mit einer Curie-Temperatur von 70 K, der in einer Natriumchlorid-Struktur kristallisiert. Es lässt sich durch Reduktion von Europium(III)-oxid mit Europium gewinnen und ist das einzige zweiwertige Oxid der Lanthanoide, das unter Normalbedingungen stabil ist. Neben diesen beiden Oxiden ist auch das gemischtvalente Oxid Europium(II,III)-oxid, Eu3O4, bekannt. Weitere Europiumverbindungen. Ähnliche Eigenschaften wie EuO haben auch die Eu-Chalkogenide (also -Sulfide, -Selenide und -Telluride) sowie ihre ungeordneten Legierungen. Eu1-xSrxS ist z. B. für x=0 ein Ferromagnet, der für formula_4 zu einem isolierenden Spinglas wird, das u.a. wegen seines nichtmetallischen Verhaltens für Computersimulationen besonders geeignet ist. Mit den Halogenen Fluor, Chlor, Brom und Iod reagiert Europium zu den Trihalogeniden. Diese zersetzen sich beim Erhitzen zu den Dihalogeniden und elementaren Halogenen. Europium bildet metallorganische Verbindungen. Anders als bei den anderen Lanthanoiden lässt sich aber keine Cyclopentadienylverbindung des dreiwertigen Europiums synthetisieren. Bekannt ist zwar eine Verbindung, die neben drei Molekülen Cyclopentadienyl zusätzlich ein Molekül Tetrahydrofuran enthält, dieses ist jedoch stark an das Europium gebunden und lässt sich durch Erhitzen oder im Vakuum nicht entfernen, da die Verbindung sich vorher zersetzt. Dagegen sind das Europiumdicyclopentadienyl (Cp)2Eu(II) und weitere bekannte Derivate stabil. Vom zweiwertigen Europium sind auch Alkinyl-Europium-Verbindungen bekannt. Einen Überblick über Europiumverbindungen bietet die. Eisen. Eisen (ahd. "īsarn"; aus urgerm. *"īsarnan", entlehnt aus ursprünglich gall. "īsarnon", vgl. air. "íarn", wal. "haearn", einer Adjektivierung zu idg. *"ésh₂r̥" ‚Blut‘) ist ein chemisches Element mit dem Elementsymbol Fe (, ‚Eisen‘) und der Ordnungszahl 26. Es zählt zu den Übergangsmetallen, im Periodensystem steht es in der 8. Nebengruppe (Eisen-Platin-Gruppe), nach der neuen Zählung in der Gruppe 8 oder Eisengruppe. Es ist, auf den Massenanteil (ppmw) bezogen, nach Sauerstoff, Silizium und Aluminium das vierthäufigste Element in der Erdkruste und nach Aluminium das häufigste Metall. In der Werkstoffkunde gehört Eisen zur Gruppe der Eisenmetalle, die unterteilt ist in Gusseisen und Stahl. Die Unterscheidung beruht darauf, dass Gusseisen einen Kohlenstoff-Gehalt von über 2,06 % hat und nicht plastisch verformbar, insbesondere nicht schmiedbar ist, während Stahl einen Kohlenstoff-Gehalt von deutlich weniger als 2,06 % hat und verformbar, also schmiedbar ist. Diese allein auf den Bestandteilen der Eisenlegierung beruhende Definition ist seit dem frühen 20. Jahrhundert gebräuchlich. Damit umfasst der Begriff "Stahl" auch das damals schon kaum mehr produzierte "Schmiedeeisen". Dieser Begriff beschreibt nicht die Bestandteile, sondern die über viele Jahrhunderte entwickelte Art und Weise der Herstellung des Werkstoffes, bei dem die Reduzierung des Kohlenstoffanteils durch unterschiedliche Arten des Frischens von Eisen-Luppen mit anschließendem Schmieden erfolgte. Zwar hatte Schmiedeeisen ähnliche Kohlenstoffanteile wie heutiger Stahl, ist aber aufgrund einer geringfügig abweichenden Legierung mit anderen Stoffen und den nicht restlos entfernten Schlackeresten nicht identisch mit modernem Stahl. Geschichte. Belege für die Nutzung von Eisen in den verschiedenen Kulturen durch archäologische Funde sind gegenüber den Funden von Bronze relativ selten. Einerseits wurde Eisen in den ältesten Perioden der Geschichte nur in geringem Umfang genutzt, andererseits neigt Eisen an feuchter Luft, im Wasser und in der nassen Erde zur Korrosion, wodurch viele Gegenstände nicht erhalten blieben. Nur besondere Umstände oder große Ausmaße des Gegenstandes verhinderten den Verlust solcher Stücke. Früheste Nutzung von Meteoriteneisen. Bevor die Menschen in den verschiedenen Kulturkreisen lernten, Eisen aus Erz zu gewinnen, nutzten sie das bereits vor der eigentlichen „Eisenzeit“ bekannte und an seinem spezifischen Nickelgehalt von etwa 5 bis 18 % erkennbare Meteoreisen oder auch "Meteoriteneisen". Aufgrund seiner Seltenheit war dieses „Himmelseisen“ (altägyptisch: bj-n-pt = „Eisen des Himmels“) entsprechend wertvoll und wurde vorwiegend zu Kultgegenständen und Schmuck verarbeitet. So fand man im Alten Ägypten in zwei Gräbern aus vordynastischer Zeit Schmuckperlen aus Meteoreisen mit einem Nickelgehalt von ca. 7,5 %. Die ältesten, bekannten Funde aus Meteoreisen stammen allerdings aus Mesopotamien, das von den dort lebenden Sumerern als „urudu-an-bar“ (= "Kupfer des Himmels") bezeichnet wurde. Unter anderem wurde in der Stadt Ur ein Dolch mit einer Klinge aus Meteoreisen (10,8 % Ni) und goldbelegtem Griff entdeckt, dessen Herstellung auf eine Zeit um 3100 v. Chr. datiert ist. Eisenerzeugung aus Erz. Zu den Anfängen der Eisenverhüttung siehe Mittelmeerraum und Kleinasien. Die Nutzung von nickelfreiem, also terrestrischem Eisen muss in Mesopotamien ebenfalls schon früh bekannt gewesen sein, belegt durch einen nickelfreien Eisendolch mit Bronzegriff aus der Zeit zwischen 3000 und 2700 v. Chr., der in den Ruinen von Ešnunna bei Tell Asmar im heutigen Irak gefunden wurde. Aus den Aufzeichnungen der Hethiter im Archiv von Boğazkale (ehemals "Boğazköy") in Zentralanatolien geht hervor, dass Eisen bereits zur Zeit von König Anitta (ca. 1800 v. Chr.) bekannt war und die Verhüttung von Eisen mindestens seit ca. 1300 v. Chr. Zwischen 1600 und 1200 v. Chr. blieb die Eisenproduktion weitgehend ein Monopol des Hethitischen Reiches und war ein Faktor für dessen Aufstieg. Ab 1200 v. Chr. wurde in der Levante Stahl durch Erhöhung des Kohlenstoffanteils produziert. Die Hethiter stellten aus dem Eisen, das anfänglich mit bis zum achtfachen Gewicht in Gold aufgewogen wurde, vorwiegend Schmuck her. Im alten Ägypten ist die Verhüttung von Eisen erst seit dem 6. Jahrhundert v. Chr. nachgewiesen. Bereits seit dem Alten Reich wurde aber auf Meteroriteneisen zurückgegriffen. Dieses wurde in späteren Texten als ' („Eisen des Himmels“) bezeichnet und vor allem zur Herstellung von Amuletten und Modellwerkzeugen für das Mundöffnungsritual verwendet. Ein weiterer bekannter Fund ist eine Dolchklinge als Grabbeigabe Tutanchamuns von ca. 1350 v. Chr., wobei bis heute unklar ist, ob diese aus terrestrischem Eisen oder Meteoreisen besteht und ob diese überhaupt in Ägypten gefertigt wurde. Ein weiterer Eisenfund in einem Grab bei Abydos aus der 6. Dynastie (2347–2216 v. Chr.) ließ sich zwar als nickelfrei und damit terrestrischen Ursprungs bestimmen, sein früherer Verwendungszweck konnte jedoch nicht ermittelt werden, da das Stück völlig verrostet war. Ein 1837 in den Fugen der Cheopspyramide gefundenes Eisenmesser, das zunächst in die 4. Dynastie datiert wurde, erwies sich hingegen als modernes Stück. Weiterhin gehörten auch die Chalyber zu den Völkern des Mittelmeerraums und Kleinasiens, die bereits gute Kenntnisse über die Nutzung des Eisens als Hüttenwerkstoff gewonnen hatten. Ihr Name lebte in dem griechischen Wort für Stahl ("chalybs") weiter, im Gegensatz zum gewöhnlichen Eisen ("sideros"). Früheste Spuren von Eisenverhüttung auf griechischem Gebiet fanden sich in Form von Eisenschlacke aus der Zeit um 2000 v. Chr. in Agia Triada auf Kreta. Im Alten Ägypten und in Gerar (Palästina) war die Eisenverhüttung etwa ab 1000 v. Chr. bekannt (für Gerar belegt durch Eisenschmelzöfen und örtlich hergestellte Ackerbaugeräte) und in China mindestens seit der Han-Dynastie (206 v. Chr. bis 222 n. Chr.). Europa. Zu den ältesten europäischen Stücken gehören die eisernen Zelte und Speere, die Graf Gozzadini 1853 in etruskischen Gräbern bei Bologna entdeckt hat. Sie stammen aus dem 9. bis 10. Jahrhundert vor Christus. Einer der ältesten bekannten Eisenfunde in Deutschland ist ein eiserner Niet als Verbindung zwischen bronzener Lanzenspitze und hölzernem Schaft, der in Helle (Ostprignitz) gefunden wurde und etwa aus der Zeit um 800 v. Chr. stammt. Im deutschsprachigen Raum markiert allerdings die erst 300 Jahre später beginnende La-Tène-Zeit eine erste Hochkultur mit zahlreichen Eisenverhüttungsplätzen und Eisenfunden. Neben seiner herausragenden Bedeutung als Werkstoff wurde Eisen in der Alchemie verwendet, wo es mit dem Zeichen für Mars/Männlichkeit ♂ assoziiert wurde. Bis ins 18. Jahrhundert waren Rennöfen bzw. Rennwerke mit angeschlossenen Schmieden in Europa weit verbreitet. Flüssiges Roheisen entstand mit diesem Verfahren allerdings nicht, da ein Rennofen nur Temperaturen zwischen 1000 und 1200 °C erreichen konnte, der Schmelzpunkt von reinem Eisen jedoch bei 1538 °C liegt (Schmelzpunkt von reinem Zementit, Fe3C: 1250 °C). Die Entwicklung von Gusseisen fand erst im 13. Jahrhundert in Schweden (Lapphyttan und Vinarhyttan) statt. Mit der gegossenen Kanonenkugel verbreitete sich die Gusseisenverarbeitung schnell wie die Feldzüge über ganz Europa. Als die schwindenden Wälder den wachsenden Holzkohlebedarf zur Eisengewinnung in Großbritannien nicht mehr decken konnten, wurde Kohle (genauer das Kohleprodukt Koks) von Abraham Darby als Alternative entwickelt. Diese Umstellung, zusammen mit der Erfindung der Dampfmaschine, gilt als Beginn der industriellen Revolution. Die Hüttenwerke produzierten zunächst hauptsächlich Gusseisen, mit der Einführung des Puddelverfahrens auch Schmiedeeisen. Eisennutzung und Funde außerhalb Europas und Kleinasiens. Auch in China wurden die ersten Erfahrungen mit Eisen an Meteoriteneisen gewonnen. Erste archäologische Spuren von Schmiedeeisen finden sich im Nordwesten, nahe Xinjiang, aus dem 8. vorchristlichen Jahrhundert. Man vermutet, dass diese Produkte, die mit den Methoden des Nahen Ostens erstellt wurden, durch Handel nach China gelangt sind. 550 v. Chr. wurde der Hochofen entwickelt: Damit war das Herstellen von Gusseisen möglich. In den Gräbern von Turan, einer Region, die sich über den Osten Irans, den Süden Afghanistans und den Südwesten Pakistans zog, fanden sich eiserne Gegenstände und größere Eisenlager in den Ruinen von Khorsabad. Entdeckt wurden Ringe und Kettenteile zusammen mit etwa 160.000 kg Eisenbarren. Layard stieß bei seinen Ausgrabungen in Nimrud auf eiserne Waffen, wie Helme, Speere und Dolche. Berühmt ist die Eiserne Säule in Delhi, ein sieben Meter hoher schmiedeeiserner Pfeiler aus dem 4./5. Jahrhundert. In Australien und den umliegenden, besiedelten Inseln Polynesiens war dagegen die Nutzung von Eisen bis zur Entdeckung durch europäische Forscher unbekannt. Auch in der ansonsten hochstehenden Kultur der Inkas und Azteken Mittel- und Südamerikas verarbeitete man zwar Gold, Silber, Kupfer und Bronze von guter Qualität und großer Kunstfertigkeit, Eisen jedoch nur in geringer Menge und nur Meteoreisen. Vorkommen. Eisen steht in der Reihe der "relativen Elementhäufigkeit bezogen auf Silicium" im Universum mit 8,3 · 105 Atomen je 1 · 106 Siliciumatomen an 9. Stelle. Die Fusion von Elementen in Sternen endet beim Eisen, da bei der Fusion höherer Elemente keine Energie mehr frei wird, sondern aufgewendet werden muss (siehe Nukleosynthese). Schwerere Elemente entstehen endotherm bei Supernovaexplosionen, die auch für das Verstreuen der im Stern entstandenen Materie verantwortlich sind. Eisen steht in der Reihe der "Elementhäufigkeit nach dem Massenanteil" an 2. Stelle in der gesamten Erde (28,8 %), an 4. Stelle in der Erdhülle (4,70 %) und an 4. Stelle in der kontinentalen Erdkruste (5,63 %); im Meerwasser ist es nur zu 0,002 mg/L enthalten. Eisen ist zusammen mit Nickel wahrscheinlich der Hauptbestandteil des Erdkerns. Vermutlich angetrieben von thermischen Kräften erzeugen Konvektionsströmungen von flüssigem Eisen im äußeren Kern das Erdmagnetfeld. Eisen in Erzen. Die ersten Vorkommen, die abgebaut wurden, waren Raseneisenstein und offenliegende Erze. Heute wird vor allem 40-prozentiges Magneteisenerz abgebaut. Das wichtigste Mineral zur Eisengewinnung ist Magnetit, welches größtenteils aus Fe3O4 besteht. Die größten Eisenerzvorkommen finden sich in den sogenannten "Banded Iron Formations" (BIF, gebändertes Eisenerz oder Bändererz), die auch als Takonit oder Itabirit bezeichnet werden und Eisen hauptsächlich in den Mineralen Hämatit und Magnetit enthalten. Eisen als Mineral. Selten kommt Eisen in der Natur auch gediegen vor, meist in Form kleiner Bläschen oder Verdickungen im umgebenden Gestein, aber auch als massige Mineral-Aggregate mit bis zu 25 t Gewicht, und ist deshalb als Mineral anerkannt. Die International Mineralogical Association (IMA) führt es gemäß der Systematik der Minerale nach Strunz (9. Auflage) unter der System-Nr. „1.AE.05“ (Elemente - Metalle und intermetallische Verbindungen - Eisen-Chrom-Familie) (8. Auflage: "I/A.07-10"). Die im englischsprachigen Raum ebenfalls geläufige Systematik der Minerale nach Dana führt das Element-Mineral unter der System-Nr. „1.1.11.0“. Weltweit konnte gediegenes Eisen bisher (Stand: 2010) an 120 Fundorten nachgewiesen werden, wobei die überwiegende Mehrheit allerdings aus meteoritischen Eisenfunden der Varietät Kamacit besteht. Eisen kristallisiert im kubischen Kristallsystem, hat je nach Bildungsbedingungen und Reinheitsgrad eine Mohs-Härte zwischen 4 und 5 und eine stahlgraue bis schwarze Farbe. Auch die Strichfarbe ist grau. Wegen der Reaktion mit Wasser und Sauerstoff (Rosten) ist gediegenes Eisen nicht stabil. Es tritt daher in Legierung mit Nickel entweder als Kamacit (4 bis 7,5 % Ni) oder Taenit (20 bis 50 % Ni) nur in Eisenmeteoriten auf sowie in Basalten, in denen es manchmal zu einer Reduktion von eisenhaltigen Mineralen kommt. Eisen mit geringeren Nickelanteilen gelten als Varietät desselben und sind unter der Bezeichnung "Josephinit" bekannt, allerdings ist diese Bezeichnung auch ein Synonym des Minerals Awaruit (Ni3Fe). Eisenerze findet man dagegen vergleichsweise häufig, wichtige Beispiele sind die Minerale Magnetit ("Magneteisenstein", Fe3O4), Hämatit ("Roteisenstein", Fe2O3), Pyrrhotin ("Magnetkies", FeS) und Pyrit ("Eisenkies", FeS2), Siderit ("Eisenspat", FeCO3) und das als Gestein geltende Limonit ("Brauneisenstein", Fe2O3·n H2O). Das Sedimentgestein "Eisen-Oolith", manchmal als "Eisenstein" bezeichnet, besteht aus Eisenhydroxidmineralien, verkittet mit tonigen oder kalkigen Bindemitteln. Industriell weniger von Interesse allerdings in der Natur ziemlich häufig antreffbar sind die Minerale Chlorit, Glaukonit und Pyrit. Insgesamt sind derzeit (Stand: 2010) 1424 Eisenminerale bekannt. Förderung. "Siehe auch: Liste der größten Eisenerzförderer und Liste der größten Roheisenerzeuger" Die Volksrepublik China ist mit 629,7 Millionen Tonnen (58,2 Prozent) das im Jahr 2011 bei weitem bedeutendste Herstellerland für Roheisen, gefolgt von Japan 81,0 Millionen Tonnen (7,5 Prozent) und Russland 48,1 Millionen Tonnen (4,4 Prozent). Die drei Staaten hatten zusammen einen Anteil von 70,1 Prozent an der Weltproduktion von 1082,7 Millionen Tonnen. In Europa waren weitere wichtige Produzenten die Ukraine, Deutschland, Frankreich, Italien und Großbritannien. Weltweit wurden 2011 etwa 2,8 Milliarden Tonnen Eisenerz abgebaut. Die bedeutendsten Eisenerzlieferanten waren die Volksrepublik China, Australien, Brasilien, Indien und Russland. Zusammen hatten sie einen Anteil von 82,5 Prozent an der Weltförderung. Aus dem Eisenerz wurden neben dem Roheisen auch 63,5 Millionen Tonnen Eisenschwamm gewonnen. Zusätzlich wird aus Schrott noch neues Eisen hergestellt. Gewinnung und Darstellung. a> 1709 als erster Eisen unter Verwendung von Koks gewonnen hat (Gemälde von Philippe-Jacques de Loutherbourg, 1801) Erzgewinnung und -verarbeitung. Eisenerz wird im Tagebau und im Tiefbau (Untertagebau) gewonnen. Dort, wo die als abbauwürdig erkannten Eisenerzlagerstätten offen zutage treten, kann das Erz im weniger aufwändigen Tagebau gewonnen werden. Heute wird Eisenerz hauptsächlich in Südamerika, besonders Brasilien, im Westen Australiens, in der Volksrepublik China, in Ost-Europa (beispielsweise Ukraine) und Kanada auf diese Weise abgebaut. Diese Länder verdrängten in den letzten Jahren die ursprünglich bedeutendsten Eisenerz-Förderländer wie Frankreich, Schweden und Deutschland, dessen letzte Eisenerzgrube in der Oberpfalz 1987 geschlossen wurde. Nur ein kleiner Teil der Erze kann als Stückerz direkt im Hochofen eingesetzt werden. Der Hauptanteil der Eisenerze wird als Feinerz in einer Sinteranlage zu Sinter verarbeitet, denn nur in dieser Form als gesinterte grobe Brocken ist der Einsatz im Hochofen möglich, da das feine Erz die Luftzufuhr (Wind) sehr beeinträchtigen oder sogar verhindern würde. Gröbere Erzkörner werden nach ihrer Größe sortiert und gesintert. Kleine Erzkörner müssen dazu gemeinsam mit Kalkzuschlagsstoffen auf mit Gas unterfeuerte, motorisch angetriebene Wanderroste (Rost-Förderbänder) aufgebracht und durch starke Erhitzung angeschmolzen und dadurch „zusammengebacken“ (gesintert) werden. Sehr feines Erz wird pulverfein aufgemahlen, was oft bereits zur Abtrennung von Gangart nötig ist. Dann wird es mit Kalkstein, feinkörnigem Koks (Koksgrus) und Wasser intensiv vermischt und auf einen motorisch angetriebenen Wanderrost aufgegeben. Durch den Wanderrost werden von unten Gase abgesaugt. Von oben wird angezündet und eine Brennfront wandert von oben nach unten durch die Mischung, die dabei kurz angeschmolzen (gesintert) wird. Ein wesentlicher Anteil der Erze wird jedoch zu Pellets verarbeitet. Hierzu wird mit Bindemitteln, Zuschlägen und Wasser eine Mischung erzeugt, die dann auf Pelletiertellern zu Kügelchen von 10 bis 16 mm Durchmesser gerollt wird. Diese werden auf einem Wanderrost mit Gasbefeuerung zu Pellets gebrannt. Sinter ist nicht gut transportierbar und wird deshalb im Hüttenwerk erzeugt, Pelletanlagen werden meist in der Nähe der Erzgruben betrieben. Eisenerzeugung im Hochofen. Das Eisen wird überwiegend im Hochofen durch chemische Reduktion des Eisenoxids der Eisenerze mit Kohlenstoff gewonnen. Der Hochofen ist ein Schachtofen. Koks und Erz werden abwechselnd in Lagen oben in den Ofen hineingeschüttet. Dazu sind oberhalb des Ofengefäßes i. d. R. zwei Bunker angeordnet, die als Gasschleusen zwischen dem Ofengefäß und der Umgebung dienen. Ganz oben befindet sich innerhalb des Ofengefäßes eine Drehschurre, mit der das Material spiralförmig flächig auf der Beschickungsoberfläche verteilt wird. Die Kokslagen halten im unteren Bereich des Ofens, wenn das Erz plastisch wird, die Durchströmbarkeit der Schüttung mit Prozessgas aufrecht (Koksfenster). Der Einsatz sinkt im Ofenschacht ab und wird dabei durch das etwa 2000 °C heiße, aus Kohlenstoffmonoxid und Stickstoff bestehende aufsteigende Prozessgas getrocknet, aufgeheizt, die Eisenoxide reduziert und schließlich geschmolzen (Redoxreaktion). Das Prozessgas wird erzeugt, indem unten in den Ofen durch wassergekühlte Kupferdüsen (Blasformen) auf etwa 1200 °C vorgeheizte Luft eingeblasen wird. Der Sauerstoff der Luft verbrennt mit Koks zu Kohlenstoffmonoxid. Der gesamte Vorgang dauert etwa acht Stunden. Das übrig bleibende Abgas, das am oberen Ende des Ofenschachtes gewonnen wird, ist brennbar und wird zum Vorheizen der Luft verwendet. Mit Überschussgas wird in einem Kraftwerk Strom erzeugt. Der Ofen erzeugt neben dem flüssigen Eisen auch flüssige Schlacke. Beides ist miteinander vermischt, hat eine Temperatur von etwa 1450 °C und wird durch ein Stichloch abgezogen, das etwa alle zwei Stunden durch Anbohren geöffnet und jeweils nach etwa einer Stunde durch Verstopfen mit einer keramischen Masse verschlossen wird. Eisen und Schlacke werden außerhalb des Ofens getrennt. Das Eisen wird in Transportpfannen gefüllt und ins Stahlwerk gebracht. Das Eisen ist bei 1450 °C flüssig, da durch den im Eisen gelösten Kohlenstoff eine Schmelzpunktserniedrigung erfolgt. Die Schlacke wird mit Wasser verdüst. Dabei erstarrt sie durch das Abschrecken als feinkörniges Glas (Schlackensand). Dieser Schlackensand wird fein gemahlen und als Betonzusatzstoff (Füller) verwendet. Ein Hochofen erzeugt pro Tonne Eisen etwa 200 bis 300 kg Schlacke. Erz und Koks enthalten als Hauptverunreinigung Siliciumdioxid (Quarzsand, Silikate) SiO2 und Aluminiumoxid Al2O3. Ein kleiner Teil des Siliciumdioxids wird zu Silicium reduziert, das im Eisen gelöst wird. Der Rest bildet zusammen mit dem Aluminiumoxid die Schlacke (Aluminiumsilikate). Da der Schmelzpunkt eines Gemisches von SiO2 und Al2O3 zu hoch ist, um eine bei 1450 °C flüssige Schlacke zu bilden, wird Calciumoxid zur Schmelzpunktserniedrigung verwendet. Dies wird meist bereits bei der Herstellung des Eisenerzsinters als Kalkstein zugegeben. Das Eisen des Hochofens (Roheisen) hat nur einen Eisengehalt von etwa 95 %. Es enthält für die meisten Anwendungen zu viel Kohlenstoff, Schwefel, Silicium und Phosphor. Üblicherweise wird daher im Stahlwerk zunächst durch Einblasen von Calciumcarbid, Magnesium oder Branntkalk reduzierend entschwefelt. Die Entschwefelungsschlacke wird abgezogen und das Roheisen dann in einem Konverter (Sauerstoffblasverfahren) unter Zusatz von Branntkalk oxidierend verblasen. Dabei wird Silicium zu Siliciumdioxid und Kohlenstoff zu Kohlenstoffdioxid verbrannt. Der Phosphor wird als Calciumphosphat gebunden. Das flüssige Eisen hat danach eine Temperatur von etwa 1600 °C. Es enthält soviel Sauerstoff, dass beim Erstarren aus verbliebenem Kohlenstoff Kohlenmonoxidblasen entstehen. Beim heute meist verwendeten Strangguss ist dies unerwünscht. Beim Abstechen des Stahls aus dem Konverter in die Gießpfanne wird daher Aluminium zugegeben, um den Sauerstoff als Aluminiumoxid zu binden. Bei hohen Anforderungen an die Qualität des Stahls folgen auf den Konverterprozess noch weitere Verfahrensschritte, wie z. B. eine Vakuumbehandlung (Sekundärmetallurgie). Eisenerzeugung ohne Hochofen. Hochöfen haben einen großen Material- und Energiebedarf, der bei ungünstigen Rohstoff- und Energiebedingungen nicht immer bereitgestellt werden kann. Daher wurden verschiedene Verfahren entwickelt, um die vorhandenen Eisenerze ohne oder nur mit geringem Einsatz von Koks bzw. alternativ mit Steinkohle, Braunkohle, Erdöl oder Erdgas zu reduzieren. Bei der überwiegenden Anzahl der Verfahren fällt das erzeugte Roheisen in fester, poriger Form an, das als Eisenschwamm bezeichnet wird. Physikalische Eigenschaften. Molvolumen als Funktion des Drucks für α-Eisen bei Zimmertemperatur Das durchschnittliche Eisenatom hat etwa die 56-fache Masse eines Wasserstoffatoms. Der Atomkern des Eisenisotops 56Fe weist einen der größten Massendefekte und damit eine der höchsten Bindungsenergien pro Nukleon aller Atomkerne auf. Deshalb wird es als Endstufe bei der Energieerzeugung durch Kernfusion in den Sternen betrachtet. Den absolut höchsten Massendefekt hat jedoch 62Ni, gefolgt von 58Fe, und erst auf dem dritten Platz folgt 56Fe. Bei Raumtemperatur ist die allotrope Modifikation des reinen Eisens das Ferrit oder α-Eisen. Diese Modifikation kristallisiert in einer kubisch-raumzentrierten Kristallstruktur (Wolfram-Typ) in der mit dem Gitterparameter a = 286,6 pm sowie zwei Formeleinheiten pro Elementarzelle. Diese Modifikation ist unterhalb von 910 °C stabil. Oberhalb dieser Temperatur wandelt es sich in die γ-Modifikation oder Austenit um. Diese besitzt eine kubisch-flächenzentrierte Struktur (Kupfer-Typ) mit der Raumgruppe  und dem Gitterparameter a = 364,7 pm. Eine dritte Strukturänderung erfolgt bei 1390 °C, oberhalb dieser Temperatur bis zum Schmelzpunkt bei 1535 °C ist wieder das kubisch-raumzentrierte δ-Ferrit stabil. Bei hohem Druck finden ebenfalls Phasenübergänge statt: bei Drücken von mehr als etwa 10 bis 15 GPa und Temperaturen von höchstens einigen hundert Grad Celsius wandelt sich α-Eisen in ε-Eisen, dessen Kristallgitter eine hexagonal dichteste Kugelpackung (hcp) ist, um; bei höheren Temperaturen bis hin zum Schmelzpunkt findet eine entsprechende Umwandlung von γ-Eisen zu ε-Eisen statt, wobei der Druck des Phasenübergangs mit der Temperatur steigt. Darüber hinaus gibt es möglicherweise einen weiteren Phasenübergang von ε-Eisen nach β-Eisen, der bei etwa 50 GPa und mehr als 1500 K liegt; allerdings ist die Existenz dieser β-Phase umstritten, und auch zu ihrer Kristallstruktur gibt es verschiedene Befunde, u.a. eine orthorhombische oder eine doppelte hcp-Struktur. Diese Umwandlungen nennt man auch die „Polymorphie des Eisens“. Das Fehlen einer β-Phase in der Standard-Nomenklatur der Eisenallotrope rührt daher, dass früher angenommen wurde, dass die Änderung des Magnetismus am Curiepunkt bei 766 °C von Ferro- auf Paramagnetismus mit einer Strukturänderung einhergeht und somit eine weitere Modifikation zwischen 766 und 910 °C existiert, die als β-Modifikation oder β-Eisen bezeichnet wurde. Dies stellte sich jedoch nach genaueren Messungen als falsch heraus. Der Schmelzpunkt des Eisens ist experimentell nur für Drücke von bis zu etwa 50 GPa gut bestimmt. Bei höheren Drücken liefern verschiedene experimentelle Techniken stark unterschiedliche Ergebnisse. So lokalisieren verschiedene Studien den γ-ε-Tripelpunkt bei Drücken, die sich um mehrere Dutzend Gigapascal unterscheiden, und liegen bei den Schmelztemperaturen unter hohem Druck um 1000 K und mehr auseinander. Im Allgemeinen ergeben molekulardynamische Modellrechnungen und Schockexperimente höhere Temperaturen und steilere Schmelzkurven als statische Experimente in Diamantstempelzellen. Chemische Eigenschaften. Eisen ist beständig an trockener Luft, in trockenem Chlor sowie in konzentrierter Schwefelsäure, konzentrierter Salpetersäure und basischen Agenzien (außer heißer Natronlauge) mit einem pH-Wert größer als 9. In Salzsäure sowie verdünnter Schwefel- oder Salpetersäure löst sich Eisen rasch unter Entwicklung von Wasserstoff. An feuchter Luft und in Wasser, das Sauerstoff oder Kohlenstoffdioxid enthält, wird Eisen leicht unter Bildung von Eisenoxidhydrat ("Rosten") oxidiert. Wird Eisen an trockener Luft erhitzt, so bildet sich eine dünne Schicht von Eisen(II,III)-oxid (Fe3O4, "Eisenhammerschlag"), die stark gefärbt ist ("Anlassen"). Sehr fein verteiltes, "pyrophores" Eisen reagiert schon bei Raumtemperatur mit Sauerstoff aus der Luft unter Feuererscheinung. Brennende Stahlwolle reagiert in feuchtem Chlor-Gas kräftig unter Bildung von braunen Eisen(III)-chlorid-Dämpfen. Wird ein Gemisch aus Eisen- und Schwefelpulver (im Gewichtsverhältnis 7:4) erhitzt, so entsteht vorwiegend Eisen(II)-sulfid. Auch mit weiteren Nichtmetallen wie Phosphor, Silicium und Kohlenstoff bildet Eisen bei erhöhter Temperatur Phosphide, Silicide oder Carbide. Geruch des Eisens. Reines Eisen ist geruchlos. Der typische, als metallisch klassifizierte Geruch, wenn man Eisengegenstände berührt, entsteht durch eine chemische Reaktion von Stoffen des Schweißes und des Fetts der Haut mit den sich dabei bildenden zweiwertigen Eisenionen. Einer der wichtigsten Duftträger ist 1-Octen-3-on, das noch in großer Verdünnung pilzartig-metallisch riecht. Vorstufe der Geruchsstoffe sind Lipidperoxide. Diese entstehen, wenn Hautfett durch bestimmte Enzyme oder nichtenzymatische Prozesse (z. B. UV-Anteil des Lichts) oxidiert werden. Diese Lipidperoxide werden dann durch die zweiwertigen Eisenionen zersetzt, wobei die Duftstoffe gebildet werden. Die zweiwertigen Eisenionen entstehen durch Korrosion des Eisens bei Berührung mit dem Handschweiß, der korrosive organische Säuren und Chloride enthält. Beim Verreiben von Blut auf der Haut entsteht ein ähnlicher Geruch. Blut enthält ebenfalls Eisenionen. Isotope. Eisen hat 27 Isotope und zwei Kernisomere, von denen vier natürlich vorkommende, stabile Isotope sind. Sie haben die relativen Häufigkeiten: 54Fe (5,8 %), 56Fe (91,7 %), 57Fe (2,2 %) und 58Fe (0,3 %). Das Isotop 60Fe hat eine Halbwertszeit von 2,62 Millionen Jahren, 55Fe von 2,737 Jahren und das Isotop 59Fe eine von 44,495 Tagen. Die restlichen Isotope und die beiden Kernisomere haben Halbwertszeiten zwischen weniger als 150 ns und 8,275 Stunden. Die Existenz von 60Fe zu Beginn der Entstehung des Planetensystems konnte durch den Nachweis einer Korrelation zwischen den Häufigkeiten von 60Ni, dem Zerfallsprodukt von 60Fe, und den Häufigkeiten der stabilen Fe-Isotope in einigen Phasen mancher Meteorite (beispielsweise in den Meteoriten "Semarkona" und "Chervony Kut") nachgewiesen werden. Möglicherweise spielte die freigesetzte Energie beim radioaktiven Zerfall von 60Fe, neben der atomaren Zerfallsenergie des ebenfalls vorhandenen radioaktiven 26Al, eine Rolle beim Aufschmelzen und der Differenzierung der Asteroiden direkt nach ihrer Bildung vor etwa 4,6 Milliarden Jahren. Heute ist das ursprünglich vorhanden gewesene 60Fe in 60Ni zerfallen. Die Verteilung von Nickel- und Eisenisotopen in Meteoriten erlaubt es, die Isotopen- und Elementehäufigkeit bei der Bildung des Sonnensystems zu messen und die vor und während der Bildung des Sonnensystems vorherrschenden Bedingungen zu erschließen. Von den stabilen Eisenisotopen besitzt nur 57Fe einen von null verschiedenen Kernspin. Verwendung. Eisen ist der Hauptbestandteil von Stahl. Eisen ist mit 95 Prozent Gewichtsanteil an genutzten Metallen das weltweit meistverwendete. Der Grund dafür liegt in seiner weiten Verfügbarkeit, welche es recht preiswert macht, und darin, dass es hervorragende Festigkeit und Zähigkeit beim Eingehen von Legierungen mit anderen Metallen wie Chrom, Molybdän und Nickel, erreicht, die es für viele Bereiche in der Technik zu einem Grundwerkstoff machen. Es wird bei der Herstellung von Landfahrzeugen, Schiffen und im gesamten Baubereich (Stahlbetonbau, Stahlbau) eingesetzt. Eisen ist (neben Cobalt und Nickel) eines jener drei ferromagnetischen Metalle, die mit ihrer Eigenschaft den großtechnischen Einsatz des Elektromagnetismus u. a. in Generatoren, Transformatoren, Drosseln, Relais und Elektromotoren ermöglichen. Es wird rein oder u. a. mit Silicium, Aluminium, Kobalt oder Nickel (siehe Mu-Metall) legiert und dient als weichmagnetisches Kernmaterial zur Führung von Magnetfeldern, zur Abschirmung von Magnetfeldern oder zur Erhöhung der Induktivität. Es wird hierzu massiv und in Form von Blechen und Pulver (Pulverkerne) produziert. Reines Eisenpulver wird auch in der Chemie verwendet. In der Medizin werden eisenhaltige Präparate als Antianämika eingesetzt, kausal in der Behandlung von Eisenmangelanämien und additiv in der Behandlung von durch andere Ursachen hervorgerufenen Anämien. Bestandteil von Lebewesen. Eisen ist ein essentielles Spurenelement für fast alle Lebewesen, bei Tieren vor allem für die Blutbildung. In pflanzlichen Organismen beeinflusst es die Photosynthese sowie die Bildung von Chlorophyll und Kohlenhydraten. Im Körper von Menschen und Tieren liegt es oxidiert als Eisen(II) und Eisen(III) vor. Als Zentralatom des Kofaktors Häm "b" in Hämoglobin und Myoglobin und in Cytochromen ist es bei vielen Tieren und beim Menschen für Sauerstofftransport und -speicherung sowie für die Elektronenübertragung verantwortlich. In diesen Proteinen ist es von einem planaren Porphyrinring umgeben. Weiter ist Eisen Bestandteil von Eisen-Schwefel-Komplexen (so genannte Eisen-Schwefel-Cluster) in vielen Enzymen, beispielsweise Nitrogenasen, Hydrogenasen oder den Komplexen der Atmungskette. Als dritte wichtige Klasse der Eisenenzyme sind die so genannten Nicht-Häm-Eisenenzyme zu nennen, beispielsweise die Methan-Monooxygenase, Ribonukleotid-Reduktase und das Hämerythrin. Diese Proteine nehmen in verschiedenen Organismen Aufgaben wahr: Sauerstoffaktivierung, Sauerstofftransport, Redoxreaktionen und Hydrolysen. Ebenso wichtig ist dreiwertiges Eisen als Zentralion im Enzym Katalase, das in den Peroxisomen der Zellen das im Stoffwechsel entstehende Zellgift Wasserstoffperoxid abbaut. Die Speicherung des Eisens erfolgt intrazellulär in dem Enzym Ferritin (20 % Eisenanteil) und dessen Abbauprodukt Hämosiderin (37 % Eisenanteil). Transportiert wird Eisen durch Transferrin. Externer Elektronendonor und -akzeptor. Einige Bakterien nutzen Fe(III) als Elektronenakzeptor für die Atmungskette. Sie reduzieren es damit zu Fe(II), was eine Mobilisierung von Eisen bedeutet, da die meisten Fe(III)-Verbindungen schwer wasserlöslich sind, die meisten Fe(II)-Verbindungen aber gut wasserlöslich. Einige phototrophe Bakterien nutzen Fe(II) als Elektronendonator für die Reduktion von CO2. Eisenbedarf und Eisenmangel. Vor allem Frauen vor den Wechseljahren leiden häufig an Eisenmangel, der Grund dafür ist die Menstruation. Sie sollten circa 15 Milligramm Eisen pro Tag zuführen, während der Tagesbedarf eines erwachsenen Mannes nur etwa 10 Milligramm beträgt. Außerdem verlieren Frauen zusätzlich bei der Geburt eines Kindes circa 1000 Milligramm Eisen. Durch die gleichzeitige Einnahme von Vitamin C wird die Resorptionsquote von Eisen deutlich erhöht. Besonders reichhaltig ist Eisen in Blutwurst, Leber, Hülsenfrüchten und Vollkornbrot enthalten und nur gering in (Muskel-)Fleisch. Gleichzeitiger Verzehr von Milchprodukten, Kaffee oder schwarzem Tee hemmen jedoch die Eisenaufnahme. Menschen. Eisen ist ein wichtiges Spurenelement für den Menschen, kann jedoch bei Überdosierung auch schädlich wirken. Davon sind insbesondere Menschen betroffen, die an Hämochromatose, einer Regulationsstörung der Eisenaufnahme im Darm, leiden. Das Eisen reichert sich im Verlauf der Krankheit in der Leber an und führt dort zu einer Siderose und weiteren Organschäden. Weiterhin steht Eisen im Verdacht, Infektionskrankheiten, z. B. Tuberkulose zu fördern, da die Erreger zur Vermehrung ebenfalls Eisen benötigen. Außerdem kommt es bei einigen neurodegenerativen Erkrankungen wie beispielsweise der Parkinson- oder auch der Alzheimer-Krankheit zu Eisenablagerungen in bestimmten Bereichen des Gehirns. Es ist zurzeit unklar, ob dies eine Ursache oder eine Folge der Erkrankung ist. Daher sind Eisenpräparate wie auch andere Nahrungsergänzungsmittel nur zu empfehlen, wenn ein ärztlich diagnostizierter Eisenmangel vorliegt. Pflanzen. Auch in pflanzlichen Organismen ist Eisen ein essentielles Spurenelement. Es beeinflusst die Photosynthese sowie die Bildung von Chlorophyll und Kohlenhydraten. Eisenüberladung kann sich jedoch in Form von Eisentoxizität bemerkbar machen. In Böden liegt es bei normalen pH-Werten als Fe(OH)3 vor. Bei geringem Sauerstoffgehalt des Bodens wird Eisen(III) durch Reduktion zum Eisen(II) reduziert. Dadurch wird das Eisen in eine lösliche, für Pflanzen verfügbare Form gebracht. Nimmt diese Verfügbarkeit unter anaeroben Bedingungen, zum Beispiel durch Bodenverdichtung, zu stark zu, können Pflanzenschäden durch Eisentoxizität auftreten, eine Erscheinung, die besonders in Reisanbaugebieten bekannt ist. Nachweis. Bei der Nachweisreaktion für Eisen-Ionen werden zunächst die beiden Kationen Fe2+ und Fe3+ unterschieden. Eisennachweis mit Thioglykolsäure. Bei Anwesenheit von Fe2+- oder Fe3+-Ionen entsteht eine intensive Rotfärbung. Eisennachweis mit Hexacyanoferraten. Eisensalze und deren Nachweise mit Blutlaugensalzen Bei beiden Nachweisreaktionen entsteht tiefblaues Berliner Blau, ein wichtiger Farbstoff. Es läuft keine Komplexbildungsreaktion ab, sondern lediglich ein Kationenaustausch. Die besonders intensive blaue Farbe des Komplexes entsteht durch Metall-Metall-Charge-Transfers zwischen den Eisen-Ionen. Es ist bemerkenswert, dass dieses bekannte Eisennachweisreagenz selbst Eisen enthält, welches durch die Cyanidionen chemisch gut maskiert wird (Innerorbitalkomplex) und somit die Grenzen der chemischen Analytik aufzeigt. Eisennachweis mit Thiocyanaten. Es bildet sich das tiefrote Eisen(III)-thiocyanat (Fe(SCN)3), welches in Lösung bleibt. Allerdings stören einige Begleitionen diesen Nachweis (z. B. Co2+, Mo3+, Hg2+, Überschuss an Mineralsäuren), so dass u. U. ein Kationentrenngang durchgeführt werden muss. Oxide. Da diese Oxide keine feste Schutzschicht bilden, oxidiert ein der Atmosphäre ausgesetzter Eisenkörper vollständig. Die poröse Oxidschicht verlangsamt den Oxidationsvorgang, kann ihn jedoch nicht verhindern, weshalb das Brünieren als schwacher Schutz vor Korrosion dient. Wenn Eisenkörper vor dem endgültigen Verrosten eingesammelt und dem Recycling zugeführt werden, sind verrostetes Eisen und verrosteter Stahl bei der Stahlproduktion im Elektro-Schmelzofen ein begehrter und wertvoller Sauerstoffträger. Dieser Sauerstoff im Eisenschrott wirkt beim „Stahlkochen“ als Oxidationsmittel, um ungewünschte qualitätsmindernde Beimengungen (z. B. Leichtmetalle) zu oxidieren (verbrennen). Eisenoxide und Eisenhydroxide werden als Lebensmittelzusatzstoffe verwendet (E 172). Salze. Alle Eisensalze werden unter anderem verwendet als Flockungsmittel und zur Phosphatelimination, dazu gehören die Vorfällung, Simultanfällung, Nachfällung und Flockenfiltration sowie das Ausfällen von Sulfiden, Faulgasentschwefelung und Biogasentschwefelung. Edelmetalle. Edelmetalle sind Metalle, die besonders korrosionsbeständig sind. Einige Edelmetalle, zum Beispiel Gold und Silber, sind deswegen seit dem Altertum zur Herstellung von Schmuck und Münzen in Gebrauch. Im Laufe der letzten vier Jahrhunderte wurden die Platinmetalle entdeckt, die eine ähnliche Korrosionsbeständigkeit wie Gold zeigen. Edelmetalle im klassischen Sinn. Zu den Edelmetallen im klassischen Sinn gehören die Platinmetalle sowie Gold und Silber. Teilweise wird auch noch Quecksilber zu den Edelmetallen gezählt, obwohl es in vieler Hinsicht reaktiver als die übrigen Edelmetalle ist. Edelmetalle korrodieren (verrosten, oxidieren) bei Raumtemperatur an Luft entweder gar nicht, oder nur äußerst langsam und in sehr geringem Umfang, so wie es beim Silber der Fall ist, wenn es mit (Spuren von) Schwefelwasserstoff in Berührung kommt. Selbst dabei bildet sich nur eine extrem dünne Schicht von schwarzem Silbersulfid. Der Silbergegenstand wird dabei nicht beschädigt. Von Salzsäure werden die Edelmetalle nicht angegriffen. Edelmetalle zeichnen sich ferner dadurch aus, dass viele ihrer Verbindungen thermisch nicht stabil sind. So werden Silberoxid und Quecksilberoxid beim Erhitzen in ihre Einzelelemente zerlegt. Edelmetalle entstehen wie andere Elemente, die schwerer sind als Wasserstoff durch Nukleosynthese. Wo werden Edelmetalle gefördert? Die Karte zeigt insbesondere die Standorte von Goldbergwerken(Die Basisquelle für diese Karte nimmt leider keine genauere Unterscheidung vor) Halbedelmetalle. Im 19. und 20. Jahrhundert wurde die Theorie der Redoxreaktionen verfeinert. Neue Reaktionswege wurden entdeckt. Des Weiteren entwickelte man die elektrochemische Methode der Potentiometrie, mit der man die Stärke von Reduktionsmitteln und Oxidationsmitteln genau messen und vergleichen konnte. Dies gestattete auch eine verfeinerte Einteilung der Metalle nach ihrem edlen oder unedlen Charakter. Zu den Halbedelmetallen gehören demnach solche, die nicht unter Wasserstoffbildung mit wässrigen Lösungen nichtoxidierender Säuren wie zum Beispiel Salzsäure oder verdünnte Schwefelsäure reagieren. Das liegt an ihrem Standardpotential, welches höher als dasjenige des Wasserstoffs ist. Diese Metalle sind auch gegen Luftsauerstoff weitgehend inert. Aus diesem Grund kommen sie in der Natur gelegentlich gediegen vor. Klassische Edelmetalle und die Halbedelmetalle Kupfer und Rhenium Metalle wie Bismut und Kupfer liegen mit ihrem Standardpotential deutlich näher am Wasserstoff als die klassischen Edelmetalle. An Luft korrodieren sie schneller, und in oxidierenden Säuren wie konzentrierte Schwefelsäure oder halbkonzentrierte (30-prozentige) Salpetersäure lösen sie sich zügig. Im chemischen Sinne sind Halbedelmetalle also alle Metalle, die in der elektrochemischen Spannungsreihe ein positives Standardpotential gegenüber Wasserstoff besitzen, ansonsten aber nicht so korrosionsbeständig wie klassische Edelmetalle sind. Nach dieser Definition ist auch das künstliche und radioaktive Technetium als halbedel zu bezeichnen. Diese Halbedelmetalle nehmen also eine Zwischenstellung zwischen den klassischen edlen und unedlen Metallen ein. Selbst Nickel und Zinn werden von einigen Autoren dazugezählt, obwohl ihr Standardpotential etwas unter dem Wasserstoff liegt. Kurzlebige radioaktive Edelmetalle. Theoretische Überlegungen aufgrund quantenmechanischer Berechnungen sprechen dafür, dass auch die künstlichen Elemente Bohrium, Hassium, Meitnerium, Darmstadtium, Roentgenium und Copernicium Edelmetalle sind. Praktische Bedeutung kommt diesen Metallen allerdings nicht zu, da ihre bekannten Isotope äußerst instabil sind und schnell (mit typischen Halbwertszeiten von einigen Sekunden, höchstens von wenigen Minuten) radioaktiv zerfallen. Unedle Metalle. Klar abzugrenzen sind die unedlen Metalle wie Aluminium, Eisen und Blei. Da ihr Standardpotential kleiner als das von Wasserstoff ist, werden sie von nichtoxidierenden Säuren angegriffen. Das kann, wie beim Blei, auch recht langsam erfolgen. "Nichtoxidierend" bedeutet hierbei, dass sich kein stärkeres Oxidationsmittel als das Wasserstoffion in der Lösung befindet. Weitere korrosionsbeständige Metalle. Neben den Edelmetallen gibt es auch noch einige Metalle, die infolge ihrer Passivierung mitunter eine hohe Korrosionsbeständigkeit besitzen, die je nach chemischem Milieu auch manche Edelmetalle zum Teil übertrifft. Dies sind die Elemente der 4. Nebengruppe (Titan, Zirconium und Hafnium), die der 5. Nebengruppe (Vanadium, Niob und Tantal) sowie die der 6. Nebengruppe (Chrom, Molybdän und Wolfram). Weitere technisch bedeutende Metalle, die Passivschichten bilden, sind Zink (12. Nebengruppe), Aluminium (3. Hauptgruppe) sowie Silicium und Blei (4. Hauptgruppe). Reaktionen der Edelmetalle. Mit geeigneten aggressiven Chemikalien kann man alle Edelmetalle in Lösung bringen. Gold und einige Platinmetalle lösen sich zügig in Königswasser. Silber sowie die Halbedelmetalle reagieren lebhaft mit Salpetersäure. Im Bergbau werden Cyanidlösungen in Verbindung mit Luftsauerstoff verwendet, um Gold und Silber aus Gesteinen zu lösen. Der Angriff durch den Luftsauerstoff ist nur möglich, weil sich als Produkte stabile Cyanidokomplexe mit Gold und Silber bilden. Auch im Königswasser ist die Bildung stabiler Komplexverbindungen (Chloridokomplexe) mitentscheidend für die oxidierende Wirkung des Milieus. Edelmetalle verhalten sich im Übrigen häufig gar nicht „edel“ gegenüber sehr elektropositiven Metallen, sondern bilden hier häufig bereitwillig und unter Energiefreisetzung Intermetallische Phasen. Physikalische Auffassung vom Edelmetallcharakter. Im physikalischen Sinn ist die Menge der Edelmetalle noch bedeutend kleiner; es sind nur Kupfer, Silber und Gold. Das Kriterium zur Klassifizierung ist die elektronische Bandstruktur. Die drei aufgeführten Metalle besitzen alle vollständig gefüllte d-Bänder, die damit nicht zur Leitfähigkeit und praktisch nicht zur Reaktivität beitragen. Für Platin gilt dies z. B. nicht. Zwei d-artige Bänder kreuzen das Ferminiveau. Das führt zu einem anderen chemischen Verhalten, weshalb Platin, im Gegensatz zu Gold, auch gern als Katalysator benutzt wird. Besonders auffällig ist der Unterschied bei der Herstellung reiner Metalloberflächen im Ultrahochvakuum. Während z. B. Gold vergleichsweise leicht zu präparieren ist und nach der Präparation lange rein bleibt, bindet sich an Platin oder auch Palladium sehr schnell Kohlenstoffmonoxid. Chemisches Verständnis von Edelmetallen. Antimon zählt als Halbmetall nicht dazu, und bei Polonium ist es möglicherweise seine starke Radioaktivität und makroskopische Unverfügbarkeit (vor dem Bau von Kernreaktoren), wegen der man es klassisch nicht als Edelmetall angesehen hatte – heutzutage ist es aber in Gramm-Mengen verfügbar. Die Unterteilung, sprich Potentialgrenze, dieser Elemente in Edelmetalle und Halbedelmetalle ist ziemlich willkürlich und wird nicht einheitlich gehandhabt. Sie wird aber meistens zwischen Kupfer und Ruthenium gezogen, da letztere prinzipiell durch feuchte Luft aufgrund der Redoxreaktion O2 + 2 H2O + 4 e− ⇄ 4 OH−(aq) mit einem Normalpotential von +0.4 V angegriffen werden können. Umgangssprachlicher Gebrauch. Im Sprachgebrauch von Sportreportagen, vor allem über Medaillen während der Olympischen Spiele, wird fälschlicherweise auch die Bronze zu den Edelmetallen gezählt. Edelgase. Die Edelgase, auch inerte Gase oder Inertgase bilden eine Gruppe im Periodensystem der Elemente, die sieben Elemente umfasst: Helium, Neon, Argon, Krypton, Xenon, das radioaktive Radon sowie das künstlich erzeugte, ebenfalls radioaktive Ununoctium. Die Gruppe wird systematisch auch "8. Hauptgruppe" oder nach der neueren Einteilung des Periodensystems "Gruppe 18" genannt und am rechten Rand des Periodensystems neben den Halogenen dargestellt. Das einheitliche Hauptmerkmal sämtlicher Edelgasatome ist, dass alle ihre Elektronenschalen entweder vollständig mit Elektronen besetzt oder leer sind (Edelgaskonfiguration): Es gibt nur vollständig gefüllte Atomorbitale, die dazu führen, dass Edelgase nur unter extremen Bedingungen chemische Reaktionen eingehen; sie bilden auch miteinander keine Moleküle, sondern sind einatomig und bei Raumtemperatur Gase. Dieser geringen Reaktivität verdanken sie ihren Gruppennamen, der sich an die ebenfalls nur wenig reaktiven Edelmetalle anlehnt. Helium ist das mit Abstand häufigste Edelgas. Auf der Erde kommt Argon am häufigsten vor; alle anderen zählen zu den seltenen Bestandteilen der Erde. Als Gase sind sie Bestandteile der Luft; in der Erdkruste findet man sie mit Ausnahme des Heliums, das in Erdgas enthalten ist, nur in sehr geringen Mengen. Entdeckt wurden sie – mit Ausnahme des erst 2006 hergestellten Ununoctiums – kurz nacheinander in den Jahren 1868 (Helium) bis 1900 (Radon). Die meisten Edelgase wurden erstmals vom britischen Chemiker William Ramsay isoliert. Verwendung finden Edelgase vor allem als Schutzgas, z. B. in Glühlampen, wichtig sind sie als Füllgas von Gasentladungslampen, in denen sie in der für jedes Gas charakteristischen Farbe leuchten. Trotz der geringen Reaktivität sind von den schwereren Edelgasen, insbesondere Xenon, chemische Verbindungen bekannt. Deren wichtigste ist das starke Oxidationsmittel Xenon(II)-fluorid. Geschichte. Einen ersten Hinweis, dass in der Luft ein unreaktives Gas enthalten ist, fand 1783 Henry Cavendish. Er mischte Luft und Sauerstoff derart, dass die darin enthaltenen Elemente Stickstoff und Sauerstoff mit Hilfe von Reibungselektrizität komplett zu Stickoxiden reagierten. Dabei blieb ein nicht reagierender Rest zurück. Er erkannte jedoch nicht, dass es sich dabei um ein neues Gas – eine Mischung aus Argon und anderer Edelgase – handelte, und setzte seine Experimente nicht fort. Als erstes Edelgas entdeckten 1868 Jules Janssen und Norman Lockyer das Helium unabhängig voneinander. Die beiden Astronomen beobachteten – Janssen in Indien, Lockyer in England – das Sonnenspektrum und entdeckten darin eine bislang unbekannte gelbe Spektrallinie bei einer Wellenlänge von 587,49 nm. Das neue Element wurde von Edward Frankland nach ' für die Sonne "Helium" genannt. Der erste Nachweis von Helium auf der Erde gelang 1892 Luigi Palmieri durch Spektralanalyse von Vesuv-Lava. Cavendishs Experimente zur Untersuchung der Luft wurden ab 1888 von Lord Rayleigh fortgesetzt. Er bemerkte, dass „Stickstoff“, der aus der Luft gewonnen wurde, eine andere Dichte besitzt als aus der Zersetzung von Ammoniak gewonnener. Rayleigh vermutete daher, dass es einen noch unbekannten, reaktionsträgen Bestandteil der Luft geben müsse. Daher versuchten er und William Ramsay, durch Reaktion mit Magnesium den Stickstoff aus einer Luftprobe vollständig zu entfernen und dieses unbekannte Gas zu isolieren. Schließlich gelang ihnen 1894 spektroskopisch der Nachweis eines neuen Elementes, das sie nach dem griechischen "argos", „träge“, "Argon" benannten. Nachdem die wichtigsten Eigenschaften von Helium und Argon bestimmt worden waren, konnte festgestellt werden, dass diese Gase im Gegensatz zu den anderen atmosphärischen Gasen einatomig sind. Dies wurde dadurch erkannt, dass das Verhältnis der molaren Wärmekapazität "C'p" bei konstantem Druck im Verhältnis zur Wärmekapazität "C'V" bei konstantem Volumen bei Edelgasen einen sehr hohen Wert von 1,67 (= "C'p"/"C'V") aufweist, während zwei- und mehratomige Gase deutlich kleinere Werte aufweisen. Daraufhin vermutete William Ramsay, dass es eine ganze Gruppe derartiger Gase geben müsse, die eine eigene Gruppe im Periodensystem bilden und er begann nach diesen zu suchen. 1898 gelang es ihm und Morris William Travers, durch fraktionierte Destillation von Luft, Neon, Krypton und Xenon zu isolieren. Als letztes der natürlich vorkommenden Edelgase wurde 1900 von Friedrich Ernst Dorn als "Radium-Emanation" (Ausdünstung von Radium) das Radon entdeckt und mit dem Symbol Em bezeichnet. Dabei handelte es sich um das Isotop 222Rn. Weitere Radon-Isotope wurden von Ernest Rutherford und André-Louis Debierne gefunden und zunächst für eigene Elemente gehalten. Erst nachdem William Ramsay 1910 das Spektrum und weitere Eigenschaften bestimmte, erkannte er, dass es sich um ein einziges Element handelt. Er nannte dies zunächst "Niton" (Nt), seit 1934 wird der Name Radon verwendet. Ununoctium, das letzte Element der Gruppe, konnte nach mehreren nicht erfolgreichen Versuchen erstmals 2002–2005 am Vereinigten Institut für Kernforschung in Dubna erzeugt werden. Es wurden schon bald nach der Entdeckung Versuche unternommen, Verbindungen der Edelgase zu synthetisieren. 1894 versuchte Henri Moissan, eine Reaktion von Argon mit Fluor zu erreichen, scheiterte jedoch. Im Jahr 1924 behauptete A. von Antropoff, eine erste Kryptonverbindung in Form eines roten stabilen Feststoffes aus Krypton und Chlor synthetisiert zu haben. Später stellte sich jedoch heraus, dass in dieser Verbindung kein Krypton, sondern Stickstoffmonoxid und Chlorwasserstoff enthalten waren. Mit Xenonhexafluoroplatinat wurde 1962 durch Neil Bartlett erstmals eine Xenonverbindung und damit die erste Edelgasverbindung überhaupt entdeckt. Nur wenige Monate nach dieser Entdeckung folgten im August 1962 nahezu zeitgleich die Synthese des Xenon(II)-fluorids durch Rudolf Hoppe und die des Xenon(IV)-fluorids durch eine Gruppe um die amerikanischen Chemiker C. L. Chernick und H. H. Claassen. Bald darauf konnte durch A. V. Grosse die erste Kryptonverbindung dargestellt werden, die er zunächst für "Kryptontetrafluorid" hielt, die jedoch nach weiteren Versuchen als Kryptondifluorid identifiziert wurde. Im Jahr 2000 wurde die erste Argonverbindung, das sehr instabile Argonfluorohydrid synthetisiert. Vorkommen. Edelgase finden sich vorwiegend in der Erdatmosphäre, in geringem Maße aber auch in der Erdkruste; ihre Häufigkeiten sind jedoch sehr unterschiedlich. Das mit Abstand häufigste ist Argon, das mit einem Volumenanteil von 0,934 % (9340 ppm) einen nennenswerten Anteil der gesamten Atmosphäre ausmacht. Alle anderen sind mit Anteilen unter 20 ppm sehr viel seltener, sie zählen daher zu den Spurengasen. Krypton, Xenon und Radon zählen zu den seltensten Elementen auf der Erde überhaupt. Helium ist außerdem Bestandteil von Erdgas, an dem es einen Anteil von bis zu 16 % am Volumen haben kann. Ständig verlässt eine geringe Menge Helium auf Grund seiner niedrigen Dichte die Erdatmosphäre in den Weltraum und ständig werden auf der Erde Edelgase neu gebildet, was ihre Häufigkeiten und auch ihre Isotopenverhältnisse maßgeblich bestimmt. Argon, vor allem das Isotop 40Ar, wird durch Zerfall des Kaliumisotops 40K gebildet. Helium entsteht beim Alpha-Zerfall von schweren Elementen wie Uran oder Thorium (Alpha-Teilchen), Xenon beim seltenen Spontanzerfall von Uran. Das kurzlebige Radon-Isotop 222Rn mit einer Halbwertszeit von 3,8 Tagen ist das häufigste und ein Zwischenprodukt in der Zerfallsreihe von 238U. Andere, noch kurzlebigere Isotope sind ebenfalls Mitglieder der Zerfallsreihen von Uran-, Thorium- oder Neptuniumisotopen. Auf Grund dieser Zerfallsprozesse findet man die Edelgase auch in Gesteinen eingeschlossen. So findet sich Helium in vielen Uranerzen wie Uraninit und Argon im Basalt der ozeanischen Kruste, erst beim Schmelzen des umgebenden Gesteins gast es aus. Die Häufigkeitsverteilung der Edelgase im Universum lässt sich großteils durch die Nukleosynthesewege erklären. Je schwerer ein Edelgas, desto seltener ist es. Helium, das sowohl durch primordiale Nukleosynthese gebildet wird, als auch durch stellare Nukleosynthese aus Wasserstoff entsteht, ist dabei nach Wasserstoff das zweithäufigste Element überhaupt. Auch Neon und Argon zählen zu den häufigsten Elementen im Universum. Krypton und Xenon, die nicht durch stellare Nukleosynthese entstehen und sich nur in seltenen Ereignissen wie Supernovae bilden, sind deutlich seltener. Bedingt durch ihren regelmäßigen Aufbau mit gerader Protonenzahl sind Edelgase gemäß der Harkinsschen Regel häufiger als viele ähnlich schwere Elemente. Gewinnung. Mit Ausnahme eines Großteils des Heliums und der radioaktiven Elemente erfolgt die Gewinnung der Edelgase ausschließlich aus der Luft. Sie fallen als Nebenprodukte bei der Gewinnung von Stickstoff und Sauerstoff im Linde-Verfahren an. In der Haupt-Rektifikationskolonne, in der Sauerstoff und Stickstoff getrennt werden, reichern sich die verschiedenen Edelgase an unterschiedlichen Stellen an. Sie können aber in eine eigene Kolonne überführt und dort von allen anderen Gasen getrennt werden. Während Argon leicht abgetrennt werden kann und nur von Stickstoff und Sauerstoff befreit werden muss, besteht bei Helium und Neon, aber auch bei Krypton und Xenon das Problem, dass diese sich zunächst zusammen anreichern und anschließend getrennt werden müssen. Dies kann über eine weitere Rektifikationskolonne oder auch durch unterschiedliche Adsorption der Gase an geeigneten Adsorptionsmedien erfolgen. Helium wird zumindest seit 1980 überwiegend aus Erdgas gewonnen. Diese Heliumquelle wurde zuerst in den Vereinigten Staaten entdeckt, später auch in der Sowjetunion genutzt, heute in wenigen weiteren Ländern und Werken, so etwa in Algerien, dessen Ausbeute tiefkalt verflüssigt im 40-Fuß-Container nach Marseille und damit Europa verschifft wird. Von den anderen Bestandteilen des Erdgases kann es als Rohhelium entweder durch Ausfrieren aller anderen Gase oder durch Permeation an geeigneten Membranen getrennt werden. Anschließend muss das Helium noch durch Druckwechsel-Adsorption, chemische oder kryotechnische Verfahren von restlichen störenden Gasen wie Stickstoff oder Wasserstoff befreit werden. Radon lässt sich auf Grund der kurzen Halbwertszeit nicht in größeren Mengen gewinnen. In kleinerem Maßstab dient Radium als Quelle, Radon entsteht beim Zerfall dieses Elements und gast aus einem entsprechenden Präparat aus. Ununoctium konnte als künstliches Element in wenigen Atomen durch Beschuss von Californium mit Calcium-Atomen erzeugt werden. Physikalische Eigenschaften. Alle Edelgase sind unter Normalbedingungen einatomige, farb- und geruchslose Gase. Sie kondensieren und erstarren erst bei sehr niedrigen Temperaturen, wobei die Schmelz- und Siedepunkte umso höher liegen, je größer die Atommasse ist. Der Siedepunkt des Heliums liegt mit 4,224 K (−268,926 °C) nur knapp über dem absoluten Nullpunkt, das schwerste Edelgas Radon siedet bei 211,9 K (−61,25 °C). Helium besitzt die Besonderheit, dass es als einziges Element unter Atmosphärendruck und auch deutlich darüber nicht erstarrt. Stattdessen geht es bei 2,17 K in einen speziellen Aggregatzustand, die Suprafluidität, über. In diesem verliert die Flüssigkeit die innere Reibung und kann so beispielsweise über höhere Gefäßwände kriechen (Onnes-Effekt). Erst bei Drücken über 25,316 bar erstarrt Helium bei 0,775 K. Diese Temperaturen und Drücke gelten nur für das häufige Isotop 4He, das seltene zweite, leichtere stabile Isotop 3He hat dagegen deutlich andere Eigenschaften. Es wird erst bei Temperaturen unter 2,6 · 10−3 K suprafluid. Auch Schmelz-, Siede- und kritischer Punkt liegen bei anderen Temperaturen und Drücken. Mit Ausnahme des Heliums, das im hexagonalen Kristallsystem kristallisiert, besitzen alle Edelgase eine kubisch-flächenzentrierte Kristallstruktur. Wie durch die steigenden Atomradien zu erwarten, wird der Gitterparameter "a" von Neon zu Radon immer größer. Auch die Dichten der Edelgase korrelieren wie zu erwarten mit der Atommasse. Helium ist nach Wasserstoff das Gas mit der geringsten Dichte. Als einziges weiteres Edelgas hat Neon eine geringere Dichte als Luft, während Argon, Krypton, Xenon und Radon dichter sind. Radon ist mit einer Dichte von 9,73 kg/m3 eines der dichtesten Gase überhaupt. Die Eigenschaften des Ununoctiums sind auf Grund der kurzen Halbwertszeit nicht experimentell ermittelbar. Nach theoretischen Überlegungen ist durch relativistische Effekte und die hohe Polarisierbarkeit des Ununoctium-Atoms anzunehmen, dass Ununoctium deutlich reaktiver ist als Radon. Auch ist es unwahrscheinlich, dass es bei Standardbedingungen gasförmig ist, durch Extrapolation kann ein Siedepunkt zwischen 320 und 380 K angenommen werden. Atomare Eigenschaften. Bei Edelgasen sind alle Elektronenschalen entweder vollständig mit Elektronen besetzt oder leer. Deshalb wird dieser Zustand auch Edelgaskonfiguration genannt. Helium ist dabei das einzige Edelgas, bei dem lediglich ein s-Orbital vollständig besetzt ist (da es kein 1p-Orbital gibt), bei allen anderen ist das äußerste besetze Orbital ein p-Orbital. Nach den Gesetzen der Quantenmechanik ist dieser Zustand der Orbitale energetisch besonders günstig. Darum tendieren auch Atome anderer Elemente dazu, Edelgaskonfiguration zu erreichen, indem sie Elektronen abgeben oder aufnehmen (Edelgasregel). Die Eigenschaften der Edelgase sind deutlich davon bestimmt, dass sie Edelgaskonfiguration nicht durch Abgabe oder Aufnahme von Elektronen, sondern bereits im neutralen, nicht-ionisierten Zustand erreichen. Edelgase liegen daher einatomig vor, besitzen eine hohe Ionisierungsenergie und reagieren fast nicht mit anderen Elementen oder Verbindungen. Chemische Eigenschaften. Trotz des Aufbaus der Edelgasatome sind die schweren Edelgase nicht völlig unreaktiv und können einige Verbindungen bilden. Verantwortlich hierfür sind der größere Abstand der Valenzelektronen vom Kern, wodurch die Ionisierungsenergie sinkt, sowie relativistische Effekte. Die größte Vielfalt an Verbindungen ist vom Xenon und nicht wie zu erwarten vom Radon bekannt, da bei diesem die starke Radioaktivität und kurze Halbwertszeit die Bildung von Verbindungen und deren Untersuchung erschwert. Das einzige Element, das in der Lage ist, direkt mit Xenon, Radon und unter bestimmten Bedingungen auch Krypton zu reagieren, ist Fluor. Während das bei der Reaktion von Krypton und Fluor gebildete Krypton(II)-fluorid thermodynamisch instabil und daher nur bei tiefen Temperaturen synthetisierbar ist, sind die Xenon- und auch Radonfluoride auch bei Raumtemperatur stabil. Andere Elemente reagieren nicht mit Edelgasen, dennoch sind verschiedene weitere Verbindungen bekannt, die durch Reaktionen der Fluoride zugänglich sind. Die Reaktivität und Stabilität von Verbindungen der leichten Edelgase Helium, Neon und Argon konnte mit Ausnahme einer bekannten Argonverbindung, HArF, nur theoretisch untersucht werden. Demnach gilt Neon als das am wenigsten reaktive Edelgas. So zeigte sich in Rechnungen, dass das Neonanalogon der einzigen in der Theorie stabilen Heliumverbindung HHeF nicht stabil sein sollte. Aufgrund des Fehlens chemischer Verbindungen der Edelgase gab es lange Zeit auch keine Zahlenwerte ihrer Elektronegativitäten – bestimmt werden konnten davon bis jetzt nur die Werte der Pauling-Skala für die beiden Elemente Xenon (2,6) und Krypton (3,0), die damit in etwa denen der Halogene entsprechen. In den neueren Elektronegativitätsskalen nach Mulliken und Allred und Rochow dagegen lassen sich auch Zahlenwerte für die übrigen Edelgase berechnen, die in diesem Fall über die der Halogene hinausreichen. Bei Helium betragen sie beispielsweise 5,50 nach Allred-Rochow und 4,86 nach Mullikan. Verwendung. Edelgase werden auf Grund ihrer geringen Reaktivität, der niedrigen Schmelzpunkte und der charakteristischen Farben bei Gasentladungen genutzt. Vor allem Argon und Helium werden in größerem Maßstab verwendet, die anderen Edelgase können nur in geringeren Mengen produziert werden und sind daher teuer. Die geringe Reaktivität wird in der Verwendung als Inert- bzw. Schutzgas beispielsweise beim Schutzgasschweißen und in der Produktion von bestimmten Metallen wie Titan oder Tantal ausgenutzt. Dafür wird vorwiegend das Argon immer dann eingesetzt, wenn der billigere, aber reaktivere Stickstoff nicht verwendet werden kann. Bei Gasentladungen gibt jedes Edelgas Licht einer charakteristischen Farbe ab. Bei Neon beispielsweise ist das emittierte Licht rot, bei Argon violett und bei Krypton oder Xenon blau. Dies wird in Gasentladungslampen ausgenutzt. Von besonderer Bedeutung ist dabei das Xenon, da das Spektrum einer Xenon-Gasentladungslampe annähernd dem des Tageslichtes entspricht. Es wird darum auch in Autoscheinwerfern als „Xenonlicht“ verwendet. Auch Leuchtröhren basieren auf diesem Prinzip, nach dem ersten verwendeten Leuchtgas Neon werden sie auch "Neonlampen" genannt. Dagegen nutzen die umgangssprachlich „Neonröhren“ genannten Leuchtstofflampen kein Edelgas, sondern Quecksilberdampf als Leuchtmittel. Auch Glühlampen werden mit Edelgasen, häufig Krypton oder Argon, gefüllt. Dadurch ist die effektive Abdampfrate des Glühfadens geringer, was eine höhere Temperatur und damit bessere Lichtausbeute ermöglicht. Auf Grund der niedrigen Schmelz- und Siedepunkte sind Edelgase als Kühlmittel von Bedeutung. Hier spielt vor allem flüssiges Helium eine Rolle, da durch dieses besonders niedrige Temperaturen erreicht werden können. Dies ist beispielsweise für supraleitende Magnete wichtig, die etwa in der Kernspinresonanzspektroskopie eingesetzt werden. Müssen für eine Anwendung keine so niedrigen Temperaturen erreicht werden, wie sie flüssiges Helium bietet, können auch die höher siedenden Edelgase wie Neon verwendet werden. Wie alle Gase wirken auch die Edelgase abhängig vom Druck durch Blockierung von Membranen in Nervenzellen narkotisierend. Die nötigen Drücke liegen aber bei Helium und Neon so hoch, dass sie nur im Labor erreicht werden können; für Neon liegt der notwendige Druck bei 110 bar. Da sie daher keinen Tiefenrausch verursachen können, werden diese beiden Gase gemischt mit Sauerstoff („Heliox“ und „Neox“), auch mit Sauerstoff und Stickstoff („Trimix“) als Atemgase beim Tauchen verwendet. Mit diesen ist es möglich, größere Tiefen zu erreichen als bei der Nutzung von Luft. Xenon wirkt dagegen schon bei Umgebungsdruck narkotisierend und kann daher anstelle von Distickstoffmonoxid als Inhalationsanästhetikum verwendet werden. Wegen des hohen Preises und der geringen Verfügbarkeit wird es jedoch nur selten verwendet. Helium ist Füll- und Traggas für Gasballone und Zeppeline. Neben Helium kann auch Wasserstoff verwendet werden. Dieser ist zwar leichter und ermöglicht mehr Nutzlast, jedoch kann er mit dem Sauerstoff der Luft reagieren und brennen. Beim unreaktiven Helium besteht diese Gefahr nicht. Entsprechend ihrer Häufigkeit und Verfügbarkeit werden Edelgase in unterschiedlichen Mengen produziert. So betrug 1998 die Menge des hergestellten Argons etwa 2 Milliarden m3, Helium wurde in einer Menge von rund 130 Millionen m3 isoliert. Die Weltjahresproduktion an Xenon wird dagegen für 1998 auf nur 5.000–7.000 m3 geschätzt (jeweils Normkubikmeter). Entsprechend unterschiedlich sind die Preise der Gase: Argon kostet etwa 15 Euro pro Kubikmeter (unter Standardbedingungen, Laborqualität), Xenon 10.000 Euro pro Kubikmeter (Stand 1999). Xenonverbindungen. Die größte Vielfalt an Edelgasverbindungen gibt es mit dem Xenon. Die wichtigsten und stabilsten sind dabei die Xenonfluoride Xenon(II)-fluorid, Xenon(IV)-fluorid und Xenon(VI)-fluorid, die durch Reaktion von Xenon und Fluor in unterschiedlichen Verhältnissen synthetisiert werden. Xenon(II)-fluorid ist die einzige Edelgasverbindung, die in geringen Mengen technisch genutzt wird, sie dient als starkes Oxidations- und Fluorierungsmittel in der organischen Chemie. Mit Sauerstoff erreicht Xenon die höchste mögliche Oxidationsstufe +8. Diese wird in Xenon(VIII)-oxid und dem Oxifluorid Xenondifluoridtrioxid XeO3F2 sowie in Perxenaten der Form XeO4− erreicht. Weiterhin sind Xenon(VI)-oxid und die Oxifluoride XeO2F2 und XeOF4 in der Oxidationsstufe +6 sowie das Oxifluorid XeOF2 mit vierwertigem Xenon bekannt. Alle Xenonoxide und -oxifluoride sind instabil und vielfach explosiv. Auch Verbindungen des Xenons mit Stickstoff, Chlor und Kohlenstoff sind bekannt. Unter supersauren Bedingungen konnten auch Komplexe mit Metallen wie Gold oder Quecksilber synthetisiert werden. Verbindungen anderer Edelgase. Von den anderen Edelgasen sind Verbindungen nur in geringer Zahl bekannt. So sollten Radonverbindungen zwar thermodynamisch ähnlich stabil wie Xenonverbindungen sein, aufgrund der starken Radioaktivität und kurzen Halbwertszeit der Radon-Isotope ist ihre Synthese und exakte Charakterisierung aber außerordentlich schwierig. Vermutet wird die Existenz eines stabilen Radon(II)-fluorids, da Radon nach dem Durchleiten durch flüssiges Chlortrifluorid nicht mehr nachweisbar ist, somit reagiert haben muss. Löst man die Rückstände dieser Lösung in Wasser oder Säuren, bilden sich als Zersetzungsprodukte Sauerstoff und Fluorwasserstoff im gleichen Verhältnis wie bei Krypton- oder Xenondifluorid. Alle bekannten Verbindungen leichterer Edelgase sind thermodynamisch instabil, zersetzen sich leicht und lassen sich deshalb, wenn überhaupt, nur bei tiefen Temperaturen synthetisieren. Die wichtigste und stabilste Kryptonverbindung ist Krypton(II)-fluorid, das zu den stärksten bekannten Oxidations- und Fluorierungsmitteln zählt. Krypton(II)-fluorid ist direkt aus den Elementen herstellbar und Ausgangsprodukt einer Reihe weiterer Kryptonverbindungen. Während Helium- und Neonverbindungen weiterhin allein Gegenstand theoretischer Untersuchungen sind und Rechnungen ergaben, dass allenfalls eine Heliumverbindung (HHeF), dagegen keine einzige Neonverbindung stabil sein sollte, konnte eine erste Argonverbindung inzwischen tatsächlich synthetisiert werden: Durch Photolyse von Fluorwasserstoff in einer auf 7,5 K heruntergekühlten Argonmatrix konnte das sehr instabile Argonfluorohydrid gebildet werden, das schon bei Berührung zweier Moleküle oder Erwärmung über 27 K wieder in seine Bestandteile zerfällt. Clathrate. Argon, Krypton und Xenon bilden Clathrate, Einschlussverbindungen, bei denen das Edelgas physikalisch in einen umgebenden Feststoff eingeschlossen ist. Typische Beispiele hierfür sind Edelgas-Hydrate, bei denen die Gase in Eis eingeschlossen sind. Ein Argon-Hydrat bildet sich langsam erst bei −183 °C, Hydrate des Kryptons und Xenons schon bei −78 °C. Auch mit anderen Stoffen wie Hydrochinon sind Edelgas-Clathrate bekannt. Elektron. Das Elektron (von "élektron" ‚Bernstein‘, an dem Elektrizität zum ersten Mal beobachtet wurde; 1874 von Stoney und Helmholtz geprägt) ist ein negativ geladenes Elementarteilchen. Sein Symbol ist e−. Die alternative Bezeichnung Negatron wird kaum noch verwendet und ist allenfalls in der Die in einem Atom oder Ion gebundenen Elektronen bilden dessen Elektronenhülle. Die gesamte Chemie beruht im Wesentlichen auf den Eigenschaften und Wechselwirkungen dieser gebundenen Elektronen. In Metallen ist ein Teil der Elektronen frei beweglich und bewirkt die hohe elektrische Leitfähigkeit metallischer Leiter. Dies ist die Grundlage der Elektrotechnik. In Halbleitern ist die Zahl der beweglichen Elektronen und damit die elektrische Leitfähigkeit leicht zu beeinflussen, sowohl durch die Herstellung des Materials als auch später durch äußere Einflüsse wie Temperatur, elektrische Spannung, Lichteinfall etc. Dies ist die Grundlage der Elektronik. Aus jedem Material können bei starker Erhitzung oder durch Anlegen eines starken elektrischen Feldes Elektronen austreten (Glühemission, Feldemission). Als "freie Elektronen" können sie dann im Vakuum durch weitere Beschleunigung und Fokussierung zu einem Elektronenstrahl geformt werden. Dies hat die Entwicklung des Oszilloskops, des Fernsehers und des Computermonitors ermöglicht. Weitere Anwendungen freier Elektronen sind z. B. die Röntgenröhre, das Elektronenmikroskop, das Elektronenstrahlschweißen, physikalische Grundlagenforschung mittels Teilchenbeschleunigern und die Erzeugung von Synchrotronstrahlung für Forschungs- und technische Zwecke. Beim Beta-Minus-Zerfall eines Atomkerns wird ein Elektron neu erzeugt und ausgesandt. Der experimentelle Nachweis des Elektrons gelang erstmals Emil Wiechert im Jahre 1897 und wenig später Joseph John Thomson. Geschichte der Entdeckung des Elektrons. Das Konzept einer kleinsten, unteilbaren Menge der elektrischen Ladung wurde um die Mitte des 19. Jahrhunderts verschiedentlich vorgeschlagen, unter anderen von Richard Laming, Wilhelm Weber und Hermann von Helmholtz. George Johnstone Stoney schlug 1874 die Existenz elektrischer Ladungsträger vor, die mit den Atomen verbunden sein sollten. Ausgehend von der Elektrolyse schätzte er die Größe der Elektronenladung ab, erhielt allerdings einen um etwa den Faktor 20 zu niedrigen Wert. Beim Treffen der British Association in Belfast schlug er vor, die Elementarladung zusammen mit der Gravitationskonstante und Lichtgeschwindigkeit als fundamentale Naturkonstanten als Grundlage physikalischer Maßsysteme zu verwenden. Stoney prägte auch gemeinsam mit Helmholtz den Namen "electron" für das „Atom der Elektrizität“. Emil Wiechert fand 1897, dass die Kathodenstrahlung aus negativ geladenen Teilchen besteht, die sehr viel leichter als ein Atom sind, stellte dann aber seine Forschungen hierzu ein. Im gleichen Jahr bestimmte Joseph John Thomson die Masse der Teilchen (er bezeichnete sie erst als "corpuscules") genauer und konnte nachweisen, dass es sich unabhängig vom Kathodenmaterial und vom Restgas in der Kathodenstrahlröhre immer um die gleichen Teilchen handelt. In dieser Zeit wurde anhand des Zeeman-Effektes nachgewiesen, dass diese Teilchen auch im Atom vorkommen und dort die Lichtemission verursachen. Damit war das Elektron als Elementarteilchen identifiziert. Die Elementarladung wurde 1909 durch Robert Millikan gemessen. Eigenschaften. Das Elektron ist das leichteste der elektrisch geladenen Elementarteilchen. Wenn die Erhaltungssätze für Ladung und Energie gelten – was aller physikalischen Erfahrung entspricht – müssen Elektronen daher stabil sein. In der Tat gibt es bisher keinerlei experimentellen Hinweis auf einen Elektronenzerfall. Elektronen gehören zu den Leptonen und haben, wie alle Leptonen, einen Spin von 1/2. Als Teilchen mit halbzahligem Spin gehören sie zur Klasse der Fermionen, unterliegen also insbesondere dem Pauli-Prinzip. Ihre Antiteilchen sind die Positronen, Symbol e+, mit denen sie bis auf ihre elektrische Ladung in allen Eigenschaften übereinstimmen. Dabei ist formula_2 das magnetische Moment des Elektronenspins, formula_3 die Masse des Elektrons, formula_4 seine Ladung und formula_5 der Spin. formula_6 heißt Landé- oder g-Faktor. Der Term vor formula_7, der das Verhältnis aus magnetischem Moment zum Spin beschreibt, wird als gyromagnetisches Verhältnis des Elektrons bezeichnet. Für das Elektron ist nach der Dirac-Theorie (relativistische Quantenmechanik) der theoretische Wert von formula_6 exakt gleich 2. Effekte der Quantenelektrodynamik bewirken jedoch eine (geringfügige) Abweichung des Wertes für formula_6 von 2. Die dadurch hervorgerufene Abweichung des magnetischen Moments wird als "anomales magnetisches Moment des Elektrons" bezeichnet. Klassischer Radius und Punktförmigkeit. Kurz nach der Entdeckung des Elektrons versuchte man seine Ausdehnung abzuschätzen, insbesondere wegen der klassischen Vorstellung kleiner Billardkugeln, die bei Streuexperimenten aufeinanderstoßen. Die Argumentation lief darauf hinaus, dass die Konzentration der Elektronenladung auf eine sehr kleine Ausdehnung des Elektrons Energie benötige, die nach dem Äquivalenzprinzip in der Masse des Elektrons stecken müsse. Unter der Annahme, dass die Energie formula_10 eines Elektrons in Ruhe gleich der Selbstenergie formula_11 der Elektronenladung im eigenen elektrischen Feld sei, erhält man den klassischen Elektronenradius formula_4: Elementarladung, formula_14: Kreiszahl, formula_15: Elektrische Feldkonstante, formula_3: Elektronenmasse, formula_17: Lichtgeschwindigkeit, formula_18: Feinstrukturkonstante, formula_19: Bohrscher Radius. Die Selbstenergie trennt dabei gedanklich elektrische Ladung und elektrisches Feld des Elektrons. Setzt man die Ladung "−e" in das Potential formula_20, wobei man sie zum Beispiel gleichmäßig auf eine Kugeloberfläche vom Radius formula_21 verteilt denkt, so ist dafür Energie nötig, die "Selbstenergie". Es gab jedoch durchaus auch andere Herleitungen für eine mögliche Ausdehnung des Elektrons, die auf andere Werte kamen. Heute ist die Sichtweise bezüglich einer Ausdehnung des Elektrons eine andere: In den bisher möglichen Experimenten zeigen Elektronen weder Ausdehnung noch innere Struktur und können insofern als punktförmig angenommen werden. Die experimentelle Obergrenze für die Größe des Elektrons liegt derzeit bei etwa 10−19 m. Dennoch tritt der "klassische Elektronenradius" formula_21 in vielen Formeln auf, in denen aus den feststehenden Eigenschaften des Elektrons eine Größe der Dimension Länge (oder Fläche etc.) gebildet wird, um experimentelle Ergebnisse erklären zu können. Z. B. enthalten die theoretischen Formeln für die Wirkungsquerschnitte des Photo- und des Compton-Effekts das Quadrat von formula_21. Auch die Suche nach einem elektrischen Dipolmoment des Elektrons blieb bisher ohne positiven Befund. Ein Dipolmoment würde entstehen, wenn bei einem nicht punktförmigen Elektron der Schwerpunkt der Masse nicht gleichzeitig der Schwerpunkt der Ladung wäre. So etwas wird von Theorien der Supersymmetrie, die über das Standardmodell der Elementarteilchen hinausgehen, vorhergesagt. Eine Messung im Oktober 2013, die das starke elektrische Feld in einem polaren Molekül ausnutzt, hat ergeben, dass ein eventuelles Dipolmoment mit einem Konfidenzniveau von 90 % nicht größer als 8,7·10−31 formula_4 m ist. Anschaulich bedeutet das, dass Ladungs- und Massenmittelpunkt des Elektrons nicht weiter als etwa 10−30 m auseinander liegen können. Theoretische Ansätze, nach denen größere Werte vorhergesagt wurden, sind damit widerlegt. Wirkungsquerschnitt. Von der Ausdehnung des Elektrons zu unterscheiden ist sein Wirkungsquerschnitt für Wechselwirkungsprozesse. Bei der Streuung von Röntgenstrahlen an Elektronen erhält man z. B. einen Wirkungsquerschnitt, der einem effektiven Elektronenradius von etwa 3 · 10−15 m entspräche, was recht gut mit dem oben beschriebenen klassischen Elektronenradius übereinstimmt. Der totale Streuquerschnitt von Photonen an Elektronen beträgt im Grenzfall kleiner Photonenenergien formula_25 (siehe Thomson-Streuung und Compton-Effekt). Wechselwirkungen. Viele physikalische Erscheinungen wie Elektrizität, Elektromagnetismus und elektromagnetische Strahlung beruhen im Wesentlichen auf Wechselwirkungen von Elektronen. Elektronen in einem elektrischen Leiter werden durch ein sich änderndes Magnetfeld verschoben und es wird eine elektrische Spannung induziert. Die Elektronen in einem stromdurchflossenen Leiter erzeugen ein Magnetfeld. Ein beschleunigtes Elektron - natürlich auch beim Fall der krummlinigen Bewegung - emittiert Photonen, die sogenannte Bremsstrahlung (Hertzscher Dipol, Synchrotronstrahlung, Freie-Elektronen-Laser). In einem Festkörper erfährt das Elektron Wechselwirkungen mit dem Kristallgitter. Sein Verhalten lässt sich dann beschreiben, indem statt der Elektronenmasse die abweichende effektive Masse verwendet wird, die auch abhängig von der Bewegungsrichtung des Elektrons ist. Elektronen, die sich in polaren Lösungsmitteln wie Wasser oder Alkoholen von ihren Atomen gelöst haben, werden als solvatisierte Elektronen bezeichnet. Bei Lösung von Alkalimetallen in Ammoniak sind sie für die starke Blaufärbung verantwortlich. Ein Elektron ist ein Quantenobjekt, das heißt, bei ihm liegt die durch die Heisenbergsche Unschärferelation beschriebene Orts- und Impulsunschärfe im messbaren Bereich, so dass wie bei Licht sowohl Wellen- als auch Teilcheneigenschaften beobachtet werden können, was auch als Welle-Teilchen-Dualismus bezeichnet wird. In einem Atom kann das Elektron als stehende Materiewelle betrachtet werden. Experimente. Das Verhältnis "m" der Elektronenladung zur Elektronenmasse kann als Schulversuch mit dem Fadenstrahlrohr ermittelt werden. Die direkte Bestimmung der Elementarladung gelang durch den Millikan-Versuch. Bei Elektronen, deren Geschwindigkeit nicht vernachlässigbar klein gegenüber der Lichtgeschwindigkeit ist, muss der nichtlineare Beitrag zum Impuls nach der Relativitätstheorie berücksichtigt werden. Elektronen mit ihrer geringen Masse lassen sich relativ leicht auf so hohe Geschwindigkeiten beschleunigen; schon mit einer kinetischen Energie von 80 keV hat ein Elektron die halbe Lichtgeschwindigkeit. Der Impuls lässt sich durch die Ablenkung in einem Magnetfeld messen. Die Abweichung des Impulses vom nach klassischer Mechanik berechneten Wert wurde zuerst von Walter Kaufmann 1901 nachgewiesen und nach der Entdeckung der Relativitätstheorie zunächst mit dem Begriff der „relativistischen Massenzunahme“ beschrieben, der aber inzwischen als überholt angesehen wird. Freie Elektronen. In der Kathodenstrahlröhre (Braunsche Röhre) treten Elektronen aus einer beheizten Glühkathode aus und werden im Vakuum durch ein elektrisches Feld in Feldrichtung (in Richtung der positiven Anode) beschleunigt. Durch Magnetfelder werden die Elektronen senkrecht zur Feldrichtung und senkrecht zur augenblicklichen Flugrichtung abgelenkt (Lorentzkraft). Diese Eigenschaften der Elektronen haben erst die Entwicklung des Oszilloskops, des Fernsehers und des Computermonitors ermöglicht. Weitere Anwendungen freier Elektronen sind z. B. die Röntgenröhre, das Elektronenmikroskop, das Elektronenstrahlschweißen, physikalische Grundlagenforschung mittels Teilchenbeschleunigern und die Erzeugung von Synchrotronstrahlung für Forschungs- und technische Zwecke. Erg. Erg ist eine Bezeichnung für Sandwüsten oder große Sandwüstenfelder in der Sahara, siehe Erg (Sahara). erg. ist eine Abkürzung für „ergänze“. erg ist eine Einheit der Energie, gebräuchlich vor allem in der theoretischen Physik, siehe Erg (Einheit). Energie. Energie (altgr. "en" „innen“ und "ergon" „Wirken“) ist eine fundamentale physikalische Größe, die in allen Teilgebieten der Physik sowie in der Technik, Chemie, Biologie und der Wirtschaft eine zentrale Rolle spielt. Ihre SI-Einheit ist "Joule". Energie ist die Größe, die aufgrund der Zeitinvarianz der Naturgesetze erhalten bleibt, das heißt, die Gesamtenergie eines abgeschlossenen Systems kann weder vermehrt noch vermindert werden (Energieerhaltungssatz). Viele einführende Texte definieren Energie in anschaulicher, allerdings nicht allgemeingültiger Form als Fähigkeit, Arbeit zu verrichten. Energie ist nötig, um einen Körper zu beschleunigen oder um ihn entgegen einer Kraft zu bewegen, um eine Substanz zu erwärmen, um ein Gas zusammenzudrücken, um elektrischen Strom fließen zu lassen oder um elektromagnetische Wellen abzustrahlen, sowie um im leeren Raum materielle Teilchen entstehen zu lassen. Lebewesen benötigen Energie, um leben zu können. Energie benötigt man auch für den Betrieb von Computersystemen, für Telekommunikation und für jegliche wirtschaftliche Produktion. Energie kann in verschiedenen "Energieformen" vorkommen. Hierzu gehören beispielsweise potentielle Energie, kinetische Energie, chemische Energie oder thermische Energie. Energie lässt sich von einem System zu einem anderen übertragen und von einer Form in eine andere umwandeln, jedoch setzt der zweite Hauptsatz der Thermodynamik bei der thermischen Energie eine prinzipielle Grenze: diese ist nur eingeschränkt zwischen Systemen übertragbar oder in andere Energieformen umwandelbar. Durch die hamiltonschen Bewegungsgleichungen und die Schrödingergleichung bestimmt Energie die zeitliche Entwicklung physikalischer Systeme. Gemäß der Relativitätstheorie sind Ruheenergie und Masse durch die Formel formula_2 verknüpft. Geschichte des Begriffs. Der Begriff geht etymologisch auf griechisch ἐνέργεια, "energeia" (siehe Akt_und_Potenz) zurück. Er hatte in der griechischen Antike allerdings eine ganz andere Bedeutung als heute, nämlich eine rein philosophische und keine naturwissenschaftliche. Eine erste und nachhaltige Prominenz erlangte er durch die Möglichkeitslehre des Aristoteles in dessen Buch 'Ta metá physica' (Metaphysik). Bis zum Ausgang des Mittelalters, wo man den griechischen Begriff der Energie in lat. 'actus' übersetzte, blieb er im Wesentlichen Teil des rein philosophischen Vokabulars. Erst mit dem Anbruch der Neuzeit befasste sich eine zunehmende Zahl von Denkern mit der Umwandlung von kinetischer in potentielle Energie bei einer Pendelschwingung (unter anderem Galileo Galilei, Christiaan Huygens, Evangelista Torricelli und Gottfried Wilhelm Leibniz). Ergebnis war, dass kinetische und potentielle Energie eine identische Größe haben mussten. Leibniz – und später auch Immanuel Kant - formulierte das "Prinzip von der Erhaltung der Kraft". Die neuzeitliche Bezeichnung Energie geht wohl auf Thomas Young zurück, der um 1800 für Energie noch einen rein mechanischen Zusammenhang gebrauchte. Im Zusammenhang mit der Dampfmaschine entwickelte sich die Vorstellung, dass Wärmeenergie bei vielen Prozessen die Ursache für eine bewegende Energie, oder mechanische Arbeit verantwortlich ist. Ausgangspunkt war, dass Wasser durch Hitze in den gasförmigen Zustand überführt wird und die Gasausdehnung genutzt wird, um einen Kolben in einem Zylinder zu bewegen. Durch die Kraftbewegung des Kolbens vermindert sich die gespeicherte Wärmeenergie des Wasserdampfes. Der Physiker Nicolas Carnot erkannte, dass beim Verrichten von mechanischer Arbeit eine Volumenänderung des Dampfs nötig ist. Außerdem fand er heraus, dass die Abkühlung des heißen Wassers in der Dampfmaschine nicht nur durch Wärmeleitung erfolgt. Diese Erkenntnisse veröffentlichte Carnot 1824 in einer viel beachteten Schrift über das Funktionsprinzip der Dampfmaschine. Émile Clapeyron brachte 1834 Carnots Erkenntnisse in eine mathematische Form und entwickelte die noch heute verwendete graphische Darstellung des Carnot-Kreisprozesses. 1841 veröffentlichte der deutsche Arzt Julius Robert Mayer seine Idee, dass Energie weder erschaffen noch vernichtet, sondern nur umgewandelt werden kann. Er schrieb an einen Freund: Die Wärmemenge, die bei einer Dampfmaschine verloren gegangen ist, entspräche genau der mechanischen Arbeit, die die Maschine leistet. Dies ist heute bekannt als „Energieerhaltung“, oder auch „Erster Hauptsatz der Thermodynamik“. Der Physiker Rudolf Clausius verbesserte im Jahr 1854 die Vorstellungen über die Energieumwandlung. Er zeigte, dass nur ein Teil der Wärmeenergie in mechanische Arbeit umgewandelt werden kann. Ein Körper, bei dem die Temperatur konstant bleibt, kann keine mechanische Arbeit leisten. Clausius entwickelte den zweiten Hauptsatz der Thermodynamik und führte den Begriff der Entropie ein. Nach dem zweiten Hauptsatz ist es unmöglich, dass Wärme eigenständig von einem kälteren auf einen wärmeren Körper übergeht. Hermann von Helmholtz formulierte im Jahr 1847 das Prinzip „über die Erhaltung der Kraft“ und der Unmöglichkeit eines Perpetuum mobiles (perpetuus, lat. ewig; mobilis, lat.: beweglich) 1. Art. Viele Erfinder wollten damals noch Maschinen herstellen, die mehr Energie erzeugten als hineingesteckt wurde. Helmholtz fand seine Erkenntnisse durch Arbeiten mit elektrischer Energie aus galvanischen Elementen, insbesondere einer Zink/Brom-Zelle. In späteren Jahren verknüpfte er die Entropie und die Wärmeentwicklung einer chemischen Umwandlung zur freien Energie. Josiah Gibbs kam im Jahr 1878 zu ähnlichen Erkenntnissen bei elektrochemischen Zellen. Chemische Reaktionen laufen nur ab, wenn die Freie Energie negativ wird. Mittels der freien Energie lässt sich voraussagen, ob eine chemische Stoffumwandlung überhaupt möglich ist oder wie sich das chemische Gleichgewicht einer Reaktion bei einer Temperaturänderung verhält. Das Wort "Energie" wurde 1852 von dem schottischen Physiker William Rankine im heutigen Sinn in die Physik entsprechend der oben erwähnten altgriechischen Bedeutung eingeführt (ἐν = in, innen und ἔργον = Werk, Wirken). Damit gelang eine saubere Abgrenzung zum Begriff der "Kraft". Aufbauend auf Überlegungen von Wilhelm Wien (1900), Max Abraham (1902), und Hendrik Lorentz (1904) veröffentlichte Albert Einstein 1905 die Erkenntnis, dass Masse und Energie äquivalent sind. Energieformen und Energieumwandlung. Dampfmaschinen wandeln Wärme in mechanische Energie um. a> wandelt mechanische Energie in elektrische Energie um. Ein Feuer wandelt chemische Energie in Wärme um. Energie kann in einem System auf unterschiedliche Weise enthalten sein. Diese Möglichkeiten werden "Energieformen" genannt. Beispiele für Energieformen sind die kinetische Energie, die chemische Energie, die elektrische Energie oder die potentielle Energie. Verschiedene Energieformen können ineinander umgewandelt werden, wobei die Summe der Energiemengen über die verschiedenen Energieformen vor und nach der Energieumwandlung stets die gleiche ist. Eine Umwandlung kann nur so erfolgen, dass auch alle anderen Erhaltungsgrößen des Systems vor und nach der Umwandlung den gleichen Wert besitzen. Beispielsweise wird die Umwandlung kinetischer Energie durch die Erhaltung des Impuls und des Drehimpuls des Systems eingeschränkt. Ein Kreisel kann nur dann abgebremst werden und damit Energie verlieren, wenn er gleichzeitig Drehimpuls abgibt. Auch auf molekularer Ebene gibt es solche Einschränkungen. Viele chemische Reaktionen, die energetisch möglich wären, laufen nicht spontan ab, weil sie die Impulserhaltung verletzen würden. Weitere Erhaltungsgrößen sind die Zahl der Baryonen und die Zahl der Leptonen. Sie schränken die Umwandlung von Energie durch Kernreaktionen ein. Die Energie, die in der Masse von Materie steckt lässt sich nur mit einer gleich großen Menge von Antimaterie vollständig in eine andere Energieform umwandeln. Ohne Antimaterie gelingt die Umwandlung mit Hilfe von Kernspaltung oder Kernfusion nur zu einem kleinen Teil. Die Thermodynamik gibt mit dem zweiten Hauptsatz der Thermodynamik eine weitere Bedingung für eine Umwandlung vor: Die Entropie eines abgeschlossenen Systems kann nicht abnehmen. Entnahme von Wärme, ohne dass parallel andere Prozesse ablaufen, bedeutet eine Abkühlung. Eine niedrigere Temperatur entspricht jedoch einer verminderten Entropie und steht damit im Widerspruch zum zweiten Hauptsatz. Um dennoch Wärme in eine andere Energieform umzuwandeln, muss im Gegenzug zur Abkühlung ein anderer Teil des Systems erwärmt werden. Die Umwandlung von thermischer Energie in andere Energieformen setzt daher immer eine Temperaturdifferenz voraus. Außerdem kann nicht die gesamte in der Temperaturdifferenz gespeicherte Wärmemenge umgesetzt werden. Wärmekraftmaschinen dienen dazu Wärme in mechanische Energie umzuwandeln. Das Verhältnis der durch den zweiten Hauptsatz gegebenen maximal möglichen Arbeit zur verbrauchten Wärmemenge wird Carnot-Wirkungsgrad genannt. Er ist umso größer, je größer die Temperaturdifferenz ist, mit der die Wärmekraftmaschine arbeitet. Andere Umwandlungen sind nicht so stark von den Einschränkungen durch Erhaltungssätze und Thermodynamik betroffen. So lässt sich elektrische Energie mit wenig technischem Aufwand nahezu vollständig in viele andere Energieformen überführen. Elektromotoren wandeln sie beispielsweise in kinetische Energie um. Die meisten Umwandlungen erfolgen nicht vollständig in eine einzige Energieform, sondern es wird ein Teil der Energie in Wärme gewandelt. In mechanischen Anwendungen wird die Wärme meist durch Reibung erzeugt. Bei elektrischen Anwendungen sind häufig der elektrische Widerstand oder Wirbelströme die Ursache für die Erzeugung von Wärme. Diese Wärme wird in der Regel nicht genutzt und als Verlust bezeichnet. Im Zusammenhang mit elektrischem Strom kann auch die Abstrahlung elektromagnetischer Wellen als unerwünschter Verlust auftreten. Das Verhältnis zwischen erfolgreich umgewandelter Energie und eingesetzter Energie wird Wirkungsgrad genannt. Bei technischen Anwendungen wird häufig eine Reihe von Energieumwandlungen gekoppelt. In einem Kohlekraftwerk wird zunächst die chemische Energie der Kohle durch Verbrennung in Wärme umgesetzt und auf Wasserdampf übertragen. Turbinen wandeln die Wärme des Dampfs in mechanische Energie um und treiben wiederum Generatoren an, die die mechanische Energie in elektrische Energie umwandeln. Energie in der klassischen Mechanik. Das Pendel einer Pendeluhr wandelt regelmäßig Bewegungsenergie in potenzielle Energie um und umgekehrt. Die Uhr nutzt die Lageenergie der Gewichte im Schwerefeld der Erde, um Reibungsverluste zu kompensieren. In der klassischen Mechanik ist die Energie eines Systems seine Fähigkeit, Arbeit zu leisten. Die Arbeit wandelt Energie zwischen verschiedenen Energieformen um. Die spezielle Form der newtonschen Gesetze gewährleistet, dass sich dabei die Summe aller Energien nicht ändert. Reibung und die mit ihr einhergehenden Energieverluste sind in dieser Betrachtung nicht berücksichtigt. Das Noether-Theorem erlaubt eine allgemeinere Definition der Energie, die den Aspekt der Energieerhaltung automatisch berücksichtigt. Alle Naturgesetze der klassischen Mechanik sind invariant in Bezug auf Verschiebungen in der Zeit. Sie zeichnen sich dadurch aus, dass sie zu allen Zeiten unverändert in der gleichen Form gelten. Das Noether-Theorem besagt nun, dass es zu dieser Symmetrie in Bezug auf Verschiebung in der Zeit eine physikalische Größe gibt, deren Wert sich nicht mit der Zeit verändert. Diese Größe ist die Energie. Aus dem Energieerhaltungssatz und unvermeidlichen Energieverlusten durch Reibung folgt, dass es unmöglich ist, eine mechanische Maschine zu bauen, die von sich aus beliebig lange läuft (Perpetuum Mobile). Außerdem erlaubt die Energieerhaltung zusammen mit der Impulserhaltung Aussagen über das Ergebnis von Stößen zwischen Objekten, ohne dass der genaue Mechanismus beim Stoß bekannt sein muss. Energie und Bewegung. Die kinetische Energie formula_3 ist diejenige Energie, die dem Bewegungszustand eines Körpers innewohnt. Sie ist proportional zur Masse formula_4 und zum Quadrat der Geschwindigkeit formula_5 relativ zu dem Inertialsystem, in dem man den Körper beschreibt. Der Betrag der kinetischen Energie ist also von dem Standpunkt abhängig, von dem aus man das System beschreibt. Häufig verwendet man ein Inertialsystem, das in Bezug auf den Erdboden ruht. Ein ausgedehnter Körper kann neben einer Translationsbewegung auch eine Drehbewegung durchführen. Die kinetische Energie, die in der Drehbewegung steckt, nennt man Rotationsenergie. Diese ist proportional zum Quadrat der Winkelgeschwindigkeit und zum Trägheitsmoment des Körpers. Energie und Potential. Potentielle Energie, auch "Lageenergie" genannt, kommt einem Körper durch seine Lage in einem Kraftfeld zu, sofern es sich um eine konservative Kraft handelt. Dies könnte beispielsweise das Erdschwerefeld oder das Kraftfeld einer Feder sein. Die potentielle Energie nimmt in Kraftrichtung ab und entgegen der Kraftrichtung zu, senkrecht zur Kraftrichtung ist sie konstant. Bewegt sich der Körper von einem Punkt, an dem er eine hohe potentielle Energie hat, zu einem Punkt, an dem diese geringer ist, leistet er genau so viel physikalische Arbeit, wie sich seine potentielle Energie vermindert hat. Diese Aussage gilt unabhängig davon, auf welchem Weg der Körper vom einen zum anderen Punkt gelangt ist. Beim freien Fall wird diese potentielle Energie in kinetische Energie umgewandelt, indem der Körper beschleunigt wird. Da der Koordinatenursprung beliebig gewählt werden kann, ist die Lageenergie des Körpers niemals absolut gegeben und auch nicht messbar. Messbar sind nur ihre Änderungen. Bei periodischen Bewegungen wird regelmäßig potentielle in kinetische Energie und wieder zurück in potentielle Energie verwandelt. Beim Pendel ist beispielsweise an den Umkehrpunkten die potentielle Energie maximal; die kinetische Energie ist hier null. Wenn der Faden gerade senkrecht hängt, erreicht die Masse ihre maximale Geschwindigkeit und damit auch ihre maximale kinetische Energie; die potentielle Energie hat hier ein Minimum. Ein Planet hat bei seinem sonnenfernsten Punkt zwar die höchste potentielle, aber auch die geringste kinetische Energie. Bis zum sonnennächsten Punkt erhöht sich seine Bahngeschwindigkeit gerade so sehr, dass die Zunahme der kinetischen Energie die Abnahme der potentiellen Energie genau kompensiert. Elastische Energie ist die potentielle Energie der aus ihrer Ruhelage verschobenen Atome oder Moleküle in einem elastisch deformierten Körper, beispielsweise einer mechanischen Feder. Allgemein bezeichnet man die Energie, die bei der elastischen oder plastischen Verformung in dem Körper gespeichert (oder freigesetzt) wird, als Deformationsenergie. Energie in der Thermodynamik. Bild 1 Thermische Energie und die Hauptsätze der Thermodynamik (die Reihenfolge der Energien in dem äußeren Kreis ist beliebig). Bild 2 Exergieanteile im Brennstoff, nach der Verbrennung im Rauchgas, nach der Wärmeübertragung auf Wasserdampf und nach dem Übergang in einen beheizten Raum Bild 3 Exergie im Rauchgas a> bei 32 bar und 350 °C "Thermische Energie" ist die Energie, die in der ungeordneten Bewegung der Atome oder Moleküle eines Stoffes gespeichert ist. Sie wird umgangssprachlich auch als „Wärmeenergie“ oder „Wärmeinhalt“ bezeichnet. Die Umwandlung thermischer Energie in andere Energieformen wird durch die Thermodynamik beschrieben. Hier wird zwischen der im System enthaltenen Energie (innere Energie, Enthalpie) und der Wärme, der über die Systemgrenze transportierten thermischen Energie, unterschieden. Die Summe aus thermischer Energie, Schwingungsenergie im Körper und Bindungsenergie bezeichnet man als "Innere Energie". Dabei wird in manchem Quellen auch zwischen der "thermischen inneren Energie", der "chemischen inneren Energie" und der "Kernenergie als innere Energie" unterschieden, was aber den Rahmen der Thermodynamik verlässt. Umwandlung thermischer Energie in mechanische Arbeit. Während alle Energieformen unter gewissen Bedingungen (siehe Energieformen und Umwandlungen) vollständig in thermische Energie umgewandelt werden können (erster Hauptsatz der Thermodynamik), gilt das in umgekehrter Richtung nicht. Der zweite Hauptsatz der Thermodynamik beschreibt hier eine ganz wesentliche Einschränkung (Bild 1). Abhängig von der Temperatur, bei der die Wärme zur Verfügung steht, lässt sich nur ein mehr oder weniger großer Anteil über einen Kreisprozess in mechanische Arbeit umwandeln, während der Rest an die Umgebung abgegeben wird. In der technischen Thermodynamik werden die umwandelbaren Anteile einer Energieform auch als Exergie bezeichnet. Die Exergie ist keine Zustandsgröße im eigentlichen Sinne, denn sie hängt nicht nur vom Zustand des Systems ab, sondern auch vom Zustand der Umgebung, der im Einzelfall gegeben ist, im Allgemeinen angenommen werden muss. Dann lässt sich anhand von Exergie-Flussbildern einer Energie-Wandlungskette verfolgen, wo vermeidbare Verluste (Reibung oder andere dissipative Vorgänge) zu verzeichnen sind. In Bild 2 erkennt man, dass bei der Umwandlung von chemischer Energie (100 % Exergie) in Wärme bei einer mittleren Temperatur von 1000 °C der Exergie-Anteil nur noch 80 % beträgt. Wird diese Energie als Wärme in einem Dampfkessel auf Wasserdampf mit 273 °C übertragen, so verbleiben nur noch ca. 50 % und bei der Übertragung in einen mit 20 °C beheizten Raum nur noch etwa 7 %. Dabei wurde stets eine Umgebungstemperatur von 0 °C angenommen. Berechnung der maximalen Arbeit (Exergie). Bei der Berechnung des exergetischen Anteils von thermischer Energie ist zu berücksichtigen, ob die Wärmequelle eine konstante Temperatur besitzt, wie das in einem Siedewasser-Reaktor bei circa 270 °C der Fall ist, oder ob die Wärmeabgabe aus einem sich abkühlenden Medium, Rauchgas, erfolgt. Im ersten Fall kann der exergetische Anteil über den Carnot-Wirkungsgrad aus der oberen Prozess-Temperatur und der Umgebungstemperatur bestimmt werden, andernfalls erhält man die Wärme und die Exergie aus dem Flächenintegral, das aus dem T-S-Diagramm in Bild 3 und aus dem T-s-Diagramm in Bild 4 erkennbar ist. Die Beziehung kann auch direkt aus den Diagrammen abgelesen werden. Hierbei sind: T die absolute Temperatur in K, S die Entropie in J/K, H die Enthalpie in J, Index 1: Ausgangszustand, Index U: Umgebungszustand. Die Enthalpie-Differenz ist im Wesentlichen (in diesem Falle) die aus dem Brennstoff der Verbrennungsluft als Wärme zugeführte Energie. Sie erscheint als Fläche unter der Kurve der isobaren Wärmezufuhr. Der exergetische Anteil liegt oberhalb der Umgebungstemperatur, der andere nicht verwertbare Anteil, der „Anergie“ genannt wird, unterhalb dieser Linie. Bei der Abnahme der Exergie in einer Energie-Umwandlungskette spricht man auch von einer Energieentwertung. Bei der Übertragung der Wärme aus dem Rauchgas auf das Arbeitsmedium, das Wasser, das dabei verdampft und überhitzt wird, entsteht ein weiterer Exergieverlust. Die maximale aus dem Dampfmassenstrom gewinnbare mechanische Leistung darf für einen Prozess mit Heißdampf von beispielsweise 16 bar und 350 °C keinesfalls über den Carnot-Wirkungsgrad mit dieser Temperatur berechnet werden. Das Ergebnis mit einem Wirkungsgrad von 52 % wäre falsch. Es würde dem zweiten Hauptsatz widersprechen, da die mittlere Temperatur der Wärmezufuhr in den Wasser-Dampf-Kreislauf niedriger ist. Erfolgt keine interne Wärmeübertragung (regenerative Speisewasservorwärmung) aus kondensierendem Dampf auf das Speisewasser, wie bei Dampfmaschinen, bei denen im theoretisch günstigsten Fall der Dampf reversibel auf Wasser mit Umgebungszustand gebracht werden kann, so erreicht man bei 15 °C Umgebungstemperatur nur einen maximalen Wirkungsgrad von 34,4 %. Der reversibel geführte Clausius-Rankine-Prozess in Bild 4 mit einem Dampfdruck von 32 bar und Kondensation bei 24 °C erreicht dagegen 37,2 %. Die realen Prozesse erreichen bei diesen Dampfparametern nur weitaus niedrigere Wirkungsgrade. Energie- und Exergie-Flussbild der Stromerzeugung. In Bild 5 ist ein vereinfachtes Energieflussbild der Stromerzeugung durch ein großes Dampfkraftwerk (Frischdampfzustand 260 bar, 545 °C, Speisewasservorwärmung auf 276 °C) mit der Verteilung bis zum Endverbraucher einem entsprechenden Exergieflussbild gegenübergestellt. Man erkennt daraus, dass ein wesentlicher Teil der Energieentwertung nicht im Kondensator oder im nachgeschalteten Kühlturm des Kraftwerkes erfolgt, wo die Abwärme abgeführt wird, sondern bei der Umwandlung der chemischen Energie des Brennstoffes in thermische Energie (Verbrennung) und bei der Wärmeübertragung vom Rauchgas auf den Wasserdampf. Die Zahlenwerte für die Stromverteilung sind Anhaltswerte, sie können im Einzelfall geringfügig abweichen. Sonnenenergie. Auch die Sonnenenergie, die durch Strahlung auf die Erde gelangt, erfährt auf dem Weg bis zur Erdoberfläche einen Exergieverlust. Während die innere Energie der Sonne bei rund 15 Millionen K noch praktisch aus reiner Exergie besteht, strahlt die Sonne mit einer Oberflächentemperatur von rund 6000 K auf die Erdoberfläche, deren Temperatur mit ca. 300 K anzusetzen ist. Durch Konzentration der Sonnenstrahlen in einem Kollektor käme man also – auch im Hochgebirge, wo die Absorption durch die Erdatmosphäre kaum eine Rolle spielt – über die Temperatur der Sonnenoberfläche nicht hinaus. Es ergäbe sich über den Carnot-Faktor ein Wirkungsgrad von ca. 95 %. Dann würde allerdings keine Energie mehr übertragen. Das thermodynamische Limit liegt darunter bei einer Absorbertemperatur von 2500 K mit einem Wirkungsgrad von ca. 85 %. In der Praxis kommen dissipative Verluste hinzu, angefangen von der Absorption in der Atmosphäre, über die Materialeigenschaften der kristallinen Zellen bis zum ohmschen Widerstand der Fotovoltaikanlagen, sodass bis heute nur Wirkungsgrade von weniger als 20 % erreicht werden können. Der höchste derzeit erreichte Wirkungsgrad ist 18,7 %. Kraft-Wärme-Kopplung (KWK). Zum Heizen wird meist Wärme mit nur einem geringen Exergieanteil benötigt. Deshalb ist das Heizen mit elektrischem Strom über eine Widerstandsheizung „Energieverschwendung“. Überall dort, wo mechanische Energie oder Strom aus Wärme erzeugt wird und gleichzeitig Wärmebedarf existiert, ist die Nutzung der Abwärme zum Heizen sinnvoller als die getrennte Bereitstellung von Wärme. In einem Heizkraftwerk wird, wenn es mit Dampf betrieben wird, Dampf aus der Turbine entnommen, dessen Temperatur gerade noch ausreichend hoch ist, um die Kondensationswärme über ein Fernwärmenetz zum Verbraucher zu leiten. Alternativ wird auch in Blockheizkraftwerken (BHKW) die Abwärme von stationären Verbrennungsmotoren genutzt. Auch die Wärmepumpe ist hier zu nennen. Sie wendet Arbeit auf, um Wärme (Energie) aus der Umgebung aufzunehmen und zusammen mit der Antriebsarbeit als Heizwärme bei entsprechend hoher Temperatur abzugeben. Wenn Grundwasser mit 10 °C als Wärmequelle zur Verfügung steht und ein Raum mit 20 °C zu beheizen ist, könnte eine Wärmepumpe mit Carnot-Prozess durch Einsatz von einer Kilowattstunde Antriebsarbeit 29 KWh Wärme liefern (Arbeitszahl =29). Reale Wärmepumpen, die mit wechselweise verdampfenden und kondensierenden Kältemitteln bei unterschiedlichen Drücken betrieben werden, erreichen Arbeitszahlen von ca. 3 bis 5. Chemische Energie. Als chemische Energie wird die Energieform bezeichnet, die in Form einer chemischen Verbindung in einem Energieträger gespeichert ist und bei chemischen Reaktionen freigesetzt werden kann. Sie beschreibt also die Energie, die mit elektrischen Kräften in Atomen und Molekülen verbunden ist und kann unterteilt werden in einerseits kinetischer Energie der Elektronen in den Atomen und andererseits der elektrischen Energie der Wechselwirkung von Elektronen und Protonen. Sie wird bei exothermen Reaktionen frei und muss für endotherme Reaktionen hinzugefügt werden. Energie in der Elektrodynamik. In einem elektrischen Feld kann, sofern kein zeitlich veränderliches Magnetfeld vorliegt, ein elektrisches Potential definiert werden. Ein Ladungsträger besitzt dann eine potentielle elektrische (elektrostatische) Energie, die proportional zum Potential und zu seiner Ladungsmenge ist. Da der Nullpunkt des Potentials frei festgelegt werden kann, ist auch die Energie nicht absolut definiert. Für zwei Punkte im Potentialfeld ist aber die Differenz der Energien unabhängig von der Wahl des Potentialnullpunktes. Potentialdifferenzen entsprechen in der Elektrotechnik Spannungen; als Nullpunkt der Potentialskala wird üblicherweise das Potential der Erde gewählt. Für Anordnungen zweier elektrischer Leiter ist die elektrostatische Energie proportional zum Quadrat der Differenz der elektrischen Potentiale der beiden Leiter. Das Doppelte der Proportionalitätskonstante nennt man elektrische Kapazität. Kondensatoren sind elektrotechnische Bauelemente, die hohe Kapazität besitzen und daher Energie speichern können. Äquivalent zu der Sichtweise, dass die elektrostatische Energie von Ladungen getragen wird, ist die Interpretation, dass sich die Energie auf den leeren Raum zwischen den Ladungen verteilt. Die Energiedichte, also die Energie pro Volumenelement, ist bei dieser Betrachtungsweise proportional zum Quadrat der elektrischen Feldstärke. Befindet sich in dem elektrischen Feld ein Dielektrikum, so ist die Energie außerdem proportional zur Dielektrizitätskonstante. Bewegt sich eine Ladung im Vakuum zu einem Ort, an dem ein geringeres elektrisches Potential herrscht, erhöht sich die kinetische Energie der Ladung gerade so viel, wie die potentielle Energie geringer wird. Dies geschieht beispielsweise mit Elektronen in einer Elektronenröhre, in einer Röntgenröhre oder in einem Kathodenstrahlröhrenbildschirm. Bewegt sich eine Ladung dagegen entlang eines Potentialgefälles in einem Leiter, gibt sie ihre aufgenommene Energie sofort in Form von Wärme an das Leitermedium ab. Die Leistung ist dabei proportional zum Potentialgefälle und zur Stromstärke. Elektrische Energie kann transportiert werden, indem sich Ladungsträger ohne nennenswertes Potentialgefälle entlang von Leitern bewegen. Dies ist beispielsweise in Freileitungen oder in Stromkabeln der Fall, mit deren Hilfe elektrische Energie vom Kraftwerk bis zum Verbraucher fließt. Magnetische Energie ist in magnetischen Feldern wie im supraleitenden magnetischen Energiespeicher enthalten. In einem idealen elektrischen Schwingkreis gespeicherte Energie wandelt sich fortlaufend zwischen der elektrischen Form und der magnetischen Form. Zu jedem Zeitpunkt ist die Summe der Teilenergien gleich (Energieerhaltung). Hierbei hat der reine magnetische respektive elektrische Anteil der Energie die doppelte Frequenz der elektrischen Schwingung. Energie in der Relativitätstheorie. Nach der speziellen Relativitätstheorie entspricht der Masse formula_4 eines ruhenden Objekts eine Ruheenergie von Die Ruheenergie ist somit bis auf den Faktor formula_14 (Quadrat der Lichtgeschwindigkeit formula_15) der Masse äquivalent. Die Ruheenergie kann bei bestimmten Vorgängen in andere Energieformen umgewandelt werden und umgekehrt. So haben die Reaktionsprodukte der Kernspaltung und der Kernfusion messbar niedrigere Massen als die Ausgangsstoffe. In der Elementarteilchenphysik wird umgekehrt auch die Erzeugung von Teilchen und damit von Ruheenergie aus anderen Energieformen beobachtet. In der klassischen Mechanik wird die Ruheenergie nicht mitgerechnet, da sie ohne Belang ist, solange sich Teilchen nicht in andere Teilchen umwandeln. Die allgemeine Relativitätstheorie verallgemeinert das Konzept der Energie weiter und enthält eine einheitliche Darstellung von Energien und Impulsen als Quellen für Raumkrümmungen über den Energie-Impuls-Tensor. Aus diesem lassen sich durch Kontraktionen die für einen Beobachter messbaren Größen wie Energiedichte gewinnen. Für die Untersuchung der Entwicklung von Raumzeiten ist der Energieinhalt entscheidend. So kann man aus Energiebedingungen den Kollaps der Raumzeit zu einer Singularität vorhersagen. Energie in der Quantenmechanik. In der Quantenmechanik bestimmt der Hamiltonoperator, welche Energie an einem physikalischen System gemessen werden kann. Gebundene Zustände des Systems können dabei nur diskreten, also nicht beliebigen Energiewerten entsprechen. Deshalb haben die bei Übergängen zwischen diesen Zuständen emittierten Teilchen oder Strahlen Linienspektren. Die Quantelung der Energie tritt bei elektromagnetischen Wellen auf: Eine Welle der Frequenz formula_16 kann Energie nur in Paketen formula_17 abgeben, wobei formula_9 das plancksche Wirkungsquantum ist. Technische Nutzung der Energie. Grundsätzlich ist eine "Energieerzeugung" schon aufgrund des Energieerhaltungssatzes nicht möglich. Der Begriff wird im Wirtschaftsleben aber dennoch verwendet, um die Erzeugung einer bestimmten Energieform (zum Beispiel elektrischer Strom) aus einer anderen Form (zum Beispiel chemischer Energie in Form von Kohle) auszudrücken. Analog gibt es im strengen physikalischen Sinne auch keinen Energieverbrauch, wirtschaftlich gemeint ist damit aber der Übergang von einer gut nutzbaren Primärenergie (zum Beispiel Erdöl, Gas, Kohle) in eine nicht mehr weiter nutzbare Energieform (zum Beispiel Abwärme in der Umwelt). Vom "Energiesparen" ist die Rede, wenn effizientere Prozesse gefunden werden, die weniger Primärenergie für denselben Zweck benötigen, oder anderweitig, zum Beispiel durch Konsumverzicht, der Primärenergieeinsatz reduziert wird. Die Physik beschreibt den oben salopp eingeführten „Energieverbrauch“ mit dem exakten Begriff der Entropie. Während in einem abgeschlossenen System die Energie stets erhalten bleibt, nimmt die Entropie mit der Zeit stets zu oder bleibt bestenfalls konstant. Je höher die Entropie, desto schlechter nutzbar ist die Energie. Statt von Entropiezunahme kann man anschaulich auch von Energieentwertung sprechen. Das Gesetz der Entropiezunahme verhindert insbesondere, Wärmeenergie direkt in Bewegungsenergie oder elektrischen Strom umzuwandeln. Stattdessen sind immer eine Wärmequelle und eine Wärmesenke (= Kühlung) erforderlich. Der maximale Wirkungsgrad kann gemäß Carnot aus der Temperaturdifferenz berechnet werden. Der Grenzfall einer Energieumwandlung ohne Entropiezunahme wird als "reversibler Prozess" bezeichnet. Als Beispiel einer nahezu reversiblen Energieumwandlung sei ein Satellit auf einer elliptischen Umlaufbahn um die Erde genannt: Am höchsten Punkt der Bahn hat er hohe potentielle Energie und geringe kinetische Energie, am niedrigsten Punkt der Bahn ist es genau umgekehrt. Die Umwandlung kann hier ohne nennenswerte Verluste tausendfach im Jahr erfolgen. In supraleitenden Resonatoren kann Energie millionen- oder gar milliardenfach pro Sekunde zwischen Strahlungsenergie und elektrischer Energie hin- und hergewandelt werden, ebenfalls mit Verlusten von weniger als einem Promille pro Umwandlung. Bei vielen Prozessen, die in der Vergangenheit noch mit hohen Verlusten ergo erheblicher Entropiezunahme verbunden waren, ermöglicht der technologische Fortschritt zunehmend geringere Verluste. So verwandelt eine Energiesparlampe oder LED Strom wesentlich effizienter in Licht als eine Glühlampe. Eine Wärmepumpe erzeugt durch Nutzung von Wärme aus der Umwelt bei einer bestimmten elektrischen Leistung oft vielfach mehr Wärme als ein herkömmliches Elektroheizgerät bei gleicher Leistung. In anderen Bereichen liegt der Stand der Technik aber schon seit geraumer Zeit nah am theoretischen Maximum, so dass hier nur noch kleine Fortschritte möglich sind. So verwandeln gute Elektromotoren über 90 Prozent des eingespeisten Stroms in nutzbare mechanische Energie und nur einen kleinen Teil in nutzlose Wärme. Energiesparen bedeutet im physikalischen Sinn, die Energieentwertung und Entropiezunahme bei der Energieumwandlung oder Energienutzung zu minimieren. Spezifische Energie. "Spezifisch" heißt in den Naturwissenschaften „auf eine bestimmte Bemessungsgrundlage bezogen“ ("Bezogene Größe"). Die "spezifische Energie" wird auf eine gewisse Eigenschaft eines Systems bezogen, die durch eine physikalische Größe beschrieben werden kann. Nach DIN 5485 ist die "spezifische Energie" speziell massenbezogen, und die "volumetrische Energiedichte" die dimensional bezogene Bezeichnung. Energieversorgung und -verbrauch. Mit Energieversorgung und -verbrauch wird die Nutzung von verschiedenen Energien in für Menschen gut verwendbaren Formen bezeichnet. Die von Menschen am häufigsten benutzten Energieformen sind Wärmeenergie und elektrische Energie. Die menschlichen Bedürfnisse richten sich vor allem auf die Bereiche Heizung, Nahrungszubereitung und den Betrieb von Einrichtungen und Maschinen zur Lebenserleichterung. Hierbei ist das Thema Fortbewegung und der Verbrauch zum Beispiel fossiler Energiequellen in Fahrzeugen bedeutsam. Die verschiedenen Energieträger können über Leitungen die Verbraucher erreichen, wie typischerweise elektrische Energie, Erdgas, Fernwärme und Nahwärme, oder sie sind weitgehend lagerfähig und beliebig transportfähig, wie zum Beispiel Steinkohle und Braunkohlen, Heizöle, Kraftstoffe (Benzine, Dieselkraftstoffe), Industriegase, Kernbrennstoffe (Uran), Biomassen (Holz). Der Energiebedarf ist weltweit sehr unterschiedlich und in den Industrieländern um ein vielfaches höher als zum Beispiel in der Dritten Welt (siehe Liste der Staaten mit dem höchsten Energieverbrauch). In industriell hoch entwickelten Ländern haben sich seit dem 19. Jahrhundert Unternehmen mit der Erzeugung und Bereitstellung von Energie für den allgemeinen Verbrauch beschäftigt. Hierbei steht die zentrale Erzeugung von elektrischer Energie sowie die Übertragung an die einzelnen Verbraucher im Vordergrund. Weiterhin sind die Beschaffung, der Transport und die Verwandlung von Brennmaterial zu Heizzwecken wichtige Wirtschaftszweige. Etwa 40 Prozent des weltweiten Energiebedarfes wird durch elektrische Energie gedeckt. Spitzenreiter innerhalb dieses Anteils sind mit rund 20 Prozent elektrische Antriebe. Danach ist die Beleuchtung mit 19 Prozent, die Klimatechnik mit 16 Prozent und die Informationstechnik mit 14 Prozent am weltweiten elektrischen Energiebedarf beteiligt. Einheiten. Neben der SI-Einheit Joule waren und sind je nach Anwendungsgebiet noch andere Energieeinheiten in Gebrauch. Wattsekunde (Ws) und Voltamperesekunde (VAs) sind mit dem Joule identisch. Ebenfalls mit dem Joule identisch ist das Newtonmeter (Nm). Da das Newtonmeter aber die SI-Einheit für das Drehmoment ist, wird es nur selten zur Angabe von Energien verwendet. Das Elektronenvolt (eV) wird in der Atomphysik, der Kernphysik und der Elementarteilchenphysik zur Angabe von Teilchenenergien und Energieniveaus verwendet. Seltener kommt in der Atomphysik das Rydberg vor. Die cgs-Einheit erg wird häufig in der theoretischen Physik benutzt. Die Kalorie war in der Kalorimetrie üblich und wird heute noch umgangssprachlich und im Warenverkehr zusätzlich zur gesetzlichen Einheit Joule bei der Angabe des physiologischen Brennwerts von Lebensmitteln verwendet. In Kilowattstunden (kWh) messen Energieversorger die Menge der an die Kunden gelieferten Energie. Die Steinkohleeinheit und die Öleinheit dienen zur Angabe des Energieinhaltes von Primärenergieträgern. Mit dem TNT-Äquivalent misst man die Sprengkraft von Sprengstoffen. Elektronenvolt. Das Elektronenvolt, auch Elektronvolt, ist eine Einheit der Energie, die in der Atom-, Kern- und Teilchenphysik häufig benutzt wird. Ihr Einheitenzeichen ist eV. wobei die eingeklammerten Ziffern die Unsicherheit in den letzten Stellen des Wertes bezeichnen, diese Unsicherheit ist als geschätzte Standardabweichung des angegebenen Zahlenwertes vom tatsächlichen Wert angegeben und beträgt somit 9,8 · 10−28 J. Das Elektronenvolt gehört zwar nicht zum Internationalen Einheitensystem (SI), ist aber zum Gebrauch mit ihm zugelassen und eine gesetzliche Maßeinheit. Benennung. Die Einheit wird in der deutschsprachigen Fachliteratur weit überwiegend als „Elektronenvolt“ bezeichnet, also mit dem Morphem „en“ zwischen „Elektron“ und „volt“. Andererseits sieht die "Ausführungsverordnung zum Gesetz über die Einheiten im Messwesen und die Zeitbestimmung" vom 13. Dezember 1985 die Form „Elektronvolt“ vor. Die DIN-Norm 1301-1 „Einheiten – Einheitennamen, Einheitenzeichen“ vom Oktober 2010 empfiehlt die Form „Elektronvolt“. In der Norm DIN 66030 „Informationstechnik - Darstellung von Einheitennamen in Systemen mit beschränktem Schriftzeichenvorrat“ vom Mai 2002 wird dagegen die Form „Elektronenvolt“ verwendet. Verwendung als Energieeinheit. Das Elektronenvolt wird als „handliche“ Einheit der Energie in der Atomphysik und verwandten Fachgebieten wie der experimentellen Kern- und Elementarteilchenphysik verwendet. Beispielsweise wird die kinetische Energie, auf die ein Teilchen in einem Teilchenbeschleuniger gebracht wird, stets in Elektronenvolt angegeben. Handlich ist das deshalb, weil sich die Änderung der kinetischen Energie formula_6 jedes im elektrischen Feld beschleunigten Teilchens aus der Ladung formula_7 und der durchlaufenen Spannung formula_8 als formula_9 berechnen lässt und unabhängig von anderen Einflüssen ist: Die Masse des Teilchens, die Länge des Weges oder der genaue Verlauf der Feldstärke spielt keine Rolle. Der Betrag der Ladung eines freien, beobachtbaren Teilchens ist immer die Elementarladung formula_10 oder ein ganzzahliges Vielfaches davon. Anstatt die Elementarladung einzusetzen und die Energie in Joule anzugeben, kann man daher die aus einer elektrischen Beschleunigung resultierende Änderung der kinetischen Energie direkt in der Einheit eV angeben. Dabei gilt die Formel formula_11 nur für einfach geladene Teilchen wie Elektronen, Protonen und einfach geladene Ionen; bei formula_12-fach geladenen Teilchen gilt entsprechend formula_13. So ändert sich beispielsweise die kinetische Energie eines Protons beim Durchfliegen einer Potentialdifferenz von 100 V um 100 eV, die Energie eines zweifach geladenen Heliumkerns ändert sich um 200 eV. Die kinetische Energie eines positiv geladenen Teilchens nimmt um den genannten Betrag zu, wenn die durchlaufene Spannung so gepolt ist, dass das elektrische Potential auf dem Weg des Teilchens abnimmt (umgangssprachlich: „Wenn sich das Teilchen von Plus nach Minus bewegt“), sonst nimmt sie ab. Für negativ geladene Teilchen gilt dasselbe mit umgekehrten Vorzeichen (siehe z. B. Gegenfeldmethode beim Photoeffekt). Verwendung als Masseneinheit. Das Elektronenvolt kann auch als Einheit der Ruhemasse von Teilchen verwendet werden. Die Umrechnung von Masse in Energie – die dann auch als Ruheenergie bezeichnet wird – geschieht mit Hilfe der bekannten Einsteinschen Gleichung aus der speziellen Relativitätstheorie Die entsprechende Masseneinheit ist also formula_18. Die Umrechnung in Kilogramm ist Beispielsweise beträgt die Masse eines Elektrons 9,11 · 10−31 kg = 511 keV/c². In der Teilchenphysik wird oft ein System „natürlicher“ Einheiten verwendet, in dem formula_20 gesetzt wird. Damit werden auch Massen direkt in eV ausgedrückt. Weitere Beispiele und Bemerkungen. Die kinetische Energie von schnell bewegten schwereren Atomkernen (Schwerionen) gibt man häufig "pro Nukleon" an. Als Einheit wird dann AGeV geschrieben, wobei A für die Massenzahl steht. Jeder Kern mit 1 AGeV besitzt die gleiche Geschwindigkeit. Analog gibt es je nach Energieskala das ATeV und das AMeV. Im LHC am CERN ist geplant, Protonen mit einer Energie von 6,5 TeV und Bleikerne mit 574 TeV miteinander kollidieren zu lassen, bei den Protonen wurde dieser Wert bereits erreicht. Die Energie eines einzelnen Kerns mit ca. 1 µJ bzw. 90 µJ ist dabei immer noch sehr gering. Berücksichtigt man aber die große Anzahl der Teilchen (1,15 · 1011 Protonen pro Teilchenpaket, im Ring des LHC befinden sich bis zu 2808 Teilchenpakete pro Richtung), erhält man als Gesamtenergie der im Ring befindlichen Protonen 720 MJ, dies entspricht grob der kinetischen Energie eines startenden großen Flugzeugs. Umrechnung in Joule pro Mol. wobei formula_23 die Faraday-Konstante ist. Elektrodynamik. Die klassische Elektrodynamik ist das Teilgebiet der Physik, das sich mit bewegten elektrischen Ladungen und mit zeitlich veränderlichen elektrischen und magnetischen Feldern beschäftigt. Die Elektrostatik als Spezialfall der Elektrodynamik beschäftigt sich mit ruhenden elektrischen Ladungen und ihren Feldern. Die zugrundeliegende Grundkraft der Physik heißt Elektromagnetische Wechselwirkung. Die Theorie der klassischen Elektrodynamik wurde von Maxwell Mitte des 19. Jahrhunderts mithilfe der nach ihm benannten Maxwell-Gleichungen formuliert. Die Untersuchung der Maxwellgleichungen für bewegte Bezugssysteme führte Albert Einstein 1905 zur Formulierung der Speziellen Relativitätstheorie. Im Laufe der 1940er Jahre gelang es, die Quantenmechanik und Elektrodynamik in der Quantenelektrodynamik zu kombinieren, deren Vorhersagen sehr genau mit Messergebnissen übereinstimmen. Eine wichtige Form von elektromagnetischen Feldern sind die elektromagnetischen Wellen, zu denen als bekanntester Vertreter das sichtbare Licht zählt. Obwohl die physikalischen Grundlagen zur Beschreibung elektromagnetischer Wellen durch die Elektrodynamik gegeben sind, stellt ihre Erforschung ein eigenes Gebiet der Physik dar, die Optik. Grundlegende Gleichungen. Das Zusammenspiel von elektromagnetischen Feldern und elektrischen Ladungen wird grundlegend durch die "mikroskopischen" Maxwell-Gleichungen Daraus ergeben sich mit Hilfe der Materialgleichungen der Elektrodynamik die "makroskopischen" Maxwell-Gleichungen. Diese sind Gleichungen für die effektiven Felder, die in Materie auftreten. Potentiale und Wellengleichung. können durch die Einführung der elektromagnetischen Potentiale gemäß in einem sternförmigen Gebiet identisch gelöst werden (Poincaré-Lemma). Dabei bezeichnet formula_8 das sogenannte skalare Potential und formula_9 das Vektorpotential. Da die physikalischen Felder nur durch Ableitungen der Potentiale gegeben sind, hat man gewisse Freiheiten, die Potentiale abzuändern und trotzdem dieselben physikalischen Felder zurückzuerhalten. Beispielsweise ergeben formula_10 und formula_9 dasselbe formula_12-Feld, wenn man sie durch miteinander in Beziehung setzt. Fordert man auch, dass sich bei einer solchen Transformation dasselbe formula_14-Feld ergibt, muss sich formula_8 wie transformieren. Eine solche Transformation wird Eichtransformation genannt. In der Elektrodynamik werden zwei Eichungen oft verwendet. Erstens die sogenannte Coulomb-Eichung oder Strahlungseichung Die Lorenz-Eichung hat dabei den Vorteil relativistisch invariant zu sein und sich bei einem Wechsel zwischen zwei Inertialsystemen strukturell nicht zu ändern. Die Coulomb-Eichung ist zwar nicht relativistisch invariant, aber wird eher bei der kanonischen Quantisierung der Elektrodynamik verwendet. Setzt man die formula_14- und formula_12-Felder und die Vakuum-Materialgleichungen in die inhomogenen Maxwellgleichungen ein und eicht die Potentiale gemäß der Lorenzeichung, entkoppeln die inhomogenen Maxwellgleichungen und die Potentiale erfüllen inhomogene Wellengleichungen Hierbei bezeichnet formula_22 den D’Alembertoperator. Spezialfälle. Die Elektrostatik ist der Spezialfall unbewegter elektrischer Ladungen und statischer (sich nicht mit der Zeit ändernder) elektrischer Felder. Sie kann in Grenzen auch verwendet werden, solange die Geschwindigkeiten und Beschleunigungen der Ladungen und die Änderungen der Felder klein sind. Die Magnetostatik beschäftigt sich mit dem Spezialfall konstanter Ströme in insgesamt ungeladenen Leitern und konstanter Magnetfelder. Sie kann für hinreichend langsam veränderliche Ströme und Magnetfelder verwendet werden. Die Kombination aus beiden, Elektromagnetismus, kann beschrieben werden als Elektrodynamik der nicht zu stark beschleunigten Ladungen. Die meisten Vorgänge in elektrischen Schaltkreisen (z. B. Spule, Kondensator, Transformator) lassen sich bereits auf dieser Ebene beschreiben. Ein stationäres elektrisches oder magnetisches Feld bleibt nahe seiner Quelle, wie zum Beispiel das Erdmagnetfeld. Ein sich veränderndes elektromagnetisches Feld kann sich jedoch von seinem Ursprung entfernen. Das Feld bildet eine elektromagnetische Welle im Zusammenspiel zwischen magnetischem und elektrischem Feld. Diese Abstrahlung elektromagnetischer Wellen wird in der Elektrostatik vernachlässigt. Die Beschreibung des elektromagnetischen Feldes beschränkt sich hier also auf das Nahfeld. Elektromagnetische Wellen hingegen sind die einzige Form des elektromagnetischen Feldes, die auch unabhängig von einer Quelle existieren kann. Sie werden zwar von Quellen erzeugt, können aber nach ihrer Erzeugung unabhängig von der Quelle weiterexistieren. Da Licht sich als elektromagnetische Welle beschreiben lässt, ist auch die Optik letztlich ein Spezialfall der Elektrodynamik. Elektrodynamik und Relativitätstheorie. Im Gegensatz zur klassischen Mechanik ist die Elektrodynamik nicht galilei-invariant. Das bedeutet, wenn man, wie in der klassischen Mechanik, einen absoluten, euklidischen Raum und eine davon unabhängige absolute Zeit annimmt, dann gelten die Maxwellgleichungen nicht in jedem Inertialsystem. Einfaches Beispiel: Ein mit konstanter Geschwindigkeit fliegendes, geladenes Teilchen ist von einem elektrischen und einem magnetischen Feld umgeben. Ein mit gleicher Geschwindigkeit fliegendes, gleichgeladenes Teilchen erfährt durch das elektrische Feld des ersten Teilchens eine abstoßende Kraft, da sich gleichnamige Ladungen gegenseitig abstoßen; gleichzeitig erfährt es durch dessen Magnetfeld eine anziehende Lorentzkraft, die die Abstoßung teilweise kompensiert. Bei Lichtgeschwindigkeit wäre diese Kompensation vollständig. In dem Inertialsystem, in dem beide Teilchen ruhen, gibt es kein magnetisches Feld und damit keine Lorentzkraft. Dort wirkt nur die abstoßende Coulombkraft, so dass das Teilchen stärker beschleunigt wird als im ursprünglichen Bezugssystem, in dem sich beide Ladungen bewegen. Dies widerspricht der newtonschen Physik, bei der die Beschleunigung nicht vom Bezugssystem abhängt. Diese Erkenntnis führte zunächst zu der Annahme, dass es in der Elektrodynamik ein bevorzugtes Bezugssystem gäbe (Äthersystem). Versuche, die Geschwindigkeit der Erde gegen den Äther zu messen, schlugen jedoch fehl, so zum Beispiel das Michelson-Morley-Experiment. Hendrik Antoon Lorentz löste dieses Problem mit einer modifizierten Äthertheorie (Lorentzsche Äthertheorie), die jedoch von Albert Einstein mit seiner speziellen Relativitätstheorie abgelöst wurde. Einstein ersetzte Newtons absoluten Raum und absolute Zeit durch eine vierdimensionale Raumzeit. In der Relativitätstheorie tritt an die Stelle der Galilei-Invarianz die Lorentz-Invarianz, die von der Elektrodynamik erfüllt wird. In der Tat lässt sich die Verringerung der Beschleunigung und damit die magnetische Kraft im obigen Beispiel als Folge der Längenkontraktion und Zeitdilatation erklären, wenn man die im bewegten System gemachten Beobachtungen in ein ruhendes System zurücktransformiert. In gewisser Weise lässt sich daher die Existenz von magnetischen Phänomenen letztlich auf die Struktur von Raum und Zeit zurückführen, wie sie in der Relativitätstheorie beschrieben wird. Unter diesem Gesichtspunkt erscheint auch die Struktur der Grundgleichungen für statische Magnetfelder mit ihren Kreuzprodukten weniger verwunderlich. Erweiterungen. Jedoch liefert die klassische Elektrodynamik keine widerspruchsfreie Beschreibung bewegter Punktladungen, auf kleinen Skalen ergeben sich Probleme wie die der Abraham-Lorentz-Gleichung. Die Quantenelektrodynamik (QED) vereint die Elektrodynamik deshalb mit quantenmechanischen Konzepten. Die Theorie der elektroschwachen Wechselwirkung vereinigt die QED mit der schwachen Wechselwirkung und ist Teil des Standardmodells der Elementarteilchenphysik. Die Struktur der QED ist ebenfalls Ausgangspunkt für die Quantenchromodynamik (QCD), welche die starke Wechselwirkung beschreibt. Allerdings ist die Situation dort noch komplizierter (z. B. drei Ladungsarten, siehe Farbladung). Eine Vereinheitlichung der Elektrodynamik mit der allgemeinen Relativitätstheorie (Gravitation) ist unter dem Namen Kaluza-Klein-Theorie bekannt, und stellt einen frühen Versuch zur Vereinheitlichung der fundamentalen Wechselwirkungen dar. E-Mail. Die (auch das) E-Mail (, engl., kurz "Mail"; engl. ' für „elektronische Post“ oder E-Post'") ist eine auf elektronischem Weg in Computernetzwerken übertragene, briefähnliche Nachricht. E-Mail wird – noch vor dem World Wide Web – als wichtigster und meistgenutzter Dienst des Internets angesehen, nicht zuletzt, weil es durch E-Mails möglich ist, Textnachrichten ebenso wie digitale Dokumente (also z. B. Grafiken oder Office-Dokumente) typischerweise in wenigen Sekunden rund um die Erde zuzustellen. Im Gegensatz zu Telefon oder Internet Relay Chat, die gleichzeitige (synchrone) Kommunikation ermöglichen, Der Sender versendet seine Nachricht unabhängig davon, ob der Empfänger sie sofort entgegennehmen kann oder nicht. Artikel und Schreibweise. Standardsprachlich hat sich in Deutschland die weibliche Form ("die E-Mail") des grammatischen Geschlechts weitgehend durchgesetzt, in der Schweiz hingegen das Neutrum ("das E-Mail"), während in Österreich und in Teilen Südwestdeutschlands beide Formen Verwendung finden. Das Österreichische Wörterbuch nennt sowohl die weibliche als auch die sächliche Form, nennt letztere aber zuerst. Gemäß Duden, Wahrig und dem amtlichen Regelwerk der deutschen Sprache ist "E-Mail" die einzig richtige Schreibweise. Daneben sind jedoch auch die amtlich inkorrekten Schreibweisen "Email" (nicht zu verwechseln mit dem Schmelzüberzug Emaille), "email" sowie "eMail", "e-Mail", "e-mail", "E-mail" oder einfach "Mail" bzw. "mail" verbreitet. Ein weniger gebräuchliches Synonym ist der Begriff "E-Post". Geschichte. Vor dem Aufkommen von E-Mail wurden Nachrichten als Brief oder Telegramm, später auch – als die ersten beiden digitalen Übertragungsverfahren – Fernschreiben und Teletex sowie Fax übermittelt. Ende der 1980er Jahre begann dann der Erfolgsweg der E-Mail – sie war eine der ersten Anwendungen, die die Möglichkeiten des Arpanets nutzten. Die Einführung von E-Mail wurde nicht gezielt geplant, sondern eroberte das Netzwerk wegen des Benutzerverhaltens. Das überraschte die Arpanet-Initiatoren, denn noch 1967 hatte Lawrence Roberts, der spätere Leiter von IPTO, gesagt, die Möglichkeit des Austausches von Botschaften unter den Netzwerkteilnehmern sei kein wichtiger Beweggrund, um ein Netzwerk von wissenschaftlichen Rechnern aufzubauen („not an important motivation for a network of scientific computers“). Als Erfinder von E-Mail über Rechnernetze gilt Ray Tomlinson. Er war bei dem Forschungsunternehmen Bolt, Beranek and Newman (BBN) an der Entwicklung des Betriebssystems TENEX beteiligt und beschäftigte sich dabei unter anderem mit dem Programm SNDMSG für die Übermittlung von Nachrichten unter den Benutzern des Großrechners und dem Protokoll CPYNET für die Übertragung von Dateien zwischen Computern. Programme wie SNDMSG gab es bereits seit den frühen 1960er Jahren. Sie ermöglichten Benutzern, den Mailboxen anderer Benutzer desselben Computers Text hinzuzufügen. Eine Mailbox war seinerzeit nichts weiter als eine einzelne Datei, die nur ein Benutzer lesen konnte. Tomlinson kam 1971 auf die Idee, CPYNET so zu ändern, dass es vorhandene Dateien ergänzen konnte und es dann in SNDMSG einzuarbeiten. Die erste Anwendung dieser Kombination war eine Nachricht von Tomlinson an seine Kollegen, in der er Ende 1971 mitteilte, dass man nun Nachrichten übers Netzwerk senden konnte, indem man dem Benutzernamen des Adressaten das Zeichen „@“ und den Hostname des Computers anfügte. Parallel zum Internet entwickelten sich zu Beginn der 1980er Jahre in den meisten Netzwerken Systeme, mit denen sich Nachrichten übertragen ließen. Dazu gehörten unter anderem Mailbox-Systeme, X.25, Novell und BTX. Diese Systeme wurden Mitte der 1990er durch die Verbreitung des Internets stark verdrängt. Aus dem Jahr 1982 stammt das Protokoll "RFC 822". "RFC 822" wurde im Jahr 2001 durch RFC 2822 ersetzt, das wiederum im Jahr 2008 durch "RFC 5322" ersetzt wurde. In Deutschland wurde am 3. August 1984 um 10:14 Uhr MEZ die erste Internet-E-Mail empfangen: Michael Rotert von der Universität Karlsruhe (TH) empfing unter seiner Adresse "„rotert@germany“" eine Grußbotschaft von Laura Breeden "(„breeden@scnet-sh.arpa“)" an der US-amerikanischen Plattform CSNET aus Cambridge (Massachusetts) zur elektronischen Kommunikation von Wissenschaftlern, die einen Tag zuvor (am 2. August 1984, 12:21 Uhr) abgeschickt worden war. Eine Kopie dieser E-Mail wurde als „CC“ gleichzeitig an den Leiter des Projekts, Werner Zorn mit der Adresse "(„zorn@germany“)", geschickt. Heute werden E-Mails meist per SMTP verschickt. Zum Abrufen der E-Mails vom Zielserver existieren verschiedene Verfahren, etwa das POP3- oder IMAP-Protokoll oder Webmail. X.400 ist ein offener Standard, der hauptsächlich im LAN oder WAN benutzt wird. Die erste große E-Mail-Diskussionsgruppe, die im Arpanet entstand, war eine Mailingliste namens „SF-LOVERS“, in der sich eine Reihe von DARPA-Forschern an öffentlichen Diskussionen über Science Fiction beteiligte (Rheingold, 1994). SF-LOVERS tauchte in den späten 1970er Jahren im Arpanet auf. Zunächst wurde versucht, dagegen einzuschreiten, weil derartige Aktivitäten selbst bei liberalster Auslegung mit Forschung wenig zu tun hatten. Für einige Monate wurde die Liste deshalb gesperrt. Schließlich wurden die Verantwortlichen der DARPA aber mit dem Argument überzeugt, dass SF-LOVERS ein wichtiges Pilotprojekt zur Erforschung der Verwaltung und des Betriebs großer Mailinglisten war (Hauben, 1993). Die Systemingenieure mussten das System wiederholt umbauen, damit es das explosionsartig ansteigende Nachrichtenaufkommen bewältigen konnte. Im Jahr 2012 verfügten insgesamt 3,375 Milliarden Menschen auf der ganzen Welt über einen aktiven E-Mail-Account. Zugriff auf E-Mails. Zum Schreiben, zum Versand, zum Empfang und zum Lesen von E-Mails gibt es zwei Möglichkeiten (Benutzerschnittstellen). Zur Nutzung von E-Mail kann ein E-Mail-Programm, auch E-Mail-Client oder Mail-User-Agent (MUA) genannt, verwendet werden. Ein solches Programm ist lokal auf dem Computer des Benutzers installiert und kommuniziert mit einem oder mehreren E-Mail-Postfächern. Alternativ kann man via Webmail auf seine E-Mail zugreifen. Hierbei bearbeitet der Benutzer seine E-Mails in seinem Web-Browser. Ermöglicht wird dies durch eine Webanwendung auf dem Webserver des E-Mail-Providers, die ihrerseits auf das E-Mail-Postfach auf dem Webserver zugreift. Aufbau einer E-Mail. E-Mails sind intern in zwei Teile geteilt: Den "Header" mit Kopfzeilen und den "Body" mit dem eigentlichen Inhalt der Nachricht. Zusätzlich werden innerhalb des Bodys noch weitere Untergliederungen definiert. Header – der Kopf der E-Mail. Die "Header" genannten Kopfzeilen einer E-Mail geben Auskunft über den Weg, den eine E-Mail genommen hat, und bieten Hinweise auf Absender, Empfänger, Datum der Erstellung, Format des Inhaltes und Stationen der Übermittlung. Der Benutzer wird viele Details aus den Header-Zeilen im Normalfall nicht benötigen. Daher bieten E-Mail-Programme an, den Header bis auf die Grunddaten wie Absender, Empfänger und Datum auszublenden. Bei Bedarf kann der Header jederzeit wieder komplett sichtbar gemacht werden. Body – der Inhalt der E-Mail. Der Body einer E-Mail ist durch eine Leerzeile vom Header getrennt und enthält die zu übertragenden Informationen in einem oder mehreren Teilen. Eine E-Mail darf gemäß RFC 5322 Abschnitt 2.3 nur Zeichen des 7-Bit-ASCII-Zeichensatzes enthalten. Sollen andere Zeichen, wie zum Beispiel deutsche Umlaute, oder Daten, wie zum Beispiel Bilder, übertragen werden, müssen das Format im Header-Abschnitt deklariert und die Daten passend kodiert werden. Geregelt wird das durch RFC 2045 ff (siehe auch MIME und Base64). Aktuelle E-Mail-Programme kodieren Text und Dateianhänge (vergleiche unten) bei Bedarf automatisch. Die Nachricht kann aus einem Klartext, einem formatierten Text (beispielsweise HTML) und/oder Binärdaten (beispielsweise einem Bild oder Fax, s. u. bei Dateianhänge) bestehen. Es können auch mehrere Formate als Alternativen gesendet werden oder weitere beliebige Dateien angehängt werden. Den Abschluss bilden ggf. "Signatur" und "Footer". Alle diese zusätzlichen Teile sind optional, müssen in einer E-Mail also nicht unbedingt vorkommen. Formatierung in HTML. In HTML formatierte Mails werden teils ungewollt und unbewusst durch die Voreinstellung des verwendeten E-Mail-Programms, insbesondere von Microsoft-Programmen, versandt, teils bewusst, um Schriftauszeichnungen verwenden zu können, etwa in E-Mail-Newslettern. Obwohl das HTML-Format standardisiert ist, war es ursprünglich nicht für den Einsatz in E-Mails gedacht. Das führte unter anderem dazu, dass es in der Vergangenheit viele, auch konzeptuelle Sicherheitslücken in den HTML-Rendering-Engines von E-Mail-Programmen gab, die einerseits zur Verbreitung von E-Mail-Würmern beigetragen haben und andererseits ungewollte Informationen über den Empfänger preisgegeben haben (Zählpixel). Diese Situation hat sich im Lauf der Zeit verbessert und bekannte Probleme, wie die standardmäßige Ausführung aktiver Inhalte (beispielsweise JavaScript) oder das automatische Nachladen externer Bilder, wurden durch andere Voreinstellungen entschärft. Die oft inkonsistente Deaktivierung potentiell gefährlicher HTML-Features in verschiedenen E-Mail-Programmen hat allerdings auch den Effekt, dass optische Effekte oder Formatierungen nicht so dargestellt werden, wie es vom Absender gedacht war. HTML-Mails stehen im Ruf, unsicherer als reine Text-Mails zu sein. Da die Vergangenheit gezeigt hat, dass das Rendering von HTML-Mails anfälliger für Sicherheitslücken ist als die Anzeige von Klartext, empfehlen auch heute noch viele EDV-Ratgeber und Softwarehersteller die HTML-Anzeige von E-Mails zumindest im Vorschaufenster des E-Mail-Programms zu deaktivieren oder ganz auszuschließen. Die E-Mail-Adresse. Eine E-Mail-Adresse bezeichnet eindeutig den Empfänger einer E-Mail und ermöglicht damit eine Zustellung an diesen Empfänger. So, wie sie für den Transport per SMTP im Internet verwendet wird, besteht sie aus zwei Teilen: In info@wikipedia.org ist wikipedia.org der "domain-part", info der "local-part". (Andere Transportmechanismen wie zum Beispiel UUCP oder X.400 verwenden eine andere Adress-Syntax.) Der "domain-part" benennt den MX Resource Record (meist identisch der Domain) des Mailservers, dem die E-Mail zugestellt werden soll. Der "local-part" identifiziert eindeutig den Besitzer eines E-Mail-Postfachs auf diesem Mailserver. Der Weg einer typischen E-Mail (Prinzip). Schematische Darstellung des prinzipiellen Ablaufs der Zustellung einer typischen E-Mail In einem typischen Fall nimmt eine E-Mail den folgenden Weg von einem Absender (im Beispiel: Anja) durch das Internet zu einem Adressaten (im Beispiel: Bertram), siehe Abbildung rechts. Besonderheiten: Oftmals wird es sich bei Anjas Internetdienstanbieter und Anjas E-Mail-Provider um ein und dasselbe Unternehmen handeln. Wenn Anja und Bertram ihre E-Mail-Konten beim selben E-Mail-Anbieter haben, entfällt Schritt 3. Zustell- und Lesebestätigungen. Je nach Ausführung des verwendeten E-Mail-Programms kann der Absender einer E-Mail eine Zustellbestätigung und/oder eine Lesebestätigung anfordern. Wurde eine "Zustellbestätigung" angefordert, erhält der Absender (im obigen Beispiel Anja) eine Delivery Status Notification (DSN) in Form einer E-Mail, sobald seine E-Mail erfolgreich im Postfach des Empfängers abgelegt wurde und die beteiligten Architekturen dies unterstützen. Bezogen auf das obige Beispiel geschähe dies zeitlich unmittelbar nach Schritt 4. Wurde eine "Lesebestätigung" angefordert, erhält der Absender (im obigen Beispiel Anja) eine Message Disposition Notification (MDN) in Form einer E-Mail, wenn der Empfänger (im obigen Beispiel Bertram) die an ihn gerichtete E-Mail öffnet und das Auslösen dieser Bestätigung nicht verhindert. Bezogen auf das obige Beispiel geschähe dies zeitlich unmittelbar im Schritt 6 beim Öffnen der E-Mail. Die Lesebestätigung kann somit "nicht" dahingehend interpretiert werden, dass der Empfänger die E-Mail auch tatsächlich gelesen oder gar verstanden hat. Insofern haben diese Bestätigungen den – allerdings nicht-juristischen, sondern lediglich informativen – Charakter eines Einwurf-Einschreibens (Zustellbestätigung) bzw. eines Einschreibens mit Rückschein (Lesebestätigung) in Deutschland. Technische Details. Das Format einer E-Mail wird durch den RFC 5322 festgelegt. Danach bestehen E-Mails nur aus Textzeichen (7-Bit-ASCII-Zeichen). Um auch andere Zeichen übertragen zu können, wurden weitere Internet-Standards definiert, mit deren Hilfe 8-Bit-Zeichen in ASCII kodiert werden. Der Standard Quoted-Printable kodiert zum Beispiel den Buchstaben „ß“ als Zeichenkette „=DF“. Breite Verwendung haben die Standards der MIME-Serie gefunden, mit deren Hilfe nicht nur Sonderzeichen in Texten, sondern auch Binär-Dateien kodiert werden können, zum Beispiel um sie als E-Mail-Anhänge zu verschicken. Die Gesamtgröße von E-Mails ist prinzipiell nicht begrenzt. In der Realität zeigen sich allerdings Grenzen durch technische oder administrative Beschränkungen der Systeme, die die E-Mail übertragen oder empfangen. E-Mail-Provider, E-Mail-Postfächer und beteiligte Mailserver können die Größe einer E-Mail begrenzen. In solchen Fällen sollte der begrenzende Mailserver dem Absender eine "Bounce Message" (Fehlermeldung) senden. Speicherung. Wo die Mails permanent gespeichert werden, hängt von der verwendeten Technik des Endanwenders ab. Benutzt er ein Webinterface, so werden die Mails grundsätzlich auf dem Mailserver gehalten. Wenn er ein Mailprogramm einsetzt, das die Mails mit dem Protokoll IMAP liest, dann werden die E-Mails ebenfalls auf einem Mailserver gehalten. Ursprünglich sah das alternative Protokoll POP vor, dass die Mails vom Server geholt und dort gleichzeitig gelöscht werden. Der Client ist also für das Speichern auf seinem lokalen Massenspeicher zuständig. Bei neueren POP-Versionen ist es aber – abhängig von den Einstellungen des Servers – auch möglich, die Mails auf dem Server zu belassen. E-Mails werden (lokal oder auf dem Mailserver) häufig nicht einzeln als separate Dateien, sondern zusammengefasst in Container-Dateien gespeichert. mbox ist eine unter Unix/Linux häufig verwendete Möglichkeit, eine Alternative ist Maildir. Für einzelne E-Mails ist unter anderem die Dateiendung codice_1 geläufig. Das Mailprogramm Pegasus Mail (kurz PMail) verwendet eigene Mailordner. Zustellung einer E-Mail: beteiligte Server und Protokolle. Beteiligte Server und Protokolle bei der Zustellung einer typischen E-Mail Verwendete Protokolle. Heutzutage sind hauptsächlich SMTP, POP3 und IMAP in Verwendung, oft in Verbindung mit SSL-Verschlüsselung (siehe SMTPS, POP3S und IMAPS). Laufzeit. Die Laufzeit (Transportzeit einer Postsendung vom Absender zum Empfänger) der E-Mail kann ein Problem darstellen, da sie – anders als zum Beispiel beim Telefax – nicht vorhersehbar ist und unter ungünstigen Voraussetzungen stark schwanken kann. Die Schwankungen der Laufzeit werden durch eine Vielzahl von Parametern beeinflusst, vor allem durch die Auslastung der beteiligten Mailsysteme sowie der für E-Mail bereitstehenden Übertragungskapazität der die Mailsysteme verbindenden Leitungen. Ist der Mailserver des Empfängers länger nicht erreichbar, oder wird die Mail nur in großen Zeitabständen auf den Server des Empfängers übertragen, kann es durchaus zu Laufzeiten von einigen Tagen kommen. Die Nachteile der nicht fest definierten Laufzeit sind jedoch bei den heutigen modernen E-Mail-Systemen nahezu vernachlässigbar (weltweit selten mehr als eine Minute), da bei gut gepflegten Systemen nur noch relativ selten größere Fehler auftreten, durch die längere Laufzeiten verursacht werden könnten. Verzögerungen können allerdings auch bei modernen E-Mail-Systemen durch diverse Spamschutz-Maßnahmen auftreten (beispielsweise dem Greylistingverfahren). Praktische Vorteile gegenüber der Papierpost. Als wesentlicher Vorteil von E-Mails ist zu nennen, dass sie sehr schnell (im Bereich von wenigen Sekunden) übermittelt und vom Empfänger gelesen werden können. Der praktische Aufwand, eine E-Mail zu verschicken und zu empfangen, ist geringer, da kein Ausdrucken, Kuvertieren, Adressieren, Frankieren und Postkasteneinwurf beim Absender und kein Briefkastenentleeren und Brieföffnen beim Empfänger nötig ist. Auf dem Computer geschriebene Briefe können direkt und einfach per E-Mail verschickt und beim Empfänger direkt auf dem Computer gelesen und ggf. weiterverarbeitet werden. Auch der finanzielle Einzelaufwand (Kosten für Versand einer E-Mail) ist im Normalfall geringer (keine Material- und Portokosten), sofern viele E-Mails verarbeitet werden oder die nötige Infrastruktur (Computer mit Internetzugang) sowieso schon beim Absender und Empfänger zur weitergehenden Nutzung vorhanden ist. Zudem wird der Aufwands- und Kostenvorteil umso größer, je mehr Empfänger die gleiche E-Mail erhalten sollen (Rundschreiben). E-Mail-Dienste werden im Internet für den Privatgebrauch meist kostenlos angeboten. Sie finanzieren sich im Allgemeinen durch Werbung. Hinsichtlich der Umweltfreundlichkeit von E-Mails im Speziellen gibt es verschiedene Diskussionen und Ansichten wie auch beim Internet und der Computertechnik im Allgemeinen. Zumindest sind E-Mails insofern umweltfreundlicher, als sie unmittelbar kein Papier verbrauchen und keinen materiellen Transport (Lkw, Bahn, Flugzeug, Schiff usw.) benötigen. E-Mails haben gegenüber normaler Papier-Post den Vorteil, dass ihre Anschriften- und Absendertexte (E-Mail-Adressen) deutlich kürzer sind als bei normalen Papier-Post-Adressen mit Name, Straße/Postfach, Postleitzahl, Ort und ggf. Land. E-Mail-Adressen können weitgehend frei gewählt werden und es besteht auch kein Zwang, den eigenen Namen in Klartext (z.B. "michael.mueller@xyz.org") als E-Mail-Adresse zu verwenden, sofern der Domain-Inhaber (xyz.org) keine Regeln zum Format seiner E-Mail-Adressen aufgestellt hat oder keine Gesetze gebrochen werden. Stattdessen sind ebenso Pseudonyme wählbar, womit eine höhere Anonymität erreicht wird, da die E-Mail-Adresse nicht oder nur begrenzt (über die Domain hergeleitet) Aussage macht bzw. Rückschlüsse erlaubt über Namen, Herkunft, Geschlecht, Anschrift, geosozialen Status usw. Ebenso ist der Besitz mehrerer verschiedener E-Mail-Adressen möglich. In der praktischen Handhabung bieten E-Mails ebenso Vorteile gegenüber der Papier-Post. Eine E-Mail kann gleichzeitig an mehrere Empfänger verschickt werden, wobei auch mit verdeckten Empfängerlisten (BCC) gearbeitet werden kann, damit die komplette Empfängerliste nicht von jedem Empfänger einsehbar ist. E-Mails können auf dem Computer einfach archiviert und die Archive können leicht durchsucht werden, um eine E-Mail schnell wiederzufinden. Auch versendete und gelöschte E-Mails können automatisch archiviert werden. E-Mail-Systeme bieten des Weiteren einige praktische Automatismen. E-Mails lassen sich auf Wunsch automatisch weiterleiten, entweder zu einer anderen E-Mail-Adresse oder auf anderen Kommunikationskanälen, beispielsweise als SMS oder Fax. Auch der umgekehrte Weg ist möglich, das heißt die Weiterleitung eines Fax oder einer SMS an eine E-Mail-Adresse. Auf Wunsch kann auch bei Eingang einer E-Mail eine automatische Antwort an den Absender verschickt werden (zum Beispiel eine Abwesenheits-Nachricht) oder es erfolgt eine Benachrichtigung, dass eine neue Nachricht eingegangen ist. Ebenso ist eine automatische Aussortierung von unerwünschten E-Mails (Spam-Filter & persönliche Blacklists) oder eine automatische Vorsortierung in verschiedene Ordner nach frei vorgebbaren Kriterien möglich. Von Vorteil ist auch, dass an E-Mails weitere Dateien beliebiger Art angefügt werden können, die der Empfänger weiterverwenden kann. E-Mails können aus Datenschutzgründen auch verschlüsselt und zur Authentifizierung elektronisch signiert werden. Ebenso können auf Wunsch digitale Visitenkarten mit weiteren Informationen (wie Anschrift oder Telefonnummer) als Anhang einer E-Mail mitverschickt werden, wodurch der Empfänger sein Adressbuch leichter mit E-Mail-Kontakten füllen und pflegen kann. Auch beim Antworten auf E-Mails zeigen sich praktische Vorteile. Antworten auf E-Mails können einfacher und schneller begonnen werden, indem der Absender und die CC-Empfänger der Ursprungs-E-Mail automatisch als Empfänger der Antwort übernommen werden. Ebenso kann in Antworten der Inhalt der Ursprungs-E-Mail zitiert oder angefügt werden, um in der Antwort besser Bezug nehmen oder antworten zu können oder um den Diskussionsfaden zu dokumentieren. Spam. Die Effizienz von E-Mail wird durch den massenhaften Verkehr von Spam, also E-Mails, die dem Empfänger unverlangt zugestellt werden und häufig werbenden Inhalt haben, teilweise eingeschränkt insofern, als dass die Bearbeitung von Spam-E-Mails den Empfänger Zeit kostet. Seit ungefähr 2002 sind mehr als 50 % und seit 2007 etwa 90 % des weltweiten E-Mail-Aufkommens Spam. Im Jahr 2010 wurden ca. 107 Billionen E-Mails verschickt, mit einem Spam-Anteil von 89,1 %. Das Landgericht Bonn entschied 2014 mit Bezug auf einen Fall von Anwaltshaftung, dass der Spam-Ordner eines Accounts, der im geschäftlichen Verkehr als Kontaktmöglichkeit zur Verfügung gestellt wird, täglich durchgesehen werden muss, um versehentlich als Werbung aussortierte E-Mails zurückzuholen. Authentizität, Datenschutz und Integrität. Wie jedes Kommunikationsmittel muss auch die E-Mail verschiedenen Anforderungen genügen, um als sicheres Kommunikationsmittel gelten zu dürfen. Hier sind als wichtigste Kriterien die Authentizität, der Datenschutz und die Integrität einer E-Mail zu nennen. Mit der Authentizität einer E-Mail ist gemeint, dass sichergestellt ist, dass die E-Mail auch wirklich vom Absender stammt, also ein Original ist und keine betrügerische Fälschung. Datenschutz bezeichnet bei E-Mails im Wesentlichen den Schutz vor Mitlesen durch Dritte auf dem Übertragungsweg. Als Integrität bezeichnet man das Schutzziel, dass der E-Mail-Inhalt bei der Übertragung vollständig und unverändert bleibt. Zur Erreichung der Authentizität, des Datenschutzes und der Integrität existieren bereits diverse Schutzmechanismen, wie an anderen Stellen bereits beschrieben (Verschlüsselung, Absenderauthentifizierung, Pretty Good Privacy, GNU Privacy Guard, MIME). Jedoch werden diese Schutzmechanismen beim Großteil des heutigen E-Mail-Verkehrs noch nicht angewendet. Ohne diese Schutzmechanismen besitzen herkömmliche E-Mails jedoch einen geringeren Schutz als eine normale Postkarte. Der folgende Unterabschnitt soll dazu möglichst plastisch den recht geringen Sicherheits-Standard einer herkömmlichen E-Mail im Vergleich zu einer Postkarte darstellen. Vergleich mit der Postkarte. Herkömmliche (unverschlüsselte) E-Mails sind mit einer Postkarte vergleichbar, weil deren Inhalt offen und einfach lesbar verschickt wird. Verschlüsselte E-Mails entsprechen einem verschlossenen Brief, aber E-Mail-Verschlüsselung ist heute immer noch eher die Ausnahme. Aber auch bei einer verschlüsselten E-Mail ist neben dem Absender und den Empfängern (wie bei einem Brief) zusätzlich die Betreffzeile lesbar. E-Mails werden wie Postsachen beim E-Mail-Dienstleister wie bei einem Postamt gelagert. Somit sind unverschlüsselte E-Mails wie Postkarten beim E-Mail-Dienstleister lesbar. Zudem lassen sich E-Mails gegenüber normaler Papier-Post einfach und automatisch nach nutzbaren Informationen durchsuchen und auswerten. Zur Erhöhung der Zuverlässigkeit des E-Mail-Dienstes werden beim E-Mail-Dienstleister von E-Mails Kopien gemacht und eine Zeit lang aufbewahrt, so als würde die Post Fotokopien von Postkarten und Briefen machen und archivieren. Bei Papier-Post lässt sich auf Wunsch die erfolgte Zustellung dokumentieren (Einschreiben mit Rückschein) oder die Post läuft bei Annahmeverweigerung automatisch zurück zum Absender. Herkömmliche E-Mails besitzen zwar auch den Mechanismus der Annahmebestätigung, aber der Empfänger kann die E-Mail trotzdem lesen, ohne gezwungen zu sein, die Annahme dem Absender gegenüber zu bestätigen. Die Annahmeverweigerung als eigenständiger Mechanismus mit Rückmeldung an den Absender existiert bei herkömmlichen E-Mails nicht. Eine Postkarte wird üblicherweise bei Inlandspost nur von einem bzw. bei internationaler Post von zwei Post-Unternehmen entgegengenommen, transportiert und an den Empfänger ausgehändigt. Eine E-Mail dagegen passiert auf dem Weg durch das Internet üblicherweise die Rechner verschiedener Unternehmen in verschiedenen Ländern. Theoretisch kann eine E-Mail quasi ihren Weg über den halben Erdball durch viele Länder über viele Zwischenstationen (Rechner) nehmen, und alle Beteiligten können diese mitlesen. Es ist nicht unbedingt anzunehmen, dass weltweit in allen beteiligten Ländern bzw. bei allen beteiligten Internet-Unternehmen das Fernmeldegeheimnis bzw. der Datenschutz einen ausreichend hohen Stellenwert genießt. Ein Einbrecher muss bei einem Postamt persönlich erscheinen, aber ein Hacker kann (bei Sicherheitslücken) einfach aus der Ferne in ein E-Mail-Postfach einbrechen, ohne dass er verfolgbare Spuren hinterlässt oder der Einbruch überhaupt bemerkt wird. Einbrecher haben bei E-Mail-Spionage weniger Risiko zu fürchten bei höheren Erfolgschancen und besseren Werkzeugen. Voraussetzung ist jedoch eine hohe fachliche Qualifikation des Einbrechers. Sicherheitsmaßnahmen sind bei Papier-Post für Jedermann einfach und nachvollziehbar umsetzbar (Einschreiben mit Rückschein, Siegel, Tresor, Alarmanlage …). Bei E-Mails sind Sicherheitsmaßnahmen viel diffiziler und nur von Computerexperten halbwegs beherrschbar. Aber auch Nachlässigkeiten der Nutzer, z.B. durch Wahl unsicherer Passwörter, erleichtern die Chancen der Einbrecher. Ähnlich einfach wie bei einem Brief oder einer Postkarte lassen sich E-Mails mit einer falschen Absenderadresse verschicken, was zum Beispiel bei Spam oder Phishing oft zu beobachten ist. Empfänger-, Kopie- und Blindkopie-Adressen (im E-Mail-Kopf gekennzeichnet mit "TO", "CC" beziehungsweise "BCC") lassen sich gleichermaßen fälschen (E-Mail-Spoofing). Papier-Post wird üblicherweise handschriftlich unterzeichnet (signiert) und ein Betrüger muss zum Betrug die Handschrift fälschen, jedoch wird bei den allermeisten E-Mails auf die elektronische Unterschrift (Signatur) verzichtet und unsignierte E-Mails werden vom Empfänger trotz fehlender bzw. eingeschränkter Rechtskraft im Allgemeinen akzeptiert. Zusammenfassend kann gesagt werden, dass bei herkömmlichen E-Mails ein noch viel geringerer Sicherheitsstandard als bei einer Postkarte allgemein akzeptiert ist, obwohl kaum ein Mensch daran denken würde, mit einer Postkarte persönliche sensible Daten zu versenden. Vermutlich ist diese Akzeptanz der mangelnden Transparenz der E-Mail-Technologie geschuldet, weil die Risiken für den Nicht-Computerexperten nicht so offensichtlich, nicht erkennbar oder schlichtweg unbekannt sind, oder die Nachteile werden im Vergleich zu den vielen Vorteilen einfach in Kauf genommen. Beweiskraft. Auch mit einfachen E-Mails können rechtserhebliche Erklärungen abgegeben und Verbindlichkeiten begründet werden. E-Mails haben allerdings wenig Beweiskraft, da der Sender bei den herkömmlichen Protokollen und Log-Mechanismen nicht längerfristig die Möglichkeit hat, zu beweisen, wann er was an wen versendet, ob der Empfänger die E-Mail erhalten hat oder ob sie tatsächlich abgesendet wurde. Mit der Zeit werden die im sogenannten Benutzerkonto gespeicherten Daten nämlich gelöscht. Durch eine digitale Signatur und vor allem durch eine qualifizierte elektronische Signatur können im Rechtsverkehr (Zivilrecht, Verwaltungsrecht) Verbindlichkeiten geschaffen werden, die gerichtlich leichter durchsetzbar sind. Umgangssprachlich wird dann von einer „digitalen Unterschrift“ gesprochen. Das verbindliche Setzen eines Zeitstempels wird unter bestimmten Voraussetzungen ebenfalls anerkannt. Näheres wird beispielsweise im deutschen, österreichischen oder liechtensteinischen Signaturgesetz geregelt. Den Empfang der Nachricht kann eine Signatur allerdings nicht beweisen, hierzu ist beispielsweise eine – idealerweise ebenfalls signierte – Antwort notwendig. Einige Dienstleister bieten Lösungen an, die Signatur, Verschlüsselung und Antwort automatisieren („E-Mail-Einschreiben“). In Deutschland wird in der juristischen Fachliteratur die Auffassung vertreten, dass eine E-Mail bereits mit dem Eingang auf dem Server des Empfänger-Providers als zugestellt gilt. Das Eintreffen einer E-Mail im persönlichen Benutzerkonto (Account) des Empfängers ist nicht unbedingt notwendig, um den Status des Zugestelltseins zu erreichen. Übermittlungsfehler bei der Übersendung einer E-Mail von Empfänger-Provider an den individuellen E-Mail-Account des Empfängers könnten vom Empfänger nicht geltend gemacht werden, um die Rechtsfolgen einer E-Mail in Frage zu stellen. Jüngere Urteile bestätigen diese Auffassung. So können zum Beispiel Maklerverträge und Abmahnungen rechtswirksam per E-Mail zugesandt werden. Absender-Authentifizierung. Im Jahre 2004 gab es verschiedene Versuche, das Spam-Problem in den Griff zu bekommen. Dabei konkurrierten die Verfahren Sender ID von Microsoft, Sender Policy Framework (SPF), DomainKeys von Yahoo, RMX und AMTP um die Gunst der Umsetzung. Eine IETF-Arbeitsgruppe versuchte, einen Standard zu definieren. Die Funktionsweise ist dabei bei allen Verfahren ähnlich. Durch einen Zusatzeintrag im DNS sollte es möglich sein, den sendenden Mailserver zu verifizieren. Die IETF-Arbeitsgruppe scheiterte aber letztendlich an ungeklärten Patentansprüchen von Seiten Microsofts. Die verschiedenen Verfahren sollen nun in eigenen Verfahren als RFCs umgesetzt werden. Dokumentation. Anders als beim Telefonat erhalten Absender und Empfänger von E-Mails automatisch eine schriftliche Dokumentation über den kommunizierten Inhalt. Diese kann im benutzten E-Mail-Programm oder in einem Archivsystem aufbewahrt und später zur Rekapitulation herangezogen werden. Überwachung. Inzwischen wird in vielen Ländern der E-Mail-Verkehr vom Staat überwacht. In Deutschland sind seit dem Jahr 2005 Internetdienstanbieter verpflichtet, entsprechende Hard- und Software vorzuhalten, um einer Überwachungsanordnung sofort Folge leisten zu können, ohne für die daraus erwachsenden Kosten einen finanziellen Ausgleich zu erhalten. Allgemein. Ein allgemeines Verbot, E-Mails zu veröffentlichen, gibt es in Deutschland nicht. Lediglich aus dem Inhalt der Mail kann sich ein Recht des Autors ergeben, gegen die Veröffentlichung vorzugehen. Dabei sind verschiedene Rechtsfolgen möglich, die von Unterlassungsanspruch, zivilrechtlichem Schadensersatzanspruch in Geld bis zu strafrechtlicher Haftung reichen können, andere Rechtsfolgen sind möglich. In zivilrechtlicher Hinsicht kann die Veröffentlichung eines Briefes das Urheberrecht des Autors verletzen, dies ist allerdings nicht der Fall bei „allgemeinem Inhalt“. Weiterhin kann die Veröffentlichung das allgemeine Persönlichkeitsrecht des Autors verletzen, insofern nehmen die Instanzgerichte im Anschluss an ein Urteil des Bundesgerichtshofs aus dem Jahr 1954 in jedem Einzelfall eine umfangreiche Interessenabwägung vor. Diese allgemeine Rechtsprechung dürfte auch auf E-Mails anwendbar sein. Es ist davon auszugehen, dass die Rechtsprechung (OLG Rostock, Beschluss vom 17. April 2002 – 2 U 69/01), nach der hinsichtlich Geschäftsbriefen, die im Rahmen einer vertraglichen Zusammenarbeit gewechselt werden, eine ungeschriebene vertragliche Nebenpflicht beider Vertragsparteien gilt, die Briefe vertraulich zu behandeln, auch auf geschäftliche E-Mails anwendbar ist, zumindest, wenn diese verschlüsselt versandt worden sind. Urteil des Landgerichts Köln 2006. Die Veröffentlichung einer fremden E-Mail an einen Dritten auf einer Internetseite kann ausweislich dieses Urteils einen Eingriff in das allgemeine Persönlichkeitsrecht des Absenders in Gestalt der Geheimsphäre darstellen. Insofern ist die Widerrechtlichkeit jedoch nicht indiziert, sondern im Einzelfall positiv festzustellen, wofür eine umfassende Güter- und Interessenabwägung erforderlich ist. Gegenüber stehen sich der Zweck der Veröffentlichung und der von der veröffentlichenden Partei angestrebte Zweck sowie die Form, die Art und das Ausmaß des Eingriffs. Ein Verstoß löst eine Pflicht zur Leistung von Schadensersatz aus. Dabei stellt das Landesgericht die E-Mail einem verschlossenen Brief gleich. Das Urteil bezieht sich auf einen Fall, in dem E-Mails veröffentlicht worden sind, die zum einen an einen Dritten gerichtet waren und die zum anderen von der veröffentlichenden Partei auf unlautere Weise erlangt worden sind. Auf den Fall einer Veröffentlichung von E-Mails, die an den Betroffenen selbst gerichtet sind, ist die Argumentation des Urteils nicht anwendbar. Qualität der Kommunikationsinhalte. Gegenüber den spontanen Aussagen während eines Telefongespräches bietet die schriftliche Formulierung die Chance, die zu übermittelnden Inhalte besser zu durchdenken und zu strukturieren. Ebenso verringert sich die Gefahr einer unbedachten und im Nachhinein bereuten Aussage. Andererseits muss – im Gegensatz zum Telefonat – der Verfasser einer E-Mail damit rechnen, dass seine Äußerungen langfristig beliebig oft nachgelesen werden können und vom Empfänger mit geringstem Aufwand oder gar unbedacht an eine praktisch beliebige Auswahl von Mitlesern weitergeleitet werden können. Sie haben somit einen stärkeren Öffentlichkeitscharakter. E-Mails werden sprachpsychologisch von ihren Empfängern oftmals als kräftiger und härter empfunden als vom Verfasser beabsichtigt. Im Gegensatz zum Telefonat oder persönlichen Gespräch entfällt die sofortige Rückkopplung noch während des Verfassens der Kommunikation und damit eine wesentliche Regelungsfunktion. E-Mail versus Social Media und Wikis. Die Einfachheit ihrer Benutzung führte dazu, dass E-Mail zu einem weltweiten Standard in der elektronischen Kommunikation wurde. In der Unternehmenskommunikation wird allerdings inzwischen nicht nur die Informationsüberflutung durch die Flut der E-Mails als Problem wahrgenommen. Die Tatsache, dass der Absender keine Kontrolle darüber hat, inwieweit seine E-Mail bearbeitet ist oder dass zu viele Mitarbeiter unnötig oder andere am Geschäftsvorgang Beteiligten unter Umständen gar nicht in Kenntnis gesetzt sind, begrenzt den Nutzen von E-Mail im betrieblichen Umfeld. Analysten gehen davon aus, dass in Zukunft der Kommunikationsanteil, welcher über Social Community Plattformen (mit Aufgabenlisten, Bearbeitungsstatus und Abonnementfunktionen) und Wikis anstelle von E-Mail oder Instant Messaging abgewickelt wird, dort ansteigen wird, wo Transparenz, Strukturierung und Vernetzung von Projektwissen von Bedeutung sind. Moderne Netzwerke in wissensintensiven Unternehmen organisieren sich eher horizontal. E-Mails fördern aber in der Tendenz hierarchische Strukturen. Sprachgebrauch. Für den klassischen Brief wird im Englischen verschiedentlich zur Unterscheidung der Ausdruck ' (engl. ""Schneckenpost"") verwendet. 2003 verbot das französische Ministerium für Kultur den Gebrauch des Wortes "E-Mail" in offiziellen Schreiben staatlicher Einrichtungen und setzte stattdessen das französisch klingende Wort „“ ein (von „“). Der Begriff war bereits in den 1990er Jahren im französischsprachigen Québec üblich. Obwohl die jiddische Sprache noch stärker als die deutsche von der englischen Sprache beeinflusst ist, haben sich dort die nichtfremdsprachlichen Begriffe "בליצפאסט" "(Blitzpost)" und "בליצבריוו" "(Blitzbrief)" durchgesetzt. Eine E-Mail mit unfreundlichem, abmahnendem und unangenehmem Inhalt wird im populären Englisch als ' bezeichnet. E-Mails in aggressivem Ton heißen dabei "Flame-Mails". Angemessenes Benehmen in der elektronischen Kommunikation einschließlich der E-Mail Kommunikation und der sozialen Netze wird als Netiquette bezeichnet. Euro. Der Euro (griechisch ευρώ, kyrillisch евро; ISO-Code: EUR, Symbol: €) ist laut Art. 3 Abs. 4 EUV die Währung der Europäischen Wirtschafts- und Währungsunion, einem in Art. 127–144 AEUV geregelten Politikbereich der Europäischen Union (EU). Er wird von der Europäischen Zentralbank emittiert und fungiert als gemeinsame offizielle Währung in 19 EU-Mitgliedstaaten, die zusammen die Eurozone bilden, sowie in sechs weiteren europäischen Staaten. Nach dem US-Dollar ist der Euro die wichtigste Reservewährung der Welt. Der Euro wurde am 1. Januar 1999 als Buchgeld, drei Jahre später, am 1. Januar 2002, als Bargeld eingeführt. Damit löste er die nationalen Währungen als Zahlungsmittel ab. Die Euromünzen werden von den nationalen Zentralbanken der 19 Staaten des Eurosystems sowie von derzeit vier weiteren Staaten mit jeweils landesspezifischer Rückseite geprägt. Die Eurobanknoten unterscheiden sich bei der ersten Druckserie nur durch verschiedene Buchstaben an erster Stelle der Seriennummer, anhand deren festgestellt werden konnte, für welches Land der Schein gedruckt wurde. Bei der zweiten Druckserie ab 2013 beginnt die Seriennummer mit zwei Buchstaben. Am 10. Januar 2013 wurde in Frankfurt am Main die erste Banknote der zweiten Serie von Euro-Banknoten vorgestellt, die höheren Schutz vor Fälschungen bieten soll. Der Euro als politisches Projekt. Die Idee einer einheitlichen europäischen Währung, die den Handel zwischen den Mitgliedstaaten der Europäischen Wirtschaftsgemeinschaft erleichtern sollte (Schaffung eines „gemeinsamen europäischen Markt[es]“), entstand schon recht bald in der Geschichte der europäischen Integration. 1970 wurde das Vorhaben im sogenannten „Werner-Plan“ erstmals konkretisiert; demnach sollte bis 1980 eine europäische Währungsunion realisiert sein. Das Vorhaben führte 1972 zur Gründung des Europäischen Wechselkursverbunds („Währungsschlange“). Dieser konnte nach dem Zusammenbruchs des Bretton-Woods-Systems (März 1973) nicht wie geplant umgesetzt werden. Die Jahre darauf waren geprägt von den Folgen der ersten Ölkrise: im Herbst/Winter 1973/74 vervierfachte sich der Ölpreis; in einigen europäischen Ländern setzten Gewerkschaften aus diesem Anlass zweistellige Lohnsteigerungen durch (siehe Kluncker-Runde). Es ist umstritten, ob es eine Lohn-Preis-Spirale oder eine Preis-Lohn-Spirale gab (was war Ursache, was war Wirkung?). Viele europäische Länder hatten Stagflation (= Stagnation + Inflation). Bis Ende 1978 traten mehrere Staaten aus dem Wechselkursverbund aus. Die Europäische Gemeinschaft fokussierte ihre Aktivitäten stark auf den Agrarsektor (Gemeinsame Agrarpolitik (GAP)); in vielen Ländern begann eine Nettozahlerdebatte, die jahrzehntelang anhielt. Industrieländer wie Deutschland und Großbritannien wurden Nettozahler; landwirtschaftlich geprägte Länder wie Frankreich, Spanien und Portugal waren Nettoempfänger. Kritiker bezeichneten den Zustand der EG als Eurosklerose. 1979 wurde das Europäische Währungssystem (EWS) eingerichtet, das Schwankungen der nationalen Währungen jenseits einer gewissen Bandbreite verhindern sollte. Zu diesem Zweck wurde die Europäische Währungseinheit ECU geschaffen – eine Korbwährung, die man als Vorläufer des Euro bezeichnen kann. Der ECU diente nur als Verrechnungseinheit. Als Bargeld gab es ihn nicht; einige symbolische Sondermünzen wurden ausgegeben. Einige EG-Mitgliedstaaten emittierten Staatsanleihen in ECU (sie wurden, wie andere Staatsanleihen auch, an den Börsen gehandelt) und nahmen Kredite in ECU auf. Am 2. Mai 1998 beschlossen die Staats- und Regierungschefs der Europäischen Gemeinschaft in Brüssel die Einführung des Euro. Bundeskanzler Kohl war sich bewusst, dass er damit gegen den Willen einer breiten Bevölkerungsmehrheit handelte. In einem 2013 bekanntgewordenen Interview vom März 2002 sagte Kohl: „In einem Fall [Einführung des Euro] war ich wie ein Diktator“. EU-Konvergenzkriterien und der Stabilitäts- und Wachstumspakt. Im Vertrag von Maastricht von 1992 einigten sich die EU-Mitgliedstaaten auf bestimmte „Konvergenzkriterien“, die Staaten erfüllen mussten, um den Euro als Währung einzuführen. Sie umfassen im Einzelnen die Stabilität der öffentlichen Haushalte, des Preisniveaus, der Wechselkurse zu den übrigen EU-Ländern und des langfristigen Nominalzinssatzes. Auf Initiative des damaligen deutschen Finanzministers Theo Waigel wurde das erste dieser Kriterien auf dem Gipfel in Dublin 1996 auch über den Euro-Eintritt hinaus festgeschrieben. Dieser Stabilitäts- und Wachstumspakt erlaubt den Euroländern eine jährliche Neuverschuldung von maximal 3 % und einen Gesamtschuldenstand von maximal 60 % ihres Bruttoinlandsprodukts. Allerdings kam es sowohl vor als auch nach der Euro-Einführung immer wieder zu Verstößen der Mitgliedstaaten gegen diese Regelungen. So konnte insbesondere Griechenland den Euro nur aufgrund von geschönten Statistiken einführen, und zahlreiche Mitgliedstaaten, darunter auch Deutschland und Frankreich, verstießen mehrfach gegen den Stabilitäts- und Wachstumspakt. Die darin vorgesehenen Sanktionen gegen Euroländer mit überhöhtem Defizit, die von den Finanzministern der übrigen Mitgliedstaaten verhängt werden können, wurden bisher jedoch noch kein einziges Mal angewandt. Insbesondere infolge der Staatsschuldenkrise in einigen europäischen Ländern führte dies ab 2010 zu einer politischen Debatte über die Europäischen Wirtschafts- und Währungsunion als mögliche Fiskalunion. Namensfindung. Nachdem zunächst die Bezeichnung der alten Verrechnungswährung ECU auch für die geplante Gemeinschaftswährung erwartet worden war, wurde Anfang der 1990er-Jahre Kritik daran laut, da sie – als Abkürzung für "European Currency Unit" – zu technisch und unpersönlich sei. Dass die Bezeichnung in Anlehnung an den seit dem Mittelalter bekannten französischen Écu verstanden werden konnte, wurde hierbei weitgehend übersehen. Am 16. Dezember 1995 legte der Europäische Rat in Madrid daher einen anderen Namen der neuen Währung fest: „Euro“. Der Begriff soll regelkonform nur in der Einzahl verwendet werden (siehe unten, Pluralformen). Zuvor waren auch alternative Vorschläge im Gespräch. Wichtige Kandidaten waren dabei "europäischer Franken" (der in seiner spanischen Übersetzung "Franco" jedoch in unpassender Weise an Francisco Franco erinnert hätte), "europäische Krone" und "europäischer Gulden." Durch die Verwendung eines bereits bekannten Währungsnamens sollte dabei Kontinuität signalisiert werden und das Vertrauen der Bevölkerung in die neue Währung gefestigt werden. Darüber hinaus hätten einige Teilnehmerstaaten den bisherigen Namen ihrer Währung beibehalten können. Gerade dies stieß allerdings auch auf Kritik, da es einen Vorrang bestimmter Mitgliedstaaten gegenüber anderen angedeutet hätte. Letztlich scheiterten alle Vorschläge an den Vorbehalten einzelner Staaten, insbesondere Großbritanniens. Als Reaktion schlug die deutsche Delegation um Finanzminister Theodor Waigel den Namen „Euro“ vor. Im Beschluss des Deutschen Bundestages war noch die Rede davon, den Währungsnamen regional mit den Namen der bisherigen Währungen zu erweitern, also in Deutschland „Euro-Mark“, in Frankreich „Euro-Franc“. Die symbolische Wertangabe Euro auf einer Medaille ist erstmals für eine Ausgabe aus dem Jahr 1965 nachweisbar. Eine weitere private Prägung mit dieser Nominalbezeichnung ist 1971 in den Niederlanden hergestellt worden. Dabei wird der erste Buchstabe der Bezeichnung Euro als ein "C" mit eingefügtem kurzem, leicht geschlängeltem Strich geschrieben. Der erste Buchstabe der Umschrift "EUROPA FILIORUM NOSTRORUM DOMUS" (lat.: "Europa [ist] das Haus unserer Kinder") wird ebenso geschrieben. Einführung des Euros als Buchgeld. Am 31. Dezember 1998 wurden die Wechselkurse zwischen dem Euro und den einzelnen Währungen der Mitgliedstaaten unwiderruflich festgelegt, am 1. Januar 1999 wurde der Euro gesetzliche Buchungswährung. Er ersetzte die frühere Korbwährung ECU (European Currency Unit) in einem Umrechnungsverhältnis von 1:1. Einen Tag später, am 2. Januar, notierten die europäischen Börsen bereits sämtliche Wertpapiere in Euro. Eine weitere Änderung im zeitlichen Zusammenhang mit der Euro-Einführung war der Wechsel in der Methode der Preisdarstellung für Devisen. In Deutschland war bis zum Stichtag die "Preisnotierung" (1 USD = x DEM) die übliche Darstellungsform. Seit 1. Januar 1999 wird der Wert von Devisen in allen Teilnehmerländern in Form der "Mengennotierung" dargestellt (1 EUR = x USD). Ferner konnten seit dem 1. Januar 1999 Überweisungen und Lastschriften in Euro ausgestellt werden. Konten und Sparbücher durften alternativ auf Euro oder die alte Landeswährung lauten. Griechenland trat dem Euro erst zwei Jahre nach den anderen Mitgliedstaaten am 1. Januar 2001 bei. Bargeldumtausch. In Deutschland wurde der Euro im Rahmen des sogenannten „Frontloading-Verfahrens“ ab September 2001 an Banken und Handel verteilt. Der Handel sollte durch die Ausgabe von Euro und Annahme von D-Mark in den Umtauschprozess einbezogen werden. Ab dem 17. Dezember 2001 konnte in deutschen Banken und Sparkassen bereits eine erste Euromünzenmischung, auch „Starterkit“ genannt, erstanden werden. Diese Starterkits beinhalteten 20 Münzen im Wert von 10,23 Euro und wurden für 20 D-Mark ausgegeben, wobei die anfallende Rundungsdifferenz durch die Staatskasse übernommen wurde. Um nach den Weihnachtsfeiertagen und dem Jahreswechsel 2001/2002 Schlangen an den Schaltern der Banken zu vermeiden, wurde es ermöglicht, auch im Januar und Februar 2002 beim Handel in D-Mark zu bezahlen. Das Wechselgeld wurde vom Handel in Euro und Cent herausgegeben. Zusätzlich kam ab 1. Januar 2002 Euro-Bargeld durch Abhebung an Geldautomaten und an den Schaltern der Banken in Umlauf. Weiter gab es in den ersten zwei Wochen des Januar Schlangen an den Umtauschschaltern der Banken und Sparkassen. Ab Ende Januar 2002 wurden Barbeträge hauptsächlich in Euro gezahlt. Eine Unwägbarkeit bei der Einführung des Euro-Bargeldes war, dass die Beschaffenheit, das Aussehen und die Formate der neuen Banknoten bewusst nicht vorab veröffentlicht wurden, um Fälschungen in der Einführungsphase zu vermeiden. Auch die Sicherheitsmerkmale, z. B. Wasserzeichen, Sicherheitsfaden, Hologrammfolie und Mikroschrift, wurden nicht vorab bekanntgegeben. Während die Umstellung der Geldautomaten weitgehend unproblematisch verlief, befürchtete die Automatenwirtschaft Umsatzverluste, da die Automaten entweder Euro oder D-Mark akzeptierten (andere Zahlungsvarianten wie etwa die GeldKarte hatten damals keine nennenswerte Bedeutung). Einige Verkehrsunternehmen wie etwa der Rhein-Main-Verkehrsverbund hatten zum Stichtag ungefähr die Hälfte der Automaten auf Euro umgestellt, sodass die Kunden vielerorts einen 'alten' und einen 'neuen' Automaten vorfanden. Der Übergang verlief unproblematischer als befürchtet, sodass viele Automaten früher als zunächst geplant auf Euro umgestellt wurden. Umstellung der Konten und Verträge. Die Konten bei Banken und Sparkassen konnten auf Wunsch seit dem 1. Januar 1999 in Euro geführt werden. Im Rahmen der Einführung des Euro-Bargeldes wurden die Konten dann zum 1. Januar 2002 automatisch auf Euro umgestellt, wobei einige Institute diese Umstellung jedoch schon für alle Kunden im Dezember 2001 durchführten. Die Umstellung war kostenlos und Verträge blieben gültig, nur der DM-Betrag wurde in Euro umgerechnet. In den Übergangsjahren 1999 bis einschließlich 2001 konnten Überweisungen sowohl in DM als auch in Euro getätigt werden, abhängig davon, in welcher Währung das Zielkonto geführt wurde, erfolgte eine automatische Umrechnung, ab dem 1. Januar 2002 konnten Überweisungen und Scheckzahlungen nur noch in Euro durchgeführt werden. Bei bestehenden Verträgen erfolgte eine Umrechnung der Beträge im Regelfall zum 1. Januar 2002, so dass sowohl Forderungen als auch eventuelle Guthaben wertmäßig unverändert blieben. Gleichwohl war es im Rahmen noch vorhandener Bargeldbestände natürlich bis zum Ende der Übergangsfrist am 28. Februar 2002 möglich, die alte DM-Forderung auch in DM bar zu begleichen. Bargeldumtausch für Nachzügler. In Deutschland endete die Übergangsfrist der parallelen Annahme von D-Mark und Euro durch den Handel mit Ablauf des 28. Februar 2002. Seitdem ist der Umtausch der D-Mark in Euro nur noch bei den Filialen der Deutschen Bundesbank (ehemals Landeszentralbanken) unbegrenzt und kostenfrei möglich. Im Rahmen von Sonderaktionen nehmen manche deutsche Handelsketten und Einzelhändler hin und wieder die Deutsche Mark als Zahlungsmittel an. Trotz der einfachen und kostenlosen Umtauschmechanismen waren im Mai 2005 noch D-Mark-Münzen im Wert von 3,72 Milliarden Euro (fast 46 % des Münzbestandes vom Dezember 2000) im Umlauf. Der Wert der noch nicht in Euro umgetauschten Banknoten beläuft sich auf 3,94 Milliarden Euro. Dabei handelt es sich nach Ansicht der Deutschen Bundesbank jedoch größtenteils um verlorengegangenes oder zerstörtes Geld. Der Euro ist somit die fünfte Währung in der deutschen Währungsgeschichte seit der Reichsgründung 1871. Vorgänger waren Goldmark, Rentenmark (später Reichsmark), Deutsche Mark sowie die Mark der DDR (vorher "Deutsche Mark" beziehungsweise "Mark der Deutschen Notenbank"). Österreich. In Österreich begann die Oesterreichische Nationalbank am 1. September 2001 mit der Vorverteilung von Euromünzen und -banknoten an die Kreditinstitute. Diese konnten sofort damit beginnen, die Firmenkunden und den Handel mit dem neuen Zahlungsmittel zu versorgen. Dafür wurden von der Nationalbank Kassetten mit Münzrollen, offiziell "Startpaket Handel" genannt, im Wert von 145,50 Euro mit einem Gegenwert von 2.000 Schilling für die Kassenausstattung im Handel ausgegeben. Unabhängig davon konnte jedes Unternehmen seinen individuellen Eurobedarf bei seinem Kreditinstitut anmelden. An Privatpersonen wurden die offiziell "Startpaket" heißenden Münzsackerln ab 15. Dezember 2001 ausgegeben. Sie beinhalteten 33 Münzen im Gesamtwert von 14,54 Euro mit einem Gegenwert von 200,07 Schilling und wurden für 200 Schilling ausgegeben. Die allgemeine Geldausgabe – insbesondere auch der neuen Banknoten – begann am 1. Jänner 2002. Wie in Deutschland war auch in Österreich von 1. Jänner bis 28. Februar 2002 die sogenannte Parallelumlaufphase, während der mit Münzen und Banknoten beider Währungen gezahlt werden konnte. So konnte bei einem Zahlungsvorgang entweder mit Schilling oder mit Euro – aber auch mit einer Mischung aus beiden bezahlt werden. Zwar verlor der Schilling mit Wirkung vom 1. März 2002 seine Gültigkeit als offizielles Zahlungsmittel, da aber Schillingbanknoten und -münzen bei der "Oesterreichischen Nationalbank" und Schillingmünzen bei der Münze Österreich unbefristet und kostenlos in Euro umgetauscht werden können, nahmen viele Geschäfte über die gesetzlich vorgesehene Zeit hinaus noch den Schilling an. Die Umstellung an den "Bankomaten" verlief weitestgehend problemlos, die von den Automaten ausgegebenen Banknoten waren anfangs nur 10- und 100-Euro-Banknoten. Die Begrenzung der täglich möglichen Bargeldbehebung von Bankomaten wurde mit der Umstellung von 5.000 Schilling (363,36 Euro) auf 400 Euro erhöht. Im unbaren Zahlungsverkehr erfolgte die Umstellung aller Konten und Zahlungsaufträge automatisch am 1. Jänner 2002. Während andere Warenautomaten wie zum Beispiel Zigarettenautomaten nach und nach von Schilling auf Euro umgestellt wurden, hat die Euroumstellung für die Zuckerl-, Kaugummi-, Kondom- und Brieflosautomaten des Automatenaufstellers Ferry Ebert das Aus bedeutet. Für Ebert war das Umstellen der allein in Österreich rund 10.000 Automaten nicht zu finanzieren, sodass er sich aus der Unternehmertätigkeit zurückgezogen hat und seine Automaten begehrte Sammelobjekte geworden sind. Zum Stichtag 31. März 2010 waren nach Angaben der Oesterreichischen Nationalbank noch Schillingbestände in Höhe von 9,06 Milliarden Schilling mit einem Gegenwert von 658,24 Millionen Euro im Umlauf. Davon fielen mit unbegrenzt in Euro umtauschbaren 3,45 Milliarden Schilling (250,9 Millionen Euro) auf Schillingbanknoten und mit 3,96 Milliarden Schilling (287,5 Millionen Euro) auf Schillingmünzen. Die Differenz, rund 18 %, 1,65 Milliarden Schilling (119,8 Millionen Euro), fällt jedoch auf die letzten beiden zum Teil noch im Umlauf befindlichen Banknoten, die mit einer Präklusionsfrist bis 20. April 2018 versehen sind und die schon lange vor der Euro-Einführung ihre gesetzliche Zahlungskraft verloren hatten. Es handelt sich dabei um die 500-Schilling-Scheine „Otto Wagner“ und die 1000-Schilling-Scheine „Erwin Schrödinger“. Um den Österreichern, aber auch ausländischen Staatsbürgern, eine einfache Möglichkeit zu bieten, ihre noch vorhandenen Schillingbestände in Euro umzutauschen, fährt seit 2002 während der Sommermonate der Euro-Bus der Oesterreichischen Nationalbank durch Österreich. Ein Nebenzweck der Aktion liegt darin, die Bevölkerung über die Sicherheitsmerkmale der Euroscheine zu informieren. Die Umstellung auf den Euro war die sechste Währungsreform bzw. -umstellung in der österreichischen Währungsgeschichte seit 1816 nach den Napoleonischen Kriegen. Vorgänger des Euro waren in Österreich der Gulden, die Krone (Österreich-Ungarn), der Schilling (Erste Republik), die Reichsmark (nach dem Anschluss ans „Dritte Reich“), der Schilling (Zweite Republik), sowie die Währungsreform 1947 mit einer Schillingabwertung auf ein Drittel. Andere Länder der Eurozone. Karte europäischer Staaten mit Bezug zum Euro (Stand 1. Januar 2015) Bei allen bisherigen Teilnehmern wurde das Euro-Bargeld zu Jahresbeginn eingeführt. In einer Übergangszeit nach der Einführung des Euro-Bargeldes waren in jedem teilnehmenden Staat für kurze Zeit Bargeld in Euro und der alten Landeswährung parallel in Umlauf. Die ehemaligen Landeswährungen sind allerdings zu dieser Zeit in der Regel keine gesetzlichen Zahlungsmittel mehr, werden aber, ähnlich wie Zahlungen mit Karten, zahlungshalber angenommen; die Umrechnung in Euro erfolgt zum offiziell festgelegten Wechselkurs. Die Zeit des parallelen Bargeldumlaufes wird je nach Land unterschiedlich festgesetzt. Bei den ersten Teilnehmern dauerte sie entweder bis Ende Februar oder bis Ende Juni 2002. Die meisten Währungen können jedoch auch danach noch bei den jeweiligen nationalen Zentralbanken gegen Euro eingetauscht werden. Akzeptanz in Deutschland. In Deutschland hat ein Forschungsteam der Fachhochschule Ingolstadt zweieinhalb Jahre nach Einführung des Euros eine Studie zu dessen Akzeptanz in der deutschen Bevölkerung vorgelegt. Danach standen zur Erhebungszeit (2004) fast 60 % der deutschen Bevölkerung dem Euro positiv gegenüber. Viele der Befragten trauerten jedoch um die D-Mark. Auch rechneten viele der Befragten Preise von Euro in D-Mark um, bei höheren Beträgen häufiger als bei niedrigen. Bei allen Preisen rechneten lediglich 48 % der Befragten um, bei Preisen über 100 Euro jedoch noch 74 %. Der Grund hierfür ist der einfache Umrechnungsfaktor (recht genau 1:2, exakt 1:1,95583). Zudem verbindet die Bevölkerung mit der Einführung des Euros aber auch eine allgemeine Preisanhebung, die Teile des Einzelhandels vornahmen. In manchen der Euroländer (zum Beispiel in Frankreich und den Niederlanden) waren Preiserhöhungen im Zeitraum der Euro-Einführung gesetzlich untersagt, in Deutschland hatte man auf eine Selbstverpflichtung des Handels gesetzt. Bei Auslandsreisen und Urlaubsaufenthalten in seinem Geltungsbereich gewinnt der Euro deutlich an Sympathie. Auch der bessere Preisvergleich innerhalb Europas wird positiv vermerkt. Laut der genannten Studie begrüßen viele der Befragten auch, dass durch die gemeinsame EU-Währung ein Gegenpol zu US-Dollar und Yen geschaffen wurde. Laut Eurobarometer 2006 war eine relative Mehrheit von 46 % der deutschen Bevölkerung der Meinung, „Der Euro ist gut für uns, er stärkt uns für die Zukunft“, während 44 % der Meinung waren, der Euro „schwächt das Land eher“. 2002 waren die Eurobefürworter (39 %) noch in der Minderheit gegenüber den Euroskeptikern (52 %). Eine Studie der Dresdner Bank im Auftrag der Forschungsgruppe Wahlen ergab allerdings Ende 2007 ein Absinken der Euroakzeptanz der Deutschen auf 36 % gegenüber 43 % im Jahr 2004. Laut Eurobarometer 2014 befürwortet mittlerweile mit 74 % eine deutliche Mehrheit der Deutschen den Euro, eine Minderheit von 22 % lehnt ihn ab. Akzeptanz in Österreich. Laut Eurobarometer sind die Österreicher dem Euro gegenüber positiver eingestellt als die Deutschen. 2006 waren 62 % der österreichischen Bevölkerung der Meinung: „Der Euro ist gut für uns, er stärkt uns für die Zukunft“, während 24 % der Meinung waren, der Euro schwäche das Land eher. In Österreich waren bereits 2002 die Eurobefürworter (52 %) in der Mehrheit gegenüber den Euroskeptikern (25 %). Akzeptanz in Lettland. Im Zuge der Einführung des Euros in Lettland stimmen nach dem Marktforschungsunternehmen SKDS lediglich 22 % der lettischen Bevölkerung zu, die Mehrheit von 53 % ist dagegen. Europäische Zentralbank. Der Euro wird von der Europäischen Zentralbank (EZB) in Frankfurt am Main kontrolliert. Diese nahm am 1. Juni 1998 ihre Arbeit auf. Die Verantwortung ging jedoch erst mit dem Start der Europäischen Währungsunion (EWU) am 1. Januar 1999 von den Nationalen Zentralbanken (NZB) auf die EZB über. Neben der in Artikel 105 des EG-Vertrags festgelegten Sicherung der Preisstabilität, hat die EZB auch noch die Aufgabe, die Wirtschaftspolitik der Mitgliedstaaten zu unterstützen. Weitere Aufgaben der EZB sind die Festlegung und Durchführung der Geldpolitik, die Verwaltung der offiziellen Währungsreserven der Mitgliedstaaten, die Durchführung von Devisengeschäften, die Versorgung der Volkswirtschaft mit Geld und die Förderung eines reibungslosen Zahlungsverkehrs. Um die Unabhängigkeit der EZB zu wahren, darf weder sie, noch eine der NZB Anweisungen einer der Regierungen der Mitgliedstaaten erhalten oder einholen. Diese juristische Unabhängigkeit ist notwendig, da die EZB das ausschließliche Recht der Banknotenausgabe innehat und somit Einfluss auf die Geldmenge des Euros hat. Dies ist notwendig, um nicht der Versuchung zu erliegen, eventuelle Haushaltslöcher mit einer erhöhten Geldmenge auszugleichen. Dadurch würde das Vertrauen in den Euro schwinden und die Währung würde instabil werden. Die Europäische Zentralbank bildet zusammen mit den nationalen Zentralbanken, wie der Deutschen Bundesbank, das Europäische System der Zentralbanken und hat ihren Sitz in Frankfurt am Main. Das Beschlussorgan ist der EZB-Rat, der aus dem Direktorium der EZB und den Präsidenten der Nationalen Zentralbanken gebildet wird. Das Direktorium besteht wiederum aus dem Präsidenten der EZB, dessen Vizepräsidenten und vier weiteren Mitgliedern, die allesamt regelmäßig für eine Amtszeit von acht Jahren von den Mitgliedern der EWU gewählt und ernannt werden, eine Wiederwahl ist ausgeschlossen. Eurozone. Als Eurozone wird im strengen Sinne die Gruppe der 19 EU-Länder bezeichnet, die an der dritten Stufe der Europäischen Wirtschafts- und Währungsunion teilnehmen und den Euro als offizielles Zahlungsmittel nutzen („Euro-19“). Im weiteren Sinne sind damit auch die Staaten gemeint, die den Kurs ihrer eigenen Währung über ein Wechselkurssystem an den Euro gekoppelt oder als Nicht-EU-Mitgliedstaaten, z. T. einseitig, den Euro eingeführt haben. Zu den Nicht-EU-Ländern, die den Euro verwenden, gehören neben den Kleinstaaten Andorra, Monaco, San Marino und Vatikan auch Montenegro und Kosovo. Weiterhin verwenden die zu Frankreich, aber nicht zur EU gehörenden Gebiete Saint-Pierre und Miquelon und Saint Barthélemy den Euro. In den Militärbasen Akrotiri und Dekelia auf Zypern, die unter britischer Hoheit stehen und ebenso nicht zur EU gehören, wird nur mit dem Euro gezahlt. Einen festen Wechselkurs zum Euro haben in Europa Bosnien-Herzegowina und Bulgarien sowie in Afrika Kap Verde, São Tomé und Príncipe, die Komoren und die 14 Länder der CFA-Franc-Zone. Auch der CFP-Franc, der in einigen pazifischen französischen Übersee-Territorien verwendet wird, ist fest an den Euro gebunden. Andere Wechselkurssysteme, wie der Wechselkursmechanismus II, dem Dänemark angehört, erlauben eine gewisse Bandbreite an Schwankungen um einen Leitkurs. Manche Staaten wie Marokko wiederum haben ihre Währungen an einen Währungskorb gekoppelt, der zu einem bestimmten Anteil am Euro orientiert ist. Die Schweiz setzte von 2011 bis 2015 ein Wechselkurs-Fluktuationslimit. Insgesamt nutzen über vierzig Staaten den Euro oder eine von ihm abhängige Währung. Im "de jure" zur Republik Zypern gehörenden Nordzypern gilt de facto die Türkische Lira als gesetzliches Zahlungsmittel. Nach den im Vertrag von Maastricht erstmals festgehaltenen Bestimmungen zur Europäischen Wirtschafts- und Währungsunion sind alle EU-Mitgliedstaaten zur Einführung des Euro verpflichtet, sobald sie die EU-Konvergenzkriterien erfüllen, zu denen unter anderem die zweijährige Zugehörigkeit zum Wechselkursmechanismus II (WKM II) zählt. Befreit davon sind - durch Ausnahmeprotokolle - nur Dänemark und das Vereinigte Königreich. Allerdings duldet die Europäische Kommission bislang, dass Schweden durch den Nichtbeitritt zum Wechselkursmechanismus II absichtlich eines der Konvergenzkriterien verfehlt, um so den Eurobeitritt zu vermeiden. Vorteile. Nach allgemeiner Währungstheorie ist zu erwarten, dass der Euro zu einem vereinfachten Handel zwischen den Mitgliedern der Eurozone und sinkenden bzw. „keinen Transaktionskosten“ führt. Es wird vermutet, dass dies von Vorteil für die Verbraucher und Unternehmen der Eurozone ist, da Handel in der Vergangenheit eine der Hauptquellen ökonomischen Wachstums war. Es wird geschätzt, dass sich seit der Euro-Einführung bis zum Jahr 2009 der Handel innerhalb der Eurozone um 5–15 % erhöht hat. Europäische Unternehmen sollen durch die wegfallenden „Handelshemmnisse zwischen den Mitgliedsländern“ profitieren: eine Ausdehnung der Unternehmungen über den europäischen Markt sowie die Nutzung zunehmender Skaleneffekte (englisch: "economies of scale") sollen einsetzen. Der Euro kann auch als „Vervollständigung des gemeinsamen europäischen Binnenmarktes (freier Verkehr von Waren, Dienstleistungen, Kapital und Personen) gelten – man könnte im Umkehrschluss auch konstatieren, dass dem europäischen Binnenmarkt ohne eine gemeinsame Währung eine wichtige Komponente fehlen würde. Bei Einführung des Euro ging man davon aus, dass Preisunterschiede für Produkte und Dienstleistungen in den Ländern der Eurozone abnehmen würden („Beseitigung der Preisdifferenzierung“): Infolge der ausgleichenden Wirkung des Arbitrage-Handels sollten bestehende Unterschiede schnell ausgeglichen werden. Dies führe zu verstärktem Wettbewerb zwischen Anbietern, niedrigeren Preisen für private Haushalte und damit zu niedriger Inflation und mehr Wohlstand der Verbraucher. Gänzlich beseitigt wird die Preisdifferenzierung jedoch nicht. „Für Güter des täglichen Bedarfs“ werden die Marktteilnehmer nicht große Transportwege und -kosten auf sich nehmen. Eine Angleichung („Konvergenz“) der Preise findet dann nicht statt. Besondere Vorteile bringt der Euro für Reisende. Sie müssen kein Geld umtauschen bzw. wieder rücktauschen und sparen sich die damit verbundenen Gebühren. Des Weiteren können sie in ihrem Reiseland die Preise nun ohne Probleme mit den Preisen des Herkunftslandes vergleichen. Bisher bestehende innergemeinschaftliche Wechselkursrisiken und die dadurch notwendigen Währungsabsicherungen würden für europäische Unternehmen entfallen („Verringerung der Wechselkursschwankungen“). Eine Spekulation gegen den Euro ist nach Auffassung vieler Ökonomen aufgrund seiner Größe sehr viel schwieriger als gegenüber kleineren Währungen. Währungsspekulationen hatten in den 1990er Jahren zu schweren Verwerfungen im Europäischen Währungssystem (EWS) geführt (beispielsweise die Pfundkrise). Währungsspekulationen können zu einer ausgeprägten Unter- oder Überbewertung einer Währung führen, mit entsprechenden Konsequenzen für die Inflationsrate und das Wirtschaftswachstum der Währungsgebiete beider Währungen eines Wechselkurses, und erschweren damit einen effizienten Handel zwischen zwei Währungsgebieten. Außerdem können sie die Währungsreserven eines Staates aufzehren. Durch die „Verringerung der Unsicherheit“ durch Wechselkursschwankungen verändert sich das Investitionsverhalten. Die zukünftige Planung und die Kalkulation von Projekten werden erleichtert. Ein Anstieg der Investitionen führt zu einem höheren wirtschaftlichen Wachstum. In politischer Hinsicht manifestiert der Euro die Zusammenarbeit der europäischen Staaten und ist ein greifbares Symbol europäischer Identität. Er kann zur Konsolidierung der Europäischen Union beitragen und, wie vor der Gründung der Europäischen Währungsunion vielfach erwartet und gehofft, langfristig zur Schaffung einer „politischen Union“ beitragen. Im Allgemeinen konnte die Europäische Zentralbank ihre Hauptaufgabe erfüllen, das heißt mit ihrer Geldpolitik für eine "stabile" und weder zu hohe noch zu niedrige "Inflation" zu sorgen. Das Inflationsziel von „unter, aber nahe bei zwei Prozent“ wurde meist erreicht bzw. eine langfristige Abweichung verhindert. Nachteile. In der Vergangenheit wurden die EU-Konvergenzkriterien hinsichtlich der Staatsverschuldung von fast keinem Land konstant eingehalten. Politisch ist für Ökonomen, welche die Bedeutung eines ausgeglichenen Staatshaushalts hoch einschätzen, fraglich, ob EZB und Europäische Kommission die Mitgliedstaaten zu hinlänglicher Haushaltsdisziplin anhalten können: Entziehen sich einzelne Länder oder Ländergruppen ihrer unterstellten haushaltspolitischen Verantwortung, werden Inflationsrate und Finanzierungskosten für diese Länder solange niedrig bleiben, wie sich der Großteil der restlichen Euroländer nicht zu stark verschuldet. Dies kann in haushaltspolitisch unverantwortlichen Schuldenländern verspätete oder nicht ausreichende Korrekturen der Haushaltspolitiken fördern und zu Wohlstandseinbußen führen. Wachstumsraten von über 5 % in Irland mussten mit Raten nahe Null in den iberischen Staaten in Einklang gebracht werden: Der irischen Situation wäre nach bisher angewandten, „nationalen“ Methoden mit Leitzinserhöhungen und Geldmengenverknappung zu begegnen gewesen, während im Gegenbeispiel Zinslockerungen üblich gewesen wären. Solche regionalen Unterschiede lassen sich mit der "einheitlichen Geldpolitik" der Eurozone durch die EZB nicht hinreichend abbilden. Den „nationalen Volkswirtschaften“ ist „ein individuell einsetzbares wirtschaftpolitisches Instrument abhanden gekommen.“ Ein wesentliches volkswirtschaftliches Problem stellte zu Beginn die Festlegung der Wechselkurse der an der Einheitswährung beteiligten Währungen dar. Eine Volkswirtschaft, die mit überbewerteter Währung der Einheitswährung beitritt, wird im Vergleich ein höheres Vermögen, jedoch auch ein höheres Preisniveau (höhere Kosten und Preise) aufweisen als Staaten, die unterbewertet oder reell bewertet der Einheitswährung beitreten. Aufgrund des höheren Preisniveaus besteht ein großer Importanreiz und verminderte Exportchancen und in der Folge steigende Arbeitslosigkeit. Um die Wettbewerbsfähigkeit der Wirtschaft zu erhalten, ist eine Absenkung des Preisniveaus (in prozentualer Höhe der Überbewertung) notwendig. Ein volkswirtschaftlicher Ausgleich der Überbewertung ist in der Währungsunion mangels Wechselkursmechanismus nur über Innere Abwertung erreichbar. Rohstoffpreise. Ein weiterer Effekt betrifft die internationalen Rohstoffpreise und dabei insbesondere den volkswirtschaftlich bedeutsamen Erdölpreis. Öl wird nach wie vor meist in US-Dollar berechnet und die OPEC akzeptiert seit den 1970er-Jahren sogar nur noch den US-Dollar. Innerhalb der OPEC wurde allerdings diskutiert, die Preise auf Euro umzustellen, womit auch viele Drittländer gezwungen wären, Teile ihrer Devisenreserven für Ölkäufe von US-Dollar- in Euroguthaben umzuwandeln, was äußerst negative Auswirkungen auf den US-Dollar und die US-Wirtschaft hätte, die durch den stetig weiter wachsenden Handel mit Öl stabilisiert wird. Der Irak hatte seine Ölverkäufe unter Saddam Hussein im Jahre 2000 bereits gänzlich in Euro abgerechnet, was allerdings seitens der USA am 10. Juni 2003, rund einen Monat nach der Eroberung des Landes, wieder rückgängig gemacht wurde. Sowohl der Iran als auch Venezuela unter Hugo Chávez, der ein besonders lautstarker Befürworter des Wechsels war, äußerten sich in der Folge zustimmend zu einer solchen Umstellung. Der Iran eröffnete darüber hinaus am 17. Februar 2008 eine eigene, nicht an den US-Dollar gebundene Ölbörse mit Sitz auf der Insel Kish. Die Ölmengen, die das Land über diesen Handelsplatz exportiert, sollen allerdings zu gering sein, um die Stellung des US-Dollars als „Ölwährung“ ernsthaft gefährden zu können. Inflation. Schon vor, aber insbesondere nach der Bargeldeinführung des Euros im Januar 2002 wurden eventuelle Preissteigerungen durch die Währungsumstellung diskutiert. Gemessene Verteuerung. Die Statistikbehörden der europäischen Länder ermitteln monatsweise Verbraucherpreisindizes, um den Preisverlauf zu ermitteln. In den deutschsprachigen Euroländern konnten hierbei nur minimale Unterschiede festgestellt werden. In keinem der deutschsprachigen Euroländer stieg die Inflation im Frühjahr 2002 über Werte hinaus, die sie nicht auch schon im Sommer 2001 erreicht hatte. Insgesamt war die Inflationsrate in den Jahren 2002 und 2003 sehr niedrig und unter dem Niveau der vorangegangenen Jahre. Auch über längere Zeiträume gesehen war die Inflation etwas niedriger als in den Jahren vor dem Euro. So stieg der deutsche Verbraucherpreisindex in den fünf Jahren vor der Einführung um 7,4 %, während er in den fünf Jahren danach um 7,3 % stieg. Auch in Österreich stieg laut Statistik Austria der österreichische Verbraucherpreisindex in den zwölf Jahren von 1987 bis 1998 um durchschnittlich 2,45 % pro Jahr, während die Inflationsrate von 1998 bis 2003 auf durchschnittlich 1,84 % sank. Diese Inflationsrate war jedoch nicht über alle Produktgruppen gleich. Für Waren und Dienstleistungen des täglichen Gebrauchs führte das Institut der Deutschen Wirtschaft im Jahr 2002 eine detaillierte Untersuchung der Daten des Statistischen Bundesamtes durch und ermittelte einen Preisanstieg im ersten Quartal von 4,8 %. Bei einzelnen Produktgruppen konnten stark überdurchschnittliche Preisanstiege festgestellt werden. Die Forscher kamen zu dem Schluss, dass das in der Bevölkerung verbreitete Gefühl starker Verteuerung nicht unbegründet sei, da Anstiege in diesem Bereich stärker wahrgenommen würden als Fixkosten wie Miete oder Heizung, die unverändert geblieben waren. Diese Studie zeigt zwar, dass die Preise in verschiedenen Bereichen Anfang 2002 erheblich stiegen, aber konnte nicht die weitere Entwicklung des Jahres 2002 abbilden. Die Daten des Statistischen Bundesamtes zeigen einen Preisfall unter das Niveau von 2001 gegen Ende 2002 in verschiedenen Produktgruppen, darunter auch den Lebensmitteln. Gefühlte Inflation. Nach der Einführung des Euros empfanden viele Verbraucher eine Verteuerung von Waren und Dienstleistungen über der Inflationsrate. Der Anteil derer, die eine schnellere Inflation wahrnahmen, stieg im ganzen Euroraum ab Januar 2002 rapide an. Umgangssprachlich kam daher zunehmend die von dem Satiremagazin "Titanic" eingeführte und anschließend von vielen Zeitungen verwendete Bezeichnung „Teuro“ auf. Sie wurde auch zum Wort des Jahres 2002 gewählt. In Deutschland und den Niederlanden war die Wahrnehmung vermeintlicher Preissteigerungen am größten. In den deutschen Medien und der deutschen Politik wurde eine Debatte über vermeintliche Preisverwerfungen geführt. Auch in Österreich entstand bei einer Mehrheit der Eindruck, der Euro beeinflusse die Preisentwicklung negativ. Erklärung der Diskrepanz. Für die Diskrepanz zwischen der gemessenen, gesunkenen Inflation und der subjektiv gefühlten Inflation in der Zeit nach der Euro-Einführung gibt es verschiedene Erklärungsansätze. Das Institut der Deutschen Wirtschaft weist schon in seiner Studie 2002 darauf hin, dass bestimmte alltäglich gekaufte Güter wie Lebensmittel tatsächlich überdurchschnittlich teurer wurden, was deutlich stärker wahrgenommen wurde als eine gegenläufige Entwicklung bei Produkten, die man seltener kauft, oder bei monatlich vom Konto abgebuchten Kosten. Zur psychologischen Seite der Diskrepanz wurden u. a. von der Psychologin Eva Traut-Mattausch Untersuchungen durchgeführt, bei denen Probanden Preisänderungen bei der Währungsumstellung abschätzen sollten. Es ergab sich, dass durchweg die neuen Preise höher eingeschätzt wurden, als sie real waren. Preissenkungen wurden gar nicht, Preiserhöhungen illusorisch verstärkt wahrgenommen. Das hierfür verantwortlich gemachte psychologische Phänomen ist der schon seit Jahrzehnten bekannte so genannte Bestätigungsfehler (engl. "expectancy-consistent judgment bias"), bei dem die Beurteilung von Informationen dadurch beeinflusst wird, welche Erwartungen zuvor bestehen. Den Erwartungen entsprechende Informationen werden als glaubwürdiger und wichtiger erachtet. Im Zusammenhang der Preiseinschätzung wirkt sich dies so aus, dass Umrechnungsfehler dann eher korrigiert werden, wenn sie der Erwartung zuwiderlaufen. In einem sehr ähnlichen Versuch in Österreich waren die Ergebnisse gleich. Es wurde auch vermutet, dass die Wahrnehmung des Preises durch Rundungsfehler bei der Überschlagsrechnung (in Deutschland etwa 1:2 statt 1:1,95583 oder in Österreich 1:14 statt 1:13,7603) beeinflusst wird. In den psychologischen Studien zum Bestätigungsfehler konnte jedoch kein solcher Effekt festgestellt werden. Der Euro im globalen Währungssystem. International gebräuchliche Reservewährungen zwischen 1995 und 2010 Aufgrund der in den letzten Jahren festen Wechselkursentwicklung des Euro zu fast allen anderen bedeutenden Währungen und der anhaltenden fiskalpolitischen Schwierigkeiten der USA erwarten einzelne Ökonomen eine allmähliche Erosion und letztendlich die Ablösung des US-Dollars als Weltreserve- und Weltleitwährung. Dies würde das Ende einer Ära bedeuten, die nach dem Zweiten Weltkrieg mit der Ablösung des bis dahin dominierenden britischen Pfund durch den US-Dollar begann. Dies wird durch den kontinuierlich wachsenden Anteil des Euro an den internationalen Reservewährungen gestützt. Die meisten Wissenschaftler bewerten die wiederkehrenden Äußerungen aus Entwicklungs- und Schwellenländern bezüglich einer Umgewichtung bei ihren Währungsreserven oder einer Neu-Fakturierung von Rohölpreisen in Euro eher als politisches Druckmittel auf die USA, weniger als konkrete Absicht. 2006 war der Euro – gemessen an den Handels- und Finanzbeziehungen der meisten Drittländer mit der Eurozone – noch deutlich unterrepräsentiert. Als führende internationale Bargeldwährung hat der Euro den US-Dollar 2006 abgelöst. Seit Oktober 2006 ist der Wert der im Umlauf befindlichen Eurobanknoten mit 592 Milliarden Euro höher als der der US-Dollar-Banknoten (579 Milliarden US-Dollar). Dies hängt jedoch auch damit zusammen, dass in den USA Einkäufe deutlich öfter mittels Kreditkarte bezahlt werden. Dadurch ist pro Person durchschnittlich weniger Bargeld im Umlauf. Auswirkungen auf Deutschland. Nach Einführung des Euros erlebte Deutschland eine wirtschaftliche Schwächephase. Hierfür sehen Ökonomen mehrere Gründe, die zum Teil mit dem Euro zusammenhängen. So sei Deutschland aufgrund politischer Fehler mit einem überhöhten Wechselkurs in die Euro-Währungsunion eingetreten, wodurch ein zu hohes Preisniveau entstand. Dies habe die Wettbewerbsfähigkeit Deutschlands verringert. Erst durch langjährige Lohnzurückhaltung der Tarifparteien sei es wieder zu einer Verringerung des Preisniveaus und damit zu einer Verbesserung der Wettbewerbsfähigkeit gekommen. Hans-Werner Sinn fasst die Realabwertung (Innere Abwertung) wie folgt zusammen: „Wir sind billiger geworden und in gewisser Weise auch ärmer“. Zusätzlich entfielen mit Einführung des Euros die Wechselkursrisiken, die Finanzmarktakteure glichen daraufhin die Kreditzinsen für den gesamten Euroraum auf ein einheitliches Niveau an. Die Zinskonvergenz sorgte dafür, dass Kapital aus Euro-Ländern mit niedriger Inflation abgezogen wurde und in Euro-Länder mit hoher Inflation floss, wo es zu einer wirtschaftlichen Überhitzung und später zu Zahlungsschwierigkeiten kam. Länder wie Deutschland erlitten in dieser Zeit eine Investitionsschwäche. Zu den spezifisch für Deutschland positiven Auswirkungen zählt der gemessen an der deutschen Wirtschaftskraft relativ moderate Wechselkurs des Euros. Nach dem Sondergutachten des Sachverständigenrats zur Begutachtung der gesamtwirtschaftlichen Entwicklung vom 5. Juli 2012 würde eine Wiedereinführung der Deutschen Mark zu einer erheblichen Aufwertung (Preisniveauerhöhung gegenüber anderen Währungsräumen) führen und somit dauerhaft die internationale Wettbewerbsfähigkeit der deutschen Wirtschaft nicht nur in Europa, sondern weltweit erheblich beeinträchtigen. Umrechnung der alten Währungen in Euro. Im Vorfeld der Euro-Einführung in einem Mitgliedstaat der EWU entscheiden die EU-Finanzminister über den endgültigen Umtauschkurs. Der Wechselkurs wird dabei immer auf insgesamt sechs signifikante Stellen (d. h. vor und gegebenenfalls auch nach dem Komma) genau festgelegt, um Rundungsfehler möglichst gering zu halten. Die Wechselkurse der Währungen der ursprünglich an der Währungsunion teilnehmenden Staaten wurden am 31. Dezember 1998 von den Finanzministern festgelegt. Basis war dabei der Umrechnungswert der zuvor bestehenden ECU. Bei späteren Beitritten zum Euro (Griechenland 2001, Slowenien 2007 sowie Malta und Zypern 2008) wurde der Mittelwert im Rahmen des WKM II als Maßstab genommen. Seit der Einführung des Euros als Buchgeld dürfen die teilnehmenden Währungen nur über eine "Triangulation" ineinander umgerechnet werden. Dabei muss immer zuerst von der Ausgangswährung in den Euro und dann vom Euro in die Zielwährung umgerechnet werden. Eine Rundung ist dabei ab der dritten Euro-Nachkommastelle sowie in der Zielwährung erlaubt. Durch die Triangulation werden Rundungsfehler verhindert, die bei der direkten Umrechnung auftreten könnten, das Verfahren wurde deshalb von der Europäischen Kommission verbindlich vorgeschrieben. Bei der Umrechnung von Beträgen nach Euro, die noch in „alten“ Währungseinheiten festgelegt sind, darf erst am Ende der Berechnung der zu zahlende Gesamtbetrag gerundet werden. Eine Rundung von einzelnen Berechnungsfaktoren oder von Zwischenergebnissen würde zu einem anderen Gesamtergebnis führen. Damit würde der Rechtsgrundsatz verletzt, dass die Einführung der neuen Währung die Kontinuität von Verträgen nicht berührt. Praktisches Beispiel: War in einem Mietvertrag ein monatlich zu zahlender Mietzins vereinbart, der sich als Produkt aus Mietfläche und Quadratmeterpreis berechnet, ist nicht der Quadratmeterpreis in Euro umzurechnen und zu runden, sondern erst der monatliche Zahlungsbetrag. Eine andere Vorgehensweise würde unter Umständen erhebliche Senkungen oder Erhöhungen der monatlichen Zahlungen bewirken (vgl. Urteil des deutschen Bundesgerichtshofs vom 3. März 2005 – III ZR 363/04). Historischer Kursverlauf zum US-Dollar. Am 4. Januar 1999, dem ersten Tag des Börsenhandels in Euro an der Frankfurter Börse, hatte die neue Europa-Währung einen Wechselkurs von 1,1789 USD pro Euro. Der Kurs des Euros entwickelte sich in Relation zum US-Dollar zunächst negativ und erreichte über die ersten zwei Jahre des Börsenhandels immer weitere Tiefststände. Am 27. Januar 2000 fiel der Euro unter die Euro-Dollar-Parität; das Allzeittief wurde dann am 26. Oktober 2000 mit 0,8252 USD pro Euro erreicht. Von April 2002 bis Dezember 2004 wertete der Euro mehr oder weniger kontinuierlich auf; am 15. Juli 2002 wurde wieder die Parität erreicht, am 28. Dezember 2004 erreichte er ein Rekordhoch mit 1,3633 USD. Entgegen den Erwartungen vieler Analysten, von denen manche sogar einen baldigen Anstieg auf über 1,4 USD oder gar 1,6 USD prognostiziert hatten, wertete der Euro wegen der Zinserhöhungspolitik der US-Notenbank im Verlauf des Jahres 2005 wieder deutlich ab und erreichte am 15. November mit 1,1667 USD sein Jahrestief 2005. Diese Zinserhöhungspolitik konnte allerdings wegen der Abschwächung der US-Konjunktur 2006 nicht mehr fortgesetzt werden; erschwerend kam seit der zweiten Jahreshälfte 2007 die Subprime-Krise hinzu, die die US-Notenbank zu mehreren Leitzinssenkungen veranlasste, sodass der Euro erneut aufwertete und der EZB-Referenzkurs am 15. Juli 2008 sein bisheriges Rekordhoch von 1,5990 USD erreichte, wobei der höchste je am Markt gehandelte Kurs bei 1,6038 USD lag. Zum Vergleich: Ihren Höchstwert erreichte die D-Mark am 19. April 1995, als 1 USD 1,3455 DEM kostete – das entspricht umgerechnet 1,45361 USD je Euro. Der an die D-Mark gekoppelte österreichische Schilling erreichte sein Allzeithoch am selben Tag mit einem US-Dollar-Preis von 9,485 Schilling, das sind umgerechnet 1,45074 USD je Euro. Durch die Dollarschwäche war das Bruttoinlandsprodukt des Euroraums zu Markt-Wechselkursen im März 2008 größer als das der USA. Bedeutung des US-Dollar-Euro-Wechselkurses. Ein hoher Eurokurs bringt für die europäische Wirtschaft sowohl Vorteile als auch Nachteile. Vorteilhaft ist die Verbilligung der Rohstoffe, die weiterhin überwiegend in US-Dollar gehandelt werden. Nachteilig ist die Verteuerung der Exporte, die zu Absatzproblemen führen kann. Durch die Größe des Euroraumes haben die Wechselkurse und somit die durch Wechselkursschwankungen hervorgerufenen Wechselkursrisiken jedoch weitaus weniger Bedeutung als zu Zeiten nationaler Währungen. Insbesondere konnte sich Anfang 2007 die europäische Binnenwirtschaft mit einem überdurchschnittlichen Wachstum von der nur moderat wachsenden Weltwirtschaft abkoppeln. Im Juli 2008 erreichte der Euro mit einem Kurs von 1,5990 US-Dollar pro Euro sein bisheriges Allzeithoch (siehe Tabelle „Jahreshöchst- und -tiefstwerte“ oben); im Zuge der 10 fiel der Kurs von 1,35 USD/EUR auf etwa 1,20 USD/EUR (= um etwa 10 %). Euro Currency Index. Der Euro Currency Index (EUR_I) stellt das arithmetische Verhältnis von vier Leitwährungen im Vergleich zum Euro dar: US-Dollar, britisches Pfund, japanischer Yen und Schweizer Franken. Alle Währungen werden in den Maßeinheiten der Währung pro Euro ausgedrückt. Der Index wurde 2004 vom Börsenportal Stooq.com lanciert. Basiswert sind 100 Punkte am 4. Januar 1971. Vor Einführung der europäischen Gemeinschaftswährung am 1. Januar 1999 wurde ein Wechselkurs von 1 Euro = 1,95583 Deutsche Mark berechnet. Vergleichbar mit dem arithmetisch gewichteten Euro Currency Index ist der handelsgewichtete Euro Effective Exchange Rate Index der Europäischen Zentralbank (EZB). Der Index der EZB misst im Vergleich zum Euro Currency Index viel akkurater den Wert des Euros, da die Gewichtung der EZB die Wettbewerbsfähigkeit europäischer Güter im Vergleich zu anderen Ländern und Handelspartnern stellt. Auch andere Unternehmen veröffentlichten Euro Currency Indizes. Die Berechnung wurde aber nach wenigen Jahren wieder eingestellt. Beispiele sind der Dow Jones Euro Currency Index (DJEURO) von Dow Jones & Company von 2005 bis 2009 und der ICE Euro Currency Index (ECX) der Terminbörse ICE Futures U.S., früher New York Board of Trade (NYBOT), von 2006 bis 2011. Euro Effective Exchange Rate Index. Die EZB bestimmt die Gewichte der einzelnen Partnerländer anhand der Anteile der Fertigerzeugnisse, wie sie in der Standard International Trade Classification (SITC) definiert sind. Für die Gewichte verwendet die EZB die Werte aus den Exporten und den Importen, ohne den Handel innerhalb des Euroraums zu berücksichtigen. Die Einfuhren werden nach dem einfachen Anteil der Partnerländer an den Gesamtimporten in das Euro-Währungsgebiet gewichtet. Die Exporte werden hingegen doppelt gewichtet, wegen der sogenannten „Dritt-Markt-Effekte“. Dies erfasst den Wettbewerb der europäischen Exporteure in ausländische Märkte gegenüber inländischen Produzenten und Exporteure aus Drittländern. Währungsname Euro. Der Name „Euro“ wurde auf der Tagung des Europäischen Rates am 15. und 16. Dezember 1995 in Madrid beschlossen und in der "Verordnung (EG) Nr. 974/98 über die Einführung des Euros" festgelegt. In allen Sprachen der Länder, in denen die Währung eingeführt wurde, lautet ihr Name „euro“. Abweichend davon wird im Deutschen die Währung großgeschrieben (Euro), im Griechischen wird das griechische Alphabet verwendet (ευρώ). In einer Erklärung zum Vertrag von Lissabon stellten die Regierungen von Lettland, Ungarn und Malta am 9. Mai 2008 fest, dass die vereinheitlichte Schreibweise „keine Auswirkungen auf die geltenden Regeln der lettischen, der ungarischen und der maltesischen Sprache“ habe. In der deutschen amtlichen Sprachverwendung wird die Bezeichnung "Euro" unverändert auch im Plural verwendet. Allerdings weicht der umgangssprachliche Gebrauch hiervon ab: Im Deutschen lauten die Pluralformen "Euros" und "Cents", wenn man von Scheinen und Münzen spricht oder schreibt („ein Sack voller Euros“); kein "-s" steht bei der Angabe eines bestimmten Geldbetrages („Ich habe tausend Euro überwiesen“). In einigen anderen EU-Sprachen existieren auch amtlich eigene Pluralformen. Etymologisch leitet sich das Wort „Euro“ als Abkürzung des Namens des Kontinents Europa und damit letztlich aus dem griechischen "Εὐρώπη" ab. Untereinheit Cent. Die Untereinheit des Euros lautet „Cent“. Laut den interinstitutionellen Regeln für Veröffentlichungen der EU sind national abweichende Bezeichnungen allerdings nicht ausgeschlossen. Dies ist ein Zugeständnis an die Länder, deren Währungsuntereinheit bereits vor der Einführung des Euros mit einer Form des Wortes Cent bezeichnet wurde, so z. B. Frankreich und Belgien "(centimes)", Italien "(centesimi)" oder Portugal "(centavos)." Im Finnischen wird zudem die dort für die Untereinheit des Dollars bereits früher gebräuchliche Form "sentti" verwendet. Im Griechischen wird "λεπτό" (Lepto) gebraucht, was auch schon der Name für die Untereinheit der griechischen Drachme war. Umgangssprachlich ist − auch zur Unterscheidung von den gleichnamigen Untereinheiten anderer Währungen − auch die Bezeichnung „Euro-Cent“ verbreitet. Auch auf den Münzen selbst werden die Worte "Euro" und "Cent" übereinander geschrieben, wobei allerdings "Euro" in kleinerer Schrift als "Cent" erscheint. Das Wort „Cent“ stammt von "centesimus" (lat. „der Hundertste“ bzw. „das Hundertstel“) ab. Varianten wurden schon seit langem in der Romania für Währungsuntereinheiten benutzt (vgl. Céntimo, Centime, Centavo und Centesimo). Die Form „Cent“ selbst war schon vor der Euro-Einführung über das Niederländische und das Englische ins Deutsche vermittelt worden, insbesondere als Bezeichnung für die Untereinheit des Dollar. Euro-Währungssymbol. Das Euro-Zeichen wurde 1997 von der Europäischen Kommission als Symbol für die europäische Gemeinschaftswährung eingeführt. Dass es überhaupt ein Symbol gibt, ist eher dem Zufall zu verdanken. Da es nur wenige Währungen gibt, für die ein Symbol existiert, hatte der Rat auch nie über ein Symbol diskutiert. Erst als Anfang 1996 ein Logo für Informationskampagnen gesucht wurde, fand man den Entwurf. Daraus entstand die Idee, dieses Logo auch als Währungssymbol einzuführen. Am 23. Juli 1997 veröffentlichte die Kommission eine Mitteilung über die Verwendung des Euro-Zeichens. Der Text erläutert: "Das € ist an das griechische Epsilon angelehnt, das auf die Wiege der europäischen Zivilisation zurückverweist, und an den ersten Buchstaben des Wortes Europa; es wird gekreuzt von zwei Parallelen, die die Stabilität des Euro symbolisieren. Eine frühzeitige Festlegung auf ein unverwechselbares Symbol für den Euro soll auch zeigen, dass der Euro dazu berufen ist, eine der wichtigsten Währungen der Welt zu werden." Es basiert auf einem 1974 als Studie geschaffenen Entwurf des ehemaligen Chefgrafikers der Europäischen Gemeinschaft (EG), Arthur Eisenmenger. Es ist ein großes, rundes "E," das in der Mitte zwei waagerechte, versetzte Striche besitzt (oder auch wie ein C mit einem Gleichheitszeichen kombiniert). Es erinnert an den griechischen Buchstaben Epsilon (ε). Ursprünglich sollte die Abkürzung "ECU" verwendet werden. Das Eurozeichen sollte in dieser Form nicht in Texten eingesetzt werden. Typografisch korrekt ist es, das Eurozeichen der verwendeten Schrift zu verwenden (U+20AC). Allerdings erschien schon – von der Paneuropa-Union (Union Paneuropéenne) im Jahr 1972 herausgegeben – ein Satz mit sieben Werten zu 1, 2, 5, 10, 20, 50 und 100 Euro mit dem Euro-Symbol „€“, das damals etwas anders aussah, aber auch aus einem großen „C“ mit einem eingefügten Gleichheitszeichen bestand. Anlass der Ausgabe waren der 50. Jahrestag der Paneuropa-Union und der 20. Jahrestag der Europäischen Gemeinschaft für Kohle und Stahl, verbunden mit dem Vertrag über die Norderweiterung der Gemeinschaft. Die Stücke zeigen eine Umschrift mit dem Text „CONFŒDERATIO EUROPÆA“. Auf den Rückseiten sind Karl I., Karl V., Napoléon Bonaparte, Richard Nikolaus Graf von Coudenhove-Kalergi, Jean Monnet, Sir Winston Churchill und Konrad Adenauer abgebildet. Eine weitere Euro-Ausgabe mit zwei Stücken gab es ein Jahr später zum 10. Jahrestag des Freundschaftsvertrages zwischen Deutschland und Frankreich. ISO-Währungscode. Allerdings sind solche Abweichungen von der Norm zur besseren Lesbarkeit nicht völlig ungewöhnlich. So hat etwa auch der russische Rubel nicht die standardmäßige Abkürzung RUR, sondern RUB. Amtliche Schreibweisen. Das Amt für Veröffentlichungen der Europäischen Union verwendet in seinen Schreibregeln das Eurozeichen nur zur grafischen Darstellung, populärwissenschaftlichen Veröffentlichungen und für Werbezwecke. In amtlichen Texten wird für Währungsbeträge hingegen grundsätzlich der ISO-Code „EUR“ genutzt. Für den Cent gibt es offiziell weder ein Zeichen noch eine Abkürzung. In amtlichen Texten werden Beträge im Cent-Bereich daher in Eurobruchteilen angegeben, also zum Beispiel für einen Betrag von 20 Cent „0,20 EUR“. Inoffiziell wird die Untereinheit allerdings häufig abgekürzt "(Ct, Ct., ct, C" oder "c)." Das für den US-Cent verwendete Zeichen "¢" ist für den Eurocent ungebräuchlich. Eurobargeld. Ende 2010 waren 862,3 Milliarden Euro als Bargeld in Umlauf, davon 840 Milliarden Euro als Scheine (97,4 %) und 22,3 Milliarden Euro als Münzen (2,6 %). Gebrauchsmünzen. Es gibt Euromünzen zu 1, 2, 5, 10, 20 und 50 Eurocent sowie zu 1 und 2 Euro. Die Vorderseiten der Münzen aller Euroländer sind gleich, auf der Rückseite haben sie nationale Motivprägungen. Dennoch kann im gesamten Währungsraum damit bezahlt werden. Seit 2007 werden die Vorderseiten der Münzen schrittweise erneuert, um die im Jahre 2004 hinzugekommenen EU-Länder ebenfalls darzustellen. Die deutschen Rückseiten besitzen zusätzlich noch ein Münzzeichen, das den Prägeort angibt. Auf den griechischen Münzen ist der Nennwert auch auf Griechisch aufgeführt, statt Cent steht die Bezeichnung "Lepto/Lepta." Auf der Vorderseite der Münzen befindet sich ein versetztes Doppel-L; die Initialen des belgischen Designers Luc Luycx. Die Münzen zu 1 und 2 Euro bestehen aus zwei unterschiedlichen Legierungen (Kupfernickel und Messing). Unter Gebrauchsbedingungen entsteht ein elektrochemisches Spannungsgefälle, das Nickel-Ionen aus der Legierung herauslöst. Dies löst jedoch (entgegen ursprünglichen Befürchtungen) keine allergischen Reaktionen aus. Da die thailändischen 10-Baht-Münzen den 2-Euro-Münzen in Größe und Gewicht stark ähneln und ebenfalls aus zwei unterschiedlichen Legierungen bestehen, erkennen Automaten im Euroraum, die über eine unzureichende Münzprüfung verfügen, diese Münzen unter Umständen als 2-Euro-Münze. Das kann unter Umständen auch mit anderen Münzen – zum Beispiel der neuen türkischen 1-Lira-Münze, der kenianischen 5-Schilling-Münze, oder mit Restbeständen der italienischen 500-Lira-Münze – geschehen. 2-Euro-Gedenkmünzen. Seit 2004 werden 2-Euro-Gedenkmünzen für den Umlauf ausgegeben. Sie unterschieden sich nur durch das Motiv auf der nationalen Seite von den Umlaufmünzen und sind im gesamten Euroraum gültig. Die erste Ausgabe wurde zum Gedenken an die Olympischen Sommerspiele 2004 in Athen von Griechenland ausgegeben. 2005 gab Österreich eine Münze zum fünfzigjährigen Jubiläum des Staatsvertrages heraus. Deutschland startete mit seiner ersten Gedenkmünze der Bundesländerserie 2006, auf der das Holstentor zu Lübeck abgebildet ist. Die Auflage betrug 31,5 Millionen. Dem jährlich wechselnden Vorsitz im Bundesrat gemäß, wurden in den Folgejahren – und werden bis einschließlich 2021 –jeweils einem der 16 Bundesländer gewidmete Gedenkmünzen ausgegeben, mit Auflagen von jeweils rund 31 Millionen. Es war deshalb vorgesehen, dass Deutschland für den Umlauf 16 Jahre lang keine 2-Euro-Münzen mit dem Motiv des Bundesadlers (also die „gewöhnliche“ 2-Euro-Münze) – mit Ausnahme einer geringen Auflage Kursmünzensätze für Sammler – prägt. Dennoch wurden aber immer wieder 2-Euro-Münzen mit dem Bundesadler in erheblicher Stückzahl für Umlaufzwecke geprägt. Zum fünfzigsten Jahrestag der Unterzeichnung der Römischen Verträge, dem 25. März 2007, gaben alle 13 Euroländer eine Gedenkmünze mit gemeinsamem Bild und Schriftzügen in der jeweiligen Landessprache bzw. in Latein aus. Am 1. Januar 2009 erschien erneut eine Gemeinschaftsausgabe der mittlerweile 16 Euroländer anlässlich des zehnten Jubiläums der Wirtschafts- und Währungsunion. Das Ausgabedatum ist symbolisch zu betrachten, da Neujahr ein offizieller Feiertag ist. Die deutsche Ausgabe erschien am 5. Januar und die italienische Münze als letzte der Serie am 26. März. Anfang 2012 folgte die dritte Gemeinschaftsausgabe von nunmehr 17 Ländern anlässlich des zehnjährigen Jubiläums der Einführung des Euro als Bargeld. Sammlermünzen. Die Euroländer verausgaben neben den normalen Kursmünzen und den 2-Euro-Gedenkmünzen auch reine Sammlermünzen. Teilweise belaufen sich die Nennwerte auf bis zu mehreren hundert Euro, und die Münzen enthalten Silber oder Gold. Derartige Sammlermünzen werden nur in den jeweiligen Ausgabestaaten als gültiges Zahlungsmittel anerkannt, das heißt, sie gelten nicht in der gesamten Eurozone. Die Prägeauflage ist meistens limitiert. Die Nennwerte sind beliebig, nur die Nennwerte der normalen Euro-Kursmünzen dürfen nicht für Sammlermünzen verwendet werden. Den bislang höchsten Nennwert hat mit 100.000 Euro eine Sonderausgabe des Wiener Philharmonikers. Banknoten. Euro-Banknoten gibt es in Stückelungen von 5 €-, 10 €-, 20 €-, 50 €-, 100 €-, 200 €- und 500 €-Scheinen. Die Euro-Banknoten der Ersten Serie wurden nach einem EU-weiten Wettbewerb von dem Österreicher Robert Kalina gestaltet und sind in allen Euroländern identisch. Die Scheine zeigen verschiedene Motive zu den Themen "Zeitalter und Baustile in Europa." Die Vorderseiten zeigen als Motiv ein Fenster oder eine Fensterfront, die Rückseiten jeweils eine Brücke. Dabei sind keine realen Bauwerke abgebildet, sondern es wurden die Stilmerkmale der einzelnen Epochen in eine typische Abbildung eingebracht: Antike auf dem 5-Euro-Schein, Romanik auf dem 10-Euro-Schein, Gotik auf dem 20-Euro-Schein, Renaissance auf dem 50-Euro-Schein, Barock und Rokoko auf dem 100-Euro-Schein, Eisen- und Glasarchitektur auf dem 200-Euro-Schein und Moderne Architektur des 20. Jahrhunderts auf dem 500-Euro-Schein. 2005 begann die Entwicklung der von Reinhold Gerstetter gestalteten zweiten Generation von Euro-Banknoten, die ab 2013 sukzessive eingeführt werden. Herkunft der Eurobanknoten. Druckereicode im 8-Uhr-Stern der 10-Euro-Note Bis Ende 2002 war anhand des Anfangsbuchstabens der Seriennummer auf der Rückseite eines Euroscheines zu ersehen, im Auftrag welcher nationalen Zentralbank er gedruckt wurde. Deutschland hatte in diesem System den Buchstaben X zugewiesen bekommen. Seit 2003 wird im sogenannten „Pooling-System“ jeder Wert nur noch von wenigen Nationalbanken produziert und von den Druckereien ins gesamte Eurogebiet transportiert. Jede Nationalbank spezialisiert sich auf höchstens vier Wertstufen. Heute lässt sich die Herkunft nur noch mit Hilfe des Druckereicodes feststellen, der sich beispielsweise beim 10-Euro-Schein im Stern an der 8-Uhr-Position befindet. Bei jedem Schein befindet er sich auf der Vorderseite, die genaue Position variiert je nach Wert des Scheines. Der erste Buchstabe gibt die Druckerei an, in der er gedruckt wurde. Der Buchstabe R steht zum Beispiel für die Bundesdruckerei in Berlin. Der Druckereicode besteht aus einem Buchstaben, drei Ziffern, einem Buchstaben und einer Ziffer. Siehe mehr dazu im Artikel Eurobanknoten. Einführung von 1- und 2-Euro-Scheinen. Österreich forderte die Einführung eines 2-Euro-Scheins, Italien sogar die eines 1-Euro-Scheins. In beiden Staaten waren vor der Einführung des Euros Geldscheine mit relativ geringen Werten im Umlauf – so zum Beispiel der 20-Schilling-Schein (1,45 Euro) in Österreich oder der 1000-Lire-Schein (52 Cent) in Italien. Am 18. November 2004 beschloss der EZB-Rat, keine Euroscheine mit niedrigerem Wert einzuführen. Sie hätten einen ähnlichen Wert wie die selten verwendete 5-DM-Note (2,56 Euro) gehabt. Abschaffung der 1- und 2-Cent-Münzen. In einigen Euroländern sind 1- und 2-Cent-Münzen für den physischen Zahlungsverkehr nicht gebräuchlich und werden nur in kleinen Stückzahlen für Münzsammler geprägt. In Finnland wurden sie als Zahlungsmittel gar nicht eingeführt, dort werden seither Rechnungen, die nicht auf –,–0 oder –,–5 Euro enden, beim Bezahlen auf diese Beträge gerundet. Zwar kann man auch mit 1- oder 2-Cent-Münzen bezahlen, sie werden jedoch nicht als Wechselgeld herausgegeben. Schon vor der Euro-Einführung war die kleinste Nominale der Finnischen Mark nicht das 1-penni-Stück, sondern das 10-penniä-Stück gewesen und Beträge sind entsprechend gerundet worden. In den Niederlanden (seit 1. September 2004; entsprechend auch schon mit dem Gulden nach der Abschaffung der 1-Cent-Münze) wurde dieses System später übernommen – begründet mit dem geringen Geldumlauf solcher Münzen. Die Gegner der Abschaffung befürchten vor allem einen zweiten „Teuro-Effekt“, weil viele Einzelpreise auf volle fünf Cent aufgerundet werden könnten. Dagegen wird aber eingewendet, dass dies wegen der psychologisch wichtigen Schwellenpreise, die dann eher von –,99 auf –,95 herabgesetzt werden, nicht passieren würde. Zudem existieren in niederländischen und finnischen Geschäften immer noch warenbezogene Schwellenpreise, die oft auf –,99 enden. Erst die Summe an der Kasse wird auf- oder abgerundet. Die EU-Kommission machte am 14. Mai 2013 Vorschläge für eine Vergünstigung oder eine Abschaffung der 1- und 2-Cent-Münzen. Währungskommissar Olli Rehn stellte fest, die Herstellung und Herausgabe dieser Münzen übersteige ihren Wert. Zugleich müssten die Zentralbanken ausgerechnet von diesen Münzen besonders viele Exemplare herausgeben. Insgesamt seien in den letzten elf Jahren 45,8 Milliarden solcher Kleinstmünzen in Umlauf gebracht worden. Die Ausgabe der Kleinstmünzen habe die Euro-Staaten seit dem Start der Gemeinschaftswährung im Jahr 2002 zusammen etwa 1,4 Mrd. Euro gekostet. Die Kosten für die Cent-Münzen könnten etwa durch eine andere Materialmischung oder ein effizienteres Prägungsverfahren reduziert werden. Banknoten. Die Fälschungssicherheit der Eurobanknoten wird im internationalen Vergleich hoch angesehen. Um sie zu gewährleisten, sind die Scheine mit mehreren Sicherheitsmerkmalen ausgestattet. Bei der Produktion werden in das Banknotenpapier fluoreszierende Fasern und ein mittig verlaufender Sicherheitsfaden eingebracht, der in Gegenlicht dunkel erscheint und die Wertangabe als Mikrodruck trägt. Außerdem bestehen die Scheine aus Baumwollfasern, die ihnen eine charakteristische Struktur verleihen. Weiterhin werden Teile des Motivs mit fluoreszierender Farbe hergestellt, sodass unter UV-Licht die Fasern und das Motiv leuchten. Bei Nutzung von infrarotem Licht reflektieren die Scheine in unterschiedlichen Farben. Ein Wasserzeichen in den Noten lässt im Gegenlicht das jeweilige Architekturmotiv und die Wertzahl erkennen. Links unter Infrarot-Licht, rechts unter normalem Licht fotografiert Das Durchsichtsregister in der linken oberen Ecke der Banknotenvorderseite lässt ebenfalls im Gegenlicht zusammen mit dem Rückseitenmotiv die Wertzahl erscheinen. Dies passiert dadurch, dass auf der Vorder- und Rückseite jeweils nur Teile der Wertzahl gedruckt sind, die sich erst bei der Durchsicht zusammenfügen. Am Rand der 5-, 10- und 20-Euro-Banknoten ist ein durchlaufender metallisierter Folienstreifen aufgebracht, der je nach Beleuchtungswinkel entweder das Euro-Symbol oder den jeweiligen Wert des Scheines als Kinegramm erscheinen lässt. Die höherwertigen Euroscheine ab 50 Euro besitzen an dieser Stelle ein positioniertes Folienelement, das beim Kippen der Banknote in Form eines Hologramms – je nach Betrachtungswinkel – das jeweilige Architekturmotiv beziehungsweise die Wertzahl zeigt. Durch das Druckverfahren der Banknoten, ein Stichtiefdruckverfahren kombiniert mit – als Irisdruck ausgeführtem – indirektem Hochdruck, entsteht auf der Geldscheinvorderseite ein ertastbares Relief, das die Fälschung der Banknoten erschwert und zugleich Sehbehinderten die Unterscheidung der Banknoten vereinfacht. Außerdem sind die Abbildungen der Fenster und Tore und die Abkürzungen der Europäischen Zentralbank (BCE, ECB, EZB, griech. ΕΚΤ (lat. EKT), EKP) ertastbar. Die Scheine niedrigen Wertes haben auf der Rückseite einen goldtransparenten Perlglanzstreifen, während bei den Werten ab 50 Euro die Farbe der Wertziffer beim Kippen variiert (OVI =). Zudem besitzen die Euroscheine maschinenlesbare Kennzeichen, die eine automatische Überprüfung der Echtheit gewährleisten. Eine Besonderheit ist das sogenannte „Counterfeit Deterrence System“ (CDS), das das Reproduzieren auf Kopiergeräten oder per PC verhindern soll. Die Deutsche Bundesbank empfiehlt generell, sich niemals nur auf ein einziges Sicherheitsmerkmal zu konzentrieren und weist gleichzeitig darauf hin, dass es weitere Sicherheitsmerkmale gebe, die aber nicht veröffentlicht werden. Europa-Serie. Mario Draghi (Präsident der Europäischen Zentralbank) stellte am 10. Januar 2013 in Frankfurt als ersten Schein einer neuen, "„Europa-Serie“" genannten Banknotenserie, eine neue 5-Euro-Note vor, die ab dem 2. Mai 2013 in Umlauf gebracht wurde. Sie weist zusätzliche Sicherheitsmerkmale auf wie z. B. ein Wasserzeichen mit der Abbildung der mythologischen Gestalt Europa, einen Sicherheitsfaden, eine Ziffer „5“, die beim Kippen von smaragdgrün nach tiefblau changiert, einen glänzenden Hologrammstreifen sowie tastbare Linien an den Rändern. Zwecks längerer Haltbarkeit ist die neue Banknote mit einem Schutzlack versehen und fühlt sich deshalb wächsern-glatt an. Die parallel zirkulierenden alten Banknoten werden nach und nach aus dem Verkehr gezogen und verlieren „letztlich den Status als gesetzliches Zahlungsmittel […] behalten jedoch auf Dauer ihren Wert“. Der Fünfer, die am intensivsten zirkulierende Euro-Banknote, hat in der alten Version eine Haltbarkeit von nur knapp einem Jahr. Neu ist, dass in der Europa-Serie, die 2014 mit einem neuen 10-Euro-Schein fortgesetzt wurde und die im November 2015 mit einem neuen 20-Euro-Schein ergänzt werden wird, die Währungsbezeichnung nicht nur in lateinischer und griechischer Schreibweise ("EURO" bzw. "EYPΩ") erfolgt, sondern auch in kyrillischer Schrift (ЕВРО), und neun statt bisher fünf Akronyme für die Europäische Zentralbank erscheinen. Als einziges EU-Mitglied verwendet Bulgarien das kyrillische Alphabet. Münzen. Euromünzen sind wegen des niedrigeren Wertes nicht so stark von Fälschungen betroffen wie die Geldscheine, trotzdem müssen auch sie vor Fälschern geschützt sein. Sie verfügen über eine bestimmte Größe und eine genau definierte Masse. Die Ein- und Zwei-Euro-Münzen sind durch eine Kombination zweier Metalle bicolor gestaltet. Dies und ein komplexes, dreischichtiges Herstellungsverfahren gewährleisten die Fälschungssicherheit der Münzen. Der Mittelteil echter Ein- und Zwei-Euro-Münzen ist leicht ferromagnetisch, die Ein-, Zwei- und Fünf-Cent-Stücke sind hingegen stark ferromagnetisch. Der Außenring der Ein- und Zwei-Euro-Münzen ist dagegen nicht ferromagnetisch, genau wie die übrigen drei Euromünzen. Da falsche Centmünzen oftmals aus anderen Metallen hergestellt sind als die echten, lassen sie auch oft einen falschen Klang beim Fall auf eine Tischplatte entstehen. Auch hinterlassen sie oft eine bleistiftähnliche Spur, wenn man sie über ein Blatt Papier streicht. Registriertes Falschgeld. In Deutschland wurden im ersten Halbjahr 2010 rund 33.700 falsche Eurobanknoten eingezogen, die Schadensumme betrug 1,9 Mio. Euro. Dies bedeutete einen Anstieg gegenüber den vorigen Jahren. Mit acht Fälschungen auf 10.000 Einwohner lag Deutschland aber weiter unter dem EU-Durchschnitt. Bei über 60 % der gefälschten Noten handelte es sich um 50-Euro-Scheine. An falschen Euromünzen wurden rund 33.600 Stück eingezogen, davon über 80 % Zwei-Euro-Münzen. Europaweit betrafen im gleichen Zeitraum je gut 40 % der Fälschungen 20- und 50-Euro-Scheine. 2011 wurden von der Deutschen Bundesbank 39.000, 2012 41.500 falsche Banknoten registriert. die Schäden von 2,1 Millionen bzw. 2,2 Millionen Euro verursachten. Mit 46 % aller „Blüten“ rangierte der 20-Euro-Schein vor dem 50er mit 34 % Anteil. 5er- und 500er-Noten machen nur jeweils 1 % des registrierten Falschgelds aus. Europaweit wurden im ersten Halbjahr 2012 251.000 gefälschte Euro-Banknoten aus dem Verkehr gezogen. In Relation zu 14,6 Mrd in Umlauf befindlichen echten Banknoten gilt der Anteil an gefälschten Scheinen als sehr gering. Die meisten Fälschungen wurden 2009/10 gezählt; seither (Stand: 2012) nimmt deren Zahl ab. Gefälschte Münzen. Dem Umlauf entzogene 1- und 2-Euro-Münzen wurden bis 2007 in Deutschland nicht (durch Verbiegen oder Plattwalzen ihrer Oberflächen) verunstaltet, sondern entkernt, also in Ring und Kern getrennt und nach Materialsorte sortiert. Solch sortierter Schrott wurde u. a. nach China verkauft. Betrügerisch sollen diese Münzenteile in großem Umfang wieder maschinell zusammengesetzt worden sein. Diese rückgebauten Münzen wurden z.B. durch Flugbegleiterinnen nach Deutschland eingeführt, als beschädigte Münzen der Bundesbank zur Rücknahme angeboten und von dieser angenommen. Betroffen waren 29 Tonnen bei 263 Transaktionen in drei Jahren, im (Schadens-)Wert von 6 Mio. Euro. Das ist wenig im Vergleich zu fast 70.000 t Münzeinzahlungen bei der Bundesbank pro Jahr und fiel dadurch nicht auf. Nach einjähriger Ermittlung wurde der Fall im April 2011 als gerichtsanhängig publik. Die Münzüberbringer gaben vor, „die Münzen seien in China beim Verarbeiten von Müll, Schrottautos und Altkleidern angefallen“. Ein Teil der Münzen war in die Teile zerfallen, bei einem Teil passten Ring und Kern herkunftsmäßig nicht zusammen, manche Spalten waren optisch durchscheinend oder wiesen Klebstoff auf. Seit 11. Januar 2011 gilt nunmehr eine neue EU-Verordnung, wonach nur noch "durch den normalen Gebrauch beschädigte Münzen" umgetauscht werden. Alle anderen werden ersatzlos eingezogen. Die nationalen Behörden aller Euro-Länder stellten 2013 insgesamt 175.900 falsche Euromünzen sicher. Somit kam auf 100.000 echte Münzen eine Fälschung. Zwei von drei sichergestellten Falschmünzen waren 2-Euro-Stücke. Um den Fälschungsschutz des Euro zu verbessern, trat in Deutschland zum 1. Januar 2013 die "Bargeldprüfungsverordnung" in Kraft, die – nach einer Übergangsfrist von zwei Jahren – ab 1. Januar 2015 vorschreibt, wie Geldinstitute sicherzustellen haben, dass alle von ihnen wieder in Umlauf gebrachten Euro-Münzen echt sind. Auszeichnungen. Im Jahre 2002 wurde der Euro mit dem Internationalen Karlspreis zu Aachen ausgezeichnet, da er „wie kein anderer Integrationsschritt zuvor die Identifikation mit Europa befördert und damit einen entscheidenden, epochemachenden Beitrag zum Zusammenwachsen der Völkerfamilie leistet“. Ernest Rutherford. Ernest Rutherford, 1. Baron Rutherford of Nelson (* 30. August 1871 in Spring Grove bei Nelson; † 19. Oktober 1937 in Cambridge, Vereinigtes Königreich) war ein neuseeländischer Physiker, der 1908 den Nobelpreis für Chemie erhielt. Rutherford gilt als einer der bedeutendsten Experimentalphysiker. 1897 erkannte Rutherford, dass die ionisierende Strahlung des Urans aus mehreren Teilchenarten besteht. 1902 stellte er die Hypothese auf, dass chemische Elemente durch radioaktiven Zerfall in Elemente mit niedrigerer Ordnungszahl übergehen. Er teilte 1903 die Radioaktivität in Alphastrahlung, Betastrahlung sowie Gammastrahlung nach der positiven, negativen oder neutralen Ablenkung der Strahlenteilchen in einem Magnetfeld auf und führte den Begriff der Halbwertszeit ein. Diese Arbeit wurde 1908 mit dem Nobelpreis für Chemie ausgezeichnet. Sein bekanntester Beitrag zur Atomphysik ist das Rutherfordsche Atommodell, das er 1911 aus seinen Streuversuchen von Alphateilchen an Goldfolie ableitete. Rutherford widerlegte das Atommodell von Thomson, der noch von einer gleichmäßigen Masseverteilung ausgegangen war. Rutherford wies erstmals 1917 experimentell nach, dass durch Bestrahlung mit Alphateilchen ein Atomkern (in seinem Falle Stickstoff) in einen anderen (in seinem Falle in das nächstschwerere Element Sauerstoff) umgewandelt werden kann. Bei diesen Experimenten entdeckte er das Proton. Unter seiner Anleitung „zertrümmerten“ John Cockcroft und Ernest Walton mit künstlich beschleunigten Teilchen einen Atomkern; mit Protonen beschossenes Lithium spaltete sich auf in zwei Alphateilchen, also Helium-Kerne. Einem weiteren Wissenschaftler in Cambridge, James Chadwick, gelang es 1932, das Neutron experimentell nachzuweisen, welches Rutherford bereits Jahre vorher theoretisch postuliert hatte. Herkunft und Ausbildung. Ernest Rutherford war das vierte von zwölf Kindern von James Rutherford (1838–1928) und dessen Frau Martha Thompson (um 1843–1935). Seine Eltern waren im Kindesalter nach Neuseeland immigriert. Von Spring Grove zog die Familie 1876 nach Foxhill. Dort besuchte Rutherford seit März 1877 die von Henry Ladley geleitete Primary School. 1883 zog die Familie weiter nach Havelock, wo der Vater am Ruakaka-Fluss eine von ihm errichtete Flachsmühle betrieb. Aus wirtschaftlichen Gründen musste die Familie fünf Jahre später noch einmal umziehen, diesmal nach Pungarehu auf der neuseeländischen Nordinsel. Unterstützt durch ein Stipendium des Marlborough Education Boards besuchte Rutherford von 1887 bis 1889 das Nelson College. Dort spielte er unter anderem in der Rugby-Mannschaft und war 1889 Schulsprecher. Sein Interesse für Mathematik und Naturwissenschaften wurde durch seinen Lehrer William Still Littlejohn (1859–1933) gefördert. Ab Februar 1890 studierte Rutherford am Canterbury College in Christchurch. Dort förderte der Professor für Mathematik und Naturphilosophie Charles Henry Herbert Cook (1843–1910) Rutherfords mathematische Begabung, während der Professor für Chemie Alexander William Bickerton (1842–1929), der ebenfalls Physik unterrichtete, Rutherfords Interesse für die Physik weckte. 1892 bestand Rutherford die Prüfungen für den Bachelor of Arts, 1893 erwarb er den Grad eines Master of Arts und ein Jahr später den Abschluss als Bachelor of Science. Rutherfords erste Forschungsarbeiten beschäftigten sich mit dem Einfluss von hochfrequenten Hertzschen Wellen auf die magnetischen Eigenschaften von Eisen und wurden in den "Transactions of the New Zealand Institute" veröffentlicht. Während dieser Zeit wohnte Rutherford im Haus der verwitweten Mary Kate De Renzy Newton, einer Sekretärin der Woman’s Christian Temperance Union. Dort lernte er ihre Tochter und seine spätere Frau Mary „May“ Georgina Newton (1876–1945) kennen. Rutherford bewarb sich 1894 um den neuseeländischen Platz für ein „1851 Exhibition Scholarship“, einem aus den Überschüssen der Great Exhibition von 1851 in London finanzierten Stipendium. Er unterlag mit seiner Bewerbung dem Chemiker James Scott Maclaurin (1864–1939) vom Auckland University College. Als Maclaurin das mit 150 Pfund Sterling dotierte und für einen Studienaufenthalt in Großbritannien gedachte Stipendium nicht annahm, wurde es Rutherford als zweitem Bewerber zugesprochen. Am 1. August 1895 verließ Rutherford von Wellington aus mit einem Dampfschiff Neuseeland. Bei einem Zwischenaufenthalt führte er William Henry Bragg an der University of Adelaide seinen Detektor für Hertzsche Wellen vor und erhielt von Bragg ein Empfehlungsschreiben. Im Oktober 1895 begann Rutherford seine Tätigkeit am von Joseph John Thomson geleiteten Cavendish-Laboratorium der University of Cambridge. Zunächst beschäftigte er sich mit der Verbesserung der Empfindlichkeit seines Detektors, mit dem er bald Radiowellen in einer Entfernung von etwa einer halben Meile nachweisen konnte. Thomson, der Rutherfords experimentelles Talent schnell erkannte, lud Rutherford zu Beginn des Oster-Semesters 1896 ein, ihn bei seinen Untersuchungen der elektrischen Leitfähigkeit von Gasen zu unterstützen. Sie benutzten die wenige Monate zuvor entdeckten Röntgenstrahlen, um die Leitfähigkeit in den Gasen auszulösen. Rutherford entwickelte die experimentellen Techniken, um die Rekombinationsrate und die Geschwindigkeiten der unter der Einwirkung der Röntgenstrahlen entstehenden Ionen zu messen. In der Folgezeit setzte Rutherford diese Experimente unter Verwendung von Ultraviolettstrahlung fort. Nach zwei Jahren in Cambridge erhielt Rutherford 1897 den „B. A. Research Degree“. Durch Thomsons Fürsprache wurde ihm 1898 das auf 250 Pfund pro Jahr dotierte Coutts-Trotter-Fellowship des Trinity College zugesprochen, das es Rutherford ermöglichte, ein weiteres Jahr in Cambridge zu verbringen. Professor in Montreal, Manchester und Cambridge. a> zählte zu den modernsten Forschungseinrichtungen seiner Zeit. Ernest Rutherfords Labor im Cavendish-Laboratorium, 1926. 1898 erhielt er einen Ruf an die McGill-Universität in Montreal (Kanada), wo er bis 1907 arbeitete. Für die Forschungen, die er in dieser Zeit leistete, erhielt er im Jahre 1908 den Nobelpreis für Chemie. Danach begann er an der Universität Manchester in England zu lehren, wo er unter anderem mit späteren Nobelpreisträgern wie Niels Bohr und Patrick Blackett arbeitete. Im Ersten Weltkrieg reiste er 1917 zusammen mit Henri Abraham und Charles Fabry in die USA, um die Frage der U-Boot-Abwehr zu diskutieren. 1919 ging er als Professor nach Cambridge, wo er Direktor des Cavendish-Laboratoriums war. 1921 erschien seine Schrift "Nuclear Constitution of Atoms" (dt.: "Über die Kernstruktur der Atome)". Von 1925 bis 1930 war er Präsident der Royal Society. 1933 unterstützte er William Henry Beveridge bei der Gründung des "Academic Assistance Council" (AAC, heute Council for Assisting Refugee Academics), dessen erster Präsident er wurde. Rutherford wurde in der Westminster Abbey in London nahe dem Grab von Isaac Newton beigesetzt. Auszeichnungen und Würdigung. Ernest Rutherford auf dem neuseeländischen 100-Dollar-Schein. Rutherford zählt zu den weltweit am meisten geehrten Wissenschaftlern. Die britische Krone adelte Rutherford 1914 als Knight Bachelor, nahm ihn 1925 in den Order of Merit auf und ernannte Rutherford 1931 zum Baron. Ein 1906 neu entdecktes und von Willy Marckwald beschriebenes Uranylcarbonat-Mineral erhielt ihm zu Ehren den Namen Rutherfordin. Neben dem ihm 1908 verliehenen Nobelpreis für Chemie wurden Rutherford zahlreiche wissenschaftliche und akademische Preise und Ehrungen zuteil. Die Royal Society verlieh ihm 1904 die Rumford-Medaille und ehrte Rutherford 1922 mit ihrer höchsten Auszeichnung, der Copley-Medaille in Gold. Die Accademia delle Scienze di Torino würdigte ihn 1908 mit der Vergabe des Bressa-Preises (Premio Bressa). Die Columbia University verlieh Rutherford die alle fünf Jahre vergebene Barnard-Medaille für das Jahr 1910. 1915 wurde er in die American Academy of Arts and Sciences gewählt. Er erhielt 1924 die Franklin-Medaille des Franklin Institutes in Philadelphia, 1928 die Albert Medal der Royal Society of Arts und 1930 die Faraday-Medaille der Institution of Electrical Engineers. Der Rat der Physical Society of London begründete 1939 die Rutherford Memorial Lecture (Rutherford-Gedenkvorlesung) aus der 1965 der Preis Rutherford Medal and Prize hervorging. Mitte 1946 schlugen Edward Condon und Leon Francis Curtiss (1895–1983) vom US-amerikanischen National Bureau of Standards vor, eine neue physikalische Einheit Rutherford mit dem Einheitenzeichen "rd" zur Messung von Aktivität einzuführen, die sich jedoch nicht durchsetzte. Am 3. November 1992 brachte die Bank of New Zealand einen 100-Dollar-Schein mit dem Bildnis Rutherfords in Umlauf. Zu seinen Ehren wurde 1997 das Element 104 endgültig als Rutherfordium benannt. Bei der 2005 ausgestrahlten Sendereihe New Zealand’s Top 100 History Makers wurde Rutherford zum einflussreichsten Neuseeländer der Geschichte gewählt. In seinem Geburtsort entstand eine Gedenkstätte und seine ehemalige Grundschule in Foxhill pflegt mit der „Rutherford Memorial Hall“ sein Andenken. Einzelnachweise. Rutherford of Nelson, Ernest Rutherford, 1. Baron Erich Honecker. Erich Honecker (* 25. August 1912 in Neunkirchen; † 29. Mai 1994 in Santiago de Chile) war ein deutscher kommunistischer Politiker. Vom 3. Mai 1971 bis zum 18. Oktober 1989 war er als Erster Sekretär bzw. Generalsekretär des Zentralkomitees (ZK) der SED der mächtigste Politiker der Deutschen Demokratischen Republik. Vor dem Zweiten Weltkrieg war Honecker hauptamtlicher Funktionär der KPD und wurde in der Zeit des Nationalsozialismus zu einer zehnjährigen Zuchthausstrafe verurteilt. Honecker gründete die Jugendorganisation FDJ und war von 1946 bis 1955 ihr Vorsitzender. Er war als "Sicherheitssekretär des ZK der SED" maßgeblicher Organisator des Baus der Berliner Mauer und trug schon in dieser Funktion den Schießbefehl an der innerdeutschen Grenze mit. Als langjähriger Generalsekretär des ZKs der SED, Staatsratsvorsitzender der DDR sowie Vorsitzender des Nationalen Verteidigungsrates führte und repräsentierte er die DDR in den 1970er und 1980er Jahren. Als einer seiner größten Erfolge gilt die Anerkennung der DDR als Vollmitglied der UNO 1973. Ende der 1980er Jahre wurde die wirtschaftliche Lage wie die Beziehungen zur Führungsmacht Sowjetunion und die innenpolitische Lage der DDR zunehmend schwieriger. Im September 1987 kam es zu einem offiziellen Besuch Honeckers in der Bundesrepublik Deutschland. Dabei wurde er von Bundeskanzler Helmut Kohl empfangen. Der bereits schwer erkrankte Honecker wurde auf Drängen des SED-Politbüros am 18. Oktober 1989 zum Rücktritt gezwungen. 1992 wurde Honecker in Berlin wegen seiner Verantwortung für Menschenrechtsverletzungen des DDR-Regimes vor Gericht gestellt, das Verfahren aber aufgrund seiner Krankheit eingestellt. Die Anklage war wegen seiner Rolle als Staatschef der untergegangenen DDR wie der damit zusammenhängenden schwierigen Rechtslage umstritten. Honecker reiste umgehend zu seiner Familie nach Chile, wo er im Mai 1994 starb. Kindheit und Jugend. Sein Vater Wilhelm Honecker (1881–1969) war Bergarbeiter und heiratete 1905 Caroline Catharina Weidenhof (1883–1963). Zusammen hatten sie sechs Kinder: Katharina (Käthe, 1906–1925), Wilhelm (Willi, 1907–1944), Frieda (1909–1974), Erich, Gertrud Hoppstädter (1917–2010) geborene Honecker und Karl-Robert (1923–1947). Elternhaus Erich Honeckers (Neunkirchen, Kuchenbergstraße) Erich Honecker wurde in Neunkirchen (Saar) in der Max-Braun-Straße geboren; seine Familie zog wenig später in den heutigen Neunkircher Stadtteil Wiebelskirchen in die Kuchenbergstraße 88. Nach seinem zehnten Geburtstag, im Sommer 1922, wurde Erich Honecker Mitglied der Kommunistischen Kindergruppe in Wiebelskirchen, mit 14 trat er dem Kommunistischen Jugendverband Deutschland (KJVD) bei, mit 17 auch der KPD. Im KJVD wurde er 1928 zum Ortsgruppenleiter gewählt. Er galt als guter Redner. Als Erich Honecker nach der Schulzeit nicht sofort eine Lehrstelle fand, arbeitete er zwei Jahre bei einem Bauern in Pommern. 1928, zurück in Wiebelskirchen, begann er bei seinem Onkel eine Lehre als Dachdecker, die er jedoch abbrach, da er vom KJVD zum Studium an die Internationale Lenin-Schule der Kommunistischen Jugendinternationale nach Moskau delegiert wurde. Widerstand gegen den Nationalsozialismus. 1930 trat Honecker der KPD bei. Sein politischer Ziehvater war Otto Niebergall, der später für die KPD im Bundestag saß. 1930/1931 besuchte Honecker die Internationale Lenin-Schule in Moskau. Nach seiner Rückkehr wurde er Bezirksleiter des KJVD Saargebiet. Ab 1933 war die Arbeit der KPD in Deutschland nur noch im Untergrund möglich. Das Saargebiet jedoch gehörte nicht zum Deutschen Reich. Honecker wurde kurz in Deutschland inhaftiert, jedoch bald entlassen. Er kam 1934 ins Saargebiet zurück und arbeitete mit Johannes Hoffmann in der Kampagne gegen die Wiederangliederung ans Deutsche Reich. In dieser Zeit im Widerstand in den Jahren 1934 und 1935 arbeitete er auch eng mit dem KPD-Funktionär Herbert Wehner, später SPD, zusammen. Bei der Saarabstimmung am 13. Januar 1935 stimmten jedoch 90,73 Prozent der Wähler für eine Vereinigung mit Deutschland („Heim ins Reich“). Der Jungfunktionär floh, wie 4000–8000 andere Menschen auch, zunächst nach Frankreich. Am 28. August 1935 reiste Honecker unter dem Decknamen „Marten Tjaden“ illegal nach Berlin, eine Druckerpresse im Gepäck, und war wieder im Widerstand tätig. Im Dezember 1935 wurde Honecker von der Gestapo verhaftet und zunächst bis 1937 im Berliner Zellengefängnis Lehrter Straße in Untersuchungshaft genommen. Er wurde im Juni 1937 zu zehn Jahren Zuchthaus verurteilt; der ebenfalls angeklagte Bruno Baum wurde – auch durch Honeckers Aussagen – zu dreizehn Jahren Zuchthaus verurteilt. Honecker saß im Zuchthaus Brandenburg-Görden ein. Im Frühjahr 1945 wurde er wegen guter Führung einem Arbeitskommando im Frauengefängnis Barnimstraße in Berlin zugeteilt. Am 6. März 1945 gelang ihm während eines Bombenangriffs die Flucht. Er versteckte sich in der Wohnung der Gefängnisaufseherin Schanuel. Nach einigen Tagen meldete er sich auf ihr Zureden hin im Gefängnis zurück. Die Flucht konnte von ihr und dem Bautruppführer gegenüber der Gestapo vertuscht werden und Honecker wurde nach Brandenburg zurückverlegt. Nach der Befreiung des Zuchthauses durch die Rote Armee am 27. April ging Honecker nach Berlin. Seine mit den Mithäftlingen in Brandenburg nicht abgesprochene Flucht, sein Untertauchen in Berlin, die „Rückmeldung“, die Nichtteilnahme an dem geschlossenen Marsch der befreiten kommunistischen Häftlinge nach Berlin und die Verbindung mit einer Gefängnisaufseherin bereiteten Honecker später innerparteiliche Schwierigkeiten und belasteten sein Verhältnis zu ehemaligen Mithäftlingen. Gegenüber der Öffentlichkeit verfälschte Honecker das Geschehen in seinen Lebenserinnerungen und in Interviews. Nachkriegszeit. Honecker 1950 auf dem Dreiländertreffen der Jugend in Zittau Im Mai 1945 wurde Honecker eher zufällig von Hans Mahle in Berlin „aufgelesen“ und mit zur Gruppe Ulbricht genommen. Durch Waldemar Schmidt wurde er mit Walter Ulbricht bekannt gemacht, der ihn bis dahin noch nicht persönlich kannte. Bis in den Sommer hinein war über die zukünftige Funktion Honeckers noch nicht entschieden worden, da er sich auch einem Parteiverfahren stellen musste, welches mit einer strengen Rüge endete. Zur Sprache kam dabei auch seine Flucht aus dem Zuchthaus Anfang 1945. 1946 war er dann Mitbegründer der Freien Deutschen Jugend, deren Vorsitz er auch übernahm. Seit dem Vereinigungsparteitag von KPD und SPD im April 1946 war Honecker Mitglied der SED. Karriere in der DDR. In der im Oktober 1949 gegründeten DDR, einer realsozialistischen Parteidiktatur, setzte Honecker seine politische Karriere zielstrebig fort. Als FDJ-Vorsitzender organisierte er die drei Deutschlandtreffen der Jugend in Berlin ab 1950 und wurde einen Monat nach dem ersten Deutschlandtreffen als Kandidat ins Politbüro des ZK der SED aufgenommen. Er war ein ausgesprochener Gegner kirchlicher Jugendgruppen. In den innerparteilichen Auseinandersetzungen nach dem Volksaufstand vom 17. Juni stellte er sich gemeinsam mit Hermann Matern offen an die Seite Ulbrichts, den die Mehrheit des Politbüros um Rudolf Herrnstadt zu stürzen versuchte. Am 27. Mai 1955 gab er den FDJ-Vorsitz an Karl Namokel ab. Von 1955 bis 1957 hielt er sich zu Schulungszwecken in Moskau auf und erlebte den XX. Parteitag der KPdSU mit Chruschtschows Rede zur Entstalinisierung mit. Nach seiner Rückkehr wurde er 1958 vollgültiges Mitglied des Politbüros, wo er die Verantwortung für Militär- und Sicherheitsfragen übernahm. Als Sicherheitssekretär des ZK der SED war er der maßgebliche Organisator des Baus der Berliner Mauer im August 1961 und trug in dieser Funktion den Schießbefehl an der innerdeutschen Grenze mit. Auf dem 11. Plenum des ZK der SED, das im Dezember 1965 tagte, tat er sich als einer der Wortführer hervor und griff verschiedene Kulturschaffende wie die Regisseure Kurt Maetzig und Frank Beyer scharf an, denen er „Unmoral“, „Dekadenz“, „spießbürgerlichen Skeptizismus“ und „Staatsfeindlichkeit“ vorwarf. In diese Kritik bezog er auch die kulturpolitisch Verantwortlichen der SED mit ein, ohne sie allerdings namentlich zu nennen: Sie hätten „keinen prinzipiellen Kampf gegen die […] aufgezeigten Erscheinungen geführt.“ Das Plenum beendete die Ansätze einer kulturpolitischen Liberalisierung der DDR, die sich nach dem Mauerbau gezeigt hatten. Generalsekretär. Während Ulbricht mit dem Neuen Ökonomischen System der Planung und Leitung die Wirtschaftspolitik ins Zentrum gerückt hatte, deklarierte Honecker die „Einheit von Wirtschafts- und Sozialpolitik“ zur Hauptaufgabe. Nachdem er sich der Unterstützung durch die sowjetische Führung unter Leonid Breschnew vergewissert hatte, wurde Ulbricht zum Rücktritt gezwungen und Erich Honecker am 3. Mai 1971 als Nachfolger Ulbrichts "Erster Sekretär" (ab 1976 "Generalsekretär") des Zentralkomitees der SED. Wirtschaftliche Probleme und Unmut in den Betrieben spielten eine große Rolle beim Machtwechsel. Nachdem er 1971 auch im Nationalen Verteidigungsrat als Vorsitzender Ulbrichts Nachfolge angetreten hatte, wählte ihn die Volkskammer am 29. Oktober 1976 schließlich auch zum Vorsitzenden des Staatsrats; Willi Stoph, der diesen Posten seit 1973 innegehabt hatte, wurde erneut, wie vor 1973, Vorsitzender des Ministerrats. Damit hatte Honecker die Machtspitze der DDR erreicht. Von nun an entschied er gemeinsam mit dem ZK-Sekretär für Wirtschaftsfragen Günter Mittag und dem Minister für Staatssicherheit Erich Mielke alle maßgeblichen Fragen. Bis 1989 stand die „kleine strategische Clique“ aus diesen drei Männern unangefochten an der Spitze der herrschenden Klasse der DDR, der zunehmend vergreisenden Monopolelite der etwa 520 Staats- und Parteifunktionäre. Nach Einschätzung des Historikers Martin Sabrow erlangte Honecker mit diesen beiden eine „Machtfülle wie kein anderer Herrscher in der jüngeren deutschen Geschichte, Ludendorff und Hitler eingeschlossen“, weshalb er ihn als „Diktator“ beschreibt. Honecker beantwortete Eingaben von Bürgern immer schnell, weshalb ihn Sabrow in Anlehnung an den aufgeklärten Absolutismus als „obersten Kümmerer seines Staats“ bezeichnet. Honeckers engster Mitarbeiter war der ZK-Sekretär für Agitation und Propaganda, Joachim Herrmann. Mit ihm führte er tägliche Besprechungen über die Medienarbeit der Partei, in denen auch das Layout des Neuen Deutschlands und die Abfolge der Meldungen in der Aktuellen Kamera festgelegt wurden. Auf schlechte Nachrichten über den Zustand der Wirtschaft reagierte er, indem er etwa 1978 das "Institut für Meinungsforschung" schließen ließ. Große Bedeutung maß Honecker auch dem Feld der Staatssicherheit bei, das er einmal in der Woche jeweils nach der Sitzung des Politbüros mit Erich Mielke durchsprach. Honeckers langjährige Sekretärin war Elli Kelm. Während seiner Amtszeit wurde der Grundlagenvertrag mit der Bundesrepublik Deutschland ausgehandelt. Außerdem nahm die DDR an den KSZE-Verhandlungen in Helsinki teil und wurde als Vollmitglied in die UNO aufgenommen (→ Deutschland in den Vereinten Nationen). Diese diplomatischen Erfolge gelten als die größten außenpolitischen Leistungen Honeckers. Am 31. Dezember 1982 versuchte der Ofensetzer Paul Eßling, die Autokolonne Honeckers zu rammen, was in westlichen Medien als Attentat dargestellt wurde. Innenpolitisch zeichnete sich anfangs eine Liberalisierungstendenz vor allem im Bereich der Kultur und Kunst ab, die aber weniger durch den Personalwechsel von Walter Ulbricht zu Erich Honecker hervorgerufen wurde, sondern Propagandazwecken im Rahmen der 1973 ausgetragenen X. Weltfestspiele der Jugend und Studenten diente. Nur wenig später erfolgten die Ausbürgerung von Regimekritikern wie Wolf Biermann und die Unterdrückung innenpolitischen Widerstands durch das Ministerium für Staatssicherheit. Zudem setzte Honecker sich für den weiteren Ausbau der innerdeutschen Staatsgrenze mit Selbstschussanlagen und den rücksichtslosen Schusswaffengebrauch bei Grenzdurchbruchsversuchen ein. 1974 sagte er dazu, „es sind die Genossen, die die Schußwaffe erfolgreich angewandt haben, zu belobigen.“ Wirtschaftspolitisch wurde unter Honecker die Verstaatlichung und Zentralisierung der Wirtschaft vorangetrieben. Die schwierige wirtschaftliche Lage zwang zur Aufnahme von Milliardenkrediten von der Bundesrepublik Deutschland, um den Lebensstandard halten zu können. a> gratuliert Honecker zum 70. Geburtstag (1982) 1981 empfing er Bundeskanzler Helmut Schmidt im Jagdhaus Hubertusstock am Werbellinsee. Honeckers Einschätzung, die DDR habe „wirtschaftlich Weltklasseniveau erreicht und gehöre zu den bedeutendsten Industrienationen der Welt“, kommentierte Schmidt später mit dem Verdikt vom „Mann von beschränkter Urteilskraft“. Trotz der Wirtschaftsprobleme brachten Honecker die 1980er Jahre vermehrte internationale Anerkennung, insbesondere als er am 7. September 1987 die Bundesrepublik Deutschland besuchte und durch Bundeskanzler Helmut Kohl in Bonn empfangen wurde. Auf seiner Reise durch die Bundesrepublik kam er nach Düsseldorf, Wuppertal, Essen, Trier, Bayern sowie am 10. September in seinen Geburtsort im Saarland. Hier hielt er eine emotionale Rede, in der er davon sprach, eines Tages würden die Grenzen die Menschen in Deutschland nicht mehr trennen. Diese Reise war seit 1983 geplant gewesen, wurde jedoch damals von der sowjetischen Führung blockiert, da man dem deutsch-deutschen Sonderverhältnis misstraute. 1988 war Honecker unter anderem auf Staatsbesuch in Paris. Sein großes Ziel, welches er aber nicht mehr erreichte, war ein offizieller Besuch in den USA. Er setzte deshalb in den letzten Jahren der DDR auf ein positives Verhältnis zum Jüdischen Weltkongress als möglichem „Türöffner“. Sturz und Rücktritt. Auf dem Gipfeltreffen des Warschauer Paktes in Bukarest am 7. und 8. Juli 1989 im Rahmen des „Politisch-Beratenden Ausschusses“ der RGW-Staaten des Warschauer Paktes gab die Sowjetunion offiziell die Breschnew-Doktrin der begrenzten Souveränität der Mitgliedsstaaten auf und verkündete die „Freiheit der Wahl“: Die Beziehungen untereinander sollten künftig, wie es im Bukarester Abschlussdokument heißt, „auf der Grundlage der Gleichheit, Unabhängigkeit und des Rechtes eines jeden Einzelnen, selbstständig seine eigene politische Linie, Strategie und Taktik ohne Einmischung von außen auszuarbeiten“ entwickelt werden. Die sowjetische Bestandsgarantie für die Mitgliedsstaaten war damit in Frage gestellt. Honecker musste seine Teilnahme an dem Treffen abbrechen; am Abend des 7. Juli 1989 wurde er mit schweren Gallenkoliken in das rumänische Regierungskrankenhaus eingeliefert und dann nach Berlin ausgeflogen. Nach einer provisorischen gesundheitlichen Stabilisierung wurden ihm am 16. und 18. August 1989 in Berlin-Buch die entzündete Gallenblase und wegen eines Durchbruchs ein Teil des Dickdarms operativ entfernt. Nach Angabe des Urologen Peter Althaus sollen die Chirurgen dabei einen krebsverdächtigen Rundherd in der rechten Niere wegen des schlechten Zustands des Patienten belassen und den Patienten über den Krebsverdacht nicht aufgeklärt haben; nach anderen Angaben wurde der Tumor einfach übersehen. In der Folge war Honecker bis September 1989 fast durchgehend nicht im Amt. Die Geschäfte führte das Politbüro, Informationen gelangten praktisch nur über Günter Mittag und Joachim Herrmann zu Honecker. Lediglich im August 1989 nahm er einige Termine wahr. So erklärte er am 14. August 1989 bei der Übergabe der ersten Funktionsmuster von 32-Bit-Prozessoren durch das Kombinat Mikroelektronik Erfurt: "„Den Sozialismus in seinem Lauf hält weder Ochs noch Esel auf.“" Aber in den Städten der DDR wuchsen Zahl und Größe der Demonstrationen, und auch die Zahl der Republikflüchtlinge über die bundesdeutschen Botschaften in Prag und Budapest und über die Grenzen der „sozialistischen Bruderstaaten“ nahm stetig zu, monatlich waren es mehrere Zehntausend. Die ungarische Regierung öffnete am 19. August 1989 an einer Stelle und am 11. September 1989 überall die Grenze zu Österreich. Allein hierüber reisten Zehntausende von DDR-Bürgern über Österreich in die Bundesrepublik aus. Die ČSSR erklärte den Zustrom der DDR-Flüchtlinge für inakzeptabel. Am 3. Oktober 1989 schloss die DDR faktisch ihre Grenzen zu den östlichen Nachbarn, indem sie den visafreien Reiseverkehr in die ČSSR aussetzte; ab dem nächsten Tag wurde diese Maßnahme auch auf den Transitverkehr nach Bulgarien und Rumänien ausgedehnt. Die DDR war dadurch nicht nur wie bisher durch den Eisernen Vorhang nach Westen abgeriegelt, sondern nun auch noch gegenüber den meisten Staaten des Ostblocks. Proteste von DDR-Bürgern bis hin zu Streikandrohungen aus den grenznahen Gebieten zur ČSSR waren die Folge. Die Beziehung zwischen Honecker und dem Generalsekretär der KPdSU und Präsidenten der UdSSR Gorbatschow war schon seit Jahren gespannt: Honecker hielt seine Politik der Perestroika und Kooperation mit dem Westen für falsch und fühlte sich von ihm speziell in der Deutschlandpolitik hintergangen. Er sorgte dafür, dass offizielle Texte der UdSSR, vor allem solche zum Thema Perestroika, in der DDR nicht mehr veröffentlicht oder in den Handel gebracht werden durften. Am 6. und 7. Oktober 1989 fanden die Staatsfeierlichkeiten zum 40. Jahrestag der DDR in Anwesenheit von Michail Gorbatschow statt, der mit „Gorbi, Gorbi, hilf uns“-Rufen begrüßt wurde. In einem Vieraugengespräch der beiden Generalsekretäre pries Honecker die Erfolge des Landes. Gorbatschow wusste aber, dass die DDR in Wirklichkeit vor der Zahlungsunfähigkeit stand. Am Ende einer Krisensitzung am 10. und 11. Oktober 1989 forderte das SED-Politbüro Honecker auf, bis Ende der Woche einen Lagebericht abzugeben, der geplante Staatsbesuch in Dänemark wurde abgesagt und eine Erklärung veröffentlicht, die Egon Krenz gegen den Widerstand Honeckers durchgesetzt hatte. Ebenfalls überwiegend auf Initiative von Krenz folgten in den nächsten Tagen Besprechungen und Sondierungen zu der Frage, Honecker zum Rücktritt zu bewegen. Krenz sicherte sich die Unterstützung von Armee und Stasi und arrangierte ein Treffen zwischen Michail Gorbatschow und Politbüromitglied Harry Tisch, der den Kremlchef am Rande eines Moskaubesuchs einen Tag vor der Sitzung über die geplante Absetzung Honeckers informierte. Gorbatschow wünschte viel Glück, das Zeichen, auf das Krenz und die anderen gewartet hatten. Auch SED-Chefideologe Kurt Hager flog am 12. Oktober 1989 nach Moskau und besprach mit Gorbatschow die Modalitäten der Honecker-Ablösung. Hans Modrow dagegen wich einer Anwerbung aus. Die für Ende November 1989 geplante Sitzung des ZK der SED wurde auf Ende der Woche vorgezogen, dringendster Tagesordnungspunkt: die Zusammensetzung des Politbüros. Per Telefon versuchten Krenz und Erich Mielke am Abend des 16. Oktober, weitere Politbüromitglieder für die Absetzung Honeckers zu gewinnen. Zu Beginn der Sitzung des Politbüros vom 17. Oktober 1989 fragte Honecker routinemäßig: „Gibt es noch Vorschläge zur Tagesordnung?“ Willi Stoph meldete sich und schlug als ersten Punkt der Tagesordnung vor: „Entbindung des Genossen Honecker von seiner Funktion als Generalsekretär und Wahl von Egon Krenz zum Generalsekretär“. Honecker schaute zuerst regungslos, fasste sich aber rasch wieder: „Gut, dann eröffne ich die Aussprache.“ Nacheinander äußerten sich alle Anwesenden, doch keiner machte sich für Honecker stark. Günter Schabowski erweiterte sogar den Antrag und forderte die Absetzung Honeckers auch als Staatsratsvorsitzender und Vorsitzender des Nationalen Verteidigungsrates. Selbst Günter Mittag rückte von ihm ab. Alfred Neumann wiederum forderte die Ablösung von Mittag und von Joachim Herrmann. Angeblich soll Erich Mielke Honecker für fast alle aktuellen Missstände in der DDR verantwortlich gemacht und Honecker schreiend gedroht haben, kompromittierende Informationen, die er besitze, herauszugeben, falls Honecker nicht zurücktrete. Nach drei Stunden fiel der einstimmige Beschluss des Politbüros. Honecker votierte, wie es Brauch war, für seine eigene Absetzung. Dem ZK der SED wurde vorgeschlagen, Honecker, Mittag und Hermann von ihren Funktionen zu entbinden. Bei der folgenden ZK-Sitzung waren 206 Mitglieder und Kandidaten anwesend. Lediglich 16 fehlten, darunter Margot Honecker. Das ZK folgte der Empfehlung des Politbüros. Die einzige Gegenstimme kam von der 81-jährigen früheren Direktorin der Parteihochschule, Hanna Wolf. Öffentlich hieß es: „Das ZK hat der Bitte Erich Honeckers entsprochen, ihn aus gesundheitlichen Gründen von der Funktion des Generalsekretärs, vom Amt des Staatsratsvorsitzenden und von der Funktion des Vorsitzenden des Nationalen Verteidigungsrates der DDR zu entbinden.“ Egon Krenz wurde per Akklamation einstimmig zum neuen Generalsekretär der SED gewählt. Am 20. Oktober 1989 musste auch Margot Honecker von ihren Ämtern zurücktreten. Strafverfolgung und Flucht nach Moskau. Die Volkskammer der DDR setzte Mitte November 1989 einen Ausschuss zur Untersuchung von Korruption und Amtsmissbrauch ein, dessen Vorsitzender am 1. Dezember 1989 Bericht erstattete. Er warf den bisherigen SED-Machthabern umfassenden Missbrauch öffentlicher Ämter zu privaten Zwecken vor. Honecker habe zudem seit 1978 jährliche Zuwendungen von rund 20.000 Mark durch die Bauakademie der DDR erhalten. Die Staatsanwaltschaft der DDR leitete daraufhin strafrechtliche Ermittlungen gegen 30 ehemalige DDR-Spitzenfunktionäre ein, unter ihnen zehn Mitglieder des Politbüros. Die meisten davon kamen in Untersuchungshaft, so am 3. Dezember 1989 auch Honeckers Wandlitzer Nachbarn Günter Mittag und Harry Tisch wegen persönlicher Bereicherung und Vergeudung von Volksvermögen. Am selben Tag wurde Honecker vom ZK aus der SED ausgeschlossen. Er schloss sich daraufhin der neu gegründeten KPD an, deren Mitglied er von 1992 bis zu seinem Tod war. Am 5. Dezember 1989 wurde auch gegen ihn ein Ermittlungsverfahren eingeleitet. Honecker sei „verdächtig, seine Funktion als Vorsitzender des Staatsrates und des Nationalen Verteidigungsrates der DDR und seine angemaßte politische und ökonomische Macht als Generalsekretär des ZK der SED missbraucht“ und „seine Verfügungsbefugnisse als Generalsekretär des ZK der SED zum Vermögensvorteil für sich und andere missbraucht zu haben“. Federführend war bis Januar 1990 das Amt für Nationale Sicherheit (AfNS) der DDR, also der Nachfolger der Stasi, das hierzu einen „Maßnahmeplan im Ermittlungsverfahren gegen Erich Honecker“ erarbeitet hatte, später betrieb die Abteilung für Wirtschaftsstrafsachen beim Generalstaatsanwalt der DDR das Verfahren. Honecker musste nach einer Hausdurchsuchung seine wertvolle Sammlung von Dienst- und Jagdwaffen abgeben, und sein Privatkonto mit einem Bestand von etwa 218.000 DDR-Mark wurde gesperrt. Honecker beauftragte Wolfgang Vogel und Friedrich Wolff mit der Wahrnehmung seiner Rechte. Die Volkskammer hatte beschlossen, die von der DDR-Bevölkerung als Funktionärs-Privileg kritisierte Waldsiedlung in Wandlitz nun als Sanatorium zu nutzen. Ähnlich wie anderen Funktionären des SED-Regimes wurde daher dem Ehepaar Honecker am 22. Dezember 1989 mitgeteilt, dass „ein kurzfristiger Auszug“ aus ihrer Wohnung in der Waldsiedlung in Wandlitz erforderlich sei. Am 3. Januar 1990 mussten sie ihre Wohnung in Wandlitz räumen. Am 6. Januar 1990 soll Honecker nach einer erneuten Untersuchung durch eine Ärztekommission erst aus einem Bericht der Aktuellen Kamera des DDR-Fernsehens erfahren haben, dass er an „Nierenkrebs“ leide. Daher sei er derzeit nicht haftfähig. Althaus holte am 10. Januar 1990 in der Charité die im August 1989 unterlassene Entfernung des Nierentumors nach. Der Krebsverdacht bestätigte sich. Am 29. Januar 1990 wurde Honecker erneut verhaftet und in die Untersuchungshaftanstalt Berlin-Rummelsburg eingeliefert. Dort verteidigte er sich: „In Wahrnehmung meiner Funktion als Staatsratsvorsitzender, Generalsekretär und Vorsitzender des Nationalen Verteidigungsrates habe ich mich strikt an die Verfassung gehalten und die Beschlüsse der Volkskammer und der SED umgesetzt.“ Aber bereits am Abend des folgenden Tages, dem 30. Januar 1990, wurde Honecker wieder aus der Haft entlassen: Das zuständige Stadtbezirksgericht hatte den Haftbefehl aufgehoben und ihm laut ärztlichem Gutachten Haft- und Vernehmungsunfähigkeit attestiert. Das Ehepaar Honecker war aber inzwischen ohne Wohnung. Rechtsanwalt Vogel wandte sich im Auftrag Honeckers an die Evangelische Kirche in Berlin-Brandenburg und bat um Hilfe. Pastor Uwe Holmer, Leiter der Hoffnungstaler Anstalten in Lobetal bei Bernau, bot daraufhin dem Ehepaar Unterkunft in seinem Pfarrhaus an. Althaus fuhr es noch am Abend des 30. Januar 1990 dorthin. Schon am selben Tag kam es zu Kritik und später zu Demonstrationen gegen die kirchliche Hilfe für das Ehepaar, da beide solche Christen, die sich nicht dem SED-Regime angepasst hätten, benachteiligt hätten. Das Ehepaar wohnte dennoch – abgesehen von einer Unterbringung in einem Ferienhaus in Lindow, die im März 1990 schon nach einem Tag wegen politischer Proteste abgebrochen werden musste – bis zum 3. April 1990 weiter bei Holmers. Dann siedelte das Ehepaar in das sowjetische Militärhospital bei Beelitz über. Bei erneuten Untersuchungen auf Haftfähigkeit stellten dort die Ärzte bei Honecker die Verdachtsdiagnose eines bösartigen Lebertumors. Am 2. Oktober 1990, dem Vorabend der Deutschen Wiedervereinigung, wurden die wirtschaftsstrafrechtlichen Ermittlungsakten im Fall Erich Honecker von der Generalstaatsanwaltschaft der DDR an die der Bundesrepublik übergeben. Am 30. November 1990 erließ das Amtsgericht Tiergarten einen weiteren Haftbefehl gegen Honecker wegen des Verdachts, dass er den Schießbefehl an der innerdeutschen Grenze 1961 verfügt und 1974 bekräftigt habe. Der Haftbefehl war aber nicht vollstreckbar, da Honecker sich in Beelitz unter dem Schutz sowjetischer Stellen befand. Am 13. März 1991 wurde das Ehepaar mit einem sowjetischen Militärflugzeug von Beelitz nach Moskau ausgeflogen. Auslieferung nach Deutschland. Das Kanzleramt war durch die sowjetische Diplomatie über die bevorstehende Ausreise der Honeckers nach Moskau informiert worden. Die Bundesregierung beschränkte sich aber öffentlich auf den Protest, es liege bereits ein Haftbefehl vor, daher verstoße die Sowjetunion gegen die Souveränität der Bundesrepublik Deutschland und damit gegen Völkerrecht. Immerhin war zu diesem Zeitpunkt der Zwei-plus-Vier-Vertrag, der Deutschland die volle Souveränität zuerkennen sollte, vom Obersten Sowjet noch nicht ratifiziert. Erst am 15. März 1991 trat der Vertrag mit der Hinterlegung der sowjetischen Ratifizierungsurkunde beim deutschen Außenminister offiziell in Kraft. Von diesem Augenblick an wuchs der deutsche Druck auf Moskau, Honecker zu überstellen. Zwischen Michail Gorbatschow und Honecker bestand ohnehin ein seit Jahren stetig schlechter werdendes Verhältnis, und die UdSSR befand sich ähnlich wie die übrigen Ostblockstaaten bereits in der Auflösung. Den Augustputsch in Moskau überstand Gorbatschow nur geschwächt. Der neue starke Mann, Boris Jelzin, Präsident der russischen Teilrepublik (RSFSR), verbot die KPdSU, deren Generalsekretär Gorbatschow war. Am 25. Dezember 1991 trat Gorbatschow als Präsident der Sowjetunion zurück. Die russische Regierung unter Jelzin forderte Honecker im Dezember 1991 auf, das Land zu verlassen, da andernfalls die Abschiebung erfolge. Am 11. Dezember 1991 flüchteten die Honeckers daher in die chilenische Botschaft in Moskau. Nach Erinnerung Margot Honeckers hatten zwar auch Nordkorea und Syrien Asyl angeboten, von Chile erhoffte man sich aber besonderen Schutz: Nach dem Militärputsch von 1973 unter Augusto Pinochet hatte die DDR unter Honecker vielen Chilenen, auch dem Botschafter Clodomiro Almeyda, Exil in der DDR gewährt, und Honeckers Tochter Sonja war mit einem Chilenen verheiratet. In Anspielung auf die DDR-Flüchtlinge in den bundesdeutschen Botschaften in Prag und Budapest wurde das Ehepaar Honecker ironisch „letzte Botschaftsflüchtlinge der DDR“ genannt. Chile allerdings wurde damals durch eine links-bürgerliche Koalition regiert, und die deutsche Bundesregierung äußerte, wenn Russland und Chile ihren Anspruch einlösen wollten, Rechtsstaaten zu sein, müsste Honecker, da mit Haftbefehl in Deutschland gesucht, in die Bundesrepublik überstellt werden. Am 22. Juli begründete der deutsche Botschafter Klaus Blech im russischen Außenministerium: „Nach Auffassung der deutschen Regierung verstößt die widerrechtliche Verbringung von Herrn Honecker gegen den Vertrag über die Bedingungen des befristeten Aufenthalts und die Modalitäten des planmäßigen Abzugs der sowjetischen Truppen aus dem Gebiet der Bundesrepublik Deutschland und gegen allgemeines Völkerrecht, weil sie dazu diente, eine wegen Anstiftung zur mehrfachen vorsätzlichen Tötung durch Haftbefehl gesuchte Person der Strafverfolgung zu entziehen.“ Allerdings war der bei Honecker bereits in Beelitz erhobene Verdacht auf Leberkrebs im Februar 1992 in Moskau durch eine Ultraschall-Untersuchung mit dem Befund „herdförmiger Befall der Leber – Metastase“ bestärkt worden. Drei Wochen später aber soll die grundsätzlich zuverlässigere Untersuchung durch ein Computertomogramm ergeben haben: „Werte für einen herdförmigen Befall der Leber wurden nicht festgestellt“. Nun wurde gegen Honecker verbreitet, er sei ein Simulant. Drei Tage später verkündete der russische Justizminister im deutschen Fernsehen, Honecker werde nach Deutschland überstellt, sobald er die Botschaft verlassen habe. Am 7. März 1992 hieß es, die chilenische Regierung korrigiere ihre Haltung im Fall Honecker, Botschafter Almeyda sei zur Berichterstattung nach Santiago beordert, man sei verärgert über seinen Versuch, mit offenbar manipulierten Berichten über den todkranken Honecker dessen Einreise nach Chile zu erreichen. Almeyda wurde von seinem Posten abberufen. Zwar protestierte am 18. März 1992 eine Gruppe von Ärzten aus dem russischen Parlament und machte geltend, es sei die März-Diagnose, die manipuliert worden sei. Aber für die Öffentlichkeit schien Honeckers altersgerecht guter Allgemeinzustand gegen eine Krebserkrankung zu sprechen. Im Juni 1992 sicherte der chilenische Präsident Patricio Aylwin schließlich Bundeskanzler Helmut Kohl zu, Honecker werde die Botschaft in Moskau verlassen. Die Russen ergänzten, sie sähen „keinen Grund“, von ihrer Entscheidung von Dezember 1991 abzurücken, „wonach Honecker nach Deutschland zurückzukehren hat“. Am 29. Juli 1992 wurde Erich Honecker nach Berlin ausgeflogen, wo er verhaftet und in die Justizvollzugsanstalt Moabit gebracht wurde. Margot Honecker dagegen reiste per Direktflug der Aeroflot von Moskau nach Santiago de Chile, wo sie zunächst bei ihrer Tochter Sonja unterkam. Strafverfolgung. Am 29. Juli 1992 wurde Honecker in Untersuchungshaft im Krankenhaus der Berliner Vollzugsanstalten in Berlin-Moabit genommen. Die Schwurgerichtsanklage vom 12. Mai 1992 warf ihm vor, als Vorsitzender des Staatsrats und des Nationalen Verteidigungsrates (NVR) der DDR gemeinsam mit mehreren Mitangeklagten, unter anderem Erich Mielke, Willi Stoph, Heinz Keßler, Fritz Streletz und Hans Albrecht, in der Zeit 1961 bis 1989 am Totschlag von insgesamt 68 Menschen beteiligt gewesen zu sein, indem er insbesondere als Mitglied des NVR angeordnet habe, die Grenzanlagen um West-Berlin und die Sperranlagen zur Bundesrepublik auszubauen, um ein Passieren unmöglich zu machen. Insbesondere zwischen 1962 und 1980 habe er mehrfach Maßnahmen und Festlegungen zum weiteren pioniertechnischen Ausbau der Grenze durch Errichtung von Streckmetallzäunen zur Anbringung der richtungsgebundenen Splittermine und der Schaffung von Sicht- und Schussfeld entlang der Grenzsicherungsanlagen getroffen, um Grenzdurchbrüche zu verhindern. Außerdem habe er im Mai 1974 in einer Sitzung des NVR dargelegt, der pioniermäßige Ausbau der Staatsgrenze müsse weiter fortgesetzt werden, überall müsse ein einwandfreies Schussfeld gewährleistet werden und nach wie vor müsse bei Grenzdurchbruchsversuchen von der Schusswaffe rücksichtslos Gebrauch gemacht werden. „Die Genossen, die die Schusswaffe erfolgreich angewandt haben“, seien „zu belobigen“. Diese Anklage ist durch Beschluss des Landgerichts Berlin vom 19. Oktober 1992 unter Eröffnung des Hauptverfahrens zugelassen worden. Mit Beschluss vom gleichen Tage wurde das Verfahren hinsichtlich 56 der angeklagten Fälle abgetrennt, deren Verhandlung zurückgestellt wurde. Die verbliebenen 12 Fälle waren Gegenstand der am 12. November 1992 begonnenen Hauptverhandlung. Ebenfalls am 19. Oktober 1992 erließ die Strafkammer einen Haftbefehl hinsichtlich der verbliebenen zwölf Fälle. Eine zweite Anklageschrift vom 12. November 1992 legte Honecker zur Last, in der Zeit von 1972 bis Oktober 1989 Vertrauensmissbrauch in Tateinheit mit Untreue zum Nachteil sozialistischen Eigentums begangen zu haben. Es handelte sich hierbei um Vorgänge im Zusammenhang mit der Versorgung und Betreuung der Waldsiedlung Wandlitz. In diesem Zusammenhang erging am 14. Mai 1992 ein weiterer Haftbefehl. Der von aller Welt mit Spannung erwartete Prozess hatte nach Ansicht vieler Juristen einen ungewissen Ausgang. Denn nach welchen Gesetzen der Staatschef der untergegangenen DDR eigentlich verurteilt werden konnte, war umstritten. Auch mussten die Politiker der alten Bundesrepublik befürchten, ihrem „vormaligen Bankettgesellen“ (so der DDR-Schriftsteller Hermann Kant), den sie noch 1987 in Bonn, München und anderen Städten mit allen protokollarischen Ehren empfangen hatten, im Gerichtssaal gegenübergestellt zu werden. In seiner am 3. Dezember 1992 vor Gericht vorgetragenen Erklärung übernahm Honecker zwar die politische Verantwortung für die Toten an Mauer und Stacheldraht, doch sei er „ohne juristische oder moralische Schuld“. Er rechtfertigte den Bau der Mauer damit, dass aufgrund des sich zuspitzenden Kalten Krieges die SED-Führung 1961 zu dem Schluss gekommen sei, dass anders ein „dritter Weltkrieg mit Millionen Toten“ nicht zu verhindern gewesen sei, und betonte die Zustimmung der sozialistischen Führungen sämtlicher Ostblockstaaten zu dieser gemeinschaftlich getroffenen Entscheidung und verwies auf die Funktionen, die der DDR in seiner Amtszeit im UN-Weltsicherheitsrat trotz des Schießbefehls an der Mauer zugestanden worden seien. Im Weiteren führte er an, dass der Prozess gegen ihn aus rein politischen Motiven geführt werde, und verglich die 49 Mauertoten, deretwegen er angeklagt war, etwa mit der Anzahl der Opfer im von den USA geführten Vietnamkrieg oder der Selbstmordrate in westlichen Ländern. Die DDR habe bewiesen, „dass Sozialismus möglich und besser sein kann als Kapitalismus“. Öffentliche Kritik an Verfolgungen durch die Stasi tat er damit ab, dass auch der „Sensationsjournalismus“ in westlichen Ländern mit Denunziation arbeite und die gleichen Konsequenzen habe. Honecker war zu dieser Zeit bereits schwer krank. Eine erneute Computertomographie am 4. August 1992 bestätigte die Moskauer Ultraschall-Untersuchung: Im rechten Leberlappen befand sich ein „fünf Zentimeter großer raumfordernder Prozess“, vermutlich eine Spätmetastase des Nierenkrebses, der Honecker im Januar 1990 in der Charité entfernt worden war. Unter Berufung auf diese Feststellungen stellten Honeckers Anwälte Nicolas Becker, Friedrich Wolff und Wolfgang Ziegler den Antrag, das Verfahren, soweit es sich gegen Honecker richte, abzutrennen, einzustellen und den Haftbefehl aufzuheben. Das Verfahren sei eine Nagelprobe für den Rechtsstaat. Ihr Mandant leide an einer unheilbaren Krankheit, die entweder durch Ausschaltung der Leberfunktion direkt oder durch Metastasierung in anderen Bereichen zum Tode führe. Seine Lebenserwartung sei geringer als die auf mindestens zwei Jahre geschätzte Prozessdauer. Es sei zu fragen, ob es human ist, gegen einen Sterbenden zu verhandeln. Den gestellten Antrag lehnte die Strafkammer mit Beschluss vom 21. Dezember 1992 ab. Das Landgericht führte in seiner Begründung aus, dass kein Verfahrenshindernis bestehe. Zwar habe sich die Einschätzung der voraussichtlich eintretenden Verhandlungsunfähigkeit aufgrund der aktualisierten schriftlichen Gutachten zeitlich verdichtet. Die Prognose des Eintritts der Verhandlungsunfähigkeit sei jedoch im Hinblick auf die Schwere und Bedeutung des Tatvorwurfs und des sich daraus ergebenden Gewichts der verfassungsrechtlich gebotenen Pflicht zur Strafverfolgung noch immer zu ungewiss, als dass eine sofortige Einstellung des Verfahrens zwingend geboten erscheine. Die hiergegen eingelegte Beschwerde verwarf das Kammergericht durch Beschluss vom 28. Dezember 1992. Das Kammergericht kam jedoch zu dem Ergebnis, aufgrund der Stellungnahmen und Gutachten der medizinischen Sachverständigen sei davon auszugehen, dass infolge eines bösartigen Tumors im rechten Leberlappen Honeckers eine Verhandlungsfähigkeit mit hoher Wahrscheinlichkeit nicht mehr lange bestehen werde und Honecker mit an Sicherheit grenzender Wahrscheinlichkeit den Abschluss des Verfahrens nicht überleben werde. Das Kammergericht sah sich gleichwohl gehindert, das Verfahren selbst einzustellen, weil dies gemäß Abs. 3 StPO nach Beginn der Hauptverhandlung nur noch vom Landgericht durch Urteil ausgesprochen werden könne. Dementsprechend könne es auch den bestehenden Haftbefehl nicht aufheben, bevor das Landgericht über das Vorliegen eines Verfahrenshindernisses entschieden habe. Hiergegen erhob Honecker Verfassungsbeschwerde vor dem Verfassungsgerichtshof des Landes Berlin. Honecker führte aus, die Entscheidungen verletzten sein Grundrecht auf Menschenwürde. Die Menschenwürde gelte als tragendes Prinzip der Verfassung auch gegenüber dem staatlichen Strafvollzug und der Strafjustiz uneingeschränkt. Die Fortführung eines Strafverfahrens und einer Hauptverhandlung gegen einen Angeklagten, von dem mit Sicherheit zu erwarten sei, dass er vor Abschluss der Hauptverhandlung und mithin vor einer Entscheidung über seine Schuld oder Unschuld sterben werde, verletze dessen Menschenwürde. Die Menschenwürde umfasse insbesondere das Recht eines Menschen, in Würde sterben zu dürfen. Mit Beschluss vom 12. Januar 1993 entsprach der Verfassungsgerichtshof der Verfassungsbeschwerde Honeckers. Aufgrund der Feststellungen des Kammergerichts, wonach Honecker den Abschluss des Verfahrens mit an Sicherheit grenzender Wahrscheinlichkeit nicht mehr erleben werde, sei davon auszugehen, dass das Strafverfahren seinen gesetzlichen Zweck auf vollständige Aufklärung der Honecker zur Last gelegten Taten und gegebenenfalls Verurteilung und Bestrafung nicht mehr erreichen könne. Das Strafverfahren werde damit zum Selbstzweck, wofür es keinen rechtfertigenden Grund gäbe. Die Aufrechterhaltung des Haftbefehls verletze den Anspruch Honeckers auf Achtung seiner Menschenwürde. Der Mensch werde zum bloßen Objekt staatlicher Maßnahmen insbesondere dann, wenn sein Tod derart nahe sei, dass ein Strafverfahren seinen Sinn verloren habe. Noch am selben Tage stellte das Landgericht Berlin das Verfahren nach StPO ein und hob den Haftbefehl auf. Den hiergegen von der Staatsanwaltschaft und den Nebenklägern erhobenen Beschwerden half das Landgericht nicht ab. Der Antrag auf Erlass eines neuen Haftbefehls wurde mit Beschluss vom 13. Januar 1993 abgelehnt. Am 13. Januar 1993 lehnte das Landgericht Berlin in Bezug auf die Anklageschrift vom 12. November 1992 die Eröffnung des Hauptverfahrens ab und hob auch den zweiten Haftbefehl auf. Nach insgesamt 169 Tagen wurde Honecker aus der Untersuchungshaft entlassen, was Proteste von Opfern des DDR-Regimes nach sich zog. Ausreise nach Chile. Honecker flog unmittelbar darauf nach Santiago de Chile zu Frau und Tochter Sonja (* 1952), die dort mit ihrem chilenischen Ehemann Leo Yáñez und ihrem Sohn Roberto wohnte. Die mit ihm Angeklagten wurden dagegen am 16. September 1993 zu Freiheitsstrafen zwischen vier und siebeneinhalb Jahren verurteilt. Am 13. April 1993 wurde ein letzter zur Verfahrensbeschleunigung abgetrennter und in Abwesenheit des Angeklagten fortgesetzter Prozess gegen Honecker vom Berliner Landgericht ebenfalls eingestellt. Am 17. April 1993, dem 66. Geburtstag seiner Frau Margot, rechnete Honecker in einer Rede mit dem Westen ab und bedauerte seine Genossen, die noch im Gefängnis in Moabit saßen und „dem Klassenfeind trotzten“. Er schloss seine Rede mit den Worten: „Sozialismus ist das Gegenteil von dem, was wir jetzt in Deutschland haben. Sodass ich sagen möchte, dass unsere schönen Erinnerungen an die DDR viel aussagen von dem Entwurf einer neuen, gerechten Gesellschaft. Und dieser Sache wollen wir für immer treu bleiben.“ Ein halbes Jahr später, im November 1993, musste Honecker durch Infusionen ernährt werden. Am 29. Mai 1994 starb er im Alter von 81 Jahren in Santiago de Chile in einem Reihenhaus im Stadtteil La Reina. Seine Urne wurde in Santiago de Chile beigesetzt. Privatleben. Honecker war dreimal verheiratet. Nach seiner Befreiung 1945 heiratete er die Gefängnisaufseherin Charlotte Schanuel; sie starb 1947. Von 1947 bis zur Scheidung 1953 war er mit der FDJ-Funktionärin Edith Baumann verheiratet; mit ihr hatte er eine Tochter, Erika (* 1950), von der wiederum seine Enkelin Anke stammt. Nachdem die Volkskammerabgeordnete Margot Feist im Dezember 1952 eine uneheliche Tochter, Sonja, von Honecker bekommen hatte, ließ sich Edith Baumann 1953 von ihm scheiden. Im selben Jahr wurde Margot Feist seine dritte Ehefrau. Aus Sonjas Ehe mit Leonardo Yáñez Betancourt ging 1974 Honeckers Enkel Roberto Yáñez Betancourt y Honecker hervor. Honeckers Ehefrau Margot, seine Tochter Sonja, sein Schwiegersohn Leonardo Yáñez Betancourt, die 1993 geschieden wurden, und sein Enkel Roberto leben heute in Santiago de Chile. Eine weitere Enkelin, Mariana, starb 1988 im Alter von zwei Jahren. Honecker wurde davon angeblich schwer getroffen. Honeckers Hobby war die Jagd (vgl. Volksjagd). Er war passionierter Jäger geworden, nachdem Klement Gottwald ihm noch als FDJ-Chef ein Jagdgewehr geschenkt hatte. Unmittelbar nach seinem Amtsantritt im Politbüro richtete Honecker die "Inspektion Staatsjagd" ein, eine Arbeitsgruppe, die zentral Bauvorhaben und Einweisungen der Jagdgäste in den Staatsjagd- und Diplomatenjagdgebieten vornahm. Das Jagdhaus Hubertusstock wurde Schauplatz von Besuchen führender westlicher Wirtschaftskräfte wie unter anderem Berthold Beitz. Honeckers Jagdpassion stand in Aufwand und Ausübung der Jagd in einer systemübergreifenden Tradition, der er selbst unmittelbar vor der Wende unbeirrt nachging. Rezeption. a> in Berlin aus dem Jahr 1991 Der Staats- und Parteichef Honecker wird wie sein Vorgänger Ulbricht auch von einigen Historikern als wenig charismatisch in seinen öffentlichen Auftritten und als nicht sonderlich redebegabt beschrieben, wobei ihm andere eine gewisse Rhetorik zugestehen. Vor allem seine Reden auf Parteitagen und bei diplomatischen Anlässen, die Kabarettisten und Satirikern außerhalb der DDR-Öffentlichkeit Vorlagen zu Parodien boten, werden von einigen als im Stil ungelenk und hölzern beschrieben. In seiner Zeit als Generalsekretär wurde seine Haltung einmal als „fast unheimliche, einstudierte Unbeweglichkeit“ beschrieben. Der ausschließlich in westlichen Medien erfolgreich verbreitete Schlager "Sonderzug nach Pankow" von Udo Lindenberg richtete sich in ironischer Weise direkt an den damaligen Staatsratsvorsitzenden, thematisierte dessen mangelnde Lockerheit und erreichte auch in der DDR große Popularität. Lindenberg gelang es damit, einen Konzertauftritt im Palast der Republik durchzusetzen, wo er das Lied allerdings nicht vortrug. Bei seinem Staatsbesuch 1987 in der Bundesrepublik Deutschland schenkte Honecker, der in seiner Jugend beim Roten Frontkämpferbund Schalmei gespielt hatte, Lindenberg ein Instrument. Dies erfolgte als Reaktion auf dessen Geschenk einer Lederjacke. Erich Honecker wurde zweimal auf einer Briefmarke abgebildet: Zum einen 1972 gemeinsam mit Leonid Breschnew auf einer Marke der Post der DDR zum 25.Jahrestag der Gründung der Gesellschaft für Deutsch-Sowjetische Freundschaft und zum anderen 1984 auf einer Marke der Post Nordkoreas gemeinsam mit Kim Il Sung aus Anlass des Besuchs Kim Il Sungs in der DDR im gleichen Jahr. Dmitri Wladimirowitsch Wrubels Bild "Mein Gott, hilf mir diese tödliche Liebe zu überleben" an der Berliner Mauer (Frühjahr 1990), welches einen „Bruderkuss“ zwischen Leonid Breschnew und Erich Honecker thematisierte, wurde weltweit bekannt. Auszeichnungen und Ehrungen. Honecker erhielt alle wichtigen Auszeichnungen der DDR, darunter den Karl-Marx-Orden, den Ehrentitel Held der DDR mit dazugehöriger Goldmedaille, den Vaterländischen Verdienstorden mit Ehrenspange, Banner der Arbeit, Held der Arbeit, und von der Sowjetunion als höchste Auszeichnung den Leninorden. 1981 wurde Honecker während seines Staatsbesuches in Japan die Ehrendoktorwürde der Nihon Universität Tokio verliehen. 1985 bekam Honecker vom IOC den Olympischen Orden in Gold. Erika Eleniak. Erika Maya Eleniak (* 29. September 1969 in Glendale, Kalifornien) ist eine US-amerikanische Schauspielerin und ehemaliges Playmate. Sie wurde unter anderem durch die Rolle der "Shauni McClain" in der Fernsehserie "Baywatch" bekannt. Leben. Eleniaks Vater, der aus Kanada in die USA kam, um Schauspieler zu werden, spornte auch seine Tochter an, in diesem Bereich tätig zu werden. So trat sie bereits als Kind in verschiedenen Werbespots auf und arbeitete in den folgenden Jahren immer wieder als Werbemodel. Im Jahr 1982 trat sie erstmals in einem Film auf. In "E. T. – Der Außerirdische" spielte sie Elliots Klassenkameradin während der Frosch-Sezierungsszene, in welcher Elliot sie zum Schluss küsste. Nachdem sie in ihrer High-School-Zeit Drogen und Alkohol verfallen war, schaffte sie es 1988 ihre Sucht zu besiegen und ergatterte verschiedene kleinere Rollen in Serien wie "Charles in Charge" und "Broken Angel". 1989 bemühte sie sich Playmate zu werden, um ihrer stagnierenden Karriere Schwung zu verleihen. Ihr Plan ging auf, und nachdem sie in zwei Playboy-Ausgaben erschienen war, wurde ihr eine Hauptrolle in der neuen Serie "Baywatch" angeboten. Zwei Staffeln lang arbeitete sie bei der Erfolgsserie, bis sie sie aufgrund ihres Partners und Co-Stars Billy Warlock verließ und somit Platz für Pamela Anderson schuf. Nach der Trennung von Warlock gelang ihr 1992 der bislang größte Erfolg: Neben Steven Seagal spielte sie in "Alarmstufe: Rot" ein Playmate. Ein Jahr darauf wurde die Komödie "Die Beverly Hillbillies sind los!" veröffentlicht, floppte aber beträchtlich. Ihr nächster Film "Chasers – Zu sexy für den Knast" von Regisseur Dennis Hopper war ebenfalls erfolglos. In den Folgejahren versuchte sich Eleniak an verschiedenen Independent- und Fernsehfilmen. Ein weiterer Erfolg blieb ihr jedoch verwehrt. Eiben. Die Eiben ("Taxus") bilden eine Pflanzengattung in der Familie der Eibengewächse (Taxaceae). Die etwa zehn Arten sind hauptsächlich in den gemäßigten Gebieten der Nordhalbkugel verbreitet; in Europa ist die Europäische Eibe ("Taxus baccata") als einzige Art heimisch. Beschreibung. Der rote Samenmantel umhüllt den Samen becherförmig Niederschlesien), sie galt bis 1945 als ältester Baum Deutschlands; heute gilt sie als ältester Baum Polens Vegetative Merkmale. Eiben-Arten sind immergrüne Sträucher oder kleine bis mittelgroße Bäume. Junge Zweige besitzen anfangs eine grüne bis gelblich-grüne Rinde; an ihrem unteren Bereich kann man einige Knospenschuppen beobachten. Später wird die Rinde rötlich-braun, an älteren Ästen entwickelt sich eine schuppige, rötlich-braune Borke. Die Nadeln sind spiralig am Zweig angeordnet, sind aber gescheitelt, so dass sie zweireihig angeordnet zu sein scheinen. Die linealischen, biegsamen Nadeln können gerade oder gebogen sein, vorne enden sie mit einer kleinen aufgesetzten, aber nicht stechenden Spitze. Auf der Oberseite der Nadeln tritt die Mittelader hervor, auf der Unterseite befinden sich zwei helle Streifen mit den Stomata. Generative Merkmale. Eiben-Arten sind meist zweihäusig getrenntgeschlechtig (diözisch): Männliche und weibliche Blüten stehen auf separaten Pflanzenexemplaren, gelegentlich sind sie einhäusig getrenntgeschlechtig (monözisch). Die männlichen Zapfen sind kugelig, gelblich mit vier bis 16 Sporophyllen, die jeweils zwei bis neun Sporangien besitzen. Die Samen reifen im Jahr der Befruchtung. Weibliche Pflanzen tragen im Herbst rote „Früchte“, die in der Mitte einen einzelnen Samen enthalten. Das den Samen umgebende rote, fleischige Gewebe, der Samenmantel (Arillus) entwickelt sich nicht aus der Samenschale (Testa), sondern aus dem Stielbereich der Samenanlage (Funiculus). Der becherförmige Arillus weist je nach Art unterschiedliche Rottöne auf. Man spricht in diesem Fall nicht von einer Frucht (im botanischen Sinne), sondern von einem Samenmantel (Arillus), da es Früchte per definitionem nur bei Bedecktsamigen Pflanzen geben kann. Ökologie. Die Verbreitung des Pollens erfolgt über den Wind (Anemophilie). Die Samen werden hauptsächlich von Vögeln verbreitet, die den fleischigen Samenmantel verzehren und den Samen später wieder ausscheiden (Endochorie). Die Keimung erfolgt epigäisch, es sind zwei Keimblätter vorhanden. Inhaltsstoffe. Die meisten Eibenarten, wie die Europäische Eibe ("Taxus baccata"), enthalten sehr giftige Inhaltsstoffe wie Taxin B. Insbesondere die Pazifische Eibe ("Taxus brevifolia") enthält Paclitaxel (Taxol), das zur Behandlung von Brust- und Eierstockkrebs eingesetzt wird. Giftig sind Rinde, Nadeln und Samen. Der rote Samenmantel enthält jedoch keine Giftstoffe. Fälle von tödlichen Vergiftungen durch Eiben sind von Menschen, Rindern und Pferden bekannt; Hirsche und Elche dagegen fressen gelegentlich Eibennadeln. Das Vorkommen von Ecdysteron wurde mehrfach beschrieben. Vorkommen. Die Eiben-Arten sind hauptsächlich in der gemäßigten Zone der Nordhalbkugel verbreitet. In der Neuen Welt erreichen sie südwärts noch Mexiko, Guatemala und El Salvador. In Südostasien sind sie in tropischen Gebirgswäldern vertreten und überschreiten auf Celebes den Äquator. Während sie im Norden ihres Verbreitungsgebietes in tieferen Lagen vorkommen, erreichen sie in den Tropen Höhenlagen von 3000 Meter. Eiben wachsen in der Strauchschicht feuchter Wälder oder bilden einen Teil der Kronenschicht. Systematik. Der wissenschaftliche Name der Gattung, lateinisch "taxus", wird etymologisch über neupersisch "taχš" ‚Armbrust, Pfeil‘ und altgriechisch τόξον ‚Pfeilbogen‘ (für deren Herstellung sich Eibenholz offenbar besonders eignet) mit (vielleicht beiden Wörtern zugrundeliegendem) skythisch *"taχša-" verbunden, sowie mit dem nicht näher bestimmbaren altindischen Baumnamen "takṣaka-". Nutzung. Es gibt zahlreiche Kreuzungen. Die bekannteste ist die Hybrid-Eibe ("Taxus" ×"media" Rehder), eine 1900 in Massachusetts entstandene Kreuzung aus "Taxus baccata" und "Taxus cuspidata". Ihre breit säulenförmig wachsende Zuchtform ‘Hicksii’ wird relativ häufig in Parks und Gärten gepflanzt. Edwin Hubble. Edwin Powell Hubble (* 20. November 1889 in Marshfield, Missouri; † 28. September 1953 in San Marino, Kalifornien) war ein US-amerikanischer Astronom. Er entdeckte die Natur der Spiralnebel und die Hubble-Konstante der galaktischen Kosmologie und ist Namensgeber des Hubble-Weltraumteleskops. Leben und Werk. Der Hooker-Spiegel am Mount-Wilson-Observatorium diente Hubble zur Messung der Rotverschiebung der Spektren von sich wegbewegenden Galaxien. Hubble studierte Physik und Astronomie in Chicago und beendete dies 1910 mit dem Abschluss als Bachelor of Science. Anschließend verließ er die USA zum Studium der Rechtswissenschaften in Oxford, wo er als Master abschloss und nach drei Jahren in die USA zurückkehrte. Als es Vesto Slipher 1912 am Lowell-Observatorium in Flagstaff (Arizona) gelang, erstmals die Radialgeschwindigkeit eines Spiralnebels zu messen, war auch Hubble als Student mit der Relativgeschwindigkeit des Andromedanebels (M31) zum Milchstraßensystem befasst. Am Mount-Wilson-Observatorium konnte er 1923 nachweisen, dass M31 weit außerhalb unserer Galaxis liegt. Die Ergebnisse seiner Beobachtungen und Berechnungen, "Cepheids in Spiral Nebulae", legte er zur Jahreswende 1924/25 der Jahrestagung der US-amerikanischen Astronomenvereinigung AAS vor, auf der sie am 1. Januar 1925 vorgetragen wurden. Aufgrund der räumlichen Verteilung anderer Galaxien, sowie ihrer im Spektrum u .a. von Milton Humason nachgewiesenen Rotverschiebung, postulierte der belgische Priester Georges Lemaître im Juni 1927 die Expansion des Weltalls im Einklang mit Einsteins Allgemeiner Relativitätstheorie. Hubble veröffentlichte zwei Jahre später, 1929, mit zusätzlichen Daten denselben linearen Zusammenhang zwischen der Rotverschiebung und der Verteilung extragalaktischer Nebel, zog jedoch nicht die physikalische Schlussfolgerung einer Expansion des Weltalls und vermutete ein bisher unentdecktes Naturprinzip hinter der Rotverschiebung. Dennoch wird in der öffentlichen Wahrnehmung diese Entdeckung Lemaîtres häufig Hubble zugeschrieben. Hubble und Humason entdeckten auf Basis der Arbeiten Sliphers, dass die Spektren verschiedener Galaxien nicht etwa zu gleichen Teilen ins Rote und Blaue verschoben sind, sondern dass es erheblich mehr rotverschobene Spektren gibt. Interpretiert man die Frequenzverschiebung als Dopplereffekt, so lässt sich ableiten, dass sich fast alle beobachteten Galaxien von uns entfernen. Hubble war auch der Erste, der einen direkten proportionalen Zusammenhang zwischen Rotverschiebung und Entfernung der Galaxien aufstellte, was bedeuten würde, dass sich diese fernen "Weltinseln" umso schneller von uns fortbewegen, je weiter sie entfernt sind. Hubble selbst benutzte den Ausdruck 'scheinbare Geschwindigkeit', da er zurückhaltend war in der physikalischen Interpretation der Beobachtungen. Die Größe, welche diese Expansion beschreibt, wird ihm zu Ehren die Hubble-Konstante "H" genannt. Mit ihrer Hilfe lässt sich das Alter des Weltraums abschätzen. Hubble hat auch die Hubble-Sequenz entwickelt, ein morphologisches Ordnungsschema für Galaxien. Am 30. August 1935 entdeckte er den Asteroiden Cincinnati. Am 28. September 1953 starb Hubble mit 63 Jahren, während er für mehrere Beobachtungsnächte auf dem Palomar-Observatorium die Vorbereitungen traf, an einem Schlaganfall. Würdigungen. 1935 wurde ihm die Barnard-Medaille verliehen. 1940 wurde er mit der Goldmedaille der Royal Astronomical Society ausgezeichnet. Das Hubble-Weltraumteleskop (HST) wurde ebenfalls nach ihm benannt. Durch von der Erdatmosphäre ungestörte Beobachtungsmöglichkeiten können seine CCD-Sensoren feinste Details der Planeten und Sternsysteme aufnehmen. Der Mondkrater Hubble und der Asteroid (2069) Hubble sind nach ihm benannt. Echelon. Echelon ist der Name eines weltweiten Spionagenetzes, das von Nachrichtendiensten der USA, Großbritanniens, Australiens, Neuseelands und Kanadas betrieben wird. Das System dient zum Abhören bzw. zur Überwachung von über Satellit geleiteten privaten und geschäftlichen Telefongesprächen, Faxverbindungen und Internet-Daten. Die Auswertung der gewonnenen Daten wird vollautomatisch durch Rechenzentren vorgenommen. Die Existenz des Systems gilt seit einer Untersuchung des europäischen Parlaments von 2001 als gesichert. Über den genauen Umfang und die Art der Abhörmaßnahmen gibt es wegen der Geheimhaltung seitens der Betreiber keine zuverlässigen Angaben. Wegen des Einsatzes zur Wirtschaftsspionage gegen europäische Unternehmen wurde eine bedeutende Anlage der amerikanischen NSA im bayerischen Bad Aibling auf Empfehlung des parlamentarischen Untersuchungsausschusses im Jahr 2004 geschlossen. Überblick. sind daran beteiligt. Seit den 1970er Jahren gab es Gerüchte über die Existenz eines geheimen Spionagesystems dieser Organisationen. Bestätigt ist die Existenz des Netzwerks spätestens seit der Veröffentlichung des Europäischen Parlaments vom 5. September 2001. Herkunft des Begriffes. Vermutlich war die antike Echelon-Schlachtordnung der Namensgeber für dieses Spionagenetz. In der Antike entstand die "Echelonformation" (siehe Schiefe Schlachtordnung). Echelonformation ist heute im englischen Sprachraum eine gestaffelte Kampfanordnung. Auch die Flugformation von Zugvögeln wird mitunter so bezeichnet. Echelon kommt möglicherweise auch von französisch „échelle“ (Leiter, Tonleiter, Skala, Maßstab u. w.) bzw. „échelon“ (Leitersprosse, Stufe, aber auch die militärische Staffel). Ein Échelon ist auch ein optisches Gitter (Beugungsgitter). Der Begriff bezeichnet dabei eigentlich die Software, die in den entsprechenden Abhörstationen die aufgefangene SIGINT nach bestimmten Stichworten durchsucht. Zielsetzung. Pressemeldungen mutmaßten zuvor, dass Echelon zunächst nur dazu gedacht sei, die militärische und diplomatische Kommunikation der Sowjetunion und ihrer Verbündeten abzuhören. Heute soll das System zur Suche nach terroristischen Verschwörungen, Aufdeckungen im Bereich Drogenhandel und als politischer und diplomatischer Nachrichtendienst benutzt werden. Seit Ende des Kalten Krieges soll das System außerdem der Wirtschaftsspionage dienen. Diese Vorwürfe wurden durch das Europäische Parlament nicht bestätigt, wenn auch einzelne Ausschussmitglieder in dieser Hinsicht Bedenken äußerten. Anderen Quellen zufolge dient Echelon der Umgehung nationaler Gesetze. Amerikanischen Geheimdiensten ist es verboten, die Telefongespräche amerikanischer Staatsbürger abzuhören. Gleiches gilt auch in Großbritannien. Indem nun der britische Geheimdienst Amerikaner und der amerikanische Geheimdienst britische Telefongespräche abhört, wird dieses Verbot umgangen. Struktur des Systems. Alle Mitglieder des Echelon-Systems sind Teil der nachrichtendienstlichen Allianz UKUSA, deren Wurzeln bis zum Zweiten Weltkrieg zurückreichen. Die Mitgliedsstaaten der Allianz stellen Abhörstationen und Weltraumsatelliten bereit, um Satelliten-, Mikrowellen- und teilweise auch Mobilfunk-Kommunikation abzuhören. Es gibt laut Untersuchungsbericht des EU-Parlaments keine Hinweise darauf, dass die Technologie auch das großflächige Abhören drahtgestützter Kommunikation (d. h. Telefon, Internet-Backbones innerhalb Europas, Fax usw.) ermöglicht. Die Erfassung der Signale erfolgt wahrscheinlich hauptsächlich durch in Radarkuppeln aufgestellte Antennen, eine meist kugelförmige Hülle, die die Inneneinrichtung in erster Linie vor äußeren mechanischen Einflüssen wie Wind oder Regen schützt. Es wird vermutet, dass die eingefangenen Signale, hauptsächlich aus der Satellitenkommunikation, teilweise durch die National Security Agency (NSA) ausgewertet werden, die die hierzu erforderlichen Erkennungssysteme besitzt. Der Öffentlichkeit bekannt gemacht wurde das Spionagesystem erstmals 1976 durch Winslow Peck. Am 5. Juli 2000 beschloss das Europäische Parlament, einen nichtständigen Ausschuss über das Abhörsystem Echelon einzusetzen, 2001 wurde ein 192 Seiten langer Bericht veröffentlicht, in dem die Existenz bestätigt und die Bedeutung und Auswirkungen dargelegt wurden. Stützpunkte. Großanlagen zur Überwachung von Satellitenkommunikation sind wegen der aufwändigen Empfangstechnik schwierig zu verstecken. Die Standorte dieser Anlagen sind daher bekannt. Über die Techniken zur Überwachung der kabelgebundenen und mikrowellenübermittelten Kommunikation ist hingegen wenig bekannt. Echelon betreibt fünf Großstationen zur Überwachung des Verkehrs via Intelsat. In Europa befindet sich eine in Morwenstow (Cornwall) unter Aufsicht der GCHQ für die Überwachung des Atlantiks und des Indischen Ozeans. Zwei Stationen werden von der NSA betrieben, eine in Sugar Grove (West Virginia) und auf dem Armeestützpunkt Yakima im Bundesstaat Washington. Eine neuseeländische Station in Waihopai und eine australische in Geraldton vervollständigen die Kette. Die Überwachung der nicht-Intelsat-gestützten Kommunikation erfolgt bzw. erfolgte von mindestens fünf Standorten aus, nämlich aus Bad Aibling (Bayern, 2004 abgebaut), Menwith Hill (Yorkshire), Shoal Bay (Nordaustralien), Leitrim (Kanada) und Misawa (Nordjapan). Entwicklung ab 1990. Nach Beendigung des Kalten Krieges im Jahr 1990 fiel der Hauptfeind, der Ostblock, als potentieller Gegner weg. Die neue geheimdienstliche Priorität, die Wirtschaftsspionage, wurde von George Bush sen. durch die Nationale Sicherheitsdirektive 67 – herausgegeben vom Weißen Haus am 20. März 1992 – festgelegt. Die freigewordenen Kapazitäten sollen die Echelon-Beteiligten genutzt haben, um die eigenen Verbündeten auf dem Gebiet der Wirtschaft auszuspionieren. Medien berichteten seit Ende der 1990er Jahre, der US-Geheimdienst NSA hätte 1994 das deutsche Unternehmen Enercon mit Hilfe von Echelon abgehört. Die so gewonnenen Daten seien dem amerikanischen Mitbewerber "Kenetech Windpower Inc." übermittelt worden. Anderen Berichten zufolge hatte das amerikanische Unternehmen 3 Jahre vor der angeblichen Abhöraktion die in Frage stehenden Eigenschaften patentieren lassen, was dieser Theorie widerspricht. Die Wirtschaftsspionage wird auch durch die Aussage des ehemaligen CIA-Chefs James Woolsey im Wall Street Journal vom 17. März 2000 bestätigt. Woolsey bemühte sich allerdings darzulegen, die USA hätten lediglich Informationen über Bestechungsversuche europäischer Unternehmen im Ausland gesucht, denn „die meiste europäische Technologie lohnt den Diebstahl einfach nicht“. Airbus soll einen milliardenschweren Vertrag mit Saudi-Arabien verloren haben, da die NSA vermutlich durch Echelon herausgefunden hatte, dass Airbus die saudischen Geschäftsleute bei der Auftragsvergabe bestochen hatte. Entwicklung ab 2000. Die sich in Bad Aibling (Bayern) befindliche Echelonbasis Bad Aibling Station konnte bis 2004 große Bereiche Europas abdecken; abhören konnte man aber wie in allen Fällen nur Kommunikation, die über Richtfunkstrecken oder Satelliten geleitet wurde; kabelgebundene Kommunikation wie z. B. die Internet-Backbones können mit dieser Technik nicht abgehört werden. In dem zitierten EU-Report wurde festgestellt, dass diese Anlage nach dem Ende des Kalten Krieges mehrheitlich der Wirtschaftsspionage diente, und es wurde vorgeschlagen, diese zu schließen. Bedingt durch die Terroranschläge des 11. September 2001 wurde dieser Beschluss erst verspätet im Jahre 2004 umgesetzt. In seinem Bericht an das EU-Parlament am 5. September 2001 stellte der „Berichterstatter des nicht ständigen EU-Untersuchungsausschusses zu Echelon“ Gerhard Schmid nochmals fest, dass innereuropäische Kommunikation kaum betroffen ist, sondern hauptsächlich transatlantische Verbindungen über Satellit. Als Ersatz für die Anlage in Bad Aibling stand von 2004 bis 2008 am Rand des ehemaligen August-Euler-Flugplatzes (von den USA auch als Dagger Complex bezeichnet) in Darmstadt ein System mit fünf Radomen, das laut einigen Quellen ebenfalls Abhörzwecken gedient haben soll. Die Anlage wurde im Frühjahr 2004 fertiggestellt; im Sommer 2008 wurden die Radome wieder demontiert. Die heutige Bedeutung des Netzwerkes ist aufgrund mangelnder zugänglicher Informationen unklar. Edel-Tanne. Die Edel-Tanne ("Abies procera", Syn.: "Abies nobilis"), standardsprachlich Edeltanne, auch Pazifische Edel-Tanne und Silbertanne genannt, ist eine Pflanzenart aus der Gattung der Tannen ("Abies") in der Familie der Kieferngewächse (Pinaceae). Die Schreibweise mit Bindestrich ist in der botanischen Fachliteratur gebräuchlich. Umgangssprachlich wird auch die in Europa heimische Weiß-Tanne ("Abies alba" Mill.) als „Edeltanne“ oder „Silbertanne“ bezeichnet. Habitus. Die Edel-Tanne ist ein immergrüner Baum, der die größten Wuchshöhen unter den Tannen erreicht, es werden Wuchshöhen über 80 Meter und Stammdurchmesser (BHD) über 2 Meter erreicht. Sie hat auffallend gerade, säulenförmige Stämme. Die Baumkrone ist symmetrisch kegelförmig. Sie ist nicht so dicht wie bei anderen Tannenarten und erscheint deshalb häufig durchsichtig. Im Gipfel sterben häufig Leittriebe ab; im Alter überragen die Seitenäste den Gipfeltrieb und es bildet sich die sogenannte „Storchennest-Krone“. Die Zweige stehen meist im rechten Winkel vom Stamm ab, können aber im unteren Teil der Krone auch hängen. Die schlanken Zweige sind rötlich-braun gefärbt und behaart. Die Zweigoberseite ist meistens durch die dicht anliegenden Nadeln nicht zu erkennen. Die Edel-Tanne kann bis zu 800 Jahre alt werden und erreicht damit das höchste Alter aller Tannenarten. Knospen und Nadeln. Bürstenförmige nach oben gedrehte Nadeln sind unverkennbare Merkmale. Die männlichen Blüten erscheinen im Mai. Die runden Knospen sind sehr klein und mit rotbraunen Schuppen versehen. Sie werden häufig von den Nadeln verdeckt. Die blaugrünen schimmernden, dichtstehenden Nadeln haben eine Lebensdauer bis zwölf Jahre. Die, im Querschnitt viereckigen, Nadeln sind 25 bis 35 Millimeter lang und oberseits rinnig vertieft. Sowohl auf der Ober- wie auch auf der Unterseite befinden sich Stomabänder. Nadeln an lichtexponierten Stellen sind meist blaugrün gefärbt und stehen aufwärts gerichtet spiralig um den Zweig. Schattennadeln sind meist dunkelgrün gefärbt und stehen gescheitelt an den Zweigunterseiten. Die Nadeln liegen im ersten Viertel dem Zweig an und krümmen sich auf. Blüten, Zapfen und Samen. Die Edel-Tanne ist einhäusig getrenntgeschlechtig (monözisch). Sie wird mit 20 bis 30 Jahren mannbar, die volle Samenproduktion setzt allerdings erst mit 50 bis 60 Jahren ein. Die männlichen Blütenzapfen sind dunkelrot gefärbt und sitzen in Gruppen von bis zu 30 Blütenzapfen auf der Zweigunterseite. Die unscheinbaren weiblichen Blütenzapfen sind gelblich gefärbt mit einem schwach rötlichen Ton und stehen meist einzeln, aber auch zu zweit, selten zu fünft auf der Oberseite vorjähriger Triebe. Die Zapfen weisen eine Länge von 10 bis 24 Zentimeter und einen Durchmesser von 5 bis 7 Zentimeter auf. Sie sind damit die größten Zapfen aller bekannten Tannenarten. Schon an jungen Bäumen von nur 2 bis 3 Meter Wuchshöhe werden Zapfen angesetzt. Die reifen Zapfen sind blass purpurbraun, wirken aber blassgrün, da sie überwiegend durch die grünlichen Deckschuppen überdeckt werden. Die Samenschuppen sind etwa 2,5 Zentimeter × 3 Zentimeter groß. Der rötlich-braune Same weist eine Größe von 13 Millimeter × 6 Millimeter auf und besitzt einen hellbraunen bis strohfarbenen Flügel, der nur wenig länger ist als das Samenkorn. Das Tausendkorngewicht beträgt rund 30 Gramm und die Keimfähigkeit liegt bei 30 bis 70 %. Die Keimlinge besitzen meist fünf bis sechs (vier bis sieben) Keimblätter (Kotyledonen). Rinde. Die Rinde von jungen Bäumen ist glatt und gräulich bis leicht rötlich gefärbt. Die Borke der älteren Bäume ist grau, teilweise mit einem lilafarbenen Ton, und bricht in rechteckige Platten auf. Sie ist mit 2 bis 5 Zentimeter relativ dünn weshalb die Bäume durch Waldbrände gefährdet sind. Die Rinde der Zweige ist rötlichbraun und feinbehaart. Wurzeln. Es ist nur sehr wenig über die Wurzeltracht der Edel-Tanne bekannt. Man weiß, dass sie keine Pfahlwurzel ausbildet und deshalb auf Windwurf anfällig ist. Holz. Das weiche, weißliche Holz der Edel-Tanne gilt als das qualitativ hochwertigste aller nordamerikanischen Tannenarten und wird in ihrem natürlichen Areal nur von dem der Douglasie und der Westamerikanischen Hemlocktanne übertroffen. Große Einzelexemplare. Stamm einer alten Edeltanne (Washington) Vorkommen. Die Edel-Tanne kommt im humiden pazifischen Nordwesten der USA vor. Ihr Verbreitungsgebiet reicht von Washington über Oregon bis nach Nordwestkalifornien. Sie wächst im Küstengebirge und in der Kaskadenkette in Höhenlagen zwischen 650 und 1.680 Meter. Sie kommt meistens in Mischwäldern mit der Douglasie ("Pseudotsuga menziesii"), der Purpur-Tanne ("Abies amabilis") und der Westamerikanischen Hemlocktanne ("Tsuga heterophylla") vor, es werden aber auch Reinbestände gebildet. In Mitteleuropa ist sie als Parkbaum beliebt, häufig wird die Gartenform 'Glauca' angebaut. Die Edel-Tanne bevorzugt kontinentales oder gemäßigtes Klima mit kühlen Sommern und hohen Niederschlägen (2000 bis 2500 Millimeter/Jahr). An den Boden stellt sie geringe Ansprüche, meidet aber Kalk. Gegen Winterkälte, Spätfröste, Schneedruck und Wind ist sie widerstandsfähig, verträgt aber als Lichtbaumart nur sehr wenig Schatten. Temperaturen von −20 °C und weniger übersteht sie problemlos. Im Jugendstadium reagiert sie allerdings auf Frosttrocknis sehr empfindlich. Sie meidet sehr trockene und staunasse Böden. Der pH-Wert sollte nicht hoch sein, optimal ist ein Wert von 5,5. Krankheiten und Schädlinge. In ihrem natürlichen Verbreitungsgebiet wird die Edel-Tanne weder durch Schadinsekten noch durch Schadpilze ernsthaft gefährdet. Sämlinge leiden manchmal unter der Grauschimmelfäule Botrytis cinerea sowie an dem Schneeschimmel Herpotrichia nigra. Rüsselkäfer fressen, insbesondere in neu angelegten Kulturen, an der Rinde. Alte Bäume werden häufig von Borkenkäfern befallen. Befälle mit Melampsorella caryophyllacearum, dem Erreger des Tannenkrebses, verlaufen meist ohne nennenswerte Folgen. Die Edel-Tanne erleidet häufig Rindenschäden durch Schwarzbären. In sehr kalten Wintern kann Frosttrocknis auftreten. Holznutzung. Das Holz der Edel-Tanne ist leicht zu bearbeiten und eignet sich sehr gut als Bau- und Konstruktionsholz. Es ist vor allem in Japan sehr begehrt. Im Zweiten Weltkrieg spielte es eine Rolle im Flugzeugbau. Sonstige Nutzungsarten. Die Edel-Tanne, in der grünen Branche auch „Nobilis“ genannt, ist wegen der langen Haltbarkeit ihrer Nadeln die in der Advents- und Weihnachtsfloristik weitaus am häufigsten verwendete Schmuckgrünart. Deswegen wird sie in erster Linie zur Gewinnung von Schmuckreisig angebaut. Sie wird weltweit aber auch als Ziergehölz und als Christbaum angebaut. Blaue Edel-Tanne ("A. procera ‚Glauca‘") Weihnachtsbaum. Plantage mit Edel-Tannen in Oregon In Deutschland machten Amerikanische Edel-Tannen 2012 etwa 5 % der 29,2 Mio. verkauften Weihnachtsbäume aus. Damit steht diese in den Absatzzahlen hinter der Nordmann-Tanne, für die ein Marktanteil von 75 % angegeben wird, insgesamt an dritter Stelle der beliebtesten Weihnachtsbäume. In den Angaben des Landesverbandes Sachsen in der Schutzgemeinschaft Deutscher Wald entscheiden sich deutsche Haushalte jedoch nur zu 40 % für die Nordmann-Tanne und wiederum als drittbeliebtesten deutschen Weihnachtsbaum 13 % für die Edel-Tanne. In anderen europäischen Ländern ist die Edel-Tanne teilweise beliebter als die Nordmann-Tanne. So wird diese in Irland öfter gekauft als Nordmann-Tanne. In den USA war die Edel-Tanne bis in die 1960er Jahre praktisch nur in den Staaten der Pazifischen Nordwestküste, insbesondere in Oregon, als Weihnachtsbaum von Bedeutung. Danach wurde diese von Kalifornien und an der Ostküste immer populärer (an der Ostküste dominierten bis dahin Fraser- und Balsamtannen im Markt). Heute ist die Edeltanne die wohl wichtigste für die Zwecke der Weihnachtsbaumindustrie in den USA gepflanzte Tannenart. In natürlichen Verbreitungsgebiet der Edel-Tanne in Oregon finden sich heute zudem die größten Betriebe mit Weihnachtsbaum-Plantagen, die im Jahr 2000 zwischen 33 und 36 Mio. Weihnachtsbäume vermarkteten. 13.000 Weihnachtsbaumproduzenten teilten sich dabei den Markt, der 1998 ein Volumen von 462 Mio. Dollar Umsatz in den Forstbetriebe sowie 1,5 Mrd. Dollar im Einzelhandel stellte. Der europäische Markt ist mit 50-60 Mio. verkauften Bäumen noch umsatzstärker als der nordamerikanische. Durch ihre gute Fähigkeit, die Feuchtigkeit der Nadeln länger als andere Arten (u. a. Douglasie, Blau-Fichte) aufrechtzuerhalten, haben Edel-Tannen und Fraser-Tanne in den USA durch diese als wesentlich für die Posternte-Qualität erachtete Eigenschaft eine dominierende Position bei den Produzenten wie den Konsumenten erlangt. Die Edel-Tanne ist in ihrer Fähigkeit, Prozesse der Nadeltrocknis aufzuhalten, auch der Nordmann-Tanne überlegen. Aufgrund der langen Nadelhaltbarkeit und der silbergraublauen Farbe der Blätter ist sie für die Produktion von Schmuckreisig eine der interessantesten Baumarten. In den im Vergleich zur Weiß-Tanne höheren Ansprüchen an Licht und Boden (kalkmeidend) ist die Pazifische Edel-Tanne auf forstlichen Flächen in Mitteleuropa insgesamt jedoch heikel. Diesen sehr hohen Ansprüchen an Standort- und Bodenverhältnisse (humose, wenig verdichtete Böden mit niedrigen pH-Werten, eine hohe Luftfeuchtigkeit sowie ausgeglichene Temperaturen) versucht man in der Weihnachtsbaum-Kultur mittels geeigneter Saatgutwahl geprüfter Proveniezien (Tannen-Herkünfte mit ökologisch spezifisch geeigneten Parametern für die Forstkultur) entgegenzuwirken. Enrico Fermi. a>, ein von Enrico Fermi erfundener analoger Computer zum Studium des Neutronentransports Enrico Fermi (* 29. September 1901 in Rom, Italien; † 28. November 1954 in Chicago, USA) war einer der bedeutendsten Kernphysiker des 20. Jahrhunderts. 1938 erhielt er den Nobelpreis für Physik. Leben. Bereits im Alter von 17 Jahren begann er ein Physikstudium an der Universität Pisa, das er 1922 mit einer Promotion über Röntgenstreuung an Kristallen abschloss. 1923 hatte Fermi dank eines Stipendiums einen mehrmonatigen Forschungsaufenthalt in Göttingen bei Max Born. Göttingen war damals das führende Zentrum der theoretischen Physik, hier entstanden viele wesentliche Arbeiten für die Quantenmechanik. 1924 arbeitete er mehrere Monate in den Niederlanden bei Paul Ehrenfest, ebenfalls ein Mitbegründer der Quantenmechanik. Danach wurde Fermi zunächst als Professor für Mathematik nach Florenz berufen. Zwei Jahre später ging er als Professor für theoretische Physik nach Rom. Hier entstanden seine theoretischen Arbeiten zur Festkörperphysik und zur Quantenstatistik (Fermi-Dirac-Statistik für Fermionen, Fermis Goldene Regel, Fermifläche, Fermi-Resonanz, Thomas-Fermi Theorie des Atoms). In Rom entstand um Fermi eine sehr aktive Gruppe theoretischer und experimenteller Physiker. Ihr gehörten Gian-Carlo Wick, Ugo Fano, Giovanni Gentile, Giulio Racah, Ettore Majorana sowie die Experimentatoren Franco Rasetti, Giuseppe Cocconi, Emilio Segrè, Edoardo Amaldi und Bruno Pontecorvo an. Angeregt durch die Entdeckung des Neutrons durch James Chadwick im Jahr 1932 sowie durch den Nachweis von Kernumwandlungen nach Bestrahlung mit Alphateilchen durch Irène und Frédéric Joliot-Curie wandte sich Fermi 1934 der Experimentalphysik zu. Seine bahnbrechende Entdeckung war, dass Kernumwandlungsprozesse durch Neutronenstrahlung wesentlich effektiver ablaufen. Eine weitere Verbesserung der Ausbeute erhält man, wenn die Neutronen stark abgebremst werden (thermische Neutronen). 1934 veröffentlichte Fermi seine Theorie des Beta-Zerfalls („Fermi-Wechselwirkung“). Schon 1933 hatte er die Bezeichnung Neutrino für eines der am Beta-Zerfall beteiligten Teilchen geprägt, dessen Existenz drei Jahre zuvor von Wolfgang Pauli postuliert worden war. Durch Neutronenbestrahlung des damals schwersten bekannten Elementes Uran erzielten Fermi und seine Mitarbeiter ebenfalls Veränderungen im Ausgangsmaterial (anderes chemisches Verhalten, geänderte Halbwertszeiten der austretenden Strahlung) und interpretierten diese irrtümlich als Kernumwandlung zu Transuranen ("Nature"-Artikel 1934). Ida Noddack-Tacke kritisierte das und wies schon auf die Möglichkeit einer Kernspaltung hin, was dann vier Jahre später Otto Hahn und Fritz Straßmann mittels chemisch-analytischer Techniken zeigten; die theoretischen Grundlagen wurden von Lise Meitner und Otto Frisch erarbeitet. Das erste Transuran konnte erst 1942 nachgewiesen werden, allerdings nach einer gänzlich anderen Synthesevorschrift. 1938 erhielt Fermi für seine Arbeiten den Nobelpreis der Physik, obschon seine Interpretation des Neutronenexperiments (Erzeugung von „Transuranen“) nach heutigem Kenntnisstand eine fehlerhafte Spekulation ohne Beleg war. Im selben Jahr emigrierte Fermi aufgrund der Repressalien durch das Mussolini-Regime, denen seine Frau Laura – welche jüdischen Glaubens war – ausgesetzt war, mit seiner Familie in die USA. Anfang der 1940er-Jahre arbeitete Fermi mit Isidor Isaac Rabi und Polykarp Kusch an der Columbia-Universität in New York. Ihm gelang am 2. Dezember 1942 (15:25 Uhr) an der University of Chicago mit dem Kernreaktor Chicago Pile No. 1 erstmals eine kritische Kernspaltungs-Kettenreaktion, eine Leistung, die auf der theoretischen Vorarbeit von Leó Szilárd fußte. Im April 1943 schlug Fermi privat Robert Oppenheimer vor, mittels der radioaktiven Nebenprodukte aus der Anreicherung zum Beispiel in einer deutschen Großstadt die Lebensmittelvorräte zu verseuchen. Hintergrund war die erfreuliche Entwicklung der letzten Monate an der Front, wodurch auf amerikanischer Seite nunmehr angenommen wurde, daß der Krieg in Europa beendet sein würde, bevor die erste Atombombe einsatzbereit wäre. Fermi wollte erreichen, wenn schon kein Einsatz der Atombombe über Deutschland mehr möglich wäre, daß wenigstens noch auf andere Weise das radioaktive Material gegen Deutschland zum Einsatz käme. Oppenheimer war sehr angetan von Fermis "vielversprechenden" Vorschlag und besprach dies mit Edward Teller, welcher die Verwendung von Strontium-90 vorschlug. Auch James Bryant Conant und Leslie R. Groves wurden unterrichtet. Oppenheimer antwortete Fermi am 25. April 1943, daß aus Gründen der Geheimhaltung der Plan erst dann aktiv in Angriff genommen werden sollte, wenn genug Strontium-90 zur Verfügung stehen würde, um sicher mindestens eine halbe Million deutsche Zivilisten auf einen Schlag damit zu töten. Im Sommer 1944 zog Fermi mit seiner Familie nach Los Alamos (New Mexico) in das geheime Atom-Forschungslabor der USA. Als Berater von Robert Oppenheimer spielte Fermi eine wichtige Rolle bei Entwicklung und Bau der ersten Atombomben. Nach dem Zweiten Weltkrieg beschäftigte sich Fermi wieder mit der Grundlagenforschung im Kernforschungszentrum an der Universität Chicago. Nach einer Europareise 1954 erkrankte Fermi an Magenkrebs, woran er noch im selben Jahr verstarb. Fermi war für seine schnellen Abschätzungen und seine physikalische Intuition bekannt – er war ein Meister der „back of the envelope“-Rechnungen (die nicht mehr Platz als die Rückseite eines Briefkuverts benötigen). Sprichwörtlich sind auch die "Fermi questions" (Fermi-Probleme), wie etwa aus wenigen Daten die Anzahl der Klavierstimmer in einer Stadt wie Chicago abzuschätzen. Nach ihm wird das Elektronengas (auch "Fermigas") (vgl. hierzu Metallbindung), eine Gruppe von Elementarteilchen (Fermionen), das künstlich hergestellte chemische Element Fermium und ein Energieniveau in Festkörpern (Ferminiveau) benannt. Die Atomenergiebehörde der USA stiftete zu seinem Gedenken den z. Z. mit 375.000 US-Dollar dotierten "Enrico-Fermi-Preis". Das Fermi National Accelerator Laboratory bei Chicago ist nach ihm benannt und die regelmäßigen Kurse der "International School of Physics Enrico Fermi" der italienischen physikalischen Gesellschaft und deren Premio Enrico Fermi. Fermi war Mitglied des Freimaurerbundes. Seit 1935 war er Mitglied der Gelehrtenakademie Leopoldina. Ernst Thälmann. Ernst Johannes Fritz Thälmann (* 16. April 1886 in Hamburg; † 18. August 1944 im KZ Buchenwald) war ein deutscher Politiker in der Weimarer Republik. Er war von 1925 bis zu seiner Verhaftung im Jahr 1933 Vorsitzender der Kommunistischen Partei Deutschlands (KPD), die er von 1924 bis 1933 im Reichstag vertrat und für die er in den Reichspräsidentenwahlen von 1925 und 1932 kandidierte. Thälmann führte von 1925 bis zum Verbot 1929 den Roten Frontkämpferbund (RFB) an, der als paramilitärische "Schutz- und Wehrorganisation" der KPD vor allem in Straßenkämpfen mit politischen Gegnern und der Polizei in Erscheinung trat. Er schloss die in den Statuten der Kommunistischen Internationalen vorgesehene Umstrukturierung der KPD als Partei neuen Typus ab. Aufbauend auf die sowjetische Sozialfaschismusthese bekämpfte die KPD, die sich unter seiner Führung zunehmend stalinisierte, die SPD als politischen Hauptfeind innerhalb der Weimarer Republik. Seine Verhaftung erfolgte am 3. März 1933, zwei Tage vor der Reichstagswahl März 1933 und einige Tage nach dem Reichstagsbrand. Thälmann wurde im August 1944, nach über elf Jahren Einzelhaft, vermutlich auf direkten Befehl Adolf Hitlers erschossen. Schulausbildung und Berufstätigkeit. Trotz dieser Belastung war Thälmann ein guter Schüler, dem das Lernen viel Freude bereitete. Sein Wunsch, Lehrer zu werden oder ein Handwerk zu erlernen, erfüllte sich nicht, da seine Eltern ihm die Finanzierung verweigerten. Er musste daher weiter im Kleinbetrieb seines Vaters arbeiten, was ihm, nach eigenen Aussagen, großen Kummer bereitete. Durch das frühzeitige „Schuften“ im elterlichen Betrieb kam es zu vielen Auseinandersetzungen mit seinen Eltern. Thälmann wollte für seine Arbeit einen richtigen Lohn und nicht nur ein Taschengeld. Darum suchte er sich eine Arbeit als „Ungelernter“ im Hafen. Hier kam Thälmann bereits als Zehnjähriger mit den Hafenarbeitern in Kontakt, als sie vom November 1896 bis Februar 1897 im Hamburger Hafenarbeiterstreik die Arbeit niederlegten. Der Arbeitskampf wurde von allen Beteiligten erbittert geführt. Er selbst schrieb 1936 aus dem Gefängnis an seine Tochter, dass „der große Hafenarbeiterstreik in Hamburg vor dem Kriege, […] der erste sozialpolitische Kampf“ gewesen sei, „der sich für immer in […] (sein) Herz“ eingeprägt habe. Der (sozial)politische Inhalt der Gespräche der Hafenarbeiter soll ihn sehr geprägt haben. Anfang 1902 verließ er im Streit das Elternhaus und kam zunächst in einem Obdachlosenasyl unter, später in einer Kellerwohnung. Ab 1904 fuhr er als Heizer auf dem Frachter "AMERIKA" zur See, unter anderem in die USA. Hier war er 1910 in der Nähe von New York für kurze Zeit als Landarbeiter tätig. In den Jahren bis zum Ersten Weltkrieg betätigte sich Thälmann als konsequenter Streiter für die Interessen der Hamburger Hafenarbeiter. Von 1913 bis 1914 arbeitete er als Kutscher für eine Wäscherei. Kriegsdienst. Anfang 1915 wurde er zum Kriegsdienst bei der Artillerie eingezogen und kam an die Westfront, an der er bis zum Kriegsende als Kanonier kämpfte. Zweimal kam er nach Verwundungen in Lazarette in Köln und Bayreuth. Er selbst gab an, an folgenden Schlachten und Gefechten teilgenommen zu haben: Schlacht in der Champagne (1915–1916), Schlacht an der Somme (1916), Schlacht an der Aisne, Schlacht von Soissons, Schlacht von Cambrai (1917) und Schlacht bei Arras. Familie. Thälmanns Vater, Johannes Thälmann ("Jan" genannt; * 11. April 1857; † 31. Oktober 1933), wurde in Weddern in Holstein geboren und arbeitete dort als Knecht. Die Mutter Thälmanns, Maria-Magdalene (geb. "Kohpeiss"; * 8. November 1857; † 9. März 1927), kam im vierländischen Kirchwerder als Tochter eines Zimmermanns zur Welt. Die Hochzeit fand 1884 in Hamburg statt. Dort verdiente sich Johannes Thälmann sein Geld zunächst als Speditionskutscher. Die Eltern waren parteilos; im Unterschied zum Vater war die Mutter tief religiös. Nach der Geburt ihres Sohnes Ernst übernahmen die Eltern eine Kellerwirtschaft in der Nähe des Hamburger Hafens. Am 4. April 1887 wurde Frieda, die Schwester von Ernst Thälmann geboren († 8. Juli 1967 in Hamburg). Im März 1892 wurden die Eltern Thälmanns wegen Hehlerei zu zwei Jahren Zuchthaus verurteilt, weil sie entwendete Waren gekauft oder für Schulden in Zahlung genommen hatten. Thälmann und seine jüngere Schwester Frieda wurden getrennt und in unterschiedliche Familien zur Pflege gegeben. Die Eltern wurden jedoch vorzeitig aus der Haft entlassen (die Mutter im Mai und der Vater im Oktober 1893). Die Straftat seiner Eltern wurde noch 36 Jahre später im Wahlkampf gegen Ernst Thälmann verwendet. Den politischen Gegnern kam es gelegen, dass schon der Vater ein „Zuchthäusler“ gewesen war. Wenige Tage vor Beginn seines Kriegsdienstes heiratete er am 13. Januar 1915 Rosa Koch. Aus dieser Ehe ging die Tochter Irma Thälmann hervor. In einem neueren Buch findet sich der Hinweis, Irma sei „nicht die einzige Nachkommin ihres Vaters“. Weitere Angaben werden dort aber nicht gemacht. Betätigung in SPD und USPD. Ergebnis des ersten Wahlgangs zur Reichspräsidentenwahl 1925 Ergebnis des zweiten Wahlgangs zur Reichspräsidentenwahl 1925 Thälmann wurde am 15. Mai 1903 Mitglied der SPD. Am 1. Februar 1904 trat er dem "Zentralverband der Handels-, Transport- und Verkehrsarbeiter Deutschlands" bei, in dem er zum Vorsitzenden der "Abteilung Fuhrleute" aufstieg. 1913 unterstützte er eine Forderung von Rosa Luxemburg nach einem Massenstreik als Aktionsmittel der SPD zur Durchsetzung politischer Forderungen. Im Oktober 1918 desertierte Thälmann gemeinsam mit vier befreundeten Soldaten, indem er aus dem Heimaturlaub nicht mehr an die Front zurückkehrte, und trat Ende 1918 der USPD bei. In Hamburg beteiligte er sich am Aufbau des Hamburger Arbeiter- und Soldatenrates. Ab März 1919 war er Vorsitzender der USPD in Hamburg und Mitglied der Hamburger Bürgerschaft. Gleichzeitig arbeitete er als Notstandsarbeiter im Hamburger Stadtpark, dann fand er eine gut bezahlte Stelle beim Arbeitsamt. Hier stieg er bis zum Inspektor auf. Ende November 1920 schloss sich der mitgliederstarke linke Flügel der USPD der Kommunistischen Internationale (Komintern) an und vereinigte sich damit mit deren deutscher Sektion, der KPD. Diese firmierte daraufhin für die folgenden zwei Jahre auch unter dem Alternativnamen Vereinigte Kommunistische Partei Deutschlands (VKPD). Thälmann war der wichtigste Befürworter dieser Vereinigung in Hamburg. Auf sein Betreiben hin traten 98 Prozent der Mitglieder der Hamburger USPD der KPD bei. Übertritt in die KPD. Im Dezember wurde er in den Zentralausschuss der KPD gewählt. Am 29. März 1921 wurde er wegen seiner politischen Tätigkeit vom Dienst im Arbeitsamt fristlos entlassen, nachdem er unerlaubt seinem Arbeitsplatz ferngeblieben war. Er war einem Aufruf der KPD gefolgt, sich der März-Aktion anzuschließen. Im Sommer des Jahres 1921 fuhr Thälmann als KPD-Vertreter zum III. Kongress der Komintern nach Moskau und lernte dort Lenin kennen. Am 17. Juni 1922 wurde ein rechtsradikales Attentat auf seine Wohnung verübt, um Thälmann zu ermorden. Angehörige der nationalistischen Organisation Consul warfen eine Handgranate in seine Parterrewohnung in der Hamburger Siemssenstraße 4. Seine Frau und seine Tochter blieben unverletzt. Thälmann selbst kam erst später heim. Hamburger Aufstand. Das Scheitern des Aufstandes wurde vor allem den ehemaligen KPD-Vorsitzenden und „Rechtsabweichlern“ Heinrich Brandler und August Thalheimer vorgeworfen. Die fehlende Bolschewisierung sei schuld an der Niederlage gewesen. Zu einem ähnlichen Schluss kam Georgi Dimitrow nach dem gescheiterten „Antifaschistischen Septemberaufstand“ 1923 in Bulgarien. Parteivorsitzender. Ab Februar 1924 war er stellvertretender Vorsitzender und ab Mai Reichstagsabgeordneter der KPD. Unter seiner Führung schwor die Partei nach und nach die Einflüsse Rosa Luxemburgs ab, was sich in der unkritischen Solidarität Stalins bemerkbar machte. Die Entwicklung der bolschewistischen Partei in der Sowjetunion, die sich mehr auf Stalin und seine gesonderte Interpretation des Kommunismus konzentrierte, machte sich auch unter ihm in der KPD bemerkbar. Den Posten im Reichstag hatte Thälmann bis zum Ende der Weimarer Republik inne. Im Sommer 1924 wurde er auf dem V. Kongress der Komintern in ihr Exekutivkomitee und kurze Zeit später ins Präsidium gewählt. Am 1. Februar 1925 wurde er Vorsitzender des Roten Frontkämpferbundes und am 1. September des Jahres Vorsitzender der KPD, als Nachfolger von Ruth Fischer, die kurze Zeit später als „ultralinke Abweichlerin“ aus der KPD ausgeschlossen wurde. Thälmann kandidierte bei der Reichspräsidentenwahl 1925 auch für das Amt des Reichspräsidenten. Obwohl er im ersten Wahlgang nur sieben Prozent der Stimmen bekommen hatte, hielt er seine Kandidatur auch für den zweiten Wahlgang aufrecht. In diesem Zusammenhang wurde Thälmann vorgeworfen, dass sein Wahlergebnis von 6,4 Prozent dem Kandidaten der bürgerlichen Partei, Wilhelm Marx (45,3 Prozent), fehlten und den Sieg des Monarchisten Paul von Hindenburg mit 48,3 Prozent ermöglichten. Im Oktober 1926 unterstützte Thälmann in Hamburg den dortigen Hafenarbeiterstreik. Er sah dies als Ausdruck der Solidarität mit einem englischen Bergarbeiterstreik, der seit dem 1. Mai anhielt und sich (positiv) auf die Konjunktur der Unternehmen im Hamburger Hafen auswirkte. Thälmanns Absicht war, dieses „Streikbrechergeschäft“ von Hamburg aus zu unterbinden. Am 22. März 1927 beteiligte sich Ernst Thälmann an einer Demonstration in Berlin, wo er durch einen streifenden Säbelhieb über dem rechten Auge verletzt wurde. 1928 fuhr Thälmann nach dem VI. Kongress der Komintern in Moskau nach Leningrad, wo er zum Ehrenmitglied der Besatzung des Kreuzers "Aurora" ernannt wurde. Wittorf-Affäre. Bei der Rückkehr vom VI. Weltkongress berichtete Thälmann Wilhelm Florin über die Veruntreuung von Parteigeldern in Höhe von mindestens 1.500 Mark seitens des Politischen Sekretärs des KPD-Bezirks Wasserkante, John Wittorf. Bei dieser Gelegenheit gab er zu, bereits seit Mai von der Unterschlagung gewusst zu haben, sie jedoch verschwiegen zu haben, um Schaden von der Partei im Rahmen der Reichstagswahl 1928 abzuwenden. Wittorf hatte seit 1927 seine Funktion im Bezirk Wasserkante inne, war seit dem 11. Parteitag Mitglied im ZK und seit Mai 1928 neu gewählter Reichstagsabgeordneter. Willy Presche, Ludwig Ries und John Schehr waren auf die Unterschlagung aufmerksam geworden und baten um ein Gespräch Thälmanns mit Wittorf. Er konnte Wittorf davon überzeugen Schuldscheine auszustellen und über diese das Geld der Partei zurückzuzahlen. Am Abend des 26. September 1928 schloss das Zentralkomitee der Partei den Hamburger Wittorf aus der Partei aus und entfernte ihn von allen politischen Ämtern. Die Parteirechte – die "Versöhnler" – forderte sogar den Ausschluss Thälmanns aus der Partei. Dieser beantragte – den Statuten entsprechend – eine Diskussion im Exekutivkomitee der Kommunistischen Internationalen (EKKI) und bekannte sich zu seinen Fehlern in der Wittorf-Affäre. Am Ende der ZK-Sitzung fokussierte man eine öffentliche Parteidiskussion, indem man einen Text über Thälmanns Verfehlungen im Partei-Organ "Die Rote Fahne" platzierte. In der Druckerei zog man in Erwägung, den Text nicht abzudrucken. Thälmann wurde all seiner Ämter enthoben. Weitergehende Anträge waren der Ausschluss von Presche, Ries und Schehr, die Thälmann auf die Unterschlagung Wittorfs hinwiesen, die Einberufung eines Sonderparteitags, die Umformung des Zentralkomitees mit der Einbeziehung von Heinrich Brandler und August Thalheimer in die Parteiarbeit und die Einstellung der "Hetze" gegen die "Rechten" in der Partei. Es wurde versucht, die Affäre auszunutzen, um einen Putsch innerhalb der Partei durchzuführen und die Beschlüsse des 11. Parteitags in Essen zu revidieren. Es kam zu Protesten innerhalb der Partei und der "Roten Fahne". Das EKKI setzte Thälmann am 6. Oktober nach einer Intervention Stalins wieder in seine Parteifunktionen ein. Stalin verurteilte die Fraktionsbildung innerhalb der KPD, die Lenin schon in seinem Werk "Was tun?" kritisiert hatte und die bei den Mitgliedsparteien der KI verboten war, obgleich die Broschüre sich auf die besondere Rolle der Parteien im damaligen zaristischen System konzentrierte, da eine legale Parteiarbeit unmöglich erschien. Des Weiteren wurden die Beschlüsse des Essener Parteitags durch das EKKI bestätigt, der Ausschluss Wittorfs und die fehlerhafte Haltung Thälmanns bestätigt. Dem EKKI-Präsidium lag ein Telegramm vor, das am 5. Oktober Otto Kuusinen zugegangen war. Darin distanzierten sich 25 Mitglieder des deutschen ZK von dessen am 26. September gefassten Beschluss gegen Thälmann. Philipp Dengel, der als Sekretär des ZK den Vorsitz mit Thälmann innehatte und ebenfalls für dessen Absetzung stimmte, wurde auf dem nachfolgenden Parteitag der KPD nicht wieder bestätigt und war nur einfaches Mitglied im ZK. Thälmann besaß nun den alleinigen Vorsitz der Partei. Daraufhin kehrte Heinrich Brandler, der bis dahin im "Moskauer Ehrenexil" weilte, zusammen mit Thalheimer zurück und gründete als kommunistische Gegenspielerin die KPD-O, woraufhin alle Beteiligten aus der KPD ausgeschlossen wurden. In den nachfolgenden Wochen wurde in den KPD-Bezirken in Sitzungen der Bezirksleitungen und Parteiarbeiterkonferenzen die Resolution der EKKI diskutiert und zur Abstimmung gestellt. Die parteiinterne Abstimmung ergab eine "dominierende Majorität in der Partei". Die Affäre samt ihrem Widerhall in der Öffentlichkeit schadete der KPD in ihrer Kampagne für einen Volksentscheid gegen den angestrebten Panzerschiffsbau der SPD-Regierung, den sie in der Opposition zuvor bekämpft hatte. Kampf gegen die SPD. Wahlwerbung an Weimarer Hauswand Trierer Straße Ecke Richard-Wagner-Straße a> über die illegale Sitzung im Februar 1933 Ernst Thälmann auf einer DDR-Briefmarke Auf dem 12. Parteitag der KPD vom 9. bis 15. Juni 1929 in Berlin-Wedding ging Thälmann angesichts der Ereignisse des Blutmai, der sich dort zuvor zugetragen hatte, auf deutlichen Konfrontationskurs zur SPD. Neben innenpolitischem Engagement setzte er sich auch für außenpolitische und nationale Belange ein, insbesondere kritisierte er die Nationalsozialisten, die nicht für die Anträge der KPD stimmten, die einen Austritt aus dem Völkerbund und eine Beseitigung der Reparationslasten forderten. So schrieb er in einem Brief in der "Neuen Deutschen Bauernzeitung Nr. 4 von 1931": „Die nationalsozialistischen und deutschnationalen Betrüger versprachen euch Kampf zur Zerreißung des Youngplanes, Beseitigung der Reparationslasten, Austritt aus dem Völkerbund, aber sie wagten nicht einmal, im Reichstag für den kommunistischen Antrag auf Einstellung der Reparationszahlungen, Austritt aus dem Völkerbund zu stimmen.“ In dem Brief betont er auch seine nationalen Absichten mit „Vorwärts zur nationalen und sozialen Befreiung!“ Am 13. März 1932 kandidierte er neben Adolf Hitler und Theodor Duesterberg (welcher aber nach dem ersten Wahldurchgang seine Kandidatur zurückzog) für das Amt des Reichspräsidenten gegen Hindenburg. Wahlspruch der KPD war: „Wer Hindenburg wählt, wählt Hitler, wer Hitler wählt, wählt den Krieg.“ Gegen den stärker werdenden Nationalsozialismus propagierte er kurze Zeit später eine „Antifaschistische Aktion“ als „Einheitsfront von unten“, also unter Ausschluss der SPD-Führung. Dieses Vorgehen entsprach der Sozialfaschismusthese der Komintern. Die Zerschlagung der SPD blieb ein zentrales Ziel der KPD. Die Antifaschistische Aktion diente auch dazu, deren Führer als Verräter der Arbeiterklasse zu „entlarven“. Nach der Reichstagwahl im November 1932, bei der die NSDAP eine empfindliche Stimmeneinbuße verzeichnete, schienen die Nationalsozialisten auf einem absteigenden Ast. Thälmann verschärfte den Kampf der KPD gegen die Sozialdemokratie im Gegenzug abermals. Als der NSDAP am 30. Januar 1933 die Macht übertragen wurde, schlug Thälmann der SPD einen Generalstreik vor, um Hitler zu stürzen, doch dazu kam es nicht mehr. Am 7. Februar des Jahres fand im Sporthaus Ziegenhals bei Königs Wusterhausen eine vom ZK einberufene Tagung der politischen Sekretäre, ZK-Instrukteure und Abteilungsleiter der KPD statt. Auf dem von Herbert Wehner vorbereiteten Treffen sprach Thälmann zum letzten Mal vor leitenden KPD-Funktionären zu der am 5. März 1933 bevorstehenden Reichstagswahl und bekräftigte die Notwendigkeit eines gewaltsamen Sturzes Hitlers durch das Zusammengehen aller linken und liberalen Parteien zu einer Volksfront. Verhaftung in Berlin. Am Nachmittag des 3. März 1933 wurde Thälmann zusammen mit seinem persönlichen Sekretär Werner Hirsch in der Wohnung der Eheleute Hans und Martha Kluczynski in Berlin-Charlottenburg (Lützower Straße 9, heute Alt-Lietzow 11) durch acht Beamte des Polizeireviers 121 festgenommen. Dem war eine gezielte Denunziation durch Hermann Hilliges, Gartennachbar der Kluczynskis in Gatow, vorausgegangen. In den Tagen zuvor hatten allerdings noch mindestens vier weitere Personen ihr Wissen über die Verbindung Kluczynski-Thälmann an die Polizei weitergegeben. Die Unterkunftsmöglichkeit in der Lützower Straße hatte Thälmann schon seit einigen Jahren gelegentlich und nun wieder seit Januar 1933 genutzt; sie zählte zwar nicht zu den sechs illegalen Quartieren, die der M-Apparat für Thälmann vorbereitet hatte, galt aber nicht als polizeibekannt. Thälmann hatte am 27. Februar eine Sitzung des Politbüros in einem Lokal in der Lichtenberger Gudrunstraße geleitet und war bei seiner Rückkehr über den Brand des Reichstages und die schlagartig einsetzenden Massenverhaftungen kommunistischer Funktionäre informiert worden. In den nächsten Tagen verließ er die Wohnung nicht mehr und stand nur noch über Mittelsmänner mit der restlichen Parteiführung in Verbindung. Die in der älteren Literatur gelegentlich anzutreffende Angabe, Thälmann habe auf Drängen führender Genossen eingewilligt, am 5. März ins Exil zu gehen, wird von der neueren Forschung angezweifelt. Für den 3. März plante Thälmann den Wechsel in eines der vorbereiteten illegalen Quartiere, ein Forsthaus bei Wendisch Buchholz. Beim Packen der Koffer wurde er von der Polizei überrascht. Thälmanns Festnahme war rechtswidrig, da seine nach Artikel 40a der Reichsverfassung als Mitglied des Ausschusses zur Wahrung der Rechte der Volksvertretung gewährleistete Immunität auch durch die Reichstagsbrandverordnung nicht aufgehoben worden war. Erst am 6. März stellte ein Berliner Staatsanwalt „im Interesse der öffentlichen Sicherheit“ einen – formell ebenfalls rechtswidrigen – Haftbefehl aus, der dann einfach rückdatiert wurde. Einige Ungereimtheiten im Zusammenhang mit der die KPD stark verunsichernden Festnahme Thälmanns waren nach 1933 bereits Gegenstand von parteiinternen Untersuchungen. Zu diesen Auffälligkeiten zählte etwa, dass Thälmann trotz der offenen Verfolgung der Partei wochenlang ein- und dieselbe, für eine derartige Situation nicht vorgesehene Wohnung genutzt hatte, vor allem aber der erstaunliche Umstand, dass weder das Gebäude noch die Wohnung selbst von Angehörigen des Parteiselbstschutzes gesichert worden war. Dadurch liefen nach einigen Stunden auch noch Erich Birkenhauer, Thälmanns politischer Sekretär, und Alfred Kattner, der persönliche Kurier des Parteichefs, in die Arme der Polizei. Bei den KPD-Ermittlungen geriet insbesondere Hans Kippenberger ins Zwielicht, der als Leiter des M-Apparats die Verantwortung für die Sicherheit des Parteichefs trug und mit Blick auf die Ereignisse des 3. März auch ausdrücklich übernahm („eine Katastrophe und eine Schande vor der ganzen Internationale“ so Kippenberger). In den folgenden Jahren kam es dennoch wiederholt zu Vertuschungsversuchen und gegenseitigen Verdächtigungen der mittel- und unmittelbar beteiligten Personen, die noch durch gezielte Desinformationsmaßnahmen und vor allem durch weitere Verhaftungserfolge der Gestapo angeheizt wurden. Dieser war es gelungen, Kattner in der Haft „umzudrehen“ und mit dessen Hilfe am 9. November 1933 den Thälmann-Nachfolger John Schehr sowie am 18. Dezember auch Hermann Dünow, der Kippenberger abgelöst hatte, festzunehmen. Kattner, dem von der Gestapo obendrein eine tragende Rolle im geplanten Prozess gegen Thälmann zugedacht worden war, wurde am 1. Februar 1934 in Nowawes von Hans Schwarz, einem Mitarbeiter des M-Apparats, erschossen. Birkenhauer, dem Thälmann die Schuld an der Verzögerung seines Quartierwechsels und damit an seiner Festnahme gegeben hatte, und Kippenberger wurden im sowjetischen Exil hingerichtet, Hirsch kam in sowjetischer Haft ums Leben. Die nationalsozialistische Justiz plante zunächst, Thälmann einen Hochverrats-Prozess zu machen. Hierfür sammelte sie intensiv Material, das die behauptete „Putschabsicht“ der KPD beweisen sollte. Ende Mai 1933 wurde Thälmanns „Schutzhaft“ aufgehoben und eine formelle Untersuchungshaft angeordnet. In diesem Zusammenhang wurde er vom Polizeipräsidium am Alexanderplatz in die Untersuchungshaftanstalt Moabit verlegt. Dieser Ortswechsel durchkreuzte den ersten einer Reihe von unterschiedlich konkreten Plänen, Thälmann zu befreien. Thälmann wurde 1933 und 1934 mehrfach von der Gestapo in deren Zentrale in der Prinz-Albrecht-Straße verhört und dabei auch misshandelt. Bei einem Verhör am 8. Januar schlug man ihm vier Zähne aus, anschließend traktierte ihn ein Vernehmer mit einer Nilpferdpeitsche. Am 19. Januar suchte Hermann Göring den zerschundenen Thälmann auf und ordnete seine Rückverlegung in das Untersuchungsgefängnis Moabit an. Die in dieser Phase entstandenen Verhörprotokolle wurden bis heute nicht aufgefunden und gelten als verloren. Thälmann blieb unterdessen lange ohne Rechtsbeistand; der jüdische Anwalt Friedrich Roetter, der sich seiner angenommen hatte, wurde nach kurzer Zeit aus der Anwaltschaft ausgeschlossen und selbst in Haft genommen. 1934 übernahmen die Rechtsanwälte Fritz Ludwig (ein NSDAP-Mitglied) und Helmut R. Külz die Verteidigung Thälmanns. Vor allem Ludwig, der für ihn Kassiber aus der Zelle bzw. Zeitungen und Bücher in die Zelle schmuggelte sowie die als Geheime Reichssache deklarierte Anklageschrift an Unterstützer im Ausland weiterleitete, vertraute Thälmann sehr. Über die Anwälte – daneben auch über Rosa Thälmann – lief ein Großteil der verdeckten Kommunikation zwischen Thälmann und der KPD-Führung. Mit Rücksicht auf das Ausland, vor allem aber, weil die Beweisabsicht der Staatsanwaltschaft erkennbar wenig gerichtsfest war und ein mit dem Reichstagsbrandprozess vergleichbares Desaster vermieden werden sollte, einigten sich die beteiligten Behörden im Laufe des Jahres 1935, von einer „justizmäßigen Erledigung“ Thälmanns Abstand zu nehmen. Am 1. November 1935 hob der II. Senat des Volksgerichtshofes die Untersuchungshaft auf (ohne das Verfahren als solches einzustellen) und überstellte Thälmann gleichzeitig als „Schutzhäftling“ an die Gestapo. 1935/36 erreichte die internationale Protestbewegung gegen die Inhaftierung Thälmanns einen Höhepunkt. Zu seinem 50. Geburtstag am 16. April 1936 bekam er Glückwünsche aus der ganzen Welt, darunter von Maxim Gorki, Heinrich Mann, Martin Andersen Nexø und Romain Rolland. Im selben Jahr begann der Spanische Bürgerkrieg. Die XI. Internationale Brigade und ein ihr untergliedertes Bataillon benannten sich nach Ernst Thälmann. Gefängnis und Zuchthaus. 1937 wurde Thälmann von Berlin in das Gerichtsgefängnis Hannover als „Schutzhäftling“ überführt. Thälmann bekam später eine größere Zelle, in der er jetzt Besuch empfangen konnte. Dies war ein Vorwand, um Thälmann in der Zelle abzuhören. Allerdings wurde ihm die Information über das heimliche Abhören zugespielt. Um sich dennoch frei „unterhalten“ zu können, nutzten er und seine Besucher kleine Schreibtafeln und Kreide. Als Deutschland und die Sowjetunion 1939 ihre Beziehungen verbessert hatten (Hitler-Stalin-Pakt), setzte Stalin sich offenbar nicht für Thälmanns Freilassung ein. Nach der Befreiung seiner Familie durch die Rote Armee erfuhren die Angehörigen sogar, dass Thälmanns Rivale Walter Ulbricht alle ihre Bitten ignoriert und nicht für die Befreiung von Thälmann Position bezogen hatte. Anfang 1944 schrieb Ernst Thälmann in Bautzen seine heute noch erhaltene "Antwort auf die Briefe eines Kerkergenossen." Ermordung in Buchenwald. Die genauen Umstände von Thälmanns Tod sind unklar und in der Forschung bis heute umstritten. Ein möglicher Hergang ist, dass Thälmann am 17. August 1944 durch zwei Gestapo-Beamte aus dem Zuchthaus Bautzen ins KZ Buchenwald gebracht wurde, wo er ohne Gerichtsverfahren auf Befehl Adolf Hitlers erschossen wurde. Dies könnte am frühen Morgen des 18. August in einem Heizungskeller nahe dem Krematorium geschehen und seine Leiche im Anschluss sofort verbrannt worden sein. So berichten Zeugen, dass am Nachmittag des 17. August auf Befehl sofort ein Verbrennungsofen anzuheizen war und die Asche nach der Verbrennung dunkel gewesen sei, was auf eine Verbrennung mit Kleidung zurückzuführen wäre. Eine andere Version schilderte der Buchenwald-Gefangene Walter Hummelsheim 1945: Thälmann sei erst vier oder fünf Tage nach der Bombardierung des Lagers am 24. August 1944, zusammen mit neun anderen Kommunisten, in der Stallanlage des Lagers erschossen worden. Die dort Ermordeten seien nie in die offiziellen Lagerlisten aufgenommen worden. Der polnische Häftling Marian Zgoda soll die Tat sogar – versteckt hinter einem Schlackehaufen – direkt beobachtet haben. Zgoda sagte vor dem Landgericht Krefeld aus, er habe gehört, einer der Schützen habe die Frage eines anderen bejaht, ob es sich bei dem Erschossenen um Thälmann handele. Bei einem der mutmaßlichen Täter sollte es sich dieser Aussage nach um den SS-Stabsscharführer Wolfgang Otto gehandelt haben. Nach einem mehrjährigen Verfahren wurde Otto im Jahre 1988 in der Bundesrepublik freigesprochen. Auch der SS-Oberscharführer Werner Berger und der SS-Obersturmführer Erich Gust werden mit der Ermordung Thälmanns in Verbindung gebracht. Nach neueren Forschungen ist es ebenso möglich, dass er von dem Buchenwalder Berufsverbrecher und Kapo Müller getötet oder sogar noch in Bautzen ermordet wurde. Eine weitere Version besagt, dass der Mordbefehl absolute Geheimhaltung forderte, weshalb der Lagerkommandant in Buchenwald kein SS-Exekutionskommando bestellte, sondern dem Transportkommando, das Thälmann gebracht hatte, befahl, ihn an Ort und Stelle zu erschießen. Ehrendes Gedenken. Seit 1992 erinnert im Berliner Ortsteil Tiergarten an der Ecke Scheidemannstraße / Platz der Republik eine der 96 Gedenktafeln zur Erinnerung an von den Nationalsozialisten ermordete Reichstagsabgeordnete an Thälmann. Gedenktafel am Karl-Liebknecht-Haus in Berlin Die Gedenktafel im Hof des Krematoriums des ehemaligen Konzentrationslagers Buchenwald, 1953 a> 2009 (seit 2012 vorerst im Museum eingelagert) Neben der Benennung von Einheiten der Internationalen Brigaden (siehe Thälmann-Bataillon) nach Ernst Thälmann noch zu seinen Lebzeiten wurde 1948 in der SBZ die „Pionierorganisation Ernst Thälmann“ gegründet, der dieser Name 1952 offiziell verliehen wurde. Pioniere der älteren Jahrgänge (etwa zehn bis 14 Jahre) wurden „Thälmann-Pioniere“ genannt. Viele Arbeitskollektive, Schulen, Straßen (siehe Ernst-Thälmann-Straße), Plätze, Orte bzw. Siedlungen und Betriebe in der DDR, wie als eines der bekanntesten Beispiele der VEB SKET (Schwermaschinenbaukombinat Ernst Thälmann) oder die Offiziershochschule der Landstreitkräfte der NVA, trugen ebenfalls seinen Namen. Auch wurde die Ernst-Thälmann-Insel in der kubanischen Schweinebucht nach ihm benannt. Am 30. November 1949 wurde der Berliner Wilhelmplatz feierlich in Thälmannplatz umbenannt. Auch die angrenzende U-Bahn-Station bekam den Namen Thälmannplatz. In den 1980er Jahren wurde in Berlin im Prenzlauer Berg der Ernst-Thälmann-Park angelegt, dazu wurde ein großes Ernst-Thälmann-Denkmal des sowjetischen Bildhauers Lew Kerbel errichtet. Daneben gibt es weitere Ernst-Thälmann-Denkmäler. Auch in Hamburg wurde eine Straße nach ihm benannt. Nach der blutigen Niederschlagung des Aufstandes in Budapest 1956 wurde die Straße allerdings in Budapester Straße umbenannt, da man in dieser Zeit keine westdeutsche Straße nach Kommunisten benannt haben wollte. Jedoch gibt es die „Gedenkstätte Ernst Thälmann“ in seinem Wohnhaus am heutigen Ernst-Thälmann-Platz in Hamburg-Eppendorf. Außerdem gab es noch die inzwischen abgerissene Ernst-Thälmann-Gedenkstätte Sporthaus Ziegenhals bei Berlin. Dort bot er 1933 in seiner "Ziegenhals-Rede" der SPD die „Antifaschistische Aktion“ als Einheitsfront gegen den deutschen Faschismus an. Eine weitere Thälmann-Gedenkstätte befindet sich im Kleistpark Frankfurt (Oder). In Dresden gibt es eine Ernst-Thälmann-Gedenkstätte im Stadtteil Strehlen. In der Gedenkstätte der Sozialisten auf dem Berliner Zentralfriedhof Friedrichsfelde ist eine Inschrift für Thälmann im zentralen Rondell angebracht, mit der er symbolisch geehrt wird. Seine Grabstätte wird durch diese nicht gekennzeichnet. Seit dem 24. Juli 2009 erinnert vor seinem letzten Wohnhaus in der Tarpenbekstraße in Hamburg-Eppendorf ein Stolperstein an Ernst Thälmann. Am 8. Juni 2012 wurden vor dem Hamburger Rathaus Stolpersteine für die ermordeten Mitglieder der Hamburgischen Bürgerschaft verlegt, darunter auch ein weiterer für Ernst Thälmann. Seinen Namen trugen drei Ausbildungsschiffe der GST-Marineschule „August Lütgens“ Greifswald-Wieck: Die mit 150 m² Segelfläche größte GST-Yacht, der Seekreuzer „Ernst Thälmann“, späterer Name „Ernst Schneller“, das ehemalige MLR vom Typ „Habicht“ und Rettungsschiff „R-11“ der Volksmarine, das nach Umbau anschließend von 1968 bis 1977 als GST-Motorschulschiff „Ernst Thälmann“ (I) im Einsatz war, und der moderne Nachfolger des Schiffes, das MSR „Anklam“ der Volksmarine, das als MSS „Ernst Thälmann“ (II) von 1977 bis 1989 als Schulschiff fuhr und 1990 nach Dänemark verkauft wurde. Während zu DDR-Zeiten tausende Deutsche Ernst Thälmanns gedachten, kamen an seinem 125. Geburtstag im Jahr 2011 in Hamburg nur noch knapp 100 Gäste zusammen. Egon Krenz als Ehrengast würdigte die Leistung Thälmanns mit den Worten „Er blieb ein Kämpfer, sich und seiner Sache treu, bis in den Tod.“ und beklagte gleichzeitig, dass die Verdienste Thälmanns nicht mehr gewürdigt werden. Aus Moskau kamen an diesem Tag „solidarisch kämpferische Grüße“ vom Ukrainischen Bund der sowjetischen Offiziere. Kontroversen. Schon zu Lebzeiten wurde Thälmann auch von der Linken zum Teil scharf kritisiert. Die damalige KPD-Führung stand dem unter seiner Führung stehenden Hamburger Aufstand kritisch gegenüber. In seiner Zeit als Chef der KPD unterwarf Thälmann die deutschen Kommunisten der Hegemonie der Kommunistischen Partei der Sowjetunion. Anhänger eines unabhängigen Kurses wurden aus der Partei gedrängt. Clara Zetkin, die im April 1925 mit ihrer Polemik gegen Thälmanns Amtsvorgängerin Ruth Fischer vor dem Exekutivkomitee der Komintern mithalf, diesen an die Spitze der Partei zu bringen, charakterisierte die KPD unter Thälmann im September 1927 als „schwach und unfähig“, geprägt durch „Herausbildung kleiner Kliquen, persönliches Intrigieren, Gegeneinanderarbeiten“. Einem scheinbar hilflosen Thälmann attestiert sie, dass er „… kenntnislos und theoretisch ungeschult ist, in kritiklose Selbsttäuschung und Selbstverblendung hineingesteigert wurde, die an Größenwahnsinn grenzt und der Selbstbeherrschung mangelt …“ Die Strategie der KPD während der Weimarer Republik, in der SPD einen Hauptfeind zu sehen (These vom Sozialfaschismus), wird oft als Schwächung der antifaschistischen Kräfte gesehen. Auch ein maßgeblicher Kommunismus-Forscher wie Hermann Weber urteilt kritisch: „Thälmann muss bei allem Respekt für seine Standhaftigkeit in Hitlers Kerker nachgesagt werden, dass er nur ein Provinzpolitiker mit demagogischem Talent war.“ Klaus Schroeder, der Leiter des "Forschungsverbundes SED-Staat an der Freien Universität Berlin", stellt in dem Artikel "Warum wir Thälmann nicht ehren sollten" fest, dass der „KPD-Führer ein Gegner der Demokratie“ war. Musikalische Rezeption. Der Komponist Günter Kochan komponierte 1959 die Kantate "Ernst Thälmann" für gemischten Chor und Orchester (Text: Max Zimmering). Der britische Komponist Cornelius Cardew schrieb 1975 die "Thälmann Variations" für Klavier Solo. Das Stück wurde aber nicht früher als 1986 veröffentlicht. El Niño. El Niño (span. für „der Junge, das Kind“, hier konkret: „das Christuskind“) nennt man das Auftreten ungewöhnlicher, nicht zyklischer, veränderter Strömungen im ozeanographisch-meteorologischen System ("El Niño-Southern Oscillation", ENSO) des äquatorialen Pazifiks. Der Name ist vom Zeitpunkt des Auftretens abgeleitet, nämlich zur Weihnachtszeit. Er stammt von peruanischen Fischern, die den Effekt aufgrund der dadurch ausbleibenden Fischschwärme wirtschaftlich zu spüren bekommen. Ablauf. Zur normalen Weihnachtszeit beträgt die Wassertemperatur im Pazifik vor Indonesien 28 °C, die vor der Küste Perus dagegen nur 24 °C. Durch die Passatwinde kommt es vor Peru zum Auftrieb von kühlem Wasser aus den Tiefen des Ozeans. Dieser Auftrieb ist Teil des Humboldtstroms vor der Küste Südamerikas. Bei El Niño kommt es zu einem geringeren Auftrieb durch die schwächeren Passatwinde und somit wird der kalte Humboldtstrom allmählich schwächer und kommt zum Erliegen. Das Oberflächenwasser vor der Küste Perus erwärmt sich so sehr, dass die obere Wasserschicht nicht mehr mit dem kühlen und nährstoffreichen Tiefenwasser durchmischt wird. Deshalb kommt es zum Absterben des Planktons, das zum Zusammenbruch ganzer Nahrungsketten führt. Der Ostpazifik vor Südamerika erwärmt sich, während vor Australien und Indonesien die Wassertemperatur absinkt. Aufgrund der im Normalfall erhöhten Temperatur im Westpazifik kommt es zu einer Luftdruckabnahme und im kälteren Ostpazifik zur Bildung eines Hochdruckgebiets. Dadurch entstehen bodennahe Ostwinde, die warmes Oberflächenwasser aus dem Pazifik vor Südamerika in Richtung Westen nach Indonesien schieben. Während eines El Niños wird diese Luftzirkulation, genannt "Walker-Zirkulation", umgekehrt. Dabei strömt innerhalb von ca. drei Monaten die Warmwasserschicht von Südostasien nach Südamerika. Die Ostwinde begünstigen die Kelvinwellen, die durch den schwachen Passat nun Wasser in östliche Richtung treiben und dort den Wasserstand um ca. 30 cm erhöhen. El Niño ist ein natürliches Klimaphänomen; in den letzten Jahren stoppt die warme Meeresschicht weiter vor der Küste. Ob dies im Zusammenhang mit dem anthropogenen Treibhauseffekt oder mit längerfristigen natürlichen Schwankungen des Pazifiks steht, der bei El Niño von einer warmen in eine kalte Phase umschwenkt, ist bisher nicht geklärt. Fernwirkungen. Auswirkungen von El Niño – Dezember 2002, Ocean Beach, San Diego Auf drei Vierteln der Erde werden die Wettermuster beeinflusst. Auf den Galápagos-Inseln und an der südamerikanischen Küste kommt es zu starken Regenfällen. Diese führen zu Überschwemmungen entlang der westlichen Küste Südamerikas. Selbst an der nordamerikanischen Westküste kommt es zu Überschwemmungen. Der Regenwald im Amazonasgebiet leidet dagegen unter Trockenheit. Vor Mexiko können gewaltige Wirbelstürme entstehen, die enorme Schäden anrichten. In Südostasien und Australien kommt es durch den fehlenden Regen zu Buschfeuern und riesigen Waldbränden. Während es in Ostafrika in Ländern wie Kenia und Tansania mehr Regen gibt, ist es in Sambia, Simbabwe, Mosambik und Botswana (südliches Afrika) deutlich trockener. Es kommt zu einem Massensterben von Fischen, Seevögeln und Korallen. Durch die Erwärmung des Meereswassers kommt es zum Absterben des Planktons vor der peruanischen Küste. Hier gibt es in normalen Jahren bis zu zehnmal so viel Fisch wie an anderen Küsten. Bei El Niño finden die Fische nichts mehr zu fressen und wandern ab. Die Robbenkolonien finden keine Nahrung mehr und viele Tiere verhungern. Der wirtschaftliche Schaden für die Menschen ist kaum zu beziffern. Durch die hohen Temperaturen tritt auch in den Gebieten die Korallenbleiche in den Riffen auf, die bisher davon verschont blieben. Europa bleibt bis auf wenige Ausnahmen, wie etwa dem in Europa ungewöhnlich kalten Winter 1941/1942, von den Fernwirkungen El Niños verschont. Allerdings wurde eine Auswirkung auf den kalten und schneereichen Winter 2009/2010 in Europa und Nordamerika diskutiert. Außerdem führt das El-Niño-Phänomen zu Auswirkungen auf den Indischen Monsun – in El-Niño-Jahren ist der Niederschlag stark erhöht, wohingegen der Monsun in La-Niña-Jahren geringeren Niederschlag mit sich bringt. Geschichte. Bedingungen für das Auftreten von El Niño stellten sich innerhalb der letzten 300 Jahre in Zeitabschnitten von zwei bis sieben (oder acht) Jahren ein. Jedoch sind die meisten Niños eher schwach ausgeprägt. Es gibt Hinweise auf sehr starke El-Niño-Ereignisse zu Beginn des Holozäns vor etwa 11.700 Jahren. Größere El-Niño-Ereignisse wurden für die Jahre 1790–1793, 1828, 1876–1878, 1891, 1925/1926, 1972/1973 und 1982/1983 notiert. In der jüngsten Vergangenheit kam es in den Jahren 1983/1984 und 1997/1998 zu größeren Ereignissen. Generell lässt sich aufgrund der derzeit warmen PDO-Phase eine Verschiebung hin zu einem generell positiveren Zustand der ENSO (El Niño-Southern Oscillation) erkennen. Frühzeit der Beobachtung. El Niño beeinträchtigte die vorkolumbianischen Inka und mag sogar zum Untergang der Moche und anderer kolumbianischer und peruanischer Kulturen beigetragen haben. Die erste echte Aufzeichnung stammt aus dem Jahr 1726. Eine weitere frühe Aufzeichnung erwähnt sogar den Ausdruck "El Niño" in Bezug auf Klimaereignisse im Jahr 1892. Sie stammt von Captain Camilo Carrillo aus seinem Bericht auf dem Kongress der geographischen Gesellschaft in Lima, in dem er sagte, dass peruanische Seeleute diese warme nördliche Strömung "El Niño" nannten, da sie in der Zeit um Weihnachten auftrete. Das Phänomen war von langfristigem Interesse, da es sich auf die Guanoindustrie auswirkte und auch auf andere Industriezweige, die biotische Produkte des Meeres nutzten. Charles Todd beobachtete im Jahr 1893, dass Trockenzeiten in Indien und Australien zeitgleich mit dem Phänomen eintraten. Dasselbe hielt auch Norman Lockyer im Jahr 1904 fest. Eine Verbindung mit Überflutungen wurde 1895 von Pezet und Eguiguren ins Feld geführt. 1924 prägte Gilbert Walker (Namensgeber für die Walkerzirkulation) den Begriff "Südliche Oszillation". In den meisten Jahren ist es unwahrscheinlich, dass das Phänomen Auswirkungen bis nach Europa hat. Jedoch gibt es Jahre, in denen das Klima Europas mit einem ENSO-Ereignis zu korrelieren scheint. So sehen manche Studien eine Beziehung zwischen dem besonders harten Winter 1941/42 beim deutschen Russlandfeldzug und El Niño. Hierbei sind möglicherweise eher langskalige Zyklen wie die PDO zu berücksichtigen, als El Niño selbst. Neuere Beobachtungen. Das große El-Niño-Ereignis von 1982/83 führte zu einer starken Belebung des Interesses durch die wissenschaftlichen Kreise. Die Zeit von 1990 bis 1994 war sehr auffällig, da El Niño in diesen Jahren in ungewöhnlich schneller Folge auftrat. Über den Jahreswechsel 1982/83 und im Jahr 1997/98 war El Niño ungewöhnlich stark ausgeprägt. Die Wassertemperatur lag sieben Grad Celsius über der normalen Durchschnittstemperatur, so dass Wärmeenergie in die Erdatmosphäre abgegeben wurde. Bei diesem Ereignis wurde die Luft zeitweilig um bis zu 1,5 °C erwärmt, viel im Vergleich zur üblichen Erwärmung von 0,25 °C im Umfeld eines El Niño. 1997/98 kam es darüber hinaus zu einem geschätzten Absterben von einem Sechstel der weltweiten Riffsysteme. Seit dieser Zeit ist der Effekt der Korallenbleiche (Coral bleaching) weltweit bekannt geworden; in allen Regionen wurden Bleichstellen gefunden. Sang-Wook Yeh und Mitarbeiter äußerten 2010 die These, El Niño trete nicht mehr zungenförmig, sondern hufeisenförmig auf. Dieser Trend könnte durch den Klimawandel und/oder durch natürlich wiederkehrende Zyklen des Pazifiks möglicherweise in den kommenden Jahrzehnten stärker werden. Am 5. März 2015 prognostizierte die NOAA die Ankunft eines neuen El-Niño-Ereignisses. Die Prognose erwies sich als richtig. Vorhersagemöglichkeiten und SOI-Metrik. Einigen Studien zufolge könnten El-Niño-Ereignisse genauer als bisher angenommen voraussagbar sein (siehe hierzu auch Witterungsprognose). Ein Vorhersageverfahren beruht auf der Auswertung charakteristischer Luftdruckanomalien im südpazifischen Raum. Grundlage sind Luftdruckmessungen aus Tahiti und Darwin (Australien). Ergebnis dieser Auswertung ist der Southern Oscillation Index (SOI). Ein verwandtes Phänomen im Atlantik ist etwa die dekadische Nordatlantische Oszillation (NAO), die durch Telekonnektion über den Nordpol (Arktische Oszillation  AO) und die amerikanischen Landmassen auch zeitverzögert mit El-Niño-/La-Nina-Phasen ursächlich zusammenhängen könnte. La Niña. Im Gegensatz zu El Niño ist La Niña eine außergewöhnlich kalte Strömung im äquatorialen Pazifik, also sozusagen ein Anti-El-Niño, worauf auch die Namensgebung (spanisch: "kleines Mädchen") beruht. Durch diese kalte Strömung entwickelt sich über Indonesien ein besonders starkes Tiefdruckgebiet. Die Passatwinde wehen stark und lang anhaltend. Dadurch kühlt sich der östliche Pazifik weiter ab und es gibt in Indonesien besonders viel Regen. Dagegen ist es in Peru sehr trocken und es fällt kaum Niederschlag. Eindhoven. Die Stadt Eindhoven (,) liegt in der Provinz Nordbrabant im Süden der Niederlande auf einer Höhe von. Geschichte. Eindhoven wurde auf einem etwas erhöhten Gebiet am Zusammenfluss der Flüsse Dommel und Gender an einem Handelsweg von Holland nach Lüttich gegründet und erhielt bereits 1232 Stadt- und Marktrechte durch den Herzogen Heinrich I. von Brabant, blieb jedoch in den ersten Jahrhunderten recht unbedeutend. Um 1388 wurden die Verteidigungsanlagen der Stadt weiter ausgebaut und zwischen 1413 und 1420 wurde ein neues Schloss innerhalb der Stadtmauern errichtet. 1486 wurde Eindhoven geplündert und niedergebrannt. Der Wiederaufbau und der Bau eines neuen Schlosses dauerten bis 1502. Doch bereits 1543 fiel Eindhoven erneut: Die Verteidigungsanlagen waren wegen der herrschenden Armut nicht instand gehalten worden. Ein großes Feuer zerstörte 1554 rund drei Viertel der Häuser. Diese wurden jedoch mit Unterstützung von Wilhelm von Oranien bereits 1560 wieder aufgebaut. Die heutige Stadt Eindhoven entstand durch das Zusammenwachsen der Kirchspiele Eindhoven, Woensel, Strijp, Tongelre, Gestel und Stratum als Folge der industriellen Entwicklung um 1900, als die Glühlampenfabrik Philips immer mehr Arbeitnehmer anzog. Später trug auch DAF (Automobile) zur Expansion der Stadt bei. Während des Zweiten Weltkrieges war die Stadt ein wichtiges Ziel während der Operation Market Garden. Auch wegen der Philips-Röhrenwerke wurde die Stadt angegriffen. Schwere Bombardierungen der Westalliierten zerstörten große Teile der Stadt. Beim Wiederaufbau wurden nur sehr wenige historische Gebäude erhalten. Ein Beispiel für die moderne Architektur Eindhovens ist das 1966 als Museum errichtete Evoluon, jetzt Konferenzgebäude und nicht mehr zu besichtigen. Heute ist Eindhoven mit etwas mehr als 200.000 Einwohnern die fünftgrößte Stadt der Niederlande und gilt als Technologiezentrum im Süden des Landes. Durch die Studenten der Technischen Universität Eindhoven und durch einige höhere Schulen hat Eindhoven einen relativ niedrigen Altersdurchschnitt. Wirtschaft. Eindhoven ist der wichtigste Produktions- und Forschungsstandort der Firma Philips. Das ehemalige Tochterunternehmen NXP Semiconductors hat hier seinen Hauptsitz. UPS betreibt ein großes Logistikzentrum. Zu den größten in Eindhoven ansässigen Arbeitgebern gehört auch die Fachhochschule Fontys. OTB Solar B.V. fertigt hier Produktionsanlagen für Solarzellen. Weiterhin ist der LKW-Hersteller DAF in Eindhoven ansässig. Die Firma ASML ist im Vorort Veldhoven ansässig. Seit Mai 2001 befindet sich in der Stadt die Europa-Niederlassung des japanischen Unternehmens Kanefusa, Asiens führendem Hersteller von Werkzeugen für die Holzbearbeitung. Schienenverkehr. Die Stadt Eindhoven ist ein zentraler Eisenbahnknotenpunkt in den Niederlanden. Hier bündeln sich die Strecken aus dem Norden und Süden des Landes. Am Bahnhof Eindhoven verkehrt nationaler Regional- und Fernverkehr. Städte wie Den Haag, Rotterdam, Amsterdam, Utrecht und Maastricht sind mit dem Zug von Eindhoven aus direkt erreichbar. Straßenverkehr. Insgesamt führen fünf Autobahnen durch Eindhoven. Auch im niederländischen Autobahnnetz bündeln sich hier Strecken aus sowohl dem Norden und Süden als auch aus dem Westen des Landes. Weiterhin liegt Eindhoven direkt an der wichtigen E34. Busverkehr. Den städtischen Busverkehr betreibt das Busunternehmen Hermes. Flugverkehr. Eindhoven verfügt über einen Flughafen, den Eindhoven Airport (IATA-CODE: EIN). Er ist sowohl Transport- als auch Militärflugplatz der niederländischen Luftwaffe und der größte Regionalflughafen der Niederlande. Edmund Stoiber. Edmund Rüdiger Rudi Stoiber (* 28. September 1941 in Oberaudorf) ist ein deutscher Jurist und Politiker (CSU). Von Mai 1993 bis September 2007 war er Ministerpräsident des Freistaates Bayern und von 1999 bis 2007 Vorsitzender der CSU. Seit 2007 ist er Ehrenvorsitzender der CSU. Stoiber war bei der Bundestagswahl im September 2002 Kanzlerkandidat der Union. SPD und Grüne erhielten zusammen eine Mehrheit von 306 von 603 Bundestagssitzen, Gerhard Schröder blieb Bundeskanzler, die Union konnte ihr Wahlergebnis um 3,4 Prozentpunkte verbessern und erhielt 248 Sitze. Bei der bayerischen Landtagswahl 2003 erreichte die CSU mit Stoiber als Spitzenkandidaten das nach Sitzverteilung beste Ergebnis, das je bei einer Landtagswahl in der Bundesrepublik erzielt wurde (60,7 % der Stimmen → 124 von 180 Sitzen). Von November 2007 bis Oktober 2014 war Stoiber in Brüssel ehrenamtlicher Leiter einer EU-Arbeitsgruppe zum Bürokratieabbau. Ausbildung und Beruf. Edmund Stoiber wuchs im Oberaudorf (Oberbayern, Landkreis Rosenheim) als Sohn des aus Schwarzenfeld in der Oberpfalz stammenden Bürokaufmanns Edmund Georg Stoiber und der gebürtigen Rheinländerin Elisabeth Stoiber (geb. Zimmermann) aus Dormagen auf. Stoibers Großeltern mütterlicherseits stammen ebenfalls aus der Oberpfalz: sie waren aus Nabburg – acht Kilometer nördlich von Schwarzenfeld – ins Rheinland abgewandert. Von 1951 bis 1961 besuchte Stoiber das Ignaz-Günther-Gymnasium in Rosenheim, musste dabei die siebte Klasse wiederholen und legte dort das Abitur ab. Danach leistete er von 1961 bis 1962 als Reserveoffizieranwärter seinen Wehrdienst beim Gebirgsjägerbataillon 231 in Bad Reichenhall und beim Gebirgsjägerbataillon 233 in Mittenwald. Da er sich während der Ausbildung eine schwere Knieverletzung zuzog, wurde er vorzeitig entlassen. Er ist Mitglied im Kameradenkreis der Gebirgstruppe. Nach dem Wehrdienst begann Stoiber im Herbst 1962 ein Studium der politischen Wissenschaften an der Hochschule für Politik München und der Rechtswissenschaft an der Ludwig-Maximilians-Universität München, welches er 1967 mit dem ersten juristischen Staatsexamen beendete. Danach war er wissenschaftlicher Mitarbeiter am Lehrstuhl für Strafrecht und Ostrecht an der Universität Regensburg. 1968 ging er ins Referendariat und wurde 1971 bei Friedrich-Christian Schroeder an der Universität Regensburg mit der Dissertation „"Der Hausfriedensbruch im Lichte aktueller Probleme"“ zum Dr. iur. promoviert. Im selben Jahr bestand er das zweite juristische Staatsexamen mit Prädikat. Noch im selben Jahr trat er in das Bayerische Staatsministerium für Landesentwicklung und Umweltfragen ein. Hier war er von 1972 bis 1974 persönlicher Referent des Staatsministers Max Streibl und zuletzt auch Leiter des Ministerbüros. Seit 1978 ist Stoiber als Rechtsanwalt zugelassen. Von 1978 bis 1982 war er außerdem als Syndikus für die Lotto-Toto-Vertriebsgemeinschaft Bayern tätig. Parteilaufbahn. Von 1974 bis 2008 war Stoiber Mitglied des Bayerischen Landtages. Von 1978 bis 1983 war er unter dem Parteivorsitzenden Franz Josef Strauß Generalsekretär der CSU. In diesem Amt erwarb er sich beim politischen Gegner einen Ruf als "„blondes Fallbeil“". Als Generalsekretär war er außerdem verantwortlich für den Bundestagswahlkampf 1980, bei der der Kanzlerkandidat von CDU und CSU, Franz Josef Strauß, dem amtierenden Bundeskanzler Helmut Schmidt (SPD) unterlag. Seit 1989 war Stoiber Stellvertretender Vorsitzender der CSU. Außerdem war er 1989 bis 1993 Vorsitzender der Grundsatzkommission der CSU. Nach der für die Union verlorenen Bundestagswahl 1998 wurde er als Nachfolger des ehemaligen Bundesfinanzministers Theodor Waigel am 16. Januar 1999 zum Parteivorsitzenden der CSU gewählt. Zuvor war es seit Stoibers Wahl zum bayerischen Ministerpräsidenten im Jahr 1993 mehrfach zu Konflikten mit Waigel gekommen. Am 4. September 1999 entließ Ministerpräsident Stoiber den Justizminister Alfred Sauter telefonisch, weil er ihn für die sogenannte LWS-Affäre verantwortlich machte. Die halbstaatliche Wohnungsbaugesellschaft LWS hatte zu diesem Zeitpunkt 367 Millionen Mark Verlust angehäuft. Sauter bezeichnete Stoibers Anschuldigungen als „Schafsscheiß“ und rechnete eine Woche später im Landtag öffentlich mit ihm ab. Innerparteilich wurde nach Stoibers Rückkehr aus Berlin namentlich durch die Fürther Landrätin Gabriele Pauli die Meinung vertreten, dass er nicht zur Wiederwahl als Ministerpräsident antreten solle. Am 18. Januar 2007 gab Stoiber aufgrund schwindenden Rückhaltes in seiner Partei sowie sinkender Umfragewerte bekannt, dass er sein Amt als Regierungschef in Bayern am 30. September 2007 abgeben und im Herbst auf dem Parteitag der CSU nicht mehr für den Vorsitz kandidieren werde. Bei seiner Abschiedsrede als Parteichef und Ministerpräsident hatte er auf dem Parteitag der CSU am 18. September 2007 von seinen Nachfolgern einen eigenständigen Kurs und ein klares konservatives Profil gefordert. Bayerns Wirtschaftsminister Erwin Huber wurde in einer Kampfabstimmung gegen CSU-Vizechef Horst Seehofer und die Parteirebellin Gabriele Pauli Nachfolger als Vorsitzender der CSU. Neuer bayerischer Ministerpräsident wurde am 9. Oktober der bisherige Innenminister Günther Beckstein. Zu seinem Abschied als Ministerpräsident Bayerns gab die Bundeswehr am 2. Oktober 2007 eine Serenade im Münchner Hofgarten. Gäste waren unter anderem Verteidigungsminister Jung, Generalinspekteur Schneiderhan sowie CSU-Funktionäre. Zur Landtagswahl in Bayern 2008 stand Stoiber nicht mehr zur Wahl. Staatssekretär und Landesminister. Edmund Stoiber bei einer Wahlkampfrede in einem Bierzelt in Kloster Reutberg (1999) 1982 wurde Stoiber als Staatssekretär und Leiter der Bayerischen Staatskanzlei in die von Ministerpräsident Franz Josef Strauß geführte Bayerische Staatsregierung berufen. 1986 wurde er in gleicher Funktion zum Staatsminister ernannt. Nach dem Tod von Franz Josef Strauß wurde Stoiber dann 1988 im Kabinett von Max Streibl zum bayerischen Staatsminister des Innern ernannt. Bayerischer Ministerpräsident. Nachdem Max Streibl im Mai 1993 als bayerischer Ministerpräsident wegen der so genannten "Amigo-Affäre" zurücktreten musste, wurde Stoiber am 28. Mai 1993 zu seinem Nachfolger gewählt. In dieser Funktion war er vom 1. November 1995 bis zum 31. Oktober 1996 auch Präsident des Bundesrates. Bei den Landtagswahlen 1994 und 1998 konnte er als Spitzenkandidat der CSU deren absolute Mehrheit mit 52,8 % bzw. 52,9 % der abgegebenen Stimmen verteidigen und bei der Landtagswahl 2003 bei allerdings geringer Wahlbeteiligung (57,3 %) auf 60,7 % ausbauen. Mit diesem zweitbesten Ergebnis ihrer Geschichte erlangte Spitzenkandidat Stoiber für die CSU die Zweidrittelmehrheit der Sitze im Bayerischen Landtag (die allein allerdings keine Verfassungsänderungen ermöglicht, hierzu ist ein Volksentscheid notwendig). Kanzlerkandidatur. Im Januar 2002 konnte sich Stoiber gegenüber Angela Merkel als gemeinsamer Kanzlerkandidat von CDU und CSU für die Bundestagswahl 2002 durchsetzen. Nach dem „Wolfratshauser Frühstück“ mit Merkel wurde er von der Unionsspitze im Magdeburger Herrenkrug als Kanzlerkandidat nominiert – als erster CSU-Politiker nach Franz Josef Strauß. Schwerpunktthemen seines Wahlkampfs waren die Wirtschafts- und Sozialpolitik, dabei besonders die Bekämpfung der Arbeitslosigkeit, die Innere Sicherheit und die wirtschaftliche Entwicklung des strukturschwachen Nordostens Deutschlands. Wahlkampfleiter im damals parallel zum gemeinsamen Team der CDU/CSU agierenden Stoiber-Team war Michael Spreng, der ehemalige Chefredakteur der „Bild am Sonntag“. Trotz Zugewinnen gelang es Stoiber nicht, einer Koalition aus CDU/CSU und FDP die absolute Mehrheit zu sichern. CDU und CSU legten um 3,4 Prozent zu und kehrten damit erstmals einen 16 Jahre andauernden kontinuierlichen Abwärtstrend der Unionsparteien bei Bundestagswahlen um. Allerdings waren die erreichten 38,5 Prozent immer noch ein unterdurchschnittliches Ergebnis für die Unionsparteien. Zwar erreichte die SPD nach Verlusten in Höhe von 2,4 Prozentpunkten ebenfalls 38,5 Prozent, lag jedoch mit insgesamt 6.027 Stimmen (= 0,01 %) vor der Union. Die SPD konnte aufgrund von Überhangmandaten die stärkste Bundestagsfraktion stellen. Insgesamt verfehlte Stoiber sein Ziel, eine Schwarz-Gelbe Koalition zu bilden, um ca. 570.000 Stimmen. Amtsende als Ministerpräsident. Edmund Stoiber auf dem CSU-Parteitag 2015 Im Februar 2004 wurde Stoiber von Jacques Chirac mit Zustimmung von Bundeskanzler Gerhard Schröder das Amt des Präsidenten der Europäischen Kommission angetragen, was er jedoch ablehnte. Er wurde außerdem zu Beginn des Jahres 2004 noch vor Bekanntgabe der Köhler-Kandidatur als möglicher Kandidat für das Amt des Bundespräsidenten gehandelt, verzichtete jedoch auch in diesem Fall. Vom 18. Oktober bis zum 8. November 2005 war Stoiber Mitglied des 16. Deutschen Bundestages. Im gleichen Jahr war er designierter Wirtschaftsminister der Bundesrepublik Deutschland im Kabinett Merkel, entschied sich allerdings am 1. November gegen diesen Posten. Den Rückzug begründete er mit dem damals ebenso angekündigten Rücktritt von Franz Müntefering als Parteivorsitzender der Sozialdemokraten. Seine Pläne für ein "Superministerium" konnte er im Streit mit der designierten Forschungsministerin Annette Schavan (CDU) nicht voll umsetzen. Wegen seiner zögerlichen und unentschlossenen Haltung bezüglich seines Eintritts in eine Bundesregierung unter Angela Merkel geriet er – auch in der CSU – in die Kritik. Diese forderte, sollte Stoiber in München einen Neuanfang wagen, einen Politikwechsel, damit der Ministerpräsident sich wieder das Vertrauen der Wähler sichern könne. Am 18. Januar 2007 gab Stoiber bekannt, dass er zum 30. September 2007 sein Amt als bayerischer Ministerpräsident und auf dem Parteitag 2007 nicht erneut für das Amt des CSU-Vorsitzenden kandidieren, Details "siehe oben bei Parteilaufbahn". Das vierte Kabinett Stoiber blieb bis zum 16. Oktober 2007 kommissarisch im Amt. Als ehemaliger Ministerpräsident unterhält er in München ein Büro, das 2008 mit 496.800 Euro aus dem bayerischen Landeshaushalt finanziert wurde. Im Nachhinein wird der Rückzug aus Berlin als Anfang vom Ende Stoibers politischer Karriere angesehen. In der Zeit zwischen Stoibers Rückzug aus Berlin und seinem Rücktritt vom Amt des bayerischen Ministerpräsidenten fanden seine diversen Versprecher ein zunehmendes Medienecho. Ein typisches Beispiel ist die als "Transrapid-Rede" bekannt gewordene Passage seiner Rede beim Neujahrsempfang 2002 der Münchener CSU, die 2006 wiederentdeckt und zu einer populären Persiflage wurde. EU-Kommission. Stoiber wurde nach seinem Rücktritt vom Amt des bayerischen Regierungschefs von José Manuel Durão Barroso angeboten, eine Arbeitsgruppe der Europäischen Kommission zum Abbau der Bürokratie in der EU ehrenamtlich zu leiten. Von November 2007 bis Oktober 2014 war Stoiber in Brüssel Leiter dieser EU-Arbeitsgruppe, die Industriekommissar Günter Verheugen unterstellt war. Der Abschlussbericht dieser Arbeitsgruppe wurde im Oktober 2014 veröffentlicht. Nach eigenen Angaben soll die Arbeitsgruppe dazu beigetragen haben, dass die Unternehmen in Europa jedes Jahr 33 Milliarden Euro an Kosten einsparen. Privates. Stoiber ist seit 1968 mit Karin Stoiber verheiratet. Das Ehepaar hat drei Kinder, Dominic, Veronica (Vroni) und Constanze sowie fünf Enkelkinder. Wohnort des Ehepaares Stoiber ist Wolfratshausen. Politische Positionen. Stoiber hat sich in ausgewählten Politikfeldern eindeutig positioniert: Seine christlich-konservative Weltsicht, insbesondere zu den Themen Ehe, Homosexualität und Einwanderung, sowie seine scharfe Rhetorik wirken oft polarisierend. Er folgt damit der schon von seinen Vorgängern verfolgten Linie, konservative Kreise in die Partei zu integrieren. Im Umfeld seines Ausscheidens als Parteichef und Ministerpräsident erklärte er in einem Interview im September 2007 Franz Josef Strauß, sein politischer Mentor, habe Grundsätze formuliert und geprägt, die heute noch genauso gültig seien wie damals. Konservativ sein heiße, an der Spitze des Fortschritts zu marschieren. Rechts von der CSU dürfe es keine demokratisch legitimierte Partei geben. Den Maßstab für die CSU als Volkspartei bei Wahlen sei 50 Prozent plus x. Auch bei sehr guten Wahlergebnissen dürfe man sich nicht zurückzulehnen, denn dies seien Momentaufnahmen und keine Bankguthaben. Wirtschaft und Haushalt. In der Wirtschaftspolitik sprach sich Stoiber gegen eine schuldenfinanzierte Politik aus – im Interesse der zukünftigen Generationen und auch wegen der Stabilitätskriterien zur Euro-Einführung. Die Stärkung des Wirtschaftsstandortes Bayern (das seit 1995 seine führende Position in Deutschland trotz stagnierenden Wachstums halten konnte) u. a. durch die so genannte „High-Tech-Offensive Bayern“ hat zwar für ihn Priorität, doch gibt es „"im Zeitalter der Globalisierung keinen Weg zurück zu einem antiquierten Wirtschaftsnationalismus“". Stoiber war im Rahmen der Föderalismusreform federführend an der 2001 beschlossenen Neuordnung des Länderfinanzausgleichs beteiligt. Er erklärte in einer Regierungserklärung, Bayern könne „höchst zufrieden“ sein. Er erklärte wiederholt, die hohen Transferzahlungen zum Ausgleich räumlicher Disparitäten – z. B. von Nord- nach Süditalien oder von West- nach Ostdeutschland – sollten auslaufen. Der Übertrag nationaler Souveränität in der Geldpolitik auf die Europäische Zentralbank müsse durch eine föderalistische Wirtschafts-, Finanz- und Haushaltspolitik ergänzt werden. Stoiber betrieb in Bayern seit der gewonnenen Landtagswahl 2003 eine rigide Sparpolitik, damit ab 2006 der Haushalt ausgeglichen sei. Ziel dessen war, den Rahmen für einen langfristig stabilen Wohlstand des Landes zu bilden. Politische Beobachter unterstellten damals, Stoiber wollte sich damit auch eine Empfehlung für ein Amt als Wirtschafts- und Finanzminister auf Bundesebene nach der nächstanstehenden Bundestagswahl erwerben. Außen- und Sicherheitspolitik. 2001 erklärte Stoiber, dass die Türkei nicht in die EU gehört, denn im Fall einer Aufnahme würde die Europäische Union eine Grenze mit Staaten wie Iran, Syrien und Irak haben. Europa würde sich so „nicht mehr zu bewältigende Schwierigkeiten“ aufladen. Stoiber sprach sich wiederholt strikt gegen einen Beitritt der Türkei zur Europäischen Union aus. Er erklärte Verhandlungen über einen EU-Beitritt der Türkei kämen nicht in Betracht, die Kernfrage sei ob die Türkei zu Europa gehöre und wo dessen Grenzen sind. Jenseits der Tatsache, dass nach wie vor massive Zweifel an der Rechtsstaatlichkeit der Türkei bestünden, müsse über die erwähnten Kernfragen eine „europaweite Diskussion“ stattfinden. Die EU und speziell Deutschland seien Freunde der Türkei. Trotzdem aber stehe nicht ein Beitritt auf dem Programm, sondern die Entwicklung „sehr spezieller, sehr enger Beziehungen“ zwischen der EU und der Türkei. Die Reformansätze in der Türkei müssten erst noch weiter entwickelt und umgesetzt werden. Im Jahr 2006 verlangte Stoiber von der Bundesregierung und der Europäischen Kommission einen schärferen Kurs gegenüber der Türkei. Er verlangte die EU-Beitrittsgespräche müssten „eingefroren“ werden und die „anhaltenden massiven rechtsstaatlichen Defizite“ in der Türkei und der „eklatante Vertragsbruch gegenüber dem EU-Mitglied Zypern“ müssten konkrete Konsequenzen haben. Stoiber forderte wiederholt Wiedergutmachung – zum Beispiel von Seiten der Tschechischen Regierung, Beneš-Dekrete – für die Verluste und Leiden der im Zweiten Weltkrieg Vertriebenen. Bei einigen stieß auf Widerspruch, dass er dabei die Frage von Entschädigungszahlungen und Aufhebung der Dekrete mit dem EU-Beitritt von Tschechien im Rahmen der EU-Osterweiterung am 1. Mai 2004 verknüpfte. Bayern ist von der Thematik stark betroffen, weil sich hier ein Großteil der ab 1945 aus dem ehemaligen Sudetenland Vertriebenen niedergelassen hatte, darunter auch Stoibers Ehefrau. In der Diskussion um die Wehrpflicht hat sich Stoiber mit seinem Eintreten für eine Sicherheitspolitische Dienstpflicht positioniert. In der Debatte um eine mögliche deutsche Beteiligung an UN-Missionen im Libanon-Konflikt wies Stoiber darauf hin, dass es aufgrund der deutschen Vergangenheit schwer sei, gegenüber Israel eine neutrale, gegebenenfalls aber auch resolute Haltung zu bewahren und deshalb das Risiko, in Kampfeinsätze hineingezogen zu werden, vermieden werden sollte. Einwanderung. In den umstrittenen Fragen um Einwanderung und Zuwanderung nahm Stoiber eine Gegenposition zur rot-grünen Bundesregierung ein und forderte im Verhältnis zum vorgelegten Regierungsentwurf eines Einwanderungsgesetzes eine in Umfang, Ausmaß und Anforderungen enger umrissene Form der Zu- und Einwanderung. Laut Süddeutscher Zeitung vom 4. November 1988 soll Stoiber während eines Gesprächs mit Journalisten vor einer „durchmischten und durchrassten Gesellschaft“ gewarnt haben. Stoiber sprach damals von einem aus dem Zusammenhang gerissenen Zitat und entschuldigte sich später für die Äußerung. In der Debatte um die Flüchtlingskrise in Europa 2015 widersprach Stoiber Angela Merkel indem er erklärte, dass das deutsche Asylrecht zwar juristisch keine Obergrenze vorsehe, aber dies praktisch nicht leisten könne und dass wohl die Muslime, nicht aber der Islam zu Deutschland gehöre. Blasphemie. 2006 strahlte der Sender MTV einen Werbespot für die kontrovers diskutierte Zeichentrick-Fernsehserie Popetown aus. Dieser zeigte unter dem Titel „Lachen statt Rumhängen“ einen vom Kreuz gestiegenen lachenden Christus beim Fernsehen. Die Ausstrahlung führte, auch in Zusammenhang mit den zuvor erschienenen Mohammed-Karikaturen und einem Auftritt des Schauspielers Mathieu Carrière, bei dem dieser in einem Jesuskostüm an einen Kreuz hängend für mehr Rechte von Trennungsvätern demonstrierte, zu einer öffentlichen Debatte um die Bedeutung der Gotteslästerung in Deutschland. Stoiber forderte in Folge eine Verankerung von härteren Strafen wegen Blasphemie im Strafrecht. Er erklärte, es dürfe nicht alles mit Füßen getreten werden, was anderen heilig ist. Der Paragraf 166 des Strafgesetzbuches sei „völlig stumpf und wirkungslos, weil er eine Bestrafung nur dann vorsieht, wenn der öffentliche Frieden gefährdet ist und Aufruhr droht.“ Wer bewusst auf den religiösen Empfindungen anderer Menschen herumtrampele, müsse mit Konsequenzen rechnen – in schweren Fällen mit bis zu drei Jahren Gefängnis. Stoiber begründete seine Position weiterhin damit, der Streit um die Mohammed-Karikaturen zeige auf alarmierende Weise, wohin die Verletzung religiöser Gefühle führen könne. Seitens der Kirchen wurde die Initiative Stoibers nicht unterstützt. Während die Deutsche Bischofskonferenz erklärte, sie werde sich zu dem Vorschlag nicht äußern, lehnte die Evangelische Kirche in Deutschland (EKD) diesen ausdrücklich ab. Petra Bahr, Kulturbeauftragte der EKD, erklärte in diesem Zusammenhang: „Wir sehen keine Gründe für die Verschärfung des Strafrechts“. Die Rechtsprechung sei bislang sensibel mit blasphemischen Handlungen umgegangen. Im folgenden Jahr legte Stoibers Justizministerin Beate Merk einen Gesetzesvorschlag zur Verschärfung des § 166 StGB vor. Dieser stellte die Grundlage für eine Bundesratsinitiative zur Änderung des Paragrafen dar. Nach der Vorlage sollte nicht erst eine Beschimpfung von Religion und Kirche, die den öffentlichen Frieden stören könnte, strafbar sein, sondern bereits die Verspottung oder Herabwürdigung. Die Vorlage sah vor, dass der öffentliche Friede zukünftig schon dann gestört werde, wenn der Spott „das Vertrauen der Betroffenen in die Achtung ihrer religiösen oder weltanschaulichen Überzeugung beeinträchtigen oder bei Dritten die Bereitschaft zu Intoleranz“ gegenüber Religion fördern könne. Stoibers Initiative blieb folgenlos. Die CSU hatte bereits 1986, 1995 und 1998 versucht, Blasphemie einfacher und härter unter Strafe zu stellen, die drei ersten Bundesratsinitiativen scheiterten ebenfalls. Eingetragene Lebenspartnerschaften. Stoiber trat vehement gegen die Einführung der von Sozialdemokraten und Grünen befürworteten gleichgeschlechtlichen eingetragenen Lebenspartnerschaften in Deutschland ein. Dies beeinflusste seinen Bundestagswahlkampf im Jahre 2002 gegen Schröder. Das von Bayern zusammen mit den Bundesländern Sachsen und Baden-Württemberg angestrengte abstrakte Normenkontrollverfahren gegen die eingetragene Lebenspartnerschaft wurde vom Bundesverfassungsgericht in Karlsruhe abgewiesen. Gegen die im Jahr 2005 beschlossene Novelle zum Lebenspartnerschaftsgesetz, die von Sozialdemokraten, Grünen und der FDP getragen wurde und zum 1. Januar 2006 in Kraft trat, strebte Stoiber erneut ein gerichtliches Verfahren gegen die Einführung der Stiefkindadoption durch gleichgeschlechtliche Paare vor dem Bundesverfassungsgericht an, das diesmal allein vom CSU-regierten Bundesland Bayern betrieben wird. Ehrungen und Auszeichnungen. Edmund Stoiber während der Verleihung des Ordens wider den tierischen Ernst, März 2000 Elektronische Musik. a> in seinem Studio für elektronische Musik in Jerusalem (ca. 1965) Elektronische Musik bezeichnet Musik, die durch elektronische Klangerzeuger hergestellt und mit Hilfe von Lautsprechern wiedergegeben wird. Im deutschen Sprachgebrauch war es bis zum Ende der 1940er Jahre üblich, alle Instrumente, an deren Klangentstehung bzw. -übertragung in irgendeiner Weise elektrischer Strom beteiligt war, als "elektrische Instrumente" zu bezeichnen. Konsequenterweise sprach man daher auch von "elektrischer Musik". Bis heute besteht eine Kontroverse in der Terminologie, da einerseits ein wissenschaftlicher Begriff der Akustik und gleichzeitig aber auch ein Oberbegriff über "neue Musikstile der Unterhaltungsmusik" gemeint ist. Andererseits kategorisiert man mit Elektronischer Musik auch eine Gattung der Neuen Musik, wobei sich hier der Begriff der Elektroakustischen Musik etabliert hat. In der Zeit um 1980 erlebte die Elektronische Musik durch die zunehmende Verfügbarkeit und Etablierung synthetischer Klangerzeugungsmöglichkeiten einen rasanten Aufschwung. Insbesondere im Bereich der speziell für die Clubszene produzierten Musik nahmen synthetisch produzierte Songs ab etwa 1980 eine stetig wichtigere Stellung ein und lösten den in den 1970er Jahren üblichen, vornehmlich akustisch produzierten Disco-Sound sehr schnell ab. Es begann die Phase der elektronischen Tanzmusik, die im Verlauf der 1980er zum Sound der Ära werden sollte und mit Musikstilen wie Synthpop, Euro Disco, House und schließlich Techno nicht nur den Sound der Dekade, sondern auch den der nachfolgenden Jahrzehnte entscheidend prägen sollte. Seit dieser Zeit sind synthetisch produzierte Musikstücke in höchstem Ausmaß populär und haben traditionell akustisch aufgenommene Songs, vor allem im Bereich der Clubmusik, aber auch im Bereich der Popmusik allmählich mehr oder weniger verdrängt. Vorgeschichte. Das erste Musikinstrument, das Elektrizität verwendete, war das Clavessin électrique von Jean-Baptiste Delaborde. Das oft genannte "Denis d'or" des tschechischen Erfinders Pater Prokop Diviš aus den frühen 1750er Jahren war zwar in der Lage, dem Spieler aus Spaß kleine elektrische Schläge zu versetzen, benutzte aber wahrscheinlich keine Elektrizität bei der Klangerzeugung. 1867 konstruierte der Direktor der Telegraphenfabrik Neuchâtel Hipp ein elektromechanisches Klavier. Ein erstes Patent auf dem Gebiet elektronischer Klangerzeugung wurde am 12. März 1885 an E. Lorenz aus Frankfurt am Main erteilt. Eine ungewöhnliche Erfindung des elektronischen Instrumentenbaus war das von Thaddeus Cahill 1897 entwickelte Teleharmonium oder Dynamophon. Es arbeitete nach dem Prinzip eines Zahnradgenerators, wog 200 Tonnen und war so groß wie ein Güterwaggon. Cahill benutzte für jeden Halbton einen riesigen dampfgetriebenen Mehrfachstromerzeuger, der ihm die sinusförmigen Ausgangsspannungen lieferte. In seinem 1907 erschienenen "Entwurf einer neuen Ästhetik der Tonkunst" entwickelte Ferruccio Busoni seine Theorie der Dritteltöne, wobei er für dessen klangliche Umsetzung das Dynamophon am geeignetesten hielt. Leon Theremin konstruierte als Leiter des Laboratoriums für elektrische Schwingungen des staatlichen physikalisch-technischen Instituts in Leningrad von 1920 bis 1928 das aufsehenerregende Instrument "Ätherophon", das später nach ihm "Theremin" benannt wurde. Das Instrument war technisch gesehen eine Schwebungssummerkonstruktion, d. h. die Erzeugung eines hörbaren Tones erfolgte durch Überlagerung zweier hochfrequenter und nicht mehr hörbarer Töne. Diese Eigenschaft der Klangerzeugung inspirierte einige Komponisten zu Werken speziell für das Theremin. Vom Komponisten Anis Fuleihan wurde auf diese Weise ein Konzert für Theremin und Orchester geschaffen, das 1945 mit dem New York Symphony Orchestra unter Leopold Stokowski und der Solistin Clara Rockmore am Theremin uraufgeführt wurde. Etwa zeitgleich beschäftigte sich der deutsche Volksschullehrer und Organist Jörg Mager mit der exakten Erzeugung von Mikrointervallen und stellte Erfindungen wie das "Elektrophon" (1921) und das "Sphärophon" (1928) vor. Mager war ein Anhänger des tschechischen Komponisten Alois Hába, der sich, durch Anregung von Ferruccio Busoni, bereits mit Mikrointervallen praktisch beschäftigte. Zudem leitete Mager sein Interesse an Mikrointervallen von der Beobachtung des Akustikers und Musikethnologen Erich Moritz von Hornbostel ab, dass die Melodie bei einer Veränderung der Tonhöhenlage, aber auch der Notenlänge, stets als ein und dieselbe Gestalt erscheint. So wurden später sein "Sphärophon II", sein "Kaleidosphon" und seine Elektrotonorgel fertiggestellt. Beim "Ondes Martenot" handelte es sich ebenfalls um einen Tonfrequenz erzeugenden Schwebungssummer mit dem Unterschied, dass zusätzlich an einem Seil gezogen wurde, womit Tonhöhen verändert werden konnten. Olivier Messiaen verwendete dieses Instrument in seiner "Turangalîla-Symphonie", der schweizerische Komponist Arthur Honegger setzte es im Oratorium "Johanna auf dem Scheiterhaufen" ein. Bereits 1907 hatte Busoni in seiner visionären und einflussreichen Schrift "Entwurf einer neuen Ästhetik der Tonkunst" mögliche Entwicklungslinien aufgezeigt, die erst mit den Mitteln der elektronischen Musik ab den 1950er Jahren realisiert werden konnten. Er griff darin unter anderem die Idee der "Klangfarbenmelodie", die Arnold Schönberg erstmals in seiner "Harmonielehre" (1911) vorstellte und in den folgenden Jahren wiederholt angesprochen hat, von Relevanz für das musikalische Konzept der frühen elektronischen Musik. Weiterhin kann die kompositorische Konzeption Edgar Varèses mit ihrer gleichermaßen von Busoni und den italienischen Futuristen beeinflussten Geräuschhaftigkeit als Vorwegnahme rein elektronischer Möglichkeiten der Klanggestaltung betrachtet werden. Durch die Bedeutung des Rundfunks als Medium zunächst zur Durchsetzung politischer Ziele und später der Unterhaltung wurde der Weg für Übertragungen von Musik geebnet. In dieselbe Zeit fällt die Entwicklung des Trautoniums durch Friedrich Trautwein im Jahre 1930, das später durch Oskar Sala weiterentwickelt wurde. Aus diesem Jahr stammen auch die ersten Trautoniumstücke von Paul Hindemith: Vier Stücke für drei Trautonien mit dem Untertitel "Des kleinen Elektromusikers Lieblinge". Im Jahr 1935 konkurrierten die "Hammond-Orgel" und die "Lichttonorgel", wobei Erstere die Oberhand gewann. Entstehung. Die Geschichte der elektronischen Musik ist eng an die Geschichte der elektronischen Klangerzeugung (Instrumente, Apparate) gekoppelt. Im Allgemeinen spricht man bis ca. 1940 von der "elektrischen Musik" und von "elektrischen Musikinstrumenten". Ab Anfang der 1950er Jahre wurde eine bestimmte, mit elektronischen Geräten realisierte Kompositionstechnik "elektronische Musik" genannt. „Musique concrète“ aus Paris. 1943 rief der Ingenieur Pierre Schaeffer eine Forschungsstelle für radiophone Kunst in Paris, den "Club d´Essai", ins Leben, der bald Künstler wie Pierre Henry, Pierre Boulez, Jean Barraqué, Olivier Messiaen und Anfang der 1950er Jahre dann Karlheinz Stockhausen anzog. Am 5. Oktober 1948 gingen beim Pariser Rundfunk Schaeffers "Cinq études de bruits" in einem als "Concert des Bruits" betitelten Radioprogramm über den Äther und markieren damit die Geburtsstunde der Musique concrète. Am 18. März 1950 fand dann das erste öffentliche Konzert konkreter Musik in der École Normale de Musique statt. Da in der Anfangszeit des „Club d´Essai“ außerhalb Deutschlands noch keine Tonbandmaschinen zur Verfügung standen, wurden die Geräusche auf Schallplatten festgehalten und in einem Arbeitsgang aus bis zu acht Schallplatten gleichzeitig abgemischt. Bei der Bearbeitung dieser Klänge, die einfache Alltagsgeräusche waren, handelte es sich um deren Transformation und collagenartige Kombination. Ästhetisch erweist sich die frühe Musique concrète damit als Vorstufe zum Hörspiel und der radiophonen Collage. Der Terminus „Konkrete Musik“, den Schaeffer 1949 vorschlug, trägt zum einen der Verwendung vorgefundener Geräusche – sogenannter „Klangobjekte“ – Rechnung, sollte aber auch als Abgrenzung gegenüber der komponierten und damit „abstrakten“ Musik (Serialismus) verstanden werden. Mit diesem radikalen (bruitistischen) Ansatz sorgte Schaeffer auch im eigenen Lager für einige Irritation. In den 1950er Jahren erlaubte die Tonaufnahme auf Magnetband auch in Paris die Einführung weiterer Bearbeitungstechniken wie Schnittmöglichkeiten, Geschwindigkeitstransformationen und damit Tonhöhenveränderungen. Durch diese Möglichkeiten entstand zu dieser Zeit das "Phonogen", eine Art Mellotron mit Klangtransponiermöglichkeit, und das "Morphophon", vergleichbar einem Bandschleifen-Verzögerungsgerät. Im Bewusstsein der interessierten Öffentlichkeit befand sich die Musique concrète damit in direkter Rivalität zur gleichzeitig in Erscheinung tretenden „elektronischen Musik“ aus Köln. Anfang der 1950er Jahre wurde die Arbeit Schaeffers und seines Mitarbeiters Pierre Henry in eine Art ideologischen und zum Teil auch chauvinistisch motivierten Streit verwickelt. Eine debakulöse Aufführung ihrer Gemeinschaftskomposition "Orphée 53", die anlässlich der Donaueschinger Musiktage am 10. Oktober 1953 stattfand, besiegelte ihre „Niederlage“ und schadete dem internationalen Ansehen der Musique concrète auf Jahre hinaus. Die Komponisten, die Anfang der 1950er Jahre der "Groupe de Recherches de Musique concrète" (die 1951 aus dem "Club d’Essai" hervorgegangen war) nahestanden, haben durchaus versucht, in die Musique concrète kompositorische Ordnungsprinzipien einzuführen, konnten sich aber zunächst nicht gegen die Geräuschkonzeption Schaeffers durchsetzen. 1954 realisierte Edgar Varèse als Gast die Tonbänder für seine Komposition "Déserts". Erst ab 1956/57 entstanden Arbeiten von Luc Ferrari, Iannis Xenakis, François Bayle und anderen, die in viel stärkerem Maße kompositorische Gesichtspunkte und später sogar serielle Prinzipien in den Vordergrund stellten. Folgerichtig gab Schaeffer den Begriff „Musique concrète“ nun zu Gunsten von „elektroakustischer Musik“ auf und benannte auch seine "Groupe de Recherches de Musique concrète" 1958 in "Groupe de Recherches Musicales" um. Elektronische Musik aus Köln. Als Werner Meyer-Eppler für eine bestimmte Art des Komponierens mit technischen Hilfsmitteln den Terminus „elektronische Musik“ vorschlug, ging es ihm dabei vor allem um eine Abgrenzung gegenüber den bisherigen Entwicklungen der elektrischen Klangerzeugung, der elektrischen Musik, zu der er auch die "Musique concrète" und die "Music for Tape" (s. u.) zählte. Der Physiker Werner Meyer-Eppler, der Tonmeister Robert Beyer, der Techniker Fritz Enkel und der Komponist Herbert Eimert gründeten 1951 mit Hilfe des NWDR das Kölner Studio für Elektronische Musik. Das erste öffentliche Konzert fand dann am 26. Mai 1953 auf dem Kölner „Neuen Musikfest 1953“ statt. Im Unterschied zur Musique concrète wurde hier versucht, elektronisch erzeugte Töne nach physikalischen Regeln wie der Fourier-Analyse wissenschaftlich zu erfassen. Die Klangfarbe, als Resultat der Überlagerung mehrerer Sinustöne, und die Parameter Frequenz, Amplitude und Dauer wurden dabei ausführlich analysiert. Zunächst ging es Eimert und Beyer (nur) um die differenzierte Gestaltung von Klangfarben. Erst eine zweite Generation junger Komponisten, unter ihnen Henri Pousseur, Karel Goyvaerts und Karlheinz Stockhausen, arbeitete dann ab 1953 vor allem an der konsequenten Durchführung serieller Kompositionsmethoden mit elektronischen Mitteln. Signifikant für diese frühe musikalische Konzeption des Kölner Studios ist die ausschließliche Verwendung „synthetisch“ hergestellter Klänge sowie deren direkte Verarbeitung und Speicherung auf Magnettonband und schließlich die Wiedergabe über Lautsprecher. Dadurch wurden (zumindest theoretisch) zwei musikhistorisch revolutionäre Dinge erreicht: zunächst die vollständige Kontrolle über den Parameter Klangfarbe, der bisher für die Komponisten immer unwägbar geblieben war und nun ebenfalls der seriellen Organisationsmethode unterworfen werden konnte. Zweitens wurde der Interpret als vermittelnde – und damit die kompositorische Absicht potentiell verfälschende – Instanz ausgeschaltet. Zum ersten Mal in der Geschichte der abendländischen Musik schien es den Komponisten mit Werken wie Stockhausens "Studie II" möglich, ihre Ideen „unvermittelt“ an den Hörer weiterzugeben. Die jahrhundertealten Versuche, die musikalische Absicht immer präziser durch Notenschrift zu fixieren, waren damit überholt. Da die klanglichen Ergebnisse dieser frühen Arbeiten aber deutlich hinter den in sie gesetzten Erwartungen zurückblieben, beschritt man in der Technik der Klangsynthese neue Wege und verließ bereits 1954 das ursprüngliche Sinuston-Konzept wieder. Mit wachsender Komplexität des Herstellungsprozesses nahm nun einerseits die Klangqualität ab und andererseits entzogen sich die Klangkomponenten auch zunehmend der Kontrolle durch die Komponisten. Eine erste Konsequenz daraus zog Stockhausen in seiner Komposition "Gesang der Jünglinge" (1955/56), die konzeptuell zwischen elektronischen Klängen und Phonemen vermittelt und statistische Ordnungsprinzipien (Aleatorik) durch im Raum verteilte Lautsprechergruppen zur Anwendung brachte. Die Idee der klanglichen Vermittlung zwischen heterogenen Ausgangsmaterialien führt dann konsequent zum Entwurf der Live-Elektronik und auch zur Transformation von Klängen beliebiger Herkunft, womit die Entwicklung der elektronischen Musik Kölner Ausprägung ihre größte Annäherung zum einstigen „Erbfeind Musique concète“ vollzogen hat. Das Kölner Studio war nicht der einzige Ort, an dem Techniker und Musiker an der Entstehung der Elektronischen Musik zusammenarbeiteten. Einflussreich waren das Siemens-Studio für elektronische Musik ab 1956 in München unter der künstlerischen Leitung von Orff-Schüler Josef Anton Riedl und das Columbia-Princeton Electronic Music Center in New York. 1977 kam das IRCAM im Pariser Centre Pompidou von Pierre Boulez hinzu. Das Elektronische Studio Basel und das Studio für Elektronische Musik in Dresden wurden erst in den 1980er Jahren eingerichtet. Weitere Studios für elektronische Musik standen oder stehen in Mailand, Stockholm und Utrecht. „Music for Tape“. Im sogenannten "Tape Music Studio" der Columbia-Princeton Universität in New York unterrichteten Vladimir Ussachevski und Otto Luening Studenten in einer speziellen Art des Umgangs mit auf Tonband aufgezeichneten Klängen. Sie gingen davon aus, dass die große Bandbreite möglicher elektronischer Manipulation die Herkunft des Klanges mehr und mehr in den Hintergrund treten lässt. Erste bekannt gewordene Studien der "Music for Tape" stammen vom New Yorker Ehepaar Louis und Bebe Barron, die sich seit 1948 in ihrem eigenen professionellen Aufnahmestudio mit erweiterten Möglichkeiten des Tonbandes zur Musikproduktion beschäftigten. Im Studio der Barrons realisierte John Cage 1951 das "Project of Music for Magnetic Tape", gemeinsam mit den Komponisten Earle Brown, Morton Feldman, David Tudor, und Christian Wolff. Bei der "Music for Tape" war vor allem die Vielseitigkeit bei Auswahl und Bearbeitung von Klangquellen für die musikalische Umsetzung von Bedeutung. In Amerika wurde die Unterscheidung in kontrollierbare (elektronische) und „unkontrollierbare“ (mechanische) Klänge als nicht sinnvoll betrachtet. Ein weiterer bedeutender Vorreiter der elektronischen Musik in den USA war der unabhängig von den im Aufbau begriffenen Hochschulstudios wirkende Richard Maxfield. Der kanadische Physiker Hugh Le Caine machte entscheidende Experimente in der Anschlagsdynamik eines Keyboards zwischen 1945 und 1948. Bei dem von ihm erfundenen "Sackbut" konnte der Spieler sogar durch wechselnden seitlichen Druck der Taste subtile Veränderungen der Tonhöhe, Lautstärke und Klangfarbe ermöglichen und zusätzlich expressive Merkmale wie Vibrato, Intensität und Einschwingvorgänge kontrollieren. 1955 erfand er den "Special Purpose Tape Recorder", bei dem es sich um eine Synthese aus Mehrkanal-Bandmaschine und Mellotron handelt, mit der sich bei der Arbeit mit konkreten Klängen ungeahnte Möglichkeiten ergaben. Das 1955 von Le Caine komponierte Stück "Dripsody" ist nur etwas über eine Minute lang und besteht aus dem mit dem "Recorder" aufgenommenen Geräusch eines Wassertropfens, welches vielfach kopiert und mit unterschiedlichen Geschwindigkeiten in einer pentatonischen Skala angeordnet wurde, woraus sich unterschiedliche Tonhöhen ergaben. Beginnend mit dem Originaltropfen, steigern sich Intensität und Dichte durch weitere Bandschleifen zu einem Climax, bis hin zu zwölftönigen Arpeggien, die alle aus dem Klangmaterial des Tropfens abgeleitet sind. Computermusik. Lejaren Hiller gründete in der University of Illinois at Urbana-Champaign 1958 das zweite amerikanische Studio für Elektronische Musik, das "Experimental Music Studio". Er experimentierte dort neben anderen Forschern mit dem "ILLIAC-Rechner" und später dem "IBM 7090-Rechner". Neben der Verwendung in studiotechnischen Geräten lassen sich heute drei große musikalische Anwendungsbereiche für Computer ausmachen, die mit den Stichworten Komposition (Partitursynthese), Klangerzeugung (durch Simulation) und Klangsteuerung umrissen werden. Beim „Grand Price Of Ars Electronica“ wurde 1979 der von Kim Ryrie und Peter Vogel in Australien entwickelte Fairlight Musikcomputer erstmals einem größeren internationalen Publikum vorgeführt. Dieses aufwändige (8-Bit-)Rechenmaschine brachte als wesentliche Neuerung die Sampling-Methode hervor: Sie ermöglichte es erstmals alle Klänge unserer Welt in einen Computer sowohl zu speichern als auch sie mittels der Tastatur jederzeit nicht nur einfach abrufen zu können, sondern sie auf jede gewünschte Tonhöhe bringen zu können und überdies formbar zu machen. Dies öffnete Komponisten und Produzenten völlig neue musikalische und konzeptionelle Dimensionen. Im Januar 1982 beispielsweise erschien auf einem eigens für solche Art von Musik von Ulrich Rützel in Hamburg gegründeten Label und -Verlag das Album „Erdenklang Computerakustische Klangsinfonie“. Es war der erste verfügbare Tonträger mit dieser neuen Produktionstechnologie. In ihren Linernotes zu diesem Album vermerkte Wendy Carlos: „Erdenklang darf nicht mehr ausschließlich als technische, sondern muss weitgehend als musikalische Errungenschaft betrachtet werden. Etwas, worum die elektronische Musik, seit es sie gibt, kämpft.“ Hubert Bognermayr und Ulrich Rützel führten für diese Musik-Gattung den Begriff Computerakustische Musik ein. Die 1983 erschienene „Bergpredigt – Oratorium für Musikcomputer und Stimmen“ verfestigte diese musikhistorische Entwicklung und stellt bis heute einen Meilenstein in der Computermusik dar. Bei dem am 25. April 1987 vom WDR veranstalteten Konzert „Million Bits In Concert“ mit den Elektronik-Musikern Hubert Bognermayr, Harald Zuschrader, Johannes Schmoelling, Kristian Schultze und Matthias Thurow kamen erstmals verschiedene Computersysteme (wie z.B. der Fairlight) auch in einem Livekonzert zum Einsatz. Mike Oldfield ließ sich von Bognermayr und Zuschrader in diese Technologie einführen und ging mit dem Fairlight und Harald Zuschrader auf Tournee. Vereinzelt wird Computermusik inzwischen auch für technisch gesteuerte Theater- und Freiluft-Inszenierungen verwendet, z. B. als Schaltmusik für Feuerwerke. Die 1970er. In den 1970er Jahren entstanden im Kontext von Rockmusik der Progressive Rock und Psychedelic Rock, die durch einen prägnanten Einsatz von elektronischen Tasteninstrumenten zum Teil Elemente elektronischer Musik verarbeiten. Durch den Einfluss von Instrumenten der Computermusik entstanden Synthesizer und Sequencer neben Soundmodulen. Besonders der Synthesizer wurde zum prägenden Instrument der Popmusik. Wendy „Walter“ Carlos, die an der Columbia-Universität Kompositionslehre studierte, war eine der ersten, die sich für den Moog-Synthesizer interessierten, und beriet seit 1964 Robert Moog bei seiner Herstellung. Keith Emerson verwendete den Moog-Synthesizer ebenfalls oft, der durch seine virtuose Spielart stilbildend auf jüngere Musiker wirkte. Die neue Möglichkeit, beliebig lang anhaltende Töne langsamen klanglichen Veränderungen zu unterwerfen, zeigte eine starke Affinität zur „zerfliessenden Formlosigkeit“ des Psychedelic Rock (The United States of America, Silver Apples und Fifty Foot Hose). In den 1970er Jahren entstand in Deutschland die sogenannte Berliner Schule, die später den Krautrock beeinflusste. Bis in die 1980er Jahre hinein entstanden nebeneinander zahlreiche Musikgenres, die elektronisch erzeugte Musik als ästhetisches Mittel verwendeten; aus New Wave wurde Electro Wave, aus Funk wurde Electro Funk und später Hip-Hop, aus Disco wurde House. Die 1980er. Im Bereich der Synthesizer-orientierten Musik hatten großen Einfluss auf viele spätere Musiker die Gruppen wie Kraftwerk, Depeche Mode und Suicide, die für kommende Stile wie EBM, Elektropop, Hip-Hop und Techno eine Art Pionierarbeit leisteten. Die 1990er. Das Sampling im "Techno" wurde durch mehrere Genres (Funk, Electro Funk, New Wave, Electronic Body Music) Ende der 1980er Jahre geschaffen. Ferner liegen Einflüsse in der Perkussionbetonung der "Afroamerikanischen und Afrikanischen Musik". Der Schwerpunkt liegt im elektronisch erzeugten Schlagzeug-Rhythmus durch Drumcomputer. Durch Sampling werden Loops erzeugt, wodurch ein Repetitives Arrangement als charakteristisches Klangbild entsteht. Ab 2000. Ende der 1990er-Jahre wurden Elemente der Elektronischen Musik in die bis dahin oft als konservativ angesehenen Genres des klassischen Rock und Folk übernommen. Bands wie Radiohead oder Tortoise, aber auch Stereolab verarbeiteten elektronische Elemente in Strukturen des klassischen Songwritings und trugen zu einer Neuetablierung Elektronischer (Tanz-)Musik außerhalb der Techno-Szene bei. Seit 2014 gibt es auch auf dem Electric Love Festival in Salzburg eine eigene Hardstyle-Stage. Begriffliche Abgrenzung. Rockmusik wird im allgemeinen Sprachgebrauch nicht zur elektronischen Musik gerechnet, obwohl auch dort elektronische Instrumente und besonders elektronische Effektgeräte eingesetzt werden. Bei Elektrogitarren sind zwar die klangverändernden Wirkungen von Verstärker und Effektgeräten essenziell, trotzdem werden sie nicht zu den Elektrophonen gezählt. Im Psychedelic Rock (z.B. Led Zeppelin oder Deep Purple) kommen auch „echte“ Elektrophone (z. B. Theremin oder Hammond-Orgel) vor, aber auch er wird von der elektronischen Musik abgegrenzt. Im Metal spielen - je nach Substil - analoge Effektgeräte eine bedeutende Rolle, aber Musiker und Szenemitglieder haben oft klare Vorstellungen, welche Geräte verboten sind, um nicht zur elektronischen Musik zu gehören. Digitale Effektgeräte oder digitale Produktion gelten in der ganzen Musikrichtung als Tabu (wobei Keyboards mit analogem Ausgang toleriert werden), und es besteht bei Gitarrenverstärkern eine Ablehnung von Halbleitern. Einzugsbereich. Als Einzugsgebiet oder Einzugsbereich wird ein geographischer Raum bezeichnet, der einen infrastrukturellen Einflussbereich eines meist zentralen Objektes, einer Einrichtung oder einer Struktur darstellt. Dies erfordert geeignete Verbindungswege und deren natürliche Voraussetzungen. Als Beispiele seien genannt das Einzugsgebiet einer Stadt, einer Schule oder eines Unternehmens. Der Terminus wird hauptsächlich in der Wirtschaftsgeografie, Sozialgeographie, Verkehrsgeographie und verwandten Fachdisziplinen und in der Raumplanung verwendet. Das Einzugsgebiet einer Stadt und ihrer öffentlichen Einrichtungen wird von Christaller in seiner Theorie der zentralen Orte (1930er) auch als "Ergänzungsgebiet" bezeichnet. Im Ergänzungsgebiet wohnen die Nachfrager der Güter (insbesondere Dienstleistungen), die in dem zentralen Ort angeboten werden. Die Nachfrager im Ergänzungsgebiet sind in ihrem Kundenverhalten auf den zentralen Ort hin orientiert bzw. werden von ihm versorgt. Streng genommen versteht man in dieser Theorie unter einem "zentralen Ort" jedwede Form von Angebotsstandort, in der Praxis wird hierunter allerdings meist eine Gebietskörperschaft verstanden. Dies gilt insbesondere für das System der zentralen Orte in der Raumordnung. Weitere Namen solcher Gebiete von Siedlungen in ihrer funktionalen Vielfalt sind "Verflechtungsbereich", auf die Infrastruktur bezogen "Versorgungsgebiet" oder wirtschaftlicher fokussiert "Marktgebiet". Vereinzelt haben Institutionen wie niedergelassene Ärzte, Apotheken, oder Rauchfangkehrer und andere Infrastruktur von öffentlichem Interesse, auch einen rechtlich garantierten Gebietsschutz. In einem ähnlichen Sinne sind die Einzugsgebiete von beispielsweise Schulen und von Unternehmen (insbesondere Einzelhandelsbetriebe und andere Anbieter haushaltsorientierter Dienstleistungen) zu verstehen, doch kann ihr geografischer Zusammenhang stärker gelockert sein. Denn Ausbildungs- oder Produktionsbetriebe haben zwar meist ihren regionalen Markt, sprechen jedoch auch weiter entfernte Kunden an. Die Planung der Einzugsbereiche von Schulen ergibt die Schulsprengel, in denen Pflicht zum Besuch einer gewissen öffentlichen Schule besteht. Je spezieller eine Schule oder eine Firma ausgerichtet ist, desto weiter und auch verzweigter ist im Regelfall ihr Einzugsgebiet. Ähnliches gilt für Krankenhäuser, kulturelle Angebote (Theater, Museen, usf.), aber auch Freizeit-Einrichtungen (Vergnügungsparks, Tourismusregionen, usf.). Insgesamt bilden Einzugsgebiete stets Konstrukte, da sie großen räumlich-zeitlichen Variationen unterliegen und nur anhand von theoretischen Überlegungen exakt abgegrenzt und segmentiert werden können (z. B. mit dem Huff-Modell), oder aber regulierenden politischen Eingriffen (Grenzziehungen) absichtlich hergestellt. Die Planung solcher Versorgungs- und Interessensgebiete obliegt im öffentlichen Bereich – etwa für Schulen, Ämter und Apotheken – der amtlichen Raumordnung. In der privaten Wirtschaft ist die Planung Sache der Marktforschung und der Unternehmens-Strategie, bzw. in der weiteren Entwicklung eine Angelegenheit der Werbung. Liste von Erfindern. Dies ist eine Liste von Erfindern, die die Welt mit ihren Erfindungen bereichert haben. Ein Erfinder ist jemand, der ein Problem erkannt hat, es gelöst und mindestens einmal damit Erfolg gehabt hat. Er muss nicht der erste gewesen sein; eine Erfindung kann auch mehrmals gemacht werden oder durch ständige Verbesserungen in mehreren Schritten entstanden sein. Eine Erfindung ist meistens ein technisches Gerät oder eine Maschine, kann aber auch ein Verfahren, eine Methode oder eine Dienstleistung sein. Auch eine nicht materielle Idee, selbst wenn sie erst später von einem anderen ausgeführt wurde, kann als Erfindung zählen. Außerdem gibt es Erfindungen, die keinen Nutzen hatten oder die später wieder verworfen wurden. Weblinks. ! ! Mehlbeeren. Die Mehlbeeren ("Sorbus"), auch Vogelbeeren, Ebereschen oder Elsbeeren genannt, sind eine Pflanzengattung der Kernobstgewächse (Pyrinae) innerhalb der Familie der Rosengewächse (Rosaceae). Die etwa 100 Arten sind in den gemäßigten Gebieten der Nordhalbkugel verbreitet. Alle Arten tragen im Herbst auffällige Früchte. Einige Arten wie etwa die Japan- oder die Kaschmir-Eberesche werden wegen ihrer auffälligen Herbstfärbung in Gartenanlagen und Parks gepflanzt. Zur Gattung gehören auch der Vogelbeerbaum, dessen Früchte zu Schnaps und Marmelade verarbeitet werden, sowie der Speierling, der in der Apfelweinherstellung eine Rolle spielt. Beschreibung. a> ("Sorbus chamaemespilus") in "Atlas der Alpenflora" a> ("Sorbus aria") mit ungleichmäßig gesägten Blatträndern, die einfachen Blätter sind meistens nicht gelappt a> ("Sorbus scalaris") im Oktober mit Früchten Erscheinungsbild und Blätter. "Sorbus"-Arten wachsen als meist sommergrüne Bäume und Sträucher. Die Bäume sind gelegentlich mehrstämmig und haben häufig eine weit ausladende Krone. Einige Arten erreichen eine Wuchshöhe zwischen 25 und 30 Metern. Zu den groß werdenden Arten zählt beispielsweise "Sorbus pohuashanensis", eine bis zu 20 Meter hoch werdende Art, die in den Bergregionen Nordchinas zu finden ist. Die meisten Arten bleiben deutlich niedriger. Die in Mitteleuropa heimische Zwerg-Mehlbeere erreicht eine Wuchshöhe von etwa 3 Metern. Die in Westchina beheimatete "Sorbus reducta" wird sogar nur 1,5 Meter hoch und bildet durch ihre zahlreichen Ausläufer dichte Gestrüppe. Die meist relativ großen Winterknospen sind eiförmig, konisch oder spindelförmig und manchmal klebrig mit einigen sich dachziegelartig überdeckenden Knospenschuppen, die kahl oder flaumig behaart sind. Die wechselständig an den Zweigen angeordneten Laubblätter sind in Blattstiel und Blattspreite gegliedert. Die Blattspreiten sind einfach oder gefiedert. Die Blattränder sind oft gesägt, selten fast ganzrandig. Die Blattflächen sind kahl oder flaumig behaart. Es liegt Fiedernervatur vor. Die Nebenblätter fallen meist früh ab. Blütenstände und Blüten. Die Blütezeit liegt je nach Art im Frühjahr bis Sommer. Die endständigen, meist zusammengesetzten, selten einfachen schirmtraubigen oder rispigen Blütenstände enthalten meist viele Blüten. Die zwittrigen Blüten sind radiärsymmetrisch und fünfzählig mit doppelter Blütenhülle. Der Blütenbecher (Hypanthium) ist glockenförmig, selten verkehrt-konisch oder krugförmig. Die fünf meist grünen Kelchblätter sind eiförmig oder dreieckig und kahl bis flaumig oder wollig behaart; manchmal befinden sich Drüsenhaare entlang der Ränder. Die fünf freien gelblich-weißen bis weiß-rosafarbenen Kronblätter können genagelt sein und sind kahl bis flaumig behaart. Die meist 15 bis 25, selten bis 44 Staubblätter stehen in zwei oder drei Kreisen und sind ungleich lang. Die Staubbeutel sind eiförmig oder fast kugelig. Die zwei bis fünf unterständigen bis halbunterständigen Fruchtblätter sind teilweise oder vollständig mit dem Blütenbecher verwachsen. Jedes Fruchtblatt enthält zwei oder drei, selten vier aufrechte, anatrope Samenanlagen, von denen meist eine verkümmert. Es sind zwei bis fünf freie oder teilweise verwachsene Griffel, die kahl oder flaumig behaart sind, vorhanden. Früchte und Samen. Die Sammelbalgfrüchte der Mehlbeeren sind Apfelfrüchte und erinnern an kleine Äpfel, was aufgrund der botanischen Einordnung in die Kernobstgewächse (Pyrinae) nicht überrascht. Ähnlich wie beim Apfel sitzen oben an der Frucht die fünf Kelchblätter, die haltbar sind oder abfallen und eine ringförmige Narbe hinterlassen. Die Apfelfrüchte färben sich je nach Art bei Reife weiß, gelb, rosafarben, braun oder orange bis rot. Die meist relativ kleinen Apfelfrüchte sind eiförmig oder kugelförmig bis ellipsoid oder länglich. Die Fruchtschale ist kahl oder flaumig behaart und es können kleine Lentizellen vorhanden sein. Das pergamentartige Kerngehäuse besteht aus meist zwei bis fünf, selten bis zu sieben Kammern, die jeweils ein oder zwei Samen enthalten. In den Samen umgibt ein dünnes Perisperm und Endosperm den Embryo mit seinen zwei zusammengepreßten Keimblättern (Kotyledonen). „Schädlinge“. Sämlinge und junge Bäume der "Sorbus"-Arten werden von Hirschen, Rehen, Hasen, Kaninchen, Wühlmäusen und Mäusen geschädigt. Mäuse und Wühlmäuse benagen unter anderem die Rinde der Bäume und können dadurch junge Pflanzen zum Absterben bringen. Die Larven des Gefurchten Dickmaulrüsslers fressen die Rinden der Wurzeln und können im Extremfall eine Pflanze so schädigen, dass sie abstirbt. Die Wahrscheinlichkeit, dass eine Pflanze von diesen Larven befallen wird, steigt mit dem Humusgehalt des Bodens. In normaler Erde ist der zu erwartende Schädlingsbefall gering. Fruchtfressende Vogelarten. Die auffälligen Früchte der Mehlbeeren werden von einer großen Anzahl von Vogelarten gefressen. Der Samen der Früchte passiert in der Regel unbeschädigt den Darmkanal der Vögel. Zu den fruchtfressenden Arten zählen Amseln, Drosseln wie etwa Rotdrossel, Rotkehlchen und Wacholderdrossel sowie Stare und Seidenschwänze. Die Geschwindigkeit, mit der der Fruchtbehang eines Baumes von Vögeln geplündert wird, scheint abhängig vom umgebenden Bewuchs zu sein. In Vorstädten werden nach den Untersuchungen von McAllister reifende "Sorbus"-Bäume innerhalb von nur ein oder zwei Wochen ihrer Früchte beraubt. McAllister führt dies auf einen höheren Bestand an immergrünen Pflanzen zurück, die den Vögeln Deckung bieten. "Sorbus"-Bäume, die vereinzelt in einem Feld oder auf einer Rasenfläche stehen, behalten ihre Früchte dagegen über Monate. Auch die "Sorbus"-Art hat einen Einfluss auf die Geschwindigkeit, mit der Vögel die Früchte fressen. Von Vögeln besonders geschätzt sind die Arten "Sorbus decora", "Sorbus cascadensis", "Sorbus sitchensis" und "Sorbus matsumurana". Diese früh reifenden Arten werden von Vögeln bereits gefressen, bevor sie vollreif sind. Verbreitung und Lebensraum. Die etwa 100 Arten der Gattung "Sorbus" besitzen ein weites natürliches Verbreitungsgebiet auf die Nordhalbkugel und kommen hauptsächlich in Eurasien und im nördlichen Nordamerika vor. Einige wenige Arten kommen auch in Nordafrika sowie auf Madeira vor. In China kommen 67 Arten vor, 43 davon nur dort. Typisch für die meisten Arten dieser Gattung ist ihre Anpassungsfähigkeit an extreme Standorte. Bäume und Sträucher dieser Gattung findet man beispielsweise in exponierten Felsenwänden, wo sie in nur wenig Erde führenden Spalten wurzeln. Gelegentlich sieht man junge Ebereschen, die in Dachrinnen heranwachsen. Die Ansprüche der "Sorbus"-Arten an den Boden sind gering und sie sind in der Lage, auf nährstoffarmen und sauren Böden zu gedeihen. Die meisten Arten reagieren auf nährstoffreiche und humose Böden mit erhöhtem Wachstum. Zu den kalkfliehenden Arten zählen "Sorbus cracilis" und "Sorbus poteriifolia", die Chlorose entwickeln, wenn sie auf kalkhaltigen Böden stehen. Viele "Sorbus"-Arten reagieren empfindlich auf Trockenheit und werfen nach längeren Trockenperioden frühzeitig im Jahr ihre Blätter ab. Als besonders trockenheitsempfindlich gelten Arten, die im Himalaya beheimatet sind. Trockene Standorte haben auch einen Einfluss auf das maximale Höhenwachstum eines Baumes. Speierlinge erreichen beispielsweise an optimalen Standorten in Bayern und Baden-Württemberg Wuchshöhen von über 30 Metern. An niederschlagsärmeren Standorten auf dem Balkan und Frankreich werden diese Bäume selten höher als 25 Meter. Im Gebirge kommen "Sorbus"-Arten regelmäßig bis zur Baumgrenze vor. "Sorbus"-Arten zählen auch zu den Baumarten, die in der Waldtundra gedeihen. Reine Bestände mit "Sorbus"-Arten sind selten. "Sorbus"-Arten sind tendenziell lichthungrige Pionierpflanzen, die an Waldrändern und Lichtungen gedeihen, wo die Konkurrenzsituation mit anderen Baumarten geringer ist. Da der Samen von "Sorbus"-Arten regelmäßig durch Vögel verbreitet wird, findet man in Unterholz von Wäldern eine große Anzahl von "Sorbus"-Sämlingen. Fallen konkurrierende Bäume einem Feuer oder Sturm zu Opfer, werden die entstehenden Lücken schnell durch "Sorbus"-Arten geschlossen. Die apomiktischen Mehlbeeren. Es gibt eine Vielzahl von Bastarden zwischen den Arten innerhalb der Gattung "Sorbus". Meistens entstehen aus diesen Hybridisierungsvorgängen nur kleinräumig verbreitete Arten, die sich apomiktisch vermehren, indem sie Samen auf ungeschlechtlichem Weg mittels Agamospermie bilden. Nachkommen aus diesen Samen sind genetisch identisch mit dem Pflanzenexemplar, von der der Samen abstammt. Beispielsweise umfasst der Komplex der Bastard-Mehlbeeren ("Sorbus latifolia" agg.) apomiktische Arten, die aus einer Hybridisierung der Elsbeere ("Sorbus torminalis") und Arten der "Sorbus aria"-Gruppe hervorgegangen sind. Ein weiterer Bastard-Komplex ist aus der Vogelbeere ("Sorbus aucuparia") und der Felsen-Mehlbeere ("Sorbus rupicola") entstanden. Hierzu gehören einige Endemiten aus England wie die Art "Sorbus leyana", die mit nur noch 16 Exemplaren zu den seltensten Bäumen der Welt zählt. Systematik. Die Gattung "Sorbus" wurde durch Carl von Linné aufgestellt. Synonyme für "Sorbus" sind: "Aria", "Ariosorbus", "Chamaemespilus", "Hahnia", "Micromeles", "Torminalis", "Cormus". Die Gattung "Sorbus" gehört zur Subtribus der Kernobstgewächse (Pyrinae) in der Unterfamilie Spiraeoideae innerhalb der Familie Rosaceae. Früchte. Mehlbeeren haben längst nicht die ökonomische Bedeutung wie andere Kernobstgewächse. Eine ökonomische Bedeutung haben vor allem die Eberesche und der Speierling. Die Früchte der Eberesche werden sowohl in der Wildkräuterküche wie in der Pflanzenheilkunde verwendet. Die Früchte enthalten Sorbinsäure und zwischen 0,02 bis 0,30 Prozent Parasorbinsäure. Nach der Entbitterung werden sie meist zu Marmelade, Kompott oder Gelee gekocht. Ebenso werden aus ihnen Schnaps, Sirup und Tee hergestellt. Die Volksheilkunde setzt Vogelbeeren bei Rheuma, Verstopfung und bei Blutungen sowie Absude der Früchte als Gurgelmittel bei Heiserkeit ein. Früher wurden die Früchte auch zur Sorbitgewinnung verwendet. Sorbit, auch "Sorbitol" genannt, ist ein Zuckeralkohol, der als Zuckerzusatz in Diabetikerpräparaten Verwendung findet. Die Früchte des Speierlings werden aufgrund ihres Tanningehalts als klärender Zusatz zu Apfelwein verwendet. Holz. Das Holz der Elsbeere, teils auch das ähnliche Holz des Speierlings gilt als sehr wertvoll ("Schweizer Birnbaum") und wird v. a. als Furnierholz und in der Möbelindustrie verwendet. Früher wurden aus dem formstabilen Holz auch Lineale und Rechenschieber gefertigt. Feuerbrand. Alle Mehlbeeren, insbesondere Speierling, Elsbeere, Vogelbeere/Eberesche, Echte Mehlbeere sind als Kernobstgewächse stark durch Befall mit Feuerbrand gefährdet und zählen mit zu den Hauptwirtsgruppen. Sonstiges. Im Jahr 2011 wurde die Elsbeere ("Sorbus torminalis") in Deutschland zum Baum des Jahres 2011 ernannt. Ethik. Die Ethik (' „das sittliche (Verständnis)“, von "ēthos" „Charakter, Sinnesart“ (dagegen ἔθος: Gewohnheit, Sitte, Brauch), vergleiche lateinisch ') ist jener Teilbereich der Philosophie, der sich mit den Voraussetzungen menschlichen Handelns und seiner Bewertung befasst. Im Zentrum der Ethik steht das spezifisch moralische Handeln, insbesondere hinsichtlich seiner Begründbarkeit und Reflexion. Cicero übersetzte als erster "êthikê" in den seinerzeit neuen Begriff "philosophia moralis". In seiner Tradition wird die Ethik auch als Moralphilosophie bezeichnet. Die Ethik und ihre benachbarten Disziplinen (z. B. Rechts-, Staats- und Sozialphilosophie) werden auch als „praktische Philosophie“ zusammengefasst, da sie sich mit dem menschlichen Handeln befasst. Im Gegensatz dazu steht die „theoretische Philosophie“, zu der als klassische Disziplinen die Logik, die Erkenntnistheorie und die Metaphysik gezählt werden. Begriff, Gegenstand und Gliederung der Ethik. a> begründete die Ethik als eigenständige philosophische Disziplin. Als Bezeichnung für eine philosophische Disziplin wurde der Begriff "Ethik" von Aristoteles eingeführt, der damit die wissenschaftliche Beschäftigung mit Gewohnheiten, Sitten und Gebräuchen ("ethos") meinte, wobei allerdings schon seit Sokrates die Ethik ins Zentrum des philosophischen Denkens gerückt war (Sokratische Wende). Hintergrund war dabei die bereits von den Sophisten vertretene Auffassung, dass es für ein Vernunftwesen wie den Menschen unangemessen sei, wenn dessen Handeln ausschließlich von Konventionen und Traditionen geleitet wird. Aristoteles war der Überzeugung, menschliche Praxis sei grundsätzlich einer vernünftigen und theoretisch fundierten Reflexion zugänglich. Ethik war somit für Aristoteles eine philosophische Disziplin, die den gesamten Bereich menschlichen Handelns zum Gegenstand hat und diesen Gegenstand mit philosophischen Mitteln einer normativen Beurteilung unterzieht und zur praktischen Umsetzung der auf diese Weise gewonnenen Erkenntnisse anleitet. Die allgemeine Ethik – die im Folgenden einfach als Ethik bezeichnet wird – wird heute als eine philosophische Disziplin verstanden, deren Aufgabe es ist, Kriterien für gutes und schlechtes Handeln und die Bewertung seiner Motive und Folgen aufzustellen. Sie ist die Grundlagendisziplin der Angewandten Ethik, die sich als Individualethik und Sozialethik sowie in den Bereichsethiken mit den normativen Problemen des spezifischen Lebensbereiches befasst. Die Ethik baut als philosophische Disziplin allein auf das Prinzip der Vernunft. Darin unterscheidet sie sich vom klassischen Selbstverständnis theologischer Ethik, die sittliche Prinzipien als in Gottes Willen begründet annimmt und insofern im Allgemeinen den Glauben an eine göttliche Offenbarung voraussetzt. Besonders im 20. Jahrhundert haben allerdings Autoren wie Alfons Auer theologische Ethik als weitgehend autonom zu konzipieren versucht. Das Ziel der Ethik ist die Erarbeitung von allgemeingültigen Normen und Werten. Sie ist abzugrenzen von einer "deskriptiven Ethik", die keine moralischen Urteile fällt, sondern die tatsächliche, innerhalb einer Gesellschaft gelebte Moral mit empirischen Mitteln zu beschreiben versucht. Die Metaethik, die sich zu Beginn des 20. Jahrhunderts als eigenständige Disziplin entwickelte, reflektiert die allgemeinen logischen, semantischen und pragmatischen Strukturen moralischen und ethischen Sprechens und stellt insofern die Grundlage für die deskriptive und normative Ethik dar. Philosophische Fragestellungen zur Ethik. 1. mit der Frage nach dem „höchsten Gut“; 2. mit der Frage nach dem richtigen Handeln in bestimmten Situationen – also: „Wie soll ich mich in dieser Situation verhalten?“ (Die einfachste und klassische Formulierung einer solchen Frage stammt von Immanuel Kant:) und 3. mit der Frage nach der Freiheit des Willens. Als Hauptgegenstand der Ethik gelten den meisten Philosophen die menschlichen Handlungen und die sie leitenden Handlungsregeln. Die Ergebnisse bestehen in anwendbaren ethischen (bzw. moralischen) Normen, die beinhalten, dass unter bestimmten Bedingungen bestimmte Handlungen geboten, verboten oder erlaubt sind. Insofern als in der Ethik nach allgemeingültigen Antworten auf die Frage nach dem richtigen Handeln gesucht wird, stellt sich die Frage nach der Möglichkeit allgemeingültiger ethischer Normen und deren Begründung. Diese Diskussion über die Grundlagen der Ethik, ihre Kriterien und Methoden, ist ein wichtiger Teil der philosophischen Disziplin "Ethik", der auch als Metaethik bezeichnet wird. Ziele der Ethik. Die Ethik ist von ihrer Zielsetzung her eine praktische Wissenschaft. Es geht ihr nicht um ein Wissen um seiner selbst willen "(theoria)," sondern um eine verantwortbare Praxis. Sie soll dem Menschen (in einer immer unüberschaubarer werdenden Welt) Hilfen für seine sittlichen Entscheidungen liefern. Dabei kann die Ethik allerdings nur allgemeine Prinzipien guten Handelns oder ethischen Urteilens überhaupt oder Wertvorzugsurteile für bestimmte Typen von Problemsituationen begründen. Die Anwendung dieser Prinzipien auf den einzelnen Fall ist im Allgemeinen nicht durch sie leistbar, sondern Aufgabe der praktischen Urteilskraft und des geschulten Gewissens. Aristoteles vergleicht dies mit der Kunst des Arztes und des Steuermanns. Diese verfügen über ein theoretisches Wissen, das aber situationsspezifisch angewendet werden muss. Entsprechend muss auch die praktische Urteilskraft allgemeine Prinzipien immer wieder auf neue Situationen und Lebenslagen anwenden. Dabei spielt für die richtige sittliche Entscheidung neben der Kenntnis allgemeiner Prinzipien die Schulung der Urteilskraft in praktischer Erfahrung eine wichtige Rolle. Abgrenzungen zu benachbarten Disziplinen. Auch die Theorie der rationalen Entscheidung beantwortet die Frage: Wie soll ich handeln? Jedoch unterscheidet sie sich von ethischen Fragestellungen dadurch, dass Theorien rationalen Handelns nicht in jedem Falle auch Theorien des moralisch Guten sind. Von ethischen Theorien mit einem allgemeinverbindlichen Anspruch unterscheiden sich Theorien rationaler Entscheidung dadurch, dass nur die Ziele und Interessen eines bestimmten Individuums oder eines kollektiven Subjekts (z. B. eines wirtschaftlichen Unternehmens oder eines Staates) berücksichtigt werden. Zur Unterscheidung zwischen Ethik und Moral kann auf Hegel verwiesen werden und seinen Versuch einer Synthese aus dem klassischen Gemeinschafts- und dem modern-individualistischen Freiheitsdenken. Auch die Rechtswissenschaft fragt danach, wie gehandelt werden soll. Im Unterschied zur Ethik bezieht sie sich jedoch i. Allg. auf eine bestimmte, faktisch geltende Rechtsordnung (positives Recht), deren Normen sie auslegt und anwendet. Wo die Rechtswissenschaft als Rechtsphilosophie, Rechtspolitik oder Gesetzgebungslehre auch die Begründung von Rechtsnormen behandelt, nähert sie sich der Ethik an. Auch religiös motivierte Ethiken geben Antworten auf die Frage, wie gehandelt werden soll. Im Unterschied zu philosophisch begründeten Ethiken beanspruchen diese jedoch nicht in jedem Fall, dass ihre Antworten auf für jeden nachvollziehbare Argumente gegründet sind, sondern können sich etwa auf eine göttliche Offenbarung als Quelle von Handlungsnormen berufen (siehe etwa die Sollens-Aussagen der Zehn Gebote im Judentum). Mit gesellschaftlichen Normen des Handelns befassen sich auch empirische Wissenschaften wie Soziologie, Ethnologie und Psychologie. Im Unterschied zur normativen Ethik im philosophischen Sinne geht es dort jedoch um die Beschreibung und Erklärung faktisch bestehender ethischer Überzeugungen, Einstellungen und Sanktionsmuster und nicht um deren Rechtfertigung oder Kritik. Gründe für und gegen Moral. Die Frage, ob man überhaupt moralisch sein soll, wird in Platons "Politeia" im ersten Kapitel aufgeworfen. In der Moderne wurde der Diskurs um die Frage von Bradley und Prichard eingeleitet. Metaethische Kognitivisten behaupten, erkennen zu können, wie man moralisch handeln solle. Somit stellt sich ihnen die Frage, ob man das überhaupt tun soll, nicht mehr, da sie auch gleich mit erkennen, dass man dies tun soll. Metaethische Nonkognitivisten hingegen müssen die Frage, ob man moralisch handeln soll, klären. Die Diskussion wird in der Philosophie zumeist anhand der Frage „Warum soll man moralisch sein?“ geführt. Das Sollen innerhalb der Frage ist dabei kein moralisches Sollen, sondern verweist auf eine Akzeptanz besserer Gründe, z. B. anhand der Theorie der rationalen Entscheidung. Die Antwort auf die Frage hängt also ab vom jeweiligen Verständnis von Vernunft. Die Situation des Menschen, der sich zwischen diesen Antworten entscheiden muss, hat ihre klassische Gestaltung in der so genannten Prodikos-Fabel von Herakles am Scheideweg gefunden, die auch von vielen christlichen Autoren rezipiert wurde. Absolute Begründung der Moral. Eine bekannte absolute Moralbegründung ist die der Letztbegründung von Apel. Angenommen jemand lehnt es ab über Zwecke zu reden, dann sei diese Ablehnung bereits ein Reden über Zwecke. Insofern ist dies ein so genannter performativer Selbstwiderspruch. Moralbegründung aus Sicht der Systemtheorie verzichtet darauf, zu begründen, warum Individuen moralisch handeln sollen. Stattdessen wird dargelegt, warum Moral als Regulierungsfunktion des Kommunikationssystems unentbehrlich ist (s. a. AGIL-Schema). Relative Begründungen der Moral. Viele Philosophen behaupten, dass man zwar nicht beweisen kann, dass Amoralismus logisch widersprüchlich ist, dass aber im wirklichen Leben Amoralisten viele Nachteile haben, so dass moralisches Verhalten größere Rentabilität im Sinne der Theorie der rationalen Entscheidung besitzt. Ethik wird mit dieser Form von Moralbegründung zu einer Spezialform von Zweckrationalität. Einer der wichtigsten Vertreter dieser Argumentationslinie ist David Gauthier. Viele Philosophen dieser Richtung berufen sich auf den Grundsatz quid pro quo oder auf "Tit for Tat"-Strategien. Andere meinen, Amoralisten seien auf Einsamkeit festgelegt, da man ihnen nicht vertrauen könne und auch sie niemandem vertrauen könnten. Daher könnten sie eines der wichtigsten Lebensgüter, soziale Gemeinschaft und Anerkennung, nie erreichen. Nach R. M. Hare können Amoralisten keine moralischen Begriffe gebrauchen und daher nicht von ihren Mitmenschen fordern, sie fair zu behandeln. Die Möglichkeit entsprechender Lügen sah Hare nicht. Hare behauptete zudem, der Aufwand, den Amoralisten treiben müssten, um ihre Überzeugung zu verschleiern, wäre so groß, dass sie sozial immer im Nachteil seien. Amoralisten kritisieren verschiedene Moralbegründungen, indem sie darauf verweisen, dass es in vielen Teilen der Welt relativ stabile Verhältnisse gibt, die üblichen moralischen Vorstellungen widersprechen, z. B. völkerrechtswidrige Kriege um Ressourcen, Sklaverei oder erfolgreiche Mafia-Organisationen. Dezisionismus. Dezision (von latein decidere: entscheiden, fallen, abschneiden) bedeutet soviel wie Entscheidung. Der Begriff des Dezisionismus wird oft in pejorativer Bedeutung gebraucht von Metaethischen Kognitivisten gegenüber Philosophen, die nur relative Begründungen der Moral anerkennen, z. B. Hare oder Popper und Hans Albert. Dezisionisten sehen keine Alternative zu Prinzipienentscheidungen, die aus logischen oder pragmatischen Gründen ihrerseits nicht mehr weiter begründet werden können. So behauptete z. B. Henry Sidgwick, der Mensch müsse sich zwischen Utilitarismus und Egoismus entscheiden. Dem Dezisionismus wird von seinen Kritikern ähnlich wie dem metaethischen Nonkognitivismus entgegengehalten, dass auch Entscheidungen wiederum einer Bewertung unterzogen werden könnten: Man entscheide sich nicht für bestimmte ethische Prinzipien, sondern diese würden umgekehrt die Grundlage von Entscheidungen darstellen. Außerdem argumentieren Vertreter des Naturrechts dafür, dass sich die Objektivität der Ethik (also das Sollen) auf die Natur bzw. das Wesen des Seienden und letztlich auf das Sein selbst (d. h. Gott) zurückführen ließen. Ethische Grundbegriffe. Ethische Grundbegriffe in ihrem Zusammenhang Moralische Handlungen. Im Mittelpunkt deontologischer Ethiken steht der Begriff der Handlung. Sie wird in erster Annäherung definiert als „eine von einer Person verursachte Veränderung des Zustands der Welt“. Die Veränderung kann eine äußere, in Raum und Zeit beobachtbare oder eine innere, mentale Veränderung sein. Auch die Art und Weise, wie man von außen einwirkenden Ereignissen begegnet, kann im weiteren Sinne als Handlung bezeichnet werden. Absicht und Freiwilligkeit. Handlungen unterscheiden sich von Ereignissen dadurch, dass wir als ihre Ursache nicht auf ein weiteres Ereignis verweisen, sondern auf die Absicht des Handelnden. Die Absicht (intentio; nicht zu verwechseln mit dem juristischen Absichtsbegriff, dem dolus directus 1. Grades) ist ein von der Handlung selbst zu unterscheidender Akt. Geplanten Handlungen liegt eine zeitlich vorausgehende Absicht zugrunde. Wir führen die Handlung so aus, wie wir sie uns vorher schon vorgenommen hatten. Der Begriff der Absicht ist von dem der Freiwilligkeit zu unterscheiden. Die Freiwilligkeit ist eine Eigenschaft, die zur Handlung selbst gehört. Der Begriff der Freiwilligkeit ist weiter als der der Absicht; er umfasst auch die spontanen Handlungen, bei denen man nicht mehr von Absicht im engeren Sinne sprechen kann. Wissen und Willen. Eine Handlung ist dann "freiwillig", wenn sie mit Wissen und Willen durchgeführt wird. Kant versuchte eine rein formale Begründung der Ethik Für die sittliche Bewertung einer Handlung ist außerdem das effektive "Wollen" wesentlich, die Absicht ihrer Verwirklichung. Das setzt voraus, dass zumindest der Handelnde der Auffassung war, dass ihm eine Verwirklichung seiner Absicht möglich sei, d. h. dass das Ergebnis von seinem Handeln kausal herbeigeführt werden könne. Unterliegt der Handelnde einem äußeren Zwang, hebt dieser die Freiwilligkeit der Handlung im Allgemeinen auf. Handlungsprinzipien. Absichten finden ihren Ausdruck in praktischen Grundsätzen. Diese können zunächst einmal in inhaltliche und formale Grundsätze unterschieden werden. Inhaltliche Grundsätze legen konkrete inhaltliche Güter (Leben, Gesundheit, Besitz, Vergnügen, Umwelt etc.) als Bewertungskriterium für das Handeln zugrunde. Sie sind teilweise subjektiv und haben unter Umständen einen dezisionistischen Charakter. In diesen Fällen können sie ihre eigene Vorrangstellung nicht gegenüber anderen, konkurrierenden inhaltlichen Grundsätzen begründen. Formale Grundsätze verzichten auf einen Bezug zu konkreten inhaltlichen Gütern. Das bekannteste Beispiel ist der Kategorische Imperativ Kants. Die Ethik ist häufig nur in der Lage, Aussagen zu den ersten beiden Ebenen zu machen. Die Übertragung von praktischen Grundsätzen auf eine konkrete Situation, erfordert das Vermögen der praktischen Urteilskraft. Nur mit seiner Hilfe können eventuell auftretende Zielkonflikte gelöst und die voraussichtlichen Folgen von Entscheidungen abgeschätzt werden. Handlungsfolgen. Wesentlich für die ethische Bewertung von Handlungen sind die mit ihnen verbundenen Folgen. Diese werden unterschieden in motivierende und in Kauf genommene Folgen. Motivierende Folgen sind solche, um derentwillen eine Handlung ausgeführt wird. Sie werden vom Handelnden unmittelbar angezielt („Voluntarium in se“). In Kauf genommene Folgen („Voluntarium in causa“) werden zwar nicht unmittelbar angezielt, aber als Nebenwirkung der motivierenden Folgen vorausgesehen und bewusst zugelassen (Prinzip der Doppelwirkung). So unterliegt beispielsweise bewusste Fahrlässigkeit als bedingter Vorsatz (dolus eventualis) der ethischen und rechtlichen Verantwortung: Volltrunkenheit entschuldigt nicht bei einem Verkehrsunfall. Tun und Unterlassen. Bereits Thomas von Aquin unterscheidet eine zweifache Kausalität des Willens: die „direkte“ Einwirkung des Willens, in der durch den Willensakt ein bestimmtes Ereignis hervorgerufen wird und die „indirekte“, in der ein Ereignis dadurch eintritt, dass der Wille untätig bleibt. Tun und Unterlassen unterscheiden sich hierbei nicht hinsichtlich ihrer Freiwilligkeit. Beim Unterlassen verzichtet jemand auf das Eingreifen in einen Prozess, obwohl er die Möglichkeit dazu hätte. Auch das Unterlassen kann daher als Handlung aufgefasst werden und strafbar sein. Die strikte Unterscheidung zwischen diesen beiden Handlungsformen, die z. B. in der medizinischen Ethik eine große Rolle spielt (vgl. aktive und passive Sterbehilfe etc.), erscheint daher vom ethischen Standpunkt aus gesehen als teilweise fragwürdig. Das Ziel menschlichen Handelns. Im Mittelpunkt teleologischer Ethiken steht die Frage, was ich mit meiner Handlung letztlich bezwecke, welches Ziel ich mit ihr verfolge. Der Begriff „Ziel“ (finis, telos;) ist hier insbesondere als „letztes Ziel“ oder „Endziel“ zu verstehen, von dem all mein Handeln bestimmt wird. Glück als letztes Ziel. Philosophiegeschichtlich konkurrieren die Bestimmungen von Glück als „Lebensglück“ und als subjektives Wohlbefinden miteinander. Für die Eudämonisten (Platon, Aristoteles) ist Glück die Folge der Verwirklichung einer Norm, die als Telos im Wesen des Menschen angelegt ist. Glücklich ist dieser Konzeption zufolge vor allem, wer auf vernünftige Weise tätig ist. Für die Hedonisten (Sophisten, klassische Utilitaristen) gibt es kein zu verwirklichendes Telos des Menschen mehr; es steht keine objektive Norm zur Verfügung, um zu entscheiden, ob jemand glücklich ist. Dies führt zu einer Subjektivierung des Glücksbegriffs. Es obliege allein dem jeweiligen Individuum, zu bewerten, ob es glücklich ist. Glück wird hier mit dem Erreichen von Gütern wie Macht, Reichtum, Ruhm etc. gleichgesetzt. Sinn und Ziel. Das Wort „Sinn“ bezeichnet grundsätzlich die Qualität von etwas, das dieses verstehbar macht. Wir verstehen etwas dadurch, indem wir erkennen, worauf es „hingeordnet“ ist, wozu es dient. Die Frage nach dem Sinn steht also in einem engen Zusammenhang mit der Frage nach dem Ziel oder Zweck von etwas. Auch der Sinn einer Handlung oder gar des ganzen Lebens kann nur beantwortet werden, wenn die Frage nach seinem Ziel geklärt ist. Eine menschliche Handlung bzw. ein gesamtes Leben ist dann sinnvoll, wenn es auf dieses Ziel hin ausgerichtet ist. Der Begriff „gut“. „Gut“ gehört wie der Begriff „seiend“ zu den ersten und daher nicht mehr definierbaren Begriffen. Es wird zwischen einem adjektivischen und einem substantivischen Gebrauch unterschieden. Als Adjektiv bezeichnet das Wort „gut“ generell die Hinordnung eines „Gegenstandes“ auf eine bestimmte Funktion oder einen bestimmten Zweck. So spricht man z. B. von einem „guten Messer“, wenn es seine im Prädikator „Messer“ ausgedrückte Funktion erfüllen – also z. B. gut schneiden kann. Analog spricht man von einem „guten Arzt“, wenn er in der Lage ist, seine Patienten zu heilen und Krankheiten zu bekämpfen. Ein „guter Mensch“ ist demnach jemand, der in seinem Leben auf das hin ausgerichtet ist, was das Menschsein ausmacht, also dem menschlichen Wesen bzw. seiner Natur entspricht. Als Substantiv bezeichnet das Wort „das Gut“ etwas, auf das hin wir unser Handeln ausrichten. Wir gebrauchen es normalerweise in dieser Weise, um „eine unter bestimmten Bedingungen vollzogene Wahl als richtig oder gerechtfertigt zu beurteilen“. So kann beispielsweise eine Aussage wie „Die Gesundheit ist ein Gut“ als Rechtfertigung für die Wahl einer bestimmten Lebens- und Ernährungsweise dienen. In der philosophischen Tradition war man der Auffassung, dass prinzipiell jedes Seiende – unter einer gewissen Rücksicht – Ziel des Strebens sein könne („omne ens est bonum“). Daher wurde die „Gutheit“ des Seienden zu den Transzendentalien gerechnet. Gemäß der Analyse von Richard Mervyn Hare werden wertende Wörter wie „gut“ oder „schlecht“ dazu verwendet, in Entscheidungssituationen Handeln anzuleiten bzw. Empfehlungen zu geben. Die Wörter „gut“ oder „schlecht“ haben demnach keine beschreibende (deskriptive) sondern eine vorschreibende (präskriptive) Funktion. Dies kann an einer außermoralischen Verwendung des Wortes „gut“ verdeutlicht werden. Wenn ein Verkäufer zum Kunden sagt: „Dies ist ein guter Wein“, dann empfiehlt er den Kauf dieses Weines, er beschreibt damit jedoch keine wahrnehmbare Eigenschaft des Weines. Insofern es jedoch sozial verbreitete Bewertungsstandards für Weine gibt (er darf nicht nach Essig schmecken, man darf davon keine Kopfschmerzen bekommen etc.), so bedeutet die Bewertung des Weines als „gut“, dass der Wein diese Standards erfüllt und dass er somit auch bestimmte empirische Eigenschaften besitzt. Die Bewertungskriterien, die an eine Sache angelegt werden, können "je nach dem Verwendungszweck variieren". Ein herber Wein mag als Tafelwein gut, für sich selbst getrunken dagegen eher schlecht sein. Der Verwendungszweck einer Sache ist keine feststehende Eigenschaft der Sache selbst sondern beruht auf menschlicher Setzung. Eine Sache ist „gut“ – immer bezogen auf bestimmte Kriterien. Wenn der Verkäufer sagt: „Dies ist ein sehr guter Tafelwein“ dann ist er so, wie er gemäß den üblichen Kriterien für Tafelwein sein soll. Wenn das Wort „gut“ in moralischen Zusammenhängen gebraucht wird („Dies war eine gute Tat“), so empfiehlt man die Tat und drückt aus, dass sie so war, wie sie sein soll. Man beschreibt damit jedoch nicht die Tat. Wird auf allgemein anerkannte moralische Kriterien Bezug genommen, drückt man damit zugleich aus, dass die Tat bestimmte empirische Eigenschaften besitzt, z. B. eine Zurückstellung des Eigeninteresses zugunsten überwiegender Interessen von Mitmenschen. Werte. Der Begriff „Wert“ stammte ursprünglich aus der Nationalökonomie, wo man unter anderem zwischen Gebrauchs- und Tauschwert unterschied. Er wurde erst in der zweiten Hälfte des 19. Jahrhunderts ein philosophischer Terminus, wo er im Rahmen der Wertphilosophie (Max Scheler u. a.) eine zentrale Bedeutung einnahm. Dort führte man ihn als Gegenbegriff zur Kantischen Pflichtethik ein, in der Annahme, dass Werten vor allen Vernunftüberlegungen eine „objektive Gültigkeit“ zukommen würde. In der Alltagssprache taucht der Begriff auch in jüngster Zeit wieder verstärkt auf, gerade wenn von „Grundwerten“, einem „Wertewandel“ oder einer „neuen Wertedebatte“ die Rede ist. Im Vergleich zum Begriff des Guten kommt dem Wertbegriff allerdings eine stärkere gesellschaftliche Bedingtheit zu. So spricht man von einem „Wertewandel“, wenn man ausdrücken will, dass sich bestimmte, in einer Gesellschaft allgemein akzeptierte Handlungsnormen im Verlauf der Geschichte verändert haben. Damit meint man aber in der Regel nicht, dass das, was früher für gut gehalten wurde, nun „tatsächlich“ nicht mehr gut sei, sondern nur, dass sich das allgemeine Urteil darüber geändert habe. Tugend. Die richtige Abwägung ethischer Güter und ihre Durchsetzung setzt Tugend voraus. In ihrer klassischen Definition formuliert sie Aristoteles als "„jene feste Grundhaltung, von der aus [der Handelnde] tüchtig wird und die ihm eigentümliche Leistung in vollkommener Weise zustande bringt“" (NE 1106a). Die Leistung der ethischen Tugenden besteht vor allem darin, im Menschen eine Einheit von sinnlichem Strebevermögen und sittlicher Erkenntnis zu bewirken. Wir bezeichnen einen Menschen erst dann als „gut“, wenn er zur inneren Einheit mit sich selbst gekommen ist und das als richtig Erkannte auch affektiv voll bejaht. Dies ist nach Aristoteles nur durch eine Integration der Gefühle durch die ethischen Tugenden möglich. Die ungeordneten Gefühle verfälschen das sittliche Urteil. Das Ziel der Einheit von Vernunft und Gefühl führt über eine bloße Ethik der richtigen Entscheidung hinaus. Es kommt nicht nur darauf an, was wir tun, sondern auch wer wir sind. Tugend setzt neben Erkenntnis eine Gewöhnung voraus, die durch Erziehung und soziale Praxis erreicht wird. Wir werden gerecht, mutig etc., indem wir uns in Situationen begeben, wo wir uns entsprechend verhalten können. Die wichtigste Rolle kommt dabei der Tugend der Klugheit (phronesis) zu. Ihr obliegt es, die rechte „Mitte“ zwischen den Extremen zu finden und sich für die optimale Lösung in der konkreten Situation zu entscheiden. Sollen. Moralisch mögliche Handlungen sind sittlich erlaubt, d. h. man darf so handeln. Moralisch notwendige Handlungen sind sittlich geboten. Hier spricht man davon, dass wir etwas tun sollen bzw. die Pflicht haben, etwas zu tun. Moralisch unmögliche Handlungen sind sittlich verbotene Handlungen, die wir nicht ausführen dürfen; siehe auch Sünde. Das Verhältnis zum Guten. Die Begriffe „gut“ und „gesollt“ sind zwar eng miteinander verwandt aber nicht deckungsgleich. So können wir in Situationen stehen, in denen wir nur zwischen schlechten Alternativen wählen können. Hier ist es gesollt, dass wir uns für das „geringere Übel“ entscheiden. Umgekehrt ist nicht alles Gute auch gesollt. Das kann z. B. der Fall sein, wenn das Erreichen eines Gutes ein anderes Gut ausschließt. Hier muss eine Güterabwägung erfolgen, die zum Verzicht eines Gutes führt. Gerechtigkeit. Der Begriff der Gerechtigkeit ist seit der intensiven Diskussion um die „Theorie der Gerechtigkeit“ von John Rawls und vor allem seit der aktuellen politischen Debatte um die Aufgaben des Sozialstaates (Betonung der Chancen- und Leistungsgerechtigkeit gegenüber der Verteilungsgerechtigkeit) wieder stark ins Blickfeld geraten. „Gerecht“ wird – wie der Begriff „gut“ – in vielerlei Bedeutungen gebraucht. Es werden Handlungen, Haltungen, Personen, Verhältnisse, politische Institutionen und zuweilen auch Affekte (der „gerechte Zorn“) als gerecht bezeichnet. Grundsätzlich kann zwischen einem „subjektiven“ und einem „objektiven“ Gebrauch unterschieden werden, wobei beide Varianten aufeinander bezogen sind. Die "subjektive" oder besser personale "Gerechtigkeit" bezieht sich auf das Verhalten oder die ethische Grundhaltung einer Einzelperson. Eine Person kann gerecht handeln ohne gerecht zu sein und umgekehrt. Damit im Zusammenhang steht die kantische Unterscheidung zwischen Legalität und Moralität. Legale Handlungen befinden sind nach außen hin betrachtet in Übereinstimmung mit dem Sittengesetz, geschehen aber nicht ausschließlich aufgrund moralischer Beweggründe, sondern z. B. auch aus Angst, Opportunismus etc. Bei moralischen Handlungen dagegen stimmen Handlung und Motiv miteinander überein. In diesem Sinne wird Gerechtigkeit als eine der vier "Kardinaltugenden" bezeichnet. Die "objektive" oder institutionelle "Gerechtigkeit" bezieht sich auf die Bereiche Recht und Staat. Hier geht es immer um Pflichten innerhalb einer Gemeinschaft, die das Gleichheitsprinzip berühren. Es ist grundsätzlich zu unterscheiden zwischen der "ausgleichenden Gerechtigkeit" (iustitita commutativa) und "Verteilungsgerechtigkeit" (iustitita distributiva). Bei der ausgleichenden Gerechtigkeit tritt der Wert einer Ware oder Leistung in den Vordergrund. Bei der Verteilungsgerechtigkeit geht es um den Wert der beteiligten Personen. Die Gerechtigkeit der Einzelpersonen und der Institutionen sind in einem engen Zusammenhang zueinander zu sehen. Ohne gerechte Bürger werden keine gerechten Institutionen geschaffen oder aufrechterhalten werden können. Ungerechte Institutionen erschweren andererseits die Entfaltung der Individualtugend der Gerechtigkeit. Das Anliegen der Ethik beschränkt sich nicht auf das Thema „Gerechtigkeit“. Zu den Tugenden gehören noch diejenigen, die man vor allem sich selbst gegenüber hat (Klugheit, Mäßigung, Tapferkeit). Zu den ethischen Pflichten gegenüber anderen zählt noch die Pflicht des "Wohltun"s (beneficientia), die über die Gerechtigkeit hinausgeht und ihre Wurzel letztlich in der Liebe hat. Während der Gerechtigkeit das Gleichheitsprinzip zugrunde liegt, ist dies beim Wohltun die Notlage oder Bedürftigkeit des anderen. Diese Unterscheidung entspricht der zwischen „iustitia“ und „caritas“ (Thomas von Aquin), Rechts- und Tugendpflichten (Kant) bzw. in der Gegenwart der zwischen „duties of justice“ und „duties of charity“ (Philippa Foot). Ethische Theorien. Dabei werden unterschiedlichste Kombinationen und feinere moraltheoretische Bestimmungen vertreten. Teleologische oder deontologische Ethik. Die verschiedenen Ethikansätze werden traditionell prinzipiell danach unterschieden, ob sie ihren Schwerpunkt auf die Handlung selbst (deontologische Ethikansätze) oder auf die Handlungsfolgen (teleologische Ethikansätze) legen. Die Unterscheidung geht zurück auf C. D. Broad und wurde bekannt durch William K. Frankena. In dieselbe Richtung geht auch die Aufteilung Max Webers in Gesinnungs- und Verantwortungsethiken, wobei diese von ihm als Polemik gegenüber Gesinnungsethiken verstanden wurde. Teleologische Ethiken. Das griechische Wort „telos“ bedeutet so viel wie Vollendung, Erfüllung, Zweck oder Ziel. Unter teleologischen Ethiken versteht man daher solche Theorieansätze, die ihr Hauptaugenmerk auf bestimmte Zwecke oder Ziele richten. In ihnen wird die Forderung erhoben, Handlungen sollten ein Ziel anstreben, das in einem umfassenderen Verständnis gut ist. Der Inhalt dieses Zieles wird von den verschiedenen Richtungen auf recht unterschiedliche Art und Weise bestimmt. Teleologische Ethiken geben valuativen Sätzen einen Vorrang gegenüber normativen Sätzen. Für sie stehen Güter und Werte im Vordergrund. Die menschlichen Handlungen sind insbesondere insofern von Interesse, als sie hinderlich oder förderlich zum Erreichen dieser Güter und Werte sein können. "„Eine Handlung ist dann auszuführen und nur dann, wenn sie oder die Regel, unter die sie fällt, ein größeres Überwiegen des Guten über das Schlechte herbeiführt, vermutlich herbeiführen wird oder herbeiführen sollte als jede erreichbare Alternative“" (Frankena). Innerhalb teleologischer Ethikansätze wird wiederum zwischen „onto-teleologischen“ und „konsequentialistisch-teleologischen“ Ansätzen unterschieden. In onto-teleologischen Ansätzen – klassisch vertreten durch Aristoteles – wird davon ausgegangen, dass das zu erstrebende Gut in gewisser Weise dem Menschen selbst als Teil seiner Natur innewohne. Es wird gefordert, dass der Mensch so handeln und leben solle, wie es seiner Wesensnatur entspricht, um so seine artspezifischen Anlagen auf bestmögliche Weise zu vervollkommnen. In konsequentialistisch-teleologischen Ansätzen hingegen wird nicht mehr von einer letzten vorgegebenen Zweckhaftigkeit des menschlichen Daseins ausgegangen. Das zu erstrebende Ziel wird daher durch einen außerhalb des handelnden Subjekts liegenden Nutzen bestimmt. Dieser Ansatz wird bereits in der Antike (Epikur) und später in seiner typischen Form durch den Utilitarismus vertreten. Deontologische Ethiken. Das griechische Wort "„to deon“" bedeutet „das Schickliche, die Pflicht“. Deontologische Ethiken kann man daher mit Sollensethiken gleichsetzen. Sie sind dadurch gekennzeichnet, dass bei ihnen den Handlungsfolgen nicht dieselbe Bedeutung zukommt wie in teleologischen Ethiken. Innerhalb der deontologischen Ethiken wird häufig zwischen aktdeontologischen (z. B. Jean-Paul Sartre) und regeldeontologischen Konzeptionen (z. B. Immanuel Kant) unterschieden. Während die "Regeldeontologie" allgemeine Handlungstypen als verboten, erlaubt oder geboten ausweist (vgl. z. B. das Lügenverbot oder die Pflicht, Versprechen zu halten), bezieht sich den "aktdeontologischen Theorien" zufolge das deontologische Moralurteil unmittelbar auf spezifische Handlungsweisen in jeweils bestimmten Handlungssituationen. In deontologischen Ethiken haben normative Sätze eine Vorrangstellung gegenüber valuativen Sätzen. Für sie bilden Gebote, Verbote und Erlaubnisse die Grundbegriffe. Es rücken die menschlichen Handlungen in den Vordergrund, da nur sie gegen eine Norm verstoßen können. Robert Spaemann charakterisiert sie als "„moralische Konzepte, […] für welche bestimmte Handlungstypen ohne Beachtung der weiteren Umstände immer verwerflich sind, also z. B. die absichtliche direkte Tötung eines unschuldigen Menschen, die Folter oder der außereheliche Beischlaf eines verheirateten Menschen“." Kritik an der Unterscheidung. Die Unterscheidung zwischen teleologischen und deontologischen Ethiken wird von einigen Kritikern als fragwürdig bezeichnet. In der Praxis sind auch selten Ansätze zu finden, die eindeutig einer der beiden Richtungen zugeordnet werden könnten. Einer strikten deontologischen Ethik müsste es gelingen, Handlungen aufzuzeigen, die „in sich“, völlig losgelöst von ihren Folgen, als unsittlich und „in sich schlecht“ zu bezeichnen wären. Diese wären dann „unter allen Umständen“ zu tun oder zu unterlassen gemäß dem Spruch "„Fiat iustitia et pereat mundus“" ("„Gerechtigkeit geschehe, und sollte die Welt darüber zugrunde gehen“", Ferdinand I. von Habsburg). Bekannte Beispiele solcher Handlungen sind die „Tötung Unschuldiger“ oder die nach Kant unzulässige Lüge. In den Augen der Kritiker liegt in diesen Fällen häufig eine „petitio principii“ vor. Wenn z. B. die Tötung Unschuldiger als Mord und dieser wiederum als unsittliche Handlung definiert wird, könne sie natürlich in jedem Fall als „in sich schlecht“ bezeichnet werden. Das gleiche gelte für die Lüge, wenn sie als unerlaubtes Verfälschen der Wahrheit bezeichnet wird. Gerade in der Analyse ethischer Dilemmasituationen, in denen nur die Wahl zwischen mehreren Übeln möglich ist, zeige sich, dass es kaum möglich sein dürfte, bestimmte Handlungen unter allen Umständen als „sittlich schlecht“ zu bezeichnen. Nach einer strikten deontologischen Ethik wäre die „Wahl des kleineren Übels“ nicht möglich. An strikt teleologisch argumentierenden Ethikansätzen wird kritisiert, dass sie das ethisch Gesollte von außerethischen Zwecken abhängig machen. Damit bleibe die Frage unbeantwortet, weshalb wir diese Zwecke verfolgen sollen. Eine Güterabwägung werde damit unmöglich gemacht, da die Frage, was ein oder das bessere „Gut“ ist, nur geklärt werden könne, wenn vorher allgemeine Handlungsprinzipien definiert wurden. In vielen teleologischen Ansätzen würden diese Handlungsprinzipien auch einfach stillschweigend vorausgesetzt, wie z. B. im klassischen Utilitarismus, für den Lustgewinnung und Unlustvermeidung die Leitprinzipien jeglicher Folgenabschätzung darstellen. Wollen und Sollen in Ansätzen der Ethik. Ethische Positionen lassen sich auch danach unterscheiden, wie sich das Gesollte aus einem bestimmten Wollen ergibt. Die aufgelisteten Positionen liegen auf unterschiedlichen logischen Ebenen und schließen sich deshalb auch nicht logisch aus. So ist z. B. die Verbindung einer religiösen Position mit einer intuitionistischen Position möglich. Denkbar ist auch eine Verbindung der konsenstheoretischen Position mit einer utilitaristischen Position, wenn man annimmt, dass sich ein Konsens über die richtige Norm nur dann herstellen lässt, wenn dabei der Nutzen (das Wohl) jedes Individuums in gleicher Weise berücksichtigt wird. Außerdem ist zu beachten: Einige dieser Ansätze haben ausdrücklich nicht den Anspruch, umfassende ethische Konzepte zu sein, sondern z. B. nur Konzepte für die Beurteilung, ob eine Gesellschaft in politisch-ökonomischer Hinsicht gerecht eingerichtet ist; z. B. bei John Rawls, im Unterschied zu umfassenderen Ansätze, die auch Fragen privater, individueller Ethik betreffen – etwa, ob es eine moralische Pflicht gibt, zu lügen, wenn genau dies notwendig ist, um ein Menschenleben zu retten (und wenn ohne diese Lüge niemand sonst stattdessen gerettet würde). Auch z. B. Habermas beantwortet diese Frage nicht „inhaltlich“, aber sein Konzept beinhaltet den Bereich auch solcher Fragen, indem es „formal“ postuliert, richtig sei, was in dieser Frage alle, die an einem zwanglosen und zugleich vernünftigen Diskurs dazu teilnehmen würden, als verbindlich für alle dazu herausfinden und akzeptieren würden. Inhaltliche Richtigkeit und formale Verbindlichkeit von Normen. Wenn man fragt, warum Individuum A eine bestimmte Handlungsnorm N befolgen soll, so gibt es zwei Arten von Antworten. A soll N befolgen, weil … A soll N befolgen, weil … Offensichtlich liegen diese Begründungen auf zwei verschiedenen Ebenen, denn man kann ohne logischen Widerspruch sagen: „Ich halte den Beschluss der Parlamentsmehrheit zwar für inhaltlich falsch, aber dennoch ist er für mich verbindlich. Als Demokrat respektiere ich die Beschlüsse der Mehrheit.“ Man kann die ethischen Theorien nun danach unterscheiden, wie sie mit dem Spannungsverhältnis zwischen der Ebene der verfahrensmäßigen Setzung von verbindlichen Normen und der Ebene der argumentativen Bestimmung von richtigen Normen umgehen. Auf der einen Seite stehen ganz außen die "Dezisionisten". Für sie ist nur die verbindliche Setzung von Normen bedeutsam. Sie bestreiten, dass man in Bezug auf Normen überhaupt von inhaltlicher Richtigkeit und von einer Erkenntnis der richtigen Norm sprechen kann. Das Hauptproblem der Dezisionisten ist, dass es für sie keine Berechtigung für einen Widerstand gegen die gesetzten Normen geben kann, denn „verbindlich ist verbindlich“. Außerdem können Dezisionisten nicht begründen, warum man das eine Normsetzungsverfahren irgendeinem anderen Verfahren vorziehen soll. Auf der anderen Seite stehen ganz außen die ethischen "Kognitivisten". Für sie ist das Problem ethischen Handelns allein ein Erkenntnisproblem, das man durch die Gewinnung relevanter Informationen und deren Auswertung nach geeigneten Kriterien lösen kann. Eine Legitimation von Normen durch Verfahren ist für sie nicht möglich. Das Hauptproblem der Kognitivisten ist, dass es auch beim wissenschaftlichen Meinungsstreit oft nicht zu definitiven Erkenntnissen kommt, die als Grundlage der sozialen Koordination dienen könnten. Es werden deshalb zusätzlich verbindliche und sanktionierte Normen benötigt, die für jedes Individuum das Handeln der anderen berechenbar macht. Sein und Sollen. Teleologische Ethiken sind in der Regel Güter-Ethiken; sie bezeichnen bestimmte Güter (z. B. „Glück“ oder „Lust“) als für den Menschen gut und damit erstrebenswert. Schon David Hume hat den Einwand erhoben, dass der Übergang von Seins- zu Sollensaussagen nicht legitim sei („Humes Gesetz“). Unter dem Stichwort „Naturalistischer Fehlschluss“ hat George Edward Moore damit eng verwandte Fragen aufgeworfen, die aber genau genommen nicht dieselben sind. Hume kritisiert an den ihm bekannten Moralsystemen, Für Hume sind logische Schlussfolgerungen von dem, was ist, auf das, was sein soll, unzulässig, denn durch logische Umformungen könne aus Ist-Sätzen kein völlig neues Bedeutungselement wie das Sollen hergeleitet werden. Wie später die Positivisten betont haben, muss erkenntnistheoretisch zwischen Ist-Sätzen und Soll-Sätzen wegen ihres unterschiedlichen Verhältnisses zur Sinneswahrnehmung differenziert werden. Während der Satz „Peter ist um 14 Uhr am Bahnhof gewesen“ durch intersubjektiv übereinstimmende Beobachtungen überprüfbar, also verifizierbar oder falsifizierbar ist, lässt sich der Satz „Peter soll um 14 Uhr am Bahnhof sein“ mit den Mitteln von Beobachtung und Logik allein nicht begründen oder widerlegen. Die erkenntnistheoretische Unterscheidung zwischen Sein und Sollen liegt den modernen Erfahrungswissenschaften zugrunde. Wer diese Unterscheidung nicht akzeptiert, der muss entweder ein Sein postulieren, das nicht direkt oder indirekt wahrnehmbar ist, oder er muss das Gesollte für sinnlich wahrnehmbar halten. Beiden Positionen mangelt es bisher an einer intersubjektiven Nachprüfbarkeit. Die vermeintliche Herleitung ethischer Normen aus Aussagen über das Seiende wird oft nur durch die unbemerkte Ausnutzung der normativ-empirischen Doppeldeutigkeit von Begriffen wie „Wesen“, „Natur“, „Bestimmung“, „Funktion“, „Zweck“, „Sinn“ oder „Ziel“ erreicht. So bezeichnet das Wort „Ziel“ einmal das, was ein Mensch "tatsächlich anstrebt" („Sein Ziel ist das Diplom“). Das Wort kann jedoch auch das bezeichnen, was ein Mensch "anstreben sollte" („Wer nur am Materiellen ausgerichtet ist, der verfehlt das wahre Ziel des menschlichen Daseins“). Die unbemerkte empirisch-normative Doppeldeutigkeit bestimmter Begriffe führt dann zu logischen Fehlschlüssen wie: „Das Wesen der Sexualität ist die Fortpflanzung. Also ist Empfängnisverhütung nicht erlaubt, denn sie entspricht nicht dem Wesen der Sexualität.“ Aus der logischen Unterscheidung von Sein und Sollen folgt jedoch keineswegs, dass damit eine auf Vernunft gegründete Ethik unmöglich ist, wie dies sowohl von Vertretern des logischen Empirismus als auch des Idealismus geäußert wird. Zwar lässt sich allein auf Empirie und Logik keine Ethik gründen, aber daraus folgt noch nicht, dass es nicht andere allgemein nachvollziehbare Kriterien für die Gültigkeit ethischer Normen gibt. Ein aussichtsreiches Beispiel für eine nachpositivistische Ethik ist die am Kriterium des zwangfreien Konsenses orientierte Diskursethik. Mit der Feststellung, dass das Gesollte nicht aus dem Seienden logisch ableitbar ist, wird eine Begründung von Normen noch nicht aussichtslos. Denn neben den Seinsaussagen und den normativen Sätzen gibt es Willensäußerungen. Die Willensäußerung einer Person: „Ich will in der nächsten Stunde von niemandem gestört werden“ beinhaltet die Norm: „Niemand soll mich in der nächsten Stunde stören“. Die Aufgabe der Ethik ist es, allgemeingültige Willensinhalte bzw. Normen zu bestimmen und nachvollziehbar zu begründen. Die Möglichkeit einer teleologischen Ethik scheint mit der logischen Unterscheidung von Seins- und Sollens-Aussagen grundsätzlich in Frage gestellt. Aus Sicht der klassischen Position des Realismus bezüglich der Ethik, insbesondere des Naturrechts, ist es aber gerade das Sein, aus dem das Sollen abgeleitet werden muss, da es (außer dem Nichts) zum Sein keine Alternative gibt. Weil das Gute das Seinsgerechte, also das dem jeweiligen Seienden gerechte bzw. entsprechende ist, muss demnach das Wesen des Seins zunächst erkannt und aus ihm die Forderung des Sollens (ihm gegenüber) logisch abgeleitet werden. Das Problem des Bösen. Trotz der teilweise apokalyptischen geschichtlichen Ereignisse des 20. Jahrhunderts wird der Begriff „böse“ in der Umgangssprache nur noch selten gebraucht. Stattdessen werden meist die Begriffe „schlecht“ („ein schlechter Mensch“) oder „falsch“ („die Handlung war falsch“) verwendet. Das Wort „böse“ gilt im gegenwärtigen Bewusstsein generell als metaphysikverdächtig und aufgrund der allgemeinen Dominanz des naturwissenschaftlichen Denkens als überholt. In der philosophischen Tradition wird das Böse als eine Form des Übels betrachtet. Klassisch geworden ist die Unterscheidung von Leibniz zwischen einem metaphysischen (malum metaphysicum), einem physischen (malum physicum) und einem moralischen Übel (malum morale). Das metaphysische Übel besteht in der Unvollkommenheit alles Seienden, das physische Übel in Schmerz und Leid. Diese Übel sind Widrigkeiten, die ihren Ursprung in der Natur haben. Sie sind nicht „böse“, da sie nicht das Ergebnis des (menschlichen oder allgemeiner gesagt geistigen) Willens sind. Das moralische Übel oder das Böse hingegen besteht in der Nicht-Übereinstimmung einer Handlung mit dem Sittengesetz bzw. Naturrecht. Es kann, wie Kant betont, nur „die Handlungsart, die Maxime des Willens und mithin die handelnde Person selbst“ böse sein. Das Böse ist also als Leistung oder besser Fehlleistung des Subjekts zu verstehen. Reduktionistische Erklärungsversuche. Die Verhaltensforschung führt das Böse auf die allgemeine „Tatsache“ der Aggression zurück. Diese sei einfachhin ein Bestandteil der menschlichen Natur und als solcher moralisch irrelevant. Daher spricht Konrad Lorenz auch vom „sogenannten Bösen“. Dieser Erklärung wird von Kritikern eine reduktionistische Betrachtungsweise vorgeworfen. Sie übersehe, dass dem Menschen auf der Grundlage der Freiheit die Möglichkeit gegeben ist, zu seiner eigenen Natur Stellung zu nehmen. Nicht-reduktionistische Erklärungsversuche. Dieses in der Antike noch weit verbreitete Verständnis, das Böse ließe sich durch die Vernunft überwinden, wird allerdings durch die geschichtlichen Erfahrungen, insbesondere die des 20. Jahrhunderts in Frage gestellt. Diese lehren in den Augen vieler Philosophen der Gegenwart, dass der Mensch durchaus im Stande sei, das Böse auch um seiner selbst willen zu wollen. Dieser Grundgedanke Kants von der Selbstwidersprüchlichkeit des Ichs als Ursache des Bösen wird vor allem in der Philosophie des Idealismus noch einmal vertieft. Schelling unterscheidet zwischen einem alle Bindung verneinenden „Eigenwillen“ und einem sich in Beziehungen gestaltenden „Universalwillen“. Die Möglichkeit zum Bösen bestehe darin, dass der Eigenwille sich seiner Integration in den Universalwillen widersetzt. Das radikal Böse bewirke einen Umsturz der Ordnung in mir selbst und in Bezug zu anderen. Es erfolge um seiner selbst willen, denn „wie es einen Enthusiasmus zum Guten gibt, ebenso gibt es eine Begeisterung des Bösen“. Nach der klassischen Lehre (Augustinus, Thomas von Aquin etc.) ist das Böse selbst letztlich substanzlos. Als privativer Gegensatz des Guten besteht es nur in einem Mangel (an Gutem). Im Gegensatz zum absolut Guten (Gott) gibt es demnach das absolut Böse nicht. Das Durchsetzungsproblem. Das Durchsetzungsproblem der Ethik besteht darin, dass die Einsicht in die Richtigkeit ethischer Prinzipien zwar vorhanden sein kann, daraus aber nicht automatisch folgt, dass der Mensch auch im ethischen Sinne handelt. Die Einsicht in das richtige Handeln bedarf einer zusätzlichen Motivation oder eines Zwangs. Das Problem erklärt sich daraus, dass die Ethik einerseits und das menschliche Eigeninteresse als Egoismus andererseits oft einen Gegensatz bilden. Das Durchsetzungsproblem gewinne zudem durch die weltweite Globalisierung eine neue Dimension, die zu einer "Ethik der Neomoderne" führe. Beispiel. Die Tatsache, dass die Menschen im Land X Hunger leiden und ihnen geholfen werden sollte, ja es moralisch geboten erscheint ihnen zu helfen, wird niemand bestreiten. Die Einsicht es auch zu tun, einen Großteil seines Vermögens dafür herzugeben, wird es im nennenswerten Umfang erst geben, wenn eine zusätzliche Motivation auftaucht, etwa die Gefahr einer Hungermigration ins eigene Land unmittelbar bevorsteht. Das Durchsetzungsproblem zeigt sich auf andere Weise auch in der Erziehung, etwa wenn fest verinnerlichte Verhaltensregeln später auf entwickelte ethische Prinzipien stoßen. Angewandte Ethik. Die angewandte Ethik ist ein Teilbereich der allgemeinen Ethik. Teilbereiche der angewandten Ethik (oder Bereichsethik) sind beispielsweise Medizinethik, Umweltethik und Wirtschaftsethik. Aufgabe der verschiedenen Bereichsethiken ist es, in Kommissionen, auf Instituten usw. Normen oder Handlungsempfehlungen für bestimmte Bereiche zu erarbeiten. Exponentialfunktion. In der Mathematik bezeichnet man als Exponentialfunktion eine Funktion der Form formula_1 mit einer reellen Zahl formula_2 als Basis (Grundzahl). In der gebräuchlichsten Form sind dabei für den Exponenten formula_3 die reellen Zahlen zugelassen. Im Gegensatz zu den Potenzfunktionen, bei denen die Basis die unabhängige Größe (Variable) und der Exponent fest vorgegeben ist, ist bei Exponentialfunktionen der Exponent (auch Hochzahl) des Potenzausdrucks die Variable und die Basis fest vorgegeben. Darauf bezieht sich auch die Namensgebung. Exponentialfunktionen haben in den Naturwissenschaften, z. B. bei der mathematischen Beschreibung von Wachstumsvorgängen, eine herausragende Bedeutung (siehe exponentielles Wachstum). Als "die" Exponentialfunktion im engeren Sinne (präziser eigentlich "natürliche Exponentialfunktion") bezeichnet man die e-Funktion, also die Exponentialfunktion formula_4 mit der eulerschen Zahl formula_5 als Basis; gebräuchlich hierfür ist auch die Schreibweise formula_6. Diese Funktion hat gegenüber den anderen Exponentialfunktionen besondere Eigenschaften. Unter Verwendung des natürlichen Logarithmus lässt sich mit der Gleichung formula_7 jede Exponentialfunktion auf eine solche zur Basis formula_8 zurückführen. Deshalb befasst sich dieser Artikel im Wesentlichen mit der Exponentialfunktion zur Basis formula_8. Bisweilen unterscheidet man im Deutschen auch zwischen exponentiellen Funktionen (allgemein) und der Exponentialfunktion (zur Basis "e"). Definition. Die Exponentialfunktion zu der Basis formula_8 kann auf den reellen Zahlen auf verschiedene Weisen definiert werden. Eine Möglichkeit ist die Definition als Potenzreihe, die sogenannte Exponentialreihe wobei formula_13 die Fakultät von formula_14 bezeichnet. Beide Arten sind auch zur Definition der komplexen Exponentialfunktion formula_17 auf den komplexen Zahlen geeignet (s. weiter unten). Die reelle Exponentialfunktion formula_18 ist positiv, stetig, streng monoton wachsend und surjektiv. Dabei bezeichnet formula_19 die Menge der positiven reellen Zahlen. Deshalb existiert ihre Umkehrfunktion, der natürliche Logarithmus formula_20. Daraus erklärt sich auch die Bezeichnung Antilogarithmus für die Exponentialfunktion. Konvergenz der Reihe, Stetigkeit. Die punktweise Konvergenz der für die Definition der Exponentialfunktion verwendeten Reihe lässt sich für alle reellen und komplexen formula_22 einfach mit dem Quotientenkriterium zeigen; daraus folgt sogar absolute Konvergenz. Der Konvergenzradius der Potenzreihe ist also unendlich. Da Potenzreihen an jedem inneren Punkt ihres Konvergenzbereiches analytisch sind, ist die Exponentialfunktion also in jedem reellen und komplexen Punkt trivialerweise auch stetig. Rechenregeln. für alle formula_25 und alle reellen oder komplexen formula_3. Solche Funktionen heißen exponentielle Funktionen und „verwandeln“ Multiplikation in Addition. Diese Gesetze gelten für alle positiven reellen formula_37 und formula_38 und alle reellen formula_3 und formula_40. Siehe auch Rechenregeln für Logarithmus. Ableitung: die Bedeutung der „natürlichen“ Exponentialfunktion. fordert, ist die e-Funktion sogar die einzige Funktion formula_46, die dies leistet. Somit kann man die e-Funktion auch als Lösung dieser Differentialgleichung mit dieser Anfangsbedingung definieren. Allgemeiner folgt für reelles formula_47 aus In dieser Formel kann der natürliche Logarithmus nicht durch einen Logarithmus zu einer anderen Basis ersetzt werden; die Zahl "e" kommt also in der Differentialrechnung auf „natürliche“ Weise ins Spiel. Exponentialfunktion auf den komplexen Zahlen. aus­geb­lichene Farben bedeuten große Funk­tions­werte. Die Grund­farbe stellt das Argument des Funk­tions­werts dar. Dies ist der Winkel, den der Funk­tions­wert relativ zur reellen Achse hat (Blick­punkt im Koor­dinaten­ursprung). Positiv reelle Werte erscheinen rot, negativ reelle Werte türkis. Die sich wieder­holen­den Farb­bänder lassen deutlich erkennen, dass die Funktion in imagi­närer Richtung perio­disch ist. lässt sich die Exponentialfunktion für komplexe Zahlen formula_51 definieren. Die Reihe konvergiert für alle formula_52 absolut. Die Exponentialfunktion ist somit ein surjektiver, aber nicht injektiver Gruppenhomomorphismus von der abelschen Gruppe formula_59 auf die abelsche Gruppe formula_60, also von der additiven auf die multiplikative Gruppe des Körpers formula_61. In formula_62 hat die Exponentialfunktion eine wesentliche Singularität, ansonsten ist sie holomorph, d. h., sie ist eine ganze Funktion. Die komplexe Exponentialfunktion ist periodisch mit der komplexen Periode 2πi, es gilt also Beschränkt man ihren Definitionsbereich auf einen Streifen mit formula_65, dann besitzt sie eine wohldefinierte Umkehrfunktion, den komplexen Logarithmus. Dies ist äquivalent zur eulerschen Formel Daraus abgeleitet ergibt sich speziell die Gleichung der in Physik und Technik wichtigen komplexen Exponentialschwingung mit der Kreisfrequenz formula_70 und der Frequenz formula_71. Die Werte der Potenzfunktion sind dabei abhängig von der Wahl des Einblättrigkeitsbereichs des Logarithmus, siehe auch Riemannsche Fläche. Dessen Mehrdeutigkeit wird ja durch die Periodizität seiner Umkehrfunktion, eben der Exponentialfunktion, verursacht. Deren grundlegende Gleichung entspringt der Periodizität der Exponentialfunktion formula_78 mit reellem Argument formula_3. Deren Periodenlänge ist genau der Kreisumfang formula_80 des Einheitskreises, den die Sinus- und Kosinusfunktionen wegen der Eulerschen Formel beschreiben. Die Exponential-, die Sinus- und die Kosinusfunktion sind nämlich nur Teile derselben (auf komplexe Zahlen verallgemeinerten) Exponentialfunktion, was im Reellen nicht offensichtlich ist. Exponentialfunktion auf beliebigen Banachalgebren. Die Exponentialfunktion lässt sich auf Banachalgebren, zum Beispiel Matrix-Algebren mit einer Operatornorm, verallgemeinern. Sie ist dort ebenfalls über die Reihe definiert, die für alle beschränkten Argumente aus der jeweils betrachteten Banachalgebra absolut konvergiert. Die wesentliche Eigenschaft der reellen (und komplexen) Exponentialfunktion ist in dieser Allgemeinheit allerdings nur noch gültig für Werte formula_3 und formula_40, die kommutieren, also für Werte mit formula_85 (dies ist in den reellen oder komplexen Zahlen natürlich immer erfüllt, da die Multiplikation dort kommutativ ist). Einige Rechenregeln dieser Art für die Exponentiale von linearen Operatoren auf einem Banachraum liefern die Baker-Campbell-Hausdorff-Formeln. Eine wichtige Anwendung dieser verallgemeinerten Exponentialfunktion findet sich beim Lösen von linearen Differentialgleichungssystemen der Form formula_86 mit konstanten Koeffizienten. In diesem Fall ist die Banachalgebra die Menge der formula_87-Matrizen mit komplexen Einträgen. Mittels der jordanschen Normalform lässt sich eine Basis bzw. Ähnlichkeitstransformation finden, in welcher die Exponentialmatrix eine endliche Berechnungsvorschrift hat. Genauer gesagt, man findet eine reguläre Matrix formula_88, so dass formula_89, wobei formula_90 eine Diagonalmatrix und formula_91 eine nilpotente Matrix sind, welche miteinander kommutieren. Es gilt damit Das Exponential einer Diagonalmatrix ist die Diagonalmatrix der Exponentiale, das Exponential der nilpotenten Matrix ist ein matrixwertiges Polynom mit einem Grad, der kleiner als die Dimension formula_14 der Matrix formula_94 ist. Numerische Berechnungsmöglichkeiten. Als fundamentale Funktion der Analysis wurde viel über Möglichkeiten zur effizienten Berechnung der Exponentialfunktion bis zu einer gewünschten Genauigkeit nachgedacht. Dabei wird stets die Berechnung auf die Auswertung der Exponentialfunktion in einer kleinen Umgebung der Null reduziert und mit dem Anfang der Potenzreihe gearbeitet. In der Analyse ist die durch die Reduktion notwendige Arbeitsgenauigkeit gegen die Anzahl der notwendigen Multiplikationen von Hochpräzisionsdaten abzuwägen. Der Rest der formula_91-ten Partialsumme hat eine einfache Abschätzung gegen die geometrische Reihe, welche auf Die einfachste Reduktion benutzt die Identität formula_100, d. h. zu gegebenem formula_3 wird formula_102 bestimmt, wobei formula_103 nach den Genauigkeitsbetrachtungen gewählt wird. Damit wird nun, in einer gewissen Arbeitsgenauigkeit, formula_104 berechnet und formula_103-fach quadriert: formula_106. formula_107 wird nun auf die gewünschte Genauigkeit reduziert und als formula_108 zurückgegeben. Effizientere Verfahren setzen voraus, dass formula_109, besser zusätzlich formula_110 und formula_111 (Arnold Schönhage) in beliebiger (nach Spezifikation auftretender) Arbeitsgenauigkeit verfügbar sind. Dann können die Identitäten benutzt werden, um formula_3 auf ein formula_40 aus dem Intervall formula_116 oder einem wesentlich kleineren Intervall zu transformieren und damit das aufwändigere Quadrieren zu reduzieren oder ganz zu vermeiden. Motivation. Auf die Exponentialfunktion stößt man, wenn man versucht, das Potenzieren auf beliebige reelle Exponenten zu verallgemeinern. Man geht dabei von der Rechenregel formula_117 aus und sucht daher eine Lösung der Funktionalgleichung formula_118 mit formula_119. Nimmt man nun zunächst einmal an, dass eine Lösung tatsächlich existiert, und berechnet deren Ableitung, so stößt man auf den Ausdruck Was bedeutet nun formula_121? Nennt man diesen Grenzwert formula_122, so gilt für die durch definierte Zahl formula_8 (bzw. formula_125, formula_122 muss dann also der Logarithmus zur Basis formula_8 sein) nach der Kettenregel formal formula_8 erfüllt dann vermutlich Wie kann man diese Zahl formula_8 berechnen? Setzt man rein formal formula_132 und löst die Gleichung Für formula_137 erhält man mit formula_138 auch rein formal die Darstellung also die eine Definition der Exponentialfunktion. Alternativ kann man auch versuchen, die Funktion in eine Taylorreihe zu entwickeln. Da per Induktion auch gelten muss, also formula_142, erhält man für die Taylorreihe an der Stelle formula_143 also genau die andere Definition der Exponentialfunktion. Im Weiteren ist dann zu zeigen, dass die so definierte Exponentialfunktion tatsächlich die gewünschten Eigenschaften hat. Konvergenz der Folgendarstellung. Die für die Definition der Exponentialfunktion verwendete Folge ist für reelle formula_3 punktweise konvergent, da sie erstens ab einem gewissen Index monoton steigend und zweitens nach oben beschränkt ist. Beweis der Monotonie. Aus der Ungleichung vom arithmetischen und geometrischen Mittel folgt für formula_147 die Folge ist daher für fast alle formula_14 monoton steigend. Beweis der Beschränktheit. Aus der Ungleichung vom harmonischen und geometrischen Mittel folgt für formula_150 Für formula_156 und formula_157 gilt offensichtlich die Schranke Funktionalgleichung. Da formula_159 und formula_160 konvergieren, konvergiert auch deren Produkt Ist nun formula_162, so liefert die bernoullische Ungleichung für hinreichend große formula_14 für formula_165 erhält man aus der einfach zu zeigenden Ungleichung formula_166 für formula_167 und ebenfalls der bernoullischen Ungleichung für hinreichend große formula_14 die Exponentialfunktion erfüllt also tatsächlich die Funktionalgleichung formula_170. Abschätzung nach unten. Für reelle formula_3 lässt sich die Exponentialfunktion mit nach unten abschätzen. Der Beweis ergibt sich aus der Definition und der Tatsache, dass formula_174 für hinreichend große formula_14. Da die Folge monoton wachsend ist, ist der Grenzwert daher echt größer Null. Diese Abschätzung lässt sich zur wichtigen Ungleichung verschärfen. Für formula_177 folgt sie aus formula_178, für formula_179 ergibt sich der Beweis beispielsweise, indem man die bernoullische Ungleichung auf die Definition anwendet. Eine Anwendung dieser Ungleichung ist der Polya-Beweis der Ungleichung vom arithmetischen und geometrischen Mittel. Allerdings erleichtert die Ungleichung vom arithmetischen und geometrischen Mittel die Untersuchung der Folge formula_181 sehr; um daher einen Zirkelschluss zu vermeiden, benötigt der Polya-Beweis Herleitungen der Exponentialfunktion, die ohne Ungleichung vom arithmetischen und geometrischen Mittel auskommen. Wachstum der e-Funktion im Vergleich zu Polynomfunktionen. Oft wird die Aussage benötigt, dass die Exponentialfunktion wesentlich stärker wächst als jede Potenzfunktion, d. h. Wegen formula_195 gilt Dies konvergiert gegen formula_197 und somit der obige Grenzwert gegen 0. Basiswechsel. Beweis: Nach Definition des Logarithmus ist formula_199 äquivalent zu formula_200, woraus die Identität formula_201 folgt. Ersetzen von formula_202 durch formula_203 liefert wobei im zweiten Schritt die Logarithmus-Rechenregel für Potenzen angewendet wurde. Die Differentialgleichung der Exponentialfunktion. formula_205 lösen und setzt noch formula_206 voraus, so erhält man daraus eine Definition von formula_137. Umkehrfunktion. Setzt man formula_208 nicht voraus, so benutzt man die Umkehrfunktion formula_209 von Denn formula_211, und nach den Eigenschaften der Logarithmusfunktion ist und man kann die Umkehrfunktion bilden und erhält Da die untere Grenze gleich 1 ist, ist formula_214 und bei der Umkehrfunktion formula_208 nach Eigenschaft der Umkehrfunktion: formula_216. Differentialgleichung. Erweitert man die Differentialgleichung auf formula_217 für formula_218 und löst sie, so erhält man für formula_40 die Form Speziell für formula_221 ist Ist dann formula_223 eine Lösung und formula_224, dann ist Für beliebiges formula_227 führen wir Beispiele. Man besitzt nun ein mächtiges Instrument zur Beschreibung von Vorgängen in der Physik und Chemie, wo man mittels eines Ansatzes vom Typ formula_231 ein die Exponentialfunktion enthaltendes Ergebnis der Form formula_232 erhält. Chemie. Bezeichnen wir die Menge des zur Zeit formula_3 noch nicht umgewandelten Rohrzuckers mit formula_234, so ist die Reaktionsgeschwindigkeit formula_235, und nach dem oben formulierten Geschwindigkeitsgesetz gilt die Gleichung wobei die Konstante formula_240 die zur Zeit formula_143 vorhandene Menge bezeichnet. Die chemische Reaktion nähert sich also asymptotisch ihrem Endzustand formula_242 an, der völligen Umwandlung von Rohrzucker in Invertzucker. (Die Vernachlässigung der Rückreaktion ist hier akzeptabel, da das chemische Gleichgewicht der Rohrzucker-Hydrolyse sehr stark auf Seiten des Invertzuckers liegt). Biologie. exponentielles Wachstum einer Population von z. B. Mikroorganismen. Stochastik. Wie groß ist die Wahrscheinlichkeit, zufällig keine, eine oder mehr Münzen zu erhalten, wenn formula_14 Münzen zufällig auf formula_14 Empfänger verteilt werden und formula_14 sehr groß ist? Die eulersche Zahl formula_8 und die Näherungsformel für die Exponentialfunktion Oder anders gefragt: Wie viele Münzen formula_256 müssen es mehr sein als Empfänger formula_14? Damit im Mittel nur 10 % der Empfänger leer ausgehen, ist die 2,3-fache Menge an Münzen erforderlich, bei 1 % fast die 5-fache Anzahl. Logarithmische Darstellung des Nominalwerts des Euro Verallgemeinerungen. Wenn formula_262 eine Größe ist, deren Potenzen formula_263 für beliebiges nicht-negatives ganzzahliges formula_14 existieren und wenn der Grenzwert existiert, ist es sinnvoll, die abstrakte Größe formula_265 durch die oben angegebene Exponentialreihe zu definieren. Ähnliches gilt für Operatoren formula_266, die, einschließlich ihrer Potenzen, eine lineare Abbildung eines Definitionsbereichs formula_267 eines abstrakten Raumes formula_268 (mit Elementen formula_269) in einen Wertebereich formula_270 der reellen Zahlen ergeben: hier ist es sogar für alle reellen formula_271 sinnvoll, in ganz formula_267 (genauer: im zugehörigen Abschlussbereich) Exponentialoperatoren formula_273 durch den Ausdruck formula_274 zu definieren, wobei die Konvergenz dieses Ausdrucks zunächst offenbleibt. Erasable Programmable Read-Only Memory. Ein EPROM (engl. Abk. für, wörtlich: "löschbarer programmierbarer Nur-Lese-Speicher") ist ein nichtflüchtiger elektronischer Speicherbaustein, der bis etwa in die Mitte der 1990er-Jahre vor allem in der Computertechnik eingesetzt wurde, inzwischen aber weitgehend durch EEPROMs abgelöst ist. Dieser Bausteintyp ist mit Hilfe spezieller Programmiergeräte (genannt „EPROM-Brenner“) programmierbar. Er lässt sich mittels UV-Licht löschen und danach neu programmieren. Nach etwa 100 bis 200 Löschvorgängen hat das EPROM das Ende seiner Lebensdauer erreicht. Das zur Löschung nötige Quarzglas-Fenster (normales Glas ist nicht UV-durchlässig) macht das Gehäuse relativ teuer. Daher gibt es auch Bauformen ohne Fenster, die nominal nur einmal beschreibbar sind (, OTP), sich durch Röntgenstrahlung aber ebenfalls löschen lassen. EPROM wurde 1970 bei Intel von Dov Frohman entwickelt. Aufbau und Funktionsweise. Ein EPROM enthält eine Matrix aus Speicherzellen, in denen jeweils ein Transistor ein Bit repräsentiert. Eine Speicherzelle besteht aus einem MOSFET-Transistor mit einer isolierten Hilfselektrode, dem Floating-Gate. Beim Programmieren wird eine erhöhte Spannung angelegt, so dass durch den Avalanche-Effekt das Floating-Gate geladen wird. Dadurch verschiebt sich die Ansteuerspannung, bei der der Transistor einschaltet. Die Daten lassen sich nun beliebig oft auslesen, wobei die Lesespannung unterhalb der Programmierspannung liegt. Die zum Löschen verwendete Ultraviolettstrahlung bewirkt eine großflächige Ionisation des Halbleitermaterials, so dass die vorher aufgebrachte elektrische Ladung das Floating-Gate des Transistors wieder verlassen kann. Das Bitmuster ist dadurch gelöscht und das EPROM in seinen ursprünglichen Zustand zurückversetzt. Die fensterlosen OTPs lassen sich mit Röntgenstrahlung löschen, da diese auch ohne Fenster durch das Gehäuse dringt und der Baustein selbst bis auf das Gehäuse der gleiche ist. Ein konventioneller Löschvorgang dauert ca. 10 bis 30 Minuten. Da die Ionisation nach dem Ausschalten der Lichtquelle nicht sofort wieder abgeklungen ist und die Bausteine je nach Bauart des Löschgerätes auch über die für das Programmieren zulässige Temperatur hinaus erhitzt werden, kann das Programmieren erst nach einer weiteren Wartezeit erfolgen. Die Zeiten können durch den Einsatz von Löschgeräten mit Blitzlicht-Technik deutlich verkürzt werden. Statt einer kontinuierlichen Bestrahlung werden dabei die Bausteine mehreren intensiven Lichtblitzen ausgesetzt. Falls die Vorgaben des Bausteinherstellers für das Löschen nicht korrekt eingehalten werden, kann eine scheinbar richtige Programmierung mit verkürzter Datenlebensdauer die Folge sein. Das Quarzglas-Fenster sollte nach dem Programmieren mit einem lichtundurchlässigen Aufkleber geschützt werden. Ein ungeschütztes EPROM kann nach ca. 90 Tagen direkter Sonneneinstrahlung gelöscht sein. Die Beleuchtung der Speicherzellen mit einem gewöhnlichen Fotoblitzgerät kann kurzzeitige Datenverfälschung und damit Computerausfälle verursachen. Übliche EPROMs hatten 8 Bit breite Datenpfade, und die Gesamtspeicherkapazität war in der Bezeichnung enthalten. So enthielt ein 2764 64 KiBit, die als 8 Ki * 8 organisiert waren. Eine Weiterentwicklung des EPROM ist das elektrisch löschbare EEPROM () und das Flash-EEPROM. Flash-EEPROMs haben mittlerweile die EPROMs weitgehend vom Markt verdrängt. Pinbelegung. Pinbelegung eines älteren, kleinen EPROM-Typs; das Prinzip der Pinanordnung ist jedoch bei gestiegener Gesamtzahl der Pins geblieben. Wie andere integrierte Schaltkreise sind die gängingen EPROMs durch die JEDEC in ihrer Pinbelegung standardisiert. In-Circuit-Simulation. Da EPROMs nicht unbegrenzt wiederbeschreibbar sind, werden in der Entwicklungsphase von elektronischen Geräten Simulatoren verwendet. Diese gibt es in verschiedenen Varianten. Zum Beispiel gibt es Simulatoren mit USB-Anschluss, die EPROMs bis zu 4 MiBit Größe simulieren. Bei diesen Geräten wird der Programmcode über USB in den Simulator geladen und das simulierte EPROM in den Schaltungsaufbau eingefügt, beispielsweise über einen Steckadapter. Es kann sofort mit der Simulation begonnen werden. Die zu testende Schaltung verhält sich dabei genau so, als wenn ein echter EPROM-Baustein eingebaut wäre. Eine bei vorhandenem EPROM-Programmiergerät sehr kostengünstige Lösung bieten auch schon einfache Simulatoren aus batteriegepufferten RAM-Bausteinen mit Schreibschutzschalter, die am EPROM-Programmiergerät programmiert und danach mit aktiviertem Schreibschutz auf die Testschaltung gesteckt werden. Enigma (Maschine). Die Enigma (griechisch αἴνιγμα "ainigma" „Rätsel“, Eigenschreibweise auch: ENIGMA) ist eine Rotor-Schlüsselmaschine, die im Zweiten Weltkrieg zur Verschlüsselung des Nachrichtenverkehrs des deutschen Militärs verwendet wurde. Auch andere Dienste, wie Polizei, Geheimdienste, diplomatische Dienste, SD, SS, Reichspost und Reichsbahn, setzten sie zur geheimen Kommunikation ein. Trotz mannigfaltiger Verbesserungen der Verschlüsselungsqualität der Maschine vor und während des Krieges gelang es den Alliierten mit hohem personellen und maschinellen Aufwand, die deutschen Funksprüche nahezu kontinuierlich zu entziffern. Geschichte. Die Enigma A (1923) war die erste in einer langen Modellreihe Nach dem Ersten Weltkrieg suchten die deutschen Militärs nach einem Ersatz für die inzwischen veralteten, umständlichen und unsicheren manuellen Verschlüsselungsverfahren (beispielsweise ADFGX oder Codebücher), die bis dahin verwendet wurden. Hierfür kamen maschinelle Verfahren in Betracht, weil sie eine einfachere Handhabung und eine verbesserte kryptographische Sicherheit versprachen. Basierend auf zu Beginn des 20. Jahrhunderts neu aufgekommenen Techniken, wie der elektrischen Schreibmaschine und dem Fernschreiber, kamen unabhängig voneinander und fast gleichzeitig mehrere Erfinder auf die Idee des Rotor-Prinzips zur Verschlüsselung von Texten. Die ersten waren 1915 in Batavia (damals Hauptstadt von Niederländisch-Indien) die beiden niederländischen Marineoffiziere Theo A. van Hengel und R.P.C. Spengler. Ihnen wurde jedoch nicht gestattet, ihre Erfindung zum Patent anzumelden. Der nächste war im Jahr 1917 der Amerikaner Edward Hugh Hebern (Patentanmeldung 1921). Im Jahr 1918 folgte der Deutsche Arthur Scherbius und schließlich 1919 der Niederländer Hugo Koch und der Schwede Arvid Gerhard Damm, die alle ihre Ideen zu Rotor-Chiffriermaschinen zum Patent anmeldeten. Als Erfinder der Enigma gilt der promovierte deutsche Elektroingenieur Arthur Scherbius (1878–1929), dessen erstes Patent hierzu vom 23. Februar 1918 stammt (siehe auch: Enigma-Patente). Noch im selben Jahr am 15. April bot er seine neue Erfindung der Kaiserlichen Marine an, die aber den Einsatz einer maschinellen Verschlüsselung für nicht erforderlich erachtete und ihn zurückwies. Nach dem Krieg beschloss er, die Maschine für zivile Anwendungen zu vermarkten. Zur Fertigung wurde am 9. Juli 1923 die Chiffriermaschinen-Aktiengesellschaft (ChiMaAG) in Berlin (W 35, Steglitzer Str. 2, heute Pohlstraße, 10785 Berlin-Mitte/Tiergarten) gegründet. Das erste Modell der Enigma, genannt Enigma A (siehe Bild), wurde kommerziell auf Messen zum Kauf angeboten, wie 1923 in Leipzig und Bern und 1924 auf dem internationalen Postkongress des Weltpostvereins in Stockholm. Dies weckte das Interesse auch des deutschen Militärs, das eine Wiederholung der inzwischen durch britische Veröffentlichungen wie Winston Churchills „The World Crisis“ und Julian Corbetts „Naval Operations“ bekannt gewordenen kryptographischen Katastrophe des Ersten Weltkriegs unbedingt vermeiden wollte, und daher diese neue Art der maschinellen Verschlüsselung als sicherste Lösung erkannte. Im Jahr 1926 wurde die Enigma zunächst von der Reichsmarine, zwei Jahre später auch vom Heer versuchsweise eingesetzt und verschwand daraufhin vom zivilen Markt. Kurz nach Beginn der Serienfertigung verunglückte Scherbius im Jahr 1929 tödlich. Im Jahr 1934 erwarben Rudolf Heimsoeth und Elsbeth Rinke das ehemalige Unternehmen Scherbius, das unter der neuen Firma „Heimsoeth & Rinke“ (H&R) die Entwicklung und Produktion der Maschine in Berlin fortsetzte. Die nationalsozialistische Herrschaft hatte bereits begonnen. Da im Zuge der Aufrüstung der Wehrmacht ein zuverlässiges Verschlüsselungssystem benötigt wurde, stand dem Erfolg der Enigma nun nichts mehr im Wege. Man schätzt, dass während des Zweiten Weltkriegs etwas mehr als 40.000 Maschinen hergestellt wurden. Im Laufe der Zeit – bis zum Kriegsende 1945 und noch darüber hinaus – kamen viele verschiedene Modelle und Varianten der Enigma zum Einsatz (siehe auch: Enigma-Modelle). Die meistgebrauchte war die Enigma I (sprich: „Enigma Eins“), die ab 1930 von der Reichswehr und später von der Wehrmacht eingesetzt wurde und das während des Zweiten Weltkriegs wohl am häufigsten benutzte Verschlüsselungsverfahren verkörperte. Prinzip. Die wichtigsten Funktionsgruppen der Enigma I Die Enigma I inklusive Holzgehäuse wiegt rund 12 kg und die äußeren Abmessungen (L×B×H) betragen etwa 340 mm × 280 mm × 150 mm (Daten ohne Gehäuse: 10,35 kg und 310 mm × 255 mm × 130 mm). Ihr Erfinder sagt: „Die Maschine ist ganz ähnlich einer Schreibmaschine gebaut und wird auch genau wie diese bedient.“ Sie besteht im Wesentlichen aus der Tastatur, einem Walzensatz von drei austauschbaren Walzen (Rotoren mit einem Durchmesser von etwa 100 mm) und einem Lampenfeld zur Anzeige. Der Walzensatz ist das Herzstück zur Verschlüsselung. Die drei Walzen sind drehbar angeordnet und weisen auf beiden Seiten für die 26 Großbuchstaben des lateinischen Alphabets 26 elektrische Kontakte auf, die durch 26 isolierte Drähte im Inneren der Walze paarweise und unregelmäßig miteinander verbunden sind, beispielsweise (Walze III) Kontakt A mit B, B mit D, und so weiter. Drückt man eine Buchstabentaste, so fließt elektrischer Strom von einer in der Enigma befindlichen 4,5-Volt-Batterie über die gedrückte Taste durch den Walzensatz und lässt eine Anzeigelampe aufleuchten. Der aufleuchtende Buchstabe entspricht der Verschlüsselung des gedrückten Buchstabens. Da sich bei jedem Tastendruck die Walzen ähnlich wie bei einem mechanischen Kilometerzähler weiterdrehen, ändert sich das geheime Schlüsselalphabet nach jedem Buchstaben. Gibt man „OTTO“ ein, so leuchten nacheinander beispielsweise die Lampen „PQWS“ auf. Wichtig und kryptographisch stark ist, dass aufgrund der Rotation der Walzen jeder Buchstabe auf eine andere Weise verschlüsselt wird, im Beispiel das vordere O von OTTO zu P, das hintere aber zu S. Man spricht von vielen unterschiedlichen (Geheim-) „Alphabeten“, die zur Verschlüsselung benutzt werden und bezeichnet dies als polyalphabetische Substitution. Im Gegensatz dazu verwendet eine monoalphabetische Substitution nur ein einziges Geheimalphabet, und ein Klartextbuchstabe wird stets in denselben Geheimtextbuchstaben verwandelt („OTTO“ beispielsweise in „GLLG“). Würden sich die Walzen der Enigma nicht drehen, so bekäme man auch bei ihr nur eine einfache monoalphabetische Verschlüsselung. Aufbau. Rechts der drei drehbaren Walzen (5) des Walzensatzes (siehe gelb hinterlegte Zahlen in der Prinzipskizze) befindet sich die Eintrittswalze (4) (Stator), die sich nicht dreht und deren Kontakte über 26 Drähte (hier sind nur vier davon gezeichnet) mit den Buchstabentasten (2) verbunden sind. Links des Walzensatzes befindet sich die Umkehrwalze (6) (UKW), die bei der Enigma I ebenfalls feststeht. Bei der Umkehrwalze (auch genannt: Reflektor), handelt es sich um eine Erfindung (patentiert am 21. März 1926) von Willi Korn, einem Mitarbeiter von Scherbius. Sie weist nur auf ihrer rechten Seite 26 Kontakte auf (in der Skizze sind wieder nur vier davon eingezeichnet), die paarweise miteinander verbunden sind. Die Umkehrwalze bewirkt, dass der Strom, der den Walzensatz zunächst von rechts nach links durchläuft, umgelenkt wird und ihn noch einmal durchfließt, nun von links nach rechts. Der Strom verlässt den Walzensatz, wie er gekommen ist, wieder über die Eintrittswalze. Funktion. Steckerbrett(im Bild ist A mit J und S mit O gesteckert) Bei einer gedrückten Buchstabentaste, beispielsweise A, wird der Batteriestrom über die Taste A zur gleichnamigen Buchse im Steckerbrett durchgeschaltet. Ist dort die Buchse A mit einer anderen Buchse durch ein von außen angebrachtes Kabel verbunden („gesteckert“), so wird A mit einem anderen Buchstaben, beispielsweise J, vertauscht. Ist kein Kabel gesteckt („ungesteckert“), dann gelangt der Strom direkt zum Kontakt A der Eintrittswalze. Bei der weiteren Beschreibung der Funktion wird auf das Bild „Stromfluss“ (zunächst nur obere Hälfte) Bezug genommen. Es dient nur zur Illustration und ist eine vereinfachte Darstellung des rotierenden Walzensatzes (mit linkem, mittlerem und rechtem Rotor) und der statischen Umkehrwalze (engl.: "Reflector"). Aus Übersichtlichkeitsgründen wurde in der Skizze die Anzahl der Buchstaben von 26 auf 8 (nur A bis H) verringert. Angenommen der Buchstabe A sei ungesteckert, dann wird der Strom über die Eintrittswalze (sie ist in der Skizze nicht eingezeichnet) zum Eingangskontakt A der rechten Walze geleitet. Deren Verdrahtung bewirkt eine Substitution (Ersetzung) des Buchstabens durch einen anderen. Der Strom, der am Eingangskontakt A von rechts eintritt, verlässt hier die Walze auf deren linken Seite am Ausgangskontakt B. So wird durch die rechte Walze A durch B ersetzt. Der Strom gelangt nun über den Kontakt B in die mittlere Walze. Da es bei der Verdrahtung einer Walze durchaus möglich ist, dass (wie im Bild) ein Eingangskontakt mit dem gleichnamigen Ausgangskontakt verbunden ist, bleibt B hier unverändert. Der Strom verlässt über Kontakt B die mittlere Walze und tritt in die linke Walze ein. Deren Verdrahtung sorgt dafür, dass der Strom vom Eingangskontakt B zum Ausgangskontakt D geleitet wird. Der Strom hat nun alle drei (drehbaren) Walzen einmal durchlaufen und die Umkehrwalze erreicht. Sie hat nur Kontakte auf der rechten Seite und verbindet die Buchstaben paarweise, beispielsweise D mit E. Nun fließt der Strom ein zweites Mal durch den Walzensatz, jetzt aber von links nach rechts. Durch die Umkehrwalze gelangt er über den Kontakt E in die linke Walze. Hier ist beispielsweise E mit C verdrahtet. Folglich fließt der Strom weiter über Kontakt C in die mittlere Walze, verlässt sie wieder über den Kontakt F und fließt in die rechte Walze. Der Strom verlässt die rechte Walze schließlich am Kontakt G. Der weitere Stromfluss geht aus der Skizze nicht hervor, ist aber leicht erklärt. Nach Austritt aus dem Walzensatz wird der Strom über die Eintrittswalze zurück zum Steckerbrett geleitet. Ist hier der Buchstabe G mit einem anderen Buchstaben gesteckert, dann findet eine letzte Permutation statt. Ist G ungesteckert, leuchtet die Lampe G auf. Sie leuchtet übrigens nur solange auf, wie die Taste A gedrückt gehalten wird, da nur bei gedrückter Taste der Umschaltkontakt auf die Batterie umgeschaltet ist. Lässt man sie los, erlischt die Lampe. Im geschilderten Beispiel wird somit der Buchstabe A, dessen Taste eingangs gedrückt wurde und noch immer gedrückt ist, als Buchstabe G verschlüsselt. Falls der zu verschlüsselnde Text „AACHENISTGERETTET“ lautet, ist erneut ein A einzugeben. Also wird die Taste A losgelassen und zum zweiten Mal gedrückt. Wichtig ist, dass mit dem mechanischen Druck auf die Taste mithilfe eines Fortschaltmechanismus gleichzeitig die rechte Walze um eine Position rotiert wird. Die mittlere Walze rotiert erst nach 26 Schritten der rechten Walze. In der unteren Hälfte des Bildes „Stromfluss“ ist die Situation skizziert, nachdem die rechte Walze sich um eine Position (nach unten) weitergedreht hat. Wie man an der Skizze erkennen kann, hat sich der Pfad für den erneut am Kontakt A der rechten Walze eintretenden Strom radikal geändert. Er nimmt jetzt auch bei der mittleren und linken Walze sowie der Umkehrwalze einen völlig anderen Weg als zuvor, obwohl sich diese Walzen nicht gedreht haben. Das Ergebnis ist eine andere Verschlüsselung des Buchstabens A, der nun in C umgewandelt wird. Bedienung. Bei der Enigma I standen zunächst drei, ab 1939 fünf unterschiedliche Walzen zur Verfügung, die mit römischen Zahlen (I, II, III, IV und V) durchnummeriert waren. Der Benutzer wählte nach Vorgabe einer geheimen Schlüsseltabelle, die für jeden Tag wechselnde Einstellungen vorsah, drei der fünf Walzen aus und setzte diese nach der im Tagesschlüssel unter der Überschrift „Walzenlage“ vorgeschriebenen Anordnung ein. Die „Schlüsseltafel“ stellte tabellarisch für einen kompletten Monat die jeweils gültigen Tagesschlüssel dar, die um Mitternacht gewechselt wurden (Ausnahme: Bei der Luftwaffe geschah der Wechsel um 3 Uhr nachts). Unten sind beispielhaft nur drei Monatstage dargestellt, wobei, wie damals üblich, die Tage absteigend sortiert sind. Dies erlaubt es dem Verschlüssler, die verbrauchten Codes der vergangenen Tage abzuschneiden und zu vernichten. Hier sind bereits alle zehn Kabel gesteckt. Gut zu sehen ist die Hinweisplakette „Zur Beachtung!“ und darüber eine Filterscheibe, die bei hellem Außenlicht auf das Lampenfeld geklemmt wurde, den Kontrast verbesserte und die Ablesung erleichterte. Beispiel für den 31. des Monats: UKW B, Walzenlage I IV III bedeutet, dass als Umkehrwalze die Walze B zu wählen ist und Walze I links (als langsamer Rotor), Walze IV in der Mitte und Walze III rechts (als schneller Rotor) einzusetzen ist. Die Ringe, die außen am Walzenkörper angebracht sind und den Versatz zwischen der internen Verdrahtung der Walzen und dem Buchstaben bestimmen, zu dem der Übertrag auf die nächste Walze erfolgt, sind auf den 16., 26. beziehungsweise 8. Buchstaben des Alphabets einzustellen, also auf P, Z und H. Die Ringstellung wurde oft (wie hier) numerisch und nicht alphabetisch verzeichnet, vermutlich um Verwechslungen mit den anderen Teilschlüsseln vorzubeugen. Als Hilfe für den Bediener „zum Umsetzen der Zahlen in Buchstaben oder umgekehrt“ ist innen im Gehäusedeckel der Enigma als Teil der Hinweisplakette „Zur Beachtung!“ eine Umsetzungstabelle angebracht. Schließlich sind die doppelpoligen Steckbuchsen an der Frontplatte mit entsprechenden doppelpoligen Kabeln zu beschalten. In der Regel wurden genau zehn Kabel eingesteckt. Die jeweils obere Buchse eines Buchsenpaars hat einen etwas größeren Durchmesser (4 mm) als die untere (3 mm), so dass die Stecker nur in einer Orientierung eingesteckt werden können. So wird sicher die gewünschte elektrische Überkreuzung und damit die Vertauschung der beiden Buchstaben erreicht. Sechs Buchstaben bleiben ungesteckert. (Diese feste Regel der "Six self-steckered letters" war für die Codeknacker eine Hilfe.) Um die Gefahr des Erratens von Schlüsseln zu reduzieren, wurden von den deutschen Stellen einige Regeln für die Aufstellung der Schlüsseltabellen erfunden. So war es (zeitweise) verboten, dass eine Walzenlage, die an einem Monatstag bereits benutzt wurde, sich an einem anderen Monatstag wiederholte. (Die Briten erkannten dies und nannten es die "non-repeating rule".) Auch durfte sich eine Walze an zwei aufeinanderfolgenden Monatstagen nicht an derselben Stelle im Walzensatz befinden ("non-clashing rule"). Eine dritte Regel sollte das Erraten von naheliegenden Steckerkombinationen verhindern. So war es verboten, dass zwei im Alphabet aufeinanderfolgende Buchstaben miteinander gesteckert wurden. (Auch dies nutzten die britischen "Codebreakers" zu ihren Gunsten und nannten es "Consecutive Stecker Knock-Out CSKO".) All diese Vorschriften bewirkten das Gegenteil, nämlich eine Schwächung der Verschlüsselung. Sie führten zu einer Arbeitserleichterung für die Codeknacker, die aufgrund der genannten Regeln insbesondere mit Fortschreiten eines Monats immer mehr Schlüsselkombinationen ausschließen konnten. Nach Einlegen der drei Walzen und Einstellen der Ringe sowie Stecken der zehn Steckerverbindungen entsprechend der Schlüsseltafel schloss der Bediener die oberhalb des Walzensatzes angebrachte Klappe und die Frontklappe. Letzteres bewirkte ein festes Andrücken der Stecker und eine sichere Kontaktgabe sowie einen Schutz vor Ausspähen des Schlüssels. Damit war die Enigma zur Verschlüsselung oder auch Entschlüsselung bereit, vorausgesetzt der Benutzer drehte nun noch die drei (rotierenden) Walzen in die korrekte Anfangsstellung. Funkspruch. Der Verschlüssler hat seine Enigma I, wie weiter oben beschrieben, nach dem Tagesschlüssel beispielsweise für den 31. des Monats eingestellt. (Walzenlage B I IV III, Ringstellung 16 26 08 und Steckerverbindungen AD CN ET FL GI JV KZ PU QY WX. Sowohl dieser als auch die im Folgenden beschriebenen Schritte können mithilfe frei erhältlicher Computersimulationen realitätsnah nachvollzogen werden, siehe auch: Simulationen unter Weblinks.) Der Bediener denkt sich nun eine zufällige Grundstellung aus, beispielsweise „QWE“ und stellt die drei Walzen so ein, dass genau diese drei Buchstaben in den Anzeigefenstern sichtbar werden. Nun denkt er sich einen zufälligen Spruchschlüssel, ebenfalls aus drei Buchstaben, aus, beispielsweise „RTZ“. Diesen verschlüsselt er mit seiner Enigma und beobachtet, wie nacheinander die Lampen „EWG“ aufleuchten. Den so verschlüsselten Spruchschlüssel teilt er dem Empfänger zusammen mit der zufällig gewählten Grundstellung als Indikator sowie der Uhrzeit und der Anzahl der Buchstaben des Textes als „Spruchkopf“ offen mit. Laut damals geltender H.Dv.g.14 (= Heeres-Dienstvorschrift, geheim, Nr. 14) enthält der Spruchkopf die Uhrzeit als vierstellige Zahl, die Buchstabenanzahl des Spruchs einschließlich der fünf Buchstaben der Kenngruppe sowie die gewählte Grundstellung und den verschlüsselten Spruchschlüssel (Beispiel: 2220 – 204 – qweewg). Im Allgemeinen wurden alle Buchstaben handschriftlich klein geschrieben, da sie so schneller notiert werden konnten als bei Gebrauch von Großbuchstaben. Ein authentisches Spruchformular mit dem Spruchkopf „kr – 2300 – 182 – zzxprq –“, wobei „kr“ (Abkürzung für „kriegswichtig“ oder „Kriegsnotmeldung“ mit dem auffälligen Morsezeichen − · −   · − ·) als Symbol für „Dringend“ steht, ist unter Weblinks als „Spruch Nr. 233“ zu sehen. Es handelt sich um eine Anfrage nach Munition für die schwere Feldhaubitze (sFH). a> gedruckt, um sie im Fall von Gefahr schnell vernichten zu können. Als Nächstes wählt der Bediener noch drei für diesen Tag gültige Kenngruppenbuchstaben anhand einer Kenngruppentabelle aus, beispielsweise „NOW“. Die Kenngruppe hat keine kryptologische Bedeutung, sie dient dem Empfänger der Nachricht nur dazu, zu erkennen, dass die Nachricht wirklich für ihn bestimmt ist und auch befugt entschlüsselt werden kann. Zur Tarnung der Kenngruppe werden die drei Buchstaben vom Absender beliebig permutiert und um zwei für jeden Spruch zufällig zu wechselnde „Füllbuchstaben“, beispielsweise „XY“, ergänzt. Aus „NOW“ wird so zunächst etwa „OWN“ und schließlich „XYOWN“. Diese fünf Buchstaben werden unverschlüsselt als erste Fünfergruppe dem Geheimtext vorangestellt. a>) wartet auf die Entschlüsselung eines Funkspruchs (1940). Kopf und Geheimtext werden als Morsezeichen gefunkt und vom Empfänger aufgenommen. Dieser prüft als erstes, ob die Anzahl der Buchstaben (hier: 204) korrekt ist und der Spruch unverstümmelt empfangen wurde. Dann betrachtet er die Kenngruppe, also die erste Fünfergruppe, ignoriert die ersten beiden Buchstaben und sieht „OWN“. Er sortiert die drei Buchstaben in alphabetischer Reihenfolge, erhält so „NOW“, schaut in seine Kenngruppentabelle, entdeckt dort diese Kenngruppenbuchstaben und kann nun sicher sein, dass der Spruch für ihn bestimmt ist und er ihn entschlüsseln kann. Seine Enigma ist bereits bezüglich Walzenlage, Ringstellung und Steckerverbindungen entsprechend dem auch ihm bekannten Tagesschlüssel identisch mit der des Absenders eingestellt. Es fehlt ihm noch der Spruchschlüssel, also die richtige Anfangsstellung der Walzen zur Entschlüsselung des Spruchs. Diese Information erhält er aus dem Indikator „QWE EWG“ im Spruchkopf, den er wie folgt interpretiert: Stelle die Walzen auf die Grundstellung „QWE“ ein und taste dann „EWG“. Nun kann er beobachten, wie nacheinander die Lampen „RTZ“ bei seiner Enigma aufleuchten. Dies ist der einzustellende Spruchschlüssel. Kryptographische Stärken. Als die Enigma im Jahr 1918 durch Scherbius zum Patent angemeldet wurde, also noch während der Zeit des Ersten Weltkriegs, war sie eine kryptographisch äußerst starke Maschine und durfte zu Recht als „unknackbar“ bezeichnet werden. Innovativ war, im Gegensatz zu den damals noch gebräuchlichen manuellen Verschlüsselungsverfahren (beispielsweise ADFGVX), die Einführung einer maschinellen Verschlüsselung. Sie war durch die damals allein üblichen manuellen, hauptsächlich linguistisch gestützten, Entzifferungsmethoden unangreifbar und blieb es auch noch bis in die 1930er-Jahre, also mehr als zehn Jahre lang. Die kryptographischen Stärken der Enigma sind im Wesentlichen durch den rotierenden Walzensatz gegeben. Durch die Drehung der Walzen wird erreicht, dass jeder Buchstabe des Textes mit einem neuen Alphabet verschlüsselt wird (polyalphabetische Verschlüsselung). Auf diese Weise wird das bei den monoalphabetischen Verfahren so verräterische Häufigkeitsgebirge bis zur Unkenntlichkeit abgeschliffen und klassische Angriffe zur Entzifferung des Geheimtextes, wie statistische Analysen oder Mustersuche, sind zum Scheitern verurteilt. Auch die Periodensuche mithilfe des Koinzidenzindexes, als übliche Angriffsmethode auf polyalphabetische Verschlüsselungen, wie beispielsweise der Vigenere-Chiffre, ist ebenso aussichtslos, denn im Vergleich zur Periodenlänge (von 16.900, siehe auch: Verbesserungspotenzial) der Enigma war eine vergleichsweise winzige Höchstlänge der Funksprüche von 250 Buchstaben vorgeschrieben. Entscheidend für die Sicherheit der Verschlüsselung gegen unbefugte Entzifferung sind die Geheimhaltung der Walzenverdrahtung sowie die Anzahl der im Walzensatz verwendeten Walzen. Letzteres ist ein wichtiger Faktor, der die wesentlich stärkere Verschlüsselung der bei den deutschen U-Booten eingesetzten Vierwalzen-Enigma M4 im Vergleich zur Enigma I (mit nur drei Walzen) erklärt. Es sind drei mit einer M4-Maschine verschlüsselte Funksprüche öffentlich bekannt, deren Inhalt bis zum Jahr 2006 nicht enträtselt werden konnte. Erst dann gelang es dem Hobby-Kryptologen Stefan Krah, zwei der Nachrichten, die vom U-Boot "U 264" beziehungsweise "U 623" im Jahr 1942 gefunkt wurden, durch verteiltes Rechnen ("distributed computing") und Zusammenschluss von mehreren tausend Computern im Internet innerhalb eines Monats zu entziffern. Der dritte Funkspruch schließlich widerstand weitere sieben Jahre und wurde erst im Januar 2013 entziffert. Dies zeigt eindrucksvoll, dass die Enigma, deren hundertster Geburtstag bald begangen werden kann, auch mit modernen kryptanalytischen Angriffsmethoden und der heutigen weit fortentwickelten Rechnertechnik nicht einfach zu knacken ist, sondern noch immer eine harte Nuss darstellt. Die Ringe (Ringstellung) bestimmen den Versatz zwischen der inneren Verdrahtung der Walzen und dem Buchstaben, zu dem der Übertrag auf die nächste Walze erfolgt. Außerdem dienten sie zum Schutz vor Spionage. So wurde verhindert, dass durch Ablesen der von außen sichtbaren Walzenstellung auf die interne Drehposition der Walzen geschlossen werden konnte. Mithilfe der „Doppelsteckerschnüre“, die von vorne in das Steckerbrett gesteckt werden können, lassen sich Buchstaben vor und nach Durchlaufen des Walzensatzes paarweise involutorisch vertauschen. Diese Maßnahme diente zur weiteren Stärkung der kryptographischen Sicherheit der Enigma. Tatsächlich wird hierdurch der Schlüsselraum beträchtlich erweitert. Schlüsselraum. a> beim Ver- oder Entschlüsseln von Nachrichten zeigt. Der Walzensatz aus drei rotierenden Walzen und der Umkehrwalze B (links). Der Ring der mittleren Walze ist hier auf 01 eingestellt (siehe rotes Dreieck in der Mitte des Bildes). 60 · 676 · 16.900 · 150.738.274.937.250 = 103.325.660.891.587.134.000.000 Das sind etwa 10²³ Möglichkeiten und entspricht einer Schlüssellänge von ungefähr 76 bit. Die gelegentlich zu hörenden „150 Millionen Millionen Millionen“ Möglichkeiten, beispielsweise in den Spielfilmen „Enigma – Das Geheimnis“ und „The Imitation Game – Ein streng geheimes Leben“, basieren auf dem Weglassen der Ringstellungen. Die genaue Rechnung ergibt in diesem Fall 60 · 16.900 · 150.738.274.937.250 oder 152.848.610.786.371.500.000 unterschiedliche Fälle, wobei die Briten zumeist statt 16.900 alle 26³ oder 17.576 mögliche Walzenstellungen berücksichtigten und als Produkt dann 158.962.555.217.826.360.000 erhielten. Der Schlüsselraum war für die damalige Zeit enorm groß und hält sogar einem Vergleich mit moderneren Verfahren stand. Beispielsweise verfügt das über mehrere Jahrzehnte gegen Ende des 20. Jahrhunderts zum Standard erhobene Verschlüsselungsverfahren DES ("Data Encryption Standard") über eine Schlüssellänge von genau 56 bit, also deutlich weniger als die Enigma. Eine Exhaustion (vollständiges Durchsuchen) des Schlüsselraums der Enigma ist selbst mit modernen Mitteln kaum möglich und war mit der damaligen Technologie vollkommen illusorisch. Die Größe des Schlüsselraums ist jedoch nur eine notwendige, aber keine hinreichende Bedingung für die Sicherheit eines kryptographischen Verfahrens. Selbst eine so simple Methode wie die einfache monoalphabetische Substitution verfügt (bei Verwendung eines Alphabets aus 26 Buchstaben wie die Enigma) über 26! (Fakultät) mögliche Schlüssel. Das sind grob 4000·10²³ Schlüssel (ungefähr 88 bit) und ist verglichen mit der Zahl 10²³ der Enigma I sogar noch um etwa den Faktor 4000 größer. Dennoch ist eine monoalphabetische Substitution sehr unsicher und kann leicht gebrochen (entziffert) werden. a>") konnte der Schlüsselraum drastisch reduziert werden. Auch bei der Enigma ähnelt die wesentlich zur Größe des Schlüsselraums beitragende konstruktive Komponente, nämlich das Steckerbrett, einer einfachen monoalphabetischen Substitution, denn die Steckerung bleibt schließlich während der gesamten Verschlüsselung unverändert. Das Steckerbrett kann folglich mithilfe einer intelligenten kryptanalytischen Angriffsmethode ("Turing-Bombe") überwunden und praktisch gänzlich eliminiert werden. Damit kann der Faktor 150.738.274.937.250 bei der Berechnung des Schlüsselraums effektiv wieder gestrichen werden. Ebenso bewirken die Ringe nur eine geringe kryptographische Stärkung des Verfahrens. Bei falscher Ringstellung der rechten Walze und ansonsten korrektem Schlüssel sind periodisch (Periodenlänge = 26 Buchstaben) bereits Klartextpassagen lesbar, die einige Buchstaben lang immer wieder abreißen. Noch weniger wirkt der Ring der mittleren Walze, wobei hier die Periodenlänge 650 Buchstaben (25·26) beträgt. Die mittlere Ringstellung trägt somit zumeist überhaupt nicht zur Größe des Schlüsselraums bei, immer dann nämlich, wenn während des Spruchs "kein" Übertrag auf die linke Walze erfolgt, der aufgrund der vorgeschriebenen Spruchlänge von höchstens 250 Buchstaben nur selten passierte. Die Ringstellung der linken Walze ist, wie schon erwähnt, kryptographisch völlig bedeutungslos. Für den Kryptoanalytiker stellt die Feinjustierung der Ringe keine größere Schwierigkeit mehr dar. Damit kann man bei der Berechnung der Größe des Schlüsselraums auch den Faktor 676 getrost wieder streichen. Als kryptographisch wirksam übrig bleiben nur die 60 Walzenlagen und die (bei unbekannter Ringstellung) 17.576 zu berücksichtigenden Walzenstellungen. So schrumpft der vorher noch so gigantisch erscheinende Schlüsselraum auf vergleichsweise winzige 60·17.576 = 1.054.560 (gut eine Million) Möglichkeiten (etwa 20 bit), eine Zahl, die auch bereits zu Zeiten des Zweiten Weltkriegs mithilfe der damaligen elektromechanischen Technik exhaustiv (erschöpfend) abgearbeitet werden konnte. Kryptographische Schwächen. Die Umkehrwalze hat nur Kontakte auf einer Seite und verursacht die kryptographische Hauptschwäche der Enigma. Scherbius' Mitarbeiter Willi Korn erreichte durch die Umkehrwalze, dass das Schlüsselverfahren involutorisch wird, das heißt, wenn bei einer bestimmten Stellung der Walzen ein U in ein X verschlüsselt wird, dann wird bei dieser Stellung auch ein X in ein U verschlüsselt. So vereinfachte er Bedienung und Konstruktion der Maschine, denn man muss nicht mehr zwischen Verschlüsselung und Entschlüsselung unterscheiden. Darüber hinaus erhoffte er sich auch eine Steigerung der Sicherheit, denn der Strom durchfließt die Walzen ja nun zweimal. „Durch diesen Rückgang des Stromes durch den Chiffrierwalzensatz findet eine weitere Verwürfelung statt. Infolge dieser Anordnung ist es möglich, mit verhältnismäßig wenig Chiffrierwalzen auszukommen und trotzdem eine große Chiffriersicherheit aufrechtzuerhalten.“ Mit diesen Worten erläutert Korn die Vorteile seiner Umkehrwalze in der Patentschrift (DRP Nr. 452 194). Dies war jedoch ein Trugschluss mit weitreichenden Konsequenzen. Zum einen bewirkt die Umkehrwalze, dass nun kein Buchstabe mehr in sich selbst verschlüsselt werden kann, denn der Strom kann ja in keinem Fall genau den Weg durch den Walzensatz wieder zurücknehmen, den er gekommen ist. Er wird stets auf einem anderen Weg zurückgeleitet als er zur Umkehrwalze hingeflossen ist. Mathematisch spricht man hier von fixpunktfreien Permutationen. Diese Einschränkung mag als unwesentliche Kleinigkeit erscheinen, denn es bleiben ja noch 25 weitere Buchstaben des Alphabets zur Verschlüsselung, tatsächlich bedeutet dies jedoch eine drastische Reduzierung der zur Verschlüsselung verfügbaren Alphabete und darüber hinaus eine neue Angreifbarkeit des Geheimtextes. Zum anderen verursacht die Umkehrwalze dadurch, dass die Permutation und damit die Verschlüsselung involutorisch wird, eine weitere Verringerung der Alphabetanzahl. Die durch die Umkehrwalze eingefügten kryptographischen Schwächen, insbesondere die Reduzierung der Anzahl der zur Verfügung stehenden Alphabete, lassen sich leicht klarmachen, wenn man statt von 26 Buchstaben vereinfacht von beispielsweise nur vier Buchstaben ausgeht. Mit vier Buchstaben lassen sich 4! = 24 unterschiedliche Alphabete (damit meint der Kryptograph unterschiedliche Anordnungen der Buchstaben) erzeugen, nämlich Beschränkt man sich hier, statt auf alle 24 möglichen, nur auf die fixpunktfreien Permutationen, so fallen alle Alphabete weg, bei denen ein Buchstabe in sich selbst verschlüsselt wird, also auf seinem gewohnten alphabetischen Platz steht. Aus der obigen Liste sind damit die folgenden fünfzehn Alphabete zu streichen, da sie einen oder mehrere Fixpunkte aufweisen (unten rot und unterstrichen). Berücksichtigt man jetzt noch, dass die Umkehrwalze nicht nur alle Permutationen mit Fixpunkten eliminiert, sondern auch alle nichtinvolutorischen Permutationen, so müssen aus der obigen Tabelle noch weitere sechs Fälle gestrichen werden, nämlich die, bei denen die zweifache Anwendung der Permutation nicht wieder zum ursprünglichen Buchstaben führt. Übrig bleiben von allen möglichen 24 Permutationen eines Alphabets aus vier Buchstaben lediglich die drei fixpunktfreien "und" involutorischen Fälle. Sie werden als „echt involutorische Permutationen“ bezeichnet. Bei diesem Exponat wurde Enigma irrtümlich mit „Geheimnis“ übersetzt (siehe Tafel), richtig ist „Rätsel“. Bei der Enigma mit ihren 26 Buchstaben bewirkt diese Beschränkung, dass statt der 26! (Fakultät), also ungefähr 4·1026 insgesamt möglichen permutierten Alphabete lediglich die 25·23·21·19···7·5·3·1 = 25!! (Doppelfakultät), also etwa 8·1012 echt involutorisch permutierten Alphabete genutzt werden können. Durch die Umkehrwalze verschenkt man so den "Faktor" von etwa 5·1013 an Möglichkeiten – eine gigantische Schwächung der kombinatorischen Komplexität der Maschine. Übrig bleibt weniger als die Quadratwurzel der ursprünglich möglichen Permutationen. Kryptographisch noch katastrophaler als diese drastische Reduktion der Alphabetanzahl ist jedoch, dass durch die Vermeidung von Fixpunkten Aussagen über den Text möglich sind wie „Nichts ist jemals es selbst“, die bei der Entzifferung eine ganz wesentliche Hilfe waren. Weiß der Angreifer, dass niemals ein Buchstabe die Verschlüsselung seiner selbst ist, dann eröffnet ihm diese Kenntnis Abkürzungen, und er muss nicht mehr mühsam jeden einzelnen Fall abarbeiten, wie an folgendem Beispiel illustriert wird. Die Anzahl der durch Kollisionen auszuschließenden Lagen lässt sich übrigens nach folgender Überlegung abschätzen: Bei einem Wahrscheinlichen Wort der Länge 1 (also nur ein einzelner wahrscheinlicher Buchstabe) ist die Wahrscheinlichkeit für eine Kollision 1/26. Folglich ist die Wahrscheinlichkeit für "keine" Kollision 1−1/26. Bei einem Wahrscheinlichen Wort wie oben mit der Länge 24 ist dann die Wahrscheinlichkeit für keine Kollision (1−1/26)24, das sind etwa 39 %. Das heißt, bei 27 untersuchten Lagen erwartet man im Mittel für 27·(1−1/26)24 der Fälle keine Kollisionen. Der Ausdruck ergibt etwa den Wert 10,5 und stimmt recht gut mit den im Beispiel beobachteten (und grün gekennzeichneten) acht kollisionsfreien Crib-Lagen überein. Mithilfe dieser äußerst simplen kryptanalytischen Angriffsmethode lassen sich so von den 27 möglichen Lagen des Wahrscheinlichen Worts hier 19, also mehr als zwei Drittel, als unmöglich eliminieren – eine erhebliche Arbeitsvereinfachung für den Angreifer. Entzifferung. Der polnische Codeknacker Marian Rejewski (1932) a>, von dem Mitte der 1930er Jahre mindestens 15 Stück gefertigt wurden, waren Tasten (1), Lampen (2) und Steckbuchsen (7) im Gegensatz zum deutschen Original einfach alphabetisch angeordnet. Die Betreiber der Schlüsselmaschine Enigma waren der Meinung, dass die durch sie maschinell verschlüsselten Texte im Gegensatz zu fast allem, was bis 1918 gebräuchlich war, mit manuellen Methoden nicht zu knacken sind. Übersehen wurde, dass einer maschinellen Verschlüsselung durch maschinelle Entzifferung begegnet werden kann. Die Geschichte der Entzifferung der Enigma beginnt im Jahr 1932, als der für Frankreich unter dem Decknamen HE ("Asché") spionierende Deutsche Hans-Thilo Schmidt geheime Schlüsseltafeln für die Monate September und Oktober 1932 sowie die Gebrauchsanleitung (H.Dv.g.13) und die Schlüsselanleitung (H.Dv.g.14) an den französischen Geheimdienstmitarbeiter und späteren "Général" Gustave Bertrand verriet. Zu dieser Zeit waren erst drei Walzen (I bis III) im Einsatz und die Walzenlage wurde nur vierteljährlich und noch nicht, wie dann ab Oktober 1936, täglich gewechselt. Das "Deuxième Bureau" des französischen Geheimdienstes leitete die Unterlagen an britische und polnische Stellen weiter. Während es Franzosen und Briten nicht gelang, in die Verschlüsselung einzubrechen und sie die Enigma als „unknackbar“ einstuften, glückte dem 27-jährigen polnischen Mathematiker Marian Rejewski bei seiner Arbeit in dem für Deutschland zuständigen Referat BS4 des "Biuro Szyfrów" (deutsch: „Chiffrenbüro“) bereits im Jahr 1932 der erste Einbruch in die Enigma. Dabei nutzte er eine legal gekaufte kommerzielle Maschine (Modell D), bei der – anders als bei der ihm noch unbekannten militärischen Enigma I – die Tastatur mit der Eintrittswalze in der üblichen QWERTZ-Reihenfolge (Buchstabenreihenfolge einer deutschen Tastatur, beginnend oben links) verbunden war. Rejewski erriet die von den Deutschen für die militärische Variante gewählte Verdrahtungsreihenfolge, die den britischen "Codebreaker" Dillwyn „Dilly“ Knox selbst noch 1939 fast zur Verzweiflung brachte. Anschließend schaffte es Marian Rejewski mithilfe seiner exzellenten Kenntnisse der Permutationstheorie (siehe auch: Enigma-Gleichung), die Verdrahtung der drei Walzen (I bis III) sowie der Umkehrwalze (A) (siehe auch: Enigma-Walzen) zu erschließen – eine kryptanalytische Meisterleistung, die ihn mit den Worten des amerikanischen Historikers David Kahn „in das Pantheon der größten Kryptoanalytiker aller Zeiten erhebt“ (im Original: „[…] elevates him to the pantheon of the greatest cryptanalysts of all time“). Der englische Codeknacker Irving J. Good bezeichnete Rejewskis Leistung als „The theorem that won World War II“ (deutsch: „Das Theorem, das den Zweiten Weltkrieg gewann“). Die nächste Aufgabe, die gelöst werden musste, war, jeweils die richtige Walzenlage und Walzenstellung zu erschließen. Dazu nutzte Rejewski zusammen mit seinen 1932 hinzugekommenen Kollegen Jerzy Różycki und Henryk Zygalski einen schwerwiegenden verfahrenstechnischen Fehler aus, der den Deutschen unterlief: Um eine sichere Übertragung zu gewährleisten, wurde zu dieser Zeit der Spruchschlüssel noch zweimal hintereinander gestellt und verschlüsselt an den Anfang einer Nachricht geschrieben („Spruchschlüsselverdopplung“). Somit war der erste und vierte, der zweite und fünfte sowie der dritte und sechste Geheimtextbuchstabe jeweils demselben Klartextbuchstaben zuzuordnen. Mithilfe zweier, durch ihren Kollegen Antoni Palluth von der Firma AVA speziell zu diesem Zweck gebauter Maschinen, genannt Zyklometer und "Bomba", die zwei beziehungsweise dreimal zwei hintereinander geschaltete und um jeweils drei Drehpositionen versetzte Enigma-Maschinen verkörperten, konnten die polnischen Kryptoanalytiker für jede der sechs möglichen Walzenlagen feststellen, bei welchen Walzenstellungen die beobachtete Zuordnung der Buchstabenpaare möglich war und so den Suchraum erheblich einengen. Nach Analyse mehrerer Funksprüche war der korrekte Spruchschlüssel gefunden. Nachdem die Deutschen am 15. September 1938 ihre Verfahrenstechnik änderten und drei Monate später mit Einführung der Walzen IV und V die Anzahl der möglichen Walzenlagen von sechs (= 3·2·1) auf sechzig (= 5·4·3) erhöhten, konnten die Polen nicht mehr mithalten, und die Enigma war wieder sicher. Angesichts der drohenden Gefahr übergaben sie kurz vor dem deutschen Angriff auf Polen ihr gesamtes Wissen an ihre Verbündeten. Am 26. und 27. Juli 1939 kam es zum legendären Pyry-Geheimtreffen französischer, britischer und polnischer Codeknacker im Kabaty-Wald von Pyry, knapp 20 km südlich von Warschau, bei dem sie den verblüfften Briten und Franzosen ihre Enigma-Nachbauten und ihre kryptanalytischen Maschinen präsentierten und ihre Methodiken offenbarten. Die erste Frage, die Dilly Knox bei diesem Treffen (vermutlich auf Französisch) gestellt hat, war: "„Quel est le QWERTZU?“" (deutsch: „Was ist der QWERTZU?“; also sinngemäß: „Wie lautet die Verdrahtungsreihenfolge der Eintrittswalze?“). Dies hatte ihn schon lange gequält. Rejewskis Antwort war genial einfach: „ABCDEFG…“. Ein Gedanke, der Knox so abstrus erschien, dass er es nicht fassen konnte. Marian Rejewski hingegen kannte die „Tugend der Deutschen: den Ordnungssinn“, und dies hatte ihn bereits sieben Jahre zuvor die von den deutschen Kryptographen gewählte, denkbar simpelste aller Permutationen erkennen lassen – den Trivialfall der Identität. Daraus resultierte die für ihn leicht zu erratende gewöhnliche alphabetische Reihenfolge der Verdrahtung der Eintrittswalze. Das Herrenhaus (engl. "the mansion") von Bletchley Park war die Zentrale der britischen "Codebreaker" und ist heute ein Museum. Der britische "Codebreaker" Alan Turing mit 16 Jahren (1927) Die "Turing-Bombe" besteht aus der Hintereinanderschaltung von dreimal zwölf Walzensätzen der Enigma. Die Farben der „Trommeln“ (engl. "drums") signalisieren die Nummer der entsprechenden Walze (Walze I = rot, Walze II = kastanienbraun, Walze III = grün, Walze IV = gelb, Walze V = hellbraun, Walze VI = blau, Walze VII = schwarz, Walze VIII = silber). Mit diesem Anschub, vor allem mit den nun endlich bekannten Walzenverdrahtungen, konnten die britischen Kryptoanalytiker mit Ausbruch des Krieges im etwa 70 km nordwestlich von London gelegenen Bletchley Park (B.P.) einen erneuten Angriff auf die Enigma starten. Das wichtigste Hilfsmittel dabei war – neben ihrer intellektuellen Leistungsfähigkeit und dem hohen Personaleinsatz von später zehntausend bis vierzehntausend Frauen und Männern – vor allem eine spezielle elektromechanische Maschine, genannt die "Turing-Bombe", die auf der polnischen "Bomba" aufbaute und vom englischen Mathematiker Alan Turing ersonnen wurde. Turings Idee zur Schlüsselsuche bestand darin, durch ringförmige Verkettung von mehreren (meist zwölf) Enigma-Walzensätzen die Wirkung des Steckerbretts komplett abzustreifen. Dadurch gelang es ihm, die praktisch unüberschaubare Anzahl von (mehr als 200 Trilliarden) Verschlüsselungsmöglichkeiten, auf die die deutschen Kryptographen ihre Hoffnungen setzten, drastisch zu reduzieren. Das Grundprinzip geht von der Enigma I aus, bei der drei Walzen aus einem Sortiment von fünf Walzen eingesetzt werden und nur die Umkehrwalze B zur Verfügung steht. Eine andere Umkehrwalze (UKW C), von den Briten lautmalerisch "Uncle Walter" genannt, tauchte kurzzeitig auf und verschwand dann wieder. Für jede der 60 verschiedenen Walzenlagen gibt es 26³, also 17.576 Walzenstellungen. Wenn man bei der Schlüsselsuche von den Ringstellungen und vom Steckerbrett absehen kann, was mithilfe der durch die "Bombe" realisierten kryptanalytischen Angriffsmethode ermöglicht wurde, dann bleiben „nur“ noch 60·17.576, also 1.054.560 Möglichkeiten übrig. Diese etwa eine Million unterschiedlichen Fälle sind von Hand in vernünftiger Zeit praktisch nicht durchzuprobieren. Mithilfe der "Turing-Bombe" jedoch, die motorbetrieben mit 64 Umdrehungen pro Minute während jeder Umdrehung 26 Fälle abarbeiten konnte, brauchte man nur noch 1.054.560/(26·64) Minuten, etwas mehr als zehn Stunden, um sämtliche Möglichkeiten durchzutesten. (Hinzu kommt noch die Zeit zum Einstellen und Umrüsten der Maschine auf die sechzig verschiedenen Walzenlagen, wodurch die Zeit auf rund zwanzig Stunden verdoppelt wird.) Leistet man sich den Aufwand, sechzig "Bombes" einzusetzen, jeweils eine für jede Walzenlage, dann schrumpft die Zeit für einen Durchlauf von etwas mehr als zehn Stunden auf gut zehn Minuten – eine durchaus erträgliche Zeit. Tatsächlich waren bis zum Kriegsende mehr als 210 "Bombes" allein in England in Betrieb. Entscheidend wichtig für die Funktion der "Bombe" sind Wahrscheinliche Wörter ("Cribs"), deren Auftreten man im Text erwarten kann. Fehlen diese, dann scheitert die Entzifferung. Beispielsweise gelang den Briten der Einbruch in zwei Schlüsselkreise der Deutschen Reichsbahn nicht, die in Bletchley Park nach der frühen Dampflokomotive "The Rocket" als "Rocket II" und "Rocket III" bezeichnet wurden. Grund war, wie sie nach dem Krieg zu ihrer Überraschung feststellten, nicht eine besonders sichere Enigma-Variante, sondern die ungewohnte „Eisenbahnersprache“ und die Art der Transportmeldungen, die ihnen das Erraten von Wahrscheinlichen Wörtern nicht erlaubten. Militärische Meldungen hingegen waren häufig stereotyp abgefasst und enthielten viele leicht zu erratende "Cribs" wie OBERKOMMANDODERWEHRMACHT, die die britischen Codeknacker zur Entzifferung nutzen konnten. Darüber hinaus profitierten sie von der deutschen Gründlichkeit bei der Abfassung von Routinemeldungen, wie Wetterberichte, die jeden Morgen pünktlich zur selben Zeit und vom selben Ort gesendet wurden. Zwar verbot die deutsche Dienstvorschrift „Allgemeine Schlüsselregeln für die Wehrmacht“ (H.Dv.g.7) ausdrücklich „Regelmäßigkeiten im Aufbau, gleichlautende Redewendungen und Wiederholungen im Text“ und warnte eindringlich „Es muß auf jeden Fall vermieden werden, daß durch flüchtig ausgebildetes Personal Schlüsselfehler gemacht werden, die […] der feindlichen Nachrichtenaufklärung die Entzifferung ermöglichen“, dennoch passierten genau diese Fehler, die die Codeknacker wahrnehmen und ausnutzen konnten. Aus britischer Sicht war eine täglich frisch verschlüsselte Enigma-Meldung, die stets mit den Worten „WETTERVORHERSAGEBEREICHSIEBEN“ begann, ähnlich wertvoll wie es eine direkte öffentliche Bekanntgabe des jeweils gültigen Tagesschlüssels gewesen wäre. So wurde beispielsweise der Enigma-Schlüssel vom "D-Day", also dem Tag der Landung der Alliierten in der Normandie ("Operation Overlord"), durch den "Crib" „WETTERVORHERSAGEBISKAYA“, den die britischen Kryptoanalytiker leicht erraten konnten und korrekt vermuteten, in weniger als zwei Stunden nach Mitternacht gebrochen. Nicht selten provozierten die Briten sogar bewusst Vorfälle, nur um die darauf prompt zu erwartenden deutschen Funksprüche mit bekanntem Inhalt (und mit aktuellem Tagesschlüssel verschlüsselt) zu erhalten und nannten diese Technik "gardening" (deutsch: „Gartenpflege“). Der britische "Codebreaker" Rolf Noskwith aus Baracke 8 beschrieb sie folgendermaßen: „Die RAF warf an bestimmten Stellen in der Nordsee Minen ab, so daß die Minenwarnung der Deutschen uns als Crib diente. Die Stellen waren sorgfältig ausgewählt, um bestimmte Ziffern, wie insbesondere 0 und 5, [als Koordinaten] zu vermeiden, für die die Deutschen unterschiedliche Buchstaben benutzten.“ Die Briten konnten sich so, unter Vermeidung der Fallunterscheidungen für „NULL“ und „NUL“ sowie „FUENF“ und „FUNF“, die Arbeit etwas erleichtern. Außer im Fall „ZWEI“ und „ZWO“ gab es für die übrigen Ziffern nur eine Schreibweise. Die amerikanische Hochgeschwindigkeits-Version der "Turing-Bombe" erreichte mit bis zu 2000 Umdrehungen pro Minute mehr als die fünfzehnfache Geschwindigkeit ihres britischen Vorbilds und war speziell gegen die Vierwalzen-Enigma gerichtet. So gelang es unter dem Decknamen „Ultra“, beginnend mit Januar 1940 zunächst die von der Luftwaffe und später auch die vom Heer mit der Enigma I verschlüsselten Nachrichten nahezu während des gesamten Zweiten Weltkriegs kontinuierlich zu brechen. Im Jahr 1943 beispielsweise wurden mehr als 80.000 Funksprüche pro Monat abgefangen und entziffert, also durchschnittlich mehr als 2500 jeden Tag, während des Krieges insgesamt waren es über zweieinhalb Millionen. Hartnäckiger zeigten sich die Verschlüsselungsverfahren der deutschen Kriegsmarine, die eine Variante (Enigma M3) mit drei aus acht Walzen (I bis VIII) sowie eine ausgeklügelte Spruchschlüsselvereinbarung nutzte. Hier gelang den Briten der Einbruch erst im Mai 1941 nach Kaperung des deutschen U-Boots "U 110" und Erbeutung einer intakten M3-Maschine und sämtlicher Geheimdokumente (Codebücher inklusive der entscheidend wichtigen „Doppelbuchstabentauschtafeln“) durch den britischen Zerstörer HMS "Bulldog" am 9. Mai 1941. Eine für die Briten schmerzliche Unterbrechung ("Black-out") gab es dann, als am 1. Februar 1942 die M3 (mit drei Walzen) exklusiv bei den U-Booten durch die M4 (mit vier Walzen) abgelöst wurde. Dieses von den Deutschen „Schlüsselnetz Triton“ und von den Engländern "Shark" (deutsch: „Hai“) genannte Verfahren konnte zehn Monate lang nicht gebrochen werden, eine Zeit, in der die deutsche U-Bootwaffe erneut große Erfolge verbuchen konnte. Der Einbruch in "Shark" gelang erst am 12. Dezember 1942, nachdem der britische Zerstörer HMS "Petard" am 30. Oktober 1942 im Mittelmeer das deutsche U-Boot "U 559" aufbrachte. Ein Prisenkommando enterte das Boot und erbeutete wichtige geheime Schlüsselunterlagen wie Kurzsignalheft und Wetterkurzschlüssel, mit deren Hilfe es die Kryptoanalytiker in Bletchley Park schafften, auch die Enigma-M4 zu überwinden. Nun kamen auch die Amerikaner zu Hilfe, die unter Federführung von Joseph Desch in der "National Cash Register Company (NCR)" in Dayton, Ohio, ab April 1943 mehr als 120 Stück Hochgeschwindigkeitsvarianten der "Turing-Bombe" produzierten, die speziell gegen die M4 gerichtet waren. Danach waren die deutschen U-Boote nie mehr sicher (siehe auch: U-Boot-Krieg). Unmittelbare Folge der amerikanischen Entzifferungen war – beginnend mit "U 118" am 12. Juni 1943 – die Versenkung von neun der zwölf deutschen U-Tanker („Milchkühe“) innerhalb weniger Wochen im Sommer 1943. Dies führte zu einer Schwächung aller Atlantik-U-Boote, die nun nicht mehr auf See versorgt werden konnten, sondern dazu die lange und gefährliche Heimreise durch die Biskaya zu den U-Boot-Stützpunkten an der französischen Westküste antreten mussten. Geschichtliche Konsequenzen. Der Oberbefehlshaber der alliierten Streitkräfte General Dwight D. Eisenhower bezeichnete "Ultra" als „entscheidend“ für den Sieg. Unstrittig ist, dass die Kompromittierung der Enigma von enormer strategischer Bedeutung für den Verlauf des Zweiten Weltkriegs war. Viele Geschichtswissenschaftler gehen davon aus, dass, falls die Enigma nicht hätte gebrochen werden können, sich am Ausgang des Krieges zwar nichts geändert hätte, er aber vermutlich wesentlich länger und noch viel blutiger gewesen wäre. So äußerte sich der englische Historiker Sir Harry Hinsley, der in Bletchley Park mitarbeitete, zur Bedeutung von "Ultra" mit den Worten „shortened the war by not less than two years and probably by four years“ (deutsch: „["Ultra"] verkürzte den Krieg um nicht weniger als zwei Jahre und vermutlich um vier Jahre“). Insofern erscheint die Vermutung gerechtfertigt, dass es den polnischen, britischen und amerikanischen Kryptoanalytikern und ihrer Leistung bei der Entzifferung der deutschen Maschine zu verdanken ist, dass der Zweite Weltkrieg erheblich verkürzt werden konnte und damit unzähligen Menschen auf allen Seiten das Leben gerettet wurde. Es gibt aber auch Historiker, Politiker und Militärs, die "Ultra" als „entscheidend“ für den Sieg der Alliierten ansehen. So äußerte sich beispielsweise der amerikanische Historiker Harold Deutsch, der im Zweiten Weltkrieg Leiter der Analyse beim Amt für strategische Dienste im Kriegsministerium der Vereinigten Staaten, dem OSS war: „I feel that intelligence was a vital factor in the Allied victory – I think that without it we might not have won, after all“ (deutsch: „Ich glaube, dass die nachrichtendienstlichen Erkenntnisse ein lebenswichtiger Faktor für den Sieg der Alliierten waren – Ich denke, dass wir ohne sie möglicherweise schließlich doch nicht gewonnen hätten“). Deutsch steht mit seiner Meinung nicht allein. Es gibt eine Reihe von Experten, die seine Ansicht teilen. Sie berücksichtigen dabei die Tatsache, dass die Entzifferungen nicht nur auf militärisch-taktischer Ebene (Heer, Luftwaffe und Marine) eine große Hilfe waren, sondern aufgrund der nahezu vollständigen Durchdringung des deutschen Nachrichtenverkehrs auf allen Ebenen (Polizei, Geheimdienste, diplomatische Dienste, SD, SS, Reichspost, Reichsbahn und Wehrmacht) auch einen äußerst genauen Einblick in die strategischen und wirtschaftlichen Planungen der deutschen Führung erlaubten. Speziell schätzten die Alliierten die Authentizität der aus Enigma-Funksprüchen gewonnenen Informationen, die aus anderen Quellen, wie Aufklärung, Spionage oder Verrat, nicht immer gegeben war. So konnten die Briten ihre zu Beginn des Krieges noch sehr begrenzten Ressourcen deutlich besser koordinieren und viel gezielter gegen die erkannten deutschen Schwächen einsetzen, als es ohne die Entzifferung der Enigma möglich gewesen wäre. Im späteren Verlauf des Krieges nutzten sie dann zusammen mit ihren amerikanischen Verbündeten die "Ultra"-Informationen, um die gemeinsame Überlegenheit noch besser auszuspielen. Einer der führenden ehemaligen "Codebreaker" aus Bletchley Park, der britische Schachmeister Stuart Milner-Barry, schrieb: „Mit Ausnahme vielleicht der Antike wurde meines Wissens nie ein Krieg geführt, bei dem die eine Seite ständig die wichtigen Geheimmeldungen von Heer und Flotte des Gegners gelesen hat.“ Ein ähnliches Fazit zieht ein nach dem Krieg verfasster amerikanischer Untersuchungsbericht: „Ultra schuf in der Militärführung und an der politischen Spitze ein Bewusstsein, das die Art und Weise der Entscheidungsfindung veränderte. Das Gefühl, den Feind zu kennen, ist höchst beruhigend. Es verstärkt sich unmerklich im Laufe der Zeit, wenn man regelmäßig und aufs genaueste seine Gedanken und Gewohnheiten und Handlungsweisen beobachten kann. Wissen dieser Art befreit das eigene Planen von allzu großer Vorsicht und Angst, man wird sicherer, kühner und energischer.“ David Kahn bemerkte: „In Europa ließ die Fähigkeit der Alliierten, die deutschen Verschlüsselungssysteme zu knacken und alle Botschaften mitzulesen (Codename ULTRA), die Alliierten von Sieg zu Sieg eilen. In der»Schlacht im Atlantik«, der fundamentalsten Auseinandersetzung des ganzen Zweiten Weltkriegs, konnten die Alliierten ihre Konvois an den deutschen U-Booten vorbeisteuern, weil sie wussten, wo diese wie Wolfsrudel lauerten. So ließen sich lähmende Verluste weitgehend vermeiden und Menschen wie Güter konnten sicher nach Großbritannien gebracht werden. Später, bei ihrer großen Invasion in Europa, die zum Sieg über Hitlers Reich führte, half die Decodierung deutscher Botschaften den Alliierten dabei, Gegenangriffe vorherzusehen und abzuwehren. Auf diese Weise konnten sie deutsche Schwachstellen besser erkennen und ins Ruhrgebiet und nach Berlin vorstoßen. Auch sowjetische Codebrecher konnten die geheimen Informationen der Deutschen entziffern, was zu ihrem Sieg an der Ostfront beitrug.“ Der ehemalige Sicherheitsberater von US-Präsident Jimmy Carter, der polnisch-amerikanische Politikwissenschaftler Zbigniew Brzeziński zitierte den Oberbefehlshaber der alliierten Streitkräfte General Dwight D. Eisenhower, der "Ultra" als "decisive" (deutsch: „entscheidend“) für den Sieg bezeichnete (vgl. auch F. W. Winterbotham "The Ultra Secret"). Die polnischen Historiker Władysław Kozaczuk und Jerzy Straszak schrieben „it is widely believed that Ultra saved the world at least two years of war and possibly prevented Hitler from winning“. (deutsch: „es wird weithin angenommen, dass "Ultra" der Welt mindestens zwei Jahre Krieg erspart hat und möglicherweise verhinderte, dass Hitler ihn gewann“). Der renommierte britische Historiker und Kryptologe Ralph Erskine sagte einfach und klar: Der Einbruch in die Marine-Enigma „rettete Großbritannien vor der Niederlage im U-Boot-Krieg“. Auch Stuart Milner-Barry vertrat die Ansicht, dass „had we not at the most crucial times and for long periods read the U-boat ciphers, we should have lost the war“ (deutsch: „hätten wir nicht zur entscheidenden Zeit und für lange Zeiträume die U-Boot-Chiffren lesen können, dann hätten wir den Krieg verloren“). In einer Ausstellung über den "Secret War" (deutsch: „Geheimer Krieg“), die im Jahr 2003 in einem der bedeutendsten Kriegsmuseen weltweit, dem "Imperial War Museum" (deutsch: „Kriegsmuseum des britischen Weltreichs“) in London stattfand, wurde der ehemalige britische Premierminister Winston Churchill zitiert, der seinem König George VI. gesagt hatte: „It was thanks to Ultra that we won the war.“ (deutsch: „Es war "Ultra" zu verdanken, dass wir den Krieg gewonnen haben“). In seinem Buch "The Hut Six Story" beschreibt Gordon Welchman, der neben Alan Turing einer der führenden Köpfe der britischen "Codebreaker" in Bletchley Park war, die Gratwanderung, die die alliierten Kryptoanalytiker zu vollbringen hatten, um nicht den Anschluss an die von den Deutschen immer wieder neu eingeführten kryptographischen Komplikationen zu verlieren. Mehrfach stand die Entzifferungsfähigkeit auf des Messers Schneide, und immer wieder senkte sich die Waagschale zugunsten der Codeknacker, oft auch mit viel Glück, wie Welchman in seinem Buch einräumt: „We were lucky“ (deutsch: „Wir hatten Glück“). David Kahn schrieb hierzu: „Der Erfolg der Codeknacker beruhte letztlich auf einigen genialen Ideen […] Hätten Marian Rejewski 1931 in Polen und Alan Turing und Gordon Welchman 1939 in England nicht diese Ideen gehabt, wäre die»Enigma«möglicherweise nicht geknackt worden. Somit ist die Vorstellung, es hätte den Alliierten misslingen können, diese Chiffriermaschine zu knacken, keine Spekulation im luftleeren Raum, sondern es sprach tatsächlich einiges für diese Annahme.“ Die Betrachtung alternativer Geschichtsverläufe ist zwangsläufig höchst spekulativ. Entscheidend ist natürlich auch der Zeitpunkt, zu dem die Enigma möglicherweise einbruchssicher gemacht worden wäre. Falls dies erst im Jahr 1945 geschehen wäre, hätte es vermutlich nur geringe Konsequenzen auf den Kriegsverlauf gehabt. Im Jahr 1944 dagegen wären die alliierten Invasionspläne der "Operation Overlord" („D-Day“) behindert worden. Wie man heute weiß, war aus entzifferten Enigma-Funksprüchen nicht nur die gesamte deutsche Gefechtsaufstellung in der Normandie detailliert bekannt, sondern die alliierten Befehlshaber wurden dank "Ultra" auch jeden Tag äußerst präzise über die deutschen Pläne und Gegenmaßnahmen auf dem Laufenden gehalten. In den Jahren ab 1941 wären die deutschen U-Boote nicht mehr so leicht zu finden gewesen, deren Positionen und Pläne die Alliierten aus entzifferten Funksprüchen genau verfolgen konnten. Was aber wäre gewesen, wenn die Enigma von Anfang an unknackbar geblieben wäre? Im Jahr 1940 beispielsweise setzte die "Royal Air Force" ihre letzten Reserven ein, um schließlich die Luftschlacht um England ("Battle of Britain") zu gewinnen. Auch hierbei waren entzifferte Funksprüche, insbesondere über die Angriffspläne der deutschen Luftwaffe, eine große Hilfe. Ohne diese Hilfe wäre die Luftschlacht eventuell verloren worden und das Unternehmen Seelöwe, also die deutsche Invasion Englands, hätte stattfinden können. Wie es ausgegangen wäre, darüber lässt sich nur spekulieren: Denkbar wäre, dass nach einer deutschen Besetzung der britischen Inseln noch im Jahr 1940 der Krieg beendet gewesen wäre, denn zu diesem Zeitpunkt befanden sich weder die Sowjetunion noch die Vereinigten Staaten im Krieg. (Der deutsche Überfall auf die Sowjetunion begann am 22. Juni 1941. Der japanische Angriff auf Pearl Harbor fand am 7. Dezember 1941 statt und die Kriegserklärung Deutschlands an die USA erfolgte am 11. Dezember 1941). Wie sich die Geschichte in einem solchen Fall tatsächlich weiterentwickelt hätte, kann niemand sagen, denn die Geschichte verrät uns ihre Alternativen nicht. In einem Essay, das David Kahn als Kontrafaktische Geschichte unter der Annahme verfasste, den Alliierten sei es nicht gelungen, die Enigma zu knacken, führt es zu einem weiteren Siegeszug der Wehrmacht, der schließlich durch eine Atombombe abrupt beendet wird. Das alles sind Spekulationen – deutlich wird allerdings die enorme Bedeutung der Kryptographie und der Kryptanalyse der Schlüsselmaschine Enigma für den Verlauf der Geschichte. a> bezeichnet wurde, und die zwar über eine unregelmäßige Walzenfortschaltung, jedoch auch über eine Umkehrwalze mit ihren kryptographischen Schwächen verfügte. Besonders bemerkenswert ist die Tatsache der perfekt funktionierenden Geheimhaltung der in Bletchley Park über entzifferte Enigma-Funksprüche gewonnenen "Ultra"-Informationen. Churchill selbst würdigte seine verschwiegenen "Codebreakers" mit den Worten „My geese that laid the golden eggs and never cackled“ (deutsch: „Meine Gänse, die die goldenen Eier legten und niemals gackerten“). Dieses „Enigma-Geheimnis“ wurde während des gesamten Krieges und selbst danach bis in die 1970er-Jahre gehütet ("Britain’s best kept secret", deutsch: „Britanniens bestgehütetes Geheimnis“). Die Deutschen hatten keinerlei Ahnung von "Ultra". In Bletchley Park gab es keinen Maulwurf – mit einer Ausnahme, John Cairncross, aber der spionierte für die Sowjetunion. Aufgrund verschiedener verdächtiger Ereignisse wurden auf deutscher Seite zwar mehrfach Untersuchungen angestellt, ob die Enigma wirklich sicher sei, hier wurden jedoch die falschen Schlussfolgerungen gezogen, und die Personen mit der richtigen Einschätzung setzten sich nicht durch. Ein kurz nach dem Krieg verfasster Bericht der amerikanischen "Army Security Agency" erwähnt, dass der deutsche Befehlshaber der U-Boote (BdU) Admiral Karl Dönitz den wahren Grund für den noch vor Juli 1942 zum Greifen nahen Sieg und der nur wenige Monate darauf verlorenen Schlacht im Atlantik niemals verstanden hat: „It was never realized that cryptanalysis, rather than radar and direction finding, disclosed the positions and intentions of the German submarines.“ (deutsch: „Es wurde zu keinem Zeitpunkt erkannt, dass die Kryptanalyse und nicht die Radartechnik oder die Funkortung die Positionen und Absichten der deutschen U-Boote aufdeckte.“) Dabei wäre es für die Deutschen durchaus nicht schwierig gewesen, zu prüfen, ob die Enigma kompromittiert war. So schlägt der britische Historiker Hugh Sebag-Montefiore als Test vor, eine mit der Enigma wie üblich verschlüsselte Nachricht zu versenden, in der als Täuschungsmanöver beispielsweise ein Treffen deutscher U-Boot-Tanker an einem entlegenen Ort auf See vereinbart wird, der normalerweise nicht von alliierten Schiffen aufgesucht wird. Falls nun zu dem im Funkspruch angegebenen Zeitpunkt plötzlich alliierte Kriegsschiffe am vereinbarten Treffpunkt erscheinen sollten, hätte es den Deutschen ziemlich schnell klar werden können, dass ihre Maschine tatsächlich kompromittiert war. Nach dem Krieg wurden die von den Siegermächten in großer Stückzahl erbeuteten und auch nachgebaute Enigma-Maschinen, die weithin noch immer im Ruf höchster Sicherheit standen, vor allem von den Briten und den USA in den Nahen Osten und nach Afrika verkauft und dort teilweise noch bis 1975 benutzt. So gelang es den Westmächten, den Nachrichtenverkehr der dortigen Staaten mitzulesen. Die wenigen heute noch existierenden intakten Exemplare – man schätzt, dass es noch rund 200 in Museen oder bei privaten Sammlern gibt – werden zu Liebhaberpreisen im fünf- und sogar sechsstelligen Bereich gehandelt. Verbesserungspotenzial. Die Schweizer änderten alle drei Monate die Walzenverdrahtung ihrer Enigma K Schon 1883 formulierte der niederländische Kryptologe Auguste Kerckhoffs unter der später (1946) explizit von Shannon angegebenen Annahme „the enemy knows the system being used“ (deutsch: „Der Feind kennt das benutzte System“) seine für seriöse Kryptographie bindende Maxime. Die kryptographische Sicherheit der Enigma hing – im Widerspruch zu Kerckhoffs’ Maxime – wesentlich von der Geheimhaltung ihrer Walzenverdrahtung ab. Diese war vom Benutzer nicht veränderbar, somit ein Teil des Algorithmus und nicht des Schlüssels. Bemerkenswert ist, dass die Walzenverdrahtung seit den Anfängen in den 1920er-Jahren bis 1945 niemals verändert wurde. Unter den üblichen Einsatzbedingungen einer so weit verbreiteten Schlüsselmaschine wie der Enigma darf man nicht annehmen, dass deren algorithmische Bestandteile auf Dauer geheim gehalten werden können, auch wenn die Deutschen es versucht haben. Eine erste Möglichkeit zur Verbesserung der Enigma wäre somit das beispielsweise jährliche vollständige Auswechseln des Walzensortiments (mit jeweils radikal geänderter Verdrahtung) gewesen, ähnlich wie es die Schweizer mit ihrem Modell K machten. Noch wesentlich wirkungsvoller wären Walzen, deren innere Verdrahtung schlüsselabhängig variabel gestaltet werden könnte. Interessanterweise gab es hierzu einen Ansatz, nämlich die Umkehrwalze D (britischer Spitzname: "Uncle Dick"), die genau diese Eigenschaft aufwies, jedoch erst spät (Jan. 1944) und nur vereinzelt zum Einsatz kam. Diese „stöpselbare Umkehrwalze Dora“, wie sie von deutscher Seite mithilfe des damals gebräuchlichen Buchstabieralphabets bezeichnet wurde, ermöglichte eine frei wählbare Verdrahtung zwischen den Kontaktstiften und somit eine variable Verbindung zwischen Buchstabenpaaren. Frühe Enigma-Variante (Modell H) mit acht Walzen (1929) Wesentliche kryptographische Stärkungen der Enigma wären im Konstruktionsstadium leicht möglich gewesen. In erster Linie hätte man die Beschränkung auf fixpunktfreie Permutationen vermeiden müssen. Auch die Involutorik (Verschlüsseln = Entschlüsseln), zwar bequem für die Bedienung, schwächte die Maschine enorm. Beides wäre vermieden worden, hätte man auf die Umkehrwalze verzichtet. Bereits eine frühe Vorläuferin der Enigma I, gemeint ist die aus dem Jahr 1929 stammende Enigma H, die von der Reichswehr und später auch von der Wehrmacht als Enigma II bezeichnet wurde, verfügte über "acht" nebeneinander fest angeordnete (nicht austauschbare) Walzen und einen allein durch die Walzenstellung einstellbaren Schlüsselraum von mehr als 200 Milliarden. Im Gegensatz dazu wirken die nur 17.576 Walzenstellungen der Enigma I geradezu lächerlich wenig. Zudem verfügte dieses frühe Enigma-Modell über keine Umkehrwalze, hatte also auch nicht deren Schwächen. Hätte man diese Grundkonstruktion mit acht (statt nur drei) Walzen auf die Enigma I übertragen und zusätzlich wie dort die Lage der Walzen austauschbar gestaltet, hätte dies bei acht Walzen 8! = 40.320 (statt nur 60) Walzenlagen und in Kombination mit den Walzenstellungen einen kryptographisch wirksamen Schlüsselraum von 8.419.907.243.704.320 (mehr als acht Billiarden oder knapp 53 bit) ergeben. Im Vergleich zu den nur gut eine Million (etwa 20 bit) kryptographisch wirksamen Möglichkeiten der tatsächlich realisierten Enigma wäre so eine deutlich stärkere Maschine entstanden, die trotz der vielen Fehler auf deutscher Seite und des gigantischen Aufwands auf britischer Seite vermutlich nicht hätte gebrochen werden können. Allerdings wäre eine solche Maschine mit acht Walzen natürlich weniger handlich gewesen als die Enigma mit nur drei Walzen. Andererseits darf Handlichkeit keine höhere Priorität als kryptographische Sicherheit erhalten, wenn man sich zum Ziel setzt, geheim miteinander zu kommunizieren, denn sonst könnte man sich auch mit nur einer Walze (oder gar überhaupt keiner Walze) begnügen. Entscheidend ist stets die Sicherheit der Verschlüsselung gegen unbefugte Entzifferung, und zwar nach Möglichkeit auch unter Beachtung von in der Praxis unvermeidlichen Bedienfehlern. Scherbius hatte in seinem grundlegenden Patent vom 23. Februar 1918 sogar schon "zehn" Walzen und die (bereits ohne Austauschen) daraus resultierenden rund 100 Billionen Schlüssel angegeben, außerdem keine Umkehrwalze, sondern einen Umschalter zur Einstellung von Ver- und Entschlüsselung, sowie eine über Getriebe einstellbare "unregelmäßige" Weiterbewegung der Walzen vorgeschlagen – sämtlich gute Ideen und kryptographisch starke Konstruktionsmerkmale, die jedoch im Laufe der Zeit in Vergessenheit gerieten. Der Gründungspräsident des Bundesamts für Sicherheit in der Informationstechnik (BSI), der promovierte Mathematiker und Kryptologe Otto Leiberich meint, mit vier Walzen „und mit einem ungleichförmigen Antrieb wäre die Enigma nie entziffert worden.“ Die amerikanische Schlüsselmaschine Sigaba mit insgesamt fünfzehn Walzen blieb unknackbar Ein Beispiel für die Stärke dieser Ideen ist die Schlüsselmaschine Sigaba. Dabei handelt es sich um eine amerikanische Rotor-Maschine ähnlich wie die Enigma und ebenso aus dem Zweiten Weltkrieg, die jedoch über keine Umkehrwalze sondern fünf Chiffrierwalzen ("cipher rotor bank", deutsch: „Chiffrierwalzensatz“) verfügt und zusätzlich zweimal fünf weitere Walzen ("control rotor bank" und "index rotor bank", deutsch: „Steuerwalzensatz“ und „Indexwalzensatz“) aufweist, die allein zur Erzeugung einer "unregelmäßigen" Fortschaltung der Chiffrierwalzen dienen. Die Sigaba erzeugt sowohl Fixpunkte als auch nichtinvolutorische Permutationen und konnte zu keinem Zeitpunkt, weder von deutschen noch von japanischen Kryptoanalytikern, noch von den Amerikanern selbst, die dies probeweise versuchten, gebrochen werden. Eine sehr einfache Möglichkeit, die Enigma sicherer zu gestalten, ist die Verwendung von mehr als einer Übertragskerbe. Diese Kerben sind Bestandteil jeder Walze und bewirken den Übertrag auf die nächste, im Walzensatz weiter links liegende Walze und sorgen so für die Fortschaltung der Rotoren. Den Codeknackern kam es sehr gelegen, dass sie 26 Buchstaben lang davon ausgehen konnten, dass allein die rechte Walze rotierte und erst dann eine Fortschaltung auf den mittleren Rotor passierte. Für relativ lange Textpassagen besteht die Enigma somit aus Sicht des Kryptoanalytikers nur aus einer einzigen sich drehenden (rechten) Walze und einer, aus mittlerer und linker Walze sowie der Umkehrwalze bestehenden, sozusagen besonders dicken (feststehenden) Umkehrwalze. Erst der Übertrag auf die mittlere Walze stört dies. Hätten die Walzen der Enigma über mehr als nur eine einzige Übertragskerbe verfügt, beispielsweise neun, wie bei der britischen Schlüsselmaschine Typex, so hätte sich für den Anwender praktisch nichts geändert, die Kryptanalyse jedoch wäre durch das dann häufigere Weiterschalten der mittleren und der linken Walze stark gestört worden. Die britische Schlüsselmaschine Typex besaß Walzen mit fünf, sieben oder neun Übertragskerben Peter Twinn, einer der Mitarbeiter Turings in Bletchley Park, kommentierte es mit den Worten „they certainly missed a trick in not combining multiple-turnover wheels with Steckerverbindungen“ (deutsch: „sie [die Deutschen] verpassten sicherlich einen Kniff dadurch, dass sie nicht Walzen mit mehreren Übertragskerben und die Steckerverbindungen kombinierten“). Gordon Welchman unterstrich die Folgen dieses deutschen Fehlers: „We would have been in grave trouble if each wheel had had two or three turnover positions instead of one“ (deutsch: „Wir hätten gravierende Probleme bekommen, wenn jede Walze zwei oder drei Übertragskerben gehabt hätte statt [nur] eine“). Die Typex erwies sich nicht zuletzt auch durch ihre im Vergleich zur Enigma größeren Anzahl an Übertragskerben für Chi, die Chiffrierabteilung des OKW, als unknackbar. Vielleicht fürchteten die Konstrukteure der Enigma eine Reduzierung der Periode, das ist die Anzahl der Zeichen, nach der sich das zur Verschlüsselung verwendete Alphabet wiederholt. Die Periode beträgt bei der Enigma I 26·25·26 = 16.900, wobei der Faktor 25 bei der mittleren Walze durch die bereits erwähnte (unwichtige) Anomalie des Fortschaltmechanismus verursacht wird. Bei Verwendung einer geraden Anzahl oder von dreizehn Übertragskerben statt nur einer würde die Periode tatsächlich drastisch absinken, da diese Zahlen gemeinsame Teiler mit 26 aufweisen. Bei zum Beispiel drei, fünf, sieben, neun oder elf Kerben hingegen besteht diese Gefahr nicht, da diese Zahlen zu 26 teilerfremd sind. Interessanterweise wurden bei der Marine, in Ergänzung zu den von der Enigma I bekannten fünf Walzen, drei weitere Walzen eingesetzt (VI, VII und VIII), die mehr als eine, nämlich zwei Übertragskerben aufweisen. Die exklusiv von der Marine verwendeten drei Walzen vermieden außerdem einen weiteren Fehler der fünf Walzen der Enigma I, denn sie hatten ihre Übertragskerben alle bei identischen Buchstaben. Nicht so die Walzen I bis V, die sich durch den bei unterschiedlichen Buchstaben erfolgenden Übertrag verrieten. Die Codeknacker hatten sich dafür den (sprachlich unsinnigen) Merkspruch „Royal Flags Wave Kings Above“ gebildet, der für die Walzen I bis V in dieser Reihenfolge den jeweiligen Buchstaben nennt, der stets im Sichtfenster erscheint, nachdem ein Übertrag auf die nächste Walze erfolgt ist. Eine bedeutende Innovation, die die kryptographische Sicherheit der Enigma erheblich verbessert hätte, die aber zu spät kam, um während des Krieges noch eingesetzt werden zu können, waren die sogenannten „Lückenfüllerwalzen“ (Foto siehe unter Weblinks). Diese neuartigen Rotoren erlaubten es „an jeder Walze Schaltlücken beliebig nach Art und Zahl einzustellen“. Die Einstellungen hätten schlüsselabhängig verändert werden können und so wesentlich zur kryptographischen Stärkung der Maschine beigetragen. Das amerikanische "Target Intelligence Committee" "(TICOM)" konfiszierte gegen Ende des Krieges sämtliche Informationen über die Lückenfüllerwalze und hielt sie für viele Jahre sorgsam unter Verschluss. Falls sie in ausreichender Stückzahl hätte gefertigt und eingesetzt werden können, so wären die britischen Codeknacker vermutlich aus dem Rennen gewesen, insbesondere, wenn es, wie geplant, gelungen wäre, die Lückenfüllerwalze in Kombination mit der Umkehrwalze D einzusetzen. Die Enigma G der "Abwehr" hatte kein Steckerbrett, aber eine rotierende Umkehrwalze Die deutsche "Abwehr" (Geheimdienst) verwendete übrigens ein Enigma-Modell (G), das über einen exklusiven Walzensatz verfügte, bei dem die (drei) Walzen tatsächlich mehrere Übertragskerben aufwiesen, nämlich 11, 15 beziehungsweise 17 Kerben. Selbst die Umkehrwalze war – im Unterschied zu den anderen Enigma-Modellen – drehbar und rotierte mit. Dies stärkte die Verschlüsselung und sorgte sicher auch dafür, dass andere deutsche Stellen nicht mitlesen konnten. Allerdings verzichtete die "Abwehr" bei dieser besonders kompakten (äußere Abmessungen 270 mm × 250 mm × 165 mm) und handwerklich hervorragend gebauten Enigma auf ein Steckerbrett. Die Folge war, dass es den "Codebreakers" von Bletchley Park, an der Spitze „Dilly“ Knox und seine Mitarbeiterinnen Margaret Rock und Mavis Lever, in B.P. als „Dilly’s girls“ hochgeachtet, am 8. Dezember 1941 gelang, auch diese Verschlüsselung zu überwinden und so dazu beizutragen, dass deutsche Agenten bereits bei ihrer Einreise „in Empfang genommen“ werden konnten. Diese wurden anschließend nicht einfach nur eliminiert, sondern es gelang dem britischen Inlandsgeheimdienst "MI5", viele von ihnen „umzudrehen“ und im Rahmen des Systems "Double Cross" (deutsch: „Doppelkreuz“, aber auch: „Doppelspiel“) als Doppelagenten einzusetzen. Zusammen mit den aus Enigma-G-Sprüchen entzifferten Informationen erhielt der "MI5" ein so detailliertes und zutreffendes Bild über die Pläne und den Wissensstand der "Abwehr", dass jeder einzelne noch in Großbritannien operierende deutsche Agent genau bekannt war und gezielt kontrolliert und manipuliert werden konnte. Dies wurde auch zur Desinformation der deutschen Führung genutzt (siehe auch: "Operation Fortitude"). a> in Bletchley Park, in der die Enigma entziffert wurde (Foto aus dem Jahr 2004) Eine verblüffend einfache und dabei durchschlagend wirksame Maßnahme, die laut Gordon Welchman zu jedem beliebigen Zeitpunkt ganz leicht hätte eingeführt werden können und die er während des Krieges am meisten befürchtet hatte, ist die Verwendung von einpoligen Steckerverbindungen anstelle der doppelpoligen involutorischen Kabel. Dann könnte man beispielsweise X mit U steckern und U nun aber nicht notwendigerweise mit X, sondern mit irgendeinem anderen beliebigen Buchstaben. So hätte schlagartig die Involutorik des Steckerbretts – wenn auch nicht der ganzen Maschine – beseitigt werden können. Dies hätte nach Welchman katastrophale Auswirkungen für die Codeknacker in Bletchley Park gehabt. Ein Großteil der dort erarbeiteten Methodik inklusive des von Welchman selbst erfundenen "diagonal board" (deutsch: Diagonalbrett) wäre nutzlos geworden. Er schreibt „the output of Hut 6 Ultra would have been reduced to at best a delayed dribble, as opposed to our up-to-date flood.“ (deutsch: „der Ertrag der Ultra-Informationen aus Baracke sechs hätte sich im besten Fall auf ein verspätetes Tröpfeln reduziert, im Gegensatz zu unserer tagesaktuellen Flut.“) Modelle. Eine grobe Übersicht der verwirrenden Modellvielfalt der Enigma zeigt die folgende (unvollständige) Tabelle, die alphanumerisch sortiert ist (siehe auch: Stammbaum der Enigma unter Weblinks). Neben dem Modellnamen ist das Jahr der Indienststellung, die Walzenanzahl sowie die daraus resultierende Anzahl der möglichen Walzenlagen angegeben. Ferner ist die Anzahl und die Art der Umkehrwalze (UKW) notiert, wobei zwischen fest eingebauten UKW sowie manuell einstellbaren, also „setzbaren“ UKW und rotierenden UKW unterschieden werden muss, also UKW, die während des Verschlüsselungsvorgangs weiterrotieren. Ein Beispiel dafür ist die (weiter oben) beschriebene Enigma G der "Abwehr". Einige frühe Maschinen, wie die Enigma A, verfügten über keine UKW. Ferner ist die Anzahl der Übertragskerben angegeben sowie eine Literaturstelle als Referenz und für weitere Informationen (siehe auch: Kruh S. 14, Pröse S. 50f. und Ulbricht S. 1 ff.). Die Enigma T („Tirpitz“) verfügt über eine setzbare UKW Neben den meistverwendeten Modellen Enigma I, Enigma M3 und Enigma M4 sowie ihren Vorläuferinnen Enigma A bis Enigma D und den bereits genannten Enigma G und Enigma K ist noch die Enigma T erwähnenswert, die speziell für den Nachrichtenverkehr der beiden Kriegsverbündeten Deutschland und Japan konzipiert war. Sie wurde auch als „Tirpitz-Maschine“ bezeichnet und verfügte über kein Steckerbrett, aber über eine „setzbare“ (einstellbare, jedoch nicht rotierende) Umkehrwalze und insgesamt acht Walzen mit jeweils fünf Übertragskerben (siehe auch: Enigma-Walzen), von denen drei ausgewählt wurden. Die Enigma T kam kaum zum Einsatz. Ein Kuriosum stellt die Enigma Z dar, die dem spanischen Außenministerium im Jahr 1931 zum Kauf angeboten wurde. Bei ihr handelt es sich um eine Variante ähnlich der Enigma D, die jedoch keinerlei Buchstabentasten sondern allein zehn Zifferntasten („1“ bis „0“) und entsprechend (kleinere) Walzen mit nur zehn Kontakten und zehn Glühlampen für „1“ bis „0“ aufweist. Sie war also nicht zur Verschlüsselung von Texten sondern nur von Zahlen gedacht, wie zur Überschlüsselung von diplomatischen Codes. So konnte beispielsweise die Ziffernfolge „25183 91467“ als „38760 15924“ verschlüsselt werden. Die Spanier verzichteten damals auf den Erwerb der Enigma Z und entschieden sich stattdessen für die (noch weniger sichere) Kryha. Anomalie. Der Fortschaltmechanismus der Walzen weist eine konstruktive Besonderheit auf, die zur Folge hat, dass sich die Walzen der Enigma nicht immer so weiterdrehen, wie es bei einem mechanischen Kilometerzähler der Fall wäre. Diese Besonderheit äußert sich so, dass, wenn die linke (langsame) Walze rotiert, sie die mittlere Walze „mitnimmt“. Dies lässt sich an einem Beispiel illustrieren. Der Fortschaltmechanismus (hier der M4) bewirkt die Anomalie der Walzendrehung Bei beispielsweise Walzenlage B I II III, Ringstellung 01 01 01 und der Walzenstellung ADU dreht sich der Walzensatz mit dem ersten Tastendruck auf ADV weiter. Das ist eine ganz normale Weiterdrehung nur der rechten Walze, ohne Weiterschaltung der mittleren oder der linken Walze. Nach der bekannten Merkregel „Royal Flags Wave Kings Above“ ist für Walze III mit dem nächsten Tastendruck, also wenn sie von V auf W weiterrotiert, mit einem Übertrag auf die mittlere Walze zu rechnen. Dann wird nicht nur die rechte Walze normal weiterrotieren, sondern gleichzeitig auch die mittlere Walze von D auf E umschalten. Die nächste Walzenstellung ist somit AEW. Nun jedoch hat die mittlere Walze (hier: Walze II) den Buchstaben erreicht, nämlich E, der nach der Merkregel unmittelbar vor ihrem Umschaltbuchstaben F liegt. Damit ist jetzt der Moment gekommen, zu dem die mittlere Walze ihrerseits einen Übertrag auf die linke Walze bewirkt. Mit dem nächsten Tastendruck wird sich also die linke Walze von A auf B weiterdrehen. Aufgrund der erwähnten konstruktiven Besonderheit führt dieses Weiterdrehen jedoch dazu, dass sie die mittlere Walze mitnimmt und sich diese noch einmal weiterdreht, also von E auf F. Folglich werden mit dem nächsten Tastendruck alle drei Walzen gleichzeitig weitergeschaltet und nach der vorherigen Walzenstellung AEW sind nun unmittelbar die Buchstaben BFX in den Anzeigefenstern der Enigma zu sehen. Nach diesem etwas fremdartig erscheinenden Ereignis kehrt die Maschine wieder in den regulären Fortschaltmodus zurück, bis dann nach 650 Tastendrücken erneut die mittlere Walze den Buchstaben E erreicht. Zusammenfassend noch einmal das Weiterschalten des Walzensatzes. Man erkennt hier die Anomalie beim dritten Tastendruck, die sich als „Doppelschritt“ der mittleren Walze äußert (hier: D → E → F). In Summe führt dieser durch die Anomalie des Fortschaltmechanismus hervorgerufene Effekt des Doppelschritts der mittleren Walze dazu, dass von den theoretisch möglichen 26³ = 17.576 Walzenstellungen der Enigma I 26² = 676 ausgelassen werden und nur 26·25·26 = 16.900 übrig bleiben. Authentische Funksprüche. In Bletchley Park abgefangener Enigma-Funkspruch (Zweiter Teil eines dreiteiligen Spruchs) Mit der Enigma verschlüsselte Nachrichten wurden im Regelfall per Funk übermittelt, nur selten als Fernschreiben oder telefonisch als „Fernspruch“ oder per Signallampe als „Blinkspruch“. Der Absender füllte ein Formular mit dem Klartext aus, das vom Verschlüssler als Grundlage für den mithilfe der Enigma-Maschine erzeugten Geheimtext diente. Diesen übertrug er Buchstaben für Buchstaben in ein entsprechendes Funkspruchformular (siehe auch: Dokumente unter Weblinks), das wiederum dem Funker als Basis für den im Morsecode übermittelten Funkspruch diente. Verfasser, Verschlüssler und Funker der Nachricht konnten drei verschiedene Personen sein oder auch ein und dieselbe. Eine wichtige Kennzeichnung des Funkspruchs, die im Spruchzettel mit einem Buntstift besonders hervorgehoben wurde, war die „Spruchnummer“. Durch farbige Angabe der Nummer unterschieden die Deutschen zwischen „abgegangenen“, also den zu sendenden oder bereits gesendeten Funksprüchen, bei denen die Spruchnummer mit einem blauen Farbstift in das Formular eingetragen wurde, und „angekommenen“, also empfangenen Funksprüchen, bei denen die Nummer in Rot geschrieben wurde. Nur wenige der unzählig vielen während der Zeit des Krieges ausgefüllten Spruchzettel sind erhalten geblieben. Die überwiegende Mehrzahl wurde nach Empfang und Entschlüsselung der Nachrichten vernichtet. Die zweite sehr wichtige Quelle für authentische Enigma-Sprüche stellen die reichhaltigen Aufzeichnungen der Alliierten dar. Insbesondere die Archive des damals weltweit arbeitenden britischen sind prall gefüllt, bisher jedoch leider nur zu einem kleinen Teil öffentlich zugänglich. Das Bild zeigt eine der raren Ausnahmen aus dem Archiv des Dienstes in Bletchley Park. Das „Y“ steht übrigens im Englischen hier lautmalerisch für die Anfangssilbe des Wortes "wireless" (deutsch wörtlich: „drahtlos“, mit der Bedeutung: „Funk“). Eine sinngemäße Übersetzung von "Y Service" wäre somit „Funkabhördienst“. Erschwerend kommt hinzu, dass die meisten erhaltenen Originalsprüche urheberrechtlich geschützt sind und daher für die Wikipedia nicht zur Verfügung stehen. Die unten wiedergegebenen Enigma-Funksprüche stammen jedoch aus freien Quellen und stellen somit kostbare Raritäten dar. Sie sind ein Schatz für alle, die sich etwas intensiver für die wahre Geschichte der Enigma interessieren und einmal selbst mit echter Kryptanalyse befassen möchten. Die Geheimtexte sind inzwischen mithilfe moderner kryptanalytischer Methoden und Rechnertechnik entziffert worden. Die Schlüssel und Klartexte sind öffentlich aber kaum bekannt, so dass diese Sprüche als faszinierende Übungsbeispiele für eigene Experimente und lehrreiche realitätsnahe Erfahrungen bei der Enträtselung der Enigma dienen können. Zu beachten ist, dass dies keine fiktiven Funksprüche sind, wie sie der Wettbewerb "Enigma Cipher Challenge" (siehe auch: Entzifferungen unter Weblinks) bietet, sondern, dass es sich um Originalfunksprüche handelt, die im Zweiten Weltkrieg wirklich so aufgezeichnet worden sind. Es ist deshalb durchaus möglich, und hier tatsächlich auch der Fall, dass Verstümmelungen auftreten. Das bedeutet, dass einige Zeichen nicht korrekt sind oder fehlen. Dies betrifft sowohl die Buchstaben als auch die Zahlen. Letzteres kann sehr leicht gesehen werden. Dazu ist nur die Geheimtextlänge zu zählen und mit der im Spruchkopf angegeben Zahl zu vergleichen. Gründe für in der Praxis kaum vermeidbare Verstümmelungen, die auch durch die kriegsbedingten besonderen Rahmenbedingungen erklärt werden können, sind Schreibfehler, Tastfehler, atmosphärische Störungen wie beispielsweise Gewitterblitze während der Funkübertragung, Hörfehler oder schlicht Flüchtigkeitsfehler. In Fällen, bei denen der Spruchzettel im Original oder als Farbkopie vorliegt, lassen sich die ausgehenden Funksprüche leicht identifizieren. Diese sind naturgemäß weniger verstümmelt als die eingehenden und daher (bei gleicher Textlänge) zumeist einfacher zu knacken. Filmische Rezeption. a>", aus dem tatsächlich eine Enigma-M4 erbeutet wurde, spielen in den meisten Filmen eine Rolle Die Enigma ist in einigen Spielfilmen zu sehen, die vor dem Hintergrund des U-Boot-Krieges spielen. Im deutschen Kinoklassiker „Das Boot“ nach dem gleichnamigen Roman wird sie zur Entschlüsselung empfangener Funksprüche benutzt. Man hört die Stimme von Herbert Grönemeyer sagen „Erst durch die Schlüsselmaschine ergibt sich aus wirren Buchstabenfolgen ganz langsam ein Sinn“, während in Großaufnahme die Enigma im Einsatz zu sehen und auch zu hören ist. Historisch nicht ganz korrekt ist hier die Verwendung einer M4, da sie erst am 1. Februar 1942 in Dienst gestellt wurde, während "das Boot" in Roman und Film seine Feindfahrt im Herbst und frühen Winter des Jahres 1941 durchführt. Somit hätte korrekterweise eine M3 gezeigt werden müssen. Im amerikanischen Film „U-571“ wird eine Enigma durch amerikanische Seeleute von einem deutschen U-Boot erbeutet. Speziell von britischer Seite wurde kritisiert, dass, in Verkennung der geschichtlichen Realität, hier Amerikaner als Helden bei der Erbeutung einer Enigma dargestellt werden, während es in Wirklichkeit Briten waren, denen dies gelang. Die britisch-amerikanische Gemeinschaftsproduktion „The Imitation Game – Ein streng geheimes Leben“ illustriert das Leben und die Beiträge von Alan Turing als Codeknacker in Bletchley Park. Auch hier spielt die Enigma eine zentrale Rolle. Auf Kosten der historischen Korrektheit werden im Film viele Fakten verdreht oder dramatisch überhöht dargestellt. Beispielsweise wird Turings Romanze mit seiner Kollegin Joan Clarke intensiver dargestellt als sie tatsächlich war. Turings Nichte Inagh Payne kritisierte das Drehbuch mit den Worten: „You want the film to show it as it was, not a lot of nonsense“ (deutsch: „Man will doch, dass der Film es so darstellt, wie es war, und nicht einen Haufen Unsinn“). Im Film findet Turing heraus, dass Cairncross ein Spion ist. Diesem gelingt es jedoch, Turing mit seiner damals strafbaren Homosexualität zu erpressen. So decken sie gegenseitig das Geheimnis des anderen. Diese Falschdarstellung wurde heftig kritisiert, denn so wird Turing im Film faktisch als „Landesverräter“ dargestellt. Tatsächlich stand er niemals unter diesem Verdacht. Bei aller Sympathie für Überhöhungen aus dramaturgischer Sicht wurde diese Darstellung als Herabwürdigung Turings energisch zurückgewiesen und der Film daher als untragbar eingestuft. Im britischen Spielfilm „Enigma – Das Geheimnis“, der auf dem Roman "Enigma" basiert, wird die Entzifferungsarbeit der britischen "Codebreaker" in Bletchley Park thematisiert. Bemerkenswert sind die vielen authentischen Requisiten im Film, bei denen es sich um Original-Schaustücke aus dem Bletchley-Park-Museum handelt. Die diversen Funksprüche sind speziell für den Film nach den Original-Vorschriften und Verfahren wirklichkeitsgetreu erzeugt und verschlüsselt worden. Gegen Ende des Films entpuppt sich ein polnischer Codeknacker als Verräter, der versucht, das „Enigma-Geheimnis“ an die Deutschen zu verraten. Dies entspricht in zweierlei Hinsicht nicht den historischen Tatsachen. Zum einen gab es – wie bereits dargelegt – keine Verräter in Bletchley Park, die für die Deutschen spioniert hätten. Zum anderen hat dort nicht ein einziger polnischer Kryptoanalytiker mitgearbeitet, denn aus Geheimhaltungsgründen verwehrten die Briten fast allen Ausländern, selbst Marian Rejewski, den Zutritt und erst recht die Mitarbeit. Somit ist die filmische Darstellung in diesem Punkt historisch verfehlt. Kritisiert wurde insbesondere, ausgerechnet einen Polen im Film als Verräter darzustellen, denn am allerwenigsten haben Polen das Enigma-Geheimnis verraten. Im Gegenteil, polnische Kryptoanalytiker wie Marian Rejewski, Jerzy Różycki und Henryk Zygalski haben bereits vor dem Krieg die entscheidenden Grundlagen für den Einbruch in das Rätsel der Enigma geschaffen, ohne die es den britischen Codeknackern vermutlich nicht gelungen wäre, deutsche Funksprüche zu entziffern und der Zweite Weltkrieg einen anderen Verlauf genommen hätte. Chronologie. a> als Zusatz zur Enigma I ein. Mit dem Drehschalter (in der Mitte) können unterschiedliche "nichtinvolutorische" Vertauschungen der Buchstaben eingestellt werden. Im Folgenden sind einige wichtige Zeitpunkte zur Geschichte der Enigma aufgelistet Electrically Erasable Programmable Read-Only Memory. Ein EEPROM (engl. Abk. für, wörtlich: "elektrisch löschbarer programmierbarer Nur-Lese-Speicher", auch E2PROM) ist ein nichtflüchtiger, elektronischer Speicherbaustein, dessen gespeicherte Information elektrisch gelöscht werden kann. Er ist verwandt mit anderen löschbaren Speichern, wie dem durch UV-Licht löschbaren EPROMs und dem ebenfalls elektrisch löschbaren Flash-Speicher. Er wird verwendet zur Speicherung kleinerer Datenmengen in elektrischen Geräten, bei denen die Information auch ohne anliegende Versorgungsspannung erhalten bleiben muss oder bei denen einzelne Speicherelemente bzw. Datenworte einfach geändert werden können müssen. Ein typisches Beispiel ist der Rufnummernspeicher eines Telefons. Zur Speicherung größerer Datenmengen wie z. B. dem BIOS in PC-Systemen sind meist Flash-Speicher ökonomischer. Funktionsweise. Der Ausdruck "EEPROM" beschreibt lediglich die Eigenschaften des Speichers, dass dieser nicht-flüchtig ist und allein mit elektrischer Energie gelöscht werden kann (im Gegensatz zu dem nur durch UV-Licht löschbaren EPROM). Er umfasst deshalb genau genommen die heute üblicherweise als EEPROM bezeichneten wort- oder byteweise löschbaren Speicher, als auch die neueren blockweise löschbaren Flashspeicher. Da bei letzteren die sonst pro Speicherzelle notwendigen Schreib-, Lese- und Löschtransistoren entfallen können, ist mit ihnen eine deutliche höhere Speicherdichte erreichbar. Ein EEPROM besteht aus einer Matrix aus Feldeffekttransistoren mit isoliertem Steueranschluss (Floating Gate), in der jeder Transistor ein Bit repräsentiert. Beim Programmiervorgang wird auf das Floating Gate eine Ladung eingebracht, die nur durch den Löschvorgang wieder entfernt werden kann. Im Normalbetrieb bleibt die Ladung auf dem vollständig isolierten Gate erhalten. Bei UV-löschbaren EPROMs wird die Ladung durch Injektion heißer Ladungsträger (engl., HCI) auf das Gate gebracht und kann nur durch Bestrahlung mit UV-Licht wieder entfernt werden, während bei EEPROMs sowohl beim Schreiben als auch Löschen die Ladung durch Fowler-Nordheim-Tunneln auf das isolierte Gate aufgebracht bzw. entfernt wird. Beim Flash hingegen wird die Ladung beim Schreiben durch HCI auf das Gate aufgebracht und beim Löschen durch Fowler-Nordheim-Tunneln wieder entfernt. Zum Programmieren des EEPROMs wird ein hoher Spannungspuls an das Control Gate gelegt, wobei ein Tunnelstrom von diesem durch das isolierende Dielektrikum auf das Floating Gate fließt. Diese hohe Spannung musste bei EPROMs von außen an den Speicherbaustein angelegt werden, während sie beim EEPROM, und auch bei den Flashspeichern, bausteinintern erzeugt wird. Nach dem Schreiben des Speichers, d. h. dem selektiven Aufbringen von Ladung auf die Floating Gates, werden die geschriebenen Daten durch ein Bitmuster geladener/ungeladener Gates repräsentiert. Diese Daten lassen sich nun über die Drain-Source-Anschlüsse der Transistoren beliebig oft auslesen, wobei die normale Betriebsspannung beim Lesen weit unterhalb der Programmierspannung liegt. Die Anzahl der möglichen Schreibvorgänge der einzelnen Speicherzellen ist allerdings begrenzt, die Hersteller garantieren üblicherweise einige 10.000 bis über 1.000.000 Schreibzyklen. Dieses wird zum Teil durch redundante Speicherzellen erreicht. Anwendungsgebiete. EEPROMs können im Unterschied zu Flash-EEPROMs byteweise beschrieben und gelöscht werden. Im Vergleich zu Flash-EEPROMs, die zwischen 1 μs und 1 ms für einen Schreibzyklus benötigen, sind herkömmliche EEPROMs mit 1 ms bis 10 ms erheblich langsamer. EEPROMs verwendet man deshalb bevorzugt, wenn einzelne Datenbytes in größeren Zeitabständen verändert und netzausfallsicher gespeichert werden müssen, wie zum Beispiel bei Konfigurationsdaten oder Betriebsstundenzählern. Als Ersatz für die früher als Programm- oder Tabellenspeicher dienenden ROMs oder EPROMs eignete sich das EEPROM aufgrund der deutlich höheren Herstellungskosten nicht, diese Rolle wurde später durch die Flash-Speicher übernommen. Die höheren Kosten der EEPROM-Technologie führten dazu, dass zunächst eigenständige EEPROM-Bausteine zumeist über ein serielles Interface an die Mikrocontroller angeschlossen wurden. Später wurden dann bei etlichen Mikrocontrollern auch On-Chip-EEPROMs angeboten. Da Mikrocontroller heute meist sowieso in robusten Flashtechnologien hergestellt werden, die ein häufigeres Löschen und Programmieren erlauben, kann meist auch ein Bereich des Flash-Speichers für veränderliche Daten verwendet werden. Dazu wird ein Teilbereich des Flashspeichers reserviert und z. T. mit speziellen Algorithmen beschrieben und gelesen. Dabei muss eine "Page" vor der Löschung, ebenso wie der gesamte reservierte Bereich, erst komplett ausgenutzt sein, bevor sie neu beschrieben wird. Dieses Verfahren macht in vielen Fällen das EEPROM in Mikrocontrollern überflüssig. Allerdings lässt sich ein EEPROM nicht in allen Anwendungen durch Flash ersetzen. Momentan ist es noch nicht möglich, Flash über einen so weiten Temperaturbereich wie EEPROM zuverlässig zu beschreiben, allerdings macht hier die Prozesstechnik Fortschritte und Temperaturkompensation beim Schreiben verbessert das Verhalten. Zudem kann es in bestimmten Anwendungen problematisch sein, eine nicht deterministische Schreibzeit zu haben, die sich bei EEPROM-Emulation mittels Flash ergeben kann, wenn eine Page gelöscht werden muss. Neben Bausteinen mit parallel herausgeführten Adress- und Datenbussen gibt es auch EEPROMs in Gehäusen mit z. B. nur 8 Anschlüssen, bei denen Adressen und Daten über einen seriellen Bus wie I²C ausgetauscht werden. Derartige EEPROMs werden z. B. auf SDRAM-Modulen vom Hersteller zur Speicherung von Produktparametern verwendet, die dann von der CPU ausgelesen werden können. Mit dieser Information im SPD-EEPROM können die Speichermodule im PC dann automatisch konfiguriert werden. Ausfallerscheinungen und Lebensdauer. In EEPROMs gespeicherte Daten können von drei Arten von Ausfallerscheinungen betroffen sein: der begrenzten Lebensdauer bzw. Beschreibbarkeit ("byte endurance"), dem begrenzten Erhaltungsvermögen des Speicherzustands der einzelnen Speicherplätze im EEPROM ("retention") und dem überschreiben unveränderter Speicherzellen wenn eine benachbarte Speicherzelle geändert wird (bezeichnet als "write disturb") In der Oxidschicht des Gates der in EEPROMs eingesetzten Floating-Gate-Transistoren sammeln sich eingefangene Elektronen an. Das elektrische Feld der eingefangenen Elektronen summiert sich zu dem Feld des "Floating Gates" und schmälert so das Fenster zwischen den Schwellenspannungen, die für die Speicherzustände Eins bzw. Null stehen. Nach einer bestimmten Anzahl von Schreibvorgängen wird die Differenz zu klein, um unterscheidbar zu bleiben, und die Speicherstelle bleibt dauerhaft auf dem programmierten Wert stehen. Hersteller geben üblicherweise die maximale Anzahl von Schreibvorgängen mit 106 oder mehr an. Die während der Speicherung in das "Floating Gate" eingebrachten Elektronen können durch die Isolierschicht lecken, dies vor allem bei erhöhten Temperaturen (z.B. 170...180 °C), dadurch einen Verlust des Ladungszustands verursachen und die Speicherstelle so in den gelöschten Zustand zurückversetzen. Hersteller gewährleisten üblicherweise die Beständigkeit gespeicherter Daten für einen Zeitraum von 10 Jahren. Beim Beschreiben von Speicherzellen wird der Inhalt benachbarter Zellen dann verändert, wenn nach der letzten Änderung der Nachbarzelle insgesamt eine Anzahl von Schreibvorgängen auf dem Chip erfolgte (z.B. Zelle 0x0000 geändert, Zelle 0x0001 aktuell nicht geändert und nach der letzten Änderung von 0x0001 bisher an beliebiger Stelle insgesamt 1 Mio. Schreibvorgänge insgesamt => dann Gefahr von Datenverlust auf Zelle 0x0001). Somit kann die Angabe für "write disturb" zehnmal größer sein als die Angabe für "byte endurance". Kurz bevor "write disturb" erreicht wird, sollte ein Refresh des gesamten EEPROM erfolgen. Es wird jede Speicherzelle einzeln gelesen und neu beschrieben. Möglich ist auch, erst zu lesen dann zu löschen und danach neu zu schreiben. Elektrotechnik. Elektrotechnik ist diejenige Ingenieurwissenschaft, die sich mit der Forschung und der Entwicklung sowie der Produktionstechnik von Elektrogeräten befasst, die zumindest anteilig auf elektrischer Energie beruhen. Hierzu gehören der Bereich der Wandler, die elektrischen Maschinen und Bauelemente sowie Schaltungen für die Steuer-, Mess-, Regelungs-, Nachrichten- und Rechnertechnik bis hin zur technischen Informatik. Aufgabengebiete. Die klassische Einteilung der Elektrotechnik war die Starkstromtechnik, die heute in der Energietechnik und der Antriebstechnik ihren Niederschlag findet, und die Schwachstromtechnik, die sich zur Nachrichtentechnik formierte. Als weitere Gebiete kamen die elektrische Messtechnik und die Automatisierungstechnik sowie die Elektronik hinzu. Die Grenzen zwischen den einzelnen Bereichen sind dabei vielfach fließend. Mit zunehmender Verbreitung der Anwendungen ergaben sich zahllose weitere Spezialisierungsgebiete. In unserer heutigen Zivilisation werden fast alle Abläufe und Einrichtungen elektrisch betrieben oder laufen unter wesentlicher Beteiligung elektrischer Geräte und Steuerungen. Energietechnik. Die elektrische Energietechnik (früher Starkstromtechnik) befasst sich mit der Gewinnung, Übertragung und Umformung elektrischer Energie und auch der Hochspannungstechnik. Elektrische Energie wird in den meisten Fällen durch Wandlung aus mechanisch-rotatorischer Energie mittels Generatoren gewonnen. Zur klassischen Starkstromtechnik gehören außerdem der Bereich der Verbraucher elektrischer Energie sowie die Antriebstechnik. Zu dem Bereich der Übertragung elektrischer Energie im Bereich der Niederspannung zählt auch der Themenbereich der Elektroinstallationen, wie sie unter anderem vielfältig im Haushalt zu finden sind. Antriebstechnik. Die Antriebstechnik, früher ebenfalls als „Starkstromtechnik“ betrachtet, setzt elektrische Energie mittels elektrischer Maschinen in mechanische Energie um. Klassische elektrische Maschinen sind Synchron-, Asynchron- und Gleichstrommaschinen, wobei vor allem im Bereich der Kleinantriebe viele weitere Typen bestehen. Aktueller ist die Entwicklung der Linearmotoren, die elektrische Energie ohne den „Umweg“ über die Rotation direkt in mechanisch-lineare Bewegung umsetzen. Die Antriebstechnik spielt eine große Rolle in der Automatisierungstechnik, da hier oft eine Vielzahl von Bewegungen mit elektrischen Antrieben zu realisieren sind. Für die Antriebstechnik wiederum spielt Elektronik eine große Rolle, zum einen für die Steuerung und Regelung der Antriebe, zum anderen werden Antriebe oft mittels Leistungselektronik mit elektrischer Energie versorgt. Auch hat sich der Bereich der Lastspitzenreduzierung und Energieoptimierung im Bereich der Elektrotechnik erheblich weiterentwickelt. Nachrichtentechnik. Mit Hilfe der Nachrichtentechnik, auch "Informations- und Kommunikationstechnik" (früher Schwachstromtechnik) genannt, werden Signale mit elektromagnetischen Wellen als Informationsträger von einer Informationsquelle (dem Sender) zu einem oder mehreren Empfängern (der Informationssenke) übertragen. Dabei kommt es darauf an, die Informationen so verlustarm zu übertragen, dass sie beim Empfänger erkannt werden können (siehe auch Hochfrequenztechnik, Amateurfunk). Wichtiger Aspekt der Nachrichtentechnik ist die Signalverarbeitung, zum Beispiel mittels Filterung, Kodierung oder Dekodierung. Elektronik. Die Elektronik befasst sich mit der Entwicklung, Fertigung und Anwendung von elektronischen Bauelementen wie zum Beispiel Spulen oder Halbleiterbauelementen wie Dioden und Transistoren. Die Mikroelektronik beschäftigt sich mit der Entwicklung und Herstellung integrierter Schaltkreise. Die Entwicklung der Leistungshalbleiter (Leistungselektronik) spielt in der Antriebstechnik eine immer größer werdende Rolle, da Frequenzumrichter die elektrische Energie wesentlich flexibler bereitstellen können, als es beispielsweise mit Transformatoren möglich ist. Die Digitaltechnik lässt sich insoweit der Elektronik zuordnen, als die klassische Logikschaltung aus Transistoren aufgebaut ist. Andererseits ist die Digitaltechnik auch Grundlage vieler Steuerungen und damit für die Automatisierungstechnik bedeutsam. Die Theorie ließe sich auch der theoretischen Elektrotechnik zuordnen. Automatisierungstechnik. In der Automatisierungstechnik werden mittels Methoden der Mess-, Steuerungs- und Regelungstechnik (zusammenfassend MSR-Technik genannt) einzelne Arbeitsschritte eines Prozesses automatisiert bzw. überwacht. Heute wird üblicherweise die MSR-Technik durch Digitaltechnik gestützt. Eines der Kerngebiete der Automatisierungstechnik ist die Regelungstechnik. Regelungen sind in vielen technischen Systemen enthalten. Beispiele sind die Regelung von Industrierobotern, Autopiloten in Flugzeugen und Schiffen, Drehzahlregelungen in Motoren, die Stabilitätskontrolle (ESP) in Automobilen, die Lageregelung von Raketen und die Prozessregelungen für Chemieanlagen. Einfache Beispiele des Alltags sind die Temperaturregelungen zusammen mit Steuerungen in vielen Konsumgütern wie Bügeleisen, Kühlschränken, Waschmaschinen und Kaffeeautomaten (siehe auch Sensortechnik). Elektronische Gerätetechnik. Die elektronische Gerätetechnik befasst sich mit der Entwicklung und Herstellung elektronischer Baugruppen und Geräte. Sie beinhaltet damit den Entwurf und die anschließende konstruktive Gestaltung elektronischer Systeme (Verdrahtungsträger, Baugruppen, Geräte). Gebäudetechnik. In Gebäuden sorgen Elektroinstallationen sowohl für die leitungsgebundene Verteilung elektrischer Energie als auch für die Nutzungsmöglichkeit von Kommunikationsmitteln (Klingeln, Sprechanlagen, Telefone, Fernsehgeräte, Satellitenempfangsanlagen und Netzwerkkomponenten). Neben der leitungsgebundenen Informationsverteilung kommt verstärkt Funkübertragung (DECT, WLAN] zum Einsatz. Die Gebäudeautomation nutzt Komponenten der Mess-, Steuerungs- und Regelungstechnik in Gebäuden, um den Einsatz elektrischer und thermischer Energie zu optimieren. Im Rahmen der Gebäudeautomation finden zudem verschiedenste Systeme für Gebäudesicherheit Verwendung. Theoretische Elektrotechnik. Die Basis der Theorie und Bindeglied zur Physik der Elektrotechnik sind die Erkenntnisse aus der Elektrizitätslehre. Die Theorie der Schaltungen befasst sich mit den Methoden der Analyse von Schaltungen aus passiven Bauelementen. Die theoretische Elektrotechnik, die Theorie der Felder und Wellen, baut auf den Maxwell-Gleichungen auf. Altertum. Das Phänomen, dass bestimmte Fischarten (z. B. Zitterrochen oder Zitteraal) elektrische Spannungen erzeugen können (mit Hilfe des Elektroplax), war im alten Ägypten um 2750 v. Chr. bekannt. Die meteorologische Erscheinung der Gewitterblitze begleitet die Menschheit schon immer. Die Deutung, dass die Trennung elektrischer Ladungen innerhalb der Atmosphäre in Gewittern dieses Phänomen verursacht, erfolgte jedoch erst in der Neuzeit. Elektrostatische Phänomene waren allerdings schon im Altertum bekannt. Die erste Kenntnis über den Effekt der Reibungselektrizität wird dem Naturphilosophen Thales von Milet zugeschrieben. In trockener Umgebung kann Bernstein durch Reiben an textilem Gewebe (Baumwolle, Seide) oder Wolle elektrostatisch aufgeladen werden. Durch Aufnahme von Elektronen erhält Bernstein eine negative Ladung, das Reibmaterial durch Abgabe von Elektronen dagegen eine positive Ladung. Durch die Werke von Plinius dem Älteren wurde dieses Wissen bis ins Spätmittelalter überliefert. 17. und 18. Jahrhundert. Der englische Naturforscher William Gilbert unterschied im zweiten Kapitel des zweiten Buchs seines im Jahr 1600 erschienenen Werks "Über den Magneten" zwischen Magnetismus und Reibungselektrizität ("„Differentia inter magnerica & electrica“"). Gilbert verwendete somit als Erster den Begriff "Elektrizität", den er aus dem altgriechischen Wort für "Bernstein" (ἤλεκτρον; transkribiert: ḗlektron; übersetzt: Hellgold) abgeleitet hatte. Im Jahre 1663 erfand Otto von Guericke die erste Elektrisiermaschine, eine Schwefelkugel mit einer Drehachse, die Elektrizität durch von Hand bewirkte Reibung erzeugte. Um die Mitte des 18. Jahrhunderts wurde von Ewald Georg von Kleist und Pieter van Musschenbroek die Leidener Flasche erfunden, die älteste Bauform eines Kondensators. 1752 erfand Benjamin Franklin den Blitzableiter und veröffentlichte 1751 bis 1753 die Resultate seiner "Experiments and Observations on Electricity". 1792 unternahm Luigi Galvani sein legendäres Froschschenkel-Experiment, in dem eine elektrochemische Galvanische Zelle als Spannungsquelle diente. 19. Jahrhundert. Von den Experimenten Galvanis angeregt, baute Alessandro Volta um 1800 die so genannte Voltasche Säule, die erste funktionierende Batterie, mit der zum ersten Mal eine kontinuierliche Stromquelle für die elektrotechnische Forschung zur Verfügung stand. 1820 machte Hans Christian Ørsted Versuche zur Ablenkung einer Magnetnadel durch elektrischen Strom. André-Marie Ampère führte diese Experimente weiter und wies 1820 nach, dass zwei stromdurchflossene Leiter eine Kraft aufeinander ausüben. Ampère erklärte den Begriff der elektrischen Spannung und des elektrischen Stromes und legte die Stromrichtung fest. Michael Faraday leistete einen großen Beitrag auf dem Gebiet der elektrischen und magnetischen Felder, von ihm stammt auch der Begriff der „Feldlinie“. Die Erkenntnisse Faradays waren die Grundlage für James Clerk Maxwells Arbeiten. Er vervollständigte die Theorie des Elektromagnetismus zur Elektrodynamik und deren mathematische Formulierung. Die Quintessenz seiner Arbeit, die 1864 eingereichten und 1865 veröffentlichten Maxwell-Gleichungen, sind eine der grundlegenden Theorien in der Elektrotechnik. Philipp Reis erfand 1860 am Institut Garnier in Friedrichsdorf das Telefon und damit die elektrische Sprachübermittlung. Allerdings wurde seiner Erfindung keine große Beachtung geschenkt, so dass erst 1876 Alexander Graham Bell in den USA das erste wirtschaftlich verwendbare Telefon konstruierte und auch erfolgreich vermarktete. Zu den Wegbereitern der „Starkstromtechnik“ gehörte Werner Siemens (ab 1888 von Siemens), der 1866 mittels des dynamoelektrischen Prinzips den ersten elektrischen Generator entwickelte. Elektrische Energie war damit erstmals in nennenswert nutzbarer Menge verfügbar. 1879 prägte Siemens das Wort "Elektrotechnik", als er Heinrich von Stephan die Gründung eines "Elektrotechnischen Vereins" vorschlug. Als dessen erster Präsident setzte er sich für die Errichtung von Lehrstühlen der Elektrotechnik an technischen Hochschulen in ganz Deutschland ein. 1879 erfand Thomas Alva Edison die Kohlefadenglühlampe und brachte damit das elektrische Licht zu den Menschen. In der Folge hielt Elektrizität Einzug in immer größere Bereiche des Lebens. Zur gleichen Zeit wirkten Nikola Tesla und Michail von Dolivo-Dobrowolsky, die Pioniere des Wechselstroms waren und durch ihre bahnbrechenden Erfindungen die Grundlagen der heutigen Energieversorgungssysteme schufen. Erasmus Kittler begründete 1883 an der TH Darmstadt (heute TU Darmstadt) den weltweit ersten Studiengang für Elektrotechnik. Der Studiengang dauerte vier Jahre und schloss mit einer Prüfung zum Elektrotechnikingenieur ab. 1885 und 1886 folgten das University College London (GB) und die University of Missouri (USA), die weitere eigenständige Lehrstühle für Elektrotechnik einrichteten. Die so ausgebildeten Ingenieure waren erforderlich, um eine großflächige Elektrifizierung zu ermöglichen. Heinrich Hertz gelang am 13. November 1886 der experimentelle Nachweis der Maxwell-Gleichungen. Die Berliner Akademie der Wissenschaften unterrichtete er am 13. Dezember 1888 in seinem Forschungsbericht „Über Strahlen elektrischer Kraft“ über die elektromagnetischen Wellen. Durch den Nachweis der Existenz elektromagnetischer Wellen wurde er zum Begründer der drahtlosen Informationsübertragung und damit auch der elektrischen Nachrichtentechnik. Im Jahr 1896 führte Alexander Popow eine drahtlose Signalübertragung über eine Entfernung von 250 m durch. Das Verdienst der ersten praktischen Nutzung der Funken-Telegrafie steht Guglielmo Marconi zu. Nachdem er im Juni 1896 seinen Funken-Telegrafen in Großbritannien zum Patent angemeldet hatte, übertrug Marconi im Mai 1897 ein Morsezeichen über eine Distanz von 5,3 Kilometer. 1897 entwickelte Ferdinand Braun die erste Kathodenstrahlröhre. Verbesserte Varianten kamen zunächst in Oszilloskopen und Jahrzehnte später als Bildröhren in Fernsehgeräten und Computermonitoren zum Einsatz. 20. Jahrhundert. John Ambrose Fleming erfand 1905 die erste Radioröhre, die Diode. 1906 entwickelten Robert von Lieben und Lee De Forest unabhängig voneinander die Verstärkerröhre, Triode genannt, die der Funktechnik einen wesentlichen Impuls gab. John Logie Baird baute 1926 mit einfachsten Mitteln den ersten mechanischen Fernseher auf Grundlage der Nipkow-Scheibe. 1928 folgte der erste Farb-Fernseher. Im selben Jahr gelang ihm die erste transatlantische Fernsehübertragung von London nach New York. Bereits 1931 war seine Erfindung jedoch veraltet, Manfred von Ardenne führte damals die Kathodenstrahlröhre und damit das elektronische Fernsehen ein. 1941 stellte Konrad Zuse den weltweit ersten funktionsfähigen Computer, den Z3, fertig. Im Jahr 1946 folgt der ENIAC () von John Presper Eckert und John Mauchly. Die erste Phase des Computerzeitalters begann. Die so zur Verfügung stehende Rechenleistung ermöglichte es den Ingenieuren und der Gesellschaft, völlig neue Technologien zu entwickeln und Leistungen zu vollbringen. Ein frühes Beispiel ist die Mondlandung im Rahmen des Apollo-Programms der NASA. Nachbau des ersten Transistors von 1947 Die Erfindung des Bipolartransistors 1947 in den Bell Laboratories (USA) durch William B. Shockley, John Bardeen und Walter Brattain und der gesamten Halbleitertechnologie erschloss der Elektrotechnik sehr weite Anwendungsgebiete, da nun viele Geräte sehr kompakt gebaut werden konnten. Ein weiterer wesentlicher Schritt in diese Richtung war die Entwicklung der Mikrointegration: Der 1958 von Jack Kilby erfundene integrierte Schaltkreis (IC) machte die heutigen Prozessorchips und damit die Entwicklung moderner Computer überhaupt erst möglich. Für den Feldeffekttransistor, der aber erst nach 1960 gefertigt werden konnte, hatte Julius E. Lilienfeld bereits 1928 ein Patent erhalten. 1958 erfanden und bauten George Devol und Joseph Engelberger in den USA den weltweit ersten Industrieroboter. Ein solcher Roboter wurde 1960 bei General Motors erstmals in der industriellen Produktion eingesetzt. Industrieroboter sind heute in verschiedensten Industrien, wie z. B. der Automobilindustrie, ein wichtiger Baustein der Automatisierungstechnik. Gerhard Sessler und James E. West erfanden 1962 das Elektretmikrofon, das damals bis heute am häufigsten produzierte Mikrofon weltweit. Es ist z. B. Bestandteil von Handys und Kassettenrekordern. Im Jahr 1968 erfand Marcian Edward Hoff, bekannt als "Ted Hoff", bei der Firma Intel den Mikroprozessor und läutete damit die Ära des Personal Computers (PC) ein. Zugrunde lag Hoffs Erfindung ein Auftrag einer japanischen Firma für einen Desktop-Rechner, den er möglichst preisgünstig realisieren wollte. Die erste Realisierung eines Mikroprozessors war 1969 der Intel 4004, ein 4 Bit Prozessor. Aber erst der Intel 8080, ein 8-Bit-Prozessor aus dem Jahr 1973, ermöglichte den Bau des ersten PCs, des Altair 8800. Die Firma Philips erfand 1978 die Compact Disc (CD) zur Speicherung digitaler Informationen. 1982 resultierte dann aus einer Kooperation zwischen Philips und Sony die Audio-CD. 1985 folgte die CD-ROM. Im Jahr 1996 präsentierte die Firma Honda den weltweit ersten funktionsfähigen humanoiden Roboter, den P2. Einen ersten prototypischen humanoiden Roboter, der aber noch nicht voll funktionsfähig war, entwickelte bereits 1976 die japanische Waseda-Universität. Aus dem P2 resultierte der zurzeit aktuelle Android, Hondas etwa 1,20 m großer Asimo. Neben vielen elektronischen und elektrotechnischen Komponenten bestehen humanoide Roboter auch wesentlich aus mechanischen Komponenten, deren Zusammenspiel man als Mechatronik bezeichnet. Studienfach. Elektrotechnik wird an vielen Universitäten, Fachhochschulen und Berufsakademien als Studiengang angeboten. An Universitäten wird während des Studiums die wissenschaftliche Arbeit betont, an Fachhochschulen und Berufsakademien steht die Anwendung physikalischer Kenntnisse im Vordergrund. Das Studium der Elektrotechnik beinhaltet u. a. die Fächer „Grundlagen der Elektrotechnik“, Physik und Höhere Mathematik. Aufgrund der Interdisziplinarität und der engen Verflechtung mit der Informatik ist auch Programmierung Teil des Elektrotechnik-Studiums. Netzwerk- und Systemtheorie, Regelungstechnik sowie Nachrichtentechnik sind weitere Grundlagenfächer. Spezialisierungsfächer sind beispielsweise Automatisierungstechnik, Elektrische Maschinen, Modellbildung/Simulation oder elektromagnetische Verträglichkeit (EMV). Der jahrzehntelang von den Hochschulen verliehene akademische Grad "Diplom-Ingenieur" (Dipl.-Ing. bzw. Dipl.-Ing. (FH)) wurde aufgrund des Bologna-Prozesses durch ein zweistufiges System berufsqualifizierender Studienabschlüsse (typischerweise in der Form von Bachelor und Master) ersetzt. Der Bachelor (Bachelor of Engineering oder Bachelor of Science) ist ein erster berufsqualifizierender akademischer Grad, der je nach Prüfungsordnung des jeweiligen Fachbereichs nach einer Studienzeit von 6 bzw. 7 Semestern erworben werden kann. Nach einer weiteren Studienzeit von 4 bzw. 3 Semestern kann der Master als zweiter akademischer Grad (Master of Engineering oder Master of Science) erlangt werden. Der „Doktor-Ingenieur“ ist der höchste akademische Grad, der im Anschluss an ein abgeschlossenes Masterstudium im Rahmen einer Assistenzpromotion oder in einer Graduate School erreicht werden kann. An einigen Hochschulen kann der Bachelor-Studiengang "Elektro- und Informationstechnik" in sieben Semestern mit anschließendem dreisemestrigem Master-Studiengang "Master für Berufliche Bildung" studiert werden. Mit diesem Master-Abschluss und nach weiteren 1,5 Jahren Referendariatszeit besteht die Möglichkeit, eine berufliche Tätigkeit als Gewerbelehrer (höherer Dienst) an einer Berufsschule zu finden. Verbände. Der größte Berufsverband für Elektrotechnik weltweit ist das "Institute of Electrical & Electronics Engineers" (IEEE). Er zählt über 420.000 Mitglieder und publiziert Zeitschriften auf allen relevanten Fachgebieten in Englisch. Seit 2008 gab es den "IEEE Global History Network" (IEEE GHN), wobei in verschiedenen Kategorien wichtige Meilensteine (beurteilt durch ein Fachgremium) und persönliche Erinnerungen von Ingenieuren () festgehalten werden können. Solche Erinnerungsberichte von Schweizer Elektroingenieuren können als Beispiele eingesehen werden. Seit anfangs 2015 hat sich der IEEE GHN einer erweiterten Organisation "Engineering and Technology History Wiki" angeschlossen, welche weitere Fachbereiche des Ingenieurwesens umfasst. Der VDE Verband der Elektrotechnik Elektronik Informationstechnik e.V. ist ein technisch-wissenschaftlicher Verband in Deutschland. Mit ca. 35.000 Mitgliedern engagiert sich der VDE für ein besseres Innovationsklima, Sicherheitsstandards, für eine moderne Ingenieurausbildung und eine hohe Technikakzeptanz in der Bevölkerung. Der Zentralverband der Deutschen Elektro- und Informationstechnischen Handwerke (ZVEH) vertritt die Interessen von Unternehmen aus den drei Handwerken Elektrotechnik, Informationstechnik und Elektromaschinenbau. ZVEH-Mitglied waren im Jahr 2014 55.579 Unternehmen, die 473.304 Arbeitnehmer, davon rund 38.800 Auszubildende, beschäftigten. Dem ZVEH als Bundesinnungsverband gehören zwölf Fach- und Landesinnungsverbände mit insgesamt etwa 330 Innungen an. Der Zentralverband Elektrotechnik- und Elektronikindustrie e.V. (ZVEI) setzt sich für die Interessen der Elektroindustrie in Deutschland und auf internationaler Ebene ein. ZVEI-Mitglied sind mehr als 1.600 Unternehmen, in denen im Jahr 2014 etwa 844.000 Beschäftigte in Deutschland tätig waren. Als ZVEI-Untergliederungen finden sich derzeit 22 Fachverbände. Elektronik. Unter Elektronik ("Lehre von der Steuerung von Elektronen") werden alle Vorgänge in Steuer-, Regel- und Verstärkerschaltungen sowie die Vorgänge in den hierfür verwendeten Bauelementen verstanden. Als Stellgröße einer veränderlichen Spannung oder eines veränderlichen Stromes dient hier wiederum ein elektrischer Strom ohne den Umweg über den Elektromagnetismus oder einen mechanisch betätigten Geber oder Schalter. Die Optoelektronik ist ein Teilgebiet der Elektronik und beschäftigt sich mit der Steuerung durch sowie auch von Licht. Wortbildung. Der Begriff Elektronik leitet sich von dem griechischen Wort "elektron" (ήλεκτρον) ab, das Bernstein bedeutet. Elektronik ist ein Kofferwort, das aus den Begriffen "Elektron" (dem Elementarteilchen) und "Technik" zusammengefügt wurde. Die Elektronik ist sozusagen die "Elektronen-Technik". Geschichte. 1873 entdeckte Willoughby Smith, dass Selen in der Lage ist, bei Licht zu leiten (Photoeffekt). Auf diese Erkenntnis hin entdeckte Karl Ferdinand Braun 1874 den Gleichrichtereffekt. Stoney und Helmholtz prägten den Begriff des Elektrons als Träger des elektrischen Stromes. 1883 erhielt Thomas Alva Edison ein Patent auf einen Gleichspannungsregler, der auf der Glühemission (dem Edison-Richardson-Effekt) beruhte, einer Voraussetzung für alle Vakuumröhren. 1897 begann die Entwicklung der Braunschen Röhre durch Karl Ferdinand Braun. Im Jahre 1899 begann daraufhin die Entwicklung der Spitzendiode. 1904 erlangte John Ambrose Fleming ein Patent auf eine Vakuumdiode. Zu Beginn des 20. Jahrhunderts war die Entwicklung von Elektronenröhren bereits fortgeschritten. Die ersten Elektronenröhren wurden entwickelt und bereits in elektrischen Schaltungen genutzt. Mit der Triode stand zum ersten Mal ein brauchbares Bauelement zum Aufbau von Verstärkern zur Verfügung. Dadurch wurden Erfindungen wie Rundfunk, Fernsehen und Radar möglich. Im Jahr 1948 wurde der erste Transistor vorgestellt. Transistoren können wie Röhren als Verstärker, elektronische Schalter oder als Oszillator eingesetzt werden. Jedoch lassen sich Transistoren im Gegensatz zu Vakuumröhren, die sehr viel Raum und elektrische Leistung brauchen, sehr klein fertigen, denn sie basieren auf Halbleitertechnologie, wodurch sehr viel höhere Stromdichten möglich sind. In den 1960er Jahren gelang die Fertigung von kompletten, aus mehreren Transistoren und weiteren Bauelementen bestehenden Schaltungen auf einem einzigen Siliziumkristall. Die dadurch eingeleitete Technik der integrierten Schaltkreise (kurz IC von engl.) hat seitdem zu einer stetigen Miniaturisierung geführt. Heute ist die Halbleiterelektronik der wichtigste Zweig der Elektronik. Als Schlüsseltechnologie für die Zukunft wird zuweilen die Polytronik gesehen. Sie bezeichnet die Zusammenführung kunststoffbasierter Systemfunktionen zu der Vision „intelligentes Plastik“. Analogelektronik. Die Analogtechnik beschäftigt sich vor allem mit der Verarbeitung von kontinuierlichen Signalen. Man nutzt dabei die physikalischen Gesetze aus, die das Verhalten der Bauelemente (Widerstände, Kondensatoren, Transistoren, Röhren usw.) beschreiben oder man schafft durch Schaltungsprinzipien günstige Voraussetzungen. Typische Grundschaltungen sind Stromquellen, Stromspiegel, Differenzverstärker und Kaskaden, sowie Referenzelemente wie die Bandgap. Daraus lassen sich kompliziertere Schaltungen aufbauen, wie z. B. Verstärker, mit deren Hilfe sich weitere Funktionen aufbauen lassen (Oszillator, Filter etc.). Der Operationsverstärker ist ein Verstärker mit einem Differenzeingang (Differenzverstärker). Sein Name rührt daher, dass mit ihm mathematische Operationen (Subtraktion, Addition, Integration etc.) ausgeführt werden können. Operationsverstärker finden in der Analogelektronik breite Anwendung. Der Genauigkeit der Signalverarbeitung sind in der Analogelektronik durch die Herstellungstoleranzen der Bauelemente und deren Nichtidealitäten (z. B. Rauschen, Nichtlinearität, Hysterese) sowie durch weitere störende Effekte wie Übersprechen und Einkopplungen von Störsignalen Grenzen gesetzt. Es wurden sehr weit fortgeschrittene Verfahren entwickelt, die solche Fehler kompensieren oder minimieren und damit Genauigkeiten in der Präzisionselektronik im Bereich von wenigen ppm erlauben. Solche hohe Genauigkeit ist z. B. notwendig, um Analog-Digital-Umsetzer mit 20 Bit Auflösung zu realisieren. Die Analogtechnik bildet prinzipiell die Grundlage der Digitaltechnik. Digitalelektronik. Die Digitalelektronik oder Digitaltechnik beschäftigt sich mit der Verarbeitung von diskreten Signalen (ausgedrückt als Zahlen oder logische Werte). Die Diskretisierung betrifft dabei immer den Wertebereich und oft auch zusätzlich das zeitliche Verhalten. In der Praxis beschränkt man sich auf zweiwertige Systeme, d. h.: Spannungen oder Ströme sollen – abgesehen von Übergangsvorgängen – nur zwei Werte annehmen (an/aus, 1 oder 0, auch "high/low", kurz H/L). Die Änderung der Werte kann bei zeitdiskreten Systemen nur zu bestimmten, meist äquidistanten Zeitpunkten stattfinden, die ein Takt vorgibt. Bei der Digitalelektronik werden analoge Signale entweder vor der Verarbeitung mit Hilfe von Analog-Digital-Umsetzern digitalisiert (in Digitalsignale umgesetzt) oder existieren bereits von vornherein als diskrete Werte. Transistoren werden in der Digitaltechnik in der Regel als Schaltverstärker und nicht als analoge Verstärker eingesetzt. Der Vorteil der Digitalelektronik liegt in der Tatsache, dass im Anschluss an die Digitalisierung die bei der Analogelektronik erwähnten störenden Effekte keine Rolle mehr spielen, jedoch auf Kosten des Bauteilaufwandes. Ist z. B. eine analoge Schaltung mit einem maximalen Fehler von 0,1 % behaftet, so kann dieser Fehler ab ca. 10 Bit Datenbreite von digitalen Schaltungen unterboten werden. Ein analoger Multiplizierer benötigt etwa zwanzig Transistoren, ein digitaler Multiplizierer mit derselben Genauigkeit mehr als die zwanzigfache Anzahl. Der Aufwand wächst durch die Digitalisierung also zunächst an, was aber durch die immer weiter vorangetriebene Miniaturisierung mehr als kompensiert wird. Heute lassen sich auf einem integrierten Schaltkreis eine sehr große Menge von Transistoren realisieren (die Anzahl geht typisch in die 10 Millionen). Der Vorteil ist nun, dass z. B. die Spannungspegel in erheblichem Maße variieren können, ohne die korrekte Interpretation als 1 oder 0 zu behindern. Damit ist es möglich, dass die Bauelemente der integrierten Schaltungen sehr ungenau sein dürfen, was wiederum die weitere Miniaturisierung ermöglicht. Die Eigenschaften der Schaltung werden also weitgehend von den physikalischen Eigenschaften der Bauelemente entkoppelt. Die vereinfachte Beschreibung digitaler Schaltungen mit den zwei Zuständen H und L reicht vor allem bei immer höheren Geschwindigkeiten und Frequenzen nicht immer aus, um sie zu charakterisieren oder zu entwerfen. Im Grenzfall befindet sich die Schaltung den überwiegenden Teil der Zeit im Übergang zwischen den beiden logisch definierten Zuständen. Daher müssen in solchen Fällen oft zunehmend analoge und hochfrequenztechnische Aspekte berücksichtigt werden. Auch bei langsamen Schaltungen kann es Probleme geben, die nur durch analoge Betrachtungsweisen zu verstehen sind; als Beispiel sei das Problem der Metastabilität von Flipflops genannt. Logik der Digitalelektronik. Digitale Schaltungen – auch Schaltsysteme oder logische Schaltungen genannt – bestehen hauptsächlich aus einfachen Logikelementen, wie AND-, NAND-, NOR-, OR- oder NOT-Gattern und Komponenten, mit denen digitale Signale gespeichert werden können, z. B. Flipflops oder Zählern. Alle diese logischen Funktionen lassen sich mit im sogenannten Schalterbetrieb arbeitenden elektronischen Bauelementen (z. B. Transistoren) realisieren. Durch die Integration dieser Schaltungen auf einem Chip (monolithische Schaltung) entstehen komplexe elektronische Bauelemente wie beispielsweise Mikroprozessoren. Hochfrequenzelektronik. Die Hochfrequenzelektronik oder Hochfrequenztechnik beschäftigt sich vorwiegend mit der Erzeugung und der Ausstrahlung sowie dem Empfang und der Verarbeitung von elektromagnetischen Wellen. Anwendungen davon sind z. B. die Funktechnik mit Rundfunk, Fernsehen, Radar, Fernsteuerung, drahtlose Telefonie, Navigation, aber auch die Vermeidung unerwünschter Schwingungen (Störung, EMV) und unkontrollierter Abstrahlung (Abschirmung). Weitere Bereiche der Hochfrequenzelektronik sind Mikrowellentechnik, kabelgebundene Informationsübertragung oder Bereiche der Medizinelektronik. Der Übergang von der Niederfrequenz- zur Hochfrequenztechnik ist fließend. Er beginnt etwa dann, wenn die Frequenz f der elektromagnetischen Welle auf einer Verbindungsleitung der Länge L ein Produkt fL bildet, das zu einer merklichen Phasendrehung ßL = 2π L/λ und somit zu stehenden Wellen führt. Dabei ist λ = λ0/(εr eff)1/2 die Wellenlänge auf der Leitung, λ0 = c/f die Wellenlänge im freien Raum und c die Vakuumlichtgeschwindigkeit. Die Größe εr eff errechnet sich im einfachsten Fall, je nach Feldverteilung, aus einer Gewichtung der verschiedenen Permittivitätswerte εr in der Leitung. Selbst verlustlose Leitungen können daher nur für kleine Phasendrehung ßL ≪ 1 (entspricht ca. 57,3°) vernachlässigt werden, also nur für fL ≪ c/[2π (εr eff)1/2]. Bei einer elektronischen Schaltung mit Kabeln von L ≥ 3 m und εr eff = εr = 2,3 muss für ßL < 5° dann etwa f < 1 MHz. bleiben. Die praktische Hochfrequenzelektronik beginnt somit etwa ab f = 1 MHz, sie ist eine tragende Säule der Informationstechnik. Dabei lassen sich Z0 und εr eff in einem quasistatischen Modell auf Platinen bis in den unteren GHz-Bereich noch aus der Leitungskapazität und Leitungsinduktivität pro Längeneinheit berechnen. Ab einigen Gigahertz verfeinert man die Näherung, indem aus den Maxwellschen Gleichungen, aus den Feldern und dem sog. Eigenwert ß mit ß = (εr eff)1/2 2π/λ0 verbesserte, frequenzabhängige Werte εr eff(f) und Z0(f) ermittelt werden. Ab einigen 10 GHz sind die Maxwellschen Gleichungen vollnumerisch zu lösen, die Wellen breiten sich im Zick-Zack aus, und es tritt völlig analog zu Lichtwellenleitern der Multimodebetrieb auf, etwa dann, wenn sich zusätzlich auch in transversaler Richtung stehende Wellen ausbilden können. Das gilt für "jede" Leitung, genauer, für jede Struktur bis hin zu Leitungsabzweigungen, Anschlussflächen für Bauelemente und für die Struktur der Bauelemente. Die Bauelemente R, L und C verlieren selbst in SMD-Bauform schon ab ca. 0,1 GHz ihre idealen Eigenschaften U = RI, U = L dI/dt und I = C dU/dt zwischen Strom I und Spannung U. Ein Widerstand z. B. ist mit steigender Frequenz stets durch kapazitive und bei Stromfluss durch induktive Effekte gekennzeichnet. Elektronische Bauelemente misst man daher zuvor in einer Ersatzumgebung mit 50-Ω-Anschlusskabeln (NWA = Netzwerkanalysator), wobei der Aufbau des Elementes später in der wirklichen Schaltung genau nachgebildet werden muss. Die auf den Anschlussleitungen hinlaufenden, am Messobjekt reflektierten und durch das Objekt transmittierten Wellen stehen bei den passiven Elementen und bei nichtlinearen Elementen (z. B. Transistoren) mit nur kleiner Aussteuerung in einem linearen Zusammenhang: Bei einer 2-Tor-Messung liefert ein NWA dann für jede Frequenz eine 2×2-Streumatrix (s-Parameter), die bei nichtlinearen Elementen noch vom Arbeitspunkt abhängt und das Strom-Spannungsverhalten selbst für f > 50 GHz realitätsnah beschreibt. Diese Daten spiegelt man dann in ein CAD-System ein, das die Kirchhoffschen Gesetze anwendet, um alle U und I zu ermitteln. Die Elemente L bzw. C lassen sich dabei für hohe Frequenzen durch eine Leitung mit ßL ≪ 1 und Kurzschluss bzw. Leerlauf am Ende nachbilden und ein Widerstand R durch eine verlustbehaftete Leitung realisieren, in die eine Welle hineinläuft und wie in einem Sumpf versickert. Gewisse Bauelemente und Strukturen können aber auch als fertige Modelle aus einem CAD-System übernommen werden, sofern den Modellen vertraut wird, was einer erheblichen Gewissensfrage gleichkommt, denn die gesamte Analyse steht und fällt mit den Modellen. Neben fertigen Modellen und NWA-Messungen kann bei passiven Strukturen durch die vollnumerische Lösung der Maxwellschen Gleichungen sozusagen eine „Software-Messung“ der s-Parameter vorgenommen werden. Um die dabei dramatisch ansteigende Rechenzeit in Grenzen zu halten, greift man in einer Struktur dafür nur die kritischsten Bereiche heraus: Anschlussflächen, Kreuze, Stecker, Antennen, Abzweigungen etc. Bei Großsignalaussteuerung nichtlinearer Elemente kann bis zu einigen Gigahertz die aus der allgemeinen Elektronik bekannte Modellierung nach SPICE versucht werden. Dabei sind die SPICE-Parameter, die die physikalischen Gleichungen der Modelle „biegsam“ gestalten, so zu wählen, dass die s-Parameter von SPICE-Modell und NWA-Messung bei allen Arbeitspunkten und allen Frequenzen so gut wie möglich übereinstimmen: Bei nur 10 Testarbeitspunkten und 50 Frequenzpunkten mit je 4 s-Parametern ergäben sich bereits 2000 zu prüfende komplexe s-Parameterwerte. Der Aufwand ist enorm und die Modellierung extrem schwierig, selbst für einen einzigen Arbeitspunkt. Das Rauschen elektronischer Schaltungen ist schon bei mittleren Frequenzen nicht mehr gut durch SPICE-Modelle beschreibbar. Daher misst man analog zur NWA-Messung das Rauschverhalten in einer Ersatzumgebung (Rauschmessplatz). Mit den gewonnenen Rauschparametern (min. Rauschzahl bei optimaler Generatorimpedanz zuzüglich einem äquivalenten Rauschwiderstand) lässt sich im CAD-System umrechnen, wie das Bauelement in der tatsächlichen Schaltung rauscht. Ein Rauschmessplatz ist sehr komplex und erfordert a priori einen NWA. Ohne die CAD-Systeme ist die Auswertung der vielen Gleichungen unmöglich. Eine sinnvolle Nutzung erfordert darüber hinaus aber tiefe Kenntnisse zu den programmierten Theorien und verwendeten Modellen. Leistungselektronik. Leistungselektronik bezeichnet das Teilgebiet der Elektrotechnik, das die Umformung elektrischer Energie mit elektronischen Bauelementen zur Aufgabe hat. Die Umformung elektrischer Energie mit Transformatoren oder mit rotierenden Maschinensätzen wird dahingegen nicht zur Leistungselektronik gerechnet. Bauelemente. Verschiedene elektronische und elektromechanische Bauelemente Wichtige Bauelemente sind Elektronenröhre, integrierte Schaltung, Halbleiterdiode, Zener-Diode, Transistor, Thyristor, Widerstand, Kondensator und Induktivität. Aus wissenschaftlicher Sicht handelt es sich bei den letzten drei nicht um Anordnungen, die elektrische Effekte darstellen oder nutzen, die klassische Elektrodynamik genügt hier vollauf. Da sie aber mit den tatsächlich elektronischen Bauelementen häufig zusammen verbaut und verkauft werden, hat sich dessen ungeachtet in der Praxis diese Zuordnung allgemein durchgesetzt. Man spricht von "passiven Bauelementen", wenn primär Widerstände, Kondensatoren und Induktivitäten gemeint sind. Unter den "aktiven Bauelementen" werden meist alle Arten von integrierten Schaltungen, Halbleiterbauelementen und Elektronenröhren verstanden. Alle diese Bauelemente werden in einer großen Typenvielfalt angeboten. Durch die exakt berechnete Zuordnung der logisch miteinander arbeitenden elektronischen Bauteile auf einer Platine entsteht ein elektronischer Schaltkreis. Ein selbständig und logisch arbeitender Rechnen-Operator-Chip ist der moderne Prozessor, der nicht nur auf dem Mainboard eines Computers zu finden ist, sondern ein Bestandteil moderner Industrie- und Fahrzeugtechnik ist. Bedeutung. Die Elektronik umfasst heute unzählige Gebiete, von der Halbleiterelektronik über die Quantenelektronik bis hin zur Nanoelektronik. Seit dem Siegeszug des Computers, der stetigen Entwicklung der Informationstechnologie und der zunehmenden Automation hat sich die Bedeutung der Elektronik beständig erweitert. Die Elektronik nimmt heute in unserer Gesellschaft einen großen Stellenwert ein und ist aus vielen Bereichen nicht mehr wegzudenken. Elektronikfertigung. Im Jahre 2007 kamen 38 % aller weltweit hergestellten Elektronikprodukte aus der Asien-Pazifik-Region. Im Jahre 1995 lag dieser Anteil noch bei 20 %. Allein China erhöhte seinen Anteil von 3 % 1995 auf 16 % 2007. Unter den Top-10-Ländern befinden sich auch Südkorea, Malaysia, Singapur und Thailand. Der Anteil von Westeuropa lag 2007 bei 19 % der globalen Produktion (entspricht ca. 192 Mrd. Euro). Für die Leistungsreihenfolge der Größe der Elektronikfertigung in Westeuropa gilt folgende Rangliste (Stand 2006): Deutschland, Frankreich, Großbritannien, Irland, Italien. Siehe auch. Für freizeitmäßig betriebene Elektronik siehe Hobbyelektronik. Für Elektronik im KFZ siehe Automobilelektronik. Elektronenkonfiguration. Die Elektronenkonfiguration gibt die Verteilung der Elektronen in der Elektronenhülle eines Atoms auf verschiedene Energiezustände bzw. Aufenthaltsräume (Atomorbitale) an. Quantenzahlen und Schalen. Abfolge der Elektronenhüllen in einem Atom. Der rote Punkt in der Mitte stellt den Atomkern dar. Gemäß dem Pauli-Prinzip darf der Zustand keiner zwei Elektronen eines Atoms in allen vier Quantenzahlen übereinstimmen. Mit diesem Prinzip lässt sich zeigen, dass sich die Elektronen auf die verschiedenen erlaubten Zustände und damit auf die Schalen und Unterschalen verteilen. Die Hauptquantenzahlen bilden die Schalen, die Nebenquantenzahlen die Unterschalen. Jede Schale kann gemäß den Beschränkungen von formula_2, formula_3 und formula_4 mit maximal 2n² Elektronen besetzt werden. Die Schalen werden aufsteigend, beginnend bei der Kernschale, mit Großbuchstaben bezeichnet: K, L, M, N, O, P, Q... Die Orbitale werden entsprechend der Spektrallinien benannt, die ein angeregtes Elektron aussendet, wenn es in sein ursprüngliches Orbital zurückfällt: „sharp“ (s), „principal“ (p), „diffuse“ (d) und „fundamental“ (f). Die äußerste besetzte Schale (Valenzschale) bestimmt das chemische Verhalten und ist daher maßgeblich für die Einordnung ins Periodensystem. Auffüllen der Schalen nach dem Aufbauprinzip. Mit steigender Elektronenzahl der Elemente werden die möglichen Zustände – bei den niedrigen Energien beginnend – besetzt. Gemäß der Hundschen Regel werden dabei die Orbitale gleicher Energie zuerst einfach, dann doppelt belegt. 1. Periode: 1s 2. Periode: 2s 2p 3. Periode: 3s 3p 4. Periode: 4s 3d 4p 5. Periode: 5s 4d 5p 6. Periode: 6s 4f 5d 6p 7. Periode: 7s 5f 6d... Notation. Beispiel Chlor: 1s2 2s2 2p6 3s2 3p5 →[Ne] 3s2 3p5. Dabei sind die Unterschalen nicht nach dem Aufbauprinzip anzugeben, sondern in der Reihenfolge der Hauptquantenzahl; also z. B. für Europium: [Xe] 4f7 6s2. Daneben ist noch die Zellen- oder auch Pauling-Schreibweise als anschauliche grafische Darstellung üblich. Eritrea. Eritrea (; "Ertra",) ist ein Staat im nordöstlichen Afrika. Er grenzt im Nordwesten an Sudan, im Süden an Äthiopien, im Südosten an Dschibuti und im Nordosten an das Rote Meer. Der Landesname leitet sich vom altgriechischen "Erythraia" ab, das auf die Bezeichnung "erythrà [thálassa]", ‚rotes [Meer]‘, zurückgeht. Die Eigenbezeichnung "Ertra" aus Altäthiopisch "bahïrä ertra", ‚Rotes Meer‘, bezieht sich ebenfalls auf diese alte griechische Bezeichnung des Roten Meeres. Das Hochland von Eritrea war das Königreich Medri Bahri mit der Hauptstadt Debarwa, wo der Baher Negash herrschte, und das Tiefland von Eritrea war mehr als 300 Jahre eine osmanisch und ägyptische Kolonie mit der Hauptstadt Massawa. Ab 1890 war Eritrea eine italienische Kolonie. Ab 1941 stand das Land unter britischer Verwaltung und war ab 1952 föderativ mit dem damaligen Kaiserreich Abessinien in Personalunion verbunden, ehe es 1961 als Provinz Eritrea des Äthiopischen Kaiserreiches von Haile Selassie zentralistisch eingegliedert wurde. Nach dreißigjährigem Unabhängigkeitskrieg wurde Eritrea 1993 erstmals seit 1961 wieder von Äthiopien unabhängig. Heute hat das Land eine der Form nach republikanische Verfassung und wird seit der Unabhängigkeit politisch von der "Volksfront für Demokratie und Gerechtigkeit" dominiert, die aus der Unabhängigkeitsbewegung der "Eritreischen Volksbefreiungsfront" hervorgegangen ist. Präsident ist seither Isayas Afewerki. Geographie. Die Trockensavanne am Roten Meer ist sehr heiß und trocken. Im Hochland des Landesinneren dagegen fallen jährlich bis zu 600 Millimeter Regen, vor allem in der Zeit von Juni bis September. Die höchste Erhebung des Landes ist der Soira mit 3018 Metern, südöstlich von Asmara gelegen. Der tiefste Punkt liegt mit 110 Metern unter dem Meeresspiegel in der Danakilsenke. Die größten Städte sind (Berechnung 2012): Asmara 665.000 Einwohner, Assab 99.000 Einwohner, Keren 80.000 Einwohner, Massaua 52.000 Einwohner, Mendefera 25.000 Einwohner und Barentu 19.000 Einwohner. Bevölkerung. Im internationalen Vergleich ist die Versorgungsquote mit Verhütungsmitteln in Eritrea schlecht. Es ist daher von einem starken Bevölkerungswachstum betroffen, welches zu einem großen Teil auf ungeplanten Schwangerschaften beruht. So hatten nach Angaben der Deutschen Stiftung Weltbevölkerung im Jahr 2015 nur 7% der verheirateten Frauen Zugang zu modernen Verhütungsmitteln. Es wird daher geschätzt, dass die Bevölkerung von 6,50 Mio im Jahr 2014 auf 14,30 Mio im Jahr 2050 anwachsen wird. Volksgruppen. In Eritrea gibt es neun größere ethnische Gruppen. Das größte Volk des Landes sind die Tigrinya (55 Prozent, nach anderen Angaben 50 Prozent). Sie leben auch in Äthiopien im Regionalstaat Tigray und die tigrinische Sprache ist neben dem Arabischen die Amtssprache des Landes. Die Volksgruppe, die in Eritrea Tigrinya genannt wird, entspricht sprachlich und kulturell den Tigray in Äthiopien, die äthiopischen Tigray und eritreischen Tigrinya sind aber aufgrund einer über längere Zeit getrennten politischen Geschichte nicht mehr als eine einheitliche Gruppe zu betrachten. Historisch bezeichneten sie sich selbst als Habescha. Schon in der Vergangenheit vor der Kolonialzeit waren die Tigrinisch-Sprecher überaus vielgestaltig in Form verschiedener autonomer Provinzen und Abstammungsgruppen und politisch nur selten vereint. Das zweitgrößte Volk sind die Tigre (30 Prozent). Zu den größeren Volksgruppen zählen noch die Saho (4 Prozent), die Bilen (2 Prozent) und die Rashaida (2 Prozent). Auch die Kunama machen zwei Prozent der Einwohner aus. Die kleinen ethnischen Gruppen Sokodas und Iliit an der sudanesischen Grenze betrachten sich als Kunama, sind aber geographisch und linguistisch getrennt (sie sprechen Dialekte des Ilit-Sokodas, auch West-Kunama genannt). Die Minderheit der Bedscha wird offiziell als Hedareb bezeichnet, was der Name einer Untergruppe ist. Weitere Minderheiten sind die Nera und die Afar. Außerdem gibt es noch sehr kleine Gruppen westafrikanischen Ursprungs (meist Haussa-Sprecher), die in Eritrea Tokharir genannt werden. Dabei ist zu beachten, dass die Informationslage dürftig ist. Außerdem leben inzwischen 500.000 bis eine Million Eritreer, zumeist orthodoxe Tigrinya, im Ausland, was bis zu einem Fünftel der Bevölkerung entspricht. Zahlreiche im Ausland lebende politische Flüchtlinge sind wieder in ihre Heimat zurückgekehrt. Eine verschwindend kleine Minderheit bilden europäischstämmige Eritreer, hauptsächlich im 19. Jahrhundert eingewanderte Italiener. Religion. Die Bevölkerung Eritreas teilt sich offiziell zu fast gleichen Teilen in Muslime (Sunniten) und Christen (Eritreisch-Orthodoxe Tewahedo-Kirche, Protestanten, Katholiken, Orthodoxe). Der vom US State Department herausgegebene "International Religious Freedom Report" ging für das Jahr 2007 von 50 Prozent Muslimen und 48 Prozent Anhängern des Christentums in Eritrea aus, für das Jahr 2006 noch von 60 Prozent Muslimen und 37 Prozent Christen. Die "Association of Religion Data Archives" beziffert 50,15 Prozent Muslime und 47,91 Prozent Christen. Daneben bestehen einige kleine einheimische Naturreligionen. Trotz der sehr unterschiedlichen Anschauungen und des daraus resultierenden Konfliktpotenzials bildet die Bevölkerung eine nationale Einheit. Die Christen leben vorwiegend in der Hochebene um Asmara und die muslimischen Teile der Bevölkerung hauptsächlich im Tiefland und in Küstennähe. In den letzten Jahren kam es zur systematischen Verfolgung nicht anerkannter christlicher Minderheiten durch die Regierung, weil diese nicht den ideologischen Paradigmen der Regierungsseite entsprechen. Evangelikale Nachrichtenagenturen aus den USA berichten inzwischen regelmäßig von Christenverfolgungen im Land. Amnesty International gab an, Angehörige staatlich verbotener Minderheitenkirchen seien bei extremer Hitze unter Erstickungsgefahr in Frachtcontainern gefangen gehalten worden. Sprachen. Die neun Sprachen der neun größten Ethnien gelten formell als gleichberechtigte Nationalsprachen. Diese sind Tigrinisch (2,3 Millionen Sprecher), Tigre (800.000), Afar (300.000), Saho, Kunama, Bedscha, Blin, Nara (je rund 100.000) und Arabisch, das von den Rashaida als Muttersprache und von etlichen anderen Eritreern als Zweitsprache gesprochen wird. Der Staat fördert die Verwendung dieser Sprachen in den Schulen bei den jeweiligen Volksgruppen und in Sendungen des nationalen Radiosenders. Es gibt keine offiziell festgelegte Amtssprache. De facto dienen aber vorwiegend Tigrinisch und Arabisch – die auch als Verkehrssprachen weit verbreitet sind – sowie Englisch als Arbeitssprachen der Regierung. Italienisch, ein Erbe der Kolonialzeit, wird vor allem von der älteren Bevölkerung verstanden. Viele Schilder und Läden in Asmara sind auch auf Italienisch beschriftet. Tigrinisch und Italienisch werden in der Wirtschaft, im Handel und im Gewerbe am häufigsten gebraucht. Es existiert zudem eine Schule in Asmara, in der Italienisch gelehrt wird – die "Scuola Italiana di Asmara". Italienisch verliert allerdings an Bedeutung, während die Verbreitung des Englischen zunimmt. Die Sprachen Eritreas gehören zu zwei der großen Sprachfamilien in Afrika: Tigrinisch, Tigre und Arabisch sind semitische Sprachen, Saho, Bilen, Afar und Bedscha sind kuschitische Sprachen – beides Zweige der afroasiatischen Sprachfamilie. Nara (Baria) und Kunama/Baza gehören hingegen zur Familie der Nilosaharanischen Sprachen. Das Dahalik, das auf Inseln des Dahlak-Archipels von einigen Tausend Personen gesprochen wird, wurde früher als Dialekt des Tigre betrachtet, ist aber nach neueren linguistischen Erkenntnissen eine eigenständige semitische Sprache. Soziales. a> im Hochland während der Regenzeit im Juli Bildung. Formal besteht Schulpflicht für Kinder im Alter von 7 bis 13 Jahren, dennoch besuchen nur zwischen 39 und 57 Prozent der Schulpflichtigen eine Grundschule und nur rund 21 Prozent eine weiterführende Schule. Die Schulen sind schlecht ausgestattet, die durchschnittliche Klassenstärke liegt bei 63 (Grundschulen) beziehungsweise 97 (weiterführende Schulen) Schülern je Klasse. Mädchen sind deutlich benachteiligt, der Anteil der Analphabeten liegt bei 30 Prozent. Gesundheit. Die Lebenserwartung wird für 2012 auf 63 Jahre geschätzt. Die Fruchtbarkeitsrate lag 2012 bei 4,7 Kindern pro Frau. Die Kindersterblichkeit liegt bei 74 auf 1000 Lebendgeburten, womit Eritrea auf dem 51. Platz weltweit liegt. Die Müttersterblichkeit konnte zwischen 1990 bis 2013 um 75 % gesenkt werden. 2002 waren noch fast 89 % der Frauen zwischen 15 und 49 Jahren von der Weiblichen Genitalverstümmelung betroffen, nach 94,5 % im Jahre 1995. Deutlicher zeigte sich der Erfolg der Aufklärungsarbeit an der 2002 auch erhobenen Prävalenz unter den Töchtern, je nach Bildungsstand der Mütter 40 % bis 67,5 %, im Mittel 62,5 %. Am 31. März 2007 trat ein gesetzliches Verbot der Frauenbeschneidung in Kraft. Geschichte. a>-Gebäude in Asmara, ein typisches Beispiel für die futuristische italienische Kolonialarchitektur der 1930er Jahre Seit der historisch erforschten Frühzeit um 500 v. Chr. herrschten verschiedene Mächte über das Land. Auf dem heutigen Staatsgebiet befand sich das Aksumitische Reich. Während des Mittelalters unterstand das christliche Hochland den äthiopischen Kaisern, in den Küstengegenden herrschten lokale Fürsten. Mit der Eroberung durch die Türken wurde Eriträa 1554 für mehr als 300 Jahre eine Kolonie des Osmanischen Imperiums, während der insbesondere die der äthiopisch-orthodoxen Kirche angehörenden Ureinwohner der Küstengegenden zwangsislamisiert wurden. Das Gebiet war die osmanische Provinz Habesch mit der Hauptstadt Massaua. Erst 1890 wurde Eritrea eine italienische Kolonie unter dem neu geschaffenen Namen "Colonia Eritrea". Nach dem Überfall Italiens auf Äthiopien wurde Eritrea 1936 in das neu gegründete Italienisch-Ostafrika eingegliedert. Es erhielt große Gebiete Nordäthiopiens dazu, so wurde der größte Teil Tigrays Teil von Eritrea. 1941 wurde die Zugehörigkeit zu Italien durch alliierte Streitkräfte beendet. Das Gebiet wurde unter die britische Militärverwaltung gestellt und 1947 – nach der formellen Aufgabe Eritreas durch Italien – britisches Mandatsgebiet. Nach dem Zweiten Weltkrieg entschieden sich die Vereinten Nationen für eine Föderation der Provinz Eritrea mit dem Kaiserreich Abessinien. Flagge Eritreas als autonome Region des Kaiserreichs Äthiopiens bis 1961 Nachdem der äthiopische Kaiser Haile Selassie die politischen Rechte der eritreischen Bevölkerung von 1952 bis 1961 systematisch ausgehöhlt und anschließend 1961 durch die (Selbst-)Auflösung des eritreischen Parlaments Eritrea annektiert hatte, griffen eritreische Separatisten zu den Waffen. Die Unabhängigkeitsbewegungen erhielten in den 1960ern und den darauffolgenden Jahren großen Zulauf. Der Unabhängigkeitskrieg endete nach dreißig Jahren 1991 mit dem Sieg der Eritreischen Volksbefreiungsfront (EPLF) und verschiedener weiterer äthiopischer Rebellengruppen (u. a. die EPRDF) und der Entmachtung des äthiopischen Derg-Regimes. Die EPRDF bildete eine neue Regierung und erlaubte die Unabhängigkeit Eritreas. Diese wurde nach einer durch die UN überwachten Volksabstimmung am 24. Mai 1993 erklärt, bei der 99,83 % der Teilnehmer für die Unabhängigkeit stimmten. Dieser Tag ist seither Nationalfeiertag Eritreas. UNMEE-Soldaten auf Patrouille in Eritrea In den darauffolgenden Jahren verschlechterten sich die Beziehungen zwischen Äthiopien und Eritrea. 1998 brach ein Grenzkrieg der beiden Staaten aus, der in einer Patt-Situation endete. Seitdem war die UN-Beobachtermission UNMEE in der Grenzregion stationiert, um den rechtmäßigen Grenzverlauf zu markieren, der 2002 von einer unabhängigen Grenzkommission festgelegt wurde. Im Rahmen eines Schiedsspruches der Äthiopisch-Eritreischen Grenzkommission des Ständigen Internationalen Schiedshofes in Den Haag unterzeichneten Äthiopien und Eritrea das Abkommen, in dem sich beide zur Anerkennung des Grenzverlaufs bereiterklärten. Tatsächlich bestehen jedoch weiterhin Differenzen, zumal keine der beiden Seiten alle Ansprüche erfüllt bekam; das umstrittene Gebiet um Badme wurde der eritreischen Seite zugesprochen, Äthiopien protestierte daraufhin und verlangte eine sofortige Korrektur des Schiedsspruchs. Bis zum heutigen Tage (2015), konnte daher die Umsetzung der Grenzdemarkierung nicht wie vereinbart vollzogen werden. Sämtliche UN-Truppen, die eigentlich zur Friedenssicherung abgestellt worden waren, wurden von eritreischer Seite aus Protest über die äthiopische Blockadehaltung massiv in ihren Arbeiten behindert. 2008 entschied der Sicherheitsrat der Vereinten Nationen, das Mandat der UNMEE nicht weiter zu verlängern. Politik. Eritrea besitzt eine offiziell demokratische Verfassung. Wahlen finden auf regionaler und nationaler Ebene statt (Baito). Der Präsident ist Staatsoberhaupt, Oberbefehlshaber der Streitkräfte ist Sebat Efrem. Das Land übernimmt keine ausländische Staatsform als Modell. Ein Bericht der Nichtregierungsorganisation Freedom House lautet: „Eritrea is not an electoral democracy.“ (dt.: „Eritrea ist keine Wahldemokratie.“) Politische Struktur. Regierungsgebäude in Asmara, der Hauptstadt von Eritrea Das Staatsoberhaupt und der Regierungschef sind die höchsten Instanzen der eritreischen Übergangsregierung. Zusammen mit der 24-köpfigen Staatsvertretung, bestehend aus 16 Ministern und weiteren Staatsvertretern, bilden sie die Exekutive Eritreas. Die Legislative wird von einer 150 Mitglieder umfassenden eritreischen Nationalversammlung gebildet. Von den 150 sind 75 Mitglieder des Zentralkomitees der Volksfront für Demokratie und Gerechtigkeit (PFDJ) und 75 Volksvertreter, die direkt vom Volk gewählt werden. Unter diesen 75 Vertretern des Volkes müssen elf Frauen und 15 Emigranten sein. Die Nationalversammlung wählt den Präsidenten, erlässt Gesetze und Verordnungen und kümmert sich um deren Einhaltung. Die Judikative Eritreas besteht aus einem Obersten Gerichtshof, 10 Provinzgerichten und 29 Bezirksgerichten. Parteien. Die Politik Eritreas wird von der Volksfront für Demokratie und Gerechtigkeit ("PFDJ") dominiert. Die Volksfront für Demokratie und Gerechtigkeit, die aus der früheren bewaffneten Unabhängigkeitsbewegung der Eritreischen Volksbefreiungsfront ("EPLF") hervorgegangen ist, nimmt mit ihrem Parteivorsitzenden Isayas Afewerki auch gleichzeitig den Posten des Staatspräsidenten und Regierungschefs in Anspruch. Eritrea gilt daher als Einparteienstaat. Auch wenn von offizieller Seite bekräftigt wird, dass man sich für ein Parteiengesetz einsetze, sind diese Behauptungen eher kritisch zu sehen. Neben der PFDJ gibt es noch eine Reihe anderer politischer Parteien im Lande, die aber alle nicht zu Wahlen zugelassen und damit quasi illegal sind. Menschenrechtslage. Aufgrund andauernder Menschenrechtsverletzungen wurde im Oktober 2012 Sheila Keetharuth zur Sonderberichterstatterin zur Situation der Menschenrechte für Eritrea der Vereinten Nationen ernannt. Ihr aktueller Bericht wurde dem Menschenrechtsrat im Zuge der Resolution 20/20 am 28. Mai 2013 vorgestellt. Darin stellt sie schwerwiegende Menschenrechtsverletzungen wie willkürliche Tötungen und Verhaftungen, erzwungenes Verschwindenlassen, Folter sowie fehlende Meinungs-, Religions- und Versammlungsfreiheit fest. Auf der jährlich erscheinenden Rangliste der Pressefreiheit, die von der Pressefreiheitsorganisation "Reporter ohne Grenzen" veröffentlicht wird, nimmt das Land 2015 den 180. und damit wiederholt den letzten Platz ein. Eritrea ist nach dieser Darstellung das Land mit der geringsten Pressefreiheit. Amnesty International zufolge werden Regierungskritiker, Deserteure und Eritreer, die im Ausland um Asyl ersucht haben, inhaftiert. Insgesamt betrachten viele internationale Beobachter das politische System in Eritrea als repressiv oder gar als Diktatur. Die Regierung hält dem entgegen, dass sich Eritrea nach wie vor im Übergang zur Demokratie befinde, von Äthiopien bedrängt werde und sich deswegen bis heute praktisch im Krieg befinde. Ein Sturz der jungen Regierung werde dadurch verhindert. Staatlich anerkannt sind die orthodoxe, die katholische und die evangelisch-lutherische Kirche sowie der Islam. Nicht anerkannte religiöse Minderheiten wie evangelikale Christen und die Zeugen Jehovas sind besonders seit 2002 von staatlichen Repressionen und Inhaftierung betroffen. Zu den wegen ihres Glaubens Inhaftierten gehörte Anfang 2008 auch eine Gruppe von etwa 70 Muslimen, die sich weigerten, den von der Regierung eingesetzten Mufti als ihr Oberhaupt anzuerkennen. In dem jährlich veröffentlichten Weltverfolgungsindex (WVI) von Open Doors, welcher die Länder mit der stärksten Christenverfolgung aufzeigt und analysiert, liegt Eritrea 2014 an zwölfter Stelle. Demnach gehört das Land zu den Ländern auf der Welt, in denen Christen aufgrund ihrer Religionszugehörigkeit am stärksten unterdrückt werden. Außenpolitik. Die Beziehungen Eritreas zu seinen Nachbarstaaten sind gespannt. Eritrea wie Äthiopien werden beschuldigt, insbesondere seit 2006/2007 ihre Streitigkeiten nunmehr als „Stellvertreterkrieg“ in Somalia auszutragen. Äthiopien unterstützt die Übergangsregierung Somalias und intervenierte von Ende 2006 bis Anfang 2009 militärisch; Eritrea beherbergt Teile der somalischen Opposition im Exil. Vorwürfe, wonach es Islamisten und andere Gegner der Übergangsregierung illegal mit Waffen beliefert habe, hat es zurückgewiesen. Die separatistische Ogaden National Liberation Front in Äthiopien hat Unterstützung von Eritrea erhalten. Mitte 2008 kam es zu mehreren Zusammenstößen eritreischer und dschibutischer Truppen im umstrittenen Grenzgebiet beider Staaten. Die USA und der Sicherheitsrat der Vereinten Nationen beschuldigten Eritrea daraufhin der militärischen Aggression. Im Ausland lebende Eritreer müssen eine „Aufbausteuer“ in Höhe von zwei Prozent ihres Bruttoeinkommens an den eritreischen Staat zahlen. Diese Abgabe wird von örtlichen Interessenverbänden oder direkt von der Eritreischen Botschaft eingetrieben. Bei Nichtbezahlung werden keine offiziellen Dokumente ausgestellt, es besteht keine Möglichkeit, Erbschaften anzutreten und Geschäftstätigkeiten aufzunehmen, zudem drohen Repressalien gegen im Land lebende Verwandte. Schüler, Studenten oder Arbeitslose sind von der Abgabe befreit. Diese Abgabe, die von hunderttausenden Auslandseritreern erhoben wird, auch wenn sie eine andere Staatsbürgerschaft besitzen, stellt eine der größten Geldquellen der eritreischen Regierung dar. Verwaltungsgliederung. Bis 1996 war Eritrea in zehn Regionen ("Zoba") gegliedert. Diese noch aus der italienischen Kolonialzeit stammenden Regionen und ihre Regionshauptstädte waren Akkele Guzay (Adi Keyh), Asmara (Asmara), Barka (Agordat), Denkalia (Assab), Gash Setit (Barentu), Hamasien (Asmara), Sahel (Nakfa), Semhar (Massaua), Senhit (Keren) und Seraye (Mendefera). Tourismus. Der Tourismus im Land beruht weitestgehend auf wenigen Individualurlaubern, im Ausland lebenden eritreischen Bürgern auf Heimatbesuch und einer kleinen Anzahl ausländischer Reiseveranstalter, die mit in der Regel kleinen Gruppen das Land bereisen. Themengebiete sind unter anderem archäologische Studien, italienische Kolonialgeschichte, Reisen für professionelle Fotografen zu den ethnischen Gruppen des Landes und Reisen für Eisenbahnfans. Badeurlaub wird auch mangels einer geeigneten touristischen Infrastruktur kaum angeboten. Landwirtschaft. Etwa 75 % der Bevölkerung sind in der Landwirtschaft beschäftigt. Trotzdem müssen Nahrungsmittel importiert werden, auch weil während des Krieges und darüber hinaus mindestens 300.000 Personen zum Militärdienst eingezogen waren und daher Arbeitskräfte in der Landwirtschaft und anderen Wirtschaftsbereichen fehlten. Durch Dürre und Diktatur der Regierung kam es zu schweren Hungersnöten. Das Hauptanbaugebiet ist das westliche Tiefland und das Hochland. Angebaut wird vor allem Getreide, Baumwolle, Mais, diverse Gemüsesorten sowie auch eine Vielzahl an verschiedenen Obstsorten. Industrie. Eritrea verfügt über Bodenschätze wie Gold, Silber, Kupfer, Schwefel, Nickel, Pottasche, Marmor, Zink und Eisen. Salz wird in großem Umfang produziert. Diese Rohstoffe fördert Eritrea schon seit längerer Zeit für den weltweiten Export. Es gibt Zement-, Textil- und Nahrungsmittelindustrie, darunter mehrere Brauereiunternehmen, Alkohol- und Weinproduktion. Eritrea verfügt über eine Vielzahl von Ersatzteil- und Möbelunternehmen. Seit einigen Jahren werden in der eritreischen Industriestadt Dekemhare Busse, Transport-, Reinigungs- und Müllwagen von dem eritreischen Unternehmen Tesinma produziert. Staatshaushalt. Der Staatshaushalt umfasste 2009 Ausgaben von umgerechnet 576,1 Millionen US-Dollar, dem standen Einnahmen von umgerechnet 232,1 Millionen US-Dollar gegenüber. Daraus ergibt sich ein Haushaltsdefizit in Höhe von 20,3 Prozent des BIP. Im Jahr 2008 betrug die Staatsverschuldung 2,6 Milliarden US-Dollar oder 175,2 Prozent des Bruttoinlandsproduktes (BIP) Eritreas. Militär. Die Streitkräfte sind aus der Eritreischen Volksbefreiungsfront (EPLF) hervorgegangen, die für die Unabhängigkeit Eritreas von Äthiopien kämpfte. Die Beziehungen Eritreas zum Ausland sind gespannt. Unter anderem bedingt durch den dreißigjährigem Unabhängigkeitskrieg gegen Äthiopien, wird die Eigenständigkeit Eritreas stark betont, was zum Teil als Isolationismus bezeichnet wird. Es kam in der jungen Geschichte des Landes zu mehreren Grenzkonflikten, insbesondere zum erneuten Krieg gegen Äthiopien 1998–2000. Dementsprechend nimmt das Militär in Eritrea eine große Rolle ein. Infrastruktur. Das Straßennetz in Eritrea ist für afrikanische Verhältnisse relativ gut ausgebaut. Allerdings wurde die von den Italienern sehr gut ausgebaute Infrastruktur zunächst von den Briten und später von den Äthiopiern weitestgehend zerstört, so dass heute nur noch ein kleiner Teil davon übriggeblieben ist. Die meisten Straßen sind Schotterpisten. Zwischen Massaua und Asmara gibt es eine Eisenbahnverbindung, auf der planmäßig aber nur ein Ausflugszug mit einer Dampflokomotive recht regelmäßig zwischen Asmara nach Nefasit verkehrt. Zudem kommen immer wieder Sonderzüge für Eisenbahnfans auf die Strecke. Es wird erwogen, die historische Strecke zwischen Asmara und Agordat (westliches Tiefland) wieder aufzubauen. Große Tiefwasserhäfen sind Massaua und Assab, in Tio befindet sich ein kleinerer Hafen im Aufbau. Flughäfen finden sich in Asmara, außerdem in Massaua, Sawa, Tessenai und Assab. In Nakfa und Barentu gibt es lange Schotterpisten, die jedoch kaum angeflogen werden. Flugverbindungen bestehen zu den europäischen Metropolen Amsterdam und Rom mit Eritrean Airlines, von Kairo mit Egypt Air und über Sanaa bzw. Khartoum mit Yemenia. Sport. Der wichtigste Sport in Eritrea ist der Radsport. Er kam mit den italienischen Kolonialherren ins Land und 1946 wurde erstmals die Giro d’Eritrea ausgetragen. An den Wochenenden werden heute in Eritrea anspruchsvolle Straßenrennen abgehalten. International bekannte Straßenradsportler sind Daniel Teklehaimanot, Natnael Berhane und Merhawi Kudus, die zurzeit (Stand 2015) alle bei dem südafrikanischen Radsportteam MTN-Qhubeka unter Vertrag stehen und Radrennen auf höchster sportlicher Ebene bestreiten. Im Jahr 2015 waren Teklehaimanot und Kudus nicht nur die ersten Eritreer, sondern auch die ersten Schwarzafrikaner überhaupt, die bei der Tour de France teilgenommen haben. In deren Verlauf trug Teklehaimanot sogar für mehrere Tage das Gepunktete Trikot des Führenden in der Bergwertung, was auf den Straßen Asmaras mit einem Autokorso gefeiert wurde. Der jüngste Marathonweltmeister der Geschichte ist Ghirmay Ghebreslassie aus Eritrea. Erst 19-jährig gewann er den Marathon der Weltmeisterschaft im August 2015 in Peking. Euklid. Euklid von Alexandria ("Eukleidēs", latinisiert) war ein griechischer Mathematiker, der wahrscheinlich im 3. Jahrhundert v. Chr. in Alexandria gelebt hat. Die überlieferten Werke umfassen sämtliche Bereiche der antiken griechischen Mathematik: das sind die theoretischen Disziplinen Arithmetik und Geometrie ("Die Elemente", "Data"), Musiktheorie ("Die Teilung des Kanon"), eine methodische Anleitung zur Findung von planimetrischen Problemlösungen von bestimmten gesicherten Ausgangspunkten aus ("Porismen") sowie die physikalischen bzw. angewandten Werke ("Optik", "astronomische Phänomene"). In seinem berühmtesten Werk "Elemente" (altgriechisch "Stoicheia" ‚Anfangsgründe‘, ‚Prinzipien‘, ‚Elemente‘) trug er das Wissen der griechischen Mathematik seiner Zeit zusammen. Er zeigte darin die Konstruktion geometrischer Objekte, natürlicher Zahlen sowie bestimmter Größen und untersuchte deren Eigenschaften. Dazu benutzte er Definitionen, Postulate (nach Aristoteles Grundsätze, die akzeptiert oder abgelehnt werden können) und Axiome (nach Aristoteles allgemeine und unbezweifelbare Grundsätze). Viele Sätze der "Elemente" stammen offenbar nicht von Euklid selbst. Seine Hauptleistung besteht vielmehr in der Sammlung und einheitlichen Darstellung des mathematischen Wissens sowie der strengen Beweisführung, die zum Vorbild für die spätere Mathematik wurde. Leben. Über das Leben Euklids ist fast nichts bekannt. Aus einer Notiz bei Pappos hat man geschlossen, dass er im ägyptischen Alexandria wirkte. Die Lebensdaten sind unbekannt. Die Annahme, dass er um 300 v. Chr. gelebt hat, beruht auf einem Verzeichnis von Mathematikern bei Proklos, andere Indizien lassen hingegen vermuten, dass Euklid etwas jünger als Archimedes (ca. 285–212 v. Chr.) war. Aus einer Stelle bei Proklos hat man auch geschlossen, dass er um das Jahr 360 v. Chr. in Athen geboren wurde, dort seine Ausbildung an Platons Akademie erhielt und dann zur Zeit Ptolemaios’ I. (ca. 367–283 v. Chr.) in Alexandria wirkte. Er sollte nicht mit Euklid von Megara verwechselt werden, wie das bis in die frühe Neuzeit häufig geschah, so dass der Name Euklids von Megara auch auf den Titeln der Ausgaben der Elemente erschien. Geometrie – Arithmetik – Proportionslehre. Die "Elemente" waren vielerorts bis ins 20. Jahrhundert hinein Grundlage des Geometrieunterrichts, vor allem im angelsächsischen Raum. Neben der pythagoreischen Geometrie enthalten Euklids "Elemente" in Buch VII-IX die pythagoreische Arithmetik, die Anfänge der Zahlentheorie (die bereits Archytas kannte) sowie die Konzepte der Teilbarkeit und des größten gemeinsamen Teilers. Zu dessen Bestimmung fand er einen Algorithmus, den euklidischen Algorithmus. Euklid bewies auch, dass es unendlich viele Primzahlen gibt, nach ihm Satz des Euklid genannt. Auch Euklids Musiktheorie baut auf der Arithmetik auf. Ferner enthält das Buch V die Proportionslehre des Eudoxos, eine Verallgemeinerung der Arithmetik auf positive irrationale Größen. Veranschaulichung von Euklids fünftem Postulat Das bekannte fünfte Postulat der ebenen euklidischen Geometrie (heute Parallelenaxiom genannt) fordert: Wenn eine Strecke "s" beim Schnitt mit zwei Geraden "g" und "h" bewirkt, dass die innen auf derselben Seite von "s" entstehenden Winkel α und β zusammen kleiner als zwei rechte Winkel sind, dann treffen sich die beiden Geraden "g" und "h" auf eben der Seite von "s", auf der die Winkel α und β liegen. Schneiden also zwei Geraden eine Strecke (oder Gerade) so, dass die auf einer Seite von der Strecke und den zwei Geraden eingeschlossenen zwei Winkel kleiner als 180° sind, dann schneiden sich die beiden Geraden auf dieser Seite und begrenzen zusammen mit der Strecke (oder dritten Geraden) ein Dreieck. Für die Wissenschaftsgeschichte ist die Beschäftigung mit dem Parallelenaxiom von großer Bedeutung, weil sie viel zur Präzisierung mathematischer Begriffe und Beweisverfahren beigetragen hat. Im Zuge dessen wurde im 19. Jahrhundert auch die Unzulänglichkeit der euklidischen Axiome offenkundig. Eine formale Axiomatik der euklidischen Geometrie findet sich in David Hilberts Werk "Grundlagen der Geometrie" (1899), das zu vielen weiteren Auflagen und anschließenden Forschungen geführt hat. Darin wird zum ersten Mal ein vollständiger Aufbau der euklidischen Geometrie geleistet, bis zu der Erkenntnis, dass jedes Modell des Hilbertschen Axiomensystems isomorph zum dreidimensionalen reellen Zahlenraum mit den üblichen Deutungen der geometrischen Grundbegriffe (wie Punkt, Gerade, Ebene, Länge, Winkel, Kongruenz, Ähnlichkeit usw.) in der Analytischen Geometrie ist. Schon seit der Antike versuchten viele bedeutende Mathematiker vergeblich, das Parallelenaxiom mit den übrigen Axiomen und Postulaten zu beweisen (es wäre dann entbehrlich). Erst im 19. Jahrhundert wurde die Unverzichtbarkeit des Parallelenaxioms mit der Entdeckung einer "nichteuklidischen Geometrie" durch Bolyai und Lobatschewski klar. Die Poincaré'sche Halbebene H (Henri Poincaré) ist ein Modell für ein solches Axiomensystem, in dem das Parallelenaxiom nicht gilt. Somit kann das Parallelenaxiom nicht aus den übrigen Axiomen gefolgert werden (siehe nichteuklidische Geometrie). Musiktheorie. In Euklids musiktheoretischer Schrift "Die Teilung des Kanon" (griech. "Katatomē kanonos", lat. "Sectio canonis"), die als authentisch einzustufen ist, griff er die Musiktheorie des Archytas auf und stellte sie auf eine solidere akustische Basis, nämlich auf Frequenzen von Schwingungen (er sprach von Häufigkeit der Bewegungen). Er verallgemeinerte dabei den Satz des Archytas über die Irrationalität der Quadratwurzel formula_1 und bewies ganz allgemein die Irrationalität beliebiger Wurzeln formula_2. Der Grund für diese geniale Verallgemeinerung ist seine Antithese gegen die Harmonik des Aristoxenos, die auf rationalen Vielfachen des Tons (Halbton... n-tel-Ton) aufbaut. Denn in der pythagoreischen Harmonik hat der Ton (Ganzton) die Proportion 9:8, was Euklid zu seiner Antithese „Der Ton ist weder in zwei noch in mehrere gleiche Teile teilbar“ veranlasste; sie setzt allerdings kommensurable Frequenzen voraus, die in der pythagoreischen Harmonik bis zum Ende des 16. Jahrhunderts (Simon Stevin) angenommen wurden. Die Antithese „Die Oktave ist kleiner als 6 Ganztöne“ stützte er auf die Berechnung des pythagoreischen Kommas. Ferner enthält Euklids "Teilung des Kanons" – wie ihr Titel signalisiert – die älteste überlieferte Darstellung eines Tonsystems am Kanon, einer geteilten Saite, und zwar eine pythagoreische Umdeutung des vollständigen diatonischen Tonsystems des Aristoxenos. Euklids Tonsystem wurde durch Boethius tradiert; es wurde in der Tonbuchstaben-Notation Odos zur Grundlage des modernen Tonsystems. Werke. Erhaltene Schriften von Euklid sind neben den "Elementen", den "Data" und der "Teilung des Kanons": "Optika", "Über die Teilung der Figuren" (auszugsweise erhalten in einer arabischen Übersetzung). Von weiteren Werken sind nur die Titel bekannt: u. a. "Pseudaria" (Trugschlüsse), "Katoptrika" und "Phainomena" (Astronomie). Erfindung. Eine Erfindung ist eine schöpferische Leistung, durch die eine neue Problemlösung, also die Erreichung eines neuen Zieles mit bekannten Mitteln oder eines bekannten Zieles mit neuen Mitteln oder eines neuen Zieles mit neuen Mitteln, ermöglicht wird. Von Erfindungen wird besonders oft im Zusammenhang mit technischen Problemlösungen gesprochen, etwa von der Erfindung des Motors oder des Dynamits. Solche Erfindungen können unter Umständen durch ein Patent oder als Gebrauchsmuster geschützt werden. Erfindungen gibt es auch im kulturellen Bereich. So gilt etwa die moderne Oper als Erfindung Claudio Monteverdis. Erfindung und Entdeckung. Vom Begriff der Erfindung ist die Entdeckung abzugrenzen. Eine Entdeckung betrifft bereits Vorhandenes, das bislang unbekannt und dessen Nutzen unbestimmt ist. Damit hat sich infolge der Entdeckung nichts geändert (außer der damit verbundene Wissenszuwachs eines Einzelnen oder der Allgemeinheit). Beispiele sind die Entdeckung der Schwerkraft, eines Planetoiden, eines chemischen Stoffes oder einer Tierart. Eine Erfindung dagegen betrifft stets eine neue Erkenntnis, die bisher nicht dagewesen ist. Diese Sache steht jedoch mit bereits Bekanntem in einem Zusammenhang, sie tritt nicht als etwas völlig Neues auf. Es werden an bekannten Gegenständen oder Verfahren Veränderungen vorgenommen, so dass ihre Wirkung qualitativ oder quantitativ verbessert wird. Heute neigt man dazu, Erfindungen nur auf technische Verfahren oder Gegenstände zu beziehen und abstrakte Dinge, wie etwa die Erfindung eines neuen Versmaßes, davon auszunehmen. Eine exaktere Definition lautet: Entdeckung ist die erstmalige Beschreibung eines Naturgesetzes (z. B. elektrische Kraft zwischen Atomen, Coulombpotential) oder eines aus Naturgesetzen abgeleiteten Gesetzes (Reaktionsgeschwindigkeit einer chemischen Reaktion). Erfindung hingegen ist die Anwendung der Naturgesetze in bisher nicht dagewesener Konstellation zur Lösung eines gegebenen Problems (Technik). Somit ist jede erstmalige Beschreibung oder Anwendung einer Technik eine Erfindung, zum Beispiel ein Sonnensegel für Raumschiffe. Ein neues Versmaß wendet keine Naturgesetze an und ist damit keine Erfindung, selbst wenn diese Schöpfung neu und genial wäre. Erste Erfindungen. Erste Erfindungen machte bereits der Naturmensch. Sie betrafen insbesondere Werkzeuge, die eine bessere Verwendung von Arm und Hand zur Folge hatten. Nachdem der Mensch die Entdeckung gemacht hatte, dass ein Stein in der Hand die Wirkung des Armes erhöhte, konnte er dem Stein eine besondere Form geben, um dessen Wirkungsweise zu erhöhen. Das führte unter anderem zur Erfindung des Faustkeils, des Beils, der Axt, des Hammers, der Sichel und des Schwerts. Kritiker argumentieren, der Mensch könne sich nicht als der erste Erfinder bezeichnen. Heute sei aus der Zoologie bekannt, dass sogar „einfache“ Tiere, wie Vögel, die erforderlichen Fähigkeiten besäßen, um Erfindungen zu machen und diese an Artgenossen weiterzugeben. Höhere Säugetiere (Schimpansen, Gorillas) seien hierin sogar sehr gut. Allerdings ist es auch bei Bejahung dieses Ansatzes kaum möglich, ein solches Geschehen in den Bereich der Technik einzuordnen, was für echte Erfindungen definitionsgemäß erforderlich wäre. Der Prozess des Erfindens (Geneplore Model). In der generativen Phase werden so genannte preinventive forms entwickelt; in der explorativen Phase werden diese preinventive forms hinsichtlich ihrer Funktion interpretiert und verbessert. Finke und andere prüften diesen Ansatz, in dem sie Versuchspersonen unter verschiedenen Experimentalbedingungen drei unterschiedliche geometrische Figuren (beispielsweise ein Würfel, ein Halbkreis, eine Schnur) zu komplexen Objekten kombinieren ließen. Dabei stellte sich heraus, dass die Versuchspersonen bei Vorgabe der Figuren und der zu erstellenden Objektkategorie häufiger kreative Ergebnisse zustande brachten als ohne diese Vorgaben. Eine Beschränkung durch die Aufgabe führt also zu kreativeren Ergebnissen. In weiteren Experimenten stellte sich heraus, dass auch dann besonders kreative Ergebnisse erzielt werden, wenn Versuchspersonen zunächst nur die drei Objekte kombinieren, ohne Objektkategorie oder Funktion zu berücksichtigen (bzw. wenn sie zunächst preinventive forms synthetisierten). Die preinventive forms besitzen nach Finke und andere eine funktionsunabhängige Ästhetik und zeichnen sich außerdem durch "implicit meaningfulness" aus, so dass sie vielseitig und flexibel interpretierbar sind. Diese Ergebnisse legen nahe, bei kreativen Aufgabenstellungen häufiger das Prinzip "function-follows-form" anzuwenden. TRIZ ist ein formalisierter Prozess zu konkreten Problemlösungsansätzen, die zu Erfindungen führen können. Wirkung von Erfindungen. Unsere westliche Zivilisation beruht weitgehend auf dem Ge- und Verbrauch von Gütern (und Dienstleistungen). Diese müssen erarbeitet werden. Das wird im Allgemeinen zumindest in seiner Quantität als unangenehm erlebt, daher sind die Menschen weitgehend bestrebt, möglichst effektiv zu arbeiten (Werkzeuggebrauch) beziehungsweise die nötige Arbeit von Maschinen verrichten zu lassen – ein Ziel, dem auch die meisten Erfindungen dienen. 1. Material: Man braucht vielerlei haltbare, belastbare Werkzeuge 2. Energie: Die Werkzeuge müssen hergestellt, dann muss damit gearbeitet werden. 3. Information: Werkzeug-Bau und -Benutzung erfordern Wissen, Wissensverarbeitung, -weitergabe. Patentfähige Erfindungen. Eine patentfähige Erfindung ist eine Im deutschen, österreichischen und Schweizer Patentrecht ist geregelt, dass die Erfindung auf einem technischen Gebiet liegen muss. Damit wurde klargestellt, dass ein Patent nur für eine technische Erfindung erteilt werden kann, aber auch in jedem technischen Gebiet gleichermaßen erteilt werden muss. Nicht patentfähige Erfindungen. Entdeckungen sind nicht patentierbar. Ebenso wenig werden wissenschaftliche Theorien, physikalische Gesetze oder mathematische Modelle als Erfindungen angesehen; auch sie werden entdeckt. Auch geistig-schöpferische (sprich kreative) Werke aus Literatur, Musik oder Kunst werden nicht als Erfindung eingestuft. Ein Rechtsschutz solcher Werke kann sich aus dem Urheberrecht ergeben. Computerprogramme sind in der Regel keine patentfähigen Erfindungen. Ausnahmen bestehen, wenn das Programm zur Steuerung von Naturkräften verwendet wird (z. B. Airbag, elektronische Motorsteuerung). Die genaue Abgrenzung wird derzeit sehr kontrovers diskutiert (siehe dazu Software-Patente). Im Europäischen Patentübereinkommen (EPÜ) werden in Artikel 52 die Ausschlüsse vom patentrechtlichen Erfindungsbegriff aufgeführt. Eklat. Ein Eklat, in der Schweiz auch Eclat geschrieben, ist ein unerfreulicher Vorfall, der in der Öffentlichkeit für Aufsehen sorgt. Begriffsgeschichte. Das Wort wurde in der zweiten Hälfte des 17. Jahrhunderts aus dem Französischen ("éclat", eigentlich „plötzliches lautes Geräusch, Knall, Krach“, auch „Splitter, Bruchstück“, zu "éclater" „zerplatzen, knallen“) ins Deutsche entlehnt und lange in zwei verschiedenen – bereits im Französischen vorhandenen – Bedeutungen gebraucht. Bis Mitte des 19. Jahrhunderts gebräuchlich, heute aber veraltet, ist der Wortsinn „glanzvoller Auftritt, Pracht, Prunk, Pomp, Glanz, Gloria‘“ in Wendungen wie „großen Eklat machen“ oder „mit großem Eklat feiern.“ Heute wird das Wort im Deutschen nur noch in der Bedeutung „ärgerliches, Aufsehen erregendes gesellschaftliches oder politisches Ereignis“ bzw. „heftiger, plötzlicher Streit“ gebraucht, also weitgehend synonym zum ebenfalls aus dem Französischen entlehnten „Skandal“. Sinnverwandt ist die „Affäre,“ womit aber eher missliche Angelegenheiten langwieriger Art bezeichnet werden. Che Guevara. Ernesto Rafael Guevara de la Serna, genannt Che Guevara oder einfach Che (* offiziell 14. Juni 1928, vielleicht bereits 14. Mai 1928 in Rosario, Argentinien; † 9. Oktober 1967 in La Higuera, Bolivien), war ein marxistischer Revolutionär, Guerillaführer, Arzt und Autor. Er war von 1956 bis 1959 ein zentraler Anführer () der Rebellenarmee der Kubanischen Revolution und ist neben Fidel Castro deren wichtigste Symbolfigur. Guevara stammte aus einer argentinischen bürgerlichen Familie. Bereits seine während des Medizinstudiums erstellten Reisetagebücher hatten literarische Qualität und wurden mehrmals verfilmt. Einzelne seiner Schriften und Reden beeinflussten revolutionäre Strömungen weit über Kuba hinaus. Sein Leben wie sein Sterben und der posthume Personenkult um ihn waren und sind Gegenstand vielfältiger Betrachtungen in Filmen, Büchern und anderen Medien. Die US-Zeitschrift "Time" zählte ihn 1999 zu den 100 einflussreichsten Menschen des 20. Jahrhunderts. Eine Fotografie des „Che“ von Alberto Korda, "Guerrillero Heroico", gilt als berühmtestes fotografisches Abbild einer Person, sie zählt zu den Medienikonen. Überblick. Das Originalbild von Alberto Korda, 1960 Guevaras Vorfahren waren argentinische Großbürger. Bereits während seines Medizinstudiums unternahm Guevara zahlreiche Reisen, die er umfangreich kommentierte und dokumentierte. Er empörte sich über die vielfach angetroffene wirtschaftliche Ungleichheit und soziale Ungerechtigkeit in Latein- und Mittelamerika. In Guatemala lernte er seine erste Frau kennen, eine Regierungsangestellte, die ihn mit weiteren politischen Aktivisten bekannt machte. Nach dem von den USA betriebenen Sturz der dortigen Regierung Jacobo Arbenz Guzmán (am 27. Juni 1954) ging er nach Mexiko und traf dort 1955 auf Fidel Castro. Er schloss sich dessen Bewegung des 26. Juli an und ließ sich militärisch ausbilden. Im Dezember 1956 nahm er an der Landung von Castros Revolutionären auf Kuba teil, die den von den USA unterstützten Diktator Fulgencio Batista stürzen wollten. Er wurde während der Kubanischen Revolution zum Kommandanten („Comandante“) ernannt und spielte eine wichtige Rolle im – 1959 letztlich erfolgreichen – Guerillakrieg. Guevara wurde von Castro als Industrieminister und danach als Leiter der kubanischen Zentralbank eingesetzt. Er strebte eine vollständige Verstaatlichung der kubanischen Wirtschaft und den Aufbau einer Schwerindustrie an. Kapitalflucht und die Emigration von über 10 % der Bevölkerung, nahezu der gesamten früheren Oberschicht, führten zu einem drastischen Rückgang von Wirtschaftsleistung und Produktivität. Auch die von Guevara mit anderen Ländern geschlossenen Handelsverträge verursachten in der Praxis erhebliche Schwierigkeiten. Weiterhin führte auch Ches kritische Haltung gegenüber der „entstalinisierten“ Sowjetunion und seine politischen Sympathien für das China der Kulturrevolution zu Konflikten mit Fidel Castro. Che trat 1964 nach der Rückreise von einem Konferenzauftritt in Algier, der großes internationales Aufsehen erregte, von allen Ämtern zurück und verschwand komplett aus der kubanischen Öffentlichkeit. Er versuchte vergeblich, in anderen Ländern das kubanische Revolutionsmodell voranzutreiben, so im Kongo und später in Bolivien. In Bolivien wurde er 1967 von bolivianischen Regierungssoldaten gefangengenommen und kurz darauf erschossen. Bis heute wird er in Kuba als Volksheld verehrt. Neben seinen Reiseaufzeichnungen und Tagebüchern, die mehrfach sehr erfolgreich herausgegeben und verfilmt wurden, seinen theoretischen Schriften und seinem politischen und militärischen Handeln ist insbesondere die posthume Wirkung Che Guevaras als Märtyrer und Idol der 68er-Bewegung und der lateinamerikanischen Linken von Bedeutung. Bereits 1968 erfolgte die erste kommerzielle Verfilmung seiner Biografie, der US-Film "Che!". Ches Selbstverpflichtung zu revolutionären Idealen machte ihn zu einem bedeutenden gesellschaftlichen Führer in Kuba. Sein Anspruch, den „Neuen Menschen“ weniger mit materiellen Anreizen als mit moralischen Ansprüchen, Selbstdisziplin und auch gewaltsamen Mitteln zu erzwingen, führte zu erheblichen Konflikten im nachrevolutionären Kuba. Seine Wirtschaftspolitik war wenig erfolgreich. Kritiker machen ihn darüber hinaus für politische Unterdrückung und die Exekution zahlreicher Gegner verantwortlich. Als „romantischer Held“, nach Sean O'Hagan in der Nachfolge Lord Byrons gilt er bei seinen Anhängern – weit über Kuba und Südamerika hinaus auch in den Industrieländern – als Synonym für Widerstand, Emanzipation und Rebellion. Auch Ches bekannte Abbilder entwickelten sich zu allgegenwärtigen Symbolen für Widerstand und Protest. Als Medienikone der 1960er Jahre wird das berühmte und nicht geschützte (das revolutionäre Kuba hatte Vereinbarungen zum Urheberrecht gekündigt) Porträt "Guerrillero Heroico" weltweit vermarktet. Dieses Porträt wurde auch auf der 3 CUP Banknote abgebildet. Kindheit und Jugend. Ernesto Guevara wurde während einer Schiffsreise bei einem Zwischenhalt in Rosario geboren. Seine Eltern Celia de la Serna y Llosa (1906–1965) und Ernesto Rafael Guevara Lynch (1901–1987) hatten auch baskische und irische Vorfahren und waren aus gutbürgerlichen Verhältnissen ausgebrochen. Sie waren kurz nach der Hochzeit im November 1927 von Buenos Aires nach Puerto Caraguatay in der Provinz Misiones gezogen, um dort eine Mateplantage zu betreiben. Das Unternehmen lief nicht besonders gut, zeitweilig litt die Familie auch unter finanziellen Engpässen, wobei sie auf geerbte Wertpapiere zurückgreifen konnte. Im Alter von zwei Jahren erlitt Guevara seinen ersten Asthmaanfall. Die Krankheit begleitete ihn sein Leben lang und prägte seine Persönlichkeit und Entwicklung. Im Jahr 1932 zog die Familie auf ärztlichen Rat in die Stadt Alta Gracia. Zunächst wurde er zuhause von seiner Mutter unterrichtet, las viel – unter anderem Werke der europäischen Literatur in der bedeutenden Bibliothek seiner Familie – und lernte Französisch, das er noch als Erwachsener fließend sprach. Als die Asthmaschübe später seltener wurden, wurde er dazu verpflichtet, doch die Schule zu besuchen. Die Krankheit hinderte ihn auch nicht daran, mit anderen Kindern zu spielen und intensiv Sport zu treiben. Durch seine Familie, die inzwischen durch die Geburten seiner Geschwister Celia (* 1929), Roberto (* 1932), Ana Maria (* 1934) und Juan Martín (* 1942) auf sieben Personen angewachsen war, wurde er schon früh politisch geprägt. Als nach dem Militärputsch Francos 1936 der Spanische Bürgerkrieg ausbrach, wurde ihr Haus zum Treffpunkt spanischer republikanischer Exilanten. Im Jahr 1941 wechselte er auf das Dean-Funes-Gymnasium in Córdoba, was bedeutete, dass er für den Schulweg insgesamt täglich 70 km zu bewältigen hatte. Im Jahr 1943 wechselte Ernestos Schwester Celia auf eine Schule in Córdoba – die Eltern zogen dorthin, um den Kindern den beschwerlichen Schulweg zu ersparen. 1946 trennten sich seine Eltern. Guevara erlebte im selben Jahr das Sterben seiner Großmutter unmittelbar mit. Auch deswegen entschied er sich nach bestandener Abiturprüfung in Buenos Aires, wo er bei seiner Mutter lebte, Medizin zu studieren. Studium und Reisen. Guevara unterbrach sein Medizinstudium mehrmals für umfangreiche Reisen durch Argentinien und Südamerika. Im Oktober 1950 lernte er Maria del Carmen Ferreyra, eine Millionärstochter, kennen und lieben. Die Beziehung war nicht von Dauer. Ein Jahr vor Guevaras Staatsexamen brach er im Dezember 1951 zusammen mit einem Freund, dem angehenden Biochemiker Alberto Granado, in Córdoba auf, um mit einer Norton Modell 18 den lateinamerikanischen Kontinent zu erkunden und unter anderem – ein sehr prägendes Erlebnis – eine Lepra-Kolonie in Peru zu besuchen. Guevara war mit der Ansicht aufgebrochen, in ganz Südamerika seien die Verhältnisse ähnlich wie in Argentinien, doch durch die Reise wurde er sich angesichts des Elends der Landbevölkerung und großer sozialer Gegensätze bewusst, welche Ausnahme sein Wohlstand darstellte. Die Reisen wurden posthum unter dem Titel "The Motorcycle Diaries" (dt. "Die Reise des jungen Che") verfilmt. Er legte nach Abschluss der Reise in den darauf folgenden sieben Monaten seine restlichen Prüfungen ab und überarbeitete auch sein Reisetagebuch, in dem er festhielt: „Dieses ziellose Streifen durch unser riesiges Amerika hat mich stärker verändert als ich glaubte“. Sein Medizinstudium schloss er am 11. April 1953 mit dem Doktorgrad in Medizin und Chirurgie ab. Im Juli 1953 reiste Guevara in Begleitung seines Jugendfreundes Carlos Ferrer nach La Paz in Bolivien. Dort blieben sie sechs Wochen und lernten dabei Ricardo Rojo – einen argentinischen Anwalt – kennen, der wegen seiner antiperonistischen Haltung seine Heimat hatte verlassen müssen. Während Rojo daraufhin nach Ecuador fuhr, reisten Guevara und Ferrer nach Peru. Sie besuchten Machu Picchu, Lima und erreichten schließlich Ende September Guayaquil in Ecuador, wo sie Rojo wiedertrafen. Eigentlich war geplant, als Nächstes nach Venezuela zu fahren, wo Guevara Alberto Granado wiedersehen wollte. Guevara änderte die Reiseplanung jedoch, denn Rojo hatte ihn überzeugt, mit ihm nach Guatemala zu fahren, wo eine Revolution kurz bevorstand. Am 31. Oktober fuhren sie per Schiff nach Panama und von dort aus nach Costa Rica, wo er Plantagen der United Fruit besichtigte. In Costa Rica lernte er auch zwei Kubaner kennen, die Monate zuvor vergeblich versucht hatten, den kubanischen Diktator Fulgencio Batista zu stürzen: Calixto Garcia und Severino Rossel. Unter den Überlebenden dieses gescheiterten Umsturzversuches waren auch Fidel und Raúl Castro, die er zu diesem Zeitpunkt allerdings noch nicht kennenlernte. Mit dem Tod Stalins und dem langsam beginnenden Tauwetter im Ostblock begann Guevaras Verehrung für den sowjetischen Diktator. Noch aus Costa Rica schrieb er im Dezember 1953 in einem Brief an seine Tante Beatriz: „Vor einem Bild des alten, betrauerten Stalin habe ich geschworen, nicht eher zu ruhen, bis diese kapitalistischen Kraken vernichtet sind. In Guatemala werde ich mich schleifen und tun, was ich tun muss, um ein richtiger Revolutionär zu werden.“ Einen weiteren Brief vom April 1955 unterzeichnete er gar mit "Stalin II." Guatemala. Am Silvesterabend des Jahres 1953 traf Guevara in Guatemala ein. Wenige Tage später lernte er die Peruanerin Hilda Gadea (1925–1974) kennen, seine spätere Ehefrau. Hilda hatte Wirtschaftswissenschaften studiert, war ein Mitglied der peruanischen Alianza Popular Revolucionaria Americana und arbeitete als Regierungsangestellte in Guatemala-Stadt. Sie pflegte ihn bei seinen Asthmaschüben, half ihm in finanziellen Notlagen und vermittelte ihm Grundlagen des Marxismus sowie Kontakte mit Mitgliedern der linken Regierung Arbenz. In Guatemala traf er auch Nico López, einen Überlebenden des im Jahre 1953 gescheiterten Versuchs, Batista zu stürzen (Angriff auf die Moncada-Kaserne), durch den er später Fidel Castro kennenlernte. In Guatemala wurde er auch das erste Mal mit seinem Spitznamen „Che“ genannt. Während seines Aufenthaltes in Guatemala erfolgte ein maßgeblich vom US-Auslandsgeheimdienst CIA organisierter Putsch gegen den guatemaltekischen Präsidenten Jacobo Arbenz Guzmán. Arbenz war 1950 gewählt worden, nachdem der Diktator Jorge Ubico Castañeda gestürzt worden war, und hatte Reformen eingeleitet, die den Armen des Landes helfen sollten. So hatte er einen Mindestlohn eingeführt und brachliegende Ländereien, die meist US-amerikanischen Firmen gehörten, verstaatlicht. Am 18. Juni 1954 marschierten Söldner, zum Schutz wirtschaftlicher Interessen von US-Firmen wie der United Fruit Company und aus Angst vor einer kommunistischen Machtergreifung, von den USA organisiert und logistisch unterstützt ins Land ein, stürzten Arbenz und setzten Castillo Armas ins Amt ein. Eine seiner ersten Amtshandlungen war die Rücknahme der Landreform. Guevara erlebte US-amerikanische Bombenabwürfe auf Guatemala-Stadt. Viele seiner Freunde wurden nach der Machtübernahme Armas' verhaftet, so auch Hilda Gadea. Ernesto hingegen konnte in die argentinische Botschaft fliehen, lehnte es allerdings ab, nach Hause zu fliegen. Stattdessen wartete er zwei Monate, bis ihm ein Visum gewährt wurde, das ihm ermöglichte, nach Mexiko einzureisen. Mexiko. Ernesto Guevara erreichte am 21. September 1954 in Begleitung von Julio Roberto Cáceres Valle, einem guatemaltekischen Kommunisten, Mexiko-Stadt. Zusammen mit ihm schlug er sich die erste Zeit durch. Hilda Gadea folgte ihm nach ihrer Freilassung, sie trafen sich in Mexiko-Stadt wieder. Beide heirateten am 18. August 1955, am 15. Februar 1956 wurde ihr erstes Kind Hilda Beatriz geboren. Als 1955 der Sturz Peróns erfolgte und in Argentinien Aussicht auf eine Revolution bestand, wollte Ricardo Rojo nach Buenos Aires aufbrechen. Er versuchte Guevara zu überreden mitzukommen, doch dieser hatte andere Pläne. Bereits Ende 1954 hatte er weitere Exilkubaner kennengelernt, die beim gescheiterten Putschversuch 1953 mitgewirkt hatten und nun in Mexiko-Stadt lebten. Durch sie lernte er im Sommer 1955 Fidel Castro kennen. Der Anführer jener Rebellen, die 1953 durch den Angriff auf die Moncada-Kaserne von sich reden machten, war nach seiner Haftentlassung nach Mexiko ins Exil gegangen. Castro bereitete dort mit einer Gruppe von Exilkubanern unter der Hilfe von Alberto Bayo, einem Veteranen des Spanischen Bürgerkriegs und Guerilla-Experten, eine bewaffnete Expedition zurück nach Kuba vor mit dem Ziel, das Batista-Regime zu stürzen. Guevara schloss sich zunächst als Expeditionsarzt der Gruppe an. Im April 1956 wurde seine Teilnahme konkreter, als die Rebellen im 60 Kilometer von Mexiko-Stadt entfernten Chalco eine militärische Ausbildung erhielten. Im Juli wurde das Trainingslager von der Polizei entdeckt und die Rebellen landeten kurzzeitig im Gefängnis. Guevara kam erst nach zwei Monaten als letzter frei, mit der Auflage, das Land zu verlassen. Guevara ignorierte dies und tauchte bei Freunden unter. Nun drängte die Zeit – Kuba hatte von den Rebellen erfahren und Castro wollte schnell aufbrechen. Nachdem er die Motoryacht "Granma" gekauft hatte, trafen sich am 23. November 1956 die Rebellen, insgesamt 86 an der Zahl, in Tuxpan und fuhren zwei Tage später los in Richtung Kuba, das sie am 2. Dezember 1956 erreichten. Vorgeschichte. Nach der Landung der Yacht "Granma" auf Kuba wurden gleich beim ersten Gefecht die Mehrzahl der Rebellen getötet oder festgenommen. Celia Sánchez und Frank País, die eine „Zweite Front“ in den kubanischen Städten unterhielten, unterstützten die Kämpfer mit Waffen und Medikamenten. Neue Mitstreiter stießen hinzu und ermöglichten eine Fortsetzung des Guerillakampfs. Im Verlaufe der Kämpfe änderte sich Guevaras Rolle schnell von der eines Arztes zu einem direkten Teilnehmer bei bewaffneten Aktionen. Sein Einsatz und sein taktischer Überblick ließen ihn schnell zu einer gefragten militärischen Instanz werden. Gegenüber mutmaßlichen Deserteuren griff er dabei hart durch und schreckte auch nicht davor zurück, Todesurteile selbst zu vollstrecken. Als erster Guerillero nach "Comandante en Jefe" Fidel Castro wurde Guevara am 21. Juli 1957 in den Rang eines "Comandante" der Rebellenarmee der Bewegung des 26. Juli erhoben und mit der Führung der II. Kolonne betraut. Als seine größte militärische Leistung gilt die Einnahme von Santa Clara am 29. Dezember 1958 nach zweijährigem Guerillakampf gegen die zahlenmäßig weit überlegene, bis März 1958 noch von den USA unterstützte, inzwischen aber demotivierte und überalterte Batista-Armee. Der Weg in die Hauptstadt Havanna war damit frei. Am 1. Januar 1959 flüchtete der Diktator Fulgencio Batista aus Kuba, und Castros Gruppe übernahm die Kontrolle. Am 9. Februar 1959 wurde Guevara zum „geborenen kubanischen Staatsbürger“ ernannt. Beteiligung an der kubanischen Revolutionsregierung. Castro wollte nach der Revolution 1959 ein insbesondere von den USA unabhängiges Kuba aufbauen. Guevara wurde neben Fidel Castro, Raúl Castro, Camilo Cienfuegos und einigen anderen ein wichtiges Mitglied in der neuen kubanischen Regierung. Guevara nahm am Sowjet-Kommunismus orientierte Positionen ein, stärker noch als der vorrangig pragmatisch und realpolitisch geprägte Fidel Castro. Auch für Stalin, das chinesische Modell unter Mao und insbesondere das nordkoreanische hegte er Sympathien. Später (1965) sagte Guevara nach einer Reise nach Pjöngjang, dass Nordkorea ein Modell sei, welches auch das revolutionäre Kuba anstreben solle. Auf dem Höhepunkt seiner politischen Aktivität in Kuba war Guevara Leiter der Nationalbank Kubas und Industrieminister. Der ehemalige Guerillaführer und aus Protest gegen den Regierungskurs als Militärgouverneur der Provinz Camagüey zurückgetretene Huber Matos, der anschließend mit Guevaras Einverständnis wegen Hochverrats zu zwanzig Jahren Haft verurteilt wurde, wirft Guevara und Castro vor, die Revolution gegen Batista zur schleichenden Umgestaltung Kubas in eine kommunistische Diktatur benutzt zu haben. Unter Guevaras Führung wurden die kubanischen Unternehmen und US-amerikanische Beteiligungen verstaatlicht. Begünstigt von einer großzügig gehandhabten Immigrationsregelung wanderte etwa ein Zehntel der Bevölkerung, unter ihnen fast die gesamte kubanische Oberschicht, in die USA aus – insbesondere nach Florida. Neben politischen Aktivitäten entfalteten einige dieser Exilkubaner – zusammen mit US-Regierungsstellen – in der Folgezeit verdeckte und offene militärische Operationen gegen Kuba. Bekannt wurde die 1961 zum Beginn der Amtszeit John F. Kennedys versuchte Invasion in der Schweinebucht unter Beteiligung von 1.500 Exilkubanern. Ihr Scheitern führte zum bis heute andauernden Wirtschaftsboykott der USA und beschleunigte die Anlehnung der kubanischen Revolution insbesondere an sowjetische Vorbilder. Nach 1963 kam es zu kontroversen Diskussionen zwischen Fidel Castro, Guevara und den als Wirtschaftsberatern engagierten intellektuellen Marxisten Charles Bettelheim und Ernest Mandel. Guevara galt hierbei als Vertreter eines radikal zentralistischen und schnellstmöglichen Übergangs zum Sozialismus und einer moralischen Mobilisierung des „neuen Menschen“. Als Industrieminister suchte Guevara die reine Lehre der Planwirtschaft umzusetzen und eine vollständige Verstaatlichung der kubanischen Wirtschaft anzustreben. Die Zuckerproduktion ging in der Folge um ein Drittel zurück, die Getreideproduktion halbierte sich, die Industrialisierungspläne wurden verschoben. Tschechoslowakische Wirtschaftsexperten kritisierten 1962 eine mangelhafte Umsetzung der Planwirtschaft. Bekannt waren jedoch die fehlenden Fachkenntnisse Guevaras in Wirtschaftsfragen. Auf betrieblicher Ebene lehnte er vermehrte materielle Anreize, Freiräume für private Kleinunternehmen und eine Lohndifferenzierung nach Leistung aus ethischen Gründen ab. Guevara war vielmehr von einer Pflicht zur Beteiligung an der kubanischen Revolution, dem sozialistischen Aufbau und dem Kampf gegen Angriffe auf das befreite Kuba überzeugt, was er 1965 unter dem Titel "Der Sozialismus und der Mensch in Kuba" auch schriftlich darlegte. Guevara selbst lebte seine Vorsätze und Ideale vor und verlangte die entsprechende Aufopferungsbereitschaft auch von anderen. Er war regelmäßig bei freiwilligen Arbeitseinsätzen beteiligt und verzichtete öffentlichkeitswirksam auf Vergünstigungen für sich und seine Familie. Politik im nachrevolutionären Kuba. 1965 als Delegationsleiter in Moskau Direkt nach dem Sieg der Revolution besaß Guevara als Kommandant der auch als Gefängnis genutzten Garnisonsfestung La Cabaña in Havanna sowie als zeitweiser Vorsitzender des als Revisionsinstanz gegründeten „Obersten Kriegsrats“ die Oberaufsicht über die revolutionären Tribunale gegen vermeintliche oder tatsächliche Gefolgsleute des Batista-Regimes. Unter seiner Verantwortung wurden zahlreiche Todesurteile gefällt und vollstreckt. Auch zeichnete er für die Errichtung von Straf- und Arbeitslagern verantwortlich, in denen „Gegner der Revolution“, wozu auch Homosexuelle zählten, interniert wurden. Bereits im Juni 1959 unterstützte Guevara lateinamerikanische Guerillagruppen. In Honduras bereiteten sich mehrere Gruppierungen, so die "Frente Revolucionario Sandino", denen u. a. die späteren FSLN-Angehörigen Tomás Borge und Edén Pastora Gómez angehörten, auf einen Sturz der nicaraguanischen Regierung vor. Guevara entsandte zu ihrer Unterstützung ein Schiff mit 300 Handfeuerwaffen nach Puerto Cortés, das jedoch von der honduranischen Armee beim Entladen der Waffen beschlagnahmt wurde. Privatleben. Che Guevaras erste Frau Hilda lebte mit der gemeinsamen Tochter Hilda „Hildita“ Beatriz Guevara Gadea (* 15. Februar 1956 in Mexiko-Stadt; † 21. August 1995 in Havanna) ab 1959 auch in Havanna. Auf den Kontakt mit seiner Exfrau soll er Aleida March zuliebe weitgehend verzichtet haben. Seine Tochter Hildita nahm er jedoch regelmäßig mit in seine neue Familie. Einer zwischenzeitlichen außerehelichen Beziehung mit der damaligen Studentin und späteren Journalistin Lilia Rosa López (* 1940) entstammt Guevaras 1964 in Havanna geborener Sohn Omar Pérez López – der Schriftsteller und bildende Künstler erfuhr erst 1989 von Guevaras Vaterschaft. Außenpolitische Aktivitäten. Im Sommer 1960 besuchte Guevara, während der dortigen Kampagne des „Großen Sprungs nach vorn“, die Volksrepublik China und unterzeichnete fast unmittelbar nach dem öffentlich ausgetragenen chinesisch-sowjetischen Zerwürfnis einen Handelsvertrag mit China. Ende 1960 reiste Guevara in die Tschechoslowakei, in die Sowjetunion (bekannt wurde Guevaras Blumenniederlegung am Grabe Josef Stalins, gegen den Willen der sowjetischen Führung), in die Deutsche Demokratische Republik, nach Nordkorea und Ungarn und schloss mit diesen Ländern Handels- und Kreditvereinbarungen ab. Zur Absicherung ihrer Politik der Konfrontation mit den USA richtete sich die kubanische Regierung zunehmend an der Sowjetunion aus. Guevara hatte mit der Sowjetunion über Waffenlieferungen verhandelt und nach dem Fehlschlagen der Invasion in der Schweinebucht zusammen mit Raúl Castro Vorbereitungen zur Stationierung russischer Atomwaffen auf Kuba getroffen, was zur weltpolitisch bedeutsamen Kubakrise 1962 führte. Guevara zeigte sich allerdings enttäuscht von der Sowjetunion, die im Sinne ihrer außenpolitischen Doktrin der „friedlichen Koexistenz“ auf dem Höhepunkt der Kubakrise einlenkte. Kurz nach der Kubakrise äußerte er gegenüber Journalisten des "Daily Worker", er hätte Atomraketen in Richtung USA abgefeuert, wenn die Sowjetunion es denn zugelassen hätte. Am 11. Dezember 1964 hielt Guevara eine vielbeachtete Rede vor den Vereinten Nationen, in der er aus seiner Sicht die damalige Außenpolitik der USA beschrieb und sich zur Frage atomarer Bewaffnung der NATO-Länder und zur Wiedervereinigung der beiden deutschen Staaten äußerte. Konflikte mit Fidel Castro. Gegenüber dem pragmatischen, realpolitisch geprägten Fidel Castro begann er mit seinen radikalen, von manchen als prochinesisch interpretierten Idealen in Gegensatz zu geraten. 1964 verlagerte Castro unter Druck der Sowjetunion den Schwerpunkt der kubanischen Wirtschaft wieder auf die Zuckerrohrproduktion und verschob die von Guevara angestrebte Industrialisierung „um mindestens zehn Jahre“. Eine weitere Reise führte Guevara 1964 als Leiter der kubanischen UN-Delegation nach New York. In einer bekannten Rede vor der UN bekannte er sich zur revolutionären Gewalt als Mittel der internationalen Politik und forderte die Übertragung der kubanischen Revolution auf andere Länder. Im Anschluss besuchte er unter anderem erneut die Volksrepublik China im Vorfeld der Kulturrevolution, die Vereinigten Arabischen Emirate, Ägypten, Algerien, Ghana und weitere afrikanische Länder. Bekannt wurden antisowjetische Vorbehalte, die er im Februar 1965 bei einem Besuch einer afrikanisch-asiatischen Solidaritätskonferenz im unabhängigen, sozialistisch regierten Algerien äußerte. Damit geriet er in offenen Konflikt mit der sowjetischen Haltung wie auch mit der kubanischen Führung. Die Differenzen mit den Castro-Brüdern spitzten sich zu. Nach der Rückkehr in Kuba trat Guevara zur allgemeinen Verwunderung von der öffentlichen Bühne ab und von seinen Ämtern zurück. Er verließ Kuba in der Verkleidung eines Geschäftsmannes, um mit weiteren kubanischen Kämpfern die Rebellen im Kongo zu unterstützen. Am 24. April 1965 erreichte er über den Tanganjikasee den Kongo. Kongo. Im Kongo gab es schon seit 1960 bürgerkriegsähnliche Zustände und politische und militärische Bewegungen, die von den USA, der Sowjetunion oder China unterstützt wurden. Guevaras Versuch, dort eine Revolution nach kubanischem Vorbild anzuzetteln, scheiterte aber. Guevara erklärte dies (vgl. "Das Jahr, in dem wir nirgendwo waren") mit dem Phlegma sowie der fehlenden Konsequenz und Organisation der Rebellen um Laurent Kabila im Kongo. Ende 1965 kehrte er enttäuscht nach Kuba zurück. Externe Kritiker sprachen von völlig unzulänglicher Vorbereitung, einer mangelnden Einsicht in die Verhältnisse vor Ort bis hin zu Mängeln bei Sprachkenntnissen, Ausrüstung und Training. Jon Lee Anderson zitiert Warnungen Gamal Abdel Nassers, dem Guevara freundschaftlich verbunden war, vor dem Einsatz im Kongo, die er aber nicht beachtete. Bolivien. Operationsgebiet der Guerilla in Bolivien Zunächst war Peru als nächster Einsatzort gedacht, doch gingen die "Comandantes" Guevara und Juan Vitalio Acuña Núñez und andere bewaffnete kubanische Kämpfer, darunter auch die deutschstämmige Tamara Bunke, 1966 schließlich nach Bolivien. Che Guevara führte selbst (allerdings unter falschem Namen) eine Gruppe von 44 Kämpfern unter dem Namen ELN (Nationale Befreiungsarmee). Er war dabei bestrebt, die Erfahrungen mit der Rebellenarmee auf Bolivien zu übertragen. Guevaras persönliche Erfahrungen sind in seinem später veröffentlichten "Bolivianischen Tagebuch" dokumentiert. Die Gruppe operierte in den bewaldeten Berghängen des östlichen zentralbolivianischen Hochlandes. Ab März 1967 lieferten sie sich dort Scharmützel mit Regierungstruppen. Eine Kontaktaufnahme mit der bolivianischen Bevölkerung, etwa durch einen dem kubanischen Radio Rebelde vergleichbaren Sender, fand nicht statt. Entgegen den hochgesteckten Erwartungen schlossen sich nur zwei einheimische Bauern der Truppe an – die vorwiegend Quechua sprechende indigene Landbevölkerung blieb auf Distanz zu den Spanisch sprechenden Revolutionären. Genauso blieb die erwartete Unterstützung durch bolivianische Bergarbeiter und die Kommunistische Partei Boliviens (PCB) unter Mario Monje aus. Bereits im August 1967 wurde die Truppe weitgehend aufgerieben und befand sich seitdem in der Defensive. Außerdem wurde sie in zwei Teile gespalten, die aber wegen des Ausfalls der Funkgeräte nicht mehr miteinander kommunizieren und sich daher auch nicht finden konnten. Acuña, der Anführer der zweiten Gruppe, starb am 31. August 1967 zusammen mit Bunke in einem Hinterhalt bolivianischer Regierungstruppen bei Vado de Puerto Mauricio. Einigen Mitgliedern gelang die Flucht nach Chile. Am Ende bestand die Gruppe um Guevara nur noch aus 14 Mann. Er selbst wurde am 8. Oktober 1967 nach einem Gefecht mit bolivianischem Militär bei La Higuera verwundet und zusammen mit Simeón Cuba Sanabria gefangen genommen. Guevara wurde nach seiner Festnahme in einem dörflichen Schulhaus in La Higuera inhaftiert und soll dort unter anderem durch den CIA-Agenten und Exil-Kubaner Félix Rodríguez verhört worden sein. Laut dem bolivianischen Militär Jaime Niño de Guzmán weigerte sich Guevara, mit Rodriguez zu sprechen. Ein bekanntes Foto, welches Rodríguez in Siegerpose mit einem geschlagenen und gedemütigten Guevara zeigt, soll gefälscht sein, wie Recherchen des Dokumentarfilmers Wilfried Huismann ergaben. Im Nachhinein verbreiteten sich viele Gerüchte und Mythen über Guevaras letzte Worte. Am 9. Oktober 1967 um 13:10 Uhr wurde Guevara vor Ort von Mario Terán, einem Feldwebel der bolivianischen Armee, auf Weisung des bolivianischen Präsidenten René Barrientos Ortuño ohne vorherige Gerichtsverhandlung exekutiert. Guevara war es im Frühjahr 1967 noch gelungen, eine Grußadresse an eine Solidaritätskonferenz der OSPAAAL (Organización de Solidaridad de los Pueblos de África, Asia y América Latina) zu versenden. Auch in Deutschland wurde das von Rudi Dutschke und Gaston Salvatore übersetzte Manuskript unter anderem mit der Aufforderung bekannt, „zwei, drei, viele Vietnams“ zu schaffen, sowie mit der Mahnung, sich als Guerilla im Kampf von „unbeugsamem Hass“ antreiben zu lassen, um eine „effektive, gewaltsame, selektive und kalte Tötungsmaschine“ darzustellen. Innerhalb der europäischen Studenten- und Protestbewegung fanden Guevaras Aussagen breiten Widerhall. Nach Guevaras Tod. Guevara wurde im etwa 30 Kilometer von La Higuera entfernten Vallegrande aufgebahrt und sein Leichnam der Presse vorgeführt. Nach offiziellen Angaben war er im Kampf getötet worden. Später wurde er heimlich begraben, nachdem ihm seine Hände abgetrennt worden waren, um einen Nachweis zur Identifizierung zu haben. In Bolivien gab es keine Todesstrafe und man wollte eine jahrelange Haft in einem noch nicht einmal vorhandenen Hochsicherheitsgefängnis und die zu erwartenden diplomatischen Verwicklungen vermeiden. Jahre später erst wurden die tatsächlichen Todesumstände nach und nach bekannt. Die Bilder des toten Guevara – mit ihrer frappierenden Ähnlichkeit zu Darstellungen des toten Christus etwa von Andrea Mantegna – wurden in Zeitungsberichten als Abbild eines modernen Heiligen interpretiert, der zweimal sein Leben für fremde Länder riskiert hatte und es für ein drittes dreingegeben habe. Régis Debray, der Guevara in Bolivien begleitet hatte, bezeichnete Guevara als Mystiker, als Heiligen ohne Gottesglauben. Guevaras Beschwörung des „Neuen Menschen“, dem weniger am materiellen als am geistigen Fortschritt gelegen sei, sei anderen zufolge eher jesuitischen als linken Idealen verpflichtet gewesen. Wolf Biermann sang vom „Comandante Che Guevara“ als „Christus mit der Knarre“ und trug im deutschen Sprachraum mit seiner Interpretation des ursprünglich vom kubanischen Liedermacher Silvio Rodríguez vertonten Gedichts Carlos Pueblas zur Mythologisierung Guevaras bei. Guevara selbst wird im Umfeld seines Todesortes in Bolivien wie ein religiöser Heiliger verehrt. Die abgetrennten Hände Guevaras wurden konserviert, zur Identifizierung nach Buenos Aires versandt und später Kuba überlassen. Guevaras Gebeine selbst wurden erst 1997 in Vallegrande entdeckt, nachdem ein ehemaliger Offizier der bolivianischen Armee den Begräbnisort verriet. Die sterblichen Überreste Ches und einiger seiner Begleiter wurden exhumiert und nach Kuba überführt, um dort mit einem Staatsbegräbnis in dem eigens geschaffenen Mausoleum Monumento Memorial Che Guevara in Santa Clara beigesetzt zu werden. Ende 2007 wurden eine Haarlocke und Fingerabdrücke Guevaras und weitere Dokumente der Festnahme für insgesamt 119.500 US-Dollar versteigert. Rezeption in Kuba und im ehemaligen Ostblock. Vor allem in Kuba gilt "el Che" bis heute als Volksheld. Schulkinder sind täglich angehalten, ihm als revolutionärem Vorbild nachzueifern. Sein Tod im Namen einer revolutionären Bewegung machte ihn zu einem Märtyrer linker Unabhängigkeits- und Befreiungsbewegungen in der ganzen Welt. In manchen realsozialistischen Staaten Osteuropas wurde zeitweilig von staatlicher Seite eine Art quasireligiösen Kult um ihn betrieben, mit dem die entsprechenden Regierungen vor allem die Jugend für den Sozialismus bzw. Kommunismus und Internationalismus begeistern wollten. Dieser drückt sich auch in dem Lied Hasta siempre comandante aus, das Guevara preist. Rezeption international. Che Guevara ist heute eine Ikone: Sein Bild findet sich millionenfach auf Kleidungsstücken und Gebrauchsgegenständen. Sich mit ihm zu schmücken ist nicht unbedingt ein politisches Bekenntnis, verspricht aber ideellen (und für Produzenten und Händler der damit ausgestatteten Gegenstände auch finanziellen) Gewinn. Reinhard Mohr sprach von „politisch auf ganzer Linie gescheitert, als Ikone unsterblich“ angesichts des seiner Ansicht nach quasireligiösen Umgangs mit Guevara, der unter anderem von Jean-Paul Sartre posthum als „vollständigsten Mensch unserer Zeit“ beschrieben worden war. Die Verklärung Guevaras wird als Umdeuten eines kämpferischen Kommunisten in eine beliebige Ikone des Unangepasstseins kritisiert, andere sehen einen kompromisslosen Stalinisten unter der Maske des zeitlosen jugendlichen Helden kaschiert. Stephan Lahrem und Christopher Hitchens zufolge sei Guevara ein beliebtes idealisiertes Vorbild gewesen, weniger in den Entwicklungsländern als vielmehr für bürgerliche Städter in den „Wohlstandsgesellschaften“, gerade weil sein Kämpfen und Sterben für revolutionäre Ideale keineswegs einem normalen bürgerlichen Leben entsprach. Hitchens stellt Guevara eher in eine romantische als in eine orthodox linke Tradition, näher an den Reiseschriftsteller und Aufrührer Lord Byron als an Karl Marx. Um als romantische Ikone zu überdauern, müsse man nicht nur möglichst jung sterben, sondern „jung und hoffnungslos“. Guevara habe beide Kriterien erfüllt. Auch in der Außerparlamentarischen Opposition (APO) Westeuropas während der 1960er Jahre bis hin zur deutschen RAF beriefen sich einige auf Guevaras Thesen vom Guerillakampf oder wurden von Zeitzeugen wie Régis Debray inspiriert. Bei vielen Demonstrationen der Studentenbewegung wurde neben dem Porträt des führenden nordvietnamesischen Revolutionärs Ho Chi Minh und dem Mao Zedongs auch "Guerrillero Heroico" (Der heldenhafte Guerillakämpfer), ein berühmtes Abbild Guevaras, mitgeführt. Bis heute ist das in vielen Variationen verbreitete, stark kontrastierte Abbild Ches mit Barett, rotem Stern und einem über den Betrachter hinwegweisenden Blick zu einer der bekanntesten Aufnahmen des 20. Jahrhunderts geworden. Das Bild wurde von dem kubanischen Fotograf Alberto Korda bei einem Staatsbegräbnis am 5. März 1960 aufgenommen, bei dem Guevara neben anderen offiziellen Trauergästen auf einer Tribüne stand. Nach dem Tod Guevaras wurde das Foto vom Verleger Giangiacomo Feltrinelli weltweit verbreitet. Der mexikanische Autor und spätere Außenminister im neoliberalen Kabinett Fox, Jorge Castañeda, nutzt seine Biographie Guevaras zur Illustration der Ansicht, wonach die Verehrung Guevaras und seiner militanten Thesen und Aktionen mit ein Grund für die verzögerte und lange marginale Herausbildung einer lateinamerikanischen Sozialdemokratie gewesen sei. Der aus Kuba stammende US-Amerikaner Humberto Fontova beschreibt Guevara als ineffektiven wie brutalen Taktiker. Verschiedene Kritiker führen das Scheitern der von Guevara verantworteten Wirtschafts- und Industriepolitik auf seine Persönlichkeit wie auf unzureichende wirtschaftspolitische Konzepte zurück. Kritik und Menschenrechtsverletzungen. Guevara wurden darüber hinaus Folter und Ermordung hunderter kubanischer Häftlinge, der Mord an Kleinbauern im Operationsbereich seiner Guerillatruppen sowie später Freude an der Exekution von Gegnern und die Einrichtung des ersten Arbeitslagers auf Kuba vorgeworfen. Eine entsprechende Beschreibung Guevaras als skrupellos und brutal in der linken "taz" rief im Oktober 2007 erhebliches Aufsehen in der deutschen linken Szene hervor, nachdem solche Kritik sonst eher Exilkubanern und früheren Dissidenten aus dem ehemaligen Ostblock zugeordnet worden war. Ähnlich umstritten war die Deutung Gerd Koenens, der von „phantastischen Weltbrandstiftungsszenarien“ Guevaras sprach, „die noch aus der ‚atomaren Asche‘ den Neuen Menschen entstehen sahen“. Dem von ihm verkörperten Freiheitsideal widerspricht die häufig als stalinistisch definierte kompromisslose Politik gegenüber seinen Gegnern: Während seiner Zeit als Ankläger wurden in der als Gefängnis genutzten Festung La Cabaña als ehemalige Anhänger des Batista-Regimes, Kollaborateure oder Vertreter des US-Geheimdienstes beschuldigte Kubaner in revolutionären Militärtribunalen verurteilt. Diese zu Zeiten des Ausnahmezustands in der ersten Jahreshälfte 1959 abgehaltenen Verfahren entsprachen keinerlei rechtsstaatlichen Mindeststandards und lösten internationale Empörung aus. Über die Zahl der von Guevara direkt befohlenen Erschießungen gibt es keine genauen Angaben – 216 Fälle sind namentlich belegt, ein ehemaliger Angehöriger des Tribunals in La Cabaña geht von rund 400 aus, kubanische Oppositionelle rechnen teilweise mit wesentlich höheren Zahlen. Die in den Folgejahren häufigen, auch international kritisierten Tötungen rechtfertigte Guevara 1964 ausdrücklich in einem Debattenbeitrag vor der Vollversammlung der Vereinten Nationen mit der Bemerkung, Kuba befinde sich in einem Kampf auf Leben und Tod. Als Industrieminister schickte Guevara zahlreiche „mangelnder revolutionärer Moral“ beschuldigte Mitarbeiter ohne Gerichtsurteil in das sogenannte „Lager für Besserungsarbeit“ auf der Halbinsel Guanahacabibes, eines der ersten von mehreren hundert in den ersten Revolutionsjahren entstandenen Zwangsarbeitslagern. Estnische Sprache. Estnisch (Eigenbezeichnung: "eesti keel") ist eine flektierend-agglutinierende Sprache und gehört zum ostseefinnischen Zweig der Gruppe der finno-ugrischen Sprachen. Das Estnische ist eng mit dem Finnischen und dem nahezu ausgestorbenen Livischen verwandt. Eine entfernte Verwandtschaft besteht zum Ungarischen. Estnisch ist die einzige Amtssprache der Republik Estland und wird dort von 950.000 Menschen gesprochen. Durch die historischen Ereignisse des 20. Jahrhunderts gibt es auch im Ausland estnische Gemeinden, die etwa 150.000 Sprecher zählen. Die Gesamtzahl der Sprecher des Estnischen als Muttersprache liegt bei rund 1.100.000. Der "Sprachcode" ist codice_1 bzw. codice_2 (nach ISO 639). Alphabet. a, b, c, d, e, f, g, h, i, j, k, l, m, n, o, p, q, r, s, š, z, ž, t, u, v, w, õ, ä, ö, ü, x, y Hierbei kommen die Buchstaben c, f, š, z, ž, q, w, x und y nur selten, entweder in Fremdwörtern oder fremden Namensgebungen, vor. (Alle gängigen Zeichen fett) Die Vokale a, e, i, o, u, ü, ä, ö und õ können alle in der ersten Silbe eines Wortes vorkommen, in der letzten sind aber nur noch die Vokale a, e, i, u, und in einigen Fremdwörtern o ("metroo"), möglich. Wörter, die mit den Konsonanten g, b oder d beginnen, sind Fremdwörter. Vokale. Das Estnische besitzt 9 Monophthonge, die in drei Quantitätsstufen (kurz vs. lang vs. überlang) auftreten können. Die Quantität gilt hierbei als distinktives, also bedeutungsunterscheidendes Merkmal. Weiterhin gelten "Lippenrundung" (gerundet vs. ungerundet) und "Zungenstellung" (vorne vs. hinten) als distinktive Merkmale estnischer Vokale. Es gilt hierbei zu beachten, dass der für das Deutsche typische Einfluss der Quantität auf die Qualität entfällt. Während im Deutschen ein langer E-Laut [eː] in seiner kurzen Artikulation zu einem [ɛ] würde, bleibt im Estnischen die Qualität, also die Gespanntheit, erhalten, sodass [e] zu artikulieren ist. Der Laut [ɤ], graphematisch durch das Zeichen dargestellt, ist der gleiche Laut wie das bulgarische ъ>; im Russischen existiert mit ы> lediglich ein dazu "ähnlicher" Laut, der jedoch im Gegensatz zum Laut ! align=left | Nasale ! align=left | Laterale Die Laute ʒ und kommen jedoch lediglich in Fremdwörtern vor. Auffälligkeiten ergeben sich auch im Hinblick auf die Plosive, die im Estnischen nicht aspiriert, also behaucht, werden. Diese gelten im Estnischen weiterhin als Varianten der Phoneme /p,t,k/. Darüber hinaus wird das Graphem grundsätzlich stimmlos artikuliert. Akzentuierung. Im Estnischen liegt der Wortakzent grundsätzlich auf der ersten Silbe. Eine Ausnahme bildet hier jedoch "aitäh!" (deutsch: "danke!"). Des Weiteren ist für Lehn- und Fremdwörter charakteristisch, dass die Akzentuierung der Ausgangssprache zumeist beibehalten wurde. Bei estnischen Wörtern kann zudem ein Nebenakzent auf der dritten oder einer anderen ungeraden Silbe liegen, was vor allem im Falle der zahlreichen Komposita deutlich wird. Grammatik. Das Estnische kennt keine grammatischen Geschlechter. In der dritten Person Singular wird für Personen beiderlei Geschlechts das Pronomen "tema" (Kurzform: "ta") verwendet. Das heißt, dass zwischen Maskulinum und Femininum nicht unterschieden wird. Das gilt auch für Berufsbezeichnungen, so kann das estnische Wort "õpetaja" sowohl 'Lehrerin' als auch 'Lehrer' bedeuten. Substantive. Bezüglich der grammatischen Kategorie des Kasus unterscheidet man im Estnischen 14 Fälle. Bei der estnischen Sprache handelt es sich um eine Akkusativsprache, doch ist der Akkusativ als solcher nicht mehr zu erkennen. Wie auch im Finnischen ist der historische Akkusativ im Laufe der Sprachentwicklung lautgesetzlich mit dem Genitiv zusammengefallen. In der Tat spielen die estnischen Fälle, so viele es auch sind, für die Auszeichnung von Agens und Patiens keinerlei Rolle, dieselbe wird nur durch die Wortstellung und die Verbform bewerkstelligt. Transitiv gebrauchte transitive Verben bereiten naturgemäß die kleinsten Probleme, die Reihenfolge lautet hier: Agens Verb Patiens. Intransitiv gebrauchte transitive Verben werden in der Grundform elliptisch, also sich auf einen obliquen Patiens beziehend, verstanden. Um das involvierte Substantiv selbst zum Patiens zu machen, es sozusagen in den Absolutiv zu setzen, wird der Verbstamm um „-u“ erweitert. Dies wird am folgenden Beispiel deutlich: "muutma" (ändern): "ta muudab" (er/sie/es ändert (irgendetwas)), "ta muutub" (er/sie/es ändert (sich)). Ursprünglich intransitive Verben werden „absolutiv“ verstanden, das dem Verb vorangehende Substantiv ist also der Patiens. Diese können indes „transitiviert“ werden, mit der Bedeutung, dass irgendetwas dazu veranlasst wird, eine bestimmte Handlung zu vollführen und anschließend wieder elliptisch gebraucht werden. Diese „Transitivierung“ geschieht durch eine Erweiterung des Verbstammes um „-ta“, wodurch im Estnischen der Kausativ gebildet wird: "langema" ((im Krieg) fallen): "ta langeb" (er/sie/es fällt (im Krieg)), "ta langetab" (er/sie/es fällt oder senkt (irgendetwas, aber vermutlich einen Baum oder den Kopf)). Schließlich besitzt das Estnische auch die Möglichkeit, mit Hilfe von "-ise" (selbst) reflexive Konstruktionen zu bilden: "Ma küsin endalt." (Ich frage mich.) Bei dieser quasireflexiven Konstruktion liegt indes der Verdacht nahe, dass es sich dabei um einen Germanismus handelt, denn die zuvor beschriebene Sprachkonzeption zur Auszeichnung von Agens und Patiens kommt offensichtlich ohne reflexive Konstruktionen und Passivformen aus und ist in diesem Sinne als „ergativ gedacht“ zu bezeichnen. Anmerkungen: Die ersten drei Kasus ("Nominativ", "Genitiv", "Partitiv") sind "grammatische", alle weiteren jedoch "semantische" Kasus. Gewöhnlich liest man davon, dass der Inessiv im Gegensatz zum Adessiv dann gebraucht werde, wenn etwas sich nicht an einer Seite von etwas, sondern in seinem Inneren befindet. Der Inessiv ähnelt jedoch sehr der Verwendung der Präposition „in“ im Deutschen, und von der gilt das vorige im Gegensatz zur Präposition „an“ auch keineswegs. Beispiel: „Ah, Günther ist wieder im Land.“ – was ja nicht heißt, dass Günther in der Erde steckte. Insbesondere fällt im Estnischen der Schnee "ins" und nicht "aufs" Land. Die Regel, soweit man davon sprechen kann, ist hier, dass Dinge, die nur in einem übertragenen Sinn ein Inneres haben, mit dem Adessiv gebraucht werden, z. B. an der Arbeit sein, und Dinge, die n-dimensional ausgedehnt gedacht werden, den Inessiv für ihr n-dimensional Inneres und den Adessiv für ihren (n-1)-dimensionalen Rand nach sich ziehen, wobei n aus. Allerdings befolgt das Estnische diese Regel flächiger als das Deutsche, wie z. B. den Handschuh in die Hand zu ziehen, das Hemd in den Rücken und die Mütze in den Kopf. Verben. Verben unterliegen im Estnischen den grammatischen Kategorien Modus, Tempus, Genus verbi, Person und Numerus. Verneinung. Perfekt: ei + Präsensstamm von "olla" + "nud-"Partizip Wortschatz. Deutlich mehr als andere finno-ugrische Sprachen hat das Estnische durch den Einfluss des Deutschen Ordens im Baltikum Lehnworte aus dem Hochdeutschen und der Niederdeutschen Sprache übernommen, beispielsweise "riik – Staat" (vgl. finnisch "valtakunta"), "müts – Mütze" (vgl. finnisch "lakki"; aber "myssy" Partikelverben. Auch gibt es etwa 350 aus dem Russischen entlehnte Wörter wie "pirukad" (vgl. russisch "пирожки"). Ähnlich wie in einigen romanischen Sprachen (Spanisch, Französisch) ist für das Estnische ein „st“ am Wortanfang untypisch, bei Entlehnungen werden (bzw. wurden) die betroffenen Wörter der estnischen Phonotaktik angepasst (z.  B. "tool" (ndd. Stohl), "tikk" (eng. stick), "tudeng" (Student), "torm" (ndd. Storm)). Diese Erscheinung nimmt jedoch im Zulauf eines neueren fremdsprachlichen Wortschatzes ab: (z.  B. "staadion", "staap" usw). Bei Fremd- und Lehnwörtern wurden die Laute „b“, „d“ und „g“ der Ausgangssprache am Wortanfang zu „p“, „t“ und „k“: "pruukima" (ndd. bruken), "püksid" (ndd. Büx), "piljard" (Billard), "kips" (Gips). Außer diesen Veränderungen am Wortanfang wurde früher das „f“ in ein „hv“ (gesprochen: chw) umgewandelt, z.  B. „krahv“ (Graf) und „kohv“ (eng. "coffee"). Die hv-Kombination wird aber gegenwärtig oft [f] ausgesprochen. Dialekte. Trotz der geringen Fläche Estlands von 45.227 km² weist die estnische Sprache acht Dialekte (est. "murded") auf, die insgesamt etwa 117 Mundarten vereinen. Durch Leibeigenschaft und Fronsystem waren die estnischen Bauern in ihren Kirchspielen isoliert. Ihnen war es unmöglich, sich frei im Land zu bewegen. Die Sprache entwickelte sich folglich regional isoliert und mit unterschiedlichsten Tendenzen. Die größte Konkurrenz bestand jedoch stets zwischen der nordestnischen Dialektgruppe, die sich bei der Entwicklung der heutigen Standardsprache durchsetzte, und der Gruppe der südestnischen Dialekte. Während erstere durch Tallinn als politisches Zentrum von Bedeutung war, erlangte letztere durch Tartu als erste Universitätsstadt des Landes ebenfalls schriftsprachliche Bedeutung. Die starke Ausprägung dieser Dialektgruppen lässt sich durch die einstige Teilung des heutigen Estlands in "Nordestland" und "Südestland" erklären, wobei letzteres territorial dem früheren Livland angehörte. Südestnisch (südlich von Tartu und Põltsamaa) Küstenestnisch (östlich von Tallinn entlang der Küste bis zur Grenzstadt Narva) Sprachpolitik im 20. und 21. Jahrhundert. Geprägt wurde die Sprachpolitik Estlands im 20. und 21. Jahrhundert durch die Geschichte, in der das Land von Dänen, Schweden, Deutschen und Russen besetzt war. Vor allem die von 1721 bis 1918 währende Zeit Estlands als Teil der Ostseeprovinz des Russischen Reiches hinterließ ihre Spuren. So kam es während dieser Zeit zu einer ausgeprägten Russifizierung, die Nationalbewusstsein und Bestrebungen nach kultureller Autonomie unterbinden sollte. Als das Land 1918 seine Unabhängigkeit erlangt hatte, folgte in sprachpolitischer Hinsicht ein bedeutender Wandel. Nachdem der bis 1920 andauernde Unabhängigkeitskrieg durch den Frieden von Tartu beendet worden war, erlangte zunächst jeder Einwohner die Staatsbürgerschaft der Republik Estland. Während dieser Zeit erlaubten es neu verabschiedete Gesetze ethnischen Minderheiten, ihre Kultur zu bewahren und auszuleben. Ein erneuter Wandel der Situation ging mit dem Zweiten Weltkrieg einher. Nachdem dieser beendet und Estland in die Sowjetunion eingegliedert war, sollte die Sprachpolitik erneut durch die sowjetische Besatzung bestimmt werden. So folgte eine Einführung eines nahezu selbstständigen und vom estnischen unabhängigen russischen Schulsystems und eine erneute Politik der Russifizierung. Letztere beinhaltete die Deportation mehrerer Zehntausend Esten und die Ansiedlung ethnischer Russen. So sank der Anteil der Esten an der Gesamtbevölkerung von 88 % vor Kriegsbeginn auf 61,5 % im Jahre 1989, während der Anteil der Bürger mit ostslawischen Muttersprachen im gleichen Zeitraum von 8,2 % auf 35,2 % stieg. Nach der Wiedererlangung der Unabhängigkeit folgte 1991 eine neue Gesetzgebung, die – auch vor dem Hintergrund des Beitritts zur Europäischen Union und als Reaktion auf die Russifizierung der vergangenen Jahrzehnte – mehrfach überarbeitet wurde. Die Staatsbürgerschaft konnte nun nicht automatisch erlangt werden. Vielmehr bestand für die Angehörigen vor allem der russischsprachigen Minderheit die Möglichkeit, entweder nach Russland zurückzukehren, die estnische Staatsbürgerschaft zu beantragen oder mit einer derzeit grundsätzlich ausgestellten unbeschränkten Aufenthaltsgenehmigung als Staatenlose im Land zu verweilen. Der Erwerb der Staatsbürgerschaft setzt Sprachkenntnisse auf dem Niveau B1 des Gemeinsamen Europäischen Referenzrahmens für Sprachen voraus sowie das erfolgreiche Bestehen eines Tests zum Grundgesetz des Landes. Vor allem die Bedingung der Sprachbeherrschung wird sowohl von Angehörigen der Minderheit, die um das Russische als zweite Amtssprache bemüht sind, als auch von "Amnesty International" als diskriminierend beschrieben. Mit dem Programm „Integration in der estnischen Gesellschaft 2000 – 2007“ (estnisch: "Riiklik programm. Integratsioon Eesti ühiskonnas 2000 – 2007.") waren Ziele wie „sprachlich-kommunikative“, „rechtlich-politische“ und „sozialwirtschaftliche Integration“ angestrebt und verfolgt worden. Das Integrationshindernis Sprache sollte beseitigt werden. Mittlerweile muss an allen Schulen des Landes Estnisch unterrichtet werden, sodass bei Beendigung der Mittelstufe das Niveau B2 erreicht ist. Ferner gibt es für Erwachsene die Möglichkeit, kostenlose Sprachkurse zu belegen und ebenfalls kostenlos ihre Sprachkenntnisse zertifizieren zu lassen. Ethnische Minderheiten genießen weiterhin weitreichende Rechte und russischsprachige Schulen, an denen Estnisch als erste Fremdsprache gelehrt wird, werden vom Staat gefördert. Die Bestrebungen der Regierung, möglichst viele der 2007 noch 130.000 Staatenlosen einzubürgern und die Kenntnis der estnischen Sprache zu verbreiten, führen nur langsam zu Ergebnissen. Jedoch ist festzustellen, dass 1989 etwa 67 % der Bevölkerung Estnisch beherrschten, 2008 aber bereits 82 %. Ernst Jünger. Ernst Jünger (* 29. März 1895 in Heidelberg; † 17. Februar 1998 in Riedlingen) war ein deutscher Schriftsteller, Offizier und Insektenkundler. Er ist vor allem durch seine Kriegstagebücher "In Stahlgewittern", durch Essays, phantastische Romane und Erzählungen bekannt. In seinem teilweise nationalistischen, anti-demokratischen und elitären Frühwerk, das der sogenannten Konservativen Revolution zugerechnet wird, kämpfte Jünger entschieden gegen die Weimarer Republik. Ob er als ein intellektueller Wegbereiter des Nationalsozialismus angesehen werden kann, ist in der Forschung umstritten. Von der nationalsozialistischen Ideologie distanzierte er sich in den frühen 1930er Jahren wegen des von ihm als geistlos empfundenen Totalitarismus der NS-Massenbewegung. Jünger erhielt verschiedene Preise und Auszeichnungen, darunter 1918 den Pour le Mérite und 1959 das Große Bundesverdienstkreuz. 1895 bis 1918. Ernst Jünger mit dem Pour le Mérite Deutscher Stoßtrupp im Ersten Weltkrieg Gefallene deutsche Soldaten bei Guillemont, 1916 1895 wurde Ernst Jünger in Heidelberg als erstes von sechs Kindern des Chemikers Ernst Georg Jünger (1868–1943) und dessen späterer Frau Karoline Lampl (* 1873 in München; † 1950 in Leisnig/Sachsen) geboren. Er wurde protestantisch getauft. Zwei seiner Geschwister starben im Säuglingsalter. Jünger verbrachte seine Kindheit in Hannover, in Erzgeb. und schließlich ab 1907 in Rehburg. Der Vater hatte im Kalibergbau beträchtliche Einkünfte erzielt. 1901 wurde Ernst Jünger am Lyceum II in Hannover eingeschult. 1905 bis 1907 verbrachte Ernst Jünger auf Internaten in Hannover und Braunschweig. Ab 1907 lebte er wieder bei seiner Familie in Rehburg. Mit seinen Geschwistern besuchte er die Scharnhorst-Realschule in Wunstorf. In dieser Zeit entdeckte er neben seiner Vorliebe für Abenteuerromane auch die Liebe zur Insektenkunde. 1911 trat Jünger mit seinem Bruder Friedrich Georg dem Wunstorfer Wandervogel-Club bei. Dort fand er den Stoff für seine ersten Gedichte, die in einer Wandervogel-Zeitschrift veröffentlicht wurden. Sie brachten ihm die Anerkennung seiner Lehrer und Mitschüler ein. Er genoss von diesem Zeitpunkt an den Ruf eines Poeten und Dandys. Im November 1913 trat Ernst Jünger als Schüler, der inzwischen ein Gymnasium in Hameln besuchte, in Verdun der Fremdenlegion bei und verpflichtete sich zu einer fünfjährigen Dienstzeit. Danach kam er in das Ausbildungslager Sidi bel Abbès in Algerien und gehörte zur 26. Instruktionskompanie. Von dort floh er mit einem Kameraden nach Marokko, wurde aber schnell aufgegriffen und zur Legion zurückgebracht. Sechs Wochen später wurde er nach einer von seinem Vater betriebenen Intervention des Auswärtigen Amtes auf Grund seines Alters wieder entlassen. Diese Episode seines Lebens wird in dem 1936 erschienenen Buch "Afrikanische Spiele" verarbeitet. Zur Strafe wurde er von seinem Vater auf ein Internat nach Hannover geschickt, wo er Banknachbar des späteren KPD-Politikers Werner Scholem war. Am 1. August 1914, kurz nach dem Ausbruch des Ersten Weltkrieges, meldete sich Ernst Jünger beim Füsilier-Regiment „General-Feldmarschall Prinz Albrecht von Preußen“ (Hannoversches) Nr. 73 in Hannover als Kriegsfreiwilliger. Nach dem Notabitur absolvierte er die militärische Ausbildung und kam im Dezember mit einem Ersatztransport an die Champagne-Front in Frankreich. Im April 1915 wurde Jünger erstmals verwundet. Im Heimaturlaub schlug er auf Anraten seines Vaters die Offizierslaufbahn (Fahnenjunker) ein. Wieder zurück in Frankreich, wurde er am 27. November 1915 Leutnant und Zugführer und machte sich durch spektakuläre Aktionen bei Patrouillen und Stoßtrupps einen Namen. Im Laufe des dritten Kriegsjahres 1916 wurde Jüngers Regiment an sämtlichen Brennpunkten der Westfront eingesetzt. Während der zweiten Somme-Schlacht wurde Jünger am Vorabend der britischen Offensive in der Ruhestellung in Combles verwundet und kam ins Lazarett. In der Folgezeit wurde sein gesamter Zug bei Guillemont aufgerieben. Im November 1916 wurde Jünger bei einem Spähtruppeinsatz zum dritten Mal verwundet und erhielt wenig später das Eiserne Kreuz erster Klasse. Im Frühjahr 1917 wurde Jünger zum Chef der 7. Kompanie ernannt und rettete durch einen Zufall am 29. Juli 1917 seinem Bruder Friedrich Georg Jünger auf dem Schlachtfeld von Langemark das Leben. Daraufhin folgten weitere Auszeichnungen, darunter am 4. Dezember 1917 das Ritterkreuz des Königlichen Hausorden von Hohenzollern. Im März 1918 überlebte Ernst Jünger einen Granateneinschlag, der fast seine gesamte Kompanie vernichtet hatte. Das Kriegsende erlebte Jünger nach einer im August 1918 vor Cambrai erlittenen Verwundung im Lazarett in Hannover. Am 22. September 1918 erhielt er den Orden Pour le Mérite, die höchste militärische Auszeichnung der Krone Preußens. Während des gesamten Kriegsverlaufes notierte er seine Erlebnisse in einem Tagebuch, das er ständig mit sich führte. Die Gefechtspausen seines Frontalltags gegen Ende des Krieges verbrachte er vor allem damit, Werke von Nietzsche, Schopenhauer, Ariost und Kubin zu lesen. Außerdem ließ er sich aus der Heimat entomologische Zeitschriften schicken. Die 15 Kriegstagebücher wurden vor Jüngers Tod dem Deutschen Literaturarchiv Marbach übergeben. 2010 erschienen sie, herausgegeben und kommentiert von Helmuth Kiesel. Die Notizen dienten Jünger als Rohmaterial für sein erstes Buch ("In Stahlgewittern", 1920). 1918 bis 1933. Nach dem Krieg diente Jünger zunächst noch als Leutnant im "Infanterieregiment 16" der Reichswehr in Hannover. Während seiner Dienstzeit war er unter anderem mit der Ausarbeitung von Dienstvorschriften für den Infanteriekampf (Heeresdienstvorschrift 130) beim Reichswehrministerium in Berlin befasst. Bald profilierte er sich als entschiedener Gegner der Republik, hielt sich aber aus den politischen Auseinandersetzungen weitgehend heraus und überarbeitete seine Kriegsaufzeichnungen, die in die Werke "In Stahlgewittern. Aus dem Tagebuch eines Stoßtruppführers" (1920), "Der Kampf als inneres Erlebnis" (1922), "Sturm" (1923), "Das Wäldchen 125" (1925) und "Feuer und Blut" (1925) einflossen. Jüngers Erstlingswerk "In Stahlgewittern" wurde von der rechten Presse mit Begeisterung aufgenommen und als „Siegfried-Buch“ bezeichnet. Nach seinem Ausscheiden aus der Reichswehr am 31. August 1923 studierte er in Leipzig und Neapel Zoologie und Philosophie. 1923 trat er für kurze Zeit in das Freikorps von Gerhard Roßbach ein und war vor allem als reisender Verbindungsmann zu anderen Teilen der nationalen Bewegung aktiv. Sein erster dezidiert politischer Artikel, "Revolution und Idee", erschien im September 1923 im Völkischen Beobachter. Am 3. August 1925 heiratete Jünger Gretha von Jeinsen. Am 1. Mai 1926 wurde in Leipzig der gemeinsame Sohn Ernst geboren (in Jüngers Aufzeichnungen meist „Ernstel“ genannt). Das Studium brach er am 26. Mai ohne Abschluss ab und wandte sich ganz der Schriftstellerei zu. Er schrieb zahlreiche Artikel für nationalrevolutionäre Publikationsorgane wie "Die Standarte", "Arminius", "Der Vormarsch" oder Ernst Niekischs "Widerstand. Zeitschrift für nationalrevolutionäre Politik". 1928 betätigte er sich auch als Herausgeber des Sammelbandes Die Unvergessenen. Bis 1933 verfasste er schätzungsweise 140 Artikel. Trotz seiner Sympathie für die Idee einer nationalen Revolution hielt sich Jünger nach anfänglichen Kontakten von Adolf Hitler und der NSDAP fern. Am 29. Januar 1926 sandte er Hitler sein Buch "Feuer und Blut" mit der Widmung „Dem nationalen Führer Adolf Hitler“, worauf dieser sich persönlich bei ihm bedankte. 1927 zog die Familie Jünger nach Berlin. Im gleichen Jahr lehnte er ein von der NSDAP angebotenes Reichstagsmandat ab. In den folgenden Jahren wechselte Jünger mehrfach seine Publikationsorgane und rief eigene, kurzlebige nationalistische Zeitschriften ins Leben. Grund dafür waren wiederkehrende Auseinandersetzungen innerhalb des nationalistischen Lagers über einen möglichen Legalitätskurs gegenüber der Weimarer Republik. 1928 erregte Jüngers an die Tradition des europäischen Surrealismus anknüpfendes Buch "Das abenteuerliche Herz" Aufsehen, zumal es als „Literarisierung“ des Autors und Abwendung von der Politik interpretiert wurde. Zum Ende der 1920er Jahre trat Jünger zunehmend in den Dialog mit politischen Gegnern der Rechten und zog sich gleichzeitig aus der politischen Publizistik zurück. In dieser Zeit kam es auch zum offenen Bruch mit Hitler, als dieser sich gegen die Landvolkbewegung gewandt hatte; Jünger hatte in ihr den Vorreiter der von ihm erhofften nationalrevolutionären Bewegung gesehen. Am 17. Oktober 1930 störte er im Berliner Beethovensaal gemeinsam mit seinem Bruder Friedrich G., Arnolt Bronnen und etwa dreißig SA-Leuten Thomas Manns "Deutsche Ansprache", in der dieser vor den Gefahren des aufkommenden Nationalsozialismus warnte. Erst in dieser Zeit wurde seine Kriegsliteratur außerhalb nationalistischer und militärischer Kreise populär. 1930 fungierte Jünger als Herausgeber mehrerer nationalrevolutionärer Sammelbände. Um ihn herum bildete sich ein Zirkel nationalistischer Publizisten aus sehr unterschiedlichen Flügeln, angefangen von späteren Nationalsozialisten bis hin zum Nationalbolschewisten Ernst Niekisch. 1932 erschien Jüngers umfangreiches Essay "Der Arbeiter. Herrschaft und Gestalt". Darin etablierte er im Rückgriff auf die mythische Figur des Juden Ahasver eine moderne metaphysische Wahrnehmungstheorie, mit der sich der Text unter der Hand von seinen imperialen und nationalistischen Phantasmen löst. In seiner nationalrevolutionären Publizistik forderte Jünger aus der Verabsolutierung seiner Kriegserlebnisse heraus eine Militarisierung aller Lebensbereiche. Die Weimarer Republik bekämpfte er radikal. Er sprach sich für ihre gewaltsame Zerschlagung und eine Errichtung einer nationalen Diktatur aus. Die Ideale des Humanismus, Pazifismus, ja aller bürgerlichen Ordnungs- und Zivilisiertheitsvorstellungen lehnte er diametral ab: Stattdessen propagierte er ein Menschenbild, das keine Scheu vor Schmerz und Opfer kenne, und Disziplin und Rangordnung höher achte als unbegründete Gleichheit. Nach Ansicht seines Biographen steckte dahinter zum einen ein „früh anerzogener und durch die Lektüre Nietzsches befestigter Antidemokratismus und Antihumanismus“, zum anderen der Verdacht, dass wenn die Humanisten Recht hätten, die vier Jahre Krieg sinnlos gewesen seien. In der Erstauflage von "Wäldchen 125" findet sich der Satz: „Ich hasse die Demokratie wie die Pest“. Gegen das „geschäftsmäßige Literatenpack“, das sich für Aufklärung, Demokratie und Pazifismus einsetze, müsse „sofort die Prügelstrafe wieder eingeführt“ werden. Diese Sätze ließ er 1933 aus den folgenden Ausgaben des Buchs entfernen. Dennoch glaubt der Historiker Peter Longerich, dies sei eine „auch in der Diktion für ihn typische Aussage“. Dort heißt es auch: Diese Äußerungen seien im Zusammenhang mit seinem radikalen „Anti-Liberalismus und Anti-Demokratismus“ (Harro Segeberg) zu sehen und richteten sich daher in erster Linie gegen die „Assimilation“ der deutschen Juden, die er als "Zivilisationsjuden" abqualifiziert; Jünger bevorzugte wie damals auch sein Bruder Friedrich Georg und andere Nationalrevolutionäre das orthodoxe Judentum bzw. später den modernen Zionismus: Franz Schauwecker und Friedrich Hielscher etwa sprachen sich hierbei besonders für Martin Bubers spirituellen Zionismus aus. Jünger gilt einigen Wissenschaftlern als ein intellektueller Wegbereiter des Nationalsozialismus. So schreibt sein Biograph Helmuth Kiesel, zwar dürfe man die „Macht des Wortes“ nicht überschätzen, doch gehöre Jünger unbestreitbar unter „die 'Totengräber' der Weimarer Republik und die 'Pioniere' des 'Dritten Reiches'“. Die "Enzyklopädie des Nationalsozialismus" rechnet ihn unter die „Wegbereiter des Nationalsozialismus“. Der amerikanische Germanist Russell Berman sieht Jünger dagegen allenfalls am Rand eines reaktionären Spektrums. 1933 bis 1945. Nach der Machtübernahme der NSDAP versuchte diese erneut, Ernst Jünger für sich zu gewinnen. Ihm wurde ein Sitz im Reichstag angeboten, den er ablehnte. 1933 kam es auch zu einer Hausdurchsuchung durch die Geheime Staatspolizei (Gestapo) wegen seiner Kontakte zu Kommunisten und zu Ernst Niekisch. Im selben Jahr wies Jünger die Aufnahme in die – nationalsozialistisch „gesäuberte“ – Deutsche Akademie der Dichtung zurück, und seine Wohnung wurde erneut von der Gestapo durchsucht, woraufhin Jünger sich nach Goslar zurückzog. Dort wurde 1934 sein Sohn Alexander geboren. Im selben Jahr erschien "Die totale Mobilmachung". 1936 zog die Familie nach Überlingen am Bodensee um. Ernst Jünger verbrachte die folgenden Jahre mit zahlreichen Auslandsreisen. Ab 1939 lebte Jünger in Kirchhorst nahe Hannover. Im selben Jahr erschien seine Erzählung Auf den Marmorklippen, die oft als verdeckte Kritik an der Gewaltherrschaft Hitlers interpretiert wird. Jünger selbst wehrte sich jedoch zeitlebens gegen die Interpretation der "Marmorklippen" als Widerstandsbuch gegen den Nationalsozialismus. Er sah in "Auf den Marmorklippen" vielmehr ein Werk, welches man auf mehrere Staatssysteme beziehen kann, so zum Beispiel auch auf das stalinistische System in der Sowjetunion, und wollte es daher nicht explizit auf den nationalsozialistischen Staat in Deutschland festschreiben und somit die Interpretationsfreiheit einschränken. Das Hotel Raphaël in Paris, in dem Jünger ab Juni 1941 wohnte. Kurz vor Beginn des Zweiten Weltkriegs wurde Jünger im August 1939 zum Hauptmann befördert und zur Wehrmacht eingezogen; zunächst tat er als Kompaniechef am Westwall gegenüber der Maginot-Linie Dienst. In dieser Zeit erhielt er für die Bergung eines Verwundeten die Spange zum Eisernen Kreuz II. Klasse. 1941 wurde seine Einheit nach Paris verlegt. Ernst Jünger kam im Sommer des Jahres gegen den Widerstand von Wilhelm Keitel in den Stab des Militärbefehlshabers von Frankreich (MBF) unter Otto von Stülpnagel, später Chef des Generalstabes der Heeresgruppe B, wo er unter anderem für die Briefzensur in der Ic-Abteilung zuständig war. Der Stab befand sich zu der Zeit im Pariser Hotel Majestic. Als wichtiges Zeitdokument einer deutschen, nicht-nationalsozialistischen Sicht des Zweiten Weltkrieges entstanden die "Pariser Tagebücher", die einige Jahre später in das Buch "Strahlungen" Eingang fanden. Jünger kam in Kontakt zu Widerstandkreisen innerhalb der Wehrmacht und dokumentierte für sie die Auseinandersetzungen zwischen NSDAP-Stellen und der Wehrmacht im besetzten Frankreich. Gleichwohl ist im "Volks-Brockhaus" 1941 zu lesen: „[Ernst Jünger] stellte in seinen Werken, bes. seinen Kriegsbüchern […], den nationalistischen und heldischen Gedanken dem bürgerlichen Geist entgegen“. 1942 gehörte Jünger zur Stabsabteilung des Militärbefehlshabers in Frankreich, des Generals der Infanterie und späteren Widerstandskämpfers Carl-Heinrich von Stülpnagel. Stülpnagel schickte Jünger in den Kaukasus, angeblich um die Truppenmoral vor einem eventuellen Attentat auf Adolf Hitler zu untersuchen. Dort setzte Jünger sein Tagebuchwerk unter dem Titel "Kaukasische Aufzeichnungen" fort, die ebenfalls in die "Strahlungen" aufgenommen wurden. Noch 1942 kehrte Ernst Jünger nach Paris zurück. 1942 begannen auch die Arbeiten an dem Aufruf "Der Friede", der als Appell an die Jugend Europas nach einem Sturz Hitlers gedacht war. Jünger stand zahlreichen Beteiligten des Attentats vom 20. Juli 1944 nahe. Am 21. Juli 1944 notierte Jünger in seinem "Zweiten Pariser Tagebuch" kommentarlos eine in einem Gespräch mit ihm geäußerte Aussage von Max Hattingen (= „der Präsident“), Hauptmann im Pariser Generalstab: „Die Riesenschlange im Sack gehabt und wieder herausgelassen“. Hattingen bezeichnete damit den Tatbestand, dass es Stülpnagel im Rahmen des Unternehmens Walküre zunächst gelungen war, in Paris die wichtigsten Funktionäre und Führer der SS, des SD und der Gestapo festnehmen zu lassen, um sie dann wieder in Freiheit zu setzen, nachdem das Scheitern des Attentats feststand. Nachdem den Westalliierten die Landung in der Normandie und der Vorstoß ins Landesinnere gelungen war, verließ Jünger mit den abziehenden deutschen Truppen Paris und kehrte nach Deutschland zurück, wo er im September 1944 – im Alter von 49 Jahren – als Hauptmann regulär aus der Wehrmacht entlassen wurde. Er zog sich nach Kirchhorst in Niedersachsen zurück, wo er gegen Kriegsende als Volkssturmkommandant befahl, keinen Widerstand gegen die anrückenden alliierten Truppen zu leisten. Jüngers Sohn Ernst, Ernstel genannt, wurde 1944 zusammen mit seinem Freund Wolf Jobst Siedler im Alter von 17 Jahren während ihres Schulaufenthaltes in dem Internat Hermann Lietz-Schule Spiekeroog verhaftet, wo sie auch als Marinehelfer tätig waren. Ein Mitschüler hatte sie denunziert, sie hätten regimekritische Bemerkungen gemacht. Bei beiden Schülern bestand die Gefahr einer Verurteilung zum Tode. Doch dank der Intervention ihrer Eltern wurden sie von einem Kriegsgericht nur zu Gefängnisstrafen verurteilt. Ein halbes Jahr später wurden beide Jungen auf Bewährung entlassen. Ernstel meldete sich freiwillig bei den Panzergrenadieren einer SS-Einheit, um einer Verhaftung durch die Gestapo zu entgehen. Am 29. November 1944 fiel er in Italien in der Nähe von Carrara. Ernst Jünger und seine Frau hatten noch lange immer wieder Zweifel, ob ihr Sohn nicht in Wirklichkeit „liquidiert“ worden war. 1945 bis 1998. Ernst Jüngers Schreibtisch in Wilflingen Nach dem Krieg weigerte sich Jünger, den Fragebogen der Alliierten für die sogenannte Entnazifizierung auszufüllen, und erhielt daraufhin in der britischen Besatzungszone bis 1949 Publikationsverbot. Er übersiedelte zunächst nach Ravensburg in die französische Besatzungszone und wenig später nach Wilflingen, einem Ortsteil der Gemeinde Langenenslingen im Landkreis Biberach in Oberschwaben. Dort wohnte er von 1951 an bis zu seinem Tode in dem 1727 vom Fürstbischof von Konstanz und Augsburg Johann Franz Schenk Freiherr von Stauffenberg erbauten Forsthaus der ehemaligen Oberförsterei der Schenken von Stauffenberg. Ernst Jünger wurde auf den jungen Journalisten Armin Mohler aufmerksam, da dieser 1946 in der "Weltwoche" einen recht positiven Artikel über ihn veröffentlicht hatte. Von 1949 bis 1953 war Mohler Privatsekretär von Jünger. 1949 lernte Jünger den LSD-Entdecker Albert Hofmann kennen. Gemeinsam experimentierten beide mit der Droge. Jünger schrieb anschließend ein Buch über seine Erfahrungen mit LSD (Besuch auf Godenholm). 1951 entstand Jüngers Essay "Der Waldgang", eine Art Widerstandsfibel gegen Totalitarismus und Anpassung. Fortsetzung und Abschluss dieser Thematik sind in dem 1977 erschienenen Roman "Eumeswil" zu sehen, in dem Jünger „das Gebäude seiner Weltweisheit“ (Armin Mohler) errichtete. Er entwickelt darin die Gestalt des Waldgängers zu der des Anarchen weiter, wobei er sich hauptsächlich auf Max Stirner und dessen 1844 erschienenes Buch "Der Einzige und sein Eigentum" bezieht. Weitere hervorzuhebende Veröffentlichungen sind der Roman "Heliopolis" (1949) und die Kriminalgeschichte "Eine gefährliche Begegnung" (1985). Nach dem Tod seiner ersten Frau Gretha (1960) heiratete Jünger 1962 die promovierte Germanistin Liselotte Lohrer (1917–2010), die unter anderem das Cotta-Archiv im Deutschen Literaturarchiv aufgebaut und betreut hat. In seinen Schriften bezeichnet Jünger sie gewöhnlich mit ihrem Kosenamen als „das Stierlein“. Sie war auch an der Edition der Werke ihres Mannes bei Klett-Cotta beteiligt. Am 20. Juli 1977 starb Ernst Jüngers Bruder Friedrich Georg. Ernst Jünger reiste und schrieb bis kurz vor seinem Tod. 1986 reiste er nach Kuala Lumpur, um zum zweiten Mal in seinem Leben den Halleyschen Kometen zu sehen. Darüber berichtet er im Tagebuch "Zwei Mal Halley", das zugleich einen Teil seines diaristischen Hauptwerks "Siebzig verweht" bildet. Jünger begann dieses Alterstagebuch nach seinem 70. Geburtstag (1965) und führte es bis zum Frühjahr 1996 fort. Am 20. Juli 1993 besuchten der damalige französische Staatspräsident François Mitterrand und der damalige deutsche Bundeskanzler Helmut Kohl Jünger im Stauffenbergschen Forsthaus in Wilflingen. Am 26. September 1996 konvertierte Ernst Jünger zum römisch-katholischen Glauben. Erst nachdem er 1998 im Alter von 102 Jahren im Krankenhaus von Riedlingen gestorben war, wurde seine Konversion bekannt. An der Beerdigung Ernst Jüngers nahmen 2.000 Menschen teil, darunter Erwin Teufel, Ministerpräsident von Baden-Württemberg, ein Vertreter der Bundesregierung in Bonn und fünf Generäle der Bundeswehr. In Gedenken an Ernst Jünger fertigte der Aachener Bildhauer Wolf Ritz eine Büste an, die anfangs in Wilflingen aufgestellt wurde, aber mittlerweile vom Deutschen Literaturarchiv Marbach übernommen worden ist. Orden und Ehrungen. Aus Anlass des 90. Geburtstages Ernst Jüngers stiftete das Land Baden-Württemberg mit dem Einverständnis des Schriftstellers 1985 den "Ernst-Jünger-Preis für Entomologie". Damit werden seit 1986 in dreijährigem Turnus Wissenschaftler ausgezeichnet, die mit herausragenden Arbeiten auf dem Gebiet der Insektenkunde hervorgetreten sind. Ernst Jünger war als Träger des Pour le Mérite der letzte Bezieher eines Ehrensolds gem. § 11 des Gesetzes über Titel, Orden und Ehrenzeichen aus dem Jahr 1957. Rezeption. Jünger faszinierte seine Leser und Schriftstellerkollegen bereits zu Lebzeiten, polarisierte dabei aber auch. Bertolt Brecht sprach Jünger jeden literarischen Rang ab: "Da er selbst nicht mehr jung ist, würde ich ihn einen Jugendschriftsteller nennen, aber vielleicht sollte man ihn überhaupt nicht einen Schriftsteller nennen, sondern sagen: Er wurde beim Schreiben gesehen. Dagegen zählte der Avantgardist Alfred Döblin gerade Jünger, Brecht und sich selbst zu der "geistesrevolutionären Bewegung" innerhalb der deutschen Literatur. Auch wenn der spätere Exilant Thomas Mann den schriftstellerischen Rang Jüngers nicht angriff, urteilte er über ihn, er sei ein "Wegbereiter und eiskalter Genüßling des Barbarismus". Nach 1945 stellte Alfred Andersch in "Deutsche Literatur in der Entscheidung" (1948) die These auf, dass Jüngers Bedeutung nicht zuletzt auch durch seine Umstrittenheit bedingt sei. Auch Autoren wie Heiner Müller oder Rolf Hochhuth suchten die Verbindung mit dem alten Jünger. International sind Jüngers Schriften weit verbreitet, ihre Rezeption ist, im Gegensatz zur Situation in Deutschland, weniger auf die politische Publizistik Jüngers fixiert. Bereits seine frühen Schriften wurden in zahlreiche Sprachen übersetzt. Kritisiert wurde an Jüngers Schriften schon früh die Verherrlichung von Gewalt und seine Idealisierung von Männlichkeit in Form des „Kriegers“. Später wurde das Werk Jüngers meist aus einer ästhetischen Perspektive rezipiert, wobei hierbei die brisanten politischen Implikationen ausgeblendet wurden. Während im nationalsozialistischen Deutschland "Auf den Marmorklippen" auch als leicht entschlüsselbare Kritik am NS-Regime gelesen wurde, hat man Jüngers Texte aus der Nachkriegszeit als politisch weniger relevant angesehen. Umso mehr jedoch gelten diese Texte als ästhetisch interessant. Einen Markstein der wissenschaftlichen Rezeption bildete diesbezüglich Karl Heinz Bohrers Studie von 1978 "Ästhetik des Schreckens", die die Verflechtung von Jüngers Texten mit der europäischen und US-amerikanischen Avantgarde zeigt. Im Gefolge dieser Forschungsöffnung fand Jünger – neben Walter Benjamin, Siegfried Kracauer und anderen – als Klassiker der modernen Medientheorie Beachtung. Hieran schlossen im Zuge der poststrukturalistischen Theoriebildung in Frankreich beispielsweise Virilio und Baudrillard an. Im deutschsprachigen Raum tritt hingegen seine ästhetische Beurteilung als Stilist meist hinter die politische zurück. Erst in jüngster Zeit finden sich wieder häufiger Interpretationen, die versuchen, den Nachweis subtiler, impliziter Subtexte im Werk Jüngers zu erbringen. Es gelinge ihm, politische Auffassungen auf diese Weise – gleichsam unbemerkt – zu transportieren. Die deutschsprachige Literaturkritik ist ebenfalls in ihrer Bewertung ambivalent. Jünger hatte Bewunderer wie Friedrich Sieburg und zahlreiche Gegner. Darunter sind Fritz J. Raddatz und Marcel Reich-Ranicki zu nennen. Andererseits beurteilten jüngere Kollegen wie Denis Scheck Jünger positiver. Wenig diskutiert wird seine oft unkonventionelle Themenwahl (in "Heliopolis" kommen Weltraumfahrt und eine Art von Mobiltelefon vor (der Phonophor), "Gläserne Bienen" beschreibt nanotechnisch betriebene Roboter). Hinzu kommen seine wissenschaftlichen Beiträge zur Insektenkunde. Zeit seines Lebens beschäftigte sich Jünger auch mit dem Thema Drogen, auch durch eigene Drogenerfahrungen u. a. mit Opium, Mescalin, Kokain und LSD, die er intensiv in seinem 1970 erschienenen Buch "Annäherungen. Drogen und Rausch" beschreibt und auch in seinen Notiz- und Tagebüchern immer wieder erwähnt. In literarischer Form verarbeitet Jünger Drogenerfahrungen z. B. in "Strahlungen" (1949), "Heliopolis" (1949) und "Besuch auf Godenholm" (1952). Zumeist nahm Jünger Drogen in gesellschaftlichen Runden ein und verwendete Dosierungen, die zu starke Räusche verhinderten. Im Jahr 2013 widmete das Literaturmuseum der Moderne dem langjährigen Briefwechsel Jüngers mit Albert Hofmann, dem Erfinder des LSD, eine umfassende Ausstellung. Nachlass. Ein Teil des Nachlasses von Ernst Jünger befindet sich im Deutschen Literaturarchiv in Marbach am Neckar. Zahlreiche Blätter weisen mittlerweile Schädigungen auf, die durch Selbstklebebänder entstanden sind. Das Archiv zeigte im Jahre 2010 die Ausstellung "Ernst Jünger. Am Abgrund", mit zahlreichen Exponaten aus seinen Lebensabschnitten. Einzelne Exponate aus Jüngers Nachlass sind Teil der Dauerausstellung im Literaturmuseum der Moderne in Marbach, beispielsweise sein Kriegstagebuch, aus dem später "In Stahlgewittern" entstand, und sein Kalender. Erdbeben. Als Erdbeben werden messbare Erschütterungen des Erdkörpers bezeichnet. Sie entstehen durch Masseverschiebungen, zumeist als tektonische Beben infolge von Verschiebungen an Bruchfugen der Lithosphäre, in weniger bedeutendem Maße auch durch vulkanische Aktivität, Einsturz oder Absenkung unterirdischer Hohlräume, große Erdrutsche und Bergstürze sowie durch Sprengungen. Erdbeben, deren Herd unter dem Meeresboden liegt, werden auch Seebeben oder unterseeische Erdbeben genannt. Sie unterscheiden sich von anderen Beben zum Teil in den Auswirkungen, jedoch nicht in ihrer Entstehung. Erdbeben bestehen in der Regel nicht aus einer einzelnen Erschütterung, sondern ziehen meist weitere nach sich. Man spricht in diesem Zusammenhang von Vorbeben und Nachbeben mit Bezug auf ein stärkeres Hauptbeben. Treten Erdbeben über einen längeren, begrenzten Zeitraum gehäuft auf, so spricht man von einem "Erdbebenschwarm" oder "Schwarmbeben". Solche treten vor allem in vulkanisch aktiven Regionen auf. In Deutschland gibt es gelegentlich Erdbebenschwärme im Vogtland und am Hochstaufen. Der deutlich größte Anteil aufgezeichneter Erdbeben ist zu schwach, um von Menschen wahrgenommen zu werden. Starke Erdbeben können Häuser und Bauten zerstören, Tsunamis und Erdrutsche auslösen und dabei Menschen töten. Sie können die Gestalt der Erdoberfläche verändern und zählen zu den Naturkatastrophen. Die Wissenschaft, die sich mit Erdbeben befasst, heißt Seismologie. Die zehn stärksten seit 1900 gemessenen Erdbeben fanden mit einer Ausnahme alle an der Subduktionszone rund um den Pazifik, dem sogenannten Pazifischen Feuerring, statt (s. Liste unten). Historisches. Schon in der Antike fragten sich Menschen, wie Erdbeben und Vulkanausbrüche entstehen. Man schrieb diese Ereignisse häufig Göttern zu (in der griechischen Mythologie dem Poseidon). Manche Wissenschaftler im alten Griechenland glaubten, die Kontinente schwämmen auf dem Wasser und schaukelten wie ein Schiff hin und her. Andere Leute glaubten, Erdbeben brächen aus Höhlen aus. In Japan gab es den Mythos des Drachen, der den Erdboden erzittern ließ und Feuer spie, wenn er wütend war. Im europäischen Mittelalter schrieb man Naturkatastrophen dem Wirken Gottes zu. Mit der Entdeckung und Erforschung des Magnetismus entstand die Theorie, man könne Erdbeben wie Blitze ableiten. Man empfahl daher Erdbebenableiter nach Art der ersten Blitzableiter. Erst Anfang des 20. Jahrhunderts kam die heute allgemein anerkannte Theorie von der Plattentektonik und der Kontinentaldrift durch Alfred Wegener auf. Ab der Mitte des 20. Jahrhunderts wurden die Erklärungsmuster der tektonischen Beben verbreitet diskutiert. Bis zum Beginn des 21. Jahrhunderts konnte man daraus allerdings keine Technik zur sicheren Vorhersage von Erdbeben entwickeln. Ursachen und Beschreibung von Erdbeben. Weltkarte mit 358.214 Epizentren von Erdbeben zwischen 1963 und 1998 Ursachen, Auslöser und Begleitphänomene. Erdbeben entstehen durch dynamische Prozesse im Erdinneren. Eine Folge dieser Prozesse ist die Plattentektonik, also die Bewegung der Lithosphärenplatten, die von der oberflächlichen Erdkruste bis in den lithosphärischen Mantel reichen. Besonders an den Plattengrenzen, an denen sich verschiedene Platten auseinander "(Spreizungszone)", aufeinander zu "(Subduktions- oder Kollisionszone)" oder aneinander vorbei "(Transformverwerfung)" bewegen, bauen sich Spannungen innerhalb des Gesteins auf, wenn sich die Platten in ihrer Bewegung verhaken und verkanten. Wird die Scherfestigkeit der Gesteine dann überschritten, entladen sich diese Spannungen durch ruckartige Bewegungen der Erdkruste und es kommt zum tektonischen Beben. Dabei kann mehr als das Hundertfache der Energie einer Wasserstoffbombe freigesetzt werden. Da die aufgebaute Spannung nicht auf die unmittelbare Nähe der Plattengrenze beschränkt ist, kann der Entlastungsbruch in selteneren Fällen auch im Inneren der Platte auftreten, wenn dort das Krustengestein eine Schwächezone aufweist. Die Temperatur nimmt zum Erdinneren hin stetig zu, weshalb das Gestein mit zunehmender Tiefe immer leichter deformierbar wird und schon in der unteren Erdkruste nicht mehr spröde genug ist, um brechen zu können. Erdbeben haben ihren Ursprung daher meist in der oberen Erdkruste, in wenigen Kilometern Tiefe. Vereinzelt werden jedoch Beben mit Herden bis in 700 km Tiefe nachgewiesen. Solche "Tiefherdbeben" treten vor allem an Subduktionszonen auf. Dort bewegen sich zwei Platten aufeinander zu, wobei die dichtere der beiden unter jene mit der geringeren Dichte geschoben wird und in den Erdmantel abtaucht. Der abtauchende Teil der Platte (engl.: ') erwärmt sich im Mantel jedoch relativ langsam, sodass dessen Krustenmaterial auch noch in größeren Tiefen bruchfähig ist. Die Hypozentren von Erdbeben, die innerhalb eines auftreten, ermöglichen somit Schlüsse auf die Position desselben in der Tiefe (sogenannte Wadati-Benioff-Zone). Als Auslöser dieser Tiefherdbeben gilt unter anderem die Volumenänderung des Slab-Gesteins infolge von Mineralumwandlungen unter den im Mantel herrschenden Temperatur- und Druckbedingungen. Auch in vulkanischen Zonen aufsteigendes Magma kann, meist eher schwache, Erdbeben verursachen. Bei unterseeischen Erdbeben, beim Ausbruch ozeanischer Vulkane oder beim Auftreten unterseeischer Erdrutsche können sogenannte Tsunamis entstehen. Bei plötzlicher vertikaler Verlagerung großer Teile des Ozeanbodens entstehen Wellen, die sich mit Geschwindigkeiten von bis zu 800 Kilometern pro Stunde fortbewegen. Auf dem offenen Meer sind Tsunamis kaum wahrnehmbar; läuft die Welle jedoch in flacherem Wasser aus, steilt sich der Wellenberg auf und kann am Ufer in extremen Fällen bis zu 100 Meter Höhe erreichen. Am häufigsten entstehen Tsunamis im Pazifik. Deshalb besitzen die an den Pazifik angrenzenden Staaten ein Frühwarnsystem, das Pacific Tsunami Warning Center. Nachdem am 26. Dezember 2004 etwa 230.000 Menschen nach einem verheerenden Erdbeben im Indischen Ozean starben, wurde auch dort ein Frühwarnsystem errichtet. Sehr flachgründige und nur lokal spürbare Erdbeben können durch Frost ausgelöst werden („Frostbeben“), wenn größere Mengen Wasser im Boden oder im Gesteinsuntergrund gefrieren und sich dabei ausdehnen. Dadurch entstehen Spannungen, die sich in kleineren Erschütterungen entladen, die dann an der Oberfläche als „Erdbeben“ und grollendes Geräusch wahrgenommen werden. Das Phänomen tritt meist zu Beginn einer strengen Frostperiode auf, wenn die Temperaturen rapide von Werten über dem Gefrierpunkt auf Werte weit unter den Gefrierpunkt gefallen sind. Neben den natürlich verursachten und ausgelösten Erdbeben gibt es auch anthropogene (menschgemachte) Erdbeben. Diese sind nicht zwangsläufig absichtlich oder wissentlich herbeigeführt, wie z. B. im Fall von aktiver Seismik oder bei Atomwaffentests, sondern es sind oft Ereignisse, die als unbeabsichtigte „Nebenwirkungen“ menschlicher Aktivitäten auftreten. Zu diesen Aktivitäten gehören unter anderem die konventionelle Förderung fossiler Kohlenwasserstoffe (Erdöl und Erdgas), die durch Verringerung des Porendruckes die Spannungsverhältnisse im Gestein der Lagerstätte verändert. Anthropogene Erdbeben finden auch beim Einsturz von bergbaulich verursachten unterirdischen Hohlräumen (Gebirgsschlag) oder im Zusammenhang mit der unkonventionellen Förderung fossiler Kohlenwasserstoffe, speziell durch Fracking und die Verpressung von Fracking-Abwässern, statt. Die Magnitude dieser Erdbeben liegt in den allermeisten Fällen im Bereich von Mikrobeben oder Ultramikrobeben. Nur selten erreicht sie den Wert spürbarer Beben. Die bislang stärksten anthropogenen Erdbeben ereigneten sich infolge des Aufstauens großer Wassermengen in Stauseen durch die Auflasterhöhung im Untergrund in der Nähe großer Verwerfungen. Das durch diese Umstände ausgelöste Erdbeben von Koynangar in Indien im Jahre 1967, mit Magnitude 6,5 das stärkste seiner Art, forderte 180 Todesopfer. Die Fortpflanzungsgeschwindigkeit eines Bebens beträgt im Normalfall ca. 3,5 km/s (nicht zu verwechseln mit der oben angegebene Wellengeschwindigkeit bei Seebeben). In sehr seltenen Fällen kommt es aber zur überschallschnellen Ausbreitung des Bebens, wobei bereits Fortpflanzungsgeschwindigkeiten von ca. 8 km/s gemessen wurde. Bei einem überschallschnellen Beben breitet sich der Riss schneller aus als die seismische Welle, was normalerweise umgekehrt abläuft. Bisher konnten erst 6 überschallschnelle Beben aufgezeichnet werden. Aufzeichnung der Erdbebenwellen. a> eines Erdbebens bei den Nikobaren, 24. Juli 2005, Magnitude 7,3 Erdbeben erzeugen Erdbebenwellen verschiedenen Typs, die sich über und durch die ganze Erde ausbreiten und von Seismographen (bzw. Seismometern) überall auf der Erde in sogenannten Seismogrammen aufgezeichnet werden können. Die mit starken Erdbeben einhergehenden Zerstörungen an der Erdoberfläche (Spaltbildung, Schäden an Gebäuden und Verkehrsinfrastruktur usw.) sind auf die sogenannten "Oberflächenwellen" zurückzuführen, die sich an der Erdoberfläche ausbreiten und eine elliptische Bodenbewegung auslösen. Durch Auswertung der Stärke und Laufzeiten von Erdbebenwellen kann man die Position des Erdbebenherdes bestimmen, dabei fallen auch Daten über das Erdinnere an. Die Positionsbestimmung unterliegt als Messung an Wellen der gleichen Unschärfe, die bei Wellen in anderen Bereichen der Physik bekannt sind. Im Allgemeinen nimmt die Unschärfe der Ortsbestimmung mit zunehmender Wellenlänge zu. Eine Quelle von langperiodischen Wellen kann also nicht so genau lokalisiert werden wie die von kurzperiodischen Wellen. Da schwere Erdbeben den größten Teil ihrer Energie im langperiodischen Bereich entwickeln, kann besonders die Tiefe der Quelle nicht genau bestimmt werden. Erdbebenherd. Durch den Vergleich der Laufzeiten der seismischen Wellen eines Erdbebens in weltweit verteilten Observatorien, wo die Signale mit Seismographen registriert werden, kann im Rahmen der physikalisch bedingten Unschärfe auf die Position des Hypozentrums als Quelle der Wellen geschlossen werden. Das Hypozentrum wird entsprechend auch als "Erdbebenherd" bezeichnet. Die Quelle der seismischen Wellen kann sich im Laufe eines Bebens bewegen, so etwa bei schweren Beben, die eine Bruchlänge von mehreren hundert Kilometern aufweisen können. Nach internationaler Übereinkunft wird dabei die zuerst gemessene Position als Hypozentrum des Erdbebens bezeichnet, also der Ort, wo das Beben begonnen hat. Der Ort auf der Erdoberfläche direkt über dem Hypozentrum heißt Epizentrum. Der Zeitpunkt des Bruchbeginns wird als "Herdzeit" bezeichnet. Die Bruchfläche, die das Erdbeben auslöst, wird in ihrer Gesamtheit als "Herdfläche" bezeichnet. In den meisten Fällen erreicht diese Bruchfläche die Erdoberfläche nicht, sodass der Erdbebenherd in der Regel nicht sichtbar wird. Im Fall eines größeren Erdbebens, dessen Hypozentrum in nur geringer Tiefe liegt, kann die Herdfläche bis an die Erdoberfläche reichen und dort zu einem deutlichen Versatz führen. Der genaue Ablauf des Bruchprozesses legt die "Abstrahlcharakteristik" des Bebens fest, bestimmt also, wie viel Energie in Form von seismischen Wellen in jede Richtung des Raumes abgestrahlt wird. Dieser Bruchmechanismus wird als Herdvorgang bezeichnet. Der Ablauf des Herdvorganges kann aus der Analyse von Ersteinsätzen an Messstationen rekonstruiert werden. Das Ergebnis einer solchen Berechnung ist die Herdflächenlösung. Es gibt drei grundlegende Typen von Erdbebenereignissen, welche die drei Arten der Plattengrenzen widerspiegeln: In Spreizungszonen, wo die tektonischen Platten auseinanderdriften, wirkt eine Zugspannung auf das Gestein ("Extension"). Die Blöcke zu beiden Seiten der Herdfläche werden also auseinandergezogen und es kommt zu einer Abschiebung (engl.: "normal fault"), bei welcher der Block oberhalb der Bruchfläche nach unten versetzt wird. In Kollisionszonen, wo sich Platten aufeinander zubewegen, wirkt dagegen eine Kompressionsspannung. Das Gestein wird zusammengestaucht und es kommt, abhängig vom Neigungswinkel der Bruchfläche, zu einer Auf- oder Überschiebung (engl.: "reverse fault" bzw. "thrust fault"), bei welcher der Block oberhalb der Bruchfläche nach oben versetzt wird. In Subduktionszonen kann sich die abtauchende Platte mitunter großflächig verhaken, was in der Folge zu einem massiven Spannungsaufbau und letztlich zu besonders schweren Erdbeben führen kann. Diese werden gelegentlich auch als "Megathrust-Erdbeben" bezeichnet. Der dritte Herdtyp wird als Blattverschiebung (engl.: "strike-slip fault") bezeichnet, der an Transformverwerfungen vorkommt, wo sich die beteiligten Platten seitlich aneinander vorbeischieben. In der Realität wirken die Kräfte und Spannungen jedoch zumeist schräg auf die Gesteinsblöcke, da sich die Lithosphärenplatten verkanten und dabei auch drehen können. Die Platten bewegen sich daher im Normalfall nicht gerade aufeinander zu oder aneinander vorbei, so dass die Herdmechanismen zumeist eine Mischform aus einer Auf- oder Abschiebung und einer seitwärts gerichteten Blattverschiebung darstellen. Man spricht hier von einer "Schrägaufschiebung" bzw. "Schrägabschiebung" (engl.: "oblique fault"). Erdbebenstärke. Um Erdbeben miteinander vergleichen zu können, ist es notwendig, deren Stärke zu ermitteln. Da eine direkte Messung der freigesetzten Energie eines Erdbebens schon allein auf Grund der Tiefenlage des Herdprozesses nicht möglich ist, wurden in der Seismologie verschiedene Erdbebenskalen entwickelt. Intensität. Die ersten Erdbebenskalen, die Ende des 18. bis Ende des 19. Jahrhunderts entwickelt wurden, konnten nur die Intensität eines Erdbebens beschreiben, also die Auswirkungen auf Menschen, Tiere, Gebäude und natürliche Objekte wie Gewässer oder Berge. Im Jahre 1883 entwickelten die Geologen M. S. De Rossi und F. A. Forel eine zehnstufige Skala zur Bestimmung der Intensität von Erdbeben. Wichtiger wurde jedoch die im Jahre 1902 eingeführte zwölfteilige Mercalliskala. Sie beruht allein auf der subjektiven Einschätzung der hör- und fühlbaren Beobachtungen sowie der Schadensauswirkung auf Landschaft, Straßen oder Gebäude (Makroseismik). 1964 wurde sie zur MSK-Skala und später zur EMS-Skala weiterentwickelt. Intensitätsskalen werden auch heute noch verwendet, wobei verschiedene Skalen existieren, die an die Bauweise und Bodenverhältnisse des jeweiligen Landes angepasst sind. Die räumliche Verteilung der Intensitäten wird häufig durch Fragebogenaktionen zuständiger Forschungseinrichtungen (in Deutschland beispielsweise bundesweit durch die BGR per Online-Formular) ermittelt und in Form von Isoseistenkarten dargestellt. Isoseisten sind Isarithmen gleicher Intensitäten. Die Möglichkeit zur Erfassung von Intensitäten beschränkt sich auf relativ dicht besiedeltes Gebiet. Magnitude. Durch die Entwicklung und stetige Verbesserung von Seismometern ab der zweiten Hälfte des 19. Jahrhunderts eröffnete sich die Möglichkeit, objektive, auf physikalischen Größen basierende Messungen vorzunehmen, was zur Entwicklung der Magnitudenskalen führte. Diese ermöglichen über empirisch gefundene Beziehungen und physikalische Gesetzmäßigkeiten, von den an seismologischen Messstationen aufgezeichneten ortsabhängigen Amplitudenwerten auf die Stärke eines Bebens zurückzuschließen. Es gibt verschiedene Methoden, die Magnitude zu berechnen. Die unter Wissenschaftlern gebräuchlichste Magnitudenskala ist heute die Momenten-Magnituden-Skala. Von den Medien wird die in den 1930er Jahren von Charles Francis Richter und Beno Gutenberg eingeführte Richterskala am häufigsten zitiert, die auch als "Lokalbebenmagnitude" bezeichnet wird. Zur exakten Messung der Erdbebenstärke benutzt man Seismographen, die in 100 km Entfernung zum Epizentrum des Erdbebens liegen sollten. Mit der Richter-Skala werden die seismischen Wellen in logarithmischer Einteilung gemessen. Sie diente ursprünglich der Quantifizierung von Erdbeben im Raum Kalifornien. Liegt eine Erdbebenmessstation zu weit vom Erdbebenherd entfernt (> 1000 km) und ist die Stärke des Erdbebens zu groß (ab etwa Magnitude 6), kann diese Magnitudenskala jedoch nicht oder nur eingeschränkt verwendet werden. Sie ist aufgrund der einfachen Berechnung und der Vergleichbarkeit mit älteren Erdbebeneinstufungen vielfach auch in der Seismologie noch in Gebrauch. Vorhersage. Die zeitlich und räumlich exakte Vorhersage von Erdbeben ist nach dem heutigen Stand der Wissenschaft nicht möglich. Die verschiedenen bestimmenden Faktoren sind qualitativ weitestgehend verstanden. Auf Grund des komplexen Zusammenspiels aber ist eine genaue Quantifizierung der Herdprozesse bislang nicht möglich, sondern nur die Angabe einer Wahrscheinlichkeit für das Auftreten eines Erdbebens in einer bestimmten Region. Allerdings kennt man "Vorläuferphänomene". Einige davon äußern sich in der Veränderung geophysikalisch messbarer Größen, wie z. B. der seismischen Geschwindigkeit, der Neigung des Erdbodens oder der elektromagnetischen Eigenschaften des Gesteins. Andere Phänomene basieren auf statistischen Beobachtungen, wie etwa das Konzept der "seismischen Ruhe", die bisweilen auf ein bevorstehendes größeres Ereignis hindeutet. Wiederholt wurde auch von ungewöhnlichem Verhalten bei Tieren kurz vor größeren Erdbeben berichtet. Dadurch gelang in einem Einzelfall im Februar 1975 die rechtzeitige Warnung der Bevölkerung vor einem Erdbeben. Alle bekannten Vorläuferphänomene variieren jeweils sehr stark in Zeitverlauf und Größenordnung. Zudem wäre der instrumentelle Aufwand, der für eine lückenlose Erfassung dieser Phänomene erforderlich wäre, aus heutiger Sicht finanziell und logistisch nicht realisierbar. Wegen des volkswirtschaftlichen Schadens und eventueller Opfer (Massenpanik oder Massenhysterie) ist eine Frühwarnung der Bevölkerung vor einem einzelnen Erdbeben nur sinnvoll, wenn die Zahl der zu erwartenden Opfer des Erdbebens als sehr groß eingeschätzt wird, oder wenn das Erdbeben sehr genau in Raum und Zeit vorausgesagt werden kann. Historische Erdbeben. Die wichtigsten bekannten Erdbebengebiete sind in der Liste der Erdbebengebiete der Erde aufgeführt. Eine umfassende Aufstellung historisch überlieferter Erdbebenereignisse befindet sich in der Liste von Erdbeben. Stärkste gemessene Erdbeben. Die folgende Liste wurde nach Angaben des USGS zusammengestellt. Die Werte beziehen sich, wenn nicht anders angegeben, auf die Momenten-Magnitude MW, wobei zu berücksichtigen ist, dass unterschiedliche Magnitudenskalen nicht direkt miteinander vergleichbar sind. Schäden. Das Ausmaß der durch ein Erdbeben hervorgerufenen Schäden hängt zunächst von der Stärke und Dauer des Bebens ab sowie von der Besiedlungsdichte und der Anzahl und Größe der Bauwerke in dem betroffenen Bereich. Wesentlich ist aber auch die Erdbebensicherheit der Bauwerke. In der europäischen Norm EC 8 (in Deutschland DIN EN 1998-1) sind die Grundlagen für die Auslegung von Erdbebeneinwirkungen für die verschiedenen Bauarten Holz, Stahl, Stahlbeton, Verbundbauweise, Mauerwerk Bemessungskriterien definiert. Esther Friesner. Esther Mona Friesner-Stutzman, geb. Friesner (* 16. Juli 1951 in den USA) ist eine US-amerikanische Schriftstellerin. Leben. Friesner studierte Drama und Spanisch am Vassar College und promovierte dann in Spanisch an der Yale University. Dort unterrichtete sie auch einige Jahre Spanisch und schrieb in ihrer Freizeit Kurzgeschichten und Romane. Schließlich begann sie hauptberuflich zu schreiben. 1982 erschien ihre erste Kurzgeschichte "The Stuff of Heroes". Bis jetzt hat sie 37 Romane veröffentlicht und mehrere Anthologien herausgegeben. Am bekanntesten ist wohl die Anthologie 'Chicks in Chainmail'. Friesner lebt zusammen mit ihrem Mann und ihren zwei Kindern in Connecticut. Europa (Mond). Europa (auch "Jupiter II") ist mit einem Durchmesser von 3121 km der zweitinnerste und kleinste der vier großen Monde des Planeten Jupiter und der sechstgrößte im Sonnensystem. Europa ist ein Eismond. Obwohl die Temperatur auf der Oberfläche von Europa maximal −150 °C erreicht, lassen Messungen des äußeren Gravitationsfeldes und der Nachweis eines induzierten Magnetfeldes in der Umgebung Europas mit Hilfe der Galileo-Sonde darauf schließen, dass sich unter der mehrere Kilometer mächtigen Wassereis­hülle ein etwa 100 km tiefer Ozean aus flüssigem Wasser befindet. Entdeckung. Europas Entdeckung wird dem italienischen Gelehrten Galileo Galilei zugesprochen, der im Jahr 1610 sein einfaches Fernrohr auf den Jupiter richtete. Die vier großen Monde Io, Europa, Ganymed und Kallisto werden auch als die Galileischen Monde bezeichnet. Benannt wurde der Mond nach Europa, einer Geliebten des Zeus aus der griechischen Mythologie. Obwohl der Name Europa bereits kurz nach seiner Entdeckung von Simon Marius vorgeschlagen wurde, konnte er sich über lange Zeit nicht durchsetzen. Erst in der Mitte des 20. Jahrhunderts kam er wieder in Gebrauch. Vorher wurden die Galileischen Monde üblicherweise mit römischen Ziffern bezeichnet und Europa war "Jupiter II". Die Galileischen Monde sind so hell, dass man sie auch mit einem Fernglas beobachten kann. Umlaufbahn und Rotation. Resonanzverhältnisse mit Angaben in Bezug auf Io Europa umkreist den Jupiter rechtläufig in einem mittleren Abstand von 670.900 Kilometern in 3 Tagen, 13 Stunden und 14,6 Minuten. Ihre Umlaufbahn ist mit einer numerischen Exzentrizität von 0,0101 fast kreisförmig. Ihr jupiternächster und -fernster Bahnpunkt – Perijovum und Apojovum – weichen jeweils nur um 1,01 % von der großen Halbachse ab. Die Bahnebene ist nur 0,470° gegenüber Jupiters Äquatorebene geneigt. Die Umlaufzeit von Europa steht zu ihrem inneren und äußeren Nachbarmond in einer Bahnresonanz von 2:1 bzw. 1:2; das heißt, während zwei Umläufen von Europa läuft Io genau viermal und Ganymed genau einmal um Jupiter. Europa weist, wie der Erdmond und die übrigen inneren Jupitermonde, eine gebundene Rotation auf und zeigt stets mit derselben Seite zu dem Planeten. Aufbau und physikalische Daten. Europa besitzt einen mittleren Durchmesser von 3121,6 Kilometern und eine mittlere Dichte von 3,01 g/cm³. Obwohl sie deutlich der kleinste der vier Galileischen Monde ist, ist ihre Masse größer als die aller kleineren Monde des Sonnensystems zusammengenommen. Die Temperatur auf Europas Oberfläche beträgt nur 110 K (etwa −160 °C) am Äquator und 50 K (etwa −220 °C) an den Polen. Oberfläche. Die zurzeit höchstaufgelöste Aufnahme der Europa-Oberfläche. Der Ausschnitt zeigt ein Gebiet von 1,8 km × 4,8 km. Norden ist rechts. Der 26 km große Einschlagskrater Pwyll Die Oberfläche von Europa umfasst 30,6 Millionen Quadratkilometer, was ungefähr der Größe von Afrika entspricht. Mit einer Albedo von 0,64 ist sie eine der hellsten Oberflächen aller bekannten Monde im Sonnensystem: 64 % des eingestrahlten Sonnenlichts werden reflektiert. Die Oberfläche setzt sich aus Eis zusammen. Die rötlichen Färbungen sind Folge von abgelagerten Mineralien. Die Oberfläche ist außergewöhnlich eben. Sie ist von Furchen überzogen, die allerdings eine geringe Tiefe aufweisen. Nur wenige Strukturen, die sich mehr als einige hundert Meter über die Umgebung erheben, wurden festgestellt. Krater. Europas Oberfläche weist nur sehr wenige Einschlagskrater auf, von denen nur drei einen Durchmesser von mehr als 5 Kilometern besitzen. Der zweitgrößte Krater, "Pwyll", hat einen Durchmesser von 26 Kilometern. Pwyll ist eine der geologisch jüngsten Strukturen auf Europa. Bei dem Einschlag wurde helles Material aus dem Untergrund über Tausende von Kilometern hinweg ausgeworfen. Die geringe Kraterdichte ist ein Hinweis darauf, dass Europas Oberfläche geologisch sehr jung ist bzw. sich regelmäßig erneuert, sodass nur Einschläge von Kometen und Asteroiden der jüngeren geologischen Vergangenheit darauf dokumentiert sind. Berechnungen des Oberflächenalters anhand der Kraterdichte ergaben ein Höchstalter von ca. 90 Millionen Jahren. Damit besitzt Europa mit die jüngste Oberfläche unter den soliden Himmelskörpern im Sonnensystem. Ferner konnten anhand von Nahinfrarotaufnahmen der Galileo-Sonde Schichtsilikate auf Europa nachgewiesen werden. Es wird vermutet, dass sie von einem Objekt stammen, das in einem flachen Winkel eingeschlagen ist, wodurch die Einschlagsenergie des Impaktors relativ gering war, sodass dieser weder vollständig verdampfen noch sich tief in die Kruste bohren konnte. Von besonderer Bedeutung ist diese Entdeckung deshalb, weil solche Objekte oft auch organische Verbindungen, sogenannte "Bausteine des Lebens", mit sich führen. Furchen und Gräben. Europas auffälligstes Merkmal ist ein Netzwerk von kreuz und quer verlaufenden Gräben und Furchen, Lineae genannt (Einzahl: Linea), die die gesamte Oberfläche überziehen. Die Lineae haben eine starke Ähnlichkeit mit Rissen und Verwerfungen auf irdischen Eisfeldern. Die größeren sind etwa 20 Kilometern breit und besitzen undeutliche äußere Ränder sowie einen inneren Bereich aus hellem Material. Die Lineae könnten durch Kryovulkanismus (Eisvulkanismus) oder den Ausbruch von Geysiren aus warmem Wasser entstanden sein, wodurch die Eiskruste auseinander gedrückt wurde. Diese Lineae befinden sich außerdem zum allergrößten Teil an anderen Stellen, als man sie erwartet. Dies lässt sich möglicherweise dadurch erklären, dass sich zwischen Eiskruste und Mondoberfläche ein Ozean befindet. Dieser könnte entstanden sein, weil sich auf Grund der exzentrischen Umlaufbahn des Mondes um den Jupiter andauernd dessen Gravitationswirkung auf Europa ändert, sodass dieser ständig verformt wird. Dadurch erwärmt sich Europa und das Eis schmilzt zum Teil. Wenn Europa auf seiner Umlaufbahn die größte Jupiterentfernung durchlief, konnten wiederholt Wasserstoff- und Sauerstoffatome über dem Südpol nachgewiesen werden. Es wird vermutet, dass sie aus der Spaltung von Wassermolekülen stammten, die freigesetzt werden, wenn sich Spalten öffnen und Wasser in den Weltraum schießt, das nach dem Aufstieg bis in eine Höhe von 200 Kilometern auf die Oberfläche zurückfällt. Weitere Strukturen. Ein weiterer Typ von Oberflächenstrukturen sind kreis- und ellipsenförmige Gebilde, Lenticulae (lat. Flecken) genannt. Viele sind Erhebungen (engl. Domes), andere Vertiefungen oder ebene dunkle Flecken. Die Lenticulae entstanden offensichtlich durch aufsteigendes wärmeres Eis, vergleichbar mit Magmakammern in der Erdkruste. Die Domes wurden dabei empor gedrückt, die ebenen dunklen Flecken könnten gefrorenes Schmelzwasser sein. Chaotische Zonen, wie Conomara Chaos, sind wie ein Puzzle aus Bruchstücken geformt, die von glattem Eis umgeben sind. Sie haben das Aussehen von Eisbergen in einem gefrorenen See. Eiskruste und Ozean. Ein Gebiet mit Lineae, Domes und dunklen Flecken; der Ausschnitt ist 140 × 130 km groß Die äußere Hülle Europas besteht aus Wasser. Basierend auf Messungen des Gravitationsfeldes wurde ihre Mächtigkeit zwischen 80 und 170 Kilometern berechnet. Diese äußere Hülle, die man in Analogie zum Aufbau des Erdkörpers als "Kruste" auffassen kann, ist differenziert in eine äußere Schicht aus Wassereis und eine innere Schicht aus flüssigem Wasser. Die innere flüssige Wasserschicht wird allgemein auch als "Ozean" bezeichnet. Das genaue Verhältnis von Eis zu Wasser in der äußeren Hülle ist zurzeit noch unbekannt. Jedoch gibt es verschiedene Hypothesen, die auf verschiedenen Ansätzen beruhen. So kommen Berechnungen, denen die Auswertungen von Oberflächenstrukturen zugrunde liegen, auf eine Mächtigkeit der Eishülle von 2 bis 18 Kilometern. Die magnetometrischen Messungen der Galileo-Sonde legen nahe, dass der Ozean zumindest einige Kilometer mächtig sein muss, um die Messwerte erklären zu können. Andere Autoren schließen aufgrund der gleichen Daten auf eine Höchsttiefe des Ozeans von 100 Kilometern bzw. eine Höchstmächtigkeit der Eishülle von 15 Kilometern. Obwohl Europa deutlich kleiner als die Erde ist, wäre die dort vorkommende Menge an flüssigem Wasser damit mehr als doppelt so groß wie die der irdischen Ozeane. Ab etwa drei Kilometern unter der Oberfläche könnte es außerdem im Eis eingeschlossene Wasserblasen geben. Die relativ glatte Oberfläche Europas und die darauf erkennbaren Strukturen erinnern sehr stark an Eisfelder in Polarregionen auf der Erde. Bei den sehr niedrigen Oberflächentemperaturen ist Wassereis hart wie Gestein. Die größten sichtbaren Krater wurden offensichtlich mit frischem Eis ausgefüllt und eingeebnet. Detaillierte Aufnahmen zeigen, dass sich Teile der Eiskruste gegeneinander verschoben haben und zerbrochen sind, wobei ein Muster von Eisfeldern entstand. Die Bewegung der Kruste wird durch Gezeitenkräfte hervorgerufen, die die Oberfläche 30 m heben und senken. Die Eisfelder müssten aufgrund der gebundenen Rotation ein bestimmtes, vorhersagbares Muster aufweisen. Weitere Aufnahmen zeigen stattdessen, dass nur die geologisch jüngsten Gebiete ein solches Muster aufweisen. Andere Gebiete weichen mit zunehmendem Alter von diesem Muster ab. Das kann damit erklärt werden, dass sich Europas Oberfläche geringfügig schneller bewegt als ihr innerer Mantel und der Kern. Die Eiskruste ist vom Mondinnern durch den dazwischen liegenden Ozean mechanisch entkoppelt und wird von Jupiters Gravitationskräften beeinflusst. Vergleiche von Aufnahmen der Raumsonden Galileo und Voyager 2 zeigen, dass sich Europas Eiskruste in etwa 10.000 Jahren einmal komplett um den Mond bewegen müsste. Hinweise auf Plattentektonik. Die von der Voyager- und Galileosonde aufgenommenen Bilder lassen auch darauf schließen, dass die Oberfläche von Europa Subduktion unterliegt. Ähnlich wie bei der Plattentektonik auf der Erde schieben sich mächtige Eisplatten langsam übereinander, wobei die in die Tiefe gedrängten Platten aufschmelzen; an anderen Stellen entsteht dafür neues Oberflächenmaterial. Dem vorgeschlagenen zugrunde liegenden Modell zufolge besteht Europas Eismantel aus zwei Schichten. Die äußere Schicht aus festem Eis „schwimmt“ auf einer Schicht aus weicherem, konvektionierenden Eis. Dies ist der erste entdeckte Fall von Plattentektonik auf einem Himmelskörper außer der Erde. Mantel und Kern. Europa gilt zwar als Paradebeispiel für einen Eismond, aber der Anteil des Eises am Gesamtvolumen dieses Jupitermondes ist relativ gering und sein Aufbau entspricht eher dem der terrestrischen (erdähnlichen) Planeten: Im Zentrum befindet sich ein wahrscheinlich flüssiger Eisen- oder Eisen-Eisensulfid-Kern. Dieser ist von einem Mantel aus Silikatgesteinen umgeben, der den überwiegenden Teil des Volumens des Satelliten ausmacht. Atmosphäre. Aufnahmen des Hubble-Weltraumteleskops ergaben Hinweise auf das Vorhandensein einer extrem dünnen Atmosphäre aus Sauerstoff, mit einem Druck von 10−11 bar. Es wird angenommen, dass der Sauerstoff durch die Einwirkung der Sonnenstrahlung auf die Eiskruste entsteht, wobei das Wassereis in Sauerstoff und Wasserstoff gespalten wird. Der flüchtige Wasserstoff entweicht in den Weltraum, der massereichere Sauerstoff wird durch Europas Gravitation festgehalten. Magnetfeld. Bei Vorbeiflügen der Galileosonde wurde ein schwaches Magnetfeld gemessen (seine Stärke entspricht etwa ¼ der Ganymeds). Das Magnetfeld variiert, während sich Europa durch die äußerst ausgeprägte Magnetosphäre des Jupiter bewegt. Die Daten von Galileo weisen darauf hin, dass sich unter Europas Oberfläche eine elektrisch leitende Flüssigkeit befindet, etwa ein Ozean aus Salzwasser. Darüber hinaus zeigen spektroskopische Untersuchungen, dass die rötlichen Linien und Strukturen an der Oberfläche reich an Salzen wie Magnesiumoxid sind. Die Salzablagerungen könnten zurückgeblieben sein, als ausgetretenes Salzwasser verdampft war. Da die festgestellten Salze in der Regel farblos sind, dürften andere Elemente wie Eisen oder Schwefel für die rötliche Färbung verantwortlich sein. Spekulationen über Leben auf Europa. Mögliche Verbindungen von Europas unterirdischem Ozean mit der Oberfläche Das mögliche Vorhandensein von flüssigem Wasser ließ Spekulationen darüber aufkommen, ob in Europas Ozeanen Formen von Leben existieren können. Auf der Erde wurden Lebensformen entdeckt, die unter extremen Bedingungen auch ohne das Vorhandensein von Sonnenlicht bestehen können, etwa in den hydrothermalen Quellen (Schwarze Raucher) oder in der Tiefsee. Nach einem Bericht des Wissenschaftsmagazins New Scientist kamen NASA-Wissenschaftler, die die gestrichene Nasa-Mission "Jupiter Icy Moons Orbiter" planten, nach Auswertungen früherer Missionen im Frühjahr 2004 zu dem Schluss, dass der Mond Europa weitaus lebensfeindlicher sein könnte als zuvor angenommen. So wurden auf der Oberfläche Wasserstoffperoxid und von konzentrierter Schwefelsäure bedeckte Flächen nachgewiesen. Hier geht man davon aus, dass die Säure aus dem unter der Eisschicht angenommenen Ozean stammt. Die Konzentration wird mit unterseeischem Vulkanismus erklärt, der für den Schwefel verantwortlich sein kann. Es ist durchaus möglich, dass der Schwefel vom Jupitermond Io stammt. Mittlerweile gibt es auch Indizien dafür, dass der vermutete Ozean unter der Oberfläche Europas eine nennenswerte Salzkonzentration hat. So wurde Epsomit auf der Oberfläche nachgewiesen (eine Magnesiumsulfat-Verbindung). Epsomit könnte durch Reaktion des Schwefels vom Jupitermond Io mit Magnesiumchlorid unter Strahleneinwirkung entstanden sein. Das Magnesiumchlorid stammt mit hoher Wahrscheinlichkeit aus dem Innern Europas. Epsomit ist wesentlich leichter nachzuweisen als Natrium- oder Kaliumchlorid, das man eher auf Europa vermuten würde. Um eine Kontaminierung Europas mit irdischen Mikroorganismen zu vermeiden, ließ man die Raumsonde Galileo, die zuletzt Europa beobachtete, in der Jupiteratmosphäre verglühen. Bislang gibt es keine Hinweise für Leben, doch sollen spätere Missionen dies klären. Gedacht wird an eine unbemannte Kryobot-Raumsonde, die auf der Oberfläche landen, sich durch die Eiskruste durchschmelzen und eine Art „Mini-U-Boot“ (Hydrobot) in Europas Ozean ablassen soll. Bevor diese Mission überhaupt Wirklichkeit werden kann, könnte in der nächsten Dekade eine "Europa Orbiter" Raumsonde gestartet werden, die in eine Umlaufbahn um Europa eintreten und den Mond umfassend studieren soll. Davon erhofft man sich weitere Erkenntnisse über Europa zu sammeln und geeignete Landestellen für spätere Missionen zu finden. Erkundung durch Sondenmissionen. Nach dem Vorbeifliegen der Sonden Pioneer 10 und Pioneer 11 in den Jahren 1973 bzw. 1974 gab es von den größten Monden Jupiters zumindest unscharfe Photographien. Voyager 1 und Voyager 2 lieferten beim Vorbeifliegen 1979 wesentlich genauere Bilder und Daten. 1995 begann die Sonde Galileo acht Jahre lang, den Jupiter zu umrunden. Sie führte dabei auch genaue Untersuchungen und Messungen an den Galileischen Monden durch, auf denen der größte Teil unseres heutigen Wissens über diese Himmelskörper beruht. Geplante Missionen. Für das Jahr 2020 planten die Raumfahrtagenturen NASA und ESA den Start der Europa Jupiter System Mission/Laplace Mission, welche zwei Orbiter vorsah (JEO – Jupiter Europa Orbiter und JGO – Jupiter Ganymede Orbiter), die jeweils in einen Orbit um Europa und Ganymed eintreten sollten und das gesamte Jupitersystem mit einem revolutionären Tiefgang erforschen sollten. Der JEO (Jupiter Europa Orbiter) sollten nach der Planung 2028 den Orbit um Europa einschwenken und mehrere Jahre lang mit verschiedenen on-board-Instrumenten Daten u. a. über Morphologie, Temperatur und Schwerkraft des Mondes sammeln. Zusätzlich sollen mittels Ice Penetrating Radar die Eigenschaften des Wassereises studiert werden, um Aufschluss über die Konsistenz bzw. das Ausmaß des Eismantels und eines eventuellen flüssigen Ozeans geben zu können. Die NASA, die den JEO bauen wollte, stieg jedoch aus dem Projekt aus. Die ESA verwirklicht jedoch den JGO mit leicht abgewandelter Missionsplanung als JUICE. JUICE soll nach ihrer Ankunft am Jupiter im Jahr 2030 zwei Vorbeiflüge an Europa durchführen und klären, ob Europa den vermuteten Ozean unter seiner Eiskruste hat. Erde. Die Erde ist der dichteste, fünftgrößte und der Sonne drittnächste Planet des Sonnensystems. Ihr Durchmesser beträgt über 12.700 Kilometer und ihr Alter etwa 4,6 Milliarden Jahre. Sie ist Heimat aller bekannten Lebewesen. Nach der vorherrschenden chemischen Beschaffenheit der Erde wird der Begriff der erdartigen (terrestrischen) oder auch erdähnlichen Planeten definiert. Das astronomische Symbol der Erde ist ♁ oder formula_1 (Radkreuz). Umlaufbahn. Gemäß dem ersten keplerschen Gesetz bewegt sich die Erde um die Sonne auf einer elliptischen Bahn, die Sonne befindet sich in einem der Brennpunkte der Ellipse. Der sonnenfernste Punkt der Umlaufbahn, das Aphel, und der sonnennächste Punkt, das Perihel, sind die beiden Endpunkte der Hauptachse der Ellipse. Der Mittelwert des Aphel- und Perihelabstandes ist die große Halbachse der Ellipse und beträgt etwa 149,6 Mio. km. Ursprünglich wurde dieser Abstand der Definition der Astronomischen Einheit (AE) zugrunde gelegt, die als astronomische Längeneinheit hauptsächlich für Entfernungsangaben innerhalb des Sonnensystems verwendet wird. Das Perihel liegt bei 0,983 AE (147,1 Mio. km) und das Aphel bei 1,017 AE (152,1 Mio. km). Die Exzentrizität der Ellipse beträgt also 0,0167. Der Perihel-Durchgang erfolgt um den 3. Januar und der Aphel-Durchgang um den 5. Juli. Für einen Sonnenumlauf benötigt die Erde 365 Tage, 6 Stunden, 9 Minuten und 9,54 Sekunden; diese Zeitspanne wird auch als siderisches Jahr bezeichnet. Das siderische Jahr ist 20 Minuten und 24 Sekunden länger als das tropische Jahr, das die Basis für das bürgerliche Jahr der Kalenderrechnung bildet. Die Bahngeschwindigkeit beträgt im Mittel 29,78 km/s, im Perihel 30,29 km/s und im Aphel 29,29 km/s; somit legt der Planet eine Strecke von der Größe seines Durchmessers in gut sieben Minuten zurück. Zur inneren Nachbarbahn der Venus hat die Erdbahn einen mittleren Abstand von 0,28 AE (41,44 Mio. km) und bis zur äußeren Nachbarbahn des Mars sind es im Mittel 0,52 AE (78,32 Mio. km). Auf der Erdbahn befinden sich mehrere koorbitale Objekte, siehe dazu unter Erdbahn. Der Umlaufsinn der Erde ist rechtläufig, das heißt, dass sie sich entsprechend der Regel der Drehrichtung im Sonnensystem vom Nordpol der Erdbahnebene aus gesehen dem Uhrzeigersinn entgegengesetzt um die Sonne bewegt. Die Bahnebene der Erde wird Ekliptik genannt. Die Ekliptik ist um gut 7° gegen die Äquatorebene der Sonne geneigt. Der Nordpol der Sonne ist der Erde am stärksten gegen Anfang September zugewandt, der solare Südpol wiederum gegen Anfang März. Nur um den 6. Juni und den 8. Dezember befindet sich die Erde kurz in der Ebene des Sonnenäquators. Rotation. Siderischer Tag (1–2) und Sonnentag (1–3) Die Erde rotiert rechtläufig – in Richtung Osten – in 23 Stunden, 56 Minuten und 4,09 Sekunden relativ zu den Fixsternen einmal um ihre eigene Achse. Analog zum siderischen Jahr wird diese Zeitspanne als siderischer Tag bezeichnet. Aufgrund der Bahnbewegung der Erde entlang ihrer Umlaufbahn im gleichen Drehsinn und der daraus resultierenden leicht unterschiedlichen Position der Sonne an aufeinanderfolgenden Tagen ist ein Sonnentag, der als die Zeitspanne zwischen zwei Sonnenhöchstständen (Mittag) definiert ist, etwas länger als ein siderischer Tag und wird nach Definition in 24 Stunden eingeteilt. Aufgrund der Eigenrotation der Erde hat ein Punkt auf dem Äquator eine Geschwindigkeit von 464 m/s bzw. 1670 km/h. Infolge der dadurch bedingten Fliehkraft ist die Figur der Erde an den Polen geringfügig abgeplattet und dafür gegen ihren Äquator zu einem sogenannten Äquatorwulst verformt. Gegenüber einer volumengleichen Kugel ist der Erdradius am Äquator 7 Kilometer größer und der Polradius 14 Kilometer kleiner. Der Durchmesser am Äquator ist etwa 43 km größer als der von Pol zu Pol. Der Gipfel des Chimborazo ist wegen seiner Nähe zum Äquator der Punkt der Erdoberfläche, der am weitesten vom Erdmittelpunkt entfernt ist. Die Rotationsachse der Erde ist 23°26' gegen die senkrechte Achse der Ekliptik geneigt, dadurch werden die Nord- und die Südhalbkugel der Erde an verschiedenen Punkten ihrer Umlaufbahn um die Sonne unterschiedlich beschienen, was zu den das Klima der Erde prägenden Jahreszeiten führt. Die Richtung der Achsneigung fällt für die Nordhalbkugel derzeit in die ekliptikale Länge des Sternbilds Stier. In dieser Richtung steht, von der Erde aus gesehen, am 21. Juni auch die Sonne zur Sommersonnenwende. Da die Erde zwei Wochen später ihr Aphel durchläuft, fällt der Sommer auf der Nordhalbkugel in die Zeit ihres sonnenfernen Bahnbereichs. Präzession und Nutation. Zusammenstellung von Satellitenaufnahmen der Erde, die 2012 aufgenommen wurden. (in HD) Die Gezeitenkräfte des Mondes und der Sonne bewirken am Äquatorwulst der Erde ein Drehmoment, das die Erdachse aufzurichten versucht und zu einer Kreiselbewegung der Rotationsachse führt. Ein vollständiger Kegelumlauf dieser lunisolaren Präzession dauert etwa 25.700 bis 25.800 Jahre. Mit diesem Zyklus der Präzession verschieben sich die Jahreszeiten. Der Mond verursacht durch die Präzessionsbewegung seiner eigenen Umlaufbahn mit einer Periode von 18,6 Jahren eine zusätzliche „nickende“ Bewegung der Erdachse, die als Nutation bezeichnet wird. Der Einfluss des Mondes bewirkt zugleich eine Stabilisierung der Erdachsenneigung, die ohne ihn durch die Anziehungskraft der Planeten bis zu einer Schräglage von 85° taumeln würde. Für Einzelheiten siehe den Abschnitt Mond. Rotationsdauer und Gezeitenkräfte. Die Gravitation von Mond und Sonne verursacht auf der Erde die Gezeiten. Der Anteil der Sonne ist dabei etwa halb so groß wie der des Mondes. Damit verbunden ist die Gezeitenreibung von Ebbe und Flut der Meere. Diese bremst die Erdrotation und verlängert dadurch gegenwärtig die Tage um etwa 20 Mikrosekunden pro Jahr. Die Gezeiten wirken sich auch auf die Landmassen aus, die sich um etwa einen halben Meter heben und senken. Die Rotationsenergie der Erde wird dabei in Wärme umgewandelt. Der Drehimpuls wird auf den Mond übertragen, der sich dadurch um etwa vier Zentimeter pro Jahr von der Erde entfernt. Dieser schon lange vermutete Effekt ist seit etwa 1995 durch Laserdistanzmessungen abgesichert. Extrapoliert man diese Abbremsung in die Zukunft, wird auch die Erde einmal dem Mond immer dieselbe Seite zuwenden, wobei ein Tag auf der Erde dann etwa siebenundvierzig Mal so lang wäre wie heute. Damit unterliegt die Erde demselben Effekt, der in der Vergangenheit schon zur gebundenen Rotation "(Korotation)" des Mondes geführt hat. "Abstände der Erde und der unteren Planeten zur Sonne:" Mittlere Entfernung (Pfeil) und Bereich des Umlaufbahnradius für Erde, Venus und Merkur von der Sonne. Entfernungen zur und Größe der Sonne sind hierbei maßstabsgetreu, Planeten müssten dafür unter 0,06 Pixel groß sein. Innerer Aufbau. Die massenanteilige Zusammensetzung der Erde besteht hauptsächlich aus Eisen (32,1 %), Sauerstoff (30,1 %), Silizium (15,1 %), Magnesium (13,9 %), Schwefel (2,9 %), Nickel (1,8 %), Calcium (1,5 %) und Aluminium (1,4 %). Die restlichen 1,2 % teilen sich Spuren von anderen Elementen. Nach seismischen Messungen ist die Erde hauptsächlich aus drei Schalen aufgebaut: aus dem Erdkern, dem Erdmantel und der Erdkruste. Diese Schalen sind durch seismische Diskontinuitätsflächen (Unstetigkeitsflächen) voneinander abgegrenzt. Die Erdkruste und der oberste Teil des oberen Mantels bilden zusammen die sogenannte Lithosphäre. Sie ist zwischen 50 und 100 km dick und zergliedert sich in große und kleinere tektonische Einheiten, die Platten. Ein dreidimensionales Modell der Erde wird, wie alle verkleinerten Nachbildungen von Weltkörpern, Globus genannt. Oberfläche. Der Äquatorumfang ist durch die Zentrifugalkraft der Rotation mit 40.075,017 km um 67,154 km bzw. um 0,17 % größer als der Polumfang mit 40.007,863 km (bezogen auf das geodätische Referenzellipsoid von 1980). Der Poldurchmesser ist mit 12.713,504 km dementsprechend um 42,816 km bzw. um 0,34 % kleiner als der Äquatordurchmesser mit 12.756,320 km (bezogen auf das Referenzellipsoid; die tatsächlichen Zahlen weichen davon ab). Die Unterschiede im Umfang tragen mit dazu bei, dass es keinen eindeutig höchsten Berg auf der Erde gibt. Nach der Höhe über dem Meeresspiegel ist es der Mount Everest im Himalaya und nach dem Abstand des Gipfels vom Erdmittelpunkt der auf dem Äquatorwulst stehende Vulkanberg Chimborazo in den Anden. Von der jeweils eigenen Basis an gemessen ist der Mauna Kea auf der vom pazifischen Meeresboden aufragenden großen vulkanischen Hawaii-Insel am höchsten. Wie die meisten festen Planeten und fast alle größeren Monde, zum Beispiel der Erdmond, weist auch die Erde eine deutliche Zweiteilung ihrer Oberfläche in unterschiedlich ausgeprägte Halbkugeln auf. Die Oberfläche von ca. 510 Mio. km² unterteilt sich in eine Landhemisphäre und eine Wasserhemisphäre. Die Landhalbkugel ist die Hemisphäre mit dem maximalen Anteil an Land. Er beträgt mit 47 % knapp die Hälfte der sichtbaren Fläche. Die Fläche der gegenüberliegenden Wasserhalbkugel enthält nur 11 % Land und wird durch Ozeane dominiert. Damit ist die Erde der einzige Planet im Sonnensystem, auf dem flüssiges Wasser auf der Oberfläche existiert. In den Meeren sind 96,5 % des gesamten Wassers des Planeten enthalten. Das Meerwasser enthält im Durchschnitt 3,5 % Salz. Die Wasserfläche hat in der gegenwärtigen geologischen Epoche einen Gesamtanteil von 70,7 %. Die von der Landfläche umfassten 29,3 % entfallen hauptsächlich auf sieben Kontinente; der Größe nach: Asien, Afrika, Nordamerika, Südamerika, Antarktika, Europa und Australien (Europa ist als große westliche Halbinsel Asiens im Rahmen der Plattentektonik allerdings wahrscheinlich nie eine selbstständige Einheit gewesen). Die kategorische Grenzziehung zwischen Australien als kleinstem Erdteil und Grönland als größter Insel wurde nur rein konventionell festgelegt. Die Fläche des Weltmeeres wird im Allgemeinen in drei Ozeane einschließlich der Nebenmeere unterteilt: den Pazifik, den Atlantik und den Indik. Die tiefste Stelle, das Witjastief 1 im Marianengraben, liegt 11.034 m unter dem Meeresspiegel. Die durchschnittliche Meerestiefe beträgt 3.800 m. Das ist etwa das Fünffache der bei 800 m liegenden mittleren Höhe der Kontinente (s. hypsografische Kurve). Plattentektonik. Die größten Platten entsprechen in ihrer Anzahl und Ordnung etwa jener der von ihnen getragenen Kontinente, mit Ausnahme der pazifischen Platte. Alle diese Schollen bewegen sich gemäß der Plattentektonik relativ zueinander auf den teils aufgeschmolzenen, zähflüssigen Gesteinen des oberen Mantels, der 100 bis 150 km mächtigen Asthenosphäre. Magnetisches Feld. Das die Erde umgebende magnetische Feld wird von einem "Geodynamo" erzeugt. Das Feld ähnelt nahe der Erdoberfläche einem magnetischen Dipol. Die magnetischen Feldlinien treten auf der Südhalbkugel der Erde aus und durch die Nordhalbkugel wieder in die Erde ein. Im Erdmantel verändert sich die Form des Magnetfeldes. Außerhalb der Erdatmosphäre wird das Dipolfeld durch den Sonnenwind verformt. Die geomagnetischen Pole der Erde fallen nicht genau mit den geografischen Polen der Erde zusammen. Im Jahr 2007 war die Achse des geomagnetischen Dipolfeldes um etwa 11,5° gegenüber der Erdachse geneigt. Atmosphäre. Diese Ansicht aus der Umlaufbahn zeigt den Vollmond, der von der Erdatmosphäre teilweise verschleiert wird. "NASA-Bild." Der Übergang zwischen Erdatmosphäre und Weltraum ist kontinuierlich und man kann daher keine scharfe Obergrenze ziehen. Die Masse beträgt 5,13 × 1018 kg und macht somit knapp ein Millionstel der Erdmasse aus. Der mittlere Luftdruck auf dem Niveau des Meeresspiegels beträgt unter Standardbedingungen 1013,25 hPa. In den bodennahen Schichten besteht die Lufthülle im Wesentlichen aus 78 Vol.-% Stickstoff, 21 Vol.-% Sauerstoff und 1 Vol.-% Edelgasen, überwiegend Argon. Dazu kommt ein Anteil von 0,4 Vol.-% Wasserdampf in der gesamten Erdatmosphäre. Der für den Treibhauseffekt wichtige Anteil an Kohlendioxid steigt zurzeit durch menschlichen Einfluss und liegt jetzt bei etwa 0,04 Vol.-%. Die auf der Erde meteorologisch gemessenen Temperaturextreme betragen −89,2 °C (gemessen am 21. Juli 1983 auf 3420 Metern Höhe in der Wostok-Station in der Antarktis) und 56,7 °C (gemessen am 10. Juli 1913 im Death Valley auf). Die mittlere Temperatur in Bodennähe beträgt 15 °C. Die Schallgeschwindigkeit bei dieser Temperatur beträgt in der Luft auf Meeresniveau etwa 340 m/s. Die Erdatmosphäre streut den kurzwelligen, blauen Spektralanteil des Sonnenlichts etwa fünfmal stärker als den langwelligen, roten und bedingt dadurch bei hohem Sonnenstand die Blaufärbung des Himmels. Dass die Oberfläche der Meere und Ozeane vom Weltall aus gesehen blau erscheinen, weswegen die Erde seit dem Beginn der Raumfahrt auch der „Blaue Planet“ genannt wird, ist jedoch auf die stärkere Absorption roten Lichtes im Wasser selbst zurückzuführen. Die Spiegelung des blauen Himmels an der Wasseroberfläche ist dabei nur von nebensächlicher Bedeutung. Klimazonen. Die Erde wird anhand unterschiedlich intensiver Sonneneinstrahlung in Klimazonen eingeteilt, die sich vom Nordpol zum Äquator erstrecken – und auf der Südhalbkugel spiegelbildlich verlaufen. Die jahreszeitlichen Temperaturschwankungen sind umso stärker, je weiter die Klimazone vom Äquator und vom nächsten Ozean entfernt liegt. Polarzone. Unter den Polargebieten versteht man zum einen die Region innerhalb des nördlichen Polarkreises, die Arktis, sowie die Region innerhalb des südlichen Polarkreises, die Antarktis, die den größten Teil des Kontinents Antarktika enthält. Besonderes Kennzeichen der Polarregionen ist neben dem kalten Klima mit viel Schnee und Eis der bis zu einem halben Jahr dauernde Polartag mit der Mitternachtssonne bzw. die Polarnacht, aber auch die Polarlichter. Gemäßigte Zone. Die gemäßigte Klimazone erstreckt sich vom Polarkreis bis zum vierzigsten Breitengrad und wird in eine kalt-, kühl- und warmgemäßigte Zone eingeteilt. Diese Zone weist einen großen Unterschied zwischen den Jahreszeiten auf, der in Richtung des Äquators jedoch etwas abnimmt. Ein weiteres Merkmal sind die Unterschiede zwischen Tag und Nacht, die je nach Jahreszeit stark variieren. Diese Unterschiede nehmen, je näher man dem Pol kommt, immer mehr zu. Die Vegetation wird durch Nadel-, Misch- und Laubwälder geprägt, wobei die Nadelwälder in Richtung Äquator immer weniger werden. Subtropen. Die Subtropen liegen in der geografischen Breite zwischen den Tropen in Äquatorrichtung und den gemäßigten Zonen in Richtung der Pole, ungefähr zwischen 25° und 40° nördlicher beziehungsweise südlicher Breite. Diese Gebiete haben typischerweise tropische Sommer und nicht-tropische Winter. Man kann sie unterteilen in trockene, winterfeuchte, sommerfeuchte und immerfeuchte Subtropen. Eine weitverbreitete Definition definiert das Klima dort als subtropisch, wo die Mitteltemperatur im Jahr über 20 Grad Celsius liegt, die Mitteltemperatur des kältesten Monats jedoch unter der Marke von 20 Grad bleibt. Die Unterschiede zwischen Tag und Nacht fallen relativ gering aus. Die Vegetation reicht von der Artenvielfalt, wie sie zum Beispiel im Mittelmeer auftritt, über die Vegetation der trockenen Savanne bis hin zur kargen oder auch völlig fehlenden Vegetation in Wüsten wie der Sahara. Tropen. Die Tropen befinden sich zwischen dem nördlichen und südlichen Wendekreis. Die Tropen können in die wechselfeuchten und immerfeuchten Tropen unterschieden werden. In den Tropen sind Tag und Nacht immer ungefähr gleich lang (zwischen 10,5 und 13,5 Stunden). Klimatische Jahreszeiten gibt es nur in den wechselfeuchten Tropen und lassen sich lediglich in Trocken- und Regenzeit unterscheiden. Typisch für die wechselfeuchten Tropen sind die Feuchtsavannen, die sich nördlich und südlich der großen Regenwälder befinden. Sie zeichnen sich durch ihre weiten Grasländer aus. Beispiele sind die afrikanische Savanne und der Pantanal in Südbrasilien und Paraguay. Für die immerfeuchten Tropen, die sich rund um den Äquator befinden, sind die großen, sehr artenreichen Regenwälder, wie zum Beispiel diejenigen der Amazonasregion, typisch. Jahreszeiten. Die Jahreszeiten werden in erster Linie von der Einstrahlung der Sonne verursacht und können infolgedessen durch Temperatur- und/oder Niederschlagsmengenschwankungen geprägt sein. In der gemäßigten Zone wird darunter gewöhnlich der Wechsel der Tageshöchst- bzw. Tagestiefsttemperaturen verstanden. In subtropischen (und noch ausgeprägter in tropischen) Regionen wird dieses Temperaturregime stärker durch Schwankungen der Monatsmittel des Niederschlags überlagert und in seiner Wahrnehmbarkeit beeinflusst. Die Unterschiede entstehen durch die Neigung des Äquators gegen die Ekliptik. Dies hat zur Folge, dass der Zenitstand der Sonne zwischen dem nördlichen und südlichen Wendekreis hin- und herwandert (daher auch der Name Wendekreis). Dadurch entstehen neben den unterschiedlichen Einstrahlungen auch die unterschiedlichen Tag- und Nachtlängen, die mit zunehmender Polnähe immer ausgeprägter werden. Abweichend davon wird in der Meteorologie der Beginn der Jahreszeiten jeweils auf den Monatsanfang vorverlegt (1. Dezember, 1. März usw.). Globaler Energiehaushalt. Der Energiehaushalt der Erde wird im Wesentlichen durch die Einstrahlung der Sonne und die Ausstrahlung der Erdoberfläche bzw. Atmosphäre bestimmt, also durch den Strahlungshaushalt der Erde. Die restlichen Beiträge von zusammen etwa 0,02 % liegen deutlich unterhalb der Messungsgenauigkeit der Solarkonstanten sowie ihrer Schwankung im Lauf eines Sonnenfleckenzyklus. Etwa 0,013 % macht der durch radioaktive Zerfälle erzeugte geothermische Energiebeitrag aus, etwa 0,007 % stammen aus der menschlichen Nutzung fossiler und nuklearer Energieträger und etwa 0,002 % verursacht die Gezeitenreibung. Die geometrische Albedo der Erde beträgt im Mittel 0,367, wobei ein wesentlicher Anteil auf die Wolken der Erdatmosphäre zurückzuführen ist. Dies führt zu einer globalen effektiven Temperatur von 246 K (−27 °C). Die Durchschnittstemperatur am Boden liegt jedoch durch einen starken atmosphärischen Treibhauseffekt bzw. Gegenstrahlung bei etwa 288 K (15 °C), wobei die Treibhausgase Wasser und Kohlendioxid den Hauptbeitrag liefern. Einfluss des Menschen. Zunächst lebten Menschen als Jäger und Sammler. Mit der Neolithischen Revolution begannen im Vorderen Orient (11.), in China (8.) und im mexikanischen Tiefland (6. Jahrtausend v. Chr.) Ackerbau und Viehzucht. Die Kulturpflanzen verdrängten die natürliche Pflanzen- und Tierwelt. Im Zuge der Industrialisierung wurden weiträumige Landflächen in Industrie- und Verkehrsflächen umgewandelt. Die Wechselwirkungen zwischen Lebewesen und Klima haben heute durch den zunehmenden Einfluss des Menschen eine neue Quantität erreicht. Während im Jahr 1920 etwa 1,8 Milliarden Menschen die Erde bevölkerten, wuchs die Erdbevölkerung bis zum Jahr 2008 auf knapp 6,7 Milliarden an. In den Entwicklungsländern ist für die absehbare Zukunft weiterhin ein starkes Bevölkerungswachstum zu erwarten, während in vielen hoch entwickelten Ländern die Bevölkerung stagniert oder nur sehr langsam zunimmt, deren industrieller Einfluss auf die Natur aber weiterhin wächst. Im Februar 2005 prognostizierten Experten der Vereinten Nationen bis zum Jahr 2013 einen Anstieg der Erdbevölkerung auf 7 Milliarden und auf 9,1 Milliarden bis 2050. Seit 1990 ist der 22. April als Tag der Erde der internationale Aktionstag zum Schutz der Umwelt. Das Jahr 2008 wurde von den Vereinten Nationen unter Federführung der UNESCO zum Internationalen Jahr des Planeten Erde (IYPE) erklärt. Diese bislang größte weltweite Initiative in den Geowissenschaften soll die Bedeutung und den Nutzen der modernen Geowissenschaften für die Gesellschaft und für eine nachhaltige Entwicklung verdeutlichen. Zahlreiche Veranstaltungen und interdisziplinäre Projekte auf internationaler und nationaler Ebene erstreckten sich von 2007 bis 2009 über einen Zeitraum von insgesamt drei Jahren. Mond. Die Erde vom Mond aus gesehen Die Erde wird von einem natürlichen Satelliten umkreist – dem Mond. Das Verhältnis des Durchmessers des Mondes zu seinem Planeten (mittlerer Monddurchmesser (3476 km) zu mittlerem Erddurchmesser (12.742 km) ist 0,273) ist beim Erdmond deutlich größer, als es bei den „Monden“ der anderen Planeten der Fall ist. Die Präzessionsbewegung der Erdachse ist auch mit einer Schwankung der Achsneigung von ± 1,3° um den Mittelwert von 23,3° verbunden. Diese Schwankung würde wesentlich größer ausfallen, wenn die Präzessionsperiode von etwa 26000 Jahren in Resonanz mit einer der zahlreichen periodischen Störungen stünde, welchen die Erdbahn infolge der Gravitationseinflüsse der anderen Planeten unterliegt. Gegenwärtig hat lediglich eine durch Jupiter und Saturn verursachte Störung mit einer Periode von 25760 Jahren einen gewissen Einfluss, ist aber zu schwach, um größere Veränderungen zu bewirken. Wie Simulationsrechnungen zeigen, wäre im gegenwärtigen Zustand des Sonnensystems die Achsneigung der Erde instabil, wenn sie im Bereich von etwa 60° bis 90° läge; die tatsächliche Neigung von gut 23° hingegen ist weit genug von starken Resonanzen entfernt und bleibt stabil. Hätte die Erde jedoch keinen Mond, so wäre die Präzessionsperiode etwa dreimal so groß, weil der Mond etwa zwei Drittel der Präzessionsgeschwindigkeit verursacht und bei seiner Abwesenheit nur das von der Sonne verursachte Drittel übrigbliebe. Diese deutlich längere Präzessionsperiode läge in der Nähe zahlreicher Störungen, von denen die stärksten mit Perioden von 68750, 73000 und 70800 Jahren erhebliche Resonanzeffekte verursachen würden. Rechnungen zeigen, dass unter diesen Umständen alle Achsneigungen zwischen 0° und etwa 85° instabil wären. Eine typische Schwankung von 0° bis 60° würde dabei weniger als 2 Millionen Jahre erfordern. Der große Satellit verhindert diese Resonanzen und stabilisiert so mit seiner relativ großen Masse die Neigung der Erdachse gegen die Ekliptik und schafft durch die so von ihm bewirkte Zügelung der Jahreszeiten günstige Bedingungen für die Entwicklung des Lebens auf seinem Planeten. Leben. Die Erde ist bisher der einzige Planet, auf dem Lebensformen bzw. eine Biosphäre von Menschen nachgewiesen wurden. Nach dem gegenwärtigen Stand der Forschung begann das Leben auf der Erde möglicherweise innerhalb eines relativ kurzen Zeitraums, gleich nach dem Ausklingen des letzten schweren Bombardements großer Asteroiden, dem die Erde nach ihrer Entstehung vor etwa 4,6 Milliarden Jahren bis etwa vor 3,9 Milliarden Jahren als letzte Phase der Bildung ihres Planetensystems ausgesetzt war. Nach dieser Zeit hat sich eine stabile Erdkruste ausgebildet und so weit abgekühlt, dass sich Wasser auf ihr sammeln konnte. Es gibt Hinweise, die allerdings nicht von allen damit befassten Wissenschaftlern anerkannt werden, dass sich Leben schon (geologisch) kurze Zeit später entwickelte. In 3,85 Milliarden Jahre altem Sedimentgestein aus der Isua-Region im Südwesten Grönlands wurden in den Verhältnissen von Kohlenstoffisotopen Anomalien entdeckt, die auf biologischen Stoffwechsel hindeuten könnten; bei dem Gestein kann es sich aber auch statt um Sedimente lediglich um ein stark verändertes Ergussgestein ohne derartige Bedeutung handeln. Die ältesten direkten, allerdings umstrittenen Hinweise auf Leben sind Strukturen in 3,5 Milliarden Jahre alten Gesteinen der Warrawoona-Gruppe im Nordwesten Australiens und im Barberton-Grünsteingürtel in Südafrika, die als von Cyanobakterien verursacht gedeutet werden. Die ältesten eindeutigen Lebensspuren auf der Erde sind 1,9 Milliarden Jahre alte Fossilien aus der Gunflint-Formation in Ontario, die Bakterien oder Archaeen gewesen sein könnten. Die chemische wie die biologische Evolution sind untrennbar mit der Klimageschichte verknüpft. Obwohl die Strahlungsleistung der Sonne anfangs deutlich geringer als heute war (vgl. Paradoxon der schwachen jungen Sonne), gibt es Hinweise auf Leben auf der Erde, grundsätzlich vergleichbar dem heutigen, „seit es Steine gibt“. Das Leben auf der Erde wird in seiner Entwicklung von den herrschenden Bedingungen geprägt und hat seinerseits Einfluss auf die Entwicklung und das Erscheinungsbild der Erde. Durch den Stoffwechsel des pflanzlichen Lebens, also durch die Photosynthese, wurde die Erdatmosphäre mit molekularem Sauerstoff angereichert und bekam ihren oxidierenden Charakter. Zudem wurde die Albedo und damit die Energiebilanz durch die Pflanzendecke merklich verändert. Entstehung der Erde. Wasser bedeckt etwa 70 % der Erdoberfläche. Entstehung des Erdkörpers. Wie die Sonne und ihre anderen Planeten entstand die Erde vor etwa 4,6 Milliarden Jahren aus der Verdichtung des Sonnennebels. Man nimmt heute allgemein an, dass sie während der ersten 100 Millionen Jahre einem intensiven Bombardement von Asteroiden ausgesetzt war. Heute ist der Beschuss nur noch gering. Die meisten der Meteore werden von Objekten hervorgerufen, die kleiner als 1 cm sind. Im Gegensatz zum Mond sind auf der Erde fast alle Einschlagkrater durch geologische Prozesse wieder ausgelöscht worden. Durch die kinetische Energie der Impakte während des schweren Bombardements und durch die Wärmeproduktion des radioaktiven Zerfalls erhitzte sich die junge Erde, bis sie größtenteils aufgeschmolzen war. In der Folge kam es zu einer gravitativen Differenzierung des Erdkörpers in einen Erdkern und einen Erdmantel. Die schwersten Elemente, vor allem Eisen, sanken in die Richtung des Schwerpunkts des Planeten, wobei auch Wärme freigesetzt wurde. Leichte Elemente, vor allem Sauerstoff, Silizium und Aluminium, stiegen nach oben und aus ihnen bildeten sich hauptsächlich silikatische Minerale, aus denen auch die Gesteine der Erdkruste bestehen. Aufgrund ihres vorwiegenden Aufbaus aus Eisen und Silikaten hat die Erde wie alle terrestrischen Planeten eine recht hohe mittlere Dichte von 5,515 g/cm3. Herkunft des Wassers. Die Herkunft des Wassers auf der Erde, insbesondere die Frage, warum auf der Erde deutlich mehr Wasser vorkommt als auf den anderen erdähnlichen Planeten, ist bis heute nicht befriedigend geklärt. Ein Teil des Wassers dürfte durch das Ausgasen des Magmas entstanden sein, also letztlich aus dem Erdinneren stammen. Ob dadurch aber die heutige Menge an Wasser erklärt werden kann, ist fraglich. Weitere große Anteile könnten aber auch durch Einschläge von Kometen, transneptunischen Objekten oder wasserreichen Asteroiden (Protoplaneten) aus den äußeren Bereichen des Asteroidengürtels auf die Erde gekommen sein. Messungen des Isotopenverhältnisses von Deuterium zu Protium (D/H-Verhältnis) deuten dabei eher auf Asteroiden hin, da in Wassereinschlüssen in kohligen Chondriten ähnliche Verhältnisse gefunden wurden wie in ozeanischem Wasser, wohingegen nach bisherigen Messungen dieses Isotopen-Verhältnis von Kometen und transneptunischen Objekten nicht mit dem von irdischem Wasser übereinstimmt. Zukunft. Die Zukunft der Erde ist eng an die der Sonne gebunden. Die Kernfusion vermindert im Zentrum der Sonne die Teilchenzahl (4 p + 2 e → He2+), aber kaum die Masse. Daher wird der Kern langsam schrumpfen und heißer werden. Außerhalb des Kerns wird sich die Sonne ausdehnen, das Material wird durchlässiger für Strahlung, sodass die Gesamthelligkeit der Sonne etwa um 10 % über die nächsten 1,1 Milliarden Jahre und um 40 % nach 3,5 Milliarden Jahren steigen wird. Man vermutet, dass die Erde noch etwa 500 Millionen Jahre lang ähnlich wie heute bewohnbar sein wird. Danach, so zeigen Klimamodelle, wird der Treibhauseffekt instabil – höhere Temperatur führt zu mehr Wasserdampf in der Atmosphäre, was wiederum den Treibhauseffekt verstärken wird. Der warme Regen wird durch Erosion den anorganischen Kohlenstoffzyklus beschleunigen, wodurch der CO2-Gehalt der Atmosphäre auf etwa 10 ppm in etwa 900 Millionen Jahren (verglichen mit 280 ppm in vorindustrieller Zeit) stark abnehmen wird, sodass mit den Pflanzen auch die Tiere verhungern werden. Nach einer weiteren Milliarde Jahren wird das gesamte Oberflächenwasser verschwunden sein und die globale Durchschnittstemperatur der Erde +70 °C erreichen. Die Leuchtkraftzunahme der Sonne wird sich fortsetzen und sich in etwa sieben Milliarden Jahren deutlich beschleunigen. Als roter Riese wird sich die Sonne bis an die heutige Erdbahn erstrecken, sodass die Planeten Merkur und Venus abstürzen und verglühen werden. Das wird, anders als zunächst gedacht, auch der Erde passieren. Zwar wird die Sonne in diesem Riesenstadium durch starken Sonnenwind etwa 30 % ihrer Masse verlieren, sodass rechnerisch der Erdbahnradius auf 1,7 AE anwachsen wird, aber die Erde wird in der nahen, sehr diffusen Sonnenoberfläche eine ihr nachlaufende Gezeitenwelle hervorrufen, die an ihrer Bahnenergie zehren und so die Flucht vereiteln wird. Mond. Der Mond (mhd. "mâne";) ist der einzige natürliche Satellit der Erde. Seit den Entdeckungen von Trabanten bei anderen Planeten des Sonnensystems, im übertragenen Sinn zumeist als Monde bezeichnet, wird er zur Vermeidung von Verwechslungen auch Erdmond genannt. Er ist mit einem Durchmesser von 3476 km der fünftgrößte Mond des Sonnensystems. Aufgrund seiner verhältnismäßigen Nähe ist er der einzige fremde Himmelskörper, der bisher von Menschen betreten wurde, und auch der am weitesten erforschte. Trotzdem gibt es noch viele Unklarheiten, etwa in Bezug auf seine Entstehung und manche Geländeformen. Die jüngere Entwicklung des Mondes ist jedoch weitgehend geklärt. Sein astronomisches Symbol ist die abnehmende Mondsichel, wie sie (nach rechts offen) von der Nordhalbkugel der Erde aus erscheint. Scheinbare Bewegung. Der Mond umkreist die Erde im Verlauf von durchschnittlich 27 Tagen, 7 Stunden und 43,7 Minuten in Bezug auf die Fixsterne. Sein Umlauf erfolgt von Westen nach Osten in dem gleichen Drehsinn, mit dem die Erde um ihre eigene Achse rotiert. Aus der Sicht eines Beobachters mit irdischem Standort umkreist er die Erde wegen ihrer viel schnelleren Rotation scheinbar an einem Tag – wie auch die Sonne, die Planeten und die Fixsterne – und hat daher wie diese seinen Aufgang im Osten und seinen Untergang im Westen. Durch seine Bahnbewegung läuft der Mond aber relativ zu den Fixsternen im "rechtläufigen" Drehsinn der Erdrotation, sodass sein scheinbarer Erdumlauf etwa 50 Minuten länger als 24 Stunden dauert. Diese Differenz addiert sich im Laufe eines Monats zu einem ganzen Tag, da der Mond in dieser Zeit einen wahren Erdumlauf vollzieht. Die scheinbaren Bahnen von Mond und Sonne haben einen ähnlichen Verlauf, da die Mondbahn nur geringfügig (derzeit 5,2°) gegen die Ekliptik geneigt ist. Für einen Beobachter auf der Nordhalbkugel über 5,2° nördlich des Wendekreises (d. h. bei einer geografischen Breite über 28,6°) steht der Mond bei seinem täglichen Höchststand ("Kulmination") immer im Süden, für einen Beobachter auf der Südhalbkugel südlicher als −28,6° immer im Norden (für die Sonne beträgt der analoge Winkel 23,4° – die Breite der Wendekreise). Diese ±28,6° sind der Maximalwert. Tatsächlich schwankt dieser Wert mit einem 18-jährigen Zyklus zwischen einem Minimum von 18,3° und dem Maximum von 28,6°, weil die Lage der Mondbahn (bei fast konstanter Bahnneigung von 5,2°) langsam gegenüber der Ekliptik rotiert. Der Grund ist die Präzession (Kreiselbewegung) der Mondbahnebene infolge der Erdabplattung von 0,3 %. Die scheinbare Größe des Mondes („Mondscheibe“) schwankt entfernungsabhängig zwischen 29,2' (knapp 0,5°) und 33,3' um einen Mittelwert von knapp 32'. Weil die scheinbare Größe der Sonne („Sonnenscheibe“) im Mittel ebenfalls 32' beträgt (31,5'–32,5'), kann bei einer entsprechenden Konstellation die Mondscheibe die Sonnenscheibe mehr oder weniger vollständig verdecken. Ein solches Ereignis wird allgemein als Sonnenfinsternis bezeichnet. Durch seine Nähe ist der Mond der einzige Himmelskörper, auf dem man freiäugig Oberflächenstrukturen erkennen kann („Mondgesicht“). Das unbewaffnete menschliche Auge kann zirka 1000 Punkte auf der Vollmondscheibe unterscheiden. Würde ein irdischer Beobachter vom Südpol rasch an den Nordpol wechseln, so schiene der Mond für ihn nun auf dem Kopf zu stehen. Tatsächlich ist die Lichtgestalt des Mondes nahezu die gleiche, doch wird die Erscheinung standortabhängig in ein "topozentrisches Bild" eingeordnet, bei dem jeweils der Horizont die fundamentale Bezugsebene bestimmt. So entspricht der Zenit im einen Fall hier dem Nadir im anderen und die gewiesene Himmelsrichtung kehrt sich um von Norden auf Süden. Nicht der Mond hat sich umgekehrt, sondern die Ausrichtung des Beobachters zur jeweiligen Lotrichtung auf der Erdkugel. Bahngestalt. Die Bahn des Mondes um die Erde weicht deutlich von der Kreisform ab. Die größte und die kleinste Entfernung zur Erde weichen im Mittel jeweils um 5,45 % von der Kreisform ab. Die Bahn ist in guter Näherung eine Ellipse der numerischen Exzentrizität 0,0549. Der mittlere Abstand des Schwerpunktes des Mondes vom Baryzentrum – die große Halbachse – misst 384.400 km. Den erdnächsten Punkt der Bahn nennt man "Perigäum". Im Perigäum beträgt die Entfernung im Mittel 363.300 km. Der erdfernste Punkt heißt "Apogäum". Dort beträgt die Entfernung im Mittel 405.500 km. Die Durchgänge des Mondes durch die Bahnebene der Erde (die Ekliptik) nennt man "Mondknoten" (oder Drachenpunkte). Der aufsteigende Knoten ist der Übergang auf die Nordseite der Ekliptik, der absteigende markiert den Übergang auf die südliche Seite. Maßstabgetreues Größen-Abstands-Verhältnis von Erde und Mond Der Mond umläuft zusammen mit der Erde die Sonne, durch die Bewegung um die Erde pendelt der Mond jedoch um eine gemeinsame Ellipsenbahn. Die Variation der Gravitation während dieser Pendelbewegung führt zusammen mit geringeren Störungen durch die anderen Planeten zu Abweichungen von einer exakten Keplerellipse um die Erde. Der erdnächste Punkt der Bahn wird nicht nach genau einem Umlauf (relativ zu den Fixsternen) des Mondes wieder erreicht. Durch diese Apsidendrehung umläuft das Perigäum die Erde in 8,85 Jahren. Auch zwei aufsteigende Knotendurchgänge erfolgen nicht exakt nach einem Umlauf, sondern bereits nach kürzerer Zeit. Die Mondknoten umlaufen die Erde folglich "retrograd", das heißt gegen die Umlaufrichtung des Mondes in 18,61 Jahren. Wenn ein Knotendurchgang mit Neumond zusammenfällt, kommt es zu einer Sonnenfinsternis, und falls der Knotendurchgang mit Vollmond zusammenfällt, kommt es zu einer Mondfinsternis. Dieser Zyklus führt auch zu den Mondwenden: Der Aufgangsort des Mondes am Horizont schwankt während eines Monats zwischen einem südlichsten und einem nördlichsten Punkt hin und her, so wie es auch bei der Sonne im Verlauf eines Jahres der Fall ist (vgl. Obsigend und Nidsigend). Im Laufe des Zeitraumes von 18,61 Jahren verändert sich die Spanne zwischen diesen beiden Extrempunkten in ihrem Abstand: Der Zeitpunkt (zuletzt im Jahre 2006), an dem diese Punkte am weitesten auseinanderliegen, heißt "große Mondwende", der des geringsten Abstandes "kleine Mondwende". In der frühzeitlichen Astronomie spielten diese Mondwenden eine wichtige Rolle. Bahnperiode. Die Dauer eines Bahnumlaufs des Mondes, den "Monat" (von „Mond“), kann man nach verschiedenen Kriterien festlegen, die jeweils unterschiedliche Aspekte abdecken. Bei diesen Werten handelt es sich um Mittelwerte. Insbesondere die Längen einzelner synodischer Monate schwanken durch die Wanderung der Neumondposition über die Bahnellipse. Die Monatslänge nimmt langsam zu, siehe Abschnitt: Vergrößerung der Umlaufbahn. Mondphasen. Die Zahlen in Klammern beziehen sich auf nebenstehende Abbildung. Meist wird die Zeit seit dem letzten Neumond in Tagen angegeben und als "Mondalter" bezeichnet. Von einem Standort mittlerer und höherer nördlicher Breiten aus gesehen, erreicht der Mond seinen Höchststand über dem Horizont je im Süden, auch zu Neumond. Die schmale sichelförmige Lichtgestalt des zunehmenden Mondes wird am westlichen Abendhimmel tiefstehend kurz vor Untergang erstmals sichtbar und erscheint dem nördlich stehenden Betrachter als nach Süden zu offene bzw. nach links gekrümmte konkav-konvexe Figur. Zunehmende Mondsichel, mit aschgrauem Mondlicht. () Einem Betrachter in südlichen Breiten erscheint sie ebenfalls tiefstehend im Westen, doch als nach rechts gekrümmt bzw. geöffnet Richtung Norden, wo für ihn der Mond den höchsten Stand erreicht wie ebenso die Sonne zu Mittag. An Beobachtungsorten in Äquatornähe erscheint die Figur im Westen eher waagrecht liegend bzw. nach oben hin offen, da hier der Höhenwinkel einer Kulmination größer ist. Diese Abhängigkeit der scheinbaren Lage der Mondfigur vom Breitengrad spiegelt sich bei der Verwendung einer symbolischen Mondsichel in Form einer Schale („Mondschiffchen“) auf der Staatsflagge einiger äquatornaher Länder wider (Beispiel: Flagge Mauretaniens). Die nicht unmittelbar von der Sonne beleuchteten Anteile der erdzugewandten Mondseite sind dabei nie völlig dunkel, denn sie werden durch das von der sonnenbeleuchteten Erde zurückgeworfene Licht – Erdlicht oder Erdschein genannt – erhellt. Dessen Widerschein durch die Reflexion an Stellen der Mondoberfläche wird auch "Aschgraues Mondlicht" genannt. Es ist am besten in der Dämmerung einige Tage vor oder nach Neumond zu sehen, denn dann stört weder viel Tages- noch Mondlicht und der Mond hat nahezu „Vollerde“. Seine Ursache wurde schon von Leonardo da Vinci richtig erkannt. Mit einem Fernglas selbst geringer Vergrößerung sind auf den nur durch die Erde beschienenen Mondflächen sogar Einzelheiten erkennbar, denn aufgrund des fast vierfach größeren Durchmessers und des höheren Rückstrahlungsvermögens (Albedo) der Erde ist die „Vollerde“ rund 50-mal so hell wie der Vollmond. Messungen des aschgrauen Mondlichts erlauben Rückschlüsse auf Veränderungen der Erdatmosphäre. Bei Vollmond beträgt seine Beleuchtungsstärke 0,2 Lux. Die ständig erdabgewandte Rückseite des Mondes ist natürlich nicht immer dunkel, sondern unterliegt entsprechend versetzt dem Phasenwechsel – bei Neumond wird sie vom Sonnenlicht vollständig beschienen. Die beschienene Mondfläche (Überdeckungsgrad) kann angegeben werden mit formula_1, wobei formula_2 die Elongation (i.e., der Winkel zwischen Mond, Erde, und Sonne) ist. Finsternisse. Verfinsterungen treten auf, wenn die Himmelskörper Sonne und Mond mit der Erde auf einer Linie liegen. Dazu kommt es nur bei Vollmond oder Neumond und wenn der Mond sich dann nahe einem der zwei Mondknoten befindet. Mondfinsternis. Totale Mondfinsternis am 9. November 2003 Bei einer Mondfinsternis, die nur bei Vollmond auftreten kann, steht die Erde zwischen Sonne und Mond. Sie kann auf der gesamten Nachtseite der Erde beobachtet werden und dauert maximal 3 Stunden 40 Minuten. Vom Mond aus gesehen stellt sich eine Mondfinsternis als Sonnenfinsternis dar. Dabei verschwindet die Sonne hinter der schwarzen Erdscheibe. Bei einer totalen Mondfinsternis herrscht auf der ganzen Mondvorderseite totale Sonnenfinsternis, bei einer partiellen Mondfinsternis ist die Sonnenfinsternis auf dem Mond nur in einigen Gebieten total, und bei einer Halbschatten-Mondfinsternis herrscht auf dem Mond partielle Sonnenfinsternis. Ringförmige Sonnenfinsternisse gibt es auf dem Mond wegen des im Verhältnis zur Sonne viel größeren scheinbaren Durchmessers der Erdscheibe nicht; lediglich durch die beschriebene Lichtstreuung in der Erdatmosphäre wird der Rand der schwarzen Scheibe zu einem kupferrot schimmernden Ring, der dem Mond die entsprechende Farbe verleiht. Sonnenfinsternis. Bei einer Sonnenfinsternis, die nur bei Neumond auftreten kann, steht der Mond zwischen Sonne und Erde. Sie kann nur in den Gegenden beobachtet werden, die den Kern- oder Halbschatten des Mondes durchlaufen; diese Gegenden stellen sich meist als lange, aber recht schmale Streifen auf der Erdoberfläche dar. Eine "Sonnenfinsternis" wird nur vom irdischen Betrachter als solche wahrgenommen. Die Sonne leuchtet natürlich weiter, dagegen liegt die Erde im Schatten des Mondes. Entsprechend zur Mondfinsternis müsste man korrekterweise also von einer "Erdfinsternis" sprechen. Sarosperiode. Bereits den Chaldäern war (um etwa 1000 v. Chr.) bekannt, dass sich Finsternisse nach einem Zeitraum von 18 Jahren und 11 Tagen, der "Sarosperiode", wiederholen. Nach 223 synodischen beziehungsweise 242 drakonitischen Monaten (von lat. "draco", Drache, altes astrologisches Symbol für die Mondknoten, da man dort einen mond- und sonnenfressenden Drachen vermutete) besteht wieder fast dieselbe Stellung von Sonne, Erde und Mond zueinander, so dass sich eine Finsternisstellung nach 18 Jahren und 11,33 Tagen erneut ergibt. Die Ursache dieser Periode liegt darin begründet, dass bei einer Finsternis sowohl die Sonne als auch der Mond nahe der Knoten der Mondbahn liegen müssen, welche in 18 Jahren einmal um die Erde laufen. Thales nutzte diese Periode, die er bei einer Orientreise kennenlernte, für seine Finsternisprognose vom 28. Mai 585 v. Chr., wodurch eine Schlacht zwischen Lydern und Medern abgebrochen und ihr Krieg beendet wurde. Ein Saros-Zyklus ist eine Folge von Sonnen- oder Mondfinsternissen, die jeweils im Abstand einer Sarosperiode aufeinanderfolgen. Da die Übereinstimmung der 223 bzw. 242 Monate nicht exakt ist, reißt ein Saros-Zyklus etwa nach 1300 Jahren ab. In diesem Zeitraum beginnen aber gleich viele neue Zyklen und es existieren immer ungefähr 43 gleichzeitige verschachtelte Saros-Zyklen. Vergrößerung der Umlaufbahn. Die mittlere Entfernung zwischen dem Mond und der Erde wächst jährlich um etwa 3,8 cm. Der Abstand wird seit der ersten Mondexpedition Apollo 11 regelmäßig per Lidar vermessen, indem die Lichtlaufzeit bestimmt wird, die das Laserlicht für die Strecke hin und zurück benötigt. Von amerikanischen und sowjetischen Mondmissionen wurden dazu insgesamt fünf Retroreflektoren auf dem Mond platziert, die heute für die Entfernungsmessungen genutzt werden Ursache. Die allmählich zunehmende Entfernung ist eine Folge der Gezeitenkräfte, die der Mond auf der Erde bewirkt. Dabei wird Rotationsenergie der Erde weit überwiegend in Wärme umgewandelt und zu einem Teil als Rotationsenergie auf den Mond übertragen. Der dabei abnehmende Drehimpuls der Erdrotation resultiert in einer Zunahme des Bahndrehimpulses des Mondes, der sich dadurch von der Erde entfernt. Dieser schon lange vermutete Effekt ist seit 1995 durch die Laser-Distanzmessungen abgesichert. Er bewirkt sowohl eine kontinuierliche Verlängerung der irdischen Tageslänge (um etwa eine Sekunde in 100.000 Jahren) als auch der Mondumlaufdauer. Mögliche koorbitale Objekte. In den Librationspunkten L4 und L5 soll es zwei Staubwolken, die Kordylewskischen Wolken, geben. Rotation und Libration. Infolge der Gezeitenwirkung, die durch die Gravitation der Erde entsteht, hat der Mond seine Rotation der Umlaufzeit in Form einer gebundenen Rotation angepasst. Das heißt, bei einem Umlauf um die Erde dreht er sich im gleichen Drehsinn genau einmal um die eigene Achse. Daher ist – abgesehen von kleineren Abweichungen, den Librationsbewegungen – von einem Punkt der Erdoberfläche immer dieselbe Mondseite zu sehen. Wegen der Libration und der Parallaxe, sprich durch Beobachtung von verschiedenen Punkten etwa bei Mondaufgang und Monduntergang, sind von der Erde aus insgesamt knapp 59 % der Mondoberfläche einsehbar bzw. von Punkten dieser Fläche aus die Erde sichtbar. Mit der Raumsonde Lunik 3 konnte 1959 erstmals die erdabgewandte Seite des Mondes beobachtet werden. Gestalt. Der mittlere Äquatordurchmesser des Mondes beträgt 3476,2 km und der Poldurchmesser 3472,0 km. Sein mittlerer Durchmesser insgesamt – als volumengleiche Kugel – ist 3474,2 km groß. Die Gestalt des Mondes gleicht mehr der eines dreiachsigen Ellipsoids als der einer Kugel. An den Polen ist er etwas abgeplattet und die in Richtung der Erde weisende Äquatorachse ist etwas größer als die darauf senkrecht stehende Äquatorachse. Der Äquatorwulst ist auf der erdabgewandten Seite dabei noch deutlich größer als auf der erdnahen Seite. In Richtung Erde ist der Durchmesser durch die Gezeitenkraft am größten. Hierbei ist der erdferne Mondradius an dieser Achse größer als der erdnahe. Dies ist überraschend und es fehlt hierfür bis heute eine schlüssige Erklärung. Pierre-Simon Laplace hatte schon 1799 von seiner Vermutung berichtet, dass der Äquatorwulst zur erdabgewandten Seite hin stärker ausgebildet ist und die Bewegung des Mondes beeinflusst, und dass diese Form nicht einfach ein Ergebnis der Drehung des Mondes um die eigene Rotationsachse sein kann. Seitdem rätseln Mathematiker und Astronomen, aus welchem Bildungsprozess der Trabant diese Ausbuchtung konserviert hat, nachdem sein Magma erstarrt war. Atmosphäre. Der Mond hat keine Atmosphäre im eigentlichen Sinn – der Mondhimmel ist nicht blau – sondern nur eine Exosphäre. Sie besteht zu etwa gleichen Teilen aus Helium, Neon, Wasserstoff sowie Argon und hat ihren Ursprung in eingefangenen Teilchen des Sonnenwindes. Ein sehr kleiner Teil entsteht auch durch Ausgasungen aus dem Mondinneren, wobei insbesondere 40Ar, das durch Zerfall von 40K im Mondinneren entsteht, von Bedeutung ist. Interessanterweise wird ein Teil dieses 40Argon aber durch das im Sonnenwind mittransportierte Magnetfeld wieder auf die Mondoberfläche zurückgetrieben und dort in die obersten Partikel des Regolith implantiert. Da 40K früher häufiger war und damit mehr 40Ar ausgaste, kann durch Messung des 40Ar/36Ar-Verhältnisses von Mondmaterial bestimmt werden, zu welcher Zeit es exponiert war. Es besteht ein Gleichgewicht zwischen der Implantation und thermischem Entweichen. Oberflächentemperatur. Aufgrund der langsamen Rotation des Mondes und seiner nur äußerst dünnen Gashülle gibt es auf der Mondoberfläche zwischen der Tag- und der Nachtseite sehr große Temperaturunterschiede. Mit der Sonne im Zenit steigt die Temperatur auf etwa 130 °C und fällt in der Nacht auf etwa −160 °C. Als Durchschnittstemperatur über die Oberfläche ergeben sich 218 K = −55 °C. In manchen Gebieten gibt es lokale Anomalien, in Form von einer etwas höheren oder auch etwas niedrigeren Temperatur an benachbarten Stellen. Krater, deren Alter als relativ jung angesehen wird, wie zum Beispiel Tycho, sind nach Sonnenuntergang etwas wärmer als ihre Umgebung. Wahrscheinlich können sie durch eine dünnere Staubschicht die während des Tages aufgenommene Sonnenenergie besser speichern. Andere positive Temperaturanomalien gründen eventuell auf örtlich etwas erhöhter Radioaktivität. Masse . Die Bestimmung der Mondmasse kann über das newtonsche Gravitationsgesetz erfolgen, indem die Bahn eines Körpers im Gravitationsfeld des Mondes untersucht wird. Eine recht gute Näherung für die Mondmasse erhält man bereits, wenn man das Erde-Mond-System als reines Zweikörperproblem betrachtet. Erde und Mond stellen in erster Näherung ein Zweikörpersystem dar, wobei beide Partner ihren gemeinsamen Schwerpunkt formula_3 umkreisen. Beim Zweikörpersystem aus Erde und Sonne fällt dieser Schwerpunkt praktisch mit dem Sonnenmittelpunkt zusammen, da die Sonne sehr viel massereicher als die Erde ist. Bei Erde und Mond ist der Massenunterschied jedoch nicht so groß, daher liegt der Erde-Mond-Schwerpunkt nicht im Zentrum der Erde, sondern deutlich davon entfernt (aber noch innerhalb der Erdkugel). Bezeichnet man nun mit formula_4 den Abstand des Erdmittelpunkts und mit formula_5 den Abstand des Mondmittelpunkts vom Schwerpunkt formula_3, folgt aus der Definition des Schwerpunkts dass das Massenverhältnis von Erde "M" zu Mond "m" gerade dem Verhältnis von formula_4 zu formula_5 entspricht. Somit geht es nur darum, wie groß formula_4 und formula_5 sind – also wo sich der Schwerpunkt des Systems befindet. Ohne den Mond und dessen Schwerkraft würde die Erde eine elliptische Bahn um die Sonne durchlaufen. Tatsächlich bewegt sich der Schwerpunkt des Erde-Mond-Systems auf einer elliptischen Bahn. Die Rotation um den gemeinsamen Schwerpunkt erzeugt eine leichte Welligkeit in der Erdbahn, die eine kleine Verschiebung der von der Erde aus gesehenen Position der Sonne verursacht. Aus der gemessenen Größe dieser Verschiebung wurde formula_4 zu etwa 4670 km berechnet, also etwa 1700 km unter der Erdoberfläche (der Radius der Erde beträgt 6378 km). Da der Mond keine genaue Kreisbahn um die Erde beschreibt, berechnet man formula_5 über die "mittlere" große Halbachse abzüglich formula_4. Es gilt also formula_5 = 384.400 km − 4.670 km = 379.730 km. Damit ergibt sich für das Massenverhältnis Die Masse des Mondes beträgt daher etwa der Masse der Erde. Durch Einsetzen der Erdmasse "M" ≈ 5,97 · 1024 kg ergibt sich die Masse des Mondes zu Genauere Messungen vor Ort ergeben einen Wert von "m" ≈ 7,349 · 1022 kg. Magnetfeld des Mondes. Die Analyse des Mondbrockens "Troctolite 76535", der mit der Mission Apollo 17 zur Erde gebracht wurde, deutet auf ein früheres dauerhaftes Magnetfeld des Erdmondes und damit auf einen ehemals oder immer noch flüssigen Kern hin. Jedoch hat der Mond inzwischen kein Magnetfeld mehr. Interaktion mit dem Sonnenwind. Der Sonnenwind und das Sonnenlicht lassen auf der sonnenzugewandten Mondseite Magnetfelder entstehen. Dabei werden Ionen und Elektronen aus der Oberfläche freigesetzt. Diese wiederum beeinflussen den Sonnenwind. Magcons. Die seltenen, sogenannten Swirls, „Mondwirbel“ ohne Relief, fallen außer durch ihre Helligkeit auch durch eine Magnetfeldanomalie auf. Diese werden als Magcon (Magnetic concentration) bezeichnet. Zu ihrer Entstehung gibt es verschiedene Theorien. Eine davon geht von großen antipodischen Einschlägen aus, von denen Plasmawolken rund um den Mond liefen, sich auf der Gegenseite trafen und dort den eisenhaltigen Mondboden auf Dauer magnetisierten. Nach einer anderen Vorstellung könnten manche der Anomalien auch Reste eines ursprünglich globalen Magnetfeldes sein. Geologie des Mondes. a> sind vor allem die Krater sehr gut zu erkennen. Entstehung des Mondes. Der Mond hat mit 3476 km etwa ein Viertel des Durchmessers der Erde und weist mit 3,345 g/cm3 eine geringere mittlere Dichte als die Erde auf. Aufgrund seines im Vergleich zu anderen Monden recht geringen Größenunterschieds zu seinem Planeten bezeichnet man Erde und Mond gelegentlich auch als Doppelplanet. Seine im Vergleich zur Erde geringe mittlere Dichte blieb auch lange ungeklärt und sorgte für zahlreiche Theorien zur Entstehung des Mondes. Das heute weithin anerkannte Modell zur Entstehung des Mondes besagt, dass vor etwa 4,5 Milliarden Jahren ein Himmelskörper von der Größe des Mars nahezu streifend mit der Protoerde kollidierte. Dabei wurde viel Materie, vorwiegend aus der Erdkruste und dem Mantel des einschlagenden Körpers, in eine Erdumlaufbahn geschleudert, ballte sich dort zusammen und formte schließlich den Mond. Der Großteil des Impaktors vereinte sich mit der Protoerde zur Erde. Nach aktuellen Simulationen bildete sich der Mond in einer Entfernung von rund drei bis fünf Erdradien, also in einer Höhe zwischen 20.000 und 30.000 km. Durch den Zusammenstoß und die frei werdende Gravitationsenergie bei der Bildung des Mondes wurde dieser aufgeschmolzen und vollständig von einem Ozean aus Magma bedeckt. Im Laufe der Abkühlung bildete sich eine Kruste aus den leichteren Mineralen aus, die noch heute in den Hochländern vorzufinden sind. Die frühe Mondkruste wurde bei größeren Einschlägen immer wieder durchschlagen, so dass aus dem Mantel neue Lava in die entstehenden Krater nachfließen konnte. Es bildeten sich die "Maria" (Mondmeere), die erst einige hundert Millionen Jahre später vollständig erkalteten. Das sogenannte letzte große Bombardement endete erst vor 3,8 bis 3,2 Milliarden Jahren, nachdem die Anzahl der Einschläge von Asteroiden vor etwa 3,9 Milliarden Jahren deutlich zurückgegangen war. Danach ist keine starke vulkanische Aktivität nachweisbar, doch konnten einige Astronomen – vor allem 1958/59 der russische Mondforscher Nikolai Kosyrew – vereinzelte Leuchterscheinungen beobachten, sogenannte Lunar Transient Phenomena. Im November 2005 konnte ein internationales Forscherteam der ETH Zürich sowie der Universitäten Münster, Köln und Oxford erstmals die Entstehung des Mondes präzise datieren. Dafür nutzten die Wissenschaftler eine Analyse des Isotops Wolfram-182 und berechneten das Alter des Mondes auf 4527 ± 10 Millionen Jahre. Somit ist er 30 bis 50 Millionen Jahre nach der Herausbildung des Sonnensystems entstanden. Innerer Aufbau. oberem Mantel (blau; entspricht äußerem + mittlerem Mantel im Text) und Kruste (grau). Das Wissen über den inneren Aufbau des Mondes beruht im Wesentlichen auf den Daten der vier von den Apollo-Missionen zurückgelassenen Seismometer, die diverse Mondbeben sowie Erschütterungen durch Einschläge von Meteoroiden und durch extra zu diesem Zweck ausgelöste Explosionen aufzeichneten. Diese Aufzeichnungen lassen Rückschlüsse über die Ausbreitung der seismischen Wellen im Mondkörper und damit über den Aufbau des Mondinneren zu, wobei die geringe Anzahl der Messstationen nur sehr begrenzte Einblicke ins Mondinnere liefert. Über die Oberflächengeologie, die bereits durch Beobachtungen von der Erde aus grob bekannt war, wurden durch die von den Apollo- und Luna-Missionen zur Erde gebrachten Mondgesteinsproben sowie durch detaillierte Kartierungen der Geomorphologie, der mineralischen Zusammensetzung der Mondoberfläche und des Gravitationsfeldes im Rahmen der Clementine- und der Lunar-Prospector-Mission neue Erkenntnisse gewonnen. Seismisch lässt sich die Mondkruste aus Anorthosit (mittlere Gesteinsdichte 2,9 g/cm3) auf der Mondvorderseite in einer durchschnittlichen Tiefe von 60 km gegen den Mantel abgrenzen. Auf der Rückseite reicht sie vermutlich bis in 150 km Tiefe. Die größere Mächtigkeit der Kruste und damit der erhöhte Anteil relativ leichten feldspatreichen Krustengesteins auf der erdabgewandten Seite könnte zumindest teilweise dafür verantwortlich sein, dass das Massezentrum des Mondes um etwa 2 km näher an der Erde liegt als sein geometrischer Mittelpunkt. Unterhalb der Kruste schließt sich ein fast vollständig fester Mantel aus mafischem und ultramafischem Gestein (Olivin- und Pyroxenreiche Kumulate) an. Zwischen Mantel und Kruste wird eine dünne Schicht basaltischer Zusammensetzung vermutet, die bei der Auskristallisierung der anderen beiden Gesteinshüllen mit inkompatiblen Elementen angereichert wurde und daher einen hohen Anteil an Kalium, Rare Earth Elements (dt. Seltene Erden) und Phosphor aufweist. Diese spezielle chemische Signatur, die sich auch durch hohe Konzentrationen von Uran und Thorium auszeichnet, wird KREEP genannt. Nach traditionellen Hypothesen tritt diese sogenannte Ur-KREEP-Schicht gleichmäßig verteilt unterhalb der Mondkruste auf. Neueren, aus Daten der Lunar-Prospector-Sonde gewonnenen Erkenntnissen zufolge scheint sich KREEP aber schon während der Ausdifferenzierung von Kruste und Mantel vorwiegend in der Kruste der heutigen Oceanus-Procellarum-Mare-Imbrium-Region angereichert zu haben. Die Wärmeproduktion durch die radioaktiven Elemente wird für den vermuteten „jungen“ Vulkanismus in dieser Mondregion (bis 1,2 Milliarden Jahre vor heute) verantwortlich gemacht. Die seismische Erkundung des Mondes erbrachte Hinweise auf Unstetigkeitsflächen (Diskontinuitäten) in 270 und 500 km Tiefe, die als Grenzflächen verschieden zusammengesetzter Gesteinshüllen gedeutet werden und deshalb als die Grenzen zwischen oberem und mittlerem (270 km) bzw. mittlerem und unterem (500 km) Mondmantel gelten. Der obere Mantel wird in diesem Modell als quarzführender Pyroxenit interpretiert, der mittlere als mit FeO-angereichterter olivinführender Pyroxenit und der untere Mantel als Olivin-Orthopyroxen-Klinopyroxen-Granat-Vergesellschaftung. Aber auch andere Interpretationen sind möglich. Über den Mondkern ist kaum etwas bekannt und über dessen genaue Größe und Eigenschaften existieren unterschiedliche Ansichten. Durch aufwendige Aufbereitung seismischer Daten wurde nunmehr ermittelt, dass der Mondkern mit einem Radius von etwa 350 km ungefähr 20 % der Größe des Mondes besitzt (vgl. Erdkern relativ zur Größe der Erde: ≈ 50 %) und sich die Mantel-Kern-Grenze damit in einer Tiefe von etwa 1400 km befindet. Es wird angenommen, dass er, wie der Erdkern, vor allem aus Eisen besteht. Hierbei liefern die seismischen Daten (u. a. die Dämpfung von Scherwellen) Hinweise darauf, dass ein fester innerer Kern von einem flüssigen äußeren Kern umgeben ist, an den sich wiederum nach außen eine teilaufgeschmolzene Zone des untersten Mantels (PMB, "partially molten boundary layer") anschließt. Aus diesem Modell lassen sich die ungefähren Temperaturen ableiten, die im Kern des Mondes entsprechend herrschen müssen, die deutlich unter denen des Erdkerns, um die 1400 °C (± 400 °C) liegen. Unterster Mantel und Kern mit ihrem teilaufgeschmolzenen bzw. flüssigen Material werden zusammen auch als Mondasthenosphäre bezeichnet. Die sich offenbar vollständig rigide verhaltenden Bereiche darüber (mittlerer und oberer Mantel sowie Kruste), in denen keine Dämpfung von Scherwellen stattfindet, bilden entsprechend die Mondlithosphäre. Mondbeben. Die zurückgelassenen Seismometer der Apollo-Missionen registrieren etwa 3000 Mondbeben pro Jahr. Diese Beben sind im Vergleich zu Erdbeben sehr schwach. Das stärkste erreichte eine Stärke von knapp 5 auf der Richterskala. Die meisten liegen aber bei einer Stärke von 2. Die seismischen Wellen der Beben können ein bis vier Stunden lang verfolgt werden. Sie werden im Mondinneren also nur sehr schwach gedämpft. Bei mehr als der Hälfte der Beben befindet sich das Hypozentrum in einer Tiefe von 800 bis 1000 km, oberhalb der Mondasthenosphäre. Die meisten Beben treten bei Apogäum- und Perigäumdurchgang auf, das heißt, alle 14 Tage. Daneben auch sind Beben mit oberflächennahem Hypozentrum bekannt. Ursächlich für die 14-täglichen Häufigkeitsmaxima ist, dass sich der Aufbau des Mondes dem Mittelwert der von der Erde auf den Mond wirkenden Gravitation angepasst hat. Die Beben bauen innere Spannungen ab, die durch die Gezeitenkräfte entstehen, die wiederum am erdnächsten und erdfernsten Punkt der Mondbahn jeweils ihr Maximum erreichen. Die Hypozentren der Beben verteilen sich nicht gleichmäßig über eine komplette Mantelschale. Die meisten Beben entstehen an nur etwa 100 Stellen, die jeweils nur wenige Kilometer groß sind. Der Grund für diese Konzentration ist noch nicht bekannt. Massenkonzentrationen. a>s der erdnahen (links) und der erdfernen Mondseite Durch ungewöhnliche Einflüsse auf die Bahnen der Lunar-Orbiter-Missionen erhielt man Ende der 1960er-Jahre erste Hinweise auf Schwereanomalien, die man Mascons ("Mass con'"centrations", Massenkonzentrationen) nannte. Durch Lunar Prospector wurden diese Anomalien näher untersucht, sie befinden sich meist im Zentrum der Krater und sind vermutlich durch die Einschläge entstanden. Möglicherweise handelt es sich um die eisenreichen Kerne der Impaktoren, die aufgrund der fortschreitenden Abkühlung des Mondes nicht mehr bis zum Kern absinken konnten. Nach einer anderen Theorie könnte es sich um Lavablasen handeln, die als Folge eines Einschlags aus dem Mantel aufgestiegen sind. Regolith. Relative Anteile verschiedener Elemente auf Erde und Mond (Maria bzw. Terrae) Der Mond besitzt keine nennenswerte Atmosphäre. Deshalb schlagen bis heute ständig Meteoroiden unterschiedlicher Größe, ohne abgebremst zu werden, auf der Oberfläche ein, die das an der Mondoberfläche anstehende Krustengestein zertrümmert, ja regelrecht pulverisiert haben. Der durch diesen Prozess entstehende Mondregolith (im Englischen auch teilweise als "lunar soil", ‚Monderde‘, bezeichnet) bedeckt weitreichende Areale der Mondoberfläche mit einer mehrere Meter dicken Schicht, unter der Details der ursprünglichen Geologie des Mondes verborgen sind. Dies erschwert die Rekonstruktion der Entstehungsgeschichte des Monds erheblich. Der Regolith entsteht hauptsächlich aus dem normalen Material der Oberfläche. Er enthält aber auch Beimengungen, die durch Einschläge an den Fundort transportiert wurden. Obwohl er gemeinhin als "Mondstaub" bezeichnet wird, entspricht der Regolith eher einer Sandschicht. Die Korngröße reicht von Staubkorngröße direkt an der Oberfläche über Sandkörner wenig tiefer bis hin zu Steinen und Felsen, die erst später hinzukamen, und noch nicht vollständig zermahlen sind. Ein weiterer wichtiger Bestandteil sind glasige Erstarrungsprodukte von Einschlägen. Das sind einmal kleine Glaskugeln, die an Chondren erinnern, und zum anderen Agglutinite, das sind durch Glas verbackene Regolithkörner. An manchen Stellen besteht das Oberflächengstein des Mondes fast zur Hälfte aus diesen Agglutiniten. Diese entstehen, wenn die durch den Einschlag erzeugten Spritzer aus geschmolzenem Gestein erst nach dem Auftreffen auf die Regolithschicht erstarren. Im Mondmeteoriten Dhofar 280, der im Jahr 2001 im Oman gefunden wurde, wurden neue Eisen-Silizium-Mineralphasen identifiziert. Eine dieser Mineralphasen (Fe2Si), die damit erstmals in der Natur eindeutig nachgewiesen wurde, ist nach dem Forscher Bruce Hapke als Hapkeit benannt worden. Bruce Hapke hatte in den 1970ern die Entstehung derartiger Eisenverbindungen durch Weltraum-Erosion (engl. "Space Weathering") vorhergesagt. Weltraum-Erosion verändert auch die Reflexionseigenschaften des Materials und beeinflusst so die Albedo der Mondoberfläche. Der Mond hat kein nennenswertes Magnetfeld, das heißt die Teilchen des Sonnenwindes – vor allem Wasserstoff, Helium, Neon, Kohlenstoff und Stickstoff – treffen nahezu ungehindert auf der Mondoberfläche auf und werden im Regolith implantiert. Dies ähnelt der Ionenimplantation, die bei der Herstellung von integrierten Schaltungen angewandt wird. Auf diese Weise bildet der Mondregolith ein Archiv des Sonnenwindes, vergleichbar dem Eis in Grönland für das irdische Klima. Dazu kommt, dass kosmische Strahlung bis zu etwa einem Meter tief in die Mondoberfläche eindringt und dort durch Kernreaktionen (hauptsächlich Spallationsreaktionen) instabile Nuklide bildet. Diese verwandeln sich mit verschiedenen Halbwertszeiten unter anderem durch Alphazerfall in stabile Nuklide. Da beim Alphazerfall jeweils ein Helium-Atomkern entsteht, enthalten Gesteine des Mondregoliths bedeutend mehr Helium als irdische Oberflächengesteine. Da der Mondregolith durch Einschläge umgewälzt wird, haben die einzelnen Bestandteile meist eine komplexe Bestrahlungsgeschichte hinter sich. Man kann jedoch durch radiometrische Datierungsmethoden für Mondproben herausfinden, wann sie nahe der Oberfläche waren. Damit lassen sich Erkenntnisse über die kosmische Strahlung und den Sonnenwind zu diesen Zeitpunkten gewinnen. Aus Regolith lässt sich elektrolytisch Sauerstoff abspalten. Zur Erzeugung eines Gramms Sauerstoff werden 5–20 Gramm Regolith und 100–200 kJ thermische Energie benötigt. Ein Sonnenofen mit 5 kW Leistung könnte im Jahr eine Tonne Sauerstoff produzieren. Wasser. Der Mond ist ein extrem trockener Körper. Jedoch konnten Wissenschaftler mit Hilfe eines neuen Verfahrens im Sommer 2008 winzige Spuren von Wasser (bis zu 0,0046 %) in kleinen Glaskügelchen vulkanischen Ursprungs in Apollo-Proben nachweisen. Diese Entdeckung deutet darauf hin, dass bei der gewaltigen Kollision, durch die der Mond entstand, nicht das ganze Wasser verdampft ist. Außerdem hat die Lunar-Prospector-Sonde Hinweise auf Wassereis in den Kratern der Polarregionen des Mondes gefunden; dieses Wasser könnte aus Kometenabstürzen stammen. Da die polaren Krater aufgrund der geringen Neigung der Mondachse gegen die Ekliptik niemals direkt von der Sonne bestrahlt werden und somit das Wasser dort nicht verdampfen kann, könnte es sein, dass dort noch im Regolith gebundenes Wassereis vorhanden ist. Der Versuch, durch den gezielten Absturz des Prospectors in einen dieser Polarkrater einen eindeutigen Nachweis zu erhalten, schlug allerdings fehl. Im September 2009 entdeckte die indische Sonde Chandrayaan-1 Hinweise auf größere Wassermengen auf dem Mond. Am 13. November 2009 bestätigte die NASA, dass die Daten der LCROSS-Mission auf größere Wasservorkommen auf dem Mond schließen lassen. Im März 2010 gab der United States Geological Survey bekannt, dass bei erneuten Untersuchungen der Apollo-Proben mit der neuen Methode der Sekundärionen-Massenspektrometrie bis zu 0,6 % Wasser gefunden wurden. Das Wasser weist ein Wasserstoffisotopenverhältnis auf, welches deutlich von den Werten irdischen Wassers abweicht. Im Oktober 2010 ergab eine weitere Auswertung der LCROSS- und LRO-Daten, dass viel mehr Wasser auf dem Mond vorhanden ist als früher angenommen, die Sonde Chandrayaan-1 fand alleine am Nordpol des Mondes Hinweise auf mindestens 600 Millionen Tonnen Wassereis. Auch wurden Hydroxylionen, Kohlenmonoxid, Kohlendioxid, Ammoniak, freies Natrium und Spuren von Silber detektiert. Oberflächenstrukturen. a> der erdnahen (links) und der erdfernen Mondseite Die Oberfläche des Mondes ist mit 38 Mio. km2 etwa 15 % größer als die Fläche von Afrika mit der arabischen Halbinsel. Sie ist nahezu vollständig von einer trockenen, aschgrauen Staubschicht, dem Regolith, bedeckt. Der redensartliche „Silberglanz“ des Mondes wird einem irdischen Beobachter nur durch den Kontrast zum Nachthimmel vorgetäuscht. Tatsächlich hat der Mond sogar eine relativ geringe Albedo (Rückstrahlfähigkeit), was erst bei der Betrachtung von außerhalb, beispielsweise durch das Deep Space Climate Observatory (DSCOVR, siehe Foto, das die sogar noch hellere Mondrückseite zeigt), deutlich wird. Die Mondoberfläche ist gegliedert in ausgedehnte Hochländer, die "Terrae", und in große Beckenstrukturen, die von Gebirgszügen gerahmt sind und in denen sich weite Ebenen aus erstarrter Lava, die "Maria", erstrecken. Sowohl die Maria als auch die Terrae sind übersät von Kratern. Zudem gibt es zahlreiche Gräben und Rillen sowie flache Dome, jedoch keinerlei Anzeichen für aktive Tektonik wie auf der Erde. Der maximale Niveauunterschied zwischen der tiefsten Senke und dem höchsten Gipfel beträgt 16 km – rund 4 km weniger. Maria. a> am oberen Bildrand (Apollo 17, NASA) Die erdzugewandte Seite des Mondes wird von den meisten und größten der sogenannten Maria geprägt, dunklen Tiefebenen, die insgesamt 16,9 % der Mondoberfläche einnehmen. Auf der Vorderseite nehmen sie 31,2 % ein, auf der Rückseite nur 2,6 %. Die auffällige Gruppierung auf der erdnahen Seite liegt größtenteils in der Nordhälfte und bildet das volkstümlich sogenannte „Mondgesicht“. In der Frühzeit der Mondforschung hielt man die dunklen Flächen für Meere; sie werden deshalb nach Giovanni Riccioli als "Maria" (Singular: "Mare") bezeichnet. Die Maria sind erstarrte basaltische Lavadecken im Inneren ausgedehnter kreisförmiger Becken und unregelmäßiger Einsenkungen. Die Depressionen sind vermutlich durch große Einschläge in der Frühphase des Mondes entstanden. Da in diesem Entwicklungsstadium der Mondmantel noch sehr heiß und daher magmatisch aktiv war, wurden diese Einschlagsbecken anschließend von aufsteigendem Magma bzw. von Lava aufgefüllt. Die geringere Krustendicke der erdzugewandten Mondseite hat vermutlich die Bildung der Magmen und deren Aufdringen bis zur Oberfläche, im Gegensatz zur erdabgewandten Seite, stark begünstigt. Allerdings ist der ausgedehnte Vulkanismus der Mondvorderseite wahrscheinlich noch von weiteren Faktoren begünstigt worden (siehe KREEP). Die Basalt-Ebenen weisen nur wenige große Krater auf und mit Ausnahme von diesen zeigen sie nur sehr geringe Höhenunterschiede von maximal 100 Metern. Zu diesen Erhebungen gehören die "Dorsa". Diese sich flach aufwölbenden Rücken erstrecken sich über mehrere Dutzend Kilometer. Die Maria sind von einer 2 bis 8 Meter dicken Regolithschicht bedeckt, die reich an Eisen und Magnesium ist. "(Siehe auch: Liste der Maria des Erdmondes)" Das anhand von Mondgesteinsproben direkt radiometrisch nachgewiesene Alter der dunklen Basalte beträgt 3,1 bis 3,8 Milliarden Jahre. Das jüngste direkt datierte vulkanische Mondgestein ist ein in Afrika gefundener Meteorit mit KREEP-Signatur, der ein Alter von ca. 2,8 Milliarden Jahren aufweist. Indirekte Datierungen anhand der Kraterdichte lassen jedoch ein teilweise deutlich geringeres geologisches Alter der Maria von „nur“ 1,2 Milliarden Jahren vermuten. Irregular Mare Patches. Nach Auswertung von Aufnahmen und Oberflächendaten des Lunar Reconnaissance Orbiters stellte ein Team von Wissenschaftlern der Arizona State University und der Westfälischen Wilhelms-Universität Münster im Oktober 2014 die These auf, dass es noch vor deutlich weniger als 100 Millionen Jahren weit verbreitet vulkanische Aktivität auf dem Mond gegeben haben könnte. Innerhalb der großen Maria existieren demnach zahlreiche kleinere Strukturen mit Abmessungen zwischen 100 Metern und fünf Kilometern, die als "Irregular Mare Patches" bezeichnet und als lokale Lavadecken gedeutet werden. Die geringe Größe und Dichte der Einschlagskrater in diesen „Patches“ (dt. ‚Flecken‘ oder ‚Flicken‘) deuten darauf hin, dass sie für Mondverhältnisse sehr jung sind, bisweilen kaum mehr als 10 Millionen Jahre. Eine dieser Strukturen namens „Ina“ war bereits seit der Apollo-15-Mission bekannt, wurde jedoch bislang als Sonderfall mit geringer Aussagekraft für die geologische Geschichte des Mondes betrachtet. Die nun festgestellte Häufigkeit der Irregular Mare Patches lässt den Schluss zu, dass die vulkanische Aktivität auf dem Mond nicht, wie bisher angenommen, vor etwa einer Milliarde Jahren „abrupt“ endete, sondern langsam über einen langen Zeitraum schwächer wurde, was unter anderem die bisherigen Modelle zu den Temperaturen im Mondinneren in Frage stellt. Terrae. Die Hochländer wurden früher als Kontinente angesehen und werden deshalb als "Terrae" bezeichnet. Sie weisen deutlich mehr und auch größere Krater als die Maria auf und werden von einer bis zu 15 Meter dicken Regolithschicht bedeckt, die reich an hellem aluminiumreichen Anorthosit ist. Die ältesten Hochland-Anorthositproben sind radiometrisch mit Hilfe der Samarium-Neodym-Methode auf ein Kristallisationsalter von 4,456 ± 0,04 Milliarden Jahren datiert worden, was als Bildungsalter der ersten Kruste und als Beginn der Kristallisation des ursprünglichen Magmaozeans interpretiert wird. Die jüngsten Anorthosite sind etwa 3,8 Milliarden Jahre alt. Die Hochländer sind von sogenannten Tälern (Vallis) durchzogen. Dabei handelt es sich um bis zu einige hundert Kilometer lange, schmale Einsenkungen innerhalb der Hochländer. Ihre Breite beträgt oft wenige Kilometer, ihre Tiefe einige hundert Meter. Die Mondtäler sind in den meisten Fällen nach in der Nähe gelegenen Kratern benannt "(Siehe auch: Liste der Täler des Erdmondes)". In den Hochländern gibt es mehrere Gebirge, die Höhen von etwa 10 km erreichen. Sie sind möglicherweise dadurch entstanden, dass der Mond infolge der Abkühlung geschrumpft ist und sich dadurch Faltengebirge aufwölbten. Nach einer anderen Erklärung könnte es sich um die Überreste von Kraterwällen handeln. Sie sind nach irdischen Gebirgen benannt worden, zum Beispiel Alpen, Apenninen, Kaukasus und Karpaten "(siehe auch: Liste der Berge und Gebirge des Erdmondes)". Krater. Die Mondkrater entstanden durch Einschläge kosmischer Objekte. Sie gehören deshalb zu den sogenannten Impaktkratern. Die größten von ihnen entstanden vor etwa 3 bis 4,5 Milliarden Jahren in der Frühzeit des Mondes durch Einschläge großer Asteroiden. Der Nomenklatur von Riccioli folgend, werden sie vorzugsweise nach Astronomen, Philosophen und anderen Gelehrten benannt. Einige der großen Krater sind von sternförmigen Strahlensystemen umgeben. Diese Strahlen stehen in unmittelbarem Zusammenhang mit dem Einschlag, der auch zur Entstehung des entsprechenden Kraters führte: Es handelt sich um Auswurfmaterial (sogenannte "Ejecta"), das in Form zahlreicher Glaskügelchen erstarrt ist. Diese streuen das Licht bevorzugt in die Einfallsrichtung zurück, sodass sich die Strahlen bei Vollmond hell vom dunkleren Regolith abheben. Besonders lang und auffällig sind die Strahlen des Kraters Tycho. Das Größenspektrum der Einschlagskrater auf dem Mond reicht von 2240 km Durchmesser, wie im Fall des Südpol-Aitken-Beckens, bis hin zu Mikrokratern, die erst unter dem Mikroskop sichtbar werden. Mit irdischen Teleskopen kann man allein auf der Vorderseite mehr als 40.000 Krater mit einem Durchmesser von mehr als 100 Metern unterscheiden. Die Oberfläche der Rückseite des Mondes weist aufgrund ihres höheren durchschnittlichen geologischen Alters eine noch deutlich höhere Kraterdichte auf "(siehe auch: Liste der Krater des Erdmondes)". Vulkanische Krater sind bislang zweifelsfrei noch nicht identifiziert worden. Da die Mondkruste einen geringeren SiO2-Anteil hat als die kontinentale Erdkruste, haben sich dort keine Schichtvulkane gebildet, wie sie z.B. für den pazifischen Feuerring auf der Erde typisch sind. Aber auch Schildvulkane mit zentraler Caldera, wie sie in den Ozeanbecken der Erde oder auf dem Mars vorkommen, scheint es auf dem Mond nicht zu geben. Stattdessen fand lunarer Vulkanismus offenbar überwiegend in Form von Spalteneruptionen statt. Rillen. Auf der Mondoberfläche gibt es auch Rillenstrukturen (Rimae), über deren Ursprung vor dem Apollo-Programm lange spekuliert worden war. Man unterscheidet Seit den Untersuchungen der Hadley-Rille durch Apollo 15 geht man davon aus, dass es sich bei den mäandrierenden Rillen um Lavaröhren handelt, deren Decke eingestürzt ist. Neuere Aufnahmen von der Mondoberfläche lassen vermuten, dass es auch heute noch intakte Lavaröhren gibt. Die Entstehung der geraden Rillen ist deutlich unklarer – es könnte sich um Schrumpfungsrisse handeln, die sich in erkaltender Lava gebildet haben. Neben den als Rimae bezeichneten Strukturen bestehen noch schmale, vertiefte Strukturen, die eine Länge bis über 400 km erreichen. Sie ähneln den lang gestreckten Rillen und werden als Furchen oder Risse (Rupes) bezeichnet. Diese Furchen gelten als Beweis für das Wirken von Spannungskräften innerhalb der Mondkruste. Erdabgewandte Seite. Über die Rückseite des Mondes war vor den ersten Raumfahrtmissionen nichts bekannt, da sie von der Erde nicht sichtbar ist, erst Lunik 3 lieferte die ersten Bilder. Sie unterscheidet sich in mehreren Aspekten von der Vorderseite. Ihre Oberfläche prägen fast nur kraterreiche Hochländer; dazu zählt auch das große Südpol-Aitken-Becken, ein 13 km tiefer Krater mit 2240 km Durchmesser, der von vielen anderen Kratern überzeichnet ist. Untersuchungen der Clementine-Mission und des Lunar Prospector legen die Vermutung nahe, dass hier ein sehr großer Einschlagkörper die Mondkruste durchstoßen und möglicherweise Mantelgesteine freigelegt hat. Die Kruste der Rückseite ist mit 150 km gegenüber 70 km der Vorderseite etwa doppelt so dick. Die Raumsonde LRO entdeckte auch Grabenstrukturen auf der Mond-Rückseite. Am Rande des Engelhardt-Kraters konnte mit dem Laser-Altimeter der Raumsonde Kaguya der höchste bekannte Punkt (10.750 m) auf dem Erdmond gemessen werden. Die erhalten gebliebene Redensart von der „dunklen Seite des Mondes“ (engl. "dark side of the Moon") für die erdabgewandte Mondseite ist nur symbolisch im Sinne einer unbekannten Seite zu verstehen; im eigentlichen Wortsinn ist die Redensart falsch, da – wie schon zu den Mondphasen angemerkt – Vor- und Rückseite im Laufe der Mondrotation abwechselnd von der Sonne beschienen werden. Durch den viel geringeren Flächenanteil der dunklen Mareebenen ist die erdferne Mondseite insgesamt sogar deutlich heller als die erdnahe. Einflüsse auf die Erde. Die Gravitation des Mondes treibt auf der Erde die Gezeiten an. Dazu gehören nicht nur Ebbe und Flut in den Meeren, sondern auch Hebungen und Senkungen des Erdmantels. Die durch die Gezeiten frei werdende Energie wird der Drehbewegung der Erde entnommen und der darin enthaltene Drehimpuls dem Bahndrehimpuls des Mondes zugeführt. Dadurch verlängert sich gegenwärtig die Tageslänge um etwa 20 Mikrosekunden pro Jahr. In ferner Zukunft wird die Erdrotation an den Mondumlauf gebunden sein und die Erde wird dem Mond immer dieselbe Seite zuwenden. Die Erde ist nicht perfekt kugelförmig, sondern durch die Rotation abgeflacht. Die Gezeitenkraft von Sonne und Mond erzeugt ein aufrichtendes Drehmoment, das zweimal jährlich bzw. monatlich maximal wird. Die Erde folgt diesem als Kreisel nicht direkt, sondern präzediert mit in erster Näherung konstanter Neigung der Erdachse. Wäre die Sonne die einzige Ursache für Präzession, würde sich die Neigung der Erdachse innerhalb von Millionen Jahren in weiten Bereichen ändern. Dies würde ungünstige Umweltbedingungen für das Leben auf der Erde bedeuten, weil die Polarnacht abwechselnd die gesamte Nord- bzw. Südhalbkugel erfassen würde. Die durch den Mond bewirkte schnelle Präzession stabilisiert die Neigung der Erdachse. So trägt der Mond zu dem das Leben begünstigenden Klima der Erde bei. Neben dem sichtbaren Licht reflektiert der Mond von der Sonnenstrahlung auch einen Teil deren Wärme auf die Erde. Die Größe dieser Erderwärmung bei Vollmond beträgt gegenüber Neumond jedoch nur drei hundertstel Grad Celsius. Einfluss auf Lebewesen. Nach dem Skeptic’s Dictionary habe keine ausgewertete wissenschaftliche Studie eine signifikante positive Korrelation zwischen Mondphasen und dem Auftreten von Schlafstörungen, Verkehrsunfällen, Operationskomplikationen, der Häufigkeit von Suizidhandlungen oder der Häufigkeit von Geburten ergeben. Manche Menschen, z. B. in der Land- und Forstwirtschaft, achten seit alters her darauf, dass bestimmte Arbeiten in der Natur in der „richtigen“ Mondphase erledigt werden ("siehe auch:" Mondholz, Mondkalender). Die tägliche Bewegung des Mondes und die darin enthaltene Information über die Himmelsrichtungen wird von Zugvögeln und einigen Arten nachtaktiver Insekten zur Navigation genutzt. Bei manchen Arten der Ringelwürmer (wie bei dem Samoa-Palolo), Krabben und Fische ("Leuresthes") ist das Fortpflanzungsverhalten sehr eng an den monatlichen Phasenwechsel des Mondes gekoppelt. Die schon im 18. Jahrhundert erforschte Korrelation von Mondposition und Wetter ist so gering, dass ein dadurch verursachter Einfluss auf Lebewesen vollständig vernachlässigt werden kann. Das Schlafwandeln von Menschen wird irreführend als "Mondsüchtig-Sein" interpretiert. Mondregenbogen. Bei Nacht kann durch Zusammentreffen von Mondlicht und Regentropfen ein Mondregenbogen entstehen, der analog zum physikalischen Prinzip des Regenbogens der Sonne funktioniert. Mondhof und Mondhalo. Als "Mondhof" werden farbige Ringe um den Mond bezeichnet, die durch die Beugung des Lichts an den Wassertröpfchen der Wolken verursacht werden. Dabei ist der äußerste Ring von rötlicher Farbe und hat eine Ausdehnung von etwa zwei Grad, in seltenen Fällen auch bis zu zehn Grad. Umgangssprachlich wird der Begriff des Mondhofs auch für einen Halo um den Mond gebraucht. Dafür sind Eiskristalle in Luftschichten verantwortlich, die aus dünnem Höhennebel oder Dunst entstanden sind und das auf die Erde fallende Licht in einem sehr schwachen Winkel ablenken und dadurch eine Art leuchtenden Ringeffekt für den Betrachter hervorrufen. Eine spezielle Haloerscheinung des Mondes ist der Nebenmond. Analog zu den Nebensonnen treten Nebenmonde mit einem Abstand von rund 22 Grad neben dem Mond auf. Wegen der geringeren Lichtstärke des Mondes sieht man sie jedoch seltener und meistens bei Vollmond. Mondtäuschung und „falsche“ Mondneigung. Als "Mondtäuschung" bezeichnet man den Effekt, dass der Mond in Horizontnähe größer aussieht als im Zenit. Dies ist keine Folge der Lichtbrechung an den Luftschichten, sondern eine optische Täuschung, die von der Wahrnehmungspsychologie untersucht und erklärt wird. Auch das Phänomen, dass die beleuchtete Seite des Mondes oft nicht genau zur Sonne zu zeigen scheint, ist eine optische Täuschung und wird dort unter der Überschrift Relativität des Blickwinkels erläutert. Man kann sich davon überzeugen, dass die beleuchtete Mondsichel tatsächlich – wie zu erwarten – jederzeit senkrecht auf der Verbindungslinie zwischen Sonne und Mond steht, indem man diese Verbindungslinie durch eine mit ausgestreckten Armen zwischen Sonne und Mond gespannte Schnur sichtbar macht. Freiäugige Beobachtung, Mondbahn und Finsternisse. Der Mond ist nach der Sonne das mit Abstand hellste Objekt des Himmels; zugleich kann man seinen einzigartigen Helligkeits- und Phasenwechsel zwischen Vollmond und Neumond auch mit bloßem Auge sehr gut beobachten. Das erste Auftauchen der Mondsichel am Abendhimmel (als Neulicht) markiert in einigen Kulturkreisen den Beginn des jeweiligen Monats. Die Mondphasen und die Sonnen- bzw. Mondfinsternisse sind mit Sicherheit schon früh von Menschen beobachtet worden. Die genaue Länge des siderischen und des synodischen Monats war schon im 5. Jahrtausend v. Chr. bekannt, ebenso die Neigung der Mondbahn gegen die Ekliptik (5,2°). Mindestens 1000 v. Chr. kannten die babylonischen Astronomen die Bedingungen, unter denen Sonnenfinsternisse auftreten, und eine derartige Vorhersage durch Thales von Milet entschied 580 v. Chr. den Sieg der Griechen in den Perserkriegen. Von Anaxagoras ist die Aussage überliefert, der Mond erhalte sein Licht von der Sonne, und es gebe auf ihm Täler und Schluchten; diese und andere Lehren trugen ihm eine Verurteilung wegen Gotteslästerung ein. Die am Mond freiäugig erkennbaren Details (siehe "Mondgesicht") werden in anderen Kulturkreisen auch als "Hase" etc. bezeichnet. Die dunklen, scharf begrenzten Flächen wurden schon früh als Meere interpretiert (diese glatten Ebenen werden daher bis heute Mare genannt), während die Natur der bei Vollmond sichtbar werdenden Strahlensysteme erst im 20. Jahrhundert geklärt werden konnte. Beobachtung mit Fernrohr, Mondkarten und Raumfahrt. Einige Jahrzehnte nach der Erfindung des Fernrohrs begann um 1650 die intensive Erforschung des Mondes. Frühe Höhepunkte der Selenografie waren die Arbeiten von Johann Hieronymus Schroeter, der 1791 seine "Selenotopografie" publizierte, die genaue Kartierung der Mondkrater und Gebirge sowie deren Benennung. Es folgte die Ära der hochpräzisen Mondkarten durch Beer, Mädler und andere, ab etwa 1880 die langbrennweitige Astrofotografie (siehe auch Pariser Mondatlas) und erste geologische Deutungen der Mondstrukturen. Das durch die Raumfahrt (erste Mondumkreisung 1959) gesteigerte Interesse am Mond führte zur erstmaligen Beobachtung leuchtender Gasaustritte durch Kosyrew, doch die Vulkanismus-Theorie der Mondkrater musste der Deutung als Aufschlagkrater weichen. Vorläufiger Höhepunkt waren die bemannten Mondlandungen 1969–1972, die dadurch ermöglichten zentimetergenauen Laser-Entfernungsmessungen, und in den letzten Jahren die multispektrale Fernerkundung der Mondoberfläche sowie die genaue Vermessung ihres Schwerefeldes durch verschiedene Mondorbiter. Mythologische Anfänge. Die älteste bekannte Darstellung des Mondes ist eine 5000 Jahre alte Mondkarte aus dem irischen Knowth. Als weitere historisch bedeutende Abbildung in Europa ist die Himmelsscheibe von Nebra zu nennen. Das Steinmonument Stonehenge diente wahrscheinlich als Observatorium und war so gebaut, dass damit auch spezielle Positionen des Mondes vorhersagbar oder bestimmbar gewesen sind. In vielen archäologisch untersuchten Kulturen gibt es Hinweise auf die große kultische Bedeutung des Mondes für die damaligen Menschen. Der Mond stellte meist eine zentrale Gottheit dar, als weibliche Göttin, zum Beispiel bei den Thrakern Bendis, bei den Ägyptern Isis, bei den Griechen Selene, Artemis und Hekate sowie bei den Römern Luna und Diana, oder als männlicher Gott wie beispielsweise bei den Sumerern Nanna, in Ägypten Thot, in Japan Tsukiyomi, bei den Azteken Tecciztecatl und bei den Germanen Mani. Fast immer wurden Sonne und Mond dabei als entgegengesetzt geschlechtlich gedacht, auch wenn die Zuordnung variierte. In China dagegen galt der Mond als Symbol für Westen, Herbst und Weiblichkeit (Yin). Ein häufig vorkommendes Motiv ist das Bild von den drei Gesichtern der Mondgöttin: bei zunehmendem Mond die verführerische Jungfrau voller Sexualität, bei Vollmond die fruchtbare Mutter und bei abnehmendem Mond das alte Weib oder die Hexe mit der Kraft zu heilen, zum Beispiel bei den Griechen mit Artemis, Selene und Hekate sowie bei den Kelten Blodeuwedd, Morrígan und Ceridwen. Der Mond als Himmelskörper ist Gegenstand von Romanen und Fiktionen, von Jules Vernes Doppelroman "Von der Erde zum Mond" und "Reise um den Mond" über Paul Linckes Operette "Frau Luna" oder Hergés zweibändigem Tim und Struppi-Comic-Abenteuer "Reiseziel Mond" und "Schritte auf dem Mond" bis hin zu der futuristischen Vorstellung einer Besiedelung des Mondes oder dem Reiseführer "Reisen zum Mond" von Werner Tiki Küstenmacher. Kalenderrechnung. Neben der mythologischen Verehrung nutzten unsere Vorfahren schon sehr früh den regelmäßigen und leicht überschaubaren Rhythmus des Mondes für die Beschreibung von Zeitspannen und als Basis eines Kalenders, noch heute basiert der islamische Kalender auf dem Mondjahr mit 354 Tagen (12 synodische Monate). Mit dem Übergang zum Ackerbau wurde die Bedeutung des Jahresverlaufs für Aussaat und Ernte wichtiger. Um dies zu berücksichtigen, wurden zunächst nach Bedarf, später nach feststehenden Formeln wie zum Beispiel dem metonischen Zyklus Schaltmonate eingefügt, die das Mondjahr mit dem Sonnenjahr synchronisierten. Auf diesem lunisolaren Schema basieren zum Beispiel der altgriechische und der jüdische Kalender. Die noch heute gebräuchliche Länge einer Woche von sieben Tagen basiert wahrscheinlich auf der zeitlichen Folge der vier hauptsächlichen Mondphasen (siehe oben). Bei der Osterrechnung spielt das Mondalter am letzten Tag des Vorjahres eine Rolle und heißt Epakte. Von den alten Hochkulturen hatten einzig die alten Ägypter ein reines Sonnenjahr mit zwölf Monaten à 30 Tage sowie fünf Schalttage, das heißt, ohne strengen Bezug zum synodischen Monat von 29,5 Tagen, vermutlich, weil für die ägyptische Kultur die genaue Vorhersage der Nilüberschwemmungen und damit der Verlauf des Sonnenjahres überlebensnotwendig war. Erdgebundene Erforschung. Die früheste grobe Mondkarte mit Konturen der Albedomerkmale und dem ersten Versuch einer Nomenklatur skizzierte William Gilbert im Jahre 1600 nach dem bloßen Auge. Die erste, wenn auch ebenfalls nur skizzenhafte Darstellung der mit einem Fernrohr sichtbaren Mondstrukturen stammt von Galileo Galilei (1609), die ersten brauchbaren stammen von Johannes Hevelius, der mit seinem Werk "Selenographia sive Lunae Descriptio" (1647) als Begründer der Selenografie gilt. In der Nomenklatur der Mondstrukturen setzte sich das System von Giovanni Riccioli durch, der in seinen Karten von 1651 die dunkleren Regionen als Meere ("Mare", Plural: "Maria") und die Krater nach Philosophen und Astronomen bezeichnete. Allgemein anerkannt ist dieses System jedoch erst seit dem 19. Jahrhundert. Tausende Detailzeichnungen von Mondbergen, Kratern und Wallebenen wurden von Johann Hieronymus Schroeter (1778–1813) angefertigt, der auch viele Mondtäler und Rillen entdeckte. Den ersten Mondatlas gaben Wilhelm Beer und Johann Heinrich Mädler 1837 heraus, ihm folgte bald eine lange Reihe fotografischer Atlanten. Neumayr gibt an, dass sich einzelne Gebirge mehr als 8000 Meter über ihre Umgebung erhöben. Die Höhenbestimmung von Kratern, Gebirgen und Ebenen war mit teleskopischen Beobachtungen jedoch sehr problematisch und erfolgte meist durch Analyse von Schattenlängen, wofür Josef Hopmann im 20. Jahrhundert Spezialmethoden entwickelte. Erst durch die Sondenkartierungen kennt man verlässliche Werte: Die Krater, mit Durchmessern bis zu 300 km, wirken zwar steil, sind aber nur wenige Grad geneigt, die höchsten Erhebungen hingegen erreichen eine Höhe von bis zu 10 km über dem mittleren Niveau. Erforschung mit ersten Raumfahrzeugen. Den zweiten großen Sprung der Fortschritte in der Mondforschung eröffnete dreieinhalb Jahrhunderte nach der Erfindung des Fernrohrs der Einsatz der ersten Mondsonden. Die sowjetische Sonde Lunik 1 kam dem Mond rund 6000 km nahe, Lunik 2 traf ihn schließlich und Lunik 3 lieferte die ersten Bilder von seiner Rückseite. Die Qualität der Karten wurde in den 1960ern deutlich verbessert, als zur Vorbereitung des Apollo-Programms eine Kartierung durch die Lunar-Orbiter-Sonden aus einer Mondumlaufbahn heraus stattfand. Die heute genauesten Karten stammen aus den 1990ern durch die Clementine- und Lunar-Prospector-Missionen. Das US-amerikanische Apollo- und das sowjetische Luna-Programm brachten mit neun Missionen zwischen 1969 und 1976 insgesamt 382 Kilogramm Mondgestein von der Mondvorderseite zur Erde; die folgende Tabelle gibt einen Überblick darüber. 1979 wurde der erste Mondmeteorit in der Antarktis entdeckt, dessen Herkunft vom Mond allerdings erst einige Jahre später durch Vergleiche mit den Mondproben erkannt wurde. Mittlerweile kennt man noch mehr als zwei Dutzend weitere. Diese bilden eine komplementäre Informationsquelle zu den Gesteinen, die durch die Mondmissionen zur Erde gebracht wurden: Während man bei den Apollo- und Lunaproben die genaue Herkunft kennt, dürften die Meteorite, trotz der Unkenntnis ihres genauen Herkunftsortes auf dem Mond, repräsentativer für die Mondoberfläche sein, da einige aus statistischen Gründen auch von der Rückseite des Mondes stammen sollten. Menschen auf dem Mond. Karte der Landestellen der bemannten und unbemannten Missionen bis 1976 Der Mond ist nach der Erde bisher der einzige von Menschen betretene Himmelskörper. Im Rahmen des Kalten Kriegs unternahmen die USA und die UdSSR einen Wettlauf zum Mond (auch bekannt als "„Wettlauf ins All“") und in den 1960ern als Höhepunkt einen Anlauf zu bemannten Mondlandungen, die jedoch nur mit dem Apollo-Programm der Vereinigten Staaten verwirklicht wurden. Das bemannte Mondprogramm der Sowjetunion wurde daraufhin abgebrochen. Am 21. Juli 1969 UTC setzte mit Neil Armstrong der erste von zwölf Astronauten im Rahmen des Apollo-Programms seinen Fuß auf den Mond. Nach sechs erfolgreichen Missionen wurde das Programm 1972 wegen der hohen Kosten eingestellt. Während des ausgehenden 20. Jahrhunderts wurde immer wieder über eine Rückkehr zum Mond und die Einrichtung einer ständigen Mondbasis spekuliert, aber erst durch Ankündigungen des damaligen US-Präsidenten George W. Bush und der NASA Anfang 2004 zeichneten sich konkretere Pläne ab. Am 4. Dezember 2006 hat die NASA ernsthafte Pläne für eine stufenweise Annäherung des Menschen an den Mond bekannt gegeben. Demnach sollten, nach ersten Testflügen ab 2009, schon 2019 wieder bemannte Missionen zum Mond führen. Ab 2020 sollten vier Astronauten 180 Tage lang auf dem Mond verweilen, bis dann ab 2024 eine permanent bemannte Mondbasis am lunaren Südpol errichtet werden sollte. Aufgrund der am Ende nicht einhaltbaren Fertigstellungstermine der Ares-Raketen sowie der unabsehbaren Kosten stellte die Regierung unter Präsident Barack Obama dem Programm keine finanziellen Mittel mehr zur Verfügung. Die folgende Tabelle enthält die zwölf Männer, die den Mond betreten haben. Alle waren Bürger der USA. Als bisher letzter Mensch verließ am 14. Dezember 1972 Eugene Cernan den Mond. Mondsonden neuerer Zeit. Nach einer Pause in der gesamten Mondraumfahrt von gut 13 Jahren startete am 24. Januar 1990 die japanische Experimentalsonde Hiten ohne wissenschaftliche Nutzlast. Sie setzte am 19. März desselben Jahres in einer Mondumlaufbahn die Tochtersonde Hagoromo aus, schwenkte am 15. Februar 1992 selbst in einen Mondorbit ein und schlug am 10. April 1993 auf den Mond auf. Am 25. Januar 1994 startete die US-amerikanische Raumsonde Clementine zum Mond, um dort neue Geräte und Instrumente zu testen. Am 19. Februar 1994 erreichte sie eine polare Mondumlaufbahn und kartierte von dort aus etwa 95 % der Mondoberfläche. Neben den zahlreichen Fotografien lieferte sie Hinweise auf Vorkommen von Wassereis am lunaren Südpol. Im Mai desselben Jahres vereitelte eine fehlerhafte Triebwerkszündung den geplanten Weiterflug zum Asteroiden Geographos. Die Sonde ist seit Juni 1994 außer Betrieb. Am 11. Januar 1998 erreichte die US-amerikanische Mondsonde Lunar Prospector eine polare Mondumlaufbahn, um an den Polen den Hinweisen auf Wassereis nachzuforschen. Zusätzlich maß sie auch das lunare Schwerefeld des Mondes für eine globale Schwerefeldkarte. Am 31. Juli 1999 endete die Mission mit einem geplanten Aufschlag in der Nähe des lunaren Südpols, um in der ausgeworfenen Partikelwolke von der Erde aus Wassereis nachweisen zu können; dieser Nachweis ist jedoch nicht gelungen. Als erste Mondsonde der ESA testete SMART-1 neue Techniken und erreichte zur Erforschung des Erdtrabanten am 15. November 2004 eine Mondumlaufbahn. Neben dem Fotografieren der Mondoberfläche untersuchte sie hauptsächlich deren chemische Zusammensetzung und forschte nach Wassereis. Der geplante Einschlag auf dem Mond konnte am 3. September 2006 von der Erde aus beobachtet werden. Am 3. Oktober 2007 erreichte die japanische Sonde Kaguya den Mond und schwenkte in eine polare Umlaufbahn ein. Der hauptsächliche Orbiter hatte zwei Hilfssatelliten in einen jeweils eigenen Mondorbit ausgesetzt: Ein VRAD-Satellit diente erdgebundenen VLBI-Messungen und ein Relaissatellit sorgte für die Weiterleitung der Funksignale. Die Beobachtung des Mondes begann Mitte Dezember 2007 und endete am 10. Juni 2009 mit Kaguyas vorgesehenem Aufschlag. Am 24. Oktober 2007 hatte die Volksrepublik China die Mondsonde Chang’e-1 gestartet. Die erste chinesische Raumsonde erreichte den Mond am 5. November, um ihn etwa ein Jahr lang zu umkreisen. Ihre Hauptaufgaben bestanden darin, die Oberfläche des Erdtrabanten dreidimensional zu kartografieren und spektrometrische Analysen der Gesteine durchzuführen. Dabei wurde erstmals auch eine umfassende Mikrowellenkarte des Mondes erstellt, die Aufschlüsse über mineralische Ressourcen geben kann. Am 1. März 2009 schlug die Sonde gezielt auf dem Mond auf ("siehe auch:" Mondprogramm der Volksrepublik China). Vom 6. Oktober 2010 bis zum 9. Juni 2011 befand sich mit Chang’e-2 die Nachfolgemission und ursprüngliche Ersatzsonde von Chang’e-1 im Mondorbit, um bis April 2011 den Erfolg der China National Space Administration zu vertiefen und deren spätere Mission einer weichen Landung vorzubereiten. Der Start der indischen Mondsonde Chandrayaan-1, und damit der ersten Raumsonde Indiens, erfolgte am 22. Oktober 2008. Sie hat zu Beginn ihrer Mission am 14. November aus ihrer polaren Umlaufbahn einen Lander in der Nähe des lunaren Südpols hart aufschlagen lassen. Mit Instrumenten aus verschiedenen Ländern sollte unter anderem eine mineralogische, eine topografische und eine Höhenkarte des Mondes erstellt werden. Der Kontakt brach jedoch am 29. August 2009 vorzeitig ab. Die Mission sollte ursprünglich 2 Jahre dauern. Die beiden GRAIL-Sonden im Mondorbit Ab dem 7. März 2012 umkreisten zwei am 10. September 2011 gestartete Orbiter der NASA unter der Bezeichnung Gravity Recovery and Interior Laboratory (GRAIL) den Mond, um gemeinsam sein Schwerefeld genauer zu vermessen. Die Mission endete am 17. Dezember 2012 und beide Orbiter schlugen kontrolliert auf der Mondoberfläche ein. Am 7. September 2013 startete die NASA den Orbiter Lunar Atmosphere and Dust Environment Explorer (LADEE) als erste Mission des neuen Lunar-Quest-Programms, der die Atmosphäre und den Staub des Mondes näher untersuchte. Des Weiteren wurde die Mission genutzt, um einen Laser als neue Kommunikationsmöglichkeit anstelle von Radiowellen zu testen. Die Mission endete am 18. April 2014 nach einmaliger Verlängerung um einen Monat mit dem Aufschlag der Sonde auf der Mondoberfläche. Aktuelle Mondsonden. Am 23. Juni 2009 um 9:47 UTC schwenkte der Lunar Reconnaissance Orbiter (LRO) der NASA auf eine polare Umlaufbahn ein, um den Mond in einer Höhe von 50 km für mindestens ein Jahr zu umkreisen und dabei Daten für die Vorbereitung zukünftiger Landemissionen zu gewinnen. Die Geräte der US-amerikanischen Sonde liefern die Basis für hochaufgelöste Karten der gesamten Mondoberfläche (Topografie, Orthofotos mit 50 cm Auflösung, Indikatoren für Vorkommen von Wassereis) und Daten zur kosmischen Strahlenbelastung. Es wurden 5185 Krater mit einem Durchmesser von mindestens 20 km erfasst. Aus deren Verteilung und Alter wurde geschlossen, dass bis vor 3,8 Milliarden Jahren hauptsächlich größere Brocken den Mond trafen, danach vorwiegend kleinere. Die Raumsonde LRO entdeckte auch Grabenstrukturen auf der Mond-Rückseite. Wann die Mission enden soll, ist noch nicht bekannt. Mit derselben Trägerrakete wurde auch der Lunar CRater Observation and Sensing Satellite (LCROSS) zum Mond geschickt. Er schlug am 9. Oktober im Krater Cabeus nahe dem Südpol ein. Der Satellit bestand aus zwei Teilen, der ausgebrannten Oberstufe der Rakete, die einen Krater erzeugte, und der einige Zeit vor dem Einschlag abgekoppelten Geräteeinheit, die die aufgeworfene Partikelwolke insbesondere in Hinsicht auf Wassereis analysierte, bevor sie vier Minuten später ebenfalls aufschlug. Am 14. Dezember 2013 hat die chinesische Raumfahrtagentur mit Chang’e-3 ihre erste weiche Mondlandung durchgeführt. Die über 3,7 Tonnen schwere Sonde dient u. a. dem Transport eines 120 kg schweren Mondrovers, der seine Energie aus Radioisotopengeneratoren erhält oder mit Radionuklid-Heizelementen ausgestattet ist, um während der 14-tägigen Mondnacht nicht einzufrieren. Geplante Mondsonden. Im Jahr 2017 ist innerhalb des Mondprogramms der Volksrepublik China die Rückkehrmission Chang’e-5 geplant. Ein Raumsonde soll dabei 2 kg Mondgestein mit zur Erde bringen. Auch im Jahre 2020 soll eine solche Probenmission, Chang’e-6, durchgeführt werden, um Material vom Mond zur Erde zu bringen. Die Japan Aerospace Exploration Agency (JAXA) hat für 2017 mit Selene-2 (Abkürzung für "Selenological and Engineering Explorer 2"; wörtlich "Mondstudierender und technischer Erforscher 2") eine Nachfolgemission von Kaguya (Selene-1) vorgesehen, die aus einem Orbiter, der vor allem als Datenrelais dienen soll, einem Lander und einem Rover bestehen soll. Lander und Rover sollen dabei zwei Wochen lang aktiv sein. Die Mission soll als Vorbereitung für eine bemannte Mondlandung in Zusammenarbeit mit der NASA dienen. Indiens Raumfahrtagentur ISRO plant als Nachfolger von Chandrayaan-1 für 2017 mit Chandrayaan-2 ein Landegerät, das mit einem Rover weich aufsetzen soll. Die NASA hat für Januar 2019 den Lunar Flashlight geplant, eine Mondsonden-Mission zur Suche und Untersuchung von Wassereisvorkommen auf dem Mond, um dies für Menschen, künftige Mondstationen und Mondrobotern nutzen zu können. Für das Jahr 2024 ist von Seiten Russlands der Einsatz der Mondsonde Luna 25 geplant. Sie soll zwölf Penetratoren hauptsächlich für seismische Untersuchungen absetzen und einen Lander zur Suche nach Wassereis in einem Krater in Nähe des lunaren Südpols niedergehen lassen. Weitere Mondmissionen Luna 26 bis Luna 29 sind ebenfalls bereits in Planung. Diese Mondsonden sind Teil der Errichtung einer Station zur Kolonisation des Mondes von 2020 bis 2037. Derzeit sehen sich private Teams für 2017 bereit, um den Google Lunar X-Prize anzutreten, hierunter sind die Astrobotic Technology, Barcelona Moon Team und Moon Express. Hierbei geht es um die Förderung von geplanten Raumflügen durch Google Inc. mit einem Preisgeld von insgesamt 30 Millionen US-Dollar. Eigentumsverhältnisse. Der Weltraumvertrag ("Outer Space Treaty") von 1967 verbietet Staaten, einen Eigentumsanspruch auf Weltraumkörper wie den Mond zu erheben. Dieses Abkommen wurde bis heute von 192 Staaten der Vereinten Nationen ratifiziert und ist damit in Kraft. Da im Outer-Space-Treaty-Abkommen nur von Staaten die Rede ist, wird von manchen interpretiert, dass dieses Abkommen nicht für Firmen oder Privatpersonen gelte. 1979 wurde deshalb der Mondvertrag ("Agreement Governing the Activities of States on the Moon and Other Celestial Bodies") entworfen, um diese vom Outer Space Treaty hinterlassene angebliche Gesetzeslücke zu schließen. Der „Moon-Treaty“-Entwurf hatte explizit die Besitzansprüche von Firmen und Privatpersonen adressiert und ausgeschlossen (Artikel 11, Absatz 2 und 3). Aus diesem Grund wird das „Moon Treaty“ oft als Hindernis für Grundstücksverkäufe zitiert; nur wurde dieses Abkommen tatsächlich nie unterschrieben oder in den Vereinten Nationen korrekt ratifiziert. Nur fünf Staaten, die alle nicht weltraumgängig sind, haben versucht, es zu ratifizieren. 187 andere Staaten sowie die USA, Russland und China haben es nicht unterschrieben und auch nicht ratifiziert. Das „Moon Treaty“ ist deshalb heute in den meisten Ländern der Erde nicht in Kraft. Die wählenden Staaten hatten damals zu viele Bedenken, dass es die profitable Nutzung des Mondes gefährden könnte, und somit wurde das Abkommen auch nicht ratifiziert (und deshalb nicht Gesetz). Daraus schlussfolgern einige, dass eine Rechtsgrundlage für Mond-Grundstücksverkäufe existiere. Es sollte ebenfalls darauf hingewiesen werden, dass die Internationale Astronomische Union sich nicht mit dem Verkauf von Himmelskörpern befasst, sondern nur mit deren Benennung, was in diesem Fall einen wichtigen Unterschied darstellt. Der Amerikaner Dennis M. Hope meldete 1980 beim Grundstücksamt von San Francisco seine Besitzansprüche auf den Mond an. Da niemand in der nach amerikanischem Recht ausgesetzten Frist von acht Jahren Einspruch erhob und da das Outer-Space-Treaty-Abkommen solche Verkäufe durch Privatpersonen in den USA explizit nicht verbietet, vertreibt Hope die Grundstücke über seine dafür gegründete Lunar Embassy. Da allerdings das Grundstücksamt in San Francisco für Himmelskörper nicht zuständig ist und von Hope sowohl das Gesetz, das solche Besitzansprüche regelt, als auch der Text aus dem Outer Space Treaty sehr abenteuerlich interpretiert wurden, sind die „Grundstückszertifikate“, die er verkauft, praktisch wertlos. Weiterer Erdtrabant. Weitere Erdtrabanten sind Gegenstand von unbestätigten Beobachtungsbehauptungen oder von Hypothesen für vergangene Zeitabschnitte wie die Zeit der Entstehung des Mondes. Google Lunar X Prize. Am 13. September 2007 haben die X-Prize Foundation und Google Inc. den Google Lunar X Prize ausgeschrieben, um damit die private, unbemannte Raumfahrt zum Mond zu fördern. Mit dem Preisgeld im Gesamtwert von 30 Millionen US-Dollar wird ein Wettlauf von Landesonden und Rovern motiviert, die von Privatunternehmen der ganzen Welt finanziert werden, um mit kostengünstigen Methoden verschiedene Missionsziele zu erfüllen. Zu den einzelnen Zielen dieses Wettbewerbs gehören das Senden von Daten, Bildern und Videos zur Erde sowie das Zurücklegen von mindestens 500 Metern auf der Mondoberfläche. Für große Entfernungen von über 5000 Metern gibt es einen Bonus. Weitere Bonuspreise sind ausgelobt für das Entdecken von Wassereis, für das Überstehen der Kälte einer Mondnacht und für das Fotografieren von früheren technischen Hinterlassenschaften, wie beispielsweise denen der Apollo-Missionen. Mondkolonisation. NASA-Konzeptzeichnung einer permanenten Mondbasis (1977) Die Errichtung von dauerhaften Außenposten und Kolonien auf dem Mond ist bereits vor der Erfindung der Raumfahrt diskutiert worden, jedoch spielte dieses Thema zunächst nur in der Science-Fiction-Literatur eine Rolle. Seit der Realisierung der Raumfahrt werden auch konkrete Nutzungsszenarien, wie der Abbau von Rohstoffen diskutiert, jedoch sind diese aufgrund des gewaltigen Aufwands bislang nicht annähernd in die Nähe einer Umsetzung gelangt. Suche nach außerirdischer Intelligenz. Der Mond könnte auch Hinweise für die Suche nach außerirdischen Zivilisationen liefern. Wissenschaftler wie Paul Davies halten eine Suche nach Artefakten und Überresten extraterrestrischer Technologie auf der lunaren Oberfläche für förderlich. Elfenbeinküste. Die Elfenbeinküste (amtlicher Name:,) ist ein Staat in Westafrika. Er grenzt an Liberia, Guinea, Mali, Burkina Faso und Ghana und im Süden an den Atlantischen Ozean. Das Land, das am 7. August 1960 die Unabhängigkeit von Frankreich erlangte, war jahrzehntelang politisch stabil und wurde durch die Einheitspartei PDCI (Parti Démocratique de Côte d’Ivoire) des damaligen Präsidenten Houphouët-Boigny regiert. Exporterlöse aus Kakao und Kaffee garantierten einen relativen Wohlstand. Innere Spannungen führten 1990 zum Ende der PDCI-Herrschaft und zusammen mit wirtschaftlichen Schwierigkeiten nach dem Verfall der Kakaopreise gipfelten die Konflikte in einem bürgerkriegsähnlichen Zustand, der das Land 2002 in zwei Teile zerriss. Seit dem Friedensvertrag von 2007 wird an der Versöhnung und Wiedervereinigung der Elfenbeinküste gearbeitet. Im Entwicklungsindex der Vereinten Nationen steht die Elfenbeinküste im Jahr 2011 auf Platz 171 von 187. Seit 1983 ist Yamoussoukro die offizielle Hauptstadt. Der Regierungssitz befindet sich in der früheren Hauptstadt Abidjan, die auch weiterhin das wirtschaftliche und politische Zentrum des Landes darstellt. Name. "Côte d’Ivoire" ist Französisch und bedeutet auf Deutsch „Elfenbeinküste“. Der Name rührt her von der Jagd auf die im Lande heimischen Elefanten wegen des Elfenbeins ihrer Stoßzähne, das lange das wichtigste Exportprodukt des Landes war. Da die unterschiedlichen Versionen des Landesnamens in verschiedenen Sprachen (Elfenbeinküste, Ivory Coast, Costa de Marfil etc.) in internationalen Foren zuvor häufig für Verwirrung gesorgt hatten, verfügte Präsident Houphouët-Boigny Ende 1985, dass der Landesname nur noch mit dem französischen Namen Côte d’Ivoire geführt und nicht in andere Sprachen übersetzt werden darf. Im deutschsprachigen Raum ist die altherkömmliche Bezeichnung "Elfenbeinküste" im Sprachgebrauch und in den Medien jedoch nach wie vor stärker verbreitet als der französische Ausdruck. Im offiziellen Verkehr, beispielsweise der deutschen Bundesregierung, wird jedoch der offizielle Name "Côte d’Ivoire" verwendet. Im Lande selbst ist die Benutzung einer anderen als der offiziellen Bezeichnung unter Strafe verboten. Die Bezeichnung für einen Einwohner der Elfenbeinküste ist – gemäß StAGN – Ivorer oder Ivorerin (eingedeutschte Version von franz. "Ivoirien" und "Ivoirienne"). Ein zu „Elfenbeinküste“ korrespondierendes Adjektiv existiert nicht, so dass man auch hier aus dem Französischen das Wort „ivorisch“ ableitet. Geografie. Der Süden der Elfenbeinküste hat eine 515 Kilometer lange Küstenlinie am Atlantischen Ozean, am westlichen Ende des Golfs von Guinea. Die Länge der Landesgrenzen zu den Nachbarstaaten sind: Burkina Faso 545 km, Ghana 720 km, Guinea 816 km, Liberia 778 km und Mali 599 km. Das Relief ist eher flach, das Oberflächenprofil ist von Ebenen und Hochebenen gekennzeichnet. Allein der Westen des Landes weist Höhen von mehr als 1.000 Metern über dem Meeresspiegel auf. Hier, genau auf der Grenze zu Guinea, befindet sich der Mont Nimba, der mit der höchste Berg beider Staaten ist. Der Norden des Landes wird auch von einem Teil der Oberguineaschwelle durchzogen. Davon abgesehen sind die restlichen Ebenen zwischen 200 und 350 Meter hoch gelegen. Die höheren Plateaus haben schroffe Formen und sind aus hartem Material. Die niedriger gelegenen Ebenen haben sanftere Formen und sind in der Regel aus lockererem Material. Weiträumige, platte Gegenden charakterisieren die Savannenlandschaften wie auch die kleinen Savanneneinschlüsse in den Regenwaldgebieten. Das dominierende Element der Ebenen und Hochebenen ist eine eisenhaltige Kruste, die an der Oberfläche als rostfarbene Platten sichtbar ist, häufig jedoch von Sand, Kies oder feinerem Material verdeckt wird. Gewässer bedecken 4460 km² oder 1,383 % des Territoriums der Elfenbeinküste. Dies sind einerseits der Atlantische Ozean und die angrenzenden Lagunen im Süden des Landes, wobei die bedeutendsten Lagunenkomplexe Aby-Tendo-Ehy, Ebrié und Grand-Lahou-Tadio-Makey-Tagba sind. Es gibt zahlreiche Fließgewässer, die das ganze Land entwässern. Vor allen sind hier die vier großen Flüsse Cavally (700 km), Sassandra (650 km), Bandama (1050 km) und Comoé (1160 km) zu nennen. Andere wichtige Flüsse sind entweder Nebenflüsse davon oder sie sind Küstenflüsse, die ihre eigenen Einzugsgebiete haben. Nennenswert sind der Tabou, der Néro, der San Pedro, der Bolo, der Niouniourou, der Boubo, der Agnéby, die Mé und die Bia. Die größten Seen des Landes sind Talsperren: Der Kossoustausee, der Buyostausee und der Ayaméstausee. Schließlich gibt es zahlreiche Bäche und mehrere Sumpfgebiete. Geologie. Der kristalline Unterbau besteht aus Migmatiten und Gneis (magmatischer sowie sedimentärer Herkunft), Charnockiten, Noriten sowie verschiedenen Arten von Graniten. Sie sind Teil des westafrikanischen Kratons, der vor mehr als zwei Milliarden Jahren entstanden ist. Das Phyllitgestein besteht größtenteils aus Tonschiefer und Quarziten. Dieser Sockel ist von einer dünnen Sedimentschicht bedeckt, die aus Tonsand kontinentalen Ursprungs sowie aus Ton, Sand und Schlamm maritimen Ursprungs besteht. Die Böden der Elfenbeinküste haben die gleichen Eigenschaften wie jene der benachbarten Länder Westafrikas und vieler anderer tropischer Regionen. Sie sind locker, seltener verhärtet, aus einem Material in roten ockerfarbenen und dunklen rostbraunen Farbtönen. Es handelt sich um ferrallitische Bodentypen, die größtenteils durch Verwitterung entstanden sind. Klima. Die Elfenbeinküste liegt zwischen 4° und 10° nördlicher Breite; der Äquator liegt etwa 400 km von der südlichen Küste des Landes entfernt und der nördliche Wendekreis ist etwa 1400 km von der Nordgrenze entfernt. An den Küsten der Elfenbeinküste herrscht deshalb ein immerfeuchtes tropisches Klima, das im äußersten Norden in ein trockenes Klima übergeht. Die mittlere Jahrestemperatur liegt bei 28 °C, jedoch kennen die Bewohner markante Temperaturunterschiede zwischen den nördlichen und südlichen Regionen ihres Landes sowie zwischen den einzelnen Jahreszeiten. Geprägt wird das Klima durch die Windsysteme des Nordost- Passats und des Südwestmonsuns: Der Nordost-Passat (Harmattan) bringt im Winter heiße, trockene, staubbeladene Luft aus der Sahara und trocknet das Land aus. Die Herkunft des westafrikanischen Monsuns ist im Golf von Guinea, dementsprechend bringt er feuchtwarme Luft. Er bestimmt das Klima des Südens der Elfenbeinküste ganzjährig, im Norden bringt er Sommerregen. Demnach werden in der Elfenbeinküste drei Klimazonen unterschieden. Das Klima von Odienné, eine Stadt im Nordwesten, ist von den nahen Bergen geprägt und hat deshalb höhere Niederschlagswerte (1491 mm) und niedrigere Temperaturen als Regionen östlich davon. In Man (noch höher in den Bergen gelegen) erreichen die Niederschlagswerte sogar 1897 mm pro Jahr. Flora. Die Vegetation lässt sich in zwei Zonen einteilen: Eine südliche, "guineische" Zone und eine nördliche "sudanesische" Zone. Die Grenze zwischen diesen beiden Zonen liegt parallel zur Küstenlinie etwa beim 8. Breitengrad. Die südliche Zone ist von immergrünem Regenwald und Mangroven (Guineische Mangroven), davon eine westlich von Abidjan, an der Mündung des Flusses Bia, und eine noch weiter westlich davon an der Mündung des Flusses Boubo geprägt. In der nördlichen Zone herrschen Trockenwälder (mit periodischem Laubwechsel) und Savannen (die Sudan-Savanne, die ein Drittel des Territoriums bedeckt, und die Guinea-Savanne) vor, wobei der Trockenwald als Übergang vom Regenwald zur Savanne gesehen werden kann. Im zentralen Teil der Elfenbeinküste ist das Guineische Wald-Savannen-Mosaik, das aus ineinandergreifenden Zonen aus Grasland, Savanne und dichtem Feuchtwald und Galeriewald an Flussläufen besteht. Nennenswerte Vertreter der Flora in der Elfenbeinküste sind Bäume wie der Affenbrotbaum, Iroko, Tali, Amazakoue, Tiama und Movingui, die teils hohe Bedeutung für den Export von Holz haben. In den Wäldern wachsen Epiphyten und Orchideen, während Schlangenwurze, "Manniophyton", Knoblauchbaum, Milne-Redhead und Belluci Bedeutung als traditionelle Heilpflanzen haben. Die Vegetation der Elfenbeinküste hat sich in den vergangenen Jahrzehnten durch menschliches Zutun grundlegend geändert. Ursprünglich war ein Drittel des Landes im Süden und Westen vollständig von dichten Wäldern bedeckt. Dazu kamen Baumsavannen im Zentrum und Norden sowie kleine Mangroven an der Küste. Seit der Kolonialzeit hat sich der Waldbestand stark verringert, teils durch die Anlage von Plantagen, teils durch Abholzung. Für das Jahr 2007 wurde der natürliche Waldbestand auf 6 Millionen Hektar geschätzt. Fauna. Die Stoßzähne des Elefanten gaben dem Land seinen Namen Die Fauna ist besonders artenreich. Unter den Säugetieren ist der Elefant das Tier, dessen Stoßzähne, als Elfenbein gehandelt, dem Land seinen Namen gaben. Sein in Wald und Savanne einst hoher Bestand ist mittlerweile durch Jagd und Wilderei stark reduziert, so dass er heute nur noch in Reservaten anzutreffen ist. Daneben gibt es Flusspferde, Riesenwaldschweine, Ducker, Primaten, Nagetiere, Schuppentiere, Raubkatzen wie Leoparden sowie Mangusten; in den Steppen sind Hyänen und Schakale anzutreffen. Das seltene Zwergflusspferd hat im Nationalpark Taï, im Südwesten des Landes eines seiner wichtigsten Vorkommen. Auch leben hier hunderte Arten von Vögeln (Reiher, Störche wie Wollhalsstorch und Marabu, Enten und Gänse sowie Greifvögel). In und an den Flussläufen der Savanne lebt das Panzerkrokodil, in den Flüssen der Regenwälder das Stumpfkrokodil. Schlangen wie Kobras, Mambas, Puffotter, Gabunviper und Nashornviper, Felsenpython und Königspython kommen ebenso vor wie Termiten, die die Landschaft mit zahlreichen Termitenhügeln verzieren, und Käfer wie etwa der Pillendreher. In den Flüssen leben zahlreiche Fischarten wie Buntbarsche oder der Afrikanische Vielstachler, während in den Küstengewässern Garnelen, Sandtiger- und sonstige Haie, Seenadeln, Rochen, Froschfische, Plattfische oder auch die seltene Unechte Karettschildkröte vorkommen. Zahlreiche Arten, etwa die Schimpansen, sind bereits sehr selten oder vom Aussterben bedroht. Nationalparks. Seit 1953 wurden acht Nationalparks ausgewiesen, der älteste ist der Nationalpark Banco. Die bekanntesten sind der Nationalpark Taï (im Südwesten des Landes) und der Nationalpark Comoé (im Nordosten), die beide auch Weltnaturerbe-Gebiete sind. Weitere Nationalparks heißen Nationalpark Marahoué (im Zentrum, westlich des Kossoustausees), Nationalpark Mont Sangbé und Nationalpark Mont Péko (beide im Westen) sowie, an der Küste westlich und östlich von Abidjan liegend, der Nationalpark Azagny und der Nationalpark Îles Ehotilé. Als drittes Weltnaturerbe-Gebiet wurde das Mont Nimba Strict Nature Reserve auf die UNESCO-Welterbe-Liste gesetzt; mit einem größeren Teil setzt sich das Strenge Naturschutzgebiet (Kategorie Ia der IUCN-Richtlinien) grenzüberschreitend in Guinea fort. Bevölkerung. Die Bevölkerung der Elfenbeinküste zeichnet sich, ähnlich wie jene der meisten Entwicklungsländer, durch ein schnelles Wachstum aus. Zwischen 1975 und 2005, in nur 30 Jahren, verdreifachte sich die Bevölkerung von 6,7 Millionen auf fast 20 Millionen. Dieses Wachstum geht zu einem gewissen Teil auf Einwanderung zurück; die Volkszählung 1998 ergab, dass 26 % der Bevölkerung Nicht-Ivorer waren. Diese Einwanderer stammen zum Großteil aus den Nachbarländern und wurden vor dem Bürgerkrieg von der relativ hohen wirtschaftlichen Entwicklung und der sozialen und politischen Stabilität angezogen. Insgesamt leben zwei Millionen Menschen aus Burkina Faso in der Elfenbeinküste, die den größten Ausländeranteil stellen. Daneben wanderten zahlreiche Personen aus Mali, Guinea, dem Senegal, Liberia und Ghana ein. Ferner findet man Libanesen, die vor allem Handel betreiben, Asiaten und Europäer. Ausländer, die eingebürgert wurden, machen nur 0,6 % aus. Die zusammengefasste Fruchtbarkeitsziffer liegt bei 4,6 Kindern pro Frau. Dies liegt unter anderem daran, dass nur 8 % der verheirateten Frauen moderne Verhütungsmethoden zur Verfügung stehen (Stand 2012). Jugendliche machen einen sehr starken Bevölkerungsanteil aus: 2012 waren 41 % der Bevölkerung unter 15 Jahre alt und nur 4 % über 65 Jahre alt. Ebenso ist die Bevölkerung ungleich über das Territorium des Landes verteilt. 57 % Landbevölkerung stehen 43 % Stadtbevölkerung gegenüber, wobei die Stadtbevölkerung um 4,2 % jährlich zunimmt. Der Trend der Landflucht hat sich durch den Bürgerkrieg noch verstärkt. Als "Stadt" werden in der Elfenbeinküste urbane Räume mit mindestens 3.000 Einwohnern, in denen mehr als 50 % der Bevölkerung einer nicht-landwirtschaftlichen Erwerbsbetätigung nachgeht, definiert. Der Zensus von 1998 zählte 129 Städte, von denen die größte Abidjan mit 2.877.948 Einwohnern war. Weitere Großstädte waren Yamoussoukro (155.803 Einwohner), Bouaké (464.618 Einwohner), Daloa (173.103 Einwohner), Korhogo (142.039 Einwohner), Gagnoa (107.124 Einwohner), Man (116.657 Einwohner) und San-Pédro (131.800 Einwohner). Weitere Städte sind in der "Liste der Städte in der Elfenbeinküste" aufgelistet. Volksgruppen. Aufgrund der Landflucht und der zunehmenden Verstädterung findet man in den Städten praktisch alle Ethnien. Vor allem in den kleineren Städten gibt es eine gewisse Tendenz, in eigenen Vierteln zusammenzuleben. Sprachen. Neben der Amtssprache Französisch werden in der Elfenbeinküste 77 verschiedene Sprachen und Idiome gesprochen. Die größten sind das Baoulé und das Dioula, daneben werden auch Senufo-Sprachen, Yacouba, Anyi, Attie, Guéré, Bété, Abé, Kulango, Mahou, Tagwana, Wobé und Lobi gesprochen. Die mit Abstand am weitesten verbreitete Sprache ist Dioula, das von insgesamt 61 % der Bevölkerung vor allem im Norden gesprochen und verstanden wird und als Handelssprache eine große Bedeutung hat. Allerdings ist seit der französischen Kolonialzeit die einzige Amts- und Unterrichtssprache des Landes Französisch. Religionen. In der Elfenbeinküste herrscht eine hohe religiöse Diversität. Die am meisten verbreiteten Religionen sind das Christentum (32,8 %) und der Islam (38,6 %), dabei ist der Norden eher muslimisch geprägt während der Süden christlich geprägt ist. 11,9 % der Bevölkerung praktiziert traditionelle westafrikanische Religionen – vor allem die Religion der Akan – die bis zu einem gewissen Ausmaß auch die Ausübung der anderen Religionen beeinflussen. Der Islam begann sich im äußersten Norden der Elfenbeinküste ab dem 11. Jahrhundert auszubreiten. Das Christentum wurde an der Küste im 17. Jahrhundert durch Missionare eingeführt. Die gegenwärtige Entwicklung ist durch eine wachsende Islamisierung geprägt. Noch kurz vor der Jahrtausendwende bekannten sich 40 % der Einwohner zu den traditionellen westafrikanischen Religionen. Der Islam, zu dem sich Mitte der 1980er Jahre erst rund 24 % der Gesamtbevölkerung bekannten, ist seitdem, vor allem durch Mission unter den Anhängern der traditionellen westafrikanischen Religionen (besonders der Senufo) die am stärksten wachsende Religionsgemeinschaft. 2004 waren bereits 35 % der Einwohner Sunna-Muslime. Als Dachverband der muslimischen Organisationen der Elfenbeinküste fungiert der 1993 gegründete „Nationale Islamische Rat“ ("Conseil national islamique"; CNI). Innerhalb dieses Dachverbandes spielt die muslimische Studentenorganisation "Association des élèves et étudiants musulmans de Côte d'Ivoire" (AEEMCI) eine wichtige Rolle. Die jährliche Wallfahrt nach Mekka wird von der "Association musulmane pour l'organisation du pèlerinage à la Mecque" (AMOP) organisiert. Eine wichtige Untergruppe innerhalb der Muslime der Elfenbeinküste stellen die Yacoubisten, die Anhänger von Yacouba Sylla, dar. Generell herrscht in der Elfenbeinküste religiöse Toleranz und friedliches Miteinander. Die religiösen Feiertage werden frei von den jeweiligen Gläubigen begangen und von allen akzeptiert. Die Elfenbeinküste ist offiziell ein laizistischer Staat, wenngleich Repräsentanten des Staates zu religiösen Zeremonien entsandt werden und spezielle konfessionelle Schulen finanzielle Zuwendungen von Seiten des Staates erhalten. Diaspora. Zahlreiche Ivorer leben im Ausland, wenngleich ihre genaue Zahl nicht feststellbar ist, da ein Teil von ihnen in ihren Aufenthaltsländern illegal eingewandert ist. Schätzungen gehen von etwa 1,5 Millionen Auslands-Ivorern aus. Begehrteste Ziele ivorischer Auswanderer sind Frankreich, Belgien, die Schweiz, Italien, Deutschland, die USA und Kanada. Diese Auswanderer haben eine große Bedeutung für die ivorische Wirtschaft: Sie überweisen einerseits hohe Summen, um die daheim gebliebenen Angehörigen zu unterstützen, andererseits sind Heimkehrer aus dem Ausland bedeutende Teilnehmer am Immobilienmarkt. Sklaverei. In der Elfenbeinküste, dem bedeutendsten Exportland von Kakao, werden laut Menschenrechtsorganisationen etwa 12.000 Kinder als Sklaven auf Kakaoplantagen eingesetzt. Bildung. Während einerseits ausländische Investoren das hohe Bildungsniveau der Eliten schätzen, so stellen andererseits mangelnde Bildung und Analphabetismus große Probleme dar. Unter der armen Bevölkerung können 61,1 % der Menschen nicht lesen und schreiben, sogar 73,6 % der Frauen unter den Armen sind Analphabeten. Es wird geschätzt, dass mehr als vier Millionen Jugendliche keine Ausbildung und keinen Arbeitsplatz haben. Der Staat gab 2001 4,6 % des Bruttoinlandsprodukts bzw. 21,5 % seines Budgets für Bildungszwecke aus. Davon entfielen 43 % auf die Grundschulen, 36 % auf die weiterführende Bildung und 20 % auf die Universitäten. Kindergärten und Schulen. Schüler im Klassenzimmer eines ivorischen Gymnasiums Eingang zur Staatlichen Schule für Statistik und angewandte Ökonomie in Abidjan Das Bildungssystem der Elfenbeinküste ist stark an jenes von Frankreich angelehnt und wurde kurz vor der Unabhängigkeit eingeführt. Es besteht Schulpflicht und die Schulbildung ist kostenfrei, um den Schulbesuch der Kinder im schulpflichtigen Alter zu fördern bzw. zu ermöglichen. Das Bildungssystem umfasst eine Grundschule und eine weiterführende Schule, an die sich die tertiäre Bildung anschließt. Vor dem Grundschulbesuch gibt es optionale Kindergärten, von denen 2001/2002 auf dem gesamten Gebiet des Landes 391 Einrichtungen registriert wurden. 2005 existierten nur im von den Regierungstruppen kontrollierten Landessüden 600 Kindergärten mit 2109 Erziehern und 41.445 Kindern. Die Grundschulausbildung dauert sechs Jahre und endet mit dem "Certificat d’études primaires", das zum Aufstieg in die weiterführende Schule berechtigt. Im Jahre 2001 existierten nach der Statistik des Bildungsministeriums 8050 öffentliche Grundschulen mit 43.562 Lehrkräften und 1.872.856 Schülern. Daneben gab es 925 private Grundschulen mit 78.406 Lehrern und 2.408.980 Schülern. Der Anteil derjenigen Kinder, die eine Grundschule besuchen, lag 2001/2002 bei 79,5 % (für Mädchen nur 67,3 %) und selbst dies erst nach großen Anstrengungen der Regierung in Zusammenarbeit mit der Afrikanischen Entwicklungsbank im Rahmen des Projekts "Projet BAD éducation IV". Die Schulbesuchsquote fiel während des Bürgerkriegs auf 54,4 % (für Mädchen 49,1 %) im Jahr 2005. Generell hat das Schulwesen im Bürgerkrieg einen hohen Schaden erlitten, viele Schulgebäude wurden zerstört und Lehrer verließen unsichere Gegenden. Die weiterführende Bildung dauert sieben Jahre. In der weiterführenden Bildung dominieren die privaten Einrichtungen: 370 der 522 im Jahr 2005 gezählten Gymnasien waren privat. Nur etwa 20 % der Jugendlichen bekommen eine weiterführende Bildung. Nach dem ersten, vier Jahre dauernden Abschnitt der weiterführenden Bildung bekommt man das "Diplôme national du brevet" und nach drei weiteren Jahren das "Baccalauréat". Akademische Einrichtungen. Bereits in den 1960er Jahren wurden in der Elfenbeinküste akademische Bildungseinrichtungen gegründet, um eigene Spezialisten ausbilden zu können. Bis 1992 waren alle diese Hochschulen und Institute staatlich, seitdem wurden zahlreiche Privathochschulen gegründet. Im Jahr 2004/05 wurden 149 akademische Bildungseinrichtungen gezählt, die von 146.490 Studenten besucht wurden, davon 35 % Mädchen. Darunter fielen drei staatliche Universitäten, vier staatliche Hochschulen "(grandes écoles)" und sieben Privatuniversitäten. Zu den bedeutenderen Einrichtungen gehören das Institut national polytechnique Houphouët-Boigny (INPHB), die École normale supérieure (ENS) und die Agence nationale de la formation professionnelle. Das Ansehen der ivorischen Universitäten ist insbesondere seit dem Bürgerkrieg, als alle Universitäten zum Umzug nach Abidjan gezwungen waren und viele Akademiker das Land verließen, gering. Gesundheit. Das Gesundheitssystem der Elfenbeinküste in Afrika hat durch den Bürgerkrieg schwer gelitten. Viele Einrichtungen wurden geplündert oder zerstört, das Personal musste aus Sicherheitsgründen in den Städten konzentriert werden oder hat das Land gar ganz verlassen. Häufigste Krankheiten sind, bedingt durch das tropische Klima, Malaria, Cholera, Typhus, Tuberkulose, Gelbfieber sowie Hepatitis A und Hepatitis B. Ein Großteil der Erkrankungen kann auf verschmutztes Trinkwasser zurückgeführt werden; mehr als die Hälfte der armen Haushalte hat keinen Zugang zu sauberem Wasser, wobei dieser Prozentsatz im ländlichen Norden viel höher ist. Die Kindersterblichkeit ist zwischen 1994 und 2007 von 89 auf 117 pro Tausend Lebendgeburten gestiegen. Die Säuglingssterblichkeit lag 2012 bei 73 pro 1.000 Geburten, die Müttersterblichkeit bei 400 pro 100.000 Geburten. Etwa 7 % der Bevölkerung sind mit HIV infiziert "(siehe auch: AIDS in Afrika)", auch andere sexuelle übertragbare Krankheiten breiten sich, bedingt durch frühe sexuelle Aktivität und mangelnde Aufklärung schnell aus; unfachmännische Abtreibungen sind häufig. Ein Verbesserungsplan für das Gesundheitswesen wurde von der Regierung 1995 in Angriff genommen. Die politischen Wirren haben jedoch dazu geführt, dass dieses Programm nicht zu Ende geführt wurde. Die Regierung versucht nun, medizinisches Personal in die früheren Kriegsgebiete zurückzubringen. Wer plant, die Elfenbeinküste zu besuchen, sollte prüfen, ob die vorhandenen Impfungen gegen Diphtherie, Kinderlähmung und Tetanus aufgefrischt werden müssen. Eine Impfung gegen Gelbfieber ist bei der Einreise vorgeschrieben. Daneben sind Impfungen gegen Hepatitis A und B angeraten; wer sich weit abseits der Großstädte bewegt, sollte auch Impfungen gegen Cholera, Tollwut und Typhus in Betracht ziehen. In jedem Fall ist Malariaprophylaxe oder das Mitführen von entsprechenden Medikamenten empfohlen. Vorkoloniale Zeit. Bis zur Kolonialisierung wies der Südteil der Elfenbeinküste keine Staatenbildung auf. Der Nordteil hingegen kam ab dem 11. Jahrhundert in den Einfluss der Sahelreiche, etwa des Malireiches ab dem 13. Jahrhundert. Gleichzeitig kam der Islam durch Handel und kriegerische Auseinandersetzungen in diese Region. Im 17. Jahrhundert war der Stadtstaat Kong der mächtigste Staat der Region und ein Zentrum islamischer Gelehrsamkeit. Kolonialperiode. Die Portugiesen trieben seit dem 15. Jahrhundert Handel mit den Küstenstämmen, wurden aber seit dem 17. Jahrhundert von den Franzosen verdrängt, die 1843 den Marinestützpunkt Grand-Bassam errichteten und das Gebiet 1893 zur französischen Kolonie Côte d’Ivoire erklärten. Die Niederschlagung von Aufständen, besonders die des islamischen Führers Samory Touré, beschäftigte die französische Kolonialverwaltung mehrere Jahre. 1895 wurde Côte d’Ivoire ein Teil Französisch-Westafrikas in dem auch der Code de l’indigénat galt. 1956 erhielt es innere Selbstverwaltung und wurde 1958 autonome Republik innerhalb der französischen Gemeinschaft. Ära Houphouët-Boigny. Am 7. August 1960 erhielt Côte d’Ivoire die volle Unabhängigkeit unter Félix Houphouët-Boigny, der bis zu seinem Tode 1993 Staatspräsident (bis 1990 auch Regierungschef) war. Houphouët-Boigny, der Gründer der Einheitspartei „Parti Democratique de Côte d’Ivoire“ (PDCI), verfolgte eine prowestliche Politik. Im Gegensatz zu anderen Staaten, die unter anderem durch Namensänderung ihr koloniales Erbe in den Hintergrund rückten und mit Bezeichnungen aus der vorkolonialen Zeit eine unabhängige Identität schaffen wollten, hielt die Elfenbeinküste auch nach der Erlangung der Unabhängigkeit im Jahr 1960 an den engen Verbindungen zu Frankreich fest. Unruhen unter der Bevölkerung führten dazu, dass 1990 ein Mehrparteiensystem sowie das Amt des Ministerpräsidenten eingeführt wurden. Die prowestliche und marktwirtschaftlich orientierte Politik Houphouët-Boignys machte aus Côte d’Ivoire einen der reichsten Staaten Westafrikas und führte zu politischer Stabilität. Nachfolger Houphouët-Boignys wurde 1993 Henri Konan Bédié (PDCI). Die von der Opposition boykottierten Wahlen im Oktober 1995 bestätigten Bédié im Präsidentenamt. Eine Änderung der präsidialen Verfassung von 1960 verlängerte 1998 die Amtszeit des Präsidenten von fünf auf sieben Jahre und stärkte seine exekutiven Befugnisse. Militärregierung. Der Verfall der Kakaopreise führte 1999 zu wirtschaftlichen Krisenerscheinungen. Im Dezember 1999 wurde Bédié, der oppositionelle Kreise zunehmend unterdrückt hatte, in einem unblutigen Putsch vom Militär unter Führung von General Robert Guéï gestürzt. Das Land fiel damit in eine tiefe Krise. Unter dem Schlagwort "Ivoirité" kam es zu fremdenfeindlichen Tendenzen und zur Diskriminierung der im Norden des Landes ansässigen Ethnien. Im Jahre 2000 gewann Laurent Gbagbo Präsidentschaftswahlen, von denen der Oppositionskandidat (Alassane Ouattara) ausgeschlossen worden war. Dies wurde damit begründet, dass Ouattaras Eltern aus dem Nachbarland Burkina Faso stammen. Der andauernde Streit darum, wer ein wahrer „Ivorer“ sei und wer nicht, führte schließlich 2002 zu einem bewaffneten Aufstand gegen Gbagbo und zu der aktuellen Krise. Bürgerkrieg und Teilung. a> und der französischen Armee eingerichtete Pufferzone a>, 2007, Mischtechnik Tusche und Wachs Im September 2002 erhob sich ein Teil der Armee („Forces Nouvelles“) gegen die Regierung und brachte die nördliche Hälfte des Staates unter ihre Kontrolle. Diese Entwicklung hat ihren Hintergrund in ethnischen Spannungen; in der Elfenbeinküste leben viele aus den angrenzenden Staaten eingewanderte Menschen. Es ist aber auch ein Konflikt um Land und den Zugang zu Ressourcen. Im Auftrag der UNO wurden zur Trennung der Rebellen im Norden und dem südlichen Landesteil mehr als 6300 Blauhelme im Land stationiert (Opération des Nations Unies en Côte d’Ivoire). Zusätzlich sind etwa 4500 französische Soldaten im Land. Letztere agieren ebenfalls im Auftrag der UNO, waren aber schon vor der Krise in Côte d’Ivoire stationiert. Die frühere Kolonialmacht Frankreich setzte einen Friedensplan durch, der eine Machtteilung zwischen Gbagbos FPI und den "Forces Nouvelles" der Rebellen vorsah. Der Krieg wurde somit für beendet erklärt. Anfang November 2004 eskalierte die Situation erneut, als am 4. November Regierungstruppen Ziele im Norden des Landes aus der Luft angriffen. Gleichzeitig wurden in Abidjan Büros von Oppositionsparteien und unabhängigen Zeitungen verwüstet. Am dritten Tag der Luftangriffe kamen neun französische Soldaten ums Leben. Als Reaktion darauf wurde von den französischen Streitkräften die gesamte Luftwaffe (zwei Kampfflugzeuge, fünf Kampfhubschrauber) Côte d’Ivoires binnen eines Tages vernichtet. Letzteres wurde von der UNO nachträglich für gerechtfertigt erklärt. Dem südlichen Landesteil unter Gbagbo wiederum wird vorgeworfen, die Teilung der Macht eigentlich nicht gewollt zu haben. Gbagbo destabilisiere die Lage seit längerem unter anderem mit Aufrufen zu Hass und Gewalt über TV und Radio. Bis zum 15. November wurden rund 6000 Ausländer via Luftbrücke evakuiert. Unter südafrikanischer Vermittlung einigten sich Armee und Rebellen am 9. Juli 2005 neuerlich auf ein Entwaffnungs- und Machtteilungsabkommen. Dieses sollte den Weg freimachen zu Präsidentschaftswahlen am 30. Oktober 2005. Der Bürgerkrieg wurde zum zweiten Mal für beendet erklärt. Weder die Entwaffnung noch Wahlen wurden jedoch umgesetzt. Gründe dafür waren Unstimmigkeiten bei der Vorgehensweise zur Erfassung der Wähler und über das Ausstellen von Identitätspapieren. Die UNO beschloss eine Verlängerung der Amtszeit von Präsident Gbagbo um ein Jahr, und stellte ihm den parteilosen Charles Konan Banny als Premierminister an die Seite. Mitte Januar 2006 eskalierte die Situation erneut: Es kam in mehreren Orten zu gewalttätigen Demonstrationen mit Toten und Verletzten. Nach einem einschlägigen UN-Beschluss Anfang Februar 2006 wurden Konten von drei Gegnern des Friedensprozesses eingefroren. Die Sanktionen richten sich gegen Ble Goude und Eugene Djue, die als Anführer militanter Jugendgruppen und Anhänger von Staatspräsident Laurent Gbagbo gelten, sowie gegen Rebellenführer Fofie Kouakou. Die Audiences foraines genannte Registrierung von bisher papierlosen Bürgern im Hinblick auf die vereinbarten Wahlen kommt nur schleppend vorwärts. Die Opposition behauptet, sie würde von Mitgliedern der Regierungspartei hintertrieben und teilweise verhindert. Vertrag von Ouagadougou und Machtteilung. Am 4. März 2007 wurde, nach langwierigen Verhandlungen zwischen Präsident Gbagbo, Rebellenführer Guillaume Soro und dem burkinischen Präsidenten Blaise Compaoré, ein neuer Friedensvertrag unterzeichnet. Dieser Vertrag sieht, im Unterschied zu den vorigen Abkommen, neben Machtteilung auch einen ständigen Konzertationsrahmen vor, in dem neben Gbagbo, Soro und Compaoré auch Bédié und Ouattara vertreten sind. Soro wurde zum Premierminister der neu zu bildenden Regierung ernannt. Dieser Vertrag von Ouagadougou enthält detaillierte Vereinbarungen zur Ausgabe von Identitätspapieren, Aufstellen des Wählerverzeichnisses sowie die Schaffung einer nationalen Armee. Wenige Wochen später wurde bereits mit dem Abbau der Pufferzone begonnen und es gab erste gemeinsame Patrouillen aus Regierungssoldaten und Rebellen der Forces Nouvelles (FN). Im Juli 2007 besuchte Präsident Gbagbo zum ersten Mal seit fünf Jahren den von den Rebellen gehaltenen Norden. Er nahm dort an einer offiziellen Friedenszeremonie teil, bei der in Anwesenheit zahlreicher afrikanischer Staatschefs Waffen verbrannt wurden. Präsidentschaftswahlen 2010. Schließlich wurden die Präsidentschaftswahlen mit einem ersten Wahlgang am 31. Oktober 2010 durchgeführt. Bei einer Wahlbeteiligung von etwa 80 Prozent gewannen unter 14 Kandidaten der damals amtierende Präsident Gbagbo mit 38 Prozent sowie als Kandidaten der Opposition Alassane Ouattara (RDR) mit 32 Prozent und Henri Konan Bédié (PDCI) mit 25 Prozent die meisten Stimmen. Eine Stichwahl zwischen Gbagbo und Ouattara fand am 28. November 2010 statt. Davor kündigten beide an, das Auszählungsergebnis überprüfen zu lassen. Aus der Stichwahl ging laut dem Ergebnis der Wahlkommission CEI (Commission électorale indépendante) Alassane Ouattara mit 54 % der Stimmen als Sieger hervor. Der Verfassungsrat erklärte jedoch die Ergebnisse in vier Regionen für nichtig. Dadurch habe nun Gbagbo die Stichwahl gewonnen. Daraufhin legten sowohl der bisherige Amtsinhaber Laurent Gbagbo als auch Alassane Ouattara den Amtseid ab. Gemäß dem Mandat der UN-Mission UNOCI muss der Sondergesandte Choi Young-jin das Wahlergebnis zertifizieren. Nach seiner Prüfung erklärte er das Ergebnis der Wahlkommission für gültig. Gbagbo wurde von den Vereinten Nationen, den USA und der Europäischen Union nicht mehr als rechtmäßig gewählter Präsident anerkannt. Der Internationale Währungsfonds drohte mit einem Boykott des Landes. Nach der Festnahme Gbagbos am 11. April 2011 ist der Machtkampf zugunsten Ouattaras entschieden. Erneute Krise 2010/2011. Seit der Präsidentschaftswahl 2010 kam es zwischen Anhängern beider Lager zu einer Regierungskrise mit gewaltsamen Auseinandersetzungen und Todesopfern. Auch ein Blauhelm-Konvoi wurde angegriffen. Dabei wurden auch schwere Waffen gegen Zivilisten eingesetzt. Bis Ende März 2011 waren eine Million Menschen auf der Flucht vor dem Bürgerkrieg. Am 11. April 2011 wurde der abgewählte Präsident Laurent Gbagbo von den Truppen des international anerkannten Wahlsiegers Ouattara nach langwierigen Kämpfen mit Unterstützung von militärischen Kräften der UNO und Frankreichs festgenommen. Damit haben sich Ouattara als rechtmäßiger Präsident und sein Premierminister Guillaume Soro weitgehend durchgesetzt. Gbagbo wurde im November 2011 dem Internationalen Gerichtshof in Den Haag überstellt. Ouattara muss sich den Vorwurf der „Siegerjustiz“ gefallen lassen. Bis heute wurde kein einziges der zahlreichen Menschenrechts- und Kriegsverbrechen seiner Militärs verfolgt, Verantwortliche benannt oder gar angeklagt, insbesondere nicht für das Massaker von Douekoue, bei dem laut dem Internationalen Roten Kreuz 800 Menschen von Ouattara-Militärs brutal ermordet wurden. Politik. Nach seiner Unabhängigkeit hat die Elfenbeinküste ein präsidentielles Regierungssystem eingeführt. Es existiert formelle Gewaltentrennung in die Exekutive, die Legislative und die Judikative. Dazu kommen Institutionen wie der "Conseil économique et social" und der "Médiateur de la République". Verfassung. Die im Jahre 2000 verabschiedete Verfassung garantiert Grundrechte und Grundfreiheiten, wie es internationale Abkommen und Verträge verlangen. Ebenfalls ist seit 2000 die Todesstrafe abgeschafft. Die Realität sieht jedoch anders aus. Im Bürgerkrieg kam und kommt es sowohl durch die Rebellen- als auch durch die Regierungstruppen zu massiven Übergriffen wie Mord, Folter, Verschwindenlassen unliebsamer Personen und sexueller Gewalt. Die Beschneidung weiblicher Genitalien ist offiziell verboten, dennoch wird sie häufig praktiziert; das Gleiche gilt für Kinderarbeit. Exekutive. Die Exekutive fiel bis 1990 allein dem Staatspräsidenten zu. Seitdem sind die Kompetenzen auf den Präsidenten als Staatsoberhaupt und auf den Premierminister als Regierungschef verteilt. Der Staatspräsident wird in direkter, allgemeiner Wahl gewählt. Es werden zwei Durchgänge abgehalten, wobei ein Kandidat die einfache Mehrheit erreichen muss. Das Mandat dauert fünf Jahre und der Präsident kann einmal wiedergewählt werden. Er ist der alleinige Chef der Exekutive; zu seinen Aufgaben gehört es, die nationale Unabhängigkeit zu bewahren, die Integrität des Territoriums aufrechtzuerhalten und internationale Abkommen und Verträge einzuhalten. Er ist Oberbefehlshaber der Streitkräfte, wacht über die Einhaltung der Verfassung und über die Kontinuität des Staates. Er ist Chef der Verwaltung und ernennt zivile wie militärische Beamte. In Krisenzeiten erhält der Präsident Sondervollmachten. Im Fall des Todes, des Zurücktretens oder der Absetzung des Präsidenten übernimmt der Präsident der Nationalversammlung dieses Amt für eine Dauer bis zu 90 Tagen. Der Premierminister wird vom Staatspräsidenten ernannt und kann von ihm wieder entlassen werden. Verfassungsgemäß hat der Premierminister keine eindeutig exekutive Funktion. Er vertritt jedoch den Staatspräsidenten, wenn er außerhalb des Landes ist. Der Premierminister muss nicht aus der parlamentarischen Mehrheit hervorgehen. Die Regierung, die dem Premierminister untersteht, wird vom Staatspräsidenten auf Vorschlag des Premierministers ernannt. Er leitet die Regierung und kann gewisse Autoritäten an die Minister delegieren. Legislative. Das Parlament "Maison des députés", Yamoussoukro Die Elfenbeinküste verfügt über ein Einkammerparlament, die Nationalversammlung "(Assemblée nationale)". Die Anzahl der Parlamentssitze wurde bei der letzten Parlamentswahl von 225 auf 255 erhöht. Das Parlament hat ferner ein Büro, mehrere technische Kommissionen und parlamentarische Gruppen. Die Abgeordneten werden in allgemeinen Wahlen direkt für eine Amtszeit von 5 Jahren gewählt. Abweichend von dieser rechtlichen Regelung wurde unter Präsident Gbagbo nach dem Ausbruch des Bürgerkriegs (2002) und der sich anschließenden faktischen Zweiteilung des Landes die eigentlich 2005 fällige Neuwahl des Parlaments nicht durchgeführt. In der Nationalversammlung wird über Gesetze und Steuern abgestimmt, des Weiteren hat sie verfassungsgemäß die Kontrolle über die Tätigkeiten der Exekutive. Um die Unabhängigkeit der Nationalversammlung zu sichern, sind die Abgeordneten immun vor Strafverfolgung aufgrund der Ausübung ihrer Abgeordnetentätigkeit und auch für Strafverfolgung wegen Vergehen außerhalb ihrer Abgeordnetenfunktion muss es die Zustimmung des Parlaments geben. Gewählter Parlamentsvorsitzender ist seit dem 12. März 2012 der ehemalige Rebellenanführer Guillaume Soro. Bei den Parlamentswahlen am 11. Dezember 2011 errang die RDR von Staatspräsidenten Alassane Ouattara einen deutlichen Sieg. Die Partei seines Amtsvorgängers Laurent Gbagbo, die FPI, boykottierte die Wahl. Die mit der RDR verbündete PDCI büßte gegenüber der Wahl von 2000 einige Sitze ein. Aufgrund des Wahlboykotts der FPI ist die Opposition im Parlament kaum vertreten. Parteienlandschaft. Sitzverteilung in der Nationalversammlung seit den Wahlen von 2000 Kurz vor der Unabhängigkeit der Elfenbeinküste wurden im Jahr 1956/57 erste pluralistische Wahlen organisiert, um die Territorialversammlung und Gemeinderäte zu wählen. Alle Sitze wurden von der Parti Démocratique de Côte d’Ivoire, einer Teilbewegung des Rassemblement Démocratique Africain gewonnen. Kurz nach dieser Wahl entscheiden sich alle politischen Mitbewerber, sich der PDCI-RDA im Rahmen eines "nationalen Konsensus" unterzuordnen. Die PDCI-RDA wird somit zur einzigen Partei des Landes. Dieses Einparteiensystem bleibt praktisch bis 1990 bestehen, auch wenn zeitweise vorsichtige Schritte zur Bildung einer Opposition unternommen wurden oder einzelne Krisen das Land erschütterten (etwa die Sanwi-Affaire 1959–1966, das angebliche Komplott gegen den Präsidenten 1963/64, Guébié-Affaire 1970 oder der gescheiterte Putsch 1973). Dieses System endet mit den Massendemonstrationen im Jahr 1990 und der Rückkehr zum Mehrparteiensystem, wie es eigentlich seit 1960 in der Verfassung der Republik verankert gewesen wäre. Im gleichen Jahr werden zahlreiche neue Parteien gegründet. Die Parteien, die momentan politischen Einfluss haben, sind der sozialistische Front Populaire Ivoirien (FPI) unter Pascal Affi N’Guessan, die rechtsliberale Parti Démocratique de Côte d’Ivoire – Rassemblement démocratique africain (PDCI-RDA) unter Henri Konan Bédié und der liberale Rassemblement des Républicains (RDR) unter Alassane Ouattara. Nennenswert, jedoch mit weniger politischem Gewicht ausgestattet, sind die Union pour la Démocratie et la Paix en Côte d’Ivoire (UDPCI) von Albert Mabri Toikeusse und die sozialistische Parti Ivoirien des Travailleurs (PIT) unter Francis Wodié. Judikative. Die Elfenbeinküste hat aus der Kolonialzeit ein Justizsystem geerbt, das zwei parallele Rechtsprechungen aufwies – einerseits das französische Recht, andererseits das lokale Gewohnheitsrecht. Dies resultierte aus zwei verschiedenen Gesetzgebungen, die wiederum zwischen den verschiedenen Bevölkerungsschichten und deren Status unterschied. Frankreich behielt damals für "normale" Ivorer einen anderen rechtlichen Status bei als für Franzosen und Gleichgestellte. Nach der Unabhängigkeit ging man daran, einen Justizapparat aufzubauen, der sowohl modern als auch an die Notwendigkeiten des Landes angepasst war. Es wurden neue Strukturen aufgebaut und das entsprechende Personal ausgebildet. Obwohl seit 1960 viele Veränderungen geschehen sind, bleiben die französischen Einflüsse im ivorischen Justizsystem stark. Die Justizgewalt wird in zwei Instanzen unter der Kontrolle des obersten Gerichts "(Cour suprême)" ausgeübt. Der Verfassungsrat sowie der Hohe Gerichtshof "(Haute cour de justice)", sind Sondergerichtsbarkeiten. Konsultativ- und Vermittlungsorgane. Der "Conseil économique et social" "(Wirtschafts- und Gesellschaftsrat)" ist ein Konsultativorgan, das in der Verfassung der Elfenbeinküste vorgesehen ist. Er ist dafür eingerichtet, die wichtigsten wirtschaftlichen und gesellschaftlichen Tätigkeiten zu repräsentieren, die Zusammenarbeit verschiedener Wirtschaftszweige und die Wirtschafts- und Sozialpolitik der Regierung zu verbessern. Gesetzesprojekte aus Wirtschafts- und Sozialpolitik werden ihm zur Kommentierung vorgelegt. Der Staatspräsident kann diese Einrichtung zu allen wirtschaftlichen und Sozialfragen konsultieren. Die Mitglieder dieser Institution werden für fünf Jahre ernannt. Das Auswahlkriterium ist, wie sehr die jeweiligen Personen zur Entwicklung des Landes beigetragen haben. Momentan hat der "Conseil économique et social" 125 Mitglieder. Sein Vorsitzender ist seit dem 19. Mai 2011 Marcel Zady Kessy. Der "Médiateur de la République" "(Vermittler der Republik)" ist ebenfalls ein verfassungsmäßig vorgesehenes Organ. Er ist eine unabhängige Verwaltungseinheit, der etwa die Funktion eines Ombudsmanns einnimmt. Der Vorsitzende dieser Organisation wird vom Staatspräsidenten nach Vorschlag des Präsidenten der Nationalversammlung ernannt, seine Amtszeit dauert sechs Jahre und ist nicht verlängerbar. Er kann auch nicht vor Ende seiner Amtszeit abgesetzt werden; er kann nur durch den Verfassungsrat ("Conseil constitutionnel") seines Amtes enthoben werden. Er ist in der Ausübung seines Amtes immun. Er kann nicht gleichzeitig zu dieser Funktion ein anderes politisches Amt oder eine öffentliche Funktion bekleiden, ebenso darf er keine andere berufliche Funktion ausüben. Die Funktion des "Médiateur de la République" wird gegenwärtig von N’Golo Coulibaly bekleidet. Militär. Der ivorische Staat hat seit seiner Existenz nie konsequent am Aufbau eigener Streitkräfte gearbeitet. Er verließ sich anstelle dessen auf die abschreckende Wirkung der französischen Militärpräsenz in der Region. Mit Frankreich existieren Verteidigungs- und Militärhilfeabkommen inklusive Geheimklauseln. Im August 2002 erklärte der damalige Präsident Gbagbo grundsätzlich, dass Westafrika eine militärische Kooperationslogik statt gegenseitige Abschreckung benötige. Aufgrund des Bürgerkriegs blieb es in der Folge aber bei dieser Erklärung. Beim Militär ist momentan für die Regierung die wichtigste Aufgabe, die Milizen abzurüsten und deren Söldner wieder in die Gesellschaft einzubinden, um in der Folge eine reguläre nationale Armee aufzubauen. Die eigens für die Entwaffnung von Zivilisten eingerichtete Nationale Kommission für den Kampf gegen die Verbreitung von Leicht- und Kleinwaffen schätzt die Zahl der im Land im Umlauf befindlichen Waffen auf drei Millionen. Verwaltungsgliederung. Seit dem 28. September 2011 gibt es in der Elfenbeinküste zwölf Distrikte, die in einunddreißig Regionen unterteilt sind. Außerdem gibt es die beiden autonomen Stadtdistrikte Abidjan und Yamoussoukro. Die Elfenbeinküste war zuvor seit 12. Juli 2000 in neunzehn Regionen aufgeteilt. Wirtschaft. Die Elfenbeinküste verfügt über die stärkste Wirtschaft der westafrikanischen Wirtschafts- und Währungsunion, zu deren gesamten BIP sie 40 % beiträgt. Das Pro-Kopf-BIP liegt ebenfalls über dem westafrikanischen Durchschnitt, jedoch unter dem gesamtafrikanischen. Die Wirtschaft hat sich mithin von den Wirren des Bürgerkrieges, der 1,7 Millionen Menschen in die Flucht trieb, die offizielle Verwaltung zusammenbrechen ließ, die Produktion behinderte und die Arbeitslosigkeit in die Höhe schnellen ließ, erholt. Das zeigen nicht zuletzt die Investitionen, die sich 2007 gegenüber 2006 vervierfachten und etwa 520 Millionen Euro betrugen. Die Elfenbeinküste ist auch ein von Armut gekennzeichnetes Land. Als arm gilt in der Elfenbeinküste jemand, der weniger als 162 800 XOF (250 Euro) pro Jahr zum Leben hat. Landesweit fallen 43,2 % der Menschen unter diese Armutsgrenze, in einigen ländlichen Savannengebieten gelten weit mehr als die Hälfte der Menschen als arm. Land- und Forstwirtschaft. Die Landwirtschaft ist nach wie vor der dominierende Wirtschaftszweig der Elfenbeinküste. Sie beschäftigt zwei Drittel der ivorischen Arbeitskräfte und bestreitet die Exporterlöse zu 70 %, auch wenn sie nur 23 % zum BIP beiträgt. Das Land ist weltgrößter Kakaoproduzent und -exporteur, mit einer Ernte von 1,335 Millionen Tonnen 2003/2004. Damit hat es einen Anteil von 40 % der weltweiten Gesamtproduktion. Den Kakao ernten zum Teil Kindersklaven. War der Kakao einst das wichtigste Exportprodukt, so hat es diesen Status mittlerweile an die Erdölprodukte verloren. Zudem ist die Kakaoernte in den vergangenen Jahren stark gesunken. Dies lag einerseits am niedrigen Erzeugerpreis für Kakaobohnen, was viele Pflanzer auf andere Erzeugnisse umsteigen ließ und Reinvestitionen der Gewinne in die Plantagen unattraktiv machte. Daneben erheben der Staat und lokale Rebellen hohe Abgaben auf Agrarerzeugnisse, was den Schmuggel in die Nachbarländer fördert. Die schlechte Sicherheitslage vertrieb die Wanderarbeiter und ließ Lagerkapazitäten verfallen. Ein weiteres wichtiges Exportprodukt ist der Kaffee, dessen Ernte 2003/2004 etwa 250 000 Tonnen betrug, was die Elfenbeinküste zum siebtgrößten Kaffeeproduzenten macht. Angebaut wird vor allem die Sorte "Robusta". Insgesamt leben vom Kaffee- und Kakaoanbau direkt oder indirekt sechs Millionen Menschen. Weitere wichtige Produkte sind Palmöl, Kokosnüsse, Baumwolle (Export von Rohbaumwolle: 105.423 Tonnen im Jahr 2004, vor allem in die Volksrepublik China, nach Indonesien, Thailand und Taiwan), Kautschuk, Kolanüsse (weltgrößter Produzent mit 65.216 Tonnen) und Zuckerrohr. Tropische Früchte wie Ananas, Bananen, Mangos, Papaya, Avocado und Zitrusfrüchte werden nach Europa exportiert. Kaschubäume, die ursprünglich nur im Landesnorden wuchsen, werden jetzt auch südlich davon angebaut; die Ernte an Cashewnüssen betrug 2006 235.000 Tonnen, davon gingen 210 in den Export. Weiterhin nennenswert sind die Produktion von Zitronen, Bergamotten und von Bitterorangen. An Ackerfrüchten werden vor allem Mais (608.032 Tonnen auf 278.679 Hektar), Reis (673.006 Tonnen auf 340.856 Hektar), Yams (4.970.949 Tonnen auf 563.432 Hektar), Maniok (2.047.064 Tonnen auf 269.429 Hektar) und Kochbananen (1.519.716 Tonnen auf 433.513 Hektar) angebaut. Nur etwa 10 000 Hektar landwirtschaftliche Nutzfläche der Elfenbeinküste werden künstlich bewässert. Es wird jedoch geschätzt, dass die Bewässerung von 600 000 Hektar Land ökonomisch sinnvoll wäre. Der Ausbau der Viehzucht ist ein Entwicklungsziel der Regierung, weil der Bedarf der Bevölkerung an tierischen Produkten teils noch durch Importe gedeckt werden muss. Obwohl die Jagd aus Naturschutzgründen bereits im Jahr 1974 offiziell verboten wurde, ist Wild noch ein bedeutender Fleischlieferant. Auch bei Fischprodukten ist die Elfenbeinküste auf Importe angewiesen (204.757 Tonnen im Jahr 2000), trotz ihrer 500 km langen Küste. Aus diesem Grund fördert die Regierung das Anlegen von Fischteichen. Die wichtigste natürliche Ressource der Elfenbeinküste ist Holz, wovon das Land mehr exportiert als das viel größere Brasilien. Die schnell fortschreitende Abholzung wird kurzfristig jedoch, von dem ökologischen Problem abgesehen, zum Versiegen dieser Einnahmequelle und Ressource führen. Im Jahr 2008 waren nur etwa 10 % landwirtschaftlich nutzbar, wobei dieser Wert seit der Unabhängigkeit des Landes konstant leicht gestiegen ist und seit 2000 etwa gleich geblieben ist. 1970 lag dieser Wert bei etwa 5 %. Bergbau und Rohstoffe. Erdöl, das vor der Küste vorkommt, ist seit 2005 das wichtigste Exportprodukt der Elfenbeinküste. Die Erdölreserven werden auf etwa 600 Millionen Barrel geschätzt, 2007 wurden jedoch nur 17,4 Millionen Barrel gefördert. Damit gehört die Elfenbeinküste nicht zu den großen afrikanischen Erdölproduzenten. Ob die relativ niedrige Fördermenge an technischen Problemen liegt oder ob die Regierung die Fördermengen fälscht, um die Einnahmen aus dem Erdölexport am Staatshaushalt vorbeischleusen zu können, ist nicht geklärt. Neben Erdöl wird auch Gas produziert, wobei sich hier die Reserven auf 23.690 Milliarden Kubikmeter belaufen dürften. 2006 wurden 53,8 Millionen MMBtu gefördert. Industrie. Die Industrie trug 2005 nur etwa 23,1 % zum Bruttoinlandsprodukt bei, 2000 waren es noch 24,5 %. Sie wird von kleinen und mittleren Betrieben dominiert; trotz aller Probleme, deren sie sich gegenübersieht, ist sie die am meisten diversifizierte in Westafrika. Sie stellt 40 % des Potentials der WAEMU-Länder. Die kleinen und mittleren Unternehmen waren auch von den Krisenjahren am schwersten betroffen, während die großen internationalen Firmen den Bürgerkrieg in der Regel gut überstanden haben. Ein wichtiger Zweig ist die Raffinierung des Rohöls. Die Elfenbeinküste kann momentan 70.000 Barrel Rohöl pro Tag verarbeiten, wobei neben eigenem Öl auch Öl der Nachbarländer raffiniert wird. Kapazitäten für die Verarbeitung von weiteren 60.000 Barrel sind im Bau. 2007 wurden 1059 kg Gold produziert. Aufgrund des Wiederaufbaubedarfes, aber auch wegen des Baubeginns an einigen Infrastrukturprojekten, kann die Bauindustrie der Elfenbeinküste starke Zuwächse verzeichnen. Ebenso wird erwartet, dass die Lebensmittelindustrie von den steigenden Nahrungsmittelpreisen und der steigenden Inlandsnachfrage profitieren wird. Insgesamt verlassen aber viele Produkte das Land in unverarbeitetem Zustand. Politische Instabilität und Korruption haben inländische wie ausländische Investoren von kapitalintensiven Projekten abgehalten. Der Umfang ausländischer Investitionen an der Elfenbeinküste liegt unter dem Durchschnitt der in Afrika südlich der Sahara getätigten Auslandsinvestitionen. Am 18. Mai 2015 wurde die erste industrielle Schokoladefabrik (10.000 t/Jahr) im Land von Präsident Alassane Ouattara eröffnet. Tourismus. Der Tourismus hat ein hohes Potential an der Elfenbeinküste. Das Land hat 520 km Atlantikküste mit zahlreichen Stränden, zahlreiche Nationalparks mit seltener Flora und Fauna und zahlreiche Ethnien mit vielfältiger Kultur, so dass Touristen genügend Attraktionen geboten werden können. Die ivorische Regierung hat dies erkannt und auch einiges an gesetzlicher Grundlage und materieller Infrastruktur geschaffen. Die Elfenbeinküste blieb trotzdem bis in die 1980er Jahre zunächst primär ein Ziel für Geschäftsreisende, wenngleich sich einige Ausländer dauerhaft in dem Land ansiedelten, um dort zu leben. Die antifranzösischen Ausschreitungen (die sich auch gegen Nicht-Franzosen richteten), die folgende Evakuierung und der Bürgerkrieg haben jedoch den Fremdenverkehr vollständig zum Erliegen gebracht. Finanzsystem. Die Elfenbeinküste ist Mitgliedsstaat der WAEMU. Es hat daher keine eigene Währung, keine eigene Zentralbank und muss die Geldpolitik deshalb mit den anderen WAEMU-Staaten koordinieren. Das Budget der Regierung für 2008 betrug 2129 Milliarden XOF, wovon drei Viertel aus Steuereinnahmen stammen. Der Rest stammt aus anderen ivorischen Quellen, Schuldenaufnahme und Stützungszahlungen aus dem Ausland. Besonders hoch sind die Ausgaben für Abrüstung, soziale Reintegration, für die Organisation einer Wahl, für den Aufbau einer nationalen Armee und für das Wiedererlangen der staatlichen Kontrolle über das gesamte Territorium. Angesichts dessen, dass der informelle Sektor etwa 40 % der Wirtschaftsleistung erbringt, versucht der Staat, seine Steuereinnahmen zu erhöhen und die Eintreibung zu rationalisieren. Zu diesem Zweck laufen Programme, eine einheitliche Mehrwertsteuerrechnung einzuführen und um die Zollabwicklung zu verbessern. Alles in allem ist der Staatshaushalt in etwa ausgeglichen. Das Bankensystem der Elfenbeinküste findet langsam zur Normalität zurück. Nachdem während des Bürgerkrieges alle Banken im Norden der Elfenbeinküste schließen mussten, öffnen die Bankfilialen nach und nach wieder. Dies gilt auch für den Mikrofinanzsektor. Die Banken werden durch etwa 20 % fauler Kredite in ihren Büchern belastet; an vielen dieser faulen Kredite trägt der Staat Schuld, weil er seine Rechnungen nicht bezahlt. Außenwirtschaft. Die Elfenbeinküste ist Mitglied in mehreren regionalen Organisationen, die die wirtschaftliche Integration zum Ziel haben. Die wichtigsten sind die Westafrikanische Wirtschafts- und Währungsunion UEMOA und die Westafrikanische Wirtschaftsgemeinschaft ECOWAS. Die Elfenbeinküste hatte in der Vergangenheit dank der Kakao- und Erdölexporte immer eine positive Handelsbilanz. Im Jahre 2007 exportierte die Elfenbeinküste Waren im Wert von 6,2 Milliarden Euro und importierte Waren im Wert von 4 Milliarden Euro. Wichtigste Exportgüter sind Erdölprodukte und Rohöl, Kakao, Holz, Kaffee, Cashew-Nüsse, Baumwolle, Naturkautschuk, Palmöl, Fisch, Textilien, Zement und Tropenfrüchte. Importiert werden hingegen Rohöl und Erdölprodukte, industrielle Rohstoffe, Lebensmittel, Getränke sowie Investitionsgüter. Wichtigste Zielmärkte für die Exporte der Elfenbeinküste sind die EU (41,1 %) und hier vor allem Frankreich, die anderen Länder der UEMOA (12,6 %), die USA (7,1 %) und asiatische Staaten (4,3 %). Importiert wird vor allem aus der EU (32,7 %), aus Asien (17,4 %), aus den USA (2,9 %) und den UEMOA-Staaten (0,9 %). Seit 2010 steigen die Importe rasch an, während die Kakao- und Ölexporte sanken. 2012 war das erste Jahr mit einem Außenhandelsdefizit. Die Exporte nach Deutschland bestehen fast nur aus Kakao und Erdöl. Der in Deutschland verarbeitete Kakao stammte 2007 zu etwa 60 % aus der Elfenbeinküste. Aus Deutschland importiert werden vor allem Fahrzeuge, Maschinen und Pharmazeutika. Für die deutschen Exporte spielt die Elfenbeinküste als Markt nur eine sehr untergeordnete Rolle, sie belegen in der Außenhandelsstatistik den 114. Platz. Ausländische Investitionen stammen in der Elfenbeinküste vor allem aus Frankreich, Südafrika, Großbritannien und den Nachbarländern. Sie sind jedoch im Jahresvergleich sehr stark schwankend. Die Außenverschuldung betrug 2007 64 % des BIP und 124 % der Exporte eines Jahres. Es zählt somit zu der Gruppe der Hochverschuldeten Entwicklungsländer. Im April 2002 waren bereits umfangreiche Schuldenstreichungen von Seiten der G8 zugesagt. Der Bürgerkrieg hat diesen Prozess jedoch verzögert. 2012 erfolgte ein Schuldenschnitt. Die Elfenbeinküste ist Mitglied der International Cocoa Organization. Korruption. Ein großes Problem des Staates ist der hohe Grad an Korruption. Côte d’Ivoire belegte 2010 mit Platz 146 von 178 einen der untersten Plätze in der Statistik von Transparency International. Exemplarisch dafür steht der Giftmüllskandal aus dem Jahr 2006: Anfang September 2006 wurde bekannt, dass von einem ausländischen Schiff aus auf mehreren Deponien, aber auch in der offenen Kanalisation und in Straßengräben in Abidjan über 500 Tonnen Giftmüll abgeladen wurde. Dieses führte zu über 1500 Erkrankungen und mindestens acht Todesfällen. Etwa 15.000 Bewohner klagen über Vergiftungserscheinungen. Als Reaktion auf diesen Giftmüllskandal erklärte die Übergangsregierung von Ministerpräsident Banny am 6. September ihren Rücktritt, um rund zehn Tage später mit minimalen Änderungen wieder ihr Amt anzutreten. Während Präsident Gbagbo ausländische Mächte für diesen „Anschlag“ auf die Elfenbeinküste verantwortlich macht, sind Regimekritiker und die Opposition sich einig, dass die erst wenige Wochen zuvor gegründete verantwortliche Firma dem Verkehrsminister und Gbagbos Frau Simone gehörten und Schmiergelder in Millionenhöhe geflossen seien. Ob von den 150 Millionen Euro, die das Unternehmen Trafigura an Entschädigungen zahlte, jemals etwas an die Opfer weitergegeben wurde, ist ebenfalls zweifelhaft. Staatshaushalt. Der Staatshaushalt umfasste 2009 Ausgaben von umgerechnet 4,987 Mrd. US-Dollar, dem standen Einnahmen von umgerechnet 4,655 Mrd. US-Dollar gegenüber. Daraus ergibt sich ein Haushaltsdefizit in Höhe von 1,4 % des BIP. Die Staatsverschuldung betrug 2009 14,6 Mrd. US-Dollar oder 63,8 % des BIP. Nach den Unruhen von 2010/2011 wurde die Elfenbeinküste im Februar 2011 zahlungsunfähig. Im Juni 2012 wurden ihr nach einem Abkommen mit den Gläubigern 7,7 Mrd. US-Dollar Schulden erlassen. 2013 betrug die Staatsverschuldung jedoch erneut 11,3 Mrd. US-Dollar oder 45,1 % des BIP und gilt als nicht mehr tragbar. 2013 betrug der Anteil der Staatsausgaben insgesamt 24,6 % des BIP, der Anteil der Staatseinnahmen 21,7 % des BIP. Für Sozialausgaben wurden 1,7 % des BIP aufgewendet. Verkehr. Das Straßennetz der Elfenbeinküste ist im Vergleich westafrikanischer Staaten gut ausgebaut. Im Jahr 2000 hatte es eine Länge von 85.000 Kilometern, davon 75.500 Kilometer unbefestigt, 6500 Kilometer asphaltierte Straßen und 150 Kilometer Autobahn. Per Straße ist das Land mit seinen Nachbarn Ghana, Liberia, Mali und Burkina Faso verbunden. Die Autoflotte der Elfenbeinküste wird auf 600.000 Fahrzeuge geschätzt, davon drei Viertel Gebrauchtwagen aus anderen Ländern. Jedes Jahr gibt es 20.000 Neuzulassungen. Der öffentliche Verkehr wird fast zur Gänze auf der Straße abgewickelt, entweder in Linienbussen oder in Sammeltaxis, die in der Elfenbeinküste "Taxi-Brousse" heißen. Etwa drei Viertel der Straßen befindet sich in "gutem Zustand", wobei die strategisch wichtige Nord-Süd-Verbindung in besonders schlechtem Zustand ist. Im Jahr 2009 wurde nur etwa ein Viertel dessen ausgegeben, was notwendig gewesen wäre, um das Straßennetz zu warten und wieder in Stand zu setzen. Nur etwa ein Drittel der Landbevölkerung hat im Umkreis von zwei Kilometer Zugang zu einer ganzjährig befahrbaren Straße. Es wären etwa 20.000 km neuer Straßen notwendig, um 80 % der Ackerbaugebiete, und damit 50 % der Landbevölkerung, zu erschließen. Neben der Unterfinanzierung trägt auch die Duldung überladener LKWs zu schlechten Straßenzuständen bei. Korrupte Polizisten nehmen an den ivorischen Straßen jährlich zwischen 200 und 290 Millionen US-Dollar an illegalem Wegzoll von Frächtern und Reisenden ein. Dieser außerordentlich hohe Wert schwächt die Wettbewerbsfähigkeit der Elfenbeinküste als Transitland für den Handel seiner Nachbarstaaten. Das Eisenbahnnetz hat eine Länge von 1260 Kilometern. Davon entfallen 1156 Kilometer auf die Abidjan-Niger-Bahn, die das Land mit Ouagadougou, der Hauptstadt von Burkina Faso, verbindet. Diese während der Kolonialzeit erbaute Strecke hat besonders für die Binnenstaaten Burkina Faso, Niger und Mali eine hohe Bedeutung. Seit 1995 wird die Linie vom privaten Konsortium Sitarail betrieben, das seitdem Warentransport und Produktivität ständig steigern konnte und heute der erfolgreichste Bahnbetreiber Westafrikas ist, wenngleich die Indikatoren weit entfernt von jenen eines europäischen Betreibers liegen. Obwohl sich die Gesellschaft nach dem Bürgerkrieg, aufgrund dessen das Frachtvolumen von 800 auf 100 Millionen Tonnen eingebrochen war, erholt hat und nun jährlich knapp eine Million Tonnen befördert, war sie nicht in der Lage, die bei Konzessionsvergabe zugesagten Investitionen zu tätigen. Der Investitionsbedarf, um Anlagen und Fahrzeuge instandzusetzen und zu modernisieren, wird auf 230 Millionen US-Dollar im Zeitraum zwischen 2008 und 2020 geschätzt. Es existieren drei internationale Flughäfen in der Elfenbeinküste, in Abidjan, Yamoussoukro und Bouaké. Daneben gibt es regionale Flughäfen in 14 weiteren Städten und 27 Flugfelder. Die meisten sind jedoch seit Ausbruch des Bürgerkrieges außer Betrieb. Seitdem zu Beginn der 2000er Jahre zahlreiche afrikanische Fluglinien bankrottgingen, hat sich das Angebot an Verbindungen von Abidjan aus stark verschlechtert, der Inlandsluftverkehr kam sogar ganz zum Erliegen. Der Luftverkehr der Elfenbeinküste hat wie jener seiner Nachbarländer ein Sicherheitsproblem: Keiner der Flughäfen und keine der Fluglinien hat die internationalen Sicherheitsaudits bestanden. Einheimische Fluglinien mussten in der Vergangenheit öfters den Flugbetrieb einstellen, wie Air Afrique 2002 und Air Ivoire 2011. Seit 2012 bietet Air Côte d’Ivoire Flüge innerhalb Westafrikas an. In der Elfenbeinküste befinden sich zwei Seehäfen, der Port autonome d’Abidjan und der Port autonome de San-Pédro. Bis zum Jahr 2002 war der Hafen von Abidjan der wichtigste und größte Westafrikas. Er ist nicht nur für die Elfenbeinküste von Bedeutung, sondern auch für die der nördlich angrenzenden Binnenstaaten. 2005 wurden im Hafen von Abidjan 18,7 Millionen Tonnen umgeschlagen, im Hafen von San-Pedro eine Million Tonnen. Durch den Bürgerkrieg ist der Umschlag jedoch eingebrochen. Seit 2007 hat sich die Situation normalisiert, 2008 wurde ein Container-Terminal in Betrieb genommen und 2010 ein Programm gestartet, um 50 Millionen US-Dollar die Anlagen zu modernisieren. Somit schlägt der Hafen von Abidjan die Güter zwar schneller um als seine Mitbewerber in den Nachbarländern, hat aber auch höhere Kosten. Entscheidend für die Elfenbeinküste wird es sein, ob die Entwicklung und der Erhalt der Verkehrs-Infrastruktur im Hinterland gelingt. Telekommunikation. Die Elfenbeinküste hat, gleich vielen afrikanischen Staaten, einen Boom im Telekommunikationssektor erlebt. Im Jahr 2005 wurde ein Rahmen geschaffen, der zu starkem Wettbewerb unter den Anbietern von Mobilfunk-Leistungen führte. Da das gesamte Land kostendeckend mit Mobilfunk versorgt werden kann, gehört die Elfenbeinküste zu den für die Anbieter interessantesten afrikanischen Ländern. Der Zugang zu Mobilfunk stieg in der Folge von 9 % der Ivorer im Jahr 2005 auf 51 % im Jahr 2008. Die Preise sind jedoch im afrikanischen und internationalen Vergleich hoch. Die Festnetztelefonie spielt in der Elfenbeinküste seitdem keine nennenswerte Rolle mehr. Die Elfenbeinküste ist an das internationale Unterseekabel South Atlantic 3 angeschlossen. Da der staatliche Telekom-Betreiber das Monopol über diesen Knoten besitzt, sind die Preise für Internet-Zugang relativ hoch. Energie- und Wasserversorgung. Im Jahr 2005 wurden 5,31 Milliarden kWh elektrische Energie erzeugt, davon etwa 73 % aus Wärmekraftwerken, die mit heimischem Erdgas betrieben werden. 27 % stammen aus Wasserkraft. Die Erzeugung, Übertragung, Verteilung, Abrechnung und der internationale Handel mit elektrischer Energie liegt bei der 1990 gegründeten Compagnie Ivoirienne d’électricité, die die Konzession dazu bis zum Jahr 2020 erhalten hat. Die Elfenbeinküste ist ein Exporteur von elektrischer Energie und war dies auch während der Krise; Abnehmer sind vor allem die Nachbarländer Ghana, Mali, Burkina Faso und Togo. Im Jahre 2005 hatte trotz allem weniger als die Hälfte der Bevölkerung Zugang zu Elektrizität, auf dem Land war es gar nur ein Viertel. Während des Bürgerkrieges wurden die Wartung und der Ausbau der Anlagen vernachlässigt, was sich in zahlreichen Stromausfällen äußert, speziell nach dem Ende des Krieges, als der Bedarf anstieg. Der Energiesektor der Elfenbeinküste produziert jährlich ein Defizit von 200 bis 300 Millionen US-Dollar, da er in seinem Netz hohe Verluste hat und die gestiegenen Brennstoffpreise nicht an die Verbraucher weitergeben kann. Für die Periode von 2006 bis 2015 wurde ein Finanzierungsbedarf von knapp 1 Milliarde US-Dollar ermittelt, um das System zu erhalten, neue Kapazitäten zu schaffen und 73 % der Bevölkerung mit elektrischer Energie zu versorgen. Mehr als die Hälfte der armen Haushalte hat keinen Zugang zu sauberem Wasser, wobei dieser Prozentsatz im ländlichen Norden viel höher ist. Die Wasserversorgung wird seit 1959 von der privaten SODECI betrieben, die die Erweiterungen des Wassernetzes selbst finanziert hat und trotz aller Krisen einen stabilen Betrieb sichern konnte. Soweit sie ist aufgrund eines zu niedrigen Wasserpreises nicht in der Lage, ihre Kosten zu decken. Das Abwassersystem ist indes weit weniger entwickelt: etwa ein Drittel der Bevölkerung hatte 2008 nicht einmal Zugang zu einer Latrine. Holzschnitzerei. Bekannt sind die traditionellen Holzmasken der im Westen des Landes siedelnden Yakuba (Dan), die ein idealisiertes menschliches Gesicht zeigen und im Schlammbad geschwärzt werden. Die Yakuba kennen eine große Zahl von Maskengestalten, die Buschgeister repräsentieren und verschiedene soziale, politische und religiöse Aufgaben erfüllen. Literatur. Die Elfenbeinküste hat, wie viele andere afrikanische Kulturräume auch, eine dichterische Tradition, die ausschließlich mündlich weitergegeben wurde. Schriftliteratur hingegen gibt es erst seit dem 20. Jahrhundert in französischer Sprache. Die Elfenbeinküste hat eine für afrikanische Verhältnisse gut etablierte Verlagslandschaft und zahlreiche Autoren verschiedenster Genres mit unterschiedlichem Bekanntheitsgrad. Besonders lebhaft ist das Theater, wohl weil es im traditionellen Drama verwurzelt ist und auch wegen der hohen Analphabetenrate. Die bekanntesten Dramatiker sind François-Joseph Amon d’Aby, Germain Coffi Gadeau und Bernard Binlin Dadié, ein Journalist, Erzähler, Dramaturg, Romancier und Dichter, der die ivorische Literatur der 1930er Jahre dominierte. Wichtige Romanciers sind Aké Loba ("Ein schwarzer Student in Paris", 1960) und Ahmadou Kourouma "(Der schwarze Fürst)", der den Prix du Livre Inter im Jahre 1998 für sein Werk "Die Nächte des großen Jägers" erhielt, der ein Klassiker der afrikanischen Literatur ist. Zur neueren Generation ivorischer Autoren zählen die in Paris geborene und heute in Johannesburg lebende Véronique Tadjo (* 1955), die Lyrikerin und Romanautorin Tanella Boni (* 1954) und die beiden ungeheuer produktiven Autoren Isaie Biton Koulibaly (* 1949) und Camara Nangala (* 1955). Musik. Die verschiedenen Ethnien der Elfenbeinküste haben teilweise unterschiedliche musikalische Traditionen, so dass die traditionelle Musik des Landes recht mannigfaltig ist. In vielen Musikstilen gibt es polyphonen Gesang oder zweistimmigen Call and Response, häufig zusammen mit dem polyrhythmischen Einsatz von Rasseln, Glocken, einfachen Trommeln oder Talking Drums. Bei den Senufo wird der Gesang zumeist von einem Balafon begleitet, bei den Dan eher von schnarrenden Trommeln. Zu den sehr alten Instrumenten gehören Flöten, hölzerne Eintonhörner, Schlitztrommeln, Xylofone, dreieckige Rahmenzithern und Musikbögen. Bereits Ende des 19. Jahrhunderts wurden Eintonhörner durch westliche Blasinstrumente ersetzt. Aus dem britischen Militärmusikerbe, das im Nachbarland Ghana gepflegt wurde, der Zeremonialmusik lokaler Clanchefs und mit aus Frankreich eingeführten Instrumenten entwickelte sich die lebhafte Musik großer Repräsentationskapellen, wie die "Sankro Brass Band," die "Asiakwa Brass Band" oder "Les Fanfares de Sankadiokro." Als Vater der heutigen ivorischen Popmusik gilt Ernesto Djédjé, der Rhythmen der Bété populär machte; seinen Musikstil nannte er Ziglibithy. Er ist für seinen Hit "Gnoantre-Ziboté" (1977) auch außerhalb des Landes bekannt geworden. Nach ihm kamen Luckson Padaud mit dem Laba-laba-Stil, und Gnaore Djimi mit Polihet. In den 1990er Jahren entstand der Zoblazo, indem Meiway traditionelle Rhythmen aus der südlichen Elfenbeinküste mit elektronischen Instrumenten und Unterhaltungslyrik versetzte. Weitere sehr junge Stilrichtungen sind Zouglou "(Magic System)" und Coupé Decalé. Es gibt keine nationale Musikkultur, die Elfenbeinküste ist aber Gastland für viele Musiker der Nachbarländer, die in Abidjan die besseren Studiomöglichkeiten finden. Die populärsten ausländischen Musikstile, die in die Elfenbeinküste kamen, sind Reggae und Hip-Hop. Die beiden wichtigsten Reggae-Künstler des Landes sind Alpha Blondy, dessen Afro-Reggae seit seinem Auftreten in der Fernsehshow "First chance" (1983) in ganz Westafrika populär wurde, und Tiken Jah Fakoly, der wegen seiner politischen Texte ins Exil gehen musste. Bedeutende ivorische Hip-Hop-Musiker sind All Mighty, Rudy Rudiction, M. C. Claver und Angelo. Architektur. In der Elfenbeinküste sind zahlreiche Bauwerke aus kolonialem Erbe erhalten. Dazu zählen zunächst der Palais du Gouverneur in Grand-Bassam, der in Frankreich vorgefertigt und 1893 in der Elfenbeinküste aufgebaut und erweitert wurde. In Brand-Bassam stehen viele weitere pittoreske Gebäude in kolonialem Stil, wie das "maison Varlet" oder das "maison Ganamet", die von reichen Händlern gebaut wurden, die einheimische Baumaterialien verwendeten. Im Norden des Landes sind einige Moscheen im sudanesischen Stil erhalten geblieben, der während der Herrschaft des Malireiches in dieser Region eingeführt wurde. Die bedeutendsten dieser Bauwerke sind die Moschee von Kaouara (Département Ouangolodougou), die Moschee von Tengréla, die Moschee von Kouto, die Moschee von Nambira (Unterpräfektur M’Bengué), und speziell die beiden Moscheen von Kong. Moderne Religiöse Bauwerke sind die Cathédrale Saint-Paul in Abidjan und die Notre-Dame-de-la-Paix de Yamoussoukro in Yamoussoukro. Kunst. Die Völker der Elfenbeinküste haben eine lange Tradition, Gebrauchsutensilien, Statuen oder Masken aus verschiedenen Materialien künstlerisch herzustellen. Aus Holz, Bronze, Raphia, Rattan oder auch Bambus werden Körbe, Skulpturen, Möbel, Masken oder Statuen hergestellt. Die Masken der Dan, Baoulé, Gouro, Guere oder Bété sind die bekanntesten. Die Baoulé verstehen sich sehr gut auf die Weberei und die Sénoufo sind, unter anderem, bekannt für ihre Malereien auf Stoff. Kleine Figuren aus Kupfer, die früher zum Wiegen von Gold benutzt wurden, sind heute Verzierung, besonders bei den Akan. Die Katiola wiederum sind berühmt für ihre Töpfereierzeugnisse, die von den Frauen in Handarbeit hergestellt werden. Viele Kunstartikel kommen heute in den touristisch geprägten Städten an der Küste (also Grand-Bassam oder Assinie) zum Verkauf. Während die traditionelle Volkskunst eher anonym ist, stammen auch einige bekannte Künstler aus der Elfenbeinküste, etwa die Maler Gilbert G. Groud oder Michel Kodjo, die häufig beachtete Werke hervorbringen, oder der Karikaturist Zohoré Lassane, der das Humor- und Satireblatt "Gbich!" gegründet hat. Küche. Die Küche der Elfenbeinküste ist aufgrund der vielfältigen ethnischen Zusammensetzung des Landes ebenfalls sehr facettenreich, hat aber viele Ähnlichkeiten mit der Küche der anderen westafrikanischen Staaten. Als Grundnahrungsmittel finden Getreide und Wurzeln Verwendung, vor allem Reis, Mais, Hirse, Grieß, Maniok, Yams, Taro, Süßkartoffeln und auch Kochbananen. Wichtigster Fleischlieferant ist das Geflügel, seltener Rind oder Schwein, an der Küste auch Fisch und Meeresfrüchte. Als Gemüse werden Zwiebeln, Tomaten, Auberginen, Bohnen, Avocados, Karotten, Okra und Spinat bevorzugt. Das tropische Klima bietet zahlreiche Früchte wie Bananen, Papaya, Ananas, Granatapfel, Kokosnuss, Mangos, Apfelsinen, Mandarinen, Melonen, Brotfrüchte, Guaven, Zitronen, Orangen und Grapefruits. Das Essen ist in der Regel scharf bis sehr scharf gewürzt und wird mit den Fingern gegessen. Spezialitäten sind z. B. Attiéké, eine Art Couscous aus Maniok, oder Alloco, frittierte Kochbananenchips. In der Elfenbeinküste sind, wie in vielen anderen westafrikanischen Staaten auch, "Maquis" sehr verbreitet, wo einfaches Essen in der Regel unter freiem Himmel serviert wird. Medien. Das wichtigste Medium in der Elfenbeinküste ist das Radio. Die staatliche Radiodiffusion-Télévision ivoirienne betreibt zwei Stationen namens La Chaine Nationale und Frequence 2. Daneben gibt es speziell in den Städten zahlreiche Privatsender (etwa Radio Nostalgie in Abidjan) und die ländlichen Gegenden werden von nicht-kommerziellen Sendern mit wenig Leistung abgedeckt, die teils auch von der römisch-katholischen Kirche betrieben werden. Die ONUCI betreiben den Sender Onuci FM. Neben den einheimischen Sendern werden ausländische Stationen wie Radio Africa No. 1, Radio France Internationale oder BBC Afrique empfangen. Radiodiffusion-Télévision ivoirienne betreibt auch zwei Fernsehsender, nämlich La Première und TV2. Privatfernsehen gibt es in der Elfenbeinküste nicht. Printmedien haben eine sehr geringe Verbreitung. Die wichtigsten Zeitungen sind die staatliche "Fraternité Matin", die privaten "Soir Info", "Le Nouveau Reveil", "L’Inter", das Oppositionsblatt "Le Patriote", "Notre Voie" der Regierungspartei und "Nord-Sud". Erstere hat eine Auflage von 30.000, die Letzteren kommen über 10.000 nicht hinaus. Die staatliche Nachrichtenagentur heißt Agence Ivoirienne de Presse. Sport. Der wichtigste und meist betriebene Sport in der Republik Côte d’Ivoire ist der Fußball. Die ivorische Fußballnationalmannschaft ist derzeit eine der zehn erfolgreichsten Nationalmannschaften Afrikas. Die größten Erfolge bei internationalen Turnieren waren bisher der Gewinn des Afrika-Cups 1992 und 2015, zwei zweite Plätze 2006 und 2012, ein vierter Platz beim Konföderationen-Pokal 1992, dritte Plätze bei den Afrika-Cups 1965, 1968, 1986 und 1994 und ein vierter Platz 1970. Am 8. Oktober 2005 qualifizierte sich die Mannschaft, neben den Mannschaften Tunesiens, Togos, Ghanas und Angolas, für die Fußball-Weltmeisterschaft 2006, ein bedeutender Meilenstein in der ivorischen Fußballgeschichte. Dort errang die Mannschaft einen 3:2-Sieg gegen die Auswahl von Serbien und Montenegro. Bei den WM-Qualifikationen 2010 und 2014 gelang der Elfenbeinküste als Tabellenerster die Teilnahmen an den Endrunden in Südafrika und in Brasilien. Ennio Morricone. Ennio Morricone (* 10. November 1928 in Trastevere, Rom) ist ein italienischer Komponist und Dirigent. Er hat auch unter den Pseudonymen Dan Savio und Leo Nichols gearbeitet und komponierte die Filmmusik von über 500 Filmen. Sein Name wird vornehmlich mit dem Filmgenre des Italo-Western in Verbindung gebracht, obwohl er „nur“ für etwa 30 solcher Filme die Filmmusik geschrieben hat. Besondere Bekanntheit erlangten seine Filmmusiken zum Italowestern-Klassiker "Zwei glorreiche Halunken" (Original: "Il buono, il brutto, il cattivo"), zum Western-Epos "Spiel mir das Lied vom Tod", zu Roland Joffés Drama "Mission" und für Giuseppe Tornatores Film "Cinema Paradiso". 2007 erhielt Morricone den Oscar für sein Lebenswerk. Leben. Morricone studierte im Konservatorium von Santa Cecilia Trompete und Chormusik und erhielt 1946 sein Konzertdiplom als Trompeter. Ein Jahr später folgte ein erstes Engagement als Theaterkomponist. 1953 begann er mit der Gestaltung des Abendprogramms eines italienischen Rundfunksenders. Für seine Ausbildung als Komponist am Konservatorium, die er 1954 mit einem Diplom abschloss, zeichnete Goffredo Petrassi verantwortlich. 1956 heiratete er Maria Travia. Er etablierte sich ab Mitte der 50er Jahre mit Kammermusik- und Orchesterwerken in der musikalischen Avantgarde seines Landes. 1958 unterschrieb Morricone einen Arbeitsvertrag als Musikassistent bei der staatlichen Rundfunkanstalt Radiotelevisione Italiana, wo er als Arrangeur tätig war. Auch für zahlreiche Schallplattenaufnahmen im Genre Pop (beispielsweise für Gino Paoli) schrieb er Arrangements und leitete Band und Orchester. Morricone komponierte 1961 seine erste Filmmusik für Luciano Salces "Il Federale", doch ließ der internationale Erfolg noch einige Jahre auf sich warten. 1964 begann er seine erfolgreiche Zusammenarbeit mit Sergio Leone (die beiden gingen zusammen in dieselbe Schulklasse) und Bernardo Bertolucci. In dieser Zeit schrieb er unter anderem die Musik für Leones Filme "Für eine Handvoll Dollar", "Zwei glorreiche Halunken" und "Spiel mir das Lied vom Tod". Morricones Kompositionen unterschieden sich stark von den traditionellen symphonischen Western-Soundtracks aus Hollywood und wirkten durch ihre ungewöhnlichen Soundelemente (Maultrommeln, Pfiffe, Schreie, Kojotengeheul, Eulenrufe, Glocken, Spieluhren, Peitschenknallen, Schläge auf Amboss etc.) stilbildend und innovativ. Mit einigen seiner Kompositionen konnte der Komponist sogar Hitparadenerfolge verbuchen. Im Genre des Italo-Westerns orientierten sich zahlreiche Komponisten an dem von Morricone entwickelten Stil. Seit Mitte der 1990er Jahre komponierte Morricone in jedem Jahr die Filmmusik für etwa 15 Filme. Außerdem spielte er von 1964 bis in die siebziger Jahre im von Franco Evangelisti initiierten Improvisationsensemble Gruppo di Improvvisazione Nuova Consonanza. Zusammen mit anderen Komponisten gründete Morricone 1984 in Rom das I.R.TE.M, eine Forschungsanstalt für musikalisches Theater. In mehr als vierzig Jahren künstlerischen Schaffens schrieb Morricone über 500 Filmmusiken und arbeitete dabei mit namhaften italienischen und internationalen Regisseuren zusammen. Er dirigierte eine große Anzahl von Orchestern, wobei er für zahlreiche Konzerte sowie Filmmusikaufnahmen mit dem Roma Sinfonietta Orchestra zusammenarbeitete. Mit diesem Ensemble gab Morricone am 2. Februar 2007 auch ein Ehrenkonzert zum Amtsantritt des Generalsekretärs der Vereinten Nationen, Ban Ki-moon. Sein Sohn Andrea Morricone ist ebenfalls Komponist. Beide komponierten für "Cinema Paradiso". Auszeichnungen. Darüber hinaus wurde er mit dem Verdienstorden der Italienischen Republik ausgezeichnet und in die Ehrenlegion aufgenommen. Emil Nolde. Emil Nolde (* 7. August 1867 als Hans Emil Hansen in Nolde bei Buhrkall, Provinz Schleswig-Holstein; † 13. April 1956 in Seebüll) war einer der führenden Maler des Expressionismus. Er ist einer der großen Aquarellisten in der Kunst des 20. Jahrhunderts. Nolde ist bekannt für seine ausdrucksstarke Farbwahl. Jugendjahre und Ausbildung. Emil Nolde wurde einige Kilometer östlich von Tondern im Ortsteil Nolde von Buhrkall (heute Burkal) als viertes von fünf Kindern geboren. Sein Geburtsort Buhrkall im nördlichen Teil des Herzogtums Schleswig gehörte von 1867 bis 1920 zu Preußen und damit zum Deutschen Reich. Nach einer Volksabstimmung wurde es dänisch. Nolde erhielt die dänische Staatsbürgerschaft, die er bis an sein Lebensende behielt. Nolde verstand sich aber nicht als Däne, sondern zeitlebens als Angehöriger der deutschsprachigen Minderheit in Nordschleswig. Sein Vater war Nordfriese und stammte aus der Gegend um Niebüll; er sprach nordfriesisch, seine Mutter sprach südjütisch. Emil Nolde besuchte deutsche Schulen und sah seine Herkunft als eine „Mischung aus Schleswigerin und Friesenblut“. Seine Jugendjahre auf dem elterlichen Hof in Nolde waren geprägt von harter Arbeit und einem relativ kargen Leben. Er war der jüngste von drei Brüdern und hatte eine jüngere Schwester. Von 1884 bis 1888 ließ er sich als Schnitzer und Zeichner an der Kunstgewerbeschule in Flensburg (heute Museumsberg Flensburg) ausbilden. Er war dort an der Restaurierung des Brüggemann-Altars beteiligt. Danach arbeitete er für verschiedene Möbelfabriken, unter anderem in München, Karlsruhe und Berlin. 1892 trat er am Gewerbemuseum in St. Gallen eine Stellung als Lehrer für gewerbliches und ornamentales Entwurfszeichnen an, die er bis 1897/1898 innehatte. In dieser Zeit lernte er Hans Fehr kennen, mit dem er lange verbunden blieb. Er arbeitete zunächst an einer Reihe von Landschaftsaquarellen und Zeichnungen der Bergbauern. Nolde wurde schließlich durch kleine farbige Zeichnungen der Schweizer Berge bekannt. Er ließ Postkarten dieser Arbeiten drucken, die ihm dann schließlich ein Leben als freier Künstler erlaubten. Er ging nach München, wurde allerdings von der Akademie abgelehnt und begann zunächst ein Studium an der privaten Malschule Adolf Hölzels in Dachau, bevor er im Herbst 1899 mit der Malerin Emmi Walther über Amsterdam nach Paris reiste und sich an der Académie Julian anmeldete. 1900 mietete er ein Atelier in Kopenhagen. 1902 heiratete er dort die 23 Jahre alte dänische Schauspielerin Ada Vilstrup (1879–1946), „das junge, schöne Mädchen“. Mit ihr zog er 1903 auf die Insel Alsen. Dort lebte er ab 1903 in einem Fischerhaus am Waldesrand. Als Atelier diente ein Bretterverschlag am Strand. Ab 1905 lebte er im Winter meist in Berlin zunächst am Tauentzien, dann in der Bayernallee in Berlin-Westend. Malerei. Seit 1902 nannte sich Nolde nach seinem nordschleswigschen Heimatdorf. Um 1903 malte er noch „lyrische“ Landschaften. Er wurde Mitglied der Schleswig-Holsteinischen Kunstgenossenschaft und nahm zwischen 1903 und 1912 an fünf Ausstellungen teil. 1904 war er auf der Jahresausstellung im Flensburger Museum mit den Gemälden „In der Räuberstube“ und „Sommernacht“ vertreten. Von 1906 bis 1907 war er Mitglied der Künstlergruppe "Brücke" und begegnete in Berlin Edvard Munch. In der kurzen Zeit, in der er Brücke-Mitglied war, brachte er die Radierung in die Gemeinschaft und vermittelte Kontakte zu dem Hamburger Sammler und Kunstmäzen Gustav Schiefler. 1909 wurde Nolde Mitglied der Berliner Secession. 1910 kam es zum Bruch innerhalb der Berliner Secession, als viele Werke meist expressionistischer Künstler von der Jury zurückgewiesen worden waren, unter ihnen der Berliner Maler Georg Tappert. Auf Initiative von Georg Tappert, gefolgt von Max Pechstein und weiteren Künstlern, so auch Nolde, bildete sich die Neue Secession. Sie eröffnete am 15. Mai ihre erste Ausstellung unter dem Titel „Zurückgewiesene der Secession Berlin 1910“. Erste religiöse Bilder entstanden: "Abendmahl", "Pfingsten" und "Verspottung". Zwischen 1910 und 1912 hatte er erste Erfolge mit Ausstellungen in Hamburg, Essen und Hagen. Bilder vom Nachtleben in Berlin, wo er gemeinsam mit seiner Frau Ada regelmäßig die Wintermonate verbrachte, Theaterzeichnungen, Maskenstillleben, 20 „Herbstmeere“, das neunteilige „Das Leben Christi“ entstanden. Von Herbst 1913 bis Ende August 1914 unternahm er als Mitglied der Medizinisch-demographischen Deutsch-Neuguinea-Expedition des Reichskolonialamtes eine Reise in die Südsee, auf der Rückreise begann der Erste Weltkrieg. Nolde zog 1916 in das kleine Bauernhaus "Utenwarf" () an der Westküste nahe Tondern und der Vidå (dt. Wiedau). Die heftigen Auseinandersetzungen um die deutsch-dänische Grenzziehung nach dem Ersten Weltkrieg waren ihm zuwider, und obwohl er sich als Deutscher fühlte, nahm er komplikationslos die dänische Staatsbürgerschaft an, als sein Geburtsort nach der Volksabstimmung in Schleswig 1920 an Dänemark fiel. Seebüll. Erst als das Land um Utenwarf zunehmend erschlossen und entwässert wurde, zog er mit seiner Frau auf die deutsche Seite der Grenze, da ihn dort die Landschaft an seine Heimat bei "Nolde" erinnerte. Das Ehepaar erwarb 1926 eine leerstehende Warft, die sie Seebüll nannten und auf der bis 1930 das gleichnamige Wohn- und Atelierhaus des Malers erbaut wurde, gelegen nahe Neukirchen im Amt Wiedingharde des damaligen Kreises Südtondern. Sie wohnten zunächst in dem benachbarten Bauernhaus „Seebüllhof“, das sie gemeinsam mit der Warft und den umliegenden Weideflächen erworben hatten. Der Umzug in das neu erbaute Haus „Seebüll“ erfolgte im Jahr 1930. Das Wohngebäude ist ein zweigeschossiger Kubus mit Flachdach, an den eingeschossige Anbauten über dreieckigem Grundriss angefügt sind. 1937 wurde dem Wohnhaus ein Atelierhaus mit Bildersaal angefügt. Der Bau ist nach Entwürfen Emil Noldes aus Backstein errichtet worden. Die Farbigkeit im Innern des Wohnhauses korrespondiert mit den kräftigen Farben der Gartenpflanzen. Neben dem Haus legten Ada und Emil Nolde einen Garten an, dessen Wege in Form der Initialen E und A verlaufen. Zum Garten gehören zwei Gebäude: ein 1935/36 errichtetes, reetgedecktes Gartenhaus, das sogenannte „Seebüllchen“, sowie die Begräbnisstätte von Ada und Emil Nolde. Diese befindet sich in einem ehemaligen Erdschutzbunker, der 1946, als Ada starb, in eine Gruft umgewandelt wurde. An der Stirnwand schuf Nolde das Mosaik „Madonna mit Kind“. Der Garten Noldes ist ein individuelles Gartenkunstwerk, das die zeitgenössische Reformbewegung aufnimmt, die sich gegen industrielle und genormte Kunstformen richtet. So entstand in der weiten Marschlandschaft in Bepflanzung und Ausstattung ein recht geschlossener, heimatbezogener Bauerngarten, auch wenn dieser keine für diese Gärten typische auf das Haus bezogene Mittelachse aufweist und Haus und Garten getrennte Einheiten bilden. Zu seinem 60. Geburtstag wurde ihm 1927 eine Jubiläumsausstellung in Dresden gewidmet. Nationalsozialistisches Engagement. Nolde war früh der Überzeugung, die „germanische Kunst“ sei allen anderen weit überlegen. Er wurde 1934 Mitglied einer der verschiedenen nationalsozialistischen Parteien in Nordschleswig, der Nationalsozialistischen Arbeitsgemeinschaft Nordschleswig (NSAN). Die konkurrierenden nationalsozialistischen Parteien wurden 1935 aufgrund von Bemühungen des Gauleiters Hinrich Lohse in Schleswig-Holstein zur NSDAP-Nordschleswig (NSDAP-N) zusammengefasst. Zu Beginn der Zeit des Nationalsozialismus schätzten Teile der Nazi-Führung seine Kunst und seine kunstpolitische Einstellung. 1933 veranstaltete der NS-Studentenbund eine Ausstellung mit seinen Werken. Auch Joseph Goebbels gehörte neben Albert Speer zu den Förderern von Nolde. Verfemung. Trotzdem wurde Nolde, ohne dass er das ernstgenommen hätte, von einem Teil der NS-Führung verfolgt – dazu gehörten Alfred Rosenberg und Adolf Hitler selbst. Nolde war daher sehr überrascht, dass seine Werke von den Nationalsozialisten als "Entartete Kunst" diffamiert wurden. Noldes Gemälde "Leben Christi" bildete den Mittelpunkt der nationalsozialistischen Propagandaausstellung „Entartete Kunst“ im Jahr 1937. Noch am 2. Juli 1938 machte Nolde in einem Schreiben an Joseph Goebbels geltend, dass er sich "als fast einzigster" (sic) "deutscher Künstler im offenen Kampf gegen die Überfremdung der deutschen Kunst" sähe, und wies darauf hin, dass er sofort nach der Gründung der NSDAP-Nordschleswig deren Mitglied geworden sei. (Näheres dazu im Unterkapitel "Expressionismusstreit" des Artikels über die NS-Ausstellung in München). Die Verfolgung Noldes ging aber weiter. Einige Zeit später wurden über tausend Bilder Noldes beschlagnahmt, zum Teil verkauft und zum Teil zerstört. 1941 wurde er wegen „mangelnder Zuverlässigkeit“ aus der Reichskammer der bildenden Künste ausgeschlossen, wodurch ihm die professionelle Arbeit als Künstler untersagt blieb; ausstellen konnte er jedoch bereits zuvor nicht mehr. Ungemalte Bilder. Bereits 1938 hatte er mit der Serie kleinformatiger Aquarelle begonnen, die er Ungemalte Bilder nannte, die auf über 1300 Blätter anwuchs und erst nach dem Tod des Künstlers bekannt wurde. Die „Ungemalten Bilder“ entstanden nicht mehr vor dem Motiv in der Landschaft, sondern im Atelier aus der Phantasie. Dank ihrer geringen Größe konnte er sie gut verstecken. Nach 1945 übertrug Nolde einige dieser Blätter in Gemälde. Er selbst meinte, wenn „ich sie alle malen sollte (in Öl), müsste meine Lebenszeit mehr als verdoppelt werden.“ Er notierte dies während der Arbeit an den „Ungemalten Bildern“ neben vielen anderen Reflexionen über seine Situation und über die Kunst allgemein in einer Sammlung von Notizzetteln, die er „Worte am Rande“ betitelte. Die Figur des Malers Max Ludwig Nansen im Roman "Deutschstunde" von Siegfried Lenz ist Nolde in dieser Epoche nachempfunden. Eine Überwachung Noldes, wie im Roman beschrieben, ist jedoch nicht belegt. 1944 wurde Noldes Wohnung in Berlin durch Bomben zerstört. Die späten Jahre. Nach 1945 erhielt Nolde zahlreiche Auszeichnungen und Ehrungen. Im Jahr 1946 starb seine Frau; zwei Jahre später heiratete er Jolanthe Erdmann (* 9. Oktober 1921 in Berlin; † 13. Juni 2010 in Heidelberg), Tochter des Komponisten und Pianisten Eduard Erdmann. Bis 1951 malte er noch über 100 Gemälde und bis 1956 viele Aquarelle. Emil Nolde war Teilnehmer der documenta 1 (1955), seine Werke wurden dann auch posthum noch auf der documenta II (1959), und auch auf der documenta III im Jahr 1964 in Kassel gezeigt. Emil Nolde starb am 13. April 1956 in Seebüll, wo er – neben seiner 1946 verstorbenen ersten Frau Ada – im von beiden geliebten Garten seine letzte Ruhestätte fand. Emil Nolde war Vorstandsmitglied im Deutschen Künstlerbund. Nachlass. Haus Seebüll, das heutige Nolde-Museum Anwesen und künstlerischer Nachlass wurden Ausgangsvermögen der "Stiftung Seebüll Ada und Emil Nolde," die im ehemaligen Wohn- und Atelierhaus des Malers das Nolde-Museum errichtete. Die Stiftung präsentiert dort in jährlich wechselnden Ausstellungen rund 160 Werke von Nolde. Im ehemaligen Atelier des Malers hat sein bedeutendstes religiöses Werk – das neunteilige Altarwerk "Das Leben Christi" von 1911/12 – seinen festen Platz gefunden. Zum 50. Todesjahr Noldes war die Ausstellung 2006 dem Alterswerk gewidmet. Die Ausstellungen hier und im daneben errichteten Dokumentations- und Veranstaltungsgebäude ziehen jedes Jahr rund 80.000 Besucher an. Von 2007 bis März 2014 gab es eine Dependance der Stiftung in der Jägerstraße 54/55 am Gendarmenmarkt in Berlin. Dort wurden im Rahmen von wechselnden Ausstellungen neben Werken von Nolde auch Exponate anderer Künstler präsentiert. Das Werk Noldes umfasst neben Gemälden auch Lithografien und klein- bis großformatige Aquarelle. Seine Motive sind sehr vielfältig, er malte unter anderem Landschaften, religiöse Motive oder das Berliner Nachtleben. Bekannt wurde er auch durch die Aquarelle von seiner Südsee-Reise als Mitglied der medizinischen „Deutsch-Neuguinea-Expedition“, die ihn durch Moskau, Sibirien, Korea, Japan und China führte. In den Blumen-Aquarellen konnte Nolde seine Vorstellung von der Musikalität und der absoluten Wirkung der Farben realisieren, ohne die Bindung an die Natur zu verlieren. Er selbst sagte zur Bedeutung von Farben für sein Werk: „Ich liebe die Musik der Farben … Die Farben sind meine Noten, mit denen ich zu- und gegeneinander Klänge und Akkorde bilde.“ In der Literatur. Das Leben Emil Noldes in der Zeit des „Malverbots“ ab 1941 spiegelt sich in dem Roman und Film "Deutschstunde" von Siegfried Lenz wider. In dem Buch "Nolde und ich. Ein Südseetraum" von Hans Christoph Buch wird von Noldes Reise in die Südsee erzählt. Bilder. a> zur Verfügung gestellt und im Kabinettssaal ausgestellt. Der Hamburger Richter und Kunstsammler Gustav Schiefler erstellte den ersten zweibändigen Katalog des Graphischen Werkes von Nolde. Ausstellungen (Auswahl). Eine Liste aktueller Ausstellungen findet sich auf der Website der Nolde Stiftung Seebüll. Eiffelturm. Der Eiffelturm (,) ist ein 324 Meter hoher Eisenfachwerkturm in Paris. Er steht im 7. Arrondissement am nordwestlichen Ende des Champ de Mars (Marsfeld), nahe dem Ufer der Seine. Das von 1887 bis 1889 errichtete Bauwerk wurde als monumentales Eingangsportal und Aussichtsturm für die Weltausstellung zur Erinnerung an den 100. Jahrestag der Französischen Revolution errichtet. Der nach dem Erbauer Gustave Eiffel benannte und zum Errichtungszeitpunkt noch 312 Meter hohe Turm war von seiner Erbauung bis zur Fertigstellung des Chrysler Building 1930 in New York das höchste Bauwerk der Welt. Mit der Ausstrahlung des ersten öffentlichen Radioprogramms 1921 in Europa und des ersten französischen Fernsehprogramms 1935 trug das Bauwerk als Sendeturm zur Geschichte des Hörfunks und des Fernsehens bei. Der Fernsehturm ist die wichtigste Sendeanlage des Großraums Paris und beherbergt als Turmrestaurant das mit einem Michelin-Stern ausgezeichnete Restaurant "Le Jules Verne". Als höchstes Bauwerk von Paris prägt er das Stadtbild bis heute und zählt mit rund sieben Millionen zahlenden Besuchern pro Jahr zu den meistbesuchten Wahrzeichen der Welt. Der Turm ist eine der bekanntesten Ikonen der Architektur und Ingenieurskunst. Der Eiffelturm ist das Vorbild vieler Nachahmerbauten und wird in Kunst und Kultur im Zusammenhang mit Paris und Frankreich vielfach aufgegriffen. Er gilt als nationales Symbol der Franzosen und avancierte zu einer weltweiten Ikone der Moderne. Seit 1964 ist der Eiffelturm als "monument historique" denkmalgeschützt, und 1986 nahm die American Society of Civil Engineers das Bauwerk in die Liste der historischen Meilensteine der Ingenieurbaukunst auf. Hintergrund. Zeichnung des Centennial Tower im Größenvergleich zu anderen Bauwerken Mit den technischen Möglichkeiten der Industrialisierung kamen auch Ideen auf, hohe Bauwerke zu errichten. Insbesondere Turmbauwerke spiegelten den damaligen Zeitgeist wider. Bereits im Jahr 1833 schlug der Engländer Richard Trevithick vor, eine 1000 Fuß (304,80 Meter) hohe, von 1000 Stützen getragene gusseiserne Säule mit dem Durchmesser von 30 Metern an der Basis und 3,60 Metern an der Spitze zu bauen. Trevithick starb jedoch kurz nach Veröffentlichung seiner Pläne. Die amerikanischen Ingenieure Thomas Curtis Clarke (1848–1901) und David Reeves griffen die Idee auf und wollten für die Weltausstellung 1876 in Philadelphia einen solchen Turm "(Centennial Tower)" errichten. Die Konstruktion sah eine zylindrische Eisenröhre mit 9 Meter Durchmesser als Kern vor, die mit Stahlseilen abgespannt werden sollte. Verwirklicht wurde das Vorhaben nicht. Nach heutigem Wissensstand wäre dieses Bauwerk den Windschwingungen zum Opfer gefallen. 1881 kehrte der französische Ingenieur Sébillot von einer Amerikareise mit der Idee zurück, das gesamte Stadtgebiet von Paris mit einem Leuchtfeuer auf einem „Sonnenturm“ zu beleuchten. Nachdem die französische Regierung im Mai 1884 das Vorhaben der Weltausstellung für das Jahr 1889 verkündet hatte, fertigte er zusammen mit dem Erbauer des Palais du Trocadéro, Jules Bourdais, entsprechende Pläne an. Der Entwurf, der an eine romantisierende Rekonstruktion des sagenumwobenen Leuchtturms von Pharos mit vielen Verzierungen erinnerte, stieß auf große Vorbehalte und wurde bis zum offiziellen Planungswettbewerb im Mai 1886 öffentlich diskutiert. Mangels technischer Umsetzbarkeit blieben sowohl der amerikanische Centennial Tower als auch der Sonnenturm unverwirklicht. Projektphase. Im Juni 1884 stellten die beiden Ingenieure Maurice Koechlin und Émile Nouguier, beide aus dem Büro von Gustave Eiffel, einen Entwurf für einen 300 Meter hohen Metallmast vor, der auf vier Füßen ruhen sollte. Die Eisenfachwerkkonstruktion war so entwickelt, dass die Streben durch ihre Neigungswinkel Seitenwinden möglichst geringen Widerstand boten. Die Form der Turmstützen ähnelte der Momentenlinie eines vertikalen Kragarms bei Windbelastung. Damit sollten die Seitenwinde maximal nach unten abgeleitet werden, was dem hohen Bauwerk eine extrem hohe Standsicherheit verschaffen sollte. Eiffel und sein Büro hatten in den Jahren davor bereits grundlegende Erfahrungen im Brückenbau gesammelt. Die größten Eisenbahnbrücken jener Zeit stammten von Eiffel, wie beispielsweise das Garabit-Viadukt, welches das Tal der Truyère in 122 Meter Höhe überspannt. Die Pylone aus dem Brückenbau standen beim Turmprojekt Pate. Am 18. September 1884 ließ sich Eiffel den Entwurf patentieren. Der ingenieurtechnisch ausgereifte Entwurf entsprach jedoch ästhetisch nicht den Vorstellungen Eiffels. Das pylonartige Bauwerk erinnerte zu sehr an einen überdimensionierten Freileitungsmast – die Werkbezeichnung deutete dies mit "pylône de 300 mètres de hauteur" an. Eiffel erkannte, dass der allzu technische Entwurf im Vergleich mit den kunstvollen Bauwerken der Weltausstellung nicht überzeugen konnte, und beauftragte im Frühjahr 1886 den Architekten Stephen Sauvestre, die Form des Turms zu überarbeiten, um die Akzeptanz zu erhöhen. Zu den auffälligsten, von Sauvestre vorgenommenen Veränderungen zählt der monumentale, für die Tragfähigkeit nicht notwendige Bogen mit der ersten Etage. Er wurde dem Anspruch, als Eingangsportal für die Weltausstellung zu dienen, deutlich besser gerecht und ließ den Turm weniger nüchtern erscheinen. Sauvestre versah das Bauwerk mit gemauerten Sockeln, ließ die nach oben strebenden Pfeiler früher zusammenlaufen, änderte die Aufteilung der Geschosse und fügte eine Reihe von Verzierungen hinzu. Die ursprünglich vorgesehene Spitze in Pyramidenform veränderte der Architekt zu einer zwiebelförmigen Laterne. Erst dieser Entwurf überzeugte Eiffel so, dass er die Nutzungsrechte für den „300-Meter-Turm“ erwarb. Eiffel pries das Konzept vor dem Ausstellungskommissariat nicht nur als Ausstellungsbauwerk, sondern stellte die wissenschaftliche Bedeutung für die Meteorologie, Astronomie und die Aerodynamik heraus. Eiffel hob den Namen Koechlins nicht besonders hervor. Dies führte dazu, dass der Turm bereits in der Projektphase mit dem Ingenieur Eiffel in Verbindung gebracht wurde und schon vor seiner Errichtung die Bezeichnung "Eiffelturm" erhielt; Eiffel selbst hatte ihn nie so bezeichnet. Im Frühjahr 1885 wurden die Baukosten auf 3.155.000 Francs geschätzt und die Turmmasse mit 4810 Tonnen projektiert. Am Ende kam die reine Stahlkonstruktion des Eiffelturms auf eine Masse von 7300 Tonnen und die Baukosten erhöhten sich auf mehr als das Zweieinhalbfache. Das am 8. Januar 1887 zwischen Minister Édouard Lockroy, Minister für Handel und Industrie, Präfekt Eugene Poubelle und Gustave Eiffel unterschriebene Abkommen, das die Bedingungen für den Bau und Betrieb des 300-Meter-Turms regelt Am 1. Mai 1886 schrieb der Handelsminister Édouard Lockroy den Ideenwettbewerb für die Gebäude der Pariser Weltausstellung aus, der sich an französische Architekten und Ingenieure richtete. Es nahmen rund 100 Bewerber teil, viele von ihnen griffen die Idee eines Turmbauwerks auf. Nach der ersten Auswahl blieben drei Vorlagen übrig, darunter befanden sich neben Eiffels Beitrag die Entwürfe von Ferdinand Dutert und Jean Camille Formigé. Eiffel ließ die stark verzierte Fassung Sauvestres nochmals unter Verzicht auf einige Zierelemente überarbeiten und gewann mit diesem Kompromissvorschlag den Wettbewerb. Er unterschrieb am 8. Januar 1887 einen Vertrag mit der Stadt, die eine Subvention in Höhe von 1,5 Millionen Goldfranken zur Verfügung stellte, und bereits am 26. Januar wurde mit dem Bau begonnen. Da Eiffel die restlichen Baukosten von insgesamt über sieben Millionen Franken selbst zu tragen hatte, sicherte ihm der 18 Paragraphen umfassende Vertrag eine zwanzigjährige Nutzungskonzession zu. Den Vertrag unterzeichnete Eiffel persönlich, nicht im Namen seiner Baufirma. Die Finanzierung der restlichen Kosten erfolgte über eine Aktiengesellschaft mit einem Grundkapital von fünf Millionen Franken, von denen er die Hälfte übernahm; die andere Hälfte stellten zwei Pariser Großbanken als Kredite zur Verfügung. Den Inhabern von Eiffelturm-Aktien, welche die höchsten Renditen in der französischen Börsengeschichte ausschütteten, war es erlaubt, den Turm einmal im Jahr kostenfrei zu benutzen. Auch wenn Eiffel den Turm als geschlossenes Projekt aus seiner Hand anpries und sich damit eine fremde Idee zu eigen machte, gilt es historisch als gesichert, dass ohne Eiffels persönliches und unternehmerisches Engagement der Bau in dieser Form nie zustande gekommen wäre. Errichtung von Januar 1887 bis März 1889. Unter regem Interesse der Öffentlichkeit begannen am 26. Januar 1887 die Bauarbeiten mit dem Setzen der Fundamente. Für sie wurden insgesamt 30.973 Kubikmeter Erdreich ausgehoben. Da die Fundamente unter dem Niveau des Seineflussbetts gründen, leitete man Druckluft in die wasserdichte Metallverschalung, damit die Arbeiten unterhalb des Wasserspiegels ausgeführt werden konnten. Dieses Verfahren hatte Gustave Eiffel bereits 1857 beim Bau der 500 Meter langen Eisenbahnbrücke von Bordeaux erprobt. Eiffel verwendete als Baumaterial im Puddelverfahren produzierten Stahl, was zu seiner besonderen Haltbarkeit beigetragen hat. Da die Eisenverbindung mit geringem Kohlenstoffgehalt nicht geschweißt, sondern nur genietet werden konnte, ließ Eiffel in seinem Firmensitz in Levallois-Perret die notwendigen Einzelteile im Baukastenprinzip vorproduzieren und in Paris vor Ort zusammensetzen. Die Teile wurden exakt berechnet, geschnitten und mit den Löchern für das spätere Nieten versehen. Für die Vorproduktion bis zur Errichtung hatte Eiffel einen festen Ablaufplan. Fehlerhafte Teile wurden wieder zur Fabrik zurückgeschickt und nicht vor Ort angepasst. Ein Stab von etwa 40 technischen Zeichnern, Architekten und Ingenieuren erfasste in 700 Gesamtansichten und 3.600 Werkzeichnungen das gesamte, aus 18.038 Einzelteilen bestehende Bauwerk. Am 14. August 1888 wurde die zweite Etage errichtet und der sich nach oben anschließende Teil freitragend montiert. Gleichzeitig stattete man die Plattformen aus. Die im Werk vorgebohrten Einzelteile wurden vor Ort mit konischen Dornen unter Schlageinwirkung in ihre endgültige Position gebracht. Insgesamt halten im Eiffelturm 2,5 Millionen Niete die Bauteile zusammen. Das Vernieten führten jeweils vier Männer durch. Der erste Arbeiter ließ die Niete heißstauchen und brachte sie mithilfe einer kleinen Esse zum Glühen. Als zweiten Schritt führte ein anderer Arbeiter die Niete an das Bohrloch. Ein dritter schlug den Schließkopf in Form. In einem letzten Schritt wurde der Bolzen gestaucht. An den Bauarbeiten waren bis zu 250 Personen beteiligt, rund 150 davon waren für das Vernieten der Bauteile vor Ort eingesetzt. Neben Zimmerleuten befanden sich unter den Bauarbeitern auch Schornsteinfeger, da sie das Arbeiten in großen Höhen gewohnt waren. Die Arbeitsschichten dauerten in den Wintermonaten neun und in den Sommermonaten zwölf Stunden. Im September 1888 kam es zu einem Streik der Arbeiter; drei Monate später legten sie erneut die Arbeit nieder und forderten mehr Lohn. Gustave Eiffel verhandelte mit ihnen und richtete in der ersten bereits fertiggestellten Plattform eine Kantine für sie ein. Während der gesamten Arbeiten kam es zu einem einzigen tödlichen Unfall. Ein italienischer Arbeiter verunglückte beim Einbau der Aufzüge nach der offiziellen Eröffnung. Gleichzeitig mit der freitragenden Montage der obersten Stockwerke ab Dezember 1888 wurden die Plattformen ausgestattet. Nachdem am 15. März die Laterne auf der Spitze des Turms errichtet worden war, konnten wenige Tage später, am 31. März 1889, planmäßig wenige Wochen vor Eröffnung der Weltausstellung, die Arbeiten abgeschlossen werden. Proteste und Widerstand gegen die Errichtung. a> mit übergroßem Kopf am 14. Februar 1887 Das Protestschreiben blieb kein Einzelfall; weitere begleiteten die Bauarbeiten. Léon Bloy beschrieb den Eiffelturm als „wirklich tragische Straßenlaterne“, Paul Verlaine als „Skelett von einem Glockenturm“ und François Coppée als „Eisenmast mit starrer Takelage, unvollkommen, konfus und unförmig“. Die starke Ablehnung richtete sich zum einen gegen die für damalige Zeit immense Höhe, zum anderen empfand man die offen zur Schau gestellte Konstruktionsweise aus Eisen mit fehlender Fassade als geradezu skandalös. Ein weiterer Kritikpunkt der Gegner war der Umstand, dass der Turm nicht wie die andere Festarchitektur nach der Ausstellung wieder abgebaut werden, sondern dauerhaft stehen bleiben sollte. Der Protest, der sich vor allem aus dem akademisch-elitären Umfeld rekrutierte, ließ sich auch durch Eiffels gewieftes Entgegenkommen nicht beruhigen, den Turm für einen Bruchteil der Baukosten in Einzelteile zu zerlegen und ihn an anderer Stelle wieder aufzubauen. Jeder praktische Aspekt, der sich den Notwendigkeiten des Alltags unterwarf, konnte dem hehren Kunstbegriff der Traditionalisten nicht genügen – Industrie und Kunst hatten in ihren Augen strikt getrennt zu bleiben. Die Proteste vieler Kunstschaffenden dürfen jedoch nicht darüber hinwegtäuschen, dass in der breiten Masse das Bauwerk von Anfang an überaus beliebt war und die Baustelle rege besucht wurde. Befürchtungen und Widerstand blieben jedoch nicht auf polemische Schriften beschränkt. Sogar zahlreiche Techniker befürchteten, die Fundamente des Turms könnten dem eisernen Fachwerk nicht standhalten. Ein Mathematiker prophezeite den Einsturz des Stahlgebildes, sobald dieses eine Höhe von 228 Metern überschreite. Ein Anlieger am Champ de Mars strengte gar einen Prozess gegen den Staat und die Stadt an, aus Angst, der Eiffelturm könne einstürzen und sein Haus zerstören. Das Gericht erlaubte den Weiterbau nur mit der Auflage, dass Gustave Eiffel bei allfälligen Schäden zu haften habe. Eröffnung und Reaktionen. Gustave Eiffel (unten links) auf der Spitze des Eiffelturms 1889 Am Eröffnungstag, dem 31. März 1889, bestieg Gustave Eiffel – da der Fahrstuhl noch nicht fertiggestellt war – mit einer Delegation gegen 13:30 Uhr den Turm und hisste an dessen Spitze eine französische Trikolore, die 7 Meter lang und 4,40 Meter breit war. Heinrich Schliemann, dem ein Aufstieg auf den Eiffelturm bereits vor der offiziellen Eröffnung ermöglicht worden war, pries das Bauwerk in einem Brief an Rudolf Virchow am 24. Mai 1889 als Wunderwerk der ingenieurtechnischen Fähigkeiten, ohne das der vierte Teil der Ausstellung – Schliemann meinte die vierte Weltausstellung in Paris – keinen Reiz hätte. Trotz der Euphorie, die ihn als gelungene nationale Selbstdarstellung und Demonstration des technischen Fortschritts rühmte, blieb auch unversöhnliche Kritik. Auf jeden Fall erregte er die Gemüter jener Zeit sehr stark und übte eine enorme Anziehungskraft auf die Menschen aus, so der französische Philosoph, Schriftsteller und Literaturkritiker Roland Barthes. Für die breite Öffentlichkeit war der Turm erst seit dem Eröffnungstag der Weltausstellung, dem 15. Mai 1889, zugänglich. Das Eintrittsgeld betrug 1889 für die erste Etage zwei, für die zweite drei und für die dritte fünf Francs. Der Eintritt zur Weltausstellung kostete einen Franc. Insgesamt bestiegen während der Weltausstellung 1889 1.896.987 Menschen den Eiffelturm. Damit amortisierten sich seine Baukosten bereits zu drei Vierteln. Zahlreiche prominente Persönlichkeiten der Zeitgeschichte statteten dem höchsten Bauwerk der Welt ebenfalls einen Besuch ab. Am Eröffnungstag erschien eine Sonderausgabe der Tageszeitung "Le Figaro" direkt aus dem Eiffelturm. Die Redaktion hatte ihre Arbeitsräume aus diesem Anlass in der zweiten Aussichtsplattform eingerichtet. Besucher, welche die Zeitung an diesem Tag direkt bei der Redaktion kauften, erhielten eine signierte Ausgabe als „Zertifikat“ für die erfolgte Turmbesteigung. Zum Zeitpunkt der Eröffnung und Schließung jedes Messetages wurde jeweils ein Schuss einer Salutkanone von der Spitze des Turms abgefeuert. Die höchsten Bauwerke der Welt 1889 Der erste Eintrag im Gästebuch des Eiffelturms war der des britischen Kronprinzen, des späteren Königs Eduard VII., der am 10. Juni 1889 den Turm zusammen mit fünf Familienmitgliedern bestieg und den Eiffel persönlich führte. Am 1. August 1889 besuchte der damalige Schah von Persien Nasser-ed Din Shâh das neue Bauwerk. Außerdem finden sich dort die Unterschriften weiterer prominenter Zeitgenossen wie Georgs von Griechenland, des späteren Königs von Belgien Albert I., des russischen Zaren Nikolaus II., Sarah Bernhardts und des japanischen Kaisersohnes Yoshihito. Der Erfinder Thomas Edison überreichte Gustave Eiffel am 10. September 1889 eine Widmung für die „Errichtung des gigantischen und originellen Musterstücks moderner Baukunst“ und nahm bei seinem Besuch die Stimme Eiffels auf. In der dritten Plattform unterhalb der Turmspitze ist dieses Ereignis im ehemaligen Büro Eiffels mit Wachsfiguren nachgebildet. Auch der Pazifist Mahatma Gandhi, der damals in London studierte, bestieg während der Weltausstellung den Eiffelturm. Als der Eiffelturm eröffnet wurde, war er mit einer Gesamthöhe von damals 312 Metern offiziell das höchste Bauwerk der Welt und löste damit das 169,3 Meter hohe Washington Monument, einen Obelisken aus weißem Marmor in den Vereinigten Staaten, als Rekordhalter ab. Das höchste begehbare Gebäude jener Zeit war die 167,5 Meter hohe Synagoge Mole Antonelliana in Turin, die 1888 fertiggestellt wurde. Die ersten 20 Jahre. Werbung für die Rundfunkstation des Eiffelturms. Dies ist die erste Anzeige Frankreichs, die für einen Sender wirbt; sie wurde für einen Hersteller von Radiogeräten in der Wochenzeitung "La Rampe" geschaltet. Der Erfolg und das Fortbestehen des Eiffelturms über die zwanzigjährige Konzession hinaus war ungewiss. Eiffel versuchte immer wieder durch die Einbindung von Gelehrten und eigene Forschungen den Nutzen des Bauwerkes darzulegen. Am 5. November 1898 konnten Eugène Ducretet und Ernest Roger eine drahtlose Telegraphenverbindung zwischen dem Eiffelturm und dem vier Kilometer entfernten Panthéon herstellen. Die elektromagnetische Informationsübermittlung blieb zunächst rein militärischen Zwecken vorbehalten. Im selben Jahr wurde auf dem Eiffelturm eine Wetterwarte eingerichtet. Durch den enormen Höhenunterschied von 300 Metern war es möglich, vielfältige physikalische Experimente durchzuführen. So wurden zur Eichung von Luftdruckmessern ein übergroßes Manometer installiert, spektroskopische Messungen durchgeführt, ein Foucaultsches Pendel eingerichtet und Windgeschwindigkeit und Atmosphärentemperatur gemessen. Sogar Experimente zur Heilwirkung von Höhenluft führte man durch. Für seine astronomischen und physiologischen Beobachtungen richtete Eiffel ein eigenes Büro in der dritten Plattform ein. Besondere Bekanntheit erlangten Eiffels Messungen zur Aerodynamik. Eine erste Versuchsreihe begann er 1903: Er spannte zwischen der zweiten Plattform und dem Erdboden ein Kabel, an dem er verschiedene Profile nach unten gleiten ließ. 1904 konnten Zeitsignale auf der Wellenlänge 2000 Meter mit unterschiedlichen Apparaten empfangen werden. 1909 erweiterte er seine Studien durch Eröffnung eines Windkanals am Fuße des Turms und einer größeren Anlage an der Rue Boileau im Jahre 1912. Für die Weltausstellung 1900, die zum fünften Mal in Paris stattfinden sollte, erwog Eiffel verschiedene Umbaupläne. Die allgemeine Empfindung der Ästhetik des Turmes hatte sich in den wenigen Jahren seines Bestehens derart gewandelt, dass seine Optik wegen ihrer Modernität und Radikalität überholt wirkte. Gefragt waren üppigere Formen, wie in der Belle Époque üblich. Die Ausstellung zeichnete sich insgesamt durch eine retrospektive Ausrichtung aus und war damit eher eine Schlussfeier des 19. als eine Eröffnungsfeier des 20. Jahrhunderts. Aus diesem Grund versuchten Veranstalter und Architekten den Eiffelturm hinter einer Stilhülle zu verbergen. Die Vorschläge dazu reichten von relativ moderaten Veränderungen wie dem Anbringen von Schnörkeln, Wimpeln, Balkonen und Girlanden bis hin zu massiven Umbauplänen, die eine völlige Neukonzeption des Turms vorsahen. Der Entwurf von Guillemonats sah beispielsweise vor, den Turm bis zur ersten Plattform abzutragen und einen riesigen Globus darauf zu errichten. Zum massivsten Umbauvorschlag mit der Projektbezeichnung „la Tour Eifel (sic!) dans le mont Samson“ zählt der eines gewissen Samson, der den Turm als Stützgerüst für einen künstlichen Berg vorsah und den Eiffelturm damit komplett hinter einer Bergkulisse mit Dörfern, Straßen und Vegetation hätte verschwinden lassen. Abgesehen von der Tatsache, dass Samson nicht wusste, wie man den Eiffelturm korrekt buchstabierte, zeugte auch die wenig professionell ausgeführte Planskizze von mangelnder Seriosität. Der Umbauvorschlag von Gautier wollte den Eiffelturm als Stützkonstruktion für ein riesenhaftes pagodenähnliches Tor verwenden. Sowohl ein Abriss als auch die angestrebten Umbauvorschläge scheiterten am Eigentumsrecht Eiffels. Beleuchtung des Eiffelturms während der Weltausstellung 1900 Am 28. Dezember 1897 einigte man sich schließlich, den Eiffelturm weitgehend unverändert in die Weltausstellung zu integrieren. Sein technisches Aussehen wurde lediglich durch eine neue Lichtinstallation, welche die Konturen des Bauwerks hervorhob, zu überspielen versucht. Eiffel beließ es dabei, das Bauwerk nach oben hin in abgetönter orangeroter Farbe neu zu streichen und den Plattformen ein neues äußeres Aussehen zu geben. Neben einer neuen Aufzuganlage stellte er auch seinen Salon in der dritten Plattform der Öffentlichkeit zur Verfügung. Doch zur Weltausstellung zog der Turm mit etwa einer Million nur noch halb so viele Besucher an; die Zahl sank in den Folgejahren weiter ab und pendelte sich bis zu Beginn des Ersten Weltkriegs auf jährlich rund 180.000 ein. Rein wirtschaftlich gesehen spielte es eine untergeordnete Rolle, denn die Baukosten des Eiffelturms waren bereits nach eineinhalb Jahren amortisiert. Eiffel war durch sein alleiniges Vermarktungsrecht und sein prosperierendes Unternehmen bereits mehrfacher Millionär geworden und konnte sich neben einem Stadtpalais in Paris weitere Häuser in Sèvres, Beaulieu-sur-Mer an der Côte d’Azur und in Vevey am Genfersee leisten. Neben der wissenschaftlichen Nutzung wuchs vor allem auch der militärische Wert des Turmes. Am 15. Dezember 1893 erlaubte Eiffel dem Kriegsminister Auguste Mercier, auf dem Turm Antennen zu befestigen, und übernahm sogar deren Kosten. Am 21. Januar 1904 unterstützte er Hauptmann Gustave-Auguste Ferrié, einen Offizier der Pioniertruppen, die drahtlose Telegraphie für die militärische Nutzung voranzutreiben. Ferrié richtete das militärische Netzwerk ein und wurde zum zweitwichtigsten Mann neben Eiffel. Nachdem bereits 1898 eine drahtlose Verbindung hergestellt worden war, wurden 1903 zwischen dem Eiffelturm und einigen Militäranlagen in Paris weitere Funkverbindungen geschaffen und ein Jahr später die Verbindung in den Osten Frankreichs erweitert. 1906 wurde ein Radiosender auf dem Turm eingerichtet. Die nach 20 Jahren ausgelaufene Konzession wurde am 1. Januar 1910 um weitere 70 Jahre verlängert. Mit der gestiegenen strategischen Bedeutung war auch der Fortbestand des Eiffelturms gesichert; sie war sogar ausschlaggebend für die Fortsetzung der Konzession, denn der wissenschaftliche Nutzen blieb real betrachtet eher bescheiden. Wissenschaftliche, fernmeldetechnische und militärische Nutzung. a> ("télégraphie sans fil" T.S.F.) 1914 Zeitzeichensender. Ab dem 23. Mai 1910 diente der Eiffelturm der französischen Marine regelmäßig als Zeitzeichensender. Das Signal konnte nachts bis zu einer Entfernung von 5200 Kilometern und tagsüber bis etwa zur Hälfte dieser Strecke empfangen werden. Hauptmann Ferrié machte es möglich, einen internationalen Standard bei der Zeitmessung festzulegen. Flugfunk-Telegrafiesender. Im selben Jahr konnten erste Funkverbindungen mit Luftschiffen und ein Jahr später mit Flugzeugen hergestellt werden. Wissenschaftliche Nutzung. Die wissenschaftliche Nutzung und Messungen am Eiffelturm gingen weit über die Sende- und Übertragungstechnik hinaus. Der Jesuitenbruder und Physiker Theodor Wulf (1868–1946) maß 1910 vier Tage lang an der Spitze und am Fuße des Turms die Strahlungsenergie und stellte einen signifikanten Unterschied fest, mit dem es ihm letztlich möglich war, die kosmische Strahlung nachzuweisen. Während des Ersten Weltkrieges musste der französische Physiker und spätere Nobelpreisträger Louis de Broglie sein Studium zwangsweise unterbrechen und leistete seinen Militärdienst bis 1919 auf der funktelegraphischen Station des Eiffelturms ab. Erster Weltkrieg. Mit dem Beginn des Ersten Weltkrieges wurde der Eiffelturm für die Öffentlichkeit ganz gesperrt. Er hatte sich als Telekommunikationszentrum für das Militär etabliert, das dort viele feindliche Nachrichten abfing und entschlüsselte. Der bedeutendste Fall war die Dechiffrierung eines als Radioprogramm getarnten Funkspruchs der deutschen Streitkräfte, die zur Verhaftung der Spionin Mata Hari führte. Hörfunksender und -studio. Bereits vor dem Ersten Weltkrieg fanden erfolgreiche Tests zur drahtlosen Übertragung von Telegraphie-Signalen statt. Am 24. Dezember 1921 begann nun auch das Senden von Tonsignalen, Lucien und Sacha Guitry strahlten erstmals vom Eiffelturm ihr Radioprogramm "(Radio Tour Eiffel)" aus. Damit schrieben sie Rundfunkgeschichte, denn die ausgestrahlte Sendung war in Europa die erste öffentliche Radiosendung. Ein Jahr später, am 6. Februar 1922, wurde im Nordpfeiler ein temporäres Studio eingerichtet, aus dem Guitry, Yvonne Printemps und Direktor Ferrié sendeten. Im Mai 1925 gab sich der Betrüger Victor Lustig als stellvertretender Generaldirektor des Postministeriums aus und fälschte eine Ausschreibung, die den Eiffelturm zum Verkauf anbot. Lustig schaffte es, ihn an André Poisson zu veräußern, der sich damit den Aufstieg in die Pariser Geschäftswelt erhoffte. Um Poissons anfängliche Zweifel zu zerstreuen, mimte Lustig ein Geständnis, er sei ein korrupter Beamter, der für seinen teuren Lebensstil etwas dazuverdienen wolle. Lustig tauchte nach Abschluss des Handels unter und setzte sich nach Wien ab. Als der Schwindel aufflog, zog Poisson es aus Scham vor, den Betrug nicht der Polizei anzuzeigen. Nach einem Monat versuchte Lustig den Betrug zu wiederholen. Der Käufer schöpfte jedoch Verdacht und ging zur Polizei, worauf Lustig floh. Wetter- und Fernsehsender. 1925 ließ Édouard Belin das erste Fernsehsignal vom Turm ausstrahlen. Damit wurde der Eiffelturm zum ersten Fernmelde- sowie Fernsehturm und blieb bis 1953 weltweit, wie weiter unten erwähnt, auch der höchste Turm dieser Art. Im Jahr 1929 strahlte der Eiffelturm die Daten von 350 Wetterstationen aus und ermöglichte damit einen Austausch zwischen Europa, Nordafrika und den Inseln im Atlantischen Ozean einschließlich Islands und der Kapverdischen Inseln. Mit der Einweihung des 319 Meter hohen Chrysler Building in New York City 1930 verlor das Pariser Wahrzeichen den Titel des höchsten Bauwerks der Welt, den es fast 41 Jahre innegehabt hatte. Bis zur Fertigstellung des Tokyo Tower im Jahr 1953 blieb es noch der höchste Fernsehturm. Die erste offizielle Fernsehübertragung vom Eiffelturm am 26. April 1935 um 20:15 Uhr war die Geburtsstunde des Fernsehens in Frankreich. Genutzt wurde wie schon bei den Sendungen von Édouard Belin die Technik des sogenannten "„mechanischen“" und teilweise des „elektronischen“ Fernsehens. Dazu strahlte ein 500-Watt-Sender auf der Wellenlänge 175 Meter, der allerdings bald danach durch einen 10 Kilowatt starken Sender ersetzt wurde. Das Programm strahlte man in einer halbelektronischen 60-Zeilen-Norm mit 25 Bildern pro Sekunde aus, die im Dezember von einer 180-Zeilen-Norm ersetzt wurde. Entwicklung zur bedeutenden Sehenswürdigkeit. Während der Weltfachausstellung 1937, die bereits im Zeichen der konkurrierenden Weltmächte und des drohenden Konfliktes mit dem „Dritten Reich“ stand, wurde unterhalb der ersten Plattform des Eiffelturms ein riesiger, vom Architekten André Grasset gestalteter Kronleuchter aufgehängt. Darüber hinaus tauchte man den Turm mit 30 Projektoren in ein weißes Licht mit blauen und roten Blitzen. Die Veranstaltung war die letzte der sechs Weltausstellungen in Paris. Der Eiffelturm war seit 1889 fester Bestandteil der Ausstellungsarchitektur, zog aber mit jedem Mal weniger Besucher an. Beim Staatsbesuch des britischen Königs Georg VI. im Jahr 1938 wurde ihm zu Ehren der Union Jack seitlich am Turm gehisst. Die 120 Kilogramm schwere Flagge war 30 Meter breit und 40 Meter lang. Mit der Besetzung von Paris 1940 wurden die Aufzugkabel abgetrennt. Eine Reparatur war aufgrund der mangelnden Güterversorgung während des Zweiten Weltkrieges praktisch unmöglich. Für die deutschen Truppen und Adolf Hitler bedeutete dies, dass sie den Eiffelturm nur über die Treppe besteigen konnten. Deutsche Soldaten erhielten den Auftrag, bis zur Spitze hochzusteigen, um eine Hakenkreuzflagge an der Spitze des Turms zu hissen. Da sie zu groß war, wurde sie bereits nach wenigen Stunden weggeweht und etwas später durch eine kleinere ersetzt. Auf der ersten Aussichtsplattform ließ die Wehrmacht zudem ein Transparent mit der Aufschrift „Deutschland siegt auf allen Fronten“ anbringen. Als Hitler Paris am 24. Juni 1940 selbst besuchte, zog er es vor, den Eiffelturm nicht zu besteigen. Darauf hieß es, dass Hitler zwar Frankreich, aber nicht den Eiffelturm erobert habe. Auch die Hakenkreuzflagge wurde während der Besatzungszeit von einem Franzosen in einer heimlichen Aktion durch die französische Trikolore ersetzt. Trotz der Widrigkeiten inszenierten die Deutschen den Eiffelturm zu propagandistischen Zwecken. Hitler ließ sich zusammen mit weiteren namhaften Größen seines Regimes wie beispielsweise Albert Speer und Arno Breker in verschiedenen Posen vor dem Eiffelturm fotografieren, um vor der heimischen Bevölkerung den Sieg über die Franzosen zu demonstrieren. Wie schon während des Ersten Weltkrieges blieb der Turm auch während des Zweiten Weltkrieges für die Öffentlichkeit geschlossen. US-amerikanische Truppen befreiten Paris am 25. August 1944 und installierten auf der zweiten Etage des Eiffelturms ihre Sendestationen, um mit deren Hilfe mit den Streitkräften am Ärmelkanal kommunizieren zu können. Nach der Wiedereröffnung für den Publikumsverkehr im Juni 1946 bestiegen in dem folgenden halben Jahr über 600.000 Besucher den Turm. Mit dem stärker werdenden Tourismus stieg auch die Besucherzahl anhaltend auf jährlich über eine Million und steigerte sich in den folgenden Jahrzehnten kontinuierlich. Die 1950er Jahre waren geprägt durch das sich durchsetzende Medium des Fernsehens. Im April 1952 wurde das erste Mal eine Livesendung von Paris nach London gesendet. Die technische Schwierigkeit bestand in der Überbrückung der unterschiedlichen Übertragungsstandards zwischen Frankreich und Großbritannien. Mit der Sendung schrieb der Eiffelturm ein weiteres Mal Fernsehgeschichte. Die Show moderierten Georges de Caunes und Jacqueline Joubert vom französischen Fernsehen und Miss Reeves von der BBC. Ein Jahr später folgte der nächste Meilenstein mit der Einrichtung des Eurovision-Verbundes. Damit konnte am 2. Juni die Krönung von Elisabeth II. an alle Teilnehmerstaaten der Eurovision übertragen werden; in Frankreich wurde die Zeremonie landesweit vom Eiffelturm aus ausgestrahlt. 1956 brach im Senderaum ein Feuer aus und zerstörte die Turmspitze sowie die Sendeeinrichtungen. Ein Jahr später errichtete man neue Antennenplattformen und installierte neue Antennen. Nach dem Umbau strahlte der Turm Radio- und drei Fernsehprogramme aus. Seine neue Antenne erhöhte das Wahrzeichen auf insgesamt 320,75 Meter. Zum 75-jährigen Jubiläum des Eiffelturms im Jahr 1964 lud die Betreibergesellschaft insgesamt 75 um das Jahr der Errichtung des Turms 1889 geborene Pariser Bürger zu einer festlichen Gala ein. Zu den berühmtesten Gästen zählte Maurice Chevalier. Im Laufe der Jahre wurden nicht nur zu den Jubiläen besondere Ereignisse am Eiffelturm veranstaltet. Durch die vermehrte Vergabe von Dreherlaubnissen für Kinofilme stieg der Status des Bauwerks weiter. Neben immer wieder außergewöhnlichen, meist sportlichen Aktionen wurde der Eiffelturm auch zunehmend im Alltagsleben der Pariser verankert, beispielsweise durch die Eröffnung einer Schlittschuhbahn in der ersten Etage im Winter. Aufgrund des traditionellen, an akademisch-klassizistischen Idealen orientierten Kunstverständnisses in Frankreich tat sich der Eiffelturm auch noch im fortgeschrittenen 20. Jahrhundert schwer mit seiner Anerkennung als Kulturdenkmal. Erst am 24. Juni 1964 wurde das Bauwerk in das "Inventaire des monuments historiques" eingetragen. Nachdem zum 1. Januar 1980 die an Eiffel vergebene und inzwischen auf seinen Erben übergegangene Konzession ausgelaufen war, übernahm die Société nouvelle d’exploitation de la tour Eiffel (SNTE), eine zu 100 % der Stadt Paris gehörende Tochtergesellschaft, den Betrieb des Wahrzeichens. Sie kümmert sich seither um die Erhaltung und Vermarktung des Bauwerks. Am 9. September 1983 wurde der hundertmillionste Besucher des Eiffelturms mit einem Geschenk begrüßt. Die Sängerin Mireille Mathieu überreichte der Frau die Schlüssel für einen Citroën BX. Seit 1991 gehört das Seineufer mit seinen Bauwerken zwischen dem Pont de Sully und dem Pont d’Iéna am Eiffelturm in Paris zum Kulturerbe der UNESCO. Im Jahr 2000 übernahm die Rundfunkgesellschaft TDF die Montage von UHF-Antennen und ließ seine Gesamthöhe von 318,7 Meter auf seine heutige Höhe von 324 Meter anwachsen. 2005 strahlte der Eiffelturm erstmals digitales Fernsehen aus. Die SNTE ging zum 1. Januar 2006 für zunächst zehn Jahre in die Société d’exploitation de la tour Eiffel (SETE) über. Von Februar 2012 bis 2013 wurden umfangreiche Renovierungen und Umgestaltungen in der ersten Plattform durchgeführt, die zu diesem Zeitpunkt von etwa der Hälfte der Besucher gemieden wurde. Unter anderem wurden an Anlehnung der ursprünglichen Glassäle drei überdachte kastenförmige, dunkelrote Pavillons – teilweise mit Glasboden – aus Stahl und Glas konstruiert, die an den Seitenwänden zwischen den Pfeilern und parallel zu ihnen verlaufen. Während der 25 Millionen Euro teuren Umbaumaßnahmen wurde der Besucherbetrieb weiter aufrechterhalten. Darüber hinaus sollen Behindertenaufzüge und eine Konferenzhalle eingerichtet werden. Lage und Umgebung. Eiffelturm vom Tour Montparnasse aus gesehen mit dem südöstlich gelegenen Champ de Mars und der École Militaire Der Eiffelturm befindet sich im Westen des 7. Arrondissements der Pariser Innenstadt am nordwestlichen Ende des Champ de Mars. Er steht auf 33 Meter Höhe über Meer nicht weit vom Ufer der Seine entfernt, wo sich auch Anlegestellen von Ausflugsbooten befinden. Unweit davon liegt südwestlich des Eiffelturms die langgestreckte Île aux Cygnes (Schwaneninsel) in der Seine. In der unmittelbaren Sichtachse des Bauwerks steht südöstlich die École Militaire und nordwestlich auf dem gegenüberliegenden Flussufer über der 1937 auf 35 Meter verbreiterten Pont d’Iéna das Palais de Chaillot. Südöstlich der École Militaire befindet sich der Sitz der UNESCO in einem 1958 erbauten Gebäude mit Y-förmigem Grundriss. Rund drei Kilometer Luftlinie in südöstlicher Richtung entfernt steht etwas nördlich der exakten Sichtachse das 210 Meter hohe Bürohochhaus Tour Montparnasse. Nordöstlich befindet sich in der Nähe des Eiffelturms das Völkerkundemuseum Musée du quai Branly. Folgende für den Fahrzeugverkehr freigegebene Straßen tangieren das Turmareal: südwestlich die Avenue Gustave Eiffel, im Nordosten die Avenue de la Bourdonnais, im Nordwesten der stark befahrene Quai Brandly, der in den Pont d’Iéna über die Seine übergeht, und im Südosten die Avenue de Suffren. Die vier Straßen begrenzen ein bewaldetes, parkähnliches rechteckiges Grundstück, auf dem mittig der Eiffelturm steht. Die Durchfahrt ist für den motorisierten Verkehr nicht gestattet. Die dem Eiffelturm nächsten Haltestellen der Métro Paris sind Bir-Hakeim (Tour Eiffel) der Linie 6 und École Militaire der Linie 8. Die Linie C der Pariser S-Bahn RER hält südwestlich des Turms am Bahnhof Champ de Mars – Tour Eiffel. In unmittelbarer Nähe des Eiffelturms halten verschiedene Buslinien. Architektur. Wie Gustave Eiffel in einem Vortrag vor der "Société des Ingénieurs civils" am 30. März 1885 erklärte, ging es in der Architektur des Turms darum, So ausgeklügelt die Architektur zur Optimierung der Windlast ist, so vergleichsweise schlicht ist die grundsätzliche Konzeption des Eiffelturms, der die großen Eisenbahnbrücken aus Eisenfachwerk zum baulichen Vorbild hat. Sechzehn vertikal versetzte und in Vierergruppen zusammengefasste Hauptstreben ragen bogenförmig in die Höhe und werden über die drei horizontalen Besucherplattformen verbunden. Oberhalb der zweiten Plattform werden die Streben zu einem Pylon vereint. Turmbasis und Fundament. Schematische Zeichnung des Eiffelturms mit technischen Daten Der Eiffelturm steht auf einer Höhe von 30,5 Meter über dem Meeresspiegel am nordwestlichen Ende des Champ de Mars (→ Lage). Das Bauwerk steht auf vier mächtigen Stützpfeilern aus Eisenfachwerk mit einer Breite von jeweils 26,08 Metern; sie leiten das gesamte Gewicht in das bis in 15 Meter Tiefe reichende Fundament weiter. Die Pfeiler ruhen auf massivem Mauerwerk und sind mit 16 Sparren im 54 Grad-Winkel im Boden verankert. Schrauben von 7,80 Metern Länge verbinden dabei den Gusseisen-Schuh mit dem Unterbau. Die Turmkonstruktion ist durch den Unterbau so gelagert, dass sie je nach Windlast einen Druck von etwa 5 kg/cm² an den Erdboden abgibt. Das entspricht etwa dem Bodendruck, den ein auf einem Stuhl sitzender Erwachsener auf den Boden ausübt – ein Vergleich, den Eiffel selbst errechnete und in seiner Publikation "La Tour de 300 mètres" angab. Die Pfeiler haben im unteren Bereich zueinander einen Abstand von 74,24 Meter, was einer Spreizung des Turms an der Basis von insgesamt 124,90 Metern entspricht. Der Grundriss der Standfläche ist quadratisch. Der Eiffelturm wurde so konstruiert, dass jeder seiner Pfeiler exakt auf eine Himmelsrichtung ausgerichtet ist. Die Nord- und Westpfeiler zeigen in Richtung der Seine, die Ost- und Südpfeiler in Richtung des Champ de Mars. In jedem der Pfeiler befinden sich Eingänge mit Kartenverkaufsständen, Treppenhäuser und Aufzüge, die je nach Besucherandrang und Anlass unterschiedlich geöffnet sein können. Der Abstand der Pfeiler, die über mächtige Bögen miteinander verbunden sind, verringert sich mit zunehmender Höhe. Die ebenfalls aus filigran wirkendem Eisenfachwerk gefertigten Bögen 39 Meter über dem Boden und mit einem Durchmesser von 74 Metern haben rein dekorativen Charakter und keine tragende Funktion. Zwischen den Pfeilerfüßen ist der Durchgang ausschließlich Fußgängern vorbehalten. Am Nordpfeiler steht zu Ehren des Erbauers Gustave Eiffel eine goldfarbene Büste auf einem länglichen Sockel. Südwestlich des Westpfeilers ragt ein von Sträuchern überwucherter roter Backstein-Schornstein an einer künstlichen Grotte hervor. Er stammt aus dem Jahr 1887 und wurde während der Bauphase für die Errichtung des Südpfeilers verwendet. Erste Etage. Die erste Etage oberhalb der Bögen auf 57,6 Meter Höhe bietet auf einer Nutzfläche von 4415 Quadratmetern Platz für rund 3000 Besucher gleichzeitig. Auf dieser Ebene befinden sich das Restaurant "58 Tour Eiffel", ein Selbstbedienungslokal und der Kinosaal "Cineiffel", der auch als Ausstellungsraum genutzt werden kann. Der Rundumbalkon auf dieser Ebene ist an der Brüstung mit Panoramatafeln ausgestattet, damit die von dort sichtbaren Pariser Sehenswürdigkeiten besser lokalisiert werden können. Es gibt einen Andenkenladen und im Südpfeiler eine kleine, täglich geöffnete Postannahmestelle "(Bureau de Poste Tour Eiffel)", die einen eigenen Poststempel als Erinnerungsbeleg führt. Im ersten Stock bietet sich der 300 Quadratmeter große mietbare "Gustave-Eiffel-Saal" für Tagungen, Konferenzen, Konzerte oder Empfänge an. Zu Beginn hatte der Eiffelturm auf seiner ersten Etage aufwändig verglaste Säle, die von außen durch bogenförmige Dachkonstruktionen auffielen. Darin befanden sich unter anderem vier Restaurationsbetriebe, die thematisch verschieden ausgestaltet waren. Zwischen dem Nord- und Ostpfeiler war das russische Restaurant angesiedelt, das heute Gustave-Eiffel-Raum heißt. Zwischen dem Süd- und dem Westpfeiler war die anglo-amerikanische Bar, zwischen dem Ost- und Südpfeiler befand sich das französische Restaurant und zwischen dem Nord- und Westpfeiler war das flämische Restaurant angesiedelt. Letzteres wurde nach der Ausstellung 1889 in ein niederländisches Restaurant umgebaut und nach 1900 als Theatersaal genutzt. Sämtliche dieser Bauten und die historischen Ornamente wurden im Zuge der Weltausstellung 1937 abgebrochen und durch von außen weniger auffällige ersetzt, um sie dem geänderten Geschmack anzupassen. Entlang eines Frieses auf der ersten Etage sind 72 Namen bedeutender Wissenschaftler und Techniker angebracht, auf jeder Seite 18. Durch einen Neuanstrich des Turms Anfang des 20. Jahrhunderts verschwanden die Namen; in den Jahren 1986 und 1987 wurden sie wieder sichtbar gemacht. Es handelt sich vornehmlich um Ingenieure und Mathematiker, die während der Französischen Revolution und der ersten Hälfte des 19. Jahrhunderts gewirkt haben. Die Auswahl der Namen traf Eiffel selbst; für einige Namen wurde er kritisiert. Er überging bewusst Wissenschaftler mit langen Familiennamen und auch Frauen, die sich in der Wissenschaft verdient gemacht haben, beispielsweise auch die bedeutende französische Mathematikerin Sophie Germain. Zweite Etage. Auf 115,7 Metern Höhe befindet sich die zweite Etage mit einer Fläche von 1430 Quadratmetern, die Platz für rund 1600 Besucher gleichzeitig bietet. Bis zur zweiten Etage gelangt man wahlweise über den Fahrstuhl oder eines der in den Pfeilern befindlichen Treppenhäuser; von der Basis bis zur zweiten Etage führen 704 Treppenstufen hinauf. Auf dieser Ebene findet der Umstieg zu den Fahrstühlen statt, die bis zur Spitze weiter führen. Hier befindet sich das Restaurant "Jules Verne" mit 95 Sitzplätzen. Es bietet eine gehobene Gastronomie, wurde vom Guide Michelin mit einem Stern ausgezeichnet und erhielt vom Gault-Millau 16 von 20 möglichen Punkten. Das Restaurant mit einer Grundfläche von 500 Quadratmetern liegt leicht erhöht auf dem Südpfeiler auf einer Höhe von 123 Metern und ist über einen separaten Aufzug erreichbar. Seit 2007 steht es unter der Leitung des Kochs Alain Ducasse. Außerdem gibt es auf dieser Ebene einen Schnellimbiss und einen Andenkenladen. In eigens für die Besucher eingerichteten Schaukästen wird die Geschichte zum Eiffelturm in Wort und Bild nacherzählt. Dritte Etage und Turmspitze. Die dritte und oberste Plattform befindet sich auf 276,1 Metern Höhe und hat eine Fläche von 250 Quadratmetern. Diese Etage ist für die Öffentlichkeit ausschließlich über die Aufzüge erreichbar. Es besteht jedoch eine durchgehende Treppe, die beginnend im Ostpfeiler bis zur Spitze 1665 Stufen hat. Sie ersetzte 1983 die ursprüngliche Treppe mit 1710 Stufen und ist leichter und weniger gefährlich. Bis heute (2014) ist die oberste Aussichtsplattform die zweithöchste öffentlich zugängliche Europas; höhere Aussichtsplattformen hat lediglich der Fernsehturm Ostankino in Moskau. Oberhalb der überdachten Plattform gelangt man über Treppen auf die durch Stahlgitter gesicherte, rund 100 Quadratmeter große Freiluftplattform. Der gesamte Bereich der dritten Etage kann bis zu 400 Personen gleichzeitig aufnehmen. Bei gutem Wetter kann man von hier aus bis 80 Kilometer weit sehen. Tafeln weisen in der entsprechenden Himmelsrichtung auf große Städte in der Welt hin und geben die Luftlinie vom Eiffelturm aus an. Neben einer Champagner-Bar wurde das Arbeitszimmer Eiffels originalgetreu restauriert und mit Wachsfiguren ausstaffiert, welche Eiffel, seine Tochter Claire und den amerikanischen Erfinder Thomas Edison zeigen, wie sie den Phonographen ausprobieren, den Edison für Eiffel als Präsent zur Turmeröffnung mitgebracht hatte. Oberhalb der Besucherplattform auf einer Höhe von 295 Metern befindet sich für jede Himmelsrichtung je ein Leuchtfeuer. Die Bewegung wird durch eine Software gesteuert und ist so synchronisierbar, dass mit den Leuchtfeuern ein durchgängig drehbares Kreuz simuliert wird. Auf dieser Höhe befinden sich auch mehrere Richtantennen. Darüber sind die Dipolantennen für die Radiofrequenzen angebracht; diese befinden sich auf 291 Meter und 294 Meter. Im unteren Bereich des eigentlichen Antennenmastes, der sich von der ehemaligen Laterne erhebt, sind auf mehreren Etagen in alle Himmelsrichtungen weitere Doppel-Dipolantennen angebracht, die sich auf 299 Meter und 304 Meter befinden. Darüber befinden sich die UHF-Antennen – erkennbar durch die abschirmenden, auffällig weißen Wetterschutzkästen. Die Turmspitze wird bekrönt von weiteren in die vier Himmelsrichtungen weisenden Dipolantennen, meteorologischen Messinstrumenten und einer Wartungsplattform. An der Spitze des Turms befinden sich über 120 Antennen zur Übertragung von dutzenden Radio- und Fernsehprogrammen (→ Nutzung als Sendeturm). Die Antennenhöhe variierte dabei im Laufe der Jahrzehnte. Zur Zeit seiner Eröffnung war die eigentliche bauliche Struktur 300,5 Meter hoch und erreichte mit der Laterne und dem Fahnenmast an seiner Spitze eine Gesamthöhe von 312,27 Metern. Die Laterne ist durch die zusätzliche Montage von Antennenplattformen nur noch im oberen Drittel durch die gebogenen, zum Antennenmast zusammenlaufenden Fachwerkträger zu erkennen. Mit einer neuen Antenne veränderte sich 1991 die Gesamthöhe auf 317,96 Meter und der Umbau von 1994 an der Turmspitze machte ihn insgesamt 318,70 Meter hoch. Die letzte Veränderung in der Gesamthöhe erfuhr der Turm im Jahr 2000, als er auf die heutige Höhe von 324 Metern anwuchs. Aufgrund von Windeinwirkungen schwankte die Turmspitze während eines Sturms 1999 bis zu ca. 13 Zentimeter aus seiner Ruhelage. Die Ausdehnung infolge von starker Sonneneinstrahlung kann sogar bis zu 18 Zentimeter ausmachen. Fahrstühle. Die Aufzüge im Jahr 1889 Die Auffahrt im Eiffelturm wird von insgesamt neun verschiedenen Aufzügen ermöglicht – fünf in den Turmpfeilern, die zwischen dem Eingang und der zweiten Etage verkehren, und zwei Paar Aufzüge mit Doppelkabinen zwischen der zweiten und dritten Etage. Zwischen dem Erdgeschoss und der zweiten Etage verkehren teilweise doppelstöckige Schrägaufzüge, die sich dem variablen Neigungswinkel von 54° bis 76° der Turmpfeiler anpassen. Der weitere Aufstieg erfolgt nach einem Umstieg im zweiten Stockwerk über einen Vertikalaufzug. Spezielle Fahrstühle für den Eiffelturm, für den die enorme Höhe wie auch die Neigung der Turmpfeiler charakteristisch sind, stellten für die damalige Zeit eine technische Herausforderung an die Industrie dar, die zu jener Zeit selbst erst seit einigen Jahren bestand, denn der erste Hydraulikaufzug wurde bei der Weltausstellung 1867 präsentiert. Trotz vieler Erneuerungen und Modernisierungen arbeiten die Aufzüge vom Grundprinzip so, wie sie Eiffel zur Erbauung des Turms konzipiert hatte. Der Maschinenraum mit dem Hydraulikantrieb der Aufzüge ist im Rahmen von Sonderführungen im Untergeschoss des Bauwerks zu besichtigen. Schrägaufzüge in den Turmpfeilern. Eiffel setzte beim Bau des Turms bewusst auf unterschiedliche Techniken und Hersteller, um bei einem Fehler unabhängig zu bleiben. Im Nord- und Südpfeiler arbeiteten bis 1910 Otis-Aufzüge. Die zweigeschossigen Kabinen wurden mittels Kabelzug emporgezogen. Bis 1897 befanden sich im Ost- und im Westpfeiler Aufzüge von Roux, Combaluzie und Lepape; sie konnten mit Hilfe einer endlosen Doppelkette bis zu 200 Personen befördern. Beide Systeme wurden durch eine hydraulische Förderanlage betrieben. Anlässlich der Weltausstellung 1900 ersetzte Eiffel die Fahrstühle und auch die Dampfmaschinen, welche die Hydraulik antrieben, durch Elektromotoren. Zwei historische Anlagen, 1899 von "Fives-Lilles" im Ost- und Westpfeiler installiert, sind heute noch bei einer Sonderführung zu besichtigen. Die Aufzüge wurden in den Jahren 1986 und 1987 modernisiert und seit den 1990er-Jahren mehrfach generalüberholt. Im Jahr 2010 baute man moderne und klimatisierte zweigeschossige Fahrkabinen ein, die jeweils 56 Besucher transportieren können. Im Südpfeiler befindet sich ein Schrägaufzug von Otis, der seit 1983 ausschließlich für Besucher des Jules-Verne-Restaurants verwendet wird. 1989 wurde dieser Aufzug durch einen vier Tonnen tragenden Lastaufzug ergänzt. Im Nordpfeiler wurde 1965 ein Schrägaufzug von "Schneider" eingebaut; er wurde in den 1990er-Jahren grundlegend überholt. Die Kapazität des Aufzugs im Nordpfeiler beträgt 920 Personen pro Stunde, der im Ost- und Westpfeiler schafft 650 Personen in der Stunde. Der kleine Aufzug zum Restaurant kann maximal zehn Personen pro Fahrt befördern. Der Warenaufzug im Südpfeiler kann wahlweise 30 Personen oder vier Tonnen Güter pro Fahrt transportieren. Vertikalaufzüge ab der zweiten Etage. Die ursprünglichen Vertikalaufzüge für die Passage von der zweiten zur dritten Etage wurden von Léon Edoux, einem Klassenkameraden von Eiffel, gebaut. Die ebenfalls hydraulisch betriebenen Fahrstühle benutzten anstelle eines Gegengewichts zwei gegenläufige Fahrkörbe, die sich gegenseitig im Gleichgewicht hielten. Das Prinzip erforderte, dass die Besucher auf halber Höhe – etwa auf 228 Meter – die Kabinen wechseln mussten. Die eigens dafür als Steg genutzte Zwischenplattform ist heute noch am Turmschaft erkennbar. Da der hydraulische Druck zum Antrieb der Fahrstühle mit Wasser aufgebaut wurde, das in Tanks in den Aussichtsplattformen untergebracht war, konnten in den Wintermonaten die Aufzüge nicht benutzt werden. Diese Aufzüge verkehrten fast 100 Jahre und wurden erst 1983 durch elektrische Fahrstühle der Firma Otis ersetzt. Die insgesamt vier Fahrkörbe verbinden die zweite und dritte Aussichtsplattform direkt miteinander. Diese Anlage kann bis zu 1140 Personen pro Stunde befördern. Anstrich. Die Eisenfachwerkkonstruktion des Eiffelturms aus Puddeleisen wird mit mehreren Farbschichten vor Rost und Verwitterung geschützt. Bereits Gustave Eiffel betonte, dass der Anstrich für die Haltbarkeit von großer Bedeutung sei. Die erste Streichung erhielt der Turm bereits zwei Jahre nach seiner Eröffnung und er wurde bisher 19-mal neu angestrichen, zuletzt von März 2009 bis Oktober 2010 zum 120-jährigen Bestehen des Bauwerks. Damit wird der Eiffelturm im Durchschnitt alle sieben Jahre komplett neu lackiert. Die Anstricharbeiten werden von 25 Malern von Hand erledigt und kosten jeweils rund drei Millionen Euro. Für die Fläche von 250.000 Quadratmetern werden etwa 60 Tonnen Lack – inklusive 10 Tonnen Primer – benötigt, wovon sich rund 45 Tonnen durch Erosion abschmirgeln. Die speziell ausgebildeten Maler werden während der Arbeiten mit rund 60 Kilometern Sicherheitsseilen gesichert. Von der Turmbasis bis zu seiner Spitze wird der verwendete Lack leicht abgetönt, um den Turm vor dem Hintergrund einheitlich gleichfarbig aussehen zu lassen. Der Eiffelturm wurde farblich mehrfach neu gestaltet. Während zu Beginn der Errichtung des Turms noch ein venezianisches Rot vorherrschte, schwenkte man zur Eröffnung 1889 auf Rotbraun um. Dies wurde bereits 1892 durch Ockerbraun ersetzt. 1899 verwendete man ein in fünf Töne abgestuftes Gelborange und 1907 lackierte man das Wahrzeichen in Gelbbraun. Es folgten Orangengelb und Kastanienbraun, bis man seit 1968 den letzten Wechsel auf einen Bronzebraunton vollzog. Der Farbton „Eiffelturmbraun“ enthält die Farbpigmente Rot, Schwarz und Gelb. Diese werden vom deutschen Spezialchemie-Konzern Lanxess hergestellt und vom norwegischen Lackhersteller Jotun eigens für den Eiffelturm gemischt. Der urheberrechtlich geschützte Speziallack zeichnet sich durch ein hohes Maß an Haltbarkeit und Flexibilität aus und hält das Abplatzen unter Wind und Temperaturschwankungen so gering wie möglich. Beleuchtung und Lichtkunst. Citroën-Leuchtreklame von 1925 bis 1936 Bereits zur Zeit seiner Fertigstellung war der Eiffelturm mit Gaslaternen beleuchtet. An der Turmspitze befanden sich zudem zwei auf Schienen verschiebbare Leuchtprojektoren, die mit einem hellen Leuchtfeuer den Pariser Nachthimmel in die Farben der französischen Trikolore eintauchten. Im Jahr 1900 wich die Gasbeleuchtung einer moderneren elektrischen Lichterkette aus 5000 Glühbirnen, welche die Konturen des Turms nachzeichnete. 1907 brachte man auf der ersten Aussichtsplattform eine sechs Meter hohe Uhr mit leuchtenden Ziffern an. Davor signalisierte man um 12 Uhr mit einem abgefeuerten Kanonenschuss die Mittagszeit. Vom 4. Juli 1925 an leuchtete am Eiffelturm eine aus 250.000 Glühbirnen bestehende Reklame mit den auf drei Seiten des Eiffelturms vertikal angebrachten Lettern CITROËN. Die von André Citroën entworfene Werbung war damals die größte Leuchtreklame der Welt. 1933 ergänzte Citroën die Reklame um eine Uhr mit 15 Metern Durchmesser und farbigen Zeigern. Die Leuchtschrift des kostspieligen Lichtspektakels konnte bis zu einer Entfernung von 40 Kilometern entziffert werden und wurde 1936 wieder eingestellt. Zur internationalen Werkausstellung 1937 in Paris hüllte der Architekt André Granet den Eiffelturm in ein Spitzenkleid aus Lichtstrahlen. 1985 installierte der Lichtingenieur Pierre Bideau eine neue Leuchteinheit am Eiffelturm, die zum Jahreswechsel 1986 eingeweiht wurde. Sie besteht aus 352 Natrium-Hochdruckscheinwerfern von je 600 Watt Stärke in Gruppen von vier bis sieben Leuchteinheiten und weist insgesamt eine Leistung von 320 kW auf. Die Anlage strahlt von unten bis zur Spitze und beleuchtet das Bauwerk vom Turminnern, wodurch sie die Struktur besser sichtbar macht. Der jährliche Stromverbrauch beträgt rund 680.000 kWh und sank mit der Neuinstallation um rund 40 %. Eine Glühbirne hat bei dieser Dauerbelastung eine mittlere Lebenserwartung von gut 6000 Stunden. 20.000 Lampen bringen seit dem 21. Juni 2003 von der Dämmerung bis 1 Uhr morgens – in den Sommermonaten bis 2 Uhr morgens – den Turm zu Beginn jeder Stunde für fünf Minuten wie einen Diamanten zum Glitzern. 2015 erfolgte im Rahmen einer energetischen Sanierung des Turmes eine erneute Änderung der Beleuchtung. Die zuvor installierten Lampen wurden durch energiesparende LED-Beleuchtung ausgetauscht. Zudem wurde eine Wärmepumpenheizung, eine Photovoltaikanlage sowie zwei Kleinwindenergieanlagen mit Horizontalrotor eingebaut, um einen Teil des Energiebedarfs des Turms mittels erneuerbarer Energien zu decken. Am 5. April 1997 – genau 1000 Tage vor Beginn des Jahres 2000 – eröffnete der damalige Pariser Bürgermeister Jean Tiberi einen Countdown auf 100 Metern Höhe am Schaft des Eiffelturms. Auf der Nordwestseite zum Trocadéro leuchteten Tag und Nacht 33 Meter hohe, 12 Meter breite, 50 Tonnen schwere und aus 1342 Projektoren zusammengesetzte Leuchtziffern, welche die verbleibenden Tage bis zum Jahr 2000 anzeigten. Die Neujahrsnacht am 1. Januar 2000 wurde mit einem Feuerwerk am Eiffelturm eingeläutet. Die Countdown-Anzeige wechselte den Schriftzug zu "2000" und leuchtete das ganze Jahr hindurch. Der Eiffelturm erhielt in der Vergangenheit zu bestimmten Anlässen entsprechende Sonderbeleuchtungen. So strahlten im Jahr seines hundertjährigen Bestehens 1989 die Lettern "100 ans" (100 Jahre) vom Turmschaft. Im Zuge des französisch-chinesischen Kulturaustauschprogramms wurde der Turm zwischen dem 24. und 29. Januar 2004 – der Zeit, in der die Chinesen Neujahr feiern – in rotes Licht getaucht. Der Einweihung der Lichtzeremonie wohnten der französische und der chinesische Kulturminister bei sowie die Bürgermeister von Paris und Peking. Das 20-jährige Jubiläum des Europatages am 9. Mai 2006 wurde am Eiffelturm mit blauem Licht gewürdigt. Am 1. Februar 2007 beteiligte sich der Eiffelturm an der Umweltschutzaktion Earth Hour und schaltete an diesem Tag von 19:55 Uhr bis 20:00 Uhr die Beleuchtung vollständig aus, um für das Energiesparen zu werben. Diese Aktion wurde im selben Jahr am 22. Oktober wiederholt. Zur Rugby-Union-Weltmeisterschaft 2007 vom 7. bis zum 20. Oktober wurde der untere Teil des Turms bis zur zweiten Aussichtsplattform in grünem Licht bestrahlt, was die Spielfläche symbolisierte. Zusätzlich wurde der Eiffelturm mit einem überdimensionalen Tor und einem Rugbyball bestrahlt. 2008 wurde von Juli bis Dezember anlässlich der Ratspräsidentschaft Frankreichs der Turm blau beleuchtet und zeigte die zwölf gelben Sterne der Europaflagge. Nach den Anschlägen vom 13. November 2015 in Paris erstrahlte der Eiffelturm drei Tage lang in den französischen Landesfarben; aufgeteilt jeweils durch die drei Plattformen. Aus Solidarität in aller Welt wurden viele Monumente weltweit wie z. B. das Brandenburger Tor oder das Sydney Opera House ebenfalls in den Farben (→Illumination von Gebäuden) der französischen Trikolore angestrahlt. Da in Frankreich keine Panoramafreiheit gilt, beansprucht die Betreibergesellschaft SETE das Urheberrecht für nächtliche Aufnahmen, in denen der bestrahlte Eiffelturm als Hauptobjekt zu sehen ist, obwohl am Bauwerk selbst keine Urheberrechte mehr bestehen. Private Bilder ohne kommerzielle Nutzung stellen dabei keinen Verstoß dar. Lediglich Bilder mit einer kommerziellen Nutzung bedürfen der Genehmigung der Gesellschaft, da sie die Illumination als Kunstwerk für sich beansprucht. Detailaufnahmen oder Panoramaaufnahmen, bei denen der Eiffelturm nur als Beiwerk sichtbar ist, können unabhängig vom Zweck genehmigungsfrei veröffentlicht werden. Einrichtungen für den Publikumsverkehr. Der Eiffelturm ist grundsätzlich an 365 Tagen im Jahr ohne Ruhetag für die Öffentlichkeit zugänglich. Lediglich bei starken Stürmen kann es zur Schließung oder zu Einschränkungen kommen. Insgesamt sind am oder für das Wahrzeichen mehr als 600 Menschen beschäftigt. Darunter sind 280 Verwaltungsangestellte, die für die SETE arbeiten. Etwa 240 sind in den Restaurationsbetrieben angestellt, 50 im Souvenirverkauf und 50 üben weitere, meist technische Tätigkeiten aus. Im Turm befindet sich eine Poststelle, und ein eigenes Einsatzkommando der Polizei bewacht das Monument. Durch die vergleichsweise hohen Einnahmen bedingt gehört der Eiffelturm zu den wenigen französischen Sehenswürdigkeiten, die ganz ohne staatliche Subventionen auskommen. Besucherzahlen und -statistik. Im Jahr seiner Eröffnung bestiegen im Rahmen der Weltausstellung 1889 knapp 1,9 Millionen der insgesamt 32,3 Millionen Ausstellungsbesucher auch den Eiffelturm. In den folgenden zehn Jahren ebbte die Besucherzahl auf ein Mittel von rund 250.000 ab. Während der Weltausstellung 1900 verbuchte der Eiffelturm trotz deutlich mehr Ausstellungsbesucher (50,8 Millionen) lediglich eine Besucherzahl von knapp über 1 Million. In den Folgejahren sank die Zahl weiter unter das Niveau der ersten zehn Jahre, bis der Turm während des Ersten Weltkrieges in den Jahren 1915 bis 1918 für die Öffentlichkeit gesperrt wurde. Mit der Wiedereröffnung 1919 stieg die Zahl der jährlichen Besucher auf knapp 480.000. Zwei markante Ausreißer gab es 1931 und 1937 zur Pariser Kolonial- bzw. zur Weltfachausstellung mit jeweils über 800.000 Gästen. Wegen des Zweiten Weltkrieges musste der Eiffelturm zum zweiten Mal für mehrere Jahre (1940–1945) geschlossen werden. Nach dem Krieg eröffnete der Eiffelturm im Juni 1946 wieder. Die Zahl stieg bereits Anfang der 1950er Jahre kontinuierlich auf rund 1 Million Besucher an und steigerte sich in den folgenden Jahrzehnten durch den Tourismus immer weiter. Mitte der 2000er Jahre kletterte die Besuchermarke auf über 6,5 Millionen und erreichte 2011 mit knapp 7 Millionen ihren vorläufigen Rekord. Der erwirtschaftete Umsatz 2011 erreichte dabei 85,7 Millionen Euro. Mit der gestiegenen Besucherzahl, die an Spitzentagen rund 35.000 erreicht, steigen nicht nur die Wartezeiten auf mehrere Stunden an, sondern droht der Sehenswürdigkeit eine Überfüllung. Einschließlich 2011 haben seit Eröffnung über 260 Millionen das Bauwerk besichtigt und machen es damit zu dem meistbesichtigten der Welt. Laut einer statistischen Befragung von 7.989 Besuchern ergab sich 2009 folgendes Profil: Der überwiegende Teil der Besucher kommt aus Westeuropa (43 %), dem metropolitanen Frankreich (29 %) und Nordamerika (11 %). Abgesehen von Frankreich sind die stärksten Besucherländer Deutschland mit 8,5 %, das Vereinigte Königreich mit 8,1 %, gefolgt von den Vereinigten Staaten (7,6 %), Spanien (7,3 %), Italien (4,8 %) und Australien (4,1 %). Teilt man das Alter der Besucher in die Kategorien „unter 25“, von „26 bis 35“, von „36 bis 45“ und „darüber“ auf, so nehmen sie jeweils rund ein Viertel ein. Über 56 Jahre waren nur 6,4 %. Der größte Teil der Besucher kommt mit ihrer Familie (63,8 %), rund 23 % besuchen den Eiffelturm mit Freunden und 7,8 % in organisierten Reisegruppen. Knapp die Hälfte (46,1 %) reist mit der Metro an, 17,3 % kommen zu Fuß, 12 % benutzen das eigene Auto und 7,5 % werden mit dem Bus gebracht. Etwa 46 % der befragten Personen waren vorher schon einmal auf dem Eiffelturm. Unfälle und Todesfälle. Die Allgegenwart des Eiffelturms im Pariser Stadtbild verleitete immer wieder Menschen zu wagemutigen Abenteuern oder sportiven Höchstleistungen. Am 13. Juli 1901 entging der brasilianische Flieger Alberto Santos Dumont mit seinem Luftschiff nur knapp einer Kollision, als er das Fluggerät zwischen Saint-Cloud und Champ de Mars manövrierte. Filmbeitrag zum Sprung von Franz Reichelt vom Eiffelturm Der Turm inspirierte einige Menschen, mit selbstgebastelten fallschirmähnlichen Konstruktionen einen Sprung vom Eiffelturm zu wagen. Zu den tragischen Figuren gehört der Schneider Franz Reichelt, der sich einen Gehrock mit breitem Cape schneiderte und Sprungfedern daran montierte. Sein angekündigtes Vorhaben lockte zahlreiche Schaulustige an. Nach einigem Zaudern sprang der gebürtige Österreicher Reichelt am 4. Februar 1912 mit seiner flugunfähigen Ausstattung von der ersten Plattform vor den Augen der anwesenden Journalisten und Zuschauer und verunglückte dabei tödlich. Von diesem Ereignis existiert sogar ein historisches Filmdokument. Der Franzose Marcel Gayet kam 1928 bei einem ähnlichen Versuch durch einen Sprung von der ersten Etage ums Leben. Weitere Versuche mit neuartigen Fallschirmen glückten, was die Macher der James-Bond-Filme zu einer entsprechenden Szene inspirierte. Der damals 23-jährige Flieger Léon Collot verunglückte im November 1926 bei dem Versuch, mit seinem Leichtflugzeug den Turmbogen an der Basis zu durchfliegen. Er wurde von der Sonne geblendet und verfing sich in einer Radioantenne, die damals noch zwischen Turmspitze und Boden gespannt war. Das Pariser Wahrzeichen war auch Schauplatz vieler Suizide. Der erste Selbstmord wurde am 15. Juni 1898 gemeldet, als sich eine Frau erhängt hatte. Insgesamt haben sich etwa 400 Menschen am Eiffelturm das Leben genommen. Sportliche Leistungen und Rekorde. Titelseite der "Le Sport" zum Turmlauf am 26. November 1905 Der Eiffelturm regte die Menschen immer wieder zu artistischen oder sportlichen Herausforderungen an. Graf Lambert überflog am 18. Oktober 1909 den Turm erfolgreich mit seinem Flugzeug. Daneben war der Turm auch Schauplatz von nicht alltäglichen Leistungen, Spaßrekorden oder sonstigen medial beachteten Aktionen. Bereits 1905 lobte die Zeitung "Le Sport" einen Wettbewerb für die schnellste Besteigung bis zur zweiten Plattform aus. Am Treppenlauf-Wettbewerb am 26. November beteiligten sich 227 Läufer. Der Gewinner Forestier schaffte dies in 3 Minuten 12 Sekunden und erhielt für seine Leistung ein Peugeot-Fahrrad. Zum 75. Geburtstag des Eiffelturms kletterten im Mai 1964 die Bergsteiger Guido Magnone und René Desmaison offiziell genehmigt den Eiffelturm an seiner Außenseite hoch. Das Spektakel wurde über Eurovision gesendet. Am 4. Juni 1948 stieg ein 85-jähriger Elefant, der aus dem Zirkus "Bouglione" entlaufen war, bis zur ersten Plattform empor. 1983 fuhren Charles Coutard und Joël Descuns mit ihren Motocross-Motorrädern die Treppen im Eiffelturm hinauf und hinunter. Ein Jahr später gelang es Amanda Tucker und Mike MacCarthy, ohne offizielle Erlaubnis mit ihren Fallschirmen von der dritten Plattform abzuspringen. Der Neuseeländer A. J. Hackett wagte 1987 erstmals einen Bungee-Sprung von der zweiten Aussichtsplattform. Dem Hochseilartisten Philippe Petit glückte 1989 die Überquerung von rund 800 Metern auf einem vom Palais de Chaillot zur zweiten Etage des Eiffelturms gespannten Kabel über die Seine. Petit setzte sich etwa 15 Jahre für die Bewilligung dieses Vorhabens ein. Den etwa einstündigen Lauf verfolgten rund 250.000 Zuschauer. 1995 brach der Triathlet Yves Lossouarn den Rekord für die Turmbesteigung. Bis zur Spitze benötigte er 8 Minuten und 51 Sekunden. In dem vom Fernsehsender "arte" initiierten Sportereignis ging er als Sieger eines Starterfelds von 75 Athleten hervor. Großveranstaltungen und Konzerte. Neben den vier Weltausstellungen in den Jahren 1889, 1900, 1931 und 1937 wurde der Eiffelturm immer wieder für Konzerte oder andere Großveranstaltungen als Kulisse oder Veranstaltungsort verwendet. Am 25. September 1962 sang Édith Piaf auf der ersten Etage des Eiffelturms vor 25.000 Zuhörern ihr letztes Konzert. Gleichzeitig wurde die Veranstaltung als Werbeplattform für den Film Der längste Tag genutzt. Die Chansonniers Charles Aznavour und Georges Brassens gaben 1966 ebenfalls am Eiffelturm ein Konzert. Am 14. Juli 1995 hielt Jean Michel Jarre unter der Schirmherrschaft der UNESCO ein Konzert für mehr Toleranz am Fuße des Eiffelturms ab. Das weltweit übertragene Konzert hatte 1,2 Millionen Zuhörer. Zum 12. Weltjugendtag 1997 versammelten sich am 21. August rund 300.000 Pilger auf dem Champ de Mars vor dem Eiffelturm, wo der damalige Papst Johannes Paul II. eine Ansprache hielt. Das Orchestre de Paris und das Boston Symphony Orchestra hielten im Mai 2000 unter der Leitung von Seiji Ozawa ein freies Konzert vor dem Eiffelturm, der zu diesem Anlass extra beleuchtet wurde. Dem Konzerten wohnten rund 800.000 Menschen bei. Im selben Jahr gab am 10. Juni Johnny Hallyday vor 600.000 Zuschauern ein Freiluftkonzert, das von einer licht- und pyrotechnischen Show begleitet wurde. Rezeption in der Architektur. a> sollte ihn überragen, wurde jedoch nie vollendet. Der 1907 abgebrochene Turmstumpf war nur 47 Meter hoch. Der Bau des Eiffelturms brachte der Stadt einen beträchtlichen Prestigezuwachs und löste eine weltweite Turmbauwelle aus. Viele andere Städte, in der Anfangszeit besonders in der bedeutenden Kolonialmacht des Vereinigten Königreichs Großbritannien, versuchten dem Projekt nachzueifern. Zu den ersten Nachbauten zählt der in den Jahren 1891 bis 1894 erbaute 158,1 Meter hohe Blackpool Tower im englischen Badeort Blackpool. Dieser Turm gilt trotz seiner starken Anleihen beim Eiffelturm architektonisch als gelungen und wurde in den Denkmalschutz mit der höchsten Klassifizierungsstufe (Grade I) in England aufgenommen. Der Turm erwächst aus einem großen, mehrstöckigen Basishaus im viktorianischen Stil und beherbergt eine Reihe von Attraktionen, unter anderem einen renommierten Zirkus. Der Blackpool Tower wurde in den letzten Jahren aufwändig restauriert und gilt nach wie vor als Anziehungspunkt für Touristen in der Region von Nordwest-England. Weniger erfolgreich war der nach einem ähnlichen Konzept errichtete New Brighton Tower (Baubeginn 1896); er musste, weil die Stahlgitterkonstruktion marode geworden war, in den 1920er-Jahren abgetragen werden. Auch dieser 172,8 Meter hohe Turm hatte ein Basishaus mit einem vielfältigen Freizeitangebot, unter anderem befand sich dort der größte Ballsaal Großbritanniens. Beide Türme waren nach ihrer Erbauung jeweils die höchsten Bauwerke des Landes. Auch die britische Hauptstadt London schrieb 1890 ein ehrgeiziges Turmbauprojekt aus. Die Projektvorschläge sahen Türme aus Stahl zwischen 300 und 456 Meter Höhe vor. Ein Jahr später begann der Bau des Watkins Tower, der auf 358 Meter und damit rund 50 Meter höher als der Eiffelturm projektiert war. Der Initiator des Vorhabens, Sir Edward Watkin, versuchte ursprünglich Gustave Eiffel selbst als Konstrukteur anzuwerben; der Franzose lehnte jedoch aus patriotischen Gründen ab. Als dem Projekt die finanziellen Mittel ausgingen, so dass nur ein Turmstumpf von 47 Metern übrig blieb, wurde der Turm 1907 abgebrochen. Auch weitere Turmprojekte hatten mäßigen Erfolg. Der Turmbau in Douglas, dem Hauptort der Isle of Man, musste bereits kurz nach dem Einbau der Fundamente im Oktober 1890 wieder beendet werden. Der 70 Meter hohe pyramidenförmige Turm im Seebad in Morecambe, ein Bauwerk, das sich architektonisch allerdings deutlich vom Eiffelturm unterschied, wurde zu Beginn des Ersten Weltkrieges zugunsten der Munitionsproduktion abgerissen. Auch in Deutschland gab es teilweise abenteuerliche Projektvorschläge, den Eiffelturm zu übertrumpfen. So wurde 1913 ein fragwürdiger Entwurf zum "Rheinturm" – heutzutage trägt der Fernsehturm von Düsseldorf den Namen Rheinturm – vorgestellt, einem 500 Meter hoch messenden Stahlfachwerkturm mit stilistisch starker Anlehnung an den Eiffelturm. Das Vorhaben wurde nie umgesetzt. Im Januar 1890 war in St. Petersburg eine 60 Meter hohe vergängliche Nachbildung des Eiffelturms aus Eis zu bestaunen. 1891 errichtete man anlässlich der Industrieausstellung in Prag den 60 Meter hohen Aussichtsturm Petřín, der Formen des Eiffelturms aufgriff. Aber auch in Frankreich selbst eiferte man dem Pariser Vorbild nach. Der zwischen 1892 und 1894 errichtete, 85,9 Meter hohe Tour métallique de Fourvière in Lyon gibt die konstruktive Grundform des oberen Teils des Eiffelturms wieder. Der Turm war öffentlich zugänglich und beherbergte auch ein Restaurant. Seit 1953 dient er nur noch als Radio- und Fernsehturm. Mit der Ausbreitung von Funk- und Radiowellen wurden besonders ab den 1920er-Jahren weitere Turmbauten notwendig. Auch wenn die Formgebung dieser Bauwerke teilweise wenig Ähnlichkeit mit dem Pariser Turm aufwies, genügte oft die Übereinstimmung von vier Turmfüßen und der konstruktionsbedingten Notwendigkeit einer Verjüngung zur Spitze hin, dass diese Bauwerke im Volksmund mit dem Eiffelturm in Verbindung gebracht wurden oder werden. Beispiele dafür sind der Sender Gleiwitz („Schlesischer Eiffelturm“), der ehemalige Sender Ismaning („Bayerischer Eiffelturm“) oder der Bismarckturm in Wiesbaden („Wiesbadener Eiffelturm“). Auch der Berliner Funkturm aus der Mitte der 1920er Jahre folgt diesem Konstruktionsprinzip. In den 1950er-Jahren wurden in Japan mehrere vom Architekten Tachū Naitō (1886–1970) entworfene Fernseh- und Aussichtstürme erbaut, die ästhetisch zwar technischer ausfallen, sich aber dennoch am Design des Eiffelturms orientieren. Im Jahr 1954 entstand der Fernsehturm Nagoya, 1956 der Fernsehturm Tsutenkaku, 1957 der Fernsehturm Sapporo und 1958 der Tokyo Tower. Besonders der Tokyo Tower, der mit seinen 333 Metern den Eiffelturm sogar um einige Meter überragt, wird häufig im Zusammenhang mit der Nachahmung der baulichen Struktur genannt. Architektonisch wird er wegen seiner Proportionen in der Verjüngung der Stahlgitterstruktur nach oben und den Turmkörben sowie der Wahl der Diagonalverbände als weniger gelungen angesehen. Mit der Etablierung von Fernsehturmbauwerken aus Stahlbeton in vertikaler Kragarmbauweise, begonnen mit dem Stuttgarter Fernsehturm Mitte der 1950er Jahre, nahmen die gestalterischen Ähnlichkeiten der Türme zum Eiffelturm deutlich ab. Dennoch wurde der Eiffelturm in zahlreichen Repliken aufgrund seiner symbolhaften Ausstrahlung immer wieder aufgegriffen. Besonders in Frankreich und den Vereinigten Staaten sind teilweise nur wenige Meter hohe Nachbildungen in Kreisverkehren, als Werbeträger oder in Vorgärten anzutreffen. Vor allem die Freizeitindustrie hat die starke Werbekraft für sich entdeckt und versucht, durch Nachbauten immer wieder Aufmerksamkeit auf sich zu lenken. Zu den bekanntesten Repliken zählt eine 108 Meter hohe Nachbildung in dem Freizeitpark "Window of the World" im chinesischen Shenzhen. Der mit 165 Metern bisher höchste Nachbau steht in Las Vegas. Der Nachbau aus dem Jahr 1999 – über 100 Jahre nach Erbauung des Eiffelturms – am Hotelkomplex des Paris Las Vegas beherbergt auch ein Turmrestaurant und hat wie sein Vorbild besteigbare Aussichtsplattformen. Darüber hinaus wird der Pariser Eiffelturm in fast allen Miniaturenparks nachgebildet. Der Eiffelturm wird dem Baustil des Historismus der Gründerzeit, den er selbst einleitete, zugeordnet, wodurch er sich von der klassischen Architektur des 19. Jahrhunderts unterscheidet. Er ist eine wichtige Wegmarke des Funktionalismus, der sich in Europa nur vereinzelt durch Ingenieurbauten wie beispielsweise den Kristallpalast in London manifestierte. Damit stellt der moderne Ingenieurbau die nach der Gotik verloren gegangene Einheit von Konstruktion und Baugestalt wieder her, was dem Eiffelturm eine vergleichbare Position einbringt wie einem historischen Sakralbau. Sein baulicher Ansatz des breit ausgreifenden Fundaments wegen der nach unten zunehmenden Beanspruchung durch Winddruck hat sein Naturvorbild bei den Bäumen, die im Boden mit einem weit verzweigten Wurzelwerk verhaftet sind und deren Stamm sich in der Höhe verjüngt. Damit nimmt er nicht nur formal, sondern auch technologisch eine Vorreiterrolle ein, da bis zur Errichtung des Stuttgarter Fernsehturms praktisch alle freistehenden Sendetürme aus Stahl- oder Eisenfachwerk nach dem Vorbild Eiffels errichtet wurden. Die architektonisch herausragende Stellung und Bewertung des Eiffelturms beruht nicht nur auf seiner weitreichenden Wirkung, sondern auch darauf, dass er ohne jedes historische Vorbild entstanden ist. Politische und gesellschaftliche Rezeption. a> zeigt den Eiffelturm während der Weltausstellung 1900 Damit einher ging eine Diskussion über die Radikalisierung des Kunstbegriffs; sie wurde durch die Errichtung des Eiffelturms weiter angeheizt. Der prinzipiell idealisierte Charakter der Kunst war sozial vornehmlich auf die Oberklasse bezogen und nahm mit dem neuen Pariser Wahrzeichen plötzlich auch in der Lebensgestaltung der einfachen Leute eine Rolle ein. Es verband sich die Abneigung gegenüber dem Volksvergnügen mit der Angst vor aufständischem Potential des gemeinen Volkes gegenüber der Oberschicht. Die Pariser Oberklasse hielt sich zum großen Teil vom Turm wie auch von der Massenveranstaltung der Weltausstellung fern. Der Widerwille der Oberschicht gegenüber dem „kleinen Mann“ spiegelt sich auch in der Legende wider, nach der Guy de Maupassant eigens auf den Turm gestiegen sein soll, weil dies der einzige Ort sei, an dem er ihn nicht sehen müsse, obgleich er einer der stärksten Gegner des von Hitze, Staub, und Gestank geprägten Massenbetriebs war. Die republikanische Presse war dem Projekt insgesamt gewogener als die religiös-konservativen Kräfte mit häufig monarchistischen Tendenzen. Bereits die in der Festrede zur Fertigstellung des Eiffelturms unterstrichene kollektive Leistung von Baumeistern auf der einen und Bauausführenden auf der anderen Seite stieß an einigen Stellen auf Ablehnung. Die Nähe zur Arbeiterklasse thematisierte Eiffel sogar selbst, als er sich in einem Plakat mit Maßwerkzeug, aber auch mit Arbeiterkluft zeigte und damit die Verbindung von geistiger und körperlicher Anstrengung verkörperte. Für die alten Eliten war diese Zuwendung zu den Massen eine Bedrohung ihres Führungsanspruchs. Auch außerhalb Frankreichs wurde die Erbauung des höchsten Turms der Welt rezipiert. Besonders Deutschland, das nach dem Deutsch-Französischen Krieg in einem gespannten Verhältnis zu Frankreich stand, kommentierte die Weltausstellung und den Eiffelturm implizit politisch gefärbt. Dabei wird die ambivalente Beurteilungen zwischen bewundernder Impression und einem gewissen Unwohlsein zum Tenor der Meinungen. Die Deutsche Rundschau charakterisiert den Eiffelturm emphatisch als Maschinenungeheuer. In der mythischen Parallele zum Babel-Turm schwingen neben der Begeisterung für die Bezwingung der Mächte immer auch die Bedenken mit, diese Mächte herausgefordert zu haben. Auch aus der Sicht des Journalisten Eugen von Jagow, der sogar den ätherischen Charakter der transparenten Architektur hervorhebt und sich einer gewissen Faszination nicht entziehen kann, geißelt ebendiese Form als unarchitektonisch, verwirrend und lässt sie letztlich an sich selbst scheitert. Die schiere Höhe, die den Kölner Dom fast um das Doppelte überrage, imponiere ihm, an künstlerischer Größe und Erhabenheit sei ihm das alte Kirchengebäude aber bei weitem überlegen. Seine Schlussfolgerung ist, dass es sich bei dem Turm mehr um einen Triumph der Wissenschaft als der Kunst handelt. In einer insgesamt kunstfeindlichen Zeit sei er das Symbol der Moderne. Gerade diese Gegenüberstellung von quantitativer und qualitativer Größe entspricht der vorherrschenden Argumentationsstrategie, den elitär verstandenen Kunstbegriff von der Massenkultur abzugrenzen. Die Interpretation als Sieg der Massen gegenüber dem Individuum wird zum Teil der Auseinandersetzung mit der Demokratie, die seit Alexis de Tocqueville als Amerikakritik topischen Charakter erhielt. Rezeption in der Kunst. Nach seiner Eröffnung gehörten die Dichter zu den ersten, die den Eiffelturm beschrieben. Der Schriftsteller Blaise Cendrars besang den „Turm, Turm der Welt, Turm in Bewegung“. Der chilenische Lyriker Vicente Huidobro beschrieb ihn als „Himmelsgitarre“ („Guitarra del cielo“) und brachte 1918 einen Gedichtband mit dem Titel "Tour Eiffel" heraus. Der auch als Regisseur tätige Schriftsteller Jean Cocteau veröffentlichte das Libretto "Les mariés de la tour Eiffel" (deutsch: Hochzeit auf dem Eiffelturm), das am 18. Juni 1921 als Ballett im Théâtre des Champs-Élysées in Paris aufgeführt wurde. Die absurde, surrealistische Geschichte eines Hochzeitspaares spielt auf dem Eiffelturm, der inmitten der namibischen Wüste steht. Der Lyriker Guillaume Apollinaire verarbeitete seine Erlebnisse des Ersten Weltkrieges mit einem Gedicht in dem Buch "Calligrammes" in Form des Eiffelturms. Die mit einem Willkommensgruß an die Welt beginnende Poesie endet mit gigantischen, französischen Beschimpfungen der Deutschen. Auch in der Musik wird der Eiffelturm immer wieder verarbeitet. Unter anderem besangen ihn Michel Emer in "Paris, mais c’est la Tour Eiffel", Charles Trenet in "Y’a d’la joie, la Tour Eiffel part en balade", Léo Ferré in "Paris portait sa grande croix", Jacques Dutronc in "La Tour Eiffel a froid aux pieds" und Pascal Obispo in "Je suis tombé pour elle". Der estnische Komponist Arvo Pärt schuf 2009 die ein Jahr später in Paris uraufgeführte symphonische Dichtung "Silhouette – Hommage à Gustave Eiffel" für Streichorchester und Schlagzeug, die die Architektur des Turms in der Struktur der Komposition nachbildet und zugleich durch die Gestaltung der Luftbewegungen, die durch das Gestänge fließen, poetisiert. Delaunays "La Tour Eiffel" aus den 1920er-Jahren Mit dem Eiffelturm setzte sich auch die Malerei intensiv auseinander. Er wurde in fast allen Stilen seit Ende des 19. Jahrhunderts von einer Vielzahl von international bedeutenden bildenden Künstlern gemalt. Das höchste Pariser Wahrzeichen trug gerade durch seinen technischen Charakter zu einer Debatte in der Kunst bei, welche ganz neue Ansätze für architektonische und räumliche Ausdrucksformen fand. Bereits 1888 – also noch vor seiner Fertigstellung – malte Georges Seurat ein Bild mit dem Werktitel "La Tour Eiffel", das heute in den Fine Arts Museums of San Francisco ausgestellt ist. Zu den berühmtesten Malern, die den Eiffelturm malten, zählen unter anderem Henri Rousseau, Paul Signac, Pierre Bonnard, Maurice Utrillo, Marcel Gromaire, Édouard Vuillard. Raoul Dufy malte 1890 "Seine Grenell", das Bild befindet sich im Privatbesitz. Marc Chagall malte 1913 "Paris Through the Window", wo er das Pariser Stadtbild mit dem beherrschenden Eiffelturm und daneben einen Fallschirmspringer darstellte. Chagall griff 1954 das Motiv des Turmes ein weiteres Mal in "Champ-de-Mars" auf. Robert Delaunay erstellte sogar eine ganze Bilderserie, in der er den Turm aus vielen Perspektiven kubistisch darstellte. Zu den bekanntesten zählt "The Red Tower" aus dem Jahr 1911, das sich im Solomon R. Guggenheim Museum befindet, und " La ville de Paris" von 1910/12, das im Centre Georges Pompidou hängt. Delaunay nutzte die Architektur und Lichtwirkung des Bauwerks, um den Zusammenklang und das Wechselspiel der Farben zu untersuchen. Auch zeitgenössische Maler greifen den Eiffelturm als Motiv immer wieder auf. Rezeption im Film. Aufgrund seiner Bedeutung und Bekanntheit zieht der Eiffelturm immer wieder in Filme ein. In fast allen Filmen mit dem Handlungsort Paris ist er Erkennungsmerkmal der städtischen Skyline. Darüber hinaus war er auch oft selbst Schauplatz von filmischen Handlungen. Die Filmgenres, in denen er thematisiert wurde, reichen vom reinen Dokumentarfilm bis hin zu Kriminalfilmen, romantischen Liebeskomödien und zu Action-, Science-Fiction- und Katastrophenfilmen. Die vielfältige Einbeziehung des Eiffelturms erklärt sich zum einen aus seinem starken Symbolcharakter, zum anderen deswegen, weil Turm und Kino im selben zeitlichen Abschnitt (→ Filmgeschichte) entstanden. Dokumentarfilm der Gebrüder Lumière (1897) Zu den ersten Filmen überhaupt gehört das dokumentarisch ausgeführte "Panorama pendant l’ascension de la tour Eiffel" der Brüder Lumière aus dem Jahr 1897, in dem die Turmauffahrt gezeigt wird, sowie "Images de l’exposition 1900" von Georges Méliès. Der erste Science-Fiction-Stummfilm, bei dem der Eiffelturm als Objekt einbezogen wurde, war "Paris qui dort" (deutsch: "Paris im Schlaf") von Regisseur René Clair aus dem Jahr 1925. Er wird aufgrund seiner irrealen Atmosphäre den Avantgardefilmen zugeordnet. Dabei erwacht ein Mann auf dem Eiffelturm nach einem Anschlag eines verrückten Wissenschaftlers, findet Paris als Geisterstadt vor und sucht mit wenigen ebenfalls verschont gebliebenen Menschen nach einem Ausweg. 1928 thematisierte Clair in "La Tour" die Architektur und Strenge der Konstruktion des Eiffelturms. In der Liebeskomödie "Ninotschka" von 1939 verfolgt Graf Leon, gespielt von Melvyn Douglas, die ihm noch unbekannte Ninotschka, dargestellt von Greta Garbo, auf einem Spaziergang zum Eiffelturm, den sie besichtigen will. Dort treffen sich die beiden, und Leon erklärt Ninotschka detailreich die Vorzüge der Eisenkonstruktion. Im Thriller "Der Mann vom Eiffelturm" aus dem Jahr 1949 ist der Turm zentraler Handlungsort und erscheint im Filmtitel und im Plakat. Der Regisseur Burgess Meredith spielt in seinem Film selbst mit. Gegen Ende des Films kommt es zu einer spektakulären Kletterpartie auf den Eisenstreben des Wahrzeichens. Kurze Einblendungen des Eiffelturms – meist um auf die Stadt Paris hinzuweisen – gab es beispielsweise in den Filmen "Casablanca", "Die Brücke am Kwai", "Das Glück kam über Nacht " oder in "Sie küßten und sie schlugen ihn". Im Truffaut-Krimi "Auf Liebe und Tod" schlägt Fanny Ardant als Barbara Becker mit einer eisernen Eiffelturm-Nachbildung einen Priester nieder. Die Szene wird auch im ursprünglichen Filmplakat thematisiert. In der Agentenfilmparodie "Der große Blonde mit dem schwarzen Schuh" wird die Spitze des Eiffelturms als Agentenhauptquartier benutzt. Im Agentenfilm "James Bond 007 – Im Angesicht des Todes" von 1985 findet eine spektakuläre Verfolgung statt, die mit einem Fallschirmsprung vom Bauwerk endet. In Endzeitfilmen wurde der Eiffelturm häufig zur Steigerung der emotionalen Wirkung zerstört oder als Ruine dargestellt. Dies geschieht beispielsweise in der H.-G.-Wells-Literaturverfilmung "Kampf der Welten" von 1953, im US-amerikanischen Film "Independence Day" von 1996, in der Science-Fiction-Persiflage "Mars Attacks!" von 1996, in "Alien – Die Wiedergeburt" von 1997 und im Katastrophenfilm "Armageddon – Das jüngste Gericht" von 1998. Im Actionfilm "G.I. Joe – Geheimauftrag Cobra" wird der Eiffelturm zum Angriffsziel eines kriminellen Sprengkommandos. Der Eiffelturm und seine Geschichte waren auch mehrmals Gegenstand von Dokufiktion-Verfilmungen (→ Filme über den Eiffelturm). Bedeutung und Würdigung als nationales Symbol. Hohe Türme haben nicht nur aufgrund der biblischen Vorlage des Turmbaus zu Babel einen kulturellen Hintergrund, sondern gelten auch als Sinnbild für die Überwindung der Schwerkraft, als Zeichen der Herrschaft über den Raum und damit auch oft über die Menschen im Umkreis. In diesem Kontext ist der ursprüngliche Widerstand gegen den Eiffelturm als ein besonders herausragendes Beispiel der beherrschenden Macht von technischen Türmen wie Hochöfen, Fördertürme, Gasometer, Silos oder Industrieschornsteine, die im 19. Jahrhundert entstanden, zu sehen. Andererseits erfüllte Eiffel mit der Errichtung seines Turms anscheinend einen Menschheitstraum, nachdem rund 100 Jahre zuvor von Montgolfière bereits der Traum vom Fliegen verwirklicht worden war. a> im Jahr seiner Fertigstellung 1889 als Zeichen nationaler Verbundenheit Der Eiffelturm hatte über die architektonische Leistung hinaus eine starke Bedeutung für das französische Nationalbewusstsein. Das Bauwerk präsentiert sich als historische Erinnerung an die Französische Revolution und unterstreicht die aufstrebende Wirtschaftsmacht Frankreichs im ausgehenden 19. Jahrhundert. Der Stolz auf diese Vergangenheit und die Emanzipation von der Monarchie prägte den Geist der Weltausstellungen, die 1867 und 1878 in Paris stattgefunden hatten. Dieses offene Bekenntnis zu demokratischen Idealen und damit zur antimonarchischen Haltung stand der weltweiten Akzeptanz des Ausstellungsprojektes im Wege, besonders bei monarchisch geprägten Staaten. Im historischen Kontext hat der Eiffelturm damit die Funktion eines Revolutionsdenkmals. Eugène-Melchior de Vogue sah ihn gar als neue Kirche der innerweltlichen Vollendung. Damit verkörpert der Eiffelturm den Triumph der Französischen Revolution, die Dritte Französische Republik und das Industrielle Zeitalter. Für die breite Öffentlichkeit hatte der Turm große Anziehungskraft; vor allem die einfachen Leute aus den Provinzen Frankreichs wollten sich das Wunderwerk unbedingt ansehen. Der Eiffelturm war aber auch ein Treffpunkt für die unterschiedlichen gesellschaftlichen Schichten, die zu jener Zeit im öffentlichen Leben strikt getrennt waren. Aus diesem Grund trug das Bauwerk dazu bei, dass ganz in der republikanischen Gesinnung die Trennungslinie zwischen den Klassen verwischt wurde. Der Eiffelturm auf Briefmarken und Zahlungsmitteln. a>-Banknote, die bis zur Einführung des Euro in Umlauf war Auf der 200-Franc-Banknote war der Eiffelturm bis zur Euroeinführung auf der Vorder- und Rückseite als stilisierte Silhouette zu sehen. Während auf der Vorderseite das Porträt Gustave Eiffels zu sehen war, war auf der Rückseite zusätzlich zur Silhouette ein Blick durch die Turmbasis der vier Pfeiler dargestellt. Zum 100-jährigen Bestehen des Eiffelturms brachte 1989 die Banque de France in einer Auflage von 800.000 Stück eine 5-Franc-Gedenkmünze aus Silber heraus. Anlässlich des 125. Jahrestages der Einweihung des Eiffelturms erscheint in Frankreich am 3. März 2014 eine 50-Euro-Goldmünze in einer limitierten Auflage von 1000 Exemplaren. Die Münze zeigt auf ihrer Vorderseite das Logo der UNESCO und einen Stadtplanausschnitt, auf welchem sich der Eiffelturm befindet. Die Rückseite thematisiert die Stahlstrebenkonstruktion durch eine stilisierte und detaillierte Ansicht. Die französische Post hielt sich zu Beginn mit einer Würdigung des Bauwerks auf einer Briefmarke zurück. Das erste Postwertzeichen Frankreichs mit dem Eiffelturm als Hauptmotiv erschien im Jahr des 40-jährigen Bestehens am 5. Mai 1939 (Yvert et Tellier Nr. 429) mit einer Auflage von 1.140.000 Stück. Der Turm wird auf der roséfarbenen Briefmarke mit Frankatur 90c+50c im 45-Grad-Winkel dargestellt. Allerdings erschien bereits 1936 eine Serie mit einem Postflugzeug über dem Himmel von Paris, in der man zur Silhouette der Stadt dazugehörig im Hintergrund den Eiffelturm sah. Zum Hauptmotiv wurde er wieder 1989 zu seinem 100-jährigen Bestehen sowie 2009 und 2010. Zu einigen Kongressen und Veranstaltungen, die in Paris stattfanden, wurde der Eiffelturm in den vergangenen Jahrzehnten immer wieder als Symbol auf Briefmarken verwendet. Beispielsweise kam zu den Weltmeisterschaften im Gewichtheben 2011 in Paris eine große Blockausgabe heraus, in welcher der Eiffelturm grafisch als Gewichtheber dargestellt eine Hantel hebt, dessen beide Hantelscheiben je eine runde Briefmarke zum Nennwert 60 bzw. 89 Cent haben. Insgesamt trugen bis 2011 weit über 30 französische Briefmarken den Eiffelturm als Motiv. Werbung, Vermarktung und Kommerzialisierung. Reproduktion eines Papierbausatzes von 1889 Die massenweise Herstellung von Eiffelturm-Souvenirs setzte bereits mit Eröffnung des Wahrzeichens ein. Bereits damals kannte die Formenvielfalt kaum Grenzen. Dies wurde auch von der heutigen Betreibergesellschaft fortgesetzt. Neben Bastelbögen, Anhängern, Kerzen, Schneekugeln, Geschirr oder Lampenfüßen werden zahllose Turmmodelle aus unterschiedlichen Materialien feilgeboten. Im Eiffelturm gibt es insgesamt acht offizielle Souvenirläden auf den ersten beiden Ebenen verteilt und im Erdgeschoss am Turmfuß; sie führen über 700 verschiedene Produkte. Nach Angaben des Betreibers kaufen jährlich über eine Million Besucher in den Läden ein. Die Nachfrage an Eiffelturm-Reproduktionen wird auch von zahlreichen fliegenden Schwarzmarkthändlern rund um den Turm zu befriedigen versucht. Nachdem bereits in den 1920er- und 1930er-Jahren die Automarke Citroën durch eine auffällige Leuchtreklame am Eiffelturm auf sich aufmerksam gemacht hatte, nutzten viele namhafte französische Marken das berühmte Wahrzeichen für ihre Werbezwecke, darunter Air France, La Samaritaine, Yves Saint Laurent, Jean Paul Gaultier, Nina Ricci, Alain Afflelou oder Campari. Der Eiffelturm bediente schon früh die universelle Idee vom materiellen und sozialen Fortschritt und erfülle damit gleichsam einen „julesvernesken“ Traum über die Natur im Sinne des Aufklärungsjahrhunderts, so Architekturhistoriker Bertrand Lemoine. Das erkläre den Erfolg als Werbeträger, der auch für Modernität und Ehrgeiz stehe. Dabei scheint die Wirkungskraft des Eiffelturms bis heute ungebrochen, denn auch zeitgenössische Werbung nimmt nach wie vor Bezug auf das Bauwerk, wie in den 2000er-Jahren in einem Werbespot von IBM. Viele Werbemotive mit dem Eiffelturm haben die Gemeinsamkeit, dass sie entweder auf einen außergewöhnlichen Erfolg hinweisen oder die Stadt Paris beziehungsweise das Land Frankreich hervorgehoben wird. Sowohl für den Erfolg im Allgemeinen wie für Frankreich steht der Eiffelturm als Sinnbild. Beispielsweise zeigte 1952 die Air France in einem Werbeplakat alle bedeutsamen Pariser Bauten vereint in den dominierenden Umrissen des Eiffelturms, dahinter ist eine stilisierte Landmasse zu sehen, die für das gesamte Land steht. Das vom französischen Grafiker Bernard Villemot (1911–1989) entworfene Plakat ist inzwischen zu einem Klassiker geworden und wird heute noch als Reproduktion angeboten. Verschiedene Spielwarenhersteller wie MB/Hasbro oder Ravensburger haben von der berühmten Pariser Sehenswürdigkeit ein 3D-Puzzle herausgebracht. Lego stellte aus 3428 Teilen einen Bausatz des Eiffelturms im Maßstab 1:300 her. Das aufgebaute Modell aus dem Jahr 2007 misst eine Höhe von 1,08 Metern, und ist mittlerweile eine begehrte Rarität. Von einer koreanischen Firma wird der Turm auch als Modellbausatz im Maßstab 1:160 angeboten. Das rund zwei Meter hohe Bronzemodell wiegt etwa 25 Kilogramm. Darüber hinaus gibt es von verschiedenen anderen Herstellern auch Modelle aus Papier, Holz oder Streichhölzern aber auch Poster, Bilder und Wandtattoos. Bereits die Olympischen Sommerspiele 1900 in Paris warben im offiziellen Plakat mit dem Eiffelturm zur Veranstaltung. Der 1969 gegründete französische Fußballverein Paris FC führt als Emblem den Eiffelturm; er wurde im Laufe der Jahre immer wieder abgewandelt. Das aktuelle Logo zeigt den Turm in stilisierten Pinselstrichen. Auch der 1970 gegründete Fußballverein Paris Saint-Germain führt im Emblem den Eiffelturm. In den Niederlanden hat sich sogar eine in der 1. Basketballliga spielende Mannschaft nach dem Eiffelturm benannt. Die in ’s-Hertogenbosch ansässigen "EiffelTowers Den Bosch" tragen ebenfalls den Pariser Turm in ihrem Logo. Eiffels Nachlass. Seite aus dem Nachdruck von Eiffels "La tour de trois cents mètres" Zu den umfassendsten technischen Darstellungen des Eiffelturms gehört die am 1. Juni 1900 erschienene Publikation von Gustave Eiffel selbst. Der aufwändig auf Velinpapier gedruckte Großfolio-Band in zwei Ausgaben mit dem Titel "La tour de trois cents mètres" (deutsch: "Der 300-Meter-Turm") ist in acht Teile gegliedert und präsentiert das Bauwerk in rund 4300 Plänen, Zeichnungen und doppelseitig erstellten Tafeln sowie zeitgenössischen Fotografien. Die Pläne sind generell im Maßstab 1:200 abgedruckt, kleinere Details werden im Maßstab 1:50, 1:20 oder 1:10 wiedergegeben. Alle Bauteile sind mit Größenangaben versehen und der Text behandelt präzise die Ursprünge, das Bauprinzip, die Kosten, die Ausführung der Arbeiten an den Fundamenten und der Metallkonstruktion sowie die Erneuerungsarbeiten für die Weltausstellung 1900. Sogar dem Aufstellen der Gerüste widmet Eiffel ein eigenes Kapitel. Diese sehr umfassende Darstellung spiegelt den enzyklopädischen Geist in der Tradition der Aufklärung wider. Neben den technisch-ingenieurwissenschaftlichen Aspekten galt es auch als Würdigung an alle Mitarbeiter. Alle 326 Ingenieure, Vorarbeiter und Arbeiter, die an Entwurf und der Erbauung des Eiffelturms beteiligt waren, werden am Anfang des Buches namentlich erwähnt. Gleichzeitig diente das monumentale Buch nicht nur als Bestandsaufnahme, sondern auch als Bilanz, Geschenk und Werbemittel, in welchem Eiffel seine Leistung für die Nachwelt erhalten wollte. Für den Erbauer selbst symbolisierte der Turm das „Jahrhundert der Industrie und der Wissenschaft“, das seiner Ansicht nach besonders in der nachrevolutionären Zeit Frankreichs begann. Aus diesem Grund ließ er zur Erinnerung die Namen von 72 Wissenschaftlern an das Tragwerk des Turms anbringen. Gleichzeitig nutze er alle bis dahin verfügbaren technischen Mittel wie beispielsweise die elektrische Beleuchtung und die Aufzugtechnik, um im Bauwerk die industriell-wissenschaftlichen Errungenschaften zu vereinen. Frequenzen und Programme. Der Eiffelturm ist der höchste Fernsehturm Frankreichs und gleichzeitig wichtigster Sender für terrestrische Übertragung in der Region Paris, vor allem für UKW-Rundfunkprogramme sowie digitales Fernsehen. Der Turm ist Träger für über 120 Sendeantennen. Die Übertragungsinfrastruktur wird von TDF betrieben. Derzeit (2013) strahlt der Eiffelturm über 30 Radio- und rund 40 Fernsehprogramme aus. Gustave Eiffels Publikationen. Deckblatt der ersten offiziellen Veröffentlichung zum Eiffelturm Entropiekodierung. Die Entropiekodierung ist eine Methode zur verlustfreien Datenkompression, die jedem einzelnen Zeichen eines Textes eine unterschiedlich lange Folge von Bits zuordnet. Typische Vertreter sind die Huffman-Kodierung und die arithmetische Kodierung. Im Gegensatz dazu stehen Stringersatzverfahren, die eine Folge von Zeichen des Originaltextes durch eine Folge von Zeichen eines anderen Alphabets ersetzen. Da eine bestimmte Mindestanzahl von Bits notwendig ist, um alle Zeichen voneinander zu unterscheiden, kann die Anzahl der Bits, die den Zeichen zugeordnet werden, nicht unbegrenzt klein werden. Die optimale Anzahl von Bits, die einem Zeichen mit einer gegebenen Wahrscheinlichkeit zugeordnet werden sollte, wird durch die Entropie bestimmt. Entropiekodierer werden häufig mit anderen Kodierern kombiniert. Dabei dienen vorgeschaltete Verfahren dazu, die Entropie der Daten zu verringern. Häufig sind dies Prädiktionsverfahren, Verfahren wie die Burrows-Wheeler-Transformation, aber oft auch andere Komprimierer. LHarc zum Beispiel verwendet einen LZ-Kodierer und gibt die von diesem Kodierer ausgegebenen Zeichen an einen Huffman-Kodierer weiter. Auch ZIP und Bzip besitzen als letzte Stufe einen Entropiekodierer. Kodierung. Die Entropiekodierung bestimmt zunächst die Häufigkeit von Symbolen (Zeichen). Jedes Symbol wird durch ein bestimmtes Bitmuster dargestellt. Dabei sollen häufige Symbole durch kurze Bitmuster dargestellt werden, um die Gesamtzahl der benötigten Bits zu minimieren. Mathematische Algorithmen zur Abschätzung der optimalen Länge des Codes eines jeden Symbols führen meist zu nicht ganzzahligen Ergebnissen. Bei der Anwendung müssen die Längen auf ganzzahlige Werte gerundet werden, wodurch man einen Teil der Verdichtung verliert. Mit ganzen Bits. Die Shannon-Fano-Kodierung schlägt eine Möglichkeit vor, die die Anzahl der Bits auf ganze Zahlen rundet. Dieser Algorithmus liefert aber in bestimmten Fällen nicht die optimale Lösung. Deshalb wurde der Huffman-Code entwickelt, der beweisbar immer eine der optimalen Lösungen mit ganzen Bits liefert. Beide Algorithmen erzeugen einen präfixfreien Code variabler Länge, indem ein binärer Baum konstruiert wird. In diesem Baum stehen die „Blätter“ für die zu kodierenden Symbole und die inneren Knoten für die abzulegenden Bits. Neben diesen Verfahren, die individuelle Tabellen speziell angepasst auf die zu kodierenden Daten erstellen, gibt es auch Varianten, die feste Codetabellen verwenden. Der Golomb-Code kann zum Beispiel bei Daten verwendet werden, bei denen die Häufigkeitsverteilung bestimmten Regeln unterliegt. Diese Codes haben Parameter, um ihn auf die exakten Parameter der Verteilung der Häufigkeiten anzupassen. Verbesserung. Diese Verfahren treffen aber die von der Entropie vorgeschriebene Anzahl von Bits nur in Ausnahmefällen. Das führt zu einer nicht optimalen Kompression. Ein Beispiel: Eine Zeichenkette mit nur 2 verschiedenen Symbolen soll komprimiert werden. Das eine Zeichen hat eine Wahrscheinlichkeit von formula_1, das andere von formula_2. Die Verfahren von Shannon und Huffman führen dazu, dass beide Zeichen mit je einem Bit abgespeichert werden. Das führt zu einer Ausgabe, die so viele Bits enthält wie die Eingabe an Zeichen. Ein optimaler Entropie-Kodierer würde aber nur formula_3 Bits für das Zeichen A verwenden und dafür formula_4 Bits für B. Das führt zu einer Ausgabe, die nur formula_5 Bits pro Zeichen enthält (maximale Entropie). Mit einem arithmetischen Kodierer kann man sich der optimalen Codierung weiter annähern. Dieses Verfahren sorgt implizit für eine gleichmäßigere Verteilung der Bits auf die zu codierenden Zeichen, ohne dass explizit für jedes Zeichen ein individuelles Codezeichen konstruiert wird. Aber auch mit diesem Verfahren kann im Allgemeinen nicht die maximale Entropie erreicht werden. Dies liegt daran, dass es weiterhin einen „Verschnitt“ gibt, der darauf beruht, dass nur ganzzahlige Bitwerte tatsächlich auftreten können, während die Entropie meist Bruchteile von Bits erfordert. Im oben genannten Beispiel erreicht auch der Arithmetische Codierer nur eine Codelänge von einem Bit. Der Verschnitt verschwindet allerdings im Allgemeinen mit zunehmender Länge der zu codierenden Daten, so dass im Grenzwert die Entropie maximiert werden kann. Modell. Um die Anzahl der Bits für jedes Zeichen festlegen zu können, muss man zu jedem Zeitpunkt des Kodierungsprozesses möglichst genaue Angaben über die Wahrscheinlichkeit der einzelnen Zeichen machen. Diese Aufgabe hat das Modell. Je besser das Modell die Wahrscheinlichkeiten vorhersagt, desto besser die Kompression. Das Modell muss beim Komprimieren und Dekomprimieren genau die gleichen Werte liefern. Im Laufe der Zeit wurden verschiedene Modelle entwickelt. Statisches Modell. Beim Statischen Modell wird vor der Kodierung der Zeichenfolge eine Statistik über die gesamte Folge erstellt. Die dabei gewonnenen Wahrscheinlichkeiten werden zur Kodierung der gesamten Zeichenfolge verwendet. Dynamisches Modell. Normalerweise arbeitet man bei dynamischen Modellen nicht mit Wahrscheinlichkeiten, sondern mit den Häufigkeiten der Zeichen. Dynamische Modelle lassen auch noch andere Variationsmöglichkeiten zu. Man kann Statistik-Daten altern, indem man von Zeit zu Zeit die Häufigkeiten der Zeichen halbiert. Damit verringert man den Einfluss von weit zurückliegenden Zeichen. Level des Modells. Das Level eines Modells bezieht sich darauf, wie viele Zeichen der Historie vom Modell für die Berechnung der Wahrscheinlichkeiten herangezogen werden. Ein Level-0-Modell betrachtet keine Historie und gibt die Wahrscheinlichkeiten global an. Ein Level-1-Modell dagegen betrachtet das Vorgängerzeichen und trifft in Abhängigkeit von diesem Zeichen seine Aussage über die Wahrscheinlichkeit. (Soll deutscher Text kodiert werden, ist zum Beispiel die Wahrscheinlichkeit des Buchstabens „U“ nach einem „Q“ viel höher, oder die Wahrscheinlichkeit eines Großbuchstabens in der Mitte eines Wortes viel kleiner als nach einem Leerzeichen). Das Level kann theoretisch beliebig hoch sein, erfordert dann aber enormen Speicherplatz und große Datenmengen, um aussagekräftige Statistiken zu erhalten. PPM-Algorithmen verwenden einen arithmetischen Kodierer mit einem dynamischen Modell des Levels 5. Engerling. Als Engerling (aus mittel- bzw. althochdeutsch "enger(l)inc" bzw. "engiring" = kleiner Wurm, Made) bezeichnet man die Käferlarven der Überfamilie Scarabaeoidea (Blatthornkäfer). Dazu gehören als bekannteste Käferarten nicht nur die Mai- und Junikäfer, sondern u.a. auch die Gartenlaubkäfer, Rosenkäfer und Nashornkäfer. Nützlinge, gesetzlicher Schutz. Während Mai-, Juni- und Gartenlaubkäfer als Schädlinge gelten, sind Rosenkäfer sehr wertvoll in Komposthaufen und darüber hinaus neben dem Nashornkäfer durch Aufnahme in die Bundesartenschutzverordnung eine „besonders geschützte“ Tierart. Nach §44 Bundesnaturschutzgesetz ist es danach verboten, „sie zu fangen, zu verletzen oder zu töten oder ihre Entwicklungsformen aus der Natur zu entnehmen, zu beschädigen oder zu zerstören“. Außerdem dürfen ihre „Fortpflanzungs- oder Ruhestätten“ nicht beschädigt oder zerstört werden; es ist außerdem verboten, sie zu kaufen, zu verkaufen oder in Besitz zu nehmen. Unterscheidung. Mai- und Junikäfer-Larven sind vorn und hinten etwa gleich dick, am Kopf haben sie sehr lange, kräftige Beine mit deutlich ausgebildeten „Knicken“. Sie erreichen eine Länge von 5–7 cm und sind im Kompost praktisch nie zu finden. Maikäfer-Engerlinge schlüpfen nach vier bis sechs Wochen aus dem Ei und werden fünf bis sechs Zentimeter lang. Der Körper ist eher weißlich, wohingegen der Kopf braun ist. Sie leben je nach Art zwischen zwei und vier Jahren in der Erde. Zunächst ernähren sie sich von Humus, dann von zarten Gras- und Krautwurzeln (z. B. Löwenzahnwurzeln) und später auch von Baumwurzeln. Der Wurzelfraß kann im Extremfall sogar zum Absterben von ausgewachsenen Buchen führen. Durch die Ernährung von lebenden Pflanzenwurzeln ist Kompost ein völlig ungeeigneter Lebensraum für diese Art. Bei günstiger Sommerwitterung verpuppt sich der Maikäfer-Engerling und wird nach vier bis sechs Wochen zum Käfer. In dieser Form überwintert er in einer Erdhöhle und gräbt sich, je nach Witterung, im April bis Mai des folgenden Jahres aus dem Erdboden. Rosenkäfer-Larven (Cetonia aurata) sind hinten etwas dicker als vorn, haben nur kleine Stummelbeinchen, kommen typischerweise im Kompost vor und werden zu unrecht oft aus Angst vor Pflanzenschäden getötet. Sie ernähren sich von verrottendem Holz und Pflanzenmaterial und sind durch die damit einhergehende beschleunigende Zersetzung sehr nützlich und wertvoll im Kompost. Die Larven des Nashornkäfers (Oryctes nasicornis) sind sehr groß. Sie werden etwa 7 cm groß, oft sogar noch größer. Epaulette. Epauletten und Achselstücke Deutschland Kaiserzeit Eine Epaulette (frz. "épaulette", zu "épaule" „Schulter“) ist ein Schulterstück einer Uniform. Im Deutschen bezeichnet man so üblicherweise eine spezielle Form, die sich von der einfachen „Schulterklappe“ unterscheidet. Diese Epauletten in engeren Sinn bestehen aus den "Halbmonden", dem "Feld", dem "Schieber" sowie meist auch "Raupen" oder "Fransen". Gehalten werden sie durch je einen Schulterknopf und je eine Passante, das ist ein quergesetzter Streifen aus farbigem Tuch oder Tresse auf der Schulter, durch die die Epaulette geschoben wird. Geschichte. Ursprünglich waren die Epauletten ein Schulterschutz gegen Säbelhiebe, verhinderten jedoch auch ein Abrutschen der Schulterriemen. Im 19. Jahrhundert dienten Epauletten in vielen Staaten (Ausnahme war Österreich) als Rangabzeichen der Offiziere, wurden aber auch Bestandteil der Gala-Uniform mancher höheren Zivilbeamten. Die Generale trugen in den meisten Armeen volle Epauletten mit dicken Raupen (starre Kantillen), die Stabsoffiziere mit dünnen Fransen (lose Kantillen). Die Konterepauletten der Subalternoffiziere hatten keine Fransen. Im französischen Heer trugen auch die Mannschaften Epauletten aus Wolle (einzelne Truppenteile bis heute); im deutschen Heer trugen nur die Mannschaften der Ulanen den Offiziersepauletten ähnliche Epauletten. Die Offiziere der deutschen und russischen Armee trugen im Feld Schulterstücke. Auch bei den Offizieren der deutschen Marine wurden Epauletten zur Großen Uniform bis 1939 getragen. Gegenwart. In Frankreich tragen die Mannschaften der Fremdenlegion Stoffepauletten. Heute werden Epauletten ebenfalls in der Mode zur Betonung der Schulter verwendet. Sonstiges. Im Schach gibt es das Epaulettenmatt. Hier stehen an beiden „Schulterseiten“ des Königs eigene Figuren und versperren Fluchtfelder. Eulersche Zahl. benannt nach dem Schweizer Mathematiker Leonhard Euler, ist eine irrationale und sogar transzendente reelle Zahl. Sie ist die Basis des natürlichen Logarithmus und der (natürlichen) Exponentialfunktion. Diese (spezielle) Exponentialfunktion wird aufgrund dieser Beziehung zur Zahl formula_1 häufig kurz formula_1-Funktion genannt. Die eulersche Zahl spielt in der gesamten Analysis und allen damit verbundenen Teilgebieten der Mathematik, besonders in der Differential- und Integralrechnung, eine zentrale Rolle. Sie gehört zu den wichtigsten Konstanten der Mathematik. Definition. Für formula_6 ist dabei formula_7 die Fakultät von formula_8, also im Falle formula_9 das Produkt formula_10 der natürlichen Zahlen von formula_11 bis formula_8, während formula_13 definiert ist. gilt, also nichts weiter ist als der Funktionswert der Exponentialfunktion (oder auch „formula_1-Funktion“) an der Stelle formula_11. Die obige Reihendarstellung von formula_1 ergibt sich in diesem Zusammenhang dadurch, dass man die Taylorreihe der Exponentialfunktion um die Entwicklungsstelle formula_22 an der Stelle formula_11 auswertet. Herkunft des Symbols "e". Als frühestes Dokument, das die Verwendung des Buchstabens formula_1 für diese Zahl durch Leonhard Euler aufweist, gilt ein Brief Eulers an Christian Goldbach vom 25. November 1731. Als nächste gesicherte Quelle für die Verwendung dieses Buchstabens gilt Eulers Werk "Mechanica sive motus scientia analytice exposita, II" aus dem Jahre 1736. In der im Jahre 1748 erschienenen "Introductio in Analysin Infinitorum" greift Euler diese Bezeichnung wieder auf. Es gibt keine Hinweise darauf, dass diese Wahl des Buchstabens formula_1 in Anlehnung an seinen Namen geschah. Unklar ist auch, ob er dies in Anlehnung an die Exponentialfunktion oder aus praktischen Erwägungen der Abgrenzung zu den viel benutzten Buchstaben "a", "b", "c" oder "d" machte. Obwohl auch andere Bezeichnungen in Gebrauch waren, etwa "c" in d’Alemberts "Histoire de l’Académie", hat sich formula_1 durchgesetzt. Eigenschaften. Die eulersche Zahl formula_1 ist eine transzendente (Beweis nach Charles Hermite, 1873) und damit irrationale Zahl (Beweis). Sie lässt sich also (wie auch die Kreiszahl formula_29 nach Ferdinand von Lindemann 1882) weder als Bruch zweier natürlicher Zahlen noch als Lösung einer algebraischen Gleichung darstellen und besitzt folglich eine unendliche nichtperiodische Dezimalbruchentwicklung. Das Irrationalitätsmaß von formula_1 ist 2 und somit so klein wie möglich für eine irrationale Zahl, insbesondere ist formula_1 nicht liouvillesch. Es ist nicht bekannt, ob formula_1 zu irgendeiner Basis normal ist. In der eulerschen Identität werden fundamentale mathematische Konstanten in Zusammenhang gesetzt: Die ganze Zahl 1, die eulersche Zahl formula_1, die imaginäre Einheit formula_35 der komplexen Zahlen und die Kreiszahl formula_29. Die eulersche Zahl formula_1 ist die durch eindeutig bestimmte positive reelle Zahl formula_39. Weitere Darstellungen für die eulersche Zahl. Die eulersche Zahl lässt sich auch durch Eine Verbindung zur Verteilung der Primzahlen wird über die Formeln deutlich, wobei formula_45 die Primzahlfunktion und das Symbol formula_46 das Primorial der Zahl formula_47 bedeutet. Auch eher von exotischem Reiz als von praktischer Bedeutung ist die "catalansche Darstellung" Kettenbruchentwicklungen. Im Zusammenhang mit der Zahl formula_1 gibt es spätestens seit dem Erscheinen von Leonhard Eulers "Introductio in Analysin Infinitorum" im Jahre 1748 eine große Anzahl Kettenbruchentwicklungen für formula_1 und aus formula_1 ableitbare Größen. Zinseszinsrechnung. Das folgende Beispiel macht die Berechnung der eulerschen Zahl nicht nur anschaulicher, sondern es beschreibt auch die Geschichte der Entdeckung der eulerschen Zahl: Ihre ersten Stellen wurden von Jakob Bernoulli bei der Untersuchung der Zinseszinsrechnung gefunden. Den Grenzwert der ersten Formel kann man folgendermaßen deuten: Jemand zahlt am 1. Januar einen Euro auf der Bank ein. Die Bank garantiert ihm eine momentane Verzinsung zu einem Zinssatz formula_65 pro Jahr. Wie groß ist sein Guthaben am 1. Januar des nächsten Jahres, wenn er die Zinsen zu gleichen Bedingungen anlegt? Nach der Zinseszinsformel wird aus dem Startkapital formula_66 nach formula_67 Verzinsungen mit Zinssatz formula_39 das Kapital In diesem Beispiel sind formula_70 und formula_71, wenn der Zinszuschlag jährlich erfolgt, oder formula_72, wenn der Zinszuschlag formula_67-mal im Jahr erfolgt, also bei unterjähriger Verzinsung. Bei halbjährlichem Zuschlag hat man formula_75, also schon etwas mehr. Bei täglicher Verzinsung (formula_77) erhält man Wenn die Verzinsung kontinuierlich in jedem Augenblick erfolgt, wird formula_67 unendlich groß, und man bekommt die oben angegebene erste Formel für formula_1. Charakterisierung der eulerschen Zahl nach Steiner. Im vierzigsten Band von Crelles Journal aus dem Jahre 1850 gibt der Schweizer Mathematiker Jakob Steiner eine Charakterisierung der eulerschen Zahl formula_1, wonach formula_1 als Lösung einer Extremwertaufgabe verstanden werden kann. Steiner zeigte nämlich, dass die Zahl formula_1 charakterisierbar ist als diejenige eindeutig bestimmte positive reelle Zahl, die beim Wurzelziehen mit sich selbst die größte Wurzel liefert. Wörtlich schreibt Steiner: "„Wird jede Zahl durch sich selbst radicirt, so gewährt die Zahl e die allergrößte Wurzel.“" Steiner behandelt hier die Frage, ob für die Funktion das globale Maximum existiert und wie es zu bestimmen ist. Seine Aussage ist, dass es existiert und dass es angenommen wird in und nur in formula_92. Nach der Substitution formula_94 folgt für alle reellen Zahlen formula_95 mittels einfacher Umformungen weiter und schließlich für alle positiven formula_95 durch Radizieren Bruchnäherungen. Hier weicht der erstgenannte Bruch um weniger als 0,0003 Prozent von formula_1 ab. Die optimale Bruchnäherung im dreistelligen Zahlenbereich, also die optimale Bruchnäherung formula_104 mit formula_105, ist Aus den Näherungsbrüchen der zu formula_1 gehörenden Kettenbruchentwicklungen (s. o.) ergeben sich Bruchnäherungen beliebiger Genauigkeit für formula_1 und daraus abgeleitete Größen. Mit diesen findet man sehr effizient beste Bruchnäherungen der eulerschen Zahl in beliebigen Zahlenbereichen. So erhält etwa im fünfstelligen Zahlenbereich die beste Bruchnäherung die zeigt, dass die von Charles Hermite für die eulersche Zahl im fünfstelligen Zahlenbereich gefundene Bruchnäherung noch nicht optimal war. In gleicher Weise hat etwa C. D. Olds gezeigt, dass durch die Näherung für die eulersche Zahl eine weitere Verbesserung, nämlich Berechnung der Nachkommastellen. Zur Berechnung der Nachkommastellen wird meist die Reihendarstellung ausgewertet, die schnell konvergiert. Wichtig bei der Implementierung ist dabei Langzahlarithmetik, damit die Rundungsfehler nicht das Ergebnis verfälschen. Ein Verfahren, das ebenfalls auf dieser Formel beruht, aber ohne aufwendige Implementierung auskommt, ist der Tröpfelalgorithmus zur Berechnung der Nachkommastellen von formula_1, den A. H. J. Sale fand. Etymologie. Etymologie (Wortherkunft'") im Verständnis der modernen Sprachwissenschaft ist die Erklärung der Entstehung eines Worts oder Morphems in einer gegebenen Gestalt und Bedeutung. Als sprachgeschichtlich (diachron) ausgerichtete Erklärungsweise ist sie Bestandteil der historischen Sprachwissenschaft, ihre Ergebnisse werden gesammelt in etymologischen Wörterbüchern und werden als Zusatzinformation auch in Wörterbüchern und Lexika anderer Art aufgenommen. Älteren Epochen diente die Etymologie als Erklärung einer im Wort angelegten „Wahrheit“ (), die mithilfe von Ähnlichkeiten der Wortgestalt zu anderen Wörtern erschlossen und als Aussage über die vom Wort bezeichnete Sache und/oder als eigentliche, ursprüngliche Wortbedeutung verstanden wurde. Als rhetorisches Argument ("argumentum a nomine") dient die Etymologie in Form eines Hinweises oder einer Berufung auf die angenommene Herkunft und ursprüngliche Bedeutung eines Worts traditionell dem Zweck, die eigene Argumentation durch einen objektiven sprachlichen Sachverhalt zu stützen und ihr so besondere Überzeugungskraft zu verleihen. Herkunft der Bezeichnung. "Etymologie" ist ein griechisches Fremdwort und leitet sich von dem altgriechischen Wort "etymología" her, das seinerseits die Bestandteile "étymos" ‚wahr‘ und "lógos" ‚Wort‘ enthält und in einem umfassenderen Sinn so viel wie „Erklärung der einem Wort innewohnenden Wahrheit“ bedeutet. Im Deutschen wird dafür auch das Synonym "Wortherkunft" verwandt. Die Verbindung der Bestandteile ist im Griechischen seit dem 1. Jahrhundert v. Chr. belegt (Dionysios von Halikarnassos), ebenso schon die Entlehnung "etymologus" ins Lateinische (Varro), doch soll nach dem späteren Zeugnis von Diogenes Laertius (VII.7) auch schon Chrysippos im 3. Jahrhundert v. Chr. Werke mit dem Titel ‚"Über etymologische Themen"‘ und ‚"Etymologisches"‘ verfasst haben. Altertum. Bereits im griechischen Altertum gab es philosophische Strömungen, die der „Richtigkeit“ der „Namen“ nachgingen, allerdings wurde für diese Tätigkeit in der Regel nicht der Begriff „Etymologie“ verwendet. So fragte sich bereits Heraklit von Ephesos (um 500 v. Chr.), inwiefern der Name eines Dinges die Wahrheit einer Sache widerspiegele. Also, inwiefern der Name tatsächlich dem durch ihn bezeichneten Gegenstand entspricht. Später beschäftigte sich Platon in seinem Dialog "Kratylos" eingehend mit der Richtigkeit der Namen. In diesem Dialog lässt Platon einen Vertreter der mystisch-religiösen These, laut derer alle Wörter ihre Bedeutung von Natur aus haben und keiner Definition bedürfen, antreten gegen einen Vertreter der eher modernen, im "Kratylos" erstmals bezeugten Gegenthese, laut derer der Zusammenhang von Wörtern und ihrer Bedeutung auf der willkürlichen Festlegung durch den Menschen beruht. (Zur Diskussion um die Sprachrichtigkeit in der Antike vgl. Siebenborn 1976). Die Etymologie war ein Teil der antiken Grammatik und wurde neben den Philosophen vornehmlich von den sogenannten Grammatikern betrieben, allerdings aus heutiger Sicht ohne verlässliche Methodik, so dass die auf bloßer Spekulation aufgrund vager Analogien in Klang oder Schriftbild beruhenden Herleitungen einer kritischen Prüfung durch die moderne Sprachwissenschaft meist nicht standgehalten haben. Man spricht daher von Pseudetymologien (auch Pseudo-Etymologien), die sich nicht wesentlich von sogenannten Vulgäretymologien oder Volksetymologien unterscheiden, einem Phänomen, das auch heute noch im außerwissenschaftlichen Bereich eine nicht unerhebliche Rolle spielt und nicht selten sogar argumentative Verwendung findet, z. B. die fälschliche Herleitung von Dichten von "dicht" statt von lateinischem "dictare". Die Etymologie eines Worts wurde in der Antike als so bedeutender Teil der Bedeutungserklärung angesehen, dass sogar Enzyklopädien wie die des spätantiken Grammatikers Isidor von Sevilla den Titel "Etymologiarum sive originum libri" (Etymologien oder Ursprünge [der Wörter], kurz: "Etymologiae") tragen konnten. Auch andere Kulturen, insbesondere solche mit langer Schrifttradition wie Indien und China, haben sich früh mit Etymologie beschäftigt, die ihnen unter anderem ein tieferes Verständnis der überlieferten Texte ermöglichen sollte. Mittelalter. Den Höhepunkt der „wahrheitssuchenden Etymologie“ finden wir bei Isidor von Sevilla Anfang des 7. Jh. n. Chr., also im Frühmittelalter. In seinem Hauptwerk Etymologiae libri viginti gibt er zahlreiche Beispiele von Etymologien, deren Wahrheitsgehalt jedoch im Zweifel steht. Auch Isidor von Sevilla benannte viele Etymologien, um Dinge verständlich zu erklären, die historisch gesehen zu bezweifeln sind. Zum Beispiel: „persona est Exegese, Physiologus“, (der Tiernamen aus der Wortgestalt zu erklären sucht), oder die Legenda aurea, die vor der Vita eines Heiligen zunächst seinem Namen breite Aufmerksamkeit widmet. Auch Petrus Heliae versteht die etymologische Bedeutung von Wörtern als Synonym für einen „Wahrspruch“ an sich (veriloquium): „denn wer etymologisiert, zeigt den wahren, d. h. den ersten Ursprung des Worts an.“ (Übersetzung in: Arens 1969, 39) Gegenwart. Heutzutage ist Etymologie innerhalb der historisch vergleichenden Sprachwissenschaft die Disziplin, welche Entstehung und geschichtliche Veränderung einzelner Wörter aufspürt und in etymologischen Wörterbüchern festhält. Historische Linguistik sucht nach wiederkehrenden Erscheinungen des Sprachwandels und leitet aus ihnen Lautgesetze ab, die es ihrerseits erleichtern, Veränderungen eines Worts im Verlaufe der Geschichte zu beobachten. Zusätzlich zur rein linguistischen Beschäftigung mit Etymologie bringt die sprachgeschichtliche Forschung außerdem Nutzen für das genauere Verständnis von Texten und einzelnen Begriffen. Ein weiteres Anwendungsgebiet besteht in der Übertragung der Ergebnisse auf die Archäologie. Hier können sprachgeschichtliche Verhältnisse Anhaltspunkte für verschiedene archäologische Fragestellungen liefern, so etwa im Fall der Rekonstruktion von frühzeitlichen Wanderungsbewegungen. Auch soziolinguistische Rückschlüsse auf Sozial- und Kulturgeschichte stehen dabei im Blickfeld. Etymologie in Wissenschaft und Gesellschaft. Im Rahmen der Sprachwissenschaft will Etymologie mehr über die einzelnen Phänomene der geschichtlichen Veränderung einer Sprache herausfinden. Aus dem so gewonnenen Wissen soll ein erweitertes Verständnis über die Entwicklungsgeschichte einer Einzelsprache sowie der Umstände des Sprachwandels im Allgemeinen folgen. Das klassische Verständnis der Etymologie und praktische Anwendungen wie oben erwähnt steht dabei zumeist im Hintergrund. In der alltäglichen, nicht-wissenschaftlichen Beschäftigung mit Etymologie hat sich hingegen der normative Charakter der frühen Etymologie mehr oder weniger ausgeprägt erhalten. So wird etwa anhand der Geschichte eines Worts demonstriert, dass eine bestimmte, moderne Verwendungsweise falsch ist, da sie nicht der historischen entspricht bzw. sich nicht an der in der Wortgeschichte offenbar werdenden eigentlichen Wort-"Bedeutung" orientiert. Vertreter einer abgeschwächten Variante dieses Arguments lehnen diese moderne Auffassung nicht grundsätzlich ab, erhoffen sich jedoch aus der Beschäftigung mit der Entwicklungsgeschichte eines Worts neue und weitere, vertiefende Aspekte für ein Verständnis seiner Bedeutung. Hier wird davon ausgegangen, dass diese Aspekte im Lauf der Zeit gleichsam verloren gegangen sind und durch sprachgeschichtliche Untersuchungen wieder bewusst gemacht werden können. Begründet wird dies damit, dass das Denken nur in den Bildern der Wahrnehmung als Abbild der Wirklichkeit erfolgen könne und somit allein schon die Wahrnehmung und in der Folge auch das Denken sowohl vom bewussten wie auch vom unbewussten Inhalt eines Begriffs wie auch dessen Gestalt geprägt sei. Die Etymologie wird hier als Weg gesehen, diese unbewussten Teile wahrnehmbar zu machen und so der Wahrnehmung und dem Denken diese verloren gegangenen Inhalte erneut erschließen zu können. So soll – ganz in der Tradition antiker Denker – ein Beitrag zum Reichtum der Sprache und des Denkens geleistet werden. Unabhängig von der Frage, ob die jeweils angeführte wortgeschichtliche Herleitung inhaltlich korrekt ist oder nicht, geraten Vertreter beider Auffassungen dann in Widerspruch zu modernen sprachwissenschaftlichen Grundannahmen, wenn sie auf einer engen und unmittelbaren Beziehung zwischen einem gedanklichen Konzept und der Gestalt des Worts, mit dem es ausgedrückt wird, bestehen. Dieser Auffassung steht die funktionale Ansicht der Sprachwissenschaft entgegen, dass eine konkrete Wortform ihre Bedeutung ausschließlich per Arbitrarität und Konvention erhalte. Arbitrarität und Konvention sind Schlüsselbegriffe des Verständnisses von Zeichen in der Linguistik seit Beginn des 20. Jahrhunderts; man beruft sich dazu auf Ferdinand de Saussure (frz. 1916; dt. Übers. 1931/1967). Sie besagen, dass das Verhältnis zwischen der Form und der Bedeutung von Zeichen, d.h. auch von Wörtern, arbiträr (willkürlich) und durch gesellschaftliche Konvention bedingt sei. Für sich genommen habe ein Wort somit keine "eigentliche" Bedeutung und Wirkung außer der, die sich in der jeweiligen Gegenwart aus der üblichen Verwendung ergibt. Die Existenz einer darüber hinaus dem Wort in irgendeiner Weise noch zusätzlich anhängenden Bedeutung, die man in irgendeiner Form herausfinden könnte oder sollte, wird hier bezweifelt. Unter einer solchen Annahme können die von den „normativen“ "Etymologen" vorgebrachten Interpretationen der Wortbedeutung nicht mehr Gültigkeit für sich beanspruchen als jede alternativ vorgeschlagene Neuinterpretation auch. Die Auffassung von der Arbitrarität der Zeichen wird durch die Natürlichkeitstheorie in der modernen Linguistik durch die Entdeckung ergänzt, dass viele Aspekte der Sprache ikonisch (abbildend) sind, also gar nicht ausschließlich arbiträr (willkürlich). Etymologische Erklärungen werden darüber hinaus auch häufig zur Untermauerung von Ideologien jedweder Couleur herangezogen, z. B. Esoterik, politische Religionen, u. v. a. m. So versuchen beispielsweise Nationalisten die vermeintliche Überlegenheit der eigenen Kultur anhand ihrer Wirkung auf den Wortschatz einer anderen Sprache zu „beweisen“ oder erwünschte verwandtschaftliche Beziehungen zweier Kulturen aus einer vermuteten Sprachverwandtschaft zu rekonstruieren. Der etymologischen Erklärung scheint eine besondere, unmittelbar einleuchtende „Beweiskraft“ zu eigen zu sein, indem schon Bekanntes (ein Wort) von bislang unbekannter Seite dargestellt wird. Literatur. Für etymologische Wörterbücher der deutschen Sprache siehe den Artikel Etymologisches Wörterbuch. Endemit. Als Endemiten (von "éndēmos" ‚einheimisch‘; ungenau oft auch Endemismen im Plural) werden in der Biologie Pflanzen oder Tiere bezeichnet, die nur in einer bestimmten, räumlich klar abgegrenzten Umgebung vorkommen. Diese sind in diesem Gebiet "endemisch". Dabei kann es sich um Arten, Gattungen oder Familien von Lebewesen handeln, die ausschließlich auf bestimmten Inseln oder Inselgruppen, Gebirgen, in einzelnen Tälern oder Gewässersystemen heimisch sind. Beispiel: Die Darwinfinken sind auf den Galapagosinseln endemisch, da sie weltweit nirgendwo sonst vorkommen. Eine Festlegung, bis zu welcher Flächengröße dieser Begriff verwendet wird, gibt es nicht. Für einen ganzen Kontinent endemische Arten, aber auch höhere taxonomische Einheiten, finden sich etwa für Amerika („Neuwelt“-Species) oder Australien. Kontinentübergreifende Vorkommen finden sich dann beispielsweise in der Pflanzenfamilie der Bromeliengewächse, ursprünglich in Amerika, und sonst nur in einer Region Westafrikas. Einteilung. Vor allem in der Botanik ist die Unterscheidung in „Paläoendemiten“ (auch: Reliktendemiten) und „Neoendemiten“ (auch: Entstehungsendemismus) üblich. Paläoendemiten sind Arten mit ursprünglich vermutlich weiterer Verbreitung, die durch Änderung der Lebensbedingungen oder neue Konkurrenten in ein Reliktareal, meist eine Insel oder ein Gebirge, abgedrängt worden sind. Ein Beispiel wäre der Wurzelnde Kettenfarn ("Woodwardia radicans"), der heute in den Lorbeerwäldern der Kanarischen Inseln und in eng begrenzten Gebieten (meist auf den Inseln) am Mittelmeer mit ähnlich niederschlagsreichem Lokalklima vorkommt. Man nimmt an, dass es sich um das Reliktareal einer im Tertiär unter wärmeren und feuchteren Lebensbedingungen weiter verbreiteten Art handelt. Neoendemiten sind Arten, die sich erst vor (erdgeschichtlich) kurzer Zeit aus weit verbreiteten Pflanzentaxa unter besonderen Standortbedingungen entwickelt haben. Dies nimmt man zum Beispiel für die zahlreichen Arten der Nelkengattung "Dianthus" auf Berggipfeln im Mittelmeerraum oder für die zahlreichen Tragant- ("Astragalus") Arten in abgegrenzten Regionen Zentralanatoliens an. Als Kuriosum kommen sogar sogenannte heimatlose Arten vor. Dies sind neophytische Neo-Endemiten, die sich (meist durch Hybridisierung) erst seit wenigen hundert Jahren in ihrer neuen Heimat aus ursprünglich vom Menschen aus anderen Erdteilen eingeführten Arten entwickelt haben. Bekannt ist dies etwa von Kleinarten der Nachtkerzen ("Oenothera") aus dem "biennis"-Artkomplex. Bedrohung. Je kleiner der zur Verfügung stehende Lebensraum ist, desto größer ist meist die Gefährdung der endemischen Taxa. Schon geringe Veränderungen im Habitat können zum Aussterben des gesamten Taxons führen. Die Anwendung des Begriffs „Endemit“ auf politische Grenzen ist nur im Rahmen der Roten Liste gefährdeter Arten üblich. Inselendemiten. a> – Unterarten bilden sich als Anpassung an Lebensräume und Inseln Als Inselendemiten bezeichnet man Arten, welche sich an den Lebensraum einer bestimmten Insel angepasst haben. Als ein Inselendemit ist ein Tier/Pflanze zu bezeichnen welches an eine Insel (meist weiter vom Festland entfernt) antreibt und sich aufgrund von bestimmten Begebenheiten der selbigen verändert und infolgedessen nur auf dieser heimisch ist. Interessant unter diesen ist unter anderem auch, dass sich bei einigen Arten gezielt Unterarten gebildet haben, um verschiedene Lebensräume der Insel für sich zu gewinnen. Die meisten dieser Unterarten gehen allerdings auf eine Art zurück, welche die Insel erreichte. Interessante Beispiele hierfür sind unter anderem auch die Anolis-Echsen auf den Westindischen Inseln, die Finken auf einigen Pazifikinseln (Galapagos, Hawaii) oder die Riesenschildkröten auf den Galapagosinseln. Eine weitere Besonderheit unter Inselendemiten ist der langsame Fortpflanzungszyklus, eine Art Bevölkerungsregulierung der Evolution, um zu verhindern, dass die Heimatinsel zu viele Vertreter der Art aufweist. So können viele endemische Vögel nur ein Ei pro Jahr legen. Inselgigantismus und Inselverzwergung. a> ("Chelonoidis nigra porteri"), ein Beispiel für Inselgigantismus Bei einigen Endemiten ist es aufgrund des Nichtvorhandenseins von Raubtieren oder anderen Bedrohungen zum Inselgigantismus gekommen. Inselgigantismus tritt auf, wenn eine bestimmte Art auf eine Insel gelangt, auf der für dieselbige kaum Gefahr oder ein idealer Lebensraum besteht. Infolgedessen sind auf einigen Inseln zum Teil riesige Arten entstanden. a> ("Urocyon littoralis"), ein Beispiel für Inselverzwergung Epidemie. Eine Epidemie (von griechisch "επιδημία" „Aufenthalt, Ankunft; von Krankheiten: im Volk verbreitet“, zu "επί" „auf“ und "δήμος" „Volk“) ist die zeitliche und örtliche Häufung einer Krankheit innerhalb einer menschlichen Population, wobei es sich dabei im engeren Sinn um Infektionskrankheiten handelt. Aus epidemiologischer Sichtweise wird von einer Epidemie gesprochen, wenn in einem bestimmten Zeitraum die Inzidenz (als Anzahl der neuen Erkrankungsfälle) zunimmt. Demgegenüber wird als Endemie das andauernd gehäufte Auftreten einer Krankheit in einem begrenzten Bereich bezeichnet. Die Inzidenz in diesem Gebiet bleibt (mehr oder weniger) gleich, ist aber im Verhältnis zu anderen Gebieten erhöht. Eine Abnahme der Erkrankungshäufigkeit wird als Regression, eine länder- und kontinentübergreifende Ausbreitung als Pandemie bezeichnet. Entsprechend der Ausbreitungsgeschwindigkeit einer Erkrankung kann eine Einteilung in "Explosiv-" und "Tarditivepidemien" erfolgen. Da sich die Endung "-demie" sprachlich auf Menschen bezieht, sind in der Veterinärmedizin auch die Bezeichnungen Epizootie statt "Epidemie" und Panzootie statt "Pandemie" üblich. Beispiele für Epidemien. Epidemisch auftretende Krankheiten sind viele Tropenkrankheiten wie die Dengue, aber auch Cholera, Grippe, Typhus, Pest und Kinderlähmung. Im Falle der Grippe spricht das US-amerikanische CDC als leitende staatliche Behörde zum Schutz der dortigen Bevölkerung vor Krankheiten und Seuchen von einer Influenzaepidemie, wenn in einem bestimmten Winter die Übersterblichkeit an Grippe und Lungenentzündung gegenüber einem durchschnittlichen Winter um mehr als 7,5 Prozent erhöht ist. Von einer heimlichen Epidemie wird im Falle der Chlamydiose bei Jugendlichen (als einer in dieser Bevölkerungsgruppe kaum bekannten sexuell übertragbaren Erkrankung) gesprochen. Vorhersage. Viele Betroffene suchen im Internet nach Information zu Krankheiten. Durch die Auswertung dieser Big Data kann es gelingen, Epidemien kostengünstig und frühzeitig zu erkennen. Auch die Auswertung von persönlichen Nachrichtendiensten im Internet kann für diese Bewertung herangezogen werden. Es wird allerdings auch darauf hingewiesen, dass die häufige Suche nach Krankheiten oder Erwähnung von Krankheiten im Internet nicht immer durch eine erhöhte Prävalenz dieser Krankheit bedingt sein muss und daher zu überhöhten Prognosen führen kann, wenn schlechte Algorithmen zur Auswertung verwendet werden beziehungsweise wenn nicht noch zusätzliche Datenquellen herangezogen werden. Etymologie. Das Wort "Epidemie" kommt aus dem Griechischen von "epí" („über“) und "démos" („Volk“). Das deutsche Wort "Seuche" (mittelhochdeutsch "siuche") dagegen ist verwandt mit "siech". Es wird heute meist für epidemisch auftretende Tierkrankheiten (z. B. Maul- und Klauenseuche) verwendet, deren überregionale Ausbreitung oft auch als Seuchenzug bezeichnet wird. Als Begründer der "Historischen Seuchenpathologie" gilt Justus Hecker. Näheres. Im Unterschied zur Endemie, bei der sich eine Krankheit mit einer Basisreproduktionszahl formula_1 von exakt 1 verbreitet, jedes infizierte Individuum im statistischen Mittel also genau eine Folgeinfektion bewirkt und die Krankheit so dauerhaft in der Population verbleibt, verbreitet sich eine Epidemie mit einer Reproduktionsrate größer 1. Dies bedeutet, dass die Anzahl der Neuinfektionen innerhalb der Population zunächst stark ansteigt, hierdurch jedoch der Anteil anfälliger, aber nicht infizierter Individuen schnell reduziert wird. In Folge sinkt die Zahl der Neuinfektionen nach einiger Zeit immer weiter ab, bis die Krankheit letztlich in der Population ausstirbt. Évariste Galois. Évariste Galois (* 25. Oktober 1811 in Bourg-la-Reine; † 31. Mai 1832 in Paris) war ein französischer Mathematiker. Er starb im Alter von nur 20 Jahren bei einem Duell, erlangte allerdings durch seine Arbeiten zur Lösung algebraischer Gleichungen, der so genannten Galoistheorie, postum Anerkennung. Leben. Galois besuchte das College Louis-le-Grand in Paris, scheiterte zweimal an der Aufnahmeprüfung zur "École polytechnique" und begann ein Studium an der "École normale supérieure." Mit 17 Jahren veröffentlichte er eine erste Arbeit über Kettenbrüche; wenig später reichte er bei der Académie des Sciences eine Arbeit über die Gleichungsauflösung ein, die den Kern der heute nach ihm benannten Galoistheorie enthielt. Die Akademie lehnte das Manuskript ab, ermutigte Galois aber, eine verbesserte und erweiterte Fassung einzureichen. Dieser Vorgang wiederholte sich zweimal unter Beteiligung von Augustin-Louis Cauchy, Joseph Fourier und Siméon Denis Poisson. Galois reagierte verbittert, beschuldigte die Akademie, Manuskripte veruntreut zu haben und beschloss, sein Werk auf eigene Kosten drucken zu lassen. Als Republikaner war Galois vom Ausgang der Julirevolution enttäuscht und exponierte sich politisch zunehmend; er wurde von seiner Hochschule verwiesen und zweimal verhaftet. Der ersten Verhaftung wegen eines bei einem Bankett mit dem blanken Messer in der Hand ausgebrachten Trinkspruchs auf den neuen König Louis-Philippe, der als versteckte Morddrohung ausgelegt wurde, folgte am 15. Juni 1831 ein Freispruch. Nur einen Monat später nahm Galois in der Uniform der wegen politischer Unzuverlässigkeit inzwischen aufgelösten Artillerie-Garde und schwer bewaffnet an einer Demonstration zum 14. Juli teil, wurde erneut verhaftet und nach dreimonatiger Untersuchungshaft zu sechs Monaten Haft im Gefängnis Sainte-Pélagie verurteilt. Im März 1832 wurde er wegen einer Cholera-Epidemie mit anderen Häftlingen ins Sanatorium Sieur Faultrier verlegt. Am 29. April wurde er aus der Haft entlassen. Am Morgen des 30. Mai 1832 erlitt Galois bei einem Pistolenduell in der Nähe des Sieur Faultrier einen Bauchdurchschuss, wurde von seinem Gegner und seinem eigenen Sekundanten allein zurückgelassen, Stunden später von einem Bauern aufgefunden und in ein Krankenhaus gebracht, wo er tags darauf „in den Armen“ seines Bruders Alfred starb. Der Duellgegner war ein republikanischer Gesinnungsgenosse, Perschin d’Herbinville, und nicht, wie gelegentlich vorgebracht (Leopold Infeld in "Wen die Götter lieben"), ein agent provocateur der Regierung. Der Anlass für das Duell war ein Mädchen, Stéphanie-Félicie Poterine du Motel, die Tochter eines am Sieur Faultrier tätigen Arztes. Mit ihr tauschte Galois nach seiner Entlassung aus dem Sanatorium Briefe aus, und ihr Name findet sich auf seinem letzten Manuskript; sie scheint sich aber von ihm distanziert zu haben. Trotzdem halten sich hartnäckig Stimmen, die sagen, das Duell sei inszeniert gewesen, da Galois kaum Interesse an Stéphanie hatte und sein Gegner ein bekannter Schütze war, ja es wurde sogar behauptet, er hätte sich in diesem Duell für die republikanische Sache geopfert. Andere Einschätzungen sprechen von inszeniertem Selbstmord aufgrund seiner unglücklichen Liebe. Solche Duelle „um der Ehre willen“ waren andererseits damals ziemlich häufig. In der Nacht vor seinem Duell schrieb er einen Brief an seinen Freund Auguste Chevalier, in dem er diesem die Bedeutung seiner mathematischen Entdeckungen ans Herz legte und ihn bat, seine Manuskripte Carl Friedrich Gauß und Carl Gustav Jacob Jacobi vorzulegen; außerdem fügte er Randbemerkungen wie „je n’ai pas le temps“ (mir fehlt die Zeit) in seine Schriften ein. Chevalier schrieb Galois’ Arbeiten ab und brachte sie unter den Mathematikern seiner Zeit in Umlauf, u. a. auch an Gauß und Jacobi, von denen aber keine Reaktion bekannt ist. Die Bedeutung der Schriften erkannte erst 1843 Joseph Liouville, der den Zusammenhang mit Cauchys Theorie der Permutationen sah und sie in seinem Journal veröffentlichte. Werk. Galois begründete die heute nach ihm benannte Galoistheorie, die sich mit der Auflösung algebraischer Gleichungen, d. h. mit der Faktorisierung von Polynomen befasst. Das damalige Grundproblem der Algebra umfasste die allgemeine Lösung algebraischer Gleichungen mit Radikalen (d. h. Wurzeln im Sinne von Potenzen mit gebrochenen Exponenten), wie sie für Gleichungen zweiten, dritten und vierten Grades schon länger bekannt waren. Galois erkannte die dahinter stehenden Konstruktionen der Gruppentheorie, nachdem schon Niels Henrik Abel bewiesen hatte, dass eine allgemeine polynomiale Gleichung von höherem Grad als 4 im Allgemeinen nicht durch Radikale aufgelöst werden kann. Galois untersuchte Gruppen von Vertauschungen der Nullstellen des Gleichungspolynoms (auch "Wurzeln" genannt), insbesondere die sogenannte Galoissche Gruppe G, deren Definition bei Galois noch ziemlich kompliziert war. In heutiger Sprache ist das die Gruppe der Automorphismen des Erweiterungskörpers L über dem Grundkörper, der durch Adjunktion aller Nullstellen definiert ist. Galois erkannte, dass sich die Untergruppen von G und die Unterkörper von L bijektiv entsprechen. Man zeigt dann zum Beispiel, dass im Falle der allgemeinen Gleichung 5. Grades für die zugehörige Gruppe – die Symmetrische Gruppe S5 der Permutationen von 5 Objekten – keine Kompositionsreihe einer Kette von Normalteilern mit zyklischen Faktorgruppen existiert, die den Automorphismengruppen der durch Adjunktion von Wurzeln gebildeten Zwischenkörpern entsprechen. S5 ist keine auflösbare Gruppe, da sie als echten Normalteiler nur die einfache Untergruppe A5 enthält, die alternierende Gruppe der geraden Permutationen von 5 Objekten.. Das verallgemeinert sich in dem Satz, dass für n > 4 die symmetrische Gruppe Sn den einzigen echten nichttrivialen Normalteiler An besitzt, der nichtzyklisch und einfach ist, d. h. ohne nichttriviale Normalteiler. Daraus folgt die allgemeine Nichtauflösbarkeit von Gleichungen höheren als 4. Grades durch Radikale. Wegen dieser von ihm gefundenen Begriffe und Sätze ist Galois einer der Begründer der Gruppentheorie. In Anerkennung seiner grundlegenden Arbeit wurden die mathematischen Strukturen Galoiskörper (endlicher Körper), Galoisverbindung und Galoiskohomologie nach ihm benannt. Wie anderen, besonders berühmten Mathematikern ist auch ihm ein Symbol gewidmet: GF(q) steht für Galois Field (Galoiskörper) mit q Elementen und ist in der Literatur so etabliert wie etwa die Gaußklammer oder das Kronecker-Symbol. Er lieferte damit auch die Grundlagen für Beweise der allgemeinen Unlösbarkeit von zwei der drei klassischen Probleme der antiken Mathematik, der Dreiteilung des Winkels und der Verdoppelung des Würfels (jeweils mit Zirkel und Lineal, also mit Quadratwurzeln und linearen Gleichungen). Diese Beweise können jedoch auch einfacher, also ohne Galoistheorie, geführt werden. Das dritte Problem, die Quadratur des Kreises, wurde durch den Beweis der Transzendenz von formula_1 durch Ferdinand Lindemann ad acta gelegt. In dem Brief an Auguste Chevalier deutet Galois auch Arbeiten über elliptische Funktionen an. Eulersche Formel. Veranschaulichung in der komplexen Zahlenebene Dreidimensionale Darstellung der eulerschen Formel Die eulersche Formel bzw. Eulerformel, in manchen Quellen auch eulersche Relation genannt, ist eine Gleichung, die eine Verbindung zwischen den trigonometrischen Funktionen und den Exponentialfunktionen mittels komplexer Zahlen darstellt. Die eulersche Formel erschien erstmals 1748 in Leonhard Eulers zweibändiger "Introductio in analysin infinitorum", zunächst unter der Prämisse, dass der Winkel eine reelle Zahl ist. Diese Einschränkung jedoch erwies sich bald als überflüssig, denn die eulersche Formel gilt gleichermaßen für alle reellen wie komplexen Argumente. Dies ergibt sich aus der reellen eulerschen Formel in Verbindung mit dem Identitätssatz für holomorphe Funktionen. Eulersche Formel. Die eulersche Formel bezeichnet die für alle formula_1 gültige Gleichung Die Konstante formula_3 bezeichnet dabei die eulersche Zahl (Basis der natürlichen Exponentialfunktion bzw. des natürlichen Logarithmus) und die Einheit formula_4 die imaginäre Einheit der komplexen Zahlen. Als Folgerung aus der eulerschen Formel ergibt sich für alle formula_5 die Gleichung Eulersche Identität. Animation der Approximation von formula_10 durch den Ausdruck formula_11. Die Punkte stellen jeweils für ein formula_12 die Werte formula_13 mit formula_14 dar. Für formula_15 ergibt sich aus der eulerschen Formel die sogenannte eulersche Identität Erweitert man die Definition des Zahlenwerts von formula_22 als Grenzwert formula_23 auf die komplexe Zahlenebene mit formula_24, sollte sich dementsprechend für formula_25 der Wert formula_26 ergeben. Die nebenstehende Animation zeigt die zu einem Streckenzug in der komplexen Ebene verbundenen Zwischenergebnisse der Berechnung des Ausdrucks formula_27: Sie veranschaulicht, dass dieser Streckenzug für wachsendes formula_12 die Form eines Kreisbogens annimmt, dessen linkes Ende sich tatsächlich der Zahl formula_26 auf der reellen Achse nähert. Verwandtschaft zwischen Exponential- und Winkelfunktionen. Wie zu sehen, entsprechen die beiden erhaltenen Funktionen genau den Definitionen des Sinus Hyperbolicus und Kosinus Hyperbolicus. Eine Folge der Verbindung von trigonometrischen Funktionen und Exponentialfunktion aus der Eulerformel ist der Moivresche Satz (1730). Weitere Anwendungen. Zeigerdarstellung einer Wechselspannung in der komplexen Ebene Ausgehend davon findet die eulersche Formel auch zur Lösung zahlreicher anderer Probleme Anwendung, etwa bei der Berechnung der Potenz formula_37 der imaginären Einheit mit sich selbst. Obwohl das erhaltene Resultat mehrdeutig ist, bleiben alle Einzellösungen im reellen Bereich mit einem Hauptwert von formula_38 Eine praktisch wichtige Anwendung der eulerschen Formel findet sich im Bereich der Wechselstromtechnik, namentlich bei der Untersuchung und Berechnung von Wechselstromkreisen mit Hilfe komplexer Zahlen. Einkorn. Einkorn ("Triticum monococcum"), auch: "Blicken" oder "Kleiner Spelz" genannt, ist eine der ältesten domestizierten Getreidearten. Einkorn stammt vom wilden Weizen ("Triticum boeoticum" Boiss.) ab, der im Gegensatz zu Einkorn eine brüchige Ährchengabel (Rhachis) hat. Einkorn galt als Vorläufer von Emmer, Dinkel und Saatweizen, bis durch genetische Untersuchungen festgestellt wurde, dass Emmer von Wildem Emmer aus der Südosttürkei abstammt. Domestikation. Das Ursprungsgebiet von domestiziertem Einkorn ist umstritten. "Heun" und andere argumentieren aufgrund genetischer Untersuchungen von Einkorn aus der Türkei, dem Kaukasus und dem Libanon für eine Herkunft aus der südöstlichen Türkei (Karacadağ), während "M. Jones" und andere den Ursprung in der südlichen Levante sehen, wo Emmer, Einkorn und Gerste seit dem präkeramischen Neolithikum A 8000–7700 v. Chr. domestiziert wurden. Die Nachweise werden allerdings angezweifelt. Sicher domestiziertes Einkorn stammt aus dem präkeramischen Neolithikum B (6700–6000 v. Chr.), zum Beispiel aus Jericho und Tell Aswad II. Am oberen Euphrat wurde domestiziertes Einkorn in den vorkeramischen Schichten von Mureybit, Nevalı Çori (7200 v. Chr.) Jerf el Ahmar, Abu Hureyra (7800–7500 v. Chr.) und Dja'de gefunden. Aus Siedlungen wie Cafer Höyük, Nevalı Çori und Cayönü liegt jedoch auch wildes Einkorn vor, was auf die Bedeutung dieser Pflanze als Sammelpflanze bereits im Mesolithikum bzw. Epipaläolithikum hinweist. Funde. Einkorn und Emmer gehören zu den wichtigsten Kulturpflanzen der Bandkeramik. Erst in der späten Bandkeramik gewinnt auch Binkelweizen ("T. compactum") an Einfluss. Reste von Einkorn wurden unter anderem bei der steinzeitlichen Gletschermumie „Ötzi“ in den Alpen gefunden. Einkorn – links in Spelzen, rechts entspelzt Anbau. Einkorn ist relativ anspruchslos in Bezug auf die Qualität des Bodens. Außerdem ist es resistent gegen viele Schädlinge wie Wurzelfäule, Spelzenbräune oder den Mutterkorn-Pilz und kann sich besser gegen die Konkurrenz von Ackerunkräutern durchsetzen als moderne Weizensorten. Allerdings ist der Ertrag erheblich geringer als bei den modernen Weizen-Sorten, auf sandigen Böden werden Erträge von lediglich 12 bis 21 dt/ha erzielt. Wurde der Anbau von Einkorn im 20. Jahrhundert wirtschaftlich nahezu bedeutungslos, so wird Einkorn heute doch z. B. in der Schweiz, in Deutschland, in Österreich im Waldviertel und in der Türkei weiterhin angebaut. Zunehmend werden auch verarbeitete Produkte wie Nudeln, Brot und Bier aus Einkorn angeboten. Inhaltsstoffe und Verwendung. Obwohl wesentlich ertragsärmer als Saat-Weizen, enthält Einkorn mehr Mineralstoffe und Aminosäuren als dieser. Ein hoher Gelbpigmentgehalt an Beta-Carotin gibt dem Einkorn-Mehl eine gelbliche Farbe. Aus Einkorn-Malz kann auch Bier gebraut werden. Emmer (Getreide). Emmer ("Triticum dicoccum"), auch Zweikorn genannt, ist eine Pflanzenart aus der Gattung Weizen ("Triticum"). Er ist, zusammen mit Einkorn, eine der ältesten kultivierten Getreidearten. Diese Weizenart mit lang begrannten, meist zweiblütigen Ährchen wird heute in Europa kaum noch angebaut – wenn, dann im Wesentlichen der Schwarze Emmer, daneben gibt es den Weißen Emmer und Roten Emmer. Seine Stammform ist der Wilde Emmer ("Triticum dicoccoides"). Wildform. Wilder Emmer ist der Urvater der „Emmerreihe“ (mit 2n = 4x = 28 Chromosomen). Zu ihr gehören auch der Hartweizen ("Triticum durum") und Kamut. Die Wildform des Emmer kann mit domestiziertem tetraploiden Weizen fruchtbare Kreuzungen eingehen. Wilder Emmer kommt in der Südosttürkei, in Syrien, im Libanon, in Jordanien, Palästina, Israel und im östlichen Irak und Iran vor (Fruchtbarer Halbmond). Teilweise wächst er zusammen mit dem wilden tetraploiden Weizen ("Triticum araraticum"), mit dem er leicht verwechselt werden kann. Nach genetischen Untersuchungen (Özkan et al. 2002) ist der domestizierte Emmer mit den Wildarten der südöstlichen Türkei am nächsten verwandt. Domestikation. Domestizierter Emmer hat ein AABB-Genom und eine feste Rhachis, die verhindert, dass sich das Getreide selbst vermehren kann. Bei Wildem Emmer bricht die Ährchengabel, wenn das Korn reif ist, und es kann sich verbreiten. Domestizierter Emmer wurde in Tell Aswad, in Abu Hureyra (Schicht 2) und Cayönü gefunden. Ob der Emmer aus Nevali Cori vollständig domestiziert ist, ist unklar. Seit der frühjungsteinzeitlichen Epoche des präkeramischen Neolithikums B (PPNB) kommt domestizierter Emmer regelmäßig vor. Geschichte. Emmer gehört zu den ältesten kultivierten Getreidearten. Die Pflanze lässt sich bis 3000 v. Chr. zurückverfolgen. Ihren Ursprung hat sie im Nahen Osten, dort wird sie seit mindestens 10.000 Jahren angebaut. Durch die Ausbreitung des Ackerbaus kam der Emmer von Westpersien über Ägypten, Nordafrika und den Balkan bis nach Mitteleuropa. Der Emmer galt zur Römerzeit als „Weizen von Rom“. Erst ab der Neuesten Zeit verlor er in Europa an Bedeutung; im Laufe des 20. Jahrhunderts stieg die Anbaufläche für Emmer jedoch wieder an. Aufbau. Der Emmer hat zwei Körner pro Ährchen, die fest von Spelzen umschlossen werden. Emmer kann bis zu 1,50 m hoch wachsen. Die enorme Höhe bereitet ihm unter Umständen aber Probleme in seiner Standfestigkeit. Emmer gehört aus botanischer Sicht zu den Gräsern, deren Körner, genau wie die Nüsse, zu den einsamigen Schließfrüchten zählen. Die Blattöhrchen des Emmer sind groß und bewimpert, die Blatthäutchen sind mittelgroß und stumpfgezahnt. Die Deckspelze sind begrannt, und die Hüllspelzen sind lang und gezackt. Die Grannenlänge beträgt einige Zentimeter. Merkmale des Kornes und Verwendung. Emmergetreide ist eiweiß- und mineralstoffreich. Trotz seiner mäßigen Klebereigenschaften ist Emmer auch für die Brotherstellung geeignet. Vollkornbackwaren verleiht Emmer einen herzhaften und leicht nussigen Geschmack. Ebenso wird der Emmer für die Bierherstellung eingesetzt. Das Emmerbier ist dunkel, meist trüb und sehr würzig. Die Ähren sind in der Floristik in vielen Gestecken vorhanden. Die gekochten Körner können als Einlage für Suppen und Eintöpfe, aber auch in Salaten, Aufläufen oder Bratlingen verwendet werden. Forscher der Universität Hohenheim (Stuttgart) und Vertreter des baden-württembergischen Landesinnungsverbandes der Bäcker haben einen»Arbeitskreis Spelzgetreide«(Einkorn, Emmer und Dinkel) gegründet, in dem auch Müller und Nudelfabrikanten vertreten sind, um den Anbau dieser frühen Weizensorten wieder zu fördern. Als italienische Spezialität bekannt ist die so genannte Zweikornsuppe (zuppa al farro), ein deftiger Emmereintopf, der vor allem für die ländlichen Gebiete der Toskana typisch ist und als klassisches „Armeleutegericht“ gelten kann. Deutschland, Österreich und Schweiz. Vor dem Zweiten Weltkrieg wurde Emmer noch spärlich in Thüringen und in Süddeutschland angebaut. Heute ist Emmer in Mitteleuropa nach wie vor ein Nischenprodukt, gewinnt aber regional an Bekanntheit. In Nordbayern im Raum Coburg wird wieder Emmer angebaut und dort unter anderem für die Bierherstellung verwendet (auf Emmerbier hat sich z. B. das Riedenburger Brauhaus spezialisiert). Der Emmeranbau wurde dort im Rahmen eines Projektes zur Förderung des Anbaus alter Kulturarten sowie seltener Ackerwildkräuter wieder aufgenommen. In Österreich wird Emmer im Burgenland und in Niederösterreich angebaut und über Bio-Läden und Supermärkte vertrieben. In der Schweiz wird der Weiße Emmer im Schaffhauser Klettgau wie auch im Zürcher Weinland seit Mitte der 1990er Jahre wieder angebaut. Zu den daraus verarbeiteten Produkten zählen neben Emmerkörnern und -mehlen auch Spezialbrote, Teigwaren, Emmer-Schwarzbier und Emmerschnaps. Übriges Europa. In Italien ist der Emmeranbau durchaus präsent und wird sogar ausgeweitet. Insbesondere in der gebirgigen Gegend von Garfagnana in der Toskana genießt Emmer, in Italien "farro" genannt, gesetzlichen Schutz und besonderen Status ("Indicazione Geografica Protetta"). Die Produktion wird durch eine Genossenschaft ("Consorzio Produttori Farro della Garfagnana") überwacht. Produkte aus Emmer werden in Reformläden in Italien und sogar in Großbritannien angeboten. In Finnland wird Emmer auf dem Gut Malmgård in Uusimaa seit 2009 mit guten Erträgen angebaut. Im Jahr 2012 wurde dort auf 18 ha Emmer angebaut. Da Emmer gute Erträge auf schwachen Böden in Gebirgsgegenden verspricht und resistent gegen Krankheiten ist, wird er auch z.B. in Tschechien, der Slowakei (an der Grenze zwischen den beiden Ländern), Spanien (Asturien), Griechenland, Albanien und der Türkei angebaut. Afrika. Emmer ist traditionelle Frucht in Äthiopien, wo er Potential zur Verbesserung der Nahrungssicherheit besitzt. Bodenansprüche und Bodenbearbeitung. Emmer hat keine besonders hohen Ansprüche an die Bodenart und den pH-Wert des Bodens. Die Grundbodenbearbeitung sollte mit dem Pflug oder Grubber erfolgen. Die Saatbettbereitung sollte nicht zu fein sein, auf Grund der Strukturreserve und des Windhalms. Dies ist gleich wie bei der Saatbettbereitung von Weizen. Die Stoppelbearbeitung ist für die schnellere Rotte der Ernterückstände sehr sinnvoll. Fruchtfolge. Die Vorfruchtwirkung von Emmer ist mäßig, da die Übertragung von Krankheiten wie z. B. Halmbruch möglich ist. Die Selbstverträglichkeit ist nicht optimal; aus diesem Grund sollte zwei Jahre danach kein Wintergetreide angebaut werden. Eine gute Vorfruchtwirkung auf Emmer haben Kartoffeln und Mais. Saat. Der Saatzeitpunkt liegt zwischen Mitte September und Mitte Oktober. Der Emmer ist sehr winterhart, da er Temperaturen bis ca. –20 °C aushält. Die Saatstärke sollte zwischen 150 und 200 kg/ha und die Saattiefe 4–6 cm betragen. Der Reihenabstand beträgt 10–25 cm. Da Emmer Spelzen hat, die rau und behaart sind, kann es zu Problemen bei der Aussaat kommen. Diese Probleme können umgangen werden, wenn man das Emmerkorn entspelzt. Krankheiten und Schädlinge. Die häufigsten Krankheiten sind Pilzkrankheiten wie z. B. Mehltau, Roste, DTR, Septoria tritici und Halmbruch. Durch die Spelzen ist das Korn vor Ährenseptoria (Phaeosphaeria nodorum) und Fusarien geschützt. Bei früher Saat hat die Fritfliege als Schädling die bedeutendste Rolle. Für die Unkrautregulierung kann ab dem Dreiblattstadium gestriegelt werden. Bei starkem Befall ist auch schonendes Striegeln ab dem Zweiblattstadium möglich. Ernte. Die Ernte des Emmer erfolgt Anfang bis Mitte August. Beim Dreschen mit einem Mähdrescher ist zu beachten, dass bei einer niedrigen Trommeldrehzahl und weniger Wind als bei Weizen geerntet wird. Eine Trocknung der Körner ist nicht erforderlich, wenn die Kornfeuchte unter 14,5 % liegt. Die Lagerung des Kornes ist sowohl mit als auch ohne Spelzen möglich. Der Ertrag von Schwarzem Emmer liegt mit rund 30 Dezitonnen/Hektar weit unter dem Ertrag von Weizen mit 75 dt/ha. Aus diesem Grund ist der Anbau von Emmer seit dem Ersten Weltkrieg stark gesunken. Emmer ist wenig standfest und enorm lagergefährdet. Schwarzer Emmer. Durch natürliche Selektion entstand aus dem Urgetreide Emmer der Schwarze Emmer ("Triticum dicoccon" var. "atratum"). Dieser wird als Winterung angebaut, da er einen höheren Ertrag hat als Emmer. UV-bedingte Mutationen sind beim Schwarzen Emmer kaum möglich, da er sich durch seine schwarze Färbung gut davor schützen kann. Aus diesem Grund ist er genetisch das beständigste Getreide. Die Schwarzfärbung wird durch Beta-Carotin verursacht. Erbse. Die Erbse ("Pisum sativum"), auch Gartenerbse oder Speiseerbse genannt, ist eine Pflanzenart aus der Gattung Erbsen ("Pisum") in der Unterfamilie Schmetterlingsblütler (Faboideae) innerhalb der Familie der Hülsenfrüchtler (Fabaceae, Leguminosae). Ursprünglich aus Kleinasien stammend, ist die Erbse seit Jahrtausenden eine wichtige Nutzpflanze. Sie enthält viel Protein und wird als Gemüse und als Tierfutter verwendet. Die Erbse wurde durch den Verein zur Erhaltung der Nutzpflanzenvielfalt (VEN) zum „Gemüse des Jahres“ 2009/2010 in Deutschland gewählt. Beschreibung. Blütenstände einer Erbse, mit Blütenknospen und Blüten Blüte der Sorte Blaue Speiseerbse PS-HB 019 Erbsenpflanze, zu erkennen sind die Laubblätter, die großen Nebenblätter und die Hülsenfrüchte Hülsenfrüchte und Samen der Sorte Blaue Speiseerbse PS-HB 019 Erscheinungsbild und Blatt. Die Erbse ist eine einjährige, krautige Pflanze. Das Wurzelsystem ist in der oberen Bodenschicht stark verzweigt und kann in geeigneten Böden eine Tiefe von 1 Meter erreichen. Die niederliegenden oder kletternden Stängel werden 0,5 bis 2 Meter lang und sind einfach oder am Grund verzweigt, hohl, kantig, kahl und bläulichgrün. Die Laubblätter besitzen ein bis drei Fiederpaare und verzweigte Blattranken. Die Fiederblätter sind eiförmig bis breit-elliptisch, gerundet, ganzrandig (oder entfernt gezähnt). Sie sind 2 bis 7 Zentimeter lang und 1,5 bis 4 Zentimeter breit. Die Nebenblätter sind mit 4 bis 10 Zentimetern relativ groß und breit halbherzförmig. Am unteren Rand sind die Nebenblätter entfernt gezähnt bis ausgebuchtet und am Grund haben sie meist einen violetten Punkt. Die Spaltöffnungen befinden sich auf der Ober- und Unterseite der Blattspreite. Blütenstand und Blüte. Ein bis drei Blüten stehen in einem traubigen Blütenstand und die Blütenstandsachse endet oft in einer Granne. Der Blütenstiel ist 5 bis 10 Millimeter lang. Die zwittrigen Blüten sind zygomorph und fünfzählig mit doppelter Blütenhülle. Die fünf Kelchblätter sind glockig verwachsen und am Rücken ausgesackt. Die Kelchzähne sind eiförmig-lanzettlich. Die unteren Kelchzähne sind etwa dreimal so lang wie die Kelchröhre, sowie schmaler und länger als die oberen. Die 15 bis 36 Millimeter lange Blütenkrone hat den typischen Aufbau von Schmetterlingsblüten. Bei der Unterart "Pisum sativum" subsp. "sativum" ist die Fahne weiß, bei der Unterart "Pisum sativum" subsp. "elatius" ist die Fahne blasslilafarben und die Flügel sind dunkelpurpurfarben. Frucht und Samen. Die Hülsenfrüchte sind 3 bis 12 Zentimeter lang, 1 bis 2,5 Zentimeter dick und je nach Sorte grün, gelb oder bräunlich, selten schwarz. Die Hülsenfrüchte enthalten vier bis zehn Samen, die wie die Pflanze Erbsen genannt werden. Die Samen weisen einen Durchmesser von 3 bis 9 Millimetern auf und sind je nach Sorte unterschiedlich gefärbt. Das Hilum ist bei einem Durchmesser von etwa 2 Millimetern elliptisch bis kreisrund. Chromosomenzahl. Die Chromosomenzahl beträgt 2n = 14. Ökologie und Phänologie. An den Seitenwurzeln befinden sich die Wurzelknöllchen. Die Erbse geht eine Symbiose spezifisch mit dem stickstoffbindenden Knöllchenbakterien "Rhizobium leguminosarum" symbiovar viciae ein, die bei "Pisum sativum" und anderen Schmetterlingsblütlern erstmals durch den Italiener Malphigi 1675 in seinem Werk "Anatome plantarum" beschrieben wurde. Außerdem ist eine arbuskuläre Mykorrhiza mit dem Pilz "Glomus intraradices" und anderen Pilzarten bedeutsam, die vor allem die Phosphorversorgung verbessert. Blütenökologisch handelt es sich um „Nektarführende Schmetterlingsblumen (= Schiffchenblumen)“. Der Bestäubungsmechanismus stellt eine Kombination aus Pump- und Bürstenmechanismus dar. Die Blüten duften nach Honig. Die unteren Kronblätter sind so eng miteinander verbunden, dass nur Hummeln zum Nektar gelangen können, aber selbst diese besuchen die Blüten wenig. In Mitteleuropa wird die Erbse nur von wenigen Bienen besucht. Der Samenansatz erfolgt daher bei uns überwiegend über eine Selbstbestäubung der kleistogamen Blüten. Zumindest in Mitteleuropa ist die Erbse ganz überwiegend autogam. Die Blütezeit reicht von Mai bis Juni, wobei eine Blüte etwa drei Tage und ein Exemplar zehn bis 21 Tage blüht. Die aufgeblähten Hülsenfrüchte wirken als Austrocknungsstreuer. Es liegen typische Rollsamen mit einer in diesem Fall durchscheinenden Samenschale vor, so dass einige Merkmale der Folgegeneration bereits auf der Mutterpflanze an den Samen zu erkennen sind. Chromosomensatz und Mutanten. "Pisum sativum" mit dem Chromosomensatz 2n = 14 ist ein klassisches Objekt der Mutationsforschung. Besonders auffällig sind die doppelt gefiederten Mutanten, bei denen alle Fiedern zu Ranken umgebildet sind, so dass, wie bei der Ranken-Platterbse "Lathyrus aphaca", die Photosynthese fast nur von den großen Nebenblättern übernommen wird. Inhaltsstoffe. Grüne, unreife Erbsen enthalten 18 bis 20 % Trockensubstanz, die sich folgendermaßen verteilt: 5–8 % Protein, 0,5 % Fett, 10–15 % Kohlenhydrate. Reife Samen enthalten 20–25 % Eiweiß, 1–3 % Fett und 60 % Kohlenhydrate. Marquard gibt folgende Prozentzahlen, bezogen auf das Trockengewicht, an: 25,7 % Rohprotein, 1,4 % Rohfett, 53,7 % Kohlenhydrate, 18,7 % Ballaststoffe und 2,9 % Mineralstoffe. Die für den Menschen essentiellen Aminosäuren sind in Erbsen wie folgt vorhanden (in Gramm pro 16 Gramm Stickstoff): (Cystein 1,0), Methionin 0,9, Lysin 7,3, Isoleucin 4,2, Leucin 7,0, Phenylalanin 4,4, (Tyrosin 3,1), Threonin 3,8, Tryptophan 1,5, Valin 4,7. Trockenspeiseerbsen besitzen einen Tanningehalt von 0,9 bis 1,4 %, der Tanningehalt von Futtererbsen liegt zwischen 1,5 und 2,5 %. Erbsen enthalten wie die meisten Leguminosen Phytoöstrogene, die die Fruchtbarkeit von Säugetieren reduzieren. In Indien verwendeten Frauen Suppe aus Erbsenhülsen zur Verzögerung der Empfängnis. Erbsensamen enthalten in geringem Ausmaß auch cyanogene Glycoside (Linamarin), etwa 2,3 mg HCN pro 100 g. Systematik. Die Erstveröffentlichung zu "Pisum sativum" erfolgte 1753 durch Carl von Linné in "Species Plantarum", 2, S. 727. Innerhalb der weitgefassten Art "Pisum sativum" existiert ein breitgefächerter Schwarm unklar abgrenzbarer Formen, Kultivaren und Landrassen, die von verschiedenen Autoren als mehr als 100 Unterarten oder Varietäten beschrieben worden sind. Diese sind nach genetischen Analysen stark durch Hybridisierung und Introgression geprägt.. Darunter ist auch die vermutliche wilde Stammform der kultivierten Erbse, meist als Unterart "Pisum sativum" subsp. "elatius" bezeichnet. Die wildwachsenden Sippen besitzen ein großes Areal, das vom mediterranen Südeuropa und Nordafrika, westlich bis Spanien, über Vorder- und Zentralasien und Iran bis Turkmenistan reicht. Die genetischen Analysen bestätigen einen Ursprung der Kulturform daraus im "Fruchtbaren Halbmond" in Westasien. Die genetische Variabilität der Wildform ist, wie zu erwarten, erheblich höher als diejenige der Kulturform, und schließt diese mit ein. Viele Autoren erkennen daneben eine zweite wilde Unterart an, die "Pisum sativum" subsp. "syriacum" oder "Pisum sativum" subsp. "pumilio" genannt wird; diese ist östlicher verbreitet und kommt von Zentralanatolien an ostwärts vor. Ihre genetische Basis ist unklar, sie ist zudem durch einen breiten Schwarm von Mischformen mit "elatius" verbunden. Anbau. 2012 wurden weltweit 18.490.920 Tonnen grüne Erbsen und 10.400.732 Tonnen Trockenerbsen geerntet.. Heute wichtigstes Anbauland ist Kanada mit etwa einem Drittel der Welternte. Die Anbaufläche in Deutschland lag im Jahr 2014 bei 41.700 Hektar mit Schwerpunkt in Ostdeutschland. Der Anbau ist in den letzten beiden Jahrzehnten rückläufig (2001 noch 139.000 Hektar), insbesondere bei Futtererbsen für die Viehzucht. Die Kulturform ist heute weltweit in gemäßigten Gebieten verbreitet, bis zu 67° nördlicher Breite etwa in Skandinavien. In den Alpen wächst sie bis in Höhenlagen von 2000 Metern. Die Erbse gedeiht am besten auf Lehmböden mit ausreichend Humus und Kalk, ausgeglichener Wasserführung und guter Durchlüftung, etwa Löß- und tiefgründigen Kalkböden. Die Bodenreaktion soll im neutralen bis schwach basischen Bereich, etwa zwischen pH 6 und 7, liegen. Nicht geeignet sind schwere Tonböden, Sand- und Moorböden. Die Erbse hat eine starke Unverträglichkeit zu sich selbst, daher müssen Anbaupausen von sechs bis acht Jahren eingehalten werden. Sie gilt aufgrund des frühen Erntetermins und der positiven Beeinflussung der Bodenstruktur als gute Vorfrucht für Raps und Wintergetreide. Erbsen werden in Mitteleuropa im Frühjahr, von März bis Anfang April, mittels Drillsaat ausgesät. Auch Mischanbau mit Ackerbohne oder Getreiden kommt vor. Als stickstoff-fixierende Leguminose ist nur wenig oder keine Stickstoffdüngung notwendig. Erbsen sind recht empfindlich gegenüber Unkraut, so dass meist Herbizide eingesetzt werden. Auf Erbsen und Erbsenpflanzen als Nahrungsgrundlage haben sich der Erbsenkäfer, der Erbsenwickler und die Erbsenblattlaus spezialisiert. Problematisch werden oft auch Blattrandkäfer (Gattung "Sitona"). Verwendung. Der größte Teil der Trockenerbsen wird in der Tierernährung als Erbsenschrot verfüttert, ebenso Erbsenfuttermehl aus der Nahrungsmittelproduktion und Erbsenkleie als Rückstand in der Schälmüllerei. Auch Erbsenstroh wird wegen seines hohen Nährstoffgehalts verfüttert. Die Erbse wird als Grünfutter und als Gründünger verwendet. Für die menschliche Ernährung wurden ursprünglich ebenfalls Trockenerbsen verwendet, die hauptsächlich als Mus zubereitet wurden. Heute noch verbreitet ist die Erbsensuppe. Im 19. Jahrhundert entstand die Erbswurst. Getrocknete Erbsen werden als ganze Erbsen (mit Samenschale) oder als halbe Erbsen (deren Samenschale entfernt wurde) benutzt. Heute werden Erbsen in Mitteleuropa hauptsächlich grün zubereitet. Häufig finden Erbsen in Form von Konserven und tiefgekühlt Verwendung; seltener frisch, da Erbsen nicht besonders lange haltbar sind und rasch an Geschmack verlieren. Im Gegensatz zu früher wird sie als Gemüsebeilage verwendet, weniger als Hauptnahrungsmittel. Gekeimte Erbsen könnten nach Untersuchungen von Urbano 2005 die Nährstoffe besser verdaulich machen. Züchtungen der Markerbse werden als nachwachsende Rohstoffe für die Gewinnung von Stärke eingesetzt, z. B. zur Herstellung biologisch abbaubarer Folien. Geschichte. Ab etwa 8000 v. Chr. ist der Anbau von Erbsen durch archäologische Funde belegt, damit gehört sie mit zu den ältesten Kulturpflanzen. Bei vielen der ältesten Funde ist allerdings die Unterscheidung zwischen angebauten und wild gesammelten Erbsen mitunter schwierig, das wichtigste Merkmal, die Struktur der Samenschale, ist meist nicht erhalten. Funde liegen aus zahlreichen Siedlungen des präkeramischen Neolithikums aus dem fruchtbaren Halbmond Vorderasiens vor. Die bisher ältesten Funde stammen aus Aswad in Syrien und sind etwa 10.500 bis 10.200 Jahre alt, Funde aus Çayönü in Anatolien und Jericho im Jordantal sind nur wenig jünger. Schon ab ca. 7.000 v. Chr. liegen auch Funde aus Ausgrabungen von Zypern und aus dem Ägäisraum vor. Funde aus Nea Nikomedeia sind ca. 8.400 bis 8.200 Jahre alt. Auch in Bulgarien ist die Kultur fast ebenso alt. In Deutschland war die Erbse, wie auch die Linse, neben Getreide das Grundnahrungsmittel der ältesten Ackerbauern, den Bandkeramikern. An jeder zweiten Getreidefundstelle kommen auch Erbsen vor, Nordgrenze war der nördliche Rand der Mittelgebirge. Aus der Mittleren Jungsteinzeit liegen anteilsmäßig wesentlich weniger Erbsenfunde vor, die Ursache dafür ist ungeklärt, lag aber möglicherweise in einer vermehrten Nutztierhaltung. In der Bronzezeit, ab etwa 1800 v. Chr., nahm der Anteil der Hülsenfrüchte und damit auch der Erbsen wieder zu. Im Altertum wurde die Erbse in Europa ebenfalls weit verbreitet angebaut. Die antiken griechischen und römischen Autoren erwähnen sie aber nur selten und beiläufig. Auch im Capitulare de villis Karls des Großen werden Erbsen erwähnt ("pisos mauriscos"). Im 13. Jahrhundert erwähnte Petrus de Crescentia aus Bologna weißsamige Erbsen. In den Kräuterbüchern des 16. Jahrhunderts werden "Kleine Felderbsen" mit weißen Blüten und "Große Gartenerbsen" mit rosa oder roten Blüten unterschieden, z. B. bei Leonhart Fuchs. Eine Tradition als Heilpflanze scheint es nicht zu geben, Madaus' sonst umfassendes "Lehrbuch der biologischen Heilmittel" erwähnt die Erbse gar nicht. Bis ins 17. Jahrhundert wurde die Erbse als Trockengemüse verwendet und im Allgemeinen als Mus gegessen. Erst ab dem 16. oder 17. Jahrhundert wurden Sorten gezüchtet, die man unreif und grün verspeiste oder als Zuckererbsen mit der Hülse. Zu Beginn waren diese Erbsen sehr teuer und etwa am Hof König Ludwig XIV. sehr beliebt. Die Trockenerbsen wurden jedoch erst durch die modernen Konservierungstechniken (Konserven, Tiefkühlen) vom Speisezettel verdrängt. Sie erleben mit der Vollwertküche wieder eine kleine Renaissance. Brauchtum. Erbsen galten einerseits als Totenspeise. Wer in der Karwoche Erbsen aß, sollte bald eine Leiche im Haus haben. Auch das Verspeisen von Erbsen während der zwölf Rauhnächte sollte zu verschiedenen Unglücksfällen führen. In Böhmen war es Brauch, am Heiligen Abend in die Ecken der Stuben kreuzweise Erbsenmus zu streuen, wohl ein Relikt aus der Verehrung der Totengeister, später sagte man „für die Mäuse“. In manchen Gegenden ist Erbsensuppe fixer Bestandteil des Leichenschmauses, so in Mecklenburg. In Freiburg im Breisgau wurde sie bei der Totenwache gereicht. Erbsen galten auch als Fruchtbarkeitsbringer, da die verstorbenen Ahnen auch die Fruchtbarkeit brachten. Einige Bräuche in diesem Zusammenhang waren/sind: Erbsen als erstes Futter für die Schweine an Neujahr (Ostpreußen); Schlagen eines Sackes mit Erbsen an Obstbäume, damit sie soviel Früchte wie Erbsen im Sack tragen; Erbsen als Hochzeitsspeise; Erbsen zum Bewerfen des Brautpaares. Als Fruchtbarkeitsbringer sei auch der Erbsenbär erwähnt, der etwa im rheinländischen Karneval oder im alemannischen Raum vorkommt, oder in Ostdeutschland bis ins 20. Jahrhundert Bestandteil des Brautzugs war. Der Erbsenbär war in germanischer Zeit eine Verkörperung des Gewittergottes Thor (Donar), von daher kommt auch der Brauch in manchen Gebieten Deutschlands, am Donnerstag Erbsensuppe zu essen (z. B. Schwaben). In der Bibel werden Erbsen nicht erwähnt. In Märchen sind sie profanes Nahrungsmittel, z. B. in Basiles "Der Floh", "Der Dummling", "Der goldene Stamm", im berühmten "Aschenputtel" und in "Der junge Riese" aus Grimms Märchen. In "Die zwölf Jäger", "Der Räuberbräutigam", "Das blaue Licht" sollen ausgestreute Erbsen den Bräutigam oder Übeltäter entdecken. In Hans Christian Andersens "Die Prinzessin auf der Erbse" wird damit vornehme Herkunft geprüft, "Fünf aus einer Schote" hingegen zeigt existentielle Not, wie auch Bechsteins Sage Nr. 715 "Der Erbsenacker". Erbsenmus galt als Leibspeise von Zwergen und Heinzelmännchen, vgl. Grimms Sage Nr. 156 "Schmied Riechert". Erasmus Reinhold. Erasmus Reinhold (* 22. Oktober 1511 in Saale; † 19. Februar 1553 ebenda) war ein deutscher Astronom und Mathematiker. Er ist einer der ersten Verfechter des kopernikanischen Weltbilds und entwickelte dieses weiter. Er kann daher als Bindeglied zwischen Kopernikus und Kepler betrachtet werden. Leben. Reinhold wurde seit dem Wintersemester 1530/31 an der Universität Wittenberg ausgebildet und wurde dort auch Rektor. 1535 wurde er Magister der sieben freien Künste und am 30. April 1536 fand er Aufnahme in den Senat der philosophischen Fakultät. 1536 erhielt er dort eine Professur für höhere Mathematik von Philipp Melanchthon, ähnlich wie Rheticus. Reinhold identifizierte und beschrieb eine große Anzahl von Sternen. Er hatte sich auch an den organisatorischen Aufgaben der Hochschule beteiligt. So war er im Wintersemester 1540/41, sowie im Sommersemester 1549 Dekan der philosophischen Fakultät und wurde im Wintersemester WS 1549/50 Rektor der Alma Mater. Er benutzte moderat pragmatisch die Lehren des Nikolaus Kopernikus. Von Herzog Albrecht von Brandenburg-Ansbach wurde er unterstützt, welcher den Druck der Preußischen Tafeln finanzierte, woher diese ihren Namen erhielten. Diese astronomischen Tafeln halfen das kopernikanische System im ganzen Deutschen Reich und darüber hinaus bekannt zu machen. Reinhold war für seine genauen Messwerte bekannt. Bezeichnend ist, dass Tycho Brahe so sehr an Reinholds Messungen interessiert war, dass dieser selbst die Reise nach Saalfeld zu Reinhold antrat. 1582 wurden die Berechnungen des Kopernikus und die Preußischen Tafeln zur Grundlage für die Gregorianische Kalenderreform genutzt. Der Mondkrater Reinhold ist nach ihm benannt. In seiner Heimatstadt Saalfeld sind ein Gymnasium und eine Straße nach ihm benannt. Elfenbein. a>; erste menschliche Darstellung mit erkennbaren Gesichtszügen; jüngere Altsteinzeit Elfenbein bezeichnet im engeren Sinne die Substanz der Stoßzähne von Elefant und Mammut, wobei der getötete Elefant Hauptquelle von Elfenbein ist, während das ausgestorbene Mammut das fossile Elfenbein liefert. Im weiteren Sinne wird unter Elfenbein auch das Zahnbein der Stoß- und Eckzähne verschiedener Säugetiere verstanden (Walross, Pottwal, Narwal, Flusspferd). Elfenbein ist seit alters her Werkstoff zur Herstellung von Gebrauchs- und Schmuckgegenständen. Die steigenden Ansprüche einer wachsenden Weltbevölkerung haben beim Elfenbein Probleme geschaffen, die den Bestand vor allem des afrikanischen Elefanten gefährden. Ägyptische Elfenbeintafel, Beutestück der assyrischen Könige, gefunden in Nimrud Etymologie und Definition. Das deutsche Wort "Elfenbein" (mittelhochdeutsch "helfenbein", althochdeutsch "helfantbein") bedeutet "Elefantenknochen". Es geht zurück auf das altgriechische ἐλέφας und das lateinische "elephantus", was zunächst das Material bezeichnete und später auch auf das Tier übertragen wurde, als Griechen und Römer es kennenlernten. Im alten Rom wurde es auch "indisches Horn" genannt, wie den Epigrammen Martials zu entnehmen ist, wo es zur Herstellung von Zahnersatz diente. Geschichtlich ist "Elfenbein" in der Regel nur auf das Stoßzahnmaterial der Elefanten und Mammuts bezogen worden. Dementsprechend unterscheiden Kunstgeschichte und Antiquitätenhandel dieses von anderem Zahnmaterial. Auch im Artenschutzrecht geht es bei dieser Bezeichnung um die Stoßzähne der Elefanten, insbesondere des afrikanischen Elefanten. Überblick. Während der längsten Zeitspanne der Menschheitsgeschichte, der Steinzeit, diente die Jagd allein dem Nahrungserwerb. Bei den unverdaulichen Teilen (Felle, Häute, Horn, Knochen, Elfenbein) fand eine Resteverwertung statt. Eine Änderung trat ein mit dem Aufkommen von Ackerbau und Viehzucht und der Entstehung von Hochkulturen, vor allem im afro-asiatischen Raum. Elfenbein wurde Bestandteil dieser Kulturen und es begann die Jagd auf Elefanten allein des Elfenbeins wegen. Die Wehrhaftigkeit des Elefanten und die Gefahren der Jagd machten Elfenbein zu einem kostbaren Rohstoff, der später auch Eingang in die Kulturen der Griechen und Römer fand. Die Seltenheit des Materials über mehr als 2000 Jahre hinweg sicherte Elfenbein eine ähnliche Wertschätzung wie Gold. Eine erste folgenschwere Änderung wurde vorbereitet durch die Übernahme des Elfenbeinhandels durch die Kolonialmächte England, die Niederlande und Portugal, die für ein Überangebot sorgten. Ende des 19. Jahrhunderts wurden jährlich über 800 Tonnen Elfenbein nach Europa eingeführt, was zur Verbilligung des Elfenbeins und zur industriellen Verarbeitung beitrug (Griffe aller Art, Klaviertasten, Gefäße, Schmuck, Knöpfe, Spielwürfel, Dominosteine, Billardkugeln). Hochrechnungen aus dem Jahr 1894 sprachen von 80.000 getöteten Tieren pro Jahr. Die zweite, weitaus ernstere Entwicklung bei dem inzwischen enorm dezimierten Elefantenbestand betrifft die Gegenwart. Schätzungen zufolge sank der Bestand innerhalb von nur 30 Jahren (1979–2007) von 1,3 Millionen auf 500.000 bis 700.000. Ursache ist die ständig steigende Nachfrage aus Souvenirhandel und den zu Wohlstand gekommenen Mittelschichten der aufstrebenden Völker Asiens. Gegenstände aus Elfenbein werden als Statussymbole hochgeschätzt. Hier ein Umdenken herbeizuführen bzw. der Wilderei von Elefanten entgegenzuwirken, haben sich internationale Tierschutz- und Umweltorganisationen zur Aufgabe gemacht. Beschreibung des Materials. Elfenbein ist das Zahnbein der aus dem Oberkiefer herauswachsenden Stoßzähne. Da diese nicht dem Zerkleinern der Nahrung dienen, sind weder Zahnschmelz noch Zahnwurzel vorhanden. Stoßzähne sind innen hohl (mit massiver Spitze) und bis zu einem gewissen Grade elastisch. Sie dienen als Waffe, die lebenslang stetig nachwächst. Beim Elfenbein des Elefanten handelt es sich um ein relativ weiches Material, das sich mit spanenden Werkzeugen leicht bearbeiten lässt (siehe Artikel Elfenbeinschnitzerei). Die Farbe ist ein warmes Weiß mit Abstufungen, Farbabweichungen sind selten. Als besonders wertvoll gilt gleichmäßig helles Elfenbein. Die Härte von Elfenbein nach der von 1 bis 10 reichenden Mohs-Skala wird in der Literatur mit 2 bis 3 angegeben, womit es etwa die Härte von Gold hat. Die Schwankungen ergeben sich aus dem Nahrungsangebot. Je mehr Mineralstoffe der Elefant zu sich nimmt, desto härter ist sein Stoßzahn. Die Dichte beträgt 1,7 bis 1,85 g/cm³ und liegt damit zwischen den Werten von Knochen und Leichtbeton. Elfenbein besteht zu etwa 56–59 % aus Calciumphosphat (Hauptbestandteil des Dentins) und einem geringen Anteil Calciumcarbonat („Kalk“). Die verbindende Substanz ist eine knorpelähnliche organische Masse, in die Wasser eingelagert ist. Beim Trocknen verliert Elfenbein rund 20 % an Gewicht. Die Trocknung muss schonend erfolgen, um Rissbildung zu vermeiden. Elfenbein wird durch kochendes Wasser biegsam und lässt sich verformen. Es kann gefärbt und gebleicht werden, verliert jedoch nicht die Neigung zu vergilben. Mit bloßem Auge ist im Querschnitt – im Unterschied zur Knochensubstanz – eine netzartige Zeichnung (Retzius'sche oder Schregersche Linien) zu erkennen, umgangssprachlich auch als Maserung bezeichnet. Die unterschiedlichen Schnittwinkel der sich kreuzenden Linien ermöglichen eine Zuordnung nach Tierart. Unter dem Mikroskop und durch spektroskopische Verfahren kann zwischen Asiatischem Elefanten, Afrikanischem Steppenelefanten, Afrikanischem Waldelefanten und Mammut unterschieden werden. Auch kommt neuerdings hochauflösende Röntgen-Computer-Tomographie (HRXCT) zum Einsatz. Diese zerstörungsfreien Untersuchungsmethoden dienen der Identifizierung und Herkunftsbestimmung des Elfenbeins und sind damit Grundlage für zollamtliche Maßnahmen (siehe Abschnitt "Elfenbein und Artenschutz"). Eine weitere – allerdings teurere - Methode stellen DNA-Analysen dar, die jedoch wegen der systembedingten Materialentnahmen nicht für Antiquitäten geeignet sind. Mittels DNA-Analyse lässt sich sogar eine genauere lokale Herkunft ermitteln. Verwendung. Elfenbein gehört wegen seiner Seltenheit und Schönheit seit alters her zu den kostbaren Rohstoffen, das in allen Kulturen als edles Material für kunstvoll gearbeitete Gegenstände mit höfischer, kultischer oder religiöser Bestimmung galt. Daneben fand es zu allen Zeiten auch Verwendung im profanen Bereich. Heute hat Elfenbein als Rohstoff in Europa seit Jahrzehnten praktisch keine Bedeutung mehr. Zur Herstellung von Gebrauchsgegenständen kommen preiswerte Kunststoffe zum Einsatz, die in allen Bereichen bessere Dienste leisten. Im Kunsthandwerk wird seit langem auf Elfenbein verzichtet. Ausnahme ist die Restaurierung antiker Stücke, wofür Material aus legalen Altbeständen verwendet werden kann. Der Hauptrohstoff der heutigen Elfenbeinschnitzer ist fossiles Mammutelfenbein. Hierfür bestehen keine Handelsverbote. Im Gegensatz dazu gilt Elefanten-Elfenbein mit einem geschätzten Schwarzmarktpreis von 2.200 Euro pro Kilogramm (2013) vor allem in China als prestigeträchtiges Material für Luxusgegenstände wie beispielsweise ein innen und außen mit Elfenbein verkleidetes Nobelauto. Allgemeines. Der Elfenbeinhandel ist Teil der beispiellosen Ausplünderung eines ganzen Erdteils, wobei auch einst der Mensch zur Ware gemacht wurde (Sklavenhandel). Der Kampf um die Rohstoffe Afrikas, der von den europäischen Kolonialmächten einst entfacht wurde und heute mit weiteren Beteiligten noch im Gange ist, wird unter anderem als Ursache für die Destabilisierung in manchen Regionen und die wachsende Zahl gescheiterter Staaten angesehen. Fehlende oder beschädigte staatliche Ordnung begünstigt den Raubbau und im Falle des Elfenbeins eine ausufernde Wilderei. Die unkontrollierte Ausbeutung verhinderte weitgehend die Entwicklung einer auf Nachhaltigkeit gerichteten Wirtschaftsweise und verlagerte die Wertschöpfung in andere Teile der Welt. Der Elfenbeinhandel lag über Jahrhunderte hinweg in den Händen afrikanischer und arabischer Kaufleute. Archaische Jagdmethoden (Pfeil und Bogen, Speer, Fallgruben) und die Erschwernisse des Transportes (Trägerkolonnen, Einbäume) verhinderten eine Überjagung und setzten dem Handelsvolumen natürliche Grenzen. Das änderte sich mit dem Eintreffen der Europäer und ihrem technologischen Vorsprung im Schiffbau (Karavelle) und in der Waffentechnik (Feuerwaffen). Den ersten verhaltenen und friedlichen Schritten folgten bald Kolonisierung, Missionierung, Übernahme des Handels und Verlagerung der Handelsplätze. Haupthandelsplätze für Elfenbein wurden Amsterdam und London. Diesen Status verloren sie erst während des Zweiten Weltkrieges an Plätze in Ostasien, hier vor allem an die damalige britische Kronkolonie Hongkong. Legaler Handel. Während der Zeit, als Europäer – hauptsächlich Großbritannien – den Elfenbeinhandel dominierten, gab es weder den Begriff der Wilderei, noch den des illegalen Handels. Alles, was die Kolonialmächte im Rahmen ihrer auf Bereicherung angelegten Unternehmungen taten, galt als legal, insbesondere die Überbejagung mit der starken Dezimierung der Elefantenbestände im 19. Jahrhundert. Erst durch den augenfälligen Schwund der Elefanten und die immer jünger werdende Jagdbeute – erkennbar an den kleineren Stoßzähnen - setzte ein Umdenken ein. Nach dem Washingtoner Artenschutzübereinkommen (CITES), das 179 der 193 Mitgliedstaaten der Vereinten Nationen unterzeichnet haben (Stand 2013), ist der Handel mit Elfenbein eingeschränkt. Legal ist der Handel mit Elfenbein-Antiquitäten, die vor dem 1. Juni 1947 hergestellt worden sind, was von einem öffentlich anerkannten Gutachter für Artenschutz bescheinigt werden muss. Ferner gibt es Ausnahmeregelungen für einzelne Staaten. In Thailand ist der Handel mit Elfenbein gestattet, das von den eigenen 4.000 asiatischen Zuchtelefanten stammt. Ebenfalls unter Auflagen erlaubt ist der Elfenbeinhandel (seit 1999) den vier südafrikanischen Staaten Namibia, Botswana, Simbabwe und der Republik Südafrika, weil deren Elefantenpopulationen als stabilisiert angesehen werden. Diese vier Länder durften 1999 und 2008 insgesamt 151 Tonnen Elfenbein an Händler aus Japan und China versteigern. Artenschutzorganisationen hatten vor diesen Verkäufen gewarnt, weil sie befürchteten, dass auf diesem Weg gewildertes Elfenbein in den Markt geschleust werden könnte, was nach Einschätzung von Beobachtern auch tatsächlich der Fall war. Illegaler Handel. Der illegale Handel wird durch die große Nachfrage und den Schmuggel von gewildertem Elfenbein in Gang gehalten. Vom Zoll unentdeckte Schmuggelware, die den Empfänger erreicht, kann verbotenerweise als legales Elfenbein deklariert und innerhalb des Empfängerlandes gehandelt und verarbeitet werden. Internationale Abkommen entfalten hier keine Wirkung. Als Haupthandlungsplatz für illegales Elfenbein gilt Hongkong. Das Gesamtvolumen des Schwarzmarktes kann nur abgeschätzt werden. Man nimmt an, dass die Zollbehörden nur etwa jede zehnte Lieferung entdecken. Problematik. Die Kontrolle des generell geltenden Elfenbein-Handelsverbotes wird durch verschiedene Umstände erschwert bzw. unmöglich gemacht. Große formale Hindernisse bestehen darin, dass nicht alle Staaten das Artenschutzübereinkommen unterzeichnet haben und es keine Zwangsmittel zur Durchsetzung des Abkommens gibt. Die Praxis zeigt außerdem die Hilflosigkeit gegenüber der auf allen Ebenen verbreiteten Korruption. Im Handel ist es praktisch unmöglich, zwischen legalem und illegalem Elfenbein zu unterscheiden. Wilderei. Überreste eines wegen seines Elfenbeins gewilderten Elefanten Jungfrau mit Kind, Frankreich 13. Jh. Der Begriff Wilderei entstammt dem Jagdrecht der europäischen Staaten. Im Zuge der Europäischen Expansion (Kolonialismus) wurden diese Normen auch Völkern mit grundlegend anderer Jagdauffassung und archaischen Jagdmethoden aufgezwungen, denen der Tatbestand der Wilderei fremd war. Europäer betrachteten sich in weiten Teilen der Welt als Jagdherren, wobei Wildtiere als herrenlos galten und zum Vergnügen abgeschossen werden durften. Britische Gouverneure in Indien setzten sogar Belohnungen aus. Bis weit ins 20. Jahrhundert hinein war die Großwildjagd eine gesellschaftlich anerkannte Veranstaltung, die kaum einer Genehmigung bedurfte. Hohe Kosten für Ausstattung und Logistik verhinderten allerdings die schädliche Entwicklung zum Breitensport. Erst das Ende des Kolonialismus nach dem Zweiten Weltkrieg und die Bildung unabhängiger Staaten brachten hier die Wende. An die Stelle von Rechtlosigkeit und Anarchie oder nationaler Regelungen traten im Laufe der Zeit immer mehr Abmachungen der Staatengemeinschaft und eine internationale Ächtung der Wilderei. Die bisher umgesetzten Maßnahmen konnten aber nicht verhindern, dass die steigende Nachfrage nach Elfenbein hauptsächlich durch Wilderei und Schmuggel gedeckt wird. Schätzungen zufolge werden derzeit in Afrika zirka 38.000 Elefanten pro Jahr gewildert. Eine seit Jahren zu beobachtende, bedrohliche Entwicklung in Teilen Afrikas stellen die Aktivitäten der verschiedenen Rebellen- und Terrorgruppen dar, die stark bewaffnet als Wilderer auftreten und sich aus dem schmutzigen Elfenbeingeschäft finanzieren. Elfenbein und Artenschutz. Dem Artenschutz, das heißt der Erhaltung der Artenvielfalt kann auf verschiedene Weise gedient werden. Die älteste und bekannteste Maßnahme ist die Einrichtung von Schutzgebieten. Zur Durchsetzung des Schutzgedankens werden Wildhüter eingesetzt, die anfangs unbewaffnet waren oder leichte Polizeiwaffen zur Selbstverteidigung hatten. Da jedoch Wilderer inzwischen bandenmäßig organisiert und stark bewaffnet auftreten, wurden die Einsatzkräfte mit Sturmgewehren und anderen automatischen Waffen ausgerüstet. Eine Steigerung im Kampf gegen die Wilderei stellen Hubschrauber, Überwachungs-Drohnen und Bluthunde dar. Da die Weite der zu überwachenden Gebiete oft nur zufällige Erfolge zulässt, kommen zu den Bemühungen vor Ort, Maßnahmen gegen Schmuggel an den Grenzen. Hierzu zählen vor allem die Zollkontrollen in Seehäfen und Flughäfen, und zwar sowohl in den Herkunftsländern als auch in den Empfängerländern – zum Teil mit Hilfe von Spürhunden. Das stetige Anwachsen der Zolllager und die Angst vor Diebstahl haben weltweit zu der Überzeugung geführt, dass beschlagnahmtes Elfenbein endgültig aus dem Verkehr gezogen werden muss. Die medienwirksame, das heißt öffentliche Zerstörung von illegalem Elfenbein gilt als das eindeutige Null-Toleranz-Signal gegen Wilderei und Schmuggel. Seit 1989 konnten in spektakulären Aktionen über 70 Tonnen geschmuggelten Elfenbeins vernichtet werden. Den Anfang machte Kenia, das 12 Tonnen verbrannte. Weitere afrikanische Staaten (Sambia 10 Tonnen, Gabun 5 Tonnen) folgten dem Beispiel. Kenia übergab 2011 abermals fast 5 Tonnen Elfenbein den Flammen. Bis heute (2015) zerstörten folgende Staaten ihre beschlagnahmten Elfenbeinbestände: Philippinen 5 Tonnen, USA 6 Tonnen, China 6 Tonnen, Frankreich 3 Tonnen, Dubai 18 Tonnen (1992 und 2015), Republik Kongo 5 Tonnen. Einer Ankündigung zufolge plant Hongkong die Vernichtung von 28 Tonnen geschmuggelten Elfenbeins. Eine wichtige und zukunftsweisende Initiative zum Artenschutz besteht darin, die Nachfrage in den Empfängerländern zu senken. Aufklärung und Sensibilisierung der Verbraucher sollen ein Umdenken herbeiführen. Die von IFAW und WWF in China durchgeführten Marktforschungsstudien ergaben, dass die Mehrheit der befragten Personen falsche Vorstellungen von der Herkunft des Elfenbeins hatte. Allgemein verbreitet war die Meinung, dass Elefanten-Stoßzähne ähnlich wie Geweihe von lebenden Tieren abgeworfen werden. Nach Aufdeckung der wahren Zusammenhänge stellten sich Betroffenheit und Scham ein und das Versprechen, keine Elfenbein-Produkte zu kaufen. Die Artenschutz-Organisationen hoffen, in China eine ähnliche Entwicklung in Gang zu setzen wie in Japan 30 Jahre vorher. Japan stand seinerzeit mit 470 Tonnen pro Jahr an der Spitze des Weltverbrauchs an Elfenbein. Der heutige Verbrauch beträgt nicht mehr als ein Zehntel. Elfenbein vom Mammut. Querschnitt durch den fossilen Stoßzahn eines Mammuts a> (12. Jahrhundert) aus Walross- und Walzähnen Als früheste Zeugnisse menschlichen Kunstschaffens gelten steinzeitliche Figuren aus Mammut-Elfenbein (siehe Abschnitt "Kunstgeschichte des Elfenbeins"). Nachdem die letzten Mammuts vor etwa 4000 Jahren ausgestorben waren, kommen die Stoßzähne nur noch in fossiler Form vor. Sie stammen hauptsächlich aus dem nördlichen Teil Sibiriens, wo sie während des arktischen Sommers ausgegraben werden, wenn der Permafrostboden auftaut und die Schätze freigibt. Eine systematische Gewinnung ist wegen der Größe des Landes nicht möglich. Eine mitunter gefährliche Suche wird an den Steilküsten der Polarmeere betrieben, an denen durch Erdabbrüche Stoßzähne freigelegt werden. Auch in Kanada und Alaska wird Mammut-Elfenbein gefunden. Die Herkunft aus einer längst vergangenen Epoche der Menschheitsgeschichte macht Mammut-Elfenbein zu einem faszinierenden und einzigartigen Rohstoff. Mit seinen Verfärbungen findet es besonders in der modernen Schmuckherstellung Verwendung. Die Farbpalette reicht von beige bis dunkelbraun, von blau bis grün in allen Nuancen, bis hin zu schwarz. Stoßzähne nehmen die Farben der Mineralien an, denen sie in der Erde ausgesetzt sind. Die drei Handelsklassen richten sich nach dem Verwitterungsgrad der Stoßzähne. Die Ausbeute bei gut erhaltenen Funden (Handelsklasse A) ist relativ hoch, da Mammut-Stoßzähne durchgehend massiv sind. Mammut-Elfenbein hat eine Dichte von 2 bis 2,2 g/cm³ und ist etwa ein Fünftel schwerer als Elefanten-Elfenbein. Die Schnitzqualität ist etwa gleich. Die Härte beträgt auf der Mohs-Skala zumeist 2,75-3,5 und entspricht der Härte von Gold. Der Handel mit Mammut-Elfenbein ist seit Jahrhunderten belegt. Nach China wurde es bereits in der frühen Kaiserzeit geliefert und auch die Griechen der Antike kannten es, wie Theophrast berichtete. China ist auch heute (2014) der größte Importeur. Solange Elefanten-Elfenbein frei verfügbar war, hatte das eiszeitliche Elfenbein auf Grund der Risse und Verfärbungen keinen großen Markt. Russland exportierte um 1900 lediglich 20 Tonnen pro Jahr. Die Nachfrage stieg erst, als die Handelsverbote für Elefanten-Elfenbein in Kraft traten. Seitdem beläuft sich der Export sibirischen Elfenbeins auf jährlich etwa 60 Tonnen. Der Handel unterliegt keinerlei Beschränkungen. Artenschützer hoffen, dass fossiles Elfenbein dazu beiträgt, die Nachfrage nach Elfenbein vom lebenden Elefanten zu senken. Elfenbein von anderen Tieren. Im Mittelalter galt der Stoßzahn des Narwals wegen seiner Seltenheit und der rätselhaften Herkunft als kostbarster Stoff, der zeitweise mit dem zehnfachen Wert des Goldes aufgewogen wurde. Er beflügelte die Phantasie und wurde für das heilbringende Horn des sagenhaften Einhorns gehalten (siehe ausführliche Darstellung im Artikel Ainkhürn). Die spiralartig gewundenen Stoßzähne des Narwals gelangten meist unzerteilt als bestaunte Stücke in die Raritäten-Sammlungen der europäischen Höfe. Einzelne Zähne wurden auch zu Insignien weltlicher und geistlicher Herrscher (Zepter, Bischofsstab, Thron) verarbeitet. Ebenfalls wertvoll ist das Elfenbein der Walross-Eckzähne, die zeitlebens nachwachsen und eine Länge von 50 cm und mehr erreichen. Die intensive Bejagung seit dem 16. Jahrhundert führte zu starker Dezimierung bzw. gebietsweiser Ausrottung. Nach dem Washingtoner Artenschutzübereinkommen von 1973 ist die Jagd auf Walrosse und die Verwertung nur den arktischen Küstenvölkern gestattet, die ihre Lizenzen seit einigen Jahren aber auch an Hobbyjäger abtreten. Kunsthandwerkliche Arbeiten aus Walross-Elfenbein haben eine lange Tradition und reichen etwa 2000 Jahre zurück (siehe auch Artikel Scrimshaw). Ebenfalls aus Walross-Elfenbein wurden Harpunenspitzen hergestellt. Ein nie vergilbendes Elfenbein liefern die etwa 30 cm langen Eckzähne der Flusspferde. Aus ihnen wurden früher hauptsächlich künstliche Zähne hergestellt. Die ehemals im Nil beheimateten Flusspferde, auch "Nilpferde" genannt, waren bereits Anfang des 19. Jahrhunderts ausgerottet. Kunstgeschichte des Elfenbeins. Elfenbein (brandgeschwärzt) und Gold, Delphi, 6. Jh. v. Chr. Chinesische Schmerzpuppe, 18. Jh., Museumsreplikat aus elfenbeinadäquatem Material Bereits in der Steinzeit fertigten Menschen aus Elfenbein Gebrauchsgegenstände (Nadeln, Speerspitzen) und kleine Skulpturen. Die ältesten bisher gefundenen Kunstwerke sind die Venus vom Hohlefels, der Löwenmensch und Tierfiguren aus Mammut-Elfenbein, für die ein Alter von über 30.000 Jahren angenommen wird. Aus Ägypten sind Grabbeigaben aus Elfenbein ab 4000 v. Chr. bekannt (Badari-Kultur). In Mesopotamien und Syrien wurden Funde aus der Bronzezeit geborgen, wobei meist Eck- und Schneidezähne von Nilpferden Verwendung fanden. Schnitzereien und Reliefarbeiten, die als Intarsien in Holzobjekte oder Möbel eingesetzt waren, konnten an mehreren Fundorten wie Qatna, Ebla, Ugarit, Alalach gesichert werden. Mit dem Aufstieg der Phönizier zur bedeutenden Handelsmacht im Mittelmeer (ab 1000 v. Chr.) gelangten die begehrten Elfenbeinarbeiten phönizischer Kunsthandwerker in viele Länder Europas und Vorderasiens. Nach der Ausrottung der damals auch in Syrien heimischen Elefanten wurde der Rohstoff unter anderem auf den Transsahara-Karawanenstraßen aus dem Innern Afrikas herangeschafft. Als berühmteste semitische Elfenbeinarbeit gilt der im Alten Testament beschriebene Thron des Salomo. Eine einzigartige Verwendung fand Elfenbein bei der Gestaltung der Zeusstatue in Olympia, eines der Sieben Weltwunder der Antike, die der griechische Bildhauer Phidias etwa 430 v. Chr. schuf. Die 12 Meter hohe Kolossalstatue ist nicht mehr erhalten. Ebenfalls von Phidias stammte die in gleicher Chryselephantin-Technik ausgeführte Statue der Athene für den Parthenon in Athen (Nachbildung s. Foto rechts). Auch aus dem archaischen Griechenland sind Gold-Elfenbein-Skulpturen überliefert (Foto links). Bei den Römern erfreute sich Elfenbein als Werkstoff für Schmuck, Kleinkunst, Musikinstrumente, Intarsien und Möbelverzierungen großer Beliebtheit. In der Kaiserzeit gelangte Elfenbein bevorzugt bei den Konsulardiptychen Elfenbein erfuhr mit dem Christentum einen Bedeutungszuwachs hin zum Inbegriff der Reinheit und wurde zum idealen Material für die sakralen Gegenstände (Behälter für Hostien und Reliquien, Kruzifixe, Triptychen, Bischofsstäbe, Buchdeckel für die heiligen Schriften). Die Elfenbeinkunst setzte sich über Karolinger und Ottonen mit ihren Klosterwerkstätten (Lorsch, St. Gallen, Reichenau, Echternach) fort und war im 11. und 12. Jahrhundert im christlichen Abendland allgemein verbreitet. Auch gelangten orientalische Schnitzarbeiten durch die Kreuzfahrer nach Europa und in den sakralen Gebrauch. In der Gotik wurden Elfenbeinschnitzereien zunehmend für den Profangebrauch hergestellt, wobei französische und venezianische Werkstätten die Führung übernahmen. Eine Unterbrechung der Elfenbeintradition gab es in der nachfolgenden Renaissance, in der andere Materialien bevorzugt wurden. Zur eigentlichen Blüte gelangte die Elfenbeinschnitzerei im 17. Jahrhundert, als deutsche Fürsten miteinander wetteiferten, berühmte Künstler in ihre Dienste zu nehmen oder sich gar selbst als Elfenbeinschnitzer zu versuchen. Aus dieser Zeit des Barock stammen die vielen virtuos gearbeiteten Stücke der höfischen Sammlungen. Der künstlerische Stillstand setzte mit dem Vordringen von Maschinen und den neuen Bearbeitungsmöglichkeiten (Passigdrehbank) ein. Damit einher ging die vermehrte Verwendung von Elfenbein für Gebrauchsgüter aller Art. Ein letztes Aufleuchten erlebte die Elfenbeinkunst als Kleinplastik im Jugendstil und in der Zeit des Art déco, insbesondere in der Gold-Elfenbein-Technik (Chryselephantin). Das deutsche Zentrum der Elfenbeinschnitzerei war und ist Erbach im Odenwald, wo 1966 das Deutsche Elfenbeinmuseum eröffnet wurde. Die dortige Elfenbeinverarbeitung begründete 1783 Franz I., letzter regierender Graf von Erbach (1754–1823), worauf sich viele Künstler in dem Ort niederließen. Elfenbein-Ersatzstoffe. Bei Gebrauchsgütern haben Kunststoffe, insbesondere die formstabilen Kunstharze Elfenbein völlig verdrängt. Gründe sind die leichte Verfügbarkeit der Ausgangsmaterialien mit ihrem günstigen Preis und die je nach Anforderung zu bestimmenden Eigenschaften der Kunststoffe. Damit sind sie Elfenbein in allen Einsatzbereichen überlegen. Beispielsweise besitzen Billardkugeln aus Kunstharz eine größere Haltbarkeit und bessere Rolleigenschaften. Zu den Stoffen, die Elfenbein ersetzt haben, gehört auch das Porzellan, insbesondere die künstlerisch gestalteten Manufakturerzeugnisse aus Biskuitporzellan, das Mitte des 18. Jahrhunderts erfunden wurde. Seit Mitte des 19. Jahrhunderts war die Steinnuss für etwa 100 Jahre ein beliebter Ersatz für Elfenbein. Die Steinnuss (Elfenbeinnuss) ist der Samen der Steinnusspalmen (Elfenbeinpalme) Südamerikas. Durch monatelange Trocknung erhält die Steinnuss die Härte von Knochen. Es hat die Farbe von sehr hellem Elfenbein und kann wie dieses bearbeitet und beliebig eingefärbt werden. Die Mitte der 1960er Jahre einsetzende Rückbesinnung auf Naturprodukte und Nachhaltigkeit hat zur Wiederentdeckung der Steinnuss geführt. Aus ihr werden Skulpturen, Spielsteine, Schachfiguren, Knöpfe und vieles andere gefertigt. European Article Number. Die European Article Number (EAN) ist die frühere (2009 abgelöste) Bezeichnung für die Globale Artikelidentifikationsnummer (Global Trade Item Number, abgekürzt GTIN). Sie stellt eine international unverwechselbare Produktkennzeichnung für Handelsartikel dar. Die Nummer besteht aus 8 bzw. 13 Ziffern, von denen die ersten 2 oder 3 bzw. 7, 8 oder 9 Ziffern zentral durch die GS1-Gruppe verwaltet und an Hersteller auf Antrag als Global Location Number vergeben werden. In Deutschland fallen für die Vergabe Lizenzgebühren an die GS1 Germany an. Die EAN/GTIN wird in der Regel als maschinenlesbarer Strichcode auf die Warenpackung aufgedruckt und kann von Barcodescannern decodiert werden, beispielsweise an Scannerkassen. Ein häufiger Verständnisfehler ist die Bezeichnung des GS1-Präfixes als Ländercode. Es ist lediglich ein Präfix, der den lokalen GS1-Organisationen zugeordnet wird. Die GS1-Kunden, die eine Firmennummer bei GS1 kaufen, erhalten immer eine Firmenkennung, die aus dem GS1-Präfix mit der dahinter gestellten Firmennummer besteht. Ein GS1-Kunde kann seine Firmennummer von einem beliebigen GS1-Standort kaufen und dann wieder in vielen anderen Ländern produzieren. (Siehe GS1 General Specification Kapitel 2.1.2.1.1. Zitat: „The GS1 Company Prefix is allocated by a GS1 Member Organisation to a system user. It makes the ID number unique worldwide but does not identify the origin of the item. GS1 Company Prefixes starting with GS1 Prefixes 000 to 019, 030 to 039, 060 to 099, 100 to 139, 300 to 969, or 977 to 979 in the first three digits are used in this Element String.“) Des Weiteren wird die Nummer (GTIN bzw. EAN) oft mit dem Barcodetyp EAN (ISO/IEC 15420) gleichgesetzt. Tatsächlich ist das eine der Barcode als Datenträger, der eine Nummer kodiert und transportiert und die Nummer ist die GTIN bzw. eine andere der unten beschriebenen Varianten. Weitere Codes, die die GTIN kodieren können, sind beispielsweise GS1-128, GS1-DataMatrix und ITF-14. Geschichte. Bereits 1973 wurde in den USA der "Universal Product Code" UPC mit 12-stelligen Nummern eingeführt. Ein Jahr später machte man sich in Europa die ersten Gedanken über ein ähnliches System, das zum UPC kompatibel sein sollte. Dazu wurde UPC um eine führende Ziffer auf dreizehn Stellen ergänzt. Ein UPC-A-Code wird zu einem EAN-Code, indem man eine führende Null hinzufügt. 1977 wurde die "European Article Association" gegründet, die später in "EAN International" umbenannt wurde und seit 2004 unter dem Namen "GS1 Global" läuft. Sie hat Mitgliedsorganisationen in über einhundert Staaten und umfasst auch den amerikanischen Uniform Product Code vom "Uniform Code Council" (heute GS1 US). Zum 1. Januar 2005 wurden de facto die EAN-13 auch in Nordamerika eingeführt, doch wurde gleichzeitig ein Übergang auf die 14-stelligen GTIN empfohlen (siehe Weblinks). Zur Philosophie der EAN/GTIN gehört die durchgängige Verwendung von Techniken der Automatischen Identifikation und Datenerfassung. Genutzt werden konsistente Verfahren für den Datenaustausch über EAN128 zwischen den beteiligten Unternehmen sowie die elektronische Datenübermittlung per EDI, wozu der EANCOM-Standard entwickelt wurde. Aktuell wird der Standard auch im Elektronischen Produktcode weiterentwickelt. Kurzbeschreibung der Artikelnummer (ehemals EAN-13). In Deutschland werden seit dem 1. Januar 2001 7-, 8- und 9-stellige Basisnummern vergeben. Präfixe sind nicht „sprechende“ Bestandteile wie „Herkunftskennzeichen“. Es handelt sich um Nummernkreise der jeweiligen GS1-Mitgliedsgesellschaften. Dabei gibt es auch gegenseitige Abtretungen von Teilserien oder die exterritoriale Teilnahme von Herstellern. Eine von den übrigen Stellen der Nummer losgelöste Verarbeitung kann daher zu Missverständnissen führen. Betriebe können eine Global Location Number lizenzieren, die von der zuständigen GS1-Mitgliedsgesellschaft einmalig vergeben und verwaltet wird. Die Artikelnummer ist für jeden Mitgliedsbetrieb frei verfügbar. Je nach Firmensitz bzw. Zulieferfirma und zuständiger GS1-Mitgliedsgesellschaft weisen daher die Präfixe nicht auf das Herstellerland hin. Die Prüfziffer dient der Datensicherheit und wird aus der gewichteten Quersumme abgeleitet (siehe unten). EAN-8 Kurzbeschreibung / seit 2009 GTIN-Kurznummer. Eine EAN-8 / GTIN-Kurznummer ist in der Regel extra bei der lokalen GS1-Organisation zu beantragen. Eine EAN-8 mit der Startziffer 2 kann lizenzfrei innerhalb der eigenen Organisation verwendet werden, sie ist aber nicht weltweit eindeutig. Jede andere EAN-8 muss unter Beifügung eines Musters des Artikels "einzeln" beantragt und bezahlt werden. EAN-Auskunft. Es gibt mehrere Datenbanken mit unterschiedlichen Detailtiefe an Stammdaten und Lizenzen zur Weiternutzung, auch im Internet. So lässt sich feststellen, dass die Nummer "5060215249804" ein Raspberry Pi ist. Es gibt freie Datenbanklösungen wie die unter der GNU-Lizenz für freie Dokumentation stehende OpenEANDB in welcher die User nach dem Wiki-Prinzip EAN eintragen und abfragen können. GS1-Pressecode (ehem. EAN-13 für Bücher) mit integrierter ISBN oder ISSN für Zeitschriften. Auch ist analog die Einbettung der ISMN "(International Standard Music Number)" für gedruckte Noten möglich. Die ISBN-13 und der GS1-Pressecode eines Buches sind (bis auf die Notation ohne bzw. mit Bindestrichen) identisch. Eine EAN-13 für Bücher wird auch „Bookland“-Nummer genannt. Die 4. bis maximal 8. Ziffer ist demnach (entsprechend der 1. bis maximal 5. Ziffer der ISBN) ein Code für den Sprachraum – zum Beispiel 3 für Deutschland, 57 für Dänemark oder 99953 für Paraguay. Manche Hersteller von Software und Multimediaprodukten vergeben für ihre Produkte gleich mehrere EANs. Darüber hinaus ist eine Erweiterung des GS1-Pressecodes möglich, ein "AddOn"-Code (Zusatzidentifikation) von 2 oder 5 Ziffern. Im AddOn können zum Beispiel Preise, Ausgabenvariante oder der Monat von Zeitschriften codiert werden. Im EAN-13/UPC-Symbols (Barcode) werden diese verkleinert nachgestellt. Zeitungen und Zeitschriften in Deutschland. Die so gebildete GTIN-13 enthält dadurch zwar nicht mehr die gesamte ISSN, dafür jedoch den Preis, der aufgrund der Buchpreisbindung überall in Deutschland gleich ist. Dies ist insbesondere vorteilhaft für kleinere Verkaufsstellen, die kein Warenwirtschaftssystem haben, mit dem der GS1-Pressecode dem Preis zugeordnet werden kann. Seit 1. Januar 2012 werden abweichend die Ländercodes 439 bzw. 434 für Zeitschriften verwendet, bei denen dem Heft ein Datenträger mit einer FSK- oder USK-Altersbeschränkung beiliegt (meist DVDs mit Filmen oder Computerspielen). Dies ermöglicht es Scannerkassen, den Verkäufer aufzufordern, das Alter des Käufers zu überprüfen. Durch einen 2- oder 5-stelligen "AddOn"-Code werden die Folgennummer und ggf. die Ausgabenvariante des Heftes codiert, bei Tageszeitungen außerdem der Wochentag. Stylenummernüberschneidung. Stylenummernüberschneidungen treten vor allem auf, wenn Produkte Lebenszyklen unterliegen. Nach dem Durchlauf eines Zyklus werden häufig die Artikelnummern des vorherigen Zyklus verwendet. Ein Zyklus dauert in der Regel zwei Jahre und wird in Saisons unterteilt. Die Saisons werden durch Buchstaben unterschieden, wodurch es eine maximale Anzahl an Saisons gibt. Zudem werden in den Artikelnummern, welche nur fünfstellig sind, auch Division- und Class-Zugehörigkeiten versteckt, was den Wiederholungseffekt noch verstärken könnte. Instore-Artikelnummern (ehem. EAN-Codes). Preisschild für Obst mit einer Instore-Artikelnummer im EAN-13-Barcode Für "Supermärkte" oder andere Einzelhändler steht ein spezielles GS1-Präfix zur Verfügung. Es findet ausschließlich intern Verwendung und dient beispielsweise dazu, die vor Ort abgewogenen Lebensmittel mit einem Barcode versehen zu können. Dieser Code wird vor allem für Obst und Gemüse sowie Fleisch- und Wurstwaren verwendet. Außerdem benutzen verschiedene Lebensmittel-Discounter, wie zum Beispiel ALDI, diese geschäftsinterne Instore-Artikelnummer in der verkürzten Form. Japan Article Number (JAN). Beginnt ein EAN mit einem Ländercode Japans (450-459,490-499), dann nennt man diesen EAN auch JAN. Es gibt keine weiteren Unterschiede. Grundlage ist hier JIS-X-0501 (JIS: Japanese Industrial Standards). EAN-Strichcode zur Codierung der GTIN (ehem. EAN-13). Die Code-Familien UPC-A, EAN-8 und EAN-13 benutzen alle die gleiche Codierung. Die codierte Information wird durch eine numerische Klarschriftangabe unter dem Barcode wiederholt. Kodierung. Jede Ziffer wird durch eine Sieben-Bit-Sequenz dargestellt. Jede Sieben-Bit-Sequenz wird durch zwei Striche und zwei Leerstellen erzeugt. Abstandhalter (in Grün) trennen die 6-Ziffern-Gruppen. Der gesamte Code besteht aus 95 gleich breiten Bereichen (2 Randmarker à 3 Bit, 1 Mittenmarker à 5 Bit, 12 Ziffern à 7 Bit, also 2*3+5+12*7=95). Jeder dieser Bereiche kann schwarz (steht für 1) oder weiß (steht für 0) sein. Es folgen maximal vier schwarze Bereiche aufeinander, diese bilden zusammen eine "Linie". Ebenso folgen maximal vier weiße Bereiche aufeinander und bilden zusammen einen "Freiraum". Neben den Bereichen, die die Ziffern codieren, gibt es drei Bereiche, die Besonderes kodieren: Die Folge 101 am Beginn und Ende des Codes (Randzeichen) sowie die Folge 01010 in der Mitte des Codes (Trennzeichen). In der folgenden Tabelle ist die entsprechende Zuordnung aufgelistet. Beispiel. EAN-13-Barcode. Die grünen Balken fassen die Linien zusammen, die ein Zeichen bilden. Die Ziffern bestehen aus je 7 Bit. Die kursive Schreibweise der Ziffern 0, 9 und 4 im linken Block gilt nur der Veranschaulichung, dass diese "gerade" kodiert sind. Der vollständige EAN-13 lautet daher: 4 003994 155486. Decodierung. Durch das Trennzeichen in der Mitte ist es für einen einfachen Linienscanner ausreichend, jeweils nur eine Hälfte des Codes zu erfassen. Dies ermöglicht eine Coderekonstruktion durch die Leseeinrichtung bei einer Schrägabtastung der Codierung bis zu einem Winkel von etwa 45°. GTIN-12 versus GTIN-13. Die GTIN-13 / EAN-13 kodiert ein dreizehntes Zeichen durch die Wahl von "gerade" und "ungerade" im linken Teil des Codes. Die GTIN-12 / UPC-A kodiert nur 12 Ziffern, weil im linken Teil des Codes immer alle "ungerade" gewählt werden. Prüfziffer. formula_3 Die Prüfziffer formula_4 ergänzt diese Summe dann zum nächsten Vielfachen von 10. Die Probe hierzu: formula_5 Dasselbe Verfahren ist auch für andere Produkt-Kennzahlen üblich. Einen Prüfziffernrechner hierzu ist im Internet zufinden → siehe Weblinks. Die Summe aller ungeraden Stellen plus dreimal die Summe aller geraden Stellen muss durch 10 teilbar sein. Beispiel: EAN 5 449000 09624-1. Das nächste Vielfachen von 10 ist 90, die Prüfziffer damit 90 − 89 = 1 Prüfziffernberechnung in Java. Der folgende Java-Code setzt die Berechnung der Prüfziffer nach der obigen Beschreibung um: Die Berechnung startet mit der letzten Ziffer und beginnt die Multiplikation mit 3. Nach der Summenbildung der Produkte wird die Prüfziffer zurückgegeben. int calc_checksumDigit(int digits) Prüfziffernberechnung in Tabellenkalkulationsprogrammen. codice_1 codice_2 Andere Produktkennzeichnungen. Während ein GTIN (ehem. EAN) einen Artikel nur der Art nach identifiziert (zum Beispiel Cola-Dose 0,33 L), kann über einen EPC durch einen zusätzlichen serialisierten Nummernteil jeder einzelne Artikel unterschieden werden (z. B. könnte jede Cola-Dose von jeder anderen unterschieden werden). Im EPC sind in der Regel die GS1-Nummernsysteme wie GTIN (ehem. EAN) für Artikel, NVE (SSCC) für Transporteinheiten und GRAI für Mehrwegtransportbehältnisse verschlüsselt. Um festzustellen, welches Nummernsystem im EPC verschlüsselt ist, enthält er hierzu zusätzlich einen Header. Über diesen Header kann dann vom RFID-Schreib-/Lesegerät gezielt auf bestimmte EPC zugegriffen werden. Die für den EPC zulässige RFID-Technologie wurde wie der EPC selbst von EPCglobal standardisiert. Nach dem Standard EPC Gen 2, der auch als ISO 18000-6 Teil C veröffentlicht wurde, sind nur solche RFID-Transponder für die Speicherung eines EPC zugelassen, die im Frequenzbereich um 900 MHz (UHF) arbeiten. Erdbohne. Die Erdbohne ("Macrotyloma geocarpum"), auch Kandelabohne genannt, ist eine Pflanzenart aus der Gattung ("Macrotyloma") in der Unterfamilie Schmetterlingsblütler (Faboideae) innerhalb der Familie der Hülsenfrüchtler (Fabaceae). Diese Nutzpflanze ist nahe verwandt mit einer Reihe anderer „Bohnen“ genannter Feldfrüchte, insbesondere der indischen Pferdebohne ("Macrotyloma uniflorum"). Die Erdbohne hat ihren Ursprung wahrscheinlich in den Savannen Westafrikas und wird immer seltener, gewöhnlich für den Eigenbedarf, angebaut. Beschreibung und Ökologie. "Macrotyloma geocarpum" wächst als einjährige krautige Pflanze und erreicht Wuchshöhen von 25 bis 30 Zentimetern. Wenige Tage nach der Aussaat erfolgt epigäisch die Keimung. Es wird eine kräftige Pfahlwurzel gebildet. Die behaarten Stängel können selbständig aufrecht wachsen oder als sogenannte „Runnertypen“ sich niederliegend weit ausbreiten. Niederliegende Stängel bilden an den Knoten (Nodien) viele Wurzeln an denen auch Wurzelknöllchen vorhanden sind. Schnell fallen die Keimblätter (Kotyledonen) ab und es werden ein oder zwei Paar lanzettliche Primärblätter gebildet. Die wechselständigen angeordneten Laubblätter sind Blattstiel und Blattspreite gegliedert. Die relativ langen Blattstiele stehen aufrecht. Die unpaarig gefiederten Blattspreiten besitzen nur drei Fiederblätter. Die Fiederblätter sind eiförmige bis lanzettlich. Schon vier bis sechs Wochen nach der Aussaat werden in den Blattachseln die ersten kleinen Blütenstände gebildet. Der mehr oder weniger behaarte Blütenstandsschaft endet in einer Verdickung. In einem Blütenstand stehen nur zwei kurz gestielte Blüten zusammen. Die zwittrigen Blüten sind zygomorph und fünfzählig mit doppelter Blütenhülle. Die fünf Kelchblätter sind zu einem kurzen sowie breiten Kelch verwachsen, der in fünf ungleichen Kelchzähnen endet. Die fünf Kronblätter sind hellgelb oder elfenbeinfarben. Der auf der Innenseite im oberen Bereich behaarte Griffel endet spitz und die Narbe befindet sich seitlich unter seinem spitzen Ende. Es erfolgt Selbstbefruchtung und etwa zwei Tage danach verlängern sich die Blütenstiele geotrop nach unten bis der Fruchtknoten den Boden erreicht und 1 bis 2 Zentimeter ins Erdreich eindringt. Oberirdisch liegende Hülsenfrüchte bleiben lange grün. Unterirsche Hülsenfrüchte sind von bleicher Farbe und bleiben bis zur Reife pergamentartig dünn. Die Früchte reifen im Boden, es handelt sich also um eine geokarpe = bodenfrüchtige Leguminose, wie die Erdnuss ("Arachis hypogaea") oder die Bambara-Erdnuss ("Vigna subterranea"), daher auch die Trivialnamen wie Erdbohne und das Artepitheton "geocarpum". Die unterirdischen, dünnschaligen, bleichen Hülsenfrüchte bestehen aus zwei bis drei Gliedern oder Segmente und sind 1,5 bis 3,0 Zentimeter lang. In jedem Segment ist ein Samen enthalten, also befinden sich in jeder Hülsenfrucht zwei bis drei Samen. Die Samen sind bei einer Länge von 8 bis 12 Millimeter, einer Breite von 4 bis 7 Millimeter und einer Dicke 2 bis 3 Millimeter bohnenartig bis eiförmig und leicht abgeflacht. Die Samenschale ist einfarbig weiß bis braun oder schwarz oder gesprenkelt. Der eingesenkte, punktförmige Nabel ist hell und von einem dreieckigen dunkelfarbigen Fleck umrandet. Das Tausendkorngewicht beträgt zwischen 50 und 150 g. Etwa sechs bis neun Wochen nach der Befruchtung erfolgt die Samenreife. Die Chromosomenzahl beträgt 2n = 20. Nutzung. Die Erdbohne ist eine tropische Pflanze mit hohem Temperatur- und Wasserbedarf. Die Erdbohne gilt als wohlschmeckend und wird oft in unreifer Form geerntet. Der Eiweißgehalt der Samen (20 Prozent) ist relativ hoch, bei einem nur geringen Fettgehalt (kleiner als 2 Prozent). Die Samen werden grün oder im reifen Zustand gegessen. Wegen ihres angenehmen Geschmackes wird die Erdbohne in manchen Gebieten gegenüber der Erdnuss oder Bambara-Erdnuss bevorzugt. Die reifen Samen werden häufig in einem Holzmörser aus den Hülsenfrüchten geschält und durch Windsichtern das Korn gereinigt. Unbeschädigte Körner können mit Holzasche vermischt über 2 Jahre gelagert werden. Gekochte grüne oder reife Samen werden als Brei gegessen. Es den Samen wird Mehl gemahlen, das der Zubereitung von Gebäck und anderen Gerichten dient. Die Samen der Erdbohne werden mit Salz geröstet. Die Erdbohne besitzt einen guten Nährwert mit hohen Rohproteingehalt. Wenn die Mutter gestorben ist erhalten die Kinder der Sisaala in Ghana während der Trauerzeit die Erdbohne als einzige Nahrung. Die Erdbohne wird in der Volksmedizin verwendet. Ein Sud aus den Samen wird gegen Durchfall eingesetzt. Als Brechmittel bei Vergiftungen dienen zerstoßene Samen mit Wasser oder lokalem Bier gemischt. Alle Pflanzenteile können als Viehfutter verwendet, beispielsweise auf dem Feld abgeweidet werden. Verbreitung, Herkunft und Gefährdung. Das Ursprungsgebiet der Erdbohne liegt in den wechselfeuchten bis halbtrockenen Savannengebieten Westafrikas. Der Anbau findet fast von Senegal bis ins nördliche Nigeria statt, mit einem Schwerpunkt im nördlichen Ghana. Von einem Anbau in Madagaskar wird bericht. Es ist jedoch allgemein festzustellen, Der Anbau geht zurück und wird hauptsächlich zur Eigenversorgung betrieben. Samen der in Kamerun und der Zentralafrikanischen Republik vorkommenden Wildform wurden 2010 gesammelt und vom "Millennium Seed Bank Project" mit der Methode der „Ex-Situ-Konservation“ eingelagert. Der Standort der gesammelten Exemplare liegt in trockener Baumsavanne mit "Combretum"-, "Boswellia"- sowie "Gardenia"-Arten. Das derzeitige Areal ist größer als 20000 km². In der Roten Liste der gefährdeten Arten der IUCN gilt "Macrotyloma geocarpum" als „Least Concern“ = „nicht gefährdet“, da die Bestände stabil sind. Systematik. Die Erstbeschreibung erfolgte 1908 durch Hermann August Theodor Harms unter dem Namen (Basionym) "Kerstingiella geocarpa" in "Berichte der Deutschen Botanischen Gesellschaft", Band 26 A, S. 230, Tafel 3. Die Neukombination zu "Macrotyloma geocarpum" wurde 1977 durch Robert Joseph Jean-Marie Maréchal und Jean C. Baudet in "Bulletin du Jardin Botanique National de Belgique", Band 47, 1–2, S. 50. veröffentlicht. Euripides. Euripides () (* 480 v. Chr. oder 485/484 v. Chr. in Salamis; † 406 v. Chr. in Pella; begraben in Makedonien) ist einer der großen klassischen griechischen Dramatiker. Euripides ist nach Aischylos und Sophokles der jüngste der drei großen griechischen Tragödiendichter. Von seinen etwa 90 Tragödien sind 18 erhalten. Außerdem ist eins seiner Satyrspiele überliefert. Mit seinen Stücken, vor allem "Medea", "Iphigenie in Aulis", "Elektra" und "Die Bakchen", ist Euripides einer der am meisten gespielten Dramatiker der Weltliteratur. Leben. Vom Leben des Euripides ist wenig Sicheres überliefert; wichtige Daten ergeben sich vor allem durch seine Teilnahme an den öffentlichen Tragödienwettbewerben. Euripides führte zwischen 455 und 408 v. Chr. regelmäßig im tragischen Agon zu Athen Tetralogien auf (eine Tragödien-Trilogie und ein Satyrspiel eher grotesken Charakters). Das erste aufgeführte Stück hieß "Die Peliaden" (verschollen), mit welchem Euripides den dritten Platz belegte. Sein erster Sieg fällt in das Jahr 441 v. Chr. Im Jahre 428 v. Chr. siegte er mit dem erhalten gebliebenen "Der bekränzte Hippolytos", der die Bearbeitung eines einige Jahre vorher aufgeführten und heftig kritisierten anderen Hippolytos-Stückes war. Insgesamt siegte er zu Lebzeiten viermal und mit einer postum aufgeführten Tetralogie, zu welcher das berühmte Stück "Die Bakchen" gehört. Kurz nach den Dionysien 408 v. Chr. folgte Euripides der Einladung des makedonischen Königs Archelaos I., in dessen Hauptstadt Pella er zu Frühjahrsbeginn 406 v. Chr. verstarb; der Sage nach wurde er von wilden Hunden zerrissen. Diese Sage ist eher sinnbildlich zu verstehen als Umschreibung seines Werkes, in dem die dionysisch-eruptive Ekstase eine zentrale Rolle spielt. Sophokles soll auf die Nachricht vom Tod des Euripides Trauergewänder angelegt haben; seine Schauspieler und Choristen traten unbekränzt auf. In Athen wurden ihm zu Ehren ein Kenotaph – ein (leeres) Erinnerungsgrabmal – errichtet und drei seiner nachgelassenen Stücke postum gekrönt. Bedeutung. Bald schon nach seinem Tod erkannte man die überragende Bedeutung Euripides’ an, was sich u. a. darin niederschlug, dass er während der gesamten Antike der am häufigsten aufgeführte und gelesene Tragiker war. Von besonderer Bedeutung ist sein Einfluss auf die Neue Komödie, insbesondere deren Hauptvertreter Menander. Von den Großmeistern der athenischen Tragödie war Euripides der problematischste und modernste, was ihm Ablehnung und Feindschaft einbrachte. Die Haltung der Gesellschaft seiner Zeit charakterisierte Euripides mit folgendem Ausspruch: „Den Feinden schrecklich und den Freunden liebevoll.“ Aristophanes ist für ein von den grotesken Verzerrungen der Alten Komödie gekennzeichnetes Euripides-Bild verantwortlich, das bis in die Neuzeit bestimmend gewesen ist. Eine kritische Auseinandersetzung von Christoph Martin Wieland mit Euripides ließ Johann Wolfgang Goethe zu seiner Farce Götter, Helden und Wieland hinreißen. Obgleich von Goethe darin lächerlich gemacht, zeigte Wieland doch Verständnis für Goethes Sturm und Drang und empfahl den Lesern seiner Zeitschrift sogar die Farce als gelungene Lektüre. Werke. a> in einer 1362 geschriebenen Handschrift. Florenz, Biblioteca Medicea Laurenziana, San Marco 226, fol. 1r Liste der verlorenen, erhaltenen oder fragmentarisch überlieferten Stücke des Euripides mit den überlieferten oder erschlossenen Aufführungsdaten. Erika Fuchs. Johanna Theodolinde Erika Fuchs, geborene Petri, (* 7. Dezember 1906 in Rostock; † 22. April 2005 in München) war eine deutsche Übersetzerin. Von 1951 bis 1988 übersetzte sie für das deutsche Micky-Maus-Heft. Kindheit. Erika Fuchs war das zweite der insgesamt sechs Kinder von Auguste geb. Horn (1878–1964) und August Petri (1873–1954). Auguste Horn stammte aus München, war ausgebildete Sängerin, arbeitete als Volksschullehrerin und hatte in Augsburg unterrichtet. Sie lernte den aus dem Land Lippe-Detmold stammenden August Petri in einem Studentencorps kennen, wo man gegenüber der emanzipierten Auguste leichte Vorbehalte hatte. Bald nach Erikas Geburt zog die Familie in das damalige Reichenbach in Schlesien, von dort im Jahr 1912 nach Belgard an der Persante. August Petri hatte dort den Posten eines Direktors der Überlandwerke für Hinterpommern inne. Sein Beruf erlaubte es der Familie, in einigem Wohlstand zu leben; so besaßen die Petris das einzige Auto im Ort, und die Kinder wuchsen in einem großen Haus mit Dienstboten auf. Zum Personal der Familie gehörten ein Kinder- und ein Stubenmädchen; auch eine Köchin und ein Gärtner arbeiteten im Haushalt. Von ihrem Vater wurden die Kinder sehr streng erzogen; Erika Fuchs berichtet später: „Bei uns daheim wurde nicht argumentiert und nicht ausdiskutiert. Da wurde befohlen und gehorcht“; da die sechs Kinder aber altersmäßig nur neun Jahre auseinanderlagen, führten sie ein ziemlich eigenständiges und ungebundenes Leben, über das Frau Fuchs sagt: „Jedenfalls hatten wir einen ganz ungeheuren Auslauf.“ Im Elternhaus spielte Musik eine wichtige Rolle, die Mutter hatte regelmäßig Gäste zu Besuch, die sie beim Gesang begleiteten, und auch bei der Haus- und Küchenarbeit wurde gern gesungen. Schule und Studium. Erika Fuchs besuchte drei Jahre die Volksschule in Belgard, danach ab Ostern 1913 die Höhere Töchterschule, über die sie urteilte: „Wir trieben viel Unsinn und lernten wenig. Vom geistigen Reichtum in der Welt erfuhren wir erst, als wir eine richtige Studienrätin für Deutsch und Geschichte bekamen.“ Diese Lehrerin lud die Schülerinnen regelmäßig zu sich nach Hause ein und machte sie mit den Werken bedeutender Künstler bekannt. Begeistert von dem, was sie bei ihrer Lehrerin an Wissenswertem erfuhren, das nicht in der Schule gelehrt wurde, beschlossen Erika Fuchs und ihre Freundin Asta Hampe im Jahr 1921, dass sie das Gymnasium besuchen wollten. Erikas Vater unterstützte sie in diesem Ansinnen, allerdings gab es in Belgard kein Mädchengymnasium, so dass eine Abstimmung im Stadtrat nötig wurde, um den beiden Mädchen den Besuch des Knabengymnasiums zu ermöglichen. Der Stadtrat stimmte zu und Erika und ihre Freundin wurden zunächst für ein Jahr vom Schulunterricht freigestellt, um den nötigen Lehrstoff in Griechisch und Latein nachzuholen. Da Asta Hampe nach Hamburg umzog, war Erika Fuchs schließlich das erste Mädchen, das im örtlichen Knabengymnasium den Unterricht besuchte. Im Jahr 1926 schloss sie ihre Schulzeit mit dem Abitur ab. Anschließend studierte sie Kunstgeschichte im Hauptfach, daneben Archäologie und mittelalterliche Geschichte. Im ersten Sommersemester war sie in Lausanne, das Wintersemester 1926/27 verbrachte sie in München, das dritte und vierte Semester in London, um dann von 1928 bis zum Examen im Wintersemester 1931/32 wieder in München zu studieren. Während des Studiums reiste sie viel ins Ausland; sie verbrachte einige Monate in Florenz und fuhr nach Holland, England, Italien und in die Schweiz. Am 17. Juli 1931 folgte die Promotion über den Barock-Bildhauer Johann Michael Feichtmayr (1709–1772) mit dem Titel "Johann Michael Feichtmayr: Ein Beitrag zur Geschichte des deutschen Rokoko". Ihre Arbeit, für die sie umfangreiche Recherchen in Kirchenarchiven durchgeführt hatte und die mit 160 eigenen Fotografien illustriert war, wurde mit summa cum laude bewertet. Sie erschien erst 1935 im Druck, noch unter dem Geburtsnamen. Ehe. Ihren Mann Günter Fuchs (1907–1984) hatte sie bereits während des Studiums kennengelernt. Er war Fabrikant und Erfinder, seit 1973 Honorarprofessor der Technischen Universität München, an der er „Technische Morphologie“ lehrte. Von 1931 bis 1984 leitete er das Unternehmen „Summa Feuerungen“, eine Fabrik für moderne Öfen. Sie heirateten im Jahr 1932 und hatten zwei Söhne. Seit 1933 lebte das Paar in Schwarzenbach an der Saale, Landkreis Hof. Günter Fuchs baute im Haus alles bis hin zu den Möbeln selbst; die Möbel befinden sich heute im Münchner Stadtmuseum. Ging es um technische Dinge in den Comic-Geschichten, befragte Erika Fuchs ihren Mann: „Was er real und vernünftig macht, verwurschtle ich wieder, damit es ein bißchen verrückt wird“, erläuterte sie im Jahr 1978. Ihr Mann war aber nicht nur in technischen Dingen bewandert, er war auch ein Spezialist für Klassiker-Zitate. Tod. Erika Fuchs starb am 22. April 2005 im Alter von 98 Jahren in München. Beigesetzt wurde sie neben ihrem 1984 verstorbenen Mann Günter Fuchs auf dem Friedhof von Schwarzenbach an der Saale. Übersetzertätigkeit. Nach dem Zweiten Weltkrieg arbeitete sie als Übersetzerin, zuerst für die deutsche Ausgabe des Reader’s Digest, bevor sie weitere Anstellungen zum Übersetzen bei anderen amerikanischen Zeitschriften führten. 1951 schließlich wurde sie Chefredakteurin der neu gegründeten deutschen "Micky Maus", bei deren Gestaltung sie in den nachfolgenden Jahren viel Einfluss hatte. 1988 trat sie in den Ruhestand. Bekannt wurde sie vor allem durch ihre Übersetzungen der amerikanischen Disney-Comics, insbesondere der Geschichten von Carl Barks rund um die Familie Duck. Ihre Übersetzungen enthielten – anders als die englischen Vorlagen – zahllose versteckte Zitate und literarische Anspielungen. So war sie als hervorragende Literaturkennerin der festen Überzeugung, man könne als Übersetzerin von Comics nicht gebildet genug sein. Die Nähe zur deutschen Klassik scheint etwa auf, wenn Tick, Trick und Track sich angelehnt an Schillers Version des Rütlischwurs versprechen: „Wir wollen sein ein einig Volk von Brüdern, in keiner Not uns waschen und Gefahr.“ Auch der fast immer als ihre Schöpfung bezeichnete Spruch „Dem Ingeniör ist nichts zu schwör“ ist keine eigene Erfindung, sondern eine Abwandlung der ersten Zeile des "Ingenieurlieds" von Heinrich Seidel (1842–1906), veröffentlicht 1889 im "Glockenspiel" („Dem Ingenieur ist nichts zu schwere“). Einfluss auf die deutsche Sprache. Für bildlich schwer Darstellbares verwendete Erika Fuchs durchgehend auf den Wortstamm verkürzte Verben (Inflektive), und zwar nicht nur für Geräusche (Onomatopoesie, zum Beispiel "schluck, stöhn, knarr, klimper"), sondern auch für lautlose (psychische) Vorgänge ("grübel, zitter"). Diese Verwendung der Inflektivform wird ihr zu Ehren auch als "Erikativ" bezeichnet. Dieser Ausdruck, zuerst scherzhaft in der Newsgroup "de.etc.sprache.deutsch" gebraucht, hat sich bereits ins englische Wiktionary verbreitet. Der Einfluss Fuchs’scher Sprache auf den alltäglichen Sprachgebrauch und in der Popkultur ist bis heute enorm. Erika Fuchs hat in den Augen ihrer Bewunderer mit ihren eigenschöpferischen Übersetzungen eine eigene Welt erschaffen, die in der sogenannten „Donaldistik“ Ausdruck findet. Unter anderem im Feuilleton der Frankfurter Allgemeinen Zeitung erscheinen regelmäßig von Erika Fuchs stammende Donald-Duck-Zitate in schöngeistigem Zusammenhang – vornehmlich als Titelzeilen und Bildunterschriften. Ehrungen. 1994 wurde sie mit der Morenhovener Lupe ausgezeichnet. 2001 erhielt sie den Sonderpreis zum Heimito von Doderer-Literaturpreis und den Roswitha-Preis der Stadt Bad Gandersheim. Erika Fuchs war Ehrenmitglied der D.O.N.A.L.D. ("Deutsche Organisation Nichtkommerzieller Anhänger des Lauteren Donaldismus"). Mitglieder dieses Vereins, namentlich Patrick Bahners und Andreas Platthaus, schmückten zeitweise die Überschriften des ehrwürdigen FAZ-Feuilletons mit Fuchs'schen Sprachkleinodien, was sich aber oft nur dem Kenner erschloss. Zudem wurde sie von dem Disney- und Carl-Barks-Verehrer Gottfried Helnwein 1991 für einen Gemälde-Zyklus ("48 Portraits", Öl und Acryl auf Leinwand, jedes Bild 70 × 55 cm) fotografiert und gemalt, der unter dem Motto „Die 48 bedeutendsten Frauen des Jahrhunderts“ ausgestellt wurde. Der Kunstsammler und Museumsgründer Peter Ludwig erwarb kurz darauf die "48 Portraits", die heute Bestandteil der Sammlung des Museums Ludwig in Köln sind. Dies war die erste offizielle Ehrung für Erika Fuchs. 2005 widmete der deutsche Rockmusiker Farin Urlaub ihr sein zweites Soloalbum "Am Ende der Sonne". Der Asteroid "(31175) Erikafuchs" wurde am 21. August 2013 nach ihr benannt. Die Stadt Schwarzenbach an der Saale beschloss 2012 die Einrichtung eines Museums für Erika Fuchs. Das "Erika-Fuchs-Haus – Museum für Comic und Sprachkunst" wurde nach dreijähriger Bauzeit am 1. August 2015 eröffnet. Englische Sprache. Die englische Sprache (Eigenbezeichnung:) ist eine ursprünglich in England beheimatete germanische Sprache, die zum westgermanischen Zweig gehört. Sie entwickelte sich ab dem frühen Mittelalter durch Einwanderung nordseegermanischer Völker nach Britannien, darunter der Angeln – von denen der Name „Englisch“ sich herleitet – sowie der Sachsen. Die Frühformen der Sprache werden daher auch manchmal Angelsächsisch genannt. Die am nächsten verwandten lebenden Sprachen sind die friesischen Sprachen und das Niederdeutsche auf dem Festland, zu dem anfangs lange ein Dialektkontinuum bestand. Im Verlauf seiner Geschichte hat das Englische dann allerdings starke Sonderentwicklungen ausgebildet: Im Satzbau wechselte das Englische, im Gegensatz zu allen westgermanischen Verwandten auf dem Kontinent, in ein Subjekt-Verb-Objekt-Schema über und verlor die Verbzweiteigenschaft. Die Bildung von Wortformen (Flexion) bei Substantiven, Artikeln, Verben und Adjektiven wurde stark abgebaut. Im Wortschatz wurde das Englische in einer frühen Phase zunächst vom Sprachkontakt mit nordgermanischen Sprachen stark beeinflusst, der sich durch die zeitweilige Besetzung durch Dänen und Norweger im 9. Jahrhundert ergab. Später ergab sich nochmals eine starke Prägung durch den Kontakt mit dem Französischen aufgrund der normannischen Eroberung Englands 1066. Aufgrund der vielfältigen Einflüsse aus westgermanischen und nordgermanischen Sprachen, dem Französischen sowie den klassischen Sprachen besitzt das heutige Englisch einen außergewöhnlich umfangreichen Wortschatz. Die englische Sprache wird mit dem lateinischen Alphabet geschrieben. Eine wesentliche Fixierung der Rechtschreibung erfolgte mit Aufkommen des Buchdrucks im 15./16. Jahrhundert, trotz gleichzeitig fortlaufenden Lautwandels. Die heutige Schreibung des Englischen stellt daher eine stark historische Orthographie dar, die von der Abbildung der tatsächlichen Lautgestalt vielfältig abweicht. Ausgehend von seinem Entstehungsort England breitete sich das Englische über die gesamten Britischen Inseln aus und verdrängte allmählich die zuvor dort gesprochenen (v. a. keltischen) Sprachen. In seiner weiteren Geschichte ist das Englische vor allem infolge der Besiedlung Amerikas sowie der Kolonialpolitik Großbritanniens in Australien, Afrika und Indien zu einer Weltsprache geworden, die heute (global) weiter verbreitet ist als jede andere Sprache (die Sprache mit der größten Zahl an Muttersprachlern ist jedoch Mandarin-Chinesisch). Englischsprachige Länder und Gebiete bzw. ihre Bewohner werden auch anglophon genannt. Das Englische wird in den Schulen vieler Länder als erste Fremdsprache gelehrt und ist offizielle Sprache der meisten internationalen Organisationen, wobei viele davon daneben noch andere offizielle Sprachen nutzen. In Westdeutschland verständigten sich die Länder 1955 im Düsseldorfer Abkommen darauf, an den Schulen Englisch generell als Pflichtfremdsprache einzuführen. Die englischsprachige Welt. Heute sprechen weltweit etwa 330 Millionen Menschen Englisch als Muttersprache. Die Schätzungen zur Zahl der Zweitsprachler schwanken je nach Quelle massiv, da unterschiedliche Grade des Sprachverständnisses herangezogen werden. Hier finden sich Zahlen von unter 200 Millionen bis über 1 Milliarde Menschen. Amtssprache. Englisch ist zudem eine Amtssprache supranationaler Organisationen wie der Afrikanischen Union, der Organisation Amerikanischer Staaten, der UNASUR, der CARICOM, der SAARC, der ECO, der ASEAN, des Pazifischen Inselforums, der Europäischen Union, des Commonwealth of Nations und eine der sechs Amtssprachen der Vereinten Nationen. Auch die Einführung von Englisch als Verwaltungs- und anschließend als Amtssprache in den Teilstaaten der Europäischen Union wird diskutiert. Einer repräsentativen YouGov-Umfrage von 2013 zufolge würden es 59 Prozent der Deutschen begrüßen, wenn die englische Sprache in der gesamten Europäischen Union den Status einer Amtssprache erlangen würde (zusätzlich zu den bisherigen Sprachen), in anderen Ländern Europas liegen die Zustimmungsraten teilweise bei über 60 Prozent. Sonstige Verwendung. 1 Ist de facto ein eigener Staat, wird aber offiziell zu Somalia gezählt. Sprachwissenschaftliche Einordnung. Das Englische gehört zu den indogermanischen Sprachen, die ursprünglich sehr stark flektierende Merkmale aufwiesen. Alle indogermanischen Sprachen weisen diese Charakteristik bis heute mehr oder weniger auf. Allerdings besteht in allen diesen Sprachen eine mehr oder weniger starke Neigung von flektierenden zu isolierenden Formen. Im Englischen war diese Tendenz bislang besonders stark ausgeprägt. Heute trägt die englische Sprache überwiegend isolierende Züge und ähnelt strukturell teilweise eher isolierenden Sprachen wie dem Chinesischen als den genetisch eng verwandten Sprachen wie dem Deutschen. Zudem hat sich die englische Sprache heute durch die globale Verbreitung in viele Varianten aufgeteilt. Viele europäische Sprachen bilden auch völlig neue Begriffe auf Basis der englischen Sprache (Anglizismen). Auch in einigen Fachsprachen werden die Termini von Anglizismen geprägt, vor allem in stark globalisierten Bereichen wie z. B. Informatik oder Wirtschaft. Der Sprachcode ist codice_1 oder codice_2 (nach ISO 639-1 bzw. 2). Der Code für Altenglisch (etwa die Jahre 450 bis 1100 n. Chr.) ist codice_3, jener für Mittelenglisch (etwa 1100 bis 1500) codice_4. Varietäten der englischen Sprache. Durch die weltweite Verbreitung der englischen Sprache hat diese zahlreiche Varietäten entwickelt oder sich mit anderen Sprachen vermischt. Für den raschen Erwerb des Englischen wurden immer wieder vereinfachte Formen konstruiert, so Basic English bzw. Simple English oder einfaches Englisch (vorgestellt 1930, 850 Wörter), Globish (vorgestellt 1998, 1500 Wörter) und Basic Global English (vorgestellt 2006, 750 Wörter). Daneben hat sich eine Reihe von Pidgin- und Kreolsprachen1 auf englischem Substrat (vor allem in der Karibik, Afrika und Ozeanien) entwickelt. Anglizismen. In andere Sprachen eindringende Anglizismen werden manchmal mit abwertenden Namen wie „Denglisch“ (Deutsch und Englisch) oder „Franglais“ (Französisch und Englisch) belegt. Dabei handelt es sich nicht um Varianten des Englischen, sondern um Erscheinungen in der jeweils betroffenen Sprache. Der scherzhafte Begriff „Engrish“ wiederum bezeichnet keine spezifische Variante der englischen Sprache, sondern bezieht sich allgemein auf das in Ostasien und Teilen von Südostasien anzutreffende Charakteristikum, die Phoneme „l“ und „r“ nicht zu unterscheiden. Die Entwicklung des Englischen zur lingua franca im 20. Jahrhundert beeinflusst die meisten Sprachen der Welt. Mitunter werden Wörter ersetzt oder bei Neuerscheinungen ohne eigene Übersetzung übernommen. Diese Entwicklung wird von manchen skeptisch betrachtet, insbesondere dann, wenn es genügend Synonyme in der Landessprache gibt. Kritiker merken auch an, es handle sich des Öfteren (beispielsweise bei "Handy" im Deutschen) um Scheinanglizismen. Mitunter wird auch eine unzureichende Kenntnis der englischen Sprache für die Vermischung und den Ersatz bestehender Wörter durch Scheinanglizismen verantwortlich gemacht. So sprechen einer Studie der GfK zufolge nur 2,1 Prozent der deutschen Arbeitnehmer verhandlungssicher Englisch. In der Gruppe der Unter-30-Jährigen bewerten jedoch über 54 Prozent ihre Englischkenntnisse als gut bis exzellent. Zu besseren Sprachkenntnissen könne demzufolge effizienterer Englischunterricht beitragen, und statt der Ton-Synchronisation von Filmen und Serien solle eine Untertitelung der englischsprachigen Originale mit Text in der Landessprache erfolgen. Dies würde zugleich zu einer besseren Abgrenzung zwischen den Sprachen und einer Wahrung lokaler Sprachqualität beitragen. Im Dezember 2014 forderte der Europapolitiker Alexander Graf Lambsdorff, neben Deutsch die englische Sprache als Verwaltungs- und später als Amtssprache in Deutschland zuzulassen, um die Bedingungen für qualifizierte Zuwanderer zu verbessern, den Fachkräftemangel abzuwenden und Investitionen zu erleichtern. Textsammlungen. Beim Project Gutenberg stehen zahlreiche Texte frei zur Verfügung. Euromünzen. Die Euromünzen sind die in derzeit 19 Ländern der Europäischen Union sowie den Nicht-EU-Staaten Andorra, Monaco, San Marino und Vatikanstadt in Umlauf gebrachten Münzen der gemeinsamen europäischen Währung Euro. Ein Euro wird unterteilt in 100 Cent; es gibt acht Nennwerte für Münzen. Die Euromünzen wurden zusammen mit den Eurobanknoten ab dem 1. Januar 2002 eingeführt. Das Prägejahr der Münzen kann aber bis 1999 zurückgehen, also dem Jahr, in dem die Währung offiziell als Buchgeld eingeführt wurde. Beschreibung. Gemeinsam ist den 1- und 2-Euro-Münzen ein Aufbau aus "Ring" und "Kern" (auch "Pille"). Beim 1-Euro-Stück besteht der Ring aus Messing und der Kern aus Kupfernickel. Beim 2-Euro-Stück ist es umgekehrt. Vor der Prägung spricht man auch von "Rohlingen" und "Ronden". Die Wahl des Münzmetalls war eine Frage der Zweckmäßigkeit und der Kosten. Münzlegierungen dürfen insbesondere nicht rostempfindlich sein und sollen sich im Gebrauch wenig abnutzen; Hautkontakt soll zudem keine Allergien auslösen. Wichtig ist auch, dass der Metallwert unter dem Nennwert der Münze bleibt – sonst bestünde die Gefahr, dass die Münzen eingeschmolzen und als Ware gehandelt werden. Die Herstellungskosten einer 1-Cent-Münze entsprachen 2004 dem Nominalwert. Die Herstellungskosten einer 2-Euro-Münze hingegen betrugen seinerzeit in Deutschland nur 13 Cent. Die Seigniorage genannte Differenz zum Nominalwert kommt der jeweiligen Zentralbank zugute. Euromünzen haben auf Grund ihres Anteils an Nickel ein hohes Allergiepotenzial. Der bimetallische Aufbau von 1- und 2- Euromünzen führt bei Kontakt mit menschlichem Schweiß zu einem galvanischen Potential von 30–40 mV. Hierdurch können die Grenzwerte der Europäischen Direktive 94/27/EEC für Nickel bis um das 320fache überschritten werden. Schätzungen von Allergologen zufolge leiden in Deutschland bis zu 11 Prozent der Frauen und 6 Prozent der Männer unter einer Nickelallergie. Kommen sie länger mit dem Metall in Kontakt, rötet sich die Haut, juckt und bildet Bläschen. Nach Angaben des Ärzteverbandes Deutscher Allergologen haben Kassierer und Bankangestellte ein deutlich erhöhtes Allergierisiko. Entwertung, Verschrottung. Zwischen Ende 2009 und Anfang 2011 wurden, vorwiegend von Flugbegleitern, Münzen im Nennwert von 866.000 Euro mit dem Ersuchen um Einziehung und Ersatz bei der Bundesbank eingeliefert. Die Münzen stammten überwiegend aus Frankreich, Belgien, Österreich oder Spanien und waren von oder im Auftrag europäischer Zentralbanken durch Münztrennung entwertet, als Metallschrott weiterveräußert und unautorisiert nachträglich in China wieder zusammengesetzt worden. Der erhobene Vorwurf des Sichverschaffens und Inverkehrbringens von falschem Geld hatte vor dem Bundesgerichtshof keinen Bestand. Da die Münzen außerhalb des allgemeinen Zahlungsverkehrs eingeliefert wurden, bestand keine Gefahr, dass sie wieder in den Umlauf gelangten, da diese nicht nur erkennbar unfachmännisch zusammengesetzt, sondern auch stark beschädigt und daher nicht mehr umlauffähig waren. Die Deutsche Bundesbank hatte über einen Zeitraum von mehr als einem Jahr mehrere hundert durchsichtige „Safebags“ mit solchen Münzen beanstandungsfrei angenommen und deren Nennwert erstattet. Diese Praxis der Bundesbank spricht gegen die Annahme, die amtliche Entwertung von Bicolormünzen erfolge im Wege der Trennung von Ring und Pille. Die Strafkammer konnte keine Erkenntnisse über das Entwertungsverfahren bei Euro-Münzen in anderen Euro-Ländern gewinnen, da sämtliche Anfragen der Ermittlungsbehörden an die jeweiligen Landeszentralbanken Frankreichs, Belgiens, Österreichs und Spaniens unbeantwortet blieben. Münzfälschung, Bargeldversorgung. Trotz ihrer hohen technischen Qualität werden auch Euromünzen gefälscht. Durch die Vielzahl von Produktionsstandorten und Trägermaterialien erhöht sich die Gefahr, dass geheime Informationen hinsichtlich der Sicherheitsmerkmale in die falschen Hände geraten. Am 22. Juli 1998 forderte die Kommission die baldige Errichtung eines harmonisierten Rechtsrahmens und den Aufbau einer von der EZB unterhaltenen EU-Geldfälschungsdatenbank. Im Oktober 1998 wurde vereinbart, diese durch eine Datenbank über Münzfälschung zu ergänzen. Am 3. Februar 1999 beschloss der Wirtschafts- und Finanzausschuss den "Counterfeit Organisation and Investigation Network" / C.O.I.N. genannten Plan zur Errichtung eines Europäischen Zentrums für technische und wissenschaftliche Analysen (ETSC / "European Technical and Scientific Center") zur Analyse und Klassifizierung aller weltweit aufgespürten Fälschungen von Euro-Münzen sowie nationale Münzanalysezentren zur Erfassung aller in ihrem Staatsgebiet auftretenden Fälschungsfälle. Der Rat Justiz und Inneres (JAI) beschloss am 29. April 1999, den Aufgabenbereich von Europol um die Bekämpfung der Geldfälschung zu erweitern. 2012 wurden nach Angaben der EZB rund 184.000 Falschmünzen aus dem Verkehr gezogen. Somit kam auf 100.000 echte Münzen eine Fälschung. Die 2-Euro-Münze macht fast zwei Drittel aller entdeckten Falschmünzen aus. Die Deutsche Bundesbank registrierte 2013 rund 52.000 Münzfälschungen. Anfang Dezember 2014 wurden in Italien 306.000 in China produzierte falsche Ein-Euro- und Zwei-Euro-Münzen mit einem Gesamt-Nennwert von 556.000 Euro sichergestellt. Die zum 1. Januar 2013 in Deutschland in Kraft getretene "Bargeldprüfungsverordnung", die aufgrund einer EU-Verordnung zur Festlegung von Maßnahmen zum Schutz des Euro gegen Geldfälschung erlassen wurde, sieht vor, dass Banken auch Münzen auf Fälschungen prüfen oder prüfen lassen müssen, so wie es zuvor schon bei Geldscheinen vorgeschrieben war. Während einer Übergangsfrist konnten Bankinstitute ihre alten Automaten zum Einzahlen von Münzen noch verwenden. Ab Anfang 2015 sind nur noch zertifizierte Geräte zugelassen. Eine neue „Bandstraße“, die Münzen sammelt, sortiert und auf Echtheit prüft, kostet 200.000 Euro. Demzufolge delegieren z.B. Sparkassen das Zählen und Prüfen von Münzen an Werttransportunternehmen, und Kunden – beispielsweise Kaufleute, die ihre Tageseinnahmen abliefern – müssen für jede Münzeinzahlung dann eine Gebühr von fünf Euro zahlen. Hintergrund ist, dass sich die Deutsche Bundesbank mehr und mehr von der Versorgung mit Hartgeld zurückzieht. Im Jahr 2000 konnten Läden ihre Einnahmen in 129 Filialen der Landeszentralbanken einzahlen; doch von denen sind mittlerweile drei Viertel geschlossen. 2015 sinkt ihre Zahl auf 34. Münzen bekommen Banken von der Bundesbank auch nicht mehr in kleinen Stückelungen, sondern nur noch in Form eines 700 kg wiegenden Containers. Bargeldumlauf. Im September 2014 waren rund 110 Mrd. Euromünzen mit einem Gesamtwert von fast 25 Mrd. Euro im Umlauf. Der Umlaufwert je Münzsorte steigt mit ihrem Nennwert: 1 % des Umlaufwerts aller Münzen liegt in den 1-Cent-Münzen, 2 % in den 2-Cent-Münzen, 4 % in den 5-Cent-Münzen, 5 % in den 10-Cent-Münzen, 8 % in den 20-Cent-Münzen, 11 % in den 50-Cent-Münzen, 27 % in den 1-Euro- sowie 42 % in den 2-Euro-Münzen (im Gesamtwert von etwa 10,5 Mrd. Euro). Stückzahlmäßig allerdings sind die Münzen umso zahlreicher im Umlauf, je kleiner ihr Nennwert ist; nur 1-Euro-Münzen sind etwas häufiger als 50-Cent-Münzen. Es laufen 29 Mrd. 1-Cent-Münzen um, doch nur gut 5 Milliarden 2-Euro-Münzen. Im Vergleich zu den Eurobanknoten machen die Münzen nur 2,5 % des gesamten Bargeldumlaufs von 971 Mrd. Euro aus. Jedoch sind die Umlaufmengen der einzelnen Banknoten geringer. Nur die 50-Euro-Note ist mit 7 Mrd. Exemplaren häufiger als die 1-Euro-Münze (und damit auch häufiger als die 2-Euro- und die 50-Cent-Münze), aber seltener als die Münzen mit kleinerem Nominalwert. Umlaufmünzen der Mikrostaaten. Mit dem so beschlossenen neuen Berechnungsverfahren erhöhte sich die Obergrenze für die Prägeauflage der Vatikanstadt auf EUR 2.300.000 im Jahr 2010, die von Monaco auf EUR 2.340.000 im Jahr 2012 und die von San Marino auf EUR 2.600.000 im Jahr 2013. Am 1. April 2012 trat eine Währungsvereinbarung mit einem weiteren europäischen Zwergstaat, Andorra, in Kraft. Am 29. Dezember 2014 begann Andorra mit der Ausgabe eigener Euromünzen. Die aktuellen, zwischen 2011 und 2012 abgeschlossenen Währungsvereinbarungen mit Andorra, Monaco und San Marino sehen vor, dass mindestens 80 % der Umlaufmünzen zum Nennwert ausgegeben werden. Lediglich im Abkommen mit der Vatikanstadt, das bereits am 17. Dezember 2009 getroffen wurde, ist noch eine niedrigere Quote, mindestens 51 %, festgeschrieben. Abschaffung von 1- und 2-Cent-Münzen. Während die ausgezeichneten Preise weiterhin auf 1 Cent genau sein können, werden die dann an der Kasse in bar zu zahlenden Gesamtbeträge auf den nächsten durch 5 Cent teilbaren Betrag gerundet, d. h. Beträge, die auf 1, 2, 6 oder 7 Cent enden, werden nach unten, Beträge, die auf 3, 4, 8 oder 9 Cent enden, nach oben gerundet. Da die 1- und 2-Cent-Münzen in der gesamten europäischen Währungsunion gesetzliches Zahlungsmittel sind, müssen sie aber von den Händlern angenommen werden. In Belgien wurde die Verwendung der 1- und 2- Cent-Münzen reduziert. Händler können seit dem 1. Oktober 2014 die Preise runden, müssen dies aber mit einem Piktogramm kenntlich machen. Die Produktion der Euro-Münzen ist Sache der einzelnen Mitgliedsstaaten. Da die Entscheidungen dezentral getroffen werden, erfolgt keine koordinierte Produktion und/oder Lagerung, so dass Effizienzgewinne aus einer Zusammenfassung verloren gehen. So ist es möglich, dass einige Länder zusätzliche Euro-Münzen prägen lassen, während andere Länder Lagerüberschüsse dieses Nennwerts haben. Daher bietet es sich an, Verbesserungsmöglichkeiten hinsichtlich der kleineren Stückelungen (1, 2 und 5 Cent) zu prüfen, auf die im Durchschnitt insgesamt etwa 80 % der Produktion neuer Münzen entfallen. Verglichen mit ihrem Nennwert, erzielen sie keine oder nur geringe monetäre Einkünfte, verursachen aber hohe Produktions- und Transportkosten. Da unterschiedliche nationale Seiten den Austausch oder die Übertragung von Münzvorräten unter den Ländern einschränken und einer erhöhten Effizienz der Produktion größerer Mengen entgegenstehen, könnte eine „Standardseite“ statt der nationalen Seite einen Teil des Bedarfs an den drei kleinsten Münz-Stückelungen decken. Eine Empfehlung der Kommission vom 22. März 2010 über den Geltungsbereich und die Auswirkungen des Status der Euro-Banknoten und -Münzen als gesetzliches Zahlungsmittel lautet unter Art. 9.: "Status der 1- und 2-Euro-Cent-Münzen als gesetzliches Zahlungsmittel und Rundungsregeln: In den Mitgliedstaaten, in denen Rundungsregeln angenommen wurden und die Preise folglich auf die nächsten 5 Cent auf bzw. abgerundet werden, sollten 1- und 2-Euro-Cent-Münzen weiterhin als gesetzliches Zahlungsmittel gelten und als solches angenommen werden. Die Mitgliedstaaten sollten allerdings keine neuen Rundungsregeln annehmen, da dadurch die Entlastung von einer Zahlungsverpflichtung durch Zahlung des exakten geschuldeten Betrags beeinträchtigt wird und dies in einigen Fällen zu einem Aufschlag bei Barzahlungen führen kann." Am 4. Juli 2012 bestimmte eine Verordnung des Europäischen Parlaments und des Rates, die Kommission solle eine Folgenabschätzung über eine fortgesetzte Ausgabe von 1- und 2-Cent-Münzen vornehmen.(Stand 30. Januar 2015, alternativ auch inkl. früherer Kursmünzensätze) Nationale Rückseite der Münzen. Obwohl Anfang 2015 nur 19 Staaten der EU an der Währungsunion beteiligt sind, gibt es Münzsätze von 23 verschiedenen Ländern. In Andorra, das per Währungsabkommen mit der Eurozone assoziiert ist, gilt der Euro zwar schon seit 1. April 2012 als gesetzliches Zahlungsmittel; die Ausgabe eigener Euromünzen erfolgte jedoch erst am 29. Dezember 2014. Monaco, San Marino und die Vatikanstadt sind ebenfalls keine EU-Mitglieder, befanden sich jedoch vor der Euroeinführung aufgrund von Währungsvereinbarungen in Währungsunion mit Frankreich bzw. Italien. Daher wurde es als notwendig erachtet, die jeweiligen Währungsvereinbarungen durch neue bilaterale Übereinkommen mit der Europäischen Union zu ersetzen, welche diesen Zwergstaaten das Recht einräumen, eigene Euromünzen zu prägen. Jedes Land, das am Euro teilnimmt, hat seine eigene Gestaltung der Rückseite. Alle Münzen zeigen auf dieser Seite die Jahreszahl und die zwölf Sterne der EU-Flagge. Gestaltungsleitlinien. Die Empfehlung der Kommission der Europäischen Gemeinschaften vom 29. September 2003 zu einem einheitlichen Vorgehen bei Änderungen der Gestaltung der nationalen Rückseiten der Euromünzen sah ein Moratorium für Veränderungen der Münzbilder der nationalen Vorderseiten der Euro- bzw. Cent-Umlaufmünzen vor. Bis Ende 2008 sollten diese unverändert bleiben, es sei denn, der auf der Münze abgebildete Staatschef wurde abgelöst. Es wurde lediglich bestimmt, dass "das Münzbild auf der nationalen Seite von zwölf Sternen umrandet sein und eine Jahreszahl aufweisen soll." Das ließ den nationalen Münzgestaltern einen breiten Freiraum. So wurden die zwölf Sterne nicht immer in gleichen Abständen am Rand der Münze platziert, sondern zum Beispiel auch eng beieinander in Gruppen angeordnet, so dass Platz für das Münzmotiv oder die Beschriftung freigehalten wurde. Die 2-Euro-Gedenkmünzen der deutschen Bundesländerserie konnten dadurch auf dem Ring die Bezeichnung „Bundesrepublik Deutschland“ tragen. Es änderte sich, als am 19. Dezember 2008 neue Leitlinien erlassen wurden, die bestimmten, dass auf der nationalen Seite der Euro-Umlaufmünzen das nationale Motiv sowie die Jahreszahl und der deutlich angegebene und leicht erkennbare volle oder abgekürzte Name des Ausgabestaats von den zwölf europäischen Sternen umrandet werden sollen. Die Sterne sollten wie auf der europäischen Flagge angeordnet sein. Auf eine Wiederholung des Nennwerts der Münze oder der Währungsbezeichnung bzw. ihrer Unterteilung auf der nationalen Seite sollte verzichtet werden, außer wenn im entsprechenden Land ein anderes als das lateinische Schriftsystem verwendet wird. Die Ausgabestaaten sollten zwar die Möglichkeit haben, ihre nationalen Seiten der Euro-Umlaufmünzen den Gestaltungsleitlinien anzupassen, ansonsten sollten die Motive nicht verändert werden, es sei denn, es sei ein Wechsel des auf der Münze abgebildeten oder genannten Staatsoberhaupts erfolgt. Scheidet das Staatsoberhaupt (etwa durch Tod oder Amtsverzicht) aus dem Amt, ist eine sofortige Neugestaltung der Münzen möglich. Allerdings ist es nicht mehr gestattet, für den Zeitraum zwischen dem Ausscheiden des alten Staatsoberhaupts und der Bestellung des neuen einen eigenen Münzsatz herauszugeben (wie es 2005 in der Vatikanstadt, während der Sedisvakanz nach dem Tod von Papst Johannes Paul II., geschah). Den Ausgabestaaten solle gestattet werden, Münzmotive, die das Staatsoberhaupt darstellen, alle fünfzehn Jahre zu aktualisieren, um Änderungen im Erscheinungsbild des Staatsoberhaupts Rechnung zu tragen. Durch diese Leitlinien ist die kreisförmige Anordnung der zwölf Sterne in 30°-Intervallen vorgeschrieben, wie die Platzierung der die Stunden anzeigenden Ziffern einer Uhr. Das durch die Europaflagge vorgegebene Verhältnis der Größe eines Sternes zum Radius des Kreises, auf dem die Mittelpunkte der Sterne liegen, kann auf den Münzen nicht streng eingehalten werden – die Sterne wären dann etwa bei den 2-Euro-Münzen deutlich größer als der beprägbare Teil des Ringes. Die z.B. von Deutschland 2013 (für die Gedenkmünze Baden-Württemberg) gewählte Darstellung, bei der die Sterne so groß wie möglich den Ring füllen, kommt dem Erscheinungsbild der Europaflagge am nächsten. Die z.B. von den Niederlanden 2013 (für die Thronwechsel-Gedenkmünze) gewählte Darstellung mit deutlich kleineren, an den Außenrand gerückten und zudem strukturierten Sternen zeigt aber, dass auch diese Leitlinien noch Spielraum bieten. Den Gestaltungsleitlinien wird teilweise nicht entsprochen. So ist die Darstellung des – stilisierten – Landeskürzels "RF" auf der französischen Gedenkmünze 2012/2 sowie das "FI" auf der finnischen Gedenkmünze 2013/2 weder deutlich noch leicht erkennbar. Die Luxemburger Gedenkmünze 2014/2 weist den Ausgabestaat nicht einmal durch ein Landeskürzel aus. Neugestaltung. Die nationalen Seiten der Kursmünzen mehrerer Euroländer entsprechen nicht den 2008 erlassenen Gestaltungsleitlinien. Die Münzen Österreichs zeigen den jeweiligen Nennwert in Worten oder Ziffern sowie die Angabe "EURO CENT" bzw. "EURO", ferner fehlt – wie auch bei den deutschen und griechischen Kursmünzen – die Landesbezeichnung. Bei den niederländischen Kursmünzen der ersten Prägeserie (1999–2013) waren Landesbezeichnung und Jahresangabe nicht von den zwölf europäischen Sternen umrandet und die Sterne zudem nicht wie auf der europäischen Flagge angeordnet. Das gleiche trifft auf die luxemburgischen Centmünzen zu. Bei den slowenischen Kursmünzen sind Landesbezeichnung und Jahresangabe ebenfalls nicht von den Europasternen umgeben und die 10-Cent-Münze zeigt die Sterne nicht wie auf der Europaflagge. Letzteres trifft auch auf die italienische 10-Cent-Münze zu. Die bisherigen Euro-Länder müssen die Darstellungen ihrer Kursmünzen jedoch nicht sogleich an die Gestaltungsleitlinien anpassen; eine Frist zur Überarbeitung wurde in den Leitlinien von 2008 nicht festgelegt. Finnland begann mit der Neugestaltung bereits 2007, Belgien folgte 2008 und Spanien 2010. Abmessungen, Masse und andere technische Spezifikationen der Münzen bleiben unverändert, um den Übergang von alten zu neuen Münzen nicht zu erschweren. Bei den drei auf die 2008 erlassenen Gestaltungsleitlinien folgenden Ausgaben der deutschen Bundesländerserie (2010, 2011 und 2012) wurde das aus Platzgründen eingeführte Landeskürzel "D" (das die Langfassung "Bundesrepublik Deutschland" ersetzte) zwischen den Sternen in "12- und 1-Uhr-Position" (bezeichnet in Analogie zum Zifferblatt) platziert, die zweigeteilte Jahreszahl zwischen "dem 7- und dem 5-Uhr-Stern". Offenbar bestand also ein Interpretationsspielraum darüber, was „von den zwölf europäischen Sternen umrandet“ bedeutet. Beginnend mit den Gedenkmünzen 2013 befinden sich das "D" und die Jahreszahl innerhalb des Sternenkreises auf der Pille – wo es allerdings u.U. mit dem (nur unwesentlich kleineren) Münchener Münzstättenzeichen "D" verwechselt werden kann. Am 18. Juni 2012 wurden die Richtlinien zur Neugestaltung der nationalen Rückseiten konkretisiert bzw. modifiziert. Nunmehr bleibt der Ring allein der Darstellung der zwölf Sterne vorbehalten, ausgenommen auf den Ring ragende einzelne Gestaltungselemente, solange alle Sterne deutlich und vollständig sichtbar bleiben. Ggfs. notwendige Anpassungen der nationalen Seiten von Kursmünzen an die Gestaltungsleitlinien können jederzeit vorgenommen werden, sind jedoch laut Artikel 1g der Verordnung binnen fünfzig Jahren, spätestens zum 20. Juni 2062, zu vollziehen. Unbeschadet etwaiger Änderungen, die erforderlich sind, um Münzfälschungen zu verhindern, dürfen die auf den nationalen Seiten der Kursmünzen verwendeten Gestaltungen nur alle 15 Jahre geändert werden. Diese 15-Jahres-Intervalle betreffen nunmehr alle Kursmünzen, nicht mehr nur die mit Abbildungen von Staatsoberhäuptern. Bereits vorgenommene und genehmigte Änderungen von nationalen Münzseiten bleiben bestehen. Alle bisherigen Euromünzen behalten ihren Wert und bleiben im Umlauf. Es ist vorgesehen, dass alle derzeitig gültigen Empfehlungen und Richtlinien im Jahr 2015 überdacht werden, so dass sie dann gegebenenfalls auch wieder abgeändert werden können. 2-Euro-Gedenkmünzen. 2-Euro-Gedenkmünzen unterscheiden sich von Kursmünzen (lt. EU: „regulären Münzen“) nur dadurch, dass ihre nationale Seite durch eine spezielle Gedenkseite ersetzt wird. Die gemeinsame Seite sowie alle weiteren Eigenschaften wie Nennwert, Farbe, Dicke und Durchmesser sind unverändert. Die Auflagen dieser Gedenkmünzen sind festgelegt. 2-Euro-Gedenkmünzen sind (im Gegensatz zu Sammlermünzen) für den Umlauf bestimmt und in allen Euroländern gültig. Seit 2004 können alle Staaten des Euroraumes 2-Euro-Gedenkmünzen herausgeben; den Anfang machte Griechenland anlässlich der Olympischen Spiele 2004. Jedes Ausgabeland konnte bis zum 16. August 2012 nur "eine" Gedenkmünze im Jahr in Umlauf bringen. Seit diesem Stichtag darf jeder Mitgliedstaat, dessen Währung der Euro ist, pro Jahr zwei 2-Euro-Gedenkmünzen prägen. Zusätzliche Gedenkmünzen sind möglich, wenn die Position des Staatsoberhaupts vorübergehend nicht oder nur vorläufig besetzt ist, oder wenn die Staaten der Eurozone eine gemeinsame Gedenkmünze ausgeben. Im März 2007 erschien eine Gemeinschaftsausgabe der 2-Euro-Gedenkmünzen zum 50. Jahrestag der Unterzeichnung der "Römischen Verträge". Sie wurde von allen 13 den Euro emittierenden EU-Staaten (d.h. ohne Beteiligung Monacos, San Marinos und der Vatikanstadt) ausgegeben. Die Münze ist in allen Ländern gleich gestaltet und unterscheidet sich nur durch den jeweiligen Landesnamen und die Sprache der Inschrift "Römische Verträge – 50 Jahre". Die zweite gemeinsame 2-Euro-Gedenkmünze erschien am 1. Januar 2009 aus Anlass des zehnjährigen Bestehens der Europäischen Wirtschafts- und Währungsunion. Die dritte Gemeinschaftsausgabe wurde am 1. Januar 2012 anlässlich des zehnjährigen Jubiläums der Einführung des Euro-Bargelds ausgegeben, eine vierte soll 2015 zum 30-jährigen Jubiläum der Europaflagge erscheinen. Bis Ende 2014 hatten 21 der seinerzeit 22 Euro-Länder insgesamt 978 Millionen 2-Euro-Gedenkmünzen ausgegeben. Nach Angaben der EZB betrug das Volumen umlaufender 2-Euro-Münzen – Kursmünzen und Gedenkmünzen – zu diesem Zeitpunkt 5284 Millionen. Die bis Ende 2014 ausgegebenen 2-Euro-Gedenkmünzen stellten demnach maximal (auch defekte Gedenkmünzen werden ggfs. aus dem Verkehr gezogen und durch neue Kursmünzen ersetzt) 18,5 % der zu diesem Zeitpunkt umlaufenden 2-Euro-Münzen. Sammlermünzen. Neben den in allen Teilnehmerländern als gesetzliches Zahlungsmittel gültigen Euro-Kursmünzen ist jedes an der Währungsunion teilnehmende Land berechtigt, Sammlermünzen herauszugeben. Sammlermünzen unterscheiden sich im Nennwert sowie in mindestens zwei der drei Kriterien Dicke, Durchmesser und Farbe von den Kursmünzen. Diese Sammlermünzen sind nur im herausgebenden Land gesetzliches Zahlungsmittel. Da Sammler- und Materialwert der Goldmünzen deren Nennwert deutlich übersteigen, spielen sie im Zahlungsverkehr selten eine Rolle. Auch die deutschen Silbermünzen, die zum Nennwert ausgegeben werden, kommen im Umlauf selten vor. Eurovorläufer, Mustermünzen und Testprägungen. Diese Prägungen sind keine offiziellen Zahlungsmittel und sind daher nicht als "Münzen", sondern als Medaillen zu bezeichnen. Die Mustermünzen und Testprägungen kommen in aller Regel nicht von der Zentralbank bzw. den nationalen Münzprägestätten. Vielmehr handelt es sich um Fantasieprägungen durch Privatpersonen oder Münzhandelsfirmen; das Design gibt daher auch nicht das mögliche Aussehen späterer offizieller Europrägungen dieser Länder wieder. Mustermünzen und Testprägungen werden für praktisch alle EU-Länder, die den Euro noch nicht eingeführt haben, angeboten. In einigen Ländern, so auch in Deutschland, stehen diese Medaillen unter Umständen in einem Widerspruch zu gültigen Münzverordnungen. Weiterhin gab es sogenannte Eurovorläufer, regional gültige Pseudo-Währungen. Zudem wurden Entwürfe für dänische Euromünzen vorgestellt. Ihre hypothetische Einführung war für 2004 gedacht, jedoch lehnten die Dänen in einer Volksabstimmung im Jahr 2000 den Euro ab. Inzwischen entsprechen die Entwürfe nicht mehr den geltenden Gestaltungsrichtlinien. Eurobanknoten. Die Eurobanknoten bilden zusammen mit den Euromünzen das Bargeld des Euro. Die Eurobanknoten wurden am ersten Geltungstag, dem 1. Januar 2002, in Umlauf gebracht, während die Euromünzen in so genannten Starterkits bereits einige Tage zuvor ausgegeben wurden. Die Währung selbst wurde bereits am 1. Januar 1999 zunächst nur als Buchgeld eingeführt. Von den Eurobanknoten gibt es bisher zwei Serien. Bei der ersten Serie der Eurobanknoten gibt es sieben Nennwerte, von der zweiten Serie sind bisher der 5-, der 10- und der 20-Euro-Schein in den Verkehr gebracht worden. Der 10-Euro-Schein wurde am 13. Januar 2014 der Öffentlichkeit vorgestellt und am 23. September 2014 in Umlauf gebracht. Am 24. Februar 2015 wurde der neue 20-Euro-Schein vorgestellt, der seit dem 25. November 2015 ausgegeben wird. Gestaltungswettbewerb. Bereits am 15. November 1994 legte der Rat des Europäischen Währungsinstituts (EWI) die Stückelungen der neuen Banknoten fest: 5, 10, 20, 50, 100, 200 und 500 ECU. Erst über ein Jahr später wurde in Madrid der Name „Euro“ für die neue Währung vom Europäischen Rat festgelegt. Der Gestaltungswettbewerb, an dem die von den nationalen Zentralbanken nominierten Grafiker und Designer-Teams teilnahmen, startete am 12. Februar 1996 und lief bis zum 13. September desselben Jahres. Die Dänische Zentralbank beteiligte sich nicht am Wettbewerb. In den Jahren 1995/96 wurden die Vorgaben für den Wettbewerb erarbeitet. So wurden unter anderem die beiden Themen „Zeitalter und Stile in Europa“ und „abstraktes/modernes Design“ festgelegt. Des Weiteren sollten die Währungsbezeichnung und die Abkürzungen der ausgebenden Stelle die einzigen Wörter auf den Banknoten sein. Weitere wichtige Rahmenbedingungen bei der Gestaltung waren, dass die Geldscheine eindeutig „als Europäische Banknoten erkennbar sein sollten und eine kulturelle und politische Aussage enthalten, die alle Europäer anspricht“. Zudem mussten alle Entwürfe „die Gleichstellung von Mann und Frau berücksichtigen und jede Art nationaler Voreingenommenheit vermeiden“. Vorgegeben waren u. a. auch die Größe der einzelnen Banknote und deren Grundfarben, die Epochen für das Thema „Zeitalter und Stile“ und die zwölf Sterne der EU, die auf der Vorderseite abgebildet sein mussten. Auf der Rückseite war die Nutzung der Sterne optional. Am 26./27. September wählte eine Expertengremium zu beiden Themen die jeweils fünf besten Entwürfe aus. Es folgte eine Umfrage unter knapp 2000 EU-Bürgern, bevor der Rat des EWI die von Robert Kalina gestalteten Entwürfe als Gewinner bestimmte. Zur Begründung heißt es: „weil sie historische Entwicklungen in den Bereichen Technik, Kunst und Kommunikation in einer harmonischen Darstellung vereinen; sie stehen stellvertretend für den Beginn eines neuen Europa mit einem gemeinsamen kulturellen Erbe und der Vision einer gemeinsamen Zukunft im neuen Jahrtausend“. Die auf der Vorderseite der Banknoten abgebildeten Tore und Fenster symbolisieren „den Geist der Offenheit und der Zusammenarbeit“. Die auf den Rückseiten abgebildete Brücken symbolisieren die „Verbundenheit zwischen den Völkern Europas und zwischen Europa und der übrigen Welt“. Die Scheine zeigen fiktive Motive der europäischen Architektur, jeweils aus verschiedenen kunstgeschichtlichen Epochen. Es wurde bewusst darauf verzichtet, reale Personen oder Bauwerke darzustellen, um zu vermeiden, dass sich – auch unabsichtlich – einzelne Eurostaaten bevorzugt oder benachteiligt fühlen. Die erstmalige Präsentation der Entwürfe erfolgte am 13. Dezember auf Pressekonferenzen in Dublin und Frankfurt. Am 30. August 2001 stellte Wim Duisenberg, der damalige Präsident der EZB, in Frankfurt das endgültige Erscheinungsbild der Eurobanknoten vor. Diskussionen um Nennwerte. Schon vor Einführung des Euro gab es Diskussionen um kleinere Stückelungen. Insbesondere Italien hatte sich für einen Ein-Euro-Schein starkgemacht. Im Oktober 2003 kam es zu einem neuerlichen Vorstoß des italienischen Finanzministers Giulio Tremonti, der durch seinen österreichischen Amtskollegen Karl-Heinz Grasser unterstützt wurde. Der Gedanke war, die Menge der umlaufenden Münzen zu verringern und die Inflation zu senken, da viele Menschen den Wert von Gütern als zu gering einschätzen würden, solange sie mit Münzen bezahlen. Die Europäische Zentralbank, die allein über die Stückelung der Banknoten entscheidet, hatte im November 2004 nach Auswertung einer Studie beschlossen, keine Ein-Euro-Banknote auszugeben. Die Forderung nach einer Banknote im Wert von zwei Euro wurde nach dieser Entscheidung nicht weiterverfolgt. Im Mai 2012 wurde erneut ein Vorstoß unternommen, die Einführung durch die Zentralbank prüfen zu lassen. Die Diskussion kam im Rahmen der Diskussion über die Abschaffung von 1- und 2-Cent-Münzen auf. Im April 2013 wurden Diskussionen um die Abschaffung der 500-Euro-Banknote laut. Der Analyst bei der Bank of America Athanasios Vamvakidis schreibt, dass diese Banknoten oft zum „Matratzen-Geld“ würden. Eine Studie der EZB besagt, dass nur etwa 30 % der umlaufenden 500-Euro-Banknoten für Zahlungen genutzt werden und eine weitere Studie der britischen Regierung geht davon aus, dass 90 % der im Land gehandelten Scheine dieser Größenordnung in den Händen des organisierten Verbrechens seien. Der EZB-Vizepräsident Vítor Constâncio bestätigte in Brüssel, dass die Abschaffung sicherlich eine Diskussion wert sei. Bargeldumlauf. Nach Angaben der Europäischen Zentralbank waren im November 2014 circa 16,7 Mrd. Eurobanknoten mit einem Gesamtwert von 981 Mrd. Euro im Umlauf. Häufigste Banknote ist die zu 50 Euro, sowohl zahlen- als auch wertmäßig. Auf sie entfällt knapp über ein Drittel des im Umlauf befindlichen Wertes. Ein weiteres Drittel des Bargeldumlaufs deckt die 500-Euro-Note ab, die nach der 200-Euro-Note die zweitseltenste ist. Die Euromünzen machen mit 24,730 Mrd. Euro nur 2,5 % des gesamten Bargeldumlaufs (aus Noten und Münzen) von 1.005,63 Mrd. Euro aus. Stückelungen. Die Euro-Banknoten der ersten Serie gibt es in Stückelungen zu 5, 10, 20, 50, 100, 200 und 500 Euro. Gestaltung und Abmessungen. Die Banknoten wurden nach einem EU-weiten Wettbewerb, an dem 29 Designer teilnahmen und 44 Entwürfe einreichten, von dem Österreicher Robert Kalina gestaltet. Die Vorderseite (oder "recto") stellt ein oder mehrere Fenster oder Tore dar, während auf der Rückseite (oder "verso") eine Brücke zu sehen ist, die die Verbindung der einzelnen Länder innerhalb der Europäischen Union symbolisieren soll. Dabei sind keine realen Bauwerke abgebildet, sondern eine Zusammenstellung aus Stilmerkmalen einzelner Epochen in einer archetypischen Abbildung. Auf der Rückseite sind das europäische Festland, Nordafrika sowie ein Teil des asiatischen Gebietes der Türkei abgebildet. Außerdem sind mit den Azoren, Madeira, Französisch-Guayana, Guadeloupe, Martinique, Réunion, Kanarische Inseln auch Inseln und Territorien abgebildet, in denen der Euro offizielles Zahlungsmittel ist. Es fehlen Malta, aufgrund des gewählten Maßstabes, und Zypern, das derzeit östlichste Land der EU. Diese beiden Länder waren zum Zeitpunkt der Euro-Einführung noch nicht Mitglied der EU. Allen Noten gemeinsam sind die europäische Flagge, die Abkürzung der Europäischen Zentralbank in den verschiedenen Arbeitssprachen der EU im Jahr 2002, die Jahreszahl der Erstausgabe (2002), die Unterschrift des amtierenden EZB-Präsidenten, eine Europakarte (inklusive der französischen Überseedépartements) auf der Rückseite, beidseitig der Name „Euro“ in lateinischen („EURO“) und griechischen Buchstaben („ΕΥΡΩ“) der Schriftart Frutiger. Die fünf Abkürzungen der Europäischen Zentralbank sind: BCE (Französisch, Irisch, Italienisch, Portugiesisch, Spanisch), ECB (Dänisch, Englisch, Niederländisch, Schwedisch), EZB (Deutsch), ΕΚΤ (Griechisch; Buchstaben Epsilon, Kappa und Tau des griechischen Alphabets) sowie EKP (Finnisch) Da am 1. November 2003 Wim Duisenberg seinen Präsidentenposten an Jean-Claude Trichet abgab, wechselte auf den nachfolgend gedruckten Scheinen auch die Unterschrift, aber nicht die Jahreszahl "2002". Banknoten mit der Unterschrift von Mario Draghi kamen im März 2012 erstmals in Umlauf. In dieser Serie wurden keine Fünf-Euro-Banknoten mit der Unterschrift von Mario Draghi ausgegeben. * Alle Eurobanknoten haben einheitlich eine Stärke von rund 0,10 mm, und ihre Grammatur („Flächengewicht“, flächenbezogene Masse) beträgt bedruckt 85 g/m². Die üblichen Bündel mit 100 Stück (neuer) Banknoten messen um die Schleife etwa 12 mm. Zehn derartige Bündel stapeln sich etwa 130 mm hoch. In der Herstellung kosten die Geldscheine pro Stück durchschnittlich acht Cent. Notenwertübergreifende Sicherheitsmerkmale. Die Euro-Banknoten weisen verschiedene Sicherheitsmerkmale auf, mit denen Fälschungen verhindert oder zumindest erschwert werden sollen. Weiterhin soll mit der sogenannten „EURion-Konstellation“ das Vervielfältigen durch Kopierer oder Scanner verhindert werden. Notenwertspezifische Sicherheitsmerkmale. Bisher sind keine gefälschten Eurobanknoten bekannt, bei denen der Farbwechsel der Wertzahl vollständig nachgeahmt werden konnte. Entweder schillert die Farbe beim Kippen nur auf oder wechselt nicht vollständig zu Braun, sondern zu Dunkelrot bzw. Dunkellila (gilt für eine sehr gute Fälschung eines 200-Euro-Scheines aus Bulgarien). Der Unterschied zum echten Farbwechsel ist sehr auffällig und leicht zu erkennen. Hält man das Farbelement schräg gegen das Licht, wird bei waagerechter Haltung ein grüner Schimmer sichtbar, der den vollständigen Farbwechsel bestätigt. Auf allen Banknoten ab 50 Euro vollzieht sich der gleiche Farbwechsel, sodass man anhand einer Vergleichsbanknote den Farbwechsel bei allen Scheinen überprüfen kann. Nicht selten wird der Farbwechsel auf Falschgeld gar nicht imitiert, sondern die Wertzahl ist nur in Lila aufgedruckt. Weitere Sicherheitsmerkmale. Es gibt auf den Euro-Banknoten auch versteckte Sicherheitsmerkmale, so ein als "M-Feature" ("M" für "maschinenlesbar") bezeichnetes Merkmal, eine Beschichtung mit einem Oxidgemisch verschiedener Lanthanoide, das mit Hilfe starker Lichtblitze ausgelesen eine charakteristische Antwort liefert. Diese Sicherheitsmerkmale werden automatisiert in den Filialen der nationalen Zentralbanken des Eurosystems überprüft. Bisher konnte dieser Test Fälschungen sicher erkennen. Jede Banknote soll im Durchschnitt alle drei Monate in einer Zentralbankfiliale auf diese Merkmale überprüft werden und so der Umlauf von Falschgeld entdeckt und unterdrückt werden. Bisher konnten allerdings alle Fälschungen auch anhand der bekannten Sicherheitsmerkmale erkannt werden. Fälschungen und Manipulationen. Das Fälschen der Banknoten ist verboten. Das Copyrightzeichen © weist auf die Beanspruchung von Schutzrechten bezüglich der Vervielfältigung hin. Bei der Verwendung des Copyrightzeichens sind nach ISO 16016 noch die Angabe des Rechteinhabers (EZB) und die Jahreszahl der Erstveröffentlichung (2002) nötig. Bis 2003 stieg die Fälschungsrate der Eurobanknoten deutlich an, sodass an einer Erweiterung der Sicherheitsmerkmale gearbeitet wird, unter Umständen die Integration von elektronischen Chips zur Identifikation der Banknote, auch wenn die Anzahl der Fälschungen, die dem Banknotenumlauf entnommen wurden, seit 2004 nur noch geringfügig steigt. Seriennummer. Jeder nationalen Zentralbank (NZB) des Eurosystems wurde ein individueller Kennbuchstabe zugeteilt, der als erstes Zeichen der Seriennummer auf allen Banknoten erscheint, deren Druck die nationale Zentralbank in Auftrag gegeben hat. Ein Buchstabe einer bestimmten NZB bedeutete dabei ursprünglich (bei der Grundausstattung zur Euroeinführung 2002), dass diese NZB den Schein auch in ihrem Zuständigkeitsbereich in Umlauf gebracht hat. Bei späteren Ausgaben kann es auch bedeuten, dass die NZB die Banknoten im Rahmen des dezentralen Poolingverfahrens der Banknotenherstellung einer anderen Zentralbank für die Ausgabe in deren Zuständigkeitsbereich zur Verfügung gestellt hat. Banknoten mit dem Buchstaben einer NZB wurden auch nicht immer von einer nationalen Druckerei gedruckt, siehe Druckereikennung. Die Buchstaben W, K und J wurden bisher nicht genutzt, sie sind für EU-Staaten reserviert, die derzeit (Stand 1. Januar 2002) nicht am Euro teilnehmen. Nach der Euro-Einführung in Estland wurde der nächste „freie“ Buchstabe D vergeben, die Buchstaben A, B und C sind derzeit noch unbelegt. Dem NZB-Buchstaben folgen eine zehnstellige Nummer und eine Prüfziffer (1–9). Die Prüfziffer ist dabei so gewählt, dass folgende Prüfbedingung erfüllt ist: Ersetzt man den Buchstaben der Seriennummer durch seinen ASCII-Wert (A = 65 … Z = 90), so ergibt sich insgesamt eine Zahl, die durch 9 teilbar ist, der Neunerrest ist also 0. Dies lässt sich einfach prüfen, indem man die wiederholte Quersumme der Ziffernfolge bildet, diese ergibt beim Neunerrest 0 immer "9" (ansonsten sind Neunerrest und wiederholte Quersumme identisch). Dies gilt offenbar nicht nur bei den Banknoten der ersten Serie; auch alle bei der Vorstellung der zweiten Serie zu sehenden Seriennummern lassen sich so prüfen, indem man hier beide Buchstaben durch ihren jeweiligen ASCII-Wert ersetzt. Es existieren auch andere, dazu äquivalente Prüfverfahren: Statt des ASCII-Werts kann man auch die Zuordnung A = 2 … Z = 27 oder A = 11 … Z = 36 benutzen. Ersetzt man den Buchstaben durch seine Position im Alphabet (A = 1 … Z = 26), so ist bei Banknoten der ersten Serie der Neunerrest grundsätzlich "8". Bildet man den Neunerrest nur der elf Ziffern der Seriennummer ohne den Buchstaben, so ergibt sich ein Wert, der der folgenden Tabelle zu entnehmen ist. Die Erfahrung zeigt zwar, dass viele Fälscher falsche Prüfziffern auf ihre Scheine drucken. Aber auch bei einer willkürlichen Nummernvergabe einschließlich der als Prüfziffer nie verwendeten „0“ hätten 10 % der gefälschten Banknoten eine korrekte Prüfziffer. Deshalb können Scheine mit einer ungültigen Prüfziffer zwar als gefälscht erkannt werden. Eine gültige Prüfziffer stellt umgekehrt aber nur ein notwendiges, jedoch kein hinreichendes Kriterium für die Echtheit eines Scheines dar. Zur Echtheitskontrolle sollte man sich daher zusätzlich anderer Methoden bedienen (siehe unten). Systematik des numerischen Teils. D: Nummernkreis für den Wert des Scheins, wobei z. B. bei der Seriennummer alle 5-Euro-Scheine mit einer 1 anfangen, alle 10-Euro-Noten mit einer 2 usw., oder 063 bis 076 für 5 Euro, 077 bis 096 für 10 Euro usw. Länder, die eine solche Systematik benutzen, können maximal nur 10 Mrd. Banknoten herausgeben. N: Fortlaufende Nummer. Diese Nummer wird für jede Wertstufe einzeln von …0001 an lückenlos aufsteigend verwendet. Beispielsweise wurde ein Schein mit fortlaufender Nummer "5678912345*" später gedruckt als ein Schein desselben Wertes mit der Nummer "1234567891*". P: Position des Scheins auf dem Druckbogen, wobei die verschiedenen möglichen Positionen fortlaufend nummeriert werden. X: Position des Scheines auf der x-Achse der Druckplatte. Y: Position des Scheines auf der y-Achse der Druckplatte. Von den mit diesen Systemen möglichen über 500 Mrd. Nummernkombinationen waren Ende 2008 schon 49,63 Mrd. verbraucht. Das System erschöpft sich aufgrund der signifikant unterschiedlichen Auflagen der verschiedenen Herausgeber aber schon viel eher. So wurden bis zur Einführung der neuen Serie über 8,2 Mrd. Seriennummern deutscher 10-Euro-Banknoten verbraucht, die deutschen 50-Euro-Scheine sind im Jahr 2015 schon mit Seriennummern bis X92 im Umlauf. Dort wurde also bereits fast der gesamte Nummernraum ausgeschöpft. Plattencode. Etwas versteckt auf der Vorderseite befindet sich eine weitere kurze Zeichenfolge, der "Plattencode", wobei der erste Buchstabe die Druckerei kennzeichnet, die die Banknote hergestellt hat. Diese "Druckereikennung" lässt nicht zwangsläufig auf die NZB-Kennung schließen, denn Banknoten, die von einem bestimmten Land herausgegeben wurden, können in einem anderen Land gedruckt worden sein. Deutschland, Großbritannien und Frankreich haben jeweils zwei Druckereien in der Codeliste. Die Codes A, C und S wurden für Druckereien reserviert, die derzeit keine Eurobanknoten herstellen. Die drei folgenden Ziffern geben die Nummer der Druckplatte bzw. die Serie an. Die letzten beiden Stellen dieser kurzen Zeichenfolge geben die relative "Position der Banknote" auf dem Druckbogen an, also von A1 (oben links) bis J6 (unten rechts), je nach Größe des Druckbogens. Druckereikennung. Die Buchstaben B, I, O, Q sind nicht vergeben. Die Vergabe der Buchstaben erfolgte ähnlich wie bei den Seriennummern, invers alphabetisch bezüglich des Landes, für das die Druckerei voraussichtlich Banknoten drucken würde. Die Druckerei Valora in Portugal kam erst später dazu und bekam damit das U. Von den angeführten Druckereien haben die beiden deutschen den größten Anteil am Druckvolumen bewältigt. Von den 14,8899 Mrd. zum 1. Januar 2002 hergestellten Euro-Banknoten stammen 4,7829 Mrd. von der deutschen NZB, der Deutschen Bundesbank. Auch von den 51,613 Mrd. Euromünzen der Erstproduktion stammt rund ein Drittel, nämlich 17 Mrd., aus Deutschland. Brüchige Banknoten. Am 2. November 2006 wurde in der Öffentlichkeit bekannt, dass schätzungsweise tausend Banknoten, mutwillig oder versehentlich, chemisch so behandelt wurden, dass sie bei Kontakt mit Feuchtigkeit (beispielsweise Schweiß auf der Hand) anfangen, sich aufzulösen. Erstmals aufgetreten ist dieser Effekt im Juni und Juli 2006 in der Region Berlin/Potsdam. Es kann nicht ausgeschlossen werden, dass die Ursache eine mutwillige chemische Behandlung war. Bei der Chemikalie handelt es sich (höchstwahrscheinlich) um Sulfate, mit denen die Scheine bepudert sind. Dies konnte jedoch nicht verifiziert werden. Es steht mit Sicherheit fest, dass die Scheine echt sind, es sich also nicht um Fälschungen handelt. Kritik an Papierqualität. Als Konservierungsstoffe werden den humanen Hormonhaushalt schädigende metallorganische Verbindungen des Zinns (zum Beispiel: TBT) eingesetzt, was Ärzte kritisch sehen. Die EZB gibt an, in neuen Scheinen seit 2002 kein TBT mehr einzusetzen. Zweite Serie (ab 2013) „Europa-Serie“. 2005 begann die Entwicklung einer zweiten Generation von Euro-Banknoten. Zunächst wurden dazu geeignete Sicherheitsmerkmale aus rund 200 auf dem Markt befindlichen Sicherheitsmerkmalen ausgewählt. Bereits seit 2008 verkündete die EZB in größeren Intervallen, dass eine zweite Eurobanknoten-Serie in Arbeit sei. Die ursprünglich genannten Ausgabetermine von erst 2010 und hiernach 2011 konnten aufgrund nötiger Weiterentwicklungen bezüglich der Sicherheitsmerkmale nicht eingehalten werden. Am 9. November 2012 gab die Europäische Zentralbank in einer Mitteilung des Präsidenten Mario Draghi bekannt, dass ab dem Jahr 2013 eine neue Banknotenserie, die so genannte „Europa-Serie“ eingeführt wird. Am 10. Januar 2013 wurden die neuen Fünf-Euro-Noten offiziell präsentiert und sind seit dem 2. Mai 2013 im Umlauf. Die Präsentation der 10-Euro-Note erfolgte am 13. Januar 2014; in den Zahlungsverkehr gelangte sie am 23. September 2014. Die 20-Euro-Note wurde am 25. November 2015 eingeführt. Die anderen Nennwerte sollen in aufsteigender Reihenfolge später folgen. Die Einführungsdaten der übrigen Noten der Europa-Serie sind noch nicht bekannt (Stand: Februar 2015). Stückelungen. Die zweite Serie der Eurobanknoten umfasst, wie die erste Serie, die Nennwerte 5 €, 10 €, 20 €, 50 €, 100 €, 200 € und 500 €. Gestaltung und Abmessungen. Seit dem Beitritt Bulgariens zur EU wird die Währungsbezeichnung "EURO" neben der bisherigen Benennung in lateinischen und griechischen Buchstaben ("EYPΩ") nun auch in der kyrillischen Schreibweise „ЕВРО“ aufgeführt; das kyrillische „В“ entspricht dem lateinischen V oder W, das „Р“ dem R. Die Scheine tragen die Jahreszahl der Erstausgabe. Die neuen Euro-Noten halten weiterhin das Prinzip hoch, dass der Euro grundsätzlich die Währung für alle EU-Mitglieder werden soll. Und gestalterisch haben sie eine mögliche Erweiterung der heutigen Euro-Zone daher bereits vorweggenommen. Auf den Scheinen sind folglich alle EU-Mitglieder repräsentiert, nicht nur die Euro-Staaten. Daher kommen nun Hinweise auf jene Länder hinzu, die bisher nicht vertreten waren, weil sie zum Zeitpunkt der Einführung des Euro noch nicht Mitglied der EU waren. Die Akronyme der Europäischen Zentralbank wurden auch um die Schreibweisen in den neuen EU-Sprachen ergänzt: zu den fünf bisherigen Abkürzungen BCE (Französisch, Irisch, Italienisch, Portugiesisch, Rumänisch, Spanisch), ECB (Dänisch, Englisch, Lettisch, Litauisch, Niederländisch, Schwedisch, Slowakisch, Slowenisch, Tschechisch), EKP (Estnisch, Finnisch), ΕΚΤ (Griechisch) sowie EZB (Deutsch) kamen neu die Varianten BĊE (Maltesisch), EBC (Polnisch), EKB (Ungarisch) und ЕЦБ (Bulgarisch; in kyrillischen Buchstaben) hinzu. Auf den Scheinen stehen sie – nach der von der EU festgelegten protokollarischen Reihenfolge für Länder und Amtssprachen – in der Abfolge BCE, ECB, ЕЦБ, EZB, EKP, ΕΚΤ, EKB, BĊE, EBC. Die Abkürzung ESB (Kroatisch) erscheint nicht auf den Banknoten. Zusätzlich sind nun auch die Staaten Malta und Zypern auf der Europakarte abgebildet, welche 2004 der EU beigetreten sind und 2008 den Euro eingeführt haben. Der Plattencode befindet sich auf allen (bisher vorgestellten) Banknoten rechts am oberen Bildrand. Eine Oberflächenbeschichtung soll die Haltbarkeit der neuen Scheine gegenüber den alten erhöhen, dies führt zu einem leicht erhöhten Gewicht und geringfügig gestiegenen Produktionskosten. Wie im Oktober 2014 bekannt wurde, lassen sich auf dieser neu eingeführten Lackierung mit bisherigen Methoden kaum Fingerabdrücke nachweisen. Sicherheitsmerkmale. Gegenüber der ersten Euro-Serie wurden die vorhandenen Sicherheitsmerkmale verbessert und weiterentwickelt, jedoch wurde auf den Wasserzeichen-Strichcode und das Durchsichtsregister verzichtet. Nummerierungssysteme. Im Gegensatz zur Vorgängerserie gibt es auf den Banknoten der Europa-Serie keinen Hinweis mehr auf die auftraggebende Zentralbank, nur noch die Druckerei ist gekennzeichnet. Seriennummer. Die Seriennummern der Europaserie beginnen mit zwei Buchstaben, gefolgt von einer Folge von zehn Ziffern. Diese (vollständige) Seriennummer wird als Langform bezeichnet, während eine Kurzform dieser Nummer in Form der letzten sechs Ziffern der Langform um 90° gedreht auf der Note hinzugefügt wurde. Die erste Stelle der Seriennummer gibt dabei die Druckerei an, in der die Banknote hergestellt wurde, während die zweite Stelle wie die folgenden zehn Ziffern zur eindeutigen Kennzeichnung der Banknote innerhalb der Ausgaben einer Druckerei gehört. Werden die zwei Buchstaben durch ihre Position im Alphabet (A = 1 … Z = 26) ersetzt, so ist bei Banknoten der zweiten Serie der Neunerrest, mit den zehn Ziffern, grundsätzlich 7. Bildet man den Neunerrest nur der zehn Ziffern der Seriennummer ohne die beiden Buchstaben, so ergibt sich ein Wert, der der folgenden Tabelle zu entnehmen ist. Der Neunerrest wird zusätzlich in der unteren Tabelle (Spalte: Neunerrest) im Bedarfsfall mit angegeben. Plattencode. Wie schon bei der ersten Euro-Banknotenserie befindet sich auf der Vorderseite der Plattencode. Auch dessen Aufbau hat sich nicht geändert, nur werden die neu zugeteilten Druckereikennungen verwendet. Schwierigkeiten bei der Einführung. Obwohl die Deutsche Bundesbank nach eigenen Angaben den Herstellern von Automaten frühzeitig angeboten hatte, die neuen 5-Euro-Scheine zu testen, kam es nach der Ausgabe der Scheine zu größeren Problemen bei der Akzeptanz der Scheine durch Automaten. Die Deutsche Bahn etwa musste einräumen, dass wegen eines fehlenden Software-Updates ungefähr die Hälfte der Automaten die neuen Scheine nicht akzeptiere. Viele Aufsteller von Zigarettenautomaten versahen ihre Geräte mit einem Zusatzschild, welches auf die spätere Akzeptanz des neuen Scheins vertröstete, aber auch Parkhausbetreiber und nahezu alle anderen Aufsteller von Automaten mit Akzeptanz von Geldscheinen waren von dem Problem betroffen. Selbst einen Monat nach der Einführung der neuen Scheine hatte sich die Situation nur geringfügig verbessert. Dies ist ein Grund dafür, warum beim 10-Euro-Schein die Zeit zwischen Präsentation und Einführung deutlich verlängert wurde. Den Automatenaufstellern sollte mehr Zeit zur Umstellung bleiben. Handlungsrahmen für die Wiederausgabe von Eurobanknoten. Möchte ein Bargeldakteur, also Kreditinstitute oder Wertdienstleister, Bargeld ohne Beteiligung der zuständigen nationalen Zentralbank (in Deutschland die Deutsche Bundesbank und in Österreich die Oesterreichische Nationalbank) in den Umlauf geben, so ist er dazu verpflichtet, vorher die Umlauffähigkeit und die Echtheit der Noten zu überprüfen. Émile Durkheim. David Émile Durkheim (* 15. April 1858 in Épinal, Frankreich; † 15. November 1917 in Paris) war ein französischer Soziologe und Ethnologe. Er war 1887 als Lehrbeauftragter für Soziologie und Pädagogik in Bordeaux der erste mit einer akademischen Stelle an einer französischen Universität. Er gilt heute als ein Klassiker der Soziologie, der mit seiner Methodologie die Eigenständigkeit der Soziologie als Fachdisziplin zu begründen gesucht hat und dessen Selbsttötungs-Studie zum Paradigma empirischer Soziologie wurde. Leben. Émile Durkheim – Sohn eines Rabbiners in Épinal (Lothringen) – studierte in Paris an der École normale supérieure, nachdem er zweimal bei der Aufnahmeprüfung durchgefallen war. Er traf dort auf eine Reihe von später ebenfalls sehr renommierten Männern, darunter Lucien Lévy-Bruhl und Jean Jaurès. Nach seinem Abschluss war Durkheim zunächst als Lehrer für Philosophie an Gymnasien tätig. Nach einem Studienaufenthalt in Deutschland in den Jahren 1885–1886 publizierte er zwei Artikel über seine Stipendienzeit in Berlin und Leipzig. Sie machten ihn bekannt und führten dazu, dass er vom Leiter der Hochschulabteilung im Erziehungsministerium 1887 einen Lehrauftrag für Sozialwissenschaft in Bordeaux erhielt, wo er schließlich Professor für Pädagogik und Soziologie wurde – die erste Dozentur für Soziologie an einer französischen Universität. In seiner Zeit in Bordeaux verfasste Durkheim drei seiner wichtigsten Schriften: "Über soziale Arbeitsteilung" (seine Dissertationsschrift, 1893), "Die Regeln der soziologischen Methode" (1895) und "Der Selbstmord" (1897). 1896 gründete er die Zeitschrift "L’Année Sociologique", von der er zwölf Jahrgänge herausgab und zu der eine Gruppe von Gleichgesinnten und Durkheims Schülern wesentlich beitrugen. 1902 nahm Durkheim eine Lehrtätigkeit an der Pariser Universität Sorbonne auf, wo er 1906 einen Lehrstuhl für Erziehungswissenschaft erhielt, der 1913 in "Erziehungswissenschaft und Soziologie" umbenannt wurde. Werke. Bereits in seiner ersten, in Latein verfassten und 1892 abgeschlossenen Dissertation setzt sich Durkheim mit Montesquieu und Jean-Jacques Rousseau auseinander. Über soziale Arbeitsteilung (1893). Das Prinzip der „organischen Solidarität“ versteht Durkheim als Gegenposition zum Utilitarismus, namentlich desjenigen Herbert Spencers. So geartete moderne Kollektive bezeichnet Durkheim als „nicht-segmentäre“ Gesellschaften. Die Industriegesellschaft hat nach Durkheim eine differenzierte, hochentwickelte und komplexe Arbeitsteilung von solchen Ausmaßen, dass der Einzelne sie nicht mehr überblicken kann. Tatsächlich ist der Einzelne in dieser arbeitsteiligen Gesellschaft überaus abhängig, jedoch entwickelt er eine Ideologie, die genau das Gegenteil sagt – nämlich den Individualismus. Durkheim zeigte dieses Paradoxon der Industriegesellschaft erstmals auf. Andere, wenig oder nicht-industrialisierte Gesellschaften kennzeichnet eine viel einfachere und überschaubarere Arbeitsteilung. Die Regeln der soziologischen Methode (1895). Durkheim geht in diesem Werk davon aus, dass „soziale Fakten als Dinge (zu) behandeln“ sind, d. h. der soziale Tatbestand stellt für ihn die Grundlage aller soziologischen Analyse dar und ist keine bloße „Nebenerscheinung“ von menschlichem Zusammenleben, sondern als Struktur mit eigenem Stellenwert zu betrachten. Eine soziale Struktur erklärt sich also für Durkheim nicht aus der Summe der Vorstellungen der beteiligten Akteure und existiert unabhängig von denen, die sie erschaffen haben (Emergenzphänomen). Sie wirkt als „Gesellschaft“ von oben auf die Menschen ein und kann von der Soziologie als solche aufgedeckt und durch funktionale (=Wirkung) und historische (=Entstehung) Analyse erklärt werden. Nach Durkheim sind beide Aspekte unbedingt zu beachten. Die moderne Schichtung der Gesellschaft kann also zum Beispiel nicht lediglich dadurch erklärt werden, dass Berufspositionen mit verschiedenen Entlohnungen versehen werden, um sie attraktiver zu machen, weil dabei nur die Wirkung betrachtet würde. Das kollektive Gewissen oder auch kollektive Bewusstsein "(„conscience collective“)" der Gesellschaft, in der man geboren wurde, wird durch Erziehung in den Einzelnen hineingetragen und schlägt sich in dessen Moralvorstellungen, Sitten und Glauben nieder. Nach Durkheim ist der kollektive Zwang nicht direkt beobachtbar, aber in der negativen Sanktionierung von abweichenden, d. h. regelwidrigen Verhaltensweisen feststellbar und messbar. Wenn diese Abweichung in der Gesellschaft zur Regel wird, das kollektive Gewissen also nicht mehr in der Lage ist, für die Aufrechterhaltung der Ordnung zu sorgen, spricht man von „Anomie“. Dies bedeutet, dass die Gesellschaft vom „Normalzustand“ in einen „pathologischen“ Zustand übergegangen ist. Die ersten drei Verfahren eignen sich Durkheim zufolge nicht für die Untersuchung sozialer Phänomene, da solche Phänomene zu komplex sind. Dagegen hält Durkheim das Verfahren der parallelen Variationen für ein „ausgezeichnete[s] Instrument der soziologischen Forschung“ (1991, S. 211). Im dritten und letzten Abschnitt (III) behandelt Durkheim den Vergleich mehrerer Gesellschaften. Der Selbstmord (1897). In "Le suicide" untersucht Durkheim verschiedene Hypothesen zu den unterschiedlichen Suizidraten von Katholiken und Protestanten. Er benutzt hierzu empirische Daten aus verschiedenen Quellen, vor allem "Adolph Wagner" und Henry Morselli und untersucht Korrelationen mit unterschiedlichen Parametern, der konfessionellen Zugehörigkeit, dem Berufs- und Vermögensstand der Betroffenen bis hin zum Wetter, zur Jahreszeit und zur Wirtschaftssituation des Landes. Er erklärt die niedrigere Selbsttötungsrate bei Katholiken durch die stärkere soziale Kontrolle und die stärkere soziale Integration. In den Quellen waren die Ergebnisse mit größerer Zurückhaltung dargestellt worden. Außerdem war der Unterschied zwischen den Konfessionen nur in den deutschsprachigen Gebieten Mitteleuropas beobachtbar und kann seinerseits Ausdruck anderer Faktoren gewesen sein. In diesem Zusammenhang entwickelt er den Begriff der Anomie, die er als Situation definiert, in der Verwirrung über soziale und/oder moralische Normen herrscht, weil diese unklar oder überhaupt nicht vorhanden sind. Dies führt nach Durkheim zu abweichendem Verhalten. Durkheim nennt in diesem Zusammenhang drei Grundtypen (Idealtypen) des Suizids: die egoistische, die anomische und die altruistische Selbsttötung. Nur in einer Fußnote erwähnt Durkheim einen vierten Typ, die fatalistische Selbsttötung. Der egoistische Selbstmord ist Ausdruck der mangelnden Integration in eine Gemeinschaft, also das Ergebnis einer Schwächung der sozialen Bindungen des Individuums. Als Beispiel führt Durkheim Unverheiratete an, besonders Männer, die in höherer Zahl Selbstmord begehen als Verheiratete. Altruistische Selbsttötung ist demgegenüber Ausdruck einer zu starken Bindung an Gruppennormen. Dies findet er vor allem in Gesellschaften, in denen die Bedürfnisse des Einzelnen dem Ziel der Gemeinschaft untergeordnet sind. Anomische Selbsttötung spiegelt die moralische Verwirrung des Individuums wider, seinen Mangel an gesellschaftlicher Orientierung, oft verbunden mit dramatischem sozialem und ökonomischem Wandel. Er ist die Folge moralischer Deregulierung und fehlender Definition legitimer Ziele durch eine soziale Ethik, die dem Bewusstsein des Einzelnen Sinn und Ordnung vermitteln könnte. Es fehlt hier nach Durkheim vor allem eine wirtschaftliche Entwicklung, die soziale Solidarität produziert. Die Menschen wissen nicht, wo ihr Platz in der Gesellschaft ist. In der entsprechenden moralischen Desorientierung kennen die Menschen nicht mehr die Grenzen ihrer Bedürfnisse und befinden sich in einem Dauerzustand der Enttäuschung. Dies geschieht vor allem bei drastischen Veränderungen der materiellen Bedingungen der Existenz, wirtschaftlicher Ruin oder auch plötzlicher unerwarteter Reichtum: Durch beides werden bisherige Lebenserwartungen infrage gestellt und neue Orientierungen werden erforderlich, bevor die neue Situation und ihre Grenzen richtig eingeschätzt werden können. Fatalistische Selbsttötung ist das Gegenteil des anomischen. Hier ist ein Mensch in extremem Maße eingeschränkt und erfährt seine Zukunft als vorbestimmt, seine Bedürfnisse werden erstickt. Dies geschieht in geschlossenen und repressiven Gruppen, in denen Menschen den Tod dem Weiterleben unter den gegebenen und nicht zu verändernden Bedingungen vorziehen. Als Beispiel führt Durkheim Gefängnisinsassen an. Alle vier Typen von Selbsttötung basieren auf hohen Graden von Ungleichgewicht zwischen zwei gesellschaftlichen Kräften: Integration und moralischer Regulierung. Durkheim berücksichtigte bei seiner Untersuchung die Wirkungen von Krisen auf soziale Gefüge, zum Beispiel den Krieg als Ursache für vermehrten Altruismus, wirtschaftlichen Aufschwung oder Depression als Ursache verstärkter Anomie. Die elementaren Formen des religiösen Lebens (1912). Die 1912 erschienenen "Les formes élémentaires de la vie religieuse" (Die elementaren Formen des religiösen Lebens) befassen sich mit der Frage nach dem Wesen der Religion. Mit diesem Werk bildet Durkheim die Grundlage für eine funktionalistische Betrachtung der Religion, indem er als ihr wesentliches Kernelement ihre Funktion zur Stiftung gesellschaftlichen Zusammenhalts und gesellschaftlicher Identität ausmacht. Durch seine intensive Erforschung des Totemismus der australischen Arrernte (Aranda) gelangt er zu der Überzeugung, hier die „Urreligion“ der Menschheit gefunden zu haben. Diese evolutionistische Theorie ist heute überholt. In Anschluss an Durkheim wird von einzelnen Vertretern der Religionssoziologie all das als Religion interpretiert, was in verschiedenen Gesellschaften eben derartige Funktionen erfüllt. Demgegenüber steht ein substantialer Religionsbegriff, der Religion an bestimmten inhaltlichen Merkmalen (Vorstellungen von Transzendenz, Ausbildung von Priesterrollen etc.) festmacht. Rezeption. Bekannte Schüler Durkheims waren u. a. Marcel Mauss, der Neffe Durkheims, und Maurice Halbwachs. Die Schule um Durkheim und die "Année Sociologique" werden manchmal dafür verantwortlich gemacht, dass Forscher, die Durkheim nicht folgten, wie Gabriel Tarde und Arnold van Gennep, unverdient in Vergessenheit gerieten. Auch nach seinem Tod wirkte Durkheim in Frankreich auf zahlreiche Denker, unter anderem auf die Gründer des Collège de Sociologie (Georges Bataille, Michel Leiris, Roger Caillois) sowie Claude Lévi-Strauss, Michel Foucault und andere aus dem Umfeld des französischen Strukturalismus. Auch Pierre Bourdieu greift wiederholt auf Durkheim zurück. In Großbritannien setzte sich insbesondere die dortige auch als Sozialanthropologie bekannte Strömung der Ethnologie intensiv mit Durkheim auseinander. Insbesondere die funktionalistischen Spielarten der britischen Sozialanthropologie bei Bronisław Malinowski und Alfred Radcliffe-Brown setzten sich mit Durkheims Werk auseinander. Durkheims Erbe wurde für die moderne Soziologie vor allem durch Talcott Parsons fruchtbar gemacht, der die Kritik des Utilitarismus in den Vordergrund rückte. Im deutschsprachigen Raum, wo Durkheim lange Zeit weniger rezipiert wurde als etwa Max Weber und Karl Marx, haben insbesondere René König (unter anderem durch Übersetzung einiger Werke Durkheims) sowie Alphons Silbermann (Mitte der 1970er Jahre in Bordeaux) auf Durkheims Bedeutung hingewiesen. In jüngster Zeit kam man auf Durkheim wieder zurück, wenn es um eine Theorie geht, die den Wertewandel in der Gesellschaft sowie die Herausbildung der moralischen Autonomie des Individuums erklären kann. Vor einer vorschnellen Kategorisierung soziologischer Klassiker wie Weber und Durkheim hat Siegwart Lindenberg gewarnt, da diese häufig "doppelsinnig" arbeiteten. So sei Webers "subjektiv gemeinter Sinn" nicht individuell, sondern intersubjektiv verstehbar. Und Durkheim habe programmatisch als methodologischer Kollektivist psychologische Erklärungen abgelehnt und dennoch zur Erklärung der Prozesse, die intersubjektiv Sinn erzeugen, psychologische Ansätze herangezogen. Eisbrecher. Ein Eisbrecher ist ein Schiff, das speziell dafür konstruiert und ausgerüstet ist, durch die zugefrorene See oder zugefrorene Flüsse fahren zu können. Diese Fahrt kann für den Eisbrecher selbst mit seiner Ladung erfolgen, oder um anderen Schiffen eine Fahrrinne freizubrechen und schiffbar zu halten. Eigenschaften. a>") im Vergleich zur dünneren eines Standardschiffs gleicher Größe (links) Der Rumpf. Der Rumpf eines im Eis fahrenden Schiffes bedarf besonderer Eisverstärkung: Stärkere Beplankung innerhalb des Tauchbereichs des Rumpfes, durchgängig doppelte Verschweißung der Außenhaut, verstärkte Innenspanten und engerer Spantenabstand. Eisbrecher sind im Verhältnis zu ihrer Größe besonders breite Schiffe, um eine möglichst breite Fahrrinne zu erzeugen. Der Bug. Der Bug ist normalerweise derart geformt, dass das Eis nicht von einer scharfen Bugkante wie von einem Messer zerschnitten, sondern von der flachen und gewölbten Bugunterseite nach unten gedrückt wird, so dass sich der Eisbrecher auf das Eis schiebt und es unter seinem eigenen Gewicht zerbricht. Die Form des Bugs muss gewährleisten, dass die Eisbruchstücke um den Schiffsrumpf weit herumgedrückt werden und nicht den Propeller oder das Ruder beschädigen. Ein Auftürmen des gebrochenen Eises zu Schollen vor dem Bug würde den Eisbrecher stark behindern oder zum Stillstand zwingen. Durch verbesserte Bugformen brauchen moderne Eisbrecher nur noch die Hälfte der Maschinenleistung früherer eisbrechender Schiffe. Ein anderer Weg wird bei den Thyssen-Waas-Eisbrechern gegangen. Thyssen-Waas-Eisbrecher besitzen eine patentierte Bugform, mit der ein völlig eisfreier Kanal hinter dem Schiff geschaffen werden kann. Bei diesen Eisbrechern wird das Eis von zwei links und rechts des Rumpfs angebrachten Schneiden zerschnitten. Die Bruchstücke werden dann mit Pressluft unter das benachbarte Eis „geschossen“. Bisher wurden zwei Eisbrecher mit diesem Spezialbug erfolgreich umgebaut. Mit dem optimierten Bug kann dabei mit gleicher Motorenleistung die zweifache Eisbrechleistung (doppelte Eisdicke) erreicht werden. Ein weiterer Vorteil ist, dass diese Eisbrecher sowohl in Salz- als auch in Süßwasser eingesetzt werden können. Da sie das Eis schneiden und sich nicht auf das Eis schieben, ändert die unterschiedliche Eintauchtiefe in Salz- oder Süßwasser den zugrundeliegenden Mechanismus nicht. Diese Eisbruchmechanik ist eine Weiterentwicklung der Dreischneiden-Technik, bei der mittels eines breiten Bugs, der Seitenschneiden, der Kiellinie und einer speziellen Gestaltung des Unterschiffs das Eis im Wesentlichen möglichst nur in zwei Plattenbrüche zerlegt und durch den Bug und das Unterschiff unter das benachbarte Eis verdrängt wird. Diese Technik sichert seit den 1990er Jahren eine eisfreie Rinne wesentlich länger als frühere Techniken, die den Nachteil haben, dass Eisbruchstücke in der Rinne schnell wieder zusammenfrieren können. Unter das Nachbareis verdrängter Eisbruch liefert keine Kristallisationskeime in der gebrochenen Fahrrinne. Die Leistung. Die Motorleistung eines Eisbrechers ist höher im Vergleich zu anderen Schiffen gleicher Größe. Zum einen, um das Eis vor ihm brechen zu können, zum anderen sind Eisbrecher vergleichsweise breit, um für nachfolgende Schiffe eine ausreichend breite Fahrrinne zu schaffen. Abhängig von ihren eisbrechenden Leistungen werden Eisbrecher in Eisklassen eingeteilt. Eisbrechtechnik. a>" in etwa 50 cm dickem Eis Sollte das Gewicht des Schiffs alleine nicht ausreichen, um die Eismassen zu zerbrechen, kann noch ein besonderer Stampfmechanismus zur Unterstützung zugeschaltet werden. Eine Methode, das Stampfen zu erzeugen, besteht darin, große Wassermassen zwischen Bug und Heck des Eisbrechers hin- und herzupumpen, wodurch das Schiff ins Schwingen gerät (Nickschwingungen, „Stampfen“) und der Druck auf das Eis verstärkt wird. Eine weitere Variante verschiedener atomgetriebener russischer Eisbrecher ist es, durch im Kühlkreislauf erzeugten überspannten Wasserdampf das vorderschiffs liegende Eis quasi „anzuschmelzen“. Unter günstigsten Voraussetzungen kann damit (auf Kosten der Geschwindigkeit) die maximal überwindbare Eisdicke nahezu verdoppelt werden. Dieses Verfahren ist allerdings umstritten und nicht in allen Gewässern zugelassen, da dadurch die direkt unter dem Eis liegende Meeresflora besonders auf viel befahrenen Routen stark beschädigt wird. Als weitere Stampf-Methode wird noch ein sogenannter „Hammer“ eingesetzt. Dies sind zwei sehr schwere Gewichte, die in entgegengesetzter Richtung rotieren. Somit heben sich die Schwungkräfte die meiste Zeit des Umlaufes auf. Wenn die Gewichte gleichzeitig oben oder unten sind, wird der Bug entsprechend in die Höhe gerissen oder auf das Eis gestampft. Ein moderner Eisbrecher wird durch geschützte Schrauben beidseitig an Bug und Heck angetrieben und zusätzlich durch seitliche Strahldüsen stabilisiert. Aus unter der Wasserlinie liegenden Löchern im Rumpf kann zusätzlich Luft gepumpt werden, um durch die aufsteigenden Blasen Eis zu brechen. Beide Stampftechniken, also das schnelle Umpumpen großer Wassermengen aus den Trimmtanks sowie das Stampfen mittels schwerer Unwuchtgewichte, haben einen weiteren Vorteil: Die eingetauchten Flächen der Bordwand sind beim Auftauchen mit Wasser benetzt, das wie ein Schmierfilm zwischen Bordwand und Eis wirkt. Die Stampfmechanismen haben auch die Aufgabe, den Eisbrecher selbst zu befreien, wenn er sich festgefahren hat. Bei großen Eisstärken oder im Packeis kann die Schiffsgeschwindigkeit durch den hohen Eiswiderstand gegen Null gehen. In diesem Fall muss der Eisbrecher zurücksetzen und einen neuen „Anlauf“ fahren. Dieses unter Umständen mehrfache Zurück- und Vorausgehen nennt man „Boxen“. Ein Hubschrauber gehört heutzutage bei großen Eisbrechern zur Ausrüstung, um im Notfall die Verbindung zum Festland zu gewährleisten, aber vor allem, um die Eisverhältnisse auszukundschaften und so die optimale Route des Schiffes zu bestimmen. Verhalten auf offener See. Auf Grund des schlechten Verhältnisses von Breite zur Länge, eines kurzen Kiels und des auf Eisbruch ausgelegten Antriebs verhält sich ein Eisbrecher auf offener See ausgesprochen ungemütlich. Er neigt stark zum Rollen und ist in stürmischer See schwer zu manövrieren. Man versucht bei einigen neuen Eisbrechern, dieses Problem mit Ballasttanks zu minimieren. Auch die breite Form des Bugs, der nicht in der Lage ist, hohe Wellen elegant zu durchschneiden, fördert die Neigung eines Eisbrechers, in Wellenberge einzutauchen. Neue Schiffstechnologien der „Azi-Pods“, ein unter dem Rumpf elektrisch angetriebener Propeller, der um 360 Grad drehbar ist, könnten auch den Eisbrechern nicht nur mehr Fahrsicherheit auf hoher See, sondern zusätzlich bessere Manövrierfähigkeit beim Eisbruch bringen. Mit dieser Technik und mit einem normalen, schnittigen Bug ausgerüstete Schiffe besitzen ein Heck, das wie ein Eisbrecherbug geformt ist. Bei Eisgang drehen diese Schiffe um und brechen rückwärts mit voller Leistung durch das Eis. Diese neue Technologie wird bereits von den Schiffen Mastera und "Tempera" benutzt. Geschichte. Die Häfen der Ostsee und des Nordmeers waren in der Vergangenheit im Winter häufig zugefroren. Die Schifffahrt kam zum Erliegen, die Schiffe wurden aufgelegt, die Besatzungen abgemustert. Nach der industriellen Revolution hingegen musste das in Form von Schiffen eingesetzte Kapital jedoch „arbeiten“, und ein mehrmonatiges Aufliegen war unter dem Druck der Märkte und der Konkurrenz wirtschaftlich nicht mehr tragbar. Man begann zu überlegen, wie die zugefrorenen Wasserwege auch im Winter offen gehalten werden konnten. Anfangs versuchte man mit reiner Handarbeit, also mit Sägen und kleinen Holzbooten mit Schneidkanten (sogenannten Eisewern) und schließlich sogar mit Sprengstoff, Fahrrinnen und Fahrwasser offen zu halten. Das war eine äußerst mühsame Arbeit, die oft über Nacht wieder zunichtegemacht wurde, wenn ein frischer Wind neue Packeismassen aufgetürmt hatte. Erst nach der Erfindung der Dampfmaschine und deren Einführung auch in der Schifffahrt wurden erste einfache, aber dennoch wirkungsvolle Eisbrecher entwickelt. Der erste Eisbrecher war wahrscheinlich der Dampfschlepper "City Ice Boat No. 1" von 1837, der erste eiserne die "Pilot", die 1864 in Kronstadt zum Eisbrecher umgebaut wurde. Die positiven Erfahrungen führten schon 1868 zu einem Neubau nach dem Prinzip der "Pilot": der mit 183 kW Leistung erheblich stärkeren "Boi". Trotz der Erfolge und des starken Interesses in einigen Ostseeanrainerstaaten hatten die beiden Schiffe zunächst keine direkten Nachahmer. Im Eiswinter 1869/70 führte das Einfrieren von neun Dampfern auf der Elbe allerdings zu dem – erfolglosen – Versuch, die "Pilot" für Hamburg zu erwerben. Erst der folgende und nochmals erheblich schwerere Eiswinter führte in Hamburg zum Bau des Eisbrechers "Eisbrecher No. 1", der im Dezember 1871 in Dienst gestellt wurde. Er war von dem Schiffskonstrukteur Carl Ferdinand Steinhaus entworfen und hatte einen löffelförmig geschwungenen flachen Bug, mit dem sich das Schiff aufs Eis schieben und danach das Eis durch sein Eigengewicht brechen konnte. Als einer der ersten seegehenden Eisbrecher gilt der nach Plänen des Admirals Makarow entworfene Eisbrecher "Ermak". Zu Beginn des 20. Jahrhunderts nahmen mehrere Länder speziell als „Eisbrecher“ gebaute Schiffe für die Küstengewässer in Betrieb. Der älteste erhaltene maschinenangetriebene Eisbrecher der Welt ist die finnische "Tarmo", die 1907 in Newcastle upon Tyne gebaut wurde und letztmals 1970 zum Einsatz kam. Sie hat eine Antriebsleistung von 3.850 PS und eine Verdrängung von 2.300 t. Mit Bau der "Stettin" kam dann erstmals der in Finnland entwickelte sogenannte Runeberg-Steven nach Deutschland. Das erste zivile Reaktorschiff der Welt war der 1958 in Dienst gestellte sowjetische Eisbrecher "Lenin" (44.000 PS, 19.240 BRT, 3 Reaktoren à 90 MW thermischer Leistung). Zur sowjetischen „Arktika“-Klasse gehören die größten und leistungsstärksten atomgetriebenen Eisbrecher der Welt, mit einer Leistung von rund 55.000 kW (75.000 PS, 2 Reaktoren à 171 MW thermischer Leistung). In dieser Leistungsklasse wurden in der Sowjetunion zwischen 1975 und 1992 die "Rossiya", "Arktika", "Sibir", "Sovetskiy Soyuz" und die "Yamal" gebaut. Sie können Eis von fünf Metern Dicke durchbrechen. Die "Arktika" erreichte 1977 als erstes Überwasserschiff den Nordpol. Zuvor war dies nur mit U-Booten gelungen. Der größte je gebaute Eisbrecher ist die amerikanische "Manhattan", ein zum Eisbrecher umgebauter Tanker. Sie durchfuhr 1969 als erster Tanker die Nordwestpassage. Das deutsche Polarforschungsschiff "Polarstern" ist ebenfalls als Eisbrecher gebaut und kann 1,5 Meter dickes Eis durchfahren. Am 7. September 1991 erreichte dieses Schiff als erstes konventionell angetriebenes Schiff den Nordpol. Eisbrechende Frachtschiffe. Um in arktischen Regionen Frachtschiffe bei mittleren Eisbedingungen auch ohne Unterstützung eines Eisbrechers einsetzen zu können, wurden in jüngerer Zeit erste eisbrechende Containerschiffe gebaut. So kann das russische Schiff Aker ACS 650 in bis zu 1,5 m dickem Eis selbständig operieren. Auch die Sewmorput ist als nuklear getriebenes Frachtschiff in der Lage Eis bis zu einer Dicke von 1 m zu brechen. Emmy Noether. Emmy Noether ("Amalie Emmy Noether") (* 23. März 1882 in Erlangen; † 14. April 1935 in Bryn Mawr, Pennsylvania) war eine deutsche Mathematikerin, die grundlegende Beiträge zur abstrakten Algebra und zur theoretischen Physik lieferte. Insbesondere hat Noether die Theorie der Ringe, Körper und Algebren revolutioniert. Das nach ihr benannte Noether-Theorem gibt die Verbindung zwischen Symmetrien von physikalischen Naturgesetzen und Erhaltungsgrößen an. Herkunft und Jugend. Gedenktafel am Geburtshaus Emmy Noethers in Erlangen (Hauptstraße 23) Emmy Noether stammte aus einer gutsituierten jüdischen Familie. Heute erinnert eine Tafel in der Erlanger Hauptstraße an ihr Geburtshaus. Ihr Vater Max Noether hatte einen Lehrstuhl für Mathematik an der Universität Erlangen inne. Ihr jüngerer Bruder, der Mathematiker Fritz Noether, floh vor den Nationalsozialisten in die Sowjetunion, wo er im Zuge des Großen Terrors wegen angeblicher antisowjetischer Propaganda verurteilt und erschossen wurde. Emmy Noether zeigte in mathematischer Richtung keine besondere Frühreife, sondern hatte in ihrer Jugend Interesse an Musik und Tanzen. Sie besuchte die Städtische Höhere Töchterschule – das heutige Marie-Therese-Gymnasium – in der Schillerstraße in Erlangen. Dort wurde damals aber Mathematik nicht intensiv gelehrt. Im April 1900 legte sie die Staatsprüfung zur Lehrerin der englischen und französischen Sprache an Mädchenschulen in Ansbach ab. 1903 holte sie in Nürnberg die externe Abiturprüfung am Königlichen Realgymnasium – dem heutigen Willstätter-Gymnasium – nach. Studium und Beruf. 1903 wurden Frauen erstmals an bayerischen Universitäten zum Studium zugelassen, was auch Emmy Noether die Immatrikulation in Erlangen erlaubte. Vorher hatte sie bereits mit Erlaubnis einzelner Professoren als Gasthörerin Vorlesungen in Göttingen besucht, musste jedoch aufgrund einer Krankheit zurück nach Erlangen. Dort promovierte sie 1907 in Mathematik bei Paul Gordan. Sie war damit die zweite Deutsche, die an einer deutschen Universität in Mathematik promoviert wurde. 1908 wurde sie Mitglied des Circolo Matematico di Palermo, 1909 trat sie der Deutschen Mathematiker-Vereinigung bei. Emmy Noether blieb daraufhin nichts anderes übrig, als ihre Vorlesungen unter dem Namen von Hilbert anzukündigen, als dessen Assistentin sie fungierte. Nach dem Ersten Weltkrieg und dem Zusammenbruch des Kaiserreichs kam es in der Weimarer Republik zu einer allgemeinen rechtlichen Besserstellung der Frauen. Neben dem Wahlrecht wurde auch die Habilitationsordnung so geändert, dass auch Frauen zur Habilitation zugelassen werden konnten. So konnte sich Emmy Noether 1919 als erste Frau in Deutschland in Mathematik habilitieren. Sie war außerdem die erste Frau in Deutschland, die eine (nichtbeamtete) Professur erhielt. Dennoch bekam sie erst 1922 eine außerordentliche Professur und erst 1923 ihren ersten bezahlten Lehrauftrag. Bis zur Hyperinflation im selben Jahr lebte sie sehr sparsam von einer Erbschaft. 1928/29 übernahm sie eine Gastprofessur in Moskau, 1930 in Frankfurt am Main. Bei ihrer Rückkehr aus der Sowjetunion äußerte sie sich sehr positiv über die dortige Lage, weshalb ihr die Nazis später unterstellten, eine Kommunistin zu sein. Emmy Noether bekannte sich zum Pazifismus und war von 1919 bis 1922 Mitglied der USPD, danach bis 1924 der SPD. Zusammen mit Emil Artin erhielt sie 1932 den Ackermann-Teubner-Gedächtnispreis für ihre gesamten wissenschaftlichen Leistungen. 1932 hielt sie einen Plenarvortrag auf dem Internationalen Mathematikerkongress in Zürich ("Hyperkomplexe Systeme und ihre Beziehungen zur kommutativen Algebra und zur Zahlentheorie"). USA. 1933 wurde Emmy Noether infolge des euphemistisch so genannten Berufsbeamtengesetzes des Naziregimes ihre Lehrerlaubnis entzogen. Emmy Noether emigrierte daraufhin in die USA. Vor dieser Entscheidung zog sie auch in Betracht, nach Moskau zu gehen. Doch die Bemühungen ihres dortigen Freundes, des bedeutenden Topologen Pawel Alexandrow, bei den sowjetischen Behörden eine Bewilligung zu erwirken, zogen sich zu lange hin. In den USA half ihr ehemaliger Göttinger Kollege Hermann Weyl, eine Stelle für sie zu finden. Ende 1933 erhielt sie eine Gastprofessur am Women’s College Bryn Mawr in Pennsylvania. Ab 1934 hielt Emmy Noether auch Vorlesungen am Institute for Advanced Study. Dort beeinflusste sie Oscar Zariski und wahrscheinlich Nathan Jacobson (und sie beeinflusste mit ihrem neuen Zugang zur Algebra auch Abraham Adrian Albert). Sie kam 1934 noch einmal nach Europa und besuchte Emil Artin und ihren Bruder Fritz in Deutschland. Emmy Noether verstarb am 14. April 1935 an den Komplikationen einer Unterleibsoperation, die wegen eines Tumors notwendig geworden war. Sie fand ihre letzte Ruhestätte unter dem Kreuzgang in der M. Carey Thomas Library in Bryn Mawr. Wirken. Büste in der Ruhmeshalle in München Emmy Noether gehört zu den Begründern der modernen Algebra. Ihre mathematische Profilierung entwickelte sich in der Zusammenarbeit und Auseinandersetzung mit dem Erlanger Professor Paul Gordan, der auch ihr Doktorvater wurde. Man nannte Gordan gerne den „König der Invarianten“. Die Invariantentheorie beschäftigte Emmy Noether bis in das Jahr 1919 entschieden. Abweichend von Gordans Interessensschwerpunkten wandte sich Noether der Auseinandersetzung mit den abstrakten algebraischen Methoden zu. Gordan hatte Hilberts Beweis seines Basistheorems, der viele Resultate Gordans verallgemeinerte, aber ein reiner Existenzbeweis war, mit den Worten kommentiert, dass dies nicht Mathematik, sondern Theologie sei. Ab 1920 verlegte sie ihren Forschungsschwerpunkt auf die allgemeine Idealtheorie. In Göttingen gründete sie eine eigene Schule: Seit Mitte der 1920er Jahre fand sie eine Reihe von hochbegabten Schülern aus aller Welt, die sich um sie scharten. Ihre Studenten nannte sie ihre „Trabanten“ oder die „Noether-Knaben“. Zu ihren Doktoranden zählen Grete Hermann, Jakob Levitzki, Max Deuring, Ernst Witt, dessen offizieller Betreuer Herglotz war, Heinrich Grell, Chiungtze Tsen, Hans Fitting, Otto Schilling und zu ihrem Schülerkreis Bartel Leendert van der Waerden. Andere bedeutende Algebraiker in Deutschland, die mit der Schule verbunden waren, waren Emil Artin, Helmut Hasse (mit dem sie den wichtigen Satz von Brauer-Hasse-Noether in der Theorie der Algebren bewies) und Wolfgang Krull. In Göttingen, damals Weltzentrum mathematischer Forschung, baute sie eine eigene mathematische Schule auf. Van der Waerden schrieb in seinem berühmten zweibändigen Algebrawerk (Moderne Algebra), dass es auch auf Vorlesungen von Emil Artin und Emmy Noether aufbaute. Emmy Noether wird auch eine entscheidende Rolle bei der Durchsetzung abstrakter algebraischer Methoden in der Topologie zugeschrieben, fast ausschließlich durch mündliche Beiträge zum Beispiel in den Vorlesungen von Heinz Hopf 1926/27 in Göttingen und in ihren eigenen Vorlesungen um 1925. Das beeinflusste auch den Topologen Pawel Sergejewitsch Alexandrow, der Göttingen besuchte. Auch in der theoretischen Physik leistete sie Außerordentliches und legte 1918 mit dem Noether-Theorem den Grundstein zu einer neuartigen Betrachtung von Erhaltungsgrößen. Im letzten Viertel des 20. Jahrhunderts entwickelte sich das Noether-Theorem zu einer der wichtigsten Grundlagen der Physik. Enzym. Ein Enzym, früher "Ferment", ist ein Stoff, der aus biologischen Riesenmolekülen besteht und als Katalysator eine chemische Reaktion beschleunigen kann. Fast alle Enzyme sind Proteine, eine Ausnahme bildet das katalytisch aktive RNA, wie z. B. snRNA. Ihre Bildung in der Zelle erfolgt daher, wie auch bei anderen Proteinen, über Proteinbiosynthese an den Ribosomen. Enzyme haben wichtige Funktionen im Stoffwechsel von Organismen: Sie steuern den überwiegenden Teil biochemischer Reaktionen – von der Verdauung bis hin zur Transkription (RNA-Polymerase) und Replikation (DNA-Polymerase) der Erbinformationen. Wortherkunft. Vor 1878 benutzte man den im deutschen Sprachraum im 15. Jahrhundert aus dem lateinischen "fermentum" entstandenen Ausdruck "Ferment". Er bedeutet „Gärungsmittel“ oder „Sauerteig“ und wurde auch für Fermenter, Fermentation und abgeleitete Begriffe verwendet. 1833 wurde von Eilhard Mitscherlich der Begriff Ferment im Zusammenhang mit einem Stoff gebraucht, der bei einer Reaktion nicht verwandelt wird, aber zum Kontakt für eine Reaktion erforderlich ist. 1878 führte Wilhelm Friedrich Kühne das heutige neoklassische Kunstwort "Enzym" ("énzymon") ein, abgeleitet von "en-", „in-“, und "zýmē", welches ebenfalls „der Sauerteig“ oder „die Hefe“ bedeutet, der Sinn ist daher „das in Sauerteig/Hefe Enthaltene“ (nämlich der die Gärung auslösende oder beeinflussende Stoff). Dieser Begriff hielt dann Einzug in die internationale Wissenschaft und ist nun auch Bestandteil der neugriechischen Sprache. Nomenklatur. Außerdem wurde ein Codesystem, das EC-Nummern-System, entwickelt, in dem die Enzyme unter einem Zahlencode aus vier Zahlen eingeteilt werden. Die erste Zahl bezeichnet eine der sechs Enzymklassen. Listen aller erfassten Enzyme gewährleisten ein schnelleres Auffinden des angegebenen Enzymcodes, z. B. bei BRENDA. Zwar orientieren sich die Codes an Eigenschaften der Reaktion, die das Enzym katalysiert, in der Praxis erweisen sich Zahlencodes jedoch als unhandlich. Häufiger gebraucht werden systematische, nach den oben genannten Regeln konzipierte Namen. Probleme der Nomenklatur ergeben sich etwa bei Enzymen, die mehrere Reaktionen katalysieren. Für sie existieren deshalb manchmal mehrere Namen. Einige Enzyme tragen Trivialnamen, die nicht erkennen lassen, dass es sich bei der genannten Substanz um Enzyme handelt. Da die Namen traditionell eine breite Verwendung fanden, wurden sie teilweise beibehalten (Beispiele: die Verdauungsenzyme Trypsin und Pepsin des Menschen). Klassifikation. Manche Enzyme sind in der Lage, mehrere, zum Teil sehr unterschiedliche Reaktionen zu katalysieren. Ist dies der Fall, werden sie mehreren Enzymklassen zugerechnet. Funktion. Enzyme sind Biokatalysatoren. Sie beschleunigen biochemische Reaktionen, indem sie die Aktivierungsenergie herabsetzen, die überwunden werden muss, damit es zu einer Stoffumsetzung kommt. Theoretisch ist eine enzymatische Umsetzung reversibel, d. h., die Produkte können wieder in die Ausgangsstoffe umgewandelt werden. Die Ausgangsstoffe (Edukte) einer Enzymreaktion, die Substrate, werden im so genannten "aktiven Zentrum" des Enzyms gebunden, es bildet sich ein "Enzym-Substrat-Komplex". Das Enzym ermöglicht nun die Umwandlung der Substrate in die Reaktionsprodukte, die anschließend aus dem Komplex freigesetzt werden. Wie alle Katalysatoren liegt das Enzym nach der Reaktion wieder in der Ausgangsform vor. Enzyme zeichnen sich durch hohe "Substrat-" und "Reaktionsspezifität" aus, unter zahlreichen Stoffen wählen sie nur die passenden Substrate aus und katalysieren genau eine von vielen denkbaren Reaktionen. Energetische Grundlagen der Katalyse. Die meisten biochemischen Reaktionen würden ohne Enzyme in den Lebewesen nur mit vernachlässigbarer Geschwindigkeit ablaufen. Wie bei jeder spontan ablaufenden Reaktion muss die freie Reaktionsenthalpie (formula_1) negativ sein. Das Enzym beschleunigt die Einstellung des chemischen Gleichgewichts – ohne es zu verändern. Die katalytische Wirksamkeit eines Enzyms beruht einzig auf seiner Fähigkeit, in einer chemischen Reaktion die Aktivierungsenergie "formula_2" zu senken: das ist der Energiebetrag, der zunächst investiert werden muss, um die Reaktion in Gang zu setzen. Während dieser wird das Substrat zunehmend verändert, es nimmt einen energetisch ungünstigen "Übergangszustand" ein. Die Aktivierungsenergie ist nun der Energiebetrag, der benötigt wird, um das Substrat in den Übergangszustand zu zwingen. Hier setzt die katalytische Wirkung des Enzyms an: Durch nicht-kovalente Wechselwirkungen mit dem Übergangszustand stabilisiert es diesen, so dass weniger Energie benötigt wird, um das Substrat in den Übergangszustand zu bringen. Das Substrat kann wesentlich schneller in das Reaktionsprodukt umgewandelt werden, da ihm gewissermaßen ein Weg „geebnet“ wird. Das aktive Zentrum – strukturelle Grundlage für Katalyse und Spezifität. Für die katalytische Wirksamkeit eines Enzyms ist das "aktive Zentrum" (katalytisches Zentrum) verantwortlich. An dieser Stelle bindet es das Substrat und wird danach „aktiv“ umgewandelt. Das aktive Zentrum besteht aus gefalteten Teilen der Polypeptidkette oder reaktiven Nicht-Eiweiß-Anteilen (Kofaktoren, prosthetische Gruppen) des Enzymmoleküls und bedingt eine Spezifität der enzymatischen Katalyse. Diese Spezifität beruht auf der Komplementarität der Raumstruktur und der oberflächlich möglichen Wechselwirkungen zwischen Enzym und Substrat. Es kommt zur Bildung eines "Enzym-Substrat-Komplexes". Die Raumstruktur des aktiven Zentrums bewirkt, dass nur ein strukturell passendes Substrat gebunden werden kann. Veranschaulichend passt ein bestimmtes Substrat zum entsprechenden Enzym wie ein Schlüssel in das passende Schloss (Schlüssel-Schloss-Prinzip). Dies ist der Grund für die hohe "Substratspezifität" von Enzymen. Neben dem Schlüssel-Schloss-Modell existiert das nicht starre "Induced fit model": Da Enzyme flexible Strukturen sind, kann das aktive Zentrum durch Interaktion mit dem Substrat neu geformt werden. Bereits kleine strukturelle Unterschiede in Raumstruktur oder Ladungsverteilung des Enzyms können dazu führen, dass ein dem Substrat ähnlicher Stoff nicht mehr als Substrat erkannt wird. Glucokinase beispielsweise akzeptiert Glucose als Substrat, deren Stereoisomer Galactose jedoch nicht. Enzyme können verschieden breite Substratspezifität haben, so bauen Alkohol-Dehydrogenasen neben Ethanol auch andere Alkohole ab und Hexokinase IV akzeptiert neben der Glucose auch andere Hexosen als Substrat. Die Erkennung und Bindung des Substrats gelingt durch nicht-kovalente Wechselwirkungen (Wasserstoffbrücken, elektrostatische Wechselwirkung oder hydrophobe Effekte) zwischen Teilen des Enzyms und des Substrats. Die Bindung des Enzyms muss stark genug sein, um das oft gering konzentrierte Substrat (mikro- bis millimolare Konzentrationen) zu binden, sie darf jedoch nicht zu stark sein, da die Reaktion nicht mit der Bindung des Substrates endet. Wichtig ist eine noch stärkere Bindung des Übergangszustandes der Reaktion und damit dessen Stabilisierung. Nicht selten nehmen zwei Substrate an einer Reaktion teil, das Enzym muss dann die richtige Orientierung der Reaktionspartner zueinander garantieren. Diese letzteren mechanistischen Eigenheiten einer enzymatischen Reaktion sind die Grundlage der "Wirkungsspezifität" eines Enzyms. Es katalysiert immer nur eine von vielen denkbaren Reaktionen der Substrate. Katalytische Mechanismen. Obwohl die Mechanismen enzymatischer Reaktionen im Detail vielgestaltig sind, nutzen Enzyme in der Regel eine oder mehrere der folgenden katalytischen Mechanismen. Enzymkinetik. Die Enzymkinetik beschäftigt sich mit dem zeitlichen Verlauf enzymatischer Reaktionen. Eine zentrale Größe hierbei ist die Reaktionsgeschwindigkeit. Sie ist ein Maß für die Änderung der Substratkonzentration mit der Zeit, also für die Stoffmenge Substrat, die in einem bestimmten Reaktionsvolumen pro Zeiteinheit umgesetzt wird (Einheit: mol/(l·s)). Neben den Reaktionsbedingungen wie Temperatur, Salzkonzentration und pH-Wert der Lösung hängt sie von den Konzentrationen des Enzyms, der Substrate und Produkte sowie von Effektoren (Aktivatoren oder Inhibitoren) ab. Im Zusammenhang mit der Reaktionsgeschwindigkeit steht die Enzymaktivität. Sie gibt an, wie viel aktives Enzym sich in einer Enzym-Präparation befindet. Die Einheiten der Enzymaktivität sind Unit (U) und Katal (kat), wobei 1 U definiert ist als diejenige Menge Enzym, welche unter angegebenen Bedingungen ein Mikromol Substrat pro Minute umsetzt: 1 U = 1 µmol/min. Katal wird selten benutzt, ist jedoch die SI-Einheit der Enzymaktivität: 1 kat = 1 mol/s. Eine weitere wichtige Messgröße bei Enzymen ist die spezifische Aktivität (Aktivität pro Masseneinheit, U/mg). Daran kann man sehen, wie viel von dem gesamten Protein in der Lösung wirklich das gesuchte Enzym ist. Die gemessene Enzymaktivität ist proportional zur Reaktionsgeschwindigkeit und damit stark von den Reaktionsbedingungen abhängig. Sie steigt mit der Temperatur entsprechend der RGT-Regel an: eine Erhöhung der Temperatur um ca. 5–10 °C führt zu einer Verdoppelung der Reaktionsgeschwindigkeit und damit auch der Aktivität. Dies gilt jedoch nur für einen begrenzten Temperaturbereich. Bei Überschreiten einer optimalen Temperatur kommt es zu einem steilen Abfallen der Aktivität durch Denaturierung des Enzyms. Änderungen im pH-Wert der Lösung haben oft dramatische Effekte auf die Enzymaktivität, da dieser die Ladung einzelner für die Katalyse wichtiger Aminosäuren im Enzym beeinflussen kann. Jenseits des pH-Optimums vermindert sich die Enzymaktivität und kommt irgendwann zum Erliegen. Ähnliches gilt für die Salzkonzentration bzw. die Ionenstärke in der Umgebung. Michaelis-Menten-Theorie. Ein Modell zur kinetischen Beschreibung einfacher Enzymreaktionen ist die Michaelis-Menten-Theorie (MM-Theorie). Sie liefert einen Zusammenhang zwischen der "Reaktionsgeschwindigkeit v" einer Enzymreaktion sowie der Enzym- und Substratkonzentration "[E0]" und "[S]". Grundlage ist die Annahme, dass ein Enzym mit einem Substratmolekül einen Enzym-Substrat-Komplex bildet und dieser entweder in Enzym und Produkt oder in seine Ausgangsbestandteile zerfällt. Was schneller passiert, hängt von den jeweiligen Geschwindigkeitskonstanten "k" ab. Die Parameter "Km" (Michaeliskonstante) und "kcat" (Wechselzahl) sind geeignet, Enzyme kinetisch zu charakterisieren, d. h., Aussagen über ihre katalytische Effizienz zu treffen. Ist "Km" beispielsweise sehr niedrig, heißt das, das Enzym erreicht schon bei niedriger Substratkonzentration seine Maximalgeschwindigkeit und arbeitet damit sehr effizient. Bei geringen Substratkonzentrationen ist die Spezifitätskonstante "kcat/ Km" ein geeigneteres Maß für die katalytische Effizienz. Erreicht sie Werte von mehr als 108 bis 109 M−1 s−1, wird die Reaktionsgeschwindigkeit nur noch durch die Diffusion der Substrat- und Enzymmoleküle begrenzt. Jeder zufällige Kontakt von Enzym und Substrat führt zu einer Reaktion. Enzyme, die eine solche Effizienz erreichen, nennt man „katalytisch perfekt“. Kooperativität und Allosterie. Einige Enzyme zeigen nicht die hyperbolische Sättigungskurve, wie sie die Michaelis-Menten-Theorie vorhersagt, sondern ein sigmoides Sättigungsverhalten. So etwas wurde erstmals bei Bindeproteinen wie dem Hämoglobin beschrieben und wird als positive Kooperativität mehrerer Bindungsstellen gedeutet: die Bindung eines Liganden (Substratmolekül) beeinflusst weitere Bindungsstellen im gleichen Enzym (oft aber in anderen Untereinheiten) in ihrer Affinität. Bei positiver Kooperativität hat ein Bindeprotein mit vielen freien Bindungsstellen eine schwächere Affinität als ein größtenteils besetztes Protein. Bindet derselbe Ligand an alle Bindungszentren, spricht man von einem "homotropen Effekt". Die Kooperativität ist bei Enzymen eng mit der Allosterie verknüpft. Unter Allosterie versteht man das Vorhandensein weiterer Bindungsstellen "(allosterischen Zentren)" in einem Enzym, abgesehen vom aktiven Zentrum. Binden Effektoren (nicht Substratmoleküle) an allosterische Zentren, liegt ein "heterotroper Effekt" vor. Die Allosterie ist zwar begrifflich von der Kooperativität zu unterscheiden, dennoch treten sie oft gemeinsam auf. Mehrsubstrat-Reaktionen. Die bisherigen Überlegungen gelten nur für Reaktionen, an denen ein Substrat zu einem Produkt umgesetzt wird. Viele Enzyme katalysieren jedoch die Reaktion zweier oder mehrerer Substrate bzw. Kosubstrate. Ebenso können mehrere Produkte gebildet werden. Bei reversiblen Reaktionen ist die Unterscheidung zwischen Substrat und Produkt ohnehin relativ. Die Michaelis-Menten-Theorie gilt für eines von mehreren Substraten nur, wenn das Enzym mit den anderen Substraten gesättigt ist. Ein Enzym katalysiert eine Reaktion zweier Substrate zu einem Produkt. Erfolgt die Bindung des Substrats 1 stets vor der Bindung des Substrats 2, so liegt ein "geordneter sequenzieller Mechanismus" vor. Enzymhemmung. Als Enzymhemmung (Inhibition) bezeichnet man die Herabsetzung der katalytischen Aktivität eines Enzyms durch einen spezifischen Hemmstoff (Inhibitor). Grundlegend unterscheidet man die "irreversible Hemmung", bei der ein Inhibitor eine unter physiologischen Bedingungen nicht umkehrbare Verbindung mit dem Enzym eingeht (so wie Penicillin mit der "D-Alanin-Transpeptidase"), von der "reversiblen Hemmung", bei der der gebildete Enzym-Inhibitor-Komplex wieder in seine Bestandteile zerfallen kann. Bei der reversiblen Hemmung unterscheidet man wiederum zwischen Kurzfristige Anpassung. Schnelle Veränderungen der Enzymaktivität erfolgen als direkte Antwort der Enzyme auf veränderte Konzentrationen von Stoffwechselprodukten, wie Substrate, Produkte oder "Effektoren" (Aktivatoren und Inhibitoren). Enzymreaktionen, die nahe am Gleichgewicht liegen, reagieren empfindlich auf Veränderungen der Substrat- und Produktkonzentrationen. Anhäufung von Substrat beschleunigt die Hinreaktion, Anhäufung von Produkt hemmt die Hinreaktion und fördert die Rückreaktion "(kompetitive Produkthemmung)". Allgemein wird aber den irreversiblen Enzymreaktionen eine größere Rolle bei der Stoffwechselregulation und Kontrolle zugeschrieben. Von großer Bedeutung ist die "allosterische Modulation". Substrat- oder Effektormoleküle, die im Stoffwechsel anfallen, binden an allosterische Zentren des Enzyms und verändern seine katalytische Aktivität. Allosterische Enzyme bestehen aus mehreren Untereinheiten (entweder aus gleichen oder auch aus verschiedenen Proteinmolekülen). Die Bindung von Substrat- oder Hemmstoff-Molekülen an eine Untereinheit führt zu "Konformationsänderungen" im gesamten Enzym, welche die Affinität der übrigen Bindungsstellen für das Substrat verändern. Eine "Endprodukt-Hemmung" "(Feedback-Hemmung)" entsteht, wenn das Produkt einer Reaktionskette auf das Enzym am Anfang dieser Kette allosterisch hemmend wirkt. Dadurch entsteht automatisch ein Regelkreis. Mittelfristige Anpassung. Eine häufige Form der Stoffwechselkontrolle ist die kovalente Modifikation von Enzymen, besonders die Phosphorylierung. Wie durch einen molekularen Schalter kann das Enzym beispielsweise nach einem hormonellen Signal durch phosphat-übertragende Enzyme (Kinasen) ein- oder ausgeschaltet werden. Die Einführung einer negativ geladenen Phosphatgruppe zieht strukturelle Änderungen im Enzym nach sich und kann prinzipiell aktive als auch inaktive Konformationen begünstigen. Die Abspaltung der Phosphatgruppe durch Phosphatasen kehrt diesen Vorgang um, so dass eine flexible Anpassung des Stoffwechsels an wechselnde physiologische Anforderungen möglich ist. Langfristige Anpassung. Als langfristige Reaktion auf geänderte Anforderungen an den Stoffwechsel werden Enzyme gezielt abgebaut oder neugebildet. Die "Neubildung" von Enzymen wird über die Expression ihrer Gene gesteuert. Eine solche Art der "genetischen Regulation" bei Bakterien beschreibt das Operon-Modell von Jacob und Monod. Der kontrollierte "Abbau" von Enzymen in eukaryotischen Zellen kann durch Ubiquitinierung realisiert werden. Das Anheften von Polyubiquitin-Ketten an Enzyme, katalysiert durch spezifische Ubiquitin-Ligasen, markiert diese für den Abbau im Proteasom, einem „Müllschlucker“ der Zelle. Biologische Bedeutung. Enzyme haben eine nicht zu unterschätzende biologische Bedeutung, sie spielen "die" zentrale Rolle im Stoffwechsel aller lebenden Organismen. Nahezu jede biochemische Reaktion wird von Enzymen bewerkstelligt und kontrolliert. Bekannte Beispiele sind Glycolyse und Citrat-Zyklus, Atmungskette und Photosynthese, Transkription und Translation sowie die DNA-Replikation. Enzyme wirken nicht nur als Katalysatoren, sie sind auch wichtige Regulations- und Kontrollpunkte im Stoffwechselgeschehen. Die Bedeutung der Enzyme beschränkt sich jedoch nicht auf den Stoffwechsel, auch bei der Reizaufnahme und -weitergabe sind sie wichtig. An der Signaltransduktion, also der Vermittlung einer Information innerhalb einer Zelle, sind häufig Rezeptoren mit enzymatischer Funktion beteiligt. Auch Kinasen, wie die Tyrosinkinasen und Phosphatasen spielen bei der Weitergabe von Signalen eine entscheidende Rolle. Die Aktivierung und Deaktivierung der Träger der Information, also der Hormone geschehen durch Enzyme. Weiterhin sind Enzyme an der Verteidigung des eigenen Organismus beteiligt, so sind zum Beispiel diverse Enzyme wie die Serinproteasen des Komplementsystems Teil des unspezifischen Immunsystems des Menschen. Fehler in Enzymen können fatale Folgen haben. Durch solche Enzymdefekte ist die Aktivität eines Enzyms vermindert oder gar nicht mehr vorhanden. Manche Enzymdefekte werden genetisch vererbt, d. h., das Gen, das die Aminosäuresequenz des entsprechenden Enzyms codiert, enthält eine oder mehrere Mutationen oder fehlt ganz. Beispiele für vererbbare Enzymdefekte sind die Phenylketonurie und Galaktosämie. Geschichte, Verwendung und Auftreten im Alltag. Enzyme sind wertvolle Werkzeuge der Biotechnologie. Ihre Einsatzmöglichkeiten reichen von der Käseherstellung (Labferment) über die Enzymatik bis hin zur Gentechnik. Für bestimmte Anwendungen entwickeln Wissenschaftler heute gezielt leistungsfähigere Enzyme durch Protein-Engineering. Zudem konstruierte man eine neuartige Form katalytisch aktiver Proteine, die katalytischen Antikörper, die aufgrund ihrer Ähnlichkeit zu den Enzymen Abzyme genannt wurden. Auch Ribonukleinsäuren (RNA) können katalytisch aktiv sein; diese werden dann als Ribozyme bezeichnet. Enzyme werden unter anderem in der Industrie benötigt. Waschmitteln fügt man Lipasen (Fett spaltende Enzyme), Proteasen (Eiweiß spaltende Enzyme) und Amylasen (Stärke spaltende Enzyme) zur Erhöhung der Reinigungsleistung hinzu, weil diese Enzyme die entsprechenden Flecken zersetzen. Enzyme werden auch zur Herstellung einiger Medikamente und Insektenschutzmittel verwendet. Bei der Käseherstellung wirkt das Labferment mit, ein Enzym, das aus Kälbermägen gewonnen wurde. Viele Enzyme können heute mit Hilfe von gentechnisch veränderten Mikroorganismen hergestellt werden. Die in rohen Ananas, Kiwifrüchten und Papayas enthaltenen Enzyme verhindern das Erstarren von Tortengelatine, ein unerwünschter Effekt, wenn beispielsweise ein Obstkuchen, der rohe Stücke dieser Früchte enthält, mit einem festen Tortengelatinebelag überzogen werden soll. Das Weichbleiben des Übergusses tritt nicht bei der Verwendung von Früchten aus Konservendosen auf, diese werden pasteurisiert, wobei die eiweißabbauenden Enzyme deaktiviert werden. Beim Schälen von Obst und Gemüse werden pflanzliche Zellen verletzt und in der Folge Enzyme freigesetzt. Dadurch kann das geschälte Gut (bei Äpfeln und Avocados gut ersichtlich) durch enzymatisch unterstützte Reaktion von Flavonoiden oder anderen empfindlichen Inhaltsstoffen mit Luftsauerstoff braun werden. Ein Zusatz von Zitronensaft wirkt dabei als Gegenmittel. Die im Zitronensaft enthaltene Ascorbinsäure verhindert die Oxidation oder reduziert bereits oxidierte Verbindungen (Zusatz von Ascorbinsäure als Lebensmittelzusatzstoff). In der Medizin spielen Enzyme eine wichtige Rolle. Viele Arzneimittel hemmen Enzyme oder verstärken ihre Wirkung, um eine Krankheit zu heilen. Prominentester Vertreter solcher Arzneistoffe ist wohl die Acetylsalicylsäure, die das Enzym Cyclooxygenase hemmt und somit unter anderem schmerzlindernd wirkt. Enzyme in der Technik. Die folgende Tabelle gibt einen Überblick über die Einsatzgebiete von Enzymen. Zur Herstellung siehe Protein. Bedeutung von Enzymen in der medizinischen Diagnostik. Die Diagnostik verwendet Enzyme, um Krankheiten zu entdecken. In den Teststreifen für Diabetiker befindet sich zum Beispiel ein Enzymsystem, das unter Einwirkung von Blutzucker einen Stoff produziert, dessen Gehalt gemessen werden kann. So wird indirekt der Blutzuckerspiegel gemessen. Man nennt diese Vorgehensweise eine „enzymatische Messung“. Sie wird auch in medizinischen Laboratorien angewandt, zur Bestimmung von Glucose (Blutzucker) oder Alkohol. Enzymatische Messungen sind relativ einfach und preisgünstig anzuwenden. Man macht sich dabei die Substratspezifität von Enzymen zu Nutze. Es wird also der zu analysierenden Körperflüssigkeit ein Enzym zugesetzt, das das zu messende Substrat spezifisch umsetzen kann. An der entstandenen Menge von Reaktionsprodukten kann man dann ablesen, wie viel des Substrats in der Körperflüssigkeit vorhanden war. Im menschlichen Blut sind auch eine Reihe von Enzymen anhand ihrer Aktivität direkt messbar. Die im Blut zirkulierenden Enzyme entstammen teilweise spezifischen Organen. Es können daher anhand der Erniedrigung oder Erhöhung von Enzymaktivitäten im Blut Rückschlüsse auf Schädigungen bestimmter Organe gezogen werden. So kann eine Bauchspeicheldrüsenentzündung durch die stark erhöhte Aktivität der Lipase und der Pankreas-Amylase im Blut erkannt werden. Geschichte der Enzymforschung. Die wissenschaftliche Erforschung der Enzyme begann 1833, als der französische Chemiker Anselme Payen Diastase das erste Enzym überhaupt entdeckte. Einen weiteren Meilenstein stellen die Untersuchungen zur Enzymspezifität von Emil Fischer dar. Er postulierte, dass Enzyme und ihr Substrat sich wie ein Schloss und der passende Schlüssel verhalten. 1897 entdeckte Eduard Buchner anhand der alkoholischen Gärung, dass Enzyme auch ohne die lebende Zelle katalytisch wirken können. Anfang des 20. Jahrhunderts geschah sehr viel in der Enzymforschung. Der bedeutendste Wissenschaftler dieser Zeit war der deutsche Chemiker Otto Röhm. Er isolierte erstmals Enzyme und entwickelte Verfahren zur enzymatischen Ledergerbung, Fruchtsaftreinigung sowie eine Reihe diagnostischer Anwendungen. Leonor Michaelis und Maud Menten leisteten Pionierarbeit in der Erforschung der Enzymkinetik. Eskimo-aleutische Sprachen. Die eskimo-aleutischen Sprachen bilden eine kleine Sprachfamilie, deren Idiome von etwa 105.000 Menschen in Nordost-Sibirien, Alaska, Nord-Kanada und Grönland gesprochen werden. Zu den Eskimo-Sprachen gehören das Inuktitut oder auch Eastern Eskimo, das im Norden Alaskas, in Kanada und Grönland verbreitet ist, sowie die Yupik-Sprachen im Westen Alaskas und in Sibirien. Der aleutische Zweig besteht aus der Einzelsprache Aleutisch. Das Eskimo und die Yupik-Sprachen bilden jeweils ein Dialektkontinuum. Die heute oft verwendete Bezeichnung "Inuit" für alle Eskimovölker und Eskimosprachen ist falsch, da hierbei die Yupik-Völker nicht berücksichtigt werden. Außerdem ist die früher für abwertend gehaltene Bezeichnung – sie stammt aus den Algonkin-Sprachen – in Wirklichkeit neutral: sie bedeutet nicht – wie früher angenommen – "Rohfisch-Esser" sondern eher "Schneeschuh-Knüpfer" (Campbell 1997:394). Klassifikation. Die Sprecherzahlen stammen aus Ethnologue 2009 und Holst 2005. Der Verwandtschaftsgrad der Eskimo-Sprachen untereinander ist etwa mit dem der romanischen Sprachen vergleichbar; das Aleutische verhält sich zu den Eskimo-Sprachen ungefähr wie eine baltische Sprache zu den romanischen Sprachen (Einschätzung nach Holst 2005). Die Darstellung in Ethnologue, dass das Inuit in fünf separate Sprachen zerfällt – von denen dann jeweils zwei sogar zu Makrosprachen zusammengefasst werden –, wird in der Fachliteratur nicht geteilt. Tschuktscho-Kamtschadalisch. Eine besondere genetische Nähe der sibirischen tschuktscho-kamtschadalischen Sprachen und der eskimo-aleutischen Sprachen wurde von einer Reihe von Forschern angenommen, ist aber nie wirklich nachgewiesen worden. Diese These wurde im größeren Zusammenhang der eurasiatischen Makrofamilie von Joseph Greenberg wiederbelebt. a> im 17. Jahrhundert (rot schraffiert) und im 20. Jahrhundert (rot) Eurasiatisch. Nach Joseph Greenberg (2001) stellen die eskimo-aleutischen Sprachen eine Komponente seiner hypothetischen eurasiatischen Makrofamilie dar. Nach Greenbergs Amerika-Theorie (1987) repräsentieren die eskimo-aleutischen Sprachen, die Na-Dené-Sprachen und der ganze Rest der indigenen amerikanischen Sprachen (zusammengefasst unter der Bezeichnung Amerind) die drei genetisch unabhängigen indigenen Sprachfamilien Amerikas, die auch separaten Einwanderungswellen von Nordostsibirien entsprechen. Wakashan-Sprachen. Nach neueren Theorien (z. B. Holst 2005) sind die eskimo-aleutischen Sprachen mit den Wakash-Sprachen genetisch verwandt. Holst begründet das durch eine Liste von 62 Wortgleichungen und die Herleitung einiger Lautgesetze. Diese Beziehung überschreitet die von Joseph Greenberg gezogene Grenze zwischen den eskimo-aleutischen und den Amerind-Sprachen und wäre – falls sie sich bestätigen lässt – ein starkes Argument gegen Greenbergs grundsätzliche Einteilung der amerikanischen Sprachen in die drei Gruppen Eskimo-Aleutisch, Na-Dene und Amerind. Sprachliche Eigenschaften. Die eskimo-aleutischen Sprachen haben eine agglutinierende Morphologie und sind polysynthetisch. Die Wort- und Formenbildung erfolgt durch Serien von Suffixen. Die Grundwortstellung ist SOV (Subjekt – Objekt – Verb). Die Eskimo-Sprachen sind ergativisch, der Agens eines transitiven Verbums wird durch den Ergativ, der Agens eines intransitiven Verbs und der Patiens ("das Objekt") des transitiven Verbes durch den Absolutiv gekennzeichnet. (Da der Ergativ auch noch die Funktion des Genitivs übernimmt, wird er in den Grammatiken der Eskimo-Sprachen meist "Relativ" genannt.) Beim Aleutischen ist die Frage der Ergativität bisher nicht eindeutig geklärt. Das Substantiv geht seinen bestimmenden Ergänzungen (Attributen) voraus, allerdings steht der Genitiv "vor" seinem Substantiv („des Mannes Haus“). Es werden Postpositionen (keine Präpositionen) verwendet. Wegen der polysynthetischen Struktur ist die Unterscheidung der Kategorien "Wort" und "Satz" problematisch. Die eskimo-aleutischen Sprachen besitzen – im Gegensatz zu den benachbarten Sprachen Nordasiens – keine Vokalharmonie. Die Kategorie Genus existiert nicht, es werden keine Artikel verwendet. Die 1. Person Plural unterscheidet nicht – wie die Mehrzahl benachbarter Indianersprachen – zwischen inklusiven und exklusiven Formen (je nachdem, ob der Angesprochene mit einbezogen wird oder nicht). Die Wortart Adjektiv existiert nicht, sie wird durch Partizipien von Zustandsverben ersetzt. Zur Genitivbindung. Die Formen des Ergativs und Genitivs fallen im Grönländischen zusammen, weswegen man diesen Fall zusammenfassend Relativ nennt. Der Genitivbezug wird doppelt gekennzeichnet: einmal durch die Verwendung des vorangestellten Relativs (Genitivs), zusätzlich durch ein Possessivsuffix am Besitz. (Vergleichbar ist die umgangssprachliche deutsche Bildung „dem Mann sein Haus“, nur dass hier der Dativ für den Besitzer verwendet wird.) Edinburgh. Edinburgh (schottisch-gälisch "Dùn Èideann"; deutsch "Edinburg"; amtlich "City of Edinburgh") ist seit dem 15. Jahrhundert die Hauptstadt von Schottland (bis dahin war es Perth). Seit 1999 ist Edinburgh außerdem Sitz des Schottischen Parlaments. Edinburgh ist mit etwa 493.000 Einwohnern nach Glasgow die zweitgrößte Stadt Schottlands und seit 1996 eine der 32 schottischen Council Areas. Die Stadt liegt an Schottlands Ostküste im Vereinigten Königreich Großbritannien und Nordirland auf der Südseite des Firth of Forth. Name. Edinburgh ist wahrscheinlich benannt nach dem gododdinischen König Clydno Eiddyn (siehe auch Cynon fab Clydno) als Din Eiddyn (Eiddyns Festung), weniger wahrscheinlich nach König Edwin (auch Eadwine oder Æduini) von Northumbria. Anderen Quellen zufolge leitet sich der Name von der gälischen Bezeichnung "Dùn Èideann" ab, was „Festung am Hügelhang“ bedeutet. Oft wird die Stadt auch „Athen des Nordens“ (nach einem Zitat von Theodor Fontane), „Stadt der sieben Hügel“ oder „Festival-Stadt“ genannt. Sir Walter Scott nannte sie "My own romantic town". Überholt ist der Beiname "Auld Reekie", „Alte Verräucherte“, den Edinburgh seinen früher beständig rauchenden Fabrikschornsteinen verdankte. Geschichte. Es gibt eine Menge vorgeschichtlicher Relikte im Edinburgher Stadtgebiet. Vor der Trockenlegung des Bereichs gab es Seen und Sümpfe zwischen den Hügeln auf denen die Wohnplätze und Siedlungen lagen. Während der letzten zwei Jahrhunderte wurden prähistorische Grabstätten (Arthur’s Seat) und Horte mit Bronzeartefakten entdeckt. In der Straße "Caiystane View" steht in Richtung auf die "Oxgangs Road" ein großer Menhir (engl. „Standing stone“) mit Schälchen (engl. Cuprnarks). Neben dem Newbridge Kreisverkehr, auf der Westseite der Stadt, liegt das bronzezeitliche Ritualzentrum am Huly Hill Cairn. Es gibt eisenzeitliche Befestigungen aus dem 1. Jahrtausend v. Chr. auf dem Wester Craiglockhart Hill und auf dem Hillend, dem nächstgelegenen der Pentland Hills. Mesolithische Spuren und die eines römischen Kastells liegen in Cramond, einem Dorf am Rande von Edinburgh. Die Statue einer Löwin, die einen Mann verschlingt, wurde in der Mündung des Almond gefunden. Ein Piktischer Symbolstein wurde in den Princes Street Gardens als Teil der Clapper bridge verwendet wiedergefunden. Zum Ende des 1. Jahrhunderts landeten die Römer in Lothian und entdeckten einen keltisch-britannischen Stamm, den sie Votadini nannten. Irgendwann vor dem 7. Jahrhundert n. Chr. errichten die Gododdin, die wahrscheinlich Nachkommen der Votadini waren, die Hügelfestung von "Din Eldyn" oder "Etin". Obwohl die genaue Position nicht bekannt ist, ist anzunehmen, dass sie einen die Umgebung überragenden Standort wie Castle Rock, Arthur's Seat oder Calton Hill gewählt haben. Zunächst war Scone (heute "Old Scone") das Zentrum des vereinigten Königreichs von Alba (→Königreich Schottland). Es verlor im späteren Mittelalter an Bedeutung, und das nur 1,5 km flussabwärts gelegene Perth übernahm seine Rolle. Auch andere „burghs“ (Freistädte) wie Stirling spielten für die schottische Geschichte eine bedeutende Rolle. Nach der Ermordung Jakobs I. 1437 fiel die Rolle der Hauptstadt Schottlands dann Edinburgh zu. Die Hauptstadtfunktion im Mittelalter ergab sich aus der häufigen, lange dauernden Anwesenheit des königlichen Hofes, der an verschiedenen Orten Station machte. Das historische Parlament von Schottland tagte ebenfalls an unterschiedlichen Orten. Im Jahr 1093 wird eine Burg in Edinburgh erwähnt, aus der sich das die Stadt dominierende Edinburgh Castle entwickelt. Die Kirche des heiligen Ägidius, genannt St Giles’ Cathedral, wurde zum Mittelpunkt der wachsenden Ortschaft. Ihre erste urkundliche Erwähnung stammt aus dem Jahr 854, das noch heute existierende Gebäude wurde etwa seit dem Jahr 1120 gebaut. Im 16. Jahrhundert predigte John Knox in St Giles, die heute die "High Kirk of Edinburgh" der Church of Scotland ist. 1128 wurde das Chorherrenstift Holyrood Abbey von König David I. errichtet, allerdings weit außerhalb der damaligen Stadt. Zwischen Edinburgh und der "Abtei des Heilgen Kreuzes" („holy rood“) lag auch noch die Stadt "Canongate". (Mit „"canon"“ in ihrem Namen sind Kanoniker gemeint.) Neben Holyrood Abbey, von der heute nur noch Ruinen zeugen, wurde in der Folge Holyrood Palace erbaut, dieser ist als "Palace of Holyroodhouse" offizielle Residenz des britischen Monarchen und bildet den östlichen Abschluss der „Royal Mile“. 1583 wurde in Edinburgh eine Universität gegründet, die allerdings in der geschichtlichen Folge erst die vierte in Schottland ist; die University of St Andrews geht auf das Jahr 1450 zurück. Zur wechselvollen Geschichte der Stadt gehört auch der sogenannte Bischofskrieg von 1639. König Karl I. von England und Schottland versuchte, seinen Willen der "Kirche von Schottland" durch ihm genehme Bischöfe aufzuzwingen und auch ein nach der englischen Liturgie geschaffenes Gebetbuch einzuführen. Es kam zu Aufständen, als deren Initiatorin die Marktfrau "Jenny Geddes" genannt wird, die in der St. Giles' Kathedrale einen Stuhl nach dem Pfarrer warf. Zu den wichtigsten Daten der Geschichte Edinburghs und ganz Schottlands gehört das am 1. Mai 1707 in Kraft getretene Vereinigungsgesetz, der Act of Union. Dieses Gesetz schuf die Grundlage für die Vereinigung des Königreichs England und des Königreichs Schottland. Das schottische Parlament konstituierte sich erstmals am 12. Mai 1999 in Edinburgh. Bevölkerungsstruktur. Die meisten Einwohner Edinburghs sind Schotten, daneben gibt es viele Iren und auch Deutsche, Polen, Italiener, Ukrainer, Pakistaner, Sikhs, Bengalen, Chinesen und Engländer. Innerhalb dieser Mischung klingt auch Ulster häufig durch. Es gibt Schulen für katholische und protestantische Kinder. Im Juli findet in Edinburgh jedes Jahr einer der größten "Orange Walks" außerhalb Nordirlands statt (zum Gedenken an den protestantischen Sieg in der Schlacht am Boyne). Übergeordnete Verwaltung. Edinburgh ist die historische Hauptstadt von Schottland und der früheren Grafschaft "Edinburghshire", die heute Midlothian heißt. Neben Glasgow, Dundee und Aberdeen war Edinburgh seit 1890 eines der vier "Counties of cities" in Schottland. 1975 wurde Edinburgh zu einem District der Region Lothian und 1996 wurde die Stadt im Rahmen der Einführung einer einstufigen Verwaltungsstruktur zur Council Area „City of Edinburgh“. Edinburgh ist auch eine der Lieutenancy Areas von Schottland. Oberbürgermeister ("Lord Provost") ist seit der Wahl 2012 Donald Wilson (Labour). Stadtwappen. Edinburghs Fahne, identisch mit dem Stadtwappen Edinburgh hatte schon seit dem 14. Jahrhundert ein Stadtwappen, es wurde aber erst 1732 vom "Lord Lyon King of Arms" offiziell erwähnt. Nach der Verwaltungsreform 1975 gab der "City of Edinburgh District Council" nach historischer Vorlage ein neues Wappen in Auftrag: Im Schild, über dem die schottische Krone und ein Admiralitätsanker prangen, ist der schwarze Basaltfelsen mit der Burg zu erkennen, deren Türme rote Fahnen tragen. Das Stadtmotto „Nisi Dominus Frustra“, dem 127. Psalm entnommen, proklamiert, dass ohne die Hilfe Gottes nichts von Dauer sein kann. Schildhalter sind ein Mädchen und eine Hirschkuh, das Symbol des heiligen Ägidius, des Schutzpatrons der Stadt. Die Burg war im Mittelalter als "Castrum Puellarum" – Burg der Mädchen – bekannt, der Überlieferung nach ein sicherer Hort für Prinzessinnen. Dienstleistungen und Handel. Traditionell ist Edinburgh ein wichtiges Handelszentrum, das Schottland mit Skandinavien und Kontinentaleuropa verbindet. Die Bedeutung des Hafens von Leith hat allerdings in den letzten Jahrzehnten stetig abgenommen. Edinburgh hat nach London die zweitstärkste Wirtschaft aller Städte im Vereinigten Königreich und mit 53 % der Bevölkerung den höchsten Anteil an Arbeitnehmern mit einem beruflichen Abschluss. Im "UK Competitiveness Index 2013", der die Wettbewerbsfähigkeit britischer Städte vergleicht, lag Edinburgh auf Platz 4 aller Großstädte im Vereinigten Königreich. Es liegt bei den Verdiensten und bei der Arbeitslosigkeit auf dem 2. Platz hinter London. Während im 19. Jahrhundert vor allem das Brauereiwesen, Banken und Versicherungen sowie Druck- und Verlagswesen prägende Wirtschaftszweige waren, liegt der Schwerpunkt im 21. Jahrhundert vor allem auf Finanzdienstleistungen, wissenschaftlicher Forschung, Hochschulbildung und Tourismus. Im Jahre 2014 betrug die Arbeitslosigkeit in Edinburgh 4,3 % und lag damit deutlich unter dem schottischen Durchschnitt von 6,3 %. Das Bankwesen ist seit über 300 Jahren eine Hauptstütze der Wirtschaft Edinburghs. Die Bank of Scotland (heute Teil der Lloyds Banking Group) wurde 1695 durch das schottische Parlament gegründet. Heute ist die Stadt durch die Finanzdienstleistungsbranche mit ihrem besonders starken Versicherungs- und Investmentsektor das zweitgrößte Finanzzentrum in Großbritannien und eines der größten in Europa. Edinburgh ist der Sitz von Scottish Widows, Standard Life, Bank of Scotland, Halifax Bank of Scotland (HBOS), Tesco Bank und AEGON UK. Die Royal Bank of Scotland eröffnete ihren neuen Hauptsitz in Gogarburn im Westen der Stadt im Oktober 2005. Verschiedene Finanzdienstleister haben im Vorfeld des Referendums über den Verbleib Schottlands im Vereinigten Königreich in 2014 angekündigt, dass sie im Fall einer Selbstständigkeit Schottlands ihren Firmensitz nach London verlegen würden. Die größten Arbeitgeber der Stadt waren 2014: National Health Service Lothian (19.500 Mitarbeiter), City of Edinburgh Council (19.260), University of Edinburgh (12.650), Lloyds Banking Group (9000), The Royal Bank of Scotland Group (8000), Standard Life (5000), Scottish Government (4000), Tesco and Tesco Bank (2600) und AEGON UK (2100). Das Durchschnittsbruttoeinkommen eines Arbeitnehmers betrug in 2012 £ 19.100 (etwa 26.700 Euro). Damit lag Edinburgh auf dem zweiten Platz hinter London (£ 21.400). Auch im Ranking der Bruttowertschöpfung pro Einwohner in 2012 lag Edinburgh mit £ 38.100 auf dem zweiten Platz hinter London (£ 40.200). Der Tourismus ist ein weiteres wichtiges Element der Wirtschaft Edinburghs. Es ist die am meisten von ausländischen Besuchern besuchte Stadt im Großbritannien nach London. Altstadt und Neustadt von Edinburgh sind im Jahre 1995 in die Liste des UNESCO-Weltkulturerbes aufgenommen worden. Im Jahre 2013 besuchten 3,45 Mio. Touristen die Stadt, davon 1,3 Mio. aus dem Ausland. Die größte Gruppe der ausländischen Touristen waren US-Amerikaner (192.000) vor Deutschen (174.000). Verkehr. Geplante Linienführung der Edinburgh Tram Edinburgh ist als wichtiger Verkehrsknotenpunkt mit Eisenbahn- und Straßenverbindungen mit dem übrigen Schottland und mit England verbunden. Der öffentliche Personenverkehr innerhalb der Stadt wird durch ein umfassendes Busnetz bedient, das den größten Teil der Verbindungen ohne Umsteigen (Einzelfahrscheine erlauben kein Umsteigen) abdeckt. Nach positivem Ausgang der Abstimmung im Schottischen Parlament im Juni 2007 (gegen die Vorbehalte der SNP-Minderheitsregierung) begann der Bau der Straßenbahn Edinburgh, die den Flughafen und Granton via Zentrum und "Leith Walk" verbinden soll. Aufgrund von Finanzierungsproblemen wurde die ursprüngliche Strecke auf den Abschnitt vom Flughafen bis in die Innenstadt reduziert. Diese Strecke wurde am 31. Mai 2014 eröffnet. Zentral in der Stadt gelegen ist Edinburgh Waverley ein Bahnhof an der East Coast Main Line und teilweise Durchgangsbahnhof, teilweise Kopfbahnhof. Fernverkehr besteht Richtung Mittelengland und London, ScotRail bedient die Verbindungen innerhalb Schottlands. Im September 2015 soll das Streckennetz des regionalen Schienenverkehrs um die von Edinburgh bis Tweedbank wiederaufgebaute Waverley Line ergänzt werden. Der internationale Flughafen Edinburgh befindet sich 13 km westlich der Stadt. Neben den meist innerbritischen Flügen gibt es auch Verbindungen zu europäischen Zielen und in jüngerer Zeit ein paar tägliche Transatlantikflüge. Neben den Autobahnen M8 nach Glasgow und M9 nach Stirling hat Edinburgh eine umfassende Fernstraßenanbindung an das Straßennetz von Großbritannien und ist beispielsweise Endpunkt der A1 von London. Edinburgh verfügt über keine überregionale Fährverbindung; der nächste Fährhafen ist das rund 19 km entfernte Rosyth. Bildung. a>, das weltweit älteste Haus einer Studentenverbindung Edinburgh hat drei international bekannte Universitäten, die Edinburgh Napier University, die Heriot-Watt University mit der Edinburgh Business School und die Universität Edinburgh (ebenfalls mit Business School), wobei letztere neben Universitäten wie Oxford oder Cambridge zu den besten Großbritanniens zählt. Seit 2007 kann sich das Queen Margaret University College im Vorort Musselburgh auch Universität nennen. Hier hat die 1834 gegründete "Edinburgh Geological Society" (Edinburger Geologische Gesellschaft) ihren Sitz. In der Stadt hat auch der British Geological Survey seine Hauptfiliale für Schottland. Museen, Theater und Festivals. In Edinburgh findet jeden Sommer das Edinburgh Festival statt, welches aus einer Vielzahl – zum Teil namhafter – kultureller Veranstaltungen besteht. Internationale Bedeutung im Bereich Theater und Musik hat dabei das Edinburgh Festival Fringe erlangt. Ebenfalls ein großer Publikumsmagnet ist das Edinburgh Military Tattoo. In Edinburgh gibt es eine Vielzahl von Museen, wie z. B. die National Museums of Scotland, das Royal Museum, die National Library of Scotland, das National War Museum of Scotland, das Museum of Edinburgh, das Museum of Childhood und die Royal Society of Edinburgh. Die Usher Hall ist eine Konzerthalle für klassische Musik im Westteil der Stadt an der Lothian Road. Hier spielt regelmäßig auch das Royal Scottish National Orchestra. Es existieren zwei Multiplex-Kinocenter sowie das Edinburgh Filmhouse welches das jährliche Edinburgh Film Festival ausrichtet. Über Edinburghs Gassen und Friedhöfe kursieren diverse Legenden und Geistergeschichten. Deshalb werden für schaulustige Touristen auf der "Royal Mile" fast allabendlich Gruseltouren (sogenannte Ghost Tours) von verschiedenen Veranstaltern angeboten. Die Touren führen etwa auf den Greyfriars Graveyard oder in den Untergrund. Edinburgh ist darüber hinaus bekannt für seine Pubs. a> „Neuen Stadt“ (New Town) vom Edinburgh Castle aus gesehen Stadtbild und Architektur. Zu den markantesten Sehenswürdigkeiten der Stadt zählen das Edinburgh Castle, der Palace of Holyroodhouse, die National Gallery of Scotland, die National Museums of Scotland, die Princes Street, die königliche Yacht "Britannia" sowie die Royal Mile. Im Bereich „Old Town“, entlang der Royal Mile. Die "Royal Mile" besteht aus den Straßen "Canongate", "High Street" und "Castlehill" und hat tatsächlich die Länge einer (schottischen) Meile, rund 1,8 km. Im Westen beginnt sie am "Edinburgh Castle" und führt über die ehemalige Highland Tolbooth Church, die St. Giles Cathedral (geweiht dem Stadtheiligen Ägidius von St. Gilles), das People’s Story Museum, das Museum of Edinburgh und das John Knox-Haus bis zum "Palace of Holyroodhouse". Gegenüber diesem Palast befindet sich der moderne Bau des schottischen Parlaments. Quer zur "Royal Mile" verlaufen im Fischgrätenmuster kleine, häufig extrem steile Gassen, die "closes", "courts" oder auch "wynds" genannt werden. In der Altstadt befinden sich außerdem mehrere große Marktplätze. Der Park Princes Street Gardens erstreckt sich zwischen dem "Castle Rock", auf dem die Burg erbaut wurde und der "Princes Street". Wo heute zwischen beiden der Park und der Bahnhof liegen, umgaben einst Sumpfland und Seen den Berg, wie noch auf älteren Gemälden zu sehen. Den höchsten Punkt der Altstadt markiert ein „ehemaliger“ Kirchturm. Im 19. Jahrhundert wurde die "Highland Tolbooth Church" erbaut, 1979 wurde die Kirche geschlossen. „The Hub“ fand inzwischen vielfache neue Verwendungen, unter anderem als "Festivalzentrale". Panorama eines Teils der Altstadt Edinburghs New Town, Gärten, Berge, Hafen. Mit der "Princes Street" beginnt die georgianische „New Town“, die sich mit ihren rechtwinklig angelegten Straßen weiter nach Norden erstreckt. Entlang dieser Prachtstraße aus dem 18. Jahrhundert reihen sich mehrere Denkmäler und Monumente. In der „New Town“ befinden sich am "Picardy Place" die römisch-katholische Kathedrale von Edinburgh, die St. Mary’s Cathedral, ein neugotischer Bau von 1814. 1874 wurde der Grundstein für eine weitere Bischofskirche gelegt, ebenfalls Maria geweiht, es ist die episkopale St Mary’s Cathedral im "West End". Der Royal Botanic Garden Edinburgh befindet sich nördlich des Stadtzentrums. Westlich des Botanischen Gartens liegen der Zoo und die "Gallery of Modern Arts". Eine Aussicht über die Stadt bietet sich von dem 251 Meter hohen "Arthur’s Seat", der vulkanischen Ursprungs ist. Die "Salisbury Crags" sind am Fuß des Berges. Im Hafen von Leith, am Ocean Terminal, liegt die ehemalige königliche Yacht "Britannia", die besichtigt werden kann. Der getrennte Hafen und der Burgberg haben dazu beigetragen, dass Edinburgh auch „Athen des Nordens“ (Vergleich Piräus – Akropolis) genannt wird. Umgebung Edinburghs. Die Forth-Bridge kurz nach ihrer Vollendung 1890 Eschborn. Eschborn ist eine Stadt im Main-Taunus-Kreis in Hessen. Geographische Lage. Eschborn liegt im Rhein-Main-Gebiet am östlichen Rand des Main-Taunus-Kreises. Es ist mit den Frankfurter Stadtteilen Sossenheim und Rödelheim benachbart und gehört zur Stadtregion Frankfurt. Die Frankfurter Innenstadt ist 7 km, der internationale Flughafen Frankfurt am Main 15 km entfernt. Zu Eschborn gehört der Stadtteil Niederhöchstadt, der im Norden an Eschborn angrenzt. Nachbargemeinden. Eschborn grenzt im Norden an die Städte Kronberg im Taunus und Steinbach (Taunus) (beide Hochtaunuskreis), im Osten und Süden an die kreisfreie Stadt Frankfurt am Main sowie im Westen an die Stadt Schwalbach am Taunus (Main-Taunus-Kreis). Geschichte. Der zentrale Dorfbrunnen erinnert an die über 1200 Jahre zurückliegende Ersterwähnung von Eschborn Der Eschborner Bahnhof im Jahr 2000 Im Jahr 770 wurde Eschborn als "Aschenbrunne" in einer Schenkungsurkunde an das Kloster Lorsch erstmals urkundlich erwähnt. Der Name bedeutet soviel wie „Brunnen an der Esche“. Am 3. Juli 875 zerstörte eine Überschwemmung den Ort, wobei 88 Menschen und fast der gesamte Viehbestand getötet wurden. Die Eschborner Turmburg wurde im 11. Jahrhundert erbaut, sie wird mit den Ende des 12./Anfang des 13. Jhs. auftauchenden Herren von Eschborn in Verbindung gebracht, die ihren Hauptsitz kurz darauf nach Kronberg verlegten. Eschborn gehörte als Reichslehen den Herren von Kronberg, bis diese 1704 ausstarben und ihre Herrschaft an Kurmainz fiel. 1389 fand die Schlacht bei Eschborn statt. Im Rahmen des Krieges des rheinischen Städtebundes gegen den Pfalzgrafen zog die Stadt Frankfurt gegen die Ritter von Kronberg zu Felde. Die Kronberger und ihre zu Hilfe geeilten Verbündeten (der Pfalzgraf und die Hanauer) siegten und nahmen zahlreiche Gefangene, unter anderem auch den Bürgermeister von Frankfurt, die sie erst gegen eine Zahlung von 73.000 Goldgulden Lösegeld freigaben. Bei einem Gefecht bei Höchst 1622 zwischen General Tilly und Christian von Braunschweig während des Dreißigjährigen Kriegs wurden die alte Burganlage und nahezu der gesamte Ort zerstört (siehe dazu Näheres unter Schlacht bei Höchst). Durch den Frieden von Lunéville 1801 gelangte der Fürst von Nassau-Usingen in den Besitz der Herrschaft Kronberg. 1806 gingen Kronberg und Niederhöchstadt gemeinsam als Teil des Fürstentums Nassau-Usingen im neu formierten Herzogtum Nassau unter der Führung des Hauses Nassau-Usingen auf. Nach der Annektierung des Herzogtums durch Preußen im Jahre 1866 fielen Eschborn und Niederhöchstadt an das Königreich Preußen. Mit der Gründung des Deutschen Kaiserreichs gehörte Eschborn ab 1871 zum Deutschen Reich. Mit der Eröffnung der Bahnstrecke Rödelheim-Kronberg der Kronberger Bahn am 19. August 1874 erhielt Eschborn den ersten Eisenbahnanschluss. In Eschborn lebten bei Kriegsbeginn 1914 1549 Menschen; davon rückten 205 Männer zum Kriegsdienst ein. Bis zu 50 Kriegsgefangene aus Frankreich und Russland lebten in Eschborn. Blick auf die „Bürostadt Eschborn“ Am 1. Januar 1939 startete der Bau des Militärflugplatzes Frankfurt-Sossenheim (späterer Name: Fliegerhorst Eschborn), der nie vollendet wurde. Der Militärflugplatz, den die Deutschen Ende der 1930er Jahre unter dem Tarnnamen „Schafweide“ errichteten, bestand zunächst nur aus einer großen Wiesenfläche und wenigen Baracken. Es entstanden mehrere große aus Stein gebaute Hangars, von denen heute noch einer steht. Die Kommandantur sowie die Mehrzahl der übrigen Gebäude wurden nur als Baracken gebaut. Der Flugplatz war unter der Bezeichnung Eschborn während des gesamten Krieges im Einsatz. Insbesondere wurden dort auf Lastenseglern Piloten ausgebildet. Von April 1945 bis Kriegsende (Mai 1945) waren auf dem Platz, der unter deutscher Verwaltung keine befestigte Start- und Landebahn hatte, amerikanische Jägereinheiten stationiert, die von dort aus Einsätze gegen das Reich flogen. Nach Kriegsende kam dem "Flugplatz Eschborn" große Bedeutung als Ausweichflugplatz für den noch nicht wiederhergestellten Flughafen Frankfurt am Main zu. Mit der Wiederinbetriebnahme des Frankfurter Flughafens wurde der Flugbetrieb in Eschborn eingestellt. Auf dem Gelände, welches zu einem Teil auf der Gemarkung von Schwalbach liegt, verblieb bis 1992 die US-Kaserne "Camp Eschborn", wo amerikanische Streitkräfte (Pioniereinheit mit schwerem Gerät) stationiert waren. Das Gelände wurde nach dem Abzug von der Stadt gekauft und zum Gewerbegebiet "Camp Phönix Park" umgebaut. Das Zweite Deutsche Fernsehen (ZDF) nahm unter seinem ersten Intendanten Karl Holzamer am 1. April 1963 seinen Betrieb in Eschborn auf, zog aber bereits 1964 nach Wiesbaden und 1974 nach Mainz. Zur 1200-Jahr-Feier 1970 wurde Eschborn das Stadtrecht verliehen. Eingemeindungen. Im Zuge der Gebietsreform wurde die Nachbargemeinde Niederhöchstadt freiwillig durch den Eingemeindungsvertrag vom 15. September 1971 am 31. Dezember 1971 in die Stadt Eschborn eingemeindet. Einwohnerentwicklung. Ursache für den hohen Anstieg der Einwohnerzahl im Jahr 1972 war die Eingemeindung des Stadtteils Niederhöchstadt. Bürgermeister. Amtierender Bürgermeister ist seit dem 16. Februar 2014 Mathias Geiger (FDP, unabhängig kandidiert). Bürgermeisterwahl 2007. Die Wahlbeteiligung lag bei 51,3 Prozent (2001: 50,1). Gemeindekennziffer: 436003 Bürgermeisterwahl 2013. Die Wahlbeteiligung lag bei 75,6 Prozent. Gemeindekennziffer: 436003 Stichwahl 2013. Die Wahlbeteiligung lag bei 58,2 Prozent. Gemeindekennziffer: 436003 Vorgänger. Die Vorgänger waren u. a. Edwin Mämpel (SPD) die Jahre 1945/46, Heinrich Graf (SPD) von 1946 bis 1961, danach Hans Georg Wehrheim (SPD) von 1962 bis 1979, Jochen Riebel (CDU) von 1979 bis 1984, Manfred Tomala (CDU) von 1984 bis 1990 und Martin Herkströter (CDU) von 1990 bis 2001. Bürgermeister von Niederhöchstadt war zum Zeitpunkt der Eingemeindung Heinz Henrich, der 1966 auf Helmut Neumann folgte. Erster Nachkriegsbürgermeister war Wilhelm Bauer (1945 bis 1964). Wappen. Blasonierung: „In Rot aus einer goldenen Krone im Schildfuß wachsend ein silberner offener Flug, unten rechts und oben links belegt mit jeweils vier blauen Eisenhütchen, 2:2 gestellt.“ Das aktuelle Wappen wurde der Gemeinde in dieser Form am 8. Februar 1937 vom Oberpräsidenten der preußischen Provinz Hessen-Nassau, Philipp Prinz von Hessen, verliehen. Bis längstens zu diesem Termin galt ein Vorgängerwappen. Städtepartnerschaften. Seit 1985 unterhält Eschborn eine Partnerschaft mit dem französischen Montgeron, das ca. 17 km von Paris entfernt liegt. Im Jahr 2001 unterzeichneten die vier Städte Eschborn (D), Montgeron (F), Póvoa de Varzim (PT) und Żabbar (MLT) einen Freundschaftsvertrag. Im Mai 2010 hat Eschborn mit Póvoa de Varzim und Żabbar eine offizielle Städtepartnerschaft besiegelt. Freizeitparks Kirchwiesen, Oberwiesen und Unterwiesen. Die so genannten "Freizeitparks" liegen entlang des Westerbachs, dem einzigen fließenden Gewässer in Eschborn. Es handelt sich dabei um vorwiegend landwirtschaftliche genutzte Flächen, d. h. Ackerbau, Weiden, vereinzelt ein paar Streuobstwiesen. Für Fußgänger und Radfahrer führen durch diese Gebiete gern benutzte Wege als Verbindung zwischen den beiden Eschborner Stadtteilen bzw. zu den Nachbarstädten. Durch die Kirchwiesen (beginnend hinter der Grundschule in Niederhöchstadt) gelangt man zu Fuß in ca. einer Stunde nach Kronberg, durch die Unterwiesen (beginnend hinter dem ehemaligen Bauhof in Eschborn) nach Frankfurt-Rödelheim. Die Oberwiesen liegen zwischen Niederhöchstadt und Eschborn, hier ist auch der beliebte "Traktorspielplatz", der nach dessen Hauptattraktion benannt ist. Zusammen bilden diese die „grüne Lunge“ der Stadt, wo keine Bauten und Versiegelungen erfolgen dürfen. Arboretum Main-Taunus. Das Arboretum Main-Taunus ist ein ca. 76 ha großer Baum- und Sträucherpark. Hier sind ca. 600 Baum- und Sträucherarten aus allen Teilen der Erde angepflanzt. Das Arboretum liegt auf der Gemarkung der Städte Schwalbach am Taunus, Sulzbach (Taunus) und Eschborn. Durch das Arboretum führen mehrere Rad- und Wanderwege und ist ganzjährig öffentlich zugänglich. Eschborn als Faktor im Main-Taunus. Aufgrund seiner direkten Nachbarschaft zu Frankfurt ist Eschborn eine finanziell wohlhabende Stadt im sogenannten Frankfurter „Speckgürtel“, was sich nicht zuletzt in vielen Bauvorhaben widerspiegelt. Weiterhin finanziert die Stadt Eschborn annähernd die Hälfte der Kreisumlage des Main-Taunus-Kreises. Kultur und Sehenswürdigkeiten. Die St. Nikolauskirche im Eschborner Stadtteil Niederhöchststadt Skulpturenachse Eschborn. Die Skulpturenachse Eschborn ist eine Sammlung von acht Skulpturen im öffentlichen Raum in Eschborn. In den folgenden Abbildungen sind die sechs Einzelskulpturen "Travel a Head", "Hua", "Phönix", "Fulcrum", "Drei Säulen", "Versatzstück" und die Doppelskulptur "Adam und Eva" zu sehen. Noch ohne Abbildung ist die achte Skulptur "Steine für Eschborn" von Gisela Weber. Das Kunstwerk aus massigen Quadern aus Mainsandstein wurde 1992 an der Koordinate aufgestellt. Sport. Einer der erfolgreichsten Vereine in Eschborn ist der seit Januar 2006 in Insolvenz befindliche Fußballverein 1. FC Eschborn 1930. Ein weiterer, sehr erfolgreicher Eschborner Verein ist der Tennisclub "tennis 65 eschborn", der neben vielen Mannschaften in den Regionalligen, Landesligen, Bezirksklassen und den Kreisligen auch einen deutschen Meister hat. Die Mannschaft Herren 55+ wurde 2010 und 2011 Deutscher Mannschaftsmeister. Zu den größten Vereinen in der Stadt zählen u. a. die "TuRa Niederhöchstadt" und der "Turnverein Eschborn 1888". Zahlreiche weitere Vereine ergänzen ein breites, insbesondere sportliches Angebot. Zwischen den Stadtteilen befindet sich seit Anfang 1970er ein Hallen- und Freibad. Das sog. Wiesenbad wurde am 1. September 2001 nach einer einjährigen Sanierung und Renovierung wieder eröffnet und bietet Sauna-Bereich und Hallenbad sowie ein Freibad je mit 25-Meter-Bahn. Zudem wird in Eschborn jährlich zum 1. Mai (im Jahr 2011 zum 50. Mal) ein international bekanntes Radrennen gestartet, das bis 2008 als "Rund um den Henninger Turm" bekannt war. Seitdem wechselt der Name abhängig von den Sponsoren, enthält aber über "Eschborn-Frankfurt City Loop" zu "Rund um den Finanzplatz Eschborn-Frankfurt" den Namen Eschborns; außer Radprofis starten in separaten Wertungen auch Amateure und Nicht-Organisierte, zuletzt nicht mehr von Eschborn aus. Wirtschaft und Infrastruktur. Vodafone (ehem. Arcor-Zentrale) mit 23 Etagen Ortsansässige Unternehmen und Behörden. Eschborn bietet u. a. aufgrund seiner Nähe zu Frankfurt am Main und seiner guten Erreichbarkeit zirka 30.000 Arbeitsplätze (Stand: 2011). Sie konzentrieren sich vor allem im Gewerbegebiet Süd sowie in den Groß- und Einzelhandelsunternehmen im Osten und Westen der Stadt. Knapp 90 Prozent sind im Dienstleistungsbereich angesiedelt, u. a. bei den Unternehmen Vodafone (ehem. Arcor), Deutsche Bank, Deutsche Börse, VR Leasing, Siemens, Deutsche Telekom, Ernst & Young, IBM, Techem und Randstad Deutschland, und zahlreichen weitere Consulting-, Marketing- und Softwareunternehmen. Das Möbelunternehmen Mann Mobilia unterhält außerdem eine große Filiale in Eschborn. Eurest ist ein 1974 gegründeter Betreiber von Betriebsrestaurants. Der angekündigte Umzug eines Großteils der Mitarbeiter der Deutschen Börse von Frankfurt am Main in ein Übergangsgebäude im Eschborner Gewerbegebiet Süd sorgte 2008 für viel Aufsehen in der Regionalpresse. Bereits 2010 bezogen die meisten Mitarbeiter der Deutschen Börse ein neu errichtetes Gebäude in Eschborn. Der Grund für den Ortswechsel sind die finanziellen Vorteile, vor allem der deutlich geringere Gewerbesteuerhebesatz mit nur 280 Prozent gegenüber dem benachbarten Frankfurt am Main mit 460 Prozent. Offizieller Firmensitz der Deutschen Börse bleibt jedoch Frankfurt am Main. Bekannte Unternehmen mit ehemaligem Sitz in Eschborn sind u. a. die Unternehmensgruppe Georg von Opel, Arthur Andersen und Linotype AG, heute Monotype GmbH. Medien. Es existieren in Eschborn zwei Zeitungen, die ausschließlich oder vorwiegend in Eschborn erscheinen. Alle zwei Wochen werden die "Eschborner Nachrichten", jede Woche der "Eschborner Stadtspiegel" herausgegeben. Unabhängig von diesen Verlagen existieren drei lokale Online-Medien, die Eschborner Zeitung, das Eschborner OnlineMagazin und das Eschborner Stadtmagazin. Ergänzt werden die vier Medien durch die regionale Presse Höchster Kreisblatt, Frankfurter Rundschau sowie Frankfurter Allgemeine Zeitung. Verkehr. Die nächsten Autobahnanschlüsse zur A 66 und A 5 sind etwa 1,5 km entfernt, die S-Bahn-Linien S3 und S4 fahren durch Eschborn (Haltepunkte Eschborn Süd, Eschborn und Niederhöchstadt) und bieten eine Direktverbindung in die Frankfurter Innenstadt. Seit Anfang 2013 lässt das Frankfurter Verkehrsdezernat eine mögliche Verlängerung der U-Bahn Linie 6 nach Eschborn prüfen. Der Frankfurter Verkehrsdezernent hat sogar schon eine entsprechend konkrete Untersuchung des Projekts in Auftrag gegeben. Dabei geht es um die Verlängerung der U-Bahn-Linie 6, die derzeit noch an der Heerstraße in Praunheim endet. Auch eine Haltestelle im Gewerbegebiet Helfmann-Park ist unter Umständen möglich. Diese würde lt. dem Bürgermeister von Eschborn „den Standort Eschborn noch weiter aufwerten“. Einen genauen Zeitplan für das Projekt gebe es noch nicht. In absehbarer Zeit soll es aber ein Treffen mit Vertretern aus Eschborn, Frankfurt und Oberursel zum U-Bahn-Thema geben. Die Grünen im Hochtaunuskreis haben sich jüngst sogar für einen Ausbau der U6 über Eschborn hinaus mit Haltestellen in Steinbach und Kronberg ausgesprochen. Die Stadt Oberursel im Hochtaunuskreis ist schon bereits vor langer Zeit über die U-Bahn Linie 3 an das Frankfurter U-Bahn-Netz angeschlossen worden. Eppstein. Eppstein ist eine Stadt im Main-Taunus-Kreis im Land Hessen in Deutschland. Der Verwaltungssitz befindet sich im Stadtteil Vockenhausen. Lage. Die Stadt Eppstein liegt westlich von Frankfurt am Main und etwa 15 km nordöstlich der Landeshauptstadt Wiesbaden im Vordertaunus. Geologie. Die Region ist geprägt durch den "Eppsteiner Schiefer", schwach metamorphe Gesteine wie Phyllite, Grünschiefer und Serizit-Gneise. Sie sind durch Chlorit und Epidot grünlich gefärbt. Ausgangsprodukte dieser Gesteine waren Tonsteine und Vulkanite. Ereignisse. Am 29. Juni 2010 gab es um 2:42 Uhr ein Erdbeben in ca. 5 Kilometern Tiefe mit einer Stärke von 3,5. Klima. Der Jahresniederschlag beträgt 721 mm, was in etwa dem deutschlandweiten Durchschnitt entspricht. Der trockenste Monat ist der April, die meisten Niederschläge fallen im Juni. Die Niederschläge variieren nur minimal und sind extrem gleichmäßig übers Jahr verteilt. An nur 1 % der Messstationen werden niedrigere jahreszeitliche Schwankungen registriert. Nachbargemeinden. Eppstein grenzt im Norden an die Stadt Idstein (Rheingau-Taunus-Kreis) und die Gemeinde Glashütten (Hochtaunuskreis), im Osten an die Stadt Kelkheim (Taunus), im Süden an die Stadt Hofheim am Taunus sowie im Westen an die kreisfreie Stadt Wiesbaden und die Gemeinde Niedernhausen (Rheingau-Taunus-Kreis). Stadtgliederung. Eppstein besteht aus fünf Stadtteilen: Eppstein, Bremthal, Ehlhalten, Niederjosbach sowie Vockenhausen. Für jeden der Stadtteile besteht ein Ortsbezirk mit Ortsbeirat und Ortsvorsteher. Die Grenzen der Ortsbezirke folgen den seitherigen Gemarkungsgrenzen. Geschichte. Eine erste urkundliche Erwähnung der Burg Eppstein stammt aus dem Jahre 1122. Deren Besitzer, die Herren von Eppstein, waren es auch, die den Ort begründeten (Ersterwähnung 1299). Nur knapp 20 Jahre später wurden Alt-Eppstein bereits die Stadtrechte zugesprochen. Die eine Hälfte von Eppstein wurde schon 1492 an den hessischen Landgrafen verkauft, die andere Hälfte mit den Orten Bremthal, Ehlhalten, Niederjosbach und Vockenhausen fiel 1581 Kurmainz zu, nachdem die Linie der Eppsteiner 1535 ausgestorben war. Diese Spaltung in zwei unterschiedliche Herrschaftsbereiche blieb einige Jahrhunderte lang bestehen bis zum Jahr 1803, als unter französischer Herrschaft alle geistlichen Staaten in Deutschland aufgelöst wurden. Von nun an konnten sich die heutigen Eppsteiner Stadtteile wieder in gleicher Weise entwickeln. Nach dem Ende der französischen Herrschaft gelangten sie zunächst an das Herzogtum Nassau und dann 1866 an das Königreich Preußen. Nach dem Ende des Zweiten Weltkrieges 1945 wurden sie Bestandteil des Landes Hessen innerhalb der Bundesrepublik Deutschland. Eingemeindungen. Im Zuge der Gebietsreform in Hessen schloss sich die Stadt Eppstein am 1. Januar 1977 mit den bis dahin selbstständigen Gemeinden Bremthal, Ehlhalten und Vockenhausen zur neuen Stadt Eppstein zusammen. Niederjosbach wurde 1971 zu Bremthal eingemeindet, und wurde dadurch am 1. Januar 1977 auch eine Gemeinde von Eppstein. Stadtverordnetenversammlung. Die Burg in einem Kupferstich von Matthäus Merian Bürgermeister. Bürgermeister war seit Juni 2009 Peter Reus (parteilos), er hatte die Nachfolge von Ralf Wolter angetreten, der das Amt seit dem Jahr 2000 bekleidet hatte. Seit 1. April 2013 befindet sich Peter Reus im Ruhestand. Neuwahlen fanden am 22. September 2013 statt, gewählt wurde Alexander Simon. Die Stadtverordnetenversammlung berief ihn am 14. November 2013 zum Bürgermeister. Wappen. Blasonierung: „Gespalten, vorne in Blau ein von Silber und Rot siebenmal geteilter, rotgezungter und goldenbewehrter Löwe nach links, hinten in Silber drei rote Sparren.“ Das am 2. Juni 1953 amtlich verliehene Wappen ist nachweislich seit dem 16. Jahrhundert von dem Ort geführt worden. Städtepartnerschaften. Es gibt verschiedene Städtepartnerschaften: Langeais in Frankreich (seit 1986), Kenilworth in England (seit 1994), sowie Aizkraukle in Lettland (seit 1998). Mit Schwarza in Thüringen ist Eppstein seit 1989 befreundet. Die Städtepartnerschaften werden von dem Verein "Europart Eppstein e. V." betreut. Verkehr. Eppstein hat S-Bahn-Anbindung nach Frankfurt (S2 Richtung Frankfurt bzw. Dietzenbach und Niedernhausen, Main-Lahn-Bahn) und liegt ca. 3 km von der A 3 entfernt. Durch Eppstein hindurch führt die B 455. Der Flughafen Frankfurt am Main ist ca. 20 km vom Stadtzentrum Eppsteins entfernt. Medizinische Versorgung. In Eppstein existiert eine therapeutische Einrichtung für Drogen- und mehrfachabhängige Frauen und Männer. Über ein eigenes Krankenhaus verfügt Eppstein nicht mehr; bis zum 20. März 1970 gab es ein Kreiskrankenhaus mit zuletzt etwa 250 Betten. Die medizinische Versorgung wird durch die Kliniken des Main-Taunus-Kreises in Bad Soden und Hofheim gesichert. Darüber hinaus gibt es niedergelassene Ärzte fast aller Fachrichtungen. Ansässige Unternehmen. Einer der größten Arbeitgeber der Stadt ist die Firma A.M. Ramp & Co. GmbH, RUCO Druckfarben. Gegründet bereits 1857, ist das Unternehmen heute ein weltweit operierender Hersteller von Spezialdruckfarben für die Kunststoff-, Druck- und Papierindustrie. Stanniolfabrik. Eppstein ist eine der wenigen Städte, in denen Stanniol hergestellt wird. Die Stanniolfabrik Eppstein GmbH & Co KG firmiert seit 2008 nach einem Management-Buy-out als EppsteinFOILS GmbH & Co. KG. Sie befindet sich im Ortsteil Eppstein unterhalb der Burg. In der Stanniolfabrik Eppstein wird allerdings nicht nur Lametta hergestellt, sondern auch andere NE-Metallfolien für unterschiedliche, hochspezialisierte Anwendungen in aller Welt. Unter anderem lieferte das Unternehmen Bleifolie, die in der US-Sendung Mythbusters verwendet wurde, um einen flugfähigen Ballon komplett aus Blei herzustellen. Das Unternehmen wurde 1852 als Bleifolienzieherei von Conrad Sachs gegründet und hatte seinen Sitz ursprünglich in der Hintergasse. 1870 wurde der heutige Standort bezogen. Hier befand sich seit 1482 die Bannmühle der Eppsteiner Grafen. Das Kontorgebäude wurde 1904 vom Architekten Carl Wilhelm Plöcker erbaut. Bildungseinrichtungen. In Eppstein gibt es zwei Grundschulen und eine Gesamtschule. Außerdem ist hier die Sparkassenakademie Hessen-Thüringen ansässig. Des Weiteren bieten die Musikschule Eppstein-Rossert und der Musikverein Eppstein e. V. musikalische Schulung an diversen Instrumenten. Die Grundschulen. In Eppstein-Vockenhausen, auf dem Schul- und Sportzentrum am Bienroth liegt die Burg-Schule. Eine weitere Grundschule, die Comenius-Schule, liegt am Ortsausgang des Stadtteils Bremthal in Richtung Niederjosbach. Die Freiherr-vom-Stein-Schule. Auf dem Sport- und Schulzentrum am Bienroth befindet sich die Freiherr-vom-Stein-Schule. 490 Schüler, verteilt auf Gymnasium, Realschule und Hauptschule, besuchen die Gesamtschule in sechs Jahrgangsstufen - von der fünften bis zur zehnten Klasse. Besonderheit der Schule sind die jährlich stattfindenden Schüleraustausche mit der Partnerstadt Kenilworth (England) und einer Schule in Tours (Frankreich). Alle zwei Jahre veranstaltet die Schule außerdem einen Austausch mit dem Bornova Anadolu Lisesi in Izmir (Türkei). Auf die Schule wurde am 3. Juni 1983 ein Anschlag verübt. Ein Frankfurter Wachmann drang in einem Amoklauf bewaffnet in die Schule ein, verletzte vierzehn Personen schwer und tötete fünf weitere. Im Anschluss daran beging der Täter Suizid. Ein Gedenkkreuz auf dem Gelände der Schule erinnert an die Tat. Kultur und Sehenswürdigkeiten. Burg Eppstein im Zentrum der Altstadt Alter Friedhof. Der Alte Friedhof, ursprünglich außerhalb der Stadt gelegen, ist heute eine kleine Grünanlage, die einige historische Grabsteine aufweist. Weiterhin ist das Kriegerdenkmal für die Gefallenen im Ersten Weltkrieg in die Anlage integriert. Der Friedhof wurde 1591 bis 1891 als Friedhof genutzt. Die heutige Gestaltung stammt aus dem Jahr 1985. Das älteste Kreuz datiert aus dem Jahr 1591/92. Das vordere Kreuz soll ein Sühnekreuz für eine überstandene Pest 1635 darstellen. Jedoch wird heute davon ausgegangen, dass es älter ist als der Friedhof und anlässlich eines Totschlags gestiftet wurde. Im Vordergrund der Anlage befindet sich ein eiserner Brunnen. Regelmäßige Veranstaltungen. Das jährlich am ersten Mai stattfindende Radrennen Rund um den Finanzplatz Eschborn-Frankfurt (früher: Rund um den Henninger-Turm) führt durch Eppstein. Seit 1986 richtet die TSG Eppstein immer im Juni oder Juli den „Eppsteiner Burglauf“ aus. Dieser führt über eine Altdeutsche Meile (7,7 km) vom Sportplatz „Am Bienroth“ um die Burg herum durch die Altstadt und wieder hinauf zum Sportplatz. Die Läufer müssen dabei mehrere hundert Höhenmeter überwinden. Seit 2002 findet im Sommer ein Mountain Bike Marathonrennen (Taunus Trails) für jedermann statt. Alle drei Jahre organisiert ein Arbeitskreis des Kulturkreises Eppstein ein Holzbildhauersymposium. Das vierte Symposium findet im Mai 2009 statt. Acht bis neun ausgewählte Künstler arbeiten dann eine Woche lang an Kunstwerken, aufmerksam und interessiert beobachtet von Besuchern. Das Ganze findet an der Grünanlage zwischen Eppstein und Niederjosbach statt. Die Foto-Gruppe Eppstein, ein Treff innerhalb des Kulturkreises Eppstein, richtet alle zwei Jahre die Eppsteiner Fototage aus. Auf der Burg gibt es regelmäßige Veranstaltungen, zum Beispiel im Sommer die Burgfestspiele. Im Innenhof der Burg präsentieren dabei Schauspielgruppen Freilufttheater mit Werken bekannter Klassiker, aber auch Neuinszenierungen. Stets am dritten Advent (Samstag und Sonntag) findet in der Altstadt, zu Füßen der Burg, der traditionelle Eppsteiner Weihnachtsmarkt statt. Verwitterung. Verwitterung bezeichnet in den Geowissenschaften die natürliche Zersetzung von Gestein. Dabei spielen mehrere Prozesse zusammen, die den physikalischen Zerfall und die chemische Veränderung des Gesteins wegen dessen exponierter Lage an oder nahe der Erdoberfläche – abiotisch oder biotisch verursacht – herbeiführen. Beispiele für physikalische Kräfte sind die Einwirkungen von Boden- und Niederschlagswasser, Eisbildung, Temperaturschwankungen und Wurzeldruck. Das Ergebnis von Verwitterung ist Gesteinszerstörung, bei der je nach Art der Verwitterung die gesteinsbildenden Minerale erhalten bleiben (physikalische Verwitterung) oder um- bzw. neu gebildet werden (chemische Verwitterung). Die Produkte der Gesteinsverwitterung sammeln sich meist als lockere Oberflächenschichten an, die als "Regolith" bezeichnet werden. Der Regolith geht nach abwärts in das feste, unveränderte Gestein über, das allgemein als das "anstehende Gestein" (kurz "das Anstehende") oder als "gewachsener Fels" bezeichnet wird. Die Bodenkunde spricht hingegen vom C-Horizont. Die Verwitterungsprozesse an Bau- und Kunstwerken aus Naturstein werden populär auch als "Steinfraß" bezeichnet. Allgemeinsprachlich wird unter „Verwittern“ die natürliche Zersetzung von Materialien, die dem direkten Einfluss der Witterung ausgesetzt sind, verstanden. Dies betrifft neben Gestein auch organische Materialien wie Holz sowie metallische Werkstoffe und Kunststoffe. Bei organischen Materialien fällt diese Form der „Verwitterung“ unter den Oberbegriff Verrottung, bei Metallen und Kunststoffen unter den Oberbegriff Korrosion. Verrottung und Gesteinsverwitterung sind die wichtigsten Prozesse der Bodenbildung. Einordnung und Gliederung. Die Gestalt der Erdoberfläche wird sowohl von Prozessen innerhalb und unterhalb der Erdkruste geformt (endogene Faktoren) als auch von Prozessen, die an oder nahe der Oberfläche wirken und zu einem Großteil klimatische Ursachen haben (exogene Faktoren). Die wichtigsten endogenen Faktoren sind Vulkanismus und Tektonik. Die Verwitterung gehört zusammen mit Erosion sowie Sedimenttransport und -ablagerung zu den exogenen Faktoren. Eine scharfe Trennung zwischen diesen drei Verwitterungsformen ist nicht immer möglich. So ist die biogene Verwitterung durch Pflanzen teils physikalischer (Turgordruck), teils chemischer Natur (Ätzwirkung). Außerdem setzt die Wirksamkeit einer Verwitterungsform häufig andere vorher angreifende Verwitterungsformen voraus: Einer wirksamen chemischen Verwitterung geht meist eine Lockerung des Gesteinsverbandes voraus. Bei vom Gletschereis blank polierten Flächen zeigen sich zum Beispiel auch nach Jahrtausenden oft keine nennenswerten Anzeichen chemischer Verwitterung. Physikalische Verwitterung. Physikalische Verwitterung (auch "physische" oder "mechanische Verwitterung") ist ein breiter Begriff, der mehrere recht verschiedene physikalische Prozesse einschließt. Ihre Gemeinsamkeit besteht darin, dass sie alle das harte, massive anstehende Gestein in Fragmente zerlegen, deren Größe von großen Blöcken bis zu feinem Sand und Schluff reichen kann. Da dies auch durch die reibende und zermalmende Wirkung der Arbeit von Flüssen, Wellen und Strömungen, Wind und Gletschereis passiert, werden auch diese Prozesse bisweilen der physikalischen Verwitterung zugeordnet. Weil es sich dabei aber um "externe" mechanische Einwirkungen handelt, sollte dabei eher von Erosion statt von Verwitterung gesprochen werden. Frostverwitterung. Ein durch Frostsprengung fragmentierter Stein im südlichen Island Die Frostverwitterung (auch "Frostsprengung") wird durch die Volumenausdehnung gefrierenden, im Poren- und Kluftraum befindlichen Wassers hervorgerufen und gehört zu den wichtigsten Prozessen der physikalischen Verwitterung. Entsprechend ist ihr Auftreten auf Gebiete mit kalten Wintern beschränkt, d. h., auf höhere geographische Breiten sowie größere Höhen in Gebirgsregionen. Bei der Frostsprengung kann ein Druck von über 200 MPa auftreten. Bei −5 °C beträgt der Druck 50 MPa. Bei –22 °C ist mit 211,5 MPa das Druckmaximum erreicht. Dabei kommt es zu einer Volumenzunahme von bis zu 9 %. Bei noch höherem Druck geht das Eis in eine andere, weniger Raum beanspruchende Form über. Nahezu überall ist das anstehende Gestein von Spalten durchzogen, den sogenannten Klüften. Erstarrungsgesteine sind nur selten frei von Klüften, durch die das Wasser ins Innere des Gesteins gelangen kann (Spaltenfrost). In Sedimentgesteinen bilden die Schichtflächen eine natürliche Serie von Ebenen relativ geringer Widerständigkeit im Gestein; die Schichtflächen und die Klüfte kreuzen sich im rechten Winkel zueinander. Vergleichsweise geringe Kräfte genügen, um von Klüften und Schichtflächen begrenzte Blöcke aus dem anstehenden Gesteinsverband zu trennen, während viel mehr Kraft vonnöten ist, um im festen anstehenden Gestein neue, frische Spalten zu erzeugen. Der Prozess der Abtrennung von Blöcken aus dem Anstehenden heißt "Blockzerfall". Wenn grobkörniges Erstarrungsgestein durch chemische Zersetzung geschwächt wird, kann Wasser längs der Grenzflächen zwischen den Mineralkörnern in das Gestein eindringen; hier kann das Wasser gefrieren und durch den starken Druck der dabei auftretenden Volumenvergrößerung die Mineralkörner voneinander trennen. Dieser Prozess wird "körniger Zerfall" genannt. Das dabei entstehende Produkt ist ein Feinkies oder grober Sand, in dem jedes Korn aus einem einzelnen Mineralpartikel besteht, das von seinen Nachbarn längs der ursprünglichen Kristall- oder Korngrenze getrennt worden ist. Die Wirkung der Frostverwitterung ist in allen Klimaten zu beobachten, die eine winterliche Jahreszeit mit vielen Frostwechseln besitzen. Wo das anstehende Gestein an Felsen und Berggipfeln entblößt ist, werden Blöcke durch Wasser, das in den Klüften gefriert, von Gestein abgetrennt. Unter besonders günstigen Bedingungen, wie sie an hohen Berggipfeln und in der arktischen Tundra vorkommen, sammeln sich große, kantige Gesteinsbrocken in einer Schuttschicht an, die das darunterliegende anstehende Gestein völlig zudeckt. Der Name Felsenmeer bezeichnet solche ausgedehnten Decken aus groben Gesteinsblöcken. Von Felswänden im Hochgebirge trennt die Frostverwitterung Gesteinsfragmente ab, die zum Fuß der Wand hinunterfallen. Wo die Produktion dieses Schutts mit einer hohen Rate geschieht, sammeln sich die Fragmente am Fuß der Felswände zu Schutthalden an. Frostverwitterung ist ein vorherrschender Prozess in der arktischen Tundra und ein Faktor in der Entwicklung einer großen Vielzahl verschiedener dort vorkommender Bodenstrukturen und Landformen. Salzverwitterung. Salzfrass an der Theatinerkirche in München Der Wirkung der Frostverwitterung durch wachsende Eiskristalle sehr ähnlich ist der Effekt des Wachstums von Salzkristallen in Spalten und Poren des Gesteins. Dieser "Salzsprengung" genannte Prozess ist in trockenen Klimaten weit verbreitet. Während langer Trockenperioden wird Wasser aus dem Inneren des Gesteins durch Kapillarkräfte an die Oberfläche gezogen. Dieses Wasser enthält gelöste Mineralsalze. Bei seiner Verdunstung bleiben winzige Salzkristalle zurück. Der Wachstums- oder auch "Kristallisationsdruck" dieser Kristalle ist imstande, den körnigen Zerfall der äußeren Gesteinsschale zu verursachen. Das Auskristallisieren aus übersättigten Lösungen erzeugt eine Druckwirkung von 13 MPa, und beim Wachstum von Salzkristallen 4 MPa. Denselben Prozess kann man auch an Bausteinen und Beton in den Städten beobachten. Streusalz, das im Winter auf Straßen ausgestreut wird, führt zu beachtlichem Zerfall des bodennahen Bereichs von Stein- und Betonbauten. Sandsteinfelswände sind für Gesteinszerfall durch Salzsprengung besonders anfällig. Tritt am Fuß einer Sandsteinwand Sickerwasser aus, da es nicht in eine dichtere, undurchlässige Gesteinsschicht (Tonschiefer zum Beispiel) eindringen kann, hinterlässt die dort auftretende andauernde Verdunstung dieses Wassers die mitgeführten Salze in den oberflächennahen Poren des Sandsteins. Der Druck der wachsenden Salzkristalle reißt vom Sandstein kleine Schuppen und Splitter ab. Abgetrennte Sandkörner werden von Windstößen weggetragen oder von Regenwasser weggespült, das über die Felswand abläuft. Mit dem Zurückweichen des Wandfußes entsteht dort allmählich eine Nische oder flache Höhle. In den südwestlichen USA (zum Beispiel im Mesa-Verde-Nationalpark) waren viele solcher Nischen von Indianern bewohnt; mit Steinmauern schlossen sie die natürlichen Hohlformen ein. Diese Felsnischensiedlungen (englisch: "cliff dwellings") waren nicht nur vor schlechtem Wetter geschützt, sondern auch vor feindlichen Angriffen. Die Salzverwitterung ist allgemein typisch für Regionen mit aridem Klima, da die hohen Verdunstungsraten und die geringen Niederschlagsmengen die Ausfällung von Salzen im Porenraum des Gesteins begünstigen. In humidem Klima tritt diese Form der Verwitterung vor allem an Meeresküsten auf, besonderes bei Mauern oder Felsen, die direkt in das Meer ragen. Hydrationsverwitterung. Unter Hydrationsverwitterung versteht man die Sprengung des ursprünglichen Gesteinsgefüges infolge der Volumenzunahme von Mineralkörnern durch die Einlagerung von Wassermolekülen in das Kristallgitter der entsprechenden Minerale (Hydratation oder Hydration). Die Hydrationsverwitterung darf nicht verwechselt werden mit der Hydrolyse, bei der die Minerale durch chemische Reaktionen mit Wasser-Ionen umgewandelt werden (chemische Verwitterung). Rostverwitterung. Rostverwitterung (auch "Rostsprengung") kommt nur bei Gesteinen vor, die (nicht-oxische) Eisenerzminerale enthalten. Entsprechende Mineralkörner erfahren bei Kontakt mit meteorischem Wasser eine Volumenzunahme durch Oxidation und damit der Bildung von Eisenoxiden, -hydroxiden, -oxidhydroxiden und -oxidhydraten. Die Volumenzunahme sprengt das ursprüngliche Gesteinsgefüge, wobei die Sprengwirkung sehr ausgedehnte Bereiche eines Gesteinskörpers betreffen kann. In gebirgigen Gegenden kann es infolge von Rostsprengung zu schweren Steinschlägen und auch Lawinen kommen. Rostsprengung zerstört auch häufig steinerne Kulturgüter, da in früheren Zeiten häufig Eisendübel und Eisenanker bei der Installation in Bauwerken eingesetzt worden sind. Quelldruckverwitterung. Durch quellfähige Tonminerale kommt es beim Wechsel zwischen Durchfeuchtung und Trocknung zu Volumenschwankungen, die den Gesteinsverband zerstören können. Druckentlastungsverwitterung. Ein eigentümlicher, weitverbreiteter Prozess, der mit der physikalischen Verwitterung verwandt ist, entsteht durch Druckentlastung: die Reaktion des Gesteins auf die Verminderung vorher vorhandener, den Gesteinskörper einengender Druckkräfte, wenn überlagernde Gesteinsmassen abgetragen werden. Gesteine, die in großer Tiefe unter der Erdoberfläche gebildet wurden (besonders Erstarrungs- und metamorphe Gesteine), befinden sich in einem komprimierten Zustand wegen der Last des sie überlagernden Gesteins. Wenn diese Gesteine an die Oberfläche gelangen, dehnen sie sich etwas aus; dabei brechen dicke Gesteinsschalen von der darunter befindlichen Gesteinsmasse los. Dieser Vorgang wird auch "Exfoliation" genannt. Die Trennflächen zwischen den Schalen bilden ein System von Spalten, die als "Druckentlastungsklüfte" bezeichnet werden. Diese Kluftstruktur ist am besten in massiven, vorher kluftarmen Gesteinen ausgebildet, wie zum Beispiel in Granit; denn in einem bereits engständig geklüfteten Gestein würden die Expansion lediglich zu einer Erweiterung dieser vorhandenen Klüfte führen. Die Gesteinsschalen, die von der Druckentlastung erzeugt werden, liegen im Allgemeinen parallel zur Landoberfläche und sind deshalb zu den Talsohlen hin geneigt. An Granitküsten sind die Schalen an allen Punkten seewärts geneigt. Die Druckentlastungsklüftung ist sehr gut in Steinbrüchen zu sehen, wo sie den Abbau großer Gesteinsblöcke stark erleichtert. Wo sich die Druckentlastungsklüfte über dem Gipfelbereich eines einzelnen großen, massiven Gesteinskörpers entwickelt haben, entsteht eine "Exfoliationskuppe" (englisch: "exfoliation dome"). Diese Kuppen gehören zu den größten Landformen, die hauptsächlich durch Verwitterung erzeugt worden sind. In der Region des Yosemite Valley in Kalifornien, wo solche Kuppen eindrucksvoll das Landschaftsbild prägen, besitzen einzelne Gesteinsschalen Dicken von sechs bis 15 Metern. Andere Arten von großen, glatten Felskuppeln ohne solchen Schalenbau sind keine echten Exfoliationskuppen, sondern entstanden durch den körnigen Zerfall der Oberfläche einer einheitlichen Masse eines harten, grobkörnigen intrusiven Erstarrungsgesteins, dem Klüfte fehlen. Beispiele sind der Zuckerhut von Rio de Janeiro und Stone Mountain in Georgia (USA). Diese glatten Bergkuppen ragen in auffälliger Weise über ihrer Umgebung aus weniger widerständigem Gestein auf. Thermische Verwitterung. Die thermische Verwitterung (Insolationsverwitterung) zählt zu den physikalischen Verwitterungsarten, wird aber meist als spezielle Kategorie geführt. Sie wird in festen Materialien durch Temperaturunterschiede hervorgerufen. Diese können Chemische Verwitterung. Unter der chemischen Verwitterung wird die Gesamtheit all jener Prozesse verstanden, die zur chemischen Veränderung oder vollständigen Lösung von Gesteinen unter dem Einfluss von Niederschlägen und oberflächennahem Grundwasser bzw. Bodenwasser führen. Dabei ändern sich mit dem Mineralbestand meist auch die physikalischen Eigenschaften des Gesteins. Durch das Wasser werden Elemente oder Verbindungen aus den Mineralen gelöst (bis hin zur vollständigen Auflösung) oder im Wasser bereits gelöste Elemente oder Verbindungen in die Minerale neu eingebaut. Weil chemische Verwitterung an Wasser gebunden ist, spielt sie nur in Regionen mit humidem Klima eine bedeutende Rolle. In Regionen mit großem Wasserüberschuss werden die aus dem Gestein gelösten Stoffe oft in Fließgewässern abgeführt und gelangen so letztlich ins Meer. Lösungsverwitterung. Die Lösungsverwitterung ist die Lösung von Gesteinen aus Mineralen, die in reinem Wasser löslich sind, z. B. Gips (CaSO4•2H2O), Halit (NaCl) oder Sylvin (KCl). Diese Gesteine sind daher in humidem Klima nur selten auf natürliche Weise aufgeschlossen, da sie meist bereits unterhalb der Geländeoberfläche aufgelöst werden. Spezielle Verwitterungserescheinungen der Lösungsverwitterung sind der Salzspiegel und der Gipshut im Dachbereich von Salzstöcken. Da Lösung traditionell zur Chemie gezählt wird, ordnet man die Lösungsverwitterung der chemischen Verwitterung zu. Da sie aber prinzipiell reversibel ist und die chemische Zusammensetzung des Gesteins nicht verändert wird, sondern lediglich die Kristallstruktur zerstört wird, kann sie auch als physikalische Verwitterungsart aufgefasst werden. Kohlensäureverwitterung. Oberfläche eines chemisch angewitterten Kalksteins Calciumcarbonat (CaCO3, Calcit, Aragonit) ist nur sehr schlecht in reinem Wasser löslich. Verbindet sich das Wasser jedoch mit Kohlenstoffdioxid (CO2) aus der Luft, bildet sich die sehr schwache Kohlensäure, die das Carbonat nach der Reaktionsgleichung unter Bildung von Calciumhydrogencarbonat lösen kann. Dieser Vorgang wird auch Carbonatisierung genannt. CO2 kann in stärkerer Konzentration auch von Bodenlebewesen oder aus der Zersetzung organischer Substanzen kommen (siehe auch Chemisch-biotische Verwitterung). Die Reaktion der Kohlensäure mit Karbonatgesteinen (Kalkstein, Dolomit, Karbonatit, Marmor) erzeugt in kleinem Maßstab viele interessante Oberflächenformen. Die Oberfläche entblößten Kalksteins ist typischerweise mit einem komplexen Muster von Pfannen, Rillen, Furchen und anderen Vertiefungen überzogen. An einigen Stellen erreichen sie das Ausmaß tiefer Furchen und hoher, wandartiger Gesteinsrippen, die von Mensch und Tier nicht mehr in normaler Weise überquert werden können. So entstehen in Gebieten, deren Oberflächengeologie von Kalkstein dominiert wird, bizarre Karst­landschaften. Die Auflösung von Carbonatgestein ist jedoch nicht auf die Geländeoberfläche beschränkt, sondern erfolgt auch unter der Erde durch versickertes Oberflächenwasser. Dies führt zur Bildung ausgedehnter Höhlen und Höhlensysteme und nachfolgend von Dolinen und Poljen. Die Löslichkeit des Calciumhydrogencarbonats ist jedoch abhängig von Druck und Temperatur. Erwärmt sich die Lösung oder erfährt eine Druckentlastung, zerfällt das Hydrogencarbonat und unter Abgabe von CO2 fällt Calciumcarbonat aus. Auf diese Weise entstehen u. a. Quellkalke und Tropfsteine in Kalksteinhöhlen. Die Wirkung der Kohlensäure ist ein dominierender Faktor für die Denudation in Kalksteingebieten mit feuchtem Klima, nicht zuletzt wegen der dort intensiven biotischen CO2-bildenden Prozesse. In feuchtem Klima sind Kalksteine daher relativ verwitterungsanfällig und können große Talzonen und andere Bereichen niedrigen Geländes bilden, während benachbarte Rücken und Plateaus aus verwitterungresistenterem Gestein bestehen. Die Untersuchung eines in Kalkstein eingeschnittenen Tals in Pennsylvania ergab, dass die Landoberfläche allein durch die Wirkung der Kohlensäure im Durchschnitt um 30 cm in 10.000 Jahren tiefergelegt worden ist. Das umgekehrte trifft auf Trockenklimate zu. Dort ist der Einfluss der Kohlensäureverwitterung wegen der Abwesenheit flüssigen Wassers und der damit zusammenhängenden geringeren biotischen Aktivität sehr viel geringer, und Kalkstein und Dolomit bilden hohe Rücken und Plateaus. Die Ränder des Grand Canyon und die angrenzenden Plateaus zum Beispiel sind von Dolomitschichten unterlagert. Sandsteinschichten aus Quarzkörnern, die durch Calciumcarbonat miteinander verkittet wurden (sogenannte "karbonatzementierte Sandsteine"), verwittern in einem Trockenklima ebenfalls relativ langsam. Eine weitere für Kohlensäureverwitterung anfällige Calciumverbindung ist das in der Natur eher seltene Calciumhydroxid (Ca(OH)2, Portlandit). Es verwittert nach der Reaktionsgleichung zu Calciumcarbonat, das nachfolgend weiter verwittert. Calciumhydroxid ist als Löschkalk jedoch ein bedeutender bestandteil von Beton. Bei Stahlbeton fördert die Carbonatisierung die Korrosion der Bewehrung und kann in schwerwiegenden Bauschäden resultieren. Neben Calciumcarbonat und Calyciumhydroxid kann beispielsweise auch Olivin, das Bestandteil vieler vulkanischer Gesteine ist, fast vollständig aufgelöst werden nach der Reaktion wobei es sich tatsächlich um eine mehrphasige Reaktion mit mehreren Zwischenschritten handelt. In den feuchten Klimaten der niederen Breiten wird so mafisches Gestein, insbesondere Basalt, intensiv von größtenteils biogenen Bodensäuren angegriffen. Im Zusammenspiel mit chemischer Verwitterung durch Hydrolyse (siehe unten) entstehen Landformen, die eine große Ähnlichkeit mit den Formen besitzen, die in Feuchtklimaten der höheren Breiten durch die Carbonatisierung von Kalkstein erzeugt werden (sogenannter "Silikatkarst"). Die Effekte der Abfuhr der im Basalt enthaltenen Minerale in Lösung zeigen sich beispielsweise in den eindrucksvollen Furchen, Felsrippen und –türmen an den Hängen tiefer Bergnischen in Teilen der Hawaii-Inseln. Schwefelsäureverwitterung. Saurer Regen greift Kalkstein an und wandelt diesen in Gips um. Skulpturen verlieren infolgedessen ihre Konturenschärfe. Gips löst sich wesentlich leichter als Calcit und das Gestein wittert deshalb nach der Vergipsung schneller ab. Marmorskulpturen verlieren als erste sichtbares Anzeichen den typischen Glanz ihrer polierten Oberfläche. Nachfolgend büßen die Skulpturen ihre Konturenschärfe ein und können bei intensiver Verwitterung die gesamte bildhauerisch bearbeitete Oberfläche verlieren. Da Gips hygroskopisch ist, werden auch vom Regen mitgeführte Rußpartikel in die vergipste Oberfläche eingebunden – sogenannte Gips- oder Schwarzkrusten entstehen. Diese verdichten sich nach einer gewissen Zeit so stark, das irgendwann die Wasserdampfdiffusionsfähigkeit nicht mehr gegeben ist. Es entstehen dann parallel zur Oberfläche verlaufende Schadzonen und die Schwarzkruste platzt irgendwann großflächig ab – dabei geht ebenfalls die bildhauerisch bearbeitete Oberfläche verloren. Die Schwefelsäure im sauren Regen entsteht auf natürliche Weise durch Schwefeltrioxid­emissionen von Vulkanen, aber auch durch die Emission schwefeltrioxidhaltiger Abgase aus Industriebetrieben und Kohlekraftwerken. Wegen des schwefelsauren Regens sind mittlerweile die meisten Marmorskulpturen in Museen verlagert und durch Abgüsse aus Material ersetzt worden, das gegen sauren Regen unempfindlich ist. Hydrolyse. Bei der Hydrolyse (hydrolytische Verwitterung) werden die Ionen im Kristallgitter bestimmter Minerale an H+- und OH−-Ionen, die in Wasser durch Autoprotolyse permanent entstehen, gebunden, wodurch das Ionengitter zerfällt. Die Hydrolyse ist ein wichtiger Prozess der Bodenbildung, denn sie bildet die Initialreaktion der Umwandlung häufiger Silikatminerale (z. B. Feldspäte und Glimmer) in Tonminerale (z. B. Illit, Kaolinit, Montmorillonit, Smectit). So zerfällt beispielsweise Kalifeldspat nach der Reaktionsgleichung in alumosilizische Säure und Kaliumhydroxid. Letztgenanntes wird durch Reaktion mit Kohlensäure in Kaliumcarbonat („Pottasche“, K2CO3) überführt und, da es gut wasserlöslich ist, mit dem Kluft-, Poren- oder Oberflächenwasser aus dem Gestein abgeführt. Die alumosilizische Säure reagiert mit Wasser nach der Reaktionsgleichung zu Kaolinit und Orthokieselsäure. Letztgenannte ist wiederum löslich und wird abgeführt. Ändert sich jedoch unterwegs das chemische Milieu, kann aus dieser Verwitterungslösung SiO2 ausfallen und bildet dann Chalcedon­krusten (Silcretes). Allgemein gilt: je feuchter das Klima, je höher die Temperatur und je geringer der pH-Wert, umso intensiver ist die Hydrolyse. In den warmen und feuchten Klimaten der tropischen und subtropischen Zone werden magmatische Gesteine und metamorphe Gesteine durch Hydrolyse und Oxidation oft bis zu Tiefen von 100 Metern verwittert. Geologen, die solche Tiefenverwitterung des Gesteins zuerst in den südlichen Appalachen untersuchten, nannten diese Verwitterungsschicht Saprolith (wörtlich „verfaultes Gestein“). Für den Bauingenieur bedeutet tiefgründig verwittertes Gestein ein Risiko beim Bau von Autobahnen, Dämmen oder anderen schwerlastigen Bauwerken. Zwar ist Saprolith weich und kann ohne viel Sprengarbeit von Baggern bewegt werden, jedoch besteht die Gefahr, dass das Material unter schwerer Belastung nachgibt, da es wegen seines hohen Gehalts quellfähiger Tonminerale unerwünschte plastische Eigenschaften besitzt. Biotische Verwitterung. Unter biotischer Verwitterung (auch biologische oder biogene Verwitterung genannt) versteht man Verwitterung durch den Einfluss lebender Organismen sowie ihrer Ausscheidungs- bzw. Zersetzungsprodukte. Diese Wirkungen können physikalischer Natur sein (Beispiel: Wurzelsprengung) oder in einer chemischen Einwirkung bestehen. Biotische und abiotische Verwitterung ist dabei in manchen Fällen schwer abzugrenzen. Die biotischen Verwitterungsvorgänge werden in der Literatur mitunter auch in den Kategorien der physikalischen bzw. chemischen Verwitterung eingeordnet. Mechanisch-biotische Verwitterung. Mechanisch-biotische Verwitterung ist hauptsächlich die Wurzelsprengung. In Klüfte des Gesteins und in winzige Spalten zwischen Mineralkörnern hineinwachsende Pflanzenwurzeln üben durch ihr Dickenwachstum eine Kraft aus, deren Tendenz es ist, diese Öffnungen zu erweitern. Man sieht gelegentlich Bäume, deren unterer Stamm und deren Wurzeln fest in einer Kluft des massiven Gesteins eingekeilt sind. Es bleibt im Einzelfall offen, ob der Baum es tatsächlich geschafft hat, die Gesteinsblöcke zu beiden Seiten der Kluft weiter auseinanderzutreiben, oder ob er lediglich den bereits vorhandenen Raum der Spalte ausgefüllt hat. In jedem Fall sicher ist jedoch, dass der Druck, den das Wachstum winziger Wurzeln in Haarrissen des Gesteins ausübt, unzählige kleine Gesteinsschuppen und Körner lockert. Anheben und Zerbrechen von Beton-Gehwegplatten durch das Wachstum von Wurzeln naher Bäume ist ein allgemein bekannter Beweis für den wirksamen Beitrag von Pflanzen zur mechanischen Verwitterung. Chemisch-biotische Verwitterung. Chemisch-biotische Verwitterung wird durch Mikroorganismen, Pflanzen und Tiere verursacht, und gehört zu jenen Phänomenen, die unter dem Begriff "Biokorrosion" zusammengefasst werden. Beispielsweise greifen die von Pflanzenwurzeln abgesonderten organischen Säuren Minerale an und zerlegen das Gestein dadurch in einzelne Bestandteile. Der aus mikrobiell teilweise abgebauten Resten abgestorbener Pflanzen und Tieren bestehende Humus enthält einen großen Anteil an Huminsäuren, die gesteinszerstörend wirken. Durch mikrobielle Säurebildung, Oxidationen und Reduktionen kann es zur Auflösung von Mineralen kommen. Die Wirkung der Kohlensäure wird in vielen Fällen durch die Wirkung einfacher organischer Säuren verstärkt. Sie entstehen bei der mikrobiellen Zersetzung von abgestorbener organischer Substanz oder werden von den Wurzeln lebender Pflanzen abgegeben. Sie gehen mit Metallen, vor allem Eisen (Fe), Aluminium (Al) und Magnesium (Mg), sehr stabile, zum Teil wasserlösliche, zum Teil wasserunlösliche Verbindungen ein, so genannte metallorganische Komplexe ("Chelatkomplexe", "Chelate"). Diese Chelatbildung ist eine wichtige Verwitterungsreaktion. Das Wort „Chelat“ bedeutet „ähnlich einer Krebsschere“ und bezieht sich auf die sehr enge Bindung, die organische Moleküle mit Metall-Kationen eingehen. Im Falle der löslichen Komplexe werden diese im Bodenprofil mit der Sickerwasserbewegung verlagert und dem Verwitterungsmechanismus entzogen. Chelatisierende Stoffe, die vor allem bei mikrobiellen Abbauprozessen freigesetzt werden, sind unter anderem Citronensäure, Weinsäure und Salicylsäure. Des Weiteren können Mikroorganismen und die Atmung der Pflanzenwurzeln durch Kohlenstoffdioxid-Bildung den Kohlensäuregehalt im Boden erhöhen und dadurch Lösungsvorgänge beschleunigen. Anaerobe Bakterien bewirken teilweise Reduktionsprozesse, indem sie bestimmte Stoffe als Elektronenakzeptoren für ihren Energiestoffwechsel verwenden und dadurch wasserlöslich machen, beispielsweise durch die Reduktion von Eisen von der dreiwertigen zur zweiwertigen Form. Verbindungen des zweiwertigen Eisens sind in Wasser wesentlich leichter löslich als die des dreiwertigen, weshalb Eisen relativ leicht durch mikrobielle Reduktion mobilisiert und verlagert werden kann. Wollsackverwitterung. Als Wollsackverwitterung wird die durch verschiedene Verwitterungsprozesse erfolgende Ausbildung typischer Formen im anstehenden Gestein bezeichnet. Dabei bildet sich zunächst ein annähernd rechtwinkliges Kluftnetz im Gestein, was auf physikalische Verwitterung zurückgehen kann, sich aber bei magmatischen Gesteinen auch durch Volumenabnahme beim Erkalten ausbilden kann. Wasser dringt in den Klüften ins Gestein vor und setzt chemische Verwitterungsprozesse (z.B. die Hydrolyse von Feldspäten) in Gang. Von den Klüften her rückt die Zersetzung in das Gestein vor, was an Ecken und Kanten besonders schnell geht, da dort das Verhältnis von Angriffsfläche zu Gesteinsvolumen am größten ist. Bei Exponierung an der Oberfläche wird das von der Verwitterung angegriffene Gestein bevorzugt erodiert, was den bis dahin noch unverwitterten, freiliegenden Kernen der Blöcke eine gerundete, wollsackähnliche Form gibt. Vergrusung. Durch Hydrolyse der Feldspäte und Glimmer oder durch Temperaturverwitterung zerfällt das Gesteinsgefüge granitischer Gesteine (Granit, Granodiorit) in einzelne Mineralkörner. Dieses von der Korngröße her sandig bis feinkiesige Material wird Grus genannt und der entsprechende Vorgang heißt "Vergrusung" oder "Abgrusung". Vergrusung geht oft mit Wollsackverwitterung einher. Alveolarverwitterung. Die Mechanismen hinter der Alveolarverwitterung sind nicht genau geklärt. Vermutlich entsteht sie, abhängig von den vor Ort herrschenden Bedingungen, durch verschiedene Verwitterungsarten (Salzverwitterung, Kohlensäureverwitterung) im Zusammenspiel mit Erosion durch Wind und Wasser. Betroffen sind in erster Linie Sandsteine. Die dabei entstehenden wabenartigen Gebilde werden als "Tafoni" bezeichnet. Safran. Der Safran (von arabisch/persisch, „Safran“, wissenschaftlicher Name "Crocus sativus") ist eine Krokus-Art, die im Herbst violett blüht. Aus den Stempeln ihrer Blüten wird das ebenfalls Safran genannte Gewürz gewonnen. Diese Pflanzenart ist eine triploide Mutante des auf den ägäischen Inseln und auf Kreta beheimateten "Crocus cartwrightianus". Sie ist wegen des dreifachen Chromosomensatzes unfruchtbar und kann nur vegetativ durch Knollenteilung vermehrt werden. Die Stammform "Crocus cartwrightianus" besitzt deutlich kürzere, aber ebenfalls aromatische Stempelfäden. Beschreibung. Jede Blüte enthält einen sich in drei Narben verzweigenden Griffel. Nur diese süß-aromatisch duftenden Stempelfäden werden getrocknet als Gewürz verwendet. Um ein Kilogramm von ihnen zu gewinnen, benötigt man etwa 150.000 bis 200.000 Blüten aus einer Anbaufläche von ca. 10.000 Quadratmetern; die Ernte ist reine Handarbeit, ein Pflücker schafft 60 bis 80 Gramm am Tag. Hinzu kommt, dass Safran nur einmal pro Jahr im Herbst (und das nur für einige Wochen) blüht. Deshalb zählt Safran zu den teuersten Gewürzen. Im Einzelhandel zahlt man zwischen 7 und 25 Euro pro Gramm. Botanik. Die Safran-Pflanze stammt aus der Familie der Schwertliliengewächse und ist eine mehrjährige Krokusart. Die Safranknolle treibt erst im Herbst und überdauert den Rest des Jahres im Boden. Wegen der äusserlichen Ähnlichkeit der Safranknolle mit einer Zwiebel wird Safran fälschlicherweise oft in die Kategorie der Zwiebelgewächse eingeteilt, jedoch handelt es sich beim Safran um eine Knollenpflanze. Demnach werden oft auch die Safranknollen selbst genauso unzutreffend als Zwiebeln bezeichnet. Die Blüte der Safran-Pflanze ist aus 6 fliederfarbenen Perigonblättern aufgebaut, welche in der Blütenröhre münden. Jede Safran-Pflanze produziert jährlich einen hellgelben Griffel, der sich innerhalb der Blütenröhre befindet. Dieser hellgelbe Griffel teilt sich am oberen Ende der Blüte in drei bis sechs 2,5 cm – 4,5 cm lange rote Narbenäste. Diese Narbenäste stellen nach der Ernte das fertige Safrangewürz dar. Anbau. Angebaut wird Safran in Afghanistan, Iran, in Kaschmir und in Europa, dort vor allem im Mittelmeerraum. Anbaugebiete sind Südfrankreich, Spanien, Marokko, Griechenland (um Kozani), Türkei (in Safranbolu), Italien (Sardinien, Abruzzen, Toskana) und – seit 2006 bzw. 2007 wieder – Österreich (Pannonischer Safran "(Crocus Austriacus)"; Wachauer Safran). Ein kleines Anbaugebiet von 18.000 Quadratmetern existiert in der Schweiz im Dorf Mund, wo pro Jahr zwischen 1,5 und 2 Kilogramm Safran geerntet werden – abhängig vom Wetter und den Temperaturen. Seit 2012/13 wird auch in Deutschland wieder Safran angebaut, auf dem Doktorenhof in Venningen (Pfalz) sowie in Sachsen nahe Dresden (Saxen-Safran)und in Bittenfeld (Baden-Württemberg). „Pro Jahr werden ungefähr 200 Tonnen Safran produziert. Wenn man nach Produktionsmengen beurteilt, so steht Iran mit ca. 170 bis 180 Tonnen jährlich an erster Stelle. Dies macht bis zu 91 % des Marktanteils aus.“ Verwendung. Safran schmeckt bitter-herb-scharf, was bei normaler Dosierung – anders als der typische Duft – nicht zum Tragen kommt. Er enthält Carotinoide, vor allem Crocin, sodass sich mit Safran gewürzte Gerichte intensiv goldgelb färben. Weiter enthält er den Bitterstoff Safranbitter, aus dem sich beim Trocknen teilweise der für das Safranaroma verantwortliche Aldehyd Safranal bildet. Weitere Aromastoffe sind unter anderem Isophorone. In Europa bekannte Gerichte, die Safran enthalten, sind Bouillabaisse, Risotto alla milanese, schwedische Lussekatter (ein Süßgebäck) und Paella. Im Iran werden besonders Reisgerichte gerne mit Safran verfeinert. Safran muss vor Licht und Feuchtigkeit geschützt in fest schließenden Metall- oder Glasgefäßen aufbewahrt werden, da das Gewürz am Licht schnell ausbleicht und sich das ätherische Öl relativ leicht verflüchtigt. Safran wurde auch als Farbmittel eingesetzt; der wasserlösliche Farbstoff Crocetin ist in der Pflanze glycosidisch an das Disaccharid Gentiobiose gebunden; diese Verbindung wird als Crocin (siehe oben) bezeichnet. Bereits Plinius erwähnt Safran als Farbmittel. Es wurde auch eingesetzt, um Goldschriften zu imitieren, oder um Zinn oder Silber wie Gold erscheinen zu lassen. Es wurde auch in Mischungen mit anderen Pigmenten oder Farbstoffen verwendet. Um den aromatischen Duft zu bewahren, sollte Safran nicht allzu lange gekocht werden. Es empfiehlt sich, die Narbenschenkel einige Minuten in etwas warmem Wasser einzuweichen und mit der Flüssigkeit gegen Ende der Garzeit dem Gericht zuzugeben. Eine noch intensivere Färbung erhält man, wenn die Safranfäden frisch gemörsert werden. Geschichte. Von Zeus wird in einer Sage der griechischen Mythologie berichtet, er habe auf einem Bett aus Safran geschlafen. Und bereits die Phönizier verwendeten Safran als Heil- und Gewürzmittel. Kennengelernt hatten sie ihn vermutlich von den Indern. Schon in der Antike war er ein Luxusartikel. Auf das Fälschen oder Verschneiden von Safran standen hohe Strafen. Fest steht, dass es in vielen Kulturen Brauch war, den Hochzeitsschleier mit Safran gelb zu färben. Reiche Römer streuten Safranfäden auf ihre Hochzeitsbetten. Mit Safran wurden Salben, Balsame und Duftöle zubereitet und Speisen gewürzt, über deren intensives Aroma neben Cicero u.a. Petronius in der "Cena Trimalchionis" berichtet: "omnes enim placentae omniaque poma etiam minima vexatione contacta coeperunt effundere crocum, et usque ad os molestus umor accidere" ("Alle Kuchen und alle Äpfel fingen, wenn man sie auch nur ganz sanft berührte, an, Safranwasser zu verspritzen, bis uns die unangenehme Flüssigkeit im Gesicht traf"). Er diente, wie Plinius der Ältere vermerkt, als Arznei und Weinzusatz, Kaiser Heliogabal soll bevorzugt in mit Safran vermischtem Wasser gebadet haben. „De hilaritudine in pectus concitanda, a croci esu, res est apud Medicos & Botanicos celebratissima, apud quos experimento comprobatum est, drachmas circiter tres, cum vino haustas, tanta laetitia homines perfundere, ut iis contingat nimio risu exsolvi, ebriis similes reddi, saepe etiam dejici de bona mente, & ridendo aut finire vitam, aut vehementer periclitari. Amatus Lusitanus citat ad Testimonium exemplum Mercatoris, qui plus nimio assumens, tam profuse in risum solutus est, ut fere illi prae cachinno rupta fuerint ilia. Idemque scribit se observasse in alio sacco croci pleno indormierat. Hoc est quod Galenus annotavit Lib. II Med. Loc. Crocum caput opplere, & perturbare arcem rationis..." Johann Ferdinand Hertodt von Todenfeld verfasste im 17. Jahrhundert mit der "Crocologia seu curiosa Croci Regis vegetabilium enucleatio" ein umfangreiches Werk, das unzählige pharmazeutische Rezepte zur Behandlung diverser Krankheiten von Durchfall, Wassersucht bis zur Hypochondrie durch die Safranpflanze versammelt. Zu Beginn des 20. Jahrhunderts war Österreich das Anbauzentrum Mitteleuropas. Der Safran höchster Qualität wurde auch als Crócus austriacus bezeichnet. Safranernte (Aus einer Handschrift des Tacuinum Sanitatis, 15. Jahrhundert) Fälschungen und Ersatzprodukte. Noch heute ist das Fälschen von Safran weit verbreitet: Fälschungen können aus einer Kurkuma-Mischung bestehen. Safranfäden werden auch gefälscht, aber wer mit Aussehen und Geruch vertraut ist, kann den Unterschied erkennen. Ein einigermaßen sicherer chemischer Nachweis ist das Zugeben von Natronlauge zu einer Lösung von etwas „Safranpulver“: Handelt es sich um reinen Safran, so bleibt die Lösung gelb, enthält sie Kurkuma-Anteile, so wird sie trüb und verfärbt sich rot. Dieser Test war schon vor Jahrhunderten bei den Gewürzhändlern üblich. Er beruht auf den verschiedenen chemischen Eigenschaften der in Safran und Kurkuma enthaltenen Farbstoffe. Falscher Safran (Saflor) ist eine Bezeichnung für die Färberdistel ("Carthamus tinctorius"), die früher zum Färben von Seide verwendet wurde. Dieses Gewürz färbt das Gericht schwächer als echter Safran und bringt kein eigenes Aroma ein. Die Röhrenblüten der Färberdistel lassen sich schon mit bloßem Auge von den fadenförmigen Narbenlappen des Safrans unterscheiden. Beim echten Safran müssen die Narbenschenkel ungefähr zwei bis drei Zentimeter lang, trichterförmig eingerollt und oben eingekerbt sein. Safran für homöopathische Anwendungen ist im Europäischen Arzneibuch monographiert und enthält die gängigen Tests auf Identität und Reinheit von Safran. Zur Eindämmung von Fälschungen und Ersatzprodukten, sowie zur Erhöhung der Konsumentensicherheit, sind Qualitätskriterien definiert. Merkmale wie Färbekraft, Aromakonzentration (Safranal) und Konzentration von Bitterkeit (Picrocrocin) werden zusammengefasst in vier Kategorien unterteilt. Neben dem internationalen ISO-Standard 3632 gibt es auch nationale Normen. Trivialnamen. Für den Safran bestehen bzw. bestanden auch die weiteren deutschsprachigen Trivialnamen Chruogo (althochdeutsch), Croc (althochdeutsch), Broze (althochdeutsch), Brugo (althochdeutsch), Gewürzsafran, Kruago (althochdeutsch), Saffaran (mittelhochdeutsch), Saffart (mittelhochdeutsch), Saffaren (mittelhochdeutsch), Safferain (mittelhochdeutsch), Safferen (mittelhochdeutsch), Safferon (mittelhochdeutsch), Safferntblume (Bern), Saffran (mittelhochdeutsch), Saffrat (mittelhochdeutsch), Saffrath (mittelhochdeutsch), orientalischer Safran, Safrich (Schwaben), Schaffner (mittelhochdeutsch), Seydfarb (mittelhochdeutsch), Sintvarwe (althochdeutsch), Soffraen (mittelhochdeutsch) und Suffran (mittelhochdeutsch). Erich Kästner. Emil Erich Kästner (* 23. Februar 1899 in Dresden; † 29. Juli 1974 in München) war ein deutscher Schriftsteller, Publizist, Drehbuchautor und Verfasser von Texten für das Kabarett. Bekannt machten ihn vor allem seine Kinderbücher wie Emil und die Detektive, Das doppelte Lottchen und Das fliegende Klassenzimmer sowie seine humoristischen und zeitkritischen Gedichte. Dresden 1899–1919. Erich Kästner wuchs in kleinbürgerlichen Verhältnissen in der Königsbrücker Straße in der Äußeren Neustadt von Dresden auf. In der Nähe befindet sich am Albertplatz im Erdgeschoss der damaligen Villa seines Onkels Franz Augustin heute das Erich Kästner Museum. Sein Vater Emil Richard Kästner (1867–1957) war Sattlermeister in einer Kofferfabrik. Die Mutter, Ida Kästner geb. Augustin (1871–1951), war Dienstmädchen und Heimarbeiterin und wurde mit Mitte Dreißig Friseurin. Zu seiner Mutter hatte Kästner eine äußerst intensive Beziehung. Schon als Kind erlebte er ihre Liebe als ausschließlich – ein anderer Mensch spielte in ihrem Leben eigentlich keine Rolle. In seiner Leipziger und Berliner Zeit verfasste er täglich vertrauteste Briefe oder Postkarten an sie. Auch in seinen Romanen lässt sich immer wieder das Motiv einer „Übermutter“ finden. Später kamen (nie bestätigte) Gerüchte auf, dass der jüdische Arzt Emil Zimmermann (1864–1953) – der Hausarzt der Familie – sein leiblicher Vater gewesen sei. Bronzeplastik auf der Mauer des Erich Kästner Museums in Dresden Kästner besuchte seit 1913 das Freiherrlich von Fletchersche Lehrerseminar in der Marienallee in Dresden-Neustadt, brach die Ausbildung zum Volksschullehrer jedoch drei Jahre später kurz vor Ausbildungsende ab. Viele Details aus dieser Schulzeit finden sich in dem Buch "Das fliegende Klassenzimmer" wieder. Seine Kindheit beschrieb Kästner in dem 1957 erschienenen autobiographischen Buch "Als ich ein kleiner Junge war", dort kommentiert er den Beginn des Ersten Weltkriegs mit den Worten: "„Der Weltkrieg hatte begonnen, und meine Kindheit war zu Ende.“" Zum Militärdienst wurde er 1917 einberufen und absolvierte seine Ausbildung in einer Einjährig-Freiwilligen-Kompanie der schweren Artillerie. Die Brutalität der Ausbildung prägte Kästner und machte ihn zum Antimilitaristen; zudem zog er sich durch den harten Drill seines Ausbilders Waurich eine lebenslange Herzschwäche zu. Waurich wurde hierfür in einem Gedicht Kästners ("Sergeant Waurich") kritisch bedacht. Nach dem Ende des Ersten Weltkriegs absolvierte er das Abitur am König-Georg-Gymnasium mit Auszeichnung und erhielt dafür das Goldene Stipendium der Stadt Dresden. Leipzig 1919–1927. Im Herbst 1919 begann Kästner in Leipzig das Studium der Geschichte, Philosophie, Germanistik und Theaterwissenschaft. Aufgrund der Inflation und seiner schwierigen finanziellen Situation nahm Kästner mehrere Nebenjobs an; u. a. verkaufte er Parfüm und sammelte die Börsenkurse für einen Buchmacher. Kästner schrieb eine Dissertation zum Thema „Friedrich der Große und die deutsche Literatur“ und wurde 1925 promoviert. Sein Studium finanzierte Kästner schon bald aus eigenen Einnahmen als Journalist und Theaterkritiker für das Feuilleton der "Neuen Leipziger Zeitung". Dem kritischer werdenden Kästner wurde 1927 gekündigt, nachdem seinem von Erich Ohser illustrierten erotischen Gedicht "Nachtgesang des Kammervirtuosen" Frivolität vorgeworfen worden war. Im selben Jahr zog Kästner nach Berlin, von wo aus er unter dem Pseudonym „Berthold Bürger“ weiter als freier Kulturkorrespondent für die Neue Leipziger Zeitung schrieb. Kästner veröffentlichte später noch unter vielen anderen Pseudonymen (z. B. „Melchior Kurtz“, „Peter Flint“ oder „Robert Neuner“). In der Kinderbeilage der im Leipziger Verlag Otto Beyer erschienenen Familienzeitschrift "Beyers für Alle" (seit 1928 "Kinderzeitung von Klaus und Kläre") wurden von 1926 bis 1932 unter den Pseudonymen „Klaus“ und „Kläre“ fast 200 Artikel – Geschichten, Gedichte, Rätsel und kleine Feuilletons – geschrieben, die nach heutigem Stand der Forschung wohl großteils von Kästner stammen. Sein erstes größeres Werk Klaus im Schrank oder Das verkehrte Weihnachtsfest entwarf Kästner im Juli 1927. Die Endfassung schickte er noch im selben Jahr an mehrere Verlage, die das Stück allerdings als zu modern ablehnten. Berlin 1927–1933. Kästners Artikel „Offener Brief an Angestellte“ in der "Weltbühne" vom 1. Januar 1929 Kästners Berliner Jahre von 1927 bis zum Ende der Weimarer Republik 1933 gelten als seine produktivste Zeit. In wenigen Jahren stieg er zu einer der wichtigsten intellektuellen Figuren Berlins auf. Er publizierte seine Gedichte, Glossen, Reportagen und Rezensionen in verschiedenen Periodika Berlins. Regelmäßig schrieb er als freier Mitarbeiter für verschiedene Tageszeitungen, wie das "Berliner Tageblatt" und die "Vossische Zeitung" sowie für die Zeitschrift "Die Weltbühne". Hans Sarkowicz und Franz Josef Görtz, die Herausgeber der Gesamtausgabe von 1998, nennen im Nachwort des der Publizistik Kästners gewidmeten Bandes über 350 nachweisbare Artikel von 1923 bis 1933; die tatsächliche Zahl dürfte höher liegen. Dass so vieles heute verloren ist, mag damit zusammenhängen, dass Kästners Wohnung im Februar 1944 völlig ausbrannte. Kästner veröffentlichte 1928 sein erstes Buch "Herz auf Taille", eine Sammlung von Gedichten aus der Leipziger Zeit. Bis 1933 folgten drei weitere Gedichtbände. Mit seiner Gebrauchslyrik avancierte Kästner zur wichtigsten Stimme der Neuen Sachlichkeit. Im Oktober 1929 erschien mit "Emil und die Detektive" Kästners erstes Kinderbuch. Die Detektivgeschichte entstand auf Anregung von Edith Jacobsohn, der Witwe des „Weltbühne“-Verlegers Siegfried Jacobsohn. Das Buch wurde allein in Deutschland über zwei Millionen Mal verkauft und bis heute in 59 Sprachen übersetzt. Für die Kinderliteratur der damaligen Zeit mit ihren aseptischen Märchenwelten äußerst ungewöhnlich war, dass der Roman in der Gegenwart der Großstadt Berlin spielte. Mit "Pünktchen und Anton" (1931) und "Das fliegende Klassenzimmer" (1933) schrieb Kästner in den folgenden Jahren zwei weitere gegenwartsbezogene Kinderbücher. Einen wesentlichen Anteil am Erfolg der Bücher hatten die Illustrationen von Walter Trier. Gerhard Lamprechts Verfilmung von "Emil und die Detektive" wurde 1931 ein großer Erfolg. Kästner war jedoch mit dem Drehbuch unzufrieden, das Lamprecht und Billy Wilder geschrieben hatten. In der Folge arbeitete er als Drehbuchautor für die Studios in Babelsberg. Kästners 1931 veröffentlichter Roman "Fabian – Die Geschichte eines Moralisten" ist in fast filmischer Technik geschrieben: schnelle Schnitte und Montagen sind wichtige Stilmittel. Er spielt im Berlin der frühen 1930er Jahre. Am Beispiel des arbeitslosen Germanisten Jakob Fabian beschreibt Kästner darin das Tempo und den Trubel der Zeit wie auch den Niedergang der Weimarer Republik. Auch seine eigene Tätigkeit als Werbetexter in Berlin spiegelt sich in der Figur Fabians. Von 1927 bis 1929 wohnte Kästner in der Prager Straße 17 (heute etwa Nr. 12) in Berlin-Wilmersdorf, danach bis Februar 1944 in der Roscherstraße 16 in Berlin-Charlottenburg. Berlin 1933–1945. a> am Haus Prager Straße 6 nahe der Wilmersdorfer Wohnung Kästner wurde mehrmals von der Gestapo vernommen und aus dem Schriftstellerverband ausgeschlossen. Seine Werke wurden bei der Bücherverbrennung als „wider den deutschen Geist“ verbrannt, was er selbst aus nächster Nähe beobachtete. Der Aufnahmeantrag Kästners in die Reichsschrifttumskammer wurde wegen seiner „kulturbolschewistischen Haltung im Schrifttum vor 1933“ abgelehnt, was sich vor allem auf seine Unterzeichnung des Dringenden Appells des Internationalen Sozialistischen Kampfbundes vom Juni 1932 bezieht. Dies war gleichbedeutend mit einem Publikationsverbot für das Deutsche Reich. Der mit Kästner befreundete Verleger Kurt Leo Maschler übernahm die Rechte vom Berliner Verlag Williams & Co. Bücher von Kästner erschienen nun in der Schweiz in dem von Maschler gegründeten Atrium Verlag. Allerdings hat Kästner (im Gegensatz zu dem, was er selbst und seine Biographen über Kästners Arbeit in der Zeit des Nationalsozialismus berichten) unter Pseudonym sehr viel und sehr erfolgreich gearbeitet. Kästner stand nach Ansicht von Hermann Kurzke auf dem Höhepunkt seiner Produktivität und lieferte der Unterhaltungsindustrie des Dritten Reiches Theatertexte und diverse Filmdrehbücher (teilweise als Mitautor). Besonders erfolgreich war „Das lebenslängliche Kind“; im Ausland und in der Nachkriegszeit als Buch bzw. Film unter dem Namen "Drei Männer im Schnee" vermarktet. Mit einer Ausnahmegenehmigung lieferte Kästner 1942 unter dem Pseudonym „Berthold Bürger“ das Drehbuch zu "Münchhausen", dem prestigeträchtigen Jubiläumsfilm der Ufa. Der Anteil Kästners an dem mit Bobby E. Lüthge und Helmut Weiss verfassten Drehbuch zu dem Heinz-Rühmann-Film "Ich vertraue Dir meine Frau an" lässt sich heute allerdings nicht mehr abschätzen. Kästners Wohnung in Charlottenburg wurde 1944 durch Bomben zerstört. Anfang 1945 gelang es ihm, mit einem Filmteam zu angeblichen Dreharbeiten nach Mayrhofen in Tirol zu reisen und dort das Kriegsende abzuwarten. Diese Zeit hielt er in einem 1961 unter dem Titel "Notabene 45" veröffentlichten Tagebuch fest. München 1945–1974. Gründungsversammlung des deutschen P.E.N.-Zentrums in Göttingen am 18. November 1948, Kästner ganz rechts Nach dem Ende des Zweiten Weltkriegs zog Kästner nach München, wo er bis 1948 das Feuilleton der "Neuen Zeitung" leitete und die Kinder- und Jugendzeitschrift „Pinguin“ herausgab. Gleichzeitig widmete sich Kästner in München verstärkt dem literarischen Kabarett. So arbeitete er für Die Schaubude (1945–1948) sowie Die Kleine Freiheit (ab 1951) und für den Hörfunk. In dieser Zeit entstanden zahlreiche Nummern, Lieder, Hörspiele, Reden und Aufsätze, die sich mit dem Nationalsozialismus, dem Krieg und der Realität im zerstörten Deutschland auseinandersetzten, u. a. das "Marschlied 1945", das "Deutsche Ringelspiel" und das Kinderbuch "Die Konferenz der Tiere". Kästners Optimismus der unmittelbaren Nachkriegszeit wich umso mehr der Resignation, wie die Westdeutschen mit Währungsreform und Wirtschaftswunder versuchten, zur Tagesordnung überzugehen. Hinzu kamen die bald erstarkenden Stimmen für eine Remilitarisierung. Seinem Anti-Militarismus blieb Kästner treu – er trat bei Ostermärschen als Redner auf und wandte sich später auch entschieden gegen den Vietnamkrieg. Sein Engagement richtete sich zudem gegen staatliche Maßnahmen, die er als Einschränkung der Pressefreiheit sah. So protestierte er 1952 etwa gegen das „Gesetz über die Verbreitung jugendgefährdender Schriften“ und zählte 1962 zu den ersten Intellektuellen, die sich gegen die Durchsuchungen und Verhaftungen während der Spiegel-Affäre wandten. Er veröffentlichte jedoch immer weniger, wozu auch sein zunehmender Alkoholismus beitrug. Kästner fand keinen Anschluss an die Nachkriegsliteratur und wurde in den 1950er und 1960er Jahren überwiegend als Kinderbuchautor wahrgenommen und gewürdigt. Die Wiederentdeckung seines literarischen Werks aus der Zeit der Weimarer Republik begann erst ab den 1970er Jahren ("Fabian" wurde 1980 verfilmt). Erich Kästner (links) 1968 bei Dreharbeiten in München Dennoch war Kästner sehr erfolgreich. Seine Kinderbücher wurden in zahlreiche Sprachen übersetzt und verfilmt, er selbst wurde vielfach geehrt. Kästner wurde 1951 Präsident des westdeutschen P.E.N.-Zentrums, ein Amt, das er bis 1962 innehatte; 1965 wurde er zum Ehrenvorsitzenden gewählt. Außerdem war er einer der Begründer der Internationalen Jugendbibliothek in München. Gedenktafel am Wohnhaus von Erich Kästner, in 13467 Berlin Parkstraße 3a am Hermsdorfer Waldsee, eine Korrektur der Tafel ist geplant. Kästner blieb zwar lebenslang unverheiratet, hatte aber zum Teil langjährige Beziehungen und Affären. Im Jahr 1957 wurde sein Sohn Thomas geboren. Von 1964 bis 1969 lebte Kästner mit seiner Freundin Friedel Siebert (1926–1986) und dem gemeinsamen Sohn Thomas in einer Villa in der Parkstraße 3a in Berlin-Hermsdorf am Waldsee. Kästner pendelte zwischen der Freundin in Berlin und der Lebensgefährtin Luiselotte Enderle in München hin und her. Viel Zeit verbrachte er in Sanatorien. 1969 feierte Kästner seinen 70. Geburtstag am Waldsee in Berlin-Hermsdorf. Im selben Jahr trennte sich Friedel Siebert von Kästner und übersiedelte mit Thomas in die Schweiz. Im Jahr 1977 wurde die Edition "Briefe aus dem Tessin", eine Sammlung von Briefen, die Kästner in den 1960er Jahren an seinen Sohn Thomas und dessen Mutter geschrieben hatte, veröffentlicht. Für Thomas verfasste er auch seine beiden letzten Kinderbücher (Der kleine Mann und "Der kleine Mann und die kleine Miss"). Kästner war häufig Vorleser seiner eigenen Werke. Bereits in den 1920er Jahren besprach er Schellackplatten mit seinen zeitkritischen Gedichten. In den Verfilmungen seiner Kinderbücher war er mehrfach die Erzählerstimme, wie zum Beispiel in der Verfilmung seines Buches "Das doppelte Lottchen" 1950 und in der ersten Hörspielbearbeitung von "Pünktchen und Anton" aus dem Jahr 1963. Des Weiteren sprach er für das "Literarische Archiv" der Deutschen Grammophon eine Auswahl seiner Gedichte, auch "Epigramme", und nahm seine Till-Eulenspiegel-Bearbeitung für die Sprechplatte auf. Nicht zuletzt bestritt Kästner diverse literarische Solo-Abende, so z. B. im Münchner Cuvilliés-Theater, oder las für den Hörfunk z. B. aus seinem Werk "Als ich ein kleiner Junge war". Seit 1965 zog er sich fast ganz aus dem Literaturbetrieb zurück. Kurz vor seinem Tod gab Kästner die Genehmigung, das Erich Kästner Kinderdorf nach ihm zu benennen. Kästner starb am 29. Juli 1974 im Klinikum Neuperlach an Speiseröhrenkrebs und wurde auf dem Bogenhausener Friedhof in München beigesetzt. Erich Kästners Porträt an einem Haus der sogenannten "Kästner-Passage" in der Dresdner Neustadt Denkmal am Albertplatz in Dresden Erinnerungsstätten und Nachlass. In Dresden-Neustadt (Antonstraße 1 am Albertplatz) gibt es in der Villa Augustin ein Erich Kästner Museum, für das sich ein Förderverein engagiert. Dort befindet sich auch eine Skulptur, die Kästner als auf einer Mauer sitzenden Jungen darstellt. An seinem Geburtshaus in der nahegelegenen Königsbrücker Straße 66 findet sich eine Erinnerungstafel, ebenso am Haus Parkstraße 3a in Berlin. Ein Denkmal, einige von Kästners Büchern symbolisierend, dazu ein Hut und ein Aschenbecher, steht in Dresden am Albertplatz. Dutzende von Schulen sind nach Kästner benannt, so in Dresden, Leipzig, Berlin, Hamburg, Frankfurt/Main, Köln, Bonn, Düsseldorf, Mönchengladbach, Füssen, Kitzingen, Düren, Paderborn, Bad Salzuflen, Leverkusen, Oberursel, Herne, Selm und Bad Neuenahr-Ahrweiler. Entgegen den ansonsten gültigen Rechtschreibregeln zur Durchkopplung benutzen diese die Schreibweise „Erich Kästner-Schule“ oder „Erich Kästner Schule“ und folgen damit einem ausdrücklichen Wunsch Kästners. Zahlreich sind ebenso die nach ihm benannten Straßen. Das Erich Kästner Kinderdorf in Oberschwarzach bei Schweinfurt bewahrt nach dem Wunsch Erich Kästners und Luiselotte Enderles seit Anfang der 1990er Jahre den Nachlass Kästners, darunter 8200 Bücher aus seiner Privatbibliothek und zahlreiche Gegenstände aus seinem Alltag. Zum 100. Geburtstag Kästners gab die Deutsche Post 1999 ein Sonderpostwertzeichen mit einem Motiv aus "Emil und die Detektive" mit dem Nennwert 3 Deutsche Mark heraus (Michel-Nr. 2035). Kästners schriftlicher Nachlass liegt im Deutschen Literaturarchiv Marbach. Teile davon sind im Literaturmuseum der Moderne in Marbach in der Dauerausstellung zu sehen, dazu gehören die Typoskripte seiner Romane "Emil und die Detektive" und "Fabian". Ausstellung. Das Literaturhaus München zeigt vom 24. September 2015 bis zum 14. Februar 2016 die Ausstellung "Gestatten, Kästner!" ETH Zürich. Hauptgebäude der ETH Zürich, von der Polyterrasse aus gesehen Das "Polytechnikum" (damals nur im linken Flügel) und die Universität (damals im rechten Flügel) auf einer Ansicht aus dem Jahr 1865 Ansicht des damaligen ETH- und Universitätsgebäudes um 1860, errichtet 1858–1864 durch Gottfried Semper, vor dem Beginn der Umbauten durch Gustav Gull 1915–1924 Gustav Gulls Kuppel ist heute zu einem Symbol für die ETH geworden Das Hauptgebäude, aus dem Stadtzentrum gesehen Die Eidgenössische Technische Hochschule Zürich, kurz ETH Zürich, ist eine technisch-naturwissenschaftliche universitäre Hochschule in Zürich. Sie wurde 1855 als "Eidgenössisches Polytechnikum" gegründet und wird deshalb auch oft "Poly" genannt. Ihre Gebäude verteilen sich auf zwei Standorte, einen im Zentrum der Stadt Zürich sowie den Standort Hönggerberg, ausserhalb des Stadtzentrums. Sie zählt zu den renommiertesten Universitäten Europas bzw. weltweit, s. Rankings. Die Hochschule ist in 16 Departemente gegliedert und bietet 23 Bachelor- und 42 Master-Studiengänge an. Weiterführende Studien für ein Doktorat im technischen, mathematischen und naturwissenschaftlichen Bereich sind auf zahlreichen Stellen möglich. Derzeit sind knapp 18'000 Studenten und Doktoranden eingeschrieben. Die ETH Zürich beschäftigt über 10'000 Personen. Von den 498 Professuren, einschliesslich 80 Assistenzprofessuren, sind 60 (13 %) von Frauen besetzt. Mit der ETH assoziiert sind 21 Nobelpreisträger. ETH-Präsident ist seit 2015 Lino Guzzella; Rektorin ist Sarah Springman. Die ETH Zürich ist eingebunden in den ETH-Bereich, der die Technische Hochschule in Zürich und diejenige in Lausanne sowie vier weitere Forschungsanstalten (Paul Scherrer Institut, Eidgenössische Forschungsanstalt für Wald, Schnee und Landschaft [WSL], Eidgenössische Materialprüfungs- und Forschungsanstalt [Empa] und Eidgenössische Anstalt für Wasserversorgung, Abwasserreinigung und Gewässerschutz [Eawag]) umfasst. Anfangsphase. Nach einer langen Debatte in dem noch jungen Bundesstaat Schweiz, ob neben den kantonalen Universitäten auch eine nationale, eidgenössische Hochschule zu gründen sei, wurde am 7. Februar 1854 das "Gesetz über die eidgenössische polytechnische Schule in Verbindung mit einer Schule für das höhere Studium der exakten, politischen und humanistischen Wissenschaften" erlassen, und die ETH nahm als "Eidgenössische polytechnische Schule" am 16. Oktober 1855 in Zürich ihren Betrieb auf. Jedoch wurde das Angebot auf rein technische Fächer beschränkt, da die katholischen, ländlichen Kantone, die eigene Universitäten unterhielten, ein intellektuelles Monopol der protestantischen, städtischen Kantone verhindern wollten. Die neue Bildungsstätte sollte ein eigenes Gebäude erhalten, und so schrieben die Stadt und der Kanton Zürich einen Architekturwettbewerb aus, an dem sich unter anderem die beiden Professoren Ferdinand Stadler und Gottfried Semper aus Zürich sowie der Badener Architekt Joseph Caspar Jeuch beteiligten. Der deutsche Architekt Semper, der u. a. auch die nach ihm benannte Dresdner Oper entwarf, gewann schliesslich den Wettbewerb und durfte das Gebäude zwischen 1858 und 1864 nach seinen Plänen errichten. Im Südflügel des Gebäudes war anfänglich die bereits bestehende Zürcher Universität einquartiert. Als Folge der sogenannten Aussonderungsverträge 1905 und 1908 wurden die Gebäude der Zürcher Universität und der ETH 1914 voneinander getrennt. Nach dem Auszug der Universität baute der führende Architekt des Historismus in Zürich, Gustav Gull, zwischen 1915 und 1925 das Hauptgebäude von Semper um und veränderte die innere und äussere Gestalt des Gebäudes durchgreifend. Lediglich die gegen die Stadt weisende Südfassade blieb unverändert. Gegen die Rämistrasse wurde die Gestalt des Gebäudes durch eine neue Schaufassade und die heute charakteristische Kuppel ergänzt. 1908 erwarb das Polytechnikum das Recht, Doktortitel zu verleihen. 1911 wurde es nach einer längeren Reformdebatte in "Eidgenössische Technische Hochschule" umbenannt. Gleichzeitig wurden die Studienpläne etwas gelockert und den Studenten mehr Freiheiten gewährt. Das Polytechnikum wuchs rasch, und jedes Jahrzehnt kam ein neues Gebäude dazu: Chemie, Physik, Forstwirtschaft, Maschinen-Labor. Standort Hönggerberg und "Science City". Bereits in den 1950er Jahren wurde klar, dass das ETH-Zentrum zu wenig Raum zur Verfügung hat. Bereits damals mussten zahlreiche Gebäude in der Nachbarschaft dazugekauft und Wohnungen für Institute umgenutzt werden (teilweise werden diese auch heute noch von der ETH genutzt). Jedoch konnte diese Strategie die Bedürfnisse der Hochschule nicht befriedigen, sodass die ETH 1957 beschloss, einen zweiten Standort in Zürich zu suchen. Zur Diskussion standen Areale auf der Allmend Fluntern, am Irchel, auf dem Adlisberg und auf dem Hönggerberg. Nur letzteres stellte sich als geeignet heraus, und die Planung für den Hönggerberg begann 1959. Für das Projekt wurde der renommierte Architekt Albert Heinrich Steiner gewonnen. Seit den sechziger Jahren wurden dort zusätzliche Gebäude erstellt, und seit Beginn des 21. Jahrhunderts läuft das Ausbauprojekt "Science City", in dessen Rahmen man unter anderem auch Studentenwohnungen auf dem Campus am Hönggerberg erstellen will. Die Umsetzung erfolgte rasch, und Ende der 70er wurde die erste Etappe mit den Bauten für Physik (HPH und HPP), Molekularbiologie (HPM, HPK…) und der Infrastruktur abgeschlossen. Nicht mehr unter der Leitung von Steiner und teilweise sogar gegen seinen Willen erfolgte in einer zweiten Ausbauetappe (1972–1976) der Bau des Gebäudes für Architektur und Bauwissenschaften (HIL) unter den Architekten Max Ziegler und Erik Lanter. Die dritte Ausbauetappe wurde 1988 mit der Ausschreibung des Ideenwettbewerbs für den Richtplan eingeleitet; den Wettbewerb gewann der Architekt Ben Huser in der Weiterbearbeitung 1989. Nachdem die Architekten Mario Campi und Franco Pesina 1990 die Ausschreibung für die dritte Etappe (1996–2004) gewonnen hatten, wurde das Projekt von Steiner sogar vor Bundesgericht bekämpft, jedoch wurde seine Klage 1994 abgewiesen. Damit war der Weg frei für das Gebäude der Abteilungen Chemie und Werkstoffe sowie Pharmazie und Mikrobiologie (HCI). Der Standort Hönggerberg beheimatet heute folgende Departemente: Architektur (D-ARCH), Bau, Umwelt und Geomatik (D-BAUG), Chemie und Angewandte Biowissenschaften (D-CHAB), Physik (D-PHYS), Biologie (D-BIOL) sowie Materialwissenschaften (D-MATL). Er kann mit den VBZ-Buslinien 37, 80 und 69 sowie mit zwei Shuttle-Linien direkt vom Zürich Hauptbahnhof und vom Hauptgebäude erreicht werden. Eine weitere Variante zur direkten Erschliessung der Science City über eine S-Bahnlinie und einem unterhalb der Science City angelegten Tunnelbahnhof wurde im Herbst 2014 vorgeschlagen. Die ergänzende Bahnlinie von 4,25km Länge beginnt verzweigend beim Letziviadukt und führt als Tunnel von 3,5 km Länge unter dem Käferberg in die Gegend Aspholz, wo sie in die Linie nach Regensdorf mündet. Derzeit wird der Standort Hönggerberg im Rahmen des Projektes "Science City" weiter ausgebaut. Die Idee ist es, einen Hochschul-Campus zu bilden, bei dem Forschen und Wohnen auf demselben Areal stattfinden, der aber auch offen ist für die Öffentlichkeit. 2008 wurde das "Information Science Lab" sowie das "Sport Center" fertiggestellt, das im Mai 2009 eröffnet wurde. Seit 2013 sind ebenfalls Studentenwohnungen im Bau, so sollen bis 2016 insgesamt 63 Wohnungen mit 485 Zimmern entstehen. Geplant wurden zudem ein Zeichensaal für die ETH, von Studenten nutzbare Gemeinschaftsräume, eine Kinderkrippe sowie dem studentischen Wohnen dienende Ergänzungsräume. Geplant sind zudem noch der Bau einer "Life Science Platform" sowie die Erstellung eines "Akademischen Gästehauses" als Aufstockung des bisher 14-stöckigen Physikturms. Das "Information Science Lab" wurde mit 23 Millionen Franken von dem Unternehmer Branco Weiss unterstützt, und die Zürcher Kantonalbank steuerte 12 Millionen Franken zum "Sport Center" bei. Im Dezember 2006 stimmte der Zürcher Gemeinderat dem Masterplan für die weiteren baulichen Entwicklungsschritte von Science City fast einstimmig zu. Die Sonderbauvorschriften sind im Herbst 2007 in Kraft getreten. Energiepolitisch hat sich Science City das Ziel gesteckt, ihren CO2-Ausstoss gemäss den Richtlinien des Kyoto-Protokolls zu reduzieren, um in Science City die Idee der 2000-Watt-Gesellschaft zu realisieren. Die ETH Hönggerberg, von Süden aus gesehen. Im Bild die fünf Finger des HCI, dahinter der hohe Bau des HPP mit Wetterstation auf dem Dach Organisation und Schulleitung. An der ETH Zürich entstehen jährlich ca. 700 Dissertationen und über 1800 (Master-)Diplome. Begonnen hat die ETH mit 68 Studenten im Jahr 1855, seither hat sich ihre Zahl stetig vermehrt. Seit 1968 hat die Zahl der weiblichen Studenten stark zugenommen und betrug im Herbstsemester 2014 31,8 %. Derzeit hat die ETH 23 Bachelor-Studiengänge mit 8500 Studierenden, 42 Master-Studiengänge mit 5100 Studierenden, und es sind 3900 Doktorierende eingeschrieben. Im Juli 2015 hat Rektorin Sarah Springman bekannt gegeben, dass die Aufnahmefähigkeit der ETH bei 20'000 Studenten liege, sodass man den Zuwachs der aktuell bei 18600 liegenden Studentenanzahl begrenzen müsse. Springman zufolge gäbe es genügend gute Schweizer Studierende, sodass die Hochschule nicht auf ausländische angewiesen sei. Departemente. Die ETH Zürich ist in 16 Departemente unterteilt. Das jüngste Departement, Gesundheitswissenschaften und Technologie, wurde 2012 durch die Zusammenführung der Bewegungswissenschaften, Biomechanik, Lebensmittelwissenschaften und Neurowissenschaften etabliert. Dazu kommt noch das Departement Management, Technologie und Ökonomie (), verantwortlich für einige Master-Studiengänge und Doktorate. Schulleitung. Die Schulleitung organisiert Leitung, Aufbau und Organisatorisches der ETH Zürich. Studienbedingungen. Die Zulassung an die ETH erfolgt mit einer schweizerischen Maturität ohne weitere Bedingungen. Ausländische Studierende müssen abhängig von ihrem Schulabschluss eine Aufnahmeprüfung ablegen oder werden direkt aufgenommen. Die Semestergebühren an der ETH Zürich betragen 580 Franken sowie zusätzliche 64 Franken Semesterbeiträge pro Semester. Nicht eingeschlossen sind dabei diverse zusätzliche Auslagen wie für Bücher, Praktika, Exkursionen etc. Für finanziell benachteiligte Studenten stehen Stipendien zur Verfügung. Studienangebot. An der ETH werden hauptsächlich naturwissenschaftliche und technische Fächer gelehrt. Die ETH kennt keine Nebenfächer, in allen Studiengängen sind jedoch Lehrveranstaltungen im Bereich der Geistes-, Sozial- und Staatswissenschaften (GESS) obligatorisch zu absolvieren. Der akademische Sportverband Zürich (ASVZ) bietet ein breites Hochschulsportangebot mit über 80 Sportarten an, von Aerobic über Kletterkurse bis zu Yoga. Die wichtigsten Sportanlässe sind dabei die SOLA-Stafette, die über eine Distanz von 120 Kilometern im Grossraum Zürich durchgeführt wird, sowie der jährliche Rudermatch Uni-Poly zwischen der ETH und der Universität Zürich, der 2008 zum 57. Mal ausgetragen wurde. Die ETH führt bei den Herren noch mit 33 zu 22, die Universität gewann das Duell zuletzt jedoch 17 Mal in Folge. Zweimal musste das Rennen abgebrochen werden. An der ETH Zürich ist ebenfalls der akademische Teil der Militärakademie (MILAK) der Schweizer Armee beheimatet. Im Rahmen ihrer Ausbildung besuchen angehende Berufsoffiziere den eigens dafür konzipierten Studiengang Staatswissenschaften. Studierendenorganisationen. Die Studenten der ETH Zurich sind im Verband der Studierenden an der ETH (VSETH) organisiert. Dieser Verein nach Schweizerischem Recht vertritt durch einen Rahmenvertrag die Studierenden innerhalb und ausserhalb der Hochschule und vereinigt in sich auch Studienfach spezifische Fachvereine, die ein breites Angebot an Veranstaltungen und Dienstleistungen für Studenten anbieten. Die Doktorierenden sind in der Vereinigung der Assistenten, Wissenschaftlichen Mitarbeiter und Doktoranden der ETH Zürich (AVETH) organisiert. Hochschulnetzwerke. Die ETH arbeitet in verschiedenen Verbünden mit anderen Hochschulen zusammen. Sie ist Gründungsmitglied der IDEA League, einer strategischen Allianz aus fünf führenden technischen Universitäten in Europa, deren Ziel es ist, Europa wieder an die Weltspitze in Technologie und Wissenschaft zu führen. Sie ist auch Mitglied im Netzwerk Top Industrial Managers for Europe, einem Zusammenschluss von 51 technisch orientierten Universitäten, das Austauschprogramme fördert und den Studenten Doppeldiplome ermöglicht. 2006 gründete sie zudem mit neun weltweit führenden Forschungsuniversitäten die International Alliance of Research Universities. Förderung durch die EU. Die ETH hat 84 ERC-Grants für Grundlagenforschung auf höchstem Niveau eingeworben, 586 Millionen Franken aus dem 7. Forschungsrahmenprogramm der EU flossen an den Forschungsstandort Zürich. Nachdem die Schweizer Regierung in Umsetzung der Volksinitiative «Gegen Masseneinwanderung» das bereits ausgehandelte Personenfreizügigkeitsabkommen mit Kroatien nicht unterzeichnete, setzte die EU die Verhandlungen über das 8. Forschungsrahmenprogramm aus. Der ehemalige ETH-Präsident Ralph Eichler sagte, wenn die Schweiz nicht mehr an den EU-Forschungsrahmenprogrammen teilnehmen könne, sei das, «wie wenn der FC Basel nicht mehr in der Champions League spielen könnte». Rankings. Im Times Higher Education World University Rankings belegte die ETH im Jahre 2015 den 9. Platz weltweit und den 4. Platz unter den europäischen Universitäten (den ersten Platz in Kontinentaleuropa). Im Bereich "Engineering & Technology" belegte sie im Times Ranking den 8. Platz und im Bereich "Physical Science" den 11. Platz. Im Shanghai Ranking 2015 belegte die ETH weltweit den 20. Platz (den vierten innerhalb Europas und den ersten auf dem europäischen Festland). Die ETH belegte weltweit den 8. Platz in der Kategorie "Natural Sciences and Mathematics". In den QS World University Rankings des Jahres 2015 belegte die ETH insgesamt den 9. Platz. Berühmte Persönlichkeiten. Darüber hinaus erhielt Niklaus Wirth, Entwickler mehrerer Programmiersprachen, 1984 den Turing Award, die höchste Auszeichnung der Informatik, und die beiden ETH-Absolventen Jacques Herzog und Pierre de Meuron erhielten 2001 den Pritzker-Preis, den renommiertesten Architektur-Preis. Der Mathematiker Wendelin Werner ist Träger der Fields-Medaille, die als höchste Auszeichnung der Mathematik gilt. Weitere berühmte Persönlichkeiten in Verbindung mit der ETH Zürich werden in der Liste bekannter Persönlichkeiten der ETH Zürich aufgeführt. Einzelnachweise. Zurich, Eth Zurich, Eth Eth Zurich Editor. Editor (von ‚herausgeben‘, ‚Herausgeber‘) steht für Editor (von [Texte etc.] ‚herausgeben‘, ‚redigieren‘, ‚bearbeiten‘, aber auch [Filme] ‚schneiden‘) steht für El Torito. El Torito ist eine Spezifikation, die angibt, wie CD-ROMs formatiert sein sollen, damit Computer, die dafür durch ein entsprechendes BIOS eingerichtet sind, direkt von CD-ROM starten können, ohne dass die vorherige Installation eines Betriebssystems auf dem Festplattenlaufwerk erforderlich ist. Beim Start der Festplattenkopie bezeichnet ein MS-DOS- oder Windows-kompatibles Betriebssystem das Laufwerk mit der CD-ROM als C:, alle weiteren Festplatten beginnen bei D:. Die robustere Variante ist der Start von einem Floppy-Abbild (auf der CD). In diesem Fall wird die CD-ROM mit A: von einem MS-DOS- oder Windows-kompatiblen Betriebssystem bezeichnet. Das ursprüngliche Floppy-Laufwerk A: kann dann mit B: angesprochen werden. Der Programmcode dagegen wird beim Starten direkt in den Speicher geladen und dort ausgeführt. Diese Option wird gern von Bootloadern verwendet. Endoskop. Ein Endoskop ("éndon" ‚innen‘; "skopein" ‚beobachten‘) ist ein Gerät, mit dem das Innere von lebenden Organismen, aber auch technischen Hohlräumen untersucht oder gar manipuliert werden kann. Ursprünglich für die humanmedizinische Diagnostik entwickelt, wird es heute auch für minimal-invasive operative Eingriffe an Mensch und Tier sowie in der Industrie zur Sichtprüfung schwer zugänglicher Hohlräume eingesetzt. Grundarten und Arbeitsdurchmesser. Zu den Endoskopen zählen die "starren" und "flexiblen" Endoskope und deren Unterarten. Für Endoskope werden herstellerbezogen oft unterschiedliche Namen verwendet, so z. B. für starre Endoskope: Boreskope oder auch Boroskope, Technoskope, Autoskope, Intraskope; für flexible Glasfaser-Endoskope u. a. Fiberskope oder Flexoskope. Gebräuchliche Arbeitsdurchmesser von starren Boreskopen sind 1,6 bis 19 mm. Halbstarre Boreskope (auch elastische oder semiflexible genannt) sind ab 1,0 mm, flexible Endoskope von 0,3 bis 15 mm und Videoendoskope von 3,8 bis 12 mm erhältlich. Starre Endoskope. Ein "starres" Endoskop ("engl./techn. Rigid Borescope") leitet die Bildinformationen des zu Untersuchenden Objektes bzw. Raumes durch ein Linsensystem im Inneren des Endoskopschaftes an das Okular weiter. Beispiele sind das technische Boreskop (siehe unten) und med. das Arthroskop und Zystoskop. Stark verbreitet ist das von Harold H. Hopkins entwickelte Stablinsensystem. Hier wird das Licht durch Stablinsen aus Quarzglas geleitet und an Luftlinsen zwischen den Stäben gebrochen. Diese sehr lichtstarke Bauweise ermöglicht kleinere Linsendurchmesser. Die meisten aktuellen Endoskope bieten durch einen Fokussierungsring in der Nähe des Okulars die Möglichkeit das Bild auch für Brillenträger auf die optimale Schärfe einzustellen. Das für die Untersuchung/Inspektion notwendige Licht der Lichtquelle wird über den angeschlossenen Lichtleiter, ebenfalls im Inneren des Schaftes durch Glasfaserbündel an die Spitze des Endoskopes transportiert. Der Preis eines starren Endoskopes hängt von der Güte der verwendeten Linsen, den Blick/Sichtwinkeln des Objektivs und der Arbeitslänge bzw. dem Arbeitsdurchmesser ab. Im Mittel handelt es sich hier um einen Betrag im eher niedrigeren vierstelligen Eurobereich. Starre Endoskope mit objektivseitig reflektierendem Schwenkprisma können in Hohlräumen zur Seite blicken. Durch Drehen des Endoskops in seiner Hauptachse und Schwenken des die Blickrichtung davon ablenkenden Prismas lässt sich ein größerer Raumwinkel im Hohlraum abtastend betrachten. Ähnliches leistet schon ein kleiner polierter Metallspiegel, der durch biegsamen Draht und Aufsteckhülse mit dem Endoskopobjektivkopf verbunden ist. Flexible Endoskope. Bei einem "flexiblen" Endoskop (bzw. Flexoskop oder engl., die Namensgebung ist z. T. Herstellerabhängig) werden Bild und Licht über Glasfaserbündel übertragen. Beispiele sind das technische Flexoskop (siehe unten) und das med. Gastroskop, Koloskop und Bronchoskop. Ab einem praktikablen Durchmesser sind Fiberskope/Videoskope auch mit auswechselbaren statt festmontierten Objektiven ("Vor/Seit" oder "Rückwärts") sowie Arbeitskanälen zum Einführen von mikromechanischen Geräten (kleine Zangen oder Greifer) in den Untersuchungs- bzw. Inspektionsraum erhältlich. Flexible Glasfaser-Endoskope (Fiberskope) und Video-Endoskope (Videoskope) besitzen meist eine über eingebaute Bowdenzüge fernsteuerbare Gerätespitze. Diese kann je nach Modell und Durchmesser nach 2 ("auf-ab") oder nach 4 Seiten ("auf-ab" und "rechts-links") teilweise bis zu 180° abgewinkelt werden. Die Länge dieser abwinkelbaren Spitze kann je nach Durchmesser zwischen 30 und 70 mm liegen. Im Handgriff des Gerätes ist eine Mechanik eingebaut, die über Kippbügel oder Handräder auf die Bowdenzüge einwirkt und diese Bewegung der Spitze ermöglicht. "Siehe auch: Medizinische Endoskopie und Mikromechanik" Videoendoskope. Die jüngste Unterart der flexiblen Endoskope bilden die Videoendoskope'", oft auch Videoskope genannt (engl. bzw.), wobei die Namensgebung herstellerabhängig ist. Videoendoskope eröffnen ein neues Kapitel in der modernen Endoskopie, da sie zur Bilderzeugung und -übertragung digitale Technologien nutzen. Ein am Objektiv des Videoendoskopes angebrachter CCD- bzw. CMOS-Chip ("siehe auch: Digitalkamera") erzeugt ein digitales Bild des Untersuchungsobjektes und leitet es an die folgenden Baugruppen des Videoendoskopes weiter. Meist bereitet dann ein Prozessor diese Daten auf, sendet sie zur Ausgabe an einen Monitor, oder legt sie auf einer Festplatte oder anderen Datenspeichern ab. Videoendoskope ermöglichen je nach Ausstattungsvariante das Einfrieren und Speichern von Bildern sowie mehrstündige Videoaufzeichnungen für eine nachträgliche Aufbereitung/Optimierung oder auch das Vermessen eines Bildes bzw. Objektes. Auch diese Gerätetechnik besitzt eine fernsteuerbar, abwinkelbare Gerätespitze, nach 2 oder 4 Richtungen. Diese können mechanisch oder elektronisch gesteuert werden. Die mechanische Steuerung erfolgt über ein kleines Getriebe über Kipphebel oder Drehräder. Einige Videoskope haben anstelle der Mechanik kleine Elektromotoren eingebaut, die über einen Joystick die Bowdenzüge steuern. Generell kann zwischen zwei Leistungsgruppen unterschieden werden. In der Regel ist der CCD-Chip dem Glasfaser-Endoskop und dem CMOS-Videoscope von der optischen Bildqualität überlegen, aber das flexible Endoskop und vor allem das CMOS-Videoscope sind dagegen etwas preiswerter. Die Bildqualität der Glasfaser-Endoskope sind nicht mit der Pixelanzahl des CCD oder CMOS-Sensors gleichzusetzen. Die beste Bildqualität hängt immer von der Kombination von Videosensor, optischem Linsensystem, Lichtmenge und Bildausgabe (= großer, kontrastreicher, farb- und detailgetreu auflösender Monitor) ab. Neuerdings kommen bei Videoskopen anstelle der externen Lichtprojektoren, auch LED-Leuchtkörper zum Einsatz. Diese können in der Gerätespitze eingebaut sein, oder auch im Handgriff. Im letzteren Fall wird dann auch da das Licht über eingebaute Glasfasern nach vorn zur Spitze geleitet. In der Gerätespitze eingebaute LEDs haben eine sehr gleichmäßige Ausleuchtung. Jedoch erreichen LEDs momentan noch nicht die Leuchtkraft eines Xenon-Lichtprojektors. Bekannte Hersteller digitaler Videoendoskope sind Olympus, Pentax Medical, Fujinon und Karl Storz. Basiskomponenten. Einzelne Komponenten verschiedener Hersteller lassen sich in der Regel nicht ohne weiteres kombinieren. Ein Lichtleiter oder Endoskop des einen Herstellers kann beispielsweise nicht ohne weiteres an einer Lichtquelle eines anderen Herstellers betrieben werden. Namhafte Hersteller bieten hierfür auf Nachfrage passende Adapter an. Zur Erleichterung der praktischen Arbeit mit Endoskopen werden von der Industrie verschiedene Haltearmsysteme angeboten. Prinzip eines Bildleiters aus Glasfasern Bild vom Inneren eines Uhrenwerks mittels Glasfaser-Bildleiter. Die einzelnen Fasern und Farbfehler sind deutlich zu erkennen, welche die schlechte Bildqualität bedingen. Lichtquellen. Insbesondere die Nutzung digitaler Bildübertragungstechniken ("Videoendoskopie") mittels CCD-Chips machte den Einsatz teurer Xenon-Lampen notwendig. Deren Lichtstärke ist zwar exzellent, ihre Standzeit wird jedoch stark von den jeweiligen Ein/Ausschaltzyklen bestimmt. Es gilt: "Je mehr Zyklen desto geringer die Standzeit." Leuchtmittel wie Xenon-Lampen entwickeln während des Betriebes enorm viel Wärme, welche zum größten Teil durch den Infrarotanteil des Leuchtmittelspektrums verursacht wird. Daher muss verhindert werden, dass der IR-Anteil zum Lichtaustritt des Endoskopes gelangt. Moderne Lichtquellen sind daher in der Lichtstärke regelbar, durch einen Ventilator gekühlt und die infrarote Strahlung wird durch dichroitische Hohlspiegel, sowie (zusätzlich) durch Wärmeschutzfilter vor dem Lichtleiter, weitgehend aus dem Lichtspektrum entfernt. Diese Systeme werden als Kaltlichtquellen und die Leuchtmittel als Kaltlichtspiegellampen bezeichnet. Eine weitere, und aufgrund des niedrigen Strom/Kühlungsbedarfs, von Vorteil geprägte Entwicklung sind Geräte mit Leuchtdioden (Light Emitting Diode, LED) als Lichtquelle. Die Lichtleistung von LEDs kann sich jedoch zurzeit noch nicht mit der von Xenonlampen messen. Dennoch öffnet diese Technik neue Einsatzgebiete und bietet speziell für Lichtquellen im Akkubetrieb eine interessante Alternative. Lichtleiter. Für endoskopische Lichtleiter werden hauptsächlich Glasfasern verwendet. Es gibt aber auch Lichtleiter, die das Licht mittels eines Gels als Transportmedium leiten können. Gellichtleiter oder auch Flüssigkeits-Lichtleiter genannt, bieten eine stärkere Lichtausbeute was besonders für große Räume und die digitale Endoskopie im Allgemeinen von Vorteil ist. Die Flüssigkeitslichtleiter sind in der Regel besser für die Übertragung von UV-Licht geeignet, als Glasfasern. Gel/Flüssig-Lichtleiter sind in der Verwendung etwas unhandlicher und nicht so biegsam, sowie etwas teurer, als Glasfaser-Lichtleiter. Ohne angeschlossenen Lichtleiter sieht man zwar ein Bild durch das Endoskop, dieses ist jedoch zu dunkel um in geschlossenen Räumen verwertbare Ergebnisse zu erzielen. Bildleiter. Bildleiter sind aus vielen Tausend einzelnen Glasfasern, mit einem Durchmesser von 7 bis 10 µm aufgebaut. Dies entspricht einer Auflösung je nach Durchmesser von 3.000 bis 42.000 oder 75 × 45 bis 240 × 180 Bildpunkten (Pixeln). Pro Faser kann jeweils eine Helligkeits- und Farbinformation übertragen werden. Der Moiré-Effekt, der durch die Überlagerung des Faserrasters mit dem CCD-Raster entsteht, kann die Qualität des Bildes vermindern, weshalb vermehrt Videoskope bzw. Video-Endoskope mit eingebautem CCD Chip am distalen Ende verwendet werden. Messtechnik. Auf dem Gebiet der Messtechnik bieten verschiedene Hersteller Messverfahren an. Jede Messtechnik birgt für sich, für den jeweiligen Verwendungszweck, Vor- und Nachteile. Insbesondere in der technischen Endoskopie werden in vielen Anwendungsgebieten Messsysteme eingesetzt, die heute zum Teil erstaunlich genaue Ergebnisse liefern können. Anwendungsgebiete hierfür sind Flugzeugturbinen oder Kraftwerksbereiche. Diese Messarten liefern nur bei einer senkrechten Ausrichtung des Messendoskopes auf die zu messenden Oberfläche eine exakte Messung. Aktuelle Forschung befasst sich mit der Möglichkeit 3D-Daten endoskopisch zu erfassen. Hierzu wird meist der Ansatz der Streifenprojektion als Variante der flächigen Triangulation eingesetzt. Abhängig von den eingesetzten Optiken können technische Innengeometrien mit Auflösungen im unteren µm-Bereich erfasst und ausgewertet werden. Wie bei jedem Messgerät hängt die Messgenauigkeit eines Endoskopmesssystems entscheidend von der Schulung und Erfahrung des Anwenders ab. Ein komplett ausgestattetes, messfähiges Videoendoskop kann einen hohen fünfstelligen Eurobetrag kosten. Gesetzmäßigkeiten. "Je größer der Durchmesser, desto heller und weiter das Bild." "Großer Sichtwinkel = geringe Vergrößerung (Weitwinkel in der Fotografie)" "Kleiner Sichtwinkel = starke Vergrößerung (Teleobjektiv in der Fotografie)" "Der Vergrößerungsfaktor beschreibt die Objektgröße im Bild relativ zur realen Objektgröße" "Der Vergrößerungsfaktor verhält sich invers proportional dem Abstand: Objektiv/Gegenstand" ("abhängig von weiteren Faktoren") Kennzeichnung. Endoskope werden mit einem Schlüssel ihrer Merkmale gekennzeichnet, dieser findet sich in der Regel Arbeitsdurchmesser = 6,00 mm, Blickwinkel = 70°, Sichtwinkel = 67°. Ein eher vergrößerndes Endoskop mit einem vorausblickenden Objektiv. Zeittafel. Pionierunternehmen der Endoskopie sind Olympus, Karl Storz und die Richard Wolf GmbH. Technisch. Endoskopischer Blick in ein Flugzeugtriebwerk In der Luftfahrt wird die Endoskopie seit den 1950er-Jahren für die Wartung zum Beispiel von Flugtriebwerken eingesetzt. Unter Zuhilfenahme des Arbeitskanals und von Mikrowerkzeugen können auch kleinere Reparaturen an Triebwerkschaufeln durchgeführt werden. So etablierte sich in diesem Bereich der Begriff Boroskopie (v. engl. "Borescope; bore" „Bohrloch/Bohrung“). Das Flexoskop findet im Englischen seine Entsprechung als Flexiscope oder Flexoscope. "Endoskopie" (engl. "Endoscopy") stellt den Oberbegriff für diese Technologie dar. Rundblick-Endoskope. Schnittzeichnung Rundblickendoskop in einem Zylinder Ringförmiges Bild einer Zylinderwand mit umlaufender Nut und Querbohrungen Rundblickprisma an der Spitze eines Rundblickendoskops Das Rundblickendoskop ist ein spezielles technisches Endoskop (engl. "Borescope" für Industrie-Endoskop, im Gegensatz zum medizinischen Endoskop) für die Inspektion von zylindrischen Hohlräumen. Ein Endoskop erzeugt im Normalfall ein rundes, scheibenförmiges Bild, ein Rundblickendoskop liefert dagegen ein ringförmiges Bild, d. h. in der Mitte der Austrittspupille befindet sich keine Bildinformation. Dies unterscheidet das Rundblickendoskop grundlegend auch vom Fischaugenobjektiv, bei dem sich die wesentliche Bildinformation in der Mitte der Austrittspupille befindet. Ein Fischaugenobjektiv schaut jedoch hauptsächlich nach vorn, das Rundblick-Prisma jedoch mehr zur Seite, dies jedoch ringsum (siehe Illustration). Entstehungsgeschichte. Im Zuge steigender Material- und Qualitätsanforderungen werden industrielle Bauteile immer häufiger einer optischen Serienprüfung unterzogen. Bei unzugänglichen Oberflächen werden technische Endoskope als Hilfsmittel eingesetzt. Zur Innenprüfung zylindrischer Objekte, z. B. von einem Hydraulikzylinder, sind dies Endoskope mit einer seitlichen Blickrichtung, d. h. die optische Achse wird mittels Spiegel oder Prisma umgelenkt (vergleichbar mit einem Periskop). Zur vollständigen Erfassung der Oberfläche müssen Objekt und Endoskop zueinander linear verschoben und rotiert werden. Um die aufwändige Rotationsbewegung zu vermeiden, wurde versucht, die Umlenkspiegel durch kegelförmige Spiegel zu ersetzen, die mit der Spitze auf das Endoskop aufgesetzt wurden. Diese Konstruktionen waren mechanisch, optisch und in der Anwendungspraxis unbefriedigend und haben sich nicht etabliert. In der Endoskopie werden generell Umlenkprismen gegenüber Spiegeln bevorzugt. Spiegel sind sehr empfindlich bei Staub oder Schmutz und beeinträchtigen das Bild erheblich. Wenn man ein solches Prisma virtuell um die optische Achse des Endoskops rotiert, entsteht ein einfaches Rundblickprisma. Erstmals wurde 1985 ein Geradeausblick-Endoskop vorn an der Spitze mit einem speziellen Prisma versehen. Das war eine Glaskugel, in die von vorn ein Kegel eingeschliffen wurde, der optisch verspiegelt wurde. Über diesen „Kegelspiegel“ konnte nun die Oberfläche eines Segmentes ringsum auf einen Blick betrachtet werden. Die Anforderung war damals die 100 %-Innenkontrolle an Auto-Hauptbremszylindern. Diese Teile, mit ihren gehonten Innenflächen mussten einwandfrei und ohne Lunker und Kratzer sein. Da es sich um ein wichtiges Sicherheitsteil am Auto handelt, war eine 100 % Kontrolle unumgänglich. Im Laufe der Jahre wurde diese Technik noch verfeinert und auch anderen Anwendungen und Anforderungen angepasst. Schleift man z. B. anstelle des Kegels einen Radius in die Glaskugel ein, dann erreicht man sogar einen Rückblick und das ringsum. Diese Rundblickprismen, die ein erheblich besseres Bild als Spiegel liefern, wurden ständig weiterentwickelt und erfüllen heute höchste Ansprüche, sind sogar für automatische Bildverarbeitung geeignet. Bilderzeugung und -wirkung. Das Rundblickprisma besteht aus mehreren ineinander gefügten sphärischen Glasflächen. Es sammelt die gesamte 360°-Bildinformation von einem Längenabschnitt des Zylinders. Die Länge des Abschnittes hängt vom Bildwinkel (Sehfeld, FOV) des Rundblickprismas und dem Abstand der Oberfläche vom Endoskop ab. Bei direkter visueller Betrachtung oder Verwendung einer industrieüblichen Matrixkamera erscheint das Bild radial verzerrt. Die Verzerrung kann entweder über eine nachgeschaltete Bildverarbeitung beseitigt werden oder durch Verwendung einer ringförmigen Zeilenkamera, deren Streifenbilder aneinandergefügt eine verzerrungsfreie Abwicklung der Zylinderinnenwand liefern. Medizinische Endoskopie. Medizinische Endoskope haben die Untersuchung des Magen-Darmtraktes, der Lunge und auch der Gebärmutter revolutioniert. Sogar die ableitenden Tränenwege können endoskopisch untersucht werden. Die ältesten und einfachsten noch im Gebrauch befindlichen Endoskope bestehen aus einem starren Rohr, durch welches das notwendige Licht hineingespiegelt wird und wodurch man mit dem bloßen Auge sieht. Daher spricht man volkstümlich von „Spiegelung“. Die längeren Geräte waren zusätzlich mit Linsen in einem Schlauch am vorderen Ende ausgestattet und ermöglichten erstmals passiv geringe Bewegungen. Eine erste Weiterentwicklung bestand darin, ortsfern erzeugtes Licht mit Glasfaserbündeln an die Rohrspitze zu bringen. Der nächste Entwicklungsschritt war, auch die Bildinformation über flexible, geordnete Glasfaserbündel, die Bildleiter, zum Auge des Untersuchers zu übertragen. Erst hiermit wurde das Endoskop wirklich flexibel. Die aktive Steuerung des Gerätes erfolgt seither über vier eingearbeitete Bowdenzüge. Heutzutage wird, vor allem unter stationären Bedingungen, das Bild nicht mehr direkt mit dem Auge (weder am starren Rohrendoskop, noch am Okular des flexiblen Endoskops) betrachtet, sondern an einem oder mehreren modernen Monitoren'", die die Farbinformation möglichst wenig verfälschen, und die die Arbeit und das Lehren (Kibitzen) ohne Qualitätsverlust bei Tageslicht ermöglichen. Dadurch eröffnet sich zusätzlich auch die Möglichkeit der Aufzeichnung auf Videoträger oder eine Übertragung in Hörsäle. Eine interessante neuere Entwicklung ist die „"Endoskoppille"“ oder Kapselendoskopie: Eine Minikamera, die peroral in Form einer Pille eingenommen und durch die natürliche Peristaltik durch den Verdauungstrakt transportiert wird, nimmt in fortlaufender Serie Aufnahmen des Darms auf. Die Kapsel ist für den Einweggebrauch (once disposable) konzipiert. Diese Technik wie auch die Auswertung sind aufwendig, aber im Falle verborgener Blutungen oder kleiner Tumore im Dünndarm als „ultima ratio“ äußerst hilfreich. Ein zeitgleicher therapeutischer Eingriff wie bei den anderen endoskopischen Methoden ist derzeit nicht möglich. Von großer Wichtigkeit ist die Desinfektion der flexiblen Geräte, die hitzeempfindlich und daher einfachen Methoden nicht zugänglich sind. Heute wird durch moderne Desinfektionsgeräte die Keimarmheit der Endoskope garantiert. Das erste Desinfektionsgerät wurde 1976 von einer Arbeitsgruppe um S.E. Miederer entwickelt. Vorbereitung in der medizinischen Endoskopie. Bei den meisten endoskopischen Untersuchungen erfolgt für den Betroffenen zur Erleichterung eine Prämedikation, das heißt, es wird ein Beruhigungsmittel, zum Beispiel Midazolam, oder das Narkosemittel Propofol gegeben. Typisch medizinische endoskopische Untersuchungs- und Behandlungsmethoden. Training mit starrem Endoskop, Santiagodechile2007 Besonderheiten im Umgang. Endoskope sind Präzisionsinstrumente und müssen sorgfältig behandelt werden. Jegliche Beschädigung des Schaftes und allzu harte Schläge können zum Lösen bzw. Verrutschen der Linsen im Inneren führen. Ein typisches Anzeichen hierfür ist die Eintrübung der Okularoptik, die bei weiteren Beschädigungen auch zum Komplettausfall des Endoskopes führen kann. Das Schaftende mit dem Prisma ist besonders gegen zu hohe Temperaturen (z. B. in der technischen Anwendung) zu schützen. Jeder Hersteller gibt eigene Empfehlungen hierfür an, als Richtwert gilt eine Obergrenze von +65 bis +70 Grad Celsius. Einige Anbieter erreichen bis zu 150 bis 200 Grad Celsius und mit speziellen Kühlvorrichtungen bis zu 650 Grad Celsius. Wird der Glasfaserbildleiter eines Flexoskopes extrem stark gebogen oder gar beschädigt, können einzelne Glasfasern brechen, was sich durch kleine schwarze Punkte in der Optik des Flexoskopes bemerkbar machen wird. Entwicklung. Eventuell werden bald auch CMOS-Bildsensoren in Videoendoskopen eingesetzt. Diese Art von Bildsensoren verspricht eine kostengünstigere Fertigung und weitere Vorteile in der Bildbearbeitung. LEDs werden in ihrer Leistungsfähigkeit und Lichtausbeute immer besser, so dass es bereits Hersteller gibt, die sie in starren Videoendoskopen verbauen. LEDs erreichen heute eine Lichtausbeute von über 200 lm/W und der Stromverbrauch – wichtig bei akkubetriebenen Lichtquellen – ist geringer als bei herkömmlichen Lichtquellen. Da die Handhabung von Instrumenten hohe Anforderungen an den Endoskopierenden hinsichtlich der Koordination der Instrumentes im Raum stellt, wird von Seiten der Industrie seit einigen Jahren die 3D-Technik zur Verfügung gestellt. Hierzu sind geeignete Instrumente Monitore und Brillen zur einwandfreien Bilddarstellung notwendig. Elefantenvögel. Die Elefantenvögel (Aepyornithidae, auch Madagaskar-Strauße oder madagassisch Vorompatras) sind eine ausgestorbene Familie der Laufvögel mit den zwei Gattungen "Aepyornis" und "Mullerornis". Sie ist durch Fossilien und zahlreiche subfossile Eifunde von der Insel Madagaskar vor der Ostküste Afrikas bekannt. Die erstmalige Entdeckung eines Fossils dieser Vögel gelang dem Franzosen Alfred Grandidier während einer seiner Forschungsreisen auf der Insel zwischen 1865 und 1870. Anatomie. Die Aepyornithiden wiesen die typische cursoriale (auf Schnelläufigkeit abgestimmte) Anatomie eines Bodenvogels auf: Die Beine waren lang und die Zehen kurz, während der Flugapparat nahezu gänzlich zurückgebildet wurde. Die Armknochen sind bis auf den Oberarmknochen verloren, das Brustbein ist flach und ungekielt. Der Hals ist lang und trägt einen relativ gesehen kleinen Schädel. "Aepyornis maximus" war der größte Vertreter des Taxons und dürfte zwischen 2,7 und 3 m Höhe und über 400 kg Gewicht erreicht haben. Damit handelt es sich um einen der größten bekannten Vögel der Erdgeschichte und den größten Vogel in historischer Zeit, nur übertroffen von dem etwa gleich hohen, jedoch mutmaßlich schwereren "Dromornis stirtoni" aus dem Miozän oder vergleichbar mit "Brontornis burmeisteri", der zwar ebenfalls etwa gleich hoch wurde, jedoch ein geringer geschätztes Gewicht von ca. 350 bis 400 kg erreichte. Die Riesenmoa ("Dinoris") mit einer Scheitelhöhe von bis zu 3,6 m und einem geschätzten Gewicht von um die 250 kg, die am Ende des 14. Jahrhunderts ausgerottet wurden, waren die einzigen Vögel, die während historischer Zeit ähnliche Ausmaße erreichten. Von "Aepyornis maximus" sind auch subfossile Eierschalen und komplette Eier bekannt, deren Umfang in einigen Fällen bis zu einem Meter und die Länge 34 cm beträgt. Evolution und Biogeographie. Die Aepyornithiden waren auf Madagaskar endemisch. Madagaskar trennte sich bereits in der Kreidezeit vom Kontinent Afrika, was einige auf einen Verlust der Flugfähigkeit der Vorompatra in situ schließen ließ. Phylogenomische Studien stützen die Paraphylie der Laufvögel in klassischer Auffassung und suggerieren einen unabhängigen Verlust der Flugfähigkeit innerhalb der Laufvögel. Mitochondriale DNA legt nahe, dass Elefantenvögel innerhalb der Urkiefervögel nahe mit einem Taxon der Kiwis, Emus und Kasuaren verwandt sind. Nahrung. Es gibt keine direkten Belege der Nahrung, die Elefantenvögel üblicherweise zu sich nahmen. Die meisten heute lebenden Laufvögel sind Omnivoren. Es gibt jedoch dick beschalte Regenwaldfrüchte auf Madagaskar, die nach Meinung einiger auf die Verdauung durch Laufvögel ausgelegt waren. So weist etwa die Frucht der heute stark bedrohten Kokospalme "Voaniola gerardii" eine derartige dicke Schale auf, und einige madagassische Palmfrüchte zeigen eine dunkelblau-violette Farbe (z.B. "Revenea louvelii" und "Satranala decussilvae"), ähnlich jenen Früchten, die von Kasuaren bevorzugt werden. Arten. Die Familie Aepyornithidae wird üblicherweise in zwei Gattungen unterteilt, "Aepyornis" mit vier Arten und "Mullerornis" mit drei Arten. Aussterben. Vorompatras waren einst häufig auf Madagaskar und über die ganze Insel verbreitet. Man stimmt weitestgehend darüber überein, dass das Aussterben des Elefantenvogels auf menschliche Einflüsse zurückzuführen ist. Womöglich dienten die großen Vögel als wichtige Fleischlieferanten. Es gibt mehrere Belege von geschlachteten Elefantenvögeln. Insbesondere die Eier der Vorompatras dürften gefährdet gewesen sein, es gibt Belege, dass diese als Mahlzeiten zubereitet wurden. Wahrscheinlich spielte auch die von den Ureinwohnern betriebene Brandrodung eine zusätzliche Rolle, da sie große Flächen des Lebensraums des Elefantenvogels zerstörte. Des Weiteren ist möglich, dass Krankheiten, übertragen durch eingeführtes Geflügel, eine Rolle spielten. Das Datum des Aussterbens der Elefantenvögel ist nicht sicher belegt. Archäologische Beweise belegen ein Fortleben bis mindestens zum Jahr 1000. Gelegentlich wird über ein Überleben des Vorompatra bis in das 17. Jahrhundert spekuliert. Der erste Gouverneur Madagaskars, Étienne de Flacourt, berichtete von einem großen Vogel, der die Eier eines Straußes legte und die Ampatres bewohnte. Dieser Vogel suche sich die entlegensten Regionen, um nicht von Menschen bedroht zu werden. Elefantenvogel. Oft wird angenommen, dass die Aepyornithidae der Ursprung der Legenden um den Vogel Roch (andere Schreibweisen: Vogel Ruch oder Rock) sind. Ein historischer Hinweis darauf findet sich in Megiser (1623). Die Bezeichnung Elefantenvogel rührt von Marco Polos Beschreibungen des Roch her, in welchen ein adlerähnlicher Vogel von der Größe eines Elefanten geschildert wurde. Eier des Vorompatra wurden möglicherweise irrtümlich als die eines riesigen Greifvogels interpretiert, was "Aepyornis maximus" diesen Namen einbrachte. Eine weitere Möglichkeit ist, dass der Roch auf Sichtungen des heute ausgerotteten madagassischen Verwandten des Kronenadlers basiert, "Stephanoaetus mahery". Vorompatra. "Vorompatra" ist die alte madagassische Bezeichnung für den "Aepyornis maximus", von der mehrere Schreibweisen existieren. "Vorompatra" bedeutet „Vogel der Ampatres“. Die Ampatres sind die heutige Androy-Region. Dies deckt sich mit de Flacourts Bericht, dem zufolge die angeblichen Reliktbestände des Elefantenvogels die Ampatres bewohnen würden. Erfundenes Mittelalter. Die These des Erfundenen Mittelalters (auch Phantomzeit-Theorie) besagt, dass etwa 300 Jahre, beginnend mit dem 7. Jahrhundert, erfunden wurden. So soll auf das Jahr 614 das Jahr 911 gefolgt sein. Heribert Illig stellte 1991 die These auf, man könne mit der Entfernung angeblich erfundener Jahre die Chronologie des Mittelalters korrigieren. Hans-Ulrich Niemitz, der sich dieser Vorstellung anschloss, nannte den Zeitraum dann "Phantomzeit", weil das Fränkische Reich nach Chlodwig I. ein Produkt der Fantasie oder der Täuschung gewesen sei. Insbesondere hätten laut dieser These Personen wie Karl der Große und die anderen Karolinger vor Karl III. dem Einfältigen entweder überhaupt nicht existiert, oder sie seien vor 614 beziehungsweise nach 911 einzuordnen. Von Geschichtswissenschaftlern und Mediävisten wird diese These als völlig verfehlt angesehen und zurückgewiesen. Grundlagen der These und ihre Widerlegung durch die Fachwissenschaft. Die These des "erfundenen" Mittelalters gehört zum Themenkomplex der Chronologiekritik und betrifft Kalenderkunde, Astronomie, Diplomatik, Archäologie, Architekturgeschichte und historische Geographie. Illig geht davon aus, dass innerhalb der Chronologie der Historischen Wissenschaften eine Zirkelreferenz vorliegt: Moderne absolute Datierungen wie die Radiokarbonmethode oder die Dendrochronologie seien an der als korrekt angenommenen Chronologie ausgerichtet und dürften daher nicht als Beleg für deren Richtigkeit angesehen werden. Eine neue Chronologie würde vielmehr zu einer Neufestlegung absoluter Datierungen und dadurch zu einer Neujustierung dieser Datierungsmethoden führen. Von Geschichtswissenschaftlern und Mediävisten wird die These des erfundenen Mittelalters als falsch zurückgewiesen. In der Öffentlichkeit hat sie ein gewisses Interesse gefunden. Kalenderkunde. Heribert Illig nimmt an, dass die bei der Kalenderreform durch Papst Gregor XIII. im Jahr 1582 vorgenommene Berichtigung des julianischen Kalenders (mittlere Jahreslänge = 365,25 Tage) von zehn Tagen um drei Tage zu kurz ausgefallen sei. Die tatsächliche Jahreslänge beträgt ca. 365,2422 Tage. Die Gesamtabweichung seit Einführung des julianischen Kalenders im Jahr 46 v. Chr. hätte sich bis 1582 auf insgesamt 12,70 Tage (0,0078 Tage × 1628) summiert. Aufgrund der Tatsache, dass 1582 diese drei Tage nicht korrigiert werden mussten, leitete Illig die "fehlenden drei Jahrhunderte" ab, die er in der Ausgabe "Zeitensprünge", Heft 3/1993, auf genau 297 Jahre berechnete und den in Frage kommenden Zeitraum auf September 614 bis August 911 eingrenzte. Dagegengehalten wird, dass das Datum der Tag-und-Nacht-Gleiche zur Einführung des julianischen Kalenders nicht überliefert ist und der 21. März als Frühlingsbeginn erst beim ersten Konzil in Nicäa im Jahr 325 n. Chr. für die weiteren Berechnungen des Osterdatums festgelegt wurde. Bis zur Kalenderreform im Jahre 1582 hatte sich in den vergangenen 1257 Jahren der astronomische Frühlingsbeginn vom 21. März um 9,73 Tage auf den 11. März verschoben, weshalb Papst Gregor XIII. die Kalenderreform im Jahr 1582 in der maßgeblichen päpstlichen Bulle ' verfügte und den 11. März mit der zehntägigen Korrektur nach vorne auf den 21. März verlegte. Somit widerspricht die Kalenderkorrektur um 10 Tage nicht der bestehenden Jahreszählung. Diplomatik. Illig behauptet, dass Originalurkunden aus dem besagten Zeitraum sehr spärlich seien und von Personen meist nur sehr unspezifisch sprächen. Überdies seien vom 10. Jahrhundert bis in die Zeit von Friedrich II. (Anfang 13. Jh.) zahlreiche Urkunden von Majuskel-Schrift auf Minuskel-Schrift umgestellt, also neu geschrieben worden, wonach man die alten Urkunden vernichtet habe. Eine Verfälschung um rund 300 Jahre sei dabei möglich gewesen. Nach dem Kenntnisstand der historischen Wissenschaften existieren jedoch für den fraglichen Zeitraum etwa 7000 Dokumente. Für die monastische Literatur sei das 9. Jahrhundert an Autoren und Manuskripten das reichste des gesamten frühen Mittelalters. Das Abschreiben war für die mittelalterlichen Zeitgenossen die einzige Möglichkeit, Texte zu kopieren. Eine pauschale Abwertung der Texte des Mittelalters, wie sie bei Illig zu finden ist, ist wissenschaftlich nicht haltbar. Archäologie. Die dritte Grundlage der These ist die Archäologiekritik. Sie basiert auf der Behauptung, dass es nur wenige archäologische Funde gebe und dass diese falsch in die Zeit zwischen dem 7. und 10. Jahrhundert n. Chr. datiert seien. Hierzu wurden Beispiele aus Bayern angeführt. Den geschichtswissenschaftlichen Publikationen kann dagegen entnommen werden, dass es für die fragliche Epoche eine große Zahl von archäologischen Funden gibt. In diversen Museen sind einige davon für die Öffentlichkeit zugänglich. Die Schichten zur Karolingerzeit lassen sich (etwa in Paderborn) eindeutig nachweisen. Auch die Ergebnisse der Dendrochronologie sprechen gegen Illigs Thesen. Astronomie. Die Astronomiekritik gehört nicht zu den Ursprungs- und Kernelementen der These Illigs. Durch astronomische Untersuchungen ist sie aber mittlerweile widerlegt. Als Gegenargument führt Illig an, dass seine Thesen durch astronomische Rückrechnungen „nicht streng widerlegbar seien“, weil diese seiner Meinung nach für den betreffenden Zeitraum auf zu „unsicheren Quellen“ beruhten. Er erklärt, dass es zwar Belege in Form astronomischer Beobachtungen gegen seine These gebe, beruft sich aber auf ein Zitat des Astronomen Dieter B. Herrmann, das sich nur auf Sonnenfinsternisse bezieht. Das Zitat ist aus dem Zusammenhang gerissen, Herrmann selbst verwahrt sich gegen die Benutzung seiner Worte durch Illig. Astronomische Ereignisse der Vergangenheit sind zwar im Einzelfall nur schwer eindeutig einem Datum zuzuordnen, die Betrachtung vieler historischer Beobachtungen ergibt aber ein konsistentes Bild. Wie Dieter B. Herrmann anführt, sind die Berichte von Hydatius von Aquae Flaviae über zwei totale Sonnenfinsternisse, die in Aquae Flaviae (heute Portugal) innerhalb eines Abstands von 29,5 Jahren auftraten, durch astronomische Berechnungen sehr genau. Sie sind eindeutig einem Zeitpunkt zuzuordnen und somit nicht mit der These Illigs in Einklang zu bringen. Weitere chronologiekritische Thesen. Erste chronologiekritische Thesen wurden von dem Historiker Harry Bresslau aufgestellt und von anderen Verfassern, so etwa von Wilhelm Kammeier aufgenommen. Einzelne Aussagen und gar Quellenangaben von Illig lassen erkennen, dass sie offenbar von Kammeier übernommen wurden, ohne dass dies den Lesern von Anfang an deutlich gemacht wurde. Eiderenten. Die Plüschkopfente ("Somateria fischeri") ist in Nordsibirien und Nordalaska beheimatet Die Eiderenten sind die Arten der Vogelgattung "Somateria" in der Familie der Entenvögel (Anatidae). Die deutschsprachige Bezeichnung dieser Gattung bürgerte sich durch den Handel mit Daunen der Eiderente, der vermutlich bekanntesten Vertreterin dieser Gattung, ein. Eiderdaunen gelten als ein Material mit sehr guter Wärmedämmung und wurden insbesondere für das Füllen von Bettdecken verwendet. Bis heute wird auf Island Eiderdaunen kommerziell geerntet und verarbeitet, über lange Zeit waren Eiderdaunen eines der wichtigsten Exportgüter dieser Insel. Sowohl die Bezeichnung für den Vogel als auch seine Federn (Eiderdaunen) sind dem isländischen "æðr" entlehnt. Beschreibung. Es handelt sich um große, auf dem Land plumpe und schwerfällige Enten. Der keilförmige Schnabel trägt bei zwei der drei Arten einen Frontalfortsatz. Der Geschlechtsdimorphismus ist besonders in der Färbung erheblich. Die Erpel haben im Prachtkleid eine grüne Färbung am Kopf, einen schwarzen Bauch und eine überwiegend weiße Oberseite. Im Ruhekleid dagegen sind sie schwarzbraun wie die Weibchen. Unter den Entenvögeln sind die Eiderenten die Gattung, die sich am meisten einem Leben auf dem Meer angepasst haben. Nichtbrütende Vögel leben ausschließlich auf dem Meer. Verbreitung und Lebensweise. Sie kommen in den nördlichen Küstenbereichen der Holarktis vor. Im Winter ziehen sie nach Süden in eisfreie Gewässer. Eiderenten leben im Allgemeinen in Küstennähe und tauchen nach Muscheln, Krabben, Krebsen und anderen Kleintieren. Sie sind gute Schwimmer und Taucher, denen selbst starker Seegang wenig ausmacht. Eiderente. Die Eiderente ("Somateria mollissima") ist eine Vogelart, die zur Familie der Entenvögel (Anatidae) gehört. Es ist eine große, massig wirkende Meerente, die an der arktischen Küste des Atlantiks und des Pazifiks lebt. In Europa kommt sie vor allem in Skandinavien vor. Die Brutpopulation der Nordseeküste ist wesentlich kleiner. Im Sommer finden sich im Wattenmeer jedoch große Scharen nichtbrütender Eiderenten ein, denen sich im Spätsommer auch noch große Scharen an Mauservögeln hinzugesellen. Die deutschsprachige Bezeichnung dieser Ente bürgerte sich durch den Daunenhandel ein. Sowohl die Bezeichnung für den Vogel als auch seine Federn (Eiderdaunen) sind dem isländischen "æðr" entlehnt. Im deutschen Sprachgebrauch wird sie gelegentlich auch als "Eidergans" oder "St.-Cubertsente" bezeichnet. Die lateinische Artbezeichnung "Somateria mollissima" weist auf die weichen und wärmenden Daunen dieser Entenart hin. Übersetzt bedeutet der wissenschaftliche Name "„die Allerweichste mit dem schwarzen Körper“". Beschreibung. An Land wirken Eiderenten wie dieser Erpel schwerfällig und plump. Die Eiderente ist mit einer Körperlänge von durchschnittlich 58 Zentimetern etwas größer als eine Stockente und erreicht durchschnittlich ein Körpergewicht von 2,2 Kilogramm. Männchen werden bei dieser Entenart in der Regel älter, größer und schwerer als Weibchen. An Land wirkt die Ente plump und schwerfällig, sie ist jedoch ein guter Schwimmer und Taucher, der selbst mit starkem Seegang gut zurechtkommt. Aufgrund der hohen Schnabelwurzel, die direkt in die Stirn übergeht, wirkt der Kopf der Eiderente keilförmig. Sie ist dadurch von anderen Entenarten gut zu unterscheiden, da dieses Profil nur bei dieser Entenart vorkommt. Während des Fluges ist die Eiderente an ihrer kräftigen Gestalt, dem dicken und kurzen Hals sowie der auffallenden Kopfform deutlich zu erkennen. Die Eiderente zeigt in der Gefiederfärbung einen deutlichen Geschlechtsdimorphismus. Das Brutkleid des männlichen Vogels, der wie bei allen Enten als Erpel bezeichnet wird, ist am Rücken und an der Brust überwiegend weiß. An der Brust ist das Gefieder leicht rosafarben überhaucht. Der Bauch, die Flanken, die Bürzelmitte, der Schwanz, die Ober- und Unterschwanzdecke sowie die Kopf-Oberseite sind schwarz gefiedert. Am Nacken ist das Gefieder dagegen hell moosgrün. Die Nackenfedern sind leicht verlängert, so dass sie eine kleine Holle bilden. Der Schnabel des Erpels ist beim Prachtkleid gelbgrün, ansonsten blaugrau bis grüngrau. Die äußeren Armschwingen sind schwarz, die inneren sind weiß und sichelförmig gebogen. Als Ruhekleid trägt das Männchen dagegen ein dunkelbraunes Gefieder, das stellenweise mit weißen Gefiederpartien durchsetzt ist. Die Bänderung des Gefieders ist allerdings etwas weniger auffällig als bei den Weibchen. Das Weibchen trägt während des gesamten Jahres ein unauffällig dunkel- bis gelblichbraunes Gefieder, durch das sich am Körper dichte schwarze Gefiederbänder ziehen. Hals und Kopf sind dagegen stärker einfarbig braun. Das Gefieder hat dort nur eine feine, braunschwarze Strichelung. Sie ähnelt damit im Gefieder den Weibchen vieler anderer Entenarten, durch die auffällige Kopfform ist sie jedoch leicht als Eiderente identifizierbar. Der Schnabel der Eiderente ist beim Erpel grünlich gefärbt, der der weiblichen Eiderente ist dunkelgrün. Die Schnabelspitze ist heller und weist eine breite und verhornte Spitze auf. Die Augenfarbe ist bei beiden Geschlechtern braun. Jungvögel beider Geschlechter gleichen in ihrer Gefiederfärbung den Weibchen. Sie sind jedoch etwas dunkler in ihrer Gefiederfarbe und weniger stark gebändert. Junge Erpel tragen das voll ausgebildete Prachtkleid des Männchens im 3. oder 4. Lebensjahr. Bereits im Prachtkleid des 2. Lebensjahres zeigen sie jedoch die deutlich die Schwarz-Weiß-Kontrastierung, wie sie für adulte Erpel typisch ist. Zu diesem Zeitpunkt finden sich im Kopf- und Halsbereich noch Federn mit gelbbraunen Rand. Teile des Rückengefieders sind noch schwarzbraun. Verbreitung und Bestand. Die Verbreitungskarte zeigt die Brutgebiete in Blau und die Überwinterungsgebiete in Grün. Die Eiderente kommt entlang der nördlichen Küsten von Europa, Nordamerika und Ostsibirien vor. Sie brütet von der Arktis bis in die gemäßigten Klimazonen, in Europa nach Süden etwa bis zum Wattenmeer und ins nordwestliche Frankreich. An der nordamerikanischen Atlantikküste reicht das Brutgebiet bis nach Maine, am Pazifik reicht das Brutgebiet bis nach Südalaska. Der Schwerpunkt des Brutgebietes der Eiderenten liegt auf Island, wo etwa 450.000 Paare brüten, sowie an der Ostsee, wo sich bis zu 600.000 Paare zur Brut versammeln. Als Brutplätze nutzt die Eiderente kleine vegetationslose Felseninseln und Schären, bewachsene oder bewaldete Inseln, geschützte und ruhige Meeresbuchten mit flachen Ufern. Der nordamerikanische Bestand wird auf 750.000 bis 1 Million Paare geschätzt. Die IUCN schätzt den Gesamtbestand der Eiderente auf 2,5 bis 3,6 Millionen Tiere und stuft die Art als „nicht gefährdet“ ein. Vögel aus den nördlichsten Brutgebieten, etwa aus Spitzbergen, ziehen zum Überwintern in die gemäßigten Breiten, wo sie in geeigneten Küstengewässern große Trupps bilden können. Sie überwintern damit in den südlicheren Regionen des Verbreitungsgebiets dieses Vogels. Die südlichen Populationen sind dagegen weitgehend Standvögel. Im Winter taucht die Eiderente regelmäßig in geringer Zahl auch in großer Entfernung zum Meer an den größeren Alpenseen auf. Seit den 70er Jahren übersommern hier immer wieder einige Vögel. Am Zeller See im Land Salzburg gelang 1972 sogar ein Brutnachweis. Auch in der Schweiz ist die Eiderente in Ausnahmefällen ein Brutvogel. 1988 brütete die Eiderente erstmals am Zürichsee, in den Folgejahren kam es auch zu weiteren Bruten am Neuenburger-, Vierwaldstätter- und Walensee. Lebensweise und Ernährung. Die gesellig lebende Eiderente gehört zu den tagaktiven Enten mit ausgeprägter Tauchfähigkeit. Sie lebt überwiegend von Muscheln bis zu einer Größe von 40 Millimetern und frisst außerdem Schnecken, Krebstierchen sowie – im Gegensatz zu anderen Entenarten –Fische. An der Nordseeküste nutzt sie vor allem die Miesmuschelbänke. Im Binnenland frisst die Eiderente außerdem die eingebürgerten Dreikantmuscheln. Pflanzliche Nahrung spielt bei dieser Ente keine große Rolle. Allerdings frisst das Weibchen während der Brutzeit auch Vegetabilien und nimmt dabei besonders die Pflanzen auf, die in der Nähe des Nestes wachsen. a>n zählen zu den Muschelarten, die von der Eiderente gefressen werden. Muscheln erbeutet die Eiderente, indem sie entweder den Wattboden absucht oder sie im Wasser ertaucht. Mit Hilfe ihres kräftigen Schnabels ist sie in der Lage, Muscheln von ihrer Unterlage abzureißen oder nach ihnen im Wattboden zu graben. Angespülter Seetang wird von ihr gleichfalls nach Wasserinsekten, Muscheln und Schnecken abgesucht. Die Eiderente taucht gewöhnlich nach Muscheln bis zu einer Gewässertiefe von sechs Metern und bleibt etwas mehr als eine Minute unter Wasser. Unter Wasser nutzt sie dabei ihre Flügel zur Fortbewegung. Einzelne Beobachtungen sprechen davon, dass die Eiderente auch wesentlich tiefere Meeresböden erreichen kann. Tauchgänge in Tiefen bis zu 50 Meter wurden bereits beobachtet. Die Muscheln werden mit den Schalen gefressen. In ihrem starken Kaumagen werden sie geknackt; die Schalentrümmer scheidet die Ente anschließend als Speiballen aus. Das mit der Nahrung aufgenommene Salz wird über Salzdrüsen in der Stirn wieder abgegeben. Die Eiderente nutzt die Gezeitenwechsel gezielt aus, um auch solche Meeresregionen nach Nahrung abzusuchen, die für sie bei Flut nicht erreichbar wären. Balzverhalten. Balzende Männchen rufen ein weiches "„ahoo“" und legen während des Rufens den Kopf in den Nacken. Zum Balzverhalten gehört auch ein Strecken des Körpers aus dem Wasser. Die Weibchen der Eiderente erreichen ihre Geschlechtsreife bereits in ihrem zweiten Lebensjahr. Nur ein Teil der zweijährigen Weibchen kommt allerdings auch schon zur Brut. Die Erpel dagegen beteiligen sich an der Balz erst in ihrem dritten Lebensjahr. Erst dann ist bei ihnen das Gefieder der erwachsenen Erpel weitgehend ausgebildet. Die Erpel beginnen mit ihrer Balz im Dezember. Erst im Spätwinter beteiligen sich auch die Weibchen daran. Es handelt sich um eine Gesellschaftsbalz, bei der sich bis zu 10 Männchen in der Nähe eines Weibchens versammeln. Junge, noch nicht geschlechtsreife Erpel halten sich häufig in der Nähe solcher balzenden Erpel auf und zeigen auch bereits erstes Balzverhalten. Während der Balz ruft das Männchen ein weiches, dumpfes zwei- bis dreisilbiges "„ahoo“" oder "hu-huúuu", das über das Watt oder die Wasserflächen sehr weit zu hören ist. Junge Männchen beherrschen diesen Ruf noch nicht. Ihr Ruf klingt heiserer und ist lautmalerisch mit "gro-gro-ó" umschrieben. Das Weibchen antwortet auf die Balzrufe des Männchens mit gockelndem "„goggoggoggog“" und knarrendem "„krrr“". Der Erpel zeigt während der Balzrufe eine charakteristische Körperbewegung, die gelegentlich auch als „"eine Verbeugung nach hinten"“ beschrieben wird. Dabei legt der Erpel seinen Kopf weit in den Nacken und wölbt die Brust vor. Gewöhnlich umwerben mehrere Männchen ein Weibchen. Zu den typischen Balzhaltungen der Erpel gehören ein Imponierschwimmen, bei dem der Kopf langsam von rechts nach links gedreht wird, sowie das Strecken des Körpers aus dem Wasser, bei dem die Flügel nach hinten weggespreizt werden. Die Paarung selbst ist nach wenigen Sekunden vorüber. Seine Paarungsbereitschaft signalisiert das Weibchen, indem es sich flach auf das Wasser legt. Zur Paarung schwimmt der Erpel auf die Ente, drückt sie dabei fast völlig unter Wasser und beißt ihr mit dem Schnabel in den Nacken. Die Paarung selbst dauert nur wenige Sekunden. Bei der Ankunft im Brutgebiet ist die Mehrzahl der Weibchen verpaart. Eine Paarbindung besteht in der Regel nur für ein Jahr. Die ortstreuen Weibchen verpaaren sich aber gelegentlich mit dem gleichen Erpel im nächsten Jahr erneut, wenn dieser in dasselbe Revier zurückkehrt. Brut. Eiderenten brüten einzeln oder in kleinen Gruppen. Häufig befinden sich in den Brutgebieten aber auch größere Kolonien. Kolonien von bis zu 1.000 Paaren kommen beispielsweise auf Island vor. An geeigneten Plätzen können sich zwei bis drei Nester je Quadratmeter befinden. Eiderenten meiden Steilufer, schroffe Felsen und windexponierte Stellen. Steigt das Ufer sanft an, befinden sich die Kolonien mitunter mehrere hundert Meter von der Küstenlinie entfernt, so dass die Nester auch bei Hochwasser nicht vom Wasser erreicht werden. Weibchen mit Küken im Hafenbecken der Helgoländer Düne Anfang Juni männliche Eiderenten im Schlichtkleid im Schleswig-Holsteinischen Wattenmeer Der Neststandort ist abhängig von den jeweiligen örtlichen Gegebenheiten. Auf vegetationslosen Brutplätzen errichtet das Weibchen das Nest zwischen dem Geröll. Das Nest ist dann nicht mehr als eine flache Mulde, die aber windgeschützt liegt. Ist eine krautige Vegetation oder Gebüsch vorhanden, liegen die Nester in ihrem Schutz. Gelegentlich nutzt das Weibchen auch alte Möwennester als Nistplatz. Auf bewaldeten Inseln errichten die Eiderenten ihre Nester auch im Schutz von Bäumen. Eiderenten nutzen regelmäßig ihre alten Brutplätze wieder, was die Vegetation in ihrem Brutgebiet beeinflusst. Bedingt durch den abgesetzten Entenkot sind die Stellen um die Nester krautig oder mit Zwergsträuchern bewachsen. Die Brutzeit liegt je nach Region und Wetterbedingungen im Zeitraum von Anfang April bis Mitte Mai. Das Weibchen legt in der Regel vier bis sechs grünlich-graue Eier in die mit Bauchdaunen ausgepolsterte Nistmulde. Das Legeintervall beträgt 24 Stunden. Sind mehr als neun Eier im Nest, handelt es sich in der Regel um Mehrfachgelege, die bei Eiderenten wie bei anderen in Kolonien brütenden Enten und Halbgänsen häufig vorkommen. Verlässt das Weibchen während der Brut die Eier, bedeckt es diese mit Daunen, um den Wärmeverlust zu vermindern. Durch Störungen aufgeschreckte Weibchen spritzen beim Auffliegen Kot über die Eier. Die Eier werden während einer Dauer von 25 bis 26 Tagen ausschließlich durch das Weibchen bebrütet, das während dieser Zeit fastet. Das Männchen hält sich während dieser Zeit in der Nähe des Nestes auf. Es schränkt in dieser Zeit sogar die Nahrungsaufnahme ein, so dass die Erpel an Körpergewicht verlieren. Ist die Brut jedoch hinreichend weit fortgeschritten, wandern die Männchen zu den Mauserplätzen ab. Die Jungvögel werden nach dem Schlüpfen von dem Weibchen geführt. Auf dem Meer schwimmend betreut das Weibchen die Jungvögel bis in den Spätsommer hinein. Diese Führungszeit beträgt etwa 65 bis 75 Tage. Während dieser Führungszeit kommt es häufig zur Vergesellschaftung mit mehreren Familien, die sich wieder auflösen, sobald die Jungvögel flugfähig sind. Zugverhalten. Eiderenten sind verhältnismäßig standorttreue Tiere, die zum Teil in ihren Brutrevieren auch überwintern. Der überwiegende Teil der Population nutzt allerdings separate Mauser- und Überwinterungsquartiere, wobei überwiegend nur kurze Strecken gezogen werden. Zur Mauser ziehen die Vögel nach der Brut in ihre Mauserquartiere, viele Vögel sind dann beispielsweise im Wattenmeer anzutreffen. Dabei bevorzugen die nur eingeschränkt flugfähigen Eiderenten Gebiete, in denen sie weitgehend ungestört sind. Ihre Fluchtdistanz gegenüber Menschen erhöht sich in dieser Zeit von normalerweise 100 bis 300 Meter auf 500 bis 1.000 Meter. Der Mauserzug ist daher dadurch bedingt, dass sie große Ruhezonen benötigen. Küstenbereiche, in denen sie sich sonst aufhalten, die ihnen aber nicht ausreichend Rückzugsmöglichkeiten bieten, werden während dieser Zeit von den Eiderenten gemieden. Mittlerweile nutzen die Eiderenten auch einige größere Alpenseen als Quartier für ihre Mauser. So sind Eiderenten während dieser Zeit beispielsweise auch am Bodensee zu beobachten, wo sich bis zu hundert Vögel versammeln. Gelegentlich dienen die Mauserquartiere auch als Überwinterungsort – so beispielsweise im Wattenmeer. Gelegentlich suchen sie aber ab Oktober bis November separate Überwinterungsquartiere auf, von denen sie ab Februar bis März in Richtung ihrer Brutgebiete zurückkehren. Die auf Island und Spitzbergen brütenden Vögel erreichen ihre Brutplätze in den Monaten April bis Mai. Fressfeinde und andere natürliche Todesursachen. In den nördlichsten Regionen ihres Verbreitungsgebietes zählen die Schneeeule und der Polarfuchs zu den Fressfeinden der Eiderente. In den südlicheren Verbreitungsgebieten gehören der Uhu, der Seeadler und der Rotfuchs zu den Arten, die in der Lage sind, die schwere Ente zu erlegen. Küken und Eier sind außerdem durch Möwen sowie verschiedene Rabenvögel (beispielsweise Raben- und Nebelkrähe sowie Kolkrabe) gefährdet. Gefährdet sind die Jungvögel jedoch auch durch den Befall mit Parasiten, von denen einige sich auf die Eiderente als Zwischenwirt spezialisiert haben. Viele der Jungvögel leiden beispielsweise an Saugwürmern, die zu einer Schwächung der Jungvögel und gelegentlich zu ihrem Tod führen. Zu einem Massensterben von Eiderenten kann es außerdem kommen, wenn in strengen Wintern die Meeresküsten vereisen und die Eiderenten nicht mehr in der Lage sind, die Muscheln auf dem Meeresboden zu erreichen. Jagd und sonstige Beeinflussung durch den Menschen. Die Jagd auf die Eiderente ist in den skandinavischen Ländern bis auf Island sowie in Russland erlaubt. Sie wird dort zum Teil sehr stark bejagt. In Norwegen sind die großen Brutgebiete der Eiderente allerdings inzwischen geschützt. Auf Island wurde sie 1786 teilweise und seit 1847 völlig geschützt. Neben der Jagd kommt es auch zu Verlusten von Gelegen und Küken, wenn Eiderenten durch Menschen gestört werden. Dies trifft vor allem auf die Küstenabschnitte zu, die stark touristisch genutzt werden. Eiderenten leiden außerdem an der Verschmutzung der Meere durch Pestizide. Die Niederlande wurden beispielsweise ab dem Jahre 1925 von Eiderenten besiedelt. Der Bestand wuchs relativ schnell auf 6.000 Individuen, brach jedoch dann auf Grund von Pestizidbelastungen stark ein. Bei Ölunfällen gehört sie zu den Arten, die aufgrund der Verschmutzung des Gefieders und dem Entzug der Nahrungsgrundlage in großer Anzahl sterben. Im Jahre 1970 kamen im Kattegat beispielsweise nach einem Ölunfall 30.000 Eiderenten ums Leben. Wappenvogel von Northumberland. Eine der bekanntesten Kolonien von Eiderenten befindet sich auf den Farne Inseln vor Northumberland, Großbritannien. Die dort brütenden Vögel waren Gegenstand eines der ältesten Vogelschutzgesetze der Welt, das der Heilige Cuthbert im Jahre 676 n. Chr. erließ, daher rührt auch der Name St.-Cuthberts Ente. Heute brüten noch etwa 1.000 Entenpaare auf diesen Inseln. Da der Heilige Cuthbert der Schutzpatron von Northumberland ist, wurde die Eiderente zum Wappentier dieses Landkreises. Eiderenten werden dort gelegentlich auch "Cuddy’s ducks" genannt, da "Cuddy" der Kosename für Cuthbert ist. Ein isländischer Bauer reinigt Daunenfedern von Stroh Wirtschaftliche Nutzung. Die Eiderente ist der Lieferant der Eiderenten-Daune, die eine hohe Wärmespeicherkapazität besitzt. Eiderdaunen galten über lange Zeit als das beste Material, das für die Füllung von Bettdecken verwendet werden konnte. Eine gezielte kommerzielle Ausbeute dieser Eiderdaunen begann bereits vor dem 10. Jahrhundert. Bis in die Mitte des 20. Jahrhunderts stellten Eiderdaunen eines der wichtigsten Exportartikel Islands dar. Auch heute kommt dort der Eiderente aufgrund dieser Daunen eine größere wirtschaftliche Bedeutung zu. Mit den weichen und warmen Daunen werden Kissen und Bettdecken gefüllt. Die Ernte dieser Daunen ist dabei durchaus mit dem Artenschutz verträglich, da normalerweise die Federn verwendet werden, mit denen Eiderenten ihre Nester auspolstern und diese Federn geerntet werden können, nachdem die jungen Enten das Nest verlassen haben. Ein Daunennest wiegt im Schnitt nur rund 20 Gramm. Die Reinigung der Daunen von Pflanzenteilen ist eine zeitintensive Arbeit, die Stunden in Anspruch nimmt. Nur etwa 1,5 Gramm verwendbarer Daunen pro Nest bleiben nach diesem Reinigungsprozess über, so dass etwa die Ernte von 700 Nestern gebraucht wird, um ein Kilogramm handelbarer Eiderdaunen zu erhalten. Haltung von Eiderenten. Eiderenten werden aufgrund des attraktiven Brutkleides der Männchen zunehmend in Gehegen gehalten. Es sind friedfertige Vögel, die sich gut mit anderen Wasservögeln vertragen. Für ihr Wohlbefinden brauchen diese Enten jedoch hinreichend tiefe Teiche mit sauberem Wasser. Euklidischer Algorithmus. Der euklidische Algorithmus ist ein Algorithmus aus dem mathematischen Teilgebiet der Zahlentheorie. Mit ihm lässt sich der größte gemeinsame Teiler zweier natürlicher Zahlen berechnen. Das Verfahren ist nach dem griechischen Mathematiker Euklid benannt, der es in seinem Werk „Die Elemente“ beschrieben hat. Der größte gemeinsame Teiler zweier Zahlen kann auch aus ihren Primfaktorzerlegungen ermittelt werden. Ist aber von keiner der beiden Zahlen die Primfaktorzerlegung bekannt, so ist der euklidische Algorithmus das schnellste Verfahren zur Berechnung des größten gemeinsamen Teilers. Der euklidische Algorithmus lässt sich nicht nur auf natürliche Zahlen anwenden. Vielmehr kann damit der größte gemeinsame Teiler von zwei Elementen eines jeden euklidischen Rings berechnet werden. Dazu zählen beispielsweise Polynome über einem Körper. Der klassische Algorithmus. Euklid berechnete den größten gemeinsamen Teiler, indem er nach einem gemeinsamen „Maß“ für die Längen zweier Linien suchte. Dazu zog er wiederholt die kleinere der beiden Längen von der größeren ab. Dabei nutzt er aus, dass sich der größte gemeinsame Teiler zweier Zahlen (oder Längen) nicht ändert, wenn man die kleinere von der größeren abzieht. Ist die Differenz von formula_1 und formula_2 sehr groß, sind unter Umständen viele Subtraktionsschritte notwendig. Hippasos von Metapont benutzte schon vor Euklid diese so genannte "Wechselwegnahme" geometrisch für den Beweis der Inkommensurabilität bei gewissen regelmäßigen n-Ecken: Im Quadrat oder im regelmäßigen Fünfeck etwa gibt es keinen gemeinsamen Teiler (Maß) einer Seite mit der Diagonalen. Heutzutage wird in der Regel der weiter unten beschriebene Divisions-Algorithmus verwendet, bei dem die Schritte 2 und 3 dadurch ersetzt werden, dass man, an Stelle der Differenz von formula_3 und formula_4, für formula_5 den Rest bei der Division von formula_3 durch formula_4 nimmt. Ein weiterer Vorteil dieser Variante ist, dass man sie auf beliebige euklidische Ringe (zum Beispiel Polynomringe über einem Körper) übertragen kann, in denen der klassische Algorithmus nicht funktioniert. Beschreibung durch Pseudocode. codice_1 codice_2 Moderner euklidischer Algorithmus. Heutzutage ersetzt man die im klassischen Algorithmus auftretenden wiederholten Subtraktionen eines Wertes jeweils durch eine einzige Division mit Rest. Der moderne euklidische Algorithmus führt nun in jedem Schritt solch eine Division mit Rest aus. Er beginnt mit den beiden Zahlen formula_1 und formula_9, deren größter gemeinsamer Teiler bestimmt werden soll. In jedem weiteren Schritt wird mit dem Divisor und dem Rest des vorhergehenden Schritts eine erneute Division mit Rest durchgeführt. Und zwar so lange, bis eine Division aufgeht, das heißt, der Rest Null ist. Der Divisor formula_15 der letzten Division ist dann der größte gemeinsame Teiler. Da sich die Zahlen in jedem Schritt mindestens halbieren, ist das Verfahren auch bei großen Zahlen extrem schnell. Beispiel. Der größte gemeinsame Teiler von 1071 und 1029 ist somit 21. Beschreibung durch Pseudocode. Im Folgenden wird der moderne Euklidische Algorithmus sowohl in einer rekursiven, als auch einer iterativen Variante beschrieben. Dabei sind formula_1 und formula_2 jeweils die beiden Zahlen, deren größter gemeinsamer Teiler berechnet werden soll. Rekursive Variante. codice_3 Iterative Variante. codice_4 Korrektheit des Algorithmus. In jedem Schritt des Algorithmus wird eine Division mit Rest ausgeführt. Die Division mit Rest hat die Eigenschaft, dass ist formula_25 und es gilt deshalb Da im ersten Schritt formula_27 und formula_28 war, ist Historische Entwicklung. Der euklidische Algorithmus ist der älteste bekannte nicht-triviale Algorithmus. Das Verfahren wurde von Euklid um 300 v. Chr. in seinem Werk "Die Elemente" beschrieben. In Buch VII (Proposition 1 und 2) formulierte er den Algorithmus für ganze Zahlen und in Buch X (Proposition 2 und 3) für reelle Zahlen. Die letztere Version ist ein geometrischer Algorithmus und Euklid nannte ihn "antepheiresis" (Wechselwegnahme). Er suchte ein größtes gemeinsames „Maß“ zweier Strecken: eine dritte Strecke, sodass die Länge der beiden ursprünglichen Strecken Vielfache der Länge der dritten Strecke sind. Das Verfahren wurde wahrscheinlich nicht von Euklid erfunden, da er in den Elementen die Erkenntnisse früherer Mathematiker zusammenfasste. Der Mathematiker und Historiker Bartel Leendert van der Waerden vermutet, dass Buch VII ein schon von den Pythagoreern verwendetes Lehrbuch der Zahlentheorie ist. Hippasos von Metapont führte etwa 500 v. Chr. vermutlich seinen Beweis der Inkommensurabilität von gewissen Strecken und Diagonalen auf Grundlage des euklidischen Algorithmus durch, und auch Eudoxos von Knidos (um 375 v. Chr.) kannte wohl das Verfahren. Aristoteles (um 330 v. Chr.) wies auf dieses Verfahren in seinem Werk "Topik" (158b, 29-35) hin. Jahrhunderte später wurde der euklidische Algorithmus voneinander unabhängig in Indien und China entdeckt, um damit hauptsächlich diophantische Gleichungen aus der Astronomie zu lösen und genaue Kalender zu erstellen. Im fünften Jahrhundert beschrieb der indische Mathematiker und Astronom Aryabhata den Algorithmus als „Pulverisator“, wahrscheinlich aufgrund seiner Effektivität beim Lösen diophantischer Gleichungen. Zwar hat schon der chinesische Mathematiker und Astronom Sun Tzu einen Spezialfall des chinesischen Restsatzes beschrieben, die allgemeine Lösung wurde jedoch von Qin Jiushao 1247 in seinem Buch "Shushu Jiuzhang" () veröffentlicht. Im neuzeitlichen Europa wurde der euklidische Algorithmus erstmals wieder in der zweiten Auflage von Bachets "Problèmes plaisants et délectables, qui se font par les nombres" beschrieben. Der Algorithmus wurde in Europa zum Lösen diophantischer Gleichungen und zur Berechnung der Kettenbruchentwicklung verwendet. Nicholas Saunderson veröffentlichte den erweiterten euklidischen Algorithmus und schrieb ihn Roger Cotes zu als Methode zur effizienten Berechnung von Kettenbrüchen. Im 19. Jahrhundert gab der euklidische Algorithmus den Anstoß zur Entwicklung neuer Zahlensysteme wie den gaußschen Zahlen und den Eisenstein-Zahlen. 1815 verwendete Carl Friedrich Gauß den euklidischen Algorithmus, um die eindeutige Faktorisierung der gaußschen Zahlen zu zeigen. Seine Arbeit wurde jedoch erst im Jahr 1832 veröffentlicht. Gauß erwähnte den Algorithmus zudem in seinem 1801 veröffentlichten Werk Disquisitiones Arithmeticae, allerdings nur als Methode zur Berechnung von Kettenbrüchen. Peter Gustav Lejeune Dirichlet scheint der Erste zu sein, der den euklidischen Algorithmus als Grundlage eines großen Teils der Zahlentheorie beschrieben hat. Er bemerkte, dass viele Ergebnisse der Zahlentheorie, wie beispielsweise die eindeutige Faktorisierung, auch für andere Zahlensysteme gelten, in denen der euklidische Algorithmus angewendet werden kann. Dirichlets "Vorlesungen über Zahlentheorie" wurden von Richard Dedekind herausgegeben und erweitert, der den euklidischen Algorithmus für das Studium algebraischer Zahlen nutzte, einer neuen allgemeineren Zahlenart. Dedekind war beispielsweise der Erste, der Pierre de Fermats Zwei-Quadrate-Satz mit der eindeutigen Faktorisierung der gaußschen Zahlen bewies. Dedekind führte das Konzept des euklidischen Rings ein, ein Zahlensystem, in dem eine verallgemeinerte Variante des euklidischen Algorithmus angewendet werden kann. In den letzten Jahrzehnten des 19. Jahrhunderts trat der euklidische Algorithmus allmählich hinter Dedekinds allgemeinere Theorie der Ideale zurück. Jacques Charles François Sturm entwickelte 1829 die sturmschen Ketten zur Berechnung der Anzahl der Nullstellen eines Polynoms in einem vorgegebenen Intervall. Dabei wird eine Variante des euklidischen Algorithmus verwendet, um die einzelnen Glieder einer Kette zu bestimmen. In der Vergangenheit gab es zahllose Versuche, den euklidischen Algorithmus auf mehr als zwei natürliche Zahlen zu verallgemeinern, beispielsweise um außer ihrem größten gemeinsamen Teiler auch optimale (etwa kleinstmögliche) Multiplikatoren zu finden, die in der Linearkombination mit den Zahlen diesen Teiler liefern. Der moderne Stand der Forschung hierzu wurde von Havas, Majewski und Matthews dargestellt. Der euklidische Algorithmus war der erste Algorithmus zur Berechnung von Ganzzahlbeziehungen kommensurabler reeller Zahlen. In den vergangenen Jahren wurden weitere Algorithmen für diese Aufgabenstellung entwickelt, beispielsweise der Ferguson–Forcade-Algorithmus aus dem Jahr 1979 und verwandte Algorithmen, der LLL-Algorithmus, der HJLS-Algorithmus (nach den Autoren Håstad, Just, Lagarias und Schnorr) und der PSLQ-Algorithmus (nach "partial sum of squares" plus "LQ matrix decomposition"). Im Jahr 2001 wurde gezeigt, dass die von einigen Autoren berichtete Instabilität des HJLS-Algorithmus lediglich auf einer unzweckmäßigen Implementierung beruhte und dass dieser Algorithmus äquivalent zum PSLQ-Algorithmus ist. Enger an den eigentlichen euklidischen Algorithmus angelehnt sind seine mehrdimensionalen Verallgemeinerungen von George Szekeres (1970), Helaman Ferguson und Rodney Forcade (1981), Just (1992), von Rössner und Schnorr (1996) sowie der sehr allgemeine Ansatz von Lagarias (1994). 1969 entwickelten Cole und Davie das Zwei-Spieler-Spiel „Euklid“, das auf dem euklidischen Algorithmus basiert. Bei diesem Spiel gibt es eine optimale Strategie. Die beiden Spieler beginnen mit zwei Stapeln von formula_1 und formula_2 Steinen. In jeder Runde nimmt ein Spieler formula_3-mal soviele Steine vom größeren Stapel, wie der kleinere Stapel groß ist. Auf diese Weise kann der nächste Spieler den größeren Stapel mit formula_33 Steinen auf formula_34 Steine verkleinern, wobei formula_35 die Größe des kleineren Stapels ist. Es gewinnt der Spieler, der einen Stapel komplett abträgt. Laufzeitanalyse. Mit dem euklidischen Algorithmus kann man den ggT mit verhältnismäßig geringem Aufwand (im Vergleich zur Berechnung der Primfaktorzerlegung der Zahlen "a" und "b") berechnen. Bei der Laufzeitanalyse stellt sich heraus, dass der schlimmste Eingabefall zwei aufeinander folgende Fibonacci-Zahlen sind. Bei aufeinander folgenden Fibonacci-Zahlen ergibt sich als Rest immer die nächstkleinere Fibonacci-Zahl. Die Anzahl der benötigten Divisionen beträgt im schlimmsten Fall Θ(log("ab")), wobei log("ab") proportional zur Anzahl der Ziffern in der Eingabe ist "(siehe Landau-Symbole)". Da die für die Division zweier Zahlen benötigte Zeit ihrerseits von der Anzahl der Ziffern der Zahlen abhängt, ergibt sich eine tatsächliche Laufzeit von "O"("log(ab)^3") bei naiver Ausführung der Division. Durch die vollständige Überführung der eigentlichen Berechnung in den Frequenzbereich mittels einer speziellen schnellen Fourier-Transformation wie sie im Schönhage-Strassen-Algorithmus Verwendung findet, schneller Reziprokwertberechnung mit dem Newton-Verfahren (im Frequenzbereich) für die Division und anschließender Rücktransformation mittels inverser schneller Fourier-Transformation kommt man so zu einer theoretischen Untergrenze von "O"("n⋅"log("n")²), wobei "n" die maximale Anzahl an Ziffern von "a" und "b" ist. Die von Schönhage entwickelte Variante des euklidischen Algorithmus konnte durch Parallelisierung auf einem Multi-Prozessor-System weiter beschleunigt werden. Euklidischer Algorithmus und Kettenbruchzerlegung. Dieses Verfahren lässt sich auch für jede beliebige reelle Zahl formula_5 anwenden. Ist formula_5 nicht rational, so endet der Algorithmus einfach nie. Die so gewonnene Folge an Quotienten stellt dann die unendliche Kettenbruchzerlegung von formula_5 dar. Andere Zahlensysteme. Wie oben beschrieben wird der euklidische Algorithmus zur Berechnung des größten gemeinsamen Teilers zweier natürlicher Zahlen verwendet. Der Algorithmus lässt sich jedoch auch auf reelle Zahlen und exotischere Zahlensysteme wie Polynome, quadratische Zahlen und die nicht-kommutativen Hurwitzquaternionen verallgemeinern. Im letzten Fall wird der euklidische Algorithmus dazu verwendet, die wichtige Eigenschaft einer eindeutigen Faktorisierung zu zeigen. Das heißt, dass eine solche Zahl eindeutig in irreduzible Elemente, der Verallgemeinerung von Primzahlen, zerlegt werden kann. Die eindeutige Faktorisierung ist grundlegend für viele Beweise der Zahlentheorie. Rationale und reelle Zahlen. Wie schon von Euklid im Buch 10 seines Werks „Die Elemente“ beschrieben, kann der euklidische Algorithmus auch auf reelle Zahlen angewandt werden. Das Ziel des Algorithmus ist es dann, eine reelle Zahl formula_41 zu finden, sodass die beiden Zahlen formula_1 und formula_2 ganzzahlige Vielfache dieser Zahl sind. Diese Aufgabenstellung ist gleichbedeutend mit der Suche nach einer Ganzzahlbeziehung zwischen den beiden reellen Zahlen formula_1 und formula_2, also der Berechnung zweier ganzer Zahlen formula_46 und formula_47, für die formula_48 gilt. Euklid verwendete diesen Algorithmus bei der Betrachtung der Inkommensurabilität von Strecken. Der euklidische Algorithmus für reelle Zahlen unterscheidet sich in zwei Punkten von seinem Gegenstück für ganze Zahlen. Zum einen ist der Rest formula_49 eine reelle Zahl, obwohl die Quotienten formula_50 weiterhin ganze Zahlen sind. Zum anderen endet der Algorithmus nicht immer nach einer endlichen Anzahl von Schritten. Wenn er dies jedoch tut, dann ist der Bruch formula_51 eine rationale Zahl; es gibt also zwei ganze Zahlen formula_3 und formula_4 mit und kann als Kettenbruch formula_55 geschrieben werden. Wenn der Algorithmus nicht endet, dann ist der Bruch formula_51 eine irrationale Zahl und mit dem unendlichen Kettenbruch formula_57 identisch. Beispiele für unendliche Kettenbrüche sind die Goldene Zahl formula_58 und die Wurzel aus 2 formula_59. Im Allgemeinen ist es unwahrscheinlich, dass der Algorithmus anhält, da fast alle Verhältnisse formula_51 zweier reeller Zahlen irrationale Zahlen sind. Polynome. Damit ist formula_66 (oder das dazu assoziierte Polynom formula_67) ein größter gemeinsamer Teiler von formula_68 und formula_41. Polynome mit Koeffizienten aus einem faktoriellen Ring. Wir halten einen faktoriellen Ring (d. h. einen Ring mit bis auf Einheiten eindeutiger Primfaktorzerlegung) formula_70 fest und betrachten Polynome aus dem Polynomring formula_71, also Polynome in einer Variablen formula_33 mit Koeffizienten aus formula_70. Im Spezialfall formula_74, wobei formula_75 ein Körper sei, erhalten wir so den Ring formula_76 der Polynome in zwei Variablen über formula_75. In formula_71 ist Division mit Rest nicht mehr allgemein durchführbar. Seien z. B. formula_79 und formula_80 in formula_81. Polynomdivision in formula_82 liefert den Quotienten formula_83, der nicht in formula_81 liegt. Wir können allerdings eine Pseudodivision wie folgt definieren: Seien formula_68 und formula_41 Polynome aus formula_71 mit Grad formula_88 bzw. formula_89, sei formula_90 der Leitkoeffizient des Polynoms formula_41, und formula_92. Dann gibt es Polynome formula_93, so dass wobei wieder formula_5 von geringerem Grad ist als formula_41. Durch wiederholte Durchführung der Pseudodivision lässt sich der ggT von formula_68 und formula_41 bestimmen, allerdings ist das Verfahren in der Praxis ineffizient, da die Faktoren formula_99 die Koeffizienten der Zwischenergebnisse exponentiell anwachsen lassen. Um das zu vermeiden kann nach jedem Schritt der Inhalt des Rests formula_5 entfernt werden, was allerdings wiederum ggT-Berechnungen in formula_70 erfordert. Effizienter lässt sich der ggT mit dem Subresultantenverfahren berechnen. Varianten. Von Josef Stein stammt der nach ihm benannte steinsche Algorithmus, der ohne die aufwändigen Divisionen auskommt. Er verwendet nur noch Divisionen durch Zwei, die von einem Rechner sehr schnell durchzuführen sind. Aus diesem Grund wird dieser Algorithmus auch binärer euklidischer Algorithmus genannt. Der Performancevorteil auf realen Rechnern zeigt sich aber erst, wenn der Integertyp die Registerbreite des Prozessors überschreitet. Merkt man sich beim euklidischen Algorithmus die Quotienten formula_102 der Zwischenschritte, dann lässt sich damit eine Darstellung mit ganzen Zahlen formula_46 und formula_47 finden. Dies nennt man den erweiterten euklidischen Algorithmus. Damit lassen sich die Inversen in Restklassenringen berechnen. Eine andere Erweiterung ist der Algorithmus, der hinter dem Quadratischen Reziprozitätsgesetz steckt. Mit diesem lässt sich das Jacobi-Symbol effizient berechnen. Enterobakterien. Die Enterobakterien oder Enterobacteriaceae (vorläufig die einzige Familie in der Ordnung Enterobacteriales'") sind eine große Gruppe innerhalb der Domäne Bacteria. Nach dem phylogenetischen System gehören sie zur Klasse der Gammaproteobacteria in der Abteilung ("Divisio", bei den Prokaryoten auch als "Phylum" bezeichnet) Proteobacteria und bilden dort eine eigene Familie. Der Name Enterobakterien leitet sich von "enteron" (altgriechisch ἕντερον, Darm) ab, weil viele von ihnen typische Darmbewohner sind. Aber auch viele freilebende, nicht darmbewohnende Bakterienarten gehören in diese Familie. Aussehen/Stoffwechsel. Sie sind stäbchenförmig und gewöhnlich 1 bis 5 µm lang und besitzen einen Durchmesser von etwa 0,5 - 1,0 µm. Von ähnlichen Bakterien können sie durch das Fehlen von Oxidase unterschieden werden. Die meisten können sich mit Flagellen aktiv bewegen, es kommen jedoch auch Gattungen vor, die sich nicht aktiv bewegen können. Da die Zellwand aus wenigen Mureinschichten und einer zweiten, äußeren Membran aus Phospholipiden und Lipopolysacchariden besteht, sind die Enterobakterien gramnegativ. Ihr Stoffwechsel ist fakultativ anaerob, daher können sie sowohl über Oxidation unter Anwesenheit von Sauerstoff Stoffe abbauen, als auch unter anaeroben Bedingungen (kein Sauerstoff) Gärung betreiben. Zwei wichtige anaerobe Stoffwechselwege, die zur Unterscheidung der einzelnen Gattungen genutzt werden, sind die 2,3-Butandiol-Gärung und die gemischte Säuregärung ("mixed acid fermentation"). Bei der gemischten Säuregärung treten als End- und Nebenprodukte vorwiegend Säuren, wie Essigsäure, Milchsäure und Bernsteinsäure (Succinat), aber kein Butandiol auf. Bei der 2,3-Butandiol-Gärung entstehen aus der Gärung von Glucose als End- und Nebenprodukte geringere Mengen von Säuren, aber vor allem in großen Mengen der Alkohol 2,3-Butandiol. Ein weiteres Merkmal der 2,3-Butandiol-Gärung ist das Zwischenprodukt Acetoin und die wesentlich höhere Gasproduktion (CO2). Man findet Butandiolgärung z. B. bei "Enterobacter", "Klebsiella", "Erwinia" und "Serratia". Gemischte Säuregärung nutzen u. a. Gattungen wie "Escherichia coli", "Salmonella" und "Proteus". Zur Bestimmung der einzelnen Gattungen wird eine Vielzahl von Diagnosetests genutzt. Zum Beispiel wird mit Hilfe des Voges-Proskauer-Tests das Zwischenprodukt Acetoin der 2,3-Butandiol-Gärung nachgewiesen. Vorkommen. Viele Enterobakterien sind Teil der gesunden Darmflora von Menschen und Tieren; sie kommen jedoch auch überall in der Umwelt vor (Boden, Wasser). Einige sind Krankheitserreger bei Mensch und Tier. Sie kommen vielfach als nosokomiale Erreger vor („Krankenhauskeime“) und befallen Menschen mit schwachem Immunsystem. Der wahrscheinlich wichtigste Vertreter der Enterobakterien ist "Escherichia coli", einer der wichtigsten Modellorganismen der Genetik und Biochemie sowie der Mikrobiologie. Auffällig ist des Weiteren die Gattung "Proteus", bei der man das sogenannte „Schwärm-Phänomen“ beobachtet. Wenn sich wachsende Kolonien dieser Bakterien auf einer Agar-Platte ausbreiten, sieht man einen Bakterienrasen mit konzentrischen Ringen. Gattungen. Sekundärelektronenmikroskopaufnahme von Salmonellen (rot eingefärbt) Ewigkeit. Unter Ewigkeit oder etwas Ewigem versteht man etwas, das weder einen zeitlichen Anfang noch ein zeitliches Ende besitzt bzw. unabhängig von dem Phänomen Zeit existiert. Etymologie. Die ursprüngliche Bedeutung war wohl „langer Zeitraum“, vom ahd. "ēwe" „Lebenszeit“ stammend (ursprünglich wohl von ie. *əiw- „Lebenszeit, Ewigkeit“). Noch im 16. Jahrhundert wurde gebetet "von ewen zu ewen". Umgangssprachlich verstand man daher unter Ewigkeit einen langen Zeitraum („Das dauert ja ewig“, als Übertreibung). Daraus ist ersichtlich, dass „endlos“ ursprünglich nur eine von mehreren möglichen Bedeutungen des heutigen Worts "ewig" war. Durch theologische Einflüsse – insbesondere durch die Zeitauffassung des Augustinus – hat der Begriff „Ewigkeit“ später vor allem die Bedeutung der „Zeitlosigkeit“ angenommen. Verwendung in der Physik und Philosophie. Das Konzept der Ewigkeit ist wissenschaftlich nicht definiert, da die bekannten physikalischen Theorien, die sich mit Fragen der Kosmologie befassen, den Begriff des Unendlichen nicht sinnvoll formulieren. ("Siehe auch:" Steady-State-Theorie) Philosophisch sieht man Konzepte der Logik oder Mathematik als zeitlos, und in diesem Sinne als ewig an. Der Begriffsinhalt von „unendlicher Zeit“, wurde von Platon entwickelt und von Plutarch und der jüngeren Stoa übernommen. Sie ist die Bezeichnung für das Grenzenlose, in dem alle Phänomene angesiedelt sind, deren Anfang oder Ende nicht gedacht werden kann. Die Ewigkeit gilt Platon als die wahrhafte Form des Seins, d. h. als Seinsweise der Ideen, die frei von allem Werden sind. Für die antiken Denker war die Welt unendlich, d. h. auch anfangslos. Ewige Dinge ("ewig" im Sinne von ‚zeitunabhängig‘) scheinen vom Anfang bis zum Ende der uns bewussten Zeit unverändert anzudauern, sofern wir sie überhaupt wahrnehmen. Dennoch ist ewig nicht mit statisch gleichzusetzen. Verwendung in einigen Religionen. Insbesondere monotheistische Religionen (Jüdischer Glaube, Christentum, Islam) sprechen vom ewigen Gott oder vom ewigen Gottesreich sowie von ewigem Leben. Die Ewigkeit als Attribut Gottes drückt seine Existenz unabhängig und über zeitlichen Begriffen wie Anfang und Ende aus. Mit einem Konzept seiner Unveränderlichkeit ist sie nicht zwangsläufig verbunden. Das dem Menschen verheißene ewige Leben führt zu einer Teilhabe an dieser Ewigkeit Gottes. Manche denken dies allerdings ausgehend von einem Anfang, nach dem zeitlichen Tod. Die Bibel hingegen (z. B.) versteht Ewigkeit als Qualitätsbegriff. Ewigkeit beginnt demnach nicht erst nach dem Tod, sondern beginnt mit der Erkenntnis Gottes und Jesu Christi und ereignet sich in der Beziehung des Glaubenden mit Gott. Für den so Glaubenden ist der leibliche Tod ein Übergang in das vollendete ewige Leben, das seinen Anfang aber schon im „Neugeborenwerden“ (vgl.) genommen hat. Im Urtext der Bibel wurde der Zeitbegriff Äon (griechisch "aion", "aionion") z. B. von Luther neben „Welt“ im zeitlichen Sinn (der Ursprungsbedeutung) zusätzlich auch mit Ewigkeit/ewig übersetzt, was umstritten ist, da die Wahl im Einzelfall willkürlich erscheint und erhebliche theologisch-eschatologische Konsequenzen hat. Das „ewige“ Leben wäre also vielmehr ein „äonisches Leben“ mit Anfang und Ende. Wenn das Neue Testament zweifelsfrei „Ewigkeit“ im Sinn von Endlosigkeit ausdrücken will, werden im griechischen Grundtext Negierungen wie "Unsterblichkeit", "Unvergänglichkeit" oder auch "Unauflöslichkeit" benutzt. Für viele mittelalterliche Philosophen und Theologen, insbesondere für viele „Mystiker“, und auch für einige Ausprägungen des Buddhismus bedeutet „Ewigkeit“ ein Leben in einer – ewigen, „stehenden“, von zeitlichen Differenzen befreiten – Gegenwart. Verwendung in der Rechtssprache. In der deutschen Rechtssprache wird der Begriff "Ewigkeit" durch die Bezeichnungen „Ewigkeitsklausel“ oder „Ewigkeitsgarantie“ für den Abs. 3 Grundgesetz verwendet. Danach sind das föderalistische Organisationsprinzip der Bundesrepublik Deutschland und zwei Artikel des Grundgesetzes wie die Unantastbarkeit der Menschenwürde (Art. 1 GG) sowie die am 23. Mai 1949 in Kraft getretenen allgemeinen Verfassungsgrundsätze (Art. 20 GG) für "ewig" vor Änderung und Abschaffung geschützt. Europäisches Patentübereinkommen. Das Europäische Patentübereinkommen (EPÜ;, "EPC";, "CBE") ist ein internationaler Vertrag, durch den die Europäische Patentorganisation (EPO) geschaffen wurde und die Erteilung Europäischer Patente geregelt wird. Durch das EPÜ bilden seine Vertragsstaaten auch einen Sonderverband gemäß der Pariser Verbandsübereinkunft zum Schutz des gewerblichen Eigentums (PVÜ), müssen also dessen Bestimmungen einhalten (z. B. zur Priorität). Geschichte. Das Europäische Patentübereinkommen wurde am 5. Oktober 1973 auf einer Konferenz in München von 16 europäischen Staaten unterzeichnet und trat für Belgien, Frankreich, Deutschland, Luxemburg, die Niederlande, die Schweiz, und das Vereinigte Königreich am 7. Oktober 1977 in Kraft. Weitere Staaten ratifizierten das Abkommen in der Folgezeit. 1991 fand eine weitere Konferenz der Mitgliedstaaten statt, auf der die Laufzeit eines Europäischen Patents auf zwanzig Jahre festgelegt wurde. Diese Änderung trat für die Mehrheit der Mitgliedstaaten am 4. Juli 1997 in Kraft. Eine grundlegende Überarbeitung des Übereinkommens erfolgte im Jahre 2000. Ziel der Überarbeitung war, das Übereinkommen flexibler zu machen, an neuere Internationale Verträge anzupassen und Bedürfnisse der Anmelder besser zu berücksichtigen. Das geänderte Übereinkommen, nach dem Jahr seiner Unterzeichnung kurz als EPÜ 2000 bezeichnet, trat für die überwiegende Mehrheit der Mitgliedstaaten am 13. Dezember 2007 in Kraft. Ein großer Teil der zwischenzeitlich beigetretenen Mitgliedstaaten hat nur die letzte revidierte Fassung des Jahres 2000 angenommen. Mit dem Beitritt Serbiens am 1. Oktober 2010 gehören nun 38 Vertragsstaaten dem Europäischen Patentübereinkommen an. Allgemeines. Das Übereinkommen wurde geschlossen, um die Patenterteilung innerhalb Europas zu zentralisieren und das Patentrecht seiner Vertragsstaaten zu harmonisieren. Statt in jedem Staat, in dem ein Patentschutz gewünscht wird, nationale Patentanmeldungen einzureichen, braucht nach dem EPÜ nur noch eine Anmeldung eingereicht zu werden, die vom Europäischen Patentamt (EPA), einem Organ der Europäischen Patentorganisation (EPO) zentral bearbeitet wird. In der Anmeldung müssen die Vertragsstaaten angegeben werden, für die ein Europäisches Patent beantragt wird. Ein Europäisches Patent kann auch beantragt werden durch eine Internationale Anmeldung nach dem Patentzusammenarbeitsvertrag (PCT = Patent Cooperation Treaty) und Einleiten der regionalen EP-Phase nach Abschluss der Internationalen Phase. Die zentrale Bearbeitungsphase vor dem Europäischen Patentamt enthält außer dem eigentlichen Erteilungsverfahren evtl. noch ein Einspruchsverfahren, falls innerhalb von neun Monaten nach der Bekanntmachung der Erteilung eines Patents Einspruch dagegen erhoben wird. Danach ist das Europäische Patentamt nicht mehr zuständig; das Europäische Patent „zerfällt“ in ein Bündel nationaler Patente in den in der Anmeldung benannten Vertragsstaaten, die den durch nationale Patentämter erteilten Patenten gleichwertig sind. Nichtigkeitsklagen gegen Europäische Patente können daher nur vor den nationalen Gerichten eingereicht werden. Vertrags- und Erstreckungsstaaten. Vertragsstaaten (rot) und Erstreckungsstaaten (orange) des Europäischen Patentübereinkommens Das Europäische Patentübereinkommen wurde von 38 Vertragsstaaten unterzeichnet. Darunter befinden sich alle 28 Mitgliedstaaten der EU sowie 10 weitere Staaten (Stand: Dez. 2014). Als bisher letztes Mitglied trat am 1. Oktober 2010 Serbien der Organisation bei: Vertreter der in der Tabelle mit (*) gekennzeichneten Staaten haben an der diplomatischen Konferenz zur Gründung der Organisation teilgenommen. Diese Staaten waren daher berechtigt, der Organisation durch Ratifikation beizutreten. Island hat das Abkommen allerdings erst 2004 ratifiziert, in Norwegen ist es am 1. Januar 2008 in Kraft getreten. Alle Vertragsstaaten des EPÜ sind auch Vertragsstaaten des Europarates. Dieses gibt Anlass zur Debatte, ob die Europäische Patentorganisation dem Europarat beitreten kann. Derzeit wird geprüft, wie die EU dem Europarat beitreten kann. Außerdem hat die Europäische Patentorganisation mit einigen Staaten, die nicht dem EPÜ angehören, Abkommen über die Erstreckung des Schutzes europäischer Patente geschlossen. Es ist daher möglich, beim Europäischen Patentamt die Erstreckung einer europäischen Patentanmeldung auf die Erstreckungsstaaten zu beantragen. Mit dem Antrag sind Erstreckungsgebühren zu entrichten. Die Patentanmeldung hat dann in den Erstreckungsstaaten dieselbe Wirkung wie eine national Patentanmeldung und kann nach ihrer Erteilung auch dort als Patent eingetragen werden. Derzeit kann die Erstreckung für Bosnien und Herzegowina (BA) und Montenegro (ME) beantragt werden. Einige frühere Erstreckungsstaaten sind mittlerweile zu Vertragsstaaten geworden. Für die in der Zeit, als diese noch Erstreckungsstaaten waren, eingereichten Patentanmeldung kann auch für diese Staaten noch eine Erstreckung beantragt werden. Einzelnachweise. Ubereinkommen, Erteilung europaischer Patente Eibengewächse. Die Eibengewächse (Taxaceae) bilden eine Pflanzenfamilie in der Ordnung der Koniferen (Coniferales). Einige Arten werden weltweit als Zierpflanzen in Parks und Gärten verwendet. Bekannteste Art. Der in Mitteleuropa bekannteste Vertreter der Familie ist die Europäische Eibe ("Taxus baccata"), die auch in Parks oder Gärten angepflanzt wird. Die ganze Pflanze und ihre Samen sind sehr giftig, der Arillus jedoch bleibt giftfrei. Das Gift bezeichnet man als Taxin, es enthält unter anderem das Diterpen Taxol. Nach Verzehr von mehreren „Beeren“ sollte ein Arzt aufgesucht werden. Vegetative Merkmale. Es sind immergrüne Bäume und Sträucher. Meist sind sie nicht harzhaltig und duften nicht aromatisch. Die Borke ist schuppig oder faserig. Die Blätter sind, bis auf "Amentotaxus", wechselständig oder spiralig, wirken aber oft wie zweizeilig, an den Zweigen angeordnet und verbleiben dort mehrere Jahre. Die nadelförmigen Blätter sind abgeflacht. Die Sämlinge besitzen zwei Keimblätter (Kotyledonen). Generative Merkmale. Die Arten der Taxaceae sind getrenntgeschlechtig: einhäusig (monözisch), aber meist zweihäusig (diözisch). Die männlichen zapfenförmigen Blüten stehen achselständig einzeln oder zu mehreren zusammen an einjährigen Zweigen; sie sind kugelig bis eiförmig. Die Sporophylle besitzen zwei bis zwölf Mikrosporangien (Pollensäcke). Die kugeligen Pollen sind nicht geflügelt. Die Verbreitung des Pollens erfolgt durch den Wind. Die achselständig an einjährigen Zweigen stehenden, weibliche Zapfen sind zu einer einzigen Zapfenschuppe reduziert, die ein oder zwei Samenanlagen besitzt. Je Zapfen wird nur ein Same gebildet. Der Same besitzt eine harte Samenschale und ist zur Reifezeit von einem Samenmantel (Arillus) (einer fleischigen Hülle einer Beere etwas ähnlich sieht) teilweise oder ganz ("Torreya") umgeben. Der Arillus kann intensiv gefärbt sein und saftig, fleischig oder ledrig sein. Von der Farbe und dem Geschmack des Arillus werden Tiere, vor Allem Vögel (Ornithochorie) angelockt. Der Arillus wird meist mit dem darin verborgenen Samen gefressen und der Same wird dann unverdaut wieder ausgeschieden. Systematik und Verbreitung. Die Gattungen der Familie der Eibengewächse kommen hauptsächlich auf der Nordhalbkugel vor. Das Verbreitungsgebiet reicht südlich bis zu den Philippinen und Mexiko und mit der Art "Austrotaxus spicata" in Neukaledonien auch auf die Südhalbkugel. In China kommen vier Gattungen mit elf Arten vor. Emulator. Als Emulator (von lat. "aemulare", „nachahmen“) wird in der Computertechnik ein System bezeichnet, das ein anderes in bestimmten Teilaspekten nachbildet. Das nachgebildete System erhält die gleichen Daten, führt vergleichbare Programme aus und erzielt die möglichst gleichen Ergebnisse in Bezug auf bestimmte Fragestellungen wie das zu emulierende System. Software-Emulatoren sind Programme, die einen Computer nachbilden und es so ermöglichen, Software für diesen Computer auf einem Computer mit einer anderen Architektur zu verwenden. So können z. B. Spiele für ältere Spielekonsolen auf einem PC oder einer neueren Spielekonsole ablaufen. Ein weiteres Beispiel: Ein Softwareentwickler kann bei der Entwicklung eines Programmes für ein Gerät (z. B. ein Handy), das eine andere Architektur als der Entwicklungs-Rechner hat, dieses im Emulator testen und korrigieren, ohne es jedes Mal auf das Gerät kopieren zu müssen. Ein Hardware-Emulator ist ein elektronisches Gerät, das ein System wie einen Drucker oder einen Prozessor (CPU) funktionell, elektrisch oder mechanisch (Gehäuse und Pins) nachbilden kann. Die Verbindung zur Prozessorbaugruppe wird mittels Sockel und passendem Stecker erstellt. Er wird auch als "In-Circuit-Emulator" (ICE) bezeichnet. Ein Terminalemulator ist eine Software, welche die Funktion eines Terminal (Dateneingabe/Bildschirmausgabe) nachbildet, so dass man z. B. von einem PC auf eine entsprechende Anwendung zugreifen kann. Die Geschichte der Emulation. Im Jahre 1962 war zum ersten Mal von einem (Prozessor-)Emulator zu hören. IBM arrangierte zahlreiche Computertests in La Grande (Frankreich), um die Kompatibilität ihrer neuen Produkte zu den Vorgängern zu prüfen. Dazu nutzte man eine Kombination aus Hard- und Software, die vom IBM-Ingenieur Larry Moss als Emulator bezeichnet wurde. 1965 schließlich wurde die 360-Linie offiziell veröffentlicht. Sie umfasste auch den ersten Emulator – der „7070 Emulator“ erlaubt die Verwendung von Programmen für das ältere Modell IBM 7070. 1985 erschien der Atari-ST mit einer für den Heimcomputermarkt neuen 68000-CPU und dem Betriebssystem Atari-TOS. Anfänglich gab es für diese Hardware noch wenig Anwendungs-Software. Der Übergang von der damals weit verbreiteten 8-Bit-Software unter M zur neuen 16-Bit-Welt wurde von Atari durch den kostenlos mitgelieferten CPMZ80-Emulator erleichtert. Dieser reine Softwareemulator erzeugte auf der 68000-Hardware eine virtuelle, vollständige Z80-CPU sowie ein mit CP/M 2.2 kompatibles Betriebssystem. Dadurch war ein problemloser Betrieb populärer wie vorhandener Software möglich. "MegaDrive" war 1994 der erste Videospielemulator, der der Öffentlichkeit zugänglich gemacht wurde. Wie der Name vermuten lässt, ahmt er SEGAs gleichnamiges Produkt nach, unterstützt dabei allerdings nur ein Spiel: Sonic the Hedgehog, und auch das nicht besonders gut. Die Arbeit an MegaDrive wurde allerdings nicht fortgesetzt, da der Programmierer den Quellcode verloren hatte. Im selben Jahr wurde von Chris George mit der ersten (nicht funktionierenden) Version von VSMC der erste Super-Nintendo-Emulator entwickelt. Druckeremulation. Die heute wohl in der EDV häufigsten Emulationen sind Drucker- oder Plotter-emulationen. Fast alle hochwertigen Laserdrucker emulieren zurzeit einen Hewlett-Packard-LaserJet Drucker (HP-PCL), aber auch Rasterdrucker werden emuliert. Häufig sind auch nach wie vor die Emulationen Epson P, IBM-Proprinter und Andere. Terminalemulation. Eine klassische Terminalemulation erlaubt die Interaktion mit textorientierten Programmen, die auf einem entfernten Rechner laufen, über eine externe Schnittstelle, meist eine serielle Leitung oder eine Modemverbindung. Heute hingegen sind Netzwerkverbindungen via TCP/IP die Regel. Terminalemulationen wurden programmiert, um das Verhalten eines „dummen“ Terminals, also eines einfachen Datensicht- und Eingabegerätes, nachzuahmen. Neben den textorientierten Terminalemulationen werden heute vermehrt Lösungen zur Remotebearbeitung mit graphischer Oberfläche (Citrix, MS-Remotedesktop, X-Terminal) eingesetzt. Durch diese graphischen Emulationen können beispielsweise Unix-Benutzer direkt von ihrem Arbeitsplatz aus Programme benutzen, die nur für Windows verfügbar sind (und umgekehrt). Auch die Administration erleichtert sich, da die wesentlichen Wartungs- und Installationsarbeiten nur an einem System, dem Terminal-Server, erfolgen. Virtuelle Maschine. Eine virtuelle Maschine (kurz: VM) wird oft fälschlicherweise ebenfalls als Emulator bezeichnet. Diese Spezialsoftware erzeugt auf einem Gastgeberrechner eine Laufzeitumgebung, die eigentliche virtuelle Maschine, die die Hardwareschnittstellen des Rechners (oder eines ähnlichen Rechners) abbildet. Ein Gastbetriebssystem läuft – wie üblich – auf der CPU des Gastgeberrechners, jedoch werden alle Zugriffe auf die Ein- und Ausgabehardware auf Softwareschnittstellen des Gastgeberbetriebssystems umgeleitet. Dadurch ist es möglich, unter dem vorhandenen Betriebssystem ein weiteres in einem Fenster auszuführen. Bei professionellen Anwendungen laufen unter einem Hypervisor, einer speziellen Form der VM, gar parallel mehrere Gastbetriebssysteme auf nur einer vorhandenen Hardware; faktisch wird dabei also ein einzelner Rechner in mehrere unterteilt. Kompatibilitätsschicht. Streng genommen ebenfalls vom Emulator zu unterscheiden ist die „Kompatibilitätsschicht“, die nicht versucht, ein ganzes System zu emulieren, sondern sich auf die Emulation von Softwareschnittstellen beschränkt. Ein bekanntes Beispiel ist Wine, das unter Unix-artigen Betriebssystemen eine Vielzahl der Softwareschnittstellen von Windows bereitstellt, so dass etliche Windows-Programme unter dem eigentlich fremden Betriebssystem lauffähig werden. "Siehe auch:" Laufzeitumgebung und Programmierschnittstelle Anwendungsbereiche. "Siehe auch:" Simulation, Bochs, DOSBox, M.E.S.S., PearPC, QEMU Hardware-Emulatoren. Hardware-Emulatoren ermöglichen das Entwickeln von maschinennaher Software, da keine Emulations-Software der in Entwicklung befindlichen Software das Zielsystem „vorgaukelt“, sondern in der Regel eine besondere Hardware ermöglicht, dass die Software in einer „echten“ Umgebung läuft. Die Emulations-Hardware bietet zumeist Möglichkeiten, die Software anzuhalten, Haltebedingungen zu setzen etc. ohne das Laufzeitverhalten der Software zu verändern. Die meisten Möglichkeiten bietet in der Regel ein In-Circuit-Emulator, bei dem ein besonders ausgerüsteter Mikroprozessor in der echten Zielhardware zur Softwareentwicklung genutzt wird. Zwitter-Systeme, die emulieren und virtualisieren. VMware Server, Microsoft Virtual Server und Windows Virtual PC (die Version für Microsoft Windows Systeme) sind alles gemischte Systeme, bei denen im Wesentlichen nur der Prozessor virtualisiert wird. Der Rest der PC-Plattform, wie z. B. Netzwerkkarte, BIOS usw. hingegen wird emuliert. Unabhängig von der real installierten Hardware (z. B. NE2000) kann z. B. beim VMWare Server entweder eine 100BaseTX-PCI-Netzwerkkarte von AMD, alternativ eine 1000BaseTX-(Gigabit)-PCI-Netzwerkkarte von Intel oder eine virtuelle Karte mit VMWare-eigenen Treibern emuliert werden. Als BIOS wird immer eine Phoenix-Variante emuliert. Die von Microsoft Virtual PC emulierte LAN-Karte basiert, ebenfalls unabhängig vom Chipsatz der Karte des Virtual-PC-Hosts, immer auf einem DEC/Intel-21*4*-(TULIP)-Chip. Genauso basiert die Soundkarte immer auf einem Sound Blaster 16. Systeme und Vorteile der Emulation. Emulatoren existieren für fast jedes System. Beliebt sind Emulatoren für Heimcomputer, wie zum Beispiel der VICE für den Commodore 64 oder der UAE für den Amiga. Es existieren jedoch auch weitere unzählige Emulatoren für Computer, Handhelds, Arcade-Automaten und Spielkonsolen, siehe auch M.E.S.S. In letzter Zeit spielen Emulatoren auch in der Freeware-Szene eine bedeutende Rolle. So bietet etwa der GameBoy Advance durch seine relativ einfache Programmierbarkeit die Möglichkeit, Spiele und Anwendungen zu entwickeln, die dann auch auf einem Emulator genutzt werden können. Für den Nutzer, der Emulatoren z. B. zum Ausführen von alten, kommerziellen Computerspielen einsetzt, ist problematisch, dass diese auch dann noch unter dem Schutze des Urheberrechts stehen, wenn es sie seit mehreren Jahren nicht mehr zu kaufen gibt. Gegenüber der echten, ursprünglichen Hardware besitzen Spielkonsolen-Emulatoren einige Vorteile. Dazu zählen die exzellente Bildqualität, der digital verarbeitete und somit verlustlos aufnehmbare Ton. Weitere, die Benutzerfreundlichkeit der eigentlichen Systeme erweiternde Aspekte sind z. B. das Verbessern der Videoausgabe (z. B. Weichzeichnen und Filtern von Grafiken bei Konsolen wie Super Nintendo oder PlayStation, obwohl diese Systeme niemals diese Techniken unterstützten, geschweige denn berechnen könnten) oder das Verwenden von Savestates zum schnellen Speichern und Laden von Spielständen – jederzeit während der Laufzeit des Spieles. Nachteile der Software-Emulation. Der größte Nachteil der Software-Emulation ist, dass sie eine hohe Rechenlast auf dem emulierenden System erzeugen. So können, selbst auf modernen Rechnern, zum Beispiel alte Spieleklassiker teilweise nicht flüssig laufen. Die Software-Entwicklung für solche Emulationen ist sehr aufwendig. Ein weiterer Nachteil besteht darin, dass Spiele ohne Frame-Limiter zu schnell ablaufen können, wenn die Systemleistung ausreicht, das Spiel mit deutlich mehr Bildern pro Sekunde darzustellen als ursprünglich vorgesehen. Die meisten Emulatoren bieten jedoch die Möglichkeit, die emulierte Rechenleistung zu begrenzen. ROMs. Software älterer Computersysteme, besonders der Spielekonsolen, ist häufig nur in Form von ROM-Bausteinen verfügbar. Da sich ROMs relativ einfach auslesen lassen, arbeiten Emulatoren in der Regel problemlos mit so genannten ROM-Dateien (oder auch "ROM Images"), die in verschiedenen Dateiformaten vorliegen. Ein Hindernis bei der freien Verwertung und Verteilung ist allerdings, dass ROM-Inhalte (Software, hier Spiele) in der Regel urheberrechtlich geschützt sind und manche sogar noch kommerziell genutzt werden. Manche Emulatoren können auch komprimierte Dateien (z. B. im Zip-Format) lesen, die mehrere Dateien enthalten können. Images von Datenträgern. Ähnlich verhält es sich mit Kopien von Software, die auf Bändern oder Disketten ausgeliefert wurden. Auch hier sind "Tape Images" bzw. "Disk Images" für die Benutzung mit einem Emulator verbreitet. Manche Emulatoren (zum Beispiel M.E.S.S.) können auch echte Töne von Cassetten als wav-Datei einlesen. M.A.M.E.. Ein beliebter Emulator ist M.A.M.E. („Multiple Arcade Machine Emulator“), der tausende bekannte Arcade-Spiele wie Pac-Man emuliert. Die Spiele-ROMs sind bei dem quelloffenen Emulator jedoch nicht enthalten. Endokrinologie. Die Endokrinologie (von griech. ἔνδον "endon" ‚innen‘ und κρίνειν "krinein" ‚entscheiden‘, ‚abscheiden‘ und -logie) ist die „Lehre von den Hormonen“. Endokrin heißen Hormondrüsen, die ihr Produkt nach innen, direkt ins Blut abgeben und im Gegensatz zu exokrinen Drüsen (z. B. Speichel-, Talgdrüsen) keinen Ausführungsgang haben. Endokrine Drüsen sind Drüsen der inneren Sekretion. Die medizinische Endokrinologie ist ein Teilgebiet der Inneren Medizin, siehe auch Endokrine Chirurgie. Europäische Eibe. Die Europäische Eibe "(Taxus baccata)", auch Gemeine Eibe oder nur Eibe genannt, ist die einzige europäische Art in der Pflanzengattung der Eiben "(Taxus)". Sie ist die älteste (Tertiärrelikt) und schattenverträglichste Baumart Europas. Sie kann ein sehr hohes Alter erreichen. Bis auf den bei Reife durch Karotinoide lebhaft rot gefärbten Samenmantel, den Arillus, der becherartig den Samen umgibt und den Eibenpollen, sind alle Pflanzenteile der Europäischen Eibe stark giftig. In allen europäischen Ländern gehört die Europäische Eibe zu den geschützten Pflanzenarten. In Deutschland steht sie auf der Roten Liste der gefährdeten Arten (Gefährdungsklasse 3: gefährdet) und war im Jahre 1994 Baum des Jahres sowie Giftpflanze des Jahres 2011. In Österreich war sie im Jahr 2013 Baum des Jahres. Oft wird der Rückgang der Eibe in Zusammenhang mit der Ausbreitung der Buche "(Fagus)", zu Beginn des Klimawechsels vor ca. 2000 Jahren in Verbindung gebracht. Allerdings kann die starke Ausbreitung der Buche nicht allein für das Verschwinden der Eibe verantwortlich sein, da man die Eibe oft auch in Buchenwäldern antrifft, wo sie im Unterstand der Buche wächst. Möglicherweise hat die Buche ihren Teil zum Verschwinden der Eibe beigetragen, ihre Gefährdung jedoch ist in einer jahrhundertelangen Übernutzung durch den Menschen begründet. Das Holz der Eibe wurde seit jeher vom Menschen geschätzt, da es aufgrund des langsamen Wuchses des Baumes eine außergewöhnliche Härte und Zähigkeit aufweist. Vor ca. 2000 Jahren begann nicht nur die Buche sich auszubreiten, sondern mit dem Ende der Bronzezeit breitete sich auch der Mensch mehr und mehr in Europa aus. Die Nutzung von Eibenholz durch den Menschen geht aber noch weiter zurück. Den ältesten Nachweis für die Verwendung von Eibenholz als Werkzeug bildet die Lanzenspitze von Clacton-on-Sea aus der Holsteinwarmzeit vor etwa 300.000 Jahren. Aus der Eem-Warmzeit vor etwa 130.000 Jahren stammt die Lanze von Lehringen. Auch der berühmte „Ötzi“, die Gletschermumie, die 1991 in den Ötztaler Alpen gefunden wurde, lebte vor 5200 Jahren und trug einen Bogenstab von ca. 1,80 Meter Länge aus Eibenholz bei sich. Auch der Stiel seines Kupferbeiles war aus Eibenholz. Während die Nutzung der Eiben in der Forstwirtschaft heute keine wirtschaftliche Bedeutung mehr hat, werden die schnittverträglichen Eiben seit der Renaissance häufig in der Gartengestaltung eingesetzt. Sie wurden und werden vor allem als immergrüne, geschnittene Hecken gepflanzt. Erscheinungsbild. Die immergrüne Europäische Eibe ist in ihrer Gestalt eine sehr variable Art, die je nach Standortbedingungen als Baum oder Strauch wächst. An extremen Standorten wie etwa im Hochgebirge oder in Felswänden wächst sie sogar als Kriechstrauch. Mit zunehmendem Alter verändert sich das Aussehen der Eibe. Junge Eiben besitzen meist schlanke Stämme mit einer regelmäßigen Beastung. Die Krone ist bei jungen Bäumen breit kegelförmig und entwickelt sich mit zunehmendem Alter des Baumes zu einer runden, eiförmigen oder kugeligen Form. Oft sind freistehende Eiben bis an den Boden beastet. Auch sind ältere Exemplare nicht selten mehrgipfelig und mehrstämmig. Charakteristisch und auffällig ist die dünne grau- bis rotbraune Schuppenborke der Eibenstämme. Anfangs tragen die Stämme junger Eiben eine rötlichbraune glatte Rinde, die später zu einer graubraunen, sich in Schuppen ablösenden Borke wird. In Mitteleuropa erreichen nur sehr wenige Bäume Wuchshöhen über 15 Meter. Im Norden der Türkei wachsen allerdings monumentale Eiben, die Wuchshöhen von 20 Meter erreichen, und in den Mischwäldern des Kaukasus gibt es vereinzelt Eiben, die eine Wuchshöhe bis 32 Meter haben. Junge Eiben weisen in der Regel einen Stamm mit einer deutlichen Hauptachse auf, während geschlechtsreife Eiben häufig mehrstämmig sind. In der Jugend wächst die Eibe extrem langsam. Bei ungünstigen Bedingungen verharrt sie in einer Höhe von 10 bis 50 Zentimetern und bildet eine Kleinkrone. Bei günstigsten Bedingungen dauert es mindestens 10–20 Jahre, bis sie aus dem Äser des Rehwildes herausgewachsen ist. Danach wächst sie bei guten Bedingungen bis zu 20 Zentimeter jährlich. Ab einem Alter von ca. 90 Jahren kulminiert das Höhenwachstum der Eibe. Dagegen hören Dicken- und Kronenwachstum nie auf. So sind Stammdurchmesser von über einem Meter möglich. Auf Grund ihres hohen vegetativen Reproduktionsvermögens sind Wurzelschösslinge, Triebstämmlinge und die Bewurzelung von Ästen, die den Boden berühren, für die Europäische Eibe charakteristisch. Durch die Verwachsung einzelner Stämme können bis zu 1 Meter dicke Komplexstämme entstehen. Ab einem Alter von etwa 250 Jahren setzt bei Eiben häufig eine Kernfäule im Stammesinneren ein, die im Laufe von Jahrhunderten zu einer fast vollständigen Aushöhlung des Baumes führen kann. Die Kernfäule macht eine genaue Altersbestimmung von alten Eiben fast unmöglich, da im Stammesinneren keine Jahresringe mehr vorhanden sind, an denen das Alter eines Baumes abgelesen werden könnte. Das Alter wird daher meistens geschätzt. Charakteristisch für die Altersphase von Europäischen Eiben ist, dass der Baum trotz des ausgehöhlten Stammes zunächst eine vollentwickelte Baumkrone aufweist, bis der ausgehöhlte Stamm das Kronengewicht nicht mehr tragen kann und Teile des Baumes wegbrechen. Es verbleiben dann kreis- oder halbkreisförmig stehende Stammfragmente, die unter günstigen Umständen durch neue Triebe aus dem Baumstumpf oder dem Wurzelsystem ergänzt werden. Alte Eiben haben zwei Strategien zur Verfügung, durch die sie einen von innen heraus wegfaulenden Stamm ersetzen können: Im hohlen Stammesinneren bilden sie gelegentlich Innenwurzeln aus, die sich zu einem neuen Stamm entwickeln können. Alternativ können stammbürtige Triebe außen am Primärstamm senkrecht emporwachsen, so dass sehr alte Eiben gelegentlich nur noch aus einem solchen Kranz stark verdickter und miteinander verwachsener Triebstämme bestehen. Die Nadeln. Die weichen und biegsamen Eibennadeln haben eine linealische Form, die mitunter leicht sichelförmig gebogen ist. Sie stehen an den Leittrieben spiralförmig, während sie an den Seitenzweigen zweizeilig angeordnet sind. Eibennadeln sind zwischen 1,5 und 3,5 Zentimeter lang und zwischen 2 und 2,5 Millimeter breit und erreichen ein Alter von drei bis acht Jahren, bis der Baum sie abwirft. Eibennadeln werden auch als dorsiventral bezeichnet, was bedeutet, dass sie eine deutlich unterscheidbare Ober- und Unterseite haben. Auf ihrer Oberseite sind sie glänzend dunkelgrün und haben einen erhobenen Mittelnerv, der zur Spitze hin ausläuft. An der Unterseite sind sie dagegen hell- oder olivgrün gefärbt. Während Eibennadeln auf der Oberseite keine Spaltöffnung aufweisen, befinden sich an der Unterseite zwei undeutliche, blassgrüne Stomabänder. Eibennadeln besitzen mehrere auffällige Charakteristika. Sie haben keine durch Sklerenchym mechanisch verstärkte Unterhaut (Hypodermis) und es fehlen Harzkanäle. Das Wurzelsystem. Europäische Eiben haben ein sehr weitläufiges, tiefreichendes und dichtes Wurzelsystem. Die Entwicklung dieses Wurzelsystems hat dabei beim Heranwachsen des Baumes Priorität vor dem Dicken- und Höhenwachstum. Europäische Eiben vermögen dabei auch in stark verdichtete Böden vorzudringen. Das im Vergleich mit anderen Baumarten stark entwickelte Wurzelsystem ermöglicht auch die hohe Regenerationsfähigkeit des Baumes, bei der selbst nach einem kompletten Stammverlust noch Wurzelschösslinge nachwachsen. Mit ihrem vielfältigen und flexiblen Wurzelsystem ist die Eibe unempfindlich gegen Wechselfeuchte, zeitweilige Vernässung und Luftarmut im Boden. Dies zeigt ihre hohe individuelle Anpassungsfähigkeit an unterschiedliche Standorte und Lebensbedingungen. In Felsregionen ist die Europäische Eibe in der Lage, mit ihren Wurzeln in wasserführende Senken und Klüfte einzudringen, während sie sich an nackte Felsen klammert. Die Eibe hat eine Pilzwurzel vom Typ einer VA-Mykorrhiza, daher gehören Eiben zu den wenigen Waldbäumen, deren Wurzeln keine Symbiose mit Fruchtkörper bildenden Mykorrhiza-Pilzen eingehen. Blüten, Samen und Vermehrung. Unter optimalen Standortbedingungen tragen Eiben das erste Mal Blüten, wenn sie ein Lebensalter von 15 bis 30 Jahren erreicht haben. Unter weniger guten Standortbedingungen kann sich die Geschlechtsreife deutlich hinauszögern. In dichten Baumbeständen stehende Eiben, die kein ausreichendes Licht erhalten, erreichen ihre Geschlechtsreife mitunter erst mit 70 bis 120 Jahren. Die Anlage der Blüten erfolgt bereits im Spätsommer. Die Blütezeit liegt im Spätwinter oder im frühen Frühjahr des nächsten Jahres, im Normalfall zwischen Februar und März, in kälteren Regionen erst zwischen April und Mai. Die Europäische Eibe ist normalerweise zweihäusig (diözisch): männliche und weibliche Blüten befinden sich auf unterschiedlichen Bäumen. Ausnahmefälle sind einhäusige (monözische) Exemplare, bei denen sich Blüten beider Geschlechter an einem Baum befinden. Meist weist nur ein einzelner Ast Blüten mit einem anderen Geschlecht auf. Die zahlreichen männlichen Blüten stehen an 1 bis 2 mm langen, blattachselständigen Trieben. Sie haben eine kugelige Form mit einem Durchmesser von etwa 4 mm und enthalten 6 bis 14 schildförmige Staubblätter, die jeweils 6 bis 8 gelbliche Pollensäcke tragen. Wenn sich die Pollensäcke durch Wärme öffnen, werden die Pollenkörner bereits durch geringe Windbewegungen fortgetragen. Obwohl die Pollenkörner der Europäischen Eibe keine Luftsäcke aufweisen, ist wegen ihres geringen Gewichtes ihre Sinkgeschwindigkeit mit 1,6 cm pro Sekunde so gering, dass sie durch Luftbewegungen sehr weit fortgetragen werden können. Die frühe Blütenzeit, die in einen Zeitraum fällt, in dem Laubbäume in der Regel noch keine Blätter tragen, stellt sicher, dass dieser Pollenflug weitgehend ungehindert stattfinden kann, selbst wenn die jeweilige Eibe von Laubbäumen überdacht ist. Die weiblichen Blüten sind nur 1 bis 1,5 mm groß, stehen jeweils als Kurztriebe in den Blattachseln jüngerer Zweige und sind auf Grund ihrer grünlichen Farbe unscheinbar. Sie bestehen aus sich überlappenden Schuppen, von denen nur die oberste fruchtbar ist und nur eine Samenanlage trägt. Zur Blütezeit bildet sich an der Spitze des umhüllenden Deckblattes ein Bestäubungstropfen aus. Dieser nimmt die anfliegenden Pollenkörner auf und bringt, wenn er verdunstet ist, die Pollenkörner an den Nucellus, sodass die Blüte bestäubt wird. An der Basis der Samenanlage findet sich ein ringförmiger Wulst, der sich bei befruchteten Blüten zu einem fleischigen Samenmantel, dem Arillus, auswächst. Dieser umgibt den Samen becherförmig, seine Farbe wandelt sich mit zunehmender Reife von Grün zu einem auffallenden Rot. Aufgrund des Arillus wird der Eibensamen oft fälschlicherweise als Frucht oder sogar Beere bezeichnet. Dies ist botanisch nicht korrekt, da es bei den Nacktsamigen Pflanzen keinen Fruchtknoten gibt, der zur Fruchtentwicklung erforderlich wäre. Die Blütenknospen werden im Laufe der zweiten Sommerhälfte ausgebildet. mini Der bläulich-braune und eiförmige Samen ist 6 bis 7 mm lang und 3 bis 5 mm breit. Das Gewicht des Samens liegt zwischen 43 und 77 mg. Die Ausbildung des Samenmantels haben Europäische Eiben mit den anderen Arten aus der Familie der Eibengewächse gemeinsam. Die Samen reifen von August bis Oktober und keimen erst im zweiten Frühjahr. Die Samenverbreitung erfolgt durch Vögel, die vom süßen Arillus angelockt werden. Der Arillus wird verdaut und der Samen passiert unbeschadet den Verdauungstrakt. Auf diese Weise sorgen Vögel für die Ausbreitung der Eibensamen. Für die generative Vermehrung durch Aussaat werden die Samen gesammelt, sobald sich der Arillus rot und der Samen braun verfärben. Der Samenmantel wird mit einem Wasserstrahl entfernt und die Samen dann bis zum nächsten Herbst gelagert. Der Keimerfolg ist größer 50 %, wenn die Samen vor der Aussaat stratifiziert werden, das heißt einer mehrmonatigen Wärme- und Kältebehandlung, die den Wechsel der Jahreszeiten nachahmt, unterzogen werden. Die Chromosomenzahl der Art ist 2n = 24. Systematik. Die "Taxaceae" (Eibenartige) werden den "Gymnospermen" (Nacktsamern) und innerhalb dieser den Koniferen (Nadelbäumen) zugeordnet. Interessant ist das Fehlen der für diese Gruppe typischen Zapfen bei den Eiben; der fleischige Arillus (fälschlich umgangssprachlich „Beere“) entsteht aus dem Stiel der Samenanlage. Zur Familie der Eibengewächse gehören insgesamt fünf Gattungen ("Amentotaxus", "Austrotaxus", "Pseudotaxus", "Torreya", "Taxus"), die alle Samen mit einem Arillus bilden. Vergleicht man verschiedene Quellen (STEWARD 1982; MEUSEL 1960; MAJER 1980), so wird klar, dass es unter Botanikern keine Übereinstimmung darüber gibt, ob es sich bei den unterschiedlichen Vertretern der Gattung "Taxus" um Arten, Unterarten oder nur um Varietäten der bei uns heimischen Gemeinen Eibe handelt. Die meisten Quellen sprechen von fünf bis zehn verschiedenen Arten der Gattung "Taxus". "Taxus baccata" L. ist die einzige in Europa heimische Art. Verbreitung. Das Vorkommen von "Taxus baccata" L. beschränkt sich nicht nur auf Europa, sondern geht über die europäischen Grenzen hinaus. Die Europäische Eibe hat ein Verbreitungsgebiet, das vom Atlasgebirge in Nordwestafrika über Europa, Kleinasien bis in den Kaukasus und den Nordiran reicht. Im Norden verläuft die Verbreitungsgrenze von den Britischen Inseln über Norwegen bis nach Schweden und Finnland. Die östliche Verbreitung reicht von Lettland, entlang der russisch-polnischen Grenze, bis zu den östlichen Karpaten und endet im Norden der Türkei. Im Süden verläuft die Verbreitungsgrenze südlich von Spanien, über Teile Marokkos und Algeriens, bis zur Südtürkei und von dort bis ins Landesinnere des Nordirans. In Europa ist das Verbreitungsgebiet nicht zusammenhängend, sondern zerfällt in mehrere Teilareale und ist stark zerrissen. Oft kommt die Eibe nur noch in kleinen Beständen oder als Einzelbaum vor. Die Ursache dieser Disjunktion (Zerrissenheit) ist mit großer Wahrscheinlichkeit die anthropogene (menschengemachte) Übernutzung der Eibenbestände in früherer Zeit. Natürliche Eibenvorkommen existieren vor allem in Nordportugal, Spanien, der Bretagne im Norden Frankreichs, auf den Britischen Inseln, im südlichen Skandinavien, im Baltikum, den Karpaten, auf der nördlichen Balkanhalbinsel, in Nord- und Mittelitalien, Korsika und Sardinien. Sie fehlt dagegen unter anderem in Dänemark, im nördlichen Belgien und Holland sowie entlang der unteren und mittleren Elbe und Saale. Sie fehlt auch im Landesinneren von Polen, während sie in der Küstenregion der Ostsee vorkommt. Das Verbreitungsgebiet der Europäischen Eibe wird wesentlich durch ihre geringe Frosthärte bestimmt. Ihre Nordgrenze verläuft bei 62 Grad 30 Minuten in Norwegen und 61 Grad in Schweden etwa auf der Januar-Isotherme von −5 Grad Celsius. Sie gedeiht vor allem dort, wo sich das Klima durch milde Winter, kühle Sommer, viel Regen und eine hohe Luftfeuchtigkeit auszeichnet. In den Bayerischen Alpen kommt sie bis in eine Höhe von vor, im Wallis bis in eine Höhe von. Gefährdung und Schutz. Die Europäische Eibe wird in der Roten Liste der IUCN als „nicht gefährdet“ (least concern) mit einem „ansteigenden“ Trend (increasing) gelistet. In Deutschland wird die Eibe in der Roten Liste als „gefährdet“ (Stufe 3) geführt, wobei als Hauptgefährdungsgründe Altersklassenbewirtschaftung mit Kahlschlagbetrieb und Wildverbiss angegeben werden. Seit dem Inkrafttreten der Bundesartenschutzverordnung (1. Januar 1987) stehen wild lebende Populationen der Eibe unter "besonderem Schutz". Im Auftrag der Bundesanstalt für Landwirtschaft und Ernährung (BLE) wurden im Rahmen des Projekts "Erfassung und Dokumentation genetischer Ressourcen seltener Baumarten in Deutschland" in den Jahren 2010 bis 2012 die Vorkommen der Europäischen Eibe in den deutschen Wäldern erfasst. Es wurden insgesamt 342 Eibenvorkommen mit zusammen 60.045 Bäumen aufgenommen. Die eibenreichsten Bundesländer waren Thüringen mit 33.200 Eiben und Bayern mit 14.700 Eiben. Die Verbreitungsschwerpunkte liegen im Mitteldeutschen Trias-Berg- und Hügelland, in der Schwäbischen Alb, in der Frankenalb und im Oberpfälzer Jura sowie in der Schwäbisch-Bayerischen Jungmoräne. In der Schweiz wird die Europäische Eibe in der Roten Liste des Bundesamtes für Umwelt (BAFU) als „nicht gefährdet“ eingestuft. Sie ist aber regional (kantonal) geschützt. Standortanforderungen. Die Eibe ist standortvage, d. h. sie gedeiht auf feuchten, wechselfeuchten und sehr trockenen, sowie auf sauren und basischen Standorten. Das Ökogramm der Eibe zeigt die sehr große physiologische Amplitude dieser Baumart, die im trockenen Bereich sogar über waldfähige Standorte hinausgeht und selbst wechselnde Bedingungen erträgt. Die Eibe kommt oft auf frischem, humosem oder sandigem Lehm vor, sie gedeiht jedoch ebenso auf wechselfeuchten und sogar sandigen Standorten. Wie bei allen anderen Baumarten ist jedoch das Wachstum der Eibe auf gut durchwurzelbaren und nährstoffreichen Böden begünstigt. Sie kommt auf kalkhaltigen Standorten, Silikatgesteinsböden sowie auf organischen Substraten gleichermaßen vor. Die Europäische Eibe bevorzugt frische, nährstoffreiche, oft basische Böden in ozeanischer, feuchter Klimalage. Ihr Niederschlagsoptimum liegt bei über 1000 mm/Jahr. Ihren Wasserbedarf vermag sie aber auch aus nassen oder moorigen Sonderstandorten in generell niederschlagsärmeren Gebieten zu decken. Selbst in Flussauen ist sie zu finden, was auf eine Toleranz gegen Sauerstoffmangel im Boden hindeutet. Die Europäische Eibe ist die schattenverträglichste Baumart Europas. Bei einer Temperatur von 20 Grad kann sie bei einer Beleuchtungsstärke von 300 Lux noch überleben. Junge Eiben sind obligate Schattenpflanzen, das heißt, sie gedeihen nur im Schatten, vor allem im schattigen Unterstand unter anderen Bäumen. Herangewachsene Eiben vertragen dagegen auch volle Sonne. Während Europäische Eiben in Wäldern mit einem völlig geschlossenen, immergrünen Kronendach, wie es für einen reinen Fichtenbestand typisch ist, nicht gedeihen, reichen ihnen noch fünf Prozent der Lichtmenge des Freilandes, um erfolgreich Blüten und Samen zu bilden. Am besten gedeihen sie in lichten Mischwaldbeständen, vor allem in Eichen-, Buchen-, Tannen- und Edellaubholzmischwäldern, aber nur wenn der Wildbestand so niedrig ist, dass nachwachsende Jungpflanzen nicht sofort verbissen werden. Dabei stellen sie beispielsweise in den Karpaten 12,4 Prozent der Stammzahl, 13,5 Prozent der Grundfläche und 4 Prozent des Holzvorrates. Die Europäische Eibe zählt dabei zu den sogenannten Klimaxwald-Baumarten, das heißt, sie kann sich in einer Pflanzengemeinschaft, die sich am Ende einer Sukzessionsfolge entwickelt hat, erfolgreich natürlich verjüngen. Reine Eibenbestände sind dagegen selten. Sie entstehen meist, weil das hohe Lebensalter, das Eiben erreichen können, sie die anderen Baumarten überdauern lässt, in deren Schatten sie zuvor wuchsen. Europäische Eiben finden sich heute wegen früherer Übernutzung, gezielter Ausrottung und Wildverbiss oft nur noch in unzugänglichen Schluchtwäldern und an Steilhängen. Sie wurden häufig als „Unholz“ und Pferde- und Hühnergift bekämpft. Weitere Gründe für die Seltenheit der Eibe sind die Umstellung der Forstwirtschaft von plenterartigen Eingriffen zur schlagweisen Wirtschaft, die die langsamwachsende, gegen plötzliche Freistellung empfindliche Eibe benachteiligt. Ein hoher Wildbestand behindert wegen Verbisses gleichfalls eine natürliche Bestandsverjüngung. Ihre letzten Rückzugsorte sind vielfach schattige und steile, auch vom Wild gemiedene Berghänge, die aber wasserzügig sein müssen. Regenerationsfähigkeit. Gefährdete Pflanzenart auf lettischer Briefmarke Das Regenerationsvermögen der Eibe ist im Vergleich zu allen anderen heimischen Nadelbäumen am stärksten ausgeprägt. Die hohe Regenerationsfähigkeit der Eibe zeigt sich einerseits darin, dass sie als einzige Nadelbaumart die Fähigkeit besitzt aus dem Stock auszuschlagen. Andererseits schafft sie es durch ihre sehr gute Wundheilung (Wundüberwallung), auch große Schäden zu überstehen. Bis ins hohe Alter ist die Eibe in der Lage, durch die Bildung von Reiterationen auf mechanische, aber auch Frost- oder Sonnenbrandschäden zu reagieren. Diese Wiederholungstriebe dienen der Erneuerung der Krone und verschaffen Bäumen die Möglichkeit, alternde Äste zu ersetzen. Eine weitere Überlebensstrategie ist die vegetative Vermehrung. Diese ungeschlechtliche Vermehrung beruht auf der mitotischen Zellteilung. Die Tochtergeneration unterscheidet sich in ihrem genetischen Material daher nicht von der Muttergeneration; sie ist ein Klon. Das hohe vegetative Reproduktionsvermögen zeigt sich durch folgende Fähigkeiten: Durch die Bildung von Astsenkern können sowohl zusätzliche Nährstoffe aufgenommen werden, als auch eine vollständige Verjüngung eines einzelnen Eibenbaumes stattfinden. Bei umgestürzten Bäumen treiben sofort senkrechte Äste aus. Astteile, die mit dem Boden in Berührung kommen, beginnen Wurzeln auszuschlagen. Dürreresistenz. Obwohl die Nadeln der Eibe weder über sklerenchymatische Verstärkungen noch schützende Wachstropfen in den Spaltöffnungen verfügen, gilt sie als ausgesprochen dürreresistent. So kann die Eibe ähnlich hohe relative Wasserverluste ertragen wie die Gemeine Kiefer ("Pinus sylvestris"). Beide besitzen ähnlich hohe absolute Wasserreserven (auf gleiches Gewicht bezogen) wie krautige, saftreiche Pflanzen, obwohl ihre Wasserkapazität (Wassergehalt bei Sättigung) vergleichsweise gering ist. Dadurch hat die Eibe in Relation zum Trockengewicht die Möglichkeit, weit höhere Wasserverluste, sogar bis zu 45 % ihres Gewichtes, zu überstehen. Eine weitere Fähigkeit, die die Eibe vor dem Austrocknen schützt, ist das schnelle Schließen der Stomata. So stellen vergleichende Untersuchungen von Tannen- und Eibennadeln fest, dass die Eibe auf ein Wassersättigungsdefizit viermal schneller mit einem Stomataverschluss reagiert als die Tanne ("Abies"). Frosthärte. Die Winterüberdauerungsstrategie der Eibe beruht auf zwei Komponenten. Zum einen wird die Transpiration im Vergleich zum Sommer auf ein Fünftel bis zu einem Zwanzigstel eingeschränkt. Die Einschränkung ist umso höher, je kälter die Umgebungstemperatur ist. Zum anderen hebt die Eibe die Zellsaftkonzentration an. Dadurch kommt es zu einer Absenkung des Gefrierpunktes. Gemeinsam mit dem Gefrierpunkt verringert sich auch das Temperaturminimum für die Nettoassimilation von ca. -3 °C auf ca. -8 °C. Solange die Eibe ausreichend Vorbereitungszeit auf die Kälteeinwirkung hat, um ihre Zellsaftkonzentration entsprechend zu steigern, kommt es nur bei sehr tiefen Temperaturen von unter -20 °C zu Gefrierschäden. Wesentlich häufiger kommt es zu Schäden durch Frosttrocknis, die unter anderem auf den relativ schlechten Transpirationsschutz der Eibennadeln zurückzuführen sind. Diese Vertrocknungsschäden kommen aber meistens nur bei exponierten, freistehenden Bäumen vor. Des Weiteren ist die Eibe unempfindlich gegen Spätfröste. Sie erreicht das dadurch, dass die im Laufe des Winters erhöhte Zellsaftkonzentration nur langsam abgebaut wird. Dadurch bleibt diese winterliche Abhärtung lange in die Vegetationszeit hinein bestehen. Die Normalwerte des Vorjahres werden erst im Juni wieder erreicht. Schattentoleranz. Die Eibe gilt als ausgesprochen schattentoleranter Baum. Sie ist in der Lage auch völlig überschirmt im Nebenbestand zu überleben. Sie verträgt im Vergleich zu den klassischen Schattenbaumarten wie Tanne und Buche deutlich mehr Beschattung. Wie beim Auftreten eines Wasserdefizites, schließen sich die Stomata auch bei Verdunkelung schnell. Sie öffnen sich erst nach der Überschreitung des Lichtkompensationspunktes. Allerdings kann die Eibe schon bei geringer Lichtintensität eine positive Nettoassimilation erreichen. Der Lichtkompensationspunkt, also der Punkt bei dem gerade noch eine positive Nettoassimilation möglich ist, beträgt bei der Eibe bei einer Temperatur von 20 °C etwa 300 Lux. Im Vergleich dazu kommen andere schattenertragenden Baumarten wie die Buche auf 300–500 Lux und die Tanne ("Abies") auf 300–600 Lux. Eine typische Lichtbaumart wie die Weißkiefer ("Pinus sylvestris") benötigt hingegen Werte von 1000–5000 Lux zum Überschreiten des Lichtkompensationspunktes. Giftigkeit. Holz, Rinde, Nadeln und Samen enthalten toxische Verbindungen, die in ihrer Gesamtheit als Taxane oder Taxan-Derivate (Diterpene) bezeichnet werden. Im Einzelnen lassen sich unter anderem Taxin A, B, C sowie Baccatine und Taxole nachweisen. Der Gehalt an toxischen Verbindungen ist in den unterschiedlichen Baumteilen verschieden hoch und schwankt in Abhängigkeit von der Jahreszeit und individuellem Baum. Der Samenmantel des Baumes ist hingegen nicht giftig und schmeckt süß. Die toxischen Verbindungen werden beim Menschen und anderen Säugetieren rasch im Verdauungstrakt aufgenommen. Vergiftungserscheinungen können beim Menschen bereits 30 Minuten nach der Einnahme auftreten. Die toxischen Verbindungen wirken dabei schädigend auf die Verdauungsorgane, das Nervensystem und die Leber sowie die Herzmuskulatur. Zu den Symptomen einer Vergiftung zählt eine Beschleunigung des Pulses, Erweiterung der Pupillen, Erbrechen, Schwindel und Kreislaufschwäche, Bewusstlosigkeit. Bereits eine Aufnahme von 50 bis 100 Gramm Eibennadeln kann für den Menschen tödlich sein. Der Tod tritt durch Atemlähmung und Herzversagen ein. Menschen, die eine solche Vergiftung überleben, tragen in der Regel einen bleibenden Leberschaden davon. Pferde, Esel, Rinder sowie Schafe und Ziegen reagieren in unterschiedlichem Maße empfindlich auf die in Eiben enthaltenen toxischen Verbindungen. Pferde gelten als besonders gefährdet – bei ihnen soll schon der Verzehr von 100 bis 200 Gramm Eibennadeln zum Tode führen. Bei Rindern treten Vergiftungserscheinungen bei etwa 500 Gramm auf. Gefährdet sind Weidetiere vor allem dann, wenn sie plötzlich größere Mengen aufnehmen. Dagegen scheinen zumindest Rinder, Schafe und Ziegen eine Toleranz gegen die Toxine der Europäischen Eibe zu entwickeln, wenn sie daran gewöhnt sind, regelmäßig kleinere Mengen davon zu fressen. Bei Kaninchen sollen bereits weniger als 2 Gramm der Nadeln zum Tode führen. Unempfindlich gegenüber den Giften der Eiben und deshalb Verursacher von Schäden durch Wildverbiss sind Hasen, Rehe und Rothirsche. Die Eibe als Heilpflanze. Als Heildroge dienen die frischen Zweigspitzen, Taxus baccata (HAB) Diterpen-Alkaloide vom Taxan-Typ, Baccatin III (das Gemisch wurde als „Taxin“ bezeichnet), cyanogene Glykoside, wie Taxiphyllin, Biflavonoide, wie Sciadopitysin und Ginkgetin. Die arzneiliche Anwendung von Eibennadeln in der Volksheilkunde z. B. bei Wurmbefall, als Herzmittel oder zur Förderung der Menstruation, auch als Abtreibungsmittel, war wegen der Giftigkeit risikoreich und gehört inzwischen der Vergangenheit an. Heute nutzt man noch homöopathische Zubereitungen; zu den Anwendungsgebieten gehören: Verdauungsschwäche und Hautpusteln. Seit den 1990er-Jahren genießt die Art wieder hohe Wertschätzung, nachdem es gelungen war, die zellteilungshemmende Substanz Paclitaxel, die man bisher nur aus der Rinde der Pazifischen Eibe, Taxus brevifolia, isolieren konnte, teilsynthetisch aus den Taxan-Verbindungen der Nadeln, speziell dem Baccatin III darzustellen sowie später eine weitere Substanz, das Docetaxel. Sie sind derzeit zur Behandlung von metastasierendem Brust- und Eierstockkrebs sowie von bestimmten Bronchialkarzinomen zugelassen, wegen der schweren Nebenwirkungen jedoch erst nach Versagen anderer Therapien. Begleitbaumarten und Krautschicht. Typische Begleitbaumarten der Europäischen Eibe sind in Mitteleuropa Eiche, Hainbuche, Esche, Ulme, Linde, Tanne, sowie der Bergahorn. Dabei findet sie ihr Optimum in Laubwäldern mit tiefgründigen, frischen, nährstoffreichen Böden, etwa in niederschlagsreichen Tannen-Buchen- oder in Stieleichen-Auenwäldern. Im trockenen Klima der Mittelmeerländer wächst sie in der Gesellschaft mediterraner Eichenarten wie der Steineiche, oder der Platanen. Im offenen Kulturland wachsen Europäische Eiben oft zwischen dornigen Heckengebüschen wie Schlehe oder Heckenrose heran, welche die jungen Pflanzen vor dem Verbiss durch Wild- und Weidetiere schützen. Besteht die Krautschicht in Eiben-Mischwäldern neben Farnen und Moosen häufig aus Bingelkraut, Walderdbeere, Gundermann, Efeu, Brombeere und Veilchen, sind in Eiben-Buchenwäldern eher Einblütiges Perlgras, Waldmeister, oder Kalk-Blaugras anzutreffen. Wo die Europäische Eibe vor allem mit Eichen vergesellschaftet ist, finden sich in der Krautschicht oft auch Schlüsselblume und Pfirsichblättrige Glockenblume. Vögel. Bei Vogelarten, die die Europäische Eibe als Nahrungspflanze nutzen, wird zwischen Samenverbreitern, die nur an dem süßen Arillus interessiert sind und den Samen wieder ausscheiden, sowie Samenfressern unterschieden. Zu den Samenverbreitern zählen vor allem Star, Singdrossel, Amsel und Misteldrossel sowie Wacholder-, Rot- und Ringdrossel. Misteldrosseln zeigen dabei ein territoriales Verhalten und verteidigen ab Spätsommer „ihre“ Eibe gegen andere Vögel, so dass von Misteldrosseln besetzte Eiben noch bis ins Januar und Februar rote Samenbecher aufweisen. Dieses Verhalten trifft auch auf Singdrosseln zu. Diese zeigen jedoch eine weniger große Verteidigungsbereitschaft als Misteldrosseln. Arillen werden außerdem vom Sperling, Gartenrotschwanz und der Mönchsgrasmücke sowie Eichel- und Tannenhäher, Seidenschwanz und Jagdfasan verzehrt. Alle diese Vogelarten sind maßgeblich an der Verbreitung der Europäischen Eibe beteiligt und sorgen dafür, dass Eibenschösslinge auch weit entfernt von etablierten Eibenbeständen und an unzugänglichen Stellen wie etwa steilen Felshängen wachsen. Zu den Samenfressern zählen vor allem der Grünfink sowie in geringerem Maße Dompfaff, Kohlmeise, Kernbeißer, Kleiber, Grünspecht, Buntspecht und gelegentlich auch die Sumpfmeise. Kleiber reiben den Samenmantel an Baumrinden ab, bevor sie wie die Spechte das Samenkorn in Ritzen verkeilen, um es aufzuhämmern. Der Grünfink löst dagegen den Arillus mit dem Schnabel, entfernt die glykosidhaltige Samenhülle und frisst dann das Sameninnere. Säugetiere. Bilche wie Sieben- und Baumschläfer klettern in Eiben, um an die roten Arillen zu gelangen. In der Regel fressen Säugetiere jedoch die Samenbecher, die auf den Erdboden gefallen sind. Kleinnager wie Rötel-, Wald- und Gelbhalsmaus gehören zu den Arten, die sich unter anderem daran gütlich tun. Ihre Anwesenheit zieht Raubsäuger wie Rotfuchs und Wiesel und Iltisse an. Rotfüchse fressen allerdings ebenso wie Dachse, Braunbären und Wildschweine gerne die Arillen und auch für Baummarder ist dies schon beschrieben worden. Kaninchen und Feldhasen verbeißen junge Eibenkeimlinge und behindern so ein Höhen- und Breitenwachstum junger Bäume. Weit größerer Äsungsdruck geht jedoch von Rotwild aus, das ähnlich wie Kaninchen und Hasen unempfindlich für die in der Eibe enthaltenen toxischen Verbindungen ist. Insbesondere ein hoher Bestand an Rehen verhindert die natürliche Verjüngung des Eibenbestandes: Junge Schösslinge reißen sie beim Weiden mit den Wurzeln aus. Die Zweige von Eibenbäumen werden bis zu einer Höhe von etwa 1,4 Metern abgefressen. Auch Ziegen und Schafe weiden an Eibenbäumen. Als ein nennenswerter Eibenschädling hat sich auch das aus Nordamerika nach Europa eingeführte Graue Eichhörnchen erwiesen. Es schält die Rinde auch älterer Eiben ab, sodass die Bäume durch Wundinfektionen gefährdet sind. Wirbellose. Auf Europäischen Eiben finden sich, im Vergleich zu anderen europäischen Baumarten, nur verhältnismäßig wenig Wirbellose. Zu den wichtigsten zählt die Eibengallmücke ("Taxomyia taxi"), deren Larven sich in den Knospen der Triebspitzen einnisten und die dort mitunter zu einer Überproduktion von Eibennadeln führt, sodass sich eine an Artischocken erinnernde Galle bildet. Zwei parasitäre Wespen, nämlich "Mesopolobus diffinis" und "Torymus nigritarsus", wiederum legen ihre Eier in die Gallen beziehungsweise in die vollentwickelten Larven und Puppen der Eibengallmücke. Die Schmetterlingsraupen "Ditula angustiorana " (Wickler) und "Blastobasis vittata" (Blastobasidae) fressen unter anderem Eibenlaub. Im Splintholz der Eiben sind mitunter die Larven des Hausbocks ("Hylotrupes bajulus") sowie des Gescheckten Nagekäfers ("Xestobium rufovillosum") zu finden. Der zu den Rüsselkäfern zählende Gefurchte Dickmaulrüssler ("Otiorhynchus sulcatus") schädigt einjährige Eibentriebe sowie Wurzeln junger Sämlinge und ihre Wipfeltriebe. Ebenfalls anzutreffen ist mitunter die gelblich bis braun gefärbte Eiben-Napfschildlaus ("Eulecanium cornicrudum"), die an jungen Trieben saugt. Eigenschaften und heutige Verwendung. Die Europäische Eibe ist ein Kernholzbaum. Kernholz bezeichnet die im Stammquerschnitt physiologisch nicht mehr aktive, dunkle, innere Zone, die sich deutlich vom äußeren, hellen Splintholz unterscheidet. Der schmale Splint ist gelblich-weiß und etwa zehn bis zwanzig Jahresringe stark. Das Kernholz weist eine rötlichbraune Farbe auf. Das wegen des langsamen Wachstums feinringige Holz ist sehr dauerhaft, dicht, hart und elastisch. Die Dauerhaftigkeit des Kernholzes resultiert aus der Einlagerung von Gerbstoffen, welche das Holz imprägnieren. Eibenholz ist, trotz der Dauerhaftigkeit, von dem Gemeinen Nagekäfer angreifbar. Ein Kubikmeter Eibenholz wiegt zwischen 640 und 800 Kilogramm. Im Vergleich dazu wiegt ein Kubikmeter Holz des Mammutbaums 420, der Kiefer 510 und der Buche und Eiche jeweils 720 Kilogramm. Eibenholz trocknet sehr gut, schwindet dabei nur mäßig und lässt sich leicht verarbeiten. Die Europäische Eibe hat heute allerdings keine wesentliche forstwirtschaftliche Bedeutung mehr. Das im Holzhandel nur selten angebotene Holz wird für Furnierarbeiten sowie für Holzschnitzereien und Kunstdrechslerei sowie zum Bau von Musikinstrumenten verwendet. Verwendung in der Jungstein- und Bronzezeit. In der Geschichte der Menschheit hat Eibenholz eine wesentlich größere Bedeutung gehabt, als dem Holz heute beigemessen wird. Das harte und elastische Holz ist besonders für den Bau von Bögen und Speeren geeignet: Bei den nach den "Schöninger Speeren" ältesten bekannten hölzernen Artefakten handelt es sich um zwei Speere, die jeweils aus Eibenholz gefertigt sind. Der ältere Speer wurde in der Nähe von Clacton-on-Sea, Essex gefunden und wird auf ein Alter von 150.000 Jahren datiert. Der zweite Fund stammt aus dem niedersächsischen Lehringen, wo im Brustkorb eines in einer Mergelgrube konservierten Waldelefantenskeletts eine 2,38 m lange Eibenholzlanze gefunden wurde, die den mittelpaläolithischen Neandertalern zugeschrieben und auf ein Alter von 90.000 Jahren geschätzt wird. Zwischen 8000 und 5000 Jahre alt sind acht Eibenbögen, die in verschiedenen Ausgrabungsorten in Norddeutschland gefunden wurden. Ein ebenfalls sehr gut erhaltener und 183 Zentimeter langer Eibenbogen wurde 1991 bei der Ötztaler Gletschermumie gefunden. Auch dieser Bogen ist 5000 Jahre alt. Jungsteinzeitliche Funde weisen die Verwendung von Eibenholz für die Herstellung von Gebrauchsgegenständen wie Löffeln, Tellern, Schalen, Nadeln und Ahlen nach. Drei bronzezeitliche Schiffe, die in der Mündung des Flusses Humber in Yorkshire gefunden wurden, bestehen aus Eichenplanken, die mit Eibenholzfasern miteinander verbunden waren. Auch die Reste bronzezeitlicher Pfahlbauten z. B. am Mondsee zeugen von dieser frühen Wertschätzung des Eibenholzes, das äußerst feuchtigkeitsbeständig ist. Der Langbogen und seine Auswirkung auf die Eibenholzbestände. Zunächst nur aus dem Kernholz der Eibe gebaut, wurden etwa ab dem 8. Jahrhundert unserer Zeitrechnung die unterschiedlichen Eigenschaften von Splint- und Kernholz zum Bogenbau genutzt. Als Englischer Langbogen wird ein Stabbogentyp des Spätmittelalters bezeichnet, der vor allem durch den massenhaften Einsatz in spätmittelalterlichen Schlachten bekannt wurde. Der Englische Langbogen wurde hauptsächlich aus Eibenholz gefertigt, aber auch Ulme und Esche wurden genutzt. Um als Englischer Langbogen zu gelten, muss ein Bogen gewisse Kriterien erfüllen. So ist ein Englischer Langbogen fast immer durchgehend aus einem einzigen Stück Holz gefertigt. Dabei besteht er, wenn er aus Eibenholz ist, sowohl aus Kernholz als auch aus Splintholz. Des Weiteren entspricht die Länge eines Englischen Langbogens etwa der Größe des Schützen, also um die 180 Zentimeter. Auch hat der Bogen über die ganze Länge einen D-förmigen Querschnitt. Der abgerundete, dem Schützen zugewandte Teil (der Bauch) besteht aus dem harten und stabilen Kernholz, der gerade, vom Schützen abgewandte Teil (der Rücken), besteht aus dem elastischen Splintholz der Eibe. Das auf der Bogeninnenseite verwendete Kernholz lässt sich gut komprimieren, während das Splintholz ausgesprochen elastisch und dehnbar ist und deswegen auf der Außenseite der Bögen verwendet wurde. Ein Englischer Langbogen besteht ungefähr aus 1/3 Splintholz und 2/3 Kernholz und besitzt eine Zugkraft von 80 bis 160 engl. Pfund (367–723 N). Ein damit abgeschossener Pfeil erreicht eine Geschwindigkeit von 170 bis 180 km/h. England war in der Verwendung dieser Langbögen führend. Ein englischer „bowman“, der im Mittelalter mit einem Englischen Langbogen ausgerüstet war, musste in der Lage sein, mit 10 bis 12 Pfeilen in der Minute ein Ziel in 200 Metern Entfernung zu treffen, wozu es jedoch lange Zeit der Ausbildung bedurfte. Die englischen Bogenschützen waren keine Leibeigenen, die zum Kriegsdienst eingezogen wurden. Sie waren bestens ausgebildete Soldaten, die für eine bestimmte Zeit vertraglich verpflichtet und gut bezahlt wurden. Meistens waren sie leicht gepanzert und mit leichten Waffen ausgerüstet. Sie kämpften im Verband mit schwerbewaffneter Infanterie und abgesessener Reiterei. Die Bogenschützen wurden vor oder an den Flanken der Infanterie postiert. Zum Schutz vor dem herannahenden Feind wurden vor die Reihen der Bogenschützen angespitzte Pfähle in die Erde gerammt. Die Schützen konnten den Feind über eine Entfernung von über 400 Metern bekämpfen. Dazu schossen sie ihre Pfeile so ab, dass diese eine parabelförmige Flugbahn erhielten und so von oben herab auf das feindliche Heer trafen. Wenn ein englisches Heer mit 1000 Bogenschützen ausgerüstet war und jeder von ihnen in der Lage war 10 Pfeile pro Minute abzuschießen, dann wurde die feindliche Streitmacht pro Minute von einem Hagel aus 10.000 Pfeilen eingedeckt. War das heranstürmende Heer noch 200 Meter von den englischen Reihen entfernt, gingen die Schützen dazu über, den Feind direkt zu beschießen. Die Angreifer, die es bis an die englischen Reihen schafften, standen dann der englischen Infanterie gegenüber. Mit dieser äußerst erfolgreichen Taktik waren englische Heere in der Lage, zahlenmäßig weit überlegene Streitmachten zu besiegen. Ein eindrucksvolles Beispiel ist die Schlacht von Azincourt (Nordfrankreich) am 25. Oktober 1415. Die französische Armee versuchte, eine englische Invasion aufzuhalten. Das englische Heer, bestehend aus 5000 Bogenschützen und 1000 Mann Infanterie, stand einer riesigen, 25.000 Mann starken, französischen Streitmacht gegenüber. Die Franzosen boten 1000 Berittene und 24.000 Infanteristen auf. Trotz der zahlenmäßigen Überlegenheit der Franzosen gewannen die Engländer die Schlacht für sich. Auf englischer Seite waren lediglich 500 bis 1000 Verluste zu beklagen, während die Franzosen hingegen über 8000 Mann verloren. Die historischen Anfänge des Englischen Langbogens sind nicht bekannt und werden unter Historikern kontrovers diskutiert. Fest steht, dass der Bogen als Jagd- und Kriegswaffe schon seit der Steinzeit vom Menschen genutzt wird. Aus römischer Zeit ist bekannt, dass sowohl im römisch besetzten Teil Englands als auch in Wales und Schottland der Bogen gebräuchlich war. Fest steht auch, dass die Wikinger im Besitz von Eibenbögen waren. Dies zeigt der Fund eines Eibenbogens im Hafenbecken von Haitabu (Schleswig). Im siebten Jahrhundert nach Christus fielen norwegische und dänische Wikinger in England ein. Es kann angenommen werden, dass diese Wikinger Eibenbögen mit sich führten und so der Eibenbogen nach England kam. Allerdings ist diese These nicht bewiesen und unter Historikern umstritten. Ein dokumentierter Einsatz von englischen Bogenschützen findet sich in der Schlacht von Hastings am 14. Oktober 1066. Der englische König Harald wurde von dem Normannen Wilhelm I. besiegt. Auf dem Bilderteppich von Bayeux sind Bogenschützen auf beiden Seiten zu erkennen. Nach der normannischen Eroberung kam es zu gewaltsamen Umstrukturierungen der englischen Gesellschaft. In dieser Zeit erfreut sich der Bogen in der englischen Bevölkerung zunehmender Beliebtheit als einfach herzustellende Waffe. Aus dieser Zeit stammt auch die berühmte Legende des Robin Hood. Über den ersten strategischen Einsatz des Englischen Langbogens sind sich Historiker nicht einig. Ebenso wenig ist die Rolle der Waliser und die der Schotten geklärt. Einerseits werden den Walisern überdurchschnittliche Fähigkeiten im Umgang mit dem Bogen zugesprochen, andererseits wird angeführt, dass der Langbogen sowohl bei den Engländern als auch bei den Walisern gebräuchlich gewesen sei und englische Schützen den walisischen ebenbürtig gewesen seien. Fest steht, dass nach der Eroberung von Wales durch König Eduard I. und dessen Krieg gegen Schottland walisische Bogenschützen auf beiden Seiten kämpften. Eduard I. führte eine Heeresreform durch, das englische Heer wurde zu einer Berufsarmee, in der Soldaten durch Zeitverträge verpflichtet wurden. Auf diese Weise wurde das Problem der Rekrutierung gelöst. Auch wurde die Rolle der Infanterie gestärkt und der Langbogen als neue Waffe eingeführt. In den schottischen Kriegen kamen die Langbogen auf beiden Seiten zum Einsatz. Durch die Kriege gegen Schottland und den Einsatz des Langbogens gingen die Eibenbestände in England stark zurück. Da das Eibenholz aber dringend gebraucht wurde, musste es vom Festland eingeführt werden. Der erste Hinweis auf einen Bogenholzhandel stammt von einer Zollrolle aus Dordrecht, die auf den 10. Oktober 1287 datiert ist. Für den 8. Januar 1295 ist für Newcastle die Ankunft von sechs Schiffen aus Stralsund belegt, die unter anderem 360 „"Baculi ad arcus"“ oder Bogenstäbe geladen hatten. Im Jahre 1337 begann der Hundertjährige Krieg, als der englische König Eduard III. (1312–1377) Anspruch auf den französischen Thron erhob. Für die Schlachten in Frankreich wurden tausende Langbögen gebraucht. In der Zeit des Hundertjährigen Krieges und auch danach wurden zahlreiche Gesetze bezüglich des Langbogens und Eibenholzes erlassen. 1369 verordnete Eduard III.: „Hiermit befehlen Wir, daß jeder Mann von Leibes Gesundheit in der Stadt London zur Mußezeit und an den Feiertagen Bogen und Pfeile benützen und die Kunst des Schießens erlerne und übe.“ (SCHEEDER 1994, S. 43) Gleichzeitig wurden Spiele wie Steinstoßen, Holz- oder Eisenwerfen, Handball, Fußball und Hahnenkämpfe unter Androhung von Gefängnis verboten. Jeder Mann zwischen dem siebten und dem sechzigsten Lebensjahr war verpflichtet, einen Bogen und zwei Pfeile zu besitzen. Wegen der Holzknappheit und der starken Nachfrage mussten Höchstpreise festgelegt werden, damit sich jeder einen Bogen leisten konnte. „Da die Verteidigung des Reiches bisher in den Händen der Bogenschützen lag und nun Gefahr droht, befehlen Wir, daß jedermann 2 Schilling Buße je Bogen an den König entrichten muß, der einen solchen für mehr als drei Schilling sechs Pence verkauft“ (SCHEEDER 1994, S. 7). Jedes Handelsschiff, das ab 1492 in England Handel treiben wollte, musste eine bestimmte Anzahl Eibenrohlinge mit sich führen. Das führte im Endeffekt dazu, dass alle europäischen Eibenbestände so stark zurückgingen, dass diese sich bis heute nicht richtig erholt haben. Allein zwischen 1521 und 1567 wurden aus Österreich und Bayern zwischen 600.000 und eine Million zwei Meter lange und 6 cm breite Eibenstäbe für die Weiterverarbeitung zu Bögen ausgeführt. 1568 musste Herzog Albrecht dem kaiserlichen Rat in Nürnberg mitteilen, dass Bayern über keine schlagreifen Eiben mehr verfüge. In England erfolgte aufgrund der Eibenholzverknappung die Anordnung, dass jeder Bogenmacher pro Eibenholzbogen vier aus dem weniger geeigneten Holz des Bergahorns herzustellen habe, und Jugendlichen unter 17 Jahren wurde das Führen eines Eibenholzbogens verboten. Anordnungen aus dieser Zeit lassen darauf schließen, dass England, nachdem die mittel- und südeuropäischen Eibenvorkommen erschöpft waren, Eibenholz aus den Karpaten und dem nordöstlichen Baltikum bezog. 1595 ordnete die englische Königin Elisabeth I. die Umstellung des englischen Heeres von Langbögen auf Musketen an. Fritz Hageneder vertritt in seiner Monographie über die Eibe die Ansicht, dass diese Umstellung, die zu einem Zeitpunkt erfolgte, als der Langbogen der Muskete in Reichweite, Treffsicherheit und Schussgeschwindigkeit noch weit überlegen war, allein erfolgte, weil der Rohstoff Eibe für die Herstellung von Langbögen nicht mehr zur Verfügung stand. Andere historische Verwendungen des Eibenholzes. Die Verwendung von Eiben war nicht nur auf die Herstellung von Langbögen begrenzt. Neben verschiedenen Gebrauchsgegenständen wie Webschiffchen, Kästchen, Eimern, Kämmen und Axtholmen wurde das feuchtigkeitsbeständige Holz unter anderem für die sogenannten Sohlbalken verwendet, die direkt auf dem Steinfundament von Häusern auflagen und besonders leicht Feuchtigkeitsschäden ausgesetzt waren. Ebenso wurde das Holz für Fasspipen und Wasserleitungen gebraucht. Das elastische Holz wurde bis ins 20. Jahrhundert bei der Herstellung von Peitschen verwendet. Anders als beim Langbogenbau war Eibenholz bei diesen Verwendungen jedoch einfacher zu ersetzen. Verwendung als Gift-, Heil- und Nahrungspflanze. Die Giftigkeit der Eibe ist bereits Thema der griechischen Mythologie: Die Jagdgöttin Artemis tötet mit Eibengiftpfeilen die Töchter der Niobe, die sich ihr gegenüber ihres Kinderreichtums gerühmt hatte. Auch die Kelten verwendeten Eibennadelabsud, um ihre Pfeilspitzen zu vergiften und Julius Caesar berichtet in seinem Gallischen Krieg von einem Eburonen-Stammesfürst, der lieber mit Eibengift Selbstmord beging, als sich den Römern zu ergeben. Zur Giftigkeit der Europäischen Eibe äußern sich Paracelsus, Vergil und Plinius der Ältere. Dioskurides berichtete von spanischen Eiben mit einem so hohen Giftgehalt, dass sie schon denen gefährlich werden konnten, die nur in ihrem Schatten saßen oder schliefen. In der Medizin spielten Eibenzubereitungen ab dem frühen Mittelalter eine Rolle. Mit ihnen wurden unter anderem Krankheiten wie Epilepsie, Diphtherie und Rheumatismus sowie Hautausschläge und Krätze behandelt. Eibennadelsud wurde auch als Abortivum eingesetzt. Neben der Verwendung als Gift- und Heilpflanze wurden Eibenbestandteile sogar als Nahrungspflanze verwendet: Der rote und süßliche Samenmantel, der ungiftig ist, lässt sich zu Marmelade einkochen, sofern die giftigen Samen entfernt werden. Eibenlaub wurde in geringem Maße traditionell den Futterpflanzen des Viehs beigemischt, um so Krankheiten vorzubeugen. In einigen Regionen wie etwa Albanien wird dies bis heute praktiziert. Verwendung als Zierpflanze. Allee aus Eiben, Easton Walled Gardens Kreuzungen. "Taxus" × "media" (Bechereibe) = "Taxus baccata" × "Taxus cuspidata" Toponomastik. Der "Eibenbaum", auch "Ibenbaum" (kurz "Ibaum", auch "Ybaum") ist namensgebend für verschiedene geografische Orte. Auf historische Eibenbestände weisen die Toponyme Eiben, Eibenberg, Ibenberg, Iberg (al. Iberig) oder Yberg (al. Ybrig) sowie das von Iberg SZ (al. "Ybrig") abgeleitete Ibach SZ hin. Deutschland. In der Nähe von Klöstern besteht heute die größte Aussicht, noch alte Eibenbestände zu finden. Schweiz. Eines der größten natürlichen Eibenvorkommen Europas mit rund 80.000 Eiben findet sich auf der Bergkette des Albis und dort besonders im Gebiet des Uetlibergs. Der Grund für diesen Bestand geht auf die Liberalisierung der Jagdgesetze in der Schweiz nach der Französischen Revolution zurück. Von 1798 bis 1850 wurden die Nutzwildpopulationen – im Speziellen Paarhufer – bis an die Grenze der Ausrottung bejagt. Eibenschösslinge werden vom Rehwild bevorzugt und haben bei einem größeren Rehwildbestand keine Chance aufzuwachsen. Die beinahe Ausrottung des Rehwilds um 1860 ermöglichte den Aufwuchs der Eiben, die heute fast alle über 150 Jahre alt sind. 1997 fand die internationale Eiben-Tagung in Zürich statt. Restliches Europa. Eibe mit Kapelle auf dem Friedhof von "La Haye-de-Routot" Enziangewächse. Die Enziangewächse (Gentianaceae) sind eine Pflanzenfamilie in der Ordnung der Enzianartigen (Gentianales). Die etwa 80 bis 87 Gattungen mit 900 bis 1655 Arten sind weltweit vertreten. Erscheinungsbild und Blätter. Es sind meist ein-, zweijährige oder ausdauernde krautige Pflanzen, seltener verholzende Pflanzen: Sträucher, Bäume oder Lianen. Alle Pflanzenteile sind unbehaart. Die meist gegenständigen, ungestielten Laubblätter sind einfach und glattrandig. Bei einigen Taxa sind die sich gegenüberstehenden Blätter teilweise durch eine verdickte Leiste verbunden. Bei manchen krautigen Arten sind die Laubblätter grundständig konzentriert. Nebenblätter fehlen. Blütenstände und Blüten. Die Blüten stehen einzeln, in end- oder in achselständigen Blütenständen, meist handelt es sich um ein einfaches oder zusammengesetztes Dichasium, mit oder ohne Hochblätter. Die zwittrigen Blüten sind fast immer radiärsymmetrisch und meist vier- oder fünfzählig. Die vier oder fünf (selten bis zu zwölf) Kelchblätter sind mindestens an der Basis verwachsen. Die vier oder fünf (selten bis zu zwölf) meist großen und auffällig gefärbten Kronblätter sind mindestens an der Basis verwachsen (Sympetalie). Es ist nur ein Kreis mit vier oder fünf (selten bis zu zwölf) Staubblättern vorhanden; sie sind mit der Kronröhre verwachsen. Kelch-, Kron- und Staubblätter sind je Blüte immer in gleich großer Anzahl vorhanden. Zwei Fruchtblätter sind zu einem oberständigen Fruchtknoten verwachsen. Einige Arten sind heterostyl. Die Bestäubung erfolgt meist durch Insekten (Entomophilie). Früchte und Samen. Es werden meist zweiklappige Kapselfrüchte gebildet mit meist vielen Samen; sehr selten sind Beeren mit wenigen Samen. Die kleinen Samen enthalten Öl und können geflügelt oder ungeflügelt sein. Inhaltsstoffe. Besonders bei den krautigen Taxa sind häufig Bitterstoffe vorhanden, es handelt sich um Seco-Iridoide. Systematik. Diese Familie wurde 1789 unter dem Namen „Gentianae“ durch Antoine Laurent de Jussieu in "Genera Plantarum", 141 aufgestellt. Typusgattung ist "Gentiana". Die Taxa der früheren Familien: Chironiaceae, Coutoubeaceae, Potaliaceae, Saccifoliaceae sind heute in der Familie der Gentianaceae enthalten. Einige Gattungen werden bei verschiedenen Autoren auch in die Familie der Loganiaceae eingeordnet. Elektrizitätsversorgungsunternehmen. Ein Elektrizitätsversorgungsunternehmen (EVU, auch "Stromversorgungsunternehmen"; kurz "Elektrizitätsversorger", "Stromversorger" oder "Stromanbieter") ist ein Unternehmen, welches seine Kunden mit elektrischer Energie (historisch und umgangssprachlich „Elektrizität“ oder „Strom“ genannt) versorgt, d. h. beliefert. Im "engeren" Sinne werden nur solche Unternehmen als "Elektrizitätsversorger" bezeichnet, die einen Endverbraucher direkt beliefern, insbesondere solche, die hierfür ein Verteilungsnetz betreiben. Im "weiteren" Sinne sind alle Unternehmen der Elektrizitätswirtschaft, also der gesamten Versorgungskette von der Erzeugung über den Handel, die Übertragung (Ferntransport) und die Verteilung bis zum Verbraucher unter diesem Begriff mit eingeschlossen. Deutschland. In Deutschland kann man die Elektrizitätsversorgungsunternehmen unterteilen in Nach  Nr. 18 EnWG sind Energieversorgungsunternehmen „natürliche oder juristische Personen, die Energie an andere liefern, ein Energieversorgungsnetz betreiben oder an einem Energieversorgungsnetz als Eigentümer Verfügungsbefugnis besitzen“. Sie übernehmen also Aufgaben der Erzeugung, der Verteilung und des Vertriebs. Hierunter fallen die neben den Elektrizitätsversorgungsunternehmen auch Erdgas- und Fernwärmeversorgungsunternehmen. Das EnWG (§§ 6–10) schreibt in Umsetzung des europäischen Gemeinschaftsrechtes eine Entflechtung der sogenannten vertikal integrierten EVU vor. Vertikal integrierte Elektrizitätsversorgungsunternehmen sind nach der Legaldefinition des  Nr. 38 EnWG solche Unternehmen oder eine Gruppe von Unternehmen, die im Elektrizitätsbereich mindestens eine der Funktionen Übertragung oder Verteilung und mindestens eine der Funktionen Erzeugung oder Vertrieb wahrnehmen; entsprechend liegt im Gasbereich ein vertikal integriertes EVU vor, wenn das Unternehmen oder die Gruppe mindestens eine der Funktionen Fernleitung, Verteilung, Betrieb einer Flüssigerdgas-Anlage oder Speicherung und gleichzeitig eine der Funktionen Gewinnung oder Vertrieb von Erdgas wahrnimmt. Das bedeutet: Der Netzbetrieb muss rechtlich, operationell, informationell und buchhalterisch unabhängig von anderen Tätigkeiten im Bereich der Energieversorgung organisiert werden. Unternehmen. Zusammen beherrschen die ersten vier etwa 80 Prozent des deutschen Strommarktes. Die Strompreise in Deutschland können mitunter stark variieren, wobei die Preise vor allem im Süd-Westen und Osten Deutschlands hoch skalieren. Der Preisunterschied ist jedoch aufgrund verschiedener Berechnungen oft nicht auf den ersten Blick ersichtlich (Öko/Klimatarife, Pakettarife, Sonderabschläge, Haupt- und Nebenzeit). Bedingt ist dieser Umstand einerseits durch die Preisfreiheit der Grundversorger, andererseits auch durch die Qualität der Anbindungen an überregionale Stromnetze.Zusammensetzung des Strompreises in Deutschland Die DB Energie versorgt die Fahrzeuge der Deutschen Bahn und anderer Eisenbahnverkehrsunternehmen mit Einphasenwechselstrom der Frequenz 16,7 Hz. Da dies nur für den Bahnbetrieb geschieht, zählt man sie insofern nicht zu den eigentlichen EVU, obwohl sie ein umfangreiches Hochspannungsleitungsnetz betreibt, welches auch nach Österreich und in die Schweiz führt. Indem die DB Energie jedoch auch zahlreiche Gewerbebetriebe an den Bahnhöfen mit 230 V 50 Hz Netzstrom versorgt, der überwiegend von außen zugeliefert wird, ist sie in diesem Aspekt ein relativ grosses EVU. Alle Elektrizitätsversorgungsunternehmen müssen in Deutschland in hohem Maße kooperieren. So gibt es Netze, bei denen Leitungen verschiedener Spannungsebenen (110 kV, 220 kV und 380 kV) auch von verschiedenen EVU betrieben werden. Daneben werden manche Hochspannungsleitungen gemeinsam von den EVU und der Deutschen Bahn betrieben. Die Elektrizitätsversorgungsunternehmen sind gut organisiert; die industriellen Kunden ebenfalls. Frankreich. Vor 2007 gab es in Frankreich nur EdF sowie lokale Verteilungsunternehmen wie 'Electricité de Marseille' (zusammenfassend 'fournisseurs historiques' genannt). Mitte 2007 liberalisierte die französische Regierung den Elektritizitätsmarkt, seitdem gibt es zahlreiche 'fournisseurs alternatifs', z.B. Engie. Österreich. In Österreich gibt es zwei nationale Erzeuger-Gesellschaften sowie eine Reihe von regionalen Gesellschaften, die oft aber nur als Verteiler bzw. Stromhändler tätig sind (s. u.). Sie sind meist Gesellschaften mit Anteilen der einzelnen Bundesländer, einige (z. B. EVN, Wien Energie) haben auch eigene Elektrizitätswerke, um Spitzenbedarf abzudecken. Im Zuge der Deregulierung des Strommarktes 2001 sind neue Anbieter dazugekommen, die Endkonsumenten und Unternehmen beliefern. Allerdings besitzen sie keine Infrastruktur. Siehe auch "Elektrizitätswirtschaft in Österreich" Schweiz. Die Schweizer Elektrizitätsversorgungsunternehmen sind grossmehrheitlich im Verband Schweizerischer Elektrizitätsunternehmen organisiert. E-Plus. Die E-Plus-Gruppe ist seit 1. Oktober 2014 Teil der Telefónica Deutschland Holding, dem mit 47 Millionen Kunden größten Mobilfunkanbieter Deutschlands. E-Plus selbst war mit rund 25,5 Millionen Kunden (Stand: März 2014) der drittgrößte Mobilfunknetzbetreiber Deutschlands. Die Royal KPN N.V. hält seitdem, als bisheriger Eigentümer der E-Plus Gruppe, 20,5 Prozent an der fusionierten Telefónica Deutschland Holding. E-Plus gehörte von 2000 bis Oktober 2014 zum niederländischen KPN-Konzern. Die E-Plus Gruppe ist in die Teilbereiche "E-Plus Mobilfunk" in Düsseldorf und "E-Plus Service" in Potsdam gegliedert. Viele Teile der E-Plus Gruppe sind seit Juli 2015 auf die Telefónica Germany GmbH & Co. OHG verschmolzen. Dies betrifft die simyo GmbH und die Blau Mobilfunk GmbH. Die Marken "E-Plus", "BASE", "simyo" und "Blau" werden seither direkt von Telefónica betrieben. Die yourfone GmbH wurde bereits zum 1. Februar 2015 an den Mobilfunk Service Provider Drillisch verkauft. Als 100%ige Tochtergesellschaften der Telefónica Germany GmbH & Co. OHG verbleiben noch die E-Plus Mobilfunk GmbH, welche die technische Netzinfrastruktur für das E1-Netz betreibt, sowie die AY YILDIZ Communications GmbH für türkischstämmige Kunden und die Ethno-Marke Ortel Mobile GmbH. E-Plus betreibt zudem noch diverse Kooperationen (u.a. Aldi Talk, whatsappSim). Die ehemalige E-Plus-Marke "vybemobile" wurde zum 31. Dezember 2011 eingestellt. Großkunden werden mittlerweile von O2 Business betreut. Marktstrategie. Spätestens seit dem Jahr 2005 verfolgt E-Plus eine Schwerpunktstrategie am Mobilfunkmarkt, also eine Konzentration des Angebots auf besonders häufig nachgefragte Dienste, die zu vergleichsweise niedrigen Preisen verkauft werden. Innovative Produkte werden erst mit Verzögerung angeboten, wenn durch die Erfolge von Konkurrenzunternehmen absehbar ist, dass sich Investitionen in diese rentieren würden. Bei E-Plus resultiert diese Strategie in eher günstigeren Tarifen für Telefonie, eine Preisführerschaft in diesem Gebiet wird angestrebt. Das UMTS-Netz wird schrittweise weiter ausgebaut, um neue Gebiete zu versorgen und die Kapazitäten zu erweitern. Des Weiteren wurde das GSM-Netz deutschlandweit auf E-GSM erweitert, so dass sich die Netzabdeckung stark verbessert hat. Mobilfunknetze. E-Plus betreibt bundesweite Mobilfunknetze im E-GSM-, DCS-1800-, UMTS- und LTE-Standard. Das GSM-Netz ist seit 1994 in Betrieb. Zum Ende des Jahres 2013 befanden sich 19.316 GSM-Basisstationen und 12.280 UMTS-Basisstationen inklusive Mobilfunkrepeater in Betrieb. Nach eigenen Angaben erreicht E-Plus mit seinem GSM-Netz 99,9 %, mit EDGE 84 % und mit seinem UMTS-Netz 80 % der Bevölkerung. Der Aufbau des eigenen UMTS-Netzes erfolgt seit dem Jahr 2004. Zum Einsatz kommen hierbei neben gewöhnlichen Standorten mittlerer Höhe wie kleineren Masten und Hausdächern auch sogenannte Ultra High Sites (UHS). Dies bezeichnet Antennenstandorte mit einer Montagehöhe von mehr als 100 Meter, zum Beispiel Industrieschornsteine oder Fernsehtürme. UHS erlauben die Versorgung größerer Flächen mit weniger Investitionen, als dies gewöhnlich notwendig wäre. Allerdings verringert sich durch diese Bauweise auch die Kapazität, da trotz der größeren Fläche immer noch die gleiche Anzahl der gleichzeitig durchgestellten Gespräche bleibt. Das UMTS-Netz enthält teilweise Technik des ehemaligen Netzes von Mobilcom, dessen Ausbau noch vor der kommerziellen Inbetriebnahme gestoppt wurde. Mobilcom verkaufte einen Großteil seiner Technik im Jahr 2003 für 20 Mio. Euro an E-Plus. Seit Anfang 2006 baut das Unternehmen auch E-GSM-Basisstationen auf oder vorhandene DCS-1800-Stationen zu E-GSM/DCS-1800-Dualband-Stationen um. Die E-GSM-Frequenzen wurden den beiden Netzbetreibern E-Plus und O2 von der Bundesnetzagentur zugewiesen, um auch ländliche Gebiete besser und effizienter versorgen zu können und den Empfang innerhalb von Gebäuden zu verbessern. Damit sollen die bisher nur auf 1800 MHz sendenden Netzbetreiber eine technische Chancengleichheit erhalten. Nahezu alle seit etwa 1998 hergestellten Mobiltelefone können die GSM-Erweiterungsbänder E-GSM nutzen, einige ältere GSM-900-Mobiltelefone jedoch nicht. Das GSM-Netz unterstützt den Dienst GPRS für den paketorientierten Datentransfer. In fast allen Regionen kann zudem der Datendienst EDGE zum Surfen genutzt werden, wodurch ein schnellerer Datendurchsatz erreicht wird als bei GPRS. Die Sprachübertragung wird im GSM-Netz mit dem Adaptive Multirate Codec (AMR) und bei älteren Mobiltelefonen mit dem Enhanced Full Rate Codec (EFR) realisiert. UMTS-Netz. Seit Juli 2010 baut E-Plus sein Datennetz mit dem Datenbeschleuniger HSPA+ aus. Bis Ende 2012 soll der Netzausbau mit HSPA+ großflächig fortgeschritten sein. In einer Untersuchung der Datenübertragungsrate in deutschen Mobilfunknetzen durch die Stiftung Warentest im Juni 2011 hat E-Plus am schlechtesten abgeschnitten. Auch beim Netztest der Zeitschrift Connect landete E-Plus im Jahr 2011 unter allen elf Netzbetreibern in Deutschland, Österreich und der Schweiz auf dem letzten Platz. Nach eigenen Angaben versorgt das E-Plus-Datennetz Ende 2011 bereits 80 % der Bevölkerung über den Datennetzbeschleuniger HSDPA mit Geschwindigkeiten bis zu 7,2 MBit/s. LTE-Netz. Im Januar 2013 gab E-Plus bekannt, noch bis Ende 2013, als letzter deutscher Mobilfunknetzbetreiber, seine LTE-Einführung zu vollziehen. Dabei sollen die E-Plus-LTE-Testregionen Düsseldorf, Wachtendonk, Cloppenburg, Bonn und Chemnitz, aber auch die Städte Aschaffenburg und Landau mit LTE versorgt werden. Anfang März 2014 führte E-Plus als letzter deutscher Netzbetreiber LTE in Berlin, Leipzig und Nürnberg ein. Der Netzbetreiber greift dabei auf das 2010 von der Bundesnetzagentur erworbene 1800-MHz-Frequenzspektrum zurück. Da E-Plus kein offizieller Partner von Apple in Deutschland ist, konnten E-Plus-Kunden zunächst mit einem iPhone nicht auf das LTE-Netz zurückgreifen. Seit der Veröffentlichung von iOS 8 können nun auch E-Plus-Kunden LTE mit dem iPhone nutzen. Mitte März 2014 schaltete E-Plus HD Voice für bessere Sprachqualität im UMTS-Netz frei. Geschichte. Das Unternehmen wurde 1992 als E-Plus Mobilfunk GmbH gegründet und erhielt 1993 eine Mobilfunklizenz für DCS 1800 (E1-Netz) durch den damaligen Bundespostminister Wolfgang Bötsch (CSU). Lizenzinhaber wurde ein Konsortium um E-Plus, dessen Hauptgesellschafter die VEBA Telecom, RWE Telliance, Thyssen Telecom und BellSouth waren. 1999 scheiterte ein Versuch der France Télécom, bei E-Plus einzusteigen. Der französische Telekommunikationskonzern wollte den 17,24-prozentigen Anteil von Vodafone erwerben, von dem sich Vodafone nach der Fusion mit Air Touch trennen wollte. BellSouth nahm einen Kredit in Höhe von 9,18 Mrd. Euro bei dem niederländischen Unternehmen KPN auf und sicherte sich damit das Vorkaufsrecht. Zudem erwarb BellSouth den 60,25-prozentigen Anteil von o.tel.o (VEBA/RWE), da sich die Anteilseigner wieder auf das Kerngeschäft (Energie) konzentrieren wollten. Dieser Kredit von KPN wurde anschließend in einen 77,49-prozentigen Anteil an E-Plus umgewandelt. Im Januar 2002 wurde bekannt, dass KPN auch die restlichen Anteile von E-Plus im Rahmen eines Aktientausches von BellSouth zu erwerben beabsichtigte. Die komplette Übernahme wurde daraufhin im März 2002 vollzogen. Am 23. Juli 2013 gab KPN bekannt, dass Telefónica den Netzbetreiber E-Plus für 5 Milliarden Euro plus 17,6 % an Aktien von KPN übernehmen soll. Die EU-Kommission genehmigte die Übernahme im Juli 2014. Am 1. Oktober 2014 wurde die Fusion abgeschlossen. Chronologie des Unternehmens. E-Plus wurde 1993 als E-Plus Mobilfunk GmbH gegründet und erhielt eine Mobilfunklizenz für DCS 1800 (E1-Netz). Lizenzinhaber wurde das Konsortium um E-Plus, deren Hauptgesellschafter die VEBA Telecom, RWE Telliance und Thyssen Telecom waren. Netzanbieter für Mobilfunk-Discounter. E-Plus ist der Netzanbieter für mehrere Mobilfunk-Discounter wie Blau Mobilfunk, MEDIONmobile, MTV Mobile, Ortel Mobile GmbH und simyo, sowie den MVNE Sipgate Wireless und ehemals auch Telogic. Sponsoring. Die E-Plus-Gruppe unterstützt die Sozialkampagne „iCHANCE“ vom Bundesverband Alphabetisierung und Grundbildung. „iCHANCE“ ist eine multimedial ausgerichtete Kampagne mit dem Ziel, Vorurteile gegenüber (funktionalen) Analphabeten abzubauen und Menschen mit Grundbildungsbedarf dazu zu ermutigen, Lernangebote wie Lese- und Schreibkurse wahrzunehmen. Sperrung bestimmter Festnetzrufnummern. Im Juni 2008 wurde bekannt, dass E-Plus – ähnlich wie O₂ und Vodafone – die Erreichbarkeit der Rufnummern bestimmter Sprach-Chat-Systeme erheblich einschränkt. Bei diesen Rufnummern handelt es sich um normale Festnetzrufnummern, die im Rahmen von Festnetz-Flatrates gratis angerufen werden können und in der Praxis ein hohes Gesprächsaufkommen verursachen. Dabei nimmt E-Plus im Unterschied zu O2 nicht nur eine Limitierung des Anrufvolumens vor, sondern sperrt die betroffenen Rufnummern komplett. Im Februar 2009 wurden diese Sperren erweitert und umfassen seitdem auch einige Anbieter von geschäftlichen Telefonkonferenzen. Ebenso betroffen sind bestimmte Anbieter von Calling-Cards, über deren Rufnummern Gespräche ins Ausland und zu Sonderrufnummern kostengünstiger geführt werden können. Durch die Sperrung ist es den Kunden unmöglich, diese Dienstleistungen in Anspruch zu nehmen, was jedoch durch die AGB abgedeckt ist. Die Festnetz-Flatrates der meisten Mobilfunkanbieter schließen „Dienstenutzung“ über Festnetznummern in der Regel aus. Ebenfalls ist es seitens der Bundesnetzagentur nicht vorgesehen, auf Endteilnehmeranschlüssen Massendienste anzubieten. EBITDA. Gewinn vor Finanzergebnis, außerordentlichem Ergebnis, Steuern und Firmenwertabschreibungen Niederlassungen. E-Plus unterhält Betriebsniederlassungen in Hamburg, Berlin, Hannover, Kassel, Leipzig, Ratingen, Frankfurt am Main, Karlsruhe, Nürnberg, Stuttgart und München, der Hauptsitz des Unternehmens liegt in Düsseldorf. Gesellschafter. Die E-Plus Mobilfunk GmbH & Co. KG gehörte von 2000 bis September 2014 zur niederländischen KPN N.V. und wurde nach der kartellrechtlichen Freigabe durch die EU-Kommission am 1. Oktober 2014 von der Telefónica Deutschland Holding übernommen. Durch die Fusion mit E-Plus ist Telefónica Deutschland zum nach Kundenzahlen größten deutschen Mobilfunkanbieter aufgestiegen. Seitdem arbeitet der Konzern kontinuierlich an einer schrittweisen Zusammenführung seiner beiden Tochtergesellschaften "E-Plus" und "O₂". Am 26. Januar 2015 wurde die "E-Plus Mobilfunk GmbH & Co. KG" in "E-Plus Mobilfunk GmbH" umfirmiert und seit dem 4. Februar 2015 besteht zwischen der "E-Plus Mobilfunk GmbH" und der "Telefónica Germany GmbH & Co. OHG" als „herrschendem Unternehmen“ ein Beherrschungs- und Gewinnabführungsvertrag. Seit Mitte Januar 2015 wird auch das "Netzroaming" zwischen O₂ und E-Plus getestet. Im Februar 2015 kündigte Telefonica an, Mitte April 2015 das National Roaming für alle Kunden freizuschalten. Ziel ist es, weiße Flecken in der Netzabdeckung zu schließen und Datendienste in nicht mit LTE versorgten Gebieten zu verbessern. Langfristig sollen beide Netze zu einem zusammengeführt werden. Einlagefazilität. Eine Einlagefazilität ist eine Möglichkeit für Geschäftsbanken im Euroraum, kurzfristig nicht benötigtes Geld bei der Europäischen Zentralbank (EZB) anzulegen. Als Verzinsung erhalten sie den von der Zentralbank vorgegebenen Einlagesatz. Es handelt sich somit um ein Wahlrecht zur Geldanlage, welches von der Zentralbank gewährt wird und stellt ein wichtiges geldpolitisches Instrument der EZB dar. Die Einführung der Einlagefazilität durch die Europäische Zentralbank hat in Deutschland in ihrer Funktion die Diskontpolitik der Deutschen Bundesbank ersetzt. Durchführung. Die Initiative zu Einlagegeschäften geht von den Geschäftsbanken aus. Sind diese für Transaktionen mit der EZB zugelassen, so können sie bei der Zentralbank kurzfristig nicht benötigtes Geld anlegen. Aufgrund der kurzen Fristigkeit solcher Geschäfte bezeichnet man diese Form der Finanzierung auch als Übernachtanlage oder Overnight-Money. Hat die Bank am Tagesende offene Habensalden auf den ESZB-Konten, werden diese automatisch zu Einlagefazilitäten. Als Preis für die Inanspruchnahme der Einlagefazilität erhalten sie den Einlagesatz (teilweise auch Einlagefazilitätssatz). Einlagefazilitäten werden dauerhaft und in unbegrenztem Volumen angeboten; daher bezeichnet man sie auch als ständige Fazilität. Einordnung. Der Einlagesatz wird üblicherweise als einer der drei Leitzinsen der EZB bezeichnet. Der Zinssatz wird vom EZB-Rat festgelegt und bildet die Untergrenze des Zinskorridors. In der Regel liegt er dabei immer einen Prozentpunkt unter dem Hauptrefinanzierungssatz. Davon wich die EZB jedoch kurz nach der Euroeinführung und während der Finanzkrise ab 2007 ab. Die Einlage ist das Gegenstück der Spitzenrefinanzierungsfazilität. Längerfristige Liquidität wird den Banken vor allem über das Hauptrefinanzierungsinstrument zur Verfügung gestellt. Mit dem Übergang der Zuständigkeit für die Geldpolitik auf die EZB hat die Einlagefazilität die früheren Rediskontkontingenten abgelöst. Bedeutung für den Geldmarkt. Die erste Bedeutung dieses Instruments liegt darin, dass die Geschäftsbanken von sich aus jederzeit Liquidität anlegen und damit Liquiditätsüberschüsse vermeiden können. Zweitens hat die Einlagefazilität eine geldpolitische Bedeutung: Grundsätzlich können Geschäftsbanken auch über den Geldmarkt (Interbankenmarkt) Übernachtanlagen tätigen. Allerdings müssen dort getätigte Übernachtanlagen zwangsläufig teurer (das heißt höher verzinst) sein als die Einlagefazilität, da ansonsten auf dem Interbankenmarkt keine Geschäfte zustandekommen. Daher bildet der Einlagesatz die untere Grenze der für Übernachtanlagen erhobenen Zinsen. Erhöht (senkt) die EZB den Einlagesatz, so werden auch die Geschäftsbanken ihren Zins für Übernachtanlagen erhöhen (senken) – folglich dient der Einlagesatz auch zur Durchsetzung der Zinspolitik am Markt. Eris (Mythologie). Eris auf einer griechischen Darstellung (ca. 550 v. Chr.) Eris ("Éris/Íris"; Personifikation von "éris" ‚Streit, Zank‘) ist in der griechischen Mythologie die Göttin der Zwietracht und des Streites. Sie ist Tochter der Nyx, einer der fünf direkt aus dem Ur-Chaos entstandenen Götter. Sie gilt manchmal auch als Schwester des Ares. Eris wurde aus der griechischen in die römische Mythologie als Discordia („Zwietracht“) übernommen. Apfel der Zwietracht. Sie ist bekannt durch den goldenen „Apfel der Zwietracht“ (den sprichwörtlichen „Zankapfel“ oder „Erisapfel“), den sie auf der Hochzeit des Peleus und der Thetis, zu der sie nicht eingeladen war, unter die Gäste warf. Auf diesem Apfel war die Widmung "tē kallístē" eingraviert, das bedeutet „der Schönsten“. Aphrodite, Athene und Hera begannen um den Apfel zu streiten. Auf den Rat des Zeus führte Hermes die drei zu Paris; dieser solle ihn der schönsten der drei Göttinnen geben. Paris entschied sich für Aphrodite, die ihm die schönste Frau (der Welt) versprach. Es erwies sich aber danach, dass sie bereits verheiratet war: Helena, die Frau des Königs von Sparta Menelaos. Ihre Entführung durch Paris löste dann den Trojanischen Krieg aus. Darstellung. Eris erscheint oft als hinkende, zusammengeschrumpelte, kleine Frau. Erst wenn sie es schafft, den Neid und den Hass der Menschen zu wecken, erblüht sie zu ihrer wahren Gestalt. Homer schreibt über sie in der "Ilias": „Was sie einmal begonnen hat, davon kann sie nicht mehr lassen. Von ihrer kleinen Gestalt wächst sie zu gigantischer Größe und Schönheit empor.“ In "Werke und Tage" des Hesiod ist neben der zänkischen Eris auch noch eine „gute“ angeführt, die den Menschen zur Arbeit anspornt. Rezeption. Eine postmoderne Rezeption des von Eris vertretenen Prinzips findet sich in der Religion des Diskordianismus, der vor allem durch die Romantrilogie "Illuminatus!" von Robert Shea und Robert Anton Wilson bekannt wurde. Nach der Göttin der Zwietracht ist auch der Zwergplanet Eris benannt, dessen Entdeckung zu einem Streit um die Neudefinition des Begriffs „Planet“ und der kontrovers diskutierten Aberkennung des Planetenstatus von Pluto geführt hatte. Der Zwergplanet wurde so metaphorisch zum Zankapfel der Astronomen. In der Kunst. In der Fernsehserie Herklules, Zankapfel ist ein wiederkehrender Antagonist. In The New 52 (die neuen 52) Relaunched Wonder Woman Titel, wurde Eris zu " Strife " umbenannt. Sie ist sarkastisch, giftig, und ein Trinker.Sowohl Diana und Hermes, betrachten ihre Mentalität wie die eines gehässigen Kindes. In EVE Online ist Eris der Name der Gallente Interdictor (Raumschiff). Im Buch Olympos, Krieg der Götterkinder, ist der Zankapfel ein Golden Delicious aus der Zukunft. Dieser wird von den drei Zeitreisenden Frauen, von Athena, Paris bei einer Hochzeit geschenkt, mit der Bitte zu schlichten. Im Streit, welche von ihnen den beim Fest am Abend nun den goldenen Kopfschmuck tragen darf, lässt Paris die drei Frauen eine Rose ziehen. Dr. Sarah Jones, welche zufällig auch Paris Vater vor einem Attentäter kurz davor rettete, gewinnt, da sie die Rose mit dem längsten Stiel erwischte. Durch Veränderung der Zeitlinie, und da es Paris es wohl etwas anders weitergab sowie wegen Jahrhunderte der mündlichen Überlieferung, entstand im Buch daher die Mythe vom Zankapfel. Enzyklopädie. a>" in einer reich illustrierten Ausgabe des 13. Jahrhunderts Populäre Großenzyklopädie "Bertelsmann Lexikothek" in 26 Bänden, in der Auflage von 1983 Eine Enzyklopädie (früher auch aus dem Französischen Encyclopedie; griechisch ἐγκύκλιος παιδεία "Kreis der Bildung") ist ein besonders umfangreiches Nachschlagewerk. Der Begriff "Enzyklopädie" soll auf Ausführlichkeit oder eine große Themenbreite hinweisen, wie beispielsweise bei einem Menschen, dem enzyklopädisches Wissen nachgesagt wird. Es wird eine Zusammenfassung des gesamten Wissens dargestellt. Die Enzyklopädie ist demzufolge eine überblickende Anordnung des Wissens, die Zusammenhänge darstellt. Daneben findet sich die Bezeichnung „Enzyklopädie“ auch bei vielen Werken, die nur ein begrenztes Fachgebiet oder auch nur Sachgebiet behandeln, den Fachenzyklopädien. Als älteste vollständig erhaltene Enzyklopädie gilt die "Naturalis historia" aus dem ersten nachchristlichen Jahrhundert. Die Grenzen waren fließend; Enzyklopädien standen zwischen Lehrbüchern einerseits und Wörterbüchern andererseits. Vor allem die große französische "Encyclopédie" (1751–1780) hat die Bezeichnung „Enzyklopädie“ für ein Sachwörterbuch durchgesetzt. Aufgrund der alphabetischen Anordnung werden Enzyklopädien oft als Lexika bezeichnet, in der Geschichte der Enzyklopädien finden sich aber auch andere Bezeichnungen, zum Beispiel Sachwörterbuch. Die heutige Form des Nachschlagewerkes hat sich vor allem seit dem 18. Jahrhundert entwickelt; dabei handelt es sich um ein umfangreiches Sachwörterbuch über alle Themen für eine breite Leserschaft. Im 19. Jahrhundert kam der typische, neutral-sachliche Stil hinzu. Die Enzyklopädien wurden besser strukturiert und beinhalteten neue Texte, keine bloßen Übernahmen älterer (fremder) Werke. Eines der bekanntesten Beispiele im deutschsprachigen Raum war lange Zeit die "Brockhaus Enzyklopädie" (ab 1808), im englischsprachigen die "Encyclopaedia Britannica" (ab 1768). Seit den 1980er-Jahren werden Enzyklopädien ferner in digitaler Form angeboten, auf CD-ROM und im Internet. Teilweise handelt es sich um Fortführungen älterer Werke, teilweise um neue Projekte. Ein besonderer Erfolg war die 1993 erstmals auf CD-ROM herausgegebene "Microsoft Encarta". Die 2001 gegründete "Wikipedia" entwickelte sich zur größten Internet-Enzyklopädie. Definitionen. a>" von 1728 mit Hinweisen auf den Inhalt Die Althistorikerin Aude Doody nannte die Enzyklopädie eine Gattung, die man nur schwer definieren könne. Enzyklopädismus sei das Streben nach universellem Wissen oder auch die Summe des allgemeinen Wissens (einer bestimmten Kultur). Konkret sei die Enzyklopädie ein Buch, „das entweder die gesamte Garnitur des allgemeinen Wissens oder ein erschöpfendes Spektrum an Material über einen spezialistischen Gegenstand versammelt und ordnet.“ Die Enzyklopädie beanspruche, einfachen Zugang zu Informationen über alles zu verschaffen, das der Einzelne über seine Welt wissen muss. Entwicklung zum modernen Begriff. Der moderne Begriff „Enzyklopädie“ setzt sich aus zwei griechischen Wörtern zusammen: ἐγκύκλιος (enkýklios), im Kreis herumgehend, auch: umfassend, allgemein, sowie παιδεία (paideia), Erziehung oder Unterricht. Das daraus zusammengesetzte ἐγκύκλιος παιδεία verwies auf die „chorische Erziehung“, meinte also ursprünglich die musische Ausbildung junger freigeborener Griechen im Kreis des Theaterchores. Eine verbindliche Auflistung der vermittelten Fächer gab es bei den Griechen nicht. Moderne Forscher ziehen es vor, den griechischen Ausdruck als allgemeine Erziehung zu übersetzen, im Sinne einer grundlegenden Bildung. Der Römer Quintilian (35 bis ca. 96 nach Christus) übernahm den Begriff und meinte, bevor die Jungen als Redner ausgebildet würden, sollten sie den Bildungsweg (den "orbis ille doctrinae", wörtlich: Kreis der Fächer) durchlaufen. Römische Autoren, wie Quintilian und Vitruv, bezeichneten mit ἐγκύκλιος παιδεία eine Vorbildung für die von ihnen vorgestellte Spezialisierung, wie Redner oder Architekt. Dementsprechend variierten die genannten Fächer. Quintilian erwähnt für Redner beispielsweise die Bereiche Geometrie und Musik. Unklar bleibt, was Plinius gemeint hat, als er die τῆς ἐγκυκλίου παιδείας im Vorwort zu seiner "Naturalis historia" (ca. 77 n. Chr.) erwähnte. Das liegt nicht nur an der Unbestimmtheit der möglichen Fächer, sondern auch an Undeutlichkeiten der Textstelle. Die ἐγκύκλιος παιδεία wurde schließlich zu einer Sammelbezeichnung für die sich ausbildenden sieben freien Künste, die "artes liberales". a>s "Lucubrationes, vel potius absolutissima kuklopaideia…", 1541 Das Wort Enzyklopädie geht auf eine fehlerhafte Rückübersetzung der Stelle bei Quintilian zurück. Dieses "tas Encyclopaedias" in Plinius-Ausgaben seit 1497 setzte dann den Ausdruck durch. Es wurde als griechische Übersetzung von "orbis doctrinae" angesehen. In Nationalsprachen erschien der Ausdruck dann in den 1530er-Jahren. In der Mitte des 16. Jahrhunderts konnte man das Wort ohne weitere Erklärung in Buchtiteln für Werke verwenden, „in denen die Gesamtheit der Wissenschaften nach einer bestimmten Ordnung dargestellt wird“, so Ulrich Dierse. Die Betonung lag dabei nicht auf Gesamtheit, sondern auf Ordnung. Guillaume Budé verwendete die lateinische Neuschöpfung 1508 im Sinne einer allesumfassenden Wissenschaft oder Gelehrtheit. Wohl zum ersten Mal in einem Buchtitel erschien das Wort 1527. Damals veröffentlichte der südniederländische Pädagoge Joachim Sterck van Ringelbergh: "Lucubrationes, vel potius absolutissima kuklopaideia, nempe liber de ratione studii" (Nachtarbeiten, oder vielmehr vollständigste "kuklopaideia", sicherlich ein Buch über die Vernunft des Lernens). Als Titel eines Buches tauchte es zuerst 1559 auf: "Encyclopaedia, seu orbis disciplinarum" ("Encyclopaedia", oder der Kreis der Fächer) des Kroaten Paul Scalich. Die englische "Cyclopaedia" von 1728 war ein alphabetisch geordnetes Nachschlagewerk, ein "dictionary of the arts and sciences". Der Durchbruch des Namens Enzyklopädie kam erst mit der großen französischen "Encyclopédie" (1751 und Folgejahre). Nach dem Vorbild dieses Werkes etablierte sich der Begriff für ein allgemeines Sachwörterbuch. Daneben wurde das Wort auch für die Erkenntnis von der Einheit des Wissens verwendet; in diesem Sinne beschrieb der Philosoph Christian Appel seinen 1784 an der Universität Mainz eingerichteten „Lehrstuhl für allgemeine Enzyklopädie“. In der Erziehung gehe man von einfachen sinnlichen Eindrücken und Erfahrungen aus, dann komme man über einen Abstraktionsprozess zu zusammenhängenden wissenschaftlichen Weisheiten. Diese seien aber verstreut, daher brauche man eine Zusammenfassung. So solle die Enzyklopädie nicht am Anfang des Universitätsstudiums stehen, sondern am Ende, als Krönung. Für die Erforschung der Enzyklopädien wiederum hat sich der Begriff Enzyklopädik eingebürgert. Andere Bezeichnungen. a>", „Schauplatz des menschlichen Lebens“, 1565 Alphabetisch angeordnete Enzyklopädien hießen oder heißen "Dictionarium", "Wörterbuch" oder "Lexikon". Weitere Bezeichnungen lauten: "Enzyklopädisches Wörterbuch", "Sachwörterbuch", "Realwörterbuch", dazu "Reallexikon" und "Realenzyklopädie", "Konversationslexikon", "Universallexikon" usw. Im Englischen und Französischen war "dictionary" beziehungsweise "dictionnaire" weit verbreitet, oft in der Zusammenfassung "dictionary of the arts and sciences" beziehungsweise "dictionnaire des arts et des sciences". Im Deutschen spiegelt sich das im Titel der "Allgemeinen Encyclopädie der Wissenschaften und Künste" von Ersch-Gruber (1818–1889) wider. Als Künste sind gängigerweise die mechanischen und handwerklichen Künste zu verstehen, und der Begriff der Wissenschaft sollte nicht zu eng aufgefasst werden, so wurde die Theologie damals noch selbstverständlich zur Wissenschaft gezählt. "Real" oder "Realia" steht für Sachen im Gegensatz zu Begriffen oder Wörtern, ein "Realwörterbuch" ist also ein Sachwörterbuch und kein Sprachwörterbuch. Geschichte. Literarische Gattung und Begriff laufen in der Geschichte der Enzyklopädie nicht parallel zueinander. Darum lässt sich darüber streiten, ob es vor der Neuzeit überhaupt Enzyklopädien gegeben hat; zumindest waren sich die damaligen Autoren einer solchen literarischen Gattung nicht bewusst. Es herrscht weite Übereinstimmung, beispielsweise die "Naturalis historia" als Enzyklopädie anzusehen. Dabei besteht allerdings die Gefahr einer anachronistischen Sichtweise, nämlich ein antikes Werk mit modernen Augen zu sehen und es unangemessen zu interpretieren, warnt Aude Doody. Die Historiker sind sich nicht darüber einig, welches Werk als die erste Enzyklopädie anzusehen ist. Das liegt einerseits daran, dass viele Werke verloren gegangen sind und nur noch aus kurzen Beschreibungen oder Bruchstücken bekannt sind. Andererseits gibt es keine verbindliche Definition einer Enzyklopädie, manche Historiker berücksichtigen auch einen enzyklopädischen Ansatz im Sinne eines Strebens nach Umfassendheit. Altertum. Römer liest eine Schriftrolle, Spätantike Als ein geistiger Vater der Enzyklopädie wird der griechische Philosoph Platon genannt. Er hat zwar selbst keine Enzyklopädie verfasst, aber mit seiner Akademie zu Athen verschrieb er sich dazu, die ganze Bildung jedem intelligenten jungen Mann zur Verfügung zu stellen. Von einem enzyklopädischen Werk von Platons Neffen Speusippos (gestorben 338 v. Chr.) sind nur noch Fragmente erhalten. Einen enzyklopädischen im Sinne von umfassenden Ansatz hat man auch Aristoteles nachgesagt. Die Griechen sind für ihre intellektuellen Erkundungen und ihre philosophische Originalität bekannt, haben ihr Wissen aber nicht in einem einzelnen Werk zusammengefasst. So gelten die Römer als die eigentlichen Erfinder der Enzyklopädie. In der Römischen Republik gab es bereits die Briefserie "Praecepta ad filium" (etwa 183 vor Chr.), mit der Cato der Ältere seinen Sohn unterwies. Vor allem entstand die Enzyklopädie in der Kaiserzeit, da sie den weiten Horizont solcher Menschen brauchte, die ein Weltreich beherrschten. Die erste der eigentlichen Enzyklopädien war das "Disciplinarum libri IX" von Marcus Terentius Varro († 27 v. Chr.). Die zweite Enzyklopädie waren die "Artes" des Arztes Aulus Cornelius Celsus (gestorben um 50 n. Chr.). Varro war der Erste, der die allgemeinbildenden Fächer zusammengefasst hat, aus denen später die freien Künste wurden. Zusätzlich zu jenen Fächern, die dann im Mittelalter zum Kanon wurden, nahm er Medizin und Architektur auf. Die "Hebdomades vel de imaginibus" sind siebenhundert Kurzbiografien großer Griechen und Römer; davon sind nur vereinzelte Bruchstücke überliefert, ebenso wie vom "Discliplinarum". Varro hatte großen Einfluss auf Autoren der ausgehenden Antike. Von überragender Bedeutung jedoch war die "Naturalis historia" des Politikers und Naturforschers Plinius. Geschrieben um 77 n. Chr., ist sie die einzige vollständig erhaltene Enzyklopädie des Altertums, und in kaum einer mittelalterlichen Bibliothek mit Anspruch fehlte ein Exemplar. Der Verwalter Plinius war es gewohnt, die Welt in Einheiten und Untereinheiten eingeteilt zu sehen. Das Besondere an Plinius’ Werk war die beanspruchte und immer wieder thematisierte Universalität, die ihm auch als Erklärung dafür diente, dass er vieles nur sehr kurz beschreiben konnte. Ein anderer römischer Enzyklopädist mit weitreichendem Einfluss war Martianus Capella aus Nordafrika. Er verfasste zwischen 410 und 429 n. Chr. eine Enzyklopädie, die oft "Liber de nuptiis Mercurii et Philologiae" („Die Hochzeit der Philologie mit Merkur“) genannt wird und zum Teil in Versen geschrieben wurde. Die sieben Brautjungfern entsprachen den Kapiteln des Werks und diese wiederum den sieben freien Künsten. Frühes Mittelalter. Nach dem Untergang des Römischen Reiches bewahrte der Politiker Cassiodor mit seiner Kompilation "Institutiones divinarum et saecularium litterarum" (543–555 n. Chr.) Teile des antiken Wissens im Frühmittelalter. Dazu hatte er sich in ein von ihm selbst gegründetes Kloster im Süden Italiens zurückgezogen. Während er noch Weltliches und Geistliches voneinander trennte, integrierte zwei Generationen später Bischof Isidor von Sevilla die christliche Lehre in die antike Gelehrsamkeit. Isidors Enzyklopädie "Etymologiae" (um 620) wollte durch den wahren Sinn eines Wortes, durch Begriffserklärungen die Welt deuten und den Leser im Glauben unterweisen. Isidor gab allerdings zu, dass manche Wörter willkürlich gewählt sind. Die Forschung hat viele Vorlagen Isidors ermittelt, seine eigene Leistung bestand darin, daraus ausgewählt sowie eine klare, gut angeordnete Darstellung in einfachem Latein abgeliefert zu haben. Brüche im Text lassen vermuten, dass Isidor sein Werk nicht vollendet hat. Rabanus Maurus, der 847 zum Mainzer Erzbischof geweiht wurde, stellte ein Werk "De universo" zusammen, das großteils Isidors Text übernahm. Rabanus begann jedes der 22 Kapitel mit einer geeigneten Textstelle Isidors und ließ vieles weg, das ihm für das Verständnis der Heiligen Schrift unnötig erschien. Dazu gehörten für ihn insbesondere die freien Künste. Viele spätere Werke des Mittelalters folgten seinem Beispiel, mit Gott und den Engeln zu beginnen. Hoch- und Spätmittelalter. Fremde Völkerschaften in "Der naturen bloeme", 13. Jahrhundert Auf den antiken und frühmittelalterlichen Enzyklopädien bauten die Werke des europäischen Hochmittelalters auf. Das größte enzyklopädische Werk aus der Mitte des 13. Jahrhunderts war das "Speculum maius" des Vincent von Beauvais mit fast zehntausend Kapiteln in achtzig Büchern. Es deckte nahezu alle Themen ab: im ersten Teil "Naturale" Gott und die Schöpfung, einschließlich der Naturgeschichte; in "Doctrinale" das praktische moralische Handeln sowie das scholastische Erbe; in "Historiale" die Geschichte der Menschen von der Schöpfung bis ins dreizehnte Jahrhundert. Ein vierter Teil, "Morale", war nach Vincents Tod hinzugefügt worden und basierte vor allem auf Thomas von Aquins Werken. Der Südniederländer Jacob van Maerlant verteilte sein enzyklopädisches Wissen auf mehrere Werke: Im Alexanderroman "Alexanders Geesten" (um 1260) band er tausend Verse ein, die einen gereimten Weltatlas ausmachen; in "Der naturen bloeme" (um 1270) behandelt er die Natur; im "Spiegel historiael" (um 1285) die Weltgeschichte. Er war der erste europäische Enzyklopädist, der in einer (nichtromanischen) Volkssprache geschrieben hat. Seine Werke sind vor allem Bearbeitungen lateinischer Vorlagen, wie "De natura rerum" von Thomas von Cantimpré und "Speculum historiale" von Vincent von Beauvais, doch lässt er viele Details weg, wählt aus, fügt Inhalte von anderen Autoren hinzu und schöpft zu einem geringen Teil auch aus eigenem Wissen von der Welt. Er moralisierte und glaubte zum Beispiel an die Zauberkraft von Edelsteinen, dennoch steht Maerlant für eine vergleichsweise moderne, kritisch-forschende Naturauffassung im Geiste des Albertus Magnus. Im Spätmittelalter und in der Renaissance (ca. 1300–1600) zog teilweise bereits eine wissenschaftlichere, weniger auf das Christentum beruhende Darstellung ein. So befreite sich das anonyme "Compendium philosophicae" (um 1300) von den Legenden, wie sie seit Plinius durch die Enzyklopädien wanderten, und der spanische Humanist Juan Luis Vives hat in "De disciplinis" seine Argumente auf der Natur, nicht auf religiöser Autorität aufgebaut. Vives wollte nicht über die Natur spekulieren, sondern die Natur beobachten, um für sich und seine Mitmenschen etwas Praktisches zu lernen. Trotz dieser Ansätze bevölkerten bis ins 18. Jahrhundert Wundertiere und Monster die Enzyklopädien, wo sie unproblematisch der Natur zugerechnet wurden. Außereuropäische Kulturen. Mehr noch als die westlichen waren die chinesischen Enzyklopädien Zusammenstellungen bedeutender Literatur. Im Laufe der Jahrhunderte wurden sie eher weitergeführt als erneuert. Oft vor allem für die Ausbildung von Beamten bestimmt, folgten sie normalerweise einer traditionellen Anordnung. Die erste bekannte chinesische Enzyklopädie war der „Kaiserspiegel“ "Huang-lan", der etwa 220 nach Christus auf Befehl des Kaisers erstellt wurde. Aus diesem Werk ist nichts überliefert. Das "T’ung-tien", etwa 801 fertiggestellt, behandelte Staatskunst und Wirtschaft und wurde mit Ergänzungsbänden bis ins 20. Jahrhundert weitergeführt. Eine der wichtigsten Enzyklopädien, "Yü-hai", wurde etwa 1267 zusammengestellt und erschien 1738 in 240 gedruckten Bänden. Als erste moderne chinesische Enzyklopädie gilt die "Tz’u-yüan" (1915), sie gab die Richtung für spätere Werke vor. Der persische Gelehrte und Staatsmann Muhammad ibn Ahmad Al-Chwarizmi stellte 975–997 einen arabischen „Schlüssel zu den Wissenschaften“ zusammen, "Mafatih al-’Ulum". Er war zweifellos mit den Grundzügen der griechischen Geisteswelt bekannt und bezog sich teilweise auf Werke des Philo, Nikomachos oder Euklid. Seine Enzyklopädie teilt sich in einen „einheimischen“, arabischen Teil, darunter das Meiste, das heute als Geisteswissenschaften angesehen wird, und einen „fremden“. Die Brüder der Reinheit in Basra (heutiger Irak), ein Orden von Sufi-Mystikern, waren vor allem 980–999 aktiv und arbeiteten gemeinsam an einer Enzyklopädie. Ihre Kompilation wird meist "Rasa’ulu Ikhwan al safa" genannt. Auch sie kannten die griechischen Gelehrten und hatten ausgesprochene Vorlieben. Umgekehrt gibt es kaum Anzeichen dafür, dass die westlichen Enzyklopädie-Autoren die arabisch-islamischen Quellen gekannt hätten. Die chinesischen Enzyklopädien wiederum waren sowohl vom christlichen als auch vom islamischen Kulturkreis getrennt. Frühe Neuzeit. a>" (1704) nicht nur die Begriffe der Künste, gemeint sind die Handwerkskünste, sondern die Künste selbst. "Margarita Philosophica" von Gregor Reisch (1503) war eine weit verbreitete allgemeine Enzyklopädie, ein Lehrbuch für die sieben freien Künste. Sie war die erste Enzyklopädie, die nicht in Handschriften, sondern sofort gedruckt erschien. Ebenso wie die "Encyclopaedia" von Johannes Aventinus (1517) und die "Encyclopaedia Cursus Philosophici" von Johann Heinrich Alsted (1630) folgte sie einer systematischen Ordnung. Das "Grand dictionaire historique" (1674) von Louis Moréri war das erste große, nationalsprachliche, alphabetische Nachschlagewerk für die Themenbereiche Geschichte, Biografie und Erdkunde. In seiner Tradition steht das eigentümliche "Dictionnaire historique et critique" (1696/1697) von Pierre Bayle, das Moréris Werk ursprünglich korrigieren und ergänzen sollte. Zu eher knappen Artikeln lieferte Bayle einen überaus ausführlichen und kritischen Apparat von Anmerkungen. Da Bayle in erster Linie diejenigen Gegenstände behandelte, die ihn persönlich interessierten, ist sein Werk als ein Ego-Dokument, eine intellektuelle Autobiografie anzusehen. Es war eher neben, nicht anstelle einer allgemein gehaltenen Enzyklopädie zu verwenden. Denkt man bei Enzyklopädien heutzutage vor allem an biografisches und historiografisches Wissen und weniger an naturwissenschaftliches, so war dies um 1700 umgekehrt. Damals entstanden die "dictionnaires des arts et des sciences", Wörterbücher der (mechanischen, handwerklichen) Künste und der Wissenschaften. Biografische und historiografische Informationen fehlten großteils. Als Wörterbücher brachen sie, im Unterschied zu den meisten früheren Werken, mit der thematischen Anordnung. Mit Antoine Furetières "Dictionnaire universel des arts et sciences" (1690) begann diese neue Richtung in der Geschichte der Enzyklopädie. Vergleichbar waren das "Lexicon technicum" (1704) von John Harris und dann die "Cyclopaedia" (1728) von Ephraim Chambers. Doch schon in direkter Nachfolge dieser erfolgreichen Werke kam es zu einem weiteren Schritt, der Überbrückung des Gegensatzes von naturwissenschaftlich-philosophischem und biografisch-historischem Nachschlagewerk. Hier ist nicht zuletzt das eben in diesem Sinne benannte "Universal-Lexicon" (1732–1754) von Johann Heinrich Zedler zu erwähnen. Das in 64 Bänden herausgegebene Großwerk war die erste Enzyklopädie mit Biografien noch lebender Personen. Zeitalter der Aufklärung. a>, erbaut 1784. Die obere Galerie beherbergt vor allem Enzyklopädien. Die mit Abstand berühmteste Enzyklopädie der Geschichte ist die große französische "Encyclopédie" (1751–1772). Sie führte zwar kaum eigentliche Neuerungen ein, wurde aber gerühmt wegen ihres Umfanges, der thematischen Breite, der systematischen Unterbauung, der vielen Abbildungen, nämlich zweitausendfünfhundert, während die Konkurrenten allenfalls einige hundert Abbildungen aufwiesen. Dennoch war sie weniger erfolgreich und einflussreich als oft angenommen, denn allein schon wegen ihrer schieren Größe erreichte sie relativ wenige Leser, verglichen etwa mit der weitverbreiteten und mehrfach wiederaufgelegten "Cyclopaedia". Vor allem gilt sie mit ihrer kritischen und weltlichen Einstellung als Schmuckstück der Aufklärung, der gesamteuropäischen Bildungsoffensive. Angriffe von Seiten der Kirche und Schwierigkeiten mit der Zensur überschatteten ihre Entstehung ebenso wie späteren Streitigkeiten zwischen den Herausgebern Denis Diderot und Jean-Baptiste le Rond d’Alembert. Diderot und viele seiner Mitautoren brachten an verschiedenen Stellen in der Enzyklopädie Kritik gegen bestimmte Vorstellungen in der herrschenden Gesellschaft an. Das Werk war als solches das Ergebnis der Leistung vieler Enzyklopädisten und konnte wohl aber letztlich nur dank des Einsatzes von Louis de Jaucourt endgültig fertiggestellt werden, letzterer stellte sogar auf eigene Kosten Sekretäre ein. In den letzten zehn Bänden, die er großteils selbst geschrieben hat, gibt es zwar weniger polemische Fundstellen als in den ersten sieben, was sie für den heutigen Leser weniger interessant machen könnte. Im englischsprachigen Raum blühte die "Encyclopaedia Britannica", zunächst in Schottland herausgegeben, ab dem 20. Jahrhundert in den USA. Die erste Auflage (1768–1771) bestand aus drei Bänden und war in Qualität und Erfolg eher bescheiden. Die Qualitätsverbesserung der zweiten Auflage trug zum Erfolg der dritten bei, die bereits 18 Bände umfasste. Wenn die "Encyclopaedia Britannica" die Zeiten überdauerte, während die große französische "Encyclopédie" ihren letzten, bescheidenen und umgeformten Nachfolger 1832 hatte, lag dies am Mut der Herausgeber, Neuerungen zuzulassen. Außerdem war die politische Entwicklung in Großbritannien ruhiger als in Frankreich, das von den Folgen der Revolution von 1789 heimgesucht wurde. 19. Jahrhundert. Um 1800 trat ein neuer erfolgreicher Typus der Enzyklopädien auf. Entstanden war er aus dem Konversationslexikon, das zunächst Renatus Gotthelf Löbel mitgestaltet hatte. 1808 wurde sein unvollendetes Werk, 1796 begonnen, von Friedrich Arnold Brockhaus aufgekauft. Es behandelte zeitgenössische Themen über Politik und Gesellschaft, um eine gebildete Unterhaltung in einer sozial durchaus gemischten Gruppe zu ermöglichen. Mit den Auflagen von 1824 und 1827 ging der Verlag F. A. Brockhaus dazu über, zeitlosere Themen aus der Geschichte, später auch aus Technik und Naturwissenschaft zu bevorzugen, da die stete Erneuerung der Bände mit aktuellen Themen zu teuer wurde. Im "Brockhaus" waren die Themen auf viele kurze Artikel heruntergebrochen, wodurch das Lexikon schnell über einen Begriff informieren konnte. Ähnlich machte es auch die "Britannica", die anfänglich noch teilweise aus langen Artikeln bestanden hatte. Während der "Brockhaus" von den Geisteswissenschaften her kam und die Naturwissenschaften später integrierte, war es bei der "Britannica" umgekehrt. In jenem Jahrhundert wurde das Schulwesen in den europäischen Ländern erheblich ausgeweitet. Zusammen mit drucktechnischen Verbesserungen führte dies dazu, dass immer mehr Menschen lesen und sich Bücher leisten konnten. Gab es um 1800 im deutschsprachigen Raum 470 Verlagsbuchhandlungen, so waren es hundert Jahre später im Deutschen Reich 9360. Entsprechend wurden Enzyklopädien nicht mehr in Auflagen zu mehreren Tausend, sondern zu mehreren Zehntausend oder gar Hunderttausend gedruckt. Von 1860 bis 1900 bemühten die Enzyklopädien sich um eine gleichmäßigere Behandlung und um Standardisierung. Die Wertschätzung für statistisches Material war groß. In Deutschland teilten sich vor allem der "Brockhaus", der "Meyer", der "Pierer" und für das katholische Publikum der "Herder" den Markt. "Brockhaus" und "Meyer" hatten je ein Drittel Marktanteil. Daneben gab es Ende des 19. Jahrhunderts etwa fünfzig weitere Verlage, die Enzyklopädien anboten. Manche Enzyklopädien schlossen mit ihrem Namen bewusst an einen berühmten Vorläufer an, so die "Chambers’ Encyclopaedia" der Brüder Chambers, die nur dem Namen nach an die "Cyclopaedia" von Ephraim Chambers erinnerte. 20. Jahrhundert. Tierwelt Australiens in einer typischen Bildtafel, russische Enzyklopädie vom Anfang des 20. Jahrhunderts Um 1900 verfügten die meisten westlichen Länder über wenigstens eine umfangreiche und neuere Enzyklopädie. Manche konnten eine Tradition von fünfzig oder gar hundert Jahren vorweisen. Fachleute behandelten in der Sprache des betreffenden Landes viele Themen. Die Beiträge waren in alphabetischer Reihenfolge und schlossen Biografien lebender Personen mit ein, ebenso Bebilderungen, Landkarten, Querverweise, Indizes und Literaturlisten am Ende längerer Artikel. Wich eine Enzyklopädie von diesem Konzept ab, überlebte sie nicht lange. Doch auch die übrigen kamen nur über ein oder zwei Auflagen hinaus, wenn fähige Herausgeber dahinter standen. Ferner konnten Revolutionen und Weltkriege gute Enzyklopädien zu Fall bringen. Der Erste Weltkrieg hat die Entwicklung teilweise unterbrochen, und unter anderem in Deutschland erschwerte die Inflation zunächst die Wiederaufnahme. Bei Meyer etwa führte dies zu der Entscheidung, den "Großen Meyer" von 20 auf zwölf Bände zu verkleinern, wodurch ein neuer, mittelgroßer Enzyklopädie-Typ entstand. In den 1920er-Jahren wandten die Großenzyklopädien sich an ein deutlich breiteres Publikum als vor dem Krieg und legten noch mehr Wert auf die sachliche Darstellung. Das Layout war moderner, es gab mehr Abbildungen; beim "Brockhaus" (ab 1928) wurden farbige Bilder per Hand eingeklebt. Die Werbung wurde erheblich ausgeweitet, in Kundenzeitschriften und Informationsbroschüren stellte Brockhaus nicht nur das Produkt, sondern auch Idee und Beteiligte vor; Marktanalysen wurden eingeführt. Eine Herausforderung eigener Art waren die totalitären Regime. Beispielsweise im nationalsozialistischen Deutschland (1933–1945) wurde der Angestelltenbereich des Brockhaus-Verlags gleichgeschaltet, inhaltlich musste man Zugeständnisse an die parteiamtliche Prüfungskommission machen. So nahm der 1933 neu aufgelegte "Kleine Brockhaus" aktualisierte Biografien zu Hitler, Göring und anderen NS-Größen auf, ebenso neue politische Begriffe. Die Parteiideologen waren damit nicht zufrieden, aber der Verlag verwies auf das internationale Ansehen des "Brockhaus", das auch aus wirtschaftlichen Gründen nicht gefährdet werden dürfe. Wesentlich weniger zurückhaltend war das Bibliographische Institut. Seine Vorstandsmitglieder schlossen sich rasch der NSDAP an, 1939 bewarb man den "Meyer" als einziges parteiamtlich empfohlenes Großlexikon. In den Jahrzehnten nach dem Zweiten Weltkrieg boomten Enzyklopädien und ihre Verlage. Im deutschsprachigen Raum führte das dazu, dass die beiden bedeutendsten Enzyklopädie-Verlage, F. A. Brockhaus und Bibliographisches Institut (Meyer), eine starke Konkurrenz von Seiten anderer Verlage erlebten. Vor allem Großverlage erschlossen mit populären Nachschlagewerken eine breitere Leserschaft und einen erheblichen Marktanteil bei den kleinen und mittelgroßen Enzyklopädien. Piper brachte 1972 ein Jugendlexikon heraus, Bertelsmann kam mit der zehnbändigen "Lexikothek" (1972, mit thematischen Zusatzbänden), Droemer-Knaur zwei Jahre später ebenfalls mit einem zehnbändigen Werk. Die Einzelhandelsketten Kaufhof und Tchibo boten einbändige Lexika an. Brockhaus und Bibliographisches Institut fusionierten 1984; im Jahre 1988 kam Langenscheidt als Mehrheitsaktionär hinzu, womit einem großzügigen Angebot von Robert Maxwell begegnet wurde. Elektronische Enzyklopädien. Bereits in der ersten Hälfte des 20. Jahrhunderts gab es Ideen zu einer neuartigen Form der Enzyklopädie. Der Science-Fiction-Autor H. G. Wells träumte um 1938 beispielsweise von einer "World Encyclopaedia", die keine hastig geschriebenen Artikel anbieten solle, sondern sorgfältig zusammengestellte Auszüge, die beständig von Experten überprüft werden. Wells glaubte an den damals neuen Mikrofilm als billiges und universelles Medium. Dreißig Jahre später kommentierte der Enzyklopädie-Experte Robert Collison, dass die perfekte Enzyklopädie sich wohl nie in der von Wells vorgestellten Form verwirklichen lasse. Es gebe diese perfekte Enzyklopädie bereits in der unperfekten Form der großen Bibliotheken, mit Millionen von Büchern, durch Indizes und Kataloge erschlossen. Eine Schar von Bibliothekaren und Bibliografen stellten das alles Einzelpersonen oder Gruppen der Öffentlichkeit zur Verfügung. Täglich lieferten Autoren und Herausgeber neue Bücher und Artikel. In den 1980er-Jahren kamen die "PCs" in die Privathaushalte. Doch die elektronische beziehungsweise digitale Herausforderung wurde von den Enzyklopädie-Verlagen lange Zeit nicht erkannt. Im Vorwort der 26-bändigen niederländischen "Winkler Prins" von 1990 heißt es, die Redaktion habe die eventuelle Anwendung neuer, elektronischer Medien untersucht. Doch für das Hintergrundwissen, wie diese Enzyklopädie es anbiete, sei und bleibe die klassische Buchform das handlichste Medium. 1985 wollte die Software-Firma Microsoft eine Enzyklopädie auf CD-ROM herausbringen. Der gewünschte Partner, "Encyclopaedia Britannica", schlug eine Zusammenarbeit jedoch aus. Damals hatten nur vier bis fünf Prozent der US-Haushalte einen Computer, außerdem fürchtete der Britannica-Verlag um das aufgebaute intellektuelle Image der eigenen Enzyklopädie. Vor allem wollte man nicht auf den traditionellen Vertriebsweg mit seinen hohen Gewinnmargen verzichten: das Haustürgeschäft. In den 1990er-Jahren kam dann der große Durchbruch der elektronischen Enzyklopädien. Der "Brockhaus" sah 2005/2006 jedoch auch einen rückläufigen Trend: Enzyklopädien würden wieder gedruckt werden. Er verwies auf sich selbst sowie auf die französische "Encyclopædia Universalis" (2002) und die "Encyclopaedia Britannica" (2002/2003). Es sei von einer dauerhaften doppelgleisigen Entwicklung mit elektronischen und Printenzyklopädien auszugehen. CD-ROM-Enzyklopädien. Das dänische "Lademanns leksikon" gedruckt und (Mitte) als CD-ROM 1985 erschien bereits eine reine Text-Enzyklopädie auf CD-ROM, "Academic American Encyclopedia" von Grolier, auf der Basis des Betriebssystems DOS. Dann brachte im April 1989 der Britannica-Verlag eine CD-ROM-Enzyklopädie heraus, allerdings nicht das Flaggschiff unter eigenem Namen. Man veröffentlichte vielmehr eine Multimedia-Version der erworbenen "Compton’s Encyclopaedia". Microsoft seinerseits hatte 1989 die auslaufende "Funk and Wagnalls Standard Reference Encyclopedia" aufgekauft, die billig in Supermärkten angeboten worden war. Mit einem sehr kleinen Mitarbeiterstab wurden die Texte aufgefrischt und erweitert, auch mit Bildern und Audio-Dateien versehen. 1993 kamen sie dann als "Microsoft Encarta" heraus. Die Kunden erhielten sie zusammen mit dem Computer-Betriebssystem Windows, sonst kostete sie hundert Dollar. Damals besaßen schon zwanzig Prozent der US-Haushalte einen Computer. Ein Jahr später folgte Britannica mit einer CD-ROM-Version der "Encyclopaedia Britannica". Diese erhielt man als Zugabe zur Druckversion oder aber für stattliche 1200 Dollar. Bis 1996 senkte Britannica den Preis auf zweihundert Dollar, doch da beherrschte die "Microsoft Encarta" den Markt für digitale Enzyklopädien bereits. Britannica war von dem Ansehen seiner Enzyklopädie so überzeugt gewesen, dass es den neuartigen Konkurrenten nicht ernst genommen hatte. Von 1990 bis 1996 sanken die Einkünfte aus der "Encyclopaedia Britannica" von 650 Millionen auf nur noch 325 Millionen Dollar jährlich. Der Eigentümer verkaufte sie im letzteren Jahr für 135 Millionen an einen Schweizer Investor. Internet-Enzyklopädien. Schon 1983 erschien mit der "Academic American Encyclopedia" die erste Enzyklopädie, die sich online präsentierte und ihren Inhalt über kommerzielle Datennetze wie CompuServe anbot. Als das Internet einen eigentlichen Massenmarkt erschloss, waren die ersten Online-Enzyklopädien 1995 die "Academic American Encyclopedia" sowie die "Encyclopaedia Britannica". Jene Enzyklopädien waren nur gegen Bezahlung aufrufbar. Normalerweise zahlte der Kunde ein Jahresabonnement für den Zugang. Daneben kam es zu Vorschlägen für Online-Enzyklopädien auf der Grundlage Freien Wissens: Die Inhalte sollten unter gewissen Bedingungen wie der Herkunftsnennung frei und kostenlos bearbeitbar und weiterverbreitbar sein. Dieser Gedanke tauchte zwar noch nicht ausdrücklich in Rick Gates’ Aufruf zu einer "Internet Encyclopedia" von 1993 auf, wohl aber in Richard Stallmans Ankündigung (1999) einer "Free Universal Encyclopaedia" im Rahmen des GNU-Software-Projektes. Als der Internet-Unternehmer Jimmy Wales und sein Angestellter Larry Sanger im Jahre 2000 die "Nupedia" online stellten, war das Echo gering. Nennenswerten Andrang erhielt eine „freie“ Internet-Enzyklopädie erst, als Wales und Sanger das Wiki-Prinzip einführten. Bei einer solchen Website kann der Leser selbst unmittelbar Veränderungen anbringen. Der 15. Januar 2001 gilt als der Geburtstag der "Wikipedia", die seitdem zur mit Abstand größten Enzyklopädie angewachsen ist. Sie wird fast ausschließlich von Freiwilligen geschrieben, die Kosten werden durch Spenden an die Betreiber-Stiftung gedeckt, die gemeinnützige Wikimedia Foundation. Anfänglichen Zweifeln an der Zuverlässigkeit der "Wikipedia" wurde von mehreren Studien begegnet, dass die Fehlerrate vergleichbar mit der in traditionellen Enzyklopädien sei. Kritischer sind Vergleiche mit Fachenzyklopädien und Fachliteratur. Qualität hat aber nicht nur mit sachlicher Korrektheit zu tun, wie der Historiker Roy Rosenzweig 2006 anführte, sondern auch mit gutem Stil und Prägnanz. Hier lasse die "Wikipedia" noch oft zu wünschen übrig. Außer der "Wikipedia" existieren weitere Online-Enzyklopädien, teils auf anderen Grundlagen beruhend. So verlangt "Citizendium" (seit 2006) beispielsweise die namentliche Registrierung der Autoren, die ausgewiesene Fachleute für ihr Thema sein sollen. "Google Knol" (2008–2011) überschreitet die Grenzen einer Enzyklopädie und gibt den Autoren größte Freiheit, inhaltlich und bezüglich der Eigentümerschaft ihrer Texte. "Wissen.de" (seit 2000) hat ein breites Angebot auch von nicht unbedingt enzyklopädischen Inhalten, mit Quizfragen und viel Multimedia. Für Printenzyklopädien und kostenpflichtige elektronische Enzyklopädien verschwand schließlich der Markt. 2009 gab die "Microsoft Encarta" auf, die "Britannica Online" bemüht sich, mit Anzeigen zu überleben. Dabei hat sie sich teilweise der "Wikipedia" angepasst, denn sie ist kostenlos zugänglich und ruft die Leser zu Verbesserungen auf, die allerdings von Angestellten kontrolliert werden. Der "Brockhaus" wurde 2009 von der Bertelsmann-Tochter Wissen Media übernommen; das Bundeskartellamt hatte trotz der marktbeherrschenden Position von Bertelsmann die Übernahme genehmigt, da der Lexikonmarkt zu einem Bagatellmarkt geschrumpft sei. Das Internet liefert zwar eine Vielzahl von Informationen, stellten zwei Autoren 1998 fest. Der anfängliche Enthusiasmus sei allerdings einer Ernüchterung gewichen, denn der Zugang zu immer mehr Informationseinheiten erhöhe nicht den Gebrauchswert. Suchanfragen lieferten viele und zufällige Treffer, so dass die Informationsmenge nur durch Kontexte und konsistente Vernetzungen bewältigt werden könne. Das erfordere aber eine oft unterschätzte Leistung menschlicher Intelligenz. Fachenzyklopädien. Das Wort "allgemein" bei "allgemeines Nachschlagewerk" bezieht sich sowohl auf das allgemeine Publikum als auch auf die Allgemeinheit (Universalität) des Inhalts. Fachenzyklopädien (auch Spezialenzyklopädien genannt) beschränken sich auf ein bestimmtes Fach wie die Psychologie oder ein Themengebiet wie die Dinosaurier. Oft, wenn auch nicht notwendig, sprechen sie eher ein Fachpublikum an als ein allgemeines Publikum, denn vor allem Fachleute interessieren sich für das Fach in besonderem Maße. Zur Abgrenzung von der Fachenzyklopädie nennt man die allgemeine Enzyklopädie zuweilen auch Universalenzyklopädie. Definiert man eine Enzyklopädie allerdings als ein fächerübergreifendes Nachschlagewerk, dann ist "Universalenzyklopädie" ein Pleonasmus und "Fachenzyklopädie" ein Widerspruch in sich. Wenngleich die meisten Fachenzyklopädien ebenso wie die allgemeinen Enzyklopädien nach dem Alphabet geordnet sind, so hat sich bei Fachenzyklopädien die thematische Anordnung noch etwas stärker gehalten. Allerdings erhalten fachlich begrenzte Nachschlagewerke in thematischer Anordnung normalerweise die Bezeichnung Handbuch. Die systematische Anordnung bietet sich an, wenn das Fach bereits selbst stark einer Systematik folgt, wie die Biologie mit der binären Nomenklatur. Als vielleicht erste Fachenzyklopädie kann die "Summa de vitiis et virtutibus" (12. Jahrhundert) angesehen werden. Darin behandelte Raoul Ardent die Theologie, Christus und die Erlösung, das praktische und asketische Leben, die vier Haupttugenden, das menschliche Verhalten. "Real-Encyclopädie der classischen Altertumswissenschaft", links Von einzelnen Ausnahmen abgesehen entstanden Fachenzyklopädien vor allem seit dem 18. Jahrhundert, und zwar auf dem Gebiet der Biografie, wie das "Allgemeine Gelehrten-Lexicon" (1750/1751). Fachenzyklopädien folgten oft dem Aufstieg des entsprechenden Faches, so kam es im späten 18. Jahrhundert zum "Dictionary of Chemistry" (1795) und auch danach zu vielen weiteren Chemiewörterbüchern. Vergleichbar war der Publikationsreichtum nur auf dem Gebiet der Musik, beginnend mit dem "Musikalischen Lexikon" (1732) des Komponisten Johann Gottfried Walther. Auf ihrem Gebiet ohnegleichen ist die "Real-Encyclopädie der classischen Altertumswissenschaft" (1837–1864, 1890–1978). Eine der bekanntesten populären Fachenzyklopädien wurde "Brehms Thierleben", begründet von dem Sachbuchautor Alfred Brehm 1864. Es erschien im Bibliographischen Institut, das auch "Meyers Konversations-Lexikon" herausbrachte. Die große Ausgabe aus den 1870er-Jahren hatte bereits 1.800 Abbildungen bei über 6.600 Seiten und zusätzlich Bildtafeln, die auch gesondert, zum Teil eingefärbt, erhältlich waren. Die dritte Auflage 1890–1893 setzte 220.000 Exemplare ab. 1911 brachten Tiermalerei und Naturphotographie ein neues Niveau der Abbildungen mit sich. Das Werk wurde, schließlich auch digital, bis ins 21. Jahrhundert weitergeführt. Seit dem Ende des 19. Jahrhunderts erschienen ferner Enzyklopädien über bestimmte Länder oder Regionen. Dabei sind die geografischen Enzyklopädien von den Nationalenzyklopädien zu unterscheiden, die sich auf ihr eigenes Land konzentrieren. Beispiele sind das "Deutsche Kolonial-Lexikon" (1920), "The Modern Encyclopaedia of Australia and New Zealand" (1964) und das "Magyar életrajzi lexikon" (1967–1969). Der letzte Band der "Großen Sowjetischen Enzyklopädie" (1. Auflage) hatte sich ausschließlich mit der Sowjetunion beschäftigt, er wurde 1950 als zweibändige "Enzyklopädie der Union der Sozialistischen Sowjetrepubliken" in der DDR veröffentlicht. Der "Fischer Weltalmanach" (seit 1959) behandelt die Länder der Welt in alphabetischer Reihenfolge, und zwar in aktuell gehaltenen Bänden pro Jahr. Das größte jemals in deutscher Sprache gedruckte Lexikon mit dem Titel "Oeconomische Encyclopädie" ist ein zwischen 1773 und 1858 großteils von Johann Georg Krünitz herausgegebenes Werk in 242 Bänden. Die Universität Trier hat dieses Werk vollständig digitalisiert und online verfügbar gemacht. Aufbau und Ordnung. Enzyklopädien hatten bis in die Frühe Neuzeit eher den Charakter von Sach- oder Lehrbüchern. Schwieriger noch scheint die Unterscheidung zwischen Enzyklopädien und Wörterbüchern zu sein. Es gibt keine scharfe Trennung nach Sachverhalten und Wörtern, denn kein Sprachwörterbuch kommt ohne Sacherklärung aus, kein Sachwörterbuch wie eine Enzyklopädie kann auf sprachliche Hinweise verzichten. Die einzelnen Beiträge zu einer Enzyklopädie sind entweder alphabetisch oder nach einem anderen System geordnet. Im letzteren Fall spricht man häufig von einer „systematischen“ Anordnung, wenngleich auch das Alphabet als System angesehen werden kann und daher der Ausdruck „nichtalphabetisch“ korrekter wäre. Die systematisch angeordneten Enzyklopädien kann man ferner danach unterscheiden, ob die Einteilung eher pragmatischer oder gar willkürlicher Art ist, oder ob ein philosophisches System dahinter steckt. Anstelle von „systematisch“ verwendet man oft auch den Ausdruck „thematisch“. Systematische Anordnung. Für den wahren Gelehrten ist allein die systematische Anordnung zufriedenstellend, schreibt Robert Collison, weil sie nahe verwandte Themen nebeneinanderlegt. Dabei wird davon ausgegangen, dass die Enzyklopädie als ganze oder zumindest in großen Stücken gelesen wird. In der Natur gibt es aber keine zwingenden Zusammenhänge. Systeme sind beliebig, weil sie durch einen menschlichen Reflexionsprozess zustande kommen. Dennoch hat eine systematische Darstellung einen didaktischen Wert, wenn sie logisch und praktikabel ist. Plinius beispielsweise hat viele verschiedene Ordnungsprinzipien verwendet. In der Erdkunde beginnt er mit der vertrauten Küstenlinie Europas und schreitet dann fort zu exotischeren Erdteilen; die Menschen behandelt er vor den Tieren, da die Menschen wichtiger seien; in der Zoologie beginnt er mit den größten Tieren; bei den Seelebewesen mit denen des Indischen Ozeans, weil diese am zahlreichsten seien. Der erste behandelte römische Baum ist die Weinrebe, da sie am nützlichsten ist. Die Künstler erscheinen in der chronologischen Reihenfolge, Edelsteine nach ihrem Preis. Eine systematische Anordnung war traditionell die übliche, bis seit dem 17./18. Jahrhundert die alphabetische sich durchsetzte. Dennoch gab es auch noch danach einzelne größere nichtalphabetische Werke, wie die unvollendet gebliebene "Kultur der Gegenwart" (1905–1926), die französische "Bordas Encyclopédie" von 1971 und die "Eerste Nederlandse Systematisch Ingerichte Encyclopaedie" (ENSIE, 1946–1960). In der ursprünglich zehnbändigen ENSIE sind einzelne namentlich gezeichnete Großbeiträge nach thematischer Ordnung aufgeführt. Für die Suche nach einem einzelnen Gegenstand muss man das Register bemühen, das wiederum eine Art Lexikon für sich ist. Nachdem die Enzyklopädien meist alphabetisch angeordnet wurden, brachten viele Autoren doch noch im Vorwort oder in der Einleitung eine Wissenssystematik an. Die "Encyclopaedia Britannica" hatte (wie schon der "Brockhaus" 1958) seit 1974 einen einführenden Band namens "Propaedia". Darin legte der Herausgeber Mortimer Adler einleitend die Vorzüge eines thematischen Systems dar. Damit könne man einen Gegenstand finden, selbst wenn man die Bezeichnung nicht kennt. Der Band schlüsselte das Wissen auf: zunächst in zehn Großthemen, innerhalb dieser in eine Vielzahl an Sektionen. Am Ende der Sektionen wurde auf entsprechende konkrete Artikel verwiesen. Später fügte die "Encyclopaedia Britannica" jedoch noch zwei Index-Bände hinzu. Bei der "Propaedia" heißt es, sie diene vor allem dazu zu zeigen, welche Themen behandelt werden, während der Index zeige, wo diese behandelt werden. 1985 ergab eine Umfrage unter amerikanischen wissenschaftlichen Bibliotheken, dass 77 Prozent die neue Anordnung der "Britannica" weniger nützlich fanden als die alte. Eine Antwort kommentierte, die "Britannica" käme mit einer vierseitigen Anleitung daher. „Alles, das so viel Erklärung benötigt, ist verdammt nochmal zu kompliziert.“ Keine Enzyklopädie an sich, aber doch enzyklopädischer Art sind Sachbuchreihen, in denen nach einem einheitlichen Konzept viele verschiedene Themen behandelt werden. International zu den bekanntesten gehört die 1941 gegründete französische Reihe "Que sais-je ?" mit über dreitausend Titeln. In Deutschland erscheint bei C. H. Beck die Reihe "C. H. Beck Wissen". Alphabetische Anordnung. Lange Zeit gab es überhaupt nur wenige Texte in alphabetischer Anordnung. Es handelte sich im Mittelalter vor allem um Glossare, also kurze Wörtersammlungen, oder Listen wie zum Beispiel von Arzneien. Glossare entstanden seit dem 7. Jahrhundert, und zwar dadurch, dass Leser sich schwierige Wörter auf Einzelblättern (nach Anfangsbuchstaben) notierten und dann daraus eine Liste machten. Die alphabetische Anordnung befolgte man meist nur nach dem ersten oder höchstens dritten Buchstaben, wobei man nicht sehr konsequent vorging. Viele Wörter hatten zudem noch keine einheitliche Schreibweise. Selbst im 13. Jahrhundert war die strenge alphabetische Reihenfolge noch selten. Als einige der wenigen frühen alphabetischen Enzyklopädien werden unter anderem genannt: "De significatu verborum" (2. Hälfte des 2. Jahrhunderts) von Marcus Verrius Flaccus; "Liber glossarum" (8. Jahrhundert) von Ansileubus; und vor allem die "Suda" (um 1000) aus dem Byzantinischen Reich. Sie haben allerdings eher den Charakter von Sprachwörterbüchern; bezeichnenderweise sind die Einträge in der "Suda" meist sehr kurz und befassen sich oft mit sprachlichen Themen, etwa mit Redewendungen. Nach den alphabetischen Werken des 17. Jahrhunderts war es dann vor allem die große französische "Encyclopédie" (1751–1772), die den Begriff „Enzyklopädie“ endgültig mit der alphabetischen Anordnung verband. Für den schnellen Zugriff ist die alphabetische Anordnung von Vorteil und von den meisten Lesern erwünscht. Eine dieser Enzyklopädien, die "Grote Oosthoek", meinte 1977 im Vorwort, es handele sich um eine Frage der Nützlichkeit, nicht des wissenschaftlichen Prinzips. Die schnelle Information aus fremden Fachgebieten erhalte man durch einen großen Reichtum an Stichwörtern, so spare man Zeit und Energie. Laut Umfrage von 1985 ist "ready reference", das schnelle Nachschlagen, der wichtigste Zweck einer Enzyklopädie, während das systematische Selbststudium wesentlich seltener genannt wurde. Selbst diejenigen Enzyklopädisten, die für die systematische Einteilung plädierten, folgten aus praktischen Gründen dem Alphabet. Dazu gehörte auch Jean-Baptiste le Rond d’Alembert von der großen französischen "Encyclopédie". Ein späterer Herausgeber und Bearbeiter dieses Werks, Charles-Joseph Panckoucke, wollte wieder eine thematische Anordnung durchsetzen. Doch er verteilte die Artikel nur auf verschiedene Sachgebiete, und innerhalb dieser Sachgebiete erschienen die Artikel in alphabetischer Reihung. Diese "Encyclopédie méthodique par ordre des matières" war also eine Sammlung von 39 Sachwörterbüchern. Für den Herausgeber war es einfacher, wenn ein größeres Werk thematisch aufgeteilt war. Thematisch abgegrenzte Bände konnten einer nach dem anderen geplant werden, während alphabetische (zumindest theoretisch) bis zum letzten Eintrag von vorneherein feststehen mussten. Man musste alle Lemmata (Stichwörter) kennen und die Querverweise vereinbaren. Artikellänge. Auch innerhalb der alphabetisch angeordneten Werke gibt es immer noch eine Reihe von unterschiedlichen Möglichkeiten. So können Artikel zu Einzelthemen lang oder kurz sein. Das ursprüngliche Konversationslexikon "Brockhaus" ist das typische Beispiel für eine Kurze-Artikel-Enzyklopädie, mit vielen, dafür kurzen, einen einzelnen Gegenstand beschreibenden Artikeln. Für den Zusammenhang sorgen Querverweise auf andere Artikel oder vereinzelte zusammenfassende Beiträge. Lange-Artikel-Enzyklopädien hingegen enthalten große, an lehrbuchartige Abhandlungen erinnernde Artikel zu relativ weiten Themen. Ein Beispiel ist der "Macropaedia" genannte Teil der "Encyclopaedia Britannica" in den 1970er- bis 1990er-Jahren. Hier ist es für den Leser nicht immer deutlich, in welchem Großartikel er den ihn interessierenden Gegenstand suchen muss. Als Nachschlagewerk gut nutzbar ist eine solche Enzyklopädie daher nur mit einem Index, ähnlich wie bei einer systematischen Anordnung. Die Idee, lange, überblickende Artikel zu verwenden, hatte erstmals möglicherweise Dennis de Coetlogon mit seiner "Universal history". Sie diente wohl der "Encyclopaedia Britannica" als Vorbild (diese hatte ursprünglich zum Teil lange Artikel, "treatises" oder "dissertations" genannt). Längere Artikel waren auch eine Gegenbewegung zum immer definitorischer und stichwortartiger werdenden Lexikon. Allerdings konnten lange Artikel nicht nur einer bewussten Abkehr von den eher kurzen "dictionnaire"-Artikeln entstammen. Manchmal waren sie Folge einer schwachen Redaktionspolitik, welche die Schreiblust der Autoren wenig einschränkte oder Texte einfach kopierte. Interne Hilfsmittel. Für die praktische Nutzung einer Enzyklopädie wurden im Laufe der Zeit verschiedene Hilfsmittel entwickelt. Gängig schon im Altertum war es, einen langen Text in Kapitel aufzuteilen. Entsprechende Inhaltsverzeichnisse sind hingegen eine relativ späte Entwicklung. Sie entstanden aus Titeln der Werke. Vor dem 12. Jahrhundert waren sie noch sehr selten und wurden erst im 13. Jahrhundert geläufig. So hat die "Naturalis historia" ein von Plinius verfasstes "summarium", eine Übersicht. In manchen Handschriften findet man das "summarium" ungeteilt am Beginn, manchmal auf die einzelnen Bücher zerteilt, wie es wohl im Zeitalter der Buchrollen am praktischsten war. Manchmal steht der Text sowohl am Anfang als auch noch einmal später vor den einzelnen Büchern. Wie Plinius selbst es gehandhabt hatte, ist heute nicht mehr festzustellen. Während Plinius in Prosa den Inhalt des Werkes beschrieb, machten später manche Druckausgaben daraus eine Tabelle, einem modernen Inhaltsverzeichnis ähnlich. Dabei gingen sie durchaus frei mit dem Text um und passten ihn an die vermuteten Bedürfnisse der Leser an. Indizes, also Register von Stichwörtern, tauchten ebenfalls im 13. Jahrhundert auf und verbreiteten sich rasch. In einer Enzyklopädie hatte zuerst Antonio Zara in seiner "Anatomia ingeniorum et scientiarum" (1614) eine Art Index verwendet; wirklich taugliche Indizes kamen erst im 19. Jahrhundert in die Enzyklopädien. Eines der ersten Werke mit Querverweisen war der "Fons memorabilium" von Domenico Bandini (ca. 1440). Spätestens im 18. Jahrhundert wurden sie gängig. Im 20. Jahrhundert gingen einige Enzyklopädien nach dem Vorbild des "Brockhaus" dazu über, den Verweis mithilfe eines Pfeilsymbols zu realisieren. Im digitalen Zeitalter verwendet man Hyperlinks. Inhaltliche Balance. Einige wichtige Enzyklopädien Europas nach ihrer Stellung zwischen eher naturwissenschaftlichen und eher geisteswissenschaftlichen Inhalten Ein häufig wiederkehrendes Thema in der Forschung ist die Balance zwischen den Fachgebieten in einer Enzyklopädie. Diese Balance oder Ausgewogenheit fehlt zum Beispiel, wenn in einem Werk die Geschichte oder Biografie viel Raum erhalten, Naturwissenschaften und Technik hingegen deutlich weniger. In einer Fachenzyklopädie wird die mangelhafte Balance kritisiert, wenn etwa in einem altertumswissenschaftlichen Werk die politische Geschichte sehr viel ausführlicher behandelt wird als die Sozialgeschichte. Zuweilen bezieht sich die Kritik auf einzelne Artikel, wobei gemessen wird, welches Lemma mehr Raum erhalten hat als ein anderes. Harvey Einbinder fand an der "Encyclopaedia Britannica" von 1963 beispielsweise den Artikel über William Benton bemerkenswert. Dieser amerikanische Politiker ist der Enzyklopädie zufolge im Senat „ein Verfechter der Freiheit für die gesamte Welt“ geworden. Der Artikel ist länger als der über den ehemaligen Vizepräsidenten Richard Nixon; wie Einbinder mutmaßt, weil Benton auch Herausgeber der "Encyclopaedia Britannica" war. Einbinder kritisierte auch, dass der Artikel „Music“ zwar Béla Bartok und Heinrich Schütz hoch lobte, diese Komponisten aber keine eigenen Artikel erhalten haben. Auch vormoderne Enzyklopädien hatten in der Regel einen universalen Anspruch. Dennoch brachten die Interessen beziehungsweise die Fähigkeiten des Autors oftmals eine Begrenzung mit sich. So umfasste die "Naturalis historia" zwar Abhandlungen zur Völkerkunde und Kunst, der Schwerpunkt jedoch lag eindeutig auf Wissensgebieten, die man heutzutage als naturwissenschaftlich einordnet. Im 18. Jahrhundert begannen Universalenzyklopädien damit, den Gegensatz zwischen mehr geisteswissenschaftlichen und mehr naturwissenschaftlichen Werken aufzuheben. Zum Teil sah man einem Werk seine Herkunft noch an, oder der Herausgeber entschied sich bewusst dafür, das Profil durch ein bestimmtes Gebiet oder eine bestimmte Herangehensweise zu schärfen: Der "Ersch-Gruber" folgte dem historischen Ansatz, wegen dessen Anschaulichkeit, der "Meyer" hingegen bevorzugte das Naturwissenschaftliche. Die Frage der Ausgewogenheit ist nicht zuletzt von Bedeutung bei Werken, für die der Leser bezahlen muss. Er dürfte unzufrieden sein, wenn eine Universalenzyklopädie seiner Meinung nach zu viel Raum solchen Themen lässt, die ihn persönlich wenig interessieren, die er aber mitbezahlt. Robert Collison verweist auf die Ironie, dass die Leser möglichst vollständige Abrisse haben wollten und „unhinterfragt für Millionen von Wörtern bezahlt haben, die sie wahrscheinlich niemals lesen“, während die Enzyklopädie-Macher ebenfalls nach Vollständigkeit gestrebt und Einträge über kleine Themen geschrieben haben, die kaum jemand liest. Die Ausgewogenheit wird aber selbst noch bei frei zugänglichen Enzyklopädien wie der "Wikipedia" diskutiert. So geht es zum Beispiel über die Frage, ob es nicht etwas über die Seriosität des Gesamtwerkes aussagt, wenn Themen der Popkultur (angeblich oder tatsächlich) überdurchschnittlich vertreten sind. Zumindest, betonte der Historiker Roy Rosenzweig, ist die Ausgewogenheit stark abhängig davon, aus welchem Erdteil und welcher sozialen Schicht die Autoren stammen. Sprachen. a>" (1970er-Jahre) wurde unter anderem ins Englische übersetzt. Im Abendland war Latein lange Zeit die Sprache der Bildung und damit der Enzyklopädien. Das hatte den Vorteil, dass die Enzyklopädien auch in anderen Ländern als dem Ursprungsland gelesen werden konnten. Allerdings waren sie dadurch für die große Bevölkerungsmehrheit unzugänglich. Etwa seit dem Beginn des 13. Jahrhunderts erreichte das Wissen auch das Volk in dessen Sprachen. Französisch ist an erster Stelle zu nennen, seit etwa 1300 an zweiter Stelle in Europa Mittelhochdeutsch. Gerade Frauen haben eher in den Volkssprachen Wissen vermittelt. Ende des 15. Jahrhunderts waren volkssprachliche Enzyklopädien kein Wagnis mehr, sondern Routine. Wichtigere Enzyklopädien wurden übersetzt, wie zum Beispiel "Imago mundi" (ca. 1122) von Honorius Augustodunensis ins Französische, Italienische und Spanische. "De natura rerum" (ca. 1228–1244) erhielt eine Übersetzung ins Flämische und Deutsche, der "Speculum maius" (Mitte 13. Jahrhundert) ins Französische, Spanische, Deutsche und Niederländische. Später, als das Latein eine weniger große Rolle spielte, wurden erfolgreiche Enzyklopädien von einer Volkssprache in die andere übersetzt. Ab 1700 war es dann undenkbar, noch eine Enzyklopädie auf Latein herauszugeben. Im 19. Jahrhundert waren etwa der "Brockhaus" und der "Larousse", vor allem in den kleineren Ausgaben, Vorbild für Enzyklopädien in anderen Sprachen oder wurden gar in diese übersetzt. Dies hatte allerdings Grenzen, da man den Inhalt an die jeweilige Sprache beziehungsweise an das jeweilige Land anpassen musste. Ein Beispiel dafür ist die "Encyclopedia Americana" (1827–1829), ein weiteres das "Enzyklopädische Wörterbuch von Brockhaus und Efron" (1890–1906), eine vom Brockhaus-Verlag mitherausgegebene Kurze-Artikel-Enzyklopädie auf Russisch. Trotz der Anpassungen wurde in beiden Fällen von Rezensenten kritisiert, dass die amerikanische beziehungsweise russische Geschichte und Kultur nicht ausreichend berücksichtigt worden sei. Einordnung in den Wissenskontext. Wissenschaftliche Forschung bezieht sich in erster Linie auf die Natur und die Handlungen des Menschen. Die Grundlage sind dann je nach Fach zum Beispiel Phänomene der Natur, Experimente, Umfragen oder historische Quellen. Darauf aufbauend verfassen Wissenschaftler Fachliteratur, oder sie reflektieren in ihren Arbeiten andere Fachliteratur. Erst nach dieser eigentlich wissenschaftlichen, nämlich forschenden Arbeit kommen Hilfsmittel an die Reihe, wie Einstiegslektüre, Atlanten oder Wörterbücher. Diese Abfolge von Quellen, Fachliteratur und Hilfsmitteln heißt im Englischen "primary", "secondary" und "tertiary sources". Enzyklopädien sind demnach Hilfsmittel, die dem Leser einen ersten Zugang zu einem Thema verschaffen sollen. Ähnliches gilt für Lehrbücher und Wörterbücher, die historisch und der literarischen Gattung nach mit Enzyklopädien auch verwandt sind. Daraus wiederum ergeben sich der Charakter von Enzyklopädien und ihr Nutzen im Wissenskontext. Dass Enzyklopädien sich eher am Ende der Wissensproduktion befinden, hat den Vorteil, dass die Aussagen in der Regel bereits etabliertes und kaum noch umstrittenes Wissen darstellen. Das beinhaltet aber ebenso den Nachteil, dass neue oder unkonventionelle Ideen ausgefiltert worden sind. Außerdem können sich von den Grundlagen über die Fachliteratur bis hin zu den Hilfsmitteln Fehler oder zu grobe Vereinfachungen eingeschlichen haben. Aus diesen Gründen ist immer wieder diskutiert worden, ob allgemeine Enzyklopädien von Schülern oder Studenten als Autorität zitiert werden dürfen. An der Universität ist die Meinung verbreitet, dass allgemeine Nachschlagewerke in wissenschaftlichen Arbeiten nicht zu zitieren sind. Einbinder zufolge fanden einige Lehrer und Professoren, dass die "Encyclopaedia Britannica" keine zuverlässige Informationsquelle sei; sie warnten ihre Schüler davor, dieses Material blind in ihre eigenen Hausarbeiten eingehen zu lassen. Hingegen meint Thomas Keiderling in seiner Geschichte des "Brockhaus", in den 1920er-Jahren hätten Wissenschaftler diese Enzyklopädie für durchaus zitierfähig gehalten. Stil. Das Wissenschaftsverständnis ist meist empirisch und positivistisch, nicht deduktiv. In alphabetischen Nachschlagewerken gibt es zwar Verweise, dennoch stehen die Artikel in keinem Kontext. Diesen Kontext muss der Leser erst herstellen. So kann ein und derselbe Text bei unterschiedlichen Lesern verschiedene Assoziationen hervorrufen. Obwohl ein gewisser Telegrammstil erkennbar ist, gibt es aus didaktischen Gründen auch die gegenteilige Tendenz. Mit erhöhter Redundanz, Anschaulichkeit und Beispielen nähern Artikel sich an Lehrbücher an. Neutralität. Normalerweise erheben Enzyklopädien den Anspruch, objektiv zu sein und nicht für eine Interessengruppe oder Partei zu sprechen. Im 19. Jahrhundert etwa hielt man es für möglich, die absolute Wahrheit zu ergründen und vermitteln, auch wenn einzelne Irrtümer möglich seien. Seltener haben Enzyklopädisten wie Denis Diderot den Zweifel zum methodischen Prinzip erheben wollen. Wahrheitsanspruch. Oder aber Enzyklopädien ergreifen ausdrücklich Partei für eine bestimmte Gruppe, wie die gebildeten Stände, die Arbeiterklasse oder die Katholiken. Dabei sollen Interessen berücksichtigt und Irrtümer berichtigt werden. Selbst dann aber wird der Allgemeingültigkeitsanspruch nicht aufgegeben. Enzyklopädien schwimmen normalerweise mit dem Strom der Zeit und richten sich nicht gegen die bestehenden grundlegenden Vorstellungen in ihrer Gesellschaft. Pierre Bayle und Denis Diderot waren Ausnahmen. Eine ausgesprochen politische Zielsetzung hatten später beispielsweise der anti-monarchische "Grand dictionnaire universel du XIXe siècle" von Larousse, das konservative "Staats- und Gesellschaftslexikon" von Hermann Wagener, das liberale "Staatslexikon" von Rotteck und Welcker (1834–1843) sowie das sozialdemokratische "Volks-Lexikon" von 1894. Solche Tendenzschriften waren allerdings eher selten. Beispiele und Vorwürfe. Wenn Historiker versuchen zu erfahren, wie die Menschen in einer bestimmten Epoche über etwas gedacht haben, ziehen sie oft die damaligen Enzyklopädien zu Rate. Eine Aussage muss allerdings nicht unbedingt tatsächlich für die Gesellschaft repräsentativ sein, vielleicht spiegelt sie nur die Meinung des Autors, der Herausgeber oder einer bestimmten Bevölkerungsschicht wider. Harvey Einbinder listet eine Vielzahl von Artikeln der "Encyclopaedia Britannica" auf, deren Neutralität oder Objektivität er bezweifelt. Moderne Künstler würden kurzerhand für wertlos erklärt, aus Prüderie würden wichtige Handlungselemente etwa im Theaterstück "Lysistrata" weggelassen werden oder sexuelle Themen hinter Fachausdrücken versteckt. Der Judenmord werde unverständlicherweise nicht mit der nationalsozialistischen Ideologie in Verbindung gebracht, der moralische Aspekt der Atombombenabwürfe auf Hiroshima und Nagasaki kaum diskutiert. Letzteres geschehe seiner Vermutung nach, um den Amerikanern ein unangenehmes Thema zu ersparen. Später im 19. Jahrhundert setzte der "Meyer" sich, nach eigenem Bekunden, für eine intellektuelle Gleichheit der Menschen ein, den Lesern ein besseres Leben ermöglichen. Revolutionärem Denken sollte jedoch kein Vorschub geleistet werden. Im Gegensatz zu dieser eher liberalen Haltung wollte "Sparners Illustriertes Konversations-Lexikon" (1870) sozialdisziplinierend auf die Unterschicht einwirken. Allgemein sehen Enzyklopädien sich oft dem Vorwurf ausgesetzt, nicht neutral zu sein. Einige Kritiker hielten die "Encyclopaedia Britannica" für prokatholisch, andere für kirchenfeindlich. Um 1970 lobten manche Rezensenten am "Brockhaus" dessen angeblich konservativen Grundton im Vergleich zum „linkslastigen“ "Meyer", andere sagten, es sei genau andersherum. Thomas Keiderling findet es überhaupt problematisch, Pauschalurteile solcher Art zu fällen. Ideologische Großsysteme. "De Katholieke Encyclopedie", 1. Auflage von 1933–1939, mit Kreuzen auf den Einbänden Die niederländische "Katholieke Encyclopedie" stellte sich 1949 bewusst nicht in die Tradition der Aufklärung, sondern des christlichen Mittelalters. Wie ihre Schwester, die Universität, sei die Enzyklopädie aus katholischem Hause. Ein Prospekt, bereits aus dem Jahre 1932, nennt Unparteilichkeit gerade in einer Enzyklopädie gefährlich. Schließlich bräuchten Themen wie „Spiritismus“, „Freudianismus“, „Freimaurerei“, „Protestantismus“ oder „Liberalismus“ eine kritische Behandlung und absolute Verwerfung. „Es ist doch eindeutig, dass Neutralität keine Position beziehen kann. Aber zahlreiche Themen können ohne feste Basis nicht beurteilt werden.“ In den sogenannten neutralen Enzyklopädien erhalte Buddha mehr Aufmerksamkeit als Jesus Christus. Die "Enciclopedia italiana" (1929–1936) entstand in der Zeit des Faschismus, und tatsächlich hatte der Diktator Benito Mussolini persönlich zum Artikel „Faschismus“ beigetragen. Im Allgemeinen jedoch war das Werk international und objektiv. In Deutschland musste sich der "Brockhaus" in den letzten Teilen seiner Großausgabe von 1928 bis 1935 politisch anpassen. Als ausgesprochen nationalsozialistisch gefärbt gilt der sogenannte „braune Meyer“ von 1936 bis 1942 (unvollendet). Noch nach dem Erscheinen musste eine sowjetische Enzyklopädie verändert werden, wenn eine Person plötzlich politisch unerwünscht wurde. Als 1953 Lawrenti Beria entmachtet wurde, schickte man den Käufern der "Großen Sowjetischen Enzyklopädie" ein Blatt unter anderem mit Informationen über die Beringsee, das man anstelle der alten Seite mit Beria einkleben sollte. Umfang. a>", links und rechts oberer Teil Traditionell waren Enzyklopädien eher von begrenztem Umfang. Moderne Buchausgaben antiker oder mittelalterlicher Enzyklopädien bleiben meist auf einen oder wenige Bände beschränkt. Die für das Altertum monumentale "Naturalis historia" hatte beispielsweise in einer Ausgabe um das Jahr 1900 fünf Bände. Nach eigener Zählung bestand das Werk aus 37 "libri" (Büchern), wobei ein „Buch“ hier vom Umfang her als ein Kapitel zu verstehen ist. Die "Etymologiae" des Isidor machen ein je nach Ausgabe mehr oder weniger dickes Buch aus. Zu vielbändigen Enzyklopädien kam es erst seit dem 18. Jahrhundert, allerdings gab es gleichzeitig immer auch Nachschlagewerke in nur einem oder wenigen Bänden. Diese haben im 19. und 20. Jahrhundert, als Enzyklopädien sich massenweise verbreiteten, wesentlich mehr Käufer gefunden als die großen Ausgaben. Thomas Keiderling verwendet für das 20. Jahrhundert eine Einteilung von kleinen Ausgaben mit ein bis vier Bänden, mittleren Ausgaben von fünf bis zwölf Bänden und großen darüber. Für einen genaueren Vergleich des Umfangs müsse man jedoch zusätzlich Buchformate, Seitenanzahlen, Schriftgröße usw. hinzuziehen. Als größte Enzyklopädie der Geschichte wird zuweilen das chinesische Werk "Yongle Dadian" (auch: "Yung-lo ta-tien") aufgeführt. Es stammt aus dem 15. Jahrhundert und umfasste 22.937 Bücher auf mehr als fünfhunderttausend Seiten. Es handelte sich jedoch mehr um eine aus älteren Texten zusammengestellte Lehrbuchsammlung. Längere Zeit das umfangreichste Nachschlagewerk war der "Zedler" mit seinen 64 Bänden. Dieses Mammutwerk war folglich für viele Käufer, die sowieso nur einer kleinen, reichen Oberschicht entstammen konnten, unerschwinglich. Selbst viele Lesegesellschaften haben sich den "Zedler" nicht angeschafft. Im 19. Jahrhundert war der "Ersch-Gruber" die größte allgemeine Enzyklopädie. Das 1818 begonnene Werk wurde aber nicht fertiggestellt, nach 167 Bänden gab der neue Herausgeber (Brockhaus) 1889 auf. Die größte vollständige gedruckte Enzyklopädie wurde dann im 20. Jahrhundert die spanischsprachige "Espasa" mit insgesamt neunzig Bänden. Die Großwerke des 18. und 19. Jahrhunderts erscheinen also umfangreicher als die des 20. Jahrhunderts mit ihren 20–30 Bänden, dabei ist aber das wesentlich dünnere Papier der späteren Werke zu berücksichtigen. Auflagenhöhen. Eine populäre Enzyklopädie wie die "Etymologiae" des Isidor brachte es im Mittelalter auf über tausend Handschriften. Das "Elucidiarium" von Honorius Augustodunensis gab es in mehr als 380 Handschriften. Jeff Loveland zufolge hat man im 18. Jahrhundert etwa zweihundert bis dreihundert Exemplare von einer Enzyklopädie verkauft; Ulrike Spree zufolge betrug die Auflage hingegen 2000–4000 Exemplare. Vom "Zedler" (1737) wurden vermutlich nur die 1500 Subskriptionsexemplare angeschafft, also diejenigen, die zahlungskräftige Kunden zuvor bestellt hatten. Von der ersten Auflage der (damals dreibändigen) "Encyclopaedia Britannica" (1768–1771) verkaufte man insgesamt dreitausend Exemplare, von der 18-bändigen dritten Auflage (1787–1797) dreizehntausend. Das 19. Jahrhundert sah wesentlich höhere Auflagen. Die "Encyclopaedia Britannica" in der 7. Auflage (1828) kam auf dreißigtausend Exemplare, "Meyers Conversations-Lexikon" hatte 1848/1849 siebzigtausend Subskribenten. Da das Erscheinen langsam war und die Bandanzahl hoch, ging dies allerdings auf unter vierzigtausend zurück. Von der 2. Auflage der "Chambers Encyclopaedia" verkaufte man 1874–1888 allein in Großbritannien über 465.000 "sets". "Brockhaus" verkaufte von seiner 13. Auflage (1882–1887) 91.000 Exemplare, von der 14. Auflage bis 1913 mehr als 300.000. Die 17. Auflage des großen "Brockhaus" von 1966 hatte eine Gesamtauflage von 240.000 Exemplaren (Komplettsets). Auf dem Gebiet der kleineren Lexika erlebte Brockhaus jedoch starke Konkurrenz. So verlief der Verkauf des einbändigen "Volks-Brockhaus" von 1955 schleppend: Er kostete 19,80 DM, während Bertelsmann sein "Volkslexikon" für 11,80 DM auf den Markt brachte und über seinen Lesering eine Million Exemplare verkaufte. In der DDR hatte das achtbändige "Meyers Neues Lexikon" (1961–1964) eine Auflage von insgesamt 150.000 Exemplaren, die zweibändige Ausgabe kam 1956–1958 in drei Auflagen auf 300.000 Exemplare. Zwar war die DDR deutlich kleiner als die Bundesrepublik, der VEB Bibliographisches Institut hatte aber keine Konkurrenz. Fehlende Konkurrenz führte auch in anderen kleinen Ländern, einschließlich westlichen, zu hohen Auflagen im Vergleich zur Bevölkerungsanzahl. Das sechsbändige "Uj Magyar Lexikon" erschien im kommunistischen Ungarn 1959–1962 in 250.000 Exemplaren. In Norwegen verkaufte sich das fünfzehnbändige "Store Norske" von 1977 bis 2011 in 250.000 Exemplaren bei einer Bevölkerung von nur vier Millionen Norwegern. Von der 21. Auflage der "Brockhaus Enzyklopädie" aus den Jahren 2005/2006 wurden nur „ein paar Tausend Exemplare“ verkauft, wie der FOCUS berichtete. Der "FAZ" zufolge habe die Gewinnschwelle bei 20.000 verkauften Exemplaren gelegen, davon sei die Hälfte erreicht worden. Diese letzte gedruckte Auflage der "Brockhaus Enzyklopädie" bestand aus dreißig in Leinen gebundenen Bänden mit Goldschnitt, die fast 25.000 Seiten beinhalteten. Sie kostete 2670 Euro. Bebilderungen. a>", um 1120. Auf der linken, nördlichen Hälfte des Erdenrundes die "pictura" mit Europa, Asien und Afrika. Da das Aussehen der südlichen Hälfte unbekannt war, erschien dort die erläuternde "scriptura". Aus den antiken Werken sind so gut wie keine Illustrationen überliefert, sondern nur der Text. Nachträglich erhielten sie Abbildungen in einigen mittelalterlichen Handschriften. Diese Illustrationen unterschieden sich meist von Handschrift zu Handschrift; dann brachte der Buchdruck die Möglichkeit, auch Abbildungen genau zu vervielfältigen. Das Mittelalter kannte bereits Bilder von Menschen, Tieren oder Pflanzen, ebenso schematische Darstellungen und Weltkarten. Sie waren allerdings selten. In der Frühen Neuzeit gab es dann eine große Bandbreite von unterschiedlichen Illustrationen. Auf Titelblättern und Frontispizen reflektierte man über die Grundlagen des in der Enzyklopädie gesammelten Wissens, indem man die sieben freien Künste allegorisch darstellte. Baumdiagramme veranschaulichten den Zusammenhang der einzelnen Fächer, Funktionsdiagramme zeigten zum Beispiel, wie ein Flaschenzug funktioniert. Widmungen präsentierten einen reichen Gönner oder Schirmherr, Kupferstiche leiteten einen neuen Band ein. Beliebt waren auch Tabellen, zum Beispiel zu Planetenbewegungen. Bilder wurden entweder im Text an die geeignete Stelle eingefügt oder auf gesonderten Bildtafeln geliefert; der Brockhaus-Verlag brachte 1844–1849 und auch noch später eigens einen "Bilder-Atlas zum Conversationslexikon" heraus und nannte ihn im Untertitel "Ikonographische Encyclopädie der Wissenschaften und Künste". Bildtafeln oder gar Bildbände wurden oftmals der Qualität wegen gesondert vom Rest gedruckt, da Bilder zuweilen einen besonderen Druck oder besonderes Papier verlangten. Mit der zunehmenden Verbesserung der Drucktechnik kamen mehr und mehr Bilder in die Enzyklopädien. Schließlich wurden im 20. Jahrhundert reich illustrierte Werke nicht mehr ausdrücklich als „illustriert“ angepriesen, so selbstverständlich war die Bebilderung geworden. Etwa seit den späten 1960er-Jahren waren die Abbildungen einiger Enzyklopädien vollständig in Farbe gehalten. Die 19. Auflage des "Brockhaus" (1986–1994) hatte 24 Bände mit insgesamt 17.000 Seiten. Darin befanden sich 35.000 Abbildungen, Karten und Tabellen. Ein dazugehöriger Weltatlas beinhaltete 243 Kartenseiten. Anhänge und Ausstattung. Seit dem 18. Jahrhundert erhielten größere Enzyklopädien, wenn schon keine neue Auflage zustande kam, Ergänzungsbände, "Supplemente". Der "Brockhaus" veröffentlichte Mitte des 19. Jahrhunderts Jahrbücher als Ergänzung oder Weiterführung des eigentlichen Lexikons. Ab 1907 gab "Larousse" die Monatsschrift "Larousse mensuel illustré" heraus. Mehr zur Kundenbindung diente die Zeitschrift "Der Brockhaus-Greif", die der Verlag von 1954 bis 1975 unterhielt. Ein Sonderband konnte dazu dienen, besondere geschichtliche Ereignisse zu behandeln, wie den 1871 oder den Ersten Weltkrieg. Anhänge in eigenen Bänden konnten auch Bildbände, Atlanten oder Wörterbücher sein, die aus der Enzyklopädie ein umso vollständigeres Kompendium machten. CD-ROMs, Internetzugänge und USB-Sticks schließlich wurden zunächst als Zugabe für die gedruckte Version angeboten. Ein Versuch, den Wert des Gesamtwerks zu erhöhen, stellten die Künstlerausgaben des "Brockhaus" dar, wie die seit 1986 von Friedensreich Hundertwasser gestaltete, auf 1800 Exemplare limitierte Ausgabe. Der Ladenpreis betrug 14.000 DM (gegenüber etwa 4000 DM für die normale Ausgabe). Die Einbände zeigten, nebeneinander auf dem Regal stehend, zusammen ein neues Bild. Lieferung. In der Regel wurden Bücher in fertigem Zustand dem Käufer überreicht, und die Zahlung erfolgte zeitnah. Bei größeren Projekten jedoch war es im 18. Jahrhundert üblich, zunächst Subskribenten zu werben und erst danach das Werk zu drucken; eventuell wurde es stückweise in Raten ausgeliefert. Hatte der Käufer alle Auslieferungen beisammen, konnte er damit zu einem Buchbinder gehen. Ein Subskribent (wörtlich: jemand, der unterschreibt) bezahlte im Voraus. So hatte der Verleger bereits ein Kapital, mit dem er erste Ausgaben bewältigen konnte. Je nach Subskriptionsmodell zahlte der Subskribent möglicherweise eine Anzahlung und dann noch pro ausgeliefertem Teil. Zusätzlich hoffte der Verleger, dass weitere Kunden das Werk kauften. Die Veröffentlichung bekannter Subskribenten vorne im Werk sollte verkaufsfördernd wirken, ähnlich wie die Widmung des Werkes an eine hochgestellte Persönlichkeit. Im Falle der ersten Ausgabe der "Encyclopaedia Britannica" kündigte im Juli 1767 ein Prospekt das Vorhaben der Öffentlichkeit an. Im Februar 1768 ließen die Verleger verlautbaren, dass das Werk in einhundert wöchentlichen Auslieferungen kommen sollte, jeweils mit 48 Seiten. Am Ende sollten es, gebunden, sechs Bände im Oktavformat werden. Auf einfachem Papier kostete eine Auslieferung sechs Pence und acht auf besserem. Bald darauf änderten die Herausgeber das Format auf Quarto, woraus sich drei Bände ergaben. Der Grund dafür war das höhere Prestige von Quarto und vielleicht auch der indirekte Einfluss eines Konkurrenzproduktes. Im Dezember 1768 kam der erste Teil heraus, und nach der Auslieferung des letzten 1771 erhielt man Vorwort und Titelseiten für jeden der drei Bände sowie eine Anleitung für den Buchbinder. Im August 1771 konnte man das gesamte "set" für zwei Pfund und zehn Schillinge kaufen (drei Pfund, sieben Schillinge bei besserem Papier). Im 19. Jahrhundert konnte man beispielsweise bei "Meyers Konversations-Lexikon" zwischen mehreren Liefermodellen wählen. Die dritte Auflage von 1874 bis 1878 bestand aus fünfzehn Bänden. Der Käufer erhielt wöchentlich eine Lieferung von 64 Seiten, die fünfzig Pfennig kostete; oder aber man bezahlte je 9,50 Mark pro Band. Den "Brockhaus" in der Jubiläumsausgabe von 1898, siebzehn Prachtbände zu je zehn Mark, zahlte man in Monatsraten von drei bis fünf Mark oder in Vierteljahresraten von neun bis fünfzehn Mark. Es gab keine Anzahlung, erst nach drei Monaten musste man die erste Rate zahlen. Subskriptionsmodelle kannte man letztlich bis ins 21. Jahrhundert. Es war aber seit dem 20. Jahrhundert gängig, dass man fertig gebundene Bände erhielt. "Nelson’s perpetual loose-leaf encyclopaedia" von 1920 war eine Loseblattsammlung in zwölf Bänden. Zweimal im Jahr erhielt der Käufer einige neue Seiten geliefert, mit denen er Seiten veralteten Inhalts ersetzen konnte. Die "Encyclopédie française" (1937–1957) nahm die Idee auf, die sich aber nicht durchsetzen konnte. Urheberrecht und Plagiate. Ein Urheberrecht im modernen Sinne gab es vor dem 19. Jahrhundert nicht. Dennoch besteht seit der Antike der Begriff des Plagiats, als ungekennzeichnete Übernahme fremder Texte. Bis ins 18. Jahrhundert war es gängig, Enzyklopädien vor allem als Zusammenstellung älterer Texte zu sehen. Dabei wurden die Autoren manchmal genannt, oft aber auch nicht. In der Antike und im Mittelalter stand der Gedanke im Vordergrund, sich bei den alten Weisen zu bedienen und von deren reinem, unverfälschtem Wissen zu lernen. Mit der Renaissance wurde die Vorstellung eines originalen Autors wichtiger. Plagiate galten beispielsweise im 18. Jahrhundert teilweise als anrüchig, waren aber nicht verboten. Allenfalls anhand des Druckprivilegs konnte der Herausgeber Nachdrucke untersagen. Dabei handelte es sich um eine obrigkeitliche Erlaubnis, überhaupt ein bestimmtes Buch drucken zu dürfen. Nachdrucke konnten aber höchstens im eigenen Land unterbunden werden und wurden oftmals im Ausland gedruckt und dann zum Teil über Schmuggel verbreitet. Dennis de Coetlogon zum Beispiel gab zwar zu, kopiert zu haben, behauptete aber trotzdem, er sei der Autor seiner "Universal history". Nimmt man dies wörtlich, so hat er sie anscheinend selbst mit der Hand, ohne Helfer, geschrieben. Wenn in der ersten Ausgabe der "Encyclopaedia Britannica" eine „List of Authors“ erschien, dann war damit nicht etwa gemeint, dass jene Personen bewusst für diese Enzyklopädie geschrieben hätten. Vielmehr hatte der Redakteur William Smellie sich aus ihren Werken bedient. Im Artikel „Plagiaire“ beschrieb die große französische "Encylopédie" das Phänomen des Plagiats. Man beeilte sich anzumerken, dass Lexikografen sich wohl nicht an die üblichen Gesetze des Mein und Dein halten müssten, jedenfalls nicht jene, die ein "dictionnaire des arts et des sciences" verfassten. Schließlich gäben sie nicht vor, Originales zu schreiben. Der Text hatte größte Ähnlichkeit mit dem Artikel „Plagiary“ in Chambers’ "Cyclopaedia" eine knappe Generation zuvor, und dieser wiederum ging auf das "Dictionnaire" von Antoine Furetière (1690) zurück. "Der Büchermacher", Karikatur in "Leuchtkugeln", Münchner Zeitschrift von 1848–1850. „Schauen’s mein Bester, es ist zwar eine saure Arbeit, aber das Werk lobt den Meister.“ „Erlauben Sie mir, was machen Sie denn da?“ „Eine Realenzyklopädie für das gebildete Deutschland.“ Dieser Text selbst war einem zeitgenössischen Buch entnommen worden. Im 19. Jahrhundert war es dann nicht mehr möglich, eine Enzyklopädie mit der Schere zu verfassen, wie William Smellie noch über sich selbst gescherzt haben soll. Zumindest bei den allgemeinen Enzyklopädien gab es dies nach 1860 nicht mehr. Trotzdem war die gegenseitige Beeinflussung der konkurrierenden Verlage groß, auch, weil Fakten an sich (wie die Höhe eines Berges) nicht urheberrechtlich geschützt sind. Einzelautoren und Kleingruppen. Gilt bei antiken Werken meist eine Person als der Autor, so ist im Mittelalter der Autor nicht immer leicht greifbar. Mit dem antiken Argument der "modestia" (Bescheidenheit) bezeichnen sich die Autoren des Mittelalters oft als zu unwürdig, um ihren Namen zu nennen. Sie sahen sich als bloße Vermittler gottgewollten Wissens. Gerade Laien aber, wie König Alfons der Weise oder der Notar Brunetto Latini, neigten im Gegenteil zur Selbststilisierung. Einige Werke sind in Arbeitsgemeinschaften entstanden, wobei dann die leitende Persönlichkeit stellvertretend für die Mitarbeiter genannt wurde. Die Autoren verstanden sich als Kompilatoren (Zusammensteller), als Übersetzer, die bewährte lateinische Werke einem größeren Publikum eröffneten. Eine neue Generation um 1300 brachte dann auch eigene Gedanken ein. Dies waren ebenfalls oft Laien, oft aus Italien, wo der Klerus eine weniger große Rolle als anderswo spielte. Die Autoren waren meist Männer; Frauen waren nur innerhalb von Klöstern enzyklopädisch tätig. Redaktionen. Im 19. Jahrhundert kam es nicht nur zum modernen Begriff des Autors, sondern auch zu einer erheblichen Spezialisierung. Die erste Auflage der "Encyclopaedia Britannica" wurde noch großteils von den Herausgebern geschrieben (beziehungsweise abgeschrieben). Doch Archibald Constable, der sie 1810 gekauft hatte, setzte auf wissenschaftliche Autoritäten, die auch namentlich genannt wurden. In Deutschland war die Entwicklung beim Brockhaus vergleichbar. Für nicht gekennzeichnete Artikel war die Redaktion verantwortlich. Generell mussten die Autoren sich dem Gesamtwerk unterordnen. Vor allem nach 1830 bemühten sich die Verlage um Experten. Waren die Autoren nicht genannt (wie bei den meisten Enzyklopädien), konnte es damit zu tun haben, dass diese Werke allzu sehr aus älteren Werken abgeschrieben waren. Beliebt war der Trick, als Herausgeberin eine „Gesellschaft von Gelehrten“ anzugeben. a>, der mit 28 Jahren Redakteur der ersten Auflage der "Encyclopaedia Britannica" wurde. Ulrike Spree: „Der universalistisch gebildete Lexikonautor, der Artikel zu einer ganzen Palette von Themengebieten bearbeitete, gehörte immer mehr der Vergangenheit an.“ Das gab es allenfalls noch bei ein- oder zweibändigen Werken. Trotz einiger großer Namen waren die meisten genannten Autoren unbekannte Leute. Viele haben für mehrere Enzyklopädien geschrieben. Eine der seltenen Enzyklopädien mit Autorennennung war der "Ersch-Gruber" und im 20. Jahrhundert beispielsweise "Collier’s Encyclopedia". Thomas Keiderling zufolge seien im "Brockhaus" die Autoren anonym geblieben, weil die Artikel objektiv sein und keine Meinung einzelner wiedergeben sollten. Einige Autoren wollten nicht genannt werden, weil sie kontroverse Themen behandelten. Außerdem haben Redakteure die Beiträge überarbeitet und sind so Mitautoren geworden. Die Namensnennung hielt man nur bei namhaften Autoren für sinnvoll, es sei aber weder möglich noch wünschenswert gewesen, für jeden Artikel die herausragendsten Wissenschaftler zu engagieren. Bei einem solchen Anspruch wären redaktionelle Eingriffe wiederum bedenklich gewesen. 1879 beschrieb eine Wochenzeitschrift, wie bei Meyer das Konversations-Lexikon erstellt wurde. In der Hauptleitung in Leipzig wurden die 70.000 Artikel aus der vorherigen Ausgabe ausgeschnitten und auf Papier geklebt. Notizensammler werteten circa fünfzig Zeitungen aus und erfragten Daten von Behörden und Institutionen. In verschiedenen Universitätsstädten gab es Spezialredaktionen, und Autoren, die für ein jeweiliges Fachgebiet angeworben waren, arbeiteten die Artikel um. Weibliche Autoren gab es immer noch kaum. Eine Ausnahme machte die britische "Chambers Encyclopaedia", die aus einer Übersetzung hervorgegangen war: Übersetzungen waren oft Frauenarbeit. a>" im Büro in Leipzig, 1913 Da die Hochschulen überfüllt waren, war die enzyklopädische Mitarbeit für viele Absolventen attraktiv. Typischerweise sah ein Lexikonredakteur sich als nicht öffentlich in Erscheinung tretender Generalist. Das Mitarbeiterverzeichnis des "Meyer" im Jahre 1877 führte 32 Autoren im Fach Geschichte namentlich auf. Alle waren promoviert, 14 davon Professoren. An der Konzeption der 15. Auflage des "Großen Brockhaus" (zwanzig Bände, 1928–1935) waren 57 Personen beteiligt: 22 Redakteure, zehn Büroangestellte, fünf Mitarbeiter der Bildabteilung, 15 Sekretärinnen, drei Kontorburschen. Über tausend Autoren verfassten 200.000 Artikel mit 42.000 Abbildungen, davon waren vierhundert gelegentliche und sechshundert regelmäßige Autoren. Der Verlag standardisierte Anschreiben, informierte die Autoren mit Rundschreiben und Merkblättern zu Rechtschreibfragen, Literaturangaben, Abkürzungen und Sonderzeichen. Man erhielt ein Bogenhonorar oder Pauschalbeträge nach Umfang. Weiterhin war die Anonymität vertraglich festgeschrieben. Für das altertumswissenschaftliche Fachlexikon "Der Neue Pauly" stellte ein Erfahrungsbericht 1998 fest, dass die Anzahl der Mitarbeiter sehr hoch gewesen sei – des großen Spezialisierungsdrucks wegen: „Es gibt zahlreiche von mehreren Autoren verfaßte 'Komposit-Artikel', da sich für übergreifende Themen oder 'Dachartikel' kaum noch 'Generalisten' finden lassen. Die Einheitlichkeit der Konzeption eines Artikels – um von dem Werk im ganzen zu schweigen – ist hierdurch gefährdet.“ Neunzehn Fachredaktionen erarbeiteten gemeinsam eine Gesamtlemmaliste und koordinierten die Kommunikation mit den über siebenhundert Autoren. Die "Wikipedia" wird von Freiwilligen geschrieben und redigiert. Sie beteiligen sich aus Interesse an einem Thema oder aus Idealismus. Außerdem schließen sie sich einer Gemeinschaft an, in der sie Wertschätzung erhalten. Die "Wikipedia"-Freiwilligen sind höhergebildet und etwa zur Hälfte unter dreißig Jahren alt. Prominente Autoren. Im 19. und 20. Jahrhundert kam es dazu, dass Enzyklopädien bekannte Wissenschaftler oder andere Prominente gewonnen haben. Berühmte Autoren der "Encyclopaedia Britannica" waren unter anderem der Schriftsteller Walter Scott, der Bevölkerungswissenschaftler Robert Malthus und der Wirtschaftswissenschaftler David Ricardo. Im deutschsprachigen Raum der 1970er-Jahre beispielsweise integrierte "Meyers Konversations-Lexikon" längere Beiträge von Prominenten. Einleitend schrieb der Wissenschaftstheoretiker Jürgen Mittelstraß „Vom Nutzen der Enzyklopädie“. Der ehemalige SPD-Bundesminister Carlo Schmid verfasste den Beitrag „Demokratie – die Chance, den Staat zu vermenschlichen“, und der ehemalige FDP-Bundeswirtschaftsminister Hans Friedrichs schrieb über die „Weltwirtschaft“. Zu einem Problem wird dies, wenn die Prominenten Teil des öffentlichen Diskurses über ihr Fach sind. Es fällt ihnen möglicherweise schwer, einen neutralen, überblickenden Standpunkt zu beziehen. In einem Erweiterungsband der "Encyclopaedia Britannica" (1926) schrieb Leo Trotzki den Artikel über Lenin. Der ehemalige Kriegskommissar Trotzki war Lenins enger Mitarbeiter gewesen, und die Bezugnahme auf den bereits verstorbenen Lenin war ein wichtiges Instrument im politischen Streit zwischen Trotzki, Stalin und weiteren sowjetischen Politikern. Bezahlung. Generell wurden die Mitarbeiter von Enzyklopädien eher schlecht bezahlt. William Smellie erhielt für die Arbeit an der ersten Ausgabe der "Encyclopaedia Britannica" die Summe von zweihundert Pfund. Für vier Jahre Teilzeitarbeit war dies weder großzügig noch armselig, so Jeff Loveland, aber im Vergleich weniger, als Diderot für die größere und langwierigere Arbeit an der "Encyclopédie" bekam. Bei Chambers im 19. Jahrhundert lag das Jahresgehalt der Redakteure bei der unteren Grenze des Mittelstandes. Im 20. Jahrhundert, berichtet Einbinder von der "Encyclopaedia Britannica", hätten sich viele Gelehrte gern beteiligt, konnten es sich aber nicht leisten, für so wenig Geld (zwei Cent pro Wort) zu schreiben. Das gelte besonders für die Geisteswissenschaften. Zwar sei die Mitarbeit aus Gründen des Prestiges sehr begehrt, doch viele hätten nur einen Artikel beitragen wollen. Überhaupt bemängelte Einbinder einen vorrangig kommerziellen Charakter der "Encyclopaedia Britannica", bei der die Gutverdiener des Verlages die Haustürverkäufer waren, und nicht etwa die Autoren. Bis zum 18. Jahrhundert. Ein Text kann nur dann Leser finden, wenn Menschen des Lesens kundig sind, wenn sie Zeit zum Lesen haben und wenn sie sich den Lesestoff leisten können. Das hat den Kreis der möglichen Leser historisch stark eingeschränkt, noch davon abgesehen, ob die Menschen überhaupt Interesse am Inhalt hatten. Dennoch gab es Wege, die Barrieren zu überwinden: Texte wurden früher laut gelesen, so dass Leseunkundige mithören konnten, reiche Leute stellten ihre Bibliotheken einem größeren Kreis zur Verfügung, oder Gruppen von Menschen schafften sich gemeinsam Bücher an. Erst im 19. Jahrhundert weitete sich der Kreis in Europa wesentlich aus, dank staatlich geförderter Schulen und billigeren Büchern: Um 1900 konnten neunzig Prozent der Deutschen, Franzosen, Engländer und US-Amerikaner lesen. Andere Erdteile blieben zurück, in Russland war dazu nur ein Drittel der Männer in der Lage. Plinius schrieb die "Naturalis historia" für die Volksmassen, wie Bauern und Handwerker, so behauptete er es in der an den Kaiser gerichteten Widmung. Jedenfalls sei sie für jeden, der die Zeit aufbringe, zu lesen. Seine Aussage ist so zu interpretieren, dass er an diejenigen dachte, die ein einfaches Leben in der Natur führen, entsprechend den von ihm geschätzten römischen Tugenden. Insgesamt wollte er jedoch alle Bürger des Reiches ansprechen, so wie sein Werk das Reich universal beschrieb. Auch die Verfasser von mittelalterlichen Enzyklopädien haben sich meist an einen offenen Leserkreis gerichtet, zumindest den Vorworten zufolge. Alle Leser sollten angesprochen sein, nicht gefiltert nach ihrem sozialen Status oder ihrem Bildungsgrad. In der Praxis jedoch ist beispielsweise das "Elucidarium" anscheinend fast nur von Geistlichen gelesen worden. Der "Livre de Sidrac" hingegen wurde nur von Adligen rezipiert, jedenfalls befand das Buch sich (den Besitzvermerken zufolge) nie in Klosterbibliotheken. Einen sehr kleinen Adressatenkreis hatte der "Hortus Deliciarum": Die Äbtissin Herrad von Landsberg ließ ihn im 12. Jahrhundert nur für ihre Nonnen schreiben. Erst 350 Jahre später wurde das reich illustrierte Werk außerhalb der Klostermauern bekannt. Dennis de Coetlogon hat sich für seine "Universal history" (1745) wohl eine gehobene Leserschaft vorgestellt, mit Themen wie der Falknerei, die für Adlige gedacht waren. Über Handwerker, Diener und die niederen Stände schrieb De Coetlogon wiederholt despektierlich. Dennoch waren unter den Subskribenten nicht nur Kaufleute, Beamte und Geistliche, sondern auch einige Handwerker, die ungewöhnlich wohlhabend gewesen sein müssen. Die große französische "Encyclopédie" wurde eher im städtischen als im ländlichen Frankreich gelesen, eher in alten Städten mit kirchlichen und staatlichen Bildungseinrichtungen als in den neuen Städten der sich abzeichnenden Industrialisierung. Die Leser gehörten zur Oberschicht, zu den Vertretern des kirchlichen und des adligen Standes. Sie waren Beamte, Offiziere und nur selten Unternehmer. Spätere, billigere Ausgaben wurden zum Teil auch Besitz von Anwälten und Verwaltern in der Mittelschicht. Paradoxerweise erreichte dieses Werk des Fortschritts vor allem die Stände, die unter der Revolution von 1789 zu leiden hatten. Außer in Frankreich verkaufte sich die "Encyclopédie" (besonders in den späteren Auflagen) auch in den angrenzenden französischsprachigen Gebieten, Italien, den Niederlanden und Westdeutschland, weniger in London oder Kopenhagen, wenngleich einige "sets" sogar nach Afrika und Amerika kamen. Seit dem 19. Jahrhundert. Großenzyklopädien wie die von Brockhaus und Meyer im 19. Jahrhundert richteten sich an das Bildungs- und Besitzbürgertum; diese Schichten waren nicht zuletzt wegen der Kreditwürdigkeit bevorzugte Zielgruppen für die Haustürverkäufer. Beim 17-bändigen "Meyers Konversations-Lexikon" von 1893 bis 1897 waren von je hundert Käufern: 20 Verkehrsbeamte, 17 Kaufleute, 15 Militärs, 13 Lehrer, neun Baubeamte/Techniker, sechs Verwaltungsbeamte, fünf Gutsbesitzer, drei Justizbeamte, drei Künstler, drei Privatiers, zwei Wirte, 1,5 Ärzte, ebenfalls 1,5 Studenten und ein Rechtsanwalt. Noch 1913 meinte Albert Brockhaus, von hundert Millionen Deutschsprachigen in Europa müsse man bereits fünfzig Millionen Frauen und fünfundzwanzig Millionen Kinder als mögliche Käufer abziehen. Damals setzten Brockhaus und Meyer zusammen gerade einmal dreißig- bis vierzigtausend Exemplare um. Doch schon in den Jahren nach dem Ersten Weltkrieg richtete der Brockhaus-Verlag sich zunehmend an Frauen sowie die ärmere Bevölkerung und versuchte Begriffe verständlicher einzuführen. Konfessionell separate Darstellungen bei religiösen Lemmata kamen bei Katholiken gut an. Man konzipierte in den 1920er-Jahren auch Volksausgaben. Die Auflage des "Großen Brockhaus" von 1928 bis 1935 wurde in erster Linie von Hochschullehrern gekauft, auf den nächsten Rängen folgten Apotheker, Rechtsanwälte, Studienräte, Ärzte, Volksschullehrer, Zahnärzte, Geistliche und Architekten, auf Platz zehn standen die Ingenieure. Für den "Großen Brockhaus" in den 1950er-Jahren galt, dass fast ein Drittel seiner Käufer Lehrer waren oder aus kaufmännischen Berufen stammte. Bundespräsident Theodor Heuss berichtete 1955, er habe den "Großen Brockhaus" in seinem Arbeitszimmer hinter sich, und neben sich auf dem Schreibtisch den kleinen. Besondere Zielgruppen. Eine besondere Zielgruppe konnten Frauen sein, so bei den Frauenzimmerlexika, wie das "Damen Conversations Lexikon" von 1834, die eine Tradition des 18. Jahrhunderts fortführten. Sie sollten nicht ermüdend Tatsachen aufzählen, sondern anschaulich und romantisch sein, ausführlich dort, wo die Themen die weibliche Sphäre berührten. Staat und Politik fehlten in ihnen völlig. Eigene Nachschlagewerke gab es auch für Kinder, wenngleich sie lange Zeit selten waren (rechnet man nicht eigentliche Lehrbücher hinzu). Vor dem 19. Jahrhundert war wohl die "Pera librorum juvenilium" (Sammlung von Büchern für die Jugend, 1695) von Johann Christoph Wagenseil das einzige Werk dieser Art. Dann brachte Larousse 1853 die "Petite Encyclopédie du jeune âge" heraus, aber die nächste erschien im Verlag erst 1957. Arthur Mee (1875–1943) brachte 1910/1912 eine moderne Kinderenzyklopädie auf Englisch heraus, die in Großbritannien "The Children’s Encyclopaedia" und in den USA "The Book of Knowledge" genannt wurde. Die reich bebilderten Artikel waren lebhaft geschrieben. Von großem Erfolg war auch die "World Book Encyclopedia" (seit 1917/1918). Der Erste Weltkrieg unterbrach die Planung für eine "Britannica Junior", sie erschien erst 1934. Der Britannica-Verlag kam dann noch mit mehreren Kinderenzyklopädien hervor. "Mein erster Brockhaus" war in den 1950er-Jahren ein großer Publikumserfolg trotz relativ hohem Preis. Oberflächliches Wissen. „Meyers Lexikon weiß alles“, Reklame um 1925 Als Enzyklopädien nicht mehr als Lehrbücher, sondern als Nachschlagewerke verstanden wurden, wurde befürchtet, dass die Leser faul würden. Im Vorwort zur "Deutschen Encyclopädie" (1788) beispielsweise setzte man sich mit dem Gedanken auseinander, dass manche Enzyklopädien Unterricht ohne Mühe, ohne Grundlagenwissen versprächen. Goethe ließ im Lustspiel "Die Vögel" jemanden sagen: „Hier sind die großen Lexica, die großen Krambuden der Literatur, wo jeder einzelne sein Bedürfnis pfennigweise nach dem Alphabet abholen kann.“ Gerade die Befürworter einer systematischen Anordnung meinten, bei einer alphabetischen Anordnung könnte der Leser sich mit knappem, oberflächlichem Wissen zufriedengeben. Die Antwort der Lexikonmacher lautete, ihre Leser seien schon gebildet. 1896 machte der Journalist Alfred Dove sich über die Oberflächlichkeit lustig, die die Konversationslexika in die Konversation gebracht hätten. Dabei sei es unerheblich, ob man sich dem "Brockhaus" oder dem "Meyer" anvertraue, sie seien einander gleich an Charakter und Wert. Auf die Gläubigkeit gegenüber der gedruckten Autorität ging ein Theaterstück ein, das 1905 im Rahmen des 100. Jubiläums von Brockhaus’ Konversations-Lexikon aufgeführt wurde. Ein Stadtrat liest sich Kenntnisse über die Gasanstalt an und beeindruckt damit seine Zuhörer. Danach gesteht er gegenüber dem Bürgermeister: „Kinder, was ist der große Brockhaus doch für ein herrliches Buch, sogar wenn man falsch aus ihm abschreibt, klingt’s doch noch richtig.“ Mangelnde Aktualität. Die niederländischsprachige "Winkler Prins" vor Papierkorb, Amsterdam Auch bei grundsätzlich für hochwertig angesehenen Produkten wurde die Kritik laut, dass der Inhalt veraltet sei. Mit dem wissenschaftlichen Fortschritt vor allem seit dem 17. Jahrhundert war dies an sich kaum vermeidbar. Wenn der letzte Band eines Großwerkes erschien, war der erste oft schon mehrere Jahre, wenn nicht Jahrzehnte alt. Überholte Darstellungen waren jedoch auch ein Versäumnis des Autors oder Herausgebers, der sich nicht um die neueste Fachliteratur bemüht hatte. So behauptete Dennis de Coetlogon in seiner "Universal history" von 1745 fälschlicherweise, die von ihm verwendeten astronomischen Tafeln seien aktuell. Das hatte zum Teil damit zu tun, dass er aus der "Cyclopaedia" von 1728 abschrieb. Unter „Agriculture and Botany“ meinte de Coetlogon, dass der Saft in Pflanzen zirkuliere, so wie das Blut in Tieren. Diese Ansicht war bereits im vorherigen Jahrzehnt durch Stephen Hales' Experimente widerlegt worden. Ihrer eigenen Reklame zufolge war die "Encyclopaedia Britannica" stets sehr aktuell. Harvey Einbinder listete in den 1960er-Jahren jedoch zahlreiche Artikel auf, die seit sechs Jahrzehnten oder länger nicht oder kaum verändert wurden. Beispielsweise die Artikel über Hesiod und Mirabeau seien aus den Jahren 1875–1889. In der Ausgabe von 1958 hieß es noch, dass in der polnischen Stadt Tarnopol 35.831 Menschen leben, davon vierzig Prozent Juden. Um das Alter der Artikel zu verbergen, entfernte die "Encyclopaedia Britannica" die Initialen von Autoren, die bereits verstorben waren. Das Alter war aber zum Teil an den veralteten Literaturhinweisen erkennbar, etwa, wenn 1963 der Artikel „Punic War“ (Punischer Krieg) angeblich aktuelle Forschung vermeldete, dies sich aber auf Veröffentlichungen von 1901 und 1902 bezog. Einbinder erklärte die veralteten Artikel damit, dass der Britannica-Verlag wesentlich mehr Geld für Reklame ausgab als für die Verbesserung des Inhalts. Selbst bei einer großzügigen Schätzung betrugen die Kosten für Beitragende um 1960 weniger als eine Million Dollar, der Werbe-Etat allein für die USA sah jedoch vier Millionen vor. Paul Nemenyi schrieb über die Ausgabe von 1950, dass die naturwissenschaftlichen Artikel im Durchschnitt fünfzehn bis dreißig Jahre alt seien. Als Diana Hobby von der "Houston Post" 1960 die Kritik von Einbinder wiedergab, erhielt sie in der Folge vom Britannica-Verlag einen Brief, dass sie nur wegen ihres Alters, ihres Geschlechts und ihrer Unschuld eine so bösartige Kritik ernst nehmen könne. Die Herausgeber von Enzyklopädien versuchten, die Aktualität mithilfe von Ergänzungsbänden aufrechtzuerhalten. 1753 erschienen beispielsweise zwei Ergänzungsbände (Supplements) für die 7. Auflage der "Cyclopaedia". Der "Brockhaus" kam dann für seine Auflage von 1851 bis 1855 mit einem Jahrbuch (1857–1864), das in monatlichen Stücken erschien. Als um das Jahr 2000 gedruckte Enzyklopädien seltener wurden, sind oftmals die Jahrbücher weiterhin erschienen, auch wenn das eigentliche Werk bereits sein Ende gefunden hat. Laut Umfrage von 1985 fanden Mitarbeiter von wissenschaftlichen Bibliotheken in den USA die Aktualität einer Enzyklopädie für ähnlich wichtig wie Aufbau und Zugänglichkeit, und nur noch die Zuverlässigkeit wichtiger. Als allgemeine, ungeschriebene Regel galt, dass man alle fünf Jahre eine neue Enzyklopädie anschaffen müsse. Viele Bibliotheken kauften etwa einmal im Jahr eine neue Enzyklopädie, so dass sie reihum ein relativ aktuelles "set" der wichtigsten Enzyklopädien anbieten konnten. Eine Ausnahme war die "Britannica" in der umstrittenen Anordnung der frühen siebziger Jahre; bei einem Viertel der Respondenten war ihr "set" mindestens neun Jahre alt. Die Bibliothekare klagten nicht über die Aktualität, und es gab Hinweise, dass sie für neuere Informationen andere Werke oder die Zeitung empfahlen. Zielgruppen und Statussymbol. Zwar haben Enzyklopädien normalerweise den Anspruch, allgemeinverständlich auch für Laien zu sein, können ihn aber gerade bei naturwissenschaftlichen Themen nicht immer einhalten. Spezialisten neigen dazu, in ihren Artikeln zu sehr ins Detail zu gehen, anstatt die allgemeinen Aspekte darzustellen. So berichtete Robert Collison in den 1960er-Jahren von einem Techniker, dem anhand von wohlausgewählten Beispieltexten eine Großenzyklopädie aufgeschwatzt wurde. Sie erwies sich aber als zu schwierig für sein intellektuelles Niveau, so dass er sie bald wieder mit Verlust verkaufte. Die Reklame für die "Encyclopaedia Britannica" verwendete gegenüber Eltern gern das Verkaufsargument, mit dieser Enzyklopädie könne man das Bildungsniveau der Kinder erhöhen und ihnen bessere Chancen im Vergleich zu anderen Kindern geben. Allerdings wurde die Enzyklopädie nicht für Kinder, sondern für Erwachsene geschrieben. Collisons Vermutung, dass die meisten Kinder (und Erwachsenen) ihre für viel Geld erworbene Enzyklopädie gar nicht verwenden, wurde von Untersuchungen des Britannica-Verlags bestätigt. Der durchschnittliche Käufer hat weniger als einmal pro Jahr in seine "Encyclopaedia Britannica" geschaut. Dementsprechend wurde von den Kritikern auch wiederholt die Frage gestellt, ob Großenzyklopädien nicht ein „kostspieliger Luxus“ (Anja zum Hingst) sind, mehr ein Statussymbol für kaufkräftige Schichten als ein Instrument zur persönlichen Bildung. Betrachtet man nur die echten (gebundenen) Großenzyklopädien mit mindestens zehn Bänden, nicht älter als zwanzig Jahre, so gab es diese in den 1980er-Jahren allenfalls in fünf bis acht Prozent der Haushalte. Den Verdacht des Statussymbols schürten nicht zuletzt die Luxus-, Jubiläums- und Künstlerausgaben, die noch einmal deutlich teurer waren als die normalen, die bereits hochwertig gebunden und auf gutem Papier gedruckt waren. Belege. Enzyklopadie Philosophie der Antike. Die Philosophie der Antike war eine philosophiegeschichtliche Epoche. Sie dauerte mehr als 1100 Jahre, von etwa 600 v. Chr. (als ältester Vertreter wurde Thales ca. 624 v. Chr. geboren) bis ins 6. Jahrhundert n. Chr., als die letzten Neuplatoniker wirkten. Ihre Hauptschauplätze waren das antike Griechenland und das Römische Reich. Die Philosophie der Antike war geographisch auf den Mittelmeerraum beschränkt. Andere wichtige philosophische Traditionen des Altertums waren die Chinesische Philosophie (seit 1000 v. Chr.) und die Indische Philosophie (seit 1000 v. Chr.), einflussreich waren die Kultur des Judentums, des alten Ägyptens, des Perserreichs und Mesopotamiens. In Europa folgte auf die Philosophie der Antike die Philosophie des Mittelalters. Die Philosophen der Antike lassen sich grob in verschiedene Gruppen einteilen. Diejenigen, die vor Sokrates gewirkt haben, bezeichnet man als die Vorsokratiker (etwa 600 bis 400 v. Chr.). Sie haben das damalige von Mythen und Göttern geprägte Weltbild durch ansatzweise philosophische und naturwissenschaftliche Erklärungsversuche ersetzt. Mit Sokrates beginnt die Griechische Klassik (etwa 500 bis 300 v. Chr.). Zu dieser Zeit war Athen das geistige Zentrum Griechenlands, Sokrates' Schüler Platon und dessen Schüler Aristoteles wurden zu zwei der wichtigsten und bis heute einflussreichsten Philosophen. Zur Klassik kann man auch die Sophisten, die Kyniker, die Epikureer, die Kyrenaiker und die Stoiker rechnen. Auf die Klassik folgte die Philosophie der hellenistischen Zeit, auf diese die Philosophie der Spätantike. Die Vorsokratiker. Mit Thales beginnt im 6. Jahrhundert v. Chr. die abendländische Philosophiegeschichte. Wie die aller anderen Vorsokratiker ist seine Lehre aber nur bruchstückhaft überliefert. Man geht davon aus, dass seit Thales langsam damit begonnen wurde, das von Mythen und Göttern geprägte Weltbild durch wissenschaftlichere Erklärungen zu ersetzen. Dazu passt, dass Thales auch Mathematiker und Astronom war. Thales zählt mit Anaximander und Anaximenes zu den sogenannten Milesiern (auch: ältere ionische Naturphilosophen). Aristoteles berichtet, dass die Milesier versucht haben, einen Urgrund ("arché") aller Dinge zu finden. Für Thales soll dieser Urgrund das Wasser gewesen sein, für Anaximander war es das Unbegrenzte ("apeiron") und für Anaximenes die Luft. Pythagoras gründete im 6. Jahrhundert v. Chr. die philosophische Gemeinschaft der Pythagoreer. Ihre Philosophie war nicht von der Suche nach einem Urstoff, sondern stark von der ebenfalls betriebenen Mathematik geprägt. So sahen sie in Zahlen und mathematischen Verhältnissen den Schlüssel zu einer umfassenden Weltbeschreibung und -erklärung. Die Pythagoreer betätigten sich auch politisch und stellten Theorien in den Bereichen Geometrie, Musiktheorie, Kalenderrechnung und Astronomie auf. Die von Heraklit überlieferten literarischen Bruchstücke gelten als schwer verständlich. Es handelt sich um sentenzenähnliche Sätze, die an Rätsel erinnern. So wurde er bereits in der Antike „der Dunkle“ genannt. Aus dem Feuer entsteht nach Heraklit die Welt, die in allen ihren Erscheinungsformen eine den meisten Menschen verborgene vernunftsgemäße Fügung gemäß dem Weltgesetz des Logos erkennen lässt. Alles befindet sich in einem ständigen, fließenden Prozess des Werdens, welches vordergründige Gegensätze in einer übergeordneten Einheit zusammenfasst. Aus dieser Auffassung entstand später die verkürzende Formulierung „Alles fließt“ ("pánta rheî"). Parmenides zählt wie Zenon von Elea zu den Eleaten. Er unterscheidet zwischen dem, was den Sterblichen wahr zu sein scheint und einer sicheren Wahrheit. Sicher wahr sei die Existenz des Seins und dass das Nichtsein nicht existiere. Daraus müsse geschlussfolgert werden, dass das Sein unveränderbar sei, da die einzige Form der Veränderung für das Sein die wäre, Nichtsein zu werden. Dies sei aber undenkbar und somit sei die Annahme irgendeiner Form der Veränderung des Seins bloße Meinung und purer Schein, im Gegensatz zu einer Erfassung des Seins durch die Vernunft setzt. Demokrit schließlich führte den Atomismus des Leukipp weiter, indem er behauptete, dass die gesamte Natur aus kleinsten, unteilbaren Einheiten, aus Atomen ("atomoi") zusammengesetzt sei. Die Dinge scheinen nur eine Farbe oder Geschmack zu haben, in Wirklichkeit gäbe es nur Atome im leeren Raum. Xenophanes ist für seine kritische Auseinandersetzung mit dem herkömmlichen anthropomorphen Götterbild seiner Zeit bekannt. Empedokles wurde für seine Vier-Elemente-Lehre bekannt, wonach alles aus den Elementen Feuer, Wasser, Luft und Erde bestehe. Anaxagoras gilt als derjenige, der im Zuge seiner Übersiedlung nach Athen, die Philosophie ebendahin mitbrachte. Griechische Klassik. Die fünf Jahrzehnte zwischen den Perserkriegen und dem Peloponnesischen Krieg bildeten Athens klassische Blütezeit, in der die attische Demokratie ihre Vollendung fand. In dieser gesellschaftspolitischen Umbruchphase bestand entsprechender geistiger Orientierungsbedarf, den die sophistische Aufklärung zu decken suchte. Die seit 450 v. Chr. auftretenden Sophisten richteten ihre Überlegungen weg von der Natur auf den Menschen und suchten nach Methoden, das Individuum geistig und körperlich zu stärken. So brachten sie den Jugendlichen Rhetorik und Kampfkünste bei, doch waren sie nicht so spitzfindig, wie man ihnen häufig unterstellt. Wichtige Sophisten waren: Antiphon, Gorgias, Hippias von Elis, Kritias, Prodikos, Protagoras. Von Letzterem stammt der berühmte Satz: "“Der Mensch ist das Maß aller Dinge, derer die sind, dass sie sind, und derer die nicht sind, dass sie nicht sind.“" Philosophie wurde so zur öffentlichen Angelegenheit, die auf dem Marktplatz "(agora)" und in interessierten Zirkeln betrieben wurde. Hier entfaltete sich die Freiheit des Denkens in einem friedlichen Wettstreit "(agon)" durch den Austausch der Ansichten und Argumente. Einen besonderen und bis heute fortwirkenden Eindruck hinterließ Sokrates mit seiner Lehrweise und Haltung zum Leben. Er pflegte seine Gesprächspartner in ihrem vorgeblichen Wissen zu erschüttern, indem er durch bohrendes Nachfragen gedanklich-logische Lücken freilegte, um dann in fortgesetzten Dialogen neue Erkenntnisse bei seinen Partnern zu Tage zu fördern, ein Vorgehen, das er Hebammenkunst (Mäeutik) nannte. Die Unerschrockenheit und Festigkeit seines Auftretens in dem gegen ihn als vermeintlichen Verderber der Jugend geführten Prozess und die Art, wie er das Todesurteil hin- und angenommen hat, haben ihn zum Urbild philosophischer Daseinsbewältigung werden lassen. Da Sokrates selbst nichts Schriftliches hinterlassen hat, ist sein Bild in der Philosophiegeschichte wesentlich von seinem Schüler Platon bestimmt, der die Methode und die Gehalte der sokratischen Lehre nach seinem Verständnis in Dialogform aufgezeichnet und damit überliefert hat. Dazu entwickelte er jedoch seine eigenen Lehren, sodass heute sokratische und platonische Anteile dieses philosophischen Gebäudes, wie es in den platonischen Dialogen vorliegt, schwer zu trennen sind. Berühmt ist Platons Höhlengleichnis: Ohne Kenntnis der Ideen, die die Wahrheit hinter den Dingen darstellen, sind wir wie Menschen, die in einer Höhle sitzen, nie die Sonne gesehen haben und unsere Schatten für das echte, das wahre Leben halten. Dabei nahm Platon an, dass die Ideen selbstständig in einer höheren Welt existierten. (Der Mathematiker und Philosoph Alfred North Whitehead bemerkte einmal, dass alle späteren Entwürfe der europäischen Philosophie im Grunde nur Fußnoten zu Platon seien.) Als Aristoteles seinem Lehrer Platon philosophisch nur noch teilweise zustimmen konnte, bekannte er, zu Platon empfinde er Freundschaft, zur Wahrheit aber noch mehr als zu diesem. Während Platons Philosophie im Kern auf eine unser sinnliches Wahrnehmungsvermögen der Welt transzendierende Ideenlehre zielte, suchte Aristoteles die erfahrbare Wirklichkeit von Natur und menschlicher Gesellschaft umfassend zu erforschen und wissenschaftlich zu ordnen. Im Gegensatz zu Platon sah er die Ideen als "in" den Dingen befindlich und gab der realen Welt so wieder mehr Gewicht. Hierbei hat er u. a. für Biologie und Medizin, aber auch für die politische Empirie und Theorie Enormes geleistet. In seinem enzyklopädischen Wissensdrang als Philosoph beschäftigten ihn zudem u. a. Dynamik (δύναμις), Bewegung (κίνησις), Form und Stoff. Aristoteles begründete die klassische Logik mit ihrer Syllogistik, die Wissenschaftssystematik und die Wissenschaftstheorie. Die Autorität, die Aristoteles als Forscher und Denker noch im europäischen Mittelalter besaß, war so groß, dass sein Name für den Begriff des Philosophen schlechthin stand. Eine philosophische Richtung, die sich vor allem an der bedürfnisarmen Lebensweise des Sokrates orientierte, bildeten die Kyniker. Ihr berühmtester Vertreter, Diogenes von Sinope („Diogenes in der Tonne“), soll Alexander dem Großen, als dieser ihn besuchte und nach seinen Wünschen fragte, beschieden haben: „Geh mir aus der Sonne!“ Hellenismus und römische Zeit. Im Hellenismus wurden die klassischen Denkansätze weiter fortgeführt. Eine besondere Rolle dabei spielten die hellenistischen „Musenhöfe“. So entstand in Alexandria die sehr einflussreiche Alexandrinische Schule, während die Peripatetiker die Denkansätze des Aristoteles weiter entwickelten und die platonische Akademie Platon folgte. Am Übergang vom 4. zum 3. Jahrhundert v. Chr. entstanden mit Stoa und Epikureismus zwei philosophische Schulen, die weit hinaus über Zeit und Ort ihrer Entstehung ausstrahlten und ethische Grundpositionen für ein glückendes Leben markierten. Ihr Wirkungspotential ist bis heute noch keineswegs erschöpft, wie neuere Veröffentlichungen zu Glück und Lebenskunst zeigen. Während der Epikureismus das individuelle Glück durch optimal dosierte Genüsse zu fördern trachtet und in öffentlichen Angelegenheiten Zurückhaltung empfiehlt, wendet sich die Stoa gegen die Versklavung der Seele in der Sucht nach Bedürfnisbefriedigung, unterstellt sich ganz der Vernunftkontrolle und sieht das Individuum als Teil einer menschlichen Gemeinschaft und eines kosmischen Ganzen, denen gegenüber Pflichten bestehen, die im Handeln zu berücksichtigen sind. Charakteristisch für Stoiker ist eine schicksalsbejahende Grundhaltung im Einklang mit der Ordnung des Universums. Vermittelt durch Panaitios von Rhodos und Poseidonios fanden stoische Leitlinien Eingang in das Denken führender Kreise des republikanischen und kaiserzeitlichen Rom. Im Kontakt mit der politischen Wirklichkeit des Römischen Reiches ist von der Strenge und Absolutheit des stoischen Ausgangsentwurfs dies und jenes abgeschliffen worden (etwa die völlige Missachtung des Leibes und der Emotionen). Stoisch inspirierte Römer wie Cicero in der Zeit der ausgehenden Republik und Seneca in der frühen Kaiserzeit, bezogen Elemente anderer philosophischer Schulen mit ein; das tat auch Lukrez, der sich aber auf Epikur berief. Mag es einem solchen als eigene philosophische Richtung geführten Eklektizismus an Originalität fehlen, so hat er doch Lebenstauglichkeit und Praktikabilität der philosophischen Lehren zweifellos erhöht. Im Zenit des Prinzipats wurde die Stoa zur Richtschnur und Meditationsgrundlage des römischen Kaisers Mark Aurel, des „Philosophen auf dem Kaiserthron“ in seinen "Selbstbetrachtungen". Er wurde im 2. Jahrhundert n. Chr. gleichsam zur Verkörperung der da schon 500 Jahre alten platonischen Idee vom zur Herrschaft berufenen Philosophen. Die dritte neben Stoa und Epikureismus zwar an Mitgliederzahl weit unterlegene, aber philosophiegeschichtlich höchst bedeutende philosophische Strömung des Hellenismus und der Kaiserzeit bilden die so genannten skeptischen Schulen. Zu unterscheiden sind derer drei: Der Ältere Pyrrhonismus, durch Pyrrhon von Elis begründet, lehrte eine generelle Ununterschiedenheit und Ununterscheidbarkeit aller Dinge und Meinungen (Indifferentialismus), woraus er v. a. ethische Konsequenzen zog. Mehr oder minder unabhängig davon entwickelte sich später auch in der platonischen Akademie eine erkenntniskritische Richtung: Arkesilaos, mit dem die sog. Mittlere Akademie begann, lehrte nach Sokrates' Vorbild einen strikten Agnostizismus. Dieser wurde von Karneades, dem Begründer der sog. Neuen Akademie, zu einer Art Wahrscheinlichkeitslehre gemildert, welche über seinen Nachfolger Philon von Larisa insbesondere Cicero beeinflusste und noch den jungen Augustinus von Hippo beeindrucken sollte. Schließlich begründete Ainesidemos, wohl ein ehemaliger Anhänger der Akademie, den seit langem erloschenen Pyrrhonismus neu: der Neupyrrhonismus, der v. a. in den Schriften des Sextus Empiricus beschrieben wird, verband die systematische Erkenntniskritik der Neuen Akademie mit der ethischen Motivation des Älteren Pyrrhonismus zu einer skeptischen Haltung, die durch die Enthaltung von jeglichem Erkenntnisurteil (die sog. epoché) den Kampf der Meinungen beenden wollte und gerade dadurch Seelenruhe (Ataraxie) sowie die ersehnte Glückseligkeit (Eudaimonie) zu finden hoffte. Spätantike. In der Spätantike wurde, obgleich es nach wie vor auch Vertreter von Richtungen wie etwa dem Kynismus gab, der Neuplatonismus als philosophische Richtung maßgeblich, der in einem wohl wechselseitig verschränkten Prozess anregend und befruchtend auch auf das Denken der christlichen Kirchenväter einwirkte. Der philosophische Impuls, der Roms Herrschaftseliten über Jahrhunderte ethische Orientierung geboten hatte, erlahmte, als der äußere Druck auf die Grenzen zunahm und deren Verteidigung immer mehr Menschen und Mittel band; nun stiegen immer öfter Männer in die Führungsschicht auf, die dem Militär entstammten und häufig wenig Verständnis für feingeistige Dinge aufbrachten. Dennoch versiegte er, vor allem im östlichen Teil des Reiches, nicht. Der Drang von Philosophen wie Plotin und später Proklos zur Vereinheitlichung (Suche nach dem Einen, dem Göttlichen) mündete in eine Rückwendung zu Platon und in eine Neuausrichtung der platonischen Ideenlehre. Daraus ergaben sich Verknüpfungsmöglichkeiten zwischen Neuplatonismus und christlicher Religion. Wichtige Vertreter der antiken christlichen "Apologetik" waren im 2. Jahrhundert Justinus der Märtyrer, im 3. Jahrhundert Klemens von Alexandrien († nach 215) und Origenes († 253) sowie im 5. Jahrhundert Augustinus von Hippo († 430) mit seinem Werk "Über den Gottesstaat". Das Denken des Augustinus spiegelte die spätantike Umbruchphase und legte das Fundament für die Philosophie des Mittelalters. Gestaltete sich in Platons Parmenides-Dialog die Suche nach dem Einen noch sehr rätselhaft, so glaubten die frühen christlichen Kirchenlehrer in Gott das Eine (und alles, "Hen kai pan") gefunden zu haben, das alle Rätsel löst. Im 4. Jahrhundert hatte dann etwa die Theurgie, die teils sehr kritisch betrachtet wurde, starken Zulauf. Im Oströmischen Reich wirkten noch im 5. und 6. Jahrhundert bedeutende Philosophen wie Isidor, Simplikios, der wichtige Aristoteles-Kommentare verfasste, und sein Lehrer Damaskios. Von einem völligen Niedergang der Philosophie in der Spätantike kann somit nicht die Rede sein. Die Philosophie war im Ostteil des Reiches auch Rückhalt für nichtchristliche Traditionen (was die „heidnische Renaissance“ zu Zeiten des Kaisers Julian verdeutlichte, der selber ein Anhänger des Neuplatonismus war). Aber auch mehrere Christen traten als bedeutende Philosophen hervor, wie beispielsweise im 6. Jahrhundert Johannes Philoponos in Alexandria oder im Westen der neuplatonisch geschulte Anicius Manlius Severinus Boëthius, dessen Werk "Trost der Philosophie" zu den bemerkenswerten Werken in der ausgehenden Spätantike zählt. Die faktische Schließung der platonischen Akademie in Athen durch Kaiser Justinian im Jahre 529 (oder etwas später) machte den dortigen philosophischen Studien ein Ende, die christianisierte Schule von Alexandria bestand allerdings fort und ging erst infolge der Perser- und Araberkriege unter, die Byzanz im 7. Jahrhundert zu bestehen hatte (siehe Römisch-Persische Kriege und Islamische Expansion). Bald nach der Mitte des 6. Jahrhunderts erlosch die Tradition der antiken-heidnischen Philosophie endgültig, wenngleich in Byzanz die Beschäftigung mit ihr nicht abriss. Einer der letzten bedeutenden spätantiken Neuplatoniker, der Christ Stephanos von Alexandria, wirkte dann zu Beginn des 7. Jahrhunderts in Konstantinopel. Nachleben der antiken Philosophie. Das Christentum, das das mittelalterliche Weltbild Europas bestimmte, hat in seine Lehren viele Elemente antiker Philosophie integriert. Die dogmatischen Diskussionen und Streitigkeiten, die das spätantike Christentum dann vom 4. bis 6. Jahrhundert prägten und der Religion ihre heutige Form gaben, sind ohne den Hintergrund der griechischen Philosophie nicht verständlich. Den weltanschaulichen Pluralismus, wie er in den nebeneinander bestehenden antiken Philosophieschulen und Religionen vorhanden war, hat der christliche Monotheismus allerdings von der Spätantike bis in das Zeitalter der Aufklärung hinein nicht mehr zugelassen. Dem griechischen Philosophiehistoriker Diogenes Laertios aus dem dritten nachchristlichen Jahrhundert ist es zu verdanken, dass viele antike Philosophen trotz der Zerstörung der wohl bedeutendsten antiken Bibliothek in Alexandria nicht ganz in Vergessenheit gerieten: In lateinischer Übersetzung blieb sein Werk dem Mittelalter bekannt. Für den lateinischen Westen war vor allem Boethius von kaum zu überschätzender Bedeutung, da er unter anderem die Regeln der aristotelischen Logik in eine Form brachte, die das mittelalterliche Denken entscheidend prägen sollte. Nach dem 6. Jahrhundert geriet ansonsten zumindest in Europa der größte Teil der antiken Philosophie in Vergessenheit. Die Weitervermittlung antiker Philosophie geschah in der Folgezeit hauptsächlich durch arabisch-islamische Denker wie Avicenna (980–1037) und Averroes (1126–1198) sowie durch den jüdischen Philosophen und Arzt Maimonides (1135–1204). Über solche Umwege gewann die Philosophie der Antike, insbesondere die des Aristoteles, auf die Philosophie des Mittelalters bei Scholastikern wie Albertus Magnus († 1280) und Thomas von Aquin († 1274) sowie bei Denkern der Frührenaissance allmählich wieder an Bedeutung. Ein zweiter Schub erfolgte im 15. Jahrhundert, als im Zuge der Renaissance westliche Gelehrte in den byzantinischen Osten reisten und Handschriften antiker griechischer Denker mitbrachten (so unter anderem Giovanni Aurispa) bzw., als byzantinische Gelehrte vor den Osmanen in den Westen flohen und als Vermittler antiker Bildung im Westen mitwirkten. Weblinks. ! ! ! Elisabeth. Elisabeth, im englischsprachigen Raum auch Elizabeth, ist ein weiblicher Vorname. Herkunft und Bedeutung des Namens. Der Name leitet sich von der Bibel her, und bezieht sich auf die Hl. Elisabet, Mutter Johannes des Täufers. ', [ĕlīšeḇa], bedeutet etwa "Gott schwört" oder "Gott des Schwures/Eides". Da das hebräische Wort für "Schwur/schwören" mit dem Zahlwort für "Sieben" verknüpft ist, finden sich auch Deutungen wie "Gott ist Sieben" und weitere mit dieser Zahl in Verbindung gebrachte Deutungen wie "Gott ist heilig" oder "Gott ist Vollkommenheit/Fülle" u. ä. Der Bindevokal zwischen den beiden hebräischen Wortteilen wird gelegentlich als das Possessivpronomen "mein" (über)interpretiert und dementsprechend "mein Gott" schwört und so weiter übersetzt. Popularität. Der Name Elisabeth war Ende des 19., Anfang des 20. Jahrhunderts sehr populär in Deutschland, bis in die 1920er Jahre war er unter den zehn meistvergebenen Mädchennamen des jeweiligen Jahrgangs zu finden. Seine Beliebtheit ließ dann allmählich nach und erreichte Anfang der 1980er einen Tiefpunkt. Seitdem wird der Name wieder häufiger vergeben. Namenstag. Weitere Tage siehe unten, bei Heilige Elisabeth Bekannte Namensträgerinnen. Im Tanach ist eine Eliseba die Frau des Aaron und damit Stammmutter des Priestergeschlechts. Am Anfang des Evangeliums nach Lukas ist – in gräzisierter Form – Elisabet, die Frau des Priesters Zacharias, die Mutter Johannes des Täufers. E-Netz. Das E-Netz (Funktelefonnetz-E/E1) ist ein telefonieorientiertes, digitales Mobilfunknetz in Deutschland, das auf dem GSM-Standard basiert und den DCS-1800-Frequenzbereich bei 1800 MHz nutzt. Der wesentliche Unterschied zu Netzen, die den GSM-900-Frequenzbereich nutzen, besteht in der geringeren Sendeleistung der Endgeräte und Basisstationen. Weltweit erste DCS-1800-Installation ist das One2One-Netz (heute: T-Mobile UK) in Großbritannien. Geschichte. Bundespostminister Wolfgang Bötsch (CSU) vergab 1993 die Lizenz für den Aufbau eines dritten digitalen Mobilfunknetzes, des E1-Netzes. Die Bezeichnung leitet sich aus den Namenskonventionen für die analogen Autotelefonnetze A-, B- und C-Netz sowie des ersten digitalen Netzes, dem D-Netz, ab. Als erstes E-Netz in Deutschland ging im Mai 1994 das E-Plus-Netz, welches auch als E1-Netz bezeichnet wird, an den Markt. Hauptgesellschafter waren Vebacom und Thyssen Telecom. E-Plus war damit neben Mannesmann der zweite private Betreiber eines öffentlichen Telekommunikationsdienstes. 1997 folgte als zweite E-Netzbetreiberin (E2-Netz) die Viag Interkom (heute O2). Mittlerweile hat die niederländische KPN Mobile N.V. E-Plus an die spanische Telefónica verkauft. Telefónica, als Eignerin des ehemaligen Viag-Interkom-Netzes (übernommen von der britischen O2 plc), fusioniert nun beide Netze. Neben E-Plus und O2, welche jeweils 112 Frequenzen ersteigert haben, funken auch T-Mobile und Vodafone im DCS-1800-Band. Diese haben 1999 25 (T-Mobile) und 27 (Vodafone) Mobilfunkfrequenzen in dem Band erworben, um Engpässe im P-GSM-Bereich besser ausgleichen zu können und zusätzliche Kapazitäten für das starke Kundenwachstum anbieten zu können. Technik. Bis 1998 waren deutlich mehr als die geplanten 75 Prozent der Bevölkerung in Deutschland mit E-Plus-Funkabdeckung versorgt. Die maximale Sendeleistung der E-Netz-Mobiltelefone beträgt 1 Watt und soll insgesamt zu einem geringen Batterieverbrauch und damit relativ langen Gesprächs- und Bereitschaftszeiten führen. Wegen der geringeren Sendeleistung und der höheren Freiraumdämpfung würden die E-Netze mehr Funkstationen als die GSM-900-Netze benötigen, um die gleiche Versorgung wie die D-Netze zu gewährleisten. Die E-Netze müssten daher engmaschiger „geknüpft“ werden. Dennoch haben die D-Netze (T-Mobile und Vodafone) mehr Stationen in Betrieb als die E-Netz-Betreiber E-Plus und O2. Grund hierfür ist, dass die D-Netz-Betreiber wesentlich mehr Kunden versorgen und dementsprechend mehr Stationen aus Kapazitätsgründen gebaut haben. Da die Signale mit höheren Frequenzen stärker gedämpft werden, ist die Reichweite geringer als im 900-MHz-Bereich (D-Netz). Die systembedingte maximale Reichweite, bis zu der Signallaufzeiten ausgeglichen werden können, beträgt bei GSM-Netzen allgemein ca. 35 km. In Österreich. In Österreich war E-Netz bis 1996 die Bezeichnung für das Netz der Telekom Austria nach GSM-Standard im 900-MHz-Bereich. Dieses Netz wurde im Juni 1996 in A1 umbenannt. Ernährung des Menschen. Die Ernährung des Menschen, bestehend aus Getränken und Nahrungsmitteln, dient dem Mensch zum Aufbau seines Körpers sowie der Aufrechterhaltung seiner Lebensfunktionen. Sie beeinflusst auch sein körperliches, geistiges, physiologisches und soziales Wohlbefinden. Der bewusste Umgang mit der Zufuhr von fester Nahrung und Flüssigkeit ist zudem eine Dimension der menschlichen Kultur und vieler Religionen. Der menschlichen Ernährung dienen rohe, gekochte oder anders zubereitete, frische oder konservierte Nahrungsmittel "(siehe auch Ökotrophologie)". Fehlfunktionen bei der Nahrungsaufnahme werden als Ernährungsstörungen bezeichnet. Ernährung im Verlauf der Evolution des Menschen. Der heutige Mensch ernährt sich omnivor und weist bezüglich des Verdauungstrakts mehr Ähnlichkeiten mit fleischfressenden Primatenarten auf als mit pflanzenfressenden. Die Individuen der Gattung "Australopithecus", aus der die Gattung des Menschen (die Gattung "Homo") durch Evolution hervorging, ernährten sich hingegen vor drei bis vier Millionen Jahren noch überwiegend pflanzlich. Frühe Verwandte der Vorfahren des Menschen. Aus dem Abrieb und aus anderen Merkmalen ihrer Zähne wurde geschlossen, dass die frühen Vertreter der Hominini ("Australopithecus anamensis", "Australopithecus afarensis", "Australopithecus africanus" und "Homo rudolfensis") sich von einer überwiegend pflanzlichen Kost ernährten, vergleichbar mit den heutigen Pavianen. Die möglicherweise frühesten Hinweise auf Fleischverzehr sind 3,3 Millionen Jahre alte, als Schnittspuren gedeutete Einkerbungen an Wildtierknochen. Sie stammen aus Dikika und werden "Australopithecus afarensis" zugeschrieben. Erst "Homo habilis", mit dessen rund zwei Millionen Jahre alten Fossilien Steinwerkzeuge und als gesichert geltende Schnittspuren an Knochen gefunden wurden, wird heute zugeschrieben, dass er in etwas größerem Maße als die Individuen früherer Arten der Hominini das Fleisch großer Wirbeltiere verzehrt hat. Offenbar wurden damals mit Hilfe von Steinwerkzeugen zusätzliche Nahrungsquellen – Fleisch und Knochenmark – erschlossen. Dies geht jedenfalls aus 1,95 Millionen Jahre alten Knochenfunden hervor, die in Kenia geborgen wurden und bezeugen, dass damals bereits neben Antilopenfleisch auch das Fleisch zahlreicher im Wasser lebender Tiere – darunter Schildkröten, Krokodile und Fische – verzehrt wurde. Krankhafte Veränderungen an einem 1,5 Millionen Jahre alten, den Hominini zugeschriebenen Schädelknochen eines Kleinkindes (Olduvai Hominid OH 81) wurden zudem als Folge einer Anämie interpretiert, eine Erkrankung, die mit Eisenmangel in Verbindung gebracht wird. Hier gibt es Spekulationen, diese Anämie könnte darauf hinweisen, dass zu diesem Zeitpunkt bereits eine Anpassung an einen regelmäßigen Verzehr von Fleisch stattgefunden habe. Im weiteren Verlauf der Stammesgeschichte des Menschen, insbesondere in der Spätphase des "Homo erectus", nahm das Hirnvolumen immer weiter zu. Viele Wissenschaftler gehen von einem erhöhten Bedarf an Proteinen in dieser Phase aus, die in tierischer Kost leichter zugänglich sind. "Homo erectus" erlernte zudem den Umgang mit Feuer und begann es zur Erschließung zusätzlicher Nahrungsquellen zu nutzen. Frühe Belege für Jagden. Spätestens vor 450.000 Jahren gab es Jagdaktivitäten, wie Funde von Waffenresten von "Homo heidelbergensis" in Europa eindeutig belegen. Es wird ein stetig wachsender Fleischanteil in der Ernährung vermutet. was in der Fachwelt aber nicht unwidersprochen ist. Zum einen könnten Knollen und Zwiebeln doch einen höheren Anteil an der Nahrung des späten "Homo erectus" (= "Homo heidelbergensis") gehabt haben, zum anderen könnte vor allem das Sammeln und Fangen von Kleintieren, wie Nager oder Schildkröten, zur Deckung des Nahrungsbedarfs gedient haben. Womöglich wird die Bedeutung der Jagd also überschätzt. An Funden aus der Höhle von Arago bei Tautavel in Südfrankreich wurde beispielsweise die Abnutzung der Zähne von "Homo heidelbergensis" mikroskopisch untersucht. Die Ergebnisse ließen auf eine raue Nahrung schließen, die zu mindestens 80 Prozent aus pflanzlichen Anteilen bestand – dies entspricht ungefähr einer Zusammensetzung der Nahrung, wie sie auch bei heutigen Jägern und Sammlern üblich ist. Zu beachten ist hier, dass aus dem europäischen "Homo heidelbergensis" zwar der Neandertaler hervorging, nicht aber der anatomisch moderne Mensch ("Homo sapiens"). Jedoch wird dem afrikanischen "Homo rhodesiensis", der vermutlich zum Formenkreis des sogenannten archaischen "Homo sapiens" gehört, wegen seiner stark abgenutzten Zähne ebenfalls der Verzehr von überwiegend sehr rauer pflanzlicher Nahrung zugeschrieben. Die mehr als 150.000 Jahre alten Hinterlassenschaften der afrikanischen Pinnacle-Point-Menschen verweisen auf eine intensive Nutzung von Meeresfrüchten. Der älteste Beleg für Fischfang auf dem offenen Meer stammt aus Osttimor und wurde auf ein Alter von 42.000 Jahren datiert. Der anatomisch moderne Mensch. Nach heutigem Kenntnisstand des Verlaufs der Hominisation ist der anatomisch moderne Mensch ("Homo sapiens") demnach „von Natur aus“ weder ein reiner Fleischfresser (Carnivore) noch ein reiner Pflanzenfresser (Herbivore), sondern ein Allesfresser (Omnivore). Die omnivore Lebensweise erleichterte es dem modernen Menschen, sich nahezu jedes Ökosystem der Erde als Lebensraum zu erschließen. Während sich einige kleinere Bevölkerungsgruppen wie die Evenki in Sibirien, die Inuit und die Massai auch heute noch überwiegend fleischlich ernähren, leben große Teile der südasiatischen Bevölkerung sowie bäuerliche Völker in den Anden in erster Linie oder sogar ausschließlich von pflanzlichen Nahrungsmitteln. Angaben über die Ernährungssituation heute noch lebender Jäger-und-Sammler-Völker sind widersprüchlich. Einerseits wird behauptet, dass weit über die Hälfte der Kost von Tieren stammt, andererseits wird auf Studien über die Ernährungsgewohnheiten verwiesen, die auch hier zeigen, dass das Sammeln die Grundlage der Ernährung bildet und die Jagd eher Luxus ist, also eher von Sammlern und Jägern gesprochen werden müsste. Vor rund 10.000 Jahren führte die Verbreitung des Ackerbaus zur sogenannten neolithischen Revolution. Diese kulturell äußerst bedeutsame Entwicklung ermöglichte dem Menschen die Sesshaftigkeit und führte durch die planvolle Nutzung der Natur zu einer größeren Unabhängigkeit von äußeren Bedingungen. Teilweise verschlechterte dies allerdings die Ernährungslage der Menschen durch eine drastischen Verengung des Nahrungsangebots auf wenige Feldfrüchte. Heutige Ernährungsformen. In erster Linie ist das, was der Mensch isst, wie er es zubereitet (Kochkunst) und zu sich nimmt (Esskultur), sowie das, was er "nicht" isst (Nahrungstabu), von seinem Lebensraum und seiner Kultur abhängig, und damit starken regionalen Unterschieden unterworfen. Trotz der teils extremen Unterschiede der traditionellen Regionalküchen wird der Bedarf an Nährstoffen in der Regel gedeckt. Eine einzige richtige Ernährungsform kann es folglich nicht geben. Da sich aber vor allem in den Industrieländern die Ernährungsweise von den traditionellen Formen wegentwickelt und sich durch die Zunahme sitzender Tätigkeiten und abnehmender körperlicher Betätigung der Lebensstil und damit der Energie- und Nährstoffbedarf insgesamt verändert hat, gibt es heutzutage bei vielen Menschen ein Missverhältnis zwischen Nährstoffbedarf und Nährstoffzufuhr. Deshalb wird die Frage nach der richtigen Ernährung wegen der Bedeutung für die Gesundheit in Abhängigkeit von der Lebensweise durch die Diätetik wissenschaftlich erforscht. Insbesondere die Zunahme an Zivilisationskrankheiten wird der modernen Fehlernährung zugeschrieben. Dies hat dazu geführt, dass es eine Vielzahl von Ansichten, Theorien und Lehren über die richtige Ernährung gibt. Beispiele sind die Theorien von der Vollwerternährung, die Rohkost-Lehre, die Ernährung nach den 5 Elementen aus der traditionellen chinesischen Medizin, die Ayurveda-Lehre, der Vegetarismus und der Veganismus, die Makrobiotik (Ernährungswissenschaft aus der Perspektive von Yin und Yang), die Trennkost-Lehre und die Steinzeiternährung, die in die Richtung der Low-Carb-Ernährung geht. Die Antworten auf die Frage nach einer richtigen Ernährung sind oft weltanschaulich beeinflusst. Die Deutsche Gesellschaft für Ernährung hat Regeln zur Zusammenstellung formuliert, die sie als „vollwertige Ernährung“ bezeichnet. Nährstoffe. Die Nahrung wird chemisch in ihre Grundbestandteile aufgetrennt. Als Makronährstoffe werden Substanzen zusammengefasst, die der Körper in verhältnismäßig großen Mengen benötigt und die entweder als Energielieferanten oder als Baustoffe dienen. Es gibt vier Makronährstoffgruppen: Proteine, Fette, Kohlenhydrate und Ballaststoffe. Als Mikronährstoffe werden Substanzen zusammengefasst, die der Körper in geringen Mengen benötigt und z. B. Teil von Enzymen sind. Mikronährstoffe sind Gegenstand der Lebensmittelforschung. Trotz der Wichtigkeit von Mikronährstoffen für den Körper – konzentriert sich die Züchtung und Verarbeitung von Lebensmitteln in der Landwirtschaft auf die Makronährstoffe (Kohlenhydrate, Proteine und Fette) und visuelle Aspekte. Für den Konsumenten besteht in der Praxis keine Möglichkeit, die Qualität von Lebensmitteln in dieser Hinsicht (etwa visuell oder geschmacklich) zu bewerten. Proteine. Proteine sind vor allem für den Muskel- und Zellaufbau nötig. Auch können sie im Körper zur Energiegewinnung verwertet werden, die DGE empfiehlt hier, dass mindestens 10 % des Energiebedarfs aus Proteinen und Aminosäuren gedeckt werden. Da die Anteile der verschiedenen Aminosäuren aus tierischen Quellen eher dem Bedarf des Menschen entsprechen, besitzen tierische Quellen eine höhere biologische Wertigkeit. Die Annahme, dass 10 % reichen, trifft jedoch nur unter sehr engen Voraussetzungen zu (wenig Körpergewicht, kein Sport, keine körperliche Arbeit etc.), da für die Aufrechterhaltung der Proteinstrukturen des Körpers 0,8 g/kg Körpergewicht als angemessen gelten. Soll nun mit Training auch noch Muskelmasse aufgebaut oder im Rahmen einer Diät ("Low Carb") Protein im Energiestoffwechsel eingesetzt werden, so reichen die 0,8 g/kg bei weitem nicht aus. Bis ca. 4 g/kg Körpergewicht kann die Leber am Tag verstoffwechseln. Wo dazwischen die individuell richtige Menge liegt, hängt von der körperlichen Belastung ("Training") ab. Da tierische Proteinquellen allerdings etwa in der veganen Ernährung nicht vorkommen und auch Fleisch nur in Maßen konsumiert werden sollte, gilt proteinreichen Pflanzen ein besonderes Augenmerk. Da pflanzliche Proteinquellen die Proteine nicht in derselben Zusammensetzung (essenzielles Aminosäure-Spektrum) liefern, wie dies der menschliche Körper benötigt, gilt es verschiedene Pflanzen zu kombinieren und gegebenenfalls den Nachteil der geringeren biologischen Wertigkeit durch eine etwas größere Menge und die Kombination verschiedener Quellen zu kompensieren. Kohlenhydrate. Kohlenhydrate stellen eine der drei Quellen der Energiegewinnung dar, sind jedoch im Gegensatz zu den anderen beiden, Proteinen und Fettsäuren, kein essenzieller Nahrungsbestandteil. Laut Empfehlung der Deutschen Gesellschaft für Ernährung (DGE) sollen 55 % des Energiebedarfs aus Kohlenhydraten gedeckt werden. Die DGE empfiehlt vor allem Kohlenhydrate aus ballaststoffreichen Pflanzen, da diese langsamer vom Körper aufgenommen werden (niedriger glykämischer Index). Aufgrund der geringen Energiedichte ballaststoffreicher Pflanzen sind entsprechend große Mengen zu konsumieren, wodurch diese mengenmäßig die Hauptbestandteile der Ernährung ausmachen sollten. Einfachzucker gelangen zügig ins Blut (nur wenn nicht auch entsprechend Ballaststoffe im Chymus anwesend sind) und von dort in die Zellen und bieten sich als schnell verfügbare Energiequelle an (Lebensmittel mit einem hohen glykämischen Index). Allerdings ist diese Glucose nicht lange im Blut verfügbar, da der Körper auf große Mengen Zuckers im Blut mit entsprechend großen Mengen an Insulin reagiert. Das Insulin sorgt u.a. dafür, dass die überschüssige Energie in Form von Fett in den Fettzellen eingelagert wird. Der Regelkreislauf dafür ist recht komplex und wird im Artikel Energiebilanz der Ernährung näher erläutert. Die weltweit wichtigsten Lieferanten von Kohlenhydraten zur menschlichen Ernährung stellen Ballaststoffe. Unter der Bezeichnung Ballaststoff werden chemische Verbindungen zusammengefasst, hauptsächlich Kohlenhydrate, die vom Menschen (und einigen Tieren) entweder gar nicht oder nicht vollständig metabolisiert werden können. Anders als die Bezeichnung vermuten lässt, sind Ballaststoffe ein sehr wichtiger Bestandteil der menschlichen Nahrung. Fette. Da Fette eine sehr hohe Energiedichte besitzen, werden vom Körper geringere Mengen an fetthaltigen Lebensmitteln benötigt um Energie zu gewinnen. Einige wenige Fettsäuren sind essenziell und dienen der Synthetisierung weiterer Substanzen. Essenzielle Fettsäuren sind Fettsäuren, die der Körper nicht selbst aus anderen Stoffen herstellen kann, sondern durch die Nahrung aufgenommen werden müssen, und gehören damit – neben den Essenziellen Aminosäuren und einigen Mineralien – zur Gruppe der Essenziellen Stoffe. Die Essenziellen Fettsäuren sind Linolsäure (eine Omega-6-Fettsäure) und Linolensäure (eine Omega-3-Fettsäure). Die essenziellen Fette sind am Transport von Nährstoffen und Stoffwechselprodukten beteiligt und werden damit auch für die Regeneration der Zellen benötigt. Die Omega-3-Fettsäuren werden hierbei insbesondere für den Herzkreislauf, das Immun- und das Nervensystem benötigt. Ein Mangel an Omega-3-Fettsäuren kann Krankheiten wie hohen Blutdruck, hohe LDL-Cholesterinwerte, Herzerkrankungen, Diabetes mellitus, Rheumatoide Arthritis, Osteoporosis, Depression, Bipolare Störung, Schizophrenie, Aufmerksamkeitsdefizit, Hautkrankheiten, entzündliche Darmerkrankungen, Asthma, Darmkrebs, Brustkrebs und Prostatakrebs begünstigen. Bei den Omega-3 Fetten gilt es zudem zu beachten, dass pflanzliche Quellen α-Linolensäure (ALA) enthalten, während Fisch Eicosapentaensäure (EPA) und Docosahexaensäure (DHA) liefert. Gesundheitliche Vorteile ergeben sich sowohl durch die pflanzliche als auch die tierische Variante, da der menschliche Körper enzymatisch ALA in EPA und EPA in DHA umwandeln kann. Ein gesundheitlicher Vorteil durch die Ergänzung von Omega-3 über die Einnahme von Fischölkapseln ist hingegen nicht nachgewiesen. Die Fette werden auch für Ausdauersport benötigt. Da der Körper nur eine geringe Menge an Kohlenhydraten speichern kann, können bei entsprechender sportlicher Betätigung bereits nach 30 Minuten die Kohlenhydrat-Reserven aufgebraucht sein. Für längere Betätigung greift der Körper auf Fette zu, weshalb für Ausdauersport eine höhere Mengen an Essenziellen Fettsäuren konsumiert werden muss. Gegebenenfalls kann dieses Verhältnis durch Öle, die reich an Omega-3-Fettsäuren sind, ausgeglichen werden. Bei Schonkost (Diät) sollten zudem mindestens 4,5 g des täglichen Fettbedarfs aus Linolsäure gedeckt werden und mindestens 50 g Protein mit hoher biologischer Wertigkeit zugeführt werden. Wird Sport oder körperlich anstrengende Arbeit ausgeübt, muss aufgrund des höheren Energieverbrauchs zusätzliche Energie zugeführt werden. Abhängig von der Intensität der Aktivität – und damit der Belastungszone – werden vom Körper unterschiedliche Energiequellen benötigt. Energiegehalt von Lebensmitteln. Der Energiegehalt "E" eines Lebensmittels berechnet sich aus der Masse "m" des Inhaltsstoffes multipliziert mit dessen Brennwert "H". Für Proteine und Kohlenhydrate beträgt der Brennwert etwa formula_12, während der Brennwert von Fetten etwa formula_13 beträgt. Ethanol hat einen Energiegehalt von etwa formula_14. Der Brennwert anderer Inhaltsstoffe kann in der Praxis meist vernachlässigt werden. Vor allem bei Personen mit Mangelerscheinungen (dh. auch Fettleibigkeit) empfiehlt es sich eine überschlagsmäßige Berechnung der in einer Woche konsumierten Lebensmittel durchzuführen. Verschiedene ballaststoffreiche Gemüse mit geringer Energiedichte können und sollen in nahezu beliebiger Menge ergänzt werden. Probleme bei der Ernährung. Alle Tiere, auch "Homo sapiens", sind heute auf eine Reihe von Nährstoffen angewiesen, die ihr Körper nicht selbst synthetisieren kann. Diese Nährstoffe nennt man essenziell (lebensnotwendig). Dazu zählen auch Vitamine. Vitamine (lateinisch: vita = Leben) werden in geringsten Mengen (µg/kg pro Tag) benötigt. Sie wirken meist als Cofaktoren zu Enzymen. Während Pflanzen keine Vitamine benötigen, kann der Mensch manche Stoffe nicht selbst bilden und ist daher obligatorisch auf deren Zufuhr angewiesen. Von essenziellen Aminosäuren und den essenziellen ungesättigten Fettsäuren Linol- und Linolensäure benötigte der Mensch täglich größere Mengen (mg/kg pro Tag). Fehl- und Mangelernährung. Entspricht die Menge oder die Zusammenstellung einer Ernährung nicht den Anforderungen des menschlichen Organismus, so spricht man von Fehl- oder Mangelernährung. Diese Bezeichnungen werden gelegentlich synonym verwendet; Fehlernährung ist allerdings weiter gefasst als Mangelernährung, da Fehlernährung sowohl eine Unter- als auch eine Überversorgung mit Nahrungsbestandteilen beschreibt. Mangelernährung bedeutet dagegen stets eine Unterversorgung mit bestimmten, essenziellen Nahrungsbestandteilen. Eine Fehlernährung durch Überversorgung, insbesondere mit Nahrungsenergie, wird im Allgemeinen mit der Ernährungssituation in Industrieländern in Verbindung gebracht, während eine Mangelernährung als typisch für sogenannte Entwicklungsländer gesehen wird. Trotz der allgemeinen Überversorgungen ist die mangelhafte Versorgung mit einzelnen Nahrungsbestandteilen aber auch in Industrieländern eine häufige Krankheitsursache. Hier wird sie durch eine falsche Nahrungszusammensetzung verursacht, tritt aber auch als sekundärer Effekt, zum Beispiel als Folge krankheitsbedingter Malabsorption auf. Spezielle Ernährungsformen wie Vegetarismus sind dagegen an sich keine Ursache von Mangelernährung, sie sind, im Gegenteil, oft sogar mit einem besseren Ernährungsstatus verknüpft. In den Industrieländern ist die Überernährung, als häufigster Faktor der Fehlernährung, für einen großen Teil der hohen und stetig steigenden Kosten im Gesundheitswesen verantwortlich. Übergewicht erhöht das Risiko von Herz-Kreislauferkrankungen und zwar sowohl direkt, als auch indirekt über die Begünstigung weiterer Risikofaktoren, wie zum Beispiel hohe Cholesterinwerte, Bluthochdruck oder Diabetes mellitus. Sowohl Über- als auch Unterversorgung mit Nahrungsenergie haben zudem einen negativen Einfluss auf das Immunsystem und reduzieren die Infektionsresistenz. Unter den Mangelernährungen ist die Protein-Energie-Malnutrition (PEM), mit den Krankheitsbildern Marasmus und Kwashiorkor, die häufigste Form der Fehlernährung und vor allem in industriell weniger entwickelten Ländern anzutreffen. Weitere in größerem Umfang anzutreffende Formen der Mangelernährung sind Mikronährstoffmängel, insbesondere Anämien sowie Vitamin-A- und Jodmangel. Seltener treten dagegen der Vitamin-D-Mangel mit dem Krankheitsbild der Rachitis, der Vitamin-C-Mangel (Skorbut), Thiaminmangel (Beriberi) und Niacinmangel (Pellagra) auf. Ernährungsbedingte (alimentäre) Krankheiten. Fehl- und Mangelernährung können ihrerseits Krankheiten verursachen oder begünstigen, etwa Skorbut bei Vitamin-C-Mangel, Beriberi bei Vitamin-B1-Mangel oder Diabetes mellitus bei Adipositas (starkem Übergewicht). Für diese und andere Krankheiten, vor allem für die Mangelerkrankungen, ist der Zusammenhang mit Fehl- oder Mangelernährung wissenschaftlich bewiesen. Des Weiteren gibt es eine große Zahl an Krankheiten, insbesondere die Zivilisationskrankheiten, für die diskutiert wird, ob sie durch die moderne Ernährungsweise zumindest mitverursacht werden, zum Beispiel Arteriosklerose, Bluthochdruck und Krebs. Einen wissenschaftlichen Nachweis dieser Annahme gibt es aber nur für die wenigsten Erkrankungen. Generell sind Zusammenhänge zwischen Ernährung und Krankheit, methodisch bedingt, schwierig nachzuweisen. Für die meisten Zivilisationskrankheiten gibt es höchstwahrscheinlich nicht nur eine einzige Ursache, sondern eine Kombination von Ursachen, darunter genetische Anfälligkeit, unzureichende körperliche Aktivität, Ernährung und Psyche sowie Umweltgifte. Ernährungspolitik. Im globalen Maßstab befasst sich die "Food and Agriculture Organization" (FAO) der Vereinten Nationen (UNO) mit für die Menschheit zentralen ernährungspolitischen Fragen. Besonders in den sogenannten Entwicklungsländern bekämpft die FAO mit unterschiedlichen Projekten Mangel- und Unterernährung. Dabei werden auch traditionelle Nahrungsquellen neu erschlossen, wie im Projekt "Edible Forest", das in tropischen und subtropischen Regionen für den Verzehr von Insekten zur ausreichenden Versorgung mit tierischem Eiweiß wirbt. Sowohl auf Bundesebene als auch auf der jeweiligen Landesebene spielt das Thema Ernährung politisch vielfach eine große Rolle. Während auf Bundesebene die Ernährungspolitik beim Bundesministerium für Ernährung, Landwirtschaft und Verbraucherschutz (BMELV) angesiedelt ist, ist sie in den Bundesländern regelmäßig unter dem Deckmantel Verbraucherschutz im Umweltministerium angesiedelt. Wichtigste Entwicklung in der Ernährungspolitik ist der Nationale Aktionsplan IN FORM – Deutschlands Initiative für gesunde Ernährung und mehr Bewegung. Es handelt sich dabei um eine gemeinsame Initiative von Bund, Ländern und Kommunen zur Verbesserung des Ernährungs- und Bewegungsverhaltens der gesamten deutschen Bevölkerung. Koordiniert wird dieser auf Kabinettsbeschluss von Juni 2008 beruhende Aktionsplan auf Bundesebene in Ernährungsfragen vom BMELV mit Sitz in Bonn. Proteinbiosynthese. Proteinbiosynthese ist die Neubildung von Proteinen in Zellen und damit der für alle Lebewesen zentrale Prozess der Genexpression, durch den in Größe und Form unterschiedliche Proteine nach Vorlage der aufgearbeiteten Kopie (mRNA) eines bestimmten DNA-Abschnitts (Gen) der Erbinformation gebildet werden. Die eigentliche Synthese eines Proteins aus seinen Bausteinen, den proteinogenen Aminosäuren, findet an den Ribosomen statt und wird auch als Translation bezeichnet, da hierbei die Basenfolge einer messenger-RNA (mRNA) in die Abfolge von Aminosäuren eines Peptids übersetzt wird. Dies geschieht, indem fortlaufend je einem Codon der mRNA das Anticodon einer transfer-RNA (tRNA) zugeordnet wird und deren jeweils einzeln transportierte Aminosäure an die benachbarte gebunden wird (Peptidbindung), sodass eine Kette mit charakteristischer Aminosäuresequenz entsteht. Dieses Polypeptid kann sich im umgebenden Medium zu einem Gebilde strukturierter dreidimensionaler Form auffalten, dem "nativen Protein". Häufig wird es durch Abspaltungen, Umbauten und Anbauten danach noch verändert, posttranslational modifiziert. Während bei prokaryoten Zellen die ringförmige DNA frei im Zytosol vorliegt und die ribosomale Proteinsynthese zumeist unmittelbar und prompt an der gerade eben transkribierten mRNA-Vorlage erfolgt, sind die Verhältnisse bei eukaryoten Zellen komplizierter. Für das auf mehrere Chromosomen verteilte Genom ist hier mit dem Zellkern (Nukleus) ein eigenes Kompartiment geschaffen, in dessen Karyoplasma auch die Transkription stattfindet. Die primär gezogene RNA-Kopie (hnRNA) wird zunächst stabilisiert, überarbeitet und auf den Kernexport vorbereitet, bevor sie als mRNA eine Kernpore passiert und ins Zytoplasma gelangt, das die Untereinheiten der Ribosomen enthält. Diese räumliche Aufteilung und der mehrschrittige Prozessweg erlauben somit zusätzliche Weisen, eine (hn)RNA posttranskriptional zu modifizieren und darüber die Genexpression zu regulieren beziehungsweise auch bestimmte RNA-Vorlagen von der Proteinbiosynthese auszuschließen (Gen-Stilllegung). Neben der ribosomalen Proteinsynthese gibt es bei einigen Bakterien die nichtribosomale Proteinsynthese. Transkription. Vereinfachtes Schema der Transkription (englisch) Bei diesem ersten Schritt der Proteinbiosynthese wird ein Gen aus der DNA abgelesen und in ein mRNA (Messenger-Ribonukleinsäure) -Molekül transkribiert. Bei diesem Vorgang werden die Nukleinbasen der DNA (Adenin – Thymin, Guanin – Cytosin) in die Nukleinbasen der RNA (Adenin – Uracil, Guanin – Cytosin) umgeschrieben. Anstelle des Thymins kommt Uracil und anstelle der Desoxyribose kommt Ribose in der RNA vor. Wichtig ist dieser Schritt deshalb, weil die doppelsträngige DNA - im Gegensatz zur einsträngigen RNA - den Zellkern nicht verlassen kann, was jedoch wichtig für die weiteren Schritte der Proteinbiosynthese ist. Die Transkription des Gens wird durch das Enzym RNA-Polymerase (und mehrere andere Proteine) katalysiert, das als Substrat die DNA und die Ribonukleosidtriphosphate ATP, UTP, CTP und GTP benötigt. Daraus wird komplementär zu einem DNA-Strang eine fortlaufende RNA-Kette (mRNA) unter Abspaltung jeweils zweier Phosphatreste der Triphosphate hergestellt: Ein Codogen auf der DNA wird umgeschrieben zu einem Codon auf der mRNA. In Eukaryoten existieren unterschiedliche Typen der RNA-Polymerase, da auch Gene vorhanden sind, die nicht für mRNA, sondern für rRNAs und tRNAs codieren. Bei Eukaryoten findet die Transkription im Zellkern statt, sodass die mRNA in das Cytosol gebracht werden muss, da dort mit ihr die Translation durchgeführt wird. Bei Prokaryoten hingegen findet die Transkription im Zellplasma, auch Cytoplasma genannt, statt. Translation oder Proteinbiosynthese s.s.. Unter Translation versteht man die Übersetzung der Basensequenz der mRNA in die Aminosäuresequenz des Proteins, die an den Ribosomen geschieht. In der mRNA bilden drei aufeinander folgende Basen ein Codon (auch Basentriplett), welches für eine Aminosäure codiert ("siehe genetischer Code"). Die Aminosäuren werden entsprechend der Abfolge der Codons sequentiell translatiert. Da es keine strukturelle Verwandtschaft zwischen Codon und der dazugehörigen Aminosäure gibt, wird ein Zwischenstück benötigt, das einerseits die Aminosäure bindet und andererseits das zugehörige Codon auf der mRNA erkennt. Für diesen Vorgang ist als Aminosäuren-„Transporter“ die tRNA (Transfer-Ribonukleinsäure) notwendig. Diese besitzen zwei exponierte Bindungsstellen: Das Anticodon und die Aminosäurebindungsstelle. Die Aminosäurebindungsstellen der tRNAs werden durch die Aminoacyl-tRNA-Synthetasen spezifisch mit der passenden Aminosäure beladen. Die tRNA erkennt mit dem Anticodon das komplementäre Codon auf der mRNA und bindet sich spezifisch daran. Zur Ausbildung einer Peptidbindung zwischen zwei Aminosäuren müssen sie in räumliche Nähe zueinander gebracht werden. Da ein oder mehrere Enzyme alleine dazu nicht in der Lage sind, wird die Oberfläche einer großen supramolekularen Struktur benötigt. Diese Aufgabe erfüllen die Ribosomen (es gibt eine große und eine kleine Untereinheit bei Ribosomen; die große Untereinheit gliedert sich in die A-Bindungsstelle und die P-Bindungsstelle). Co- und Posttranslationale Modifikation. Einige Proteine werden nach (posttranslational) oder während (cotranslational) der Translation durch spezielle Enzyme spezifisch modifiziert. Das können Abspaltungen von Propeptiden oder Hydroxylierungen von Aminosäuren (Prolin zu 4-Hydroxyprolin durch die Prolyl-4-Hydroxylase, Lysin zu Hydroxylysin durch die Lysylhydroxylase) oder Decarboxylierungen oder Oxidationen (z. B. kovalente Quervernetzungen mittels Lysinresten durch die Lysyloxidase) oder Glykosylierungen oder formgebende Prozesse durch Chaperone sein. Manche dieser Modifikationen verlaufen quasi am Ort der Translation, andere dürfen etwa erst im Extrazellularraum stattfinden. Das Kollagenmolekül durchläuft z.B. besonders viele posttranslationale Modifikationsschritte. Proteintargeting und Proteintransport. Da viele Proteine als Zielort (engl. "target") nicht das Zytosol, sondern den Extrazellularraum, die Zellmembran, die Organellen wie Chloroplasten, Mitochondrien, Peroxisomen, Zellkern oder endoplasmatisches Retikulum haben, hat die Zelle verschiedene Mechanismen, die Proteine dorthin zu verbringen. Diese Proteine enthalten meist eine N- oder auch C-terminale Signalsequenz, die je nach Targetmechanismus sehr unterschiedlich aufgebaut sein kann. In einigen Fällen gibt es keine terminale Signalsequenz, sondern interne Signale der Peptidkette, die über den Zielort des Proteins bestimmt. Neben den oben beschriebenen Signalsequenzen ermöglicht eine Glykosylierung ein Targeting für den Einbau in die Zellmembran bzw. für die Exozytose. Beide Wege führen meist über Golgi-Vesikel. Edsger W. Dijkstra. Edsger Wybe Dijkstra (; * 11. Mai 1930 in Rotterdam; † 6. August 2002 in Nuenen) war ein niederländischer Informatiker. Er war der Wegbereiter der strukturierten Programmierung. 1972 erhielt er den Turing Award für grundlegende Beiträge zur Entwicklung von Programmiersprachen. Leben. Edsger Dijkstra wurde als Sohn eines Chemikers und einer Mathematikerin geboren. Nach dem Besuch des Gymnasiums Erasmianum in Rotterdam studierte er ab 1948 Mathematik und theoretische Physik an der Universität Leiden. 1951 erreichte er den Bachelor-Grad und besuchte im Anschluss einen Programmierkurs bei Maurice V. Wilkes an der University of Cambridge. Er setzte sein Studium in Leiden fort, arbeitete fortan aber nebenbei am "Mathematisch Centrum" (heute Centrum Wiskunde & Informatica – Zentrum für Mathematik und Informatik) in Amsterdam. Sein Betreuer dort war Direktor Adriaan van Wijngaarden, der ihn auch überredete, gänzlich zum Programmieren zu wechseln statt ernsthafter theoretischer Physiker zu werden. 1956 erreichte er den Master-Grad und ging als Vollzeitangestellter zum Mathematisch Centrum. Dijkstra wird als erster Programmierer der Niederlande bezeichnet und schrieb 1959 an der Universität von Amsterdam seine Doktorarbeit über die vom Mathematisch Centrum entwickelte Electrologica X1, deren grundlegende Software er schrieb. 1962 wurde Dijkstra Mathematikprofessor an der Technischen Hochschule Eindhoven. An anderswo bereits angebotene Informatik-Lehrstühle wollte er nicht, da er hierfür noch keine ausreichende wissenschaftliche Grundlage sah. Dennoch bot er seinen Studenten die Möglichkeit, sich nach mindestens drei Jahren mathematischem Studium auf Themen der Informatik zu spezialisieren. Er blieb weiter der Ansicht, dass ein Studium der Informatik stark mathematisch geprägt und etwa ein Einführungskurs für Programmierung eine formalmathematische Veranstaltung frei von Programmiersprachen zu sein habe. Ab 1973 schränkte er seine Tätigkeit an der Universität auf eine außerordentliche Professorenstelle repräsentiert durch den von ihm etablierten "Eindhoven Tuesday Afternoon Club" ein, wo er dienstagnachmittags mit Kollegen wissenschaftliche Probleme und die neuesten Papers besprach, und wurde hauptamtlich "Research Fellow" der Burroughs Corporation. 1984 wechselte er auf den "Schlumberger Centennial Chair in Computer Sciences" an der University of Texas at Austin. 1999 wurde er emeritiert. Dijkstra starb an Krebs in seinem Heim in Nuenen. Er hinterließ seine Frau Ria, welche er 1957 geheiratet hatte, sowie drei Kinder. Zu seinen Doktoranden gehören Arie Habermann und Martin Rem. Wirken. Unter seinen Beiträgen zur Informatik finden sich der Dijkstra-Algorithmus zur Berechnung eines kürzesten Weges in einem Graphen (1959 in einem dreiseitigen Artikel veröffentlicht), die erstmalige Einführung von Semaphoren zur Synchronisation zwischen Threads und das damit zusammenhängende Philosophenproblem sowie der Bankieralgorithmus. Des Weiteren stammt der Shunting-yard-Algorithmus, ein Algorithmus um mathematische Terme von der Infixnotation in die umgekehrte polnische Notation oder in einen abstrakten Syntaxbaum zu überführen, von ihm. Basierend auf diesen Erfahrungen entwarf er das Multitasking-Betriebssystem THE (nach "Technische Hogeschool Eindhoven"), das für seine Schichtenstruktur bekannt wurde. Niklaus Wirth berichtet, dass Dijkstra im Rahmen dieser Arbeit erkannte, nicht für Teamarbeit geeignet zu sein, und fortan nur noch alleine arbeitete. Ende der 1950er Jahre war Dijkstra am Entwurf von Algol 60 beteiligt, 1960 stellte er den ersten Compiler dafür fertig. Ferner entwarf er den Sortieralgorithmus Smoothsort und entdeckte den Algorithmus von Prim (auch "Prim-Dijkstra-Algorithmus" oder "Algorithmus von Jarnik, Prim und Dijkstra") wieder. Dijkstra schrieb über 1300 Manuskripte fachlicher und privater Natur, die er fotokopierte und jeweils an etliche Kollegen postalisch versendete, meist aber nicht veröffentlichte. Heute sind viele dieser sogenannten EWD-Manuskripte (nach seinen Initialen) in einem Online-Archiv gesammelt. Für die Burroughs Corporation schrieb er über 500 wissenschaftliche Berichte. Seine populärste Abhandlung ist "Go To Statement Considered Harmful" über den Goto-Befehl und warum er nicht benutzt werden sollte. Er führte den Begriff der strukturierten Programmierung in die Informatik ein und popularisierte in seiner Turing-Lecture "The Humble Programmer" auch den Begriff der Softwarekrise, den er als regelmäßiger Redner an Friedrich L. Bauers "International Summer School Marktoberdorf" dort aufgenommen hatte. Eichen. Die Eichen ("Quercus") sind eine Pflanzengattung aus der Familie der Buchengewächse (Fagaceae). Der deutsche Name ist mit dem lateinischen "esca" für Speise verwandt, was darauf hinweist, dass Eichenfrüchte früher große Bedeutung für die Schweinehaltung hatten. Die Gattung umfasst etwa 400 bis 600 Arten, davon bis zu 450 in der Untergattung "Quercus" und bis zu 150 in der Untergattung "Cyclobalanopsis". Bei dem römischen Autor Quintus Ennius (239–169 v. Chr.) findet sich der früheste literarische Beleg für den lateinischen Namen des Baums, 'quercus'. Vegetative Merkmale. Eichen-Arten sind sommergrüne oder immergrüne Bäume, seltener auch Sträucher. Die wechselständigen, einfachen Laubblätter sind dünn bis ledrig, gelappt oder ungelappt. Die Blattränder sind glatt oder gezähnt bis stachelig gezähnt. Die unscheinbaren Nebenblätter fallen früh ab (nur bei "Quercus sadleriana" sind sie auffälliger). Generative Merkmale. Eichen-Arten sind einhäusig getrenntgeschlechtig (monözisch). Die meist zu mehreren an der Basis junger Zweige sitzenden Blütenstände sind eingeschlechtig. Die Blüten sind sehr einfach gebaut, wie es bei windbestäubten (anemophilen) Taxa häufig der Fall ist. Die männlichen Blüten sind in hängenden Blütenständen (Kätzchen) zusammengefasst. Die Blütenhüllblätter sind verwachsen. Die männlichen Blüten enthalten meist sechs (zwei bis zwölf) Staubblätter. Die weiblichen Blüten enthalten meist drei (bis sechs) Fruchtblätter und Stempel. Jede Cupula enthält nur eine weibliche Blüte. Eichen sind insbesondere an ihrer Frucht, der Eichel, zu erkennen und in den einzelnen Arten zu unterscheiden. Die Eichel ist eine Nussfrucht. Sie reifen im ersten oder zweiten Jahr nach der Bestäubung. Jede Nussfrucht ist von einem Fruchtbecher eingeschlossen, der "Cupula" genannt wird. Die Chromosomengrundzahl beträgt x = 12. Ökologie. Schon von alters her ist den Menschen aufgefallen, dass Eichen eine ungewöhnliche Vielfalt von Insekten beherbergen (bis zu 1000 Arten in einer Krone). Die Spezialisierung zahlreicher Insekten auf diese Bäume gilt als ein Zeichen des hohen entwicklungsgeschichtlichen Alters (Koevolution). Die Eiche ist Nahrungshabitat der Raupen von vielen Schmetterlingsarten. Sie wird in Mitteleuropa nur von der Salweide übertroffen. Beide beherbergen über 100 Arten. Verbreitung. Arten gibt es in Nordamerika, Mexiko, auf den Karibischen Inseln, in Zentralamerika, in Südamerika nur in Kolumbien, in Eurasien und in Nordafrika. "Quercus" ist die wichtigste Laubbaumgattung der Nordhalbkugel. Ein Schwerpunkt der Artenvielfalt ist Nordamerika. In Deutschland nehmen die Eichen nach der Dritten Bundeswaldinventur (2012) mit einer Fläche von 1,1 Millionen Hektar einen Anteil von 11,6 Prozent an der Waldfläche ein. Die deutsche Eichenfläche hat sich zwischen 2002 und 2012 um 70.000 Hektar vergrößert. Die Eichen sind damit nach den Buchen die zweithäufigste Laubbaumgattung in den deutschen Wäldern. Es handelt sich dabei hauptsächlich um die einheimischen Eichenarten Stieleiche und Traubeneiche. Die aus Nordamerika eingeführte Roteiche nimmt nur einen Flächenanteil von 0,5 Prozent ein. Noch höhere Anteile an den Beständen in einigen Wäldern nahe der Küste, etwa im Lübecker Stadtwald, sind noch immer auf die Bedeutung der Eiche für den Schiffbau im Mittelalter zurückzuführen. In Deutschland kommt die Eiche vor allem in Mischwäldern vor. Größere Eichenreinbestände sind selten. Eichen traten bereits im Tertiär auf. Sie finden sich fossil schon vor zwölf Millionen Jahren, etwa in Sedimenten der Niederrheinischen Bucht. Das im oligozänen/eozänen Baltischen Bernstein sehr häufige Sternhaar wird ebenfalls Eichen zugeschrieben. Auch Eichenblüten sind im Baltischen Bernstein nicht selten. Die Zuordnung einiger kreidezeitlicher Pflanzenfossilien zu "Quercus" bzw. "Quercophyllum" ist indes umstritten. Systematik. Die Gattung enthält etwa 400 Arten. Informationen zu einzelnen Arten. Die in Mitteleuropa heimischen Stiel- und Trauben-Eichen sind typische Vertreter der Weißeichen, wobei diese beiden Arten in weiten Bereichen gemeinsam vorkommen und zur Bastardisierung neigen, daher häufig nicht eindeutig zu differenzieren sind. Sie haben Blätter mit abgerundetem Rand. Sie sind sogenannte Lichtbaumarten, das heißt, sie benötigen im Wachstum mehr Licht als etwa die Rotbuche und bilden selbst offene, lichte Kronen. Die Nutzung von Wäldern zur Waldweide (Hutewald) hat deshalb die Ausbildung von Eichenwäldern gefördert, weil die weidenden Tiere den Nachwuchs der Rotbuchen gehemmt haben. Das verkernende Holz der Weißeichen ist sehr dauerhaft und wurde viel im Schiffbau verwendet. Die heimischen Arten bieten etwa 350 Insektenarten einen Lebensraum. Die ursprünglich im östlichen Nordamerika heimische Roteiche wird erst seit etwa 100 Jahren in Mitteleuropa angebaut. Man findet die Roteiche in Mitteleuropa in Parks und Botanischen Gärten, seltener werden sie in Forsten angebaut. Roteichen zeichnen sich durch spitze Blätter aus, sowie durch Eicheln, die innerhalb von zwei Jahren reifen. Das Holz der Roteichen ist aufgrund von Porengängen nicht wasserdicht, und daher weniger wertvoll als das der Weißeichen. Es wird aufgrund der lebhaften Maserung vielfach für Möbel verwendet. Mooreiche. Eine Besonderheit stellt die Mooreiche dar. Dabei handelt es sich nicht um eine Baumart, sondern um Eichenstämme, die über Jahrhunderte in Mooren, Sümpfen oder in Flussufern gelegen hatten und ausgegraben wurden. Die Gerbsäure des Eichenholzes verbindet sich mit den Eisensalzen des Wassers, wodurch das Holz sehr hart wird und sich stark verfärbt. Die Verfärbung kann sehr unregelmäßig sein und variiert von hellgrau über dunkelgelb, dunkelbraun, blaugrau bis tiefschwarz. Diese subfossilen Eichen können 600 bis 8500 Jahre alt sein. Religion. In den alten Religionen, Mythen und Sagen war die Eiche ein heiliger Baum. Häufig wurde sie mit blitztragenden Göttern oder Götterfürsten in Verbindung gebracht. Symbolik. a>.Eichenzweig – Rückseite der letzten deutschen Pfennigstücke Archäologie. In der Archäologie kann Eichenholz mit einer ausreichender Anzahl von Jahressringen mit Hilfe der Dendrochronologie zur Datierung herangezogen werden. Dies ist insbesondere bei der Datierung von Ereignissen hilfreich, die in vorgeschichtlicher Zeit stattgefunden haben. Die nordamerikanische Archäologie muss sich zu einem sehr großen Teil auf solche Methoden verlassen, da es keinerlei schriftliche Quellen aus der Zeit vor der europäischen Besiedelung gibt. In den ur- und frühgeschichtlichen Siedlungen Europas gibt es viele Funde geschälter, verkohlter Eicheln allerdings selten in solchen Mengen wie in vielen Siedlungsgruben der bronzezeitlichen Siedlung Dortmund Oespel/Marten. Die Eicheln verkohlten vermutlich bei einem misslungenen Röstvorgang. Da Schälen und Rösten nicht erforderlich sind, wenn Eicheln als Schweinefutter dienen, ist anzunehmen, dass sie für den menschlichen Verzehr genießbarer gemacht werden sollten. Solche Vorgehensweisen kennen wir auch aus historischen Notzeiten. Das gehäufte Auftreten macht es jedoch fraglich, ob Eicheln nur in Notzeiten gegessen wurden. Eher waren sie eine leicht zu bevorratende Ergänzung im Speiseplan. Eichenholz. Eichenstämme haben in ihrer Mitte das graubräunliche Kernholz, welches durch die eingelagerte Gerbsäure den typischen sauer-würzigen Eichengeruch erhält; zur Rinde hin und scharf abgegrenzt sind zwei bis fünf Zentimeter helles, junges, noch saftdurchflossenes Holz, das Splintholz. Das Holz der Stiel- und Traubeneiche hat eine Rohdichte bei Darrfeuchte (p0) von 0,39 bis 0,93 g/cm³, im Mittel 0,65 g/cm³, es ist hart und gut spaltbar. Das wertvolle Hartholz gut gewachsener Stämme wird bevorzugt zu Furnieren verarbeitet. Kernholz hat eine hohe Verrottungsbeständigkeit und wird selten von Wurmfraß befallen. Splint dagegen sehr schnell. Eichenholz wird für Möbel, Treppen, Fußböden, Außentüren und Fenster, Fachwerk und im Wasserbau eingesetzt. Eichenholz gilt zudem als gutes Brennholz mit geringem Funkenflug. Sein Flammenbild ist jedoch nicht so schön wie bei Buchen- und Birkenholz oder bei Obsthölzern; außerdem ist der Heizwert etwas niedriger als bei der Rotbuche. schwere Tür aus Eichenholz in der Innenstadt von Basel Eicheln. Die Früchte (Eicheln) sind reich an Kohlenhydraten und Proteinen und wurden zur Eichelmast genutzt. Man trieb die Schweine zur Waldweide in die Wälder. In ur- und frühgeschichtlicher Zeit sowie in Notzeiten wurden Eicheln von Menschen als Nahrungsmittel genutzt. Dazu müssen die geschälten und zerstoßenen Eicheln durch mehrmaliges Baden in Wasser allmählich von den wasserlöslichen Gerbstoffen befreit werden, was sich durch die ausbleibende Verfärbung des Wassers leicht erkennen lässt, wobei eine höhere Temperatur den Vorgang beschleunigt. Sie enthalten in hohen Mengen Tannine. Danach können sie, zum Beispiel als Mehlersatz für Breie und Kuchen oder als Kaffeeersatz „Muckefuck“, verarbeitet werden, wobei bei letzterer Verwendung die Gerbsäure wahlweise auch nicht oder nicht vollständig entzogen werden kann, etwa aus medizinischen Gründen. Rinde. Aus der jungen, glatten Rinde wurden Gerbstoffe für die Lohgerberei gewonnen (Eichenschälwald). Die Borke der Korkeiche ("Quercus suber") wird als Kork zur Herstellung von Korken, Korkfußböden und mehr verwendet. Von allen Eichenarten eignen sich nur ungefähr 180 zur Herstellung von Weinfässern, siehe auch Barrique. In der Volksheilkunde wurde borkenlose Eichenrinde genutzt, um Entzündungen im Mund und der Schleimhäute zu heilen. Gallen. Aus den Galläpfeln, die von der gemeinen Eichengallwespe hervorgerufen werden, hat man früher dokumentenechte Eisengallustinte gewonnen. Medizin und Pharmakologie. Alle Teile der Eiche, besonders unreife Eicheln, sind wegen der enthaltenen Gerbstoffe giftig und können zu gastrointestinalen Symptomen (Magenschleimhautreizung, Erbrechen, Durchfälle) führen (siehe dazu den Artikel: Liste giftiger Pflanzen). Die Eiche wird auf Grund dieses Gerbstoffgehaltes ihrer Rinde aber auch als Heilpflanze eingesetzt. Gesammelt wird die frische Eichenrinde im Frühjahr. Getrocknet und gemahlen kann daraus ein Sud gekocht werden, der sowohl äußerlich als auch als Tee (nie mehr als zwei Tassen täglich) angewandt wird. Anwendungsgebiet innerlich: schwere chronische Entzündungen des Magen-Darm-Traktes. Anwendung äußerlich: Einreiben von nässenden Ekzemen oder heißen Entzündungen. Die im Eichenholz enthaltenen Tannine und Aldehyde können beim Einatmen allergische Reaktionen (Rhinitis, Asthma) hervorrufen. Indirekte Gefahr: Der in Mitteleuropa immer stärker auffindbare Eichen-Prozessionsspinner siedelt sich ausschließlich auf Eichen an und birgt für den Menschen Gefahren: Die Larven des Eichen-Prozessionsspinners tragen Gifthaare, die auf der Haut und an den Schleimhäuten toxische und/oder allergische Reaktionen hervorrufen. Die Beschwerden reichen von heftig juckenden Hautausschlägen (Raupendermatitis) bis zu Asthmaanfällen. Da die mikroskopisch kleinen Gifthaare bis zu hundert Meter weit mit dem Wind vertragen werden können, stellen sie eine wichtige Ursache einer luftübertragenen Krankheit dar. Bekannte Eichen. Die älteste Eiche in Europa soll die 1000-jährige Eiche Bad Blumau (Oststeiermark) sein. Zumindest wurde sie schon im Jahr 990 erstmals urkundlich erwähnt und wird auf etwa 1200 Jahre geschätzt. Ihr Stammumfang beträgt 8,75 Meter. Nach anderen Angaben soll eine Stieleiche in Bulgarien im Ort Granit, Bezirk Stara Zagora mit 1640 Jahren wohl der älteste Laubbaum Europas sein. Die älteste Eiche Deutschlands ist die Femeiche in Raesfeld-Erle, Kreis Borken, deren Alter auf bis zu 1500 Jahre geschätzt wird (Quelle: Brockhaus Enzyklopädie). Einen Stammumfang von 9,5 Metern hatte 1924 eine mächtige Eiche am Rande der Pommerschen Schweiz in der Gegend von Bad Polzin, die in einer Urkunde von 1321 als Grenzmal zwischen dem Land Belgard und dem bischöflichen Land Arnhausen genannt wurde und die als eine der ältesten von ganz Pommern galt. Als ihr Standort wird 1924 der (halbstündige) Wanderweg angegeben, der von Neu-Lutzig ("Nowe Ludzicko") über den Bahnhof Lutzig (Bahnhof "Stare Ludzicko") nach Dewsberg ("Dziwogóra") führt. "Siehe auch: Liste der dicksten Eichen in Deutschland" Europa (Mythologie). Europa (, altgriechische Aussprache '; Näheres zum Namen siehe unter Europa), eine Gestalt der griechischen Mythologie, ist die Tochter des phönizischen Königs Agenor und der Telephassa. Zeus verliebte sich in sie. Er verwandelte sich wegen seiner argwöhnischen Gattin Hera in einen Stier. Sein Bote Hermes trieb eine Kuhherde in die Nähe der am Strand von Sidon spielenden Europa, die der Zeus-Stier auf seinem Rücken entführte. Er schwamm mit ihr nach Matala auf der Insel Kreta, wo er sich zurückverwandelte. Der Verbindung mit dem Gott entsprangen drei Kinder: Minos, Rhadamanthys und Sarpedon. Auf Grund einer Verheißung der Aphrodite wurde der fremde Erdteil nach Europa benannt. Erzählungen. a>, 1. Jahrhundert etwa zur Zeit Ovids Die älteste literarische Referenz auf Europa ist in der Ilias von Homer zu finden, wo sie die Tochter des Phoinix ist. Antike Erzählungen des Europa-Mythos finden sich in der „Europa“ des Moschos und in den „Metamorphosen“ des Ovid. Es gibt viele verschiedene Sagen von der Entführung Europas. Eine Version des Mythos findet sich in Ovids Metamorphosen. Nach Ovid verwandelt sich Jupiter (röm. für Zeus) in einen Stier, ein besonders kräftiges, aber sehr friedlich aussehendes Exemplar mit reinem, schneeweißen Fell und kleinen Hörnern, die aussehen, als habe sie ein Künstler angefertigt. Jupiter mischt sich unter eine Herde königlicher Stiere, die Mercurius (röm. für Hermes) zuvor zum Strand getrieben hat, und nähert sich so Europa, die mit ihren Gefährtinnen am Strand ist. Europas Furcht ist bald überwunden, sie spielt mit dem Stier, füttert ihn, streichelt ihn und umwindet seine Hörner mit Blumen. Schließlich traut sie sich, auf seinen Rücken zu steigen – da geht der Stier ins Wasser und schwimmt aufs offene Meer hinaus. Er bringt sie nach Kreta, wo er seine Stiergestalt ablegt und sich offenbart. Agenor schickte seine Söhne aus, ihre Schwester Europa zu suchen, doch die Nachforschungen bleiben erfolglos. Schließlich befragt Kadmos das Orakel von Delphi und wird von diesem angewiesen, die Suche nach seiner Schwester aufzugeben und stattdessen die böotische Stadt Theben zu gründen. Nach anderen Quellen soll Europa nach der Affäre mit Zeus drei Söhne geboren haben. Anschließend wurde sie von Asterios, dem König von Kreta, geheiratet und wurde so zur Königin von Kreta. Asterios, der selbst keine Kinder hatte, adoptierte auch ihre drei Söhne. Die Historikerin Annette Kuhn hält dem durch die Ovid-Überlieferung patriarchal geprägten Mythos eine alternative Lebensweise entgegen, die das frühe Matriarchat einbezieht. So sieht sie das Matriarchat am Wirken, als die Mutter Europas, Telephassa, über Zeus eine Strafe für sein Verhalten verhängt, und zwar die Verweigerung der Liebe Europas und das Sterben der Natur. Sie interpretiert den Mythos dahingehend, dass Zeus überhaupt erst in Verkleidung sich Europa annähern konnte. "Liebe, so lautet die einfache Botschaft, kann nicht erzwungen werden. Da helfen alle männliche Verwandlungs- und Verstellungskünste nicht weiter." Darstellung. Die ältesten entdeckten Vasenmalereien, welche eindeutig Europa abbilden, stammen bereits aus dem 7. Jahrhundert vor Christus. Spätere bildliche Darstellungen zeigen Europa meist, Ovids Beschreibung folgend, wie sie vom Zeus-Stier entführt wird. Sie ist meist nur leicht bekleidet oder ganz nackt, sitzt rittlings (in älteren Darstellungen), seitwärts oder halb-liegend (in jüngeren Darstellungen) auf dem Rücken des weißen Stieres, hält sich an ihm fest und zeigt dabei keine Zeichen von Furcht. Verwendung in der zweiten Serie der Eurobanknoten. Seit dem 2. Mai 2013 ist die Sagengestalt auf dem 5-€-Schein abgebildet, dieser ist der erste Schein der zweiten Serie „Europa-Serie“ der Eurobanknoten. Die neue "10€-Banknote", ebenfalls mit der Abbildung der Europa, befindet sich seit dem 23. September 2014 im Umlauf. "Das abgebildete Porträt stammt von einer über 2000 Jahre alten Vase aus Süditalien, die im Pariser Louvre Elektrische Feldkonstante. Die elektrische Feldkonstante formula_6, auch Permittivität des Vakuums, elektrische Konstante, Dielektrizitätskonstante des Vakuums, oder Influenzkonstante, ist eine physikalische Konstante, die eine Rolle bei der Beschreibung von elektrischen Feldern spielt. Sie gibt das Verhältnis der elektrischen Flussdichte zur elektrischen Feldstärke im Vakuum an. Der Kehrwert der elektrischen Feldkonstanten tritt als Proportionalitätsfaktor im Coulomb-Gesetz auf. Elektrolyse. Einen Prozess, bei dem ein elektrischer Strom eine Redoxreaktion erzwingt, nennt man Elektrolyse. Sie wird beispielsweise zur Gewinnung von Metallen verwendet, oder zur Herstellung von Stoffen, deren Gewinnung durch rein chemische Prozesse teurer oder kaum möglich wäre. Beispiele wichtiger Elektrolysen sind die Gewinnung von Wasserstoff, Aluminium, Chlor und Natronlauge. Eine Elektrolyse erfordert eine Gleichspannungsquelle, welche die elektrische Energie liefert und die chemischen Umsetzungen vorantreibt. Ein Teil der elektrischen Energie wird in chemische Energie umgewandelt. Genau dem umgekehrten Zweck, die Umwandlung von chemischer Energie in elektrische, dienen Batterien, Akkumulatoren oder Brennstoffzellen: sie dienen als Spannungsquelle. Wenn man einen Akkumulator lädt, läuft eine Elektrolyse ab, die die chemischen Vorgänge während der Entladung rückgängig macht. Elektrolysen können daher der Energiespeicherung dienen, beispielsweise bei der Elektrolyse von Wasser, die Wasserstoff und Sauerstoff ergibt, die als Energieträger einer Wasserstoffwirtschaft vorgeschlagen wurden. Durch die Umkehrung der Wasserelektrolyse in einer Brennstoffzelle kann etwa 40 % der ursprünglich eingesetzten Energie wieder zurückgewonnen werden. Die Abscheidung von Metallen aus einer Lösung, die die entsprechenden Metallionen enthält, durch einen von außen aufgeprägten Strom ist ebenfalls eine Elektrolyse. Dies kann zur Erzeugung von Metallschichten dienen, beispielsweise beim Verchromen; diese Art der Elektrolysen sind Gegenstand der Galvanotechnik. Die elektrolytische Auflösung und Wiederabscheidung von Metallen dient der Reinigung, z. B. von Kupfer, und wird elektrolytische Raffination genannt. Bei den chemischen Reaktionen, die bei der Elektrolyse ablaufen, werden Elektronen übertragen. Es sind daher immer Redoxreaktionen, wobei die Oxidation an der Anode (elektrischer Pol), die Reduktion an der Kathode ablaufen; Oxidations- und Reduktionsprozesse sind also räumlich zumindest teilweise voneinander getrennt. Geschichte. Die Elektrolyse wurde im Jahr 1800 entdeckt, wobei die von Alessandro Volta erfundene erste brauchbare Batterie verwendet wurde, die Voltasche Säule. Die neu entdeckte Elektrolyse ermöglichte es Humphry Davy, in den Jahren 1807 und 1808 mehrere unedle Metalle erstmals elementar herzustellen, beispielsweise Natrium und Calcium. Michael Faraday untersuchte die Elektrolyse genauer und entdeckte ihre Grundgesetze, nämlich die Abhängigkeit der umgesetzten Massen von der Ladungsmenge und der Molmasse. Auf seine Anregung hin wurden auch die Begriffe Elektrolyse, Elektrode, Elektrolyt, Anode, Kathode, Anion und Kation geschaffen. Nach der Erfindung leistungsfähiger elektrischer Generatoren führten Elektrolysen Ende des 19. Jahrhunderts zu einer stürmischen Entwicklung in Wissenschaft und Technik, z. B. bei der elektrolytischen Gewinnung von Aluminium, Chlor und Alkalien, und bei der Erklärung des Verhaltens der Elektrolyte, zu denen auch Säuren und Basen zählen. Prinzip . Beispiel einer Elektrolyse mit einer Zinkiodid-Lösung (Elektrodenmaterial beliebig) Durch zwei Elektroden wird ein elektrischer Gleichstrom in eine leitfähige Flüssigkeit (siehe Elektrolyt) geleitet. An den Elektroden entstehen durch die Elektrolyse Reaktionsprodukte aus den im Elektrolyten enthaltenen Stoffen. Die Spannungsquelle bewirkt einen Elektronenmangel in der mit dem Pluspol verbundenen Elektrode (Anode) und einen Elektronenüberschuss in der anderen, mit dem Minuspol verbundenen Elektrode (Kathode). Die Lösung zwischen der Kathode und Anode enthält als Elektrolyte positiv und negativ geladene Ionen. Positiv geladene Ionen (Kationen) oder elektroneutrale Stoffe nehmen an der Kathode Elektronen auf und werden dadurch reduziert. An der Anode läuft der entgegengesetzte Prozess ab, die Abgabe von Elektronen in die Elektrode, wobei Stoffe, z. B. Anionen, oxidiert werden. Die Menge der an der Anode übertragenen Elektronen ist gleich der an der Kathode übertragenen. Der Transport der Stoffe an die Elektroden erfolgt durch konvektiven Stoffübergang (Diffusion innerhalb der Flüssigkeit mit überlagerter Strömung der Flüssigkeit) und, soweit es Ionen betrifft, zusätzlich durch Migration (Wanderung durch Einwirkung des elektrischen Feldes zwischen den Elektroden). Die Spannung, die zur Elektrolyse mindestens angelegt werden muss, wird als Zersetzungsspannung (Uz oder Ez) bezeichnet. Diese oder eine höhere Spannung muss angelegt werden, damit die Elektrolyse überhaupt abläuft. Wird diese Mindestspannung nicht erreicht, wirkt der Elektrolyt beziehungsweise seine Grenzflächen zu den Elektroden, die auch elektrochemische Doppelschicht genannt werden, isolierend. Für jeden Stoff, für jede Umwandlung von Ionen zu zwei- oder mehratomigen Molekülen kann die Zersetzungsspannung, das Abscheidepotential anhand des Redoxpotentials ermittelt werden. Aus dem Redoxpotential erhält man noch weitere Hinweise, wie zur elektrolytischen Zersetzung von Metallelektroden in Säure oder zur Verminderung von Zersetzungsspannung durch Abänderung des pH-Wertes. So lässt sich durch das Redoxpotential berechnen, dass die anodische Sauerstoffbildung bei der Wasserelektrolyse von Wasser in basischer Lösung (Zersetzungsspannung: 0,401 V) unter geringerer Spannung abläuft als in saurer (Zersetzungsspannung: 1,23 V) oder neutraler (Zersetzungsspannung: 0,815 V) Lösung, an der Kathode hingegen bildet sich Wasserstoff leichter unter sauren Bedingungen als unter neutralen oder basischen Bedingungen. Sind in einer Elektrolytlösung mehrere reduzierbare Kationen vorhanden, so werden zunächst die Kationen reduziert, die in der Redoxreihe (Spannungsreihe) ein positiveres (schwächer negatives) Potential haben. Bei der Elektrolyse einer wässrigen Kochsalzlösung bildet sich an der Kathode normalerweise Wasserstoff und nicht Natrium. Auch beim Vorliegen von mehreren Anionenarten, die oxidiert werden können, kommen zunächst diejenigen zum Zuge, die in der Redoxreihe möglichst nahe am Spannungsnullpunkt liegen, also ein schwächeres positives Redoxpotential besitzen. Nach Überschreiten der Zersetzungsspannung wächst mit Spannungszunahme proportional auch die Stromstärke. Nach Faraday ist die Gewichtsmenge eines elektrolytisch gebildeten Stoffs proportional zu der geflossenen elektrische Ladung (Stromstärke multipliziert mit der Zeit, siehe Faradaysche Gesetze). Für die Bildung von 1 g Wasserstoff (etwa 11,2 Liter, bei der Bildung eines Wasserstoffmoleküls werden zwei Elektronen benötigt) aus wässriger Lösung wird eine elektrische Ladung von 96485 C (1 C = 1 A·s) benötigt. Bei einem Strom von 1 A dauert die Bildung von 11,2 Litern Wasserstoff also 26 Stunden und 48 Minuten. Neben dem Redoxpotential ist noch die Überspannung (das Überpotential) von Bedeutung. Auf Grund von kinetischen Hemmungen an Elektroden benötigt man häufig eine deutlich höhere Spannung als sich dies aus der Berechnung der Redoxpotentiale errechnet. Die Überspannungseffekte können – je nach Materialbeschaffenheit der Elektroden – auch die Redoxreihe ändern, so dass andere Ionen oxidiert oder reduziert werden als dies nach dem Redoxpotential zu erwarten gewesen wäre. Kurz nach Abschaltung einer Elektrolyse kann man mit einem Amperemeter einen Stromausschlag in die andere Richtung feststellen. In dieser kurzen Phase setzt der umgekehrte Prozess der Elektrolyse, die Bildung einer galvanischen Zelle ein. Hierbei wird nicht Strom für die Umsetzung verbraucht, sondern es wird kurzzeitig Strom erzeugt; dieses Prinzip wird bei Brennstoffzellen genutzt. Mitunter ist es ratsam, zur Vermeidung unerwünschter chemischer Reaktionen Kathodenraum und Anodenraum voneinander zu trennen und den Ladungsaustausch zwischen Anoden- und Kathodenraum nur durch ein poröses Diaphragma - häufig ein Ionenaustauscherharz - stattfinden zu lassen. Bei der technischen Elektrolyse zur Herstellung von Natronlauge ist dies recht wichtig. Zur Verfolgung von Stoffumsatz, Wanderungsgeschwindigkeiten von Ionen kann auch das Wissen von molaren Grenzleitfähigkeiten wichtig sein. Wenn man durch eine Elektrolyse eine Trennung einzelner Moleküle oder Bindungen erzwingt, wirkt gleichzeitig ein galvanisches Element, dessen Spannung der Elektrolyse entgegenwirkt. Diese Spannung wird auch als Polarisationsspannung bezeichnet. Elektroden. Es gibt nur wenige Anodenmaterialien, die während der Elektrolyse inert bleiben, also nicht in Lösung gehen, z. B. Platin und Kohlenstoff. Einige Metalle lösen sich trotz stark negativem Redoxpotential nicht auf, diese Eigenschaft wird als „Passivität“ bezeichnet. In saurer Lösung müssten sich nach der Nernstschen Gleichung die Mehrzahl der Metalle unter Kationen- und Wasserstoffbildung auflösen. Bis auf Kupfer, Silber, Gold, Platin, Palladium besitzen fast alle Metall/Metallkationenpaare ein negatives Redoxpotential und wären für Elektrolysen in saurem Milieu ungeeignet, da sich das Gleichgewicht (Metallatom und Protonen) zur Kationenbildung und Wasserstoff verschiebt. Im schwefelsauren Milieu ist Blei ein preiswertes und beliebtes Kathodenmaterial, als Anode kann sowohl Blei als auch Bleioxid verwendet werden (Verwendung auch in Autobatterien). Bleisulfat ist schlecht löslich, so dass die Bleielektroden sich kaum auflösen. Eisen und Nickel können wegen der Passivität als Anoden manchmal auch in saurem Milieu verwendet werden, jedoch werden auch diese Anodenmaterialien vorzugsweise im basischen Milieu verwendet. Eine Eisenanode, die mit konzentrierter Salpetersäure behandelt wurde, löst sich nicht auf, durch die Passivierung gehen keine Eisen(II)- oder Eisen(III)-ionen in Lösung. Es hat sich eine sehr dünne und stabile Eisenoxidschicht (ähnlich wie beim Aluminium) gebildet, die die weitere Auflösung der Elektrode verhindert. Chloridionen oder höhere Temperaturen können jedoch die Passivität aufheben. Eisenanoden weisen im Vergleich zu anderen Anodenmaterialien nur eine sehr geringe Überspannung bei der Sauerstoffentwicklung auf, daher werden sie vorzugsweise bei der Erzeugung von Sauerstoff eingesetzt. Hemmungserscheinungen an der Anode, die bei der Sauerstoffbildung zu einer Überspannung führen, beobachtet man bei Kohle- und Platinanoden. Die Überspannung kann genutzt werden, um bei der Elektrolyse von wässriger Kochsalzlösung Chlor statt Sauerstoff zu erzeugen. An Zink-, Blei- und besonders Quecksilberkathoden zeigen Protonen eine erhebliche Überspannung und die Bildung von Wasserstoff erfolgt erst bei einer viel höheren Spannung. Die erhebliche Überspannung von Wasserstoff an der Quecksilberkathode, an der Natrium als Amalgam gebunden wird und so dem Gleichgewicht entzogen wird, nutzt man zur technischen Herstellung von Natronlauge. Durch die erhebliche Überspannung an dieser Elektrode bei der Wasserstoffbildung ändert sich die Redoxreihe, statt Protonen wandern nun Natriumkationen zur Quecksilberkathode. Überspannung. Sowohl an der Kathode als auch an der Anode können Überspannungen auftreten und somit die benötigte Spannung gegenüber den Berechnungen nach der Nernst-Gleichung erhöhen. Die Überspannungen sind bei Gasbildungen (z. B. Wasserstoff- und Sauerstoffbildung) mitunter beträchtlich. Die aufgebrachte Überspannungsenergie geht als Wärme verloren, trägt also nicht zum Stoffumsatz bei. Je nach Metallart und Oberflächenbeschaffenheit der Elektroden variieren die Überspannungen. Stromstärke und Temperatur beeinflussen ebenfalls die Überspannung. Eine wachsende Stromstärke erhöht leicht die Überspannung, eine Temperaturerhöhung senkt dagegen die Überspannung. Die nachfolgenden Tabellen geben einen kurzen Überblick bezüglich der Überspannung bei der anodischen Sauerstoffentwicklung und der kathodischen Wasserstoffentwicklung (die Versuche wurden jedoch bei verschiedenen pH-Werten ausgeführt, zur Berechnung von pH-Änderungen siehe Nernst-Gleichung) Konditionen: 1 N-wäss. KOH, 20 °C, Messung nach 20 min. Konditionen: 1 N wäss. HCl, 16 °C. Bei anderen elektrolytischen Reduktionen (ohne Gasbildung) kann auch die Diffusionsüberspannung wichtig werden. Falls nach einigen Minuten die Konzentration des elektrolytisch umzusetzenden Stoffes vor der Elektrode absinkt, muss mehr Spannung aufgebracht werden, um die gleiche Stromstärke zu erzielen. Durch kontinuierliches Rühren oder mit rotierenden Scheiben-, Zylinderelektroden kann die Diffusionsüberspannung gesenkt werden. Die Wasserstoff- und die Sauerstoffüberspannung bleiben an vielen Metallen nicht konstant. Sie steigen mitunter sogar noch nach 60 Minuten leicht an. Zellwiderstand. Der elektrische Widerstand einer Elektrolysezelle behindert den Stromfluss (ohmsches Gesetz) und sollte daher minimiert werden, andernfalls geht Energie in Form von Wärme verloren. Der Widerstand einer Elektrolysezelle hängt vom Elektrodenabstand, von der Größe der Elektrodenfläche und von der Leitfähigkeit ab. In destilliertem Wasser ist die Leitfähigkeit sehr gering – der Widerstand also sehr hoch – und eine Elektrolyse schlecht möglich. Die Leitfähigkeiten von Lösungen geringer Konzentrationen lassen sich über die spezifische Elektrolytische Leitfähigkeit bzw. die Äquivalentleitfähigkeiten der Ionen berechnen. Die Leitfähigkeit von Lösungen sehr hoher Konzentration muss experimentell bestimmt werden. Obwohl bei starken Säuren die Leitfähigkeit höher als in basischen Lösungen gleicher Konzentration ist, werden viele Elektrolysen – aufgrund der anodischen Auflösungsvorgänge bzw. der verzögerten Sauerstoffbildung bzw. Halogenoxidation im sauren Bereich – vorwiegend in basischem Medium ausgeführt. Stromdichte. Um die Wirtschaftlichkeit von elektrolytischen Verfahren zu steigern, sollten die Verfahren bei möglichst hohen Stromdichten durchgeführt werden. Dies erreicht man, indem man die Leitfähigkeit durch Salzzugabe oder durch Temperaturerhöhung (je Grad Temperaturzunahme steigt die spezifische Leitfähigkeit etwa um 1-2 %) erhöht. Häufig wird die Stromdichte durch den Diffusionsgrenzstrom limitiert. Aus Kenntnis des Diffusionsgrenzstromes lassen sich dimensionslose Kennzahlen ermitteln, um den Umsatz auch für größere Anlagen berechnen zu können. Es gibt für jede Elektrolyse eine kalkulatorisch optimale Stromdichte, sie ist größtenteils nicht die maximale Stromdichte. Um möglichst saubere, kompakte Metallabscheidungen zu erhalten, sollte bei geringer Stromdichte gearbeitet werden. Dies ist insbesondere für Gold-, Silber- und Kupferbezüge wichtig. Metallabscheidungen bei hohen Stromdichten bilden sogenannte Spieße, Stangen, Bäume aus und diese können zu Kurzschlüssen führen. Häufig – besonders in der organischen Chemie – sind thermische Verfahren aufgrund des höheren Stoffumsatzes pro Zeiteinheit den elektrolytischen Verfahren überlegen. Wanderungsgeschwindigkeiten von Ionen. Während der Elektrolyse können Kationen an der Kathode reduziert und an der Anode Anionen oxidiert werden. Da dicht vor der Elektrode Ladungsänderungen durch Reduktion oder Oxidation auftreten, muss die Ladungsdifferenz im Elektrodenraum durch Wanderungsprozesse ausgeglichen werden. Kationen und Anionen müssen im Elektrodenraum in identischer Konzentration vorliegen, es darf keinen Überschuss an positiven oder negativen Ionen geben. Der Ausgleich von Ionen in einer Elektrolysezelle wird durch die Ionenwanderung bewirkt. Die Wanderungsgeschwindigkeit ist abhängig von der angelegten Zellspannung und der Art der Ionen. Der Verlust an Kationen vor der Kathode kann durch die Wanderung von überschüssigen Kationen aus dem Anodenraum oder umgekehrt von überschüssigen Anionen aus dem Kathodenraum kompensiert werden. In der Regel stellt sich ein Kompromiss aus beiden Wanderungsrichtungen ein. Die Wanderungsgeschwindigkeiten lassen sich aus den Grenzleitfähigkeiten der Ionenarten berechnen. Mit der Überführungszahl kann die Änderung der Ionenzusammensetzung direkt bestimmt werden. Es gibt Ionen wie H+ oder OH-, die sehr schnell in einer Elektrolytlösung wandern. Aufgrund der unterschiedlichen Wanderungsgeschwindigkeiten können sich Ionenarten während der Elektrolyse in den Halbzellen der Elektrolysezelle anreichern. Bei einer Temperaturerhöhung um 1 °C nimmt die Leitfähigkeit um ca. 1–2,5 % zu. Die Zunahme der Wanderungsgeschwindigkeit könnte mit einer geringeren Viskosität der Solvathülle um die Ionen oder gar mit einer Abnahme der Solvathülle um die Ionen begründet werden. Elektrolyse von Wasser. Die Elektroden tauchen in Wasser ein, welches durch die Zugabe von Säure oder Lauge besser leitend gemacht wird. Die Teilreaktionen lauten 2 H3O+ + 2 e− → H2 + 2 H2O (für saure Lösungen) 2 H2O + 2 e− → H2 + 2 OH− (für basische Lösungen) 6 H2O → O2 + 4 H3O+ + 4 e− (für saure Lösungen) 4 OH− → O2 + 2 H2O + 4 e− (für basische Lösungen) Als Demonstrationsexperiment kann diese Reaktion im Hofmannschen Wasserzersetzungsapparat ausgeführt werden. Elektrolyse von Zinkiodid. Zn2+ + 2 e− → Zn 2 I− → I2+ 2 e− Durch die Energiezufuhr bewegen sich die einzelnen Ionen in Richtung Elektroden. Die Zink-Kationen wandern zur Kathode, es werden von den Zink-Kationen zwei Elektronen aufgenommen (Reduktion) und es bildet sich elementares Zink. Die Iod-Anionen wandern zur Anode und werden zu elementarem Iod oxidiert. Stoffgewinnung. Die Metalle Aluminium und Magnesium werden elektrolytisch mithilfe der Schmelzflusselektrolyse hergestellt. Elektrochemisch werden ferner Kupfer, Silber und Gold gewonnen, sowie zu großen Teilen auch Zink und Nickel. Weitere Alkalimetalle und die meisten Erdalkalimetalle werden ebenfalls durch Schmelzflusselektrolyse gewonnen. Sowohl dabei als auch bei Elektrolyse in wässrigen Medien werden je nach Ausgangsstoff die Halogene Fluor, Brom und Chlor frei, die in großem Maßstab für weitere Synthesen verwendet werden. In der Chloralkali-Elektrolyse wird aus Steinsalz Chlor, Wasserstoff und Natronlauge hergestellt. Galvanik. Elektrolytische Metallabscheidungen gehören zu den wichtigsten Anwendungen, entweder zur Erzeugung von metallischen Überzügen bei der Galvanik (galvanisches Verzinken, Verchromen usw.) oder zur Herstellung und Verstärkung von Leiterbahnen in der Leiterplattenproduktion. Elektrolytische Raffination. Die "elektrolytische Raffination" ist ein Verfahren zur Reinigung von Metallen. Die Reinigung wird dadurch erreicht, dass sich durch Elektrolyse eine Anode aus einem Rohmetall löst und sich an einer Kathode selektiv als reines Metall abscheidet. Verunreinigungen bleiben im Elektrolyt gelöst oder fallen als Anodenschlamm aus. Der Anodenschlamm und Elektrolyt werden wegen ihrer wertvollen Bestandteile aufgearbeitet. Elektrolytische Raffination wird insbesondere für die Reinigung von Kupfer, Nickel, Silber und Blei verwendet. Bei der elektrolytische Raffination von Kupfer wird Elektrolytkupfer mit einer Reinheit von >99,5 % gewonnen und wird hauptsächlich für elektrische Leiter verwendet. Bei der Kupferraffination beträgt die Zellspannung wenige Zehntel Volt (hauptsächlich verursacht durch Überspannungen und den Zellwiderstand), die Stromdichte liegt im Bereich von 150 bis 240 A/m2. Der Anodenschlamm enthält insbesondere die Edelmetalle Gold und Silber, aber auch Selen und Antimon. Die unedleren Metalle, wie Eisen, Nickel, Cobalt und Zink verbleiben im Elektrolyt. Bei der elektrolytische Bleiraffination dient die Raffination von Rohblei zur Abtrennung von Arsen, Antimon und Wismut. Elektrolyse von Wasser. Die Wasserelektrolyse kann zur Gewinnung von Wasserstoff als lagerbarer Energieträger an Bedeutung gewinnen. Der energetische Wirkungsgrad der Elektrolyse von Wasser liegt bei über 70 %. Weiteres siehe im Artikel Wasserelektrolyse. Kolbe-Elektrolyse. Die Kolbe-Elektrolyse ist das älteste Beispiel einer organischen elektrochemischen Reaktion. Bei dieser Elektrolyse werden zwei Carbonsäuremoleküle unter CO2-Abspaltung gekuppelt. Wirtschaft. Nach Angaben des Statistischen Bundesamtes wurden im Jahr 2007 die folgenden Mengen an Metallen oder Chemikalien in Deutschland hergestellt. In den USA liegen die hergestellten Elektrolyseprodukte um den Faktor 2–3 höher. Dort werden ca. 5 % der gesamten Stromproduktion für die Elektrolyse benötigt. Die weltweite Gesamtmenge an mittels Elektrolyse hergestelltem Aluminium liegt bei etwa 50 Millionen Tonnen jährlich. Elektrische Kapazität. Die elektrische Kapazität (Formelzeichen formula_1, von lateinisch "capacitas" = Fassungsvermögen; Adjektiv kapazitiv) ist eine physikalische Größe aus dem Bereich der Elektrostatik, Elektronik und Elektrotechnik. Sie wird dabei festgelegt durch die Dielektrizitätskonstante des isolierenden Mediums sowie die Geometrie der Körper, dazu zählt auch der Abstand. Bei Akkumulatoren sowie Batterien benutzt man den Begriff „Kapazität“ für die maximale Ladungsmenge formula_3, welche in ihnen gespeichert werden kann. Sie wird in Amperestunden (Ah) angegeben. Diese elektrische Ladung ist nicht die hier dargestellte elektrische Kapazität. Kapazität eines Kondensators. Eine technisch wesentliche Anwendung findet die Kapazität in Form von elektrischen Kondensatoren, welche durch die Angabe einer bestimmten Kapazität charakterisiert werden. Der Begriff „Kapazität“ wird umgangssprachlich auch synonym für das elektrische Bauelement Kondensator selbst () verwendet. Dabei ist formula_1 üblicherweise eine konstante Kenngröße, die sich wie folgt ergibt. Ein Körper, auf den eine positive elektrische Ladung gegeben wird, hat dadurch ein elektrisches Feld, das der Bewegung einer weiteren positiven elektrischen Ladung auf den Körper entgegenwirkt. Befindet sich nun aber ein Körper in der Nähe, der negativ geladen ist, so wird das abstoßende elektrische Feld des positiven Körpers geschwächt (die auf den Körper zu bewegende positive Ladung spürt auch die Kraft der anziehenden negativen Ladung). Damit wird weniger Spannung benötigt um die weitere positive Ladung auf den bereits positiv geladenen Körper zu bewegen, als ohne den zweiten negativ geladenen Körper. Der erste Körper hat also eine höhere Kapazität. Das Gleiche gilt natürlich auch für den zweiten Körper. Die Abschwächung des elektrischen Feldes durch den einen geladenen Körper auf den anderen geladenen Körper und vice versa, wird beeinflusst durch deren Geometrie und die Permeabilität des isolierenden Mediums zwischen den beiden Körpern. In einer vereinfachten Analogie entspricht die Kapazität dem Volumen eines Druckluftbehälters mit konstanter Temperatur. Der Luftdruck ist dabei analog zur Spannung formula_6 und die Luftmenge analog zur Ladungsmenge formula_3. Daher ist die Ladungsmenge im Kondensator proportional zur Spannung. Diese Gesetzmäßigkeit gilt auch für die sogenannte Pseudokapazität, einer innerhalb enger Grenzen spannungsabhängigen elektrochemischen bzw. faradayschen Speicherung elektrischer Energie, die mit in einer Redoxreaktion und mit einem Ladungsaustausch an Elektroden von Doppelschichtkondensatoren verbunden ist, wobei allerdings im Gegensatz zu Akkumulatoren an den Elektroden keine chemische Stoffänderung eintritt. Unter anderem die Physikalisch-Technische Bundesanstalt (PTB) befasst sich mit Kapazitätsnormalen. Einheit. Ein Kondensator der Kapazität 1 Farad lädt sich bei einem konstanten Ladestrom von 1 Ampere in 1 Sekunde auf die Spannung 1 Volt auf. Die SI-Einheit Farad, genannt zu Ehren des englischen Physikers und Chemikers Michael Faraday, hat sich heutzutage international überall durchgesetzt. Veraltete Einheit. Papierkondensator mit der Kapazität "5000 cm". Bis Mitte des 20. Jahrhunderts wurde die Kapazität von Kondensatoren häufig mit der Kapazitätseinheit "cm" beschriftet. Diese Angabe in Zentimetern rührt daher, dass die Kapazität im heute praktisch kaum noch gebrauchten Gaußschen Einheitensystem in der Längendimension ausgedrückt wird. So weist eine Metallkugel mit 5 cm Radius gegenüber einer sich im Unendlichen befindlichen Gegenelektrode eine Kapazität von 5 cm auf. Die nebenstehende Abbildung zeigt einen Papierkondensator der Marke "SATOR" der ehemaligen Firma "Kremenezky, Mayer & Co" von Johann Kremenezky aus dem Jahr 1950 mit einer Kapazität von „"5000 cm"“ bei einer Prüfspannung von „"2000 V"“. Dies wäre eine Kapazität von ca. 5,6 nF im heute üblichen SI-Einheitensystem. Das entspricht der Kapazität einer Metallkugel von 5000 cm Radius. Kapazität bestimmter Leiteranordnungen. Hierin bezeichnet ggf. "A" die Fläche der Elektroden, "d" deren Abstand, "l" deren Länge, formula_35 sowie formula_36 deren Radien. Es gilt formula_37, wobei formula_38 für die elektrische Feldkonstante des Vakuums und formula_39 für die dielektrische Leitfähigkeit des Dielektrikums steht. In der schematischen Darstellung sind die Leiter hellgrau bzw. dunkelgrau und das Dielektrikum blau gefärbt. Berechnungen zur Kapazität. Eine Berechnung der Kapazität erfordert die Kenntnis des elektrischen Feldes. Hierfür ist die Laplace-Gleichung formula_48 mit einem konstanten Potential formula_49 auf den Leiteroberflächen zu lösen. In komplizierteren Fällen existiert keine geschlossene Form der Lösung. Messen der Kapazität. Das Messen der Kapazität dient nicht nur der Kontrolle der Kapazität eines Kondensators (Bauteil), sondern wird beispielsweise in kapazitiven Abstandssensor zur Abstandsbestimmung herangezogen. Auch weitere Sensoren (Druck, Feuchte, Gase) beruhen oft auf einer Kapazitätsmessung. Insbesondere das letztgenannte Verfahren wird in Kapazitätsmessgeräten angewendet, wobei nicht nur die Größe des Stromes, sondern auch seine Phasenlage zur Spannung erfasst wird. Auf diese Weise kann auch der Verlustwinkel bzw. der Gütefaktor des Kondensators bestimmt werden. Einzelnachweise und Fußnoten. Kapazitat Elektrischer Strom. Der elektrische Strom ist die Gesamtheit der elektrischen Erscheinungen, die Ursache eines Magnetfeldes sind. Der elektrische Strom ist beim Konvektionsstrom mit der gerichteten Bewegung von Ladungsträgern verbunden. Die sich bewegenden Ladungsträger sind häufig die negativ geladenen Elektronen in einem Metall. Aber auch positive Ladungsträger können durch ihre Bewegung die Ursache von elektrischem Strom sein. Beispiele sind die Ionen im Elektrolyten einer Batterie. In der Röhre einer Gasentladungslampe bewegen sich negative Elektronen entgegengesetzt zu positiv geladenen Ionen. Beim Verschiebungsstrom bewegen sich dagegen keine Ladungsträger, sondern es ändert sich der elektrische Fluss. Zu den Wirkungen des Stromes zählen magnetische, thermische und chemische Wirkungen sowie Leuchterscheinungen in Gasen. In der Fachsprache wird mit „Strom“ oft dessen Stärke bezeichnet, also die physikalische Größe Stromstärke mit dem Formelzeichen formula_1 und der Einheit Ampere, in der Umgangssprache wird meist die Übertragung von elektrischer Energie gemeint oder auch bloß die Möglichkeit dazu in Form einer unter Spannung stehenden Installation. Geschichte. Bereits Thales von Milet soll im 6. Jahrhundert v. Chr. entdeckt haben, dass Bernstein leichte Körper anzieht, wenn er vorher mit Tüchern gerieben wird. Eine Erklärung dafür konnte er zwar nicht finden, das Wort Elektrizität (vom griechischen „elektron“ für „Bernstein“) weist aber immer noch auf diese antike Entdeckung zurück. Die technische Nutzung des elektrischen Stromes begann in der Mitte des 19. Jahrhunderts mit der Telegrafie und der Galvanik. Für beide Anwendungen reichte zunächst die Leistung von Batterien aus. Um 1866 fand Werner von Siemens das dynamoelektrische Prinzip und nutzte es bei der Entwicklung des ersten elektrischen Generators, den er als Zündmaschine für die Zündung von Sprengladungen vermarkten konnte. Ab 1880 entwickelten sich diese Generatoren immer mehr zu Großmaschinen, um den Strombedarf der immer größer werdenden Stromnetze befriedigen zu können. In erster Linie dienten diese Netze zur Bereitstellung von elektrischem Strom für die Beleuchtung mit Bogen- und Glühlampen in der Öffentlichkeit und den ersten Privathaushalten. Eine weitere Anwendung des elektrischen Stromes bestand in seinem Einsatz in Leuchttürmen, da die Bogenlampe eine wesentlich höhere Lichtstärke besitzt als die zuvor verwendeten Kerzen oder Petroleumlampen. Infolgedessen entstanden die ersten Kraftwerke, die zunächst noch mit einfachen Wasserturbinen und Dampfmaschinen angetrieben wurden. Seit Beginn des 20. Jahrhunderts stehen leistungsfähige Dampfturbinen zur Verfügung, die bis in die Gegenwart als Kraftmaschinen bei der Stromerzeugung dominieren. In den letzten Jahren des 19. Jahrhunderts fiel nach dem sogenannten Stromkrieg die Entscheidung zwischen Gleichstrom- und Wechselstromsystem zugunsten des Wechselstroms. Physikalische Zusammenhänge. Für quantitative Angaben zum elektrischen Strom verwendet man die physikalische Größe "Stromstärke". Zusammenhang mit der elektrischen Spannung. Wenn beispielsweise zwischen den Polen einer Batterie eine Potentialdifferenz besteht, spricht man von einer elektrischen Spannung. Aufgrund des dann bestehenden elektrischen Feldes wird eine Kraft auf die Ladungsträger ausgeübt; sie erfahren dadurch eine Beschleunigung, wenn sie beweglich sind. Das geschieht beispielsweise, wenn eine Glühlampe über Metalldrähte an die Pole angeschlossen ist. Die Driftgeschwindigkeit der Ladungsträger bei dieser gerichteten Bewegung entsteht im Wechselspiel mit Streuprozessen. Die Stromdichte lässt sich berechnen durch Multiplikation der Driftgeschwindigkeit mit der Raumladungsdichte. Der "Driftstrom" wächst trotz der Beschleunigung nicht beliebig an; bei einer gegebenen Spannung formula_3 stellt sich eine begrenzte Stromstärke formula_1 ein. Diese Beobachtung erklärt man mit einem elektrischen Widerstand formula_5. Definiert wird er durch das Verhältnis In vielen Leitermaterialien ist die Stromstärke bei konstanter Temperatur "proportional" zur Spannung. In diesem Fall wird der Zusammenhang als ohmsches Gesetz bezeichnet, bei dem der Proportionalitätsfaktor formula_5 von der Spannung und Stromstärke unabhängig ist. In einem Stromkreis mit einer Spannungsquelle bestimmen deren feststehende elektrische Spannung und der Widerstand die konkrete Stromstärke. Hingegen baut bei Verwendung einer Stromquelle deren feststehende Stromstärke am Widerstand die konkrete Spannung auf. In der Praxis kommen allerdings Spannungsquellen viel häufiger als Stromquellen vor, wie beispielsweise in Stromversorgungen, weshalb sich der konkrete Wert der elektrischen Stromstärke nach dem Verbraucher (genauer: dessen Widerstand) richtet. Stromleitung in Metallen. In Metallen sind ein Teil der Elektronen, die sogenannten Leitungselektronen, nicht jeweils an ein bestimmtes Atom gebunden, sondern ‘gehören’ allen Atomen gemeinsam, siehe metallische Bindung. Nach dem Drude-Modell ist die Leitfähigkeit von Metallen proportional zur Zahl der Leitungselektronen und ihrer Beweglichkeit. Realistischer ist das Bändermodell. Ionenleiter. Der Stromtransport ist bei einem Ionenleiter an einen stofflichen Transport von beweglichen, elektrisch geladenen Atomen oder Molekülen (also Ionen) gebunden. Das unterscheidet diese Leiter von Leitern 1. Klasse wie den Metallen, in denen die Elektronen für den elektrischen Stromfluss sorgen. Als Ionenleiter kommen vor allem ionisierte Gase und elektrisch leitfähige Flüssigkeiten in Frage. Man nennt diese Ionenleiter Elektrolyte oder Plasma. Auch Festkörper können Ionenleiter sein, siehe Festelektrolyt. Bei Ionenleitern, man spricht von Leitern zweiter Klasse, kommt es bei "Gleichstrom" im Gegensatz zu Metallen im Regelfall zu einer stofflichen Veränderung des elektrischen Leiters. Dieser Effekt wird bei der Elektrolyse ausgenutzt. Solche chemischen Vorgänge können die Beschaffenheit des Leiters so verändern, dass sich die elektrische Leitfähigkeit allmählich ändert. Ist ein solcher Materialtransport (beispielsweise bei einer Gasentladung) unerwünscht, kann er durch Wechselstrom weitgehend unterbunden werden. Gleichstrom. Als Gleichstrom (, abgekürzt "DC") wird jener elektrische Strom bezeichnet, der über die Zeit seine Richtung und Stärke nicht ändert, also zeitlich konstant ist. Praktisch alle elektronischen Geräte im Haushalt wie Radio- und Fernsehempfänger, Computer oder auch die Steuerungen heutiger Waschmaschinen benötigen für ihre Stromversorgung Gleichstrom. Aber auch in der Energietechnik werden Gleichströme eingesetzt, beispielsweise in der Schmelzflusselektrolyse zur Aluminiumgewinnung, für gut drehzahlregelbare Gleichstrommotoren (inzwischen zunehmend durch Stromrichter und Asynchronmotoren ersetzt), als Zwischenkreis in Stromrichtern, in Sendeanlagen und in Kraftfahrzeug-Bordnetzen. Gleichstrom kann durch Gleichrichter aus Wechselstrom gewonnen werden. Diese werden daher überall dort eingesetzt, wo Gleichstrom benötigt wird, aber nur der Wechselstrom des öffentlichen Stromnetzes zur Verfügung steht. Seltener, weil erheblich teurer, verwendet man auch direkte Gleichstromquellen, wie z. B. galvanische Zellen und photovoltaische Zellen. Kuriose Sonderfälle ohne technische Bedeutung sind elektrische Maschinen, die direkt ohne Gleichrichter mittels der Unipolarinduktion Gleichstrom herstellen können. Wechselstrom. Bei Wechselstrom (, abgekürzt "AC") kommt es zu einer periodischen Änderung der Stromrichtung. Jede Periode besteht aus aufeinanderfolgenden Zeitspannen mit positiven und negativen Augenblickswerten, die sich zu einer mittleren Stromstärke null ergänzen. Ausschlaggebend für den Erfolg des Wechselstroms zum Energietransport war, dass die Spannung mit Hilfe von Transformatoren sehr einfach geändert werden kann. Alle öffentlichen Stromversorgungsnetze werden mit Wechselspannung betrieben,– in Europa und vielen weiteren Ländern mit der Netzfrequenz 50 Hz, in anderen Teilen der Welt 60 Hz, siehe Länderübersicht Steckertypen, Netzspannungen und -frequenzen. Eine besondere Form von Wechselstrom ist der Dreiphasenwechselstrom (umgangssprachlich Stark-, Dreh- oder Kraftstrom), wie er in öffentlichen Stromnetzen zur elektrischen Energieverteilung großer Leistungen Verwendung findet. Diese Stromart ermöglicht besonders einfach gebaute und robuste Elektromotoren. Mischstrom. Eine Kombination aus Wechselstrom und Gleichstrom wird Mischstrom genannt. Dabei kommt es nicht unbedingt zu einer Richtungsänderung des Mischstromes, sondern der zeitlich konstante Gleichstromanteil wird durch den zusätzlich aufgebrachten Wechselstrom in seiner Stärke periodisch geändert (pulsierender Gleichstrom). Dieser Mischstrom tritt beispielsweise bei Gleichrichtern auf und wird mit Glättungskondensatoren oder Glättungsdrosseln in Netzteilen geglättet. Der dabei übrigbleibende (meist unerwünschte) Wechselanteil wird als Restwelligkeit bezeichnet, die mit einer Brummspannung verkoppelt ist. Eingeprägter Strom. Von einem eingeprägten Strom spricht man, wenn die Stromstärke in einem weiten Bereich unabhängig vom Wert des Lastwiderstands ist. Dabei kann es sich um Gleichstrom oder um Wechselstrom beliebiger Frequenz und Kurvenform handeln. Sogenannte Labornetzteile verfügen sowohl über eine einstellbare Begrenzung der Ausgangsspannung als auch über eine einstellbare Begrenzung der Ausgangsstromstärke und weisen so eine Rechteckkennlinie auf. Welche der beiden Begrenzungen erreicht wird, hängt von der Größe der Belastung ab. Wenn beispielsweise die Begrenzungen auf 30 V und 1,0 A eingestellt sind, dann wird bei einem Lastwiderstand von über 30 Ω (bis zum Leerlauf) die Spannungsbegrenzung erreicht. Ändert sich der Widerstand innerhalb des angegebenen Bereichs, so ändert sich nur die Stromstärke entsprechend. Die davon unverändert bleibende Spannung bezeichnet man als eingeprägte Spannung. Bei einem Lastwiderstand von weniger als 30 Ω (bis zum Kurzschluss) wird die Strombegrenzung erreicht. Ändert sich der Widerstand innerhalb des angegebenen Bereichs, so ändert sich nur die Spannung, die sich dazu passend auf Werte unterhalb von 30 V einstellt, während der trotz Belastungsänderung unverändert fließende Strom einen "eingeprägten Strom" darstellt. Elektrischer Strom im Alltag. Elektrischer Leiterstrom bei geeigneter Spannung bedeutet Transport von elektrischer Energie. In den Industriestaaten ist das gesamte Leben von Bezug und Umformung dieser Energieform durchdrungen. Stromverbrauch. Der umgangssprachliche Ausdruck „Strom verbrauchen“ ist, ähnlich wie beim Begriff „Energieverbrauch“, technisch gesehen nicht richtig. Aufgrund der Ladungserhaltung und da in technischen Geräten keine nennenswerten Aufladungen vorkommen, fließt genau der Strom, der in ein Gerät hineinfließt, auch wieder hinaus. Auswirkungen des elektrischen Stroms auf den Menschen. Elektrische Wechselströme im Bereich der Netzfrequenz sind ab 0,5 mA für den menschlichen Organismus spürbar und bei höheren Stromstärken über 10 mA, welche länger als 2 s einwirken, gefährlich. Gleichströme sind ab 2 mA spürbar und ab 25 mA, welche länger als 2 s einwirken, gefährlich. Man spricht dann auch von einem Stromschlag. Bei elektrischen Energieversorgungsnetzen und im Bereich von höheren Spannungen, etwa in Hochspannungsanlagen und im Bereich der elektrischen Oberleitungen bei der Bahn, kommen auch Stromunfälle infolge der Lichtbogenwirkung vor. Der Stromunfall mit Lichtbogeneinwirkung ist fast ausnahmslos zusätzlich mit Verbrennungen verbunden und es entstehen in der Brandwunde meist toxische Verbrennungsprodukte. Elektrostatische Entladungen, also auch Blitze, können Menschen verletzen oder töten. Bei diesen Entladungen treten kurzzeitig (etwa 10 ns bis 1 ms) sehr hohe Ströme von etwa 10 A bis 100 kA auf. Es entstehen Muskelzuckungen, lokale oder großflächige Verbrennungen. Edelgard Bulmahn. Bulmahn bei der Landesvertreterversammlung der niedersächsischen SPD zur Bundestagswahl 2009 Edelgard Bulmahn (* 4. März 1951 in Petershagen) ist eine deutsche Politikerin (SPD). Sie war von 1998 bis 2005 Bundesministerin für Bildung und Forschung und von 2005 bis 2009 Vorsitzende des Ausschusses für Wirtschaft und Technologie des Deutschen Bundestages. In der 17. Wahlperiode war sie Mitglied des Auswärtigen Ausschusses des Deutschen Bundestages. Seit Oktober 2013 ist sie Vizepräsidentin des Deutschen Bundestages. Leben und Beruf. Nach dem Abitur 1972 am Aufbaugymnasium Petershagen verbrachte Edelgard Bulmahn zunächst ein Jahr im Kibbuz „Bror Chail“ in Israel. Danach begann sie ein Lehramtsstudium der Politikwissenschaft und der Anglistik in Hannover. 1978 bestand sie das erste und 1980 das zweite Staatsexamen für das Lehramt an Gymnasien. Seitdem war sie als Studienrätin an der Lutherschule Hannover tätig. Sie war stellvertretende Vorsitzende der Naturfreunde Deutschlands und gehörte dem Vorstand von Eurosolar an. Sie war Mitglied der Kuratorien von Öko-Institut, der Arbeitsgemeinschaft industrieller Forschungsvereinigungen „Otto von Guericke“, der Fraunhofer-Gesellschaft und der Volkswagenstiftung. Gegenwärtig ist sie Senatorin der Stiftung Niedersachsen und gehört u. a. den Kuratorien Deutsche Telekom Stiftung und Deutsches Institut für Wirtschaftsforschung an. Sie ist auch Mitglied des Stiftungsrates der von Georg Zundel gegründeten "Berghof Foundation for Conflict Studies". Sie ist stellvertretende Vorsitzende des deutsch-amerikanischen Netzwerks Atlantik-Brücke e. V. Edelgard Bulmahn ist mit Joachim Wolschke-Bulmahn verheiratet. Partei. Seit 1969 ist Edelgard Bulmahn Mitglied der SPD, von 1993 bis 2011 war sie Mitglied im SPD-Parteivorstand. Des Weiteren ist sie seit 1995 Vorsitzende des Wissenschaftsforums für Sozialdemokratie. Von 1998 bis 2003 war sie SPD-Landesvorsitzende in Niedersachsen. Von 2001 bis 2011 war sie Mitglied im Präsidium der SPD. Abgeordnete. Von 1981 bis 1986 war Bulmahn Bezirksratsfrau im Stadtbezirk Linden-Limmer. Seit 1987 ist Edelgard Bulmahn Mitglied des Deutschen Bundestages. Von 1987 bis 1989 war sie stellvertretende Vorsitzende der Enquete-Kommission „Technikfolgen-Abschätzung und -Bewertung“. Seit 1991 war sie Mitglied im Vorstand der SPD-Bundestagsfraktion. Von 1995 bis 1996 war sie Vorsitzende des Ausschusses für Bildung, Wissenschaft, Forschung, Technologie und Technikfolgenabschätzung und von 1996 bis 1998 Fraktions-Sprecherin für Bildung und Forschung. 2005 bis 2009 war sie Vorsitzende des Wirtschaftsausschusses des Deutschen Bundestages. Derzeit ist sie ordentliches Mitglied im Auswärtigen Ausschuss. Edelgard Bulmahn ist stets als direkt gewählte Abgeordnete des Wahlkreises Stadt Hannover II in den Bundestag eingezogen. Bei der Bundestagswahl 2005 erreichte sie hier 54,3 % der Erststimmen. Bei der Bundestagswahl 2009 erreichte sie hier 39,8 % der Erststimmen. Bei der Bundestagswahl 2013 erreichte sie hier 42,8 % der Erststimmen. Bei der konstituierenden Sitzung des Bundestages am 22. Oktober 2013 wurde sie zu einer der Vizepräsidenten des Bundestages gewählt. Öffentliche Ämter. Seit dem 27. Oktober 1998 war sie in der von Bundeskanzler Gerhard Schröder geführten Bundesregierung Bundesministerin für Bildung und Forschung. Sie brachte in ihrer Amtszeit grundlegende Reformen der deutschen Bildungs- und Forschungslandschaft auf den Weg. Das von ihr initiierte Forum Bildung, in dem erstmals neben Vertreter(inne)n von Bund und Ländern auch Sozialpartner, Kirchen, Eltern, Schüler/-innen, Auszubildende, Studierende und Wissenschaftler mitwirkten, legte am 19. November 2001 nach zweijähriger Arbeit 12 Empfehlungen zur Neugestaltung des deutschen Bildungswesens vor. Diese zielten auf eine Verbesserung der schulischen Ausbildungsqualität, die Gewährleistung von Chancengleichheit, eine bessere individuelle Förderung und prägten die bildungspolitische Diskussion der kommenden Jahre. Die Empfehlung zum Ausbau der Ganztagsschule setzte Bulmahn gegen den heftigen Widerstand der unionsgeführten Länder mit dem mit 4 Mrd. Euro ausgestatteten Investitionsprogramm Zukunft Bildung und Betreuung um. Ihre darüber hinausgehenden Vorschläge zur Reform des deutschen Bildungswesens scheiterten jedoch an den Ländern. Nur im Hinblick auf den von Bulmahn vorgeschlagenen Nationalen Bildungsbericht gelang noch eine Verständigung. Im Bereich der beruflichen Bildung wurden unter Bulmahn zahlreiche Berufe modernisiert oder wie in den Informations- und Kommunikationstechnologien neu geschaffen. Das Berufsbildungsgesetz (Deutschland) wurde zum 1. April 2005 erstmals nach 35 Jahren grundlegend novelliert. Ein Nationaler Pakt für Ausbildung und Fachkräftenachwuchs sollte ein ausreichendes Lehrstellenangebot sichern. Das Aufstiegsfortbildungsförderungsgesetz wurde von Bulmahn mit der Novellierung vom 20. Dezember 2001 deutlich ausgebaut, was sich in rasch steigenden Teilnehmerzahlen niederschlug. Auch das Bundesausbildungsförderungsgesetz(BAföG) wurde von Bulmahn erfolgreich runderneuert. Die Freibeträge und Bedarfssätze wurden deutlich angehoben, die Darlehensschulden gedeckelt und die Beschränkungen für ein Auslandsstudium aufgehoben. Mit ihren weiterreichenden Reformvorstellungen verbunden mit der Einführung einer elternunabhängigen Grundförderung scheiterte sie allerdings am Machtwort des Kanzlers. Nur einen kurzfristigen Erfolg hatte sie mit ihrem Vorhaben Studiengebühren gesetzlich auszuschließen und eine Studierendenvertretung gesetzlich im Hochschulrahmengesetz zu verankern, da das Bundesverfassungsgericht hierin einen unzulässigen Eingriff in die Gesetzgebungskompetenz der Länder sah. Nachhaltigen Einfluss auf die Entwicklung der deutschen Hochschullandschaft übte Bulmahn mit dem Ausbau der Frauenförderung und der Nachwuchsförderung (Graduiertenkolleg, Graduiertenschule, Emmy Noether-Programm), der Einführung der Juniorprofessur, der Reform der Professorenbesoldung (Besoldungsordnung W), der Bologna-Reform und der Exzellenzinitiative aus. Die von ihr angestrebte bessere Breitenförderung der Hochschulen scheiterte an den Ländern, die den vorgeschlagenen Pakt für Hochschulen als Eingriff in die Kulturhoheit ablehnten und den Hochschulbau für sich reklamierten. In der Forschungspolitik setzte Bulmahn mit dem Programm „Forschung für Nachhaltigkeit“, der erstmaligen Förderung der sozialökologischen Forschung, der Gründung der Deutschen Stiftung Friedensforschung, der Entwicklung eines spezifischen Programms für die Neuen Länder (InnoRegio) und dem Ausbau der Gesundheitsforschung besondere Akzente. Neuland beschritt sie mit der gezielten Förderung des Dialogs zwischen Wissenschaft und Bevölkerung im Rahmen von Wissenschaft im Dialogund der Etablierung der Wissenschaftsjahre. Mit der Gründung der Helmholtz-Gemeinschaft e. V. und der Einführung der Programmgesteuerten Förderung brachte Bulmahn die umfassendste Strukturreform in der deutschen Forschungslandschaft auf den Weg. Durch den Pakt für Forschung und Innovation erhielten die außeruniversitären Forschungseinrichtungen und die Deutsche Forschungsgemeinschaft finanzielle Planungssicherheit. Insgesamt gelang es Bulmahn trotz der angespannten Haushaltslage, einen deutlichen Mittelzuwachs von knapp 36 % für die Förderung von Bildung und Forschung durchzusetzen. Mit der Wahl von Angela Merkel zur Bundeskanzlerin schied sie am 22. November 2005 aus dem Amt. Mitgliedschaften. Edelgard Bulmahn ist Mitglied der Trilateralen Kommission in Europa. Euklidische Geometrie. Die euklidische Geometrie ist zunächst die uns vertraute, anschauliche Geometrie des Zwei- oder Dreidimensionalen. Der Begriff hat jedoch sehr verschiedene Aspekte und lässt Verallgemeinerungen zu. Benannt ist dieses mathematische Teilgebiet der Geometrie nach dem griechischen Mathematiker Euklid von Alexandria. Die Geometrie des Euklid. Im engsten Sinne ist euklidische Geometrie die Geometrie, die Euklid in "Die Elemente" dargelegt hat. Die "Geometrie" (Personifikation) unterrichtet in der Euklidischen Geometrie. (Darstellung vom Beginn des 14. Jahrhunderts) Über zweitausend Jahre lang wurde Geometrie nach diesem axiomatischen Aufbau gelehrt. Die Redewendung „more geometrico“ (lateinisch: „auf die Art der (euklidischen) Geometrie“) dient noch heute als Hinweis auf eine streng deduktive Argumentation. Definitionen. Ähnlich werden Ebene, Winkel u. a. definiert. Außer diesen mehr oder weniger anschaulichen Definitionen von "Grundbegriffen" gibt es auch Definitionen, die im modernen Sinne als "Worteinführungen" zu verstehen sind, weil sie im folgenden Text abkürzend gebraucht werden, so zum Beispiel für Parallelen: „Parallel sind gerade Linien, die in derselben Ebene liegen und dabei, wenn man sie nach beiden Seiten ins Unendliche verlängert, auf keiner Seite einander treffen.“ Insgesamt geben die "Elemente" 35 Definitionen. Postulate. Nach den eher beschreibenden Definitionen folgen die fünf eher festlegenden Postulate. Gefordert wird hier, Probleme und Theoreme. Hierauf aufbauend behandelt Euklid nun Probleme … Zur Lösung eines Problems oder zum Beweis eines Theorems werden grundsätzlich nur die Definitionen, Postulate und Axiome sowie vorher bewiesene Theoreme und die Konstruktionen aus vorher gelösten Problemen verwendet. Geometrie und Wirklichkeit bei Euklid. Als Platoniker war Euklid davon überzeugt, dass die von ihm formulierten Postulate und Axiome die Wirklichkeit wiedergeben. Gemäß Platons Ideenlehre gehören sie einer ontologisch höherrangigen Ebene an als die in den Sand gezeichneten Figuren, die ihre Abbildungen sind. Das Verhältnis zwischen einem unvollkommen gezeichneten Kreis und der vollkommenen Idee des Kreises illustriert den Unterschied zwischen der sinnlich wahrnehmbaren Welt und der intelligiblen (nur geistig erfassbaren) Welt, der in Platons Höhlengleichnis veranschaulicht wird. Unterschiede zu einer rein axiomatischen Theorie. Hieraus folgt, dass die Schlüsse notgedrungen eine Vielzahl von unausgesprochenen Annahmen verwenden. Die moderne axiomatische Theorie. In einem anderen Sinne ist euklidische Geometrie eine am Ende des 19. Jahrhunderts entstandene, streng axiomatische Theorie. Die oben genannten Probleme wurden deutlich, als sich Russell, Hilbert und andere Mathematiker um eine strengere Grundlegung der Mathematik bemühten. Sie wurden gelöst von "David Hilbert" in seinem Werk "Grundlagen der Geometrie" (Teubner 1899, zahlreiche Neuauflagen). Vorläufer waren Hermann Graßmann, Moritz Pasch, Giuseppe Peano und andere. Auch nach "Hilbert" wurden mehrere andere Axiomensysteme für die euklidische Geometrie aufgestellt. Geometrie und Wirklichkeit bei Hilbert. Als ein Vertreter des Formalismus erklärt Hilbert es für irrelevant, was diese Punkte, Geraden und Ebenen mit der Wirklichkeit zu tun haben. Die Bedeutung der Grundbegriffe sei dadurch bestimmt, dass sie die Axiome erfüllen. So beginnt er den Abschnitt über die Axiome der Verknüpfung mit dem Satz: „Die Axiome dieser Gruppe stellen zwischen den oben eingeführten Dingen: Punkte, Geraden und Ebenen eine "Verknüpfung" her und lauten wie folgt:…“ Die Definitionen der Grundbegriffe erfolgen also implizit. Andererseits erklärt Hilbert in der Einleitung zu seinem Werk: „Die vorliegende Untersuchung ist ein neuer Versuch, für die Geometrie ein "vollständiges" und "möglichst einfaches" System von Axiomen aufzustellen…“. Mit diesem Bezug auf "die Geometrie" stellt er klar, dass es ihm nicht um einen beliebigen Formalismus geht, sondern um eine Präzisierung dessen, was Euklid mit „Geometrie“ gemeint hat und was wir alle als die Eigenschaften des uns umgebenden Raumes kennen. – Diese Präzisierung ist Hilbert vollständig gelungen, und sie erweist sich als viel aufwändiger, als Euklid ahnte. Weitere Axiomensysteme. Später aufgestellte Axiomensysteme sind grundsätzlich äquivalent zu dem Hilberts. Sie berücksichtigen die Weiterentwicklung der Mathematik. Euklidische und nichteuklidische Geometrie. Weiterhin dient der Begriff euklidische Geometrie als Gegenbegriff zu den nichteuklidischen Geometrien Den Impuls gab dabei die Auseinandersetzung mit dem Parallelenpostulat. Nachdem jahrhundertelang zuvor vergeblich versucht worden war, dieses fünfte Postulat des Euklid auf ein einfacheres zurückzuführen, schlussfolgerten der Ungar János Bolyai und der Russe Nikolai Iwanowitsch Lobatschewski um 1830, dass eine Verneinung dieses fünften Postulates zu logischen Widersprüchen führen müsse, wenn dieses tatsächlich auf einfachere Aussagen zurückgeführt werden könne. Also verneinten die beiden Mathematiker dieses Postulat und definierten jeweils eigene (Ersatz-)Postulate, die wider Erwarten zu einem logisch völlig einwandfreien geometrischen System führten – den nichteuklidischen Geometrien: „Nicht der Beweis war indes so beunruhigend, sondern vielmehr sein rationales Nebenprodukt, das schon bald ihn und fast alles in der Mathematik überschatten sollte: Die Mathematik, der Eckstein wissenschaftlicher Gewissheit, war auf einmal ungewiss geworden. Man hatte es jetzt mit "zwei" einander widersprechenden Visionen unantastbarer wissenschaftlicher Wahrheit zu tun“, was zu einer tiefen Krise in den Wissenschaften führte (Pirsig, 1973). Die genaue Formulierung des „hyperbolischen“ Axioms, das in der Geometrie von Lobatschewski, der hyperbolischen Geometrie, an die Stelle des Parallelenaxioms tritt, lautet: „… durch einen auf einer Gerade nichtliegenden Punkt gehen mindestens zwei Geraden, die mit dieser in einer Ebene liegen und sie nicht schneiden …“ Nichteuklidische Geometrien und die Wirklichkeit. Ob nichteuklidische Geometrien (es gibt verschiedene) den realen Raum beschreiben können, wird unterschiedlich beantwortet. Meist werden sie als rein abstrakt-mathematische Theorien verstanden, die nur durch die Ähnlichkeit der Begriffe und Axiomensysteme den Namen „Geometrie“ verdienen. Diese Theorien haben sich inzwischen allerdings in der theoretischen Physik als sehr relevant für die Beschreibung der "Realität" unseres Weltalls erwiesen. Die analytische Geometrie der Ebene und des Raumes. In einem Koordinatensystem lässt sich ein Punkt darstellen als ein Paar (in der ebenen Geometrie) oder als ein Tripel von reellen Zahlen. Eine Gerade oder Ebene ist dann eine Menge von solchen Zahlenpaaren (bzw. -tripeln), deren Koordinaten eine lineare Gleichung erfüllen. Die hierauf aufgebaute analytische Geometrie der reellen Zahlenebene formula_1 oder des reellen Zahlenraums formula_2 erweist sich als völlig äquivalent zu der axiomatisch definierten. Man kann die analytische Geometrie als ein Modell für die axiomatische Theorie ansehen. Dann liefert sie einen Beweis der Widerspruchsfreiheit des Axiomensystems (wobei man allerdings eine widerspruchsfreie Begründung der reellen Zahlen als gegeben voraussetzen muss). Man kann den analytischen Zugang aber auch als eine selbstständige (und bequemere) Begründung der Geometrie ansehen; aus dieser Sicht ist der axiomatische Zugang nur noch von geschichtlichem Interesse. Bourbaki zum Beispiel (und ebenso Jean Dieudonné) verzichtet vollständig auf die Verwendung originär geometrischer Begriffe und hält mit der Behandlung der topologischen Vektorräume das Thema für erledigt. Euklidische Geometrie als Lehre vom Messen. Euklidische Geometrie ist auch die Geometrie, in der "Strecken" und "Winkeln" Maße zugeordnet werden. Im axiomatischen Aufbau der euklidischen Geometrie kommen "Zahlen" scheinbar überhaupt nicht vor. Es ist allerdings festgelegt, wie man an eine Strecke eine "kongruente" in der gleichen Richtung anfügt, diese also "verdoppelt" - und folglich auch mit einer beliebigen natürlichen Zahl "vervielfacht". Es gibt auch eine Konstruktion, um eine gegebene Strecke in "n" gleiche Teile zu teilen. Wird nun noch eine beliebige Strecke als Einheitsstrecke ausgezeichnet, so ist es damit möglich, Strecken zu konstruieren, deren Maßzahl eine beliebige "rationale Zahl" ist. Dies ist der wesentliche Gegenstand der altgriechischen "Arithmetik". Bei anderen Konstruktionen ergeben sich Strecken, die keine rationale Zahl als Maßzahl haben. (Etwa die Diagonale des Quadrats über der Einheitsstrecke oder ihre Abschnitte bei der Teilung nach dem goldenen Schnitt.) Dies nachgewiesen zu haben, zeugt von dem unglaublich hohen Niveau der griechischen Mathematik schon zur Zeit der Pythagoreer. Somit wird die Einführung von irrationalen Zahlen erforderlich. 2000 Jahre später stellt Hilberts Vollständigkeitsaxiom sicher, dass alle reellen Zahlen als Maßzahlen für Strecken auftreten können. Die Festlegung von Maßzahlen für Winkel verläuft ähnlich. Die Festlegung eines „Einheitswinkels“ entfällt, da mit dem "Vollwinkel" (oder dem "Rechten Winkel") ein objektives Maß existiert. Andererseits ist die Teilung des Winkels in formula_3 gleiche Teile wesentlich problematischer; längst nicht zu jedem rationalen Winkelmaß lässt sich ein Winkel konstruieren. Schon die Dreiteilung des Winkels misslingt im Allgemeinen. Die so eingeführte Metrik ist äquivalent zu der durch die euklidische Norm induzierten euklidische Metrik des „analytischen“ formula_1 oder formula_2. Für die durch ihre Koordinaten gegebenen Punkte formula_6 und formula_7 ist also formula_8. Maßzahlen für Winkel lassen sich in der analytischen Geometrie über das Skalarprodukt von Vektoren definieren. Verallgemeinerung für höhere Dimensionen. Als analytische Geometrie lässt sich die euklidische Geometrie ohne weiteres für eine beliebige (auch unendliche) Anzahl von Dimensionen verallgemeinern. Zu den Geraden und Ebenen treten dann höherdimensionale lineare Punktmengen, die als Hyperebenen bezeichnet werden. (In einem engeren Sinne ist eine Hyperebene eines formula_3-dimensionalen Raumes ein möglichst „großer“, also formula_10-dimensionaler Teilraum.) Die Zahl der Dimensionen ist dabei nicht beschränkt und muss auch nicht endlich sein. Zu jeder Kardinalzahl lässt sich ein euklidischer Raum dieser Dimension definieren. Räume mit mehr als drei Dimensionen sind für unser Vorstellungsvermögen grundsätzlich unzugänglich. Sie wurden auch nicht mit dem Anspruch entworfen, menschliche Raumerfahrung darzustellen. Ähnlich wie bei den nichteuklidischen Geometrien fanden sich aber auch hier Bezüge zur theoretischen Physik: Die Raumzeit der speziellen Relativitätstheorie lässt sich als vierdimensionaler Raum darstellen. In der modernen Kosmologie gibt es Erklärungsansätze mit noch erheblich mehr Dimensionen. Verwandte Gebiete. Verzichtet man auf das 3. und 4. euklidische Postulat (also auf die Begriffe „Kreis“ und „Rechter Winkel“) oder beschränkt man sich, für eine präzisere Definition, auf Hilberts Axiome der "Verknüpfung" und der "Parallelen", so erhält man eine affine Geometrie. Sie wurde von Leonhard Euler erstmals entwickelt. Die Begriffe „Abstand“ und „Winkelmaß“ kommen hier nicht vor, wohl aber Strecken"verhältnisse" und Parallelität. Ersetzt man das Parallelenaxiom durch die Festsetzung, dass zwei in einer Ebene gelegene Geraden immer einen Schnittpunkt haben sollen, so entsteht aus der affinen eine projektive Geometrie. Wenn die Anordnungs- und Stetigkeitsaxiome wegfallen, können affine und projektive Geometrien auch aus endlich vielen Punkten bestehen. In der synthetischen Geometrie wird der Begriff einer "euklidischen Ebene" so verallgemeinert, dass genau die Ebenen, deren affine Koordinaten in einem euklidischen Körper liegen, euklidische Ebenen sind. Elbląg. Stadtpanorama vom Turm der Nikolaikirche Elbląg (, deutsch "Elbing") ist eine kreisfreie Stadt in der Woiwodschaft Ermland-Masuren im nördlichen Polen nahe der Ostseeküste im früheren Ostpreußen (bis 1920 Westpreußen). Die Stadt hat rund 123.000 Einwohner und ist seit 1992 Sitz einer katholischen Diözese. Geographische Lage. Elbląg liegt rund 55 Kilometer ost-südöstlich von Danzig am Südwestrand der Wysoczyzna Elbląska ("Elbinger Höhe") in der Elbinger Niederung nahe der Mündung von Elbląg und Nogat in das Frische Haff. Bis 1945 führte die Reichsstraße 1 durch die Stadt, auf deren Trasse heute die Droga krajowa 22, die Droga wojewódzka 500 und die Droga wojewódzka 504 angelegt sind. Geschichte. Als Vorläufer der Stadt kann der altprußische Handelsort Truso betrachtet werden, der in unmittelbarer Nähe gelegen war. Truso wurde vom angelsächsischen Reisende Wulfstan im Jahre 890 als am Flusse "Ilfing" befindlicher Handelsplatz erwähnt. Archäologischen Funden zufolge kam dem Ort überregionale Bedeutung zu, war er doch nicht nur an der Bernsteinstraße gelegen, sondern an den Handelsrouten zwischen Skandinavien und dem Mittelmeerraum. Hier mündete im 10. Jahrhundert der Weichselarm Nogat in eine Bucht des Frischen Haffes. Diese Bucht entspricht dem heutigen Drausensee (poln. Druzno, prußisch Drusin), der durch Verlandung vom Haff abgetrennt wurde. Die Ausgrabungen haben ergeben, dass Truso durch Seeräuber zerstört wurde. Unter dem Deutschen Orden. Die Stadt wurde im Jahr 1237 als Elbing in Pogesanien, damals Teil des Deutschordenslandes, unter dem Schutz des Deutschen Ordens durch aus Lübeck stammende Handwerker und Kaufleute gegründet. Es wurde zunächst eine Siedlung mit rasterförmigem Straßennetz angelegt. Das Zentrum bildete der spätere "Alte Markt", der an dem großen Handelsweg zwischen Thorn und dem Samland gelegen war. Vor 1238 wurde die Stadtpfarrkirche St. Nikolai erbaut. 1238 ließ Landmeister Hermann von Balk die Liebfrauenkirche und ein Dominikanerkloster errichten. Bis 1246 erfolgte die Einwanderung von weiteren Bürgern, die ebenfalls überwiegend aus Lübeck stammten. 1246 erhielt Elbing das Stadtrecht nach Lübischem Recht und erhielt das Privileg, eigene Münzen zu schlagen. Im Süden der Stadt wurde während der 1240er Jahre das Ordensschloß mit einem Heilig-Geist-Hospital errichtet. In den Jahren 1251 bis 1309 war das Elbinger Ordensschloss der stellvertretende Hauptsitz des Ordensstaates (Hauptsitze waren damals Akkon und später Venedig) und Sitz der Landmeister von Preußen und des Großspittlers, gleichzeitig Residenz des ermländischen Bischofs Anselm, der hier 1274 starb. Die Kirche zum Heiligen Jakob (Filiale der Stadtpfarrkirche) entstand 1256. Die Corpus-Christi-Kirche mit einem Aussätzigenhospital wurde 1292 erbaut. Der Orden erbaute um 1300 die Befestigungen der Stadt mit 14 Wehrtürmen. In dieser Zeit war Elbing zu einer bedeutenden Handelsstadt angewachsen, die bedeutende Handelsprivilegien bei den Königen von Polen, den Herzögen von Pommern, den skandinavischen Herrschern und sogar bei König Philipp IV. von Frankreich erworben hatte. Im 13. Jahrhundert wurde die "schola senatoria" (Ratsschule). gegründet, und 1314 wurde der Elbinger Stadtturm erbaut. Siegel von Elbing, um 1350 Elbing entwickelte sich gemeinsam mit Danzig und Thorn zu einer der führenden Hansestädte im östlichen Mitteleuropa. Anfang des 14. Jahrhunderts war die Stadt so angewachsen, dass 1337 durch den Elbinger Komtur Siegfried von Sitten vor den Toren die Elbinger Neustadt angelegt wurde. Sie verfügte über einen eigenen Rat und wurde nach Lübischem Recht regiert. Dieser Neustadt erteilte am 25. Februar 1347 der Hochmeister Heinrich Dusemer das Privilegium. Ab 1350 beteiligte sich die Elbinger Flotte an den Kämpfen der Hanse gegen norwegische und dänische Seeräuber in der Ostsee. 1360 wütete in Elbing die Pest, der etwa 13.000 Einwohner (etwa 90 %) zum Opfer fielen. 1367 trat Elbing mit Kulm und Thorn der Kölner Konföderation bei. Die Kirche zur Heiligen Brigitta von Schweden wurde nach 1379 erbaut. 1397 entstand der Eidechsenbund: Der Aufstand des Adels und der Städte gegen die Herrschaft des Ordens begann. Nach der Schlacht bei Tannenberg wurde Elbing acht Wochen lang von polnischen Truppen besetzt. Polnische Truppen belagerten 1414 das Elbinger Ordensschloss, jedoch ohne Erfolg. a> Feldaltars von 1388 eines Großkomturs des Deutschen Ordens 1440 gründeten die preußischen Hansestädte, unter ihnen Elbing, gemeinsam mit den Landesständen den Preußischen Bund, der gegen die Herrschaft des Ordens gerichtet war und eine Unterstellung unter den polnischen König anstrebte. 1452 ließen sie sich ihre Rechte und Privilegien von Kaiser Friedrich III. bestätigen. Im daraufhin einsetzenden Dreizehnjährigen Krieg des Preußischen Bundes gemeinsam mit Polen gegen den Deutschen Orden (1453–1466) nahmen die Bürger Elbings an der Belagerung des Ordensschlosses durch die Polen teil und zerstörten das Schloss nach dessen Kapitulation. Die Ruinen des Schlosses wurden 100 Jahre später abgetragen. Ein Teil steht bis heute. Die Stadt huldigte 1454 dem Jagiellonen Polenkönig Kasimir IV. als Schutzherrn. Er und seine Nachfolger bestätigten der Stadt sämtliche alten Privilegien und verliehen viele neue. 1478 schlossen sich die bis dahin eigenständigen Stadthälften der Alt- und Neustadt Elbings zusammen. Elbing als Stadtrepublik unter dem Schutz der polnischen Krone. Der Dreizehnjährige Krieg endete 1466 mit dem Zweiten Thorner Frieden, bei dem der Orden Pommerellen das Culmer Land und Ermland sowie Danzig, Elbing und Marienburg an die polnische Krone abtreten musste. Auf diese Weise wurde Preußen geteilt in ein Preußen königlichen Anteils, das der polnischen Krone unterstand, und das restliche Gebiet des Ordenslandes, das weiterhin dem Orden verblieb, der allerdings die polnische Oberhoheit anerkennen musste. Dieses restliche Ordensland wurde 1525 in das weltliche Herzogtum Preußen (polnisch: "Prusy Ksiazece") umgewandelt. Das Heer des letzten Hochmeisters Albrecht von Brandenburg-Ansbach belagerte noch 1521 vergeblich Elbing, das dem Preußischen Bund unter Hilfe der polnischen Krone treu blieb. Dieser Siegestag wurde mehrere Jahrhunderte am ersten Freitag nach Sonntag Laetare als „Freudetag“ in der Stadt gefeiert.Denkmal am Markttor für den legendären Bäckerburschen, der 1521 angeblich die Eroberung verhinderte Im Jahr 1536 wurde das erste evangelische Gymnasium von Willem van de Voldersgraft bzw. Wilhelm Fullonius, einem Glaubensflüchtling aus Den Haag, eingerichtet. Christoph Hartknoch beschrieb in seiner "Acta Borussica III" dessen Leben oder "Vita Guilielmi Gnaphei". In Hartknochs Arbeiten sind ebenfalls die preußischen Städte einschließlich Elbing dargestellt. Der Rektor des Elbinger Gymnasiums musste auf Grund des Erlasses des katholischen Fürstbischofs von Ermland Elbing verlassen und wurde dann Rat des Herzogs Albrecht von Preußen sowie Rektor und Professor der Universität Königsberg. 1576 bestätigte König Stephan Báthory das Privileg der protestantischen Schule, die bis zum Direktorat Johann Wilhelm Süverns 1803 einen akademischen Anspruch hatte. Panorama von Elbing von 1554 1558 sicherte König Sigismund II. August der protestantischen Stadt Elbing die vorläufige Religionsfreiheit zu, 1567 erhielt die Stadt dann die volle religiöse Autonomie und verwies die Jesuiten der Stadt. Die Lutheraner übernahmen 1577 die Nikolaikirche, und seit dieser Zeit sind somit auch Kirchenbücher mit Eintragungen der Elbinger Taufen, Heiraten und Bestattungen vorhanden. Ab 1579 unterhielt die Stadt enge Handelsbeziehungen zu England, das freien Handel in Elbing ausüben konnte. Viele englische und schottische Kaufleute kamen und wurden Bürger der Stadt Elbing. Sie organisierten sich in der "Fellowship of Eastland Merchants". Die Church of Scotland gründete die "Bruderschaft der Schottischen Nation in Elbing". Familiengräber mit Namen Ramsay, Slocombe waren noch bis 1945 auf dem St.-Marien-Friedhof in der Altstadt Elbings zu finden. Andere Familien aus diesem Kreis waren unter anderem die Lamberts, Paynes, Lardings, Wilmsons. Der Aufruhr der Danziger gegen König Stephan Báthory von Polen wurde 1580 von den Elbingern, die dem König treu blieben, geschickt ausgenutzt. Für Polen spielte Elbing nun eine Schlüsselrolle im Überseehandel. Über die Nogat, die damals tiefer war als die Weichselmündung bei Danzig, erfolgte der polnische Getreideexport nach Westeuropa und umgekehrt der Import westlicher Luxuswaren bis weiter nach Polen. Die Stadt zählte im Jahr 1594 30.000 Einwohner, und der Umsatz von Waren, die von Elbinger Handelsleuten in diesem Jahre verkauft wurden, erreichte die für damalige Zeiten hohe Summe von 1.247.850 Talern. Die Stadtpfarrkirche wurde 1617 dem katholischen Klerus übergeben. Dreißigjähriger Krieg und Nordische Kriege. Um 1620 trat die Stadt aufgrund ihrer starken Handelsbeziehungen mit England aus der Hanse aus. 1625 folgte ein Ausbruch der Pest, in dessen folge 3.608 Menschen starben. Die Truppen des Schwedenkönigs Gustav II. Adolf nahmen 1626 die Stadt ein und hielten sie bis 1635 als Hauptquartier im Kampf zur Unterstützung der Evangelischen gegen die Katholischen im Dreißigjährigen Krieg. Der schwedische König setzte seinen Vertrauten und Reichskanzler Axel Oxenstierna in Elbing als Generalgouverneur für die neuen schwedischen Besitzungen ein. Dieser führte von 1626 bis 1631 neben den regionalen Geschäften auch einen Teil seiner nationalen Aufgaben von Elbing aus. In den etwa 1500 erhaltenen Briefen Oxenstiernas aus Elbing spiegeln sich militärische, ordnungs-, wirtschafts- und außenpolitische Themen der Zeit. Die Schweden nahmen Preziosen, Möbel, Bücher als Kriegsbeute und schickten diese in ihre Heimat. 1646 dokumentierte der Elbinger Stadtschreiber Daniel Barholz, dass der Elbinger Stadtrat Bernsteindreher (Paternostermacher) angestellt habe. Spätere Mitglieder der Familie Barholz waren prominent als Stadtrat und Bürgermeister. Auch der Barockdichter Daniel Bärholz gehörte dieser Familie an. Die Verarbeitung von Bernstein (preußisches Gold), nicht nur zu Schmuck und kirchlichen Artikeln, sondern als Heilmittel und zu Polierlack, war ein wichtiger Wirtschaftsfaktor jener Zeit. Die Gildemitglieder der Paternostermacher unterstanden besonderen Gesetzen. In den Jahren 1655 bis 1660 wurde Elbing im Zuge des Zweiten Nordischen Krieges ein zweites Mal durch schwedische Truppen unter Karl X. Gustav besetzt.. Karl X. Gustav verfuhr dabei auf ähnliche Weise wie sein Onkel Gustav Adolf. Der polnische König Johann II. Kasimir verpfändete Elbing und dessen Territorium 1657 im Vertrag von Wehlau an den Großen Kurfürsten für die Summe von 400.000 Talern und sicherte ihm außerdem die Souveränität über das Herzogtum Preußen zu. Als die polnische Krone die obige Summe nicht erstattet hatte, machte der Nachfolger des Großen Kurfürsten, Friedrich I. (Preußen) in Preußen, von seinem Recht Gebrauch und nahm 1703 das Elbinger Territorium in Besitz, das mithin preußisch wurde. Die ansehnlichen Erträge, die bis dahin aus dem Territorium an die Stadt geflossen waren, wurden durch diesen Schritt erheblich beschnitten, was zu einer Lähmung der Wirtschaft und einem damit einhergehenden Rückgang der Bedeutung der Stadt führte. Hinzu kam, dass die Stadt Elbing zwar ihre Autonomie wahrte, doch in den folgenden Jahrzehnten mehrfach Besatzungen über sich ergehen lassen musste und damit einhergehende Kontributionen zu leisten hatte. So wurde Elbing während des Großen Nordischen Krieges nacheinander durch schwedische (1703–1710), russische (1710–1712) und sächsische Truppen (1712) besetzt. Während des Siebenjährigen Krieges wurde die Stadt 1758 von russischen Truppen erobert und bis 1762 besetzt gehalten. Der kaiserliche Mathematiker und Geograf Johann Friedrich Endersch vollendete 1755 eine Karte Ermlands mit dem Titel "Tabula Geographica Episcopatum Warmiensem in Prussia Exhibens". Diese Karte zeigt Stadt und Land Elbing westlich des Ermlands und jedes Dorf in der Gegend. Die Karte von 1755 führt auch den Namen "Prussia Orientalis" (auf Deutsch: Ostpreußen). Endersch fertigte ebenfalls einen Kupferstich des Segelschiffes (Galiot), benannt D.Stadt Elbing (D=der Erbauer), später auch als "Die Stadt Elbing" bekannt, welches 1738 in Elbing erbaut worden war. 1772 erfolgte im Ergebnis der Ersten Teilung Polens die Wiedervereinigung aller Teile Preußens. Nun wurde auch die Stadt Elbing endgültig Teil des Königreichs Preußen und verlor ihre städtische Autonomie und die damit einhergehenden Privilegien. Im Königreich Preußen. Ab 1775 erholte sich Elbing langsam von den Schrecken der Kriege und der Okkupationen. Friedrich II. unterstützte Elbing durch viele Steuererleichterungen, und der Handel begann wieder aufzublühen. 1807 besetzten Napoleons Truppen Elbing und erzwangen innerhalb von vier Tagen eine Kontribution von 200.000 Talern. Am 8. Mai 1807 hielt Napoleon I. in Elbing eine große Truppenparade ab. Vom Dezember 1812 bis Januar 1813 musste die Stadt nach seinem gescheiterten Russlandfeldzug 60.000 zurückflutende französische Soldaten, 8.000 Offiziere und 22.000 Pferde ernähren. Nach den Stein-Hardenbergschen Verwaltungsreformen war Elbing ab 1815 Teil des Kreises Elbing im Regierungsbezirk Danzig der Provinz Westpreußen. Elbing blieb bis 1945 Verwaltungssitz dieses Landkreises, wurde aber 1874 ein Stadtkreis (kreisfreie Stadt) und unterstand seither nicht mehr der Zuständigkeit des Landratsamts. Industrialisierung und Verkehrswegebau bestimmten das Schicksal der Stadt im 19. Jahrhundert. 1828 stellten die Elbinger das erste Dampfschiff Ostpreußens in Dienst. 1837 wurden die Schichau-Werke gegründet. 1840 bis 1858 wurde der Oberländische Kanal zwischen Deutsch Eylau, Osterode und Elbing nach Plänen und unter Leitung des Königlich-Preußischen Baurats Georg Steenke angelegt. Am 23. Oktober 1844 erfolgte die Gründung der Baptistengemeinde Elbing. In den 40er Jahren des 19. Jahrhunderts wurde zusätzlich zu dem bereits bestehenden Gymnasium eine Realschule ins Leben gerufen. a> auf einer Landkarte von 1910. Um die Mitte des 19. Jahrhunderts verfügten die im Hafen von Elbing vertretenen Reeder über 14 Handelsschiffe. 1853 wurde die Eisenbahnlinie nach Königsberg fertiggestellt. 1858 bis 1918 erfolgte ein großer wirtschaftlicher Aufschwung der Stadt. Die Stadt hatte viele Fabriken: die Schichau-Werke, die jetzt auch unter anderem Lokomotiven herstellten, die Zigarrenfabrik Loeser & Wolff, eine große Brauerei und Schnapsbrennerei, eine Schokoladefabrik, die Autofabrik Komnick und viele andere Betriebe. In der Industriestadt Elbing erhielt die SPD stets die Mehrheit der Wählerstimmen, bei den Reichstagswahlen 1912 sogar 51 %. Laut der preußischen Volkszählung von 1905 waren in den Kreisen Elbing Stadt und Elbing Land 94.065 Personen deutschsprachig und 280 Personen polnisch- bzw. kaschubischsprachig. Weimarer Republik und Drittes Reich. Kaiser-Wilhelm-Platz mit Rathaus, um 1930 Blick auf die Nikolaikirche vor 1945 Blick von der Speicherinsel auf die Häuserzeile am Elbing-Fluss, um 1930 Aufgrund der Bedingungen des Versailler Vertrags musste Deutschland 1920 den größten Teil Westpreußens an Polen und die ethnisch deutsche, politisch aber von Polen abhängige Freie Stadt Danzig abtreten. Die westlich der Nogat gelegenen Teile des Landkreises Elbing fielen an den neuen Freistaat Danzig. Die Stadt Elbing gehörte zu den Gebieten, die bei Deutschland verblieben und wurde nach Auflösung der Provinz Westpreußen an das benachbarte Ostpreußen angegliedert. Die neu hinzugekommenen westpreußischen Gebiete bildeten dort den Regierungsbezirk Westpreußen, dessen Verwaltungssitz sich in Marienwerder befand, in dem Elbing jedoch die größte Stadt war. 1926 wurde eine Pädagogische Akademie zur Ausbildung von Volksschullehrern eingerichtet. Die Weltwirtschaftskrise nach 1929 beeinflusste Elbings Situation sehr ungünstig. In den Jahren der Weimarer Republik war Elbing eine Hochburg der KPD. Die auf Deutschlands Aufrüstung gerichtete Politik der NSDAP brachte ab 1933 einen großen wirtschaftlichen Aufschwung für Elbing, hauptsächlich durch den Ausbau der Schichau-Werke, den Bau einer Flugzeugfabrik und die Eröffnung vieler neuer Schulen. 1937 hatte die Stadt 76.000 Einwohner. Nach dem Überfall auf Polen wurde Elbing 1939 an den Regierungsbezirk Danzig im Reichsgau Danzig-Westpreußen angegliedert. Während des Zweiten Weltkrieges wurden in Elbing fünf Arbeitslager für vor allem polnische Zwangsarbeiter errichtet, die dem KZ Stutthof als Außenlager unterstellt waren. Außerdem gab es im Kreis Elbing 15 weitere Zwangsarbeitslager, die für die Rüstungsproduktion arbeiteten. Um den 23. Januar 1945 begann die Belagerung Elbings durch die Rote Armee. Die Stadt mit ihrer strategisch wichtigen Lage wurde bis zum 10. Februar verteidigt. Am Ende lagen 60 Prozent der Gebäudesubstanz der Stadt in Trümmern (insgesamt 5.255 Gebäude). Alle Baudenkmäler waren stark beschädigt, nur sechs Häuser in der Altstadt blieben stehen, darunter das "Kramer-Zunfthaus" und das Postamt. Etwa 5.000 deutsche Soldaten fielen, viele Zivilisten ertranken im Frischen Haff während der Flucht aus der belagerten Stadt. Im Jahre 1918 hatte Elbing Bücherschätze von europäischem Rang beherbergt. Im "Stadtarchiv", das im 17. Jahrhundert gegründet worden war, befanden sich viele wertvolle Pergamente aus dem 13. Jahrhundert und wertvolle historische Sammlungen aus dem 15. Jahrhundert. Die "Bibliothek am Gymnasium" (15.000 Bände) besaß unter anderem ein polnisches Gesetzbuch aus dem 13. Jahrhundert, die "Bibliothek an der Nikolaikirche" (gegründet vor 1403) 23 alte Handschriften und 1.478 alte theologische Werke. Die "Bibliothek an der Marienkirche" verfügte über eine herausragende Sammlung von Musikhandschriften – 520 Werke aus der Zeit vom 16. bis zum 19. Jahrhundert. Die "Stadtbibliothek" (gegründet 1601) hatte die wertvollste Sammlung: 30.000 Bände, darunter 214 Handschriften, 123 Inkunabeln und 770 Landkarten. Das "Stadtmuseum" beherbergte die ehemalige Bibliothek der Dominikaner, unter anderem 50 Handschriften und 15 Inkunabeln. Alle diese Bücherschätze sind seit 1945 verschollen. Volksrepublik Polen. Bis zum Ende des Zweiten Weltkrieges hatte die bis dahin zum Deutschen Reich gehörende Stadt rund 100.000 vorwiegend evangelische Einwohner deutscher Nationalität. Nachdem die Stadt im Frühjahr 1945 unter polnische Verwaltung gestellt wurde, erhielt sie die polnische Bezeichnung "Elbląg". Die deutschen Einwohner wurden fast vollständig vertrieben. Die ersten Vertreter der kommunistischen Behörden erschienen im März 1945 in Elbing. Sämtliche Maschinen in den Fabriken, die unzerstört geblieben waren – zum Beispiel in den Schichau-Werken – wurden zwischen 1945 und 1946 demontiert und als Reparationsleistung in die Sowjetunion abtransportiert. Auch Küchenherde, Kachelöfen, Badewannen, Junkers-Öfchen, Türschlösser und -klinken aus unzerstörten Privathäusern wurden dorthin verbracht. Zwischen 1946 und 1947 erfolgte die Vertreibung der verbliebenen deutschen Bevölkerung, vor allem in die britische Besatzungszone Deutschlands. Gleichzeitig begann die Ansiedlung von Polen, die aus ihrer Heimat östlich des Bug umgesiedelt wurden bzw. im Rahmen von Auslobungsverfahren aus Zentralpolen geworben wurden. Die sowjetischen Militärbehörden gaben 1946 den Seehafen an die polnische Stadtverwaltung. Da die Ausfahrt zur Ostsee bei Baltijsk ("Pillau") nunmehr unter sowjetischer Kontrolle stand, war die Nutzung des Hafens nur sehr eingeschränkt möglich. 1948 hatte die Stadt 40.000 Einwohner. Ab 1950 begann der Wiederaufbau der Elbląger Industrie. Elbląg wurde wieder zu einem wichtigen Zentrum der Maschinen- und Transportindustrie, außerdem besitzt die Stadt Holz-, Lebensmittel- und Textilindustrie. Die Stadt hatte im Jahr 1962 eine Anzahl von 81.400 Einwohnern. Viele Bewohner von Elbląg beteiligten sich 1970 zusammen mit Bürgern in Danzig und Stettin am Aufstand gegen die kommunistische Regierung in Polen. Elbląg wurde im Zuge der Polnischen Verwaltungsreform 1970 Hauptstadt der gleichnamigen Woiwodschaft. Die Streiks im August 1980 führten zum Aufbau der freien Gewerkschaft Solidarność unter Beteiligung vieler Einwohner Elblągs. Dritte Polnische Republik. Ab 1990 wurde die Altstadt unter Verwendung historistischer Bauformen wie spitze Giebel zur Straße sowie von Fachwerkimitationen wieder aufgebaut. Nach dem Jahr 2000 stehen wieder viele Gebäude nahe, aber nicht direkt an der Elbląger „Waterkant“. Die Stadt wurde 1992 zum Sitz eines katholischen Bistums erhoben, das zum neugeschaffenen Erzbistum Ermland gehört. Der Hafen bekam 1994 seine Rechte als Seehafen mit eingeschränkten Nutzungsmöglichkeiten zurück, da die Ausfahrt zur offenen Ostsee unverändert über russisches Hoheitsgebiet durch die Pillauer Meerenge in der Frischen Nehrung verläuft. Elbląg verlor bei der Verwaltungsreform 1998 seinen Rang als Hauptstadt einer Woiwodschaft, gehört seitdem zur von Olsztyn (Allenstein) aus verwalteten Woiwodschaft Ermland-Masuren und ist dort wieder Stadtkreis und Sitz der Kreisverwaltung für den Powiat Elbląski. Die Stadt erhielt 1999 den EU-Preis für Umweltpflege. Die Stadt erhielt 2000 die internationale Auszeichnung „Europäische Fahne“. Wappen. Blasonierung: „Von Silber und goldgegittertem Rot geteilt, oben und unten je ein Kreuz in verwechselten Tinkturen.“ Der noch erhaltene Bronzestempel des 1242 gebrauchten SIGILLVM BVRGENSIVM IN ELVIGGE zeigt auf Wellen eine von einem Schiffer linkshin gesteuerte Kogge, über der ein Kreuzlein schwebt. Auch der silberne Stempel des zweiten großen Siegels ist noch vorhanden; hierbei steht das Kreuzchen in der Flagge, während das dritte Schiffssiegel (15. Jahrhundert) darin die beiden Kreuze aufweist, die schon das Dekret des 14. Jahrhunderts im Dreieckschilde zeigt und die alle späteren Siegel enthalten. Sehenswürdigkeiten. Uferpanorama mit Nikolaikirche, vom anderen Flussufer aus gesehen Dom (ehem. Stadtpfarrkirche) St. Nikolai Ehemalige Marienkirche, Galeria El, davor Ausgrabungen von Kellergewölben aus der Altstadt (September 2008) Straßenverkehr. Elbląg liegt an den Droga krajowa 7 (ehemalige deutsche Reichsstraße 130) (Danzig–Warschau) und 22 (ehemalige Reichsstraße 1) nach Gorzów Wielkopolski "(Landsberg an der Warthe)" bzw. Kaliningrad ("Königsberg (Preußen)"). Eisenbahn. Elbląg besitzt einen Bahnhof an der Strecke Malbork–Braniewo–Mamonowo ("Marienburg"–"Braunsberg"–"Heiligenbeil") der ehemaligen Preußischen Ostbahn. Über ebendiese besteht eine tägliche Direktverbindung von Gdynia ("Gdingen") über Elbing nach Kaliningrad Pass (Königsberg Hbf). Die Haffuferbahn nach Braniewo "(Braunsberg)" über Kadyny "(Cadinen)", Tolkmicko "(Tolkemit)" und Frombork "(Frauenburg)" wird nur in den Sommermonaten zu touristischen Zwecken befahren. Luftverkehr. Elbląg verfügt über einen Verkehrslandeplatz im Stadtteil Nowe Pole ("Neustädterfeld"). Der nächste internationale Flughafen ist der Lech-Wałęsa-Flughafen in Danzig. Schiffsverkehr. Für den Schiffsverkehr wurde im Juni 2006 ein neuer Seehafen am Fluss Elbląg in Betrieb genommen, in dem jährlich bis zu 750.000 Tonnen Güter umgeschlagen werden können. Der Hafen ist auch für den Personen- und Autofährverkehr auf der Ostsee vorgesehen. Des Weiteren wurde der Jachthafen modernisiert. Elbląg verfügt jedoch über keinen freien Zugang zur Ostsee, der Schifffahrtsweg führt über das Frische Haff (polnisch "Zalew Wislany", russisch "Kaliningradski Zaliw") durch russische Hoheitsgewässer (Oblast Kaliningrad). Im Mai 2006 wurde dieser Weg von russischer Seite für den internationalen Verkehr gesperrt. Um diesem Problem aus dem Weg zu gehen, gibt es die Idee, einen Kanal durch die Frische Nehrung (polnisch "Mierzeja Wiślana") zur Ostsee zu bauen. Nach fünf Jahren ohne Schiffsverkehr fuhren ab Anfang 2011 wieder russische Frachtschiffe den Hafen an. Wirtschaft. Die ehemaligen Schichau-Werke wurden 1945 in ELZAM umbenannt und gehören seit 1990 zum Asea Brown Boveri-Konzern (nun Alstom). Der Betrieb produziert Turbinen und Elektromotoren. Die Brauerei Elbrewery (Marke "EB") ist der zweitgrößte Arbeitgeber der Stadt. Außerdem besitzt die Stadt bedeutende Transportmittelfabriken, eine Schiffswerft, und es haben sich Milch-, Fleisch-, Leder-, Textil- und Möbelindustrie angesiedelt. Kunst im öffentlichen Raum. Bewohner und Besucher der Stadt treffen an Straßen und Plätzen auf Skulpturen polnischer und internationaler Künstler und Künstlerinnen. Seit 1965 die erste Biennale der "Räumlichen Formen" stattfand, sind zahlreiche bleibende Werke entstanden, die das Stadtbild von Elbląg mitprägen. Prominenteste Teilnehmerin der ersten Biennale war Magdalena Abakanowicz mit der Stahlplastik "Standing Shape". 1973 fanden die Ausstellungen erst einmal ein Ende. Seit 1986 gibt es sie wieder. Eine wichtige Rolle bei der Durchführung der Biennale spielt die "Galeria-EL", (Pani Marii), die sich in dem Gebäude der ehemaligen St. Marien-Kirche, der ältesten Kirche Elbings, befindet. Diese entstand im 13. Jahrhundert als Kirchengebäude des Dominikaner-Ordens. Bis 1945 evangelische Kirche, wurde sie nach 1945 nicht mehr als Kirche genutzt. Die Stadtverwaltung hat hier eine Kunstgalerie eingerichtet, in der Bilder und Skulpturen zeitgenössischer Künstler gezeigt werden, die neben erhaltenen Grabplatten und Grabinschriften der Marienkirche ausgestellt sind und an die Verdienste ehemaliger Adels- und Kaufmannsfamilien, Stadtpatrizier und Geistlicher erinnern. Sport. Der Fußballverein Olimpia Elbląg spielt in der zweiten polnischen Liga. Landgemeinde. Die Stadt Elbląg ist Verwaltungssitz der gleichnamigen Landgemeinde Elbląg, gehört ihr aber als eigenständige Stadtgemeinde nicht an. Die Landgemeinde Elbląg ist Teil des Powiat Elbląski und bildet einen Gürtel um die kreisfreie Stadt Elbląg. Die Gemeinde zählt 7.239 Einwohner (30. Juni 2014) auf einer Fläche von 191 km² und gliedert sich in 37 Ortschaften, davon 24 mit einem Schulzenamt. Partnergemeinden der Gmina Elbląg sind Barßel in Niedersachsen seit 2001 sowie Chechelnyk in der Ukraine seit 2004. Eric Hoffer. Eric Hoffer (* 25. Juli 1902 in New York City; † 21. Mai 1983 in Kalifornien) war ein sozialkritischer US-amerikanischer Philosoph und Autor. Seine Ideen hat er in zehn Büchern dargestellt, deren erstes, "The True Believer", sowohl von ihm selbst als auch von der Kritik als sein bestes und wichtigstes angesehen wird. Im Februar 1983 wurde er von Ronald Reagan mit der Presidential Medal of Freedom ausgezeichnet. Leben. Hoffer wurde in New York City als Sohn elsässischer Einwanderer geboren. Mit fünf Jahren konnte er englisch und deutsch lesen, erblindete aber, nachdem seine Mutter mit ihm im Arm eine Treppe hinabgestürzt war. Im Alter von fünfzehn Jahren erlangte er sein Augenlicht zurück. Aus Angst, erneut zu erblinden, begann er so viel wie möglich zu lesen. Er verlor sein Augenlicht nicht, behielt aber die Angewohnheit, viel zu lesen, sein Leben lang bei. Nach dem frühen Tod seiner Eltern suchte Hoffer eine Beschäftigung, die ihm genug Zeit zum Lesen lassen würde. Er begab sich nach Kalifornien, wo er (nach Gerüchten) aus medizinischen Gründen nicht zum Militärdienst zugelassen wurde. Seine tiefe Ablehnung des Nationalsozialismus motivierte ihn, im "San Francisco Naval Shipyard" am Bau von Kriegsschiffen mitzuarbeiten. Während dieser Zeit begann er seine lebenslange Angewohnheit, sich neben seiner Tätigkeit als Gelegenheitsarbeiter (später in der Landwirtschaft, als Goldsucher oder Hafenarbeiter) umfassend literarisch zu bilden. Nachdem er eher zufällig die "Essays" von Michel de Montaigne in einer Gebrauchtbuchhandlung gefunden hatte, fühlte er sich zum Schreiben berufen. Hoffers Philosophie der Massenbewegungen. Hoffer war einer der ersten, die das Selbstwertgefühl als von zentraler Bedeutung für das psychische Wohlbefinden des Einzelnen erkannten. Im Gegensatz zum heute betonten Nutzen eines hohen Selbstwertes betrachtete Hoffer die Folgen eines mangelnden Selbstwertes. Er versuchte, die Ursachen totalitärer Massenbewegungen (exemplarisch in Hitlers Nationalsozialismus und Stalins Sowjetkommunismus) aus der psychischen Aufmachung der jeweiligen Anhänger zu verstehen. Allgemein sah er Fanatismus und Selbstgerechtigkeit durch Unsicherheit und Selbstzweifel hervorgerufen. Wie er in "The True Believer" ausführt, kompensieren nach seinen Beobachtungen Menschen die Inhaltsleere des eigenen Lebens durch eine leidenschaftliche Hinwendung an die äußere Welt oder eine Führerperson oder -ideologie. Obwohl Hoffer seine Vorstellungen in erster Linie an den totalitären Massenbewegungen seiner Zeit entwickelte, scheute er sich nicht, auch weniger extreme Bewegungen religiöser oder politischer Ausrichtung als Anlaufpunkt unsicherer Menschen zu bezeichnen. Hoffers Thesen waren nicht nur neu, sondern ohne jegliche Anlehnung an die psychologischen Lehren seiner Zeit (Freud'sche Psychologie). Bewunderer von Hoffers Ideen schreiben seiner Unabhängigkeit von der akademischen Welt und der Freiheit von Zwängen die Originalität seiner Ideen zu. Hoffer und die „Intellektuellen“. Hoffer war zu seiner Zeit einer der den USA zugeneigtesten Schriftsteller. Er verstand sich nicht als „Intellektueller“, insbesondere da er die Bezeichnung negativ für anti-amerikanische Akademiker verstand. Seiner Ansicht nach waren Akademiker in erster Linie machthungrig und kompensierten die ihnen in demokratischen Staaten (aber nicht totalitären Staaten) verweigerte Macht, indem sie sich durch übertriebene Kritik wichtig machten. Hoffer selbst sah seine eigene Herkunft aus einem bescheidenen Milieu als ermutigend. Er sah sich selbst als Außenseiter und verstand Außenseiter als Vorreiter der Gesellschaft. Obwohl er links eingestellten Akademikern deutlich kritisch gegenüberstand, kann man ihn nicht als Konservativen bezeichnen. Er stand außerhalb der Strömungen seiner Zeit und verstand sich als Hafenarbeiter, dessen Schreiben aus seinen Lebensumständen hervorgebracht worden sei. Vielleicht verband ihn deshalb mit einer anderen großen Außenseiterin des akademischen Betriebs, Hannah Arendt, eine besondere Sympathie. Elektromagnetische Welle. Als elektromagnetische Welle bezeichnet man eine Welle aus gekoppelten elektrischen und magnetischen Feldern. Beispiele für elektromagnetische Wellen sind Radiowellen, Mikrowellen, Wärmestrahlung, Licht, Röntgenstrahlung und Gammastrahlung. Elektromagnetische Wellen im Vakuum sind Transversalwellen. Die Wechselwirkung elektromagnetischer Wellen mit Materie hängt von ihrer Frequenz ab, die über viele Größenordnungen variieren kann. Die Transversalität ist unter Umständen verletzt, wenn – wie bei Plasmaschwingungen (Plasmonen) – Träger chemischer Eigenschaften, z. B. metallische oder gebundene Elektronen, beteiligt sind. Entsprechend unterscheiden sich die Quellen, Ausbreitungseigenschaften und Wirkungen der Strahlung in den verschiedenen Bereichen des elektromagnetischen Spektrums. Anders als zum Beispiel Schallwellen benötigen elektromagnetische Wellen "kein" Medium, um sich auszubreiten. Sie bewegen sich im Vakuum unabhängig von ihrer Frequenz mit Lichtgeschwindigkeit fort. In Materie ist die Ausbreitungsgeschwindigkeit vermindert. Dies wird durch den sog. Brechungsindex formula_1 ausgedrückt. Als Transversalwellen zeigen elektromagnetische Wellen das Phänomen der Polarisation. Im freien Raum stehen die Vektoren des elektrischen und des magnetischen Feldes senkrecht aufeinander und auf der Ausbreitungsrichtung. Diese Transversalität der freien elektromagnetischen Wellen macht sich explizit im sogenannten Fernfeld der Multipolstrahlung bemerkbar, was lichtelektrisch in die Abbesche Sinusbedingung der Mikroskopie eingeht (formula_2, wobei formula_3 der aufzulösende Abstand, formula_4 die sog. numerische Apertur, formula_5 der zugehörige Beugungswinkel, formula_6 die Lichtwellenlänge und formula_1 der Brechungsindex der Immersionsflüssigkeit ist.) Die typische Auflösungsgrenze der Fernfeldmikroskopie ist also formula_8. Höhere Auflösungen kann man mit der sog. Nahfeldmikroskopie erzielen, wobei man nicht – wie bei der Abbeschen Bedingung – das Fernfeld ausnützt, sondern das Nahfeld der Strahlung, das u. U. kleinere Abstände als die halbe Lichtwellenlänge auflöst, wobei aber u. a. die oben erwähnten Plasmon-Effekte explizit eingehen können. Elektromagnetische Wellen entstehen durch die Abstrahlung von Photonen aus angeregten Elementarteilchen. Vorhandene elektromagnetische Wellen feststellen und messen. Empfänger für elektromagnetische Strahlung nennt man Sensoren oder Detektoren, bei Lebewesen Photorezeptoren. Radiowellen können durch Antennen detektiert werden. An einer elektromagnetischen Welle lassen sich deren Geschwindigkeit messen, einerseits die im Vakuum universale Konstante Lichtgeschwindigkeit, sowie den in einem durchlässigen (durchsichtigen) Medium allenfalls davon abweichenden Wert. Messbar ist ferner die Intensität, gleich bedeutend mit der Leistung, bzw. mit der pro Zeit-Einheit durch einen bestimmten Querschnitt transportierten Energie. Um die Wellenlänge zu messen, gibt es unterschiedlich geeignete Methoden, je nachdem, ob es sich um kürzere oder längere Wellenlängen handelt. Wellencharakter. Physikalisch betrachtet handelt es sich bei elektromagnetischen Wellen um sich ausbreitende Schwingungen des elektromagnetischen Feldes. Hierbei stehen elektrisches und magnetisches Feld bei linear polarisierten Wellen senkrecht aufeinander und haben ein festes Größenverhältnis, welches durch die Wellenimpedanz gegeben ist. Insbesondere verschwinden elektrisches und magnetisches Feld an denselben Orten zur selben Zeit, so dass die häufig gelesene Darstellung, dass sich elektrische und magnetische Energie zyklisch ineinander umwandeln, im Fernfeld "nicht" richtig ist. Sie stimmt allerdings zum Beispiel für das Nahfeld eines elektromagnetische Wellen erzeugenden elektrischen Dipols oder Schwingkreises. Die Entstehung elektromagnetischer Wellen erklärt sich aus den maxwellschen Gleichungen: Die zeitliche Änderung des elektrischen Feldes ist stets mit einer räumlichen Änderung des magnetischen Feldes verknüpft. Ebenso ist wiederum die zeitliche Änderung des magnetischen Feldes mit einer räumlichen Änderung des elektrischen Feldes verknüpft. Für periodisch (insbesondere sinusförmig) wechselnde Felder ergeben diese Effekte zusammen eine fortschreitende Welle. "Beispiele für Experimente, in denen der Wellencharakter zum Tragen kommt:" Teilchencharakter. Für bestimmte Eigenschaften elektromagnetischer Wellen (z. B. Photoelektrischer Effekt) genügt das oben beschriebene Wellenmodell nicht mehr, um alle beobachtbaren Phänomene zu beschreiben, vielmehr treten die Teilcheneigenschaften einzelner Photonen, der Quanten des elektromagnetischen Feldes, in den Vordergrund. Der Wellencharakter (etwa Interferenz) bleibt aber voll erhalten. Man spricht deshalb vom Dualismus von Teilchen und Welle. Im Rahmen dieser Teilchenvorstellung des Lichtes wird jeder Frequenz formula_9 die Energie eines einzelnen Photons formula_10 zugeordnet, wobei formula_11 das Plancksche Wirkungsquantum ist. Andererseits haben auch Teilchen, wie zum Beispiel über mehrere Atome hinweg bewegte Elektronen, Welleneigenschaften (siehe auch Elektrischer Strom). Beide Aspekte elektromagnetischer Wellen werden theoretisch im Rahmen der Quantenelektrodynamik erörtert. "Beispiele für Wirkungen, in denen der Teilchencharakter zum Tragen kommt:" Photonen mit genügender Energie (etwa von einigen Elektronvolt aufwärts) wirken auf Materie ionisierend und können chemische ("photochemische") Wirkungen auslösen, wenn die Bindungsenergien überschritten werden (Fotochemie). Diese chemische Wirksamkeit wird gelegentlich als Aktinität bezeichnet. Wellen im Medium. Die Ausbreitungsgeschwindigkeit formula_12 in einem Medium ist typischerweise geringer als im Vakuum. Sie hängt in linearer Näherung von der Permittivität formula_13 und der Permeabilität formula_14 des Stoffes ab, und ist damit abhängig von der Frequenz der Welle (siehe Dispersion) und bei doppelbrechenden Medien auch von ihrer Polarisation und Ausbreitungsrichtung. Die Beeinflussung der optischen Eigenschaften eines Mediums durch statische Felder führt zur Elektrooptik bzw. Magnetooptik. Eine direkte Krafteinwirkung (z. B. Richtungsänderung) auf eine sich ausbreitende elektromagnetische Welle kann nur durch das Ausbreitungsmedium erfolgen (siehe Brechung, Reflexion, Streuung und Absorption) bzw. vermittelt werden (siehe Nichtlineare Optik und Akustooptischer Modulator). Spektrum. Elektromagnetische Wellen sind im elektromagnetischen Spektrum nach der Wellenlänge eingeteilt. Eine Liste von Frequenzen und Beispiele elektromagnetischer Wellen gibt es im entsprechenden Artikel. Der am besten bekannte und am meisten studierte Frequenzbereich elektromagnetischer Wellen ist das sichtbare Licht. Es stellt nur einen winzigen Teil des gesamten Spektrums dar und ist, mit Ausnahme der Infrarotstrahlung (Wärme), der einzige Bereich, der von Menschen ohne technische Hilfsmittel wahrgenommen werden kann. Bei niedrigeren Frequenzen ist die Energie der Photonen zu gering, um chemische Prozesse auslösen zu können. Bei höheren Frequenzen hingegen beginnt der Bereich der ionisierenden Strahlung (Radioaktivität), bei der ein einziges Photon Moleküle zerstören kann. Dieser Effekt tritt bereits bei Ultraviolett-Strahlung auf und ist für die Bildung von Hautkrebs bei übermäßiger Sonnenexposition verantwortlich. Beim Licht bestimmt die Frequenz die Farbe des Lichtes und nicht, wie oft fälschlicherweise angenommen, die Wellenlänge in einem Medium bei der Ausbreitung. Die Frequenz wird anders als die Wellenlänge beim Übergang in optisch dichtere Medien nicht beeinflusst. Da sich die Farbe aber beim Durchgang durch ein Medium nicht ändert, ist also nur die Frequenz charakteristisch für die Farbe des Lichts. In Spektren wird aus historischen Gründen jedoch immer noch die Wellenlänge als charakteristische Eigenschaft für Licht angegeben. Dieser Zusammenhang zwischen Farbe und Wellenlänge gilt dann aber nur im Vakuum (und in guter Näherung in Luft). Monochromatisches Licht, also Licht mit nur einer einzigen Wellenlänge, hat stets eine Spektralfarbe. Übersicht über das elektromagnetische Spektrum, sichtbarer Anteil detailliert Biologische und chemische Wirkung. Bei der Wechselwirkung von elektromagnetischer Strahlung mit biologischer Materie muss grundsätzlich zwischen ionisierender Strahlung (größer 5 eV) und nicht-ionisierender Strahlung unterschieden werden. Bei der ionisierenden Strahlung reicht die Energie aus, um Atome oder Moleküle zu ionisieren, d. h. Elektronen herauszuschlagen. Dadurch werden freie Radikale erzeugt, die biologisch schädliche Reaktionen hervorrufen. Erreicht oder übersteigt die Energie von Photonen die Bindungsenergie eines Moleküls, kann jedes Photon ein Molekül zerstören und es können biologische Wirkungen wie beispielsweise eine beschleunigte Alterung der Haut oder Hautkrebs auftreten. Chemische Bindungsenergien stabiler Moleküle liegen oberhalb von etwa 3 eV pro Bindung. Soll es zu Moleküländerungen kommen, müssen Photonen mindestens diese Energie besitzen, was violettem Licht oder höherfrequenter Strahlung entspricht. Bei der Wechselwirkung von nicht-ionisierender Strahlung unterscheidet man zwischen thermischen Effekten (Strahlung wirkt erwärmend, weil sie durch das Gewebe absorbiert wird), direkte Feldeffekte (induzierte Dipolmomente, Änderung Membran-Potentialen), Quanten-Effekte und Resonanzeffekte (Synchronisation mit Schwingung der Zellstruktur). Darüber hinaus werden mehrere weitergehende indirekte Effekte diskutiert. "Kleine" Mengen Photonen mit einer Frequenz unterhalb von 4·1014 Hz (Wellenlänge über 0,7 µm und Energie unter 1,7 eV; im oberen Bild rechts vom sichtbaren Licht, also Mikrowellen und Rundfunkwellen) können keine chemischen Reaktionen an Molekülen bewirken, die bei Zimmertemperatur stabil sind. Damit kann man nur Wasserstoffbrückenbindungen beeinflussen, die deutlich schwächer als die Bindungskräfte "innerhalb" eines Moleküls sind und wegen der ständigen Bewegung der Atome nur Bruchteile einer Sekunde bestehen bleiben. Kann man das komplette elektromagnetische Spektrum „sehen“? Das Molekül des Fotorezeptors Rhodopsin benötigt je nach Bauart mindestens ein Photon der Wellenlänge 700 nm oder kürzer, um mit einer Konformationsänderung zu reagieren, die dann vom Nervensystem weiter verarbeitet wird. Diese notwendige Wellenlänge kann durch Modifikationen der Molekülbauform geändert werden, wie im Bild rechts zu sehen ist. Die Mindestenergie der Photonen ist auch der Grund, wieso kein Lebewesen existiert, das Infrarot durch Nachweis von "Einzel"photonen sehen kann. Entsprechend können Lebewesen ohne technische Hilfsmittel auch nicht auf Radiowellen geringer Intensität reagieren. Abgrenzung. "Sehr viele" Photonen mit Frequenzen unterhalb von 1014 Hz, beispielsweise im Mikrowellenherd, bewirken einen allgemeinen Energieeintrag und damit eine Erhöhung der Temperatur. Diese kann – wie jede anders verursachte Überhitzung auch – die Struktur biologischer Moleküle ändern. Das hat mit den Eigenschaften von Photonen nichts zu tun. Das empfindliche Grubenorgan gewisser Schlangen reagiert "nicht" auf einzelne Photonen wie die Zellen der Netzhaut, sondern auf die Temperaturerhöhung, die durch die Gesamtenergie aller auftreffenden Photonen eingebracht wird. Lichtgeschwindigkeit und spezielle Relativitätstheorie. Wie schnell sich Licht ungefähr ausbreitet, war seit 1676 bekannt. Allerdings fehlte bis 1865 jeder Zusammenhang zu anderen physikalischen Erscheinungen. Diesen konnte damals James Clerk Maxwell herstellen, der aus gewissen mathematischen Beziehungen seiner Maxwell-Gleichungen die Existenz elektromagnetischer Wellen vorhersagte. Deren Geschwindigkeit stimmte mit der damals bereits gut bekannten Lichtgeschwindigkeit so gut überein, dass sofort ein Zusammenhang hergestellt wurde. Diese Wellen konnte Heinrich Hertz in den 1880er-Jahren experimentell nachweisen. In der klassischen Mechanik werden Wellen (in Ausbreitungsrichtung "x") durch die Wellengleichung beschrieben. Hierbei bezeichnet formula_17 die Auslenkung der Welle und formula_18 ihre Phasengeschwindigkeit, die hier als Ausbreitungsgeschwindigkeit der Welle interpretiert werden kann. Aus den Maxwellgleichungen lässt sich nun im Vakuum für die elektrische Feldstärke formula_19 die Beziehung herleiten (in SI-Einheiten; siehe Abschnitt Mathematische Beschreibung). Die elektrische Feldstärke verhält sich in dieser Beziehung also wie eine Welle; die Größe tritt als Ausbreitungsgeschwindigkeit auf. Diese Geschwindigkeit formula_18 hat eine bemerkenswerte Form: Sie ist ausschließlich aus fundamentalen Naturkonstanten zusammengesetzt, die unabhängig vom Bezugssystem des Betrachters sind, was sich folglich auf die Größe formula_18 überträgt. Grundlage der klassischen Mechanik ist das galileische Relativitätsprinzip, das besagt, dass die Naturgesetze in allen Inertialsystemen – solchen Bezugssystemen, in denen Körper, auf die keine Kraft wirkt, sich geradlinig fortbewegen – dieselbe Form haben ("Galilei-Invarianz"). Ein sich zu einem Inertialsystem mit konstanter Geschwindigkeit fortbewegendes Bezugssystem ist ebenfalls ein Inertialsystem. Nach diesem Relativitätsprinzip wäre nun zu erwarten, dass ein Beobachter, der sich mit einer konstanten Geschwindigkeit relativ zur elektromagnetischen Welle bewegt, eine unterschiedliche Ausbreitungsgeschwindigkeit misst, wie etwa auch ein mit konstanter Geschwindigkeit fortbewegender Spaziergänger am Rande eines Teiches eine andere Ausbreitungsgeschwindigkeit einer Wasserwelle auf dem Teich feststellen würde als ein ruhender Beobachter. Die Maxwellgleichungen sagen aber für beide Beobachter die gleiche Ausbreitungsgeschwindigkeit voraus – sie sind nicht Galilei-invariant. Dieser Widerspruch zur klassischen Mechanik löst sich allerdings nicht zu Ungunsten der Maxwellgleichungen auf: Die Tatsache, dass sich elektromagnetische Wellen (also Licht in einem weiter gefassten Sinne) in allen Inertialsystemen mit der gleichen Geschwindigkeit ausbreiten – die vielzitierte "Konstanz der Lichtgeschwindigkeit" − bildet ein Postulat Einsteins 1905 veröffentlichter spezieller Relativitätstheorie, die experimentell sehr gut bestätigt ist. An Stelle der Galilei-Invarianz tritt die sogenannte "Lorentz-Invarianz". Mathematische Beschreibung. Die elektromagnetische Wellengleichung (Herleitung weiter unten) ergibt sich direkt aus den Maxwellgleichungen sowie der Divergenzfreiheit elektromagnetischer Wellen und lautet im Vakuum Herleitung der elektromagnetischen Wellengleichung. Die zur Wellenausbreitung gehörigen mathematischen Beziehungen lassen sich auf Basis der maxwellschen Gleichungen nachvollziehen. Insbesondere lässt sich dieselbe Wellengleichung herleiten, mit der sich auch Schallwellen ausbreiten, obwohl dort völlig andere, rein mechanische Grundlagen maßgebend sind. Eine elektromagnetische Welle breite sich im Vakuum aus, und zwar im ladungsfreien Raum unter Ausschluss von dielektrischen, dia- und paramagnetischen Effekten (formula_27 und formula_28, siehe Materialgleichungen der Elektrodynamik). Die Stromdichte formula_29 und Ladungsdichte formula_30 betragen null. Ausgehend von der dritten maxwellschen Gleichung Setzt man darin die vierte maxwellsche Gleichung (mit formula_33) ein, Dazu gilt ganz allgemein die vektoranalytische Beziehung Dabei ist mit formula_37 (in Einsteinscher Summenkonvention äquivalent zu formula_38) die Anwendung des vektoriellen Laplace-Operators auf das Vektorfeld formula_39 gemeint. In kartesischen Koordinaten wirkt der vektorielle Laplace-Operator einfach wie der skalare Laplace-Operator formula_40 nur eben auf jede Komponente von formula_39. Fast alle Wellen lassen sich durch Gleichungen der Form beschreiben, wobei formula_47 die Ausbreitungsgeschwindigkeit der Welle ist. Damit erhält man aus (4) die Gleichung Analog kann man für die magnetische Flussdichte formula_51 die Beziehung herleiten. Die Lösungen dieser Gleichungen beschreiben Wellen, die sich im Vakuum mit Lichtgeschwindigkeit formula_18 ausbreiten. Breitet sich die elektromagnetische Welle in isotropem Material mit der Dielektrizitätskonstante formula_13 und der Permeabilität formula_14 aus, beträgt die Ausbreitungsgeschwindigkeit Darin sind aber im Allgemeinen die Materialkonstanten nicht linear, sondern können selbst beispielsweise von der Feldstärke oder der Frequenz abhängen. Während Licht sich in der Luft immer noch fast mit Vakuumlichtgeschwindigkeit formula_18 ausbreitet (die Materialkonstanten sind in guter Näherung 1), gilt das für die Ausbreitung in Wasser nicht, was unter anderem den Tscherenkow-Effekt ermöglicht. Das Verhältnis der Vakuumlichtgeschwindigkeit zur Geschwindigkeit im Medium wird als Brechungsindex formula_1 bezeichnet. wo formula_60 und formula_61 die relative Permeabilität und die relative Permittivität des Mediums bezeichnen. Ausbreitung elektromagnetischer Wellen. Mit Hilfe der Maxwellgleichungen lassen sich aus der Wellengleichung noch weitere Schlüsse ziehen. Betrachten wir eine allgemeine ebene Welle für das elektrische Feld wo formula_63 die (konstante) Amplitude ist, formula_9 eine beliebige formula_65-Funktion, formula_66 ein Einheitsvektor, der in Propagationsrichtung zeigt, und formula_67 ein Ortsvektor. Zunächst sieht man durch Einsetzen in die Wellengleichung, dass formula_68 die Wellengleichung erfüllt, dass also Damit formula_70 nun eine elektromagnetische Welle beschreibt, muss es aber nicht nur die Wellengleichung erfüllen, sondern auch die Maxwellgleichungen. Das bedeutet zunächst Das elektrische Feld steht also stets senkrecht zur Propagationsrichtung, es handelt sich also um eine Transversalwelle. Einsetzen von formula_70 in eine weitere Maxwellgleichung ergibt Die magnetische Flussdichte in der elektromagnetischen Welle steht also ebenfalls senkrecht zur Propagationsrichtung und auch senkrecht zum elektrischen Feld. Außerdem stehen ihre Amplituden in einem festen Verhältnis. Ihr Quotient ist die Lichtgeschwindigkeit formula_18 In natürlichen Einheiten (formula_78) sind die Amplituden sogar gleich. Mit dieser Beziehung lässt sich auch eine Aussage über die Energiedichte des elektromagnetischen Felds Nicht jede elektromagnetische Welle hat die Eigenschaft, dass ihre Ausbreitungsrichtung sowie die Richtungen des elektrischen als auch des magnetischen Feldes paarweise orthogonal zueinander sind, die Welle also eine reine Transversalwelle ist, auch TEM-Welle genannt. Die hier demonstrierten ebenen Wellen sind von diesem Typ, daneben existieren aber auch Wellen, in denen nur einer der beiden Feldvektoren senkrecht auf der Ausbreitungsrichtung steht, der andere aber eine Komponente in Ausbreitungsrichtung hat (TM- und TE-Wellen). Ein wichtiger Anwendungsfall für solche nicht rein transversale elektromagnetische Wellen sind zylindrische Wellenleiter. Das Gesagte gilt aber vor allem in Kristallen mit Doppelbrechung. Allerdings gibt es keine rein longitudinalen elektromagnetischen Wellen. Exobiologie. Die Exobiologie (aus ‚außer, außen‘ und Biologie) ist eine interdisziplinäre Naturwissenschaft, welche die Möglichkeit der Entstehung und Existenz von außerirdischem Leben erforscht und sich mit der allgemeinen Frage von Leben im All beschäftigt (siehe auch: Panspermie). Allgemeines. Die Bezeichnung "Exobiologie" wurde vor allem in der Frühzeit der Raumfahrt für den heute als Astrobiologie bezeichneten Begriff verwendet, wird heute aber nur noch für einen Teilbereich der Astrobiologie verwendet. Sie wurde von dem Biologen Joshua Lederberg in den 1960er Jahren geprägt und wird oft von einem biologischen Standpunkt aus benutzt. Die ESA benutzt diese Bezeichnung bevorzugt, und auch die NASA betreibt ein Exobiologie-Programm. Eine weitere Bezeichnung, "Kosmobiologie", stammt von dem Physiker John Desmond Bernal, wird aber selten benutzt. Nach Untersteiner (2006) ist die Exobiologie jener interdisziplinäre Wissenschaftszweig, der den Ursprung, die Verbreitung und die Evolution des Lebens im Universum untersucht. Das NASA Astrobiology Institute (NAI) definiert Exobiologie schlicht als „das Studium des lebenden Universums“. Damit schließt dieser Wissenschaftsbereich auch Fragen zur weiteren Evolution des irdischen Lebens und seiner möglichen Verbreitung im Universum mit ein. Die Exobiologie versucht auf drei Arten Leben außerhalb der Erde nachzuweisen. Elefanten. Die Elefanten (Elephantidae) (altgr. ἐλέφαντ- "eléphant-", Stamm von ἐλέφᾱς "eléphās" ‚Elefant‘) bilden eine Familie der Rüsseltiere. Diese Familie umfasst alle heute noch lebenden Vertreter der Rüsseltiere. Elefanten sind die größten noch lebenden Landtiere. Schon bei der Geburt wiegt ein Kalb bis zu 100 Kilogramm. Die Tragzeit ist mit 20 bis 22 Monaten die längste aller Landsäugetiere. Je nach Art kann ein Elefant im Durchschnitt zwischen 2 und 5 Tonnen Körpergewicht und eine Größe von bis zu 4 Metern erreichen. Das größte Exemplar war ein am 4. April 1978 im Damaraland (Namibia) erlegter Bulle, 4,21 Meter groß und 10,39 Meter lang. Der älteste Elefant lebte im Zoo von Taipeh und wurde 86 Jahre alt. Systematik. Eine Minderheit von Elefantenforschern und Kryptozoologen hat den Zwergelefanten "(Loxodonta pumilio)" als Art vorgeschlagen; diese ist jedoch in der Fachwelt nicht akzeptiert. Er soll neben dem großen Waldelefanten als kleinere Art im tropischen Regenwald (Gabun, Kongo, Kamerun) vorkommen. Auch genetische Untersuchungen an verschiedenen Exemplaren der zentralafrikanischen Region brachten keine Hinweise auf eine vierte Elefantenart. Die einzig bekannte Hybride zwischen einer asiatischen Elefantenkuh und einem afrikanischen Elefantenbullen wurde 1978 im Zoo von Chester geboren. Es handelte sich um das Bullenkalb „Motty“. Es starb zwei Wochen nach seiner Geburt. Verbreitung. Das Verbreitungsgebiet des Asiatischen Elefanten erstreckte sich früher im südlichen Asien durchgängig von Syrien bis zu weiten Teilen Chinas. Heute ist er noch in Vorder- und Hinterindien, Sri Lanka sowie einigen der großen Sundainseln zu finden. Der Afrikanische Elefant (= Steppenelefant) lebte früher auf dem gesamten afrikanischen Kontinent, heute befindet sich die nördlichste Grenze seines Verbreitungsgebietes im Süden des Sudans. Er kommt heute in vier getrennten Populationen vor: in den Savannen des östlichen und südlichen Afrika, in Westafrika, in der nördlichen Namib (Südwestafrika) und im zentralafrikanischen tropischen Regenwald. Im südlichen Afrika ist er vor allem in Nationalparks zu finden. Der Waldelefant lebt in den Regenwäldern Westafrikas, unter anderem in Kamerun, der Demokratischen Republik Kongo und der Zentralafrikanischen Republik. Alle heute noch lebenden Elefanten sind stark in ihrem Bestand gefährdet, da ihr Lebensraum beständig schrumpft und sie bis in die jüngste Zeit wegen ihrer aus wertvollem Elfenbein bestehenden Stoßzähne gejagt wurden. Anfang des 20. Jahrhunderts soll es in Afrika mehrere Millionen Elefanten gegeben haben. Der Bestand hat sich nach Daten des Kenya Wildlife Service Research Center in Tsavo-East von 1,2 Millionen im Jahre 1981 auf etwa 0,6 Millionen 1997 reduziert. Nach groben Schätzungen der Weltnaturschutzunion IUCN gab es 2012 zwischen 423.000 bis 660.000 Afrikanische Elefanten. Der Bestand des Asiatischen Elefanten soll sich laut WWF von etwa 160.000 Tieren Mitte des 20. Jahrhunderts über 34.000 bis 53.700 im Jahre 1990 auf schätzungsweise 25.600 bis 32.750 (zuzüglich etwa 15.000 Tiere in Gefangenschaft) im Jahre 2006 reduziert haben. Anatomie. Vergleich von Kopf und Vorderteil des Körpers von Asiatischem (1) und Afrikanischem (2) Elefanten Körperbau. Da die verschiedenen Elefantenarten eine unterschiedliche Anzahl Brust-, Lenden-, Kreuzbein-, und Schwanzwirbel besitzen, besteht ein Elefantenskelett aus 326 bis 351 Knochen. Etwa 394 Skelettmuskeln bewegen den Elefantenkörper. Die inneren Organe des Elefanten sind im Verhältnis nicht größer als bei anderen Säugetieren. Das Gehirn wiegt etwa vier bis fünf Kilogramm, das Herz – je nach Alter – zwischen zwölf und einundzwanzig Kilogramm. Es schlägt etwa 30 Mal pro Minute. Die Blutmenge entspricht etwa 10 Prozent des Körpergewichtes. Die Körpertemperatur eines gesunden Elefanten beträgt circa 36,5 °C. Die Haut ist etwa zwei Zentimeter dick. Im Gegensatz zu den meisten anderen Säugetieren befindet sich das Gesäuge bei den Elefantenkühen wie bei den Primaten und Seekühen zwischen den Vorderextremitäten. Damit das Elefantenkalb bei der Geburt sanft auf die Erde fällt, befindet sich die Geburtsöffnung nicht unter dem Schwanzansatz, sondern zwischen den Hinterbeinen. Dies verkleinert die Fallhöhe bei der Geburt von rund 1,70 Meter auf 70 Zentimeter. Während seit mindestens der Spätantike die Ansicht vertreten war, Elefanten hätten keine Ellenbogen- und Kniegelenke, ist mittlerweile bekannt, dass diese lediglich völlig frei sind. Das Kniegelenk des Elefanten zeigt eine erweiterte Ruheposition, sodass beim Stehen der Winkel zwischen Oberschenkel und Schienbein fast 180° beträgt. Dies ist für Quadrupeden ungewöhnlich und nur beim bipeden Menschen anzutreffen. Es gibt weitere Parallelen: Das Oberschenkelgelenk des Elefanten zeigt große Ähnlichkeit mit dem des Menschen. Die Menisken sind sehr schmal und dünn und das Kreuzbandsystem ist ebenfalls vorhanden. Die Bewegungsmuster der gewichtstragenden hinteren Gliedmaßen erinnern ebenfalls mehr an den Menschen als an cursoriale Quadrupeden. Die Hauptbewegung des Kniegelenks ist eine Extension-Flexion mit einem Aktionsradius von 142°. Im fortgeschrittenen Alter sind die Kniegelenke anfällig für Arthrose. Elefanten sind Zehenspitzengänger. Sie haben zur Unterstützung einen sechsten „Zeh“ an der Hinterseite des Fußes. Eine weitere anatomische Besonderheit der Elefanten betrifft ihren Pleuraspalt. Als einzige Säugetiergruppe ist dieser durch lockeres Bindegewebe überbrückt. Dadurch sind die Pleurablätter trotzdem weiterhin gegeneinander verschiebbar, aber bei Weitem nicht so empfindlich. Dies ermöglicht es Elefanten beispielsweise, einen Fluss zu durchqueren und währenddessen mit ihrem langen Rüssel zu „schnorcheln“. Dabei atmen sie Luft mit atmosphärischem Druck ein, während sich ihr Körper, und damit insbesondere die Lunge, etwa 2 Meter unter Wasser befindet. Diese Druckdifferenz würde bei jedem anderen Säugetier (mit „normalem“ Pleuraspalt) dazu führen, dass die Blutgefäße, die das Wandblatt der Pleura versorgen, förmlich „ausgequetscht“ und zerstört würden. Gebiss und Zahnwechsel. Blick auf die Gaumenseite des Schädels eines gewilderten Afrikanischen Elefanten ohne Stoßzähne, links ist vorn. Zum Zeitpunkt des Todes befanden sich vier Backenzähne im Kiefer, die jeweils vorderen waren auf der ganzen Länge in Funktion. Am vorderen Ende der beiden hinteren, noch nicht voll durchgebrochenen Backenzähne zeigen sich erste Abnutzungsspuren. Elefanten besitzen zwei Arten von Zähnen: die zu Stoßzähnen gewandelten, hypertrophierten mittleren Oberkieferschneidezähne (I2) und die Backenzähne. Die Backenzähne sind hochkronig ("hypsodont") und weisen relativ engständige, lamellenartige Schmelzfalten auf. Dieser Zahnbau wird entsprechend als "lamellodont" bezeichnet. Am größten ist der jeweils letzte Backenzahn, der bis zu 5 kg wiegen kann und beim Afrikanischen Elefanten bis zu 13, beim Asiatischen bis zu 24 Schmelzfalten besitzt. Das ausgestorbene Wollhaarmammut ("Mammuthus primigenius") hatte als am stärksten spezialisierte Elefantenart Backenzähne mit bis zu 30 Schmelzfalten. Zwischen den Stoßzähnen und den Backenzähnen befindet sich ein zahnfreier Bereich, der allgemein als Diastem bezeichnet wird. Ein solches Diastem ist typisch für das Gebiss pflanzenfressender Säugetiere. Über das ganze Leben hinweg betrachtet, verfügt ein Elefant über 6 Backenzähne pro Kieferhälfte: 3 Prämolaren und 3 Molaren, wobei die Prämolaren den Milchbackenzähnen entsprechen, die Molaren den auch bei anderen Säugetieren üblichen hinteren Backenzähnen (das Gebiss ausgewachsener Elefanten hat demzufolge keine Prämolaren mehr), also insgesamt 24 Backenzähne. Da die Kiefer der Elefanten relativ kurz und die Backenzähne relativ groß sind, trägt eine Kieferhälfte immer nur zwei bis drei Backenzähne gleichzeitig, wobei aber nur ein Teil durchgebrochen, also sichtbar ist. Die Kaufläche wird stets nur von dem Backenzahn oder den Backenzähnen gebildet, die sich nahe dem Diastem befinden (also im vorderen Bereich des Kiefers). Ausgewachsene Elefanten haben so maximal anderthalb Backenzähne je Kieferast gleichzeitig in Funktion. Beim Kauen bzw. Zermahlen der relativ harten Pflanzennahrung nutzen sich die Zähne stark ab. Um zu gewährleisten, dass die Mahlleistung stets gleich bleibt, wandert vom hinteren Ende des Kiefers kontinuierlich, wie auf einem sehr langsamen Fließband, „frisches“ Zahnmaterial zum Diastem hin. Diese Wanderung wird durch Resorption und Neuaufbau von Kieferknochensubstanz ermöglicht. Bei den stark abgenutzten Zahnteilen unmittelbar am Diastem wird die Wurzel resorbiert, sodass sie absterben, keinen Halt mehr im Kiefer haben und schließlich abbrechen. Nachdem die ersten drei Backenzähne des Jugendstadiums ausgefallen sind, erfolgt der vollständige Durchbruch des vierten im Alter von etwa 10 bis 14 Jahren, der des fünften mit 26 bis 27 Jahren und des sechsten und letzten mit 34 bis 37 Jahren (jeweils gerechnet auf das Lebensalter eines Afrikanischen Elefanten). Wenn ein Elefant noch zu Lebzeiten alle seine 24 Backenzähne verschlissen hat, muss er verhungern (für in Gefangenschaft gehaltene Tiere wird gelegentlich Zahnersatz angefertigt). Diese spezielle Form der Erneuerung von Zahnsubstanz wird "horizontaler Zahnwechsel" genannt und kommt fast ausnahmslos bei Elefanten vor. Sie hat sich innerhalb der Rüsseltiere schon stammesgeschichtlich sehr früh entwickelt und ist erstmals bei der Gattung "Eritreum" im Oberen Oligozän vor rund 27 Millionen Jahren nachgewiesen. Die aus Elfenbein bestehenden Stoßzähne werden vor allem zum Entrinden der Bäume sowie als Waffe gegen Feinde eingesetzt, wobei die Stoßzähne mehr dem Imponiergehabe als dem wirklichen Kampf dienen. Rüssel. Ein Arbeitselefant in Thailand stößt Wasser durch seinen Rüssel aus. Ein Rüssel ist eine verlängerte Nase mit Nasenlöchern (Rüsselloch). Bei Elefanten ist der Rüssel ein äußerst feinfühliges und langes Organ, das im Lauf der Phylogenese aus Oberlippe und Nase entstand. Etwa 40.000 zu Bündeln verflochtene Muskeln machen den Rüssel sehr beweglich. Der Rüssel enthält kein Nasenbein oder andere Knochen. Er besteht ausschließlich aus Muskelgewebe und ist das auffälligste anatomische Merkmal der Elefanten. Der Rüssel ist ein Multifunktionsorgan, welches als Tast- und Greiforgan, zur Atmung und Geruchswahrnehmung sowie als Waffe und Drohmittel und als Saug- und Druckpumpe beim Trinken dient. Während der Rüssel des afrikanischen Elefanten in zwei fingerartigen Fortsätzen endet, ist es beim indischen Elefanten nur einer. An seiner Spitze befinden sich empfindliche Tasthaare, die kleinste Unebenheiten wahrnehmen. Dadurch eignet sich der Rüssel auch zum Tasten. Bei der Kontaktaufnahme zu Artgenossen in der Herde wird der Rüssel eingesetzt: gegenseitiges Umschlingen der Rüssel als Liebes- und Freundschaftszeichen und beim Spiel. Mit dem Rüssel werden Staub und Schmutz auf der Haut verteilt, was zum Schutz vor der starken Sonneneinstrahlung und vor Insekten geschieht. Der Rüssel wird zum Greifen von Gegenständen benutzt, beispielsweise, um sie zum Mund zu führen. Ausgebildete Arbeitselefanten können in Zusammenarbeit mit dem Elefantenführer Gegenstände von erheblichem Gewicht mit Hilfe des Rüssels – mit Unterstützung der Stoßzähne – manipulieren, heben und bewegen. Mit Hilfe des Rüssels kann ein Elefant Äste und Pflanzen aus bis zu sieben Meter Höhe erreichen. Ähnlich einem Giraffenhals verdoppelt er damit seine Streckhöhe. Gelegentlich wird der Elefantenrüssel beim Baden oder Schwimmen als eine Art Schnorchel eingesetzt, zum Riechen wird er hoch in die Luft gehalten. Durch Heben des Kopfes und des ausgestreckten Rüssels 30 bis 40 Grad über die Horizontale nimmt ein Elefant eine dominante Haltung ein. Der Rüssel kann ebenso als Schlagwaffe dienen, indem er beispielsweise eingerollt (ähnlich einem aufgewickelten Schlauch, zur Innenseite hin – Richtung Mund) und dann zum Schlag mit viel Kraft wieder gestreckt wird; seitliche Hiebe mit dem schwingenden Rüssel sind sehr kraftvoll. Es passen pro Zug zirka 8 bis 10 Liter Wasser in den Rüssel. Mit Hilfe seines Rüssels kann ein Elefantenbulle in 5 Minuten 200 Liter Wasser trinken. Gehirn. Das Gehirn eines heutigen Elefanten hat 257 Milliarden Nervenzellen, etwa die 3-fache Menge des menschlichen. In der Großhirnrinde sind davon aber nur 5,6 Milliarden; dort hat der Mensch das Dreifache an Zellen. Zytologie. In den Zellkernen des Afrikanischen Elefanten befindet sich ein doppelter Chromosomensatz mit zweimal 27 Autosomen und zwei Geschlechtschromosomen. Das Genom wurde erstmals im Jahre 2009 vollständig sequenziert. Das Referenzgenom besteht aus 3.196.743.967 Basenpaaren. Die genaue Zahl der Gene ist noch unbekannt. Ernährung und Verdauung. Elefanten sind ausnahmslos Pflanzenfresser und ernähren sich vor allem von Gräsern und Blättern, fressen bei Nahrungsknappheit Äste, Dornbüsche und ähnliche Nahrung. Sie nehmen täglich etwa 200 Kilogramm Nahrung zu sich. Dazu brauchen sie 17 Stunden am Tag. Sie fressen vor allem Gras, gefolgt von Früchten, Wurzeln, Zweigen und Rinde. Der Rüssel ist bei der Nahrungsaufnahme als Greiforgan enorm nützlich. Mit den fingerartigen Fortsätzen können sie einzelne Halme und Gräser aufnehmen. Ihre Nahrung verwerten sie zu etwa 40 Prozent, da sie ein weniger effizientes Verdauungssystem haben als etwa die Wiederkäuer. Wasser ist für die Elefanten ein wichtiger Lebensfaktor. Sie trinken 70 bis 150 Liter Wasser am Tag. Ihre Harnblase fasst dabei etwa 18 Liter. Täglich benötigen Elefanten etwa 250.000 Kilokalorien. Der Elefantenmagen fungiert primär als Reservoir für die Nahrung, die in dem sauren Milieu bei einem pH-Wert von ca. 2 vorverdaut wird. Der wesentliche Teil der Verdauung findet erst nach Passage des Magens im Blinddarm und Colon durch Mikroorganismen (Bakterien und Protozoen) statt. Ähnlich wie bei Equidae kann der Kot teilweise wieder aufgenommen werden, damit die enthaltenen Nahrungsstoffe besser genutzt werden. Natürliche Feinde. Durch ihre Größe und ihr Leben im Herdenverband haben Elefanten wenige natürliche Feinde. Nur den größten Raubkatzen wie Löwen und Tigern gelingt es bisweilen, Jungtiere zu erbeuten. In einigen Gebieten Afrikas scheinen Elefanten häufiger von Löwen erbeutet zu werden als bisher angenommen. Im Eiszeitalter hatten Elefanten darüber hinaus noch die mittlerweile ausgestorbenen Säbelzahnkatzen zu fürchten. Insbesondere für die Gattung "Homotherium" konnte zumindest lokal eine Nahrungspräferenz für junge Präriemammuts nachgewiesen werden. Verhalten. Badende afrikanische Elefanten im Addo Elephant National Park in Südafrika Elefanten leben in Herden, bestehend aus Kühen und Kälbern. Die Herden werden von einer Leitkuh angeführt, die eine Vorbildrolle innerhalb der Gruppe einnimmt. Dabei handelt es sich meist um eine sehr erfahrene, mittlerweile unfruchtbar gewordene Kuh im Alter zwischen 40 und 50 Jahren. Fehlen Vorbilder wie diese Leitkuh, etwa weil sie getötet wurden, so hat dies schwerwiegende Folgen: Die Kälber werden von den verbliebenen jungen Müttern aufgezogen, und daher werden viele soziale Werte nicht vermittelt. Man spricht bei Elefanten von einem "Matriarchat", analog zum Matriarchat in menschlichen Gesellschaften. Die Größe der Herde variiert mit dem Nahrungsangebot. Ist reichlich Nahrung vorhanden, so schließen sich kleinere Familienherden zu größeren zusammen. Bei akutem Nahrungsmangel kommt es oft vor, dass einzelne Familien – bestehend aus ein bis zwei Kühen mit ihren Nachkommen – „Miniherden“ bilden und allein unterwegs sind. Ebenfalls von der Nahrung abhängig ist das Wanderverhalten der Herden. Während sie bei hohem Nahrungsangebot relativ ortsbeständig sind, bewegen sie sich in Trockengebieten mit schlechter Nahrungsversorgung oft über lange Strecken, um Nahrung zu finden. Dabei bilden sich sogenannte „Elefantenstraßen“, die bereits lange Zeit bestehen und immer wieder benutzt werden. Im Alter von etwa 12 Jahren trennen sich Bullen von den übrigen Herdentieren. Nur zur Brunftzeit stoßen sie zu den Herden, um sich zu paaren. Außerhalb der Paarungszeit bestreiten sie ihr Leben entweder als Einzelgänger oder in losen Gruppen. In der Vergangenheit kam es zumindest in Afrika mehrfach vor, dass solche Gruppen als aggressiv auffielen, indem sie beispielsweise Nashörner töteten. Ursache dieses Verhaltens könnte eine Art posttraumatische Belastungsstörung durch Zusammenstöße mit Wilderern sein. Die Gehirnstruktur solcher Elefanten weist Parallelen zur Gehirnstruktur traumatisierter Menschen auf. Elefantenbullen erleben periodisch eine Verhaltensänderung, deren Dauer stark variieren kann und die als Musth bezeichnet wird. Durch eine Versuchsreihe im New Yorker Bronx-Zoo ließen sich Anzeichen ermitteln, die nahelegen, dass Elefanten über ein Ich-Bewusstsein verfügen. Asiatische Elefanten wurden hierfür einem Spiegel-Selbsterkennungstest unterzogen. Die Ergebnisse zeigten, dass Elefanten wie Delfine und Menschenaffen dem Anschein nach die Fähigkeit besitzen, sich selbst im Spiegel zu erkennen. Dies deutet auf das Vorhandensein eines Ichbewusstseins hin. Außerdem konnte nachgewiesen werden, dass Elefanten in der Lage sind, zu zählen und einfachste Additionsaufgaben zu lösen. Wahrscheinlich erlaubt ihnen diese Fähigkeit, die Vollständigkeit der Herde zu überprüfen. Elefanten sind in der Lage, Stoßzähne und Knochen von toten Artgenossen zu erkennen. Dies ergab eine Studie im Amboseli-Nationalpark, die von der University of Sussex durchgeführt wurde. Sie scheinen sich auch für den Verbleib von toten Artgenossen zu interessieren. So suchen sie Dörfer auf, deren Bewohner einen Elefanten ihrer Herde getötet haben. Entgegen der weitverbreiteten Ansicht kommunizieren Elefanten überwiegend nicht durch Trompetenlaute. Diese erzeugen sie nur in bestimmten Stimmungslagen (z. B. Aufregung, Angst, Aggressivität). Zur Verständigung mit Artgenossen nutzen sie zu ⅔ Infraschall-Laute. Diese für Menschen unhörbaren Schwingungen werden durch die Luft und durch das Erdreich über dutzende Kilometer übertragen. Auf diese Weise können die Tiere mit weit entfernten Artgenossen kommunizieren. Elefanten erkennen an der Stimme, ob Menschen ihnen gefährlich werden können. Verzerrte und verfremdete Stimmen erkennen sie. Stammesgeschichte der Elefanten. a> gehören zur Familie der Elefanten Stammesgeschichtlich sind Elefanten eine relativ junge Familie der Rüsseltiere "(Proboscidea)". Die frühesten Rüsseltiere stammen aus dem Paläozän Nordafrikas und sind etwa 60 Millionen Jahre alt. Die Rüsseltiere bildeten verschiedene Familien aus, dazu zählen die Moeritherien, die Deinotherien, die Barytherien, die Gomphotherien, die Echten Mastodonten und die Stegodonten. Diese ausgestorbenen Rüsseltiere waren keine Elefanten, obwohl sie teilweise ganz ähnlich aussahen. Einige dieser Familien wie die Stegodonten, die Gomphotherien und die Echten Mastodonten waren bis ins Eiszeitalter Zeitgenossen der Elefanten. Die Elefanten entwickelten sich aus der Familie der Stegodonten. Die Entwicklungslinie zu den Elefanten begann im späten Miozän vor etwa 7 Millionen Jahren durch Gattungen wie "Primelephas" und "Stegotetrabelodon", die sich durch die fehlende Zahnschmelzhülle um ihre vier Stoßzähne und das Vorhandensein von Schmelzlamellen auf den Backenzähnen von anderen Rüsseltieren unterschieden. Die Schmelzlamellen gelten als besonders charakteristisches Merkmal für Angehörige der Elephantidae und stellen eine Anpassung an Grasnahrung dar. Eine andere Rüsseltierfamilie, die Stegodonten, entwickelte unabhängig ähnliche Strukturen, die den Schmelzlamellen der Elefanten entsprachen. Die Gattung "Elephas" entstand im späten Miozän Afrikas, molekulargenetischen Analysen zufolge spalteten sich "Elephas" und "Loxodonta" vor 7,6 Millionen Jahren auf, und verbreitete sich von dort aus über Eurasien. Die früheste bisher bekannte Art mit einem Alter von rund 6,5 Millionen Jahren ist "Elephas nawataensis. "Eine der bekanntesten ausgestorbenen "Elephas"-Arten, die gewöhnlich als Altelefanten bezeichnet werden, ist der Europäische Waldelefant ("Elephas antiquus"). Die Zwergelefanten (beispielsweise der Sizilianische Zwergelefant), die im Pleistozän auf einigen Inseln des Mittlermeeres und Südostasiens verbreitet waren, gehören zu dieser Gattung. Mit dem Ende des Pleistozäns war "Elephas" ausschließlich auf Asien beschränkt, eine kleine Population von Zwergelefanten überlebte aber noch bis um 1.300 v. Chr. auf der Mittelmeerinsel Tilos. Heute lebt als einzige Art der Indische Elefant "(Elephas maximus)". Die zweite noch existierende Gattung "Loxodonta" entstand im ebenfalls im ausgehenden Miozän Afrikas und ist gegenwärtig durch zwei Arten, den Afrikanischen Steppenelefanten "(Loxodonta africana)" und den Waldelefanten "(Loxodonta cyclotis)", repräsentiert. Sie trat erstmals mit "Loxodonta cookei" vor etwa 7 Millionen Jahren in Erscheinung. Die bekanntesten fossilen Elefanten sind zweifellos die Mammuts "(Mammuthus" bzw. "Mammonteus)". Diese Gattung hatte sich laut molekulargenetischen Untersuchungen vor 6,7 Millionen Jahren von "Elephas" getrennt. Erste Nachweise stammen mit der frühpliozänen Art "Mammuthus subplanifrons" ebenfalls aus Afrika. Die ursprüngliche Form "Mammuthus meridionalis", auch unter dem Namen Südelefant bekannt, erreichte vor mindestens drei Millionen Jahren Eurasien und verbreitete sich von dort aus bis nach Nordamerika. Zu Beginn der Eiszeit lebte das Steppenmammut "Mammuthus (=Mammonteus) trogontherii," welches später durch das Kaltsteppen- oder Wollhaarmammut "Mammuthus (=Mammonteus) primigenius" abgelöst wurde. Dieses wird umgangssprachlich auch als Echtes Mammut bezeichnet. Teile von Wollhaarmammuts werden heute noch häufig im sibirischen Dauerfrostboden gefunden. Dabei handelt es sich vor allem um Knochen und Haare, gelegentlich finden sich jedoch auch erstaunlich gut erhaltene Mammuts im Eis. Das Mammutelfenbein wurde von alters her vor allem in China und Russland zur Elfenbeinschnitzerei genutzt. Die Menschen im späten Pleistozän jagten die Tiere, und nach verschiedenen Theorien waren sie möglicherweise für das Aussterben der letzten Mammuts verantwortlich. Alternative Theorien gehen von einer Abfolge vieler schwerer Winter und Nahrungsknappheit aus. In den meisten Gebieten Eurasiens und Nordamerikas verschwanden die Mammuts vor etwa 10.000 Jahren, die letzten lebten vor etwa 3700 Jahren auf der Wrangelinsel. Mensch und Elefant. Dressierte Elefantenkuh. Zu erkennen sind das Gesäuge und die Geburtsöffnung (Vulva). Elefanten im Porzellanladen (Majolika-Manufaktur), Karlsruhe Es gibt heute noch Menschen, die den Elefanten wegen seiner Stoßzähne illegal jagen. Asiatische Elefanten sind auch Nutztiere und werden in einigen Ländern beispielsweise zur Lastenbeförderung eingesetzt. Dabei kommt es jedoch häufig zu Unfällen, da gerade Nutztier-Elefanten äußerst aggressiv werden können. Wegen ihrer Intelligenz und beeindruckenden Größe sind Elefanten ferner als Dressurtiere im Zirkus verbreitet. In Zoos zählen die Dickhäuter zu den beliebtesten Attraktionen und ziehen jährlich ganze Scharen von Besuchern an. Die Haltung der großen Tiere ist allerdings problematisch und kann zu Unfällen zwischen Elefant und Mensch führen. Die "European Elephant Group", ein „Zusammenschluss von Menschen, denen das Schicksal von Elefanten, die als Folge nicht tiergerechter Haltung mittel- oder unmittelbar durch Schäden an ihrer physischen bzw. psychischen Gesundheit bedroht sind, am Herzen liegt“, bezeichnet die grauen Riesen als die gefährlichsten Wildtiere in Menschenhand, da es immer wieder zu Unfällen mit dem Pflegepersonal kommt. Sie berichtet allein von 51 Toten und mehr als 100 Verletzten in Zoos und Safariparks seit 1980. Elefanten können zahlreiche Verhaltensstörungen entwickeln, von denen das rhythmische Hin- und Herbewegen (Weben) vielleicht die bekannteste ist. Mensch-Elefant-Konflikte. In freier Wildbahn kommt es, insbesondere durch die zunehmende Einengung der Lebensräume des Elefanten, immer wieder zu Konflikten zwischen Elefant und Mensch, die durch die „Human-Elephant Conflict“-Statistik (HEC) erfasst werden. Elefanten leben in freier Wildbahn in 37 afrikanischen und 12 asiatischen Staaten. Nach Schätzungen werden weltweit jährlich über 500 Menschen durch Elefanten getötet, davon allein 300 in Indien. Gleichzeitig werden tausende Elefanten durch Menschen getötet – vielfach durch Bauern, die ihre Felderträge schützen wollen, oder als Vergeltung für menschliche Todesopfer, in zunehmendem Maße wieder durch Wilderei. Die Zahl der derzeit (Stand 2009) für den Elfenbeinhandel in Afrika gewilderten Elefanten wird auf 38.000 Tiere pro Jahr geschätzt. Darüber hinaus werden Elefanten durch die Auswirkungen menschlicher Auseinandersetzungen, etwa durch Landminen in Sri Lanka, getötet. Elefanten in der menschlichen Geschichte. Schon im 3. Jahrtausend v. Chr. waren Elefanten im ägyptischen Einflussgebiet ausgestorben oder ausgerottet. Thutmosis III. ging nach einem erfolgreichen Eroberungsfeldzug in Asien auf Elefantenjagd. Assyrische Königsinschriften des 8. bis 7. Jahrhunderts v. Chr. berichten von der Elefantenjagd im heutigen Syrien, was entsprechende Knochenfunde belegen. Während in Indien Arbeitselefanten bereits im Altertum eingesetzt wurden, kannten die Griechen zunächst nur das Elfenbein als Handelsobjekt. Erste Begegnung mit Elefanten hatten sie bei der Schlacht von Gaugamela. Später wurden in allen Diadochen-Heeren bis zu 500 Kriegselefanten gleichzeitig eingesetzt. Einer von ihnen, Pyrrhus, setzte sie bei seinen Kämpfen gegen Rom ein. Nach der Region, in der der erste Kampf stattfand, nannten die Römer die Elefanten anfänglich „lukanische Ochsen“ ("boves Lucas"). Der karthagische Feldherr Hannibal überquerte 218 v. Chr. mit Kriegselefanten die Alpen. In Rom waren die ersten Elefanten im Triumphzug 275 v. Chr. zu sehen. Seit 169 v. Chr. wurden sie im Zirkus zur Schau gestellt. Im 1. Jahrhundert n. Chr. wurden Elefantenschaukämpfe gegen Tiere und Menschen Mode, die in der späteren Kaiserzeit durch artistische Darstellungen abgelöst wurden. Im Triumphzug mit vorgespannten Elefanten (Quadriga) scheiterte Pompeius 81 v. Chr. an den engen Stadttoren Roms. Dies sollte später Severus Alexander und Gordian I. gelingen. In die europäische Geschichte namentlich eingegangen sind Abul Abbas, ein Geschenk des Kalifen Harun ar-Raschid an Karl den Großen, Hanno, das Lieblingstier Papst Leos X., Soliman, der erste Elefant in Wien, Hansken (1630–1655), eine gelehrte Elefantendame des 17. Jahrhunderts, und Jumbo (ca. 1861–1885), der "König der Elefanten". Ludwig IX., "der Heilige," brachte 1255 nach einem Kreuzzug einen Elefanten nach Frankreich, den er an Heinrich III. von England weiterverschenkte. Ludwig XIV. von Frankreich hielt 13 Jahre lang ein seltenes afrikanisches Exemplar in Versailles. In Asien gibt es noch heute Elefantenschulen, in denen Elefanten für Touristen, oder für die Arbeit abgerichtet werden. Indische, thailändische und sri-lankische Elefantenführer werden genannt. Elefanten in Symbolik und Mythologie. Der Elefant gilt als weise, stark und keusch, aber auch als böse. Er ist auch ein Symbol für die Mäßigkeit. Er ist das Wappentier mehrerer asiatischer und afrikanischer Staaten sowie das politische Wappentier der Republikaner in den USA. Der höchste dänische Orden heißt Elefantenorden. Die Seekriegsflagge Thailands ziert ein weißer Elefant, der dort als Zeichen von Macht verehrt wird. In der indischen Mythologie ist Airavata der erste Elefant. Gott Ganesha erscheint mit dem Kopf eines Elefanten. Er ist eine der beliebtesten Gottheiten des Hinduismus und gilt als Verkörperung von Weisheit und Wohlstand und als Helfer in schwierigen Lebenssituationen. Die buddhistische Überlieferung kennt eine Legende, nach der Mahamaya, der Mutter Siddhartha Gautamas, vor dessen Geburt ein weißer Elefant erschien. Im Gleichnis „Die blinden Männer und der Elefant“, das im Sufismus, Jainismus, Buddhismus und Hinduismus erzählt wird, geht es um die begrenzte Fähigkeit des Menschen, die Realität – symbolisch durch den Elefanten dargestellt – so zu erkennen und zu verstehen, wie sie "wirklich" ist. In China erscheint ein weißer elefantenköpfiger Gott, der eine jungfräuliche Göttin, Moye, schwängert. Moye gebiert den Helden Fu-Hi. In China gelten Elefanten noch heute als Symbol für männliche Potenz. Im Judentum bzw. Christentum taucht der elefantenköpfige Dämon Behemoth auf, und auch er symbolisiert die „Fleischlichkeit“ (sexuelle Energie). Die Verbindung zwischen Elefanten und sexueller Energie existierte in Heldenepen des europäischen Mittelalters, in denen „Hörner aus Elfenbein“ eine wichtige Rolle spielten (z. B. das Horn "Olifant" im Rolandslied). Gemahlenes Elfenbein gilt noch heute bei einigen asiatischen Völkern als Potenzmittel. In eine andere Richtung deutet dagegen die Legende vom Elefantenfriedhof. Seit dem indischen Chaturanga bestand in vielen historischen Schachformen eine Elefantenfigur. Schließlich ist der Begriff des Elefanten teilweise auch negativ besetzt. So knüpft die Redensart „wie ein Elefant im Porzellanladen“ an die Vorstellung an, Elefanten seien ungeschickt. Rezeption. In den Medien sind Elefanten zu finden, die sich meist speziell an Kinder richten. So gibt es Hörspiele wie Benjamin Blümchen und Zeichentrickfiguren wie Dumbo oder Babar und den kleinen blauen Elefanten aus der Sendung mit der Maus. Auf Elefanten basieren Otto Waalkes' Ottifanten. Einen Elefanten im Logo verwenden Hersteller von Spielzeugen wie die Simba-Dickie-Group und Jumbo. In Werken Salvador Dalís sind Elefanten häufiger zu finden, beispielsweise in seinen Gemälden "Schwäne spiegeln Elefanten" (1937) und "Die Elefanten" (1948). Der italienische Bildhauer Gian Lorenzo Bernini schuf (ausgeführt 1667 durch seinen Schüler Ercole Ferrata) einen Elefanten, der einen Obelisken auf dem Rücken trägt (siehe Obelisco della Minerva). Dieses barocke Werk vor der römischen Santa Maria sopra Minerva wurde vermutlich durch den Renaissance-Roman "Hypnerotomachia Poliphili" inspiriert, in dem ein Gebäude in Form eines Elefanten auftaucht, der ebenfalls einen Obelisken trägt. Enderbit. Enderbite sind metamorphe Gesteine, und zwar Hypersthen führende Tonalite aus der Gruppe der Charnokite. Sie sind nach dem Fundort der ersten Gesteinsproben dieses Materials, der Typlokalität, dem Enderbyland in der Antarktis, benannt. Vorkommen finden sich z. B. in Simbabwe und Südindien. Enzyklopädist. Ein Enzyklopädist ist eine Person, die dazu beiträgt, das Wissen ihrer Zeit in Form einer Enzyklopädie zusammenzufassen. Weiter fallen unter den Begriff auch die Herausgeber einer Enzyklopädie. Eine zeitlich umrissene Gruppe solcher Personen waren die Beiträger zur französischen Encyclopédie ou Dictionnaire raisonné des sciences, des arts et des métiers (1751–1780), die als Enzyklopädist (Encyclopédie) zusammengefasst werden. In der Latinistik werden die römischen Autoren Marcus Porcius Cato der Ältere, Marcus Terentius Varro, Aulus Cornelius Celsus und Gaius Plinius Secundus als Enzyklopädisten zusammengefasst. Ethologie. Als Ethologie wird im deutschen Sprachraum traditionell die „klassische“ vergleichende Verhaltensforschung bezeichnet, gelegentlich aber auch ganz generell die Verhaltensbiologie. Die Ethologie ist somit ein Teilgebiet der Zoologie und eine Nachbardisziplin der Psychologie, aber innerhalb der Zoologie auch eine Ergänzung zu den "vergleichenden" Ansätzen von Morphologie, Anatomie und Physiologie im Dienst einer systematischen Verwandtschaftsforschung. Die ethologische Forschung ist eng verbunden mit den Arbeiten von Oskar Heinroth, Erich von Holst, Konrad Lorenz, Günter Tembrock, Nikolaas Tinbergen und Irenäus Eibl-Eibesfeldt, dem Entwurf einer Instinkttheorie sowie mit dem ehemaligen Max-Planck-Institut für Verhaltensphysiologie. Als bedeutender Vorläufer kann Jean-Henri Fabre betrachtet werden, der den Instinkt bei den Insekten untersuchte. Wortbedeutung. Die Bezeichnung "Ethologie" ist abgeleitet von den griechischen Wörtern "ethos" und "logos". Dabei steht "ethos" für ‚Charakter, Sitte, Gewohnheit, Vorkommen‘. "Ethologie" bedeutet dem Wortsinne nach „die Lehre von den Gewohnheiten“. Historischer Hintergrund. Schon Charles Darwin hatte aufgrund jahrelanger eigener Zuchtexperimente (u. a. an Tauben) erkannt, dass die häufig sehr komplexen Verhaltensweisen der Tiere aufgrund der gleichen Gesetzmäßigkeiten entstanden sein müssen wie ihre anatomischen Merkmale: also aufgrund von zufälliger Variabilität der einzelnen Merkmale und deren Bedeutung im „Überlebenskampf“ ihrer Träger. Noch bis ins frühe 20. Jahrhundert hinein hielten sich aber u. a. so genannte vitalistische Anschauungen, die angeborenes Instinktverhalten zwar nicht leugneten und sogar dessen Zweckmäßigkeit aufzeigten. Sie beantworteten jedoch die Frage nach dem Entstehen dieser Zweckmäßigkeit mit der Annahme einer "Lebenskraft" (lateinisch "vis vitalis", daher: Vitalismus), einer "Naturkraft" oder der "göttlichen Lenkung". Diese Unterstellung letztlich übernatürlicher Kräfte blockierte lange Zeit jede naturwissenschaftliche Ursachenforschung. Ein prominenter Vertreter dieser Richtung war Alfred Russel Wallace. Wallace gilt neben Darwin als der Begründer der modernen Evolutionstheorie; er entfernte sich aber weit von allen evolutionsbiologischen Denkweisen, sobald es um das Entstehen der Instinkte ging. In scharfem Gegensatz zu den vitalistischen Richtungen standen die sogenannten Mechanisten, die alles Verhalten als das gleichsam passive Reagieren auf Außenreize deuteten, als eine Kette von Reflexen („Reflexkettentheorie“). Ihre Anschauungen fußten vor allem auf den Forschungsergebnissen des Nobelpreisträgers Iwan Pawlow und verneinten innere Antriebe bzw. schlossen sie als Gegenstand wissenschaftlicher Untersuchung aus. Ein prominenter Vertreter dieser Richtung war neben Pawlow der US-amerikanische Psychologe John B. Watson, der Begründer des klassischen Behaviorismus. Im deutschen Sprachraum entwickelte sich nach dem Ersten Weltkrieg eine eigenständige Forschungsrichtung, die zum einen – im Unterschied zum Behaviorismus – das spontane Auftreten von angeborenem Verhalten aufgrund innerer, zentralnervöser Ursachen („Triebe“) betonte. Zum anderen verglichen ihre Vertreter, aufgrund der unterstellten Vererbbarkeit solcher Verhaltensweisen, das Verhalten verwandter Arten in ähnlicher Weise miteinander, wie Anatomen anatomische Merkmale miteinander vergleichen (daher auch "vergleichende Verhaltensforschung"). 1937 schuf sich diese Forschungsrichtung mittels der "Zeitschrift für Tierpsychologie" ein eigenes Publikationsorgan. Erst nach dem Zweiten Weltkrieg wurde die Bezeichnung Tierpsychologie durch die Bezeichnung "Ethologie" abgelöst, da die "Tierpsychologie" inzwischen im Ruf einer bloßen Liebhaberei stand. Das Kunstwort "Ethologie" war allerdings schon Mitte des 19. Jahrhunderts in Frankreich von Isidore Geoffroy Saint-Hilaire geprägt worden, und Friedrich Dahl hatte bereits 1898 vorgeschlagen, das französische Wort für die Lebensgewohnheiten der Tiere ins Deutsche zu übernehmen. Doch erst nachdem William Morton Wheeler 1902 "ethology" in den englischen Sprachraum eingeführt und sich diese Bezeichnung dort durchgesetzt hatte, gelangte sie über diesen Umweg wieder zurück nach Deutschland. Noch in den 1970er Jahren wurden die Bezeichnungen "Ethologie", "Instinktforschung" und "vergleichende Verhaltensforschung" von den Forschern dieses Fachgebiets als Synonyme verwendet. In dem Maße, in dem die aus der traditionellen vergleichenden Verhaltensforschung hervorgegangene Instinkttheorie aufgrund von neueren behavioristischen und verhaltensökologischen sowie neurobiologischen Befunden als überholt angesehen wurde, benutzten viele Verhaltensforscher seit den frühen 1980er Jahren auch die Bezeichnung "Ethologie" immer weniger und ersetzten sie durch die als neutraler empfundene Bezeichnung "Verhaltensbiologie". Außerhalb des deutschen Sprachraums stehen heute hingegen beispielsweise "ethology" (engl.), "éthologie" (französ.), etología (spanisch), etologia (italienisch), etoloji (türkisch) und etologi (dänisch) ganz allgemein für "Verhaltensbiologie". Deshalb wurde die 1937 von Konrad Lorenz mitbegründete "Zeitschrift für Tierpsychologie", neben "Behaviour" und "Animal Behaviour" jahrzehntelang die bedeutendste verhaltensbiologische Fachpublikation, ab 1986 von Wolfgang Wickler – dem internationalen Sprachgebrauch folgend − in "Ethology" umbenannt. Das Instinktkonzept. Eine grundlegende Wendung nahm die Verhaltensforschung durch Oskar Heinroth, in dessen 1911 publiziertem Vortrag vor dem 5. Internationalen Ornithologen-Kongress das Wort "Ethologie" erstmals im heutigen, in Deutschland gebräuchlichen Sinne auch vor großem Fachpublikum verwendet wurde. Heinroth hatte zunächst das Verhalten von diversen Gänse- und Entenarten studiert und dabei festgestellt, dass bestimmte Bewegungsweisen (beispielsweise bei der Balz) von Tieren gleichen Geschlechts und gleicher Art mit immer denselben Gesten und Körperhaltungen ausgeführt werden. Heinroth nannte solche formkonstanten Bewegungen "arteigene Triebhandlungen" und konnte aufzeigen, dass verwandte Arten mehr oder weniger starke Abwandlungen solcher Verhaltensweisen besitzen. Von diesen genauen Verhaltensbeobachtungen zu einer evolutionären Deutung ihres Entstehens war es dann weder für Heinroth noch für dessen späteren Schüler Konrad Lorenz ein großer Schritt. Lorenz griff 1931 die Bezeichnung "Ethologie" erstmals auf, als er einen umfangreichen Aufsatz über die „Ethologie sozialer Corviden“ veröffentlichte. Das ethologische Instinktkonzept besagt, dass Instinktbewegungen im Erbgut verankert sind und durch Schlüsselreize ausgelöst werden können, solange eine innere aktionsspezifische Energie vorhanden ist. Die Zweckmäßigkeit dieses Ineinandergreifens von äußerem Auslöser, Handlungsbereitschaft und spezifischer Verhaltensweise habe sich im Prozess der Evolution entwickelt und diene letztlich der Arterhaltung. Ein häufig zitiertes Beispiel für eine solche Instinktbewegung ist die "Eirollbewegung der Graugans": Wenn ein Ei (der Schlüsselreiz) außerhalb des Nestes gerät, reckt die Gans ihren Schnabel über das Ei hinweg und rollt das Ei mit Hilfe ihres Schnabels zurück ins Nest. Diese Bewegung läuft immer auf die gleiche Weise ab und wird selbst dann zu Ende geführt, wenn das Ei während des Vorgangs von einem Versuchsleiter entfernt wird. Diese starre, angeborene Form des Verhaltens gilt als eine "arteigene Triebhandlung" im Sinne von Oskar Heinroth und wurde von Konrad Lorenz als Erbkoordination bezeichnet. Weitere Fachbegriffe der Instinkttheorie sind u. a. Angeborener Auslösemechanismus, Appetenz, Leerlaufhandlung und Übersprungbewegung sowie das Prägungskonzept. Kennzeichnend für die ethologische Instinktforschung ist zum einen die Betonung der Freilandforschung, also das Beobachten des Verhaltens unter natürlichen Umweltbedingungen, zum anderen sogenannte Ethogramme: Das sind exakte Beschreibungen aller bei einer Tierart beobachtbaren Verhaltensweisen. Anhand dieser Ethogramme können "Verhaltensprotokolle" erstellt werden, in denen die Häufigkeit der Verhaltensweisen und ihre zeitliche Abfolge aufgelistet werden (z. B.: Nahrungsaufnahme, Schlafen, Sich-Putzen, schnelles Weglaufen, Eintragen von Jungtieren zum Nest). Hierdurch wird es möglich, sowohl die Häufigkeit als auch das Aufeinanderfolgen von Verhaltensweisen qualitativ und quantitativ zu beschreiben. Kontroversen. Mit der Bezeichnung Instinktbewegung war bis Ende der 1960er-Jahre die Auffassung verbunden, es handele sich bei den so gedeuteten Verhaltensweisen um rein angeborene Aktivitäten. Inzwischen hat die Forschung aber immer mehr Anhaltspunkte dafür gefunden, dass solche starren Reaktionen auf externe Reize ein "Ausnahmefall" sind, dass Erbe und Umwelt auch in Bezug auf einzelne Verhaltensweisen eng miteinander verzahnt sind (siehe Reaktionsnorm). Zentrale Konzepte der klassischen Ethologie wurden 1990 von Wolfgang Wickler, einem Schüler von Konrad Lorenz, und 1992 von Hanna-Maria Zippelius, einer Schülerin von Karl von Frisch, kritisiert (vergleiche hierzu unter anderem Übersprunghandlung und Leerlaufhandlung). Verhaltensökologie und Soziobiologie statt Ethologie? Das Konzept des Instinktverhaltens in drei Phasen (ungerichtete Appetenz, Taxis, Endhandlung) ist zwar zur Beschreibung des Nahrungserwerbes von Beutegreifern geeignet, versagt aber schon bei Pflanzenfressern. Angeboren oder erlernt? Schwierig zu klären ist eine Grundfragestellung der klassischen Ethologie, ob ein bestimmtes Verhalten angeboren oder erlernt ist. Die hierfür entwickelten Untersuchungsmethoden lieferten nur selten eine eindeutige Entscheidung. In der modernen Verhaltensforschung geht man davon aus, dass jegliches Verhalten, wie alle phänotypischen Eigenschaften eines Organismus, eine genetische Grundlage hat und stets zugleich durch Umwelteinflüsse moduliert wird. Nutztierethologie. Als Nutztierethologie wird von einem Teil der Agrarwissenschaft die Erforschung des Verhaltens von Nutztieren mit dem Ziel einer Optimierung der Haltungsbedingungen in der Nutztierhaltung bezeichnet. Extension und Intension. Extension und Intension (‚Ausdehnung, Spannweite, Verbreitung‘ und ‚Mühe, Spannung, Anspannung‘) sind Begriffe aus der Semantik, mit denen verschiedene Dimensionen der Bedeutung sprachlicher Ausdrücke (Prädikate, Sätze) oder logischer Entitäten (Mengen, Begriffe, Propositionen) bestimmt werden. Das Begriffspaar stammt aus dem Umfeld der aristotelischen Logik und wurde als ‚étendue de l’idee‘ und,comprehension de l’idée‘ durch die "Logik von Port-Royal" etabliert. In der Sprachphilosophie, den Sprachwissenschaften, verschiedenen Kalkülen der Logik und der Mathematik werden Extension und Intension oftmals unterschiedlich konzipiert. Für Prädikate und Begriffe sind die Ausdrücke Begriffsumfang und Begriffsinhalt unproblematische Übersetzungen. Extension. In der traditionellen Logik (Begriffslogik) verstand man unter der Extension oder dem Umfang eines Begriffs die Gesamtheit der Dinge, auf die er sich erstreckt (die unter ihn fallen, die er umfasst). Demnach war die Extension des Begriffes „Mensch“ die Gesamtheit aller Menschen. Seit der pyrrhonischen Skepsis besteht allerdings auch Zweifel an solcher Begriffspotenz. Mit dem Aufkommen empirischer Wissenschaften gerieten die Taxonomien mehr in die einzelwissenschaftlichen Verantwortungsbereiche und ihre philosophisch- bzw theologisch-syllogistische Verwaltung wurde obsolet. In der traditionellen Logik war nie eine hinreichend komplexe Ontologie gelungen, um praxistaugliche Überprüfungs- und Entscheidungsverfahren zu ermöglichen, als Beispiel dafür sei nur die mannigfach diskutierte Frage genannt, was zur Gesamtheit aller Menschen gehört und was nicht (z. B. verstorbene Menschen, Versehrte, Leichname, zukünftige Menschen, nur möglicherweise existierende Menschen. Zum Problem siehe auch Präsentismus, Aktualismus). Der letzte Verteidiger einer solchen Begriffslogik war Bruno von Freytag-Löringhoff. In der klassischen Logik fasst man Begriffe oft als einstellige Prädikate auf, das heißt als Aussageformen mit einer Leerstelle. Aus der Aussageform „… ist ein Mensch“ entsteht dann eine wahre Aussage, wenn man in die Leerstelle den Eigennamen oder die Kennzeichnung eines Menschen einsetzt. Extension eines solchen Prädikates ist dann die Menge der Referenzen all jener Eigennamen und Kennzeichnungen, die in die Leerstelle eingefügt eine wahre Aussage ergeben. Entsprechendes gilt für mehrstellige Prädikate (Relationen): Die Extension des zweistelligen Prädikats „… hat denselben Vater wie …“ besteht aus der Menge aller Geschwister- und (väterlichen) Halbgeschwisterpaare. Intension. Darüber, was Intension und Begriffsinhalt sind, gehen die Meinungen in der Logik auseinander. Nach einer häufig vertretenen Auffassung besteht die Intension eines Begriffes aus der Gesamtheit der Merkmale oder Eigenschaften – die Terminologie ist hier uneinheitlich –, die den Dingen, die er umfasst, "faktisch" gemeinsam sind oder die die Schnittmenge ihrer "notwendigen" Merkmale ausmachen. Demnach enthält die Intension des Begriffes „Mensch“ die Merkmale "belebt", "sterblich", "auf zwei Beinen gehend", "ungefiedert", "vernunftbegabt", "Werkzeuge produzierend" etc. Keine dieser Definitionen macht von allen Merkmalen Gebrauch, die allen Menschen gemeinsam sind; beide kommen z. B. ohne das Merkmal "sterblich" aus. Trotzdem erfüllen sie ihren Zweck, nämlich aus einem Diskursuniversum, das nur physische Dinge umfasst, trennscharf diejenigen herauszufiltern, die unter den Begriff „Mensch“ fallen. Wäre dagegen von einer Welt die Rede, in der auch für vernunftbegabte Unsterbliche Platz ist, z. B. für die Göttinnen und Götter des Olymp, so müsste die zweite Definition, um diese Funktion zu erfüllen, durch die Hinzunahme des Merkmals "sterblich" verengt werden. Die Beispiele zeigen außerdem, dass Begriffe mit verschiedener Intension im selben Diskursuniversum dieselbe Extension haben können: „auf zwei Beinen gehende ungefiederte Lebewesen“ und „vernünftige Lebewesen“ sind extensional gleiche Begriffe. Das Umgekehrte gilt nicht: Begriffe mit verschiedener Extension besitzen im selben Diskursuniversum stets verschiedene Intension. Extensionale Individuation von Begriffen. Bekanntlich sind viele Wörter mehrdeutig: Das Wort „Bank“ kann eine Sitzgelegenheit oder ein Geldinstitut bezeichnen. Bei beiden Bedeutungen handelt es sich um verschiedene Begriffe. Was konstituiert die Verschiedenheit dieser Begriffe und wie erkennt man Gleichheit und Verschiedenheit von Begriffen? Ein einfacher Antwortversuch auf diese Frage wird als Extensionalitätsthese bezeichnet, der zufolge Begriffe durch ihren Extensionalbereich vollständig bestimmt seien. Offensichtlich ist die Menge aller Sitzgelegenheiten eine andere Menge als diejenige aller Geldinstitute. Diese Extensionalitätsthese hat unter anderem das bekannte Problem, zu erklären, wie es sich bei Bezeichnungen wie „Abendstern“ und „Morgenstern“ verhält. Die Extension beider Bezeichnungen ist identisch: Beide beziehen sich auf den Planeten Venus. Trotzdem scheint plausibel, dass, wer an den Abendstern denkt, einen anderen Begriff verwendet als jener, welcher an den Morgenstern denkt. Der Unterschied liegt, so die klassische Formulierung von Gottlob Frege, nicht in der Extension, sondern in der Weise der Bezugnahme auf das bezeichnete Objekt, also der Intension. Frege selbst spricht nicht von Extension, sondern von "Bedeutung", und nicht von Intension, sondern von "Sinn". Zieht man auch die Intension zur Individuation von Begriffen heran, muss die Extensionalitätsthese verworfen werden. Inversverhältnis von Intension und Extension. Mit dem Aufkommen der modernen Logik wurde die Allgemeingültigkeit dieser Regel auf verschiedene Weise angezweifelt. Der Grund dafür lag in der erwähnten Unbestimmtheit des Begriffs der Intension und in der Vielzahl der Möglichkeiten, ihn in die formale Sprache eines Logikkalküls zu übersetzen. Den ersten erfolgreichen Versuch zu einer solchen Übersetzung unternahm Paul Weingartner. Weingartner konnte zeigen, dass „bei entsprechender Definition des intensionalen Enthaltenseins“ die oben formulierte Grundregel ein Theorem der Klassenlogik darstellt. Terminologie. Geprägt wird die Gegenüberstellung zwischen Extension und Intension, deren Wurzeln auf die aristotelische Logik zurückgehen, in der Logik von Port-Royal. Beispielhaft sei auch eine kompakte Formulierung von Leibniz zitiert: „Das Lebewesen umfasst mehr Individuen als der Mensch, aber der Mensch enthält mehr Ideen oder Formeigenschaften; das eine hat mehr Exemplare, das andere mehr Wirklichkeitsgrad; das eine hat mehr Extension, das andere mehr Intension.“ Im Lauf der Philosophiegeschichte wurde das Konzept der Extension und Intension von unterschiedlichen Autoren aufgebracht, wobei man bei der Gleichsetzung der Begriffspaare äußerst vorsichtig sein sollte, zumal einige Autoren sie als Eigenschaften von mentalen Entitäten (Begriffen, Urteilen), andere als Eigenschaften sprachlicher Ausdrücke behandeln. Die folgende Tabelle zeigt einige dieser Bezeichnungen. Dabei ist zu beachten, dass in besonderem Maß bei Frege Vorsicht geboten ist, den Ausdruck „Bedeutung“ mit der Extension gleichzusetzen. Die Unterscheidung zwischen Extension und Intension findet grundsätzlich bei Begriffswörtern („Planet“) Verwendung, während Frege die Unterscheidung zwischen Sinn und Bedeutung auch auf Eigennamen (wobei der Sinn die Art des Gegebenseins eines Gegenstandes ist, die Bedeutung der entsprechende Gegenstand) und ganze Sätze (der Sinn ist hier der Gedanke, die Bedeutung das Wahre/Falsche) anwendet. Darüber hinaus ergeben sich auch bei Anwendung auf Begriffswörter Unterschiede: Während die Extension von „Planet“ die Planeten des Sonnensystems umfasst, ist für Frege die Bedeutung von „Planet“ der abstrakte Begriff „() ist ein Planet“. Zudem wird in ungeraden Kontexten oder opaken Kontexten der ursprüngliche Sinn zur Bedeutung des Ausdrucks. Was an die Stelle des Sinns rückt, lässt Frege offen. Extension eines Satzes. Nach verbreiteter, umstrittener, von Gottlob Frege begründeter Auffassung ist die Extension eines Aussagesatzes sein Wahrheitswert. Frege selbst: "„Wir haben gesehen, dass zu einem Satze immer dann eine Bedeutung zu suchen ist, wenn es auf die Bedeutung der Bestandteile ankommt; und das ist immer dann und nur dann der Fall, wenn wir nach dem Wahrheitswerte fragen. So werden wir dahin gedrängt, den Wahrheitswert eines Satzes als seine Bedeutung anzuerkennen.“" Intension eines Satzes. Die Intension eines Satzes (bei Frege: der Sinn eines Satzes) sind nach verbreiteter, umstrittener Auffassung sein Sinn, Inhalt oder Gedanke oder seine Proposition. Nach Frege ist der Sinn eines Satzes sein Gedanke (in einem objektiven Sinn). Nach Rudolf Carnap ist die Intension eines Satzes die durch den Satz bezeichnete Proposition. Rechtswissenschaft, Rechtsprechung und Verwaltungshandeln. Zum Alltagsgeschäft von Juristen gehört es, konkrete Sachverhalte mit Rechtsnormen zu verknüpfen, bei denen Begriffe, insbesondere unbestimmte oder vage Begriffe, eine zentrale Rolle spielen. Dabei geht es einerseits darum, die Intension eines anzuwendenden Begriffs so zu bestimmen, dass in der Praxis trennscharfe Unterscheidungen vorgenommen werden können, und so gleichzeitig die potenzielle Extension anzugeben: Fälle mit dem Merkmal x (Intensionsbestimmung) gehören zur Menge (Extensionsbestimmung) der mit dem Begriff „y“ bezeichneten normierten Sachverhalte. Beispiel: § 242 Abs. 1 des deutschen Strafgesetzbuches lautet: „Wer eine fremde bewegliche Sache einem anderen in der Absicht wegnimmt, die Sache sich oder einem Dritten rechtswidrig zuzueignen, wird mit Freiheitsstrafe bis zu fünf Jahren oder mit Geldstrafe bestraft.“ Der Begriff „Diebstahl“ kann nicht auf Fälle des Anzapfens elektrischer Energie angewandt werden (eingeschränkte Extension des Begriffs „Diebstahl“), da Strom keine „Sache“ ist (eingeschränkte Intension des Begriffs „Sache“). Die auf diese Weise entstandene Gesetzeslücke wurde geschlossen, indem ins StGB der § 248c eingefügt wurde, durch den die „Entziehung elektrischer Energie“ unter Strafandrohung gestellt ist. Religionswissenschaft und Theologie. Die Frage, ob das, was ein Begriff als sprachliches Zeichen bezeichnet, existiert oder nicht, kann nicht nur als empirische behandelt werden, sondern auch als onto- oder mythologische. Dann bekommen Begriffe wie „Gott“, „Teufel“, „Engel“ nicht einfach eine Null-Extension, sondern eine komplexere Intension. Götter wie Zeus „gibt es“ jedenfalls als Teilelement des Begriffs „griechische Mythologie“. Liste von Filmmusik-Komponisten. Diese Liste enthält Personen, die durch ihre langjährige Haupttätigkeit als Komponisten von Musik für Film und Fernsehen Bekanntheit erlangten oder für ihre Filmmusik mit international oder national führenden Preisen ausgezeichnet wurden oder deren Filmmusik auf andere Weise besonders erfolgreich war. Einzelnachweise. Filmmusik Freeware. Freeware (; von „kostenlos“ und „Ware“) bezeichnet im allgemeinen Sprachgebrauch Software, die vom Urheber zur kostenlosen Nutzung zur Verfügung gestellt wird. Freeware ist meistens proprietär und steht damit laut der Free Software Foundation im Gegensatz zu Freier Software (engl.), die weitläufigere Freiheiten, wie Veränderungen an der Software, gewährt. Geschichte. Der Begriff "Freeware" wurde von dem US-amerikanischen Programmierer Andrew Fluegelman begründet, der sein Kommunikationsprogramm PC-Talk 1982 jenseits der üblichen und kostenintensiven Distributionswege vertreiben wollte. Die heutige Bedeutung des Begriffs Freeware ist jedoch eine andere als die damalige, nach heutiger Terminologie würde man bei dem damaligen Vertriebsmodell für "PC-Talk" von Shareware reden. Begriffsabgrenzung. Ein Autor kann nach dem Urheberrecht bei einer Weitergabe seines Werks die vertraglichen Bedingungen in weitem Umfang festlegen. So ist Freeware kein genau definierter, rechtsgültiger Begriff. Es ist in jedem Einzelfall anhand der in einem Endbenutzer-Lizenzvertrag festgelegten Lizenzbedingungen zu prüfen, welche konkreten Rechte der Urheber dem Anwender gewährt. Typische Vertragsbedingungen vom Autor sind etwa, dass die Verbreitung gegen ein Entgelt untersagt ist oder die Nutzung nur für Privatpersonen kostenlos ist, d. h. der Einsatz im kommerziellen Umfeld bedarf einer Lizenzgebühr. Ob bei solchen oder noch weitergehenden Einschränkungen der Nutzung der Begriff Freeware noch zutreffend angewendet wird, ist zumindest unter dem Aspekt der allgemeinen Nutzungsfreiheit strittig. Eine spezielle Form von Freeware liegt bei Software-Produkten vor, die auf ein kostenpflichtiges Betriebssystem aufbauen, wie z. B. Internet Explorer und Microsoft Windows Media Player. Hierbei ist die kostenlose Nutzung an den Besitz anderer Microsoft-Lizenzen und die Zustimmung zur Rechteerweiterung der bestehenden Lizenzen für Microsoft gebunden. Verbreitung. Der Begriff Freeware ist in einigen Gebieten anzutreffen: Einmal bei den Computerzeitschriften, die Freeware gerne als vereinfachenden Oberbegriff verwenden (z. B. für freie Software oder Lite-Versionen) und bei Hobbyprogrammierern, die ihre kleineren Software-Projekte auf ihrer Homepage zum kostenlosen Herunterladen anbieten und sich auch nicht mit Software-Lizenzrecht befassen wollen. Eine andere Quelle von Freeware ist ehemalige kommerzielle Software, die am Ende ihrer kommerziellen Vermarktung der Nutzergemeinde als Freeware zur Verfügung gestellt wird, teilweise als Promotionaktion für eine neue Software. Teilweise wird frei herunterladbare Freeware zur Verfügung gestellt, um zu verhindern, dass Software nicht mehr erhältliche Abandonware wird, beispielsweise Borland gab einige seiner Legacy-Produkte deswegen frei, z. B. Turbo Pascal oder Diversions Entertainment das Computerspiel One Must Fall. Obwohl der Begriff Freeware am häufigsten auf kleinere Software-Produkten angewandt wird, existieren einige Beispiel für größere kostenlose Software-Produkte, z. B. der Internet-Browser Opera oder das Weltsimulations-Computerspiel. Auch die meiste Open-Source-Software, wenn auch nicht jede, ist neben ihren weiter reichenden Qualitäten ebenfalls Freeware; ein Beispiel ist der Mozilla Firefox. Freeware-Szene. Neben einzelnen Autoren gibt es auch Gruppen, sogenannte "coding groups", die hobbymäßig Software programmieren und diese als Freeware anbieten, z. B. im Computerspielbereich Homebrews oder Fangames. Fritz Lang. Fritz Lang (* 5. Dezember 1890 in Wien; † 2. August 1976 in Beverly Hills, Kalifornien; eigentlich "Friedrich Christian Anton Lang") war ein österreichisch-deutsch-US-amerikanischer Filmregisseur, Drehbuchautor und Schauspieler. Nach seiner Heirat mit der deutschen Drehbuchautorin Thea von Harbou erwarb der Österreicher 1922 auch die deutsche und nach seiner Emigration 1939 die US-amerikanische Staatsbürgerschaft. Lang prägte die Filmgeschichte mit, indem er vor allem in der Ära des späten Stummfilms und des frühen Tonfilms neue ästhetische und technische Maßstäbe setzte. Seine Stummfilme erzählen zumeist utopische und fantastische Geschichten, die in einer expressiv düsteren Atmosphäre inszeniert wurden. Seine Tonfilme rücken hingegen den Menschen und seine inneren Beweggründe in den Mittelpunkt; ihre Themen waren der alltäglichen Realität entnommen und basierten häufig auf Presseberichten. Der Stummfilm "Metropolis" (1927) und der Tonfilm "M" (1931) gehören zu den Meilensteinen der deutschen und internationalen Filmgeschichte. Ausbildung. Fritz Lang wuchs in Wien als Sohn des Architekten und Stadtbaumeisters Anton Lang und dessen Frau Pauline geb. Schlesinger auf. Nach dem Abschluss der Realschule begann er 1907 auf Wunsch des Vaters ein Architekturstudium an der Technischen Hochschule in Wien. 1908 wechselte er an die Wiener Akademie der bildenden Künste, um dort Malerei zu studieren. Außerdem studierte er an der Staatlichen Gewerbeschule in München. Während des Studiums trat er nebenbei als Kabarettist auf. Von 1909 bis 1919 hatte Lang eine Wohnung in der Zeltgasse 1 im achten Bezirk, wo heute eine Gedenktafel angebracht ist, aber er unternahm 1911/12 eine Weltreise, lebte 1913/14 in Paris und war Leutnant im I. Weltkrieg. Ab 1916 schrieb er Drehbücher und trat als Schauspieler auf. Von 1910 an unternahm Lang Reisen in die Mittelmeerländer und nach Afrika. 1911 ging er nach München, um an der Kunstgewerbeschule zu studieren, blieb dort aber nur kurz und ging erneut auf Reisen. 1913/14 setzte er seine Ausbildung in Paris beim Maler Maurice Denis fort und entdeckte dort den Film. Erster Weltkrieg. Nach dem Beginn des Ersten Weltkriegs kehrte Lang 1914 nach Wien zurück. Im August 1914 lebte er im Landhaus seiner Eltern in Gars am Kamp, wovon ein Brief zeugt, in dem er detailliert seine letzten Tage in Paris und die turbulente Rückkehr nach Österreich beschreibt. Er meldete sich als Kriegsfreiwilliger und zeichnete sich bei seinem ersten Einsatz an der Front durch große Tapferkeit aus. Die Zeit von Juni bis Dezember 1915 verbrachte er zur Ausbildung zum Reserveoffizier in Luttenberg in der Steiermark (dem heutigen Ljutomer im Osten Sloweniens). Bedingt durch seinen militärischen Rang wohnte er privat im Hause des Anwalts Dr. Karl Grossmann, eines typischen Intellektuellen seiner Zeit, der zahlreichen Interessen wie der Fotografie nachging und auch drei Kurzfilme drehte. Lang selbst arbeitete in dieser Zeit, angeregt durch örtliche, traditionelle Töpfereien, auch in Terrakotta. Zwei seiner (Selbstporträt?-)Büsten und zwei Gartenvasen (z. T. signiert und datiert) werden von der Familie Grossmann bewahrt. Es handelt sich wahrscheinlich um Langs einzige erhaltene Werke der bildenden Kunst. Spätere Filmideen und Ausstattungsmotive Langs lassen sich auf Anregungen durch die Bibliothek und die Sammlungen Grossmanns wie auch auf die Architektur und Archäologie der Stadt Luttenberg und ihrer Umgebung zurückführen. 1916 erlitt Lang eine Kriegsverletzung, sein Genesungsurlaub führte ihn zurück nach Wien, wo er Kontakte zu Filmleuten knüpfte und ab 1917 als Drehbuchautor für Joe May zu arbeiten begann (u. a. später bei "Die Herrin der Welt" und "Das indische Grabmal"). Während seiner Tätigkeit für May lernte er seine spätere Frau Thea von Harbou kennen. 1917 musste Lang wieder in den Krieg zurückkehren, wurde jedoch 1918 nach einer zweiten Verwundung für kriegsuntauglich erklärt. Im Rahmen der Truppenbetreuung war er bei einer Theatergruppe zum ersten Mal als Regisseur tätig. Erste Ehe. Nach dem Krieg zog Fritz Lang nach Berlin, wo er am 13. Februar 1919 vor dem Standesamt Charlottenburg die Schauspielerin Elisabeth Rosenthal heiratete. Am 25. September 1920 fand seine erste Ehefrau den Tod durch einen Schuss aus Langs Browning-Revolver. Es wird davon ausgegangen, dass sie sich spontan das Leben nahm, nachdem sie Zeugin der Affäre ihres Mannes mit Thea von Harbou geworden war. Die genauen Umstände bleiben jedoch im Dunkeln, als Todesursache wurde „Unglücksfall“ statt „Selbstmord“ angegeben. Lang hielt seine erste Ehe zeit seines Lebens geheim. Der Vorfall hat mutmaßlich seine zukünftigen Filmthemen von Schuld, Verstrickung, Tod und Selbstmord stark beeinflusst. In dem 2001 anlässlich der Lang-Retrospektive bei den Berliner Filmfestspielen herausgegebenen Kinemathek-Buch "FL. Fritz Lang" wurde dieses mysteriöse Kapitel aus Langs Leben durch Dokumente belegt, ohne den Tod von Lisa Rosenthal restlos aufzuklären. Stummfilme. Die Abschaffung der Zensur in der Weimarer Republik befreite nach dem Ersten Weltkrieg die Produktionsbedingungen für den Film von äußeren Zwängen. Außerdem machten die generell guten Exportchancen für Stummfilme und die Schwäche der Reichsmark im Deutschland der frühen 1920er Jahre den Dreh auch von monumentalen Filmwerken rentabel, weil allein mit den Deviseneinnahmen aus dem Auslandsgeschäft der größte Teil der Produktionskosten gedeckt werden konnte. In dieser Situation startete Fritz Lang seine Karriere als Filmregisseur, als der er bis Mitte der 1920er Jahre über die Decla-Film bzw. Decla-Bioscop AG und die UFA für den Produzenten Erich Pommer arbeitete. Langs Erstlingswerk als Regisseur war 1919 das Melodram Halbblut, das, wie auch der Nachfolger "Der Herr der Liebe", heute als verloren gilt. Der bekannteste und wahrscheinlich auch qualitativ herausragende Film aus dem Frühwerk des Regisseurs ist der ursprünglich als Vierteiler konzipierte Abenteuerfilm "Die Spinnen". Der Erfolg des ersten Teils dieses Films zwang Lang dazu, schnellstmöglich den zweiten nachzuliefern, wodurch ihm nach eigener Aussage die Regie für den zur selben Zeit entstandenen Klassiker "Das Cabinet des Dr. Caligari" entging. a> in ihrer Berliner Wohnung, 1923 oder 1924 "Der müde Tod" und vor allem der Zweiteiler "Dr. Mabuse, der Spieler" bescherten dem Regisseur 1921/22 schließlich den künstlerischen und kommerziellen Durchbruch, auch auf internationaler Ebene. Im August 1922 heiratete er Thea von Harbou. 1924 konnte er mit dem Helden-Epos "Die Nibelungen" einen weiteren großen Publikumserfolg feiern. Während einer mehrmonatigen Kreativpause bereiste er anschließend gemeinsam mit Thea von Harbou die USA, besuchte New York und die großen Filmstudios in Hollywood. Das Erlebnis New York inspirierte vermutlich die Wolkenkratzer-Ästhetik von Fritz Langs bekanntestem Film, dem 1927 uraufgeführten Science-Fiction-Klassiker "Metropolis". Dieser erzählt die Geschichte einer zum Moloch mutierten Riesenstadt und brachte durch seine ausufernden Kosten und seinen Misserfolg an den Kinokassen die Universum Film AG an den Rand des finanziellen Ruins. Seine nächsten beiden Filme musste Lang selbst produzieren: 1928 folgte aus diesem Grund mit "Spione" ein relativ schmal budgetierter, aber kommerziell erfolgreicher Agentenfilm. Auch das nachfolgende Projekt, der Science-Fiction-Streifen "Frau im Mond", war 1929 ein kommerzieller Erfolg, obwohl seine filmhistorische Bedeutung bereits von der Einführung des Tonfilms überschattet wurde – das Werk ging als einer der letzten deutschen Stummfilme in die Filmgeschichte ein. Tonfilme. Langs erster Tonfilm war "M" für die Nero-Film AG. Er handelte von einem triebhaften Kindermörder (Peter Lorre), der von der kriminellen Unterwelt und der Polizei gleichermaßen, wenn auch aus unterschiedlichen Gründen, gejagt wird. Auch hier setzte Lang mittels einer neuen Technik (der Tonwiedergabe) Akzente: Die stets vom Mörder apathisch gepfiffene Melodie (In der Halle des Bergkönigs aus der Peer-Gynt-Suite von Edvard Grieg) wird von einem blinden Luftballonverkäufer wiedererkannt, worauf der Mörder schließlich überführt werden kann. Mit dem Element Ton ging Lang in "M" auch darüber hinaus sehr geschickt um, indem er die bereits aus seinen früheren Filmen bekannten Überlappungen verschiedener Szenen zu Montagen auf einen Höhepunkt trieb: In einer Schnittmontage zwischen einer Konferenz der Polizei und einer Konferenz der Unterweltgrößen wurde so geschickt zwischen beiden Seiten hin- und hergeschnitten, dass die jeweils letzten Worte vor dem Schnitt sich mit den ersten Worten der anderen Seite nach dem Schnitt nahtlos zu Sätzen vervollständigen. Die Figur des "Dr. Mabuse", über den Lang eine ganze Reihe von Filmen in verschiedenen Epochen drehte, ist der Prototyp des kriminellen Genies, das danach trachtet, die Welt einer „Herrschaft des Verbrechens“ zu unterwerfen. In "Das Testament des Dr. Mabuse", Langs zweitem, 1933 ebenfalls für die Nero-Film gedrehten Tonfilm, schreibt die Titelfigur, während sie in einer Zelle in der Psychiatrie einsitzt, ein Handbuch für Verbrecher. Siegfried Kracauer sah darin eine deutliche Anspielung auf Hitlers in Festungshaft entstandenes Buch "Mein Kampf". Fritz Lang selbst bestritt in späteren Jahren, "Das Testament des Dr. Mabuse" als Anspielung auf Hitler konzipiert zu haben, räumte jedoch ein, der "Mabuse"-Gestalt teils wörtliche Zitate der Nationalsozialisten in den Mund gelegt zu haben. Das noch vor der Uraufführung verhängte Verbot des Films "Das Testament des Dr. Mabuse" durch Reichspropagandaminister Joseph Goebbels trug in der Folge zur Legendenbildung bei. Im Umgang mit dem Tonfilm zeigte sich Lang auch hier sehr einfallsreich und weitete die bereits aus "M" bekannte Szenenüberleitung durch Vorwegnahme des Tons der folgenden Szene noch aus. "M" und "Das Testament des Dr. Mabuse" gelten als Glanzlichter nicht nur des frühen Tonfilms und werden oft als handwerkliche Höhepunkte in Langs filmischem Schaffen bezeichnet. Emigration. Die Machtübernahme der Nationalsozialisten 1933 schien Langs Karriere zunächst nicht zu berühren, doch wollte er sich künstlerisch den Nationalsozialisten nicht unterordnen. Anfang April 1933 meldete die Zeitschrift "Kinematograph", dass Lang zusammen mit Carl Boese, Victor Janson und Luis Trenker die Abteilung Regie in der Nationalsozialistischen Betriebszellenorganisation (NSBO) gegründet habe. Diese Aussage lässt sich aber nicht belegen, Lang selber erklärte 1962 in einem Interview, dass er keine leitende Funktion in einer der NSDAP nahestehenden Organisation bekleidet hatte. Nach späteren Angaben Fritz Langs versuchte Goebbels ihn zu überreden, sein Können in den Dienst der Nazis zu stellen. Goebbels soll ihm 1933 in einem persönlichen Gespräch die Leitung des Deutschen Films angeboten haben, nachdem er sich zuvor als großen Bewunderer des Regisseurs zu erkennen gegeben hatte. Lang erbat sich einen Tag Bedenkzeit, entschloss sich nach eigener Aussage noch am selben Tag zur Emigration und bestieg einen Nachtzug nach Paris. Ohne Geld will der inzwischen Zweiundvierzigjährige die Flucht angetreten haben, da die Bankschalter bereits geschlossen waren und er sein Konto nicht mehr auflösen konnte. Diese Aussage Langs wird aber weder durch Zeugen, durch schriftliche Belege noch durch Einträge des sonst emsigen Tagebuchschreibers Goebbels gestützt – tatsächlich pendelte Lang etwa drei Monate lang zwischen Berlin, London und Paris und tauschte in dieser Zeit auch Devisen bei seiner Bank. In Frankreich traf Lang auf Erich Pommer und realisierte mit ihm 1934 den Film "Liliom" mit Charles Boyer in der Hauptrolle. Die Adaption des gleichnamigen Theaterstücks von Ferenc Molnár wurde sowohl in einer französischsprachigen als auch in einer deutschsprachigen Version gedreht. Noch im selben Jahr siedelte Lang in die USA über, wobei ihn seine neue Lebensgefährtin Lily Latté an Bord der "Île de France" begleitete. Seine ohnehin seit langem zerrüttete Ehe mit Thea von Harbou – Lang hatte 1928 eine Affäre mit der "Spione"-Hauptdarstellerin Gerda Maurus begonnen – war bereits im April 1933 geschieden worden. Harbou, die sich allmählich dem Nationalsozialismus annäherte, wurde 1940 Mitglied der NSDAP. Arbeiten in den USA. In Hollywood setzte Fritz Lang seine Karriere fort, schaffte es aber insgesamt nicht mehr, an seine großen Erfolge des Deutschen Kinos anzuknüpfen. Erheblichen Anteil hatte er an der Gründung der Anti-Nazi League. Nach einigen abgelehnten Projekten drehte er mehrere Filme, in denen er seine europäisch geprägten Ansätze erfolgreich mit US-amerikanischen Themen zu verbinden wusste. In seinem ersten US-Film "Blinde Wut" ("Fury") mit Spencer Tracy zeichnete er ähnlich wie in "M" die psychische Situation eines vom Mob Gejagten nach. Es folgten "Gehetzt" ("You Only Live Once", 1937) mit Henry Fonda und zwei Western. In den 1940er Jahren realisierte Lang mehrere Filme, die dem Genre des Anti-Nazi-Films zuzurechnen sind, wie 1941 den Spionage-Film "Menschenjagd" ("Man Hunt") und 1943 "Auch Henker sterben" ("Hangmen also die"), einen Film über das Heydrich-Attentat. Letzterer entstand zusammen mit anderen Emigranten, unter anderem Bertolt Brecht, mit dem es allerdings Auseinandersetzungen gab. 1944 folgte mit "Ministerium der Angst" ("Ministry of Fear") nach der Vorlage von Graham Greene ein weiterer Anti-Nazi-Film. Ebenfalls Beachtung fanden zwei Filme mit Edward G. Robinson in der Hauptrolle, "Gefährliche Begegnung" ("The Woman in the Window", 1944) und "Straße der Versuchung" ("Scarlet Street", 1945), während unter Langs Kinobeiträgen der 1950er Jahre der Polizeifilm "Heisses Eisen" ("The Big Heat", 1953) mit Glenn Ford herausragte. Von Anfang an hatte Lang in den USA mit Einschränkungen zu kämpfen. So durfte er in „Blinde Wut“ keine schwarzen Opfer und keine Kritik am Rassismus darstellen. Wegen seiner antinazistischen Filme und seiner Bekanntschaft mit Bertolt Brecht und Hanns Eisler geriet er ins Blickfeld des Kommunistenjägers McCarthy. Rückkehr nach Europa. 1956 kehrte Lang nach Europa zurück und drehte für den Produzenten Artur Brauner seine letzten Filme. Dem Zweiteiler "Der Tiger von Eschnapur" / "Das indische Grabmal" (1959), der auf einem stark abgewandelten Lang-Drehbuch von 1921 basierte, folgte mit "Die 1000 Augen des Dr. Mabuse" (1960) ein weiterer "Mabuse"-Film. In letzterem zeichnete Lang ein Sittenbild der frühen Bundesrepublik Deutschland: Große, scheinbar tote, vergessene Verbrecher, die im Hintergrund weiter wirken; ein Hotel als Beobachtungsapparat und Metapher für Totalitarismus; willige Handlanger und Vollstrecker; scheinbarer Frieden, der nur mühsam die schwelenden Konflikte verdeckt; eine Atmosphäre der Künstlichkeit und großspurig gespielten Lockerheit. Die drei gemeinsamen Filme mit Brauner erwiesen sich zwar als kommerzielle, nicht aber als künstlerische Erfolge. Lang kehrte wieder in die USA zurück. Seine letzte Regiearbeit vollzog sich innerhalb des Films eines anderen Regisseurs: In "Die Verachtung" ("Le mépris") von Jean-Luc Godard verkörperte Lang 1964 mit wienerisch gefärbtem Französisch sich selbst als Filmregisseur, der einen Film nach Homers "Odyssee" zu realisieren hat. Die entsprechenden Szenen inszenierte er selbst. In seinen letzten Lebensjahren war Fritz Lang nahezu blind. 1971 heiratete er seine langjährige Lebensgefährtin Lily Latté. 1976 starb er in Beverly Hills und wurde auf dem Forest Lawn Memorial Park in Hollywood beigesetzt. Formalisierung. Formalisierung bedeutet den Vorgang oder das Ergebnis des Formalisierens einer Sache. Etwas wird formalisiert, indem ihm eine (strenge) Form gegeben, es in einer (strengen) Form dargestellt oder bei seiner Durchführung eine vorgegebene (strenge) Form eingehalten wird. Mit strenger Form ist eine Schriftform gemeint, deren Zeichen in einer festgelegten Reihenfolge auf festgelegte Art und Weise verarbeitet werden. Von dieser allgemeinen Bedeutung können eine wissenschaftstheoretische und eine kulturwissenschaftliche Bedeutung unterschieden werden. Wissenschaftstheorie. Wissenschaftstheoretisch bedeutet Formalisierung im weiteren Sinn „die Generalisierung einer (wissenschaftlichen) Aussage unter Absehung ihrer konkret-empirischen Bezüge“. In dieser Bedeutung ist die Formalisierung mit der Abstraktion verwandt. Im engeren Sinn bedeutet Formalisierung die Beschreibung eines Phänomens oder die Formulierung einer Theorie in einer formalen Sprache, deren Axiomatisierung und – als letzte Stufe – die Kalkülisierung (siehe Formalisierte Theorie). So ist die mathematische Logik durch Formalisierung gekennzeichnet. Man formalisiert ein System der Logik, indem man von der vorgegebenen Intension der in ihm vorkommenden Ausdrücke absieht und diese Ausdrücke in genau dem Sinn verwendet, den die Axiome bzw. die Regeln dieses Systems diesem vorschreiben. „Die Aussagenlogik und die Prädikatenlogik lassen sich als Formalisierungen des alltäglichen logischen Schließens ansehen.“ In der Sprachwissenschaft gibt es Versuche, durch formale Grammatiken wie zum Beispiel die generative Transformationsgrammatik die natürliche Sprache zu beschreiben. Kulturwissenschaft. Im kulturwissenschaftlichen Sinn kann unter Formalisierung die Auflösung zielgerichteter Handlungen in wiederholbare und übertragbare Verfahrensschritte bezeichnet werden, wie es durch die Regelung einer Ablauforganisation geschieht. Die Philosophin Sybille Krämer spricht in enger Anlehnung an die Mathematik von einem „typographischen, schematischen und interpretationsfreien Symbolgebrauch“, der Handlungen automatisierbar mache. Die damit verbundene Einschränkung eines persönlichen und willkürlichen Vorgehens kann verschiedene Absichten haben: Sie kann aus Gründen der Transparenz und Gleichberechtigung geschehen (Politik, Recht, Mathematik) oder aus Gründen der Rationalisierung und Automatisierung (Wirtschaft, Militär, Technik, Informatik). Aufzeichnungen sind sowohl Grundlage als auch Resultat von Formalisierungen. Verwandt mit der Formalisierung und historisch nicht von ihr trennbar ist die Ritualisierung, bei der streng festgelegte Abläufe zu einer Gewohnheit werden, die emotionale Sicherheit verleiht (vgl. Spielregel). Der Linguist Wolfgang Wildgen spricht davon, dass „(sinnentleerte) Teilhandlungen“ durch Formalisierung und Ritualisierung eine „Sinnfunktion“ bekommen. Fraktal. Fraktal ist ein vom Mathematiker Benoît Mandelbrot 1975 geprägter Begriff (‚gebrochen‘, von ‚ (in Stücke zer-)‚brechen‘), der bestimmte natürliche oder künstliche Gebilde oder geometrische Muster bezeichnet. Diese Gebilde oder Muster besitzen im Allgemeinen keine ganzzahlige Hausdorff-Dimension (ein mathematischer Begriff, der in vielen üblichen geometrischen Fällen bekannte ganzzahlige Werte liefert), sondern eine gebrochene – daher der Name – und weisen zudem einen hohen Grad von Skaleninvarianz bzw. Selbstähnlichkeit auf. Das ist beispielsweise der Fall, wenn ein Objekt aus mehreren verkleinerten Kopien seiner selbst besteht. Geometrische Objekte dieser Art unterscheiden sich in wesentlichen Aspekten von gewöhnlichen glatten Figuren. Begriff und Umfeld. Der Begriff Fraktal kann sowohl substantivisch als auch adjektivisch verwendet werden. Das Gebiet der Mathematik, in dem Fraktale und ihre Gesetzmäßigkeiten untersucht werden, heißt "fraktale Geometrie" und ragt in mehrere andere Bereiche hinein, wie Funktionentheorie, Berechenbarkeitstheorie und dynamische Systeme. Wie der Name schon andeutet, wird der klassische Begriff der euklidischen Geometrie erweitert, was sich auch in den gebrochenen und nicht natürlichen Dimensionen vieler Fraktale widerspiegelt. Neben Mandelbrot gehören Wacław Sierpiński und Gaston Maurice Julia zu den namensgebenden Mathematikern. Fraktale Dimension; Selbstähnlichkeit. In der traditionellen Geometrie ist eine Linie eindimensional, eine Fläche zweidimensional und ein räumliches Gebilde dreidimensional. Für die "fraktalen Mengen" lässt sich die Dimensionalität nicht unmittelbar angeben: Führt man beispielsweise eine Rechenoperation für ein fraktales Linienmuster tausende von Malen fort, so füllt sich mit der Zeit die gesamte Zeichenfläche (etwa der Bildschirm des Computers) mit Linien, und das eindimensionale Gebilde nähert sich einem zweidimensionalen. Jede Menge mit nicht-ganzzahliger Dimension ist also ein Fraktal. Die Umkehrung gilt nicht, Fraktale können auch ganzzahlige Dimension besitzen, beispielsweise die Peano-Kurve oder die Sierpinski-Pyramide. Besteht ein Fraktal aus einer bestimmten Anzahl von verkleinerten Kopien seiner selbst und ist dieser Verkleinerungsfaktor für alle Kopien derselbe, so verwendet man die Ähnlichkeitsdimension formula_1, die in solchen einfachen Fällen der anschaulichen Berechnung der Hausdorff-Dimension entspricht. Die Selbstähnlichkeit kann aber auch nur im statistischen Sinn bestehen. Man spricht dann von Zufallsfraktalen. Selbstähnlichkeit, eventuell im statistischen Sinn, und zugehörige fraktale Dimensionen charakterisieren also ein fraktales System bzw. bei Wachstumsprozessen sog. „fraktales Wachstum“ (z. B. Diffusionsbegrenztes Wachstum). Beispiele. Die einfachsten Beispiele für selbstähnliche Objekte sind Strecken, Parallelogramme (u. a. Quadrate) und Würfel, denn sie können durch zu ihren Seiten parallele Schnitte in verkleinerte Kopien ihrer selbst zerlegt werden. Diese sind jedoch keine Fraktale, weil ihre Ähnlichkeitsdimension und ihre Lebesgue’sche Überdeckungsdimension übereinstimmen. Ein Beispiel für ein selbstähnliches Fraktal ist das Sierpinski-Dreieck, welches aus drei auf die Hälfte verkleinerten Kopien seiner selbst aufgebaut ist. Es hat somit die Ähnlichkeitsdimension formula_5, während die Lebesgue’sche Überdeckungsdimension gleich 1 ist. Die Selbstähnlichkeit muss nicht perfekt sein, wie die erfolgreiche Anwendung der Methoden der fraktalen Geometrie auf natürliche Gebilde wie Bäume, Wolken, Küstenlinien usw. zeigt. Die genannten Objekte sind in mehr oder weniger starkem Maß selbstähnlich strukturiert (ein Baumzweig sieht ungefähr so aus wie ein verkleinerter Baum), die Ähnlichkeit ist jedoch nicht streng, sondern stochastisch. Im Gegensatz zu Formen der euklidischen Geometrie, die bei einer Vergrößerung oft flacher und damit einfacher werden (etwa ein Kreis), können bei Fraktalen immer komplexere und neue Details auftauchen. Fraktale Muster werden oft durch rekursive Operationen erzeugt. Auch einfache Erzeugungsregeln ergeben nach wenigen Rekursionsschritten schon komplexe Muster. Dies ist zum Beispiel am Pythagoras-Baum zu sehen. Ein solcher Baum ist ein Fraktal, welches aus Quadraten aufgebaut ist, die so angeordnet sind wie im Satz des Pythagoras definiert. Ein weiteres Fraktal ist das Newton-Fraktal, erzeugt über das zur Nullstellenberechnung verwendete Newton-Verfahren. Beispiele für Fraktale im dreidimensionalen Raum sind der Menger-Schwamm und die Sierpinski-Pyramide auf Basis des Tetraeders (so wie das Sierpinski-Dreieck auf dem gleichseitigen Dreieck basiert). Entsprechend lassen sich auch in höheren Dimensionen Fraktale nach Sierpinski bilden - bspw. basierend auf dem Pentachoron im vierdimensionalen Raum. Anwendungen. Durch ihren Formenreichtum und den damit verbundenen ästhetischen Reiz spielen sie in der digitalen Kunst eine Rolle und haben dort das Genre der Fraktalkunst hervorgebracht. Ferner werden sie bei der computergestützten Simulation formenreicher Strukturen, beispielsweise realitätsnaher Landschaften, eingesetzt. Um in der Funktechnik verschiedene Frequenzbereiche zu empfangen, werden Fraktalantennen eingesetzt. Fraktale in der Natur. Fraktale Erscheinungsformen findet man auch in der Natur. Dabei ist jedoch die Anzahl der Stufen von selbstähnlichen Strukturen begrenzt und beträgt oft nur drei bis fünf. Typische Beispiele aus der Biologie sind die fraktalen Strukturen bei der grünen Blumenkohlzüchtung Romanesco und bei den Farnen. Auch der Blumenkohl hat einen fraktalen Aufbau, wobei man es diesem Kohl auf den ersten Blick häufig gar nicht ansieht. Es gibt aber immer wieder einige Blumenkohlköpfe, die dem Romanesco im fraktalen Aufbau sehr ähnlich sehen. Weit verbreitet sind fraktale Strukturen ohne strenge, aber mit statistischer Selbstähnlichkeit. Dazu zählen beispielsweise Bäume, Blutgefäße, Flusssysteme und Küstenlinien. Im Fall der Küstenlinie ergibt sich als Konsequenz die Unmöglichkeit einer exakten Bestimmung der Küstenlänge: Je genauer man die Feinheiten des Küstenverlaufes misst, umso größer ist die Länge, die man erhält. Im Falle eines mathematischen Fraktals, wie beispielsweise der Kochkurve, wäre sie unbegrenzt. Fraktale finden sich auch als Erklärungsmodelle für chemische Reaktionen. Systeme wie die Oszillatoren (Standardbeispiel Belousov-Zhabotinsky-Reaktion) lassen sich einerseits als Prinzipbild verwenden, andererseits aber auch als Fraktale erklären. Ebenso findet man fraktale Strukturen auch im Kristallwachstum und bei der Entstehung von Mischungen, z. B. wenn man einen Tropfen Farblösung in ein Glas Wasser gibt. Das Auffasern von Bast lässt sich über die fraktale Geometrie von Naturfaserfibrillen erklären. Insbesondere ist die Flachsfaser eine fraktale Faser. Verfahren zur Erzeugung von Fraktalen. Es gibt fertige Programme, sogenannte Fraktalgeneratoren, mit denen Computeranwender auch ohne Kenntnis der mathematischen Grundlagen und Verfahren Fraktale darstellen lassen können. „Einfache und regelmäßige“ Fraktale. Das "optionale", also nicht notwendige "F" wird im Allgemeinen als Strecke benutzt, die durch eine Anweisungsfolge ersetzt wird. Wie das "F" stehen auch andere groß geschriebene Buchstaben wie "R" und "L" für einen Streckenabschnitt, der ersetzt wird. "+" und "-" stehen für einen bestimmten Winkel, der im Uhrzeigersinn oder gegen den Uhrzeigersinn läuft. Das Symbol "|" bezeichnet eine Kehrtwendung des Zeichenstiftes, also eine Drehung um 180°. Gegebenenfalls setzt man dafür ein entsprechendes Vielfaches des Drehwinkels ein. Dabei stellen r und l jeweils eine fest vorgegebene Strecke dar. Zufallsfraktale. Daneben spielen in der Natur auch „Zufallsfraktale“ eine große Rolle. Diese werden nach probabilistischen Regeln erzeugt. Dies kann etwa durch Wachstumsprozesse geschehen, wobei man beispielsweise diffusionsbegrenztes Wachstum (Witten und Sander) und „Tumorwachstum“ unterscheidet. Im ersten Fall entstehen baumartige Strukturen, im letzten Fall Strukturen mit runder Form, je nachdem, in welcher Weise man die neu hinzukommenden Teilchen an die schon vorhandenen Aggregate anlagert. Wenn die fraktalen Exponenten nicht konstant sind, sondern z. B. von der Entfernung von einem zentralen Punkt des Aggregats abhängen, spricht man von sog. "Multifraktalen". Weblinks. Fraktal Francis Ford Coppola. Francis Ford Coppola (Januar 2007) Francis Ford Coppola (* 7. April 1939 in Detroit, Michigan) ist ein US-amerikanischer Regisseur und Produzent. Als Regisseur von Klassikern wie "Der Pate" und "Apocalypse Now" zählt er zu den bedeutendsten Filmschaffenden des US-amerikanischen Kinos. Da er dem etablierten Studiobetrieb Hollywoods kritisch gegenüberstand, gründete Coppola 1969 das unabhängige Filmstudio American Zoetrope, wo unter anderem die ersten Filme von George Lucas verwirklicht wurden. Nachdem er mit dem Studio in finanzielle Schwierigkeiten geriet, inszenierte Coppola ab Mitte der 1980er Jahre auch kommerziell ausgerichtete Filme mit weniger künstlerischem Anspruch. Kindheit und Jugend. Francis Ford Coppola wurde als Sohn von Carmine Coppola und Italia Pennino in Detroit im US-Bundesstaat Michigan geboren. Sein Vater Carmine Coppola war ein US-amerikanischer Musiker und Komponist, seine Mutter Italia Coppola war eine italienische Schauspielerin. Francis hat zwei Geschwister, den älteren Bruder August Floyd Coppola, Vater des 1964 geborenen Schauspielers Nicolas Cage, sowie die jüngere Schwester Talia Shire (geb. Talia Rose Coppola). Sein zweiter Name stammte aus einer früheren Arbeit seines Vaters als offizieller Arrangeur für die "„Ford Sunday Evening Hour“" des CBS Radio. Unmittelbar nach Coppolas Geburt zog die Familie nach New York, NY um. Im Alter von zehn Jahren erkrankte Coppola während eines Ausflugs der Pfadfinder an Polio, wodurch sich eine Lähmung seiner linken Körperhälfte einstellte. Die folgenden neun Monate im Bett verbringend, schaute Coppola häufiger Fernsehen und führte seine ersten Marionettenspiele zur Unterhaltung anderer vor. Coppola akzeptierte die Tatsache, dass er nie wieder werde laufen können, sein Vater jedoch besorgte ihm einen Physiotherapeuten, mit dessen Hilfe sich Coppolas Zustand allmählich so verbesserte, dass er wieder in der Lage war, die Schule zu besuchen. Nachdem sich Coppola nahezu vollständig erholte, bekam er von seinen Eltern eine Super-8-Kamera geschenkt, mit der er seine ersten Filmerfahrungen machte. Ausbildung. Coppola schrieb sich in die New York Military Academy ein, in der Erwartung seines Vaters, dort das Spielen einer Tuba zu erlernen. Francis Ford Coppola brachte in der Schule stets gute bis sehr gute Leistungen, zu seinen Kameraden verhielt er sich vorlaut, aber hilfsbereit. Von den Unterrichtsmethoden in der New York Military Academy war Coppola dennoch enttäuscht, insbesondere verabscheute er das Schulfach "Sport". Nach 18 Monaten auf der High School brach er den Unterricht ab und zog sich in Manhattan zurück. Nach seiner Rückkehr auf die High School spielte er wieder Tuba und schrieb auch seine ersten eigenen Stücke. Nach seinem Abschluss erhielt Coppola einen Platz für ein Stipendium in der Hofstra University, wo zuvor bereits sein Bruder studiert hatte. Dort belegte Coppola verschiedene Theaterseminare und inszenierte erste Bühnenauftritte. Ein Film, der Coppola zu dieser Zeit inspirierte und beeindruckte, war Sergei Michailowitsch Eisensteins "Zehn Tage, die die Welt erschütterten" (1927). Nach dem Studium im Jahr 1959 entschloss sich Coppola, auf der Filmhochschule University of California, Los Angeles weiterzustudieren. Während des Studiums traf Coppola auf den unabhängigen Autorenfilmer Roger Corman und wurde dessen Assistent. Er half Corman bei der Produktion einiger seiner Filme, darunter zum Beispiel "The Terror – Schloß des Schreckens", nahm dabei die Aufgaben eines Schriftstellers, Produktionsassistenten, Tonmeisters und Regisseurs wahr und eignete sich so praktische Erfahrungen im Filmbereich an. Während seiner Studienzeit war er auch an Produktionen mehrerer kleiner Horror- und Erotikfilme beteiligt. Sein Regiedebüt gab Coppola 1961 mit dem Western "Das gibt es nur im Wilden Westen", danach drehte er 1963 den Horrorfilm "Dementia 13". Das Drehbuch dieses Schwarz-Weiß-Films, der von einem Serienmörder handelt, schrieb Coppola selbst. "Dementia 13" wurde mit einem Budget von rund 20.000 US-Dollar in Irland gedreht. Seine Filmstudien auf der University of California in Los Angeles beendete Coppola im Jahr 1968 mit der besten Note seines Jahrgangs. Etablierung als Filmemacher. Francis Ford Coppola nahm eine Stelle im Drehbuchteam von Warner Bros.-Seven Arts ein und wurde mit der Verfilmung des Broadway-Hits "Finian's Rainbow" von 1947 beauftragt. Im Juni 1968 begann Coppola mit den Dreharbeiten zu "Der goldene Regenbogen" und begegnete dort George Lucas, der an dem Samuel-Warner-Memorial-Stipendium teilnahm. Coppola nahm Lucas zu seinem Assistenten für Dreharbeiten an "Der goldene Regenbogen". Dabei ging Lucas mit einer Sofortbildkamera über das Set und schoss Bilder möglicher Kameraeinstellungen. Der Film floppte an den Kinokassen und der Umstand, dass ein Weißer dadurch bestraft wird, dass er zu einem Schwarzen wird, trug ihm zusätzlich den Vorwurf des Rassismus ein. Bis zum Ende der Dreharbeiten waren Coppola und Lucas gute Freunde geworden. Der Regisseur erzählte Lucas, dass er plane, einen Road-Movie nach der Vorlage einer eigenen Kurzgeschichte namens "Echoes" zu drehen. "Liebe niemals einen Fremden" erzählt die Geschichte einer schwangeren Frau, die ihren Ehemann eines Nachts verlässt und sich mit einem Tramper auf eine ziellose Reise begibt. Dabei wollte Coppola selbst zusammen mit Lucas während einer Odyssee von New York nach Nebraska den Film drehen, möglichst unabhängig von Hollywoods Filmstudios. Da Lucas zu dieser Zeit sein eigenes Projekt mit "THX 1138" beginnen wollte, machte Coppola Lucas ein Angebot. Er versprach, eine Absprache mit Warner Bros.-Seven Arts zu treffen, damit Lucas vom Studio dafür bezahlt würde, ein Drehbuch für "THX 1138" zu schreiben. So konnte Lucas ihn als Assistenten bei "Liebe niemals einen Fremden" begleiten und während der Reise gleichzeitig an "THX 1138" arbeiten. Coppola, der sich schon längere Zeit von Hollywoods Filmindustrie abwenden wollte, schlug Lucas vor, ein unabhängiges Studio zu gründen. Nach einer Tagung mit dem Filmemacher John Korty, der von seiner dritten Produktion in seinem eigenen Studio berichtete, beschlossen Lucas und Coppola das Studio Korty Films zu besichtigen. Coppola schaute sich noch andere unabhängige Studios an. So besichtigte er eine kleine Firma namens Lanterna Films in Dänemark und bekam ein Zoetrop als Andenken an seinen Besuch geschenkt. Bald darauf bestellte er zusammen mit Lucas hochwertige Filmausrüstung und kümmerte sich um Räumlichkeiten, die er 1969 in San Francisco gefunden hatte. Seinem Studio gab er den Namen American Zoetrope. Weiterer Lebensweg. Dann wurde ihm „ein Angebot gemacht, das er nicht ablehnen konnte“ (CBS News): das Mafiaepos "Der Pate" ("The Godfather") von 1972, nach einem Roman von Mario Puzo. Dies wurde sein Durchbruch als Regisseur. Coppolas letzter großer Erfolg war 1979 das Vietnam-Epos "Apocalypse Now", in dem unter anderem auch Marlon Brando und Robert Duvall aus "Der Pate" mitspielten. Nach einer Drehdauer von 1976–79 konnte Coppola den Antikriegsfilm endlich fertigstellen. In der Produktionszeit kam es zu Differenzen mit dem Filmverleih United Artists. Trotzdem wurde es zu einem finanziellen und künstlerischen Erfolg. "Apocalypse Now" ist bis heute einer der einflussreichsten Filme der vergangenen fünfzig Jahre. Von dem grandiosen Flop "Einer mit Herz" konnte er sich jedoch nicht mehr erholen. Filme wie "Die Outsider" und "Rumble Fish" drehte er, um seine Schulden abzubezahlen. Die von ihm eingesetzten Schauspieler wurden als Brat Pack die Jungstars ihrer Generation. Sein Wunschfilm "Cotton Club" wurde erneut ein Misserfolg, und Coppola drehte "Peggy Sue hat geheiratet". Diesen Teufelskreis aus Flops und Auftragsarbeiten konnte er bis heute nicht durchbrechen. So sah er sich entgegen vorherigen Beteuerungen doch gezwungen, "Der Pate – Teil III" zu drehen. Gleiches gilt für den Kinderfilm "Jack" mit Robin Williams und die John-Grisham-Verfilmung "Der Regenmacher". Ein danach geplantes Projekt, das ihm schon lange am Herzen lag, "Megalopolis", kam nicht zustande. Dafür veröffentlichte er 2007 den weitaus persönlicheren "Jugend ohne Jugend", über Alter, Tod, Angst, Liebe, Sprache, Frühgeschichte, Traum, Reinkarnation und Atomwaffen. Mit dem vollständig digital gedrehten Film brachte er es auf die Titelseite der renommierten Cahiers. Die Kritik in den Vereinigten Staaten reagierte ablehnend. Finanzielle Einnahmen erzielt Coppola vor allem mit seinem Weingut. Francis Ford Coppola erhielt bisher insgesamt fünf Oscars bei vierzehn Nominierungen. Er erhielt die Auszeichnung 1971 für das Drehbuch für (das nicht von ihm inszenierte) "Patton – Rebell in Uniform", 1972 für das Skript zu "Der Pate" sowie 1975 für Produktion, Regie und Drehbuch für "Der Pate – Teil II". Coppola produzierte zahlreiche Kinofilme anderer Regisseure, darunter George Lucas’ "American Graffiti" (1973), Akira Kurosawas "Kagemusha" (1980), Godfrey Reggios "Koyaanisqatsi" (1983), Paul Schraders "Mishima – Ein Leben in vier Kapiteln" (1985) und Tim Burtons "Sleepy Hollow" (1999). Für Jack Claytons mehrfach ausgezeichneten Film "Der große Gatsby" (1974) schrieb er das Drehbuch. Coppola gelang damit eine werkgetreue und dennoch Hollywood-gerechte Adaption von Fitzgeralds Roman an der unter anderem Truman Capote gescheitert war. Francis Ford Coppola ist seit 1963 mit der Dokumentarfilmerin Eleanor Coppola verheiratet. Er ist der Onkel der US-amerikanischen Schauspieler Nicolas Cage und Jason Schwartzman, Vater der Regisseure Sofia Coppola ("Lost in Translation") und Roman Coppola (Musikvideos und Kinofilme) sowie Bruder der Schauspielerin Talia Shire. Sein ältester Sohn, Gian-Carlo, kam 1986 bei einem Bootsunfall ums Leben. als Produzent. Coppola ist einer von nur drei Regisseuren, denen es gelang zwei Filme zu drehen, welche mit dem Oscar für den Besten Film ausgezeichnet wurden. ("Der Pate" und "Der Pate 2"). Die anderen beiden Regisseure sind Frank Capra und Miloš Forman. weitere Auszeichnungen. 2010 wurde Coppola in die American Academy of Arts and Sciences gewählt. 2013 wurde er mit dem japanischen Praemium Imperiale geehrt, oft als Nobelpreis der Künste bezeichnet. Für 2015 wurde ihm der Prinzessin-von-Asturien-Preis zugesprochen. Friedrich Wilhelm Murnau. Friedrich Wilhelm Murnau; auch F. W. Murnau (* 28. Dezember 1888 als "Friedrich Wilhelm Plumpe" in Bielefeld; † 11. März 1931 in Santa Barbara, Kalifornien) gilt als einer der bedeutendsten deutschen Filmregisseure der Stummfilmära. Sein vom Expressionismus beeinflusstes Schaffen, seine psychologische Bildführung und die damals revolutionäre Kamera- und Montagearbeit Murnaus eröffneten dem jungen Medium Film völlig neue Möglichkeiten. Zu seinen berühmtesten Werken zählen "Nosferatu – Eine Symphonie des Grauens" (1922), "Der letzte Mann" (1924), "Faust – eine deutsche Volkssage" (1926) und "Sonnenaufgang – Lied von zwei Menschen" (1927). Kindheit, Jugend und Ausbildung. Friedrich Wilhelm Plumpe wuchs in einer wohlhabenden Bürgerfamilie auf; der Vater war Tuchfabrikant, die Mutter Lehrerin. Nach dem Besuch des Gymnasiums in Kassel, wohin die Familie 1892 umzog, begann er ein Studium der Philologie und Kunstgeschichte in Berlin und Heidelberg. Dort wurde bei einer Studentenaufführung der berühmte Regisseur Max Reinhardt auf ihn aufmerksam. Reinhardt ermöglichte ihm den Besuch der Max-Reinhardt-Schauspielschule und beschäftigte ihn als Schauspieler und Regieassistenten. Plumpe nahm den Künstlernamen Friedrich Wilhelm Murnau (nach dem Ort Murnau am Staffelsee) an. Dies war, neben dem künstlerischen Aspekt, auch ein klares Zeichen für den Bruch mit seinen Eltern, die seine Homosexualität genauso wie seine Schauspiel- und Regieambitionen nicht akzeptieren wollten. Zu seinen Künstlerfreunden gehörten unter anderem die Autorin Else Lasker-Schüler und die expressionistischen Maler der Gruppe Der blaue Reiter. Murnau im Ersten Weltkrieg. Am Ersten Weltkrieg nahm Murnau als Leutnant im 1. Garderegiment zu Fuß und ab 1917 als Kampfflieger teil, bis er absichtlich oder durch einen Navigationsfehler auf dem Gebiet der neutralen Schweiz landete. Dort wurde er zunächst in Andermatt interniert, konnte aber nach dem Gewinn eines Inszenierungswettbewerbs für das patriotische Schauspiel "Marignano" am Luzerner Theater arbeiten. Die Kriegserlebnisse waren für Murnau wie für viele seiner Generation prägend; sein damaliger Lebensgefährte Hans Ehrenbaum-Degele fiel an der Ostfront. Einige Kritiker sehen in Filmen wie "Nosferatu" noch Spuren der Kriegseindrücke. Frühe Werke. 1919 kehrte Murnau nach Berlin zurück und begann für den Film zu arbeiten. Sein erster Spielfilm, Der Knabe in Blau nach Motiven des Gemäldes The Blue Boy, ist heute wie auch einige seiner späteren Filme verschollen. Mit dem Film "Der Bucklige und die Tänzerin" begann eine höchst fruchtbare Zusammenarbeit mit dem Drehbuchautor Carl Mayer, der in der Folge noch für sechs weitere Filme Murnaus die Bücher schrieb. Andere Künstler, mit denen Murnau bevorzugt zusammenarbeitete, sind die Drehbuchautorin Thea von Harbou, der Kameramann Carl Hoffmann und der Schauspieler Conrad Veidt. Sein berühmtester Film aus dieser Zeit ist "Nosferatu, eine Symphonie des Grauens" von 1922 mit Max Schreck in der Titelrolle, eine Verfilmung von Bram Stokers "Dracula", die aber aufgrund von Lizenzproblemen umbenannt werden musste. Erfolge in Deutschland. Der Erfolg seiner Filme brachte Murnau einen Vertrag bei der Universum Film (UFA) ein. Für die UFA inszenierte er als erstes 1924 den Film "Der letzte Mann", in dem Emil Jannings einen Hotelportier verkörpert, der zum Toilettenmann degradiert wird und daran zerbricht. Die in diesem Film von Murnau und dem Kameramann Karl Freund verwendete „entfesselte“ oder auch „fliegende“ Kamera befreite die Kamera von ihrer Statik und ermöglichte völlig neue Perspektiven (um z.B. den Rauch einer Zigarette zu verfolgen, schnallte Freund die Kamera an eine Feuerwehrleiter und bewegte diese). Ferner führte Murnau in diesem Film die „subjektive Kamera“ ein, die das Geschehen mit den Augen einer handelnden Person wiedergibt. Murnaus Fähigkeit, mit rein filmischen Mitteln eine Geschichte zu erzählen, zeigt sich auch darin, dass er in diesem Film fast ganz auf Zwischentitel verzichten konnte, was für die Stummfilmzeit höchst ungewöhnlich ist. Die Reihe seiner in Deutschland geschaffenen Filme schloss Murnau 1926 mit "Tartüff" nach Molière und "Faust – eine deutsche Volkssage" ab. Murnau in den Vereinigten Staaten. Murnaus Erfolge in Deutschland und vor allem die amerikanische Fassung seines "Der letzte Mann" im Jahre 1925 hatten Hollywood auf ihn aufmerksam gemacht. Murnau erhielt ein Vertragsangebot des amerikanischen Produzenten William Fox, der ihm volle künstlerische Freiheit zusicherte. Sein erster in den USA inszenierter Film "Sunrise" nach der Erzählung "Die Reise nach Tilsit" von Hermann Sudermann gewann bei der allerersten Oscarverleihung 1929 drei Oscars, erfüllte jedoch die kommerziellen Erwartungen nicht ganz. Aus diesem Grunde und wegen der immer schwieriger werdenden wirtschaftlichen Situation der Firma Fox und der Lage in Hollywood an der Schwelle zum Tonfilm musste Murnau bei seinen folgenden Filmen zunehmend Eingriffe in sein künstlerisches Konzept hinnehmen; bei dem Film "City Girl" wurde er sogar als Regisseur abgelöst und ohne seinen Einfluss wurde nachträglich eine Tonfassung hergestellt. Von den Zwängen Hollywoods enttäuscht, kündigte Murnau 1929 den Vertrag mit Fox. Nach einem ergebnislosen Versuch, wieder in Berlin mit der UFA ins Geschäft zu kommen, kaufte er sich eine Segelyacht, fest entschlossen, seinen nächsten Film allein nach seinen eigenen Vorstellungen zu realisieren, und fuhr nach Tahiti, um dort mit dem Regisseur und Dokumentarfilmer Robert J. Flaherty den Film "Tabu" zu drehen. Während der Dreharbeiten gab es erhebliche Schwierigkeiten mit der die Drehkosten finanzierenden Filmmaterial-Firma. Schließlich trennte sich Murnau von Flaherty, der stärkere Dokumentarfilmambitionen hatte, und produzierte den Film auf eigene Kosten. Der auf der Insel Bora Bora ausschließlich mit einheimischen Laiendarstellern gedrehte Film wurde zu einer stilbildenden Mischung aus Dokumentation und Melodram. Der Vertrieb des von Murnau selbst finanzierten Films, für den er sein gesamtes Vermögen aufgewendet und sich hoch verschuldet hatte, wurde von der Firma Paramount übernommen, die von dem Film so beeindruckt war, dass sie Murnau einen Zehnjahresvertrag anbot. Tod. Die Premiere des Films am 18. März 1931 erlebte Murnau jedoch nicht mehr. Am 11. März 1931, kurz vor einer Europa-Promotion-Tour Murnaus, verlor sein Diener, der 14-jährige Filipino Garcia Stevenson, auf der Küstenstraße südöstlich von Santa Barbara (Kalifornien) die Kontrolle über ihr Auto und prallte frontal mit einem Lkw zusammen. Murnau starb wenige Stunden später an seinen Verletzungen. Nur elf Personen haben von ihm am 19. März Abschied genommen, darunter Greta Garbo. Sein Leichnam wurde nach Deutschland überführt und auf dem Südwestkirchhof Stahnsdorf beigesetzt. Carl Mayer und der Regisseur Fritz Lang hielten die Grabreden. Unter den Trauergästen waren unter anderem Robert J. Flaherty, Emil Jannings, Erich Pommer und Georg Wilhelm Pabst. Seinen Grabstein gestaltete Karl Ludwig Manzel. Das Ehrengrab befindet sich im Block Schöneberg, Feld 3a, Erbbegräbnis 5. Im Juli 2015 wurde das Grab von Grabräubern geöffnet und der einbalsamierte Kopf Murnaus entwendet. Der Schauspieler Gerd J. Pohl lobte daraufhin eine Belohnung aus, der Kopf blieb aber bislang verschollen. Auszeichnungen. Bei den Internationale Filmfestspielen von Berlin im Jahre 2003 erhielt Murnau posthum eine Auszeichnung für sein filmisches Wirken, nachdem er dort er eine ausführliche Retrospektive erfahren hatte. Im Jahre 2012 wurde Murnau mit einem Stern auf dem Boulevard der Stars ausgezeichnet. Frederic Vester. Frederic Vester (* 23. November 1925 in Saarbrücken; † 2. November 2003 in München) war ein deutscher Biochemiker, Systemforscher, Umweltexperte und populärwissenschaftlicher Autor. Leben. Frederic Vester studierte Chemie in Mainz, Paris und Hamburg, war Postdoktorand in Yale, Saarbrücken und München und habilitierte sich 1969 in Biochemie. Er gründete 1970 die „Studiengruppe für Biologie und Umwelt Frederic Vester GmbH“ in München, nach seinem Tod in „frederic vester GmbH“ umfirmiert, die sich durch staatliche und privatwirtschaftliche Beratungsaufträge finanzierte (seit 2006 werden alle Projekte und Produkte Frederic Vesters und der "frederic vester GmbH" vom "Malik Management Zentrum St. Gallen AG" weitergeführt). Von 1982 bis 1989 war Vester Professor am "Lehrstuhl für Interdependenz von Technik und Gesellschaft" der Universität der Bundeswehr München, von 1989 bis 1991 Gastprofessor für angewandte Ökonomie an der HSG in St. Gallen. Als Autor und über seine Präsenz in den Medien hat Vester das Systemverständnis und das „Vernetzte Denken“ im deutschen Sprachraum populär gemacht. Frederic Vester ist Vater der nach seiner Mutter benannten Schauspielerin Saskia Vester und ihrer Schwester Madeleine Vester, die ebenfalls als Schauspielerin tätig ist. Frederic Vester gehörte auch zu den Gründungsmitgliedern des BUND und war im deutschsprachigen Raum einer der Pioniere der Umweltbewegung. Gleichzeitig hat Vester als konkretes Werkzeug und Denkmodell für den Umgang mit Komplexität mit dem computerbasierten "Sensitivitätsmodell Prof. Vester®" ein praktisch anwendbares und vielfach eingesetztes Management- und Planungswerkzeug entwickelt. Vernetztes Denken. Unter Berufung auf die Kybernetik (bzw. Biokybernetik) hat Vester "systemisches" („"vernetztes"“) "Denken" propagiert, ein Ansatz, in dem die Eigenschaften eines Systems als ein vernetztes Wirkungsgefüge gesehen werden. Die einzelnen Faktoren verstärken oder schwächen andere Größen des Systems (Rückkopplung). Diese den ungeübten („linear denkenden“) Betrachter verwirrende Vernetzung kann mit Hilfe der Methodik des "Sensitivitätsmodells Prof. Vester®" in mehreren Arbeitsschritten mit Softwareunterstützung analysiert und begreifbar gemacht werden. Auf diese Weise können z. B. positive, selbstverstärkende und negative, selbstregulierende Rückkopplungskreisläufe sicher erkannt werden. Einflussgrößen werden in ihrer Systemqualität sichtbar und bewertet (z. B. als stabilisierend, kritisch, puffernd oder empfindlich für äußere Einflüsse usw.). Durch Simulationen können langfristige oder spezielle Verläufe von Eigenschaften betrachtet werden. Auf der Grundlage eines so erarbeiteten Modells können Fragen nach sinnvollen Eingriffsmöglichkeiten und Steuerhebeln, zukünftiger Entwicklung oder möglichen Systemverbesserungen beantwortet werden. Die von Vester entwickelten Methoden und Bewertungen sind im „"Sensitivitätsmodell Prof. Vester®"“ zusammengefasst, das in Seminaren und als Software vermarktet wird und seit ca. 1980 in zum Teil umfangreichen Studien eingesetzt worden ist (z. B. Ford-Studie "Zukunft des Autos"; UNESCO-Studie "Ballungsgebiete in der Krise"). Die Idee der in diesem Vorgehen zentralen Einflussmatrix wurde von anderen Autoren in der Prioritätenmatrix übernommen. Das „"Sensitivitätsmodell Prof. Vester®"“ wird seit der Übernahme der Rechte an allen Werken Vesters von Fredmund Malik als „"Malik Sensitivitätsmodell® nach Prof. Vester"“ weitergeführt und weltweit in Management- und Planungsprojekten eingesetzt. In seinem Bestseller „"Denken, Lernen, Vergessen"“ hat Vester postuliert, dass verschiedene Typen von Lernern (Lerntypen) verschiedene „"Kanäle"“ (auditiv, visuell, haptisch, verbal-abstrakt) bevorzugen. Nach eigenen Untersuchungen stellte Vester eine Theorie der "Lernbiologie" auf, die die innewohnenden Eigenschaften des Menschen beim Aufnehmen, Verknüpfen und Speichern von Informationen beschreibt. Allerdings treten nach Vester die vier Lerntypen dieses Modells selten als idealtypische Ausprägungen auf, sondern meistens als Mischformen mit schwerpunktmäßiger Veranlagung (so zum Beispiel der "audio-visuelle Typ"). Diese Klassifikation ist wissenschaftlich umstritten, aber von Pädagogen im deutschen Sprachraum in großem Umfang rezipiert worden. „"Denken, Lernen, Vergessen"“ ist mit der inzwischen 36. Auflage (2014) eines der zehn meistverkauften Bücher des Deutschen Taschenbuchverlages. Vester wurde im Jahr 1993 in den "Club of Rome" aufgenommen. 1999 wurde Vesters Buch "Die Kunst, vernetzt zu denken. Ideen und Werkzeuge für den Umgang mit Komplexität" als "Der neue Bericht an den Club of Rome" veröffentlicht (aktuell 9. Auflage dtv 2013). In dem Buch fasst Vester seine wesentlichen Aussagen zusammen und zeigt das Vorgehen sowie das breite Anwendungsspektrum des Sensitivitätsmodells in praktischen Projekten auf. Film noir. Film noir (französisch für „schwarzer Film“) ist ein Terminus aus dem Bereich der Filmkritik. Ursprünglich wurde mit diesem Begriff eine Reihe von zynischen, durch eine pessimistische Weltsicht gekennzeichneten US-amerikanischen Kriminalfilmen der 1940er und 1950er Jahre klassifiziert, die im deutschen Sprachraum auch unter dem Begriff „Schwarze Serie“ zusammengefasst werden. Üblicherweise wird "Die Spur des Falken" von 1941 als erster und "Im Zeichen des Bösen" von 1958 als letzter Vertreter dieser klassischen Ära angesehen. Die Wurzeln des Film noir liegen in erster Linie im deutschen expressionistischen Stummfilm und der US-amerikanischen Hardboiled-Kriminalliteratur der 1920er und 1930er Jahre. Dementsprechend sind die Filme der klassischen Ära üblicherweise durch eine von starken Hell-Dunkel-Kontrasten dominierte Bildgestaltung, entfremdete oder verbitterte Protagonisten sowie urbane Schauplätze gekennzeichnet. Stil und Inhalte des Film noir fanden auch nach 1958 Verwendung. Diese später produzierten Filme mit Charakteristika der klassischen Ära werden häufig als „Neo-Noir“ bezeichnet. Die Verwendungsbeschränkung des Begriffs Film noir auf Filme US-amerikanischer Herkunft wurde zunehmend aufgegeben, so dass das Produktionsland für die Einordnung heutzutage oft keine Rolle mehr spielt. Herkunft. Im Gegensatz zu anderen Filmgattungen wie Horrorfilm, Thriller oder Western wurde der Begriff "Film noir" auf Seiten der Filmpublizistik entwickelt und fasst rückwirkend eine Gruppe an vormals eher in losem Zusammenhang wahrgenommenen Filmen zusammen. Erstmalige Verwendung fand die Formulierung in einem im August 1946 erschienenen Artikel des französischen Filmkritikers Nino Frank. Dieser behandelte eine Reihe von Hollywood-Filmen der frühen 1940er Jahre, die aufgrund eines Importverbots erst nach Ende des Zweiten Weltkriegs den Weg in die französischen Kinos gefunden hatten. Unter anderem befanden sich darunter auch die Filme "Die Spur des Falken" (1941), "Frau ohne Gewissen" (1944), "Laura" (1944) und "Murder, My Sweet" (1944). In diesen vier Produktionen glaubte Frank eine neue „dunklere“ Spielart des Kriminalfilms zu entdecken, die grundsätzlich mehr Augenmerk auf die Charakterisierung der Figuren als auf die Handlung legte. Er wies dabei u. a. auf den Einsatz von Off-Camera-Kommentaren hin, welche die Handlung fragmentieren und die „lebensechte“ Seite des Films hervorheben. Frank kreierte die Formulierung "Film noir" wahrscheinlich in Anspielung auf den Titel der Buchreihe "Série noire" des Pariser Gallimard-Verlags, in der seit 1945 Übersetzungen amerikanischer Hardboiled-Kriminalromane veröffentlicht wurden. Bis Ende der 1960er Jahre blieb die Verwendung des Begriffs allerdings im Wesentlichen auf Frankreich begrenzt. In den USA selbst wurden die betreffenden Filme bis dahin üblicherweise als "psychological melodrama" oder "psychological thriller" bezeichnet. Filmreihe, Genre oder Stil? Eine ähnliche Ansicht vertrat 1972 der Amerikaner Paul Schrader, indem er den Film noir mit Stilrichtungen wie der Nouvelle Vague oder dem Italienischen Neorealismus verglich. Wie diese sei auch der Film noir als ein zeitlich begrenztes und vorrangig durch motivische und stilistische Merkmale gekennzeichnetes Phänomen zu sehen. Schwierigkeiten der Zuordnung. Da keine eindeutige Definition des Film noirs existiert, ist naturgemäß auch die Eingrenzung des Begriffes relativ unscharf. Die Meinungen, ob ein bestimmter Film als Film noir einzuordnen ist, können zum Teil sehr unterschiedlich ausfallen. So wird zwar beispielsweise der zeitliche Rahmen der klassischen Ära üblicherweise auf die 1940er und 1950er Jahre begrenzt, doch sowohl Vorläufer (z. B. "Gehetzt" [1937]) als auch jüngere Filme (z. B. "Explosion des Schweigens" [1961]) können unter den Begriff fallen. Auch bezüglich der Herkunft als definierenden Faktors besteht keine Einigkeit. Zwar zählen viele Film-noir-Experten wie beispielsweise Paul Schrader oder Alain Silver und Elizabeth Ward ausdrücklich nur Hollywood-Produktionen zum klassischen Film noir, manche Filmwissenschaftler wie James Naremore oder Andrew Spicer fassen den Begriff aber weiter und beziehen insbesondere auch britische und französische Produktionen mit ein (siehe Abschnitt „Film noir außerhalb der Vereinigten Staaten“). Auch inhaltlich existieren keine definitiven Kriterien für die Zuordnung. Selbst die weit verbreitete Ansicht, dass es sich bei Films noirs ausschließlich um Kriminalfilme handle, ist keineswegs allgemein akzeptiert. So wendete schon Nino Frank den Begriff explizit auch auf Billy Wilders "Das verlorene Wochenende" (1945) an, ein „Problemfilm“-Melodrama über einen Alkoholiker. Zwar wurde dieser Film in späteren Abhandlungen zum Thema weitgehend ignoriert, dafür wurden im Lauf der Zeit unter anderem sogar einige Western (z. B. "Verfolgt" [1947]) oder Historienfilme (z. B. "Dämon von Paris" [1949]) dem klassischen Film-noir-Kanon zugeordnet. Deutscher Expressionismus. Die Ästhetik des Film noir ist stark vom expressionistischen Stummfilm der 1920er Jahre mit seinen scharfen Hell-Dunkel-Gegensätzen, Kamerafahrten mit „entfesselter Kamera“ und verzerrten Kameraperspektiven geprägt. Expressionistische Werke wie "Der letzte Mann" (1924) oder "Metropolis" (1927) stießen in der amerikanischen Filmindustrie auf große Bewunderung und beeinflussten dort schon in den frühen 1930er Jahren die Horrorfilme der Universal Studios. Einen bedeutenden Anteil an dieser Entwicklung hatte der "Metropolis"-Kameramann Karl Freund, der u. a. bei "Dracula" (1931) und "Mord in der Rue Morgue" (1932) mitwirkte. Später fotografierte Freund die Films noirs "Der unbekannte Geliebte" (1946) und "Gangster in Key Largo" (1948). Während der 1930er Jahre führten die vielversprechenden Möglichkeiten Hollywoods und der aufkommende Nationalsozialismus zur Auswanderung zahlreicher weiterer Filmemacher deutscher und österreichisch-ungarischer Herkunft. Diese brachten ihre Techniken der Bildgestaltung mit nach Hollywood und verstärkten dort den expressionistischen Einfluss. Besonders hervorzuheben ist hier der Regisseur Fritz Lang, dessen erste beiden Hollywood-Filme "Blinde Wut" (1936) und "Gehetzt" (1937) bereits viele visuelle und thematische Elemente des Film noir vorwegnehmen. Früh prägend für den visuellen Stil des Film noir war auch der Kameramann Theodor Sparkuhl, dessen Low-key-Fotografie in "Zum Leben verdammt" (1941), "Der gläserne Schlüssel" und "Der schwarze Vorhang" (beide 1942) mit der kontrastarmen Beleuchtung vieler Gangsterfilme der 1930er Jahre brach. Weitere für den Film noir wichtige Hollywood-Immigranten waren vor allem die Regisseure Robert Siodmak, Billy Wilder, Otto Preminger, John Brahm, Max Ophüls, Fred Zinnemann, William Dieterle, Edgar G. Ulmer, Curtis Bernhardt, Rudolph Maté, Anatole Litvak und Michael Curtiz, die zahlreiche bedeutende Filme des klassischen Kanons schufen, sowie der stilbildende Kameramann John Alton, der unter anderem die Films noirs von Anthony Mann und Joseph H. Lewis fotografierte. Poetischer Realismus und Neorealismus. Ebenfalls wegweisend für den Film noir war die Bewegung des poetischen Realismus im französischen Film der späten 1930er Jahre, der die bitteren sozialen und politischen Realitäten der unteren sozialen Schichten thematisierte. Werke wie Julien Duviviers "Pépé le Moko – Im Dunkel von Algier" (1936), Jean Renoirs "Bestie Mensch" (1938) oder Marcel Carnés "Hafen im Nebel" (1938) und "Der Tag bricht an" (1939) (alle mit Jean Gabin in der Hauptrolle) mischten romantische Krimihandlungen mit heroischen, dem Untergang geweihten Protagonisten. Wenn auch nicht ganz so misanthropisch und zynisch wie der Film noir, gibt es doch eine klare Verwandtschaft zwischen beiden Bewegungen. Folgerichtig lieferten "Bestie Mensch" und "Der Tag bricht an" die Vorlagen für die Films noirs "Lebensgier" (1954) und "Die Lange Nacht" (1947). "Straße der Versuchung" (1945) basiert ebenfalls auf einem Film Renoirs. Im Gegensatz zu ihren deutschen Kollegen spielten die französische Filmemacher selbst im Hollywood der 1940er und 1950er Jahre allerdings kaum eine Rolle. In Bezug auf den Film noir ist hier lediglich Jean Renoirs Melodrama "Die Frau am Strand" (1947) zu nennen, das von einigen Kritikern dem klassischen Zyklus zugeordnet wird. Der bedeutende Film-noir-Regisseur Jacques Tourneur wiederum war zwar von Geburt Franzose, erlernte sein Handwerk aber in Hollywood. Nach dem Ende des Zweiten Weltkriegs nahm auch der italienische Neorealismus mit seiner quasi-dokumentarischen Authentizität Einfluss auf die Entwicklung des Film noir. Filmemacher wie Jules Dassin "(Stadt ohne Maske, Gefahr in Frisco)" und Elia Kazan "(Bumerang, Unter Geheimbefehl)" verlegten ihre Drehorte von den Filmstudios hinaus auf die Straße. The March of Time und der Dokumentarfilm. Neben den dokumentarischen Stilmitteln des Neorealismus hinterließen auch authentische Dokumentarfilme ihre Spuren im Film noir. Louis de Rochemont, der mit der Dokumentarreihe The March of Time Bekanntheit erlangt hatte, produzierte mit "Das Haus in der 92. Straße" (1946) den ersten Vertreter der sogenannten Semidocumentaries (etwa „halbdokumentarische Filme“). Dessen Erfolg zog eine Serie von Spielfilmen nach sich, in denen die Ermittlungsarbeit von Polizisten und anderen Staatsbediensteten gezeigt und von einem Sprecher kommentiert wurde, darunter "Geheimagent T" (1947), "Stadt ohne Maske" (1948) und "Unter Geheimbefehl" (1950). Literarische Einflüsse. Den hauptsächlichen literarischen Einfluss auf den Film noir hatte die „Hardboiled“-Schule amerikanischer Kriminalliteratur, die von Autoren wie Dashiell Hammett seit den 1920er Jahren geprägt und meist in Pulp-Magazinen wie "Black Mask" publiziert wurde. Die frühen Film noir-Meisterwerke "Die Spur des Falken" (1941) und "Der gläserne Schlüssel" (1942) basieren beide auf Romanen von Hammett. Bereits 1931, ein Jahrzehnt vor Beginn der „klassischen Ära“, diente eine von Hammetts Geschichten als Grundlage des Gangsterfilms "Straßen der Großstadt" von Regisseur Rouben Mamoulian und Kameramann Lee Garmes. Dieser Film gilt heute aufgrund seines visuellen Stils als wichtiger Vorläufer des Film Noir. Bald nach Erscheinen seines ersten Romans "The Big Sleep" im Jahr 1939 wurde Raymond Chandler zum bekanntesten Autor der "Hardboiled"-Schule. Mehrere Romane Chandlers wurden zu Films noirs verarbeitet, beispielsweise "Murder, My Sweet" (1944), "Tote schlafen fest" (1946) und "Die Dame im See" (1947). Chandler war für den Film noir auch ein wichtiger Drehbuchautor, der die Skripte zu "Frau ohne Gewissen" (1944) und "Die blaue Dahlie" (1946) sowie die Erstfassung von "Der Fremde im Zug" (1951) verfasste. Während Hammett und Chandler die meisten ihrer Geschichten auf die Figur des Privatdetektivs ausrichteten, stellte James M. Cain in seinen Werken weniger heldenhafte Protagonisten dar und fokussierte mehr auf die psychologische Studie als auf die Aufklärung des Verbrechens. Cains Romane lieferten unter anderem die Vorlage für die Films noirs "Frau ohne Gewissen" (1944), "Solange ein Herz schlägt" (1945) und "Im Netz der Leidenschaften" (1946). Ein weiterer einflussreicher Autor war in den 1940er Jahren Cornell Woolrich (auch unter den Pseudonymen George Hopley und William Irish bekannt). Kein anderer Autor steuerte so viele Vorlagen zu Films noirs bei wie er: Silver & Ward nennen insgesamt 13, darunter "Zeuge gesucht" (1944), "Vergessene Stunde" (1946), "Die Nacht hat tausend Augen" (1948) und "Das unheimliche Fenster" (1949). Ähnlich essenziell für den Film noir ist das Werk von W. R. Burnett. Burnetts erster Roman "Little Caesar" diente als Vorlage für den Gangsterfilm-Klassiker "Der kleine Cäsar" (1931), außerdem schrieb er die Dialoge für "Scarface" (1932). Ebenfalls im Jahr 1932 entstand "The Beast of the City" nach einer Burnett-Vorlage. Trotz seines frühen Entstehungsjahres wird dieser Film von manchen Kritikern bereits als Film noir angesehen. Während der „klassischen Ära“ lieferte Burnett dann als Roman- oder Drehbuchautor die Basis für sechs weitere Filme, die heute als Films noirs angesehen werden, darunter "Entscheidung in der Sierra" (1941) und "Asphalt-Dschungel" (1950). Weitere wichtige Autoren, die nicht der Hardboiled-Schule angehörten aber die literarischen Vorlagen für Films noirs lieferten, waren z. B. Eric Ambler ("Von Agenten gejagt" [1943], "Die Maske des Dimitrios" [1944]), Graham Greene ("Die Narbenhand" [1942], "Ministerium der Angst" [1944]) und Ernest Hemingway ("Rächer der Unterwelt" [1946], "Menschenschmuggel" [1950]). Die „Schwarze Serie“. Nach Ansicht der meisten Experten ist John Hustons Detektivfilm "Die Spur des Falken" (1941) als erster klassischer Film noir anzusehen. (Allerdings wird in diesem Zusammenhang gelegentlich auch der kurz zuvor erschienene, aber weniger bekannte "Stranger on the Third Floor" aus dem Jahr 1940 genannt.) Der Film, in dem Humphrey Bogart und Mary Astor als Hauptdarsteller auftreten, erscheint visuell zwar noch konventionell, besitzt jedoch mit dem Privatdetektiv und einer Reihe exzentrischer Protagonisten typische Merkmale späterer Films noirs. Damit beginnt auch die erste von drei Phasen des amerikanischen Film noir, die der Kritiker Paul Schrader unterscheidet, die „wartime period“ („Phase der Kriegsjahre“) etwa von 1941 bis 1946. In diesen Jahren ist der Charakter des Privatdetektivs oder des sogenannten „einsamen Wolfs“ vorherrschend. Bücher von Chandler und Hammett bilden häufig die Vorlage, und eine Reihe von Darstellern etabliert sich im Film noir, so Humphrey Bogart und Lauren Bacall ("Tote schlafen fest", 1946) und Alan Ladd und Veronica Lake ("Die Narbenhand" und "Der gläserne Schlüssel", beide 1942). Während einige Films noirs von Regisseuren stammten, die bereits etabliert waren, wie zum Beispiel Tay Garnett ("Im Netz der Leidenschaften," 1946), Fritz Lang ("Gefährliche Begegnung," 1944) oder Howard Hawks ("Tote schlafen fest," 1946), dienten andere ihren Regisseuren als Karrieresprungbrett, darunter John Huston, Otto Preminger ("Laura", 1944), Billy Wilder ("Frau ohne Gewissen", 1944) und Edward Dmytryk ("Murder, My Sweet", 1944). Wilders "Frau ohne Gewissen" markiert für Schrader den Übergang von der ersten zur zweiten Phase des Film noir. Als zweite Phase der „Schwarzen Serie“ nennt Schrader die „post-war realistic period“ („realistische Nachkriegsphase“) etwa von 1945 bis 1949. Die Filme aus dieser Zeit handeln stärker vom Verbrechen auf der Straße, von korrupten Politikern und von alltäglicher Ermittlungsarbeit. Die Helden sind weit weniger romantisch als ihre Vorgänger, und das urbane Erscheinungsbild der Filme realistischer. Vertreter dieser Phase sind "Das Haus in der 92. Straße" und "Rächer der Unterwelt" (beide 1946), "Der Todeskuß" und "Geheimagent T" (beide 1947) sowie "Stadt ohne Maske" (1948). Die dritte und letzte Phase, etwa von 1949 bis 1953, ist laut Schrader die „period of psychotic action and suicidal impulse“ („Phase der psychotischen Handlungen und selbstmörderischen Triebe“). Die Persönlichkeit der Figuren löst sich auf, psychotische Mörder sind nun oft die Hauptfiguren. Ästhetisch und soziologisch sind dies für Schrader die durchdringendsten Filme, die häufig als B-Produktionen entstehen. Zu dieser Phase zählt Schrader Joseph H. Lewis’ "Gefährliche Leidenschaft", Otto Premingers "Faustrecht der Großstadt", Gordon Douglas’ "Den Morgen wirst du nicht erleben" (alle 1950) und Fritz Langs "Heisses Eisen" (1953). Als 1955 "Rattennest" von Robert Aldrich herauskam, war das Phänomen Film noir „zum Stillstand gekommen“ (Schrader). Das Amerika der Eisenhower-Ära wollte positivere Abbildungen seines „way of life“ sehen, und zugleich waren Fernsehen und Farbfilm auf dem Vormarsch. Orson Welles’ Meisterwerk "Im Zeichen des Bösen" aus dem Jahre 1958 wird meistens als Schlusspunkt des klassischen Film noir angesehen. Allerdings wurden und werden auch seit Ende der klassischen Phase gelegentlich immer noch Filme produziert, die thematische, visuelle oder andere Elemente des Film noir aufgreifen. Diese werden heutzutage meist mit dem Begriff „Neo-Noir“ beschrieben. Darüber hinaus wurden bereits während der klassischen Phase auch außerhalb der Vereinigten Staaten Filme produziert, die mittlerweile von vielen Experten als Film noir klassifiziert werden (siehe Abschnitt „Film noir außerhalb der Vereinigten Staaten“). Themen und Figuren. Kriminalität, insbesondere Mord, ist ein Kernelement fast aller Films noirs, wobei häufig Motive wie Geldgier oder Eifersucht zum Tragen kommen. Die Aufklärung des Verbrechens, mit der ein Privatdetektiv, ein Polizeikommissar oder eine Privatperson befasst sein kann, ist ein häufiges, aber dennoch nicht vorherrschendes Thema. In anderen Plots mag es um einen Überfall, um Betrügereien oder um Verschwörungen und Affären gehen. Films noirs drehen sich tendenziell um Helden (eigentlich Antihelden), die ungewöhnlich lasterhaft und moralisch fragwürdig sind. Sie werden häufig als "alienated" (dt. veräußert, entfremdet) beschrieben, oder in den Worten von Alain Silver und Elizabeth Ward, als „erfüllt von existenzieller Verbitterung“. Unter den archetypischen Figuren des Film noir finden sich hartgesottene "(„hardboiled“)" Detektive, Femmes fatales, korrupte Polizisten, eifersüchtige Ehemänner, unerschrockene Versicherungsangestellte sowie heruntergekommene Schriftsteller. Von diesen sind, wie das Gros der Neo-Noirs zeigt, der Detektiv und die Femme fatale diejenigen Charaktere, die am ehesten mit Film noir assoziiert werden, obwohl bei weitem nicht alle der klassischen Films noirs diese beiden Charaktere zeigen. Das Menschenbild ist pessimistisch. Oftmals steht jeder gegen jeden, alle sind nur auf ihren eigenen Vorteil bedacht und wer anderen vertraut, hat das Nachsehen. Typisch für den Film noir sind die urbanen Schauplätze, wobei Los Angeles, San Francisco, New York City und Chicago wohl zu den beliebtesten zählen. Die Stadt steht meist sinnbildlich für ein Labyrinth, in dem die Protagonisten gefangen sind; Bars, Nachtclubs und Spielhöllen, heruntergekommene Fabrikhallen und einsame Straßenschluchten sind die üblichen Schauplätze der Handlung. Besonders die Spannungshöhepunkte in einigen Filmen liegen in komplexen, oft industriellen Szenerien, so zum Beispiel die Explosion in "Sprung in den Tod" (1949). Erzähltechnik. Rückblenden und Voice-over zählen zu den häufig angewandten Erzähltechniken im Film noir. Oft dient ein Voice-over (=eine Erzählerstimme) zur Unterstreichung der Ausweglosigkeit einer Situation oder eines Protagonisten und nimmt bereits zu Beginn des Films den fatalen Ausgang der Geschichte vorweg. Der Voice-over kann jedoch auch eine dem Zuschauer Sicherheit vermittelnde Funktion haben: „In der tödlich instabilen Noir-Welt dient der Voice-over oft als Halt […] er ist unser Wegweiser durch das Noir-Labyrinth“ (Foster Hirsch). Des Weiteren sind Films noirs stärker als andere Hollywood-Produktionen auf die subjektive Sicht des Protagonisten fixiert, so beispielsweise in der Traum- und Halluzinationsszene in "Murder, My Sweet". "Die Dame im See" und "Die schwarze Natter" (beide 1947) sind über weite Strecken aus dem Blickwinkel der jeweiligen Hauptfigur gefilmt, sodass diese sich dem Betrachter lediglich in Spiegelbildern zeigt. Visueller Stil. Der Stil des Film noir ist geprägt von einer Low-Key-Beleuchtung, die kräftige Hell-dunkel-Kontraste und auffällige Schattenbilder erzeugt. Weitere visuelle Eigenarten des Film noir sind sein Gebrauch von schrägen Kameraperspektiven, extreme Unter- oder Aufsichten und der häufige Einsatz von Weitwinkelobjektiven. Aufnahmen von Personen im Spiegel und durch gewölbtes Glas hindurch, sowie andere bizarre Effekte kennzeichnen den Film noir. In den späten 1940er Jahren entstanden zudem viele Filme an Originalschauplätzen. Dies wurde durch zunehmend empfindlicheres Filmmaterial und leichteres Equipment ermöglicht. Dennoch ist der visuelle Stil im Film noir keineswegs homogen: So wird zwar die Schwarzweißfotografie häufig als essenziell angesehen, doch existieren mit "Todsünde" (1945), "Niagara" (1953) oder "Das Mädchen aus der Unterwelt" (1958) Beispiele für Farbfilme, die als Film noirs anerkannt sind. Auch Filme, die überwiegend in hellem Tageslicht fotografiert wurden, werden dem Film noir zugerechnet, beispielsweise "M" und "Reporter des Satans" (beide 1951). Weltsicht und Stimmung. Film noir ist grundsätzlich pessimistisch. In den Geschichten, die als charakteristisch angesehen werden, finden sich die Figuren in unvorhergesehenen Situationen gefangen und kämpfen gegen das Schicksal, das ihnen in der Regel ein schlimmes Ende beschert. Die Filme beschreiben eine Welt, der die Korruption innewohnt. Von vielen Filmtheoretikern wird Film noir mit der Gesellschaft seiner Zeit in den USA, die infolge des Zweiten Weltkriegs von Angst und Befremdung gekennzeichnet ist, in Verbindung gebracht. Nicholas Christopher umschreibt es so: „Es ist, als hätten der Krieg und die in seinem Gefolge auftretenden sozialen Umwälzungen Dämonen freigelassen, die in der Psyche der Nation eingesperrt gewesen waren.“ Anstatt sich auf einfache Gut-und-Böse-Konstruktionen zu beschränken, baut der Film noir moralische Zwickmühlen auf, die ungewöhnlich uneindeutig sind – zumindest für das typische Hollywood-Kino. Es sind keine Charaktere, die ihre Ziele nach klaren moralischen Vorgaben verfolgen: Der Ermittler in "Die Spur des Fremden" (1946), der wie besessen einen Nazi-Verbrecher aufspüren will, bringt andere Personen in Lebensgefahr, um die Zielperson zu fassen. Die pessimistische Stimmung des Film noir bezeichnen Kritiker auch als dunkel und „überwältigend schwarz“ (Robert Ottoson). Paul Schrader schrieb, dass Film noir durch seine Stimmung definiert sei, eine Stimmung, die er als „hoffnungslos“ bezeichnet. Auf der anderen Seite sind gewisse Filme der Schwarzen Serie jedoch berühmt für die Schlagfertigkeit ihrer "Hardboiled"-Figuren, die mit sexuellen Anspielungen und selbstreflektivem Humor gespickt ist. Sozialkritik und Politik im Film noir. Viele Films noirs, insbesondere die auf Vorlagen der "Hardboiled"-Autoren basierenden, beleuchten das Milieu sozial benachteiligter Schichten oder stellen unterschiedliche soziale Schichten kontrastierend gegenüber. Filme wie "Der gläserne Schlüssel" (1942) und "Murder, My Sweet" (1944) sind laut Georg Seeßlen von „einer latenten gesellschaftskritischen Tendenz durchzogen, wie sich überhaupt an den Filmen, mehr noch aber an den an ihnen beteiligten Personen belegen läßt, daß das Genre der "private-eye"-Filme durchaus ein Derivat einer «linken» Strömung in Hollywood sein mochte.“ Regisseure, die sich mit sozialkritischen Themen hervortaten, waren Edward Dmytryk "(Murder, My Sweet, Cornered, Im Kreuzfeuer)", Robert Rossen "(Johnny O’Clock, Jagd nach Millionen)", Jules Dassin "(Zelle R 17, Die nackte Stadt)" und Joseph Losey "(Dem Satan singt man keine Lieder, M)". Mit Beginn der antikommunistischen McCarthy-Ära endeten die Karrieren dieser Regisseure jäh. Thom Andersen schuf für diese um „größeren psychologischen und sozialen Realismus“ bemühten Filme den Begriff Film gris. James Naremore erweitert die Liste sozial engagierter Regisseure um Orson Welles und John Huston und sieht den Film noir der 1940er Jahre in zwei Lager gespalten, den des „Humanismus und politischen Engagements“ auf der einen, den des „Zynismus und der Misanthropie“ (vertreten etwa durch Alfred Hitchcock und Billy Wilder) auf der anderen Seite. Die „Schwarze Liste“ der McCarthy-Ära bedeutete das Ende einer „wichtigen Bewegung der kulturellen Geschichte Amerikas“, denn „ohne die Generation der Roten der 1940er Jahre würde die Tradition des Film noir kaum existieren.“ (Naremore) Ende der 1940er und Anfang der 1950er Jahre schlug sich das geänderte politische Klima in den USA auch im Film noir nieder. Es entstand eine Reihe von Filmen, die vor der Gefahr kommunistischer „Unterwanderung“ warnten wie "The Woman on Pier 13" oder "I Was a Communist for the F.B.I." Detaillierte Milieuschilderungen wie in "Steckbrief 7-73" von John Berry (der ebenfalls auf die Schwarze Liste gesetzt wurde) verschwanden aus dem Film noir. Eine Ausnahme stellte Samuel Fullers "Polizei greift ein" dar, der eine antikommunistische Botschaft mit dem Porträt von Vertretern der amerikanischen Unterschicht verband. Im amerikanischen Detektivroman wurde Mickey Spillanes „faschistischer Rächer“ (Naremore) Mike Hammer zur populärsten Figur jener Jahre. Film noir außerhalb der Vereinigten Staaten. Im Großbritannien der Nachkriegszeit entstand eine ganze Reihe von Filmen, die dem Film noir stilistisch nahestehen, was zur Prägung des Begriffs „British Noir“ führte. Prominente Beispiele sind "Brighton Rock" von John Boulting nach einem Roman von Graham Greene, "Sträfling 3312" von Alberto Cavalcanti und "Ausgestoßen" von Carol Reed, alle aus dem Jahr 1947. Mit "Der dritte Mann" (1949, ebenfalls nach einem Graham-Greene-Roman) inszenierte Carol Reed auch den wohl berühmtesten Vertreter des British Noir. Aufgrund der Repressionen der McCarthy-Ära emigrierten auch einige Hollywood-Regisseure nach Großbritannien und schufen dort ebenfalls herausragende Werke des British Noir, wie z. B. "Der Wahnsinn des Dr. Clive" (1949) von Edward Dmytryk, "Teuflisches Alibi" von Joseph Losey und "Duell am Steuer" von Cy Endfield (beide 1957). Auch in Frankreich wurden während der klassischen Ära zahlreiche Filme produziert, die in der Tradition des amerikanischen Film noir stehen. Einer der bekanntesten davon ist "Rififi" (1955) von dem aus den USA nach Frankreich emigrierten Jules Dassin. Weitere herausragende Beispiele sind Henri-Georges Clouzots "Unter falschem Verdacht" (1947) und "Die Teuflischen" (1954), Jacques Beckers "Goldhelm" (1952) und "Wenn es Nacht wird in Paris" (1954) sowie Jean-Pierre Melvilles "Drei Uhr nachts" (1956). Mit "Der Teufel mit der weißen Weste" (1962) und "Der zweite Atem" (1966) schuf Melville auch noch nach Ende der klassischen Ära bedeutende französische Film noirs. Auch die Regisseure der Nouvelle Vague hatten in ihrem Kampf gegen das etablierte und langweilige französische „Qualitätskino“ der 1950er Jahre eine Vorliebe für die schnell und billig produzierten Filme der „Schwarzen Serie“. Besonders die jüngeren Vertreter wie Samuel Fuller und Robert Aldrich wurden von ihnen bewundert, und der Film noir geriet in ihrem Schaffen zur Inspirationsquelle. Louis Malles "Fahrstuhl zum Schafott" (1958), ein Vorläufer der Nouvelle Vague, nutzt ausgiebig die thematischen und stilistischen Vorgaben des Film noir, und François Truffauts "Schießen Sie auf den Pianisten" (1960) basiert auf einem Roman des Noir-Autoren David Goodis. Sogar in Deutschland und Österreich entstanden einige Filme mit Noir-Attributen. Als bedeutendster davon gilt heute Peter Lorres "Der Verlorene" (1951). Weitere Beispiele sind "Epilog – Das Geheimnis der Orplid" (1950) von Helmut Käutner, der thematisch und stilistisch an "Der dritte Mann" anknüpft, "Abenteuer in Wien" (1952) von Emil-Edwin Reinert und Robert Siodmaks "Nachts, wenn der Teufel kam" (1957). Neo-Noir. Wie „Film noir“ ist auch „Neo-Noir“ ein im Nachhinein geprägter Fachbegriff der Filmkritik, unter dem seit den frühen 1980er Jahren Filme zusammenfasst werden, die die Tradition des klassischen Film noir fortführen. Als Neo-Noir werden dabei sowohl Filme bezeichnet, die die typischen visuellen und narrativen Elemente des Film noir variieren (wie z. B. "Heißblütig – Kaltblütig," 1981) als auch solche, die sie schlicht reproduzieren (etwa "L.A. Confidential," 1997). Um auf die Kontinuität des Stils hinzuweisen werden letztere gelegentlich aber auch direkt als Film noir bezeichnet. Im Vergleich zum klassischen Film noir geht die Verwendung des Begriffs Neo-Noir meist mit einer wesentlich breiter gefassten Definition einher, in der Merkmale wie Farbe, Bildformat oder Produktionsland keine Rolle mehr spielen. Häufig erinnern selbst die inhaltlichen Elemente nur noch entfernt an die Werke des klassischen Zyklus. Nicht zuletzt deswegen sehen Gegner des Begriffs Neo-Noir im Film noir ein zeitlich abgeschlossenes Phänomen und argumentieren, dass letzterer durch seinen historischen Kontext definiert sei und somit in jüngerer Zeit keine Grundlage mehr habe. Befürworter hingegen verweisen darauf, dass nach wie vor Filme mit den typischen Merkmalen des Film noir produziert werden und diese somit auch als Neo-Noir bezeichnet werden dürfen. In der Zeit, die sich direkt an den letzten „echten“ Film noir "Im Zeichen des Bösen" anschließt, sind nicht besonders viele Neo-Noirs entstanden. Als einer der ersten ist Robert Wise’ "Wenig Chancen für morgen" (1959) zu nennen, der eine typische Noir-Geschichte mit typischen Stilelementen um den Aspekt der Rassenfeindlichkeit erweitert. Zwei für den Neo-Noir wegweisende Filme stammen vom „Master of Suspense“ Alfred Hitchcock: "Vertigo – Aus dem Reich der Toten" (1958) ist ein farbiges Werk, das Themen des Film noir aufgreift – eine Obsession, die ins Verbrechen führt, gefälschte Wahrnehmung und wechselnde Identitäten. Sein 1960 erschienener Film "Psycho" wiederum ist ein Beispiel dafür, wie Noir-Geschichten (die unschuldige Angestellte, die auf einmal Geld stiehlt) mit Handlungselementen anderer Genres (die Horrorgeschichte um Norman Bates) kombiniert werden können. Auch von Regisseur Samuel Fuller stammen einige Thriller, in denen es um typische Noir-Charaktere geht, z. B. "Alles auf eine Karte" (1961) oder "Der nackte Kuß" (1964). John Boormans "Point Blank" (1967), der eine stark europäisch geprägte Filmsprache verwendet, ist ein erstes Anzeichen für tiefgreifende Variationen des Stils. In den 1970er Jahren häuften sich dann Detektivfilme wie "Der Tod kennt keine Wiederkehr" (1973), "Chinatown" (1974) oder "Die heiße Spur" (1975). Aber auch Polizisten hielten Einzug in die Geschichten der Neo-Noirs, so zum Beispiel in "Dirty Harry" oder "Brennpunkt Brooklyn" (beide 1971). Gute Beispiele dafür, dass auch der Zeitgeist in neue Film noirs einbezogen wurde, sind "Zeuge einer Verschwörung" (1974), der die Watergate-Affäre behandelt, sowie "Dreckige Hunde" (1978), der den Vietnamkrieg zum Thema hat. Der große Erfolg von "Heißblütig – Kaltblütig" im Jahr 1981 begründete einen Reigen von Remakes und Variationen klassischer Films noirs. Dazu zählen u. a. "Gegen jede Chance" (1984, Remake von "Goldenes Gift"), "No Way Out – Es gibt kein Zurück" (1987, Remake von "Spiel mit dem Tode") und "Wenn der Postmann zweimal klingelt" (1981, Remake von "Im Netz der Leidenschaften"). "Hardboiled"-Autor Dashiell Hammett wurde selbst zur Filmfigur in Wim Wenders’ Film "Hammett" (1983). Eine besondere Art von Neo-Noir produzierte Regisseur David Lynch mit seinen Filmen. Wenn der Neo-Noir auch keine Charakterdarsteller wie Humphrey Bogart oder Barbara Stanwyck mehr hervorbringt, so ist er doch seit über sechzig Jahren im Film gegenwärtig. Im ersten Jahrzehnt des 21. Jahrhunderts begannen einige Regisseure Motive und Ästhetik des Film Noir mit Themen des Jugendfilms, insbesondere des Schülerfilms, zu verbinden. Für diese Filme, die Geschichten aus den jugendlichen Milieus im Stile eines Film Noir erzählen, hat sich die Bezeichnung "„Teen noir“" etabliert. Von der Kritik gelobte Beispiele für diese Spielart des Neo-Noir sind der Film Brick (2005) und die Fernsehserie Veronica Mars (2004–2007). Fernsehserien. Als der Film noir in den Kinos seinem Ende entgegenging, begann das neue Medium Fernsehen, das damals noch schwarzweiß war, sich rasant zu verbreiten. Trotz des völlig anderen Seherlebnisses und des nicht geschlossenen Formats der Serie wagten es einige Filmemacher, Fernsehsendungen im Noir-Stil zu produzieren. Den Anfang machte die Detektivserie "China Smith" (1952–1954), zu der auch Robert Aldrich wenige Episoden beisteuerte. Die Hauptfigur war gekennzeichnet durch Sarkasmus, Heimatlosigkeit und einen eigenen Moralkodex. Auch im Noir-Stil präsentierte sich die Serie "Four Star Playhouse" (1952–1956), an der neben Robert Aldrich auch Drehbuchautor Blake Edwards und Schauspieler Dick Powell beteiligt waren. Weitere „hartgesottene“ Detektivserien in den 1950ern waren "Mickey Spillane’s Mike Hammer" (1956–1959) und "The Man with a Camera" (1958–1959). "Peter Gunn" (1958–1961), die einen emotional abgeschotteten Detektiv als Hauptfigur zeigt, ist in besonderem Maße düster, fatalistisch und gewaltvoll. Von "Peter Gunn" inspiriert ist die nur wenig später erschienene Serie "Johnny Staccato" (1959–1960), die ebenfalls von Low-Key-Beleuchtung und Ich-Erzähler Gebrauch macht, allerdings stärker von der verwendeten Jazzmusik geprägt ist. Bei einigen Episoden von "Johnny Staccato" führte John Cassavetes Regie. Die erfolgreichste aller Noir-Serien war "Auf der Flucht" (1963–1967) nach einem Konzept von Roy Huggins. Sie beruht hauptsächlich auf den Romanen David Goodis’. Die Hauptfigur Dr. Kimble (gespielt von David Janssen), die von Entfremdung und Angst gezeichnet ist, ist ein typischer Antiheld. Danach verschwanden die Noir-Serien auch wieder und kamen erst in der Blütezeit des Neo-Noir erneut zum Vorschein. Michael Manns "Miami Vice" (1984–1989), Robert B. Parkers "Spenser: For Hire" (1985–1988), das Remake "Mickey Spillane’s Mike Hammer" (1984–1987) sowie "Fallen Angels" (1993–1995) sind Beispiele für jüngere Hommagen an den Film noir. Auch beim Zeichentrick gibt es mit "Noir" (2001) eine stark vom Film noir inspirierte Serie. In der Fernsehserie "Veronica Mars" (2004–2007) übernimmt eine Schülerin die Rolle des hartgesottenen Detektivs. Als Tochter eines Privatdetektivs und ehemaligen Polizeichefs hilft sie diesem außerhalb ihrer Schulzeit bei diversen Fällen aus. Sie ist eine Außenseiterin, geprägt von persönlichen Traumata wie der alkoholabhängigen Mutter und der eigenen Vergewaltigung durch einen Mitschüler und besitzt eine desillusionierte Sicht auf das Leben in ihrer Schule und Heimatstadt. Comics. Der grafische Stil des Film noir hielt schon früh Einzug in die Comicwelt. Will Eisners Comicreihe "The Spirit," die bereits 1940 erstmals und 1952 zum letzten Mal erschien, war in dieser Hinsicht wegweisend. Deren Held, Privatdetektiv Danny Colt, verfügt über keinerlei übernatürliche Kräfte, sondern wandelt mit einer bloßen Augenmaske durch die bedrohlich-düstere Großstadt. Nebenfiguren in Außenseiterrollen treten in den Mittelpunkt der Geschichten. Inspiriert durch "The Spirit" entstanden in den vergangenen Jahrzehnten weitere zahlreiche Comics im Noir-Stil, von denen "Watchmen" von Alan Moore, "Daredevil" von Stan Lee sowie "Batman" von Bob Kane zu den wichtigsten zählen. Eines der neusten Beispiele liefert Comicautor Frank Miller mit der Serie "Sin City," die 2005 verfilmt wurde. Als europäischer Vertreter ist der französische Comic-Zeichner Jacques Tardi zu nennen. Computerspiele. Mittlerweile gibt es eine Reihe von Computerspielen, die auf bekannten Vorbildern des Film noir basieren oder sich in der Tradition des Film noir sehen. Dies sind meistens Adventures, da sie sowohl gut die Handlung als auch typische Optikelemente darstellen können. Es finden sich jedoch, wenn auch selten, einzelne Stilelemente in anderen Spielgenres wie dem Ego-Shooter oder dem Third-Person-Shooter wieder. Der getreuste Vertreter des Film noir findet sich in dem Adventurespiel Private Eye, welches eine Adaption des Phillip Marlowe Romans „The Little Sister“ („Die kleine Schwester“) ist. Im Spiel kann der originale Plot des Romans oder ein alternativer Story-Verlauf gespielt werden. Ein weiterer Vertreter des Genres ist Grim Fandango von LucasArts, ein Adventure, welches in einem Totenreich spielt, und eine sehr außergewöhnliche Optik bietet. Ebenso ist Sam aus dem Adventurespiel Sam & Max eine dem Film Noir entlehnte Figur des Hardboiled Detective, auch die Ausdrucksweise ist dem Film noir entnommen. In einer Episode ist es sogar möglich „Noir“ als Option für eine Antwort in Dialogen zu geben. "L.A. Noire" ist ein 2011 erschienenes Computerspiel von Rockstar Games, das sich ebenfalls dem Film noir verschrieben hat. Es mischt Action- und Open-World-Elementen mit adventureartigen Ermittlungspassagen. Neben "L.A. Noire" gilt auch das storylastige Adventure "Heavy Rain" als moderner Vertreter des Film noir. Hier wird die Stimmung aufgrund des durchweg fallenden Regens und des dunklen Grundtons bestimmt. Einen anderen Ansatz bietet Discworld Noir von Perfect Entertainment. Hier werden klassische Film-noir-Beispiele (wie zum Beispiel "Die Spur des Falken") stark referenziert, aber in anderer, dem Scheibenwelt-Universum angepasster Form dargestellt. In dem Spiel Max Payne werden Kinoelemente aus dem Actiongenre im Stile John Woos mit starken Einflüssen des Film noir vor allem in der Rahmenhandlung kombiniert, und mit entsprechender Musik unterlegt. für das Nintendo DS ist eine Mischung aus interaktivem Film und Adventure mit klassischen Film noir-Elementen. Fred Zinnemann. Fred Zinnemann (* 29. April 1907 in Rzeszów ; † 14. März 1997 in London; eigentlich: "Alfred Zinnemann") war ein österreichisch-US-amerikanischer Filmregisseur. Leben. Fred Zinnemann, Sohn eines Arztes, kam im Nordosten Österreich-Ungarns in einer jüdischen Familie zur Welt und wuchs im 3. Bezirk Wiens auf. In seiner Jugend war er eng mit dem späteren Hollywood-Regisseur Billy Wilder befreundet, mit dem er zeitweise in dieselbe Klasse ging und mit dem er ein Leben lang Kontakt hielt. Zinnemann maturierte 1925 am Franz-Joseph-Gymnasium Stubenbastei und begann nach Interesse für eine musikalische Ausbildung zunächst Rechtswissenschaften zu studieren. 1927 nahm er nach anfänglich großem Widerstand seiner Eltern und Verwandten in Paris an der Ecole Technique de Photographie et de Cinématographie eine Kameraausbildung auf. Seit 1928 in Berlin tätig, war er 1929 Kameraassistent bei einem Stummfilm mit Marlene Dietrich. Seine dritte Kameraassistenz absolvierte er im Sommer 1929 beim Film Menschen am Sonntag, „der bald einmal berühmt gewordenen Außenseiterproduktion der Brüder Siodmak, Edgar Ulmers und Billy Wilders.“ Zinnemann verließ im Oktober 1929 Deutschland und ging nach Hollywood. Dort arbeitete er als Regieassistent und Kurzfilmregisseur. Er hatte ebenfalls einen Auftritt als Kleindarsteller in "In Westen nichts Neues", es kam jedoch zu keiner weiteren Schauspielkarriere. Zinnemann wurde vorerst Assistent des österreichischen Regisseurs Berthold Viertel und lernte durch ihn Robert J. Flaherty kennen. Dieser vermittelte Zinnemann eine erste Regie beim dokumentarischen Spielfilm Netze ("Redes") über die Ausbeutung mexikanischer Fischer. Der Film, an dem der Fotograf Paul Strand mitwirkte, entstand in den Jahren 1934 bis 1936. Fred Zinnemann nahm 1936 die amerikanische Staatsbürgerschaft an und 1937 begann seine Arbeit in der Kurzfilmabteilung von Metro-Goldwyn-Mayer. Für seinen dritten Kurzfilm, "That Mothers Might Live" (über Ignaz Semmelweis), erhielt er 1938 seinen ersten Oscar. In den vierziger Jahren konnte sich Zinnemann nach diesen ersten Erfolgen schließlich dem Spielfilm zuwenden. Während des Zweiten Weltkriegs wurde Zinnemann von MGM an den Schweizer Produzenten Lazar Wechsler ausgeliehen. In dieser Zeit entstand unter anderem "Die Gezeichneten", der mit zwei Oscars ausgezeichnet wurde. Bis 1948 arbeitete Zinnemann für MGM. Danach drehte er für verschiedene amerikanische Studios. Seine Unabhängigkeit bewahrte er sich später, indem er seine Filme selbst produzierte. 1951 drehte er mit dem Westernklassiker "Zwölf Uhr mittags", seinen vielleicht bekanntesten Film. Der Film erhielt 1953 vier Oscars und brachte Zinnemann die von der "New Yorker Filmkritik" verliehene Auszeichnung für den besten Regisseur des Jahres ein. Die Szene in Der Pate, in dem ein Filmemacher nach der Enthauptung seines Lieblingspferdes dessen Kopf in seinem Bett vorfindet, soll ein realer Vorfall aus dem Leben von Zinnemann sein. Dadurch soll Frank Sinatra, der engste Kontakte zur La Cosa Nostra suchte und pflegte, 1953 für den Film "Verdammt in alle Ewigkeit" engagiert worden sein. Ein typischer Hollywoodhandwerker ist Zinnemann nie geworden. Nur einen Bruchteil der knapp sechs Jahrzehnte, die seine Karriere umfasst, hat er in Hollywood zugebracht. Ihm wird zugeschrieben, Montgomery Clift, Marlon Brando, Grace Kelly, Rod Steiger, Meryl Streep und andere Stars als Erster groß herausgebracht zu haben. Fred Zinnemann wurde insgesamt fünf Mal mit einem Oscar ausgezeichnet und weitere sechs Mal nominiert. Zinnemann gilt als einer der besten Regisseure des 20. Jahrhunderts. Er starb 1997 im Alter von 89 Jahren in London an einem Herzanfall. Im Jahr 2008 wurde in Wien-Landstraße (3. Bezirk) der "Fred-Zinnemann-Platz" nach ihm benannt. Frank Capra. Frank Capra am Schneidetisch während seines Militärdienstes, ca. 1943 Frank Capra, (* 18. Mai 1897 in Bisacquino, Sizilien als "Francesco Rosario Capra"; † 3. September 1991 in La Quinta, Kalifornien) war ein US-amerikanischer Filmregisseur, Produzent und Autor italienischer Herkunft. Er zählte zu den erfolgreichsten Regisseuren seiner Generation. Aus einer ärmlichen Auswandererfamilie stammend, gehörte Capra in den 1930er- und 1940er-Jahren zu Hollywoods populärsten und angesehensten Regisseuren. Mit den Filmen "Es geschah in einer Nacht" (1934), "Mr. Deeds geht in die Stadt" (1936) und "Lebenskünstler" (1938) gewann er dreimal den Oscar für die Beste Regie. Weitere bedeutende Filmklassiker unter seiner Regie sind "Mr. Smith geht nach Washington" (1939), "Arsen und Spitzenhäubchen" (1944) sowie "Ist das Leben nicht schön?" (1946). Häufig drehte er Tragikomödien im Kontext der Great Depression, die – stets auf der Seite des „Kleinen Mannes“ – zu gesellschaftlichen und sozialen Themen Stellung bezogen. Als sein Erfolg zunehmend nachließ, zog er sich 1964 nach 54 Filmen in den Ruhestand zurück. Frühes Leben. Frank Capra wurde in Bisacquino, einem Dorf in der Nähe von Palermo, geboren und auf den Namen Francesco Rosario getauft. Er war das jüngste von sieben – überlebenden – Kindern des Obstpflückers Salvatore Capra und seiner Ehefrau Sarah. Die Familie war römisch-katholisch und eng mit der Kirche verbunden. Die Familie emigrierte 1903 in die Vereinigten Staaten, als er fünf Jahre alt war. Die dreizehntägige Schiffsreise über den Atlantik musste die Familie wegen Geldmangels im billigen Zwischendeck zubringen, das Elend dort beschrieb Capra später als eine seiner schlimmsten Lebenserfahrungen. Die Familie siedelte sich im östlichen Teil von Los Angeles an, in einem Stadtteil, den Capra später als „Italienisches Ghetto“ beschrieb. Sein Vater arbeitete wie bereits in Italien als Obstpflücker, während Frank für zehn Jahre nach der Schule als Zeitungsjunge Geld nebenher verdienen musste. Frank Capra schloss die Highschool nach zehn Jahren ab und besuchte anschließend das California Institute of Technology. Für die Finanzierung des Studiums musste er sich mit verschiedenen Jobs Geld dazuverdienen: Er spielte Banjo in Nachtclubs, arbeitete in der Waschküche seiner Universität sowie als Kellner, außerdem putzte er Maschinen in einem lokalen Kraftwerk. Capra schloss sein Studium im Chemieingenieurwesen im Frühling 1918 ab. Bald darauf schloss er sich der US-Armee als Second Leutnant in den Ersten Weltkrieg an. Als Soldatenlehrer unterrichtete er an der Fort Point National Historic Site in San Francisco das Fach Mathematik. Doch Capra erkrankte an der damals wütenden Spanischen Grippe und musste zu seiner Mutter zurückgeschickt werden. Wenig später verstarb auch sein Vater bei einem Unfall. Als er mit seiner Mutter und seinen Geschwistern in ihrer Wohnung lebte, war er zwar das einzige Familienmitglied mit einem College-Abschluss, allerdings auch das einzige Familienmitglied ohne festes Einkommen. Nach einem Jahr ohne Arbeit verfiel er zeitweise in eine Depression. Nach Überwindung seiner Depression lebte Capra die nächsten Jahre in verschiedenen Unterkünften um San Fransisco, er reiste auf Zügen oder mit Soldatentruppen quer durchs Land. Um sein Leben einigermaßen finanzieren zu können, arbeitete Capra als Aushilfe auf Farmen, als Filmstatist, als Pokerspieler und als Handelsvertreter, wo er unter anderem die Werke des Philosophen Elbert Hubbard verkaufte. Mit 24 Jahren drehte Capra die 32-minütige Dokumentation "La Visita Dell'Incrociatore Italiano LIBYA a San Francisco." Dies war sein erster Kontakt zum Film, wenngleich ihm die kleine Dokumentation keinerlei Erfolg oder Aufsehen brachte. 1922–1928: Die Anfänge in der Stummfilmära. 1922 stieß Capra während seiner Zeit als Handelsvertreter auf eine Zeitungsanzeige, dass Regisseure für ein neues Filmstudio in San Francisco gesucht würden. Am Telefon erzählte er den Produzenten, dass er direkt aus Hollywood kommen würde und Erfahrung im Filmgeschäft hätte. Der Studiogründer Walter Montague (1855–1924) stellte Capra ein und gab ihm 75 US-Dollar, um einen zehnminütigen Stummfilm zu drehen. Der angehende Regisseur drehte mit einem Kameramann und Amateurdarstellern in nur zwei Tagen den Film "Fultah Fisher’s Boarding House", dessen Handlung auf einem Gedicht von Rudyard Kipling basierte. Nachdem Walter Montagues Filmstudio wenig Erfolg hatte und schnell wieder aufgelöst wurde, suchte Capra in der Folgezeit nach neuen Anstellungen im Filmgeschäft und erhielt schließlich eine feste Anstellung in einem anderen kleinen Filmstudio in San Fransisco. a> beim Schneiden eines Filmes (Februar 1944) Hier erweckte Capra die Aufmerksamkeit des Hollywood-Produzenten Harry Cohn, welcher ihn zu seinem neuen Filmstudio in Los Angeles lotste. Er arbeitete während dieser Zeit gleichzeitig als Requisiteur, Filmcutter, Titelschreiber und Assistenzregisseur; durch diese vielfältigen Aufgaben erlernte er jedoch die Grundlagen des Filmgeschäfts. 1924 arbeitete Capra kurz in der Drehbuchabteilung des Produzenten Hal Roach und schrieb unter anderem Gags für die Kleinen Strolche. Ende desselben Jahres konnte Roachs größter Konkurrent Mack Sennett Capra als Autor für die Filme des Komikers Harry Langdon abwerben. Langdons Komikerfigur zeichnete sich durch grenzenlose Langsamkeit, Naivität und Unschuld aus, weshalb sie mit der großen, harten Welt meistens nicht zurechtkam. Auch Capra, der sich nun endgültig zum Komödienspezialisten entwickelte, hatte Anteil daran, dass Langdon sich Mitte der 1920er Jahre zu einem der erfolgreichsten Komiker Hollywoods emporschwang. Als Langdon von Mack Sennetts Studio zu First National wechselte, um dort Langfilme herstellen zu können, nahm er Capra als seinen wichtigsten Autoren und als Regisseur mit sich. 1926 und 1927 drehten sie zwei Langfilme, von denen der erste, "The Strong Man", sowohl beim Publikum als auch bei Kritikern großen Erfolg hatte. Langdon wurde während dieser Zeit mit Charlie Chaplin, Harold Lloyd und Buster Keaton verglichen. Während der Dreharbeiten des zweiten Films kam es jedoch zu einem Streit zwischen Capra und Langdon und das Erfolgsduo trennte sich. Die Reaktionen auf den Film waren negativ und Langdons Stern begann zu sinken. Nach der Trennung von dem Komiker drehte Capra für First National mit "For the Love of Mike" noch eine weitere Stummfilmkomödie, in welcher auch die zu diesem Zeitpunkt noch nahezu unbekannte Claudette Colbert eine Rolle innehatte. Auch dieser Film wurde mit schlechten Kritiken bedacht und Capra erhielt keinen weiteren Vertrag bei First National. 1928–1933: Erste Erfolge bei Columbia Pictures. Der arbeitslose Regisseur wurde 1928 vom Produzenten Harry Cohn, der ihn einst nach Hollywood geholt hatte, erneut für dessen Filmstudio Columbia Pictures verpflichtet. Columbia gehörte zu dieser Zeit zu den sogenannten Poverty Row-Filmstudios in Hollywood, die mit den großen Filmstudios und deren hohen Budgets nicht konkurrieren konnten, Columbia Pictures wollte allerdings an Bedeutung und Größe gewinnen und zu den größeren Filmstudios aufschließen, doch dafür mussten erfolgreiche Langfilme produziert werden. Hierfür wurde Capra verpflichtet. Insgesamt drehte der Regisseur zwanzig Filme für Columbia Pictures, neun davon gleich im ersten Jahr. Die meisten dieser neun Filme Capras stellten sich als sehr erfolgreich heraus, sodass Cohn dessen Gehalt von 1000 US-Dollar pro Film auf das Jahresgehalt von 25.000 US-Dollar vergrößerte. Er drehte unter anderem das Drama "The Younger Generation" (1929), über eine jüdische Familie in New York, deren Sohn seine jüdischen Wurzeln verleugnet, um weiter in der Gunst seiner Freundin zu bleiben. Ende der 1920er-Jahre hielt der Tonfilm Einzug in Hollywood; Capra begrüßte diese Neuerung im Gegensatz zu vielen seiner Kollegen und hielt den Tonfilm ebenfalls nicht für eine vorübergehende Modeerscheinung. Bei der Produktion seiner ersten Tonfilme war ihm das Ingenieurstudium ein Vorteil, denn – wie sich später Capras langjähriger Kameramann Joseph Walker erinnerte – verstand er im Gegensatz zu dem meisten anderen Regisseuren auch etwas von der technischen Materie und hatte sich schnell an die technischen Neuerungen des Tonfilmes gewöhnt. Neben dem Kameramann Joseph Walker, welcher mit dem Regisseur bei insgesamt 18 Filmen zusammenarbeitete, wurde auch der Drehbuchautor Robert Riskin regelmäßig von Capra verpflichtet. Im vielen Capra-Filmen schrieb Riskin die witzigen und scharfen Dialoge und beide wurden zu „Hollywoods umjubelsten Regisseur/Autor-Team“. Nach Achtungserfolgen wie dem Abenteuerfilm "Das Luftschiff" (1931) und vor allem der Komödie "Vor Blondinen wird gewarnt" (1931), die Jean Harlows Karriere erheblich voranbrachte, drehte Capra im Jahre 1933 die Komödie "Lady für einen Tag". Mit der 75-jährigen May Robson – welche eine arme Apfelverkäuferin spielt, die sich als Dame verkleidet – hatte der Film eine eher ungewöhnliche Hauptdarstellerin. Dennoch wurde er für vier Oscars nominiert, darunter auch in der Kategorie Beste Regie für Capra, ging aber bei der Verleihung leer aus. Dennoch gilt "Lady für einen Tag" als Capras erster großer Wurf, außerdem war es Columbias erster Streifen, welcher für einen Oscar als Bester Film nominiert wurde. 1934–1941: Große Kinoklassiker und drei Oscars als Bester Regisseur. Im folgenden Jahr sollte Capra seinen Erfolg von "Lady für einen Tag" allerdings überschatten: Seine Roadmovie-Komödie "Es geschah in einer Nacht" (1934) gewann als erster Film alle Oscars in den fünf Hauptkategorien (Bester Film, Bester Regisseur, Bester Hauptdarsteller, Beste Hauptdarstellerin, Bestes Drehbuch). Claudette Colbert spielt im Film eine verwöhnte Millionenerbin, welche vor ihrem Vater zu einem snobhaften Geliebten flieht und auf diesem Weg nicht nur das Elend der normalen Bevölkerung in der Great Depression kennenlernt, sondern sich dabei auch in einen bodenständigen Reporter (Clark Gable) verliebt. Trotz dieser eigentlich komischen Handlung zeigt Capra also ebenso die Probleme der amerikanischen Durchschnittsbürger in der Weltwirtschaftskrise auf. "Es geschah in einer Nacht" gilt heute als Gründungsfilm der Screwball-Komödie schlechthin und beförderte Columbia Pictures in die Reihe der großen Hollywood-Studios. Auch bei Capras folgenden Film "Broadway Bill" über Pferderennen handelte es sich um eine Screwball-Komödie, allerdings war geriet nicht so erfolgreich wie "Es geschah in einer Nacht". Nach "Broadway Bill" entschied sich Capra, künftig noch mehr Einfluss auf seine Drehbüchner zu nehmen und in seinen Filmen auch politische, gesellschaftliche oder moralische Botschaften an die Öffentlichkeit zu senden. Der erste Film dieser Art war "Mr. Deeds geht in die Stadt" mit Gary Cooper und Jean Arthur in den Hauptrollen. Cooper spielt einen Glückskarten-Dichter, ein freundlich-naives Landei, dass ein Millionenvermögen erbt und mit seinem Geld viel Gutes tut, ehe seine geldgierigen und betrügerischen Anwälte ihn für verrückt erklären wollen. Der Kritiker Alistair Cooke schrieb bei "Mr. Deeds", dass Capra beginnen würde, mehr Filme über Themen als über Menschen zu drehen. Für "Mr. Deeds geht in die Stadt" gewann Capra seinen zweiten Oscar als Bester Regisseur. Von Capras vorigen Filmen unterschied sich dagegen der Abenteuerfilm "In den Fesseln von Shangri-La" (1937) mit Ronald Colman, welcher auf dem utopischen Roman "Der verlorene Horizont" von James Hilton basierte. Der Dreh verbrauchte die damals hohe Summe von 1,5 Millionen US-Dollar, unter anderem weil der Film in einem exotischen, wunderschön-utopischen Tal im Himalaya spielt – die Kulissen des Filmes waren daher äußerst aufwendig. Am 5. Mai 1936 war Capra, inzwischen bestbezahlter Regisseur in Hollywood, Gastgeber der Oscarverleihung 1936. Mit seinem dritten Oscar als Bester Regisseur in fünf Jahren wurde Capra für die Komödie "Lebenskünstler" ausgezeichnet, außerdem gewann die Produktion den Oscar für den Besten Film des Jahres. "Lebenskünstler" basiert auf dem Erfolgsstück "You Can’t Take It with You", welches am Broadway ab Dezember 1937 insgesamt 837 Vorstellungen hatte. Jean Arthur und James Stewart spielen in den Hauptrollen ein junges Liebespaar, deren äußerst unterschiedliche Familien – die einen knallharte Geschäftsleute, die anderen alternative Exzentriker – sich kennenlernen. 1939 drehte Capra mit der Politiksatire "Mr. Smith geht nach Washington" einen seiner bekanntesten Filme, erneut mit Arthur und Stewart in den Hauptrollen. Capra machte Stewart mit den Hauptrollen in "Lebenskünstler" und "Mr. Smith" zum Hollywood-Star. In "Mr. Smith geht nach Washington" wird Capras Patriotismus deutlich, er zeigt „das Individuum im demokratischen System beim Kämpfen gegen zügellose Korruption in der Politik“. Bei seiner Veröffentlichung war der Film bei Kritikern und Publikum beliebt, doch viele Politiker waren erzürnt. So bat der damalige US-Botschafter in Großbritannien, Joseph P. Kennedy, Columbia-Boss Harry Cohn, dass der Film nicht in Europa gezeigt werden sollte. An US-Präsident Franklin D. Roosevelt schrieb Kennedy, dass der Film im Ausland den falschen Eindruck erzeuge, in den USA würden Bestechung, Korruption und Gesetzlosigkeit herrschen. Solch ein Eindruck sei insbesondere im Hinblick auf den beginnenden Zweiten Weltkrieg fatal für Amerika. Capra und Cohn ignorierten die Kritik am Film und der Regisseur verteidigte seinen Film mit den Worten: „Je unsicherer die Menschen auf der Welt sind, desto mehr verstreuen und verlieren sich ihre schwergewonnenen Freiheiten im Wind der Risiken, umso mehr brachen sie eine tönendes Statement für Amerikas demokratische Ideale.“ "Mr. Smith geht nach Washington" war für elf Oscars nominiert, konnte aber gegen starke Konkurrenz nur einen Preis für die Beste Originalgeschichte entgegennehmen. Als das Vichy-Regime im Zweiten Weltkrieg US-amerikanische Filme in den Kinos verbot, zeigten viele Kinobesitzer als letzten amerikanischen Film vor dem Inkrafttreten des Gesetzes "Mr. Smith" als Zeichen für Demokratie. Nach diesem Film verließ Capra Columbia Pictures und drehte seine nächsten beiden Filme bei Warner Bros. Sein erster Film dort, "Hier ist John Doe", erschien 1941. Der Filmheld, gespielt von Gary Cooper, ist ein ehemaliger Baseballspieler, der ohne Arbeit und Geld durchs Land zieht, ehe er von Nachrichtenreportern zum amerikanischen Durchschnittsbürger „John Doe“ ausgerufen wird und zum Held der Massen mutiert. Kurz vor dem Eintritt der USA in den Zweiten Weltkrieg veröffentlicht, zeigt "Hier ist John Doe" erneut patriotische Züge und enthält außerdem eine Botschaft gegen Faschismus: ein skrupelloser und offensichtlich faschistischer Industrieller mit diktatorischen Absichten nutzt John Doe für seine Zwecke aus und will zum Präsidenten werden. Viele Filmhistoriker sehen diesen Film als einen der persönlichsten von Capra an, vor allem weil dieser wie sein Filmheld einen rasanten Aufstieg hingelegt hatte, jedoch auch von Unsicherheiten geprägt war. 1941–1946: Zweiter Weltkrieg und „Arsen und Spitzenhäubchen“. Nur vier Tage nach dem Angriff auf Pearl Harbor am 7. Dezember 1941 trat Capra in die US-Armee im Rang eines Majors ein. Bei seiner Einberufung gab er nicht nur vorerst seine Hollywood-Karriere, sondern auch den Vorsitz der Directors Guild of America auf. Biografen schrieben später, dass er mit seinem Eintritt als Einwanderer seinen Patriotismus zu Amerika beweisen wollte; nach eigener Aussage wollte er sich auch etwas vom Glanz und Geld Hollywoods entfernen, der im Gegensatz zu den Inhalten seiner Filme stand. In den nächsten Jahren war er am Dreh zahlreicher Kriegsdokumentationen für Amerika beteiligt. Sein Ziel war es zu erklären, warum die US-Soldaten für ihr Land in den Krieg zogen und was ihre Ziele waren. Damit distanzierte er sich bewusst von Propagandafilmen aus Deutschland oder Japan. Zu einem großen Erfolg wurde seine siebenteilige, preisgekrönte Dokumentarfilmreihe von 1942 bis 1945, "Why We Fight", die Capra als Antwort auf Leni Riefenstahls Nazi-Propagandafilm "Triumph des Willens" verstand. Zusätzlich produzierte er mit Walt Disneys Hilfe insgesamt 28 drei- bis fünfminütige Schwarz/Weiß-Cartoons über „Private Snafu“, die zu Unterrichtszwecken in den Streitkräften eingesetzt wurden. Für die Hintergrundmusik von Capras Dokumentationsfilmen waren namhafte Hollywoodkomponisten wie Alfred Newman und Dimitri Tiomkin verantwortlich. General George C. Marshall, unter dessen Kommando Capra stand, sagte nach der Sichtung von Capras erstem Armee-Film: „Colonel Capra, wie haben sie das nur hingekriegt? Das ist die wunderschönste Sache!“ Capras Dokumentarfilme wurden in der Folge in Französisch, Spanisch, Portugiesisch und Chinesisch übersetzt und Winston Churchill verlangte, dass alle "Why we Fight"-Filme im britischen Kino gezeigt werden sollen. 1944 wurde Capras "Arsen und Spitzenhäubchen" mit Cary Grant in der Hauptrolle veröffentlicht, den Capra allerdings bereits 1941 abgedreht hatte. Die mit Schwarzem Humor angereicherte Komödie basiert auf dem Theaterstück "Spitzenhäubchen und Arsenik" ("Arsenic and Old Lace") von Joseph Kesselring und wurde von dem Drehbuchautor Julius J. Epstein adaptiert. Der Erfolg der Bühnenfassung am Broadway verzögerte die Uraufführung des Films bis ins Jahr 1944, denn die Produzenten hatten sich vertraglich verpflichtet, mit der Auswertung des Filmes bis nach Absetzung des Stückes am Broadway zu warten. Der Film erhielt exzellente Kritiken und war auch beim Publikum erfolgreich. Heute gilt er als Klassiker der Schwarzen Komödie. 1946–1964: „Ist das Leben nicht schön?“ und Nachlassender Erfolg. Nach Ende des Weltkrieges gründete Capra zusammen mit seinen Regiekollegen William Wyler und George Stevens seine eigene Produktionsfirma Liberty Films, um noch mehr Kontrolle über seine Werke zu erhalten. Jedoch wurde die Firma nach Capras Filmen "Ist das Leben nicht schön?" (1946) und "Der beste Mann" (1948) bereits wieder aufgelöst. Die aufwendige Tragikomödie "Ist das Leben nicht schön?" ist heute wahrscheinlich Capras berühmtester Streifen. Dabei war der Film mit James Stewart in der Hauptrolle bei seiner Veröffentlichung, obwohl er für fünf Oscars nominiert wurde, ein finanzieller Misserfolg. Erst durch zahllose Ausstrahlungen im US-Fernsehen wurde der Film ab den 1970er-Jahren wiederentdeckt und gilt heute als Weihnachtsklassiker. Der Film handelt von einem Mann, der sich um die Bevölkerung seiner Kleinstadt verdient gemacht hat, aber nach einem Missgeschick an einem Weihnachtsabend seinen Lebensmut verliert und sich von der Brücke stürzen will, sodass ein Engel ihm helfen muss. In seinem „optimistischen Glauben an das Gute im Menschen“ und seiner „einfallsreichen Machart“ sei es ein typischer Capra-Film. "Ist das Leben nicht schön?" wurde vom American Film Institute zum inspirierendsten amerikanischen Film aller Zeiten gewählt. Bei "Ist das Leben nicht schön?" warfen Kritiker Capra erstmals eine übersentimentale und überidealistische Art vor. Seine Filmthemen aus der Great Depression passten zunehmend nicht mehr zum Geschmack der Öffentlichkeit, der sich gewandelt hatte und seine Filme waren nicht mehr so erfolgreich. Capra selbst machte dafür die steigende Macht der Filmstars verantwortlich, die sich in seine Regiearbeit einmischten. Nach "Der beste Mann" mit dem Paar Katharine Hepburn und Spencer Tracy waren die meisten seiner Filme auch kommerziell nicht mehr erfolgreich. Nach zwei belanglosen, wenig erfolgreichen Filmen mit Bing Crosby produzierte er in den 1950er-Jahren vier naturwissenschaftliche Dokumentarfilme fürs Fernsehen, die später häufig in amerikanischen Schulklassen gezeigt wurden. Bei der Berlinale 1958 fungierte Capra als Jurypräsident. Erst 1959 drehte Capra mit der Komödie "Eine Nummer zu groß" mit Frank Sinatra und Edward G. Robinson wieder einen Spielfilm, der jedoch nur durchwachsene Ergebnisse einfuhr. Sein letzter Spielfilm "Die unteren Zehntausend" war ein Remake seines eigenen Filmes "Lady für einen Tag" von 1933, wobei Bette Davis diesmal die Rolle der Apfelverkäuferin spielte. Immerhin erhielt der Film drei Oscar-Nominierungen, dennoch halten die meisten Kritiker den Originalfilm für besser als das Remake. Anschließend drehte Capra nur noch den Dokumentarfilm "Rendezvous in Space" (1964) für den Konzern Martin Marietta. Privatleben, politische Ansichten und Ruhestand. Frank Capra heiratete 1923 die Schauspielerin Helen Howell, die Ehe wurde 1928 geschieden. Noch im selben Jahr heiratete er Lucille Warner. Der Ehe, die 1984 durch Capras Tod endete, entstammen eine Tochter und drei Söhne − ein Sohn starb bereits als Säugling. Ein Sohn war der Filmproduzent Frank Capra junior, dessen Sohn ist der Assistenzregisseur Frank Capra III. (* 1959). Zu den Interessen Capras gehörten Jagen, Fischen und Klettern, zudem besaß er eine vier Quadratkilometer große Ranch in Fallbrook. Er sammelte ebenfalls seltene und alte Bücher, so brachte ihm eine Auktion im Jahre 1948 insgesamt 68.000 US-Dollar für ein Buch. Im hohen Alter spielte er Gitarre und schrieb einige Kurzgeschichten und Songtexte. Capra hegte ein besonderes Interesse an Naturwissenschaften und Mathematik. Zwischen 1935 und 1939 fungierte Capra als Vorsitzender der Academy of Motion Picture Arts and Sciences, außerdem war er drei Jahre Präsident der Directors Guild of America, an deren Gründung er beteiligt war. Politisch war der patriotische Capra Republikaner und Konservativer sowie Gegner von Franklin D. Roosevelt und seiner Politik in der Great Depression. Weil Capra es aus schlechten Verhältnissen zu so großem Erfolg gebracht hatte, glaubte Capra, dass alle Menschen dies ebenfalls mit harter Arbeit schaffen könnten und sah keinen Grund für Staatshilfen. Er stand allerdings gegen Korruption und war auch der Wirtschaft gegenüber kritisch eingestellt. Zudem arbeitete er häufig mit linken Drehbuchautoren zusammen, weshalb viele seiner Filme einen „linken Anstrich“ hatten und etwa Kapitalismuskritik übten. Hinter "Ist das Leben nicht schön?" wurde sogar vom FBI „subversive kommunistischen Propaganda“ vermutet. Nach seinem letzten Film 1964 verbrachte Capra viele Jahre im Ruhestand und kümmerte sich ebenfalls um den Nachruhm seiner Filme. 1971 veröffentlichte er seine Autobiografie "The Name Above The Titel". Er war ebenfalls als Zeitzeuge an Dokumentationen beteiligt und nahm verschiedene Auszeichnungen entgegen. Er befand sich bis Ende der 1980er-Jahre bei guter Gesundheit, ehe er eine Reihe von Herzanfällen erlitt. Frank Capra verstarb 1991 im Alter von 94 Jahren in La Quinta an einem Herzinfarkt. Er wurde auf dem Coachella Valley Public Cemetery im Coachella Valley beigesetzt. Seine Aufzeichnungen und Schriften befinden sich als Nachlaß in der Wesleyan University. Regiestil und Bedeutung. Frank Capras Stern auf dem Hollywood Walk of Fame Frank Capra gilt bis heute als einer der einflussreichsten Regisseure Hollywoods. In den 1930er- und 1940er-Jahren zählte er zu den weltweit zwei bis drei berühmtesten und erfolgreichsten Regisseuren. Er gehörte zu den wenigen Regisseuren, deren Namen auch einem breiteren Kinopublikum bekannt waren. Als besondere Auszeichnung verstand er selbst, dass sein Name über dem Titel des Films stand. "The Name Above the Title" nannte er darum auch seine Autobiographie. Zu diesem Erfolg verhalf Capra insbesondere der Fakt, dass seine Filme eine bestimmte Handschrift trugen und so ein Capra-Film fast immer auch als solcher zu erkennen war. Damit stand er im Gegensatz zu vielen anderen Regisseuren im Studiosystem, welche die Filme drehten, die sie gerade von ihren Produzenten „vorgesetzt“ bekamen. Er verlangte möglichst viel Unabhängigkeit von Produzenten und arbeitete deshalb zum Beispiel jahrelang mit einem kleineren Studio wie Columbia zusammen, bei dem er etwas mehr Freiheiten hatte. Capras Genre war die Komödie, jedoch sind viele seiner Komödien mit tragischen und sentimentalen Momenten, bissiger Gesellschaftskritik und Pathos durchsetzt. Häufig wird eine positive Geschichte in einem negativen Umfeld gezeigt, etwa die Liebesgeschichte in "Es geschah in einer Nacht" mitten zwischen verbitterten, von der Great Depression gezeichneten Menschen. Er setzte stets den guten „Kleinen Mann“ als Hauptfigur ein, welcher vor allem von James Stewart oder Gary Cooper gespielt wurde. Seine Filme enthielten oft Botschaften über das Gute in der menschlichen Natur und zeigen, was durch Uneigennützigkeit und harte Arbeit erreicht werden kann. Diese Figur behauptet sich durch seine wohlwollende, etwas naive und idealistische Art gegen die Schurken. Wohlhabende oder mächtige Menschen erschienen dagegen häufig als Bösewichte, ein gutes Beispiel sind Edward Arnolds Verkörperungen von machtgierigen Industriellen in "Mr. Smith geht nach Washington" und "Hier ist John Doe". Die mächtigen Schurken seiner Filme wurden allerdings am Ende nur selten bestraft, weil er dies für realistischer hielt. Ein weiterer Aspekt in seinem Film ist der American Dream, verbunden mit einem gewissen Patriotismus und dem Glauben an. Seine besten Filme zeichnen sich durch schlagfertige, aber dennoch natürlich wirkende Dialoge, markante und oftmals komische Figuren, ein hohes Tempo und etwas Action aus. Am Ende steht trotz vieler Probleme ein positives, fast märchenhaftes Happy End. Capra improvisierte sehr viel bei seinen Filmen und kam häufig nur mit ungenauen Scripts ans Filmset. Im Gegensatz zu vielen fast diktatorischen Regisseuren zur damaligen Zeit herrschte bei ihm am Set meistens eine angenehme, aber künstlerische Atmosphäre. Obwohl er durchaus dynamische und schnelle Kamerabewegungen und Schnitte in seinen Filmen hatte, stand Capra eher ablehnend gegen technische Spielereien wie experimentelle Kameraperspektiven, was er als schlechte Ablenkung des Publikums verstand. Einige Kritiker entdeckten einen gewissen Purismus in seiner Arbeit. Hinter der Kamera vertraute er meistens über viele Jahre auf dieselben Leute und viele Schauspieler wie H. B. Warner besetzte in gleich mehreren seiner Filme. Abwertend werden seine Filme oft „Capra-Corn“ genannt, der positive Gegenbegriff ist „Capraesque“. Mit seinen Werken beeinflusste er viele spätere, bedeutende Regisseure maßgeblich. Auszeichnungen (Auswahl). Capra ist einer von nur 3 Regisseuren, denen es gelang 2 Filme zu drehen, welche mit dem Oscar für den Besten Film ausgezeichnet wurden. ("Es geschah in einer Nacht" und "Lebenskünstler"). Die anderen beiden Regisseure sind Francis Ford Coppola und Miloš Forman. Golden Globes American Film Institute Internationale Filmfestspiele von Venedig Hollywood Walk of Fame First National. Der First National Exhibitor's Circuit entstand 1917 als Zusammenschluss 26 regionaler Verleihfirmen unter der Federführung von Thomas L. Tally. Ursprünglich war der Zweck der Firma, Filme zu finanzieren und anschließend den Verleih zu übernehmen, doch schon bald kam eine eigene Produktion hinzu. First National war eine Reaktion auf die marktbeherrschende Stellung von Paramount, die das Geschäft immer mehr monopolisierte (bezeichnenderweise wurde W.W. Hodkinson, der vom neuen Paramount-Eigentümer Adolph Zukor geschasst wurde, der Direktor der neuen Firma). Der Plan ging ursprünglich gut auf. Mit der Anwerbung von Mary Pickford und Charlie Chaplin für jeweils eine Million Dollar pro Film hatte man die wichtigsten Stars auf seiner Seite und kontrollierte zudem 1919/1920 ca. 3400 Kinos, was 15 bis 20 % des amerikanischen Marktes entsprach. Da es aber nicht gelang, die Stars längerfristig zu binden (sie gründeten 1919 United Artists, mussten aber aufgrund der laufenden Verträge noch einige Filme gedreht werden, weshalb die Firma 1920 noch relativ gut dastand), und da auch die geplante Fusion mit Paramount spektakulär scheiterte, ging es mit First National rapide bergab. Paramount kaufte nach und nach die einzelnen zusammengeschlossenen Firmen auf, bis First National im September 1928 mit Warner Bros. fusionierte. Fluor. Fluor ist ein chemisches Element mit dem Symbol F und der Ordnungszahl 9. Im Periodensystem steht es in der 7. Hauptgruppe und gehört damit zur 17. IUPAC-Gruppe, den Halogenen, von denen es das leichteste ist. Es liegt unter Normalbedingungen in Form des zweiatomigen Moleküls F2 gasförmig vor, ist das reaktivste aller Elemente und sehr giftig. Bereits in geringen Konzentrationen kann sein durchdringender Geruch bemerkt werden. Fluor ist farblos und erscheint stark verdichtet blassgelb. Es ist das elektronegativste aller Elemente und hat in Verbindungen mit anderen Elementen – mit wenigen Ausnahmen – stets die Oxidationsstufe −1. Es reagiert mit allen Elementen mit Ausnahme der Edelgase Helium und Neon. Der Name des Elementes leitet sich von lat. "fluores" ab. Dieser Begriff bezeichnete das wichtigste natürlich vorkommende Mineral Fluorit ("Flussspat"), das in der Metallurgie als Flussmittel zur Herabsetzung des Schmelzpunktes von Erzen verwendet wird (im Originalkontext: "lapides igni liquescentes (fluores)"). Elementares Fluor ist sehr giftig und stark ätzend. Seine Salze (Fluoride und diverse Fluorokomplexsalze wie Natriummonofluorphosphat) sind in höherer Konzentration ebenfalls sehr giftig, werden in Spuren aber zur Prophylaxe von Zahnkaries verabreicht. Sie werden deswegen teilweise dem Trinkwasser oder Speisesalz zugesetzt (Fluoridierung). Geschichte. Das erste beschriebene Fluorsalz war das natürlich vorkommende Calciumfluorid (Flussspat). Es wurde 1530 von Georgius Agricola beschrieben und 1556 von ihm als Hilfsmittel zum Schmelzen von Erzen erwähnt. Es macht Erzschmelzen und Schlacken dünnflüssiger, lässt sie fließen (Flussmittel). Carl Wilhelm Scheele beschäftigte sich erstmals eingehender mit Flussspat und seinen Eigenschaften. Er erforschte die Reaktionen bei Einwirkung von Flusssäure auf Glas unter Bildung von Siliziumtetrafluorid und Fluorkieselsäure. Eine weitere Eigenschaft, die er an Flussspat entdeckte, war die Fluoreszenz, die nach dem Mineral benannt ist. 1811 wurde von André-Marie Ampère in einem Brief an Humphry Davy erstmals der Gedanke geäußert, dass das Radikal der Flusssäure (Fluor) ein eigenständiges Element ist. Danach versuchten viele Chemiker dieses zu isolieren. Aufgrund der Schwierigkeiten, die durch die Reaktivität und Giftigkeit entstanden, dauerte es bis zum 28. Juni 1886, als es Henri Moissan erstmals gelang, elementares Fluor herzustellen und zu charakterisieren. Er erhielt es durch Elektrolyse einer Lösung von Kaliumhydrogendifluorid in flüssigem Fluorwasserstoff bei tiefen Temperaturen in einer speziell entwickelten Apparatur (teilweise aus Flussspat). Für diese Leistung bekam Moissan den Nobelpreis für Chemie im Jahr 1906 verliehen. Aufschwung nahm die Fluorherstellung im Zweiten Weltkrieg, einerseits durch die Entwicklung der Atomwaffen in den USA (Manhattan-Projekt), da die Isotopenanreicherung von 235Uran über gasförmiges Uranhexafluorid (UF6) erfolgt, das mit Hilfe von elementarem Fluor hergestellt wird. Andererseits betrieb damals die I.G. Farben in Gottow eine Fluorelektrolyse-Zelle, deren Produkt angeblich nur zur Herstellung eines neuen Brandmittels (Chlortrifluorid) für Brandbomben dienen sollte. Ob es in Deutschland damals möglich gewesen wäre, mit Hilfe dieser Fluorproduktion 235Uran anzureichern, wird kontrovers diskutiert. Vorkommen. In der Erdkruste ist Fluor mit 525 ppm ein relativ häufiges Element. Es kommt aufgrund seiner Reaktivität in der Natur nicht elementar sondern gebunden als Fluorid in Form einiger Minerale vor. Eine Ausnahme bildet Stinkspat (eine uranhaltige Fluorit-Varietät) u. a. aus Wölsendorf, in dem geringe Mengen Fluor durch Radiolyse entstehen, was bei mechanischen Bearbeitungen einen starken Geruch durch freigesetztes Fluor verursacht. Meerwasser enthält wenig gelöste Fluoride, da diese nur eine sehr geringe Löslichkeit in Wasser haben. Die häufigsten Fluorminerale sind der Fluorit CaF2 und der Fluorapatit Ca5(PO4)3F. Der größte Teil des Fluorits ist in Fluorapatit gebunden, jedoch enthält dieser nur einen geringen Massenanteil Fluor von 3,5 %. Daher wird Fluorapatit nicht wegen seines Fluorgehaltes, sondern vor allem als Phosphatquelle abgebaut. Die Hauptquelle für die Gewinnung von Fluor und Fluorverbindungen ist der Fluorit. Größere Fluoritvorkommen existieren in Mexiko, China, Südafrika, Spanien und Russland. Auch in Deutschland, etwa bei Wölsendorf in der Oberpfalz findet sich Fluorit. Ein weiteres natürlich vorkommendes Fluormineral ist Kryolith Na3AlF6. Die ursprünglich bedeutenden Kryolithvorkommen bei Ivigtut auf Grönland sind ausgebeutet. Das in der Aluminiumproduktion benötigte Kryolith wird heute chemisch hergestellt. Fluor kommt daneben auch in einigen seltenen Mineralen als Bestandteil vor. Beispiele sind der Schmuckstein Topas Al2SiO4(OH, F)2, Sellait MgF2 und Bastnäsit (La,Ce)(CO3)F. Eine Übersicht gibt die. Einige wenige Organismen können fluororganische Verbindungen herstellen. Der südafrikanische Busch Gifblaar und weitere Pflanzenarten der Gattung Dichapetalum können Fluoressigsäure synthetisieren und in ihren Blättern speichern. Dies dient zur Abwehr von Fressfeinden, für die Fluoressigsäure tödlich wirkt. Die Giftwirkung wird durch Unterbrechung des Citratzyklus ausgelöst. Gewinnung und Darstellung. Das Ausgangsmaterial für die Gewinnung elementaren Fluors und anderer Fluorverbindungen ist überwiegend Fluorit (CaF2). Aus diesem wird durch Reaktion mit konzentrierter Schwefelsäure Fluorwasserstoff gewonnen. Eine weitere Quelle für Flusssäure ist die Phosphatgewinnung, bei der Flusssäure als Abfallprodukt bei der Verarbeitung von Fluorapatit entsteht. Nur ein kleiner Teil der produzierten Flusssäure wird zu elementarem Fluor weiterverarbeitet. Der größte Teil wird direkt zu anderen fluorierten Verbindungen verarbeitet. Wenn dies nicht möglich ist, wird elementares Fluor benötigt. Das Verfahren wird nach Henri Moissan benannt. Dabei wird kein reiner Fluorwasserstoff zur Elektrolyse verwendet, sondern eine Mischung von Kaliumfluorid und Fluorwasserstoff im Verhältnis von 1:1 bis 1:3. Der Hauptgrund für die Verwendung dieser Mischung liegt darin, dass die Leitfähigkeit der Schmelze im Vergleich zu reinem Fluorwasserstoff, der wie reines Wasser Strom nur sehr wenig leitet, stark erhöht ist. Für die Elektrolyse ist es wichtig, dass die Schmelze komplett wasserfrei ist, da sonst während der Elektrolyse Sauerstoff anstatt Fluor entstehen würde. Technisch wird das sogenannte "Mitteltemperatur-Verfahren" mit Temperaturen von 70 bis 130 °C und einer Kaliumfluorid-Fluorwasserstoff-Mischung von 1:2 angewendet. Bei höheren Fluorwasserstoffgehalten würde ein größerer Dampfdruck entstehen, so dass bei tiefen Temperaturen und aufwändiger Kühlung gearbeitet werden müsste. Bei niedrigeren Gehalten (etwa 1:1) sind die Schmelztemperaturen höher (1:1-Verhältnis: 225 °C), was den Umgang erheblich erschwert und die Korrosion fördert. Die Elektrolyse findet mit Graphit-Elektroden in Zellen aus Stahl oder Monel statt, die zusätzliche Eisenbleche zur Trennung von Anoden- und Kathodenraum enthalten, um eine Durchmischung der entstehenden Gase zu verhindern. An die Elektroden wird eine Spannung von etwa 8–12 Volt angelegt. Der bei der Elektrolyse verbrauchte Fluorwasserstoff wird kontinuierlich ersetzt. Das Rohfluor, das die Elektrolysezelle verlässt, ist mit Fluorwasserstoff verunreinigt, enthält aber auch Sauerstoff, Tetrafluormethan (CF4) und andere Perfluorcarbone, die durch Reaktion von Fluor und dem Elektrodenmaterial entstehen. Diese Verunreinigungen können durch Ausfrieren und Adsorption von Fluorwasserstoff an Natriumfluorid entfernt werden. Im Labor kann Fluor durch Zersetzung von Mangantetrafluorid (MnF4) dargestellt werden. Hierzu wird zunächst K2MnF6 mit SbF5 versetzt, wobei das instabile blauviolette MnF4 freigesetzt wird. Dieses Mangantetrafluorid zerfällt bei Temperaturen über 150 °C in F2 und MnF3. Physikalische Eigenschaften. Fluor ist bei Raumtemperatur ein blassgelbes, stechend riechendes Gas. Die Farbe ist von der Schichtdicke abhängig, unterhalb von einem Meter Dicke erscheint das Gas farblos, erst darüber ist es gelb. Unterhalb von −188 °C ist Fluor flüssig und von „kanariengelber“ Farbe. Der Schmelzpunkt des Fluor liegt bei −219,52 °C Von festem Fluor sind zwei Modifikationen bekannt. Zwischen −227,6 °C und dem Schmelzpunkt liegt Fluor in einer kubischen Kristallstruktur mit Gitterparameter a = 667 pm vor (β-Fluor). Unterhalb von −227,6 °C ist die monokline α-Modifikation mit den Gitterparametern a = 550 pm, b = 328 pm, c = 728 pm und β = 102,17° stabil. Fluor ist mit einer Dichte von 1,6959 kg/m³ bei 0 °C und 1013 hPa schwerer als Luft. Der kritische Punkt liegt bei einem Druck von 52,2 bar und einer Temperatur von 144,2 K (−129 °C). Moleküleigenschaften. Fluor liegt im elementarem Zustand wie die anderen Halogene in Form zweiatomiger Moleküle vor. Die Bindungslänge im Fluormolekül ist mit 144 pm kürzer als die Einfachbindungen in anderen Elementen (beispielsweise Kohlenstoff-Kohlenstoff-Bindung: 154 pm). Trotz dieser kurzen Bindung ist die Dissoziationsenergie der Fluor-Fluor-Bindung im Vergleich zu anderen Bindungen mit 158 kJ/mol gering und entspricht etwa der des Iodmoleküls mit einer Bindungslänge von 266 pm. Die Gründe für die geringe Dissoziationsenergie liegen vor allem darin, dass sich die freien Elektronenpaare der Fluoratome stark nähern und es zu Abstoßungen kommt. Diese schwache Bindung bewirkt die hohe Reaktivität des Fluors. Durch die Molekülorbitaltheorie lässt sich die Bindung im Fluormolekül ebenfalls erklären. Dabei werden die s- und p-Atomorbitale der einzelnen Atome zu bindenden und antibindenden Molekülorbitalen zusammengesetzt. Die 1s- und 2s-Orbitale der Fluoratome werden jeweils zu σs und σs*- bindenden und antibindenden Molekülorbitalen. Da diese Orbitale vollständig mit Elektronen gefüllt sind, tragen sie nichts zur Bindung bei. Aus den 2p-Orbitalen werden insgesamt sechs Molekülorbitale mit unterschiedlicher Energie. Dies sind die bindenden σp-, πy- und πz-, sowie die entsprechenden antibindenden σp*-, πy*- und πz*-Molekülorbitale. Die π-Orbitale besitzen dabei gleiche Energie. Werden Elektronen in die Molekülorbitale verteilt, kommt es dazu, dass sowohl sämtliche bindenden als auch die antibindenden π*-Orbitale vollständig besetzt sind. Dadurch ergibt sich eine Bindungsordnung von (6–4)/2 = 1 und ein diamagnetisches Verhalten, das auch beobachtet wird. Chemische Eigenschaften. Fluor gehört zu den stärksten bei Raumtemperatur beständigen Oxidationsmitteln. Es ist das elektronegativste Element und reagiert mit allen Elementen außer Helium und Neon. Die Reaktionen verlaufen meist heftig. So reagiert Fluor im Gegensatz zu allen anderen Halogenen ohne Lichtaktivierung selbst als Feststoff bei −200 °C explosiv mit Wasserstoff unter Bildung von Fluorwasserstoff. Fluor ist das einzige Element, das mit den Edelgasen Krypton, Xenon und Radon direkt reagiert. So bildet sich bei 400 °C aus Xenon und Fluor Xenon(II)-fluorid. Auch viele andere Stoffe reagieren lebhaft mit Fluor, darunter viele Wasserstoffverbindungen wie beispielsweise Wasser, Ammoniak, Monosilan, Propan oder organische Lösungsmittel. Mit Wasser reagiert Fluor bei verschiedenen Bedingungen unterschiedlich. Werden geringe Mengen Fluor in kaltes Wasser geleitet, bilden sich Wasserstoffperoxid und Flusssäure. Bei der Reaktion eines Fluor-Überschusses mit geringen Wassermengen, Eis oder Hydroxiden entsteht dagegen als Hauptprodukte Sauerstoff und Sauerstoffdifluorid. Mit festen Materialien reagiert Fluor dagegen wegen der kleineren Angriffsfläche langsamer und kontrollierter. Bei vielen Metallen führt die Reaktion mit elementarem Fluor zur Bildung einer Passivierungsschicht auf der Metalloberfläche, die das Metall vor dem weiteren Angriff des Gases schützt. Da die Schicht bei hohen Temperaturen oder Fluordrücken nicht dicht ist, kann es dabei zu einer Weiterreaktion von Fluor und Metall kommen, die zur Aufschmelzung des Materials führt. Da beim Aufschmelzen ständig frisches Metall freigelegt wird, das dann wieder zur Reaktion mit Fluor bereitsteht, kann es letztlich sogar zu einem unkontrollierten Reaktionsverlauf kommen (so genanntes "Fluorfeuer"). Auch Kunststoffe reagieren bei Raumtemperatur zumeist sehr kontrolliert mit elementarem Fluor. Wie bei den Metallen, führt auch beim Kunststoff die Reaktion mit Fluor zur Bildung einer fluorierten Oberflächenschicht. Glas ist bei Raumtemperatur gegen Fluorwasserstoff-freies Fluor inert. Bei höherer Temperatur wird jedoch eine mehr oder weniger schnelle Reaktion beobachtet. Verantwortlich hierfür sind Fluoratome, die durch die thermische Dissoziation des molekularen Fluors gebildet werden und dadurch besonders reaktionsfreudig sind. Produkt der Reaktion ist gasförmiges Siliciumtetrafluorid. Spuren von Fluorwasserstoff führen dagegen auch ohne Erhitzen zu einer schnellen Reaktion. Isotope. Fluor ist eines von 22 Reinelementen. Natürlich vorkommendes Fluor besteht zu 100 % aus dem Isotop 19F. Daneben sind weitere 16 künstliche Isotope von 14F bis 31F sowie das Isomer 18mF bekannt. Außer dem Isotop 18F, das eine Halbwertszeit von 109,77 Minuten besitzt, zerfallen alle anderen künstlichen Isotope innerhalb von Zeptosekunden (10−21s) bis etwas über einer Minute. 18F wird in der Krebsdiagnostik in Form von Fluordesoxyglucose, Fluorethylcholin, Fluorethyltyrosin bzw. 18F-Fluorid als Radionuklid in der Positronen-Emissions-Tomographie (PET) eingesetzt. "Siehe auch: Liste der Fluor-Isotope" Verwendung. Aufgrund der hohen Reaktivität und des schwierigen Umgangs mit Fluor kann elementares Fluor nur eingeschränkt verwendet werden. Es wird überwiegend zu fluorierten Verbindungen weiterverarbeitet, die auf andere Weise nicht hergestellt werden können. Der größte Teil des produzierten Fluors wird für die Herstellung von Uranhexafluorid benötigt, was infolge seiner Leichtflüchtigkeit die Anreicherung von 235U mit Gaszentrifugen oder durch das Gasdiffusionsverfahren ermöglicht. Dieses Isotop ist für die Kernspaltung wichtig. Ein zweites wichtiges Produkt, das nur mit Hilfe von elementarem Fluor hergestellt werden kann, ist Schwefelhexafluorid. Dieses dient als gasförmiger Isolator beispielsweise in Hochspannungsschaltern und gasisolierten Rohrleitern. Fluor dient zudem zur Oberflächenfluorierung von Kunststoffen. Dies wird unter anderem bei Kraftstofftanks in Automobilen eingesetzt, wobei sich eine fluorierte Barriereschicht ausbildet, die unter anderem eine niedrigere Benzindurchlässigkeit bewirkt. Diese Anwendung der Fluorierung steht in Konkurrenz zur Koextrusionstechnologien und dem Metalltank. Eine zweite Wirkung der Fluorierung ist, dass die Oberflächenenergie vieler Kunststoffe erhöht werden kann. Dies findet vor allem Anwendungen wo Farben, Lacke oder Klebstoffe auf ansonsten hydrophobe Kunststoffoberflächen (Polyolefine) aufgebracht werden sollen. Die Vorteile der Fluorierung von Kunststoffoberflächen liegen in der Behandelbarkeit von Körpern mit ausgeprägten 3D Strukturen und Hohlräumen. Zudem lassen sich Kleinteile als Schüttgut behandeln und der Effekt bleibt über eine lange Zeit erhalten. Die Fluorierung wird eingesetzt, wenn weiter verbreitete und kostengünstigere Methoden, wie z. B. die Beflammung nicht einsetzbar sind. Weiter mögliche Effekte die durch Fluorierung von Kunststoffoberflächen erreicht werden können sind: verbesserte Faser-Matrix-Haftung, verringerte Reibung und verbesserte Selektivitäten in der Membrantechnik. Werden Fluor und Graphit zusammen erhitzt, entsteht Graphitfluorid, das als Trockenschmiermittel und Elektrodenmaterial eingesetzt werden kann. Nachweis. Für Fluoridionen existieren mehrere Nachweise. Bei der sogenannten "Kriechprobe" wird in einem Reagenzglas aus Glas eine fluoridhaltige Substanz mit konzentrierter Schwefelsäure versetzt. Es steigen Fluorwasserstoffdämpfe auf, die das Glas anätzen. Gleichzeitig ist die Schwefelsäure aufgrund der Veränderung der Oberfläche nicht mehr in der Lage, das Glas zu benetzen. Eine zweite Nachweismöglichkeit ist die sogenannte "Wassertropfenprobe". Dabei wird die fluoridhaltige Substanz mit Kieselsäure und Schwefelsäure zusammengebracht. Es entsteht gasförmiges Siliciumtetrafluorid. Über das Gefäß mit der Probe wird ein Wassertropfen gehalten. Durch Reaktion von Siliciumtetrafluorid mit dem Wasser bildet sich Siliciumdioxid, das als charakteristischer weißer Rand um den Tropfen kristallisiert. "Siehe auch: Nachweise für Fluorid" In der modernen Analytik, insbesondere für organische Fluorverbindungen spielt die NMR-Spektroskopie eine große Rolle. Fluor besitzt den Vorteil, zu 100 % aus einem Isotop (Reinelement) zu bestehen, das durch NMR-Spektroskopie nachweisbar ist. Biologische Bedeutung. Es ist umstritten, ob Fluor ein für den menschlichen Organismus essentielles Spurenelement ist. Im Körper sind etwa 5 g Fluoride (bei 70 kg Körpergewicht) enthalten. Es ist sehr ungleichmäßig verteilt, der weitaus größte Teil ist in den Knochen und Zähnen enthalten. Fluorid kann vor Zahnkaries schützen und den Zahnschmelz härten. Durch den Einbau von Fluorid- anstatt von Hydroxid-Ionen in den Hydroxylapatit der Zähne entsteht Fluorapatit. Letzterer ist schwerer in Wasser löslich und damit stabiler gegenüber dem Speichel. Fluorid wirkt durch die geringe Löslichkeit des Fluorapatits remineralisierend, indem der durch Säuren aufgelöste Apatit in Anwesenheit von Fluorid wieder ausgefällt wird. Außerdem wirkt Fluorid hemmend auf bestimmte Enzyme und bewirkt eine Unterbrechung der Glykolyse in kariesverursachenden Bakterien, was deren Wachstum hemmt. Die Aufnahme von Fluorid auf natürlichen Wegen erfolgt in der Regel mit dem Trinkwasser oder der Nahrung. Nehmen Kinder während der Zahnentwicklung zu viel Fluorid auf, kann sich eine Dentalfluorose bilden. Diese bewirkt punktförmige bis fleckig-braune Verfärbungen ("mottled teeth" oder "mottled enamel") auf der Zahnoberfläche, zudem ist der Zahn fragiler und weniger widerstandsfähig. Die maximal empfohlenen Höchstmengen an Fluorid, die ein Mensch täglich zu sich nehmen sollte, betragen für Säuglinge bis sechs Monate 0,7 mg, von 7–17 Monaten 0,9 mg bei Kindern bis drei Jahren 1,3 mg. Kinder von vier bis acht Jahren sollten nicht mehr als 2,2 mg Fluorid pro Tag aufnehmen. Wenn danach die Zahnentwicklung abgeschlossen ist, verträgt der Mensch höhere Dosen bis zu 10 mg Fluorid pro Tag. In Deutschland ist die Trinkwasserfluoridierung nicht zulässig, in der Schweiz wurde sie bis 2003 in Basel durchgeführt. Bis zum Jahr 2000 durfte darum in Basel auch kein fluoridhaltiges Salz verkauft werden. Da Fluorid ähnlich Selen in größeren Mengen toxisch wirkt, existiert nur ein kleiner Bereich, in dem Fluorid im Körper vorkommen darf, ohne toxisch zu wirken. Toxikologie. Fluor und viele Fluorverbindungen sind für den Menschen und andere Lebewesen sehr giftig, die letale Dosis (LC50, eine Stunde) beträgt bei elementarem Fluor 185 ppm. Eine akute Fluorvergiftung äußert sich je nachdem, über welchen Weg das Fluor in den Körper gelangt ist, mit unterschiedlichen Beschwerden. Elementares Fluor wirkt auf Lunge, Haut und besonders auf die Augen stark verbrennend und verätzend. Schon bei einem fünfminütigen Kontakt mit 25 ppm Fluor kommt es zu einer erheblichen Reizung der Augen. Gleichzeitig entsteht durch Reaktion mit Wasser der ebenfalls giftige Fluorwasserstoff. Eine gastrointestinal entstandene akute Fluorvergiftung führt zu Schleimhautverätzungen, Übelkeit, anfänglich schleimigem, später blutigem Erbrechen, unstillbarem Durst, heftigen Leibschmerzen und blutigem Durchfall. Teilweise versterben Betroffene. Eine durch die Atemluft entstandene akute Fluorvergiftung führt zu Tränenfluss, Niesen, Husten, Atemnot, Lungenödem und Tod unter Krämpfen. Eine über die Haut entstandene Fluorvergiftung hat tiefgreifende Nekrosen und schlecht heilende Ulzera zur Folge. Als schwach dissoziiertes Molekül wird Fluorwasserstoff leicht durch die Haut aufgenommen. Es kommt zu schmerzhaften Entzündungen, später zu hartnäckigen, schlecht abheilenden Geschwüren. Außerdem bildet HF starke Wasserstoffbrückenbindungen aus und ist so in der Lage, die Tertiärstruktur von Proteinen zu verändern. Mit Aluminium-Ionen bildet Fluorid Fluoridoaluminat-Komplexe, die eine Phosphat-analoge Struktur haben und so zur Deregulierung von G-Proteinen beitragen. Resultat ist ein Eingriff in die rezeptorgekoppelte Signalübertragung und – via signalabhängige Phosphorylierung /Dephosphorylierung – in die Aktivität vieler Enzyme. Bekanntestes Beispiel für eine Enzym-Hemmung durch Fluorid ist Enolase, ein Enzym der Glykolysekette. Die hochtoxischen Fluoracetate und Fluoracetamid werden nach der Resorption zu Fluorcitrat metabolisiert. Diese Verbindung führt zur Blockade des für den Citratzyklus wichtigen Enzyms Aconitase. Dies bewirkt eine Anreicherung von Citrat im Blut, was wiederum die Körperzellen von der Energiezufuhr abschneidet. Perfluorierte Alkane, die als Blutersatzstoffe in der Erprobung sind, und die handelsüblichen Fluorcarbone, wie PTFE ("Teflon"), PVDF oder PFA gelten als ungiftig. Das schwerlösliche Calciumfluorid, das sich bei der Reaktion mit Calcium – etwa in den Knochen – bildet, wurde früher für inert und daher harmlos gehalten. Zumindest die Stäube von Calciumfluorid haben sich jedoch sowohl im Tierversuch, als auch beim Menschen, als toxisch erwiesen. Ob in vivo bei akuter Fluoridvergiftung tatsächlich schwerlösliches Calciumfluorid gebildet wird, wie so oft vermutet, konnte im Rahmen gezielter Untersuchungen nicht bewiesen werden. Die Aufnahme von mehr als 20 mg Fluorid pro Tag führt zu einer chronischen Fluorvergiftung, die auch Fluorose genannt wird. Symptome sind Husten, Auswurf, Atemnot, eine Dentalfluorose mit Veränderung von Struktur und Farbe des Zahnschmelzes, eine Fluorosteopathie und teilweise eine Fluorokachexie. Die Fluorosteopathie führt durch Vermehrung des Knochengewebes zu Elastizitätsverlust und erhöhten Knochenbrüchigkeit (Osteosklerose) bis hin zum völligen Versteifen von Gelenken oder gar der Wirbelsäule. Da gleichzeitig mit Hilfe hoher Fluoriddosen das Knochenwachstum stimuliert werden kann, verwendet man Fluoride zur Behandlung verschiedener Formen der Osteoporose. Daneben gibt es Vermutungen, dass die Anwendung auch niedrig konzentrierter Fluorsalze und -verbindungen Krebs verursachen sowie das Nervensystem und weitere Organe dauerhaft schädigen können. Die Internationale Agentur für Krebsforschung war in ihrer Bewertung 1982 jedoch noch zu dem Ergebnis gekommen, dass es keine Anzeichen einer krebserzeugenden Wirkung von anorganischen Fluoriden gibt, die zur Fluoridierung des Trinkwassers eingesetzt werden bzw. wurden. Schäden, die durch die Arbeit mit Fluoriden entstehen, wie Skelettfluorose, Lungenschäden, Reizung des Magen-Darm-Trakts oder Verätzungen sind als Berufskrankheiten anerkannt. Im Berufskrankheiten-System sind sie unter Bk Nr. 13 08 erfasst. Sicherheitshinweise. Auf Grund seiner hohen Reaktivität muss Fluor in speziellen Behältnissen aufbewahrt werden. Die Werkstoffe müssen dabei so beschaffen sein, dass sie durch den Kontakt mit Fluor eine Passivierungsschicht ausbilden und so eine Weiterreaktion verhindern. Beispiele für geeignete Werkstoffe sind Stahl oder die Nickel-Kupfer-Legierung Monel. Nicht geeignet sind beispielsweise Glas, das durch entstandenen Fluorwasserstoff angegriffen wird, oder Aluminium. Brennbare Stoffe wie Fett dürfen ebenfalls nicht in Kontakt mit Fluor kommen, da sie unter heftiger Reaktion verbrennen. Fluor brennt zwar selbst nicht, wirkt aber brandfördernd. Brände bei Anwesenheit von Fluor können nicht mit Löschmitteln gelöscht werden, es muss zunächst der weitere Zutritt von Fluor verhindert werden. Verbindungen. Als elektronegativstes aller Elemente kommt Fluor in Verbindungen fast ausschließlich in der Oxidationsstufe −I vor. Es sind von allen Elementen außer Helium und Neon Fluorverbindungen bekannt. Fluorwasserstoff. Fluorwasserstoff ist ein stark ätzendes, giftiges Gas. Die wässrige Lösung des Fluorwasserstoffs wird Flusssäure genannt. Während wasserfreier, flüssiger Fluorwasserstoff zu den stärksten Säuren, den so genannten Supersäuren zählt, ist Flusssäure nur mittelstark. Fluorwasserstoff ist eine der wenigen Substanzen, die direkt mit Glas reagieren. Dementsprechend ist die Verwendung als Ätzlösung in der Glasindustrie eine Anwendung von Flusssäure. Darüber hinaus ist Fluorwasserstoff das Ausgangsmaterial für die Herstellung von Fluor und vielen anderen Fluorverbindungen. Fluoride. Fluoride sind die Salze des Fluorwasserstoffs. Sie sind die wichtigsten und verbreitetsten Fluorsalze. In der Natur kommt vor allem das schwerlösliche Calciumfluorid CaF2 in Form des Minerals Fluorit vor. Technisch spielen auch andere Fluoride eine Rolle. Beispiele sind das unter Verwendung erwähnte Uranhexafluorid oder Natriumfluorid, das unter anderem als Holzschutzmittel verwendet wird und früher als Rattengift und Insektizid patentiert und vermarktet wurde. Ein in der organischen Chemie häufig verwendetes Fluorid ist das Tetrabutylammoniumfluorid (TBAF). Da TBAF in organischen Lösungsmitteln löslich ist und das Fluoridion nicht durch Kationen beeinflusst wird (sogenanntes „nacktes Fluorid“) wird es als Fluoridquelle in organischen Reaktionen benutzt. Eine weitere wichtige Reaktion des Tetrabutylammoniumfluorids ist die Abspaltung von Silylethern, die als Schutzgruppe für Alkohole verwendet werden. Organische Fluorverbindungen. Es existiert eine Reihe von organischen Fluorverbindungen. Eine der bekanntesten fluorhaltigen Stoffgruppen sind die Fluorchlorkohlenwasserstoffe (FCKW). Die niedermolekularen FCKW mit einem oder zwei Kohlenstoffatomen sind gasförmige Stoffe und dienten früher als Kältemittel in Kühlschränken und Treibgas für Spraydosen. Da diese Stoffe den Ozonabbau verstärken und somit die Ozonschicht schädigen, ist ihre Herstellung und Verwendung mit dem Montreal-Protokoll stark eingeschränkt worden. Dagegen sind Fluorkohlenwasserstoffe für die Ozonschicht ungefährlich. Eine weitere umweltschädliche Auswirkung fluorhaltiger organischer Verbindungen ist ihre Absorptionsfähigkeit für Infrarotstrahlung. Daher wirken sie als Treibhausgase. Eine aus dem Alltag bekannte organische Fluorverbindung ist Polytetrafluorethen (PTFE), die unter dem Handelsnamen "Teflon®" als Beschichtung von Bratpfannen verwendet wird. Perfluorierte Tenside, die unter anderem bei der Herstellung von PTFE verwendet werden, und andere perfluorierte Verbindungen verfügen über eine äußerst stabile Kohlenstoff-Fluor-Bindung. Diese Bindung verleiht den Stoffen eine hohe chemische und thermische Beständigkeit, was aber auch dazu führt, dass die Substanzen in der Umwelt persistent sind und kaum abgebaut werden. Weitere Fluorverbindungen. Mit den anderen Halogenen bildet Fluor eine Reihe von Interhalogenverbindungen. Ein wichtiges Beispiel hierfür ist Chlortrifluorid, ein giftiges Gas, das vor allem als Fluorierungsmittel eingesetzt wird. Fluor ist elektronegativer als Sauerstoff, weshalb die Verbindungen zwischen Fluor und Sauerstoff nicht wie die anderen Halogen-Sauerstoffverbindungen als Halogenoxide, sondern als Sauerstofffluoride bezeichnet werden. Im Gegensatz zu den schwereren Halogenen existiert nur eine Fluorsauerstoffsäure, die Hypofluorige Säure HOF. Der Grund hierfür liegt darin, dass Fluor keine Drei-Elektronen-vier-Zentren-Bindungen ausbildet. Fluor bildet auch mit den Edelgasen Krypton, Xenon, und Argon einige Verbindungen wie Xenon(II)-fluorid. Kryptondifluorid, die einzige bekannte Kryptonverbindung, ist das stärkste bekannte Oxidationsmittel. Weitere Edelgasverbindungen des Fluor enthalten oft auch noch Atome anderer Elemente, wie beispielsweise das Argonhydrogenfluorid (HArF), die einzige bekannte Argonverbindung. Fermium. Fermium ist ein ausschließlich künstlich erzeugtes chemisches Element mit dem Elementsymbol Fm und der Ordnungszahl 100. Im Periodensystem steht es in der Gruppe der Actinoide (7. Periode, f-Block) und zählt auch zu den Transuranen. Fermium ist ein radioaktives Metall, welches aber aufgrund der geringen zur Verfügung stehenden Mengen bisher nicht als Metall dargestellt wurde. Es wurde 1952 nach dem Test der ersten amerikanischen Wasserstoffbombe entdeckt und Enrico Fermi zu Ehren benannt, der jedoch persönlich mit der Entdeckung von bzw. Forschung an Fermium nichts zu tun hatte. Geschichte. Fermium wurde zusammen mit Einsteinium nach dem Test der ersten amerikanischen Wasserstoffbombe, Ivy Mike, am 1. November 1952 auf dem Eniwetok-Atoll gefunden. Erste Proben erhielt man auf Filterpapieren, die man beim Durchfliegen durch die Explosionswolke mitführte. Größere Mengen isolierte man später aus Korallen. Aus Gründen der militärischen Geheimhaltung wurden die Ergebnisse zunächst nicht publiziert. Eine erste Untersuchung der Explosionsüberreste hatte die Entstehung eines neuen Plutoniumisotops 244Pu aufgezeigt, dies konnte nur durch die Aufnahme von sechs Neutronen durch einen Uran-238-Kern und zwei folgende β-Zerfälle entstanden sein. Zu der Zeit nahm man an, dass die Absorption von Neutronen durch einen schweren Kern ein seltener Vorgang wäre. Die Identifizierung von 244Pu ließ jedoch den Schluss zu, dass Urankerne viele Neutronen einfangen können, was zu neuen Elementen führt. Die Entdeckung von Fermium ("Z" = 100) erforderte mehr Material, da man davon ausging, dass die Ausbeute mindestens eine Größenordnung niedriger als die von Element 99 sein würde. Daher wurden kontaminierte Korallen aus dem Eniwetok-Atoll (wo der Test stattgefunden hatte) zum University of California Radiation Laboratory in Berkeley, Kalifornien, zur Verarbeitung und Analyse gebracht. Die Trennung der gelösten Actinoid-Ionen erfolgte in Gegenwart eines Citronensäure/Ammoniumcitrat-Puffers im schwach sauren Medium (pH ≈ 3,5) mit Ionenaustauschern bei erhöhter Temperatur. Etwa zwei Monate später wurde eine neue Komponente isoliert, ein hochenergetischer α-Strahler (7,1 MeV) mit einer Halbwertszeit von etwa einem Tag. Mit einer derart kurzen Halbwertszeit konnte es nur aus dem β-Zerfall eines Einsteiniumisotops entstehen, und so musste ein Isotop des Elements 100 das neue sein: Es wurde schnell als 255Fm identifiziert (t½ = 20,07 Stunden). Das Team in Berkeley war zudem besorgt, dass eine andere Forschergruppe die leichteren Isotope des Elements 100 durch Ionenbeschuss entdecken und veröffentlichen könnte, bevor sie ihre unter Geheimhaltung stehende Forschung hätten veröffentlichen können. Denn im ausgehenden Jahr 1953 sowie zu Anfang des Jahres 1954 beschoss eine Arbeitsgruppe des Nobel-Instituts für Physik in Stockholm Urankerne mit Sauerstoffkernen; es bildete sich das Isotop mit der Massenzahl 250 des Elements 100 (250Fm). Die zweifelsfreie Identifizierung konnte anhand der charakteristischen Energie des beim Zerfall ausgesandten α-Teilchens erlangt werden. Das Team in Berkeley veröffentlichte schon einige Ergebnisse der chemischen Eigenschaften beider Elemente. Schließlich wurden die Ergebnisse der thermonuklearen Explosion im Jahr 1955 freigegeben und anschließend publiziert. Letztlich war die Priorität des Berkeley-Teams allgemein anerkannt, da ihre fünf Publikationen der schwedischen Publikation vorausgingen, und sie sich auf die zuvor noch geheimen Ergebnisse der thermonuklearen Explosion von 1952 stützen konnten. Damit war das Vorrecht verbunden, den neuen Elementen den Namen zu geben. Sie entschieden sich, diese fortan nach berühmten, bereits verstorbenen Wissenschaftlern zu benennen. Man war sich schnell einig, die Namen zu Ehren von Albert Einstein und Enrico Fermi zu vergeben, die beide erst vor kurzem verstorben waren: „We suggest for the name for the element with the atomic number 99, einsteinium (symbol E) after Albert Einstein and for the name for the element with atomic number 100, fermium (symbol Fm), after Enrico Fermi.“ Die Bekanntgabe für die beiden neu entdeckten Elemente "Einsteinium" und "Fermium" erfolgte durch Albert Ghiorso auf der 1. Genfer Atomkonferenz, die vom 8. bis 20. August 1955 stattfand. Später wurde das Element zeitweilig mit dem systematischen Namen "Unnilnilium" bezeichnet. Isotope. Sämtliche bisher bekannten 19 Nuklide und 3 Kernisomere sind radioaktiv und instabil. Die bekannten Massenzahlen reichen von 242 bis 260. Die mit Abstand längste Halbwertszeit hat das Isotop 257Fm mit 100,5 Tagen, so dass es auf der Erde keine natürlichen Vorkommen mehr geben kann. 253Fm hat eine Halbwertszeit von 3 Tagen, 251Fm von 5,3 h, 252Fm von 25,4 h, 254Fm von 3,2 h, 255Fm von 20,1 h und 256Fm von 2,6 h. Alle übrigen haben Halbwertszeiten von 30 Minuten bis unterhalb einer Millisekunde. Nimmt man den Zerfall des langlebigsten Isotops 257Fm heraus, so entsteht durch α-Zerfall zunächst das 253Cf, das seinerseits durch β-Zerfall in 253Es übergeht. Der weitere Zerfall führt dann über 249Bk, 249Cf, 245Cm, 243Am, 241Pu, 241Am zum 237Np, dem Beginn der Neptunium-Reihe (4 n + 1). Fermiumbarriere. Als "Fermiumbarriere" bezeichnet man den Umstand, dass die Fermiumisotope 258Fm, 259Fm und 260Fm zum Teil schon nach Bruchteilen von Sekunden durch Spontanspaltung zerfallen (t½ = 370 µs, 1,5 s bzw. 4 ms). 257Fm ist ein α-Strahler und zerfällt zu 253Cf. Zudem zeigt keines der bislang bekannten Fermiumisotope β-Zerfälle, was die Bildung von Mendelevium durch Zerfall aus Fermium verhindert. Diese Tatsachen vereiteln praktisch jede Bemühung, mit Hilfe von Neutronenstrahlung, zum Beispiel mit Hilfe eines Kernreaktors, Elemente mit Ordnungszahlen über 100 bzw. Massenzahlen größer als 257 zu erzeugen. Fermium ist somit das letzte Element, das durch Neutroneneinfang hergestellt werden kann. Jeder Versuch, weitere Neutronen zu einem Fermium-Kern hinzuzufügen, führt zu einer Spontanspaltung. Gewinnung. Fermium wird durch Beschuss von leichteren Actinoiden mit Neutronen in einem Kernreaktor erzeugt. Die Hauptquelle ist der 85 MW High-Flux-Isotope Reactor am Oak Ridge National Laboratory in Tennessee, USA, der auf die Herstellung von Transcuriumelementen (Z > 96) eingerichtet ist. In Oak Ridge sind größere Mengen an Curium bestrahlt worden, um Dezigramm-Mengen an Californium, Milligramm-Mengen an Berkelium und Einsteinium sowie Pikogramm-Mengen an Fermium zu erzeugen. Nanogramm- und Mikrogramm-Mengen von Fermium können für bestimmte Experimente vorbereitet werden. Die Mengen an Fermium, die in thermonuklearen Explosionen von 20 bis 200 Kilotonnen entstehen, bewegen sich vermutlich in der Größenordnung von einigen Milligramm, obwohl es mit einer riesigen Menge von Explosionsresten gemischt ist; 40 Pikogramm 257Fm wurden aus 10 Kilogramm der Explosionsreste aus dem Hutch-Test vom 16. Juli 1969 isoliert. Nach der Bestrahlung muss Fermium von den anderen Actinoiden und den Lanthanoid-Spaltprodukten getrennt werden. Dies wird üblicherweise durch Ionenaustauschchromatographie erreicht, das Standardverfahren läuft mit Kationenaustauschern wie Dowex 50 oder TEVA, man eluiert mit einer Lösung von Ammonium-α-hydroxyisobuttersäuremethylester. Kleinere Kationen bilden stabilere Komplexe mit den α-Hydroxyisobuttersäuremethylester-Anionen, daher werden sie bevorzugt von der Säule eluiert. Eine schnelle fraktionierte Kristallisationsmethode wurde ebenfalls beschrieben. Obwohl das stabilste Isotop des Fermiums das 257Fm mit einer Halbwertszeit von 100,5 Tagen ist, basieren die meisten Studien auf 255Fm (t½ = 20,07 Stunden). Dieses Isotop kann leicht isoliert werden, es ist ein Zerfallsprodukt des 255Es (t½ = 39,8 Tage). Geringe Mengen an Einsteinium und Fermium wurden aus Plutonium isoliert und abgetrennt, welches mit Neutronen bestrahlt wurde. Vier Einsteiniumisotope wurden gefunden (mit Angabe der damals gemessenen Halbwertszeiten): 253Es (α-Strahler mit t½ = 20,03 Tage, sowie mit einer Spontanspaltungs-Halbwertszeit von 7×105 Jahren); 254"m"Es (β-Strahler mit t½ = 38,5 Stunden), 254Es (α-Strahler mit t½ = ∼ 320 Tage) und 255Es (β-Strahler mit t½ = 24 Tage). Zwei Fermiumisotope wurden gefunden: 254Fm (α-Strahler mit t½ = 3,24 Stunden, sowie mit einer Spontanspaltungs-Halbwertszeit von 246 Tagen) und 255Fm (α-Strahler mit t½ = 21,5 Stunden). Durch Beschuss von Uran mit fünffach ionisierten Stickstoff- und sechsfach ionisierten Sauerstoffatomen wurden gleichfalls Einsteinium- und Fermiumisotope erzeugt. Eigenschaften. Im Periodensystem steht das Fermium mit der Ordnungszahl 100 in der Reihe der Actinoide, sein Vorgänger ist das Einsteinium, das nachfolgende Element ist das Mendelevium. Sein Analogon in der Reihe der Lanthanoide ist das Erbium. Physikalische Eigenschaften. Das Metall wurde bislang nicht dargestellt, hingegen erfolgten Messungen an Legierungen mit Lanthanoiden, ferner liegen einige Berechnungen oder Vorhersagen vor. Die Sublimationsenthalpie ist direkt mit der Valenzelektronenstruktur des Metalls verbunden. Die Sublimationsenthalpie von Fermium wurde direkt durch Messung des Partialdrucks des Fermiums über Fm-Sm- und Fm/Es-Yb-Legierungen im Temperaturbereich von 642 bis 905 K bestimmt. Sie gelangten zu einem Wert von 142(13) kJ·mol−1. Da die Sublimationsenthalpie von Fermium ähnlich ist zu denen des zweiwertigen Einsteinium, Europium und Ytterbium, wurde der Schluss gezogen, dass Fermium einen zweiwertigen metallischen Zustand besitzt. Vergleiche mit Radien und Schmelzpunkten von Europium-, Ytterbium- und Einsteinium-Metall führten zu geschätzten Werten von 198 pm und 1125 K für Fermium. Das Normalpotential wurde als ähnlich zum Ytterbium Yb3+/Yb2+-Paar eingeschätzt, also etwa −1,15 V in Bezug auf die Standard-Wasserstoffelektrode, ein Wert, der mit theoretischen Berechnungen übereinstimmt. Auf der Grundlage polarographischer Messungen wurde für das Fm2+/Fm0-Paar ein Normalpotential von −2,37 V festgestellt. Fm3+ kann relativ leicht zu Fm2+ reduziert werden, z. B. mit Samarium(II)-chlorid, mit dem Fermium zusammen ausfällt. Chemische Eigenschaften. Die Chemie des Fermiums konnte bisher nur in Lösung mit Hilfe von Tracertechniken untersucht werden, feste Verbindungen wurden nicht hergestellt. Unter normalen Bedingungen liegt Fermium in Lösung als Fm3+-Ion vor, welches eine Hydratationszahl von 16,9 besitzt und eine Säurekonstante von 1,6 · 10−4 (pKs = 3,8). Fm3+ bildet Komplexe mit einer Vielzahl von organischen Liganden mit harten Donoratomen wie Sauerstoff; und diese Komplexe sind in der Regel stabiler als die der vorhergehenden Actinoide. Es bildet auch anionische Komplexe mit Liganden wie Chlorid oder Nitrat; und auch diese Komplexe scheinen stabiler zu sein als die von Einsteinium oder Californium. Es wird angenommen, dass die Bindung in den Komplexen der höheren Actinoide meist ionischen Charakter hat: das Fm3+-Ion ist erwartungsgemäß kleiner als die vorhergehenden An3+-Ionen – aufgrund der höheren effektiven Kernladung von Fermium –; und damit würde Fermium voraussichtlich kürzere und stärkere Metall-Ligand-Bindungen bilden. Sicherheitshinweise. Einstufungen nach der Gefahrstoffverordnung liegen nicht vor, weil diese nur die chemische Gefährlichkeit umfassen und eine völlig untergeordnete Rolle gegenüber den auf der Radioaktivität beruhenden Gefahren spielen. Auch Letzteres gilt nur, wenn es sich um eine dafür relevante Stoffmenge handelt. Verwendung. Fermium wird – in Form seiner Verbindungen in Lösung – in erster Linie in geringen Mengen zu Studienzwecken gewonnen. Verbindungen des Fermiums wurden in fester Form bislang nicht dargestellt. Francium. Francium ist ein radioaktives chemisches Element mit dem Elementsymbol Fr und der Ordnungszahl 87. Das Element ist ein Metall, steht in der 7. Periode, 1. IUPAC-Gruppe (Gruppe der Alkalimetalle) und gehört damit zum s-Block. Francium besitzt von allen Elementen bis zur Ordnungszahl 104 die in ihrer Gesamtheit instabilsten Isotope. Selbst das langlebigste Francium-Isotop 223Fr besitzt eine Halbwertszeit von nur 21,8 Minuten. Wegen dieser Eigenschaft und des Fehlens einer effizienten Kernreaktion zur Herstellung von Francium (223Fr entsteht in 1 % beim Zerfall von 227Ac), kann es nicht in Mengen hergestellt werden. Francium kann nur als Salz in verdünnten Lösungen und hoch verdünnt als Amalgam studiert werden. Experimente zeigen, dass Francium ein typisches Alkalimetall ist und seinem leichteren Homologon Caesium sehr ähnlich ist. So ist es in wässriger Lösung positiv einwertig und lässt sich analog zum Caesium in Form schwerlöslicher Salze, z. B. als Perchlorat, Tetraphenylborat und Hexachloroplatinat, ausfällen. Geschichte. Im Jahre 1871 wurde von Dmitri Iwanowitsch Mendelejew die Existenz eines Elementes vorhergesagt, das den zu diesem Zeitpunkt noch leeren Platz innerhalb seines Periodensystem einnehmen würde. Er beschrieb es als Alkalimetall und gab ihm den Namen "Eka-Caesium". Im Jahre 1925 veröffentlichte Dmitri Dobroserdow eine Theoriestudie, in der er Voraussagen über das Atomgewicht sowie chemische und physikalische Eigenschaften machte. Er nannte das Element "Russium". Ein Jahr danach, im Jahre 1926, beobachteten die zwei englischen Chemiker Gerald Druce und Frederic H. Loring die Spektrallinien des Elements bei Untersuchungen von Mangansulfat. 1929 meldete der amerikanische Physiker Fred Allison die Entdeckung des Elementes bei Untersuchungen von Mineralen und benannten das Element "Virginium" nach seinem Heimatstaat Virginia. 1936 wiederum gingen der Rumäne Horia Hulubei und der Franzose Yvette Cachois davon aus, das Element entdeckt zu haben und gaben ihm den Namen "Moldavium". Allerdings konnte keine dieser Entdeckungen bei anderen Wissenschaftlern Bestätigung finden. Erst 1939 konnte Marguerite Perey das Element als ein Isotop 223Fr als Zerfallsprodukt von Actinium 227Ac zweifelsfrei nachweisen. Es wurde zunächst "Actinium-K" genannt und 1946 in "Francium" (von franz. "France" „Frankreich“, dem Vaterland der Entdeckerin) umbenannt. Der Name wurde 1949 von der Internationalen Vereinigung der Chemiker akzeptiert. Physikalische Eigenschaften. Die physikalischen Eigenschaften sind im Wesentlichen Schätzungen, die durch Extrapolation der Eigenschaften der Alkalimetalle oder durch Modellrechnungen bestimmt wurden. Sie sind daher mit großer Vorsicht zu behandeln. Messungen an Festkörpern sind durch die geringen herstellbaren Mengen (wenige Attogramm, ~10.000 Atome) und die hohe Radioaktivität (Aktivität ist etwa 2-Mio.-mal höher als die der gleichen Menge von 238Pu: sichtbare Mengen würden sofort verdampfen) meist mit den heutigen Mitteln der Technik unmöglich. Sicherheitshinweise. Einstufungen nach der Gefahrstoffverordnung liegen nicht vor, weil diese nur die chemische Gefährlichkeit umfassen und eine völlig untergeordnete Rolle gegenüber den auf der Radioaktivität beruhenden Gefahren spielen. Auch Letzteres gilt nur, wenn es sich um eine dafür relevante Stoffmenge handelt. Fuß (Einheit). Ein Fuß (engl. ', Plural ') bzw. Schuh ist ein früher in vielen Teilen der Welt verwendetes Längenmaß, das je nach Land meist 28 bis 32 cm maß, in Extremfällen auch 25 und 34 cm. Es ist neben der Fingerbreite, der Handbreite, der Handspanne, der Elle, dem Schritt und dem Klafter eine der ältesten Längeneinheiten. Diese Einheiten wurden wohl schon vor der Erfindung der Schrift benutzt. Das einzige heute noch übliche Fußmaß, der "Englische" Fuß, beträgt 1 ft = 30,48 cm (12 Zoll), was fast der Schuhgröße 48½ entspricht. Obwohl es sich nicht um eine SI-Einheit handelt, wird die Einheit Fuß auch international noch häufig verwendet, vor allem in der See- und Luftfahrt. Ursprünge. Seit wann der Fuß als Maßeinheit verwendet wird, ist umstritten. Sichere Schlüsse können aus den frühesten Funden von Maßstäben gezogen werden. Das älteste unbeschädigte Fundstück dieser Art ist die sogenannte Nippur-Elle aus Mesopotamien. Durch Einkerbungen erschließen sich Untereinheiten zu 30 Fingerbreit ("digiti" à 1,73 cm), woraus sich die Maßeinheiten Fuß mit 16 "digiti" (27,6 cm) sowie die Handbreite ("palmus" = 4 "digiti") ergeben. Versuche, die Länge der Elle an Gebäuden zu überprüfen, führten zu einem Mittelwert von 518,65 mm. Ob daraus – wie im Fall des Megalithischen Yard – ein gemeinsames Urmaß abgeleitet werden kann, ist in der Fachwelt umstritten. Identische Längen oder ihre Untereinheiten in verschiedenen Kulturen könnten auch eine Folge der Einheitlichkeit von Körpermaßen sein, auf die sie zurückgehen. Antike. Noch vor der IV. Pharaonen-Dynastie teilten ägyptische Geometer die Nippur-Elle nur noch in 28 Teile. Dadurch wuchs der Fuß als Maß auf 51,8 cm ÷ 28 · 16 ≈ 29,6 cm. Genau diese Länge hatte auch das römische Fußmaß. Demnach unterhalten der megalithische bzw. Nippur-Fuß und der römische Fuß ein Verhältnis von genau 28 zu 30. Ein Fuß (lat. "pes" ≈ 29,6 cm) ist also vier Handbreit (lat. "palmus" ≈ 7,4 cm) bzw. sechzehn Fingerbreit (lat. "digitus" ≈ 1,85 cm). Neben dem offiziellen "pes monetalis" wurde in einigen Teilen der römischen Nordwestprovinzen auch der sogenannte "pes drusianus" (≈ 33,27 cm) verwendet, der gegenüber dem offiziellen Fußmaß um etwa 2 "digiti" länger war. Er wurde benannt nach dem Feldherrn Nero Claudius Drusus. Das „Vier-Fuß-Maß“ nannte man in der Spätantike auf Lateinisch "ulna" (Elle). Das „Maß von 1½ Fuß“ ist die natürliche Elle (lat. "cubitus"). Das „Fünf-Fuß-Maß” ist der Doppelschritt (lat. "passus"). Das englische "yard" hat genau drei Fuß. Im alten Griechenland zum Beispiel gab es neben dem hauptsächlich verwendeten, eigentlichen Fuß (griechisch "pous") zu 16 Fingerbreit auch eine sogenannte Pygme zu 18 Fingerbreit. Diese Pygme (Unterarm bis zum Handgelenk) wurde oft in Übersetzungen in Ermangelung eines geeigneten Wortes auch als „Fuß“ bezeichnet. Dennoch kann festgehalten werden, dass über die gesamte Zivilisationsgeschichte hinweg der Fuß stets 16 Fingerbreit beträgt, wobei der „Finger“ als die eigentliche Grundeinheit angesehen werden kann. Unter den mannigfaltigen, stets voneinander abgeleiteten griechischen Systemen sind vor allem der gemeingriechische Fuß zu nennen (wissenschaftlich seit Heron auch als Pous metrios bezeichnet), welcher später österreichischer Fuß wurde, sowie der besonders für die Erdvermessung des Eratosthenes relevante griechisch-kyrenaische Fuß der Antike. Mittelalter und frühe Neuzeit. Erst im Mittelalter mit seiner Vorliebe für das Duodezimalsystem wurde der Fuß statt in sechzehn in zwölf Untereinheiten geteilt. Dadurch ergab sich die Daumenbreite, das sogenannte Zoll (lat. "uncia", engl. "inch", frz. "pouce"). Auch in anderen Kulturkreisen, z. B. in Japan oder China, sind Längenmaße in Größe des menschlichen Fußes bekannt. Ein karolingischer Fuß maß 32,24 cm, der „Pariser Königsfuß“ 32,48 cm (vermutlich vom "pes drusianus" abgeleitet) und der weit verbreitete Rheinfuß knapp 31,4 Zentimeter. Bei nahezu allen Bauwerken des gesamten Mittelalters wurde der Fuß als Grundbaumaß verwendet. Er lässt sich aus den Breitenmaßen der jeweiligen Bauwerke rekonstruieren. Die verschiedenen Dombauhütten verwendeten jeweils ihren eigenen Fuß, die entweder antike Fußmaße oder deren Ableitungen waren. Eine Anweisung zur Grenzvermessung zwischen der Grafschaft Nassau und der Landgrafschaft Hessen-Darmstadt aus dem Jahre 1719 legt unter Punkt 5 fest, dass zur Vermessung „eine Rute zu 18 Schuh, der Schuh zu 12 Zoll“ verwendet werden solle. Mit der Einführung des dezimalen Meters in Frankreich im Jahre 1793 brach man erstmals in der Menschheitsgeschichte mit der Verwendung aller konkret auf den Menschen bezogenen Grundmaße sowie mit der traditionellen Bezugnahme auf andere, schon bestehende Maße. Die "neue Referenz" sollte nun der Erdumfang sein. In bestimmten Bereichen, etwa der Landvermessung und Schifffahrt, wurden allerdings schon zuvor verschiedene geografische Meilen (z. B. 1 Äquatorgrad lang) und davon abgeleitete Größen verwendet. Das Meter wurde rein abstrakt als zehnmillionster Teil der Entfernung vom Pol zum Äquator definiert. In der Folge verschwand das klassische menschliche Fußmaß im Geltungsbereich des Meters. Zur Vereinfachung und besseren Akzeptanz der Umstellung auf das Meter wurde im 19. Jahrhundert da und dort versucht, das alte Fußmaß auf runde Werte des neuen Systems zu bringen. So gab es im Großherzogtum Hessen einen Fuß von 25 cm, im Herzogtum Nassau gar von 50 cm (Schuhgröße 75!), und im Großherzogtum Baden sowie in der Schweiz galt ein Fuß von genau 30 cm. Dabei wurde dann der Fuß meistens durch zehn geteilt. Andere Autoritäten beschränkten sich darauf, ihren Fuß und andere Maßeinheiten in Abhängigkeit zum metrischen Systems zu definieren. Deutschsprachiger Raum. Die verschiedenen alten deutschen Fußmaße sind durch den Norddeutschen Bund und die Übernahme seiner Gesetze bei der Gründung des Deutschen Reiches (1871) sowie den darauf folgenden deutschen Beitritt zur internationalen Meterkonvention (1875) ganz aufgegeben worden. In Österreich galt überwiegend der pous metrios zu 31,61 cm. Regional entsprach dem Fuß der "Schuh". Europäische Fußmaße. Mit "Limprandischer Fuß" wurde neben dem normalen oder ordinären Fuß das Längenmaß Fuß in Alessandria bezeichnet. Der Unterschied in der Länge war US-Landvermessung. In der US-Landesvermessung hält sich daneben die frühere Definition, bei der exakt 39,37 Zoll in ein Meter passen (statt 39  47/127 = etwa 39,370 078 740). Damit ist der "international foot" exakt 0,999 998 mal so groß wie der "US survey foot", d. h. 0,0002 % oder ein Fünfhunderttausendstel kleiner. Wissenschaft. In der Wissenschaft gilt international das dezimale metrische Maßsystem, und selbst in den USA wird in diesem Bereich der "foot" nicht mehr verwendet. Die alten Einheiten führen jedoch bis heute zu Umrechnungsfehlern. So wurde beim Bau des Hubble-Weltraumteleskops die Luftdichte im Labor falsch auf das Vakuum reduziert und erforderte eine spätere Reparatur durch Astronauten. Technik. In vielen technischen Bereichen gibt es weiterhin Fuß und insbesondere Zoll, um zum wichtigen nordamerikanischen Markt kompatibel zu sein. Da in den meisten Ländern die Verwendung des metrischen Systems gesetzlich vorgeschrieben ist, tauchen diese Einheiten nur noch in Gattungsbezeichnungen (z. B. 17″-Monitor) auf, oder die eigentlichen Fuß- bzw. Zollmaße werden metrisch umgerechnet und dann auch oft gerundet. Bei Gewinden oder Schrauben führen insbesondere unbemerkte kleine Differenzen zu großen Problemen. Logistik. Viele Angaben sind in Fuß und Zoll angegeben, so z. B. ISO-Container (20 Fuß; 40 Fuß). Luftfahrt. Direkte Werte in Fuß sind am häufigsten in der Luftfahrt anzutreffen, wo sie als "feet" die gebräuchlichste Maßeinheit der Flughöhe darstellen. Bei geografischen Höhenangaben in Luftfahrtkarten (speziell für Flugplätze und Berge) wird im Zusammenhang mit der Angabe in Fuß der Begriff „Elevation“ (ELEV) verwendet. Im kontrollierten Luftraum werden die Flugflächen (engl.: "flight level", FL) nach ihrer Höhe in Vielfachen von 100 Fuß benannt. Beispiel: Die Höhenangabe „FL120“ bedeutet: „12000 ft über der Bezugsfläche“. Schifffahrt. Viele Maße basieren auf Fuß und Zoll oder werden immer noch direkt darin angegeben. Maße bei Bauvorschriften für z. B. Durchstiege, Raumhöhen oder die Seereling wurden in Fuß oder Zoll definiert und werden heute als Millimeterwerte angegeben (Höhe der Reling 2 Fuß entspricht 610 mm, Abstand der Stützen höchstens 7 Fuß entspricht 2134 mm). Grenzwerte für Schiffsklassen sind oft ganze Fußmaße. Eine Registertonne sind 100 Kubikfuß. Bei der Fertigung von Kettengliedern wird zumeist der Zoll verwendet, während die Produkte in Millimeter ausgezeichnet werden (die Glieder einer ¼-Zoll-Kette sind 6,35 mm dick, werden aber als 6-Millimeter-Kette bezeichnet; ⅜ Zoll sind 9,53 mm, werden aber als 10 mm verkauft; und ½ Zoll sind 12,7 mm, heißen aber 13 mm). Auf allen amtlichen amerikanischen Seekarten und nautischen Veröffentlichungen werden Wassertiefen in Fuß angegeben. Hingegen sind die Seekarten der britischen Admiralität inzwischen fast durchgehend metrisch. Auch wenn es nicht exakt stimmt, nutzen auch Nichtengländer Fußwerte im Namen eines Bootstyps oder einer Marke, um das Boot genauer zu spezifizieren (Boote der Klasse Melges 24 sind 750 cm lang, die Swan 48 hat 1483 cm und nicht korrekte 1463,04 cm = 48 ft). Sport. In manchen Sportarten sind Maße ursprünglich runde Fußwerte, werden inzwischen aber häufig in Metern spezifiziert und dabei nur manchmal auf glatte Werte gerundet. Der Basketballkorb beispielsweise hängt 10 ft hoch (umgerechnet 3,048 m), das Fußballtor ist 2,44 m hoch und 7,32 m breit (ursprünglich 8 ft × 24 ft). Orgelbau. Im Orgelbau wird der Fuß heute für die Angabe der Tonhöhe von Orgelpfeifen verwendet. Die sogenannte "Fußtonzahl" gibt die klingende Tonhöhe eines Orgelregisters an. Bei einem 8′-Register lässt die Taste C auch den Ton C erklingen, bei einem 4′-Register den Ton c0 usw. Dabei wird von einer theoretischen Standardpfeife für die Taste C ausgegangen. Für die heutige Stimmung hat im Orgelbau ein Fuß etwa 32 cm. Abhängig von der Bauart weicht die tatsächliche Länge einer Pfeife bei gleicher Tonhöhe jedoch von der in Fuß angegebenen Länge ab. Auch die Unterschiede der regional üblichen Fußmaße im historischen Orgelbau spielten bei der Nennung der Fußtonzahl keine Rolle, da sie nur grob angegeben wurde. So wurde beispielsweise das Maß 2 ⅔′ regelmäßig als 3′ geschrieben. Furlong. Der Furlong (dt. „“) ist ein altes anglo-amerikanisches Längenmaß mit Herkunft aus der Landwirtschaft. Es ist nicht metrisch und daher nicht SI-konform. Definition. "1 Furlong" = 10 Chain = 40 Rod = 220 Yard = 660 Fuß (ft) = 7920 Zoll (in) = 201,168 Meter 1 Englische Meile = "8 Furlong" = 80 Chain = 320 Rod = 8000 Link Die alte Flächeneinheit acre (4046,86 m²) entspricht einem streifenförmigen Feld von 1 Furlong x 0,1 Furlong, das ein Ochsengespann in etwa einem Tag pflügen konnte. Ähnliche Dimensionen haben die Einheiten Morgen und Joch, die in Europa bis heute in der bäuerlichen Bevölkerung lebendig sind. Verwendung. Der Furlong wird insbesondere in Großbritannien für die Strecken von Pferderennen genutzt. So geht das Pferderennen von Ascot über 20 Furlongs und damit zweieinhalb englische Meilen. Schottischer Furlong. Der alte schottische Furlong wich vom angloamerikanischen Maß ab und war etwa 25 Meter größer. Die Länge dieses Furlongs war 226,7671 Meter. Der Umrechnungsfaktor kann mit 1,127 angesetzt werden. Nautischer Faden. Der Nautische Faden (vom englischen: „fathom“, zu deutsch: „Faden“, auch „Klafter“ genannt) ist eine nicht SI-konforme Maßeinheit der Länge, welche insbesondere noch in der englischsprachigen Schifffahrt – in der Nautik – für Tiefenangaben in Gebrauch ist. Ursprünglich handelt es sich bei dem Maß um die Spannweite der Arme eines ausgewachsenen Mannes, historisch sechs Fuß gleichgesetzt. In der EG-Richtlinie 80/181/EWG ist die erste Definition zugrundegelegt, jedoch der Zahlenwert zu 1,829 Meter gerundet. Preußischer Faden. Der preußische Faden im Seewesen war Weitere Faden der Seefahrt. Die Pariser Linie ist hier mit 2,2558 mm gerechnet. Farad. Farad ist die SI-Einheit für die elektrische Kapazität. Sie wurde nach Michael Faraday benannt. a> verschiedener Kapazitäten. Oftmals ist die Kapazität in formula_6 (Mikrofarad) angegeben. Die meisten Kondensatoren haben Kapazitäten zwischen einigen Pikofarad (pF) und einigen hundert Mikrofarad (μF). Seit ca. 1990 sind (als erste sogenannte Super- oder Ultrakondensatoren) Doppelschichtkondensatoren erhältlich, die Kapazitäten in der Größenordnung von einigen Farad aufweisen. Später entwickelte Superkondensatoren erreichen auch bis zu einige tausend Farad. Fluid dram. Fluid dram und Fluid drachm (»Flüssigdrachme«) sind Maßeinheiten des Raums (Flüssigkeit, Apothekermaß), die vor allem in Nordamerika gebräuchlich sind. Das Einheitenzeichen für "Fluid dram" ist "US.fl.dr." Das Einheitenzeichen für "Fluid drachm" ist "Imp.fl.dr." 1 US.fl.dr. = 60 US.min. = 0,2255859375 cubic inch = 3,6966911953125 cm³ 1 US.gallon = 231 cubic inch = 1024 US.fl.dr. 1 Imp.fl.dr. = 60 Imp.min. = 0,2167339453125 cubic inch = 3,55163303280844 cm³ 1 Imp.gallon = 277,41945 cubic inch = 1280 Imp.fl.dr. Fluid ounce. Fluid ounce („Flüssigunze“) ist eine Maßeinheit des Raums (Flüssigkeit, Apothekermaß) des Angloamerikanischen Maßsystems. Das Einheitenzeichen ist Imp.fl.oz. oder US fl.oz. Foot-pound. Das foot-pound oder foot-pound force ist eine britische und US-amerikanische Einheit sowohl der Energie als auch des Drehmoments (dort auch Pound-foot). Das Einheitenzeichen ist ft·lb oder ft·lbf, auch lbf·ft. 550 Foot-pound in der Sekunde entsprechen einem PS (etwa 736 Watt). Friedrich Nietzsche. Friedrich Wilhelm Nietzsche (* 15. Oktober 1844 in Röcken; † 25. August 1900 in Weimar) war ein deutscher klassischer Philologe. Erst postum machten ihn seine Schriften als Philosophen weltberühmt. Im Nebenwerk schuf er Dichtungen und musikalische Kompositionen. Ursprünglich preußischer Staatsbürger, war er seit seiner Übersiedlung nach Basel 1869 staatenlos. Im Alter von 24 Jahren wurde Nietzsche unmittelbar im Anschluss an sein Studium Professor für klassische Philologie in Basel. Bereits zehn Jahre später legte er 1879 aus gesundheitlichen Gründen die Professur nieder. Von nun an bereiste er – auf der Suche nach Orten, deren Klima sich günstig auf seine Migräne und Magenleiden auswirken sollte – Frankreich, Italien, Deutschland und die Schweiz. Ab seinem 45. Lebensjahr (1889) litt er unter einer schweren psychischen Krankheit, die ihn arbeits- und geschäftsunfähig machte. Seinen Anfang der 1890er Jahre rasch einsetzenden Ruhm hat er deshalb nicht mehr bewusst erlebt. Er verbrachte den Rest seines Lebens als Pflegefall in der Obhut zunächst seiner Mutter, dann seiner Schwester, und starb 1900 im Alter von 55 Jahren. Den jungen Nietzsche beeindruckte besonders die Philosophie Schopenhauers. Später wandte er sich von dessen Pessimismus ab und stellte eine radikale Lebensbejahung in den Mittelpunkt seiner Philosophie. Sein Werk enthält scharfe Kritiken an Moral, Religion, Philosophie, Wissenschaft und Formen der Kunst. Die zeitgenössische Kultur war in seinen Augen lebensschwächer als die des antiken Griechenlands. Wiederkehrendes Ziel von Nietzsches Angriffen ist vor allem die christliche Moral sowie die christliche und platonistische Metaphysik. Er stellte den Wert der Wahrheit überhaupt in Frage und wurde damit Wegbereiter postmoderner philosophischer Ansätze. Auch Nietzsches Konzepte des „Übermenschen“, des „Willens zur Macht“ oder der „ewigen Wiederkunft“ geben bis heute Anlass zu Deutungen und Diskussionen. Nietzsches Denken hat weit über die Philosophie hinaus gewirkt und ist bis heute unterschiedlichsten Deutungen und Bewertungen unterworfen. Nietzsche schuf keine systematische Philosophie. Oft wählte er den Aphorismus als Ausdrucksform seiner Gedanken. Seine Prosa, seine Gedichte und der pathetisch-lyrische Stil von "Also sprach Zarathustra" verschafften ihm auch Anerkennung als Schriftsteller. Jugend (1844–1869). Nietzsche im Alter von 17 Jahren, 1861 Friedrich Nietzsche wurde am 15. Oktober 1844 in Röcken geboren, einem Dorf nahe Lützen in der preußischen Provinz Sachsen, heute Sachsen-Anhalt. Seine Eltern waren der lutherische Pfarrer Carl Ludwig Nietzsche und dessen Frau Franziska. Seit der Reformation im 16. Jahrhundert ist die Familie Nietzsche in Sachsen als evangelisch dokumentiert. In den Familien beider Elternteile gab es einen hohen Anteil protestantischer Pfarrer. Seinen Vornamen gab ihm sein Vater zu Ehren des preußischen Königs Friedrich Wilhelm IV., an dessen 49. Geburtstag er geboren wurde. Nietzsche selbst behauptete in seinen späten Jahren, in väterlicher Linie von polnischen Edelleuten abzustammen, was jedoch nicht bestätigt werden konnte. Die Schwester Elisabeth kam 1846 zur Welt. Nach dem Tod des Vaters 1849 und des jüngeren Bruders Ludwig Joseph (1848–1850) zog die Familie nach Naumburg. Der spätere Justizrat Bernhard Dächsel wurde formal zum Vormund der Geschwister Friedrich und Elisabeth bestellt. Von 1850 bis 1856 lebte Nietzsche im „Naumburger Frauenhaushalt“, das heißt zusammen mit Mutter, Schwester, Großmutter, zwei unverheirateten Tanten väterlicherseits und dem Dienstmädchen. Erst die Hinterlassenschaft der 1856 verstorbenen Großmutter erlaubte der Mutter, für sich und ihre Kinder eine eigene Wohnung zu mieten. Der junge Nietzsche besuchte zunächst die allgemeine Knabenschule, fühlte sich dort allerdings so isoliert, dass man ihn auf eine Privatschule schickte, wo er erste Jugendfreundschaften mit Gustav Krug und Wilhelm Pinder, beide aus angesehenen Häusern, knüpfte. Ab 1854 besuchte er das Domgymnasium Naumburg und fiel bereits dort durch seine besondere musische und sprachliche Begabung auf. 1857 bereitete Pastor Gustav Adolf Oßwald, ein enger Freund seines Vaters, ihn in Kirchscheidungen für die Aufnahmeprüfung in Schulpforta vor. Am 5. Oktober 1858 wurde Nietzsche als Stipendiat in die Landesschule Pforta aufgenommen, wo er als bleibende Freunde Paul Deussen und Carl Freiherrn von Gersdorff kennenlernte. Seine schulischen Leistungen waren sehr gut, in seiner Freizeit dichtete und komponierte er. In Schulpforta entwickelte sich zum ersten Mal seine eigene Vorstellung von der Antike und, damit einhergehend, eine Distanz zur kleinbürgerlich-christlichen Welt seiner Familie. In dieser Zeit lernte Nietzsche auch den älteren, einstmals politisch engagierten Dichter Ernst Ortlepp kennen, dessen Persönlichkeit den vaterlosen Knaben beeindruckte. Von Nietzsche besonders geschätzte Lehrer, mit denen er nach seiner Schulzeit noch in Verbindung blieb, waren Wilhelm Corssen, der spätere Rektor Diederich Volkmann und Max Heinze, der 1897, als Nietzsche entmündigt war, zu dessen Vormund bestellt wurde. Gemeinsam mit seinen Freunden Pinder und Krug traf sich Nietzsche ab 1860 auf der Burgruine Schönburg, wo er mit ihnen über Literatur, Philosophie, Musik und Sprache diskutierte. Mit Ihnen gründete er dort die künstlerisch-literarische Vereinigung „Germania“. Die Gründungsfeier fand am 25. Juli 1860 statt: „…bei Naumburger Rotwein (die Flasche zu 75 Pfennige) leisteten die drei sechzehnjährigen Vereinsmitglieder ihren Bundesschwur. Gedichte, Kompositionen, Abhandlungen mußten regelmäßig geliefert werden. Man wollte dann gemeinsam darüber diskutieren“. Die Versammlungen fanden vierteljährlich statt. Auf ihnen wurden Vorträge gehalten. Es gab auch eine Gemeinschaftskasse, aus der Bücher beschafft wurden. Bereits in dieser Zeit entwickelte Nietzsche seine Leidenschaft zur Musik Richard Wagners. Zu Nietzsches frühen Werken, die vor dem Hintergrund der Schönburger Germania entstanden sind, zählen die „Synodenvorträge“, „Kindheit der Völker“, „Fatum und Geschichte“, sowie „Über das Dämonische in der Musik“. 1863 wurde die „Germania“ aufgelöst, nachdem Pinder und Krug ihr Interesse daran verloren hatten. Nietzsche (links oberhalb des Fasses) im Kreise seiner Bundesbrüder, 1865 Im Wintersemester 1864/65 begann Nietzsche an der Universität Bonn das Studium der klassischen Philologie und der evangelischen Theologie unter anderem bei Wilhelm Ludwig Krafft. Zusammen mit Deussen wurde er Mitglied der Bonner Burschenschaft Frankonia. Er bestritt freiwillig eine Mensur, von welcher er einen Schmiss auf dem Nasenrücken zurückbehielt. Nach einem Jahr verließ er die Burschenschaft, weil ihm das Verbindungsleben missfiel. Neben seinem Studium vertiefte er sich in die Werke der Junghegelianer, darunter "Das Leben Jesu" von David Friedrich Strauß, "Das Wesen des Christentums" von Ludwig Feuerbach und Bruno Bauers Evangelienkritiken. Diese bestärkten ihn (zur großen Enttäuschung seiner Mutter) in dem Entschluss, das Theologiestudium nach einem Semester abzubrechen. Nietzsche wollte sich nun ganz auf die klassische Philologie konzentrieren, war jedoch mit seiner Lage in Bonn unzufrieden. Daher nahm er den Wechsel des Philologieprofessors Friedrich Ritschl nach Leipzig (in Folge des Bonner Philologenstreits) zum Anlass, zusammen mit seinem Freund Gersdorff ebenfalls nach Leipzig zu ziehen. In den folgenden Jahren sollte Nietzsche zu Ritschls philologischem Musterschüler werden, obwohl er in Bonn noch dessen Konkurrenten Otto Jahn zugeneigt war. Ritschl war für Nietzsche zeitweise eine Vaterfigur, ehe später Richard Wagner (s.u.) diese Stelle einnahm. Im Oktober 1865, kurz bevor Nietzsche das Studium in Leipzig aufnahm, verbrachte er zwei Wochen in Berlin bei der Familie seines Studienfreundes Hermann Mushacke. Dessen Vater hatte in den 1840er Jahren zu einem Debattierzirkel um Bruno Bauer und Max Stirner gehört. Dass Nietzsche bei diesem Besuch mit Stirners berüchtigtem, 1845 erschienenen Buch "Der Einzige und sein Eigentum" konfrontiert wurde, liegt nahe, lässt sich aber nicht belegen. Jedenfalls wandte Nietzsche sich unmittelbar danach einem Philosophen zu, der Stirner und dem Junghegelianismus denkbar fernstand: Arthur Schopenhauer. Ein weiterer Philosoph, den er in seiner Leipziger Zeit für sich entdeckte, war Friedrich Albert Lange, dessen "Geschichte des Materialismus" 1866 erschien. In erster Linie setzte Nietzsche jedoch zunächst sein philologisches Studium fort. In dieser Zeit knüpfte er eine enge Freundschaft mit seinem Kommilitonen Erwin Rohde. Hatte er im sogenannten Deutschen Krieg zwischen Preußen und Österreich, in dessen Verlauf auch Leipzig preußisch besetzt wurde, noch seine militärische Einberufung vermeiden können, so wurde Nietzsche nun (1867) als Einjährig-Freiwilliger bei der preußischen Artillerie in Naumburg verpflichtet. Nach einem schweren Reitunfall im März 1868 dienstunfähig geworden, nutzte er die Zeit seiner Kur zu weiteren philologischen Arbeiten, die er in seinem letzten Studienjahr fortsetzte. Von großer Bedeutung sollte sein erstes Zusammentreffen mit Richard Wagner im Jahre 1868 werden. Professor in Basel (1869–1879). a> und Friedrich Nietzsche (v.l.), Oktober 1871 in Naumburg (Saale) Auf Empfehlung Friedrich Ritschls und Betreiben Wilhelm Vischer-Bilfingers wurde Nietzsche 1869, noch bevor er seine Promotion ("honoris causa") erhalten und seine Habilitation absolviert hatte, zum außerordentlichen Professor für klassische Philologie an die Universität Basel berufen. Zu seiner Tätigkeit gehörte auch das Lehren am Basler Gymnasium am Münsterplatz ("Pädagogium"). Als seine wichtigste Erkenntnis auf dem Gebiet der Philologie sah er die Entdeckung an, dass die antike Metrik, im Gegensatz zur modernen, akzentuierenden Metrik, ausschließlich auf der Länge von Silben basierte (quantitierendes Prinzip). Auf eigenen Wunsch wurde Nietzsche nach seiner Übersiedlung nach Basel aus der preußischen Staatsbürgerschaft entlassen und blieb für den Rest seines Lebens staatenlos. Allerdings diente er im Deutsch-Französischen Krieg für kurze Zeit als Sanitäter auf deutscher Seite. Die Gründung des Deutschen Reichs und die anschließende Ära Otto von Bismarcks nahm er von außen und mit einer grundsätzlichen Skepsis wahr. In Basel begann 1870 die bis in die Zeit von Nietzsches geistiger Umnachtung andauernde Freundschaft zu seinem Kollegen Franz Overbeck, einem atheistischen Theologieprofessor. Nietzsche schätzte auch den älteren Kollegen Jacob Burckhardt, der ihm gegenüber jedoch höflich, aber bestimmt Distanz wahrte. Bereits im Jahre 1868 hatte Nietzsche in Leipzig Richard Wagner und dessen spätere Frau Cosima kennengelernt. Er verehrte beide zutiefst und war seit Beginn seiner Zeit in Basel häufig Gast im Haus des „Meisters“ in Tribschen bei Luzern. Dieser nahm ihn zwar zeitweise mit in seinen engsten Kreis auf, schätzte ihn aber vor allem als Propagandisten für die Gründung des Bayreuther Festspielhauses. 1872 veröffentlichte Nietzsche sein erstes größeres Werk, "Die Geburt der Tragödie aus dem Geiste der Musik", eine Untersuchung über den Ursprung der Tragödie, in der er die exakte philologische Methode durch philosophische Spekulation ersetzte. Er entwickelte darin seine Kunstpsychologie, indem er die griechische Tragödie aus dem Begriffspaar apollinisch-dionysisch zu erklären versuchte. Die Schrift wurde von den meisten seiner altphilologischen Kollegen – auch von Ritschl – abgelehnt und mit Schweigen übergangen. Durch Ulrich von Wilamowitz-Moellendorffs Polemik "Zukunftsphilologie!" kam es zwar doch noch zu einer kurzen öffentlichen Kontroverse, in die Rohde, inzwischen Professor in Kiel, und sogar Wagner auf Nietzsches Seite eingriffen; aber Nietzsche wurde sich seiner Isolation in der Philologie noch mehr bewusst, derentwegen er sich schon Anfang 1871 um den freiwerdenden Basler philosophischen Lehrstuhl Gustav Teichmüllers beworben hatte. Dieser wurde aber mit Rudolf Eucken besetzt. Auch die vier "Unzeitgemäßen Betrachtungen" (1873–1876), in denen er eine von Schopenhauer und Wagner beeinflusste Kulturkritik übte, fanden nicht die erhoffte Resonanz. Im Umkreis Wagners hatte Nietzsche inzwischen Malwida von Meysenbug und Hans von Bülow kennengelernt, und auch die Freundschaft mit Paul Rée, dessen Einfluss ihn vom Kulturpessimismus seiner ersten Schriften abbrachte, begann. Seine Enttäuschung über die ersten Bayreuther Festspiele von 1876, wo er sich von der Banalität des Schauspiels und der Niveaulosigkeit des Publikums abgestoßen fühlte, nahm Nietzsche zum Anlass, sich von Wagner zu entfernen. Seine frühere unterwürfige Anhängerschaft schlug in Ablehnung und schließlich radikale Gegnerschaft um. Mit der Publikation von "Menschliches, Allzumenschliches" (1878) wurde die Entfremdung von Wagner und von der Schopenhauerschen Philosophie offenbar. Auch die Freundschaften zu Deussen und Rohde hatten sich inzwischen merklich abgekühlt. In dieser Zeit unternahm Nietzsche mehrere vergebliche Versuche, eine junge und vermögende Ehefrau für sich zu finden, worin er vor allem von der mütterlichen Gönnerin Malwida von Meysenbug unterstützt wurde. Außerdem nahmen die seit seiner Kindheit auftretenden Krankheiten (Migräneanfälle und Magenstörungen sowie eine starke Kurzsichtigkeit, die letztlich bis zur praktischen Blindheit führte) zu und zwangen ihn zu immer längeren Urlauben von seiner Lehrtätigkeit. 1879 musste er sich deswegen schließlich vorzeitig pensionieren lassen. Freier Philosoph (1879–1889). Haus in Sils-Maria, in dem Nietzsche während der Sommermonate 1881–1888 ein Zimmer bewohnte. Getrieben von seinen Krankheiten auf der ständigen Suche nach für ihn optimalen Klimabedingungen, reiste er nun viel und lebte bis 1889 als freier Autor an verschiedenen Orten. Dabei lebte er vor allem von der ihm gewährten Pension, erhielt aber mitunter auch Zuwendungen von Freunden. Im Sommer hielt er sich meist in Sils-Maria, im Winter vorwiegend in Italien (Genua, Rapallo, Turin) und in Nizza auf. Hin und wieder besuchte er auch die Familie in Naumburg, wobei es mehrfach zu Zerwürfnissen und Versöhnungen mit seiner Schwester kam. Sein früherer Schüler Peter Gast (eigtl. Heinrich Köselitz) wurde zeitweilig zu einer Art Privatsekretär. Köselitz und Overbeck waren Nietzsches beständigste Vertraute. Aus dem Wagnerkreis war ihm vor allem Meysenbug als mütterliche Gönnerin erhalten geblieben. Kontakt hielt er außerdem mit dem Musikkritiker Carl Fuchs und zunächst auch mit Paul Rée. Anfang der 1880er erschienen mit "Morgenröte" und "Die fröhliche Wissenschaft" weitere Werke im aphoristischen Stil von "Menschliches, Allzumenschliches". a> und Nietzsche; von Nietzsche arrangierte Fotografie, 1882 a> im Oberengadin. Der Stein soll Nietzsche nach eigenen Angaben 1881 zur Grundkonzeption des Zarathustra angeregt haben. 1882 lernte er durch Vermittlung von Meysenbug und Rée in Rom Lou von Salomé kennen. Nietzsche fasste schnell weitreichende Pläne für die „Dreieinigkeit“ mit Rée und Salomé. Die Annäherung an die junge Frau gipfelte in einem mehrwöchigen gemeinsamen Aufenthalt in Tautenburg, mit Nietzsches Schwester Elisabeth als Anstandsdame. Nietzsche sah in Salomé bei aller Wertschätzung weniger eine gleichwertige Partnerin als eine begabte Schülerin. Er verliebte sich in sie, hielt über den gemeinsamen Freund Rée um ihre Hand an, doch Salomé lehnte ab. Unter anderem aufgrund von Intrigen Elisabeths zerbrach die Beziehung zu Rée und Salomé im Winter 1882/1883. Nietzsche, der angesichts neuer Krankheitsschübe und seiner nunmehr beinahe vollständigen Isolation – mit Mutter und Schwester hatte er sich wegen Salomé überworfen – von Suizidgedanken geplagt wurde, flüchtete nach Rapallo, wo er in nur zehn Tagen den ersten Teil von "Also sprach Zarathustra" zu Papier brachte. Waren ihm schon nach dem Bruch mit Wagner und der Philosophie Schopenhauers nur wenige Freunde erhalten geblieben, so stieß der völlig neue Stil im "Zarathustra" selbst im engsten Freundeskreis auf Unverständnis, das allenfalls durch Höflichkeit überdeckt wurde. Nietzsche war sich dessen durchaus bewusst und pflegte seine Einsamkeit geradezu, wenn er auch oft darüber klagte. Den kurzzeitig gehegten Plan, als Dichter an die Öffentlichkeit zu treten, gab er auf. Daneben plagten ihn Geldsorgen, denn seine Bücher wurden so gut wie nicht gekauft. Den vierten Teil des "Zarathustra" gab er 1885 nur noch als Privatdruck mit einer Auflage von 40 Exemplaren heraus, die als Geschenk für „solche, die sich um ihn verdient machten“, gedacht waren und von denen Nietzsche letztlich aber lediglich sieben verschenkte. Nietzsche kündigt Heinrich Köselitz den Titel seines neuen Buchs an 1886 ließ er "Jenseits von Gut und Böse" auf eigene Kosten drucken. Mit diesem Buch und den 1886/87 erscheinenden Zweitauflagen von "Geburt", "Menschliches", "Morgenröte" und "Fröhlicher Wissenschaft" sah er sein Werk als vorerst abgeschlossen an und hoffte, dass sich bald eine Leserschaft entwickeln würde. Tatsächlich stieg das Interesse an Nietzsche, wenn auch sehr langsam und von ihm selbst kaum bemerkt. Neue Bekanntschaften Nietzsches in diesen Jahren waren Meta von Salis und Carl Spitteler, auch ein Treffen mit Gottfried Keller war zustande gekommen. 1886 war seine Schwester, inzwischen verheiratet mit dem Antisemiten Bernhard Förster, nach Paraguay abgereist, um die „germanische“ Kolonie Nueva Germania zu gründen – ein Vorhaben, das Nietzsche lächerlich fand. Im brieflichen Kontakt setzte sich die Abfolge von Streit und Versöhnung fort, persönlich sollten sich die Geschwister aber erst nach Friedrichs Zusammenbruch wiedersehen. Nietzsche hatte weiterhin mit wiederkehrenden schmerzhaften Anfällen zu kämpfen, die ein konstantes Arbeiten unmöglich machten. 1887 schrieb er in kurzer Zeit die Streitschrift "Zur Genealogie der Moral". Er wechselte Briefe mit Hippolyte Taine, dann auch mit Georg Brandes, der Anfang 1888 in Kopenhagen die ersten Vorträge über Nietzsches Philosophie hielt. Im selben Jahr schrieb Nietzsche fünf Bücher, teilweise aus umfangreichen Aufzeichnungen für das zeitweise geplante Werk "Der Wille zur Macht". Sein Gesundheitszustand hatte sich vorübergehend gebessert, im Sommer war er in regelrechter Hochstimmung. Seine Schriften und Briefe ab Herbst 1888 jedoch lassen bereits auf seinen beginnenden Größenwahn schließen. Die Reaktionen auf seine Schriften, vor allem auf die Polemik "Der Fall Wagner" vom Frühjahr, wurden von ihm maßlos überbewertet. An seinem 44. Geburtstag entschloss er sich, nach der Vollendung der "Götzen-Dämmerung" und des zunächst zurückgehaltenen "Antichrist", die Autobiographie "Ecce homo" zu schreiben. Im Dezember begann ein Briefwechsel mit August Strindberg. Nietzsche glaubte, kurz vor dem internationalen Durchbruch zu stehen, und versuchte, seine alten Schriften vom ersten Verleger zurückzukaufen. Er plante Übersetzungen in die wichtigsten europäischen Sprachen. Überdies beabsichtigte er die Veröffentlichung der Kompilation "Nietzsche contra Wagner" und der Gedichte "Dionysos-Dithyramben". In geistiger Umnachtung (1889–1900). a> nach der Fotoserie „Der kranke Nietzsche“, 1899 Anfang Januar 1889 erlitt er in Turin einen geistigen Zusammenbruch. Kleine Schriftstücke, sogenannte „Wahnzettel“, die er an enge Freunde, aber auch zum Beispiel an Cosima Wagner und Jacob Burckhardt sandte, waren eindeutig vom Wahnsinn gezeichnet. Als Ursache für den Zusammenbruch wurde progressive Paralyse als Folge von Syphilis vermutet. Diese Diagnose und die Ursache für Nietzsches Krankheitsbild überhaupt bleiben allerdings zweifelhaft und sind bis heute umstritten. Skulpturengruppe „Röckener Bacchanal“ auf der Nordseite der Kirche in Röcken. Das Grab befindet sich unweit davon auf der Südseite. Der durch die Wahnzettel an Burckhardt und ihn selbst alarmierte Overbeck brachte Nietzsche zunächst in die von Ludwig Wille geleitete Irrenanstalt Friedmatt in Basel. Von dort wurde der inzwischen geistig vollständig Umnachtete von seiner Mutter in die Psychiatrische Universitätsklinik in Jena unter Leitung Otto Binswangers gebracht. Ein Heilungsversuch Julius Langbehns, der von sich aus Kontakt zur Mutter aufgenommen hatte, scheiterte. 1890 durfte die Mutter ihn schließlich bei sich in Naumburg aufnehmen. Zu dieser Zeit konnte er zwar gelegentlich kurze Gespräche führen, Erinnerungsfetzen hervorbringen und unter einige Briefe von der Mutter diktierte Grüße setzen, verfiel jedoch schnell und plötzlich in Wahnvorstellungen oder Apathie und erkannte auch alte Freunde nicht wieder. Über das weitere Verfahren mit den teilweise noch ungedruckten Werken berieten zunächst Overbeck und Köselitz. Letzterer begann eine erste Gesamtausgabe. Gleichzeitig setzte eine erste Welle der Nietzsche-Rezeption ein. Elisabeth Förster-Nietzsche kehrte nach dem Suizid ihres Mannes 1893 aus Paraguay zurück, ließ die bereits gedruckten Bände der Köselitzschen Ausgabe einstampfen, gründete das Nietzsche-Archiv und übernahm von der betagten Mutter Zug um Zug die Kontrolle sowohl über den pflegebedürftigen Bruder als auch über dessen Nachlass und die Herausgabe seiner Werke. Mit Overbeck zerstritt sie sich, während sie Köselitz für eine weitere Zusammenarbeit gewinnen konnte. Nietzsche selbst, dessen Verfall sich fortsetzte, bekam von alldem nichts mehr mit. Nach dem Tod seiner Mutter 1897 lebte er in der "Villa Silberblick" in Weimar, wo seine Schwester ihn pflegte. Ausgewählten Besuchern – etwa Rudolf Steiner – gewährte sie das Privileg, zu dem dementen Philosophen vorgelassen zu werden. Von Steiner stammt eine ausführliche Schilderung des umnachteten Nietzsche. Nach mehreren Schlaganfällen war Nietzsche allerdings teilweise gelähmt und konnte weder stehen noch sprechen. Am 25. August 1900, im Alter von 55 Jahren, starb er an den Folgen einer Lungenentzündung und eines weiteren Schlaganfalls. Er wurde an der Röckener Dorfkirche im Familiengrab beigesetzt. Denken und Werk. Nietzsche begann sein Werk als Philologe, begriff sich selbst aber zunehmend als Philosoph oder als „freier Denker“. Er gilt als Meister der aphoristischen Kurzform und des mitreißenden Prosa-Stils. Die Werke sind zuweilen mit einer Rahmenhandlung, Vor- und Nachwort, Gedichten und einem „Vorspiel“ versehen. Einige Interpreten halten selbst die scheinbar wenig strukturierten Aphorismenbücher für geschickt „komponiert“. Nietzsche hat wie kaum ein zweiter Denker die Freiheit der Methode und der Betrachtung gewählt. Eine definitive Einordnung seiner Philosophie in eine bestimmte Disziplin ist daher schwierig. Nietzsches Herangehensweise an die Probleme der Philosophie ist teils die des Künstlers, teils die des Wissenschaftlers und teils die des Philosophen. Viele Stellen seines Werks können auch als psychologisch bezeichnet werden, wobei dieser Begriff erst später seine heutige Bedeutung bekam. Zahlreiche Deuter sehen auch einen engen Zusammenhang zwischen seinem Leben und seinem denkerischen Werk, sodass über Nietzsches Leben und Persönlichkeit weit mehr geforscht und geschrieben wird, als dies bei anderen Philosophen der Fall ist. Übersicht zum Werk. Oft wird Nietzsches Denken und Werk in bestimmte Perioden eingeteilt. Die folgende Aufteilung geht in Grundzügen auf Nietzsche selbst zurück und ist seit dem Nietzschebuch Lou Andreas-Salomés (1894) in ähnlicher Form von fast allen Interpreten verwendet worden. Es gibt allerdings einige Überschneidungen und Brüche in diesem Schema. So fügte Nietzsche den Zweitauflagen der "Geburt der Tragödie" und der "Fröhlichen Wissenschaft" von 1887 ein selbstkritisches Vorwort bzw. ein fünftes Buch hinzu. Bedeutsam ist auch die zu Lebzeiten unveröffentlichte Schrift "Über Wahrheit und Lüge im außermoralischen Sinne" von 1872, in der Nietzsche viele seiner späteren Gedanken vorwegnimmt. Einige Themen – etwa das Verhältnis von Kunst und Wissenschaft – behandelt Nietzsche in allen Zeiträumen, wenn auch aus unterschiedlichen Perspektiven und mit entsprechend unterschiedlichen Antworten. „Dieses Facsimile ist die getreue Reproduction eines von Nietzsche ursprünglich für das ‚Menschliche Allzumenschliche‘ bestimmten Epilogs.“ Neben seinen philosophischen Betrachtungen veröffentlichte Nietzsche auch Gedichte, in denen seine philosophischen Gedanken bald heiter, bald dunkel und schwermütig ausgedrückt werden. Sie hängen mit den Prosawerken zusammen: Die "Idyllen aus Messina" (1882) gingen in die zweite Auflage der "Fröhlichen Wissenschaft" ein, während einige der "Dionysos-Dithyramben" (1888/89) Überarbeitungen von Stücken aus "Also sprach Zarathustra" sind. Lange Zeit umstritten war die Bedeutung von Nietzsches "Nachlass", dessen Rezeption zudem von der fragwürdigen Publikation durch das Nietzsche-Archiv erschwert wurde (vergleiche Nietzsche-Ausgabe). Extrempositionen bezogen hier einerseits Karl Schlechta, der zumindest im vom Archiv publizierten Nachlass nichts fand, was nicht auch in Nietzsches veröffentlichten Werken zu finden sei; und andererseits etwa Alfred Baeumler und Martin Heidegger, die Nietzsches veröffentlichtes Werk nur als „Vorhalle“ sahen, während sich die „eigentliche Philosophie“ im Nachlass befinde. Inzwischen herrscht eine mittlere Position vor, die den Nachlass als Ergänzung der veröffentlichten Werke begreift und darin ein Mittel sieht, Nietzsches Denkwege und Entwicklungen besser nachzuvollziehen. Nietzsches Denken ist auf viele unterschiedliche Weisen interpretiert worden. Es enthält Brüche, verschiedene Ebenen und fiktive Standpunkte lyrischer Personen („Ein Fälscher ist, wer Nietzsche interpretiert, indem er Zitate aus ihm benutzt. […] Im Bergwerk dieses Denkers ist jedes Metall zu finden: Nietzsche hat alles gesagt und das Gegenteil von allem.“, Giorgio Colli). Eine kanonische Wiedergabe ist sehr schwierig. Die Frage, ob das weitgehende Fehlen einer Systematik von Nietzsche beabsichtigt war, somit Ausdruck seiner Weltsicht ist, hat man in der Rezeption ausführlich diskutiert. Seit der zweiten Hälfte des 20. Jahrhunderts wird sie vorwiegend bejaht. Vergleiche hierzu unten den Abschnitt Kritik an Religion, Metaphysik und Erkenntnistheorie. Kritik der Moral. Diese Form der Kritik auf einer Meta-Ebene ist ein typisches Kennzeichen von Nietzsches Philosophie. "Vergleiche: Metaethik." Solche Gedankengänge werden von Nietzsche zu einer immer radikaleren Kritik am Christentum, etwa in "Der Antichrist", gebündelt. Dieses sei nicht nur nihilistisch in dem Sinne, dass es der sinnlich wahrnehmbaren Welt jeden Wert abspreche – eine Kritik, die in Nietzsches Verständnis auch den Buddhismus treffe –, sondern im Gegensatz zum Buddhismus auch aus Ressentiment geboren. Das Christentum habe jede höhere Art Mensch und jede höhere Kultur und Wissenschaft behindert. C. A. Bernoulli hebt hervor, dass Nietzsches Anti-Christentum vornehmlich antisemitisch bestimmt ist und dass, wo er ehrlich spricht, „seine Urteile über die Juden allen Antisemitismus an Schärfe weit hinter sich lassen.“ In den späteren Schriften steigert Nietzsche die Kritik an allen bestehenden Normen und Werten: Sowohl in der bürgerlichen Moral als auch im Sozialismus und Anarchismus sieht er Nachwirkungen der christlichen Lehren am Werk. Die ganze Moderne leide an "décadence". Dagegen sei nun eine „Umwertung aller Werte“ nötig. Wie genau allerdings die neuen Werte ausgesehen hätten, wird aus Nietzsches Werk nicht eindeutig klar. Diese Frage und ihr Zusammenhang mit den Aspekten des "Dionysischen", des "Willen zur Macht", des "Übermenschen" und der "Ewigen Wiederkunft" werden bis heute diskutiert. Die extremsten Aussagen Nietzsches zur "Energie der Größe" und zum "Anti-Humanismus" finden sich in einem Nachlass-Fragment von 1884: „…-jene ungeheure "Energie der Größe" zu gewinnen, um, durch Züchtung und andererseits durch Vernichtung von Millionen Mißratener, den zukünftigen Menschen zu gestalten und nicht zugrunde zu gehen an dem Leid, das man schafft und dessen Gleichen noch nie da war!“ „Gott ist tot“ – Der „europäische Nihilismus“. Mit dem Stichwort „Gott ist tot“ wird oft die Vorstellung verbunden, dass Nietzsche den Tod Gottes beschworen oder herbeigewünscht habe. Tatsächlich verstand sich Nietzsche eher als Beobachter. Er analysierte seine Zeit, vor allem die seiner Auffassung nach inzwischen marode gewordene (christliche) Zivilisation. Er war zudem nicht der erste, der die Frage nach dem „Tod Gottes“ stellte. Bereits der junge Hegel äußerte diesen Gedanken und sprach von dem „unendlichen Schmerz“ als einem Gefühl, „worauf die Religion der neuen Zeit beruht – das Gefühl: Gott selbst ist tot“. Dieser unfassbare Vorgang werde gerade wegen der großen Dimension lange brauchen, um in seiner Tragweite erkannt zu werden: „Ich komme zu früh, sagte er dann, ich bin noch nicht an der Zeit. Diess ungeheure Ereigniss ist noch unterwegs und wandert, – es ist noch nicht bis zu den Ohren der Menschen gedrungen.“ Und es wird gefragt: „Ist nicht die Grösse dieser That [Gott getötet zu haben] zu gross für uns? Müssen wir nicht selber zu Göttern werden, um nur ihrer würdig zu erscheinen?“ Unter anderem aus diesem Gedanken heraus erscheint später die Idee des „Übermenschen“, wie sie vor allem im "Zarathustra" dargestellt wird: „Todt sind alle Götter: nun wollen wir, dass der Übermensch lebe.“ Das Wort vom Tod Gottes findet sich auch in den Aphorismen 108 und 343 der "Fröhlichen Wissenschaft", und es taucht auch mehrmals in "Also sprach Zarathustra" auf. Danach verwendete Nietzsche es nicht mehr, befasste sich aber weiter intensiv mit dem Thema. Beachtenswert ist hier etwa das nachgelassene Fragment „Der europäische Nihilismus“ (datiert 10. Juni 1887), in dem es heißt: „,Gott‘ ist eine viel zu extreme Hypothese.“ Nietzsche kommt zu dem Schluss, dass mehrere mächtige Strömungen, vor allem das Aufkommen der Naturwissenschaften und der Geschichtswissenschaft, daran mitgewirkt haben, die christliche Weltanschauung unglaubwürdig zu machen und damit die christliche Zivilisation zu Fall zu bringen. Durch die Kritik der bestehenden Moral, wie Nietzsche selbst sie betreibt, werde die Moral hohl und unglaubwürdig und breche schließlich zusammen. Mit dieser radikalisierten Kritik steht Nietzsche einerseits in der Tradition der französischen Moralisten, wie etwa Montaigne oder La Rochefoucauld, die die Moral ihrer Zeit kritisieren, um zu einer besseren zu gelangen; andererseits betont er mehrfach, er bekämpfe nicht nur die Heuchelei von Moral, sondern die herrschenden „Moralen“ selbst – im Wesentlichen immer die christliche. In diesem Sinne bezeichnet er sich selbst als „Immoralisten“. Es besteht heute weitgehende Übereinstimmung, dass Nietzsche sich nicht als Befürworter des Nihilismus verstand, sondern ihn als Möglichkeit in der (nach)christlichen Moral, vielleicht auch als eine geschichtliche Notwendigkeit sah. Über den Atheismus Nietzsches im Sinne des Nichtglaubens an einen metaphysischen Gott sagen diese Stellen wenig aus. (Siehe hierzu den Abschnitt Kritik an Religion, Metaphysik und Erkenntnistheorie.) Kunst und Wissenschaft. Das Begriffspaar „apollinisch-dionysisch“ wurde zwar schon von Schelling verwendet, fand aber erst durch Nietzsche Eingang in die Philosophie der Kunst. Mit den Namen der griechischen Götter Apollon und Dionysos bezeichnet Nietzsche in seiner frühen Schrift "Die Geburt der Tragödie aus dem Geiste der Musik" zwei gegensätzliche Prinzipien der Ästhetik. Apollinisch ist demnach der Traum, der schöne Schein, das Helle, die Vision, die Erhabenheit; dionysisch ist der Rausch, die grausame Enthemmung, das Ausbrechen einer dunklen Urkraft. In der attischen Tragödie ist Nietzsche zufolge die Vereinigung dieser Kräfte gelungen. Das „Ur-Eine“ offenbare sich dem Dichter dabei in der Form von dionysischer Musik und werde mittels apollinischer Träume in Bilder umgesetzt. Auf der Bühne sei die Tragödie durch den Chor geboren, der dem Dionysischen Raum gibt. Als apollinisches Element komme der Dialog im Vordergrund und der tragische Held hinzu. a> habe die Wissenschaft über die Kunst gestellt und so zum Niedergang der griechischen Tragödie beigetragen. Die griechische Tragödie sei durch Euripides und den Einfluss des Sokratismus zugrunde gegangen. Hierdurch sei vor allem das Dionysische, aber auch das Apollinische aus der Tragödie getrieben worden, sie selbst sei zu einem bloß dramatisierten Epos herabgesunken. Die Kunst habe sich in den Dienst des Wissens und sokratischer Klugheit gestellt und sei zur reinen Nachahmung geworden. Erst im Musikdrama Richard Wagners sei die Vereinigung der gegensätzlichen Prinzipien wieder gelungen. In späteren Schriften rückt Nietzsche von dieser Position ab; insbesondere sieht er in den Werken Wagners jetzt keinen Neuanfang mehr, sondern ein Zeichen des Verfalls. Auch seine grundsätzlichen ästhetischen Betrachtungen variiert er: In den Schriften der „positivistischen“ Periode tritt die Kunst deutlich hinter die Wissenschaft zurück. Nunmehr ist für Nietzsche „der wissenschaftliche Mensch die Weiterentwickelung des künstlerischen“ ("Menschliches, Allzumenschliches"), ja sogar „[d]as Leben ein Mittel der Erkenntnis“ ("Die fröhliche Wissenschaft" ). In den späten Schriften entwickelt er auch den Begriff des Dionysischen weiter. Die Gottheit Dionysos dient zur Projektion mehrerer wichtiger Lehren, und "Ecce homo" schließt mit dem Ausruf: „Dionysos gegen den Gekreuzigten!“ Das Thema des Dionysos ist eine der entscheidenden Konstanten im Leben und Werk Nietzsches, von seiner "Geburt der Tragödie" bis in den Wahnsinn hinein, wo er mit "Dionysos" unterschreibt und Cosima Wagner zu seiner "Ariadene" wird. Kritik an Religion, Metaphysik und Erkenntnistheorie. Alle metaphysischen und religiösen Spekulationen seien dagegen psychologisch erklärbar; sie hätten vor allem der Legitimation bestimmter Moralen gedient. Die jeweilige Art zu denken, die Philosophien der Philosophen sind nach Nietzsche auch aus deren körperlicher und geistiger Verfassung sowie ihren individuellen Erfahrungen abzuleiten. Nietzsche wendet diese These auch in seinen Selbstanalysen an und weist wiederholt darauf hin, dass wir die Welt notwendigerweise stets perspektivisch wahrnehmen und auslegen. Schon die Notwendigkeit, sich in Sprache auszudrücken und damit Subjekte und Prädikate anzusetzen, sei eine vorurteilsbehaftete Auslegung des Geschehens ("Über Wahrheit und Lüge im außermoralischen Sinne"). Damit behandelte Nietzsche Fragen, die in Ansätzen von der modernen Sprachphilosophie wieder aufgenommen wurden. Weitere Gedanken. In den Werken Nietzsches lässt sich zeigen, dass er schon in jungen Jahren einen Zugang zu den Themen der Metaphysik, der Religion und der Moral, später auch des Ästhetischen, aus einem historisch-kritischen Blickwinkel forderte. Alle Erklärungsmuster, die auf etwas Transzendentes, Unbedingtes, Universales abzielen, sind nichts als Mythen, die in der Geschichte der Erkenntnisentwicklung jeweils auf der Grundlage des Wissens ihrer Zeit entstanden sind. Dieses aufzudecken ist Aufgabe der modernen Wissenschaft und Philosophie. In diesem Sinne verstand sich Nietzsche als Verfechter eines radikalen Aufklärungsgedankens. „[…] erst nachdem wir die historische Betrachtungsart, welche die Zeit der Aufklärung mit sich brachte, in einem so wesentlichen Puncte corrigirt haben, dürfen wir die Fahne der Aufklärung — die Fahne mit den drei Namen: Petrarca, Erasmus, Voltaire — von Neuem weiter tragen. Wir haben aus der Reaction einen Fortschritt gemacht.“ (MA I, 26, KSA 2, 47) Den Begriff der Genealogie verwendete er erstmals im Titel der "Genealogie der Moral". Die Methodik wird dort insbesondere in der zweiten Abhandlung in den Abschnitten 12 bis 14 ausgeführt. Die dahinter stehende Methode beschrieb und praktizierte er bereits in "Menschliches, Allzumenschliches" (Aphorismen 1 und 2), und bereits in der "Zweiten Unzeitgemäßen Betrachtung" reflektierte er den Wert des Historischen kritisch, zeigte dessen Grenzen, aber auch seine Unhintergehbarkeit. Genealogie bedeutet für Nietzsche nicht historische Forschung, sondern kritische Erklärung von Gegenwartsphänomenen anhand von (spekulativen) theoretischen Ableitungen aus der Geschichte. Im Mittelpunkt steht eine „Deplausibilisierung“ bisheriger Narrative in Philosophie, Theologie und den Kulturwissenschaftlichen Fragen durch historisch gestützte psychologische Thesen. Großen Einfluss hat dieses Konzept Nietzsches auf Michel Foucault. Josef Simon setzte die Methode mit der modernen Dekonstruktion gleich. Aus seiner Kritik von Metaphysik, Erkenntnistheorie, Moralphilosophie und Religion heraus entwickelte Nietzsche selbst ein pluralistisches Weltbild. Indem er die Welt und auch den Menschen als einen im ständigen Werden befindlichen Organismus auffasste, in dem eine Vielzahl von Elementen im ständigen Gegeneinander ihrer Kräfte danach ringen, sich durchzusetzen, löste er sich vom traditionellen Substanzdenken und von jeglichen kausal-mechanistischen und auch teleologischen Erklärungen. „Alle Einheit ist nur als Organisation und Zusammenspiel Einheit: nicht anders als wie ein menschliches Gemeinwesen eine Einheit ist: also Gegensatz der atomistischen Anarchie; somit ein Herrschafts-Gebilde, das Eins bedeutet, aber nicht eins ist.“ In diesem Organismus als Totalität wirken die verschiedensten Kräfte im Kampf gegeneinander; sie folgen ihrem jeweiligen Willen zur Macht (s.u.). „Leben wäre zu definiren als eine dauernde Form von Prozeß der Kraftfeststellungen, wo die verschiedenen Kämpfenden ihrerseits ungleich wachsen.“ Jeder Organismus führt seinen Kampf aus seiner eigenen Perspektive. Die subjektive Sicht, die zur Perspektive führt, bedeutet nun weder Willkür noch Relativismus. Die jeweils eingenommene Perspektive führt vielmehr dazu, dass der Mensch die Welt, wie sie ihm erscheint, zu einem Bild, zu einer Interpretation zusammenfügt. Der „Wille zur Macht“ ist "erstens" ein Konzept, das zum ersten Mal in "Also sprach Zarathustra" vorgestellt und in allen nachfolgenden Büchern zumindest am Rande erwähnt wird. Seine Anfänge liegen in den psychologischen Analysen des menschlichen Machtwillens in der "Morgenröte". Umfassender führte es Nietzsche in seinen nachgelassenen Notizbüchern ab etwa 1885 aus. "Zweitens" ist es der Titel eines von Nietzsche auch als "Umwertung aller Werte" geplanten Werks, das nie zustande kam. Aufzeichnungen dazu gingen vor allem in die Werke "Götzen-Dämmerung" und "Der Antichrist" ein. "Drittens" ist es der Titel einer Nachlasskompilation von Elisabeth Förster-Nietzsche und Peter Gast, die nach Ansicht dieser Herausgeber dem unter Punkt zwei geplanten „Hauptwerk“ entsprechen soll. Die Deutung des "Konzepts" „Wille zur Macht“ ist stark umstritten. Für Martin Heidegger war es Nietzsches Antwort auf die metaphysische Frage nach dem „Grund alles Seienden“: Laut Nietzsche sei alles „Wille zur Macht“ im Sinne eines inneren, metaphysischen Prinzips, so wie dies bei Schopenhauer der „Wille (zum Leben)“ ist. Die entgegengesetzte Meinung vertrat Wolfgang Müller-Lauter: Danach habe Nietzsche mit dem „Willen zur Macht“ keineswegs eine Metaphysik im Sinne Heideggers wiederhergestellt – Nietzsche war ja gerade Kritiker jeder Metaphysik –, sondern den Versuch unternommen, eine in sich konsistente Deutung alles Geschehens zu geben, die die nach Nietzsche irrtümlichen Annahmen sowohl metaphysischer „Sinngebungen“ als auch eines atomistisch-materialistischen Weltbildes vermeide. Um Nietzsches Konzept zu begreifen, sei es angemessener, von "den" (vielen) „Willen zur Macht“ zu sprechen, die im dauernden Widerstreit miteinander stehen, sich gegenseitig bezwingen und einverleiben, zeitweilige Organisationen (beispielsweise den menschlichen Leib), aber keinerlei „Ganzes“ bilden, denn die Welt sei ewiges Chaos. Zwischen diesen beiden Interpretationen bewegen sich die meisten anderen, wobei die heutige Nietzscheforschung derjenigen Müller-Lauters deutlich näher steht. Gerade der Begriff Macht weist jedoch bei Nietzsche (mit seiner stets auf das gesunde Individuum ausgerichteten Weltanschauung) auf neuere positive Verständnisformen voraus, wie wir sie z.B. bei Hannah Arendt finden – hier jedoch bezogen auf den Menschen in der Gesellschaft: die grundsätzliche Möglichkeit aus sich heraus gestaltend „etwas zu machen“. Nietzsches zuerst in "Die fröhliche Wissenschaft" auftretender und in "Also sprach Zarathustra" als Höhepunkt vorgeführter „tiefster Gedanke“, der ihm auf einer Wanderung im Engadin nahe Sils-Maria kam, ist die Vorstellung, dass alles Geschehende schon unendlich oft geschah und unendlich oft wiederkehren wird. Man solle deshalb so leben, dass man die immerwährende Wiederholung eines jeden Augenblickes nicht nur ertrage, sondern sogar begrüße. „Doch alle Lust will Ewigkeit – will tiefe, tiefe Ewigkeit“ lautet folglich ein zentraler Satz in "Also sprach Zarathustra". Eng mit der „Ewigen Wiederkunft“, für die Nietzsche trotz seiner nur sehr oberflächlichen naturwissenschaftlichen Bildung auch wissenschaftliche Begründungen zu geben versuchte, hängt wohl der "Amor fati" (lat. „Liebe zum Schicksal“) zusammen. Dies ist für Nietzsche eine Formel zur Bezeichnung des höchsten Zustands, den ein Philosoph erreichen kann, die Form der höchstgesteigerten Lebensbejahung. Über die „ewige Wiederkunft“, ihre Bedeutung und Stellung in Nietzsches Gedanken herrscht keine Einigkeit. Während einige Deuter sie als Zentrum seines gesamten Denkens ausmachten, sahen andere sie bloß als fixe Idee und störenden „Fremdkörper“ in Nietzsches Lehren. An einen Fortschritt in der Geschichte der Menschheit – oder in der Welt überhaupt – glaubt Nietzsche nicht. Für ihn ist folglich das Ziel der Menschheit nicht an ihrem (zeitlichen) Ende zu finden, sondern in ihren immer wieder auftretenden höchsten Individuen, den "Über"menschen. Die Gattung Mensch als Ganzes sieht er nur als einen Versuch, eine Art Grundmasse, aus der heraus er „Schaffende“ fordert, die „hart“ und mitleidlos mit anderen und vor allem mit sich selbst sind, um aus der Menschheit und sich selbst ein wertvolles Kunstwerk zu schaffen. Als negatives Gegenstück zum Übermenschen wird in "Also sprach Zarathustra" der "letzte Mensch" vorgestellt. Dieser steht für das schwächliche Bestreben nach Angleichung der Menschen untereinander, nach einem möglichst risikolosen, langen und „glücklichen“ Leben ohne Härten und Konflikte. Das Präfix „Über“ in der Wortschöpfung „Übermensch“ kann nicht nur für eine höhere Stufe relativ zu einer anderen stehen, sondern auch im Sinne von „hinüber“ verstanden werden, kann also eine Bewegung ausdrücken. Der Übermensch ist daher nicht unbedingt als Herrenmensch über dem letzten Menschen zu sehen. Eine rein politische Deutung gilt der heutigen Nietzscheforschung als irreführend. Der „Wille zur Macht“, der sich im Übermenschen konkretisieren soll, ist demnach nicht etwa der Wille zur Herrschaft über andere, sondern ist als Wille zum Können, zur Selbstbereicherung, zur Selbstüberwindung zu verstehen. Einflüsse. Aus seiner Jugend im Pfarrhaus und im kleinbürgerlich-frommen „Frauenhaushalt“ ergaben sich Nietzsches erste praktische Erfahrungen mit dem Christentum. Schon sehr bald entwickelte er hier einen kritischen Standpunkt und las Schriften von Ludwig Feuerbach und David Friedrich Strauß. Wann genau diese Entfremdung von der Familie begann und welchen Einfluss sie auf Nietzsches weiteren Denk- und Lebensweg hatte, ist Gegenstand einer andauernden Debatte in der Nietzsche-Forschung. Auch der frühe Tod des Vaters dürfte Nietzsche beeinflusst haben, jedenfalls wies er selbst oft auf dessen Bedeutung für ihn hin. Dabei ist zu beachten, dass er ihn selbst kaum kannte, sondern sich aus Familienerzählungen ein wohl idealisiertes Bild des Vaters machte. Als freundlicher und beliebter, aber körperlich schwacher und kranker Landpfarrer taucht er in Nietzsches Selbstanalysen immer wieder auf. Schon in seiner Jugend war Nietzsche von den Schriften Ralph Waldo Emersons und Lord Byrons beeindruckt, den seinerzeit tabuisierten Hölderlin erkor er zu seinem Lieblingsdichter. Auch Machiavellis Werk "Der Fürst" las er bereits privat in der Schulzeit. Wie stark der Einfluss des Dichters Ernst Ortlepp oder die Ideen Max Stirners beziehungsweise des ganzen Junghegelianismus' auf Nietzsche waren, ist umstritten. Der Einfluss Ortlepps ist vor allem von Hermann Josef Schmidt hervorgehoben worden. Über den Einfluss Stirners auf Nietzsche wird bereits seit den 1890ern debattiert. Einige Interpreten sahen hier höchstens eine flüchtige Kenntnisnahme, andere dagegen, allen voran Eduard von Hartmann, erhoben einen Plagiatsvorwurf. Bernd A. Laska vertritt die Außenseiter-These, Nietzsche habe infolge der Begegnung mit dem Werk Stirners, das ihm vom Junghegelianer Eduard Mushacke vermittelt worden sei, eine „initiale Krise“ durchgemacht, die ihn zu Schopenhauer führte. Im Philologiestudium bei Ritschl lernte Nietzsche neben den klassischen Werken selbst vor allem philologisch-wissenschaftliche Methoden kennen. Dies dürfte einerseits die Methodik seiner Schriften beeinflusst haben, was insbesondere in der "Genealogie der Moral" deutlich wird, andererseits aber auch sein Bild von der strengen Wissenschaft als mühselige Arbeit für mittelmäßige Geister. Seine eher negative Haltung zum Wissenschaftsbetrieb an den Universitäten beruhte zweifellos auf eigenen Erfahrungen sowohl als Student als auch als Professor. An der Universität versuchte Nietzsche den von ihm geschätzten Jacob Burckhardt zu Gesprächen zu gewinnen, las auch einige von dessen Büchern und hörte sich sogar Vorlesungen des Kollegen an. Mit dem Freund Franz Overbeck hatte er in der Basler Zeit einen regen Gedankenaustausch, auch später half ihm Overbeck in theologischen und kirchengeschichtlichen Fragen weiter. Werke bekannter Schriftsteller wie Stendhal, Tolstoi und Dostojewski machte Nietzsche sich für sein eigenes Denken ebenso zunutze wie solche heute eher unbekannter Autoren wie William Edward Hartpole Lecky oder Fachgelehrter wie Julius Wellhausen. Zu seinen Ansichten über die moderne "décadence" las und bewertete er etwa George Sand, Gustave Flaubert und die Brüder Goncourt. Schließlich lässt sich Nietzsches Interesse an Wissenschaften von der Physik (besonders Roger Joseph Boscovichs System) bis zur Nationalökonomie belegen. Auf die besondere Bedeutung der kritischen Auseinandersetzung mit dem Buch "Der Ursprung der moralischen Empfindungen" (1877) von Paul Rée verwies Nietzsche in der Vorrede zur "Genealogie der Moral" Für sein Wissen über die Physiologie, auch in der kritischen Auseinandersetzung mit dem Darwinismus, stützte sich Nietzsche stark auf das Werk "Der Kampf der Theile im Organismus. Ein Beitrag zur Vervollständigung der mechanischen Zweckmäßigkeitslehre" des Anatomen Wilhelm Roux. Er meinte auch, durch seine Krankheiten ein besseres Wissen über Medizin, Physiologie und Diätetik erlangt zu haben als manche seiner Ärzte. Wagner und Schopenhauer. Ab Mitte der 1860er übten die Werke Arthur Schopenhauers großen Einfluss auf Nietzsche aus; dabei bewunderte Nietzsche aber schon zu Beginn weniger den Kern der Schopenhauerschen Lehre als die Person und den „Typus“ Schopenhauer, das heißt in seiner Vorstellung den wahrheitssuchenden und „unzeitgemäßen“ Philosophen. Eine weitere wesentliche Inspiration war dann die Person und die Musik Richard Wagners. Die Schriften "Richard Wagner in Bayreuth" (Vierte "Unzeitgemäße Betrachtung") und vor allem die "Geburt der Tragödie" feiern dessen Musikdrama als Überwindung des Nihilismus ebenso wie eines platten Rationalismus. Diese Verehrung schlug spätestens 1879 nach Wagners vermeintlicher Hinwendung zum Christentum (in "Parsifal") in Feindschaft um. Nietzsche rechtfertigte seinen radikalen Sinneswandel später in "Der Fall Wagner" und in "Nietzsche contra Wagner". Dass Nietzsche sich auch lange nach Wagners Tod 1883 beinahe zwanghaft mit dem einstigen „Meister“ beschäftigte, hat einige Aufmerksamkeit gefunden: Über das komplizierte Verhältnis zwischen Nietzsche und Wagner (sowie Wagners Frau Cosima) gibt es viele Untersuchungen mit teilweise unterschiedlichen Ergebnissen. Neben den von Nietzsche genannten weltanschaulichen und kunstphilosophischen Differenzen haben sicherlich auch persönliche Gründe eine Rolle bei Nietzsches „Abfall“ von Wagner gespielt. Nietzsches Rezeption anderer Philosophien. Sein Wissen über Philosophie und Philosophiegeschichte hat Nietzsche sich nicht systematisch aus den Quellen angeeignet. Er hat es vornehmlich aus Sekundärliteratur entnommen: vor allem aus Friedrich Albert Langes "Geschichte des Materialismus" sowie Kuno Fischers "Geschichte der neuern Philosophie" zu späteren Autoren. Platon und Aristoteles waren ihm aus der Philologie bekannt und auch Gegenstand einiger seiner philologischen Vorlesungen, aber besonders Letzteren kannte er nur lückenhaft. Mit den Vorsokratikern befasste er sich zu Anfang der 1870er Jahre intensiv, vor allem auf Heraklit kam er noch später zurück. Für die "Ethik" Spinozas, die Nietzsche zeitweise anregte, war ihm Fischers Werk die Hauptquelle. Kant lernte er ebenfalls durch Fischer (und Schopenhauer, s. oben) kennen; im Original las er vermutlich nur die "Kritik der Urteilskraft". Zum deutschen Idealismus um Hegel übernahm er für einige Zeit die scharfe Kritik Schopenhauers. Später ignorierte er die Richtung. Bedenkenswert ist, dass sich bei Nietzsche zu den Junghegelianern (Feuerbach, Bauer und Stirner) keine nennenswerten Äußerungen finden, obwohl er sie als Denker einer „geistesregen Zeit“ ansah, auch keine zu Karl Marx, obwohl er sich verschiedentlich über den politischen Sozialismus äußerte. Weitere von Nietzsche rezipierte Quellen waren die französischen Moralisten wie La Rochefoucauld, Montaigne, Vauvenargues, Chamfort, Voltaire und Stendhal. Die Lektüre Blaise Pascals vermittelte ihm einige neue Einsichten zum Christentum. Hin und wieder setzte sich Nietzsche polemisch mit den seinerzeit populären Philosophen Eugen Dühring, Eduard von Hartmann und Herbert Spencer auseinander. Vor allem von Letzterem und den deutschen Vertretern der Evolutionstheorie um Ernst Haeckel bezog er sein Wissen um die Lehren Charles Darwins. Die intensive Quellenforschung der letzten Jahrzehnte hat zahlreiche Bezüge in Nietzsches Werken ermittelt, unter anderem zu den beiden heute weniger bekannten Denkern African Spir und Gustav Gerber, deren Sprach- und Erkenntnistheorie überraschende Ähnlichkeiten mit der Nietzsches aufweisen. Vereinzelt ist in der Nietzsche-Forschung darauf hingewiesen worden, dass Nietzsches Kritik an anderen Philosophien und Lehren auf Missverständnissen beruhe, eben weil er sie nur durch entstellende Sekundärliteratur kannte. Dies betreffe insbesondere Nietzsches Aussagen zu Kant und der Evolutionslehre. Aber auch dieses Thema ist umstritten. Werke und Ausgaben. Eingeklammerte Jahreszahlen geben das Jahr der Entstehung, mit Kommata abgetrennte das Jahr der Erstveröffentlichung an. Musik. Seit seiner Jugend musizierte Nietzsche und komponierte zahlreiche kleinere Stücke. Mehr zu Nietzsches Musik und weitere Hörbeispiele und. Werkkommentare. Heidelberger Akademie der Wissenschaften (Hrsg.): "Historischer und kritischer Kommentar zu Friedrich Nietzsches Werken". Berlin / Boston: Walter de Gruyter 2012 ff. Varia. MDR Figaro sendete am 30. Mai 2015 ein fast einstündiges Feature von Katrin Schumacher mit dem Titel "„Musikalische Stille - Von einem Philosophen, einem Hotel und der Musik am Ende der Welt“", das auch Nietzsche und seine Zeit im Schweizer Hotel Waldhaus zum Thema hatte. Zum 100. Todesjahr Nietzsches gab die Deutsche Post im Jahr 2000 ein Sonderpostwertzeichen mit seinem Porträt zum Nennwert 110 Pfennige heraus (Michel-Nr. 2131). Frankreich. Frankreich (amtlich Französische Republik, französisch "République française", Kurzform) ist ein demokratischer, zentralistischer Einheitsstaat in Westeuropa mit Überseeinseln und -gebieten auf mehreren Kontinenten. "Metropolitan-Frankreich", d. h. der europäische Teil des Staatsgebietes, erstreckt sich vom Mittelmeer bis zum Ärmelkanal und zur Nordsee sowie vom Rhein bis zum Atlantischen Ozean. Sein Festland wird wegen seiner Landesform als "Hexagon" (Sechseck) bezeichnet. Frankreich ist flächenmäßig das größte Land der Europäischen Union und verfügt über das drittgrößte Staatsgebiet in Europa (hinter Russland und der Ukraine). Im 17. und in Teilen des 18. Jahrhunderts hatte der Staat eine europäische Führungsrolle und Vormachtstellung inne. In dieser Zeit beherrschte Frankreich einen Großteil Nordamerikas und bildete während des 19. und frühen 20. Jahrhunderts das zweitgrößte Kolonialreich der Geschichte, zu dem Gebiete Nordamerikas, Zentral- und Westafrikas, Südostasiens und viele Inseln im Pazifik und in der Karibik gehörten. Die wichtigsten nationalen Leitideen werden in der Erklärung der Menschen- und Bürgerrechte zum Ausdruck gebracht. Die Französische Republik wird in ihrer Verfassung als unteilbar, laizistisch, demokratisch und sozial erklärt. Ihr Grundsatz lautet: „Regierung des Volkes durch das Volk und für das Volk“. Frankreich ist eines der höchstentwickelten Länder der Erde. Gemessen am nominalen Bruttoinlandsprodukt verfügt es über die fünftgrößte Volkswirtschaft der Welt und die dritthöchste Kaufkraftparität Europas. Das Land genießt einen hohen Lebensstandard sowie Bildungsgrad und besitzt eine der höchsten Lebenserwartungen auf der Erde. Das Gesundheitssystem Frankreichs wurde von der Weltgesundheitsorganisation im Jahr 2000 als das beste weltweit eingestuft. Als meistbesuchtes Land der Welt empfängt Frankreich rund 83 Millionen ausländische Touristen pro Jahr. Frankreich unterhält die drittstärksten Streitkräfte innerhalb der NATO und die größte Armee der Europäischen Union. Es ist eines der fünf ständigen Mitglieder des UN-Sicherheitsrates und hat als Atommacht die weltweit dritthöchste Anzahl an Kernwaffen. Das Land ist Gründungsmitglied der Europäischen Union und der Vereinten Nationen, Mitglied der Frankophonie, der G7, G20, NATO, Organisation für wirtschaftliche Zusammenarbeit und Entwicklung (OECD), Welthandelsorganisation (WTO) und der Lateinischen Union. Allgemeines. Insgesamt hat das „französische Mutterland“ in Europa (auch Metropolitan-Frankreich genannt), das wegen seiner Form als "Hexagone" (Sechseck) bezeichnet wird, eine Fläche von 543.965 Quadratkilometern. Als eines der größten Länder Europas weist Frankreich zahlreiche, zum Teil sehr unterschiedlich geprägte Landschaftsformen auf. Das Landschaftsbild wird überwiegend von Ebenen oder sanften Hügeln geprägt. Im Südosten und an der Grenze zur iberischen Halbinsel ist das Land gebirgig. Hauptgebirge sind die Pyrenäen im Südwesten, das Zentralmassiv im Zentrum der Südhälfte des Landes sowie im Osten (aufgezählt von Norden nach Süden) die Vogesen, der Jura und die Alpen. Der höchste Berg Frankreichs ist der 4810 Meter hohe Mont Blanc in den Alpen; er ist auch der höchste Gipfel in ganz West- und Mitteleuropa. Frankreich hat Meeresküsten im Süden zum Mittelmeer, im Westen und im Norden zum Atlantik, zum Ärmelkanal und zur Nordsee. Es grenzt im Südwesten an Spanien und Andorra, im Norden und im Osten an Belgien, Luxemburg, Deutschland, die Schweiz (→ Grenze zwischen Frankreich und der Schweiz) und Italien sowie im Südosten an Monaco. Regionen. Frankreich ist in insgesamt 27 Regionen unterteilt, davon befinden sich 22 in Europa und fünf sind französische Überseegebiete "()" – Französisch-Guayana, Guadeloupe, Martinique, Mayotte und Réunion. Städte. Der mit Abstand wichtigste und größte Ballungsraum ist die Hauptstadt Paris mit über zehn Millionen Einwohnern in der Agglomeration (Region Île-de-France). Die Großräume um Lyon, Marseille, Toulouse und Lille haben ebenfalls deutlich mehr als eine Million Einwohner. Bevölkerungsentwicklung. Die Bevölkerung Frankreichs wurde für 1750 auf etwa 25 Millionen geschätzt. Damit war es mit Abstand das bevölkerungsreichste Land Westeuropas. Bis 1850 stieg die Einwohnerzahl weiter bis auf 37 Millionen, danach trat eine im seinerzeitigen Europa einzigartige Stagnation des Wachstums ein. Als Ursache hierfür werden der relative Wohlstand und die fortgeschrittene Zivilisation Frankreichs angesehen. Empfängnisverhütendes Sexualverhalten wurde praktiziert und war weiter verbreitet als in anderen Ländern, zugleich war der Einfluss der katholischen Kirche bereits geschwächt. So wuchs die Einwohnerzahl in knapp 100 Jahren nur um drei Millionen: 1940 zählte Frankreich, trotz starker Zuwanderung nach 1918, nur etwa 40 Millionen Einwohner. Diese Bevölkerungsstagnation wird als eine der Ursachen dafür angesehen, dass sich Frankreich während der beiden Weltkriege gegen den dynamischeren Nachbarn Deutschland nur mit großer Mühe behaupten konnte. Noch dazu hatte Frankreichs Armee bereits in 18 die relativ höchsten Verluste aller kriegführenden Nationen erlitten. Nach dem Zweiten Weltkrieg war dann nach langer Zeit wieder ein Geburtenzuwachs und Bevölkerungsanstieg zu verzeichnen, der zum Teil auch verursacht war durch verstärkte Zuwanderung vor allem aus dem Bereich der früheren französischen Kolonien. Für das Jahr 1990 wurden 56,6 Millionen Einwohner ermittelt, für den 1. Januar 2010 wurde die Bevölkerung einschließlich der Menschen in den Überseegebieten auf 64,7 Millionen geschätzt. Davon entfielen 62,8 Millionen auf Metropolitan-Frankreich. Am 18. Januar 2011 gab das nationale statistische Amt (INSEE) bekannt, dass zum 1. Januar 2011 insgesamt 65.027.000 Menschen in Frankreich lebten. Damit hätte das Land erstmals die 65-Millionen-Marke überschritten. Die Zuverlässigkeit der Erhebung ist allerdings umstritten: 2004 stellte das INSEE die Methode von einer Totalzählung im Fünf-Jahres-Rhythmus auf permanente Erhebung anhand von Hochrechnung lokaler Daten um. Danach ergaben sich unerklärliche Sprünge in der Bevölkerungsentwicklung. Städte, deren Bevölkerung zuvor kontinuierlich abgenommen hatte, insbesondere Paris, nahmen plötzlich sprunghaft zu. Bei anderen Städten, beispielsweise Nizza und Nîmes, verhielt es sich umgekehrt. Auch in Bezug auf die aktuellen Gesamtzahlen ist das Bild uneinheitlich. Das INSEE selbst wies Ende Juli 2012 auf zwei seiner Internetseiten zum einen 65,35 Millionen, zum anderen 64,304 Millionen aus. Gérard-François Dumont, Professor an der Sorbonne und Herausgeber der Zeitschrift "Population et avenir", führt das unter anderem darauf zurück, dass aufgrund von Umzügen manche Personen der Erhebung entgehen, während andere doppelt gezählt werden. Nach Deutschland nimmt Frankreich in der Europäischen Union den zweiten Platz bei der Bevölkerungszahl ein; weltweit liegt es auf Platz 20. Innerhalb der EU hat Frankreich einen Bevölkerungsanteil von 13 Prozent. Die Bevölkerung wuchs im Jahr 2009 um 346.000 Personen oder 0,5 Prozent. Das Wachstum verlangsamte sich leicht gegenüber den Vorjahren (2006: 0,6 Prozent, 2007 und 2008: 0,6 Prozent). Die Geburtenbilanz des Jahres 2009 war positiv: Es wurden 275.000 Menschen mehr geboren, als starben. Die Wanderungsbilanz ist ebenfalls positiv: Es wanderten 71.000 Menschen mehr zu als aus. Die französische Bevölkerung wird im Durchschnitt älter: Der Anteil der unter 20-Jährigen ist zwischen 2000 und 2010 von 25,8 Prozent auf 24,7 Prozent gesunken, gleichzeitig nahm der Anteil der Menschen über 65 von 15,8 Prozent auf 16,6 Prozent zu. 2009 wurden 256.000 Ehen geschlossen, nachdem es zehn Jahre zuvor noch mehr als 294.000 gewesen waren. Dafür wählten mehr Franzosen den Zivilen Solidaritätspakt als Form des Zusammenlebens. Diese "Pacs" genannte Partnerschaft wurde 1999 eingeführt; 2009 wurden 175.000 Pacs geschlossen. Das Durchschnittsalter der ersten Ehe lag 2008 für Männer bei 31,6 Jahren und für Frauen bei 29,7 Jahren. Es stieg seit 1999 um fast zwei Jahre. Die Fruchtbarkeitsrate in Frankreich liegt mit 2,0 Kindern pro Frau (2008) europaweit an dritter Stelle nach Irland und Island; sie ist jedoch von drei Kindern pro Frau in den 1960er Jahren gesunken. Die Kindersterblichkeit 2009 betrug 3,8 Promille nach 4,4 Promille im Jahr 1999. Die Lebenserwartung, die um 1750 bei knapp 30 Jahren gelegen war, betrug 1987 72 Jahre für Männer und 80 Jahre für Frauen. Bis 2008 stieg sie auf 84 Jahre für Frauen und 78 Jahre für Männer. Migration. Aufgrund des langsamen Bevölkerungswachstums kannte Frankreich bereits in der Mitte des 19. Jahrhunderts das Problem des Arbeitskräftemangels. Seit Beginn der Industrialisierung kamen deshalb Gastarbeiter aus den Nachbarländern (Italiener, Polen, Deutsche, Spanier, Belgier) nach Frankreich, etwa in den Großraum Paris oder in die Bergbaureviere und Montangebiete von Nord-Pas-de-Calais und Lothringen. Ab 1880 lebten und arbeiteten somit etwa eine Million Ausländer in Frankreich; sie stellten sieben bis acht Prozent der Erwerbstätigen. Das Phänomen einer Massenauswanderung, das gleichzeitig in Deutschland herrschte, kannte Frankreich nicht. Während des Ersten Weltkrieges waren etwa drei Prozent der Bevölkerung Frankreichs Ausländer, es kam zu ersten ausländerfeindlichen Tendenzen, bis 1931 wuchs der Ausländeranteil auf 6,6 Prozent. Danach wurde die Einwanderung stark eingeschränkt, Flüchtlinge etwa aus dem Spanischen Bürgerkrieg ausgewiesen oder interniert. Nach dem Zweiten Weltkrieg warb Frankreich wiederum Gastarbeiter vor allem aus Spanien und Portugal an und behielt bis 1974 eine sehr liberale Einwanderungspolitik bei. Europäer, vor allem Italiener und Polen, hatten 1931 mehr als 90 Prozent der ausländischen Bevölkerung ausgemacht, in den 1970er Jahren lag dieser Anteil nur noch bei etwa 60 Prozent, den stärksten Anteil stellten nun die Portugiesen. Der Anteil der ausländischen Wohnbevölkerung 2006 betrug 5,8 Prozent, dazu kommen 4,3 Prozent "Français par acquisition", also Menschen, die im Ausland geboren sind und die französische Staatsbürgerschaft angenommen haben. Im Jahr 2008 lebten 5,23 Millionen Einwanderer in Frankreich, was 8,4 % der Gesamtbevölkerung ausmachte. Davon hatten 2,72 Millionen die französische Staatsbürgerschaft angenommen. Nachkommen von Einwanderern, bei denen mindestens ein Elternteil mit ausländischer Staatsangehörigkeit im Ausland geboren wurde, wurden im Jahr 2010 auf etwa 10,4 % der Gesamtbevölkerung geschätzt. Heute sind die meisten Einwanderer in Frankreich nordafrikanischen Ursprungs (Algerier, Marokkaner, Tunesier), gefolgt von Südeuropäern (Portugiesen, Italiener, Spanier). In den letzten Jahren kommt ein Großteil der Einwanderer aus den ehemaligen französischen Kolonien in Subsahara-Afrika und in der Karibik. Die höchste Konzentration von Einwanderern findet sich im Südosten Frankreichs sowie im Großraum Paris. Bildungswesen. Die Verfassung der Fünften Französischen Republik definiert, dass der Zugang zu Bildung, Ausbildung und Kultur für alle Bürger gleich zu sein hat und dass das Unterhalten eines unentgeltlichen und laizistischen öffentlichen Schulwesens Aufgabe des Staates ist. Demnach ist das Bildungssystem Frankreichs zentralistisch organisiert, die verschiedenen Gebietskörperschaften müssen jedoch die Infrastruktur bereitstellen. Es koexistieren private und öffentliche Einrichtungen, wobei die größtenteils katholischen Privatschulen in der Vergangenheit mehrmals Gegenstand intensiver politischer Auseinandersetzung waren. Im Gegensatz zu den Schulsystemen der deutschsprachigen Länder liegt in Frankreich mehr Schwerpunkt auf Auslese und Bildung von Eliten, bzw. Ausbildung über Bildung. Seit 1967 herrscht Unterrichtspflicht bis zum 16. Lebensjahr; allerdings besteht die Möglichkeit des Hausunterrichts. Der Kindergarten heißt in Frankreich "École maternelle" und bietet Vorschulerziehung für Kinder ab zwei Jahren an. Er wird von einem hohen Prozentsatz der Kinder besucht. Der Besuch ist ganztägig und gebührenfrei, nur optionale Zusatzangebote für Betreuung zu Randzeiten sowie die mittägliche Verpflegung müssen von den Eltern bezahlt werden. Die "École maternelle" wird in Frankreich sehr viel stärker als Schule betrachtet, als dies bei den Kindergärten in deutschsprachigen und anderen Ländern der Fall ist. So haben die Betreuer in den "Maternelles" eine Lehrerausbildung und sind von der staatlichen Schulbehörde "Éducation nationale" angestellt, die auch die Lehrpläne festlegt. Die auf die "Maternelle" folgende, der deutschen Grundschule entsprechende "École élémentaire" dauert fünf Jahre. Nach ihrem Abschluss besuchen die Kinder das "Collège", eine vier Jahre dauernde Gesamtschule, die die Schüler mit dem "Brevet des collèges" abschließen. Hiernach hat der Jugendliche mehrere Möglichkeiten. Er kann in eine berufsbildende Schule eintreten, die er mit dem "Certificat d’aptitude professionelle" abschließt; ein duales Ausbildungssystem wie in Deutschland ist sehr wenig verbreitet. Das "Lycée" entspricht in etwa dem Gymnasium. Es führt nach zwölf Schuljahren zum "Baccalauréat". Mehrere Schulzweige wie naturwissenschaftlich, wirtschaftlich oder literarisch werden unterschieden. Wer ein "Lycée professionnel" oder ein "Centre de formation d’apprentis" besucht, kann dies nach 13 Schuljahren mit einem "Baccalauréat professionnel" abschließen. Im Fremdsprachenunterricht wird eher Englisch und Spanisch gelehrt als Deutsch, das als „Intello-Idiom“ gilt. Die akademische Bildung wird von der Koexistenz der "Grandes écoles" und der Universitäten geprägt. Die Grandes écoles haben gegenüber den Universitäten Frankreichs eine höhere Reputation, haben niedrige Studentenzahlen und hohe persönliche Betreuung. Man kann sie meist erst nach dem Besuch der "Classe préparatoire" besuchen, die in der Regel von "Lycées" angeboten wird. Zu den bedeutenderen der "Grandes écoles" gehören die École polytechnique, die École normale supérieure, die École nationale d’administration und die École Centrale Paris. Im Zuge der europaweiten Harmonisierung der Studienabschlüsse im Rahmen des Bologna-Prozess wird auch an französischen Hochschulen das "LMD-System" eingeführt. LMD bedeutet, dass nacheinander die "Licence" bzw. "Bachelor" (nach drei Jahren), der "Master" (nach fünf Jahren) und das Doktorat (nach acht Jahren) erworben werden können. Die traditionellen nationalen Diplome (DEUG, "Licence", "Maîtrise," DEA und DESS) sollen im Rahmen dieses Prozesses entfallen. Ende 2009 studierten rund 2,25 Millionen Studentinnen und Studenten an französischen Hochschulen. Sprachen. Die französische Sprache entwickelte sich aus dem "francien", das im Mittelalter in der heutigen Region Île-de-France gesprochen wurde. Es verbreitete sich in dem Maße, wie die französischen Könige ihr Herrschaftsgebiet ausdehnten. Bereits 1539 bestimmte König Franz I., dass die französische Sprache die einzige Sprache seines Königreiches sein solle. Trotzdem sprach im 18. Jahrhundert nur etwa die Hälfte der Untertanen der französischen Könige Französisch. Nach der Revolution wurden die Regionalsprachen aktiv bekämpft; erst im Jahre 1951 erlaubte die Loi Deixonne Unterricht in Regionalsprachen. Auch heute legt Artikel 2 der Verfassung von 1958 fest, dass die französische Sprache die alleinige Amtssprache Frankreichs ist. Sie ist nicht nur die in Frankreich allgemein gesprochene Sprache, sie ist auch Trägerin der französischen Kultur in der Welt. Die in Frankreich gesprochenen Regionalsprachen drohen aufgrund interner Wanderungen und der fast ausschließlichen Verwendung der französischen Sprache in den elektronischen Medien auszusterben. Die Europäische Charta der Regional- oder Minderheitensprachen hat Frankreich zwar unterschrieben, jedoch nicht ratifiziert. Unter anderem urteilte der französische Verfassungsrat im Jahr 1999, dass Teile der Charta mit der französischen Verfassung unvereinbar seien. Seit 2008 erwähnt die Verfassung in Artikel 75-1 die Regionalsprachen als Kulturerbe Frankreichs. Regionalsprachen, die in Frankreich gesprochen werden, sind die romanischen Oïl-Sprachen in Nordfrankreich, die teilweise als französische Dialekte angesehen werden, wie Picardisch, Normannisch, Gallo, Poitevin-Saintongeais, Wallonisch und Champenois, das Franko-Provenzalische im französischen und (west-)schweizerischen Alpen- und Juraraum, Okzitanisch in Südfrankreich, Katalanisch im Département Pyrénées-Orientales, Elsässisch und Lothringisch im Nordosten Frankreichs, Baskisch und seine Dialekte im äußersten Südwesten, Bretonisch im Nordwesten, Korsisch auf Korsika und Flämisch im Norden des Landes. Weiterhin werden in den Überseebesitzungen verschiedenste Sprachen wie Kreolsprachen, Polynesische Sprachen oder Kanak-Sprachen in Neukaledonien gesprochen. Anders als z.B. in Italien gibt es in Frankreich keine regionalen Amtssprachen. Auch bei den Ortsnamen und Flurnamen spiegeln sich regionale Einflüsse nur bedingt wieder. So sind deutschsprachige Bezeichnungen im Elsass noch sehr weit verbreitet, nicht jedoch in Lothringen. Analog dazu blieben auf Korsika die italienischen Namen auch nach der Angliederung an Frankreich weitestgehend bestehen, dies ist bei den Gebieten auf dem Festland (Savoyen, Grafschaft Nizza bzw. Alpes-Maritimes), welche früher mit Italien assoziiert waren, dagegen nicht der Fall. Der Ortsname Nizza kommt zwar aus dem italienischen, vor Ort ist jedoch nur die französische Bezeichnung "Nice" die offiziell gebräuchliche. Im äußersten Norden Frankreichs, in den Grenzgebieten zu Flandern, gibt es einige niederländische Ortsnamen, wogegen in den Grenzgebieten zu Spanien baskische und katalanische Einflüsse zu erkennen sind. Französisch ist Arbeitssprache bei den Vereinten Nationen, der Organisation für Sicherheit und Zusammenarbeit in Europa, der Europäischen Kommission und der Afrikanischen Union. Um die französische Sprache vor der Vereinnahmung durch Anglizismen zu schützen, wurde 1994 die "Loi Toubon" verabschiedet. Mit dem Durchführungsdekret von 1996 wurde ein Mechanismus zur Einführung neuer Wörter festgelegt, der von der "Délégation générale à la langue française et aux langues de France" und der "Commission générale de terminologie et de néologie" gesteuert wird. Dieses Dekret verpflichtet die Behörden, die im Amtsblatt und im Wörterbuch "FranceTerme" veröffentlichten Neuschöpfungen zu gebrauchen. Die Einwanderer verschiedener Nationen, vor allem aus Portugal, Osteuropa, dem Maghreb und dem restlichen Afrika, haben ihre Sprachen mitgebracht. Im Unterschied zu den traditionellen Sprachen konzentrieren sich diese Sprechergemeinden besonders in den großen Städten, sind aber keinem bestimmten geographischen Gebiet zuzuordnen. Religionen. Frankreich ist offiziell ein laizistischer Staat, das heißt, Staat und Religionsgemeinschaften sind vollkommen voneinander getrennt. Da von staatlicher Seite keine Daten über die Religionszugehörigkeit der Einwohner erhoben werden, beruhen alle Angaben über die konfessionelle Zusammensetzung der Bevölkerung auf Schätzungen oder den Angaben der Religionsgemeinschaften selbst und weichen deshalb oft erheblich voneinander ab, weshalb auch die folgenden Zahlen mit Vorsicht zu behandeln sind. In einer Umfrage von "Le Monde des religions" bezeichneten sich 51 Prozent der Franzosen als katholisch, 31 Prozent erklärten, keiner Religion anzugehören, und etwa 9 Prozent gaben an, Muslime zu sein. Drei Prozent bezeichneten sich als Protestanten. Fast alle protestantischen Kirchen in Frankreich, von denen die Vereinigte Protestantische Kirche Frankreichs die mitgliederstärkste ist, arbeiten im Französischen Evangelischen Kirchenbund zusammen. Ein Prozent bezeichneten sich als Juden. Dies entspricht auf die Bevölkerungszahl hochgerechnet 32 Millionen Katholiken, 5,7 Millionen Muslimen, 1,9 Millionen Protestanten und 600.000 Juden sowie 20 Millionen Nichtreligiösen. Sechs Prozent machten andere oder keine Angaben. Unter den Katholiken ist laut Umfragen nur ein geringer Teil tatsächlich gläubig und praktizierend, allerdings sind umgekehrt auch Strömungen des katholischen Traditionalismus in Frankreich stark vertreten. Außerdem leben in Frankreich, bedingt durch Zuwanderung aus Osteuropa und dem Nahen Osten, etwa 1 Million Orthodoxe und orientalische Christen, etwa 600.000 Buddhisten sowie eine größere Zahl an Hindus. Gemäß aktuellen Umfragen glauben 58 Prozent der Franzosen an einen Gott (andere Umfragen beziffern diesen Anteil noch weitaus niedriger); der Anteil der jungen Menschen, die an ein Leben nach dem Tod glauben, ist aber seit 1981 von 31 Prozent auf 42 Prozent gestiegen. Nach einer Studie des "PewResearch Center" bezeichnet sich nur eine Minderheit von 27 Prozent der Franzosen als „religiös“ und 10 Prozent als „sehr religiös“. Beides sind im weltweiten Vergleich sehr niedrige Werte. Historisch war Frankreich lange Zeit ein katholisch dominierter Staat. Seit Ludwig XI. († 1483) trugen die französischen Könige mit Einverständnis des Papstes den Titel eines "roi très chrétien" (allerchristlichsten Königs). In der Reformationszeit blieb Frankreich immer mehrheitlich katholisch, auch wenn es starke protestantische Minderheiten (Hugenotten) gab. Diese mussten aber spätestens nach der Bartholomäusnacht 1572 die Hoffnung auf ein protestantisches Frankreich aufgeben. Als der Protestant Heinrich von Navarra Thronerbe Frankreichs wurde, trat er aus politisch-taktischen Gründen zum katholischen Glauben über („Paris vaut bien une messe“, zu Deutsch „Paris ist eine Messe wert“), garantierte aber gleichzeitig im Edikt von Nantes 1598 den Protestanten Sonderrechte und insbesondere Religionsfreiheit. Das Edikt von Nantes wurde 1685 unter Ludwig XIV. wieder aufgehoben, was trotz schwerster Strafandrohungen zu einer Massenflucht der Hugenotten ins benachbarte protestantische Ausland führte. Erst kurz vor der Französischen Revolution erhielten die Protestanten eine begrenzte Glaubensfreiheit zugestanden. Die Französische Revolution hob dann alle Beschränkungen der Glaubensfreiheit auf. Es kam in den Jahren nach der Revolution in der Ersten Französischen Republik zu einer kurzen Phase einer heftigen Kirchenfeindlichkeit, da die katholische Kirche als Vertreterin des "ancien régime" (alten Regimes) gesehen wurde. Nicht nur die Privilegien der Kirche, sondern sogar der christliche Kalender und Gottesdienst wurden abgeschafft und durch einen Revolutionskalender bzw. einen „Kult des höchsten Wesens“ ersetzt. Unter Napoleon Bonaparte kam es mit dem Konkordat von 1801 aber wieder zu einem Ausgleich zwischen katholischer Kirche und Staat. Unter der bourbonischen Restauration nach 1815 gewannen die katholisch-monarchistische Ideen wieder die Oberhand: So wurden die 1823 zur Niederschlagung der liberalen Revolution in Spanien einfallenden bourbonischen Truppen als die „100.000 Söhne des heiligen Ludwig“ bezeichnet, die Jesuitische Mission in Übersee wurde gefördert. In der Dritten Republik ergab sich erneut ein Konflikt zwischen Kirche und Staat, der in das am 9. Dezember 1905 verabschiedete Gesetz zur Trennung von Kirche und Staat mündete, in dem die strikte Trennung von Kirche und Staat festgeschrieben wurde. Dies Gesetz gilt jedoch nicht für das damals deutsche Elsaß-Lothringen. In diesen heutigen drei Départements gilt nach ihrer Angliederung an Frankreich nach dem Ersten Weltkrieg nach wie vor die Regelung von 1801. Dies führt dazu, dass die dortigen Priester vom französischen Staat bezahlt werden und es kirchliche Feiertage wie im deutschsprachigen Raum gibt. Die jüdische Gemeinschaft in Frankreich hat eine wechselhafte Geschichte. Seit der Römerzeit lebten Juden in Frankreich. Sie wurden jedoch in zwei Wellen 1306 unter Philipp IV. und 1394 unter Karl VI. alle des Landes verwiesen. Über viele Jahrhunderte gab es danach kaum ein jüdisches Leben in Frankreich. Einzige Ausnahme blieben die im 18. und 19. Jahrhundert erworbenen Gebiete im Osten des Landes, insbesondere das Elsass, das lange einen Sonderstatus besaß. Die Französische Revolution gewährte schließlich den Juden die bürgerliche Gleichberechtigung. Frankreich blieb aber bis Anfang des 20. Jahrhunderts ein Land mit vergleichsweise geringer jüdischer Bevölkerung. Nach dem Ersten, aber vor allem nach dem Zweiten Weltkrieg setzte eine starke Zuwanderung aus den ehemaligen Kolonien in Nordafrika sowie aus Osteuropa ein, so dass Frankreich heute das Land Europas mit der größten jüdischen Bevölkerungsgruppe darstellt. Im Zusammenhang mit Antisemitismus und der Weltwirtschaftskrise ab 2007 gibt es jedes Jahr Tausende von Auswanderern nach Israel. Ebenfalls seit Ende des Zweiten Weltkrieges ist eine starke Zunahme des Anteils an Muslimen zu verzeichnen, die auf Zuwanderung aus den ehemaligen Kolonien zurückgeht. Der französische Zentralstaat fördert eine "Gallikanisierung des Islam"; er traut ihm Reformfähigkeit zu und fordert, dass der Islam eine Körperschaft als zentralen Ansprechpartner für den Staat benennt. Urgeschichte bis Frühmittelalter. Karte von Gallien zur Zeit Caesars (58 v. Chr.) Es wird geschätzt, dass das heutige Frankreich vor etwa 480.000 Jahren besiedelt wurde. Aus der Altsteinzeit sind in der Höhle von Lascaux bedeutende Felsmalereien erhalten geblieben. Ab 600 v. Chr. gründeten phönizische und griechische Händler Stützpunkte an der Mittelmeerküste, während Kelten vom Nordwesten her das Land besiedelten, das später von den Römern als Gallien bezeichnet wurde. Die keltischen Gallier mit ihrer druidischen Religion werden heute häufig als Vorfahren der Franzosen gesehen und Vercingetorix zum ersten Nationalhelden Frankreichs verklärt, wenngleich kaum gallische Elemente in der französischen Kultur verblieben sind. (Siehe auch Keltomanie) Zwischen 58 und 51 v. Chr. eroberte Caesar im Gallischen Krieg die Region; es wurden die römischen Provinzen Gallia Belgica, Gallia cisalpina und Gallia Narbonensis eingerichtet. In einer Periode von Prosperität und Frieden übernahmen diese Provinzen römische Fortschritte in Technik, Landwirtschaft und Rechtsprechung; große, elegante Städte entstanden. Ab dem 5. Jahrhundert wanderten vermehrt germanische Völker nach Gallien ein, die nach dem Zerfall des Römischen Reiches 476 eigene Reiche gründeten. Nach einer vorübergehenden Dominanz der Westgoten gründeten die Franken unter Chlodwig I. das Reich der Merowinger. Sie übernahmen zahlreiche römische Werte und Einrichtungen, u. a. den Katholizismus (496). Im Jahre 732 gelang es ihnen, in der Schlacht von Tours und Poitiers der von der iberischen Halbinsel ausgehenden Islamischen Expansion Einhalt zu gebieten. Die Karolinger folgten den Merowingern nach. Karl der Große wurde 800 zum Kaiser gekrönt, 843 wurde das Frankenreich mit dem Vertrag von Verdun unter seinen Enkeln aufgeteilt; dessen westlicher Teil entsprach in etwa dem heutigen Frankreich. Mittelalter. Jeanne d’Arc. Anonyme Miniaturmalerei, zweite Hälfte des 15. Jahrhunderts Das französische Mittelalter war geprägt durch den Aufstieg des Königtums im stetigen Kampf gegen die Unabhängigkeit des Hochadels und die weltliche Gewalt der Klöster und Ordensgemeinschaften. Die Kapetinger setzten, ausgehend von der heutigen Île-de-France, die Idee von einem Einheitsstaat durch, die Teilnahme an verschiedenen Kreuzzügen untermauerten dies. Die Normannen fielen wiederholt in der Normandie ein, die daher ihren Namen bekam; im Jahre 1066 eroberten sie England. Unter Ludwig VII. begann eine lange Serie von kriegerischen Auseinandersetzungen mit England, nachdem Ludwigs geschiedene Frau Eleonore von Poitou und Aquitanien 1152 Heinrich Plantagenet geheiratet und damit etwa die Hälfte des französischen Staatsgebiets an England gefallen war. Philipp II. August konnte England zusammen mit den Staufern bis 1299 weitgehend aus Frankreich verdrängen; der englische König Heinrich III. musste zudem Ludwig IX. als Lehnsherrn anerkennen. Ab 1226 wurde Frankreich zu einer Erbmonarchie; im Jahre 1250 war Ludwig IX. einer der mächtigsten Herrscher des Abendlandes. Nach dem Tod des letzten Kapetingers wurde 1328 Philipp von Valois zum neuen König gewählt, er begründete die Valois-Dynastie. Die Bevölkerung Frankreichs wird für diese Zeit auf 15 Millionen geschätzt, und das Land verfügte mit der Scholastik, der gotischen und romanischen Architektur über bedeutende kulturelle Errungenschaften. Thronansprüche, die Eduard III. Plantagenet, König von England und Herzog von Aquitanien, erhob, führen 1337 zum Hundertjährigen Krieg. Nach großen Anfangserfolgen Englands, das den gesamten Nordwesten Frankreichs eroberte, konnte Frankreich die Invasoren zunächst zurückdrängen. Eine Rebellion Burgunds und die Ermordung des Königs führten dazu, dass England sogar Paris und Aquitanien besetzen konnte. Erst der von Jeanne d’Arc entfachte nationale Widerstand führte zur Rückeroberung der verlorenen Gebiete (mit Ausnahme von Calais) bis 1453. Zusätzlich zum Hundertjährigen Krieg raffte die Pest von 1348 etwa ein Drittel der Bevölkerung dahin. Frühe Neuzeit. Mit der Eingliederung Burgunds und der Bretagne in den französischen Staat befand sich das Königtum auf einem vorläufigen Höhepunkt seiner Macht, wurde jedoch während der Renaissance in dieser Position durch Habsburg bedroht – der habsburgische Kaiser Karl V. beherrschte ein Reich, dessen Länder sich rund um Frankreich gruppierten. Ab 1540 breitete sich durch das Wirken von Johannes Calvin der Protestantismus nach Frankreich aus. Die französischen Calvinisten, genannt Hugenotten, wurden in ihrer Glaubensausübung stark unterdrückt, die Hugenottenkriege und speziell die Bartholomäusnacht im Jahre 1572 führten zur Auswanderung von Hunderttausenden Hugenotten. Erst der erste Herrscher aus dem Haus Bourbon, Heinrich von Navarra, gewährte den Hugenotten im Edikt von Nantes 1598 Religionsfreiheit. Die Renaissance-Zeit war auch von einer stärkeren Zentralisierung geprägt, der König wurde von der Kirche und dem Adel unabhängig. Es gelang den leitenden Ministern und Kardinälen Richelieu und Jules Mazarin, einen absolutistischen Staat zu errichten. Auf Betreiben Richelieus griff 1635 Frankreich aktiv in den Dreißigjährigen Krieg in Mitteleuropa ein; im Zusammenhang damit kam es zum Krieg gegen Spanien. Im Westfälischen Frieden von 1648 erhielt Frankreich Gebiete im Elsass zugesprochen; das Heilige Römische Reich und Spanien wurden geschwächt. Es begann das Zeitalter der französischen Dominanz in Europa. Alle Herrscher Europas orientierten sich am Vorbild der französischen Kultur, und das Französische wurde zur dominierenden Bildungssprache. Die teuren Kriege und die Adelsopposition führten jedoch zum Staatsbankrott und zum Aufstand (Fronde). Mit dem Edikt von Fontainebleau 1685 wurde die Religionsfreiheit der Hugenotten wieder aufgehoben. Trotz schwerer Strafandrohungen flohen abermals Hunderttausende Hugenotten. Unter Ludwig XIV., dem sogenannten "Sonnenkönig", der 1643 als Vierjähriger inthronisiert wurde und bis 1715 herrschte, erreichte der Absolutismus seinen Höhepunkt. In dieser Zeit wurde das Schloss Versailles errichtet. Zeitalter der Revolutionen. Die Kriege, die die absolutistischen Könige führten (etwa Devolutionskrieg, Holländischer Krieg, Pfälzischer Erbfolgekrieg, Spanischer Erbfolgekrieg, Siebenjähriger Krieg, Teilnahme am Amerikanischen Unabhängigkeitskrieg), ihre teure Hofhaltung und Missernten lösten eine große Finanzkrise aus, die König Ludwig XVI. dazu zwang, die Generalstände einzuberufen. Die Nationalversammlung arbeitete eine Verfassung aus, beschränkte die Macht des Königs und beendete das "Ancien Régime". Die sich weiter verschlechternden Lebensbedingungen des Volkes führten 1789 zur Französischen Revolution mit der Erklärung der Menschen- und Bürgerrechte als zentraler Errungenschaft. Die Kirche wurde enteignet und sogar ein neuer Kalender eingeführt. Die 1791 verabschiedete Verfassung machte Frankreich zu einer konstitutionellen Monarchie. Nach der versuchten Flucht des Königs wurde dieser verhaftet und 1793 hingerichtet, die Erste Republik wurde verkündet. Die erste Erfahrung mit republikanischer Herrschaft, die auf dem Gleichheitsprinzip beruhte, endete jedoch im Chaos und der Terrorherrschaft unter Robespierre. Kaiser Napoleon III. übergibt seinen Degen an Napoleon Bonaparte ergriff in dieser Situation 1799 mit einem Staatsstreich die Macht als Erster Konsul; 1804 krönte er sich selbst zum Kaiser. In den folgenden Koalitionskriegen brachte er fast ganz Europa unter seine Kontrolle. Sein Russlandfeldzug 1812 wurde jedoch ein Fehlschlag, die Völkerschlacht bei Leipzig 1813 besiegelte die Niederlage der französischen Truppen. Während des Exils in Elba regierte mit Ludwig XVIII. wieder ein Bourbone, Napoleon kam 1815 zurück und regierte weitere hundert Tage. Nach der Niederlage in der Schlacht bei Waterloo wurde er endgültig verbannt. Die Restauration brachte wieder die Bourbonen auf den Thron, die darangingen, das verlorene Kolonialreich wieder aufzubauen. In Frankreich fand gleichzeitig die Industrielle Revolution statt, und eine Arbeiterklasse bildete sich langsam heraus. Die Julirevolution von 1830 stürzte den despotisch regierenden Karl X., der durch den "Bürgerkönig" Louis-Philippe I. ersetzt wurde. Eine erneute bürgerliche Revolution brachte Frankreich 1848 die Zweite Republik. Zum Präsidenten der Zweiten Republik wurde Louis Napoléon Bonaparte gewählt, der sich bereits 1852 als Napoleon III. zum Kaiser krönen ließ. Unter seiner Herrschaft wurde Opposition gewaltsam unterdrückt, außenpolitisch gelangen jedoch Unternehmen wie der Erwerb von Nizza und Savoyen, die Eingliederung von Äquatorialafrika und Indochina ins Kolonialreich und der Bau des Sueskanals. Seine Herrschaft fällt zusammen mit der Nationalstaatsbildung in Deutschland unter Führung des Norddeutschen Bundes. Der Deutsch-Französische Krieg, den Napoleon III. begann, um einen mächtigen Konkurrenten um die Hegemonie in Europa zu verhindern, endete mit einer Niederlage, Wilhelm I. ließ sich im Spiegelsaal von Versailles zum deutschen Kaiser proklamieren. Die "Pariser Kommune", ein Aufstand, der sich gegen die Kapitulation richtete, wurde mit Gewalt und zahlreichen Todesopfern niedergeschlagen. Imperialismus, Kolonialismus, Erster und Zweiter Weltkrieg. Die Dritte Republik währte von 1871 bis 1940. In dieser Zeit dehnte sich das französische Kolonialreich auf eine Fläche von 7,7 Millionen Quadratkilometer aus. Die Industrialisierung Frankreichs führte zu einem Wirtschaftsaufschwung. 1878, 1889 und 1900 veranstaltete Paris drei Weltausstellungen. Zwischen Frankreich und dem Vereinigten Königreich kam es zu einem Wettlauf um Afrika. Beide Länder praktizierten Imperialismus. Höhepunkt des „Wettlaufs“ war die Faschoda-Krise 1898 zwischen den beiden Ländern. Das Vereinigte Königreich hatte sich zum Ziel gesetzt, einen Nord-Süd-Gürtel von Kolonien in Afrika zu erobern, vom Kap der Guten Hoffnung bis Kairo (Kap-Kairo-Plan). Frankreich wollte dagegen einen Ost-West-Gürtel von Dakar bis Dschibuti. Die Ansprüche beider Staaten kollidierten schließlich in dem kleinen sudanesischen Ort Faschoda. Frankreich gab letztlich kampflos nach; die beiden Länder steckten im März 1899 ihre Interessengebiete ab (Sudanvertrag). Die Dritte Republik erlebte mit dem Panamaskandal (1889–1893), der Faschoda-Krise und der Dreyfus-Affäre (1894–1905) drei große Krisen innerhalb von zehn Jahren. Die Römisch-katholische Kirche in Frankreich praktizierte jahrzehntelang eine antimodernistische Haltung; unter anderem deshalb wurde Frankreich – auch im Zuge der Dreyfus-Affäre – zu einem ausgeprägt laizistischen Staat (Gesetz zur Trennung von Religion und Staat im Dezember 1905). 1904 schloss Frankreich mit dem Vereinigten Königreich die "Entente cordiale" und trat 1914 in den Ersten Weltkrieg mit dem Ziel ein, Elsass-Lothringen zurückzugewinnen und Deutschland entscheidend zu schwächen. Nach dem Krieg war Frankreich zwar auf der Siegerseite, Nordfrankreich war jedoch weitgehend verwüstet. Zu den 1,5 Millionen gefallenen Soldaten kamen 166.000 Opfer der Spanischen Grippe 1918/19. Die Zwischenkriegszeit war in Frankreich vor allem von politischer Instabilität gekennzeichnet. Im Friedensvertrag von Versailles wurde Deutschland 1919 verpflichtet, hohe Reparationen an die Siegermächte zu leisten. Vor allem der französische Ministerpräsident und Außenminister Poincaré bestand auf einer kompromisslosen und pünktlichen Erfüllung der Leistungen. Französisches Militär nahm Verzögerungen der Lieferungen mehrfach zum Anlass, in unbesetztes Gebiet einzurücken. Zum Beispiel besetzten am 8. März 1921 französische und belgische Truppen die Städte Duisburg und Düsseldorf in der Entmilitarisierten Zone. Wegen der immer größeren wirtschaftlichen Probleme des Deutschen Reiches verzichteten die Alliierten 1922 auf Reparationszahlungen in Form von Geld und forderten stattdessen Sachleistungen (Stahl, Holz, Kohle) ein. Am 26. Dezember stellte die alliierte Reparationskommission einstimmig fest, dass Deutschland mit den Reparationslieferungen im Rückstand war. Als am 9. Januar 1923 die Reparationskommission behauptete, die Weimarer Republik halte absichtlich Lieferungen zurück, nahm Frankreich dies als Anlass zum Einmarsch in das Ruhrgebiet. Poincaré strebte an, Rheinland und Ruhrgebiet eine mit dem Status des Saargebiets vergleichbare Sonderstellung zu geben, bei der die Zugehörigkeit zum Deutschen Reich nur mehr formal gewesen wäre und Frankreich eine bestimmende Position gehabt hätte. Das Vereinigte Königreich und die Vereinigten Staaten betrachteten diesen "fait accompli" eher skeptisch. Der Ruhrkampf endete im September 1923; der überschuldete deutsche Staat konnte nur durch eine Währungsreform die Hyperinflation stoppen. Die ab 1934 regierende Volksfront war vor allem auf Erhaltung des Status quo aus, sodass Frankreich schlecht auf den Zweiten Weltkrieg vorbereitet war. In ihrem Westfeldzug umgingen die deutschen Truppen die Maginot-Linie und marschierten in ein unverteidigtes Paris ein. Marschall Pétain musste am 22. Juni 1940 den zweiten Waffenstillstand von Compiègne unterzeichnen. Frankreich wurde in eine "zone occupée" und eine "zone libre" geteilt, wobei in letzterer das von Deutschland abhängige konservativ-autoritäre Vichy-Regime regierte. Bereits kurz nach der Unterzeichnung des Waffenstillstands bildeten sich Gruppen der Résistance, in London gründete Charles de Gaulle die Exilregierung "Forces françaises libres". In der von den Alliierten durchgeführten Operation Overlord wurde Nordfrankreich 1944 zurückerobert. Einen Monat nach der Befreiung von Paris im August 1944 bildete de Gaulle eine provisorische Regierung. Diese beschloss unter anderem im Oktober 1944 das Frauenwahlrecht, das den Französinnen bis dahin verwehrt geblieben war. Zur Anwendung kam es das erste Mal bei den Kommunalwahlen am 29. April 1945 und auf nationaler Ebene bei den Wahlen zur Nationalversammlung am 21. Oktober 1945. Nachkriegszeit und europäische Einigung. Die Verfassung der Vierten Republik war bereits am 13. Oktober 1946 durch einen Volksentscheid beschlossen worden. Frankreich, das sich auf Seiten der Siegermächte wiederfand, wurde zum Gründungsmitglied der Vereinten Nationen und erhielt im Sicherheitsrat ein Veto-Recht. Frankreich erhielt zur Förderung des Wiederaufbaus unter anderem Unterstützungsleistungen aus dem Marshallplan; unter Ökonomen ist umstritten, ob diese volkswirtschaftlich nennenswerte Wirkungen hatten. Der nach dem Zweiten Weltkrieg einsetzende lange wirtschaftliche Nachkriegsboom wurde als Trente Glorieuses bezeichnet. 1949 war Frankreich Gründungsmitglied der NATO; 1951 wurde mit der Gründung der Europäischen Gemeinschaft für Kohle und Stahl der erste Schritt zur Europäischen Integration gesetzt. Im März 1957 wurden die Römischen Verträge unterzeichnet; zum 1. Januar 1958 wurde die Europäische Wirtschaftsgemeinschaft (EWG) gegründet, aus der mittlerweile die Europäische Union geworden ist und in der Frankreich ein aktives und dominantes Mitglied ist. Die Nachkriegszeit ist auch durch den Zerfall des Kolonialreiches geprägt. Der erste Indochinakrieg (1946–1954) endete mit der Schlacht um Điện Biên Phủ und dem Verlust aller französischen Kolonien in Südostasien. Einen noch tieferen Schnitt bedeutete der Algerienkrieg (1954–1962), der mit großer Härte geführt wurde und an dessen Ende Algerien in die Unabhängigkeit entlassen werden musste. Hunderttausende Pied-noirs mussten nach Frankreich rückgeführt werden (siehe auch Dekolonisation Afrikas). Innenpolitisch wurde die instabile Vierte Republik im Oktober 1958 durch die Fünfte Republik abgelöst, die einen starken, von der Legislative weitgehend unabhängigen Präsidenten vorsieht. Diese Fünfte Republik wurde im Mai 1968 stark erschüttert, was langfristig kulturelle, politische und ökonomische Reformen in Frankreich nach sich zog (auch in Deutschland gab es die 68er-Bewegung). Um 1971, also schon vor der Ölkrise von 1973, beschloss Frankreich, sich durch Nutzung der Kernenergie vom Erdöl unabhängiger zu machen (siehe Kernenergie in Frankreich). Eine weitere Zäsur war 1981 die Machtübernahme durch die Sozialistische Partei und die Präsidentschaft von François Mitterrand, die bis Mai 1995 andauerte. Während dieser wurden unter anderem massive Verstaatlichungen vorangetrieben, die Todesstrafe und Kernwaffentests abgeschafft, die 39-Stunden-Woche eingeführt und 1992 der Vertrag von Maastricht ratifiziert. Mitterrands Nachfolger Jacques Chirac setzte die Einführung des Euro um und brüskierte die USA, indem er – wie Bundeskanzler Gerhard Schröder in Deutschland – 2002/2003 die Teilnahme am Irakkrieg verweigerte. Dem ab 2007 amtierenden Staatspräsidenten Nicolas Sarkozy folgte 2012 François Hollande, der Kandidat der Parti socialiste (PS). Bei der französischen Parlamentswahl im Juni 2012 errang die PS in der Nationalversammlung die Mehrheit der Sitze. Im Rahmen der Eurokrise werden Frankreichs Netto-Neuverschuldung, Staatsquote, Reformfähigkeit und anderes kritisch diskutiert. 2015 war Paris von mehreren Terroranschlägen betroffen. Am 7. Januar verübten Anhänger des „Islamischen Staates“ einen Anschlag auf die Redaktion der Satirezeitschrift Charlie Hebdo, bei dem 28 Menschen ums Leben kamen. Am Abend des 13. November verübten Terroristen an sechs verschiedenen Orten in der Stadt Anschläge, bei denen weit über hundert Menschen starben und weit über dreihundert Menschen teils lebensgefährlich verletzt wurden. Der IS bekannte sich in einem Schreiben zu den Anschlägen und betonte, dass Frankreich aufgrund seines militärischen Engagements in Syrien gezielt ausgewählt worden sei und weiterhin Hauptziel des IS bleibe. Politik. Organigramm des politischen Systems der Fünften Französischen Republik Seit der Annahme einer neuen Verfassung am 5. Oktober 1958 wird in Frankreich von der Fünften Republik gesprochen. Diese Verfassung macht Frankreich zu einer zentralistisch organisierten Demokratie mit einem semipräsidentiellen Regierungssystem. Gegenüber früheren Verfassungen wurde die Rolle der Exekutive und vor allem jene des Präsidenten weitgehend gestärkt. Dies war die Reaktion auf die extreme politische Instabilität in der Vierten Republik. Sowohl Präsident und Premierminister spielen eine aktive Rolle im politischen Leben, wobei der Präsident nur dem Volk gegenüber verantwortlich ist. Die Macht des Parlaments wurde in der Fünften Republik eingeschränkt, die Verfassung hat ihm jedoch entscheidende Kontrollfunktionen übertragen. Die Verfassung enthält keinen Grundrechtekatalog, sondern verweist auf die Erklärung der Menschen- und Bürgerrechte von 1789 und die in der Verfassung der Vierten Französischen Republik von 1946 festgehaltenen sozialen Grundrechte. Absolventen der 1946 gegründeten Elitehochschule ENA konnten sich nicht nur in politischen Ämtern, sondern auch in Schlüsselpositionen der Verwaltung und in den höheren Etagen der großen Unternehmen durchsetzen. Exekutive. Verfassungsgemäß ist der direkt durchs Volk gewählte Staatspräsident das höchste Staatsorgan. Er steht über allen anderen Institutionen. Er wacht über die Einhaltung der Verfassung, sichert das Funktionieren der öffentlichen Gewalten, die Kontinuität des Staates, die Unabhängigkeit, die Unverletzlichkeit des Staatsgebietes und die Einhaltung von mit anderen Staaten geschlossenen Abkommen. Er tritt als Schiedsrichter bei Streitigkeiten zwischen staatlichen Institutionen auf. Er verkündet Gesetze und hat das Recht, sie dem Verfassungsrat zur Prüfung vorzulegen. Er darf Gesetze oder Teile davon an das Parlament zur Neuberatung zurückweisen, hat aber kein Vetorecht. Dekrete und Verordnungen werden vom Ministerrat, dessen Vorsitz der Präsident führt, beschlossen; gegenüber diesen hat der Präsident jedoch ein aufschiebendes Veto. Bei der Außen- und Sicherheitspolitik verfügt der Staatspräsident sowohl über die Richtlinien- und über die Ratifikationskompetenz, sodass er sowohl die Außenpolitik gestaltet als auch völkerrechtliche Vereinbarungen für Frankreich verbindlich eingeht. Diese Praxis schälte sich in der Regierungszeit de Gaulles heraus und ist nicht zwingend der Verfassung zu entnehmen. Auf Antrag der Regierung oder des Parlamentes darf der Präsident Volksabstimmungen initiieren. Er ernennt Mitglieder wichtiger Gremien, etwa drei der neun Mitglieder des Verfassungsrates, alle Mitglieder des Obersten Rates für den Richterstand sowie die Staatsanwälte. Der Staatspräsident ist keiner Kontrolle durch die Judikative unterworfen, dem Parlament gegenüber ist er nur bei Hochverrat verantwortlich. Außerdem befiehlt der Staatspräsident über die Streitkräfte und den Einsatz der Atomwaffen; im Falle der Ausrufung des Notstandes hat der Präsident fast unbeschränkte Autorität. Dem Präsidenten steht das Präsidialamt als Berater und Unterstützer zur Seite. Der Präsident leitet die ihm verliehene staatliche Autorität an den Premierminister und die Regierung weiter, wobei die Regierung die vom Präsidenten vorgegebenen Richtlinien umzusetzen hat. Dies erfordert eine enge Zusammenarbeit zwischen Präsidenten und Premierminister, die in einer "Cohabitation" schwierig sein kann, also wenn Präsident und Premierminister aus zwei entgegengesetzten politischen Lagern kommen. Der Präsident ernennt formell ohne jegliche Einschränkungen einen Premierminister und, auf Vorschlag des Premierministers, die Regierungsmitglieder. Die Regierung hängt in der Folge vom Vertrauen des Parlamentes ab, der Präsident kann eine einmal ernannte Regierung formal nicht entlassen. Die Regierung besteht aus Ministern, Staatsministern, "ministres délegués", also Ministern mit speziellen Aufgaben, und Staatssekretären. Regierungsmitglieder dürfen in Frankreich kein anderes staatliches Amt, keine sonstige Berufstätigkeit oder Parlamentsmandat ausüben. Sie sind in ihrer Funktion dem Parlament verantwortlich. Legislative. Das Parlament der V. Republik besteht aus zwei Kammern. Die Nationalversammlung ("Assemblée Nationale") hat 577 Abgeordnete, die direkt auf fünf Jahre gewählt werden. Der Senat hat 348 Mitglieder (seit 2011, Stand 2015). Diese werden indirekt für eine Amtszeit von sechs Jahren gewählt. Die Wahl des Senats wird auf Ebene der Départements durchgeführt, wobei das Wahlkollegium aus den Abgeordneten des Départements, den Generalräten und Gemeindevertretern besteht. Die Initiative für Gesetze kann vom Premierminister oder einer der beiden Parlamentskammern ausgehen. Nach der Debatte in den Kammern muss der Gesetzestext von beiden Kammern gleichlautend verabschiedet werden, wobei das Weiterreichen des Textes als "navette" bezeichnet wird. Nach der Annahme durch das Parlament hat der Präsident nur einmal das Recht, einen Gesetzestext zurückzuweisen. Das Parlament hat zudem die Aufgabe, die Arbeit der Regierung durch Anfragen und Aussprachen zu kontrollieren. Die Nationalversammlung hat die Möglichkeit, die Regierung zu stürzen. Das Parlament hat nicht die Befugnis, den Staatspräsidenten politisch herauszufordern. Der Staatspräsident darf jedoch die Nationalversammlung auflösen; von diesem Recht wurde in der Vergangenheit wiederholt Gebrauch gemacht, um schwierige Phasen der "Cohabitation" zu beenden. Eine häufige Erscheinung ist Ämterhäufung: Viele Senatoren und Abgeordnete sind zugleich als Bürgermeister in der Kommunalpolitik aktiv. Dies soll ab 2017 nicht mehr legal sein. Staatshaushalt. 1974 hatte der Staatshaushalt zum letzten Mal "keine" Neuverschuldung; er war ausgeglichen. 2010 umfasste er Ausgaben von 1094 Milliarden Euro, dem standen Einnahmen von 957 Milliarden Euro gegenüber. Daraus ergibt sich ein Haushaltsdefizit in Höhe von 137 Milliarden Euro beziehungsweise 7,1 Prozent des Bruttoinlandsprodukts. Die Staatsverschuldung betrug 2010 1591 Milliarden Euro oder 82,3 Prozent des BIP. Damit lagen Neuverschuldung und die Staatsschuldenquote in Frankreich weit über der in den EU-Konvergenzkriterien („Maastricht-Kriterien“) genannten Obergrenzen von drei Prozent pro Jahr bzw. 60 Prozent (AEU-Vertrag). Im Jahr 2011 betrug die Neuverschuldung 5,2 Prozent des BIP und lag damit 0,5 Prozent niedriger als ursprünglich erwartet. Die Staatsverschuldung betrug in diesem Jahr 1.717,3 Milliarden Euro. Ende 2012 stieg Schuldenstand auf rund 89 Prozent des Bruttoinlandsprodukts. Der größte Posten im Budget sind die Zinszahlungen: insgesamt rund 48,8 Milliarden Euro. Das Schatzamt (siehe auch Agence France Trésor) hat die Ermächtigung, Staatsanleihen im Wert von 179 Milliarden Euro auszugeben, um die Schuldenlast zu finanzieren. Im Rahmen der Eurokrise wurde Frankreich ab 2012 von den Ratingagenturen Standard & Poor’s, Moodys und Fitch teils mehrfach herabgestuft; Präsident Sarkozy hatte angekündigt in den kommenden fünf Jahren rund 65 Milliarden Euro im Haushalt einsparen zu wollen, falls er bei den Französischen Präsidentschaftswahl 2012 wiedergewählt worden wäre. Unter dem neuen Präsidenten François Hollande stiegen die Staatsschulden weiter an – auf 2.031,5 Milliarden Euro oder 95,3 Prozent des BIP zum Ende des dritten Quartals 2014. Anfang 2015 gab die Europäische Kommission bekannt, dass sie auch 2015 und 2016 Haushaltsdefizite oberhalb der im Vertrag von Maastricht vorgesehenen Obergrenze von 3 % dulden würde. Politische Parteien. Die französische Parteienlandschaft zeichnet sich durch einen hohen Grad der Zersplitterung und hohe Dynamik aus. Neue Parteien entstehen, und existierende Parteien ändern häufig ihre Namen. Die Namen der Parteien geben nur sehr bedingt über ihre ideologische Ausrichtung Aufschluss, denn es ist zu einer gewissen Begriffsentfremdung gekommen. Französische Parteien haben in der Regel relativ wenige Mitglieder und eine schwache Organisationsstruktur, die sich häufig auf Paris als den Ort, wo die meisten Entscheidungen getroffen werden, konzentriert. Die politische Linke wird von der kommunistischen Parti communiste français, der sozialistischen Parti socialiste und der Parti radical de gauche besetzt. Die Parti socialiste stellte hingegen den langjährigen Präsidenten François Mitterrand und mehrere Premierminister. Heute stellt sie ebenfalls den Präsidenten, nämlich François Hollande. Die grüne Partei in Frankreich heißt Les Verts, wobei grüne Politik in Frankreich tendenziell weniger Zulauf genießt als in den deutschsprachigen Staaten. Die wichtigste Zentrumspartei ist die erst 2007 gegründete Mouvement démocrate. Zum konservativen Lager gehört die gaullistische Partei Les Républicains (bis 2015 "Union pour un mouvement populaire", UMP). Weiterhin ist der Mouvement pour la France eher noch zum bürgerlichen Lager zu zählen, während der Front National zum Rechtsextremismus gehört. Innenpolitik. Momentan stellt das sozialistische Lager des amtierenden Staatspräsidenten François Hollande mit 295 Sitzen die absolute Mehrheit in der Nationalversammlung. Am 22. April 2012 errang der sozialistische Präsidentschaftsbewerber Hollande die meisten Stimmen bei der ersten Runde der französischen Präsidentschaftswahl, musste sich aber am 6. Mai 2012 einer Abstimmung gegen den amtierenden Präsidenten Nicolas Sarkozy stellen. Dabei gewann François Hollande, der Präsidentschaftskandidat der Sozialisten, mit 51,64 Prozent der Stimmen die französische Präsidentschaftswahl. Der bisherige Amtsinhaber Nicolas Sarkozy von der konservativen UMP errang dabei 48,36 Prozent der Stimmen. Seit den Präsidentschaftswahlen ist das konservativ-liberale Lager in der Opposition. Am 15. Mai 2012 ernannte Präsident Hollande den bisherigen Fraktionsführer der Sozialisten in der Nationalversammlung, Jean-Marc Ayrault, zum neuen Regierungschef. Dieser wurde am 21. Juni 2012 erneut im Amt bestätigt. Seit 31. März 2014 hat das Amt des Premierministers Manuel Valls inne. Der bisherige Präsident Nicolas Sarkozy zog sich daraufhin aus der aktiven Politik zurück. Am 25. August 2014 bot Manuel Valls dem Staatspräsidenten François Hollande wegen wachsenden Wirtschaftsproblemen Frankreichs den Rücktritt der momentanen Regierung an. Die neue Regierung wurde am 26. August 2014 vorgestellt, Valls blieb Premierminister. Im Oktober 2005 hatten Konflikte mit Sachbeschädigungen durch Vandalismus und zu Zusammenstößen zwischen der Polizei und Jugendlichen in der Banlieue, den Vorstadtsiedlungen großer Städte einen Höhepunkt erreicht und griffen von Paris in andere Städte über, nachdem zwei Jugendliche einen Unfalltod erlitten hatten. Danach nannte die Regierung unter Präsident Sarkozy als wichtigste innenpolitische Vorhaben die Erhöhung der Kaufkraft der Bürger, eine Flexibilisierung der Arbeitszeiten, insbesondere durch die Abschaffung der 35-Stunden-Woche sowie ein härteres Vorgehen gegen Kriminalität. Außen- und Sicherheitspolitik. Das Europaparlament in Straßburg. Frankreich ist einer von 28 EU-Mitgliedsstaaten. Leitlinie der französischen Außenpolitik ist die zunehmende Integration Europas mit dem Ziel einer politischen Einigung. Nach dem Zweiten Weltkrieg gaben Deutschland und Frankreich unter dem Eindruck der Kriegserlebnisse ihre Erbfeindschaft auf, die eine grundsätzliche Gefährdung des europäischen Friedens darstellte, und verfolgten die Aussöhnung untereinander. Frankreich ist Gründungsmitglied der Europäischen Union. Mittlerweile betreiben Frankreich und Deutschland eine oftmals kongruente Europapolitik, sodass es Pläne gibt, aus diesen beiden Ländern ein „Kerneuropa“ zu bilden, das die europäische Einigung nötigenfalls auch gegen einige andere EU-Mitglieder vorantreibt. Indirekt ist dieser Prozess auch gegen ein als solches wahrgenommenes imperiales Streben der Vereinigten Staaten von Amerika, deren überbordende Machtfülle Frankreich mit der Schaffung einer multipolaren Weltordnung relativieren will. Generell folgen Frankreichs Grundinteressen in der EU jedoch dem intergouvernementalen Ansatz, welcher zunächst keine Übertragung weiterer Kompetenzen auf die EU-Ebene vorsieht. Zentrales Ziel der französischen Europapolitik ist, die Führungsrolle Frankreichs in Europa zu festigen. Aufgeweicht wird diese Position jedoch teilweise durch neue pragmatische Ansätze. Besonders in der Klima- und Energie-, der Wirtschafts- und Finanz- sowie der Sicherheits- und Verteidigungspolitik ist Frankreich vermehrt Vorreiter europäischer Positionen. Der grundsätzliche Fokus auf nationalen Interessen bleibt allerdings erhalten. In der aktuellen Eurokrise setzen sich Frankreich und Deutschland weitestgehend für gemeinsame Positionen ein. Dies spiegelt sich in häufigen bilateralen Gesprächen zwischen Bundeskanzlerin Angela Merkel und François Hollande, auch im Vorfeld offizieller Gipfeltreffen, wider. Wichtige Anliegen Frankreichs auf EU-Ebene sind der Aufbau einer europäischen Sicherheits- und Verteidigungspolitik. Eine weitere Säule der französischen Außenpolitik ist die internationale Kooperation auf dem Gebiet der Sicherheitspolitik und der Entwicklungszusammenarbeit bei ständiger Wahrung der französischen Souveränität. Dazu ist Frankreich Mitglied in zahlreichen sicherheitspolitischen Organisationen wie der OSZE und nimmt am Eurokorps teil. Außerdem engagiert sich Frankreich in der atomaren Abrüstung, hat bisher jedoch nicht verlautbaren lassen, auf das Potenzial der Atomwaffen ("Force de frappe") zu verzichten. Frankreich ist zudem ständiges Mitglied im UNO-Sicherheitsrat mit Vetorecht. Über die Vereinten Nationen koordiniert es seine internationale Entwicklungszusammenarbeit und sein humanitäres Engagement. Frankreich war 1949 Gründungsmitglied des Nordatlantikvertrages (NATO) und erhielt militärischen Schutz durch die Vereinigten Staaten. Mit der Machtübernahme von de Gaulle 1958 änderten sich die Beziehungen zu den Vereinigten Staaten und zu der von den USA dominierten NATO dahingehend, dass Frankreich 1966 seine militärische Integration in die Strukturen der NATO aufgab und ausschließlich politisch integriert blieb. Im März 2009 kündigte Präsident Sarkozy die vollständige Rückkehr Frankreichs in die Kommandostruktur der NATO an. Das französische Parlament bestätigte am 17. März 2009 diesen Schritt, indem es Sarkozy das Vertrauen aussprach. Unter de Gaulles Führung entwickelte sich Frankreich 1960 zu einer Atommacht und verfügte ab 1965 mit der Force de frappe über Atomstreitkräfte, die zunächst 50 mit Kernwaffen ("Atombomben") ausgestattete Flugzeuge in Dienst stellte. 1968 hatte Frankreich bereits 18 Abschussrampen für Mittelstreckenraketen aufgestellt, die 1970 und 1971 mit Atomsprengköpfen ausgestattet wurden. In den 1970er Jahren erweiterte Frankreich seine Atommacht auch auf See. Vier Atom-U-Boote tragen je 16 atomar bestückte Mittelstreckenraketen. Ebenfalls von großer Bedeutung für die französischen Außenbeziehungen ist die französische Kulturpolitik und die Förderung der Frankophonie. International hat die französische Sprache mit ungefähr 140 Millionen Sprechern einen hohen Stellenwert. Dies unterstützt das französische Außenministerium mit einer Unterabteilung namens AEFE, deren etwa 280 Schulen in ungefähr 130 Ländern von rund 16.000 Jugendlichen besucht werden. Die Leistungen der knapp 1000 Lokalitäten der "Agence française" nehmen ungefähr 200.000 Studenten in aller Welt in Anspruch. Hinzu kommt ein Engagement auch nach Ende der Kolonialherrschaft in Afrika, wo Frankreich bis heute in vielen Ländern die bestimmende Ordnungsmacht geblieben ist. Militär. Frankreich hat einen der höchsten Rüstungsetats der Welt und gehört zu den führenden Militärmächten sowie zum Kreis der offiziellen Atomwaffenstaaten. Die französischen Streitkräfte "(Les forces armées françaises)" sind seit Ende 1990er Jahre eine Berufsarmee und umfassen 350.000 Männer und Frauen. 20.000 Soldaten sind in den Übersee-Départements und -territorien stationiert, weitere 8.000 in afrikanischen Staaten, mit denen Verteidigungsabkommen vereinbart wurden. Die Streitkräfte teilen sich dabei in die drei klassischen Sektoren Heer "(Armée de Terre)", Luftwaffe "(Armée de l’air)", Marine "(Marine nationale)". Frankreichs Nuklearstreitkräfte "(Force de dissuasion nucléaire)" mit ca. 348 bis 350 Sprengköpfen stellt die Marine und zum kleineren Teil die Luftwaffe. Weiterhin ist die "Gendarmerie nationale", eine zentrale Polizeibehörde, dem Verteidigungsministerium unterstellt. Militärisches und populärkulturelles Aushängeschild des französischen Militärs ist die Fremdenlegion "(Légion étrangère)". Administrative Gliederung. Frankreich gilt spätestens seit Ludwig XIII. und Kardinal Richelieu als Inbegriff des zentralisierten Staates. Zwar wurden später Maßnahmen zur Dezentralisierung ergriffen, diese hatten jedoch eher den Zweck, die Zentralgewalt näher zum Bürger zu bringen. Erst seit der Verwaltungsreform der Jahre 1982 und 1983 wurden Kompetenzen von der Zentralregierung auf die Gebietskörperschaften verlagert. Auf oberster Ebene ist Frankreich in 27 Regionen "(régions)" gegliedert. Regionen gibt es erst seit 1964, seit 1982/83 haben sie den Status einer Collectivité territoriale ("Gebietskörperschaft"). Jede Region wählt einen Regionalrat ("Conseil régional"), der wiederum einen Präsidenten wählt. Weiterhin ernennt der französische Staatspräsident einen Regionalpräfekten. Regionen sind zuständig für die Wirtschaft, die Infrastruktur der Berufs- und Gymnasialausbildung und finanzieren sich über Steuern, die sie einheben dürfen, und über Transferzahlungen der Zentralregierung. Korsika hat unter den Regionen einen Sonderstatus und wird als "Collectivité territoriale" bezeichnet. Fünf Regionen (Guadeloupe, Martinique, Französisch-Guayana, Mayotte und Réunion) befinden sich in Übersee und hatten bis zur Verfassungsänderung 2003 den Status eines "Übersee-Départements". Die Regionen bilden die europäische Statistikebene NUTS-2 (auf der übergeordneten Ebene NUTS-1 bestehen 8+1 "Zones d’études et d’aménagement du territoire" (ZEAT, Raumplanungs- und -ordnungszonen)). Eine Region ist ihrerseits in Départements unterteilt. Départements ersetzten 1790 die traditionellen Provinzen, um den Einfluss der lokalen Machthaber zu brechen. Von den heute 101 Départements liegen 96 in Europa. Die hohe Zahl dieser relativ kleinen Verwaltungseinheiten ist immer wieder Gegenstand von Diskussionen. Départements wählen einen Generalrat ("Conseil général"), der einen Präsidenten als Exekutivorgan wählt. Erster Mann im Département ist jedoch der vom französischen Staatspräsidenten ernannte Präfekt. Départements haben die Aufgabe, sich um das Sozial- und Gesundheitswesen, die "Collège"s, Kultur- und Sporteinrichtungen, Departementsstraßen und den Sozialbau zu kümmern. Sie dürfen Steuern einheben und erhalten Transferzahlungen der Zentralregierung. Die Départements bilden die europäische Statistikebene NUTS-3. Die 343 Arrondissements, davon 13 in Übersee, stellen keine eigene Rechtspersönlichkeit dar. Sie dienen vorrangig der Entlastung der Départementsverwaltung. Ebenso dienen die 4055 Kantone (Cantons), 72 in Übersee, nur noch als Wahlbezirk für die Wahl der Generalräte. Die Arrondissements der Städte Paris, Lyon und Marseille haben den Status von Kantonen. Die kleinste und gleichzeitig älteste organisatorische Einheit des französischen Staates sind die Gemeinden ("communes"). Sie folgten 1789 den Pfarreien und Städten nach. Anfang 2012 gab es 36.700 Gemeinden, davon 129 in Übersee. Trotz der hohen Zahl der Gemeinden, die größtenteils nur sehr wenige Einwohner haben, gab es in den letzten Jahren kaum Bemühungen um eine Gemeindereform. Jede Gemeinde wählt einen Gemeinderat ("Conseil municipal"), der dann aus seiner Mitte einen Bürgermeister wählt. Seit 1982 haben die Gemeinden deutlich mehr Rechte und werden vom Staat weniger bevormundet. Auf Gemeindeebene werden Grundschulbildung, Stadtplanung, Abfallbeseitigung, Abwasserreinigung und Kulturaktivitäten organisiert; auch sie finanzieren sich über eigene Steuern und Transferzahlungen. Verwaltungsrechtliche Sonderstatus gelten für die Départementskörperschaft ("Collectivité départementale,") Mayotte, die Gebietskörperschaft ("Collectivité territoriale") Saint-Pierre und Miquelon, die Überseegebiete ("Territoires d’outre-mer", T.O.M.) Französisch-Polynesien, Neukaledonien, Wallis und Futuna, Saint-Barthélemy, Saint-Martin und die Französischen Süd- und Antarktisgebiete ("Terres australes et antarctiques françaises," T.A.A.F.) sowie die "Îles Éparses" und die Clipperton-Insel. Frankreich sowie seine Überseeregionen, -départements sowie Saint-Barthélemy und Saint-Martin sind Teil der EU. Die restlichen Überseegebiete sind nicht EU-Mitglieder. In Frankreich erlassene Gesetze gelten in den TOM (Territoires d’outre-mer) nur, wenn dies ausdrücklich erwähnt ist. Recht. Palais de Justice in Paris In der Fünften Republik übernimmt der Verfassungsrat ("Conseil constitutionnel") die Kontrollfunktion innerhalb des politischen Systems. In einem nicht erneuerbaren Mandat ernennen der Staatspräsident und die Präsidenten der Nationalversammlung und des Senats jeweils drei Abgeordnete für eine Amtszeit von neun Jahren. Der Rat überprüft Gesetze auf Anfrage, überwacht die Gesetzesmäßigkeit von Wahlen und Referenden. Für eine Überprüfung von Gesetzen sind jeweils 60 Abgeordnete der Nationalversammlung (10,4 % der Abgeordneten) oder des Senats (18,1 % der Senatoren) nötig. Die Todesstrafe wurde in Frankreich 1981 abgeschafft. Grundlagen. a>, ein Hochhausviertel im westlichen Paris, welches zu den wichtigsten Wirtschaftsstandorten Europas zählt. Traditionell betreiben staatliche Akteure in Frankreich eine intensive Wirtschaftspolitik und Industriepolitik; es gibt vergleichsweise starke staatliche Eingriffe. Die Ideen des Merkantilismus – speziell des Colbertismus – wirken in Frankreich bis heute nach. Nach dem Ersten Weltkrieg wurde der Typus des „gemischten Unternehmens“ geschaffen. Mit dieser Partnerschaft von privatem und öffentlichen Kapital sollte der nationalen Industrie das Vordringen in Bereiche ermöglicht werden, in die sich privates Kapital allein nicht heranwagte (Ölindustrie: "Compagnie Française des Pétroles (CFP)", Chemie). Zuvor war es in Frankreich in ähnlichen Fällen üblich gewesen, dass der Staat einer einzelnen Firma eine exklusive Konzession erteilte. 1946 begann Frankreich ein System der Planification. 1981 kam mit François Mitterrand der erste sozialistische Staatspräsident an die Regierung; er regierte bis 1995 und betrieb zahlreiche Verstaatlichungen. Frankreich ist eine gelenkte Volkswirtschaft, die in den letzten Jahren zunehmend dereguliert und privatisiert wurde. Ein staatlich festgelegter Mindestlohn, der SMIC, sichert den Angestellten einen Stundenlohn von 8,86 Euro. Die französischen Exporte entstammen größtenteils dem Maschinenbau, der Automobilindustrie, der Luft- und Raumfahrttechnik, der Pharmaindustrie, der Elektronik, dem Weinbau und der Lebensmittelbranche. Auch der Tourismus und die Luxusgüterindustrie spielen eine große Rolle. Das Bruttoinlandsprodukt (BIP) stieg im Durchschnitt der Jahre 1995 bis 2005 um 2,1 Prozent jährlich und erreichte 2005 den Wert von 1689,4 Milliarden Euro. Im Vergleich mit dem Bruttoinlandsprodukt der Europäischen Union, ausgedrückt in Kaufkraftstandards, erreichte Frankreich im Jahr 2003 einen Index von 111,4 (EU-25: 100). Die Erwerbstätigenstruktur hat sich gegenüber früher grundlegend gewandelt. So arbeiteten 2003 nur noch vier Prozent der Erwerbstätigen in der Land- und Forstwirtschaft und Fischerei, in der Industrie waren es 24 Prozent, im Dienstleistungsbereich 72 Prozent. Frankreich exportierte 2003 14,9 Prozent seines Exportvolumens nach Deutschland, das seinerseits am Import mit 19,1 Prozent beteiligt war. Deutschland ist seit vielen Jahren der wichtigste Handelspartner Frankreichs. Frankreich importierte 2009 Waren im Wert von etwa 532,2 Milliarden US-Dollar und exportierte Waren im Wert von ca. 456,8 Milliarden US-Dollar und hat damit ein Handelsbilanzdefizit. 2001 hatte das Defizit erst 5,8 Mrd. Euro betragen; 2011 betrug es 84,5 Mrd. Euro. Wirtschaftspolitisch bedeutend ist Frankreichs Teilnehmerschaft an der Europäischen Union. Das Land ist Gründungsmitglied aller EU-Vorgängerinstitutionen seit den 1950er-Jahren. Mit zusammen rund 500 Millionen Einwohnern erwirtschaftete die Europäische Union 2011 ein nominales Bruttoinlandsprodukt von 17,6 Billionen US-Dollar und bildet somit den größten Binnenmarkt der Welt. Frankreich zusammen mit 18 anderen EU-Staaten auch Teil der Eurozone, einer Währungsunion, die etwa 330 Millionen Einwohner umfasst. Offizielles Zahlungsmittel in Frankreich ist der Euro, dessen Währungspolitik von der Europäischen Zentralbank gesteuert wird. Der Euro wird international mit anteilig rund 30 Prozent als zweitwichtigste Reservewährung der Welt genutzt und ist, gemessen am Bargeldwert, die weltgrößte Währung im Umlauf. Aktuelle Situation. Das Wirtschaftswachstum (Bruttoinlandsprodukt, kurz "BIP") betrug 2012 0,01 %, 2013 0,27 %. Das durchschnittliche Wachstum im Zeitraum 2005–2010 betrug 0,6 %, das bedeutet annähernd Wachstumsstillstand. Die Arbeitslosigkeit betrug im Juli 2014 mit 3,3 Millionen Menschen 10,2 %, ein Allzeithoch seit Aufzeichnungsbeginn 1955. 2014 sind im Vergleich zu 2007 mehr als eine halbe Million Menschen zusätzlich arbeitslos. Die Höhe der Staatsverschuldung beläuft sich 2014 auf 2,018 Billionen Euro. Die Entwicklung der Staatsverschuldung zeigte von 2008 bis 2014 einen Anstieg von 64 % auf 94 % des Bruttoinlandsproduktes. Seit der Einführung des Euro hat Frankreichs Export ein Drittel seiner Weltmarktanteile verloren. Der Industrieanteil am französischen Bruttoinlandsprodukt ging von 18 % auf 12,6 % zurück. Frankreichs Anteil an den weltweiten Exporten ist von mehr als 6 % im Jahr 2000 auf 4 % 2012 gesunken. Der Anteil der Staatsausgaben in Prozent des Bruttoinlandsproduktes beträgt 2012 in Frankreich 57 %. Sie gehören damit zu den höchsten in den Industrieländern. 23 % aller Beschäftigten arbeiten in Frankreich für den öffentlichen Dienst. Die französische Automobilindustrie befindet sich in einer wettbewerbsmäßig schwierigen Lage. 2013 wurden mit knapp 1,8 Millionen Fahrzeugen so viele Einheiten verkauft wie 1997. Die EU unterstützt die Branche massiv. Die Rating-Agentur Standard & Poor’s stufte Frankreich in der Bonität bereits zweimal zurück, zunächst 2012 mit dem Verlust des Triple-A-Status von "AAA" auf "AA+" und im November 2013 nochmals von "AA+" auf "AA". Kultur. In Frankreich hat die Kulturwirtschaft einen erheblich größeren Anteil als in anderen Staaten. Das Gesamtvolumen beträgt 74 Milliarden Euro (Stand 2012), davon werden 61,4 Milliarden direkt erwirtschaftet. Die französische Kulturindustrie ist mit den direkten Erlösen größer als die Automobilbranche oder die Produzenten von Luxusgütern und liegt nur knapp hinter der Telekommunikation. In zentralen Bereichen der Kultur haben große Unternehmen ihren Sitz in Frankreich, so ist die Universal Music Group der größte Musikverlag der Welt, Groupe Lagardère (früher "Hachette") stehen an Nummer zwei der Buchverlage und Ubisoft ist der drittgrößte Anbieter von Computerspielen. Frankreich steht auf Platz zwei der Filmproduktionsländer und ist der viertgrößte Kunstmarkt der Erde. Energierohstoffe. Die Energiewirtschaft Frankreichs beschäftigte 2008 194.000 Personen (0,8 % der Erwerbsbevölkerung) und trug 2,1 Prozent zum BIP bei. Ursprünglich verfügte Frankreich über reiche Kohlevorkommen, die Kohleförderung erreichte jedoch bereits 1958 mit der Förderung von 60 Millionen Tonnen ihren Höhepunkt. 1973 förderte man noch 29,1 Millionen Tonnen, 2004 schloss mit La Houve in Lothringen die letzte Kohlegrube Frankreichs. Kohle wird heute vor allem aus Australien, den USA und Südafrika importiert und in der Stahlindustrie und Wärmekraftwerken (6,9 GW installierte Leistung) verwendet. Frankreich hat sehr geringe Vorkommen an Erdöl und Erdgas, die den Gesamtverbrauch des Landes gerade zwei Monate lang decken könnten. Neben den knapp einer Million Tonnen Öl, die jährlich in Frankreich selbst gefördert werden, wird Erdöl aus dem Nahen Osten (22 %), den Nordsee-Anrainerstaaten (20 %), Afrika (16 %) und der früheren Sowjetunion (29 %) importiert. Insgesamt verbrauchte Frankreich 2008 82 Millionen Öleinheiten an Erdölprodukten, davon knapp die Hälfte für den Verkehr. Die 13 Raffinerien des Landes können 98 Millionen Tonnen Öl jährlich verarbeiten. 22 Prozent des Energieverbrauches wird von Erdgas abgedeckt, vor allem im Wohnbereich und in der Industrie. Das Erdgas im Wert von 26 Milliarden Euro, das Frankreich 2008 importierte, stammte vor allem aus Norwegen, Russland, Algerien und den Niederlanden. Kernenergie. Lage kerntechnischer Anlagen in Frankreich Die Ölpreisschocks der 1970er Jahre veranlassten die Regierung, ein Nuklearprogramm zu initiieren, nach Pierre Messmer auch bekannt als "Messmer-Plan". Die Arbeit an den ersten drei Kernkraftwerken Tricastin, Gravelines und Dampierre begann 1974. Die Wiederaufarbeitungsanlage La Hague wurde 1976 der Staatsfirma Cogema übergeben, um abgebrannte Brennelemente nach dem PUREX-Prozess zu recyceln. Mit dem Bau der Gasdiffusionsanlage Georges Besse I wurde 1975 begonnen, der Betrieb wurde 1979 aufgenommen. Bereits 15 Jahre später waren 56 Reaktoren in Betrieb. Von den 44 Millionen Öleinheiten an Energie, die Frankreich 1973 produzierte, stammten noch neun Prozent aus Atomkraftwerken. 2008 wurden 137 Millionen Öleinheiten produziert, davon waren 84 Prozent aus Atomkraftwerken. Zu Beginn des Jahres 2009 waren in Frankreich 21 Kernkraftwerke mit 59 Reaktoren und einer Gesamtleistung von 63,3 GW am Netz. Die Kernkraftwerke Frankreichs basieren auf vier unterschiedlichen Entwürfen. Die ersten sind Kraftwerke vom Typ CP0, CP1 und CP2, welche etwa 900 MWe Leistung haben und hauptsächlich zwischen 1970 und 1980 errichtet wurden. Gegenüber der CP0- und CP1-Serie wurde bei der CP2-Serie die Redundanz erhöht, ab CP1 kann in Notfällen auch Wasser ins Containment gesprüht werden. Dieser Reaktortyp wurden mehrfach exportiert, zum Beispiel für das Kernkraftwerk Koeberg und Hanul (bis 2013 "Uljin") oder die chinesische CPR-1000-Reaktorbaureihe. Die nachfolgende Baureihe P4 und P’4 liefert etwa 1300 MWe Leistung, das Kernkraftwerk Cattenom gehört zu dieser Bauart. Davon abgewandelt wurde das N4-Design in Civaux und Chooz mit 1450 MW. Die neuste Baureihe ist der EPR, welcher sich mit Kernfänger, Doppelcontainment und gesteigertem Abbrand von den P4- und N4-Kraftwerken unterscheidet. Wegen des hohen Atomstromanteils von ca. 80 Prozent müssen die Kernkraftwerke auch im Mittellastbetrieb betrieben werden. Frankreich besitzt deshalb eines der größten Leitungsnetze in Europa; mehrere Kraftwerke können so gemeinsam Bedarfsschwankungen ausgleichen. Für die Entsorgung radioaktiver Abfälle ist die Agence Nationale pour la Gestion des Déchets Radioactifs verantwortlich. Électricité de France berechnet dafür 0,14 Cent/kWh auf den Atomstrompreis, was mit anderen europäischen Ländern vergleichbar ist. Die Entsorgung von schwach- und mittelradioaktiven Abfällen findet in Soulaines und dem Endlager Morvillier im Département Aube statt, welches etwa 650.000 Kubikmeter aufnehmen kann. Für die Entsorgung des hochradioaktiven Abfalls (hauptsächlich Glaskokillen aus der Wiederaufarbeitung) wird das Tongestein nahe dem Ort Bure im gleichnamigen Felslabor untersucht. Frankreich nimmt auch in der Nuklearforschung eine führende Rolle ein: So beteiligt es sich am Generation IV International Forum und arbeitet auch an der kommerziellen Nutzung der schnellen Spaltung und Kernfusion. Die Aktivitäten sind hauptsächlich in Cadarache gebündelt. An einer Weiterentwicklung der Wiederaufarbeitungstechnik wird ebenfalls gearbeitet, um in Zukunft auch andere Actinoide abtrennen zu können. Laut einem Bericht des Rechnungshofes vom Januar 2012 kosteten die Erforschung, Entwicklung sowie der Bau der französischen Kernkraftwerke insgesamt 188 Mrd. Euro. Diese Kosten konnten bisher durch den Verkauf der Elektrizität zu etwa 75 % amortisiert werden. Da die Kraftwerke größtenteils noch in Betrieb sind, werden diese Kosten aber vermutlich gedeckt werden können, jedoch gebe es kaum Rückstellungen für Folgekosten sowie die nur schwer zu schätzenden Folgen der Endlagerung des Atommülls. Durch den hohen Atomstromanteil profitiert Frankreich erheblich vom EU-Emissionshandel. Von den 442 TWh elektrischer Energie, die 2008 in Frankreich erzeugt wurden, wurden 65 Prozent in den Privathaushalten und im Dienstleistungssektor verbraucht, weitere 27 Prozent in der Industrie (ohne Stahlindustrie). Ende November 2011 machte das Französische Institut für nukleare Sicherheit auf die Notwendigkeit der Sanierung aller in Frankreich stationierten Atomkraftwerke aufmerksam. Nur so könnten mögliche Naturkatastrophen ohne größeres Unheil überstanden werden. Daraufhin wurden von grüner und sozialistischer Seite her Forderungen nach einem vollständigen Atomausstieg laut. Laut Einigung sollen bis 2025 nun 24 der 58 Atommeiler vom Netz gehen. Der 2012 neu gewählte Präsident François Hollande will den Anteil von Atomkraft von heute ca. 75 Prozent auf 50 Prozent reduzieren. In Umfragen spricht sich eine große Mehrheit der Franzosen für den Ausbau der Erneuerbaren Energien aus. In einer jährlichen repräsentativen Umfrage der französischen Umwelt- und Energiebehörde ADEME lag die Zustimmung zum Ausbau Erneuerbarer Energien in Frankreich bei 96 Prozent (2011). Stromhandelsbilanz. Marktführer bei der Erzeugung elektrischer Energie ist der staatlich dominierte Konzern Électricité de France. Frankreich ist im Jahresmittel Nettostromexporteur, 2008 wurden 50 TWh an die Nachbarländer verkauft, größte Abnehmer sind Italien und Großbritannien. Da in Frankreich sehr viele Elektroheizungen installiert sind, steigt der Strombedarf während der kalten Jahreszeit stark an; während der Kältewelle 2012 erreichte die Stromnachfrage einen Höchststand von 102,1 GW, wovon knapp die Hälfte des Bedarfs auf Elektroheizungen entfiel. Im Winter importiert das Land deshalb insbesondere während der Jahreshöchstlast netto mehr Strom aus anderen Staaten wie Deutschland, als es dorthin exportiert. In der Bilanz fallen für Frankreich insgesamt Importe von 8,7 Terawattstunden aus Deutschland an, wie aus der Jahresbilanz 2012 des französischen Stromnetzbetreibers RTE hervorgeht. Zu Spitzenlastzeiten sei der Strom aus deutschen Photovoltaikanlagen für Frankreich günstiger als aus seinen eigenen, oft überlasteten Atomreaktoren. Diese Entwicklung führte inzwischen zu einer öffentlichen Debatte über die Energiepolitik. Das der französischen Regierung unterstellte Zentrum für strategische Analysen kommt mittlerweile zu dem Schluss, der Ausbau der erneuerbaren Energien im Nachbarland Deutschland sichere nicht nur den Klimaschutz, sondern auch die energetische Unabhängigkeit des Landes. Energiewende in Frankreich. Erneuerbare Energieträger spielen in Frankreich bisher nur im Bereich der Wasserkraft eine Rolle, die Nutzung der Windenergie und Photovoltaik wurden erst in den letzten Jahren politisch gefördert. 2009 wurden 5,5 Prozent der Primärenergie aus Wasserkraftwerken, 8,7 Prozent aus Holz, 2,1 Prozent aus sonstiger Biomasse, 1,2 Prozent aus Abfall und 0,49 Prozent aus Windenergie gewonnen. 2012 lag der Anteil der Windenergie bereits bei 2,7 %. 2014 waren Windkraftanlagen mit einer Nennleistung von ca. 9,3 GW installiert. Im Jahre 2011 lieferte Frankreich unter den Mitgliedstaaten der Europäischen Union mit seiner Wasserkraft einen erheblichen Anteil zur Versorgung aus erneuerbaren Energiequellen: Es wurden 44,8 TWh erzeugt – das entspricht rund 15 % der insgesamt in den EU-Ländern erzeugten Energie aus Wasserkraft. Rund 13 % der elektrischen Energie stammen aus erneuerbaren Energiequellen. Im südöstlichen Teil des Landes befindet sich die Roselend-Talsperre, deren Wasserkraftwerk jährlich 1070 GWh produziert. Die Talsperre Grand-Maison mit einer Pumpleistung von 1800 MW gehörten zu den größten dieser Art auf der Erde. Im Oktober 2014 wurde im französischen Parlament mit 314 zu 219 Stimmen ein Energiewende-Gesetz beschlossen. Es sieht vor, den Anteil der Kernenergie am Strommix bis 2025 auf 50 % zu reduzieren, aktuell sind es ca. 75 %. Die Leistung der Kernkraftwerke wurde auf maximal 63,2 Gigawatt gedeckelt. Zudem soll die Gebäudeisolation stark verbessert werden, eine Million Ladestationen für Elektroautos geschaffen werden und die Erneuerbaren Energien stark ausgebaut werden. Dadurch soll der Treibhausgas-Ausstoß bis 2030 um 40 Prozent sinken. Der Gesamtenergieverbrauch soll bis 2050 auf die Hälfte des heutigen Wertes sinken. Straßenverkehr. Ein dichtes Autobahnnetz verbindet in erster Linie den Großraum Paris mit den Regionen. Zu seiner Erschaffung seit den 1960er Jahren wurde zunächst in erster Linie das auf Paris zulaufende Netz der Nationalstraßen ausgebaut. Nach und nach werden in jüngerer Zeit auch Querverbindungen zwischen den einzelnen Großräumen geschaffen. Die Verkehrswege Frankreichs gehören dem Staat, die meisten Autobahnstrecken werden seit 2006 aber privat betrieben, an Mautstellen müssen alle Benutzer Maut zahlen. Nur wenige Abschnitte sind mautfrei, zum Beispiel die neue A75 oder die elsässische A35. Ebenso verfügt die Bretagne über ein Netz mautfreier autobahnähnlicher Schnellstraßen. Zudem sind die Autobahnen im Bereich großer Ballungszentren normalerweise nicht mautpflichtig; dabei gilt aber wiederum die Ausnahme, dass bestimmte, besonders aufwendige Abschnitte auch innerhalb des Großstadtbereichs Maut kosten (z. B. Nordumgehung von Lyon oder im Raum Paris die A14 und der Doppelstocktunnel im westlichen Teil der A86). Schienenverkehr. Der öffentliche Nahverkehr ist in großen Zentren hervorragend ausgebaut. In Paris ist kein Ort weiter als 500 Meter von einer Station der Métro entfernt. Auch in anderen Städten werden die U-Bahnen mit großem Aufwand ausgebaut, zum Beispiel in Lyon, Lille, Marseille oder Toulouse. Außerhalb der großen Zentren wird der Nahverkehr hingegen nur spärlich betrieben. Landesweit wurde seit Anfang der 1980er Jahre das Netz des Hochgeschwindigkeitszugs Train à grande vitesse (TGV) konsequent ausgebaut. Das Netz wird weiter ausgebaut und erreicht dabei auch zunehmend die Nachbarländer. Für Deutschland ist vor allem der Neubau der "Ligne à grande vitesse" (LGV, deutsch: "Hochgeschwindigkeitsstrecke") Est européenne Richtung Straßburg und Süddeutschland beziehungsweise Richtung Saarbrücken und Mannheim relevant. Der Thalys verbindet Paris mit Brüssel, Aachen und Köln. Seit 2003 muss sich die Staatsbahn Société Nationale des Chemins de fer Français (SNCF) privater Konkurrenz stellen. De facto hat sie landesweit noch ein Fast-Monopol. Luftverkehr. Der Luftverkehr ist in Frankreich stark zentralisiert: Die beiden Flughäfen der Hauptstadt Paris (Charles de Gaulle und Orly) fertigten 2008 gemeinsam 87,1 Millionen Fluggäste ab. Charles de Gaulle ist dabei der zweitgrößte Flughafen Europas und zentrales Drehkreuz der Air France. Er wickelt auch praktisch den gesamten Langstreckenverkehr ab. Die größten Flughäfen außerhalb von Paris sind jene von Nizza mit zehn Millionen Passagieren, danach folgen Lyon und Marseille. Air France, die führendes Mitglied der Allianz SkyTeam ist, fusionierte 2004 mit KLM zu Air France-KLM und ist seitdem eine der größten Fluggesellschaften der Welt. Schiffsverkehr. Frankreich hat die natürlichen und künstlichen Binnenwasserstraßen (Flüsse und Kanäle) aus wirtschaftlichen und militärischen Beweggründen in seiner Geschichte stark entwickelt und ausgebaut. Seine Hochblüte erlebte das Wasserwegenetz im 19. Jahrhundert mit einer Länge von 11.000 Kilometern. Durch Konkurrenz von Schiene und Straße ist es bis heute auf rund 8500 Kilometer zurückgegangen. Es wird zum Großteil von der staatlichen Wasserstraßenverwaltung Voies navigables de France (VNF) verwaltet und betrieben. 2007 wurden von der Frachtschifffahrt auf Frankreichs Wasserstraßen Güter mit einem Gesamtgewicht von 61,7 Millionen Tonnen befördert. Bezieht man die Distanz in die Statistik ein, ergibt sich ein Wert von 7,54 Milliarden Tonnen-Kilometer. Über die letzten zehn Jahre bedeutet dies eine Steigerung um 33 Prozent. Die Personenschifffahrt hat heute nur noch touristische Bedeutung, ist aber ein aufstrebender Wirtschaftsfaktor. Der Canal Seine-Nord Europe (CSNE) war das Projekt eines 106 Kilometer langen Kanals in Süd-Nord-Richtung durch Nordfrankreich zwischen den Einzugsgebieten der Flüsse Seine und Schelde. Das Projekt war in den Verkehrswegeplan der Europäischen Union aufgenommen, wurde jedoch 2013 eingestellt. Kultur. Frankreich leitet seinen Rang in Europa und der Welt auch aus den Eigenheiten seiner Kultur ab, die sich insbesondere über die Sprache definiert (Sprachschutz- und -pflegegesetzgebung). Frankreich sieht sich selbst "nicht" als "Grande Nation". In der Medienpolitik wird die eigene Kultur und Sprache durch Quoten für Filme und Musik gefördert. Frankreich verfolgt in der Europäischen Union, der UNESCO und der Welthandelsorganisation (WTO) mit Nachdruck seine Konzeption der Verteidigung der kulturellen Vielfalt („diversité culturelle“): Kultur sei keine Ware, die schrankenlos frei gehandelt werden kann. Der Kultursektor bildet daher eine Ausnahme vom restlichen Wirtschaftsgeschehen („exception culturelle“). Landesweite Pflege und Erhalt des reichen materiellen kulturellen Erbes wird als Aufgabe von nationalem Rang angesehen. Dieses Verständnis wird durch staatlich organisierte oder geförderte Maßnahmen, die zur Bildung eines nationalen kulturellen Bewusstseins beitragen, wirksam in die Öffentlichkeit transportiert. Im jährlichen Kulturkalender fest verankerte Tage des nationalen Erbes, der Musik oder des Kinos beispielsweise finden lebhaften Zuspruch in der Bevölkerung. Großzügig zugeschnittene kulturelle Veranstaltungen entsprechen dem Selbstverständnis Frankreichs als Kulturnation und von Paris als Kulturmetropole. Die Förderung eines kulturellen Profils der regionalen Zentren in der Provinz wird verstetigt. Küche. Die französische Küche ("Cuisine française") gilt seit der frühen Neuzeit als einflussreichste Landesküche Europas. Sie ist sowohl für ihre Qualität als auch ihre Vielseitigkeit weltberühmt und blickt auf eine lange Tradition zurück. Das Essen ist in Frankreich ein wichtiger Bereich des täglichen Lebens und die Pflege der Küche ein unverzichtbarer Bestandteil der nationalen Kultur. Das "„gastronomische Mahl der Franzosen“" wurde 2010 als immaterielles Weltkulturerbe von der UNESCO anerkannt. Architektur. Die ältesten architektonischen Spuren in Frankreich hinterließen die Römer vor allem in Südostfrankreich, wie beispielsweise das Amphitheater von Nîmes oder die Pont du Gard. Nach dem Zerfall der römischen Herrschaft wurden zunächst keine Bauwerke errichtet, die bis heute erhalten geblieben sind. Aus dem Mittelalter sind vor allem Sakralbauten erhalten geblieben, wie das Baptisterium Saint-Jean aus der Zeit der Karolinger, Kirchen in romanischem Stil wie St-Sernin de Toulouse, Ste-Foy de Conques oder Ste-Marie-Madeleine de Vézelay sowie Kirchen in gotischem Stil wie die Kathedrale von Beauvais. Daneben wurden Festungsstädte wie Carcassonne oder Aigues-Mortes errichtet. Als die Renaissance auch in Frankreich aufkam, interpretierten die französischen Architekten diese Kunstform auf ihre Weise und errichteten zahlreiche Schlösser im ganzen Land. Das Schloss Ancy-le-Franc blieb das einzige vollständig von Italienern durchgeführte Bauwerk. Der Absolutismus führte dazu, dass der klassizistische Barock in ganz Frankreich bestimmend wurde, um die Macht des Königs zu symbolisieren. Zu den bedeutendsten Bauwerken dieser Zeit zählen der Louvre und Schloss Versailles, diese wurden auch zu Vorbildern für Bauwerke im Ausland, etwa Schloss Sanssouci. Der technische Fortschritt ermöglichte es, Gebäude wie das Panthéon zu errichten, das für damalige Verhältnisse sehr wenig Baumaterial im Verhältnis zum umfassten Raum benötigte. In der Zeit nach der Französischen Revolution herrschte der Klassizismus mit kühler, disziplinierter und eleganter Architektur; Beispiele hierfür sind der Arc de Triomphe oder die Kirche La Madeleine in Paris. 1803 wurde die Académie des Beaux-Arts gegründet, französische Architektur wurde erneut in zahlreichen Ländern imitiert, besonders in den USA, gleichzeitig wurden in Frankreich neue Baumaterialien eingeführt; es entstanden Monumente wie der Eiffelturm oder der Pariser Zentralmarkt Les Halles und man begann mit der Restaurierung von Baudenkmälern. Zu Beginn des 20. Jahrhunderts kam zunächst der Jugendstil auf, aus dem sich in Frankreich rasch das Art Déco entwickelte. In diesen Stilrichtungen sind zahlreiche Eingänge von Métrostationen in Paris sowie das Théâtre des Champs-Élysées erhalten. Der Internationale Stil, der maßgebend von Le Corbusier mitgetragen wurde, zeichnete sich durch unverzierte geometrische Formen aus, Beispiel ist die Villa Savoye. Nach dem Zweiten Weltkrieg wurden einige prestigeträchtige Bauten in Frankreich erstmals durch Ausländer verwirklicht, wie das Centre Pompidou oder die Pyramide im Louvre. Zu den neuesten architektonischen Errungenschaften Frankreichs gehören schließlich das Institut du monde arabe und die Bibliothèque Nationale François Mitterrand. Film. Frankreich gilt als der Geburtsort des Filmes. Im Jahre 1895 veranstalteten die Brüder Lumière in Paris die erste kommerzielle Filmvorführung. Industrielle wie Charles Pathé und Léon Gaumont investierten große Summen in die Technik und Herstellung, so dass französische Unternehmen den Weltmarkt für Filme dominierten; in Paris gab es 1907 bereits mehr als 100 Vorführungshallen, 1920 waren es in Frankreich schon mehr als 4500. Auf Pathé geht auch die bis heute übliche Praxis des Filmverleihs zurück, seit er 1907 entschied, Filme nicht mehr als Meterware zu verkaufen. Der Ausbruch des Ersten Weltkrieges und der damit verbundenen Flucht zahlreicher Filmschaffender in die USA sowie die Einführung der Tonfilm-Technik, die in Frankreich zunächst nicht eingeführt wurde, führten dazu, dass sich der Schwerpunkt der Filmproduktion in die Vereinigten Staaten verlagerte. Die 1930er Jahre gelten als "Goldenes Zeitalter" des französischen Films. Die Weltwirtschaftskrise bedingten niedrige Budgets, junge Regisseure wie Jean Renoir, René Clair und Marcel Carné und Stars wie Jean Gabin, Pierre Brasseur und Arletty brachten sehr kreative und teils auch sehr politische Werke hervor (Poetischer Realismus). Auch nach Ausbruch des Zweiten Weltkrieges florierte der Film; die Vichy-Regierung gründete mit der "Comité d’organisation de l’industrie cinématographique" die Vorläuferorganisation des heutigen CNC. Trotz Mangelwirtschaft, Zensur und Emigration entstanden etwa 220 Filme, die sich vor allem auf die Ästhetik des gezeigten konzentrierten. Nach 1945 setzt sich die französische Regierung das Ziel, die Filmindustrie wieder aufzubauen. Um die Dominanz des amerikanischen Films zu brechen, werden im Blum-Byrnes-Abkommen Einfuhrquoten festgelegt. Die Internationalen Filmfestspiele von Cannes werden gegründet, eine Zusammenarbeit mit Italien vereinbart und gesetzliche und finanzielle Unterstützungen beschlossen. In den 1950er Jahren wurden vor allem Literaturverfilmungen mit großem Augenmerk auf die Qualität "(cinéma de papa)" produziert, bis 1956 die weibliche Sexualität mit dem Auftauchen eines neuen Stars, Brigitte Bardot, filmfähig gemacht wurde. Die Nouvelle Vague, die ab dem Ende der 1950er Jahre von einer Generation junger Regisseure wie Jean-Luc Godard, François Truffaut, Jacques Rivette, Claude Chabrol und Louis Malle getragen wurde, brachte Anti-Helden auf die Leinwand, thematisierte deren intime Gedanken, machte Filme mit hohem Tempo und offenen Enden. Neue Technik ermöglichte eine neue Ästhetik und erlaubte es Halb-Profis, mit niedrigem Budget Filme zu verwirklichen. Die Kreativität der Nouvelle Vague war international äußerst einflussreich und wurde durch die Einrichtung der "Cinémas d’art et d’essai" noch gefördert. Popularität erlangten auch die Protagonisten zahlreicher Filme der Nouvelle Vague, vor allem Jean-Pierre Léaud und Jean-Paul Belmondo. Das Jahr 1968 brachte auch im französischen Film eine Zäsur, die zu stark politischen Filmen und zu einer stärkeren Präsenz von Frauen im Metier führte. Gleichzeitig setzte sich das Fernsehen durch; dies brachte neue Strukturen bei der Finanzierung und Distribution von Filmen mit sich. In den 1980er Jahren investierte die neue sozialistische Regierung stark in die Kultur; Budgets für Filmproduktionen stiegen, während gleichzeitig die amerikanische Vorherrschaft bekämpft wurde. Es kam zu aufwendigen Verfilmungen von Literaturklassikern. Parallel kam die Strömung des unpolitischen "cinéma du look" auf, in dem Farben, Formen und Stil die Handlung überdeckten. Sport. Anders als in vielen anderen Ländern Europas ist der Fußball in Frankreich bis heute nicht die unangefochtene Nummer eins unter den Sportarten. Besonders Rugby ist im Südwesten des Landes populärer. Das Interesse am Fußball hängt sehr stark mit der Leistung französischer Mannschaften auf internationaler Ebene zusammen. Als identitätsstiftendes Band gerade zwischen den verschiedenen sozialen und ethnischen Gruppen Frankreichs gilt die französische Fußball-Nationalmannschaft. Die "Équipe Tricolore" (in Frankreich meist "les Tricolores" genannt) trägt ihre Heimspiele meist im Stade de France in Saint Denis bei Paris aus. 1998 wurde in Frankreich die Fußball-Weltmeisterschaft ausgetragen. Im Endspiel gegen Brasilien gewann der Gastgeber das Turnier. Ähnlich populär dem Fußball ist Rugby Union. Gerade in den südlichen und südwestlichen Regionen ist Rugby tatsächlich der weitaus beliebteste Sport. Die höchste Liga ist die Top 14. Das Meisterschaftsendspiel findet jährlich im Stade de France statt. Die Nationalmannschaft, von den Fans "Les Bleus" genannt, was später auch auf die Fußballequipe übertragen wurde, gilt seit Jahrzehnten kontinuierlich als eines der besten Teams der Welt und war bislang bei jeder Weltmeisterschaft mindestens ins Viertelfinale vorgedrungen. Insgesamt wurde sie zweimal Vizeweltmeister und errang einmal den dritten Platz. Nationalstadion ist das "Stade de France" in St. Denis nahe Paris. Die besten Vereinsmannschaften der letzten Jahre sind Stade Toulousain, das insgesamt 16 Mal die französische Meisterschaft und dreimal den europäischen Heineken Cup gewinnen konnte, der aktuelle Meister Stade Français aus Paris mit 13 Meisterschaftserfolgen und der Meister der beiden Vorjahre Biarritz Olympique mit fünf nationalen Meistertiteln. In der Zeit vom 7. September bis zum 20. Oktober 2007 fand erstmals die Rugbyweltmeisterschaft in Frankreich statt, und man zählte "Les Bleus" zu den Hauptfavoriten auf den Titel. Allerdings kamen sie nicht über einen vierten Platz hinaus. Weltmeister wurde Südafrika. Weitere populäre Sportarten sind der Radsport (insbesondere im Juli, während der dreiwöchigen Tour de France), Leichtathletik, Formel 1 (Großer Preis von Frankreich in "Magny Cours"), Pétanque (Mondial la Marseille à Pétanque), Judo, Handball, Basketball und alpiner Skisport. Großer Beliebtheit erfreut sich in den vergangenen Jahren auch Tennissport. 1997 und 2003 konnten die Französischen Tennisdamen den Fed Cup gewinnen. Die French Open zählen als eines der vier Grand-Slam-Turniere zu den Höhepunkten der Tennissaison. In Frankreich fanden bereits mehrmals Olympische Spiele statt: Sommerspiele 1900 und 1924 in Paris, Winterspiele in Chamonix 1924, Grenoble 1968 und Albertville 1992. Im Motorsport ebenfalls erwähnenswert sind das legendäre 24-Stunden-Rennen von Le Mans, der MotoGP-Grand Prix von Le Mans, die ehemalige Formel-1-Rennstrecke Circuit Paul Ricard von Le Castellet nahe Avignon, sowie die Grasbahn von Marmande und die Sandbahn von Morizes, wo im Rahmen der Langbahn-Weltmeisterschaft der Grand Prix von Frankreich ausgefahren wird. Musik. Die französische Musik erreichte im Barock eine erste Blüte und brachte bedeutende Komponisten wie Jean-Baptiste Lully, Marc-Antoine Charpentier (17. Jahrhundert), François Couperin, Jean-Philippe Rameau (18. Jahrhundert), Hector Berlioz, Charles Gounod und Georges Bizet hervor. Die französische klassische Musik galt jedoch als technik- und formenlastig. Den Übergang zur Moderne in gesellschaftspolitischer wie musikalischer Sicht verkörpert Debussy am besten; weiterhin sind Maurice Ravel und der ebenfalls sehr experimentell arbeitende Erik Satie in dieser Epoche bedeutend. Der Beginn der Avantgarde in der Musik wird besonders durch die Groupe des Six eingeleitet. Hauptfigur der zeitgenössischen Musik ist Pierre Boulez. Seit dem Beginn des 20. Jahrhunderts befindet sich die populäre Musik im Aufwind. Das bekannteste einheimische Genre ist das Chanson, eine Liedgattung mit starker Konzentration auf den Text. Zu den wichtigsten Künstlern des Chanson zählen Charles Trenet, Édith Piaf, Gilbert Bécaud, Boris Vian, Georges Brassens, Charles Aznavour oder Yves Montand. Ausländische Musikstile finden ihren Widerhall in Frankreich: Nach dem Ende des Ersten Weltkrieges begann der Jazz die französische Musik zu beeinflussen, mit Django Reinhardt oder Stéphane Grappelli stellte Frankreich auch bedeutende Künstler des Jazz. In der Rock- und Popmusik prägten etwa Daft Punk und Étienne de Crécy den "French House", Gotan Project ist Vorreiter des sogenannten Electrotango und St. Germain steht für eine Kombination von Jazz und House. Ein bekannter Vertreter von Ambient-Musik ist Air. Der Rap wurde in Frankreich adaptiert, erfolgreichster Vertreter des Französischen Hip-Hop ist MC Solaar. Hauptfigur der keltischen Pop ist Nolwenn Leroy. Lokal verbreitete Musikstile sind die bretonische Musik, deren bedeutendster Künstler Alan Stivell ist, oder die korsische Musik mit Bands wie I Muvrini. Zahlreiche afrikanische und maghrebinische Künstler leben und arbeiten in Frankreich, so gibt es eine lebendige Raï-Szene und zahlreiche Veranstaltungen mit afrikanischer Musik. Die fünf Musiker, die zwischen 1955 und 2009 die meisten Platten in Frankreich verkauften, sind Claude François, Johnny Hallyday, Sheila, Michel Sardou und Jean-Jacques Goldman. Französischsprachige Presse. Die wichtigsten französischen Druckmedien sind die nationalen Tageszeitungen "Le Figaro" (konservativ, Auflage: 315.400 Exemplare), "Le Monde" (linksliberal, Druckauflage 2009–2010: 285.500 Exemplare), "Libération" (linksorientiert, 111.700 Exemplare), "La Croix" (katholisch, 95.100 Exemplare), "L’Humanité" (kommunistisch, 50.000 Exemplare), "Les Échos" und "La Tribune" (Wirtschaft, 120.400 bzw. 68.100 Exemplare) und "L’Équipe" (Sport, 310.000 Exemplare). Die wichtigsten Nachrichtenmagazine in Frankreich sind "L’Obs" (400.000 Exemplare), "L’Express" (438.700 Exemplare), "Le Point" (407.700 Exemplare) und "Marianne". Die größte Regionalzeitung ist die "Ouest-France" mit einer Druckauflage von 758.500 Exemplaren. Bedeutend ist auch das jeweils mittwochs erscheinende Investigations- und Satireblatt "Le Canard enchaîné" mit einer Auflage von 550.000 Exemplaren. Nicht-französischsprachige Presse. Die einzige komplett deutschsprachige Zeitung ist die „Riviera-Côte d’Azur-Zeitung“ in Nizza, die sich vornehmlich an Touristen richtet. Im Elsass und in Lothringen mussten alle deutschsprachigen Tages- und Wochenzeitungen aufgeben, da sie in der Vergangenheit durch viele staatliche Restriktionen Leser verloren hatten. Noch bis 1984 war in Ostfrankreich die Herausgabe von Publikationen mit deutschem Titel oder komplett deutschem Inhalt bei Strafe verboten. Es ist allerdings in jüngster Zeit eine leichte Renaissance der muttersprachlichen Presse im Elsass zu beobachten. Die wichtigste gedruckte Informationsquelle für die deutschsprachigen Elsässer ist derzeit die tägliche mehrseitige deutschsprachige Beilage der Zeitungen "L’Alsace" (Mülhausen) und "Dernières Nouvelles d’Alsace" (Straßburg). Fernsehen. Wie in vielen anderen europäischen Ländern besteht auch in Frankreich eine Co-Existenz von öffentlich-rechtlichen und privaten Fernsehsendern. Zur 1992 gegründeten öffentlich-rechtlichen Rundfunkanstalt "France Télévisions" gehören die Sender France 2, France 3, France 4, France 5 und France Ô. Weiterhin gibt es mit TV5 Monde und ARTE zwei weitere Sender, an denen "France Télévisions" beteiligt ist. TV5 Monde ist ein französischsprachiges Gemeinschaftsprogramm der Staaten Frankreich, Belgien, dem französischsprachigen Teil Kanadas und der Schweiz. ARTE ist ein deutsch-französischer Sender, der von ARTE France zusammen mit den deutschen Rundfunkanstalten ARD und ZDF betrieben wird. "France Télévisions" ist darüber hinaus an dem Nachrichtensender Euronews beteiligt. Der größte Fernsehsender Frankreichs ist der Privatsender TF1, der bis 1987 noch öffentlich-rechtlich war. TF1 ist außerdem alleiniger Gesellschafter des Sportsenders Eurosport. Seit Dezember 2006 sendet der von TF1 und France Télévisions produzierte französische Nachrichtensender France24. Hörfunk. Dem öffentlich-rechtlichen Radio France steht eine Vielzahl kommerzieller Anbieter gegenüber. Sowohl Radio France als auch die Kommerziellen bieten überregionale und regionale bzw. lokale Dienste an. Soziale Medien. Der Nutzung von sozialen Medien kommt eine immer bedeutendere Rolle zu. Die Bruttoreichweite sozialer Netzwerke betrug per Januar 2011 24,8 Millionen Personen. Bibliotheken. Die Bibliotheken sind weitgehend Mediatheken und konnten in den vergangenen 15 Jahren ihre Benutzerzahl verdoppeln (2005: 21 Millionen; 1989: 10,5). Mehr als 40 Prozent der Franzosen über 15 Jahren sind eingeschriebene Bibliotheksgänger und leihen zu 90 Prozent Bücher aus. Im Angebot sind meist auch CDs und DVDs und Internetnutzung. Feiertage. Liste der landesweit einheitlichen Feiertage. Details und regional zusätzliche Feiertage siehe Geographie Frankreichs. Frankreich liegt im westlichen Europa, grenzt an den Golf von Biscaya und den Ärmelkanal, liegt zwischen Belgien im Norden und Spanien im Süden, südöstlich vom Vereinigten Königreich; grenzt im Südosten an das Mittelmeer und im Osten an Italien, die Schweiz, Deutschland und Luxemburg. Fläche. Die Gesamtfläche Frankreichs einschließlich der Inseln in Europa, jedoch ohne die überseeischen Gebiete beträgt 547.030 km², davon sind 545.630 km² Landfläche und 1400 km² Wasserfläche. Frankreich ist somit der flächenmäßig größte Staat Westeuropas und als interkontinentaler Staat mit Überseedepartements der zweitgrößte Staat Europas nach Russland. Landesgrenzen. 3.427 km am Atlantik und Mittelmeer Vgl. dazu die Orte mit gewerblich genutzten Häfen in der Abfolge der Küstenlinie von Norden nach Westen bzw. Süden etc. Klima. Frankreich liegt zum größten Teil in der gemäßigten Klimazone, der Südosten unterliegt bereits dem Mittelmeerklima. Während dort milde, regenreiche Winter und heiße, trockene Sommer herrschen, ist das Klima im größten Teil von Frankreich abhängig von Lage und Relief. Insgesamt ist das französische Klima fast überall relativ mild. Die Jahresdurchschnittstemperatur liegt zwischen 10 °C (Norden, Lothringen, Jura, in den Alpen auch darunter) und 16 °C (Mittelmeerküste, auf Korsika auch darüber). Die Niederschläge unterschreiten im Pariser Becken und an einigen Küstenstreifen des Mittelmeeres 600 mm, der trockenste Ort ist Colmar im Elsass mit unter 600 mm. Sonst liegen die Werte größtenteils zwischen 700 und 1000 mm. An den Westseiten der Gebirge werden sie teils deutlich überschritten (über 1500 mm in Alpen, Cevennen, Jura, Vogesen). Diese Niederschläge können sehr unterschiedlich verteilt sein. Unter 60 Regentage im Rhonedelta stehen in deutlichem Gegensatz zu über 200 Tagen in der Orne (Normandie). Die Sonnenscheindauer ist der Klimazone entsprechend im Mittelmeerraum am höchsten, gefolgt von der Atlantikküste. Die wenigsten Sonnenstunden bezieht ein breiter Streifen von der Bretagne bis zu den nördlichen Vogesen. Auch Paris zählt viele trübe Tage. Der Nordwesten, insbesondere Normandie und Bretagne, ist ozeanisch bis sehr ozeanisch geprägt. Die Niederschlagsmengen erreichen hier in den meisten Gegenden Höhen von 1000 mm und – vor allem an der Küste und an den Wetterseiten der Hügelländer – mehr. Es herrschen Westwinde vor, die Winter sind mild und oft schneefrei. Die Sommer sind relativ kühl und feucht. Der Nordosten weist wesentlich kontinentalere Züge auf. Insbesondere in den rauen Klimaten von Lothringen und der Vogesen können die Winter sehr kalt werden, wobei die Hochflächen (z. B. die Hochebene von Langres) besonders benachteiligt sind. Die Flusstäler von Rhein und Mosel eignen sich dagegen bereits zum Weinbau. Zentralfrankreich mit dem Pariser Becken und dem Loiretal ist insgesamt relativ niederschlagsarm. In Bezug auf Sonnenstunden und Durchschnittstemperatur liegt die Region im Mittel, es können aber durchaus extreme Wetterlagen auftreten. Die Hitzewelle in Europa 2003 war gerade hier besonders ausgeprägt, weil über dem weiten, ebenen Land keine mäßigenden Wirkungen durch Winde oder Wasser möglich waren. In Auxerre hielt sich z. B. die Tageshöchsttemperatur 8 Tage oberhalb von 40 °C. Insgesamt sind die Unterschiede zwischen Sommer- und Wintertemperaturen aber noch deutlich geringer als etwa in Osteuropa; nur dort kann man wirklich von Kontinentalklima sprechen. Deutlich kühler und feuchter ist das Klima im Zentralmassiv, das bis auf 1800 m ansteigen kann. Im Südwesten herrscht Atlantikklima vor, das insgesamt feucht, aber bereits relativ warm und sonnig ist. Niederschlagsmaxima sind insbesondere in der Nähe der Pyrenäen zu finden. Nach der Klassifikation von E. Neef heißt das Klima an der Atlantikküste „maritimes Westseitenklima“ und gehört zur gemäßigten Klimazone; durch den Einfluss des Azorenhochs ist allerdings dort der Sommer relativ trocken; das Niederschlagsmaximum liegt im Herbst oder Winter. Der Mittelmeerraum im Südosten liegt bereits im Winterregenklima, so dass hier schon eine andere Pflanzenwelt vorherrscht (Garigue, sommertrockener Wald). Im Sommer können Dürren und Waldbrände auftreten. Abkühlung verschafft dort besonders im Einzugsbereich der Rhône der Mistral, ein gelegentlich starker, kalter, trockener nord-nordwestlicher Wind, der auch die Waldbrände anfachen kann. Ein Hochgebirgsklima ist naturgemäß in den höheren Lagen von Alpen und Pyrenäen zu finden. Relief. Frankreichs Landschaftsbild prägen überwiegend flache Ebenen oder sanfte Hügel im Norden und Westen. Der Rest ist gebirgig, insbesondere die Pyrenäen im Südwesten, das Zentralmassiv und die Alpen im Südosten. Les Moëres (bei Dunkerque) -4 m Mont Blanc 4.810 m Flüsse. Die wichtigsten Flüsse und Städte Frankreichs "siehe auch:" Liste der Flüsse in Frankreich, Natürliche Ressourcen. Kohle, Eisenerz, Bauxit, Zink, Kaliumkarbonat, Nickel Landnutzung. a> 2006; urbane Siedlungsgebiete in rot). Gut zu erkennen ist der Grossraum Paris. Umweltprobleme. Eines der gewichtigsten Probleme ist die Wasserverschmutzung – teils durch urbane Abwässer – aber insbesondere dort, wo die Landwirtschaft intensiv ist (Überdüngung) (v.a. Bretagne) oder das Wasser knapp (Midi – v.a. südliches Zentralmassiv). Der Schutz der Küsten (Littoral) ist ein wichtiges Thema. Luftverschmutzung durch Industrie und Verkehr (Ozon-Belastung bei starkem Sonnenschein) stellt ein weiteres Problem dar, (einige) Wälder sind vom sauren Regen geschädigt, doch ist dieses Problem nicht so stark zum Tragen gekommen, wie in Mittel- oder Nordeuropa. Allerdings sind die Emissions-Folgen der Energiegewinnung nicht so deutlich wegen des hohen Kernenergieanteils in der französischen Stromproduktion. Hieraus ergeben sich jedoch wieder verstärkt – insbesondere weil Frankreich auch noch als ein europäisches Zentrum der Atomindustrie fungiert – die üblichen Probleme der schwer zu erfassenden Folgen der Niedrigstrahlung und der ungelösten Endlagerung. Besonders deutlich wird dieses Problem im Falle der französischen Anlage zur Aufbereitung von Kernbrennstäben in La Hague in der Normandie. Die Umweltdebatte in Frankreich macht sich immer wieder an symbolischen Großprojekten fest - nach dem (neben den anderen Kernkraftwerken) Brutreaktor in Creys-Malville in den Siebzigern, war dies in den Achtzigern das (gestoppte) Projekt eines Stausees an der oberen Loire (Serre de la Fare) und in den Neunzigern zunächst der Bau eines Tunnels unter den Pyrenäen (Tunnel du Somport, Vallée d´Aspe) und ein Projekt zur Verbindung von Rhein und Rhone durch einen großen Kanal. Im neuen Jahrtausend kam die Erforschung einer Endlagerstätte für Atommüll in Tiefengestein in Bure in Südlothringen (unweit von Domrémy-la-Pucelle, dem Geburtsort Jeanne d´Arcs) hinzu. Weblinks. ! Fear, Uncertainty and Doubt. Als Fear, Uncertainty and Doubt (für "Furcht, Ungewissheit und Zweifel"), meist abgekürzt als FUD, wird eine Werbe- oder Kommunikationsstrategie bezeichnet, die der gezielten Bekämpfung eines (in der Regel wirtschaftlichen oder politischen) Konkurrenten dient, insbesondere, wenn dieser bislang ein gutes Image hat. Auch zur Kommentierung von Einschüchterungsversuchen durch Unternehmen, Verbände oder staatliche Behörden wird die Formel benutzt. Geprägt haben soll diesen Begriff Gene Amdahl, nachdem er IBM verlassen hatte, um seine eigene Firma Amdahl Corporation zu gründen. Er soll damals über IBM-Vertriebsmitarbeiter gesagt haben, es seien Furcht, Ungewissheit und Zweifel, die sie potenziellen Amdahl-Kunden vermittelten. Ziel. Das Ziel ist es, beim Informationsempfänger (zum Beispiel Kunden, Wähler) jene "Furcht, Ungewissheit und Zweifel" gegenüber einem Konkurrenten oder dessen Produkten hervorzurufen (Propaganda). Hierbei wird ausgenutzt, dass Angstgefühle beim Menschen irrational begründet sind und selbst nachweislich falsche Informationen zu Unsicherheiten führen können. Vorgehen. Man bedient sich dabei gezielter, aber dennoch subtiler und eher unterschwelliger Desinformation, zum Beispiel in Pressemeldungen. Häufig werden diese über scheinbar neutrale Quellen („Third-Party Strategy“) verbreitet, deren Verbindung zum eigentlichen Urheber nicht sofort ersichtlich ist. Panikmache oder Fehlinformation zur Unterbindung bestimmter Handlungen gehört ebenfalls in den Bereich des FUD. Hier ist der jeweilige Konkurrent das Opfer, der Informationsempfänger nur Mittel zum Zweck. So werden bisweilen Produkte verfrüht angekündigt, lediglich um Kunden vom Kauf von Konkurrenzprodukten abzuhalten (Vaporware). Befürworter freier Inhalte weisen gelegentlich angeblichen Rechteinhabern, die sich besonderer Schutzrechte berühmen, nach, durch eine FUD-Strategie Nutzer einzuschüchtern und von der Nutzung an sich freier Werke abzuhalten. Auch bei Rechtsstreitigkeiten kann das Mittel FUD eingesetzt werden, vor allem in Verbindung mit hohen Streitwerten und unerfahrenen Gegnern. Hier bilden Informationsempfänger und Opfer eine Einheit, beispielsweise bei einer Abmahnwelle gegen private Betreiber von Websites. Abwehr. Eine mögliche Verteidigung gegen alle genannten Angriffsarten ist die Veröffentlichung der Tatsachen seitens des Opfers. Im Deutschen kommen die Bezeichnungen "Hetz- bzw. Schmutzkampagne" der Bedeutung von FUD nahe und ist im geschäftlichen Bereich als unlauterer Wettbewerb einzustufen. Dokumentarfilm. Der Schweizer Unternehmer und Programmierer Michael Wechner drehte 2005 einen Dokumentarfilm unter dem Titel "FUD – Fear Uncertainty Doubt", in dem ein Stimmungsbild der Open-Source-Szene am Beispiel der Apache Group gezeichnet wird. Frankenthal (Pfalz). Die kreisfreie Stadt Frankenthal (Pfalz) im Nordosten der rheinland-pfälzischen Region Pfalz liegt zwischen den Städten Worms und Ludwigshafen. Sie zählt zu den traditionsreichsten Städten im Rhein-Neckar-Raum und entwickelte sich im Bannkreis der alten Kulturzentren Worms, Heidelberg und Speyer. Frankenthal als Mittelzentrum für die umliegenden Gemeinden gehört zur Metropolregion Rhein-Neckar und bildet mit einer großen Anzahl von benachbarten Kommunen den vorher als "Rhein-Neckar-Dreieck" bekannten Wirtschaftsraum. Geographische Lage. Die Stadt liegt in der Oberrheinischen Tiefebene zwischen dem Pfälzerwald im Westen und dem Odenwald im Osten. Durch Frankenthal fließt die Isenach, die sechs Kilometer weiter in den Rhein mündet, ihr früherer linker Zufluss Fuchsbach ist im Stadtgebiet verrohrt. Auf der Gemarkung der Stadt liegt der tiefste Punkt der Pfalz (). Dieser befindet sich nur wenige hundert Meter vom Rhein entfernt auf einem Acker des "Klosgartenhofes", eines landwirtschaftlichen Betriebes im nordöstlichen Vorort Mörsch an der Grenze zum Ludwigshafener Stadtteil Pfingstweide. Den höchsten Punkt der Stadt bildet mit der "Monte Scherbelino", ein kleiner Hügel am städtischen Strandbad, der aus einer Mülldeponie hervorgegangen ist. Klima. Der Jahresniederschlag beträgt 528 mm. Dies ist ein sehr niedriger Wert, der im unteren Zehntel der in Deutschland erfassten Werte liegt; nur an 6 Prozent der Messstationen des Deutschen Wetterdienstes werden noch geringere Niederschläge registriert. Der trockenste Monat ist der Februar, die meisten Niederschläge fallen im Juni, nämlich 2,4-mal mehr als im Februar. Die Niederschläge variieren stark, lediglich 28 Prozent der Messstationen verzeichnen noch höhere jahreszeitliche Schwankungen. Stadtgliederung. Die Stadt Frankenthal (Pfalz) besteht aus der Kernstadt und vier Ortsbezirken, die früher eigenständige Dörfer waren. Chronik. Bei Grabungen auf dem Strandbadgelände im Jahr 1961 wurden Mammutknochen und menschliche Schädelfragmente entdeckt. Diese etwa 25.000 Jahre alten Knochen aus der Steinzeit werden dem Homo heidelbergensis zugeordnet. Bei weiteren Ausgrabungen im Stadtgebiet wurden Werkzeuge, zum Beispiel ein Glockenbecher, gefunden, die auf den Zeitraum zwischen 4000 bis 1800 v. Chr. datiert wurden, der zur Jungsteinzeit gehört. Bei Kanalisationsarbeiten in der Nähe der Friedrich-Ebert-Schule wurde ein bronzezeitliches Gräberfeld entdeckt, das aus der Zeit zwischen 1800 und 1200 v. Chr. stammt. Die Gräber waren mit reichhaltigen Beigaben, darunter eine Prunkaxt, versehen. Die Gegenstände wurden dem keltischen Volk der Mediomatriker zugeordnet. Zahlreiche Funde von Terra-Sigillata-Gefäßen in der Nähe des Rheins deuten auf eine kurzzeitige römische Besiedlung während der Eisenzeit hin. Erstmals erwähnt wurde die Gemeinde, die ursprünglich "Franconodal" hieß und eine fränkische Gründung aus dem späten 5. Jahrhundert ist, in einer mittelalterlichen Schenkungsurkunde des Klosters Lorsch vom 20. September 772. In einer weiteren Schenkungsurkunde an das Kloster Weißenburg aus dem Jahre 812 wurde diesem eine Kirche im Dorf mit Höfen, Weiden und Wiesen übertragen. 886 kam es infolge andauernder Regenfälle zu großflächigen Überschwemmungen durch den Rhein mit dauerhafter Verlagerung seines Flussbetts nach Osten. Die Gründung eines Augustiner-Chorherrenstifts durch den Wormser Adligen Erkenbert im Jahre 1119 und eines Frauenstifts durch seine Gattin "Richlindis" sechs Jahre später führte zu einer grundlegenden Veränderung des dörflichen Lebens. Vor allem das Chorherrenstift entwickelte sich sehr schnell zu einem wirtschaftlichen und kulturellen Zentrum, das in die gesamte Region ausstrahlte. Frankenthal erlebte seine erste Blütezeit. Von besonderer Bedeutung war das Skriptorium des Klosters, in dem zahlreiche kunsthistorisch wertvolle Handschriften entstanden, so die Frankenthaler Bibel. Während das Frauenstift bereits im 15. Jahrhundert geschlossen wurde, bestand das Chorherrenstift bis ins 16. Jahrhundert. 1562 wurde es allerdings durch Kurfürst Friedrich III. aufgelöst und einer Gruppe flämischer Flüchtlinge zur Verfügung gestellt, die ihre Heimat wegen ihres reformierten Glaubens hatten verlassen müssen. Unter den Mitgliedern der Gemeinde befanden sich zahlreiche Kaufleute, Gold- und Silberschmiede, Gobelinwirker, Textilfabrikanten und Maler. Zu dieser Zeit entstand die Frankenthaler Malergruppe, zu der Gillis van Coninxloo, Anton Mirou, Pieter Schoubroeck, Henrick Gijsmans und Hendrick van der Borcht (der Ältere) gehörten. Die Gemeinde der Flüchtlinge prosperierte schnell und trug maßgeblich dazu bei, dass Frankenthal bereits im Jahre 1577 zur Stadt erhoben wurde. Schon 1571 fand am Ort das vom Kurfürsten initiierte Frankenthaler Religionsgespräch zwischen Täufern und Reformierten statt. Doch dieser Aufschwung hielt nicht allzu lange an. Ende des 16. und Anfang des 17. Jahrhunderts zur stärksten linksrheinischen Festung der Kurpfalz ausgebaut, geriet Frankenthal schnell in die Wirren des Dreißigjährigen Krieges und vor allem des Pfälzischen Erbfolgekrieges. Im September 1689 wurde die Stadt von französischen Truppen in Brand gesteckt und fast völlig zerstört. Dem Niedergang folgte bald ein neuer wirtschaftlicher Aufstieg. Im 18. Jahrhundert wurde Frankenthal dritte Hauptstadt der Kurpfalz, im Zentrum wurde die Dreifaltigkeitskirche erbaut. Die Stadt avancierte zum Experimentierfeld staatlich-merkantilistischer Wirtschaftsförderung, wobei über 20 Manufakturen entstanden. Sie stellten vor allem Galanteriewaren her. Besondere Bedeutung erlangte die 1755 errichtete Porzellanmanufaktur, die zwar nur 45 Jahre Bestand hatte, deren Produkte aber noch heute als wertvolle Antiquitäten gehandelt werden. Den Kanalhafen verband ein 1781 vollendeter Kanal mit dem nahen Oberrhein. Auf einem der Kanalschiffe wurde noch 1875 die in Frankenthal gegossene, 26 Tonnen schwere Kaiserglocke des Kölner Doms zum Rhein transportiert. Département du Mont-Tonnerre mit "Franckenthal" im Osten Die Nachwirren der Französischen Revolution bereiteten dieser dritten Blütezeit ein Ende. Von 1798 bis 1814 stand Frankenthal unter französischer Verwaltung und war Kantonshauptstadt im Département du Mont-Tonnerre (Donnersberg). Infolge des Wiener Kongress (1815) kam Frankenthal zunächst an Österreich und 1816 aufgrund eines Tauschvertrages an das Königreich Bayern. Frankenthal blieb lange Zeit ein "„unbedeutendes Landstädtchen“," wie ein zeitgenössischer Beobachter notierte. 1820–1823 errichtete der Weinbrenner-Schüler und Regierungsbaubeamte Johann Philipp Mattlener die Zwölf-Apostel-Kirche, in welche er den historischen Turm der Erkenbert-Ruine integrierte. Mit der Industriellen Revolution stellte sich neuer Aufschwung ein. Die Glockengießerei Hamm wurde 1844 von Georg Hamm (1817–1878) gegründet; 1859 wurde sie von seinem Bruder Andreas (1824–1894) übernommen und später um den Bau von Druckmaschinen erweitert. Auf dieses Unternehmen gehen die heutigen metallverarbeitenden Betriebe der Stadt zurück. Die Firmen "KKK", "Albert", "KSB" und "Bettinger & Balcke", die zwischen 1859 und 1899 entstanden, machten die Stadt zu einem bedeutenden Zentrum der Metallverarbeitung. Die in Frankenthal hergestellten "Pumpen", "Turbinenkessel" und "Druckmaschinen" genossen weltweiten Ruf. Auch die Einwohnerzahl stieg rasch an: 1850 waren es 4767, 50 Jahre später 16.899, um das Jahr 2000 etwa 50.000. Die in der ersten Hälfte des 18. Jahrhunderts neu errichtete und längst zu eng gewordene Stadtmauer wurde um die Wende zum 20. Jahrhundert bis auf geringe Reste beseitigt, die Innenstadt dicht bebaut. 1919 wurden die drei nahe der Stadt liegenden Dörfer Flomersheim, Mörsch und Studernheim eingemeindet. Neubaugebiete und neue Industrien entstanden. Während des Zweiten Weltkriegs bestand in Frankenthal das Kriegsgefangenen-Mannschafts-Stammlager XII B (kurz "Stalag XII B") im Wehrkreis XII (Wiesbaden) der deutschen Wehrmacht. 1940 wurde mehrere Monate lang als Außenlager des SS-Sonderlagers Hinzert (KZ) in Mörsch ein Zwangsarbeitslager betrieben, dessen Häftlinge beim Autobahnbau (heutige A 6) eingesetzt wurden. Am 23. September 1943 wurde Frankenthal durch Bomben stark zerstört und verlor einen Großteil seiner älteren Bebauung. Die Stadt wurde in der Nachkriegszeit wie viele andere in zweckmäßiger, allerdings schmuckloser Architektur wieder aufgebaut. Ob die Schilderung des Dichters August von Platen aus dem Jahre 1815, Frankenthal sei ein "„gar so schöngebautes Städtchen, eines der schönsten in der ganzen Pfalz“," heute noch zutrifft, ist deshalb zumindest umstritten. Auf jeden Fall konnte die Stadt in den 1950er und 1960er Jahren wieder sehr schnell an ihre wirtschaftlichen und urbanen Traditionen anknüpfen. Im Rahmen der kommunalen Gebietsreform in Rheinland-Pfalz wurde Eppstein am 7. Juni 1967 eingemeindet. Der größere Ostteil des Landkreises Frankenthal (Pfalz) ging im heutigen Rhein-Pfalz-Kreis mit Sitz in Ludwigshafen am Rhein auf, der kleinere Westteil wurde dem neuen Landkreis Bad Dürkheim zugeschlagen. Im Jahr 2000 rief Oberbürgermeister Theo Wieder die "Frankenthaler Bürgerprojekte" ins Leben. Ziel ist, Projekte zu realisieren, für welche die öffentlichen Mittel fehlen, aber deren ehrenamtliche Umsetzung wünschenswert ist, um die Attraktivität der Stadt steigern. 2002 fand das 425-jährige Stadtjubiläum statt. Seit dem Festjahr säumen insgesamt 149 Skulpturen von Löwen (er ist das Wappentier Frankenthals) das Stadtbild, die von Privatpersonen und Firmen gekauft und unterschiedlich bemalt worden sind. Religionen. 2013 waren 30,7 Prozent der Einwohner evangelisch und 30,5 Prozent katholisch. 8,5 Prozent bezeichneten sich als einer sonstigen Religion zugehörig und 29,6 Prozent machten keine bekenntnisbezogenen Angaben. Stadtrat. Der Stadtrat von Frankenthal besteht aus 44 ehrenamtlichen Ratsmitgliedern, die bei der Kommunalwahl am 25. Mai 2014 in einer personalisierten Verhältniswahl gewählt wurden, und dem hauptamtlichen Oberbürgermeister als Vorsitzendem. Aufgrund der Besonderheiten des rheinland-pfälzischen Wahlsystems bei den Kommunalwahlen (personalisierte Verhältniswahl) sind die in der Graphik dargestellten prozentualen Stimmanteile als „gewichtete Ergebnisse“ ausgewiesen, welche das Wahlverhalten nur rechnerisch wiedergeben können. Wappen. "Beschreibung:" In Schwarz ein rotbewehrter, -bezungter und -bekrönter goldener Löwe, der in der erhobenen rechten Tatze einen goldenen Reichsapfel und mit der linken einen roten Schild trägt. Im Schild ist ein dreieckiger, mit der Spitze nach oben gekehrter goldener Eckstein zu sehen. "Begründung:" Der Wappenschild mit dem Eckstein soll der jungen Stadt Frankenthal 1570 von Kurfürst Friedrich III. von der Pfalz verliehen worden sein. Die Deutung ist umstritten und schwankt zwischen Dreiherrenstein und stilisierter Pflugschar, letzteres mit Bezug auf das älteste Grundbuch Frankenthals von 1597. Wahrscheinlicher ist eine theologische Deutung: Gemäß dem Leitwort der reformierten Glaubensflüchtlinge „Christus is de enige Sthen, darup syne Gemeente rust“ oder nach der Prämisse „Gott ist unser Eckstein“. Ferner wird es nachträglich als Hinweis auf die drei Frankenthaler Kirchengemeinden von 1583 – die niederländisch-, die wallonisch- und die deutsch-reformierte – angesehen. Städtepartnerschaften. Tafel mit den Wappen der Partnerstädte Feste. a> mit traditionellem Strohhut bei der Festeröffnung 2009 Das Strohhutfest an vier Tagen im Mai/Juni ist mit mehr als 300.000 Besuchern das größte Straßenfest der Pfalz. Der "Frühjahrsmarkt", das "Strandbadfest" und das "Herbstspektakel" (früher "Herbstmarkt)" sind bedeutende regionale Ereignisse, die "Trendtage", die "Kulturtage" und der "Weihnachtsmarkt" besitzen lokalen Charakter. Immer größere Ausstrahlung gewinnt der winterliche Eiszauber, bei dem die Erkenbert-Ruine für mehrere Wochen in eine große Eislaufbahn verwandelt wird. Öffentliche Einrichtungen. Die Stadt ist Sitz eines Land- und eines Amtsgerichts. Im Justizzentrum Frankenthal ist auch die Staatsanwaltschaft angesiedelt. Verkehr. Sowohl im Individual- als auch im öffentlichen Personennahverkehr verfügt die Stadt über gute Verkehrsanbindungen. Unmittelbar nördlich von Frankenthal liegt die Anschlussstelle Frankenthal-Nord der A 6 (Saarbrücken–Mannheim); von Süden her wird die Stadt über die B 9 (Speyer–Worms) erreicht. Die Bahnsteiganlagen des Frankenthaler Bahnhofs Am Hauptbahnhof Frankenthal halten halbstündlich Regionalbahnen der Bahnstrecke Mainz–Ludwigshafen sowie stündlich alternierend der Regionalexpress Mainz–Karlsruhe bzw. Mainz–Mannheim. Die Strecke soll zum Fahrplanwechsel im Dezember 2018 in das Netz der S-Bahn RheinNeckar integriert werden. Von Frankenthal Hauptbahnhof aus verkehren zudem stündlich Regionalbahnen nach Freinsheim und weiter nach Grünstadt und Ramsen/Eiswoog. Die Strecke nach Freinsheim zweigt von der Strecke nach Ludwigshafen am Rhein südlich des Haltepunktes "Frankenthal Süd" ab, der zum Fahrplanwechsel am 14. Juni 2015 um 0 Uhr in Betrieb genommen wurde. Mehrere Stadt- und Regionalbuslinien, die sich alle am Frankenthaler Busbahnhof treffen, bedienen Stadtgebiet und Umland. Von 1891 bis 1939 fuhr eine Lokalbahn von Frankenthal nach Großkarlbach; die Relation wird heute von der BRN-Buslinie 460 bedient. In dem von der Bundesanstalt für Straßenwesen erstellten Kinderunfallatlas des Jahres 2012 verunglücken in Frankenthal 2,68 von 1000 radfahrenden Kindern. Damit liegt Frankenthal (Pfalz) auf dem sechstschlechtesten Platz aller 412 untersuchten Städte und Gemeinden. Bereits seit 1984 landet Frankenthal in vergleichbaren Untersuchungen stets auf den hintersten Plätzen. Persönlichkeiten. Bekannte Persönlichkeiten aus Frankenthal sind unter anderem der Maler Jacob Marrel, der Rechtshistoriker Konrad Maurer, der Arzt und Schriftsteller Paul Bertololy, der Mathematiker Oskar Perron sowie der Soziologe Stefan Hradil. Fidel Castro. Fidel Alejandro Castro Ruz [(audio)] (* offiziell 13. August 1926, tatsächlich 13. August 1927 in Birán bei Mayarí, Provinz Oriente) ist ein kubanischer Revolutionär und Politiker spanischer Abstammung. Er war unter anderem Regierungschef, Staatspräsident und Vorsitzender der Kommunistischen Partei Kubas. Castro war mit der "Bewegung des 26. Juli" (M-26-7) die treibende Kraft der kubanischen Revolution gegen den Diktator Batista 1959. Mit insgesamt 49 Jahren war Castro der am längsten regierende nichtmonarchische Herrscher des 20. und beginnenden 21. Jahrhunderts. Jugend und Familie. Fidel Castro wurde am 13. August 1927, also ein Jahr später als in offiziellen Biografien ausgewiesen, als uneheliches Kind des Zuckerrohrplantagenbesitzers Ángel Castro Argiz und dessen Hausköchin Lina Ruz González geboren. Sein Vater war spanischer Emigrant aus dem galicischen Dorf San Pedro de Láncara. Dieser kam als Soldat der spanischen Kolonialarmee nach Kuba. Castros Mutter war die Tochter eines Bauern aus der kubanischen Provinz Pinar del Río, der bei Castros Vater angestellt war. Der Vorname "Fidel" geht auf einen Freund von Castros Vater, Fidel Pino Santos, zurück. Castro hat neben den Brüdern Raúl und Ramón noch die Schwestern Ángela María („Angelita“), Enma, Juana („Juanita“) und Agustina sowie zwei Halbgeschwister aus der ersten Ehe seines Vaters (Pedro Emilio und Lidia Castro Argota) und mindestens einen weiteren Halbbruder aus einer außerehelichen Beziehung seines Vaters. Das erste offizielle Dokument ist eine Taufurkunde aus dem Jahr 1935, die auf den Namen „Fidel Hipólito Ruz González“ ausgestellt ist. Er trägt dort beide Nachnamen der Mutter, da er als uneheliches Kind ausgewiesen wird. Nach der Scheidung seines Vaters 1941 ließ dieser gegen Bestechung eine neue Taufbescheinigung für Fidel ausstellen. Sie lautete nun auf den Namen „Fidel Ángel Castro Ruz“. Das Geburtsdatum wurde auf den 13. August 1926 vordatiert, damit Fidel das Jesuitenkolleg in Havanna besuchen konnte, wofür er eigentlich noch zu jung war. Das letzte Taufzeugnis wurde dann im Dezember 1943 nach der Heirat seines Vater mit Mutter Lina auf den noch heute gültigen Namen „Fidel Alejandro Castro Ruz“ ausgestellt. Castro am 1. Mai 2005 Castro wurde von seiner Mutter katholisch erzogen. Trotz des Reichtums der Familie (Vater Ángel hatte ein Hotel, eine Telegrafenstation, eine Metzgerei und eine Bäckerei, mehrere Handwerksbetriebe sowie eine kleine Schule eingerichtet) kam er häufig mit der armen Landbevölkerung in Kontakt. Er besuchte erst eine kleine Dorfschule in Mayarí, später kam er auf das von den Marianern geleitete "Colegio La Salle" in Santiago de Cuba. Er wohnte bei der Familie des haitianischen Konsuls Luis Hibbert, einem Geschäftspartner des Vaters. Als uneheliches und (zunächst) nicht getauftes Kind wurde Fidel von seinen Mitschülern oft gehänselt. Die Taufe erfolgte erst im Januar 1935 auf den Namen "Fidel Hipólito Ruz González". Der zweite Vorname "Hipólito" stammt von seinem Paten, Luis (Hipólito Alcides) Hibbert. Der Nachname seines Vaters tauchte in der Taufurkunde nicht auf, da dieser seine Kinder mit Lina Ruz erst nach der Scheidung von seiner ersten Ehefrau und seiner anschließenden Heirat mit Lina im April 1943 formal anerkannte. 1943 erhielt Fidel dann seinen endgültigen Namen "Fidel Alejandro Castro Ruz". Vom "Colegio La Salle" wechselte er auf die jesuitische Schule "Colegio Dolores" in Santiago und später auf das ebenfalls jesuitisch geführte "Colegio Belén" in Havanna. Auch seine Geschwister wurden auf katholischen Schulen erzogen. Im Gegensatz zur ausgeprägt katholischen Familientradition wandte sich Castro nach seinem Aufstieg zum Regierungschef zunehmend gegen die Kirche, deren Einfluss auf die kubanische Gesellschaft er auf vielfältige Weise zurückdrängte. 1960–1961 kam es wegen der schrittweisen Hinwendung der Revolutionsregierung zum Kommunismus dann zum offenen Konflikt: Castro lehnte die Religion analog der von ihm nun offen vertretenen marxistisch-leninistischen Ideologie schließlich komplett ab und ließ ihre Vertreter und Anhänger verfolgen und ausgrenzen sowie kirchliches Eigentum großteils verstaatlichen. Entgegen den seit 1962 oft wiederholten Berichten wurde Castro jedoch niemals explizit exkommuniziert: Der von Papst Pius XII. 1949 in einem Dekret verfügte automatische Kirchenausschluss für erklärte Kommunisten wurde von Papst Johannes XXIII. nicht vollzogen. Castro selbst bezeichnet sich als Atheist, beruft sich aber hin und wieder auf die Bibel und das Christentum. Ein hohes Regierungsmitglied hat ihn folgendermaßen charakterisiert: „Fidel ist als erstes Revolutionär, als zweites Jesuit und erst dann Marxist.“ 1996 erhielt Castro eine viel beachtete Privataudienz bei Papst Johannes Paul II., den er 1998 zu einem offiziellen Besuch in Kuba empfing. Aus Anlass eines Treffens mit Papst Benedikt XVI. während dessen Kuba-Besuchs im März 2012 ließ er verlauten, dass er schon seit den 1960er Jahren der Meinung sei, dass Marxisten und Kirche zusammenarbeiten müssten. Seit einiger Zeit sieht er sich verstärkt als Globalisierungskritiker und Sprecher für die Interessen der Dritten Welt. Sein ältester Sohn Fidel Castro Díaz-Balart (* 1949), genannt "Fidelito" – "Kleiner Fidel", der aus der Ehe mit seiner ersten Frau Mirta Díaz-Balart Gutiérrez stammt, ist promovierter Atomphysiker und bekleidete in der Vergangenheit verschiedene öffentliche Funktionen im Wissenschaftsbereich. Aus der zweiten Ehe mit Dalia Soto del Valle Jorge gingen fünf Söhne hervor, von denen allein Antonio Castro Soto del Valle als langjähriger Vizepräsident des kubanischen Baseball-Verbandes und dritter Vizepräsident des Baseball-Weltverbands in der Öffentlichkeit steht (entgegen einem späteren Gerücht spielte Fidel selbst niemals Baseball in professioneller Spielstärke). Ergebnis der Liaison mit "Natalia (Naty) Revuelta" ist die uneheliche Tochter Alina Fernández Revuelta (* 1956), die 1993 über Spanien in die USA geflohen ist und als eine der schärfsten Kritikerinnen ihres Vaters gilt. Francisca Pupo (* 1953), eine weitere uneheliche Tochter Castros aus einer anderen Liebesaffäre, lebt ebenfalls in den USA. Studium und erste politische Betätigung. Bereits während seiner Schulzeit interessierte sich Castro für Sport, vor allem Baseball. Die Legende sagt, dass er fast einen amerikanischen Profivertrag bekommen hätte, fest steht jedoch, dass er für seine Universität Baseball gespielt hat und dass er ein Leben lang ein grosses Interesse an Baseball behalten hat. 1945 begann er ein Jura-Studium an der Universität von Havanna, wo er durch politisches Engagement auffiel. Castro gehörte dort zu einer Gruppe von Studenten, die als "Los muchachos de gatillo alegre" bekannt waren. Er wurde Delegierter der Vereinigung der Jurastudenten, gründete einen Studentenausschuss gegen Rassendiskriminierung und schloss sich 1947 der Orthodoxen Partei von Eduardo Chibás an, die gegen die korrupte Regierung von Carlos Prío und für eine an nationalen Interessen orientierte Wirtschaftspolitik eintrat. In seiner ersten militanten Aktion beteiligte er sich 1947 an dem Versuch der Karibischen Legion, mit 3.000 Mann den Diktator der Dominikanischen Republik, Rafael Trujillo, zu stürzen. Das Vorhaben scheiterte, als die Expeditionsschiffe von kubanischen Kriegsschiffen abgefangen wurden. 1948 heiratete er Mirta Díaz-Balart, Schwester seines damaligen Freundes Rafael Díaz-Balart, eine Philosophiestudentin aus einer ebenfalls wohlhabenden kubanischen Familie; sogar der spätere Diktator Batista schickte ein Hochzeitsgeschenk. 1949 wurde sein erster Sohn, Fidelito, geboren. Die Ehe wurde 1955 auf Castros Wunsch wieder geschieden. Während der kubanischen Revolution wurde die Guerillera Celia Sánchez (1920–1980) seine Lebensgefährtin. Im Juni 1952 wollte er mit der Orthodoxen Partei bei den Parlamentswahlen antreten. Der Staatsstreich am 10. März, der von General Fulgencio Batista angeführt wurde und die Regierung von Carlos Prío absetzte, verhinderte jedoch sein Vorhaben, da die Wahlen abgesagt wurden. Er verklagte Batista wegen Verfassungsbruchs, seine Anzeige wurde vom Gericht jedoch abgewiesen. Später veröffentlichte er einen Artikel in "Son Los Mismos" (einer kleinen studentischen Untergrundzeitung, später als "El Acusador" bekannt), in dem er den Militärputsch von Batista verurteilte. Angriff auf die Moncada-Kaserne. Nach seiner Festnahme im Juli 1953 Nach der gescheiterten Anklage von Batista vor dem Obersten Gerichtshof erklärte Castro, dass nach Ausschöpfung aller legalen Mittel nun das in der Verfassung von 1940 enthaltene Widerstandsrecht in Kraft getreten sei. So begann er mit den Vorbereitungen eines Angriffs auf die Moncada-Kaserne in Santiago de Cuba und die Kaserne "Carlos Manuel de Céspedes" in Bayamo. Damit sollte ein Volksaufstand im Osten Kubas ausgelöst werden, um das Batista-Regime zu stürzen. Am 26. Juli 1953 versammelte Fidel Castro rund 160 Mitstreiter um sich, um die Kasernen zu stürmen. 40 Mann waren für die Kaserne in Bayamo bestimmt, die restlichen 120, darunter Fidel und auch zwei Frauen, sollten sich um die Moncada-Kaserne mit mehr als 1.500 Mann Besatzung kümmern. Fünf Studenten lehnten kurz vor der geplanten Aktion ihren Einsatz aus Furcht ab, sodass Fidels Gruppe nur noch 115 Personen zählte. Er rechnete damit, dass die Truppen wegen der Karnevalsfeiern müde sein würden. Der Versuch scheiterte, da er miserabel vorbereitet und durchgeführt wurde. Acht Angreifer und 13 Soldaten wurden getötet. Durch blutige, teilweise in aller Öffentlichkeit durchgeführte Racheaktionen von Militär und Geheimpolizei wurde die Aktion jedoch landesweit bekannt. Der Erzbischof von Santiago, ein Freund der Castro-Familie, forderte das sofortige Ende der Mordaktionen. Möglicherweise rettete dieser öffentliche Meinungsumschwung Castro das Leben, denn als er wenige Tage später von einer Militärpatrouille aufgespürt wurde, verhinderte der anführende Feldwebel eine Lynchaktion seiner Soldaten. Castro wurde festgenommen und der Justiz überstellt. Am 16. Oktober 1953 fand die Gerichtsverhandlung in Santiago de Cuba statt. In seiner Verteidigungsrede sprach Castro seinen berühmt gewordenen Satz: „Die Geschichte wird mich freisprechen!“ "(„La historia me absolverá!“)". Castro wurde zu 15 Jahren Zuchthaus auf der Isla de Pinos verurteilt. Unter liberalen Haftbedingungen – sein Schwager Rafael Díaz-Balart war inzwischen stellvertretender Innenminister – hielt er weiterhin Kontakt zu seinen politischen Freunden und seiner Familie und bildete sich zusammen mit seinen Mitgefangenen politisch weiter. Die als politische Gefangene privilegierten Moncada-Kämpfer hatten u. a. freien Zugang zu jeglicher Literatur. Am 15. Mai 1955 kam Castro im Rahmen einer Generalamnestie nach weniger als zwei Jahren frei. Flagge der "Bewegung des 26. Juli" Er verließ im März 1955 die "Orthodoxe Partei" und gründete mit seinen Gefährten auf Kuba am 12. Juni 1955 die "Bewegung des 26. Juli". Deren Strategie war der bewaffnete Kampf durch kleine geheime Zellen im Untergrund, die über das ganze Land verstreut waren. Exil und Vertreibung Batistas. Da auf Kuba eine militärische Ausbildung und Vorbereitung nicht möglich war, ging eine Gruppe von 82 Kämpfern am 7. Juli 1955 nach Mexiko ins Exil. Unter der Leitung des ehemaligen spanischen Offiziers Alberto Bayo, der im Spanischen Bürgerkrieg auf Seiten der Republik gegen Francisco Franco gekämpft hatte, begann die militärische Ausbildung der Guerilleros. Dort traf er auch auf den Argentinier Ernesto Guevara, später allgemein "Che" genannt. Am 25. November 1956 brach Fidel Castro zusammen mit Che Guevara, Camilo Cienfuegos, seinem Bruder Raúl Castro und weiteren 78 Revolutionären von Tuxpan (Mexiko) mit der Yacht "Granma" nach Kuba auf, wo sie am 2. Dezember 1956 ankamen. Als "Comandante en Jefe" (Befehlshabender Kommandant) führte Fidel Castro die Guerilla der Rebellenarmee der Bewegung des 26. Juli in der Sierra Maestra an. Nach über zwei Jahren Guerillakampf gegen die zahlenmäßig weit überlegene Armee flüchtete der Diktator Batista am 1. Januar 1959 schließlich aus Kuba, als die Gewerkschaften und auch bürgerliche Demokraten sich gegen ihn stellten und die USA nach einem Massaker an Oppositionellen ein Waffenembargo verhängten und militärischen Beistand verweigerten. Dennoch engagierte sich die CIA bis zum Untergang des Batista-Regimes in Havanna gegen Revolutionsbefürworter und für das alte Regime, vor allem in der Festung Havanna. Nach dem Sieg wurde Castro, der noch vor der Revolution behauptet hatte, er wolle für sich persönlich keine Macht, sondern sich nach dem Sturz des alten Regimes ins Privatleben zurückziehen, "de facto" der neue Regierungschef Kubas, indem er in öffentlichen Massenversammlungen und Fernsehansprachen die Politik der Revolutionsführung vorgab. Am 16. Februar 1959 übernahm er auch formal das Amt des Ministerpräsidenten, nachdem der erst fünf Wochen zuvor von ihm eingesetzte José Miró Cardona zu seinen Gunsten zurückgetreten war, und übergab den Oberbefehl über die Streitkräfte an seinen Bruder Raúl. Castros Rolle beim Aufbau des neuen Kubas. Castro wollte von den USA als vollwertiger Staatsmann akzeptiert werden. Er erhielt zunächst zwar Unterstützung von dort, und den Vereinigten Staaten galt 1959 auch sein erster Staatsbesuch. Entgegen seinem Wunsch wurde er jedoch nicht von Präsident Eisenhower empfangen, dieser schickte seinen Stellvertreter Nixon. Nach zahlreichen feindlichen Akten von beiden Seiten, insbesondere zahlreichen Versuchen der CIA, ihn zu ermorden, wurden die USA Castros Hassobjekt Nummer eins, was sich in deren Darstellung als Hauptfeind auch in den Medien niederschlug – und nach dem Ende des Kalten Krieges in unverändert schlechten Beziehungen der beiden Staaten manifestiert. Castro war noch für einige Zeit das Bindeglied zwischen linksradikalen Revolutionären und den Anhängern bürgerlich-liberaler Überzeugungen innerhalb seiner Anti-Batista-Bewegung, die er allerdings im Laufe des Jahres 1959 (Manuel Urrutia, Huber Matos, Manuel Ray u. a.) und in der ersten Jahreshälfte 1960 (Rufo López Fresquet, Enrique Oltuski, Marcelo Fernández Font u. a.) von einflussreichen Regierungsämtern entfernte und durch prokommunistische Gefolgsleute ersetzte, während sein Bruder Raúl und Che Guevara die Aufnahme von Beziehungen zu den sozialistischen Ländern forcierten. Seit Januar 1959 hatten die Brüder Castro und Guevara sich in geheimen Verhandlungen mit der Führung der moskautreuen Kommunistischen Partei (PSP) an Castros Wohnsitz in Cojímar auf ein gemeinsames Vorgehen verständigt. Erst nach einem persönlichen Treffen mit Nikita Chruschtschow am Rande der UNO-Vollversammlung 1960 begann Castro allmählich, sich auch öffentlich positiv zur Sowjetunion zu äußern. In Anwesenheit von Ehrengästen aus kommunistischen Ländern erklärte Castro in seiner weichenstellenden Rede zum 1. Mai 1960 erstmals, dass er im Gegensatz zu seinen vor der Revolution wiederholten Versprechungen keine freien Wahlen abzuhalten gedenke. Während Castro, Guevara und andere auf die besondere Rolle Kubas in der revolutionären und sozialistischen Bewegung und unter den nichtpaktgebundenen Staaten Wert legten, wollten die Altkommunisten um Blas Roca und Aníbal Escalante die neue Partei und Kuba auf die führende Rolle der Sowjetunion einschwören. Castro setzte sich nach einem Machtkampf im Frühjahr 1962 durch. Dies und Castros und Guevaras Verärgerung über den nicht mit ihnen abgesprochenen Abzug der sowjetischen Raketen zur Beendigung der Kubakrise im Oktober 1962 führten zu Spannungen in den Beziehungen zur UdSSR. Diese verschärften sich nach dem Sturz Chruschtschows 1964 wegen Che Guevaras Sympathien für den Maoismus und nach einem Versuch von Escalante (in Absprache mit Moskau), Castro zu stürzen (Ende 1967). Castro spielte auf einer Kundgebung Abhörbänder vor; Escalante und seine Anhänger wurden im Januar 1968 verhaftet. Eine neue Phase der engen Anlehnung an das sowjetische Vorbild setzte jedoch bereits wenige Monate später ein, als Castro seine Unterstützung für die Niederschlagung des Prager Frühlings erklärte, die ihn unter linken Intellektuellen damals international viel Sympathie kostete. Die von Castro in den 1970er Jahren vorangetriebene Institutionalisierung des Revolutionsstaates (I. Parteitag, Verfassung, Nationalversammlung) folgte klar dem Muster der sowjetisch dominierten Ostblockstaaten. Internationalismus. Unter Castro verfolgte Kuba eine Politik des Internationalismus. Er entsandte, gewissermaßen als Gegenleistung für die umfangreiche Entwicklungshilfe der Sowjetunion, in enger Anlehnung an die Außenpolitik des Ostblocks, Truppen zur Unterstützung kommunistischer Regime und Bürgerkriegsparteien. Die Regierung unterstützte beispielsweise die Sandinisten in Nicaragua, die gegen von den USA unterstützte, rechtsgerichtete Contra-Gruppen kämpften. Darüber hinaus verfolgte Kuba ein dauerhaftes militärisches und geheimdienstliches Engagement in Zentralafrika, besonders in Äthiopien und Angola. Dort landeten am Vorabend der Unabhängigkeit (1975) kubanische Truppen, um der marxistischen "Volksbewegung zur Befreiung Angolas" (MPLA) unter Agostinho Neto zur Macht zu verhelfen und die FNLA und die UNITA zurückzuschlagen (siehe Kubanischer Militäreinsatz in Angola). Wesentlicher Teil des kubanischen Internationalismus ist die Entsendung von Ärzten, Lehrern, Technikern und Konstrukteuren hauptsächlich in Länder der Dritten Welt. So wurden bisher über 50.000 Ärzte in über 60 verschiedene Länder geschickt, die dort humanitäre Hilfe leisten und Devisen für Kuba erwirtschaften, nach Schätzungen des Sozialwissenschaftlers Omar Everleny Pérez Villanueva etwa sechs Milliarden US-Dollar pro Jahr. Ein Beispiel dafür ist der Einsatz von kubanischen Ärzten in den Armenvierteln Venezuelas. Beim Projekt „Barrio Adentro“ (dt. etwa: hinein ins Armenviertel) bezogen Ärzte aus Kuba Quartier in den Barrios, um dort eine medizinische Grundversorgung anzubieten und so die bolivarische Revolution zu unterstützen. Als Gegenleistung liefert Venezuela sein Öl an Kuba weit unter Weltmarktpreis. Nach 1989. Castro stand Michail Gorbatschows Politik von Glasnost und Perestroika ablehnend gegenüber. Er nahm das mit den Reformen verbundene Risiko eines Auseinanderbrechens des Moskauer Machtbereichs für das eigene politische Überleben sehr ernst und verteidigte die von ihm errichtete marxistisch-leninistische Ordnung des kubanischen Staates gegen die im In- und Ausland vorherrschenden Rufe nach wirtschaftlicher und politischer Öffnung. Für Kubas Wirtschaft war der Handel mit den Ländern des Rates für gegenseitige Wirtschaftshilfe (RGW) von größter Bedeutung. Als ab 1989 der RGW wegen des Systemwechsels in den meisten Mitgliedsländern ausfiel, stürzte Kuba in eine wirtschaftliche Krise, die Castro zu Wirtschaftsreformen zwang. Dazu zählten die Legalisierung des Dollarbesitzes sowie die Zulassung von selbständigen Tätigkeiten und freien Bauernmärkten, begleitet von einer Öffnung des Landes für Tourismus und Auslandsinvestitionen. Diese Zeit wird "Periodo Especial en Tiempo de Paz" (Sonderperiode in Friedenszeiten) oder kurz Periodo Especial genannt. Inzwischen ist die Versorgungslage trotz immer noch bestehender Engpässe etwas besser, das politische System im Wesentlichen aber unverändert. Politische Ämter, schrittweises Abtreten ab 2006. Castro hatte das Amt des Staatspräsidenten, des Staatsratsvorsitzenden sowie des Ministerratsvorsitzenden gleichzeitig inne. Als Präsident hielt er zugleich den Rang eines "Comandante en Jefe" (Oberkommandierender) der kubanischen Armee. Ferner war er bis 2011 Erster Sekretär der Kommunistischen Partei Kubas. Am 1. August 2006 gab Fidel Castro wegen einer schweren Erkrankung seine Funktionen als Generalsekretär der Kommunistischen Partei, Oberbefehlshaber der Streitkräfte und Präsident von Staatsrat und Regierung vorläufig an seinen jüngeren Bruder Raúl ab. Am Vorabend hatte Castros Privatsekretär Carlos Valenciaga einen persönlichen Brief des Präsidenten im Fernsehen verlesen: „[…] aufgrund der Arbeit Tag und Nacht ohne genügend Schlaf kam es zu extremem Stress und in der Folge zu Darmblutungen. Deshalb musste ich mich einem komplizierten chirurgischen Eingriff unterziehen.“ Am 17. Dezember 2007, rund einen Monat vor den Parlamentswahlen, deutete Fidel Castro in einem Brief an, dass er sich von seinen Führungsämtern zurückziehen wolle. Seinen endgültigen Verzicht auf eine erneute Kandidatur als Staatspräsident und Oberkommandierender verkündete er in einer von der Parteizeitung Granma am 19. Februar 2008 veröffentlichten Mitteilung. Am 24. Februar wählte das Parlament seinen Bruder Raúl zu seinem Nachfolger. Im Vorfeld des VI. Parteikongresses der Kommunistischen Partei im April 2011 sagte Fidel Castro, dass er eigentlich schon seit 2006 den Posten als deren Generalsekretär nicht mehr ausübe. Am 19. April 2011 trat er das Amt offiziell an seinen Bruder ab. Seit der Einrichtung des Parlaments "Asamblea Nacional del Poder Popular" im Jahr 1976 ist Fidel Castro Abgeordneter für den Wahlbezirk Santiago de Cuba. Zuletzt ließ er sich 2008 für die laufende VII. Legislaturperiode wiederwählen, es ist sein letztes offizielles Mandat. Nach über vierjähriger Abwesenheit ließ er im August 2010 eine Sondersitzung einberufen, um die Abgeordneten und die Nation in einer Rede vor den Gefahren eines bevorstehenden internationalen Atomkriegs zu warnen. Attentate, Sturzpläne. Seit Castros Amtsantritt gab es zahlreiche Mordanschläge und Pläne zu seinem Sturz; siehe hierzu insbesondere die Operation Mongoose der US-amerikanischen Regierung und der CIA. Fabian Escalante, der ehemalige kubanische Geheimdienstchef, der lange Zeit für Castros Sicherheit zuständig war, will insgesamt 638 Attentate gezählt haben, die meisten davon geplant oder unterstützt von der CIA und ausgeführt von Exilkubanern oder US-amerikanischen Mafiosi. Die CIA selbst gab bisher acht eigene Mordversuche zu. Tatsächlich gab es wohl um die 30 Attentatsversuche, die Castro, auch dank des effizienten Geheimdienstes, unbeschadet überstand. Aufgrund der immensen Zahl an Attentatsversuchen soll Castro nach Angaben der regierungsnahen kubanischen Internetseite "Cubadebate" ins Guinness-Buch der Rekorde aufgenommen werden als jene Person, der weltweit die meisten Attentatsversuche galten. Derzeit ist auf der dortigen Online-Repräsentanz nur ein Eintrag als „am längsten dienender Staatsmann der Welt“ zu finden. Die Palette der eingesetzten Mittel reichte von Gift in Zigarren oder Essen über Haarausfall bewirkende Chemikalien oder LSD bis zu Schusswaffen oder Bomben. Die CIA arbeitete bei den Attentatsplanungen auch mit den beiden Mafia-Größen Sam Giancana und Santos Trafficante zusammen, die zu den meistgesuchten Kriminellen der USA gehörten. Auch die von den USA gegen Kuba verhängten Wirtschaftssanktionen waren dem Sturz Fidel Castros gewidmet. Robert Torricelli, Initiator des Torricelli Act, erklärte 1992, das Ziel der Sanktionen sei die Lahmlegung der kubanischen Ökonomie in einem Ausmaß, das innerhalb weniger Wochen zum Sturz des kubanischen Präsidenten führen sollte. US-Außenminister Colin Powell legte am 1. Mai 2004 einen 500-seitigen Bericht der „Beratungskommission für ein freies Kuba“ vor, in dem innerhalb von sechs Monaten unter Mitarbeit des kubanischstämmigen US-Wohnungsbauministers Mel Martínez „Maßnahmen für einen schnellen Regimewechsel“ auf Kuba erarbeitet worden waren. Erkrankung, Rückzug aus der aktiven Politik. a> besucht den erkrankten Fidel Castro, 21. Januar 2009 Mitte 2006 erlitt Fidel Castro eine Darmblutung und musste sich einer komplizierten Operation unterziehen. Unbestätigten Angaben zufolge wurden dabei Teile seines Darms entfernt. In der Folge trat er zunächst nur „vorläufig“, Anfang 2008 dann endgültig von seinen politischen Ämtern zurück. Er trifft sich jedoch noch gelegentlich mit hohen Besuchern, die nach Kuba reisen, zu privaten Gesprächen. Darunter waren bis 2012 bereits mehrere amtierende und ehemalige Staatspräsidenten (zum Beispiel Dmitri Medwedew, Mahmud Ahmadinedschad und Jimmy Carter) sowie Papst Benedikt XVI. Sein politischer Einfluss auf die aktuelle Politik ist umstritten. Offiziell berät er nur seinen Bruder Raúl, den neuen Staatschef, jedoch meinen Beobachter, dass wirkliche Reformen in Kuba erst nach Fidel Castros Tod verwirklicht werden könnten, da er weiterhin darauf achte, dass sein Weg der Revolution nicht verlassen wird. Zwischen März 2007 und Juni 2012 verfasste Castro zahlreiche Kolumnen unter der Rubrik "Überlegungen des Genossen Fidel" (bis Februar 2008 zunächst: "Überlegungen des Oberkommandierenden Fidel)", die in der Parteizeitung Granma und den meisten anderen Medien des Landes veröffentlicht wurden. Danach wurden die „Reflexionen“ seltener. Jedoch scheint er sich um 2013 verstärkt Fragen der Landwirtschaft zu widmen, um die landeseigene Lebensmittelproduktion zu erhöhen. Nachdem Fidel Castro seit 1959 insgesamt zehn US-Präsidenten erlebt hatte, erklärte er im Januar 2009, dass er das Ende der Amtszeit des damals neu gewählten Präsidenten Barack Obama, „sein“ nunmehr elfter Präsident, im Jahre 2013 wahrscheinlich nicht mehr erleben werde. Im Laufe des Jahres wirkte Castro auf den veröffentlichten Fotos jedoch zunehmend gesünder. Ende August 2009 war er seit langer Zeit erstmals wieder im Fernsehen zu sehen, und am 7. Juli 2010 zeigte er sich bei einem Besuch des Nationalen Zentrums für wissenschaftliche Forschung (CNIC) erstmals seit seiner Erkrankung wieder in der Öffentlichkeit, wo er sich zunächst ausschließlich zu außenpolitischen Themen äußerte und unter anderem vor einem Atomkrieg infolge eines US-Angriffs auf den Iran oder des Koreakonflikts warnte. Er betonte auch, dass er inzwischen wieder vollkommen genesen sei. Seit dieser Zeit sind wieder verstärkt Einmischungen in innenpolitische Themen zu beobachten. Experten sehen darin einen Grund für die schleppenden Reformen seines Bruders Raúl im Amt des Staatsoberhaupts. Sein wahrer Einfluss auf die Politik seines Bruders ist jedoch schwer einzuschätzen. Der Historiker Michael Zeuske glaubt, dass Fidels Rücktritt es erlaube, seinen Mythos nicht zu beschädigen. Die notwendigen und für die Bevölkerung zum Teil schmerzhaften Reformen müsse nicht er, sondern sein Bruder Raúl verantworten. Fidel dagegen wird schon heute bei vielen Kubanern als derjenige angesehen, „bei dem noch alles besser war“. Am 18. August 2010 lobte Castro in der Parteizeitung "Granma" den russischen Publizisten Daniel Estulin. Dieser behauptet in von Castro zitierten Exzerpten u. a., die Gründer der Bilderberg-Konferenz hätten Hitler an die Macht gebracht, den Zweiten Weltkrieg finanziert, die NATO gegründet, mit Hilfe der Frankfurter Schule und des Tavistock Institutes die Massen durch Rockmusik und Drogen entpolitisiert, den Jom-Kippur-, den Afghanistan- und den Kosovo-Krieg initiiert, und sie würden den Drogenhandel begünstigen und Flugpassagierdaten ausforschen. In der folgenden Woche besuchte Estulin Castro zu einem öffentlichen Gespräch, in dem sich beide darüber einig zeigten, dass die USA Russland militärisch zerstören wollten und Osama bin Laden ein Agent der CIA gewesen sei. Im September 2010 hielt Castro vor jeweils mehreren Tausend Zuhörern seine letzten öffentlichen Reden: zunächst an kubanische Studenten gerichtet auf der Freitreppe der Universität Havanna, wenige Wochen später zum 50. Jahrestag der „Komitees zur Verteidigung der Revolution“ vor dem Revolutionsmuseum. Bei einem weiteren Vortrag anlässlich der Vorstellung seines Erinnerungsbands "Der strategische Sieg" bezeichnete Castro die in Frankreich praktizierte, kontroverse Abschiebung von rund 1000 rumänischen Roma in ihr Heimatland als „Rassen-Holocaust“, was von der französischen Regierung heftige Ablehnung erfuhr. Unmittelbar darauf schrieb Castro in seiner Kolumne, Präsident Nicolas Sarkozy sei „offenbar gerade dabei, den Verstand zu verlieren“. Besonderes Aufsehen erregte Castro im selben Monat durch Aussagen, die er gegenüber dem US-Journalisten Jeffrey Goldberg machte, der ihn für ein Interview über mehrere Tage begleitete. So rief er den iranischen Präsidenten Mahmud Ahmadinedschad auf, dessen antisemitische Ideologie zu beenden und das Existenzrecht Israels anzuerkennen. Des Weiteren meinte er auf die Frage, ob das „kubanische Modell“ immer noch wert sei, exportiert zu werden: „Das kubanische Modell funktioniert selbst bei uns nicht mehr“. Nach der Veröffentlichung relativierte Castro seine Aussagen, er habe sie ironisch gemeint, was die bei dem Gespräch ebenfalls anwesende US-amerikanische Lateinamerikaexpertin Julia Sweig bestritt. Beobachtern zufolge könnte Castro die eingeleiteten Wirtschaftsreformen seines Bruders Raúl gegen Widerstände in den eigenen Reihen in Schutz nehmen wollen. Die Revolution selbst wollte er aber nicht in Frage stellen, so Sweig. Castro-Biograf Carlos Widmann vermutet, dass Fidel zwar weiterhin eher gegen die Raúl'schen Reformen sei, inzwischen aber resigniert habe. Seine Äußerungen seien Galgenhumor. Seit seinem Rücktritt zeigt sich Castro nur noch selten in der Öffentlichkeit. Bei der Parlamentswahl im Februar 2013 gab er jedoch erstmals seit seiner Erkrankung wieder in einem öffentlichen Wahllokal seine Stimme ab und stellte sich Fragen der anwesenden Journalisten. Nach den Wahlen gehörten sowohl Fidel als auch sein Bruder Raúl weiterhin zu den Abgeordneten. Auszeichnungen und Ehrungen. 1961 erhielt er den Internationalen Lenin-Friedenspreis. Am 11. Dezember 2014 wurde Fidel Castro der Konfuzius-Friedenspreis verliehen. Das Komitee begründete seine Entscheidung mit Castros „bedeutenden Beiträgen“ zum Weltfrieden. Menschenrechtsverletzungen. In den ersten Jahren von Castros Herrschaft wurden zahlreiche, nach US-amerikanischen Studien einige tausend, politische Gegner inhaftiert und hingerichtet. Gegner Castros wurden als „Konterrevolutionäre“, „Faschisten“ oder „CIA-Agenten“ bezeichnet und ohne Gerichtsverfahren und unter äußerst erbärmlichen Bedingungen inhaftiert. 1965 wurden unter dem Namen „Militärische Einheiten zur Unterstützung der Produktion“ Arbeitslager eingerichtet, die Che Guevara wie folgt begründete: Sie sind für „Menschen, welche Verbrechen gegen die revolutionäre Moral begangen haben“. Später wurden dort auch Kubaner inhaftiert, die nach Castros Definition als „soziale Abweichler“ einschließlich Homosexueller und HIV-Infizierter galten, um so „konterrevolutionäre“ Einflüsse aus Teilen der Bevölkerung auszumerzen. Die Soziologie-Professorin Marifeli Pérez Stable, die 1960 als Kind aus Kuba kommend in die USA einwanderte und als junge Frau die Revolution unterstützte, reflektiert über die Kosten des Umsturzes: „[Es gab] tausende Exekutionen, vierzig-, fünfzigtausend politische Gefangene. Die Behandlung politischer Gefangener, mit dem was wir heute über Menschenrechte und Menschenrechte betreffende internationale Normen wissen … ist es legitim, die Frage nach möglichen Menschenrechtsverletzungen in Kuba zu stellen.“ Castro gesteht zwar ein, dass es auf Kuba politische Gefangene gibt, hält dies aber für gerechtfertigt, da sie nicht wegen ihrer Ansichten, sondern aufgrund „konterrevolutionärer Verbrechen“ einschließlich Bombenlegung inhaftiert seien. Fidel Castro beschreibt die kubanische Opposition als illegitimes Ergebnis einer fortschreitenden Konspiration, aufgezogen von Exilkubanern mit Verbindungen zu den USA oder der CIA, was faktisch teilweise auch belegt ist (siehe Sturzpläne). Castros Unterstützer behaupten, seine Maßnahmen seien legitim, um den Sturz der kubanischen Regierung zu verhindern, während seine Gegner, die kubanische Opposition in den USA und die USA selbst, hinter dieser Darstellung Schuldzuweisungen sehen, um die politischen Verhältnisse zu rechtfertigen. Amnesty International zählte im Jahresbericht 2006 insgesamt 71 gewaltlose politische Gefangene (prisoners of conscience). Außerdem waren 30 Gefangene zum Tode verurteilt, wobei seit 2003 keine Exekution mehr vollstreckt wurde. Die eher antikommunistische Internationale Gesellschaft für Menschenrechte berichtet sogar von 300 namentlich bekannten politischen Gefangenen. Sie hat ein Patenschaftsprogramm deutscher Abgeordneter für die Inhaftierten aufgelegt. Unter der Präsidentschaft von Fidel Castros Bruder Raúl wurden die von Amnesty International anerkannten sowie weitere politische Häftlinge bis März 2011 entlassen und sämtliche bestehenden Todesurteile bis Ende 2010 in Haftstrafen umgewandelt. Personenkult. Von der Staatsführung wurde um Castro ein Personenkult errichtet, der sich neben einer ständigen Medienpräsenz vor allem durch die allgegenwärtige Darstellung auf Postern, Plakaten, Bildern und einigen Briefmarken auszeichnet, häufig in Kombination mit Nationalsymbolen und eingängigen Parolen. Häufig wird Castro zusammen mit bekannten historischen Persönlichkeiten abgebildet (insbesondere mit Che Guevara und anderen kubanischen Revolutionären), deren politisches Erbe er für sich beansprucht. In den kubanischen und internationalen Medien wird er häufig auch als "Máximo Líder" (Größter Führer) oder "Comandante en Jefe" (Oberkommandierender) bezeichnet. Nach seinem Rücktritt von seinen offiziellen Ämtern ist der Titel "Líder histórico de la Revolución Cubana" ("Historischer Führer der kubanischen Revolution") hinzugekommen. Lebensstil. Juan Reynaldo Sanchez, ein ehemaliger Leibwächter Fidel Castros, berichtet in seinem Buch "La Vie Cachée de Fidel Castro" von einem aufwendigen Lebensstil des Revolutionsführers, der im Gegensatz zu seiner kommunistischen Ideologie stehe. So berichtete Sanchez, Castro sei in seiner Zeit als Staatsoberhaupt u. a. Besitzer einer Yacht, einer privaten Insel, eines Basketballplatzes und eines Yachthafens gewesen. Franz Müntefering. Franz Müntefering (* 16. Januar 1940 in Neheim, heute Arnsberg) ist ein deutscher Politiker (SPD). Von 1998 bis 1999 war er Bundesminister für Verkehr, Bau- und Wohnungswesen, von 2002 bis 2005 Vorsitzender der SPD-Bundestagsfraktion und ab März 2004 – zunächst bis November 2005 und noch einmal von Oktober 2008 bis November 2009 – auch ihr Bundesvorsitzender. Von 2005 bis 2007 war Müntefering Vizekanzler und Bundesminister für Arbeit und Soziales im ersten Kabinett von Angela Merkel sowie in den Jahren 1975 bis 1992 und 1998 bis 2013 Abgeordneter des Deutschen Bundestages (MdB). Franz Müntefering ist seit 27. April 2013 ehrenamtlich Präsident des Arbeiter-Samariter-Bundes Deutschland. Am 25. November 2015 wurde er zum Vorsitzenden der Bundesarbeitsgemeinschaft der Seniorenorganisationen (BAGSO) gewählt. Ausbildung. Münteferings Vater war Landwirt, seine Mutter Hausfrau. Erst im Alter von sechseinhalb Jahren lernte er seinen Vater kennen, als dieser aus der Kriegsgefangenschaft heimkehrte. Die Eltern starben beide 1985. Nach dem Besuch der Volksschule in Sundern absolvierte Müntefering von 1954 bis 1957 eine Ausbildung zum Industriekaufmann, anschließend war er bis 1975 in der metallverarbeitenden Industrie tätig. 1961/1962 leistete er seinen Grundwehrdienst bei der Panzergrenadiertruppe in Höxter und Osterode am Harz ab. Parteilaufbahn. Seit 1966 ist er Mitglied der SPD, deren Vorstand er seit 1991 angehört. Von 1992 bis 1998 war er auch Vorsitzender des SPD-Bezirks "Westliches Westfalen". Von 1995 bis 1998 und kommissarisch von September bis Dezember 1999 war er Bundesgeschäftsführer der SPD. Von 1998 bis 2001 hatte er das Amt des SPD-Landesvorsitzenden in Nordrhein-Westfalen inne, und vom 7. Dezember 1999 bis zum 20. Oktober 2002 das des SPD-Generalsekretärs. Auf einem SPD-Sonderparteitag am 21. März 2004 wurde er als Bundesvorsitzender der SPD Nachfolger von Gerhard Schröder. Er erhielt 95,1 % der Stimmen – das beste Ergebnis für einen SPD-Vorsitzenden seit 1991. Vizekanzler Müntefering beim „Politischen Aschermittwoch“ am 1. März 2006 in Neckarsulm SPD-Chef Müntefering am 14. September 2009 in Augsburg Im Oktober 2005 schlug Müntefering den bisherigen SPD-Bundesgeschäftsführer Kajo Wasserhövel als künftigen Generalsekretär vor. Als sich jedoch am 31. Oktober 2005 innerhalb des Parteivorstandes in einer Kampfabstimmung die zum linken Flügel zählende Andrea Nahles durchsetzte, kündigte Müntefering an, nicht mehr für den Parteivorsitz zu kandidieren. Auf dem Bundesparteitag in Karlsruhe am 15. November 2005 wurde Matthias Platzeck mit 99,4 % der gültigen Delegiertenstimmen zu seinem Nachfolger gewählt. Im August 2008, einen Monat nach dem Tod seiner Frau, die er bis zuletzt gepflegt hatte, kehrte Müntefering in die Spitzenpolitik zurück, um die SPD im Vorfeld der anstehenden Landtags- und Bundestagswahlen zu unterstützen. Nach dem Rücktritt von Kurt Beck am 7. September 2008 wurde er auf einem Sonderparteitag in Berlin am 18. Oktober 2008 mit 84,86 Prozent als dessen Nachfolger gewählt. Nachdem die SPD bei der Bundestagswahl am 27. September 2009 nur 23 Prozent der Stimmen erreicht hatte, kündigte Müntefering an, auf dem SPD-Parteitag vom 13. bis 15. November 2009 in Dresden nicht mehr zu kandidieren. Er wurde als Vorsitzender am 13. November 2009 von Sigmar Gabriel abgelöst. Abgeordnetentätigkeit. Von 1969 bis 1979 gehörte Müntefering dem Stadtrat von Sundern an. 1975 zog er als Nachrücker erstmals in den Bundestag ein und gehörte ihm bis 1992 an. Er war dort von 1990 bis 1992 Parlamentarischer Geschäftsführer der SPD-Bundestagsfraktion. Nach seiner Berufung zum Minister in Nordrhein-Westfalen schied er aus dem Parlament aus. Von 1996 bis 1998 war er Mitglied des Landtages von Nordrhein-Westfalen. Dem Deutschen Bundestag gehörte Müntefering anschließend erneut von 1998 bis 2013 an, als er nicht mehr zur Wahl antrat. Von September 2002 bis November 2005 war er Vorsitzender der SPD-Bundestagsfraktion. Öffentliche Ämter. Vom 18. Dezember 1992 bis zum 27. November 1995 gehörte er als Minister für Arbeit, Gesundheit und Soziales des Landes Nordrhein-Westfalen dem Kabinett von Ministerpräsident Johannes Rau an. Nach der Bundestagswahl 1998 wurde er am 27. Oktober 1998 als Bundesminister für Verkehr, Bau- und Wohnungswesen in die von Bundeskanzler Gerhard Schröder geführte Bundesregierung berufen. Nach dem Rücktritt von Ottmar Schreiner am 5. September 1999 vom Amt des Bundesgeschäftsführers der SPD legte Müntefering sein Ministeramt am 29. September 1999 nieder und wurde kommissarischer Bundesgeschäftsführer. Am 22. November 2005 wurde er zum Stellvertreter der Bundeskanzlerin und zum Bundesminister für Arbeit und Soziales in der von Angela Merkel geführten Bundesregierung ernannt. Müntefering kündigte am 13. November 2007 aus familiären Gründen seinen Rücktritt von seinen Ämtern als Minister und Vizekanzler an; dieser wurde am 21. November 2007 vollzogen. Im November 2013 wurde er neben Lothar de Maizière zum Vorstandsvorsitzenden der Deutschen Gesellschaft e.V. gewählt. Seit März 2014 ist er Beiratsvorsitzender des Berliner Demografie Forums. Privates. Müntefering ist zum dritten Mal verheiratet. Aus seiner geschiedenen ersten Ehe mit seiner Frau Renate stammen seine beiden Töchter, darunter die Schriftstellerin Mirjam Müntefering. 1995 heiratete er Ankepetra Rettich (1946–2008). Ihr Krebsleiden, dem sie am 31. Juli 2008 in Bonn erlag, war der Grund für Münteferings Rücktritt als Bundesminister und Vizekanzler im Herbst 2007. Er wollte eigentlich bei der Bundestagswahl 2009 nicht mehr antreten, ließ sich aber im September 2008 von Frank-Walter Steinmeier (damals designierter SPD-Kanzlerkandidat) umstimmen. Am 12. Dezember 2009 heiratete er die gelernte Kinderpflegerin und Journalistin Michelle Schumann (* 1980). Franz Müntefering ist römisch-katholischer Konfession. Positionen. Franz Müntefering spricht auf einer Wahlkampfveranstaltung zur Bundestagswahl 2009 in Hannover Liberalisierung der Finanzmärkte. Im April 2005 kritisierte Müntefering das Investitionsverhalten von Investmentgesellschaften und Hedge-Fonds; derartige Kritik war bis dahin nur von Globalisierungskritikern geäußert worden. Er verglich sie mit Heuschrecken und löste damit die Heuschreckendebatte in Politik und Medien aus. Steueroasen. Am 25. Februar 2009 äußerte Müntefering beim Politischen Aschermittwoch der baden-württembergischen SPD in Ludwigsburg in Bezug auf Länder mit niedrigerem Steuersatz als in Deutschland: „Früher hätte man dort Soldaten hingeschickt. Aber das geht heute nicht mehr.“ Der luxemburgische Premierminister Jean-Claude Juncker zeigte sich daraufhin empört, und im Schweizer Parlament fand seine Aussage ebenfalls ein negatives Echo. Fritz Kuhn. Fritz Kuhn (* 29. Juni 1955 in Bad Mergentheim) ist ein deutscher Politiker (Die Grünen) und Oberbürgermeister der baden-württembergischen Landeshauptstadt Stuttgart. Er war von 2000 bis 2002 Bundesvorsitzender von Bündnis 90/Die Grünen und von 2002 bis 2013 Bundestagsabgeordneter, von 2005 bis 2009 außerdem Fraktionsvorsitzender. Leben und Beruf. Fritz Kuhn beim 4. Kommunalpolitischen Bundeskongress, 2014 in Stuttgart Kuhn wurde als Sohn eines einfachen Beamten, der bei der Bundeswehr arbeitete, 1955 in Bad Mergentheim geboren. Er wuchs in Memmingen auf. Als Schüler des dortigen Bernhard-Strigel-Gymnasiums engagierte sich Kuhn politisch u. a. bei den Memminger Jusos, in der SMV und als Schulsprecher. Nachdem der damalige Oberbürgermeister Johannes Bauer einem Dramaturgen des Memminger Theaters im Herbst 1973 gekündigt hatte, war Kuhn an der Organisation einer großen Demonstration beteiligt. Nach dem Abitur 1974 in Memmingen absolvierte Kuhn ein Studium der Germanistik und Philosophie an der Ludwig-Maximilians-Universität München und der Eberhard Karls Universität Tübingen, das er 1980 als Magister Artium (M. A.) mit dem Schwerpunkt Linguistik beendete. Anschließend war er von 1981 bis 1984 als wissenschaftlicher Assistent an der Universität Augsburg und als Berater der Landtagsfraktion der Grünen in Baden-Württemberg tätig. Von 1989 bis 1992 arbeitete Kuhn als Lehrbeauftragter für sprachliche Kommunikation an der Merz Akademie in Stuttgart. 2013 wurde Kuhn als Nachfolger von Frieder Birzele Vorsitzender des Volkshochschulverbandes Baden-Württemberg. Kuhn ist mit der ehemaligen Grünen-Landtagsabgeordneten Waltraud Ulshöfer verheiratet und hat zwei Söhne. Politische Tätigkeit. Kuhn wurde als Student Mitglied der SPD, die er aber 1978 wegen der Politik Helmut Schmidts verließ. 1980 gehörte er zu den Gründungsmitgliedern der Grünen in Baden-Württemberg. Von 1991 bis 1992 war er deren Sprecher im Geschäftsführenden Landesvorstand. Von 1984 bis 1988 sowie von 1992 bis 2000 gehörte Kuhn dem Landtag von Baden-Württemberg an und war jeweils Vorsitzender der Landtagsfraktion der Grünen. Nach der Bundestagswahl 1998 gehörte er zur Delegation der Grünen bei den Koalitionsverhandlungen mit der SPD. Von Juni 2000 bis Dezember 2002 war Kuhn zunächst gemeinsam mit Renate Künast und ab März 2001 mit Claudia Roth Bundesvorsitzender von Bündnis 90/Die Grünen. Von 2002 bis Januar 2013 war er Mitglied des Deutschen Bundestages. Er vertrat den Wahlkreis Heidelberg, zog aber stets über die Landesliste Baden-Württemberg in den Bundestag ein. Im Bundestag leitete er zunächst die Fraktionsarbeitsgruppe Wirtschaft und Arbeit und war anschließend von Februar bis Oktober 2005 außenpolitischer Sprecher der Die Grünen. Im Wahlkampf für die Bundestagswahl 2005 war Kuhn der Wahlkampfmanager der Bundespartei. Er gehörte dem Parteirat der Grünen an, scheiterte allerdings 2008 mit seiner Kandidatur und schied daher aus dem Gremium aus. Am 27. September 2005 wurden Kuhn und Renate Künast zu den Vorsitzenden der Bundestagsfraktion Bündnis 90/Die Grünen gewählt. Nach der Bundestagswahl 2009 kandidierte er nicht mehr für dieses Amt. Kuhn wurde jedoch zu einem der stellvertretenden Vorsitzenden gewählt. Mit dem Amtsantritt als Stuttgarter Oberbürgermeister schied er im Januar 2013 aus dem Bundestag aus. Im Februar 2012 trat er vom stellvertretenden Fraktionsvorsitz zurück, um für das Amt des Oberbürgermeisters von Stuttgart zu kandidieren. Kuhn wurde im März 2012 von einer Mitgliederversammlung als Kandidat seiner Partei nominiert. Beim Wahlgang am 7. Oktober 2012 erreichte Kuhn mit knappem Vorsprung ein gutes Drittel der Stimmen. Da keiner der Kandidaten die absolute Mehrheit erreichte, wurde ein zweiter Wahlgang erforderlich, bei dem eine relative Mehrheit ausreichte. Kuhn gewann den zweiten Wahlgang am 21. Oktober 2012 mit 52,9 % der Stimmen gegen den von CDU, FDP und den Freien Wählern unterstützten parteilosen Kandidaten Sebastian Turner. Kuhns Amtszeit begann am 7. Januar 2013. Damit ist er der erste grüne Oberbürgermeister einer Landeshauptstadt. In seiner Antrittsrede kritisierte Kuhn die mangelnde Transparenz beim Projekt Stuttgart 21, welche zu einer geführt habe, und erklärte seine Absicht, über Alternativen zu diskutieren. Ehrungen. 2007 wurde Fritz Kuhn mit der Verdienstmedaille des Landes Baden-Württemberg ausgezeichnet. Flugzeugträger. Ein Flugzeugträger ist ein Kriegsschiff, auf dem Militärflugzeuge starten und landen können. Die heute im Einsatz befindlichen Flugzeugträger bilden den Kern einer Trägerkampfgruppe. Mit ihrer Hilfe kann eine Nation weltweit militärisch handeln, auch ohne Stützpunkte im Konfliktgebiet zu unterhalten. Moderne große Flugzeugträger (Flottenflugzeugträger) mit einer Verdrängung von über 75.000 tn.l. werden manchmal auch „Supercarrier“ genannt. Geschichte. Eugene B. Ely kurz nach dem Start von der "Birmingham" Dem US-Amerikaner Eugene Burton Ely gelang am 14. November 1910 um 15.30 Uhr von einer am Bug der "Birmingham" angebrachten Plattform mit einem Curtiss-Doppeldecker der erste Start von einem Schiff. Zwei Monate später, am 18. Januar 1911, gelang ihm auch die erste Landung auf einem Schiff. Er landete mit seiner Maschine auf der "Pennsylvania", die eigens dafür mit einer hölzernen Plattform ausgerüstet worden war. Nach einem kurzen Aufenthalt an Bord flog er wieder zurück an Land. Am 6. September 1914 wurden der österreichisch-ungarische Kreuzer "Kaiserin Elisabeth" und das deutsche Kanonenboot "Jaguar" vor Tsingtau Ziele des ersten seegestützten Luftangriffes in der Geschichte; beide Schiffe wurden dabei nicht getroffen. Der Angriff erfolgte durch das japanische Flugzeugmutterschiff Wakamiya. Die in Frankreich gebauten "Farman Doppeldecker-Wasserflugzeuge" mussten per Bordkran ausgesetzt und gestartet werden. Die Entwicklung der Flugzeugträger begann bereits vor dem Ersten Weltkrieg, zunächst mit Handels- und Kriegsschiffen, die durch entsprechende Umrüstung zu sogenannten seeflugzeugtragenden Flugzeugmutterschiffen wurden. Die Britische "Argus" war zum Ende des ersten Weltkriegs hin der erste vollwertigen Flugzeugträger für Radflugzeuge. Die Japaner folgten bald darauf mit der "Hōshō", und auch die US Navy fand den Anschluss an diese Entwicklung mit dem umgebauten Kohlenfrachter "Jupiter", der nach dem Umbau den Namen "Langley" und die Kennung CV-1 erhielt. In den 1920er und 1930er Jahren wurde sowohl die Technik der Flugzeugträger als auch die der Flugzeuge ständig weiterentwickelt. So stattete im Jahr 1930 die Royal Navy ihren Flugzeugträger "Courageous" mit einer der ersten brauchbaren Fangseilanlagen aus. a>" brennend mit Schlagseite nach schweren japanischen Bombentreffern (März 1945) Im Zweiten Weltkrieg spielten Flugzeugträger erstmals eine äußerst wichtige Rolle. So stützte sich der vernichtende Luftangriff Japans auf Pearl Harbor im Dezember 1941 auf eine Flotte von sechs Flugzeugträgern ("Kaga", "Akagi", "Sōryū", "Hiryū", "Shōkaku" und "Zuikaku"), von denen Sturzkampfbomber und Torpedobomber starteten. Japaner und Amerikaner setzten in der Schlacht im Korallenmeer im Mai 1942 und in der Schlacht um Midway im Juni 1942 trägergestützte Flugzeuge ein, um das jeweilige gegnerische Trägergeschwader zu vernichten. Der Flugzeugträger war von Anfang an die Hauptwaffe zur Seebeherrschung im Pazifikkrieg. Zur Vermehrung des Trägerbestandes wurden ab 1942 auch Kreuzerrümpfe zu Leichten Flugzeugträgern fertiggestellt. Damit entstanden neun Schiffe der "Independence"-Klasse. Zwei Einheiten der leistungsstärkeren "Saipan"-Klasse konnten nicht mehr in das Kriegsgeschehen eingreifen. Der Krieg in Afrika zwischen den italienischen Streitkräften und dem Deutschen Afrikakorps auf der einen Seite und den britischen Streitkräften auf der anderen Seite wurde entscheidend beeinflusst durch britische Flugzeugträger, die die Geleitzüge zur Versorgung der Mittelmeerinsel Malta sicherten und Malta mit Flugzeugen zum Abwehrkampf gegen die deutschen Bombenangriffe versorgten. Immer wieder wurden Flugzeugträger eingesetzt, die nur Jagdflugzeuge transportierten, die dann von den Trägern zur Insel Malta flogen, zur Verstärkung der Luftabwehr der Insel. Vom britischen Stützpunkt Malta aus wurde der Nachschub über See für die deutsch-italienischen Truppen in Afrika entscheidend durch die Versenkung von Nachschubschiffen getroffen. Im Atlantik wirkte sich die Luftüberwachung durch Geleitflugzeugträger stark auf den Kampf der deutschen U-Boote gegen den Versorgungsverkehr nach England aus. Die Geleitflugzeugträger hatten ihren Anteil am Sieg über die deutschen U-Boote. Der erste und bisher einzige deutsche Flugzeugträger "Graf Zeppelin" lief 1938 vom Stapel. Er wurde jedoch nie fertiggestellt und im August 1947 als „nicht nutzbare Kriegsbeute“ durch zwei Torpedoschüsse sowjetischer Kriegsschiffe in der Ostsee versenkt. Mitte der 1950er Jahre wurde der Wechsel von Propeller- zu Strahlflugzeugen auf Flugzeugträgern vollzogen, was nur mit neuem großen technischem Aufwand auf den Trägern zu bewerkstelligen war, weil die Strahlflugzeuge viel schwerer waren und viel höhere Landegeschwindigkeiten und Startgeschwindigkeiten hatten. Man hatte anfangs große Schwierigkeiten beim Einfangen und beim Abschleudern der Maschinen. Mit der "Enterprise" führte die United States Navy im Jahr 1961 den ersten atomgetriebenen Flugzeugträger der Welt ein. Die "Enterprise" war mit 342 Metern Länge bis zu ihrer Außerdienststellung 2012 das längste Kriegsschiff der Welt. Der neueste Träger der amerikanischen Marine führt die Kennung CVN-78 und wurde als Typschiff der aus dem CVN-21-Programm hervorgegangenen Nachfolgern der "Nimitz"-Klasse auf den Namen "Gerald R. Ford" getauft. Die Schiffstaufe fand 2013 statt, die Indienststellung ist für 2016 geplant. Dieser Träger soll die Nachfolge der "Enterprise", die am 1. Dezember 2012 außer Dienst gestellt wurde, antreten. Indien weihte im August 2013 seinen ersten selbstgebauten Flugzeugträger ein: die "Vikrant". Indien ist damit das sechste Land der Welt, das einen selbstgebauten Flugzeugträger (oder mehrere davon) hat. China hat (Stand 2013) keinen solchen; die "Liaoning" ist ein Schiff, das früher "Warjag" hieß, der Sowjetmarine gehörte und das 1998 halbfertig von China gekauft wurde. Sowjetische und nachfolgend russische Trägerschiffe wurden/werden offiziell immer mit dem Begriff „Flugdeckkreuzer“ bezeichnet, da der Vertrag von Montreux (1936) die Durchfahrt von „Flugzeugträgern“ durch die Dardanellen verbietet. Um die Träger dennoch von den Werften und Häfen an der Schwarzmeerküste ins Mittelmeer und zurück verlegen zu können, verwendet(e) man diese Bezeichnung. Bedeutung und Untertypen von Flugzeugträgern. Flugzeugträger sind die größten Schiffe, die von der Marine eingesetzt werden. Die Träger der US-amerikanischen "Nimitz"-Klasse, die von zwei Atomreaktoren und vier Dampfturbinen angetrieben werden, haben bis zu 6300 Mann Besatzung, und das letzte Schiff dieser Klasse kostete 6,3 Mrd. US-Dollar. Die monatlichen Betriebskosten eines Flugzeugträgers dieser Größe betragen ca. 13 Mio. Dollar (ohne Personalkosten). Außerdem werden Flugzeugträger in Glattdeckträger, also Flugzeugträger ohne 'Insel', und in Träger des „Insel-Typs“ unterschieden. Nach dem Zweiten Weltkrieg wurden nur noch Flugzeugträger des Insel-Typs gebaut. Lediglich dreizehn Staaten besitzen Flugzeugträger (siehe Liste der Flugzeugträger): Frankreich, Indien, Russland, Spanien, Brasilien, Italien, Thailand, das Vereinigte Königreich, Japan, Südkorea sowie die Vereinigten Staaten. Das chinesische Tourismusunternehmen Chong Lot hat 2002 den ehemaligen sowjetischen, nicht fertiggestellten Flugzeugträger "Warjag" von der Ukraine gekauft, offiziell um daraus ein schwimmendes Spielcasino zu bauen. Er wurde jedoch in Dalian vollendet, lief am 10. August 2011 zur ersten Probefahrt aus und wurde am 25. September 2012 unter dem Namen Liaoning in Dienst gestellt. Des Weiteren hat Australien seit kurzem ein STOVL-Schiff der "Canberra"-Klasse in Dienst, ein weiteres ist im Bau (Fertigstellung 2016). Die größten und meisten Flugzeugträger gehören zur Flotte der United States Navy. Die Träger aller anderen Länder sind deutlich kleiner als die der US Navy. Lediglich Großbritannien plant aktuell den Bau von zwei neuen, deutlich größeren Flugzeugträgern der "Queen Elizabeth"-Klasse. Allerdings werden auch diese von geringerer Größe sein, als die Flugzeugträger der US Navy. Frankreich hat inzwischen Interesse an diesem Projekt bekundet und denkt über eine Beteiligung nach. Eine definitive Entscheidung liegt jedoch noch nicht vor. Die US Navy hat auch mehrere amphibische Angriffsschiffe im Dienst, sogenannte Amphibious Assault Ships. Diese kleineren, vielseitig einsetzbaren Flugzeugträger dienen dem Transport von etwa 3.000 Soldaten des US Marine Corps sowie zusätzlichem militärischen Gerät wie zum Beispiel Landungsbooten. Neben Hubschraubern können auch senkrechtstartende Kampfflugzeuge auf dem Flugdeck stationiert werden. Großbritannien und Frankreich verfügen ebenfalls über solche Schiffe. Seeflugzeugträger. Eine Besonderheit waren Flugzeugmutterschiffe und Seeflugzeugträger. Sie trugen Schwimmerflugzeuge oder Flugboote, die nach dem Niedergehen auf dem Wasser mit einem Kran an Deck geholt wurden. Der Start erfolgte ebenfalls vom Wasser aus oder mit einem Flugzeugkatapult von Deck. Mit der Entwicklung von mit Flugdeck ausgerüsteten Flugzeugträgern, auf denen Radflugzeuge starten und landen konnten, wurden diese Schiffe obsolet. Als Beispiel ist die "Schwabenland" erwähnenswert, die bei der 39 eingesetzt wurde, um Dornier Wal-Flugboote per Katapult zu starten und dann per Flugzeughebekran wieder an Bord zu nehmen. Ebenso erwähnenswert sind die U-Boot Flugzeugträger der japanischen Marine im Zweiten Weltkrieg, die I-400 und AM-Klassen, welche ebenfalls als Mutterschiffe agierten und Wasserflugzeuge in teilweise zerlegtem Zustand transportierten und zum Start aussetzen konnten. Rumpf. Die "Harry S. Truman" vor Anker in Portsmouth Der Rumpf eines Flugzeugträgers der amerikanischen "Nimitz"-Klasse ist knapp 333 m lang und hat einen Tiefgang von bis zu 12 m, während die der britischen Träger mit bis zu 210 m Länge ein gutes Drittel kleiner sind. Er besteht aus Stahl mit einer Dicke von mehreren Zentimetern. Unter der Wasserlinie besteht der Rumpf als Schutz vor Beschädigung aus einer Doppelhülle. Stabilität und Sicherheit werden durch die Einteilung in Schotten (quer) und Decks (horizontal) erreicht. Über der Wasserlinie wird der Rumpf, um das Flugdeck zu tragen, immer breiter und bietet dadurch auch mehr Raum für Hangars und andere Räume. Unter dem Flugdeck befinden sich die untereinander verbundenen Hangars, die die dreifache Höhe normaler Decks haben. In diesen sind die Flugzeuge untergebracht und können dort gewartet werden. Sie werden über bis zu vier Aufzüge, die sich seitlich am oder direkt im Rumpf befinden, zum Flugdeck gebracht. Weitere drei Decks unter den Hangars befinden sich die Maschinenräume. Um möglichst viel Platz für das Flugdeck zur Verfügung zu haben, sind die Kommandobrücke, alle Antennen und Radaranlagen auf der sogenannten Insel, der einzigen Erhöhung an Deck (meistens an der Steuerbordseite), untergebracht. Der Rumpf ist auf Schnelligkeit ausgelegt, daher wird der maximale Völligkeitsgrad (Schiffshydrodynamik) erst im hinteren Teil erreicht. Durch diese Auslegung und die Länge des Schiffs wird eine hohe Rumpfgeschwindigkeit erreicht, welche in Kombination mit einem leistungsfähigen Antrieb eine hohe maximale Geschwindigkeit ermöglicht. Die Stabilität geht damit vom Heck aus. Beim Vergleich der Ansicht eines Frachtschiffes und eines Flugzeugträgers von schräg vorne ist zu erkennen, wie schmal der Bug eines Flugzeugträgers ist. Flugdeck. Diese nach dem Zweiten Weltkrieg entwickelte Flugdeckform erlaubt das gleichzeitige Starten und Landen von Flugzeugen. Die Entwicklung der Flugdecks bei amerikanischen Flugzeugträgern Flugzeugträger gibt es in zwei grundlegenden Konfigurationen: Die meisten besitzen ein flaches Deck als Start- und Landefläche für Flugzeuge. Ein Dampfkatapult beschleunigt das Flugzeug, das seinen Start durch vollen Schub unterstützt, in zwei Sekunden auf Startgeschwindigkeit. Um auf dem Träger zu landen, muss ein Flugzeug mit seinem Fanghaken eines von mehreren quer über dem Deck ausliegenden Stahlseilen aufnehmen. Es wird dann innerhalb von 100 Metern zum Stehen gebracht. Bei großen Flugzeugträgern ist das Flugdeck versetzt; dadurch erhalten Flugzeuge, die die Fangseile verfehlt haben, die Möglichkeit durchzustarten, ohne Gefahr zu laufen, in die am Bug abgestellten Maschinen zu stürzen. Für diese Art der Flugoperationen werden spezielle trägergestützte Flugzeuge benötigt, die für solche ausgelegt sind. Das Prinzip wird als Conventional Take-Off and Landing (CTOL) bezeichnet. Der zweite Ansatz von vielen Marinen – wie der der Briten, Italiener, Spanier, Inder und Russen – ist eine Art „Sprungschanze“ an einem Ende des Decks, ein sogenannter Ski-Jump, die dem Flugzeug beim Start hilft. Diese Schiffe werden als STOVL- (Short Take-Off and Vertical Landing) oder STOBAR-Flugzeugträger (Short Take-Off But Arrested Recovery) bezeichnet. Das Prinzip wurde Ende der 1970er Jahre von der britischen Royal Navy entwickelt, um eine kostengünstigere und kleinere Art von Flugzeugträgern zu bauen. Nachdem es sich im Falklandkrieg bewährt hatte, begannen auch andere Nationen, dem britischen Beispiel zu folgen. Dies funktioniert mit senkrecht startenden Jets wie der britischen Hawker Siddeley Harrier, die fast ohne Vorwärtsbewegung starten und landen können, aber auch mit anderen Flugzeugen, die über entsprechend leistungsfähige Triebwerke verfügen. Der modifizierte Abflugwinkel gibt in diesem Fall dem Flugzeug mehr Zeit nach Verlassen des Flugdecks, auf eine für den Horizontalflug ausreichende Geschwindigkeit zu beschleunigen. Katapulte entfallen somit – bei Senkrechtstartern zusätzlich auch die Fangseile für die Landung. In beiden Fällen läuft das Schiff während Start- oder Landeoperationen mit bis zu 35 kn (64 km/h) gegen den Wind, um die notwendige Geschwindigkeit des Flugzeuges über dem Trägerdeck, bzw. die relative „Stall speed“ herabzusetzen. Der Unterschied zur wahren Geschwindigkeit über Grund (engl. „Ground speed“) ist somit nur mehr die zusätzliche Reduktion dieser durch die Relativbewegung des Flugzeugträgers gegenüber der Erdoberfläche (Meeresoberfläche). Antrieb. Die modernen US-Träger sowie die französische "Charles de Gaulle" beziehen die Energie für ihre Dampfturbinen aus mehreren (meist zwei) Druckwasserreaktoren, wodurch sie eine sehr große Leistung und Reichweite haben. Alle anderen Flugzeugträger werden konventionell mit Kesseln oder Gasturbinen angetrieben. Mit bis zu vier Schrauben erreichen sie eine Geschwindigkeit von über 30 Knoten. Kennung. Im Gegensatz zu Fregatten oder Zerstörern gibt es international keine einheitliche Kennung für Flugzeugträger. Kennungen der US Navy. Die Flugzeugträger der US Navy werden traditionell bedingt mit „CV“, gefolgt von einer Nummer gekennzeichnet, also zum Beispiel "CV-6" für die "Enterprise" des Zweiten Weltkriegs und "CVN-65" für die bis 2012 aktive "Enterprise". Die Zahl bedeutet in diesem Fall somit den 6. bzw. 65. in Auftrag gegebenen Flugzeugträger der US Navy. Das „C“ steht für „Kreuzer“ (englisch: „cruiser“), da Flugzeugträger in ihren Anfängen umgebaute Kreuzer und ursprünglich der „Scouting Force“ zugeordnet waren. Der Buchstabe „V“ leitet sich sehr wahrscheinlich aus der Luftfahrt (englisch: "Aviation") und ursprünglich vom französischen Verb "voler" (fliegen) und folglich dem englischen Begriff "Volplane" ab. "V" deklariert bei der US Navy eine bestimmte Klasse von Fahrzeugen, die schwerer als Luft sind (englisch: „heavier-than-air craft“, bzw. „aerodynes“), sich in selbiger aber von alleine bewegen können (im Gegensatz zu Fahrzeugen, wie bspw. einem Zeppelin, der nämlich "leichter" als Luft ist und dementsprechend englisch „lighter-than-air craft“, bzw. „aerostats“ genannt wird). Diese Klasse beinhaltet auch alle Starrflügelflugzeuge (englisch: „fixed wing“). Vermutlich aus diesem Grund hat die US Navy die Bezeichnung "V" gewählt, auch deshalb, weil "CA" bereits für schwere Kreuzer und "AC" für Kohle- und Treibstofftransporter vergeben war. Ein Flugzeugträger mit der Kennung "CV" hat somit die primäre Aufgabe, Starrflügelflugzeuge zu tragen. Die häufig verwendeten Bezeichnungen Carrier Vessel oder Carrier Vehicle (für US-Flugzeugträger) hingegen sind nicht korrekt, werden aber selbst im militärischen Sprachgebrauch oft verwendet. Atomgetriebene Flugzeugträger tragen den Zusatz "N" für "Nuclear". Die Kennung aller heute aktiven US-Flugzeugträger ist auf Grund des Atomantriebs daher "CVN". Kennungen der Royal Navy. Die Flugzeugträger der britischen Royal Navy tragen die Kennung "R". Während des Zweiten Weltkriegs bezeichnete die Royal Navy Flugzeugträger, die im Atlantik stationiert waren, mit "D", jene im Pazifik mit "R". Um die Kennungen zu vereinheitlichen, wurden später alle Flugzeugträger mit "R" bezeichnet, da "D" nur noch für Zerstörer verwendet wurde. Die genaue Bedeutung der Abkürzung "R" ist heute nicht mehr genau nachvollziehbar. Sie hat aber wahrscheinlich ihren Ursprung im alten Kennungssystem der Royal Navy, dessen Buchstaben sich auf die Heimatbasis der Schiffe bezogen (D = Devonport, R = Rosyth). Im Verband. Flugzeugträger operieren nie alleine, sondern zusammen mit verschiedenen Begleitschiffen, die für Schutz und Versorgung sowie zusätzliches Offensivpotenzial sorgen. Diese Begleitflotte setzt sich in der Regel aus Kreuzern, Zerstörern und Fregatten zusammen, die den Verband gegen Bedrohungen aus der Luft, durch andere Seeeinheiten oder durch U-Boote schützen. Zusätzlich werden U-Boote zur Aufklärung und U-Jagd eingesetzt. Versorgungsschiffe und Tanker erweitern den Aktionsradius der Trägergruppe um ein Vielfaches. Außerdem können diese Schiffe zusätzliche Offensivkapazität bereitstellen, zum Beispiel Marschflugkörper. Ältere sowjetische Flugzeugträger verfügten ihrerseits über eine so starke Eigenbewaffnung, dass sie nicht auf den Schutz weiterer Begleitschiffe angewiesen waren. Start. a> Hornet kurz vor dem Katapultstart a>", gut zu sehen die Schanze Der Start erfolgt entweder über Flugzeugkatapulte, über eine Sprungschanze (ski jump) oder im Senkrechtstart. Katapultstart. Bei Flugzeugträgern der US Navy, der französischen Marine und der brasilianischen Marine werden die Flugzeuge mittels Flugzeugkatapulten auf Startgeschwindigkeit gebracht. Um die Besatzung und wartende oder geparkte Flugzeuge auf dem Flugdeck zu schützen, wird hinter einem startenden Flugzeug ein Stück des Bodens („Gasstrahlabweiser“, engl. „Jetblast Deflector“, JBD) aufgeklappt, sodass die Abgasstrahlen nach oben abgelenkt werden. Der eigentliche Start erfolgt in nur wenigen Sekunden, in denen das Flugzeug auf Startgeschwindigkeit beschleunigt wird. Schanzenstart. Auf den russischen, britischen, indischen, spanischen und italienischen Flugzeugträgern gibt es keine Dampfkatapulte. Stattdessen gibt es ein Startdeck, das hochgebogen ist wie eine Sprungschanze. Die russischen Marineflugzeuge werden von Bremsklötzen festgehalten und die Besatzung durch Strahlabweiser wie bei den amerikanischen Flugzeugträgern geschützt. Das startende Flugzeug fährt die Triebwerke mit Nachbrennern hoch, bewegt sich aber nicht vorwärts, weil die Bremsklötze das Flugzeug zurückhalten. Sobald die Bremsklötze das Flugzeug loslassen, beschleunigt es und startet über die Rampe vom Schiff. Senkrechtstart. Diese Variante des Starts wird normalerweise nicht verwendet. VTOL-fähige Flugzeuge starten normalerweise über eine Schanze und landen senkrecht. Dies hat den Vorteil, dass die Flugzeuge beim Start mehr Nutzlast mitführen können. Das Transportflugzeug V-22 Osprey kann dagegen mit voller Nutzlast auch vertikal abheben. Lediglich die Reichweite wird durch den vertikalen Start herabgesetzt. Auch die auf allen Trägern stationierten Hubschrauber starten immer senkrecht, werden aber als Drehflügler nicht zu den Flugzeugen gezählt. Start per Kurzstartfähigkeit. Auf den Amphibious Assault Ships der US Navy starten die auf ihnen eingesetzten Senkrechtstarter mit kurzem Anlauf. Die Schiffe verfügen nicht über Katapulte, aber auch nicht über Schanzen. Landung. A-18E landet mit Hilfe des Fanghakens auf der "John C. Stennis" Die Landung auf einem Träger gehört mit zu den anspruchsvollsten und gefährlichsten fliegerischen Operationen, besonders, wenn sie bei Nacht oder schlechtem Wetter durchgeführt werden soll. Es gibt zwei Arten von Landungen, die Landung mit Fangseilen und die Senkrechtlandung. Landung mit Fangseilen. Diese Art der Landung wird auf fast allen Flugzeugträgern angewandt. Hierbei sind auf dem hinteren Flugdeck meist vier (bei einigen Flugzeugträgern aber auch nur drei) Fangseile gespannt, von denen der Pilot eines mit dem Fanghaken "erwischen" muss. Vorzugsweise sollte der Pilot bei diesem Manöver den Träger stets so anfliegen, dass er sich möglichst in das dritte Seil einharkt. Senkrechtlandung. Diese Art der Landung wird momentan nur mit dem Hawker Siddeley Harrier oder dem V-22 Osprey und durch ihre Nutzer US Marine Corps, Royal Air Force und Royal Navy (Fleet Air Arm) betrieben. Die Marine Corps operieren mit ihren Flugzeugen nicht nur von Flugzeugträgern, sondern auch von Hubschrauberträgern der "America"- und "Wasp"-Klasse. Die Harrier-Flugzeuge werden in Zukunft von der im Moment in der Testphase befindlichen Lockheed Martin F-35 abgelöst. Von diesem Flugzeugtyp hat auch Italien Maschinen für den Einsatz auf ihren Trägern bestellt. Wie auch beim Start nutzen Hubschrauber immer ihre Fähigkeit, senkrecht zu landen. Flugdeckbesatzung. Auf dem Flugdeck sind Besatzungsmitglieder für verschiedene Zwecke tätig. Sie werden anhand ihrer farbigen Hemden, Arbeitswesten und Helme bzw. Helmbezüge nach ihren Funktionen an Deck unterschieden. Sonstiges. Kapelle in der "John C. Stennis" (2007) Im März 1934 beschloss die Führung der deutschen Marine nach Gesprächen mit Hitler ein Schiffbau-Programm. Dieses sah den Bau von acht Panzerschiffen, drei Flugzeugträgern, 18 Kreuzern, 48 Zerstörern und 72 U-Booten vor und sollte bis 1949 realisiert werden. Am 16. November 1935 wurden der "Flugzeugträger A" und das Schwesterschiff "Flugzeugträger B" in Auftrag gegeben. Ihr Bau wurde im September 1939 gestoppt, um mehr Werftkapazitäten und Material für den U-Boot-Bau zu bekommen; keines der beiden Schiffe wurde je fertiggestellt. Am 17. September 1939 versenkte "U 29" den britischen Flugzeugträger "Courageous"; kurz darauf drang "U 47" in die britische Flottenbasis Scapa Flow ein und versenkte dort das Schlachtschiff "Royal Oak". Diese Erfolge überzeugten auch Skeptiker in der Führung der Kriegsmarine vom militärischen Wert von U-Booten und relativierten den Wert von Großkampfschiffen; der Z-Plan wurde zugunsten eines U-Boot-Bauprogramms revidiert. Freudenstadt. Freudenstadt ist eine Stadt in Baden-Württemberg, die etwa 65 Kilometer südwestlich von Stuttgart und 60 Kilometer südlich von Karlsruhe auf einem Hochplateau am Ostrand des Nordschwarzwalds auf 591 bis 968 Metern Höhe liegt. Sie ist ein anerkannter heilklimatischer und Kneippkurort und ein traditionell beliebter Urlaubsort. Die Stadt wurde 1599 von Herzog Friedrich I. von Württemberg gegründet. Ein Stadtbrand im Jahr 1632, große Bevölkerungsverluste im Dreißigjährigen Krieg und die weitgehende Zerstörung der Innenstadt im Zweiten Weltkrieg hinterließen in der Stadtentwicklung jeweils scharfe Einschnitte. Die Stadt ist heute Sitz des Landratsamts des Landkreises Freudenstadt. Für die umliegenden Gemeinden bildet sie ein Mittelzentrum im Bereich des Oberzentrums Pforzheim. Seit dem 1. Januar 1988 ist Freudenstadt Große Kreisstadt. Mit den Gemeinden Bad Rippoldsau-Schapbach und Seewald besteht eine vereinbarte Verwaltungsgemeinschaft. Geographie. Blick vom "Friedrichsturm" auf die Innenstadt Nächtlicher Blick über den Marktplatz mit hell erleuchtetem Stadthaus, dahinter Rathaus Lage. Freudenstadt liegt im nordöstlichen Schwarzwald am Rand einer nach Osten flach abfallenden schiefen Ebene, die Quellgebiet der zum Neckar fließenden Glatt ist. Gleich westlich des Stadtzentrums fällt das Gelände im Bereich des Weilers Christophstal steil zum tief eingeschnittenen Tal des Forbachs ab, der zur Murg fließt. Sechs Kilometer in südlicher Richtung, im Luftkurort Loßburg, entspringt die Kinzig, die bei Kehl in den Rhein mündet. Das größtenteils waldbedeckte westliche Stadtgebiet steigt zur Passhöhe am Kniebis und weiter bis auf 968 Meter Höhe bei der Alexanderschanze an. Südlich des Ortsteils Kniebis entspringt der Fluss Wolf. Geologie. Die Stadt befindet sich im Bereich eines Deckgebirges der Trias, das auf einem älteren Grundgebirgssockel liegt. Die vorherrschenden Buntsandstein-Ablagerungen wurden im Verlauf des Tertiärs vom "Freudenstädter Graben" gestört, einem zwölf Kilometer langen und sieben Kilometer breiten Graben mit Verwerfungen von bis zu 140 Meter Sprunghöhe. Die Grabensohle besteht wie in dem östlich benachbarten Gäu aus Muschelkalk. Vor allem an den Grabenrändern, zum Beispiel im "Christophstal" unweit des heutigen Stadtzentrums, haben hydrothermale Lösungen Quarz-Schwerspat-Gänge gebildet. Einen ersten, wenn auch schwachen Hinweis auf historischen Bergbau im Freudenstädter Revier enthält eine Urkunde von 1267. Weitere Hinweise aus dem Mittelalter fehlen, Hauptphase des Bergbaus war das 16.–18. Jahrhundert. Wie im württembergischen Schwarzwald die Regel traf dieser auch hier auf große wirtschaftliche Schwierigkeiten und war häufig unterbrochen. Abgebaut wurden vor allem Silber- und Kupfer- sowie Eisenerze. Zur Eisengewinnung wurde der oberflächennah reichlich auftretende Limonit gefördert und zur Silber-, später auch Kupfergewinnung arsenreiches Fahlerz abgebaut. Die Fahlerze der Reviere im Deckgebirge weisen einen erhöhten Wismutgehalt auf. Der Abbau führte zur Erstbesiedlung des Christophstals rund 30 Jahre vor der Gründung von Freudenstadt. Das "Landesamt für Geologie, Rohstoffe und Bergbau" stellte 2008 bei Bohrungen ein im Vergleich zu anderen deutschen Gangrevieren „erhebliches“ Schwerspatpotential fest. Ein Probeabbau erfolgt derzeit beim Dorothea-Untersuchungsstollen unweit der Talstraße im Forbachtal. Nachbargemeinden. Die folgenden Städte und Gemeinden grenzen im Uhrzeigersinn, beginnend im Norden, an die Stadt Freudenstadt: Baiersbronn, Seewald, Grömbach, Pfalzgrafenweiler, Dornstetten, Glatten, Loßburg und Bad Rippoldsau-Schapbach (alle Landkreis Freudenstadt). Stadtgliederung. Das Stadtgebiet von Freudenstadt gliedert sich in die Kernstadt Freudenstadt mit Christophstal und Zwieselberg (zusammen 16.159 Einwohner) und die Stadtteile Dietersweiler und Lauterbad (2256 Einwohner), Grüntal und Frutenhof (1027 Einwohner), Igelsberg (254 Einwohner), Kniebis (947 Einwohner), Musbach (761 Einwohner) und Wittlensweiler (2186 Einwohner). Die Stadtteile wiederum sind in Dörfer, Weiler, Höfe und Häuser untergliedert. Die offizielle Benennung der Stadtteile erfolgt in der Form „Freudenstadt, Stadtteil …“. Bei den Stadtteilen handelt es sich mit Ausnahme von Kniebis um ehemals selbständige Gemeinden. In Freudenstadt ist die unechte Teilortswahl eingeführt, das heißt, das Stadtgebiet gliedert sich in sechs Wohnbezirke im Sinne der baden-württembergischen Gemeindeordnung. Die Kernstadt und der Stadtteil Igelsberg sind zu einem Wohnbezirk zusammengefasst, die restlichen Wohnbezirke sind identisch mit den Stadtteilen. In den Stadtteilen bestehen Ortschaften im Sinne der baden-württembergischen Gemeindeordnung mit eigenem Ortschaftsrat und einem Ortsvorsteher als dessen Vorsitzenden. In den Ortschaften gibt es Verwaltungsstellen des Bürgermeisteramts. Abgegangene, heute nicht mehr bestehende Ortschaften und Burgen sind die Burg Hofstätten und die Siedlung Burgberg auf dem Schwarzwald im Stadtteil Dietersweiler, Schöllkopf, ein im Dreißigjährigen Krieg abgebranntes Gehöft im Bereich der Kernstadt, die Siedlungen und Einzelhöfe Wolfhaus im Stadtteil Grüntal, Slunwag im Stadtteil Igelsberg sowie Gallushütte und Hilpertshöfle im Stadtteil Musbach. Raumplanung. Freudenstadt ist ein Mittelzentrum innerhalb der Region Nordschwarzwald, in der Pforzheim als Oberzentrum ausgewiesen ist. Zum Mittelzentrum Freudenstadt gehören die Städte und Gemeinden Alpirsbach, Bad Rippoldsau-Schapbach, Baiersbronn, Dornstetten, Glatten, Grömbach, Loßburg, Pfalzgrafenweiler, Schopfloch, Seewald, Waldachtal und Wörnersberg. Klima. Bereits Anfang des 20. Jahrhunderts gab es regelmäßige Messungen der Regenmenge, der Sonnenscheindauer und anderer Klimawerte. Im Jahr 1925 hieß es in einer Anzeige:. Die Jahresdurchschnittstemperatur lag zwischen 1990 und 2007 bei 7,9 °C. Die höchste durchschnittliche Maximaltemperatur ergab sich mit 21,2 °C im August, die niedrigste durchschnittliche Minimaltemperatur im Januar bei −2,2 °C. Analog dazu sind die höchste und die niedrigste Tagesdurchschnittstemperatur verteilt. Die zwischen 1961 und 1990 gemessene Jahresniederschlagsmenge ist aufgrund der Gebirgsrandlage der Stadt mit 1681,4 Millimeter für Deutschland überdurchschnittlich hoch. Über das Jahr wurden dabei recht konstante Werte verzeichnet, wobei das Maximum mit 189,9 Millimetern im Dezember verzeichnet wurde. Für die Regentage ergibt sich ein ähnliches Bild mit einer recht homogenen Verteilung von 15,2 Tagen im Juni und Juli und 19,7 Tagen im Dezember. Im Jahr gab es im Mittel 205,6 Regentage. Bei den durchschnittlichen täglichen Sonnenscheinstunden zwischen 1990 und 2007 erreichte Freudenstadt mit 4,6 einen hohen Wert, der vermutlich auf die weitgehende Nebelfreiheit zurückzuführen ist. Die meisten Sonnenstunden wurden im Juni verzeichnet (7,1 Stunden), die geringsten im Dezember mit 1,8 Stunden. Wetterdaten für Freudenstadt werden von der Warte des Deutschen Wetterdienstes auf dem erhöht liegenden "Kienberg" gesammelt. Die Firma Meteomedia unterhält Wetterstationen auf dem Marktplatz und in Freudenstadt-Langenwald. Spätere Stadtteile und Bergbau im St. Christophstal. Der heutige Stadtteil Grüntal-Frutenhof wurde erstmals 1100 als "Grindelen" urkundlich erwähnt. Das Gehöft Frutenhof fand dagegen erst 1470 schriftliche Erwähnung. 1583 bekam Grüntal eine eigene Pfarrei. Die Existenz von Igelsberg ist als "Illigsberg" um das Jahr 1230 gesichert, als es vom Pfalzgrafen Rudolf von Tübingen zu Lehen an das Bistum Straßburg ging. Seit 1381 gehörte Igelsberg zum Benediktiner-Kloster Reichenbach und kam erst 1595 zu Württemberg. Im heutigen Kniebis stand um 1250 eine Kapelle eines Herrenalber Mönchs, die 1278 zu einem Franziskanerkloster umgebaut wurde, das 1320 zu Württemberg kam. Um sich gegen mögliche Angriffe des habsburgischen Bischofs von Straßburg zu schützen, ließ der von den Habsburgern unter Friedrich dem Schönen zum Kaiser Ludwig dem Bayer übergelaufene Graf Eberhard Schanzen auf dem Kniebis errichten. Der Stadtteil Musbach, namentlich das gegenwärtige Untermusbach, fand 1274 als "Muosbach" Eingang in Schriftstücke und war von Beginn an württembergisch. Wohl 1291 kam das heutige Untermusbach vom Pfalzgrafen von Tübingen zum Kloster Reichenbach. Erst 1595 wurde es württembergisch. Dietersweiler fand 1347 erstmals als "Dietrichsweiler" urkundlich Erwähnung. Zusammen mit dem bereits zu Beginn des 12. Jahrhunderts als "Witelineswilare" bestehenden Stadtteil Wittlensweiler wurde es von den "Herren von Lichtenfels" an die Herren von Neuneck veräußert. Wittlensweiler ging 1473 an Württemberg, Dietersweiler folgte 1511. 1520 bis 1534 gab es unter österreichischer Herrschaft Erzförderung in der Nähe des ehemaligen Gehöfts Schöllkopf. 1544 wurde das Kloster auf dem Kniebis aufgelöst. Viele kleine Bergwerke, deren Stollen waagrecht in den Berg führten, entstanden, darunter um 1560 der nach Herzog Christoph bzw. seinem Namenspatron benannte „St.-Christoph-Erbstollen“, dessen Name auch auf den Talabschnitt und die Siedlung, die kurz darauf entstand, überging. Die steilen Talhänge des Christophstal begünstigten die Anlage von Stollen, senkrechte Schächte blieben in Zahl und Bedeutung deutlich zurück. Aber nicht nur im Christophstal wurden Gruben angelegt. In der Nähe von Lauterbad entstand die Charlottengrube, auf dem Kienberg der Georgsstollen sowie die Grube „Schweitzer Treu“. Auch in den späteren Ortsteilen wurde geschürft: In Wittlensweiler wurde zwischen 1812 und 1824 eine Grube in der Pfarrgasse („Friedrich- und Wilhelmina-Fundgrub in der Kirchgaß“) betrieben, die Schwerspat und Brauneisen förderte. Bereits 1536 wurden die Bergleute mit besonderen Privilegien ausgestattet. 1598 wurden 87 Tonnen Erz gefördert, das je Tonne bis zu 1800 Gramm Silber und 140 Kilogramm Kupfer enthielt. Die Silberschmelze wurde mit Holzkohle aus den Wäldern der Umgebung beheizt. 1603 betrug die Förderung 94 Kilogramm Silber. Daraus entstanden die sogenannten "Christophstaler". Später konzentrierte sich der Abbau auf Kupfer und Eisen. Am 23. Januar 1572 wurde unter Herzog Ludwig der Bau eines Hüttenwerkes angeordnet. Sein Nachfolger Friedrich I. sorgte im Hinblick auf eine weitgehende Rohstoff-Autarkie des Herzogtums für die Gründung weiterer Verarbeitungsbetriebe. 1595 plante Baumeister Heinrich Schickhardt eine Eisenschmiede, aus der der spätere obere Großhammer entstand. 1606–1610 kam eine Messingfaktorei mit Brennöfen und Schmiede hinzu. 1616 wurde der obere Drahtzug eingerichtet, 1621 der untere. Es entstanden ein Kupferhammer, ein Pfannenhammer, ein weiterer Großhammer, der spätere Wilhelmshammer. Zwischen Kupferhammer und (unterem) Pfannenhammer wurde eine zweite Schmelze errichtet. An einem heute unbekannten Ort stand auch eine Glockengießerei. Zwischen 1622 und 1628 wurde im Christophstal eine Münze betrieben, in der erst Münzen aus der Kipper- und Wipperzeit und später dann reguläre Münzen geprägt wurden. Stadtplanung. Dennoch bestand der Herzog auf den Bau der Stadt. Schickhardts quadratischer Grundriss für Freudenstadt geht wahrscheinlich auf Zeichnungen Albrecht Dürers in seiner "Festungslehre" zurück. Schickhardt entwarf Freudenstadt auf Geheiß Friedrichs I. am Reißbrett. Zunächst legte er dem Herzog den als "Baublockplan" bekannten Entwurf vor, bei dem jeweils mehrere Häuser in Zeilen oder rechteckig, teils mit Innenhof, angelegt sind. Die massive Festung mit dem Schloss war in diesem ersten Plan in einer Ecke der Anlage vorgesehen, der Marktplatz im Zentrum der Stadt war verhältnismäßig klein geplant. Schickhardts zweiter Entwurf ist eine Fortentwicklung des Baublockplans. Es sind bereits deutliche Ansätze der später realisierten Häuserzeilen zu erkennen. Das Schloss in der damals üblichen Bauweise war abermals in einer Ecke der Anlage in die Festungsmauern eingebettet. Tatsächlich wurde Freudenstadt dann nach dem "Dreizeilenplan" erbaut, wobei das nun in der Mitte der Stadt geplante Schloss und die Festung erst später entstehen sollten. Diese Entscheidung ließ zu, die Stadt flexibel zu vergrößern, bis eine konstante Einwohnerzahl erreicht war. Das Schloss war im Dreizeilenplan mittig und um 45° zur geometrischen Stadt gedreht auf dem Marktplatz vorgesehen. Die geplante massive Konstruktion der Festung wurde zurückgenommen und gleicht mehr einer Stadtmauer, was darauf hindeutet, dass dem Herzog bereits zu diesem Zeitpunkt doch nicht mehr so viel an der militärischen Funktion seiner Stadt gelegen war. Gleichwohl ist ein Plan Schickhardts bekannt, der den Dreizeilenplan um eine mächtige Festung erweiterte. Ob es sich dabei mehr um eine „Spielerei“ oder um eine echte Planung handelte, ist allerdings nicht bekannt. Umgeben wird das Zentrum auf dem Plan von drei Häuserzeilen, die an ein Mühlebrett erinnern. Selbst die Namen der ersten Bewohner, vornehmlich Handwerker, die vom Bau der neuen Stadt profitieren wollten, sind eingetragen. Diese Anmerkungen dürften von Elias Gunzenhäuser, dem örtlichen Bauleiter, stammen. Stadtgründung. Der 22. März 1599, als die ersten Häuser und Straßen von Schickhardt in Anwesenheit des Herzogs abgesteckt wurden, gilt als Gründungsdatum der Stadt. Die Häuser am Marktplatz hatten zum Platz hin ausgerichtete Dachgiebel und wurden daher „Giebelhäuser“ genannt. Es handelte sich um typische Fachwerkhäuser. Ein vom Zimmermann aufgestelltes Gerüst aus Balken wurde mit Mauerwerk ausgefüllt und hell verputzt, während die Balken, die zum Teil sichtbar blieben, dunkel angestrichen wurden. Heute sind im Stadtkern keine solchen Häuser mehr erhalten. Im wenig entfernten Dornstetten ist diese Bauweise im historischen Ortskern noch sichtbar. Am 1. Mai 1601 erfolgte die Grundsteinlegung für die wohl von Elias Gunzenhäuser entworfene Stadtkirche, die am Marktplatz als Winkelkirche gebaut wurde. Ab 1602 wurden in der Nordwestecke – ebenfalls durch Gunzenhäuser – das Kaufhaus, in den 1660er Jahren in der Nordostecke das Rathaus erbaut, beide ebenfalls als Winkelbauten. Am 6. Mai, wurde die „Stadt ob Christophstal“ erstmals urkundlich als „Freudenstadt“ erwähnt. Wie es zu dieser Namensgebung kam, ist nicht geklärt. Am 3. November erfolgte eine Ausschreibung, mit der gezielt Ansiedlungswillige angesprochen wurden, denen Bauplatz, Holz und Felder versprochen wurden. Auf diese Art wurden vor allem von der habsburgischen Gegenreformation betroffene protestantische Glaubensflüchtlinge aus den österreichischen Kronländern Steiermark, Kärnten und Krain in die junge Stadt gelenkt. Da viele Flüchtlinge aus Krain nur slowenisch sprachen, predigte bald auch ein slowenischer Pfarrer. 1603 erhielt die junge Stadt ein Wappen und den ersten Bürgermeister, zwei Jahre später ihre Gemarkung. Hierzu wurden Teile des Dornstetter Waldgedings und der Nachbargemeinde Baiersbronn abgetrennt. Freudenstadt wurde Sitz eines kleinen Amtes. Da sich die Einwohnerzahl gut entwickelte, ordnete Herzog Friedrich I. die Vergrößerung der Stadtanlage an. Schickhardt erstellte daraufhin den "Fünfzeilenplan". Zwei zusätzliche Häuserreihen sollten zusammen mit den drei bestehenden etwa 2.500 Einwohnern Wohnplatz bieten. 1608 starb jedoch Herzog Friedrich I. von Württemberg. Da die bisherigen Parzellen der nunmehr vierzeiligen Stadt zu diesem Zeitpunkt noch nicht vollständig bebaut waren, baten die Bürger seinen Sohn und Nachfolger, Johann Friedrich von Württemberg, zumindest die Erweiterung um eine fünfte Häuserzeile aufzugeben; dem Gesuch wurde stattgegeben. Nach dem Tod von Herzog Friedrich wurden auch die Pläne für das Schloss in „Friedrichs Stadt“ nicht mehr berücksichtigt. Die freie Fläche im Zentrum blieb somit ein riesiger Platz, der heute als "größter bebauter Marktplatz " Deutschlands gilt (siehe dazu weiter unten: Städtebeziehung u. a. zu Heide mit dem "größten unbebauten Marktplatz" Deutschlands). Außerdem besaß die Stadt lange Zeit keine Stadtmauer. Zwar gab es hierfür immer wieder Pläne (beispielsweise Schickhardts Plan von 1612, siehe oben), teils wurden auch Arbeiten begonnen, tatsächlich fertiggestellt wurden sie aber nicht. Der Freudenstädter Bürgermeister bat im Jahr 1619 Herzog Johann Friedrich vergeblich um eine Stadtmauer. Die Stadt war zu arm, um eine Befestigung selber zu finanzieren, deshalb baute man in den folgenden Jahren einen Bretterzaun rund um die Stadt. Auf dem Merianstich von 1643 ist dieser Zaun gut erkennbar. 1616 erfolgte mit dem Weiler St. Christophstal die erste Eingemeindung in die junge Stadt. Elendsjahre und Wiederaufblühen. Freudenstadt auf einem Stich von Merian aus dem Jahr 1643 Nach der verlorenen Schlacht bei Nördlingen im Dreißigjährigen Krieg wurden durch kaiserlich-habsburgische Truppen erneut Gebäude in Brand gesetzt und die wenigen verbliebenen Einwohner beinahe gänzlich ermordet und geplündert. Die Einwohnerzahl in jenen Tagen dürfte im unteren zweistelligen Bereich gelegen haben. Die Pest brach 1635 zudem erneut aus und vernichtete wiederum nahezu jegliches Leben. Freudenstadt blieb über Jahre weitgehend verödet. Selbst 1652, fast zwanzig Jahre nach den tragischen Ereignissen, ist in Aufzeichnungen von nur etwa 300 Bürgern die Rede. Festungsanlage. Der Verlauf des Dreißigjährigen Kriegs veranlasste Herzog Eberhard III, sich erneut mit der Stadtentwicklung und den Festungsplänen zu befassen. Eberhard III. galt als den Freudenstädtern sehr zugeneigt, er half der Bevölkerung in mancherlei Weise. Damit die Einwohner in der Stadt blieben, wurde ihnen sechs Jahre Steuerfreiheit zugesagt. Neue Bürger brauchten zwölf Jahre lang keine Steuern zahlen. Es gab verbilligte Bauplätze, das Bauholz wurde verschenkt. Erstmals nach der langen Kriegszeit wurden die Ämter wieder besetzt. Auch die Lateinschule, ein Eckbau hinter der Stadtkirche, wurde wieder eröffnet. In Freudenstadt fing das Leben wieder an zu gedeihen. Im Jahr 1667 ließ Herzog Eberhard III endlich nach den Ideen des Ingenieurs d´Avila mit dem Bau einer gewaltigen Festungsanlage beginnen. Die Bauleitung hatte Matthias Weiß (1636–1707), unterstützt von dem später als Kartograf bekannt gewordenen Georg Ludwig Stäbenhaber. Bis 1674 wurde gebaut. Die Festung bedeckte inzwischen eine gut doppelt so große Fläche, wie die bewohnte Stadt. Sie bestand aus 8 Bastionen mit den Kurtinen (Verbindungswällen) und 4 Stadttoren. Bedingt durch den steilen Geländeabfall zum Christophstal waren die 3 westlichen Bastionen wesentlich kleiner als die anderen 5 Bastionen. Stadttore. Das Königliche Statistisch-Topographische Bureau beschreibt die damals erbauten vier „massiven, sehr festen, gewölbeartigen" Stadttore 1858 genauer. Das "Stuttgarter Thor" im Osten war mit "aus Stein gehauenen Kanonen- und Mörserläufen verziert“ und trug die herzögliche Inschrift E.H.Z.W. 1668 (für Eberhard Herzog zu Württemberg) sowie das württembergische und dettingische Wappen. Es beherbergte außerdem oberamtsgerichtliche Gefängnisse. Das "Straßburger Tor" im Süden war „weniger reich verziert“ und erhielt dieselben Wappen und die Inschrift 1678. Über dem Torbogen befand sich eine vermietete Wohnung und jeweils ein Gefängnis des Oberamts und des Oberamtsgerichts. Das "Murgthal-Thor" im Westen umfasste die Wohnung des Oberamtsdieners und zwei Gefängnisse des Oberamts Freudenstadt. Die Inschriften lauteten E.H.Z.W. 1631 auf der Außenseite und F.C.H.Z.W. 1681 auf der Innenseite. Dies entspricht den Initialen von Friedrich Carl, dem Vormund von Herzog Eberhard Ludwig. Das "Hirschkopf-Thor" im Norden, mit der Jahreszahl 1622 beschriftet, war das älteste Stadttor. Dort waren die Wohnung des Oberamtsgerichtsdieners sowie drei Gefängnisse des Oberamtsgerichts untergebracht. Festungsplan. Bis auf die links dargestellte Zitadelle auf dem Kienberg – sie wurde nicht gebaut – entspricht der Plan dem Stand der Festung bei Beendigung der Bauarbeiten 1674. Verfall der Festung. Im Jahr 1674, die Festung war noch nicht ganz fertiggestellt, starb Herzog Eberhard III, der Bau wurde sofort eingestellt. Sein Nachfolger, Herzog Wilhelm Ludwig ließ durch Oberstleutnant Andreas Kieser ein Gutachten über die Festung erstellen. Dieses Gutachten enthält ausschließlich Argumente, die gegen die Festung sprachen, damit fiel es Herzog Wilhelm Ludwig leicht, das ungeliebte, teure Projekt zu beenden. Die Bevölkerung nutzte das Desinteresse der Obrigkeit an der Festungsanlage und versorgte sich über Jahrzehnte mit Baumaterial aus den Festungsmauern. Die behauenen Steine fanden sich in privaten Gebäuden wieder, aus Gräben und Wälle wurden Gärten und Weiden für das Kleinvieh. Die Stadt trug dem Rechnung und verpachtete einzelne Teile der Festung an die Bürger. Die landwirtschaftliche Nutzung und später die Überbauung veränderte das Bild der Festung. 1820 plante man, die Reste der Festung Freudenstadt zur Bundesfestung auszubauen. Die Bundesversammlung entschied dann aber in Ulm und Rastatt Bundesfestungen zu errichten. Ab 1870 wurden die Stadttore zum Abriss verkauft und die Festung endgültig dem Verfall preisgegeben. Im Jahr 1880 waren nur noch die Festungsanlagen im Bereich des heutigen Stadtbahnhofs und östlich davon gut erhalten. Auf dem Kniebis entstanden 1674 bis 1675 Befestigungswälle für den Reichskrieg gegen Ludwig XIV., den "Sonnenkönig". Herzog Karl Alexander ließ diese zum "Fort Alexander" ausbauen, heute gemeinhin bekannt als "Alexanderschanze". Sie war von 1799 bis 1801 in den Koalitionskriegen Schauplatz von Feindseligkeiten zwischen Österreichern und Franzosen. Diesen fiel auch das Klostergebäude Kniebis durch einen Brand zum Opfer. Von der Garnisonsstadt zum Oberamt und Kurort. 1721 entstand mit dem von Christoph Wilhelm Dietrich gegründeten und namensgebenden Gut Lauterbad eines der ersten Gebäude in dem heute zum Stadtteil Dietersweiler gehörenden Weiler "Lauterbad". 1737 wurde Freudenstadt Standort einer kleinen Garnison. 1759 wurde das Amt Freudenstadt zum Oberamt erhoben. 1784 wurde der Bergbau mit der Schließung des Stollens "Dorothea" im Christophstal gänzlich eingestellt. 1833 wurde das Stadtgebiet um etwa 2.300 Hektar Wald des ehemaligen Waldgedings vergrößert. 1837 eröffnete eine „Siechstation“ mit vier Betten. Freudenstadt wurde zusehends zu einer Stadt des Handwerks, was durch den Anschluss an das Eisenbahnnetz mit der Gäubahn 1879 begünstigt wurde. 1864 wurden die Freudenstädter Stadttore abgerissen. 1876 gab der damalige Stadtschultheiß Hartranft die Absicht bekannt, Freudenstadt mit seiner reinen Luft zum Kurort zu machen. Das Vorhaben gelang, und gegen Ende des 19. Jahrhunderts setzte ein stetig wachsender Kurbetrieb ein. Zu den bekanntesten Hotels jener Zeit gehörten das Hotel Rappen, das Schwarzwaldhotel Waldlust der Hotelier-Familie Luz und das Hotel Palmenwald des Stuttgarter Unternehmers Lechler. Insgesamt gab es um 1930 rund 20 Hotels in der kleinen Stadt, davon fünf der höchsten Kategorie. Freudenstadt war als Kurort weltweit bekannt und zog Gäste wie den englischen König Georg V., die schwedische Königin, John D. Rockefeller, Mark Twain oder den Sultan von Selangor an. 1888 wurde das Bezirkskrankenhaus in der Herrenfelderstraße eröffnet. Zwei Stadtärzte und zwei Diakonissen nahmen ihren Dienst auf. Die Stadt wurde zum beliebten Urlaubsort für Großstadtbewohner. 1899 wurde anlässlich des 300-jährigen Stadtjubiläums ein Aussichtsturm auf dem Freudenstädter Hausberg, dem Kienberg, eröffnet und auf den Namen "Friedrichsturm" (nach Herzog Friedrich I.) getauft. Rolle im Dritten Reich und Zweiten Weltkrieg. 1938 wurde aus dem Oberamt der Landkreis Freudenstadt. Im Zweiten Weltkrieg entstand auf dem fast 1.000 Meter hoch gelegenen Kniebis, unweit der Alexanderschanze, eine Befehlszentrale der Wehrmacht zur Verteidigung der Westfront: das "Führerhauptquartier Tannenberg" (nahe der Gemarkungsgrenze auf dem Gebiet der Gemeinde Baiersbronn). In der Umgebung, vor allem auf dem Schliffkopf und der Hornisgrinde, wurden als Teil der LVZ West (Luftverteidigungszone West) schwere FLAK-Stellungen mit den dazugehörigen Versorgungs- und Unterkunftsgebäuden gebaut. Im Freudenstädter Lazarett wurden viele Verwundete behandelt. Hitlers einwöchiger Besuch in Tannenberg und Freudenstadt 1940 (nach dem Frankreichfeldzug) anlässlich der Einweihung des Hauptquartiers wurde in Wochenschauberichten propagandistisch dargestellt. Damit wurde Freudenstadt samt Umland in Frankreich zu einem Symbol des Naziregimes und der französischen Niederlage, was 1945 noch eine gewichtige Rolle spielen sollte. Zerstörung im Zweiten Weltkrieg. Am 16. April 1945, nur wenige Wochen vor Kriegsende, wurde die Stadt unerwartet von Truppen der 1. französischen Armee unter General Lattre de Tassigny angegriffen, wobei es durch Bombenabwurf und Artilleriebeschuss zu großflächigen Zerstörungen kam. Freudenstadt war Knotenpunkt des französischen Vordringens Richtung Stuttgart wie zum Hochrhein, während die Amerikaner im Rhein-Maingebiet nach Osten vorgingen. Die Wehrmacht hatte vier Stunden vor dem Einmarsch der Franzosen in Freudenstadt eines der drei Fachwerkviadukte der Bahnstrecke Eutingen im Gäu–Freudenstadt gesprengt, da die Bahnlinie nicht dem Feind in die Hände fallen sollte. Der französische Heeresbericht nennt eine Abteilung der SS (nach deutschen Quellen ein Dutzend sogenannter "Werwölfe"), die vor der Stadt eine Sperre errichtet hatten. Freudenstadt geriet, mit Unterbrechungen, etwa 16 Stunden lang unter Artilleriefeuer. Kein Einwohner wagte es, den französischen Truppen zur Übergabe der Stadt entgegenzugehen, umgekehrt rechneten diese mit erheblichem militärischen Widerstand. Da die Hauptwasserleitung durch US-amerikanische Luftangriffe und die wichtigsten Feuerwehrwagen durch Artilleriebeschuss zerstört worden waren, konnten sich Feuer nahezu ungehindert ausbreiten. Teilweise wurde Gülle zum Löschen verwendet. Eine Übergabe fand erst statt, als die französischen Truppen bis zum Rathaus vorgerückt waren. Es gab einige Dutzend zivile Opfer; etwa 600 Gebäude, 95 Prozent der gesamten Innenstadt, wurden in der Nacht vom 16. auf den 17. April direkt oder indirekt zerstört und 1.400 Familien obdachlos. Beim Einmarsch der französischen Truppen und in den folgenden drei Tagen kam es zu vielzähligen, heftigen Übergriffen durch marokkanische Einheiten. Nach Angaben der Ärztin Renate Lutz seien allein bei ihr über 600 vergewaltigte Frauen in Behandlung gewesen. Auf Vorhaltungen habe die Zivilbevölkerung laut Berichten von Zeitzeugen auch die Antwort erhalten, "es sei Krieg, Freudenstadt müsse drei Tage brennen". Viele der verschont gebliebenen Bauten wurden dann von der französischen Besatzung beansprucht. Zahlreiche Familien hausten in notdürftig überdachten Kellerräumen. Insgesamt reduzierte sich der durchschnittliche Wohnraum je Einwohner auf unter acht Quadratmeter. Die Not war groß und das Aufräumen der Trümmer erfolgte zunächst nur schleppend. Das „Wunder von Freudenstadt“. Es setzte eine lange Diskussion über den Wiederaufbau der Stadt ein. Dazu wurden Modelle einheimischer Architekten sowie renommierter Stadtplaner jener Zeit begutachtet. Es galt, eine ausgewogene Mischung zwischen Tradition und Moderne zu finden. Der Wohnraum sollte beim Wiederaufbau den veränderten Lebensgewohnheiten angepasst werden. Bereits 1945 wurde eine Vielzahl unterschiedlicher Pläne von Paul Heim, Hermann Gabler, Adolf Abel, Paul Schmitthenner und anderen vorgelegt. In manchen Konzepten war die Verkleinerung des als übergroß empfundenen Marktplatzes vorgesehen. Fraglich war auch der trauf- oder giebelständige Wiederaufbau am Marktplatz. Die „Abgebrannten“ forderten einen Wiederaufbau ihrer Häuser auf den alten Parzellengrenzen. Andererseits waren der zunehmende Verkehr und eine moderne Stadtplanung zu berücksichtigen. Bei den Konflikten setzte sich unter anderem Carlo Schmid vermittelnd ein. Am Ende konnte sich die traditionelle Minderheit um Ludwig Schweizer und dessen Lehrer Schmitthenner gegen die sonst vorherrschende modernistische Fachmeinung durchsetzen. Beide waren Vertreter der Formensprache der Stuttgarter Schule mit ihrer Heimatschutzarchitektur. Schweizer wurde zum Stadtbaumeister ernannt. Zusammen mit der Stadtverwaltung unter Bürgermeister Hermann Saam entstand ein detailliertes und einheitlich durchgeplantes Konzept zum Wiederaufbau. Freudenstadt entstand so innerhalb von nur fünf Jahren abermals als Planstadt. Begünstigt wurde der schnelle Wiederaufbau dadurch, dass Freudenstadt neben Friedrichshafen in Württemberg-Hohenzollern die einzige Stadt mit derart starken Zerstörungen war und deshalb großzügige Unterstützung erhielt. Art und Ausmaß des ganzheitlichen Freudenstädter Wiederaufbaus sowie das damit verbundene enorme bürgerliche Engagement brachte der Stadt viel Aufmerksamkeit und Anerkennung. Insbesondere Stimmen aus der DDR lobten das Zurückgreifen auf „nationale Traditionen“ als vorbildlich, wohingegen die lokale KPD 1949 als einzige Partei im Stadtrat gegen den traditionellen Wiederaufbau mit Giebelhäusern gestimmt hatte. In Zusammenhang mit dem schließlich gelungenen Wiederaufbau wird auch vom „Wunder von Freudenstadt“ gesprochen. Er gilt heute noch als Gesamtkunstwerk, das (wie in nur wenigen anderen Städten) den Zeitgeist der 1950er Jahre ausdrückt. Zur Wahrung des einheitlichen Erscheinungsbildes gilt bis zum heutigen Tage eine sehr strenge Gestaltungssatzung für die Innenstadt. Neuere Geschichte. Württemberg-Hohenzollern ging 1952 im Bundesland Baden-Württemberg auf. Der IX. Internationale Bürgermeisterkongress der IBU 1958 in Freudenstadt leitete eine Wende in den deutsch-französischen Beziehungen auf kommunaler Ebene ein und führte zu einer Vielzahl von Städtepartnerschaften. Freudenstadt ging 1961 eine Partnerschaft mit der Stadt Courbevoie im Großraum Paris ein. Bei der Kreisreform zum 1. Januar 1973 erhielt der Landkreis Freudenstadt seine heutige Ausdehnung, Freudenstadt blieb Amtssitz des vergrößerten Kreises. Dieser wurde gleichzeitig Teil der neu gegründeten Region Nordschwarzwald, die damals dem neu umschriebenen Regierungsbezirk Karlsruhe zugeordnet wurde. Damit wurde das ehemals württembergische Freudenstadt nunmehr von der ehemaligen badischen Hauptstadt Karlsruhe aus verwaltet. 1965 beschloss der Kreistag den Neubau des Freudenstädter Krankenhauses auf dem Gebiet "Zehnmorgen" in der Nordstadt. Der Bau wurde 1976 fertig gestellt. Seit 1977 ist das renovierte Gebäude des alten Krankenhauses Sitz des Landratsamts. In den 1980er Jahren widersetzten sich viele Freudenstädter den Plänen von Bund und Land, den ausufernden Verkehr der Ost-West-Achse Straßburg–Freudenstadt–Tübingen mithilfe eines Tunnels aus der Innenstadt zu verbannen und damit der Stadtentwicklung neue Wege zu ebnen. Insbesondere Einzelhändler fürchteten Umsatzeinbußen durch den verminderten Durchgangsverkehr. Der Bürgerprotest war erfolgreich, gilt jedoch heute als die größte Fehlentscheidung der Nachkriegszeit. 1983 wurde das städtische Hallenbad "Panoramabad" eröffnet. Ebenfalls in den 1980er Jahren wurde das bestehende Kurhaus um ein Kongresszentrum erweitert (siehe Kurhaus und Kongresszentrum Freudenstadt, es wurde 1989 eingeweiht). 1986 überschritt die Einwohnerzahl die Grenze von 20.000. Auf Antrag der Stadt beschied die baden-württembergische Landesregierung Freudenstadt mit Wirkung vom 1. Januar 1988 das Prädikät Große Kreisstadt. 1989 entstand unter dem oberen Marktplatz eine großräumige Tiefgarage, so dass der Marktplatz weitgehend autofrei und zur Fußgängerzone erklärt wurde. Anlässlich der 400-Jahr-Feier der Stadt im Jahr 1999 fand ein Festumzug statt. Der Umbau des unteren Marktplatzes zum Stadtpark wurde mit fünfzig beleuchteten Fontänen vollendet und ein neu entdecktes früheres Bergwerk in unmittelbarer Nähe des heutigen Facharztzentrums als Besucherbergwerk für den Publikumsverkehr freigegeben. 2003 erhielt Freudenstadt mit den Linien S31 und S41 Anschluss an das Karlsruher Stadtbahnnetz. Die gelben Fahrzeuge gaben dem Tagestourismus einen kräftigen Impuls und prägen seitdem das Stadtbild. Im Oktober 2008 wurde mit dem vierspurigen Ausbau der Stuttgarter Straße (die B 28 innerorts) als Hauptschlagader der Stadt begonnen. Wappen. Das Wappen der Stadt Freudenstadt zeigt in rotem Schild unter goldenem Schildhaupt, darin eine schwarze liegende Hirschstange, zwei voneinander gekehrte silberne Fische (Barben), zwischen ihnen ein goldenes F. Die Stadtflagge ist Rot/Weiß. Das Wappen wird bereits seit 1603 geführt. Die Hirschstange symbolisiert das Herzogtum Württemberg, die Barben sind dem Wappen der Grafschaft Mömpelgard entnommen, die damals zu Württemberg gehörte, das „F“ weist auf den Stadtgründer, Herzog Friedrich I. von Württemberg, hin. Die heutige Blasonierung des Wappens – ursprünglich hatte es eine rote Feldfarbe – wurde vermutlich erst um 1926 festgelegt. Die Stadtflagge wurde dann 1950 vom Staatsministerium Württemberg-Hohenzollern verliehen. Eingemeindungen. Bereits kurz nach der Stadtgründung wurde Christophstal, das ursprünglich zu Dornstetten gehörte, eingemeindet. Erst 1926 folgte mit Zwieselberg (zuvor Gemeinde Reinerzau) die nächste Eingemeindung. Die einschneidendste Änderung brachte die Gebietsreform des Landes Baden-Württemberg in den 1970er Jahren, der zufolge am 1. Juli 1971 Igelsberg und am 1. Januar 1972 Grüntal (mit Frutenhof) eingegliedert wurden. Am 1. Januar 1975 folgten Dietersweiler (mit Lauterbad), Untermusbach (mit Obermusbach) und Wittlensweiler sowie die zuvor zu Baiersbronn und Bad Rippoldsau gehörenden Teile des Weilers Kniebis, der bereits überwiegend zu Freudenstadt gehörte. Einwohnerentwicklung. Nach der Gründung im Jahr 1599 wuchs die Einwohnerzahl der Stadt bis Anfang 1610 auf 2.000 bis 3.000 an und gehörte damit zum Kreis der schwäbischen Städte. Nach der Pest, einem Stadtbrand, Hungersnöten und dem Dreißigjährigen Krieg lebten 1652 kaum noch Menschen im Ort. Es dauerte über 200 Jahre, bis sich die Stadt bevölkerungsmäßig erholt hatte. 1849 wurden bei einer Volkszählung 5.154 Einwohner ermittelt, um 1930 war die Zehntausendermarke überschritten, die seitdem nur in den Kriegsjahren 1939–1945 unterschritten wurde. 1970 waren 14.375 Bürger mit Hauptwohnsitz in Freudenstadt gemeldet. Durch die baden-württembergische Gebietsreform in den frühen 1970ern wuchs die Einwohnerzahl durch Eingemeindungen auf 19.454 an. 1986 wurde die 20.000-Einwohner-Schwelle überschritten. Seit 1995 hat sich die Einwohnerzahl recht konstant bei knapp unter 24.000 gehalten. Bürgermeister. Die Stadt Freudenstadt wurde schon nach ihrer Gründung nach württembergischem Muster verwaltet, das heißt, es gab einen Magistrat mit mehreren Bürgermeistern, die anfangs die Bezeichnung Stadtschultheiß trugen (die Bezeichnung "Bürgermeister" wurde in Württemberg 1930 eingeführt). Seit Erhebung zur Großen Kreisstadt 1988 trägt das Stadtoberhaupt die Amtsbezeichnung Oberbürgermeister. Am 13. April 2008 wurde der Erolzheimer Julian Osswald (CDU), ehemaliger Direktor des Regionalverbands Donau-Iller, mit 82,48 Prozent der Stimmen im ersten Wahlgang zum neuen Oberbürgermeister gewählt. Er hatte zwei Gegenkandidaten. Seine Vereidigung erfolgte am 2. Juli 2008. Städtebeziehungen. Die Partnerschaft mit dem französischen Courbevoie stand am Anfang der Ausweitung der deutsch-französischen Städtepartnerschaften Anfang der 1960er Jahre und wird seit 1961 intensiv betrieben. Es finden regelmäßig Schüleraustausche sowie kulturelle und kommunalpolitische Besuche statt. Zusätzlich unterhält Freudenstadt drei Städtefreundschaften. Die Freundschaft mit Männedorf in der Schweiz besteht seit 1959, jene mit Heide in Schleswig-Holstein seit 1989. Letztere beruht auf der Tatsache, dass Heide ebenfalls den Anspruch erhebt, den "größten Marktplatz" Deutschlands zu besitzen. Die Städte einigten sich mittlerweile darauf, dass beide Marktplätze gleich groß sind, wobei Heide den "größten unbebauten" und Freudenstadt den "größten bebauten Marktplatz" Deutschlands hat. Eine weitere Städtefreundschaft besteht seit 1990 mit Schöneck. Einige Freudenstädter Schulen und Vereine pflegen einen regen Austausch mit dem polnischen Partner-Landkreis Tomaszów Lubelski. Mit dem Fremdsprachengymnasium in Lowetsch, Bulgarien findet ebenfalls ein regelmäßiger Schüleraustausch statt. Soziales. Unter anderem sind folgende vernetzte soziale Einrichtungen in der Stadt präsent: Die "Kinder- und Jugendwerkstatt EIGEN-SINN" soll in sozialen Gruppenarbeiten die persönlichen, sozialen und schulischen Kompetenzen von Kindern und Jugendlichen fördern und entwickeln, damit diese selbst neue und eigene Handlungs- und Konfliktlösungsstrategien und letztlich eine eigene zukunftsfähige Lebensstrategie entwickeln können. Die "Erlacher Höhe", die auch in sechs weiteren Landkreisen in Baden-Württemberg vertreten ist, setzt sich dafür ein, dass Menschen in sozialen Notlagen respektiert und geachtet werden und soziale Ausgrenzung abgebaut wird. Die "Diakonie" setzt sich für Arme, Ausgegrenzte und sozial Benachteiligte ein. Das "Mehrgenerationenhaus Familien-Zentrum-Freudenstadt e. V." stellt „sozialen Raum“ bereit, in dem Menschen, v. a. Mütter und ältere Menschen, sich (wieder) als Teil einer Gemeinschaft begreifen können. Im "Kinder-und Jugendzentrum Freudenstadt (KiJuz)" wird für Grundschulkinder und Jugendliche offene Kinder- und Jugendarbeit angeboten. Des Weiteren bietet die Katholische Junge Gemeinde (KjG) Freudenstadt Aktionen im Bereich der Kinder- und Jugendarbeit an. Die "FrauenHilfe Freudenstadt" betreibt eine Beratungsstelle für Frauen, die von Gewalt betroffen sind oder Gewalt befürchten und dringend Hilfe suchen. Dialekt. Freudenstadt liegt an der Sprachgrenze zwischen den schwäbischen und alemannischen Dialekten. Innerhalb der Raumgliederung der schwäbischen Mundart befindet sich die Stadt im "Freudenstädter Raum", der sich von Alpirsbach über Freudenstadt bis in die Altensteiger Gegend erstreckt. Im Westen grenzt das "Baiersbronner Gebiet", im Norden das "Obere Enzgebiet" und im Osten der "Obere Neckarraum" an. Im Süden schließt sich das Oberrheinalemannische an. Der Gebrauch des Dialekts ist, wie im gesamten schwäbischen Raum, immer noch sehr lebendig. Die Mundart wird für gewöhnlich sowohl in der Freizeit als auch im Betrieb, in öffentlichen Ämtern wie auch in den Schulen gesprochen und akzeptiert. Allerdings geht der Trend, besonders in der Kernstadt und bei jüngeren Menschen, zu einer Art Regiolekt, einer dialektal geprägten Hochsprache. Evangelische Kirche. In Kniebis stand ursprünglich eine seit 1535 ungenutzte Klosterkirche, die 1799 von den Franzosen niedergebrannt wurde. Infolge der württembergischen Gründung war Freudenstadt lange Zeit eine fast gänzlich protestantische Stadt. Zunächst gehörte die junge Gemeinde zum Dekanat beziehungsweise Kirchenbezirk Herrenberg innerhalb der Evangelischen Landeskirche in Württemberg. 1672 wurde Freudenstadt Sitz eines eigenen Dekanats (→ Kirchenbezirk Freudenstadt), das das gesamte Freudenstädter Umland umfasst. Zunächst gab es nur die evangelische Stadtkirchengemeinde, 1960 entstand dazu die Martinskirche. Beide Kirchen bilden mit der Gemeinde Kniebis die Gesamtkirchengemeinde Freudenstadt. Auch in den anderen Stadtteilen gibt es evangelische Kirchen beziehungsweise Kirchengemeinden. In Dietersweiler, das zunächst eine Filialgemeinde von Glatten war, wurde 1901 eine eigene Pfarrei eingerichtet. Die dortige Kirche ist gotischen Ursprungs und wurde 1745 umgebaut. Grüntal war zunächst eine Filialgemeinde von Dornstetten, wurde aber bereits 1583 eigene Pfarrei. Die Pfarrkirche mit romanischem Turm wurde 1592 von Heinrich Schickhardt errichtet und 1871 erneuert. In Igelsberg gibt es eine evangelische Kirche im ummauerten Friedhof. Die Gemeinde Untermusbach ist eine Filialgemeinde von Grüntal. Wittlensweiler ist seit 1899 Pfarrei. Die alte Kirche wurde 1968 erneuert. Im 19. Jahrhundert entstand in Freudenstadt eine christliche Gemeinschaft, die sich später als Altpietistische Gemeinschaft bezeichnete. Ihre Mitglieder nennen sich "Apis" und gehören zur Evangelischen Kirche von Württemberg. Katholische Kirche. Im 19. Jahrhundert zogen vermehrt Katholiken nach Freudenstadt. Bereits 1859 gründeten sie eine eigene Pfarrei. Ihre Kirche Christi Verklärung (Taborkirche genannt) ist jedoch ein Neubau von 1931. Die Pfarrgemeinde Christi Verklärung Freudenstadt ist zusätzlich für die Katholiken des Umlands zuständig und bildet zusammen mit der katholischen Pfarrgemeinde Alpirsbach eine Seelsorgeeinheit innerhalb des Dekanats Freudenstadt der Diözese Rottenburg-Stuttgart. Freikirchen. Freikirchen sind außerdem zwei Gemeinden und Teile des Sozialwerks Süd (unter anderem die Klinik Hohenfreudenstadt) der Evangelisch-methodistischen Kirche, die Volksmission entschiedener Christen, die Heilsarmee, die Siebenten-Tags-Adventisten, die dem Mülheimer Verband angehörende Christus-Gemeinde, die Vineyard-Gemeinde und die Crossroads International Church, die zur Gemeinde Gottes Deutschland gehört. Eine freie christliche Gemeinde hat sich den Namen GOTOP gegeben. Weitere. Die Neuapostolische Kirche, die zum Apostelbereich Tübingen gehört, ist ebenfalls mit drei Gemeinden vertreten. Diese befinden sich in Freudenstadt sowie in den Stadtteilen Dietersweiler und Wittlensweiler. Eine jüdische Gemeinde konnte sich nie wirklich etablieren. Um 1870 lebten nur zwei jüdische Personen in der Stadt, 1910 waren es 13. Eher kamen noch Kurgäste jüdischen Glaubens in koschere Hotels, wie die 1907 eröffnete "Villa Germania" oder das 1911 eröffnete "Hotel Teuchelwald". Die wenigen ortsansässigen Juden schlossen sich der nächstgelegenen jüdischen Gemeinde in Horb an. Der Türkisch-Islamische Kulturverein e. V. unterhält die Fatih-Moschee. Ferner gibt es ein Gebäude für religiöse Zeremonien der Aleviten. Marktplatz. Bekannt ist Freudenstadt vor allem durch den größten bebauten Marktplatz Deutschlands, auf dem eigentlich ein Schloss stehen sollte (siehe Abschnitt zur Geschichte). Er gilt als das Wahrzeichen der Stadt und ist circa 4,5 Hektar groß und mit den Maßen 219x216m fast quadratisch. Charakteristisch sind die umlaufenden Laubengänge, "Arkaden" genannt. Drei Zierbrunnen auf dem Marktplatz überstanden den Zweiten Weltkrieg unversehrt. Der Markt wurde nach Zerstörungen im Zweiten Weltkrieg 1950 im Heimatschutzstil wiederaufgebaut. Stadtkirche. An der südlichen Ecke des Platzes steht die evangelische "Stadtkirche". Ihr Grundriss ist L-förmig, die Kanzel befindet sich im Winkel zwischen den beiden Flügeln. Diese Winkelkirche ist eine von zwei solcher Kirchen in Deutschland, die aufgrund örtlicher Gegebenheiten als solche geplant wurden. Im 19. Jahrhundert waren die Geschlechter beim Kirchgang getrennt: Frauen und Männer saßen in verschiedenen Kirchenschiffen, ohne Möglichkeit von Blickkontakt. Nur der Pfarrer konnte vom Altar aus in beide Schiffe blicken, die noch heute "Frauenschiff" und "Herrenschiff" genannt werden. Rathaus. An der gegenüberliegenden nördlichen Ecke des Marktplatzes steht das Rathaus, das Teile der Stadtverwaltung beherbergt sowie zwei Aussichtsplattformen bietet. Im Zentrum des Platzes befindet sich das "Stadthaus", in dem das Heimatmuseum mit den Abteilungen Volkskunde, Stadtgeschichte, Handwerk und Fremdenverkehr sowie die Stadtbücherei untergebracht sind. Eine Gedenksäule daneben erinnert an den Wiederaufbau der Stadt nach ihrer Zerstörung im Weltkrieg. Unter Anspielung auf die Finanzierung des Wiederaufbaus wird das Denkmal im Volksmund "Hypothekenvenus" genannt. Der Friedrichsturm auf dem Kienberg bietet einen guten Blick auf die Stadt Friedrichsturm. Der "Friedrichsturm" ist ein im Jahr 1899 anlässlich des 300-jährigen Stadtjubiläums auf dem "Kienberg" erbauter 25 m hoher Aussichtsturm. Weiteres. Eine kulturhistorische Sehenswürdigkeit ist das Besucherbergwerk Freudenstadt. Die "Schwarzwaldhochstraße", Teil der B 500, ist die älteste Ferienstraße Deutschlands und verbindet Freudenstadt mit Wander- und Skigebieten des Nordschwarzwalds und der Stadt Baden-Baden. Freudenstadt liegt an der "Deutschen Alleenstraße", die von Rügen nach Konstanz führt. Die Schwarzwald-Fernwanderstrecken Mittelweg und Ostweg verlaufen durch die Stadt. Freizeit. Dank der zentralen Lage und seiner touristischen Prägung verfügt Freudenstadt im Vergleich zu ähnlich großen Städten über ungewöhnlich viel Freizeitmöglichkeiten. So besteht seit 1929 ein Golfclub. Die Anlage gilt als eine der ältesten in Deutschland. Über den Landkreis hinaus bekannt ist das "Panoramabad" in der Nordstadt mit einem Wellness-Bereich und einer „Saunalandschaft“. Erreichbar ist das Bad auch mit der Stadtbahn (Haltestelle "Schulzentrum-Panoramabad"). Für den Mannschaftssport stehen in der Kernstadt drei Turnhallen, ein Stadion und mehrere Ballsportplätze zur Verfügung. Am Schierenberg gibt es mehrere Tennisplätze. Ebenfalls in der Nordstadt gelegen ist ein Reitverein. Eine Fußballschule hat ihren Sitz bei den Stadionanlagen. Für Wanderungen und Nordic Walking stehen zahlreiche gut ausgebaute und beschilderte Wanderwege zur Verfügung. Bei ausreichender Schneelage bieten sich Loipen oder der Skilift am "Stokinger"-Hang im Stadtteil Lauterbad an. Noch besser sind die Wintersportmöglichkeiten im höher gelegenen Ortsteil Kniebis. Die Stadt verfügt über zwei Kinos. Das "Subiaco" im Kurhaus ist nicht-kommerziell und auf alternative Filme ausgerichtet. Das "Central" beim Amtsgericht deckt aktuelle Kinofilme ab. Zahlreiche Kneipen in der Loßburger und der Straßburger Straße, am Marktplatz und am Stadtbahnhof sorgen abends für Kurzweil. Beliebt ist die "Freudenstädter Kneipennacht". Eine Diskothek befindet sich außerhalb des Zentrums in der Nähe des Hauptbahnhofs. Regelmäßige Veranstaltungen. Die Umzüge der Narrenzunft Freudenstadt, vor allem der "Große Fasnetsumzug", der am Tag nach dem "Fackelumzug" stattfindet, lockt tausende Hästräger und Zuschauer in die Stadt. Im März und Oktober veranstaltet der ZAEN (Zentralverband der Ärzte für Naturheilverfahren und Regulationsmedizin) den "ZAEN-Kongress" im Kongresszentrum. Die Veranstaltung ist mit ihren Seminaren ein Forum zur Weiterbildung und zum Erfahrungsaustausch. In der Stadtkirche findet traditionell Ende April bis Anfang Mai das Eröffnungskonzert des "Schwarzwald-Musikfestivals" statt. Die Veranstaltungsserie dauert bis in den August und ist darüber hinaus in Stadtteilen zu Gast. Die Fontänen sind Kulisse beim "Fontänenzauber" Anfang Juli verwandelt an einem Wochenende das "Stadtfest" den gesamten Marktplatz in den Schauplatz eines Volksfests, das am Samstagabend in einem großen Feuerwerk gipfelt. Seit 2002 unterhalten Mitte Juli örtliche Vereine beim "Fontänenzauber" am Unteren Marktplatz das Publikum musikalisch und artistisch vor der Kulisse der Freudenstädter Fontänen. Das üblicherweise mehrtägige "Afrikafest" findet gewöhnlich in der letzten Juliwoche auf dem Oberen Marktplatz statt. Die Darbietungen reichen von Tanz- und Musikvorführungen über Artistik, Kino, Ballspiele, Workshops, Ausstellungen und Basare bis zu Gottesdiensten. Größter Beliebtheit erfreut sich im Juli und August das "Freudenstädter Sommertheater", eine jährlich wechselnde Open-Air-Aufführung durch ortsansässige Amateurschauspieler. Das Publikum folgt den Akteuren dabei zu verschiedenen natürlichen Bühnen im Stadtgebiet. Für Tennisfans sind die "Black Forest Open" eine feste Größe im ATP-Kalender. Das Challenger-Turnier findet seit 1996 Ende August parallel zu den US Open statt. Spieler wie Magnus Norman, Gustavo Kuerten und Marat Safin kämpften bereits am "Schierenberg" um Weltranglistenpunkte. Von Frühjahr bis Herbst finden auf dem Marktplatz wechselnde Veranstaltungen statt. Am ersten Oktoberwochenende findet auf dem Oberen Marktplatz der "Kunsthandwerkermarkt" des Handels- und Gewerbevereins Freudenstadt (HGV) parallel zu einem verkaufsoffenen Sonntag statt. Den Jahresausklang besiegelt der Ende November beginnende zehntägige "Freudenstädter Weihnachtsmarkt" des HGV. Zahlreiche Handwerkslädchen und Einzelhändler bieten in einem Dorf aus rund 100 Hütten ihre Waren an. Der Auftritt der "Turmbläser" auf dem Rathausturm zählt zu den Höhepunkten des Marktes. Wirtschaft. Auf den Dienstleistungssektor entfielen 2006 54,2 % der Wertschöpfung, auf das produzierende Gewerbe 45,0 %. Die Landwirtschaft spielte mit 0,8 % nur eine kleine Rolle. Die Stadt bindet in der Region Nordschwarzwald überdurchschnittlich viel Kaufkraft. 2005 betrugen die Gesamteinnahmen je Einwohner 25.785 Euro, die ungebundenen Einnahmen beliefen sich auf 16.730 Euro, 4 % über dem Landesschnitt. Die Stadt wies 2007 einen Einpendlerüberschuss von 1.653 auf. In Freudenstadt gab es 1993 205 Ladengeschäfte. 2007 standen im Stadtgebiet 2.832 Gästebetten zur Verfügung. Die Anzahl der Übernachtungen betrug 339.292. Das verarbeitende Gewerbe ist zum größten Teil in den Industriegebieten angesiedelt. Erwähnenswert sind insbesondere die "Gebr. Schmid GmbH + Co." (Photovoltaik, Leiterplatten, Flachbildschirme), die "Robert Bürkle GmbH" (Maschinen zur Oberflächenveredlung), die Firma "Georg Oest Mineralölwerk GmbH & Co. KG" (Mineralölwerk, Tankstellen, Maschinenbau) sowie die "Hermann Wein GmbH & Co. KG" (Schwarzwälder Schinken). Auch die "Kreissparkasse Freudenstadt" zählt zu den größten Arbeitgebern. Der ehemals größte Arbeitgeber der Stadt, die Schlott Gruppe AG (Druckerzeugnisse), musste 2011 Insolvenz anmelden. Der Freudenstädter Betrieb wurde stillgelegt und fast alle Mitarbeiter entlassen. Straßenverkehr. Bedingt durch die zentrale Lage im Schwarzwald führen vier Bundesstraßen durch Freudenstadt. Am Marktplatz treffen sich B 28 (Kehl–Ulm) und B 462 (Rastatt–Rottweil), zusätzlich endet hier die gegen Ende deckungsgleich mit der B 28 verlaufende B 500 (Baden-Baden–Freudenstadt). Diese Straßen führen danach in West-Ost-Richtung auf einer gemeinsamen Trasse durch das Stadtgebiet. Seit 1985 führt die in Nord-Süd-Richtung verlaufende B 294 (Bretten–Gundelfingen) als Ortsumgehung östlich an Freudenstadt vorbei. Nach dem endgültigen Scheitern der Pläne für die Schwarzwaldautobahn A 84 Anfang der 1980er Jahre mussten andere Lösungen projektiert werden, um dem hohen Verkehrsaufkommen entgegenzuwirken, die nun allmählich in die Umsetzungsphase gelangen. Dazu gehört der vierspurige Ausbau der B 28 in der Kernstadt mit dem Baubeginn Ende 2008 sowie eine Unterfahrung der Innenstadt in einem V-förmigen Tunnel ("vordringlicher Bedarf" im Bundesverkehrswegeplan). Bus und Bahn. Im Jahr 1879 erhielt die Stadt durch den Bau der von Stuttgart über Herrenberg und Eutingen im Gäu nach Freudenstadt führenden Gäubahn Anschluss an den Eisenbahnverkehr. Da deren Weiterführung ins Tal der Kinzig damals bereits geplant war (und als Teil der Kinzigtalbahn 1886 ausgeführt wurde), wurde der Hauptbahnhof im Südosten der Stadt, relativ weit vom Zentrum entfernt, errichtet. 1901 wurde der württembergische Teil der Murgtalbahn nach Klosterreichenbach gebaut. Dabei entstand der 60 Meter höher gelegene Stadtbahnhof nördlich des Zentrums, ein Einheitsbahnhof von Typ IIIb. Eine durchgehende Verbindung nach Rastatt (Baden) wurde 1928 eingerichtet. Somit ist Freudenstadt Ausgangspunkt dreier Bahnstrecken. Die Murgtalbahn stellt die Verbindung nach Karlsruhe her und wird durch die Stadtbahn Karlsruhe betrieben. Die Linien S41 und S31 der Albtal-Verkehrs-Gesellschaft (AVG) verbinden Freudenstadt über Rastatt mit Karlsruhe. Dabei fährt die S41 als Straßenbahn stündlich bis in die Karlsruher Innenstadt und die Eilzug-Linie S31 zweistündlich bis zum Karlsruher Hauptbahnhof. Die Haltestellen innerhalb Freudenstadts sind der "Hauptbahnhof", die Haltestelle "Schulzentrum-Panoramabad", der "Stadtbahnhof" und der Haltepunkt "Industriegebiet". Alle Freudenstädter Haltepunkte werden tagsüber im Halbstundentakt von Stadtbahnen bedient. Die S41 verkehrt hierbei – für den ländlichen Raum ungewöhnlich – bis in die frühen Morgenstunden. Eutingen und Stuttgart werden über die Gäubahn verbunden. Es besteht ein Zugangebot im Stundentakt mit Verdichtungen im Schülerverkehr. Seit 2006 fährt die von Karlsruhe kommende S41 alle zwei Stunden über Freudenstadt bis nach Eutingen, wo Anschluss an den RegionalExpress (RE) Stuttgart–Singen besteht. Dazwischen gibt es mit dem RE Stuttgart–Freudenstadt eine Direktverbindung in die Landeshauptstadt Stuttgart. Wie auf der Murgtalbahn fährt die S41 auf der Gäubahn bis frühmorgens. Die Verbindung nach Offenburg erfolgt über die Kinzigtalbahn. Es verkehren Züge der Ortenau-S-Bahn (OSB), die Freudenstadt stündlich über Alpirsbach, Schiltach und Hausach mit Offenburg verbinden. An Wochenenden fahren einige Züge bis Straßburg. Fernverkehr gibt es in Freudenstadt seit der Jahrtausendwende nicht mehr. In Hausach, Horb, Karlsruhe, Offenburg und Rastatt bestehen Umsteigemöglichkeiten auf Intercity (IC) oder Intercity-Express (ICE). Der Zentrale Omnibusbahnhof (ZOB) mit über 40 Buslinien ist zusammen mit dem unmittelbar angrenzenden Stadtbahnhof mit den Stadtbahnlinien S31 und S41 einer der Hauptverkehrsknoten im Schwarzwald. Stadtbusse fahren Ziele in der Kernstadt an. Die meisten Gemeinden im Landkreis sind umsteigefrei oder über den Knoten Horb zu erreichen. Ebenso werden touristische Ziele, wie der Mummelsee und der Schliffkopf angefahren und es gibt jahreszeitabhängige Angebote wie Skibusse. Öffentliche Verkehrsverbindungen zu Städten in den Nachbarlandkreisen, wie nach Oberndorf, Wolfach, Altensteig oder Dornhahn bestehen, doch haben viele Buslinien, insbesondere in kleinere Gemeinden, keinen dichten Fahrplan. In den Nächten auf Samstage und Sonn- und Feiertage steht das Nachtbus-Angebot "Nachtexpress" zur Verfügung, das den nächtlichen Schienenverkehr ergänzt. Im gesamten Landkreis gelten der Verbundtarif der Verkehrs-Gemeinschaft Landkreis Freudenstadt (VGF) und das Ticket-Angebot "RegioX" des Karlsruher Verkehrsverbundes (KVV). Auf der Kinzigtalbahn hat zudem der "Europass" der OSB Gültigkeit. Medien und Telekommunikation. Als regionale Tageszeitungen berichten sowohl der "Schwarzwälder Bote" als auch die "Neckar Chronik" der Südwest Presse über das Geschehen vor Ort. Kostenfreie Wochenzeitungen sind der "WOM" der Schwarzwälder-Bote-Mediengesellschaft sowie der "Anzeiger". Der werbefreie Radiosender "Freies Radio Freudenstadt" (FRF) und der Sender "Energy Stuttgart" versorgen die Bevölkerung ebenfalls mit Nachrichten aus der Region. Das Hotel Palmenwald sowie verschiedene Objekte wie das Rathaus sind Drehorte der ARD-Fernsehserie "Der Schwarzwaldhof", die seit 2008 ausgestrahlt wird. Gerichte, Behörden und Einrichtungen. Freudenstadt ist Sitz des Amtsgerichts, das zu den Bezirken des Landgerichts Rottweil und des Oberlandesgerichts Stuttgart gehört. Die Stadt ist Sitz des Landratsamts des gleichnamigen Landkreises und beherbergt den Großteil seiner Verwaltungsbehörden. Ferner gibt es ein Notariat und ein Finanzamt. Die Stadt ist Sitz des Kirchenbezirks Freudenstadt der Evangelischen Landeskirche in Württemberg. Der evangelische Schuldekan für die Kirchenbezirke Freudenstadt und Sulz am Neckar hat seinen Dienstsitz in Freudenstadt, das römisch-katholische Dekanat Freudenstadt jedoch in Horb am Neckar. Die Industrie- und Handelskammer Nordschwarzwald unterhält eine Geschäftsstelle im Industriegebiet Freudenstadt-Wittlensweiler. Bildung. Die Schulen in Trägerschaft der Stadt sind zum einen das "Kepler-Gymnasium" und die "Kepler-Hauptschule", die beide in einem Gebäudekomplex nördlich des Zentrums und unweit der Sportanlagen untergebracht sind. Südöstlich in Richtung des Hauptbahnhofs liegt die "Falken-Realschule", unweit davon entfernt die "Hartranft-Grundschule", eine offene Ganztagsschule mit einer Außenstelle im Stadtteil Kniebis. Die "Theodor-Gerhard-Grundschule" mit integrierter Werkrealschule als zweite Grundschule der Kernstadt befindet sich gegenüber den oben genannten "Keplerschulen". Die Stadtteile Dietersweiler und Wittlensweiler haben jeweils eine eigene Grundschule. Zu den Schulen in Trägerschaft des Landkreises zählen die "Eduard-Spranger-Schule", eine kaufmännische Schule mit wirtschaftswissenschaftlichem Gymnasium, die "Heinrich-Schickhardt-Schule" als gewerblich-technische Schule mit technischem Gymnasium sowie die "Luise-Büchner-Schule" als hauswirtschaftliche Schule mit ernährungswissenschaftlichem Gymnasium. Alle drei Schulen sind in einem Gebäudekomplex im Nordosten des Zentrums nahe dem Hauptfriedhof untergebracht und verfügen über eine eigene S-Bahn-Haltestelle. Die "Christophorus-Schule", eine Förderschule, findet sich nördlich in der Nähe des Bauhofs. Die untere Schulaufsichtsbehörde für die Grund-, Haupt-, (Werk-)Real- und Sonderschulen in Freudenstadt ist seit dem 1. Januar 2009 das Staatliche Schulamt Rastatt. Die Gymnasien unterstehen zunächst dem Regierungspräsidium Karlsruhe. In Freudenstadt sind mit der nordwestlich gelegenen evangelischen Berufsfachschule für Kinderpflege "Oberlinhaus" und der freien Waldorfschule unweit des Hauptbahnhofes zwei Privatschulen ansässig. In der Stadt gibt es zudem ein Staatliches Seminar für Didaktik und Lehrerbildung (Grund-, Werkreal- und Hauptschulen). Das "Eduard-von-Hallberger-Institut" bietet angehenden ausländischen Studenten deutschsprachiger Hochschulen Sprach- und Studienvorbereitungskurse. Außerdem ist Freudenstadt Sitz des "Hochschulinstituts für Psychologie und Seelsorge (IPS)" der "Gustav-Siewerth-Akademie". Das "Europäische Theologische Seminar (ETS)" im Stadtteil Kniebis bietet Studienmöglichkeiten in Theologie. Friedrichshafen. Friedrichshafen [oder] ist eine Mittelstadt am nördlichen Ufer des Bodensees und die Kreisstadt des Bodenseekreises, zugleich dessen größte Stadt und nach Konstanz die zweitgrößte Stadt am Bodensee. Gemeinsam mit Ravensburg und Weingarten bildet Friedrichshafen eines von 14 Oberzentren (in Funktionsergänzung) in Baden-Württemberg. Seit April 1956 ist Friedrichshafen Große Kreisstadt, seit September 2011 durch die Zeppelin Universität außerdem Universitätsstadt. Geographie. Blick vom Bodensee auf Schlosskirche und Graf-Zeppelin-Haus Geographische Lage. Friedrichshafen liegt in einer sanft geschwungenen Bucht des nördlichen Bodenseeufers und am Südwestrand des Schussenbeckens. Die Stadt erstreckt sich über eine Höhenlage von am Bodenseeufer bis in Ailingen (Horach). Die Kernstadt befindet sich unweit westlich der Mündung der Rotach in den Bodensee. Von Oberteuringen kommend erreicht dieser Fluss westlich der Ortschaft Ailingen das Stadtgebiet und durchfließt einige kleinere Ortsteile, bevor er am Ostrand der Kernstadt in den See mündet. Die etwas größere Schussen streift die nordöstliche Ecke des Stadtgebietes, bevor auch sie – wenige Kilometer östlich von Friedrichshafen – im Bodensee endet. Nachbargemeinden. Immenstaad am Bodensee (vereinbarte Verwaltungsgemeinschaft), Markdorf, Oberteuringen, Ravensburg, Meckenbeuren, Tettnang und Eriskirch. Stadtgliederung. Lage der Stadtteile und Ortsteile von Friedrichshafen Die Stadt besteht aus der Kernstadt und den im Rahmen der Gemeindereform der 1970er Jahre eingegliederten Gemeinden Ailingen, Ettenkirch, Kluftern und Raderach. Diese eingegliederten Gemeinden sind Ortschaften im Sinne der baden-württembergischen Gemeindeordnung; das heißt, sie haben jeweils einen von den Wahlberechtigten in einer Kommunalwahl neu zu wählenden Ortschaftsrat mit einem Ortsvorsteher als dessen Vorsitzenden. In jeder Ortschaft gibt es eine Ortsverwaltung, deren Leiter der Ortsvorsteher ist. Grenze zu Baden. Die Grenzlinie zwischen den ehemaligen Ländern Baden und Württemberg verlief am Grenzbach zwischen Friedrichshafen-Fischbach und Immenstaad. Zwischen der Bundesstraße 31 und der naturgeschützten Uferzone finden sich noch Reste des „Grenzhofs“. Raumplanung. Friedrichshafen bildet zusammen mit Ravensburg und Weingarten das Oberzentrum (in Funktionsergänzung) der Region Bodensee-Oberschwaben. Dieses übernimmt für den östlichen Teil des Bodenseekreises auch die Funktion eines Mittelzentrums. Im Einzelnen handelt es sich neben Friedrichshafen um die Gemeinden (in alphabetischer Folge) Bermatingen, Deggenhausertal, Eriskirch, Immenstaad, Kressbronn, Langenargen, Markdorf, Meckenbeuren, Neukirch, Oberteuringen und Tettnang. Schutzgebiete. Im Gebiet der Stadt Friedrichshafen sind durch das Regierungspräsidium Tübingen bzw. das Landratsamt Bodenseekreis als untere Naturschutzbehörde zurzeit (Stand: 31. Mai 2009) vier Naturschutzgebiete (Eriskircher Ried, Hepbacher-Leimbacher Ried, Lipbachsenke, Lipbachmündung), fünf Landschaftsschutzgebiete (Haldenberg, Hepbacher-Leimbacher Ried, Lipbachsenke, Württembergisches Bodenseeufer (Teilgebiete)), elf flächenhafte und 25 Einzel-Naturdenkmäler ausgewiesen. Klima. Das Klima Friedrichshafens ist vor allem von den Einflüssen des Bodensees und der nahen Alpen geprägt (siehe Bodenseeklima). Im Vergleich zum Hinterland sind die Temperaturen eher mild. Durch die Nähe zu den Alpen entstehen die charakteristischen Föhnwinde sowie teilweise kräftige Gewitter. Außerdem bildet sich im Winter häufig Nebel, da der See Wärme speichert, die wärmere Luft mehr Feuchtigkeit aufnimmt und diese als Dunst wieder abgibt. Geschichte. Friedrichshafen entstand 1811 aus der ehemaligen Reichsstadt Buchhorn (von der sie das Wappen übernahm) durch Zusammenschluss mit dem nahen Dorf und Kloster Hofen an derselben Bodensee-Bucht. Die Stadt gehörte zum Oberamt Tettnang, aus dem 1938 der Landkreis Tettnang hervorging. Im Jahr 2011 feierte Friedrichshafen seinen 200. Geburtstag. Unter württembergischer Herrschaft. Friedrichshafen wurde nach dem ersten württembergischen König Friedrich I. benannt. Die Stadt prosperierte unter diesem König vor allem wirtschaftlich, als privilegierter Freihafen und Warenumschlagplatz für den Handelsverkehr mit der Schweiz. Dadurch wurden Neuansiedler angelockt, die sich in der Karl- und der Friedrichstraße niederließen und so die Ortsteile Buchhorn und Hofen nach und nach verbanden. Im 19. Jahrhundert diente Friedrichshafen den württembergischen Monarchen als Sommerresidenz. Das ehemalige Kloster Hofen wurde zum königlichen Schloss umgebaut. Unter König Wilhelm I. blühte die Wirtschaft neuerlich auf, was sich unter anderem in dem Kauf des Dampfschiffes "Wilhelm" widerspiegelte. Besonders das Schloss lockte viele Fremde nach Friedrichshafen, darunter auch Minister und hohe Beamte, die sich zum Teil im näheren Umkreis Villen errichten ließen. Auch die ersten Touristen kamen zum Stadtbesuch, unter ihnen soll sogar der russische Zar Alexander II. gewesen sein. Erste Industrie. Als erster isolierter Abschnitt der Königlich Württembergischen Staats-Eisenbahn wurde am 8. November 1847 das Südbahn-Teilstück Friedrichshafen–Ravensburg eröffnet. Ab 1. Juni 1850 konnte die erste Strecke des württembergischen Eisenbahnnetzes von Heilbronn bis Friedrichshafen durchgehend befahren werden. 1869 nahm das Bodensee-Trajekt den Betrieb auf mit Eisenbahnfähren, die Güter von Friedrichshafen nach Romanshorn in der Schweiz transportierten. 1859 wurde die Lederfabrik Hüni gegründet. Aber es wurden auch im 19. Jahrhundert die Schwabenkinder aus Tirol und der Schweiz an Bauern vermittelt. Industrialisierung durch den Zeppelinbau. Die Industrialisierung Friedrichshafens ist vor allem von Ferdinand von Zeppelin geprägt. Der in Konstanz geborene Graf siedelte in den letzten Jahren des 19. Jahrhunderts die Produktion seiner berühmten Starrluftschiffe, der Zeppeline, hier an. Am 2. Juli 1900 erhob sich die 128 m lange LZ1 in der Manzeller Bucht zum ersten Mal von der Startfläche. Nach einigen Anlaufschwierigkeiten begann man 1906 damit, das Nachfolgermodell LZ2 zu testen. Der Begeisterung der Deutschen für die Luftschifffahrt war es zu verdanken, dass das gesamte Projekt trotz einiger Fehlversuche dennoch fortgesetzt wurde. Luftschiff und Luftschiffwerft in Friedrichshafen in einer Fotomontage, um 1910 Die 1909 in Bissingen an der Enz durch Wilhelm Maybach auf Initiative Zeppelins gegründete "Luftfahrzeug-Motorenbau GmbH" übersiedelte 1912 auch wegen veränderter technischer Anforderungen nach Friedrichshafen. Die Leitung des Unternehmens übernahm Karl Maybach (1879–1960), der älteste Sohn von Wilhelm Maybach. Um die gewaltigen finanziellen Mittel für Forschung und Produktion zu besorgen, wurde 1909 eine Aktiengesellschaft (AG) gegründet, die "Deutsche Luftschifffahrts-AG" (DELAG) mit Sitz in Frankfurt am Main, die erste Luftreederei weltweit. Eine Erfindung des Ingenieurs Max Maag, die das Herstellen präziser Zahnräder in Serie erst möglich machte, trug zur Weiterentwicklung der Zeppeline bei und führte 1915 zur Gründung der Zahnradfabrik Friedrichshafen ("ZF"), die 1922 ebenfalls zu einer AG wurde. Mit dem Fortschritt im Luftschiffbau kam so ein allgemeiner wirtschaftlicher Aufschwung in Gang. Und mit der Zahl neuer Arbeitsplätze stieg auch der Zustrom an Feriengästen allmählich an. 1912 beschäftigte der "Zeppelinkonzern" etwa 200 Mitarbeiter, die großteils in einer eigens für sie errichteten neuen Siedlung, dem "Zeppelindorf", lebten. Der Beginn des Ersten Weltkriegs beschleunigte dieses Wirtschaftswachstum, da viele Luftschiffe für den Kriegseinsatz gebaut wurden. Graf Zeppelin starb 1917. Das Büro Dornier, das zunächst mit Metallflugzeugbau im Hause Zeppelin beschäftigt war, wurde 1922 von Claude Dornier übernommen; dies war der Startschuss für die späteren Dornier-Werke. Die Zwischenkriegszeit. An der Novemberrevolution 1918 beteiligten sich auch die Arbeiter Friedrichshafens, indem sie für Fälle von wichtigen Entscheidungen einen "Arbeiter- und Soldatenrat" einsetzten. Mit dem Ende der Monarchie hatte das Schloss als "Königliche Sommerresidenz" ausgedient, es wurde dem entmachteten Haus Württemberg zugesprochen. Der auf Rüstung spezialisierte "Zeppelinkonzern" musste nach Kriegsende den Großteil seiner Arbeiter entlassen. Die Tochterunternehmen widmeten sich nun anderen Produktionsbereichen und konnten so einen Teil der Belegschaft halten. "Maybach-Motorenbau" konzentrierte sich auf den Bau von Pkw-Motoren und produzierte 1922 das erste seiner später berühmten Automobile. Die ZF produzierte nun vor allem einbaufertige Schaltgetriebe für die Automobilindustrie, die zu jener Zeit bereits enormes Potential hatte. Auch der Luftschiffbau wurde schon nach kurzer Zeit wieder aufgenommen. Dies ist vor allem Hugo Eckener zu verdanken, der über einen Spendenaufruf rund 2,5 Millionen Reichsmark für die neue Produktion einsammelte. Die Dornier-Werke (ursprünglich "Zeppelin-Werk Lindau GmbH", ab 1922 "Dornier-Metallbauten GmbH", ab 1938 "Dornier-Werke GmbH", ab 1966 "Dornier GmbH") wurden in den 1930er Jahren durch Zweigbetriebe in Neuaubing und Oberpfaffenhofen (jeweils bei München) sowie in Wismar (Norddeutsche Dornier-Werke) erweitert. Gemäß den Bestimmungen des "Versailler Vertrages" konnte das berühmteste ihrer Flugzeuge, die Dornier Wal, zunächst (in Italien) nur in Lizenz gefertigt werden. Am Bodensee entstand „dafür” das seinerzeit größte Flugzeug der Welt, die Dornier Do X. Das erste Luftschiff nach dem Krieg, die LZ 126, wurde als Wiedergutmachungsleistung an die USA übergeben. Seine Atlantiküberquerung sorgte für großes Aufsehen. Auch die folgenden Luftschiffe LZ 127 "Graf Zeppelin" und LZ 129 "Hindenburg" standen sehr im Blickpunkt der Öffentlichkeit. Nach der "Hindenburg-Katastrophe" in Lakehurst am 6. Mai 1937, bei der 36 Menschen infolge einer Explosion ums Leben kamen, wurde jedoch der Bau weiterer Luftschiffe (mit Ausnahme der LZ 130) eingestellt und auch der gesamte Flugverkehr der Zeppeline. Im Nationalsozialismus und im Krieg. In der nationalsozialistischen Zeit wurde der Fremdenverkehr in Friedrichshafen zu einem wichtigen wirtschaftlichen Faktor. 1934 wurde der amtierende Bürgermeister Schnitzler durch Walter Bärlin ersetzt. Seit 1933 bestand in Friedrichshafen eine Außenhauptstelle der Württembergischen Politischen Polizei, die ab 1938 als „Geheime Staatspolizei - Grenzpolizeikommissariat Friedrichshafen“ firmierte. Die Industrie, die auf Kriegswirtschaft umgestellt worden war, wuchs stetig. Von 1942 bis Ende 1944 fertigte die Firma "Zeppelin" auch Teile für die A4-Rakete (die so genannte V2); für die Überprüfung kompletter A4-Raketen wurde zwischen 1942 und 1943 bei Oberraderach eine Prüf- und Abnahmestelle gebaut, das V2-Werk Raderach. In diesen Betrieben sollen bis zu 14.000 ausländische Arbeitskräfte beschäftigt gewesen sein, darunter etwa 1.000 KZ-Häftlinge, die zum größten Teil in Lagern untergebracht waren. Das Zeppelin-Werk hatte ein eigenes Arbeitskommando des Konzentrationslagers Dachau, das dazugehörige Arbeitslager Friedrichshafen befand sich auf dem Firmengelände der Zeppelin-Werft (heute ZF). Zwischen Juni 1943 und September 1944 befanden sich ungefähr 1200 KZ-Häftlinge des Konzentrationslagers Dachau im KZ-Außenlager Friedrichshafen. Nach der Zerstörung des Lagers (zwischen Hochstraße und Luftschiffbau) durch einen Bombenangriff am 28. April 1944 wurden die KZ-Häftlinge in die Nähe des V2-Werks in Raderach verlegt. Dort befand sich seit 1942 bereits ein Arbeitslager für kriegsgefangene Zwangsarbeiter. Am 25. September 1944 wurden 762 dieser KZ-Häftlinge in das KZ "Dora-Mittelbau" in Nordhausen gebracht. Von Oktober 1944 bis April 1945 errichteten KZ-Häftlinge des Konzentrationslagers Dachau einen unterirdischen Stollen bei Überlingen, den Goldbacher Stollen, um die gefährdeten Friedrichshafener Produktionsstätten zu verlagern und so die Produktion vor den Bombardierungen zu schützen. Die beim Bau des Stollens gestorbenen Zwangsarbeiter wurden auf dem KZ-Friedhof Birnau beigesetzt. Die Produktionsstätten elementarer Rüstungsindustrie waren der Grund dafür, dass Friedrichshafen zwischen Juni 1943 und Februar 1945 das Ziel von elf alliierten Luftangriffen war. Der folgenschwerste dieser Angriffe fand in der Nacht zum 28. April 1944 statt, ihm fielen der Kern der Altstadt und die Hafenanlagen mit mehreren Schiffen zum Opfer. Während des Zweiten Weltkriegs wurde Friedrichshafen zu zwei Dritteln zerstört, es musste daher in den 1950er Jahren fast komplett neu aufgebaut werden. Die vollständige Zerstörung der Stadt wurde vermutlich durch die Entschlossenheit der Bürger und ihres Bürgermeisters verhindert, indem diese den Befehl missachteten, Friedrichshafen bis zum allerletzten Haus zu verteidigen. Bei Kriegsbeginn 1939 lebten 25.041 Menschen in Friedrichshafen, 1943 sogar 27.168; nach den Luftangriffen waren es zunächst noch 7.650, da zwei Drittel der Bevölkerung abgewandert oder evakuiert worden waren. Im Juni 1945 zählte die Stadt dann 10.126 und im Dezember 1945 schon wieder 14.979 Einwohner. Wiederaufbau nach dem Zweiten Weltkrieg. Nach dem Krieg wurden einige Firmen, darunter die Luftschiffbau Zeppelin GmbH und die Dornier-Werke, zwangsaufgelöst. Dadurch verloren viele Menschen ihren Arbeitsplatz und damit ihr Auskommen. Die Zahnradfabrik und der Maybach-Motorenbau konnten jedoch gerettet werden, mussten aber ihre Produktion umstellen. Die erste wichtige Handlung des Wiederaufbaus war die Enttrümmerung der Stadt. Dazu wurde eine Schmalspurbahn angelegt, mit deren Hilfe bis 1949 die gesamte Altstadt freigeräumt wurde. Außerdem errichtete die Firma Hüni eine Trümmerwiederaufbereitungsanlage. 1950 konnte mit der Planung des Neuaufbaus begonnen werden, die vor allem bessere Verkehrsverhältnisse sowie größere Grünanlagen vorsah. Mit der Einweihung des neuen Rathauses wurde diese Bauphase 1956 abgeschlossen, doch es mangelte nach wie vor an ausreichendem Wohnraum. Ehemalige Bürgermeister, Landräte und andere Politfunktionäre des NS-Regimes wurden nach dem Zweiten Weltkrieg von der französischen Besatzungsmacht in einem Lager bei Balingen interniert. Im Frühjahr 1946 begann in Friedrichshafen die „Entnazifizierung“: 2500 Einwohner mussten Fragebögen zu ihrer Tätigkeit und ihrem Verhalten während der Zeit des Nationalsozialismus ausfüllen und sich vor Untersuchungsausschüssen verantworten. Umstritten waren vor allem die Verfahren gegen 15 bekannte Unternehmer und “Wehrwirtschaftsführer”, wie zum Beispiel Hugo Eckener (Luftschiffbau Zeppelin), Claude Dornier, Karl Maybach und Hans Cappus (ZF Zahnradfabrik). Sozialisten und Gewerkschafter konnten sich dabei nicht gegen französische Rüstungsinteressen durchsetzen. Die „politische Säuberung“ wurde bis März 1951 beendet, wobei die meisten Personen als unbelastete „Mitläufer“ eingestuft wurden. Der wirtschaftliche Aufschwung der Stadt Friedrichshafen ist auch der Stiftung zu verdanken, die 1908 von Grafen Zeppelin gegründet worden war und der Förderung des Luftschiffbaus dienen sollte. Für den Fall, dass der ursprüngliche Stiftungszweck nicht mehr erfüllt werden könne, sollte die Stiftung an die Stadt Friedrichshafen fallen. In diesem Falle sollten die Erträge aus der Zeppelin-Stiftung für wohltätige Zwecke eingesetzt werden. Am 1. März 1947 ging das Stiftungsvermögen an die Stadt Friedrichshafen über. Die Zeppelin-Stiftung hält 93,8 Prozent der Aktien der ZF Friedrichshafen AG und ist Eigentümerin der Luftschiffbau Zeppelin GmbH und der Zeppelin GmbH. Mit den Erträgen aus diesen sogenannten Stiftungsbetrieben finanziert die Stiftung satzungsgemäß mildtätige und gemeinnützige Zwecke. Neuere Geschichte. Dank des rapiden Bevölkerungszuwachses (auf 53.000 Einwohner) wurde Friedrichshafen bei der Baden-Württembergischen Kreisreform am 1. Januar 1973 Verwaltungssitz des neu gegründeten Bodenseekreises. In jener Zeit datieren auch die meisten Eingemeindungen. In dieser Zeit begann man auch damit, die Infrastruktur zu erweitern und auszubauen. Zahlreiche Bildungseinrichtungen sind seither entstanden, darunter ein Teil der öffentlichen Schulen, die Musikschule, die Volkshochschule sowie das Berufsschulzentrum. Hinzu kamen das Zeppelin-Stadion und die Bodenseesporthalle, das Hallenbad war bereits 1970 eröffnet worden. 1992 erfolgte der Abzug der französischen Garnison (Heeresflieger) aus ihrem "Quartier Durand de Villers". Eingemeindungen. Im heutigen Stadtgebiet gab es ab 1812 folgende Gemeinden: Stadt Friedrichshafen und die Gemeinden Hagendorn, Ettenkirch, Kluftern und Raderach. 1825 wurde die Gemeinde Hagendorn aufgelöst. Es entstanden daraus die Gemeinden Ailingen und Berg. 1850 wurde Schnetzenhausen von der Gemeinde Berg als selbständige Gemeinde abgetrennt, aber 1937 in die Stadt Friedrichshafen eingegliedert. Ebenfalls 1937 wurde die Gemeinde Berg in die Gemeinde Ailingen eingegliedert, die ihren Gemeindeteil Allmannsweiler jedoch an die Stadt Friedrichshafen abgeben musste. Somit bestanden ab 1937 neben der Stadt Friedrichshafen noch die Gemeinden Ailingen, Ettenkirch, Kluftern und Raderach. Im Laufe der Geschichte wurden somit folgende Gemeinden bzw. Orte in die Stadt Friedrichshafen eingegliedert. Sie gehörten vor der Kreisreform soweit nicht anders angegeben zum Landkreis Tettnang. Einwohnerentwicklung. Einwohnerzahlen nach dem jeweiligen Gebietsstand. Die Zahlen sind Volkszählungsergebnisse (¹) oder amtliche Fortschreibungen der jeweiligen Statistischen Ämter (nur Hauptwohnsitze). Geschichte. Das Gebiet der heutigen Stadt Friedrichshafen gehörte anfangs zum Bistum Konstanz und war dem Archidiakonat Albgovia Kapitel Ailingen-Buchhorn unterstellt. Die Reformation wurde nicht durchgeführt. Nach einer ab 1593 durchgeführten Untersuchung in der Stadt Buchhorn wurde sogar bestimmt, dass niemand Bürgerrechte erwerben, Mitglied des Rates sein oder in städtische Dienste treten kann, der sich nicht unter Eid zur römisch-katholischen Kirche bekennt. Ursprünglich war Buchhorn kirchlich vom Kloster Hofen abhängig. Die dem Kloster zugehörige Kirche „St. Andreas und Pantaleon“ war auch die Kirche Buchhorns. 1325 wird in Buchhorn jedoch eine Nikolauskapelle erwähnt, die aber erst Ende des 16. Jahrhunderts zur Pfarrei erhoben wurde. Die katholische Gemeinde gehörte noch bis 1802 zum Bistum Konstanz und war dem Dekanat Theuringen, ab 1808 dem Ordinariat Ellwangen unterstellt, aus dem 1821/27 das neu gegründete Bistum Rottenburg, heute Bistum Rottenburg-Stuttgart, hervorging. Katholische Gemeinden. Die heutige Pfarrkirche St. Nikolaus wurde von 1745 bis 1750 vom Kloster Weingarten als Barockbau errichtet. 1928 entstand infolge starken Wachstums der Nikolausgemeinde die Kirche St. Petrus Canisius. Sie wurde am 24. November 1928 durch Bischof Joannes Baptista Sproll geweiht und zehn Jahre später zu einer eigenständigen Gemeinde erhoben, die heute mit ihrer expressionistischen, dem Bauhausstil angenäherten Klinkerkirche (1928) die größte katholische Gemeinde Friedrichshafens ist. Die trotz des Krieges weiter wachsende Bevölkerungszahl veranlasste den Stadtpfarrer, eine weitere Kirche, die er "Christus der Gute Hirte" nennen wollte, zu planen. Ihr Baustil mit dem muschelförmigen Kuppelbau und der aufgesetzten Glockenschale ist recht eigenwillig und sehr selten. Die Kirche wurde schließlich unter dem Namen "Zum guten Hirten" am 12. Mai 1962 geweiht, am 1. Oktober erhielt sie einen eigenen Pfarrer. Nach dem Absturz eines Sportflugzeuges musste das Dach der Kirche schon zehn Jahre nach der Weihe restauriert werden. Da die alte Pfarrkirche "St. Mariä Geburt" aus dem 13. Jahrhundert im Stadtteil Jettenhausen zu klein geworden war, wurde sie 1960 durch einen Neubau, der der heiligen Maria geweiht war, ersetzt. Die zeltförmige Kirche St. Columban, deren Architektur durch das zweite vatikanische Konzil geprägt ist, wurde 1966 durch den italienischen Bischof Pietro Zuccarino aus Bobbio geweiht. Ihr Gemeindegebiet erstreckte sich im neu entstandenen Stadtteil Friedrichshafen Ost, sowie der Kitzenwiese. Die Gemeindearbeit ist durch die Chorgemeinschaft, die schon etliche nationale Auftritte (Katholikentag in Ulm, Ökumenischer Kirchentag in Berlin) verbuchen konnte, geprägt. Damit bestand die Gesamtkirchengemeinde aus fünf Teilgemeinden. Auch in den anderen Stadtteilen Friedrichshafens gibt es jeweils katholische Gemeinden und Kirchen: St. Magnus Fischbach (erbaut 1955, alte Pfarrkirche St. Vitus 1834), St. Peter und Paul in Schnetzenhausen (erbaut 1754 auf älteren Resten), St. Nikolaus Berg (erbaut 1520, doch 1785 erneuert und um 1900 weiter verändert) und St. Petrus und Paulus Ettenkirch (erbaut im 17. Jahrhundert, 1884 wurde der Turm erhöht). Auch diese vier Gemeinden traten 1974 der Gesamtkirchengemeinde Friedrichshafen bei, St. Johann Baptist in Ailingen erst 2005. Die Katholische Gesamtkirchengemeinde Friedrichshafen umfasst somit zehn Kirchengemeinden und ca. 25.000 Katholiken (Stand 2010). Diese gehören heute zum Dekanat Friedrichshafen, das nach der Kreisreform 1973 aus dem bisherigen Dekanat Tettnang entstand (Umbenennung). Eine weitere Kirchengemeinde St. Gangolf Kluftern, gehört nicht zur Gesamtkirchengemeinde Friedrichshafen. Kluftern gehörte ab 1806 zum Land Baden, die Kirchengemeinde gehört somit bis heute zum Dekanat Linzgau innerhalb der Erzdiözese Freiburg. Die Katholiken im Stadtteil Raderach gehören zur Kirchengemeinde Bergheim. Es gibt jedoch seit 1837 in Raderach eine Kapelle Mariä Heimsuchung. Evangelische Gemeinden. Anfang des 19. Jahrhunderts zogen auch Protestanten in den Raum Friedrichshafen. Es waren zunächst vor allem Beamte und Bedienstete des württembergischen Königs, die ins Schloss Hofen, das ehemalige Kloster, einzogen. Für sie gründete König Friedrich von Württemberg eine evangelische Kirchengemeinde, der er die barocke Schlosskirche zur Verfügung stellte. 1845 wurde hier eine Pfarrei errichtet. Während der Zeit des Nationalsozialismus wurde der evangelische Stadtpfarrer Karl Steger als Vertreter der „Deutschen Christen“ überregional bekannt. Nach dem Zweiten Weltkrieg wuchs die evangelische Gemeinde stark an, vor allem wegen des Zustroms von Flüchtlingen und Heimatvertriebenen. Daher wurden weitere Kirchengemeinden gegründet und Kirchen erbaut. Es entstanden die Erlösergemeinde (1958), die Dietrich-Bonhoeffer-Gemeinde (1968) und die Paul-Gerhardt-Gemeinde Jettenhausen (1978). Sie alle bilden mit der Schlosskirchengemeinde seit 1994 die Evangelische Gesamtkirchengemeinde Friedrichshafen. Diese gehört zum Dekanat bzw. Kirchenbezirk Ravensburg innerhalb der Evangelischen Landeskirche in Württemberg. Weitere Kirchengemeinden bzw. Kirchen im Stadtgebiet Friedrichshafens befinden sich in Manzell (Kirche und Pfarrei von 1938), Ailingen (Kirche von 1949, eine Kapelle gab es bereits seit 1937) und Kluftern, wobei die letztgenannte zum Dekanat Überlingen-Stockach der Evangelischen Landeskirche in Baden gehört. Die Protestanten aus Ettenkirch werden von der Kirchengemeinde Ailingen, die Protestanten von Raderach von der Kirchengemeinde Markdorf betreut. Weitere religiöse Gemeinden. Neben den beiden großen christlichen Kirchen gibt es in Friedrichshafen auch eine serbisch-orthodoxe Kirchengemeinde sowie Gemeinden, die zu Freikirchen gehören, darunter eine evangelisch-freikirchliche Gemeinde (Baptistengemeinde), eine evangelisch-methodistische Gemeinde, eine Vineyard-Gemeinde, die Unabhängige evangelische Gemeinde und die Freie Christengemeinde "Foyer FN". Auch die Neuapostolische Kirche, die Christliche Wissenschaft und die Zeugen Jehovas sind in Friedrichshafen vertreten. Im Zuge der Anwerbung von Arbeitsmigranten aus dem Ausland kamen verstärkt seit den 1960er Jahren auch Angehörige der islamischen Religion nach Friedrichshafen. Nach Schätzungen leben rund 4000 Muslime vor allem sunnitischer Konfession hier. Seit 1998 betreibt die türkische DİTİB die Mehmet-Akif-Moschee am Rande des Stadtkerns in Richtung der Teilgemeinde Berg. Hinzu kommen zwei weitere kleinere islamische Gemeinden in der Kernstadt. Bürgermeister. An der Spitze der Stadt Buchhorn standen ab dem 13. Jahrhundert der vom Stadtherrn eingesetzte Ammann (Amtmann) sowie der Rat, der zugleich Stadtgericht war. Ab 1397 wurde der Ammann als Vorsitzender des Rates durch einen Bürgermeister ersetzt, der Ammann war dann nur noch Vorsitzender des Gerichts. Die Zünfte hatten dann das Sagen in der Stadt. Sie bildeten den Kleinen und den Großen Rat. 1552 wurde durch Kaiser Karl V. die Geschlechterherrschaft eingeführt. Danach gab es drei Bürgermeister, die jeweils vier Monate im Amt waren. Im 18. Jahrhundert zerfiel die Verwaltung immer mehr, so dass 1752 ein kaiserlicher Kommandant eingesetzt werden musste. Nach dem Übergang an Württemberg wurde in der nunmehrigen Stadt Friedrichshafen ein Stadtschultheiß eingesetzt. Seit 1935 wurde aus dem Stadtschultheiß der Bürgermeister, der seit der Erhebung zur Großen Kreisstadt 1956 die Amtsbezeichnung Oberbürgermeister trägt. Heutzutage wird der Oberbürgermeister für eine Amtszeit von 8 Jahren gewählt. Er ist Vorsitzender des Gemeinderats und Leiter der Stadtverwaltung. Der Oberbürgermeister hat zwei Beigeordnete als hauptamtliche Stellvertreter. Die Amtsbezeichnung des Ersten Beigeordneten ist „Erster Bürgermeister“, der Zweite Beigeordnete nennt sich schlicht „Bürgermeister“. Bei der Bürgermeisterwahl am 5. April 2009 setzte sich Andreas Brand (Freie Wähler) mit 69,96 Prozent der gültig abgegebenen Stimmen (Wahlbeteiligung: 44,33 Prozent) gegen seinen Mitbewerber Peter Kienzle (CDU) durch. Amtsvorgänger Josef Büchelmeier (SPD) stand für eine Wiederwahl nicht mehr zur Verfügung. Wappen. Das Wappen der Stadt Friedrichshafen zeigt in gespaltenem Schild vorne in Gold eine bewurzelte grüne Buche, hinten in Rot ein silbernes Hifthorn mit goldener Fessel und goldenen Beschlägen. Die Stadtflagge ist grün-weiß. Das Wappen ist das frühere Stadtwappen der Freien Reichsstadt Buchhorn. Diese Stadt führte ein so genanntes "redendes Wappen", die Buche und das Horn. Beide Wappensymbole sind schon seit 1274 in den Siegeln der Stadt belegt. Anfangs war auch noch der Reichsadler im Siegel zu sehen. Dieser verschwand jedoch seit dem 15. Jahrhundert. Die Symbole waren früher jedoch in anderer Form und Blasonierung dargestellt. So war das Horn bis ins 19. Jahrhundert noch schwarz tingiert. Patenschaft. Die Stadt Friedrichshafen übernahm am 12. Dezember 1967 die Patenschaft über das Marinefliegergeschwader 3 aus Nordholz anlässlich der Verleihung des Traditionsnamens "Graf Zeppelin" an das Geschwader am 9. Juli 1967. Wirtschaft und Infrastruktur. Die größten Arbeitgeber der Stadt sind immer noch die Industrieunternehmen, deren Wurzeln in die Zeit des Luftschiffbaus zurückreichen. Die Sauerstoffwerk Friedrichshafen GmbH "(SWF)" wurde 1913 zur Herstellung von Wasserstoff als Traggas für Zeppeline gegründet. Heute stellt sie mit zwei weiteren Werken in Aitrach und Bielefeld Gase aller Art für den industriellen, handwerklichen und medizinischen Bedarf her. Die ZF Friedrichshafen AG "(ZF)" wurde 1915 als "Zahnradfabrik GmbH" gegründet, um die Getriebe (in erster Linie waren es die Zahnräder) der Zeppeline zu verbessern. Das Unternehmen wurde 1921 in eine Aktiengesellschaft umgewandelt. Heute ist die ZF ein bedeutender deutscher Automobilzulieferer. Die MTU Friedrichshafen GmbH "(MTU"; nicht zu verwechseln mit der Motoren und Turbinen Union in München) zählt zu den weltweit führenden Herstellern von großen Dieselmotoren und kompletten Antriebssystemen. Sie entstand 1909 aus der Maybach-Motorenbau GmbH. Bis 1985 war sie nach und nach in den Daimler-Chrysler-Konzern integriert worden, der sie 2005 jedoch für 1,6 Milliarden Euro an die schwedische Private-Equity-Gruppe EQT verkaufte. Sie ist auch für Berufsanfänger in der ganzen Region von Bedeutung, da bei der MTU Jahr für Jahr eine große Anzahl an Fachkräften ausgebildet werden (2004: 388 Auszubildende). Die Zeppelin Luftschifftechnik GmbH ist ein 1993 gegründetes Unternehmen, das die halbstarren Hybridluftschiffe vom Typ Zeppelin NT entwickelt und herstellt. Hauptanteilseigner sind die Luftschiffbau Zeppelin GmbH und die ZF. Die Deutsche Zeppelin-Reederei GmbH, ein Tochterunternehmen der Luftschifftechnik, ist zuständig für die Vermittlung der Flüge. Die seit 1909 bestehende LZ-Gießerei ging 1948 in die Firma Metallbearbeitung Friedrichshafen eGmbH über, und gehört heute zur MWS-Unternehmensgruppe. 1859, also lange Zeit vor der Zeppelinproduktion, gründete "Hans Heinrich Hüni" östlich der Altstadt von Friedrichshafen die Firma Hüni. Ursprünglich produzierte sie Leder, inzwischen gilt sie als Spezialist für hochwertige Beschichtungen mit organischen Kunststoffen. Friedrichshafen hat sich außerdem als Messestandort etabliert und nennt sich daher gerne "Messe- und Zeppelinstadt". Zu den bekannteren regelmäßigen Veranstaltungen in der Messe Friedrichshafen gehören Am 21. Februar 2007 gewann die Stadt den von der Deutschen Telekom ausgeschriebenen Wettbewerb T-City. Verkehr. Der Hafen von Friedrichshafen – Blick vom Moleturm Schiffsverkehr. Die Fährlinie Friedrichshafen–Romanshorn verbindet Friedrichshafen mit Romanshorn in der Schweiz. Seit 2005 verbinden die beiden Katamarane "Fridolin" und "Constanze" die Stadt mit Konstanz. 2007 kam ein drittes Schiff hinzu, der Katamaran "Ferdinand". Der Katamaran (Friedrichshafen–Konstanz) vor Friedrichshafen Friedrichshafen ist durch den Linienverkehr der Bodensee-Schifffahrtsbetriebe (BSB, ugs.: Weiße Flotte) mit diversen Städten rund um den See verbunden (z. B. Meersburg, Überlingen, Konstanz, Lindau, Bregenz). Diese Schiffe verkehren nur während des Sommerhalbjahres. Luftverkehr. Im Nordosten der Stadt (Richtung Meckenbeuren) befindet sich der Flughafen Friedrichshafen, der zugleich Heimatflughafen von "InterSky", der größten Fluglinie vor Ort, ist. InterSky verfügt am Flughafen über ein eigenes Wartungszentrum. Des Weiteren wird der Flughafen regelmäßig von der Lufthansa, von Germanwings und weiteren Fluglinien angesteuert. Mehrmals täglich sind Flüge nach Frankfurt (Lufthansa), Köln/Bonn (Germanwings), Düsseldorf, Hamburg und Berlin (jeweils InterSky) im Angebot. Zudem besteht eine Verbindung nach Istanbul (Turkish Airlines). Ferienflüge nach Palma de Mallorca, Kroatien, Antalya, Kreta, Monastir, Varna, Lamezia Therme, Madeira, Elba, Ibiza Hurghada und auf die Kanarischen Inseln werden ab dem Sommerflugplan 2013 von verschiedenen Fluglinien angeboten. In der Wintersaison wird der Flughafen von Skitouristen aus Moskau, Oslo, Stockholm, Tallinn oder Minsk angeflogen. Straßenverkehr. Friedrichshafen liegt an der Bundesstraße 31 (Freiburg im Breisgau–Sigmarszell), die am nördlichen Bodenseeufer entlangführt, und ist durch die Bundesstraße 30 in Richtung Ravensburg und Ulm angebunden (es gab einmal Pläne, die B 30 zur Bundesautobahn 89 auszubauen). Nach der Umgestaltung der Innenstadt in eine verkehrsberuhigte Zone verfügt Friedrichshafen über vier Parkhäuser (See, Altstadt, Stadtbahnhof und Graf-Zeppelin-Haus). Schienenverkehr. Der Stadtbahnhof in Friedrichshafen (September 2008) Im Friedrichshafener Stadtgebiet gibt es insgesamt zwei Bahnhöfe sowie weitere sechs Haltepunkte. Die wichtigsten sind "Friedrichshafen Hafen" und "Friedrichshafen Stadt", die miteinander durch die Bahnstrecke Friedrichshafen Stadt–Friedrichshafen Hafen verbunden sind. Im Stadtbahnhof laufen mehrere Strecken zusammen: Zum einen die Bodenseegürtelbahn nach Radolfzell; in Richtung Ulm die Südbahn auf der "Interregio-Express-Züge (IRE)" in Richtung Stuttgart verkehren; zusätzlich verkehrt täglich ein Intercity-Zugpaar in Richtung Münster (Westfalen)/Dortmund über Ulm, Stuttgart, Mainz, Koblenz und Köln und in die Gegenrichtung nach Innsbruck Hauptbahnhof über Bregenz, Feldkirch und die Arlbergbahn; aus Basel kommt außerdem alle zwei Stunden ein IRE-Sprinter zur Weiterfahrt nach Ulm, der die Strecke in verkürzter Fahrzeit zurücklegt; in Richtung Lindau bestehen neben IRE-Verbindungen auch solche mit Regionalbahnen. Darüber hinaus verkehrt zwischen Friedrichshafen Hafen und Aulendorf noch die Bodensee-Oberschwaben-Bahn. Öffentlicher Nahverkehr. Seit dem Jahr 1990 existiert das Busunternehmen "Stadtverkehr Friedrichshafen GmbH", das 1999 umstrukturiert wurde und 2004 in den Bodensee-Oberschwaben Verkehrsverbund "(bodo)" eintrat. Heute verkehren in diesem Netz regelmäßig über 15 Buslinien, deren wichtigste Knotenpunkte der Hafen- und der Stadtbahnhof sind. Bei Messeveranstaltungen werden zusätzlich ein Messeexpress (Hafenbahnhof-Stadtbahnhof-Messe) und ein Messeshuttle (Flughafen-Messe) eingerichtet. Abends sind im Stunden- bzw. Zweistundentakt sechs Abendlinien von bzw. zum Stadtbahnhof, auf teilweise gegenüber den Tageslinien veränderten Routen, unterwegs. Außerdem bietet das Unternehmen das Ruftaxi "RIA" an. Medien. In Friedrichshafen befindet sich das Studio des SWR4-Bodenseeradiosenders des Südwestrundfunks, das für den Bodenseekreis sowie für die Landkreise Biberach, Ravensburg, Konstanz und Sigmaringen zuständig ist. SWR4 veranstaltet seit 1957 in vielen Städten am Bodensee, so auch in Friedrichshafen, zusammen mit dem Schweizer Sender DRS1 im Sommerhalbjahr Hafenkonzerte. Dort wird vor allem Volkstümliche Musik und Schlager gespielt. Das Studio von SWR4 befindet sich in der Altstadt, beim Parkhaus am See. Weitere regionale Radiosender sind das eher jugendorientierte Radio 7 und Radio Seefunk, die beide vorwiegend Rock- und Popmusik spielen. Die Schwäbische Zeitung (ist auch an Radio 7 beteiligt) und der Südkurier halten sich eigene Lokalredaktionen in Friedrichshafen, die über das aktuelle Geschehen in der Stadt sowie aus der Region berichten. In Friedrichshafen hat auch der über Kabel zu empfangende private Regionalfernsehsender Regio TV Bodensee – seit Mai 2001 Nachfolger von "see tv" – eine Niederlassung. Behörden und Einrichtungen. Als Kreisstadt des Bodenseekreises beherbergt Friedrichshafen dessen Verwaltung, das Landratsamt. Ferner vor Ort sind das Finanzamt und ein Notariat. Die Stadt ist auch Sitz des Dekanats Friedrichshafen des Bistums Rottenburg-Stuttgart. Kindertageseinrichtungen. In Friedrichshafen gibt es 37 Kindertageseinrichtungen. Allgemeinbildende Schulen. Als Große Kreisstadt verfügt Friedrichshafen über alle gängigen Schularten. In der Primarstufe gibt es die drei Grund- und Werkrealschulen "Ludwig-Dürr-Schule", "Pestalozzischule" und die private Bodenseeschule St. Martin, sowie die "Gemeinschaftsschule Schreienesch" und die fünf Grundschulen "Dr.-Josef-Eberle-Grundschule" in Ailingen mit einer Außenstelle in Berg, "Grundschule Friedrichshafen-Fischbach" mit Außenstelle in Schnetzenhausen, "Albert-Merglen-Schule", "Don-Bosco-Schule Ettenkirch" und die "Grundschule Friedrichshafen-Kluftern". An weiterführenden Schulen stehen die "Dr.-Josef-Eberle-Realschule" sowie die private Mädchen- und Jungenrealschule St. Elisabeth zur Verfügung. Ferner eine "Abendrealschule". Seit dem Schuljahr 2014/2015 gibt es außerdem zwei Gemeinschaftsschulen an der "Gemeinschaftsschule Schreienesch" und der "Gemeinschaftsschule Graf Soden". Außerdem bietet die Stadt mit dem "Graf-Zeppelin-Gymnasium" und dem "Karl-Maybach-Gymnasium" zwei allgemeinbildende Gymnasien. Hinzu kommt die "Merianschule" als Förderschule und die Tannenhagschule als Sonderschule für Geistigbehinderte sowie die privaten Sonderschulen "Schule am See" (Sonderschule für Körperbehinderte) und "Sprachheilschule" (Sonderschule für Sprachbehinderte). Die SIS Swiss International School (Privatschule) bietet bilinguale Bildung vom Kindergarten über die Grundschule bis zum Gymnasium. Im Berufsschulzentrum (im Osten der Stadt; Träger ist der Bodenseekreis) befinden sich die "Claude-Dornier-Schule" (gewerbliche Schule, u. a. mit dem Technischen Gymnasium und dem Informationstechnischen Gymnasium), die "Hugo-Eckener-Schule" (kaufmännische Schule, u. a. mit dem Wirtschaftsgymnasium) und die "Droste-Hülshoff-Schule" (haus- und landwirtschaftliche Schule, u. a. mit dem Ernährungswissenschaftlichen-, Sozialwissenschaftlichen- und Biotechnologischen Gymnasium). Die Bernd-Blindow-Schule ist eine private berufliche Schule mit Naturwissenschaftlich-technischem, Sozialpädagogischem und Medien- und Gestaltungstechnischem Gymnasium. Außerschulische Bildungseinrichtungen sind die "Wissenswerkstatt", die Interesse für Technik und technische Berufe wecken will, die "KinderUni FN" mit Vorlesungen für Kinder von 5-12 Jahre in allen Wissensbereichen und die "Hector Kinderakademie" zur Förderung begabter Kinder im Grundschulalter. Hochschulen. Die 2003 gegründete Zeppelin Universität ist seit September 2011 (Verleihung der Promotions- und Habilitationsrechte durch das Wissenschaftsministerium) die zehnte Universität im Land Baden-Württemberg; Friedrichshafen ist somit seitdem Universitätsstadt. Die Universität befindet sich in privater Trägerschaft und beschreibt sich selbst als „Universität zwischen Wirtschaft, Kultur und Politik“. Angeboten werden Studiengänge in den Bereichen Wirtschaftswissenschaften, Kommunikations- und Kulturwissenschaften, Politik- und Verwaltungswissenschaften sowie Soziologie, Politik und Ökonomie. Weiterhin befindet sich eine duale Hochschule in Friedrichshafen: Die Fakultät Technik der Dualen Hochschule Baden-Württemberg Ravensburg (DHBW Ravensburg) bietet 14 Studienrichtungen in den Bereichen Elektrotechnik, Maschinenbau, Informatik, Wirtschaftsinformatik, Luft- und Raumfahrttechnik, Wirtschaftsingenieurwesen. Außerdem befindet sich in Friedrichshafen ein Studienzentrum der privaten DIPLOMA – Fachhochschule Nordhessen. Bibliotheken. Neben der Stadtbibliothek „Medienhaus am See“ ist in Friedrichshafen die Bodenseebibliothek ansässig, die als Spezialbibliothek Werke zum Bodenseeraum und seiner Geschichte sammelt. Soziale Einrichtungen. Die Evangelische Heimstiftung und die BruderhausDiakonie betreiben in Friedrichshafen Einrichtungen der Altenhilfe und der Sozialpsychiatrie. Die Stiftung Liebenau unterhält mehrere Seniorenzentren und das Hospiz St. Josef. Arbeiterwohlfahrt (AWO), Deutsches Rotes Kreuz, die Johanniter-Unfall-Hilfe, das THW, der Malteser Hilfsdienst und die DLRG unterhalten in Friedrichshafen Vertretungen. Kultur und Sehenswürdigkeiten. Image:Friedrichshafen_panorama.jpg|850px|center|Panorama Friedrichshafens mit Uferpromenade, Altstadt und Hafen (Blick vom Moleturm) rect 3974 345 4622 577 Zeppelin Museum poly 715 346 713 398 659 402 657 456 817 452 807 345 Schlosskirche rect 2850 445 3973 748 Kulturzentrum K42 rect 2369 918 2626 1198 Aussichtsturm Friedrichshafen rect 2111 88 2250 474 Pfarrkirche St. Nikolaus Ferienstraßen. Friedrichshafen liegt an der Hauptroute der Oberschwäbischen Barockstraße. Die grenzüberschreitende Grüne Straße/Route Verte, die in den Vogesen in Contrexéville beginnt und bei Breisach den Rhein überschreitet, führt in der Nordroute über Friedrichshafen und endet in Lindau. Promenade, Wanderwege und Pfade. Häufig besucht ist vom Hafen aus gesehen westwärts die See- und Uferstraße als "Promenade" bis zum württembergischen Schloss und ostwärts der Weg durch das Naturschutzgebiet Eriskircher Ried, die Teil des "Bodensee-Rundweges" sind. Weiter westwärts in den Ortsteilen Manzell und Fischbach führt dieser wegen der Industrieanlagen nicht am Bodenseeufer, sondern an der vielbefahrenen Bundesstraße 31 entlang und erreicht den See erst wieder beim Campingplatz Immenstaad. Der "Geschichtspfad Friedrichshafen" bietet Informationen zu geschichtlich interessanten Örtlichkeiten und Gebäuden. Auf inzwischen über fünfzig Informationstafeln an Originalstandorten in der Friedrichshafener Innenstadt und den näher gelegenen Stadtteilen werden Blicke "hinter die Fassaden" gewährt. Eine Ergänzung des Geschichtspfads ist der "Maybach-Weg". Die wichtigsten Stationen im Leben des Motoren- und Automobilkonstrukteurs Karl Maybach (* 1879; † 1960 in Friedrichshafen) werden durch ihn aufgegriffen. An zwölf Standorten im Stadtgebiet wird auf installierten Tafeln an sein Leben und seine Leistungen erinnert. Der zwölf Kilometer lange "Zeppelin-Pfad" soll an neun Stationen die Geschichte der Stadt Friedrichshafen im 20. Jahrhundert, in deren Mittelpunkt die Geschichte der Zeppelin-Stiftung steht, erfahrbar machen. Er ergänzt ebenfalls das Angebot des Geschichtspfads. Durch das Stadtgebiet Friedrichshafens verläuft die dritte Etappe des "Jubiläumswegs", ein 111 Kilometer langer Wanderweg, der 1998 zum 25-jährigen Bestehen des Bodenseekreises ausgeschildert wurde. Er führt über sechs Etappen durch das Hinterland des Bodensees von Kressbronn über Neukirch, Meckenbeuren, Markdorf, Heiligenberg und Owingen nach Überlingen. Als direkt am See liegende Stadt ist Friedrichshafen auch Station des Bodensee-Radwegs. Zeppelinrundflüge und Schiffsrundfahrten. Beliebte Attraktionen sind außerdem ein Rundflug mit dem Zeppelin NT über den Bodensee und das Hinterland, eine Rundfahrt mit einem der zahlreichen Passagierschiffe oder die Fahrt mit einem Kurs- oder Vergnügungsschiff. Museen. Das Dornier-Museum zeigt die Geschichte der Luft- und Raumfahrttechnik der Firma Dornier auf. Das direkt neben dem Flughafen Friedrichshafen in einem 25.000 Quadratmeter großen Landschaftspark erbaute Museum wurde im Juli 2009 eröffnet. Es ist einem Flugzeughangar nachempfunden und zeigt mit mehr als 400 Exponaten 100 Jahre Luft- und Raumfahrtgeschichte.Zu sehen sind unter anderem von Claude Dornier entworfene Flugzeuge wie die Dornier Do 27, der Senkrechtstarter Dornier Do 31 oder ein Nachbau des Dornier Merkur. Darüber hinaus können auch Originalteile eines Spacelabs besichtigt werden. In der „Museumsbox“ wird die Geschichte des Unternehmens Dornier anhand von Filmen und Videos präsentiert. Das Feuerwehrmuseum in Ettenkirch-Waltenweiler mit Ausstellungsstücken aus der Geschichte der Feuerwehr ist ab 2002 von ehrenamtlichen Helfern eingerichtet worden. Das 1930 erbaute Museumsgebäude diente der Ettenkircher Freiwilligen Feuerwehr bis 1977 als Feuerwehrhaus und stand danach bis zur Museumseröffnung im Jahr 2005 leer. Das Museum wurde gegründet von "Dr. Erich H. Müller-Gaebele", Professor an der Pädagogischen Hochschule Weingarten und "Norbert Steinhauser", Rektor der Pestalozzischule, im Stadtteil Schnetzenhausen. Es war das erste Museum Baden-Württembergs, das schulgeschichtliche Sammlungen zeigte. 1989 wurde es auf Beschluss des Gemeinderates in die „Villa von Riss“ verlegt, um mehr Ausstellungsfläche zu Verfügung zu haben. Jeder Ausstellungsraum schildert einen Typ von Schule: Die Klosterschule, Schulräume aus den Jahren 1800, 1850, 1900 und 1930. Das Thema Schule im Nationalsozialismus bildet einen besonderen Schwerpunkt. Die Vorstellung verschiedener Schultypen sowie ein Raum zum Thema „Schulstrafen“ ergänzen die umfangreiche Sammlung. Das Zeppelin-Museum befindet sich im Gebäude des ehemaligen Hafenbahnhofes und zeigt die Zeppelingeschichte und ihre wesentlichen Auswirkungen auf die Entwicklung der Stadt Friedrichshafen. Geboten wird u. a. ein begehbares Segment aus dem Fahrgastraum eines Zeppelins mit Passagierzimmer und Schlafkabinen. Im zweiten Stockwerk des Gebäudes können unter dem Motto „Technik und Kunst“ Bilder von Otto Dix und anderen Künstlern betrachtet werden. Gedenkstätten. Auf dem "Städtischen Hauptfriedhof" befindet sich der sogenannte „Russenfriedhof“. Dort wird auf einem Gedenkstein an 450 Frauen und Männer erinnert, die als KZ-Häftlinge bei Zwangsarbeit in den "Flugzeug- und Luftschiffwerken Dornier" ihr Leben ließen. Eine Gedenktafel an der Hafenseite des Zeppelinmuseums erinnert an die Tausende sogenannter „Schweizer Kinder“, die 1946/47 „von großherzigen Menschen“ in die Schweiz eingeladen wurden. Musik. Die Musikszene Friedrichshafens ist durch neun Musikvereine und einige Orchester und dadurch durch viele verschiedene Stilrichtungen geprägt. Neben Folklore und Jazz spielt vor allem auch die Blasmusik eine große Rolle. Der "Seehasenfanfarenzug", wurde 1956 anlässlich des Seehasenfestes von Erich Deisel, Lehrer am Graf-Zeppelin-Gymnasium gegründet. Damals bestand der Verein aus vier Trommlern und zwei Fanfarenbläsern. Im Jahr 1959 wurden die ersten typischen gelb-roten Kostüme, die an den Charakter der spanischen Epoche erinnern, getragen. 1972 nahm der Fanfarenzug an der Deutschen Meisterschaft der Fanfarenzüge teil und belegte den achten Platz. Bis zum 50-jährigen Jubiläum 2006 veranstaltete er viele Konzerte im Ausland und errang einige Preise bei deutschlandweiten Wettbewerben. Der jährliche Höhepunkt ist allerdings immer noch das Seehasenfest. 1965 traten einige Mitglieder des Seehasenfanfarenzuges aus und gründeten den "Fanfarenzug Graf-Zeppelin" (bis 1967 Seegockel-Fanfarenzug). Die Fusion beider Fanfarenzüge wurde 1976 verhindert. 1992 unternahm der Fanfarenzug Graf-Zeppelin eine Russland-Reise auf Einladung des "Moskauer staatlichen Tschaikowsky Konservatoriums". Er nahm auch bei der Victory-Peace-Parade auf dem Roten Platz teil. Weitere Reisen sowie das Seehasenfest prägten die Entwicklung des Fanfarenzuges. Der seit 1999 existierende Verein "jazzport Friedrichshafen e. V." hat das Ziel, ein Forum für Jazzbegeisterte zu schaffen und Konzerte zu veranstalten. Seine Band, das "New Jazzport Orchestra" (NJPO) besteht vor allem aus Musikschullehrern und -schülern. Die Konzerte finden überwiegend im Flughafenrestaurant Halbhuber statt. Die "Musikschule Friedrichshafen" wurde 1953 als städtische Bildungseinrichtung gegründet. Im Jahr 2003 zog sie in das neu erbaute Gebäude nahe dem Graf-Zeppelin-Gymnasium um. Angeboten wird neben der musikalischen Früherziehung und Grundbildung die gängigen Instrumente als Einzel- oder Gruppenunterricht, sowie verschiedene Ensembles und Orchester, die wichtigsten hierbei sind das symphonische Jugendblasorchester, das Folklore-Ensemble, das Jugend-Sinfonieorchester und die Bigband, die auch regelmäßig außerhalb der Region Konzerte geben. Am Wettbewerb Jugend musiziert nehmen viele der Schüler, teilweise mit großem Erfolg, teil. Bauwerke. Die Friedrichshafener Altstadt – Blick vom Moleturm Kunst im öffentlichen Raum. Vor dem Rathaus befindet sich der von Gernot Rumpf mit grotesken Skulpturen gestaltete Buchhornbrunnen, der unter anderem an die Umbenennung von Buchhorn in Friedrichshafen im Jahr 1811 erinnert. Regelmäßige Veranstaltungen. Das Kulturbüro Friedrichshafen bietet mit knapp 300 kulturellen Veranstaltungen pro Jahr für eine Stadt dieser Größe ein ungewöhnlich umfangreiches Kulturprogramm. Hauptspielstätten sind das Graf-Zeppelin-Haus, der Kiesel im k42, der Bahnhof Fischbach sowie das Zeltfestival Kulturufer. Die Veranstaltungen haben jedes Jahr insgesamt etwa 60.000 Besucher, davon knapp 5.000 im Abonnement. Ankunft des Seehasen mit dem Schiff Friedrichshafen hat eine Reihe von Stadt- und Heimatfesten, die jährlich veranstaltet werden. Seit 1985 findet jeweils zu Beginn der Sommerferien das "Kulturufer" statt, ein zehntägiges Zeltfestival in den Uferanlagen direkt am Bodensee. Bekannte und weniger bekannte Künstler und Gruppen aus der ganzen Welt treten in den Zelten und an der Uferpromenade auf. Die Darbietungen reichen von Musikveranstaltungen über Kabarett, Schauspiel und Tanz bis hin zu Lesungen, Akrobatik und Straßentheater. Auch für Kinder gibt es ein tägliches Theaterangebot im Zelt. Die Aktionswiese bietet darüber hinaus ein umfangreiches, attraktives Programm für Kinder, die Molke ein spezielles Angebot für Jugendliche an. Das Kulturufer wird veranstaltet vom Kulturbüro und dem Amt für Familie, Jugend und Soziales. Die Schwäbische Zeitung bietet außerdem eine Zeitungswerkstatt für Kinder und Jugendliche an, die so mit selbst erstellten Berichten in die Welt des Journalismus hineinschnuppern können. Im Durchschnitt zieht das Kulturufer etwa 70.000 Besucher an den See. Eines der bekanntesten und ältesten Feste in Friedrichshafen ist das "Seehasenfest", ein Kinder- und Heimatfest, das seit der Nachkriegszeit stattfindet und mit einigen kulturellen und gesellschaftlichen Höhepunkten aufwartet. Ebenfalls in den Uferanlagen wird seit 1997 in den Sommerferien das "kulinarische Stadtfest" abgehalten. Verschiedene Gastronomieunternehmen der Umgebung bieten Köstlichkeiten verschiedener Nationalitäten an. Abends wird das internationale Flair durch ein musikalisches Rahmenprogramm abgerundet. Friedrichshafen gehört zum Mundartbereich Bodenseealemannisch. Die "Fasnet in Friedrichshafen" wird nach schwäbisch-alemannischer Tradition gefeiert. Die ältesten Belege eines solchen Ereignisses in der Stadt Buchhorn stammen aus dem Jahr 1569. Nach dem Zweiten Weltkrieg wurde die Fasnet wiederbelebt. Damals entstand die älteste Maske, die "Buchhorn-Hexe". Drei Jahre später folgte der populäre "Seegockel", beides Figuren der gleichnamigen Narrenzunft. Der Ablauf in Friedrichshafen konzentriert sich auf die Zeit vom Gumpigen Donnerstag, an dem Schul- und Rathaussturm stattfinden, bis zum Aschermittwoch. Höhepunkte sind der Bürgerball im Graf-Zeppelin-Haus und der Umzug. Das Bodenseefestival, das internationale Stadtfest und der Christkindlesmarkt sind weitere wichtige Ereignisse der Stadt. Kulturhaus Caserne. Das Kulturhaus Caserne befindet sich im westlichen Teil der Stadt, im Fallenbrunnen. Der Name "Caserne" verweist auf die ursprüngliche Nutzung der Gebäude. Die Räumlichkeiten waren in den Jahren 1937 bis 1943 als Flakkaserne erbaut worden. Die Friedrichshafener Kulturszene wird zu einem beträchtlichen Teil von dem 2002 gegründeten "Culturverein Caserne e. V." bestimmt, bzw. von dessen Arbeit und seinem Angebot. Der Verein wird durch seine Mitglieder und die Stadtverwaltung finanziert. Im Theater Atrium finden außer Theater- und Kabarett- auch verschiedene Musikveranstaltungen statt. Zu einem wesentlichen Bestandteil des Culturvereins wurde die englischsprachige Amateurtheatergruppe "Bodensee Players e. V.", die großteils aus Muttersprachlern besteht. Das kleine "studio17", ein Kino mit 88 Sitzplätzen, zeigt, ob in den eigenen Räumlichkeiten oder open air, vor allem alternative Kinofilme. In dem ehemaligen Mannschaftskasino der französischen Garnison befindet sich ein Restaurant. Um die Programmvielfalt im Kulturhaus noch zu steigern, wurde Ende 1996 der "Club Metropol" als Disko und Konzerthalle eingerichtet. Schon drei Jahre wurde dieser aufgrund des starken Zuspruchs großzügig umgebaut und erweitert.1997 schließlich wurde die "groove box" eingerichtet, in der vornehmlich House und Jazz gespielt wird. Graf-Zeppelin-Haus. Das "Graf-Zeppelin-Haus" (kurz: GZH) ist das Kultur- und Kongresszentrum der Stadt Friedrichshafen. Auf einer Bürgerversammlung 1964 wurde zum ersten Mal die Idee öffentlich, ein derartiges Gebäude zu errichten. Für ein solches Vorhaben erschien das freie Grundstück an der westlichen Uferpromenade direkt neben dem Yachthafen als geradezu idealer Standort. Nach langjährigen Überlegungen beschloss der Gemeinderat im Oktober 1978, den Planungsauftrag zu erteilen, um das Haus im Okt. 1985 zu eröffnen. Das Stuttgarter Architektenteam Breuning/Büchin erstellte ein zur Landschaft passendes Gebäude mit niedrigen Fassaden, die zum großen Teil aus Glas bestehen. Die Aufgaben des Hauses kann man grob in zwei Kategorien unterteilen: Einerseits dient es als kulturelles Bürger-Zentrum für die Bewohner der Region, andererseits, in Ergänzung zur "Messe", als Kongress- und Tagungszentrum für Verbände, Firmen und Institutionen. Der Hugo-Eckener-Saal bietet auf einer Fläche von (samt Erweiterung und Empore) 1300 m² bis zu 1300 Plätze. Dort finden auch die bedeutenderen kulturellen Veranstaltungen (Konzerte, Theateraufführungen etc.) statt. Das GZH beherbergt darüber hinaus acht kleinere Säle und Tagungsräume sowie zwei Restaurants, ein Café und eine Tiefgarage. Kulturzentrum K42. Das K42 und ein stadttypisches Spielgerät Seit 2006 gibt es das „K42“ (in der Karlstraße 42), im ehemaligen Gebäude der KSK Friedrichshafen direkt am Hafen gelegen. Hier entstand 1973 nach Abbruch des Salzstadels 1967 ein Bankgebäudeneubau, der im Jahre 1973 bezogen wurde. Durch den Zusammenschluss verschiedener Sparkassen im Bodenseebereich bedurfte es jedoch eines größeren Verwaltungsgebäudes. Nach dem Auszug der KSK im Jahre 2002 stand der ehemalige Bank- und Verwaltungsbau seit 2002 leer. Im Jahr 2004 beschloss der Gemeinderat, das Gebäude nach den Plänen einer Projektgruppe in ein kombiniertes Geschäfts- und Medienhaus umzuwandeln. Nach einem Teilabschluss der Baumaßnahmen eröffnete darin am 2. Nov. 2006 eine große Buchhandlung. Im vorderen Teil des Gebäudes befindet sich seit Jahresbeginn 2007 ein Café-Restaurant. Im mittleren Gebäudeteil eröffnete am 1. März 2007 ein Textilkaufhaus, seit dem darauf folgenden Tag steht auch die Stadtbücherei – nun als „Medienhaus am See" – an diesem Ort für den Publikumsverkehr offen. Ein architektonisches Unikum ist der ebenfalls im März 2007 eröffnete Veranstaltungsraum Kiesel, der rund hundert Zuschauern Platz bietet. Auf der technisch bestens ausgestatteten Studio-Bühne wird von Beginn an ein anspruchsvolles, modernes Programm geboten. Schwerpunkte sind Schauspiel, Kinder- und Jugendtheater (inkl. eines stetig wachsenden theaterpädagogischen Angebots) sowie Lesungen. Es werden aber auch Konzerte gespielt sowie Hörspiele und Filme präsentiert; außerdem gibt es im Kiesel Figurentheater für Erwachsene, Tanz- und Video-Performances. Für sein "Kiesel-Programm" im Bereich Kinder- und Jugendtheater wurde das Kulturbüro 2009 mit dem "Veranstalterpreis" der Assitej ausgezeichnet. Sport. Der VfB Friedrichshafen nimmt erfolgreich am Spielgeschehen der Volleyball-Bundesliga und der Champions League teil. 1969 gegründet, stieg der VfB 1981 erstmals in die erste Bundesliga auf. Nach dem dritten Aufstieg 1987 (seither durchgehend in der ersten Bundesliga) wurde er elfmal DVV-Pokalsieger und zwölfmal Deutscher Meister, achtmal konnte sich der VfB das Double sichern (Stand 2013). Am 1. April 2007 schrieb der VfB europäische Volleyballgeschichte: als erste deutsche Volleyballmannschaft konnte der VfB Friedrichshafen die Champions League gewinnen – und damit sicherte er sich das historische Triple (erster Verein in ganz Europa) aus Pokal, Meisterschaft und Champions League. Die Volleyball-Heimspiele werden seit 2003 in der ZF-Arena ausgetragen. 2011 gründeten zwei Studenten der Zeppelin Universität das erste Lacrosseteam in Friedrichshafen. Seitdem ist das Team in der Bundesliga Süd etabliert. Es besteht aus Schülern, Arbeitstätigen und Studenten. Es gibt sowohl ein Herren als auch ein Damenteam. Gespielt wird die Sportart auf dem Gelände des VfB Friedrichshafen. Zuständig ist der Hochschulsportverein der Zeppelin Universität. Die 1953 gegründete Badmintonabteilung des VfB spielte in der Spielzeit 2010/2011 in der Regionalliga. 2006/2007 war die erste Mannschaft als Meister der zweiten Bundesliga Süd in die erste Bundesliga aufgestiegen. Der "Württembergische Yacht-Club Friedrichshafen e. V." (WYC) ist ein weiterer bedeutender Sportverein der Stadt. Er wurde 1911 von König Wilhelm II. gegründet, noch im selben Jahr wurde mit dem Bau des Yachthafens begonnen. Natürlich wurde auch die Geschichte des WYC und ihrer Regatta, der Bodenseewoche, durch die beiden Weltkriege mit beeinflusst. Erst 1951 wurde der Regattabetrieb wieder aufgenommen. Sportliche Höhepunkte bilden die internationalen Erfolge einiger Clubmitglieder: 1976 wurden die Brüder Jörg und Eckart Diesch Olympiasieger im Flying Dutchman vor Kingston / Kanada, 1978 ersegelten Albert und Rudolf Batzill die Weltmeisterschaft im Flying Dutchman vor Hayling Island. Nach 20-jähriger Planung wurde 1992 der neue Yachthafen erbaut und eingeweiht. Der Club zählte 1999 über 1000 Mitglieder. Die erste Mannschaft der Fußballabteilung des VfB Friedrichshafen spielt aktuell in der Landesliga. 2009/2010 gab sie ein „Gastspiel” in der Verbandsliga, stieg aber sofort wieder ab. Während der Fußball-Weltmeisterschaft 2006 war Friedrichshafen Mannschaftsquartier der iranischen Nationalmannschaft (auch die Niederlande, Norwegen, die Schweiz, Tschechien, Japan, die Slowakei und Russland hatten Interesse gezeigt). Das Team wählte das Ringhotel "Krone" in Schnetzenhausen als Mannschaftsquartier, trainiert wurde im VfB-Stadion im Norden der Stadt. In Friedrichshafen unterrichtet der ehemalige Karate-Bundestrainer Toni Dietl. Er erbaute eines der größten Karate-Dōjō in Deutschlands im Sportpark Friedrichshafen. Mit über 1000 Schülern hat er auch eine der größten Karate-Schulen in Deutschland. Er entwickelte das Samurai-Kids-Unterrichtssystem. Er entwickelte den Junior-Dan und das Sound-Karate-System. Friedrichshafen war 2002 und 2005 jeweils Zielort der fünften und Startort der sechsten Etappe der ehemaligen Deutschlandtour. Friedrichshafen beherbergt vier Radsportvereine: RRMV Friedrichshafen für Kunstradfahren, RSV Immergrün aus Ailingen für Radball, RSV Seerose und den Freundeskreis Uphill e.V. (Organisator Deutsche Meisterschaft 2011 und 2012, ferner Betreiber und Projektleiter des Stoppomat). Die aktiven Mitglieder des Schwimmvereins Friedrichshafen 1932 e. V. trainieren regelmäßig neben der DLRG Ortsgruppe Friedrichshafen im Friedrichshafener Hallenbad. Erfolge konnten sie sowohl auf regionaler Ebene als auch bei internationalen Wettkämpfen verzeichnen. Der VfB Friedrichshafen führt neben seinen Hauptsparten Fußball und Volleyball auch aufgrund der Nähe zu den Alpen auch eine Ski- und Bergsportabteilung. Die TSG Ailingen deckt neben Fußball, Beachvolleyball auch Skisport und Turnen ab. Ehrenbürger. Die Stadt Friedrichshafen bzw. die früheren Gemeinden haben folgenden Personen das Ehrenbürgerrecht verliehen:. Die Ehrenbürgerschaft Adolf Hitlers wurde erst im November 2013 aberkannt. Fichten. a> ("Picea abies"), Illustration aus Koehler 1887 Die Fichten ("Picea") sind eine Pflanzengattung in der Familie der Kieferngewächse (Pinaceae). Die einzige in Mitteleuropa heimische Art ist die Gemeine Fichte ("Picea abies"), die wegen ihrer schuppigen, rotbraunen Rinde fälschlich auch als „Rottanne“ bezeichnet wird. Die Fichten bilden alleine die Unterfamilie Piceoideae. Habitus. Fichten sind immergrüne und einstämmige Bäume. Sie erreichen in der Regel Wuchshöhen von 20 bis 60 Meter, in Ausnahmefällen über 80 Meter, wie etwa "Picea sitchensis". Die Baumkrone ist kegelförmig bis walzlich. Der Stammdurchmesser beträgt bis zu 1 Meter, maximal bis 2,5 Meter; bei einzelnen Arten treten Extremwerte von bis zu 4 Metern auf. Ein strauchförmiger Wuchs kommt nur unter besonderen Standortsbedingungen oder bei Mutanten vor. Für alle Fichten charakteristisch ist eine monopodiale, akroton (an den oberen bzw. äußeren Knospen) geförderte Verzweigung. Dies führt zu einem etagenartigen Kronenaufbau und einer spitzwipfeligen Krone. Die Seitensprosse erster Ordnung stehen in Astquirlen in scheinquirliger Anordnung und bilden so einzelne „Stockwerke“. Mit zunehmendem Alter tritt vermehrt proventive Triebbildung auf: An älteren Zweigen treiben schlafende Knospen aus. Bei älteren Bäumen können diese einen wesentlichen Teil der Zweige und Nadelmasse der Krone aufbauen. Kronenform und Sprosssystem variieren je nach Umweltbedingungen und sind zum Teil auch genetisch bedingt. Jungfichten weisen meist eine plattige Verzweigung auf. Die Kammform stellt sich meist erst ab 30 Jahren ein. Schmalkronigkeit, wie sie bei den sogenannten „Spitzfichten“ auftritt, kann wie bei "Picea omorika" artspezifisch, also genetisch fixiert sein. Sie kann aber auch bei spezifischen Ökotypen oder Mutanten („Spindelfichten“) auftreten. Meistens ist sie jedoch eine Standortmodifikation („Walzenfichten“) unter hochmontan-subalpinen oder boreal-subarktischen Klimabedingungen. Diese Modifikation tritt auch bei der in Mitteleuropa heimischen Gemeinen Fichte ("Picea abies") auf. Sämlinge besitzen meist vier bis neun (bis zu 15) Keimblätter (Kotyledonen). Zweige und Knospen. Junge Zweige besitzen feine Furchen. Diese befinden sich zwischen erhabenen Rücken, die durch die Abfolge der „Blattpolster“ (Pulvini) gebildet werden. Diese Blattpolster werden entweder als Achsenprotuberanzen oder als Blattgrund gedeutet. Sie enden nach oben in einem stielähnlichen Fortsatz. Dieser Fortsatz („Nadelstielchen“) ist rindenfarbig und steht vom Zweig ab, wodurch dieser raspelartig aussieht. Dem Nadelstielchen sitzt die eigentliche Nadel auf. Diese beiden Merkmale – Furchen und abstehende Nadelstielchen – sind für die Gattung "Picea" spezifisch. Knospen sind vielfach ei- bis kegelförmig. Sie sind je nach Art mehr oder weniger stark verharzt. Die Knospenmerkmale sind für die jeweilige Art charakteristisch. Blütenknospen und die in den basalen Teilen auftretenden Proventivknospen weichen jedoch oft von diesen artcharakteristischen Merkmalen ab. Nadeln. Fichten besitzen die für Koniferen typischen immergrünen, nadelförmigen Blätter, die in der Regel einen recht xeromorphen Bau aufweisen. Die Nadeln sind vom rindenfarbenen „Nadelstielchen“ (Blattkissen) durch eine Trennschicht abgegrenzt. Hier löst sich die Nadel nach dem Absterben ab: Die Nadel schrumpft an der Kontaktfläche aufgrund von Wasserverlust, das verholzte Blattkissen hingegen nicht. Im Normalfall bleiben die Nadeln sechs bis 13 Jahre auf den Zweigen, bei Stress fallen sie eher ab. Die Morphologie und Anatomie der Nadeln sind wesentliche Merkmale für die Unterscheidung der einzelnen Fichtenarten: Nadelquerschnitt, Mesophyllstruktur, Anordnung der Spaltöffnungen (Stomata) und der Harzkanäle. Bei den Seitenzweigen der Fichten sind die Oberseiten der Nadeln jedoch nach unten gerichtet, sodass die weißen Streifen scheinbar auf den Nadelunterseiten stehen. Die Nadeln sind meist ein bis zwei Zentimeter lang und spitz oder zugespitzt, bei manchen Arten sogar scharf und stechend (z. B. "Picea pungens"). Die Nadeln sind an den Zweigen spiralig angeordnet. Dennoch gibt es artspezifische Unterschiede, wie die Nadeln an den horizontal wachsenden (plagiotropen) Seitenzweigen angeordnet sind: Sie können ringsum vom Zweig abstehen wie etwa bei "Picea asperata" und "Picea pungens", oder an der Zweigunterseite streng ("Picea glehnii") oder schwach ("Picea schrenkiana") gescheitelt sein. Blüten, Zapfen und Samen. Zapfen und Samen der Gemeinen Fichte Fichten sind einhäusig (monözisch), d. h. es gibt weibliche und männliche Blütenorgane getrennt voneinander an einem Baum. Nur ausnahmsweise kommen auch zweigeschlechtige Blüten bzw. Blütenstände vor. Die Blütenstände werden an vorjährigen Seitensprossen gebildet. Blühreife tritt im Alter von 10 bis 40 Jahren ein. Die Blütezeit findet im Zeitraum April bis Juni statt. Die männlichen Blüten stehen einzeln, sind länglich-eiförmig und ein bis zwei Zentimeter lang. Anfangs sind sie purpurn bis rosa, zur Reife gelb. Der Pollen hat zwei Luftsäcke, die Bestäubung erfolgt durch den Wind (Anemophilie). Die weiblichen Blütenzapfen entstehen meist aus endständigen Knospen. Sie sind zunächst aufrecht, krümmen sich jedoch nach der Befruchtung nach unten. Unreife Zapfen sind grün, rot bis dunkelblau und schwarzviolett gefärbt. Bei manchen Arten gibt es sogar einen Farbdimorphismus, der mit einem Selektionsvorteil rot/purpurn gefärbter Zapfen in alpinen/borealen Gebieten erklärt wird. Die Zapfen reifen zwischen August und Dezember und sind dann meist braun, eiförmig bis zylindrisch. Der Samen fällt zwischen August und Winter, teilweise erst im nächsten Frühjahr aus, wird also durch den Wind verbreitet. Danach werden die Zapfen als Ganzes abgeworfen. Die Zapfen sind zwei bis 20 Zentimeter lang. Die Deckschuppen sind immer kürzer als die Samenschuppen und deshalb am Zapfen nicht sichtbar. Die Samen sind mit 3 bis 6 mm Länge relativ klein. Fertile Samen sind dunkelbraun bis schwarz, unfruchtbare Samen sind heller. Ihre Flügel sind hell, gelb- oder rosa-braun und etwa 6 bis 15 mm lang. Verbreitung. Die Fichten haben als Gattung eine holarktische Verbreitung. Nur in Mexiko und auf Taiwan reicht ihr Verbreitungsgebiet bis zum nördlichen Wendekreis. Verschiedene Fichtenarten sind bestandsbildend in der borealen Nadelwaldzone und in der Nadelwaldstufe vieler Gebirge in den klimatisch temperaten, submeridionalen und meridionalen Teilen Eurasiens und Nordamerikas. Viele der asiatischen Arten sind in den Gebirgen der submeridionalen und meridionalen Zonen vertreten. Hier finden sich etliche Endemiten mit eng umrissenen Arealen. In China und Zentralasien kommen mehrere Arten in den kontinentalen Gebirgen (Osttibet, Turkestan) vor. Sie bilden ein pflanzengeographisches Bindeglied zur Sibirischen Fichte ("Picea obovata"), deren Areal von Ostsibirien und der Mongolei bis westlich des Urals reicht. Westlich davon schließt die in Europa heimische Gemeine Fichte an. Die Parallelarten zur "Picea obovata" in Nordamerika sind "Picea glauca" und "Picea mariana", die ebenfalls einen breiten Waldgürtel in der borealen Zone bilden. In den Rocky Mountains sind einige kontinental verbreitete Arten heimisch, etwa "Picea engelmannii" und "Picea chihuahuana", die bis Mexiko reicht. Ozeanisch verbreitete Arten gibt es in Nordamerika nur zwei ("Picea breweriana" und "Picea rubens"). Fichten sind generell anspruchslos bei der Nährstoffversorgung. Die ozeanisch verbreiteten Arten brauchen aber feuchte und zugleich gut durchlüftete Böden. Staunässe wird von Fichten nicht vertragen. 2008 wurde unter einer Fichte in der Provinz Dalarna in Schweden Wurzelholz gefunden, das auf ein Alter von 9.550 Jahre datiert wurde und genetisch identisch mit dem darüber wachsenden Baum sein soll. Nutzung. Fichten zählen auf der Nordhalbkugel zu den wichtigsten forstwirtschaftlich genutzten Baumarten. Nur in Resten werden noch Naturwälder genutzt, meist sind es bewirtschaftete oder künstlich geschaffene Reinbestände. In Mitteleuropa ist die Gemeine Fichte "der" Brotbaum der Forstwirtschaft. Ausschlaggebend sind hier wie auch bei den anderen Arten der gerade Wuchs, das rasche Wachstum, die geringen Ansprüche an den Standort und die gute Verwendbarkeit des Holzes. Zum Anwendungsspektrum gehört vor allem die Verwendung zur Papier- und Zellstoffherstellung, als Bau- und Möbelholz für den Innenbereich sowie die Nutzung als Brennholz. Als Schnittholz wird Fichtenholz in der Regel gemeinsam mit Tannenholz als Mischsortiment Fichte/Tanne gehandelt und verwendet. Dabei wird Fichtenholz in Form von Rundholz, Schnittholz wie Brettern und Brettschichthölzern und als Furnierholz verarbeitet. Zugleich ist es das wichtigste Holz für die Herstellung von Holzwerkstoffen wie Sperrholz, Leimholz, Span- und Faserplatten. Als Spezialanwendung finden gleichmäßig gewachsene Stämme aus dem Hochgebirge Verwendung als Klangholz speziell für den Resonanzboden bei Tasteninstrumenten oder als Resonanzdecke bei Zupf- und Streichinstrumenten. Einige wichtige Schutzfunktion haben die Fichtenwälder in vielen Hochgebirgen und Steillagen, da sie als Schutzwälder die besiedelten Täler vor Lawinen und Steinschlägen schützen. Einige Arten werden auch als Ziergehölze in Parks und Gärten gepflanzt bzw. als Weihnachtsbäume verwendet. Namen. Das Wort "picea" wurde von den Römern im Sinne von „harzhaltiges Holz: Fichte“ verwendet (Vergil, Aeneis 6,180), aber auch, wenn die Gemeine Kiefer gemeint war (Plinius der Ältere, Historia naturalis 16,40ff.). Es ist eine Substantivierung des Adjektivs "piceus" = „pech-, harzhaltig“, das zu "pix", Genitiv "picis", gehört, „Pech, Harz“. Dieses wird auf die indogermanische Wurzel "*pik-" „Pech, Harz“ zurückgeführt. Dieser Wurzel nahe steht die Wurzel "*pit-" „Fichte“. Beide Wurzeln werden meist mit den indogermanischen Wörtern für „Fett, Saft, Trank“ in Verbindung gebracht. Es ist jedoch auch eine Verbindung mit "*(s)pik-, *(s)pit-" „spitz, stechend“ denkbar. Evolution und Systematik. Sowohl fossile als auch molekularbiologische Daten weisen darauf hin, dass die Gattung "Picea" in Nordamerika entstand. Die ältesten Fossilien (Pollen) stammen aus dem Paläozän Montanas (USA). Aus dem Eozän sind viele Zapfenfossilien bekannt, allerdings ebenfalls nur aus Nordamerika. Die frühesten Fossilien Asiens stammen aus dem Oligozän, Europas aus dem Pliozän. Über die Bering-Route dürfte die Gattung in ein oder zwei Wellen nach Asien und von da weiter nach Europa gelangt sein. Der Ursprung der Gattung dürfte in der späten Kreide oder im frühen Tertiär liegen. Die Monophylie der Gattung wurde nie in Zweifel gezogen. Die nächsten Verwandten innerhalb der Familie sind die Gattungen "Cathaya" und "Pinus". Die Systematik innerhalb der Gattung wird klassischerweise primär auf der Basis von Zapfenmerkmalen, sekundär von Nadelmerkmalen aufgestellt. Eine weitgehend anerkannte Systematik stammt von Schmidt (1989), die der hier angeführten Systematik in der Fassung von Schmidt (2004) zugrunde liegt. Auch Farjon (1990) folgt dieser Gliederung, wenngleich er die Taxa unterhalb der Gattung eine Stufe niedriger ansetzt. Nach dieser Systematik gibt es 35 Arten. Andere Autoren geben 28 bis 56 Arten an. Neuere Arbeiten auf molekularbiologischer Basis stellen diese auf morphologischer Grundlage entwickelte Systematik berechtigt in Zweifel. Allerdings gibt es noch keine neuen Vorschläge für eine phylogenetische Systematik. Franz Kafka. Franz Kafka (jüdischer Name: אנשיל, Anschel'"; * 3. Juli 1883 in Prag, Österreich-Ungarn; † 3. Juni 1924 in Klosterneuburg-Kierling, Österreich) war ein deutschsprachiger Schriftsteller. Sein Hauptwerk bilden neben drei Romanfragmenten ("Der Process", "Das Schloss" und "Der Verschollene") zahlreiche Erzählungen. Kafkas Werke wurden zum größeren Teil erst nach seinem Tod und gegen seine letztwillige Verfügung von Max Brod veröffentlicht, einem engen Freund und Vertrauten, den Kafka als Nachlassverwalter bestimmt hatte. Kafkas Werke werden zum Kanon der Weltliteratur gezählt. Herkunft. Franz Kafka, etwa fünf Jahre alt Franz Kafkas Eltern Hermann Kafka (1852–1931) und Julie Kafka, geborene Löwy (1856–1934) entstammten bürgerlichen jüdischen Kaufmannsfamilien. Der Name leitet sich vom Namen des Vogels Dohle, tschechisch kavka, polnisch kawka ab. Der Vater kam aus dem Dorf Wosek in Südböhmen, wo er in einfachen Verhältnissen aufwuchs. Er musste als Kind die Waren seines Vaters, des Schächters Jakob Kafka (1814–1889), in umliegende Dörfer ausliefern. Später arbeitete er als reisender Vertreter, dann als selbstständiger Grossist mit Galanteriewaren in Prag. Julie Kafka gehörte einer wohlhabenden Familie aus Podiebrad an, verfügte über eine umfassendere Bildung als ihr Mann und hatte Mitspracherecht in dessen Geschäft, in dem sie täglich bis zu zwölf Stunden arbeitete. Neben den Brüdern Georg und Heinrich, die bereits als Kleinkinder verstarben, hatte Franz Kafka drei Schwestern, die später deportiert wurden, vermutlich in Konzentrationslager oder Ghettos, wo sich ihre Spuren verlieren: Gabriele, genannt Elli (1889–1941?), Valerie, genannt Valli (1890–1942?), und Ottilie „Ottla“ Kafka (1892–1943?). Da die Eltern tagsüber abwesend waren, wurden alle Geschwister im Wesentlichen von wechselndem, ausschließlich weiblichem Dienstpersonal aufgezogen. Kafka gehörte zur Minderheit der Bevölkerung Prags, deren Muttersprache Deutsch war. Außerdem beherrschte er wie seine Eltern Tschechisch. Während sich Kafka in Briefen, Tagebüchern und Prosatexten umfangreich mit seinem Verhältnis zum Vater auseinandersetzte, stand die Beziehung zu seiner Mutter eher im Hintergrund. Allerdings gibt es gerade aus der mütterlichen Linie eine große Anzahl von Verwandten, die sich in Kafkas Figuren wiederfinden, zu nennen sind hier Junggesellen, Sonderlinge, Talmudkundige und explizit der Landarzt Onkel Siegfried Löwy, der Vorbild für die Erzählung "Ein Landarzt" war. Kindheit, Jugend und Ausbildung. Von 1889 bis 1893 besuchte Kafka die "Deutsche Knabenschule" am Fleischmarkt in Prag. Anschließend ging er, entsprechend dem väterlichen Wunsch, auf das ebenfalls deutschsprachige humanistische Staatsgymnasium in der Prager Altstadt, Palais Goltz-Kinsky, das sich im selben Gebäude wie das Galanteriegeschäft der Eltern befand. Zu seinen Freunden in der Oberschulzeit gehörten Rudolf Illowý, Hugo Bergmann, Ewald Felix Příbram, in dessen Vaters Versicherung er später arbeiten sollte, Paul Kisch sowie Oskar Pollak, mit dem er bis in die Universitätszeit befreundet blieb. Obwohl Kafka ein guter Schüler war, quälten ihn in seiner ganzen Schulzeit erhebliche Versagensängste, die auch durch das schulische Fortkommen nicht zu mindern waren. Kafka als Schüler (vor 1900) Schon als Schüler beschäftigte sich Kafka mit Literatur. Seine frühen Versuche sind jedoch verschollen, vermutlich hat er sie vernichtet, ebenso wie die frühen Tagebücher. 1899 wandte sich der sechzehnjährige Kafka dem Sozialismus zu. Obwohl sein Freund und politischer Mentor Rudolf Illowy wegen sozialistischer Umtriebe von der Schule flog, blieb Kafka seiner Überzeugung treu und trug die rote Nelke am Knopfloch. Nach Ablegen der Reifeprüfung (Matura) im Jahre 1901 mit „befriedigend“ verließ der 18-Jährige zum ersten Mal in seinem Leben Böhmen und reiste mit seinem Onkel Siegfried Löwy nach Norderney und Helgoland. Sein Universitätsstudium, von 1901 bis 1906 an der Karl-Ferdinands-Universität zu Prag, begann Kafka zunächst mit Chemie; nach kurzer Zeit wechselte er in die juristische Richtung; danach probierte er es mit einem Semester Germanistik und Kunstgeschichte. Im Sommersemester 1902 hörte Kafka Anton Martys Vorlesung über "Grundfragen der deskriptiven Psychologie". Dann erwog er sogar die Fortsetzung des Studiums in München, um schließlich doch beim Studium der Rechte zu bleiben. Programmgemäß schloss er dieses nach fünf Jahren mit der Promotion bei Alfred Weber ab, worauf ein obligatorisches einjähriges unbezahltes Rechtspraktikum am Landes- und Strafgericht folgte. Berufsleben. Nach einer knapp einjährigen Anstellung bei der privaten Versicherungsgesellschaft „Assicurazioni Generali“ (Oktober 1907 bis Juli 1908) arbeitete Kafka von 1908 bis 1922 in der halbstaatlichen „Arbeiter-Unfallversicherungs-Anstalt für das Königreich Böhmen in Prag". Seinen Dienst bezeichnete er oft als „Brotberuf“. Kafkas Tätigkeit bedingte genaue Kenntnisse der industriellen Produktion und Technik. Der 25-Jährige machte Vorschläge zu Unfallverhütungsvorschriften. Außerhalb seines Dienstes solidarisierte er sich politisch mit der Arbeiterschaft; auf Demonstrationen, denen er als Passant beiwohnte, trug er weiterhin eine rote Nelke im Knopfloch. Anfangs arbeitete er in der Unfallabteilung, später wurde er in die versicherungstechnische Abteilung versetzt. Seit 1910 gehörte Kafka als Konzipist – vergleichbar einem heutigen Referendar – zur Betriebsabteilung, nachdem er sich durch den Besuch von Vorlesungen über „Mechanische Technologie“ an der Technischen Hochschule in Prag auf diese Position vorbereitet hatte. Kafka stellte Bescheide aus und brachte diese auf den Weg, wenn es alle fünf Jahre galt, versicherte Betriebe in Gefahrenklassen einzuteilen. Von 1908 bis 1916 wurde er immer wieder zu kurzen Dienstreisen nach Nordböhmen geschickt; häufig war er in der Bezirkshauptmannschaft Reichenberg, dem heutigen Liberec. Dort besichtigte er Unternehmen, referierte vor Unternehmern und nahm Gerichtstermine wahr. Als „Versicherungsschriftsteller“ verfasste er Beiträge für die jährlich erscheinenden Rechenschaftsberichte. In Anerkennung seiner Leistungen wurde Kafka vier Mal befördert, 1910 zum Konzipisten, 1913 zum Vizesekretär, 1920 zum Sekretär, 1922 zum Obersekretär. Zu seinem Arbeitsleben vermerkt Kafka in einem Brief: „Über die Arbeit klage ich nicht so, wie über die Faulheit der sumpfigen Zeit“. Der „Druck“ der Bürostunden, das Starren auf die Uhr, der „alle Wirkung“ zugeschrieben wird, und die letzte Arbeitsminute als „Sprungbrett der Lustigkeit“ – so sah Kafka den Dienst. An Milena Jesenská schrieb er: „Mein Dienst ist lächerlich und kläglich leicht […] ich weiß nicht wofür ich das Geld bekomme“. Als bedrückend empfand Kafka auch sein (von der Familie erwartetes) Engagement in den elterlichen Geschäften, zu denen 1911 die Asbestfabrik des Schwagers hinzugekommen war, die nie recht florieren wollte und die Kafka zu ignorieren suchte, obwohl er sich zu ihrem stillen Teilhaber hatte machen lassen. Kafkas ruhiger und persönlicher Umgang mit den Arbeitern hob sich vom herablassenden Chefgebaren seines Vaters ab. Der Erste Weltkrieg brachte neue Erfahrungen, als Tausende von ostjüdischen Flüchtlingen nach Prag gelangten. Im Rahmen der „Kriegerfürsorge“ kümmerte sich Kafka um die Rehabilitation und berufliche Umschulung von Schwerverwundeten. Dazu war er von seiner Versicherungsanstalt verpflichtet worden; zuvor hatte ihn diese allerdings als „unersetzliche Fachkraft“ reklamiert und damit (gegen Kafkas Intervention) vor der Front geschützt, nachdem er 1915 erstmals als militärisch „voll verwendungsfähig“ eingestuft worden war. Die Kehrseite dieser Wertschätzung erlebte Kafka zwei Jahre später, als er an Lungentuberkulose erkrankte und um Pensionierung bat: Die Anstalt sperrte sich und gab ihn erst nach fünf Jahren am 1. Juli 1922 endgültig frei. Vaterbeziehung. Die erste Seite von Kafkas (nicht abgeschicktem) "Brief an den Vater" von 1919 in seiner Handschrift Das konfliktreiche Verhältnis zu seinem Vater gehört zu den zentralen und prägenden Motiven in Kafkas Werk. Selbst feinfühlig, zurückhaltend, ja scheu und nachdenklich, beschreibt Franz Kafka seinen Vater, der sich aus armen Verhältnissen hochgearbeitet und es kraft eigener Anstrengung zu etwas gebracht hatte, als durch und durch lebenstüchtige und zupackende, aber eben auch grobe, polternde, selbstgerechte und despotische Kaufmannsnatur. Regelmäßig beklagt Hermann Kafka in heftigen Tiraden seine eigene karge Jugend und die gut versorgte Existenz seiner Nachfahren und Angestellten, die er allein unter Mühen sicherstellt. Die aus gebildeten Verhältnissen stammende Mutter hätte einen Gegenpol zu ihrem grobschlächtigen Mann bilden können, aber sie tolerierte – den Gesetzen des Patriarchats treu – dessen Werte und Urteile. Im "Brief an den Vater" wirft Kafka diesem vor, eine tyrannische Macht beansprucht zu haben: „Du kannst ein Kind nur so behandeln, wie Du eben selbst geschaffen bist, mit Kraft, Lärm und Jähzorn und in diesem Fall schien Dir das auch noch überdies deshalb sehr gut geeignet, weil Du einen kräftigen mutigen Jungen in mir aufziehen wolltest.“ In Kafkas Erzählungen werden die Vaterfiguren nicht selten als mächtig, auch als ungerecht dargestellt; so in der Novelle "Die Verwandlung", in der der zu einem Ungeziefer verwandelte Gregor von seinem Vater mit Äpfeln beworfen und dabei tödlich verletzt wird. In der Kurzgeschichte "Das Urteil" verurteilt der im Verhältnis stark und furchterregend wirkende Vater den Sohn Georg Bendemann zum „Tode des Ertrinkens“ – dieser vollzieht das in heftigen Worten Vorgebrachte in vorauseilendem Gehorsam an sich selbst, indem er von einer Brücke springt. Freundschaften. Franz Kafkas Zeichnungen in "transition", Nr. 27 (1938) Kafka hatte in Prag einen konstanten Kreis etwa gleichaltriger Freunde, der sich während der ersten Universitätsjahre bildete (Prager Kreis). Neben Max Brod waren dies der spätere Philosoph Felix Weltsch und die angehenden Schriftsteller Oskar Baum und Franz Werfel. Brod war der erste, der Kafkas Genie frühzeitig erkannte und förderte und seinem Freund die erste Buchpublikation beim jungen Leipziger Rowohlt Verlag vermittelte. Als Kafkas Nachlassverwalter verhinderte Brod gegen dessen Willen die Verbrennung seiner Romanfragmente. Unter den Freunden Kafkas findet sich auch Jizchak Löwy, ein Schauspieler aus einer chassidischen Warschauer Familie, der Kafka durch seine Kompromisslosigkeit beeindruckte, mit der er seine künstlerischen Interessen gegen die Erwartungen seiner orthodox-religiösen Eltern durchsetzte. Löwy erscheint als Erzähler in Kafkas Fragment "Vom jüdischen Theater". Die engste familiäre Beziehung hatte Kafka zu seiner jüngsten Schwester Ottla. Sie war es, die dem Bruder beistand, als er schwer erkrankte und dringend Hilfe und Erholung brauchte. Beziehungen. Kafka hatte ein zwiespältiges Verhältnis zu Frauen. Einerseits fühlte er sich von ihnen angezogen, andererseits floh er vor ihnen. Auf jeden seiner Eroberungsschritte folgte eine Abwehrreaktion. Kafkas Briefe und Tagebucheintragungen vermitteln den Eindruck, sein Liebesleben habe sich im Wesentlichen als postalisches Konstrukt vollzogen. Seine Produktion an Liebesbriefen steigerte sich auf bis zu drei täglich an Felice Bauer. Dass er bis zuletzt unverheiratet blieb, trug ihm die Bezeichnung „Junggeselle der Weltliteratur“ ein. Als Ursachen für Kafkas Bindungsangst vermutet man in der Literatur neben seiner mönchischen Arbeitsweise (er stand unter dem Zwang, allein und bindungslos zu sein, um schreiben zu können) auch Impotenz (Louis Begley) und Homosexualität (Saul Friedländer). Kafkas erste Liebe war die 1888 in Wien geborene, fünf Jahre jüngere Abiturientin Hedwig Therese Weiler. Kafka lernte Hedwig im Sommer 1907 in Triesch bei Iglau (Mähren) kennen, wo die beiden ihre Ferien bei Verwandten verbrachten. Obschon die Urlaubsbekanntschaft einen Briefwechsel nach sich zog, blieben weitere Begegnungen aus. Felice Bauer, die aus kleinbürgerlichen jüdischen Verhältnissen stammte, und Kafka trafen sich erstmals am 28. August 1912 in der Wohnung seines Freundes Brod. Die Briefe an Felice umkreisen vor allem eine Frage: Heiraten oder sich in selbstgewählter Askese dem Schreiben widmen? Nach insgesamt rund dreihundert Schreiben und sechs kurzen Begegnungen kam es im Juni 1914 zur offiziellen Verlobung in Berlin – doch schon sechs Wochen darauf zur Entlobung. Diese war das Ergebnis einer folgenschweren Aussprache am 12. Juli 1914 im Berliner Hotel „Askanischer Hof“ zwischen ihm und Felice, unter Anwesenheit von Felices Schwester Erna und Grete Bloch. Bei dieser Zusammenkunft wurde Kafka mit brieflichen Äußerungen konfrontiert, die er gegenüber Grete Bloch gemacht hatte und die ihn als Heiratsunwilligen bloßstellten. In seinen Tagebüchern spricht Kafka vom „Gerichtshof im Hotel“. Er lieferte Reiner Stach zufolge die entscheidenden Bilder und Szenen für den Roman "Der Process". Es folgte jedoch ein zweites Eheversprechen während eines gemeinsamen Aufenthalts in Marienbad im Juli 1916, bei dem beide eine engere und beglückende intime Beziehung eingingen. Aber auch dieses Verlöbnis wurde – nach dem Ausbruch von Kafkas Tuberkulose (Sommer 1917) – wieder gelöst. Nach dem endgültigen Bruch mit Felice verlobte sich Kafka 1919 erneut, diesmal mit Julie Wohryzek, der Tochter eines Prager Schusters. Er hatte sie während eines Kur-Aufenthalts in der Pension Stüdl im 30 Kilometer von Prag entfernten Dorf Schelesen (Želízy) kennengelernt. In einem Brief an Max Brod beschrieb er sie als „eine gewöhnliche und eine erstaunliche Erscheinung. […] Besitzerin einer unerschöpflichen und unaufhaltbaren Menge der frechsten Jargonausdrücke, im ganzen sehr unwissend, mehr lustig als traurig“. Auch dieses Eheversprechen blieb unerfüllt. Im Laufe des ersten, gemeinsam verbrachten Nachkriegssommers wurde ein Hochzeitstermin festgelegt, jedoch wegen der Schwierigkeiten bei der Wohnungssuche in Prag verschoben. Im folgenden Jahr trennten sich beide. Ein Grund mag die Bekanntschaft zu Milena Jesenská gewesen sein, der ersten Übersetzerin seiner Texte ins Tschechische. Die aus Prag stammende Journalistin war eine lebhafte, selbstbewusste, moderne, emanzipierte Frau von 24 Jahren. Sie lebte in Wien und befand sich in einer auseinandergehenden Ehe mit dem Prager Schriftsteller Ernst Pollak. Nach ersten Briefkontakten kam es zu einem Besuch Kafkas in Wien. Voller Begeisterung berichtete der Zurückgekehrte seinem Freund Brod von der viertägigen Begegnung, aus der sich eine Beziehung mit einigen Begegnungen und vor allem einem umfangreichen Briefwechsel entwickelte. Doch wie schon bei Felice wiederholte sich auch bei Milena das alte Muster: auf Annäherung und eingebildete Zusammengehörigkeit folgten Zweifel und Rückzug. Kafka beendete schließlich die Beziehung im November 1920, woraufhin auch der Briefwechsel abrupt abbrach. Der freundschaftliche Kontakt zwischen beiden riss allerdings bis zu Kafkas Tod nicht ab. Im Inflationsjahr 1923 schließlich lernte Kafka im Ostseeheilbad Graal-Müritz Dora Diamant kennen. Im September 1923 zogen sie nach Berlin und schmiedeten Heiratspläne, die zunächst am Widerstand von Diamants Vater und schließlich an Kafkas Gesundheitszustand scheiterten. Nachdem er sich im April 1924 schwerkrank in ein kleines privates Sanatorium im Dorf Kierling bei Klosterneuburg zurückgezogen hatte, wurde er dort von der mittellosen Dora, die auf materielle Unterstützung aus dem Familien- und Bekanntenkreis Kafkas angewiesen war, bis zu seinem Tod am 3. Juni 1924 gepflegt. Das Urteil. In der Nacht vom 22. zum 23. September 1912 gelang es Kafka, die Erzählung "Das Urteil" in nur acht Stunden in einem Zuge zu Papier zu bringen. Im späteren Urteil der Literaturwissenschaft hat Kafka hier mit einem Schlag thematisch und stilistisch zu sich selbst gefunden. Kafka war elektrisiert durch den noch nie so intensiv erlebten Akt des Schreibens („Nur so kann geschrieben werden, nur in einem solchen Zusammenhang, mit solcher vollständigen Öffnung des Leibes und der Seele.“). Auch die unverminderte Wirkung der Geschichte nach wiederholtem (eigenem) Vorlesen – nicht nur auf die Zuhörer, sondern auch auf ihn selbst – bestärkte in ihm das Bewusstsein, Schriftsteller zu sein. "Das Urteil" leitete Kafkas erste längere Kreativphase ein; die zweite folgte rund zwei Jahre später. In der Zwischenzeit litt Kafka volle eineinhalb Jahre, wie später auch, unter einer Periode der literarischen Dürre. Allein schon deshalb blieb für ihn eine Existenz als „bürgerlicher Schriftsteller“, der mit seinem Schaffen sich und dazu noch eine eigene Familie ernähren kann, zeitlebens in unerreichbarer Ferne. Seine beruflichen Verpflichtungen können als Schreibhindernisse nicht allein der Grund gewesen sein, hatte Kafka seine kreativen Hochphasen oft gerade in Zeiten äußerer Krisen bzw. Verschlechterungen der allgemeinen Lebensverhältnisse (etwa im zweiten Halbjahr von 1914 durch den Kriegsausbruch). Überdies wusste Kafka mit seiner Strategie des „Manöver-Lebens“ – was hieß: vormittags Bürostunden, nachmittags Schlafen, nachts Schreiben – seinen Freiraum auch zu verteidigen. Einer anderen gängigen These zufolge war Kafkas Leben und Schreiben nach der Entstehung des "Urteils" dadurch gekennzeichnet, dass er dem gewöhnlichen Leben entsagte, um sich ganz dem Schreiben zu widmen. Für diese stilisierte Opferung des Lebens liefert er selbst in den Tagebüchern und Briefen reichlich Material. „Kein Wort fast, das ich schreibe, passt zum anderen, ich höre, wie sich die Konsonanten blechern aneinanderreihen und die Vokale singen dazu wie Ausstellungsneger. Meine Zweifel stehen um jedes Wort im Kreis herum, ich sehe sie früher als das Wort, aber was denn! Ich sehe das Wort überhaupt nicht, das erfinde ich.“ Judentum und Palästina-Frage. Durch seinen Bekanntenkreis und vornehmlich durch Max Brods Engagement für den Zionismus wurde Kafka häufig mit der Frage nach seinem Verhältnis zum Judentum und mit den Kontroversen über die Assimilation der westlichen Juden konfrontiert. Seine Sympathie für die ostjüdische Kultur ist mehrfach dokumentiert. Als Schriftsteller belegte er alles „explizit Jüdische […] mit einem Tabu: der Begriff kommt in seinem literarischen Werk nicht vor“. Gleichwohl interpretiert sein Biograph Reiner Stach die Lufthunde in Kafkas Parabel "Forschungen eines Hundes" als das jüdische Volk in der Diaspora. Zeitweise war Kafka entschlossen, nach Palästina auszuwandern und lernte intensiv Hebräisch. Sein sich verschlechternder Gesundheitszustand hinderte ihn an der 1923 ernsthaft geplanten Übersiedlung. Reiner Stach resümiert: „Palästina blieb ein Traum, den sein Körper schließlich zunichte machte.“ Krankheit und Tod. Im August 1917 erlitt Franz Kafka einen nächtlichen Blutsturz. Es wurde eine Lungentuberkulose festgestellt, eine Erkrankung, die zur damaligen Zeit nicht heilbar war. Die Symptome besserten sich zunächst wieder, doch im Herbst 1918 erkrankte er an der Spanischen Grippe, die eine mehrwöchige Lungenentzündung nach sich zog. Danach verschlechterte sich Kafkas Gesundheitszustand von Jahr zu Jahr, trotz zahlreicher langer Kuraufenthalte, u. a. in Schelesen (Böhmen), Tatranské Matliare (heute Slowakei), Riva del Garda (Trentino im Sanatorium Dr. von Hartungen), Graal-Müritz (1923). Während seines Aufenthaltes in Berlin 1923/24 griff die Tuberkulose auch auf den Kehlkopf über, Kafka verlor allmählich sein Sprechvermögen und konnte nur noch unter Schmerzen Nahrung und Flüssigkeit zu sich nehmen. Während eines Aufenthalts im Sanatorium Wienerwald im April 1924 wurde von Dr. Hugo Kraus, einem Familienfreund und Leiter der Lungenheilanstalt, definitiv Kehlkopftuberkulose diagnostiziert. Infolge der fortschreitenden Auszehrung konnten die Symptome nur noch gelindert werden; ein operativer Eingriff war wegen des schlechten Allgemeinzustands nicht mehr möglich. Franz Kafka reiste ab und starb am 3. Juni 1924 im Sanatorium Hoffmann in Kierling bei Klosterneuburg im Alter von 40 Jahren. Als offizielle Todesursache wurde Herzversagen festgestellt. Begraben wurde er auf dem Neuen Jüdischen Friedhof in Prag-Žižkov. Der schlanke kubistische Grabstein von Dr. Franz Kafka und seinen Eltern mit Inschriften in deutscher und hebräischer Sprache befindet sich rechts vom Eingang, etwa 200 Meter vom Pförtnerhaus entfernt. An der dem Grab gegenüber liegenden Friedhofswand erinnert eine Gedenktafel in tschechischer Sprache an Dr. Max Brod. Zur Frage der Nationalität. Kafka verbrachte den Hauptteil seines Lebens in Prag, das bis zum Ende des Ersten Weltkrieges im Jahr 1918 zum Vielvölkerstaat der k.u.k. Monarchie Österreich-Ungarn gehörte und nach dem Ersten Weltkrieg Hauptstadt der neu gegründeten Tschechoslowakei wurde. Der Schriftsteller selbst bezeichnete sich in einem Brief als deutschen Muttersprachler („Deutsch ist meine Muttersprache, aber das Tschechische geht mir zu Herzen“). Die deutschsprachige Bevölkerung in Prag, die etwa sieben Prozent ausmachte, lebte in einer „inselhaften Abgeschlossenheit“ mit ihrer auch als „Pragerdeutsch“ bezeichneten Sprache. Diese Isoliertheit meinte Kafka auch, wenn er im selben Brief schrieb: „Ich habe niemals unter deutschem Volk gelebt.“ Zudem gehörte er der jüdischen Minderheit an. Schon in der Schule gab es heftige Auseinandersetzungen zwischen tschechisch- und deutschsprachigen Pragern. Das politische Deutsche Reich blieb für Kafka – etwa während des Ersten Weltkriegs – weit entfernt und fand keinen Niederschlag in seinem Werk. Auch Belege für die Selbstsicht einer österreichischen Nationalität lassen sich nicht finden. Ebenso wenig hatte Kafka einen Bezug zur 1918 gegründeten Tschechoslowakei. Im Unterschied zu seinen deutschböhmischen Vorgesetzten behielt Kafka aufgrund seiner Kenntnis der tschechischen Sprache und seiner politischen Zurückhaltung nach 1918 seine Stellung in der Arbeiter-Versicherungs-Anstalt und wurde sogar befördert. Im amtlichen Schriftverkehr in tschechischer Sprache verwendete er seitdem auch die tschechische Namensform "František Kafka", soweit er den Vornamen nicht, wie meist, abkürzte. Aus der Literatur, Philosophie, Psychologie und Religion. Kafka sah in Grillparzer, Kleist, Flaubert und Dostojewski seine literarischen „Blutsbrüder“. Nabokov zufolge übte Flaubert den größten stilistischen Einfluss auf Kafka aus; wie dieser habe Kafka wohlgefällige Prosa verabscheut; stattdessen habe er die Sprache als Werkzeug benutzt: „Gern entnahm er seine Begriffe dem Wortschatz der Juristen und Naturwissenschaftler und verlieh ihnen eine gewisse ironische Genauigkeit, ein Verfahren, mit dem auch Flaubert eine einzigartige dichterische Wirkung erzielt hatte.“ Als Maturant (Abiturient) beschäftigte sich Kafka intensiv mit Nietzsche. Besonders "Also sprach Zarathustra" scheint ihn gefesselt zu haben. Zu Kierkegaard schreibt Kafka in seinem Tagebuch: „Er bestätigt mich wie ein Freund.“ Sigmund Freuds Theorien zum ödipalen Konflikt und zur Paranoia dürften Kafka zwar zeitbedingt zu Ohren gekommen sein, er scheint sich aber für diese Themen nicht interessiert zu haben. Kafka hat sich durch umfangreiche Lektüre intensiv mit der jüdischen Religion auseinandergesetzt. Besonders interessierten ihn religiöse Sagen, Geschichten und Handlungsanleitungen, die ursprünglich mündlich überliefert wurden. Aus dem Kino, dem jiddischen Theater und aus Vergnügungseinrichtungen. In einem Brief vom Dezember 1908 äußert Kafka: „… wie könnten wir uns sonst am Leben erhalten für den Kinematographen“. Er schreibt 1919 an seine zweite Verlobte Julie Wohryzek, er sei „verliebt in das Kino“. Kafka war aber offensichtlich weniger beeindruckt von Filmhandlungen (entsprechende Äußerungen fehlen in seinen Schriften); vielmehr geben seine Texte selbst eine filmtechnische Sichtweise wieder. Sein Erzählen entwickelt seinen besonderen Charakter durch die Verarbeitung filmischer Bewegungsmuster und Sujets. Es lebt aus den grotesken Bildfolgen und Übertreibungen des frühen Kinos, die literarisch verdichtet hier sprachlich auftreten. Der Film ist in Kafkas Geschichten allgegenwärtig: im Rhythmus des großstädtischen Verkehrs, in Verfolgungsjagden und Doppelgänger-Szenen und in Gebärden der Angst. Diese Elemente sind besonders im Romanfragment "Der Verschollene" zu finden. Auch in den deftigen Vorführungen des jiddischen Theaters aus Lemberg, die Kafka oft besuchte und mit dessen Mitgliedern er befreundet war, waren viele der genannten Elemente enthalten; Kafka hatte hier einen starken Eindruck von Authentizität. Von Kafkas Interesse an jiddischer Sprache und Kultur in Osteuropa zeugen zwei kleine Werke aus dem Nachlass, nämlich "Vom jüdischen Theater" und "Einleitungsvortrag über Jargon". Bis ca. 1912 hat Kafka auch rege am Nachtleben mit Kleinkunstdarbietungen teilgenommen. Hierzu gehörten Besuche in Cabarets, Bordellen, Varietés u. ä. Eine Reihe seiner späten Erzählungen sind in diesem Milieu angesiedelt; siehe "Erstes Leid", "Ein Bericht für eine Akademie", "Ein Hungerkünstler", "Josefine, die Sängerin oder Das Volk der Mäuse". Die Romanfragmente. Wie in einem Albtraum bewegen sich Kafkas Protagonisten durch ein Labyrinth undurchsichtiger Verhältnisse und sind anonymen Mächten ausgeliefert. Die Literaturkritik spricht von einer „Traumlogik“. Die Gerichtsgebäude in "Der Process" bestehen aus einem weit verzweigten Gewirr unübersichtlicher Räume, und auch in "Der Verschollene" (von Brod unter dem Titel "Amerika" veröffentlicht) sind die seltsam unverbundenen Schauplätze – u. a. ein Schiff, ein Hotel, das „Naturtheater von Oklahoma“, sowie die Wohnung des Onkels von Karl Roßmann, des Helden – gigantisch und unüberschaubar. Insbesondere bleiben auch die Beziehungen der handelnden Personen ungeklärt. Im "Schloss" erzeugt Kafka Zweifel an der Stellung des Protagonisten K. als „Landvermesser“ und dem Inhalt dieses Begriffes selbst und schafft so Interpretationsspielraum. Nur bruchstückhaft erfährt K. und mit ihm der Leser im Laufe des Romans mehr über die Beamten des Schlosses und ihre Beziehungen zu den Dorfbewohnern. Die allgegenwärtige, aber gleichzeitig unzugängliche, faszinierende und bedrückende Macht des Schlosses über das Dorf und seine Menschen wird dabei immer deutlicher. Trotz all seiner Bemühungen, in dieser Welt heimisch zu werden und seine Situation zu klären, erhält K. keinen Zugang zu den maßgeblichen Stellen in der Schlossverwaltung, wie auch der Angeklagte Josef K. im "Process" niemals auch nur die Anklageschrift zu Gesicht bekommt. Nur im Romanfragment "Der Verschollene" – auch "Das Schloss" und "Der Process" blieben unvollendet –, bleibt die vage Hoffnung, dass Roßmann im fast grenzenlosen, paradiesischen „Naturtheater von Oklahoma“ dauerhaft Geborgenheit finden kann. Die Erzählungen. In vielen Erzählungen Kafkas, z. B. "Der Bau", "Forschungen eines Hundes", "Kleine Fabel" ist das Scheitern und das vergebliche Streben der Figuren das beherrschende Thema, das oft tragisch-ernst, manchmal aber auch mit einer gewissen Komik dargestellt wird. Ein fast durchgängiges Thema ist das verborgene Gesetz, gegen das der jeweilige Protagonist unwillentlich verstößt oder das er nicht erreicht ("Vor dem Gesetz", "In der Strafkolonie", "Der Schlag ans Hoftor", "Zur Frage der Gesetze"). Das Motiv des dem Protagonisten verborgenen Codes, der die Abläufe beherrscht, findet sich in den Romanfragmenten "Process" und "Schloss" und in zahlreichen Erzählungen. In seinem unvergleichlichen Stil, vor allem in seinen Erzählungen, beschreibt Kafka äußerst deutlich und nüchtern die unglaublichsten Sachverhalte. Die kühle minutiöse Beschreibung der scheinbar legalen Grausamkeit "In der Strafkolonie" oder die Verwandlung eines Menschen in ein Tier und umgekehrt, wie in "Die Verwandlung" oder "Ein Bericht für eine Akademie", sind kennzeichnend. Mit seinem Stil formt Kafka hier nicht einfach ein Lebensgefühl nach, sondern schafft eine eigene Welt mit eigenen Gesetzen, deren Unvergleichlichkeit nicht zuletzt der Begriff des „Kafkaesken“ zu umschreiben versucht. Rezeption. Zu seinen Lebzeiten war Kafka der breiten Öffentlichkeit unbekannt. Heute besteht in literarischen Kreisen weitgehend Einigkeit, dass Brod eine segensreiche Entscheidung traf, als er den letzten Willen seines Freundes überging und dessen Werk publizierte. Einen nicht näher bestimmbaren Teil seiner Texte hat Kafka allerdings eigenhändig vernichtet, so dass Brod zu spät kam. Literaturkennern wie Robert Musil, Hermann Hesse, Walter Benjamin oder Kurt Tucholsky war Kafka bereits in den zwanziger Jahren ein Begriff. Weltruhm erlangte sein Werk erst nach 1945, zunächst in den USA und Frankreich, in den 50er-Jahren dann auch im deutschsprachigen Raum. Heute ist Kafka der meistgelesene Autor deutscher Sprache. Die Kafka-Rezeption reicht bis ins triviale Alltagsleben hinein: So gab es seinerzeit einen Werbeslogan „Ich trinke Jägermeister, weil ich Kafkas Schloss nicht geknackt habe“. In einem Gespräch mit Georges-Arthur Goldschmidt bezeichnet der Kafka-Biograph Reiner Stach Samuel Beckett als „Kafkas Erbe“. Im Mai 1963 hielt der tschechoslowakische Schriftstellerverband eine internationale Kafka-Konferenz im Schloss Liblice bei Prag ab, die sich mit dem damals im Ostblock noch weitgehend abgelehnten Schriftsteller sowie mit dem thematischen Schwerpunkt Entfremdung beschäftigte. Die Kafka-Konferenz gilt als ein Ausgangspunkt des Prager Frühlings von 1967/68. Die Bedeutung der Konferenz wurde im Jahr 2008 in einer weiteren Tagung aufgearbeitet. Erinnerungsplakette an Kafkas Geburtshaus (von Karel Hladik) Interpretation. Das Deutungsinteresse der Interpreten nach 1945 liegt vielleicht daran, dass seine Texte offen und hermetisch zugleich sind: Einerseits sind sie durch Sprache, Handlung, Bildhaftigkeit und relativ geringen Umfang leicht zugänglich; andererseits ist jedoch ihre Tiefe kaum auszuloten. Albert Camus meinte: „Es ist das Schicksal und vielleicht auch die Größe dieses Werks, daß es alle Möglichkeiten darbietet und keine bestätigt.“ Theodor W. Adorno meint zu Kafkas Werk: „Jeder Satz spricht: deute mich, und keiner will es dulden.“ Abgesehen von der textimmanenten Kritik weisen unterschiedliche Interpretationen von Kafkas Werk u. a. in folgende Richtungen: "psychologisch" (wie bei entsprechenden Deutungen von Hamlet, Faust oder Stiller), "philosophisch" (vor allem zur Schule des Existenzialismus), "biographisch" (z. B. durch Elias Canetti in „Der andere Prozess“), "religiös" (ein dominierender Aspekt der frühen Kafka-Rezeption, der heute eher als fragwürdig angesehen wird, u. a. von Milan Kundera) und "soziologisch" (d. h. den gesellschaftskritischen Gehalt untersuchend). Eine wichtige Frage der Interpretation der Werke Kafkas ist die nach dem Einfluss der jüdischen Religion und Kultur auf das Werk, die schon von Gershom Scholem dahingehend beantwortet wurde, dass Kafka eher der jüdischen als der deutschen Literaturgeschichte zuzuordnen sei. Dieser Deutungshinweis wurde auf breiter Front von Karl E. Grözinger in seiner Publikation „Kafka und die Kabbala. Das Jüdische im Werk und Denken von Franz Kafka.“ Berlin-Wien 2003, aufgenommen. Seine Forschungen haben eine tiefe Verankerung ganzer Romane wie "Der Process" oder "Das Schloss" in der jüdisch religiösen Kultur gezeigt, ohne die das Werk kaum adäquat verstanden werden kann. Wenn auch von manchen modernen Autoren bestritten, haben sich Grözingers Auffassungen doch weithin durchgesetzt. Kafka bringt viele Figuren seiner Romane und Erzählungen in Beziehung zum Christentum: Im "Process" betrachtet Josef K. vor seinem Tod sehr genau ein Bild von der Grablegung Christi, und im "Urteil" wird Georg Bendemann auf dem Weg zu seiner Selbstopferung mit „Jesus!“ angesprochen. Im "Schloss" verbringt der Landvermesser K. ähnlich wie Jesus die erste Nacht seines (Roman-)Lebens in einem Gasthaus auf einem Strohsack, und im selben Roman trägt Barnabas, der von allen männlichen Romanfiguren dem Landvermesser am nächsten steht, den Namen eines Juden, dem das Christentum wichtiger wurde als das Judentum (Apostelgeschichte). Besonders charakteristisch für Kafka sind die häufigen Wiederholungen von Motiven, vor allem in den Romanen und vielen der wichtigsten Erzählungen, zum Teil über alle Schaffensperioden hinweg. Diese Wiederholungsmotive bilden eine Art Netz über das gesamte Werk und können für eine verbindliche Deutung desselben fruchtbar gemacht werden. Zwei der wichtigsten Wiederholungsmotive sind das Motiv „Bett“ (unerwartbar häufiger Aufenthalts- und Begegnungsort von Figuren, an dem bzw. in dem für viele Protagonisten der Texte das Unheil beginnt und sich fortsetzt) und das Motiv „Türe“ in Form der Auseinandersetzung um ihr Passieren (bekanntestes, aber eben bei weitem nicht das einzige Beispiel ist das Tor zum Gesetz im Text "Vor dem Gesetz", der sogenannten „Türhütergeschichte“). Ungeachtet der jeweiligen Interpretationen wird zur Bezeichnung einer auf "rätselhafte Weise bedrohlichen" Atmosphäre der Begriff des Kafkaesken verwendet, der laut "Kundera" „als der einzige gemeinsame Nenner von (sowohl literarischen als auch wirklichen) Situationen zu sehen ist, die durch kein anderes Wort zu charakterisieren sind und für die weder Politikwissenschaft noch Soziologie noch Psychologie einen Schlüssel liefern.“ Wirkungsgeschichte. Briefmarke, Deutsche Post AG (2008) Kafka als verbotener Autor. Während der Zeit von 1933 bis 1945 war Kafka in der einschlägigen Liste verbotener Autoren während der Zeit des Nationalsozialismus als Erzeuger von „schädlichem und unerwünschtem Schriftgut“ aufgeführt. Seine Werke fielen wie viele andere den Bücherverbrennungen zum Opfer. Die Kommunistische Partei der Tschechoslowakei (KSČ) rehabilitierte Kafka nach dem Zweiten Weltkrieg nicht, sondern stufte ihn als "dekadent" ein. In dem Roman "Der Process" fand man unerwünschte Anklänge an die Denunziationen und Schauprozesse in den Staaten des Ostblocks. Im Allgemeinen identifizierte sich die Tschechoslowakei zur Zeit des Kommunismus kaum mit Kafka, wohl auch, weil er fast ausschließlich in deutscher Sprache geschrieben hatte. Beim Kafka-Kongress von 1963 zum 80. Geburtstag des Schriftstellers im Schloss Liblice wurde er von vielen Rednern gewürdigt. Aber bereits 1968 nach der Niederschlagung des Prager Frühlings wurden seine Werke wieder verboten. Heutiges Tschechien. Mit der Öffnung Tschechiens zum Westen und dem Zustrom ausländischer Besucher wuchs Kafkas lokale Bedeutung. Die Prager Franz-Kafka-Gesellschaft widmet sich den Werken Kafkas und versucht, das jüdische Erbe Prags wiederzubeleben. Im Kafka-Jahr 2008 (125. Geburtstag) wurde Kafka von der Stadt Prag zur Förderung des Tourismus herausgestellt. Es gibt viele Stätten zur Kafka-Begegnung, Buchläden und Souvenirartikel jeglicher Art. Seit 2005 zeigt das Kafka-Museum auf der Prager Kleinseite (Cihelná 2b) die Ausstellung "Die Stadt K. Franz Kafka und Prag". Internationale Wirkung. Bereits 1915 wurde Kafka indirekt mit dem „Theodor-Fontane-Preis für Kunst und Literatur“ ausgezeichnet: Der offizielle Preisträger Carl Sternheim gab das Preisgeld an den noch weitestgehend unbekannten Kafka weiter. Verbürgt ist der große Einfluss Kafkas auf Gabriel García Márquez. Insbesondere von Kafkas Erzählung "Die Verwandlung" hat García Márquez nach eigener Bekundung den Mut für die Ausgestaltung seines „magischen Realismus“ genommen: Gregor Samsas Erwachen als Käfer, so García Márquez selbst, habe seinem „Leben einen neuen Weg gewiesen, schon mit der ersten Zeile, die heute eine der berühmtesten der Weltliteratur ist“. Kundera erinnert sich in seinem Werk "Verratene Vermächtnisse" (S. 55) an eine noch präzisere Auskunft von García Márquez zu dem Einfluss Kafkas auf ihn: „Kafka hat mir beigebracht, dass man anders schreiben kann.“ Kundera erläutert: „Anders: das hieß, indem man die Grenzen des Wahrscheinlichen überschreitet. Nicht (in der Art der Romantiker), um der wirklichen Welt zu entfliehen, sondern um sie besser zu verstehen.“ Unter den zeitgenössischen Schriftstellern bezieht sich Leslie Kaplan in ihren Romanen und in Aussagen zu ihrer Arbeitsweise häufig auf Kafka, um die Entfremdung des Menschen, die mörderische Bürokratie, aber auch den Freiheits-Spielraum, den vor allem das Denken und Schreiben eröffnet, darzustellen. Auch abseits künstlerischer Kriterien findet Kafka große Bewunderung. So ist für Canetti Kafka deswegen ein großer Dichter, weil er „unser Jahrhundert am reinsten ausgedrückt hat“. Streit um die Handschriften. Kafka hatte seinen Freund Max Brod vor seinem Tod gebeten, den Großteil seiner Handschriften zu vernichten. Brod widersetzte sich diesem Willen jedoch und sorgte dafür, dass viele von Kafkas Schriften posthum veröffentlicht wurden. 1939, kurz vor dem Einmarsch der deutschen Truppen in Prag, gelang es Brod, die Handschriften nach Palästina zu retten. 1945 schenkte er sie seiner Sekretärin Ilse Ester Hoffe, wie er auch schriftlich festhielt: „Liebe Ester, Bereits im Jahre 1945 habe ich Dir alle Manuskripte und Briefe Kafkas, die mir gehören, geschenkt.“ Hoffe verkaufte einige dieser Handschriften, darunter Briefe und Postkarten, das Manuskript zu "Beschreibung eines Kampfes" (heute in Besitz des Verlegers Joachim Unseld) und das Manuskript zum Roman "Der Process", das 1988 im Londoner Auktionshaus Sotheby’s für 3,5 Millionen Mark an das Deutsche Literaturarchiv in Marbach versteigert wurde. Dieses ist nun im Literaturmuseum der Moderne in Marbach in der Dauerausstellung zu sehen. Die übrigen Handschriften schenkte Hoffe noch zu Lebzeiten ihren beiden Töchtern Eva und Ruth Hoffe. Nach dem Tod ihrer Mutter im Jahre 2009 vereinbarten Eva und Ruth Hoffe, die Handschriften an das Deutsche Literaturarchiv in Marbach zu verkaufen, was zu einem Streit zwischen den beiden Schwestern und dem Literaturarchiv einerseits und dem Staat Israel, der den rechtmäßigen Platz von Kafkas Handschriften in der Nationalbibliothek Israels sieht, andererseits führte. Israel begründet seinen Anspruch auf die Handschriften mit einem Paragraphen aus Max Brods Testament („daß aber die im ersten Absatz angeführten Manuskripte, Briefe und sonstige Papiere und Urkunden der Bibliothek der Hebräischen Universität Jerusalem oder der Staatlichen Bibliothek Tel Aviv oder einem anderen öffentlichen Archiv im Inland oder im Ausland zur Aufbewahrung übergeben werden sollen“), obwohl Ester Hoffe die Handschriften als Schenkung von Max Brod erhalten hatte und sie auch ihren Töchtern schenkte und nicht vererbte. Seit 1956 befinden sich sämtliche noch in Hoffes Besitz befindliche Handschriften in Banktresoren in Tel Aviv und Zürich. Am 14. Oktober 2012 entschied ein israelisches Familiengericht, dass die Manuskripte nicht Eigentum der Schwestern Hoffe sind. Kafkas Nachlass soll an die israelische Nationalbibliothek gehen. Eva Hoffe kündigte an, in Berufung zu gehen. Werke. Bei "kursiv" gedruckten Titeln handelt es sich um Bücher, die gesammelte Prosatexte enthalten. Die in einer Sammlung enthaltenen Werke sind im Artikel zum Sammelband aufgeführt. Zu Lebzeiten veröffentlicht. a>" vom 29. September 1909 mit Kafkas Artikel "Die Aeroplane in Brescia" Alle 46 Publikationen (zum Teil Mehrfachveröffentlichungen einzelner Werke) zu Lebzeiten Franz Kafkas sind aufgeführt auf den Seiten 300 ff. in Joachim Unseld: "Franz Kafka. Ein Schriftstellerleben. Die Geschichte seiner Veröffentlichungen." ISBN 3-446-13554-5. Erzählungen und andere Texte. In Klammern das Jahr der Entstehung. Briefe. Kafka schrieb intensiv und über eine lange Zeit seines Lebens teils sehr persönliche Briefe. Sie belegen seine hohe Sensibilität und vermitteln seine Sicht der bedrohlichen Aspekte seiner Innenwelt und seine Ängste angesichts der Außenwelt. Manche Autoren halten Kafkas Briefe nicht für eine Ergänzung seines literarischen Werks, sondern sehen sie als Teil davon. Besonders seine "Briefe an Felice" und "Briefe an Milena" gehören zu den großen Briefdokumenten des 20. Jahrhunderts. Die "Briefe an Ottla" sind ein bewegendes Zeugnis von Kafkas Nähe zu seiner (vermutlich 1943 von den Nationalsozialisten ermordeten) Lieblingsschwester. Im "Brief an den Vater" wird das prekäre Verhältnis des hochbegabten Sohnes zu seinem Vater deutlich, den er als lebenstüchtigen Despoten beschreibt, der die Lebensführung des Sohnes äußerst kritisch beurteilt. Die Briefe an Max Brod sind Dokumente einer Freundschaft, ohne die von Kafkas Werk allenfalls Bruchstücke erhalten geblieben wären. Die jeweiligen Antwortschreiben sind bis auf Ausnahmen nicht erhalten, was besonders im Hinblick auf die fehlenden Briefe der Journalistin und Schriftstellerin Milena Jesenská äußerst bedauerlich ist, die für Kafka das bewunderte Beispiel eines freien Menschen ohne Angst war. Briefe an Ernst Weiß, an Julie Wohryzek und an Dora Diamant sind, bedingt durch die Zeitumstände der Zeit des Nationalsozialismus bis heute verschollen. Tagebücher. Kafkas Tagebücher sind für den Zeitraum von 1909 bis 1923 (kurz vor seinem Tod im Jahre 1924) großenteils erhalten geblieben. Sie enthalten nicht nur persönliche Notizen, autobiographische Reflexionen, Elemente einer Selbstverständigung des Schriftstellers über sein Schreiben, sondern auch Aphorismen (siehe z. B. "Die Zürauer Aphorismen)", Entwürfe für Erzählungen und zahlreiche literarische Fragmente. Amtliche Schriften. Als Angestellter der Arbeiter-Unfall-Versicherungs-Anstalt für das Königreich Böhmen verfasste Franz Kafka Aufsätze, Gutachten, Rundschreiben und anderes. Siehe oben den Abschnitt „Berufsleben“. Vertonungen. Der Komponist Friedemann Schmidt-Mechau verwendete 2002 einige Textfragmente aus "Betrachtungen über Sünde, Leid, Hoffnung und den wahren Weg" und aus dem "dritten Oktavheft" in seiner Komposition "Dreierlei – Musik für Barock-Klarinette". Friesische Sprachen. Zweisprachige Ortsbeschilderung in Fryslân (Niederlande) Die friesischen Sprachen, allgemein nur "Friesisch" (westfriesisch "Frysk", nordfriesisch z. B. "fresk" oder "frasch", als dialektübergreifender Kompromiss auch "Friisk", saterfriesisch "Fräisk") genannt, sind eine Gruppe von drei Sprachen. Sie gehören zum nordseegermanischen Zweig der westgermanischen Sprachen. Friesisch war ursprünglich an der Nordseeküste zwischen der Rhein- und Elbmündung und später auch nördlich der Eidermündung bis an die Wiedau verbreitet (siehe Karte). Heute wird es noch von etwa 400.000 Menschen gesprochen, vor allem in den Niederlanden. Geschichte. Aus den Jahren von etwa 500 bis etwa 1200 sind lediglich einige friesische Runeninschriften und Einzelwörter innerhalb lateinischer Texte bekannt. Vollständige Texte sind erst seit dem 13. Jahrhundert überliefert. Die Sprachstufe von dieser Zeit bis ins 16. Jahrhundert wird als Altfriesisch bezeichnet und ist zeitlich in etwa in die gleiche Epoche einzuordnen wie Mittelniederländisch, Mittel- und teilweise auch Frühneuhochdeutsch sowie das frühe Mittelniederdeutsche. Bereits für die altfriesische Zeit sind deutliche Unterschiede zwischen den westfriesischen und ostfriesischen Dialekten festzustellen. Altfriesische Texte aus Nordfriesland sind dagegen nicht erhalten. Das heutige Nordfriesland wurde in zwei Wellen um das Jahr 700 und 1100 besiedelt, die nordfriesischen Dialekte spalteten sich zu dieser Zeit von der Sprache der Ost- und Westfriesen ab. Das moderne Friesisch entstand ab dem 16. Jahrhundert und zerfällt in drei Hauptgruppen. Es ist in der Sprachwissenschaft umstritten, ob die drei friesischen Hauptgruppen „nur“ Dialekte einer Sprache bildeten. Heute allerdings sind die drei verbliebenen Nachfolger untereinander nicht mehr verständlich und werden als unterschiedliche Sprachen betrachtet. Nordfriesisch. Nordfriesisch wird noch in Teilen des Kreises Nordfriesland und auf Helgoland in Schleswig-Holstein gesprochen. Auf den Inseln und dem Festland gibt es heute noch neun verschiedene nordfriesische Dialekte, die untereinander teils kaum verständlich sind. Von etwa 164.000 Einwohnern des Kreises Nordfriesland sprechen noch etwa 10.000 Friesisch. Das Nordfriesische wird im "Endangered Languages in Europe Report" als "seriously endangered" (ernsthaft gefährdet) eingestuft, da es nur noch an wenigen Orten, insbesondere im Norden und in der Mitte der Insel Amrum und im Westen der Insel Föhr, innerhalb der Familien an die jüngere Generation weitergegeben wird. Ostfriesisch. Im ehemaligen ostfriesischen Sprachgebiet zwischen der Lauwers und der Weser (vor allem Ostfriesland, die Provinz Groningen und das nördliche Oldenburg) ist die friesische Sprache fast gänzlich ausgestorben. Seit etwa 1400 wurde das Ostfriesische nach und nach durch unterschiedliche niederdeutsche Dialekte – und in jüngerer Zeit durch das Hochdeutsche – ersetzt. Zuletzt starb in den 1950er Jahren das Wangerooger Friesisch aus. Das letzte Überbleibsel der ostfriesischen Sprache, das Saterfriesische, wird in der Gemeinde Saterland im Landkreis Cloppenburg von etwa 1.000 bis 2.500 Menschen gesprochen. Wenn die ostfriesische Sprache eindeutig vom ostfriesischen Platt unterschieden werden soll, wird in Anlehnung an die Bezeichnung "westerlauwerssches Friesisch" für das Westfriesische auch der Terminus "osterlauwerssches Friesisch" verwendet. Westfriesisch. Das Westfriesische, auch "westerlauwerssches Friesisch", wird in der niederländischen Provinz Friesland "(Fryslân)" von ca. 440.000 Menschen gesprochen, von denen es etwa 350.000 als Muttersprache sprechen. Es besteht aus vier Hauptdialekten und vier weiteren kleinen Dialekten. Als einziger der drei friesischen Sprachzweige hat Westfriesisch eine Standardvarietät entwickelt. Nichtfriesische Varietäten mit der Bezeichnung „Friesisch“. Es existieren verschiedene sprachliche Varietäten, die von Friesen oder von Bewohnern ehemals friesisch besiedelter Gebiete anstelle des Friesischen angenommen wurden, aber linguistisch nicht zu den friesischen Sprachen zählen. Dennoch führen viele dieser volkssprachlichen Varietäten in irgendeiner Form den Namen „Friesisch“ als Selbst- oder Fremdbezeichnung. So wird heute mit „Ostfriesisch“ in der Regel das ostfriesische Platt bezeichnet, das in Ostfriesland die friesische Sprache als Volkssprache ersetzt hat. Begünstigt wurde dies dadurch, dass die Saterfriesen sich lange nicht mehr zu den Friesen zählten und ihre eigene Sprache nicht als "friesisch" bezeichnen, sondern als "saterländisch" ('seeltersk'). Grundsätzlich ähnlich verhält es sich mit dem Plattdeutschen in Nordfriesland. Da dort die friesische Sprache aber noch lebendig ist, wird die Bezeichnung "Nordfriesisch" ausschließlich für die friesischen Dialekte verwendet. Das "nordfriesische Platt" unterscheidet sich zudem nicht so sehr vom übrigen Schleswiger Platt wie das ostfriesische Niederdeutsch von seinen Nachbardialekten. Die oft als Stadtfriesisch bezeichneten Mundarten der Städte in der Provinz Fryslân gehören ebenfalls nicht zum Friesischen. Sie wurden im 15. Jahrhundert von friesischen Kaufleuten aus der Provinz Holland übernommen. Durch starken Einfluss der friesischen Grammatik und Syntax fällt die Klassifizierung als holländischer Dialekt allerdings ebenfalls schwer. Sie werden daher meist als Sondergruppe innerhalb der niederländischen Sprache behandelt, bisweilen aber sogar als Sondersprache bezeichnet. Nicht zu verwechseln mit der westfriesischen Sprache ist auch der holländische Dialekt der Region Westfriesland in der niederländischen Provinz Nord-Holland. Dieser wird ebenfalls als Westfriesisch bezeichnet. Die Verwechselungsgefahr des Dialekts mit der westfriesischen Sprache besteht in den Niederlanden nicht. Dort ist "Westfriesland" eindeutig die nordholländische Region. Die Provinz Friesland, die in Deutschland meist als Westfriesland bezeichnet wird, heißt in den Niederlanden einfach Friesland oder Fryslân. Einzelnachweise. ! Fotografie. Fotografie oder Photographie (aus "phōs", im Genitiv: "photós", „Licht“ und "graphein" „schreiben, malen“, also „malen mit Licht“) bezeichnet Begriff. Der Begriff "Photographie" wurde erstmals (noch vor englischen oder französischen Veröffentlichungen) am 25. Februar 1839 vom Astronomen Johann Heinrich von Mädler in der Vossischen Zeitung verwendet. Bis ins 20. Jahrhundert bezeichnete Fotografie alle Bilder, welche rein durch Licht auf einer chemisch behandelten Oberfläche entstehen. Schreibweise. Bereits mit der deutschen Rechtschreibreform 1901 wurde die Schreibweise „Fotografie“ empfohlen, was sich jedoch bis heute noch nicht ganz durchsetzen konnte. Auch der Duden empfiehlt „Fotografie“. Die Kurzform „Foto“ und das Verb „fotografieren“ gelten als vollständig in die deutsche Sprache integriert und sollen seit der deutschen Rechtschreibreform 1996 nicht mehr mit „ph" geschrieben werden. Gemischte Schreibungen wie „Fotographie“ oder „Photografie“ sowie daraus abgewandelte Adjektive oder Substantive waren jedoch zu jeder Zeit eine falsche Schreibweise. Allgemeines. Die "Fotografie" ist ein Medium, das in sehr verschiedenen Zusammenhängen eingesetzt wird. Fotografische Abbildungen können beispielsweise Gegenstände mit primär künstlerischem (künstlerische Fotografie) oder primär kommerziellem Charakter sein (Industriefotografie, Werbe- und Modefotografie). Die Fotografie kann unter künstlerischen, technischen (Fototechnik), ökonomischen (Fotowirtschaft) und gesellschaftlich-sozialen (Amateur-, Arbeiter- und Dokumentarfotografie) Aspekten betrachtet werden. Des Weiteren werden Fotografien im Journalismus und in der Medizin verwendet. Die Fotografie ist teilweise ein Gegenstand der Forschung und Lehre in der Kunstgeschichte und der noch jungen Bildwissenschaft. Der mögliche Kunstcharakter der Fotografie war lange Zeit umstritten, ist jedoch seit der fotografischen Stilrichtung des Pictorialismus um die Wende zum 20. Jahrhundert letztlich nicht mehr bestritten. Einige Forschungsrichtungen ordnen die Fotografie der Medien- oder Kommunikationswissenschaft zu, auch diese Zuordnung ist umstritten. Im Zuge der technologischen Weiterentwicklung fand zu Beginn des 21. Jahrhunderts allmählich der Wandel von der klassischen analogen (Silber-)Fotografie hin zur Digitalfotografie statt. Der weltweite Zusammenbruch der damit in Zusammenhang stehenden Industrie für analoge Kameras aber auch für Verbrauchsmaterialien (Filme, Fotopapier, Fotochemie, Laborgeräte) führt dazu, dass die Fotografie mehr und mehr auch unter kulturwissenschaftlicher und kulturhistorischer Sicht erforscht wird. Allgemein kulturelle Aspekte in der Forschung sind z. B. Betrachtungen über den Erhalt und die Dokumentation der praktischen Kenntnis der fotografischen Verfahren für Aufnahme und Verarbeitung aber auch der Wandel im Umgang mit der Fotografie im Alltag. Zunehmend kulturhistorisch interessant werden die Archivierungs- und Erhaltungstechniken für analoge Aufnahmen aber auch die systemunabhängige langfristige digitale Datenspeicherung. Die Fotografie unterliegt dem komplexen und vielschichtigen Fotorecht; bei der Nutzung von vorhandenen Fotografien sind die Bildrechte zu beachten. Fototechnik. Prinzipiell wird meist mit Hilfe eines optischen Systems, in vielen Fällen einem Objektiv, fotografiert. Dieses wirft das von einem Objekt ausgesendete oder reflektierte Licht auf die lichtempfindliche Schicht einer Fotoplatte, eines Films oder auf einen fotoelektrischen Wandler, einen Bildsensor. Fotografische Kameras. Der fotografischen Aufnahme dient eine fotografische Apparatur (Kamera). Durch Manipulation des optischen Systems (unter anderem die Einstellung der Blende, Scharfstellung, Farbfilterung, die Wahl der Belichtungszeit, der Objektivbrennweite, der Beleuchtung und nicht zuletzt des Aufnahmematerials) stehen dem Fotografen oder Kameramann zahlreiche Gestaltungsmöglichkeiten offen. Als vielseitigste Fotoapparatbauform hat sich sowohl im Analog- als auch im Digitalbereich die Spiegelreflexkamera durchgesetzt. Für viele Aufgaben werden weiterhin die verschiedensten Spezialkameras benötigt und eingesetzt. Lichtempfindliche Schicht. Bei der filmbasierten Fotografie (z. B. Silber-Fotografie) ist die lichtempfindliche Schicht auf der Bildebene eine Dispersion (im allgemeinen Sprachgebrauch Emulsion). Sie besteht aus einem Gel, in dem gleichmäßig kleine Körnchen eines Silberhalogenids (zum Beispiel Silberbromid) verteilt sind. Je kleiner die Körnung ist, umso weniger lichtempfindlich ist die Schicht ("siehe" ISO-5800-Standard), umso besser ist allerdings die Auflösung („Korn“). Dieser lichtempfindlichen Schicht wird durch einen Träger Stabilität verliehen. Trägermaterialien sind Zelluloseacetat, früher diente dazu Zellulosenitrat (Zelluloid), Kunststofffolien, Metallplatten, Glasplatten und sogar Textilien ("siehe" Fotoplatte und Film). Bei der Digitalfotografie besteht das Äquivalent der lichtempfindlichen Schicht aus Chips wie CCD- oder CMOS-Sensoren. Entwicklung und Fixierung. Durch das Entwickeln bei der filmbasierten Fotografie wird auf chemischem Wege das latente Bild sichtbar gemacht. Beim Fixieren werden die nicht belichteten Silberhalogenid-Körnchen wasserlöslich gemacht und anschließend mit Wasser herausgewaschen, sodass ein Bild bei Tageslicht betrachtet werden kann, ohne dass es nachdunkelt. Ein weiteres älteres Verfahren ist das Staubverfahren, mit dem sich einbrennbare Bilder auf Glas und Porzellan herstellen lassen. Mit Ausnahme von Rohdaten (RAW-Dateien) müssen digitale Bilddateien nicht entwickelt werden, um sie am Monitor betrachten oder verarbeiten zu können; sie werden elektronisch gespeichert und können anschließend mit der elektronischen Bildbearbeitung am Computer bearbeitet und bei Bedarf auf Fotopapier ausbelichtet oder beispielsweise mit einem Tintenstrahldrucker ausgedruckt werden. Rohdaten werden vorab mittels spezieller Entwicklungssoftware oder RAW-Konvertern am Computer in nutzbare Formate (z. B. JPG, TIF) gebracht, was als digitale Entwicklung bezeichnet wird. Der Abzug. Abzug aus den 1960er Jahren mit großflächigem Lichtschaden Als Abzug bezeichnet man das Ergebnis einer "Kontaktkopie", einer "Vergrößerung", oder einer "Ausbelichtung"; dabei entsteht in der Regel ein Papierbild. Abzüge können von Filmen (Negativ oder Dia) oder von Dateien gefertigt werden. Abzüge als Kontaktkopie haben dieselbe Größe wie die Abmessungen des Aufnahmeformats; wird eine Vergrößerung vom Negativ oder Positiv angefertigt, beträgt die Größe des entstehenden Bildes ein Vielfaches der Größe der Vorlage, dabei wird jedoch in der Regel das Seitenverhältnis beibehalten, das bei der klassischen Fotografie bei 1,5 bzw. 3:2 oder in USA 4:5 liegt.Eine Ausnahme davon stellt die Ausschnittvergrößerung dar, deren Seitenverhältnis in der Bühne eines Vergrößerers beliebig festgelegt werden kann; allerdings wird auch die Ausschnittvergrößerung in der Regel auf ein Papierformat mit bestimmten Abmessungen belichtet. Der Abzug ist eine häufig gewählte Präsentationsform der Amateurfotografie, die in speziellen Kassetten oder Alben gesammelt werden. Bei der Präsentationsform der Diaprojektion arbeitet man in der Regel mit dem Original-Diapositiv, also einem Unikat, während es sich bei Abzügen "immer" um Kopien handelt. Vorläufer und Vorgeschichte. Der Name Kamera leitet sich vom Vorläufer der Fotografie, der Camera obscura („Dunkle Kammer“) ab, die bereits seit dem 11. Jahrhundert bekannt ist und Ende des 13. Jahrhunderts von Astronomen zur Sonnenbeobachtung eingesetzt wurde. Anstelle einer Linse weist diese Kamera nur ein kleines Loch auf, durch das die Lichtstrahlen auf eine Projektionsfläche fallen, von der das auf dem Kopf stehende, seitenverkehrte Bild abgezeichnet werden kann. In Edinburgh und Greenwich bei London sind begehbare, raumgroße Camerae obscurae eine Touristenattraktion. Auch das Deutsche Filmmuseum hat eine Camera obscura, in der ein Bild des gegenüberliegenden Mainufers projiziert wird. Ein Durchbruch ist 1550 die Wiedererfindung der Linse, mit der hellere und gleichzeitig schärfere Bilder erzeugt werden können. 1685: Ablenkspiegel, ein Abbild kann so auf Papier gezeichnet werden. Im 18. Jahrhundert kamen die Laterna magica, das Panorama und das Diorama auf. Chemiker wie Humphry Davy begannen bereits, lichtempfindliche Stoffe zu untersuchen und nach Fixiermitteln zu suchen. Die frühen Verfahren. Das vermutlich weltweit erste dauerhafte Foto Die vermutlich erste Fotografie der Welt wurde im Frühherbst 1826 durch Joseph Nicéphore Nièpce im Heliografie-Verfahren angefertigt. 1837 benutzte Louis Jacques Mandé Daguerre ein besseres Verfahren, das auf der Entwicklung der Fotos mit Hilfe von Quecksilber-Dämpfen und anschließender Fixierung in einer heißen Kochsalzlösung oder einer normal temperierten Natriumthiosulfatlösung beruhte. Die auf diese Weise hergestellten Bilder, allesamt Unikate auf versilberten Kupferplatten, wurden als Daguerreotypien bezeichnet. Bereits 1835 hatte der Engländer William Fox Talbot das Negativ-Positiv-Verfahren erfunden. Auch heute werden noch manche der historischen Verfahren als Edeldruckverfahren in der Bildenden Kunst und künstlerischen Fotografie verwendet. Im Jahr 1883 erschien in der bedeutenden Leipziger Wochenzeitschrift "Illustrirte Zeitung" zum ersten Mal in einer deutschen Publikation ein gerastertes Foto in Form einer Autotypie, einer Erfindung von Georg Meisenbach von ca. 1880. 20. Jahrhundert. Fotografien konnten zunächst nur als Unikate hergestellt werden, mit der Einführung des Negativ-Positiv-Verfahrens war eine Vervielfältigung im Kontaktverfahren möglich. Die Größe des fertigen Fotos entsprach in beiden Fällen dem Aufnahmeformat, was sehr große, unhandliche Kameras erforderte. Mit dem Rollfilm und insbesondere der von Oskar Barnack bei den Leitz Werken entwickelten und 1924 eingeführten Kleinbildkamera, die den herkömmlichen 35-mm-Kinofilm verwendete, entstanden völlig neue Möglichkeiten für eine mobile, schnelle Fotografie. Obwohl, durch das kleine Format bedingt, zusätzliche Geräte zur Vergrößerung erforderlich wurden und die Bildqualität mit den großen Formaten bei Weitem nicht mithalten konnte, setzte sich das Kleinbild in den meisten Bereichen der Fotografie als Standardformat durch. Begriff. Zur Abgrenzung gegenüber den neuen fotografischen Verfahren der Digitalfotografie tauchte zu Beginn des 21. Jahrhunderts der Begriff Analogfotografie oder stattdessen auch die zu diesem Zeitpunkt bereits veraltete Schreibweise "Photographie" wieder auf. Um der Öffentlichkeit ab 1990 die seinerzeit neue Technologie der digitalen Speicherung von Bilddateien zu erklären, verglich man sie in einigen Publikationen technisch mit der bis dahin verwendeten analogen Bildspeicherung der Still-Video-Kamera. Durch Übersetzungsfehler und Fehlinterpretationen, sowie durch den bis dahin noch allgemein vorherrschenden Mangel an technischem Verständnis über die digitale Kameratechnik, bezeichneten einige Journalisten danach irrtümlich auch die bisherigen klassischen Film-basierten Kamerasysteme als Analogkameras. Der Begriff hat sich bis heute erhalten und bezeichnet nun fälschlich nicht mehr die Fotografie mittels analoger Speichertechnik in den ersten digitalen Still-Video-Kameras, sondern nur noch die Technik der Film-basierten Fotografie. Bei dieser wird aber weder digital noch analog 'gespeichert', sondern chemisch/physikalisch fixiert. Allgemeines. Eine Fotografie kann weder analog noch digital sein. Lediglich die Bildinformation kann punktuell mittels physikalischer, analog messbarer Signale (Densitometrie, Spektroskopie) bestimmt und gegebenenfalls nachträglich digitalisiert werden. Nach der Belichtung des Films liegt die Bildinformation zunächst nur latent vor. Gespeichert wird diese Information nicht in der Analogkamera sondern erst bei der Entwicklung des Films mittels chemischer Reaktion in einer dreidimensionalen Gelatineschicht (Film hat mehrere übereinander liegende Sensibilisierungsschichten). Die Bildinformation liegt danach auf dem ursprünglichen Aufnahmemedium (Diapositiv oder Negativ) unmittelbar vor. Sie ist ohne weitere Hilfsmittel als Fotografie (Unikat) in Form von entwickelten Silberhalogeniden bzw. Farbkupplern sichtbar. Gegebenenfalls kann aus solchen Fotografien in einem zweiten chemischen Prozess im Fotolabor ein Papierbild erzeugt werden, bzw. kann dies nun auch durch Einscannen und Ausdrucken erfolgen. Bei der digitalen Speicherung werden die analogen Signale aus dem Kamerasensor in einer zweiten Stufe digitalisiert und werden damit elektronisch interpretier- und weiterverarbeitbar. Die digitale Bildspeicherung mittels Analog-Digital-Wandler nach Auslesen aus dem Chip der Digitalkamera arbeitet (vereinfacht) mit einer lediglich zweidimensional erzeugten digitalen Interpretation der analogen Bildinformation und erzeugt eine beliebig oft (praktisch verlustfrei) kopierbare Datei in Form von differentiell ermittelten digitalen Absolutwerten. Diese Dateien werden unmittelbar nach der Aufnahme innerhalb der Kamera in Speicherkarten abgelegt. Mittels geeigneter Bildbearbeitungssoftware können diese Dateien danach ausgelesen, weiter verarbeitet und auf einem Monitor oder Drucker als sichtbare Fotografie ausgegeben werden. Digitalfotografie. Die erste CCD (Charge-coupled Device) Still-Video-Kamera wurde 1970 von Bell konstruiert und 1972 meldet Texas Instruments das erste Patent auf eine filmlose Kamera an, welche einen Fernsehbildschirm als Sucher verwendet. 1973 produzierte "Fairchild Imaging" das erste kommerzielle CCD mit einer Auflösung von 100 × 100 Pixel. Dieses CCD wurde 1975 in der ersten funktionstüchtigen digitalen Kamera von Kodak benutzt. Entwickelt hat sie der Erfinder Steven Sasson. Diese Kamera wog 3,6 Kilogramm, war größer als ein Toaster und benötigte noch 23 Sekunden, um ein Schwarz-Weiß-Bild mit 100×100 Pixeln Auflösung auf eine digitale Magnetbandkassette zu übertragen; um das Bild auf einem Bildschirm sichtbar zu machen, bedurfte es weiterer 23 Sekunden. 1986 stellte Canon mit der RC-701 die erste kommerziell erhältliche Still-Video-Kamera mit magnetischer Aufzeichnung der Bilddaten vor, Minolta präsentierte den Still Video Back SB-90/SB-90S für die Minolta 9000; durch Austausch der Rückwand der Kleinbild-Spiegelreflexkamera wurde aus der Minolta 9000 eine digitale Spiegelreflexkamera; gespeichert wurden die Bilddaten auf 2-Zoll-Disketten. 1987 folgten weitere Modelle der RC-Serie von Canon sowie digitale Kameras von Fujifilm (ES-1), Konica (KC-400) und Sony (MVC-A7AF). 1988 folgte Nikon mit der QV-1000C und 1990 sowie 1991 Kodak mit dem DCS "(Digital Camera System)" sowie Rollei mit dem "Digital Scan Pack". Ab Anfang der 1990er Jahre kann die Digitalfotografie im kommerziellen Bildproduktionsbereich als eingeführt betrachtet werden. Die digitale Fotografie revolutionierte die Möglichkeiten der digitalen Kunst, erleichtert insbesondere aber auch Fotomanipulationen. Die Photokina 2006 zeigt, dass die Zeit der filmbasierten Kamera endgültig vorbei ist. Im Jahr 2007 sind weltweit 91 Prozent aller verkauften Fotokameras digital, die herkömmliche Fotografie auf Filmen schrumpft auf Nischenbereiche zusammen. Im Jahr 2011 besaßen rund 45,4 Millionen Personen in Deutschland einen digitalen Fotoapparat im Haushalt und im gleichen Jahr wurden in Deutschland rund 8,57 Millionen Digitalkameras verkauft. Fotografie als Kunst. Der Kunstcharakter der Fotografie war lange Zeit umstritten; zugespitzt formuliert der Kunsttheoretiker Karl Pawek in seinem Buch "„Das optische Zeitalter“" (Olten/Freiburg i. Br. 1963, S. 58): "„Der Künstler erschafft die Wirklichkeit, der Fotograf sieht sie.“" Diese Auffassung betrachtet die Fotografie nur als ein technisches, standardisiertes Verfahren, mit dem eine Wirklichkeit auf eine objektive, quasi „natürliche“ Weise abgebildet wird, ohne das dabei gestalterische und damit künstlerische Aspekte zum Tragen kommen: "„die Erfindung eines Apparates zum Zwecke der Produktion … (perspektivischer) Bilder hat ironischerweise die Überzeugung … verstärkt, dass es sich hierbei um die natürliche Repräsentationsform handele. Offenbar ist etwas natürlich, wenn wir eine Maschine bauen können, die es für uns erledigt.“" Fotografien dienten gleichwohl aber schon bald als Unterrichtsmittel bzw. Vorlage in der Ausbildung bildender Künstler (Études d’après nature). Schon in Texten des 19. Jahrhunderts wurde aber auch bereits auf den Kunstcharakter der Fotografie hingewiesen, der mit einem ähnlichen Einsatz der Technik wie bei anderen anerkannten zeitgenössische grafische Verfahren (Aquatinta, Radierung, Lithografie, …) begründet wird. Damit wird auch die Fotografie zu einem künstlerischen Verfahren, mit dem ein Fotograf eigene Bildwirklichkeiten erschafft. Auch zahlreiche Maler des 19. Jahrhunderts, wie etwa Eugène Delacroix, erkannten dies und nutzten Fotografien als Mittel zur Bildfindung und Gestaltung, als künstlerisches Entwurfsinstrument für malerische Werke, allerdings weiterhin ohne ihr einen eigenständigen künstlerischen Wert zuzusprechen. Der Fotograf Henri Cartier-Bresson, selbst als Maler ausgebildet, wollte die Fotografie ebenfalls nicht als Kunstform, sondern als Handwerk betrachtet wissen: "„Die Fotografie ist ein Handwerk. Viele wollen daraus eine Kunst machen, aber wir sind einfach Handwerker, die ihre Arbeit gut machen müssen.“" Gleichzeitig nahm er aber für sich auch das Bildfindungskonzept des "entscheidenden Augenblickes" in Anspruch, das ursprünglich von Gotthold Ephraim Lessing dramenpoetologisch ausgearbeitet wurde. Damit bezieht er sich unmittelbar auf ein künstlerisches Verfahren zur Produktion von Kunstwerken. Cartier-Bressons Argumentation diente also einerseits der poetologischen Nobilitierung, andererseits der handwerklichen Immunisierung gegenüber einer Kritik, die die künstlerische Qualität seiner Werke anzweifeln könnte. So wurden gerade Cartier-Bressons Fotografien sehr früh in Museen und Kunstausstellungen gezeigt, so zum Beispiel in der MoMa-Retrospektive (1947) und der Louvre-Ausstellung (1955). Fotografie wurde bereits früh als Kunst betrieben (Julia Margaret Cameron, Lewis Carroll und Oscar Gustave Rejlander in den 1860ern). Der entscheidende Schritt zur Anerkennung der Fotografie als Kunstform ist den Bemühungen von Alfred Stieglitz (1864–1946) zu verdanken, der mit seinem Magazin "Camera Work" den Durchbruch vorbereitete. Erstmals trat die Fotografie in Deutschland in der Werkbund-Ausstellung 1929 in Stuttgart in beachtenswertem Umfang mit internationalen Künstlern wie Edward Weston, Imogen Cunningham und Man Ray an die Öffentlichkeit; spätestens seit den MoMA-Ausstellungen von Edward Steichen ("The Family of Man", 1955) und John Szarkowski (1960er) ist Fotografie als Kunst von einem breiten Publikum anerkannt, wobei gleichzeitig der Trend zur Gebrauchskunst begann. Im Jahr 1977 stellte die documenta 6 in Kassel erstmals als international bedeutende Ausstellung in der berühmten "Abteilung Fotografie" die Arbeiten von historischen und zeitgenössischen Fotografen aus der gesamten Geschichte der Fotografie in den vergleichenden Kontext zur zeitgenössischen Kunst im Zusammenhang mit den in diesem Jahr begangenen "„150 Jahren Fotografie“". Heute ist Fotografie als vollwertige Kunstform akzeptiert. Indikatoren dafür sind die wachsende Anzahl von Museen, Sammlungen und Forschungseinrichtungen für Fotografie, die Zunahme der Professuren für Fotografie sowie nicht zuletzt der gestiegene Wert von Fotografien in Kunstauktionen und Sammlerkreisen. Zahlreiche Gebiete haben sich entwickelt, so die Landschafts-, Akt-, Industrie-, Theaterfotografie und andere mehr, die innerhalb der Fotografie eigene Wirkungsfelder entfaltet haben. Daneben entwickelt sich die künstlerische Fotomontage zu einem der malenden Kunst gleichwertigen Kunstobjekt. Neben der steigenden Anzahl von Fotoausstellungen und deren Besucherzahlen wird die Popularität moderner Fotografie auch in den erzielten Verkaufspreisen auf Kunstauktionen sichtbar. Fünf der zehn Höchstgebote für moderne Fotografie wurden seit 2010 auf Auktionen erzielt. Die aktuell teuerste Fotografie „Phantom“ von Peter Lik wurde nach Presseberichten im Dezember 2014 für 6,5 Millionen Dollar verkauft. Neuere Diskussionen innerhalb der Foto- und Kunstwissenschaften verweisen indes auf eine zunehmende Beliebigkeit bei der Kategorisierung von Fotografie. Zunehmend werde demnach von der Kunst und ihren Institutionen absorbiert, was einst ausschließlich in die angewandten Bereiche der Fotografie gehört habe. Urheberrecht. Ein Foto kann urheberrechtlichen Schutz genießen, wenn es als Lichtbildwerk im Sinne des § 2 Abs. 1 Nr. 5 UrhG anzusehen ist. Dies erfordert eine persönliche geistige Schöpfung (§ 2 Abs. 2 UrhG), d. h. das Foto bedarf einer gewissen Gestaltungshöhe. Die Gestaltungshöhe kann durch die Auswahl des Aufnahmeorts, eines bestimmten Objektivs oder durch die Wahl von Blende und Zeit eintreten. Fehlt die Gestaltungshöhe, kann der Fotograf statt eines urheberrechtlichen Schutzes einen Leistungsschutz nach § 72 UrhG genießen. Durch § 72 UrhG sind die Vorschriften für Lichtbildwerke auch auf die Lichtbilder anwendbar. Fotografen. Fotograf im Studio (um 1850) Die Fotografie als Objekt der Kunstwissenschaft wurde geprägt durch herausragende Fotografen wie beispielsweise – ohne Wertung quer durch die Zeit- und Stilgeschichte der Fotografie – Franz Xaver Setzer, Jacob Wothly, W. H. Talbot, E. S. Curtis, August Sander, Henri Cartier-Bresson, Paul Wolff, Ansel Adams, vor dem Zweiten Weltkrieg, Marie Karoline Tschiedel, Otto Steinert, Richard Avedon, Diane Arbus und unzählige andere bis hin zu „Modernen“ wie Helmut Newton, Manfred Baumann, Walter E. Lautenbacher, Thomas Ruff, Jeff Wall, Andreas Gursky, Gerhard Vormwald und Rafael Herlich. Mit jedem dieser berühmten Fotografen ist eine bestimmte Zeit, eine bestimmte Auffassung von Fotografie, ein persönlicher Stil – möglicherweise innerhalb eines bestimmten Fachgebietes der Fotografie – und eine eigene Thematik verbunden. Einige Fotografen organisierten sich in Künstlergruppen wie 64 um Edward Weston in den USA in der ersten Hälfte des 20. Jahrhunderts oder arbeiteten zusammen in Foto- oder Bildagenturen wie Magnum Photos oder „Bilderberg – Archiv der Fotografen“, andere arbeiten dagegen bevorzugt alleine. Oft sind künstlerisch bekannte Fotografen in ihrem „Brotberuf“ eher unauffällig und durchschnittliche „Handwerker“, erst in ihren freien Arbeiten treten sie mit Ausstellungen oder durch Preisverleihungen in den Blickpunkt der Öffentlichkeit. Als Beispiel seien der Modefotograf Helmut Newton, der Werbefotograf Reinhart Wolf, der Landschafts- und Architekturfotograf Robert Häusser und der deutsche Eisenbahnfotograf Carl Bellingrodt genannt. Sie wurden mit völlig anderen Sujets als denen ihrer täglichen Arbeit bekannt, nämlich Akt-, Eisenbahn-, Food-, Architektur- sowie mit künstlerisch eigenwilliger Schwarz-Weiß-Fotografie. Die Fotografie ist jedoch keine exklusive Kunstform, sondern wird auch von zahllosen Amateurfotografen betrieben; die Amateurfotografie ist der Motor der Fotowirtschaft und Motivation für die Produktion der allermeisten Bilder, deren Zahl weltweit monatlich in die Milliarden geht. Besondere Bilder. Als „teuerstes Foto der Welt“ galt Ende 2015 ein auf fünf Millionen Dollar geschätzte Ferrotypie mit Billy the Kid beim Krocketspiel. Sie war fünf Jahre zuvor von einem Sammler bei einem Trödelmarkt zusammen mit zwei anderen für zwei Dollar erworben worden. Theorie und Praxis. Die Fotografie wird in zahlreichen Einzeltheorien diskutiert, eine einheitliche und umfassende „Theorie der Fotografie“ fehlt bisher. Die gestalterische Gratwanderung zwischen der fotografischen Technik und der gewünschten Bildaussage kennzeichnet die Foto-Praxis. Sie hat sich in den vergangenen rund sechzig Jahren differenziert und umfasst zahllose Bereiche. Fullerene. a> als Modell für das "C"60-Fullerenmolekül Als Fullerene (Einzahl: das Fulleren) werden sphärische Moleküle aus Kohlenstoffatomen (mit hoher Symmetrie, z. B. "I"h-Symmetrie für C60) bezeichnet, welche weitere Modifikationen des chemischen Elements Kohlenstoff (neben Diamant, Graphit, Lonsdaleit, Chaoit, Kohlenstoffnanoröhren, und Graphen) darstellen. Geschichte. Die erste Veröffentlichung zu Fullerenen erfolgte bereits im Jahr 1970 von dem japanischen Chemiker Eiji Ōsawa, der ihre Existenz theoretisch vorhersagte und berechnete. Diese und folgende seiner Publikationen veröffentlichte er in japanischer Sprache, weswegen erst die 15 Jahre später am 14. November 1985 in der Zeitschrift "Nature" erschienene Publikation der Forscher Robert F. Curl jr. (USA), Sir Harold W. Kroto (England) und Richard E. Smalley (USA) weltweite Aufmerksamkeit erlangte. Diese erhielten dafür 1996 den Nobelpreis für Chemie, während Osawa unberücksichtigt blieb. Vor diesen Veröffentlichungen zu Fullerenen gab es einige zu „Hohlmolekülen“, beispielsweise einen Artikel von David Jones im New Scientist 1966, nachgedruckt auch im Buch „Zittergas und schräges Wasser“ (S. 27 f.), mit Rechnungen zur Stabilität von Hohlmolekülen, wobei die damals größten bekannten Moleküle nur Dodekaeder-Form hatten, also nur 20 Atome enthielten. 2010 wurden Fullerene durch Infrarotaufnahmen des Weltraumteleskops Spitzer im planetarischen Nebel "Tc 1" nachgewiesen. Sie sind somit die größten nachgewiesenen Moleküle im extraterrestrischen Weltraum. Name. Die bekanntesten und stabilsten Vertreter der Fullerene haben die Summenformeln C60, C70, C76, C80, C82, C84, C86, C90 und C94. Das mit Abstand am besten erforschte Fulleren ist C60, das zu Ehren des Architekten Richard Buckminster Fuller "Buckminster-Fulleren" (auf englisch auch) genannt wurde, da es den von ihm konstruierten geodätischen Kuppeln ähnelt. Es besteht aus 12 Fünfecken und 20 Sechsecken, die zusammen ein Abgestumpftes Ikosaeder (Archimedischer Körper) bilden. Da ein Fußball dieselbe Struktur hat, wird es auch "Fußballmolekül" () genannt. Herstellung. Erstmals wurde das C60-Fulleren von der schon erwähnten Forschergruppe (Harold Walter Kroto, Richard Erret Smalley, Robert Floyd Curl, James R. Heath und S. C. O'Brien) 1985 hergestellt. In einer Heliumatmosphäre unter 10 bar Druck wurde eine sich drehende Graphitscheibe von einem pulsierenden Laser bestrahlt. Das Laserlicht hatte in dem Versuch eine Wellenlänge von 532 nm, mit dem innerhalb einer Bestrahlungszeit von 5 ns eine Energie von 30 bis 40 mJ übertragen wurde. Der Kohlenstoff des Graphits verband sich zu penta- und hexagonalen Ringstrukturen, die sich, nachdem sie von dem Helium aus dem Bestrahlungsraum hinausgetrieben worden waren, in einer Reaktionskammer unter anderem zu Fullerenen verbanden. Aufgrund der Ineffizienz des Verfahrens wurde 1990 von Konstantinos Fostiropoulos, Wolfgang Krätschmer und Donald Huffman ein neues Verfahren entwickelt. Graphit wird unter reduziertem Druck in Schutzgasatmosphäre (Argon) mit einer Widerstandsheizung oder im Lichtbogen in einer Heliumatmosphäre verdampft. Der entstehende Ruß enthält bis zu 15 % Fullerene. Dieses Herstellungsverfahren ermöglichte erst die Forschung an Fullerenen im großen Maßstab. Möglich ist auch die Herstellung unter ausschließlicher Verwendung rationaler Synthesen, wobei hier im letzten Schritt eine Flash-Vakuum-Pyrolyse erfolgt. Die Ausbeute bei diesem Verfahren liegt allerdings nur bei etwa einem Prozent, weshalb es deutlich teurer als die Herstellung im Lichtbogen ist. Man kann auch eine speziell präparierte Rußprobe mit Toluol im Soxhlet-Extraktor bei 110 °C extrahieren. Dabei entstehen Kohlenstoffcluster wie C2, C4 und C6, die bei Abkühlung wieder zu größeren Einheiten zusammentreten. Dabei ist C60 die am häufigsten auftretende Form, daneben findet man auch C70 und höhere Fullerene. Im Ruß, der nach Abkühlung zurückbleibt, werden die Fullerene, aber auch Kohlenstoff-Nanoröhren gefunden. Eine erste Abtrennung erfolgt mit Benzol, in dem sich Fullerene gut lösen, der restliche Ruß jedoch schlecht. Durch Chromatographie, z. B. an Aktivkohle und/oder Kieselgel, können die Fullerene aufgetrennt werden. Die Fullerene C60 und C70 kommen natürlich in Shungit und Fulgurit vor. Eigenschaften. Fullerene sind braun-schwarze Pulver von metallischem Glanz. Sie lösen sich in manchen organischen Lösungsmitteln (z. B. Toluol) unter charakteristischer Färbung. Fullerene lassen sich bei ca. 400 °C sublimieren. 60Fulleren in kristalliner Form Verschiedene Möglichkeiten zur Verwendung als Katalysator, Schmiermittel, zur Herstellung künstlicher Diamanten, in der Medizin, als Halbleiter und Supraleiter sind Gegenstand der Forschung. Aufgrund der Bindungsverhältnisse im Molekül kann es extrem viele Radikale aufnehmen und binden (Radikalfänger). Diese sollen für den Alterungsprozess der Haut mitverantwortlich sein. Diese Wirkung von Fullerenen ist jedoch nicht wissenschaftlich belegt. Eine Studie von 2012 berichtet, die orale Gabe von C60 aufgelöst in Olivenöl bei Ratten zeige keine toxische Wirkung und habe die Lebensdauer der Ratten "nahezu verdoppelt". Struktur und Stabilität. Konstruktion einer gewölbten Fläche mit Fünf- und Sechsecken Viele Fullerene bestehen aus 12 Fünfecken, die von einer unterschiedlichen Anzahl Sechsecken umgeben sind. Durch die Unmöglichkeit, eine Ebene mit regelmäßigen Fünfecken (und Sechsecken) vollständig zu bedecken, ergibt sich die sphärische Wölbung (siehe Bild rechts). Das kleinste Fulleren ist ein Dodekaeder, C20, und besteht nur aus pentagonalen Kohlenstoffringen. C60 hat etwa den Durchmesser 700 pm, also 7 · 10−10 m. Der Van-der-Waals-Durchmesser beträgt allerdings etwa 1000 pm, also einen Nanometer oder 1 · 10−9 m. Die Masse des C60 Fullerens beträgt etwa 720 u, außerdem hat C60 Ikosaeder-Symmetrie. Die Fullerene mit mehr als 60 C-Atomen besitzen im Allgemeinen geringere Symmetrie, C70 etwa ist annähernd ein Ellipsoid mit "D"5h-Symmetrie. Die Stabilität eines Fullerens ist dann am größten, wenn Fullerene sind eng verwandt mit Graphen, einer Modifikationen des Kohlenstoffs, bei der die C-Atome eine monomolekulare Schicht mit hexagonaler Struktur bilden. Reaktionen von C60. Fullerene bieten drei Ansatzpunkte für chemische Modifikationen. Durch Additionsreaktionen an die Doppelbindungen erhält man "exohedrale" Addukte. Das Ersetzen von Kohlenstoffatomen aus der Käfighülle durch z. B. Stickstoffatome zum C59N bezeichnet man als "substitutionelles" Doping. Schließlich bieten derartige Käfigstrukturen noch die Möglichkeit, Atome oder Verbindungen in den Hohlraum einzubringen. Verbindungen dieser Art bezeichnet man als endohedrale Komplexe. Zur Kennzeichnung endohedraler Komplexe hat sich in der Literatur die Schreibweise X@Cn durchgesetzt, bei der sich ein Atom oder Cluster X im Inneren eines Fullerenkäfigs aus n Kohlenstoffatomen befindet. C60 besitzt einen Hohlraum mit einem Durchmesser von 700 pm, in den Metall- und Nichtmetallatome eingelagert werden können. Ein Beispiel ist die Einlagerungsverbindung des Heliums, die mit der Notation He@C60 korrekt bezeichnet wird. He@C60 entsteht, wenn Graphit in einer Helium-Atmosphäre verdampft wird. Weiterhin kann C60 die für Aromaten aber auch Alkene typischen Reaktionen wie Hydrierung, Halogenierung, Ozonolyse und Birch-Reduktion eingehen. Jedoch findet in der Regel keine vollständige Umsetzung aller Doppelbindungen statt; nur mit Fluor kann die Zusammensetzung C60F60 erreicht werden. Weitere interessante Verbindungen sind die ionischen Alkalimetall-Fulleride: C60 kann mit Natrium und Kalium reduziert werden. Dabei entstehen Verbindungen der Zusammensetzung MC60, M2C60 und M3C60 (M = Na, K). KC60 kristallisiert in der Natriumchlorid-Struktur. In K3C60 liegt das C603−-Anion vor und bildet eine kubisch-dichteste Kugelpackung, wobei die K+-Kationen alle vorhandenen Tetraeder- und Oktaeder-Lücken in der Kristallstruktur besetzen. K3C60 ist ein Supraleiter. In der Gruppe von Anton Zeilinger an der Universität Wien (siehe Weblink) wurde die Interferenz von C60-Molekülen am Gitter beobachtet. Damit wurden die von Louis de Broglie postulierten Materiewellen auch für relativ makroskopische Objekte gezeigt. In der Arbeitsgruppe von Jochen Mattay an der Universität Bielefeld wurden weitreichende Untersuchungen über die Funktionalisierung der Fullerene zu Aza-Heterofullerenen gemacht. Natürliches Vorkommen. Fullerene kommen in der Natur nur in wirtschaftlich nicht verwertbaren Mengen vor. Mit Hilfe der Massenspektrometrie wurden Fullerene nachgewiesen im graphitartigen Shungit, im durch Blitzeinschlag entstandenen glasartigen Fulgurit, in Kratern von Meteoriteneinschlägen und im Kerzenruß. Frühmittelalter. Frühmittelalter oder Frühes Mittelalter ist eine moderne Bezeichnung für den ersten der drei großen Abschnitte des Mittelalters, bezogen auf Europa und den Mittelmeerraum für die Zeit von ca. 500 bis 1050 Dem Frühmittelalter voran geht die Spätantike (ca. 300 bis 600), die bereits eine Transformationszeit darstellt und sich teils mit dem beginnenden Frühmittelalter überschneidet. Die beiden auf das Frühmittelalter folgenden Zeitabschnitte sind das Hoch- und das Spätmittelalter. Das Frühmittelalter ist als Übergang von der Antike zum Mittelalter sowie als eigenständige Epoche von Bedeutung. Beginn und Ende werden in der historischen Forschung unterschiedlich datiert, so dass verschieden breite Übergangszeiträume betrachtet werden. Entgegen der älteren Deutung als „dunkle“ oder „rückständige“ Epoche wird das Frühmittelalter in der modernen Forschung wesentlich differenzierter betrachtet. Es ist sowohl von Kontinuitäten als auch vom Wandel im politischen, kulturellen und gesellschaftlichen Bereich gekennzeichnet, was Auswirkungen bis in die Moderne hat. So begann die fortdauernde Teilung Europas und des Mittelmeerraums in einen christlichen und einen islamischen Teil sowie des christlichen Teils in einen lateinischen und einen orthodoxen, der den Kulturkreis von Byzanz umfasste. Mehrere der im Frühmittelalter entstandenen Reiche bildeten außerdem die Grundlage für heute noch existierende Staaten. Der Beginn des Frühmittelalters ist mit der sogenannten Völkerwanderung verknüpft, in deren Verlauf das weströmische Kaisertum 476 unterging. Die römischen Verwaltungsstrukturen im Westen verschwanden nur langsam, und auf dem Boden des Westreiches entstanden neue germanisch-romanische Reiche. Das von den Merowingern im 5. Jahrhundert gegründete Frankenreich entwickelte sich zum bedeutendsten Nachfolgereich im Westen. Im Osten behauptete sich hingegen Ostrom, das im 6. Jahrhundert sogar einige verlorene Territorien im Westen zurückerobern konnte. Allerdings gingen große Teile der eroberten Gebiete bald wieder verloren. Ostrom bzw. Byzanz befand sich zudem bis ins frühe 7. Jahrhundert im Abwehrkampf gegen die persischen Sāsāniden. Im 7./8. Jahrhundert veränderte sich infolge der arabischen Eroberungen die politische Ordnung im Mittelmeerraum grundlegend. Dies bedeutete das endgültige Ende der Antike. Der ehemals byzantinisch kontrollierte Raum im Vorderen Orient und in Nordafrika wurde von den muslimischen Arabern besetzt und langsam islamisiert. Auch auf der Iberischen Halbinsel und auf Sizilien hielten sich längere Zeit islamische Herrschaften. Im 8. Jahrhundert übernahmen im Frankenreich die Karolinger die Herrschaft. Unter ihnen entwickelte sich das Frankenreich zur Hegemonialmacht im Westen. Damit verbunden war eine Verlagerung des politischen Schwerpunkts vom Mittelmeerraum nach West- und Mitteleuropa und eine neue Phase der „staatlichen Ordnung“ in Europa. Unter Karl dem Großen, der im Jahr 800 an das westliche Kaisertum anknüpfte, umfasste das Frankenreich den Kernteil der lateinischen Christenheit vom Norden Spaniens bis in den rechtsrheinischen Raum und nach Mittelitalien. Aus dem im 9. Jahrhundert zerfallenden Karolingerreich entstanden das Westfrankenreich und das Ostfrankenreich, aus denen sich später Frankreich und Deutschland entwickelten. In Ostfranken stiegen im 10. Jahrhundert die Liudolfinger auf, erlangten die westliche Kaiserwürde und legten die Grundlage für das römisch-deutsche Reich, das auch Reichsitalien umfasste. Frankreich und England entwickelten sich schließlich zu territorial geschlossenen Herrschaftsräumen. Politisch war das 10. und 11. Jahrhundert in den karolingischen Nachfolgereichen, auf der Iberischen Halbinsel und in England eine Konsolidierungsphase; es vollzog sich der Übergang ins Hochmittelalter. Im Norden begann im 8. Jahrhundert die bis ins 11. Jahrhundert andauernde Wikingerzeit. In Osteuropa entstanden ab dem 7. Jahrhundert Herrschaftsgebiete der Slawen, teils auf Stammesbasis, teils in Form von Reichsbildungen. Byzanz konnte sich nach schweren Abwehrkämpfen behaupten und überwand auch den Bilderstreit im 8./9. Jahrhundert. Im 10./11. Jahrhundert stieg Byzanz wieder zur Großmacht im östlichen Mittelmeerraum auf. Dagegen wurde das arabische Kalifat wiederholt von inneren Kämpfen geschwächt. Die seit 661 herrschende Dynastie der Umayyaden wurde 750 von den Abbasiden gestürzt. Unter ihnen erlebte das Kalifat zwar eine kulturelle Blüte, musste aber auch die Abspaltung von Teilgebieten hinnehmen. Im lateinischen Europa etablierte sich im Frühmittelalter eine neue Gesellschaftsordnung mit dem Adel und der hohen Geistlichkeit als den führenden Schichten. Eine wichtige Rolle spielte dabei die Grundherrschaft. Nach einer Phase des Niedergangs blühte die Kultur in Westeuropa im Zuge der karolingischen Bildungsreform im späten 8. und frühen 9. Jahrhundert spürbar auf, bevor es wieder zu einem zeitweiligen Rückgang kam. Bildung blieb ganz überwiegend auf die Geistlichkeit beschränkt. Davon unbeeinflusst war die kulturelle Entwicklung in Byzanz und im islamischen Raum, wo mehr vom antiken Erbe bewahrt wurde als im Westen. Wirtschaftlich begann nach einem Einbruch im 7./8. Jahrhundert wieder eine Phase des Aufschwungs, an dem die Städte Anteil hatten, wenngleich das Frühmittelalter wirtschaftlich überwiegend agrarisch geprägt war. Im religiösen Bereich wurde im Inneren Europas die Christianisierung der paganen Gebiete vorangetrieben. Dieser langsame Prozess zog sich teilweise bis ins Hochmittelalter hin, erweiterte den christlichen Kulturkreis aber erheblich nach Nord- und Osteuropa. Das zunächst politisch nicht relevante Papsttum und das Mönchtum gewannen zunehmend an Bedeutung. Die Kirche spielte im kulturellen Bereich ebenfalls eine wichtige Rolle. Mit dem Islam entstand zu Beginn des 7. Jahrhunderts eine neue große monotheistische Religion. Begriff und zeitliche Abgrenzung. Das Mittelalter wird oft mit dem Jahrtausend von etwa 500 bis etwa 1500 gleichgesetzt. Der Begriff bezieht sich in erster Linie auf Europa sowie den Mittelmeerraum als Kulturbereich und lässt sich daher kaum auf die außereuropäische Geschichte anwenden. Relevant ist der Begriff Mittelalter vor allem für den christlich-lateinisch geprägten Teil Europas, da es dort in der Spätantike zu einem politischen und kulturellen Einschnitt kam. Aber auch der byzantinisch-griechische und islamisch-arabische Raum sind für das Verständnis des Mittelalters wesentlich, da alle drei Räume in einer wechselseitigen Beziehung standen. Die Geschichtswissenschaft diskutiert noch immer darüber, wie man das Frühmittelalter zeitlich zur Spätantike und zum Hochmittelalter abgrenzt. Mit dem Ende der Antike und dem Anfang des Frühmittelalters setzte eine Zeit ein, die in der älteren Forschung oft als eher „dunkle Periode“ betrachtet wurde. Dies begann bereits mit dem Aufkommen des Begriffs „Mittelalter“ ("medium aevum") im Humanismus und festigte sich endgültig mit dem Geschichtsmodell der Aufklärung im 18. Jahrhundert, in der diese Form der Periodisierung vorherrschend wurde und Geschichtsabläufe in einem bestimmten Sinne (einer „mittleren Zeit“ zwischen Antike und Neuzeit) gedeutet wurden. Damit wurde von vornherein eine gewollte Abwertung vorgenommen. Speziell das Frühmittelalter galt im Vergleich zur Antike und der Renaissance als „finstere Epoche“. Dieses Geschichtsbild war noch bis ins 20. Jahrhundert prägend. In der modernen Forschung wird jedoch auf die Problematik solch pauschaler Urteile hingewiesen und für eine differenziertere Betrachtung plädiert. Die frühen Datierungen werden in der neueren Forschung kaum noch vertreten. Vielmehr betrachtet man nun den Zeitraum von ca. 500 bis in die Mitte des 7. Jahrhunderts als fließende Übergangszeit von der Spätantike ins frühe Mittelalter mit Überschneidungen. Dabei wird berücksichtigt, dass dieser Prozess regional sehr unterschiedlich verlief und mehrere antike Elemente erhalten blieben. Oft wird auch die Entwicklung in der Spätantike ab dem 4. Jahrhundert in die Betrachtung einbezogen, soweit in dieser Phase wichtige Voraussetzungen für die spätere Entwicklung Westeuropas geschaffen wurden. Denn die Spätantike war eine Übergangszeit, die einzelne Wesenszüge des Mittelalters vorwegnahm. Während die ältere, am Klassizismus orientierte Forschung einen Bruch zwischen der als vorbildlich geltenden Antike und dem vermeintlich „finsteren“ Mittelalter betonte („Katastrophentheorie“), werden in der heutigen Forschung daher die Aspekte der Kontinuität herausgearbeitet und stärker gewichtet. Die Vielzahl von aktuellen Publikationen zeigt den deutlichen Anstieg des Forschungsinteresses an der Übergangszeit von der Spätantike ins Frühmittelalter, wobei die Forschungsansätze stark variieren. Auch das Ende des Frühmittelalters und der Beginn des Hochmittelalters wird an keinem einzelnen Datum festgemacht. Als Eckpunkte gelten etwa der endgültige Zerfall des Karolingerreiches und die Bildung der Nachfolgereiche um und nach 900, die Adaptierung der weströmischen Reichsidee durch Kaiser Otto I. 962 (einschließlich der folgenden Entwicklung, die vom Ostfrankenreich zum später so genannten Heiligen Römischen Reich führte), das Ende des ottonischen Kaiserhauses (1024) oder allgemein die Zeit um 1050. Die Gliederungsansätze in der deutschsprachigen Forschung sind vor allem an der mitteleuropäischen Dynastiegeschichte orientiert; in der englischen, französischen und italienischen Forschung stehen andere Gesichtspunkte im Vordergrund. Dies hängt mit den unterschiedlichen Wissenschaftstraditionen zusammen. So gilt zum Beispiel in Großbritannien die Eroberung Englands durch die Normannen im Jahr 1066 als Zäsur. Aus byzantinistischer Sicht sind das Jahr 1054, mit dem das Morgenländische Schisma zwischen Rom und Konstantinopel begann, und die Eroberung Anatoliens durch türkische Nomaden ab 1071 wichtige Einschnitte. Die Datierungsansätze variieren daher in der Fachliteratur, auch in den „europäisch“ ausgerichteten Überblicksdarstellungen, zwischen ca. 900 und der Mitte des 11. Jahrhunderts. Voraussetzungen: Rom in der Spätantike. Nach der Auflösung des Weströmischen Reiches 476 war das römische Erbe im Mittelalter weiterhin von Bedeutung. Latein blieb die zentrale Verkehrs- und Gelehrtensprache, römische Ämter existierten noch lange nach dem Ende Westroms in den germanisch-romanischen Nachfolgereichen fort. Materielle Hinterlassenschaften waren allgegenwärtig und wurden teils ebenfalls weiterhin genutzt. Die Idee des römischen Imperiums als wichtiger geschichtlicher Faktor prägte zudem nachhaltig das gelehrte Denken: Da die Kirchenväter gelehrt hatten, das Römische Reich sei das letzte vor dem Weltende, folgerten viele christliche Autoren hieraus im Umkehrschluss, dass das "Imperium Romanum" weiterhin bestehe. Dieses Reich allerdings wandelte sich bereits lange vor 476 in vielerlei Hinsicht. Das Römische Reich zum Zeitpunkt des Todes Theodosius’ I. im Jahr 395 Denn das Römische Reich durchlief in der Spätantike einen Transformationsprozess, der lange mit Dekadenz gleichgesetzt wurde und erst in der modernen Forschung differenzierter analysiert worden ist. An die Reformen Kaiser Diokletians anknüpfend organisierte Konstantin der Große Verwaltung und Heer zu Beginn des 4. Jahrhunderts weitgehend neu. Noch folgenreicher war die von Konstantin betriebene religionspolitische Wende, die oft als konstantinische Wende bezeichnet wird, vor allem die nach 312 deutliche Privilegierung des Christentums. Die auf Konstantin folgenden Kaiser waren mit Ausnahme Julians alle Christen. Diese Entwicklung gipfelte am Ende des 4. Jahrhunderts in der Erhebung des Christentums zur Staatsreligion durch Theodosius I. Die paganen (heidnischen) Kulte konnten sich noch bis ins 6. Jahrhundert halten, verloren aber spätestens nach 400 zunehmend an Bedeutung und wurden nur noch von einer schrumpfenden Minderheit praktiziert. Im Gegensatz dazu gewann die christliche Reichskirche immer stärker an Einfluss, wenngleich die verschiedenen innerchristlichen Streitigkeiten (→ Erstes Konzil von Nicäa, Arianismus, Nestorianismus, Monophysitismus) teilweise erhebliche gesellschaftliche und politische Probleme verursachten. Bereits im 3. Jahrhundert entwickelte sich zuerst im Osten des Reiches das Mönchtum, das im Mittelalter von großer Bedeutung war. Im Gegensatz zu einer älteren Lehrmeinung wird die Entwicklung des römischen Staates und der römischen Gesellschaft in der Spätantike nicht mehr als ein Niedergangsprozess aufgefasst. Vielmehr zeigten Wirtschaft, Kunst, Literatur und Gesellschaft Zeichen spürbarer Vitalität, wenngleich regional unterschiedlich ausgeprägt; im Osten des Reiches, der im Inneren weitgehend stabil blieb, war die Lage insgesamt deutlich günstiger als im krisengeschüttelten Westen. In der spätantiken Kultur wurde zwar das „klassische Erbe“ gepflegt, gleichzeitig wuchs aber der christliche Einfluss. Christliche und pagane Autoren schufen bedeutende Schriften. Rechtsgeschichtlich von großer Bedeutung war das im Mittelalter so genannte "Corpus iuris civilis". Der römische Staat war seit Konstantin zentralisierter als zuvor, wobei die nun rein zivilen Prätorianerpräfekten an der Spitze der Verwaltung standen. Es kann aber nicht von einem Zwangsstaat gesprochen werden, zumal die Verwaltung mit ihren rund 30.000 Beamten für die ca. 60 Millionen Einwohner nach modernen Maßstäben personell schwach war. Im militärischen Bereich wurden häufig Germanen und andere „Barbaren“ für das Heer rekrutiert; da sie anders als früher nicht mehr in gesonderten Verbänden (Auxiliartruppen), sondern in der regulären Armee dienten, wirkte diese nun offenbar „unrömischer“ als zuvor. Eine Sonderrolle spielten dabei die "foederati", reichsfremde Krieger, die als Verbündete galten und nur indirekt römischem Befehl unterstanden. Außenpolitisch verschlechterte sich die Lage des spätantiken Imperiums ab etwa 400. Bereits zuvor hatten Germanen an Rhein und Donau sowie vor allem das neupersische Sāsānidenreich, Roms großer Rivale im Osten, für beständigen Druck gesorgt, doch blieb die Lage bis ins späte 4. Jahrhundert relativ stabil; oft konnten die Römer zudem selbst die Initiative übernehmen. Nach der faktischen Teilung des Imperiums 395 wurden beide Kaiserhöfe aber wiederholt in Gebietsstreitigkeiten und in Konflikte über den Vorrang im Gesamtreich verwickelt. Das ökonomisch stärkere und bevölkerungsreichere Ostreich konnte die externen und internen Probleme dabei besser lösen, war ab dem 6. Jahrhundert allerdings in einen anhaltenden Konflikt mit den Sāsāniden verwickelt (→ Römisch-Persische Kriege). Westrom hingegen erlebte innere Wirren und eine Kette von Bürgerkriegen. Dort gewannen zudem die Heermeister zunehmend an politischem Einfluss und kontrollierten am Ende faktisch die Kaiser. Von der Antike ins Mittelalter: die Völkerwanderung. Die so genannte Völkerwanderung (ca. 375 bis 568) bildet ein Bindeglied zwischen der Spätantike und dem Beginn des europäischen Frühmittelalters. Die zunehmend schwach verteidigten weströmischen Grenzen wurden nun verstärkt von Plünderern überschritten, während im Inneren des Reiches Kriegerverbände umherzogen. "Foederati" (aufgrund von Verträgen in römischen Diensten stehende reichsfremde Kriegergruppen mit eigenen Befehlshabern) wurden insbesondere in die internen Kämpfe verwickelt, die in Westrom jahrzehntelang andauerten. Teils im Zusammenspiel und durch Verträge ("foedera") mit den römischen Behörden, teils mit militärischer Gewalt gewannen ihre Anführer schließlich die Kontrolle über immer größere Teile des Imperiums. In diesem Zusammenhang kam es zu einer beträchtlichen Destabilisierung des Weströmischen Reiches. Der Auflösungsprozess, verbunden mit dem sukzessiven Verlust der Westprovinzen (vor allem "Africa" und Gallien), schritt bis zur Mitte des 5. Jahrhunderts rasch voran und endete im Jahr 476 mit der Absetzung des letzten Kaisers in Italien, während sich Ostrom behaupten konnte. Im Jahr 376 baten Goten an der Donau auf der Flucht vor den Hunnen um Aufnahme im Osten des Imperiums. Bald auftretende Spannungen führten jedoch 378 zur Schlacht von Adrianopel, in der Kaiser Valens und ein Großteil seines Heeres fielen. In den folgenden Jahrzehnten agierten diese gotischen Gruppen im Imperium manchmal als "foederati" und manchmal als Gegner Roms. Unter ihrem Anführer Alarich I. forderten gotische "foederati" vom Westkaiser Flavius Honorius zunehmend verzweifelt Versorgung ("annona militaris"); als es zu keiner Einigung kam, plünderten sie 410 Rom, das zwar längst nicht mehr Hauptstadt, aber doch ein wichtiges Symbol des Imperiums war. In den Jahren 416/18 wurden diese Goten schließlich in Aquitanien angesiedelt. Sie agierten in der folgenden Zeit als römische "foederati" und kämpften etwa unter dem mächtigen weströmischen Heermeister Flavius Aëtius 451 gegen die Hunnen. Der westgotische "rex" Eurich (II.) brach bald nach seinem Regierungsantritt 466 den Vertrag mit dem geschwächten Westreich und betrieb eine expansive Politik in Gallien und Hispanien. Aus diesen Eroberungen entstand das neue Westgotenreich, das bis zum Jahr 507 weite Teile Hispaniens und den Südwesten Galliens umfasste. Für Westrom wurde die Lage durch den Rheinübergang von 406 und die dadurch ausgelöste Entwicklung immer bedrohlicher: Zum Jahreswechsel 406/07 überschritten Vandalen, Sueben und Alanen den Rhein, vermutlich im Raum Mogontiacum (Mainz). Die römische Rheinverteidigung brach vorübergehend zusammen und „barbarische Gruppen“ fielen plündernd in Gallien ein, bevor sie nach Hispanien weiterzogen. Die untereinander verfeindeten Römer warfen einander dabei vor, die fremden Krieger ins Land gerufen zu haben. An den Rhein stießen außerdem die Burgunden vor, die sich kurzzeitig in die römische Politik einmischten, bevor sie am mittleren Rhein ein bis 436 bestehendes Reich errichteten. Anschließend wurden die Burgunden in das heutige Savoyen umgesiedelt, wo sie ein neues Reich errichteten, das in den 530er Jahren von den Franken erobert wurde. Eine wichtige Rolle im Rahmen der Völkerwanderung und im weiteren Verlauf des Frühmittelalters kommt dem Frankenreich zu. Franken fungierten zu Beginn des 5. Jahrhunderts als römische "foederati" im Nordosten Galliens. Sie profitierten am meisten vom Zusammenbruch der römischen Herrschaftsordnung in Gallien, wo sie Ende des 5. und Anfang des 6. Jahrhunderts ein neues Reich errichteten (siehe unten). Der Kriegerverband der Vandalen setzte unter dem "rex" Geiserich im Jahr 429 von Südspanien nach Nordafrika über, wo sie bis 439 ganz "Africa", die reichste weströmische Provinz, eroberten. Die Vandalen wurden mit einer neuen Flotte zu einer ernsten Bedrohung für die weströmische Regierung, die seit Ende 402 statt in Mailand in Ravenna residierte. Geiserich griff in der Folgezeit immer wieder in die weströmischen Machtkämpfe ein. Im Jahr 455 plünderte er Rom, 468 wehrte er eine gesamtrömische Flottenexpedition ab. Im Inneren erwiesen sich die Vandalen dabei nicht als Barbaren, sondern durchaus als Anhänger der römischen Kultur, die weiter in "Africa" gepflegt wurde. Allerdings kam es zwischen den arianischen Vandalen und den katholischen Romanen zu erheblichen religiösen Spannungen, die nicht überwunden wurden, bis in den Jahren 533/534 oströmische Truppen das Vandalenreich eroberten. In Britannien ging währenddessen die römische Ordnung bereits in der ersten Hälfte des 5. Jahrhunderts unter. Um 440 rebellierten hier Sachsen, später auch Jüten und Angeln, die als "foederati" gedient hatten, und gründeten eigene Kleinreiche, nachdem Westrom die Insel praktisch sich selbst überlassen hatte. Nur vereinzelt gelang es römisch-britannischen Truppen, den Invasoren Widerstand zu leisten, doch ist über die Details wenig bekannt (siehe unten). Die (später so genannten) Ostgoten waren nach 375 unter hunnische Herrschaft geraten. Unter Attila erreichte das Hunnenreich an der Donau die größte Machtentfaltung: Sowohl West- wie auch Ostrom bemühten sich um möglichst gute Beziehungen (siehe etwa den ausführlichen Bericht des Priskos über eine oströmische Gesandtschaft 449). Um 450 kam es dann zum Konflikt mit Flavius Aëtius. Nach gescheiterten Vorstößen nach Gallien (451) und Italien (452) zerfiel nach Attilas Tod im Jahr 453 und der Schlacht am Nedao im darauffolgenden Jahr (454) das nur sehr locker organisierte Hunnenreich. Die Ostgoten profitierten davon, nachdem sie in der Schlacht an der Bolia (469) gegen Gepiden und Skiren siegreich geblieben waren. Zunächst in Pannonien, dann in Thrakien lebten sie als römische "foederati". Währenddessen war das immer weiter schrumpfende weströmische Reich, d. h. das vom Hof in Ravenna kontrollierte Gebiet, schließlich auf Italien beschränkt, nachdem Westrom "Africa", Hispanien und Gallien faktisch an die verschiedenen expandierenden Kriegergruppen verloren hatte. Damit waren ganz erhebliche steuerliche Einbußen verbunden, was sich auf die militärischen Ressourcen auswirkte. Des Weiteren hatten in den letzten Jahrzehnten Westroms nur „Schattenkaiser“ regiert, während die wahre Macht bei den Heermeistern lag und die Armee von den Kaisern nicht mehr effektiv kontrolliert werden konnte. Das nun fast vollkommen „barbarisierte“ weströmische Heer hatte im Jahr 476 Land von der weströmischen Regierung gefordert; als die Forderung nicht erfüllt wurde, meuterten die Truppen. Ihr Anführer Odoaker setzte den letzten römischen Kaiser in Italien, Romulus Augustulus, im August 476 ab. Damit blieb nur noch (wenngleich sich der im Jahr 475 aus Italien vertriebene Kaiser Julius Nepos bis 480 in Dalmatien hielt) der Kaiser in Konstantinopel als Oberhaupt des auf das Ostreich reduzierten Imperiums übrig. Der oströmische Kaiser Zenon schlug im Jahr 488 dem Ostgotenkönig Theoderich, der ihm immer gefährlicher zu werden erschien, eine Invasion Italiens vor. Ein Jahr später (489) fiel Theoderich in Italien ein und besiegte und tötete Odoaker im Jahr 493. Italien prosperierte unter der Herrschaft Theoderichs, doch begann nach seinem Tod im Jahr 526 eine Krisenzeit. Ostrom nutzte dynastische Kämpfe aus, um im Gotenkrieg (ab 535) das ehemalige Kernland des Imperiums zu erobern. Dies gelang bis zum Jahr 552, doch war Italien anschließend verwüstet. Der Einfall der Langobarden im Jahr 568, die von Pannonien aus aufgebrochen waren und bald schon große Teile Ober- und Mittelitaliens beherrschten, setzte hierbei nur den Schlusspunkt. Im Gegensatz zur älteren Forschung wird heute auf die Problematik des Begriffs "Völkerwanderung" hingewiesen. Nicht ganze Völker „wanderten“ demnach, es waren vielmehr unterschiedlich große, heterogen zusammengesetzte Kriegergruppen, die erst im Laufe der Zeit zu Verbänden zusammenwuchsen, die eine eigene Identität beanspruchten. Sie alle einte das Bemühen, am Wohlstand des Imperiums, das sie keineswegs zerstören oder erobern wollten, teilzuhaben. Lange Zeit versuchten sie dieses Ziel zu erreichen, indem sie in die Dienste der Römer traten und für diese gegen äußere und innere Feinde kämpften. In diesem Kontext spielt der Prozess der Ethnogenese eine wichtige Rolle, also der Entstehung neuer Gruppen, die fiktiv Abstammungsgemeinschaften waren, deren Einheit aber in Wirklichkeit politisch und sozial begründet war. Allerdings wurde dieser einflussreiche Forschungsansatz (den unter anderem Herwig Wolfram und mit Modifizierungen Walter Pohl vertreten) in den letzten Jahren durch mehrere anglo-amerikanische Forscher teilweise in Frage gestellt. Die Völkerwanderung war zudem viel mehr als nur ein Abwehrkampf des Römischen Reiches. Sie war vor allem eine Transformation der bisherigen römischen Mittelmeerwelt hin zu einer germanisch-romanischen Welt im Westen und einer griechisch-römischen Welt im Osten. Die teils dramatischen Veränderungen am Ende der Spätantike dürfen hierbei nicht übersehen, aber auch nicht überschätzt werden, denn es lassen sich ebenso zahlreiche Zeichen der Kontinuität ausmachen. Nach und nach verschwanden im Westen immer größere Teile der gewohnten römischen Institutionen, zunächst (bereits im 5. Jahrhundert) die Armee, dann die römische Verwaltungsordnung. Römische Bildung und kulturelle Traditionen befanden sich ebenfalls im Niedergang, aber keineswegs überall (wenn man vom Spezialfall Britannien absieht, wo es recht rasch zu einem Zusammenbruch kam): Vor allem in Nordafrika, im Westgotenreich sowie in Italien und teilweise in Gallien florierte die spätantike Kultur vielmehr noch bis weit ins 6. Jahrhundert hinein. Eine wichtige Vermittlerrolle kam in diesem Zusammenhang der Kirche zu, in deren Klöstern antike Texte aufbewahrt und später kopiert wurden, bereits beginnend mit Cassiodor. Die Bücherverluste in der Spätantike führten allerdings dazu, dass zahlreiche antike Werke nur anhand von Zitaten und Zusammenfassungen in Schriften der Kirchenväter rezipiert werden konnten. Ebenso funktionierte die römisch ausgebildete Verwaltung in diesen Gebieten noch längere Zeit. Die ohnehin verschwindend kleine Minderheit der Germanen glich sich außerdem der einheimischen romanischen Bevölkerung mit deren überlegener römischer Zivilisation oft an, war aber religiös von den Romanen weitgehend abgesondert. Die Germanen waren, wenn sie nicht zuvor in paganer religiöser Tradition standen, mehrheitlich arianische Christen, die Bevölkerung hingegen römisch-katholisch, was oft zu Spannungen führte, vor allem im Vandalenreich sowie teils im ostgotischen und langobardischen Italien. Die Franken hingegen vermieden mit der Annahme des katholischen Bekenntnisses unter Chlodwig solche Probleme. Die Mittelmeerwelt im Wandel: Von Justinian bis zum Einbruch des Islam. Justinian, Mosaikdetail aus der Kirche San Vitale in Ravenna Im 6. Jahrhundert wurden die Mittelmeerwelt und der Vordere Orient von zwei rivalisierenden Großmächten dominiert: dem Oströmischen Reich und dem neupersischen Sāsānidenreich. Der (ost-)römische Kaiser Justinian (reg. 527–565) betonte im Inneren die christlich-sakrale Komponente seines Kaisertums, nach außen strebte er seit den 530er Jahren die Rückgewinnung von Territorien im Westen an. Wenngleich die Zeit Justinians den Charakter einer Übergangszeit hat, orientierte sich der Kaiser politisch weiterhin an der römischen Tradition. Er kümmerte sich intensiv um die Religionspolitik und ging gegen die Reste der paganen Kulte und gegen häretische christliche Gruppen vor. Eine Lösung der teils schwierigen theologischen Probleme (siehe unter Monophysitismus) und die Durchsetzung eines einheitlichen christlichen Glaubensbekenntnisses für das gesamte Reich gelang ihm allerdings nicht. Außerdem betrieb er eine energische Bau- und Rechtspolitik (siehe "Corpus iuris civilis"). Außenpolitisch ging das Imperium in seiner Regierungszeit im Westen in die Offensive und konnte auf den ersten Blick beeindruckende Erfolge vorweisen. Dank fähiger Befehlshaber wie Belisar gelang 533/34 die rasche Eroberung des Vandalenreichs in Nordafrika. 535 bis 552 wurde nach harten Kämpfen im Gotenkrieg das Ostgotenreich in Italien erobert. Sogar in Südspanien fasste Ostrom seit 552 vorläufig wieder Fuß. Damit erstreckte sich das "Imperium Romanum" wieder vom Atlantik bis nach Mesopotamien. Allerdings beanspruchte diese Ausweitung alle Mittel des Reiches, das im Inneren durch Naturkatastrophen und Seuchen (→ Justinianische Pest) geschwächt wurde. Im Osten musste Justinian zudem gegen die Sāsāniden Rückschläge hinnehmen und konnte erst nach wechselhaften und verlustreichen Kämpfen 562 mit dem bedeutenden Perserkönig Chosrau I. Frieden schließen. Als Justinian 565 starb, war das Imperium von den langen Kriegen im Westen und im Osten geschwächt, aber zugleich unzweifelhaft die bedeutendste Macht im Mittelmeerraum. Nachdem es in der Regierungszeit Justins II. 572 wieder zum Krieg mit Persien gekommen war, konnte Kaiser Maurikios (reg. 582–602) von einem Konflikt um die persische Thronfolge profitieren und mit König Chosrau II. 591 Frieden schließen. Die Ermordung des Kaisers im Jahr 602 nahm Chosrau II. aber zum Vorwand, um in römisches Gebiet einzufallen. Von 603 bis 628 tobte daher der „letzte große Krieg der Antike“. Persische Truppen eroberten bis 619 Syrien und Ägypten, die Kornkammer des Reiches, und belagerten 626 zusammen mit den Awaren (die Ende des 6. Jahrhunderts im Balkanraum ein Reich errichtet hatten) sogar Konstantinopel. Das Reich befand sich in einer äußerst schwierigen Situation, eine vollständige Vernichtung schien nicht ausgeschlossen. Der Gegenschlag des Herakleios (reg. 610–641) in den Jahren 622 bis 628 rettete aber das Reich und zwang die Perser schließlich zum Rückzug. 628 bat Persien angesichte innerer Wirren um Frieden, und Herakleios, der als einer der bedeutendsten Kaiser der oströmisch-byzantinischen Geschichte gilt, stand auf dem Höhepunkt seines Ansehens; sogar aus dem Frankenreich erreichten ihn Glückwünsche zu seinem großen Sieg. Doch das Imperium war von den schweren Kampfhandlungen über die vergangenen Jahrzehnte extrem geschwächt. Im Inneren schloss Herakleios die Gräzisierung des Staates ab, doch es gelang ihm weder, die religiösen Streitigkeiten zu beenden (→ Monotheletismus) noch das Reich wieder zu konsolidieren. Die islamische Expansion (eingezeichnet sind die heutigen Staatsgrenzen) Als in den 630er Jahren die islamische Expansion begann, waren Ostrom und Persien nach den langen Kriegen nicht mehr in der Lage, effektiv Widerstand zu leisten, was ein wichtiger Grund für die schnellen arabischen Erfolge war. Die Wüstengrenze war für Ostrom und Persien ohnehin kaum zu kontrollieren (man hatte hier in Gestalt der Lachmiden und Ghassaniden vielmehr auf arabische Verbündete gesetzt) und größere Truppenverbände waren dort nach dem Perserkrieg nicht stationiert; hinzu kam die Mobilität der muslimischen Araber. Das von Bürgerkriegen zusätzlich geschwächte Sāsānidenreich erlitt zwei schwere Niederlagen gegen die Araber (638 in der Schlacht von Kadesia und 642 in der Schlacht bei Nehawend). Zwar leisteten die Perser Widerstand und konnten zu Beginn eine große Schlacht gewinnen sowie einige erfolgreiche kleinere Gegenoffensiven führen, doch schließlich brach ihr Reich 651 zusammen. Persien konnte seine kulturelle Identität unter der islamischen Herrschaft aber weitgehend bewahren und wurde relativ langsam islamisiert, ähnlich wie die christlichen Gebiete in Ägypten und Syrien. Im Westen unterlagen oströmische Truppen 636 in der Schlacht am Jarmuk den Arabern und mussten Syrien vollständig räumen, nachdem Damaskus 635 kapituliert hatte. Syrien diente von nun an als Ausgangsbasis für arabische Angriffe auf Kleinasien, das die Oströmer jedoch halten konnten und das nun zum Kernland des Imperiums wurde. Jerusalem ergab sich 638, 640/42 fiel Ägypten. Bald darauf nahmen die Araber Armenien, Zypern (649) und Rhodos (654) ein. Sie stießen die nordafrikanische Küste entlang nach Westen vor und besetzten um 670 das heutige Tunesien, Karthago konnte noch bis 698 gehalten werden. 711–725 folgte die Eroberung des Westgotenreichs in Hispanien und Südwestgallien. Vorstöße ins Frankenreich blieben aber erfolglos. 655 erlitt die oströmische Flotte unter Konstans II. in der Schlacht von Phoinix eine schwere Niederlage gegen die Araber, die nun als Seemacht auftraten und damit den Handel und die maritime Vorherrschaft von Byzanz bedrohten. Den Byzantinern gelangen allerdings auch einige wichtige Erfolge: Bei der Verteidigung von Konstantinopel 674 bis 678 vernichteten die Byzantiner die arabische Flotte; ob es in diesem Zusammenhang zu einer regelrechten Belagerung kam, ist in der neueren Forschung allerdings umstritten. 677/678 konnten die Byzantiner trotz beschränkter Ressourcen zu einer Offensive übergehen und vorübergehend sogar Truppen in Syrien landen. Ostrom konnte den Verlust der orientalischen Provinzen dennoch nicht verhindern oder rückgängig machen und wurde in die Defensive gedrängt. Die antike Einheit des Mittelmeerraums war mit den arabischen Eroberungen beendet. 100 Jahre nach Justinians Tod hatte das Römische Reich nun mehr als die Hälfte seines Territoriums und seiner Bevölkerung verloren, während an der Ost- und Südküste des Mittelmeers mit dem arabischen Kalifat ein neues Reich mit einem neuen Glauben entstanden war, gegen das Byzanz ums Überleben kämpfen musste. Das Oströmische Reich, das um 700 schließlich auf Kleinasien, Griechenland, Konstantinopel samt Umland und einige Gebiete in Italien beschränkt war, wandelte sich nun endgültig zum griechischen Byzanz des Mittelalters. Die Zeit von der Mitte des 7. bis ins 8. Jahrhundert war weiterhin von schweren Abwehrkämpfen geprägt, in deren Verlauf Byzanz um seine Existenz kämpfen musste. Die schließlich erfolgreiche Abwehr verhinderte ein weiteres Vordringen der Araber nach Südosteuropa. Die Dynastie des Herakleios regierte noch bis 711. Unter Kaiser Leo III., der 717 an die Macht kam, ging Byzanz gegen die Araber wieder begrenzt in die Offensive (siehe unten). Für die Geschichte West- und Mitteleuropas war entscheidend, dass die Kaiser ab dem 7. Jahrhundert faktisch gezwungen waren, den einstigen Westen des "Imperium Romanum" weitestgehend sich selbst zu überlassen: Anders als noch im 6. Jahrhundert war mit militärischen Interventionen nun nicht mehr zu rechnen. Konstantinopel rückte in die Ferne. Das Frankenreich der Merowinger. Siegelring mit dem Bildnis Childerichs I. Das im späten 5. Jahrhundert entstandene Frankenreich sollte sich zum bedeutendsten der germanisch-romanischen Nachfolgereiche im Westen entwickeln. Der Aufstieg der Franken von einer Regionalmacht im Nordosten Galliens zu einem Großreich begann unter der Führung von Königen aus dem Geschlecht der Merowinger. Der in Tournai residierende salfränkische König ("rex") Childerich I. etablierte einen eigenen Machtbereich in Nordgallien. Es wird oft angenommen, dass er mit dem gallo-römischen Feldherrn Aegidius kooperierte, der sich 462/463 gegen die weströmische Regierung erhob, doch sind die Details unklar. Aegidius selbst errichtete im Raum von Soissons einen unabhängigen Herrschaftsbereich, nach seinem Tod folgte ihm nach kurzer Zeit sein Sohn Syagrius. Childerichs Sohn Chlodwig vernichtete die anderen fränkischen Kleinreiche (unter anderem Ragnachars und Chararichs) und wurde damit zum Gründer des Frankenreichs. 486/487 eroberte Chlodwig das Reich des Syagrius. 507 wurden die Westgoten in der Schlacht von Vouillé besiegt und faktisch aus Gallien verdrängt. Gegen die Alamannen ging Chlodwig ebenfalls vor, während es mit den Burgunden zu einer vorläufigen Annäherung kam. Der ursprünglich pagane Chlodwig trat zu einem nicht näher bestimmten Zeitpunkt (wahrscheinlich eher gegen Ende seiner Herrschaft) zum Christentum über. Entscheidend war, dass er sich für das katholische Bekenntnis entschied und somit Probleme vermied, die sich bisweilen in den anderen germanisch-romanischen Reichen zwischen den Eroberern und der römischen Bevölkerung ergaben. Das geschickte und gleichzeitig skrupellose Vorgehen Chlodwigs sicherte den Franken eine beherrschende Stellung in Gallien. a> König Theudeberts nach oströmischem Vorbild Das Frankenreich wurde nach dem Tod Chlodwigs im Jahr 511 unter seinen vier Söhnen Theuderich, Chlodomer, Childebert und Chlotar aufgeteilt, wobei jeder einen Anteil an dem fränkischen Stammland in Nordgallien und den eroberten Gebieten im Süden erhielt. Die verbreitete Praxis unter den Franken, den Herrschaftsbesitz nach dem Tod eines Königs unter den Söhnen zu teilen, sorgte für eine Zersplitterung der königlichen Zentralgewalt. Thronstreitigkeiten waren nicht selten, zumal die meisten Merowinger kein hohes Alter erreichten und oft Kinder von mehreren Frauen hatten, was die Nachfolgeregelung erschwerte. Für Verwaltungsaufgaben hatte bereits Chlodwig die gallo-römische Oberschicht und Bischöfe (wie Gregor von Tours, dessen Geschichtswerk die wichtigste Quelle zur fränkischen Geschichte des 6. Jahrhunderts ist) herangezogen. Er hatte außerdem das System der vor allem in Südgallien verbreiteten römischen "civitates" genutzt, wo der gallo-römische senatorische Adel noch längere Zeit nachweisbar ist. Die Verwaltung orientierte sich zunächst noch weitgehend an spätrömischen Institutionen, bevor diese verschwanden und zunehmend Grafen ("comites") und Herzöge ("duces") an Einfluss gewannen. Die fränkische Expansion wurde weiter vorangetrieben: 531/534 wurden die Thüringer und 534 die Burgunden unterworfen. Den Gotenkrieg in Italien nutzten die Franken, um Teile des ostgotischen Territoriums zu besetzen. Theuderichs Sohn Theudebert I. sah seine Stellung im Osten des Merowingerreiches als so gefestigt an, dass er angeblich sogar mit dem Gedanken gespielt haben soll, Kaiser Justinian herauszufordern. Gleichzeitig flammten aber auch im Inneren immer wieder Kämpfe zwischen den einzelnen merowingischen Teilherrschern auf. Nach dem Tod Chlothars I. 561 entbrannte ein merowingischer Bruderkrieg, der erst 613 mit der Wiedervereinigung des Gesamtreiches unter Chlothar II. endete. Dagobert I., der 623 die Herrschaft im Teilreich Austrasien antrat und von 629 bis 639 über das Gesamtreich herrschte, gilt allgemein als der letzte starke Merowingerkönig, wenngleich auch er dem mächtigen Adel einige Zugeständnisse machen musste. Nach der gängigen Lehrmeinung verfiel nach Dagoberts Tod die königliche Macht immer mehr und die wahre Macht lag in den Händen der Hausmeier. Diese Einschätzung orientiert sich an der Sichtweise der karolingerzeitlichen fränkischen Geschichtsschreibung, etwa den Reichsannalen und Einhards "Vita Karoli Magni". In der Darstellung dieser Quellen erscheint die Übertragung der fränkischen Königswürde auf die Karolinger im Jahr 751 als notwendige Konsequenz der Machtlosigkeit der letzten Merowinger, die sich in deren eher lächerlichem Erscheinungsbild gespiegelt habe. Die negative Einstellung der karolingerzeitlichen Autoren zu den späten Merowingern erschwert allerdings eine unvoreingenommene Beurteilung. In der neueren Forschung wird bisweilen bezweifelt, dass die letzten Merowingerkönige wirklich so machtlos waren, wie es die karolingische Geschichtsschreibung unterstellt. Sicher ist, dass die Karolinger nach dem gescheiterten Versuch Grimoalds des Älteren, schon im 7. Jahrhundert einen Dynastiewechsel herbeizuführen, lange davor zurückschreckten, die Merowinger zu entmachten, sei es aufgrund sakraler Königsvorstellungen oder aufgrund eines verwurzelten dynastischen Denkens. Nach der Schlacht bei Tertry 687 begann der endgültige Aufstieg der Karolinger, deren Bezeichnung auf den mächtigen fränkischen Hausmeier Karl Martell zurückgeht. Sie kontrollierten fortan die Regierungsgeschäfte im Reich und errangen schließlich 751 die fränkische Königswürde, als der letzte Merowingerkönig Childerich III. abgesetzt wurde. Vom Karolingerreich zu West- und Ostfranken. 751 wurde in Absprache mit Papst Zacharias Pippin der Jüngere als erster Karolinger zum fränkischen König erhoben (reg. 751–768). Die Salbung Pippins durch den Papst im Jahr 754 diente offenbar der zusätzlichen Legitimation und legte das Fundament für die Rolle der fränkischen Könige als neue Schutzherren des Papstes in Rom. Die frühen karolingischen Könige erwiesen sich als fähige Herrscher. Pippin intervenierte in Italien, wo er gegen die Langobarden vorging, führte Feldzüge in Aquitanien und sicherte die Pyrenäengrenze. Er genoss bei seinem Tod im Jahr 768 weit über die Grenzen des Frankenreichs hinaus Ansehen. Das Reich wurde unter seinen beiden Söhnen Karlmann und Karl aufgeteilt. Zwischen den Brüdern bestanden offenbar starke Spannungen; nach dem unerwarteten Tod Karlmanns Ende 771 ignorierte Karl die Erbansprüche der Söhne Karlmanns (die später vermutlich auf Karls Befehl beseitigt wurden) und besetzte dessen Reichsteil. a> mit dem Profilbild Karls des Großen Karl, später "Carolus Magnus" („Karl der Große“) genannt, gilt als der bedeutendste Karolinger und als einer der bedeutendsten mittelalterlichen Herrscher (reg. 768–814). Nach Sicherung der Herrschaft im Inneren begann Karl ab dem Sommer 772 Feldzüge gegen die Sachsen. Die daraus resultierenden Sachsenkriege dauerten mit Unterbrechungen bis 804 und wurden mit äußerster Brutalität geführt. Ziel war nicht nur die Eroberung des Landes, sondern auch die gewaltsame Christianisierung der bis dahin paganen Sachsen. Militärisch spielte die fränkische Panzerreiterei eine wichtige Rolle. Zeitgleich dazu intervenierte Karl auf päpstlichen Wunsch hin 774 in Italien und eroberte das Langobardenreich, das er mit dem Frankenreich vereinigte. Weniger erfolgreich verlief der Spanienfeldzug im Jahr 778 gegen die Mauren, wenngleich später zumindest die Spanische Mark errichtet werden konnte. Karls diplomatische Kontakte reichten bis zum Kalifen Hārūn ar-Raschīd. Im Osten seines Reiches beendete er 788 die Selbstständigkeit des Stammesherzogtums Bayern. Es kam außerdem zu Kämpfen mit den Dänen und mehreren Slawenstämmen sowie zum letzten Endes erfolgreichen Reichskrieg gegen die Awaren (791–796). Karl hatte in jahrzehntelangen Kämpfen die Grenzen des Reiches erheblich erweitert und das Frankenreich als neue Großmacht neben Byzanz und dem Kalifat etabliert. Das Karolingerreich umschloss nun weite Teile der lateinischen Christenheit und war das bedeutendste staatliche Gebilde im Westen seit dem Fall Westroms. Karl machte Aachen zu seiner Hauptresidenz. Zur effizienteren Organisation der Herrschaftsordnung nutzte er "comites" (sogenannte „Grafschaftsverfassung“) und die von ihm geförderte Kirche. Die sogenannte karolingische Renaissance (die besser als „karolingische Bildungsreform“ bezeichnet werden sollte) sorgte für eine kulturelle Neubelebung des christlichen Westeuropas, nachdem es ab dem 7. Jahrhundert zu einem Bildungsverfall im Frankenreich gekommen war. Den Höhepunkt von Karls Regierungszeit stellte seine Kaiserkrönung zu Weihnachten des Jahres 800 durch Papst Leo III. in Rom dar. Die Details dieses Vorgangs und seine Vorgeschichte sind in der Forschung umstritten. Fest steht, dass damit aus Sicht der Zeitgenossen das Kaisertum erneuert worden war, was allerdings zu Konflikten mit Byzanz führte (Zweikaiserproblem). Für die Geschichte des Mittelalters ist dieses Ereignis von großer Bedeutung, da es den Grundstein für das westliche mittelalterliche Kaisertum legte. Karl hinterließ bei den folgenden Generationen einen bleibenden Eindruck. Im anonymen Karlsepos wird der Kaiser sogar als "pater Europae", als Vater Europas, gepriesen. Er galt im Mittelalter als Idealkaiser. Damit begann bereits die Mythenbildung um Karl, was bis in die Neuzeit unterschiedliche Geschichtsbilder zur Folge hatte. Das Karolingerreich zur Zeit Karls des Großen und die späteren Teilreiche Nach Karls Tod im Januar 814 folgte ihm sein Sohn Ludwig der Fromme nach, den Karl bereits 813 zum Mitkaiser gekrönt hatte. Die ersten Regierungsjahre Ludwigs waren vor allem von seinem Reformwillen im kirchlichen und weltlichen Bereich geprägt. Programmatisch verkündete er die "Renovatio imperii Francorum", die Erneuerung des fränkischen Reiches. Ludwig bestimmte 817, dass nach seinem Tod eine Reichsteilung erfolgen sollte. Sein ältester Sohn Lothar sollte jedoch eine Vorrangstellung vor seinen anderen Söhnen Ludwig (in Bayern) und Pippin (in Aquitanien) erhalten. Eine schwierige Lage entstand jedoch, als Kaiser Ludwig 829 auch Karl, seinem Sohn aus seiner zweiten Ehe mit der am Hof einflussreichen Judith, einen Anteil am Erbe zusicherte. Bereits zuvor hatte es Gegner der neuen Reichsordnung gegeben; sie leisteten dem Kaiser nun offen Widerstand. Mit der Erhebung der drei ältesten Söhne gegen Ludwig den Frommen im Jahr 830 begann die Krisenzeit des Karolingerreiches, die schließlich zu dessen Auflösung führte. Die Rebellion richtete sich zunächst vor allem gegen Judith und ihre Berater, doch führte sie 833 zur Gefangennahme des Kaisers auf dem „Lügenfeld bei Colmar“, wobei das Heer Ludwigs zum Gegner überlief. Anschließend musste Ludwig einer demütigenden Bußhandlung zustimmen. Damit war aber der Bogen überspannt und die drei älteren Söhne Ludwigs zerstritten sich wieder. 834 wandten sich mehrere Anhänger von Lothar ab, der sich nach Italien zurückzog. Während das Reich von außen zunehmend von Wikingern, Slawen und Arabern bedrängt wurde, blieben die Spannungen im Inneren bestehen. Ludwig war bestrebt, Karls Erbteil zu sichern. Nach Pippins Tod 839 wurde Karl mit dem westlichen Reichsteil ausgestattet, doch war die Lage bei Ludwigs Tod im Jahr 840 weiterhin ungeklärt. Im Ostteil hatte Ludwig der Deutsche seine Stellung gesichert, ähnlich Karl im Westen, so dass der Druck auf Kaiser Lothar stieg. Karl und Ludwig verbündeten sich gegen Lothar und besiegten ihn in der Schlacht von Fontenoy am 25. Juni 841. Im Februar 842 bekräftigten sie ihr Bündnis mit den Straßburger Eiden. Auf Drängen der fränkischen Adeligen kam es 843 zum Vertrag von Verdun, womit die Teilung des Reiches im Grunde bestätigt wurde: Karl regierte den Westen, Ludwig den Osten, während Lothar ein Mittelreich und Italien erhielt. Die in diesem Zusammenhang in der Forschung oft diskutierte Frage nach den Anfängen der „deutschen“ Geschichte führt eher in die Irre, da es sich um einen längerfristigen, bis in das 11. Jahrhundert hinziehenden Prozess gehandelt hat; erst ab dem 10. Jahrhundert ist die Bezeichnung "Regnum Teutonicorum" gesichert nachweisbar. Offenbar grenzten sich jedoch die karolingischen Reichsteile bereits im 9. Jahrhundert immer mehr voneinander ab, die Reichseinheit konnte nur noch vorübergehend wiederhergestellt werden. Nach Lothars Tod 855 erbte sein ältester Sohn Lothar II. das Mittelreich. Nach dessen Tod 869 kam es zum Konflikt zwischen Karl und Ludwig um das Erbe, was 870 zur Teilung im Vertrag von Meerssen führte. Damit formierten sich endgültig das West- und das Ostfrankenreich, während in Italien von 888 bis 961 separat Könige regierten. Die Idee der Reichseinheit hatte weiterhin einige Anhänger. Unter Karl III., der 881 die Kaiserkrone errang und seit 882 über ganz Ostfranken herrschte, war das gesamte Imperium für wenige Jahre noch einmal vereint, als er 885 auch die westfränkische Königskrone erwarb. Doch blieb diese Reichseinigung eine Episode, zumal Karl die zunehmenden Wikingerangriffe nicht effektiv abwehren konnte (Frieden von Asselt 882 und Belagerung von Paris 885–886) und Ostfranken Ende 887 an seinen Neffen Arnulf verlor (reg. 887–899). In der „Regensburger Fortsetzung“ der Annalen von Fulda ist zum Jahr 888 abschätzig vermerkt, nach dem Tod Karls (im Januar 888) hätten viele "reguli" (Kleinkönige) in Europa nach der Macht gegriffen. Arnulf bestätigte die Herrschaft der neuen Könige, so in Westfranken, Burgund sowie Italien. Seine Herrschaftsbasis war Bayern. Er beschränkte seine Herrschaft explizit auf Ostfranken, wo er Slawen und Wikinger abwehrte. Einen Italienzug lehnte Arnulf zunächst ab. Erst 894 begab er sich einem päpstlichen Hilferuf folgend nach Italien; 896 erwarb er sogar die Kaiserkrone. Dennoch war der Zusammenbruch des Karolingerreichs unübersehbar. Auch kulturell trat im späten 9. Jahrhundert ein Niedergang ein, vor allem in Ostfranken, wo es zu einem spürbaren Rückgang der literarischen Produktion kam. Im Osten starb der letzte Karolinger Ludwig das Kind im Jahr 911; ihm folgte Konrad I. nach. Konrad war bemüht, Ostfranken zu stabilisieren, wobei er sich gegen den mächtigen Adel behaupten und gleichzeitig die Ungarn abwehren musste, die wenige Jahre zuvor ein Reich gegründet hatten. Am Ende erwies sich seine Herrschaft, die durchaus an karolingischen Traditionen orientiert war, als bloße Übergangszeit zu den Ottonen, die von 919 bis 1024 die ostfränkischen Könige stellten. In Westfranken regierten die Karolinger mit Unterbrechungen noch bis zum Tod Ludwigs V. 987, hatten jedoch schon zuvor ihre Macht weitgehend verloren. An ihre Stelle traten die Kapetinger, die anschließend bis ins 14. Jahrhundert die französischen Könige stellten. Allerdings war das französische Königtum zunächst weitgehend auf seinen Kernraum in der Ile de France beschränkt und übte nur eine nominelle Oberherrschaft über die Machtbereiche selbstbewusster Herzöge aus. Das Reich der Ottonen. Ostfränkisches Reichsgebiet in ottonischer Zeit Nach dem Tod des ostfränkischen Königs Konrad im Jahr 919 bestieg mit Heinrich I. das erste Mitglied des sächsischen Hauses der Liudolfinger („Ottonen“) den ostfränkischen Königsthron; sie konnten sich in der Folgezeit bis 1024 im Reich behaupten. In der neueren Forschung wird zwar die Bedeutung der Ottonenzeit für die Ausformung Ostfrankens betont, sie gilt aber nicht mehr als Beginn der eigentlichen „deutschen“ Geschichte. Der damit verbundene komplexe Prozess zog sich vielmehr mindestens bis ins 11. Jahrhundert hin. Heinrich I. sah sich mit zahlreichen Problemen konfrontiert. Die an karolingischen Mustern orientierte Herrschaftsausübung stieß an ihre Grenzen, zumal nun die Schriftlichkeit, ein entscheidender Verwaltungsfaktor, stark zurückging. Gegenüber den Großen des Reiches scheint Heinrich, wie mehrere andere Herrscher nach ihm, eine Form der konsensualen Herrschaftspraxis betrieben zu haben: Während er formal auf seinem höheren Rang bestand, band er die Herzöge in seine Politik durch Freundschaftsbündnisse ("amicitia") ein und ließ ihnen in ihren Herzogtümern weitgehenden politischen Spielraum. Schwaben und Bayern wurden dadurch in die Königsherrschaft Heinrichs integriert, blieben jedoch bis um das Jahr 1000 königsferne Regionen, in denen der Einfluss des Königtums schwach ausgeprägt war. Das Reich befand sich weiterhin im Abwehrkampf gegen die Ungarn, mit denen 926 ein Waffenstillstand geschlossen wurde. Heinrich nutzte die Zeit und ließ die Grenzsicherung intensivieren; auch gegen die Elbslawen und gegen Böhmen war der König erfolgreich. 932 verweigerte er die Tributzahlungen an die Ungarn; 933 schlug er sie in der Schlacht bei Riade. Im Westen hatte Heinrich den Anspruch auf das zwischen West- und Ostfranken umstrittene Lothringen zunächst 921 aufgegeben, bevor er es 925 gewinnen konnte. Noch vor seinem Tod im Jahr 936 hatte Heinrich eine Nachfolgeregelung im Rahmen einer „Hausordnung“ getroffen, so dass bereits 929/30 sein Sohn Otto als designierter Nachfolger gelten konnte und das Reich ungeteilt blieb. In der Regierungszeit Ottos I. (reg. 936–973) sollte das Ostfrankenreich eine hegemoniale Stellung im lateinischen Europa einnehmen. Otto erwies sich als energischer Herrscher. 948 übertrug er das wichtige Herzogtum Bayern seinem Bruder Heinrich. Ottos Herrschaftsausübung war allerdings nicht unproblematisch, denn er wich von der konsensualen Herrschaftspraxis seines Vaters ab. Bisweilen verhielt sich Otto rücksichtslos und geriet mehrfach in Konflikt mit engen Verwandten. So agierte etwa Ottos ältester Sohn Liudolf gegen den König und stand sogar in Verbindung mit den Ungarn. Diese nutzten die Lage im Reich aus und griffen 954 offen an. Liudolfs Lage wurde unhaltbar und er unterwarf sich dem König. Otto gelang es, gegen die Ungarn eine Abwehr zu organisieren und sie 955 in der Schlacht auf dem Lechfeld vernichtend zu schlagen. Sein Ansehen im Reich wurde durch diesen Erfolg erheblich gesteigert und eröffnete ihm neue Optionen. Im Osten errang er Siege über die Slawen, womit die elbslawischen Gebiete ("Sclavinia") verstärkt in die ottonische Politik eingebunden wurden. Otto trieb die Errichtung des Erzbistums Magdeburg voran, was ihm 968 endgültig gelang. Ziel war die Slawenmission im Osten und die Ausdehnung des ostfränkischen Herrschaftsbereichs, wozu nach karolingischem Vorbild Grenzmarken errichtet wurden. Die erstarkte Stellung Ottos ermöglichte ein Eingreifen in Italien, das nie ganz aus dem Blickfeld der ostfränkischen Herrscher geraten war. Während des ersten Italienzugs 951 scheiterte sein Versuch, in Rom das westliche Kaisertum zu erneuern, wenngleich ihm italienische Adlige als „König der Langobarden“ huldigten. Er brach 961 wieder nach Italien auf und wurde am 2. Februar 962 in Rom vom Papst zum Kaiser gekrönt, im Gegenzug bestätigte er die Rechte und Besitzungen der Kirche. Das an die antike römische Kaiserwürde angelehnte westliche Kaisertum wurde nun mit dem ostfränkischen (bzw. römisch-deutschen) Königtum verbunden. Außerdem wurden weite Teile Ober- und Mittelitaliens dem ostfränkischen Reich angegliedert (Reichsitalien). Allerdings erforderte eine effektive Beherrschung Reichsitaliens die persönliche Präsenz des Herrschers, eine Regierung aus der Ferne war in dieser Zeit kaum möglich. Dieses Strukturdefizit sollte auch seinen Nachfolgern noch Probleme bereiten. Ein dritter Italienzug (966–972) erfolgte aufgrund eines päpstlichen Hilferufs, diente aber gleichzeitig der Absicherung der ottonischen Herrschaft. Im Inneren stützte sich Otto, wie generell viele frühmittelalterlichen Herrscher, für Verwaltungsaufgaben vor allem auf die Kirche. Beim Tod Ottos am 7. Mai 973 war nach schwierigen Anfängen das Reich konsolidiert und das Kaisertum wieder ein politischer Machtfaktor. Ottos Sohn Otto II. (reg. 973–983) war bereits sehr jung 961 zum Mitkönig und 967 zum Mitkaiser gekrönt worden. Im April 972 hatte er die gebildete byzantinische Prinzessin Theophanu geheiratet. Otto war selbst gleichfalls gebildet und wie bei seiner Ehefrau Theophanu galt sein Interesse auch geistigen Angelegenheiten. Im Norden wehrte er Angriffe der Dänen ab, während in Bayern Heinrich der Zänker (ein Verwandter des Kaisers) gegen ihn agierte und Unterstützung durch Böhmen und Polen erhielt. Die Verschwörung wurde aufgedeckt, doch erst 976 gelang die (vorläufige) Unterwerfung Heinrichs. Die Ostmark wurde von Bayern abgetrennt und den Babenbergern übertragen. Im Westen kam es zu Kampfhandlungen mit Westfranken (Frankreich), bevor 980 eine Übereinkunft erzielt werden konnte. Otto plante, anders als noch sein Vater, die Eroberung Süditaliens, wo Byzantiner, Langobarden und Araber herrschten. Ende 981 begann der Feldzug, doch erlitt das kaiserliche Heer im Juli 982 eine vernichtende Niederlage gegen die Araber in der Schlacht am Kap Colonna. Otto gelang nur mit Mühe die Flucht. Im Sommer 983 plante er einen erneuten Feldzug nach Süditalien, als sich unter Führung der Liutizen Teile der Elbslawen erhoben (Slawenaufstand von 983) und somit die ottonische Missions- und Besiedlungspolitik einen schweren Rückschlag erlitt. Noch in Rom starb der Kaiser am 7. Dezember 983, wo er auch beigesetzt wurde. In der mittelalterlichen Geschichtsschreibung wurde Otto II. aufgrund der militärischen Rückschläge und kirchenpolitischer Entscheidungen (so die Aufhebung des Bistums Merseburg) stark kritisiert, während in der modernen Forschung seine nicht leichte Ausgangslage berücksichtigt wird, ohne die militärischen Fehlschläge zu übersehen. Die Nachfolge trat sein gleichnamiger Sohn an, Otto III. (reg. 983–1002), der noch vor dem Tod seines Vaters als nicht ganz Dreijähriger zum Mitkönig gewählt worden war. Aufgrund seines jungen Alters übernahm zunächst seine Mutter Theophanu, nach deren Tod 991 dann seine Großmutter Adelheid von Burgund die Regentschaft. 994 trat Otto III. mit 14 Jahren die Regierung an. Der für seine Zeit hochgebildete Herrscher umgab sich im Laufe der Zeit mit Gelehrten, darunter Gerbert von Aurillac. Otto interessierte sich besonders für Italien. Streitigkeiten in Rom zwischen Papst Johannes XV. und der mächtigen Adelsfamilie der Crescentier waren der Anlass für Ottos Italienzug 996. Papst Johannes war jedoch bereits verstorben, so dass Otto seinen Verwandten Bruno als Gregor V. zum neuen Papst bestimmte, der ihn am 21. Mai 996 zum Kaiser krönte. Anschließend kehrte Otto nach Deutschland zurück. Gregor wurde jedoch aus Rom vertrieben, so dass Otto 997 erneut nach Italien aufbrach und den Aufstand Anfang 998 brutal niederschlug. Der Kaiser hielt sich noch bis 999 in Italien auf und strebte im Zusammenspiel mit dem Papst eine kirchliche Reform an. Während dieser Zeit ist ein Regierungsmotto Ottos belegt: "Renovatio imperii Romanorum", die Erneuerung des römischen Reiches, als dessen Fortsetzung man das mittelalterliche römisch-deutsche Reich betrachtete. Die Einzelheiten sind jedoch umstritten; eine geschlossene Konzeption ist eher unwahrscheinlich, weshalb die Bedeutung in der neueren Forschung relativiert wird. Nach Gregors Tod machte der Kaiser Gerbert von Aurillac als Silvester II. zum neuen Papst. Beide Papsternennungen verdeutlichen die Machtverteilung zwischen Kaisertum und Papsttum in dieser Zeit. Otto knüpfte auch Kontakte zum polnischen Herrscher Bolesław I. und begab sich nach Gnesen. Die nächsten Monate verbrachte der Kaiser in Deutschland, bevor er sich wieder nach Italien begab. 1001 brach in Rom ein Aufstand aus. Otto zog sich nach Ravenna zurück, beim erneuten Vormarsch nach Rom starb der Kaiser Ende Januar 1002. In den Quellen wird sein großes Engagement in Italien eher negativ bewertet; in der modernen Forschung wird betont, dass der frühe Tod Ottos eine abschließende Bewertung erschwert, da seine Politik nicht über Anfänge hinauskam. Nachfolger Ottos III. wurde Heinrich II. (reg. 1002–1024), der aus der bayerischen Nebenlinie der Ottonen stammte und dessen Herrschaftsantritt umstritten war. Heinrich II. setzte andere Schwerpunkte als sein Vorgänger und konzentrierte sich vor allem auf die Herrschaftsausübung im nördlichen Reichsteil, wenngleich er dreimal nach Italien zog. Auf seinem zweiten Italienzug 1014 wurde er in Rom zum Kaiser gekrönt. Im Süden kam es 1021/22 auch zu Auseinandersetzungen mit den Byzantinern, die letzten Endes ergebnislos verliefen und dem Kaiser keinen Gewinn einbrachten. Im Osten führte er vier Feldzüge gegen Bolesław von Polen, wobei es um polnisch beanspruchten Besitz und um Fragen der Ehre und Ehrbezeugung ging, bevor 1018 der Frieden von Bautzen geschlossen wurde. Im Inneren präsentierte sich Heinrich als ein von der sakralen Würde seines Amtes durchdrungener Herrscher. Er gründete das Bistum Bamberg und begünstigte die Reichskirche, auf die er sich im Sinne des „Reichskirchensystems“ stützte, wenngleich in neuerer Zeit dieser Aspekt unterschiedlich bewertet wird. Einige Forscher betrachten Heinrichs diesbezügliches Vorgehen als realpolitisch motiviert; Heinrich habe über die Reichskirche geherrscht, mit ihr regiert und damit versucht, die Königsherrschaft zu intensivieren. Sicher ist die enge Verzahnung von Königsherrschaft mit der Kirche im Reich. Damit erhoffte sich Heinrich wohl auch ein Gegengewicht zur Adelsopposition, die sich wiederholt gegen den König erhob, der seine Führungsrolle gegenüber den Großen im Reich betonte. Seine Regierungszeit wird sehr unterschiedlich bewertet; erst im Rückblick wurde er, von der Bamberger Kirche vorangetrieben, zu einem „heiligen Kaiser“ stilisiert und 1146 heiliggesprochen. Seine Ehe blieb kinderlos, statt der Ottonen traten die Salier die Königsherrschaft an. Frankreich und Burgund. Frankreich im frühen 11. Jahrhundert Wenngleich in Westfranken (Frankreich) die Karolinger formal noch bis 987 die Könige stellten, von der Regierungszeit einiger (durchaus durchsetzungsfähiger) Könige aus anderen Geschlechtern wie Odo abgesehen, hatten sie bereits zuvor den Großteil ihrer Macht eingebüßt. Die Politik wurde im 10. Jahrhundert von den großen Adligen dominiert, wie z. B. von Herzog Hugo Magnus aus dem Hause der Robertiner. Der Gegensatz zwischen Karolingern und Robertinern war in dieser Zeit prägend. In der Spätphase der westlichen Karolinger geriet König Lothar sogar in Abhängigkeit von den mächtigeren Ottonen. Er versuchte sich militärisch davon zu lösen und unternahm Vorstöße nach Ostfranken, die aber erfolglos verliefen. 987 wurde der Robertiner Hugo Capet zum neuen König gewählt. Damit begann die Herrschaft der später nach Hugos Beinamen benannten Kapetinger. Von Hugo Capet stammten alle späteren französischen Könige bis zur endgültigen Abschaffung des Königtums im 19. Jahrhundert in direkter männlicher Linie ab. Hugos Zeitgenossen nahmen seinen Regierungsantritt allerdings nicht als bedeutsame Zäsur wahr, als dauerhafter Dynastiewechsel erwies sich seine Erhebung erst später. Noch im selben Jahr erhob Hugo seinen Sohn Robert zum Mitkönig; er sollte seinem Vater 996 als Robert II. nachfolgen und bis 1031 regieren. Der Dynastiewechsel von 987 verlief aber nicht ohne Konflikte. Herzog Karl von Niederlothringen, ein karolingischer Königssohn, machte seinen Thronanspruch geltend. Er verbuchte einige Erfolge, bevor er durch Verrat in die Hände der Kapetinger fiel. Ein Umsturzversuch der Familie Blois im Jahr 993 scheiterte ebenfalls. Die Kapetinger betonten die Sakralität ihrer Königswürde und das damit verbundene Ansehen ("auctoritas"). Den Kern der Königsherrschaft stellte die Krondomäne mit dem Zentrum Paris dar; der königliche Besitz wurde in den folgenden Jahrzehnten systematisch ausgebaut. Außerdem konnten die Kapetinger sich auf eine recht breite kirchliche Unterstützung verlassen. Die Durchsetzung der Königsherrschaft gelang jedoch nicht vollständig, denn die Großen des Reiches verkehrten mit den frühen Kapetingern auf einem relativ gleichen Niveau. Zwar waren sie zur Hof- und Heerfahrt verpflichtet, bisweilen kam es aber zu anti-königlichen Koalitionen. In mehreren Regionen konsolidierte sich die Fürstenherrschaft im frühen 11. Jahrhundert. Versuche Roberts II., die Königsmacht in herrschaftslos gewordenen Gebieten zu vermehren, waren nur im Herzogtum Burgund erfolgreich, während er etwa in den Grafschaften Troyes und Meaux scheiterte. Sein Sohn und Nachfolger Heinrich I. musste sich gegen das Haus Blois durchsetzen und unterhielt recht gute Verbindungen zu den salischen Herrschern. Außenpolitisch konnten die frühen Kapetinger keine Erfolge verbuchen; so scheiterte etwa der Versuch, Lothringen von den Ottonen zurückzugewinnen. Die französischen Könige waren aber bemüht, die Gleichrangigkeit ihres Reiches mit dem Imperium zu betonen. Im 12. Jahrhundert kam es zu Konflikten mit dem mächtigen Haus Plantagenet, das neben umfangreichem Festlandbesitz in Frankreich gleichzeitig bis ins Spätmittelalter die englischen Könige stellte. Erst unter Philipp II. August (reg. 1180–1223) gelang es den Kapetingern, die Oberhand zu gewinnen. Das Königreich Burgund entstand während des Zerfalls des Karolingerreiches. 879 wurde Boso von Vienne zum König von Niederburgund gewählt, sein Sohn Ludwig der Blinde erweiterte kurzzeitig den burgundischen Herrschaftsraum. Bereits vor Ludwigs Tod 928 zerfiel der niederburgundische Herrschaftsraum, wovon zunächst Hugo von Vienne, letztendlich aber Hochburgund profitierte. Dort war 888 Rudolf I. zum König gekrönt worden. Immer wieder kam es in der Folgezeit zu Spannungen mit dem örtlichen Adel; ein starkes Königtum konnte sich nie entwickeln, die Königsmacht blieb vielmehr regional begrenzt. Rudolf II., dessen Expansion nach Nordosten in den schwäbischen Raum 919 gestoppt worden war, knüpfte Kontakte zu den Ottonen. Er erkannte die ostfränkische Oberhoheit an und leitete die Vereinigung von Hoch- und Niederburgund ein (angeblich 933 vertraglich vereinbart, was allerdings in der Forschung teils bestritten wird), doch starb er bereits 937. Sein Sohn Konrad konnte mit ottonischer Unterstützung seinen Herrschaftsanspruch auch in Niederburgund zur Geltung bringen. Die enge Anlehnung der burgundischen Rudolfinger an die Ottonen drückte sich im Erbfolgevertrag von 1016 aus, wovon die salischen Herrscher profitierten, die 1033 Burgund mit dem Imperium vereinigten. Italien. Münze mit dem Bildnis Theoderichs Nach dem Ende Westroms 476 war es in Italien zunächst zu keinem kulturellen oder wirtschaftlichen Einbruch gekommen. Unter der Gotenherrschaft Theoderichs (489/93 bis 526) erlebte das Land vielmehr noch einmal ein Aufblühen der spätantiken Kultur, wie an den Philosophen Boethius und Symmachus zu erkennen ist. Theoderich zollte der senatorischen Elite Respekt und bemühte sich, im Einvernehmen mit den Römern zu herrschen. Er nutzte die Kenntnisse der senatorischen Führungsschicht in Italien und zog Römer für die Zivilverwaltung heran, trennte aber zivile und militärische Gewalt nach ethnischen Prinzipien auf. Seine Goten übten die Militärverwaltung aus und erhielten außerdem Land zugewiesen. Es scheint, als habe die Privilegierung der Ostgoten das Verschmelzen des römischen Adels mit der gotischen Führungsgruppe be- oder gar verhindert. Nach Theoderichs Tod 526 kam es zu Thronwirren, wobei Ostrom die günstige Gelegenheit nutzte und in Italien intervenierte. Der anschließende Gotenkrieg (535–552) verwüstete die Halbinsel, die nun vorläufig wieder eine oströmische Provinz wurde. Die unter ihrem König Alboin 568 nach Italien eingebrochenen Langobarden profitierten vom Zustand des erschöpften Landes und den nur wenigen kaiserlichen Besatzungstruppen. Nur vereinzelt wurde den Eroberern Widerstand geleistet, so dass Mailand schon 569 fiel, Pavia jedoch erst 572. Die langobardische Eroberung von Ober- und Teilen Mittelitaliens erwies sich jedoch als verheerend für die Reste der antiken Kultur und die lokale Wirtschaft. Bereits in Cividale del Friuli hatte Alboin kurz nach Beginn der Invasion ein Dukat (Herzogtum) errichtet; diese Form der Herrschaftsorganisation (eine Zusammenführung spätrömischer Verwaltung und der langobardischen Militärordnung) sollte typisch für die Langobarden werden. Die Königsmacht verfiel nach der Ermordung Alboins 572 und der seines Nachfolgers Cleph 574, die langobardische Herrschaft zersplitterte in relativ selbstständige Dukate. Das Langobardenreich stand weiterhin unter hohem äußeren Druck. Erst angesichts einer Bedrohung durch die Franken wählten die Langobarden nach zehnjähriger Königslosigkeit 584 erstmals wieder Authari in diese Position. Die Oströmer/Byzantiner konnten zudem mehrere der Seestädte halten, außerdem Ravenna, Rom und Süditalien. Innenpolitisch blieben die Spannungen zwischen den zumeist arianischen Langobarden und den katholischen Romanen eine Belastung für das gegenseitige Verhältnis, wenngleich auch katholische Langobardenkönige herrschten. Erwähnenswert unter den Langobardenkönigen des 7. Jahrhunderts sind etwa Agilulf, unter dem die Langobarden wieder einige Erfolge erzielen konnten, und Rothari, der 643 die langobardischen Rechtsgewohnheiten systematisch sammeln und aufzeichnen ließ. Liutprand (reg. 712–744) wirkte ebenfalls als Gesetzgeber und konnte seine Macht sogar gegenüber den "Duces" von Spoleto und Benevent, den beiden südlichen langobardischen Herrschaften, zur Geltung bringen. Die Langobarden waren zu diesem Zeitpunkt endgültig katholisch geworden und traten wieder expansiv auf, so gegen Byzanz, und intervenierten auch in Rom. 774 schlugen die Franken König Desiderius und eroberten das Langobardenreich. Italien um die Mitte des 11. Jahrhunderts Italien im Frühmittelalter war ein politisch zersplitterter Raum. Während des Zerfallsprozesses des Karolingerreiches im 9. Jahrhundert stiegen lokale Machthaber auf. Sie regierten von 888 bis 961 als Könige unabhängig in Oberitalien, bis diese Region (außer der Republik Venedig) unter Otto I. in das Ostfrankenreich integriert wurde. Als Reichsitalien blieb es bis zum Ende des Mittelalters Teil des römisch-deutschen Reiches. In diesem Zusammenhang waren die von den Kaisern geförderten Bischöfe ein wichtiger Faktor zur Herrschaftssicherung. Die römisch-deutschen Könige seit Otto I. betrieben jedoch keine stringente Italienpolitik, sondern mussten ihre Herrschaftsrechte (Regalien), vor allem in späterer Zeit, auch militärisch durchsetzen. Realpolitisch relevant war die Beherrschung Oberitaliens vor allem aufgrund der vergleichsweise hohen Wirtschafts- und Finanzkraft der dortigen Städte, die seit dem 11. Jahrhundert wieder aufblühten; eine Sonderrolle spielten die Seerepubliken. Zunächst standen viele Städte in Reichsitalien unter dem Einfluss der Bischöfe, bevor sie nach und nach an politischer Autonomie gewannen. Neben der immer noch relativ starken städtischen Kultur war auch die antike Kultur dort in Teilen bewahrt worden. Das schriftliche Niveau lag höher als im Norden, was für eine effektive Herrschaftsausübung vorteilhaft war, wenngleich die persönliche Präsenz des Herrschers weiterhin ein wichtiger Faktor war. Andererseits profitierte Oberitalien von den nun stabileren politischen Verhältnissen. Im 8. Jahrhundert hatte sich in Mittelitalien der Kirchenstaat etabliert, wobei dessen Umfang und der Status der Stadt Rom selbst zwischen den Päpsten und Kaisern oft umstritten war. Politisch gewannen die Päpste während des Niedergangs der Karolinger für kurze Zeit Spielraum, andererseits musste man in Rom wiederholt Angriffe der Normannen und Araber auf päpstlichen Besitz abwehren. Schon aus diesem Grund begrüßte man das spätere Eingreifen der Ottonen in Italien. Das Papsttum geriet aber im 10. Jahrhundert außerdem in die Auseinandersetzung einflussreicher stadtrömischer Familien, die es für ihre Zwecke instrumentalisierten, was einen Ansehensverlust für den Bischof von Rom bedeutete. Seit der Ottonenzeit übten, wie zuvor die Karolinger, die römisch-deutschen Herrscher eine Schutzherrschaft über das Papsttum aus, wenngleich es in der Salierzeit zum offenen, auch politisch motivierten Konflikt im Investiturstreit kam. Byzanz verfügte noch bis ins 11. Jahrhundert über Stützpunkte in Italien. Nachdem Ravenna 751 an die Langobarden verloren gegangen war und man auch nicht mehr in Mittelitalien effektiv eingreifen konnte, konzentrierten sich die Byzantiner auf die Kontrolle ihrer Besitzungen in Süditalien. Diese wurden von arabischen Raubzügen, vor allem seit der von Nordafrika aus erfolgten Eroberung Siziliens im 9. Jahrhundert (Fall von Syrakus 878, Fall Taorminas 902), und seit dem 10. Jahrhundert auch von den römisch-deutschen Herrschern bedroht. Mit dem Fall Baris 1071 endete die byzantinische Herrschaft in Italien endgültig. In Süditalien übernahmen dafür die Normannen eine führende Rolle. Sie waren zu Beginn des 11. Jahrhunderts von dortigen langobardischen Lokalherrschern als Krieger angeworben worden, etablierten aber bald schon eigene Herrschaften. Sie nutzten die komplizierte politische Lage im Raum zwischen Byzanz, Papsttum und lokalen Herrschern aus, wobei die Bündnisse wechselhaft waren. In Aversa, Capua und Salerno entstanden in der Folgezeit normannische Fürstentümer. Die Normannen expandierten ab 1061 auch nach Sizilien, das in der Zwischenzeit partiell und kurzzeitig von den Byzantinern zurückerobert worden war, und gewannen die Insel für sich. Eine führende Rolle spielte die Familie Hauteville. Bereits 1059 war für sie das Herzogtum von Apulien und Kalabrien als päpstliches Lehen geschaffen worden; sie erlangten 1130 die Königswürde für Sizilien und Unteritalien, bis das Königreich Sizilien 1194 an die Staufer fiel. Iberische Halbinsel. In Hispanien und Südgallien hatte sich Ende des 5. Jahrhunderts das Westgotenreich etabliert. Die Westgoten mussten jedoch nach der schweren Niederlage in der Schlacht von Vouillé gegen die Franken 507 Gallien bis auf die Region um Narbonne räumen. Toledo wurde die neue Hauptstadt der Westgoten ("Toledanisches Reich") und im Laufe des 6. Jahrhunderts entwickelte sich eine westgotische Reichsidee. Das Verhältnis zwischen König und einflussreichen Adeligen war nicht selten angespannt und es kam wiederholt zu Auseinandersetzungen. Die Westgoten waren zudem Arianer, was zu Konflikten mit der katholischen Mehrheitsbevölkerung führte. Leovigild war wie sein Sohn und Nachfolger Rekkared I. ein bedeutender Herrscher. Er eroberte 585 das Suebenreich im Nordwesten Hispaniens, scheiterte jedoch bei seinem Versuch, die kirchliche Einheit des Reiches durch einen gemäßigten Arianismus herzustellen. Das Problem löste Rekkared I., der 587 zum katholischen Glauben übertrat, indem er 589 auf dem 3. Konzil von Toledo den Übertritt der Westgoten erreichte. Dies begünstigte den ohnehin recht großen Einfluss der Westgotenkönige auf ihre Reichskirche. Die Oströmer wurden zu Beginn des 7. Jahrhunderts aus Südspanien vertrieben und die Franken stellten keine unmittelbare Bedrohung mehr dar. Dennoch gelang es den folgenden westgotischen Königen nicht, eine dauerhafte Dynastie zu begründen. Grund dafür waren die internen Machtkämpfe im 7. Jahrhundert. Es kam immer wieder zu Rebellionen und Machtkämpfen zwischen rivalisierenden Adelsgeschlechtern, wobei der Hofadel besonders einflussreich war. Von den westgotischen Königen des 7. Jahrhunderts wurden mehr als die Hälfte abgesetzt oder ermordet. Dennoch gelang es einzelnen Königen durchaus sich zu behaupten, so etwa Chindaswinth (642–653) oder König Rekkeswinth (653–672). Unter Rekkeswinth herrschte im Reich wieder weitgehend Frieden. Er regierte im Einklang mit dem Adel und erließ 654 ein einheitliches Gesetzbuch für Goten und Romanen. Das Reich profitierte von der Anknüpfung an spätrömische Traditionen und erwies sich insgesamt als gefestigt. Der christliche Königsgedanke des Frühmittelalters wiederum war von der westgotischen Idee des sakral legitimierten Königtums beeinflusst. Kulturell erlebte das Reich um 600 eine Blütezeit, deren wichtigster Repräsentant Isidor von Sevilla war. Das Westgotenreich erlangte, nicht zuletzt durch die Tradierung des Wissens in den dortigen Klosterschulen, eine beachtliche kulturelle Strahlkraft. Im frühen 8. Jahrhundert wurde das Reich von den Arabern erobert; sie schlugen 711 König Roderich in der Schlacht am Río Guadalete. Die Iberische Halbinsel um das Jahr 1000 Die politische Lage auf der Iberischen Halbinsel war im weiteren Verlauf des Frühmittelalters recht kompliziert. Nach dem Fall des Westgotenreichs drangen die Mauren zeitweilig sogar in das südliche Frankenreich vor. Alle Teile der Halbinsel kamen zunächst unter islamische Herrschaft, doch schon wenige Jahre nach der Invasion der Muslime formierte sich im Nordwesten Widerstand. Dort wählten christliche Adlige 718 den vornehmen Goten Pelagius zu ihrem König. Damit wurde das Königreich Asturien gegründet. Dies gilt als der Ausgangspunkt der "Reconquista", der Rückeroberung durch die Christen, wobei manche christliche Herrscher die Anknüpfung an die Westgoten betonten (Neogotismus). Bis ins späte 15. Jahrhundert standen sich ein christlicher Norden und ein islamisch beherrschter, lange Zeit sehr viel mächtigerer und kulturell höher entwickelter Süden gegenüber. Neben dem bestehenden Königreich Asturien-León, das im 10. Jahrhundert eine Blütezeit erlebte und im 11. Jahrhundert mit Kastilien verbunden wurde, entstanden weitere christliche Reiche in Nordspanien: im 9. Jahrhundert die Grafschaft (seit Ferdinand I. im frühen 11. Jahrhundert: Königreich) Kastilien und das Königreich Navarra; hinzu kamen die ehemalige fränkische Spanische Mark, aus der sich die Grafschaft Barcelona entwickelte, und im 11. Jahrhundert das Königreich Aragon. Die Christen profitierten von den innenpolitischen Krisen im Emirat und dem späteren Kalifat von Córdoba und waren seit dem 9. Jahrhundert offensiver vorgegangen; trotz mancher Rückschläge und maurischer Gegenangriffe drängten sie die islamische Herrschaft Stück für Stück nach Süden zurück. Daneben gab es aber immer wieder Phasen der Koexistenz. In Al-Andalus lebten Muslime, Christen und Juden weitgehend friedlich zusammen, wenngleich es auch einige Übergriffe von Muslimen auf Christen gab. Die Kultur im islamischen Spanien stand im 10. Jahrhundert in voller Blüte. Córdoba war zu dieser Zeit eine der größten und reichsten Städte des Mittelmeerraums. Es fand auch ein kultureller Austauschprozess statt, der für die christliche Seite sehr vorteilhaft war. Die Mehrheit der Bevölkerung im maurischen Spanien war noch im 10. Jahrhundert christlich (Mozaraber). Es fanden aber Abwanderungen in die christlichen Reiche und Konversionen zum Islam statt, vor allem als sich die tolerante muslimische Religionspolitik später teils änderte. Unter Sancho III. von Navarra, der sein Reich erheblich ausgedehnt hatte, erlebte das christliche Spanien im frühen 11. Jahrhundert eine politische und kulturelle Erstarkung (gestützt durch eine Klosterreform). Sancho teilte sein Reich unter seinen Söhnen auf, doch wurden nun diese Reiche von Nachfahren derselben Dynastie regiert. Nach dem Fall des Kalifats von Córdoba 1031 spaltete sich der islamische Süden in zahlreiche Klein- und Kleinstreiche auf (Taifa-Königreiche), was die christlichen Herrscher ausnutzten. 1085 fiel die ehemalige westgotische Königsstadt Toledo an Alfons VI. von León-Kastilien, woraufhin die muslimischen Herrscher in Sevilla und Granada die Almoraviden aus Nordafrika zu Hilfe riefen, die Alfons 1086 in der Schlacht bei Zallaqa schlugen, bald aber eigene Herrschaften errichteten. Die britischen Inseln. Über die Vorgänge in Britannien unmittelbar nach dem Abzug der Römer zu Beginn des 5. Jahrhunderts liegen fast keine schriftlichen Zeugnisse vor, weshalb kaum Details bekannt sind. Der grobe Rahmen kann aber anhand schriftlicher und archäologischer Quellen rekonstruiert werden. Die lokale Verwaltung scheint nach dem römischen Abzug zumindest teilweise noch längere Zeit funktioniert zu haben, es entstanden schließlich mehrere romano-britische Kleinreiche ("Sub-Roman Britain"). In dieser Zeit kamen Angelsachsen in relativ geringer Anzahl als Söldner nach Britannien und übernahmen statt römischer Soldaten Verteidigungsaufgaben. Um die Mitte des 5. Jahrhunderts erhoben sie sich gegen die romano-britischen Herrscher, wobei die Gründe nicht ganz klar sind. Um 500 scheinen die Angelsachsen zu einem vorläufigen Siedlungsstopp gezwungen worden zu sein, nachdem sie von Ambrosius Aurelianus in der nicht genau datierbaren oder lokalisierbaren Schlacht von Mons Badonicus geschlagen worden waren. In der Folgezeit drängten sie jedoch die Romano-Briten zurück. Zwar sind Einzelheiten darüber nicht überliefert, doch gelang es den Angelsachsen bis zum Ende des 7. Jahrhunderts weite Teile des Gebiets südlich des Firth of Forth unter ihre Kontrolle zu bringen, wobei es offenbar wiederholt zu schweren Kampfhandlungen kam. Einzelne britische Gebiete konnten jedoch ihre Unabhängigkeit bewahren, so Wales und das heutige Cornwall. Es kam auch kaum zu massenhaften Vertreibungen der romano-britischen Bevölkerung. Der Christianisierung der Angelsachsen gelang im 7. Jahrhundert der Durchbruch. In dieser Zeit bildete sich auch die sogenannte Heptarchie aus, die sieben bis ins 9. Jahrhundert dominierenden angelsächsischen Königreiche (Essex, Sussex, Wessex, Kent, East Anglia, Mercia und Northumbria), wovon Mercia und Northumbria die mächtigsten waren und immer wieder Kämpfe um die Oberherrschaft ausfochten. Mercia siegte über Northumbria 679 in der Schlacht am Fluss Trent, wodurch Mercias Vormachtstellung begründet wurde; bedroht wurden die angelsächsischen Reiche aber auch von Einfällen der Pikten. Die südlichen angelsächsischen Reiche gerieten in der ersten Hälfte des 8. Jahrhunderts in die Abhängigkeit Mercias, das unter Offa zeitweise zum mächtigsten Reich in England aufstieg, während Northumbria aufgrund des mercischen Widerstands nach Norden expandierte. Die Vorherrschaft Mercias unter den angelsächsischen Reichen war nur von kurzer Dauer. Bereits im frühen 9. Jahrhundert befreiten sich East Anglia und Kent von der mercischen Vorherrschaft. Unter Egbert gewann Wessex wieder zunehmend an Einfluss. Mit dem Sieg über Mercia in der Schlacht von Ellendun 825 wurde die mercische Hegemonie endgültig gebrochen und Wessex annektierte mehrere andere angelsächsische Gebiete. Um die Mitte des 9. Jahrhunderts kontrollierte Wessex ganz England südlich der Themse, als 866 die große Wikingerinvasion begann. Das angelsächsische England war besonders in der Frühzeit mit Skandinavien verbunden. 865/66 schlossen sich jedoch mehrere Wikingerführer (darunter Ivar Ragnarsson, ein Held der skandinavischen Saga-Literatur) zusammen und fielen von Dänemark aus mit einem großen Heer in Nordostengland ein. Der Einfall steht wahrscheinlich in Verbindung mit den verstärkten Abwehrbemühungen im Frankenreich, so dass England ein leichteres Ziel darstellte. Das Wikingerheer war offenbar den angelsächsischen Truppen zahlenmäßig deutlich überlegen. 871 kontrollierten die Wikinger bereits den Osten Englands, von York im Norden bis in den Raum London. Doch erst in den 870er Jahren begannen sie sich dort anzusiedeln, wenngleich sie teils angelsächsische Schattenkönige einsetzten. Damit zerbrach die bisherige politische Ordnung der angelsächsischen Reiche, nur Wessex blieb zunächst relativ unbeschadet. Mit Alfred von Wessex (reg. 871–899), später „Alfred der Große“ genannt, begann jedoch die Zurückdrängung der Wikinger und eine bedeutende Zeit des angelsächsischen Englands. Nach anfänglichen Rückschlägen besiegte Alfred die Wikinger 878 in der Schlacht von Edington. Sein Gegner Guthrum ließ sich taufen und zog sich aus Wessex zurück; 886 wurde in einem Vertrag die Grenze zwischen Angelsachsen und Danelag festgelegt. Faktisch herrschte Alfred zu diesem Zeitpunkt über alle Angelsachsen, die nicht im dänischen Herrschaftsbereich lebten. Zur weiteren Abwehr gegen die Wikinger, die gegen Ende seiner Regierungszeit wieder angriffen, wurden "burhs" (befestigte Plätze) eingerichtet und eine Kriegsflotte aufgestellt. Im Inneren betrieb er nach dem karolingischen Vorbild eine wirksame Kulturförderung. Die Nachfolger Alfreds drängten die dänische Herrschaft immer weiter zurück, bis nur noch das Königreich York übrig blieb. Doch fanden viele der nachfolgenden Könige von Wessex nicht die allgemeine Anerkennung aller Angelsachsen. So versuchte man in Northumbria einige Zeit, mit Hilfe der Dänen die Unabhängigkeit zu bewahren. Im 10. Jahrhundert kam es daher immer wieder zu Kämpfen um die Herrschaft über das gesamte angelsächsische England. Die relativ lange Regierungszeit Edgars wirkte sich stabilisierend aus, doch nach seinem Tod 975 traten Spannungen wieder offen hervor. Versuche, die Königsmacht zu konsolidieren, hatten nur bescheidenen Erfolg, vor allem weil es seit 980 wieder zu größeren Wikingereinfällen kam. Der Höhepunkt dieser Entwicklung war unter Knut dem Großen erreicht, der im frühen 11. Jahrhundert kurzzeitig ein maritimes Reich errichtete, das große Teile Westskandinaviens sowie England umfasste. In England bestieg 1042 Eduard der Bekenner den Thron, doch hatte er mit starken innenpolitischen Widerständen zu kämpfen, was ihm nur relativ geringen Handlungsspielraum ließ. Als er 1066 starb, endete damit die westsächsische Dynastie. Im Nachfolgekampf setzte sich schließlich der Normanne Wilhelm der Eroberer durch, der 1066 in der Schlacht bei Hastings siegte. Dies bedeutete das Ende des angelsächsischen Englands. Im Norden Britanniens entstand Mitte des 9. Jahrhunderts das Königreich Schottland aus Vereinigung der Pikten mit den keltischen Skoten (Dál Riada), wobei das Königtum eher schwach ausgeprägt war. Obwohl eine flächendeckende Herrschaftsdurchdringung nicht oder kaum gelang, wurde Lothian um 950, Cumbria 1018 hinzugewonnen. Unter Malcolm II. (gest. 1034) nahm das Königreich Alba (Schottland) langsam endgültig Gestalt an. Kämpfe mit den Angelsachsen waren relativ selten, dafür mussten wiederholt Wikingerangriffe abgewehrt werden. In Irland herrschten neben Stammeskönigen vor allem regionale Kleinkönige. Bemerkenswert ist das Fortbestehen irischer Dynastien über lange Zeiträume. Das Hochkönigsamt, das ahistorisch uralt gewesen sein soll, wurde von verschiedenen Gruppen immer wieder beansprucht. Vor allem die Uí Néill, deren Aufstieg bereits im 5. Jahrhundert begann und auf Kosten des Provinzialkönigreichs Ulaid ging, versuchten es zur Legitimation ihres Herrschaftsanspruchs zu nutzen und beanspruchten seit dem 7. Jahrhundert das „Königtum von Tara“. Zwischen den einzelnen Gruppen kam es wiederholt zu Kampfhandlungen. So konnte sich bis ins Hochmittelalter kein starkes, die ganze Insel umfassendes Königtum etablieren. Ende des 8. Jahrhunderts tauchten die Wikinger in Irland auf und errichteten Stützpunkte; im 10. Jahrhundert sind Siedlungen der Wikinger und Kämpfe mit ihnen belegt. Damit war Irland das erste Mal in geschichtlicher Zeit militärischen Angriffen von außen ausgesetzt. Skandinavien. Helm aus einem der Vendelgräber, 7. Jahrhundert Mehrere germanische Stämme der Völkerwanderungszeit beanspruchten in ihren Herkunftsgeschichten eine Abstammung aus Skandinavien, doch wird dies in der modernen Forschung in der Regel als Topos betrachtet, der vor allem der Identitätsstiftung diente und zusätzliche Legitimation verschaffen sollte. Das beginnende Frühmittelalter im skandinavischen Raum wird in der modernen Forschung als Vendelzeit (Schweden, nach den reichen Grabfunden in Vendel), Merowingerzeit (Norwegen) oder jüngere germanische Eisenzeit (Dänemark) bezeichnet. Über diesen Zeitraum sind nur wenige Details bekannt, vor allem auf Grundlage archäologischer Funde. In der Forschung wurde oft angenommen, dass sich im späten 6. und im 7. Jahrhundert ein Niedergang vollzogen habe, wobei mehrere Siedlungen verfallen seien. Neuere Untersuchungen zeigen hingegen, dass zahlreiche Siedlungen kontinuierlich bewohnt blieben. Um 600 wurden zusätzliche Flächen kultiviert und Funde deuten auf weiterhin aktive politische Zentren von Häuptlingen und Kleinkönigen hin; allerdings fehlen teilweise noch Studien für einzelne Regionen. Im späten 8. Jahrhundert begann in Skandinavien die Wikingerzeit. 793 überfielen skandinavische Seefahrer, die sogenannten Wikinger, das Kloster Lindisfarne vor der Küste Englands. In den folgenden Jahren fielen sie wiederholt auf der Suche nach Beute in das Frankenreich und in England sowie in Irland ein, wobei sie teilweise befestigte Plätze zum Überwintern bzw. Siedlungen errichteten. Die Wikinger waren sowohl als Räuber als auch als Händler aktiv. Ihre Züge führten sie bis ins Mittelmeer und nach Osteuropa, schließlich in den Nordatlantik. Dort entstanden auf Island wohl Ende des 9. Jahrhunderts erste Siedlungen, Ende des 10. Jahrhunderts wurde Grönland besiedelt; schließlich fanden sogar Fahrten nach Nordamerika statt (Vinland). Im Osten stießen skandinavische Seefahrer, die sogenannten Waräger, über verschiedene Flüsse bis ins Innere Russlands vor, betrieben Handel und waren auch politisch aktiv, wie etwa die Nestorchronik berichtet (siehe Kiewer Rus). Andere Gruppen gelangten bis in den arabischen und byzantinischen Raum. Die zeitgenössischen Quellen, etwa die angelsächsische Chronik oder die fränkischen Reichsannalen und deren spätere Fortsetzungen, beschreiben mehrfach die verheerenden Überfälle der Wikinger. Dem folgten auch Herrschaftsbildungen. Im späten 9. Jahrhundert setzten sie sich im Norden Englands fest, während 911 der Wikinger Rollo vom westfränkischen König mit der Normandie belehnt wurde. Die romanisierten Normannen sollten im 11. Jahrhundert auch in Unteritalien aktiv werden und 1066 England erobern. Die politische Geschichte Skandinaviens im Frühmittelalter ist recht verworren und die Quellen sind nicht immer zuverlässig. Schweden, wo Ende des 10. Jahrhunderts das Königtum der Svear Gestalt annahm, stand in enger wirtschaftlicher Beziehung zu Osteuropa. Das schwedische Königtum war im Frühmittelalter nur schwach ausgebildet und hatte in paganer Zeit vor allem kultischen Charakter. Vermutlich war Olof Skötkonung (gest. 1022) der erste König, der über ganz Schweden herrschte. Er war Christ und nutzte die Religion anscheinend bei dem Versuch, seiner Herrschaft Autorität zu verschaffen, was aber auf Widerstand stieß. Dafür siegte er 999 oder 1000 im Bündnis mit Dänemark in der Seeschlacht von Svold über den norwegischen König Olav I. Tryggvason. Über die ihm direkt nachfolgenden schwedischen Könige ist kaum etwas bekannt. Anund Jakob stellte sich zusammen mit norwegischer Unterstützung der dänischen Vorherrschaft unter König Knut entgegen. In Norwegen ist ein Königtum um 900 unter Harald I. in den Quellen belegt. Er scheint weite Teile Südwestnorwegens direkt beherrscht und in anderen Teilen eine eher formale Oberherrschaft ausgeübt zu haben, doch sind Details kaum bekannt (siehe Geschichte Norwegens von Harald Hårfagre bis zur Reichseinigung). Haralds ältester Sohn und Nachfolger Erik musste ins Exil gehen (vermutlich nach England), wo er auch starb. Im frühen 11. Jahrhundert förderte dann Olav II. Haraldsson das Christentum in Norwegen. Er hatte sowohl mit innenpolitischen Gegnern zu kämpfen als auch mit den Ansprüchen des Dänenkönigs Knut. Einen ersten Angriff Knuts konnte Olav abwehren, doch 1028 musste er an den Hof von Jaroslaw von Kiew flüchten und fiel 1030 beim vergeblichen Versuch, den norwegischen Thron zurückzugewinnen. Olavs Sohn Magnus wurde 1035 in jungen Jahren nach Norwegen gerufen, wo er schließlich gegen politische Gegner vorging. Magnus musste sich am Ende seiner Regierungszeit die Herrschaft mit seinem Onkel Harald Hardråde teilen, der ihm 1047 nachfolgte. Harald erlangte die Kontrolle über ganz Norwegen und vollendete die Reichseinigung, starb aber 1066 in England. Norwegen konnte in dieser Zeit die Unabhängigkeit von Dänemark bewahren, Magnus und Harald erhoben sogar Anspruch auf die dänische Königskrone. In Dänemark sind Könige, die wohl recht früh über eine relativ starke Stellung verfügten, bereits im frühen 9. Jahrhundert belegt, als es zu Kämpfen mit den Franken kam. Dänemark übte im 9. Jahrhundert, in dem Könige wie Gudfred und Horik I. in den Quellen erwähnt werden, zeitweise eine Oberherrschaft im südlichen Skandinavien aus, die um 900 erschüttert wurde. Im frühen 10. Jahrhundert ist König Gorm belegt, in dessen Regierungszeit die dänische Macht wieder gefestigter war. Über Gorm selbst ist kaum etwas bekannt, aber anders als er, lehnte sein Sohn Harald Blauzahn die Taufe nicht ab. Haralds Sohn Sven Gabelbart versuchte sich als Wikingeranführer und fiel auch in England ein; dort wurde er 1013 als König anerkannt, starb aber 1014. Sein Sohn war der bereits erwähnte Knut (auch Knut der Große genannt), der England und Dänemark für kurze Zeit in einer Art Personalunion verband. Knut fiel 1015 in England ein und errang dort militärische Erfolge. Mit König Edmund II. verständigte er sich und übernahm nach dessen Tod 1016 auch Wessex. Somit herrschte Knut faktisch über ganz England. Seit 1014/1015 bezeichnete er sich als "rex Danorum" („König der Dänen“), Alleinherrscher in Dänemark war er seit 1019. In Schweden und Norwegen stieß seine Expansion auf harten Widerstand, wobei Knut gegen Norwegen erfolgreicher agierte. Das von ihm errichtete Nordseereich hatte nach seinem Tod 1035 jedoch keinen Bestand. Ost- und Südosteuropa. Der Osten und Südosten Europas war im Frühmittelalter ein politisch zersplitterter Raum. Noch im Verlauf der endenden Völkerwanderung im 6. Jahrhundert drangen in den von germanischen Stämmen weitgehend aufgegebenen Raum östlich der Elbe und nördlich der Donau Slawen ein. Ihre Herkunft bzw. der Prozess ihrer Ethnogenese ist bis heute umstritten und problematisch. Gesichert ist ihr Auftauchen durch archäologische Befunde sowie literarische Quellen (z. B. Jordanes und Prokopios von Kaisareia) erst für das 6. Jahrhundert. Eine aus dem 9. Jahrhundert stammende Aufzeichnung der Slawenstämme findet sich beim sogenannten Bayerischen Geographen. Einzelheiten über die weitere Ausbreitung der Slawen und ihren ersten Herrschaftsbildungen sind kaum bekannt; nur wenn sie in Kontakt oder Konflikt mit den Nachbarreichen kamen, ändert sich dies. Im Donauraum tauchten zur Zeit Justinians die Anten auf. In der Folgezeit überschritten offenbar mehrere slawischen Gruppen die Donau, wobei sie zunächst unter der Oberherrschaft der Awaren standen. Diese hatten Ende des 6. Jahrhunderts im Balkanraum ein eigenes Reich errichtet, bevor die Macht der Awarenkhagane im 7. Jahrhundert spürbar nachließ. Seit den 580er Jahren geriet die byzantinische Grenzverteidigung im Donauraum unter massiven Druck und gab schließlich zu Beginn des 7. Jahrhunderts nach, zumal die Truppen im Osten im Kampf gegen die Perser benötigt wurden. Slawen fielen daraufhin in die römischen Balkanprovinzen und in Griechenland ein. 626 belagerten Slawen als awarische Untertanen vergeblich Konstantinopel. Nach dem Zusammenbruch der awarischen Vorherrschaft bildeten sich im Balkanraum mehrere slawische Herrschaften, die von den Byzantinern als Sklavinien bezeichnet wurden. Es fand eine faktische Landnahme statt, auch in Teilen Griechenlands siedelten sich Slawen an, wo es aber nach der byzantinischen Rückeroberung zu einer Rehellenisierung kam. Die byzantinischen Städte im Balkanraum schrumpften, wirtschaftlich und demographisch bedeutete dies ebenfalls einen erheblichen Verlust, wenngleich nur wenige Details bekannt sind. Andererseits übte Byzanz in der Folgezeit noch einen großen kulturellen Einfluss auf die Balkanreiche aus. Erst im 8. Jahrhundert konnte Byzanz in diesem Raum wieder in die Offensive gehen, als mit den (später slawisierten) Protobulgaren bereits ein neuer Gegner auftauchte, der ebenfalls eine Bedrohung für Byzanz darstellte, während die Wolgabulgaren eine eigene Reichsbildung betrieben. Trotz byzantinischer Militäroperationen (dabei unterlag eine byzantinische Armee bereits 679, während im 8. Jahrhundert Operationen teils sehr erfolgreich verliefen), konnte sich das Bulgarenreich in den Kämpfen mit den Byzantinern behaupten, wie etwa die Erfolge Krums belegen. Krum erweiterte und konsolidierte das Bulgarenreich und war auch gesetzgeberisch tätig. Es kam im bulgarischen Herrschaftsraum zunehmend zu einer Verschmelzung der protobulgarischen und slawischen Gruppen. Unter Omurtag kam es zu einer intensiven Bautätigkeit im Reich. Bulgarien wurde aber ebenso von byzantinischen Einflüssen geprägt. Unter Boris I., der sich 865 auf den Namen Michael taufen ließ, verstärkte sich im 9. Jahrhundert die Christianisierung trotz mancher Widerstände bulgarischer Bojaren. Die stetige Slawisierung Bulgariens gipfelte in der Übernahme der Liturgie in slawischer Sprache und des kyrillischen Alphabets, wodurch eine eigene bulgarische Literatur entstehen konnte. Höhepunkt der frühmittelalterlichen bulgarischen Geschichte stellte die Regierungszeit Simeons I. im frühen 10. Jahrhundert dar, der gebildet und militärisch erfolgreich war. Er war der erste bulgarische und slawische Herrscher mit dem Titel Zar, der slawischen Entsprechung für einen (regional begrenzten) Kaisertitel. Die Kampfhandlungen mit Byzanz flackerten immer wieder auf, bevor Kaiser Basileios II. nach brutalen Kämpfen die Bulgaren 1014 entscheidend schlug und das Bulgarenreich 1018 eroberte. Eine slawische Westbewegung in den Raum des heutigen Tschechiens und des Ostalpenraums ist archäologisch für das 6. Jahrhundert belegt, die Ostseeküste wurde wohl im 7. Jahrhundert erreicht. Den Zerfall des Awarenreiches begünstigte die „slawische Expansion“. So nutzte dies ein fränkischer Kaufmann namens Samo aus, der sich an die Spitze eines Slawenaufstands stellte und in der ersten Hälfte des 7. Jahrhunderts ein slawisches Reich (wohl im böhmischen Raum) errichtete, das auch einem Angriff der Franken widerstand, nach Samos Tod aber zusammenbrach. Besonders im 9. Jahrhundert entstanden mehrere, auch länger bestehende slawische Herrschaften, so in Böhmen, das bald christianisiert wurde und seit dem 10. Jahrhundert zum römisch-deutschen Reich gehörte. Des Weiteren Kroatien (wobei die Kroaten bereits im 7. Jahrhundert nach Dalmatien eingewandert waren) und Serbien, letzteres geriet bald unter byzantinischen Einfluss. Weiter östlich entstanden in Polen und in der heutigen Ukraine neue Herrschaften, die in der weiteren Geschichte Europas eine bedeutende Rolle spielten. Dazu gehörte etwa der Kiewer Rus, der im 10. Jahrhundert christianisiert wurde und unter Wladimir I. eine erste Blütezeit erlebte. Um 900 fand auch die Landnahme der (nicht slawischen) Ungarn statt, die wiederholt weitreichende Raubzüge unternahmen und mehrmals in Italien und Ostfranken einfielen, bevor sie 955 geschlagen wurden. Erster ungarischer König wurde 1001 Stephan I., der Begründer der Árpáden-Dynastie. Stephan war Christ und unterstellte sein Reich dem Heiligen Stuhl, wofür er die kirchliche Organisationsoberhoheit erhielt. Stephan schuf im Inneren eine königliche Verwaltung und stärkte Kirche und Königsgewalt in Ungarn. Außenpolitisch kam es im frühen 11. Jahrhundert zu Konflikten mit dem römisch-deutschen Reich, während Ungarn, das zu einer bedeutenden Macht in Südosteuropa aufstieg, zu Byzanz und Polen recht gute Beziehungen unterhielt. Im 9. Jahrhundert wurde von den Franken die Grenze im Elberaum gesichert. Hier hatten sich in karolingischer Zeit mehrere Slawenstämme etabliert, darunter die Abodriten und Wilzen. In ottonischer Zeit wurde die Unterwerfung und Christianisierung der paganen Elbslawen versucht, doch erlitt dieses Vorhaben durch den Slawenaufstand von 983 einen erheblichen Rückschlag. Polen, das sich im 8./9. Jahrhundert mit dem Kernraum der Polanen etablierte, erstarkte unter den Piasten im 10. Jahrhundert. Mieszko I. nahm das Christentum an, fortan förderten die polnischen Herrscher die Missionierungen der paganen Gebiete. Mit den ottonischen und salischen Herrschern kam es immer wieder zu Kooperationen (verbunden mit Tributzahlungen) und Konflikten, als Abgrenzung zum römisch-deutschen Reich sind auch die drei Königskrönungen im 11. Jahrhundert zu verstehen. Bolesław I. ließ sich 1024/25 zum König krönen, doch musste Polen schließlich Gebiete an die salischen Herrscher abtreten. Hauptresidenz des verkleinerten Königreichs wurde Krakau. Byzanz. Byzanz und das Kalifat im Frühmittelalter Das Oströmische Reich hatte sich im Laufe des 7. Jahrhunderts tiefgreifend gewandelt. Das in Armee und Verwaltung noch gesprochene Latein war endgültig dem Griechischen gewichen; aufgrund der arabischen Eroberungen sowie der Bedrohung der Balkangebiete waren um die Mitte des 7. Jahrhunderts an den Grenzen Militärprovinzen entstanden, die sogenannten Themen. Auf dem Fundament römischen Staatswesens, griechischer Kultur und christlich-orthodoxen Glaubens entstand das mittelalterliche Byzanz. Die Abwehrkämpfe gegen die Araber dauerten bis ins 8./9. Jahrhundert an. Byzanz verlor mit den orientalischen und afrikanischen Provinzen bis Ende des 7. Jahrhunderts mehr als die Hälfte seiner Bevölkerung und des Steueraufkommens. Der Verlust dieser Provinzen, in denen mehrheitlich christliche Kirchen mit einer abweichenden Haltung zur Reichskirche vertreten waren, sorgte aber auch für eine stärkere religiöse Gleichförmigkeit des Reiches. Die arabische Seemacht und regelmäßige Vorstöße zu Land bedrohten zunächst weiterhin Byzanz, während die Balkangebiete und Griechenland von Bulgaren und Slawen bedrängt wurden. In Griechenland siedelten sich im späten 6. (vielleicht aber auch erst im frühen 7.) Jahrhundert slawische Gruppen an, doch sind die Details in der neueren Forschung umstritten. Mehrere Küstenregionen blieben in byzantinischer Hand. Die von Slawen beherrschten Gebiete in Griechenland ("Sklavinien") wurden bis ca. 800 nach und nach zurückerobert und wieder hellenisiert. Auf dem Balkan sowie in Kleinasien, der nun zentralen Reichsregion, entstanden Festungsstädte, Kastra genannt. Diesen Existenzkampf konnte das Reich durch eine militärische Neuorganisation mit fähigen Generalen, begünstigt durch innerarabische Machtkämpfe, überstehen, wonach sich der byzantinische Staat wieder konsolidierte. Justinian II. war der letzte Herrscher der von Herakleios begründeten Dynastie. Nach seinem Tod 711 folgten einige Jahre der Anarchie, bevor 717 mit dem Themengeneral Leo wieder ein fähiger Kaiser den Thron bestieg. Leo(n) III. wehrte 717–718 den letzten und ernsthaftesten arabischen Vorstoß auf Konstantinopel ab. Der neue Kaiser ging sogar zu einer begrenzten Offensive über und errang 740 bei Akroinon einen großen Sieg. Leo sicherte die Grenzen und begann im Inneren mit Reformen; so wurde etwa ein neues Gesetzbuch ("Ekloge") herausgegeben. 741 folgte ihm sein Sohn Konstantin V. (reg. 741–775) nach, der zunächst eine Usurpation niederschlagen musste. Gegen Araber, Bulgaren und Slawen ging der Kaiser in den folgenden Jahren offensiv vor und errang mehrere Erfolge. Im Inneren wurde Byzanz im 8. und 9. Jahrhundert durch den sogenannten Bilderstreit erschüttert. In der modernen Forschung wird dieser wichtige Abschnitt der mittelbyzantinischen Zeit allerdings sehr viel differenzierter betrachtet. Verglichen mit der außenpolitischen Bedrohung, scheinen die erhaltenen (bilderfreundlichen) Quellen ein recht verzerrtes Bild von dieser inneren Auseinandersetzung zu vermitteln, das nicht der Realität entspricht. So ist es bereits sehr fraglich, ob es durch die „ikonoklastischen“ (bilderfeindlichen) Kaiser zu einem regelrechten Bilderverbot oder blutigen Verfolgungen aufgrund der Bilderverehrung gekommen ist (siehe unten). Die von Leo III. begründete Syrische Dynastie hielt sich bis 802 an der Macht; es folgten die Amorische Dynastie (820–867) und die Makedonische Dynastie (867–1057). Außenpolitisch musste das Reich im frühen 9. Jahrhundert einige Rückschläge verkraften. Der Bulgarenkhan Krum schlug 811 ein byzantinisches Heer, tötete den Kaiser und fertigte aus dessen Schädel ein Trinkgefäß an. 813 folgte eine weitere Niederlage gegen die Bulgaren, bevor an der Balkangrenze vorerst Ruhe einkehrte. Mitte des 9. Jahrhunderts begannen die Byzantiner die Missionierung der Balkanslawen und Bulgaren. Dennoch kam es Ende des 9. und zu Beginn des 10. Jahrhunderts wieder zum Konflikt mit Bulgarien, Byzanz musste zeitweise sogar Tributzahlungen leisten. Das ehrgeizige Ziel Simeons I., die byzantinische Kaiserkrone zu erlangen und ein bulgarisch-byzantinisches Großreich zu errichten, wurde zwar nicht erreicht; Bulgarien blieb aber ein für Byzanz bedrohlicher Machtfaktor in der Region. Im 10. Jahrhundert errangen die Byzantiner mehrere Siege. Ihre Flotte beherrschte wieder die Ägäis und in der Regierungszeit der Kaiser Nikephoros II. und Johannes Tzimiskes wurden Kreta, Zypern, Kilikien und Teile Syriens zurückerobert; byzantinische Truppen stießen kurzzeitig sogar bis nach Palästina vor. Gleichzeitig ging allerdings der byzantinische Einfluss im Westen, wo Sizilien um 900 verloren ging, spürbar zurück. Nachdem es Mitte des 7. Jahrhunderts zu einem kulturellen Einbruch gekommen war, wenngleich mehr antike Substanz erhalten blieb als in vielen Regionen des Westens, erholte sich das Reich und es begann im 9. Jahrhundert die sogenannte Makedonische Renaissance. Diese Phase der verstärkten Rückbesinnung auf das antike Erbe in Byzanz wurde von mehreren Kaisern gefördert, darunter Leo VI. und Konstantin VII. Im Inneren bestimmten die Generale und Führer der großen Familien die Politik des 10. Jahrhunderts maßgeblich, bevor 976 ein neuer Kaiser an die Macht kam und sich nach schwierigem Beginn durchsetzen konnte. Basileios II. (reg. 976–1025) eroberte nicht nur das Bulgarenreich, sondern sicherte auch die byzantinische Ostgrenze. Er machte Byzanz wieder endgültig zur Großmacht im östlichen Mittelmeerraum. Seine Nachfolger hatten allerdings weniger Erfolg; die Folgen der Niederlage von Manzikert (1071) waren verheerend, da Byzanz das Innere Kleinasiens an die Türken verlor und von nun an wieder in einen Abwehrkampf gedrängt wurde. Die islamische Welt. In Arabien entstand im frühen 7. Jahrhundert mit dem Islam eine neue monotheistische Religion. Ihr Prophet und Religionsstifter war Mohammed, der aus einer führenden mekkanischen Familie stammte. Die islamische Überlieferung zu Mohammed (Koran, Hadithliteratur, Biographien und islamische Geschichtsschreibung) ist reichhaltig, doch sind verschiedene Aussagen widersprüchlich; einzelne Aspekte werden daher in der modernen Forschung kritischer betrachtet und sind umstritten. Die Frühgeschichte des Islams, für die die Quellenlage (unter anderem aufgrund zunächst vor allem mündlicher Überlieferung arabischer Berichte) problematisch ist, wird in der neueren Forschung wieder verstärkt diskutiert. Dazu gehört die Feststellung, dass die Entwicklung der neuen Religion im geschichtlichen Kontext der ausgehenden Spätantike erfolgte und von verschiedenen zeitgenössischen Strömungen beeinflusst wurde. Mohammed war als Kaufmann tätig, als er mit etwa 40 Jahren ein Offenbarungserlebnis hatte. Er trat anschließend für einen strengen Glauben an einen allmächtigen Schöpfungsgott (Allah) ein, der von den Gläubigen eine sittliche Lebensführung verlange. Damit stieß er in Mekka allerdings auf Widerstand. Die Stadt profitierte als paganer Wallfahrtsort mit der Kaaba als Mittelpunkt. Gleichzeitig gab es in Arabien aber auch jüdische und christliche Einflüsse, die monotheistische Strömungen wie den neuen Glauben begünstigten; Mohammed war zudem nicht die einzige Person, die in dieser Zeit als Prophet auftrat. 622 begab sich Mohammed mit seinen Anhängern nach Medina; der Auszug aus Mekka (Hidschra) ist der Beginn der islamischen Zeitrechnung. Allerdings musste er auch in Medina Widerstände überwinden. Es kam anschließend zum Krieg mit Mekka, den Mohammed schließlich 630 endgültig für sich entscheiden konnte. Bekehrte Mekkaner und vor allem Mohammeds eigener Stamm der Koreischiten spielten fortan eine wichtige Rolle im neuen islamischen Reich. Sehr früh wurde im Islam, anders als beispielsweise im Christentum, ein Anspruch auf politische Herrschaft formuliert; daran wurde auch später festgehalten. Bis zu seinem Tod 632 konnte Mohammed mehrere Erfolge erringen und den Großteil Arabiens unter seiner Herrschaft und auf Basis des neuen Glaubens vereinen. Die nördlichen Randgebiete standen aber weiterhin unter der Kontrolle Ostroms und des Sāsānidenreichs. Nach Mohammeds Tod 632 fiel die Führung dem ersten Kalifen (Nachfolger, Stellvertreter) Abu Bakr zu, einem engen Vertrauten Mohammeds. Abu Bakr war der erste der vier sogenannten „rechtgeleiteten“ Kalifen. Unter den muslimischen Arabern kam es zu einer Abfallbewegung ("Ridda"), da viele Stämme glaubten, nur dem Propheten selbst verpflichtet gewesen zu sein; die Aufständischen wurden schließlich unterworfen (Ridda-Kriege). Unter Abu Bakr begann in den 630er Jahren auch die Islamische Expansion im eigentlichen Sinne: die Eroberung des christlichen Vorderen Orients und Nordafrikas sowie des Perserreichs der Sāsāniden (zu Details siehe oben). Die religiös und durch Aussicht auf reiche Beute motivierten Araber errangen in den folgenden Jahren große Erfolge über die beiden durch lange Kämpfe geschwächten Großmächte; der letzte Krieg zwischen Ostrom und Persien war nach gut 25 Jahren erst 628 beendet worden. Bis 651 war im Osten das Sāsānidenreich, allerdings erst nach schweren Kämpfen, erobert. Im Westen verlor Ostrom/Byzanz seine orientalischen und nordafrikanischen Besitzungen: 636 Syrien, 640/42 Ägypten, bis 698 ganz Nordafrika. 18 belagerten die nun auch als Seemacht auftretenden Araber vergeblich Konstantinopel. Die Araber verlagerten sich auf Raubzüge nach Kleinasien, während im Westen die Iberische Halbinsel (711) erobert wurde und im Osten die Grenze Indiens erreicht wurde; ein (wohl begrenzter) Feldzug ins Frankenreich scheiterte 732 in der Schlacht von Tours und Poitiers. Hinzu kam die Bedrohung der christlichen Reiche durch die neue arabische Seemacht. Von 888 bis 972 setzten sich etwa arabische Seeräuber an der Küste der Provence in Fraxinetum fest (das heutige La Garde-Freinet) und unternahmen ausgedehnte Raubüberfälle; im östlichen Mittelmeerraum bedrohten sie byzantinisches Gebiet (siehe etwa Leon von Tripolis). Die Quellenlage zu den frühen Eroberungen ist allerdings problematisch. Die erst später entstandenen arabischen Berichte (Futuh) sind nicht immer zuverlässig, während für das 7. Jahrhundert nur relativ spärliche christliche Berichte darüber vorliegen. Die Araber errichteten in den eroberten Gebieten neue Städte, wie Kufa, Basra, Fustat oder Kairouan. Bei der Verwaltung stützten sie sich zunächst weitgehend auf die vorhandene, gut funktionierende Bürokratie. Noch bis Ende des 7. Jahrhunderts war Griechisch oder Mittelpersisch in der Verwaltung des Kalifenreichs gängig, die zunächst recht locker organisiert war. Die Mehrheit der Bevölkerung war lange Zeit nichtmuslimisch und wurde dann, zwar relativ langsam, islamisiert, da die neue Religion bessere Aufstiegschancen schuf. Anhänger der Buchreligionen (Christen, Juden und Zoroastrier) mussten eine spezielle Kopfsteuer (Dschizya) zahlen, durften ihren Glauben nicht öffentlich verrichten und keine Waffen tragen, blieben ansonsten aber weitgehend unbehelligt. In der Folgezeit kam es allerdings zu Übergriffen etwa gegen Christen, wie der Druck seit dem späten 7. Jahrhundert insgesamt zunahm, so dass es zu Diskriminierungen und unterdrückenden Maßnahmen seitens der Kalifen und Statthalter gegenüber der christlichen Mehrheitsbevölkerung kam (siehe unten). Islamische Expansion und das Kalifat um 750 Trotz der spektakulären außenpolitischen Erfolge kam es im Inneren des Kalifenreichs wiederholt zu Unruhen. Nach Abu Bakrs Tod 634 folgten zwei weitere Kalifen (Umar ibn al-Chattab und Uthman ibn Affan), bis 656 Mohammeds Schwiegersohn Ali Kalif wurde. Sein Anspruch innerhalb der Gemeinde (Umma) war allerdings umstritten, es kam zum Bürgerkrieg. Ali wurde 661 ermordet; Sieger war schließlich Muawiya (reg. 661–680), der die Dynastie der Umayyaden an die Macht brachte, die bis 750 das Kalifat beherrschen sollte. Die Anhänger Alis hingegen blieben weiterhin aktiv (Schia), was zu einer Spaltung der islamischen Glaubensgemeinde führte. Die Umayyaden machten Damaskus zur Hauptstadt des Kalifats, trieben die (oben geschilderte) Expansion voran und organisierten die Verwaltung nach dem Vorbild in Byzanz und Persien um. Allerdings war ihr Herrschaftsanspruch auch nach dem Tod Alis nicht unbestritten. In Mekka und Medina erhob sich Widerstand und mit Abdallah ibn az-Zubair trat ein Gegenkalif auf. Er wurde jedoch während der umayyadischen Eroberung Mekkas 692 getötet, womit der zweite Bürgerkrieg beendet war. Abd al-Malik (reg. 685–705) sicherte die umayyadische Herrschaft und schuf eine neue islamische Gold- und Silberwährung; in der Verwaltung ersetzte Arabisch endgültig Griechisch und Persisch. Allerdings blieb der Kalifenstaat relativ locker aufgebaut, die Kontrollmacht der Umayyaden war alles in allem recht begrenzt. Als letzter bedeutender umayyadischer Kalif gilt der 743 verstorbene Hischam. In der Spätphase der Umayyaden nahmen die inneren Spannungen zu; so kam es zwischen arabischen und nicht-arabischen Muslimen zum Konflikt, die ungelöste Steuerproblematik (da es verstärkt zu Konversionen kam und somit Gelder ausblieben) wurde zu einer ernsthaften Belastung und innere Unruhen erschütterten das Reich. 750 wurden die Umayyaden von den Abbasiden gestürzt, die im Osten des Reiches eine erfolgreiche Revolte begonnen hatten. Die meisten Umayyaden wurden ermordet, Abd ar-Rahman I. gelang aber auf abenteuerliche Weise die Flucht nach Spanien, wo er 756 das Emirat von Córdoba begründete und sich faktisch vom Kalifat löste. Unter den bis 1258 formal regierenden Abbasiden verlor das Kalifenreich zunehmend seinen spezifisch arabischen Charakter. Der politische Schwerpunkt verlagerte sich nach Mesopotamien im Osten, wo mit Bagdad im Jahr 762 eine neue Hauptstadt gegründet wurde (Runde Stadt Bagdad). Ursprünglich unterstützt von der schiitischen Bewegung, bemühten sich die Abbasiden bald um Distanz, was allerdings zu Widerständen führte. Anhänger Alis wurden bekämpft und vor-abbasidische Kalifen als Usurpatoren betrachtet. Die neuen Kalifen bemühten sich um eine religiöse Einigung des Reiches, doch verhinderte dies nicht das Aufkommen regionaler Dynastien in den Randgebieten (ab dem 8. Jahrhundert). Die frühe Abbasidenzeit war eine kulturelle Blütezeit in Kunst, Literatur, Philosophie, Theologie und Rechtswissenschaft. Der Kalifenhof in Bagdad entfaltete eine enorme Pracht, orientiert am Vorbild des Sāsānidenreichs, des letzten Großreichs des alten Orients. Das Monopol der Araber auf die hohen Posten im Reich war beendet; Perser spielten fortan eine wichtige Rolle am Hof in politischer und kultureller Hinsicht. Beispielhaft war die Hofhaltung von Hārūn ar-Raschīd (reg. 786–809), dessen Ruf sogar bis ins Frankenreich reichte. Politisch verschlechterte sich die Lage im 9. Jahrhundert jedoch dramatisch, als verschiedene türkische Söldnerführer in den Provinzen die Macht ergriffen. Sie gewannen schließlich auch am Kalifenhof Einfluss, was den politischen Niedergang des Kalifats einleitete. Mitte des 10. Jahrhunderts standen die Abbasiden unter der Kontrolle der Buyiden, die für gut 100 Jahre die wahre Macht in Bagdad ausübten, während der Kalif nur noch geistliches Oberhaupt war. 929 hatte sich in Spanien Abd ar-Rahman III. zum Kalifen proklamiert; dies war der Beginn des bis 1031 bestehenden Kalifats von Córdoba. Im 10. und 11. Jahrhundert bedrohten zudem die Fatimiden in Ägypten die Herrschaft der Abbasiden. Die Macht der Kalifen in Bagdad war bereits zu diesem Zeitpunkt gebrochen und nur noch eine Scheinherrschaft. Herrschaftsform. Die „staatliche Entwicklung“ verlief in den verschiedenen frühmittelalterlichen Reichen unterschiedlich. Zentrale Verwaltungsstrukturen aus spätrömischer Zeit hatten in den Königreichen der Völkerwanderungszeit zunächst fortbestanden (so vor allem in den Gotenreichen, aber auch im Vandalen- und im Frankenreich). Bestimmte Elemente (Finanzen, Münz- und Urkundenwesen) blieben im Westen in der Folgezeit weitgehend erhalten; allerdings waren die staatlichen Strukturen verglichen mit der römischen Zeit nur rudimentär ausgebaut bzw. brachen schließlich zusammen. Am problematischsten war, dass das römische Steuerwesen im Westen aufhörte zu existieren und nun vor allem Landbesitz entscheidend war. Die Einkommen der post-römischen Reiche waren daher weitaus geringer als zur Zeit des Imperiums. Im frühmittelalterlichen lateinischen Europa leitete sich die „staatliche Gewalt“ nicht von einer zentralen Autorität ab (wie dem König), sondern von jedem in welcher Form auch immer Herrschenden. Herrschaft war im Frühmittelalter daher ganz wesentlich an einzelne Personen gebunden, es existierten faktisch keine „staatlichen Institutionen“ (und damit kein abstrakter Begriff wie Staatlichkeit) losgelöst von diesen personalen Herrschaftsstrukturen. In der Völkerwanderungszeit gewannen vor allem die militärischen Fähigkeiten von Anführern an Bedeutung (Heerkönig), die darauf aufbauend eigene Herrschaften errichteten. Allerdings kam es im Laufe der Zeit zu einer „Verdichtung“ der Herrschaft, indem nicht mehr nur das Königtum als zentraler Bezugspunkt existierte, sondern auch das Reich an sich als Idee an Kraft gewann und somit erst eine Stabilisierung der Herrschaftsgebilde, wie das Frankenreich, ermöglichte. Dieses Strukturdefizit betraf fast alle frühmittelalterlichen Herrschaftsgebilde in Europa – in Skandinavien sowie bei den Slawen hatte sich die Königsherrschaft im Vergleich zu den germanisch-romanischen Reichen und dem angelsächsischen England ohnehin relativ spät entwickelt –, nur in Byzanz und im Kalifat waren die staatlichen Strukturen straffer organisiert. Wenngleich in der neueren Forschung viele Aspekte der mittelalterlichen Herrschaft umstritten sind (zu unterscheiden ist etwa Königsherrschaft, Kirchenherrschaft, Dorf- und Stadtherrschaft usw.), kann generell als wichtiges Merkmal gelten, dass Herrschaft ganz wesentlich auf Gegenseitigkeit beruhte und es sich um einen Herrschaftsverband handelte. Der Herrscher und der Beherrschte waren durch Eide aneinander gebunden: Im Austausch für Schutz und bestimmte Leistungen wurde Unterstützung versprochen. Dies galt vor allem im militärischen Bereich, da die frühmittelalterlichen Reiche (außer Byzanz und Kalifat) keine stehenden Heere wie in römischer Zeit unterhielten, sondern für militärische Aktionen auf Gefolgschaften angewiesen waren. Untertanenloyalitäten galten im Grunde nur dem jeweiligen Herrscher und mussten daher bei einem neuen Herrschaftsantritt erneut gesichert werden. Es handelte sich nicht um ein reines Herrscher-Untertanen-Verhältnis, denn der Adel hatte Anspruch auf Teilhabe an der Herrschaft, was es zu achten galt. Dazu dienten unter anderem Freundschaftsbindungen, weshalb in den Quellen oft von "amicitia" die Rede ist. Die Bedeutung des römischen Rechts war im Frühmittelalter zwar vergleichsweise gering, die Beschäftigung damit brach aber vor allem in Italien nie völlig ab, zumal auch in den germanisch-romanischen Reichen Rechtssammlungen erstellt wurden. Eine wichtige Rolle spielten die germanischen Volksrechte ("Leges"), die vom 5. bis ins 8. Jahrhundert bezeugt sind, so bei Goten, Franken, Burgunden, Alamannen, Bajuwaren und Langobarden. Hinzu kam das später verstärkt rezipierte Kirchenrecht. Die Frage des Lehnswesens. In den germanisch-romanischen Nachfolgereichen Westroms entwickelte sich das germanische Gefolgschaftswesen der Völkerwanderungszeit, in dem der Heerkönig eine wichtige Rolle spielte, weiter und wurde durch den Kontakt mit der römischen Staatlichkeit beeinflusst. Die Herrschaft über ein freies Gefolge weitete sich schließlich zur Herrschaft über Land und Leute aus (Grundherrschaft, siehe unten). Nach traditioneller Ansicht der Forschung entwickelte sich daraus im frühmittelalterlichen lateinischen Europa das Lehnswesen als politische Organisationsform. Beide Seiten konnten vom Lehnsverhältnis profitieren, denn während der Lehnsherr zusätzliche Macht gewann, erhöhte sich auch das Prestige des Lehnsträgers, wenn er einem sozial Höhergestellten den Lehnseid leistete. Solche Eide konnten auch als Belohnung für geleistete Dienste abgelegt werden. In der modernen Forschung ist die traditionelle Vorstellung vom Lehnssystem, die unter anderem François Louis Ganshof maßgeblich geprägt hat, aber stark in Frage gestellt worden. Lange Zeit wurde angenommen, dass die später verbreitete Praxis von Vasallität und Lehensvergabe bereits in karolingischer Zeit üblich war. Die Wurzeln der Vasallität sind wohl gallo-römisch/fränkisch, doch ist die Deutung der einschlägigen Quellen problematisch. So wurde z. B. der dort auftauchende Begriff "vassus" oft als Vasall gedeutet, ebenso "fidelis", während "beneficium" oft als Lehen interpretiert wurde. Die Begriffe sind aber mehrdeutig, so bedeutet "vassus" nicht zwangsläufig „Vasall“. "Fidelis" bedeutet zunächst nur „Getreuer“, "beneficium" als „Wohltat“ konnte eine Schenkung bezeichnen, die nicht an eine Gegenleistung geknüpft war. In den Quellen des 9. Jahrhunderts wird zudem bislang kein hoher fränkischer Amtsträger auch als "vassus" bezeichnet, was aber im Rahmen eines voll entwickelten Lehnssystems eigentlich der Fall sein müsste. In der Vergangenheit wurden, so lautet ein zentraler Kritikpunkt der neueren Forschung, oft Termini in den Quellen als Hinweise auf Vasallität gedeutet, deren Zuordnung nicht gesichert ist. Persönliche Bindungen waren demnach im Karolingerreich, das von der älteren Forschung in Bezug auf die Ausbildung des Lehnssystem oft untersucht worden ist, sehr vielfältig und folgten keinem starren Muster. Ein Treueid eines Getreuen war demnach nicht zwangsläufig ein Lehenseid. Aus diesem Grund wird in der neueren Forschung betont, wie unsicher viele ältere Interpretationen sind und sich das System, in dem Lehen und Vasallität eng verbunden waren und aufgrund erblicher Lehen das Treueverhältnis oft weniger respektiert wurde, erst später entwickelte und im Frühmittelalter in dieser Form nicht gängig war. Diese Diskussion ist noch nicht abgeschlossen. Königs- und Adelsmacht. Das Königssiegel Ottos I., das von 936 bis 961 in Gebrauch war, zeigt den König mit Lanze und Schild Eine möglichst große Nähe des Königs zu seinen Untertanen war ein wichtiger Faktor hinsichtlich der Intensivierung der Königsherrschaft. Die frühmittelalterlichen Könige, speziell im Karolingerreich und seinen Nachfolgereichen, waren oft Reisekönige, die von Pfalz zu Pfalz reisten und unterwegs die notwendigen Regierungsgeschäfte regelten. Dies war in einer zunehmend oralen, „archaischen“ Gesellschaft essentiell, in der die Schriftlichkeit im Verwaltungsbereich nach der frühen Karolingerzeit regional unterschiedlich zurückging (speziell im 10. Jahrhundert); es war allerdings nicht sehr effektiv. Problematisch war die Lage im Ostfrankenreich insofern, als sich dort keine spezifische Residenzstadt entwickelte, anders als etwa zuvor im West- und im Ostgotenreich oder später in England und Frankreich. Die Karolinger stützten sich auf ausgedehnte und wirtschaftlich leistungsfähige Besitzungen, während in der Ottonenzeit das Reisekönigtum bereits stärker ausgeprägt war, wobei die Herrscher aber königsnahe Gebiete in Sachsen und Franken bevorzugten. Es existierten im Karolingerreich und seinen Nachfolgereichen immer königsnahe und königsferne Räume, wo also eine effektive Herrschaftsausübung mal mehr, mal weniger gut gelang. Ebenso standen Adel und hoher Klerus in den jeweiligen Reichen in einer unterschiedlich starken Beziehung zum Königtum. Das Zusammenspiel zwischen König und Kirche war im Frühmittelalter von besonderer Bedeutung. Bereits die Merowinger und später noch stärker die Karolinger hatten die Kirche in ihre Herrschaftskonzeption eingebunden. Eine wichtige Rolle spielte dabei unter den Karolingern die Hofkapelle. Im Inneren stützten sich auch die Ottonen aufgrund der wenig ausgebildeten Strukturen für Verwaltungsaufgaben auf die Reichskirche. Nur die Kirche verfügte über genügend ausgebildetes Personal, das lesen und schreiben konnte; die Bischofskirchen stellten außerdem Truppenkontingente. Im Gegenzug für die Übernahme dieser weltlichen Aufgaben wurden der Kirche zunehmend Herrschaftsrechte übertragen und sie erhielt umfangreiche Schenkungen. In der älteren Forschung wurde dieses Zusammenspiel als Ottonisch-salisches Reichskirchensystem bezeichnet. Die Praxis der Herrschaftsausübung stellt aber im Vergleich zu anderen christlich-lateinischen Herrschern keine Besonderheit dar und erfolgte auch kaum planmäßig. In der neueren Forschung wird darauf hingewiesen, dass es den ottonischen und frühsalischen Königen aufgrund ihrer Machtstellung nur effektiver gelang als anderen Herrschern, die Kirche in die weltliche Herrschaft einzubinden. Durchsetzungsfähigkeit und Akzeptanz der Königsherrschaft variierten. Im Westgotenreich z. B. kam es immer wieder zu Konflikten zwischen König und dem einflussreichen Adel, doch war das Königtum im Westgotenreich bereits stark sakral legitimiert. Der Aspekt der Sakralität von Herrschaft war auch später noch in den anderen frühmittelalterlichen Reichen bedeutend. Zur Stützung der Königsherrschaft wurde unter anderem die sakrale Salbung genutzt, das „Königtum von Gottes Gnaden“ gewann an Bedeutung. Das Königsideal ist immer wieder in den Quellen greifbar, wo der ideale König gerecht, tugendhaft und religiös ist und das Reich verteidigt. Während die späten Merowinger durch die starke Stellung der vom hohen Adel dominierten Hausmeierposten weniger oder gar nicht frei agieren konnten, konnten die frühen Karolinger ihre Herrschaft besser zur Geltung bringen, wobei sie bezeichnenderweise das Amt des Hausmeiers abschafften. Allerdings erschwerten die verschiedenen Herrschaftsteilungen eine konsolidierte Herrschaft. Der dynastische Bezug war oft durchaus vorhanden, allerdings war etwa im Ostfrankenreich der Wahlcharakter des Königtums stark ausgeprägt. Die Königswahl bzw. Königserhebung war dementsprechend in den jeweiligen Reichen unterschiedlich. In Westfranken verfiel die Königsmacht allerdings schließlich im Kampf mit den einflussreichen Großen, in Ostfranken gelang den Ottonen die Stabilisierung der Königsherrschaft, wenngleich die in spätkarolingischer Zeit (wieder) entstandenen Stammesherzogtümer ihre eigenen Interessen vertraten. Neben der effektiven personalen Bindung sowie dem Zusammenspiel mit der Kirche war auch die Verfügbarkeit über das Krongut von Bedeutung. Im angelsächsischen England hingegen gelang es nach der Zeit Alfreds des Großen nur zeitweise, das gesamte Land unter einem König zu vereinen. In Frankreich konnten die Kapetinger im 11. Jahrhundert nur in engen Grenzen die Königsherrschaft ausüben; sie waren im Wesentlichen auf die eigene Krondomäne beschränkt, die Beziehung zum hohen Adel basierte auf weitgehender Gleichheit. Zentrum des herrschaftlichen Handelns war der königliche Hof. Gelang es dem Adel bzw. unterschiedlichen Gruppen innerhalb des Adels, die eigene Herrschaftsausübung in den Territorien zu forcieren oder am Hof den König politisch weitgehend auszuschalten, so sank gleichzeitig die Königsmacht. Aber auch der Adel war ausdifferenziert; so existierten lokale Adelsgruppen und, wie in der Karolingerzeit, reichsweit agierender Adel (wie etwa die Robertiner und die Welfen); dementsprechend variierten die verschiedenen Adelsinteressen. Im Fall einer relativ stark ausgeprägten Königsmacht war es für die Großen wiederum von zentraler Bedeutung, einen möglichst guten Zugang zum Hof und damit zum König zu haben. Nur dies garantierte, dass die eigenen Bedürfnisse und Wünsche gezielt artikuliert und somit möglichst durchgesetzt werden konnten. Es war daher wichtig, wer das „Ohr des Königs“ besaß und damit die Möglichkeit hatte, Bitten, Wünsche und Forderungen vorzutragen oder auch als Fürsprecher aufzutreten. Die Bedeutung des Kräftedreiecks (König, Adel und Kirche) wird in der Forschung für das Frankenreich sowie das Ostfrankenreich betont. Auf den Hoftagen kam es immer wieder zu wichtigen Beratungen, in denen es vor allem um Rat und Unterstützung ging. Der Konsens zwischen König und dem hohen Adel spielte bei der effektiven Herrschaftsausübung eine wichtige Rolle („konsensuale Herrschaft“): Der König und die Großen des Reiches, die in einer wechselseitigen Beziehung zueinander standen, achteten den gegenseitigen Rang und versuchten, möglichst nicht konfrontativ zu agieren. In der modernen Mediävistik wird des Weiteren der Ritualforschung bzw. Herrschaftsrepräsentation ein großer Stellenwert eingeräumt. Es geht um die Beschreibung und Deutung von ritualisierten Abläufen in der mittelalterlichen Politik, die unter dem Begriff „symbolische Kommunikation“ zusammengefasst werden. Dies betrifft unter anderem den zeremoniellen Empfang oder das Konfliktverhalten, wie die Inszenierung der "deditio" (Unterwerfung) aufständischer Fürsten. Rituale waren in diesem Zusammenhang auch deshalb von Bedeutung, weil sie zumindest teilweise als Ausdruck der jeweiligen Rangordnung zwischen den Großen zu verstehen sind. Folgt man diesem Ansatz, so erforderten z. B. herrschaftliche Ehrverletzungen Genugtuung ("satisfactio"), etwa in Form der "deditio". Konflikte an unterschiedlichen Höfen im Frühmittelalter sind mehrmals belegt. Der gütliche Ausgleich ("compositio") gestaltete sich allerdings umso schwerer, je mehr der Konflikt zuvor eskaliert war. In jüngster Zeit ist die Ritualforschung teilweise in die Kritik geraten. Das Kaisertum im Westen. Eine Sonderrolle fiel dem von Karolingern und Ottonen erneuerten westlichen („römischen“) Kaisertum zu, das in spätantiker Tradition stand und eine neue universale Komponente einbrachte (Reichsidee). Das Zweikaiserproblem mit Byzanz hatte nur bis 812 realpolitische Folgen, als im Frieden von Aachen Venedig als Teil des Byzantinischen Reiches anerkannt wurde. Die karolingischen und ottonischen Kaiser übten eine hegemoniale Stellung im lateinischen Europa aus. Allerdings wirkte sich dies sehr selten in einer tatsächlichen politischen Einflussnahme in anderen Reichen aus, denn begründete Eingriffsrechte existierten für das Kaisertum nicht. Es handelte sich letztendlich in erster Linie um einen formalen Vorranganspruch. Das Verhältnis der Kaiser gegenüber dem Papsttum änderte sich jedoch: Während die frühen Karolinger noch eine „Schwurfreundschaft“ geleistet hatten, leisteten die Kaiser später nur noch Schutzversprechen sowie seit der Ottonenzeit Sicherheitseide. Byzanz und Kalifat. In Byzanz hatte hingegen in stärkerem Maße die spätantike Staatlichkeit überlebt. Der byzantinische Kaiser herrschte weitgehend absolut und konnte sich weiterhin auf einen Beamtenapparat stützen (siehe Ämter und Titel im byzantinischen Reich), wenngleich sich der byzantinische Staat im 7. und 8. Jahrhundert, verglichen mit dem spätrömischen Reich des 6. Jahrhunderts, auch stark gewandelt hatte. Die Einflussmöglichkeiten des Kaisers waren in Byzanz aufgrund der differenzierteren und eindeutiger in ihren Abläufen geregelten und auf den Kaiser ausgerichteten politischen Infrastruktur höher; er unterlag auch, anders als im Westen (so während des Investiturstreits), nicht so sehr der Gefahr einer kirchlichen Maßregelung. Im Kalifenreich hatte man die funktionierende byzantinische bzw. persische Bürokratie zunächst weitgehend übernommen, Griechisch und Mittelpersisch blieben bis Ende des 7. Jahrhunderts auch die Verwaltungssprachen. Der Dīwān fungierte als eine zentrale Verwaltungsinstitution, in der Abbasidenzeit mit dem Wesir an der Spitze. Der Kalif selbst wurde nach der Zeit der „rechtgeleiteten Kalifen“ als politischer Führer betrachtet, unterstand aber dem religiösen Recht. Sein weltlicher Herrschaftsanspruch war ebenfalls nicht allumfassend. Nachdem sich im 8./9. Jahrhundert zunehmend lokale Herrschaften gebildet hatten, wurde die politische Theorie vertreten, der Kalif könne seine Macht delegieren, was die Aufgabe eines absoluten Herrschaftsanspruchs bedeutete. Die faktische Macht am Hof ging in der Abbasidenzeit ebenfalls zunehmend auf die hohen Beamten über. Menschen und Umwelt. Die modernen Kenntnisse über die frühmittelalterliche Gesellschaft im lateinischen Europa sind recht lückenhaft. Über das Leben der „einfachen Leute“ berichten die erzählenden Quellen nur sehr selten, während die archäologische Forschung bisweilen genauere Einblicke erlaubt. Im Frühmittelalter lebten nach modernen Schätzungen über 90 % der Menschen auf dem Lande und von der Landwirtschaft. Demographische Angaben sind recht spekulativ, für die Zeit um 1000 wird von einer Gesamtbevölkerung in Europa von etwa 40 Millionen ausgegangen, die in der Folgezeit zunahm. Die allgemeine Lebenserwartung war vor allem in der ärmeren Bevölkerung sehr viel geringer als in moderner Zeit. Manche Gebiete mussten im Laufe der Zeit erst urbar gemacht und kultiviert werden; sogar Gebiete, die in römischer Zeit genutzt wurden, mussten teils erneut gerodet und nutzbar gemacht werden. Die Schwierigkeiten der Lebensbedingungen, die sich aus dem natürlichen Umfeld ergaben, dürfen daher nicht unterschätzt werden. Zudem unterschieden sich die verschiedenen geographischen Räume kulturell und wirtschaftlich voneinander, wie die in spätrömischer Zeit stark urbanisierten und auf das Mittelmeer ausgerichteten Regionen und die weiter nördlichen Regionen. Es gab aber auch weiterhin zusammenhängende urbane Gebiete, so vor allem in Italien und im südlichen Gallien. Diese hatten zwar aufgrund von Kriegen, Seuchen und aus anderen Gründen ebenfalls einen Bevölkerungsrückgang zu verzeichnen, waren aber immer noch relativ dicht besiedelt. Hier sind auch stärkere Kontinuitätslinien von der Spätantike ins Mittelalter zu erkennen. Der östliche Mittelmeerraum ist aufgrund der andersartigen Entwicklung noch einmal ein Sonderfall. Je weiter man sich jedoch von den alten römischen Zentren entfernte, vor allem östlich des Rheins, desto geringer wurde die Bevölkerungsdichte. In der Folgezeit entstanden aber auch neue Siedlungszentren bzw. wurden auf Grundlage älterer Vorläufer Siedlungen und Städte wieder errichtet. Interkulturelle Kontakte zwischen dem lateinischen sowie dem byzantinischen und arabischen Raum waren zwar teils vorhanden, wurden aber nicht selten durch zahlreiche Faktoren (wie geringe Fremdsprachenkenntnisse und eher mangelhafte Raumvorstellungen) erschwert. Von zentraler gesellschaftlicher Bedeutung war die Kirche, die in den Gemeinden sichtbar vertreten war. Die jeweiligen Lebensgemeinschaften waren zumeist überschaubar. Übergreifendes Gemeinschaftsgefühl ist kaum feststellbar und manifestierte sich über spezielle „Trägerschaften“ (Adel und Klerus). Ethnische Identifikationen, also ein übergreifendes „Wir-Bewusstsein“, fehlten weitgehend und bildeten sich erst im Laufe der Zeit aus. Die Entwicklung in den einzelnen Regionen verlief eher heterogen. Vergleichbare Lebensbedingungen, technische Kenntnisse sowie geistige und religiöse Entwicklungen sorgten jedoch für eine gewisse Einheitlichkeit des nach-römischen Europas. Gesellschaftsordnung. Die Auflösung der römischen Ordnung im Westen setzte eine Entwicklung in Gang, die zu neuen gesellschaftlichen Verhältnissen führte. Die frühmittelalterliche Gesellschaft im lateinischen Europa war keine religiöse Kasten- oder ökonomische Klassengesellschaft, sondern eine Ständegesellschaft. Sie war hierarchisch geordnet und sozialer Aufstieg war nur relativ selten möglich. Durch Geburt begründete soziale und rechtliche Ungleichheit war nicht die Ausnahme, sondern der Regelfall. Die an der Spitze stehende adlige Führungsschicht war sehr klein. Königsnähe und Besitzumfang spielten für das adelige Standesbewusstsein eine wichtige Rolle, wenngleich sich gerade der jeweilige Territorialbesitz oft in die eine oder andere Richtung verschob und auch geographisch nicht immer konstant war. Adelige "memoria", zielgerichtete Erinnerungspflege, und herrschaftliche Schwerpunktbildung hatten daher eine wichtige Funktion. Bereits das römische Recht unterschied grundsätzlich zwei Personengruppen: Freie ("liberi") und Unfreie ("servi"), dies wurde auch im Frühmittelalter getan. Eine Art mittlere Stellung zwischen Adel und Unfreien nahmen dabei die Freien mit Besitz ein, die nicht in der Grundherrschaft eingebunden waren. Eine Schicht darunter waren kleine, zu Abgaben pflichtige selbstständige Bauern oder Landarbeiter und Handwerker am Hofe eines Herren. Allgemein ist es nach Ansicht der neueren Forschung falsch, eine Tendenz zur Verelendung im Frühmittelalter zu betonen. Es gab durchaus eine Entwicklung hin zu größeren Freiheiten. Sozial niedrig gestellte Personen entzogen sich teils dem Zugriff ihres Herren und wanderten beispielsweise ab. Seit dem 9. Jahrhundert sind im Frankenreich rechtliche Besserstellungen und Abgabemilderungen feststellbar. Der Adel war allerdings oft bestrebt, Abhängigkeitsverhältnisse zu bewahren und zu verstärken. Selbst in der „niedrigen“ Gesellschaftsschicht finden sich aber Parallelen zur adligen Grundherrschaft, wie z. B. der Bauer, der über sein Haus und seine Familie das Verfügungsrecht hat. In der sozialen Hierarchie folgten die besitzlosen Armen ("pauperes"), die oft auf das Betteln angewiesen waren. Die Kirche griff hierbei zwar oft ein, doch gelang es (auch in der Frühen Neuzeit) nie, dieses soziale Problem befriedigend zu lösen. Ganz unten befanden sich die Sklaven, doch stellt die Frage der frühmittelalterlichen Sklaverei ein Forschungsproblem dar. Dies liegt unter anderem an den unklaren Quellenaussagen zu den Sklaven, so dass man bisweilen versucht, dies mit „Unfreie“ oder „Abhängige“ zu umschreiben. Ebenso existierten zunächst noch im eigentlichen Sinn Sklaven, wobei es sich in der Regel um „Kriegsbeute“ handelte. Besonders Skandinavier (Wikinger) trieben regen Handel mit Sklaven, die vor allem in den arabischen Raum verschifft wurden. Unter christlichem Einfluss wurde das einfache Tötungsrecht des Hausherrn später aufgehoben, der aber über das „Hausgesinde“ weiter frei verfügen konnte. Unfreie "servi" konnten aber auch aufsteigen und befreit werden. Es gab jedenfalls unterschiedliche Abstufungen des Abhängigkeitsverhältnisses (siehe auch Leibeigenschaft). In jüngerer Zeit wurde auch die These vertreten, dass in der Forschung die Abhängigkeit der Bauern vom Grundherren im beginnenden Frühmittelalter zu stark betont worden sei und man das regionale Quellenmaterial jeweils genauer prüfen müsse. Frauen, Kinder und Juden. Die Rolle der Frauen im Frühmittelalter ist nicht ganz eindeutig. Rechtlich waren sie formal unmündig; Vater, Ehemann oder Vormund waren ihnen übergeordnet, auch die Verfügungsgewalt über den Besitz wird Frauen in mehreren Gesetzen abgesprochen. Es hat in der Praxis aber durchaus Möglichkeiten der Selbstentfaltung gegeben, dies hing allerdings entscheidend von ihrem jeweiligen Stand ab. Vor allem im adeligen Milieu finden sich Beispiele für Frauen, die über nicht geringen Einfluss verfügten und sich teils sogar politisch durchsetzen konnten. Dieser Einfluss von Gräfinnen, speziell aber von einigen Königinnen, der in mehreren Quellen greifbar ist, konnte am Hof aber durchaus auf Widerstand stoßen. Dies musste nicht zwingend mit der weiblichen Person zusammenhängen, sondern konnte auch politisch begründet sein, wie das politische Wirken Brunichilds zeigt, während die Regentschaft Theophanus akzeptiert wurde. Im Rahmen der patriarchalischen Gesellschaft des Mittelalters wurde zwar von einer untergeordneten Rolle der Frau ausgegangen, aus den Quellen, in denen Frauen immer wieder hochachtungsvoll erwähnt werden, ist aber keine regelrechte Frauenfeindlichkeit abzuleiten. Ebenso ist es falsch, wie bisweilen geschehen, von Kinderfeindlichkeit im Frühmittelalter zu sprechen. Sorge und Liebe um das Wohlergehen der Kinder kommt in verschiedenen Quellen wiederholt zum Ausdruck; dazu wurde im zeitgenössischen Denken körperliche Bestrafung nicht als Gegensatz empfunden. Allerdings endete die Kindheit aufgrund der niedrigeren Lebenserwartung sehr früh. Eine spezielle Position nahmen die Juden als religiöse Randgruppe in den christlichen Reichen ein. Relativ starke jüdische Minderheiten existierten im Frühmittelalter in Byzanz, Italien, im südlichen Gallien und in Spanien. Im späteren Deutschland gab es in einigen Bischofsstädten jüdische Gemeinden, so unter anderem in Mainz. Bereits im Frankenreich nahmen sie eine durch Privilegien gesicherte Sonderstellung ein. Wirtschaftlich bedeutend war ihre Rolle als Fernhändler, aber auch jüdische Handwerker und Ärzte sind belegt. Rechtlich waren die Juden eingeschränkt und es gab bisweilen judenfeindliche Äußerungen, (im Frühmittelalter relativ seltene) gewaltsame Übergriffe und Versuche von (kirchlich abgelehnten) Zwangstaufen. Auf der Synode von Elvira war es schon um 300 zu einem ersten Eheverbot zwischen Juden und Christen gekommen ("canones" 16/78), mit dem Codex Theodosianus (III, 7,2; IX, 7,5) galt dieses Verbot im gesamten Reich bei Androhung der Todesstrafe. Außerdem wurden den Juden Kleidungsverbote auferlegt, die Sklavenhaltung (damit der Zugang zum Latifundienbesitz und zur Gutsherrschaft) verwehrt und die Übernahme öffentlicher Ämter verboten. Allerdings wurde ihre Religionsausübung auch nicht permanent und systematisch verhindert, oftmals wurden sie weitgehend toleriert. Über die kulturelle Entwicklung der Juden in der Diaspora im Frühmittelalter ist so gut wie nichts bekannt; anhand der späteren Ausformung lassen sich nur einige Schlussfolgerungen ziehen. Eine größere Rolle im religiösen Leben spielte die Midraschliteratur und der babylonische Talmud. Wirtschaftsordnung. Die frühmittelalterliche Gesellschaft war vorwiegend agrarisch geprägt. Grundlage der Gesellschafts- und Wirtschaftsordnung im Westen war die Grundherrschaft, in der die meisten Menschen auf dem Land eingebunden waren (Hörigkeit). Größte Landbesitzer waren der König, der Adel und die Kirche. Ob die adelige und kirchliche Grundherrschaft auf germanische oder spätrömische Wurzeln zurückging oder auf beide, oder ob sie vielmehr eine originäre frühmittelalterliche Entwicklung darstellt, ist in der Forschung umstritten. In spätrömischer Zeit dominierten die ausgedehnten kaiserlichen und senatorischen Landgüter (Latifundien) mit den entsprechenden "villae rusticae". Große Villengüter sind noch bis ins 6. Jahrhundert belegt, bevor das System kollabierte. Der Zusammenbruch der römischen Strukturen hatte somit weitreichende Folgen für die großen senatorischen Landbesitzer, die mit dem römischen Staatswesen eng verbunden waren. Typisch für das Frühmittelalter wurde die Villikation, die zweigeteilte Grundherrschaft: einerseits der Fronhof des Grundherrn, andererseits die vom Grundherrn abhängigen Bauernhöfe. Dem Bauern wurde vom Grundherrn Boden zur Bearbeitung zur Verfügung gestellt und er wurde unter dessen Schutz gestellt, der Bauer musste dafür unterschiedlich hohe Abgaben leisten. Es bestand folglich ein wechselseitiges Verhältnis, von dem freilich der Grundherr am meisten profitierte. Die Grundherrschaften waren aber keine geschlossenen Wirtschaftsräume, vielmehr wurde reger Handel getrieben. Die Landwirtschaft war der bedeutendste Wirtschaftszweig. Im Karolingerreich wurde versucht, das urbare Land genauer zu erfassen und es möglichst in Parzellen (Hufe) einzuteilen. Die im Frühmittelalter schließlich steigende Bevölkerungszahl war für das System der Grundherrschaft problematisch, zumal eine systematische schriftliche Erfassung nicht dauerhaft gelang. Es fand nun jedoch wirtschaftsbezogenes Rechnen statt. Dieser Prozess der wirtschaftlichen Erfassung ist nicht stringent, sondern mit zahlreichen Brüchen verbunden, vor allem seit dem Niedergang des Karolingerreichs, ist aber seit dieser Zeit sicher feststellbar. In der Landwirtschaft ist zwischen Acker- und Weideland zu trennen, wobei der Ackerbau wohl dominierte, auch der Weinanbau war von Bedeutung. Getreide stellte die wichtigste Nahrungsgrundlage für die breite Bevölkerung dar und wurde in vielfältiger Form genutzt. Fleisch und Fisch wurden regional unterschiedlich aber ebenso als Ergänzung verzehrt. Es kam allerdings wiederholt zu regionalen Hungersnöten, besonders bei zunehmender Bevölkerungszahl oder infolge militärischer Auseinandersetzungen. Tiere wurden nicht nur auf den Herrenhöfen, sondern auch auf den Bauernhöfen gehalten. Eine Vielzahl der Alltagsprodukte wurde zu Hause hergestellt. Die Erträge der Aussaat waren relativ gering, sie betrugen nach einer Quelle nur das 1,6 bis 1,8-fache; es ist allerdings fraglich, wie repräsentativ dies ist. Die Anfänge der Dreifelderwirtschaft scheinen auf das 8. Jahrhundert zurückzugehen, sie war im Frühmittelalter aber nicht flächendeckend verbreitet. Zwar begann bereits im Frühmittelalter auch ein Innovationsprozess, technisch wurden aber zunächst viele antike Vorläufer übernommen, so der bereits bekannte Pflug zur Bodenbearbeitung. Als Zugtiere dienten in der Regel vor allem Ochsen, da Pferde zu kostspielig dafür waren. Das Kummet kam erst im 11./12. Jahrhundert verstärkt zum Einsatz und auch nur in Regionen mit ausreichend vorhandenen Pferden; neueren Untersuchungen zufolge waren die antiken Anspannungssysteme dem Kummet auch nicht prinzipiell unterlegen, der erst im Zusammenspiel mit anderen Neuerungen eine wirkliche Effizienzsteigerung brachte. Bei der Getreideverarbeitung spielten Mühlen eine wichtige Rolle, wobei Wassermühlen bereits in der Spätantike weit verbreitet waren. Im Handwerk wurde an römische Traditionen angeschlossen, so in der Keramik-, Glas- und Metallverarbeitung. Spezialisierte Handwerker genossen zwar keine besonders hervorgehobene soziale Stellung, wurden aufgrund ihrer Fertigkeiten aber durchaus geachtet. Eine der wenigen diesbezüglichen Quellen, das karolingische Capitulare de villis vel curtis imperii, verzeichnet unter anderem die Handwerksspezialisten in den königlichen Domänen des Frankenreichs. Eine nicht unwichtige Rolle im Rahmen des Wirtschaftskreislaufs spielten die Klöster. Mehrere verfügten über eigenen, teils sehr erheblichen Besitz und nutzten ihn wirtschaftlich. Die größeren klösterlichen Grundherrschaften konnten über tausend Bauernstellen umfassen. Wichtigstes Transportmittel war das Schiff, gleich ob Binnen- oder Seeschifffahrt. Entgegen älteren Annahmen spielte im Frühmittelalter die Geldwirtschaft immer noch eine wichtige Rolle; die Bedeutung der naturalen Tauschwirtschaft darf daher nicht überschätzt werden. Münzprägungen wurden fast kontinuierlich von der Spätantike bis ins Mittelalter betrieben, doch ist ihre genaue Kaufkraft heute nur noch schwer einzuschätzen. Teilweise ist aber ein erheblicher Materialmangel feststellbar. Bereits seit spätmerowingischer Zeit ist im Frankenreich Bergbau nachweisbar, im 7. Jahrhundert ging man dort von Gold- zu Silbermünzen über. Handel. Handel und Verkehr im Frühmittelalter stellen ein viel diskutiertes Forschungsproblem dar, zumal die relativ wenigen Quellen zur frühmittelalterlichen Wirtschaftsgeschichte recht verstreut sind. In der älteren Forschung wurde oft angenommen, dass der Fernhandel infolge der Umbrüche in der ausgehenden Spätantike zum Erliegen gekommen war (siehe Pirenne-These). Neuere Untersuchungen konnten jedoch belegen, dass es zwar zu einer Abnahme, nicht aber zu einem völligen Abreißen des Fernhandels gekommen war. Das spätantike Handelsnetz hatte den gesamten Mittelmeerraum umfasst. Nach dem Zusammenbruch der römischen Staatsordnung im Westen kam es zu regionalen Ausgestaltungen; in diesem Zusammenhang war die lokale Aristokratie, außer in der "Francia" (dem fränkischen Herrschaftsgebiet) und in der Levante, sogar ärmer und politisch regional beschränkter als in römischer Zeit. Die staatliche Gewalt schrumpfte infolge der geringeren Finanzkraft. Die Fiskalstruktur war einfacher gestaltet als zu römischer Zeit und brach im Westen sogar völlig zusammen. In diesem Zusammenhang darf jedoch nichts verallgemeinert werden, sondern die Regionen müssen jeweils einzeln betrachtet werden. Das spätantike Wirtschaftssystem im Mittelmeerraum hatte im 6. Jahrhundert schwere Rückschläge erlitten, nicht zuletzt durch die sogenannte Justinianische Pest und die anschließenden Pestwellen. Die Folgen der Pest sind allerdings im Einzelnen nur schwer einzuschätzen. Der Bevölkerungsrückgang im beginnenden Frühmittelalter ist aufgrund der uneinheitlichen Quellenbefunde nicht zwingend auf die Pest zurückzuführen; es kann sich auch um Folgen politischer Krisen handeln. Um die Mitte des 7. Jahrhunderts ist wohl ein wirtschaftlicher Tiefpunkt im Mittelmeerhandel festzustellen. Um 700 bildeten sich aber neue Handelsrouten heraus. Die einzelnen Regionen (auch im Westen) waren nicht vollkommen isoliert, sondern standen weiterhin in Handelskontakt zueinander. Entgegen der älteren Lehrmeinung kam es bereits im späten 8. Jahrhundert zu einem nicht unerheblichen wirtschaftlichen Aufschwung. Auch im Mittelmeerraum ist in dieser Zeit ein reger Warenaustausch zwischen den lateinisch-christlichen Reichen, Byzanz und dem Kalifat nachweisbar, von Luxuswaren (wie Pelze und Seide) bis hin zu Salz, Honig und nicht zuletzt Sklaven. Im Westen kam es in der Merowingerzeit außerdem zu einer Handelsverschiebung in den Norden, wobei fränkische Händler schon im 7. Jahrhundert bis in das Slawenland im Osten vorstießen. Hinzu kamen später Handelsrouten nach Skandinavien. Die nördlichen Regionen waren nach der arabischen Expansion keineswegs vom Kulturraum des Mittelmeers abgeschnitten, denn es fand ein wechselseitiger Austauschprozess und eine entsprechende Kommunikation statt. Fernhändler überwanden die engeren Regionengrenzen, einige Jahrmärkte scheinen seit der Spätantike fortlaufend besucht worden zu sein. Dennoch ist es sinnvoll, den westlichen und östlichen Mittelmeerraum hinsichtlich des Warenaustauschs getrennt zu betrachten, da es durchaus Unterschiede gab. Die oftmals geschrumpften Städte waren für den Warenumschlag und Fernhandel auch nach dem 6. Jahrhundert von Bedeutung, besonders in den antiken Kulturlandschaften im Westen, so in Italien und teilweise im südlichen Gallien. Venedig verhandelte mit islamischen Herrschaften wegen Bauholz und trieb Handel mit Salz und vor allem Sklaven, die nach Byzanz und in den islamischen Raum verkauft wurden. Gaeta, Amalfi und Bari profitierten ebenfalls vom Fernhandel. Mailand, das bereits in der Spätantike eine wichtige Rolle gespielt hatte, gewann seit dem späten 10. Jahrhundert wieder an Bedeutung, so im Bereich der Geldwirtschaft. Dagegen brach die antike urbane Kultur im Donauraum und in Britannien faktisch zusammen. Kleinere Städte konnten – wie bereits zuvor und lange danach – nur mit dem Überschuss der lokalen Produktion handeln. Der Handel mit Massenwaren war vor allem für den Binnenhandel von Bedeutung. Der Großteil des Handels dürfte ohnehin innerhalb der Regionen stattgefunden haben. Byzanz. Byzanz durchlief im 7./8. Jahrhundert eine Transformation, wobei wichtige antike Strukturen zwar erhalten blieben, Gesellschaft und Wirtschaft sich aber teils grundlegend wandelten. Aufgrund der angespannten außenpolitischen Lage militarisierte sich die Gesellschaft im 7. Jahrhundert zunehmend. Es formierte sich seit dieser Zeit eine Adelsschicht aus den Reihen der einflussreichen Bürokratie und der großen Landbesitzer und es bildeten sich Familiennamen heraus – Familien, die teils sehr bedeutend wurden. Im späten 9. Jahrhundert rekrutierte sich die Führungsschicht zunehmend aus diesen Geschlechtern. Parallel dazu nahm das freie Bauerntum ab, viele gerieten schließlich in die Abhängigkeit von Großgrundbesitzern. Trotzdem blieb die byzantinische Gesellschaft wesentlich offener als die westeuropäische, auch der Kaiserthron blieb nicht dem hohen Adel vorbehalten. Ein sozialer Aufstieg bis an die Spitze des Staates stand somit grundsätzlich jedem offen, wie das Beispiel von Basileios I. zeigt. Die byzantinische Wirtschaft erholte sich nach der Krisenphase des 6. und 7. Jahrhunderts langsam. In dieser Zeit hatte sie unter den Folgen von Pest und Kriegen gelitten, verbunden mit einem Bevölkerungsrückgang. Die Quellen zur mittelbyzantinischen Wirtschaftsgeschichte, speziell für das 8./9. Jahrhundert, sind jedoch nicht besonders ergiebig. Manche Städte wurden aufgegeben, andere waren auf ihre Kernzentren reduziert, Konstantinopel blieb aber weiterhin eine bedeutende Metropole im Mittelmeerraum und die wichtigste Stadt des Reiches. Die reichsten Provinzen des Reiches waren nach 700 zwar verloren, Kleinasien konnte aber zumindest in gewissem Maß als Ersatzbasis dienen. Die staatliche Bürokratie blieb im Gegensatz zum Westen voll funktionsfähig, wenngleich die Steuereinnahmen zurückgingen. Die Wirtschaftskraft stieg in der folgenden Zeit wieder an; war der byzantinische Staat im 8. Jahrhundert fast verarmt, verfügte er im 10. Jahrhundert wieder über erhebliche Mittel. Allgemein spielte in Byzanz der ländliche Wirtschaftsraum zwar eine wichtige, aber nicht die dominierende Rolle wie im lateinischen Europa, da die urbane Wirtschaftsproduktion weiterhin ein wichtiger Faktor war. Im Gegensatz zum lateinischen Europa war die Wirtschaft zudem stärker staatlich reglementiert und finanzierte über den Fiskus stärker den Herrschaftsapparat. Bildungssystem und Entwicklung. Die frühmittelalterliche Gesellschaft war eine weitgehend orale Gesellschaft, in der nur wenige Menschen lesen und schreiben konnten. Literarisch gebildet war eine noch kleinere Minderheit, die ganz überwiegend, aber nicht ausschließlich, Geistliche umfasste. Das antike Kulturgut stellte die Grundlage dar. Allerdings war im frühmittelalterlichen westlichen Europa nur ein geringer Teil der antiken Literatur erhalten. Das mittelalterliche Latein (Mittellatein) unterschied sich zudem vom klassischen Latein, die Kenntnis des Griechischen hatte bereits in der Spätantike im Westen abgenommen. Dennoch verband die lateinische Sprache auch nach dem Zerfall Westroms weite Teile Europas miteinander, da eine gemeinsame kommunikative Grundlage vorhanden war. Das spätantike dreistufige Bildungssystem (Elementarunterricht, Grammatik und Rhetorik) war infolge der politischen Umwälzungen der Völkerwanderungszeit im Westen nach und nach verschwunden. Die ältere Forschung hat den Übergang von der Antike zum Mittelalter oft mit einer „Barbarisierung“ gleichgesetzt. Es handelt sich letztendlich aber um einen Übergang zu einer neuen Kultur, in der auch abweichende Interessen und ein neues Kulturideal feststellbar sind. Für die romanische Oberschicht war Bildung ohnehin noch längere Zeit von Bedeutung. Der Geschichtsschreiber und Bischof Gregor von Tours im späten 6. Jahrhundert entstammte einer senatorischen gallo-römischen Familie und legte erkennbar Wert auf Bildung, denn er beklagte ihren Verfall. Schulen im südlichen Gallien und Italien gingen nach und nach unter. Die Entwicklung der schriftlichen Kultur im Frühmittelalter verlief sehr heterogen und wurde durch unterschiedliche Faktoren beeinflusst. Ebenso wenig waren Bildung und geistiges Leben im lateinischen Westen einheitlich. In der frühen Merowingerzeit wurde anscheinend noch Profanunterricht erteilt, denn die Merowinger verfügten über eine rudimentäre Bürokratie, für die Schriftkenntnisse erforderlich waren. Die merowingische Kanzlei bestand lange Zeit vorwiegend aus Laien, nicht aus Klerikern. Von der Königsfamilie und Mitgliedern des hohen Adels wurde erwartet, dass sie über Lese- und Schreibfähigkeiten verfügten. Einige Könige wie Chilperich I. besaßen eine gehobene Bildung und demonstrierten sie. Erst nach der Mitte des 7. Jahrhunderts kam es auch infolge der merowingischen Machtkämpfe mit dem Adel zu einem weiteren Verfall. Die Lese- und Schreibkenntnisse nahmen unter Laien, teils aber auch unter Geistlichen stark ab. Im Westgotenreich finden sich noch im 7. Jahrhundert Spuren der spätantiken Bildung. Ähnliches gilt für Italien auch nach der langobardischen Invasion im späten 6. Jahrhundert; in den italienischen Städten sind schriftkundige Laien weiterhin bezeugt. Auf den britischen Inseln entwickelte sich im 7. und 8. Jahrhundert eine neue Kultur der Schriftlichkeit. Im Merowingerreich brach die literarische Produktion zwar im 7./8. Jahrhundert dramatisch ein, doch entstanden noch einige Werke, wie die merowingischen Heiligenviten. Für die mittelalterliche Bildungsvermittlung und den Wissenstransfer im lateinischen Westen waren schließlich die Kloster-, Dom- und Stiftsschulen und somit die Kirche von zentraler Bedeutung. Der Großteil der antiken Literatur ist nicht erhalten, doch in den Klöstern wurde das im Westen noch vorhandene antike Wissen gesammelt und tradiert; diese Tradition begann bereits im 6. Jahrhundert mit Cassiodor. Texte wurden nach festen Regeln gelesen und teils auswendig gelernt sowie in den kirchlichen Skriptorien kopiert. Als Beschreibstoff wurde noch teilweise Papyrus verwendet (so in der merowingischen Verwaltung), doch setzte sich verstärkt das Pergament durch; die Schriftrolle wich zunehmend dem Buch (Kodex). Neben Klerikern erhielten auch Nonnen eine lateinische Ausbildung, einige Schulen standen zudem Laien (so aus der adeligen Oberschicht) offen. Die Laien waren aber in der Regel ungelehrt, in kirchlichen Kreisen wurde teilweise auch der Gegensatz zu den "illiterati" (Leseunkundigen) betont. Rosamond McKitterick vertritt allerdings die umstrittene These, dass in karolingischer Zeit die Schriftlichkeit unter Laien höher gewesen sei, als früher oft angenommen. In den kirchlichen Schulen wurden neben der Bibel und den Texten der Kirchenväter auch profane spätantike Texte für die Lehre herangezogen. Martianus Capella hatte in der Spätantike ein Lehrbuch verfasst, in dem der Kanon der sieben freien Künste (die "artes liberales") zusammengefasst war: Trivium und das weiterführende Quadrivium. Daneben spielten vor allem Boethius und Isidor von Sevilla eine wichtige Rolle. Die Schriften des Boethius genossen im Mittelalter ein gewaltiges Ansehen. Er hatte zudem die freien Künste neu bearbeitet und damit eine wichtige Grundlage für den mittelalterlichen Lehrkanon geschaffen. Isidor hatte im 7. Jahrhundert in der Enzyklopädie "Etymologiae" in 20 Büchern systematisch weite Teile des bekannten spätantiken Wissens gesammelt. Dem Werk kam für die Wissensvermittlung im Frühmittelalter große Bedeutung zu. Karolingische Bildungsreform. Im Frankenreich war die lateinische Sprache stilistisch zunehmend verwildert, auch die kirchlichen Bildungseinrichtungen verfielen. Dieser Prozess wurde im Karolingerreich seit Ende des 8. Jahrhunderts durch gezielte Maßnahmen der Kulturförderung gestoppt. Diese neue Aufschwungphase wird oft als karolingische Renaissance bezeichnet. Der Begriff „Renaissance“ ist aus methodischen Gründen allerdings sehr problematisch. Dies trifft auch auf die sogenannte Makedonische Renaissance in Byzanz zu, da dort eine Kulturkontinuität zur Antike bestand. Hierbei traten zwar Abschwächungen ein, es kam dort aber nie zu einem vollständigen Bruch. Im Frankenreich handelte es sich ebenfalls nicht um eine „Wiedergeburt“ des klassischen antiken Wissens, sondern vielmehr um eine Reinigung und Vereinheitlichung. Für die Karolingerzeit spricht man aus diesem Grund heute von der "karolingischen Bildungsreform". Den Anstoß dafür gab wohl die Reform der fränkischen Kirche durch Bonifatius Mitte des 8. Jahrhunderts. Bereits zuvor fand zudem eine Belebung des geistigen Lebens in England und Irland statt, wo die Schriftkultur zunehmend erstarkte. Die Schriften des sehr belesenen Beda Venerabilis (gest. 735) decken eine große Bandbreite ab, so Kirchengeschichte, Hagiographie, Chronologie sowie die freien Künste und vermitteln das Bild eines lebendigen geistigen Lebens. 40 (Wien, ÖNB cod. 652, fol. 2v) Karl der Große selbst war offenbar kulturell durchaus interessiert und versammelte an seinem Hof gezielt mehrere Gelehrte aus dem lateinischen Europa. Der angesehenste von ihnen war der Angelsachse Alkuin (gest. 804). Alkuin war zuvor Leiter der berühmten Kathedralschule in York gewesen; er besaß eine umfangreiche Bibliothek und genoss einen herausragenden Ruf. Er begegnete Karl in Italien und folgte 782 dem Ruf an dessen Hof, wo er nicht nur als ein einflussreicher Berater wirkte, sondern auch zum Leiter der Hofschule aufstieg. Einhard (gest. 840) stammte aus einer vornehmen fränkischen Familie und war zunächst Schüler Alkuins, später Leiter der Hofschule und Vertrauter Karls. Er war zudem als Baumeister Karls tätig und verfasste nach 814 eine an antiken Vorbildern orientierte Biographie des Königs, die als die „reifste Frucht der karolingischen Renaissance“ bezeichnet worden ist. Petrus von Pisa war ein lateinischer Grammatiker, der Karl in lateinischer Sprache unterrichtet hat. Der langobardische Gelehrte Paulus Diaconus hatte in Italien im Königsdienst gestanden und war 782 an den Hof Karls gekommen, wo er vier Jahre blieb und wirkte. Theodulf von Orléans war ein gotischer Theologe und Dichter. Er war überaus belesen und gebildet; für Karl verfasste er auch die "Libri Carolini". Der Hof Karls und die Hofschule gaben Impulse für eine kulturelle Erneuerung, wobei auch die karolingische Kirche als zentraler Kulturträger reformiert wurde. Die Umsetzung der folgenden Bildungsreform war maßgeblich Alkuins Verdienst. Der Schlüsselbegriff dafür lautete "correctio", wonach die lateinische Schrift und Sprache sowie der Gottesdienst zu „berichtigen“ waren. Das vorhandene Bildungsgut sollte systematisch gesammelt, gepflegt und verbreitet werden; dazu diente auch die Einrichtung einer Hofbibliothek. In der berühmten "Admonitio generalis" aus dem Jahr 789 wird auch das Bildungsprogramm angesprochen. Die Klöster wurden ermahnt Schulen einzurichten. Die Reform der Kloster- und Domschulen war auch aus religiösen Gründen von Bedeutung, da der Klerus auf möglichst genaue Sprach- und Schriftkenntnisse angewiesen war, um die Bibel auslegen und theologische Schriften erstellen zu können. Die lateinische Schriftsprache wurde bereinigt und verbessert. Es wurde sehr auf korrekte Grammatik und Schreibweise Wert gelegt, wodurch das stilistische Niveau angehoben wurde. Als neue Schriftart setzte sich die karolingische Minuskel durch. Im kirchlichen Bereich wurde unter anderem die Liturgie überarbeitet, Homiliensammlungen erstellt und die Beachtung der kirchlichen Regeln eingefordert. Im administrativen Bereich wurden ebenfalls mehrere Änderungen vorgenommen. Die kirchlichen Bildungseinrichtungen wurden verstärkt gefördert, außerdem wurde eine revidierte Fassung der lateinischen Bibelausgabe angefertigt (sogenannte "Alkuinbibel"). Ältere Schriften wurden durchgesehen und korrigiert, Kopien erstellt und verbreitet. Die Hofschule wurde zum Lehrzentrum, was auf das gesamte Frankenreich ausstrahlte. Im Kloster Fulda beispielsweise entwickelte sich unter Alkuins Schüler Rabanus Maurus eine ausgeprägte literarische Kultur. Daneben waren unter anderem Corbie und St. Gallen von Bedeutung. Die Forschung hat für die Zeit um 820 neben dem Karlshof 16 „Schriftprovinzen“ identifiziert, jede mit mehreren Skriptorien. Die Bildungsreform sorgte für eine deutliche Stärkung des geistigen Lebens im Frankenreich. Die literarische Produktion stieg nach dem starken Rückgang seit dem 7. Jahrhundert spürbar an, auch Kunst und Architektur profitierten davon. Antike Texte sowohl von paganen als auch von christlichen Verfassern wurden nun wieder zunehmend herangezogen, gelesen und vor allem kopiert. Besonders nachgefragt waren Ovid und Vergil, daneben wurden unter anderem Sallust, Quintus Curtius Rufus, Sueton und Horaz wieder zunehmend gelesen. Die karolingische Bildungsreform hatte somit für die Überlieferung antiker Texte eine große Bedeutung. Allerdings gab es im Frankenreich regionale Unterschiede. Westfranken war aufgrund des gallo-römischen Erbes kulturell weiter entwickelt. Der Hof Karls des Kahlen wirkte als ein kulturelles Zentrum, von Bedeutung war auch die sogenannte Schule von Auxerre. In Ostfranken hingegen stagnierte die literarische Produktion Mitte/Ende des 9. Jahrhunderts zunächst, bevor es im 10. Jahrhundert wieder zu einem erneuten Aufschwung kam. In ottonischer Zeit gewannen die Kathedralschulen zunehmend an Bedeutung. Im 10. Jahrhundert sind Lese- und Schreibkenntnisse im Adel seltener, die adelig-kriegerische Erziehung war dafür bestimmend. Andererseits verfügten sowohl Otto II. als auch Otto III. über eine sehr gute Bildung. Kultur im östlichen Mittelmeerraum. Ein kulturelles Zentrum bildete vor allem der Osten, Byzanz und die islamische Welt, wo antikes griechisches Wissen bewahrt und gepflegt wurde. In Byzanz riss die Beschäftigung mit antiken Werken nicht einmal in der oft als „dunklen Periode“ bezeichneten Zeit von Mitte des 7. Jahrhunderts bis ins 9. Jahrhundert ganz ab; das beste Beispiel dafür ist Photios. Nicht nur Geistliche, sondern auch Laien, die es sich leisten konnten, genossen dort weiterhin eine Ausbildung, die für den Staatsdienst ohnehin unerlässlich blieb. Der Elementarunterricht in Lesen und Schreiben dauerte zwei bis drei Jahre und stand auch den mittleren Schichten offen. Genauere Einzelheiten über die Erteilung des Unterrichts sind aber kaum bekannt. Die höhere Bildung wurde bisweilen staatlich gefördert und überwacht. Der diesbezügliche Unterricht wurde an kaiserlichen Hochschulen erteilt, in mittelbyzantinischer Zeit also primär in Konstantinopel; in den Provinzen scheint es aber ebenfalls einige Einrichtungen gegeben zu haben. Es existierten mehrere umfangreiche Bibliotheken, die Ausbildung konnte etwa Rechtswissenschaften, Theologie oder Medizin umfassen. Im islamischen Raum wurde in der Masǧid (Moschee) unterrichtet, zu der eine angegliederter Herberge für die Schüler gehörte. Höhere Bildung (außer in Al-Andalus) wurde in der gildenartig organisierten Madrasa unterrichtet, wo vor allem islamische Theologie und Rechtswissenschaft (auch mit Kenntnis des Koran) gelehrt wurde. Finanziert wurde der Unterricht durch private Zuwendungen. Es entstanden zahlreiche arabische Übersetzungen griechischer Werke (Haus der Weisheit). In Damaskus, Bagdad, später auch auf Sizilien und in Al-Andalus, beschäftigte man sich ausgiebig mit den antiken Schriften, die Impulse für neue Überlegungen gaben. In der Umayyadenzeit erfolgte die kulturelle Orientierung noch stark an den spätantiken Vorbildern. So wurden prächtige Jagdschlösser im spätantiken Baustil errichtet (so Chirbat al Mafdschar nördlich von Jericho und Qasr al-Hair al-Gharbi in Syrien). Zu erwähnen sind des Weiteren christliche syrische Gelehrte, die unter arabischer Herrschaft lebten, so Jakob von Edessa, Johannes von Damaskus und Theophilos von Edessa. Syrer spielten generell bei der Vermittlung des antiken Wissens an die Araber eine nicht unwichtige Rolle. Ebenso gelangte Wissen aus dem Osten in das lateinische Europa. Indisch-arabische Ziffern sind seit dem späten 10. Jahrhundert belegt. Vor allem Spanien und später Sizilien spielten eine wichtige Vermittlerrolle. Geschichtsschreibung. Ausschnitt aus einem Manuskript der "Historien" Gregors von Tours Das letzte bedeutende und weitgehend erhaltene spätantike Geschichtswerk in lateinischer Sprache hat Ammianus Marcellinus im späten 4. Jahrhundert verfasst. Die Namen einiger lateinischer Geschichtsschreiber im Westen bis zum Ende der Antike sind zwar bekannt, von ihren Werken ist aber faktisch nichts erhalten. Das trifft auch auf die "Gotengeschichte" Cassiodors zu (der außerdem eine erhaltene Chronik verfasste), welche die Grundlage für die "Getica" des Jordanes darstellte. Ende des 6. Jahrhunderts verfasste der gebildete, aus senatorischer gallo-römischer Familie stammende Bischof Gregor von Tours sein Hauptwerk, die bis 591 reichenden "Historien" in 10 Büchern. Es handelt sich um eine bedeutende christliche Universalgeschichte mit dem Frankenreich im Zentrum, wobei die Zeitgeschichte besonders ausführlich beschrieben wurde. Das Niveau Gregors wurde in der Folgezeit lange nicht mehr erreicht. Die Fredegarchronik aus dem 7. Jahrhundert etwa ist in einem verwilderten Latein geschrieben und auch inhaltlich dürftig. Typisch für die frühmittelalterliche Geschichtsschreibung sind neben der Chronik (Lokalchroniken und christliche Weltchroniken, die spätantiken Ursprungs sind) die Annalen. Sie entstanden in den karolingischen Klöstern und entwickelten sich von sehr kurzen, jahrweisen Einträgen zu teils ausführlichen, chronikartigen Schilderungen. Die bedeutendsten waren die bis 829 reichenden Reichsannalen, an denen sich in West- und Ostfranken verschiedene Fortsetzungen anschlossen (Annalen von St. Bertin, Annalen von Fulda). Inhaltlich standen sie dem karolingischen Herrscherhaus nahe und können bereits in gewisser Weise als Hofgeschichtsschreibung angesehen werden. Hinzu kamen weitere Annalen und Chroniken, die oft auf das eigene Bistums-, Kloster- oder Reichsgebiet ausgerichtet waren. In karolingischer Zeit entstanden auch mehrere erzählende Geschichtswerke. Paulus Diaconus schrieb eine Langobardengeschichte in 6 Büchern (sein Hauptwerk), eine römische Geschichte in 16 Büchern und eine Geschichte der Bischöfe von Metz, die die karolingischen Ahnen pries. Nithard, im Gegensatz zu den meisten frühmittelalterlichen Autoren im Westen kein Geistlicher, schrieb vier Bücher "Historien" über die Geschichte der karolingischen Bruderkämpfe nach dem Tod Karls des Großen. Der karolingische Hofgelehrte Einhard verfasste die erste mittelalterliche Biographie eines weltlichen Herrschers: Inspiriert von den Kaiserbiographien Suetons, verfasste er nach dem Tod Karls des Großen die Vita Karoli Magni. Karls Sohn und Nachfolger Ludwig dem Frommen waren sogar zwei Biographien gewidmet: die Thegans und die eines anonymen Autors, der als Astronomus bezeichnet wird. In der späten Karolingerzeit schrieb Regino von Prüm eine bis 906 reichende Weltchronik. Im frühen 10. Jahrhundert entstanden zunächst keine größeren Geschichtswerke, wie auch die Schriftlichkeit in Ostfranken in dieser Zeit abgenommen hatte. Widukind von Corvey schrieb eine "Sachsengeschichte" in drei Büchern, die wichtig für die ottonische Geschichte ist. Die Ende des 10. Jahrhunderts verfasste Bischofschronik des Thietmar von Merseburg weitete sich zu einer bedeutenden Reichsgeschichte aus, die eine wichtige Quelle für die Ottonenzeit darstellt. In Westfranken schrieben des Weiteren Flodoard von Reims (Annalen und eine Geschichte der Kirche von Reims) und Richer von Reims ("Historien", teils unter Bezugnahme auf Flodoard) Geschichtswerke, die wichtige Informationen für die Vorgänge im spätkarolingischen Westfranken enthalten. In Britannien entstanden im Frühmittelalter die bedeutende Kirchengeschichte des Beda Venerabilis (frühes 8. Jahrhundert), die auch auf die politische und kulturelle Geschichte Britanniens eingeht, die Angelsächsische Chronik und Assers Biographie Alfreds des Großen; Lokalgeschichten sind für Irland und Wales ("Annales Cambriae") belegt. Bereits in der Spätantike entstand in Rom der stetig fortgesetzte Liber Pontificalis, eine fortlaufende Papstgeschichte. Ansonsten stammen aus Italien mehrere, eher lokal ausgerichtete Chroniken. In Hispanien schrieb in westgotischer Zeit der bedeutende Gelehrte Isidor von Sevilla eine Universalchronik und eine Gotengeschichte. Später entstanden in Spanien unter anderem die Mozarabische Chronik und die Crónica Albeldense. Einzelne frühmittelalterliche Werke gingen zudem in der Folgezeit verloren (z. B. die "Historiola" des Secundus von Trient). Mehrere der genannten Werke sind aus Sicht der modernen Forschung in mancherlei Hinsicht problematisch. Hervorzuheben ist aber die Vielfältigkeit der frühmittelalterlichen lateinischen Geschichtsschreibung. Diese hatte sich von der spätantiken Geschichtsschreibung zwar entfernt, die antiken Grundlagen waren aber nicht völlig verschwunden. Seit der karolingischen Bildungsreform wurde der Blick wieder stärker der Antike zugewandt, so dienten beispielsweise antike Autoren oft als stilistische Vorbilder oder es wurde Bezug genommen auf vergangene Geschehnisse ("exempla"). Die frühmittelalterliche Geschichtsschreibung war vor allem von einem festen christlichen Geschichtsdenken durchzogen, z. B. hinsichtlich eines linearen Verlaufs, in dem das Imperium Romanum das Ziel der Geschichte darstellte; ebenso spielte das göttliche Wirken sowie christlich-ethisches Handeln eine wichtige Rolle. Die byzantinische Geschichtsschreibung in griechischer Sprache war im Frühmittelalter zwar ebenfalls christlich beeinflusst, doch der antike Bezug war weitaus größer als im Westen, zumal das antike Erbe stärker erhalten blieb und Geschichtsschreibung nicht auf Geistliche beschränkt war. Von Georgios Synkellos und Theophanes sind bedeutende byzantinische Chroniken überliefert. Die Tradition der antiken Geschichtsschreibung endete in Byzanz zwar im frühen 7. Jahrhundert, wurde aber im 10. Jahrhundert wieder verstärkt rezipiert. Die Nachahmung ("Mimesis") der klassischen Texte wurde in vielen folgenden profangeschichtlichen byzantinischen Werken angestrebt. Unter Konstantin VII. wurden in einem gewaltigen Unterfangen Texte antiker Historiker exzerpiert; davon sind heute nur geringe Reste erhalten, die aber wertvolles Material enthalten, das ansonsten nicht überliefert worden wäre. Im Orient entstanden weiterhin (christliche) armenische und syrische Geschichtswerke, die teils sehr wertvolle Informationen vermitteln. Zu nennen sind z. B. das Werk des Pseudo-Sebeos im 7. Jahrhundert und die heute verlorene Chronik des Theophilos von Edessa im 8. Jahrhundert, die mehreren späteren Autoren als Quelle gedient hat. Die Anfänge der islamischen Geschichtsschreibung reichen wohl bis ins 8. Jahrhundert zurück, doch sind viele Details umstritten, zumal erhaltene Kompilationen des älteren Materials erst aus dem 9./10. Jahrhundert stammen. Besonders hervorzuheben ist etwa die Universalgeschichte des gelehrten at-Tabarī, die bis ins frühe 10. Jahrhundert reicht. Hagiographie. Eine Sonderrolle nimmt die Hagiographie ein. Sie wurde auch zur Gattung der "historia" (Geschichtserzählung) gezählt und war weiter verbreitet als die im engeren Sinne „weltliche Geschichtsschreibung“. Ein wichtiges Vorbild stellte die Vita des heiligen Martin von Tours dar, die Sulpicius Severus verfasst hat. Bereits in der Merowingerzeit entstanden Märtyrergeschichten und Viten als Exempel vorbildlicher Lebensführung sowie Bischofsviten, hinzu kamen Wunderberichte ("miracula"). Neben Gallien ist vor allem Italien zu nennen: Papst Gregor der Große verfasste im späten 6. Jahrhundert "Dialogi", in denen zeitgenössische Heilige dargestellt wurden; später wurde zunehmend in mehreren Städten der Schutzpatrone gedacht. In karolingischer Zeit wurden, beeinflusst von der Bildungsreform, zudem mehrere Viten neu- oder umgeschrieben. Während die hagiographische Überlieferung aus Hispanien relativ dürftig ist, sind aus England seit dem frühen 8. Jahrhundert Viten überliefert. In der byzantinischen Literatur ist die Gattungsgrenze fließend, da die theologische Literatur dort weit ausgeprägt war (Homilien, Briefe, Geschichtswerke etc.). Im slawischen Bereich entstanden nach der Übernahme des Christentums verschiedene hagiographische Werke, so in Bulgarien im 10. Jahrhundert durch die Übersetzung und Bearbeitung byzantinischer Werke. Lateinische Dichtung. Die mittellateinische Dichtung war recht stark von antiken Werken beeinflusst. Als erster frühmittelalterlicher Dichter kann der im späten 6./frühen 7. Jahrhundert lebende Venantius Fortunatus gelten, der seine Ausbildung in Italien erhielt und am merowingischen Königshof in Austrasien wirkte, wo er gute Kontakte knüpfte und schließlich Bischof wurde. Venantius Fortunatus stand dichterisch in spätantiker Tradition und verfasste über 200 Lobgedichte, Klage- und Trostlieder sowie Nachrufe, was Ausdruck eines um 600 durchaus noch vorhandenen Bedürfnisses traditioneller Bildung im Frankenreich ist. Besonders die frühmittelalterliche Hofdichtung war bedeutend, vor allem am karolingischen Königshof. Von Karls bereits erwähntem gelehrten Berater Alkuin sind mehr als 300 metrische Gedichte überliefert. Angilbert, Hofkaplan Karls des Großen und Vater des Geschichtsschreibers Nithard, verfasste neben Prosaschriften auch Gedichte und wurde Karls „Homerus“ genannt. Paulinus II. von Aquileia verfasste ein Klagegedicht zu Ehren Erichs, des Markgrafen von Friaul; auch andere Dichtungen werden ihm zugeschrieben. Paulus Diaconus, der auch als Geschichtsschreiber tätig war und einige Zeit am Hof Karls wirkte, verfasste mehrere Gedichte, darunter Lobgedichte und Epitaphien. Von Theodulf von Orléans sind ca. 80 Gedichte erhalten, die seine umfassende Bildung bezeugen. Im weiteren Verlauf des 9. Jahrhunderts wirkten in Westfranken noch Ermoldus Nigellus und der sehr gelehrte Johannes Scottus Eriugena. Hinzu kamen klösterliche Dichtungen, die zum Teil sehr bedeutend waren. Dazu zählen unter anderem Dichtungen Walahfrid Strabos und der "Liber Ymnorum" Notkers (entstanden um 884 und dem einflussreichen Liutward von Vercelli gewidmet). Die kulturelle Wiederbelebung nach dem Ende der Antike wurde durch die karolingischen Bildungsreform begünstigt. Die bedeutendste frühmittelalterliche Dichterin war Hrotsvit im 10. Jahrhundert. Im Bereich der mittellateinischen Epik ist vor allem der Waltharius zu nennen, eine epische Heldendichtung aus dem 9. oder 10. Jahrhundert. Im Übergang vom Früh- zum Hochmittelalter entstand die Dichtung über den Ritter Ruodlieb, die als erster fiktionaler Roman des Mittelalters gilt. Verbreitet waren Bibeldichtungen, zumal die Bibel als Stoffgrundlage in der mittellateinischen Literatur ohnehin eine zentrale Rolle spielte. Ebenso entstanden geschichtliche Dichtungen, so um 800 das Versepos Karolus Magnus et Leo papa und Ende des 9. Jahrhunderts das Werk des Poeta Saxo. In England wirkten im 7. Jahrhundert Cædmon und Aldhelm von Sherborne, in Italien und im spanischen Westgotenreich entstanden ebenfalls einige bedeutende Dichtungen. Volkssprachige Literatur. Seit Mitte des 8. Jahrhunderts sind im Westen nicht mehr nur lateinische, sondern auch volkssprachige Werke belegt; allerdings ist die Zahl der jeweils namentlich bekannten Verfasser überschaubar. Die Bandbreite der volkssprachigen frühmittelalterlichen Literatur ist recht beachtlich, sie umfasst unter anderem Zauber- und Segensbücher, Heldenerzählungen, Geschichtsdichtungen und Schlachtengedichte. Kirchliche Gebrauchstexte wurden ebenso übersetzt, vor allem im Hinblick auf die Vermittlung christlicher Glaubensbotschaften. Ein Großteil der volkssprachigen Dichtung war denn auch geistlicher Natur, wie z. B. Bibeldichtungen. Das früheste erhaltene Zeugnis für die althochdeutsche Bibeldichtung stellt das "Wessobrunner Schöpfungsgedicht" aus dem 9. Jahrhundert dar. Die karolingischen Bildungsreform hatte nicht nur eine zunehmende Beschäftigung mit lateinischen Texten und der vorhandenen antiken Überlieferung zur Folge, sie stärkte auch die Entwicklung des Althochdeutschen. Zentren altdeutscher Überlieferung waren unter anderem die Klöster Fulda, Reichenau, St. Gallen und Murbach. Fragmentarisch erhalten ist das "Hildebrandslied", ein althochdeutsches Heldenlied aus dem frühen 9. Jahrhundert. Karl der Große soll angeordnet haben, alte pagane Heldenlieder aufzuzeichnen, doch ist davon nichts erhalten. Unter Leitung des gelehrten Rabanus Maurus entstand um 830 mit dem althochdeutschen Tatian eine Evangelienübersetzung. Als erster deutscher Dichter gilt Otfrid von Weißenburg, der in den 860er und 870er Jahren wirkte. Der von ihm um 870 verfasste "Liber Evangeliorum" ist ein althochdeutsches Bibelepos (im südrheinfränkischen Dialekt) und umfasst 7104 Langzeilen in fünf Büchern, wobei das Leben Jesu Christi im Mittelpunkt steht. Die Straßburger Eide von 842 sind in althochdeutscher und altfranzösischer Fassung überliefert und gelten als frühe Sprachzeugnisse. Das althochdeutsche Ludwigslied entstand im späten 9. Jahrhundert. In ottonischer Zeit endet für einige Zeit die althochdeutsche Literaturproduktion, wofür die Forschung bislang keine befriedigende Erklärung hat. Um 1000 wirkte dann etwa Notker von St. Gallen, der mehrere antike Texte ins Althochdeutsche übertrug und damit eine wichtige Grundlage für wissenschaftliche Texte in dieser Sprache schuf. Am angelsächsischen Königshof Alfreds des Großen wurden einzelne Werke lateinischer Gelehrter (so Boethius und Orosius) ins Altenglische übersetzt. Die Masse der altenglischen Literatur (die neben altenglischen auch mehrere lateinische Texte umfasst) ist in vier Handschriften überliefert (Junius-Handschrift, auch Cædmonhandschrift genannt, Exeter-Buch, Vercelli-Buch und Beowulfhandschrift). In Irland entwickelte sich im 6./7. Jahrhundert eine lebendige Schriftkultur mit zunächst lateinischen, bald auch altirischen Werken, die Heldenerzählungen, Dichtungen, Annalen, Heiligen- und Königsgenealogien, hagiographische und geistliche Literatur umfasste. Im Altfranzösischen sind nur wenige frühmittelalterliche Texte belegt, so etwa die Eulaliasequenz (zu Ehren der heiligen Eulalia) im späten 9. Jahrhundert und das Leodegarlied aus dem 10. Jahrhundert. Aus dem 11. Jahrhundert stammt die altfranzösische poetische Verarbeitung einer lateinischen Legende, das sogenannte "Alexiuslied". In Italien beginnt die Geschichte der volkssprachigen Literatur erst im 13. Jahrhundert. Auf der Iberischen Halbinsel sind Belege für romanische Werke aus dem Frühmittelalter kaum vorhanden. Aus dem Kloster San Millán de la Cogolla etwa stammen romanische Glossen (10. Jahrhundert), in arabischen und hebräischen Dichtungen (die sogenannten "Jarchas", 11. Jahrhundert) sind romanische Schlussstrophen belegt. Vollständig entwickelte volkssprachige Werke wurden aber erst im Hochmittelalter verfasst; dazu zählt unter anderem das Epos Cantar de Mio Cid. In der skandinavischen Literatur ist der Übergang von mündlichen Erzählungen und Gedichten (Skaldendichtung und Vorstufen der Edda im 9. Jahrhundert) zur Schriftsprache auch mit der Christianisierung und der Übernahme des lateinischen Alphabets (anstelle der Runenschrift) verbunden. Mit der Entwicklung des Kirchenslawischen im 9. Jahrhundert entstand im slawischen Kulturraum in der Folgezeit eine reichhaltige Literatur. Nach der Christianisierung Bulgariens wurden mehrere altkirchenslawische Übersetzungen griechischer Werke angefertigt, vor allem theologische Werke (liturgische und biblische Texte), Chroniken und Viten. In Byzanz selbst entstanden neben Schriften in der antiken griechischen Hochsprache auch mehrere volkssprachige (mittelgriechische) Werke. Eines der bedeutendsten ist das Epos Digenis Akritas. Philosophie. Die Philosophie des Mittelalters baute stark auf antiken Grundlagen auf, allerdings, anders als noch in der Spätantike, nun fest eingebettet in das christliche Weltbild. In diesem Sinne war die theologisch ausgerichtete Patristik von Bedeutung, die im 7./8. Jahrhundert endete. Bereits in der Spätantike wurde der Neuplatonismus von christlichen Gelehrten rezipiert, die die platonische Ideenlehre mit christlichen Überlegungen verbanden, zumal Platons Ideen bereits durch den Neuplatonismus ins Transzendente übertragen wurden. Aussagen der Bibel wurden teilweise mit Hilfe platonischen Gedankenguts gedeutet, unter anderem mit Bezug auf das Gute und das Seiende. Von den Schriften Platons und des Aristoteles war im Frühmittelalter im Westen allerdings nur sehr wenig bekannt. Einflussreich waren dafür platonisch beeinflusste Philosophen. Augustinus von Hippo und Boethius sind beide historisch noch zur Spätantike zu zählen, stehen aber philosophiegeschichtlich an der Schwelle zum Mittelalter. Beide hatten einen starken nachhaltigen Einfluss auf die mittelalterliche Philosophie, besonders im Frühmittelalter. Dies gilt auch für die Werke des Pseudo-Dionysius Areopagita, eines anonymen spätantiken christlichen Neuplatonikers, die bereits in karolingischer Zeit ins Lateinische übersetzt wurden. Pseudo-Dionysius arbeitete auch das Konzept der negativen Theologie weiter aus. Um die Mitte des 9. Jahrhunderts ist der aus Irland stammende bedeutende Philosoph Johannes Scottus Eriugena belegbar, der einige Zeit am westfränkischen Königshof verbrachte. Er war dort als gelehrter Berater tätig, erteilte auch Unterricht in den freien Künsten und genoss offenbar großes Ansehen. Eriugena stellt insofern eine Ausnahmeerscheinung dar, als ohne seine Schriften zwischen Boethius und Anselm von Canterbury eine weitgehende Lücke in der lateinischen philosophischen Literatur klaffen würde. Er verfügte, was im Westen zu dieser Zeit sehr ungewöhnlich war, über einige Griechischkenntnisse und trat für ein strikt logisches Denken ein, geriet dabei auch in Konflikt mit kirchlichen Autoritäten. Sein Hauptwerk mit dem griechischen Titel "Periphyseon" („Über die Naturen“) behandelt in Dialogform eingeteilt in fünf Büchern vor allem die kosmologische Weltordnung und das Verhältnis zwischen Schöpfer und Schöpfung. In logischer und systematischer Form sollte die christliche Offenbarung untersucht und ausgelegt werden, um die darin enthaltene Wahrheit zu erkennen. Das Werk basiert auf einer recht umfangreichen Quellenbasis und ist neuplatonisch geprägt. Eriugena verfasste außerdem einen (nur fragmentarischen) Kommentar zum Johannesevangelium und zu Martianus Capella. Im byzantinischen Raum gilt als letzter spätantiker Philosoph Stephanos von Alexandria im frühen 7. Jahrhundert. Der damalige militärische Überlebenskampf des Reiches hatte einen spürbaren Rückgang des kulturellen Interessenniveaus zur Folge. Die Überlieferung bezüglich der geistigen Entwicklung in Byzanz ist für das späte 7. und das 8. Jahrhundert nicht günstig, dennoch blieb in Byzanz mehr vom kulturellen antiken Erbe erhalten als im Westen. Im 9./10. Jahrhundert wirkte dann der sehr gelehrte Photios, der über eine große Bibliothek verfügte und heute verlorene philosophische Abhandlungen verfasste. Einer seiner Schüler, Zacharias von Chalkedon, schrieb in den 860er Jahren eine kleine Schrift „Über die Zeit“. Leon der Mathematiker und Arethas von Kaisareia sammelten ebenfalls klassische griechische Texte und gaben sie teils neu heraus. Aus verstreuten Fragmenten lässt sich zudem erschließen, dass auch im 9. Jahrhundert Aristoteles und Platon in Byzanz gelesen und wohl teils auch neu herausgegeben wurden. Infolge des Bilderstreits entstanden zudem Schriften, in denen auch philosophische Argumente vorgebracht wurden. Die Grundlage der islamischen Philosophie stellte zunächst die systematische Übersetzung griechischer philosophischer oder wissenschaftlicher Texte dar, wobei die weiterhin lebendige christlich-syrische Tradition der Beschäftigung mit griechischer Wissenschaft ebenfalls eine Rolle spielte. Bedeutung erlangte im 9. Jahrhundert al-Kindi, dessen Werke thematisch breit gestreut sind und unter anderem Astronomie, Mathematik, Optik, Medizin und Musik betreffen. Al-Kindi beschäftigte sich mit Platon und Aristoteles und fertigte Übersetzungen griechischer Werke an. Einflussreich war seine Abhandlung über Definitionen und Beschreibungen der Dinge, in der er das griechische philosophische Vokabular aufbereitete. Der jüdische Philosoph Isaak ben Salomon Israeli orientierte sich in seinem Buch über Definitionen eng an al-Kindi. Im 10. Jahrhundert wirkten der persische Philosoph Abu Bakr Muhammad ibn Zakariya ar-Razi und der aus Zentralasien stammende al-Farabi. Letzterer konnte praktisch auf die gesamte noch erhaltene antike Überlieferung griechischer Philosophen zurückgreifen; er betrachtete die Philosophie als Grundlage jeglicher Wissenschaft und bezog dies auch auf die Religion. Der bedeutende persische Philosoph Avicenna (gest. 1037) stellte grundsätzlich die Frage nach der Aufgabe und der Möglichkeit der Philosophie. Seine sehr einflussreichen Überlegungen betrafen unter anderem die Logik und Intellektlehre. In seinem "Kanon der Medizin" fasste er außerdem systematisch das damalige medizinische Wissen zusammen. Daneben sind noch andere Gelehrte zu nennen, so z. B. al-Chwarizmi im 9. Jahrhundert und Abu Bakr Muhammad ibn Zakariya ar-Razi im 9./10. Jahrhundert. Kunst. a> ist das einzig erhaltene Goldschmiedestück, das mit einiger Wahrscheinlichkeit mit der Person Karls in Verbindung gebracht werden kann. a> (wahrscheinlich St. Denis, um 870) Im Frühmittelalter kam den Fürstenhöfen, vor allem aber dem fränkischen Königshof mit der Hofschule, und der Kirche eine tragende Rolle in der kulturellen und künstlerischen Förderung zu. In den Motiven dominiert die christliche Symbolik. Die frühmittelalterliche Kunst orientierte sich zunächst an spätantiken Vorbildern, bevor sich neue Kunststile entwickelten. Die byzantinische Kunst beeinflusste auch den Westen, wobei in der Forschung der Grad dieses Einflusses umstritten ist. Wurde die frühmittelalterliche Kultur früher als eher rezipierend und weniger als kreativ betrachtet, wird in neuerer Zeit wieder betont, dass es im Westen bereits spätantike Vorbilder gab und die Beeinflussung zwischen Ost und West subtiler war. Die karolingische Bildungsreform und die sogenannte ottonische Renaissance (10./11. Jahrhundert) bewirkten wieder einen kulturellen Aufschwung. Im mittelalterlichen gelehrten Denken ist die Frage der Schönheit losgelöst von der Kunst und beruht auf platonischen und neuplatonischen Überlegungen. In der Kunsttheorie des frühen Mittelalters waren die Aussagen des Augustinus und des Pseudo-Dionysius Areopagita einflussreich. Ein Kunstwerk und die damit verbundene ästhetische Schönheit galt demnach nicht als Selbstzweck; Schönheit hatte vielmehr auch eine transzendentale Bestimmung. Für Johannes Scottus Eriugena z. B. galt das sinnlich Wahrnehmbare als ein Symbol des Göttlichen. In der Baukunst bildet die Vorromanik einen Übergang zwischen spätantiken und romanischen Architekturformen. Im Kirchenbau dominierten in Hispanien und England Saalkirchen aus Stein, östlich des Rheins waren zunächst Holzkirchen verbreitet, von denen fast nichts erhalten ist. In Italien wiederum waren Basiliken verbreitet. Es entwickelten sich neue Bautypen, oft aus Italien inspiriert und mit Mosaiken geschmückt, was bereits in der Spätantike üblich war. Die Monumentalarchitektur wurde seit der Zeit Karls des Großen wieder gepflegt, der Massenbau mit mehreren Pfeilern beruhte auf antiken Kenntnissen. In karolingischer Zeit entstanden schließlich mehrere Herrscherpaläste, wie die Aachener Königspfalz, die in der Gesamtkomposition ebenfalls an römischen Vorbildern orientiert waren. Nach 814 gab es im Frankenreich einen gewissen Einbruch in der Monumentalarchitektur. Es wurden zunächst nun eher kleinteilige, aus einzelnen Raumzellen zusammengefügte Kirchenbauten bevorzugt. Zwar entstand später im 9. Jahrhundert auch der Hildebold-Dom, ebenso wurde in Corvey die Lorscher Westwerkform aufgenommen oder etwa in Hersfeld der Zellenquerbau in größere Dimensionen ausgeführt, es war aber nicht der Regelfall. In ottonischer Zeit knüpfte man bewusst an die karolingische Tradition an, es wurden wieder mehrere große Kirchenbauten errichtet. Problematisch bei der Bewertung frühmittelalterlicher Architektur ist allerdings, dass etwa aus dem 10. und 11. Jahrhundert kaum Überreste herrschaftlicher Profanbauten erhalten sind, sondern vor allem kirchliche Bauten. In Italien war aufgrund relativer Kulturkontinuität der Übergang ins Frühmittelalter weniger stark ausgeprägt, neu waren aber quadratische Pfeiler und Hallenkrypten. In Hispanien verschmolzen in der Westgotenzeit antike, frühchristliche und volkstümliche Motive; nach 711 entwickelte sich die mozarabische Architektur. In England entstanden infolge der Christianisierung der Angelsachsen neben mehreren Holzkirchen auch größere Kirchenbauten, von denen aber nur geringe Reste erhalten sind. In den unterschiedlichen angelsächsischen Reichen sind im Kirchenbau abweichende Bautypen anzutreffen. Die auch byzantinisch beeinflusste karolingische Buchmalerei bedeutete eine Steigerung gegenüber der merowingischen Buchmalerei und ist eines der Resultate der karolingischen Bildungsreform. Beispiele dafür sind unter anderem das Lorscher Evangeliar, das Krönungsevangeliar und die Ada-Handschrift (siehe auch Ada-Gruppe) aus der Zeit Karls des Großen oder der Codex aureus von St. Emmeram aus dem späten 9. Jahrhundert. Zentren der karolingischen Buchmalerei waren neben der königlichen Hofschule später Reims, St. Martin in Tours und Metz. Bedeutung erlangte im späteren 9. Jahrhundert die Hofschule Karls II. in Westfranken. Es entstanden auch in den großen Reichsklöstern und bedeutenden Bischofsresidenzen Bildhandschriften, teils in Nachahmung der königlichen Hofschulen (so das Fuldaer Evangeliar). Entscheidend hierfür war, dass die geistlichen Einrichtungen über gute Skriptorien verfügten und kulturelle Impulse aufnahmen, was auf weltlicher Seite zunächst kaum der Fall war. In der Ottonenzeit im 10./11. Jahrhundert wurde, nach einem kulturellen Abschwung am Ende der Karolingerzeit, an ältere Vorbilder angeknüpft. So entstand im Ostfrankenreich die ebenfalls bedeutende ottonische Buchmalerei, deren Zentren die Klöster Corvey, Hildesheim, Fulda und Reichenau waren; später gewannen auch Köln, Regensburg und Salzburg an Bedeutung. Zu deren bedeutendsten Produkten gehören das Gebetbuch Ottos III. und das Evangeliar Ottos III. Des Weiteren sind noch aus anderen Regionen Europas Buchmalereien erhalten. Einen Höhepunkt der angelsächsischen Buchmalerei stellt das Aethelwold-Benedictionale aus dem späten 10. Jahrhundert dar, in Westfranken entstand um 1000 die reich verzierte „Erste Bibel“ von St. Martial (Limoges). Aus Spanien stammt der Beatuskommentar zur Offenbarung des Johannes (8. Jahrhundert), während auch in Italien zahlreiche illustrierende Bildhandschriften entstanden, vor allem zum Leben bekannter Heiliger und bedeutender Geistlicher. Malereien auf der Nordseite des Langhauses in St. Georg (Reichenau-Oberzell) Im Frühmittelalter gingen einige antike Kunstkenntnisse verloren. Dies betrifft etwa die Dreidimensionalität und die Darstellung des Menschen in seinen natürlichen Proportionen. Es entwickelte sich ein recht statischer Aufbau und eine gewisse Furcht vor der Leere ("horror vacui"). Hinzu kamen neue künstlerische Zielsetzungen und andere künstlerische Charakteristika, so keltische und germanische Ornamentik (siehe auch Germanischer Tierstil). Grundlage der frühmittelalterlichen Wandmalerei ist die spätantike Monumentalmalerei, von der im Frühmittelalter mehr als heute erhalten war. Wie stark die konkreten Zusammenhänge zwischen spätantiker und frühmittelalterlicher Wandmalerei sind, ist heute aber kaum noch zu erschließen, da oft jüngere Eingriffe vorliegen. Von verschiedenen frühmittelalterlichen Wandmalereien sind zudem nur Teile erhalten. Ein Bild der Monumentalmalerei in karolingischer Zeit um 800 vermitteln die heute zwar verlorenen, aber durch Beschreibungen und Skizzen bekannten Vorzeichnungen für den ursprünglichen Kuppeldekor der Aachener Pfalzkapelle Karls des Großen. In Kirchen waren Wandmalereien mit Darstellungen aus dem Leben Jesu Christi besonders beliebt, aber auch zahlreiche andere biblische Szenen wurden verwendet. Dies wurde durch eschatologische Erwartungen für die Zeit um 1000 noch verstärkt. In ottonischer Zeit griff man zunächst auf die karolingische Tradition zurück. Das Mittelschiff von 160;Georg in Reichenau-Oberzell (10. Jahrhundert) ist wohl das beste Beispiel für die Innenausmalung eines Kirchenraums, die in karolingischer und ottonischer Zeit recht üblich war. Mehrere Bischöfe traten als Förderer der Kunst auf, so im späten 10. Jahrhundert Gebhard von Konstanz in seiner Eigenkirche in Petershausen oder Egbert von Trier, unter dessen Patronage der Meister des Registrum Gregorii wirkte. Das Kunsthandwerk brachte unter anderem Fibeln, Gürtelschnallen, aber auch Schnitzarbeiten aus Elfenbein, Goldblecharbeiten und reich verzierte Buchdeckelarbeiten hervor. In der Kleinplastik wurde aufgrund des starken religiösen Bedürfnisses viele Reliquienbehältnisse angefertigt. Es entstanden zudem zahlreiche liturgische Geräte; als eines der schönsten gilt das um 1000 angefertigte Lotharkreuz. Das in ottonischer Zeit entstandene Gerokreuz wiederum ist eine der ersten Monumentalskulpturen des Mittelalters. Die kulturellen Zentren befanden sich daneben vor allem im Osten. In Byzanz zählt die Ikonenmalerei zu den Höhepunkten frühmittelalterlicher Kunst, ebenso brachte die byzantinische Buchmalerei bedeutende Werke hervor. Die sogenannte makedonische Renaissance im 9./10. Jahrhundert führte in Byzanz, nachdem die existenzbedrohenden Abwehrkämpfe gegen die Araber überstanden waren, zu einer stärkeren Besinnung auf antike Motive und die antike Literatur. In Byzanz tobte im 8. und 9. Jahrhundert der Bilderstreit, was Auswirkungen auf die Kunst hatte. Im späten 8. Jahrhundert konnten sich kurzzeitig die Bilderverehrer durchsetzen und sie waren dann im 9. Jahrhundert endgültig siegreich. Im Westen beschäftigte man sich auf der Synode von Frankfurt 794 mit der religiösen Bilderverehrung, die man schließlich ablehnte (Libri Carolini). Im Westen wurden aber byzantinische Kunsteinflüsse durchaus aufgenommen, z. B. in der Buchmalerei oder bezüglich Formen des Zentralbaus bei romanischen Kirchen. In der Architektur sind vom byzantinischen Stil unter anderem der Markusdom in Venedig und die karolingische Pfalzkapelle im Aachener Dom (Oktogonform) inspiriert. Allgemeines. Religion war im Frühmittelalter im lateinischen Europa, in Byzanz und im Kalifat ein bestimmendes Lebensmoment. Es ist jedoch sehr fraglich, ob man für jeden dieser Kulturräume von einer Einheit in Kultur und Religiosität sprechen kann; vielmehr bestand zwischen den gelehrten Denkvorstellungen und der gelebten Volksfrömmigkeit ein Unterschied. Dies betraf auch das lateinische Europa, wenngleich in populären Vorstellungen oft von einem monolithischen Block ausgegangen wird. Die allgemeine Geschichte des lateinischen Europas und des byzantinischen Kulturkreises im Frühmittelalter ist dennoch eng mit der Geschichte des Christentums in dieser Zeit verknüpft. Bereits in der Spätantike bestand eine enge Bindung von Kirche, Staat und Kultur. Das Christentum war unter Theodosius I. zur Staatsreligion erhoben worden, die paganen („heidnischen“) Kulte verloren immer mehr an Anhängerschaft und versanken schließlich in der Bedeutungslosigkeit, wenngleich kleine pagane Minderheiten in Byzanz noch bis ins 6. Jahrhundert belegt sind. Nach dem Untergang Westroms war zwar die politische Einheit im Mittelmeerraum aufgehoben, dennoch waren die neuen germanischen Reiche christliche Reiche – entweder bereits bei ihrer Gründung oder kurz darauf (wie das Frankenreich). Neigte die Mehrheit der christlichen Germanen zum Arianismus, so bestand die romanische Mehrheitsbevölkerung aus katholischen Christen, was teilweise zu erheblichen Spannungen führte. Im ostgotischen Italien wirkte sich der konfessionelle Unterschied sogar außenpolitisch im Verhältnis zu Byzanz aus (akakianisches Schisma). Die Langobarden, die 568 in Italien einfielen, waren ebenfalls überwiegend Arianer, doch erfolgte im 7./8. Jahrhundert zunehmend die Hinwendung zum katholischen Bekenntnis. Chlodwig I. ließ sich um 500 katholisch taufen und ihm folgten zahlreiche Franken; im Westgotenreich erfolgte die Konversion 589. Trotz politischer Zersplitterung blieb eine gewisse kulturell-religiöse Einheit bestehen, die erst mit der arabischen Expansion im 7. Jahrhundert endete. Päpste und weltliche Herrschaft. Das Papsttum spielte im Frühmittelalter politisch keine so entscheidende Rolle wie im weiteren Verlauf des Mittelalters. Der Bischof von Rom genoss als Nachfolger der Apostel Petrus und Paulus zwar großes Ansehen, doch übte er etwa über die byzantinische Kirche keine Oberherrschaft aus. Der Patriarch von Konstantinopel wiederum erhielt nie die Bedeutung wie der Papst im Westen, wo die Päpste schließlich auch eine weltliche Vollgewalt beanspruchten, und bestimmte zu keinem Zeitpunkt die byzantinische Politik. Während des Übergangs von der Antike zum Mittelalter standen die Päpste politisch stark unter byzantinischem Einfluss. Infolge des byzantinischen Machtverlustes im Westen gewannen die Päpste langsam, aber zunehmend an politischem Spielraum. Gregor der Große beispielsweise, der aus vornehmer römischer Familie stammte, sehr gelehrt und einer der bedeutendsten mittelalterlichen Päpste war, war auch politisch aktiv. Dennoch waren die Päpste formal noch Untertanen des byzantinischen Kaisers, der ihnen sogar den Prozess machen konnte. Mitte des 8. Jahrhunderts waren die Päpste aufgrund der langobardischen Bedrohung gezwungen, sich nach Unterstützung umzusehen. Papst Stephan II. reiste 753/54 zum Frankenkönig Pippin und ging ein Bündnis mit ihm ein. Die Karolingern übernahmen die Rolle als neue päpstliche Schutzmacht, die später die Ottonen und die folgenden römisch-deutschen Könige ebenfalls übernahmen. Durch diese Allianz wurden nicht zuletzt die päpstlichen Ansprüche geschützt, die sich, wie der entstehende Kirchenstaat zeigt, auch in weltlicher Form artikulierten. Die im 8./9. Jahrhundert gefälschte Konstantinische Schenkung sollte für diese Ansprüche eine Grundlage bieten. Seit der Kaiserkrönung Karls des Großen im Jahr 800 waren Papst und Frankenreich noch enger miteinander verquickt. Die Verbindung war insofern problematisch, als sowohl Papsttum als auch Kaisertum universale Gewalten waren, deren Interessen nicht immer parallel verliefen, wie der Investiturstreit im 11./12. Jahrhundert deutlich zeigt; doch bereits im 9. Jahrhundert kam es zu Konflikten zwischen Papst und den karolingischen Kaisern. Als Gegengewicht zur weltlichen Macht wurde von kirchlicher Seite die Zwei-Schwerter-Theorie entwickelt, wenngleich im Hochmittelalter die Päpste bisweilen selbst die weltliche Oberherrschaft nachdrücklich beanspruchten. Das päpstliche Ansehen stieg zunehmend, so dass verschiedene Herrscher im lateinischen Europa die Unterstützung des Papstes erbaten. Im 9. Jahrhundert erreichte die päpstliche Autorität unter Nikolaus I. einen ersten Höhepunkt, eine „Weltstellung“, bevor sie im späten 9. Jahrhundert verfiel. Das Papsttum wurde im frühen 10. Jahrhundert zu einem Spielball der Interessen stadtrömischer Familien. In ottonischer Zeit spielte es politisch keine entscheidende Rolle. Die Verbindung zwischen westlicher und östlicher Kirche wiederum schwand immer mehr und führte letztendlich zum Schisma von 1054. Die karolingische Bildungsreform um 800 hatte schon aufgrund der engen Verbindung von christlicher Religion und Kultur im Frühmittelalter auch Auswirkungen auf die Kirche im Frankenreich und förderte deren Erneuerung. Eine überarbeitete Fassung der lateinischen Bibelausgabe wurde erstellt und die kirchlichen Bildungseinrichtungen (Schulen, Skriptorien und Bibliotheken) gefördert, was zu einem kulturellen Aufschwung führte. Die Reichskirche im Frankenreich war politisch eng mit dem Königtum verbunden. Die fränkischen Könige waren seit der Karolingerzeit darauf angewiesen, dass die Kirche weltliche Verwaltungsaufgaben übernahm, nachdem die an spätrömischen Mustern orientierte Verwaltungspraxis der Merowingerzeit zusammengebrochen war. Diese Tradition wurde in West- und Ostfranken bis ins Hochmittelalter beibehalten. Aufgrund der effektiven Verbindung von Reich und Kirche in der Ottonen- und Salierzeit hat die ältere Forschung von einem Reichskirchensystem im Ostfrankenreich gesprochen. Tatsächlich hatte die Kirche aber ebenfalls in anderen christlichen Reichen des lateinischen Europas Verwaltungsaufgaben übernommen. Die christlichen Könige sowie vor allem die Kaiser übten eine Schutzherrschaft über die Kirche aus und waren oft bestrebt, dem Bild eines gerechten christlichen Idealherrschers wenigstens formal zu entsprechen. Kirchliche Konzile und Synoden wurden oft von den weltlichen Herrschern einberufen, gerade um das enge Zusammenwirken von Herrscher und Kirche zu demonstrieren. Mitte des 4. Jahrhunderts hatte Martin von Tours die erste Mönchsgemeinschaft im Westen Europas gegründet. Das Mönchtum gewann im Verlauf des Frühmittelalters zunehmend an Bedeutung. Einflussreich wurden die Mönchsregeln des Benedikt von Nursia. In den Klöstern war der Alltag von festen Abläufen geprägt. Die weitgehend von der Außenwelt abgeschirmten Mönche widmeten dabei ihr Leben und ihr Wirken ganz Gott, doch waren die Klöster ebenso ein wichtiger wirtschaftlicher Faktor, da sie über Güter und Besitzungen verfügten. Das Mönchtum ist auch als Korrektiv zu einer Kirche zu verstehen, die sich zunehmend weltlichen Angelegenheiten zuwandte. Die Kirche war hierarchisch aufgebaut und verfügte über eine recht effektive Verwaltung. In der frühmittelalterlichen lateinischen Kirche genossen die einzelnen Bischöfe recht weitreichende Vollmachten. Nach dem Zusammenbruch der römischen Verwaltungsordnung im Westen kam den Bischofssitzen eine wichtige Verwaltungsaufgabe zu. Vor allem im südlichen Gallien, in Italien und auch in Spanien übernahmen Bischöfe politische Aufgaben, was zur Etablierung faktisch autonomer sogenannter „Bischofsrepubliken“ führte. Frömmigkeit und Gottesdienst. Das geistige und religiöse Leben im lateinischen Europa war im Frühmittelalter äußerst vielfältig und es wirkten zahlreiche christliche Gelehrte. Als Beispiele seien für den lateinischen Westen unter anderem genannt: Gregor von Tours und Gregor der Große im späten 6. Jahrhundert, Alkuin, Einhard, Rabanus Maurus und Hinkmar von Reims im 9. Jahrhundert sowie Notker von St. Gallen um 1000. Christliche Frömmigkeit war im Frühmittelalter allgegenwärtig, drückte sich aber recht unterschiedlich aus und veränderte sich von Zeit zu Zeit. Der Glaube an ein Reich Gottes im Jenseits war gängige Vorstellung, wodurch Tod und Teufel überwunden werden sollten. Die Aufnahme in die christliche Gemeinschaft erfolgte durch die Taufe; noch in der Spätantike hatte sie nicht diese Bedeutung gehabt. Dem ging in der Regel das Katechumenat als Schulungszeit voraus. Die freiwillige Annahme war prinzipiell Voraussetzung, Zwangsbekehrung (obwohl teils praktiziert) galt nach dem Kirchenrecht als nicht gestattet und wurde von verschiedenen Päpsten (so von Gregor dem Großen) wiederholt abgelehnt. Die Kraft von Gottes Allmacht sollte durch gutes Handeln in der Gegenwart erlangt werden. Gott galt als gütig und gerecht, der aber durchaus Verfehlungen bestraft. Fehlverhalten erforderte daher eine angemessene Buße. Der Gottesdienst war von festen Ritualen geprägt, die innerhalb der Liturgie vor allem eine symbolische Bedeutung hatten. Wenngleich das Christentum eine Buchreligion ist, war aufgrund geringer Lesekenntnisse im Frühmittelalter der gesprochene Wortgottesdienst sehr bedeutend. Neben den lateinischen Gottesdiensten entstanden volkssprachige Gebete. Das Glaubensbekenntnis und das Vaterunser waren von zentraler Bedeutung und wurden in mehrere Volkssprachen übertragen. In der Volksfrömmigkeit spielten Aberglauben, Heiligenverehrung und Reliquien eine wichtige Rolle. Sozialtätigkeit wie Armenfürsorge galt als religiöse Pflicht. Infolge der kriegerischen Auseinandersetzungen entstand zunehmend eine Friedenserwartung, deren Realisierung man von kirchlichen Maßnahmen erhoffte und die teilweise erfüllt wurde (Gottesfriedensbewegung). Eschatologische Vorstellungen eines Weltenendes existierten zwar, doch ist in der neueren Forschung umstritten, wie stark die Endzeiterwartungen um 1000 ausgeprägt waren. Mission und Glaubensverschiedenheit. Während des gesamten Frühmittelalters wurde die von den Päpsten geförderte Christianisierung, wozu die Germanenmission gehörte, in den paganen Gebieten Europas vorangetrieben. Dazu zählten Regionen, wo die germanische Religion in ihrer unterschiedlichen Ausprägung praktiziert wurde. Dies betraf noch nicht christianisierte rechtsrheinische Gebiete (so die Siedlungsgebiete der Bajuwaren und der Thüringer im 6. Jahrhundert sowie Sachsen in Nordwestdeutschland), Skandinavien (mit dem Hauptgott Odin sowie wichtigen Nebengöttern wie Thor und Tyr, siehe nordgermanische Religion) und Teile Britanniens (siehe angelsächsische Religion). Hinzu kamen Kulte im slawischen Raum, wo Perun, Svarog, Svarožić (Dazbog) und Veles wichtige Gottheiten darstellten. Neben älteren antiken Berichten, Runeninschriften und späteren Verarbeitungen (Edda) stammen viele der diesbezüglichen Berichte von christlichen Autoren. Pagane Gottheiten galten den Christen als Kreaturen des Teufels und als Dämonen. Wie bei den paganen Germanen spielte bei den Slawen Naturverehrung eine wichtige Rolle, ebenso war eine Jenseitsvorstellung hinsichtlich eines Lebens nach dem Tod verbreitet. Die slawischen Kulte waren recht stark gentilreligiös geprägt, also auf den jeweiligen Stammesraum bezogen. Die Christianisierung zuvor paganer Gebiete hatte nicht zuletzt Einfluss auf die dortigen Lebensverhältnisse: Totschlag oder Kindesaussetzungen wurden durch die neuen religiösen Regeln erschwert, die somit abmildernd wirkten; die verpflichtende Fürsorgetätigkeit unterschied den christlichen Glauben ebenfalls grundlegend von den paganen Kulten, in denen karitative Maßnahmen außerhalb der Familien nicht üblich waren. Die noch in der Spätantike begonnene Missionierung Irlands durch Mönche war im 6. Jahrhundert abgeschlossen. Im 7. Jahrhundert war die Christianisierung der Angelsachsen weitgehend abgeschlossen, doch bedeutete der Einfall der Wikinger im 9. Jahrhundert einen Rückschlag und erforderte teils neue Missionierungen. Irland, obwohl selbst nie Teil des römischen Reiches, nahm die antike Kultur auf und trug sie schließlich wieder in den kontinentaleuropäischen Raum zurück. So ist es kein Zufall, dass nicht zuletzt irische Gelehrte in karolingischer Zeit im Frankenreich wirkten. Irische Mönche wie Columban beteiligten sich zudem aktiv an der Christianisierung (Iro-schottische Mission), auch in noch paganen Gebieten in der ehemaligen "Germania magna". Bonifatius war im 8. Jahrhundert im rechtsrheinischen Raum sehr aktiv und gründete das später bedeutende Kloster Fulda. Die Sachsen, für die die Irminsul ein wichtiges Heiligtum war, wurden erst durch die blutigen Sachsenkriege Karls des Großen im späten 8./frühen 9. Jahrhundert gewaltsam christianisiert. Um 900 bildete die Elbe die Grenze zum paganen Raum. Die Ottonen betrieben im 10./11. Jahrhundert eine aktive Missionierungspolitik im Slawenland, die aber mit erheblichen Rückschlägen wie dem Slawenaufstand von 983 verbunden war. In vielen Regionen verlief die Christianisierung im Frühmittelalter nicht gewaltsam, sondern friedlich, das heißt, das christliche Bekenntnis wurde freiwillig angenommen. Des Weiteren war die Zwangstaufe kirchlich sehr umstritten; sie wurde wiederholt von päpstlicher Seite abgelehnt und war kirchenrechtlich zudem untersagt, wenngleich nach den gleichen Beschlüssen Zwangsgetaufte dazu angehalten waren, Christen zu bleiben. Die Bulgaren und Serben übernahmen in der zweiten Hälfte des 9. Jahrhunderts das Christentum, Kiewer Rus wurde im späten 10. Jahrhundert, die Polen und (die nicht slawischen) Ungarn wurden um 1000 christianisiert. Um die Jahrtausendwende war die Christianisierung auch in Dänemark und Norwegen weitgehend erfolgreich. Die Missionstätigkeit im Norden wurde im 9./10. Jahrhundert maßgeblich vom Erzbistums Hamburg-Bremen übernommen. Die Christianisierung dieser Gebiete erfolgte in der Regel durch Bekehrung der Oberschicht. Dieser Prozess verlief langsam und war nicht immer spannungsfrei. Pagane Bräuche hielten sich zudem noch längere Zeit im Alltag. Die Christianisierung der Slawen, Ungarn und Skandinavier bedeutete eine erhebliche Ausdehnung des christlichen Kulturkreises. Byzantinische Missionare wirkten vor allem im östlichen und südöstlichen Europa, wo im 9. Jahrhundert die Brüder Methodios und Kyrill bei der Slawenmission erfolgreich waren; durch sie wurde außerdem die Grundlage für das Kirchenslawische geschaffen (siehe Glagolitische Schrift). Im Osten Europas konkurrierten lateinische und griechische Missionare, da die Zuständigkeit der neuen christlichen Gebiete entweder Rom oder Konstantinopel zufiel. So unterstellten sich Serbien und Bulgarien dem Patriarchat von Konstantinopel. In Bulgarien wurde 927 ein eigenes Patriarchat errichtet, das nach der byzantinischen Eroberung im frühen 11. Jahrhundert zum Erzbistum zurückgestuft wurde. In Byzanz bestanden innerhalb des Reichsgebiets bis ins 7. Jahrhundert erhebliche religiöse Spannungen zwischen den Vertretern der orthodoxen Reichskirche sowie den Nestorianern und den Miaphysiten. Mehrere kaiserliche Lösungsversuche schlugen fehl. Diese religionspolitische Problematik wurde faktisch durch die arabische Eroberung der byzantinischen Ostprovinzen im 7. Jahrhundert „gelöst“, denn die verbleibende Reichsbevölkerung (einschließlich nach Kleinasien strömender Flüchtlinge) war ganz überwiegend orthodoxen Glaubens. Die christliche Kirche in Nordafrika, die bedeutende Denker wie Augustinus von Hippo hervorgebracht hatte, verlor zunehmend an Bedeutung und erlosch schließlich. Dort bereitete ab 645 eine konfessionell bedingte Erhebung die Islamisierung vor. Schon seit etwa 640 betrieb Maximus Confessor seine Polemik gegen den Monotheletismus, der vielfach von Flüchtlingen aus den von Arabern eroberten Gebieten mitgebracht wurde. Er konnte 645 in einer öffentlichen Disputation den ehemaligen Patriarchen von Konstantinopel Pyrrhos I. von seiner dyotheletischen Lehre überzeugen. Ihre Lehren stimmten zwar darin überein, dass Jesus Christus zwei Naturen, nämlich eine göttliche und eine menschliche habe, aber in Konstantinopel herrschte zu dieser Zeit der Glaube an nur einen Willen oder ein Ziel vor, während Karthago und auch Rom an das Wirken zweier getrennter Willen in der Person Christi glaubten. Die christlichen Kirchen in Ägypten, Syrien und Mesopotamien behielten hingegen längere Zeit ihre Bedeutung (christliche Minderheiten sind noch heute in Ägypten und Syrien vorhanden) und die Mehrheit der Bevölkerung unter arabischer Herrschaft blieb noch lange christlich. Manche Christen waren sogar am Kalifenhof als Gelehrte tätig, wie z. B. Mitte des 8. Jahrhunderts Theophilos von Edessa. Die relativ tolerante arabische Herrschaft stieß anscheinend auf keinen nennenswerten Widerstand. Anhänger der Buchreligionen (Christen, Juden und Zoroastrier) mussten zwar eine spezielle Kopfsteuer (Dschizya) zahlen, durften ihren Glauben nicht öffentlich ausüben und keine Waffen tragen, blieben ansonsten aber zunächst weitgehend unbehelligt. Teils war auch eine besondere Kleidungspflicht für Christen vorgeschrieben. Ende des 7. Jahrhunderts verstärkte sich aber der Druck auf die christliche Mehrheitsbevölkerung: 699 löste im Kalifenreich Arabisch die bisherigen Verwaltungssprachen Griechisch und Mittelpersisch ab und Christen wurden von staatlichen Positionen ausgeschlossen. Das Gesellschaftsleben wurde zunehmend auf den neuen Glauben ausgerichtet und es kam zu verstärkten Diskriminierungen von Nichtmuslimen. Dies hing mit der jeweiligen Religionspolitik des regierenden Kalifen zusammen, die seit dem späten 7. Jahrhundert den Druck auf die nichtsmuslimische Bevölkerung nicht unerheblich verstärkten, sich in innerchristliche Angelegenheiten einmischten und auch Kirchengüter konfiszierten. Bilderstreit in Byzanz. Byzantinische Miniatur aus dem 9. Jahrhundert. Die Szene zeigt die Übertünchung eines Bildes während des Bilderstreits Mit der Regierungszeit der byzantinischen Kaiser Leo III. und Konstantin V. wird traditionell ein wichtiger Abschnitt der byzantinischen Geschichte verbunden, der Beginn des sogenannten Bilderstreits, der erst Mitte des 9. Jahrhunderts endete. Den Bilderstreit soll Leo entfacht haben, als er 726 die Christus-Ikone über dem Chalketor am Kaiserpalast entfernt und bald darauf ein Gesetz erlassen habe, das angeblich die Verehrung der Ikonen verbot. In der Forschung wurden dazu unterschiedliche mögliche Motive diskutiert. Das Resultat sei ein „Bildersturm“ gewesen, verbunden mit Zerstörungen von Heiligenbildern und Verfolgungen. Diese Schilderung entspricht der modernen Forschung zufolge aber keineswegs der Realität. Äußerst problematisch ist vor allem die Quellenlage, da fast ausschließlich Berichte der letztendlich siegreichen Seite, der Bilderfreunde (Ikonodulen), erhalten sind und in ihnen nachweislich Geschichtsumdeutungen vorgenommen wurden. In mehreren dieser Werke wird gegen die militärisch erfolgreichen und durchaus nicht unbeliebten Kaiser Leo und Konstantin polemisiert (so in byzantinischen Geschichtswerken wie der Chronik des Theophanes). Es ist aber nicht einmal sicher, ob Leo III. tatsächlich konkrete Maßnahmen gegen die Bilderverehrung ergriff, denn belastbare Belege für ein gesetzliches Verbot fehlen. Konstantin V. wiederum hat zwar theologische Traktate gegen die Bilderverehrung verfasst und 754 das Konzil von Hiereia einberufen, anschließend aber kaum ernsthafte Schritte eingeleitet. Zwar war Konstantin offenbar kein Anhänger der Bilderverehrung, Vorwürfe gegen ihn werden aber nicht in zeitgenössischen, sondern in den später entstandenen ikonodulen Quellen erhoben. Mehrere harte Maßnahmen gegen politische Gegner des Kaisers sind demnach erst im Nachhinein zu Maßnahmen gegen Bilderfreunde umgeschrieben worden. Die Auseinandersetzung um die Bilder fand also Mitte des 8. Jahrhunderts zwar statt, jedoch nicht in der überlieferten Form; dass die Bevölkerung den Ikonoklasmus mehrheitlich abgelehnt hätte, ist ebenfalls nicht gesichert. Generell ist es fraglich, ob der Bilderstreit in Byzanz die Bedeutung hatte, wie es die späteren Quellen suggerieren. Das zweite Konzil von Nikaia 787 erlaubte die Bilderverehrung nur in bestimmten Grenzen, die Mehrheit der Bischöfe wird wohl noch ikonoklastisch orientiert gewesen sein. Im frühen 9. Jahrhundert flammte der Bilderstreit unter Leo V. (reg. 813–820) wieder auf, wenngleich wohl vor allem das öffentliche Bekenntnis von Bedeutung war. Hintergrund dürfte die Erinnerung an die militärischen Erfolge der „ikonoklastischen Kaiser“ gewesen sein, die bis dahin nicht wiederholt werden konnten. Die neue kaiserliche Politik wurde, wie anscheinend bereits zuvor, von zahlreichen Kirchenführern und Mönchen unterstützt. Kaiser Michael III. (reg. 842–867) gestattete jedoch 843 wieder die Ikonenverehrung und beendete damit den Bilderstreit. Anmerkungen. Fruhmittelalter Fata Morgana. Eine Fata Morgana oder Luftspiegelung ist ein durch Ablenkung des Lichtes an unterschiedlich warmen Luftschichten auf dem fermatschen Prinzip basierender optischer Effekt. Es handelt sich hierbei um ein physikalisches Phänomen und nicht um eine visuelle Wahrnehmungstäuschung bzw. optische Täuschung. Der französische Physiker Gaspard Monge hat 1798 in Niederägypten erstmals Luftspiegelungen naturwissenschaftlich untersucht und gedeutet. Erklärung und Vorkommen. Der Brechungsindex heißer Luft ist geringer als jener der kälteren Luft. Lichtstrahlen, die zunächst eine kalte Luftschicht durchqueren und anschließend in flachem Winkel auf wärmere Luftschichten stoßen, werden vom optisch dünneren Medium bis hin zu einer Totalreflexion weggebrochen. Dafür ist eine Grenze zwischen heißer und kalter Luft notwendig, das heißt, es muss windstill sein. Wenn in Wüsten solche Luftschichtungen in größerer Höhe auftreten, sieht man Spiegelungen am Himmel, die Fata Morgana. In gemäßigten Breiten beobachtet man Spiegelungen häufig in Bodennähe über dunklen Flächen. Im oberen Bild ist eine Asphaltstraße zu sehen. Wegen ihrer dunklen Farbe heizt sie sich in der Sonne auf und mit ihr die Umgebungsluft. Darüber liegen kühlere Luftschichten. Auf der Straße spiegeln sich Gras, Häuser und das rote Auto. Die Grafik darunter veranschaulicht die Situation: Eine Betrachterin sieht das Auto direkt entlang des Strahls "d". Ein weiterer Strahl "i" wird wegen der Schichtung von kalter, also optisch dichter, auf warmer, also optisch dünner, Luft zu ihr hin gebrochen. Für sie sieht es so aus, als käme der Strahl aus der Richtung "v" und als spiegelte sich das Auto an der Straße. Wenn sie das Phänomen der Luftspiegelung nicht kennt, könnte sie eine nasse Straße dafür als Ursache vermuten. Auch Vergrößerungen sind möglich, ebenso Mehrfachspiegelungen, welche die gespiegelten Objekte wieder aufrecht erscheinen lassen. Seefahrer früherer Jahrhunderte nannten solche Erscheinungen bei Schiffen auch fliegender Holländer. Etymologie. Die Bezeichnung "Fata Morgana" kommt aus dem Italienischen. Sie bedeutet Fee Morgana, ein Name aus der im Mittelalter in ganz Europa verbreiteten Artussage. Morgana bewohnte die mystische und für Sterbliche unerreichbare Insel Avalon. Dementsprechend wurde die Erscheinung einer nicht vorhandenen Insel in der Straße von Messina zwischen dem italienischen Festland und Sizilien mit ihr in Verbindung gebracht. Fuzzylogik. Fuzzylogik (engl. "fuzzy " ‚verwischt‘, ‚verschwommen‘, ‚unbestimmt‘; "fuzzy logic", "fuzzy theory" ‚unscharfe Logik‘ bzw. ‚unscharfe Theorie‘) ist eine Theorie, welche vor allem für die Modellierung von Unsicherheit und Vagheit von umgangssprachlichen Beschreibungen entwickelt wurde. Sie ist eine Verallgemeinerung der zweiwertigen Booleschen Logik. Beispielsweise kann damit die sogenannte "Fuzziness" von Angaben wie „ein bisschen“, „ziemlich“, „stark“ oder „sehr“ in mathematischen Modellen erfasst werden. Die Fuzzylogik basiert auf den "Fuzzy-Mengen" (Fuzzy-Sets) und sogenannten "Zugehörigkeitsfunktionen", die Objekte auf Fuzzy-Mengen abbilden, sowie passenden logischen "Operationen" auf diesen Mengen und ihrer Inferenz. Bei technischen Anwendungen müssen außerdem Methoden zur "Fuzzyfizierung" und "Defuzzyfizierung" betrachtet werden, das heißt Methoden zur Umwandlung von Angaben und Zusammenhängen in Fuzzylogik und wieder zurück, zum Beispiel als Stellwert für eine Heizung als Resultat. Historische Entwicklung. Die Überlegungen zu einer "Logik der Unschärfe" reichen zurück in die griechische Antike. Bereits der Philosoph Platon postulierte, dass zwischen den Begriffen "wahr" und "falsch" ein dritter Bereich liege. Dies stand ganz im Gegensatz zu seinem Zeitgenossen Aristoteles, welcher die Präzision der Mathematik darin begründete, dass eine Aussage nur entweder "wahr" oder "falsch" sein kann. Die "Fuzzy-Set-Theorie", also die unscharfe Mengenlehre, wurde 1965 von Lotfi Zadeh an der University of California, Berkeley entwickelt. Die Fuzzy-Technologie nahm in den 1980er Jahren vor allem in Japan ihren Aufschwung mit der sogenannten japanischen "Fuzzy-Welle". Ein historisches Beispiel ist die Regelung der vollautomatischen U-Bahn Sendai, die erste erfolgreiche Großanwendung mit Fuzzylogik in der Praxis. Später fand die Fuzzylogik auch in Geräten der Unterhaltungselektronik breite Anwendung. Die europäische Fuzzy-Welle kam erst Mitte der 1990er Jahre, als die Grundsatzdiskussionen über die Fuzzylogik verebbten. Fuzzy-Set-Theorie. Die Fuzzy-Set-Theorie ist von der mehrwertigen Logik zu unterscheiden, die in den 1920er Jahren der polnische Logiker Jan Łukasiewicz beschrieb. Im engeren Sinne kann die so genannte Fuzzylogik zwar als eine mehrwertige Logik gedeutet werden, und insofern gibt es eine gewisse Nähe zur mehrwertigen Logik, für deren Wahrheitswert einer logischen Aussage Zahlen aus dem reellen Einheitsintervall [0, 1] (die reellen Zahlen von 0 bis 1) verwendet werden. Allerdings fasst Lotfi Zadeh die Fuzzy-Set-Theorie als Formalisierung von unbestimmten Begriffsumfängen im Sinne einer referenziellen Semantik auf, was ihm erlaubt, die Unschärfe der Zugehörigkeit von Objekten als Elemente der zu definierenden Mengen graduell über numerische Werte zwischen 0 und 1 anzugeben. Damit eröffnete sich eine weitergehende, linguistische Interpretation der Fuzzy-Set-Theorie als Basis einer Logik der Unschärfe. Der Begriff der "Fuzzy Logic" wurde zunächst auch nicht von Zadeh, sondern erst später von dem ebenfalls in Berkeley lehrenden Linguisten George Lakoff benutzt, nachdem Joseph Goguen, ein Doktorand Zadehs, eine "Logik unscharfer Begriffe" eingeführt hatte. Vergleiche in diesem Zusammenhang auch den von Hegel geprägten Begriff der Gedoppelten Mitte. Unscharfe Mengen. UND-ODER-NICHT-Operatoren zur Verknüpfung von Zugehörigkeitsfunktionen (Teilmengen). Grundlage der Fuzzylogik sind die sogenannten "unscharfen Mengen" (engl.: "fuzzy sets"). Im Gegensatz zu traditionellen Mengen (im Kontext der Fuzzylogik auch "scharfe" Mengen genannt), in denen ein Element einer vorgegebenen Grundmenge entweder enthalten oder nicht enthalten ist, wird eine unscharfe (fuzzy) Menge nicht durch die Objekte definiert, die Elemente dieser Menge sind (oder nicht sind), sondern über den Grad ihrer Zugehörigkeit zu dieser Menge. Das geschieht durch Zugehörigkeitsfunktionen "μA: X →" [0,1], die jedem Element der Definitionsmenge "X" eine Zahl aus dem reellwertigen Intervall [0,1] der Zielmenge zuordnen, welche den Zugehörigkeitsgrad "μA(x)" jeden Elements "x" zur so definierten unscharfen Menge "A" angibt. Damit wird jedes Element zum Element jeder unscharfen Menge, aber mit jeweils unterschiedlichen, eine bestimmte Teilmenge definierenden Zugehörigkeitsgraden. Zadeh erklärte hierzu neue Mengenoperationen, die als Operationen eines neuen Logikkalküls die mehrwertige "Fuzzylogik" begründen und sie als eine Verallgemeinerung der zweiwertigen, klassischen Logik ausweisen, welche als Spezialfall in ihr enthalten ist. Diese Operationen auf unscharfen Mengen sind wie auf scharfen Mengen definierbar, wie z. B. die Bildung von Schnittmengen (UND), Vereinigungsmengen (ODER) und Komplementmengen (NICHT). Zur Modellierung der logischen Operatoren der Konjunktion (UND), der Disjunktion (ODER) und der Negation (NICHT) bedient man sich der Funktionsklassen der T-Norm und T-Conorm. Negation. Die Negation in der Fuzzylogik erfolgt durch Subtraktion der Eingabewerte von 1. Also Nicht ausschließende-ODER-Schaltung. Die Adjunktion erfolgt durch Wahl des jeweils höheren Wertes der Eingabewerte. Also UND-Schaltung. Die Konjunktion erfolgt durch Wahl des jeweils niedrigeren Wertes der Eingabewerte. Also Ausschließende-ODER-Schaltung. Für die Disjunktion komplementiert man den kleineren zweier Werte und wählt den kleineren der beiden. Für mehr als zwei Eingabewerte setzt man das Ergebnis der letzten Operation rekursiv mit dem jeweils nächsten Eingabewert ein. Einfacher: man nimmt die Differenz des weniger Extremen von dem ihm gegenüberliegenden Extremwert. Also Fuzzyfunktionen. Zusammenfassungen einzelner Zugehörigkeitsfunktionen ergeben die "Fuzzyfunktionen". Ein Beispiel dafür ist eine Fuzzyfunktion für das Alter eines Menschen. Diese könnte aus mehreren dachförmigen Dreiecken bestehen, die ihrerseits für verschiedene Alterstypen stehen und Zugehörigkeitsfunktionen dieser einzelnen Alterstypen darstellen. Jedes Dreieck deckt einen Bereich von mehreren Jahren des Menschenalters ab. Ein Mensch mit 35 Jahren hätte so die Eigenschaften: "jung" mit der Wertung 0,75 (das ist noch relativ viel), "mittleres Alter" mit der Wertung 0,25 (das ist ein bisschen) und von den übrigen Funktionen nichts. Anders ausgedrückt: mit 35 ist man ziemlich viel "jung" und ein bisschen "mittel". Die Fuzzyfunktion ordnet jedem "Alterswert" eine ihn charakterisierende Zugehörigkeitsfunktion zu. In vielen Fällen werden Fuzzyfunktionen über Tabellen aus statistischen Erhebungen erzeugt. Diese können auch von der Anwendung selbst erhoben werden soweit eine Rückkopplung gegeben ist, wie in der Fahrstuhlsteuerung. Praktisch bedeutsam ist auch, die Erfahrungen und Intuitionen eines Experten auf dem jeweiligen Gebiet in eine Fuzzyfunktion mit einfließen zu lassen, insbesondere dann, wenn überhaupt keine statistischen Aussagen vorhanden sind, beispielsweise dann, wenn es sich um ein komplett neu zu beschreibendes System handelt. Diese Dreiecksgestalt ist allerdings keineswegs zwingend, generell können die Werte von Fuzzy-Funktionen beliebige Gestalt haben, solange deren Funktionswerte im Intervall [0,1] bleiben. In der Praxis werden solche Dreieckfunktionen aufgrund ihrer einfachen Berechenbarkeit jedoch gerne verwendet. Relativ weit verbreitet sind noch Trapeze (nicht notwendigerweise spiegelsymmetrisch), aber auch Halbkreise finden sich in einigen Anwendungen. Auch können sich prinzipiell mehr als zwei Abschnitte einer Fuzzy-Funktion überlappen (beim hier betrachteten Beispiel scheint das aber nicht sinnvoll zu sein). Beispiel für eine nicht-lineare Fuzzy-Funktion. formula_1 formula_2 Der Parameter "α" gibt hierbei den Wendepunkt der S-Kurve an, der Wert "δ" bestimmt die Neigung der Kurve. Je größer "δ" gewählt wird, desto flacher wird der Verlauf der resultierenden Funktion. Fuzzyfunktion für das Alter eines Menschen Den Anwendungsfällen entsprechend handelt es sich bei dieser Form der Repräsentation um "linguistische Variablen". Letztlich wird aus den einzelnen gewichteten Aussagen ein einziger Zahlenwert berechnet, der das Alter in mathematischer Form auszudrücken vermag. Mit diesem Wert lässt sich dann präzise weiterarbeiten. Auch bei dieser so genannten Defuzzyfikation sind viele Verfahren möglich, das bekannteste (aber bei weitem nicht immer beste) ist sicherlich die Methode Center-of-Gravity, bei der der Zahlenwert gewichtet nach der "Masse" der geometrischen Form der einzelnen Abschnitte der Zugehörigkeitsfunktion gebildet wird. Eine andere Möglichkeit ist, einfach einen gewichteten Mittelwert der Funktionswerte zu bilden. Anwendungsbeispiele. Fuzzylogik wird heute in unterschiedlichen Bereichen eingesetzt: Eine wesentliche Anwendung sind Fuzzy-Regler, z. B. in der Automatisierungstechnik, Medizintechnik, Unterhaltungselektronik, Fahrzeugtechnik und anderen Bereichen der Regelungstechnik, in denen Fuzzy-Regler mit konventionellen Reglern konkurrieren. Anwendung findet sie auch in der künstlichen Intelligenz, in Inferenzsystemen, in der Spracherkennung und anderen Bereichen, wie zum Beispiel in der Elektrosicherheit (quantitative Bewertungen). Nützen kann die Verwendung von Fuzzylogik, wenn keine mathematische Beschreibung eines Sachverhaltes oder Problems vorliegt, sondern nur eine verbale Beschreibung. Auch wenn – wie fast immer – das vorhandene Wissen Lücken aufweist oder teilweise veraltet ist, bietet sich der Einsatz von Fuzzylogik an, um noch zu einer fundierten Aussage über einen aktuellen oder künftigen Systemzustand zu gelangen. Dann wird aus sprachlich formulierten Sätzen und Regeln mittels Fuzzylogik eine mathematische Beschreibung gewonnen, die in Rechnersystemen genutzt werden kann. Interessant ist dabei, dass mit der Fuzzylogik auch dann Systeme sinnvoll gesteuert (bzw. geregelt) werden können, wenn ein mathematischer Zusammenhang zwischen den Ein- und Ausgabegrößen eines Systems nicht darstellbar ist – oder nur mit großem Aufwand erfolgen könnte, so dass eine Automatisierung zu teuer oder nicht in Echtzeit realisierbar wäre. Weitere Anwendungen sind die Regelung von U-Bahnen, die Prognose der zukünftigen Last in Routern, Gateways oder Mobilfunk-Basisstationen, die Steuerung automatischer Getriebe in Automobilen, Alarmsysteme für die Anästhesie, Zwischenfrequenzfilter in Radios, ABS für Automobile, Brandmeldetechnik, die Prognose des Energieverbrauchs bei Energieversorgern, AF-gekoppelte Mehrfeld-Belichtungsautomatiken und AF-Prädiktion in Spiegelreflexkameras etc. Auch in betriebswirtschaftlichen Anwendungen hat Fuzzylogik erfolgreich Einzug gehalten. Ein erfolgreiches Beispiel ist die "Intelligente Schadenprüfung" (ISP), mit der sich weltweit Versicherungsunternehmen vor Versicherungsbetrug schützen. Begriffsabgrenzung. Nicht zu verwechseln mit der Fuzzylogik ist die Fuzzy-Suche, die eine "unscharfe Suche" in Datenbanken ermöglicht, zum Beispiel, wenn die genaue Schreibweise eines Namens oder Begriffes nicht bekannt ist. Auch wenn die Zugehörigkeits-Werte aus dem Intervall [0,1] formal wie Wahrscheinlichkeitswerte aussehen, so ist Unschärfe etwas grundsätzlich anderes als Wahrscheinlichkeit. Vor allem ist zu beachten, dass die Summe der Werte zweier Funktionen, die sich überschneiden, nicht 1 sein muss. Sie kann gleich 1 sein, aber auch darüber oder darunter liegen. Frisches Haff. a> auf einer Landkarte von 1910. Das Frische Haff (,) ist ein Teil (Haff) der Ostsee, westlich und insbesondere südwestlich der Stadt Kaliningrad (Königsberg). Geographische Lage. Das Frische Haff wird durch die "Frische Nehrung", eine ca. 70 km lange und 2 km breite Halbinsel, von der "Danziger Bucht" getrennt. Das "Pillauer Seetief" ist der einzige Durchlass zwischen dem Haff und der Ostsee. Die größten Flüsse, die in das Haff münden, sind die Nogat und der Pregel. Quer durch das Frische Haff verläuft die Grenze zwischen Polen und der russischen Exklave Kaliningrad. Die bedeutendsten Städte am oder in unmittelbarer Nähe zum Frischen Haff sind Kaliningrad ("Königsberg") und Baltijsk ("Pillau") in Russland sowie Elbląg ("Elbing") in Polen. Aktuell gibt es polnische Planungen, auf dem polnischen Teil der Frischen Nehrung einen Kanal zwischen Ostsee und dem Haff zu bauen. Damit soll der Hafen der Stadt Elbląg reaktiviert werden, der momentan darunter leidet, dass die einzige schiffbare Verbindung zur Ostsee, das "Pillauer Seetief", auf russischem Gebiet liegt. Das Projekt ist allerdings aufgrund der ungewissen Auswirkungen auf das Ökosystem des Frischen Haffs stark umstritten. Name. Zeitweise hieß das Haff auch „Friesisches Haff“, eine Bezeichnung‚ die von den ersten deutschen Siedlern auf der Nehrung, den Friesen, stammt. Der Begriff wurde im Laufe der Zeit zu „Fries’sches Haff“ und später zu „Frisches Haff“. In dem Buch "Speculum Germaniae oder ein kurtzer geographischer Bericht von dem gesammten Teuschland" von 1676 wird die Lage von Fischhausen, Frauenburg oder Tolkemit am "„frischen Haff“" erwähnt. Auf Russisch heißt das Frische Haff "Kaliningrader Bucht" (, Kaliningradski saliw). In der DDR wurde es auch "Weichselhaff" genannt, welches der wörtlichen Übersetzung aus dem Polnischen entspricht. Geschichte. Bis 1945 gehörten das Frische Haff und die Frische Nehrung zum Deutschen Reich. Als die Rote Armee am Ende des Zweiten Weltkriegs nach Westen vordrang, schnitt sie zehntausenden ostpreußischen Flüchtlingen den Landweg ab, weshalb diese den Weg über das zugefrorene Frische Haff nahmen. Tausende erfroren oder starben durch sowjetische Luftangriffe, welche sowohl aus Bombardierungen der Eisdecke als auch aus Maschinengewehrbeschuss bestanden. Infolge des Potsdamer Abkommens wurde das Gebiet im Norden unter sowjetische, im Süden unter polnische Verwaltung gestellt. Heute ist der südliche Teil somit zu Polen gehörig, der nördliche ist Teil der Oblast Kaliningrad (Russland). Département Doubs. Doubs, amtlich "Département du Doubs", ist das französische Département mit der Ordnungsnummer 25. Es liegt im Osten des Landes in der Region Franche-Comté und ist nach dem Fluss Doubs benannt. Das Département bedeckt eine Fläche von 5233 km² und hat Einwohner (Stand). Geographie. Das Département Doubs grenzt im Norden an das Département Haute-Saône, im äußersten Nordosten an das Territoire de Belfort, im Osten und Südosten an die Schweizer Kantone Jura, Neuenburg und Waadt sowie im Westen an das Département Jura. Bedeutendster Fluss im Département ist der namengebende Doubs. Wappen. Beschreibung: Im Blau und Gold durch Wellenschnitt geteilten Wappen ist oben ein wachsender goldener Löwe mit Krone, roter Zunge und Krallen zwischen besäten goldenen Schindeln und unten ein blauer Wellenbalken. Einzelnachweise. Doubs Freie Demokratische Partei. Die Freie Demokratische Partei (kurz FDP, von 1968 bis 2001 "F.D.P."; Eigenbezeichnung: Freie Demokraten, bis 2015 "Die Liberalen") ist eine liberale Partei in Deutschland. Sie war 1949–1956, 1961–1966, 1969–1998 und 2009–2013 als jeweils kleinerer Koalitionspartner an der Bundesregierung beteiligt (siehe Liste der deutschen Bundesregierungen). Von 1949 bis 2013 war sie durchgehend im Deutschen Bundestag vertreten. Inhaltliches Profil. Der inhaltliche Grundgedanke der FDP ist der Liberalismus, den sie seit jeher traditionell in Deutschland vertreten hat. Ihr fundamentales Ideal besteht somit in der Freiheit des Menschen, insbesondere vor staatlicher Gewalt. Die gegenwärtigen Leitlinien der FDP sind in den "Karlsruher Freiheitsthesen" verankert. Diese wurden auf dem 63. Ordentlichen Bundesparteitag am 22. April 2012 in Karlsruhe beschlossen. Vorher galten die "Wiesbadener Grundsätze," die auf dem 48. Ordentlichen Bundesparteitag am 24. Mai 1997 in Wiesbaden beschlossen wurden. Wirtschaftspolitik. Die Wirtschaftspolitik der FDP orientiert sich an einer liberalen und sozialen Marktwirtschaft. Sie fordert eine staatliche Ordnungspolitik, die dafür die entsprechenden Rahmenbedingungen schafft, aber den Markt nicht durch übermäßige Interventionen verzerrt. Zentrales Ziel ist die Schaffung von Arbeitsplätzen durch Verbesserung des Investitionsklimas. Erreicht werden soll dies unter anderem durch Bürokratieabbau, Privatisierungen, Deregulierung, Abbau von Subventionen und eine Reform des Tarifrechts. In der Globalisierung sieht die Partei vor allem Chancen. Die Staatsverschuldung soll reduziert werden. Es wird ein ausgeglichener Haushalt ohne Neuverschuldungen angestrebt. In der Steuerpolitik wird ein einfacheres Steuerrecht gefordert. Das Modell der Einkommensteuer sieht einen Stufentarif vor. Langfristig wird eine sogenannte Flat Tax angestrebt. Durch Steuersenkungen soll die Kaufkraft der Arbeitnehmer erhöht und die Wirtschaft belebt werden. Die FDP lehnt einen bundesweiten Mindestlohn ab. Man will dagegen Lohnuntergrenzen einführen, die auf Besonderheiten der jeweiligen Regionen und Branchen Rücksicht nehmen. Beim Thema Fachkräftemangel setzt sie sich dafür ein, „die Regelungen für die Fachkräftezuwanderung stark zu vereinfachen“ – beispielsweise die Mindestverdienstgrenze massiv abzusenken und bereits nach 2 Jahren den Anspruch auf eine Niederlassungserlaubnis (ein dauerhaftes Aufenthaltsrecht) bei Nachweis von Sprachkenntnissen zu begründen. Sozialpolitik. In der Sozialpolitik wird die Einführung eines Bürgergeldes angestrebt, in dem alle steuerfinanzierten sozialen Hilfen des Staates zusammengefasst werden. Dabei handelt es sich um ein Modell einer negativen Einkommensteuer. Es würde wie die jetzige Regelung an eine Arbeitsverpflichtung gebunden sein. Die umlagefinanzierten Sozialversicherungen sollen durch kapitalgedeckte Systeme ergänzt oder ersetzt werden. Gesellschaftspolitik. Ein gemeinsamer Nenner der Liberalen ist die kritische Einstellung zu einer Übermacht des Staates und zu konservativen oder egalitären Gesellschaftsentwürfen. Nach dem Motto "„So viel Staat wie nötig, so wenig Staat wie möglich!“" versucht die FDP, die Eingriffe des Staates in das Leben des Einzelnen so weit wie möglich zu beschränken. Daher lehnt sie auch alle Elemente eines Überwachungsstaates ab. Verbindendes Element ist für sie der Gedanke der "„Schaffung und Wahrung der Freiheit des Einzelnen“". So trug sie nahezu alle gesellschaftlichen Liberalisierungen mit, die in der Bundesrepublik realisiert wurden. Familienpolitik. Die FDP setzt sich für die rechtliche Gleichstellung verschiedener Formen des Zusammenlebens ein. Die Ehe zwischen Mann und Frau dürfe gegenüber anderen Formen des Zusammenlebens nicht bevorzugt werden. Das Ehegattensplitting soll beibehalten werden. Gleichgeschlechtliche Paare sollen die gleichen Rechte wie heterosexuelle Paare erhalten, z. B. ein gemeinsames Adoptionsrecht, und auch steuerrechtlich soll es Gleichbehandlung gleichgeschlechtlicher und heterosexueller Partner geben (Einbeziehung in das Ehegattensplitting). Der Ausbau von Kindergartenplätzen soll bundesweit verstärkt werden. Innenpolitik. Die FDP lehnt traditionell Gesetze ab, die sie als Einschränkung von Grundrechten ansieht. So spricht sie sich u. a. entschieden gegen die Vorratsdatenspeicherung von Verbindungsdaten bei Telefon und Internet aus. Umstritten war auch der „Große Lauschangriff“: 1995 führte die FDP dazu eine Urabstimmung durch, bei der sich eine Mehrheit von 63,6 Prozent für die Möglichkeit aussprach, nach Zustimmung eines Richters eine Privatwohnung abhören zu lassen. Als Reaktion auf das Ergebnis trat die damalige Bundesjustizministerin Sabine Leutheusser-Schnarrenberger (FDP) von ihrem Amt zurück. Als 1998 der Bundestag das betreffende Gesetz verabschiedete, erhoben einige prominente FDP-Mitglieder aus dem linksliberalen Flügel der Partei teilweise erfolgreich Verfassungsbeschwerde. Der Bundesparteitag im Mai 2005 in Köln hat inzwischen wieder die Abschaffung des Großen Lauschangriffs gefordert. Der Bundesvorstand der FDP sprach sich in seiner Sitzung am 11. Dezember 2006 außerdem gegen die Möglichkeit zu Online-Durchsuchungen aus, da diese einen schwerwiegenden Eingriff in das Recht auf informationelle Selbstbestimmung darstellten. Die Liberalen stehen einer Verschärfung der Strafgesetze kritisch gegenüber. Das jetzige Recht reiche aus, um die Innere Sicherheit zu gewährleisten. Sie fordert stattdessen die Einstellung von mehr Polizeibeamten, Richtern und Staatsanwälten, um die Sicherheit zu erhöhen und die Gerichtsverfahren zu beschleunigen. Außerdem wird eine bessere Resozialisierung insbesondere für jugendliche Straftäter gefordert. Die FDP spricht sich zudem für mehr direkt-demokratische Elemente, wie Volksabstimmungen auch auf Bundesebene aus, um das Volk in entscheidende Prozesse mit einzubeziehen. Bildungspolitik. Ein Ziel der FDP ist die vorschulische Förderung der Kinder. So soll es ab dem vierten Lebensjahr verbindliche Sprachtests geben, um mögliche sprachliche Schwächen, z. B. von Kindern mit Migrationshintergrund, zu erkennen und diese rechtzeitig vor der Schule in einer sogenannten Startklasse trainieren zu können. Kinderbetreuung soll entsprechend dem Rechtsanspruch auf einen Kindergartenplatz, halbtags zwischen dem dritten Lebensjahr und der Einschulung (oder der Startklasse), für Kinder und Eltern kostenlos sein. Schon in der ersten Klasse soll spielerisch mit Fremdsprachenunterricht als festem Bestandteil des Unterrichtplans begonnen werden. Außerdem stehen die Liberalen zum gegliederten Schulsystem und lehnen eine Gesamtschule ab, da sie ihrer Meinung nach zu wenig leistungsorientiert und individuelle Förderung nicht ausreichend gewährleistet sei. Die FDP tritt für nachlaufende Studiengebühren zur Finanzierung der Hochschulen ein. Außerdem fordert sie, forschungsfeindliche Gesetze und Verordnungen zu ändern oder abzuschaffen, um damit den Forschungsstandort Deutschland zu sichern. Die Stammzellenforschung soll gefördert werden. Europapolitik. Die FDP bezeichnet sich selbst als "die" Europapartei. Sie will eine politisch integrierte EU mit gemeinsamer Außen- und Sicherheitspolitik. Über den Vertrag von Lissabon hätte nach FDP-Sicht in einer Volksabstimmung entschieden werden sollen. Sie tritt für eine politisch handlungsfähige Union ein. Sie befürwortet einen Beitritt der Türkei zur EU, allerdings müssten dazu die vereinbarten Kriterien erfüllt sein. Die Vertiefung der EU habe Vorrang vor der Erweiterung. Die Partei befürwortet außerdem das Freihandelsabkommen TTIP mit den USA. Energiepolitik. In der Energiepolitik fordert die FDP einen Mix aus Kernkraft, Kohle, Öl und Gas sowie Erneuerbaren Energien. Der schnelle Ausstieg aus der Kernenergie wurde lange kritisch gesehen. Seit den Ereignissen im Kernkraftwerk Fukushima gab es eine parteiinterne Diskussion um einen beschleunigten Ausstieg aus der Kernenergie; inzwischen wird dieser genauso wie der mittelfristige Umstieg auf Erneuerbare Energien unterstützt. Außenpolitik. Die FDP steht Bundeswehreinsätzen kritisch gegenüber und sieht sie lediglich als Ultima Ratio – und nur mit einem UN-Mandat – für gerechtfertigt an. Die Bundeswehr soll ein starker NATO-Partner sowie eine Parlaments- und Berufsarmee sein; deshalb setzten die Liberalen z. B. zusammen mit den Koalitionspartnern CDU und CSU die Aussetzung der Wehrpflicht durch. Eine doppelte Staatsbürgerschaft soll zukünftig problemlos möglich sein. Die Arbeitserlaubnispflicht von Asylbewerbern soll ebenso wie die als ungerechtfertigten Freiheitseingriff angesehene Residenzpflicht für Flüchtlinge abgeschafft werden. International fordert die FDP eine entschiedenere Durchsetzung und Förderung der Menschen- und Freiheitsrechte, die weitere Vorantreibung von Abrüstungsbemühungen, eine Reform der Vereinten Nationen sowie die sofortige Unterzeichnung der UN-Konvention gegen Korruption. Einwanderungspolitik. Im Asylwesen fordert die FDP, dass die Kommunen entlastet werden und der Bund mehr Kosten übernimmt. Außerdem will man ein europäisches Quotensystem, welches Asylbewerber auf die Mitgliedsstaaten verteilt und den Bau von großen Aufnahmelagern, so genannten Hotspots, in Griechenland und Italien. Bürgerkriegsflüchtlingen soll humanitärer Schutz auf Zeit gewährleistet werden. Langfristiges Ziel soll ein gemeinsames, gesamteuropäisches Asylrecht sein. Flüchtlinge aus dem Nahen Osten soll geholfen werden, indem man in den betroffenen Ländern Hilfe vor Ort leistet. Die Balkanstaaten sollen zu sicheren Herkunftsländern erklärt werden, um den Andrang aus diesen Staaten einzudämmen. In der Einwanderungspolitik möchte man ein Einwanderungsgesetz mit einem Punktesystem, ähnlich dem in Kanada oder Australien, einführen. Geschichte. Die Partei wurde 1948 von ehemaligen Mitgliedern der DDP und der DVP gegründet. Die LDPD und die NDPD, als ehemalige DDR-Blockparteien, sowie die DFP und die F.D.P. der DDR, welche der Bürgerbewegung in der DDR entstammten, gingen 1990 in der gesamtdeutschen FDP auf. Die FDP trug bis 15. Juni 2014 von allen Parteien am längsten Regierungsverantwortung in der Bundesrepublik Deutschland, nämlich insgesamt 46 Jahre, jedoch immer als kleinerer der Koalitionspartner. In der Opposition war sie nur von 1956 bis 1961, von 1966 bis 1969 und von 1998 bis 2009. Sie stellte acht Vizekanzler in insgesamt 15 verschiedenen Kabinetten sowie mit Walter Scheel, Hans-Dietrich Genscher, Klaus Kinkel und Guido Westerwelle vier deutsche Außenminister. Weitere klassische FDP-Ministerressorts sind Justiz und Wirtschaft. Mit Theodor Heuss (1949–1959) und Walter Scheel (1974–1979) stellte sie zudem bisher zwei Bundespräsidenten. Wurzeln des Liberalismus. Führende Köpfe der nationalliberalen Partei, Holzschnitt um 1878 Die liberale Bewegung setzte sich im Anfang des 19. Jahrhunderts im Zuge der Aufklärung für mehr Rechte der unteren Schichten und die nationale Einigung ein. Liberale Gruppen, die zum großen Teil aus Studenten und anderen Intellektuellen bestanden, protestierten für „Einheit und Freiheit“. Darauf folgten Gegenmaßnahmen der reaktionären Kräfte Deutschlands, besonders durch Kanzler Metternich, den die liberale Märzrevolution im Jahr 1848 zum Rücktritt zwang. Ab 1849 jedoch war die Revolution mangels Strukturen und Organisation im Lager der Liberalen erschöpft und die Monarchie setzte sich wieder durch, wenn auch das liberale Gedankengut fest verwurzelt blieb und zum Beispiel dem preußischen König bei der Durchführung seiner Politik bis zu Bismarcks Einspringen Probleme bereitete. Die 1861 gegründete Deutsche Fortschrittspartei war die erste Partei im modernen Sinne, mit einem Parteiprogramm und klaren politischen Zielen. Ihr rechter Flügel spaltete sich 1867 ab und bildete fortan die Nationalliberale Partei, während sich der verbliebene linke Flügel zur Zeit des Deutschen Kaiserreichs mehrfach umbenannte und neu formierte. Zusammen mit der Liberalen Vereinigung, einer Abspaltung am linken Rand der Nationalliberalen, schloss sich die Fortschrittspartei 1884 zur Deutschen Freisinnigen Partei zusammen. Die Fusion endete 1893, als sich die Freisinnigen wieder in zwei eigenständige Parteien, die Freisinnige Volkspartei und die Freisinnige Vereinigung, spalteten. Beide Parteiengruppen gingen 1910 unter Einschluss der Deutschen Volkspartei in der Fortschrittlichen Volkspartei auf. In der Weimarer Republik knüpften die nationalliberale Deutsche Volkspartei und die linksliberale Deutsche Demokratische Partei (ab 1930 Deutsche Staatspartei) an die Vorgängerorganisationen aus der Kaiserzeit an. Ihre Mitglieder waren später maßgeblich an den Gründungen der liberalen Parteien in der Nachkriegszeit beteiligt. Liberale Parteien nach 1945 . Bald nach Kriegsende forcierte die Sowjetunion die Gründung von Parteien. Anfang Juli 1945 riefen Wilhelm Külz und Eugen Schiffer zur Gründung einer Liberal-Demokratischen Partei Deutschlands als gesamtdeutsche Partei auf, die wegen der zögerlichen Genehmigung im Westen jedoch nur in der Sowjetischen Besatzungszone als LDP konstituiert wurde. Im September 1945 gründete sich die Hamburger "Partei Freier Demokraten (PFD)" als bürgerliche Linkspartei und erste liberale Partei in den Westzonen. Bei den ersten Bürgerschaftswahlen in Hamburg erreichte die nunmehr FDP genannte Partei am 13. Oktober 1946 18,2 Prozent. Ebenfalls im September 1945 wurde im Südwesten die DVP gegründet, die bei den Landtagswahlen in Württemberg-Baden im November 1946 ähnlich stark abschnitt. Neugründungen liberaler Parteien erfolgten in allen Bundesländern. In Hessen erhielt die FDP durch eine Listenverbindung mit den Heimatvertriebenen, die noch nicht eigenständig kandidieren durften, 1950 mit 31,8 Prozent das beste Landtagswahlergebnis ihrer Geschichte. In den sowjetisch besetzten Gebieten erlangte 1946 die LDP bei den einzigen freien Landtagswahlen zwischen 7,8 Prozent in Groß-Berlin (Ost) und 29,9 Prozent in der Provinz Sachsen (Sachsen-Anhalt). Die LDP (Ost) musste sich jedoch als „Blockpartei“ LDP der Nationalen Front der DDR anschließen und die Politik der SED unterstützen. Parteigründung. Am 17. März 1947 wurde in Rothenburg ob der Tauber die Demokratische Partei Deutschlands (DPD) als gesamtdeutsche Partei gegründet. Vorsitzende waren Theodor Heuss und Wilhelm Külz. Aufgrund von Auseinandersetzungen über den politischen Kurs von Külz konnte sich dieses Projekt jedoch nicht dauerhaft durchsetzen. Die Freie Demokratische Partei wurde auf dem FDP-Gründungsparteitag 1948 am 11./12. Dezember 1948 in Heppenheim an der Bergstraße als ein Zusammenschluss aller 13 liberalen Landesverbände der drei westlichen Besatzungszonen gegründet. Der Name "Liberaldemokratische Partei (LDP)" konnte sich dabei nicht durchsetzen, der Name "Freie Demokratische Partei (FDP)" wurde von den Delegierten der Landesverbände mit 64 gegen 25 Stimmen gebilligt. Ihr erster Vorsitzender war Theodor Heuss, dessen Stellvertreter Franz Blücher. Der Ort der Parteigründung wurde mit Bedacht gewählt, denn am 10. Oktober 1847 hatten sich bei der Heppenheimer Tagung die gemäßigten Liberalen im Vorfeld der Märzrevolution getroffen. Mitunter wird die „Heppenheimer Versammlung“, die am 10. Oktober 1847 im Hotel „Halber Mond“ stattfand, als ein Treffen führender Liberaler betrachtet, das den Auftakt zur deutschen Revolution der Jahre 1848/49 darstellte. Bei der Schaffung des Grundgesetzes 1948/49 und dessen Ausgestaltung hatte die FDP stets mehr Anteil, als ihre Wahlergebnisse vermuten lassen. So war sie die Hüterin der persönlichen Freiheitsrechte, des parlamentarischen Systems und der Marktwirtschaft (während alle anderen am Grundgesetz wirkenden Parteien eine eher staatsgelenkte Wirtschaft bevorzugten). In vielen anderen Fragen hatte die FDP alternative oder vermittelnde Lösungen zwischen SPD und CDU vorangebracht und konnte somit oftmals aktiver als andere Parteien Programmpunkte in die Realität umsetzen. Auch war die FDP die Partei, die mit insgesamt 46 Jahren (Stand 2013) am längsten an der Bundesregierung beteiligt sein sollte. Bis in die 1950er Jahre hinein standen einige Landesverbände der FDP rechts von der CDU/CSU, die ihrerseits anfänglich noch Konzepten eines christlichen Sozialismus nachhing. Mit national orientierten Grundwerten wurde um Stimmen auch von Trägern von Staats- und Gesellschaftsfunktionen des Dritten Reichs geworben. 1949–1969: Wiederaufbau Deutschlands. Bei den ersten Wahlen zum Bundestag am 14. August 1949 errang die FDP einen Stimmenanteil von 11,9 Prozent (bei 12 Direktmandaten, vor allem in Württemberg-Baden und Hessen) und erhielt somit 52 von 402 Sitzen. Im September desselben Jahres wurde der FDP-Vorsitzende Theodor Heuss zum ersten Bundespräsidenten der Bundesrepublik Deutschland gewählt. 1954 erhielt er bei seiner Wiederwahl mit 871 von 1.018 Stimmen (85,6 Prozent) der Bundesversammlung das bis heute beste Wahlergebnis eines Bundespräsidenten. Zugleich wurde Adenauer auf Vorschlag des neuen Bundespräsidenten mit äußerst knapper Mehrheit zum ersten Bundeskanzler gewählt. Die FDP beteiligte sich mit CDU/CSU und DP an Adenauers Koalitionskabinett und stellte mit Franz Blücher (Vizekanzler, Minister für Angelegenheiten des Marshallplanes), Thomas Dehler (Justiz) und Eberhard Wildermuth (Wohnungsbau) drei Minister. In den bedeutendsten Fragen der Wirtschafts-, Sozial- und Deutschlandpolitik stimmte die FDP mit ihren Koalitionspartnern CDU/CSU überein. Allerdings empfahl sich die FDP den bürgerlichen Wählern als laizistische Partei, die die Konfessionsschulen ablehnte und den Unionsparteien Klerikalisierung vorwarf. Die FDP bekannte sich auch als konsequente Vertreterin der Marktwirtschaft, während die CDU damals nominell vom "Ahlener Programm" geprägt war, das einen dritten Weg zwischen Kapitalismus und Sozialismus erlaubte; Ludwig Erhard, der „Vater“ der sozialen Marktwirtschaft, hatte seine Anhänger in den ersten Jahren der Bundesrepublik eher in der FDP als in der Union. Die FDP stimmte im Bundestag gegen das von CDU und SPD Ende 1950 eingebrachte Entnazifizierungsverfahren. Auf ihrem Bundesparteitag 1951 in München verlangte sie die Freilassung aller „so genannten Kriegsverbrecher“ und begrüßte die Gründung des „Verbands Deutscher Soldaten“ aus ehemaligen Wehrmachts- und SS-Angehörigen, um die Integration der nationalistischen Kräfte in die Demokratie voranzubringen. Die nach Werner Naumann benannte Naumann-Affäre (1953) kennzeichnet den Versuch alter Nationalsozialisten, die Partei zu unterwandern, die in Hessen, Nordrhein-Westfalen und Niedersachsen viele rechtskonservative und nationalistische Mitglieder hatte. Nachdem die britischen Besatzungsbehörden sieben prominente Vertreter des Naumann-Kreises verhaftet hatten, setzte der FDP-Bundesvorstand eine Untersuchungskommission unter dem Vorsitz von Thomas Dehler ein, die insbesondere die Zustände in der nordrhein-westfälischen FDP scharf rügte. In den folgenden Jahren verlor der rechte Flügel an Kraft, die extreme Rechte suchte sich zunehmend Betätigungsfelder außerhalb der FDP. Bei der Bundestagswahl 1953 erhielt die FDP 9,5 Prozent der Zweitstimmen, 10,8 Prozent der Erststimmen (bei 14 Direktmandaten, vor allem in Hamburg, Niedersachsen, Hessen, Württemberg und Oberfranken) und 48 von 487 Mandaten. In der zweiten Legislaturperiode des Bundestages gewannen Kräfte der süddeutschen Liberaldemokratie in der Partei an Einfluss. Mit Thomas Dehler übernahm ein Vertreter eines eher linksliberalen Kurses den Partei- und Fraktionsvorsitz. Der ehemalige Justizminister Dehler, der nach 1933 unter der Verfolgung durch die Nationalsozialisten zu leiden hatte, wurde bekannt durch seine rhetorische Schärfe. Generell waren die verschiedenen Landesverbände sehr eigenständig und setzten so von Land zu Land unterschiedliche Akzente innerhalb der liberalen Politik. Nachdem die FDP Anfang 1956 die Koalition mit der CDU in Nordrhein-Westfalen verlassen und mit SPD und Zentrum eine neue Landesregierung gebildet hatte, traten insgesamt 16 Bundestagsabgeordnete, darunter die vier Bundesminister, aus der FDP aus und gründeten die kurzlebige Freie Volkspartei, die dann bis zum Ende der Legislaturperiode anstelle der FDP an der Bundesregierung beteiligt war. Die FDP ging damit erstmals in die Opposition. Als einzige der kleineren Nachkriegsparteien überlebte die FDP trotz vieler Probleme. 1957 erreichte sie noch 7,7 Prozent der Stimmen und ihr bis 1990 letztes Direktmandat, womit sie im Bundestag 41 von 497 Sitzen innehatte. Allerdings blieb sie trotzdem in der Opposition, weil die Union die absolute Mehrheit errang. Im Folgenden setzte sich die FDP beispielsweise für eine atomwaffenfreie Zone in Mitteleuropa ein. Die FDP als dritte Partei im Wahlkampf 1961 Bereits vor der Wahl war Dehler als Parteivorsitzender abgetreten. Auf dem Bundesparteitag in Berlin Ende Januar 1957 löste ihn Reinhold Maier ab. Dehlers Funktion als Fraktionsvorsitzender übernahm nach der Bundestagswahl der sehr national eingestellte Erich Mende. 1960 wurde Mende auch Parteivorsitzender. Nach der Bundestagswahl 1961 (bei der sie mit 12,8 Prozent ihr bis dahin bestes bundesweites Ergebnis erzielte) beteiligte sich die FDP nach schwierigen Verhandlungen wiederum an einer Koalition mit der CDU. Obwohl man sich vor der Wahl darauf festgelegt hatte, auf keinen Fall weiterhin zusammen mit Adenauer in einer Regierung zu sitzen, wurde Adenauer erneut Kanzler, jedoch unter der Maßgabe, nach zwei Jahren zurückzutreten. Diese Ereignisse brachten der FDP den Spottnamen der „Umfallerpartei“ ein. In der Spiegel-Affäre zog die FDP ihre Minister aus der Bundesregierung ab. Zwar wurde die Koalition unter Adenauer 1962 noch einmal erneuert, doch unter der Bedingung, im Oktober 1963 zurückzutreten. Das trat auch ein, neuer Kanzler wurde Ludwig Erhard. Dies war für Erich Mende wiederum der Anlass, ins Kabinett einzutreten: Er übernahm das eher unbedeutende Bundesministerium für gesamtdeutsche Fragen. Bei der Bundestagswahl 1965 erlangte die FDP 9,5 Prozent. Die Koalition mit der CDU zerbrach 1966 am Thema Steuererhöhungen, und es folgte eine Große Koalition zwischen CDU und SPD. In der Opposition bahnte sich auch ein Kurswechsel an: Die bisherige Außenpolitik und auch die Haltung zu den Ostgebieten wurden diskutiert. Zum neuen Vorsitzenden wählten die Delegierten 1968 Walter Scheel, einen europäisch ausgerichteten Liberalen, der zwar aus dem nationalliberalen Lager kam, aber mit Willi Weyer und Hans-Dietrich Genscher die neue Mitte der Partei anführte. Diese Mitte bemühte sich darum, die FDP koalitionsfähig mit beiden Großparteien zu machen. Dabei näherten sich die Liberalen durch ihre Neuorientierung in der Ost- und Deutschlandpolitik besonders der SPD an. 1969–1982: Gesellschaftliche Veränderungen und Krisen. Am 21. Oktober 1969 begann nach der Bundestagswahl die Periode einer Sozialliberalen Koalition mit der SPD und dem Bundeskanzler Willy Brandt. Walter Scheel war es, der die außenpolitische Wende einleitete. Trotz einer sehr knappen Mehrheit setzten er und Willy Brandt die umstrittene Neue Ostpolitik durch. Diese Politik war innerhalb der FDP durchaus umstritten, zumal dem Eintritt in die Bundesregierung Niederlagen bei den Landtagswahlen in Nordrhein-Westfalen, Niedersachsen und dem Saarland am 14. Juni 1970 folgten. In Hannover und Saarbrücken schied die Partei aus dem Landtag aus. Nachdem der Bundesparteitag in Bonn nur eine Woche später die Politik der Parteiführung gestützt und Scheel im Amt bestätigt hatte, gründeten Parteirechte um Siegfried Zoglmann am 11. Juli 1970 auf der Hohensyburg einen „überparteilichen“ Verein namens National-Liberale Aktion – mit dem Ziel, den linksliberalen Kurs der Partei zu beenden und Scheel zu stürzen. Dies gelang jedoch nicht. Zoglmann unterstützte im Oktober 1970 einen Missbilligungsantrag der Opposition gegen Finanzminister Alexander Möller; Erich Mende und Heinz Starke verfuhren ebenso. Wenig später erklärten alle drei ihren Austritt aus der FDP; Mende und Starke traten der CDU bei, Zoglmann gründete später die Deutsche Union, die über den Status einer Splitterpartei nicht hinauskam. Die außenpolitische sowie die gesellschaftspolitische Wende wurden 1971 durch die Freiburger Thesen, die als Rowohlt-Taschenbuch mehrere 100.000-mal verkauft wurden, auf eine theoretische Grundlage gestellt, die FDP verpflichtete sich darin auf „Sozialen Liberalismus“ und gesellschaftliche Reformen. Walter Scheel war zunächst Außenminister und Vizekanzler, 1974 wurde er dann zweiter liberaler Bundespräsident und machte damit den innerparteilichen Weg für den bisherigen Innenminister Hans-Dietrich Genscher frei. Von 1969 bis 1974 stützte die FDP Bundeskanzler Willy Brandt, danach regierte sie an der Seite Helmut Schmidts. Bereits am Ende der 70er Jahre schienen die Übereinstimmungen zwischen FDP und SPD nicht mehr für eine Koalition ausreichend zu sein, aber die CDU/CSU-Kanzlerkandidatur von Franz Josef Strauß 1980 ließ die beiden Parteien noch einmal zusammen in die Bundestagswahl gehen. Die FDP sah jedoch immer mehr die Differenzen zur SPD, vor allem in der Wirtschaftspolitik. In der Haltung zur Frage des NATO-Doppelbeschlusses hatte Kanzler Schmidt seine eigene SPD immer weniger hinter sich. Auch wurden Widersprüche innerhalb der FDP immer größer. Am 17. September 1982 zerbrach die Koalition: die FDP-Minister traten zurück, wodurch sie einer Entlassung durch Bundeskanzler Helmut Schmidt zuvorkamen und die Regierungsbeteiligung der FDP endete. Am 1. Oktober, also rund zwei Wochen später, beteiligte sich die FDP-Fraktion an einem erfolgreichen konstruktiven Misstrauensvotum gegen den Bundeskanzler und bildete anschließend mit der CDU/CSU eine neue Bundesregierung unter Helmut Kohl. 1982–1990: Wirtschaftliche Neuorientierung und Wiedervereinigung. Am 1. Oktober 1982 wählte die FDP zusammen mit der CSU-Bundestagsfraktion den CDU-Parteivorsitzenden Helmut Kohl zum neuen Bundeskanzler (→ Wende (Bundesrepublik Deutschland)). Der Koalitionswechsel hatte heftige interne Auseinandersetzungen zur Folge, so verlor die FDP daraufhin über 20 Prozent ihrer 86.500 Mitglieder, was sich auch bei der Bundestagswahl 1983 (Rückfall von 10,6 Prozent auf 7,0 Prozent) niederschlug. Die Mitglieder liefen zumeist zur SPD, den Grünen und neu gegründeten Splitterparteien wie der linksliberalen Partei "Liberale Demokraten (LD)" über. Unter den austretenden Mitgliedern befand sich auch der damalige FDP-Generalsekretär und spätere EU-Kommissar Günter Verheugen. Beim Parteitag im November 1982 trat der schleswig-holsteinische Landesvorsitzende Uwe Ronneburger gegen Hans-Dietrich Genscher als Parteivorsitzender an. Ronneburger erhielt 186 der abgegebenen Stimmen – rund 40 Prozent – und unterlag damit nur knapp. Junge FDP-Mitglieder, die mit der Politik der damaligen FDP-Jugendorganisation Jungdemokraten nicht einverstanden waren, hatten schon 1980 die Jungen Liberalen (JuLis) gegründet. Eine Zeit lang existierten beide Jugendorganisationen nebeneinander, bis sich die JuLis infolge der Wende durchsetzten und zur neuen offiziellen Jugendorganisation der FDP wurden. Die Jungdemokraten trennten sich von der FDP und wurden ein parteiunabhängiger linker Jugendverband. In der Zeit der Wiedervereinigung verfolgte die FDP das Ziel eines Sonderwirtschaftsgebiets in der Ex-DDR, konnte sich jedoch gegen die CDU/CSU nicht durchsetzen, da diese eventuelle Stimmenverluste in den fünf neuen Bundesländern bei der Bundestagswahl 1990 verhindern wollte. Während der politischen Umbrüche 1989/1990 entstanden in der DDR neue liberale Parteien, wie die F.D.P. der DDR oder die Deutsche Forumpartei. Sie bildeten mit der LDPD, die zuvor als Blockpartei an der Seite der SED gewirkt hatte und mit Manfred Gerlach auch den letzten Staatsratsvorsitzenden der DDR stellte, den Bund Freier Demokraten (BFD). Innerhalb der FDP kam es in den folgenden Jahren zu erheblichen internen Diskussionen um den Umgang mit der ehemaligen Blockpartei. Schon vor der Wiedervereinigung Deutschlands vereinigte sich auf einem Vereinigungsparteitag vom 11.–12. August 1990 in Hannover die westdeutsche F.D.P. mit den Parteien des BFD und der ehemaligen Blockpartei NDPD zur ersten gesamtdeutschen Partei. Beide Blockparteien bescherten der FDP einen großen, wenn auch nur kurz anhaltenden, Mitgliederzuwachs. In der ersten gesamtdeutschen Bundestagswahl wurde die CDU/CSU/FDP-Koalition bestätigt, die FDP bekam 11,0 Prozent der gültigen Stimmen (79 Sitze) und errang (in Halle (Saale)) ihr erstes Direktmandat seit 1957. 1990–2001: Verluste auf Länderebene und Beginn der Oppositionszeit auf Bundesebene. Nach ihrem Erfolg bei der Bundestagswahl 1990 kehrte die FDP 1992 bei der Landtagswahl in Schleswig-Holstein in den Landtag zurück und war dadurch erstmals in allen 16 Landtagen gleichzeitig vertreten. Insbesondere in der zweiten Hälfte der neunziger Jahre hatte die FDP jedoch mit einer Reihe von Wahlniederlagen auf kommunaler und Landesebene zu kämpfen, die dazu führte, dass sie im Zeitraum von 1993 bis 1995 aus zwölf der 16 Landtage sowie aus dem Europaparlament herausfiel. Spöttisch wurde sie „Dame ohne Unterleib“ genannt. Im Zeitraum von der Berlinwahl am 22. Oktober 1995 bis zur NRW-Wahl im Jahr 2000 war sie lediglich in den Landtagen von Hessen, Rheinland-Pfalz, Baden-Württemberg und Schleswig-Holstein vertreten und nur noch an den Landesregierungen von Rheinland-Pfalz und Baden-Württemberg beteiligt. Diese Serie von Wahlniederlagen gipfelte am 27. September 1998, als sie bei der Bundestagswahl mit 6,2 Prozent der Stimmen auf ihr bis dahin zweitschlechtestes Bundestagswahlergebnis überhaupt kam und nach 29 Jahren permanenter Regierungsbeteiligung erstmals wieder in die Opposition musste. 1999 zog die Partei mit der Verlegung des Regierungssitzes vom Bonner in das Berliner Thomas-Dehler-Haus um. 2001–2009: Oppositionszeit unter dem Vorsitz von Guido Westerwelle. Im Jahr 2000 gelang der FDP die Rückkehr in den nordrhein-westfälischen Landtag. Als am 4. Mai 2001 auf einem Bundesparteitag der mehr als 18 Jahre jüngere Guido Westerwelle als Nachfolger von Wolfgang Gerhardt zum Parteivorsitzenden gewählt wurde, begann ein Generationswechsel in der FDP. Oft wurde der FDP vorgeworfen, eine reine Mehrheitsbeschafferin für andere Parteien zu sein. Im Bundestagswahlkampf 2002 trat die FDP mit dem „Projekt 18“ an. Sie wollte damit ihre Eigenständigkeit neben den beiden großen Volksparteien hervorheben. Mit einem unkonventionellen Wahlkampf wollte sie auch jüngere Wähler ansprechen. Im Verlauf des Wahlkampfs 2002 versuchte Jürgen Möllemann (1945–2003) mittels populistischer Äußerungen auf Stimmenfang zu gehen. Bei Meinungsumfragen vor den Wahlen erreichte die FDP 10 bis 13 Prozent. Der populistische Wahlkampf mit einem Auftritt des Parteivorsitzenden Guido Westerwelle in der Fernsehsendung Big Brother führte zu heftigen innerparteilichen Kontroversen, in deren Verlauf die „Grande Dame“ und Präsidentschaftskandidatin der Freien Demokraten Hildegard Hamm-Brücher ihre Partei nach mehr als fünfzigjähriger Mitgliedschaft verließ, da sie die Abgrenzung vor allem des Parteivorsitzenden Westerwelle von den Versuchen Möllemanns als unzureichend empfand. Die FDP wurde als Spaßpartei wahrgenommen. Mit einem Erststimmenergebnis von 5,8 Prozent und 7,4 Prozent bei den Zweitstimmen verbesserte die FDP ihre Wahlergebnisse gegenüber den vorangegangenen Bundestagswahlen, sie verfehlte jedoch ihr offiziell erklärtes Ziel von 18 Prozent der Stimmen deutlich, was unter anderem der Möllemann-Affäre zugeschrieben wurde. Im Bundestag wurde sie viertstärkste Kraft und lag damit entgegen allen Erwartungen hinter den Grünen. Möllemann selbst verlor immer mehr an Rückhalt in der FDP und kam mit seinem Austritt im März 2003 einem vom Parteivorstand beschlossenen Ausschluss aus der Partei zuvor. Bei der Europawahl im Juni 2004 errang die FDP mit 6,1 Prozent ihr bis dahin bestes Europawahlergebnis und zog mit der Spitzenkandidatin Silvana Koch-Mehrin nach zehn Jahren Abstinenz wieder in das Europäische Parlament ein. Sie stellte sieben Abgeordnete innerhalb der ALDE-Fraktion, der drittstärksten Kraft im Europäischen Parlament. Koch-Mehrin übernahm den Vorsitz der FDP-Delegation und auch den stellvertretenden Vorsitz der ALDE-Fraktion. Bei der vorgezogenen Bundestagswahl am 18. September 2005 erhielt die FDP 9,8 Prozent der Zweitstimmen und wurde somit erstmals seit 1990 drittstärkste Kraft im Deutschen Bundestag. Die FDP stellte in der Legislaturperiode die größte Oppositionsfraktion, nachdem sie eine rechnerisch mögliche Ampelkoalition mit SPD und Grünen grundsätzlich ausgeschlossen hatte und Sondierungsgespräche mit der Union und den Grünen über eine Jamaika-Koalition gescheitert waren. Der Parteivorsitzende Westerwelle übernahm von Wolfgang Gerhardt nun auch das Amt des Fraktionsvorsitzenden und wurde Oppositionsführer. Bei der Europawahl 2009 konnte die FDP ihr Ergebnis von 2004 fast verdoppeln und stellte mit ihrer Europawahl-Spitzenkandidatin Silvana Koch-Mehrin 12 Abgeordnete für das Europäische Parlament. In der Folge wurde Koch-Mehrin eine von insgesamt 14 Vizepräsidenten des Europäischen Parlamentes. Bei der Bundestagswahl 2009 erreichte die FDP erneut mit Guido Westerwelle als Spitzenkandidat mit 14,6 Prozent ihr bisher bestes Ergebnis bei Bundestagswahlen und erlangte 93 von 622 Sitzen im Deutschen Bundestag. Nach den Landtagswahlen 2009 war die FDP zudem in allen Länderparlamenten mit Ausnahme der Hamburgischen Bürgerschaft vertreten und an acht Landesregierungen beteiligt, und zwar in Baden-Württemberg (Kabinett Oettinger II), Bayern (Kabinett Seehofer I), Hessen (Kabinett Koch III), Niedersachsen (Kabinett Wulff II), Nordrhein-Westfalen (Kabinett Rüttgers), Sachsen (Kabinett Tillich II), Schleswig-Holstein (Kabinett Carstensen II) und im Saarland (Kabinett Müller III). 2009–2013: Schwarz-gelbe Koalition im Bund und Verluste in den Ländern. a>Koalitionsverhandlungen mit der CDU und der CSU führten am 26. Oktober 2009 zum Abschluss eines Koalitionsvertrags. Nach der Wiederwahl der Bundeskanzlerin Angela Merkel am 28. Oktober 2009 wurden mit dem Vizekanzler und Außenminister Guido Westerwelle, der Justizministerin Sabine Leutheusser-Schnarrenberger, dem ersten FDP-Gesundheitsminister Philipp Rösler, dem Wirtschaftsminister Rainer Brüderle und dem Entwicklungsminister Dirk Niebel fünf FDP-Bundesminister im Kabinett Merkel II vereidigt. Die FDP war damit mit einem so hohen Anteil im Bundeskabinett vertreten wie nie zuvor. Wenige Monate nach der Bundestagswahl 2009 verlor die Partei wieder an Rückhalt. Die Zustimmung sank von Rekordwerten im Ende September von knapp 15 % auf unter 10 % Anfang 2010. Vor der Regierungsübernahme mit der CDU 2009 glaubten viele, dass eine schwarz-gelbe Koalition gut zusammenpassen würde. Doch nach dem in Rekordzeit ausgehandelten Koalitionsvertrag wurde zwischen verschiedenen Flügeln von CDU, CSU und FDP bald über viele Themen kontrovers diskutiert, beispielsweise über Steuersenkungen, die Zukunft der Kernenergie, die Gesundheitsprämie bei der Krankenversicherung, den EU-Beitritt der Türkei und über Hartz IV. Bei der einzigen Landtagswahl des Jahres 2010, die in Nordrhein-Westfalen stattfand, blieb die FDP stabil, aufgrund der hohen Einbußen der CDU verlor die schwarz-gelbe Koalition im Land aber ihre Mehrheit und beide Parteien traten den Gang in die Opposition an. Nach der Bürgerschaftswahl in Hamburg am 20. Februar 2011 war die FDP wieder in allen 16 Landtagen vertreten. Bereits einen Monat später, nach der Landtagswahl in Sachsen-Anhalt, endete diese deutschlandweite Repräsentation in den Landesparlamenten wieder. Jedoch war die Partei zu diesem Zeitpunkt noch an sieben Landesregierungen beteiligt. Nachdem die FDP im März 2011 bei der Landtagswahl in Rheinland-Pfalz nicht mehr in den Landtag hatte einziehen können und bei der Landtagswahl in Baden-Württemberg durch eine grün-rote Mehrheit in die Opposition verdrängt worden war, gab Guido Westerwelle vor dem Bundesparteitag vom 13. bis zum 15. Mai 2011 bekannt, auf diesem nicht mehr für den Bundesparteivorsitz zu kandidieren. Philipp Rösler wurde auf diesem Parteitag zum Nachfolger von Westerwelle gewählt. Bereits zuvor übernahm Rösler im Zuge einer Kabinettsumbildung am 12. Mai 2011 das Amt des Bundesministers für Wirtschaft und Technologie und von Guido Westerwelle die Funktion des Vizekanzlers, während ihm Daniel Bahr als Bundesgesundheitsminister folgte. Der bisherige Bundeswirtschaftsminister Rainer Brüderle wurde am selben Tag zum Vorsitzenden der FDP-Bundestagsfraktion gewählt. Im Mai 2011 legte Silvana Koch-Mehrin ihr Amt als Vizepräsidentin des EU-Parlaments, ebenso wie sämtliche Parteiämter, wegen einer Plagiatsaffäre um ihre Doktorarbeit nieder. Ihr Mandat als Mitglied des Europäischen Parlaments übte Koch-Mehrin allerdings bis zum Ende der Wahlperiode 2014 aus. Neuer Vorsitzender der FDP-Delegation im EU-Parlament wurde Alexander Graf Lambsdorff. Ebenfalls im Mai 2011 scheiterte die FDP bei der Bürgerschaftswahl in Bremen 2011 mit 2,4 % der Stimmen an der Fünf-Prozent-Hürde. Im September 2011 verlor die FDP bei der Landtagswahl in Mecklenburg-Vorpommern 2011 stark an Stimmen und verfehlte mit 2,7 % der Stimmen den Einzug in das Parlament. Im gleichen Monat fand die Wahl zum Berliner Abgeordnetenhaus statt, bei der die FDP mit nur 1,8 % der Stimmen deutlich den Wiedereinzug verfehlte. Am 6. Januar 2012 kündigte Ministerpräsidentin Annegret Kramp-Karrenbauer die seit 2009 im Saarland bestehende Koalition aus CDU, FDP und Bündnis 90/Die Grünen vor Ablauf der Legislaturperiode auf. In Kramp-Karrenbauers Erklärung hieß es, dass die „seit Monaten anhaltenden Zerwürfnisse innerhalb der FDP Saar“ ausschlaggebend für die Aufkündigung seien. Bei der darauffolgenden Neuwahl des saarländischen Landtags erzielte die FDP nur 1,2 % der Stimmen, sodass sie auch aus diesem ausschied. Dies ist das schlechteste Ergebnis der FDP in einem westdeutschen Bundesland seit ihrer Gründung. Im Mai 2012 konnte die FDP hingegen bei den vorgezogenen Landtagswahlen in Schleswig-Holstein und in Nordrhein-Westfalen mit 8,2 % bzw. 8,6 % unerwartet starke Ergebnisse erzielen und damit ihre dortige Landtagsrepräsentanz für weitere fünf Jahre sichern. Allerdings übernahm in beiden Ländern eine SPD-geführte Regierung die Amtsgeschäfte, und die FDP ging in die Opposition. seit 2013: Ausscheiden aus dem Bundestag und Konsolidierung. Logo der FDP von 2001 bis 2014 Bei der Landtagswahl in Niedersachsen 2013 konnte die FDP um 1,7 Prozentpunkte auf 9,9 % zulegen, was dem Bundesvorsitzenden Philipp Rösler in seinem Heimatbundesland als Erfolg zugeschrieben wurde. Gleichzeitig verlor die schwarz-gelbe Koalition die Landtagsmehrheit an eine rot-grüne Koalition, so dass die FDP nach zehn Jahren aus der Landesregierung ausschied. Bei der eine Woche vor der Bundestagswahl stattfindenden Landtagswahl in Bayern 2013 verfehlte die FDP die 5%-Hürde, verlor damit ihre parlamentarische Repräsentanz und schied in der Folge auch aus der bayerischen Staatsregierung aus. Eine Woche danach wurden der Bundestag und der hessische Landtag gewählt. Während die FDP in Hessen mit 5,0 % ganz knapp die Sperrklausel überwand, scheiterte sie im Bund mit 4,8 % erstmals bei Bundestagswahlen und schied aus dem Parlament aus. In Hessen konnte die bis dahin bestehende schwarz-gelbe Koalition nicht fortgeführt werden. Danach war die FDP noch in neun Landtagen und lediglich in Sachsen auch in der Regierung vertreten. Als Konsequenz des Ausscheidens aus dem Bundestag trat der Parteivorstand der FDP, einschließlich des bisherigen Vorsitzenden Philipp Rösler, geschlossen zurück. Daraufhin wurde zwischen dem 6. und 8. Dezember 2013 ein außerordentlicher Parteitag einberufen, auf dem ein neues Präsidium gewählt und die Ursachen der Wahlniederlage analysiert wurden. Zum neuen Parteivorsitzenden wurde Christian Lindner gewählt. Er rief die Mitglieder dazu auf, von nun an die Partei „von der Basis ab“ neu aufzubauen. Außerdem kritisierte er die „Zweitstimmenkampagne“ und warnte vor einer Abkehr von der bisherigen Europapolitik. Auf dem Europaparteitag am 19. Januar 2014 in Bonn wurde Alexander Graf Lambsdorff zum Spitzenkandidaten für die Europawahl 2014 gewählt. Die FDP musste deutliche Verluste von 7,6 Prozentpunkten hinnehmen und erzielte mit 3,4 % ihr zweitschlechtestes Ergebnis bei einer Europawahl, entsendet aber aufgrund des Wegfalls der Sperrklausel drei Abgeordnete ins Europaparlament. mini Bei den Landtagswahlen in Sachsen, Thüringen und Brandenburg 2014 konnte die FDP in keinem der Länder die Fünf-Prozent-Hürde überwinden und war damit im Oktober 2014 nur noch in sechs Landtagen vertreten. Mit Abschluss der Regierungsbildung in Sachsen endete im November 2014 die bislang letzte Regierungsbeteiligung der FDP auf Landesebene. Damit ist die FDP erstmals in der Geschichte der Bundesrepublik an keiner Landesregierung beteiligt, womit sie auch über den Bundesrat keinen Einfluss auf die Bundespolitik mehr nehmen kann. Der Parteienforscher Oskar Niedermayer sieht die FDP seit dem verpassten Wiedereinzug in den Bundestag in einer „existenziellen Krise“, da es der Partei schwer falle, bundespolitisch noch wahrgenommen zu werden. Von vorwiegend ehemaligen Politikern der Hamburger FDP initiiert, erfolgte im September 2014 die Gründung der Partei Neue Liberale, die als linksliberale Alternative die FDP verdrängen will. Beim ersten Wahlantritt bei der Hamburger Bürgerschaftswahl im Februar 2015 blieb die neue Partei mit 0,5 Prozent der Stimmen allerdings Splitterpartei. Laut Bundesschatzmeister Hermann Otto Solms mussten die Ausgaben der Partei um rund 40 Prozent gesenkt werden, weil sie aus mehreren Parlamenten gewählt wurde und deshalb geringere Zuwendungen aus der staatlichen Parteienfinanzierung erhält. Bei der Bürgerschaftswahl in Hamburg am 15. Februar 2015 gelang es der FDP mit der Spitzenkandidatin Katja Suding, mit 7,4 Prozent der Stimmen wieder in die Bürgerschaft einzuziehen und damit ihr vorheriges Ergebnis um 0,7 % zu übertreffen. Auch bei der Bürgerschaftswahl in Bremen am 10. Mai 2015 schaffte es die FDP, mit 6,6 % das beste Ergebnis seit 20 Jahren einzufahren und mit ihrer Spitzenkandidatin Lencke Steiner wieder in der Bürgerschaft vertreten zu sein. Gegenüber der vorherigen Wahl gewann die FDP 4,4 Prozentpunkte hinzu und ist damit zurzeit in sieben Landtagen vertreten. Organisationsstruktur. Mitgliederentwicklung der FDP seit 1969 Die Freie Demokratische Partei hat die Rechtsform des eingetragenen Vereins. Sie ist in 16 Landesverbände gegliedert und hatte im Oktober 2014 insgesamt rund 56.000 Mitglieder. Allein auf die FDP Nordrhein-Westfalen entfallen hiervon rund 15.000 Mitglieder. Den höchsten Mitgliederstand wies die Partei 1981 mit rund 87.000 sowie 1990 (durch die Deutsche Wiedervereinigung) mit etwa 180.000 Mitgliedern auf. Die FDP ist Mitglied der Allianz der Liberalen und Demokraten für Europa (ALDE) und der Liberalen Internationalen. Im Europäischen Parlament gehört sie der Fraktion der Allianz der Liberalen und Demokraten für Europa (ALDE) an, in der sie mit drei Abgeordneten vertreten ist. Mit insgesamt 67 Sitzen stellt die ALDE-Fraktion 8,92 Prozent der Europaabgeordneten (Stand: September 2014). Bundesvorstand. Der aktuelle Vorstand wurde zuletzt auf dem ordentlichen Bundesparteitag vom 15. bis 17. Mai 2015 in Berlin gewählt. Dabei wurde Christian Lindner mit 92,4 % der Stimmen als Bundesvorsitzender wiedergewählt. Der Bundesvorstand der FDP hat mit Wirkung zum 1. Juni 2014 Marco Buschmann zum neuen Bundesgeschäftsführer berufen. Der bisherige Bundesgeschäftsführer Jörg Paschedag ist auf eigenen Wunsch in den Vorstand der Universum Kommunikation und Medien AG gewechselt. Landesverbände. In der folgenden Liste werden die Daten zu den einzelnen Landesverbänden angegeben. Die Mitglieder des "Internet-Landesverbandes (lv-net)" werden derzeit noch als bundesunmittelbare Mitglieder geführt, da eine formale Verankerung als 17. Landesverband noch nicht erfolgt ist. Im Saarland führt der FDP-Landesverband den Zusatz "Demokratische Partei Saar" (FDP/DPS). In Baden-Württemberg hat der Landesverband der FDP aus einer 60-jährigen Tradition heraus den Zusatz "Demokratische Volkspartei" (FDP/DVP). Im Ausland existieren Ortsverbände in Luxemburg, London, Brüssel und auf Mallorca. In Berlin gibt es keine Kreisverbände. Stattdessen wird die regionale Parteiarbeit von den Bezirksverbänden übernommen. Parteizeitung. Die Parteizeitung der FDP nennt sich "elde" (Liberale Depesche, Aussprache der Buchstaben L D). Sie erschien 2012 fünf Mal. Seit 2013 gibt es die elde auch im AppStore und bei Google Play sowie als ISSUU-Applikation. Archiv der FDP. Das Archivgut aller Organe und Gremien der FDP (insbesondere auf Bundes- und Landesebene), vieler liberaler Vorfeldorganisationen und zahlreicher liberaler Persönlichkeiten (u.a. Thomas Dehler, Wolfgang Mischnick, Hans-Dietrich Genscher) befindet sich im Archiv des Liberalismus der Friedrich-Naumann-Stiftung für die Freiheit in Gummersbach. Rechts- und Wirtschaftsliberalismus. Der Schaumburger Kreis vertritt "liberal-konservative" Wirtschaftsinteressen in der FDP. Bekannte Mitglieder sind Detlef Kleinert, Rainer Brüderle, Hermann Otto Solms, Patrick Döring, Martin Lindner und Stefan Ruppert. Linksliberalismus/Sozialliberalismus. Der Freiburger Kreis tritt in der Tradition der Freiburger Thesen für einen "ganzheitlichen" Liberalismus ein. Bekannte Mitglieder sind Gerhart Baum, Burkhard Hirsch, Carola von Braun und Sabine Leutheusser-Schnarrenberger. Der nach dem Soziologen Ralf Dahrendorf benannte Dahrendorf-Kreis vertritt "linksliberale" Positionen und tritt für eine thematische Erweiterung der FDP bzw. für eine Kommunikation eines breiten thematischen Spektrums über wirtschaftsliberale Themen hinaus ein. Zu seinen Anhängern gehören die ehemaligen Abgeordneten des europäischen Parlaments Nadja Hirsch, Jorgo Chatzimarkakis und Alexander Alvaro sowie die ehemaligen Bundestagsabgeordneten Miriam Gruß und Sebastian Körber. Klassischer Liberalismus. Der "Liberale Aufbruch" bezeichnet sich selbst als Vertreter "klassisch-liberaler" Denkansätze. Er tritt für die Einhaltung liberaler Ordnungspolitik ein und sieht diese im aktuellen Regierungshandeln verletzt. Anhänger sind unter anderem der ehemalige Bundestagsabgeordnete Frank Schäffler, der ehemalige Europaabgeordnete Holger Krahmer sowie Carlos A. Gebauer. Unternehmensbeteiligungen und Grundstücke. Die FDP hält Firmenbeteiligungen im Wert von rund vier Millionen Euro. Das Haus- und Grundvermögen der Partei wird mit 2,8 Millionen Euro bewertet. Geldflüsse und Reinvermögen. Die FDP verfügte 2012 über Einnahmen von 34.092.303,45 Euro, davon wurden knapp 6 Millionen Euro durch Spenden, etwa 14 Millionen Euro durch staatliche Mittel, etwa 9,7 Millionen Euro durch Mitgliedsbeiträge und Mandatsträgerbeiträge erlangt. 4,8 Prozent der Parteieinnahmen stammt von Unternehmen und anderen juristischen Personen. 2012 erhielt die FDP Spenden in Höhe von 5.864.210 Euro (Spenden von natürlichen Personen: 4.228.142 Euro / Spenden von juristischen Personen: 1.636.068 Euro). Den Verbindlichkeiten von 26,5 Millionen Euro stehen Forderungen von 37,2 Millionen Euro gegenüber, sodass die Gesamtpartei ein Reinvermögen in Höhe von 10.796.978,30 Euro besitzt. Insgesamt konnte die FDP im Jahr 2012 einen Überschuss von 5.335.518,21 Euro verbuchen, nach einem Defizit von 414.614,25 Euro im Jahr 2011. Spende der Substantia AG. Die FDP erhielt in den Jahren 2008 und 2009 vier Spenden der Substantia AG in einer Gesamthöhe von 1,1 Millionen Euro, die sie entsprechend der Vorschriften zur Parteienfinanzierung jeweils innerhalb einer Woche bei der Bundestagsverwaltung anzeigte. Die Substantia AG gehört der Familie Finck, die auch Mehrheitseigner der Mövenpick-Gruppe ist, die in Deutschland neun Hotels betreibt. Diese Spenden wurden von verschiedenen Seiten kritisiert, die einen Zusammenhang zwischen den Spenden und der auf Betreiben der CSU und FDP durchgeführten Senkung der Mehrwertsteuer für das Beherbergungsgewerbe durch das so genannte Wachstumsbeschleunigungsgesetz Anfang 2010 sahen. Die FDP wurde infolgedessen teils spöttisch als „Mövenpick-Partei“ bezeichnet. Spenden unter Möllemann. Anfang Juli 2009 erließ der Präsident des Deutschen Bundestages gegenüber der FDP einen Sanktionsbescheid, nach dem die FDP insgesamt 4.336.648,79 Euro an den Bundestag zahlen muss. In einem mehrjährigen Verfahren war nach Auffassung des Bundestagspräsidenten festgestellt worden, dass unter dem ehemaligen nordrhein-westfälischen Landesvorsitzenden Jürgen W. Möllemann gegen Parteiengesetz verstoßen worden sei, indem die Herkunft von Spenden im Umfang von etwa 785.000 Euro durch Stückelungen und falsche Angaben der Spendernamen verschleiert worden sei. Die wahre Herkunft der Spenden konnte nicht geklärt werden. Weitere Spenden im Wert von mehr als einer halben Million Euro in Gestalt von Wahlkampfmaßnahmen wie zum Beispiel Plakat- und Anzeigenaktionen seien unter Verstoß gegen Parteiengesetz nicht ordnungsgemäß im Rechenschaftsbericht der Partei veröffentlicht worden. Die FDP erhob gegen den Sanktionsbescheid Widerspruch. Sie bewertet die Vorgänge nicht als Verstöße gegen das Parteiengesetz. Außerdem sieht sie sich strenger als andere Parteien behandelt. Im Dezember 2009 wies das Verwaltungsgericht Berlin die Klage gegen den Strafbescheid des Bundestages zurück und verurteilte die Partei zur Zahlung einer Strafe in Höhe von 3,46 Millionen Euro. Das Urteil ist jedoch noch nicht rechtskräftig. Nebenorganisationen. Die Jungen Liberalen erhielten 2010 öffentliche Zuschüsse von insgesamt 483.515,11 Euro. Die Bundes- und Landesstiftungen der FDP erhielten 2007 zusammen Zuwendungen von rund 25 Millionen Euro. Bundestagswahlergebnisse seit 1949. FDP-Ergebnisse der Bundestagswahlen (1949 bis 2013) FDP-Ergebnisse in den Wahlkreisen 2009 Mandatsträger. 1 nur Kreistage und kreisfreie Städte Bundespräsidenten mit Parteimitgliedschaft in der FDP. Theodor Heuss hatte von 12. September 1949 bis 12. September 1959 das Präsidentenamt inne und war gleichzeitig der erste Bundespräsident. Walter Scheel war vom 1. Juli 1974 bis 30. Juni 1979 Bundespräsident. Während der Präsidentschaft ruhte ihre Mitgliedschaft in der FDP. Stellvertreter des Bundeskanzlers. Die nachfolgenden Politiker waren als Stellvertreter des Bundeskanzlers Mitglied der FDP. 1) Blücher trat im Februar 1956 aus der FDP aus2) Scheel übernahm zudem von 7. Mai 1974 bis 16. Mai 1974 geschäftsführend die Aufgaben des Bundeskanzlers (Willy Brandt war anlässlich der Guillaume-Affäre zurückgetreten) Feng Shui. Fēng Shuǐ () ist eine daoistische Harmonielehre aus China. Ziel des Fēng Shuǐ ist die Harmonisierung des Menschen mit seiner Umgebung, die durch eine besondere Gestaltung der Wohn- und Lebensräume erreicht werden soll. Der ältere Begriff für Feng Shui ist "Kan Yu", eine Kurzform für den Begriff „den Himmel und die Erde beobachten“. Nach der traditionellen Vorstellung sollen mit Feng Shui „die Geister der Luft und des Wassers geneigt gemacht“ werden können. Anwendungsgebiete. Eines der traditionellen Anwendungsgebiete des Feng Shui in China ist die Planung von Grabstätten (Ahnenkult). Daneben hat Feng Shui auch die chinesische Gartenkunst maßgeblich geprägt. Die Prinzipien des Feng Shui können auch bei Zimmereinrichtungen, Hausarchitektur, Landschaftsgestaltung und städtebaulicher Planung berücksichtigt werden. Die Raumgestaltung und Baugestaltung erfolgt nach verschiedenen Regeln, die sicherstellen sollen, dass sich sogenannte „verstockte Energien“ nicht in diesen Räumen festsetzen können und das Qi (andere Umschrift: "Chi") frei fließen kann. Feng Shui basiert auf chinesischen Philosophiesystemen, wie der Yin-und-Yang-Lehre, den nach den Himmelsrichtungen ausgerichteten Acht Trigrammen sowie der Fünf-Elemente-Lehre. Seit einigen Jahren erfahren die Lehren des Feng Shui auch zunehmendes Interesse in der westlichen Architektur und Innenarchitektur - es ist auch ein Verschmelzen westlicher Ideen der Esoterik mit Feng Shui zu beobachten. Grundlagen. Der Begriff „Feng Shui“ ist eine Abkürzung für einen Satz aus dem Buch der Riten von Guo Po (ca. 300 n. Chr.): „Qi wird vom Wind zerstreut und stoppt an der Grenze des Wassers.“ Die Begriffe Wind/Wasser werden seither für die Kunst verwendet, mit der das Qi vor dem Wind geschützt und mit Wasser beeinflusst wird. Die Lehre des Qi bildet die Grundlage zur Erschließung des Feng-Shui. Qi ist im Daoismus die unsichtbare Lebensenergie, die überall um uns, in jedem Wesen und jeder Zelle fließt und alles belebt und gestaltet. Gemäß der Lehren des Feng Shui kann Qi nun durch planmäßigen Eingriff in die Architektur akkumuliert und geleitet werden. Die Aufgabe eines Feng Shui-Beraters ist es demnach, die Bewegung des Qi in der Umgebung und im Haus zu erkennen, zu harmonisieren und zu steigern. Eine hohe Ansammlung von günstigem Qi könne zu positiven Ergebnissen bei Gesundheit, Harmonie und Erfolg des Menschen führen. Die Lehre von Yin und Yang: Yang ist das Qi von Bergen und Straßen, Yin das Qi von Ruhe und Wasser. Die aus dem Daoismus stammende Lehre fördere das Gleichgewicht zwischen allen Gegensätzlichkeiten. Im New Age Feng Shui wird die Lehre von Yin und Yang allein auf die Wohnung angewandt, wie zum Beispiel die Yang-Bereiche, also die aktiven Bereiche wie Arbeits- und Wohnzimmer, und die Yin-Bereiche, die Ruhebereiche, wie das Schlafzimmer und den Meditationsraum. Jeder Bereich werde auf seine Funktionalität abgestimmt und die Anordnung der Räume harmonisch gestaltet. Die Lehre der Fünf Elemente: Die Energie wird nicht nur auf zwei, sondern auf fünf Ebenen, nämlich Erde, Metall, Wasser, Holz und Feuer analysiert und ausgeglichen. Dabei gilt Feuer als großes, Holz als kleines Yang, Metall als kleines, Wasser als großes Yin, und die Erde als "neutral". Hier sei das Wissen um die Auswirkung von Farbe, Form, Maßen und Klang auf den Menschen sehr wichtig. Der Ausgleich des Ortes könne durch die Anordnung und das Anbringen von Objekten, Farben oder Abhilfen durchgeführt werden. Das Luan Tou, die Landschaftsschule, ist die älteste Schule im Feng Shui und im Westen noch weitgehend unbekannt. Es wird die Positionierung des Hauses in Bezug auf die Landschaftsformation bewertet. Die Kompasslehre (Li Qi Pai): Der Luo Pan, der Geomanten-Kompass, symbolisiert durch seine Form (ein Kreis in einem Quadrat) die Verbindung von Himmel und Erde. Nach der Lehre manifestiert sich der Einfluss der Sterne in bestimmten Formationen der Natur. Durch die Messung der Himmelsrichtung lässt sich die energetische Qualität des zu untersuchenden Hauses feststellen. Die Lehre der Fliegenden Sterne (auch "Flying Stars" genannt) ist ein Teil des "Li Qi Pai". Sie analysiert die Einflüsse von neun „Sternen“ und deren zeitlichen Einflüssen in Bezug auf die Landschaft, das Haus oder die Wohnung auf den Menschen. Die neun „Sterne“ entsprechen in Charakteristik und Eigenschaften den Acht Trigrammen, auf denen das I Ging basiert, plus eines weiteren „Sterns“, der die Mitte symbolisiert. Durch den zeitlichen Wechsel ändert sich auch die optimale Positionierung von Yin und Yang in der Umgebung eines Hauses. Dadurch gibt es günstige und ungünstige Einflüsse, denen durch die richtige Nutzung der Räume im Haus Rechnung getragen werden kann. Klassisches Feng-Shui. Die älteste Schule im klassischen Feng Shui ist "Luan Tou", im Westen „Formenschule“ genannt. In ihr geht es um die optimale Auswahl eines Bauplatzes, der durch die natürliche Landschaftsformation geschützt ist. Luan Tou wurde sowohl für Wohnhäuser als auch für Grabstätten angewendet, wobei in der chinesischen Geschichte mal die eine, mal die andere Anwendung zeitlich dominierte. "Li Qi Pai", die „Formelschule“, arbeitet mit den Himmelsrichtungen, die am Haus mit dem Lo Pan, einem Kompass, gepeilt und auf den Hausgrundriss übertragen werden, sowie den zeitlichen Einflüssen. Die beiden populärsten Richtungen dieser Schule, die „Fliegende-Sterne-Methode“ und die „Acht-Häuser-Methode“, können beide auf lange Traditionen zurückblicken. Die „Geheimnisse“ der Fliegende-Sterne-Methode wurden Anfang des 20. Jahrhunderts erstmals in einem Buch der chinesischen Öffentlichkeit präsentiert, nachdem sie bereits jahrhundertelang in Gebrauch gewesen waren. Traditionell wird Feng Shui als Philosophie betrachtet, die sowohl künstlerische als auch wissenschaftsähnliche und administrative Elemente in sich vereint. Die heutige Trennung von Kunst und Wissenschaft bereitet demnach Schwierigkeiten im Verständnis des philosophischen Hintergrundes. Der universelle Ansatz stellt dabei den Menschen selbst in den Mittelpunkt und vermeidet jede Abstraktion des Gegenstands. So gab es bis ins 19. Jahrhundert keine schriftlich fixierten Anweisungen, sondern nur Erfahrungsregeln, die individuell weitergegeben und angewandt wurden. Auf diese Art diente die Weitergabe auch als Machtinstrument der kaiserlichen Elite. Im klassischen Feng Shui werden als Hilfsmittel zur Harmonisierung von Räumen nur sehr wenige Objekte verwendet wie beispielsweise Amulette, Landschaftsbilder und Kalebassen. Feng Shui wurde in China nach der kommunistischen Revolution von Mao Zedong verboten. Viele Feng Shui-Schriften wurden vernichtet, und die Praktizierenden wurden gezwungen, von der Lehre abzulassen. Durch die Repressionen im chinesischen Stammland wurden viele Meister der Feng Shui-Disziplinen zur Emigration gezwungen. Nach dem Verbot und der Vertreibung aus dem kommunistischen China hat sich das klassische Feng Shui je nach Ursprung anders weiterentwickelt. Das Feng Shui aus Hongkong unterscheidet sich vom Feng Shui aus Malaysia oder Taiwan. Es lässt sich dort aber eine verstärkte Hinwendung zu den chinesischen Klassikern feststellen. In der Volksrepublik China, Taiwan und Hongkong werden Neubauten (z. T. auch aufwendige Bauprojekte wie Hochbauten) manchmal nach den Regeln des klassischen Feng Shui errichtet. Westliches Feng Shui oder Neo-Feng-Shui. Im Westen ist durch die Vermischung einiger traditioneller chinesischer Feng Shui-Grundideen mit Vorstellungen der New Age- und Esoterik-Bewegung ein neues System entstanden, das Feng Shui vorwiegend als Methode zur Harmonisierung von Wohnräumen anwendet. Die in China übliche Praxis, Feng Shui bereits bei der Planung von Bauobjekten zu berücksichtigen, findet im Westen nur vereinzelt Anwendung. Das im Westen praktizierte Neo-Feng-Shui-System hat seinen Ursprung bei der von Lin Yun 1986 in Kalifornien gegründeten „Church of Black (Hat) Sect Tantric Buddhism“. Einbezogen werden z. B. Theorien von Farbgestaltung und dem energetischen Einfluss von Kristallen und Düften. Unter Verwendung von zahlreichen Hilfsmitteln wie Windspielen, Kristallen, Zimmerbrunnen, Goldsteinen, farbigen Stoffen oder Wasserpostern soll der Fluss der Lebensenergie Qi in Wohnräumen regulierbar sein. Das Neo-Feng-Shui oder New-Age-Feng-Shui ignoriert die Himmelsrichtungen und richtet Maßnahmen nach dem Hauseingang oder der Wohnungstür aus, während klassisches Feng Shui in China versucht, bereits bei den Baumaßnahmen Einfluss auszuüben. Eine der beliebtesten Methoden im Neo-Feng-Shui, das sogenannte Drei-Türen-Bagua, lässt sich nur sehr ansatzweise auf klassische Quellen zurückführen: Im Shuo Gua, einem der Zehn Flügel des I Ging, finden sich Beschreibungen der acht Trigramme, die sich mit viel Fantasie zu den von Neo-Feng-Shui-Praktizierenden verwendeten Bedeutungen umdeuten lassen. Im Shuo Gua wird jedoch jedem Trigramm eine Himmelsrichtung fest zugeordnet, diese Richtungszuordnung wurde von Lin Yun jedoch fallen gelassen. Die klassische Lehre des Feng Shui vermeidet jede universelle Fassung der "Bedeutung". Dies gilt sowohl für die Elemente als auch für die „Wirkungsweisen“. Im modernen Kontext der Anwendung im Westen wird vereinzelt eine modellhafte Darstellung von Qi ähnlich einer naturwissenschaftlichen Modellbildung diskutiert. Gegenpositionen. Der Theologe Rüdiger Hauth und ehemalige Beauftragte für Sekten und Weltanschauungsfragen der westfälischen Landeskirche stellt fest, dass Feng Shui nicht naturwissenschaftlich begründet ist; außerdem basiere es auf einem Glauben, der mit dem christlichen nicht vereinbar sei. Eine Organisation der Skeptikerbewegung bemängelt außerdem, dass Feng Shui in Dienstleistungsangeboten häufig in Zusammenhang mit anderen nicht naturwissenschaftlichen Konzepten wie Elektrosmog, Radiästhesie oder Erdstrahlung gebracht wird. Flugzeug. Ein Flugzeug ist ein Luftfahrzeug, das schwerer als Luft ist und den zum Fliegen nötigen dynamischen Auftrieb mit nicht-rotierenden Auftriebsflächen erzeugt. Der Betrieb von Flugzeugen, die am Luftverkehr teilnehmen, wird durch Luftverkehrsgesetze geregelt. Definition. Im rechtlichen Sprachgebrauch ist ein "Flugzeug" ein "motorgetriebenes Luftfahrzeug, schwerer als (die von ihm verdrängte) Luft, das seinen Auftrieb durch Tragflächen erhält, die bei gleichbleibenden Flugbedingungen unverändert bleiben," allgemeinsprachlich "Motorflugzeug" genannt. Wenn in einem Gesetzestext also von "Flugzeugen" die Rede ist, dann sind immer nur Motorflugzeuge gemeint, nicht aber Segelflugzeuge, Motorsegler und Ultraleichtflugzeuge. Letztere sind in Deutschland eine Unterklasse der Luftsportgeräte. Manche Autoren verwenden eine weiter gefasste Definition, nach der auch die Drehflügler eine Untergruppe der Flugzeuge darstellen. Die eigentlichen Flugzeuge werden dann zur besseren Abgrenzung als "Starrflügler", "Starrflügelflugzeug" oder "Flächenflugzeug" bezeichnet. Diese Einordnung widerspricht aber sowohl der rechtlichen Definition als auch dem allgemeinen Sprachgebrauch und kann damit als veraltet betrachtet werden. Die in diesem Artikel verwendete Definition richtet sich nach der umgangssprachlichen Bedeutung des Begriffes "Flugzeug", die sämtliche Luftfahrzeuge umfasst, die einen Rumpf mit festen Tragflächen besitzen. Abgrenzung zu anderen Luftfahrzeugen. Bei klassischen Flugzeugen wird der Auftrieb – bei der Vorwärtsbewegung des Luftfahrzeugs – durch die Luftströmung an den Tragflächen erzeugt. Dabei bildet sich über der Tragfläche durch den Verdrängungsimpuls des Flügels ein Wirbelansatz, der über der Tragfläche einen Unterdruck verursacht und damit einen Auftrieb erzeugt. Die Flügel können aber auch flexibel am Flugzeugrumpf fixiert sein. So werden teils horizontal verstellbare Schwenkflügel mit variabler Pfeilung eingesetzt, die der Fluggeschwindigkeit angepasst werden, z. B. beim Kampfflugzeug Tornado. Im weiteren Sinn benutzen das Starrflügelprinzip auch Luftfahrzeuge mit vollkommen flexiblen Tragflächen, wie Gleit- und Motorschirme, sowie mit zerlegbaren Tragflächen wie bei Hängegleitern. Schwingenflugzeuge. Bei Ornithoptern, auch "Schwingenflugzeug" genannt, bewegen sich die Tragflächen wie Vogelflügel auf und ab, um Auftrieb und Vortrieb zu erzeugen. Sie werden daher teils auch "Flatterflügel" genannt. Besonders in der Frühzeit der Luftfahrt wurde versucht, Schwingenflugzeuge nach dem Vorbild der Natur zu bauen. Es ist nicht bekannt, dass personentragende Flugzeuge dieses Typs bisher geflogen sind, es gibt aber funktionsfähige, ferngesteuerte Modell-Ornithopter und Kleinstdrohnen, so z. B. das DelFly der TU Delft. Rotorflugzeuge. Ein Rotorflugzeug besitzt als Tragorgane Flettner-Rotoren, die den Magnus-Effekt nutzen. Rotorflugzeuge sind selbst im Modellbau nur selten anzutreffen und haben bisher keine praktische Bedeutung. Sie dürfen nicht mit Drehflüglern verwechselt werden. Drehflügler. Bei Drehflüglern ("Hubschrauber", "Helikopter") sind die Tragflächen in Form eines horizontalen Rotors aufgebaut. Die Luftströmung über den Rotorblättern ergibt sich aus der Kombination der Drehbewegung des Rotors und der anströmenden Luft aus Eigenbewegung und Wind. Einige Drehflügler, wie zum Beispiel die Verbundhubschrauber oder Kombinationsflugschrauber, besitzen jedoch neben ihrem Hauptrotor auch mehr oder weniger lange, feste Tragflächen, die für zusätzlichen Auftrieb sorgen. Ein Zwischending zwischen Starrflügelflugzeugen und Drehflüglern sind die Wandelflugzeuge, die im Flug die Flugmodi (Flugzustände) wechseln können. Raketen. Anders als das Flugzeug fliegt die Rakete ballistisch, auch wenn sie aerodynamische Steuerflächen haben kann. Diese dienen aber nicht dem Auftrieb, sondern nur der Stabilisierung und Steuerung. Ein Sonderfall ist der Raumgleiter, der meist im ballistischen Flug startet und im aerodynamischen Flug landet. Er kann als Flugzeug angesehen werden. Bodeneffektfahrzeuge. Bodeneffektfahrzeuge fliegen mit Hilfe von Tragflächen knapp über der Erdoberfläche und ähneln damit tief fliegenden Flugzeugen. Sie sind jedoch in der Regel nicht in der Lage, über den Einflussbereich des Bodeneffektes hinaus zu steigen, und gelten daher – ähnlich wie Luftkissenfahrzeuge – nicht als Luftfahrzeuge. Genereller Aufbau. Traditionell wird ein Flugzeug in drei Hauptgruppen (Konstruktionshauptgruppen) unterteilt: Flugwerk, Triebwerksanlage und Ausrüstung. Flugwerk. Das Flugwerk besteht aus dem Rumpfwerk, dem Tragwerk, dem Leitwerk, dem Steuerwerk und dem Fahrwerk bei Landflugzeugen bzw. den Auftriebskörpern (Schwimmern) bei Wasserflugzeugen. Bei Senkrechtstartern und Segelflugzeugen älterer Bauart kann anstelle von Fahrwerk oder Schwimmern ein Kufenlandegestell vorhanden sein. In vielen, meist älteren Veröffentlichungen wird statt Flugwerk der Begriff Flugzeugzelle oder einfach Zelle verwendet. Rumpfwerk. Der Flugzeugrumpf ist das zentrale Konstruktionselement der meisten Flugzeuge. An ihm ist das Tragwerk angebracht, er beherbergt neben den Piloten auch einen Großteil der Betriebsausrüstung. Bei einem Passagierflugzeug nimmt der Rumpf die Passagiere auf. Oft ist auch das Fahrwerk ganz oder teilweise am Rumpf. Die Triebwerke können in den Rumpf integriert werden. Bei Flugbooten bildet der Rumpf den Haupt-Auftriebskörper. Man unterscheidet verschiedene Rumpfformen. Heute sind runde Rumpfquerschnitte die Regel, wenn die Maschine eine Druckkabine besitzt. Frachtmaschinen besitzen oft einen rechteckigen Rumpfquerschnitt, um das Beladevolumen zu optimieren. Die meisten Flugzeuge besitzen nur einen Rumpf, daneben gibt es auch Maschinen mit Doppelrumpf und Nurflügelflugzeuge. Tragwerk. Das Tragwerk besteht aus Flügel, Vorflügel und Landeklappen. Leitwerk. Das Leitwerk besteht aus dem Höhenleitwerk mit den Höhenrudern und den zugehörigen Trimmrudern, dem Seitenleitwerk mit dem Seitenruder und dem Trimmruder dafür und den Querrudern. Zudem ist die Hauptaufgabe des Leitwerks, die gegebene Fluglage und Richtung zu stabilisieren, ferner die Steuerung um alle drei Achsen des Flugzeuges. Steuerwerk. Das Steuerwerk oder die Steuerung besteht beim Starrflügelflugzeug aus dem Steuerknüppel oder der Steuersäule mit Steuerhorn oder Handrad und den Seitensteuerpedalen, mit denen die Steuerbefehle gegeben werden. Für die Übertragung der Steuerkräfte bzw. -signale können Gestänge, Seilzüge, Hydraulik, elektrische (Fly-by-wire) oder optische (Fly-by-light) Signale eingesetzt werden. Die Steuersäule wird bei einigen modernen Flugzeugen durch den Sidestick ersetzt. Fahrwerk. Das Fahrwerk ermöglicht einem Flugzeug sich am Boden zu bewegen, die erforderliche Abhebegeschwindigkeit zu erreichen, die Landestöße zu absorbieren und Stöße z. B. durch Bodenwellen zu dämpfen. Fahrwerke werden eingeteilt in ein starres und halbstarres Fahrwerk, das auch während des Fluges unverändert seine Position beibehält, wobei das halbstarre Fahrwerk teilweise eingezogen wird (z. B. nur das Bugfahrwerk), und einem Einziehfahrwerk, das vor und nach dem Start oder der Landung eingezogen und gegebenenfalls durch Fahrwerksklappen abgedeckt werden kann. Einziehfahrwerke sind bei Flugzeugen mit hoher Endgeschwindigkeit unerlässlich. Als Fahrwerksform kommt das Bugradfahrwerk zum Einsatz, bei dem ein kleines Rad unter dem Flugzeugvorderteil angebracht ist und das Hauptfahrwerk hinter dem Flugzeugschwerpunkt liegt. Dies ermöglicht während des Rollens am Boden gute Sicht für den Piloten. Das ehemals weit verbreitete Heck- oder Spornfahrwerk mit einem kleinen Rad oder einem Schleifsporn am Heck kommt heute nur noch selten zum Einsatz. Eine Besonderheit ist das Tandemfahrwerk, bei dem die die Hauptlast tragenden Fahrwerksteile vorne und hinten am Rumpf gleich groß sind und das Flugzeug durch Stützräder am Tragwerk stabilisiert wird. Triebwerk. Das Triebwerk eines Flugzeuges umfasst einen oder mehrere Motoren (i. a. von gleicher Bauart) mit Zubehör. Die häufigsten Bauweisen sind: Hubkolbenmotor (Flugmotor) oder eine Gasturbine (Wellenleistungstriebwerk) mit Propeller (Turboprop), Strahltriebwerke wie der Turbofan. Selten/experimentell sind Staustrahltriebwerk, Raketentriebwerk oder Elektromotor. Zum Zubehör gehören das Kraftstoffsystem und -leitungen, ggf. eine Schmieranlage, die Motorkühlung, Triebwerksträger und Triebwerksverkleidung. Außerhalb der Kampffliegerei sind die Strahltriebwerke aus Wartungsgründen mittlerweile nicht mehr in Flügel oder Rumpf integriert, eine Ausnahme bildet die Nimrod MRA4. Als Treibstoff wird meist Kerosin, AvGas oder MoGas verwendet. Betriebsausrüstung. Die Betriebsausrüstung eines Flugzeuges umfasst alle bordseitigen Komponenten eines Flugzeuges, die nicht zu Flugwerk und Triebwerk gehören und die zur sicheren Durchführung eines Fluges erforderlich sind. Sie besteht aus den Komponenten zur Überwachung von Fluglage, Flug- und Triebwerkszustand, zur Navigation, zur Kommunikation, aus Versorgungssystemen, Warnsystemen, Sicherheitsausrüstung und gegebenenfalls Sonderausrüstung. Der elektronische Teil der Betriebsausrüstung wird auch Avionik genannt. Viele Fachautoren zählen inzwischen das Steuerwerk oder die Steuerung nicht mehr zum Flugwerk, sondern zur Betriebsausrüstung, da bei modernen Flugzeugen die Steuerung von den Sensoren der Betriebsausrüstung und von Bordrechnern wesentlich beeinflusst wird. Bauweisen. Werkstoffe für Flugzeuge sollten eine möglichst große Festigkeit (s. a. Spezifische Festigkeit) gegenüber statischen und dynamischen Beanspruchungen besitzen, damit das Gewicht des Flugzeuges möglichst klein gehalten werden kann. Grundsätzlich eignen sich insbesondere Stähle, Leichtmetalllegierungen, Holz, Gewebe und Kunststoffe für den Flugzeugbau. Während Holz bis zu mittleren Größen sinnvoll angewendet worden ist, wird heute im Flugzeugbau allgemein die Ganzmetall- und Gemischtbauweise bevorzugt, bei der verschiedene Materialien so kombiniert werden, dass sich ihre jeweiligen Vorteile optimal ergänzen. Strukturen an Flugzeugen lassen sich durch verschiedene Bauweisen realisieren. Es kann zwischen vier Bauweisen unterschieden werden, der Holzbauweise, Gemischtbauweise, Metallbauweise und FVK-Bauweise. Holzbauweise. Bei der Holzbauweise wird für den Rumpf ein Gerüst aus hölzernen "Längsgurten" und "Spanten" geleimt, das anschließend mit dünnem Sperrholz beplankt wird. Die Tragfläche besteht aus einem oder zwei Holmen, an die im rechten Winkel vorne und hinten die sog. "Rippen" angeleimt sind. Die Rippen geben dem Flügel die richtige Form. Vor dem Holm ist der Flügel mit dünnen Sperrholz beplankt, diese Beplankung wird "Torsionsnase" genannt. Sie verhindert, dass sich der Flügel beim Flug parallel zum Holm verdreht. Hinter dem Holm ist der Flügel mit einem Stoff aus Baumwolle oder speziellem Kunststoff bespannt. Dieser Stoff wird auf dem Holm oder der Torsionsnase und an der Endleiste, die die Rippen an der Flügelhinterkante verbindet, festgeklebt und mit Spannlack bestrichen. Spannlack zieht sich beim Trocknen zusammen und sorgt so dafür, dass die Bespannung straff ist. Bei Motorflugzeugen muss der Stoff zusätzlich noch an den Rippen festgenäht werden. Modernere Bespannstoffe aus Kunststoff ziehen sich beim Erwärmen zusammen, sie werden zum Spannen gebügelt. In die oberen Spannlackschichten wird bei Motorflugzeugen Aluminiumpulver als UV-Schutz eingemischt. Beispiele für solche Flugzeuge sind z. B. die Schleicher Ka 2 oder die Messerschmitt M17. Die reine Holzbauweise ist inzwischen veraltet. Metallbauweise. Die Metallbauweise ist bei Motorflugzeugen die gängigste Bauweise. Der Rumpf besteht aus einem verschweißten oder vernieteten Metallgerüst, das außen mit Blech beplankt ist. Die Tragflächen bestehen aus einem, bei großen Flugzeugen auch mehreren, Holmen, an die die Rippen angenietet oder angeschraubt sind. Die Beplankung besteht wie beim Rumpf aus dünnem Blech. Eines der bekanntesten Motorflugzeuge in Metallbauweise ist die Cessna 172, aber es gibt auch Segelflugzeuge aus Metall, wie den LET L-13 Blaník. Gemischtbauweise. Die Gemischtbauweise ist eine Mischung aus Holz- und Metallbauweise. Üblicherweise besteht hierbei der Rumpf aus einem geschweißten Metallgerüst, das mit Stoff bespannt ist, während die Flügel wie in der Holzbauweise gebaut sind. Es gibt allerdings auch Flugzeuge, deren Tragflächen ebenfalls aus einem bespannten Metallgerüst bestehen. Der Grundaufbau aus Holmen und Rippen unterscheidet sich aber nur durch die verwendeten Materialien von der Holzbauweise. Die Schleicher K 8 ist ein Flugzeug mit einem Rumpf aus Metallgerüst und hölzernen Tragflächen, bei der Piper PA-18 bestehen die Tragflächen aus einem Aluminiumgerüst. a> einer Schleicher ASK 21. Das FVK ist angeschliffen, die einzelnen Glasfaser-Gewebelagen sind gut erkennbar. Kunststoffbauweise. Die Metallbauweise wird seit einigen Jahren zunehmend durch die Faser-Verbund-Kunststoff-Bauweise (kurz: FVK-Bauweise) verdrängt. Das Flugzeug besteht aus Matten, meistens Gewebe aus Glas-, Aramid-, oder Kohlenstofffasern, die in Formen gelegt, mit Kunstharz getränkt und anschließend durch Erhitzen ausgehärtet werden. An den Stellen des Flugzeuges, die viel Energie aufnehmen müssen, wird zusätzlich ein Stützstoff, entweder Hartschaumstoff oder eine Wabenstruktur eingeklebt. Auch hier wird nicht auf Spanten im Rumpf und Holme in den Tragflächen verzichtet. Die FVK-Bauweise wurde zuerst im Segelflug angewendet, das erste Flugzeug dieser Bauweise war die FS 24, der Prototyp wurde 1953 bis 1957 von der Akaflieg Stuttgart gebaut. Inzwischen gehen aber auch Hersteller von Motorflugzeugen auf die FVK-Bauweise über, z. B. Diamond Aircraft oder Cirrus Design Corporation. Beispiele für die FVK-Bauweise sind der Schempp-Hirth Ventus oder die Diamond DA40. Vor allem im Großflugzeugbau werden zurzeit auch Kombinationen aus Metallbauweise und FVK-Bauweise hergestellt. Ein populäres Beispiel ist der Airbus A380. Wartung. Flugzeuge unterliegen während ihrer gesamten Lebensdauer verpflichtenden Wartungsanforderungen durch zertifizierte Betriebe. Diese sind in A-, B-, C- und D-Check eingeteilt, letzterer erfolgt nach ca. sechs bis zehn Jahren oder mehreren 10.000 Flugstunden. Dabei wird das gesamte Flugzeug generalüberholt. Die Wartungsintervalle der Turbinen liegen bei 20.000 Flugstunden. Lebensdauer. Flugzeuge unterliegen, im Gegensatz zu bestimmten Einzelkomponenten wie Fahrwerken, grundsätzlich keiner maximalen Betriebsdauer. Verkehrsflugzeughersteller setzen bei der Konstruktion für ihre Maschinen nur eine Zielgröße für die Lebensdauer fest, bei Boeing "Minimum Design Service Objective", bei Airbus "Design Service Goal" (DSG) genannt. Diese Zielgrößen orientieren sich an der typischen Nutzung innerhalb von 20 Jahren. Die meisten Typen sind auf etwa 50.000–60.000 Flugstunden konstruiert; die Zahl der möglichen Flüge schwankt zwischen 20.000 bei Langstreckenmaschinen, z. B. Boeing 747, und 75.000 bei Kurzstreckenmaschinen, z. B. Boeing 737. Diese Mindestzielgrößen werden insbesondere hinsichtlich des Alters und der Flugstunden in großer Zahl überschritten. Airbus bietet, noch bevor die erste Maschine die Grenze des DSG erreicht, eine erweiterte Grenze "Enhanced Service Goal" (ESG) in Verbindung mit bestimmten Wartungsanforderungen an. Seit dem Jahr 1988 stieg durch den Vorfall bei Aloha-Airlines-Flug 243 das Thema ausgedehnte Rissbildung ("Widespread Fatigue Damage", WFD) bei älteren Flugzeugen in der Aufmerksamkeit von Behörden und Herstellern. Die Federal Aviation Administration verlangt bei Flugzeugen mit einem Höchstabfluggewicht von 75.000 Pfund (34 t) seit dem Jahr 2011 mit Beginn ab 2013-2017 (je nach Alter des Flugzeugtyps) von den Herstellern die Angabe von "Limits of Validity" (LOV, Grenzen der Gültigkeit), bei deren Überschreitung die Flugzeuge nicht weiter betrieben werden dürfen. Diese Obergrenzen liegen deutlich oberhalb der Mindestzielgrößen mit 30.000–110.000 Flügen oder 65.000–160.000 Flugstunden Boeing schätzt, dass bei Inkrafttreten für die ältesten Flugzeuge im Juli 2013 nur 25 Boeing-Maschinen weltweit oberhalb der neuen LOV liegen. Militärflugzeuge werden für eine Einsatzzeit von ca. 15 Jahren konzipiert, jedoch nur für 5.000–8.000 Flugstunden. Auf dem Rollfeld legt eine Verkehrsmaschine im Mittel 5 km pro Flug zurück. Daraus ergibt sich innerhalb der Lebensdauer eine Kilometerleistung am Boden von mehr als 250.000 km. Auftrieb. Der Auftrieb an der Tragfläche eines Flugzeuges wird einerseits durch die Form des Flügelprofils, andererseits durch den Winkel zwischen der anströmenden Luft und der Flügelebene (genauer: der Profilsehne), den sogenannten Anstellwinkel (engl. "angle of attack"), bestimmt. Durch Erhöhung des Anstellwinkels bei konstanter Fluggeschwindigkeit steigt der Auftrieb proportional, dies trifft bei der Besonderheit des Überschallfluges nicht zu. Im Geradeausflug ist die Auftriebskraft gleich der Gewichtskraft (Gleichgewicht), im Kurvenflug oder bei Abfangmanövern hingegen ist die Auftriebskraft größer als die Gewichtskraft. Auch der Rumpf kann einen gewissen Anteil des Auftriebs erzeugen: Bei Lifting-Body-Flugzeugen ist dieser aerodynamisch so geformt, dass er den Hauptanteil des Auftriebs trägt. Zusammenhang zwischen Auftrieb, Vortrieb und Luftwiderstand. Um sich vorwärts zu bewegen, muss das Luftfahrzeug Vortrieb erzeugen, um den Widerstand zu überwinden, der die freie Vorwärtsbewegung hemmt. Der Luftwiderstand eines Luftfahrzeuges ist abhängig Während sich die "parasitäre Widerstandsleistung" mit zunehmender Fluggeschwindigkeit in dritter Potenz der Geschwindigkeit vergrößert, verringert sich die "induzierte Widerstandsleistung" umgekehrt proportional. Der resultierende Gesamtwiderstand führt während des Fluges zu einem Energieverlust, der durch Energiezufuhr (Treibstoff, Sonnen- oder Windenergie) ausgeglichen werden muss, um den Flug fortzusetzen. Ist die zugeführte Energie größer als der Verlust durch den Gesamtwiderstand, wird das Luftfahrzeug beschleunigt. Diese Beschleunigung kann auch in Höhengewinn umgesetzt werden (Energieerhaltungssatz). Maßgeblich für die aerodynamische Qualität eines Luftfahrzeugs ist sowohl ein günstiger Strömungswiderstandsbeiwert (formula_2-Wert) als auch das Verhältnis vom Widerstandsbeiwert formula_2 zum Auftriebsbeiwert formula_4, die Gleitzahl formula_5. Den Zusammenhang zwischen dem Widerstandsbeiwert und dem Auftriebsbeiwert eines bestimmten Flügelprofils und damit dessen aerodynamische Charakteristik nennt man die Profilpolare, dargestellt im Polardiagramm nach Otto Lilienthal. wobei formula_4 und formula_2 für die Beiwerte von Auftrieb und Widerstand, formula_10 für Staudruck (abhängig von Geschwindigkeit und Luftdichte) und formula_11 für die Bezugsfläche steht. Fluggeschwindigkeit und Flugenveloppe. Der Flugzeugführer bekommt über seinen Fahrtmesser die Geschwindigkeit gegenüber der umgebenden Luft angezeigt. Diese wird aus statischem und dynamischem Druck am Staurohr des Fahrtmessers ermittelt. Diese angezeigte Geschwindigkeit ("indicated air speed", abgekürzt IAS) ist von der Luftdichte und somit der Flughöhe abhängig. Die IAS ist maßgeblich für den dynamischen Auftrieb. Sie hat daher die größte Bedeutung für die Piloten. In modernen Cockpits wird die IAS rechnerisch um den Instrumentenfehler korrigiert und als CAS angezeigt. Der mögliche Geschwindigkeitsbereich eines Flugzeugs in Abhängigkeit von der Flughöhe wird durch die Flugenveloppe dargestellt. Die untere Grenze wird dabei von der Überziehgeschwindigkeit, die obere Grenze vom Erreichen der Festigkeitsgrenzen dargestellt. Bei Flugzeugen, die bedingt durch die hohe Leistung ihres Antriebs den Bereich der Schallgeschwindigkeit erreichen können, die aber nicht für Überschallflüge konstruiert sind, liegt sie in einem gewissen Abstand unterhalb der Schallgeschwindigkeit. Wie schnell ein Flugzeug bezogen auf die Schallgeschwindigkeit fliegt, wird durch die Mach-Zahl dargestellt. Benannt nach dem österreichischen Physiker und Philosophen Ernst Mach, wird die Mach-Zahl 1 der Schallgeschwindigkeit gleichgesetzt. Moderne Verkehrsflugzeuge mit Strahltriebwerk sind i. A. optimiert für Geschwindigkeiten (IAS) von Mach 0,74 bis 0,90. Damit die Tragfläche ausreichend Auftrieb erzeugt, wird mindestens die "Minimalgeschwindigkeit" benötigt. Sie wird auch als "Überziehgeschwindigkeit" bezeichnet, weil bei ihrem Unterschreiten ein Strömungsabriss (engl. "stall") erfolgt und der Widerstand stark ansteigt, während der Auftrieb zusammenbricht. Die Überziehgeschwindigkeit verringert sich, wenn Hochauftriebshilfen (wie Landeklappen) ausgefahren sind. Beim Drehflügler ist die Fluggeschwindigkeit durch die Aerodynamik der Rotorblätter begrenzt: Einerseits können die Blattspitzen den Überschallbereich erreichen, andererseits kann es beim Rücklauf zum Strömungsabriss kommen. Die bezogen auf die Masse des Drehflüglers zu installierende Antriebsleistung steigt außerdem überproportional zur möglichen Maximalgeschwindigkeit. Flugzeuge starten und landen vorteilhafterweise gegen den Wind. Dadurch wird die zum Auftrieb beitragende angezeigte Geschwindigkeit größer als die Geschwindigkeit über Grund, mit der Folge, dass wesentlich kürzere Start- und Landestrecken gebraucht werden als bei Rückenwind. Arten des Vortriebs. Bei Segelflugzeugen, Hängegleitern und Gleitschirmen ist der Vortrieb auch ohne Eigenantrieb gewährleistet, da vorhandene Höhe verlustarm in Geschwindigkeit umgewandelt werden kann. Der Höhengewinn selbst erfolgt durch Windenschlepp, Schleppflugzeuge oder Aufwinde (z. B. Thermik oder Hang- und Wellenaufwinde), oder durch erhöhte Startposition. Eine extreme Form des Propellerantriebs stellen Muskelkraft-Flugzeuge (HPA) dar: Ein Muskelkraftflugzeug wird nur mit Hilfe der Muskelkraft des Piloten angetrieben, unter Ausnutzung der Gleiteigenschaften der Flugzeugkonstruktion, die verständlicherweise extrem leicht sein muss. Das gilt insbesondere für Muskelkraft-Hubschrauber Ein Propeller kann auch durch einen Elektromotor angetrieben werden. Diese Antriebsart wird vor allem bei Solarflugzeugen und bei Modellflugzeugen verwendet, mittlerweile auch bei Ultraleichtflugzeugen. Propeller in Verbindung mit Kolbenmotoren waren bis zur Entwicklung der Gasturbine die übliche Antriebsart. Als praktische Leistungsgrenze für Flugmotoren dieser Art wurden 4.000 PS (2.940 kW) angesehen, als erreichbare Geschwindigkeit 750 km/h. Heute ist diese Antriebsart für kleinere ein- bis zweimotorige Flugzeuge üblich. Auf Grund der besonderen Anforderungen an die Sicherheit der Motoren werden spezielle Flugmotoren verwendet. Propellerturbinentriebwerke – kurz Turboprop – werden für Kurz- und Regionalverkehrsflugzeuge, militärische Transportflugzeuge, Seeüberwachungsflugzeuge und ein- oder zweimotorige Geschäftsreiseflugzeuge im Unterschallbereich verwendet. Weiterentwicklungen für die zukünftige Verwendung in Verkehrsflugzeugen und militärischen Transportflugzeugen sind „Unducted Propfan“, auch „Unducted Fan“ (UDF) genannt und „Shrouded Propfan“ (z. B. MTU CRISP). Turbostrahltriebwerke werden für moderne schnelle Flugzeuge bis nahe zur Schallgeschwindigkeit (bis zum Transschallgeschwindigkeitsbereich oder dem transsonischen Geschwindigkeitsbereich) oder auch für Geschwindigkeiten im Transschall- und Überschallbereich eingesetzt. Für Flüge im Bereich der Überschallgeschwindigkeit besitzen Turbostrahltriebwerke zur Leistungserhöhung oft eine Nachverbrennung. Staustrahltriebwerke erreichen Hyperschallgeschwindigkeiten und besitzen nur wenige bewegte Teile. Sie funktionieren jedoch i. A. erst bei hohen Geschwindigkeiten und müssen erst anderweitig auf diese beschleunigt werden. Eine Kombination aus Turbostrahltriebwerk mit Nachverbrennung und Staustrahltriebwerk wird Turbostaustrahltriebwerk oder Turboramjet genannt. Historisch war das Verpuffungsstrahltriebwerk der Vorgänger des Raketentriebwerks, damals für Marschflugkörper. Aufgrund weniger bewegter Teile und einfacher Funktionsweise ist es leicht zu bauen; extrem hoher Verschleiß ermöglicht nur Betriebsdauern von (maximal) wenigen Stunden. Wegen des sehr lauten Betriebsgeräusches sind Verpuffungsstrahltriebwerke in vielen Ländern (auch in der BRD) verboten. Raketentriebwerke werden bisher nur bei Experimentalflugzeugen verwendet. Um den Vortrieb und besonders den Auftrieb beim Start von STOL-Flugzeugen zu erhöhen, wurden zeitweise auch Booster in Form von Strahltriebwerken (Beispiel: Varianten der Fairchild C-123) oder auch Feststoff- oder Dampfraketen (siehe auch Booster (Raketenantrieb)) eingesetzt. Wandelflugzeuge, auch als "Verwandlungsflugzeuge" oder "Verwandlungshubschrauber" bezeichnet, nutzen beim Senkrechtstart die Konfiguration eines Hubschraubers. Beim Übergang zum Vorwärtsflug werden sie zum Starrflügler umkonfiguriert. Sie kombinieren so Vorteile von Drehflügler und Starrflügler. Die Wandlung erfolgt meist durch Kippen des Rotors, der dann als Zugtriebwerk arbeitet – Kipprotor oder "Tiltrotor" genannt (z. B. Bell-Boeing V-22). Zu den Wandelflugzeugen gehören auch "Kippflügel-, Schwenkrotor-, Einziehrotor- und Stopprotorflugzeuge". Die meisten nicht durch Strahltriebwerke angetriebenen Senkrechtstarter (VTOL-Flugzeuge) gehören zu den Wandelflugzeugen. Flugsteuerung. Die Flugsteuerung (engl. "flight controls") umfasst das gesamte System zur Steuerung von Flugzeugen um alle drei Raumachsen. Dazu gehört neben den Steuerflächen und den Steuerelementen im Cockpit auch die Übertragung der Steuereingaben. Achsen. Zur Beschreibung der Steuerung werden Achsen benannt: Querachse (engl. "pitch"), Längsachse (engl. "roll"), und Hochachse (engl. "yaw"). Jeder Achse ist bei einem 3-Achs-gesteuerten Flugzeug eine oder mehrere Steuerflächen zugeordnet. Eine 2-Achs-Steuerung verzichtet z. B. auf Querruder oder Seitenruder, die fehlende Komponente wird durch die Eigenstabilität ersetzt. Steuerflächen und Steuerdüsen. Die Steuerung kann durch verschiedene Komponenten erfolgen: Ruder und Klappen, "Strahlklappen" genannte Schlitzdüsen, durch das Verstellen der Strahltriebwerke (Schubvektorsteuerung: der Abgasstrahl kann in verschiedene Richtungen bewegt werden), durch Verwindung der Tragflügel und Leitwerke oder auch durch Gewichtsverlagerung. Beim Senkrechtstarter kommen als weitere Steuerungsmöglichkeiten insbesondere im Schwebe- und Transitionsflug das Kippen bzw. Schwenken von Rotoren oder Strahltriebwerken hinzu. Das Flugzeug kann simultan um eine oder mehrere dieser Achsen drehen. Das Höhenruder ist in der Regel hinten am Flugzeugrumpf angebracht, ebenso das Seitenruder, diese Kombination wird als Heckleitwerk bezeichnet. Abweichend davon kann die Höhensteuerung auch vorne platziert sein (Canard). Höhen- und Seitenruder können auch kombiniert werden wie beim V-Leitwerk. Die Funktion der Querruder kann durch gegenläufigen Ausschlag der Höhenruder ersetzt werden. Alle Arten von Trimmrudern dienen der Stabilisierung der Flugzeuglage und erleichtern dem Piloten die Flugsteuerung. Bei modernen Flugzeugen übernimmt der Autopilot die Kontrolle der Trimmruder. Die Hochauftriebshilfen werden beim Starten, im Steigflug und zum Landeanflug benutzt. An der Hinterkante der Flügel befinden sich die Hinterkantenauftriebshilfen oder Endklappen (flaps), die im Gegensatz zu den Rudern immer synchron an beiden Tragflügeln verwendet werden. Größere Flugzeuge und STOL-Flugzeuge haben meist auch noch Nasenauftriebshilfen in Form von Vorflügeln (Slats), Krügerklappen oder Nasenklappen (Kippnasen), die analog zu den an der hinteren Tragflächenkante gelegenen Landeklappen an der vorderen Tragflächenkante ausfahren. Durch die Klappen kann die Wölbung des Tragflügelprofils so verändert werden, dass die Abrissgeschwindigkeit gesenkt wird und auch beim langsamen Landeanflug oder im Steigflug der Auftrieb erhalten bleibt. Für die Begrenzung der Geschwindigkeit im Sinkflug werden auf den Tragflächen angebrachte sogenannten Brems-/Störklappen, „Spoiler“ genannt, verwendet. Im ausgefahrenen Zustand vermindern sie den Auftrieb an den Tragflächen (Strömungsablösung). Durch den verringerten Auftrieb ist ein steilerer Landeanflug möglich. Spoiler werden auch zur Unterstützung der – in bestimmten Flugbereichen auch als Ersatz für – Querruder verwendet. Nach der Landung werden die Spoiler voll ausgefahren, so dass kein (positiver) Auftrieb mehr wirken kann. Dies geschieht meist durch einen Automatismus, der unter anderem durch das Einfedern des Hauptfahrwerks bei der Landung eingeleitet wird. Steuerelemente. Steuerelemente sind diejenigen Hebel und Pedale, die im Cockpit vom Piloten betätigt werden können und zur Steuerung des Flugzeugs dienen. Steuerknüppel, Steuerhorn oder Sidestick dienen zur Steuerung der Querlage und der Längsneigung und steuern das Querruder und das Höhenruder. Der Steuerknüppel eines Flugzeugs dient zum gleichzeitigen Steuern von Querneigung und Längsneigung. Er befindet sich vor dem Unterbauch des Piloten und wird normalerweise mit einer Hand gehalten. Das Steuerhorn ist eine andere Einheit zur Steuerung von Flugzeugen um die Längs- und Querachse. Angeordnet ist es im Cockpit zentral vor dem Piloten und verfügt über Haltegriffe für beide Hände. Dabei werden die Kräfte, die während des Fluges auf das Flugzeug wirken, in Form von Widerstand und Ausschlag auf die Steuereinheit übertragen. Ein Sidestick ist ein Steuerknüppel, der nicht zentral vor dem Piloten, sondern seitlich angeordnet ist und nur mit einer Hand bedient wird. Die Pedale zur Seitensteuerung betätigen das Seitenruder und in der Regel am Boden auch die Bremsen. Bei Segelflugzeugen wird die Radbremse (wenn vorhanden) meist durch Ziehen des Bremsklappenhebels betätigt. Signalübertragung. Die Übertragung der Steuersignale kann erfolgen Instrumente zum Erkennen der Lage im Raum. Seine Lage im Raum erkennt der Flugzeugführer entweder durch Beobachtung der Einzelheiten des überflogenen Gebiets und des Horizonts oder durch Anzeigeinstrumente (Flugnavigation). Bei schlechter Sicht dient der künstliche Horizont der Anzeige der Fluglage in Bezug auf die Nickachse, also den Anstellwinkel des Flugzeugrumpfes, und bezüglich der Rollachse, der sogenannten Querlage (Banklage). Die Himmelsrichtung, in die das Flugzeug fliegt, zeigt der magnetische Kompass und der Kurskreisel. Magnetischer Kompass und Kurskreisel ergänzen sich gegenseitig, da der Magnetkompass bei Sink-, Steig- und Kurvenflügen zu Dreh- und Beschleunigungsfehlern neigt, der Kurskreisel jedoch nicht. Der Kurskreisel hat jedoch keine eigene „nordsuchende“ Eigenschaft und muss mindestens vor dem Start (in der Praxis auch in regelmäßigen Abständen beim Geradeausflug) mit dem Magnetkompass kalibriert werden. Der Wendezeiger dient zur Anzeige der Drehrichtung und zur Messung der Drehgeschwindigkeit des Flugzeugs um die Hochachse (engl. rate of turn). Er enthält meistens eine Kugellibelle, die anzeigt, wie koordiniert eine Kurve geflogen wird. Für die Höhensteuerung sind mindestens zwei Instrumente wichtig: Die absolute Höhe in Bezug auf die Meereshöhe wird über den barometrischen Höhenmesser dargestellt, die relative Änderung der Höhe, die sogenannte Steigrate bzw. Sinkrate, ausgedrückt als Höhenunterschied pro Zeiteinheit, bekommt der Flugzeugführer über das Variometer signalisiert. Zusätzlich wird bei größeren Flugzeugen im Landeanflug die absolute Höhe über Grund über den Radarhöhenmesser angezeigt. Weitere Klassifizierungen. Neben der nahe liegenden Klassifizierung nach der Bauweise oder der Antriebsart haben sich weitere Klassifizierungen etabliert. Zivilflugzeuge. Die ersten Flugzeuge waren Experimentalflugzeuge. Experimentalflugzeuge, auch Versuchsflugzeuge genannt, dienen dem Erforschen von Techniken oder dem Testen von Forschungserkenntnissen im Bereich der Luftfahrt. Sehr früh in der Geschichte des Flugzeugs entstanden auch die Sportflugzeuge. Ein Sportflugzeug ist ein Leichtflugzeug zur Ausübung einer sportlichen Tätigkeit, entweder zur Erholung oder bei einem sportlichen Wettkampf. Noch vor dem Ersten Weltkrieg kam es zur Erprobung und zum Bau des Passagierflugzeugs. Passagierflugzeuge dienen dem zivilen Personentransport und werden auch als Verkehrsflugzeug bezeichnet. Kleinere Passagierflugzeuge werden auch als Zubringerflugzeuge bezeichnet. Speziell für Geschäftsreisende entworfene kleine Passagierflugzeuge sind die Geschäftsreiseflugzeuge, für die auch der engl. Ausdruck "Bizjet" verwendet wird. Ein Frachtflugzeug ist ein Flugzeug zum Transport von (kommerzieller) Fracht. Flugzeugsitze sind daher nur für die Mannschaft eingebaut, meist enthalten sie heute ein Transportsystem für Paletten und Flugzeugcontainer. Eine Unterkategorie des Frachtflugzeugs ist das Postflugzeug. Frühe Postflugzeuge konnten auch dem Transport einzelner Personen dienen. Für den Bereich der Land- und Forstwirtschaft werden spezielle Flugzeuge verwendet, die Dünger, bodenverbessernde Stoffe und Pflanzenschutzmittel in Behältern mitführen können und über Sprühdüsen, Streuteller oder ähnliche Einrichtungen verbreiten können. Sie werden allgemein als Agrarflugzeuge bezeichnet. Feuerlöschflugzeuge, auch „Wasserbomber“ genannt, sind Flugzeuge, die Wasser und Löschadditive in ein- oder angebauten Tanks mitführen und über Schadfeuern abwerfen können. Es gibt unter dem Begriff Rettungsflugzeug (amtlich „Luftrettungsmittel“ genannt) verschiedene unterschiedliche Kategorien wie Rettungshubschrauber, Intensivtransporthubschrauber, Notarzteinsatzhubschrauber oder Flugzeuge zur Rückholung von Patienten aus dem Ausland. Unter den Überbegriff Search and Rescue (SAR) fallen Flugzeuge, die zum Suchen und Retten von Unfallopfern verwendet werden. Es gibt zahlreiche Sonderbauformen wie z. B. Forschungsflugzeuge mit spezieller Ausrüstung (spezielles Radar, Fotokameras, sonstige Sensoren). Militärflugzeuge. Ein Jagdflugzeug ist ein in erster Linie zur Bekämpfung anderer Flugzeuge eingesetztes Militärflugzeug. Heute spricht man eher vom Kampfflugzeug, da die Flugzeuge dieser Kategorie keiner eindeutigen Aufgabe zugeordnet werden können. Sie werden für den Luftkampf, die militärische Aufklärung, die taktische Bodenbekämpfung und/oder andere Aufgaben genutzt. Ein Bomber ist ein militärisches Flugzeug, das dazu dient, Bodenziele mit Fliegerbomben, Luft-Boden-Raketen und Marschflugkörpern anzugreifen. Ein Verbindungsflugzeug ist ein kleines Militärflugzeug, mit dem in der Regel Kommandeure transportiert werden. Es kann außerdem der Gefechtsfeldaufklärung dienen (heute nur noch bei Truppenübungen), als kleineres Ambulanzflugzeug dienen oder für Botendienste eingesetzt werden. Heute werden als Verbindungsflugzeug meistens leichte Hubschrauber eingesetzt. Luftbetankung bezeichnet die Übergabe von Treibstoff von einem Flugzeug zu einem anderen während des Fluges. Üblicherweise ist das Flugzeug, das den Treibstoff zur Verfügung stellt, ein speziell für diese Aufgabe entwickeltes Tankflugzeug. Ein Aufklärungsflugzeug ist ein Militärflugzeug, das für die Aufgabe konstruiert, umgebaut oder ausgerüstet ist, Informationen für die militärische Aufklärung zu beschaffen. Manchmal werden Aufklärungsflugzeuge auch als Spionageflugzeuge bezeichnet. Ein Schlachtflugzeug, auch Erdkampfflugzeug genannt, ist ein militärischer Flugzeugtyp, der besonders für die Bekämpfung von Bodenzielen vorgesehen ist. Dieser Typus stellt eine eigene Flugzeugart dar, die ganz spezifische taktische Aufgaben erfüllen soll. Da die Angriffe in niedrigen bis mittleren Flughöhen stattfinden und mit starkem Abwehrfeuer zu rechnen ist, werden besondere Schutzmaßnahmen ergriffen, wie Panzerung der Kabine und Triebwerke gegen Bodenfeuer. Transportflugzeuge, die mit seitlich ausgerichteten Maschinenwaffen oder gar Rohrartillerie ausgerüstet sind, nennen sich Gunship. Drehflügelflugzeuge in der Rolle von Erdkampfflugzeugen werden als Kampfhubschrauber bezeichnet. Ein Trainer ist ein Flugzeug, das zur Ausbildung von Piloten benutzt wird. Transportflugzeuge sind besondere Frachtflugzeuge, die für den militärischen Lastentransport entwickelt werden. Sie müssen robust, zuverlässig, variabel für den Personen-, Material- oder Frachttransport geeignet sowie schnell ein- und ausladbar sein. Transportiert werden können, auch in Kombination, zum Beispiel Hilfsgüter, Fallschirmspringer, Fahrzeuge, Panzer, Truppen oder Ausrüstung. Die Klassifikation ist in der Praxis nicht immer streng zwischen zivil und militärisch zu trennen, denn manche Zweckbestimmung kann unabhängig vom Einsatz gegeben sein. Beispielsweise können Fracht- bzw. Transportflugzeuge je nach Fracht, Sanitätsflugzeuge je nach Arzt/Patient und Trainer je nach Lehrer/Schüler sowohl im Zivil- als auch im Militärbereich vorkommen. Klassifizierung nach Struktur des Flugzeugs. Flugzeuge, die starre Tragflügel besitzen, werden häufig auch nach der Anzahl und Lage der Tragflügel zum Rumpf kategorisiert. Ein Eindecker ist ein Flugzeug mit einer einzigen Tragfläche bzw. einem Paar Tragflügeln. Eindecker werden wiederum unterteilt in Doppeldecker ist die Bezeichnung für ein Flugzeug, das zwei vertikal gestaffelt angeordnete Tragflächen besitzt. Eine Sonderform des Doppeldeckers ist der „Anderthalbdecker“. Um die Zeit des Ersten Weltkriegs gab es auch Dreidecker. Doppelrumpfflugzeuge besitzen zwei Rümpfe, sie sind gewissermaßen die Katamarane unter den Flugzeugen. Jeder Rumpf besitzt hierbei in der Regel ein eigenes Cockpit. Damit nicht zu verwechseln sind Flugzeuge mit einem doppelten Leitwerksträger, die jedoch nur einen Rumpf aufweisen, der meistens als Rumpfgondel ausgebildet ist. Asymmetrische Flugzeuge sind ein sehr seltener Flugzeugtyp, das bekannteste Exemplar ist die Blohm & Voss BV 141 von 1938. Hier ist die Flugzeugkanzel auf der Tragfläche, während der Propeller und Motor den Rumpf alleine besetzen. Die Tragflächen sind asymmetrisch ausgebildet. Als Canard oder Entenflugzeug wird ein Flugzeug bezeichnet, bei dem das Höhenleitwerk nicht konventionell am hinteren Ende des Flugzeugs montiert ist, sondern vor der Tragfläche an der Flugzeugnase; das Flugbild erinnert an eine fliegende Ente. Sind im Extremfall beide Tragflächen annähernd gleich groß, wird diese Auslegung auch als Tandemflügel bezeichnet. Ein Nurflügel ist ein Flugzeug ohne ein separates Höhenruder, bei dem es keine Differenzierung zwischen Tragflächen und Rumpf gibt. Bildet der Rumpf selbst den Auftriebskörper und hat dieser nicht mehr die typischen Dimensionen eines Tragflügels, wird er als Lifting Body bezeichnet. Die Vereinigung dieser beiden Konzepte nennt man Blended Wing Body. Ein Wasserflugzeug ist ein Flugzeug, das für Start und Landung auf Wasserflächen konstruiert ist. Es hat meist unter jeder der beiden Tragflächen einen leichten, bootartigen Schwimmer. Bei Flugbooten ist der gesamte Rumpf schwimmfähig. Wasserflugzeuge und Flugboote können nur vom Wasser aus starten oder im Wasser landen. Sind diese Flugzeuge mit (meist einziehbaren) Fahrwerken versehen, mit denen sie auch vom Land aus starten und auf dem Land landen können, werden sie Amphibienflugzeuge genannt. Klassifizierung nach Start- und Landeeigenschaften. Starrflügelflugzeuge und einige Typen der Drehflüglern benötigen eine mehr oder weniger präparierte Start- und Landebahn einer gewissen Länge. Die Ansprüche reichen von einem ebenen Rasen ohne Hindernisse bis zur asphaltierten oder betonierten Piste. Flugzeuge, die mit besonders kurzen Start- und Landebahnen auskommen, werden als Kurzstartflugzeug oder STOL-Flugzeuge typisiert. Flugzeuge, die senkrecht starten und landen können, sind Senkrechtstarter oder VTOL-Flugzeuge. Sie benötigen gar keine Start- und Landebahn, sondern nur einen festen Untergrund ausreichender Größe, der ihr Gewicht tragen kann, und auf dem der Abwind (engl. downwash), der durch das VTOL-Flugzeug erzeugt wird, nicht allzu viel Schaden anrichtet, z. B. ein Helipad. VTOL-Flugzeuge, die auf dem Boden senkrecht nach oben stehend starten und landen, sind Heckstarter. Unbemannte Flugzeuge. Im zivilen Bereich sind unbemannte Flugzeuge meistens als Modellflugzeug gebräuchlich und werden über Funkfernsteuerungen gesteuert, selten über Programmsteuerungen. Unbemannte Flugzeuge im militärischen oder staatlichen Einsatz werden Drohnen genannt. Das Spektrum reicht hier von Modellflugzeugen zur Zieldarstellung für Flugabwehrkanonen über unbemannte Aufklärungsflugzeuge bis hin zu unbemannten bewaffneten Kampfflugzeugen (Kampfdrohnen). Im staatlichen Bereich werden Drohnen von Polizei und Zoll zur Tätersuche und Verfolgung eingesetzt, häufig mit Video- und Wärmebildkameras, für die bisher bemannte Polizeihubschrauber eingesetzt werden. Die Steuerung erfolgt dabei ebenfalls über Funkfern- oder Programmsteuerung. Während Drohnen in der Regel wiederverwendbar sind, werden unbemannte Flugzeuge mit fest eingebauten Sprengköpfen als Marschflugkörper bezeichnet. Die Flugpioniere. 1810 bis 1811 konstruierte Albrecht Ludwig Berblinger, der berühmte "Schneider von Ulm", seinen ersten flugfähigen Gleiter, führte ihn jedoch der Öffentlichkeit über der Donau unter ungünstigen Windverhältnissen vor und stürzt unter dem Spott der Zuschauer in den Fluss. Dass sein Flugzeug flugfähig war, wurde 1986 nachgewiesen. Der englische Gelehrte Sir George Cayley (1773 bis 1857) untersuchte und beschrieb als erster in grundlegender Weise die Probleme des aerodynamischen Flugs. Er löste sich vom Schwingenflug und veröffentlichte 1809 bis 1810 einen Vorschlag für ein Fluggerät „mit angestellter Fläche und einem Vortriebsmechanismus“. Er beschrieb damit als erster das Prinzip des modernen Starrflügelflugzeugs. Im Jahr 1849 baute er einen bemannten Dreidecker, der eine kurze Strecke flog. Der Russe Alexander Moschaiski baute ein Flugzeug mit einem Dampfmaschinenantrieb, mit dem er zwischen 1882 und 1886 mehrere Flugversuche unternahm. Das Flugzeug konnte vom Boden abheben, verlor jedoch in der Folge an Geschwindigkeit und sackte ab. Seine verbesserte Version, die mit mehr Leistung ausgestattet war, wäre nach der Schlussfolgerung des ZAGI (getestet 1982) flugfähig. Zu dem Flug ist es jedoch durch den Tod des Konstrukteurs nicht mehr gekommen. Otto Lilienthal und Clement Ader. Gleitermodelle, wie sie Otto Lilienthal flog Der Flugpionier Otto Lilienthal (1848–1896) entwickelte nach ausführlichen theoretischen und praktischen Vorarbeiten Gleitflugzeuge und führte mit ihnen erfolgreiche Gleitflüge nach dem Prinzip „schwerer als Luft“ durch. Er ist deutlich über 1.000-mal gesegelt. Die erzielten maximalen Flugweiten lagen bei 250 Metern. Die aerodynamische Formgebung seiner Tragflügel erprobte er auf seinem „Rundlaufapparat“, der von der Funktion her ein Vorgänger der modernen Windkanäle war. Clement Ader hat mit seiner Eole den ersten (ungesteuerten) motorisierten Flug in der Geschichte ausgeführt. Bei der Eole handelte es sich um einen freitragenden Nurflügel-Eindecker, der von einer auf eine vierblättrige Luftschraube wirkenden 4-Zylinder-Dampfmaschine angetrieben wurde. Die Eole hob am 9. Oktober 1890 zu ihrem einzigen Flug ab, flog ca. 50 m weit, stürzte ab und wurde dabei zerstört. Einen der ersten "gesteuerten" Motorflüge soll der deutsch-amerikanische Flugpionier Gustav Weißkopf im Jahr 1901 über eine Strecke von einer halben Meile zurückgelegt haben. Hierzu gab es lediglich Zeugenaussagen, aber keinen fotografischen Beweis. Karl Jatho hat sich, in ihm zugeordneten handschriftlichen Notizen, „Luftsprünge“ mit seinem motorisierten Jatho-Drachen ab dem 18. August 1903 zugeschrieben, die von zunächst ca. 18 m, später bis ca. 60 m reichten. Der Zeitpunkt der Entstehung dieser Notizen und der Zeitpunkt ihrer Veröffentlichung sind unklar; ebenso unklar ist der Status von Zeugenaussagen zu diesen Luftsprüngen, die im August 1933, also 30 Jahre später, erfolgt sein sollen. Für 1907 belegte Flugversuche mit dem Jatho-Drachen scheiterten. Gebrüder Wright. Die herausragende Leistung der Gebrüder Wright bestand darin, als erste ein Flugzeug gebaut zu haben, mit dem ein erfolgreicher, andauernder, gesteuerter Motorflug möglich war, und diesen Motorflug am 17. Dezember 1903 auch durchgeführt zu haben. Darüber hinaus haben sie ihre Flüge genauestens dokumentiert und innerhalb kurzer Zeit in weiteren Flügen die Tauglichkeit ihres Flugzeuges zweifelsfrei bewiesen. Von herausragender Bedeutung ist, dass Orville Wright bereits 1904 mit dem Wright Flyer einen gesteuerten Vollkreis fliegen konnte. Am Rand sei bemerkt, dass der Wright Flyer dem Typ nach ein „Canard“ war, sich also die Höhensteuerung vor dem Haupttragwerk befand. Samuel Pierpont Langley, ein Sekretär des Smithsonian-Instituts versuchte einige Wochen vor dem Wright-Flug, sein „Aerodrome“ zum Fliegen zu bringen. Obwohl sein Versuch scheiterte, behauptete das Smithsonian-Institut einige Zeit, die Aerodrome wäre die erste „flugtaugliche Maschine“. Der Wright Flyer wurde dem Smithsonian Institut mit der Auflage gestiftet, dass das Institut keinen früheren motorisierten Flug anerkennen dürfe. Diese Auflage wurde von den Stiftern formuliert, um die frühere Darstellung des Instituts, Langley hätte mit der Aerodrome den ersten erfolgreichen Motorflug durchgeführt, zu unterbinden. Diese Auflage führte immer wieder zu der Vermutung, dass es vor den Wright Flyern erfolgreiche Versuche zum Motorflug gegeben habe, deren Anerkennung aber im Zusammenhang mit der Stiftungsauflage unterdrückt worden sei. Die ersten Motorflugzeuge waren meistens Doppeldecker. Versuchsweise wurden auch mehr als drei Tragflächen übereinander angeordnet. Eine solche Mehrdeckerkonstruktion stammte von dem Engländer Horatio Frederick Phillips. Mit dem Fünfzigdecker „Horatio Phillips No. 2“ gelang ihm im Sommer 1907 der erste Motorflug in England. Erste Ärmelkanalüberquerung. Im Jahr 1909 setzte Europa weitere praktische Meilensteine in der Geschichte des Flugzeugs. Am 25. Juli 1909 überquerte Louis Blériot mit seinem Eindecker Blériot XI als erster mit einem Flugzeug den Ärmelkanal. Sein Flug von Calais nach Dover dauerte 37 Minuten bei einer durchschnittlichen Flughöhe von 100 Metern. Blériot konnte somit den von der englischen Zeitung Daily Mail für die erste Kanalüberquerung ausgelobten Geldpreis entgegennehmen. Mit der Blériot XI wurde ihr Konstrukteur „Vater der modernen Eindecker“. Der Erfolg der Maschine machte ihn zum ersten kommerziellen Flugzeughersteller. Vom 22. bis zum 29. August 1909 fand mit der „Grande Semaine d’Aviation de la Champagne“ eine Flugschau bei Reims statt, die mehrere Rekorde bescherte: Henri Farman flog eine Strecke von 180 Kilometern in drei Stunden. Blériot flog die höchste Fluggeschwindigkeit über die 10-Kilometer-Strecke mit 76,95 km/h. Hubert Latham erreichte auf einer „Antoinette“ des Flugzeugkonstrukteurs "Levasseur" mit 155 m die größte Flughöhe. 1910 gelingt dem französischen Ingenieur Henri Fabre mit dem von ihm konstruierten Canard Hydravion der erste Flug mit einem Wasserflugzeug. Monocoque. 1912 erfindet Louis Béchereau die Monocoque-Bauweise für Flugzeuge. Die Rümpfe anderer Flugzeuge bestanden aus einem mit lackiertem Stoff überzogenen Gerüst. Das von Béchereau entworfene Deperdussin-Monocoque-Rennflugzeug besaß jedoch einen Stromlinienrumpf aus einer Holzschale ohne inneres Gerüst. Neu war auch die „DEP“-Steuerung, bei der auf dem Steuerknüppel für die Nickbewegung ein Steuerrad für die Rollbewegung saß, ein Prinzip, das heute noch vielfach Verwendung findet. Als Triebwerk besaß das Flugzeug einen speziellen Flugzeugmotor, den Gnôme-Umlaufmotor. Die Deperdussin Monocoques waren die schnellsten Flugzeuge ihrer Zeit. Ein wesentlicher technischer Durchbruch gelingt kurz vor dem Ersten Weltkrieg dem russischen Konstrukteur und Piloten Igor Iwanowitsch Sikorski, der später eher als Hersteller von Flugbooten und Konstrukteur von Hubschraubern in den USA bekannt wird. 1913 bis 1914 beweist er mit den ersten von ihm konstruierten „Großflugzeugen“, dem zweimotorigen Grand Baltiski, dem viermotorigen Russki Witjas und dessen Nachfolger, dem viermotorigen Ilja Muromez, dass solche großen Flugzeuge sicher und stabil fliegen können, selbst wenn ein oder zwei Motoren abgestellt sind oder ausfallen. Der Erste Weltkrieg. Während des Ersten Weltkrieges erkannten die Militärs den Wert der Luftaufklärung. Zugleich wollten sie den Gegner an einer Aufklärung hindern. Das Flugzeug entwickelte sich zur Waffe, und die Grundlagen des Luftkrieges mit Propellerflugzeugen wurden gelegt. Die zu Anfang des Krieges noch weit verbreiteten Flugzeuge mit Druckpropeller wurden durch die wendigeren und schnelleren Maschinen mit Zugpropeller ersetzt. Hierzu trug bei, dass die Synchronisierung der Bordmaschinengewehre mit dem Propeller über ein Unterbrechergetriebe entwickelt wurde, so dass man mit der starren Bewaffnung durch den eigenen Propellerkreis schießen konnte. Auf diese Weise konnte der Pilot mit dem Flugzeug den Gegner anvisieren, was den Einsatz von Maschinengewehren im Luftkampf wesentlich erfolgreicher machte. Aus den Flugzeugen wurden Granaten, Flechettes und darauf folgend erste spezielle Spreng- und Brandbomben abgeworfen. Dabei sollten zunächst die Soldaten in den feindlichen Linien und später auch Fabriken und Städte getroffen werden. Während des Ersten Weltkrieges wurde eine Flugzeugindustrie aus dem Boden gestampft, es entstanden die ersten Flugplätze und die Technik des Flugfunks wurde entwickelt. Durch den Einsatz von neuen Metallen (Aluminium) wurden Flugzeugmotoren immer leistungsfähiger. 1915 erprobte Hugo Junkers das erste Ganzmetallflugzeug der Welt, die Junkers J 1. Hugo Junkers baute 1919 auch das erste Ganzmetall-Verkehrsflugzeug der Welt, die Junkers F 13, deren Konstruktionsprinzipien richtungweisend für folgende Flugzeuggenerationen wurden. Zwischenkriegszeit. Während des Ersten Weltkrieges war die Flugzeugproduktion stark angekurbelt worden. Nach diesem Krieg mussten die Flugzeughersteller ums Überleben kämpfen, da nicht mehr so viele Militärflugzeuge gebraucht wurden. Gerade in Europa gingen viele der ehemaligen Flugzeughersteller in Konkurs, wenn es ihnen nicht gelang, ihre Produktion auf zivile Güter umzustellen. In den USA waren Kampfflugzeuge geradezu zu Schleuderpreisen zu kaufen. Ehemalige Piloten von Kampfflugzeugen mussten sich eine neue Beschäftigung suchen. Sowohl in den USA als auch in Europa entstanden viele neue zivile Dienste und Luftfahrtgesellschaften, wie z. B. die Luft Hansa 1926. Die bekanntesten Passagierflugzeuge dieser Zeit waren die Junkers F 13, die Junkers G 38, die Dornier Wal, die Handley Page H.P.42 und die 3m. Die große Herausforderung nach dem Krieg waren Langstreckenflüge, vor allem die Überquerung des Atlantik. Diese Aufgabe kostete einige Menschenleben, bis eines von drei in Neufundland gestarteten Curtiss-Flugbooten der US-Navy, die Curtiss NC-4, nach 11 Tagen am 27. Mai 1919 in Lissabon landete. Die Vickers Vimy von Alcock und Brown nach der Bruchlandung in Clifden In der Zeit vom 14. bis 15. Juni 1919 gelingt den britischen Fliegern Captain John Alcock und Lieutenant Arthur Whitten Brown der erste Nonstop-Flug über den Atlantik von West nach Ost. Ihr Flugzeug war ein zweimotoriger modifizierter Bomber Typ Vickers Vimy IV mit offenem Cockpit. Charles Lindbergh gelingt zwischen 20. und 21. Mai 1927 mit seinem Flugzeug „Ryan NYP“ Spirit of St. Louis der erste Nonstop-Alleinflug von New York nach Paris über den Atlantik. Er gewinnt damit den seit 1919 ausgelobten "Orteig Prize". Allein dieser Überflug brachte der US-amerikanischen Flugzeugindustrie und den US-amerikanischen Fluggesellschaften einen deutlichen Aufschwung. Eine von Daniel Guggenheim finanzierte Reise Lindberghs durch alle US-Bundesstaaten führte im ganzen Land zum Bau von Flugplätzen. Am 12. April 1928 gelingt die Transatlantik-Überquerung von Ost (Baldonnel in Irland) nach West (Greenly Island – Neufundland) durch Hermann Köhl, James Fitzmaurice und Ehrenfried Günther Freiherr von Hünefeld mit einer modifizierten Junkers W 33. Ab Ende der 20er Jahre beginnt das Zeitalter der großen Flugboote, deren bekannteste Vertreter die Dornier Do X und Boeing 314 waren. Haupteinsatzbereich waren weite Transatlantik- und Pazifikflüge. Mit der Flugbootkombination Short Mayo war ab 1937 in England für Transatlantikflüge experimentiert worden. Der Sinn der Short-Mayo-Kombination war, mit einem leicht betankten Flugboot, in diesem Fall einer Short-S.21, ein schwerbeladenes Wasserflugzeug (eine Short-S.20) auf Flughöhe zu tragen und dort auszuklinken. Diese Kombination sollte das Verhältnis zwischen Leistung, Nutzlast und Treibstoff optimieren. Als Pionier im Katapultflugzeugbau gilt Ernst Heinkel, der 1925 eine Abflugbahn (noch kein Katapult) mit Flugzeug auf das japanische Schlachtschiff "Nagato" aufsetzte und erfolgreich persönlich in Dienst nahm. Auf wenigen großen Passagierschiffen wie der "Bremen" wurden mit dem Aufkommen der Katapulttechnik Katapultflugzeuge eingesetzt, die mittels eines Dampfkatapults gestartet wurden. Die Flugzeuge dienten meist zur schnellen Postbeförderung, wie die Heinkel He 12 und die Junkers Ju 46. Im militärischen Bereich wurden Katapultflugzeuge hauptsächlich für die Luftaufklärung eingesetzt. Kleine Maschinen, wie die Arado Ar 196, wurden von großen Kriegsschiffen aus eingesetzt und große Katapultflugzeuge, wie die Dornier Do 26, wurden in den 1930er Jahren von der Lufthansa für den Transatlantik-Luftpostverkehr von Flugstützpunktschiffen aus eingesetzt und im Zweiten Weltkrieg als Transportflugzeuge und See-Fernaufklärer. Bereits ab 1937 begann die deutsche Luftwaffe mit dem Bau von Höhenflugzeugen, diese waren mit Druckkabinen ausgestattet und erreichten Höhen zwischen 12.000 und 15.000 m. Die bekanntesten Vertreter waren die Junkers Ef 61, später die Henschel Hs 130 und die Junkers Ju 388. Sie dienten als Höhenaufklärer bzw. Höhenbomber, allerdings wurden sie nur in wenigen Exemplaren gebaut. Als erstes Passagierflugzeug mit einer Druckkabine erlaubte die Boeing B-307 einen Flug über dem Wetter und damit eine wesentliche Komfortsteigerung für die Passagiere. 1939 bis 1945. Am 20. Juni 1939 startet mit der Heinkel He 176 das erste Versuchsflugzeug mit regelbarem Flüssigkeitsraketenantrieb. Dieses Flugzeug besitzt auch als erstes als Rettungsmittel eine abtrennbare Cockpitkapsel mit Bremsschirm. Der Pilot musste sich im Notfall dann allerdings von der Kapsel befreien und mit dem Fallschirm abspringen. Das Flugzeug erreichte eine maximale Geschwindigkeit von ca. 750 km/h. Die Heinkel He 178 war das erste Flugzeug der Welt, das von einem Turbinen-Luftstrahltriebwerk angetrieben wurde. Der Erstflug erfolgte am 27. August 1939. Durch die Luftschlacht um England geriet das Jagdflugzeug zunächst in den Mittelpunkt. Die beiden herausstechenden Typen dieser Zeit waren die Messerschmitt Bf 109 und die Supermarine Spitfire, die durch Verbesserungen der Aerodynamik und auch der Leistungsfähigkeit der Motoren im Laufe ihrer Entwicklung wesentlich in ihrer Leistungsfähigkeit gesteigert wurden. Die Heinkel He 280 war das erste zweistrahlige Flugzeug der Welt; es besaß zwei Turbostrahltriebwerke. Es war auch das erste Flugzeug, das mit einem Schleudersitz ausgerüstet war. Der Erstflug fand am 2. April 1941 statt. Seinen ersten Einsatz als Rettungsgerät hatte der Schleudersitz wohl am 13. Januar 1943, als sich der Pilot aus einer He 280 katapultieren musste, die wegen Vereisung flugunfähig geworden war. Die Alliierten setzten für den strategischen Luftkrieg große viermotorige Bombenflugzeuge ein. Da Angriffe wegen der deutschen Luftverteidigung oft nachts geflogen werden mussten hielt die Avionik in den Luftkrieg Einzug. Geräte zu Positionsbestimmung, wie das GEE-Verfahren, Radar zur Navigation und zur Nachtjagd und auch Funkgeräte zogen in Einsatz ein. Der Kampf führte zu immer größeren Flughöhen und Geschwindigkeiten. Um die Bombenflugzeuge wirksam schützen zu können wurden Jagdflugzeuge mit großer Reichweite entwickelt, etwa die North American P-51 Die Arado Ar 234B-2 von 1944 war der erste vierstrahlige Bomber mit einem Autopiloten ("PDS"), gefolgt. Kurz vor Kriegsende entstand der zweistrahlige Nurflügler Horten Ho IX. Die Außenhülle war mit einer Mischung aus Kohlenstaub und Leim beschichtet, um Radarstrahlen zu absorbieren. Mit der Messerschmitt Me 163 wurde Mitte 1944 ein Raketengleiter, ausgehend von einem Segelflugzeug, zur Einsatzreife entwickelt. Als Objektschutzjäger eingesetzt bestach das Flugzeug durch seine Steigleistung, war jedoch aufgrund der Einsatzumstände praktisch wirkungslos. Während dieser Zeit steigerte sich die Fluggeschwindigkeit bis in den transsonischen Bereich. Umfangreiche Forschungsprojekte, insbesondere auf deutscher Seite, führten zu grundlegenden Entdeckungen der in der Hochgeschwindigkeitsaerodynamik, etwa die Anwendung der Tragflächenpfeilung oder die Entdeckung der Flächenregel. Produkt dieser Bemühungen war der schwere Strahlbomber Junkers Ju 287 mit negativer Pfeilung der Tragflächen und Anwendung der Flächenregel. Die Japaner errangen mit ihrer leichten und wendigen Mitsubishi Zero Sen im Pazifik zunächst herausragende Erfolge. Erst spätere Entwicklungen der USA erlaubten es, gegen den Gegner mit Erfolgsaussicht vorzugehen. Als die Lage Ende 1944 für Japan immer aussichtsloser wurde, ersannen sie Kamikaze-Flugzeuge, deren Piloten das voll Sprengstoff gepackte Flugzeug selbstmörderisch auf alliierte Schiffe lenkten. 1945 bis heute. 1947 durchbrach die Bell X-1 als erstes Flugzeug offiziell die Schallmauer, inoffiziell war das nach Berichten deutscher Kampfflieger aus Versehen bereits 1945 mit einer Messerschmitt Me 262 gelungen. Die X-1 war ein Experimentalflugzeug mit Raketenantrieb welches von einer B-29 in ca. 10 km Höhe getragen und dort ausgeklinkt wurde, woraufhin der Raketenantrieb zündete und das Flugzeug die Schallmauer durchbrach. Mit dem Kalten Krieg und dem Koreakrieg (1950–1953) begann das Wettrüsten der Strahlflugzeuge. Am 8. November 1950 gelang der weltweit erste Sieg in einem Luftkampf zwischen Strahlflugzeugen, bei dem eine MiG-15 von einer Lockheed P-80 abgeschossen wurde. Grundsätzlich waren die P-80 und Republic F-84 den sowjetischen Jets jedoch nicht gewachsen und wurden deshalb bald von der F-86 Sabre abgelöst. Mit der Inbetriebnahme der britischen De Havilland DH 106 „Comet“ bei der Fluggesellschaft BOAC begann 1952 das Zeitalter der Strahlturbinen auch für Verkehrsflugzeuge. Allerdings wurden die wechselnden Druck-Belastungen nicht ausreichend berücksichtigt – der Verkehr fand jetzt in größeren Höhen statt und die Lastwechsel der Druckkabine führten zu Haarrissen im Rumpf. Als 1954 zwei Maschinen dieses Typs abstürzten, musste mit großem Aufwand nach den Ursachen geforscht werden; es handelte sich um Materialermüdung. Diese Forschung kam allen Konstrukteuren zugute. Mit der Tupolew Tu-104 etablierte währenddessen die Sowjetunion ab 1956 erfolgreiche Liniendienste. Die Comet nahm mit einem weitgehend neu konstruierten Rumpf als D.H. 106 4B im Herbst 1958 ihren Dienst wieder auf, allerdings nur kurz vor der Boeing 707, welche eine etwas höhere Reichweite hatte und mehr als doppelt so viele Passagiere befördern konnte. Eine verbesserte Wirtschaftlichkeit brachte ab 1962 der Einsatz der leistungsstärkeren und verbrauchsärmeren Mantelstromtriebwerke (engl. Turbofan). Anfang der 1970er Jahre begann der Einsatz von Großraumpassagierflugzeugen wie zum Beispiel dem Boeing 747 „Jumbo-Jet“ und der McDonnell Douglas DC-10, später kamen Airbus-Baureihen dazu; größtes Passagierflugzeug ist heute der Airbus A380. Mit Beginn der 1950er Jahre begann die Entwicklung weitreichender strategischer Bomber, die auch Atombomben tragen konnten. Die bekanntesten Vertreter waren die Boeing B-52, Convair B-58, Mjassischtschew M-4, die Tupolew Tu-95 und die Avro Vulcan. Die B-58 war das erste Kampfflugzeug mit einem zentralen Bordrechner, der die zahlreichen Baugruppen zusammenfasste. 1955 rüstete die französische Firma Sud Aviation ihren Hubschrauber Alouette II mit einer 250 kW-Turboméca-Artouste-Wellenturbine aus und baute damit den ersten Hubschrauber mit Gasturbinenantrieb. Mit dem Hawker Siddeley Harrier begann die Serienherstellung senkrechtstartender VTOL-Flugzeuge ab 1966. Allerdings kamen fast alle anderen VTOL-Flugzeuge nicht über das Prototypenstadium hinaus. Die USA entwickeln zurzeit (2005) mit dem F-35 Joint Strike Fighter eine neue Generation von SVTOL/-VTOL-Flugzeugen. Mit dem Vietnamkrieg trafen erneut sowjetische und amerikanische Flugzeuge aufeinander. Dabei erwies sich die MIG 21 gegenüber der amerikanischen McDonnell F-4 Phantom II in vielen Fällen als überlegen. Die Boeing B-52 wurde zu großflächigen Bombardements eingesetzt. Der umfangreiche Einsatz von Hubschraubern, wie der CH-47 Chinook und Bell UH-1, wurde immer wichtiger. Mit dem Jungfernflug der Tupolew Tu-144 am 31. Dezember 1968 und der Concorde am 2. März 1969 begann die Episode des Überschall-Passagierluftverkehrs. Die Amerikaner hatten bei konventionellen zivilen, mit Turbinenstrahltriebwerken angetriebenen Passagierflugzeugen eine Monopolstellung erreicht. Diese wollten Engländer und Franzosen durch den Bau der Concorde durchbrechen. Der gestiegene Ölpreis (er vervielfachte sich während der Ölkrisen 1973 und 1979/80) machte die Concorde unwirtschaftlich. Der enorme Kraftstoffverbrauch galt als ökologisch bedenklich. British Airways und Air France – damals beide staatliche Fluggesellschaften – wurden von ihren Regierungen zum Kauf der Concorde genötigt. Der letzte Flug einer Concorde fand am 26. November 2003 statt. Die Lockheed F-117A Nighthawk der United States Air Force war das weltweit erste einsatzbereite Flugzeug, das sich die Tarnkappentechnik konsequent zunutze machte. Die erste F-117A wurde 1982 ausgeliefert. Während des Baus der F-117 wurde sie von den amerikanischen Ingenieuren als „hoffnungsloser“ Fall bezeichnet, da sie vermuteten, dass das Flugzeug aufgrund seiner Form nie in der Lage sein würde zu fliegen. Bevor sie einen offiziellen Namen bekamen, nannten die Ingenieure und Testpiloten die unkonventionellen Flugzeuge, die während des Tages versteckt wurden, um Entdeckung durch sowjetische Satelliten zu verhindern, „Cockroaches“ (Kakerlaken). Diese Bezeichnung wird noch immer häufig benutzt, weil diese Flugzeuge nach Meinung vieler zu den hässlichsten gehören, die bislang gebaut wurden. Das Flugzeug wird auch „Wobblin Goblin“ genannt, speziell wegen ihrer unruhigen Flugeigenschaften bei Luftbetankungen. Es lässt sich auf Grund seiner instabilen aerodynamischen Eigenschaften nur mit Computerunterstützung fliegen. Mit dem Raketenflugzeug SpaceShipOne gelang am 21. Juni 2004 der erste privat finanzierte suborbitale Raumflug über 100 km Höhe. Die Maschine wurde von der Firma Scaled Composites im Rahmen des Projekts Tier One entwickelt, um den Wettbewerb Ansari X-Prize der "X-Prize Foundation" für sich entscheiden zu können. Dieser stellte zehn Millionen Dollar für denjenigen in Aussicht, der als Erster mit einem Fluggerät neben dem Piloten zwei Personen oder entsprechenden Ballast in eine Höhe von mehr als 100 Kilometer befördert und dies mit demselben Fluggerät innerhalb von 14 Tagen wiederholt. Laufende Forschung und Zukunft. Um der Thematik der notwendigen Treibstoffeinsparung zu begegnen, wird häufig der mögliche Einsatz von Nurflüglern diskutiert. Damit soll auch die Lärmbelastung gesenkt werden. Ein realistischer Forschungsschwerpunkt ist der erweiterte Einsatz von Leichtbauwerkstoffen wie CFK und bedingt GLARE. Auch werden neue Triebwerke mit Wärmerückgewinnung über Wärmeübertrager entwickelt. Die Nutzung aerodynamischer Erkenntnisse bei z. B. den Winglets oder den Gurney Flaps werden untersucht. Im militärischen Bereich setzen sich immer mehr die Drohnen durch und mit der Boeing AL-1 werden ganz neue Waffensysteme auf Laser-Basis erprobt. Neuste Forschungen aus dem April 2009 der Universität Genua zeigen, dass Federn geeignet sind, den Luftwiderstand von Flugzeugen deutlich zu senken. Flugzeuge könnten mit Federn deutlich effizienter betrieben werden. Bedeutsam sind dabei die Deckfedern und ihre Rolle bei der Aerodynamik. Obwohl die Deckfedern scheinbar keine Nutzen haben, konnte Alessandro Bottaro als Leiter der Untersuchungen feststellen, dass beim Gleiten der Vögel einige der Federn im besonderen Winkeln vom Flügel abstehen und den Luftstrom in Schwingungen versetzen. Um die Auswirkungen zu untersuchen, hatten die Forscher ein zylindrisches Objekt (20 cm Durchmesser) mit synthetischen Deckfedern versehen und im Windkanal getestet. Ergebnis war eine Reduzierung des Luftwiderstandes um 15 %. Als ähnliches Beispiel verweisen die Forscher darauf, dass ein neuer Tennisball ebenfalls schneller fliegt als ein abgenutzter Tennisball. Größe. Antonow An-225 – längstes Flugzeug der Welt Als größtes Flugzeug der Welt gilt das Frachtflugzeug Antonow An-225 „Mrija“. Es hat die größte Länge, das höchste Startgewicht und den größten Schub aller Flugzeuge. Der Airbus A380 ist aufgrund seiner Kapazität das größte Passagierflugzeug der Welt (max. 853 Passagiere). Dennoch ist er nicht das längste Passagierflugzeug: Die Boeing 747-8 ist mit 76,30 m das längste Passagierflugzeug der Welt. Die größte Spannweite und Höhe hatte das in den 1940er Jahren entworfene Flugboot Hughes H-4, das jedoch nie in Serie gebaut wurde. Das leistungsfähigste Triebwerk hat die zweistrahlige Boeing 777-300 mit 512 kN Schub. Die größte Reichweite ist nur schwer festlegbar, da sie bei jedem Flugzeug durch zusätzliche Tanks (im Extremfall bis zum maximalen Startgewicht) erhöht werden kann. Das Flugzeug mit der größten serienmäßigen Reichweite ist die Boeing 777-200LR mit 17.446 km. Die größte jemals ohne nachzutanken erzielte Reichweite gehört der Voyager mit 42.212 km. Fantasy. Fantasy (von engl. "fantasy" „Phantasie“) ist ein Genre der Phantastik, dessen Wurzeln sich in der Mythologie und den Sagen finden. Ähnlich wie die benachbarten Genres Science-Fiction und Horror, findet Fantasy ihre wichtigsten Ausprägungen in Literatur und Film, außerdem aber auch in Musik und bildender Kunst sowie im Bereich der Gesellschaftsspiele, Computerspiele sowie Pen-&-Paper- und Live-Rollenspiele. Der Drache, ein Archetyp der Fantasy Definition. Als modernes Subgenre der Phantastik stellt die Fantasy übernatürliche, märchenhafte und magische Elemente in den Vordergrund. Oft bedient sie sich der Motive alter Mythen, Volksmärchen oder Sagen. So tauchen Sagengestalten wie Zwerge oder Zauberer auf, aber auch eigens erfundene Wesen oder anthropomorphe (menschenartige) Tiere. Häufig wird die Handlung in eine fiktive Welt verlegt, die sich deutlich von der irdischen Realität unterscheidet. Das Fiktionale gilt innerhalb des imaginären Hintergrundes als real. Welt. Als Hintergrund der Fantasyerzählung dient für gewöhnlich eine fiktive Welt, die sich in ihren Gesellschaftsstrukturen jedoch meist an historischen Epochen orientiert. Besonders beliebt ist dabei das europäische Mittelalter, auch Eisenzeit und Renaissance können als Vorlage dienen. Technisch wie kulturell befindet sich die phantastische Welt deshalb fast immer auf einem Stand, der nach heutigen Maßstäben rückständig bis archaisch wirkt. Gelegentlich wird dies zu einem Dualismus erweitert, in dem sich eine dekadente Zivilisation und eine edle, aber barbarische Kultur gegenüberstehen. Die "politische Ordnung" einer Fantasywelt gleicht meist dem Feudalismus. Hierbei handelt es sich nicht zufällig um einen Personenverbandsstaat, in dem die besonderen Beziehungen zwischen Individuen den gesellschaftlichen Zusammenhalt bewirken. Dies grenzt sich vom modernen Staatsverständnis ab, nach dem die Bürger unmittelbar Akteure des Staates sind. Die positive Errungenschaft des modernen Staatswesens, nämlich relative Gleichheit, wird in der Fantasy-Literatur selten zur Kenntnis genommen oder thematisiert. Dies rückt Fantasy in ihrer Erzählhaltung oft in die Nähe des Historienromans. Die "Religionen" der Fantasywelt sind teilweise polytheistisch, teilweise monotheistisch geprägt, wobei sich oft konkurrierende Religionsgemeinschaften gegenüberstehen. Religion wird dabei häufig nicht nur mythisch, sondern auch magisch (nach Jean Piaget) aufgefasst: Einzelne Menschen sind in der Lage, in die physikalischen Gesetze der Welt einzugreifen. Entweder geschieht dies durch magische Kräfte (Zauberer) oder mit göttlicher Hilfe (Priester). Auch gewöhnliche Individuen sind in diese höhere Ordnung eingebunden. Die klassische Fantasy-Welt weist somit eine Einheit von Politik und Religion auf, was einer idealisierten Form der mittelalterlichen Ordnung entspricht. Die "Kulturen" einer Fantasywelt sind zumeist an irdische Völker angelehnt, wobei antike, mittelalterliche und neuzeitliche Elemente bunt gemischt werden. Auffällig ist, dass die Völker zumeist idealisierte Gemeinschaften darstellen, die sich hinter herausragenden Persönlichkeiten wie Königen, Feldherren oder Stammesführern sammeln. Konflikte zwischen gesellschaftlichen Gruppen werden zumeist vernachlässigt, stark vereinfacht oder zwischen Individuen ausgetragen. Dies erinnert mitunter an die historistische Geschichtsschreibung und ihre Deutungsmuster. Rassen und Völker. In der Regel wird die Fantasy-Welt von Menschen bewohnt. Darüber hinaus können aber weitere Völker existieren, von denen viele werkübergreifend auftreten. Besonders beliebt sind die von J. R. R. Tolkien definierten Fantasyvölker Zwerge, Elben und Orks, die unter dem Terminus „Rassen“ auftauchen. Sie orientieren sich an Vorbildern aus Feen-, Elfen-, Drachen- und Koboldsagen, weisen aber stereotype Züge und Eigenheiten auf, die erst durch die Fantasy definiert wurden: Zwerge sind ein kleinwüchsiges Volk, leben unter der Erde, tragen einen Vollbart, sind meisterhafte Axt- und Streithammerkämpfer, Schmiede und Zecher. Elben sind unsterbliche oder zumindest langlebige Wesen, die mal als naturverbundenes Waldvolk, mal als kulturschaffende Hochzivilisation den Menschen moralisch und kulturell überlegen sind. Orks sind hässliche, aggressive Wesen, die auf Krieg und Plünderung aus sind. Goblins sind kleine, gewitzte Kobolde, die feige, aber zahlreich sind. Des Weiteren tauchen Untote wie belebte Skelette, Zombies und Vampire, Tiermenschen wie Zentauren, Minotauren, Satyre, Echsen- und Insektenwesen und Halblinge in vielen Romanen auf. Im Fantasy-Jargon wird der Terminus „Rasse“ sehr viel unbefangener gebraucht, als dies sonst der Fall ist. Dies liegt zum einen daran, dass es sich um eine direkte Übertragung aus dem Englischen handelt. Zum anderen besteht nach biologischer Definition oft ein auf Rasse basierendes Verwandtschaftsverhältnis zwischen den einzelnen Völkern, da sie auch miteinander fertile Nachkommen hervorbringen können. So treten gelegentlich Halbelben als Abkömmlinge von Mensch und Elb auf. Die Darstellung der Rassen und Völker weist oft rassistische und biologistische Tendenzen auf. So werden die Orks meistens als böse, verschlagen und degeneriert dargestellt, wobei ihnen ihre Aggressivität und Mordlust angeboren ist. Andere Rassen werden zwar weniger negativ, aber keineswegs differenzierter präsentiert. Neuere Werke der Fantasy haben diese Tendenz zumindest teilweise abgeschwächt oder zeichnen die „Rassen“ unter umgekehrten Vorzeichen. Motive und Erzählstrukturen. Die Fantasy greift oft auf erprobte Motive der Abenteuerliteratur zurück: Schwertkämpfe und Monsterbegegnungen, Reisen zu exotischen Orten, epochale Schlachten, Hofintrigen und der Kampf gegen einen mächtigen Gegner, der eindeutig dem Bösen zugerechnet werden kann. Als klassische Erzählstruktur dient die Quest, wobei inzwischen auch Einflüsse durch Filme, Computer- und Rollenspiele erkennbar sind. Der Handlungsbogen ist zumeist episch angelegt und bezieht die ganze Welt in die Ereignisse mit ein. Oft sind Einflüsse des Bildungsromans, Entwicklungsromans oder Internatsromans spürbar, wenn die Hauptfigur zunächst eine Ausbildung als Zauberer, Krieger oder Adeliger durchlaufen muss, ehe die eigentliche Handlung einsetzt. Wie jedes Genre hat auch die Fantasy ihre eigenen Stereotypen und Klischees entwickelt. Insbesondere die Spielindustrie hat das Genre durch Spiele wie "Dungeons and Dragons", "Warhammer", ' oder, insbesondere im deutschen Sprachraum, "Das Schwarze Auge" stark formalisiert. Handlungselemente werden immer wieder verwendet, um Lesern den Einstieg zu erleichtern und ihnen das zu liefern, was sich bewährt hat. Wurzeln. Fantasy schöpft ihre Motive und Erzählstrukturen aus der uralten Literaturform der Sagen und Heldenepen, in denen frühere Kulturen die Geschichten ihrer Götter, Halbgötter und Helden festhielten, etwa Homers Ilias, dem Nibelungenlied oder dem Sagenkreis um König Artus. Oft greift moderne Fantasy diese Sagen direkt auf, erzählt sie nach oder adaptiert ihre Handlung. In der zweiten Hälfte des 18. Jahrhunderts begann die mitteleuropäische Begeisterung für vorzeitliche Epik und schlug sich etwa in den Gesängen des fiktiven Barden Ossian nieder. Entwicklung der Phantastik im 19. Jahrhundert. Die Frühromantik war geprägt von einer philosophisch motivierten Begeisterung für übersinnliche Welten: Es entstanden Volksmärchensammlungen, Kunstmärchen und Bildungsromane mit phantastischen Komponenten, oft in mittelalterlichen Settings, die auch für die "High Fantasy" überaus typisch sind. Autoren wie Novalis ("Heinrich von Ofterdingen"), Ludwig Tieck ("Die Elfen") und Friedrich de la Motte-Fouqué ("Undine") nahmen strukturell und inhaltlich wesentliche Elemente der Fantasy-Literatur vorweg. Besonders zu betonen ist die Vermischung der literarischen Gattungen - eine zentrale Forderung der romantischen Universalpoesie. So ist etwa Novalis' Romanfragment "Heinrich von Ofterdingen" mit Gedichten und Märchen verschiedener Art durchsetzt, was später im Werk von "J. R. R. Tolkien" eine ebenso zentrale Rolle einnehmen sollte. In der Spätromantik begannen Autoren wie E. T. A. Hoffmann oder Edgar Allan Poe verstärkt damit, übernatürliche Elemente in ihre Romane und Erzählungen einzubinden. Diese neue Literaturrichtung der Phantastik erwies sich auf dem entstehenden Buchmarkt als verkaufsträchtig, wobei vor allem Schauer- und Abenteuerromane wie die Werke Sir Walter Scotts erfolgreich waren. Bedeutend ist auch der Dichter und Komponist Richard Wagner, der mit seinen monumentalen, auf nordischer Mythologie beruhenden Bühnendramen ("Der Ring des Nibelungen") die Fantasy maßgeblich beeinflusste. Auch die Anfänge der Science-Fiction, die bis heute in einer engen thematischen, wenn auch nicht inhaltlichen Nähe zur Fantasy steht, finden sich in dieser Zeit. So wäre die heutige Fantasy undenkbar ohne die Vorarbeit von Jules Verne, Erckmann-Chatrian, Herbert George Wells, Lord Dunsany, Mary Shelley ("Frankenstein"), Bram Stoker ("Dracula"), Robert Louis Stevenson ("Der seltsame Fall des Dr. Jekyll und Mr. Hyde"), George MacDonald "(Tagjunge und Nachtmädchen)", Mark Twain ("Ein Yankee am Hofe des König Artus") und Oscar Wilde ("Das Bildnis des Dorian Gray"). Entstehung im 20. Jahrhundert. Als eigenes Literaturgenre entstand die Fantasy im 20. Jahrhundert. Als ihr Begründer wird oft J. R. R. Tolkien ("Der Herr der Ringe") genannt, der mit seinen Werken vor allem in den späten 1960er-Jahren einen regelrechten Boom auslöste und von vielen Autoren als Vorbild angeführt wird. Als weitere „Ahnherren“ der Fantasy gelten E. R. Eddison ("Der Wurm Ouroboros"), Fritz Leiber ("Fafhrd und der Graue Mausling"), C. S. Lewis ("Die Chroniken von Narnia") und der amerikanische Pulp-Autor Robert E. Howard, dessen Geschichten über Conan den Barbaren ebenso umstritten wie berühmt sind. Nach dem ersten Tolkien-Boom der 1960er-Jahre prägten zahlreiche weitere Autoren das Genre, oft in Anlehnung an Tolkien, etwa Marion Zimmer Bradley und Stephen R. Donaldson in den 1970er-Jahren, Terry Brooks und Raymond Feist in den 1980er-Jahren. Die Entstehung des Fantasy-Rollenspiels in den 1970er-Jahren wurde maßgeblich von der Fantasyliteratur beeinflusst, wodurch umgekehrt auch das Interesse an den geschriebenen Werken zunahm. In den 1980er- und 1990er-Jahren entwickelten sich parallel zu der klassischen High Fantasy, die von Autoren wie Tad Williams, Robert Jordan und Robin Hobb weitergetragen wurde, neue Subgenres wie die Urban Fantasy oder die Humoristische Fantasy. Entwicklung im 21. Jahrhundert. Zu Beginn des neuen Jahrhunderts erlebte die Fantasy sowohl in der Literatur, als auch im Film einen neuen Aufschwung. Als Auslöser gelten insbesondere der Erfolg der "Harry Potter"-Bücher und -Filme, sowie die "Herr-der-Ringe"-Verfilmungen. Die Neuverfilmungen der "Chroniken von Narnia" oder die Buchreihen "Percy Jackson" und "Eragon" trugen ebenfalls zu der Fantasywelle der 2000er Jahre bei, die zum Teil bis heute anhält. Auch Subgenres wurden populär, beispielsweise die "Romantic Fantasy" durch die "Bis(s)"-Reihe. In der zurzeit vorherrschenden High Fantasy zeichnet sich eine Entwicklung zu einer vielschichtigeren Behandlung der Fantasy-Motive ab, etwa durch Verzicht auf Genrekonventionen. Als Wegbereiter dieser modernen High Fantasy gelten George R. R. Martin, Steven Erikson und J. V. Jones. Überschneidungen mit anderen Genres. In der Fantasy finden sich viele Motive aus anderen Subgenres der Phantastik, etwa der Science-Fiction- und Horrorliteratur. Viele Autoren und Verlage sind zugleich in mehreren Genres aktiv, so dass es zu einer personellen wie inhaltlichen Überschneidung kommt und eine klare Abgrenzung schwierig ist. Hybridformen wie "Star Wars", das eine Science-Fiction-Kulisse mit Fantasymotiven anreichert, oder der Cthulhu-Mythos, in dem Science-Fiction, Horror und Fantasy zusammenfließen, sind keine Seltenheit. Literarische Wertung. Fantasy wird oft als reine Unterhaltungs- und Trivialliteratur betrachtet, da Fantasyliteratur in ihrer Entstehungszeit zumeist in Pulp-Magazinen erschien und sich an ein entsprechendes Publikum richtete. Nach den kulturellen Wertungskategorien „Hoch-“ und „Popkultur“ wird Fantasy für gewöhnlich der Popkultur zugeordnet. Das Verschwimmen der Grenzen zwischen "unterhaltender" und "ernster" Literatur macht jedoch auch vor der Fantasy nicht halt. Fantasymotive finden sich in zeitgenössischen Romanen und Filmen wieder und auch die Literaturwissenschaft nimmt sich verstärkt der Fantasy an. Vermarktung und Seriencharakter. Trotz der zunehmenden Akzeptanz wird die Fantasy in der Regel weiterhin als Genreliteratur vermarktet. Covergestaltung, Werbung und Publikationsform (Taschenbuch) richten sich nach dem vermeintlichen oder tatsächlichen Geschmack der Fantasy-Leser, deren Interesse durch die Publikation von Serien aufrechterhalten werden soll. Dabei kommt es zwangsläufig zu einer Wiederholung genretypischer Elemente, die eine Weiterentwicklung des Genres erschwert. So können immer wieder inhaltlich relativ belanglose Werke allein durch die Verwendung klassischer Themen einen kommerziellen Erfolg erringen, während es anspruchsvollere oder ungewöhnliche Romane deutlich schwerer haben, sich durchzusetzen. Eskapismus. Der Fantasy wird ein Hang zum Eskapismus unterstellt, weil sie meist eine mittelalterlich geprägte, vereinfachend strukturierte Gesellschaft darstellt und somit die gesellschaftlichen, politischen oder kulturellen Realitäten und Probleme unserer Zeit ausblendet oder verdrängt. Dieser Vorwurf trifft auf viele Werke zu, verschweigt aber, dass bereits die frühe Fantasyliteratur ihren fiktiven Hintergrund dazu genutzt hat, philosophische Fragen zu erörtern oder gesellschaftliche Probleme aufzuzeigen, etwa die König-Artus-Buchreihe von T. H. White. Auch zeitgenössische Fantasy greift immer wieder aktuelle Fragestellungen (Krieg, Nationalismus, religiöser Extremismus) auf. J. R. R. Tolkien bezeichnet in seinem Aufsatz "On Fairy Stories" von 1937 den Eskapismus als integralen Bestandteil der Fantasy. Danach bestehen die Funktionen einer Fantasygeschichte immer auch darin, erstens die Phantasie zu wecken („Fantasy“), zweitens den Lesern Wiederherstellung zu ermöglichen („Recovery“), drittens Fluchtmöglichkeiten („Escape“) und viertens Trost („Consolation“) zu gewähren. Während die Phantasie gewissermaßen die Eintrittskarte in die phantastischen Welten ist, versteht Tolkien die Wiederherstellung als ein „Wiedererlangen eines klaren Blicks“ und die Einnahme einer neuen Perspektive. Beim Begriff der Flucht unterscheidet Tolkien zwischen zwei Varianten, die er als die Flucht des Deserteurs und die Flucht des Gefangenen charakterisiert. Ersterer ist einfach ein Feigling, der weglaufen will. Gefangenen aber könne man den Willen zur Flucht nicht übelnehmen. Ihre Flucht ist mehr Widerstand als bloßes Weglaufen. Somit versteht Tolkien die Fluchtmöglichkeit, die das Genre Fantasy bietet, als Möglichkeit zur Erfüllung von Sehnsüchten und Befriedigungen, die die reale Welt nicht bieten kann. Für ihn ist eine der wichtigen Funktionen von Fantasy die Rückkehr zu dem im Mythos und im mythischen Denken verankerten Zustand der Verzauberung. Rassismus, Sexismus und Konservatismus. Ein weiterer Vorwurf an die Fantasy ist die als reaktionär empfundene, vereinfachende Weltsicht vieler Romane, die den Obrigkeitsgedanken gegenüber feudalen Strukturen, eine konservative Ausgestaltung der Geschlechterrollen und die Überbetonung der Unterschiede zwischen Völkern bzw. „Rassen“ enthält. Obwohl sich diese pauschale Kritik durch zahllose Gegenbeispiele widerlegen lässt, kann man eine gewisse Ambivalenz der Fantasy in diesen Spannungsfeldern nicht leugnen, was vor allem auf die Pulp-Vergangenheit des Genres zurückzuführen ist. Moderne und teilweise alte Fantasy blendet diese Fragen nicht aus, sondern behandelt sie im Gegenteil zumeist sehr komplex. Film. Auch das Kino und das Fernsehen hat sich bereits des Öfteren dem Genre zugewandt, wenn auch vergleichsweise seltener als dem der Science Fiction. Abgesehen von den frühen Märchenfilmen, einigen Fantasy-Filmen Walt Disneys wie etwa "Das Geheimnis der verwunschenen Höhle" (1959) und einer ersten Zeichentrickversion des gleichnamigen Kult-Romans "Der Herr der Ringe" (USA, 1978) wurde echter Fantasystoff erst ab den 1980er-Jahren aufgegriffen. Damals entstanden Filmklassiker wie "Excalibur" (USA/GB, 1981), "Kampf der Titanen" (GB, 1981), "Der Drachentöter" (USA, 1981), "Der dunkle Kristall" (USA/GB, 1982), "Legende" (GB, 1985) und "Die Reise ins Labyrinth" (GB/USA, 1986). Auffallend ist, dass keiner der erfolgreichen Fantasy-Romane verfilmt wurde; "Der Herr der Ringe" galt nach dem an der Kinokasse erfolglosen Bakshi-Film als zu schwieriger Stoff, andere Romane offenbar als zu schlechte Vorlage. Einzige Ausnahme blieb eine Verfilmung des Romans "Die unendliche Geschichte" (D/USA, 1984) von Michael Ende. Mit dem Film "Willow" (USA, 1988) versuchte Produzent George Lucas seinen Science-Fiction-Erfolg mit "Star Wars" (USA, 1977) auch im Fantasybereich zu wiederholen, was ihm allerdings verwehrt blieb. Auch in den 1990er-Jahren blieben echte Fantasy-Filme selten; größeren Erfolg hatte "Dragonheart" (USA, 1996). Stattdessen entdeckte das Fernsehen das Genre für sich und kreierte mehrere Fantasy-Serien, etwa "Robin Hood" (GB, 1984–1986), "Hercules" (USA/NZ, 1995–1999), "Xena" (USA/NZ, 1995–2001) und "Charmed – Zauberhafte Hexen" (USA, 1998–2006). In den 2000er-Jahren wagte sich schließlich Regisseur Peter Jackson an die Verfilmung (NZ/USA, 2001) von "Der Herr der Ringe" und erntete mit der Filmtrilogie einen großen Erfolg an den Kinokassen. Zusammen mit den ebenfalls erfolgreichen "Harry-Potter"-Verfilmungen schuf er damit eine Basis für weitere Verfilmungspläne. So haben auch Cornelia Funkes "Tintenherz" und die "Narnia"-Reihe von C. S. Lewis den Weg auf die Leinwand gefunden. Brett- und Rollenspiele. Fantasy diente früh als Hintergrund für zahlreiche Brettspiele, Spielbücher und vor allem Rollenspiele (Pen-&-Paper-Rollenspiele und Live-Rollenspiele). Gerade im Zuge der Rollenspielwelle – ausgelöst vom Marktführer "Dungeons and Dragons" ("D&D") in den 1980er- und 1990er-Jahren – ergaben sich Wechselwirkungen mit der Fantasyliteratur; einige Autoren fanden über das Rollenspiel zur Fantasy-Literatur und umgekehrt. Zudem wurden einige Rollenspiele literarisch verarbeitet, so dass etwa die "Drachenlanze"-Romane von Margaret Weis und Tracy Hickman oder die "Forgotten-Realms"-Reihe von R. A. Salvatore entstanden. Besondere Bedeutung erlangten die Fantasy-Spielbücher, die als Vorläufer des Textadventures angesehen werden; bekannt wurden unter anderem "Der einsame Wolf" von Joe Dever und die "Fighting-Fantasy"-Reihe von Steve Jackson. In den späten 1990er-Jahren drang die Fantasy-Thematik in andere Spielbereiche vor. Vor allem das Sammelkartenspiel ' feierte Erfolge, zog einige Spieler vom klassischen Rollenspiel ab und eröffnete gleichzeitig anderen Personen, die bisher keinen Zugang zur Fantasy hatten, dieses Genre. Nach der neuen Fantasy-Welle im Zuge der Tolkien-Verfilmung in den 2000er-Jahren wurden Live-Rollenspiele und das klassische Pen-&-Paper-Rollenspiel gesellschaftsfähiger, allerdings ist der Absatz der Rollenspielverlage seit Jahren rückläufig. Videospiele. Im Bereich des Videospiels wurden von jeher Fantasy-Motive verwendet, wie überhaupt alle fantastischen Genres Eingang in die Computerspielkultur gefunden haben. Vom frühen Textadventure wie etwa "Guild of Thieves" von der Firma Magnetic Scrolls bis hin zu frühen Rollenspielumsetzungen wie "Ultima" von der Firma Origin wurden immer wieder Fantasystoffe aufgegriffen. Mit der computerspieltypischen Quest entstand eine archetypische Erzählstruktur, die später wiederum in die Fantasy-Literatur zurückfand. In den 1980er-Jahren entstanden mehrere berühmte Fantasy-Computerspiele, etwa "The Legend of Zelda", "Final Fantasy", "Phantasy Star", "Dungeon Master", das bereits erwähnte "Ultima" oder "The Bard’s Tale", die teilweise bis heute fortgesetzt werden. In den 1990er-Jahren gelangten vor allem die Umsetzungen der "D&D"-Rollenspiele (etwa "Champions of Krynn" oder "Eye of the Beholder"), die Fantasy-Parodie "Simon the Sorcerer", das Rollenspiel "Lands of Lore", das Adventure "Erben der Erde" oder die "Nordland-Trilogie" sowie das Strategiespiel "Dungeon Keeper" größere Bekanntheit. In den 2000er-Jahren ermöglichten eine immer ausgefeiltere Grafik und höhere Rechenleistung der Computer immer detailliertere Welten, so dass heutige Computerspiele einen unglaublichen Umfang erreichen. Als Meilensteine gelten hier die Spiele "Diablo" und "Dungeon Siege", das Strategiespiel "Warcraft" und die Rollenspiele " World of Warcraft", "Baldur’s Gate", "Neverwinter Nights", "Gothic", "The Elder Scrolls", "Sacred", "Dark Age of Camelot" und "Fable". Die Verfilmungen des "Herrn der Ringe" und der "Harry-Potter"-Reihe führten ebenfalls zu Umsetzungen im Computerspielbereich, wie überhaupt eine immer engere Verzahnung von Literatur, Kino und Computerspiel zu beobachten ist. So wurde das Fantasy-Spiel "Dungeon Siege" von Regisseur Uwe Boll 2007 filmisch als "Schwerter des Königs – Dungeon Siege" umgesetzt. Musik. Mit Filk existiert eine eigene Musikrichtung und -kultur, deren Lieder Geschichten aus und über Fantasy- und Science-Fiction-Literatur und -Medien erzählen. Des Weiteren findet sich Fantasy im Progressive Rock und besonders im Heavy Metal wieder. Obschon der Begriff "Fantasy Metal" existiert, wird dieser selten verwendet, da sich Themen aus der Fantasy in so gut wie allen Metal-Stilen finden lassen, besonders im Power- und im Epic Metal. Sehr beliebt sind bei Metal-Alben auch Plattencover mit Fantasy-Motiven. Diese werden häufig sogar bei Alben und Bands verwendet, welche sich sonst nicht mit Fantasythemen beschäftigen. Als Bands mit einem teilweise starken Folk-Einschlag sind vor allem Summoning, Ensiferum, Blind Guardian, Rhapsody of Fire und Manowar zu nennen. Auch Symphonic Metal Bands wie Nightwish oder Within Temptation sowie Xandria oder die Sängerin Tarja verwenden in ihren Songs Fantasyelemente. Malerei. Die moderne Fantasy-Malerei hat im westlichen Kulturkreis ihre Vorläufer in den antiken und mittelalterlichen Bestiarien und im Werk von Hieronymus Bosch (1460–1516). Viele von ihm dargestellte Bildthemen - wie variierte menschliche Darstellungen in Verbindung mit Fauna und Flora, belebte Objekte und spielerische Formgebungen - kehrten thematisch in der Fantasy-Kunst des späten 20. Jahrhunderts wieder. Es gibt Monster und unmögliche Strukturen, bizarre Landschaften sowie ein beim Betrachter hervorgerufenes Gefühl des Unwirklichen, das häufig auf Stilelemente des Surrealismus und des Magischen Realismus zurückgreift. Der Maler Johann Heinrich Füssli und sein Nachfolger William Blake wandten sich im 18. Jahrhundert in revolutionärer Weise phantastischen, mythologischen und grotesken Themen zu, und sind bis heute für Fantasy- und Gothic-Malerei inspirierend. Eine erste große Blüte erlebte diese Art der Malerei in der Viktorianischen Epoche, als eine große Anzahl fiktiver Erzählungen, oft in Form des seit der Romantik beliebten Ritterromans, einer Wiederbelebung des mittelalterlichen höfischen Romans, kombiniert mit fortschrittlicheren Mal- und Drucktechniken zu einer Welle illustrierter Bücher für die Bevölkerung englischsprachiger Länder führte. Bedeutende Fantasy-Maler sind Luis Royo, Frank Frazetta, Boris Vallejo, Roger Dean, Patrick Woodroffe, Alan Lee, John Howe, Ted Nasmith, Chris Foss sowie die Gebrüder Greg und Tim Hildebrandt. Weblinks. Fantasy Liste von Fantasyautoren. Diese Liste umfasst Autoren, die vorwiegend im Bereich des Fantasygenres schreiben oder mit einzelnen Werken einen wichtigen Beitrag für das Genre geleistet haben. Zu beachten ist, dass mehrere dieser Autoren auch in anderen Genres – Horror, Science Fiction oder Historienroman – aktiv sind und die klare Festlegung eines Autors auf ein einzelnes Genre nicht möglich ist. Siehe auch. !Fantasyautoren Football (Sportart). Football ist der Oberbegriff für verschiedene Sportarten (englisch: "codes of football"), die sich aus den Frühformen des Fußballs und des Rugbys entwickelt haben. Im angelsächsischen Sprachraum steht das Wort in der Regel für eine bestimmte Sportart, meistens die lokale Variante. Im britischen Englisch wird unter „football“ Fußball verstanden. Demgegenüber steht dort Rugby mit dem getragenen ovalen Ball, welches gelegentlich unter dem Begriff "rugby football" beim Begriff "football" mit einbezogen wird. Die international unmissverständliche Bezeichnung ist "association football". Davon abgeleitet ist "soccer football" oder kurz "soccer", unter dem der Sport vor allem in Nordamerika, aber auch in Australien und Neuseeland bekannt ist. Dem steht dort der Begriff "football" für American Football bzw. Canadian Football gegenüber. International besteht jedoch die Tendenz, dass in der Alltagssprache "soccer" immer weiter durch "football" verdrängt wird. Auch änderte der australische Verband 2005 seinen Namen und 2006 folgte der neuseeländische Verband. Das Treten des Balles mit dem Fuß ist nicht in allen Football-Sportarten die vorherrschende Aktion. Eine Hypothese über die Etymologie des Wortes ist, dass „foot ball“ allgemein „zu Fuß gespielte Ballsportarten“ bedeutete (detailliertere Informationen in der englischsprachigen Wikipedia/WP), in Abgrenzung zu Sportarten, die zu Pferde ausgeführt wurden. Free Jazz. Free Jazz ist einerseits ein historischer Begriff für (harmonisch) freies Improvisationsspiel im Jazz seit den 1960er Jahren. Andererseits ist es ein bis heute ausstrahlendes Paradigma, das die Möglichkeit zur freien Entfaltung immer neuer Formen im Jazz und auch darüber hinaus (etwa in der Intuitiven Musik) bereithält. Der Begriff selbst kann zu Missverständnissen führen, da eine Freiheit in Bezug auf die herkömmlichen Spielhaltungen des Jazz nur bedingt genutzt wird und es neben einer völligen Freiheit in der Form "(Free Form Jazz)" durchaus Improvisationen gibt, die auf Kompositionen und kompositionsähnlichen Absprachen über Strukturen beruhen. Entwicklung. Der Begriff leitet sich von der gleichnamigen Schallplatte her, die Ornette Coleman 1960 mit einem Doppelquartett (mit u. a. Don Cherry, Eric Dolphy und Charlie Haden) aufnahm. Die Entwicklung des Free Jazz fand in den USA und wenig später auch in Europa statt. Unbestritten ist der wegbereitende Einfluss solcher US-amerikanischer Musiker wie John Coltrane, Eric Dolphy, Ornette Coleman, Sun Ra, Albert Ayler, Pharoah Sanders, Anthony Braxton, Roscoe Mitchell, Cecil Taylor, Alice Coltrane, Jeanne Lee, Sonny Sharrock oder Rashied Ali, die auch aus heutiger Sicht noch zu den kreativsten Vertretern des frühen freien Jazz zählen. Seit Ende der 50er Jahre experimentierten junge afroamerikanische und europäische Jazzmusiker mit unerhört neuen Klängen: mit einem Durchbruch in den Raum der freien Tonalität, mit einer Aufgabe der Funktionsharmonik bzw. dissonanten (d. h. spannungsgeladenen) Akkorden, wie sie im Jazz bis dahin nicht vorstellbar gewesen waren. Vorbereitet war diese Ausweitung des musikalischen Materials bereits seit 1941 von der Tristanoschule, aber auch von George Russell, Paul Bley, Charles Mingus, Jaki Byard, Jackie McLean und durch die kammermusikalischen Experimente eines Jimmy Giuffre. Die schockierende Wirkung dieser Musik - in den frühen 1960er Jahren auch „Jazz der Avantgarde“ oder „The New Thing“ genannt - wurde noch gesteigert durch neuartige Spieltechniken und ausgefallene Klang- und Geräuscheffekte, wie extrem hohe, schrille, „schreiende“, „pfeifende“, „quäkende“ oder „grunzende“ Töne. Hinzu kam eine Betonung der Intensität, wie sie in früheren Jazzstilen unbekannt war. Noch nie zuvor wurde in der Geschichte des Jazz auf "Powerplay" und Intensität in einem so ekstatischen Sinne Wert gelegt. „Kraft und Härte des Neuen Jazz und ein revolutionäres, zum Teil außermusikalisches Pathos wirkten um so vehementer, als sich... vieles angestaut hatte, was nun über das an Oscar Peterson und das Modern Jazz Quartet gewöhnte, bequem gewordene Jazzpublikum hereinbrach“, analysierte Joachim Ernst Berendt in seinem „Jazzbuch“. Das Publikum reagierte überwiegend ablehnend, weil es den Free Jazz als Zumutung empfand, und als Herausforderung war er von den Musikern auch gemeint, als Protest der jungen Generation gegen Rassendiskriminierung, soziale Ungerechtigkeit und überholte Konventionen. Seit Mitte der 1960er Jahre bildete sich, unabhängig von Vorläufern (Joe Harriott entwickelte bereits 1960 einen eigenständigen Zugang) ein europäischer Free Jazz heraus, an dessen Entwicklung Musiker wie z. B. Derek Bailey, Willem Breuker, Peter Brötzmann, Gunter Hampel, Peter Kowald, Joachim Kühn, Maggie Nicols, Evan Parker, Friedhelm Schönfeld, Manfred Schulze, Irène Schweizer, John Stevens oder Keith Tippett beteiligt waren. Bis heute haben sich aus dem europäischen Free Jazz der 1960er Jahre die mannigfaltigsten Spielformen herausgebildet. Einige Musiker der zweiten und dritten Generation wie z. B. Hannes Bauer, Joëlle Léandre, Thomas Lehn, oder Tony Buck stehen mit ihrer Musik mehr in der europäischen Musiktradition. Andere wie z. B. Theo Jörgensmann, Mats Gustafsson, Axel Dörner oder Christopher Dell integrieren vermehrt Jazzelemente in ihre Musik. Dieser Prozess ist noch nicht abgeschlossen und lässt interessante Entwicklungen erahnen. Stilistische Merkmale. Vorweg muss gesagt werden, dass der Free Jazz sich in und seit den 1960er Jahren weiter entwickelt hat und damit selbst sehr heterogen geworden ist. Daher ist eine einfache stilistische Typologie nur bedingt möglich. Der frühe Free Jazz orientiert sich noch an melodischen, harmonischen und rhythmischen Grundmustern der Jazztradition. Auch entspricht die Instrumentation zunächst meist noch der Besetzung der typischen Bebop-Combo. Die im Folgenden genannten Merkmale sind daher keinesfalls für alle Gruppen und Tonträger des Free Jazz zutreffend. Bei der weiteren Entwicklung des Jazz zeigt sich, dass eine Einteilung in Stilistiken oft nur schwer möglich ist und daher nur sehr selten sinnvoll ist. Insbesondere der Übergang zwischen Free Jazz und frei improvisierter Musik ist bisher kaum bestimmbar. Pharo. Faro-Partie, New Jersey um 1889 a> spielt das Pharo eine bedeutende Rolle. Pharo, Pharao, frz. Pharaon, in den USA und Kanada Faro (siehe hier) oder Faro Bank ist ein Glücksspiel mit französischen Karten. Der Name des Spiels wird so erklärt, dass einer der Könige im Kartenspiel als Pharao dargestellt wurde und diese Karte als besonders glückverheißend galt, weshalb auf sie am häufigsten gesetzt wurde – ob diese Erklärung korrekt ist, ist heute nicht mehr nachvollziehbar. Geschichte. Ein dem Pharo ähnliches Spiel ist "Landsknecht", welches zur Zeit des Dreißigjährigen Krieges aufkam und wohl als Vorläufer anzusehen ist, ebenso die Spiele "Tempeln" und das spätere "Bassette". Dieses ist bereits (nahezu) identisch mit dem Pharo, Bassette soll in Venedig erfunden und von Justiniani, dem Gesandten der Serenissima in Paris, in der zweiten Hälfte des 17. Jahrhunderts in Frankreich eingeführt worden sein. Im 18. und 19. Jahrhundert war Pharo eines der am weitesten verbreiteten Kartenspiele in Europa. Daniel Bernoulli und Leonhard Euler verfassten mathematische Arbeiten über das Pharospiel. Pharo wird auch vielfach literarisch erwähnt, z. B. in den Memoiren Giacomo Casanovas, im Roman "Die Elixiere des Teufels" und der Novelle "Spieler-Glück" von E. T. A. Hoffmann, in Michail Lermontows Drama "Maskerade" oder William Makepeace Thackerays "Die Memoiren des Junkers Barry Lyndon" – im Film "Barry Lyndon" von Stanley Kubrick ist eine Gesellschaft beim Pharo-Spiel zu sehen. Die Spielszenen in den Opern "Les Contes d'Hoffmann" von Jacques Offenbach, "Manon" von Jules Massenet und "Pique Dame" von Pjotr Iljitsch Tschaikowski nach Alexander Puschkins gleichnamiger Erzählung zeigen Personen beim Pharo – in diesen Opern wird Pharo jeweils explizit namentlich erwähnt, bei dem Spiel in Giuseppe Verdis "La traviata" dürfte es sich um eine Pharo-Variante handeln. Pharo wurde vermutlich Ende des 18. Jahrhunderts von französischen Emigranten in die Neue Welt eingeführt, der französische Name "Pharaon" wurde dabei zu "Faro" verkürzt. Im 19. Jahrhundert war Faro das beliebteste Glücksspiel im Wilden Westen, bevor es von Poker verdrängt wurde – in Giacomo Puccinis Oper "La fanciulla del West" vertreiben sich die Goldgräber ihre Zeit bei Faro und Poker. Die Stadt Faro in Yukon im Nordwesten Kanadas trägt ihren Namen nach dem Kartenspiel. Die Faro-Banken waren durch ein Schild mit dem Bild eines Tigers gekennzeichnet; daran erinnert der Ausdruck "“bucking a tiger”" (dt. einen Tiger mit Geld füttern) für Geld verschwenden. Auch wenn Pharo selbst heute kaum mehr bekannt ist, so lebt dieses Spiel in vielen Begriffen und Redewendungen fort, z. B. "Paroli bieten", "Va banque spielen", etc. Die Grundregeln. Pharo wird mit zwei Paketen französischer Spielkarten zu 52 Blatt gespielt. Die beiden spielenden Parteien sind einerseits der "Bankier", andererseits bis zu vier "Pointeure", welche gegen den Ersteren spielen. Jeder Pointeur erhält vom Bankier ein "Buch" ("Livret"), also die 13 Karten einer Farbe, z. B. ♥ A, ♥ 2..., ♥ K, als Einsatzschema. Vor Beginn der Partie legt der Bankhalter seine Kasse ("Bank") vor sich auf den Tisch und bestimmt den Mindesteinsatz, den "Point". Um zu setzen, legt der Pointeur seinen Einsatz auf die entsprechende Karte seines Buchs. Möchte ein Pointeur einen Einsatz in Höhe des in der Bank befindlichen Betrages riskieren, so annonciert er das mit den Worten "„Va banque!“" oder "„Va tout!“". Der Bankier nimmt nun das zweite Kartenpaket, den "Talon", mischt, lässt einen der Pointeure abheben und teilt den Spielern mit, welche Karte die letzte ist ("en bas", "en face" liegt). Nachdem die Pointeure nach Belieben auf eine oder mehrere ihrer Karten gesetzt haben, zieht der Bankier nacheinander je zwei Blätter vom Kartenpaket ab ("Abzug", "Coup") und legt sie nebeneinander offen vor sich auf den Tisch. Die erste Karte eines jeden Paares gilt für den Bankier, die zweite für die Pointeure, d. h. der Bankier gewinnt alle Einsätze der Spieler auf jenen Karten, die dem Range nach ohne Rücksicht auf die Farbe mit der zuerst gezogenen Karte übereinstimmen; die Pointeure erhalten einen Gewinn in der Höhe ihres Einsatzes (d.h. sie gewinnen im Verhältnis 1:1), wenn sie die zweite Karte eines Abzugs besetzt haben. Die Einsätze auf den übrigen Werten bleiben unverändert – sie dürfen allenfalls erhöht, aber keinesfalls verringert werden. Fällt eine Karte "plié", d. h. werden in einem Coup zwei gleichrangige Karten ("Doublet") gezogen, so erhält der Bankhalter die Hälfte der Einsätze auf dieser Karte. Weiters erhält der Bankhalter die Einsätze, die auf die erste Karte des letzten Abzugs, d. h. auf die 51. Karte entfallen, während die letzte Karte niemals gewinnt – sie wurde ja vor Beginn der Partie vorgezeigt. Das Abziehen aller 52 Karten durch 26 Coups heißt "Taille". Eine Karte, die mehrmals hintereinander bzw. im Laufe eines Abends besonders häufig gewinnt, wird "Carte favorite" genannt, so in "Die Elixiere des Teufels" von E.T.A Hoffmann. Lappé. "Lappé" (möglicherweise von "laper": frz. lecken), "La paix" (frz.: der Friede) oder kurz "Paix": Hat ein Spieler gewonnen und will er erneut auf dieselbe Karte setzen, so kann er auf die Auszahlung seines Gewinnes vorläufig verzichten und Lappé spielen. Gewinnt er, so erhält er als Gewinn das Doppelte des ursprünglichen Satzes; verliert er, so erhält er den ursprünglichen Satz zurück ("Double ou quitte"). Hat das Lappé gewonnen, so kann der Spieler erneut seinen Gewinn riskieren und das Lappé wiederholen ("Double lappé"): Gewinnt er erneut, so erhält er als Gewinn nun bereits das Vierfache des ursprünglichen Satzes; verliert er, so erhält er den ursprünglichen Einsatz zurück. Paroli. Hat ein Pointeur mit einer Karte gewonnen, so kann er "Paroli" spielen, d. h. auf das Inkasso des Gewinns vorläufig verzichten und diesen zusammen mit dem ursprünglichen Satz erneut aufs Spiel setzen – dies zeigt der Spieler dadurch an, dass er eine Ecke der Karte aufwärtsbiegt. Gewinnt das Paroli, so erhält der Spieler von der Bank das Dreifache des ursprünglichen Satzes. Davon leitet sich die Redensart "„jemandem Paroli bieten“" oder – heute seltener gebraucht – "„jemandem ein Paroli biegen“" ab, was soviel bedeutet wie „jemandem Widerstand entgegensetzen“ bzw. „jemandes Pläne durch unvermutete Maßnahmen zu vereiteln versuchen“. Sept et le va. Hat das "Paroli" gewonnen, so kann der Pointeur mit der Ansage "„Sept et le va!“" erneut "Paroli" bieten. Gewinnt er wieder, so erhält er das Siebenfache seines ursprünglichen Satzes. Quinze et le va. Gewinnt der Spieler das "Sept et le va", so kann er mit der Ansage "„Quinze et le va!“" nochmals "Paroli" spielen und erhält nun, falls er gewinnt, das Fünfzehnfache des ursprünglichen Satzes. Bankvorteil. Nehmen wir an, dass ein Spieler – unabhängig davon, welcher Wert "en face" liegt – zu Beginn einer Taille auf eine bestimmte Karte, etwa auf den König, setzt – und den Einsatz so lange unverändert spielen lässt, bis diese Karte zum ersten Mal erscheint (und sich sodann bis zum Ende der Taille nicht mehr weiter durch Einsätze am Spiel beteiligt). D. h., der Bankvorteil beträgt gerade 1,98 %. Diesen Wert gibt auch Leonhard Euler an; dieser Wert ist freilich nur als Richtwert zu verstehen: Der Bankvorteil ändert sich nach jedem einzelnen Abzug in Abhängigkeit davon, wie viele Karten des besetzten Wertes und wie viele Karten insgesamt noch in den verdeckten Karten des Stapels vorhanden sind. Zum Vergleich: Bei den mehrfachen Chancen des (europäischen) Roulette beträgt der Bankvorteil 2,7 %, bei den einfachen Chancen 1,35 %. Varianten. Nehmen an einer Pharopartie fünf Spieler, also ein Bankier und vier Pointeure teil, so verwendet man zwei Pakete zu 52 Blatt, und jeder Pointeur erhält wie oben beschrieben ein eigenes Buch. Nehmen mehr als vier Pointeure teil, so legt der Bankier von einem Paket die dreizehn Pique-Karten als "Tableau" (engl. "Layout") auf und verfährt mit einem 52er-Paket wie gewohnt. In dieser letzteren Form wurde das Spiel vor allem im Wilden Westen populär, das amerikanische "Faro" unterscheidet sich vom europäischen Pharo jedoch in der Art der Abwicklung und durch zusätzliche Wettmöglichkeiten (siehe Artikel Faro). "Jewish Faro" oder "Stuss" wird wie "Pharo" bzw. "Faro" mit 52 Blatt gespielt, bei einem "Split" (i.e. die englische Bezeichnung für "Carte plié") gewinnt der Bankhalter aber den vollen Einsatz und nicht bloß die Hälfte. Der Bankvorteil beträgt daher 3,96%. D.h. der Bankvorteil beträgt hier sogar 6,56 %. Finnische Sprache. Finnisch (Eigenbezeichnung "suomi" oder "suomen kieli") gehört zum ostseefinnischen Zweig der finno-ugrischen Sprachen, die eine der beiden Unterfamilien des Uralischen darstellen. Damit ist es entfernt mit dem Ungarischen und eng mit dem Estnischen verwandt. Finnisch ist neben Schwedisch eine der beiden Amtssprachen in Finnland mit etwa 4,7 Millionen Muttersprachlern (92 % der Bevölkerung). Daneben ist es eine der Amtssprachen in der EU. In Schweden, wo es von ca. 300.000 Menschen gesprochen wird, ist Finnisch als offizielle Minderheitensprache anerkannt. Außerdem gibt es kleinere finnischsprachige Minderheiten in der nordnorwegischen Region Finnmark, im russischen Teil Kareliens und in Estland. Das Finnische unterscheidet sich als finno-ugrische Sprache erheblich von den indogermanischen Sprachen, zu denen der Großteil der in Europa gesprochenen Sprachen gehört. Der jahrhundertelange Sprachkontakt hat aber etwa im Gebiet der Syntax und des Wortschatzes zu einer gewissen Annäherung des Finnischen an die umliegenden indogermanischen Sprachen geführt. Zu den Besonderheiten der finnischen Sprache gehören der agglutinierende Sprachbau, die große Anzahl (15) an Kasus, eine komplexe Morphophonologie (Vokalharmonie, Stufenwechsel), das Fehlen des grammatikalischen Geschlechts und ein konsonantenarmer Lautbestand. Sprachverwandtschaft. Das Finnische gehört zur Familie der finno-ugrischen Sprachen. Während die meisten in Europa gesprochenen Sprachen der indogermanischen Sprachfamilie angehören, zählen zu den finno-ugrischen Sprachen neben dem Finnischen nur die estnische, samische und die ungarische Sprache sowie eine Reihe von im europäischen Russland und in Nordsibirien gesprochenen Sprachen. Die Verwandtschaft zwischen den verschiedenen dieser Familie angehörigen Sprachen lässt sich vielfach vor allem über die Sprachstruktur nachweisen, während der Wortschatz zuweilen nur noch wenige Ähnlichkeiten aufweist. So sind die Urformen des Finnischen und Ungarischen schon seit vielen Jahrtausenden getrennt, und die Verwandtschaft ist nicht näher als die Beziehung verschiedener indogermanischer Sprachen wie etwa Deutsch und Persisch. Die finno-ugrischen Sprachen bilden zusammen mit der kleinen Gruppe der samojedischen Sprachen die uralische Sprachfamilie. Zusammen mit dem Estnischen, dem Ischorischen, dem Karelischen, dem Livischen, dem Võro, dem Wepsischen und dem Wotischen bildet das Finnische die Gruppe der ostseefinnischen Sprachen. Frühgeschichte. Die uralischen Sprachen werden von Sprachwissenschaftlern auf eine gemeinsame uralische Ursprache zurückgeführt, die zunächst in die samojedische und die finno-ugrische Ursprache zerfiel. Letztere spaltete sich sodann in die finno-permische und die ugrische Ursprache auf. Die finno-permische Ursprache brachte durch weiteren Zerfall die frühesten Urformen des Ostseefinnischen hervor, von welchen sich wiederum die samische Sprache abspaltete. Die Zeiträume dieser Entwicklungsvorgänge, deren Rekonstruktion in erster Linie auf der Analyse von Wortschatz und Sprachstruktur der heutigen Sprachen beruht, lassen sich nur mit großer Schwierigkeit bestimmen. Es wird jedoch angenommen, dass die Absonderung der samischen Sprache vom frühen Finnischen spätestens um 1000 v. Chr. abgeschlossen war. Das Finnische stand bereits in prähistorischer Zeit mit germanischen und baltischen Sprachen im Kontakt und übernahm aus ihnen zahlreiche Lehnwörter. Obwohl die Bewohner des heutigen Finnlands durchweg finno-ugrische Sprachen sprachen, entwickelte sich eine gemeinsame finnische Sprache erst in der Neuzeit. In der vorangegangenen Zeit spalteten sich die Bewohner Finnlands im Wesentlichen in drei Hauptstämme auf, die sprachlich wie kulturell erhebliche Unterschiede aufwiesen. Im Südwesten lebte die später als die „eigentlichen Finnen“ "(varsinaissuomalaiset)" bezeichnete Bevölkerungsgruppe. In dieser Region hatten sich germanischstämmige Zuwanderer aus Skandinavien mit der Bevölkerung vermischt und viele germanische Lehnwörter mitgebracht. Im Osten lebten die Karelier und in den Wäldern des Binnenlandes die Hämeer, die sich anfangs wahrscheinlich noch nicht stark von den Samen unterschieden. Aus einer Vermischung der letztgenannten Bevölkerungsgruppen entstand später, aber noch vor dem Mittelalter, der Savo-Dialekt. Entwicklung der Schriftsprache. "Abckiria", das älteste Werk in finnischer Sprache Die Entstehung einer einheitlichen finnischen Sprache, insbesondere der finnischen Schriftsprache, wurde begünstigt durch die Reformation. König Gustav Wasa brach 1524 die Beziehungen zur katholischen Kirche ab und ordnete die Übernahme der lutherischen Lehren an. Zu diesen gehörte, dass das Wort Gottes in der Sprache des Volkes verkündet werden müsse. In der Folge begannen die Pfarrer, die notwendigen liturgischen Texte auch schriftlich aufzuzeichnen. Die Veröffentlichung der ersten gedruckten Texte in finnischer Sprache geht auf das Werk des späteren Bischofs Mikael Agricola zurück. Der Schüler Martin Luthers begann bereits während seiner Studienzeit mit der Übersetzung religiöser Texte, insbesondere des Neuen Testaments. Das erste gedruckte finnische Buch war die spätestens 1543 veröffentlichte „Fibel“ "Abckiria", die sich in erster Linie an Geistliche richtete und einen Katechismus enthielt. Die finnische Übersetzung des Neuen Testaments erschien 1548. Agricola schuf eine Rechtschreibung auf Grundlage des Lateinischen, Deutschen und Schwedischen und legte die Grundlagen für eine finnische Schriftsprache. Er benutzte dabei in erster Linie den in der Gegend von Turku gesprochenen Dialekt, der damit auch zur Grundlage der sich entwickelnden gemeinsamen finnischen Sprache wurde. Von der Bauernsprache zur Kultursprache. Auch nach der Schaffung einer Schriftsprache blieb die schriftliche Verwendung des Finnischen über Jahrhunderte rudimentär. Ab dem 16. Jahrhundert wurden auch Gesetze teilweise auf Finnisch geschrieben, ein finnischsprachiges kulturelles Leben gab es jedoch nicht: Im zu Schweden gehörenden Finnland war Schwedisch die Sprache der Verwaltung, der Bildung und der Kultur. Erst nachdem Finnland 1809 als Großfürstentum Finnland unter die Herrschaft des russischen Zaren gekommen war, begann sich ein finnisches Nationalbewusstsein zu entwickeln. Es formierte sich eine als „Fennomanen“ bezeichnete Bewegung, die die finnische Sprache zur Kultursprache entwickeln wollte. Im frühen 19. Jahrhundert fehlten der Sprache hierfür aber noch alle Voraussetzungen. Die Grammatik war nie systematisch erfasst worden, und der Wortschatz spiegelte das Alltagsleben der bäuerlichen Landbevölkerung wider, entbehrte aber fast aller für Verwaltungs- und Kulturzwecke erforderlichen Vokabeln. Das 1835 von Elias Lönnrot veröffentlichte Nationalepos "Kalevala" bestärkte die Rolle der finnischen Sprache. Durch die Aktivitäten der Fennomanen entstand eine finnischsprachige Literatur und Presse. Viele, muttersprachlich meist schwedischsprachige Angehörige der gebildeten Oberschicht arbeiteten an einer Weiterentwicklung der finnischen Sprache. In diesem Zusammenhang wurden zahlreiche Wörter geschaffen, die in der finnischen Sprache bis dahin nicht existiert hatten. Den Idealen der finnischen Nationalbewegung folgend, wurden die neuen Wörter dieser Zeit fast ausnahmslos nicht durch Lehnwörter, sondern gänzlich neu gebildet, oft durch Abwandlungen alter finnischer Wörter. Der in der zweiten Hälfte des 19. Jahrhunderts begonnene Aufbau eines finnischsprachigen Schulwesens führte bis zur Jahrhundertwende dazu, dass sich eine gebildete finnischsprachige Bevölkerungsschicht entwickelte. Bis zum zweiten Jahrzehnt des 20. Jahrhunderts hatte sich Finnisch zu einer vollwertigen Kultursprache entwickelt, die im Wesentlichen dem heutigen Finnischen entspricht. Motiv zum Sprachstudium. Nach einer Untersuchung des finnischen Sprachförderungsinstituts CIMO an der Universität Wien im Jahre 2013 gaben 97 % der Befragten als Hauptmotiv für ihr Sprachstudium die Bewunderung von Musik aus dem Metal-Spektrum wie von Stratovarius, Lordi, Nightwish oder Children of Bodom an. Dies deckt sich weitgehend mit Beobachtungen von Lehrkräften aus den USA und aus Südamerika. Rechtschreibung und Aussprache. Bedingt durch die Entstehungsgeschichte der finnischen Schriftsprache ist das finnische Alphabet identisch mit dem des Schwedischen. Es besteht aus den 26 Buchstaben des lateinischen Alphabets, ergänzt um die Sonderzeichen å, ä und ö. Bei der alphabetischen Sortierung, z. B. in Wörterbüchern, werden die Umlaute in der genannten Reihenfolge am Ende des Alphabetes eingeordnet, nicht wie im Deutschen bei a und o. Der Buchstabe w, der insbesondere in älteren Texten oft frei mit dem gleichklingenden Buchstaben v ausgetauscht wird, wird dagegen bei der Sortierung meist nicht von letzterem unterschieden. Die Buchstaben c, q, w, x, z und å kommen in finnischen Wörtern nicht vor, treten aber zuweilen in Fremdwörtern auf. Die Buchstaben b und f kommen nur in Lehnwörtern vor. Teilweise verwendet man bei Lehnwörtern für den Laut ein S mit Hatschek (š). Es kann aber auch durch sh oder einfach s ersetzt werden (z. B. "šakki", "shakki" oder "sakki" „Schach“). Noch seltener ist die stimmhafte Entsprechung ž, die bei geographischen Bezeichnungen wie "Fidži" vorkommt. Zu den wenigen Ausnahmen in der Kongruenz von Buchstabe und Lautwert gehören die Buchstabenkombinationen nk und ng, die und gesprochen werden. Ferner wird ein vor einem p stehendes n durchgängig als m ausgesprochen (z. B. in "kunpa" gesprochen "kumpa", aber auch in "haen pallon" gesprochen "haem pallon"). Nach bestimmten Typen von Wörtern tritt bei der Aussprache eine Verdopplung des Anfangskonsonanten des nachfolgenden Wortes oder Wortteiles auf, so z. B. nach auf -e endenden Wörtern ("tervetuloa", gesprochen "tervettuloa") oder nach verneinten Verben ("en juo maitoa", gesprochen "en juom maitoa"). Beginnt das folgende Wort mit einem Vokal, tritt an die Stelle der Konsonantenverdopplung ein Glottisverschlusslaut. In der finnischen Aussprache spielt der Unterschied von langen und kurzen Lauten eine zentrale Rolle. Dieser Unterschied spiegelt sich konsequent in der Schreibweise wider, indem lange Laute durch Doppelbuchstaben dargestellt werden. Dies betrifft sowohl Vokale als auch Konsonanten ("tuli" „Feuer“; "tulli" „Zoll“; "tuuli" „Wind“). Die langen Laute sind in der Regel exakt doppelt so lang wie der einfache Laut. Dabei ist die Qualität der Vokale unabhängig von ihrer Quantität. Anders als im Deutschen wird z. B. o stets gesprochen, unabhängig davon, ob es lang oder kurz ist. Die Verlängerung der Konsonanten k, p und t geschieht in der Weise, dass der jeweilige Verschlusszustand für kurze Zeit aufrechterhalten wird. Im Finnischen wird stets die erste Silbe eines Wortes betont. Daneben liegt ab der dritten Silbe auf jeder zweiten Silbe eine Nebenbetonung, wobei die letzte Silbe unbetont bleibt. Die Länge der Vokale ist unabhängig von der Betonung. Phoneme. Daneben gibt es im Finnischen je nach Zählweise 16 bis 18 verschiedene Diphthonge, die als Phoneme gewertet werden: ai, au, ei, eu, ey, ie, iu, iy, oi, ou, ui, uo, yi, yö, äi, äy, öi und öy. Der Diphthongstatus von "ey" und "iy" ist nicht eindeutig. Generell ist zwischen Diphthongen und zweisilbigen Vokalverbindungen zu unterscheiden, wobei die Grenze nicht immer klar zu ziehen ist. So ist das "au" in "kaula" (Hals) ein Diphthong, in "kulaus" (Schluck) aber eine Vokalverbindung. Das Finnische verfügt über 14 eigenständige Konsonantenphoneme. Weitere vier Konsonanten (in der Tabelle eingeklammert) kommen nur in Lehnwörtern vor. Das Finnische ist mit nur 14 Konsonantenphonemen eine konsonantenarme Sprache. In einem finnischen Text kommen auf 100 Vokale durchschnittlich 96 Konsonanten (zum Vergleich: im Deutschen sind es 177). Es besteht kein Kontrast zwischen stimmhaften und stimmlosen Lauten. Der Laut [Stimmhafter alveolarer Plosiv] nimmt als einziger stimmhafter Plosiv eine Sonderrolle im phonologischen System des Finnischen ein. Er kommt bei echt finnischen Wörtern nur im Inlaut als schwache Stufe von [Stimmloser alveolarer Plosiv] vor. Historisch geht er auf den Frikativ [Stimmhafter dentaler Frikativ] zurück, der als "d" oder "dh" geschrieben wurde. Als der Laut nicht mehr gesprochen wurde, behielt man die Schreibung "d" bei und sprach sie, vor allem dem schwedischen Beispiel folgend, aus. Der Laut kommt in keinem finnischen Dialekt vor, dort ist der ursprüngliche Laut entweder ausgefallen oder hat sich zu [Stimmhafter alveolarer Vibrant], [Stimmhafter lateraler alveolarer Approximant] oder [Stimmhafter palataler Approximant] entwickelt. Während der Zeit der Sprachenstreite im 19. und 20. Jahrhundert gab es Bestrebungen, den Buchstaben "d" als unfinnisch aufzugeben und jeweils durch ein "t" zu ersetzen. Diese Schule hat sich jedoch letztlich nicht durchsetzen können. Bei traditionellen finnischen Wörtern können am Wortanfang keine Konsonantenverbindungen stehen. Ältere Lehnwörter wurden bei Bedarf angepasst: Bei ihnen ist nur der letzte Konsonant der Verbindung erhalten. Bei neueren Lehnwörtern bleiben die Konsonantenverbindungen erhalten. Die Aussprache fällt allerdings manchen Finnen schwer und sie sprechen auch hier nur den letzten Konsonanten. Am Wortende können nur Vokale oder die Konsonanten "-n", "-t", "-l", "-r" und "-s" stehen. Neuere Lehnwörter werden meist durch Anhängung eines "-i" gebildet (z. B. "presidentti" „Präsident“). Vokalharmonie. a> zur Veranschaulichung des Systems der finnischen Vokalharmonie Fremdwörter enthalten manchmal sowohl vordere als auch hintere Vokale. In nachlässiger Aussprache werden dann meist statt der vorderen Vokale die korrespondierenden hinteren gesprochen. Beispielsweise wird "Olympia" von manchen Sprechern wie "Olumpia" gesprochen. Stufenwechsel. Die Konsonanten "k", "p" und "t" unterliegen in der Deklination wie der Konjugation finnischer Wörter einem Stufenwechsel. Sie kommen in einer „starken“ und einer „schwachen“ Stufe vor. Die starke Stufe steht in offenen, also auf einen Vokal endenden, Silben (z. B. "katu" „die Straße“) sowie vor langen Vokalen und Diphthongen (z. B. "katuun" „in die Straße“). Sonst steht die schwache Stufe (z. B. "kadun" „der Straße“). Bei der Mehrzahl der Wörter steht die Grundform (Nominativ bei Nomina, Infinitiv bei Verben) in der starken Stufe. Manche Wörter unterliegen dem umgekehrten Stufenwechsel, bei dem die Grundform in der schwachen Stufe steht und die flektierten Formen überwiegend die starke Stufe annehmen (z. B. "tuote" „das Produkt“ – "tuotteen" „des Produktes“). Vom qualitativen Stufenwechsel sind die Einzelkonsonanten "k", "p" und "t" sowie zahlreiche Konsonantenverbindungen betroffen. Diese Art des Stufenwechsels ist nicht mehr produktiv, d. h., neuere Wörter sind nicht mehr davon betroffen (vgl. "katu" „die Straße“ – "kadun" „der Straße“, aber "auto" „das Auto“ – "auton" „des Autos“). Sprachbau. Im Gegensatz zu flektierenden Sprachen wie etwa dem Deutschen oder Lateinischen sind diese Suffixe eindeutig, d. h., ein Suffix erfüllt nur eine Funktion und eine Funktion wird in der Regel nur von einem Suffix erfüllt. Zum Beispiel wird der Inessiv Plural "taloissa" („in den Häusern“) durch Kombination des Pluralsuffixes "-i" und des Inessivsuffixes "-ssa" gebildet, während bei den lateinischen Formen "amici" („des Freundes“ oder „die Freunde“) und "amicorum" („der Freunde“) die Endungen "-i" und "-orum" jeweils gleichzeitig (und nicht immer eindeutig) Kasus und Numerus bezeichnen. Eine Ausnahme ist im Finnischen, dass der Plural im Nominativ und Akkusativ durch "-t", in den übrigen Fällen durch "-i-" gekennzeichnet wird. Auch im Bereich der Syntax werden im Finnischen Wörter synthetisch verknüpft, d. h., deutschen Nebensätzen entsprechen oft kompakte Partizipial- oder Infinitivkonstruktionen, Satzentsprechungen genannt. Beispielsweise bedeuten die vier Wörter auf dem nebenstehenden Foto: 1. (Das) Parken; 2. nur; 3. den/einen Platz; 4. für reserviert Habende – also auf gut Deutsch: „Parken nur für diejenigen, die einen Platz reserviert haben“. Allerdings hat sich das Finnische typologisch in vielerlei Hinsicht den indogermanischen Sprachen angenähert. So können die Satzentsprechungen durch konjunktionale Nebensätze ersetzt werden. Im Gegensatz etwa zum Ungarischen oder den meisten anderen agglutinierenden Sprachen nimmt im Finnischen das attributive Adjektiv die gleiche Endung an wie das dazugehörige Substantiv (vgl. ungarisch "nagy ház" „großes Haus“ – "nagy házakban" „in großen Häusern“ mit finnisch "iso talo" – "isoissa taloissa"). Auch ist die bevorzugte Satzstellung im Finnischen wie in den meisten lebenden indogermanischen Sprachen Subjekt-Verb-Objekt (SVO) und nicht Subjekt-Objekt-Verb (SOV), wie es in der Regel bei agglutinierenden Sprachen der Fall ist. Deshalb verkörpert das Finnische den agglutinierenden Sprachtypus in keiner besonders reinen Form. Nomina. Zu den Nomina gehören Substantive, Adjektive, Pronomina und Zahlwörter. Die Deklinationsendungen sind für alle Nomina gleich. Allerdings werden sie nach den Veränderungen, die der Wortstamm durchmacht, in verschiedene Typen eingeteilt. Das Finnische kennt weder unbestimmte noch bestimmte Artikel. "Talo" kann je nach Zusammenhang „das Haus“ oder „ein Haus“ bedeuten. Auch eine Genuskategorie existiert nicht. Sogar bei den Personalpronomina gibt es nur ein Wort "hän" für „er“ und „sie“. Deklinationstypen. Bei der Deklination kann der Wortstamm durch den Stufenwechsel verändert werden. Aus sprachgeschichtlichen Gründen werden diese Veränderungen nicht immer angewendet (vgl. "lasi – lasin" „Glas“ und "vuosi – vuoden" „Jahr“). Außerdem gibt es einige Adjektive, die nicht dekliniert werden. Diese Tabelle zeigt beispielhaft einige der wichtigsten Deklinationstypen. Aus diesen Stammformen können sämtliche Wortbildungen hergeleitet werden. Kasus. Im Finnischen gibt es 15 Kasus (Fälle). Die meisten von ihnen übernehmen ähnliche Funktionen wie die Präpositionen im Deutschen. Aufgeteilt werden sie in grammatikalische Kasus, die in ihrer Funktion den deutschen Kasus ähneln, Lokalkasus, die konkrete und abstrakte örtliche Relationen bezeichnen, und die marginalen Kasus, die in der heutigen Sprache nur noch selten benutzt und meist durch Post- oder Präpositionen ersetzt werden. Neben den 15 Kasus gibt es 12 weitere Adverbialkasus, die nur für eine jeweils kleine Anzahl an Wörtern benutzt werden, z. B. den Prolativ, der den Weg ausdrückt, über den eine Handlung ausgeführt wird (z. B. "postitse" auf dem Postweg, "kirjeitse" brieflich). Die Kasus werden gebildet, indem die Kasusendungen an den Wortstamm angehängt werden. Die Kasusendungen sind unabhängig vom Worttyp einheitlich. Die Endungen im Plural entsprechen prinzipiell denen im Singular, wobei zwischen Wortstamm und Endung das Pluralkennzeichen "-i-" tritt (z. B. Singular "talossa", Plural "taloissa"). Der Nominativ Plural wird durch ein angehängtes "-t" gebildet ("talot"). 1) Die Form des Akkusativs entspricht im Singular je nach syntaktischer Stellung dem Nominativ oder dem Genitiv, im Plural entspricht er dem Nominativ. 2) Diese Endungen unterliegen der Vokalharmonie, d. h. anstelle des "a" kann ein "ä" stehen. 3) Verdopplung des vorangehenden Vokals + n; endet ein Wort auf einen Doppelvokal, so wird bei einsilbigen Wörtern ("maa" Land, "puu" Baum, Holz) einer Verdreifachung des Vokals durch Einfügen eines "h" vorgebeugt: "maahan", "puuhun"; bei mehrsilbigen Wörtern wird die Silbe "-seen" angehängt: "Porvoo" (Ort in Finnland), "Porvooseen" 4) Der Komitativ verlangt bei Substantiven ein Possessivsuffix. Adjektive und Adverbien. Adjektivische Attribute stehen vor dem Wort, auf das sie sich beziehen, und kongruieren mit diesem. Der Komparativ wird mit dem Suffix "-mpi" gebildet ("iso" „groß“ – "isompi" „größer“), der Superlativ mit dem Suffix "-in" ("isoin" „der größte“). Adverbien werden mit dem Suffix "-sti" gebildet (vgl. "auto on nopea" „das Auto ist schnell“ – "auto ajaa nopeasti" „das Auto fährt schnell“). Pronomina. Bei den Personalpronomina der 3. Person wird nicht zwischen männlicher (er) und weiblicher (sie) Form unterschieden, beide lauten "hän". Personalpronomina referieren nur auf Menschen. Bei Nichtmenschen werden Demonstrativpronomina verwendet. Für die höfliche Anrede (Siezen) wird die 2. Person Plural "Te" verwendet. Das Siezen ist in Finnland aber weit weniger verbreitet als im Deutschen. Dagegen gelten neben dem Siezen auch verschiedene unpersönliche Redewendungen als höflich. So wird der Gesprächspartner bei offiziellen Anlässen oft mit dem bloßen Nachnamen (ohne Herr oder Frau) und in der 3. Person angesprochen. Gerne wird eine direkte Anrede durch die Wahl unpersönlicher Formulierungen auch ganz vermieden. Die Demonstrativpronomina können allein oder als Attribut stehen. Die Unterscheidung zwischen Menschen und Nichtmenschen in der 3. Person wird durch die Wahl zwischen den Personal- und Demonstrativpronomina gemacht. Das Fragepronomen lautet "kuka" (wer) bzw. "mikä" (was). Die Pronomina werden wie die Nomen dekliniert. Die Personalpronomina haben im Akkusativ eine besondere Endung "-t" ("minut", "sinut" etc.). Possessivsuffixe. Im Gegensatz zum Deutschen werden Besitzverhältnisse nicht allein durch Pronomina (mein, dein etc.), sondern durch an das Wortende angehängte Suffixe angezeigt. Zusätzlich zum Possessivsuffix kann der Genitiv des Personalpronomens treten. Die Possessivsuffixe der 3. Person benötigen meist ein Bezugswort. Ist das Subjekt des Satzes in der 3. Person und gehört das Objekt dem Subjekt, entfällt jedoch das Bezugswort. Beispiel: "Hän myi talonsa" (Er verkaufte sein [eigenes] Haus). 1) Diese Endung unterliegt der Vokalharmonie, d. h., anstelle des "a" kann ein "ä" stehen. 2) Verdopplung des vorangehenden Vokals + n. Diese Variante kommt bei der Deklination vor (z. B. Inessiv "hänen talossaan" „in seinem/ihrem Haus“). Die Possessivsuffixe treten auch bei Postpositionen auf, die ein Bezugswort im Genitiv verlangen. Daneben können die Possessivsuffixe in den so genannten Satzentsprechungen das Subjekt anzeigen. Zahlwörter. Die Bildung der finnischen Zahlwörter geht von den Grundzahlen eins bis zehn aus: "yksi" (1), "kaksi" (2), "kolme" (3), "neljä" (4), "viisi" (5), "kuusi" (6), "seitsemän" (7), "kahdeksan" (8), "yhdeksän" (9) und "kymmenen" (10). Ganze Zehner werden durch Anhängung von "-kymmentä" gebildet, also "kaksikymmentä" für „zwei Zehner“, also Zwanzig. Weitere Zahlen über 20 bilden sich durch einfache Anhängung der Zahl der Einer: "kaksikymmentäyksi" für Einundzwanzig. Entsprechend wird für Hunderter, Tausender usw. vorgegangen. Die Zahlen von 11 bis 19 weichen von diesem System ab und werden gebildet durch Anhängung von "-toista" an die Einerzahl, also "kaksitoista" für Zwölf. Direkt übersetzt bedeutet dies „Zwei vom Zweiten“, also die zweite Zahl des zweiten Zehnerblockes. Dieses Zahlenbildungskonzept wurde früher auch für höhere Zahlen befolgt, so dass 35 als "viisineljättä", also „Fünf vom Vierten“, gelesen wurde. Diese Ausdrucksweise ist jedoch aus der heutigen Sprache verschwunden, man findet sie nur noch in älteren Texten (z. B. bei den Kapitelangaben in der "Kalevala"). In ähnlicher Weise wird das Wort für Eineinhalb wie „die Hälfte vom Zweiten“, "puolitoista" gebildet. Die Zahlwörter ab zwei verlangen, wenn sie im Nominativ oder Akkusativ stehen, für die gezählte Sache den Partitiv Singular: "yksi auto" (ein Auto), "kaksi autoa" (zwei Autos). In anderen Fällen stehen Zahlwort und gezähltes Wort im gleichen Fall, das Substantiv aber immer im Singular: "kahdessa autossa" (in zwei Autos). Verben. Das finnische Verb hat vier Tempora (Präsens, Imperfekt, Perfekt und Plusquamperfekt), vier Modi (Indikativ, Konditional, Imperativ und Potential), mehrere Infinitive und ein Verbalsubstantiv sowie vier Partizipien. Das finnische Passiv unterscheidet sich vom deutschen Passiv und ist eine unpersönliche Form. Konjugationstypen. Bei der Konjugation kann der Wortstamm durch den Stufenwechsel verändert werden. Aus sprachgeschichtlichen Gründen werden diese Veränderungen nicht immer angewendet. Diese Tabelle zeigt beispielhaft einige der wichtigsten Konjugationstypen. Kennzeichnend sind jeweils Infinitiv "(sprechen)" / 1. Person Präsens "(ich spreche)" / 3. Person Imperfekt "(er sprach)" / Partizip "(gesprochen)" / Impersonal Imperfekt "(man sprach)". Aus diesen Stammformen können sämtliche Wortbildungen hergeleitet werden. Konjugation. 1) Verdopplung des vorangehenden Vokals tritt nur bei Kurzvokal ein, nicht jedoch bei Langvokal oder Diphthong. 2) Diese Endung unterliegt der Vokalharmonie, d. h., statt des "a" kann ein "ä" stehen. Die Personalpronomina der ersten und zweiten Person können weggelassen werden, da die Person bereits durch die Personalendung eindeutig bestimmt ist. Tempora. Das Präsens bezeichnet gegenwärtige oder zukünftige Handlungen. Das Imperfekt (auch Präteritum) bezeichnet die abgeschlossene Vergangenheit. Es wird regelmäßig mit dem Tempuszeichen "-i-" gebildet. Die Endungen sind dieselben wie im Präsens. Das Perfekt bezeichnet eine Handlung, die in der Vergangenheit stattgefunden oder angefangen hat, aber noch weiterwirkt oder für die Gegenwart von Bedeutung ist. Es entspricht weitgehend dem englischen "Present Perfect". Das Plusquamperfekt bezieht sich auf eine Handlung, die vor einem Vergleichszeitpunkt in der Vergangenheit stattfand. Perfekt und Plusquamperfekt werden mit dem Hilfsverb "olla" (sein) und dem Partizip Perfekt gebildet. Das Futur ist im Finnischen nicht vorhanden. Zukünftige Handlungen werden durch das Präsens ausgedrückt ("menen huomenna" „ich gehe morgen“, „ich werde morgen gehen“). In den überwiegenden Fällen ist trotz des fehlenden Futurs eine eindeutige temporale Zuordnung möglich, insbesondere weil sich diese oft aus dem verwendeten Kasus erschließt ("luen kirjaa" „ich lese (gerade) ein Buch“, aber "luen kirjan" „ich werde ein Buch lesen“). Um den Zukunftsbezug eindeutig zu kennzeichnen, wird in neuerer Zeit manchmal in Übernahme von Konzepten indogermanischer Sprachen auch eine Umschreibung mit dem Verb "tulla" (kommen) verwendet "(tulen menemään huomenna)". Modi. Der Indikativ ist der Grundmodus und wird zur Darstellung der Wirklichkeit benutzt. Der Konditional drückt hypothetische oder bedingte Handlungen aus. Er wird mit dem Moduszeichen "-isi-" gebildet. Der Imperativ ist die Befehlsform. Neben den Imperativen der 2. Person Singular und Plural gibt es auch in der Umgangssprache heute selten benutzte Imperative für die 3. Person Singular und Plural und die 1. Person Plural. Der Potential bezeichnet eine wahrscheinliche, aber nicht sichere Handlung. In der heutigen gesprochenen Sprache ist er recht selten. Er wird mit dem Moduszeichen "-ne-" gebildet. Passiv. Anders als im Deutschen und den meisten anderen indogermanischen Sprachen ist das finnische Passiv keine Umkehrung des Aktivs, sondern eigentlich ein Impersonal, das am ehesten deutschen Formulierungen mit "man" entspricht. Es bezeichnet Handlungen, bei denen die ausführende Person ungenannt bleibt. Das Passiv könnte als eine Art „4. Person“ aufgefasst werden. Das Kennzeichen des Passivs ist "-(t)ta-"/"-(t)tä-". Es kommt in allen Tempora und Modi vor. Das gedachte Subjekt eines Passivsatzes muss stets ein Mensch sein. Ein deutscher Satz wie „Bei dem Unfall wurde ein Mann getötet“ könnte im Finnischen nicht mit einem Passivsatz übersetzt werden, da dieser implizieren würde, eine nicht genannte Person hätte den Mann während des Unfalles umgebracht. Infinitive. Finnische Verben haben je nach Auffassung drei, vier oder fünf Infinitive und ein Verbalsubstantiv (die Anzahl der Infinitive variiert in unterschiedlichen Grammatiken). Der 1. Infinitiv ("puhua" „sprechen“) entspricht dem deutschen Infinitiv und ist die Grundform des Verbs. Die übrigen Infinitive werden dekliniert und dienen zur Bildung zahlreicher temporaler, modaler, finaler u. ä. Satzkonstruktionen (z. B. "puhuessani" „während ich spreche“, "puhumatta" „ohne zu sprechen“, "olen puhumaisillani" „ich bin nah dabei, zu sprechen“). Das Verbalsubstantiv wird mit dem Suffix "-minen" gebildet und kann in allen Kasus dekliniert werden. Es entspricht dem substantivierten Infinitiv des Deutschen ("puhuminen" „das Sprechen“, "puhumisen" „des Sprechens“ etc.). Partizipien. Im Finnischen gibt es vier Partizipien. Es gibt sie in zwei Zeitebenen (Präsens bzw. gleichzeitig und Perfekt bzw. vorzeitig) jeweils als aktive und passive Form. Daneben existiert ein Agenspartizip, das das Partizip Perfekt Passiv ersetzt, wenn das Agens (die handelnde Person) genannt wird. Verneinung. Die Verneinung wird mit dem speziellen Verneinungsverb "ei" und dem nicht konjugierten Verbstamm gebildet. Das verneinte Imperfekt wird anders gebildet als das bejahte, nämlich mit "ei" und dem Partizip Perfekt Aktiv des Verbs. Das verneinte Perfekt und Plusquamperfekt werden durch Verneinung des Hilfsverbs "olla" gebildet. Beim verneinten Imperativ steht das Verneinungsverb in einer speziellen Imperativform "älä". Haben. Es gibt im Finnischen kein Wort für „haben“. Stattdessen verwendet man eine Konstruktion mit der 3. Person Singular von "olla" (sein) und dem Adessiv. Fragen. In Entscheidungsfragen steht das Verb am Satzanfang und wird mit der Fragepartikel "-ko"/"-kö" versehen. Wenn die Frage ein anderes Wort fokussiert, steht dieses mit der Fragepartikel am Satzanfang. Fragewörter hingegen werden nie mit Fragepartikel versehen. Die Frage kann auch elliptisch sein. Bei der Antwort auf eine Entscheidungsfrage entspricht dem deutschen „ja“ die Wiederholung des Verbs, dem deutschen „nein“ das Verneinungsverb. Subjekt. Die Kategorien von Subjekt und Objekt sind im Finnischen weniger deutlich ausgeprägt als im Deutschen. Das Subjekt kann im Nominativ oder Partitiv stehen oder auch völlig fehlen. Der Normalfall als Subjektskasus ist der Nominativ. Ein Partitivsubjekt kommt in den sogenannten Existentialsätzen („es-gibt“-Sätze) vor, wenn eine unbestimmte Menge bezeichnet wird. Bei Sätzen, die eine Notwendigkeit ausdrücken, steht die finnische Entsprechung des deutschen Subjekts im Genitiv und wird ein Dativadverbial genannt, weil es sich semantisch um einen Dativ handelt. Das grammatikalische Subjekt ist der Infinitiv. Generische Sätze, die im Deutschen meist durch ein unpersönliches „man“ oder das formale Subjekt „es“ ausgedrückt werden, haben kein Subjekt. Objekt. Das Objekt kann im Akkusativ oder Partitiv stehen. Das Objekt steht stets im Partitiv, wenn der Satz verneint ist. In bejahenden Sätzen hat die Kasuswahl zwei Aufgaben. Der Akkusativ drückt eine quantitative Bestimmtheit aus, während der Partitiv benutzt wird, wenn eine unbestimmte oder unzählbare Menge gemeint ist. Außerdem kann ein Aspektunterschied ausgedrückt werden. Dabei drückt der Akkusativ eine perfektive oder resultative (abgeschlossene) und der Partitiv eine imperfektive oder irresultative (nicht abgeschlossene) Handlung aus. Satzentsprechungen. Bei den Satzentsprechungen handelt es sich um kompakte Infinitiv- oder Partizipialkonstruktionen, die einen Nebensatz ersetzen. Die Infinitivformen werden dabei dekliniert und drücken eine zeitliche, modale oder finale Bedeutung aus. Das Subjekt des Nebensatzes tritt in den Genitiv oder kann als Possessivsuffix angehängt werden. Wortbildung. "kirja" („Buch“), "kirjain" („Buchstabe“), "kirjaimisto" („Alphabet“), "kirje" („Brief“), "kirjasto" („Bibliothek“), "kirjailija" („Schriftsteller“), "kirjallisuus" („Literatur“), "kirjoittaa" („schreiben“), "kirjoittaja" („Autor“), "kirjoitus" („Schrift“), "kirjallinen" („schriftlich“), "kirjata" („buchen“, „eintragen“), "kirjasin" („Letter“, „Druckbuchstabe“), "kirjaamo" („Registratur“), "kirjoitin" („Drucker“), und "kirjuri" („Schreiber“). Zur Wortbildung tragen viele Endsilben bei, die den Wortstamm in einen bestimmten Zusammenhang bringen. Im obigen Beispiel bedeuten beispielsweise "-in" ein Werkzeug, "-sto" eine Ansammlung, "-uri" einen Gegenstand bzw. einen Menschen, der eine (im Wortstamm steckende) Tätigkeit ausübt und "-mo" einen Ort, an dem eine (im Wortstamm steckende) Tätigkeit ausgeübt wird. Eine weitere häufig verwendete Silbe zur Ortsbezeichnung ist "-la". Durch Verbsuffixe können zahlreiche Bedeutungsnuancen ausgedrückt werden, z. B. "nauraa" („lachen“), "naurahtaa" („auflachen“), "naureskella" („vor sich hin lachen“), "naurattaa" („zum Lachen bringen“). Neologismen. Bei Neologismen werden im Finnischen generell eigenständige Wörter Fremdwörtern vorgezogen. Neue Begriffe werden oft auf Grundlage des vorhandenen Wortschatzes geschaffen (z. B. "tietokone", wörtlich „Wissensmaschine“ = „Computer“, "puhelin" von "puhua" (sprechen) = „Telefon“). Für heute neu in die finnische Sprache zu übertragende Fremdwörter gibt eine staatliche Kommission "(Kielitoimisto)" regelmäßig Empfehlungen ab, die aber nicht bindender Natur sind. In neuerer Zeit bürgern sich anstelle der eigenständigen finnischen Wortschöpfungen verstärkt auch direkte phonetische Übernahmen aus der jeweiligen Fremdsprache ein (z. B. für Scanner das übliche "skanneri" anstelle des empfohlenen "kuvanlukija", wörtlich „Bildleser“). Lehnwörter. Im finnischen Wortschatz existieren Entlehnungen aus sehr unterschiedlichen Zeitschichten. Die historische Linguistik kann uralte Lehnwörter nachweisen. So stammt das finnische Zahlwort für „100“, "sata", wahrscheinlich aus einer Urform des Indoiranischen und ist mit dem Sanskrit-Wort "śatam" verwandt. Ebenfalls in prähistorischer Zeit, seit dem 1. Jahrtausend v. Chr., hatten die Vorfahren der Finnen Kontakte zu den Balten, Germanen und Slawen, aus deren Sprachen sie zahlreiche Wörter übernahmen. Die Lautgestalt dieser alten Lehnwörter hat sich im Finnischen oft besser erhalten als in den Ursprungssprachen. So ist das finnische "kuningas" noch praktisch identisch mit der germanischen Urform *"kuningaz", während sich das Wort in den heutigen germanischen Sprachen weiterentwickelt hat (dt. "König", engl. "king", schwed. "konung" oder "kung" etc.). Der größte Teil der Lehnwörter im Finnischen stammt aber aus der schwedischen Sprache. Das heutige Finnland gehörte ab dem 12. Jahrhundert bis ins Jahr 1809 zum Königreich Schweden. Während dieser Zeit und noch bis ins 20. Jahrhundert hinein war die Oberschicht schwedischsprachig. In die finnische Sprache wurden sehr viele Lehnwörter aus dem Schwedischen übernommen, z. B. "kuppi" (schwed. "kopp" „Tasse“) oder die Wochentage "maanantai", "tiistai" (schwedisch "måndag", "tisdag") usw. Auch Lehnübersetzungen wie die Phrase "ole hyvä" (wie schwedisch "var så god", wörtl. „sei so gut“) für „bitte“ sind häufig. Die kurze Zugehörigkeit Finnlands zu Russland hat in der Sprache weit weniger Spuren hinterlassen, zumal Russisch nie Amtssprache war. In neuerer Zeit sind Lehnwörter aus dem Englischen dazugekommen, wenn auch in geringerem Umfang als zum Beispiel in der deutschen Sprache. Umgangssprache. Im Finnischen unterscheiden sich die geschriebene und gesprochene Sprache deutlicher voneinander als in den meisten anderen europäischen Sprachen. Die Unterschiede sind sowohl lautlicher als auch grammatikalischer Natur. Die Schriftsprache wird für fast alle geschriebenen Texte verwendet; eine Ausnahme bilden informelle Nachrichten (E-Mails, SMS-Mitteilungen etc.). In Gesprächssituationen wird dagegen fast ausschließlich die Umgangssprache gesprochen, außer bei besonders formellen Anlässen. Die Umgangssprache variiert je nach dialektalem Hintergrund, Alter und sozialer Stellung des Sprechers, aber auch bei ein und derselben Person je nach Situation. Die finnische Umgangssprache basiert im Wesentlichen auf dem Dialekt von Helsinki. Dialekte. Verteilung der Dialekte in Finnland und seinen Anrainerstaaten (Situation vor dem Zweiten Weltkrieg) Die Unterschiede zwischen den finnischen Dialekten sind recht gering, sie unterscheiden sich fast ausschließlich in der Aussprache. Die finnischen Dialekte teilen sich in eine westliche und eine östliche Hauptgruppe. Die Einordnung der im nordschwedischen Torne-Tal gesprochenen Meänkieli ist umstritten. In Finnland wird es meist als Peräpohjola-Dialekt angesehen, während es in Schweden als eigenständige Sprache klassifiziert und auch an Schulen als Schriftsprache gelehrt wird. Gleiches gilt für das in Nordnorwegen gesprochene Kvenisch. Westfinnische Dialekte (Die Ziffern beziehen sich auf die nebenstehende Karte.) Das wichtigste Unterscheidungsmerkmal zwischen westlichen und östlichen Dialekten ist die Entsprechung des schriftsprachlichen "d". In den westfinnischen Dialekten ist der Laut meist durch "r" oder "l" ersetzt ("tehrä" statt "tehdä"), in den ostfinnischen ist er ausgefallen ("tehä"). In den Südwestdialekten fallen Vokale oft aus, vor allem am Wortende (z. B. "snääks" statt "sinäksi"), während in den östlichen Dialekten Vokale eingefügt werden (z. B. "kolome" statt "kolme"). Die östlichen Dialekte verfügen über palatalisierte Konsonanten (z. B. "vesj" statt "vesi"). Forschung. Unter Forschung versteht man im Gegensatz zum zufälligen Entdecken die systematische Suche nach neuen Erkenntnissen sowie deren Dokumentation und Veröffentlichung. Die Publikation erfolgt überwiegend als "Wissenschaftliche Arbeit" in relevanten Fachzeitschriften und/oder über die Präsentation bei Fachtagungen. Forschung und Forschungsprojekte werden sowohl im wissenschaftlichen als auch im industriellen, aber auch im künstlerischen Rahmen betrieben. Teilgebiete der Forschung. Während die Grundlagenforschung vom reinen Erkenntnisinteresse geleitet wird und allgemein gültige Zusammenhänge und Gesetzmäßigkeiten aufzuspüren versucht, ist die Angewandte Forschung auf praxisrelevante, nützliche Ergebnisse ausgerichtet. Jede der beiden Forschungsrichtungen kann Impulsgeber für die andere sein und von der anderen profitieren. Die Grundlagenforschung arbeitet auf einem höheren Abstraktionsniveau, die Anwendungsforschung bewegt sich näher an der praktischen Verwertbarkeit. Finanzierung. Gemessen am finanziellen Aufwand entfällt in den Industrieländern der Großteil der Forschung auf die Industrie, ist also vor allem der Angewandten Forschung zuzurechnen. Die Grundlagenforschung wird hingegen überwiegend von Wissenschaftlern der Forschungseinrichtungen der Hochschulen sowie (in geringerem Ausmaß) spezialisierter Institute getragen. Diese Forschung wird überwiegend aus dem Instituts- bzw. Hochschulbudget finanziert. Doch wächst in fast allen westlichen Staaten der Anteil sogenannter Drittmittelforschung. Im Wesentlichen sind dies von Hochschullehrern beantragte und durchgeführte Forschungsprojekte, für die meist eine (halb) staatliche Forschungsförderung existiert. Deutschland. Laut Berechnungen des Statistischen Bundesamtes für das Jahr 2007 betrugen die gesamten Forschungsaufwendungen in Deutschland insgesamt rund 61,5 Milliarden Euro, wovon 70 Prozent von der Industrie finanziert wurden. Die forschenden Pharmaunternehmen in Deutschland trugen dabei 10,5 Prozent der gesamten Forschungsaufwendungen der deutschen Industrie. Von den etwa 18 Milliarden Euro „nichtindustrieller“ Forschung entfällt der Großteil auf die Institute an den Hochschulen und Akademien. Zu deren Primärbudgets kommen die eingeworbenen Drittmittel, welche überwiegend die Deutsche Forschungsgemeinschaft (DFG) finanziert. Deren Etat belief sich 2010 auf rund 2,3 Milliarden Euro. Laut "Forschungsbericht 2010" kamen davon "67,1 Prozent vom Bund, 32,7 Prozent von den Ländern und 0,2 Prozent aus Stiftungen und privaten Zuwendungen". Von den 32.000 Forschungsprojekten der laufenden Förderung waren über 15.000 in der Einzelförderung angesiedelt. Für sie wurden 2010 insgesamt 894 Millionen Euro an Fördermitteln bewilligt. Dazu kommen 256 Sonderforschungsbereiche, für welche die DFG etwa 4600 Projekte unterstützte (Bewilligungsvolumen 547 Millionen Euro). Der DFG-Bericht schreibt ferner: "Ebenfalls in den koordinierten Programmen gefördert wurden 237 Graduiertenkollegs (138 Millionen Euro), 113 Schwerpunktprogramme mit etwa 3400 Projekten (193 Millionen Euro) und 252 Forschergruppen mit fast 2500 Projekten (150 Millionen Euro)." Österreich. Österreichs Forschungsförderungsfonds FWF und FFG unterscheiden zwischen Grundlagen- und gewerblicher Forschung. Beide Fonds werden überwiegend vom Staat finanziert, der Rest aus der Privatwirtschaft. Der FWF bewilligte 2012 684 neue Forschungsprojekte in der Höhe von insgesamt knapp 200 Millionen Euro. Auf 427 Mio. Auszahlung für Forschungsprojekte kommt die FFG im Jahr 2012. Weitere (teils öffentliche) Fördereinrichtungen sind die Christian-Doppler Gesellschaft und die ÖAW. Neben FWF und FFG gibt es in Österreich noch eine Reihe weiterer Forschungsfinanzierungsagenturen, wie z.B. die Bundesministerien für Wissenschaft und Forschung, für Verkehr, Innovation und Technologie, und für Wirtschaft, Familie und Jugend. Einige Bundesländer haben ebenfalls Forschungsförderprogramme eingerichtet, wie z. B. Wien mit dem WWFF (Wiener Wissenschafts- und Forschungsfonds) und dem ZIT (Zentrum für Innovation und Technologie) oder die SFG in der Steiermark (Steirische Wirtschaftsförderungsgesellschaft). Fast alle Bundesländer bedienen sich aber auch der FFG, um eigen finanzierte Programme abwickeln zu lassen. Der Anteil an privater non-for-profit Forschungsfinanzierung ist in Österreich vergleichsweise gering. Free Software Foundation. Die Free Software Foundation (kurz FSF,) ist eine nichtstaatliche Stiftung, die als gemeinnützige Organisation 1985 von Richard Stallman mit dem Zweck gegründet wurde, freie Software zu fördern und für diese Arbeit Kapital zusammenzutragen. Executive Director der Free Software Foundation ist derzeit John Sullivan. Bis Mitte der 1990er wurden die Finanzmittel der FSF im Wesentlichen dazu verwendet, Programmierer für die Entwicklung freier Software anzustellen. Seit viele Unternehmen und Privatpersonen begonnen haben, selbständig freie Software zu schreiben, konzentriert sich die Arbeit der FSF zunehmend auf rechtliche und strukturelle Belange der Freie-Software-Gemeinschaft. Arbeit der FSF. Die Hauptaufgabe der FSF ist die finanzielle, personelle, technische und juristische Unterstützung des GNU-Projekts (und damit neben der Software auch der Lizenzen GPL, LGPL, AGPL und GFDL). Neben dieser Arbeit bemüht sich die FSF gleichzeitig um allgemeine Beratung, Berichterstattung und Aufklärung rund um freie Software. Das "GPLv3.fsf.org"-Projekt beinhaltet die Ausarbeitung und die Kommunikation rund um die Schaffung der neuen Version der GNU-Lizenzen. Das Projekt "GPL Compliance Lab" bemüht sich, rechtliche Verstöße gegen die GNU General Public License, aber auch gegen andere GNU-Lizenzen zu ahnden bzw. Rechteinhabern bei Verstößen gegen die Lizenzen rechtlichen Beistand zu gewähren und entsprechend zu beraten. In diesem Rahmen werden auch Fragen bezüglich der Lizenzierung von Software beantwortet. Die Software des GNU-Projekts wird dabei neben anderer Software vom GNU-Savannah-Projekt gehostet, das eine Infrastruktur zur Entwicklung und Koordination freier Software bietet. Das Free Software Directory dient als zentrales Verzeichnis freier Software. Kampagnen. Die FSF hat die Kampagne "Defective by Design" gestartet, die sich gegen die Digitale Rechteverwaltung (engl. "Digital Rights Management", "DRM" von der FSF als "Digital Restrictions Management" bezeichnet) wehrt. In DRM sieht die Free Software Foundation die Gefahr der „Zerstörung der digitalen Zukunft“. Mit der Kampagne "Badvista" gegen das Microsoft-Betriebssystem Windows Vista soll der Computernutzer über die Nachteile des proprietären Betriebssystems aufgeklärt werden. Zudem werden freie Betriebssysteme, welche dem Nutzer mehr Freiheiten lassen, als Alternativen präsentiert. Kritisiert wird unter anderem, dass die Gerätetreiber bei jeder Aktualisierung deaktiviert werden können, wenn Microsoft sich dazu entschließt. Das soll laut Verträgen mit den Geräteherstellern geschehen, wenn Microsoft den Eindruck hat, dass das entsprechende Gerät keine ausreichenden Hindernisse eingebaut hat, um das Umgehen der vorgesehenen Nutzungsbeschränkungen zu verhindern. Schwester-Organisationen. Am 10. März 2001 wurde die Free Software Foundation Europe gegründet, um die Belange freier Software im europäischen Raum zu vertreten. Da es bisher keine allgemeine europaweit gültige Regelung für gemeinnützige Organisationen gibt, agiert die FSFE als Schirm-Organisation für die so genannten Chapters in den unterschiedlichen Ländern Europas. Als Schwesterorganisation der Free Software Foundation in den USA konzentriert sie ihre Aktivitäten im Umkreis des GNU-Projekts, beschränkt sich aber nicht darauf. Präsident der FSFE ist Karsten Gerloff. Die FSFE versteht es als ihre Hauptaufgabe, Initiativen freier Software in Europa zu koordinieren, ein Kompetenzzentrum für Politiker, Anwälte und Journalisten bereitzustellen und die Infrastruktur für freie Softwareprojekte und speziell das GNU-Projekt zur Verfügung zu stellen. Im Jahr 2003 wurde in Kerala die Free Software Foundation India gegründet. Am 23. November 2005 wurde die FSLA - Free Software Foundation Latin America in Rosario, Argentinien, gegründet. Mitgliedschaft. Am 25. November 2002 startete die FSF das "FSF Associate Membership Programm" für Einzelpersonen. Im März 2005 hatten sich mehr als 3400 Mitglieder angemeldet. Am 5. März 2003 wurde das "Corporate Patron Programm" für Unternehmen ins Leben gerufen. Mittlerweile unterstützen 45 Firmen dieses Projekt. Freiberg. Die Universitätsstadt Freiberg ist eine Große Kreisstadt und Bergstadt etwa in der Mitte des Freistaates Sachsen zwischen Dresden und Chemnitz. Sie ist Verwaltungssitz des am 1. August 2008 gebildeten Landkreises Mittelsachsen. Der gesamte historische Stadtkern steht unter Denkmalschutz. Zahlreiche Gebäude sind ausgewählte Objekte für die vorgesehene Kandidatur zum UNESCO-Welterbe Montanregion Erzgebirge. Bis 1969 war die Stadt rund 800 Jahre vom Bergbau und der Hüttenindustrie geprägt. In den letzten Jahrzehnten findet ein Strukturwandel zum Hochtechnologiestandort im Bereich der Halbleiterfertigung und der Solartechnik statt, womit Freiberg zum Silicon Saxony gehört. Geografische Lage. Die Stadt liegt an der nördlichen Abdachung des Erzgebirges mit dem Großteil des Stadtgebietes westlich der "Östlichen" oder der Freiberger Mulde. Die Stadt ist zum Teil in die Täler des Münzbaches und des Goldbaches eingebettet. Das Zentrum mit dem Bahnhof liegt auf etwa. Tiefster Punkt ist der Münzbach an der Stadtgrenze mit, der höchste Punkt befindet sich bei auf einer Bergbauhalde. Freiberg liegt innerhalb einer alten, durch den Bergbau genutzten und von ihm geprägten Rodungslandschaft und ist im Norden, Südosten und Südwesten von Wäldern, in den übrigen Richtungen von Feldern und Wiesen umgeben. Zu Beginn des 21. Jahrhunderts ist mit den Städten Nossen, Roßwein, Großschirma, Freiberg und Brand-Erbisdorf eine Zone der Verstädterung tendenziell im Entstehen. Diese umfasst etwa 75.000 Einwohner. Freiberg befindet sich etwa 31 km westsüdwestlich von Dresden, etwa 31 km ostnordöstlich von Chemnitz, etwa 82 km südöstlich von Leipzig sowie etwa 179 km südlich von Berlin und etwa 120 km nordwestlich von Prag. Freiberg liegt etwa 8,4 km westlich des geographischen Mittelpunktes des Freistaates und ist somit die Stadt, die mit ihrem Zentrum diesem Punkt am nächsten liegt. Freiberg liegt an einer Grenze von zwei Formen des sächsischen Dialektes: östlich das "Südostmeißnische" und westlich das "Südmeißnische," die beide den fünf Meißenischen Dialekten zuzurechnen sind, sowie knapp nördlich des Dialektgebietes des "Osterzgebirgischen". Ausdehnung des Stadtgebiets. Die Keimzelle der Stadt, das ehemalige Waldhufendorf Christiansdorf, liegt im Tal des Münzbaches. An dessen Hängen und auf dem westlich davon gelegenen Höhenrücken entstand der ummauerte Stadtkern. Dies hatte unter anderem zur Folge, dass die östlich der alten Hauptstraßenachse (heute "Erbische Straße" und "Burgstraße" vom ehemaligen "Erbischen Tor" am "Postplatz" zum "Schloss Freudenstein") abgehenden Straßen, die zum Teil bis auf den Gegenhang des Münzbachtals führen, steil sind. Der östlich der Hauptstraßenachse gelegene Teil wird als "Unterstadt" mit dem dazugehörenden Untermarkt bezeichnet. Das westliche Gebiet ist die "Oberstadt" mit dem Obermarkt. Der Stadtkern wird von den entlang der alten Stadtmauer verlaufenden "Ringanlagen" umschlossen. Im Westen verbreitern sich diese Anlagen, in die die "Kreuzteiche" eingebettet sind, parkartig. Unmittelbar nördlich des Stadtkerns befinden sich neben dem Schloss Freudenstein Stadtmauerreste mit mehreren "Mauertürmen" und dem vorgelagerten "Schlüsselteich". Die Mauerreste setzen sich in östlicher Richtung mit Durchbrüchen bis zum "Donatsturm" fort. In diesem Bereich dominiert der historische Wallgraben. Die Südgrenze des Altstadtkerns wird zum Teil durch Bauten aus der Gründerzeit geprägt. Die Bundesstraße 101 flankiert als "Wallstraße" den Westen, die Bundesstraße 173 als "Schillerstraße" und "Hornstraße" den Süden der Altstadt. Freibergs Norden wird durch den Campus der TU Bergakademie Freiberg geprägt. Die Hauptteile des Campus beiderseits der "Leipziger Straße" (als B 101 wichtigste Verkehrsverbindung in diesem Gebiet) entstanden in den 1950er und 1960er Jahren. Weiterhin befinden sich dort die Stadtteile "Loßnitz", "Lößnitz" und Kleinwaltersdorf, das nicht unmittelbar an die städtischen Bebauungsgrenzen reicht. Zwischen Kleinwaltersdorf und Lößnitz liegt der "Nonnenwald" und östlich der Leipziger Straße ein Gewerbegebiet. Der "Osten" Freibergs umfasst den rechten, östlichen Hang des Münzbachtales, das Tal der Freiberger Mulde und Teile der östlich davon gelegenen Hochfläche. Da dort über Jahrhunderte intensiver Bergbau betrieben wurde, ist dieses Gebiet vor allem durch die Tagesanlagen der Gruben, deren Halden und Industrieanlagen verschiedener Perioden gekennzeichnet. Große Teile der Bergbauhalden wurden ab den 1960er Jahren begrünt und sind heute bewaldet. Der Stadtteil Halsbach an der B 173 ist eine alte Streusiedlung am Osthang der Mulde, in der vor allem Bergleute mit ihren Familien wohnten. Zwischen den 1960er und 1990er Jahren standen in Halsbrücke und Muldenhütten insgesamt sechs zwischen 120 und 200 m hohe Schornsteine, die weithin die Freiberger Stadtsilhouette prägten. In Richtung Osten verläuft die Sachsen-Franken-Magistrale zunächst in einem tiefen Einschnitt, in einem nach Norden offenen Bogen aus der Stadt, um nach Passieren des Muldenhüttener Eisenbahnviadukts die Richtung nach Dresden einzuschlagen. Nach Südosten führt eine Landstraße in Richtung Osterzgebirge und Tschechien aus der Stadt. Die geschlossene Wohnbebauung im östlichen Stadtgebiet stammt im Wesentlichen aus der zweiten Hälfte des 19. und der ersten Hälfte des 20. Jahrhunderts. Nördlich der "Dresdner Straße" befindet sich zwischen dem "Donatsturm" und dem ehemaligen Bahnhof Freiberg (Ost) der mehrere hundert Jahre alte "Donatsfriedhof". Weitere Friedhöfe befinden sich nördlich davon. Freibergs "Süden" ist in erster Linie von der in Ost-West-Richtung verlaufenden Eisenbahntrasse, die auf hohen Dämmen die nordwärts verlaufenden Täler von Münz- und Goldbach quert, bestimmt. Diese Eisenbahnstrecke mit ihrem ehemals sehr bedeutenden Güterbahnhof schneidet im Süden die steiler werdenden, ins Erzgebirge führenden Hänge an. Zwischen Bahnhof und Altstadt befanden sich die übertägigen Anlagen alter Erzgruben. Seit dem letzten Drittel des 19. Jahrhunderts nimmt dieses Terrain die Bahnhofsvorstadt ein. Um den Bahnhof gibt es alte Industrieflächen und am Wernerplatz befindet sich der Busbahnhof. In ihrem westlichen Teil ist die Wohnqualität der Bahnhofsvorstadt höher als im Osten, wo sich der alte Jüdenberg (jüdische Vorstadt) und mehrere Vorwerke befanden. Südwestlich des Stadtkerns schließt sich südlich der Chemnitzer Straße (B 173) Freibergsdorf an. Südlich der Bahntrasse befindet sich ein in den 1930er Jahren angelegtes Siedlungsgebiet. Zwischen diesem, der Bahntrasse und dem Stadtteil "Zug" wurden zwischen den 1960er und 1980er Jahren die Wohngebiete "Seilerberg" und "Wasserberg" angelegt, die kreissegmentförmig den Ring bis fast zur "Chemnitzer Straße" im Westen schließen. Durch diese Wohngebiete verläuft die West-Osttangente, die die Innenstadt vom Fernverkehr entlasten kann. Zug ist heute ein von kleineren Bergwerkshalden geprägtes Siedlungsgebiet mit vielen Einfamilienhäusern. An der B 101, der Annaberger Straße, befinden sich Einkaufszentren und Gewerbegebiete. Fast unmerklich geht das Gebiet von Zug in das Stadtgebiet von Brand-Erbisdorf über. Der Stadtteil "Langenrinne" im Südosten im Tal des Münzbachs war ehemals landwirtschaftlich geprägt und ist heute Wohngebiet in aufgelockerter Bauweise. Zwischen Langenrinne und dem Seilerberg hat die Solarindustrie einen Standort gefunden. Der "Westen" ist die bevorzugte Wohngegend mit dem "Stadtpark", einem "Freizeitzentrum" und einem der beiden deutschen Tempel der Kirche Jesu Christi der Heiligen der Letzten Tage, umgangssprachlich Mormonen genannt. Er wurde von 1983 bis 1985 gebaut und am 29. Juni 1985 geweiht. Am Ende des 19. Jahrhunderts entstanden dort größere Villen, und während der DDR-Zeit wurden Einfamilienhäuser errichtet. Der Stadtteil Friedeburg ist eine Mischung von Villenkolonien, Wohnbauten aus den 1980er und 1990er Jahren und neuerer aufgelockerter Bebauung. Dort führt die Landstraße in Richtung Hainichen und Mittweida aus der Stadt. Im Südwesten wird die Stadt vom "Hospitalwald", in dem sich ein Freibad und ein Campingplatz befinden, begrenzt. Durch diesen Wald verläuft die Eisenbahntrasse in Richtung Westen. Umland. Im Freiberger Umland sind sowohl Industriestandorte als auch Landwirtschaft, Wälder und Naherholungsgebiete vorhanden. An den Standorten Muldenhütten und Halsbrücke sind Unternehmen der Hütten- und Metall verarbeitenden Industrie und in Weißenborn, Großschirma und Reinsberg Unternehmen der Papierindustrie ansässig. Die junge Stadt Großschirma liegt nördlich von Freiberg an der Bundesstraße 101. Nordöstlich schließt die Gemeinde Halsbrücke an das Freiberger Stadtgebiete an. Weiter befindet sich im Osten die Gemeinde Bobritzsch-Hilbersdorf. Ebenfalls nordöstlich der Stadt liegt das Naherholungsgebiet Tharandter Wald. Die sich im Südosten befindliche Gemeinde Weißenborn gehört zur Erzgebirge mit dem noch weiter entfernten Städtchen Frauenstein. An der südlich aus Freiberg herausführenden Bundesstraße 101 liegen die Große Kreisstadt Brand-Erbisdorf und der Freiwald. Nach Süden, zum Kamm des Erzgebirges, und nach Norden in Richtung Nossen und Meißen erstrecken sich die technisch und hinsichtlich des Naturschutzes interessanten Anlagen der Revierwasserlaufanstalt Freiberg. Im Westen befinden sich Oberschöna und Oederan. Stadtteile (Stadtgliederung). Neben der Altstadt, den Stadtteilen Freiberg-Nord, Freiberg-Ost, Freiberg-Süd und Freiberg-West sind dies Kleinwaltersdorf und Zug. Geologie. a> ist bis auf die Portal- und Fenstereinfassungen vollkommen aus Gneis-Bruchsteinen errichtet. Regionalgeologisch ist der Raum Freiberg der Erzgebirgs-Zentralzone innerhalb der fichtelgebirgisch-erzgebirgischen Antiklinalzone zuzuordnen. Die Festgesteinsbasis besteht aus Orthogneis proterozoischen Alters (auch „Freiberger Graugneis“, „Freiberger Kerngneis“ oder „Freiberger Gneiskuppel“ genannt). Der Gneis besteht aus etwa 40 % Feldspäten (Kalifeldspat und Plagioklas), 33 % Quarz und 27 % Glimmer (Biotit und Muskovit). Die Mineralkomponenten sind durch die regionalmetamorphe Überprägung meist länglich deformiert, was dem Gneis seine typische schiefrig-plattige („flaserige“) Gesteinstextur verleiht. Der Gneis war seit Entstehung der Stadt bis in die jüngere Vergangenheit Quelle von Baumaterial für eine große Anzahl von Bauwerken in und um Freiberg (siehe Fotografie der Annenkapelle). Der Festgesteinskörper wird von zwei Systemen tektonischer Bruchstrukturen durchzogen. Diese entstanden während der varistischen und alpidischen Orogenese. Durch den Absatz hydrothermaler Lösungen in diesen tiefreichenden Spaltensystemen entstanden die polymetallischen Erzgänge des Freiberger Lagerstättenbezirkes. Die Erzgänge waren vom Hochmittelalter bis in das zweite Drittel des 20. Jahrhunderts Gegenstand bergmännischen Abbaus, wobei Silber die überwiegende Gewinnungskomponente war. Der Bergbau prägte den Charakter und die Bedeutung der Stadt Freiberg nachhaltig (siehe Hauptartikel Freiberger Gangerzlagerstätte). An Vulkaniten ist ein Nordwest-Südost streichender Rhyolithgang erwähnenswert, welcher das Stadtgebiet nordöstlich tangiert. Die Festgesteinsoberkante steht in Abhängigkeit von der Morphologie meist nur wenige Meter unter der Geländeoberfläche an. Gneis verwittert auf Grund seiner schiefrig-plattigen Textur zu flachstückigem Grus und zersetzt sich bei anhaltender Verwitterungsintensität zu schluffig-sandigem Verwitterungslehm. In Folge von Verlagerungsprozessen bilden sich Mischbereiche aus Verwitterungs- und Hanglehm sowie Hangschutt, welche die Festgesteinsoberfläche und die Verwitterungszone in unterschiedlicher Mächtigkeit bedecken. Holozäne Bildungen treten lediglich in einem schmalen Bereich entlang des Münzbaches in Form von Auelehm auf. Rezente Bodenbildungen liegen als Hangsandlehm-Braunerde und Staugleye vor. Geschichte. Die Stadt, deren Geschichte eng mit dem Bergbau verbunden ist, entstand ab etwa um 1162/70. Im hohen Mittelalter war Freiberg die größte Stadt der Mark Meißen und wichtiger Handelsstandort. Ihr Silberreichtum und die bedeutsame Freiberger Münze machten das Kurfürstentum Sachsen zu einem wohlhabenden Staatswesen. 1913 wurde der Silberbergbau aufgrund des Verfalls des Silberpreises eingestellt. Vor dem Zweiten Weltkrieg wiederum aufgenommen, gab es bis 1969 wieder verstärkt Bergbauaktivitäten zur Blei-, Zink- und Zinngewinnung. 1765 wurde die Bergakademie gegründet, eine der weltweit ältesten bergbautechnischen Hochschulen. Freiberg ist der Namensgeber für das 1853 durch Gustav Adolf Kenngott benannte Mineral Freibergit. Eingemeindungen. Darüber hinaus wurden am 1. Januar 1997 Flurstücke der Gemeinden Weißenborn und Oberschöna sowie am 1. April der Großen Kreisstadt Brand-Erbisdorf eingemeindet. Einwohnerentwicklung. Im Dezember 2013 hatte die Stadt 40.597 Einwohner. "Quelle: unter anderem Stadt- und Bergbaumuseum Freiberg, Schriftenreihe 6, 1986". Die Volkszählung am 17. Mai 1939 ergab 35.712 Einwohner, davon 16.302 Männer und 19.410 Frauen. Stadtrat. Die Wahlbeteiligung lag bei 48,1 % (2009: 56,5 %). Bürgermeister. Am 24. Juni 2015 wurde Sven Krüger (SPD) im zweiten Wahlgang mit deutlicher Stimmenmehrheit zum neuen Oberbürgermeister der Stadt Freiberg gewählt. Sven Krüger war bislang als Beigeordneter für Verwaltung und Finanzen in der Stadt Freiberg tätig. Bisheriger Oberbürgermeister war seit 1. August 2008 der parteilose Bernd-Erwin Schramm. Dezernent ist seit 1. April 2009 Holger Reuter (Beigeordneter für Stadtentwicklung und Bauwesen, CDU). Wappen. Das Wappen der Stadt Freiberg zeigt in Blau eine von Zinnen gekrönte, in der Mitte erhöhte silberne Bossenmauer mit offenem Tor und hochgezogenem Fallgatter, dahinter drei silberne Rundtürme mit roten Dächern und goldenen Fähnchen auf goldenen Knäufen, der Mittelturm höher und stärker, das Tor belegt mit einem "goldenen" Schild, darin ein "schwarzer" Löwe. Es ist erstmals 1227 als Siegel belegt und damit das älteste Stadtsiegel der Mark Meißen. Die Stadtfarben sind "gelb" und "schwarz". Städtepartnerschaften. Freiberg unterhält Städtepartnerschaften in Deutschland mit Außerhalb Deutschlands werden Partnerschaften gepflegt mit Kultur und Sehenswürdigkeiten. Freiberg verfügt über 1250 technische, kunstgeschichtliche und kulturelle Denkmäler verschiedener Art und Größe. Die historische Altstadt, umgeben von Resten der Stadtmauer, besteht aus einem unzerstörten Stadtkern mit unverändertem Grundriss aus dem 12./13. Jahrhundert. Ergänzt wird die Vielfalt durch zahlreiche geowissenschaftliche Sammlungen. Theater. Das Theater wurde 1790 gegründet und gilt als ältestes in ursprünglicher Form erhaltenes und kontinuierlich von einem städtischen Theaterensemble bespieltes Stadttheater der Welt. 1800 wurde dort die erste Oper "Das stumme Waldmädchen" des damals vierzehnjährigen Carl Maria von Weber uraufgeführt. In den 1900er Jahren hatte Harry Liedtke hier eines seiner ersten Engagements. Später spielte Inge Keller auf dieser Bühne. Seit 1993 wird das Haus zusammen mit dem Stadttheater Döbeln als Mittelsächsisches Theater Freiberg und Döbeln geführt. Es umfasst die Sparten Schauspiel, Musiktheater und Philharmonie. Dom St. Marien. Zu den bedeutendsten baulichen Sehenswürdigkeiten Freibergs zählt der Dom St. Marien, häufig als "Freiberger Dom" oder "Dom zu Freiberg" bezeichnet, eine spätgotische Hallenkirche 1484 bis 1501 am Untermarkt errichtet. An der Südseite des Domes befindet sich die markante Goldene Pforte. An den Dom schließt sich die 1594 durch "Maria Nossini" im italienischen Renaissancestil ausgebaute, 1885 restaurierte "Kurfürstliche Begräbniskapelle" an. Hier ruhen alle protestantischen Fürsten der Albertinischen Linie von Heinrich dem Frommen († 1541) bis zu Johann Georg IV. († 1694). Besonders sehenswert ist das marmorne lebensgroße Standbild des Kurfürsten Moritz († 1553). Im Inneren des Doms verdienen die Triumphkreuzgruppe, die freistehende steinerne Tulpenkanzel und die große Silbermann-Orgel Beachtung. Stadtkirche St. Petri. Auf dem höchsten Punkt der Innenstadt, am Petriplatz unweit des Obermarktes, liegt die "Stadtkirche St. Petri". Ihr Nordwestturm, dessen Höhe bis zur Spitze der vergoldeten Spille 74,10 m beträgt, bietet dem Besucher aus rund 45 m Höhe (Wachstube) einen hervorragenden Blick über weite Teile des Osterzgebirges. Bemerkenswert ist die 1733 fertiggestellte Holzkonstruktion mit den Wohnräumen und der Wachstube. Sie vermitteln einen interessanten Einblick in die Arbeits- und Lebensbedingungen vergangener Jahrhunderte. Profane Bauwerke. Im Norden, Nordosten und Osten der Altstadt zwischen Schloss Freudenstein und Donatsturm (in der Nähe eines alten Stadttores) stehen zwei komplett erhaltene, jedoch nicht mehr miteinander verbundene Teile der Stadtmauer mit mehreren Türmen (Altschloßturm, Turm des Pestpfarrers, Oberer Roßmühlenturm, Lazarett-Turm, Donatsturm, Kalkturm, Gelber Löweturm). Das vor dem im 19. Jahrhundert abgerissenen "Peterstor" auf dem Bebelplatz stehende Schwedendenkmal erinnert an die heldenmütige Verteidigung der Stadt gegen die belagernden schwedischen Truppen unter dem Kommando von Lennart Torstensson im Jahre 1643. Weitere bauliche Sehenswürdigkeiten sind der "Petriplatz", das ehemalige "Freibergsdorfer Hammerwerk" und drei erhaltene Kursächsische Postdistanzsäulen von 1723 sowie drei Weichbild- beziehungsweise Stadtgrenzsäulen von 1791. Weite Flächen nordöstlich, östlich, südöstlich und südlich der Stadt sind durch den Bergbau geprägt. Dort, wie ebenfalls in den nördlich und südlich unmittelbar angrenzenden Nachbarstädten Großschirma und Brand-Erbisdorf, der Gemeinde Halsbrücke und im (seit 2012 zu Freiberg gehörenden) Ortsteil Muldenhütten stehen dicht gedrängt eine große Anzahl technischer Anlagen, die unmittelbar mit dem 800-jährigen Bergbau, der Aufbereitung, dem Transport, der Verhüttung des Erzes sowie der Haldenwirtschaft in Zusammenhang stehen. Gegenwärtig werden diese Flächen hauptsächlich als Industrie- und Gewerbegebiete genutzt. Parks und Wälder. Der Stadtkern wird von dem anstelle der mittelalterlichen Stadtbefestigung angelegten "Grünanlagen-" oder "Altstadtring" umschlossen. Im südwestlichen und westlichen Teil, dem Tal des Goldbaches, der auch "Saubach" genannt wird, liegt als Erweiterung der "Albertpark" mit den beiden "Kreuzteichen" ("Mittlerer" und "Unterer" oder "Großer Kreuzteich"). Im nördlichen Teil dieses Ringes ist unter anderem der "Schlüsselteich" zu lokalisieren. Historisch verfügte Freiberg über noch mehr Teiche im Zuge des Grünanlagenrings und Goldbaches. Westlich des Albertparkes befindet sich der "Johannispark" mit mehreren Tiergehegen und der "Pferdeschwemme" und dem daran westlich anschließenden "Ludwig-Renn-Park". Am südwestlichen Stadtrand befindet sich der "Hospitalwald", beziehungsweise bereits der Freiberger Stadtwald, nordwestlich der "Fürstenwald" (auch "Fürstenbusch" oder "Loßnitzforst") mit dem "Nonnenwald" und dem "Zechenteich" sowie dem "Schwarzen Teich". Südöstlich der Stadt, an den Talhängen beiderseits der Freiberger Mulde, trifft man auf den "Rosinenbusch". Viele der ehemaligen Bergbauhalden sind mit Wald bestockt und wertvolle Biotope. Diese zählen in großen Flächenanteilen zu den Freiberger Forsten. Naturdenkmäler. In Freibergsdorf befindet sich die "Torstensson-Linde", an der der schwedische Feldherr Lennart Torstensson im Dreißigjährigen Krieg die Befehle zur Belagerung Freibergs gegeben haben soll. In größerer Entfernung liegen der Freiberger Stadtwald mit Großem Teich und Mittelteich, der Zellwald und der Tharandter Wald, sowie das Striegistal. Botanisch und technisch bemerkenswert ist darüber hinaus die so genannte Grabentour. Regelmäßige Veranstaltungen. Jährlich wird in Freiberg das "Bergstadtfest" mit dem Aufzug der historischen Berg- und Hüttenknappschaft, der Berg- und Hüttenparade, am letzten Juniwochenende abgehalten. Der Weihnachtsmarkt, der Freiberger Christmarkt genannt wird, findet zur Adventszeit statt. Dabei wird eine so genannte Mettenschicht mit dem Aufzug der Berg- und Hüttenknappschaft und dem Bergmusikkorps "Saxonia" abgehalten. Dazu gehören traditionell die "Bergpredigt" in der Petrikirche und die bergmännische Aufwartung am Sonnabend vor dem zweiten Advent. Fest etabliert hat sich das Treffen der Töpfer an einem Wochenende in der zweiten Aprilhälfte auf dem Obermarkt. Ende Juli findet seit 1998 und seit 2005 jährlich das "Sun-Flower-Festival", ein überregionales Musikfestival der Hippie-Szene, statt. Jährlich findet auf dem Drei-Brüder-Schacht im Stadtteil Zug ein Dampfmodelltreffen statt. In jedem Jahr wird der Freiberger Kunstförderpreis vergeben und die "Bergstadt-Königin" gekürt. Kulinarische Spezialitäten. Der Freiberger Bauerhase ist ein in Form eines Hasen gestaltetes Fastengebäck. Freiberger Eierschecke ist eine in Freiberg und der nahen Umgebung verbreitete Form der Eierschecke. In einer modernen Braustätte nördlich des Stadtgebietes wird "Freiberger Pils" gebraut. Straße. Freiberg ist über die Autobahn A 4, Abfahrt Siebenlehn und die Bundesstraße 101, aus Richtung Dresden beziehungsweise Chemnitz über die Bundesstraße 173 zu erreichen. Aus Richtung Leipzig führt die Autobahn A 14, Abfahrt Nossen-Ost und die Bundesstraße 101 nach Freiberg. Aus Richtung Prag ist die Anbindung über die A 17, Abfahrt Dresden-Gorbitz über die Bundesstraße 173 gegeben. Freiberg ist Kreuzungs- und Ausgangspunkt mehrerer Staatsstraßen in Richtung Reinsberg, Halsbrücke, Dippoldiswalde, Frauenstein, Altenberg (Erzgebirge), Brand-Erbisdorf, Kleinschirma und Hainichen. Abschnitte der Bundesstraßen 173 und 101 sind Teil der Silberstraße. Diese war mit dem Silberwagenweg zwischen Annaberg und Freiberg eine alte Poststraße. Die Staatsstraße in Richtung Frauenstein entspricht in ihrem Verlauf in Teilen der Alten Freiberg-Teplitzer Poststraße. Die verkehrstechnische Bedeutung Freibergs lässt sich unter anderem an den noch vorhandenen drei Sächsischen Postmeilensäulen ermessen. Kein weiterer Ort verfügt heute noch über eine solche Dichte von Postsäulen. Eine 13,5 Kilometer lange Ortsumgehung von Freiberg, ausgehend von der B 173 östlich Halsbach über die B 101 im Süden, über die B 173 im Westen bis zur B 101 im Nordwesten, befand sich im Planfeststellungsverfahren. Dieses wurde vom Bundesverwaltungsgericht, mit Urteil vom 14. Juli 2011, AZ. 9 A 12/10, für rechtswidrig und nicht vollziehbar erklärt. Eisenbahn. Freiberg liegt mit seinen beiden, in Betrieb befindlichen Bahnhöfen Bahnhof Freiberg (Sachs) in und dem Bahnhof "Muldenhütten" (etwa) an der Sachsen-Franken-Magistrale auf deren Teilabschnitt Bahnstrecke Dresden–Werdau. Von Freiberg führt die Eisenbahnstrecke Nossen–Moldau ins Erzgebirge auf dem noch in Betrieb befindlichen Teilabschnitt bis nach Holzhau. In Richtung Nossen, nach Norden, liegt der stillgelegte Haltepunkt Kleinwaltersdorf (etwa). Diese Strecke wird in Richtung Süden von der Freiberger Eisenbahn, die zur Rhenus-Veniro-Gruppe gehört, im Auftrag des Verkehrsverbundes Mittelsachsen betrieben. Die Bahnstrecke Freiberg–Halsbrücke mit dem "Bahnhof Freiberg (Sachs) Ost", ist stillgelegt. Luftverkehr. Die nächstgelegenen Flughäfen sind Dresden-Klotzsche (45 km), Leipzig-Altenburg (85 km) und Halle (110 km). In der Nähe von Großschirma beziehungsweise Langhennersdorf gibt es einen Sonderlandeplatz. ÖPNV. Der ÖPNV wird durch die Regiobus Mittelsachsen erbracht. Diese betreibt in der Stadt neun Stadtbuslinien (Linien A–I), die unter anderem nach Brand-Erbisdorf, Zug, Halsbrücke und Oberschöna führen. Zentraler Umsteigepunkt ist neben dem Bahnhof Freiberg die Zentralhaltestelle. Hier besteht die Umsteigemöglichkeit zwischen allen Stadtbussen und vielen Regionalbussen. In der Schwachlastzeit, im Nacht- und teilweise im Wochenendverkehr, werden die Stadtbuslinien durch das AnrufLinienTaxi ergänzt. Freiberg gehört zum Verbundgebiet des Verkehrsverbundes Mittelsachsen mit der Tarifzone 10. Zwischen 1902 und 1919 verkehrte in der Stadt Freiberg die Städtische Straßenbahn Freiberg in Sachsen mit einer Spurweite von 1000 Millimetern. Ansässige Unternehmen. Der Freiberger Silberbergbau beruhte auf dem Vorkommen von zirka 1.000 Erzgängen. Im Freiberger Bergbaurevier wurden etwa 180 verschiedene Mineralien gefunden. Der Bergbau förderte die Stadtentstehung entscheidend, war aber nicht allein für die Stadtgründung ausschlaggebend, denn etwa zur gleichen Zeit wurde der Landesausbau des südlichen Teils der Mark Meißen vorangetrieben. Der später auf andere Metalle erweiterte Erzbergbau, die Erzaufbereitung und -verhüttung, das damit in enger Verbindung stehende Handwerk, die Dienstleistung und weiterverarbeitende Industrien sowie die Wissenschaft, insbesondere die Montan- und Geowissenschaften, prägten über 800 Jahre die wirtschaftliche Entwicklung der Stadt. Ein Beispiel ist das Deutsche Brennstoffinstitut, das für die Gaswirtschaft zuständig war. In der Stadt waren neben dem Bergbau die Aufbereitung und Verhüttung fast aller Nichteisenmetalle, der Spurenelemente und Edelmetalle zu Hause. Freiberg und Muldenhütten waren Münzstätten. In Freiberg werden Halbleiterwerkstoffe hergestellt und Einkristalle gezüchtet. Der Maschinenbau (Papiermaschinen), der Metallleichtbau, die Elektronik, die feinmechanische und optische Industrie, die Lederindustrie, die Textilherstellung, die Porzellanindustrie und die Lebensmittelindustrie sind oder waren in der Stadt vertreten. Für das Unternehmen Choren Industries, welche unter Einsatz von Fördermitteln als erstes Unternehmen weltweit eine Anlage zur Herstellung synthetischen BtL-Kraftstoffs durch Biomasseveredlung (Waldrestholz, Altholz) betreiben wollte wurde am 6. Juli 2011 die vorläufige Insolvenzverwaltung angeordnet. Die Insolvenz des ehemaligen Vorzeigeunternehmens war Auslöser für zahlreiche Medienberichte. Auf dem Gebiet der Hochtechnologie sind die Deutsche Solar AG, die Siltronic AG, und die "Freiberger Compound Materials GmbH" tätig. Mit der Niederlassung der "Deutschen Solar AG" entstand in Freiberg in direkter Fortführung der Waferproduktion die größte integrierte Solarzellenfabrik Deutschlands, die jährlich Solarzellen mit einer Gesamtleistung von 600 Megawatt produziert. Am Standort Freiberg wird bereits seit der Gründung des VEB Spurenmetalle Freiberg 1957 Silizium verarbeitet. Die 1995 gegründete "ACTech GmbH Freiberg" verbindet Prototypenfertigung und Teileentwicklung mit dem Gießereihandwerk als Dienstleister im Bereich Gussteilentwicklung inzwischen auch mit Standorten in den USA und Indien. Einen weiteren Schwerpunkt bildet der Fremdenverkehr. Durch die Sehenswürdigkeiten und die historischen Bergbauanlagen ist Freiberg, das an der Silberstraße liegt, vor allem für den technisch-historisch und kunsthistorisch interessierten Bildungstouristen ein lohnendes Ziel. Seit Oktober 2008 existiert die Ausstellung "terra minerialia" im Schloss Freudenstein. Die Absicht, die Montanregion Erzgebirge, für die Liste des UNESCO-Weltkulturerbes zu kandidieren, setzt neue Impulse. Weiterhin sitzen in Freiberg Hersteller Feinmechanischer Geräte, von Messinstrumenten und pyrotechnischen Erzeugnissen. Die Lebensmittelindustrie ist mit der Freiberger Brauhaus AG und der Molkerei Hainichen-Freiberg, die als Gemeinschaftsunternehmen (jeweils 50 %) von der Ehrmann AG und der Käserei Champignon Hofmeister betrieben wird, vertreten. Freiberg verfügt über einen leistungsstarken Dienstleistungssektor, vor allem spezialisiert sich die Stadt auf wissenschaftliche Dienstleistungen im Bereich der Geowissenschaften und der Geoinformatik, was über die üblichen Aufgaben eines Mittelzentrums hinausgeht. Gesundheitswesen. 1223 gab es mit dem St. Johannishospital das erste Krankenhaus in Freiberg. Die Kreiskrankenhaus Freiberg gGmbH feierte am 8. November 2011 ihr 150-jähriges Jubiläum. Hauptgesellschafter des Krankenhauses ist der Landkreis Mittelsachsen, weiterer Gesellschafter ist die Sana Kliniken AG. Seit 1998 ist es eins von zehn Krankenhäusern der Schwerpunktversorgung in Sachsen. Das Krankenhaus besitzt ein zertifiziertes Schlaganfallzentrum. 2010 wurde das Krankenhaus Akademisches Lehrkrankenhaus der medizinischen Fakultät der Technischen Universität Dresden. Bildung und Forschung. Hauptgebäude der Universität in der Akademiestraße Die Technische Universität Bergakademie Freiberg ist die älteste, noch existierende montanwissenschaftliche Bildungseinrichtung der Welt. Sie wurde 1765, im Zeitalter der Aufklärung, durch Prinz Xaver als Ausbildungsstätte für Bergleute in Freiberg gegründet, als Sachsen nach der Niederlage im Siebenjährigen Krieg den Bergbau forcieren musste, um Reparationen zu zahlen. Das "Geschwister-Scholl-Gymnasium" wurde bereits im Jahre 1515 als Städtische Lateinschule gegründet und war damit das erste humanistische Gymnasium in Sachsen. Es verfügt über die wertvolle Andreas-Möller-Bibliothek, zwei Chöre, die Bläsergruppe "Musica Concordia" und zahlreiche Sportgruppen. Das Gymnasium besteht aus zwei Schulgebäuden, deren Rekonstruktion und Modernisierung 2002 beziehungsweise 2004 abgeschlossen wurden. Das Albertinum ist das Haupthaus und beherbergt neben der Schulleitung die Klassenstufen 9 bis 12, das "Haus Dürer", benannt nach dem Maler Albrecht Dürer, die Klassenstufen 5 bis 8. Das Ulrich-Rülein-Gymnasium entstand 1992 aus den polytechnischen Oberschulen "Lenin" und "Gorki". Im Jahr 2007 wurde das Gymnasium mit dem Geschwister-Scholl-Gymnasium zusammengelegt und kurzzeitig als "Gebäude Rülein" des Geschwister-Scholl-Gymnasiums weitergeführt. Das Freiberg-Kolleg ist eine staatliche Einrichtung des zweiten Bildungswegs im Land Sachsen. Es bietet Erwachsenen die Möglichkeit, nach Abschluss einer Berufsausbildung in Vollzeit die allgemeine Hochschulreife zu erwerben. Das Freiberg-Kolleg ist mit dem Gründungsjahr 1949 das älteste der drei Kollegs in Sachsen. Zurzeit lernen hier zirka 260 Schüler. Das an dieser Einrichtung erworbene Abitur berechtigt zum Studium an allen Hochschulen und Universitäten. Garnison. Freiberg war bis 1945 Garnisonsstadt der Sächsischen Armee, Reichswehr und Wehrmacht. Errichtet wurde u.a. die König-Friedrich-August-Kaserne. Ford Prefect. Ford Prefect war ein Personenwagenmodell von Ford in Großbritannien. Die Fahrzeuge wurden 1938 eingeführt und in Dagenham, Essex hergestellt. Der ursprüngliche Ford Prefect war eine Überarbeitung des Ford Model 7W und außerdem der erste Ford, der nicht in Detroit, Michigan entworfen wurde. Er wurde speziell für den britischen Markt hergestellt. Dieses Modell des Prefect wurde mit wenigen kleinen Änderungen von 1939 bis ins Jahr 1953 produziert, das ursprüngliche "Model E93A" von 1939 bis 1948 und das leicht modernisierte "Model E493A" von 1949 bis 1953. Im September 1953 wurde ein komplett überarbeiteter kleiner Ford mit moderner Ponton-Karosserie vorgestellt, der teilweise bis 1959 hergestellt wurde. Es waren die Typen Ford Anglia (Zweitürer) und Ford Prefect (Viertürer), jeweils "Model 100E". Eine Billigversion war der Ford Popular "Model 103E". Ab 1955 gab es auch noch einen Kombi, der mit der Ausstattung des Prefect 100E als Ford Squire bis 1959 und mit der Ausstattung des Anglia als Ford Escort angeboten wurde. Als 1959 ein komplett neuer Ford Anglia ("105E") erschien, machten der Prefect und der Squire diesen Modellwechsel nicht mehr mit. Stattdessen gab es von 1959 bis 1961 den Prefect "107E", eine geringfügig überarbeitete Version des "100E". 1962 erschien dann als Ablösung des Prefect der neue Ford Cortina. Außer in Großbritannien wurden Ford Prefects in Australien, Kanada und Schweden verkauft. Das kanadische Modell wurde extra für Linkslenkung adaptiert. Französische Revolution. Die Französische Revolution von 1789 bis 1799 gehört zu den folgenreichsten Ereignissen der neuzeitlichen europäischen Geschichte. Die Abschaffung des feudalabsolutistischen Ständestaats sowie die Propagierung und Umsetzung grundlegender Werte und Ideen der Aufklärung als Ziele der Französischen Revolution – das betrifft insbesondere die Menschenrechte – waren mitursächlich für tiefgreifende macht- und gesellschaftspolitische Veränderungen in ganz Europa und haben das moderne Demokratie­verständnis entscheidend beeinflusst. Die heutige Französische Republik als liberal-demokratischer Verfassungsstaat westlicher Prägung stützt ihr Selbstverständnis unmittelbar auf die Errungenschaften der Französischen Revolution. Die revolutionäre Umgestaltung und Nation­werdung der französischen Gesellschaft war ein Prozess, bei dem drei Phasen zu unterscheiden sind. Ausschlaggebender Ordnungs- und Machtfaktor wurde in dieser Lage zunehmend das in den Revolutionskriegen entstandene Bürgerheer, dem Napoleon Bonaparte seinen Aufstieg und den Rückhalt bei der Verwirklichung seiner sich über Frankreich hinaus erstreckenden politischen Ambitionen verdankte. Ein wirkungsgeschichtliches Hauptereignis der europäischen Geschichte. Als ein Gründungsereignis, das so tief wie kaum ein anderes die Geschichte der Moderne geprägt habe, wird die Französische Revolution in einer neueren Überblicksdarstellung bezeichnet. Nicht nur im Bewusstsein der Franzosen hat diese Revolution eine enorme Bedeutung. Mit der Erklärung der Menschen- und Bürgerrechte vom 26. August 1789 wurden auf dem europäischen Kontinent jene Prinzipien bekräftigt und gegen absolutistische Monarchien in Stellung gebracht, die in der Unabhängigkeitserklärung der nordamerikanischen Kolonisten angelegt waren und die heutzutage von den Vereinten Nationen weltweit propagiert und eingefordert werden. Für Staaten mit schriftlich fixierter Verfassung und entsprechenden Bürgerrechtsgarantien hat die dreiphasige Revolution gleich mehrere Modelle hervorgebracht, die jeweils abweichende Akzente hinsichtlich Freiheit, Gleichheit und Vermögensdifferenzierung (etwa beim Wahlrecht) aufwiesen. Zeitgenossen des Revolutionsgeschehens meinten schon bald nach dem 14. Juli 1789 (Sturm auf die Bastille): „Wir haben in drei Tagen den Raum von drei Jahrhunderten durchquert.“ Als Erfahrungs- und Forschungsobjekt für die Wechselwirkungen von Innen- und Außenpolitik wie von Krieg und Bürgerkrieg, als ein Beispiel für Gefährdungen und Labilität einer demokratischen Ordnung wie für die Eigendynamik revolutionärer Prozesse bleibt die Französische Revolution auch künftig ein ergiebiges Studienfeld. Die vorrevolutionäre Krise des französischen Absolutismus. Bei der Vielzahl der Ursachen, die im Zusammenhang mit der Französischen Revolution in der Geschichtsforschung diskutiert werden, kann zwischen kurzfristig-akut wirksamen und längerfristig-latenten unterschieden werden. Zu den letzteren werden z. B. sozioökonomische Strukturveränderungen wie der in Entwicklung befindliche Kapitalismus gezählt, der mitsamt der sich seiner bedienenden Bourgeoisie durch das feudalabsolutistische Ancien Régime in seiner Entfaltung eingeengt war. Der Wandel des politischen Bewusstseins, der mit der Aufklärung vor allem im Bürgertum Rückhalt fand, konnte so gesehen von diesem als Instrument zur Durchsetzung eigener wirtschaftlicher Interessen genutzt werden. Für die konkrete Entstehung der revolutionären Ausgangssituation des Jahres 1789 waren aber vor allem die in aktueller Zuspitzung wirksamen Faktoren ausschlaggebend: die Finanznot der Krone, die Opposition des Amtsadels (und damit zusammenhängend die Reformunfähigkeit des Landes, weil der Adel nötige Reformen blockierte) sowie die teuerungsbedingte Brotnot speziell in Paris. Finanznöte als Dauerproblem. Als der Generalkontrolleur der Finanzen Jacques Necker 1781 erstmals die Zahlen des französischen Staatsbudgets ("Compte rendu") veröffentlichte, war dies als Befreiungsschlag zur Herstellung allgemeiner Reformbereitschaft in einer ansonsten ausweglosen Finanzkrise gemeint. Seine Amtsvorgänger hatten da bereits vergebliche Anläufe zur Stabilisierung der Staatsfinanzen unternommen. Neckers Zahlenwerk schockierte: Einnahmen von 503 Millionen Livres (Pfund) standen Ausgaben von 620 Millionen gegenüber, wovon allein die Hälfte auf Zins und Tilgung für die enorme Staatsverschuldung entfiel. Weitere 25 % verschlang das Militär, 19 % die Zivilverwaltung und ca. 6 % die königliche Hofhaltung. Dass für höfische Feste und Pensionszahlungen an Höflinge eine Summe von 36 Millionen Livres anfiel, wurde als besonders skandalös angesehen. Zu dem Schuldenberg erheblich beigetragen hatte die Beteiligung der französischen Krone am Unabhängigkeitskrieg der amerikanischen Kolonisten gegen das britische Mutterland. Zwar war die beabsichtigte Niederlage und machtpolitische Schwächung des Handels- und Kolonialmacht-Rivalen eingetreten, aber der Preis für das Regime Ludwigs XVI. war ein doppelter: Nicht nur wurden die Staatsfinanzen dadurch zusätzlich enorm belastet, sondern die aktive Beteiligung französischer Militärs an den Befreiungskämpfen der amerikanischen Kolonisten und die Beachtung von deren Anliegen in der meinungsbildenden französischen Öffentlichkeit schwächten die Position der absolutistischen Herrschaft auch auf ideologischer Ebene nachhaltig. Reformblockade der Privilegierten. Wie alle Amtskollegen vor und nach ihm stieß Necker mit seinen Plänen zur Verbesserung der Staatseinnahmen auf energischen Widerstand, der einen bereits geschwächten monarchischen Absolutismus schließlich zu Konsequenzen zwang. Das Einnahmen- und Verwaltungssystem des Ancien Régime war trotz zentralistischer Tendenzen, wie sie vor allem von den Intendanten als königlichen Verwaltungsbeauftragten in den Provinzen verkörpert wurden, uneinheitlich und zum Teil ineffektiv (vgl. Historische Provinzen Frankreichs). Neben solchen Provinzen, in denen die Besteuerung unmittelbar durch königliche Beamte geregelt werden konnte ("pays d’Élection"), gab es andere, wo die Zustimmung der Provinzialstände für Steuergesetze nötig war ("pays d’État"). Von direkten Steuern ausgenommen waren dabei die ersten Stände, Adel und Klerus. Die Hauptsteuerlast trugen die Bauern, die zusätzlich Abgaben an Grundherrn und Kirchensteuern aufzubringen hatten. Für die Steuereintreibung waren Steuerpächter zuständig, die gegen einen an die Krone abzuführenden Festbetrag die Abgaben bei den Steuerpflichtigen erhoben und dabei Überschüsse für sich behalten konnten – eine gleichsam institutionalisierte Einladung zum Missbrauch. Die Haupteinnahmen wurden bei der Salzsteuer (Gabelle) erzielt, die dafür nach zahlreichen Erhöhungen im Volk besonders verhasst war. Von ausschlaggebender Bedeutung als Reformbremse waren schließlich die Obersten Gerichtshöfe (Parlements), die den von der monarchischen Regierung erlassenen Gesetzen durch Einregistrierung Gültigkeit verleihen, Einwände erheben oder ihnen die Zustimmung verweigern konnten. Die Parlamente waren eine Domäne des Amtsadels (Noblesse de robe). Innerhalb ihres Standes waren die Amtsadligen Emporkömmlinge, die sich zumeist durch Ämterkauf den Adelsstatus erworben hatten. Bei der Wahrung ihrer Privilegien und Interessen waren sie aber nicht weniger engagiert als der alteingesessene Schwertadel (noblesse d’épée). Die in den Parlamenten praktizierte zunehmende Verweigerungshaltung gegenüber Steuergesetzen der Krone fand Rückhalt auch im Volk. Nachdem alle Einschüchterungsversuche des Hofes erfolglos geblieben waren und auch die Initiative Ludwigs XVI. gescheitert war, die Privilegierten in einer 1787 und 1788 eigens zusammengerufenen Notabelnversammlung auf seinen Kurs zu verpflichten, versuchte die Regierung die Privilegien der Parlamente zu beschneiden. Es kam daraufhin zu einer breiten Solidarisierung mit den Parlamentsangehörigen. Diese gipfelte in Unruhen, die in Grenoble am „Tag der Ziegel“ Verlauf und Forderungen der späteren Revolution in mancher Hinsicht vorausnahmen. Letztlich kam der König an der Wiedereinberufung der seit 1614 ausgesetzten Generalstände nicht mehr vorbei, wollte er die Krise der Staatsfinanzen nicht weiter eskalieren lassen. Aufklärerisches Denken und Politisierung. Nicht nur auf einem zentralen Feld praktischer Politik und im institutionellen Bereich wies der vorrevolutionäre französische Absolutismus Schwächen auf. Aufklärerisches politisches Denken stellte auch seine Legitimationsgrundlage in Frage und eröffnete neue Optionen der Herrschaftsorganisation. Aus der französischen Aufklärung des 18. Jahrhunderts ragen zwei Denker wegen ihrer besonderen Bedeutung für unterschiedliche Phasen der Französischen Revolution hervor: Montesquieus Modell einer Gewaltenteilung zwischen gesetzgebender, ausführender und richterlicher Gewalt kam im Laufe der ersten Revolutionsphase zur Anwendung, die in die Schaffung einer konstitutionellen Monarchie mündete. Für die radikaldemokratische zweite Revolutionsphase hat Rousseau wichtige Impulse geliefert, unter anderem, indem er das Eigentum als Ursache der Ungleichheit zwischen den Menschen ansah und Gesetze kritisierte, die ungerechte Besitzverhältnisse schützten. Er propagierte die Unterordnung des Einzelnen unter den allgemeinen Willen (Volonté générale), sah von einer Gewaltenteilung ab und die Richterwahl durch das Volk vor. Verbreitung fand aufklärerisches Denken im 18. Jahrhundert zunehmend in Debattierclubs und Freimaurerlogen sowie durch Lesezirkel, Salons und Kaffeehäuser, die im geselligen Rahmen zur Lektüre und Diskussion der Lesefrüchte anregten. Auch der Meinungsaustausch zu aktuellen politischen Fragen hatte hier zwanglos-selbstverständlich seinen Ort. Hauptnutzer waren bildungsbürgerliche Schichten und Berufsstände, wie z. B. Juristen, Ärzte, Lehrer und Professoren. Ein breitenwirksames Produkt und Kompendium aufklärerischen Denkens stellte die von Denis Diderot und Jean Baptiste le Rond d’Alembert herausgegebene Encyclopédie dar, die erstmals zwischen 1751 und 1772 erschien. Sie wurde – in mehrere Sprachen übertragen – zu dem Aufklärungslexikon schlechthin für die europäische Bildungswelt des 18. Jahrhunderts: „Verpackt zwischen vielen Bildtafeln und Artikeln über Technik, Handwerk und Gewerbe standen die geisteswissenschaftlichen Artikel, die die modernen Ideen vertraten und Sprengstoff enthielten, um mehr als ein Ancien régime zu unterminieren.“ Teuerung als sozialer Treibsatz. Der Großteil der Bevölkerung im Ancien régime war an Aufklärungsdenken und Politisierung wenig interessiert, am Brotpreis umso mehr. Die Bauern, die vier Fünftel der Bevölkerung stellten, hatten 1788 infolge der "Kleinen Eiszeit" eine schlimme Missernte erlitten und danach einen harten Winter durchlebt. Die klimatischen Extrema dieser Dekade können auch zusätzlich durch den Vulkanausbruch vom 8. Juni 1783 auf Island verstärkt worden sein. Während es den Bauern am Nötigsten fehlte, sahen sie die Speicher der weltlichen und geistlichen Grundherren, denen sie Abgaben zu entrichten hatten, noch gut gefüllt. Es kam zu Protesten und Forderungen nach Verkauf zu einem „gerechten Preis“, als bei der eingetretenen Knappheit die Getreidepreise im Gegenteil gerade mächtig anzogen. Noch empfindlicher traf die Teuerung die kleinen Leute in den Städten, für die das tägliche Brot Hauptnahrungsmittel war. Zur Jahresmitte 1789 war Brot teurer als zu jedem anderen Zeitpunkt des 18. Jahrhunderts in Frankreich und kostete das Dreifache des Preises der besseren Jahre. Das bedeutete für den städtischen Handwerker, dass er etwa die Hälfte seines Einkommens allein für die Brotversorgung ausgeben musste. Jede Preissteigerung wirkte da existenzbedrohend und ließ die Nachfrage nach anderen Gütern des täglichen Bedarfs sinken. „Nun erreichten Unzufriedenheit und Erregung auch diejenigen, die von der öffentlichen Auseinandersetzung um die Finanzmisere und die Funktionsunfähigkeit des Staates noch nicht unmittelbar erreicht und mobilisiert worden waren. Die wirtschaftliche Not, die infolge der Teuerung und Unterproduktion die städtischen Konsumenten und dann auch Handel und Gewerbe betraf, brachte die ‚Massen’ auf die politische Bühne.“ 1789 – ein vielschichtiges Revolutionsjahr. Im Allgemeinen Bewusstsein ist 1789 das am engsten mit der Französischen Revolution verknüpfte Jahr, nicht nur, weil es den Beginn eines großen politischen und sozialen Umwälzungsprozesses markiert, sondern auch, weil in diesem Jahr die maßgeblichen Voraussetzungen für das Bewusstsein der nationalen Zusammengehörigkeit aller Franzosen geschaffen wurden. Möglich war dies auch wegen der Mehrgleisigkeit des revolutionären Geschehens, das nach und nach die gesamte Bevölkerung in seinen Bann schlug und bei dem drei Komponenten zusammen- und ineinanderwirkten: die Wendung der Volksvertreter gegen die absolutistische Monarchie, die Erhebung der städtischen Bevölkerung gegen die überkommenen Herrschafts- und Verwaltungsorgane und die Revolte der Bauern gegen das ländliche Feudalregime. Ohne die mit je besonderen Motiven verbundenen Volksaktionen wären die aufklärerisch inspirierten, zu Reformen entschlossenen Vertreter des Bildungs- und Besitzbürgertums mit ihren politischen Vorstellungen 1789 kaum weit gekommen. Von den Generalständen zur Nationalversammlung. Zur Einberufung der Generalstände war es durch die Blockadehaltung und auf Druck der Privilegierten in Parlamenten und Provinzialständen gekommen. Positive Erwartungen daran knüpften aber vor allem die Mitglieder des Dritten Standes, die mehr als 95 % der Bevölkerung ausmachten. In den Beschwerdeheften, die bei solcher Gelegenheit traditionell verfasst und den Abgeordneten zur Versammlung mitgegeben wurden, forderten die Bauern Erleichterungen bei den Abgaben und Sonderrechten, die ihre Grundherren beanspruchten, während die von aufklärerischen Vorstellungen bestimmten Teile des Bürgertums bereits auf die Umgestaltung der Monarchie nach englischem Vorbild zielten. Als gemeinsames Anliegen wurde die Forderung formuliert, dass der Dritte Stand in den Generalständen eine Aufwertung gegenüber Klerus und Adel erfahren müsste. Noch bei ihrer letzten Zusammenkunft 1614 war jeder der drei Stände mit etwa 300 Köpfen vertreten, wobei das Votum jedes Standes einheitlich abgegeben werden musste, was letztlich auf eine 2:1-Entscheidung für die privilegierten Stände hinauslief. Ludwig XVI. reagierte auf die Forderungen taktierend: Dem Dritten Stand wurde zwar die Verdoppelung der Abgeordnetenzahl zugestanden, der Abstimmungsmodus in den Generalständen blieb aber offen. Das Eröffnungszeremoniell am 5. Mai 1789 in Versailles verhieß nichts Gutes: Die beiden ersten Stände kamen in großer Festgarderobe auf reservierten Plätzen zu sitzen; die Abgeordneten des Dritten Standes, denen einfacher schwarzer Anzug vorgeschrieben war, mussten selbst sehen, wie sie sich platzierten. In den Ansprachen gab es von Seiten des Hofes noch immer keinen Hinweis auf die Geschäftsordnung. Mehr als ein Monat verging danach mit ergebnislosen Debatten, da die privilegierten Stände mehrheitlich auf dem alten Tagungs- und Abstimmungsmodus beharrten: getrennte Beratung der Stände, je einheitliche Stimmabgabe pro Stand. Doch vor allem beim volksnahen niederen Klerus, den Dorf- und Gemeindepfarrern, begann die Front massiv zu bröckeln, als sich seit dem 12. Juni einige dem Dritten Stand anschlossen und dessen Beratungen zu folgen begannen. Von da an überstürzten sich die Ereignisse. Auf Antrag des Abbé Sieyès, der die überragende Rolle des Dritten Standes schon vordem wirksam propagiert hatte, erklärten dessen Vertreter sich am 17. Juni zu Repräsentanten von mindestens 96 % der französischen Bevölkerung, gaben sich den Namen Nationalversammlung und forderten beide anderen Stände auf, sich ihnen anzuschließen. Diesem Aufruf folgte der Klerus am 19. Juni mit knapper Mehrheit, während der Adel bis auf 80 seiner Vertreter die Unterstützung des Königs zur Erhaltung der alten Ordnung suchte. Ludwig XVI. beraumte für den 23. Juni eine königliche Sitzung an und sperrte bis dahin den Sitzungssaal. Die nunmehr entschlossenen Deputierten organisierten aber am 20. Juni ein Treffen im Ballhaus, bei dem sie schworen, sich nicht zu trennen, bevor eine neue Verfassung geschaffen wäre. Sie widerstanden dann auch allen Drohungen des Königs in der Sitzung vom 23. Juni. Bailly als gewählter Präsident der Versammlung verweigerte dem die Auflösungsorder überbringenden Zeremonienmeister den Gehorsam mit dem markanten Ausspruch, dass die versammelte Nation von niemandem Befehle entgegenzunehmen habe. Dem Gebrauch von Waffengewalt gegen den Dritten Stand stellten sich auch einige Adlige in den Weg. Als der Herzog von Orléans, Cousin des Königs, sich mit einer ganzen Reihe weiterer Adliger auf die Seite der Nationalversammlung stellte, gab Ludwig XVI. am 27. Juni nach und befahl nunmehr seinerseits beiden privilegierten Ständen die Mitwirkung. Vom Sturm auf die Bastille zum Kampf gegen die Feudalherrschaft. Die politischen Erfolge des Dritten Standes waren einstweilen vorläufige, denn zeitgleich mit seinem Nachgeben hatte der König Truppen nach Paris beordert, die die Öffentlichkeit beunruhigten und das Volk – zumal angesichts des wie nie zuvor teuren Brotes – eine nochmalige Verschlechterung der Nahrungsmittelversorgung fürchten ließen. Als der beim Dritten Stand als sein Interessenwahrer bei Hofe relativ angesehene Finanzminister Necker am 11. Juli vom König entlassen wurde, galt dies der Pariser Bevölkerung als unheilvolles Signal. Der Rechtsanwalt Camille Desmoulins trat als Wortführer des Volkszorns hervor: „Die Entlassung Neckers ist die Sturmglocke zu einer Bartholomäusnacht der Patrioten! Die Bataillone der Schweizer und Deutschen werden uns noch heute den Garaus machen. Nur ein Ausweg bleibt uns: zu den Waffen zu greifen!“ Zahlreiche Stadtzollhäuser wurden spontan zerstört, die königlichen Zolleinnehmer verjagt. Angesichts der aufgeheizten Stimmung formierten die unterdessen in die königliche Pariser Stadtverwaltung integrierten Wahlmänner des Dritten Standes am 13. Juli eine Bürgermiliz als ordnendes Element, die spätere Nationalgarde. Das Volk aber drängte zur Bewaffnung. Nach Plünderung eines Waffenlagers zog man am 14. Juli zur Bastille, um dort zusätzlich Waffen und Pulver zu beschaffen. Hier fanden sich weitere Aufstandsbereite zu gemeinsamer Aktion gegen das Negativsymbol der absolutistischen Herrschaft ein, eine etwa 5000-köpfige Menge insgesamt. Das Stadtgefängnis beherbergte zu diesem Zeitpunkt allerdings nur sieben Gefangene ohne politischen Hintergrund. Der nur mit kleiner Besatzung operierende Bastille-Kommandant Launay ließ die Menge ungehindert in die Vorhöfe eindringen, dann aber unter Feuer nehmen. 98 Tote und 73 Verwundete hatten die Belagerer am Ende des Tages zu beklagen. Als die erregte Menge die Stadtverwaltung unter Druck setzte, wurden mit Hilfe von Militärs vier Kanonen vor der Bastille in Stellung gebracht; Launay kapitulierte. Die über die heruntergelassenen Brücken einströmenden Massen, denen die vorherige Beschießung als Verrat galt, töteten drei Soldaten und drei Offiziere; Launay wurde erst weggeschleift, dann umgebracht, sein Kopf ebenso wie der des Vorstehers der königlichen Stadtverwaltung Flesselles auf Piken gespießt und zur Schau gestellt. Die Spitzen des Ancien Régime reagierten schockiert-defensiv. Die Pariser Truppen wurden zurückgezogen und der Nationalversammlung Anerkennung und Schutz zugesichert. An die Spitze der Pariser Verwaltung trat als Bürgermeister nun Bailly; Befehlshaber der Nationalgarde wurde der vom amerikanischen Unabhängigkeitskrieg mitgeprägte liberale Marquis de La Fayette. Ähnlich umgestaltet wurden in der Folge auch die Stadtverwaltungen in den Provinzen Frankreichs (munizipale Revolution). Am 17. Juli morgens verließ der Graf von Artois, Bruder des Königs, als erster Emigrant das Land, während sich Ludwig XVI. unter Druck des Volkes nach Paris begab und zum Zeichen der Billigung des Geschehenen sich die blau-weiß-rote Kokarde an den Hut steckte. „Bis zum 14. Juli war so gut wie nicht von den Bauern die Rede gewesen“, so der Historiker Lefèbvre; doch ohne ihre Unterstützung, meint er, wäre die Revolution schwerlich gelungen. Der bäuerliche Eigenbesitz an Grund und Boden machte gegenüber dem von Adel, Klerus und Bürgertum etwa 30 Prozent aus. Leibeigene gab es nur noch in einzelnen Regionen. Der Anteil der landlosen Bauern, die Abgaben an den Grundherrn zu entrichten hatten, schwankte regional zwischen 30 und 75 Prozent. „Im allgemeinen stand dem Besitzer die Hälfte von der Ernte und vom Viehzuwachs zu, aber er setzte immer häufiger alle möglichen anderen Abgaben durch…“ Vielfach wurden im Laufe des 18. Jahrhunderts von den adligen und bürgerlichen Grundherren Rechte wieder geltend gemacht und in die Grundbücher eingetragen, die teilweise bereits in Vergessenheit geraten waren. Eine neuere Deutung dieses häufig als „feudale Reaktion“ bezeichneten Phänomens lautet: „Der Kapitalismus drang überall durch die Ritzen der alten Ordnung und bediente sich ihrer Möglichkeiten.“ Missernten und Teuerung trafen viele kleinbäuerliche Existenzen, deren Produktion zur Selbstversorgung mit Nahrungsmitteln nicht ausreichte, doppelt, da die Teuerung auch die bäuerlichen Zuverdienstmöglichkeiten in der Stadt minderte. „Im Frühjahr 1789 tauchten überall organisierte Bettlerbanden auf, die von Hof zu Hof zogen, bei Tag und bei Nacht, und mit heftigen Drohungen auftraten.“ Im Reizklima der Wahlen zu den Generalständen und in Reaktion auf die Ereignisse in Versailles und Paris entwickelte sich auf dem Lande die sogenannte "Große Furcht" (Grande Peur) vor dem „aristokratischen Komplott“, das für alle misshelligen Entwicklungen und Umtriebe verantwortlich gemacht wurde und in vielerlei bloßen Gerüchten zusätzlich Gestalt annahm. Das Phänomen der Grande Peur herrschte zwischen Mitte Juli und Anfang August 1789, erfasste nahezu ganz Frankreich und begleitete die massiven bäuerlichen Angriffe auf Schlösser und Klöster, die vom 17./18. Juli an geplündert und in Brand gesteckt wurden mit dem Ziel, die Archive mit den Urkunden über die Herrenrechte zu vernichten und den Verzicht der Grundherren auf ihre feudalen Rechte zu erzwingen. Ende der Ständegesellschaft, Erklärung der Menschenrechte und Triumphzug der Pariser Frauen. Die Heftigkeit und das Ausgreifen der Revolution auf dem Lande alarmierten auch Hof und Nationalversammlung in Versailles. Letztere war infolge der Ereignisse des 14. Juli zur allein maßgeblichen politischen Autorität geworden, von der die Neuordnung der Verhältnisse erwartet wurde. Nun geriet sie unter Zugzwang: Die bis dahin bereits kontrovers diskutierte Frage, ob eine Menschenrechtserklärung schon vor Abschluss der Verfassungsberatungen verkündet werden sollte, wurde plötzlich akut. Etwa 100 Abgeordnete des Dritten Standes, die sich zu gemeinsamen Beratungen im Bretonischen Klub zusammengefunden hatten, bereiteten einen Überrumpelungscoup in der Versammlung vor, mit dem der hinhaltende Widerstand der privilegierten Stände, die auf wieder etwas günstigere Zeiten zur Wahrung ihrer Besitzstände hofften, ausgehebelt werden sollte. Das Manöver gelang mit Unterstützung von liberalen Adligen, die in der Nachtsitzung vom 4./5. August 1789 mit großer Geste als Vorreiter des Verzichts agierten. Dieser betraf alle an die Person gebundenen Dienste, Hand- und Spanndienste, die grundherrliche Gerichtsbarkeit, den privilegierten Ämterzugang, die Abschaffung des Ämterkaufs und des Kirchenzehnten, dazu Vorrechte wie das der Jagd und der Taubenhaltung. Die Leibeigenschaft, die Steuerbefreiung der privilegierten Stände sowie alle Sonderrechte der Provinzen und Städte wurden aufgehoben: „In wenigen Stunden hatte die Versammlung die Einheit der Nation vor dem Recht hergestellt, hatte grundsätzlich mit dem Feudalsystem und der Herrschaft der Aristokratie auf dem Lande aufgeräumt, hatte das Element ihres Reichtums, das sie vom Bürgertum unterschied, beseitigt und die Finanz-, Justiz- und Kirchenreform jedenfalls eingeleitet.“ Es war das Ende des ständestaatlich organisierten Ancien Régime. Der in Windeseile sich verbreitende und die Revolution auf dem Lande nahezu schlagartig beendende Eingangssatz des die Beschlüsse dieser Nachtsitzung zusammenfassenden Dekrets lautete: „Die Nationalversammlung zerbricht vollständig das Feudalregime.“ Die frohe Kernbotschaft enthielt für die Bauern allerdings nicht die ganze Wahrheit. Zwar waren Leibeigenschaft und Frondienste ersatzlos abgeschafft, aber die übrigen Herrenrechte wurden lediglich rückkäuflich bzw. ablösbar gemacht, bei jährlich 3,3 Prozent Zinsen: „das politische Kalkül liegt darin, dass man das alte Herrenrecht in gutes bürgerliches Geld umrechnet und den Zins so lange zahlen lässt, wie das Kapital nicht zurückgezahlt ist. Die Adligen retten, was überhaupt zu retten ist, und die Grundbesitzer des Dritten Standes haben einen großen Vorteil durch die Gleichstellung von adeligen und bürgerlichen Gütern.“ Nachdem auf diese Weise die ländliche Bevölkerung hatte beruhigt werden können, setzte die Nationalversammlung ihre Arbeit an einer Erklärung der Menschen- und Bürgerrechte fort, die am 26. August 1789 verabschiedet wurde und mit der Zusicherung beginnt: „Von ihrer Geburt an sind und bleiben die Menschen frei und an Rechten einander gleich.“ Verbürgt werden u. a. auch Eigentum, Sicherheit und das Recht auf Widerstand gegen Unterdrückung, rechtsstaatliche Prinzipien, Religions-, Meinungs- und Pressefreiheit sowie Volkssouveränität und Gewaltenteilung. Furet/Richet urteilen: „Diese siebzehn kurzen Artikel von wunderbarem Stil und geistiger Dichte sind nicht mehr Ausdruck des vorsichtigen Taktierens und der Ängstlichkeit des Bürgertums: indem die Revolution ihre Ziele und ihre Errungenschaften frei definiert, gibt sie sich in der natürlichsten Weise eine Fahne, die von der ganzen Welt respektiert werden muß.“ Der bürgerliche Individualismus habe damit seine öffentlich-rechtliche Magna Charta erhalten. Dass sich die Erklärung nur auf Männer bezieht, wird im Text nicht ausdrücklich erwähnt, verstand sich jedoch dem Zeitgeist entsprechend nahezu von selbst – nicht jedoch für die französische Rechtsphilosophin und Schriftstellerin Olympe de Gouges, die 1791 die "Déclaration des droits de la femme et de la citoyenne" („Erklärung der Rechte der Frau und Bürgerin“) veröffentlichte, in der sie die völlige Gleichstellung der Frau mit dem Mann forderte. Zug der Frauen nach Versailles Ludwig XVI., dessen Unterschrift gebraucht wurde, damit die Dekrete der Nationalversammlung in Kraft treten konnten, machte allerlei juristische Vorbehalte geltend und versuchte als Gegenleistung für seine Zustimmung eine möglichst starke Veto-Position in der künftigen Verfassung herauszuschlagen. Zudem beorderte er neuerlich ein auswärtiges flandrisches Regiment nach Versailles, dessen Offiziere bei einem königlichen Bankett am 1. Oktober die blau-weiß-rote Kokarde unter ihren Stiefeln zertraten. Der Vorgang wurde in Paris bekannt und heizte eine bei anhaltend hohem Brotpreis und Versorgungsmängeln ohnehin aufgeladene Stimmung weiter an. Jean-Paul Marat, der im September 1789 seine Zeitung „Der Volksfreund“ gegründet hatte, hielt mit anderen gemeinsam die Pariser auf dem Laufenden und mit Warnhinweisen auf die „Verschwörung der Aristokraten“ gegen das Volk in revolutionärer Spannung. Am 5. Oktober versammelte sich vor dem Rathaus eine hauptsächlich aus Frauen (Poissarden) bestehende mehrtausendköpfige Menge in der Absicht, nach Versailles zu ziehen, um ihre Forderungen vor Ort geltend zu machen. Unter dem Geläut der Sturmglocken verließen sie Paris; später folgten ihnen 15.000 Nationalgardisten und zwei Vertreter der Stadtverwaltung mit dem Auftrag, den König nach Paris zu bringen. Ludwig XVI. empfing die Frauen, versprach Lebensmittellieferungen und unterschrieb unter dem Eindruck der Bedrängnis die Dekrete der Nationalversammlung. Die Lage schien entspannt; doch die Frauen blieben über Nacht, bewachten das Schloss und setzten auch der Nationalversammlung mit ihren Brotforderungen und Zwischenrufen zu. Am darauffolgenden Vormittag drängten sie ins Schloss und erzwangen gemeinsam mit Stadtbeauftragten und Nationalgardisten das Zugeständnis des Königs, nach Paris umzuziehen. Die Nationalversammlung schloss sich an. „Am frühen Nachmittag machte sich der endlose Zug lärmend auf den Weg nach Paris. An der Spitze marschierten Einheiten der Nationalgarde; auf jedem Bajonett steckte ein Brotlaib. Dann folgen die Frauen, mit Piken und Flinten bewaffnet oder Pappelzweige schwingend; sie begleiten die Getreidewagen und die Kanonen. Hinter den entwaffneten königlichen Soldaten mit der Trikoloren-Kokarde der Leibgarde, dem Régiment d' infanterie de Flandre (Flandrischen Regiment) und der Schweizergarde rollt langsam wie ein Leichenwagen die Karosse mit der königlichen Familie […] Daran schließen sich die Wagen der Abgeordneten, und den Schluss bildet die riesige Volksmenge mit dem Hauptteil der Nationalgarde. Als sei die Symbolkraft dieses Zuges noch nicht einleuchtend genug, rufen die Leute: ‚Wir bringen den Bäcker, die Bäckersfrau und den Bäckerjungen!’“ Monarch und Nationalversammlung würden fortan den Pressionen des Volkes in der Kapitale Paris ausgesetzt sein. Die konstitutionelle Monarchie. Der Umzug von König und Hofstaat nach Paris, gefolgt von einer Begrenzung der Finanzmittel, die der Krone fernerhin im Rahmen einer von der Nationalversammlung bewilligten sogenannten Zivilliste zur Verfügung standen, schwächte die Stellung Ludwigs XVI. zwar zusätzlich, doch blieb er eine zentrale Figur im politischen Kräftespiel. Von einer kleinen Minderheit abgesehen, beabsichtigte niemand in der Nationalversammlung die Abschaffung des Königtums. Wohl aber gab es unterschiedliche Positionen dazu, wie viel politischer Einfluss dem Monarchen im Rahmen der künftigen Verfassung zukommen sollte. Von seiner Zustimmung hing aber wiederum ab, ob die neue Verfassungskonstruktion überhaupt funktionieren könnte. An einer prinzipiellen Weigerungshaltung des Königs musste jede konkrete Fassung der konstitutionellen Monarchie scheitern. Die Nationalversammlung auf dem Weg zur Verfassung. Die "Fête de la Fédération" auf dem Pariser Marsfeld am 14. Juli 1790 Den stürmischen Unruhen und Umbrüchen von 1789 folgte, begünstigt durch eine gute Ernte und die verbesserte Versorgungslage, das „glückliche Jahr“ 1790, das seinen Höhepunkt im Föderationsfest auf dem Champ de Mars zum Jahrestag der Bastille-Eroberung hatte: „Vor Hunderttausenden jubelnder Zuschauer leisteten hier 60.000 Nationalgardisten aus allen Teilen des Landes mit der Nationalversammlung den Eid der Treue für die Nation, das Gesetz und den König am ‚Altar des Vaterlandes’ und begingen feierlich die Verbrüderung der französischen Nation.“ Die Verfassungsberatungen der Nationalversammlung, die sich in eine Vielzahl themenbezogener Ausschüsse gegliedert hatte, machten beachtliche Fortschritte. Noch vor Jahresende 1789 nahm man das vordringliche Problem einer Sanierung der Staatsfinanzen mit revolutionärem Elan in Angriff: Sämtliche Kirchengüter wurden verstaatlicht und in Nationalgüter umgewandelt. Die Gesamtheit dieser Nationalgüter diente als Deckung einer neuen Papiergeld-Währung, der Assignaten. Da den Geistlichen aus Kirchenbesitz nun keine Einkünfte mehr zur Verfügung standen, waren sie auf staatliche Besoldung angewiesen. Die Zivilverfassung des Klerus legte schließlich fest, dass Pfarrer wie andere Beamte zu wählen waren, und ein Dekret schrieb ihnen vor, die Verordnungen der Nationalversammlung von der Kanzel herab zu verlesen und zu kommentieren. Anfang 1790 wurden die bis dahin ungleich gestellten Provinzen durch eine Neuaufteilung in 83 Departements mit einheitlicher Untergliederung und Verwaltungsstruktur abgelöst. Die Stadt- und Binnenzölle innerhalb Frankreichs wurden aufgehoben. Im Gerichtswesen wurde anstelle der Ämterkäuflichkeit die Wahl der Richter – unter juristisch Vorgebildeten – eingeführt, für Verhaftete das richterliche Gehör binnen 24 Stunden und die Pflichtverteidigung durch einen Anwalt vorgeschrieben. Im Wahlrecht gaben die besitzbürgerlichen Vorbehalte in der Versammlung den Ausschlag; man ging hinter das für die Wahlen zu den Generalständen praktizierte allgemeine (Männer-)Wahlrecht zurück: Wählen durften nur sogenannte Aktivbürger mit einem bestimmten Steuermindestaufkommen. Als maßgebliche Begründung für diese Position diente die Überlegung, dass nur ein nicht käuflicher und damit unabhängiger Bürger das Wahlrecht ausüben sollte. Einzig der Rechtsanwalt Robespierre geißelte dies als Verstoß gegen die in der Menschenrechtserklärung garantierte Rechtsgleichheit. Das heikelste Problem der Konstituante blieb aber die Frage, ob und wie es gelingen könnte, Ludwig XVI. in das neue politische System einzubauen. Vor allem in dieser Frage gab es sehr unterschiedliche Vorstellungen und den Hang zu politischer Lagerbildung, die das Rechts-links-Schema, wie es späterhin geläufig geworden ist, begründet hat. Auf den Ehrenplätzen zur Rechten des Parlamentspräsidenten saßen die „Aristokraten“, Mitglieder der beiden ersten Stände und Anhänger des Ancien Régime, die Ludwig XVI. nicht nur die ausführende Gewalt überlassen, sondern ihm auch ein absolutes Veto in der Gesetzgebung verschaffen wollten. Richtung Saalmitte und nach links hinüber folgten dann in Abstufungen jene Abgeordneten, die eine Mitwirkung des Königs im Gesetzgebungsverfahren nur in geringem Umfang befürworteten oder völlig ablehnten. Die französische Verfassung von 1791 In dem Auslotungs- und Vermittlungsprozess zwischen Versammlung und König haben sich eine ganze Reihe herausragender Gestalten dieser ersten Revolutionsphase – letztlich vergeblich – engagiert und z. T. durch vermeintliche oder tatsächliche Nähe zu den höfischen Interessen kompromittiert, wie z. B. die zeitweiligen Präsidenten der Nationalversammlung Bailly, Mounier und Mirabeau, der Kommandant der Nationalgarde La Fayette und das „Triumvirat“ Barnave, Duport und Lameth. Laut Verfassungstext wurde dem König schließlich ein aufschiebendes Vetorecht eingeräumt, das ein Gesetzesprojekt für zwei Legislaturperioden blockieren konnte. Andererseits war er als Spitze der Exekutive in seinen Wirkungsmöglichkeiten eingeschränkt. Denn infolge des Wahlprinzips waren Justiz und Verwaltung vom König und seinen Ministern nicht abhängig, zumal, da die Verwaltungsvorschriften nicht von den Ministerien, sondern von der Nationalversammlung erlassen wurden. Zwar blieb er Chef der Streitkräfte, hatte das Offiziersernennungsrecht aber nur mehr für die höchsten Ränge, während die Mannschaften vielfach mit der Revolution sympathisierten und mit Aufständischen fraternisierten. Die Kräfte der Gegenrevolution. Das Revolutionsgeschehen zwischen Juli und Oktober 1789 hatte innerhalb der beiden vormals privilegierten Stände Emigrationswellen ausgelöst und zu Sammelpunkten an kleinen Fürstenhöfen etwa in Turin, Mainz und Trier geführt, von denen gegenrevolutionäre Umtriebe ausgingen, die sowohl die Destabilisierung der neuen Ordnung in Frankreich als auch die Herbeiführung einer ausländischen Intervention zum Ziel hatten. Moderate Unterstützung dafür kam von russischer, spanischer und schwedischer Seite, wo man sich in monarchischer Solidarität für die Wiederherstellung des Ancien Régime aussprach – zu mehr aber einstweilen nicht bereit war. Die Abschaffung des Feudalwesens in Frankreich berührte auch teilweise Ansprüche ausländischer Fürsten, z. B. bei päpstlichen Besitzungen in Südfrankreich und bei denen deutscher Reichsfürsten im Elsass. Weder deren an Kaiser Leopold II., den Bruder der französischen Königin Marie Antoinette, gerichtete Aufforderung zum Einschreiten noch eine persönliche Begegnung mit dem emigrierten Grafen von Artois, dem Bruder Ludwigs XVI., vermochten den Habsburger aber vorerst zu militärischem Handeln zu bewegen. Nicht nur er hatte aufgrund anderer kriegerischer Verwicklungen, wie dem Krieg Russlands und Österreichs gegen das Osmanische Reich 1790 und die im Jahr darauf folgende nationale Erhebung Polens, kein Interesse an einem Krieg gegen Frankreich und ließ sich für die Zwecke der Emigranten nicht einspannen. Deren grenznahe militärische Aktivitäten, die von Stützpunkten wie z. B. Koblenz und Worms aus gestartet wurden, hatten vorläufig nicht die gewünschte Wirkung, auch wenn sie im Osten panische Ängste vor der Verschwörung der Aristokraten schürten. Energischen und anhaltenden Widerstand, der teilweise bald die Form offener Rebellion und eines Religionskriegs annahm, löste dagegen ein Dekret der Nationalversammlung im Zusammenhang mit der Zivilverfassung des Klerus aus, das am 27. November 1790 allen Priestern den Eid auf die neue Verfassung vorschrieb. Papst Pius VI., der bereits die Erklärung der Menschenrechte als „gottlos“ bezeichnet hatte, verbot den Eid bei Strafe der Exkommunikation. Nur knapp die Hälfte der Geistlichen, hauptsächlich aus dem niederen Klerus, leistete daraufhin den Eid. Frankreich war fortan religiös gespalten, denn insbesondere die Landbevölkerung suchte für die Taufe und andere religiöse Kernzeremonien mehrheitlich die eidverweigernden Priester auf. „Die Revolution lieferte damit dem Generalstab der Gegenrevolution, der ohne Truppen war, das nötige Fußvolk: die eidverweigernden Priester und ihre Schäflein.“ Die Flucht des Königs. Tuilerien-Palast, Hoffassade, Fotografie um 1865 Die Kirchenpolitik der Konstituante stellte auch für Ludwig XVI., der im Tuilerien-Schloss den Gottesdienst in der hergebrachten Weise praktizierte, eine zusätzliche Herausforderung dar, da er im öffentlichen Rahmen genötigt war, von eidverweigernden Priestern die Kommunion zu empfangen. Im Februar 1791 appellierte Marie-Antoinette brieflich an Leopold II., nicht länger zu säumen und der weiter rasch fortschreitenden Revolution, die sich auch auf die Österreichischen Niederlande auszubreiten drohe, mit militärischen Mitteln entgegenzutreten. Als Ludwig XVI. dann im April von der Volksmenge daran gehindert wurde, Paris für einen seiner gewohnten Kuraufenthalte in Saint-Cloud zu verlassen, dürften heimliche Fluchtpläne der königlichen Familie vordringlich geworden sein. In der Nacht vom 20./21. Juni 1791 gelang es ihr, aus dem von Nationalgardisten bewachten Schloss in Verkleidung unerkannt zu entkommen, um in Kutschen außer Landes zu gelangen. Ziel waren die Österreichischen Niederlande, mit deren militärischer Unterstützung Ludwig XVI. auf Rückkehr nach Frankreich und Restauration seiner absolutistischen Herrschaft hoffte. Besondere Vorsicht ließ der König während der Flucht nicht walten, sodass er bei Aufenthalten mehrfach erkannt wurde. Die ohnehin im Zeitplan nachhängende Reisegesellschaft wurde von den Meldungen ihres Unterwegsseins überholt und schließlich nicht sehr weit vor der belgischen Grenze bei Varennes gestoppt. Die Rückführung der königlichen Familie löste in Paris einen Massenauflauf aus, der auch die Häuserdächer einschloss. Von der lärmenden Begeisterung, die noch die erzwungene Ankunft des Königs im Oktober 1789 bei den Parisern ausgelöst hatte, war allerdings nichts geblieben. Ein lastendes Schweigen lag über der Szene. In der Nationalversammlung, die ihr Verfassungswerk gefährdet sah, wurde an Ludwig XVI. auf widersprüchliche Weise festgehalten. Einerseits wurde wider besseres Wissen die Lesart verbreitet, der König sei entführt worden; andererseits wurde er von seinen monarchischen Funktionen so lange entbunden, bis ihm die noch zu vollendende Verfassung zur Unterschrift vorgelegt werden konnte. Barnave mahnte in der Debatte vom 15. Juli 1791: „Wollen wir die Revolution beenden oder wollen wir von neuem mit ihr beginnen? […] Mit noch einem Schritt voran würden wir Unheil und Schuld auf uns laden, ein Schritt weiter auf dem Weg der Freiheit wäre die Zerstörung des Königtums, ein Schritt weiter auf dem Wege der Gleichheit wäre die Zerstörung des Eigentums.“ Bei seiner Flucht hatte Ludwig XVI. eine gegenrevolutionäre Proklamation hinterlassen, die der Öffentlichkeit vorerst unbekannt blieb. Darin hervorgehoben hatte er u. a. die aus seiner Sicht unheilvolle Rolle der politischen Klubs und deren maßgebliche Einflussnahme auf die Beschlüsse der Konstituante. Wie sich nun zeigte, war es aber gerade seine Flucht, die zu einer Neuformierung und Radikalisierung dieser außerparlamentarischen politischen Organisationen führte. Der bis zum Oktober 1789 in Versailles maßgebliche Bretonische Klub hatte in Paris als „Gesellschaft der Freunde der Verfassung“ seinen Tagungsort im Jakobinerkloster gefunden und wurde folglich Jakobiner-Klub genannt. Bereits bis Ende 1790 breitete er sich in 150 Filialen über das ganze Land aus und entfaltete als Ort der politischen Meinungsbildung tatsächlich große Wirkung, wobei das Pariser Original zugleich vorberatenden Einfluss auf die Beschlussfassung in der Nationalversammlung ausübte. Die Flucht der königlichen Familie führte in der Frage der Absetzung Ludwigs XVI. zur Spaltung des Jakobinerklubs: Da die Linke um Robespierre für die Absetzung des Königs eintrat, zog die Mehrheit der die Linie von La Fayette und Barnave teilenden Klubmitglieder aus und gründete im ehemaligen Feuillanten-Kloster den Klub der Feuillants. Auch bei den Tochtergesellschaften kam es zu Abspaltungen; doch gelang es den Pariser Jakobinern auch mittels einer nun erst einsetzenden Kampagne für das allgemeine Wahlrecht, in den namensgleichen Filialen ein deutliches Übergewicht zu behalten. Jean-Paul Marat in einer späteren Darstellung von 1824 Da die Mitgliedsbeiträge im Jakobinerklub relativ hoch waren, gab es alsbald neben ihm zahlreiche weitere Klubs und Volksgesellschaften mit erleichtertem Zugang. Der einflussreichste unter ihnen war der im Franziskaner-Kloster tagende Klub der Cordeliers, ein Diskussions- und Kampf-Klub für die Durchsetzung der Menschenrechte und zur Aufdeckung von Missbräuchen der öffentlichen Gewalt. Marat, Desmoulins und Danton führten darin maßgeblich das Wort und gelangten über ihn zu politischem Einfluss. Nach der Flucht des Königs ging von hier zuerst die Forderung nach Abschaffung der Monarchie und nach Errichtung einer Republik aus. Am 14. Juli 1791 und noch einmal drei Tage später fanden Großdemonstrationen auf dem Champ de Mars statt, wo nun am Altar des Vaterlandes Unterschriften für die Absetzung des Königs gesammelt wurden. La Fayette ließ die zweite Versammlung durch die Nationalgarde mit Gewehrsalven auseinandertreiben, wobei es zahlreiche Tote gab. Ein unübersehbarer Riss trennte nun Nationalversammlung und Pariser Volksgesellschaften. Ein vielseitig motivierter Krieg. Die Höfe, mit deren Unterstützung Ludwig XVI. bei seiner Flucht gerechnet hatte, ließen sich gut einen Monat Zeit für eine Reaktion. Dann erklärten Kaiser Leopold II. und der preußische König Friedrich Wilhelm II. in der Deklaration von Pillnitz die nach der Flucht eingetretene Lage Ludwigs XVI. zum gemeinsamen Interesse für alle Könige Europas. Beide Monarchen stellten militärisches Eingreifen zugunsten Ludwigs XVI. in Aussicht, falls es zu einer großen Koalition der europäischen Mächte mit diesem Ziel käme. Ernsthafte Anstrengungen zur Verwirklichung dieses Plans wurden dann aber nicht unternommen. Bewirkt wurde mit der Drohung nur, dass die französischen Revolutionsanhänger eine noch größere Erbitterung gegen das „aristokratische Komplott“ hegten. Proklamation der Verfassung am 14. September 1791 in Paris, zeitgenössischer Stich Im September 1791 trat das Verfassungswerk der Konstituante unter Mitwirkung Ludwigs XVI., der den Eid auf die Verfassung ablegte, in Kraft. Am 1. Oktober konstituierte sich die neugewählte Legislative, der kein Mitglied der Konstituante mehr angehören durfte. Die Feuillants stellten gegenüber den Jakobinern eine deutliche Mehrheit; die größte Abgeordnetengruppe gehörte aber keinem der beiden Lager an. Das große Thema und die Ursache dafür, dass die Legislative nicht einmal ein Jahr bestand, wurde der Revolutionskrieg. Der ging aber nicht von den europäischen Mächten aus, sondern von Frankreich selbst. Gemäß der neuen Verfassung war dafür das Zusammenwirken von König und Legislative nötig. Für Ludwig XVI. und Marie-Antoinette war ein Krieg nach dem gescheiterten Fluchtversuch der verbliebene Weg zur Wiederherstellung für sie akzeptabler Verhältnisse. Sie rechneten mit einer schnellen Niederlage des französischen Heeres und mit der Hilfe der Sieger bei der Rückabwicklung der revolutionsbedingten Veränderungen. In der Legislative waren die Motive und Argumente selbstverständlich von anderer Art, führten aber zum nämlichen Ergebnis der Kriegsbefürwortung. Unter Feuillants wie La Fayette herrschte die Vorstellung, ein kurzer, begrenzter Krieg würde die Generäle stärken und sie in die Lage versetzen, die Revolution zu stabilisieren. Eine regelrechte revolutionäre Kriegsbegeisterung wurde aber durch den Abgeordneten Brissot von der Linken angefacht: „Die Kraft der Überlegung und der Tatsachen hat mich davon überzeugt, dass ein Volk, das nach 10 Jahrhunderten der Sklaverei die Freiheit errungen hat, Krieg führen muß. Es muß Krieg führen, um die Freiheit auf unerschütterliche Grundlagen zu stellen; es muß Krieg führen, um die Freiheit von den Lastern des Despotismus rein zu waschen, und es muß schließlich Krieg führen, um aus seinem Schoß jene Männer zu entfernen, die die Freiheit verderben könnten.“ Der Abgeordnete Isnard sekundierte: „Glaubt nicht, unsere gegenwärtige Lage verwehre es uns, jene entscheidenden Schläge zu führen! Ein Volk im Zustand der Revolution ist unbesiegbar. Die Fahne der Freiheit ist die Fahne des Sieges.“ Nur Robespierre hielt im Jakobinerklub nachdrücklich dagegen: „Die ausgefallenste Idee, die im Kopf eines Politikers entstehen kann, ist die Vorstellung, es würde für ein Volk genügen, mit Waffengewalt bei einem anderen Volk einzudringen, um es zur Annahme seiner Gesetze und seiner Verfassung zu bewegen. Niemand mag die bewaffneten Missionare; und der erste Rat, den die Natur und die Vorsicht einem eingeben, besteht darin, die Eindringlinge wie Feinde zurückzuschlagen.“ Gegen die Kriegserklärung an den König von Böhmen und Ungarn stimmten am 20. April 1792 lediglich sieben Abgeordnete der Legislative. In der Euphorie der ersten Tage nach diesem Beschluss entstand für die Rheinarmee in Straßburg die Marseillaise, die bis heute Nationalhymne Frankreichs ist („Allons enfants de la patrie…“). Die Kriegswirklichkeit zeigte sich dagegen schnell ernüchternd und verbitternd. Offiziere und Mannschaften setzten den verbündeten Österreichern und Preußen so wenig Widerstand entgegen, dass sehr bald Verrat gewittert wurde und eine Mobilisierung in den Pariser Sektionen einsetzte, durch die mit Piken bewaffnete Sansculotten zum ständigen Erscheinungsbild in den Straßen und auf den Tribünen der Stadt wurden. Ein konzentrierter Vorstoß in die Tuilerien am 20. Juni 1792 endete noch friedlich damit, dass der bedrängte König, der gerade eine unliebsame neue Ministerriege aus Feuillants berufen hatte, sich die rote Jakobinermütze aufsetzte. Am 11. Juli aber erließ die Legislative eine Proklamation, durch die das „Vaterland in Gefahr“ erklärt wurde. Alle waffenfähigen Bürger wurden zur Einregistrierung als Freiwillige aufgefordert, sollten die Nationalkokarde anlegen und wurden zu den Armeen geschickt. In den Provinzen verschärfte sich die königsfeindliche Stimmung. Man sprach wegen der in wichtigen Feldern unkooperativen Haltung Ludwigs XVI. und Marie-Antoinettes gegenüber der Legislative unterdessen oft nur noch abschätzig von „Monsieur et Madame Veto“ sowie vom „Österreichischen Komitee“, das bei Hofe herrsche und die patriotischen Anstrengungen sabotiere. Von Marseille aus brach ein Bataillon aus Freiwilligen nach Paris zum Föderationsfest auf. Durch ihre Gesänge wurde das Lied aus den ersten Kriegstagen als Marseillaise (Hymne der Marseiller) bekannt und verbreitet. Die erste französische Republik. Bei den Vorgängen, die den Sturz der Monarchie, die Errichtung der Republik und die Ausbildung von Revolutionsregierung und Terror in der radikal-demokratischen Phase bis Juli 1794 bewirkten, hat der Revolutionshistoriker Lefèbvre eine spezifische revolutionäre Mentalität als ursächlich gedeutet, die bereits den Sturm auf die Bastille und die anderen Volksaktionen des Jahres 1789 bestimmt habe und die sich erst nach der Festigung der revolutionären Errungenschaften allmählich zurückgebildet habe. Sie bestand nach Lefèbvre aus drei Komponenten: der Furcht (peur) vor dem „aristokratischen Komplott“, der Abwehrreaktion (réaction défensive), die die Selbstorganisation von Volksgruppen und die Durchführung von Widerstandsmaßnahmen umfasste, und dem Willen zur Bestrafung der revolutionsfeindlichen Widersacher (volonté punitive). Der von Hiobsbotschaften für die Revolutionsanhänger geprägte Kriegssommer 1792 setzte in dieser Hinsicht nachhaltige Akzente. Er führte nach 1789 in eine „zweite Revolution“. Durch Volkserhebung zum Nationalkonvent. Anfang August 1792 wurde in Paris das Manifest des Herzogs von Braunschweig bekannt, des Oberbefehlshabers der preußischen und österreichischen Truppen, die zum Einmarsch in Frankreich bereitstanden. Darin wurde mit Blick auf das Ziel, die königliche Familie aus der Gefangenschaft zu befreien und Ludwig XVI. in seine angestammten Rechte wiedereinzusetzen, zu widerstandsloser Unterwerfung der französischen Truppen, Nationalgardisten und Bevölkerung aufgerufen. Wo immer dagegen eine Verteidigung stattfände, drohte das Manifest mit Wohnungszerstörung und Niederbrennen. Paris wurde speziell hervorgehoben und allen irgend politisch Verantwortlichen der Stadt wurden bei Widersetzlichkeit Kriegsgericht und Todesstrafe in Aussicht gestellt. Die beabsichtigte Wirkung dieser Proklamation verkehrte sich ins Gegenteil. In den Pariser Sektionen, die sich bis auf eine bereits für die Absetzung des Königs ausgesprochen hatten – wenn auch gegenüber der Nationalversammlung erfolglos –, wurden nun Aufstandsvorbereitungen getroffen. Am Morgen des 10. August 1792 bildeten die Sektionen eine aufständische Kommune (commune insurrectionelle), die die bisherige Stadtverwaltung verjagte und an deren Stelle trat. Der amtierende Kommandeur der Nationalgarde wurde umgebracht und durch den Bierbrauer Santerre ersetzt. Massen von Handwerkern, Kleinhändlern und Arbeitern zogen gemeinsam mit den in Paris ebenfalls seit Wochen auf Absetzung Ludwigs XVI. drängenden auswärtigen Föderierten vor die Tuilerien und erstürmten sie gegen den Widerstand der Schweizergarde. Hunderte von Toten auf beiden Seiten waren der Preis des Tuileriensturms. Die königliche Familie hatte sich bereits vor dem Angriff in die Nationalversammlung geflüchtet, die aber unter dem Druck der aufgebrachten Volksmassen nun doch die vorläufige Absetzung des Königs und seine Gefängnisverwahrung beschloss. Mit der revolutionären Kommune von Paris war neben die Nationalversammlung ein rivalisierendes politisches Organ getreten, das in der Folgezeit maßgeblichen eigenen Einfluss beanspruchte. Indem nicht wahlberechtigte sogenannte Passivbürger erst in den Pariser Sektionsversammlungen und dann bei der Kommune ihre Interessen zunehmend zur Geltung bringen konnten, büßte die nach dem Zensuswahlrecht gebildete Legislative durch die Volksaktion des 10. August schlagartig ihre Autorität ein. Daher sah sie sich zur Selbstauflösung im Zuge von Neuwahlen nach allgemeinem (Männer-)Wahlrecht für einen Nationalkonvent genötigt. Für die Übergangszeit wurde ein provisorischer Exekutivrat mit den bisherigen Regierungsfunktionen des Königs betraut. Die Verfassung von 1791 hatte damit ausgedient. Bis Ende August gestaltete sich der Vormarsch der preußisch-österreichischen Truppen mit der Einnahme Longwys und Verduns für Paris immer bedrohlicher. Eine Sonderaushebung von 30.000 Mann zur Verteidigung der Hauptstadt beschloss daraufhin die Legislative, die Kommune sogar die doppelte Anzahl. Unterdessen hatten die Sektionen nach dem Umsturz des 10. August Überwachungsausschüsse für alle als revolutionsfeindlich Verdächtigten eingerichtet. Sie sorgten mittels Haussuchungen und Verhaftungen, denen vor allem Hofbedienstete, Feuillants, Journalisten und eidverweigernde Priester ausgesetzt waren, für völlig überfüllte Gefängnisse. In dieser Situation, da sich nun die Freiwilligen-Trupps zum Abrücken gegen die preußisch-österreichischen Verbände unter dem Herzog von Braunschweig bereit machten, erschienen die Gefängnisinsassen als Bedrohung der Revolutionsmetropole von innen. In einer Spontanaktion von Föderierten, Nationalgardisten und Sansculotten, die damit Beschlüsse einzelner Sektionsversammlungen umsetzten, wurden vom 2. bis 6. September zwischen 1100 und 1400 Gefängnisinsassen hingemetzelt. a> als Malereimotiv (Gemälde aus dem Jahr 1835 von Jean-Baptiste Mauzaisse) In dieser angespannten Lage fanden bei nur etwa 10 % Beteiligung die Wahlen zum Nationalkonvent statt. In Paris geschah dies bei offener Stimmabgabe unter Ausschluss der Anhänger des Königtums. Als der Nationalkonvent am 21. September 1792 zu seiner Eröffnungssitzung zusammenkam, schienen die Vorzeichen günstiger als noch kurz zuvor: Es war der Tag nach der Kanonade von Valmy, in der das französische Revolutionsheer siegte und die äußere Bedrohung bis auf Weiteres abwendete. Girondins, Montagnards und das Urteil gegen Ludwig XVI.. Der Begriff Nationalkonvent ("convention nationale") für die nunmehr dritte französische Nationalversammlung signalisierte zwei Kernkompetenzen: die Ausarbeitung einer neuen Verfassung und die vorläufig ungeteilte Ausübung aller Kompetenzen der nationalen Souveränität (bzw. staatlichen Gewalt). Der Konvent sorgte in dieser Hinsicht mit seinen ersten Beschlüssen für klare Verhältnisse. Die Monarchie wurde abgeschafft, die Republik gegründet und eine neue Zeitrechnung eingeführt: Der 22. September 1792 war der erste Tag des Jahres I der Republik. Dieses relativ einmütige Bekenntnis zu der zweiten Revolution vom 10. August verdeckte zunächst jene politischen Lager, die alsbald in der Sitzordnung der Konventsmitglieder zum Ausdruck kamen. Auf der rechten Seite des Hauses sammelten sich die Anhänger Brissots, damals Brissotins genannt, später Girondins (nach dem Departement Gironde, aus dem einige prominente Mitglieder stammten). Sie standen mit ihrem Eintreten für Eigentumsschutz, freien Handel und Marktpreisbildung auf der Seite der Wirtschaftsbourgeoisie. Den Forderungen der Pariser Sektionsversammlungen und der aufständischen Kommune standen sie ablehnend gegenüber und versuchten dagegen den Einfluss der Föderierten in den Departements geltend zu machen. Ihre Widersacher im Konvent saßen in den höheren Sitzreihen, gleichsam auf dem Berg, und wurden deshalb Montagnards genannt. Wie die große Mehrheit der Konventsmitglieder gehörten auch sie zur Schicht des mittleren und gehobenen Bürgertums, darunter vor allem Beamte und Angehörige der freien Berufe, besonders Juristen. Sie hielten über ihre führenden Köpfe – u. a. Danton, Robespierre, Marat – anders als die Girondins engen Kontakt zu den Sektionen und Volksgesellschaften, öffneten sich deren Interessen und machten sich zu ihren Wortführern im Konvent. In der „Ebene“ (plaine) bzw. im „Sumpf“ (marais) zwischen Girondins und Montagnards saß jene Mehrheit von Abgeordneten, die keinem der beiden Lager beitrat, sondern je nach Sachgegenstand und politischer Großwetterlage mal mit der einen, mal mit der anderen Seite stimmte. Dass bei einer Gesamtzahl von 749 Konventsmitgliedern 200 Girondins die ca. 120 Montagnards zahlenmäßig zunächst deutlich überwogen, musste deshalb nicht den Ausschlag geben, auch wenn die Girondins in der Entspannungsphase nach Valmy für ihren liberalen Kurs mehrheitlich Unterstützung fanden und sogar von Justizminister Danton umworben wurden. Die schwelende Frage, wie mit dem abgesetzten und inhaftierten König weiter zu verfahren sei, kam Ende November drängend auf die Tagesordnung des Konvents, als in einem Geheimschrank in den Tuilerien belastende Korrespondenz Ludwigs XVI. mit Emigranten und revolutionsfeindlichen Fürsten entdeckt wurde. Hiernach erwies sich ein Hochverratsprozess als unvermeidlich. Der Konvent selbst bildete den Gerichtshof. Gegen die widerstrebenden Girondins, die den König schonen wollten und den Jakobinerclub verließen, als sie sich dort nicht durchsetzen konnten, entschied der Konvent nach zwei Anhörungen des Angeklagten am 11. und 26. Dezember 1792 in seinen Beratungen vom 16. bis 18. Januar 1793 mehrheitlich, dass Ludwig XVI. sich der Verschwörung gegen die Freiheit schuldig gemacht habe, dass das Volk – anders als die Girondins es wollten – darüber nicht durch Plebiszit zu entscheiden habe, dass er die Todesstrafe erleiden solle, und zwar ohne Aufschub. Am 21. Januar wurde der im Prozess nur noch als Louis Capet Angesprochene auf der „Place de la Révolution“ (heute Place de la Concorde) durch die Guillotine hingerichtet. Von einzelnen royalistischen Protestaktionen abgesehen, blieb es weitgehend ruhig im Lande: „außer in Paris und in den Versammlungen ruft der Prozess gegen Ludwig den XVI. keinerlei Begeisterung hervor. Dieses Schweigen eines ganzen Volkes beim Tod seines Königs beweist, wie tief der Bruch mit den jahrhundertealten Empfindungen der Menschen schon ist. Der Gesalbte Gottes, der mit allen Heilskräften Begabte wird ein für allemal mit Ludwig XVI. zu Staub. Man kann zwar zwanzig Jahre später die Monarchie wieder aufrichten, nicht aber die Mystik des geweihten Königs.“ Jakobiner und Sansculotten im Radikalisierungsprozess. Heftige Reaktionen löste die Guillotinierung Ludwigs XVI. im Ausland aus. Zur treibenden Kraft entwickelte sich dabei Großbritannien, wo der Hof Trauerkleidung anlegte und der französische Gesandte ausgewiesen wurde. Auch die seit den Siegen von Valmy und Jemappes offensive Kriegführung und Annexionspolitik des Konvents sowie die Schädigung britischer Wirtschaftsinteressen in Holland machten den britischen Premierminister Pitt nach der französischen Kriegserklärung vom 1. Februar 1793 zum Haupt einer Koalition der europäischen Mächte gegen das republikanische Frankreich. Bereits zwei Monate später kämpften die zurückgedrängten Revolutionsheere wieder um die Verteidigung der eigenen Landesgrenzen – und innerhalb Frankreichs um den Fortbestand der Revolutionsergebnisse. Angesichts der gegnerischen Übermacht hatte der Konvent am 23. Februar die Aushebung weiterer 300.000 Mann beschlossen und es den Departements überlassen, mit welchem Verfahren sie das ihnen zugeteilte Kontingent zusammenbrachten. Konterrevolutionären Unmut löste diese Vorgabe vor allem in der bäuerlich-konservativ geprägten westfranzösischen Vendée aus, wo sich seit Anfang März bewaffnete Erhebungen wie ein Flächenbrand ausbreiteten und binnen Kurzem zu einem Bürgerkrieg eskalierten, der auch in anderen Teilen des Landes Nahrung fand. Das Dekret des Konvents, das allen bewaffneten Rebellen die Todesstrafe und die Eigentumsbeschlagnahme androhte, bewirkte vorerst ebenso wenig wie der Einsatz von Revolutionstruppen. Zusätzlich unter Druck stand der Konvent im Frühjahr 1793 durch die Pariser Sansculotten, deren Unruhe auch noch durch eine Preisinflation angetrieben wurde. Allein von Ende Januar bis Anfang April war der tatsächliche Wert der Assignaten von 55 % auf 43 % ihres Nennwertes gesunken. Trotz zufriedenstellender Ernte 1792 hielten die Bauern in Erwartung weiterer Preissteigerungen das Marktangebot gering. Die wirtschaftspolitischen Forderungen der Sansculotten, die in solcher Lage regelmäßig erhoben wurden, zielten auf Feststellung der vorhandenen Bestände an Nahrungsmittelvorräten, Beschlagnahme gehorteter Teile der Produktion bei Bauern und Händlern, Festsetzung von Höchstpreisen (bzw. eines Preismaximums) und des Kurses der Assignaten sowie auf die Bestrafung von Wucherern. Während die Girondisten es strikt ablehnten, sich auf solche Forderungen einzulassen, zeigten sich die Montagnards bereitwilliger und zogen unter dem Druck der Umstände die Mehrheit der Plaine-Abgeordneten mit sich, denen daran lag, dass der Konvent die politische Initiative behielt und nicht von den Pariser Sektionen und der Kommune überrollt wurde. Girondistischen Warnungen vor der Diktatur hielt Marat entgegen: „Die Freiheit muss mit Gewalt geschaffen werden, und jetzt ist der Augenblick gekommen, um auf eine gewisse Zeit den Despotismus der Freiheit zu organisieren, um den Despotismus der Könige zu zerschmettern!“ Im März 1793 wurde ein Revolutionstribunal geschaffen, das über Revolutionsgegner und Verdächtige zu urteilen hatte; als Zulieferer dienten die danach in den Gemeinden eingerichteten Überwachungsausschüsse. Der Zwangskurs für Assignaten, ein Preismaximum für Korn und Mehl sowie eine bei den Reichen zu erhebende Zwangsanleihe folgten im April und Mai. Für die Regierungsfunktionen wurde ein Wohlfahrtsausschuss geschaffen, in den am 11. April zunächst eine Mehrheit von Plaine-Abgeordneten gewählt wurde, in dem aber Danton den maßgeblichen politischen Einfluss ausübte. Seine Richtlinie bei der Einrichtung des Revolutionstribunals lautete in Erinnerung an die Septembermorde des Vorjahres: „Seien wir schrecklich, damit das Volk es nicht zu sein braucht!“ Die Girondisten dagegen suchten die Auseinandersetzung mit den Pariser Sansculotten, betonten, dass Paris nur ein Departement neben 82 anderen war, und setzten im Konvent eine rein girondistisch zusammengesetzte Kommission zur Kontrolle der Umtriebe in den Pariser Sektionen durch. Der Abgeordnete Isnard eskalierte den Konflikt mit einer Drohung, die an das Manifest des Herzogs von Braunschweig erinnerte: „[…] sollte jemals durch einen Aufruhr, wie er seit dem 10. August unaufhörlich neu angezettelt wird, … die Vertretung der Nation in Mitleidenschaft gezogen werden, so erkläre ich hiermit im Namen ganz Frankreichs, daß Paris vom Erdboden getilgt werden würde; bald würde man sich beim Anblick des Seine-Ufers fragen, ob es dieses Paris wirklich einmal gegeben hat.“ Die Entscheidung wurde abseits der normalerweise die Volksbewegung anführenden Sektionen und der Kommune von einem aufständischen Komitee vorbereitet, dem es in mehreren Anläufen vom 31. Mai bis 2. Juni 1793 schließlich gelang, den Konvent mit 80.000 Mann umstellen und mit über 150 Kanonen bedrohen zu lassen. Gegen den Widerstand auch der Montagnards wurde ultimativ die Auslieferung der führenden Girondins verlangt, sodass der Konvent letztlich den Beschluss fasste, diese unter Hausarrest zu stellen. Mit dem Ausscheiden der Girondins aus dem Konvent begann jener Abschnitt der Französischen Revolution, der vielfach als „Jakobinerherrschaft“ bezeichnet wird. Eine Revolutionsdiktatur zur Rettung der Republik. Durch die Vertreibung der Girondins aus dem Konvent war auch der wesentlich von dem Aufklärungsphilosophen Condorcet geprägte Verfassungsentwurf hinfällig, der strikte Gewaltenteilung, ein konsequentes Repräsentativsystem und eine stärkere politische Eigenständigkeit und Mitgestaltungskompetenz der Departements vorsah. Eilig wurden bis zur Verabschiedung der neuen Verfassung am 24. Juni 1793 – im Wesentlichen durch Marie-Jean Hérault de Séchelles, Georges Couthon und Louis Antoine de Saint-Just – nun noch Akzente zugunsten der sozialen Gleichheit verschoben, ein Recht auf Arbeit und die Pflicht zum Widerstand gegen eine volksfeindliche Regierung hervorgehoben sowie neben dem Recht des Einzelnen auf Eigentum und freie Verfügung darüber auch die Verpflichtung zur Unterordnung unter den allgemeinen Willen betont. Die Inkraftsetzung dieser per Volksabstimmung bestätigten republikanischen Verfassung wurde allerdings vom Konvent in der bedrohlichen Kriegslage, die durch den von Anhängern der Girondins in den Departements geschürten Bürgerkrieg noch verschärft wurde, auf Friedenszeiten verschoben und ist tatsächlich nie erfolgt. Die Ermordung des radikalen Revolutionärs Marat durch die Girondistin Charlotte Corday am 13. Juli 1793 sowie Aufstände gegen die Herrschaft des Pariser Rumpfkonvents, die u. a. in Lyon, Marseille, Toulon, Bordeaux und Caen ausbrachen, hielten die Sansculotten in gespannter Erregung und den Konvent im Zugzwang. Nun erst wurde die endgültige Befreiung der Bauern von sämtlichen noch zur Ablösung verbliebenen urkundlich belegbaren Feudallasten beschlossen und damit den 1789 auf dem Lande geweckten Erwartungen entsprochen. Zugleich begann der Verkauf enteigneter und in Kleinparzellen zerlegter Emigrantengüter. Damit war die Bindung der noch vermehrten Menge von Kleinbauern an die Revolution erreicht. Die Pariser Sansculotten konnten so aber nicht zufriedengestellt werden. Jacques Roux, der Wortführer einer besonders radikalen Sansculotten-Gruppierung, hatte bereits am Tag nach der Verfassungsverabschiedung, am 25. Juni 1793, im Konvent das „Manifest der Enragés“ (der Wütenden) vorgetragen, in dem es u. a. hieß: „Nun wird das Verfassungswerk dem Souverän übergeben. Habt ihr darin das Spekulantentum geächtet? Nein. Habt ihr die Todesstrafe für Schieber ausgesprochen? Nein. […] Nun so erklären wir euch, ihr habt für das Glück des Volkes nicht genug getan.“ Am 26. Juli beschloss der Konvent daraufhin die Todesstrafe für Kornaufkäufer. Auch bei den Maßnahmen zur militärischen Verteidigung der Republik gegen die äußeren und inneren Feinde wurde der Konvent im August 1793 – entgegen seinen Bedenken hinsichtlich der organisatorischen Folgeprobleme – zum Äußersten getrieben: „Von diesem Augenblick an bis zu dem Zeitpunkt, wo alle Feinde vom Territorium der Republik verjagt sein werden, befinden sich alle Franzosen im ständigen Aufgebot für den Armeedienst. Die jungen Männer ziehen in den Kampf; die verheirateten werden Waffen schmieden und Versorgungsgüter befördern; die Frauen werden Zelte und Kleidung herstellen und in den Krankenhäusern arbeiten; die Kinder werden aus alter Wäsche Verbandsmull machen, und die alten Leute begeben sich auf die öffentlichen Plätze, um dort die Kampfmoral der Krieger zu stärken und den Haß auf die Könige sowie die Einheit der Republik zu verkünden.“ Anfang September wurden bei nochmals verschlechterter Versorgungslage erneut wirtschaftspolitische Forderungen etwa aus der Sektion Sans-Culottes laut: „Jedem Departement wird eine genügende Summe bewilligt, damit der Preis der Grundnahrungsmittel für alle Einwohner der Republik auf gleicher Höhe gehalten werden kann. […] Es soll ein Maximum für Vermögen festgesetzt werden. […] Keiner soll mehr Ländereien pachten dürfen, als für eine festgesetzte Anzahl von Pflügen gebraucht wird. Ein Bürger soll nicht mehr als eine Werkstatt oder einen Laden besitzen dürfen.“ Ein weiterer Sprecher des radikalen Flügels der Sansculotten, Jacques-René Hébert, Herausgeber der Volkszeitung „Le père Duchesne“, erhob Anklage gegen die „Einschläferer“ im Konvent und trug wesentlich dazu bei, dass es am 5. September 1793 zu einer weiteren Aktion der Pariser kleinen Leute kam, die den Konvent massenhaft umstellten und dann friedlich besetzten, um den Abgeordneten-Beratungen nachzuhelfen. Sie erreichten unmittelbar, dass eine Revolutionsarmee aus Sansculotten gebildet wurde, die die Hauptstadtversorgung mit Getreide und Mehl sicherstellen sowie Wucherer und Schieber verfolgen sollte. Auf Anregung Dantons sollten zudem allen Bedürftigen fortan Tagegelder von 40 Sous auf Staatskosten für den Besuch von wöchentlich zwei Sektionsversammlungen ausgezahlt werden. Außerdem wurde die Verhaftung der Verdächtigen beschlossen und damit der Weg in die Schreckensherrschaft geöffnet. Mit der Einführung des Allgemeinen Maximums für Preise – wie aber auch für Löhne – wurde Ende September schließlich eine weitere wirtschaftspolitische Kernforderung der Sansculotten berücksichtigt. Führungsanspruch und Entschlossenheit gingen in dieser Revolutionsphase hauptsächlich von dem umgebildeten Wohlfahrtsausschuss aus, in dem Robespierre nach dem Ausscheiden Dantons die Fäden zog. Am 10. Oktober 1793 mahnte Saint-Just als enger Weggefährte Robespierres im Konvent ein klares Mandat für die Revolutionsregierung des Wohlfahrtsausschusses an: „In Anbetracht der Umstände, denen sich die Republik gegenwärtig ausgesetzt sieht, kann die Verfassung nicht in Kraft gesetzt werden; man würde die Republik durch die Verfassung selbst zugrunde richten. […] Ihr selbst seid zu weit weg von allen Verbrechen. Das Schwert des Gesetzes muß allerorts mit reißender Geschwindigkeit dazwischenfahren, und eure Macht muß allgegenwärtig sein, um dem Verbrechen Einhalt zu gebieten. […] Ihr könnt auf gutes Gedeihen nur dann hoffen, wenn ihr eine Regierung bildet, die milde und nachsichtig gegenüber dem Volk, sich selbst gegenüber aber durch die Tatkraft ihrer Beschlüsse schrecklich sein wird. […] Es ist auch nützlich, den Volksvertretern bei den Armeen mit Nachdruck ins Gedächtnis zurückzurufen, worin ihre Pflichten bestehen. Sie sollten in den Armeen Väter und Freunde der Soldaten sein. Sie sollen im Zelt schlafen, bei militärischen Übungen zugegen sein, sich nicht in Vertraulichkeiten mit den Generälen einlassen, damit der Soldat mehr Vertrauen in ihre Gerechtigkeit und Unparteilichkeit hat, wenn er ihnen ein Anliegen vorträgt. Tags wie nachts soll der Soldat die Volksvertreter bereit finden, ihm Gehör zu schenken.“ Tatsächlich hatte die Republik in dieser Zeit vor allem einen militärischen Überlebenskampf zu führen. Der Konvent entsandte Kommissare (die von Saint-Just angesprochenen Volksvertreter) an die verschiedenen Kriegs- und Bürgerkriegsfronten, die vor allem mit unzuverlässigen Armeeführungen schonungslos aufräumen sollten. Der Nachlässigkeit verdächtige Generäle sollten militärgerichtlich abgeurteilt und durch erprobte und tatendurstige jüngere Offiziere ersetzt werden, zum Teil auf Vorschlag der Mannschaften. Die Umorganisation der Revolutionsheere wurde hauptsächlich von dem Militäringenieur Lazare Carnot geleitet, ebenfalls Mitglied des Wohlfahrtsausschusses. Dabei wurden die Reste der alten Linientruppen mit den jüngst erst Ausgehobenen zu neuen Truppenkörpern vereinigt, die loyal zur Revolutionsregierung standen. Zur Jahreswende 1793/1794 zeichneten sich erste Erfolge dieser Maßnahmen ab, auch weil infolge des Massenaufgebots nun das zahlenmäßige Übergewicht der Revolutionsheere den Druck des Mehrfrontenkriegs aufzuwiegen begann. Ein Ende der Bedrohung für die Republik schien aber sowohl in der Vendée als auch an den nordöstlichen Grenzen Frankreichs noch weit entfernt. Legalisierter Terror und Entchristianisierung. Das im März 1793 geschaffene Revolutionstribunal hatte bis zur Septemberaktion der Pariser Sansculotten von 260 Angeklagten etwa ein Viertel (66 Personen) zum Tode verurteilt. Den Aufständischen erschien das offensichtlich völlig unzureichend, wie aus ihrer dem Konvent vorgelegten Petition vom 5. September 1793 hervorging: „Gesetzgeber, es ist an der Zeit, dem seit 1789 andauernden unheiligen Kampf zwischen den Kindern der Nation und jenen, die sie im Stich gelassen haben, ein Ende zu bereiten. Euer und unser Schicksal sind mit der unveränderlichen Einrichtung der Republik verknüpft. Entweder müssen wir ihre Feinde vernichten oder sie uns. […] Geheiligte Montagne, werde ein Vulkan, dessen heiße Lava die Hoffnung der Bösewichter für alle Zeiten zerstört und jene Herzen verbrennt, denen noch ein Gedanke an das Königtum innewohnt! Weder Gnade noch Erbarmen mehr mit den Verrätern! Denn kommen wir ihnen nicht zuvor, werden sie uns zuvorkommen. Errichten wir zwischen ihnen und uns die Schranke der Ewigkeit!“ Auch in dieser Hinsicht verfehlte der Massenauftritt der Sansculotten im Konvent die beabsichtigte Wirkung nicht. Am 17. September beschlossen die Montagnards und Plaine-Abgeordnete das Gesetz über die Verdächtigen, zu denen alle gezählt wurden, „die sich durch ihr Verhalten oder ihre Beziehungen oder durch mündlich oder schriftlich geäußerten Ansichten als Parteigänger der Tyrannen, des Föderalismus und Feinde der Freiheit zu erkennen gegeben haben“; dazu alle vormaligen Adligen und deren Verwandte, „die nicht dauernd ihre Verbundenheit mit der Revolution unter Beweis gestellt haben“, sowie sämtliche nach Frankreich zurückgekehrten Emigranten. Die örtlich zuständigen Überwachungsausschüsse hatten eine Liste der verdächtigen Personen aufzustellen, die Verhaftungsbefehle zu fertigen und die Überstellung ins Gefängnis zu veranlassen, wo die Inhaftierten bis zum Friedensschluss auf eigene Kosten verwahrt werden sollten. Eine Liste der Internierten war zentral dem Allgemeinen Sicherheitsausschuss des Konvents zu übersenden. Gleichfalls auf der von den Sansculotten geforderten Linie lag eine Verfahrensbeschleunigung im Revolutionstribunal, das mit den Angeklagten zunehmend kurzen Prozess machte: In den Verurteilten dieses Zeitraums spiegelte sich bereits das Drama der Revolutionsgeschichte bis dahin. Neben Marie-Antoinette, Charlotte Corday und Olympe de Gouges mussten auch Feuillants und Girondins das Schafott besteigen, darunter führende Persönlichkeiten der unterdessen drei aufeinander folgenden Nationalversammlungen wie Bailly, Barnave und Brissot. Vergniaud, einer der prominentesten Redner der Gironde und selbst Betroffener, goss das Geschehen in die Formel: „Die Revolution, gleich Saturn, frisst ihre eigenen Kinder.“ Während die verurteilten Girondins am Morgen des 31. Oktober 1793 auf Karren zum Hinrichtungsplatz gefahren wurden, stimmten sie lautstark die Marseillaise an und wurden jeweils erst durch die Guillotine zum Verstummen gebracht: „Der Chor wurde immer schwächer, je öfter die Sichel fiel. Nichts konnte die Überlebenden davon abhalten, weiter zu singen. Immer weniger hörte man sie auf dem riesigen Platz. Als die ernste und heilige Stimme Vergniauds zuletzt allein sang, hätte man glauben können, die ersterbende Stimme der Republik und des Gesetzes zu hören …“ Als Madame Roland, die ehedem einflussreiche Frau des vormaligen girondistischen Innenministers Roland am 8. November das Schafott auf der Place de la Révolution bestieg, grüßte sie die nahebei aufgestellte monumentale Freiheitsstatue: „O Freiheit, was für Verbrechen werden in deinem Namen begangen!“ Unter den frühen Widersachern der Revolution waren die eidverweigernden Priester; nach der Ausschaltung der Girondins aus dem Konvent war im Sommer 1793 aber auch der konstitutionelle Klerus großteils ins gegenrevolutionäre Lager übergegangen. Dadurch wurden z. T. bereits vorhandene antikirchliche Strömungen verstärkt und brachen sich mancherorts Bahn. Besonders hervorgetan hat sich dabei im Rahmen einer Konventsmission gegen föderalistische Aufstandsgebiete der Abgeordnete Fouché, der in Nevers u. a. für das Einschmelzen der Kirchenglocken sorgte, in der Kathedrale eine Brutus-Büste weihen ließ und ein Bürgerfest veranstaltete. Ähnliches geschah am 7. November in Paris, wo der Bischof Jean Baptiste Joseph Gobel zur Abdankung vor dem Konvent genötigt und die Kathedrale Notre Dame in einen Tempel der Vernunft umgewidmet wurde. Ein Konventsdekret stellte es jeder Gemeinde frei, sich von der Religion loszusagen. In Paris sorgten Revolutionsausschüsse und Volksgesellschaften dafür, dass Ende November alle Kirchen der Hauptstadt der Vernunft geweiht waren und dass in sämtlichen Pariser Sektionen ein Kult für die Märtyrer der Freiheit (Marat, Lepeletier, Chalier) eingeführt wurde. Zwar hat auf Initiative Robespierres der Konvent am 6. Dezember 1793 ein Dekret erlassen, das das Recht auf freie Religionsausübung bekräftigte, doch haben Entchristianisierung und vorläufige Kirchenschließung dauerhafte Spuren hinterlassen. Robespierristen, Hébertisten und Dantonisten im Entscheidungskampf. In seiner Wendung gegen die Auswüchse der Entchristianisierungskampagne, in der er mit Danton einig war, suchte Robespierre den radikalen Gruppierungen unter den Sansculotten Schranken zu setzen. Als stetiger Wächter der Volksinteressen und des allgemeinen Willens in Anlehnung an Rousseau hatte er sich bereits in der Konstituante profiliert und den Ruf des „Unbestechlichen“ („L’Incorruptible“) erworben. „Er wird es weit bringen“, hatte Mirabeau prophezeit, „er glaubt alles, was er sagt.“ Seit März 1790 war Robespierre Vorsitzender des Jakobinerklubs und hatte dort sowohl die Abspaltung der Feuillants als auch der Girondins mit eigenem Autoritätsgewinn überstanden. Als er am 25. Dezember 1793 vor den Konvent trat, um über die Grundsätze der Revolutionsregierung zu referieren, stand er als strategischer Kopf des Wohlfahrtsausschusses im Zenit seiner Macht. Teile seiner damaligen Ansprache werfen ein erhellendes Licht auf die nachfolgende Entwicklung bis zu seinem Sturz. Der Tenor der Rede konnte leicht so verstanden werden: Wer – in welcher Richtung immer – vom Kurs der Revolutionsregierung abwich, beging Hochverrat. Camille Desmoulins, Stich von Geoffroy Während die Hébertisten die Revolutionsregierung als noch zu wenig energisch gegenüber Revolutionsfeinden und in der Durchsetzung sansculottischer Wirtschaftsvorstellungen angriffen, drängte Dantons enger Freund Camille Desmoulins im „Vieux Cordelier“ auf Milderung der Schreckensherrschaft durch die Freilassung von 200.000 Verdächtigen und auf Schaffung eines Begnadigungsausschusses; schließlich forderte er auch die Umbesetzung des Wohlfahrtsausschusses. Beide gegnerischen Fraktionen entstammten dem Klub der Cordeliers, gehörten zu den Montagnards oder standen ihnen politisch nahe. Das schützte sie aber nicht vor dem Zugriff der Revolutionsregierung. Sowohl die Hébertisten als auch einige der Gefährten Dantons, insbesondere Fabre d’Églantine, hatten sich durch zwielichtige Kontakte mit ausländischen Waffenhändlern und Geschäftemachern angreifbar gemacht und standen unter Korruptionsverdacht. Nacheinander wurde ihnen der Prozess gemacht. Danton selbst, auf dessen Initiative das Revolutionstribunal ein Jahr zuvor eingerichtet worden war, fand sich nun als Angeklagter vor ihm wieder. Auf die Frage nach seiner Adresse meinte er: „Meine Wohnung? Bis jetzt rue Marat. Bald wird sie im Nichts sein. Und dann im Pantheon der Geschichte.“ Dantons Selbstverteidigung imponierte über die Mauern des Gerichtssaals hinaus und drohte einen Volksaufstand auszulösen. Der Ankläger Fouquier-Tinville, dem der Prozessverlauf entglitten war, erwirkte über den Wohlfahrtsausschuss ein Dekret des Konvents, das den Ausschluss Dantons von der Verhandlung wegen Störung der öffentlichen Ordnung ermöglichte. Die Hébertisten kamen am 24. März 1794 unter die Guillotine, die als „Gemäßigte“ (Indulgents) bezeichneten Männer um Danton am 5. April. Erosion und Ende der Schreckensherrschaft. Nach diesem Doppelschlag gegen wichtige Identifikationsfiguren breiter Volksschichten bröckelte die Basis von Montagnards und Revolutionsregierung unter den Sansculotten mehr und mehr, zumal diese sich durch die Festlegung eines Lohnmaximums erneut in ungünstiger wirtschaftlicher Lage sahen. Die Entchristianisierungskampagne, die die hergebrachte Religion durch einen Kult der Vernunft und der Revolutionsmärtyrer ersetzt hatte, suchte Robespierre zu entschärfen und in ihrer Wirkung nach innen und gegenüber dem Ausland unschädlich zu machen, indem er den Konvent im Mai 1794 dekretieren ließ: „Das französische Volk anerkennt die Existenz eines Höchsten Wesens und die Unsterblichkeit der Seele.“ Mit einem unter großem Zeremoniell und persönlicher Leitung Robespierres begangenen „Fest des Höchsten Wesens und der Natur“ am 8. Juni 1794 suchte Robespierre schließlich die Nation ideologisch auszusöhnen und auszurichten. Die Schreckensherrschaft wurde aber auch nach der Ausschaltung von Hébertisten und Dantonisten nicht gelockert, im Gegenteil: zwei Tage nach dem Fest des Höchsten Wesens wurde das Gesetz vom 22. Prairial verabschiedet, das den Kreis der potentiell Verdächtigen noch einmal nahezu beliebig erweiterte, indem als Feind des Volkes u. a. gelten sollte, „wer Mutlosigkeit zu verbreiten sucht mit der Absicht, die Unternehmungen der gegen die Republik verbündeten Tyrannen zu fördern; wer falsche Nachrichten ausstreut, um das Volk zu spalten oder zu verwirren“. Vor dem stark erweiterten Revolutionstribunal gab es fortan für die Angeklagten keine Verteidiger mehr, im Falle des Schuldspruchs aber nur noch ein Strafmaß: die Hinrichtung. Die damit eingeleitete Phase der „Grande Terreur“ (des „Großen Schreckens“) vom 10. Juni bis 27. Juli 1794 führte zu 1285 Todesurteilen allein am Pariser Revolutionsgerichtshof. Noch summarischer hatte die Schreckensherrschaft bis dahin schon in den vom Bürgerkrieg betroffenen Regionen Frankreichs gewütet. Bei den Strafaktionen gegen Marseille, Lyon, Bordeaux und Nantes spielte die Guillotine, das Instrument der Einzelexekution, nicht die Hauptrolle. In Lyon praktizierten die Konventskommissare Collot d'Herbois und Fouché Massenexekutionen durch Füsilladen und Mitrailladen. Ihr Kollege Carrier ließ in Nantes außerdem Massenertränkungen in der Loire vornehmen. Collot d'Herbois und Fouché gehörten nach ihrer Rückkehr in den Konvent neben Barras schließlich auch zu den treibenden Kräften beim Sturz Robespierres und seiner engsten Mitarbeiter im Wohlfahrtsausschuss. Beide sahen sich in Gefahr, als Robespierre ohne Namensnennung am 26. Juli 1794 vor dem Konvent sein politisches Testament ausbreitete: „In wessen Händen sind heute die Armeen, die Finanzen und die innere Verwaltung der Republik? In den Händen der Koalition, die mich verfolgt. […] Man muß die Verräter bestrafen […] Ich fühle mich berufen, das Verbrechen zu bekämpfen, nicht aber, über das Verbrechen zu herrschen. Die Zeit ist noch nicht gekommen, wo die rechtschaffenen Menschen ohne Gefahr dem Vaterland dienen können; solange die Horde der Schurken regiert, werden die Verteidiger der Freiheit geächtet sein.“ In der darauffolgenden Nacht formierte sich das Komplott zum Sturz Robespierres, nach Soboul eine Augenblickskoalition, die einzig durch Angst zusammengehalten wurde, die es aber verstand, Robespierre und Saint-Just am Folgetag im Konvent nicht mehr nennenswert zu Wort kommen zu lassen, sondern sie und weitere ihrer Weggefährten zu verhaften und am 28. Juli 1794 – nach einem halbherzigen Befreiungsunternehmen einiger Pariser Sektionen – ohne Urteil hinrichten zu lassen. In einem pointierten Resümee zu der damit endenden radikalen Phase der Französischen Revolution heißt es: „Diese Revolutionsdiktatur ist, wie sie sich schließlich gestaltete, an sich selbst zusammengebrochen, aber es war ihr Werk, dass nach ihr das Alte, welches sie endgültig hinweggefegt hatte, nicht mehr wiederkehren konnte.“ Insgesamt wurden vermutlich während der Französischen Revolution weit über 20.000 Menschen hingerichtet (siehe dazu auch Statistik und Opferzahlen). Thermidorianer und Direktorium – das Besitzbürgertum an der Macht (1794–1799). In der dritten Phase der Französischen Revolution – mit gut fünfjähriger Dauer etwa ebenso lang wie die erste und zweite Phase zusammengenommen – lassen sich noch einmal drei Abschnitte unterscheiden: der etwa einjährige Abschnitt des um die Rückberufung der noch lebenden Girondins erweiterten Thermidorianer-Konvents sowie die beiden Abschnitte des ersten und zweiten Direktoriums, die jeweils etwa 2 Jahre währten und auf der am 22. August 1795 in Kraft gesetzten neuen Verfassung beruhten. Sturz und Hinrichtung Robespierres und seiner engsten Anhänger geschahen kaum zufällig zu einem Zeitpunkt, da die Revolutionsregierung ihren selbstgesetzten Zweck erfüllt hatte. Die Bedrohung der revolutionären Errungenschaften durch innere und äußere Feinde war mit äußerster Radikalität und Konsequenz abgewendet worden. Nun hieß es für die bis dahin gefügige Mitte der Konventsmitglieder, die Früchte der Revolution im Rahmen einer neuen Verfassung zu sichern. Die Thermidorianer standen auf dem Boden der Republik, hatten dem Sturz der Monarchie das eigene Mandat zu verdanken und hatten die revolutionsbedingten kulturellen Neuerungen mitvollzogen. Die Revolution als Motor kulturellen Wandels. Die Französische Revolution hat nicht nur in politischer und sozialer Hinsicht zu Umwälzungen geführt, sondern auch Alltagsleben und Kultur durchgreifend verändert. Mit der Einführung des Revolutionskalenders war nicht nur eine neue Zeitrechnung (beginnend mit dem Jahr I der Republik) verbunden; der Tag wurde in zehn entsprechend längere Stunden aufgeteilt. Auch die Monatsnamen wurden geändert und auf jahreszeitliche Merkmale bezogen. So hießen die im Frühling liegenden Monate nun Germinal (für die da sprießenden Keime), Floréal (für die sich ausbreitende Blumenblüte) und Prairial (Wiesenmonat). Die Woche wurde in der alten Form abgeschafft und ein Zehn-Tage-Zyklus eingeführt, sodass nicht mehr jeder siebte, sondern nur noch jeder zehnte Tag arbeitsfrei gestellt war. Auch Maße, Münzen und Gewichte wurden auf das Dezimalsystem umgestellt. Kommuniziert wurde das Revolutionsgeschehen einschließlich der damit verbundenen Neuerungen durch das Zeitungswesen, das sich in dieser Zeit sprunghaft entwickelte. Die Blätter vervielfachten z. T. ihre Auflage und wechselten von monatlicher zu wöchentlicher Erscheinungsweise. Auch die Bildpublizistik nahm mit Vignetten und Karikaturen zu politischen Themen einen bedeutenden Aufschwung. Beliebte Motive waren die Freiheitsgöttin Marianne, der Altar des Vaterlandes, auch Gesetzestafeln der Verfassung. Auf diese Weise wurde die politische Kultur von den Medien angeregt und mitgeprägt. Als Meinungsbildungs- und Kommunikationsformen dienten aber wesentlich auch die politischen Klubs, deren Spektrum von intellektuellen Diskussionszirkeln bis zu Volksgesellschaften reichte und die die jeweilige Bandbreite der politischen Interessen abdeckten. Für Frauen bildete diese Organisationsform nahezu die einzige Möglichkeit eigener Interessenartikulation während der Revolution, da ihnen das Wahlrecht durchgängig verwehrt blieb. In der Phase der Jakobinerherrschaft beanspruchten manche der Volksgesellschaften eine Kontrollfunktion auch dem Konvent gegenüber und betrieben Gesinnungsschnüffelei bis hin zur Überwachung bestimmter Revolutionssymbole (z. B. der Kokarden) und der Teilnahme an politischen Feiern. Der Identifikationsbereitschaft mit Revolution und Nation dienten die mit großem Aufwand und Engagement durchgeführten Revolutionsfeste, bei denen traditionelle und religiöse Formen und Rituale wie Eidesleistungen und Prozessionen in eine neue säkulare und entchristlichte Formensprache überführt wurden. Man trug festliche Kleidung und die Kokarden der Bürgergesellschaft, präsentierte die Trikolore, die Freiheitsgöttin mit phrygischer Mütze (von den Jakobinern als Erkennungszeichen getragen) und ab 1792 auch zeitweise eine Herkules-Gestalt als Symbol der Gleichheit des Volkes. Während aber das Fest der Einheit und Verbrüderung, das auf den 10. August 1792 bezogen war, nach dem Sturz der Jakobinerherrschaft verblasste, blieb das auf den 14. Juli 1789 gerichtete Revolutionsfest bis heute das stolzeste Ereignis der Nation und französischer Nationalfeiertag. Stabilisierungsversuche zwischen Volksaktion und monarchistischer Reaktion. Weitgehend einig waren sich die während der dritten Revolutionsphase im Konvent vorherrschenden Kräfte in der Wahrung ihrer besitzbürgerlichen Eigentums- und wirtschaftlichen Interessen. Dabei unterdrückten sie sowohl die verbliebenen Kräfte der Volksbewegung in Gestalt von Sansculotten und Jakobinern als auch die Royalisten auf der anderen Seite des politischen Spektrums, die die Rückkehr zur Königsherrschaft und zum Ständestaat anstrebten. Die Höchstpreisgesetze wurden am 24. Dezember 1794 aufgegeben und der Getreidehandel völlig freigegeben mit der Folge, dass der Spekulation mit Nahrungsmitteln neuerlich Tür und Tor geöffnet waren. Die begleitende Inflation entwertete das Papiergeld der Assignaten rasch völlig, sodass Bauern und Kaufleute nur mehr Münzgeld akzeptierten. Nahrungsmittelknappheit und Hunger nahmen z. T. katastrophale Ausmaße an. Davon unberührt blieben das handeltreibende Großbürgertum, Armeelieferanten und Aufkäufer von Nationalgütern. Die Sprösslinge der unter diesen Voraussetzungen sich entwickelnden Schicht von Neureichen, die mit der sprechenden Bezeichnung Jeunesse dorée (goldene Jugend) belegt wurden, schlossen sich zu Großbanden zusammen und machten gelegentlich regelrecht Jagd auf Jakobiner und Sansculotten. Die führungslos gewordene Pariser Volksbewegung versuchte in der ersten Jahreshälfte 1795 etwa im Prairialaufstand zwar erneut, den Konvent unter Druck zu setzen, wurde aber mit der Nationalgarde niedergehalten. Todesurteile, Deportationen und Zwangsarbeit wurden verhängt. Die Niederlage der Volksbewegung wiederum rief die Royalisten auf den Plan, die die Stunde gekommen sahen, den im Exil in Verona seine Thronansprüche anmeldenden Bruder Ludwigs XVI. zu unterstützen. Ende Juni 1795 landete eine von der britischen Flotte unterstützte Emigrantentruppe auf der Halbinsel Quiberon, wurde aber von Regierungstruppen aufgerieben. Auch in Paris scheiterte Anfang Oktober 1795 ein royalistischer Aufstand an den von Napoleon Bonaparte geführten regierungstreuen Soldaten. Neue Verfassung und erstes Direktorium. Die Direktionalverfassung vom 22. August 1795 Die vom Konvent am 22. August 1795 beschlossene neue Verfassung wurde per Volksabstimmung bestätigt und am 23. September in Kraft gesetzt. Erstmals wurde in Frankreich ein Zweikammersystem geschaffen, bestehend aus einem Rat der 500, der die Gesetzesinitiative hatte, und einem 250 Mitglieder umfassenden Rat der Alten (hier waren nur über 40-Jährige zugelassen gegenüber mindestens 30-Jährigen im Rat der 500), dessen Zustimmung zu Gesetzesvorlagen nötig war. Der Rat der Alten wählte aufgrund einer Vorschlagsliste des Rates der 500 ein aus fünf Mitgliedern bestehendes Direktorium, das die Exekutive bildete und die Minister der einzelnen Ressorts bestimmte. Um die Fortdauer der neuen Machtverhältnisse zu sichern, hatte der Konvent in einer Zusatzbestimmung festgelegt, dass zwei Drittel der neuen Abgeordneten aus den Reihen der bisherigen Volksvertreter stammen mussten. Die radikaldemokratische Opposition, organisiert von Babeuf, der Neujakobiner und Frühsozialisten in einer „Verschwörung für die Gleichheit“ um sich scharte, bereitete einen neuen Volksaufstand vor. Im „Manifest der Plebejer“ präsentierte Babeuf ein den Thermidorianern fundamental entgegengesetztes Gesellschaftskonzept: die sozialistische Gütergemeinschaft. Vorgesehen waren für alle gleiches Recht und gleiche Pflicht zur Arbeit, gemeinschaftliche Arbeitsorganisation und Verfügung über die Arbeitsprodukte. Unmittelbar vor der geplanten Erhebung wurden Babeuf und die führenden Mitverschwörer am 10. Mai 1796 verhaftet, er selbst nach mehrmonatiger Untersuchungshaft und Prozess ein Jahr später zum Tode verurteilt. Von Neuem führte die Niederlage der radikal auf Gleichheit zielenden Bewegung zu einer Stärkung der Royalisten, wie die Wahlen im April 1797 zeigten. Drei der fünf Direktoren entschlossen sich mit Unterstützung von Truppen, die die Generäle Hoche und Bonaparte zur Verfügung stellten, im September 1797 zum Staatsstreich, um einer royalistischen Wende vorzubeugen. Paris wurde militärisch besetzt, zwei der Direktoren und einige Abgeordnete festgenommen. In 49 Departements wurden die Wahlergebnisse und damit 177 Abgeordnetenmandate für ungültig erklärt. Die monarchistischen Kräfte waren mit verfassungswidrigen Mitteln vorerst kaltgestellt, die republikanische Verfassung dadurch aber diskreditiert und das zweite Direktorium delegitimiert, noch bevor es sich mit den drei bisherigen und zwei neuen Direktoren formiert hatte. Auch in dieser Konstellation kam es im Mai 1798 und Juni 1799 zu weiteren „kleinen“ Staatsstreichen, bevor Bonaparte schließlich zur Macht gelangte. Revolutionsexport. Der noch unter jakobinischer Führung zustande gekommene Befreiungsschlag gegen die Österreicher in der Schlacht bei Fleurus am 26. Juni 1794 zog die französische Annexion der Österreichischen Niederlande nach sich. Die Thermidorianer kassierten im Januar 1795 den früheren Beschluss der Jakobiner, auf die Einmischung in die Angelegenheiten anderer Völker zu verzichten und betrieben aktiv Revolutionsexport. In Holland wurde nach dem Vordringen des Revolutionsheeres die Batavische Republik gegründet. Auch die linksrheinischen deutschen Gebiete gerieten unter französische Vorherrschaft, ohne allerdings den Status einer unabhängigen Republik zu erlangen. Zum Friedensschluss mit Preußen kam es am 5. April 1795 in Basel; Österreichs Friedensbereitschaft erzwang der von Napoleon Bonaparte befehligte Italienfeldzug 1796/97. Im Frieden von Campo Formio gab Österreich die Ansprüche auf Belgien auf und akzeptierte vorerst die eigene Schwächung in Norditalien zugunsten der von Frankreich abhängigen Cisalpinischen Republik. Zu den weiteren machtpolitischen Erfolgen Bonapartes in Italien zählten die Gründung der Ligurischen Republik und die Unterwerfung des Vatikans, verbunden mit der Verschleppung von Papst Pius VI. In der Direktorialzeit überwog – anders als in einer zweiten Revolutionsphase, wo das Befreiungsmotiv in den von Revolutionssoldaten eroberten Gebieten dominierte – das Motiv der Ressourcenausbeutung eroberter Ländereien und Republik-Gründungen. Unterschiedliche Konzeptionen gab es daneben aber bezüglich des Status, den diese Gebiete künftighin haben sollten. Der eine Ansatz sah einen Gürtel von halb selbständigen Republiken vor, zu denen neben der Batavischen und Cisalpinischen noch eine die Schweiz einbeziehende Helvetische Republik und eine linksrheinische Cisrhenanische Republik hätten gehören sollen. Auf eine solche Perspektive hofften auch die freiheitlich-republikanisch eingestellten Revolutionssympathisanten der gemeinten Gebiete. Das andere Konzept knüpfte an die außenpolitischen Ziele des französischen Absolutismus an und setzte auf eine Politik der natürlichen Grenzen mit Einschluss aller linksrheinischen deutschen Gebiete. Dieses Konzept orientierte sich stärker an diplomatischen Verständigungsmöglichkeiten mit den deutschen Fürsten als an den emanzipatorischen Interessen der Bürger. Während des ersten Direktoriums überwogen noch die Anhänger der Schwesterrepubliken, unter dem zweiten dagegen dominierte der Expansionsdrang. Nach den Siegen der französischen Revolutionsarmee unter Bonaparte in Italien blieb für das zweite Direktorium nur mehr Großbritannien als militärischer Gegner übrig. Im Oktober 1797 wurde eine Armee unter Bonapartes Oberbefehl für die Kanalüberquerung gebildet, das Unternehmen im folgenden Februar wegen der Stärke der britischen Flotte aber wieder eingestellt. Das zweite Direktorium verlegte sich nun darauf, die britischen Exporte auf den europäischen Kontinent nach Kräften zu blockieren, um den Gegner wirtschaftspolitisch auszumanövrieren (später – 1806–1814 – verhängte Napoleon eine Kontinentalsperre). Der Schwächung Großbritanniens sollte auch die von Bonaparte betriebene Ägyptische Expedition dienen, die im Sommer 1798 erfolgreich anlandete. Am ersten August allerdings brachte die britische Flotte unter Admiral Nelson den Franzosen bei Abukir eine vernichtende Niederlage bei, ein Fiasko, das Bonaparte nicht daran hinderte, in Ägypten zu Lande weiter voranzukommen und den mitgenommenen Wissenschaftlern ein reiches Forschungsfeld zugänglich zu machen. Nach einem Syrienfeldzug gegen das Osmanische Reich, bei dem er zwar Gaza und Jaffa eroberte, dann aber aufgrund großer Verluste umkehren musste, legte Bonaparte im August des Folgejahres sein ägyptisches Kommando eigenmächtig nieder und schiffte sich nach Frankreich ein, wo er die politische Lage für die eigenen Machtambitionen reif vorfand. Napoleon Bonaparte – Usurpator und Stabilisator der Revolutionsergebnisse. Die nach der Entwertung des Papiergelds eingetretene Wirtschaftsdepression, die vor allem durch einen Preisverfall für bäuerliche Produkte und als Folge davon durch eine anhaltende allgemeine Geschäftsflaute bedingt war, hatte breite Kreise der Bevölkerung mehr und mehr gegen das Direktorium aufgebracht. In den Wahlen des Frühjahrs 1799 hatte die jakobinische Opposition deutlich an Boden gewonnen und im Sommer die Ersetzung zweier Direktoren durchgesetzt. Pressefreiheit und politische Clubs lebten wieder auf, eine jakobinische Renaissance schien sich abzuzeichnen. In dieser Situation ergriff Sieyès als einer der Direktoren die Initiative für einen neuerlichen Staatsstreich mit militärischer Rückendeckung, die er bei Bonaparte suchte und fand. Am 9/10. November 19. Brumaire VIII) zwang dieser als Kommandant der Pariser Truppen beide gesetzgebenden Kammern, der Abschaffung der geltenden Verfassung zuzustimmen. Als Erster Konsul eines Dreier-Kollegiums übernahm Bonaparte faktisch die Macht der neuen provisorischen Regierung, präsentierte bereits am 13. Dezember 1799 eine neue Verfassung und verkündete abschließend: „Bürger, die Revolution ist auf die Grundsätze gebracht, von denen sie ausgegangen ist; sie ist beendet.“ Seinen Aufstieg und die Machtsicherung verdankte Bonaparte hauptsächlich dem Revolutionsheer und den mit seinen Soldaten errungenen militärischen Erfolgen. In der Konsulatsverfassung war zudem die Garantie enthalten, dass die mit der Revolution verbundene Besitzverschiebung erhalten bleiben sollte. Die Nationalgüter königlicher, kirchlicher oder adliger Herkunft blieben also rechtmäßiger Besitz derer, die sie im Zuge der Revolution erworben hatten – eine wichtige Voraussetzung zur Herstellung des sozialen Friedens. Den Emigranten, die ihren Besitz verloren hatten, wurde eine Entschädigung aus dem Staatsschatz angeboten, was etwa 140.000 zur Rückkehr nach Frankreich veranlasste. Auch mit dem Vatikan und den papsttreuen, eidverweigernden Priestern gelangte Bonaparte zu einem Ausgleich. In dem Konkordat vom 15. Juli 1801 mit Pius VII. wurde der Katholizismus als mehrheitliche Religion der Franzosen anerkannt und die freie Religionsausübung an Sonntagen und kirchlichen Feiertagen wieder offiziell gestattet. Andererseits blieb es bei der Trennung zwischen Kirche und Staat und bei der revolutionsbedingten Enteignung von Kirchenbesitz. Die „Organischen Artikel“ vom 8. April 1802 (18 germinal an X) folgten dem Konkordat als Ausführungsgesetz. Die ohne Beteiligung der Kurie verfassten 77 Artikel sicherten abermals die staatliche Prärogative sowie die Notwendigkeit der staatlichen Zustimmung zu päpstlichen Dekretalen. Die Krönung in Notre Dame (1804). Napoleon, der sich zuvor selbst gekrönt hat, setzt seiner Gemahlin Joséphine die Krone auf. Rechts von Napoleon sitzt Papst Pius VII. (Gemälde von Jacques-Louis David) Mit dem Code Civil als Bürgerlichem Gesetzbuch, das am 24. März 1804 verkündet wurde, bot die Herrschaft Napoleon Bonapartes schließlich konkrete rechtliche Grundlagen zur dauerhaften Sicherung des Eigentums gegen feudale Restaurationsansprüche wie gegen Forderungen nach sozialer Gleichheit. Staatsbürgerliche Gleichheit wurde damit als Rechtsgleichheit aller Franzosen fixiert. Anstelle regelmäßiger Wahlen jedoch ließ Bonaparte Plebiszite zu ausgewählten wichtigen Fragen abhalten. Seiner Erhebung als Napoleon I. zum Kaiser der Franzosen – mit eigenhändiger Krönung in Anwesenheit des Papstes am 2. Dezember 1804 in der Kathedrale Notre Dame – stimmten dreieinhalb Millionen Franzosen bei 2500 Gegenstimmen in einem Plebiszit zu. Geschichte der Flugzeugträger. Eugene Ely kurz nach dem Start von der USS "Birmingham" Erste Versuche 1910. Der erste Start eines Flugzeugs von einem Schiff fand Ende 1910 in den Vereinigten Staaten statt. Der Flugakrobat Eugene Burton Ely startete mit seinem Curtiss-Doppeldecker von einer Rampe, die auf Deck des Kreuzers "USS Birmingham" errichtet wurde. Die Landung fand jedoch noch an Land statt. Zwei Monate später gelang es ihm bei einem weiteren Versuch, auf einem anderen Schiff, der USS "Pennsylvania" zu landen. Die Auffanganlage für sein Flugzeug bestand dabei aus Tauen, die einfach quer über das Deck gelegt und durch Sandsäcke an den Enden gebremst wurden. Dadurch war bewiesen, dass Schiffe als Start- und Landeplattform für Flugzeuge dienen können. Erster Weltkrieg. Bis zur Entwicklung echter Flugzeugträger, auf denen Flugzeuge starten und landen konnten, unterhielten einige Marinen Flugzeugmutterschiffe. Diese dienten als Operationsbasis für Wasserflugzeuge, die teilweise von Katapulten gestartet wurden. Sie landeten neben dem Schiff auf dem Wasser und wurden mittels Kran wieder an Bord geholt. Die HMS "Furious" der britischen Marine, ein umgebauter Kreuzer, besaß ab 1917 ein knapp 70 Meter langes Flugdeck vor den Schiffsaufbauten, auf dem Flugzeuge starten, aber nicht landen konnten. Die Maschinen mussten daher auf dem Wasser landen und gingen größtenteils dabei verloren. Von der "Furious" ging der erste Luftangriff von Bord eines Schiffes aus; die beiden deutschen Zeppelinhallen in Tondern wurden erfolgreich angegriffen und zerstört. Das Konzept wurde zwischen den Weltkriegen zum Seeflugzeugträger weiterentwickelt. Der erste funktionsfähige Flugzeugträger, auf dem Flugzeuge mit Radfahrwerk sicher starten und landen konnten, war die HMS "Argus" der britischen Marine. Sie entstand 1918 durch den Umbau eines halbfertigen Passagierdampfers, kam aber im Ersten Weltkrieg nicht mehr zum Einsatz. Es war der erste Träger mit einem glatten Flugdeck über die gesamte Länge des Schiffes. Entwicklungen bis zum Zweiten Weltkrieg. Die USA bauten von 1920 bis 1922 den Marine-Kohlentransporter "Jupiter" zu ihrem ersten Flugzeugträger, der "Langley", um. Auch die beiden folgenden Träger, die "Lexington" und die "Saratoga", die beide 1927 in Dienst gestellt wurden, waren Umbauten. Allerdings entstanden sie aus den Rümpfen zweier nicht vollendeter Schlachtkreuzer. Auch die Briten bauten weitere Schiffe um. So entstanden die "Courageous" und die "Glorious" aus Schlachtkreuzern (besser gesagt aus Large Light Battlecruisers - ein Hybrid aus Schlachtkreuzern und Leichten Kreuzern). Die ersten Flugzeugträger, die von vornherein als Träger entwickelt wurden, waren die 1922 in Dienst gestellte japanische "Hōshō" und die 1924 von den Briten fertiggestellte "Hermes", deren Bau noch vor der "Hōshō" begonnen worden war. Die USA folgten 1934 mit der "Ranger". a> "Akron" beim Aussetzen eines Flugzeugs Von 1931 bis 1935 besaß die US-Marine zwei Starrluftschiffe, die "Akron" und die "Macon", die in der Lage waren Jagd- und Aufklärungsflugzeuge abzusetzen und wieder aufzunehmen. Diese Luftschiffe kamen vor allem als Aufklärer zum Einsatz. Beide Luftschiffe gingen durch Unfälle verloren. Deutschland baute ab 1936 zwei große Flugzeugträger der "Graf Zeppelin"-Klasse. 1940 wurde ein Baustopp verhängt, als die "Graf Zeppelin" in der Endausrüstung war, während der zweite Träger noch auf Stapel lag und dort abgebrochen wurde. 1942 wurde das Flugzeugträgerbauprogramm wieder aufgenommen. An der "Graf Zeppelin" wurde nun weitergebaut und Passagierschiffe und Kreuzer wurden zum Umbau in Flugzeugträger vorgesehen. Als im Januar 1943 das Trägerbauprogramm erneut eingestellt wurde, waren vier Schiffe im Umbau oder Fertigbau zum Flugzeugträger. Die weitgehend fertiggestellte "Graf Zeppelin" wurde im April 1945 in einem Oderarm bei Stettin auf Grund gesetzt, von den Russen erbeutet und nach Sprengversuchen am Schiff 1947 in der Ostsee versenkt. Ende Juli 2006 wurde das Wrack etwa 30 Seemeilen nördlich von Wladyslawowo (Ellerwald) wiedergefunden. Zweiter Weltkrieg. Im Zweiten Weltkrieg zeigte sich, wie verwundbar Schiffe durch Flugzeuge waren. Als markantes Symbol dafür gilt die Versenkung der "Bismarck" am 27. Mai 1941. Flugzeugträger lösten die Schlachtschiffe als kampfstärkste Einheiten ab. (siehe Zerstörung der Force Z) Die Japaner versuchten zum Ende des Pazifikkriegs, vor allem der Übermacht der amerikanischen Flugzeugträger mit ihrer Tokkōtai-Spezialeinsatztruppe Herr zu werden. Nicht zur Ausführung gelangte das Projekt eines riesigen britischen Flugzeugträgers aus Eis unter dem Projektnamen "Habbakuk", allerdings wurden diverse Vorarbeiten hierzu geleistet. Entwicklung nach dem Zweiten Weltkrieg. Außerdem wurde erstmals Kernkraft zur Energieerzeugung eingesetzt. Der erste Flugzeugträger mit Atomantrieb war die "Enterprise" der amerikanischen Marine. Sie wurde auf der Schiffswerft von Newport News Shipbuilding gebaut und 1961 in Dienst gestellt. Die "Enterprise" ist mit acht Atomreaktoren ausgerüstet. Die gegenwärtig größten Flugzeugträger der Welt sind die amerikanischen Träger der "Nimitz"-Klasse mit einer Verdrängung von knapp 100.000 Tonnen. Es wurden zehn Stück gebaut die durch die neue "Gerald R. Ford"-Klasse ersetzt werden. Das Typschiff, die "Gerald R. Ford" soll im Jahr 2015 in Dienst gestellt werden und die "Enterprise" ersetzen. Weitere Nationen mit Flugzeugträgern sind Großbritannien, Frankreich, Russland, Spanien, Südkorea, Italien, Indien, Thailand und Brasilien. Auf Grund der immensen Kosten für einen Flugzeugträger sind die Träger dieser Länder jedoch deutlich kleiner als die amerikanischen und werden daher häufig als Flottenträger bezeichnet. Frankreich versuchte mit der 1997 in Dienst gestellten "Charles de Gaulle" ein Gegenstück zu den amerikanischen Trägern zu präsentieren. Sie war der erste europäische Träger mit Atomantrieb und deutlich größer als die anderen europäischen Flugzeugträger. Der Erfolg blieb jedoch aus. Bereits während der Bauzeit schossen die Kosten in astronomische Höhen. Seit der Indienststellung hat das Schiff immer wieder mit technischen Problemen zu kämpfen, unter anderen brach bereits bei der ersten Fahrt der Propeller und der Reaktor überhitzte. Aktuell plant Großbritannien den Bau von zwei neuen Flugzeugträgern, die die größten jemals gebauten europäischen Kriegsschiffe werden sollen ("Queen Elizabeth"-Klasse). Die Indienststellung der Träger ist für 2020 geplant. Inzwischen hat auch Frankreich sein Interesse an diesem Projekt bekundet, um eventuell die zehn Jahre alte "Charles de Gaulle" durch einen Träger dieser Bauart zu ergänzen. Florianus. Marcus Annius Florianus († September 276 bei Tarsus) war ein römischer Kaiser. Leben. Aufgrund der dürftigen Quellenlage ist über Florianus wenig Sicheres bekannt. Er wurde von seinem Halbbruder Marcus Claudius Tacitus (beide hatten vermutlich dieselbe Mutter) nach dessen Ernennung zum Kaiser als Prätorianerpräfekt eingesetzt. Die Halbbrüder kämpften in Kleinasien zunächst gemeinsam gegen die Goten. Als er vom Tod seines Halbbruders erfuhr, erklärte sich Florianus im April 276 umgehend selbst zum neuen Kaiser. Obwohl er weder Zustimmung von den Soldaten noch vom Senat erhielt, gab es keinen Widerspruch. Florianus ging nach seiner Amtsaufnahme umgehend wieder gegen die Goten vor und erzielte angeblich große Erfolge. Doch kurz vor einem Ende dieses Feldzugs ereilte ihn die Nachricht, dass Marcus Aurelius Probus, Kommandant der an der Ostgrenze stehenden Legionen, zum Kaiser ausgerufen worden wäre. Florianus brach sofort sämtliche Militäroperationen gegen die Goten ab und warf alle entbehrlichen Kräfte nach Süden. Zunächst schien es, dass an Florianus’ Sieg kein Zweifel bestehen könne, da seine Truppen zahlenmäßig deutlich überlegen waren. Doch bald stellte sich – so die Quellen – heraus, dass seine hauptsächlich aus Mitteleuropa stammenden Soldaten mit dem heißen Wüstenklima nicht zurechtkamen. Durch die Hinhaltetaktik des Probus und um sich greifende Seuchen bröckelte die Moral der kaiserlichen Truppen zusehends. Im Juni 276 liefen viele von Florianus’ Soldaten zu Probus über. Als der Kaiser versuchte, die Loyalität seiner Truppen wieder zu sichern, wurde er im September 276 nach einer Regentschaft von angeblich nur 88 Tagen durch die eigenen Soldaten ermordet. Höchstwahrscheinlich geschah die Tat auf direkten Befehl des Probus, der in der Folge die Herrschaft übernahm. Februar. Der Februar („reinigen“) ist der zweite Monat des Jahres im gregorianischen Kalender. Schon seit 153 v. Chr. war er auch der zweite Monat des römischen Kalenders. Er wurde nach dem römischen Reinigungsfest Februa benannt. In Österreich sowie Südtirol wird er auch Feber genannt, insbesondere in der Amtssprache. Zahl der Tage. Der Monat umfasst in Gemeinjahren 28 Tage und in Schaltjahren 29 Tage. Der eigentliche Schalttag ist der 24. Februar, d. h. in Schaltjahren wird nach dem 23. Februar ein Tag eingeschoben, was jedoch nur für die kirchlichen Feiertage und Namenstage von Bedeutung ist, die sich vom 24. Februar und den folgenden Tagen in Schaltjahren auf den 25. Februar etc. verschieben. Dies erklärt, weshalb das Schaltjahr bspw. im Französischen "année bissextile" heißt: In der Antike wurde der 24. Februar (der sechstletzte Tag vom 29. aus gerechnet, lat. "sex") doppelt (lat. "bis") gerechnet. Im römischen Kalender war der Februarius ursprünglich der letzte Monat. Aus diesem Grund erhielt genau dieser Monat damals überzählige Schalttage angehängt, ein Brauch, der sich durch die julianische und gregorianische Kalenderreform hindurch erhalten hat. Der Februar beginnt in Nicht-Schaltjahren mit demselben Wochentag wie der März (28 geteilt durch 7 ist 4, daraus folgt, dass der Februar exakt vier Wochen lang ist und der Folgemonat mit demselben Wochentag beginnt) und der November, in Schaltjahren wie der August. Der Februar beginnt immer mit demselben Wochentag wie der Juni des Vorjahres, weil niemals ein Schalttag (29. Februar) zwischen beiden Monaten liegt. Banktechnisch hat der Februar wie jeder andere Rechnungsmonat 30 Zinstage, so dass Zinsabrechnungen zum 30. Februar durchaus sinnvoll sind. Alte Namen. Unter Kaiser Commodus wurde der Monat in "Invictus" umbenannt, nach dem Tod des Kaiser erhielt er allerdings seinen alten Namen zurück. Der alte deutsche Name für den Februar ist "Hornung", weil der reife Rothirsch in diesem Monat sein „Gehörn“ (Geweih, Stangen) abwirft und beginnt, ein neues Geweih zu schieben. Eine andere Theorie geht davon aus, dass Hornung „der im Winkel/Geheimen gezeugte Bastard“ bedeutet, da er in der Anzahl der Tage zu kurz kommt. Im Elsass wird dieser Monat auch heute noch so bezeichnet. Weitere gebräuchliche Namen waren "Schmelzmond" und "Sporkel" oder "Spörkel". Bei Gärtnern war früher die Bezeichnung "Taumonat (Taumond)" üblich. Die Bezeichnung "Narrenmond" für den Februar rührt daher, dass in dieser Zeit die alten Vorfrühlings- und Fruchtbarkeitsrituale abgehalten wurden, um die Dämonen des Winters zu vertreiben. Unter dem Einfluss der Christianisierung wurden diese ausgelassenen Feierlichkeiten als Fastnacht (Fassenacht, Fasnet) oder Fasching auf die Tage vor dem Aschermittwoch beschränkt, so dass diese Narrenzeit (meistens) im Februar endet. Florenz. Florenz () ist eine toskanische Großstadt mit Einwohnern (Stand). In der Metropolregion leben 1,5 Millionen Menschen. Florenz ist Hauptstadt sowie größte Stadt der Toskana und der Metropolitanstadt Florenz. Florenz ist für seine Geschichte berühmt. Als Zentrum des mittelalterlichen europäischen Handels- und Finanzwesens war es eine der reichsten Städte des 15. und 16. Jahrhunderts. Florenz gilt als die Wiege der Renaissance. Aufgrund seiner kulturellen Bedeutung – insbesondere für die bildende Kunst – wird es schon seit dem 19. Jahrhundert auch als das „italienische Athen“ bezeichnet. Durch die mächtige Dynastie der Familie Medici stieg Florenz in der Renaissance zu einer der florierendsten Metropolen Europas auf. Zahlreiche Kunstschaffende und Geistliche waren hier beheimatet: Leonardo da Vinci verbrachte große Teile seiner Jugend in Florenz, Michelangelo fand Unterschlupf in der Kirche der Medici, Galileo Galilei wohnte als Hofmathematiker in den Palästen der Medici. Von 1865 bis 1870 war die Stadt die Hauptstadt des neu gegründeten Königreichs Italien. Das historische Zentrum von Florenz zieht Jahr für Jahr Millionen von Touristen an. Euromonitor International platziert die Stadt mit fast 4,2 Millionen Besuchern im Jahr 2013 weltweit an 40. Stelle unter den meist besuchten Städten. 1982 wurde die historische Innenstadt unter Weltkulturerbe von der UNESCO gestellt. Aufgrund des künstlerischen und architektonischen Erbes hat das Forbes Magazine Florenz als eine der schönsten Städte der Welt ausgewählt. Hingewiesen wird vor allem auf den Reichtum an Museen, Palästen und Denkmälern. Geografie. Florenz liegt am Arno, der durch die Altstadt fließt, und am Mugnone, der von Norden kommend westlich der Altstadt in den Arno mündet. Von Süden kommend tritt der Ema dem Greve bei Galluzzo zu, zusammen münden sie danach im Stadtgebiet von Florenz im Arno. Der Arno war ebenso wichtig für die Versorgung der Menschen durch den Handel, sorgte allerdings durch Überflutungen auch für Zerstörung und Leid. Nördlich von Florenz erstreckt sich der Höhenzug des toskanisch-emilianischen Apennins, im Süden grenzen die Hügel des Chianti an die Stadt. Bevölkerungsentwicklung. Der Aufstieg der Stadt von einem Armeelager zu einer Hochburg der Renaissance vollzog sich langsam. 1330 zählte die Stadt ungefähr 30.000 Einwohner. Bis zum Jahr 1348 wuchs die Zahl der Einwohner auf bis zu 100.000 an. Die Pestpandemie traf Florenz besonders hart, der Schwarze Tod forderte in Florenz geschätzte 70.000 Tote, nur knapp ein Fünftel der Bevölkerung überlebte. Mitte des 19. Jahrhunderts war wieder ein kontinuierlicher Anstieg zu verzeichnen, die Stadt zählte 150.000 Einwohner. In den 1980er Jahren waren starke Abwanderungströme und Geburtenrückgänge zu erkennen, weshalb seitdem die Einwohnerzahl in Florenz rückläufig ist. Klima. Florenz befindet sich noch in der gemäßigten Klimazone mit sehr warmen Sommern und kalten und feuchten Wintern. Aufgrund seiner Lage und des damit verbundenen Mangels an Ventilation ist es in Florenz im Sommer spürbar wärmer als an der Küste. Die höchste gemessene Temperatur lag bei 44 °C im Juli 1983. Die tiefste festgestellte Temperatur war -23 °C im Januar 1985. Politik. Oberbürgermeister (ital. Sindaco) von Florenz ist seit 26. Mai 2014 Dario Nardella, Mitglied der PD (Partito Democratico). Stadtgliederung. Im Mittelalter war Florenz in vier Stadtviertel "(Quartieri)" eingeteilt, welche nach den Stadttoren benannt waren: San Piero, Duomo oder Vescovo, San Pancrazio und Santa Maria. Später wurden daraus sechs, so dass man von Sestieri sprach: San Piero, Duomo, San Pancrazio, San Piero a Scheraggio, Borgo, Oltrano. Hinzu kommen die Vororte westlich und östlich der Ausfallstraßen und der markanten Hügel San Miniato, Belvedere und Bellosguardo im Süden sowie Careggi, Montughi, Fiesole und Settignano im Norden. Geschichte. Die Geschichte von Florenz ist heute deshalb so bekannt, weil sie um das Jahr 1520 von Niccolò Machiavelli (1469–1527) erstmals aufgeschrieben wurde. Er schrieb seine "Istorie fiorentine" im Auftrag der Medici und überreichte das umfangreiche Werk im Jahre 1525 dem Papst Giulio de' Medici, der sich Clemens VII. nannte. Machiavelli begann schon in seiner Jugendzeit, die Geschichte seiner Heimatstadt aufzuschreiben und nannte sein erstes Buch "Decannale". Später knüpfte er daran an und wurde einer der ersten Historiker. Antike. Florenz wurde nach 59 v. Chr. von Julius Cäsar als Colonia mit dem Namen "Florentia" (nach der römischen Göttin der Blumen und des Pflanzenwachstums) im fruchtbaren, aber noch teilweise sumpfigen Arnotal errichtet. Die Colonia bestand erstens aus einem Militärlager, dem Castrum, dessen quadratische Anlage sich auch heute noch im Straßenverlauf widerspiegelt (Via Tornabuoni, Via Cerretani, Via del Proconsolo und Piazza della Signoria). Das Forum befand sich am heutigen Platz der Republik. Florentia verfügte auch über Thermalbäder und ein Amphitheater. Zur Colonia gehörten auch die Ansiedlungen der Veteranen der Garnison außerhalb des Castrum, die gemäß der Lex Julia nach der Entlassung aus dem Militärdienst eine Landparzelle zur Bebauung zugewiesen erhielten, die aufgrund der Vergabepraxis in Form einer Verlosung "partes" genannt wurde. Die verkehrstechnisch günstige Lage am Kreuzungspunkt der nach Rom führenden Via Cassia, der von Volterra kommenden Etruskerstraße (Volterana) und der ebenfalls etruskischen Pisana, die über Pisa ans Meer führte, begünstigte das rasche Aufblühen der Stadt auf Basis von Handel und Handwerksbetrieben. Die älteren etruskischen Ansiedlungen, vor allem das auf einem Hügel nördlich der neuen Stadt gelegene bedeutende Fiesole (Gründung 7. Jahrhundert vor Christus) gerieten dadurch rasch ins Hintertreffen. Nachdem man neben Fiesole auch den Etruskerstädten Volterra und Chiusi sowie den römischen Coloniae Pistoia und Lucca den Rang abgelaufen hatte, ernannte Kaiser Diokletian Florenz zur Hauptstadt der Siebenten Region (Toskana und Umbrien). Mittelalter und "Renaissance". Im Zuge der byzantinischen Rückeroberungskriege wurde die Stadt fast vollständig zerstört und nahm erst wieder unter den Langobarden einen Aufschwung. Da die Langobardenherzöge jedoch in Lucca bzw. Pisa residierten, konnte Florenz bis ins 12. Jahrhundert nicht an die Bedeutung vor der Völkerwanderungszeit anschließen. Entscheidend für den Wiederaufstieg wurde die um 1000 erfolgte Verlegung des Amtssitzes des von den Karolingern eingesetzten Markgrafen Hugo nach Florenz. Mit dem Aufkommen des Feudalismus expandierte die Stadt im 12. Jahrhundert und wurde autonom. Die Bürgerschaft gewann an Macht und es kam zu erbitterten Streitereien zwischen den kaisertreuen Ghibellinen und den später siegreichen Anhängern des Papstes, den Guelfen. Aufstieg und Fall der Medici. Im 14. und 15. Jahrhundert blühte die Stadt auf und setzte die Maßstäbe in der europäischen Kunst und Kultur. Viele Künstler und Gelehrte siedelten sich an (z. B. Donatello, Botticelli; später Michelangelo, Machiavelli, Leonardo da Vinci und Galileo Galilei). Es entwickelte sich die kulturgeschichtliche Epoche der Renaissance (italienisch "Rinascimento"). Florenz wurde gleichzeitig Handels- und Finanzzentrum. Die reiche Familie der Medici stieg im 15./16. Jahrhundert zu einer Großmacht auf und prägte die Stadt wie keine andere Familie. Cosimo I. de’ Medici war der erste bedeutende Medici, der die Stadt nach und nach eroberte. Cosimo lebte kurze Zeit im Exil, als die Medici durch gegnerische Familien gestürzt worden waren. Nachdem jedoch die Wirtschaft aufgrund der Abwesenheit der Medici zum Erliegen gekommen war, kehrte Cosimo aus seinem Exil zurück und übernahm 1537 als Herzog die Regentschaft. Durch ein geschicktes Spiel und präzise ausgewählte Kundschaft schuf sich Cosimo ein Netzwerk aus bedeutenden Politikern, Handelsleuten und bis in die höchsten Ränge der katholischen Kirche. Die Tatsache, dass die Medici als die privaten Bankiers des Papstes fungierten, machte sie schnell zu einer angesehen Bankiersfamilie. Doch hinter den Kulissen war die Politik jener Zeit von Intrigen und Skandalen erschüttert. Der Einfluss der Medici und der geschickte Geschäftssinn ließen Florenz prosperieren und zur Kulturhochburg zweier Jahrhunderte in Europa aufsteigen. Stellvertretend steht hierfür unter anderem die Fertigstellung der Kuppel der Santa Maria del Fiore, die als technische Meisterleistung gilt. Doch die kulturelle Bedeutung von Florenz schwand im 17. Jahrhundert. Die Medici, die lange Zeit die Stadt geprägt hatten, starben aus, und als Franz I. Stephan, der Ehemann von Maria Theresia, ihr Nachfolger und als "Franz II." Großherzog der Toskana (1737–1765) wurde, gelangte Florenz in den Besitz der Habsburger. Neuzeit. Erst im 19. Jahrhundert begann ein neuer wirtschaftlicher Aufschwung. Florenz wurde das Ziel von Bildungsreisen, den Grands Tours, und ein Teil Österreichs. 1859 verloren die Österreicher aber gegen Frankreich und das Königreich von Sardinien-Piemont, Florenz wurde 1861 Teil des Vereinigten Italiens. Die Stadt folgte Turin 1865 als italienische Hauptstadt nach und beherbergte so das erste Parlament des neuen Staates, verlor die Würde aber bereits 1871 an Rom. Nachdem die Stadtbevölkerung sich im 19. Jahrhundert verdoppelt hatte, verdreifachte sie sich im 20. Jahrhundert und profitierte stark von den neuen Wirtschaftszweigen des Tourismus und der Industrie, während Fernhandel und Finanzwirtschaft wieder aufblühten. Nach der nationalsozialistischen Machtergreifung in Deutschland siedelten sich viele deutsche Intellektuelle in und um Florenz an. Nicht alle von ihnen waren Emigranten im klassischen Sinne, sondern verließen Deutschland nur, weil ihnen das politische und kulturelle Klima in der Heimat nicht behagte. Das gilt etwa für den Kreis um Hans Purrmann, der ab 1935 die Villa Romana in Florenz leitete. Politisch und rassistisch Verfolgte fanden sich dagegen eher in den Kreisen um den Verleger Kurt Wolff, die Schriftsteller Alfred Neumann und Karl Wolfskehl oder am Landschulheim Florenz. Nach der Verabschiedung der italienischen Rassengesetze am 1. September 1938 waren auch in Florenz und Umgebung viele jüdische Emigranten zur abermaligen Flucht gezwungen oder hatten diesen Schritt, wie etwa Karl Wolfskehl, schon nach dem Hitlerbesuch in Italien im Frühjahr 1938 vollzogen. Noch prekärer wurde die Situation nach der Besetzung Florenz durch die deutschen Truppen in den Jahren 1943 bis 1945, in deren Folge es zu Razzien und anschließenden Deportationen nach Auschwitz kam. Bei einer Volksabstimmung von 1946 stimmten die Florentiner gegen den Erhalt des Königreichs und für die Republik Italien. Von 1946 bis 1950 regierte eine Koalition aus Sozialisten und Kommunisten die Stadt. Es vollzog sich ein rascher wirtschaftlicher und sozialer Wandel und Aufschwung. Die Jahre bis 1964 waren durch den christlich-sozialen Politiker Giorgio La Pira geprägt, der Bürgermeister von 1950 bis 1956 und 1960–1964 war. Die Überschwemmung in Florenz 1966 beschädigte viele Kunstschätze und forderte 34 Menschenleben, wobei die genauen Angaben von den Behörden jahrzehntelang unter Verschluss gehalten wurden. Recht. Im Jahr 1786 endeten mit Abschaffung von Todesstrafe und Folter durch Peter Leopold (1765 bis 1790 Großherzog der Toskana) diese Methoden auch in Florenz. Kunst. Florenz hat ein großes und bedeutendes künstlerisches Erbe. Cimabue und Giotto, die „Väter“ der italienischen Malerei, lebten in Florenz sowie Arnolfo und Andrea Pisano. Weitere bedeutende Pioniere in Architektur und Skulptur waren Brunelleschi, Donatello und Masaccio, allesamt verbrachten sie große Zeit ihres künstlerischen Lebens in Florenz. Auch der Universalgelehrte Leonardo da Vinci gilt als einer der herausragendsten Denker und Erfinder seiner Zeit. Er verbrachte einen großen Teil seines Lebens in der Stadt. Die Kunst vieler Maler und Bildhauer wird in den zahlreichen Museen in Florenz ausgestellt, die vor allem in den Sommermonaten ausverkauft sind oder sich Schlangen mit stundenlangen Wartezeiten bilden. Die bekanntesten Museen sind die Uffizien und der Palazzo Pitti, mit einer herausragenden Sammlung. Sprache. Florentinisch (fiorentino) wird in Florenz gesprochen und ist ein toskanischer Dialekt. In vielen Teilen ist er identisch mit dem Standarditalienisch, weist aber in der Aussprache Besonderheiten auf. Religion. Die Bevölkerung ist zu etwa 99 % römisch-katholisch, bedingt durch den wichtigen Sitz des Erzbischofs und der Bischofskirche Santa Maria del Fiore. Es gibt jedoch mehrere Kirchen anderer christlicher Glaubensgemeinschaften sowie eine Synagoge. Sehenswürdigkeiten. Die historische Altstadt von Florenz spiegelt die überragenden Leistungen der Stadt auf dem Gebiet der Architektur wider. Hierbei sind insbesondere zahllose Bauten von der Zeit der Protorenaissance bis zur Herrschaft der Medici im 15. und 16. Jahrhundert entstanden, die die enorme wirtschaftliche und kulturelle Bedeutung der Stadt zu dieser Zeit belegen. Die Entstehung vieler Bauten der Stadt wurde dabei durch die Bankiers und Kaufleute der Stadt gefördert. Die florentinische Architektur ist insbesondere durch die zu Beginn des 15. Jahrhunderts durch Brunelleschi, Donatello und Masaccio formulierten Prinzipien der Renaissancearchitektur geprägt, die weit über die Stadt hinaus Bedeutung erlangt haben. Die historische Altstadt von Florenz wurde 1982 in das UNESCO-Welterbe aufgenommen, wobei es hierzu im Antrag heißt, dass „jede Rechtfertigung hierfür lächerlich und unverfroren“ sei, da sich hier die „weltgrößte Anhäufung universell bekannter Kunstwerke“ befinde. Piazza della Signoria. Zentrum der historischen Altstadt ist die Piazza della Signoria. Hier sandten die Florentiner Dante 1301 ins Exil, hier verbrannten sie 1497 auf Aufforderung des Girolamo Savonarola im „Fegefeuer der Eitelkeiten“ Schmuck, Kosmetika, Spiegel, Musikinstrumente und Ähnliches und im darauffolgenden Jahr nach päpstlichem Urteil Savonarola selbst. Auf dem Platz befand sich ursprünglich Michelangelos Statue "David" an der Frontseite des Palazzo Vecchio. Die Statue wurde jedoch mittlerweile durch eine Kopie ersetzt, das Original befindet sich in der "Accademia delle Arti del Disegno". Auf dem Platz befindet sich zudem Bartolomeo Ammanatis marmorner Neptunbrunnen. Er bildet den Endpunkt eines noch funktionsfähigen Aquädukts aus der Antike. Außer dem Palazzo Vecchio liegt die "Loggia dei Lanzi" an diesem wichtigsten Platz der Stadt. Piazza della Repubblica. An der Stelle des römischen Zentrums liegt der Platz mit dem Triumphbogen. Er wurde geplant, als Florenz ab 1865 italienische Hauptstadt war und vor allem um 1890 historistisch gestaltet. Ponte Vecchio. Die einzige Brücke, die den Zweiten Weltkrieg unbeschadet überstand, ist der Ponte Vecchio. Die das erste Mal von den Etruskern gebaute Brücke verbindet die Uffizien mit dem Palast der Medici. Sie zeichnet sich heute vor allem durch entlang ihrer beiden Brüstungsverläufe erbaute Schmuckläden aus, deren Baulichkeiten teils über die Brücke hinausragen. Kirchen. Zentrum der Florentiner Kirchen ist die romanisch-gotische Kathedrale Santa Maria del Fiore mit ihrer eindrucksvollen Kuppel von Filippo Brunelleschi. Die vom 12. bis 14. Jahrhundert gebaute Kirche steht Touristen offen. Zum Domkomplex gehören weiter der Campanile des Giotto südlich an der Kathedrale und das westlich vor der Kirche gelegene Baptisterium San Giovanni mit Paradiespforte. Wichtige Skulpturen aus der Kirche wie die Pietà Palestrina des Michelangelo sind im Dommuseum zu besichtigen. Die Basilica di San Lorenzo stammt in ihrer ersten Version von 390 (von Ambrosius geweiht) und wurde ab 1421 von Brunelleschi in den Formen der Frührenaissance umgebaut. Auf Grund zwischenzeitlichen Geldmangels ruhten die Bauarbeiten mehrfach. Die Ausführung der Pläne Brunelleschis konnte so erst nach seinem Tode vollendet werden, dennoch blieb die Fassade trotz eines spektakulären Entwurfs Michelangelos von 1518 bis heute unvollendet. An ihren Chor schließt sich zwischen den beiden Sakristeien des Brunelleschi und des Michelangelo die Medici-Kapelle an, die wie diese Grablegen der Familie Medici beherbergt. An einem Kreuzgang südlich der Kirche liegt die Biblioteca Medicea Laurenziana, gleichfalls nach Plänen des Michelangelo geschaffen. Paläste. Der Palazzo Pitti, gegenüber der Piazza della Signoria jenseits des Arno gelegen, beherbergt heute die ehemalige Privatsammlung der Medici. Angeschlossen an den Palast ist der Boboli-Garten mit eindrucksvoller Landschaftsgestaltung und vielen Skulpturen, dahinter der Belvedere, der einen Blick über die Stadt erlaubt. Wirtschaft. Der Hauptwirtschaftszweig von Florenz ist der Fremdenverkehr. In den Sommermonaten liegt die Zahl der Touristen deutlich über der der Florentiner. Die großen Museen der Stadt sind regelmäßig ausverkauft. Florenz beherbergt das Hauptquartier der Haute-couture-Firma Gucci, das damit eines der wenigen italienischen Modehäuser ist, das nicht in Mailand ansässig ist. Bedeutende Zweigstellen in Florenz oder der näheren Umgebung betreiben darüber hinaus auch Prada, Pucci, Ferragamo und Roberto Cavalli. Im Jahr 2008 hatte die Stadt das 17. höchste Durchschnittseinkommen in Italien. Als Handelsstadt profitiert Florenz als größte Stadt der Toskana und kann so einen umfangreichen Weinhandel beherbergen. Kulinarisch ist Florenz auch für die Produktion von Cantuccini bekannt. Luftverkehr. Im Nordwesten von Florenz liegt der kleine internationale Flughafen Amerigo Vespucci, der unter anderem von Air Berlin, Alitalia und Lufthansa angeflogen wird. Busse verbinden ihn mit dem Zentrum. So verkehrt ein Pendelbus der ATAF zwischen Flughafen und Hauptbahnhof, die Fahrzeit beträgt rund 15 Minuten. Straße. Florenz liegt an den Autobahnen E45–A1 (Mailand–Rom) und A11 (Pisa–Florenz). Hinzu kommen verschiedene Schnellstraßen. Außerdem ist Florenz seit 1928 Knotenpunkt für Staatsstraßen: die von Rom kommende und endende SS2, die nach Bologna führende SS65, die nach Piteglio-La Lima führende SS66 und die die Stadt durchquerende SS67 Pisa–Porto Corsini. In der historischen Altstadt herrscht für auswärtige PKW und Mietwagen – außer für Anwohner und an Feiertagen – ein striktes Einfahrverbot (Zone mit beschränktem Verkehr, "zona a traffico limitato", kurz ZTL). An den Einfahrten in die Verkehrszone überprüfen Überwachungskameras – ähnlich wie in London – in Echtzeit anhand des Kennzeichens, ob eine Einfahrtsgenehmigung vorliegt oder nicht. Einfahrten ohne Genehmigung werden sofort mit hohen Geldstrafen geahndet. Eisenbahn. Durch Florenz verläuft die wichtigste Nord-Süd-Eisenbahnverbindung Italiens von Norditalien nach Rom und Neapel (Schnellfahrstrecke Bologna–Florenz und Direttissima Florenz–Rom) und damit auch die TEN-Achse Nr. 1 Berlin-Palermo. Nebst dem Hauptbahnhof Firenze S.M.N. gibt es noch zwei weitere Fernbahnhöfe auf Stadtgebiet, Campo di Marte und Rifredi. Zudem kommt ab 2013 der Hochgeschwindigkeitsbahnhof Firenze Belfiore hinzu. Nahverkehr. Florenz arbeitet derzeit am Aufbau eines modernen Straßenbahnsystems, das im Endausbau drei Linien umfassen soll. Eine erste Linie, die den Hauptbahnhof Firenze S.M.N. mit der Nachbarstadt Scandicci verbindet, wurde am 14. Februar 2010 in Betrieb genommen und hat auf einer Länge von 7,8 Kilometern 14 Stationen. Die Stadt rechnet mit etwa 9,8 Millionen Fahrgästen im Jahr. Sie wird im Rahmen einer nach einer Ausschreibung zugeteilten Konzession mit einer Laufzeit von 30 Jahren von "RATP Dev", einer Filiale des Betreibers der Pariser Metro RATP betrieben und gewartet. "RATP Dev" arbeitet gleichzeitig an der Konzeption zweier weiterer Linien (Linien 2 und 3). Sport. Florenz beheimatet den bekannten Serie-A-Verein ACF Fiorentina. Eine besondere Tradition ist das Calcio Storico, eine Art Mischung aus Fußball, Rugby und Kampfsport, das seine Ursprünge im 15. Jahrhundert hat. Bildung. Die 1321 gegründete Universität Florenz ist zentral, das Europäische Hochschulinstitut außerhalb gelegen. Die Accademia delle Arti del Disegno ist eine der ältesten europäischen Kunsthochschulen. Persönlichkeiten. Bekannte Persönlichkeiten der Stadt sind in der Liste von Persönlichkeiten der Stadt Florenz aufgeführt. Städtepartnerschaften. Florenz unterhält mit folgenden Städten Partnerschaften. Francis William Aston. Francis William Aston (* 1. September 1877 in Harborne / seit 1891 zu Birmingham; † 20. November 1945 in Cambridge) war ein englischer Chemiker und Physiker sowie Nobelpreisträger (Chemie 1922). Leben und Wirken. Francis William Aston studierte nach Abschluss seiner Schullaufbahn zunächst Chemie. Die damaligen Entwicklungen in der Physik bewogen ihn, über ein Stipendium 1903 ein weiteres Studium der Physik an der Universität von Birmingham nahe seinem Geburtsort Harborne aufzunehmen, nach dessen Abschluss er sich auf die Physik der Gasentladungsröhre konzentrierte. Bei diesen Arbeiten entdeckte er während einer Glimmentladung direkt an der Kathode vor dem ersten Kathodenlichtsaum eine hauchfeine, dunkle Schicht, die nach ihm der „Astonsche Dunkelraum“ („Aston Dark Space“) benannt wurde. 1909 folgte er einer Einladung von Sir Joseph John Thomson an das Cavendish-Laboratorium in Cambridge und befasste sich dort mit der Identifizierung der Neonisotope. Dazu hielt er Vorlesungen am Trinity College. Seine Arbeiten wurden durch den Ersten Weltkrieg unterbrochen, nach dessen Ende er 1919 wieder an seine Arbeiten zurückkehrte. Er entwickelte während seiner Forschung 1901 eine Methode der elektromagnetischen Fokussierung von Partikelstrahlen (elektromagnetischer Massenspektrograph), die zur Entwicklung des ersten Massenspektrometers (1918) führte. Mit dessen Hilfe identifizierte er mehr als 200 der 287 natürlich vorkommenden Isotope. Bereits 1919 postulierte er die extrem energiereiche Fusion von Wasserstoff zu Helium. 1922 erhielt er den Nobelpreis in Chemie „"für seine Entdeckung von Isotopen, darunter weitgehend die nicht-radioaktiver Elemente unter Zuhilfenahme seines Massenspektrographen und für seine Formulierung der „Regel der Ganzzahligkeit"“. Diese Regel (Whole Number Rule - Ganzzahlregel), nach ihm auch die „Astonsche Regel“ oder „(Astonsche) Isotopenregel“ benannt, besagt: Chemische Elemente mit ungerader Ordnungszahl haben nie mehr als zwei stabile Isotope, solche mit gerader Ordnungszahl besitzen hingegen oft bedeutend mehr. Francis William Aston machte dies am Sauerstoffisotop 16O fest, indem er formulierte: „Bei definierter Masse des Sauerstoffisotops [16O] haben alle anderen Isotope [des Sauerstoffs] Massen, die ziemlich nahe ganzer Zahlen liegen.“ Bereits vor seiner Nobelpreisverleihung wurde er 1921 in die Royal Society aufgenommen. Herausragend unter seinen Veröffentlichung sind die Werke "Isotopen" (Isotopes, 1922) und "Massenspektren und Isotopen" (Mass-Spectra and Isotopes, 1933). 1938 wurde ihm die Royal Medal der Royal Society verliehen. Zu seinen Ehren wurde der Mondkrater „Aston“ benannt. Fourier-Analysis. Die Fourier-Analysis (Aussprache:), die auch als Fourier-Analyse oder klassische harmonische Analyse bekannt ist, ist die Theorie der Fourier-Reihen und Fourier-Integrale. Ihre Ursprünge reichen in das 18. Jahrhundert zurück. Benannt sind die Fourier-Analysis, die Fourier-Reihe und die Fourier-Integrale nach dem französischen Mathematiker Jean Baptiste Joseph Fourier, der im Jahr 1822 in seiner "Théorie analytique de la chaleur" Fourier-Reihen untersuchte. Die Fourier-Analysis ist in vielen Wissenschafts- und Technikzweigen von außerordentlicher praktischer Bedeutung. Die Anwendungen reichen von der Physik (Akustik, Optik, Gezeiten, Astrophysik) über viele Teilgebiete der Mathematik (Zahlentheorie, Statistik, Kombinatorik und Wahrscheinlichkeitstheorie), die Signalverarbeitung und Kryptographie bis zu Ozeanographie und Wirtschaftswissenschaften. Je nach Anwendungszweig erfährt die Zerlegung vielerlei Interpretationen. In der Akustik ist sie beispielsweise die Frequenz-Transformation des Schalls in Oberschwingungen. Aus Sicht der abstrakten harmonischen Analyse sind sowohl die Fourier-Reihen und die Fourier-Integrale als auch die Laplace-Transformation, die Mellin-Transformation oder auch die Walsh-Transformation (dabei werden die trigonometrischen Funktionen durch die Walsh-Funktionen ersetzt) Spezialfälle einer allgemeineren (Fourier-)Transformation. Varianten der Fourier-Transformation. Die verschiedenen Begriffe in diesem Zusammenhang werden leider in der Literatur nicht einheitlich gebraucht und es existieren mehrere Namen für den gleichen Vorgang. So nutzt man Fourier-Transformation sehr oft als Synonym der kontinuierlichen Fourier-Transformation, und mit Fourier-Analyse wird oft die Zerlegung in eine Fourier-Reihe gemeint, manchmal aber auch die kontinuierliche Transformation. Fourierreihen. Es können allgemeinere Typen von Funktionen in eine Fourier-Reihe entwickelt werden, so abschnittsweise stetige, beschränkte Funktionen oder allgemeiner messbare quadratintegrable Funktionen. Kontinuierliche Fourier-Transformation. Die kontinuierliche Fourier-Transformation ist definiert durch Diese Bedingung ist zum Beispiel in der Physik wichtig für die Energieerhaltung durch die Fourier-Transformation. Mathematisch gesehen bedeutet die Gleichung, dass die Fourier-Transformation eine unitäre Abbildung ist, was unter anderem in der Quantenmechanik fundamental ist. Die Beziehung zwischen beiden Arten der Fourier-Transformation wird durch formula_11 vermittelt. Da hier über die Variable formula_13 statt formula_14 integriert wird, entfällt in dieser Darstellungsform der Vorfaktor. Diskrete Fourier-Transformation. Es gibt keine Einschränkungen in der Anwendung der Transformation und der Entwicklungsformel. Sind formula_15 positive Zahlen mit formula_16, und sind formula_17 beliebige ganzzahlige Verschiebungen, so kann eine allgemeinere Variante der Transformationsformeln angegeben werden. Mit formula_18 und formula_3 gilt Zur Berechnung der diskreten Fourier-Transformation wird oft die schnelle Fourier-Transformation (FFT) verwendet, ein Algorithmus, bei dem die Anzahl der Rechenschritte zur Berechnung der Fourier-Koeffizienten wesentlich kleiner ist als bei einer direkten Implementation der Integration. Fourier-Synthese. Alle Transformationen, die in der Fourier-Analysis betrachtet werden, haben die Eigenschaft, dass eine entsprechende inverse Transformation existiert. In den Ingenieurwissenschaften, der Physik und der numerischen Mathematik nennt man das Zerlegen einer Funktion in ihr Spektrum ebenfalls Fourier-Analyse. Der Begriff beschreibt also nicht nur dieses Teilgebiet der Funktionalanalysis, sondern auch den Prozess der Zerlegung einer Funktion. Das Darstellen der Ausgangsfunktion mit Hilfe des Spektrums aus der Fourier-Analyse wird als Fourier-Synthese bezeichnet. Da diese Begriffsbildung besonders in den angewandten Wissenschaften üblich ist, tritt diese auch eher im Zusammenhang mit der diskreten Fourier-Transformation und der schnellen Fourier-Transformation auf. Anwendungen. Anschauliche Darstellung der Fourier-Transformation aus dem Zeitbereich, dargestellt in rot, in den Frequenzbereich, dargestellt in blau. Aufgrund der Periodizität des Zeitsignals treten nur einzelne Spektralkomponenten im Frequenzbereich auf In der Physik stellt die Fouriertransformation in der Wellenmechanik die Verknüpfung zwischen Zeitbereich und Frequenzraum dar. Werden statt Zeitsignale Signale als Funktion des Ortes betrachtet, stellt die Fouriertransformation eine Verknüpfung zwischen dem Ortsraum und den im Frequenzraum vorhandenen Ortsfrequenzen bzw. Wellenzahlen dar. In mehreren Dimensionen werden die Wellenzahlen in Form von Wellenvektoren beschrieben. In der Kristallographie heißt der zum Ortsraum reziproke Frequenzraum reziproker Raum. In der Quantenmechanik entsprechen, bis auf einen Proportionalitätsfaktor, die Wellenzahlen dem Impuls des Teilchens, woraus sich ein Zusammenhang mit der Heisenbergsche Unschärferelation ergibt. Da Orts- und Impulsraum durch die Fouriertransformation verknüpft sind, führt die Verknüpfung der Ausdehnungen zu einer Unschärfe. Analog ergibt sich auch die Energie-Zeit-Unschärfe aus der Fouriertransformation, wobei hier die Frequenz bis auf Proportionalitätsfaktor der Energie entspricht und somit eine Verknüpfung von Energie und Zeit durch die Fouriertransformation gegeben ist, die zu einer Unschärfe führt. Geschichte. Schon ab 1740 diskutierten Mathematiker wie Bernoulli und d’Alembert die Möglichkeit, periodische Funktionen als trigonometrische Reihen darzustellen. Die heute bekannte Reihenentwicklung für periodische Funktionen geht auf den französischen Mathematiker Fourier zurück. Zu Beginn des 19. Jahrhunderts veröffentlichte er sein Werk "Théorie analytique de la chaleur", in dem er davon ausgeht, dass jede Funktion in eine trigonometrische Reihe entwickelt werden könne. Er benutzte diese Reihen insbesondere zum Lösen der Wärmeleitungsgleichung. In diesem Werk führte er auch die kontinuierliche Fourier-Transformation in Form einer Kosinus-Transformation ein. Mit dieser versuchte er die Wärmeleitungsgleichung auf unbeschränkten Mengen insbesondere auf der reellen Achse zu lösen. Peter Gustav Lejeune Dirichlet untersuchte diese trigonometrischen Reihen, die heute Fourier-Reihen heißen, weiter und konnte erste Konvergenzeigenschaften beweisen. So konnte er 1829 zeigen, dass die Fourier-Reihe punktweise konvergiert, wenn die Ausgangsfunktion lipschitz-stetig ist. Zur exakten Berechnung der Fourier-Koeffizienten führte Bernhard Riemann dann seinen Integralbegriff ein und entdeckte 1853 das Lokalisationsprinzip. Das besagt, dass die Konvergenz beziehungsweise Divergenz sowie gegebenenfalls der Wert der Fourier-Reihe einer Funktion formula_25 bei formula_26 durch das Verhalten von formula_25 in einer beliebig kleinen Umgebung von formula_26 eindeutig bestimmt ist. Erst 1876 fand Paul Du Bois-Reymond eine stetige Funktion, deren Fourier-Reihe nicht punktweise konvergiert. In seinem Satz konnte Fejér 1904 jedoch zeigen, dass die Fourier-Reihe für jede stetige Funktion im arithmetischen Mittel konvergiert. Im Jahr 1915 warf Nikolai Nikolajewitsch Lusin die Frage auf, ob die Fourier-Reihe für jede Funktion formula_29 konvergiert. Dies konnte erst 1968 von Lennart Carleson positiv beantwortet werden und Hunt verallgemeinerte 1968 das Ergebnis auf Funktionen formula_30 mit formula_31. Die Voraussetzung formula_31 ist allerdings wesentlich, wie das Beispiel einer integrierbaren Funktion mit überall divergenter Fourier-Reihe, das Kolmogorow 1926 fand, zeigt. Da die Fourier-Transformation auch außerhalb der Mathematik einen großen Anwendungsbereich hat, ist man an einem Algorithmus interessiert, mit dem ein Computer die Fourier-Koeffizienten mit möglichst wenig Aufwand berechnen kann. Solche Verfahren nennt man Schnelle Fourier-Transformation. Der bekannteste Algorithmus stammt von James Cooley und John W. Tukey, die ihn 1965 veröffentlichten. Jedoch wurde ein Algorithmus schon 1805 von Carl Friedrich Gauß entwickelt. Er benutzte ihn zur Berechnung der Flugbahnen der Asteroiden (2) Pallas und (3) Juno. Zum ersten Male wurde eine Variante des Algorithmus von Carl Runge im Jahre 1903 beziehungsweise 1905 veröffentlicht. Darüber hinaus wurden vor Cooley und Tukey schon eingeschränkte Varianten der schnellen Fourier-Transformation veröffentlicht. So hat zum Beispiel Irving John Good 1960 ebenfalls einen solchen Algorithmus veröffentlicht. Mathematische Grundlagen. Wir betrachten stetige, von der Zeit "t" reell abhängige Funktionen bzw. Vorgänge (z. B. als vektorwertige Funktionen) "f(t)", die sich nach einer Zeit formula_33 wiederholen, also periodisch mit Periode "T" sind, "f(t+T)=f(t)". Die einzelnen Schwingungen haben die Kreisfrequenz formula_35, also die Frequenz formula_36. Damit hat die erste Schwingung (Grundschwingung) die Frequenz formula_37, die nächsten formula_38, formula_39, … Zusammen mit formula_41 erhalten wir eine phasenfreie Darstellung Im nächsten Schritt soll die Summe mit Hilfe komplexer Zahlen umgeschrieben werden. Es sind dann komplexe Koeffizienten erlaubt, und die Reihe wird komplexwertig. Sofern reelle Funktionen betrachtet werden, kann diese als Realteil der Summe zurückgewonnen werden. Aus der Euler-Formel oder auch nach der Definition der trigonometrischen Funktionen mit der Exponentialfunktion folgt Mit den komplexen Koeffizienten formula_46, formula_47 und formula_48 für "n>0" erhalten wir eine Summe mit auch negativen Indizes Fourier-Reihe. Wir kennen jetzt also die trigonometrische Summe in verschiedenen Darstellungen. Es war aber gefragt, eine periodische stetige Funktion mittels solch einer Summe zu approximieren. Dazu stellen wir fest, dass die komplexen Koeffizienten formula_50, und damit auch die der anderen Darstellungen, sich aus der Summenfunktion zurückgewinnen lassen. Es liefert also nur der Summand für n=0 einen Beitrag, es vereinfacht sich das Integral also zu Wir können nun versuchen, die trigonometrische Summe durch eine beliebige stetige periodische Funktion "f" zu ersetzen, die Koeffizienten nach obigen Formeln zu bestimmen und die mit diesen Koeffizienten gebildeten trigonometrischen Summen mit der Aperiodische Vorgänge (Fourier-Integral). Voraussetzung für die hergeleitete Fourier-Reihe ist die Periodizität von formula_61 über dem Zeitintervall formula_33. Selbstverständlich gibt es auch nichtperiodische Funktionen, die diese Voraussetzung für kein endliches Zeitintervall erfüllen. Wie schon gezeigt, hat die formula_55-te Oberschwingung die Frequenz formula_64. Die Differenz der formula_55-ten Oberfrequenz von der vorherigen ist formula_66, das heißt, die Oberfrequenzen haben den Abstand formula_37. Für formula_33 gegen unendlich geht ihr Abstand gegen Null – die Summe wird im Grenzfall zum Riemann-Integral. Das Fourier-Integral, die kontinuierliche Fourier-Transformation, ist also gegeben durch Aus der Folge formula_71 ist nun das kontinuierliche Spektrum formula_72 geworden. Man bezeichnet genau genommen die zweite Transformation als Fourier-Transformation, die erste, deren inverse, ist die Fourier-Synthese. Die zweite Gleichung kann analog wie für die Reihe hergeleitet werden. Das angegebene Beziehungspaar gilt u. a. erneut für quadratintegrierbare Funktionen. Differentialgleichungen. Die Fourier-Transformation wird oft eingesetzt, um Differentialgleichungen zu lösen. Denn die formula_73 bzw. die formula_74 sind Eigenfunktionen der Differentiation, und die Transformation wandelt lineare Differentialgleichungen mit konstanten Koeffizienten in normale algebraische Gleichungen um. So ist zum Beispiel in einem linearen zeitinvarianten physikalischen System die Frequenz eine Erhaltungsgröße, und das Verhalten kann für jede Frequenz einzeln gelöst werden. Die Anwendung der Fourier-Transformation auf die Differentialgleichung ergibt den Frequenzgang des Systems. Abstrakte harmonische Analyse. Die abstrakte harmonische Analyse ist die Weiterentwicklung der Fourier-Analysis auf lokalkompakte topologische Gruppen. Auf diesen Gruppen kann man mit Hilfe des Haar-Maßes, das das Lebesgue-Maß als Spezialfall umfasst, ein Integral definieren. Zentral in der abstrakten harmonischen Analyse ist der Begriff der Charakters, der von Lew Semjonowitsch Pontrjagin eingeführt wurde. Das ist ein stetiger Gruppenhomomorphismus formula_75 von der lokalkompakten, abelschen Gruppe formula_76 in die Sphäre. In Analogie zu linearen Funktionalen und den Dualräumen bilden ihre Gesamtheit die Dualgruppe formula_77. Der Begriff Dualgruppe wird durch den Dualitätssatz von Pontrjagin gerechtfertigt. Aus Sicht der abstrakten harmonischen Analyse versteht man dann unter der Abbildung die Fourier-Transformation. Wählt man formula_79 und formula_80 so ist formula_81 und man erhält die klassische kontinuierliche Fourier-Transformation. In der abstrakten harmonischen Analyse gibt es genauso wie in der klassischen Fourier-Analysis für diese Transformation auch eine Rücktransformation. Außerdem umfasst diese abstrakte Fourier-Transformation auch die Fourier-Reihe sowie die Laplace-Transformation, die Mellin-Transformation und andere Transformationen als Spezialfälle. Funktion (Mathematik). In der Mathematik ist eine Funktion (lat. "functio") oder Abbildung eine Beziehung (Relation) zwischen zwei Mengen, die jedem Element der einen Menge (Funktionsargument, unabhängige Variable, formula_1-Wert) genau ein Element der anderen Menge (Funktionswert, abhängige Variable, formula_2-Wert) zuordnet. Der Funktionsbegriff wird in der Literatur unterschiedlich definiert, jedoch geht man generell von der Vorstellung aus, dass Funktionen mathematischen Objekten mathematische Objekte zuordnen, zum Beispiel jeder reellen Zahl deren Quadrat. Das Konzept der Funktion oder Abbildung nimmt in der modernen Mathematik eine zentrale Stellung ein; es enthält als Spezialfälle unter anderem parametrische Kurven, Skalar- und Vektorfelder, Transformationen, Operationen, Operatoren und vieles mehr. Begriffsgeschichte. Erste Ansätze zu einer impliziten Verwendung des Funktionsbegriffs in Tabellenform (Schattenlänge abhängig von der Tageszeit, Sehnenlängen abhängig vom Zentriwinkel etc) sind bereits in der Antike zu erkennen. Den ersten Beleg einer expliziten Definition des Funktionsbegriffs findet man bei Nikolaus von Oresme, der im 14. Jahrhundert Abhängigkeiten sich ändernder Größen (Wärme, Bewegung etc) graphisch durch senkrecht aufeinander stehende Strecken (longitudo, latitudo) darstellte. Am Beginn des Prozesses zur Entwicklung des Funktionsbegriffs stehen Descartes und Fermat, die mit Hilfe der von Viète eingeführten Variablen die analytische Methode der Einführung von Funktionen entwickelten. Funktionale Abhängigkeiten sollten durch Gleichungen wie zum Beispiel formula_3 dargestellt werden. In der Schulmathematik wurde dieser naive Funktionsbegriff bis weit in die zweite Hälfte des 20. Jahrhunderts beibehalten. Die erste Umschreibung des Funktionsbegriffs nach dieser Idee stammt von Gregory in seinem 1667 erschienenen Buch "Vera circuli et hyperbolae quadratura". Der Begriff "Funktion" kommt wohl erstmals 1673 in einem Manuskript von Leibniz auf, der in seiner Abhandlung von 1692 "De linea ex lineis numero infinitis ordinatim ductis" auch die Begriffe „Konstante“, „Variable“, „Ordinate“ und „Abszisse“ benutzt. Im Schriftwechsel zwischen Leibniz und Johann Bernoulli wird der Funktionsbegriff von der Geometrie losgelöst und in die Algebra übertragen. In Beiträgen von 1706, 1708 und 1718 stellt Bernoulli diese Entwicklung dar. 1748 präzisiert Euler, ein Schüler Johann Bernoullis, in seinem Buch "Introductio in analysin infinitorum" den Funktionsbegriff weiter. Bei Euler findet man zwei verschiedene Erklärungen des Funktionsbegriffs: Zum einen stellt jeder „analytische Ausdruck“ in x eine Funktion dar, zum anderen wird y(x) im Koordinatensystem durch eine freihändig gezeichnete Kurve definiert. 1755 formuliert er diese Vorstellungen ohne Verwendung des Terminus „analytischer Ausdruck“ um. Außerdem führte er bereits 1734 die Schreibweise f(x) ein. Er unterscheidet zwischen eindeutigen und mehrdeutigen Funktionen. Bei Euler ist damit auch die Umkehrung der Normalparabel, bei der jeder nicht-negativen reellen Zahl sowohl ihre positive als auch ihre negative Wurzel zugeordnet wird, als Funktion zugelassen. Für Lagrange sind nur Funktionen zulässig, die durch Potenzreihen definiert sind, wie er 1797 in seiner "Théorie des fonctions analytiques" festlegt. Eine fruchtbare Auseinandersetzung über das Bewegungsgesetz einer schwingenden Saite, zu dem d’Alembert 1747, Euler 1748 und Daniel Bernoulli 1753 unterschiedliche Lösungen vorstellten, führte zur Entdeckung der "Definitionsmenge" und einem weiter präzisierten Funktionsbegriff, in dem schon so etwas wie eindeutige Zuordnung umschrieben wird, durch Fourier in seinem 1822 erschienenen Buch "Théorie analytique de la chaleur". Ähnliches formuliert Cauchy 1823 in "Résumé des leçons … sur le calcul infinitésimal". Als die Analysis im 19. Jahrhundert mit einem exakten Grenzwertbegriff auf eine neue Grundlage gestellt wurde, wurden Eigenschaften, die bisher als für Funktionen konstituierend aufgefasst wurden, in einem Exaktifizierungsprozess als selbständige Begriffe eingeführt und vom Funktionsbegriffs losgelöst. Dirichlet, ein Schüler Fouriers, formulierte diese neue Sicht: „Ideen an die Stelle von Rechnungen“ und stellte 1837 seine Ideen dar. Stokes führte in Arbeiten 1848 und 1849 ähnliche Ansichten aus. So verfuhr Riemann, Schüler von Dirichlet, 1851 in "Grundlagen für eine allgemeine Theorie der Functionen einer veränderlichen complexen Größe" mit der Stetigkeit, später folgten Integrierbarkeit und Differenzierbarkeit. Eine Zusammenfassung dieser Entwicklung macht Hankel 1870 in "Untersuchungen über die unendlich oft oscillierenden und unstetigen Functionen". Auch hier wird noch nicht zwischen der Funktion f und dem Funktionswert f(x) an der Stelle x unterschieden. Weierstraß, Dedekind und andere entdeckten, dass Grenzwerte unendlicher Folgen „klassischer“ Funktionen sprunghaft sein können und sich nicht immer durch „geschlossene“ Formeln, d. h. mit endlich vielen Rechenoperationen, ausdrücken lassen. Das erzwang eine schrittweise Ausweitung des Funktionsbegriffs. Davon unabhängig wurde im 19. Jahrhundert die Gruppentheorie begründet, mit der man systematisch untersuchen kann, wie sich algebraische Gleichungen unter der Wirkung aufeinanderfolgender Transformationen verändern. Bei der Anwendung dieser Theorie auf geometrische Probleme wurden gleichbedeutend mit "Transformation" auch die Begriffe "Bewegung" und "Abbildung" gebraucht. Als Anfang des 20. Jahrhunderts die Grundlagen der Mathematik einheitlich in der Sprache der Mengenlehre formuliert wurden, stellten sich die mathematischen Begriffe "Funktion" und "Abbildung" als deckungsgleich heraus. Im Sprachgebrauch wirken die unterschiedlichen Traditionen jedoch fort. In der Analysis spricht man heute häufig noch von Funktionen, während man in der Algebra und in der Geometrie von Abbildungen spricht. Einige Mathematiker unterscheiden auch heute noch streng zwischen einer Abbildung und einer Funktion. Diese verstehen unter einer Funktion eine Abbildung in den reellen oder komplexen Zahlenkörper. Weitere Synonyme für "Funktion" in spezielleren Zusammenhängen sind unter anderem Operator in der Analysis, Operation, Verknüpfung und Morphismus in der Algebra. Heute sehen manche Autoren den Funktionsbegriff nicht unbedingt auf Mengen beschränkt an, sondern lassen jede aus geordneten Paaren bestehende Klasse, die keine verschiedenen Elemente mit gleicher linker Komponente enthält, als Funktion gelten. Mengentheoretisch ausgedrückt werden Funktionen also als "rechtseindeutige Relationen" definiert. Grundidee. Eine Funktion formula_4 ordnet "jedem" Element formula_1 einer Definitionsmenge formula_6 "genau ein" Element formula_2 einer Zielmenge formula_8 zu. Für das dem Element formula_10 zugeordnete Element der Zielmenge schreibt man im Allgemeinen formula_11. Mengentheoretische Definition. formula_46 wird auch der Graph der Funktion formula_4 genannt. Die Definitionsmenge formula_6 der Funktion ist dabei durch ihren Graphen eindeutig bestimmt und besteht aus den ersten Komponenten aller Elemente des Graphen. Stimmen zwei Funktionen in ihren Graphen überein, so sagt man auch, sie seien im Wesentlichen gleich. Man kann jedoch auch noch die Definitionsmenge hinzunehmen und eine Funktion entsprechend als ein Tripel formula_61, formula_46 wie oben, definieren. Sprechweisen. Davon zu unterscheiden ist die Sprech- und Schreibweise: "„y ist eine Funktion von x“," die vor allem in der Physik sehr nahestehenden Bereichen der Mathematik auftaucht. Sie ist die ältere und ursprüngliche Sprech- und Schreibweise und beschreibt die Abhängigkeit einer Variablen formula_2 von einer anderen Variablen formula_1, im Gegensatz dazu, dass mit Hilfe der Variablen formula_1 und formula_2 (stellvertretend) die Zuordnung bestimmter Elemente von Mengen beschrieben wird. Die "„physikalische“" Sprechweise stammt von dem Vorgehen, zunächst zwei veränderlichen Größen (der physikalischen Realität) Symbole, nämlich die Variablen formula_1 und formula_2, zuzuordnen und "danach" deren Abhängigkeit festzustellen. Steht beispielsweise formula_2 für die Raumtemperatur und formula_1 für die Zeit, so wird man feststellen können, dass sich die Raumtemperatur in Abhängigkeit von der Zeit ändert und somit "„die Raumtemperatur eine Funktion der Zeit ist“" oder stellvertretend "„y eine Funktion von x ist.“" Statt "Definitionsmenge" formula_6 wird auch "Definitionsbereich, Urbildmenge" oder schlicht "Urbild" gesagt. Die Elemente von formula_6 heißen "Funktionsargumente" oder "Urbilder," salopp auch "x-Werte." Die Zielmenge formula_8 wird auch "Wertemenge" oder "Wertebereich" genannt, die Elemente von formula_8 heißen "Zielwerte" oder "Zielelemente," salopp auch "y-Werte". Diejenigen Elemente von formula_8, die tatsächlich auch als Bild eines Arguments auftreten, heißen "Funktionswerte, Bildelemente" oder schlicht "Bilder". Darstellung. Eine Funktion formula_86, kann man visualisieren, indem man ihren Graphen in ein (zweidimensionales) Koordinatensystem zeichnet. Der Funktionsgraph einer Funktion formula_4 kann mathematisch definiert werden als die Menge aller Elementepaare formula_88, für die formula_89 ist. Der Graph einer stetigen Funktion auf einem zusammenhängenden Intervall bildet eine zusammenhängende Kurve (genauer: die Menge der Punkte der Kurve, aufgefasst als Unterraum des topologischen Raumes formula_90 ist zusammenhängend). Analog kann man Funktionen formula_91, und formula_92, visualisieren, indem man sie in ein dreidimensionales Koordinatensystem zeichnet. Ist formula_4 stetig, so ergibt sich eine Kurve (die auch Ecken haben kann), die sich durch das Koordinatensystem „schlängelt“. Ist formula_94 stetig, so ergibt sich eine Fläche als Bild, typischerweise in Form einer „Gebirgslandschaft“. Computerprogramme zur Darstellung von Funktionen heißen Funktionenplotter. Funktionsprogramme gehören auch zum Funktionsumfang von Computeralgebrasystemen (CAS), matrizenfähigen Programmierumgebungen wie MATLAB, Scilab, GNU Octave und anderen Systemen. Die wesentlichen Fähigkeiten eines Funktionenplotters sind auch auf einem graphikfähigen Taschenrechner verfügbar. Es gibt auch Web-gestützte Angebote, die nur einen aktuellen Browser benötigen. Bild und Urbild. Das Bild eines Elements formula_1 der Definitionsmenge ist einfach der Funktionswert formula_11. Das Bild einer Funktion ist die Menge der Bilder aller Elemente der Definitionsmenge formula_6, also Das Bild einer Funktion ist folglich eine Teilmenge der Zielmenge und wird Bildmenge genannt. Das Urbild eines Elements formula_2 der Zielmenge ist die Menge aller Elemente der Definitionsmenge, deren Bild formula_2 ist. Man schreibt Stelligkeit. Eine Funktion formula_109, deren Definitionsmenge formula_110 eine Produktmenge formula_111 ist, heißt oft "zweistellig". Den Wert von formula_4, der bei Anwendung von formula_4 auf das Paar formula_114 erhalten wird, bezeichnet man mit formula_115. Analoges gilt für höhere Stelligkeiten. Eine Funktion formula_116 bezeichnet man üblicherweise als "dreistellig". Eine Funktion, deren Definitionsmenge keine Produktmenge ist (oder bei der die innere Struktur der Definitionsmenge keine Rolle spielt) bezeichnet man als "einstellig". Unter einer nullstelligen Funktion versteht man eine Funktion, deren Definitionsmenge das leere Produkt formula_117 ist. Statt einstellig, zweistellig, dreistellig sagt man auch oft unär, binär, ternär; Stelligkeit wird daher auch als „Arität“ (englisch: arity) bezeichnet. Einschränkung. Die Einschränkung einer Funktion formula_123 auf eine Teilmenge formula_124 der Definitionsmenge formula_120 ist die Funktion formula_126, deren Graph durch Umkehrfunktion. Zu jeder bijektiven Funktion formula_123 gibt es eine Umkehrfunktion sodass formula_130 das eindeutig bestimmte Element formula_131 ist, für das formula_55 gilt. Die Umkehrfunktion erfüllt damit für alle formula_131 Bijektive Funktionen werden daher auch als eindeutig umkehrbare Funktionen bezeichnet. Verkettung. Zwei Funktionen formula_123 und formula_136, bei denen der Wertebereich der ersten Funktion mit dem Definitionsbereich der zweiten Funktion übereinstimmt, können verkettet werden. Die Verkettung oder Hintereinanderausführung dieser beiden Funktionen ist dann eine neue Funktion, die durch gegeben ist. In dieser Notation steht meist die zuerst angewandte Abbildung rechts, das heißt bei formula_138 wird zuerst die Funktion formula_4 angewandt und dann die Funktion formula_94. Gelegentlich wird in der Literatur allerdings auch die umgekehrte Reihung verwendet und formula_141 geschrieben. Verknüpfung. Beispiel hierfür ist die punktweise Multiplikation einer Funktion mit einem Skalar. Analog lässt sich so auch eine äußere Verknüpfung der Form formula_149 definieren. Sind Verknüpfungen der gleichen Art sowohl auf der Definitionsmenge, als auch auf der Zielmenge gegeben, dann heißt eine Funktion verträglich mit diesen Verknüpfungen, wenn sich die Bilder bezüglich der einen Verknüpfung genauso verhalten wie die Urbilder bezüglich der anderen Verknüpfung. Verwendung. Ein fundamentales Konzept in der Mathematik stellen Strukturen dar, die dadurch entstehen, dass Mengen in Verbindung mit dazugehörigen Abbildungen gesehen werden. Derartige Strukturen bilden die Grundlage praktisch aller mathematischen Disziplinen, sobald sie über elementare Mengenlehre, kombinatorische Probleme oder grundlegende mathematisch-philosophische Fragestellungen hinausgehen. Mengen können beispielsweise durch sogenannte Verknüpfungen strukturiert werden. Der wichtigste Spezialfall ist die innere zweistellige Verknüpfung, dabei handelt es sich um eine Abbildung der Form formula_167. Beispiele für innere zweistellige Verknüpfungen sind Rechenoperationen, wie die Addition oder Multiplikation auf Zahlenmengen. Dementsprechend wird das Bild formula_168 eines Paares formula_29 unter einer Verknüpfung formula_170 üblicherweise in der Form formula_171 geschrieben. Weitere wichtige Beispiele solcher Strukturen sind algebraische, geometrische und topologische Strukturen, wie beispielsweise Skalarprodukte, Normen und Metriken. Multifunktionen. Eine Multifunktion (auch mehrwertige Funktion oder Korrespondenz genannt) ist eine linkstotale Relation. Das heißt, die Elemente der Definitionsmenge formula_110 können auf mehrere Elemente der Zielmenge formula_173 abgebildet werden. Man schreibt auch formula_174. Ein Beispiel für Multifunktionen sind die Umkehrfunktionen von surjektiven Funktionen. (Wenn formula_175 surjektiv ist, gilt automatisch: formula_176 ist eine Multifunktion.) Wenn formula_173 eine Menge ist, dann kann man jede Multifunktion formula_174 auch als eine Funktion formula_179 darstellen, die in die Potenzmenge von formula_173 geht: formula_181. Partielle Funktionen. Wohlzuunterscheiden vom Begriff der Funktion ist der Begriff der partiellen Funktion, man spricht auch von einer „nicht überall definierten Funktion“ oder „funktionalen Relation“. Hier darf es Elemente der Quellmenge (formula_1-Werte) geben, denen kein Wert der Zielmenge (formula_2-Wert) zugeordnet ist. Hier ist dann die Nennung der Quellmenge in der obigen Tripelschreibweise tatsächlich notwendig. Allerdings darf es auch dort für einen formula_1-Wert nicht mehr als einen formula_2-Wert geben. Um partielle Funktionen von Funktionen zu unterscheiden, bezeichnet man letztere auch als totale oder überall definierte Funktionen. Funktionen mit Werten in einer echten Klasse. Definitions- und Wertemenge sind tatsächlich Mengen, aber es ist nicht nötig, sich von vornherein auf eine Ziel"menge" festzulegen. Symbolik. Für Funktionen gibt es etliche symbolische Schreibweisen, die jeweils einige spezielle Eigenschaften der Funktion ausdrücken. Im Folgenden werden einige wichtige genannt. Die Symbole können auch, wo sinnvoll, miteinander kombiniert werden. Beurteilung eines binären Klassifikators. Bei einer Klassifizierung werden Objekte anhand von bestimmten Merkmalen durch einen Klassifikator in verschiedene Klassen eingeordnet. Der Klassifikator macht dabei im Allgemeinen Fehler, ordnet also in manchen Fällen ein Objekt einer falschen Klasse zu. Aus der relativen Häufigkeit dieser Fehler lassen sich quantitative Maße zur Beurteilung eines Klassifikators ableiten. Häufig ist die Klassifikation binärer Natur, d. h., es gibt nur zwei mögliche Klassen. Die hier diskutierten Gütemaße beziehen sich ausschließlich auf diesen Fall. Solche binäre Klassifikationen werden häufig in Form einer Ja/Nein-Frage formuliert: Leidet ein Patient an einer bestimmten Krankheit oder nicht? Ist ein Feuer ausgebrochen oder nicht? Nähert sich ein feindliches Flugzeug oder nicht? Bei Klassifikationen dieser Art gibt es zwei mögliche Arten von Fehlern: Ein Objekt wird der ersten Klasse zugeordnet, obwohl es der zweiten angehört, oder umgekehrt. Die hier beschriebenen Kennwerte bieten dann eine Möglichkeit, die Zuverlässigkeit des zugehörigen Klassifikators (Diagnoseverfahren, Feuermelder, Fliegerradar) zu beurteilen. Ja-Nein-Klassifikationen weisen Ähnlichkeiten zu statistischen Tests auf, bei denen zwischen einer Nullhypothese und einer Alternativhypothese entschieden wird. Die Validierung auf Daten hat als Nachteil, dass Trainingsdaten zur Validierung „verschwendet“ werden (Out-of-Sample Testing). Dieses Dilemma kann durch Kreuzvalidierungsverfahren gelöst werden: Man teilt die Datensätze in n Teile. Dann nutzt man für jede Partition p die anderen n-1 Partitionen zum Lernen und die Partition p zum Testen. Wahrheitsmatrix: Richtige und falsche Klassifikationen. Ein Test soll kranke und gesunde Menschen voneinander unterscheiden. Jeder Mensch wird durch einen Punkt dargestellt, der links (krank) bzw. rechts (gesund) der schwarzen Linie liegt.Die Punkte im Oval sind die von dem Test als krank klassifizierten Menschen. Richtig bewertete Fälle sind grün, falsch bewertete rot unterlegt. Im ersten und letzten Fall war die Diagnose also richtig, in den anderen beiden Fällen liegt ein Fehler vor. Die vier Fälle werden in verschiedenen Kontexten auch anders benannt. So sind auch die englischen Begriffe "true positive", "false positive", "false negative" und "true negative" gebräuchlich. Im Rahmen der Signalentdeckungstheorie werden richtig positive Fälle auch als "hit", falsch negative Fälle als "miss" und richtig negative Fälle als "correct rejection" bezeichnet. Diese Matrix ist ein einfacher Spezialfall einer Kontingenztafel mit zwei binären nominalen Variablen – dem Urteil des Klassifikators und der tatsächlichen Klasse. Sie kann auch für Klassifikationen mit mehr als zwei Klassen eingesetzt werden, dann wird bei N Klassen aus einer 2×2-Matrix eine N×N-Matrix. Statistische Gütekriterien der Klassifikation. Durch Berechnung verschiedener "relativer" Häufigkeiten können aus den Werten der Wahrheitsmatrix nun Kenngrößen zur Beurteilung des Klassifikators berechnet werden. Diese können auch als Schätzungen der bedingten Wahrscheinlichkeit für das Eintreten des entsprechenden Ereignisses interpretiert werden. Die Maße unterscheiden sich hinsichtlich der Grundgesamtheit, auf die sich die relativen Häufigkeiten beziehen: So können etwa nur alle die Fälle in Betracht gezogen werden, in denen die positive bzw. negative Kategorie "tatsächlich" vorliegt (Summe über die Einträge einer "Spalte" der Wahrheitsmatrix), oder man betrachtet die Menge aller Objekte, die als positiv bzw. negativ "klassifiziert" werden (Summe über die Einträge einer "Zeile" der Wahrheitsmatrix). Diese Wahl hat gravierende Auswirkungen auf die berechneten Werte, insbesondere dann, wenn eine der beiden Klassen insgesamt viel häufiger vorkommt als die andere. Sensitivität und Falsch-Negativ-Rate. Die Sensitivität (auch Richtig-Positiv-Rate, Empfindlichkeit oder Trefferquote; englisch "sensitivity", "true positive rate", "recall" oder "hit rate") gibt den Anteil der korrekt als positiv klassifizierten Objekte an der Gesamtheit der tatsächlich positiven Objekte an. Beispielsweise entspricht Sensitivität bei einer medizinischen Diagnose dem Anteil an tatsächlich Kranken, bei denen die Krankheit auch erkannt wurde. Die Sensitivität entspricht der geschätzten bedingten Wahrscheinlichkeit Entsprechend gibt die Falsch-Negativ-Rate (englisch "false negative rate" oder "miss rate") den Anteil der fälschlich als negativ klassifizierten Objekte an, die in Wirklichkeit positiv sind, also im Beispiel die tatsächlich Kranken, die aber als gesund diagnostiziert werden. Die Falsch-Negativ-Rate entspricht der geschätzten bedingten Wahrscheinlichkeit Da sich beide Maße auf den Fall beziehen, dass in Wirklichkeit die positive Kategorie vorliegt (erste Spalte der Wahrheitsmatrix), addieren sich die Sensitivität und die Falsch-Negativ-Rate zu 1 bzw. 100 %. Spezifität und Falsch-Positiv-Rate. Die Spezifität (auch Richtig-Negativ-Rate oder kennzeichnende Eigenschaft; englisch: "specificity", "true negative rate" oder "correct rejection rate") gibt den Anteil der korrekt als negativ klassifizierten Objekte an der Gesamtheit der in Wirklichkeit negativen Objekte an. Beispielsweise gibt die Spezifität bei einer medizinischen Diagnose den Anteil der Gesunden an, bei denen auch festgestellt wurde, dass keine Krankheit vorliegt. Die Spezifität entspricht der geschätzten bedingten Wahrscheinlichkeit Entsprechend gibt die Falsch-Positiv-Rate (auch Ausfallrate; englisch "fallout" oder "false positive rate") den Anteil der fälschlich als positiv klassifizierten Objekte an, die in Wirklichkeit negativ sind. Im Beispiel würde dann ein tatsächlich Gesunder zu Unrecht als krank diagnostiziert. Es wird also die Wahrscheinlichkeit für einen Fehlalarm angegeben. Die Falsch-Positiv-Rate entspricht der geschätzten bedingten Wahrscheinlichkeit Da sich beide Maße auf den Fall beziehen, dass in Wirklichkeit die negative Kategorie vorliegt (zweite Spalte der Wahrheitsmatrix), addieren sich die Spezifität und die Falsch-Positiv-Rate zu 1 bzw. 100 %. Positiver und negativer Vorhersagewert. Der positive Vorhersagewert (auch Relevanz, Wirksamkeit, Genauigkeit, positiver prädiktiver Wert; englisch: "precision" oder "positive predictive value"; Abkürzung: PPV) gibt den Anteil der korrekt als positiv erkannten Ergebnisse an der Gesamtheit der als positiv erkannten Ergebnisse an (erste Zeile der Wahrheitsmatrix). Beispielsweise gibt der positive Vorhersagewert einer medizinischen Diagnose an, wie viele Personen, bei denen die Krankheit festgestellt wurde, auch tatsächlich krank sind. Der positive Vorhersagewert entspricht der geschätzten bedingten Wahrscheinlichkeit Entsprechend gibt der negative Vorhersagewert (auch Segreganz oder Trennfähigkeit; englisch: "negative predictive value"; Abkürzung: NPV) den Anteil der korrekt als negativ erkannten Ergebnisse an der Gesamtheit der als negativ erkannten Ergebnisse an (zweite Zeile der Wahrheitsmatrix). Im Beispiel entspricht das dem Anteil der tatsächlich gesunden Personen, bei denen die Krankheit nicht festgestellt wurde. Der negative Vorhersagewert entspricht der geschätzten bedingten Wahrscheinlichkeit Anders als die anderen Paare von Gütemaßen addieren sich der negative und der positive Vorhersagewert "nicht" zu 1 bzw. 100 %, da jeweils von unterschiedlichen Fällen ausgegangen wird (tatsächlich positiv bzw. tatsächlich negativ, d. h. unterschiedliche Spalten der Wahrheitsmatrix). Korrekt- und Falschklassifikationsrate. Die "Korrektklassifikationsrate" (auch Vertrauenswahrscheinlichkeit oder Treffergenauigkeit; englisch: "accuracy") gibt den Anteil aller Objekte an, die korrekt klassifiziert werden. Der restliche Anteil entspricht der Falschklassifikationsrate (auch Größe des Klassifikationsfehlers). Im Beispiel der Diagnose wäre die Korrektklassifikationsrate der Anteil an richtig positiven und richtig negativen Diagnosen an der Gesamtzahl der Diagnosen, die Falschklassifikationsrate hingegen der Anteil der falsch positiven und falsch negativen Diagnosen. Die Korrektklassifikationsrate entspricht der geschätzten Wahrscheinlichkeit und die Falschklassifikationsrate der geschätzten Wahrscheinlichkeit Die Korrekt- und die Falschklassifikationsrate addieren sich entsprechend zu 1 oder 100 %. Kombinierte Maße. Da sich die verschiedenen Gütemaße gegenseitig beeinflussen (siehe Abschnitt Probleme), wurden verschiedene kombinierte Maße vorgeschlagen, die eine Beurteilung der Güte mit einer einzigen Kennzahl erlauben. Die im Folgenden vorgestellten Maße wurden im Kontext des Information Retrieval entwickelt (siehe Anwendung im Information Retrieval). Beispielsweise gewichtet formula_16 die Trefferquote doppelt so hoch wie die Genauigkeit und formula_17 die Genauigkeit doppelt so hoch wie die Trefferquote. Das "Effektivitätsmaß" formula_18 entspricht ebenfalls dem gewichteten harmonischen Mittel. Es wurde 1979 von van Rijsbergen eingeführt. Die Effektivität liegt zwischen 0 (beste Effektivität) und 1 (schlechte Effektivität). Für einen Parameterwert von formula_19 ist formula_18 äquivalent zur Trefferquote, für einen Parameterwert von formula_21 äquivalent zur Genauigkeit. Gegenseitige Beeinflussungen. Wie konservativ oder liberal ein Klassifikator optimalerweise sein sollte, hängt vom konkreten Anwendungsfall ab. Aus diesem leitet sich beispielsweise ab, welche der Fehlklassifikationen die schwererwiegenden Folgen hat. Bei der Diagnose einer schlimmen Krankheit oder sicherheitsrelevanten Anwendungen wie einem Feueralarm ist es wichtig, dass kein Fall unentdeckt bleibt. Bei einer Recherche durch eine Suchmaschine hingegen kann es wichtiger sein, möglichst wenige Resultate zu bekommen, die für die Suche irrelevant sind, also falsch-positive Resultate darstellen. Die Risiken der verschiedenen Fehlklassifikationen lassen sich zur Bewertung eines Klassifikators in einer Kostenmatrix angeben, mit der die Wahrheitsmatrix gewichtet wird. Eine weitere Möglichkeit besteht in der Verwendung kombinierter Maße, bei denen sich eine entsprechende Gewichtung einstellen lässt. Um die Auswirkungen verschieden konservativer Tests für ein konkretes Anwendungsbeispiel darzustellen, können Receiver-Operating-Characteristic-Kurven (ROC-Kurven) erstellt werden, in denen die Sensitivität für verschiedene Tests gegen die Falsch-Positiv-Rate aufgetragen wird. Im Rahmen der Signalentdeckungstheorie spricht man auch von einem verschieden konservativ gesetzten "Kriterium". Seltene Positiv-Fälle. Darüber hinaus wird auch ein extremes Ungleichgewicht zwischen tatsächlich positiv und negativen Fällen die Kenngrößen verfälschen, wie es etwa bei seltenen Krankheiten der Fall ist. Ist beispielsweise die Anzahl der an einem Test teilnehmenden Kranken erheblich geringer als die der Gesunden, so führt dies im Allgemeinen zu einem geringen Wert im positiven Vorhersagewert (siehe dazu das unten angeführte Zahlenbeispiel). Daher sollte in diesem Fall alternativ zu den Vorhersagewerten die likelihood ratio angegeben werden. Dieser Zusammenhang ist bei verschiedenen Labortests zu bedenken: Preiswerte Screening-Tests werden so justiert, dass eine möglichst kleine Anzahl falsch negativer Ergebnisse vorliegt. Die produzierten falsch positiven Testergebnisse werden anschließend durch einen (teureren) Bestätigungstest identifiziert. Für schwerwiegende Erkrankungen sollte immer ein Bestätigungstest durchgeführt werden. Dieses Vorgehen ist für die Bestimmung von HIV sogar gefordert. Unvollständige Wahrheitsmatrix. Ein weiteres Problem bei der Beurteilung eines Klassifikators besteht darin, dass häufig nicht die gesamte Wahrheitsmatrix ausgefüllt werden kann. Insbesondere ist oft die Falsch-Negativ-Rate nicht bekannt, etwa wenn bei Patienten, die eine negative Diagnose erhalten, keine weiteren Tests durchgeführt werden und eine Krankheit unerkannt bleibt, oder wenn ein eigentlich relevantes Dokument bei einer Recherche nicht gefunden wird, weil es nicht als relevant klassifiziert wurde. In diesem Fall können nur die als positiv klassifizierten Ergebnisse ausgewertet werden, d. h. es kann nur der positive Vorhersagewert berechnet werden (siehe dazu auch das unten angeführte Zahlenbeispiel). Mögliche Lösungen für dieses Problem werden im Abschnitt Anwendung im Information Retrieval besprochen. Statistische Tests zur Beurteilung einer Klassifikation. Man kann statistische Tests einsetzen, um zu überprüfen, ob eine Klassifikation statistisch signifikant ist, d. h., ob bzgl. der Grundgesamtheit die Einschätzung des Klassifikators unabhängig von den tatsächlichen Klassen ist (Nullhypothese) oder ob er signifikant mit ihnen korreliert (Alternativhypothese). Im Fall von mehreren Klassen kann dafür der Chi-Quadrat-Unabhängigkeitstest verwendet werden. Dabei wird geprüft, ob die Einschätzung des Klassifikators unabhängig von den tatsächlichen Klassen ist oder signifikant mit ihnen korreliert. Die Stärke der Korrelation wird durch Kontingenzkoeffizienten abgeschätzt. Im Fall einer binären Klassifikation wird der Vierfeldertest verwendet, ein Spezialfall des Chi-Quadrat-Unabhängigkeitstests. Hat man nur wenige Beobachtungswerte, sollte der Exakte Fisher-Test verwendet werden. Die Stärke der Korrelation kann mit dem Phi-Koeffizient abgeschätzt werden. Lehnt der Test die Nullhypothese ab, bedeutet es jedoch nicht, dass der Klassifikator gut ist. Es bedeutet nur, dass er besser ist als (zufälliges) Raten. Ein guter Klassifikator sollte auch eine möglichst hohe Korrelation aufweisen. ein einfacher Zweistichproben-t-Test für unabhängige Stichproben, ein Zweistichproben-t-Test für verbundene Stichproben, ein Zweistichproben-t-Test für verbundene Stichproben mit 10fach-Kreuzvalidierung, der McNemar-Test und ein Zweistichproben-t-Test für verbundene Stichproben mit 5fach-Kreuzvalidierung und modifizierter Varianzberechnung (5x2cv). Als Ergebnis der Untersuchung von Güte und Fehler 1. Art der fünf Tests ergibt sich, dass sich der 5x2cv-Test am besten verhält, jedoch sehr rechenaufwendig ist. Der McNemar-Test ist etwas schlechter als der 5x2cv-Test, jedoch deutlich weniger rechenaufwendig. Anwendung im Information Retrieval. Eine gute Recherche sollte möglichst alle relevanten Dokumente finden (richtig positiv) und die nicht relevanten Dokumente nicht finden (richtig negativ). Wie oben beschrieben, hängen die verschiedenen Maße jedoch voneinander ab. Im Allgemeinen sinkt mit steigender Trefferrate die Genauigkeit (mehr irrelevante Ergebnisse). Umgekehrt sinkt mit steigender Genauigkeit (weniger irrelevante Ergebnisse) die Trefferrate (mehr relevante Dokumente, die nicht gefunden werden). Je nach Anwendungsfall sind die unterschiedlichen Maße zur Beurteilung mehr oder weniger relevant. Bei einer Patentrecherche ist es beispielsweise wichtig, dass keine relevanten Patente unentdeckt bleiben – also sollte der Negative Vorhersagewert möglichst hoch sein. Bei anderen Recherchen ist es wichtiger, dass die Treffermenge wenige irrelevante Dokumente enthält, d. h., der Positive Vorhersagewert sollte möglichst hoch sein. Im Kontext des Information Retrieval wurden auch die oben beschriebenen kombinierten Maße wie der F-Wert und die Effektivität eingeführt. Genauigkeit-Trefferquote-Diagramm. Zur Einschätzung eines Retrieval-Verfahrens werden meist Trefferquote und Genauigkeit gemeinsam betrachtet. Dazu werden im sogenannten "Precision-Recall-Diagramm" (PR-Diagramm) für verschieden große Treffermengen zwischen den beiden Extremen Genauigkeit auf der Ordinate und Trefferquote auf der Abszisse eingetragen. Dies ist vor allem leicht bei Verfahren möglich, deren Treffermenge durch einen Parameter gesteuert werden kann. Dieses Diagramm erfüllt einen ähnlichen Zweck wie die oben beschriebene ROC-Kurve, die man in diesem Zusammenhang auch als Trefferquote-Fallout-Diagramm bezeichnet. Der (höchste) Wert im Diagramm, an dem der Precision-Wert gleich dem Treffer-Wert ist – also der Schnittpunkt des Genauigkeit-Trefferquote-Diagramms mit der Identitätsfunktion – wird der Genauigkeit-Trefferquote-Breakeven-Punkt genannt. Da beide Werte voneinander abhängen, wird auch oft der eine bei fixiertem anderen Wert genannt. Eine Interpolation zwischen den Punkten ist allerdings nicht zulässig, es handelt sich um diskrete Punkte, deren Zwischenräume nicht definiert sind. Beispiel. In einer Datenbank mit 36 Dokumenten sind zu einer Suchanfrage 20 Dokumente relevant und 16 nicht relevant. Eine Suche liefert 12 Dokumente, von denen tatsächlich 8 relevant sind. Trefferquote und Genauigkeit für die konkrete Suche ergeben sich aus den Werten der Konfusionsmatrix. Praxis und Probleme. Ein Problem bei der Berechnung der Trefferquote ist die Tatsache, dass man nur selten weiß, wie viele relevante Dokumente insgesamt existieren und nicht gefunden wurden (Problem der unvollständigen Wahrheitsmatrix). Bei größeren Datenbanken, bei denen die Berechnung der absoluten Trefferquote besonders schwierig ist, wird deswegen mit der "relativen Trefferquote" gearbeitet. Dabei wird die gleiche Suche mit mehreren Suchmaschinen durchgeführt, und die jeweils neuen relevanten Treffer werden zu den nicht gefundenen relevanten Dokumenten addiert. Mit der Rückfangmethode kann abgeschätzt werden, wie viele relevante Dokumente insgesamt existieren. Problematisch ist auch, dass zur Bestimmung von Trefferquote und Genauigkeit die Relevanz eines Dokumentes als Wahrheitswert (ja/nein) bekannt sein muss. In der Praxis ist jedoch oft die Subjektive Relevanz von Bedeutung. Auch für in einer Rangordnung angeordnete Treffermengen ist die Angabe von Trefferquote und Genauigkeit oft nicht ausreichend, da es nicht nur darauf ankommt, ob ein relevantes Dokument gefunden wird, sondern auch, ob es im Vergleich zu nicht relevanten Dokumenten genügend hoch in der Rangfolge eingeordnet wird. Bei sehr unterschiedlich großen Treffermengen kann die Angabe durchschnittlicher Werte für Trefferquote und Genauigkeit irreführend sein. HIV in der BRD. Das Ziel eines HIV-Tests sollte die möglichst sichere Erkennung eines Infizierten sein. Aber welche Konsequenzen ein falsch positiver Test haben kann, zeigt das Beispiel eines Menschen, der sich auf HIV testen lässt und dann aufgrund eines falsch-positiven Ergebnisses Suizid begeht. Bei einer angenommenen Genauigkeit von 99,9 % des nicht-kombinierten HIV-Tests sowohl für positive als auch negative Ergebnisse (Sensitivität und Spezifität = 0,999) und der aktuellen Verbreitung von HIV (Stand 2009) in der deutschen Bevölkerung (82.000.000 Einwohner, davon 67.000 HIV-positiv) wäre ein allgemeiner HIV-Test verheerend: bei nicht-kombiniertem HIV-Test würden nämlich von 67.000 tatsächlich Erkrankten lediglich 67 HIV-Infizierte fälschlicherweise nicht erkannt, aber ca. 82.000 Personen würden fälschlicherweise als HIV-positiv diagnostiziert. Von 148.933 positiven Ergebnissen wären etwa 55 % falsch positiv, also mehr als die Hälfte der positiv Getesteten. Somit liegt die Wahrscheinlichkeit, dass jemand, der nur mit dem ELISA-Test positiv getestet würde, auch wirklich HIV-positiv wäre, bei nur 45 % (positiver Vorhersagewert). Dieser angesichts der sehr geringen Fehlerrate von 0,1 % niedrige Wert liegt darin begründet, dass HIV nur bei etwa 0,08 % der Bundesbürger auftritt. Herzinfarkt in den USA. In den USA werden pro Jahr etwa vier Millionen Frauen und Männer wegen Schmerzen in der Brust unter der Verdachtsdiagnose Herzinfarkt in eine Klinik eingewiesen. Im Verlauf der aufwendigen und teuren Diagnostik stellt sich dann heraus, dass von diesen Patienten nur etwa 32 % tatsächlich einen Infarkt erlitten haben. Bei 68 % war die Diagnose Infarkt nicht korrekt (falsch positive Verdachtsdiagnose). Andererseits werden in jedem Jahr etwa 34.000 Patienten aus dem Krankenhaus entlassen, ohne dass ein tatsächlich vorhandener Herzinfarkt erkannt wurde (ca. 0,8 % falsch negative Diagnose). Auch in diesem Beispiel ist die Sensitivität der Untersuchung ähnlich hoch, nämlich 99,8 %. Die Spezifität lässt sich nicht ermitteln, weil die falsch-positiven Ergebnisse der Untersuchung nicht bekannt sind. Bekannt sind nur die falsch-positiven Eingangsdiagnosen, die auf der Angabe „Herzschmerz“ fußen. Betrachtet man ausschließlich diese Eingangsdiagnose, dann ist die Angabe der 34.000 Patienten, die fälschlich entlassen werden, wertlos, denn sie haben hiermit nichts zu tun. Man benötigt nämlich die Zahl der Falsch-Negativen, also jener Personen mit Herzinfarkt, die nicht eingewiesen wurden, weil sie keinen Herzschmerz hatten. Fehler 1. Art. Der Fehler 1. Art oder α-Fehler (Alpha-Fehler) ist ein Fachbegriff der Statistik. Er bezieht sich auf eine Methode der mathematischen Statistik, den sogenannten Hypothesentest. Beim Test einer Hypothese liegt ein Fehler 1. Art vor, wenn die Nullhypothese zurückgewiesen wird, obwohl sie in Wirklichkeit wahr ist (beruhend auf falsch positiven Ergebnissen). Die Ausgangshypothese formula_1 (Nullhypothese) ist hierbei die Annahme, die Testsituation befinde sich im „Normalzustand“. Wird also dieser „Normalzustand“ nicht erkannt, obwohl er tatsächlich vorliegt, ergibt sich ein Fehler 1. Art. Beispiele für einen Fehler 1. Art sind Die vor einem Test bzw. einer Untersuchung festgelegte Wahrscheinlichkeit, bei einer Entscheidung einen solchen Fehler 1. Art zu begehen, nennt man auch Signifikanzniveau oder "Irrtumswahrscheinlichkeit". In der Regel wählt man ein Signifikanzniveau von 5 % (signifikant) oder 1 % (sehr signifikant). Die andere mögliche Fehlentscheidung, nämlich die Alternativhypothese formula_2 zurückzuweisen, obwohl sie wahr ist, heißt Fehler 2. Art. Beispiele. "Hinweis:" Alpha (und Beta) sind bedingte Wahrscheinlichkeiten. Fehler 2. Art. Darstellung möglicher Werte der Wahrscheinlichkeit für einen Fehler 2. Art (rot) am Beispiel eines Signifikanztests für einen Parameter μ. Der Fehler 2. Art ist vom Wert des wahren Parameters μ abhängig. Je dichter dieser bei dem unter der Nullhypothese angenommen Wert liegt, desto größer ist die Wahrscheinlichkeit für einen Fehler 2. Art. Da der wahre Wert von μ bei Annahme der Alternativhypothese nicht bekannt ist, kann die Wahrscheinlichkeit für den Fehler zweiter Art im Gegensatz zum Fehler 1. Art (blau) nicht berechnet werden. Der Fehler 2. Art, auch als β-Fehler (Beta-Fehler) oder Falsch-negativ-Entscheidung bezeichnet, ist ein Fachbegriff der Statistik. Er bezieht sich auf eine spezielle Methode der mathematischen Statistik, den sogenannten Hypothesentest. Beim Test einer Hypothese bedeutet ein Fehler 2. Art, dass der Test die Nullhypothese fälschlicherweise bestätigt, obwohl die Alternativhypothese korrekt ist. Im Gegensatz zum Fehler 1. Art, der eintritt, wenn die Null-Hypothese fälschlicherweise abgelehnt wird, lässt sich die Wahrscheinlichkeit für den Fehler 2. Art meist nicht berechnen. Dies hat seinen Grund in der Art der Festlegung der Hypothesen eines statistischen Tests. Während die Null-Hypothese stets eine dezidierte Aussage wie beispielsweise formula_1 „Mittelwert μ = 0“ darstellt, ist die Alternativhypothese, da sie ja alle sonstigen Möglichkeiten erfasst, meist globaler Natur (bspw. formula_2 „Mittelwert μ ≠ 0“). Die rechtsstehende Grafik illustriert die Wahrscheinlichkeit des Fehlers 2. Art (rot) in Abhängigkeit vom unbekannten Mittelwert μ. Entscheidungstabelle. "Hinweis": Sowohl Beta (wie auch Alpha) sind bedingte Wahrscheinlichkeiten! Entgegengesetzte Notation. In manchen Quellen wird, was für Verwirrung sorgen kann, für den Fehler 2. Art und die Teststärke die genau entgegengesetzte Notation verwendet, also die Wahrscheinlichkeit, einen Fehler 2. Art zu begehen, mit dem Wert 1-β bezeichnet, die Teststärke oder Power dagegen mit β. Ferdinand de Saussure. Ferdinand de Saussure (* 26. November 1857 in Genf; † 22. Februar 1913 auf Schloss Vufflens, Kanton Waadt, Schweiz) war ein Schweizer Sprachwissenschaftler. Er hat insbesondere den Strukturalismus und die Semiotik (die Lehre von den Zeichen) nachhaltig geprägt. Leben und Werk. Tafel an Saussures Geburtshaus in Genf Ferdinand war der Sohn des Naturwissenschaftlers Henri de Saussure und von Louise Elisabeth de Pourtalès, Enkel von Nicolas Theodore de Saussure und Urenkel von Horace Bénédict de Saussure. Er studierte in Leipzig und auch ein Semester 1878/1879 bei Heinrich Zimmer in Berlin Indogermanistik. 1882 heiratete er Marie Faesch (1867–1950), Tochter des Schweizer Ingenieurs Jules Faesch (1833–1895). Durch seine Frau gelangte das Schloss Vufflens in den Besitz von Ferdinand de Saussure und seiner Nachkommen. Nach seiner Promotion in Leipzig unterrichtete Ferdinand de Saussure von 1881 bis 1891 an der École pratique des hautes études in Paris. Von 1891 bis zu seinem Tod war er Professor für Geschichte und indo-europäischen Sprachvergleich an der Universität Genf. Von 1906 bis 1911 hielt er dort Vorlesungen über allgemeine Sprachwissenschaft. Er gilt als Begründer der modernen Linguistik und des Strukturalismus. Seine Schüler Charles Bally und Albert Sechehaye veröffentlichten 1916, also bereits nach seinem Tod, den "Cours de linguistique générale" (zu Deutsch "Grundfragen der allgemeinen Sprachwissenschaft"). Der "Cours" entwickelt eine allgemeine Theorie der Sprache als Zeichensystem (wie später im Fach Semiotik beschrieben). Die beiden Herausgeber hielten sich an Mitschriften aus Saussures Vorlesungen. Allerdings hatten sie nicht selbst an jenen Vorlesungen teilgenommen. Textkritische Untersuchungen haben gezeigt, dass zentrale Thesen des "Cours" gerade nicht von Saussure stammen, sondern von den Herausgebern. Dazu gehört etwa der oft zitierte Satz, Sprache sei „eine Form, keine Substanz“. Erst in den 1950er Jahren entstand eine quellenkritische Rezeption, die sich seither darum bemüht, die authentische Sprachidee Saussures aus seinem fragmentarischen Nachlass zu erschließen. Die Rezeptionsgeschichte Saussures ist mithin durch eine Kluft zwischen der Rezeption des "Cours" und der Rezeption seines authentischen Nachlasses geprägt. Die Rekonstruktionsbemühungen des authentischen Sprachdenkens Saussures wirkten sich disziplinenübergreifend in der Medien-, und Kulturwissenschaft sowie der Neurolinguistik aus und prägten die Entwicklung des Strukturalismus und Poststrukturalismus maßgeblich mit. Sie schmälerten jedoch nicht die Bedeutung des "Cours". Zu Lebzeiten war Saussure berühmt als Indogermanist, also als Wissenschaftler für die Sprachen, die vor allem von Europa bis Indien gesprochen werden. Dieser Zweig der Forschung gehört zur historisch-vergleichenden Sprachwissenschaft, also gerade nicht zum Strukturalismus. In seinem "Mémoire sur le système primitif des voyelles dans les langues indo-européennes" (1879) entwickelte Saussure schon als 21-jähriger Student unter Anwendung junggrammatischer Methoden die Laryngaltheorie. Bei der Rekonstruktion des indogermanischen Vokalsystems postulierte er theoretisch die Existenz geschwundener Laut-„Koeffizienten“ "(coefficients sonantiques)", die dann der dänische Sprachforscher Hermann Møller noch im 19. Jahrhundert als Laryngale identifizierte. 1917, vier Jahre nach Saussures Tod, entzifferte Bedřich Hrozný das Hethitische, das sich hierbei als indogermanische Sprache herausstellte. An manchen Stellen, wo Saussure seine Lautkoeffizienten rekonstruiert hatte, fand der polnische Sprachwissenschaftler und Indogermanist Jerzy Kuryłowicz im Hethitischen Laryngale. Obwohl mit wichtigen Einschränkungen zu rechnen ist, werden die Laryngale im Hethitischen im Allgemeinen als Bestätigung von Saussures Rekonstruktion betrachtet. Sein Sohn Raymond de Saussure wurde Psychoanalytiker und war einer der wichtigsten Organisatoren der Psychoanalyse in der Westschweiz. Langue und Parole. Der Begriff "langage" bezeichnet die menschliche Sprache als vortheoretischen Phänomenbereich, also so, wie sie den Sprechern in der Sprechtätigkeit begegnet. Demgegenüber ist die "langue" als theoretischer Sprachbegriff zu verstehen, der eine erkenntnislogische Ordnung in den vortheoretischen Phänomenbereich der menschlichen Rede, des "langage", bringt. Die "langue" kann also begriffen werden als sprachwissenschaftliche Perspektive, unter der die "langage" betrachtet wird. "Langue" hat eine soziale und eine individuelle Dimension: In ihrer sozialen Dimension "(fait social)" ist "langue" eine intersubjektiv geltende gesellschaftliche Institution, ein sozial erzeugtes und in den Köpfen der Sprecher aufgehobenes, konventionelles System sprachlicher Gewohnheiten. In ihrer individuellen Dimension ist sie mentales "„depôt“", bzw. "„magasin“" (etwa: Warenlager) einer subjektiv internalisierten Einzelsprache (also sozusagen die subjektive Fassung der "langue"). Auch der Begriff der "parole" hat eine soziale und eine individuelle Seite. Er meint einmal den konkreten Sprechakt, also die individuelle Realisierung der "langue" durch den je einzelnen Sprecher "(hic et nunc)" gebundene, raum-zeitliche Realisierung des Systems. Zugleich ist die "parole" aber in ihrer sozialen Dimension der Ort der dialogischen Hervorbringung neuen sprachlichen Sinnes, also der Ort der Genesis und Veränderung der "langue". "Langue" und "parole" stehen also in einem komplexen Verhältnis der wechselseitigen Bedingtheit: Auf der einen Seite gibt es nichts in der "langue", das nicht durch die "parole" zuvor in sie gelangt wäre. Andererseits ist die "parole" nur möglich aufgrund jenes sozialen Produktes, das "langue" heißt. Die "parole" kann unmittelbar beobachtet werden, die "langue" hingegen nicht. Nur im Nachhinein kann auf sie geschlossen werden, wenn man den Entstehensprozess sprachlicher Zeichen rekonstruiert, also die Artikulation. Sie ist zu verstehen als theoretischer Aspekt des menschlichen Sprachvermögens, der "langage". Zeichen und Zeichensynthese. Sprachliche Zeichen sind Einheiten, mit denen man Bedeutungen verbindet. Einheiten können Laute sein, aber auch anders dargestellt werden. Im Zuge der "parole" können die Sprecher sie gemeinsam mit anderen sprachlichen Formen zu verstehbaren sprachlichen Ausdrücken zusammensetzen. Das sprachliche Zeichen ("„signe linguistique“", "„sème“") ist folglich eine komplexe mentale und physiologische Einheit, die im Vorgang der Artikulation erzeugt wird. Während im "Cours de Linguistique générale" noch der Begriff des "signe" (‚Zeichen‘) Verwendung findet und (in Kongruenz mit der frühromantischen Diskussionen hierüber, insbesondere mit Novalis) die mentale und lautliche Seite sprachlicher Zeichen als "Signifikat" („signifié“ = Bezeichnetes, Zeicheninhalt) und "Signifikant" („signifiant“ = Bezeichnendes, Bezeichnung, äußere Zeichenform) unterschieden werden, gibt (der authentische) Saussure diese Begrifflichkeit auf. Der Begriff des "signe" erscheint ihm in theoretischer Hinsicht vorbelastet, da er von der weit verbreiteten (etwa junggrammatischen, s. Junggrammatiker) Konzeption eines "binär" gefassten Zeichens nicht mehr abzulösen ist. Ein binärer Zeichenbegriff fasst die gedankliche und die lautliche Seite als je autonome, auch unabhängig voneinander denkbare Zeichenteile auf. Von dieser Konzeption rückt Saussure zugunsten eines "synthetischen Zeichenbegriffs" ab. Er prägt für das Ganze des Zeichens den Begriff des "Sème", für die lautliche Hülle des "Sème" den des "Aposème" sowie den des "Parasème" für den mentalen Zeichenaspekt. Der Begriff des "Sème" bedeutet dabei stets das „Ganze des Zeichens, Zeichen und Bedeutung in einer Art Persönlichkeit vereint“ und soll die Vorherrschaft entweder der lautlichen (etwa bei den Junggrammatikern) oder der gedanklichen Seite (vgl. etwa die spätere Theorie Chomskys) beseitigen. Auch die Begriffe "Parasème" und "Aposème" bezeichnen nicht die Teile eines "Sème", sondern Aspekte desselben. Diese Aspekte sind keine dem "Sème" logisch vorausliegenden, unterscheidbaren Einheiten, die dann lediglich während des Sprechens zusammengesetzt werden. D.h. es werden nicht lediglich bereits mental vorhandene Bedeutungen mit ebenfalls vorhandenen Lauten verknüpft. Sprache bildet nicht Gedanken ab. Sie erschafft sie vielmehr: Erst im Akt des Sprechens, der Artikulation, vollzieht sich die Verbindung "(Synthese)" eines vorsprachlichen und daher chaotischen und gleichsam spurlos vorüberziehenden Denkens mit der lautlichen Substanz. Dieser Vorgang vollzieht sich in der Zeit, also "linear": Worte werden nacheinander geäußert. Der Prozess der Artikulation (zer-)gliedert so den Strom der Gedanken und erschafft dergestalt allererst den Ausdruck als Ausdruck eines Gedankens und damit auch den Gedanken als identifizierbare Einheit, auf die sprachlich Bezug genommen werden kann. Erst der Akt der Artikulation, die Entäußerung verleiht so dem Gedanken jene Identität und Unterscheidbarkeit, die es erlaubt, ihn als ein dem Prozess der Zeichensynthese vermeintlich vorausliegendes "Inneres" anzunehmen. Lautlicher und gedanklicher Aspekt des Zeichens lassen sich so immer nur im Nachhinein ihrer Entstehung, der "Zeichensynthese", unterscheiden. Das dort erzeugte Ganze des Zeichens, das "Sème" ist notwendige Bedingung seiner beiden Seiten. "Aposème" und "Parasème" sind keine autonomen Bestandteile des "Sème", sondern lediglich Gesichtspunkte, unter denen dieses von Sprachwissenschaftlern betrachtet werden kann. Sie sind für Saussure vergleichbar mit einem Blatt Papier: das Denken ist die Vorderseite, der Laut die Rückseite. So wenig wie man die Vorderseite zerschneiden kann, ohne zugleich die Rückseite zu zerschneiden, so wenig kann der Gedanke vom Laut getrennt werden. Zeichen und Bedeutung. Bedeutung ist – wie oben dargestellt – für Saussure nichts der Zeichensynthese logisch Vorausgehendes, sondern wird konkret im sozialen Austausch, in der Zeichensynthese erzeugt. Welche Bedeutung einem Zeichen zukommt, verdankt sie dabei nicht etwa einer wie auch immer gearteten inneren Verbindung zwischen Zeichen und Bezeichnetem. Es gibt keine im Zeichen selbst liegende Qualität, die eine bestimmte Bedeutung rechtfertigen könnte. Dieses von Saussure sogenannte Prinzip der "Arbitrarität" sprachlicher Zeichen wird im Deutschen unglücklich mit "Beliebigkeit" bzw. "Willkür" übersetzt. Das Arbitraritätsprinzip meint aber gerade nicht eine freie Wählbarkeit des Zeichens im Hinblick auf eine bestimmte bezeichnende Funktion. Gemeint ist die "Freiheit des Zeichens", das durch keine in ihm selbst liegende und der Zeichensynthese vorausliegende Eigenschaft an eine bestimmte Bedeutung gebunden ist. Dies lässt sich sowohl an dem Umstand ablesen, dass verschiedene Sprachen verschiedene Zeichen für gleiche Bedeutungen verwenden, als auch daran, dass sich die Bedeutung von Zeichen mit der Zeit verändert. Bedeutung ist keine (ontologische) Eigenschaft von Zeichen, sondern ein Effekt ihrer Verwendung durch die Sprachgemeinschaft, insofern die "Parole" der ausschließliche Ort der Hervorbringung sprachlichen Sinnes ist. Zugleich verdankt sie sich dem Umstand, dass Sprachzeichen Teile eines Systems (der "langue") sind, innerhalb dessen jedes Zeichen von allen anderen Zeichen unterscheidbar ist. Die sprachliche Form gewinnt erst dadurch Bedeutung, dass sie in systematischer Korrelation zu anderen Formen steht. Ein Zeichen wird also in seiner Bedeutung nicht aus sich heraus und damit positiv, sondern durch seine Differenz zu anderen Zeichen bestimmt. Bedeutung kommt mit Saussure „immer von der Seite“, also durch die Opposition zu anderen Zeichen. Er spricht daher von der Wertlosigkeit des – in sich bedeutungslosen – Zeichens an sich („nullité du sème en soi“). Diesen systemischen Aspekt der differenzlogischen Bestimmung von Bedeutung bezeichnet Saussure als "valeur", als systemischen "Wert" des Zeichens. Voraussetzung dieser Zeichenbestimmung ist neben dem "Prinzip der Arbitrarität" die bereits angesprochene "Linearität" der Lautsubstanz, bzw. der Artikulation. Erst das zeitlich differentielle Nacheinander, die Zergliederung des Gedankens in der Artikulation schafft die Voraussetzung für die Abgrenzbarkeit und Unterscheidbarkeit sprachlicher Einheiten. Und damit auch die Voraussetzung für ihre Identifizierbarkeit. Kontinuität und Transformation. Der gleichermaßen individuelle wie soziale Charakter der "langue" als subjektiver Sprachschatz auf der einen und überindividuelles System sprachlicher Gewohnheiten auf der anderen Seite und ihre Verankerung in der "parole" als Ort der dialogischen Sinngenese sind es, aus denen die von Saussure bestimmten Prinzipien des Lebens der Sprache in der Zeit resultieren. Diese Prinzipien muten zunächst widersprüchlich an: Charaktereigenschaft der Sprache nämlich ist so sehr ihre "Kontinuität in der Zeit", wie ihre "fortwährende Transformation". Während die Kontinuität der Sprache, ihr Ist-Zustand als bestimmtes Sprachstadium zu einer bestimmten Zeit als "synchronische" Ebene bezeichnet wird, nimmt die "diachrone" Ebene die Veränderung der Sprache in der Zeit in den Blick. Methodisch sind diese beiden Ebenen in der sprachwissenschaftlichen Praxis strikt voneinander zu trennen. Tatsächlich aber sind beide dicht ineinander verwoben: Der Aspekt der Kontinuität der Sprache adressiert Sprache zum einen als soziale und historische Tatsache. Die – in der Philosophie oft gestellte – Frage nach dem Sprachursprung, also nach einem Prozess der ursprünglichen Benennung von Welt, stellt sich für Saussure nicht, denn die Idee einer ursprünglichen Aushandlung von Bezeichnungen setzt eine begrifflich erschlossene Welt und damit die Existenz von Sprache immer schon voraus. Zum anderen ist die Kontinuität der Sprache Möglichkeitsbedingung der Verständigung überhaupt, die stets an – in Synchronie befangene – Sprecherbewusstseine, an zu einem bestimmten Zeitpunkt intersubjektiv geteilte Sinnhorizonte und Bedeutungszuschreibungen geknüpft ist. Die Kontinuität der Sprache ist also Grundlage ihres sozialen Charakters. Eben jener soziale Charakter, also der Umstand, dass Sprecher fortwährend und gemeinsam mit Sprache umgehen aber ist es, dem sich zugleich die permanente Verwandlung der Sprache verdankt. Die Bewegung der Sprache – systemisch gesprochen: die fortwährende Neujustierung des relationalen Systems "langue" – ist unstillbar und unausgesetzt. Sie wird jedoch in aller Regel von den Sprechern nicht wahrgenommen. Das Wesen der Sprache ist daher – mit einem Wort des Sprachwissenschaftlers Christian Stetters – das der "Fluktuanz": das einer „nicht seienden sondern beständig werdenden und insofern sich kontinuierlich verändernden Substanz.“ De Saussure als Indogermanist. Ferdinand de Saussure studierte als junger Mann von 1876 bis 1880 an der Universität Leipzig bei den Junggrammatikern. Nur zwei Jahre nach Karl Brugmanns Veröffentlichung zu den silbischen Nasalen verfasste der damals 21-jährige Schweizer 1878 einen bahnbrechenden Aufsatz. Aufgrund dieser Schrift des Leipziger Studenten gehen heute die meisten Indogermanisten davon aus, dass die späturindogermanischen Laute "*a", "*ā", "*o" und "*ō" in vielen – "*a" und "*ā" nach der Ansicht mancher Forscher sogar in allen – Fällen aus einem "*e" in Kombination mit einem sog. "Laryngals" entstanden sind. Laryngale sind Konsonanten, über deren weitere phonetische Realisierung keine Einmütigkeit herrscht; bisweilen werden sie als Kehlkopflaute charakterisiert. De Saussure hatte Laryngale „erfunden“, um gewisse Erscheinungen im Altindischen in einem einheitlichen Raster erklären zu können. Allerdings verfolgten zunächst nur wenige Forscher seine Ideen weiter. Das Interesse an de Saussures Erkenntnissen stieg erst an, als man in der heutigen Türkei vor ungefähr 100 Jahren 150 Kilometer östlich von Ankara nahe dem türkischen Dorf Boğazköy (dem heutigen Boğazkale) Lehmtafeln entdeckte, deren Entzifferung Bedřich Hrozný 1917, vier Jahre nach de Saussures Tod, gelang. Die auf diesen Lehmtafeln konservierte Sprache ist Hethitisch. Eine Sensation waren diese Lehmtafeln aus zwei Gründen: Zum einen bezeugten sie die älteste bis dato (und bis heute) belegte indogermanische Sprache; die ältesten Texte datieren um 1700 v. Christus. Zum anderen bestand die zweite und wichtigere Sensation darin, dass das Hethitische eine Bestätigung der Theorie de Saussures ergab. Denn der polnische Sprachwissenschaftler Jerzy Kuryłowicz (1895–1978) entdeckte im Hethitischen indogermanische Wörter, die einen heute mit "ḫ" transkribierten Laut exakt dort aufweisen, wo ihn de Saussure postulierte. Heute akzeptiert, in der einen oder anderen Form, die Mehrheit der Indogermanisten die Laryngaltheorie. Nach seiner Promotion in Leipzig im Jahre 1880 zog es de Saussure zunächst nach Paris und ab 1891 nach Genf. In Genf widmete sich de Saussure zunehmend der modernen Sprachwissenschaft bzw. Linguistik, als deren Begründer er gilt. Es sind de Saussures Pariser Schüler Antoine Meillet (1866–1936) und dessen zahlreiche Schülerschaft, die schließlich Leipzig, vier Jahre lang de Saussures wissenschaftlicher Heimat, den Rang als weltweit bedeutendste indogermanische Lehr- und Forschungsstätte abliefen. Friedrich Dürrenmatt. Friedrich Reinhold Dürrenmatt (* 5. Januar 1921 in Konolfingen; † 14. Dezember 1990 in Neuenburg) war ein Schweizer Schriftsteller, Dramatiker und Maler. Leben. Friedrich Dürrenmatt kam 1921 in Stalden im Emmental, heute politische Gemeinde Konolfingen, Kanton Bern, als erstes Kind von Reinhold (1881–1965) und Hulda Dürrenmatt (1886–1975), geborene Zimmermann, zur Welt. Sein Vater war reformierter Pfarrer des Dorfes, sein Großvater Ulrich Dürrenmatt war Politiker und Dichter. 1924 wurde seine Schwester Verena geboren. Im Oktober 1935 zog die Familie nach Bern um, wo der Vater Pfarrer am Diakonissenhaus wurde. Die Weltwirtschaftskrise machte sich zu diesem Zeitpunkt auch in der Schweiz bemerkbar, und das mittelständische Bürgertum wurde ärmer. Friedrich Dürrenmatt besuchte zunächst das Freie Gymnasium Bern, später das Humboldtianum, an dem er 1941 die Matura ablegte. Er war kein besonders guter Schüler (Gesamtnote: „knapp ausreichend“) und bezeichnete seine Schulzeit selbst als die „übelste Zeit“ seines Lebens. Die Schule wechselte er, weil ihm die Art des Unterrichts nicht gefiel, weil er schlechte Noten hatte und weil er durch sein Verhalten bei den Lehrern aneckte. Kurzzeitig war Dürrenmatt 1941 Mitglied einer Fröntler-Vereinigung, um sich von seinem Vater abzugrenzen, wie er später einräumte. Noch in Konolfingen begann er zu malen und zu zeichnen, eine Neigung, die er sein Leben lang verspüren sollte. Er illustrierte später manches seiner eigenen Werke, verfasste Skizzen, zum Teil ganze Bühnenbilder. Seine Bilder wurden 1976 und 1985 in Neuenburg, 1978 in Zürich ausgestellt. Eigentlich wollte er eine Ausbildung zum Kunstmaler machen, studierte aber dann ab 1941 Philosophie, Naturwissenschaften und Germanistik an der Universität Bern, dazwischen 1942/43 an der Universität Zürich. In Bern wohnte er bei seinen Eltern in einer Mansarde, die er mit großen Wandbildern ausstattete, die später übertüncht und erst Anfang der neunziger Jahre entdeckt, freigelegt und restauriert wurden (siehe Dürrenmatt-Mansarde). 1946 beendete er das Studium, ohne seine geplante Dissertation zu Søren Kierkegaard auch nur anzufangen, entschlossen, Schriftsteller zu werden. Am 11. Oktober 1946 heiratete er die Schauspielerin Lotti Geißler; darauf zogen sie zunächst nach Basel, wo 1947 ihr Sohn Peter geboren wurde, dann 1948 nach Schernelz am Bielersee. Dort entstand 1950 der Kriminalroman "Der Richter und sein Henker" mit offenem Bezug auf angrenzende Lokalitäten wie Lamboing. In dessen Verfilmung im Jahr 1975 tauchte er als "Friedrich" auf. Max Frisch hatte vom Theaterverleger Kurt Reiss das Manuskript von Dürrenmatts erstem Bühnenwerk "Es steht geschrieben" erhalten und nach der Lektüre mit einem Brief den Kontakt zu Dürrenmatt eröffnet. Die an das Täuferreich von Münster anknüpfende Komödie wurde im April 1947 am Schauspielhaus Zürich uraufgeführt und verursachte einen Theaterskandal; nachdem es nicht den erhofften Anklang gefunden hatte, zog der Autor es im folgenden Jahr wieder zurück. 1948 folgte sein zweites Stück, "Der Blinde"; auch dieses Drama fand kaum Beachtung. 1949 kam sein drittes Stück, die Komödie "Romulus der Große", auf die Bühne, anstelle des nicht zu Ende geschriebenen und vom Autor vernichteten Werks "Der Turmbau zu Babel". Die ersten Jahre als freier Schriftsteller waren wirtschaftlich schwierig für Dürrenmatt und seine bald fünfköpfige Familie. Dann besserte sich die finanzielle Situation allmählich, besonders aufgrund von Hörspiel-Aufträgen deutscher Rundfunkanstalten. Außerdem wurde zu dieser Zeit der Arche Verlag zu seinem Stammverlag. Seine beiden Krimis ("Der Richter und sein Henker" und "Der Verdacht") wurden ab 1950 zuerst als Fortsetzungsgeschichten im Schweizerischen Beobachter veröffentlicht. Die Dürrenmatts bezogen 1952 ihren dauerhaften Wohnsitz im neu gebauten Haus oberhalb von Neuenburg. 1950 entstand die Komödie "Die Ehe des Herrn Mississippi", mit der er 1952 seinen ersten großen Erfolg auf den bundesdeutschen Bühnen verzeichnen konnte, nachdem sie von den Schweizer Bühnen zuvor abgelehnt worden war. Weltweiten Ruhm erzielte er 1956 mit seiner Tragikomödie "Der Besuch der alten Dame"; der überragende Erfolg dieses Werks begründete zudem seine finanzielle Unabhängigkeit. Auf den Misserfolg mit der „musikalischen Komödie“ "Frank der Fünfte" (1960) folgte 1962 der zweite Welterfolg mit "Die Physiker". Das zum Theaterstück umgearbeitete Hörspiel "Herkules und der Stall des Augias" (1963) kam beim Publikum wiederum nicht an. Mit "Der Meteor", seinem persönlichsten Stück, konnte er 1966 den dritten und letzten Welterfolg als Dramatiker feiern. Für sein Schaffen erhielt er viele Auszeichnungen, so 1948 den Welti-Preis für "Es steht geschrieben", 1959 den Schillerpreis der Stadt Mannheim, 1960 den Grossen Schillerpreis und 1977 die Buber-Rosenzweig-Medaille. 1969 wurde ihm die Ehrendoktorwürde der Temple University in Philadelphia verliehen, und er erhielt weitere Ehrendoktortitel in Jerusalem und Nizza. In den 1960ern stand Dürrenmatt mit seinen Theaterwerken auf dem Höhepunkt seines Öffentlichkeitserfolges. Zu großem Ruhm verhalf Dürrenmatt zudem sein Drehbuch zu dem Heinz-Rühmann-Film "Es geschah am hellichten Tag" (1958), nach dessen Vorbild er auch seinen Roman "Das Versprechen" schrieb. Der Film gilt noch heutzutage als einer der größten deutschen Kriminalfilme. Ab 1967 widmete er sich auch der praktischen Theaterarbeit, erst an Basler Bühnen, nach einem Herzinfarkt im Oktober 1969 in der Neuen Schauspiel AG in Zürich, schließlich in Düsseldorf. Dort fanden zwei seiner Uraufführungen statt, "Porträt eines Planeten" und "Titus Andronicus". Er inszenierte mehrere spektakuläre Wiederaufführungen seiner eigenen Stücke, so 1978 in Wien "Der Meteor" (1964/65). Dürrenmatt nahm als gesellschaftskritischer Autor in Essays, Vorträgen und Festreden Stellung zur internationalen Politik, etwa mit "Sätze aus Amerika" (1970), dem Pressetext "Ich stelle mich hinter Israel" (1973) und einem Vortrag zum 100. Geburtstag von Albert Einstein an der ETH Zürich (1979). Im Februar 1987 nahm er an der von Michail Gorbatschow einberufenen Friedenskonferenz in Moskau teil. 1990 hielt er zwei Reden zu Václav Havel und Michail Gorbatschow, die unter dem Titel "Kants Hoffnung" erschienen. Für die 29-bändige Werkausgabe, die 1980 im Arche Verlag als gebundene Ausgabe und im Diogenes Verlag als Taschenbuch erschien, hatte Dürrenmatt von den meisten seiner Werke Neufassungen hergestellt. In dieser Zeit setzte er sich intensiv mit seiner eigenen Arbeitsweise und seinen von ihm erschaffenen Figuren und Orten auseinander, mündend in den beiden Bänden "Labyrinth. Stoffe I–III" (1981) und "Turmbau. Stoffe IV–IX" (1990). Aus Typoskripten wurde 1992 postum unter dem Titel "Gedankenfuge" eine Fortsetzung der "Stoffe" veröffentlicht. In den 1980ern erhielt er wieder eine Reihe von Auszeichnungen, so 1983 den Österreichischen Staatspreis für Europäische Literatur und 1986 den Georg-Büchner-Preis. Im Jahre 1985 erhielt er den Bayrischen Literaturpreis (Jean-Paul-Preis) zur Würdigung des literarischen Gesamtwerks. Am 16. Januar 1983 starb seine Frau Lotti. Dürrenmatt heiratete am 8. Mai 1984 die Schauspielerin und Filmemacherin Charlotte Kerr. Zusammen brachten sie den Film "Porträt eines Planeten" und das Theaterstück "Rollenspiele" heraus. Am 14. Dezember 1990 starb Friedrich Dürrenmatt in Neuenburg im Alter von 69 Jahren an Herzversagen. Charlotte Kerr hat ihre Erinnerungen an die gemeinsame Zeit in ihrem Buch "Die Frau im roten Mantel" verarbeitet. Postum wurde Dürrenmatt mit Einverständnis seiner Witwe in die Lord Jim Loge aufgenommen. Im September 2000 wurde in seinem Wohnhaus das Centre Dürrenmatt eröffnet, wo seither Ausstellungen und Veranstaltungen zu seinem Schaffen stattfinden. Am 26. Juli 2000 wurde der Asteroid (14041) Dürrenmatt nach ihm benannt. Dürrenmatts Dramentheorie . Ähnlich wie Bertolt Brecht (1898–1956), dessen Theorien zum epischen Theater Dürrenmatt studierte und neben dem er als „originellster Theoretiker“ angesehen wird, wollte er beim Zuschauer Distanz zum Geschehen auf der Bühne erzeugen. Der Zuschauer soll nicht weiter die Rolle eines passiven Konsumenten innehaben. Er soll zum eigenständigen Nachdenken angeregt werden. Dazu bevorzugte Dürrenmatt das Stilmittel der Verfremdung, z. B. allgemein Anerkanntes wird hinterfragt und die Widersprüchlichkeit gesellschaftlicher Strukturen offenbart. Ebenso charakteristisch sind tragisch-groteske Elemente, also eine Verbindung von scheinbar Unvereinbarem. Im Gegensatz zu Brecht präsentierte Dürrenmatt aber keine Weltanschauung (bei Brecht: Marxismus). Dürrenmatt schuf so seinen eigenen Typus der Tragikomödie, einer Mischform aus Tragödie und Komödie, seiner Meinung nach "„die einzig mögliche dramatische Form, heute das Tragische auszusagen“." Denn die Tragödie setzt, wie Dürrenmatt in seinem Text "Theaterprobleme" von 1955 sagt, „Schuld, Not, Maß, Übersicht, Verantwortung“ voraus, um ihr Ziel, die Läuterung des Einzelnen, zu erreichen. In der Unübersichtlichkeit der modernen Welt, so Dürrenmatt, werde Schuld verwischt und abgeschoben, der Moderne komme nur die Groteske bei. Werke. Anmerkung: Viele seiner Romane und Erzählungen wurden auch als Hörspiel vertont. Von beinahe allen Werken existieren unterschiedliche Fassungen. Werkausgabe. Von 1980 bis 1986 ist das dramatische Werk in 17 und das Prosawerk in 12 Einzelbänden erschienen, herausgegeben von Daniel Keel in Zusammenarbeit mit dem Autor, gleichzeitig als Hardcover im Arche Verlag und als Taschenbuch im Diogenes Verlag. Band 30 mit Zeugnissen über Friedrich Dürrenmatt ist hier unter Literatur angeführt. Flughafen Berlin-Tempelhof. Der Flughafen Berlin-Tempelhof war einer der ersten Verkehrsflughäfen Deutschlands und nahm 1923 den Linienverkehr auf. Er war bis zu seiner Schließung am 30. Oktober 2008 neben Berlin-Tegel und Berlin-Schönefeld einer von drei internationalen Verkehrsflughäfen im Großraum Berlin und trug die Bezeichnung "Zentralflughafen". Im Jahr 2007 wurden dort rund 350.000 Fluggäste abgefertigt. Seit 2010 wird das ehemalige Flughafengelände vom Land Berlin und seinen Firmen mit dem Projektnamen "Tempelhofer Freiheit" bezeichnet und ist für die Öffentlichkeit zugänglich. In den Medien wird dagegen meist vom "Tempelhofer Feld" gesprochen. Lage und Verkehrsanbindung. Flughafens Tempelhof liegt im Innenstadtbereich Berlins innerhalb des S-Bahn-Ringes, vier Kilometer südlich des Stadtkerns und 51 Meter über dem Meeresspiegel. Das Flughafengebäude und der größte Teil des Flugfeldes befinden sich im Ortsteil Tempelhof, das Flugfeld erstreckt sich östlich aber bis in den Ortsteil Neukölln. Auf der Straße ist der einstige Flughafen Berlin-Tempelhof über die Anschlussstelle 20 der A 100 (Stadtring) sowie den Abschnitt Tempelhofer Damm der Bundesstraße 96 zu erreichen. Ebenfalls zum Flughafen führen der Mehring- und der Columbiadamm sowie als Zufahrtsstraßen die Manfred-von-Richthofen- und die Dudenstraße. Diese Straßen enden am Platz der Luftbrücke, wo sich der Haupteingang zum Flughafengebäude befindet. An die öffentlichen Verkehrsmittel ist der ehemalige Flughafen durch die Linie U6 der Berliner U-Bahn mit dem Bahnhof Platz der Luftbrücke angebunden, durch die u. a. der Regionalbahnhof Friedrichstraße erreicht werden kann; ebenfalls am ehemaligen Flughafengelände bzw. am U-Bahnhof halten die Buslinien 104 und 248. Entstehung. Die Fläche, auf der der Flughafen Tempelhof gebaut wurde – das Tempelhofer Feld – war ehemals ein Exerzierplatz. Der erste Motorflug auf dem Tempelhofer Feld fand bereits 1909 statt. Am 28. Januar begann der Franzose Armand Zipfel (1883–1954) hier mit seinen öffentlichen Vorführungen. Er flog auf Einladung des "Berliner Lokal-Anzeigers" unter großem öffentlichen Interesse bis Mitte Februar 1909 mit seinem Voisin-Doppeldecker. Vom 4. bis 20. September 1909 führte auch Orville Wright auf dem Feld Demonstrationsflüge durch, bei denen er unter anderem einen Höhenweltrekord von 172 Metern aufstellte und erstmals einen Passagierflug von 1:35 h Dauer absolvierte. Im Oktober führte Hubert Latham (1883–1912) den ersten Streckenflug über einer Stadt vom Tempelhofer Feld über Rixdorf und Britz zum Flugplatz Johannisthal durch. Das Tempelhofer Feld war im Jahr 1922 zunächst als Standort für die neuen Messeanlagen vorgesehen. Auf Betreiben des damaligen Stadtbaurats Leonhard Adler konnte der Magistrat aber davon überzeugt werden, das Tempelhofer Feld besser für den neuen "Zentralflughafen" zu nutzen. Mit einer spektakulären Nachtlandung auf dem Tempelhofer Feld, bei der in fünf Maschinen Mitglieder des Haushaltsausschusses des Magistrats aus Leipzig zurückkehrten, konnte er die Stimmung zu Gunsten des Flughafens ändern. Der Haushaltsausschuss war nach Leipzig geflogen, um sich dort über die neu entstandenen Messehallen zu informieren. Provisorium. Auf Kosten der Junkers-Luftverkehr-AG und des Deutschen Aero Lloyd wurde 1919 am Nordrand des Tempelhofer Feldes ein Stück Land planiert, das für den Flugbetrieb mit kleinen, leichten Flugzeugen gerade groß genug war. Am Volkspark Hasenheide entstanden zwei Holzhallen mit je 1.000 m² Grundfläche und das Stationsgebäude. Am 8. Oktober 1923 erteilte das Reichsverkehrsministerium der betriebsbereiten Anlage eine vorläufige Konzession. An diesem Tag hatte Leonhard Adler den Magistrat von Groß-Berlin zur Besichtigung des Provisoriums eingeladen. Anhand von vielen Zahlen und Modellen bewies er dem Magistrat, wie notwendig dieser Platz für die zukünftige Verkehrsentwicklung sei. Ein anschließender Rundflug konnte auch die letzten Magistratsmitglieder für den Flughafen umstimmen, obwohl ein Flugzeug über der Hasenheide abstürzte, wobei zwei Magistratsmitglieder tödlich verunglückten. Die noch heute bestehende Berliner Flughafen-Gesellschaft mbH (BFG) wurde am 19. Mai 1924 gegründet, ihr erster Aufsichtsratsvorsitzender wurde Leonhard Adler. Aufgabe der Gesellschaft war der „Ausbau und Betrieb des Flughafens auf dem Tempelhofer Feld und anderer Luftverkehrseinrichtungen in Berlin“. Gesellschafter waren zunächst der Berliner Magistrat und ab 27. September 1924 das Deutsche Reich. 1925 beteiligte sich auch der Freistaat Preußen an der Gesellschaft. Erster Bauabschnitt. Mit dem nun zur Verfügung stehenden Kapital konnte der Ausbau des Flughafens beginnen. Es wurde ein ca. 1,5 Millionen m² großes Areal im Zentrum des Tempelhofer Feldes planiert, wobei der Aushub der gerade in Bau befindlichen Verlängerung der Nord-Süd-U-Bahn (heutige Linie U6) verwendet wurde. Allerdings reichte der Aushub nicht, weshalb man zusätzlich 18.000 Fuhren Müll zur Verfüllung benutzte. Ende 1924 wurde mit dem Bau der großen Flugzeughallen begonnen. Es entstanden die drei westlichen Hallen mit einer Grundfläche von 64 Meter × 25 Meter und einer Höhe von sechs Metern. Diese Dimensionen erwiesen sich aber schnell als zu klein, weshalb die drei östlichen Hallen mit einer Grundfläche von 80 Meter × 30 Meter und einer Höhe von acht Metern gebaut wurden. Neben den Hallen entstanden ein Scheinwerferturm sowie eine Funkstation und das Abfertigungsgebäude. Der erste Bauabschnitt war im Jahr 1927 fertig und konnte über den damals ebenfalls neu eröffneten "U-Bahnhof Flughafen" (heute: U-Bahnhof Paradestraße) erreicht werden. Eine Flughafenanbindung durch eine U-Bahn war seinerzeit weltweit einzigartig. Der erste planmäßige Luftverkehr führte nach München mit Anschluss in die Schweiz bzw. nach Österreich und weiter auf den Balkan, sowie nach Königsberg mit Anschluss an die von London über Berlin-Staaken nach Moskau beflogene Strecke. 1923 wurden insgesamt 100 Starts und Landungen mit 150 Passagieren und 1300 kg Fracht durchgeführt. Die am 6. Januar 1926 aus der Vereinigung der Junkers Luftverkehr AG und Deutscher Aero Lloyd entstandene "Deutsche Luft Hansa A.G." machte Tempelhof zu ihrem Heimatflughafen (siehe auch: Geschichte der Lufthansa). Von dort aus erfolgte am Tag der Betriebsaufnahme, dem 6. April 1926 – im Winter hatte der Flugverkehr noch geruht – auch der erste planmäßige Flug nach Dübendorf (Zürich). Zweiter Bauabschnitt. In einem zweiten Bauabschnitt wurde das Abfertigungsgebäude erweitert. Es entstand ein großer, mit Klinkern verkleideter Bau. Es gab ein von der Mitropa betriebenes Flughafenrestaurant, eine Besucherterrasse und ein Flughafenhotel. Doch schon bei Fertigstellung dieses Abschnittes 1928 war klar, dass man von der Verkehrsentwicklung überrollt wurde, und eine Fortführung der Bauarbeiten nach dem bisherigen Konzept sinnlos geworden war, weshalb bereits 1930 ein Antrag für einen Neubau gestellt wurde. Schon acht Tage später inspizierten die Behörden die Lage und bereits am gleichen Tag fiel die Entscheidung, einen neuen Flugplatz zu bauen. Neubau. In den 1930er Jahren stand der alte Flughafen Tempelhof mit seinem Verkehrsaufkommen noch vor Paris, Amsterdam und London an der Spitze des europäischen Flugverkehrs. Die Grenzen der technischen Möglichkeiten waren bald erreicht, und 1934 wurde durch den Architekten Ernst Sagebiel ein Neubau geplant, der sowohl den neuen städtebaulichen Vorstellungen und der monumentalen Architektur im Nationalsozialismus entsprach als auch die Entwicklung der Luftfahrt für einen längeren Zeitraum vorwegnehmen musste. Der Flughafen war für bis zu sechs Millionen Passagiere pro Jahr geplant. Die Anlage sollte aber nicht allein dem Luftverkehr dienen, sondern auch für Veranstaltungen wie den Reichsflugtag genutzt werden und möglichst vielen luftfahrtbezogenen Dienststellen und Institutionen einen Sitz bieten. Dieser Neubau erfüllte auch alle Voraussetzungen eines Militärflugplatzes der damaligen Zeit. a> konnte 1934 in Berlin-Tempelhof ohne fremde Starthilfe Schwebeflüge von 20 Meter Länge erreichen. Das ab 1936 entstandene Flughafengebäude war nach seiner Fertigstellung 1941 mit einer Bruttogeschossfläche von 307.000 m² für zwei Jahre das flächengrößte Gebäude der Welt, ehe es vom Pentagon in Arlington abgelöst wurde. Die Gesamtlänge des bogenförmigen Teils des Gebäudes (siehe auch Architektur weiter unten) beträgt etwa 1,2 Kilometer – es ist damit eines der längsten Gebäude Europas. Das Flugfeld wurde als ovaler Rasenplatz mit annähernd zwei Kilometern Durchmesser angelegt, sodass die zu diesem Zeitpunkt noch relativ leichten Flugzeuge, unter anderem die Ju 52, jeweils exakt gegen den Wind starten und landen konnten. Durch Einbeziehung des Volksparks und der um den alten Flughafen liegenden Sportplätze und Kleingartenflächen und durch Hinzunahme eines Teils des alten Garnisonsfriedhofs konnte das Flughafengelände auf über 4,5 Mio. m² erweitert werden. Auf diesem Gelände wurde die neue Flughafenanlage konstruiert – um den alten Flughafen herum – ohne dass es während der Bauarbeiten zu einer Beeinträchtigung des Flugbetriebes kam. Die Reste des alten Flughafens wurden erst in den 1950er Jahren von Notstandsarbeitern entfernt. Der U-Bahn-Zugang verschob sich mit dem neuen Gebäude zum Bahnhof Kreuzberg, der daraufhin in "Flughafen" (heute: Platz der Luftbrücke) umbenannt wurde. Anfang Oktober 1939 bis Anfang März 1940 diente der Flugplatz Rangsdorf als Ersatz für den zivilen Luftverkehr in Tempelhof, weil das NS-Regime zu dieser Zeit eine Bombardierung des innerstädtischen Flugplatzes fürchteten. Busse transportierten die Passagiere zwischen Berliner Zentrum und Rangsdorf. Nutzung als Flugzeugwerk. Im weiten Verlauf des Kriegs wurden die Bauarbeiten eingestellt, als Hermann Göring verfügte, Teile der Produktion des Weserflug-Werkes Lemwerder nach Tempelhof zu verlagern. Aus der Baustelle "Neuer Flughafen" wurde eine der größten Endmontagewerke für Bomber weltweit. Als Lizenzbau stellte „Weserflug“ dort die Ju 87 und die Ju 88 her. Produziert wurde im Wesentlichen in den unterirdischen Anlagen des Flughafens, bspw. dem Fracht- und dem Eisenbahntunnel. Nach der Annexion Tschechiens im März 1939 wurden tschechische Frauen und Männer aus dem „Protektorat Böhmen und Mähren“ zur Arbeit ins Reich verpflichtet und im Weserflug-Werk Tempelhof eingesetzt. Im Verlauf des Zweiten Weltkriegs kamen zusätzlich Menschen aus nahezu allen anderen besetzten Ländern Europas dazu. Ab 1941 wurden sämtliche Männer zur Wehrmacht einberufen. Sie wurden durch „Ostarbeiter“ ersetzt – verschleppte Familien aus Osteuropa, vor allem der Sowjetunion. Die ersten Lager hatte das Reichsluftfahrtministerium (als Bauherr des Flughafens) für reichsdeutsche Arbeiter errichten lassen. Diese Baracken wurden als Unterkünfte für Zwangsarbeiter und (französische) Kriegsgefangene mitgenutzt. Weser-Flugzeugbau und die Lufthansa ließen weitere Lager errichten. Die Lager und Unterkünfte befanden sich entlang des Columbiadamms auf dem Flugfeld. Entlang des Tempelhofer Feldes befanden sich ebenfalls Barackenlager, die sowohl der Materiallagerung als auch mutmaßlich der Unterbringung von Zwangsarbeitern dienten. Am Columbiadamm befand sich auch ein noch nicht weiter erforschtes „Russenlager“, das dreifach umzäunt und schwer bewacht war. Die Bauarbeiten liefen auch nach Kriegsbeginn weiter; bei Kriegsende 1945 war der neue Flughafen noch nicht vollständig fertiggestellt. Der Flugverkehr wurde weiterhin über die alte Flughafenanlage abgewickelt, die aber während des Krieges durch die Luftangriffe der Alliierten mehr und mehr beschädigt wurde. Der restliche zivile Flugverkehr wurde kurz vor Kriegsende – auch aus Mangel an Treibstoff – ganz eingestellt. Der alte Flughafen wurde 1939 in den Status eines Fliegerhorstes der Luftwaffe erhoben und diente zur Erprobung und Auslieferung der bei Weserflug gebauten Maschinen. Am 22. April 1945 verließ die letzte Maschine der Lufthansa Tempelhof in Richtung Warnemünde (siehe auch Geschichte der Lufthansa). Im Zuge der Schlacht um Berlin eroberte die Rote Armee Berlin und befreite viele der überlebenden Zwangsarbeiter. 1945 wurde das Weserflug-Montagewerk erneut verlagert. Der Flughafen blieb ein Rohbau und wurde nach der Übergabe durch die Rote Armee und den notwendigsten Reparaturen von den US-amerikanischen Truppen als Flughafen in Betrieb genommen. Kriegsende. Als sich die Front Ende April 1945 näherte, sollte der Flughafen verteidigt werden. Der damalige Flughafenkommandant Oberst Rudolf Böttger und einige leitende Lufthansa-Angestellte umgingen jedoch diesen Befehl, indem sie die bereitgestellten Waffen beiseiteschaffen ließen und ein Feldlazarett einrichteten. Dadurch kam es nicht zu einer Verteidigung des Flughafens, die möglicherweise zu einer völligen Zerstörung geführt hätte. Böttger entzog sich dem Vernichtungsbefehl Adolf Hitlers, die gesamte Anlage zu sprengen, durch Selbstmord. Nach anderen Quellen wurde er wegen Befehlsverweigerung von einem Offizier der Waffen-SS erschossen. Tatsächlich wurde der Betonboden der Haupthalle gesprengt, sodass dieser auf die darunter liegende Gepäckebene stürzte und die Haupthalle unbenutzbar wurde. Am 28./29. April 1945 besetzten Truppen der Roten Armee den Bezirk Tempelhof und den Flughafen. Die neuen Gebäude blieben weitgehend von Zerstörungen verschont, jedoch kam es zu mehreren Bränden, die auch die Stahlkonstruktion der Hallenbauten schwer beschädigten. Die Gebäude des alten Flughafens waren restlos zerstört und das Flugfeld von Einschlägen übersät. Auch der unterirdische Bunker mit dem Filmarchiv brannte komplett aus und alle Filme wurden dabei zerstört. Bereits kurz nach Ende der Kampfhandlungen konnten sich die Bewohner des Flughafens relativ frei bewegen, sodass man unter Führung der Lufthansa-Leute die Autoreparaturwerkstatt "Hansa-Werkstätten" einrichtete, die mit Genehmigung der Tempelhofer Bezirksverwaltung die in den Straßen herumstehenden Autowracks einsammelte und aus noch brauchbaren Teilen wieder fahrbereite Autos zusammenbaute. Nutzung durch die Amerikaner. Am 2. Juli 1945 verließ die Rote Armee den Flugplatz, damit dieser von den Amerikanern (473rd Air Services Group) noch vor ihrem offiziellen Eintreffen am 4. Juli übernommen werden konnte. Am 2. Juli 1945 wurde "Tempelhof Central Airport" (TCA), der die alliierte Code-Bezeichnung "Airfield R.95" erhielt, eingerichtet, am folgenden Tag begannen die Aufräumarbeiten. Dabei wurden alle vorgefundenen Akten, Personalpapiere und auch fast alle Baupläne des noch unfertigen Baus vernichtet. Der Flugbetrieb wurde im August 1945 aufgenommen, um Passagiere zur Potsdamer Konferenz zu bringen. Die US Army Air Forces (USAAF, ab 1947 US Air Force) stationierten im August 1945 das 301 Troop Carrier Squadron mit Douglas C-47 Skytrain, das im Januar 1946 durch das aus München verlegte 306 Troop Carrier Squadron abgelöst wurde. Im Jahr 1946 wurde der im amerikanischen Sektor liegende Flughafen Tempelhof zum Militärstützpunkt, den überwiegend die USAAF nutzte. Er bekam den Namen "Tempelhof Air Base." Die erste Aufgabe war die Instandsetzung der Hallen 1 und 2, die dringend für die Wartung und Unterstellung der Flugzeuge gebraucht wurden. Außerdem musste eine befestigte Start- und Landebahn angelegt werden, damit auch schwerere Flugzeuge landen konnten. Dies geschah zuerst mit Hilfe von Lochplatten-Elementen der Pionier-Einheiten. Am 18. Mai 1946 landete auf dieser Bahn auch die erste zivile Maschine, eine DC-4 der American Overseas Airlines, die einmal wöchentlich die Strecke New York – Frankfurt – Berlin bediente. Parallel wurde aber bereits der Bau des bis zuletzt genutzten befestigten Rollbahnsystems in der Hauptwindrichtung Ost-West begonnen. Während der Luftbrücke wurde von der französischen Militärverwaltung zur dringend benötigten Entlastung von Tempelhof auch die erste Rollbahn in Tegel angelegt, die dadurch den Ursprung des heutigen Flughafens Tegel bildete. Die US Army stationierte ab 1951 in Tempelhof eine Heeresfliegereinheit mit zunächst 3 Hubschraubern vom Typ Hiller H-23A Raven als Teil der 6. Infantry Brigade. Im Laufe der Jahre wurde es als das Berlin Brigade BBDE Avn.Det. bekannt. Die Hiller H-23A wurden bald durch Bell OH-13 Sioux ersetzt. Es folgten ab 1958 Sikorsky H-19 Chikasaw, ab 1964 Sikorsky H-34 Choctow, ab 1966 Bell UH-1B und schließlich ab März 1971 bis zur Auflösung im August 1994 Bell UH-1H. Zu den Starrflügelern zählten unter anderem Cessna O-1 Bird dog (bis 1975), de Havilland Canada U-6 Beaver (bis 1979), Cessna O-2A (1975–1979),Pilatus UV-20A Chiricahua (1979–1991), Beechcraft U-8D Seminole, Beechcraft U-21 (bis 1986 und 1991–1994), sowie Beechcraft C-12C (1986–1991). Luftbrücke. a>" auf dem Flughafen Tempelhof, 1948 Der Flughafen bekam 1948 eine neue Bedeutung: Zusammen mit dem Flugfeld Gatow, und später auch dem Flughafen Tegel, diente er während der Blockade West-Berlins dem Transport von Verpflegung und Gütern für Berlin per Flugzeug. Ein großer Teil der Ladung bestand aus Brennstoffen. Die lebensnotwendige Versorgung durch die Berliner Luftbrücke zwischen verschiedenen westdeutschen Städten und Berlin dauerte vom 26. Juni 1948 bis 12. Mai 1949. In Tempelhof starteten und landeten die Flugzeuge zeitweise im 90-Sekunden-Takt. Der amerikanische Pilot Gail Halvorsen machte das Abwerfen von Süßigkeiten während des Anfluges auf Tempelhof mit Fallschirmen aus Taschentüchern aus den Cockpit-Fenstern populär, was von weiteren Piloten übernommen wurde und den Flugzeugen den legendären Namen "Rosinenbomber" einbrachte. Für den reibungslosen Betrieb der Luftbrücke wurde die südliche Start- und Landebahn gebaut. Diese unterbricht seitdem die Oderstraße in Neukölln. Das auf dem Platz vor dem Flughafen gelegene Denkmal erinnert an die historischen Versorgungsflüge und die dabei umgekommenen Menschen. Im Berliner Volksmund wird es aufgrund seines Aussehens als "Hungerharke" oder "Hungerkralle" bezeichnet. Weitere Denkmäler baugleicher Art befinden sich beim Flughafen Frankfurt und in etwas kleinerer Ausführung beim Heeresflugplatz Celle. Anlässlich des 50. Jahrestages der Luftbrücke feierte die Bundeswehr am 27. Juni 1998 auf dem Flughafen Tempelhof einen Großen Zapfenstreich. Flughafen „West-Berlin“. Der zivile Luftverkehr wuchs nun stetig. Die BEA flog bereits seit 1946 den Flughafen Gatow an und am 5. Januar 1950 nahm die Air France den Berlin-Verkehr nach Tempelhof auf. Nach der Blockade bat man deshalb von West-Berliner Seite die Amerikaner, einen Teil der Anlagen für die zivile Nutzung freizugeben. Am 1. Juli 1950 übertrug der amerikanische Hohe Kommissar dem Senat von Berlin das Recht, einen Teil des Flughafens Tempelhof zur zivilen Nutzung zu übernehmen. Daraufhin wurde am südlichen Teil mit Zugang vom Tempelhofer Damm auf kleinstem Raum eine Abfertigungsanlage gebaut, die für eine Kapazität von 20.000 Passagieren monatlich ausgelegt war. Die Haupthalle, die später als Abfertigungsanlage diente, war damals noch im Rohbau und schwer beschädigt. Am 9. Juli 1951 konnte die neue Anlage dem Verkehr übergeben werden. Damit konnte die 1936 begonnene Anlage zum ersten Mal ihre offizielle Funktion übernehmen. Die drei westalliierten Fluggesellschaften Pan Am, BEA und Air France flogen nun gemeinsam Tempelhof an. Der Passagier-Luftverkehr entwickelte sich nun rascher als erwartet, war dies doch die einzige Möglichkeit, ohne Kontrollen durch die DDR von West-Berlin nach Westdeutschland zu gelangen. Einen erheblichen Anteil daran hatten auch die Flüchtlinge, die West-Berlin nicht auf dem Landweg verlassen konnten. Bereits Ende 1951 wurden 320.000 Passagiere befördert und damit die Rekordzahl des Jahres 1938 übertroffen. 1954 hatte der Flughafen Tempelhof schon mehr als 650.000 Fluggäste, die weitgehend von den westalliierten Fluggesellschaften BEA, später British Airways, Air France (nur bis 1960) und Pan Am befördert wurden. Von den während der Blockadezeit entstandenen drei Start- und Landebahnen wurde die mittlere in den Jahren 1957/1958 entfernt. Die beiden anderen wurden im Laufe der 1950er Jahre von Grund auf erneuert. Man hatte während der Blockade zunächst Lochbleche verlegt und diese später mit einer Asphaltschicht überzogen, die zunächst entfernt werden musste. 1954 entstand so die nördliche Bahn mit 2093 Metern Länge und die südliche mit 2116 Metern Länge. Zum Ende der 1950er Jahre konnten die zur Verfügung stehenden Anlagen das Passagieraufkommen (1960 waren es bereits 1,5 Millionen) nicht mehr bewältigen. Durch Verhandlungen wurde 1959 erreicht, dass die US Air Force weitere bisher militärisch genutzte Bereiche für die zivile Nutzung freigab. Hierbei handelte es sich um den Vorplatz (auch als "Ehrenhof" bezeichnet), das Bürogebäude mit der Eingangshalle (auch als "Ehrenhalle" bezeichnet) und das Abfertigungsgebäude mit der großen Haupthalle, die durch die BFG wieder hergerichtet bzw. fertiggestellt wurden. Der südliche Teil am Tempelhofer Damm wurde nun für den zivilen Luftverkehr genutzt, während der nördliche Teil am Columbiadamm weiterhin von den Amerikanern militärisch genutzt wurde. Am 2. Juli 1962 konnten die neuen Abfertigungseinrichtungen, die für 200.000 bis 250.000 Fluggäste pro Monat ausgelegt sind, dem Verkehr übergeben werden. Nicht genutzter oberer Teil der Eingangshalle Um den monumentalen Eindruck der der Haupthalle quer vorgelagerten 90 Meter breiten, 9 Meter tiefen und 15 Meter hohen Eingangshalle zu verringern, wurde diese durch den Einbau einer Zwischendecke knapp unterhalb der 21 großen Hallenfenster geteilt und so in der Raumhöhe deutlich reduziert. Die unterhalb der Zwischendecke entstandene Eingangszone wirkt dadurch relativ unscheinbar. Der oberhalb der Zwischendecke verbliebene, rund 10 Meter hohe Rest der ursprünglichen Eingangshalle wird nicht genutzt – er kann bei Führungen besichtigt werden. In der Haupthalle ist die ursprünglich in 19 Metern Höhe hängende stark beschädigte Stuckdecke durch eine auf 15 Meter abgehängte Kassettendecke ersetzt worden. In den elf 5,60 Meter × 22,50 Meter großen Kassetten ist die Deckenstrahlungsheizung untergebracht. Diese Decke ist begehbar, um die Heizung und die Beleuchtung warten zu können. Acht Jahre nach Inbetriebnahme der großen Abfertigungshalle wurde 1970 erneut die Kapazitätsgrenze erreicht, obwohl Air France mit Einführung der Caravelle bereits 1960 zum Flughafen Tegel umgezogen war. 1968 verlegte man daher zunächst den Charter- und Pauschalreiseverkehr nach Tegel. 1971 konnte die Kapazität durch etliche Umbauten und Verbesserungen noch einmal gesteigert werden, aber man entschloss sich trotzdem, den verbliebenen Linienverkehr in Tempelhof einzustellen und nach Tegel zu verlagern. Von 1970 bis 1974 war der durch die Berliner Luftbrücke bekannt gewordene „Candy-Pilot“ Gail Halvorsen Kommandant des Flughafens Tempelhof. Im Sommer 1975 wurde Tempelhof für den zivilen Luftverkehr geschlossen und durch den neu errichteten Flughafen Tegel (auf dem Gelände des französischen Militärflugplatzes, nach Plänen der Hamburger Architekten Gerkan, Marg und Partner) ersetzt. Flughafenhalter und -betreiber war nun ausschließlich das US Army Aviation Detachment mit der Einheit 7350th ABG (Air Base Group). Es wurden verschiedene Hubschrauber- und Flugzeugtypen betrieben, zuletzt sechs Hubschrauber Bell UH-1H sowie ein Flugzeug Beechcraft C-12 C und zwei Maschinen des Typs Pilatus UV-20 A. Am 30. August 1978 wurde eine Maschine der LOT bei ihrem Flug von Danzig nach Berlin-Schönefeld entführt und zur Landung in Tempelhof gezwungen. Da das Motiv eine Flucht aus der DDR war, kam es mitten im Kalten Krieg zu diplomatischen Verwerfungen zwischen den beiden Blöcken. Wiedereröffnung 1985 bis 2008. „Air Race“ über dem Tempelhofer Flughafengelände, 2006 Im Jahr 1985 wurde Tempelhof für den Geschäftsreiseverkehr, der seitdem ein Schwerpunkt des Flughafens war, und für Fluggesellschaften mit kleinerem Flugmaterial wieder für den Zivilverkehr eröffnet. 1990 wurden wieder mehr als 400.000 Fluggäste gezählt. Auch noch bis kurze Zeit nach der politischen Wende lief die Abfertigung der Fluggäste zunächst nicht über die zu früheren Zeiten genutzte Haupthalle, sondern über einen relativ kleinen Bereich, dem späteren GAT (Abfertigungsbereich für allgemeine Luftfahrt), südwestlich der Haupthalle. Die Haupthalle selbst wurde aufgrund der rapide steigenden Passagierzahlen am 16. Dezember 1990 durch den Flughafenbetreiber etwas überraschend wiedereröffnet. Erst zu Beginn des Jahres 1992 war der Service dort vollständig einem gewissen Standard angepasst: Eine Hallenbar wurde errichtet, das neue Restaurant oberhalb der Haupthalle mit Blick auf das Vorfeld öffnete, neue Anzeigetafeln für Abflüge und Ankünfte wurden installiert, und ein neues Gepäckausgabeband für Inlandsflüge in der Haupthalle ging in Betrieb. Die US Air Force übergab 1993 bei ihrem Abzug aus Berlin den Flughafen wieder komplett an die BFG. Auf Grund der mit nur 2116 Metern relativ kurzen Start- und Landebahn war die Größe der Flugzeuge für den Linienverkehr auf die gängigen Schmalrumpfflugzeuge begrenzt, sodass er als Verkehrsflughafen vorwiegend für innerdeutsche und innereuropäische Ziele genutzt wurde. Die US Air Force hat auf dem Flughafen große Transportflugzeuge wie die Lockheed C-5 Galaxy nur unter eingeschränkten Bedingungen nutzen können. Zweimal landete eine Boeing 747 der Pan American in Tempelhof. Am 18. September 1976 eine Boeing 747SP aus Amsterdam kommend, anlässlich des Tages der offenen Tür, und am 12. Juni 1987 eine Boeing 747–121 von/nach Frankfurt am Main mit 300 Journalisten anlässlich des Besuches von US-Präsident Ronald Reagan. Am 24. Mai 2001 stürzte ein auf Tempelhof anfliegendes einmotoriges Reiseflugzeug vom Typ Beechcraft B36TC Bonanza nach einem Triebwerksausfall ab. Beim Versuch einer Außenlandung prallte das Flugzeug auf die Giebelwand eines Wohngebäudes im Berliner Ortsteil Neukölln, nachdem es zuvor noch einen Baum gestreift hatte. Die beiden Flugzeuginsassen kamen bei dem Absturz mit nachfolgendem Aufschlagbrand ums Leben. Die Unfallursache lag laut der Bundesstelle für Flugunfalluntersuchung neben dem Triebwerksausfall, der das Erreichen der Landebahn verhinderte, in dem für Notlandungen ungeeigneten Gelände. Dies war entgegen aller Kritik bezüglich der Innenstadtlage des Flughafens seit der Berliner Luftbrücke der einzige Flugunfall mit Todesfolge, der sich am Flughafen Tempelhof ereignete. Am 27. Mai 2006 war der Flughafen Austragungsort des Red Bull Air Race. Seit dem Jahr 2007 ist die – unter anderen von der Zeppelin-Stiftung getragene – Zeppelin University mit einem Standort im Flughafenfoyer vertreten. Am 8. September 2007 landete anlässlich des Reisemarktes und veranstaltet von der Essener Luftfahrtagentur "airevents.de" am Flughafen erstmals ein Airbus A330-200 der LTU in Tempelhof, der aufgrund des hohen Leistungsüberschusses moderner Antriebe sowie der geringen Beladung einen problemlosen Umgang mit der kurzen Startbahn demonstrierte und auf einem Flug mit Passagieren auch mehrere simulierte Durchstartemanöver vorführte. Es handelte sich um die Landung des größten Passagierflugzeuges auf einem kommerziell buchbaren Flug in der Geschichte des Flughafens. In den Jahren 2007 und 2008 gab es zahlreiche von Luftfahrt-Verbänden und Vereinen organisierte sogenannte Fly-ins von Privatmaschinen, die bis zu 180 kleinere Flugzeuge gleichzeitig nach Tempelhof brachten. Initiativen aus der Bevölkerung. Unterstützer des ICAT-Volksentscheides 2008 nach Bezirken Die "Bürgerinitiative flugfreies Tempelhof" (BIFT) setzte sich seit 2001 für die Schließung des Flughafens ein. Sie hatte im Wesentlichen drei Vorgängerbündnisse: die 1986 gegründete "Bürgerinitiative Flughafen Tempelhof," die 1996 gegründete "Bürger für die Schließung des Flughafens Tempelhof" sowie die 2001 initiierte "Bürgergruppe Herrfurthstraße/Oderstraße." Gegen die Schließung des Flughafens hatte sich die 1995 gegründete "Interessengemeinschaft City-Airport Tempelhof" (ICAT) mit 1250 Mitgliedern gewandt. Sie initiierte 2006 erfolgreich ein Volksbegehren, das in einen Volksentscheid 2008 mündete. Dieses wurde auch durch das "Aktionsbündnis be-4-tempelhof," die "SPD-Wähler für den Flughafen Tempelhof" und andere Initiativen unterstützt. Bei dem Volksentscheid "Tempelhof bleibt Verkehrsflughafen!" am 27. April 2008 stimmten zwar 60,1 % der Abstimmenden, aber nur 21,7 % der Stimmberechtigten für den Weiterbetrieb des Flughafens. Damit wurde das notwendige Quorum zur Annahme des Beschlusses nicht erreicht. Das Aktionsbündnis "be-4-tempelhof.de" initiierte im Bezirk Tempelhof-Schöneberg ein Bürgerbegehren mit dem Titel "Das Denkmal Flughafen Tempelhof erhalten – als Weltkulturerbe schützen." Der Bürgerentscheid am 7. Juni 2009 ergab bei 37,9 % Wahlbeteiligung 65,2 % Zustimmung. Da auch das hier notwendige Quorum von 15 % Abstimmungsbeteiligung erreicht wurde, hat der erfolgreiche Bürgerentscheid die Rechtskraft eines Beschlusses der Bezirksverordnetenversammlung. Für die Nachnutzung des Flughafens Berlin-Tempelhof formierte sich 2007 die "Bürgerinitiative Nachnutzung des Flughafens Tempelhof" (NANU THF) und für eine Öffnung des umzäunten Flughafens setzt sich die Bürgerinitiative "Tempelhof für alle" ein und am 20. Juni 2009 wurde eine von der Plattform "Squat Tempelhof" initiierte Öffnung des ehemaligen Flughafengeländes durch 5000 Demonstranten versucht. Schließung des Flughafens. Anzeigetafel am Ende der Abfertigungshalle Bereits der erste Flächennutzungsplan des wiedervereinigten Berlins aus dem Jahr 1994 sah im Gegensatz zum Flughafen Tegel eine Umwidmung des Flughafengeländes mit zukünftiger Nutzung als Gewerbe-, Wohn-, Park-, Sport- und Sonderfläche vor. Im sogenannten „Konsensbeschluss“ einigten sich 1996 Bundesverkehrsminister Matthias Wissmann (CDU), Berlins Regierender Bürgermeister Eberhard Diepgen (CDU) und Brandenburgs Ministerpräsident Manfred Stolpe (SPD) auf den Neubau eines Großflughafens Berlin Brandenburg International (BBI), in dessen Folge auch die Schließung der innerstädtischen Flughäfen Tempelhof und Tegel vereinbart wurde. Der Berliner Senat erließ nach erfolgtem Planfeststellungsbeschluss für den BBI 2003 den Bescheid, der die BFG von der Betriebspflicht des Flughafens befreite. Zu diesem Zeitpunkt war der Flugbetrieb laut Betreibergesellschaft defizitär, für das Jahr 2003 wurde der daraus entstehende Verlust mit 15,3 Millionen Euro angegeben. Gegen diesen Bescheid klagten einige Fluggesellschaften. In einem vorläufigen Rechtsschutzverfahren entschied das Oberverwaltungsgericht Berlin am 23. September 2004, dass die Klagen eine aufschiebende Wirkung haben und der Flugbetrieb bis zur Entscheidung in der Hauptsache aufrechterhalten werden muss. Das Gericht stellte eine Entscheidung im Sinne der Kläger in der Hauptsache in Aussicht. Der Senat zog daraufhin den Bescheid zurück und bereitete einen fundierteren Bescheid zur Betriebseinstellung vor, der im August 2006 erlassen wurde und ein Ende der Betriebspflicht zum 31. Oktober 2007 vorsah. Die Klage der Fluggesellschaften gegen den neuen Bescheid wurde am 19. und 21. Dezember 2006 vor dem OVG in Berlin verhandelt. Ein vom OVG vorgeschlagener Vergleich zur Anerkennung eines auf Oktober 2008 neu datierten Bescheides scheiterte an der fehlenden Zustimmung der meisten klagenden Luftfahrtunternehmen. Der Berliner Senat griff den Vergleich des OVG auf und änderte nochmals den "Bescheid zum Widerruf der Betriebserlaubnis für den Flughafen Tempelhof", der nun als Datum für die Schließung den 31. Oktober 2008 vorsah. Das Oberverwaltungsgericht Berlin-Brandenburg und das Bundesverwaltungsgericht haben die Senatsentscheidung schließlich bestätigt. Um die Schließung des Flughafens doch noch zu verhindern, wurde von der "Interessengemeinschaft City-Airport Tempelhof" (kurz "ICAT") ein Volksentscheid angestrebt. Dazu wurden zunächst seit Ende November 2006 Unterschriften für die Unterstützung eines Volksbegehrens gesammelt. Am 8. Mai 2007 bestätigte der Berliner Senat die Sammlung von knapp 30.000 gültigen Unterschriften. Damit wurde der nach der Verfassung von Berlin erforderliche Nachweis von mindestens 20.000 Unterstützern für die Einleitung eines Volksbegehrens erbracht. In der Zeit vom 15. Oktober 2007 bis zum 14. Februar 2008 konnte jeder wahlberechtigte Berliner per Unterschrift in einem der Berliner Bürgerämter das Volksbegehren unterstützen. Bereits am 30. Januar 2008 wurde das nötige Quorum von 170.000 Unterschriften erreicht. Insgesamt wurden gut 208.000 Zustimmungserklärungen abgegeben. Der anschließende Volksentscheid fand am 27. April 2008 statt. Er wurde abgelehnt, da bei einer Wahlbeteiligung von 36,1 % zwar 60,1 % der Teilnehmer dafür stimmten, jedoch bezogen auf alle Wahlberechtigten sich damit nur eine Zustimmung von 21,7 % ergab; notwendig wäre ein Viertel der Abstimmungsberechtigten gewesen. Die Kosten für die Durchführung des Volksentscheides betrugen rund 2,5 Millionen Euro. Gegen das festgestellte Ergebnis des Volksentscheids wurde von der ICAT Verfassungsbeschwerde beim Verfassungsgerichtshof eingelegt. Am 27. Oktober 2008 entschied dieser, dass der Volksentscheid nicht wiederholt werden muss. Die Senatsverwaltung für Stadtentwicklung hatte am 7. Juni 2007 den Bescheid zur Entwidmung des Flughafengeländes zum 31. Oktober 2008 verkündet. Gegen diesen Bescheid wurden zwei Klagen beim Oberverwaltungsgericht eingereicht. Dieses wies am 17. Dezember 2008 die Klage der ICAT als unbegründet zurück, die eines Privatmannes erklärte sie für unzulässig. Beide Kläger seien in ihren eigenen Rechten nicht verletzt worden. Eine Revision wurde nicht zugelassen. Auf die Einstellung des Flugbetriebes hatte das Verfahren keine Auswirkung. Die letzten Flüge. Der letzte Charterflug und gleichzeitig der letzte Start eines Jets von Berlin-Tempelhof erfolgte am 30. Oktober 2008 um 22:12 Uhr mit der Boeing 737-700 D-ABAB der Air Berlin unter Flugnummer AB1001 mit den Kapitänen Funke und Altenscheidt im Cockpit, der in Zusammenarbeit mit dem Essener Sonderflugveranstalter Airevents durchgeführt wurde. Der Flug landete nach nur 22 Minuten um 22:34 Uhr in Berlin-Tegel und beendete damit die Geschichte der Jetfliegerei ab Tempelhof. Nur fünf Minuten später startete um 22:17 Uhr eine Dornier 328 der Cirrus Airlines mit dem Kennzeichen D-CIRP als letzter Linienflug in Richtung Mannheim. Cirrus Airlines und einige ihrer Piloten hatte eine besondere Bindung zum Flughafen Tempelhof, und so verabschiedete sich der letzte Abflug dieser Airline aus Tempelhof bei Tageslicht gegen 16:45 Uhr mit dem Flugzeug D-COSA mit einer Ehrenrunde über dem Südteil der Stadt und einem nochmaligen tiefen Überflug über die Piste 27L vom Flughafen. Die letzten Flugzeuge, die in Tempelhof offiziell starteten, waren eine Douglas DC-3 "(Rosinenbomber)" und die 3m „Berlin-Tempelhof“ der Deutschen Lufthansa, die um 23:55 Uhr parallel von den beiden Startbahnen abhoben, mit den Flügeln winkten und nach Südwesten, Richtung Schönefeld wegdrehten. Die letzte offizielle Landung eines Flugzeuges in Berlin-Tempelhof machte die Piper PA31T1 Cheyenne I mit der Registrierung D-ILCE. Sie landete am 30. Oktober 2008 nach 22 Uhr auf einem Ambulanzflug und verließ den Flughafen nach einem kurzen Aufenthalt am GAT-Bereich wieder. Drei unter Sichtflug (Visual Flight Rules, VFR) betriebene Kleinflugzeuge mussten am 30. Oktober 2008 wegen schlechter Witterungsbedingungen weiterhin am Flughafen verbleiben. Sie konnten erst nach einer behördlichen Außenstartgenehmigung am 24. November 2008 als nunmehr allerletzte Starts den Flughafen verlassen. Dieses waren die Antonow An-2 Doppeldecker D-FBAW der Fluggesellschaft LTS MiniHansa und D-FWJC der Fluggesellschaft Air Tempelhof, die am 24. November 2008 um 12:11 Uhr sowie 12:12 Uhr kurz hintereinander in Richtung Strausberg und Finow starteten; gefolgt von der Beechcraft F33A Bonanza D-EDBS, die um 12:15 Uhr den Flughafen Tempelhof in Flugrichtung Schönhagen verließ. Die derzeit letzte Flugbewegung gab es auf dem Flughafen Tempelhof am 26. Juni 2010. Die vom Flughafen Tegel kommende Socata TB 10 Tobago mit dem Kennzeichen D-EGKJ befand sich auf einem Rundflug über der Stadt. Aufgrund eines Leistungsverlustes des Triebwerks entschied sich der Pilot zu einer Notlandung auf der Piste 27L des mittlerweile geschlossenen Flughafens Tempelhof, um kein weiteres Risiko einer Außenlandung mitten im Stadtgebiet einzugehen. Der Wiederstart der Maschine von Tempelhof wäre theoretisch möglich gewesen. Die Genehmigung dazu wurde vom Senat allerdings nicht erteilt, und so musste das Flugzeug teilweise demontiert und letztendlich am 30. Juni 2010 auf einem Tieflader vom Gelände gebracht werden. Eigentümerwechsel. Das Flughafengelände gehörte als früheres Reichsvermögen ursprünglich dem Bund, seit 2005 der Bundesanstalt für Immobilienaufgaben (BImA) sowie dem Land Berlin als Miteigentümern. Im Jahr 2009 verkaufte die BImA dem Land Berlin ihren Anteil zu einem Preis von 35 Millionen Euro. Der Umstand, dass Berlin nunmehr alleiniger Eigentümer des denkmalgeschützten Gebäudekomplexes und der großen Freiflächen ist, erleichtert die Planung und Umsetzung von Entwicklungskonzepten. Das Land Berlin hatte nach der Wiedervereinigung Ansprüche auf ehemaliges Reichsvermögen geltend gemacht, darunter auch auf die damals bundeseigenen Flächen des Flughafens Tempelhof; der Bund lehnte die Ansprüche ab. Ein Normenkontrollantrag des Landes vor dem Bundesverfassungsgericht hatte keinen Erfolg. Ob die Voraussetzungen für einen Rückfallanspruch Berlins nach dem Reichsvermögen-Gesetz auf die Bundesflächen des Flughafens vorlagen, steht nicht fest, da das Land die maßgebliche Frist versäumt hatte. Mittlerweile versucht Berlin auf dem Verwaltungsrechtsweg, seine Ansprüche weiterzuverfolgen, und ist dabei in zweiter Instanz unterlegen. Nachnutzung, Entwicklung. Öffnung des Tempelhofer Flugfeldes für die Bevölkerung im Mai 2010 Verschiedene Nachnutzungskonzepte wurden diskutiert und teilweise wieder verworfen. So bestand eine Planung, dass im Jahr 2017 auf dem Gelände die Internationale Gartenschau (IGA) stattfinden sollte. Im Juli 2012 hat der Berliner Senat diese Pläne wieder verworfen, da sich die Parknutzung durch die Bürger besser als erwartet entwickelte und somit eine Steigerung der Attraktivität des Geländes zu diesem Zweck nicht mehr nötig erschien. In diesem Zusammenhang gab es im Vorfeld Proteste gegen die kostenpflichtige IGA, die die Nutzung des Tempelhofer Feldes für viele Besucher einschränken würde. Für das Jahr 2020 war geplant, einen Teil der Internationalen Bauausstellung (IBA) auf dem Gelände auszurichten. Anfang August 2013 wurde ein bis dahin unter Verschluss gehaltenes Gutachten bekannt, das die Kosten für die notwendige Sanierung des Gebäudes mit 478 Millionen Euro beziffert. Zum reinen Substanzerhalt seien 144 Millionen Euro notwendig. Tempelhofer Freiheit. Die Berliner Senatsverwaltung für Stadtentwicklung hat am 5. März 2008 als Folgenutzungskonzept für das Flughafengelände das städtebauliche Projekt "Tempelhofer Freiheit" vorgestellt. Die Grundlage bildete das 1998/1999 erarbeitete Planungskonzept "Vom Flughafen zum Park der Luftbrücke." Darin vorgesehen ist die Einrichtung eines "Tempelhof Forum THF" für Kultur-, Medien- und Kreativwirtschaft im denkmalgeschützten ehemaligen Flughafengebäude und den südlich anschließenden befestigten Vorfeldflächen. An den Rändern des ehemaligen Flugfeldes sollen neue Wohnanlagen der Stadtquartiere Tempelhof (westlich bis südlich), Neukölln (östlich) und dem neuen nordöstlichen Columbiaquartier entstehen. Dazwischen soll die rund 220 Hektar große unbebaute Grünfläche des ehemaligen Flugfeldes als Parklandschaft mit zahlreichen Freizeitnutzungen erschlossen werden. Das überwiegend offengehaltene Wiesengelände soll dann auch weiterhin dem Temperaturausgleich des Stadtklimas dienen. Seit dem 8. Mai 2010 ist der Tempelhofer Park, der sich auf dem ehemaligen Flugfeld befindet, für die Öffentlichkeit zugänglich. Das Betreten des Geländes ist tagsüber durch zehn Eingänge möglich, die am Tempelhofer Damm, am Columbiadamm und an der Oderstraße liegen. Eine Volksinitiative wendet sich gegen den Namen "Tempelhofer Freiheit", da damit die NS-Geschichte dieses historischen Ortes verharmlost werde. Zwischennutzungen. Seit der Schließung am 30. Oktober 2008 haben rund 26.000 Besucher (Stand: September 2010) das denkmalgeschützte Flughafengebäude besichtigt. Filmstudio Babelsberg. Nach dem gescheiterten Volksentscheid zur Rücknahme des Schließungsbeschlusses des Berliner Senats erneuerte das Filmstudio Babelsberg das Angebot, im Tempelhofer Flughafengebäude in mehrere Filmateliers sowie Europas größten Requisiten- und Kostümfundus investieren zu wollen. Messegelände. Am 29. Januar 2009 unterzeichnete die für den Flughafen Tempelhof zuständige Berliner Immobilienmanagement GmbH (BIM) einen zehn Jahre laufenden Nutzungsvertrag mit der Modemesse "Bread & Butter." Die Modemesse wird zweimal jährlich für jeweils einen Monat sämtliche Hangars, das Vorfeld sowie die Haupthalle des ehemaligen Flughafens Tempelhof anmieten. Seit 2009 findet zweimal im Jahr die Messe "Berlin Vital", die zum Rahmenprogramm des alljährlichen Berliner Halbmarathons im Frühjahr sowie des Berlin-Marathons im Herbst gehört, im Gebäude des ehemaligen Flughafens statt. Die Messe ist nach Angaben des Veranstalters die größte deutsche Sport- und Gesundheitsmesse. Die Jugendmesse "YOU" sowie die internationale Messe für Umwelttechnologie "Clean Tech World" fand zum ersten Mal im September 2010 in Tempelhof statt. Eisfläche. Anfang August 2009 beschloss der Berliner Senat in Zusammenarbeit mit dem Berliner Eissportverband und der Eishockeymannschaft des "ECC Preussen", dass im ehemaligen Hangar 3 eine Eisfläche installiert werden soll. Diese Eisfläche wurde gebaut, da der Verein aufgrund der Schließung der Deutschlandhalle eine Ersatzfläche für seine knapp 800 Eissportler braucht. Zuerst ohne Tribünen und nur für den Trainingsbetrieb geplant, entstanden zur Eishockey-Saison 2010/2011 drei kleine Tribünen, die insgesamt durch 199 Zuschauer genutzt werden können. Sport. Mehrere Hangars des Flughafens wurden Ende September / Anfang Oktober 2009 zur Austragung eines hochdotierten nationalen Reitturniers genutzt, das als "Hauptstadtturnier" bezeichnet wird. Ebenfalls im Oktober 2009 fand das Funsport-Event "Swatch freestyle.berlin" statt. Im November 2009 wurde auf den Gelände der "17. Kondius Berliner Marathon-Staffel-Wettbewerb" ausgetragen. Am 4. Oktober 2009 hat die "Turngemeinde in Berlin 1848 e. V." (TiB) die Freiluft-Sportanlagen auf dem Gelände des ehemaligen Flughafens in Berlin-Tempelhof wieder in Betrieb genommen. Die TiB übernahm beide Softball-Felder, das östliche wurde für den Baseballbetrieb der Berlin Rangers umgebaut. Zur Anlage gehören noch zwei Tennisfelder, sowie ein Sandplatz für Speed-Badminton, Beachvolleyball und Beachsoccer. Die FIA-Formel-E-Meisterschaft, eine Serie von ausschließlich mit Elektroantrieb betriebenen Rennwagen, trägt seit der 15 auf einer temporären Rennstrecke auf dem ehemaligen Vorfeld des Flughafens den Berlin ePrix aus. Der asphaltierte Rundkurs ist vor allem bei Läufern sehr beliebt. Die Streckenlänge beträgt 6218 Meter und ist läuferisch wenig anspruchsvoll, da der Rundkurs mit nur 53 Höhenmetern keine nennenswerten Steigungen aufweist. Startpunkt ist der Haupteingang am Columbiadamm und man folgt der mit lilafarbenen Punkten markierten Strecke im Uhrzeigersinn. Squat Tempelhof. Aus Protest gegen die Nachnutzungspläne versuchten mehrere tausend Aktivisten, die sich in dem Bündnis "Squat Tempelhof" zusammengeschlossen hatten, am 20. Juni 2009 das Gelände zu besetzen. Dazu aufgerufen hatten neben Mieterbündnissen auch die Grünen. Die Demonstranten kritisierten, dass die Fläche nicht für die Öffentlichkeit freigegeben wurde und befürchteten neben einer zunehmenden Privatisierung und Kommerzialisierung einen vorangetriebenen Gentrifizierungsprozess. Die Besetzung wurde jedoch von der Polizei verhindert, die mit etwa 1500 Beamten im Einsatz war. 102 Demonstranten wurden festgenommen. Volksbegehren "100 % Tempelhofer Feld". Im September 2011 gründete sich im östlich an die Parkfläche angrenzenden Schillerkiez unter dem Titel "100 % Tempelhofer Feld" eine Bürgerinitiative mit dem Ziel, die Nachnutzungspläne des Senats im Wege eines Berlin-weiten Volksentscheides zu kippen und eine Bebauung des Geländes zu verhindern. Nach Vorstellung der Initiative solle die Freifläche weder mit einem Neubau der Landesbibliothek, Wohn- und Gewerbeimmobilien, noch der Internationalen Gartenausstellung versehen und für Parkbesucher in ihrem natürlichen Zustand belassen werden. Die Unterschriftensammlung für das Volksbegehren gegen die Bebauung des Tempelhofer Feldes lief bis zum 13. Januar 2014 und brachte rund 185.000 Unterschriften. Der Volksentscheid über den Erhalt des Tempelhofer Feldes fand am 25. Mai 2014 statt: 64 % der abgegebenen Stimmen waren für den Volksentscheid, 36 % dagegen. Das notwendige Abstimmungsquorum von mindestens 25 % wurde mit 30 % überboten. Ausstattung. Das Gelände des ehemaligen Flughafens erstreckt sich auf eine Fläche von vier Millionen Quadratmetern, wovon das Vorfeld 486.000 m² einnimmt; auf diesem befanden sich 60 Flugzeugabstellpositionen, wovon 40 der Allgemeinen Luftfahrt zustanden. Zur Wartung stehen sieben Hangars zur Verfügung, deren Bruttogrundfläche insgesamt 52.250 m² beträgt. 19.200 m² davon sind die offenen Abfertigungsflächen A1 und A2. Der Flughafen verfügt über zwei Start- und Landebahnen, deren Oberfläche jeweils aus Asphalt besteht. "09R/27L" ist 1840 Meter lang und 42,5 Meter breit; sie war für Anflüge in beiden Richtungen für das Instrumentenlandesystem (ILS) in der Kategorie I sowie für Nichtpräzisions-Instrumentenanflüge (NDB/DME) zugelassen. "09L/27R" ist 2094 Meter lang und ebenfalls 42,5 Meter breit; sie konnte für Nichtpräzisions-Instrumentenanflüge (VOR/DME) und unter Sichtflugbedingungen benutzt werden. Instrumentenabflüge waren von beiden Bahnen in alle Richtungen möglich. Architektur. Die Abfertigungshalle des Flughafens, September 2008 Mit dem neoklassizistischen Neubau des Flughafens Tempelhof ab 1934 durch den Architekten Ernst Sagebiel wurden erstmals alle Anforderungen eines modernen Großflughafens in einer architektonischen Gesamtform mit getrennten Funktionsebenen für Ankunft, Abflug, Post- und Frachtverkehr organisiert. Die in der Gebäudeanlage verwirklichte funktionale Komplexität (Ebenentrennung sowie zahlreiche – erst heute allgemein übliche – Sekundärfunktionen wie Hotels, Kongresszentrum, Großrestaurants, Lufthansa-Verwaltungen) war zum Zeitpunkt der Entstehung als Flughafen einzigartig und ist in zahlreichen Bestandteilen Vorbild für moderne Flughafenanlagen geworden. Der britische Architekt Lord Norman Foster bezeichnete den Flughafen daher im Jahr 2004 als „die Mutter aller Flughäfen“. Diese Metapher bekräftigte er 2009 und fügte hinzu: „Tempelhof müsste eine Sache des nationalen Gewissens sein – es ist viel zu bedeutend, um auf dem Altar kommerzieller Immobilienentwicklung geopfert zu werden.“ Wegen seiner besonderen ingenieurtechnischen Bedeutung wurde das Bauwerk am 1. Juni 2011 von der Bundesingenieurkammer mit dem Titel "Historisches Wahrzeichen der Ingenieurbaukunst in Deutschland" ausgezeichnet. Gesamtanlage. Der Flughafen teilt sich in die mehr als 1200 Meter lange Flughalle mit Hangar und die Empfangs- und Verwaltungsgebäude. Das Empfangsgebäude befindet sich axial dem Hallenbogen angeschlossen, umschließt einen Vorplatz dreiseitig und schafft einen Übergang zu dem dahinter liegenden heutigen Platz der Luftbrücke. Dieser Platz war als Rundplatz konzipiert und sollte einen Durchmesser von 250 Metern haben. Die am Platz liegenden viergeschossigen Bauten sollten einen Dreiviertelkreis um den Platz legen und Dienste wie Luftpostamt und Frachthof aufnehmen. Die vorgesehene Bebauung ist allerdings nur auf der Ostseite des Platzes verwirklicht. Die Außengebäude sind, ähnlich wie viele andere Bauten aus der Zeit des Nationalsozialismus, mit Natursteinplatten aus Muschelkalk verkleidet. Die Gesamtanlage steht unter Denkmalschutz. Seit Dezember 2007 liegt dem UNESCO-Welterbe-Komitee ein Antrag auf Ernennung zum Weltkulturerbe vor. Flugfeld. Vom letzten freien Viertel des Rundplatzes, das sich gegenüber dem Empfangsgebäude geöffnet hätte, sollte eine Wasserkaskade bis zum naheliegenden Kreuzberg reichen. Diese Wassertreppe wurde allerdings nicht verwirklicht. Die damit durch die Haupthalle verlaufende Achse der Flughafen-Anlage ist in ihrer Richtung auf das Kreuzbergdenkmal von Karl Friedrich Schinkel orientiert. Der Flughafen sollte, den Wünschen Adolf Hitlers entsprechend, seine monumentale Wirkung östlich der geplanten Nord-Süd-Achse entfalten. Die Anlage des Flugfeldes entsprach den zum Planungszeitpunkt gültigen Bedingungen, indem sie für den Betrieb kleiner Flugzeuge als Rasenfläche mit vier betonierten Start-Taschen ausgelegt wurde. Hierdurch war ein Starten und Landen der noch relativ leichten Fluggeräte exakt gegen den Wind möglich. Die Gesamtform als Oval erfüllte neben der idealen windrichtungsneutralen Form zugleich die Anforderungen als Luftstadion für die von Hermann Göring vorgesehenen Flugschauen. Flughalle und Hangar. Die Passagierhalle teilt das Gebäude in zwei Hälften und ist hundert Meter lang und fünfzig Meter breit. Daran schließen sich unmittelbar zu beiden Seiten die Hangars an. Diese – alle Funktionen eines Flughafens integrierende Anordnung – die heute wegen der damit verbundenen geringeren Flexibilität unüblich ist, war wesentlicher Konzeptbestandteil mit dem Ziel, Zusammenhang und Größe zu demonstrieren. Eine technische Meisterleistung ist die über 40 Meter weit auskragende stählerne Dachkonstruktion entlang des Flugsteigs. Flugzeuge bis zu einer Höhe von fast zwölf Metern können unter das Dach des Flugsteigs rollen, um dort abgefertigt zu werden. Das Flughallendach war ursprünglich auch als Tribünenbereich für mehr als 100.000 Zuschauer gedacht, wie bei Flugschauen zu den Reichsflugtagen. Eine weitere Besonderheit ist, dass die gesamte Dachanlage nicht nur im Bezug auf ihr eigenes Gewicht freitragend ist, sondern auch Schneemassen von mehreren Metern Höhe problemlos aufnehmen kann. Die Stadtseite der gebogenen Hangar- und Hallenanlage wird durch die sich in gleichen Abständen befindenden Treppentürme zur Erschließung der von Hermann Göring auf dem Dach vorgesehenen Zuschauer-Tribünen gegliedert. Die Treppentürme waren so ausgelegt, dass 100.000 Zuschauer in weniger als 30 Minuten die Dachtribünen hätten erreichen können, für die damalige Zeit eine ausgeklügelte logistische Meisterleistung. Diese – seit der Bauzeit im Rohzustand belassenen und für die Öffentlichkeit nie genutzten – unzugänglichen Treppenhäuser bestimmen die dominante Erscheinungsweise des Gebäudes; allein hierdurch wird der Zeitbezug zur Architektur des Nationalsozialismus deutlich. Der aktuelle Betreiber, die Tempelhof Projekt GmbH, bietet Führungen an, bei denen die ansonsten nicht zugänglichen Bereiche besichtigt werden können. Hierzu zählt auch der als Ballsaal gedachte Raum über der Abfertigungshalle, der in seiner Funktion nie fertiggestellt wurde. Während der Nutzung durch die amerikanischen Streitkräfte wurde hier eine Basketball-Halle errichtet, die noch immer so erhalten ist. Im Nebenraum befindet sich eine Bar, die als Entertainment-Bereich mit Billard-Tischen und Bowling-Bahnen genutzt wurde. Berlins Regierender Bürgermeister Michael Müller erklärte am 12. November 2015, dass aufgrund anhaltend hoher Flüchtlingszahlen bis auf weiteres die Hangars und die überdachte Haupthalle für die Flüchtlingsregistrierung und -unterbringung benötigt und damit andere Nutzungen ausgeschlossen würden. Unterirdische Anlagen. Der ehemalige Flughafen Berlin-Tempelhof hat außerdem umfangreiche unterirdische Anlagen, die über drei Etagen hinab in die Tiefe reichen. Mit der Aufgabe des Ausbaus 1942 wurden diese sowie auch einige oberirdische Elemente nicht weitergebaut. Unterirdisch wurden beispielsweise Fertigungsanlagen für Flugzeuge (im Zweiten Weltkrieg), Filmarchive, Kraftwerke und die spätere Kommandozentrale der US Army untergebracht. Dabei wird die Größe des „Tunnellabyrinths“ legendenhaft überschätzt. Die von Fotos her bekannte Endmontage von Jagdflugzeugen fand erst 1945 an der Endstation des Eisenbahntunnels am Hauptgebäude statt, und zwar in einer Halle, die zu einem tief gelegenen Innenhof hin offen ist. Im Zweiten Weltkrieg wurden die unterirdischen Räume auch für die Bevölkerung unverzichtbar als Luftschutzbunker genutzt, wobei Überreste von „Wandmalereien“ nach Motiven von Wilhelm Busch erhalten geblieben sind. Sie wurden auch während der Nutzung der Räume durch die amerikanische Luftwaffe bis 1993 nicht entfernt. Die Wände der Räume wurden zwar mehrfach weiß gestrichen, doch es wurde um die Gemälde sorgsam herumgestrichen, sodass die Wandmalereien nicht beschädigt wurden. Eine weitere Besonderheit ist eine in die unterirdische Ebene hinein verlaufende Straße zur Versorgung des Flughafens und Anlieferung von Gütern sowie ein Eisenbahntunnel. Der Tunnel wurde über einen im Westen und Süden am Flughafenrand verlaufenden Gleisanschluss zum Güterbahnhof Hermannstraße, an dem auch die Neukölln-Mittenwalder Eisenbahn beginnt, an das Eisenbahnnetz der Deutschen Reichsbahn angebunden. Spuren des Feuers von 1945 im Filmbunker unter dem Flughafen Tempelhof Der Zugang zum Filmbunker, einem verborgenen, mehrgeschossigen und unterirdischen Archiv für Filmmaterialien, wurde 1945 von sowjetischen Truppen gewaltsam geöffnet. Durch die Sprengung, die offensichtlich in Unkenntnis der Brandgefahr geschah, entzündeten sich die gelagerten Zelluloid-Filme und der gesamte Inhalt des Filmbunkers wurde vernichtet. Noch heute sind die Folgen des – auf über 1200 °C geschätzten – mehrtägigen Feuers in diesen unterirdischen Räumen sichtbar. Einzigartig ist die ausgeklügelte Klimatisierung des Filmbunkers und auch der Luftschutzbunker, was die Versorgung mit möglichst an Temperatur und Luftfeuchtigkeit konstanter Luft betrifft. Die Rohrleitungen, Überdruckventile und Aktivkohlefilter-Reinigungsanlagen sind noch heute erhalten. Radarturm. Der markante und über 71 Meter hohe Radarturm östlich des Flughafengebäudes wurde 1982 so konstruiert und errichtet, dass sich die durch den Wind verursachten Turmbewegungen kaum auf die Qualität des Radarbildes auswirken. Es wurde bewusst eine dem monumentalen Baustil des Flughafens entgegengesetzte filigrane und moderne Bauform gewählt. Bis zu Beginn der 1990er Jahre, als der Flughafen noch von der US Air Force betrieben wurde, gab es einige weitere Navigationsanlagen am Flughafen. Sie wurden mit dem Abzug der amerikanischen Streitkräfte abgebaut, da es sich größtenteils um rein militärisch nutzbare Anlagen handelte. So existierte südlich der südlichen Start- und Landebahn auf Höhe der Bahnmitte ein Präzisionsanflugradar (PAR), das für die Südbahn genutzt wurde. Auf dem Dach des Gebäudes in Höhe des GAT befand sich ein Flughafenrundsichtradar (ASR). Die Radaranlage selbst ist abgebaut, allerdings ist die Trägerkonstruktion immer noch erhalten. Bereits im Oktober 1984 wurde ein auf dem Dach des Gebäudes befindlicher Höhenfinder abgebaut. Flugbetrieb. Zuletzt haben lediglich vier Fluggesellschaften den Flughafen Berlin-Tempelhof im Linienbetrieb angeflogen. Diese waren unter anderem Brussels Airlines, InterSky sowie Cirrus Airlines. Daneben gab es mehrere Fluggesellschaften wie die am Flughafen ansässige Windrose Air, die mit ihren Maschinen Flüge der Allgemeinen Luftfahrt durchführten. Die sogenannte ‚Executive-Fliegerei‘ nutzte für Flüge nach Berlin in großem Maße den Flughafen Tempelhof, weil er aufgrund der Lage eine einzigartig schnelle Anbindung an das Stadtzentrum bot. Darüber hinaus wurden von Tempelhof aus vom Air Service Berlin Rundflüge mit einem restaurierten ‚Rosinenbomber‘ vom Typ Douglas DC-3 angeboten. Die Luftschiffgeneration Zeppelin NT benutzte den Flughafen als Ausgangspunkt ihrer Fahrten. Außerdem gab es nördlich der Start- und Landebahnen noch mehrere Hubschrauber-Bahnen im Grasgelände, die später allerdings nicht mehr genutzt wurden. Daten zur Flugsicherung und zum Flugbetrieb. Abfertigung eines gelandeten Flugzeuges auf dem Vorfeld, 2005 Kulisse für Film und Fernsehen. Über die Geschichte und Architektur des Flughafens Berlin-Tempelhofs wurde unter anderem auch eine detaillierte Dokumentation für das ARD-Fernsehen unter dem Titel "Geheimnisvolle Orte 2/7: Die Katakomben von Tempelhof" gedreht. Der Flughafen war ebenfalls Kulisse in mehreren Folgen der Sat.1-Telenovela "Schmetterlinge im Bauch", der ARD-Vorabendserie "Berlin, Berlin" sowie der Sat.1-Serie "HeliCops – Einsatz über Berlin" (später wurde die Kulisse im brandenburgischen Briest nachgebaut). In einigen Filmen, in denen der Flughafen auftaucht, handelt es sich jedoch nur um eine Studiokulisse oder einen anderen Flughafen, der als Kulisse dient. Bekannte Filme aus dieser Kategorie sind beispielsweise "Indiana Jones und der letzte Kreuzzug" von Steven Spielberg oder "The Good German – In den Ruinen von Berlin" von Steven Soderbergh. Für einige Musikvideos ist der Flughafen Berlin-Tempelhof ebenfalls als Drehort ausgewählt worden: So sind in dem 1999 erschienenen Video zum Lied "1, 2, 3 Rhymes Galore (From New York to Germany)" von DJ Tomekk einige Aufnahmen während des laufenden Flugbetriebes in der Haupthalle und in angrenzenden Räumen entstanden. Im Jahr 2011 diente die Haupthalle des mittlerweile stillgelegten Flughafens als Kulisse zum Musikvideo zu "Hollywood Hills" der finnischen Band Sunrise Avenue. In Folge 8 der 2. Staffel der Dokufiktion-Serie "Zukunft ohne Menschen" ("Chaos am Himmel", USA 2010) dient der Flughafen als Beispiel für den Verfall von Flughafenanlagen nach einem fiktiven Verschwinden der Menschheit. Der Flughafen spielt eine hervorgehobene Rolle im Spiel "TwinKomplex", als Sitz einer mutmaßlichen Geheimorganisation. Im Mai 2014 diente das Flughafengebäude als Kulisse für Dreharbeiten zum dritten Teil der Verfilmung der Romanreihe "Die Tribute von Panem". Sonstiges. Am ehemaligen Flughafen gab es ein Heizkraftwerk sowie ein Wasserwerk zur Versorgung des Flughafens. Die Ressourcen reichten auch für die Versorgung des damaligen Bezirks Tempelhof, was insbesondere zur Zeit der Luftbrücke von großer Bedeutung war. Wichtig für die militärische Luftraumüberwachung der NATO war während des Kalten Krieges das Radar am nordöstlichen Ende des Hauptgebäudes. Bis heute ist das 100 m² große Areal das einzige von der Bundeswehr genutzte Gelände des Flughafens. Verkehrszahlen. Bei den Zahlen handelt es sich bis 1972 um Summen der Flughäfen Berlin-Tempelhof und Berlin-Tegel, 1973 zusätzlich mit Flughafen Berlin-Schönefeld. Von 1974 bis 1991 sind keine Zahlen verfügbar. Einzelnachweise. Berlintempelhof Berlintempelhof Berlintempelhof Tempelhof Fuge (Musik). Die Fuge (von lateinisch "fuga" „Flucht“) ist ein musikalisches Kompositionsprinzip polyphoner Mehrstimmigkeit. Kennzeichnend für die Fuge ist eine besondere Anordnung von Imitationen zu Beginn der Komposition: Ein musikalisches Thema wird in verschiedenen Stimmen zeitlich versetzt wiederholt, wobei es jeweils auf unterschiedlichen Tonhöhen einsetzt (in der Regel abwechselnd auf dem Grundton und der Quinte). Eine Fuge kann eine eigenständige Komposition sein. Fugen wurden oft zusammen mit einem vorangehenden Präludium komponiert. Fugen und fugenartige Strukturen werden aber auch innerhalb von Werken anderer Formen verwendet, z. B. in Kantaten, Messen, Konzerten, Symphonien oder Ouvertüren. Entstehung des Begriffes. Der Begriff "Fuga" wurde bereits im 14. Jahrhundert für den Kanon verwendet, später auch allgemein für Imitationen. Noch bei den Komponisten der franko-flämischen Schule bezeichnet "Fuga" oder "ad fugam" kanonische Kompositionen, obwohl in der Polyphonie des 16. Jahrhunderts bereits die ersten im späteren Sinne der Fuge angelegten Strukturen auftauchen. Erst im Laufe des 17. Jahrhunderts werden solche Stücke als "Fugen" bezeichnet. Merkmale. Besonderes Kennzeichen der Fuge ist ihre komplexe Themenverarbeitung. Eine Fuge beginnt mit der "Exposition" der Stimmen: Die erste Stimme trägt das – meist kurze und prägnante – Thema vor. Dieser Themeneinsatz wird auch als "Dux" (lat. "dux" „Führer“) bezeichnet. Hierzu gesellt sich in der Folge eine zweite Stimme, die das Thema nun als "Comes" (lat. "comes" „Gefährte“) auf die Oberquinte (bzw. Unterquarte) versetzt vorträgt. Wenn im Themenkopf des Dux der Quintton über dem Grundton exponiert erscheint, wird dieser im "Comes" meist zur Quarte abgewandelt (tonale Beantwortung), um die Identität der Tonart zu gewährleisten. Diese Technik geht auf die Anordnung der Modi zurück. Andernfalls wird das Thema intervallgetreu („real“) transponiert. Weitere Stimmen können nach diesem Prinzip hinzukommen, bis die volle Stimmenzahl (meistens 3 oder 4, seltener 5 oder mehr) erreicht ist. Bringt die erste Stimme während des zweiten Themeneinsatzes motivisch oder thematisch bedeutsames Material, das später wieder aufgegriffen wird (in manchen Fällen sogar als neues Thema), so spricht man von einem Kontrasubjekt. Das Kontrasubjekt muss mit dem Thema einen doppelten Kontrapunkt bilden, um sowohl über als auch unter dem Thema erscheinen zu können, ohne die Stimmführungsregeln zu verletzen. Alle Abschnitte, in denen das Thema – in verschiedenen Stimmen – vorgetragen wird, heißen "Durchführungen" (nicht zu verwechseln mit der Durchführung des Sonatensatzes) oder "Thema-Phasen", wobei der Beginn der Fuge, also die "Exposition" bereits die erste "Durchführung" darstellt. Die weiteren Themeneinsätze bzw. "Durchführungen" können u. a. auch in der Paralleltonart der Grundtonart sowie der Ober- und Unterquinttonart stehen. Ab dem 19. Jh. erscheint das Thema auch in noch entfernteren Tonarten. Es gibt verschiedene Fugentypen. In den meisten Fällen sind die Themeneinsätze durch "Zwischenspiele" miteinander verbunden, die im Allgemeinen der Modulation dienen und oft aus Sequenzen bestehen. Andere Fugen besitzen überhaupt keine "Zwischenspiele" (z. B. C-Dur, WK I, BWV 846). Einen besonderen Fall stellt hier die Fuge in cis-Moll von J.S. Bach (WK I, BWV 849) dar, die drei Themen beinhaltet. Diese werden der Reihe nach eingeführt und im weiteren Verlauf ständig miteinander enggeführt, sodass neben fehlenden "Zwischenspielen" auch kaum Raum für themenfremdes Material überhaupt bleibt. Für die formale Gliederung ist in solchen Fällen weniger die Tonart eines jeden Einsatzes als vielmehr die zugrundeliegende Kadenzordnung entscheidend – sprich: welche Stufen der Grundtonart werden durch eine erkennbare Kadenz erreicht? In den "Thema-Phasen" können neben Engführungen des Themas auch Umkehrungen, Augmentationen (Vergrößerung der Notenwerte), Diminutionen (Verkleinerung) etc. von Thema oder Kontrasubjekt auftreten. Vor dem Ende einer Fuge wird manchmal ein Orgelpunkt – auf der Dominante oder der Tonika – eingefügt, sei es als Signal für den kommenden Schluss oder bereits als Ausgestaltung desselben. Ein bekanntes Beispiel dafür ist die hier zitierte Fuge c-Moll (WK I) oder die g-Moll-Fuge aus der Sonate für Violine solo (BWV 1001) von J. S. Bach. Beispiel. "Das Wohltemperierte Klavier", Teil I, Fuga Nr. 2 in c-Moll Diese dreistimmige Fuge von Johann Sebastian Bach beginnt mit einer typischen Exposition, die sich bis zum Anfang von Takt 9 erstreckt. Es beginnt zunächst die Altstimme, es folgen der Sopran in Takt 3 und der Bass in Takt 7. Das "Thema" hat eine Ausdehnung von zwei Takten. Es erscheint, wie bei Fugen üblich, zu Beginn allein, um sich vorzustellen, und zwar in der Grundtonart c-Moll. Die "Beantwortung des Themas" stellt eine genaue Transposition des Themas auf die Oberquint-Tonart g-Moll dar, mit einer Ausnahme: die vierte Note ist c, nicht d, wie eigentlich zu erwarten wäre. Diese kleine Veränderung ist notwendig, um die Grundtonart noch über den 2. Themeneinsatz hinaus beibehalten zu können. Man spricht in diesem Falle von "tonaler Beantwortung" (im Gegensatz zur "realen Beantwortung", bei der ein Thema ohne Veränderung in der Oberquint-Tonart erscheint). In Takt 5 haben die beiden Stimmen die Oberquint-Tonart g-Moll endgültig erreicht. Damit die dritte Stimme mit dem Thema einsetzen kann, muss jedoch zur Originaltonart c-Moll zurückmoduliert werden. Dies geschieht in der zweitaktigen "Codetta" der Takte 5 und 6. Der Komponist macht hier im Sopran Gebrauch von dem charakteristischen Anfangsmotiv des Themas, während der Alt das von ihm in Takt 3 eingeführte "Kontrasubjekt" (oder "Kontrapunkt") verwendet. Jedoch erscheinen die für dieses Kontrasubjekt typischen Tonschritte umgekehrt, d. h., nicht absteigend, sondern aufsteigend. Außerdem erfolgt der Aufstieg dreimal hintereinander auf der jeweils nächsthöheren Tonstufe: es handelt sich um eine Sequenz. In Takt 7 ist die Grundtonart c-Moll wieder erreicht, und der Bass kann mit dem Thema einsetzen. Während der Bass das Thema durchführt, ist im Sopran das Kontrasubjekt zu hören. Der Alt führt ein zweites Kontrasubjekt ein, das im weiteren Verlauf der Fuge noch einige Male in verschiedenen Stimmen auftauchen wird und den dreifachen Kontrapunkt begründet. Durch ihre einfache, fast homophone Führung übernehmen Sopran und Alt ab Takt 8 Begleitfunktionen. An dieser Stelle wird der kammermusikalische, weniger komplex-polyphone Charakter dieser Fuge besonders deutlich. Zu Beginn des von Takt 9 ist der Themeneinsatz im Bass abgeschlossen, und somit auch die Exposition: jede der drei Stimmen hat das Thema vollständig durchgeführt. Geschichte und Bedeutung. Das Prinzip der Imitation zwischen verschiedenen Stimmen eines Musikstücks ist seit dem ausgehenden Mittelalter bekannt. Als Vorstufe der Fuge wurde zunächst der Kanon gepflegt. Um 1600 bezeichnen die Begriffe Fantasia, Canzona, Capriccio, Ricercar und Tiento ähnliche Formen von Instrumentalstücken (meist für Tasteninstrumente), die als Vorläufer der Fuge gelten dürfen. Auch in der Motette hält das Fugenprinzip nach und nach Einzug. Im Hochbarock folgt die Emanzipation der Fuge als selbständige (Teil-)Form. In der Französischen Ouvertüre ist der zweite Teil eine Fuge, in der Norddeutschen Orgelschule wird die Fuge zum abschließenden Gegenstück eines vorangehenden Präludiums, einer Toccata oder anderer Formen. Der wohl bekannteste Komponist von Fugen war Johann Sebastian Bach; in seinen Werken (z. B. "Wohltemperiertes Klavier", "Die Kunst der Fuge") erprobte er sämtliche Möglichkeiten der Fuge, sodass viele spätere Komponisten sich beim Thema Fuge auch mit Bach auseinandersetzten. 1753/54, einige Jahre nach Bachs Tod, erschien Friedrich Wilhelm Marpurgs "Abhandlung von der Fuge", die bis weit ins 19. Jahrhundert als musiktheoretische Anleitung zum Erlernen der Fugentechnik Verwendung fand. Nach dem Barock galt die Fuge zwar als historische und damit veraltete Form, sie wurde aber nie aufgegeben. Spätere Komponisten setzten sich immer wieder mit ihren Prinzipien auseinander, wobei jeweils klar war, dass die Ergebnisse stets einen Verweis auf die Vergangenheit bedeuteten. Das Schreiben einer Fuge galt zudem als Nachweis besonderer kompositorischer Fähigkeiten. Bedeutende nachbarocke Meister der Fugenkomposition. Astor Piazzolla vermischte klassische Fugentechnik und argentinischen Tango zu einer neuen Einheit. Im Jazz sind ebenfalls Fugen zu finden, z. B. in "Love Me or Leave Me" von Nina Simone. Permutationsfuge. Von einer Permutationsfuge spricht man, wenn zum Thema immer mehrere, stets gleichbleibende Kontrapunktthemen treten. Der Komponist tauscht dann in der jeweils nächsten Thema-Phase nur die Stimmen gegeneinander aus. Dies ist beliebt in Vokalsätzen; Beispiel: Eingangschor der Kantate Himmelskönig, sei willkommen von J. S. Bach. Doppelfuge. Eine Doppelfuge ist eine Fuge mit zwei Themen sowie einem oder zwei Kontrasubjekten, die nacheinander oder gleichzeitig vorgestellt und verarbeitet werden können. Beispiele: Johann Sebastian Bach: Wohltemperiertes Klavier II. Teil, gis-Moll-Fuge; Contrapunctus IX und X aus der Kunst der Fuge. Ein Spezialfall ist der Gebrauch des Begriffs Doppelfuge durch Johann Mattheson. In seiner 1739 erschienenen Schrift „Der vollkommene Capellmeister“ nennt er Doppelfugen alle Fugen, in denen doppelter Kontrapunkt angewendet wird. Dabei stellt er die Forderung nach „Doppelfugen mit dreyen Subjecten“ auf, einer Fugenart, die Bach nicht nur in der Kunst der Fuge, sondern schon in früheren Werken verwendete. Beispiele dafür sind die Fuge zur Passacaglia c-Moll BWV 582, in der dem Thema (Subjekt) zwei Kontrasubjekte beigegeben werden, und die dreistimmige Sinfonia f-Moll BWV 895. Wenn drei Themen im doppelten Kontrapunkt behandelt werden, spricht man in moderner Terminologie von sechsfachem Kontrapunkt. Tripelfuge. Die Tripelfuge ist eine Fuge mit drei Themen. Diese werden wiederum in getrennten Expositionen aufgestellt und anschließend miteinander kombiniert. Beispiele: J. S. Bach, Wohltemperiertes Klavier, Teil II, Fuge fis-Moll, Kunst der Fuge, Contrapunctus 8 und 11. Quadrupelfuge. Die Quadrupelfuge ist eine Fuge mit vier Themen. Als Beispiel wird oft die fragmentarisch überlieferte Schlussfuge von Bachs Zyklus „Die Kunst der Fuge“ genannt, die aber nach der Einführung des dritten Themas und dessen Kombination mit den Vorhergehenden abbricht. Da das Grundthema des Werks ebenfalls noch hinzupassen würde, ist eine geplante Quadrupelfuge wahrscheinlich, in dieser Form aber nicht überliefert. Fächerfuge. Dies ist eine Fuge, in der das Thema im Comes zuerst zur Quinte geht, dann aber der Dux nicht wieder auf der Tonika folgt, sondern erneut eine Quinte ansteigt. Diese Technik entwickelte sich mit dem Modulationsbedürfnis der Romantik. Beispiel: Johannes Brahms, „Warum ist das Licht gegeben den Mühseligen?“, aus: Zwei Motetten, op. 74. Hier wird das Fugenthema, welches in d-Moll beginnt, in a-Moll real beantwortet. Diese Beantwortung wird wieder real beantwortet in e-Moll. Diese wiederum in h-Moll und jene ein letztes Mal in fis-Moll. Das Fugenthema steigt in dieser Motette demnach gleich viermal hintereinander um eine Quinte an. Ebenfalls in Fächer- oder Pyramidenform gestaltet ist der erste Satz aus Béla Bartóks „Musik für Saiteninstrumente, Schlagzeug und Celesta“. Der erste Auftritt des Themas wird zunächst in der Oberquinte, dann in der Unterquinte beantwortet, es folgt die zweite Oberquinte, die zweite Unterquinte usw. Im ganzen Stück kommen somit Transpositionen des Themas auf jeder chromatischen Tonstufe vor. Nach sechs Einsätzen erklingt das Thema im Tritonus des Ausgangstons, d. h. in einem bei Bartok konstruktiv wichtigen Intervall. Dieser Einsatz ist gleichzeitig der dynamische Höhepunkt des Stücks. Spiegelfuge. In einer Spiegelfuge ist der gesamte kontrapunktische Satz spiegelbildlich umkehrbar. Dabei werden alle Abwärts- zu Aufwärtsbewegungen, die höchste Stimme zur tiefsten usw. Fugen dieser Art sind äußerst selten; Bach bringt drei Beispiele in der "Kunst der Fuge" (Contrapunctus 16, 17, 18), in denen jeweils der gesamte Satz in (tonaler, also nicht hundertprozentig 'exakter') Spiegelung wiederholt wird. Gegenfuge. Um eine Gegenfuge handelt es sich, wenn der "Comes" die Umkehrung des "Dux" ist und zwar meist so, dass Tonika und Dominante einander entsprechen (vgl. Umkehrung). Gegenfugen finden sich z. B. in J. S. Bachs "Kunst der Fuge", Contrapunctus 5, 6, 7 und 14. Fughetta. Die Fughetta oder Fugette ist eine Fuge von kleinerem Umfang, ohne eine breite Durchführung und schon im Thema von leichterer, graziöserer Haltung. Fugato. Ein Fugato ist ein fugenähnlicher Abschnitt in einer Sonate, einer Symphonie, einem Konzert etc. Dabei geht es nicht darum, das Thema durch alle Stimmen zu führen, es soll lediglich wirken wie eine Fuge. Oft sind diese Fugati nur wenige Takte lang. Beispiele sind die meisten Schlusssätze in den Cembalo-Suiten und Partiten oder in den Brandenburgischen Konzerten Nr. 2 und 5 sowie die schnellen Mittelteile von Bachs französischen Ouvertüren in den ersten Sätzen der Orchestersuiten. Händel bedient sich im Hallelujah-Chorus seines "Messias" gekonnt der Fugato-Technik. Mozart entwickelt u. a. im letzten Satz seiner "Jupiter-Sinfonie" ein äußerst effektvolles Fugato. Auch in der 9. Sinfonie Beethovens und der 5. Sinfonie Bruckners sind bekannte Fugati enthalten. Feuerbohne. Die Feuerbohne, in Österreich auch Käferbohne genannt, ("Phaseolus coccineus") ist eine Pflanzenart aus der Gattung "Phaseolus" in der Unterfamilie der Schmetterlingsblütler (Faboideae) innerhalb der Familie der Hülsenfrüchtler (Fabaceae oder Leguminosae). Die leuchtend hellrote Blüte ist namensgebend für die Feuerbohne. Weitere Trivialnamen sind Prunkbohne, Blumenbohne, Schminkbohne, Türkische Bohne, Arabische Bohne oder die griechischen Gigantes. Diese Nutzpflanze ist nahe verwandt mit einer Reihe anderer „Bohnen“ genannter Feldfrüchte. Erscheinungsbild und Blatt. Die Feuerbohne wächst als rankende, meist einjährige, jedoch in frostfreien Gebieten auch zwei- und mehrjährige krautige Pflanze. Die Feuerbohne ist eine Langtagpflanze. Die Keimblätter bleiben im Boden, ergrünen also nicht (hypogäische Keimung). Die Wurzel verdickt sich bei mehrjährigen Pflanzen zu einer im Durchmesser von 2 bis 3 Zentimeter spindelförmige Knolle. Der meist 2 bis 4, selten bis zu 7 Meter lange, im unteren Bereich runde und im oberen Bereich sechskantige Stängel ist stets links windend. Der Stängel ist anfangs schwach und kurz behaart und später verkahlend. Die wechselständig und spiralig am Stängel verteilt angeordneten Laubblätter sind in Blattstiel und Blattspreite gegliedert. Der sechskantige Blattstiel besitzt oben eine Rinne. Der Blattstiel und die Fiederstiele besitzen Gelenke, welche über Turgor-Veränderungen funktionieren. Die Laubblätter führen ausgeprägte nyktinastische Bewegungen aus, bei Eintritt der Dunkelheit nehmen sie eine Schlafstellung ein. Die unpaarig gefiederte Blattspreite besteht aus drei Fiederblättern. Die relativ großen Fiederblätter sind breit-eiförmig. Von den relativ rauhen Blattflächen ist die Oberseite deutlich behaart sowie glänzend dunkelgrün und die Unterseite heller grün; Netznerven sind deutlich erkennbar. Der Blattrand ist glatt oder seltener schwach geschweift. Die auf der Blattunterseite vorhandenen Drüsenhaare geben ein kaliumkarbonathaltiges Sekret ab, das hygroskopisch wirkt, dies ermöglicht die Aufnahme von Wasser aus der Luft. Sowohl die Nebenblätter (Stipeln) als auch die Nebenblättchen (Stipellen) der Fiederblätter sind relativ klein sowie kurz-lanzettlich. Blütenstand und Blüte. Die Blütezeit reicht von Juni bis September. Die Blütenstände sind bei einer Länge von 25 bis 35 Zentimeter meist länger als die Laubblätter. Die Blütenstände enthalten sechs bis zehn in den Achseln kleiner eiförmiger Tragblätter stehende Blütenpaare. Der Blütenstiel ist relativ lang. Die zwittrigen Blüten sind bei einer Höhe von 1,5 bis 3,0 Zentimeter zygomorph und fünfzählig mit doppelter Blütenhülle. Der Kelch besteht aus zwei Lippen und die oberen Kelchzähne sind deutlich kürzer als die anderen. Die kurze Fahne ist zurückgeschlagen. Die relativ großen Flügel sind breit. Das Schiffchen ist spiralig eingerollt. Der relativ kurze Griffel ist dick. Blütenökologisch handelt es sich bei der Feuerbohne um Pollen-Schmetterlingsblumen mit Bürstenmechanismus, so dass der Bestäubungsmechanismus nur von großen Apidae ausgelöst werden kann. Die Blüten sind selbststeril. Frucht und Samen. Die Hülsenfrüchte sind bis zu 25 cm lang. Die nierenförmigen Samen sind bis 2,5 cm lang und meistens braun, rot, schwarz und violett gescheckt oder vollständig weiß. Bei den Kulturformen bleiben die Hülsenfrüchte meist geschlossen, die Wildformen verbreiten sich als Austrocknungsstreuer. Die nierenförmigen Samen der Feuerbohne enthalten 18,4 % Rohprotein, 1,8 bis 2,9 % Rohfett, 4,4 % N-freie Extraktstoffe, 6,8 % Rohfaser, 3,8 % Asche sowie 15,0 % Wasser. Chromosomenzahl. Die Chromosomenzahl beträgt 2n = 22. Anbau und Verwendung. Die Feuerbohne stammt aus Südamerika und wurde im 17. Jahrhundert nach Europa gebracht. Da die Feuerbohne Kälte besser toleriert als die Gartenbohne, ist sie heute von Nord- bis Südeuropa anzutreffen und wird auch in höheren Lagen in Österreich kultiviert. In Mitteleuropa wird die Feuerbohne als einjährige Pflanze kultiviert; sie kann in Ländern mit milderem Klima mehrjährig sein. In Europa werden Feuerbohnen vielfach als Zierpflanzen gepflanzt. Zur Nahrungserzeugung kultiviert man die Feuerbohne wegen ihrer Wuchshöhe meist an 4 bis 5 Meter langen Stangen, die zur besseren Stabilität zeltförmig gegeneinander gestellt und miteinander verbunden werden. Die Blüten, die jungen Hülsenfrüchte und die getrockneten Samen werden gegessen. Die rohen Bohnen enthalten rund 1,2 % gesundheitsschädliche Lektine und sind daher giftig. Durch Erhitzen auf mindestens 75 °C wird die Struktur dieses Giftes zerstört, so dass gekochte Bohnen bedenkenlos verzehrt werden können. Als Spezialität gilt in der österreichischen Steiermark der Käferbohnensalat aus den gekochten Samen mit frischen Zwiebelscheiben, Essig und steirischem Kürbiskernöl. Auch sonst wird die Käferbohne in der Steiermark traditionell gerne verwendet und findet sich auf jedem Bauernmarkt. Gigantes. Die „Fasolia Gigantes“ („Riesenbohne“) ist eine griechische Sorte der Feuerbohne mit geschützter geographischer Bezeichnung. Sie blüht weiß. Die reifen Bohnen sind weiß bis hellbraun und bis zu 2,5 Zentimeter lang. Sie wird im Norden Griechenlands in den Regionen Kato Nevrokopi, Florina und Kastoria angebaut. Aus Griechenland und Nordafrika kommen schon früh im Jahr die frischen flachen Hülsen als „grüne Bohnen“ oder „breite Bohnen“ auf den Markt, die sich anhand der Größe und der raueren Haut von den Hülsen der Gartenbohne unterscheiden lassen. In der griechischen Küche spielt sie eine wichtige Rolle, dort kennt man vielfache Zubereitungsarten der jungen grünen Hülsen und der getrockneten Bohnensamen. Helmbohne. Illustration der Helmbohne ("Lablab purpureus"). Die Helmbohne ("Lablab purpureus"), auch Indische Bohne oder Ägyptische Bohne, Hyazinth-Bohne, früher Faselbohne genannt, ist einzige Pflanzenart der Gattung "Lablab" in der Unterfamilie Schmetterlingsblütler (Faboideae) innerhalb der Familie der Hülsenfrüchtler (Fabaceae oder Leguminosae). Diese Nutzpflanze ist nahe verwandt mit einer Reihe anderer, Bohnen genannter Feldfrüchte. Verbreitung. Die Helmbohne hat mit großer Wahrscheinlichkeit ihren Ursprung im (süd-)östlichen Afrika, weil nur dort Wildpflanzen der Art vorkommen. In Indien ist andererseits die größte morphologische Vielfalt der Nutzpflanze zu beobachten. Als tropische Pflanze benötigt sie hohe Temperaturen (>20 °C), aber relativ wenig Wasser; insbesondere verträgt sie keine Staunässe. Beschreibung. Die Helmbohne ist eine stark wuchernde, halbaufrechte bis kletternde krautige Pflanze, die bis zu 10 m weit (in gemäßigten Klima meist um 2 m) rankt. Sie ist ausdauernde, wird aber meist als einjährige Pflanze kultiviert, da sie, wie die meisten Bohnen keinen Frost verträgt. Sie bildet eine starke, bis zu 2 m tiefe Pfahlwurzel. Die Stängel sind oft stark behaart. Die wechselständigen Laubblätter sind gestielt und dreiteilig. Die Nebenblätter sind zurückgebogen. An einem achselständigen, bis 20 cm langen Stiel stehen traubigen Blütenstände. Die angenehm duftenden Blüten sind zygomorph und zwittrig. Die Kelchblätter sind verwachsen. Der Kelch ist zweilippig; die obere Kelchlippe ist nicht geteilt, die untere ist dreilappig. Die Kronblätter sind rosa bis violett oder weiß. Das einzelne Fruchtblatt enthält einige Samenanlagen. Die Blüte beginnt in Europa ab Juni. Die purpurroten Hülsenfrüchte der Ziersorten sind knapp 20 cm lang und enthalten viele Samen. Die eiförmigen Samen sind gut 1 cm lang und 0,5 cm dick. Die gefleckten, marmorierten oder einfarbigen Samen sind weiß über rotbraun bis schwarz. Das Tausendkorngewicht liegt zwischen 140 und 600 Gramm. Die typischen in Indien angebauten buschigen frühen Sorten sind weißblühend und haben eher helle Samenfarben (weiß, beige, hellbraun). Samen und Hülsen vieler Sorten sind im rohen Zustand giftig, da sie cyanogenen Glykoside enthalten. Das Gift wird durch Kochen zerstört. Allerdings gibt es große Sortenunterschiede. Nutzung. Die Verwendungsmöglichkeiten der Faselbohne sind vielfältig: Man kann die unreifen Hülsen und Samen sowie die reifen Samen gekocht essen. Die Pflanze wird auch als Bodendecker und Gründüngung zur Bodenverbesserung genutzt. In Europa und Nordamerika wird sie wegen ihrer duftenden, violetten Blüten als Zierpflanze zum Beranken von Zäunen oder als Sichtschutz u.ä. genutzt. Blätter und Stängel werden in den Tropen als Viehfutter verwendet. Sowohl in Afrika als auch in Ostasien hat sie zudem Bedeutung als Medizinalpflanze. Regionale Nutzung. In Kenia ist die 'Njahi' genannte Helmbohne im ganzen Land sehr beliebt, besonders bei den Kikuyu. Sie hat den Ruf, die Milchproduktion anzuregen und ist daher traditionell eine Hauptmahlzeit stillender Mütter. Die Bohnen werden gekocht und mit gemusten reifen und/oder halbreifen Bananen vermischt, was dem Gericht einen süßen Geschmack verleiht. Heutzutage geht die Produktion der Helmbohne im östlichen Afrika zugunsten von Bohnen ("Phaseolus vulgaris") und Augenbohnen ("Vigna unguiculata") zurück. Dieser Rückgang wird z.T. jedoch auch darauf zurückgeführt, dass kenianische Bauern in der Kolonialzeit gezwungen wurden, ihre traditionellen (Helm-)Bohnen für die Erzeugung von trockenen Bohnen ("Phaseolus vulgaris") aufzugeben, die für den Export bestimmt waren. Systematik. Die Gattung "Lablab" gehört zur Subtribus Phaseolinae der Tribus Phaseoleae in der Unterfamilie Schmetterlingsblütler (Faboideae) innerhalb der Familie der Hülsenfrüchtler (Fabaceae). Der Gattungsname "Lablab" wurde 1763 von Michel Adanson in "Familles des plantes", 2:325 veröffentlicht. Die Erstbeschreibung der Art erfolgte 1753 unter dem Namen "Dolichos lablab" durch Carl von Linné in "Sp. Pl.", 725. Der britische Biologe und Taxonom Bernard Verdcourt unterzog die Art 1970 einer Revision, woraufhin nun viele der früheren Namen als Synonyme zu gelten haben. Trotzdem hält sich der Name "Dolichos lablab" noch immer hartnäckig in wissenschaftlichen und populärwissenschaftlichen Veröffentlichungen. Synonyme von "Lablab purpureus" (L.) Sweet sind: "Dolichos lablab", "Lablab niger" Medik., "Lablab lablab" (L.) Lyons, "Vigna aristata" Piper, "Lablab vulgaris" (L.) Savi.. DR 877. Der Verbrennungstriebwagen 877 (später DB-Baureihe VT 04.0) war der erste Dieselschnelltriebwagen der Deutschen Reichsbahn (DR) und zugleich der erste Stromlinienzug in planmäßigem Einsatz. Mit ihm wurde ab 1933 zwischen Berlin und Hamburg die damals weltweit schnellste Zugverbindung hergestellt. Er war als Fliegender Hamburger bekannt. Daten und Entwicklung. Der aus zwei zusammengekuppelten Wagen bestehende Triebzug mit der damaligen Betriebsnummer "877a/b" wurde im Februar 1932 von der DR bei der Waggon- und Maschinenbau AG Görlitz (WUMAG) bestellt. Ausgeliefert wurde er Ende 1932 und abgenommen im Februar 1933. Eine Probefahrt am 19. Dezember 1932 zwischen dem Lehrter Bahnhof und dem Hamburger Hauptbahnhof legte der Schnelltriebwagen mit einem Geschwindigkeitsrekord zurück. In 142 Minuten hatte der Zug die Strecke von 286 km bewältigt. Neu am Fliegenden Hamburger waren die Stromlinienform (wobei dies aber der einzige Triebzug mit tiefgezogenem Frontdach blieb), die in Windkanalversuchen entwickelt wurde, die Leichtbauweise und der dieselelektrische Antrieb. Jeder der beiden Wagen hatte einen Maybach-Zwölfzylinder-Dieselmotor G05 mit daran angeschlossenem Gleichstrom-Generator und elektrischen Tatzlager-Fahrmotoren. Mit einer Leistung von 2 × 420 PS (2 × 302 kW) wurde bei Versuchsfahrten eine Höchstgeschwindigkeit von 175 km/h erreicht; für den planmäßigen Einsatz wurde eine Höchstgeschwindigkeit von 160 km/h festgelegt. Der Maybach-G05-Motor bereitete anfangs eine Reihe von Problemen, teils durch die viel zu starre Motoraufhängung im Triebdrehgestell, teils durch das zu schwach dimensionierte Kurbelgehäuse. Diese Probleme wurden mit der Weiterentwicklung zum G06 weitestgehend beseitigt. Franz Kruckenberg berücksichtigte dies bereits bei der Konstruktion seines Schnelltriebwagens DR 137 155 (nicht zu verwechseln mit dem ebenfalls von ihm konstruierten Schienenzeppelin) und setzte den Motor in eine Rahmenaufhängung statt in das bisher verwendete Triebdrehgestell. Der Maybach-Motor ist in seiner letzten Ausbaustufe als GTO 6 noch heute in diversen Loks der DB-Baureihe V 60 eingesetzt. Der Zug war mit einer Knorr-Druckluftbremse und einer Magnetschienenbremse ausgerüstet, mit denen er aus einer Geschwindigkeit von 160 km/h innerhalb von 800 Metern zum Halten gebracht werden konnte. Der Triebzug hatte 98 Sitzplätze in zwei Großraumwagen-Abteilen und ein viersitziges Büffet. Als Zeichen seiner Exklusivität wurde er wie die Wagen des „Rheingold-Zuges“ cremefarben und violett lackiert. Anfangs war das cremefarbene Fensterband auch um die Stirnseiten herumgezogen, auf späteren Abbildungen sieht man, dass der Bereich um die Stirnfenster bis zu einer viertelkreisförmigen Farbtrennkante ebenfalls in violett lackiert wurde. Dies geschah zum einen, um das Erscheinungsbild an die übrigen Schnelltriebwagen vom Typ Hamburg, Leipzig und Köln anzupassen, zum anderen litt die cremefarbene Stirnseite sehr schnell unter Verschmutzungen durch den Fahrbetrieb. Die Erfolge dieser Schnelltriebwagen führten dazu, dass 1935 in Kassel von Henschel & Sohn zusammen mit der Waggonfabrik Wegmann & Co. der stromlinienverkleidete, aber dampflokbetriebene „Henschel-Wegmann-Zug“ mit vergleichbaren Leistungen entwickelt und im Fernschnellverkehr zwischen Berlin und Dresden eingesetzt wurde. Einsatz. Ab 15. Mai 1933 verkehrte der Triebzug planmäßig zwischen Berlin Lehrter Bahnhof und Hamburg Hauptbahnhof. Für die 286 km lange Strecke benötigte er 138 Minuten, eine Zeit, die erst 64 Jahre später, im Juni 1997 von einem ICE-Zug der Deutschen Bahn AG mit 132 Minuten unterboten wurde. Aktuell (2015) bewältigen die schnellsten Züge die Strecke in 98 Minuten. Im Zweiten Weltkrieg wurde der Triebwagen abgestellt. Ab 1945 wurde er von der französischen Besatzungsmacht als Reisezug eingesetzt und 1949 an die Deutsche Bundesbahn zurückgegeben, die ihn 1951 modernisierte und als VT04 000 a/b in purpurroter Farbgebung einreihte. Zur Modernisierung gehörte auch der Einbau von Scharfenbergkupplungen an beiden Enden, um ihn zusammen mit weiteren VT 04 in Doppel- oder Dreifachtraktion einsetzen zu können. Der Triebwagen war 1955/1956 in Hamburg stationiert und wurde dort gelegentlich als Verstärkungstriebwagen des Kopenhagen-Express zwischen Hamburg und Großenbrode Kai eingesetzt. Er wurde 1957 abgestellt. Verbleib. Nach seiner Abstellung wurde das Fahrzeug dem Verkehrsmuseum Nürnberg übergeben, dort wurde der Triebwagen getrennt. Die vordere Triebwagenhälfte a wurde wegen Platzmangels nochmals in der Mitte zerschnitten, der Torso mit Führerstand ist heute im Verkehrsmuseum Nürnberg ausgestellt. Die Sektion b wurde 1961 im AW Nürnberg mangels Interessenten ebenso verschrottet wie die restliche Hälfte der Sektion a. Nachdem die Strecke Berlin–Hamburg bis 2004 zur Schnellfahrstrecke ausgebaut wurde, erschien in der DB-Mitarbeiterzeitung am 1. April 2005 als Aprilscherz die Meldung, das Fahrzeug werde als Unterstützung der ICE-Verbindungen wieder eingesetzt, wobei das Farbkleid bereits an das ICE-Schema angepasst sei, was auf einer Fotomontage zu sehen war. Weblinks. DR 000877 Foxtrott. Der Foxtrott (englische Schreibweise: Foxtrot, "Fuchsgang") ist ein Gesellschaftstanz, der paarweise getanzt wird und zu den Standardtänzen des Welttanzprogramms gehört. Geschichte. Entstanden ist der Foxtrott zwischen 1910 und 1915 in Nordamerika. Sowohl die tänzerischen Wurzeln als auch die Herkunft des Namens sind nicht eindeutig zu bestimmen, da sich hier zahlreiche Quellen deutlich widersprechen. Der Foxtrott nahm Elemente des "Ragtime, Onestepp, Twostep" sowie des von Vernon und Irene Castle choreografierten "Castle Walk" auf. Der Name Foxtrott geht möglicherweise auf den Schauspieler Harry Fox zurück, der für sein damals populäres Varieté „Harry Fox & the Zigfeld Follies“ Schritte aus "Onestep" und "Castle Walk" übernahm. Fox verbreitete so diesen Tanz in der Öffentlichkeit. Der Foxtrott wurde zum Synonym für eine Reihe von Geh- und Schreittänzen, von denen die meisten nicht mehr existieren. Nach Europa kam der Foxtrott erst nach dem Ersten Weltkrieg. 1920 wurde das vorhandene Schrittmaterial auf einer Konferenz in England zum ersten Mal geordnet. Seit 1924 unterscheidet man zwischen der langsamen Variante, dem "Slowfox" sowie dem schnelleren "Quickstepp". Ins Welttanzprogramm wurde der Foxtrott 1963 mit aufgenommen, als Turniertanz wurde er in Europa jedoch nie verwendet. Technik. Während Slowfox und Quickstepp technisch sehr anspruchsvoll sind, ist der Foxtrott recht unkompliziert. Die Schritte werden normal gesetzt, besondere Körperhaltungen, Posen oder schwierige Figuren sind nicht vorgesehen; einzig das „Auf-und-ab-Hüpfen“ – vor allem des Kopfes – bei den schnellen Seitschritten gilt es zu vermeiden. Der Foxtrott ist im Grunde ein in der Komplexität reduzierter Quickstepp, der dazu dient, Tanzschülern den Einstieg zu erleichtern. Deswegen wird auch auf praktisch jegliche Technik verzichtet. Rhythmus und Musik. Der Foxtrott wird auf Musik im 4-Takt getanzt, wobei ein kompletter Grundschritt sechs Schläge und damit anderthalb Takte umfasst. Dadurch wird der Grundschritt auf den Takt bezogen zeitlich versetzt, wie es auch beim Abkömmling Discofox der Fall ist. Die Geschwindigkeit ist in einem weiten Rahmen möglich. Der Foxtrott wird traditionell auf Popmusik getanzt, ist aber in Tanzschulen besonders deswegen beliebt, weil er sich auch gut auf Hip-Hop-Musik tanzen lässt. Grundschritt. Takt: 1 + 2 + 3 + 4 +|1 + 2 + 3 + 4 + Grundschritt: Legende: X = Schritt, = ein Grundschritt. Den „Seit-Schluss“-Teil führt man allgemein doppelt so schnell aus wie die restlichen Schritte. Frühgeschichte. Die Frühgeschichte ist ein Teilgebiet der archäologischen Disziplin Ur- und Frühgeschichte. Die Frühgeschichte bezeichnet eine Periode der menschlichen Geschichte. Die Frühgeschichte befasst sich mit jenen Kulturen der Menschheit, über die erste schriftliche Aufzeichnungen (teils aus anderen Kulturen) bekannt sind, über die aber auch ein Teil der Erkenntnisse durch archäologische Grabungen gewonnen wird. Sie beginnt, regional sehr unterschiedlich, mit dem ersten Auftreten von Schriftzeugnissen und reicht bis in die historische Zeit, der Geschichte im engeren Sinne. Die vorangehende Epoche ist die Urgeschichte, welche bis zurück in die Zeit des Auftretens erster Steinwerkzeuge in der Menschheitsgeschichte reicht, vor etwa 2,5 Millionen Jahren. Die nachfolgende Epoche ist die Geschichte im engeren Sinne, in der historische Entwicklungen wesentlich durch Auswertung schriftlicher Quellen erkannt werden und die materielle Kultur oft parallel archäologisch erschlossen wird. Regionale Frühgeschichte. In den Regionen archäologischer und historischer Forschung setzt die Schriftkultur zu unterschiedlichen Zeiten ein. Deshalb lässt sich Frühgeschichte nur regional definieren. Entwicklungen im Fernen Osten, in Nordamerika, in Afrika und in Australien werden in eigenen Disziplinen behandelt. Der Nahe Osten, der Mittlere Osten, Nordafrika und der Mittelmeerraum sind dagegen jene Gebiete, für welche eine frühgeschichtliche Phase üblicherweise bestimmt werden kann und behandelt wird. Südeuropa. In Südeuropa beginnt die Frühgeschichte mit der minoischen Kultur und dem Einsetzen der Archanesschrift um 2000 v. Chr. in der Stufe "Mittelminoisch I". Abgelöst wurde sie um 1450 v. Chr. von der mykenischen Kultur während der Stufe Späthelladisch II. Mit den schriftführenden Kulturen der Griechen und Römer endet die Frühgeschichte zu Beginn der Archaik, mit der in Südeuropa die historische Zeit einsetzt. Mit der materiellen Kultur befassen sich hier die Fächer Klassische Archäologie und Provinzialrömische Archäologie. Mitteleuropa. Der Übergang von der Urgeschichte zur Frühgeschichte lässt sich für Mitteleuropa nicht exakt definieren. Üblicherweise gilt das Einsetzen römischer Schriftzeugnisse über Germanen und Kelten außerhalb des Römischen Reiches (zu nennen sind vor allem Werke von Caesar und Tacitus) als Beginn der Frühgeschichte. Die römisch beherrschten Gebiete Mitteleuropas sind dem Fachgebiet provinzialrömische Archäologie zugeordnet, hier setzt die Frühgeschichte als archäologische Spezialdisziplin erst mit dem Ende der Antike ein. Daher wird gelegentlich auch die römische Kaiserzeit im "Barbaricum" nicht als frühgeschichtlich, sondern als eigener Zeitabschnitt zwischen Vorgeschichte und eigentlicher Frühgeschichte bewertet. Gegenstand der Forschung und Diskussionen ist seit längerem unter anderem die Problematik kultureller und politischer Kontinuität bzw. Diskontinuität im Übergang von der Spätantike zum Frühmittelalter. In der Archäologie Mitteleuropas wird die Frühgeschichte unterteilt in römische Kaiserzeit (genauer: „Römische Kaiserzeit im Barbaricum“ in Abgrenzung zur Verwendung des Begriffes in der klassischen Archäologie), Völkerwanderungs­zeit und Frühes Mittelalter, das wiederum in Merowinger­zeit und Karolinger­zeit untergliedert wird. Nordeuropa. In der Archäologie Nordeuropas gelten auch die Vendelzeit 550–800 n. Chr. und die anschließende Wikingerzeit bis 1050 n. Chr. als frühgeschichtliche Perioden. Weblinks. !Fruhgeschichte !Fruhgeschichte Fußball-Weltmeisterschaft. Die Fußball-Weltmeisterschaft der Männer, offiziell "FIFA World Cup" oder "FIFA Fussball-Weltmeisterschaft", ist ein Fußballturnier für Nationalmannschaften, bei dem alle vier Jahre der Fußball-Weltmeister ermittelt wird. Veranstalter ist der Weltfußballverband FIFA. Die Endrunde – eine ca. vierwöchige Veranstaltung – gilt nach den Olympischen Spielen als das bedeutendste Sportereignis der Welt. Die bislang letzte Endrunde fand 2014 in Brasilien statt, amtierender Weltmeister ist Deutschland. Die Endrunde der nächsten Fußball-Weltmeisterschaft wird 2018 in Russland ausgetragen. Geschichte. Die Zeit des organisierten Fußballs begann 1863 mit der Gründung der englischen Football Association in London. Zu diesem Zeitpunkt war das britische Empire die einflussreichste Nation der Welt, es hatte auf der gesamten Welt seine Stützpunkte und britische Schiffe waren in jedem Hafen zu finden. Diese historische Besonderheit war die Grundlage für die weltweite Verbreitung der englischen Fußballregeln innerhalb einer Generation. Die ersten Spiele außerhalb der Britischen Inseln wurden in Seehäfen von britischen Matrosen organisiert. Während des ausgehenden 19. Jahrhunderts wurden in Europa und Amerika viele Nationalverbände gegründet, was erstmals die Organisation internationaler Begegnungen ermöglichte. Das erste Spiel zwischen Vertretern nationaler Verbände fand am 30. November 1872 auf dem Hamilton Crescent, im heutigen Glasgower Stadtteil Partick zwischen Schottland und England statt, die Begegnung endete torlos. Der 21. Mai 1904 war ein weiterer Meilenstein der Fußballgeschichte. An diesem Tag wurde im französischen Verbandshaus die FIFA gegründet und damit ein nationales Denken verhindert. Dennoch sollte es viele Jahrzehnte dauern, bis die amerikanischen Verbände einen bedeutenden Einfluss auf die von den europäischen Verbänden geprägte Politik der FIFA nehmen konnten. Im Juli 1905 fand der zweite FIFA-Kongress statt, und der Niederländer Carl Anton Wilhelm Hirschmann machte den Vorschlag einer Weltmeisterschaft. Für diese rein europäische Veranstaltung hatte er bereits einen Spielplan erstellt, Austragungsland sollte die Schweiz sein. Die Kongressteilnehmer waren begeistert, aber vielen Worten folgten keine Taten. Bis zur ersten Fußball-WM 1930 in Uruguay hatten die Olympia-Turniere quasi den Stellenwert einer Weltmeisterschaft. Aus Sicht der Olympia-Verantwortlichen war Fußball für die Spiele ungeeignet, da es sich nicht um eine Wettkampfsportart, sondern nur um ein Spiel handelte, und sie betrachteten diese Sportart als Showeinlage. 1896 war Fußball nicht im olympischen Programm, und vier Jahre später in Paris waren nur Frankreich, Belgien und England anwesend. 1904 in St. Louis traten drei nordamerikanische Mannschaften gegeneinander an. Ein Glücksfall für die Zukunft des internationalen Fußballs war die Vergabe der Spiele an London 1908. Im Heimatland des Fußballs konnte man eine professionelle Organisation erwarten. Neben England stellten die Verbände aus Dänemark, Schweden und den Niederlanden eine Mannschaft auf. Frankreich schickte sogar zwei Teams in die britische Hauptstadt. Sieger wurden überzeugend die Engländer, die im Finale Dänemark, die damals stärkste Mannschaft Kontinentaleuropas, besiegten. 1912 nahmen bereits 13 Mannschaften am olympischen Fußballturnier teil. Die Finalbegegnung wiederholte sich, mit einem 4:2 konnten die Engländer erneut die Goldmedaille erringen. 1920 war Antwerpen der Mittelpunkt der Fußballwelt, und 14 Mannschaften kämpften um den Olympiasieg. Im Finale standen sich Belgien und die Tschechoslowakei gegenüber. Während des Spiels fühlten sich die Tschechoslowaken vom Schiedsrichter benachteiligt und verließen das Spielfeld, Belgien wurde zum Sieger erklärt. Die Olympischen Spiele 1924 wurden zum ersten Weltturnier des Fußballs. Neben den Europäern schickte Ägypten ein Team. Ebenfalls dabei war eine US-amerikanische Auswahl, die allerdings zum Großteil aus europäischen Einwanderern bestand, sowie das Team aus Uruguay. Die überzeugende Vorstellung südamerikanischen Fußballs vier Jahre zuvor führte dazu, dass vor dem olympischen Turnier von 1928 viele Mannschaften aus Südamerika zu Gastspielen in Europa eingeladen wurden. Die Olympiateilnehmer mussten Amateure sein, was zur Absage einiger wichtiger Länder führte. Der FIFA war zunehmend klar, dass die Amateurregel des IOC ein Problem darstellte. Deshalb entschied sie sich am 28. Mai 1929 für die Organisation einer eigenständigen Weltmeisterschaft. Neben Uruguay wollten auch einige europäische Länder diese Veranstaltung ermöglichen. Deren Gruppe wurde rasch kleiner und am Ende waren nur noch Italien, Ungarn und Uruguay übrig. Der argentinische Delegierte Adrian Beccar Varela hielt eine Rede für sein Nachbarland, was die beiden europäischen Mitbewerber überzeugte. Somit wurde Montevideo zum Austragungsort der ersten Fußball-Weltmeisterschaft bestimmt. Offizielle Bezeichnung. Die offizielle deutschsprachige Schreibweise der Fußball-Weltmeisterschaft ist "FIFA Fussball-Weltmeisterschaft". Dabei entspricht zwar die Schreibweise des Bestandteils "Fussball" der amtlichen Regelung der deutschen Rechtschreibung (§ 25 E2, der Weltfußballverband FIFA hat seinen Hauptsitz in Zürich, Schweiz), nicht aber das Leerzeichen hinter "FIFA" (s. § 44, Abs. 1). Vergabeverfahren zum Austragungsort. Über den Austragungsort einer Fußball-Weltmeisterschaft entscheidet der Exekutiv-Ausschuss der FIFA. Bei Stimmengleichheit zählt die Stimme des FIFA-Präsidenten doppelt. Seit dem Jahr 1958 fanden alle Fußball-Weltmeisterschaften immer abwechselnd in Europa und einem anderen Kontinent statt. Im Jahr 2000 beschloss die FIFA ein so genanntes Rotationsverfahren, demzufolge Weltmeisterschaften ab 2010 im regelmäßigen Wechsel zwischen den sechs Kontinentalverbänden stattfinden werden. Dieses Verfahren wurde 2007 durch das Exekutivkomitee wieder abgeschafft. Ausgeschlossen sind nur die Kontinentalverbände, in welchen die letzten beiden Weltmeisterschaften stattgefunden haben. Für die Fußball-Weltmeisterschaft 2018 bedeutete dies, dass Länder aus dem Afrikanischen Fußballverband und dem Südamerikanischen Fußballverband als Gastgeber ausgeschlossen waren. Am 19. Dezember 2008 beschloss das FIFA-Exekutivkomitee auf seiner Sitzung in Tokio, die WM 2018 und die WM 2022 gleichzeitig zu vergeben. Qualifikation. Um an der Endrunde der Fußball-Weltmeisterschaft teilnehmen zu dürfen, müssen sich die Mannschaften über die Vorrunde qualifizieren (mit Ausnahme des Gastgeberlandes, das automatisch bei der Endrunde startberechtigt ist). Bei den Endrunden von 1938 bis einschließlich 2002 war neben dem Gastgeberland auch der amtierende Weltmeister automatisch startberechtigt. Die Qualifikation wird innerhalb der einzelnen Kontinentalverbände ausgetragen. Jedem Kontinentalverband steht eine festgelegte Zahl an Endrunden-Teilnehmern zu, wobei es auch „halbe“ Startplätze gibt, die sich in einer interkontinentalen Relegation durchsetzen müssen. Der Modus in den Qualifikationsturnieren ist von Kontinent zu Kontinent unterschiedlich. So spielen in der südamerikanischen Zone alle zehn Nationalmannschaften in einer Gruppe. Die vier besten Teams der Gruppe sind für die Endrunde qualifiziert, während die fünftplatzierte Nationalmannschaft in Relegationsspielen gegen einen nordamerikanischen Vertreter um einen weiteren Startplatz spielt. In den anderen Kontinentalverbänden werden die Teilnehmer auch in Gruppenspielen oder im K.-o.-System ermittelt. Endrunde. Die qualifizierten Mannschaften spielen mit dem vorher bestimmten Gastgeberland in einem ca. vier Wochen dauernden Wettstreit um den Titel des Weltmeisters, welcher alle vier Jahre vergeben wird. Der Modus der Endrunde wurde im Lauf der Geschichte mehrfach verändert. Frühere Modi sind weiter unten beschrieben. Der aktuell gültige Modus ist seit 1998 im Einsatz. In der ersten Turnierphase (Gruppenphase) sind die Mannschaften nach dem Zufallsprinzip in mehrere Gruppen mit jeweils vier Mannschaften unterteilt, wobei einige Mannschaften nach gewissen Kriterien (Gastgeber, Weltmeister, FIFA-Rangliste) gesetzt und die anderen Mannschaften aus vorwiegend regional orientierten Lostöpfen gezogen werden. Dadurch soll verhindert werden, dass in der Gruppenphase bereits die Turnierfavoriten aufeinandertreffen oder eine Gruppe nur aus Nationalmannschaften eines Kontinents besteht. Jedes Team hat in der Gruppenphase drei Spiele gegen seine Gruppengegner zu bestreiten. Wie im Fußball weltweit Standard, bringt ein Sieg drei Punkte (seit 1994, vorher zwei), ein Unentschieden einen Punkt und eine Niederlage keinen Punkt. Die beiden letztplatzierten Mannschaften jeder Gruppe scheiden nach den drei Spielen der Gruppenphase aus. Bei Punktgleichheit von zwei oder mehr Mannschaften wird die Rangfolge in der Gruppe gemäß Art. 42 Ziffer 5 der FIFA-Regeln für die WM 2014 folgendermaßen ermittelt: Erstes Kriterium ist die Tordifferenz aus allen Gruppenspielen. Sollte diese gleich sein, zählt die höhere Zahl der in allen Gruppenspielen erzielten Tore. Sollten zwei oder mehr Mannschaften in allen diesen Kriterien übereinstimmen, entscheidet der direkte Vergleich dieser Mannschaften (wieder in der Reihenfolge Punkte, Tordifferenz und Anzahl der geschossenen Tore aus den Spielen dieser Mannschaften untereinander) und letztlich das Los. In den kommenden Runden gilt das K.-o.-System, d. h. nur der Sieger kommt in die jeweils nächste Runde. Steht es nach Ablauf der regulären 90-minütigen Spielzeit unentschieden, geht das Spiel in die Verlängerung. Für die Entscheidung in der Verlängerung galt zwischenzeitlich die Golden-Goal-Regel. Seit der WM 2006 findet die Verlängerung wieder in klassischer Form statt: Nach einer Pause von fünf Minuten wird ohne weitere Pause (nur mit Seitenwechsel) zwei Mal 15 Minuten gespielt. Die Mannschaft, die in der Verlängerung mehr Tore erzielt, hat gewonnen. Sollte nach der Verlängerung immer noch kein Sieger feststehen, entscheidet ein Elfmeterschießen. Nachdem in der Gruppenphase die Hälfte der Mannschaften ausgeschieden sind, verbleiben 16 Teams, die in den Achtelfinalspielen um ein Weiterkommen kämpfen. Dabei spielt jeder Gruppenerste gegen den Gruppenzweiten einer anderen Gruppe. Die Sieger der Achtelfinals bestreiten eines von vier Spielen, die als Viertelfinale bezeichnet werden. Die vier Sieger dieser Partien dürfen in eines von zwei Halbfinalen einziehen. Die beiden Verlierer der Halbfinalspiele bestreiten das Spiel um den dritten Platz der WM, welches am Vorabend des Finalspiels stattfindet und auch als „Kleines Finale“ bezeichnet wird. Das Finale der Fußball-Weltmeisterschaft ist eines der prestigeträchtigsten und beliebtesten sportlichen Ereignisse, die ein Fußballspieler erleben kann. Das Siegerteam des Finalspiels bekommt den Pokal und darf sich für vier Jahre Weltmeister nennen. Der Austragungsmodus im Wandel. Der Austragungsmodus der Fußballweltmeisterschaften wurde mehrmals geändert. Das erste Turnier 1930 sollte eigentlich komplett im K.-o.-System durchgeführt werden. Da aber nur 13 Mannschaften angereist waren, entschloss man sich, vor dem Start zunächst eine Gruppenphase mit drei Gruppen à drei und einer Gruppe à vier Mannschaften durchzuführen. Die Sieger der Gruppen spielten im Halbfinale gegeneinander, die beiden Sieger bestritten das Finale. 1934 und 1938 wurde das Turnier komplett im K.-o.-System durchgeführt, bei einem Unentschieden nach Verlängerung gab es einen Tag (1934) bzw. zwei bis fünf Tage (1938) später ein Wiederholungsspiel. Danach hätte ggf. das Los entschieden. 1950 kehrte man zum Gruppenmodus in der Vorrunde zurück. Da drei qualifizierte Mannschaften auf die Teilnahme verzichteten gab es zwei Gruppen mit vier, eine Gruppe mit drei und eine mit zwei Teams. Die vier Gruppensieger spielten anschließend in einer weiteren Gruppenrunde den Weltmeister aus, so dass es kein offizielles Endspiel gab. Jedoch ergab es sich, dass im dritten Spiel die beiden bestplatzierten Mannschaften aufeinandertrafen. 1954 wurde die Vorrunde in einem etwas ungewöhnlichen Gruppenmodus mit vier Gruppen durchgeführt. Pro Gruppe waren zwei Teams gesetzt, die nicht gegeneinander spielen mussten. Endeten Spiele in der Gruppenphase remis, wurden sie um zweimal 15 Minuten verlängert. Bei Punktgleichheit des Zweiten und Dritten gab es ein Entscheidungsspiel. Anschließend fand eine K.-o.-Runde statt, bei der – wenn man das damals nicht gültige Torverhältnis heranziehen würde – jeweils die Gruppen-„Sieger“ und die -„Zweiten“ gegeneinander spielten, so dass im Endspiel der „beste“ Gruppensieger (Ungarn) gegen den „besten“ Zweiten (Deutschland) stand. Tatsächlich wurden aber bei gleichen Punkten die Gruppensieger per Los ermittelt, wodurch Mannschaften mit einem schlechteren Torverhältnis (Jugoslawien und Österreich) Gruppensieger wurden. 1958 wurde die Vorrunde ebenfalls im Gruppenmodus, aber ohne gesetzte Teams gespielt, bei Punktgleichheit gab es aber weiterhin Entscheidungsspiele. Die K.-o.-Runde wurde im Überkreuzvergleich (Erster gegen Zweiter einer anderen Gruppe) durchgeführt. 1962 bis 1970 wurde für die Ermittlung der Gruppensieger und -zweiten bei Punktgleichheit das Torverhältnis (Quotient) herangezogen, seit 1974 die Tordifferenz, so wie heute noch üblich. 1974 und 1978 folgte nach der Vorrunde mit 16 Mannschaften eine Zwischenrunde, in der je zwei Gruppensieger und Gruppenzweite in zwei Gruppen wieder jeder gegen jeden die Endspielteilnehmer ausspielten. Die beiden Zwischenrundenzweiten spielten den dritten Platz aus. Es gab also keine Halbfinalspiele. 1982 wurde erstmals ein Turnier mit 24 Mannschaften durchgeführt. Nach der Vorrunde im nun üblichen Gruppenmodus erfolgte eine Zwischenrunde mit vier Gruppen à drei Mannschaften. Die Gruppensieger spielten im Halbfinale gegeneinander die beiden Finalisten aus. Bei diesem Turnier wurde auch erstmals ein Elfmeterschießen durchgeführt, wenn ein Spiel nach Verlängerung noch remis stand. 1986 bis 1994 qualifizierten sich neben den sechs Gruppensiegern und Gruppenzweiten noch die vier besten Gruppendritten für das erstmals seit 1938 ausgetragene Achtelfinale. Seit 1998 wird das Turnier mit 32 Mannschaften durchgeführt. Für das Achtelfinale qualifizieren sich die acht Gruppensieger und -zweiten, wobei zwei Mannschaften aus derselben Gruppe erst wieder im Spiel um den dritten Platz bzw. im Finale aufeinandertreffen können. 2002 jedoch sollte verhindert werden, dass die beiden Veranstalter (Japan und Südkorea) zu früh aufeinandertreffen können, wodurch zwei Mannschaften aus der gleichen Gruppe (Brasilien und Türkei) im Halbfinale erneut gegeneinander spielten. Die Trophäen. Bei der ersten Fußball-Weltmeisterschaft 1930 wurde bekannt gegeben, dass derjenige Verband, dessen Auswahl den Weltpokal dreimal gewinnt, diesen behalten dürfe. Durch den dritten WM-Gewinn der brasilianischen Nationalmannschaft 1970 ging die Trophäe, welche 1946 nach dem FIFA-Präsidenten Coupe Jules Rimet benannt worden war, in den Besitz des Brasilianischen Fußballverbandes über. Das Original wurde 1983 gestohlen und vermutlich eingeschmolzen. Aus 53 Entwürfen wurde der von dem Italiener Silvio Gazzaniga entworfene FIFA-WM-Pokal ausgewählt, der seit 1974 an den Turniersieger vergeben wird. Der Wanderpokal ist 36,8 cm hoch, wiegt 6175 g und besteht aus 18-karätigem Gold sowie zwei Ringen aus Malachit. Zunächst durfte der amtierende Fußball-Weltmeister den Pokal bis zur nächsten WM behalten. Nun muss der Original-Pokal auf Verlangen der FIFA spätestens bei der Abreise aus dem Gastgeberland der Endrunde der FIFA zurückgegeben werden. Der Weltmeister erhält eine vergoldete Replik. Auch die Replik bleibt Eigentum der FIFA und muss dieser auf Verlangen zurückgegeben werden. Seit 2006 wird der Pokal vor jeder Endrunde im Rahmen der „FIFA World Cup Trophy Tour“ auf eine mehrmonatige Weltreise geschickt und anschließend im Gastgeberland präsentiert. Die Mannschaften auf dem ersten, zweiten und dritten Platz bekommen Medaillen aus Gold, Silber oder Bronze. Erstteilnahmen. Insgesamt sind in der FIFA 209 nationale Fußballverbände registriert. (Stand: November 2013.) Bis einschließlich der WM 2014 waren 77 dieser Verbände bei einer Weltmeisterschafts-Endrunde mit einer eigenen Auswahl vertreten. Die folgende Liste gibt einen Überblick der WM-Premieren aller bisherigen Teilnehmer einschließlich der zum jeweiligen Zeitpunkt gültigen Bezeichnung ihres Staates bzw. Teilstaates. Ranglisten. Seit einigen Jahren wird die Anzahl der bisher erworbenen Weltmeistertitel durch Sterne dargestellt, die meist oberhalb der Logos des Fußballverbands auf dem Trikot der Nationalmannschaften angebracht sind. Als erste Mannschaft trug Brasilien 1971 drei Sterne, heute sind es fünf (siehe auch Meisterstern). Rekordspieler. Lothar Matthäus, der Spieler mit den meisten WM-Einsätzen Miroslav Klose, der Spieler mit den meisten WM-Toren Auszeichnungen. 1 = Für 2010 wurde von der FIFA ebenfalls eine Internetabstimmung gestartet, in der Deutschland vor Uruguay führte, die aber nicht offiziell beendet und ausgewertet wurde. Nachträglich ermittelte die FIFA, per Internet-Abstimmung, auch den Besten Jungen Spieler für die Weltmeisterschaften 1958 bis 2002. Französische Euromünzen. Die französischen Euromünzen sind die in Frankreich in Umlauf gebrachten Euromünzen der gemeinsamen europäischen Währung Euro. Am 1. Januar 1999 trat Frankreich der Eurozone bei, womit die Einführung des Euros als zukünftiges Zahlungsmittel gültig wurde. Umlaufmünzen. Wie die meisten Euroländer prägt Frankreich bereits seit 2007 seine Euromünzen mit der neu gestalteten Vorderseite (neue Europakarte). Einzelnachweise. Franzosische Euromunzen Finnische Euromünzen. Die finnischen Euromünzen sind die in Finnland in Umlauf gebrachten Euromünzen der gemeinsamen europäischen Währung Euro. Am 1. Januar 1999 trat Finnland der Eurozone bei, womit die Einführung des Euros als zukünftiges Zahlungsmittel gültig wurde. Umlaufmünzen. Die 1- und 2-Cent-Münzen werden nur in sehr geringer Auflage geprägt und nur aufgrund der von der EZB aufgelegten Pflicht, diese prägen zu müssen. Sie sind im normalen Zahlungsverkehr nicht im Umlauf. Hauptgrund dafür ist die Tradition, keine kleinen Münzen zu verwenden, sowie die Rundung kleiner Beträge in den nordeuropäischen Ländern bei Barzahlung. Der Staatssekretär im finnischen Finanzministerium erklärte sogar, dass diese kleinen Münzen oftmals weggeworfen würden, da sie praktisch keinen Wert hätten und auch von Banken nur gegen hohe Gebühren eingetauscht würden. Nachdem 2002 die Ausgabe der 1- und 2-Cent-Münzen noch bei der Zentralbank in Helsinki praktiziert wurde, entwickelte sich eine hohe Nachfrage am öffentlichen Schalter der Zentralbank und eine Schlange von mehreren Kilometern. Die Polizei verbot daraufhin den Verkauf der Münzen. Seitdem werden die Münzen nur noch an Händler zum Nominalwert verkauft, die die Münzen zu einem beliebigen Preis weiterverkaufen dürfen. Für eine Rolle 1-Cent-Münzen muss in Finnland mit einem Preis von mindestens 20 Euro gerechnet werden, 2-Cent-Münzen sind teurer und die gemischten Rollen in Bezug auf das Prägungsjahr billiger als die, die nur Münzen aus einem Jahr beinhalten. Ein- und Zwei-Cent-Münzen zählen als gesetzliches Zahlungsmittel und müssen daher auch in Finnland von Geschäften angenommen werden, etwa wenn Touristen sie aus anderen Staaten der Euro-Zone mitbringen. Dies ändert jedoch nichts daran, dass bei Barzahlung der Endbetrag laut Gesetz immer auf 5 Cent gerundet wird. In der Praxis werden Ein- und Zwei-Cent-Münzen trotz der gesetzlichen Verpflichtung nicht immer angenommen. Alle Münzen werden in der finnischen Münzprägestätte in Helsinki geprägt. Erste Prägeserie (1999–2006). Die Münzen der ersten Prägeserie haben drei Motive, zwei davon auf nur je einer Münze. Das Design für die sechs kleinsten Münzen stammt von Heikki Häiväoja, der Entwurf für die 1-Euro-Münze von Pertti Mäkinen und die nationale Seite der 2-Euro-Münze von Raimo Heino. Alle Designs enthalten die zwölf Sterne der EU und das Prägejahr sowie das Münzzeichen "M", das Initial des finnischen Münzmeisters Raimo Makkonen. Umgestaltungen (ab 2007). 2007 begann Finnland mit der von der EU geforderten Neugestaltung der Münzen. Gleichzeitig wurden diese Münzen, wie in den meisten Euroländern, mit der neu gestalteten Vorderseite mit erweiterter Europakarte geprägt. Die Motive der Münzen wurden dabei nicht geändert, nur wenige Details waren von der Umgestaltung betroffen. Das Münzmeisterzeichen "M" entfiel, dafür wurden die Länderkennung "FI" und zwischen dem 8- und dem 9-Uhr-Stern das Logo der finnischen Münzprägestätte ergänzt. 2008 wurde das Münzzeichen nach innen verschoben, sodass es sich nun nicht mehr auf dem äußeren Ring befindet. Mitte 2010 erhielt die Prägestätte ein neues Logo. Auf den Kursmünzen wird dieses seit 2011 verwendet. 10 Euro. Material: 925er Silber – Münzdurchmesser: 38,6 mm – Gewicht: 27,4 g (bis 2004); 25,5 g (ab 2005) 50 Euro. Material: Bimetall, Ring: 925er Silber, Kern: 750er Gold – Münzdurchmesser: 27,25 mm – Gewicht: 12,8 g Einzelnachweise. Euromuenzen Fennek. Der Fennek oder Wüstenfuchs ("Vulpes zerda") ist eine Fuchsart aus der Gattung "Vulpes". Er ist der kleinste aller Wildhunde und bewohnt die Sandwüsten Nordafrikas. Die Art zeigt zahlreiche Anpassungen an das Wüstenklima, etwa die geringe Körpergröße, behaarte Sohlen und große Ohren, die der Wärmeregulation dienen. Der Fennek ist nacht- und dämmerungsaktiv und frisst als Allesfresser sowohl Wirbellose und kleine Wirbeltiere als auch Früchte und Knollen. Fenneks leben für gewöhnlich in Paaren; die meist zwei bis fünf Jungen pro Wurf kommen zwischen März und April zur Welt. Während der Trage- und Säugezeit versorgt und beschützt das Männchen das Weibchen und den Wurf. Der Erdbau des Fenneks ist im Regelfall einfach und wird meist in lockeren Sand gegraben, nur in festerem Untergrund nimmt er komplexere Formen an. Der nächste Verwandte des Fenneks ist der Afghanfuchs ("Vulpes cana"), der auf der Arabischen Halbinsel, im Iran und in Afghanistan lebt. Obwohl Fenneks regelmäßig wegen ihres Fells oder für touristische Schauvorführungen gefangen werden, gilt der Bestand nicht als bedroht. Die IUCN klassifiziert die Art als "Least Concern" (nicht gefährdet). Der Fennek wird seit der Jungsteinzeit von den Menschen Nordafrikas als Nahrungs- und Felllieferant genutzt und seit dem 20. Jahrhundert vor allem in Nordamerika auch als Haustier gehalten. Körperbau und Physiologie. Der Fennek ist die kleinste aller Hundearten und verfügt über sehr große Ohren. Seine Kopf-Rumpf-Länge beträgt 333–395 mm, der Schwanz wird 125–250 mm lang. Sein Geburtsgewicht beträgt zwischen 80 und 187 g, das Gewicht adulter Tiere 1,0 bis 1,5 kg. Die Ohren machen 20 % der Körperoberfläche aus und werden 86–104 mm lang. Damit sind sie proportional größer als bei allen anderen Hunden. Schnauze und Beine sind schlank und zierlich. Der Schädel entspricht in den Proportionen dem anderer "Vulpes"-Arten, besitzt aber sehr große Paukenhöhlen, ein typisches Merkmal von Wüstenbewohnern. Die Zahnformel lautet I 3/3 – C 1/1 – P 4/4 – M 2/3, der Fennek hat also insgesamt 42 Zähne. Sie sind kleiner und schmaler als bei anderen Arten der Gattung. Der Penisknochen (Baculum) ist 3 mm breit und mit 31–36 mm vergleichsweise lang. Zwei Fenneks im Tokioter Zoo. Details der Fellzeichnung sowie die Ohr- und Zehenbehaarung sind gut zu erkennen. Das Fell ist sandbraun mit einer beigen, rötlichen oder grauen Tönung. Die Körperunterseite ist heller gefärbt als die Oberseite. Die Ohren besitzen eine dunkle Rückseite, ihre Innenseite und ihre Ränder sind weiß befellt. Die Augen sind verhältnismäßig groß und dunkel, vom Innenwinkel zieht sich eine dunkle Linie hinunter zur Schnauze und umrahmt sie. Ein kürzerer Strich verläuft vom Außenwinkel der Augen in Richtung der Wangen. Die Schenkel sind bei Individuen aus dem nördlichen Teil des Verbreitungsgebietes rötlich gefärbt. Bei Tieren aus dem Süden besitzen sie eine weiße Färbung. Das Fell ist sehr dicht und lang. Die Behaarung der Zehen reicht bis über die Sohlen hinaus und bildet so ein isolierendes Polster für die Füße. Der Schwanz ist dicht behaart, seine Spitze und der Bereich um die Violdrüse sind dunkel gefärbt. Die Weibchen verfügen über drei Zitzenpaare. Der Fennek wechselt sein Fell vom Sommer zum Winter, wobei das Sommerfell etwas kürzer und heller als das Winterfell ist. Jungtiere zeigen eine ähnliche Fellzeichnung wie adulte, sind aber heller und besitzen wenig bis keine Rotanteile im Pelz. Die dunkle Gesichtszeichnung ist bei ihnen nur schwach ausgeprägt. Die Nieren des Fenneks sind darauf ausgelegt, hochkonzentrierten Urin zu filtern und dabei so wenig Wasser wie möglich zu verbrauchen. Die Metabolismusrate des Fenneks ist sehr niedrig und liegt 33 % unter dem Wert, den Tiere seiner Größe gewöhnlicherweise aufweisen. Sein Herz ist 40 % kleiner, als es für seine Körpergröße zu erwarten wäre. Unterhalb von 35 °C Außentemperatur atmet der Fennek mit 23 Zügen pro Minute. Wird dieser Wert jedoch überschritten, kann sich die Atemfrequenz auf bis zu 690 Atemzüge pro Minute erhöhen. Die Blutgefäße in den Ohren und Fußsohlen werden bei Hitze erweitert, um möglichst viel Wärme nach außen abzugeben.  Der Fennek hat 2n = 46 Chromosomen. Lautäußerungen und Kommunikation. Die Stimme des Fenneks ist hoch und ähnelt der kleiner Haushunde. Sein Rufrepertoire ist umfangreich und mitunter melodiös. Schwaches Gebell dient als Warnruf vor Fressfeinden, an Hauskatzen erinnerndes Schnurren als Ausdruck des Wohlbefindens. Als Drohgebärde stößt der Fennek ein hohes Kläffen aus. Partner, Eltern oder andere Individuen, zu denen die Tiere einen positiven Bezug haben, werden mit Quieken begrüßt. Verbreitung. Verbreitungsgebiet (grün) des Fenneks. Das Artareal umfasst die gesamte Sahara, spart aber die humiden und semiariden Regionen entlang der Mittelmeerküste, des Roten Meeres und der Sahelzone aus. Das Verbreitungsgebiet des Fenneks umfasst die gesamte Sahara und wird durch Gebiete mit gemäßigtem beziehungsweise humiderem Klima begrenzt. Die nordwestliche Verbreitungsgrenze bilden die südlichen Ausläufer des Atlas, während das Artareal in Tripolitanien fast bis an die Küste reicht. In Ägypten wird es in etwa vom Nil begrenzt, reicht aber im Norden bis auf die nordwestliche Sinai-Halbinsel. Im Sudan umfasst das Verbreitungsgebiet auch weiter östlich gelegene Gebiete als in Ägypten, wie etwa die Nubische Wüste. Insgesamt fehlt der Fennek aber entlang der Küstenregion zum Roten Meer. In Mauretanien und Marokko kommt der Fennek bis knapp an die Atlantikküste vor. Die Südgrenze des Verbreitungsgebiets markiert die nördliche Sahelzone, wo der Fennek etwa bis 14° N vorkommt. Fraglich ist, ob es auf der Arabischen Halbinsel Vorkommen des Fenneks gibt oder gab. Zwar wurden von dort mehrere Sichtungen gemeldet, teils handelte es sich aber nur um Fußspuren im Sand oder um Rüppellfüchse ("V. rueppelli"), die für Fenneks gehalten wurden. Die IUCN geht nicht davon aus, dass die Art östlich des Sinai vorkommt, andere Autoren halten es zumindest für möglich. Lebensraum. Das Habitat des Fenneks besteht vorwiegend aus hyperariden Sandwüsten (Erg), wo er im flachen Boden oder in statischen Dünen seine Baue anlegt. Nahe der marokkanischen Atlantikküste nutzt der Fennek aber auch moderat bewachsene Dünen für seinen Bau. Da der Fennek auf weichen Untergrund angewiesen ist, um seinen Bau zu graben, fehlt er in Gebieten ohne Sand. Der jährliche Niederschlag an der Nordgrenze des Verbreitungsgebiets beträgt rund 100 mm, in der Sahelregion sind es 300 mm. Süßgräser der Gattung "Aristida" und der Meerträubel "Ephedra alata" auf Großdünen sowie die Rispenhirse "Panicum turgidum" und Jochblätter ("Zygophyllum" spp.) auf kleineren Dünen bilden oft die einzige Vegetation im Lebensraum des Fenneks. Selten finden sich auch Akazien ("Acacia" spp.) darunter. Der Fennek ist offenbar nicht auf einen direkten Zugang zu Wasseransammlungen angewiesen. Ernährung und Jagdverhalten. Fenneks suchen regelmäßig menschliche Siedlungen und Zeltlager auf, um dort nach Nahrung zu suchen Die Nahrung des Fenneks ist vielfältig. Sie umfasst vor allem Insekten, kleine Nagetiere wie Wüstenspringmäuse ("Jaculus" spp.), Echte Rennmäuse ("Gerbillus" spp.) oder Rennratten ("Meriones" spp.), Eidechsen, Skinke, Geckos sowie Eier und kleine Vögel wie Steinlerchen ("Ammomanes deserti") oder Flughühner. Daneben verzehrt der Fennek auch Früchte und einige Pflanzenknollen. Fenneks gehen während der Dämmerung und nachts auf Nahrungssuche und meiden die Hitze des Tages. Im Winter reicht die Aktivitätsphase auch bis in den Morgen hinein. Der für andere "Vulpes"-Arten typische Mäusesprung wurde bei Fenneks nicht beobachtet. Fenneks graben regelmäßig im Sand nach Insekten und kleinen Wirbeltieren. Die vergrößerten Paukenhöhlen ermöglichen es ihnen, auch sehr tiefe Geräusche wahrzunehmen und damit Bewegungen im Sand zu hören. Überzähliges Futter vergraben sie. Menschliche Siedlungen und Lager werden nachts häufig zur Nahrungssuche aufgesucht. Fenneks müssen in freier Wildbahn nicht trinken, in Gefangenschaft nehmen sie jedoch bereitwillig Wasser und andere Flüssigkeiten zu sich. Das für ihren Organismus nötige Wasser gewinnen sie wahrscheinlich aus den flüssigen Komponenten ihrer Nahrung oder durch Oxidation von in ihr enthaltenem Wasserstoff. Sozial- und Territorialverhalten. Fenneks leben in kleineren Familienverbänden, die das Elternpaar und die Jungtiere des letzten Wurfes umfassen. Größere soziale Verbände bilden sie nur auf engem Raum in Gefangenschaft, in freier Wildbahn wurde ein solches Verhalten bisher nicht beobachtet. Sowohl Jungtiere als auch ausgewachsene Fenneks spielen häufig. In Gefangenschaft zeigen sie ein hohes Maß an sozialer Bindung und schlafen für gewöhnlich dicht nebeneinander. Kot wird in Gefangenschaft in der Regel vergraben. Der Bau wird etwa 1 m tief im Sand angelegt, nach Möglichkeit im Schutz von Vegetation. Je fester der Untergrund, desto komplexer ist in der Regel das Gangsystem: Während der Bau in losem Sand oft nur aus einem einzelnen Eingang, einem 1–2,5 m langen Gang und einer Hauptkammer besteht, wurden in kompakterem Boden Baue mit einer Fläche von 120 m² und 15 Eingängen gefunden, teils mit 10 m langen Gängen. Einzelbaue können nahe beieinander liegen und sogar untereinander verbunden sein. Fortpflanzung und Aufzucht der Jungen. Der Sexualzyklus der Art umfasst einen Proöstrus von etwa sechs Tagen und einen lediglich ein- bis zweitägigen Östrus. Die Paarung findet im Januar und Februar statt und dauert für ein Säugetier ungewöhnlich lange, bis zu 2 Stunden und 45 Minuten. Sie wird vom Weibchen eingeleitet, indem es den Schwanz zur Seite streckt und sich dem Männchen zur Besteigung anbietet. Die Tragezeit beträgt 50–52 Tage, der Wurf erfolgt also im März oder April. In Gefangenschaft wurden aber auch 62- und 63-tägige Trächtigkeiten beobachtet, Fenneks werfen hier das ganze Jahr über. Der Wurf besteht aus ein bis sechs, meist zwei bis fünf Welpen. Stirbt der erste Wurf, kann es auch zu einem zweiten oder sogar dritten Wurf kommen. Während der Brunft-, Trag- und Säugezeit sind Männchen sehr aggressiv und verteidigen das Weibchen und den Wurf gegen Eindringlinge und Fressfeinde. Das Männchen übernimmt zudem die Nahrungsversorgung während der Zeit, in der das Weibchen dazu nicht in der Lage ist. Die Jungen werden blind und vollständig behaart geboren. Sie öffnen die Augen nach 8–11 Tagen und bewegen sich mit zwei Wochen erstmals selbstständig fort. Die Zähne brechen etwa zur gleichen Zeit durch. Ab der dritten Lebenswoche fressen die Welpen erstmals Fleisch, sie werden aber 61–70 Tage lang von der Mutter gesäugt. Spielerisches Jagdverhalten zeigen sie ab der siebten Woche nach der Geburt. Die Geschlechtsreife wird mit 9–11 Monaten erreicht. Die Jungen verbleiben rund ein Jahr bei den Eltern, bis die nächste Wurfzeit einsetzt. Lebenserwartung, Krankheiten und Mortalitätsursachen. alt=Mikroskopiefoto eines Fadenwurms auf einer Darmschleimhaut Als sehr kleiner Hund hat der Fennek wohl mehrere Fressfeinde. Dazu zählen neben Streifenhyänen ("Hyaena hyaena") und Goldschakalen ("Canis aureus") auch Haushunde. Ein weiterer möglicher Fressfeind der Jungtiere ist der Wüstenuhu ("Bubo ascalaphus"). Berichte über das erfolgreiche Erbeuten von Fenneks liegen jedoch nur in anekdotischer Form vor, darum ist fraglich, wie weit sie sich verallgemeinern lassen. Fenneks sind äußerst agil und lassen sich selbst mit systematischer Jagd – etwa mit Saluki-Windhunden – nur sehr selten fangen. Auch Kämpfe zwischen Männchen während der Ranz können zum Tod der Beteiligten führen. Der bedeutendste Feind des Fenneks dürfte jedoch der Mensch sein, der dem Fennek aus verschiedenen Gründen nachstellt und für teils drastische Populationsrückgänge in einigen Gebieten verantwortlich ist. In Gefangenschaft sind Fenneks sehr empfindlich gegenüber Stress, was sich in einer hohen Sterblichkeitsrate unter Neugeborenen niederschlägt. Mehrere Endoparasiten wurden in den Körpern von Fenneks gefunden. Dazu zählen die Bandwürmer "Joyeuxiella echinorhyncoides" und "Taenia crassiceps", der Saugwurm "Alaria alata" und Fadenwürmer (Nematoden) der Gattung "Ancylostoma" ("A. brazilense", "A. caninum" und "A. duodenale"). Weitere Nematoden, die den Fennek befallen, sind "Cyathospirura seurati", "Oxynema crassispiculum", "Physaloptera cesticillata", "Rictularia cahirensis", "Spirocerca lupi" und "S. rytipleurites", "Streptopharagus numidicus", "Toxascaris" spp., "Toxocara masculior" sowie "Uncinaria stenocephala".  Der Fennek fungiert darüber hinaus auch als Wirt für die Kokzidie "Isospora fennechi". Das höchste bekannte Alter eines Tieres betrug 14 Jahre für Männchen und 13 Jahre für Weibchen, jeweils in Gefangenschaft. Taxonomie und Systematik. Erstbeschreiber des Taxons "Vulpes zerda" ist Eberhard August Wilhelm von Zimmermann. Er beschrieb die Art 1780 in seinem Werk "Geographische Geschichte des Menschen und der vierfüßigen Tiere", allerdings noch als "Canis zerda". Das Artepitheton leitete er von einem berberischen Namen des Fenneks ab.  Aufgrund seiner geringen Größe und anderer morphologischer Besonderheiten stellten ihn viele Autoren in eine eigene Gattung "Fennecus". Ab den 1990er Jahren wurde er aber zunehmend der Gattung "Vulpes" zugerechnet, was auch durch DNA-Studien bestätigt wurde. Eine frühere Beschreibung von Anders Fredrik Skjöldebrand aus dem Jahr 1777 hat keine Gültigkeit, da dieser mit „"Vulpes minimus Saarensis"“ kein Binomen als Bezeichnung wählte. Zwar versuchten einige spätere Autoren, diesen Namen als „"Vulpes minimus"“ in das Linnésche System zu integrieren. Er wurde jedoch auf Basis eines 1976 eingereichten Antrags von der International Commission on Zoological Nomenclature 1980 endgültig unterdrückt und für ungültig erklärt, um die Gültigkeit der Gattung "Vulpes" mit dem Rotfuchs ("V. vulpes") als Nominotypisches Taxon sicherzustellen. Der Fennek repräsentiert einen eher basalen Vertreter der Gattung "Vulpes". Seine Schwesterart ist der Afghanfuchs ("V. cana"), der vor allem aride Gebirgslandschaften und Geröllwüsten entlang des Roten Meeres, im Süden der arabischen Halbinsel und im Mittleren Osten bewohnt. Beide Arten trennten sich DNA-Analysen zufolge vor 3–4,5 Millionen Jahren im Pliozän, als sich in Afrika und im Mittleren Osten die bis heute bestehenden Wüstengebiete herausbildeten. Die ältesten Fossilfunde des Fenneks stammen aus dem Spätpleistozän. Der Fennek ist monotypisch, das heißt, er hat keine Unterarten. Bestand und Gefährdung. Für den Fennek fehlen verlässliche Bestandsschätzungen. Da die Art in Nordafrika immer noch regelmäßig gefangen und verkauft wird, ist davon auszugehen, dass der Bestand zumindest nicht zurückgeht. Die Hauptgefahr für den Bestand stellt nach wie vor die kommerzielle Jagd dar. Um die Jagd und den Verkauf des Fenneks als Haustier zu beschränken, wurde er 2000 im Anhang II des Washingtoner Artenschutzübereinkommens gelistet; dort ist er aber mittlerweile nicht mehr aufgeführt. In Marokko, Tunesien, Algerien und Ägypten steht der Fennek unter Schutz. Die IUCN stuft den Fennek trotz unzureichender Informationen über den Bestand als ungefährdet ein. Die Canid Specialist Group der IUCN erklärte den Fennek 2007 zu einer Art mit hoher Forschungspriorität, um damit die Forschung in freier Wildbahn voranzutreiben. Kulturgeschichte. alt=Ölzeichnung eines Jungen mit Fennek auf dem Arm Die wirtschaftliche Nutzung und kulturelle Rezeption des Fenneks reichen weit in die Menschheitsgeschichte zurück. In der neolithischen Fundstätte Regenfeld nahe Dachla wurden rund 7000 Jahre alte Fennekknochen gefunden, die eine Nutzung als Nahrungsmittel belegen. Bereits in vordynastischer Zeit findet sich der Fennek auf einer Elfenbeintafel aus dem Grab Skorpions I., der in der Naqada-III-Periode (ca. 3200 v. Chr.) das Alte Ägypten regierte. Eine bisweilen als Fennek interpretierte Abbildung eines Caniden auf der Grabkapelle des Nefermaat ist dagegen wohl ein Streifenschakal ("Canis adustus"). Schon in altägyptischer Zeit wurde wahrscheinlich versucht, den Fennek zu domestizieren, um ihn als Fleisch- und Felllieferanten zu nutzen; die Hieroglyphe "ms" (F31) zeigt drei zusammengebundene Fennekfelle. Später wurde er von arabischen Jägern an die Bevölkerung von Oasen verkauft, die ihn in ähnlicher Weise nutzten. Das ursprünglich wohl persische Wort "fanak" oder "fanaǧ" wurde von den Arabern als auf zahlreiche Pelztiere und deren Fell angewandt und als „Fennek“ zur modernen Bezeichnung für den Wüstenfuchs. Das Epitheton "zerda" kann vom Persischen "zarde" abgeleitet werden, das mit der Bedeutung „gelb-blonde Farbe“ oder „Safran“ der Fellfärbung des Tieres entspricht. Die wirtschaftliche und kulturelle Bedeutung war unter der arabischen Bevölkerung Nordafrikas allerdings weit geringer als unter den Nomadenstämmen der Sahara. Während der Fennek in arabischen Gedichten und naturgeschichtlichen Werken kaum auftaucht, existieren allein im Tuareg-Dialekt Tamahaq sechs verschiedene Bezeichnungen für die Art. Diese sehr unterschiedliche Wahrnehmung lässt sich auf die Abwesenheit des Fenneks in den kulturellen Zentren des Arabischen, auf sein unauffälliges Äußeres sowie seine nachtaktive Lebensweise zurückführen. In Nordafrika wird der Fennek auch heute noch verzehrt und seines Fells wegen gejagt. In der Westsahara werden meist Welpen gefangen, gemästet und gegessen, wohingegen der Fennek in Marokko als ungenießbar angesehen wird. Anders als das Fleisch aller anderen Hundearten gilt das des Fenneks als halāl, er wurde von den Rechtsgelehrten also traditionell nicht als Hundeverwandter betrachtet. Mit dem aufkommenden Interesse der europäischen Gesellschaften für den Orient rückte der Fennek auch in das Bewusstsein europäischer Künstler. Maler wie Paul Leroy und Étienne Dinet porträtierten ihn vor allem als charakteristisches Haustier der nordafrikanischen Landbevölkerung. Der im 20. Jahrhundert einsetzende Massentourismus in Nordafrika führte dazu, dass Fenneks verstärkt gefangen wurden, um sie zu fotografieren, sie für Geld zur Schau zu stellen oder an Reisende auf Märkten zu verkaufen. Auf diese Weise gelangten Fenneks wahrscheinlich auch in die USA, wo sie heute als Haustiere verbreitet sind. Als solche sind sie vor allem wegen ihrer exotischen Herkunft, ihrer Anhänglichkeit und ihres ausgeprägten Spieltriebs beliebt. Junge Zuchtpaare erzielen hier Preise von bis zu 1500 USD. Einzelnachweise. Eine Fußnote direkt hinter einer Aussage belegt nur diese Aussage, eine Fußnote direkt am Anschluss an ein Satzzeichen den gesamten vorausgehenden Satz. Eine Fußnote hinter einem Leerzeichen bezieht sich auf den gesamten vorangehenden Absatz. Fermion. Das Standardmodellmit den Fermionen in grün und lila Fermionen (benannt nach Enrico Fermi) sind im physikalischen Sinne alle Teilchen, die der Fermi-Dirac-Statistik genügen. Nach dem Spin-Statistik-Theorem besitzen sie einen halbzahligen Spin, also formula_1, formula_2 etc. Anschaulich gesprochen sind Fermionen diejenigen Teilchen, aus denen die Materie besteht. Fermionen unterscheiden sich von den Bosonen, die der Bose-Einstein-Statistik genügen und nach dem Spin-Statistik-Theorem einen ganzzahligen Spin besitzen. Ein Elementarteilchen in drei Raumdimensionen ist immer entweder ein Fermion oder ein Boson. In sehr dünnen Schichten, also zweidimensionalen Systemen, gibt es außer Bosonen und Fermionen die sogenannten Anyonen, die einer eigenen Quantenstatistik genügen. Eigenschaften. Fermionen gehorchen dem Pauli’schen Ausschlussprinzip, welches besagt, dass zwei Fermionen nicht gleichzeitig an demselben Ort einen identischen Quantenzustand annehmen können. Allgemein gilt, dass die quantenmechanische Wellenfunktion zweier oder mehrerer gleichartiger Fermionen bei Vertauschung zweier Fermionen vollkommen antisymmetrisch sein muss, das heißt, das Vorzeichen ändert sich (Phasenfaktor −1). Auf die Elektronen in einem Atom angewendet erklärt das Pauli-Prinzip, dass nicht alle Elektronen in denselben Grundzustand fallen können, sondern paarweise die verschiedenen Atomorbitale eines Atoms auffüllen. Erst durch diese Eigenschaft erklärt sich der systematische Aufbau des Periodensystems der chemischen Elemente. Im Standardmodell der Teilchenphysik gibt es keine elementaren Fermionen mit einem Spin größer als 1/2. Eine Eigenschaft von Fermionen mit dem Spin 1/2 ist, dass ihre quantenmechanische Wellenfunktion nach einer Rotation um 360° das Vorzeichen ändert; erst nach einer Rotation um 720° (also zweimal komplett gedreht) ist der Ausgangszustand wiederhergestellt. Das lässt sich anschaulich mit einer Uhr vergleichen: erst nach einer Drehung des Stundenzeigers um 720° hat man wieder die gleiche Tageszeit. Supersymmetrische Fermionen. Im um die Supersymmetrie erweiterten Modell der Elementarteilchen existieren weitere elementare Fermionen. Auf jedes Boson kommt rechnerisch ein Fermion als supersymmetrisches Partnerteilchen, ein so genanntes "Bosino", so dass sich der Spin jeweils um ±1/2 unterscheidet. Die Superpartner der Bosonen werden durch die Endung "-ino" im Namen gekennzeichnet, so heißt z. B. das entsprechende Fermion zum (hypothetischen) Graviton dann "Gravitino". Genau genommen wird zunächst im Wechselwirkungsbild jedem bosonischen Feld ein fermionisches Feld als Superpartner zugeordnet. Im Massebild ergeben sich die beobachtbaren oder vorhergesagten Teilchen jeweils als Linearkombinationen dieser Felder. Dabei muss die Zahl und der relative Anteil der zu den Mischungen beitragenden Komponenten auf der Seite der fermionischen Superpartner nicht mit den Verhältnissen auf der ursprünglichen bosonischen Seite übereinstimmen. Im einfachsten Fall (ohne oder mit nur geringer Mischung) kann jedoch einem Boson (wie dem oben erwähnten Graviton) ein bestimmtes Fermion oder Bosino (wie das Gravitino) zugeordnet werden. Bisher wurde keines der postulierten supersymmetrischen Partnerteilchen experimentell nachgewiesen. Sie müssen demnach eine so hohe Masse haben, dass sie unter normalen Bedingungen nicht entstehen. Man hofft, dass die neue Generation der Teilchenbeschleuniger zumindest einige dieser Fermionen direkt oder indirekt nachweisen kann. Mit dem leichtesten supersymmetrischen Teilchen (LSP) hofft man, einen Kandidaten für die Dunkle Materie des Universums zu finden. Färöische Sprache. Färöisch (färöisch "føroyskt", dänisch: "færøsk", daraus abgeleitet die deutsche Bezeichnung "färöisch"; im Gegensatz zu veraltet "färingisch") bildet zusammen mit dem Isländischen die inselnordischen Sprachen im Gegensatz zu den skandinavischen Sprachen Norwegisch, Schwedisch und Dänisch. Eine ältere Einordnung spricht von Westnordgermanisch und platziert dort Färöisch, Isländisch, westnorwegische Dialekte sowie das ausgestorbene Norn. Färöisch wird von mindestens 44.000 Menschen auf den politisch zu Dänemark gehörenden und weitreichende Autonomierechte besitzenden Färöern sowie weiteren Färingern im Ausland gesprochen. Die Gesamtzahl der Muttersprachler auf der Welt ist unklar. Ältere Schätzungen reichen von 60.000 bis zu 100.000, je nachdem, wie gut die Nachkommen von Muttersprachlern außerhalb der Färöer die Sprache noch beherrschen. Die weitaus größte Anzahl von Färöisch sprechenden Menschen außerhalb der Färöer lebt in Dänemark und hier insbesondere in Kopenhagen. Im Jahr 2007 ermittelte die Nordatlantische Gruppe im Folketing erstmals die Gesamtzahl von Färingern der ersten Generation, d. h. mit färöischen Geburtsort und Wohnsitz in Dänemark. Es wurden 7.737 Personen gefunden. Seit 2008 ist jedoch eine stetige Zunahme in der Anzahl dieser Gruppe verzeichnet worden. Ende 2013 lebten laut "Danmarks Statistik" insgesamt 11.696 Menschen in Dänemark, deren Geburtsort auf den Färöern liegt. 4.877 Männer und 6.819 Frauen. Es kann davon ausgegangen werden, dass diese Personengruppe (die erste Generation) die färöische Sprache als Muttersprache beherrscht. Hinzu kommen noch Menschen, die in Dänemark geboren wurden und bei Färöisch sprechenden Eltern bzw. Elternteilen aufgewachsen sind, die zweite Generation, sowie in Teilen auch noch die dritte Generation. Neuere Schätzungen gehen sogar von einer Gesamtzahl von 30.000 Färingern in Dänemark aus, wovon die Hälfte, also 15.000 Personen, im Großraum Kopenhagen leben soll. Unklar ist hier jedoch, wie viele davon die Sprache noch aktiv sprechen können. Färöisch gehört damit zu den kleineren germanischen Sprachen (indogermanische Sprachfamilie). In färöischer Sprache werden viele Bücher herausgegeben. Von 1822 bis 2002 erschienen 4306 Titel, wobei das Jahr 2000 mit 170 Titeln (darunter 66 Übersetzungen aus anderen Sprachen) der bisherige Rekord ist, ein Buchtitel auf etwa 325 Einwohner. Nicht zuletzt durch ihren Status als Amtssprache auf den Färöern und durch die reichhaltige färöische Literatur gilt sie heute als nicht mehr gefährdet gegenüber der Dominanz des Dänischen bis in das 20. Jahrhundert hinein. Gegenseitige Verständlichkeit Färöisch-Isländisch-Norwegisch. Färöisch und Isländisch sind gegenseitig in der "Schriftsprache" verständlich. Beide modernen Sprachformen stehen in grammatischer Hinsicht noch dem Altwestnordischen nahe. Die gegenseitige Verständlichkeit der "gesprochenen" Sprachen Färöisch und Isländisch ist hingegen eingeschränkt. Hammershaimb (1891) spricht von gegenseitigen Verständlichkeit zwischen Färöisch und westnorwegischen Dialekten, mit denen es größere Übereinstimmungen im Vokabular aufweise. Wie weit das heute noch gegeben ist, ist fraglich, denn es spielt auch die Zweisprachigkeit bei den Färingern eine wichtige Rolle, sie lernen Dänisch bis auf annähernd muttersprachliches Niveau und können auch deshalb Norwegisch gut verstehen. Das nordische Dialektkontinuum wird heute nur noch für die festlandskandinavischen Dialekte in Norwegen, Schweden und Dänemark angenommen, trotzdem soll die färöische Schriftsprache vielen Norwegern relativ leicht verständlich erscheinen. Die alte Kolonialsprache Dänisch hingegen ist mit Färöisch weder in Schrift noch Aussprache gegenseitig verständlich, obwohl sie von der gemeinsamen urnordischen Vorläufersprache abstammt. Dänen können ohne weitere Färöischkenntnisse in der Regel nur einen Teil geschriebener Texte entziffern und von der gesprochenen Sprache nur einzelne Wörter erahnen. Färinger hingegen lernen Dänisch ab der 3. Klasse in der Schule und beherrschen es (in der Schriftsprache) oft auf muttersprachlichem Niveau. Den färöischen Akzent – "gøtudanskt" genannt – hört man aber meist heraus. Obwohl Isländisch und Färöisch von allen skandinavischen Sprachen dem Altwestnordischen phonologisch und grammatisch am nächsten sind, müssen Isländer und Färinger gleichermaßen üben, um es zu verstehen. Generell lässt sich sagen, dass sich Färöisch mehr vom Ursprung entfernt hat als Isländisch. Dies zeigt sich besonders bei der Flexion der Substantive und Verben, die einfacher ausfallen als im Altnordischen, aber weitaus komplexer als im Dänischen. Dialekte. Diese können auch in zwei Gruppen zusammengefasst werden: Tórshavn-Vágar und Eysturoy-Nordinseln (durch die grüne Isoglosse auf der Abbildung getrennt). Hierbei bilden 1. und 2. wiederum eine Gruppe, die deutlich von 3. unterschieden werden kann. Der Skopunarfjørður hat daher also eine ähnliche Bedeutung für das Färöische, wie die Benrather Linie für das Deutsche. Bereits Jens Christian Svabo berichtete Ende des 18. Jahrhunderts in seinem Vorwort zum "Dictionarium Færoense" von diesen drei Hauptdialekten. Den Nordinseln-Dialekt und den Südinseln-Dialekt sah er als das „reinste“ Färöisch an, während er das Tórshavnerisch als „verdorben“ bezeichnete. Die „Korrumpiertheit“ des Tórshavner Dialekts führt Svabo vermutlich auf den dortigen Einfluss der Kolonialsprache Dänisch zurück. Auch wenn es bis heute keine Standardaussprache des Färöischen gibt, orientieren sich Ausspracheangaben in etwa am Dialekt von Tórshavn/Südstreymoy, welcher auch die höchste Sprecherzahl hat. Geschichte. Das heutige Färöisch ähnelt im Schriftbild dem Altnordischen, aber es gab Lautverschiebungen, und zwar so, dass wir heute zwei Hauptvarietäten (Nord und Süd) kennen. Altwestnordisch. a> in Schweden. Gleichzeitig ist er das älteste Dokument der Färöer. Hier treten erste färöische Abweichungen vom Altnordischen auf. Das Altwestnordische "(Altnorwegisch)" kam im 9. Jahrhundert in der Wikingerzeit auf die Färöer. Die meisten Siedler stammten aus dem südwestlichen Norwegen. Gälische Sprachreste belegen, dass ein Teil der nordischen Einwanderer über die britischen Inseln kam. Durch die Christianisierung der Färöer um 1000 fielen die Inseln an Norwegen, was den sprachlichen Einfluss weiter verfestigte. Lautstand, Formenbau, Wortschatz und Satzbildung des Norwegischen finden sich auch im Färöischen wieder. Der älteste bekannte Runenstein, der auf den Färöern gefunden wurde, ist der Kirkjubøstein von ca. 1000. Der Sandavágsstein stammt aus dem 12. Jahrhundert, und der Fámjinsstein aus dem 16. Jahrhundert. Letzterer belegt die (teilweise) Verwendung der Runenschrift bis in die Zeit nach der Reformation. Bis ins 13. Jahrhundert unterschied sich die westnordische Sprache auf den Färöern kaum von den Sprachformen in Island und Norwegen. Erstes färöisches Dokument in lateinischer Schrift ist der "Schafsbrief" („Seyðabrævið“) von 1289. Hier zeigen sich bereits vereinzelte Abweichungen vom Norwegischen (Altnordischen), z. B. "girða" statt "gærda" („einzäunen“). Der Schwarze Tod um 1350 halbierte die färöische Bevölkerung, sodass neue Einwanderer aus Norwegen kamen und der Þ-Laut allmählich verschwand, wie er in den Húsavíkbriefen noch vorkam. 1380 gerieten die Färöer zusammen mit Island in die dänisch-norwegische Personalunion und damit faktisch unter dänische Herrschaft, gleichwohl die nordatlantischen Inseln als norwegische Kolonien betrachtet wurden. Altfäröisch. Erst ab dem 15. Jahrhundert bildete sich eine eigenständige färöische Varietät der nordischen Sprache, das Altfäröische im Gegensatz zum Altnordischen, Isländischen oder Norwegischen. Im färöischen Standardlehrbuch "Mállæra" 1997 wird diese Sprachstufe auch „Mittelalterfäröisch“ "(miðaldarføroyskt)" genannt. Linguistisch entscheidend sind hierfür die Húsavík-Briefe („Húsavíkarbrøvini“), die von 1403 bis 1405 datieren. Anhand von Schreibfehlern des Altnordischen kann nachgewiesen werden, inwieweit sich die färöische Aussprache von diesem unterschied. So steht dort an einer Stelle "hrentadi" statt dem korrekten "rentaði" („rentierte“), was nach Jakobsen und Matras ein Hinweis darauf ist, dass im Färöischen kein /h/ mehr vor dem /r/ vorkam, wodurch der verunsicherte Schreiber es vor ein Wort setzte, wo es auch im Altnordischen nicht hingehört hätte. Ein anderes Beispiel ist "huast" statt "kvask" („selbst gesagt“). Hier wäre /kv/ die etymologisch korrekte Aussprache, aber da im Färöischen /hv/ zu /kv/ wurde, konnte der Schreiber auch hier nicht mehr unterscheiden. Altfäröisch: "en so mykid j Hiatlande ad segs skillingar ok xl hrentadi leigan a huerium tolf manadum..." Neufäröisch: "og so mikið í Hetlandi, at seks og fjøruti skillingar rentaði leigan á hvørjum tólf mánaðum..." Übersetzung: „und so viel in Shetland, dass für den Kredit alle zwölf Monate sechsundvierzig Schillinge Zinsen anfielen...“ Älteres Neufäröisch. Die Reformation auf den Färöern 1538 bewirkte, dass Dänisch alleinige Schriftsprache wurde und sich endgültig durchsetzte. Ab ca. 1600 spricht man von der neufäröischen Sprache, die sich in drei Hauptdialekte auffächert. Die Periode bis 1750 wird auch als älteres Neufäröisch bezeichnet. Das Färöische teilte nach der Reformation ein ähnliches Schicksal wie das Norwegische: Dänisch als Kirchensprache, Rechtssprache und Unterrichtssprache, dänische Lehrbücher und dänische Unterhaltungsliteratur. Die Isländer hingegen wachten über ihre alte Sprache und entwickelten sie in dieser Zeit weiter auf Grundlage des Altnordischen (bis heute). Das Isländische bestand als Literatursprache weiter fort und konnte das ganze Volk unter einer Standardsprache einen, während sich Färöisch und Norwegisch in viele Dialekte aufspalteten. Eine färöische Schriftsprache gab es ab der Reformation nicht mehr. Es konnte aber – anders als in Norwegen – in den alten Balladen und der überall gesprochenen Alltagssprache überleben. Bis Ende des 18. Jahrhunderts liegen nur sporadische Schriftzeugnisse vor. Zum Beispiel existiert ein Dokument von 1532, das eine Sammlung norwegischer Gesetzestexte beinhaltet und Jógvan Heinason (1541–1602) gehörte. Die meisten Dokumente bezüglich der Färöer wurden nach der Reformation auf Dänisch geschrieben, aber dort finden sich auch einzelne färöische Wörter, insbesondere Orts- und Personennamen. Die wichtigsten Quellen hierfür sind die "jarðabøkur" (Grundbücher seit 1584 erhalten) und "tingbøkur" (Gerichtsprotokolle seit 1615 erhalten). Hier lässt sich z. B. nachweisen, dass der Ð-Laut nicht mehr ausgesprochen wurde. Mit anderen Worten empfand man zu Debes' Zeiten die färöische Landessprache oft noch als eine Art Norwegisch. Hammershaimb weist in seiner "Færøsk Anthologi" 1891 nach, dass Debes eine Festrede zitiert, in der, trotz dänischem Duktus, altnordische Wendungen erkennbar sind. Debes verwendet auch andernorts in seiner Reisebeschreibung typisch färöische Begriffe. In den alten Tanzballaden haben zum Teil veraltete Wörter und Flexionen überlebt, aber es ist meist unmöglich, sie zeitlich zu bestimmen. Diese Wörter und Formen sind im heutigen "Føroysk orðabók" erfasst und entsprechend gekennzeichnet, was die Verständlichkeit des alten Balladenstoffs erleichtert. Die ersten schriftlichen Fragmente färöischer Balladen finden sich 1639 beim dänischen Altertumsforscher Ole Worm. Svabo. Der erste Pionier des geschriebenen Färöisch war der Gelehrte Jens Christian Svabo (1746–1824). Im Rahmen seiner "Indberetninger fra en Reise i Færø 1781–82" sammelte er alte färöische Balladen und schrieb sie als erster nieder. Allerdings gelangten sie erst lange nach seinem Tode zum Druck. Svabos Orthographie orientierte sich am Dialekt von Vágar, versuchte aber bereits eine Standardisierung. Sein "Dictionarium Færoense" (um 1773) ist das erste färöische Wörterbuch. Es existiert in sieben bekannten Manuskripten und wurde 1966 herausgebracht. Es ist ein Wörterbuch Färöisch-Dänisch-Latein. Svabo schrieb das Wörterbuch in der Annahme, dass Färöisch aussterben würde, aber noch für die Nachwelt dokumentiert werden sollte. Svabos Schreibweise des Vágar-Dialekts Ende des 18. Jahrhunderts zeigt, dass das Färöische sich seitdem kaum in der Aussprache geändert hat. Dass er /ó/ als /eu/ schreibt, spiegelt die dialektale Aussprache nördlich der Linie Suðuroy-Tórshavn wider (violette Isoglosse auf der Karte oben) als [œu] anstelle von [ɔu]. Schrøters Sigurdlieder. Das erste gedruckte Buch auf Färöisch trägt den dänischen Titel "Færøiske Qvæder om Sigurd Fofnersbane og hans Æt" und wurde 1822 vom dänischen Pfarrer Hans Christian Lyngbye (1782–1837) verfasst, dokumentierte die Sigurdlieder, die von seinem färöischen Kollegen Johan Henrik Schrøter (1771–1851) gesammelt wurden. Jóannes í Krókis Sandoyarbók. Ein anderer Pionier jener Jahre war Jóannes í Króki (Johannes Clemensen oder Klemensen, 1794–1869), der in der bekannten "Sandoyarbók" (1821–1831) ebenfalls färöische Balladen sammelte. Es ist mit 93 färöischen Balladen das umfangreichste Werk seiner Art, das je von einem Einzelnen zusammen getragen wurde. Seine Schreibweise widerspiegelte den Dialekt von Sandoy. Auch seine Orthographie zeigt bemerkenswerte Ähnlichkeiten mit der heutigen Aussprache. Allerdings ist es keine Lautschrift im Sinne der Svaboschen Orthographie. Schrøters Matthäusevangelium. Johan Henrik Schrøter besorgte auch die erste Übersetzung des Matthäusevangeliums ("Evangelium Sankta Matthæussa aa Førisk o Dansk" 1823) aus dem Dänischen. Obwohl das Buch in jeden der rund 1200 färöischen Haushalt gelangte, konnte es sich aber in der Kirche nicht durchsetzen, wo weiterhin Dänisch gepredigt wurde. Es herrschte damals die mehrheitliche Auffassung im Volk, dass das Wort Gottes und die dänische Sprache zusammengehören. Außerdem kamen Beschwerden über bestimmte Wortformen. Søren Sørensen, ein Pfarrer von den Nordinseln, fügte in einem Schreiben an die dänische Bibelgesellschaft sogar die Übersetzung einer kurzen Passage in den Nordinseln-Dialekt hinzu, um dies zu illustrieren. Schrøter schrieb das Matthäusevangelium im Dialekt von Suðuroy. Im Wesentlichen verwendete Schrøter hierbei die gleiche Orthographie wie bei den Sigurdliedern zuvor. Allerdings schwächte er die Konsonanten /p,t,k/ nach langen Vokalen zu /b,d,g/ ab, wie es für den Südinselndialekt typisch ist, zum Beispiel "leiba" statt "leypa" („laufen“), "foudur" statt "fótur" („Fuß“) und "ruigje" statt "ríki" („Reich). Schrøters Färingersaga. Die Zusammenstellung der Färingersaga "(Færeyínga saga eller Færøboernes Historie)" aus altisländischen Quellen durch den dänischen Altertumsforscher Carl Christian Rafn (1795–1864) war ein weiterer Meilenstein. Bei der Herausgabe 1833 wurde eine färöische Übersetzung mitgeliefert, die auch von Schrøter stammte, diesmal aber im Dialekt von Südstreymoy verfasst war. Hierbei bekam Schrøter Hilfe von seinen Landsleuten Jákup Nolsøe (1775–1869) und Jens Davidson (1803–1878), die Schüler von Svabo waren. Nolsøe war übrigens der erste Färinger, der eine am Altnordischen ausgerichtete etymologische Schreibweise bevorzugte. Er schrieb 1829 auch die erste färöische Grammatik, die aber nie veröffentlicht wurde. In der Färingersaga machte sich der Einfluss des dänischen Philologen Rasmus Rask (1787–1832) bemerkbar, der Schrøter zu einer verbesserten Orthographie bewegen konnte. Offenbar war Rask von Rafn als Berater herangezogen worden, vermutlich, um die Kritik zu vermeiden, die Schrøters Matthäusevangelium zuvor erntete, und um eine gewisse Standardisierung des Färöischen zu erreichen. N. M. Petersens etymologisierender Ansatz. Der dänische Skandinavist Niels Matthias Petersen (1791–1862) polemisierte 1845 gegen die phonetische Orthographie in dem Artikel "Det færøske Sprog", der in "Færdrelandet" erschien. Er argumentierte, dass bisher nicht die Rede von einer färöischen Schriftsprache sein kann, da alles bisher veröffentlichte Material immer nur einen bestimmten Dialekt wiedergab. Eine Schriftsprache müsse aber „die dialektale Harmonie sein, basierend auf der simplen, edlen und ursprünglichen Form der Sprache“. Gleichzeitig betrachtete er die bisherigen Orthographieversuche als hässlich, besonders was die Schreibung der Vokale betrifft. Zudem fehlten ihm Konsonanten als „Stützpfeiler“ der Sprache. Als Beispiel nannte er aus Schröters Färingersaga: "E haldi tä råvuliast", was für ihn aus Sicht der Skandinavistik keinen Sinn habe, sondern "eg haldi täd råduligast" geschrieben werden müsse, damit der Leser überhaupt die Wörter erkennt. Die heutige Schreibweise ist ähnlich: "eg haldi tað ráðuligast" („ich halte das für am ratsamsten“) und wird ausgesprochen, also etwa so, wie Schrøter schrieb. Dabei war Petersens Ansatz ähnlich wie der von Svabo, nämlich „vor dem Untergang retten, was vom Altfäröischen noch gerettet werden kann, und es der Welt in einer Form geben, die entgegenkommend und verständlich ist“. Aber seine Methode unterschied sich, denn Petersen interessierte sich nicht für das gesprochene Färöisch, das nur für Linguisten von Interesse wäre. Petersens Kritik erwies sich als wegweisend für die weitere Entwicklung, die ihm am Herzen lag: „Mit anderen Worten: Es muss eine färöische Schriftsprache geschaffen werden!“ Petersen haben wir die Forderung zu verdanken, dass Färöisch sich an der isländischen Schriftsprache orientieren und für alle lesbar sein soll, die Isländisch oder Altnordisch verstehen. Auch wenn das bedeutete, dass die Färinger dann erst lernen müssten, ihre eigene Sprache zu lesen, so sei die Situation in Dänemark nicht anders, wo man auch von keinem gesprochenen Dialekt ohne weiteres auf die Schriftsprache schließen kann. Eigentlich wollten V. U. Hammershaimb (1819–1909) und Svend Grundtvig (1824–1883) eine Replik schreiben, und Schrøter tat es auch in der "Berlingske Tidende", aber da der norwegische Historiker Peter Andreas Munch (1810–1863, Onkel von Edvard Munch) Petersens Argumentation in einem Artikel über eine künftige norwegische Schriftsprache zustimmte, verzichteten Hammershaimb und Grundtvig darauf. Im Sommer 1845 schickte der dänische Gouverneur auf den Färöern, Christian Pløyen (1803–1867), die vom Lehrer Ole Jespersen gesammelten "Zaubersprüche" an C.C. Rafn. Sie waren nach Svabos Orthographie verfasst. Neben dem färöischen Originaltext lieferte er eine dänische Übersetzung mit, bei der ihm wohl Schrøter und Jens Davidsen halfen. Rafn hielt diese Schreibweise aber für nicht geeignet, um sie zu veröffentlichen, und beauftragte den isländischen Philologen und Nationalisten Jón Sigurðsson (1811–1879) mit einer Überarbeitung, einer „Isländifizierung“. Das Ergebnis schickte er an N. M. Petersen mit der Bitte um Kommentare. Als Rafn die Kommentare von Petersen vorliegen hatte, wurde das Ganze an Hammershaimb geschickt, denn Petersen meinte, die letzte Entscheidung müsse ein Färinger treffen. Hammershaimbs Standardschreibung. a> (1819–1909) verfolgte das morphophonemische Konzept bei der Schöpfung der neufäröischen Schriftsprache, das in seiner Version von 1891 nahezu unverändert gültig ist. a> (1864–1918) wollte eine phonetische Orthographie, ließ sich dann auf einen Vermittlungsvorschlag (Broyting-Wechsel) der „Färingergesellschaft“ ein, der aber nicht allgemein umgesetzt wurde. a> (1864–1918) besorgt wurden. Die aktuelle unveränderte Ausgabe stammt von 1991 und ist als färöisches Aussprachewörterbuch nach wie vor einzigartig. V. U. Hammershaimb (1819–1909) gilt als der eigentliche Vater der modernen färöischen Schriftsprache. Zunächst war er, wie schon Svabo und Schrøter, ein Anhänger einer lautnahen Schreibung. Erst durch Petersens und Sigurðssons Einfluss kam es hier zum Umdenken. 1844 schrieb er einen Artikel in der dänischen Zeitung "Københavnsposten", wo er einen Regierungsvorschlag über das Schulwesen auf den Färöern kritisierte, in dem Färöisch als „Dialekt“ bezeichnet wurde. Hammershaimb berief sich auf die alten Balladen und Schrøters Übersetzung der Färingersaga als Beleg dafür, dass Färöisch eine Einzelsprache ist, die „Merkmale des Altnordischen bewahrt hat“. 1845 sprang ihm Svend Grundtvig (1824–1883) mit der Streitschrift "Dansken paa Færøerne, et Sidestykke til Tysken i Slesvig" zur Seite. Er argumentierte, dass das Verhältnis zwischen Färöisch und Dänisch mit demjenigen zwischen Dänisch und Deutsch im Herzogtum Schleswig vergleichbar sei, wo die Dänen damals für das Recht auf ihre Sprache kämpften. Gundtvig forderte die Regierung auf, deshalb Färöisch als Nationalsprache anzuerkennen und entsprechend an den Schulen, in der Kirche usw. einzuführen. 1846 erschienen Hammershaimbs ersten Volksmärchen in Rafns wissenschaftlicher Zeitschrift "Annaler for nordisk Oldkyndighed" zusammen mit den o.g. Zaubersprüchen und einigen Kommentaren zur Aussprache. 1854 erschien Hammershaimbs "Færøsk sproglære" (Färöische Sprachlehre) ebenfalls in dieser Zeitschrift. Als Beispiel nennt Hammershaimb den altnordischen Buchstaben ó der in den verschiedenen Dialekten als "ou" oder "ow" (Suðuroy), "eu" oder "öv" (Nordinseln), oder kurz vor zwei Konsonanten "ö" (im Norden vor "e" oder "æ" (siehe färöische Verschärfung)) geschrieben wurde. Er machte daraus wieder einen Buchstaben, und definierte stattdessen die besonderen Ausspracheregeln hierfür. Damit wurden die altnordische Wörter im Schriftbild leichter erkennbar. 1891 wurde Hammershaimbs Sprachlehre in seiner "Færøsk Anthologi" vollständig überarbeitet und hat bis heute nur wenig an Gültigkeit verloren. Hammershaimbs jüngerer Kollege Jakob Jakobsen trug hierzu maßgeblich bei. Sein Verdienst bei diesem Standardwerk war nicht nur die phonetisch exakte Umschrift und Gegenüberstellung der Dialekte anhand ausführlicher Leseproben, sondern vor allem auch ein Wörterbuch Färöisch-Dänisch mit 10.000 Stichwörtern und durchgängigen Ausspracheangaben. Es bildet den zweiten Band der "Anthologi". Abgesehen von der Unterscheidung zwischen den Buchstaben ø und ö und der Verwendung des x entspricht es weitgehend der heutigen Rechtschreibung. Jakobsen war zugleich der erste färöische Gelehrte, der neue Begriffe schuf und so das Färöische zu einer modernen Bildungssprache ausbaute. Seine reformierte lautnahe Broyting-Rechtschreibung setzte sich allerdings nicht durch, weswegen Färöisch heute noch sehr dem isländischen und altnordischen Schriftbild ähnelt. Als Beispiel sei hier der Buchstabe ð genannt, der im Färöischen stumm oder ein Gleitvokal ist und daher immer wieder zu Schreibfehlern führt. Hammershaimbs Freund Svend Grundtvig reiste zusammen mit Jørgen Bloch auf die Färöer, um bei der Sammlung vieler alter Sprachdenkmäler zu helfen. Grundtvig und Bloch verwendeten konsequenterweise Hammershaimbs Orthographie in seiner Sammlung "Føroyja kvæði". Sie schrieben auch das Wörterbuch "Lexicon Færoense" (1887–1888), welches zwar unveröffentlicht blieb, aber die Grundlage für alle weiteren färöischen Wörterbücher bildete. Es hat 15.000 Stichwörter und übertrug u.a. Svabos "Dictionarium Færoense" in die Normalrechtschreibung. Hammershaimbs Verdienst war es, die färöische Sprache in eine Schriftform gegossen zu haben, die keinen der färöischen Dialekte bevorzugt und gleichzeitig für Kenner des Altnordischen ein Höchstmaß an Lesbarkeit garantiert – allerdings auf Kosten der Nähe zur Aussprache. Entwicklung zur Nationalsprache. Christian Matras (1900–1988) war der erste Professor für Färöisch und nicht nur ein bedeutender Sprachwissenschaftler und Lexikograph, sondern auch Dichter. Das Neufäröische wurde auf dem Weihnachtstreffen der Färöer 1888 von der sich bildenden Nationalbewegung als künftige Hauptsprache proklamiert. Aber erst mit der Gründung der Unabhängigkeitspartei Sjálvstýrisflokkurin 1906 trat das geschriebene Färöisch als „ernstzunehmende Konkurrentin“ des Dänischen auf. Der färöische Sprachenstreit in der ersten Hälfte des 20. Jahrhunderts war ein besonders deutlicher Ausdruck des Kulturkampfs für die eigene Nationalsprache. Protagonisten waren Pädagogen wie Símun av Skarði (1872–1942), Jákup Dahl (1878–1944) und A. C. Evensen (1874–1917). Von Dahl stammt die erste Grammatik, die "Føroysk Mállæra". Sein Freund A. C. Evensen konnte die Arbeit am "Føroysk orðabók" („Färöisches Wörterbuch“) nicht vollenden, so dass es nur von A-F reicht. 1927–1928 erschien das erste „richtige“ färöische Wörterbuch von Christian Matras (1900–1988) und Mads Andreas Jacobsen (1891–1944). Es war das "Føroysk-donsk orðabók" ein färöisch-dänisches Wörterbuch, das 1961 in überarbeiteter Ausgabe erschien und mit Ergänzungsband bis heute (2007) maßgeblich ist. Erst 1937 wurde Färöisch als Schulsprache anerkannt, 1938 als Kirchensprache, und seit der Autonomie der Färöer von 1948 ist es Hauptsprache "(høvuðsmál)" auf der Inselgruppe. 1961 schließlich kam die erste "offizielle" färöische Bibel von Jákup Dahl heraus (vorher gab es schon eine baptistische Ausgabe); das Färöische wurde aber bereits vorher von der Kanzel gepredigt. Die Gründung der Universität der Färöer 1965 unterstrich den Anspruch, Färöisch als Wissenschaftssprache zu etablieren. Erster Professor für Färöisch war Christian Matras. Er sorgte für die Veröffentlichung der färöischen Balladen ("Føroya kvæði: corpus carminum Færoensium" in 7 Bänden 1941–96) als wichtigstes nationales Sprachdenkmal. Es sollte bis 1998 dauern, bis die Färinger ihr erstes muttersprachliches Wörterbuch bekamen, das "Føroysk orðabók" von Jóhan Hendrik Winther Poulsen (* 1934) und anderen. Poulsen prägte die heutige färöische Sprachpolitik, die sich in ihrem Purismus (Vermeidung von Fremdwörtern) am Isländischen orientiert. Dadurch ist gewährleistet, dass Färöisch auch heute noch einen relativ eigentümlich anmutenden nordischen Wortschatz aufweist. Beispielsweise wurde aus einem "helikoptari" eine "tyrla", und ein "komputari" heißt inzwischen nur noch "telda". Dänisch ist offizielle Zweitsprache auf den Färöern, verliert aber im 21. Jahrhundert zunehmend an praktischer Bedeutung gegenüber dem Englischen als Geschäftssprache. Beispielsweise sind die Website und der Briefkopf der Landesregierung der Färöer nur auf Färöisch und Englisch, nicht aber auf Dänisch, während färöische Gesetzestexte immer noch ins Dänische übersetzt werden müssen. Die meisten Hinweisschilder auf den Färöern sind heute einsprachig auf Färöisch. Dort wo Zweisprachigkeit vonnöten scheint, wird grundsätzlich Englisch verwendet. Dänische Schilder sieht man nur noch an dänischen Einrichtungen. Fremde Einflüsse. Genetische Untersuchungen haben ergeben, dass 80 % der männlichen Gene der Färinger skandinavischen (norwegischen) Ursprungs sind und 20 % britischer Herkunft. Bei den Frauen ist dieses Verhältnis genau umgekehrt. Zu 90 % stammen ihre Gene von den Kelten und nur zu 10 % von den Wikingern. Das ist dadurch erklärbar, dass die Wikinger Keltinnen als Frauen und Sklavinnen hatten. Ob sie direkten sprachlichen Einfluss hatten, ist nicht abschließend geklärt. Aber es finden sich einige typische keltische Wörter im Färöischen, wie "dunna" („Ente“), "drunnur" („Rumpf“ bei Schafen und Rindern), "korki" (eine auf den Färöern dominierende Flechte, aus der ein Purpurfarbstoff und Lackmus hergestellt wird) und Ortsnamen wie "Dímun". Auch Redewendungen wie "tað er ótti á mær" („ich habe Angst“, wörtlich „da ist Furcht auf mir“) haben eine keltische, aber keine skandinavische Entsprechung. Durch die dänische Kolonialsprache, insbesondere seit der Reformation, gelangten viele dänische Lehnwörter ins Färöische. Diese findet man noch heute mehr in der gesprochenen als in der Schriftsprache. Daneben gibt es auch charakteristische alte englische Lehnwörter, wie zum Beispiel "trupulleiki" (färöische Sprachpolitik sehr puristisch ist, dringen immer wieder Anglizismen ins Färöische, insbesondere in die gesprochene Sprache. Ð und G als Gleitvokale. Die Buchstaben und verhalten sich zwischen Vokalen identisch. Sie werden zu einem Gleitvokal /j, v, w,/ je nach Umgebung oder sind stumm. Diese Regeln gelten auch, wenn zwei Vokale in der Schrift aufeinanderstoßen. In der färöischen Grammatik "Mállæra" 1997 wird nicht zwischen /v/ und /w/ unterschieden. Nominal flektierte Wörter. Das Färöische ist im Gegensatz zu anderen germanischen Sprachen wie Dänisch oder Englisch reicher an Formen. Zum Beispiel ist das Genus-System dem Deutschen sehr ähnlich, es wird also bei Nomina, Pronomina, Adjektiven etc. zwischen drei Geschlechtern unterschieden. Auffallend – und unter den germanischen Sprachen alleine stehend – ist im Färöischen die Pluralform des Zahlworts und unbestimmten Artikels ein, der genauso geschrieben, gesprochen und (im Singular) verwendet wird wie im Deutschen, aber anders gebeugt wird. Hinzu kommen die distributiven Zahlwörter der färöischen Sprache für "zwei" und "drei" "(siehe dort)". Charakteristisch für die nominal flektierten Wörter im Färöischen ist deren häufige Endung "-ur". Dabei ist das (aus dem Kontext gerissen) keineswegs ein Indikator für eine bestimmte Wortart, noch für ein Geschlecht oder einen Numerus oder Kasus. Ebenso verhält es sich mit den typischen Endungen "-ir" und "-ar". Wie oben bereits erwähnt, können unbetonte Silben (und das sind im Färöischen allgemein die Endsilben) keine anderen, als diese drei Vokale a, i, u tragen. Damit ist es freilich komplizierter als im Deutschen (und anderen Sprachen), wo in diesem Fall meist das e verwendet wird, falls eine Flektionsendung einen Vokal trägt. Dieses System ist auch für Muttersprachler manchmal schwer durchschaubar, zumal erschwerend hinzukommt, dass die "gesprochene Sprache" bestimmte Endungsvokale anders realisiert und manchmal auch in der Rechtschreibung zwei Varianten einer Form zulässig sind. Andererseits kann gesagt werden, dass sich sowohl bestimmte Paradigmen in der gesprochenen Sprache kaum oder gar nicht von dem altnordischen Ursprung entfernt haben als auch selbst unregelmäßige Formen in bestimmten Fällen Parallelen zum Deutschen aufweisen. Nomina. Stellvertretend für die drei Geschlechter seien hier zur Veranschaulichung drei häufige Klassen genannt, deren Stammvokale sich "nicht" ändern. Artikel. Allgemein unterscheiden sich die skandinavischen Sprachen von den anderen germanischen Sprachen dadurch, dass der bestimmte Artikel dem Nomen "angehängt" wird, also ein Suffix ist. Dies ist im Färöischen nicht anders, und es bildet in dieser Hinsicht eine Gemeinsamkeit mit dem Norwegischen und Schwedischen, indem es in attributiven Stellungen eine "doppelte Determination" gibt – im Gegensatz zum Dänischen und Isländischen. Das heißt: Wenn ein determiniertes Substantiv durch ein Adjektiv näher beschrieben wird, taucht in dem Satz nicht nur der Artikel als einzelnes Lexem auf, sondern "zusätzlich" noch als Suffix an dem betreffenden Nomen. Angehängter bestimmter Artikel. Grundsätzlich gilt, dass die Nominativform des angehängten bestimmten Artikels bei männlichen und weiblichen Nomen immer -(i)n und bei sächlichen -(i)ð ist, wobei sich das in den anderen Kasus anders darstellt. Als Faustregel kann gelten, dass sich die oben aufgeführten Nominalflexionen auch im Neutrum (wie in den anderen beiden Genera) so verhalten, dass ein "n" zwischen Stamm und Flektionsendung tritt, und dass die Dativendung -um in diesem Fall nicht nur im Plural, sondern auch im Singular auftritt (als -num). Adjektive. Wie im Deutschen gibt es bei Adjektiven (Eigenschaftswörtern) eine starke und eine schwache Beugung. Erstere wird bei unbestimmten Artikeln (ein, kein, einige etc.) verwendet, oder wenn das Hauptwort alleine steht. In diesem Fall trägt das Hauptwort auch keinen angehängten bestimmten Artikel. Adjektive werden nach Genus, Kasus und Numerus gebeugt. Im Wörterbuch steht stets die männliche Nominativform der starken Beugung (erkennbar an der Endung -ur, die in einigen Fällen aber auch zum Wortstamm gehören kann). Starke Beugung. In dieser Tabelle sind auch die dazugehörigen Fragewörter angegeben (hvør? = wer?, hvat? = was? usw.). Färöisch als Fremdsprache. Färöisch als Fremdsprache wird nur von Ausländern auf den Färöern und einigen Skandinavisten und Färöerfreunden im Ausland beherrscht. Außerhalb der Färöer wird es lediglich an der Universität Kopenhagen und seit Januar 2011 auch am Nordkolleg Rendsburg unterrichtet. Die Universität der Färöer ist die einzige Bildungseinrichtung mit Färöisch als Hauptstudiengang innerhalb der Skandinavistik. Das bedeutet auch, dass Kinder von Färingern im Ausland nirgends einen färöischen Schulunterricht bekommen können, außer bei ihren Eltern und der Volkshochschule der Färöer, die seit 2007 einen Sommerkurs für diese Kinder anbietet. Die Universität der Färöer bietet für erwachsene ausländische Interessenten ebenfalls einen intensiven Sommerkurs in Färöisch an. Dieser findet in der Regel jedes Jahr statt und dauert eine Woche. Gelehrte im deutschen Sprachraum für Färöisch waren Ernst Krenn (1897–1954) an der Universität Wien und Ottmar Werner († 1997) an der Universität Freiburg. Textproben. Beispiel aus: W.B. Lockwood, "An Introduction to Modern Faroese". Lockwood verwendet hier eine neufäröische Version der Färingersaga und zitiert den Abschnitt, wo Sigmundur Brestisson vom norwegischen König beauftragt wird, die Färöer zu christianisieren. Die Forschung geht davon aus, dass sich das entsprechende Ting im Jahre 999 auf Tinganes versammelte. Quelle: Pressemitteilung der Färöischen Landesregierung vom 26. September 2005. Die neue Smyril ist eine hochmoderne Autofähre, die die Fahrtzeit von Suðuroy nach Tórshavn erheblich verkürzt und insbesondere für die Bewohner der Südinsel von immenser Bedeutung ist. Färöische Begriffe und Lehnwörter. Es gibt in der deutschen Sprache zwei echte Lehnwörter aus dem Färöischen: Grindwal und Skua (Raubmöwe). Wörterbücher. Das Standardwörterbuch ist seit 1998 das einsprachige "Føroysk orðabók", das seit 2007 auch im Internet verfügbar ist (siehe Weblinks). Es wurde unter der Leitung von Prof. Jóhan Hendrik Winther Poulsen erstellt. Färöisch-Dänisch-Färöisch. Die beiden hier aufgeführten Titel sind färöisch-dänische bzw. dänisch-färöische Wörterbücher. Das "Føroysk-Donsk Orðabók" erschließt einen großen Teil des färöischen Wortschatzes, während das "Donsk-Føroysk Orðabók" wichtige Rückschlüsse auf den färöischen Umgang mit Internationalismen, Anglizismen und niederdeutschen Lehnwörtern gestattet, die im Dänischen häufig sind und in der färöischen Schriftsprache meist vermieden werden. Weblinks. Sprache Freitag. Der Freitag ist gemäß der Europäischen Norm EN 28601 und dem internationalen Standard ISO 8601 der fünfte Tag der Woche, nach jüdischer, christlicher und islamischer Zählung der sechste. Etymologie. Der Name geht auf den römischen Tagesnamen "dies Veneris", also Tag der (Liebesgöttin) Venus, und dieser wiederum auf den babylonischen Wochentagsnamen zurück. Als die südlichen Germanen die Siebentagewoche von den Römern übernahmen, übersetzten sie ihn mit ihrer als ähnlich wahrgenommenen Göttin Frija, die im Norden Frigg hieß (vgl. althochdeutsch "frîatac", altenglisch "frīgedeag"). Sie war in der isländischen Edda eher Schutzherrin der Ehe und Mutterschaft. Danach würde man eher die nordgermanische Liebesgöttin Freya an dieser Stelle erwarten, die deshalb auch oft als Namensgeberin des Freitags genannt wird. Allerdings kann ihr Name, der urnordisch "*fraujōn" (Herrin) gelautet hätte, nicht zu "frîatag" geführt haben. Eindeutig geklärt ist die Zuweisung jedoch nicht. Im Altnordischen gab es sowohl die Bezeichnungen "Freyjudagr" als auch "Frjádagr" als Namen für den Freitag, einmal auf Freya und das andere Mal auf Frigg verweisend. Vermutlich war Frijas Rolle ursprünglich der Venus ähnlicher als später in der isländischen Literatur des Mittelalters. In Skandinavien wurde der Name allerdings nicht nach der dortigen Namensform "Frigg" gebildet, sondern nur der südgermanische Name übernommen (vgl. schwedisch fredag). Die romanischen Namen für Freitag (franz. ', ital. ', span. ') gehen ebenfalls auf die lateinische Bezeichnung "dies Veneris" beziehungsweise "Veneris dies" zurück. Bedeutung in den abrahamitischen Religionen. Im Judentum ist der Freitag, hebräisch יום שישי (jom schischi, der sechste Tag) der Rüsttag und Vorabend des Sabbats, der am Freitagabend bei Einbruch der Dunkelheit beginnt. Im Christentum gedenken die Gläubigen freitags in besonderer Weise des Leidens und der Kreuzigung Christi. Nach alter Tradition verzichten Christen freitags auf Fleisch (siehe auch Freitagsopfer). Der wichtigste Freitag des Kirchenjahres ist der Karfreitag. Der Freitag ist im Islam der wöchentliche Feiertag, an dem das Mittagsgebet (Salat) in der Gemeinschaft verrichtet wird und der Prediger (Chatib) eine Predigt (Khutba) hält (vgl. Freitagsgebet). Redewendungen. Der Spruch "„Freitag nach eins macht jeder seins.“" bezieht sich auf den besonders in Behörden verbreiteten frühen Feierabend am letzten Arbeitstag der Woche. Das im Englischen existierende "„Thank God it's Friday“" drückt in ähnlicher Weise die Vorfreude auf das in der Regel arbeitsfreie Wochenende aus. Freya. Freya, auch Freia oder Freyja (altnordisch „Herrin“) ist der Name der nordischen Wanengöttin der Liebe und der Ehe. Sie gilt als zweite Göttin des nordischen Pantheons nach Frigg, mit der sie in neuzeitlichen Rezeptionen oft gleichgesetzt oder verwechselt wird. Sie ähnelt der Venus des römischen Götterhimmels. Namensformen. Aus der Skalden-Dichtung sind einige Beschreibungen bekannt, die als Freya-Kenningar aufgefasst werden. Dies sind Mardöll, Menglada, Hörn, Gefn, Sýr und Vanadís. Aufgrund ihres Beinamens Gefn, wird sie (eher spekulativ) auch mit der Göttin Gefjon in Zusammenhang gebracht. Die südgermanische Frija (althochdeutsch Friia, Frea) bezieht sich auf die Asengöttin Frigg. Stellung, Attribute. Freya gehört zu den Wanen, einem der beiden Göttergeschlechter der nordischen Mythologie. Ihr Bruder ist Frey (aisl. Freyr), ihr Vater der Meergott Njörd, als Mutter wird Skadi, Tochter des Riesen Thiazi genannt. Ihr Gatte ist in der eddischen Mythologie der Gott Óðr. Mit ihm hatte sie die Töchter Hnoss und Gersimi (beide Namen sind Synonyme und bedeuten „Kostbarkeit“). Freya gilt als die „berühmteste von den Göttinnen“ (Gylfaginning, Kap. 23). Sie gilt als die Göttin der Fruchtbarkeit und des Frühlings, des Glücks und der Liebe, sowie als Lehrerin des Zaubers (seiðr). Freya besitzt ein von Zwergen geschmiedetes Halsband, Brisingamen, einen von Waldkatzen gezogenen Wagen und ein Falkengewand, mit dem man wie ein Falke durch die Lüfte gleiten kann. Nach dem Gedicht "Hyndluljóð" reitet sie auch auf dem Eber Hilisvini. Auch in der Gylfaginning tritt Freya auf. Danach weint sie goldene Tränen, als Oðr fortfährt. Nach der Grímnismál heißt ihr Hof Fólkvangr. Ihr Saal heißt Sessrúmnir. Nach der "Ynglinga saga" Snorris lehrte sie die Asen den Zauber. Aber ihre Hauptaufgabe liegt darin, dass sie als Anführerin der Walküren auf den Schlachtfeldern daheim ist und die Hälfte der gefallenen Recken beanspruchen darf, während Odin (der oberste Gott, Gott des Krieges) die andere Hälfte zusteht. Der Wochentag Freitag (ahd. frîatac, ae. frīgedeag) ist genau genommen nicht vom nordgermanischen „Freya“ abgeleitet, sondern von „Frija“, der südgermanischen Namensform der germanischen Göttin Frigg, welche je nach Lesart der (spärlichen!) Quellen von jener zu unterscheiden ist. Entwicklung. Freya spielt in den eddischen Texten "Hyndluljóð, Lokasenna" und "Þrymskviða" eine bedeutende Rolle. In "Grímnismál" erscheint sie als Todesgöttin und in der "Völuspá" schimmert sie durch den Gesang "Ods Braut" (Óðs mey). Auch die Zauberinnen Gullveig und Heid, die in den Strophen davor den Krieg zwischen Asen und Vanen entfachen, werden für Hypostasen der Göttin Freya gehalten. Nach Snorris "Gylfagynning" erhält sie immer, wenn sie einem Kampf beiwohnt, die Hälfte der Gefallenen, die andere Hälfte fällt Odin zu. Da es keine südgermanischen (z. B. deutschen oder englischen) Überlieferungen zu Freya gibt und die Südgermanen den Tag der Venus (Freitag) noch mit Frija/Frigg verbanden, wird angenommen, dass Freya eine wikingerzeitliche Loslösung der Aspekte Liebe, Liebesmagie und Promiskuität der Frigg bildet. Dazu sind in der "Edda" und dem "Gylfaginning" folgende Episoden beschrieben: Den Halsschmuck der Freya, der Brisingenschmuck, hatten die Zwerge Alfrigg, Dvalin, Berling und Grervier (Gerr) gefertigt, der Preis des Erwerbs war, dass die Göttin vier aufeinanderfolgende Nächte mit jeweils einem der Zwerge verbrachte – zum Unwillen Odins, der Freya zur Strafe zwang, unter den Menschen einen Krieg anzuzetteln. Eine weitere Berichterstattung besagte, dass Loki beim von Ägir ausgerichteten Trinkgelage alle Anwesenden beschimpft und der Freya vorwirft, sie habe mit allen Asen und Alben im Saal Liebschaften gehabt. Hinzuzufügen bleibt, dass Loki in unerwiderter Liebe zu Freya schmachtete. Die literarischen Ausgestaltungen Freyas während der isländischen Renaissance des 13. und 14. Jahrhunderts sind allerdings keine authentischen Quellen zur heidnischen Gestalt der Göttin. In der Neuzeit hat sie die Göttin Frigg in der isländischen Verarbeitung der alten Sagen vollkommen verdrängt. In einer Illumination in einer Papierhandschrift des 17. Jahrhunderts erscheint sie allerdings nur noch als treusorgende Familienmutter. Quellen. Besonders bekannte Quellen über Freya sind zwei Gedichte der Lieder-Edda. In der "Lokasenna" („Schmähreden des Loki“) wirft ihr der Gott Loki vor, mit jedem Gott und jeder mythologischen Gestalt Verkehr gehabt zu haben. In der "Þrymskviða" („Das Lied von Thrym“) hat sie einen Wutausbruch, als die Forderung des Riesen Thrymr (aisl. Þrymr) lautet, ihn heiraten zu sollen, um den Hammer Thors von den Riesen auszulösen, der wichtig für den Fortbestand der Götterwelt ist. Auch in der Gylfaginning und im Grímnismál tritt Freya auf. Kultorte. Dänische wie schwedische Ortsnamen gehen auf die Göttin zurück. So ist z.B. Fröjel auf Gotland ein wikingerzeitlicher Hafen und Kultplatz der Freya (schwed. Fröja), an dem noch eine Fornborg und eine Trojaburg (nord. Trojeborg) auf die alte Funktion des Ortes verweisen, der auch Thingplatz war. In Dänemark sind in Jütland Frøslev, auf Seeland ebenfalls Frøslev und auf Lolland Frejlev solche Orte. Fritz Walter. Friedrich „Fritz“ Walter (* 31. Oktober 1920 in Kaiserslautern; † 17. Juni 2002 in Enkenbach-Alsenborn) war ein deutscher Fußballspieler. Fritz Walter gehört zu den herausragenden Persönlichkeiten des deutschen Fußballsports. Mit ihm als Kapitän gewann die Nationalmannschaft die Weltmeisterschaft 1954. Auf Vereinsebene hielt Walter dem 1. FC Kaiserslautern über 30 Jahre lang die Treue und gewann mit ihm zwei deutsche Meisterschaften (1951 und 1953). Für seine fußballerischen und sozialen Verdienste wurde er vielfach geehrt und als damals erster Spieler zum Ehrenspielführer der Nationalelf ernannt. Jugend. Friedrich Walter wurde 1920 als ältestes von fünf Kindern in Kaiserslautern geboren. Er hatte zwei Schwestern, Gisela und Sonja, und zwei Brüder, Ludwig und Ottmar, die beide ebenfalls beim 1. FC Kaiserslautern spielten. Mit Ottmar spielte er später gemeinsam in der Nationalmannschaft und gewann mit seinem Bruder den Weltmeistertitel 1954. Als Sohn des Vereinswirts des 1. FC Kaiserslautern kam der junge Fritz schon in frühester Jugend mit dem Fußball in Kontakt. Seine ersten Schritte auf dem Fußballplatz machte er als Siebenjähriger in der Schülermannschaft des FCK. Zunächst spielte er auf der Position des rechten Verteidigers, schon bald war das Ausnahmetalent ein stadtbekannter Fußballer. 1938 bis 1940. Nach der Schule machte er eine Ausbildung zum Bankkaufmann, bevor er sich 17-jährig 1938 als Mittelläufer des FCK ganz dem Fußball verschrieb. Allerdings benötigte er wegen seines Alters eine Sondergenehmigung. Schnell war Walter der Star der Mannschaft, die in der Gauliga Südwest (ab 1941: Gauliga Westmark) zu den stärksten der Region gehörte. 1940 bis 1945. Wie vielen anderen Fußballern auch, raubte der Zweite Weltkrieg Fritz Walter seine besten Jahre als Sportler. Obwohl Reichstrainer Sepp Herberger für seine Nationalspieler (Walter war seit 1940 Auswahlspieler) Privilegien durchsetzte, wurde Walter 1940 in die Wehrmacht einberufen und als Infanterist nach Frankreich versetzt. Am 15. März 1942 erzielte er im Gauliga-Spiel gegen den FK Pirmasens beim 26:0 dreizehn Tore. Im Achtelfinale der Deutschen Meisterschaft scheiterte er mit dem 1. FC Kaiserslautern am späteren Meister FC Schalke 04. Während seiner Zeit als Infanterist im lothringischen Diedenhofen spielte er 1943 zeitweise für die TSG Diedenhofen, für die Soldatenelf „Rote Jäger“ und im Juni 1943 kurzzeitig für die TSG Saargemünd. Später wurde er auf Sardinien, Korsika und Elba eingesetzt. Nach Kriegsende geriet er in der Ukraine in sowjetische Kriegsgefangenschaft. Das „Spiel seines Lebens“, wie er später jedoch betonte, war nicht das WM-Finale 1954, sondern ein Spiel, das er im Kriegsgefangenenlager bei Máramarossziget in Rumänien machte. Geschwächt von einem Malaria-Anfall spielte er mit den ungarischen und slowakischen Wachsoldaten Fußball. Sie erkannten den deutschen Nationalspieler und stellten ihn dem sowjetischen Lagerkommandanten Major Schukow vor. Angeblich bewahrte Schukow Walter und dessen jüngeren Bruder Ludwig vor dem sibirischen Gulag. Bereits am 28. Oktober 1945 kehrten die Brüder nach Kaiserslautern zurück. 1945 bis 1959. Nach seiner Rückkehr aus der Gefangenschaft spielte Walter wieder für „seinen“ FCK und wirkte bei der Reorganisation des Vereins mit. Als Regisseur auf dem Feld führte er die "Roten Teufel" in die bedeutendste Phase ihrer Clubgeschichte. Zwischen 1945 und 1949 trainierte er auch den 1. FCK. Der Verein entwickelte sich zum erfolgreichsten der frühen Nachkriegszeit. Zwischen 1948 und 1954 wurde er sechsmal Meister der Oberliga Südwest, in der ab 1948 erstmals in Deutschland das Vertragsspielerstatut eingeführt worden war. 1951 gewann Walter mit seiner Mannschaft erstmals die deutsche Meisterschaft (2:1-Sieg über Preußen Münster), 1953 wurde der VfB Stuttgart im Finale mit 4:1 deklassiert. 1948, 1954 und 1955 scheiterte Kaiserslautern im Endspiel. Walter galt als der beste Fußballer Deutschlands und erhielt Angebote von großen europäischen Spitzenvereinen. 1951 bot Atlético Madrid für einen Zweijahresvertrag 500.000 DM Handgeld, dazu Gehalt, Prämien, Auto, mietfreies Wohnen – damals enorme Summen und Privilegien. „Dehäm is dehäm“ sagte er lapidar zu seiner Entscheidung in der Pfalz zu bleiben. Auch Angebote von Inter Mailand, dem FC Nancy und Racing Paris lehnte der bodenständige Walter ab. Hierzu schrieb er später einmal in einer Kolumne: „‚Schätzche, was mache mer?‘ hab ich meine Frau Italia gefragt. ‚Brauchst du mich doch gar nicht erst zu fragen‘ hat sie mir geantwortet, ‚da oben dein Betzenberg, der Chef, dein FCK, die Nationalmannschaft...‘“. Herberger hatte zur Unterstützung den adidas-Gründer Adi Dassler davon überzeugt, ihm eine repräsentative Funktion im Unternehmen anzubieten. Mit dem FCK wurde er 1955 bis 57 drei weitere Mal Oberligameister. Man sprach respektvoll von der "Walter-Elf." In einem Freundschaftsspiel mit dem FCK erzielte er 1956 sein legendäres Hackentor von Leipzig im Spiel gegen den SC Wismut Karl-Marx-Stadt. Es wird als eines der besten Tore aller Zeiten bezeichnet: Walter hatte sich nach vorne fallen lassen und den Ball dann mit der rechten Hacke über den eigenen Kopf ins rechte Eck geschossen. Der DDR-Sportreporter Wolfgang Hempel bezeichnete es als „Tor des Jahrhunderts“. In seiner Zeit beim 1. FC Kaiserslautern erzielte Walter in 384 Spielen 327 Tore. Sensationell ist diese Quote vor allem deshalb, weil er kein Stürmer, sondern Mittelfeldspieler auf der Halbposition war. Er trug die Rückennummer 8. Am 20. Juni 1959 streifte er sich das letzte Mal das rote Trikot des FCK über und beendete seine Karriere im Alter von 38 Jahren. Nationalspieler (1940 bis 1958). Schnell rückte Walter auch ins Blickfeld von Reichstrainer Sepp Herberger, der ihn 1940 in die großdeutsche Nationalmannschaft berief. Am 14. Juli 1940 bestritt der 19-jährige Walter sein erstes Länderspiel und erzielte beim 9:3-Erfolg über Rumänien gleich drei Tore. Einige Wochen später folgte ein 13:0 gegen Finnland, wobei er sich mit zwei Toren beweisen konnte. Mehr als seine Torjägerqualitäten bewunderten die Fachleute jedoch sein spielerisches und taktisches Vermögen, mit dem er die Angriffe seiner Mannschaft lenkte. Durch ständige Positionswechsel – auch in die Abwehr – verkörperte er einen völlig neuen Typ Stürmer und wurde als kommender Superstar gefeiert. Doch der Zweite Weltkrieg unterbrach die internationale Karriere Walters; acht Jahre lang (von 1942 bis 1951) bestritt er kein Länderspiel für Deutschland. Da der DFB nach Ende des Nationalsozialismus fünf Jahre lang keine Länderspiele bestreiten durfte, spielte Walter für die Auswahl "Pfalz". Dieser Mannschaft, in der neben ihm noch sieben weitere Kaiserslauterer Spieler standen, bescheinigte Bundestrainer Herberger „Länderspielformat“, und ab 1951 sollten diese Spieler dann das Gerüst der Nationalmannschaft bilden. Sepp Herberger bedachte Fritz Walter mit der Kapitänsbinde, die Walter erstmals am 15. April 1951 beim 3:2-Sieg über die Schweiz trug. Er wurde der verlängerte Arm des Bundestrainers auf dem Feld, zudem verband beide ein inniges Vater-Sohn-Verhältnis. Drei Jahre später führte Walter die Nationalmannschaft als Kapitän zur Weltmeisterschaft 1954. Mit Fritz Walter, seinem Bruder Ottmar, Werner Kohlmeyer, Horst Eckel und Werner Liebrich stellte der FCK den Kern des von Herberger trainierten und aufgestellten Kaders für die WM 1954 in der Schweiz. Das Vater-Sohn-Verhältnis zwischen Herberger und seinem Kapitän erwies sich als Glücksfall für den deutschen Fußball: Walter setzte als Kopf und Ideengeber der Elf die taktischen Anweisungen des Trainers perfekt auf dem Rasen um. Nach zwei souveränen Siegen in der Vorrunde gegen die Türkei (4:1 und 7:2) und der „taktischen“ Niederlage mit einer Reservemannschaft gegen den hohen Favoriten Ungarn (3:8), führte ein überragender Walter seine Mitspieler über das Viertelfinale gegen Jugoslawien (2:0) ins Halbfinale. Dort wurde das Nachbarland Österreich mit 6:1 deklassiert, wobei Walter mit zwei Toren vom Elfmeterpunkt und einer Weltklasseleistung seinen Status untermauerte. Im Finalspiel gegen Ungarn am 4. Juli 1954 lag die Mannschaft im Berner Wankdorfstadion nach acht Minuten mit 0:2 zurück, glich jedoch noch vor der Pause aus (das 2:2 hatte Walter mit einer perfekten Ecke vorbereitet). Das 3:2 durch Helmut Rahn sechs Minuten vor Spielende machte den Außenseiter zum Weltmeister und die Spieler zu Nationalhelden: „Wir sind wieder wer“, lautete neun Jahre nach Kriegsende der Tenor in Deutschland. Noch heute wird die Mannschaft auch als "Walter-Elf" bezeichnet. Fritz Walter hat sich durch dieses Turnier in die Riege der Ausnahmespieler wie Ferenc Puskás, Sándor Kocsis oder Juan Schiaffino eingereiht. Nach dem WM-Titel kämpfte Fritz Walter mit Verletzungen. Er bestritt von 1956 bis 1958 nur vier Länderspiele und wollte seine Karriere in der Nationalelf eigentlich beenden. Doch Mentor Herberger überredete seinen Lieblingsspieler zu einer erneuten WM-Teilnahme 1958 in Schweden. Walters Comeback war umstritten, weil man dem 37-Jährigen nicht mehr zutraute, solch eine dominierende Rolle wie beim Titelgewinn spielen zu können. Doch Walter zählte wiederum zu den stärksten Spielern Deutschlands, auch wenn er nicht mehr Kapitän war, und führte die Mannschaft zum Gruppensieg und schließlich ins Halbfinale gegen Schweden. Dort unterlag Deutschland mit 1:3, Fritz Walter musste nach einem harten Foulspiel von Parling in der 75. Minute verletzt ausscheiden. Das Halbfinale am 24. Juni 1958 sollte sein letztes Länderspiel sein, denn im Spiel um den dritten Platz gegen Frankreich konnte er nicht mehr auflaufen. Nach der WM erklärte er seinen Rücktritt vom internationalen Fußball. Damit gehört Fritz Walter zu den vier Spielern, die mehr als 15 Jahre in der Nationalmannschaft gespielt haben. (Übertroffen wurde er dabei nur von Lothar Matthäus.) Mit 33 Toren in 61 Länderspielen (davon 30 als Kapitän) war Walter bis zum 23. Juni 1966 Rekordtorschütze der Nationalmannschaft, bis er hierin von Uwe Seeler abgelöst wurde. Derzeit ist er der zehntbeste Torschütze der Nationalmannschaft. Vor der WM 1962 in Chile – Walter war schon 42 Jahre alt, hatte seine Karriere ja 1959 schon beendet – versuchte Herberger noch einmal, seinen Kapitän zu überreden. „Fritz, Sie können mich doch nicht im Stich lassen“, flehte der Bundestrainer angeblich, doch Walter lehnte ab. Spielweise. Fritz Walter war ein genialer Spielmacher, hochgradig sensibel, mit Charisma und Autorität ausgestattet sowie mit der Fähigkeit, ein Spiel „lesen“ zu können. Sein Aktionsradius reichte vom eigenen Strafraum bis vor des Gegners Tor. Er half in der eigenen Abwehr aus und war zudem torgefährlich, ein begnadeter Techniker und ein großer Stratege. Er wusste immer eine Antwort auf die taktischen Finessen des Gegners. Deshalb wollte auch Herberger seinen Zögling zu seinem Nachfolger machen. Walter sollte Bundestrainer werden. Doch den Schritt ins Trainergeschäft wagte er nie. Fritz Walter galt als sehr ehrlich und gestand: „Jahrelang war ich vor jedem Spiel so aufgeregt, dass mir schlecht wurde. Ich saß dann oft bis kurz vor Anpfiff auf dem Klo.“ „Bei ihm“, so hat Herberger einmal gesagt, „war ich mehr Psychologe als Trainer.“ Nach schlechten Spielen war Walter tagelang für niemanden zu sprechen. Nach ihm ist das "Fritz-Walter-Wetter" benannt. Damit ist regnerisches Wetter gemeint, das er zum Spielen vorzog. Er hatte sich im Zweiten Weltkrieg mit Malaria angesteckt, deshalb fiel es ihm schwer, bei Hitze zu spielen. Außerdem spielte er bei schwerem, nassem Boden seine Technik aus (so auch während des Endspiels der WM 1954, bei dem es ausdauernd regnete). „Fritz, Ihr Wetter.“ – „Chef, ich hab' nichts dagegen.“ (Fritz Walter vor dem Endspiel zu Herberger) Karriere außerhalb des Fußballs. Der gelernte Bankkaufmann war Repräsentant bei adidas, kommentierte Fußball für Rundfunksender, vertrat die Sepp-Herberger-Stiftung, die sich unter anderem um Strafgefangene kümmert, und wurde so zum einzigen der 54er Weltmeister, der seinen Ruhm vermarkten konnte, und das, obwohl der DFB nur 2.350 Mark WM-Prämie zahlte. Äußeres Zeichen seines Wohlstandes war der Bungalow mit Schwimmbad auf einer 5.000-m²-Fläche in Alsenborn. Für den Historiker Joachim Fest gab es drei Gründungsväter der Bundesrepublik Deutschland: politisch war es Konrad Adenauer, wirtschaftlich war es Ludwig Erhard und mental Fritz Walter. Eigentlich sei der 4. Juli 1954, der Tag des Endspiels in Bern, das Gründungsdatum der Bundesrepublik gewesen. Seit Oktober 1948 war Fritz Walter mit Italia Bortoluzzi (* 6. Dezember 1921; † 14. Dezember 2001) verheiratet (Sepp Herberger war Trauzeuge). Nach dem Ende seiner Karriere als Fußballspieler war Walter zunächst Werbeträger und Berater beim SV Alsenborn, Inhaber des Fritz-Walter-Kinos ("Universum") und einer Wäscherei; er schrieb Sportbücher und engagierte sich für die Sepp-Herberger-Stiftung. Der Fußballspieler engagierte sich für die Augsburger Benefiz-Fußballelf Datschiburger Kickers, die Spenden für wohltätige Zwecke sammelt. Fritz Walter war bis zu seinem Tod über viele Jahre Schirmherr der Schlappekicker-Aktion der Frankfurter Rundschau, die unter anderem in Not geratene Sportler unterstützt. In seinen letzten Lebensjahren ging Fritz Walter kaum noch in das nach ihm benannte Stadion auf dem Betzenberg in Kaiserslautern: Ein Fußballspiel anzusehen war für den nervösen und hochsensiblen Walter einfach zu aufregend. Bei Länderspielen der deutschen Nationalmannschaft saß angeblich seine Ehefrau Italia vor dem Fernseher und meldete Tore, Fouls und andere Ereignisse ins Schlafzimmer, in das sich Fritz Walter zurückgezogen hatte. Tod. Fritz Walter starb 2002 in Alsenborn, weniger als ein Jahr nach dem Tod seiner langjährigen Ehefrau Italia. Beim Viertelfinalspiel der Fußball-WM 2002 gegen die Fußballnationalmannschaft der Vereinigten Staaten spielten die deutschen Spieler ihm zu Ehren mit Trauerflor. „Seine“ Fußball-WM in Kaiserslautern konnte er nicht mehr miterleben. Walter äußerte sich angeblich einmal derart, dass er mit dem Verlauf seines Lebens zufrieden wäre, wenn er die WM 2006 in Kaiserslautern noch erlebte. Walter wurde auf dem Kaiserslauterer Hauptfriedhof in einem Ehrengrab beigesetzt. Tausende Fußballfans erwiesen ihm die letzte Ehre. Wirkung. Obwohl er die WM selbst nicht mehr erleben durfte, hatte er wohl maßgeblichen Anteil daran, dass Kaiserslautern – noch vor Bremen – zur WM-Stadt 2006 gekürt wurde. Er beteiligte sich aktiv (als offizieller WM-Botschafter) an der Kampagne "5 Weltmeister für Kaiserslautern" (mit Horst Eckel, Ottmar Walter, dem damaligen FCK-Trainer Andreas Brehme und dem damaligen Spieler Youri Djorkaeff). Andererseits wurde auch vielfach der „Fritz-Walter-Bonus“ beschworen. Die Fritz-Walter-Stiftung trägt seinen Namen. Walter war der einzige Fußballweltmeister, dem schon zu Lebzeiten ein Denkmal gesetzt wurde: 1985 wurde das Stadion Betzenberg in "Fritz-Walter-Stadion" umbenannt. Der deutsche Fußball-Bund verleiht seit 2005 den Nachwuchsspielern des Jahres die Fritz-Walter-Medaille in Gold, Silber und Bronze. Mit dieser Auszeichnung sollen besondere Leistungen jeweils in den drei Altersklassen U-17, U-18, und U-19 geehrt werden. Mit der Namensgebung möchte der DFB an den 2002 verstorbenen Ehrenspielführer der deutschen Nationalmannschaft erinnern, der, wie Gerhard Mayer-Vorfelder anlässlich der Verleihung 2005 sagte, seit dem Gewinn der Weltmeisterschaft 1954 sowohl sportlich als auch menschlich ein Vorbild gewesen sei. Die Band Sportfreunde Stiller ehrte Fritz Walter auf ihrer Fußball-CD "You have to win Zweikampf" anlässlich der WM 2006 mit ihrem Lied "Dem Fritz sein Wetter." Eine Punkband nannte sich in Erinnerung an die legendäre Weltmeisterelf von 1954 "Walter Elf". Eingang zum Fritz-Walter-Haus in Alsenborn FIFA. Die Fédération Internationale de Football Association (), kurz FIFA oder "Fifa", ist der Weltfußballverband mit Sitz in Zürich. Die FIFA ist ein gemeinnütziger Verein im Sinne des Artikels 60 ff. des Schweizerischen Zivilgesetzbuches und im Handelsregister eingetragen. Die FIFA organisiert Fußballwettbewerbe, darunter die Männer- und die Frauen-Fußball-WM. Ihr Präsident ist Sepp Blatter, der am 2. Juni 2015 seinen Rücktritt angekündigt hat. Blatter ist seit dem 8. Oktober 2015 von seinem Amt suspendiert, zunächst wegen laufenden Untersuchungen und seit dem 21. Dezember 2015 aufgrund einer Entscheidung des FIFA-Ethik-Komitees, ihn für acht Jahre von allen Ämtern auszuschließen. Name. Die beiden letzten Wörter im ausgeschriebenen Namen der FIFA, „Football Association“, stehen als Eigenname für die englische Bezeichnung des Fußballsports, "Association Football". Diese Bezeichnung dient zur Unterscheidung von Sportarten, die ebenfalls die Bezeichnung "football" führen, so zum Beispiel "Rugby Football" oder "American Football". Der französische Name der FIFA übersetzt sich daher als „Internationaler Verband des "Association Footballs"“ oder schlicht als „Internationaler Verband des Fußballs“. Geschichte. Die ukrainische Post gratulierte zum 100. Geburtstag im Jahr 2004 mit vier Briefmarken Die FIFA wurde am 21. Mai 1904 in Paris gegründet. Als Gründerväter gelten der Niederländer Carl Anton Wilhelm Hirschmann und der Franzose Robert Guérin. Gründungsmitglieder waren die nationalen Fußballverbände der Schweiz, Dänemarks, Frankreichs, der Niederlande, Belgiens und Schwedens, wobei die Gründungsmitglieder in einigen Fällen nicht den heute existierenden Verbänden entsprachen, sowie Spanien, allerdings nicht durch einen Verband, sondern vom "Madrid Football Club" (dem heutigen Real Madrid) vertreten. Der Deutsche Fußball-Bund trat der FIFA noch am Gründungstag telegrafisch bei. In den nächsten Jahren kamen weitere nationale Verbände hinzu. Der erste große internationale Fußballwettbewerb fand während der Olympischen Sommerspiele 1908 in London statt. Auch im Rahmen der nächsten Olympischen Spiele wurde ein Fußballwettbewerb ausgetragen. Während des Ersten Weltkriegs geriet die Entwicklung ins Stocken; es konnten keine Spiele mehr ausgetragen werden und mehrere Verbände (z. B. England) traten aus der FIFA aus. Nach dem Ersten Weltkrieg und dem Tod von Präsident Daniel Burley Woolfall war es der Niederländer Hirschmann, der durch seine ehrenamtliche Arbeit als Sekretär und als Interimspräsident der FIFA den Bestand sichern konnte. Der große Aufschwung begann mit der Wahl des neuen Präsidenten Jules Rimet. Dieser plante ab 1924 gemeinsam mit dem wohlhabenden Uruguayer und Sportmäzen Enrique Buero ein Fußball-Weltturnier. 1930 schließlich wurde die erste WM veranstaltet. Als Rimet 1954 zurücktrat, fand bereits die fünfte Weltmeisterschaft statt und die FIFA zählte 85 Mitglieder. Die FIFA-Mitgliederzahl wuchs in den Folgejahren von Jahr zu Jahr. Vor allem in Kriegszeiten stellten der Fußball und somit auch die FIFA eine wichtige Verbindung zwischen den Nationen dar. Nach einer Statistik der FIFA von 1972 nahmen weltweit 16 Millionen Menschen, darunter 42.220 Berufsspieler am aktiven Fußballsport teil und organisierten sich in ca. 300.000 Vereinen. Die Zahl der Schiedsrichter wurde mit 243.596 angegeben. Der nächste große Schritt war die Erweiterung des Teilnehmerfeldes bei Weltmeisterschaften von 16 auf 24 (zur WM 1982) und später auf 32 Teams (zur WM 1998). Verbände. Der FIFA gehören aktuell 209 Nationalverbände an. Diese müssen gleichzeitig Mitglied eines von sechs Kontinentalverbänden sein, jedoch sind einige Mitglieder der Kontinentalverbände derzeit nur assoziiert [AFC (1), CAF (1), OFC (3)] bzw. zwar Vollmitglied des Kontinentalverbandes aber noch kein FIFA-Mitglied [CAF (1), CONCACAF (6), UEFA (1)]. Kontinentalverbände. Die Kontinentalverbände – auch als "Konföderationen" bezeichnet – bilden sich in der Regel nach geografischen Kriterien aus den FIFA-Mitgliedsverbänden. Ausnahmen bilden beispielsweise Aruba, Curaçao, Guyana, Suriname und Trinidad und Tobago, die trotz ihrer geografischen Lage in Südamerika Mitglied der CONCACAF sind. Die asiatischen Staaten Armenien, Aserbaidschan, Georgien, Republik Zypern und Israel sind in der UEFA organisiert, ebenso die Türkei, Russland und Kasachstan, die Landesteile in Europa und Asien haben. Malta ist geografisch Teil Afrikas. Weitere UEFA-Mitglieder mit außereuropäischen Landesteilen sind Frankreich, Spanien, die Niederlande und Portugal. Indonesien als Mitglied der AFC hat Landesteile auf dem australischen Kontinent (Neuguinea), die USA als Mitglied der CONCACAF mit Hawaii in Ozeanien und Ägypten als Mitglied der CAF in Asien (Sinai-Halbinsel). Australien wechselte 2006 vom Ozeanien-Verband OFC in den asiatischen (AFC), um in Qualifikationsspielen gleichwertige Gegner für seine Nationalmannschaft zu bekommen. Nationalverbände. Bis heute haben sich in der FIFA 209 Nationalverbände zusammengeschlossen, zuletzt die Verbände von Südsudan, Montenegro, Osttimor und den Komoren. Allein zwischen 1975 und 2002 wurden 60 Verbände als Mitglieder aufgenommen. Die Nationalverbände werden finanziell und logistisch über verschiedene Programme der FIFA unterstützt. Sie räumt ihnen eine Anzahl attraktiver Rechte und Privilegien ein. Allerdings ergeben sich aus der Mitgliedschaft auch Verpflichtungen: Als FIFA-Repräsentanten in ihrem Land müssen die Nationalverbände die Statuten, Ziele und Ideale der FIFA respektieren und den Sport dementsprechend bewerben und führen. Als Alternative für National- und Regionalverbände, die nicht von der FIFA aufgenommen werden, wurde das NF-Board ins Leben gerufen. Wettbewerbe. Im August 1993 wurde für Männerfußballnationalmannschaften und 2003 für Frauenfußballnationalmannschaften eine Weltrangliste eingeführt. Diese dienen teilweise dazu, die Mannschaften bei den Wettbewerbsauslosungen einzelnen Lostöpfen zuzuordnen. Benefizspiele. Die FIFA veranstaltet im Rahmen der World XI in unregelmäßigen Abständen Benefizspiele mit der "Fußballweltauswahl", gegen die bereits öfter die "Europäische Fußballauswahl" angetreten ist, zuletzt 2005 und 2007. Organisation. Die beiden wichtigsten Gremien der FIFA sind der Kongress und der Exekutiv-Ausschuss, dem der Präsident der FIFA vorsitzt. Weitere Gremien sind Kongress. Der Kongress ist das höchste Entscheidungsorgan des internationalen Fußballverbands. Bis 1998 kam er alle zwei Jahre zusammen, seit 1998 findet dieses Treffen jährlich statt. Dieser neue Zyklus erlaubt es dem Kongress, Entscheidungen über eine ständig wachsende Anzahl an Themen zu treffen. Der Kongress trifft Entscheidungen bezüglich der Statuten und der Methoden, mit denen sie eingesetzt und angewendet werden. Der Kongress segnet auch den jährlichen Bericht ab, entscheidet über die Aufnahme neuer Nationalverbände und hält Wahlen ab, vor allem die der FIFA-Präsidentschaft. Jeder Nationalverband wird durch einen Delegierten vertreten und hat eine Stimme. Mitglieder des FIFA-Exekutivkomitees dürfen nicht als Delegierte am Kongress teilnehmen. Exekutivkomitee. Das Exekutivkomitee umfasst 25 Mitglieder und setzt sich aus Mit Wolfgang Niersbach gehört auch ein deutscher Fußballfunktionär dem Exekutivkomitee an. Frühere deutsche Mitglieder waren u. a. Theo Zwanziger (2011 bis 2015), Franz Beckenbauer (2007 bis 2011) und Gerhard Mayer-Vorfelder (1992 bis 1998, 2002 bis 2007). Ausschüsse. Es gibt 25 ständige Ausschüsse (Kommissionen) und mit den Disziplinar- und Berufungsausschüssen zwei operative Organe. Die Ausschüsse spielen eine wichtige Rolle, indem sie Entscheidungen bezüglich der Organisation von Turnieren und der Entwicklung des Fußballs im Allgemeinen treffen. Die von den Ausschüssen getroffenen Entscheidungen werden vom Exekutiv-Ausschuss ratifiziert. Verwaltung. Das Generalsekretariat, welches in Zürich rund 310 Mitarbeiter beschäftigt, ist für die Verwaltung der FIFA zuständig. An der Spitze steht der Generalsekretär, der dafür verantwortlich ist, dass die Entscheidungen des Exekutiv-Ausschusses umgesetzt werden. Weitere Aufgabenbereiche des Generalsekretariats sind die Belange der Finanzen, die Pflege internationaler Beziehungen, die Organisation des FIFA Weltpokals und die Organisation weiterer FIFA Fußball-Wettbewerbe. Das Generalsekretariat setzt sich aus verschiedenen Bereichen zusammen, die sich mit den Themen Business, Entwicklung, Finanzen, Fußball-Verwaltung, Kommunikation, Personal, Services und Wettbewerbe befassen. Sprachen. Offizielle Sprachen der FIFA sind Deutsch, Englisch, Französisch und Spanisch. In diesen Sprachen werden sämtliche Satzungen, Vorschriften, Entscheidungen und Ähnliches erstellt. Englisch dient darüber hinaus als offizielle Sprache für Protokolle und Korrespondenz. Für den Kongress gelten zusätzlich die drei Sprachen Arabisch, Portugiesisch und Russisch als offiziell. Finanzen und Sponsoren. Von den Einnahmen aus lukrativen Werbeverträgen und Fernsehausstrahlungslizenzen werden jährlich hohe Teilbeträge an die Mitgliedsverbände weitergereicht. Den größten Teil dieser Umsätze erzielt die FIFA durch die Fußball-Weltmeisterschaft der Männer. Allein durch die weltweiten Fernsehrechte an den Herren-Weltmeisterschaften 2002 und 2006 nahm die FIFA 1,81 Milliarden Euro ein. Die FIFA forderte für die Ausrichtung der WM in Deutschland eine vollständige Steuerbefreiung, die ihr auch gewährt wurde. Von 2003 bis 2006 erzielte die FIFA bei Erträgen von 3,328 Milliarden Franken einen Gewinn von 816 Millionen Franken. Allein 2006 wies sie einen Gewinn von 303 Millionen Franken aus und bezahlte dafür nur 1,06 Millionen Franken an Steuern, da die FIFA als nicht gewinnorientierte Organisation gilt und wie ein Verein besteuert wird. In den Jahren von 2011 bis 2014 nahm die FIFA 5,718 Milliarden Dollar ein, wovon 338 Millionen Dollar Gewinn verblieben. Sie verfügt im Jahr 2014 über ein Kapital von 1,523 Milliarden Dollar. Etwa 70 Prozent der Einnahmen fließen in verschiedener Form wieder an den Fußball zurück. Nach der WM in Brasilien (2014) schieden die Fluggesellschaft Emirates und der Elektronikkonzern Sony aus dem Sponsorenkreis der FIFA aus. Zum Jahresende 2014 schieden Continental, Castrol sowie Johnson & Johnson aus. Die FIFA ist in der Schweiz von der schweizerischen Steuer befreit. Eine Gesetzesinitiative zu einer künftigen gesetzlich verpflichtenden Steuerpflicht scheiterte im Schweizerischen Parlament. Hymne und Motto. Vor jedem von der FIFA organisierten Spiel ertönt beim Einlaufen der Schiedsrichter und Mannschaften auf das Spielfeld die von Franz Lambert komponierte "FIFA-Hymne". Sie wird seit der Fußball-Weltmeisterschaft 1994 gespielt. Auf dem 57. FIFA-Kongress wurde das bisherige Motto des Verbandes von „For the Good of the Game“ (dt. „Für das Gute des Spieles“) in „For the Game. For the World.“ (dt. „Für das Spiel. Für die Welt.“) geändert. Sitz der Organisation. Einfahrt zum Gelände des FIFA-Hauptquartiers Im Jahr 1932 zog der Internationale Weltfußballverband FIFA von Paris nach Zürich und hat seitdem dort seinen Hauptsitz. Im Mai 2004, zum 100-jährigen Bestehen der FIFA, wurde die Grundsteinlegung zum Um- und Neubau gefeiert. Der Grundstein birgt in seinem Inneren einen stählernen Fußball mit 1,3 Metern Durchmesser, der mit 204 Säckchen Erde aus jedem FIFA-Mitgliedsland gefüllt ist, weshalb die FIFA Wert auf die Feststellung legt, dass ihr Haus „auf dem Boden aller Mitgliedsländer“ steht. Ende Oktober 2005 wurde dann Richtfest gefeiert. Vor dem eigentlichen Baubeginn wurde das alte Gebäude zuerst abgerissen. Am 29. Mai 2007 wurde in Zürich-Hottingen der neue Hauptsitz der FIFA eingeweiht. Der neue FIFA-Hauptsitz – „Home of FIFA“ (Haus oder auch „Heimat“ der FIFA) genannt – umfasst 270 Büroarbeitsplätze, einen Hörsaal für 200 Personen, 240 Tiefgaragenstellplätze, Lager- und Archivräume. Im Außenbereich ist ein komplettes Fußballfeld nach internationalem Standard mit unterirdischen Umkleide- und Besprechungsräumen angelegt. Das Gebäude besteht aus neun Etagen (Erdgeschoss eingeschlossen), wovon sechs Etagen sich aus städtebaulichen Gründen unterhalb der Erdoberfläche befinden und fast 20 m tief reichen. Durch den Einsatz energieeffizienter Gebäudetechnik konnte auf Energie aus fossilen Brennstoffen verzichtet werden, wodurch auch keine CO2- Emissionen von dem Gebäude ausgehen. Der Bau kostete 240 Millionen Franken (ca. 180 Millionen Euro) und wurde von der Architektin Tilla Theus entworfen und vom österreichischen Bauunternehmen Strabag umgesetzt. Allgemeines. Gegenüber der FIFA wird Kritik geäußert, dass diese ihre Monopolstellung ausnutze; wie in den meisten anderen Sportarten, gibt es im Fußball einen Weltverband. Die Kommerzialisierung des Fußballs durch die FIFA und ihre Sponsoren sorgt für Kritik, da der Verband die von ihm eingeforderten Vermarktungsprivilegien u. a. mit hartem gerichtlichen Vorgehen in Einzelfällen durchzusetzen bestrebt ist. Das rigorose Vorgehen der FIFA wird insbesondere dann deutlich, wenn Grundregeln des Verbandes durch Vereine oder Landesverbände in Frage gestellt werden. So drohte die FIFA bei einer Auseinandersetzung mit dem Grazer AK mit dem Ausschluss Österreichs von der EM 2008 im eigenen Land. Im Juli 2006 wurde der griechische Verband kurzzeitig aus der FIFA ausgeschlossen. Die Nationalmannschaft von Kamerun erschien zum African Cup of Nations 2004 in einem neu entworfenen, körperbetonenden Einteiler (UniQT), den der ausrichtende afrikanische Verband auch genehmigte. Die FIFA sah dies jedoch als Verstoß gegen die eigenen Regeln an, wonach die Sportkleidung aus einem Trikot und einer Hose bestehen muss. Gegen das Team von Kamerun wurde eine Strafe von 200.000 Franken verhängt, und für die Qualifikation zur WM 2006 zog man ihm sechs Punkte ab. Der Punktabzug wurde jedoch nach erfolgreicher Klage seitens Ausrüster Puma von der FIFA wieder zurückgenommen. Im Juni 2007 kam es zu einer außergerichtlichen Einigung zwischen der FIFA und ihrem ehemaligen Sponsor Mastercard, wonach die FIFA 90 Millionen US-Dollar an das Kreditkartenunternehmen zahlte. Hintergrund war neben einem Streit um die Verwendung des FIFA-Logos auch die Feststellung durch ein US-Gericht, dass die FIFA entgegen ihren vertraglichen Verpflichtungen Mastercard bei den Neuverhandlungen über die Sponsorenvergabe im Kreditkartenbereich im Jahr zuvor zugunsten von VISA übergangen habe. Damit hat die FIFA die Hälfte der Einnahmen aus dem Neuvertrag mit VISA für die Auseinandersetzung mit Mastercard verwendet. Der damalige Verhandlungsführer der FIFA, Jérôme Valcke wurde daraufhin zunächst entlassen, bevor er am 27. Juni 2007 Generalsekretär der FIFA wurde. Gegen Ende der WM 2010 in Südafrika wurde von Medienseite bemängelt, dass die FIFA weiterhin zu ihrer Rolle während des Apartheidregimes schweige. Kritik erntete die FIFA außerdem wegen der Vergabe der Weltmeisterschaften 2018 an Russland sowie 2022 an das Wüstenemirat Katar. Der Zürcher Tagesanzeiger meinte dazu, dass Russland die Wahl der Macht und Katar die Wahl des Geldes gewesen sei. Weiter wird die FIFA kritisiert, ihre in den letzten Jahren stark angestiegenen Einnahmen für prestigeträchtige Neubauten und überhöhte Betriebskosten (insbesondere in Form von Personalkosten) verwendet zu haben. Der Umsatz der FIFA stieg zwischen 1990 und 2009 von 10 auf 778 Millionen Euro. Von ihrem Reingewinn zahlt die FIFA nach Schweizer und Zürcher Recht 4,25 Prozent Steuern. Negativpreis „Verschlossene Auster“. Mit dem Negativpreis "Verschlossene Auster" hat die "Journalistenvereinigung Netzwerk Recherche" den Weltfußballverband 2012 ausgezeichnet. Die FIFA habe bisher «alle Versuche kritischer Journalisten, über Korruption und Ungereimtheiten bei der Postenvergabe zu recherchieren, abgeblockt», erklärte der Vorsitzende des Netzwerks Recherche, Oliver Schröm. Die Laudatio hielt der Sportmanager Roland Büchel, ehemaliger FIFA-Mitarbeiter und Mitglied des Schweizer Nationalrates. Das System von Löhnen, Aufwandsentschädigungen und Boni bei der FIFA sei „völlig intransparent“, sagte Büchel und wies darauf hin, dass die FIFA im vergangenen Jahr 96,8 Millionen Dollar an Löhnen, Zahlungen an Ehrenamtliche und Boni ausgeschüttet habe. Jedoch seien kritische Medienanfragen zu dem Thema nicht beantwortet worden. Der Europarat sei Ende April in 124 Punkten zu einem „vernichtenden Urteil“ über die Fußballweltorganisation gekommen und habe daran erinnert, dass Autonomie für die Interessen des Sports da sei und „nicht für die Interessen von skrupellosen Individuen“. Die FIFA schickte keinen Vertreter zur Preisverleihung. Refugees Welcome. Mit Refugess Welcome begann die FIFA im August 2015 eine Werbekampagne zur erwünschten Einreise von Flüchtlingen aller Länder nach Deutschland, in dessen Folge in vielen Stadien große Transparente mit der Losung geschwenkt wurden. Auch auf Twitter und anderen sozialen Netzwerken wurde die Aktion #refugeeswelcome gestartet. Dies führte zu einigen kleineren Ausschreitungen am Rande der Spiele, in denen Gegner der Aktion vor allem kritisierten, die FIFA politisiere die Spiele und wolle mit der Aktion, vor allem nach den letzten FIFA-Skandalen, verlorene Fans, mit Flüchtlingen aufstocken. Enthüllungen und Ermittlungen seit 2006. Im Mai 2006 beschrieb der britische Enthüllungsjournalist Andrew Jennings in seinem Buch "Foul!" ein angeblich umfangreiches System der Korruption unter der Ägide von João Havelange und Sepp Blatter, das im Zuge des Zusammenbruchs des FIFA-Marketing-Partners ISL ans Licht kam. Kurz nach Veröffentlichung des Buches sendete die BBC am 11. Juni 2006 einen vierstündigen kritischen Beitrag, in dem der angebliche Schmiergeldskandal im Detail beleuchtet wurde. In Summe soll ISL rund 100 Millionen US-Dollar Schmiergeld gezahlt haben um Entscheidungen der FIFA zu beeinflussen. Der BBC liegt eine Liste von 175 geheimen Zahlungen vor. Der zufolge sollen auch drei Mitglieder des FIFA-Exekutivkomitees, das über die Auswahl des Ausrichters von Weltmeisterschaften entscheidet, Zahlungen erhalten haben. So sollen demnach Nicolás Leoz, Präsident der südamerikanischen Fußball-Konföderation CONMEBOL, 1998 und 1999 600.000 US-Dollar, Issa Hayatou, Präsident der Confédération Africaine de Football, 1995 20.000 US-Dollar und Ricardo Teixeira, Präsident des brasilianischen Fußball-Nationalverbands Confederação Brasileira de Futebol, 9,5 Millionen US-Dollar erhalten haben. Im Juni 2010 verfügte die Staatsanwaltschaft in Zug die Einstellung des auf Zeugenaussagen der ISMM/ISL-Gruppe beruhenden Verfahrens gegen eine bis auf zwei Funktionäre nicht namentlich genannte Führungsgruppe der FIFA gegen einen Betrag von 5,5 Millionen Schweizer Franken. Davon musste die FIFA 2,5 Millionen Schweizer Franken selbst bezahlen. Die FIFA wehrte sich gegen die Veröffentlichung eines 41-seitigen Papiers der Staatsanwaltschaft, welches das Korruptionssystem rund um die FIFA, den ehemaligen FIFA-Präsidenten João Havelange und seinen früheren Schwiegersohn Ricardo Teixeira beschreibt, die laut Dokument Schmiergelder in Millionenhöhe kassiert haben sollen. In dem Dokument ersichtlich sind die internationalen Geldflüsse und der Umgang der FIFA-Spitze mit dem Schmiergeldsystem. In der Einstellungsverfügung wird Bezug auf den aktuellen FIFA-Präsident Sepp Blatter genommen (ohne ihn namentlich zu nennen), der zumindest von den Schmiergeldzahlungen gewusst haben müsste. In einem Urteil vom 3. Juli 2012 vom Schweizer Bundesgericht wird festgestellt, dass großes „öffentliches und weltweites Interesse“ an den Inhalten des Dokuments besteht. Den Medien wird hier eine Kontrollfunktion zugestanden. Korruptionsskandal 2015. Medien vor dem FIFA-Sitz in Zürich kurz nach Sepp Blatters Rücktrittsankündigung (2015) Vor dem in Zürich tagenden 66. FIFA-Kongress fanden am 27. Mai 2015 unabhängig voneinander Festnahmen einiger FIFA-Funktionäre und eine Durchsuchung aufgrund einer Strafanzeige im FIFA-Hauptquartier statt. Am Morgen des 27. Mai 2015 wurden sechs Fußballfunktionäre durch die Kantonspolizei Zürich im Auftrag des Bundesamts für Justiz aufgrund eines US-Verhaftungsersuchens im Hotel Baur au Lac festgenommen. Das Gesuch ist gemäß der Sprecherin des Bundesamts auf den 21. Mai 2015 datiert. Ausgestellt wurde es durch das Office for International Affairs des Justizministerium der Vereinigten Staaten. Den Funktionären wird Korruption vorgeworfen. In Auslieferungshaft gesetzt wurden gemäß dem US-Justizministerium dabei die Funktionäre Jeffrey Webb, Eduardo Li Sánchez, Julio Rocha, Costas Takkas, Eugenio Figueredo, Rafael Esquivel sowie José Maria Marin. Am Abend des 27. Mai 2015 haben die Behörden von Trinidad und Tobago einen Haftbefehl für den früheren FIFA-Vizepräsidenten Jack Austin Warner erhalten. Unabhängig davon hat die FIFA am 18. November 2014 eine Strafanzeige gegen Unbekannt gestellt, worauf in Folge ein Strafverfahren eingeleitet worden ist. Daraufhin wurde im Auftrag der Bundesanwaltschaft ebenfalls am Morgen des 27. Mai 2015 das FIFA-Hauptquartier durchsucht. Hierbei geht es um die Vergaben der WM an Russland und Katar. Vier Tage nach seiner Wiederwahl durch den FIFA-Kongress kündigte Sepp Blatter am 2. Juni 2015 auf einer kurzfristig einberufenen Pressekonferenz seinen Rücktritt an. Für die Neuwahl eines Präsidenten muss ein außerordentlicher Kongress einberufen werden. Der Jordanier Prinz Ali bin Al Hussein bewirbt sich offiziell als Nachfolger von Sepp Blatter für das Amt des Präsidenten beim Fußball-Weltverband. Die Wahl findet am 26. Februar 2016 auf dem außerordentlichen Verbandskongress in Zürich statt. Am 8. Oktober 2015 gab die Ethikkommission der FIFA bekannt, sowohl FIFA-Präsident Sepp Blatter als auch seinen Vertreter Michel Platini für 90 Tage zu sperren. Sie dürfen für diese Zeit ihre Ämter nicht ausüben und sind von allen nationalen und internationalen Fußballaktivitäten ausgeschlossen. Präsidentschaftskandidat Chung Mong Joon wurde für sechs Jahre gesperrt und erhielt eine Geldstrafe von 100.000 Schweizer Franken. Föhn. Ein Gebirgsaufwind führt auf der Leeseite (rechts) zur Erwärmung der absinkenden Luftmassen (Föhn) Der Föhn oder Föhnwind ist ein warmer, trockener Fallwind, der häufig auf der der Windrichtung abgewendeten Leeseite von größeren Gebirgen auftritt. Er entsteht meist großräumig als Wetterlage und kann stetig wehen, aber auch böig sein. Die Bezeichnung wird vor allem für Winde im Alpenraum verwendet, worauf der Artikel "Alpenföhn" näher eingeht. Es gibt jedoch zahlreiche regional unterschiedliche Namen. Zu unterscheiden ist der echte Föhn von der ähnlich warm-trockenen „föhnigen“ Höhenströmung und anderen, etwa durch Druckgradienten bei Sturmtiefs induzierten föhnähnlichen Fallwinden. Einführung. Der Föhn entsteht aus einer Windströmung (oder einem horizontalen Druckgradienten) über dem Gebirge und ist auf dessen dem Wind zugewandten Luvseite mit Steigungsregen verbunden, die zu relativ warmer Höhenluft führen. Neben diesem warmen Föhn durch feuchtadiabatisch aufsteigende Luft "vor" dem Gebirge und trockenadiabatisch absteigende Luft nach dem Gebirge gibt es aber noch andere Ursachen, denn weniger warme Föhnwinde treten als physikalisches Wetterphänomen zumindest in den Ostalpen je nach Schichtung der Luftmassen auch ohne das Ausregnen auf, welches die zusätzliche Wärme generiert. Charakteristisch ist die deutliche Erwärmung und Trocknung der herabströmenden Luft, die zu gesundheitlichen Beschwerden führen kann, sowie die ausgeprägte Fernsicht aufgrund der aerosolarmen, also schwebeteilarmen Luftmassen. Ein weiterer Punkt, der zur Fernsicht und vor allem zu einer besseren Sicht auf die Berge beiträgt, ist, dass die Atmosphäre wie ein Vergrößerungsglas wirkt: Da die Dichte der Luft mit zunehmender Höhe abnimmt, nimmt auch deren Brechungsindex ab. Das führt zu einer Ablenkung des Lichts, so dass Objekte größer oder näher erscheinen. Dieser Effekt wird beim Föhn durch die nach oben zunehmende Temperatur, die zu einer weiteren Abnahme der Dichte führt, noch einmal verstärkt. Etymologie und Regionalnamen. Die Bezeichnung Föhn ging vom lateinischen "favonius" (ein lauer Westwind), wohl über das Rätoromanische ("favuogn", dialektale Kurzform "fuogn"), in das Althochdeutsche ("phōnno") ein und wurde aus dem Deutschen die in den Alpenländern vorherrschende Bezeichnung, die sich auch als meteorologischer Überbegriff für diese Windereignisse im Allgemeinen durchgesetzt hat. Definitionen. Darum ist jeder Wind, der diese Umstände erfüllt, ein Föhnwind, ohne Bezug auf den lokalen Namen. Geschichte der Föhntheorie. Die in Lehrbüchern – auch heute noch – am weitesten verbreitete Erklärung des Föhns ist mit der Darstellung von Ficker & De Rudder aus dem Jahr 1943 verbunden, wird gern "thermodynamisch" genannt und irrtümlich Julius Hann zugeschrieben. Diese Theorie ist nach heutigem Verständnis nur noch von historischer Bedeutung, obwohl sie wichtige Erscheinungen richtig erklärt. Ihre Charakteristika sind ein Niederschlag im Luv, der als alleinige Erklärung der relativ hohen Temperaturen auf der Lee- im Vergleich zur Luvseite herangezogen wird, sowie eine dem Hangprofil folgende Störung auf beiden Seiten. Dies trifft jedoch in vielen Fällen nicht zu. Thermodynamische Föhntheorie. Schema der Föhn-Entstehung auf der Nordseite der Alpen Ein Föhn entsteht nach der thermodynamischen Föhntheorie wie alle Winde durch die Wirkung einer Druckgradientkraft mit tieferem Druck auf der Lee-Seite eines Gebirges. Beim Aufsteigen der relativ feuchten Luft an der Luv-Seite des Gebirges kühlt sich diese zunächst so lange trockenadiabatisch mit 1,0 °C pro 100 m Höhenanstieg ab, bis die relative Luftfeuchte 100 % beträgt. Dies liegt daran, dass die Wasserdampfkapazität der Luft mit der sinkenden Temperatur sinkt, sodass sie beim Erreichen des Taupunktes mit Dampf gesättigt ist und Wassertröpfchen bildet. Steigt die Luft weiter, so kühlt sie sich nur noch feuchtadiabatisch mit etwa 0,6 °C/100 m ab. Dabei bleibt die relative Luftfeuchte mit 100 % konstant: Die Luft kann ihren (unsichtbar) enthaltenen Wasserdampf nicht mehr behalten, und es kommt zu laufender Kondensation und Wolkenbildung. Diese dauert an, bis die Luft am Bergkamm angekommen ist, und führt fast immer zum sogenannten Steigungsregen, der in großen Höhen auch in Schneefall übergehen kann. Vom Kamm aus beginnt die Luft auf der anderen Seite des Berges hangabwärts zu sinken. Der Föhn ist also – trotz einer stabilen Atmosphärenschichtung – nach der thermodynamischen Föhntheorie ein katabatischer Wind. Die Ursache für das Sinken liegt am Gelände und wird verstärkt, wenn der Wind auf der Föhnseite durch ein Tiefdruckgebiet "angesaugt" wird. Die sinkende Luft erwärmt sich wieder trockenadiabatisch mit durchgehend 1 °C/100 m – also viel schneller, als sie während des „Aufstiegs“ (in der feuchtadiabatischen Phase) abkühlte: Es fehlt ihr die beim Aufsteigen abgeregnete Wassermenge, die gleichzeitig ihre Kondensationswärme abgab. Die abgeregnete Wassermenge in Verbindung mit dem raschen Wärmerwerden der Luft auf der Leeseite ist die Ursache für die relative Trockenheit und hohe Temperatur des Föhnwindes. Probleme der thermodynamischen Theorie des Föhns. Dass eine absteigende Warmluft dem archimedischen Prinzip zuwiderläuft, ist aber problematisch, dynamische Kriterien fehlen dieser Theorie und weder die Beobachtungen des "hydraulic jump" noch die "mountain waves" oder die Rotoren – auf welche im Folgenden eingegangen wird – können mit der Theorie erklärt werden. Dynamische Föhntheorie. Obwohl die Atmosphäre aus Gasen aufgebaut ist, verhält sie sich in vielen Fällen wie eine Flüssigkeit. Daher treten viele atmosphärische Turbulenzen als Wellen auf. Atmosphärische Wellenstörungen resultieren aus der Interaktion verschiedener Kräfte, darunter Druckgradientkraft, Corioliskraft, Gravitation und Reibung. Lange war die obige "thermodynamische Annahme" bestimmende Theorie eines Föhnprinzips. Heute stehen allgemeine "strömungsdynamische Gesetze" bei Prinzipien der Entstehung von Fallwinden im Vordergrund, die zum "mountain-wave"-Konzept führen. Hydrologisch-hydraulische Analogie der Föhnströmung. Am geeignetsten, um Fallwinde in einem dreidimensionalen System zu erklären, sind hydrologische Modelle, da sie auch für Bewegungsmuster in einem stark reliefierten Gelände mit Tälern und Pässen geeignet sind. Heute wird den topografischen Gegebenheiten noch mit der auf Englisch "gap flow dynamic" genannten Hypothese Rechnung getragen. Hiernach ist die vertikale Einengung (am Pass) und eine laterale Kontraktion (in einer Lücke – "gap") der Luftströmung für Fallwinde wie Föhn und Bora unabdingbar. Hydraulische Begriffe wie "fließendes Wasser", "schießendes Wasser", mit "kritischer Geschwindigkeit" strömendes Wasser und die Froude-Zahl formula_1 (ähnlich der Mach-Zahl) werden heute in der Föhntheorie benutzt. Analog der Einteilung der Gasdynamik in Strömungen mit "Unter-" und "Überschallgeschwindigkeit" ist die Hydraulik der Strömungen mit freier Oberfläche in Wasserströmung mit Unter- und solche mit Übergrundwellengeschwindigkeit eingeteilt. Wasser, das mit einer Geschwindigkeit strömt, die kleiner ist als die Grundwellengeschwindigkeit, heißt in der Hydraulik fließendes Wasser, Wasser mit einer Strömungsgeschwindigkeit größer als die Grundwellengeschwindigkeit heißt schießendes Wasser. Strömt Wasser genau mit Grundwellengeschwindigkeit, so nennt man es „mit kritischer Geschwindigkeit strömendes Wasser". Die Froudsche Zahl formula_1 drückt letztlich das Verhältnis zwischen kinetischer Energie (abhängig von der Windgeschwindigkeit) und potenzieller Energie (Stabilität, Gebirgshöhe) aus. Wenn über dem Hindernis eine genügend starke Beschleunigung erreicht wird und eine genügend große Abnahme der Dicke der Wasserschicht erfolgt (bei großen Hindernissen möglich), kann ein Übergang von subkritischem zu superkritischem Fließen geschehen. Da nun das Wasser am Lee-Hang superkritisch ist, beschleunigt es sich und stürzt den Hang hinunter. Weil auf der ganzen Strecke über dem Hindernis potenzielle Energie in kinetische verwandelt wird, werden starke Fallwinde im Lee produziert. Die Flüssigkeit passt sich auf der Leeseite durch einen hydraulischen Sprung (engl. "hydraulic jump") wieder der Umgebung an und wechselt dadurch wieder zu subkritischem Fließen. Hier besteht eine Analogie zur Gasdynamik: Wie dort der Übergang einer Strömung mit Unterschallgeschwindigkeit zu einer mit Überschallgeschwindigkeit stetig erfolgt, der umgekehrte dagegen meist unstetig auf dem Wege über eine riemannsche Stoßwelle, geht eine fließende Wasserströmung stetig in eine schießende über, eine schießende in eine fließende dagegen meist unstetig auf dem Wege über einen Wassersprung. Damit ist die durch Turbulenzen beim Wassersprung erzeugte Wärme für den hydraulischen Prozess verloren, beim gasdynamischen Prozess bleibt diese aber als innere Energie erhalten, der Luftsprung entspricht damit nicht gänzlich dem Wassersprung. Dass beim Föhn eine Luftströmung mit überkritischer Geschwindigkeit existiert (schießend strömende Luft), wird durch die außergewöhnliche Turbulenz der Rotoren beim Emporschießen bodennaher Luft im Lee unterstrichen. Gap dynamic. Zu einem wesentlichen Element der Föhn-Hypothese gehört die "gap dynamic". Der Grundgedanke besteht darin, dass eine orthogonale Strömung, die gegen eine Gebirgsbarriere fließt, zuerst ein zweidimensionales Problem darstellt, dass aber, wenn so genannte "gaps" (Täler, Pässe) vorhanden sind, die Dimensionalität des Problems verändert wird. Dies gilt insbesondere dann, wenn die Froude-Zahl der Luft an einer Gebirgsbarriere niedriger ist und diese einen Weg durch Schluchten, Täler und Pässe anstelle einer Passage über das Hindernis nimmt. Dadurch, dass viele Gebirge bestimmte Windgassen aufweisen, wird diese Idee bestärkt. Beispiele sind die „Stampede Gap“ in der Kaskadenkette in Washington ("Cascade Windstorm"), die Trockentäler des Himalaya, das Wipptal am Brenner zwischen Inn und Etsch (Föhn), der Vratnik-Pass über Senj im Velebit (Bora) oder der Einschnitt der Bucht von Kotor in Montenegro als Korridor der Risaner Bora. Folgendes Bild für den Mechanismus des Föhns ergibt sich heute: Im Ausgangszustand lagert über einem Gebirgsrelief und seiner weiteren Umgebung eine ausgedehnte, nahezu horizontale Temperaturinversion, in den Gebirgstälern und vielleicht auch im Vorland eine stagnierende kalte Luftschicht. Ein heranziehendes Tief beginnt die Luft durch den Kanal zwischen der Oberfläche der Kaltluft und der über dem Gebirge gelegenen Inversion abzusaugen. Die Strömungsgeschwindigkeit in diesem Kanal nimmt ständig zu. Bei genügend starker Absaugwirkung des Tiefs wird irgendwann längs einer zunächst schmalen Teilstrecke des Gebirgszuges die Strömung kritisch, und zwar vorzugsweise auf einem Pass, weil dort wegen der Düsenwirkung die Strömungsgeschwindigkeit besonders gesteigert wird. Längs dieser Strecke ist damit die maximale Förderleistung des Kanals erreicht. Die Inversion wird im Lee dieser Teilstrecke herabgezogen und schreitet in Richtung der Grundströmung weiter fort, während darunter die Strömung überkritisch wird. Der Föhn hat am Pass begonnen und setzt sich in das Tal hinein fort, wobei er auch die Kaltluft am Boden des Kanals mit einbezieht. Während dieses Vorgangs kann die Luft zu beiden Seiten unserer Gebirgsteilstrecke noch ungehindert nachströmen, da dort die kritische Geschwindigkeit noch nicht erreicht ist. Das ansaugende Tief fordert aber weiteren Luftnachschub, so dass auch seitlich unserer Strecke die Strömungsgeschwindigkeiten weiterhin zunehmen müssen, bis nach und nach längs des ganzen Gebirgsrückens überall die kritischen Werte überschritten sind. Am gesamten Gebirgszug hat damit der Föhn eingesetzt. Verschiedene Missdeutungen bei der Temperaturerhöhung gerade des Südföhns verlangen eine genaue Analyse. Grundsätzlich hängt die adiabatische Erwärmung der Luft davon ab, dass die Atmosphäre zwischen der Talstation und dem Gebirgsgrat stabil stratifiziert ist. Vor allem an Sommertagen mit einer tiefen und gut durchmischten Grenzschicht und superadiabatischen Gradienten in der Nähe des Bodens ist der Föhn kühler als die Luft, die er verdrängt. Daher wird die grundsätzliche Erwärmung und Trocknung der Föhnluft aufgrund des Abstiegs auf der Lee-Seite eines Gebirges mit der Tatsache verwechselt, dass Föhnluft wärmer und trockener als die Luftmasse ist, die dieser auswechselt. Dies belegen Statistiken, die bei Südföhn in Innsbruck einen deutlichen erhöhten Trend der Temperaturmaxima in den Sommermonaten belegen. Für die Alpensüdseite ist der Effekt von Nordföhn aber durch die Kaltluftadvektion überschattet. Dagegen ist die Südströmung bei Südföhnlagen für den Bereich der Ostalpen im Raum von Tirol mit der Wirkung des Föhns als Südwind immer durch eine entsprechende Erhöhung der Temperaturmaxima charakterisiert. Föhnmauer und Föhnfenster. Typisch für die Föhnlage ist eine markante Wolkenwand – die "Föhnmauer" – vor fast blauem Himmel, dem "Föhnfenster". Die Föhnmauer steht als Wolkenwand über dem Kamm, an dem der Fallwind dann herunterströmt. Das Föhnfenster ist die durch Trocknung ausgeblasene Schönwetterzone. Am Ende der Föhnwirkung steht die zweite Föhnmauer als die Kaltfront des auslösenden Tiefdruckgebietes, die durch den Gegenwind, den sie verursacht, zeitweise aufgehalten wird. Beim Auftreten sehr hoher Windgeschwindigkeiten, dem "Föhnsturm", kann die kammseitige Föhnmauer jedoch auch auf die Leeseite hereinbrechen und dort zu Niederschlägen führen. Bricht der Föhn zusammen, fährt die tiefdruckseitige Föhnmauer das Föhnfenster schnell zu. Stauniederschläge. Dass implizierte Stauniederschläge kein Muss bei Föhn sind, geht aus der Statistik von Fliri (1984) eindeutig hervor. Bei Südföhn ist nur ca. 70 % Niederschlagswahrscheinlichkeit am östlichen Alpensüdrand, 80 % im westlichen Teil mit Maxima von 90 % im Tessin, wo die Niederschlagsintensitäten auch größer sind. Dass der Fall aber nicht ganz einfach ist und ein thermodynamischer Effekt mit Aufsteigen von Bodenluft aus dem Po-Becken unter Umständen eine Rolle spielt, wenn auch lokal beschränkt, konnte in einem partiellen Widerspruch zu bisherigen Ergebnissen gezeigt werden. Für Teile der Westalpen kann daher die feuchtadiabatische Komponente eine Rolle spielen. Während des ALPEX-Programms wurde die Existenz eines Kaltluft-Pools an der Alpensüdseite bestätigt. Damit setzte sich die nicht ganz neue Theorie von Hann (1866) gegenüber der von Ficker und De Rudder (1943) durch. Hier ist die Luft der unteren Schichten im Pool gefangen und tritt nicht über den Alpenhauptkamm. Diese Luft wird daher auch Totluft genannt. Leewellen und Föhnlinsen. Auf der Leeseite des Gebirges gerät die strömende Luft in Schwingungen. Diese Leewellen werden bei ausreichender Luftfeuchtigkeit durch die Bildung von charakteristischen Wolken, den "Föhnlinsen" ("Altocumulus lenticularis", kurz "Ac lent"), sichtbar. In den Leewellen können Segelflugzeuge auf über 10.000 m steigen. So gleichen die atmosphärischen Wellenstörungen, die durch orografische Hindernisse gebildet werden, den Schwerewellen der Wasseroberfläche. Während sich nun eine Meereswelle weiterbewegt und das Wasser still steht, ist es mit "mountain waves" genau umgekehrt: Während die Welle im Wesentlichen stationär bleibt, bewegt sich die Luft durch sie hindurch. "Mountain waves" können überall dort auftreten, wo eine starke Strömung in einer stabilen Atmosphäre auf eine Barriere trifft. Praktisch genutzt werden die Wellen im Segelflug. Im Aufwindbereich können große Höhen ohne Motorkraft erreicht werden. Die damit einhergehende Turbulenz stellt jedoch für Luftfahrzeuge in geringerer Höhe, z. B. Gleitschirme und Drachen, eine ernstzunehmende Gefahr dar. Föhneffekte an Geländestufen, Mittelgebirgen. Weniger bekannt, in der Praxis aber recht verbreitet, sind schwächere Föhneffekte im Lee von niedrigeren Geländestufen und Mittelgebirgszügen. Typischerweise treten solche Effekte bei starker Warmluftadvektion in den Wintermonaten auf. Die warme Luftmasse kann sich mangels Sonneneinstrahlung und aufgrund von Nebel/Hochnebelbildung nicht bis in die tiefen Lagen durchsetzen, es kommt zur Ausbildung einer starken, aber nur wenige hundert Meter flachen Temperaturinversion. Ist die großräumige Luftströmung von einer Hochfläche oder einem Mittelgebirgszug in Richtung Tiefebene gerichtet, so wandert die bodennahe Kaltluftschicht in Richtung Tiefland ab und wird durch die wärmere und trockenere Luft aus höheren Luftschichten ersetzt. Hier kommt es zur Auflösung tiefer Wolkenschichten, bei deutlich verbesserter Sicht und höheren Temperaturen. Diese Effekte treten großräumiger auf, sind nicht auf einzelne Täler begrenzt und können sich noch relativ weit von der Geländeschwelle entfernt bemerkbar machen. Die Windgeschwindigkeit nimmt dabei nur unwesentlich zu. Auswirkungen auf den Menschen. Bei einer Föhnwetterlage kommt es immer wieder zu einem vermehrten Auftreten von Herz- und Kreislaufproblemen, aber auch anderen Beschwerden wie Kopfschmerzen, welche man unter dem Begriff der Föhnkrankheit zusammenfasst. Fichtelgebirge. Das Fichtelgebirge (tschechisch: "Smrčiny") ist ein Mittelgebirge im Nordosten Bayerns. Zusammen mit Thüringer Wald, Thüringer Schiefergebirge und Frankenwald bildet das Fichtelgebirge die naturräumliche Haupteinheitengruppe Thüringisch-Fränkisches Mittelgebirge (39). Dabei stellt das Hufeisen des "Fichtelgebirges im engeren Sinne" die Haupteinheit Hohes Fichtelgebirge (394) dar, das die Selb-Wunsiedler Hochfläche (395) im Inneren umgibt. Seit September 2010 existiert ein Neuentwurf der Naturräume Nordostbayerns. Geographie. Fichtelgebirge, vom Waldstein aus gesehen Das Fichtelgebirge liegt zwischen den Städten Hof und Weiden. Im Westen ist eine gute Verkehrsanbindung zum nahen Bayreuth gegeben. Der Zugang nach Osten ins Egerland (Hauptort Cheb) war durch den Eisernen Vorhang bis 1989 weitgehend gesperrt, jetzt führen die gut ausgebaute B 303 bei Schirnding, die Staatsstraße Selb-Asch und viele Wander- und Radwege in das Nachbarland Tschechien. Die Autobahn Hof–Weiden (A 93) erschließt den Fichtelgebirgsraum nach Norden und Süden, ebenso die Autobahn Nürnberg-Hof (A9). Die Fichtelgebirgsstraße (B 303, E 48) führt durch das Fichtelgebirge in West-Ost-Richtung, verbindet damit die A 9 mit der A 93 und führt zum Grenzübergang nach Tschechien. Die Kreisstadt im Zentrum des Fichtelgebirges ist Wunsiedel mit der Luisenburg. Am Fuße der Luisenburg liegt das Mineral- und Moorheilbad Bad Alexandersbad. Weitere Orte sind Marktredwitz, Marktleuthen, Arzberg, Röslau, Weißenstadt, Waldershof, Kirchenlamitz und Tröstau (alle am Oberlauf der Eger und der Röslau), ferner im Südosten und Süden Bischofsgrün, Fichtelberg, Mehlmeisel, Nagel, Neusorg, Speichersdorf, Kemnath, Erbendorf, Wiesau und Fuchsmühl, im Westen Weidenberg, Creußen, Bayreuth, Goldkronach, Warmensteinach, Bindlach und Bad Berneck, im Nordwesten Gefrees, Zell im Fichtelgebirge, Sparneck, Weißdorf, Münchberg (Obere Saale), sowie im Norden Selb, Rehau und Hof. Quer durch das Fichtelgebirge verläuft von Nordosten nach Südwesten die Dialektgrenze zwischen dem (Ost-)Fränkischen Dialekt im Norden und Westen sowie dem (nord-)bairischen beziehungsweise Oberpfälzer Dialekt im Osten und Süden. Die Dialektgrenze stimmt nicht mit der Grenze der Regierungsbezirke Oberfranken und Oberpfalz überein, sondern es wird auch z. B. im oberfränkischen Kreis Wunsiedel zum Teil bairisch gesprochen. Nachkommen Vertriebener, die nach dem Zweiten Weltkrieg aus Böhmen, Mähren, Schlesien und Ostpreußen ins Fichtelgebirge kamen, haben einen bedeutenden Anteil an der Bevölkerung. Der höchste Gipfel ist der Schneeberg mit 1051 m, weitere markante Erhebungen sind der Ochsenkopf (1024 m), die Platte (946 m) im Steinwald, die Kösseine (939 m), der Große Waldstein (877 m) und der Große Kornberg (827 m). Im Nordosten des Fichtelgebirges schließen sich das Elstergebirge und das Erzgebirge, im Südosten der Oberpfälzer Wald, der Böhmerwald und der Bayerische Wald an. Nordwestlich lassen sich der Frankenwald und der Thüringer Wald geologisch klar abgrenzen. Im Südwesten schließt sich das morphologisch völlig andere Fränkische Bruchschollenland an. Geomorphologische Einteilung Tschechiens. In der geomorphologischen Gliederung des Nachbarlandes Tschechien, wo kein Elstergebirge definiert ist, werden auch Ašská vrchovina (deutsch: "Ascher Bergland"), Hazlovská pahorkatina (deutsch: "Haslauer Hügelland") sowie Chebská pahorkatina (deutsch: "Egerer Hügelland") dem Fichtelgebirge als Haupteinheit Smrčiny (I3A-1) zugeordnet. Geomorphologische Einteilung Tschechiens mit Smrčiny (rot markiert) System: Hercynisch Untersystem: Hercynisches Gebirge Provinz: Böhmische Masse (Česká vysočina) Subprovinz: Erzgebirgisches System (Krušnohorská subprovincie) Gebiet: Krušnohorská hornatina Untereinheiten: Ašská vrchovina (Ascher Bergland), Hazlovská pahorkatina (Haslauer Hügelland) und Egerer Hügelland (Chebská pahorkatina) Hydrographie. Viele Teiche und Weiher, die für die Fischzucht oder für die Wasserversorgung der ehemaligen Hammerwerke und Mühlen angelegt wurden, sind noch vorhanden. Künstliche Stauseen, teilweise für Erholungszwecke geschaffen, sind Größere Teich- bzw. Weiheranlagen sind der Zahlreiche Moore und Sümpfe, die unter Naturschutz stehen, sind wertvolle Wassersammler. Über das Mittelgebirge verläuft die Europäische Hauptwasserscheide zwischen Nordsee und Schwarzem Meer. Ausreichende Quellen versorgen die Einwohner mit gutem Trinkwasser. Weiter entfernte Städte wie Hof/Saale, Bayreuth oder Eger (Cheb) beziehen Trinkwasser aus dem Fichtelgebirge. Die Moorgebiete wurden früher wirtschaftlich für die Gewinnung von Torf für Brennzwecke genutzt, sie sind heute Naturschutzgebiete. Granit. Geologisch besteht der Gebirgsstock im Wesentlichen aus Granit. Die Geschichte seiner Orogenese beginnt im Präkambrium etwa vor 750–800 Millionen Jahren – fast 20 % der Erdgeschichte, was nur auf wenige der noch bestehenden Rumpfgebirge zutrifft. Damals war das Gebiet von Meer bedeckt und Flüsse transportierten die Sedimente vom heute nicht mehr vorhandenen Gebirge vor die Küsten, wo es sich in Ton- und Sandschichten, teilweise auch als Kalkstein ablagerte. Am Beginn des Kambriums (vor rund 570 Millionen Jahren) wurden die Schichten gefaltet und als neues Gebirge aus dem Meer herausgehoben. Hohe Temperaturen und Druckkräfte während dieser bis ins Oberkarbon andauernden Gebirgsbildung machten aus den Gesteinen Metamorphite, das heißt, sie wurden in Zusammensetzung und Struktur verändert: aus Ton entstand Phyllit und Glimmerschiefer, aus Sanden Quarzite und aus den Kalken der Wunsiedler Marmor. Durch heftige Erosion (das „junge“ Gebirge mag einige Kilometer hoch gewesen sein) sank es bald wieder unter den Meeresspiegel ab. Variszikum. Im Silur, Devon und Unterkarbon erfuhren jene Bereiche der Erdkruste, die unter anderem durch das heutige Fichtelgebirge und den Frankenwald repräsentiert sind, die Ablagerung mächtiger Tiefsee-Sedimente sowie Tiefseevulkanismus (mit Erzbildung). Diese Ablagerungen und Vulkanite sind in ihrer annähernd ursprünglichen Ausprägung, einschließlich gut zur Datierung heranziehbarer Fossilien, besonders gut im Frankenwald erhalten, da sie dort keiner oder einer nur sehr niedriggradigen Metamorphose (Anchimetamorphose) unterlagen. Im Oberkarbon vor 285 Millionen Jahren setzte die Endphase der Variszischen Gebirgsbildung ein und die Sedimente und Vulkanite wurden gefaltet. Diese Orogenese ist nach Hofs lateinischem Namen (und dem Volk der Varisker?) "Curia variscorum" benannt. Nachfolgend drangen in mehreren Schüben glutflüssige Schmelzen in die gefalteten Gesteine ein, wo sie tief unter der damaligen Erdoberfläche zu den heutigen Graniten erstarrten. Durch die Platznahme der Granite wurde das Nebengestein meist nur gering kontaktmetamorph überprägt. Aus den Restschmelzen mit deren erzhaltigen Fluiden entstanden die Pegmatite, die Sammlern und Wissenschaftlern reiche Mineralvorkommen bescherten, sowie Erz- und Mineralgänge, die Basis für den Bergbau im Mittelalter und in der Frühphase der Industrialisierung. Nach Ende der Orogenese, noch während des Oberkarbons sowie im Unteren Perm (Rotliegend) lagerten sich große Mengen Gesteinsschutt in intramontanen Becken und im Vorland des Gebirges ab. Die Becken waren durch eine Dehnungstektonik entstanden, die von einem intermediären bis sauren Vulkanismus begleitet wurde. Die Sedimente des Rotliegenden sind nur an wenigen Stellen aufgeschlossen, können jedoch durch Bohrungen unter dem mesozoischen Deckgebirge südwestlich der Fränkischen Linie weiträumig nachgewiesen werden. Die postvariszischen Vulkanite bilden im Fichtelgebirge Quarzporphyrgänge. Zusammenhänge zur Alpenbildung. Im Neogen (Jungtertiär, Beginn vor 26 Millionen Jahren) nahm die Tektonik wieder zu, gerade als die alpidische Gebirgsbildung (Alpen, Karpaten usw.) langsam zu Ende ging. In dieser Zeit gerieten Teile dieses und anderer alter Gebirge (siehe Böhmisch-Mährische Höhe oder die Böhmische Masse im Alpenvorland) teilweise unter jüngere Gesteine. Im oberen Miozän, vor zehn Millionen Jahren, brachen im Zuge der Bildung des Egergrabens Basaltschmelzen in der nördlichen Oberpfalz durch. Durch Erosion freipräparierte Überreste ehemaliger Förderschlote sind z. B. am Rauhen Kulm oder am Parkstein bei Weiden vorhanden. Basaltische Decken, also flächenhafte Lavaergüsse dünnflüssiger Lava, sind beispielsweise am Teichelberg bei Pechbrunn zu beobachten. Diese basaltischen Decken sind jedoch nicht mit tektonischen Deckenbildungen zu verwechseln. Das Bild der heutigen Landschaft entstand im jüngeren Pliozän vor etwa 5 Millionen Jahren: eine schon früh entstandene fränkische Verwerfungslinie kam wieder unter Druck und an ihr entlang hoben sich Fichtelgebirge, Frankenwald, die Münchberger Gneismasse und der nördliche Oberpfälzer Wald. Diese letzte Hebung unterlag erneut der Erosion und die Flüsse schnitten sich tief in das schon früher fast eingeebnete Gebirge ein. So wurde aus einer Hochfläche die heutige Struktur: ein von allen Seiten angenagtes Mittelgebirge mit langer, wechselhafter Geschichte. Es stellt ein, allerdings oft schwierig deutbares Eldorado für Geowissenschafter der verschiedenen Disziplinen dar. Wichtigste Gesteine im Fichtelgebirge. Der Granit ("lat. granum" für Körnung) und seine Abkömmlinge machen etwa 40 % der Gebirgsfläche aus. Dieses so feste, aber dennoch wasserhaltige Gestein baute die höchsten Erhebungen auf. Sein ernster Charakter und die früh entwickelte Industrie prägen Landschaft und Leute. Bergbau. Bereits seit dem frühen Mittelalter betrieb man im Fichtelgebirge Erzbergbau. Abgebaut wurden vor allem Gold, Zinn, Eisen, Minerale, Erden und Steine (Basalt, Braunkohle, Diabas, Granit, Lehm, Marmor, Speckstein, Ton, Torf). In jüngerer Zeit entdeckte man Uranerzlagerstätten. In Hammerwerken (siehe Ortsnamensendungen mit -hammer) an den Fichtelgebirgsflüssen, in Schmelzöfen und Schmiedebetrieben erfolgte die Weiterverarbeitung der Metalle. Die Wälder des Fichtelgebirges lieferten das erforderliche Holz für die Herstellung von Holzkohle. Im Dreißigjährigen Krieg lag der Bergbau darnieder, die Erzlagerstätten waren weitgehend ausgebeutet. Alexander von Humboldt versuchte im 18. Jahrhundert, den Bergbau nochmals zu beleben. Viele Städte und Orte (z. B. Wunsiedel, Weißenstadt, Arzberg, Fichtelberg-Neubau, Goldkronach) verdanken ihre Entstehung dem Bergbau. Einen Einblick in die Bergbaugeschichte des Fichtelgebirges vermitteln Traditionen. Von den Hugenotten wurde die Osterdekoration der Brunnen ("Osterbrunnen") in Form einer Lilie (Emblem der Bourbonen-Könige) eingeführt (so ein Artikel im April 2007 in der "Fränkischen Post"). Das Wunsiedler Brunnenfest, das größte Heimatfest in der Kreisstadt, hat mit den Osterbrunnen nichts gemeinsam, es hat eine andere Entstehungsgeschichte. Die traditionell auf der Freilichtbühne der Luisenburg bei Wunsiedel stattfindenden Luisenburg-Festspiele gehen bis in das 17. Jahrhundert zurück. In vielen Städten des Fichtelgebirges finden jährlich so genannte Wiesenfeste statt, die von den Schulen durchgeführt werden mit themenorientierten Umzügen, Volkstänzen und Spielen. Wirtschaft, Tourismus und Gesundheit. Während der Bergbau nur noch von historischem Interesse ist, werden an zahlreichen Orten im Fichtelgebirge noch Glaswaren erzeugt, die man dort auch günstig kaufen kann. International bekannt und deutschlandweit führend ist die Porzellanindustrie, deren Zentrum die Stadt Selb ist. Firmen wie Rosenthal oder Hutschenreuther genießen Weltgeltung. Weitere Unternehmen widmen sich der Kunststoffherstellung, dem Maschinenbau und der Metallerzeugung, der Textilverarbeitung und gehören zum Ernährungsgewerbe. Steinbearbeitungsbetriebe verarbeiten einheimischen und ausländischen Granit. Hochinnovative Unternehmen sind in den Bereichen Green-Tech und Neue Materialien vorhanden. Der Tourismus stellt heute für viele Gemeinden im Fichtelgebirge die Haupteinnahmequelle dar. In einigen Orten wie beispielsweise Bischofsgrün hat der Tourismus eine lange Tradition seit den 1920er-Jahren; nach dem Zweiten Weltkrieg nahm der Zustrom der Urlaubsreisenden sowohl im Sommer zum Wandern als auch im Winter für den Wintersport stark zu. Das Fichtelgebirge entwickelte sich zum „Hausgebirge“ der (West-)Berliner, die über die Transitstrecke der Bundesautobahn 9 anreisen konnten. Dies hat sich mit der Wiedervereinigung und einem veränderten Angebot an Mittelgebirgs-Ferienlandschaften verändert. Im Winter hat das Fichtelgebirge eine auch überregionale Bedeutung als Wintersportgebiet. Mehrere Lifte, zwei Sessellifte am Ochsenkopf und gespurte Loipen bilden die Grundlage hierfür. Kur- und Rehabilitationseinrichtungen befinden sich in Bad Berneck (Kneippheilbad), Bischofsgrün (Heilklimatischer Kurort), Bad Alexandersbad (Mineral- und Moorbad) und Weißenstadt (Kurhotel mit Radonbad). Mineralquellen gibt es in Bad Alexandersbad, Kothigenbibersbach (Gemeinde Thiersheim), Blumenthal bei Selb, Hohenberg an der Eger, König-Otto-Bad (Markt Wiesau) und Kondrau (Stadt Waldsassen). Naturpark. Auf einer Fläche von 1020 km² wurde der Naturpark Fichtelgebirge geschaffen. Kleinere Teile befinden sich im Přirodní park Smrčiny (deutsch: "Naturpark Fichtelgebirge") im Nordwesten Tschechiens. Der südliche Bereich des Naturraumes Fichtelgebirge, der Steinwald, liegt im Naturpark Steinwald. Fauna. Am 30. Dezember 2011 erbrachte eine Kamerafalle am Schneeberg den Beweis für die Anwesenheit eines Wolfes im Fichtelgebirge. Regierungsbezirke und Landkreise. Der Naturraum Fichtelgebirge liegt in den Oberpfalz. Johann Wolfgang von Goethe im Fichtelgebirge. Johann Wolfgang von Goethe schrieb in einem Brief an Charlotte von Stein „Der Granit lässt mich nicht los!“ Der Dichter und Naturwissenschaftler unternahm drei Reisen in das Fichtelgebirge, bei denen er sich ernsthaft mit naturwissenschaftlichen Problemen auseinandersetzte. Zwei seiner Reisen verband er mit Fahrten von Weimar nach Karlsbad, die letzte unternahm er eigens von Eger aus ins Fichtelgebirge. Erste Reise 1785. Begleitet wurde er von Karl Ludwig von Knebel und Friedrich Gottlieb Dietrich. Am 30. Juni 1785 führte die Reise von Hof über Marktleuthen nach Wunsiedel, noch am gleichen Tag wurden der Katharinenberg und Alexandersbad besucht. Bei einer Fußtour ging es am 1. Juli von Wunsiedel über Leupoldsdorf zum Seehaus (damals Zechenhaus genannt), nach Karches und zur Weißmainquelle (damals Fürstenbrunnen genannt), dann zum Gipfel des Ochsenkopfes, wo unterwegs die seltene Pflanze Sonnentau bewundert wurde. Der Rückweg ging über den Seehügel hinüber zum Nußhardt und zum Weißen Fels, dann nach Vordorfermühle und Vordorf (jetzt zur Gemeinde Tröstau gehörend) nach Wunsiedel zurück. Goethe fertigte dabei einige Zeichnungen von Felsformationen an und trieb geologische Studien. Der 2. Juli war ein Regentag, weshalb nur einige Besichtigungen in Wunsiedel stattfanden. Am 3. Juli waren der Luisenburg (damals noch Luxburg genannt) und dem Burgsteinfelsen gewidmet, wobei wieder einige Zeichnungen von der Granitverwitterung entstanden. Die Weiterreise am 4. Juli führte über Holenbrunn, Göpfersgrün, Thiersheim, Schirnding und Mühlbach nach Eger. Goethe zeigte lebhaftes Interesse an den „geologischen Merkwürdigkeiten“ Marmor, Speckstein und Basalt, die am Reiseweg vorkamen. Zweite Reise 1820. Als 71-Jähriger befand er sich wieder auf einer Fahrt in die westböhmischen Bäder, ein Abstecher brachte ihn am 25. April nach Alexandersbad, wo er im "Alten Schloss" logierte. Nach dem Mittagessen begab er sich auf die Luisenburg, die nun durch Wege weitgehend erschlossen war. Er erklärte die Entstehung des Felsenlabyrinths als einen ganz langsam ablaufenden Verwitterungsprozess. Am 26. April folgte die Weiterreise nach Karlsbad. Dritte Reise 1822. Am 13. August kam Goethe über Eger, Waldsassen und Mitterteich nach Marktredwitz, um die berühmte Chemische Fabrik von Wolfgang Kaspar Fikentscher zu besichtigen; begleitet wurde er von Joseph Sebastian Grüner, Magistrat- und Polizeirat in Eger. Bis zum 18. August wurde die Quecksilberherstellung begutachtet und die Glashütte bei Brand aufgesucht, wo 17 Arbeiter große Fenstertafeln herstellten; es folgten chemische und pyrotechnische Versuche. Es hat den Anschein, dass es dem 73-jährigen Goethe wegen der Fikentscher-Töchter in Marktredwitz besonders gut gefallen hat. Alexander von Humboldt im Fichtelgebirge. Der Universalgelehrte Alexander von Humboldt wurde als 22-Jähriger im Jahr 1792 in die damals preußisch gewordenen Fürstentümer Ansbach und Bayreuth entsandt, um den Bergbau auf Vordermann zu bringen. Bis 1795 wirkte er in Arzberg, Goldkronach und Bad Steben, wo es ihm gelang, in kurzer Zeit den Bergbau wieder aufzunehmen, den Grubenbau zu erneuern und moderne Abbaumethoden einzuführen. Bergbauschulen gründete er in Arzberg, Goldkronach und Bad Steben und er errichtete eine Bergbau-Hilfskasse für verunglückte Bergleute. Weblinks. ! Fichtelgebirge Flörsheim am Main. Flörsheim am Main ist eine Stadt im Main-Taunus-Kreis in Hessen und liegt zentral im Rhein-Main-Gebiet zwischen Frankfurt am Main und Mainz. Geografie. Flörsheimer Mainufer mit Blick auf die katholische Kirche St. Gallus (2010) Flörsheim liegt, wie der gesamte Main-Taunus-Kreis, rechts des Untermains. Aus nordöstlicher Richtung von Frankfurt her fließt der Main am Hattersheimer Ortsteil Eddersheim vorbei, wo der – im Ardelgraben in den Main mündende – Weilbach den Beginn der Flörsheimer Gemarkung markiert. Im Weiteren erstreckt sich die Flörsheimer Altstadt entlang des Maines. Ihr gegenüber liegen, links des Maines, die Städte Raunheim und Rüsselsheim am Main des Kreises Groß-Gerau. Diesseits von Rüsselsheim beenden Überflutungswiesen, die – nach ihre Vorgängerin "Opelbrücke" genannte – Mainbrücke und ein kleiner Industriehafen die ufernahe Wohnbebauung. Um den Hafen nimmt der Main eine Rechtsbiegung, bis sich im Mündungsbereich des Wickerbachs der Flörsheimer Ortsteil Keramag / Falkenberg anschließt, der weiter westlich an die Nachbargemeinde Hochheim grenzt. Parallel zum Main verlaufend trennt die Wiesbaden und Frankfurt anbindende Bahnstrecke die dem Main zugewandte Altstadt von später bebauten Gebieten. Neben dem Neuzubau hat Flörsheim durch die Zusammenlegung zum Jahreswechsel 1971/1972 mit den vormaligen Nachbargemeinden Weilbach im Norden und Wicker nordwestlich seine heutigen Ausmaße gewonnen. Heute sind es die Ränder des Stadtteils Weilbach, die die Grenze im Nordosten nach Hattersheim und im Norden nach Hofheim bilden; während Wicker nach Westen an Hochheim und dessen Stadtteil Massenheim grenzt. Während der Stadtkern Flörsheims in der Mainebene auf liegt, liegt Weilbach auf und Wicker mit deutlich höher. So begründen natürliche Hanglagen die Wickerer Weinanbautradition als und den heute gern bemühten Begriff der. Über Weilbach hat Flörsheim im Norden direkten Anschluss an die Wiesbaden und Frankfurt verbindende Autobahn A 66. Während die Autobahn A 3 das Flörsheimer Stadtgebiet ohne eigene Zufahrt in Ost-West-Richtung schneidet. Im Besonderen trennt die A 3 Weilbach von dessen kleineren Teil Bad Weilbach. Dort entspringen eine Natron-Lithion- und in einem kleinen Parkgelände eine Schwefelquelle. Im Stadtgebiet gab es mehrere Kalksteinbrüche und Gruben, die später teils als Mülldeponien genutzt wurden. Heute befindet sich im Bereich zwischen Wicker und Hochheim der Rhein-Main-Deponiepark. In jüngster Vergangenheit wurden Anstrengungen zur Renaturierung und Schaffung von Naherholung gemacht. Die Bewohner Flörsheims sind der Belastung von Fluglärm und Wirbelschleppen durch den östlich, jenseits des Maines gelegenen Flughafen Frankfurt am Main ausgesetzt. Teile des Flughafengeländes befanden sich bis 1980 als Wald in Flörsheimer Eigentum. Heute führen die An- und Abflugschneisen von drei der vier Startbahnen über bewohntes Flörsheimer Stadtgebiet. Neben der Belastung profitiert Flörsheim von seiner zentralen Lage zwischen den großen Städten des Rhein-Main-Gebiets: Frankfurt am Main, Wiesbaden, Mainz und Darmstadt. Geschichte. Ein am heutigen Flörsheim vorbeiführender frühgeschichtlicher Wanderungsweg wurde von den Römern zur Straße ausgebaut. Diese führte von Kastel über Hochheim, Flörsheim, Okriftel und Höchst in die Wetterau und weiter ins heutige Mitteldeutschland. Eine weitere Römerstraße zweigte zwischen Flörsheim und Weilbach nach Limburg an der Lahn ab. Das Straßenpflaster aus Kalkstein stammte aus Flörsheimer Steinbrüchen. Die heutigen Stadtteile Flörsheim, Wicker und Weilbach entstanden aus Siedlungen der westgermanischen Volksgruppe der Franken. Flörsheim wurde im Jahr 828 erstmals urkundlich als "Flaritesheim" erwähnt. Der Ortsname könnte auf einen Franken namens zurückgehen. Eine Schenkungsurkunde befindet sich im Hessischen Staatsarchiv Marburg. Erzbischof Hermann I. von Köln bestätigte im Jahr 922 seine Besitzungen im fränkischen Maingau. Er bezeichnete Flörsheim als "Flaradesheim" und Wicker als "Weleron". Wicker wurde urkundlich erstmals im Jahr 910 und Weilbach im Jahr 1112 erwähnt. Im Jahr 1270 wurde Flörsheim für 1050 Mark an das Mainzer Domkapitel verkauft. Um den Wasserverkehr auf dem Main zu kontrollieren, wurde Flörsheim im Verlauf des Mittelalters stark befestigt. Während des Dreißigjährigen Krieges wurde Flörsheim verwüstet, nachdem der schwedische König Gustav Adolf seinen Vormarsch auf Mainz 1631 vor Flörsheims Befestigungen unterbrechen musste. Nach achttägiger Einschließung durch die Schweden ergab sich Flörsheim und blieb bis 1636 besetzt. Auch die Kriege Friedrich des Großen brachten Unheil über den Ort – aber auch die Industrialisierung. Im Jahr 1765 eröffnete der Mainzer Georg Ludwig Müller in Flörsheim eine Fayence-Fabrik mit etwa 80 Arbeitern. Das darin hergestellte Porzellan trägt als Marke drei große „F“ für „Flörsheimer Fayence-Fabrik“.(→ FFF) Die Fabrik bestand bis ins Jahr 1914. Lange Zeit bestanden enge Bindungen zu Mainz. Das änderte sich erst zu Beginn des 19. Jahrhunderts während der Herrschaft Napoleons, als Flörsheim im Jahr 1803 dem Fürstentum Nassau-Weilburg – kurz danach – dem Herzogtum Nassau zugeschlagen wurde. Im Jahr 1839 wurde zwischen Wiesbaden und Frankfurt die Taunus-Eisenbahn als erste hessische Eisenbahn erbaut. Nach der Planung sollten auch Anschlussgleise nach Darmstadt führen. Der mit der Taunusbahn 1839 errichtete Bahnhof stammt vom Architekten Ignaz Opfermann. Er lag damals noch außerhalb der Altstadt und zählt zu den ältesten erhaltenen Bahnhöfen Deutschlands. 1875 wurde das Obergeschoss als Wohnung für den Bahnhofsvorsteher angebaut. 1865 wurde die Freiwillige Feuerwehr Flörsheim gegründet. Nach dem deutschen Krieg von 1866 kam Flörsheim zum Königreich Preußen, welches das Herzogtum Nassau zerschlagen hatte. Die Flörsheimer Warte, errichtet 1996 beim Ortsteil Wicker nordwestlich von Flörsheim Im Jahr 1900 wurden in Flörsheim die ersten Telefonanschlüsse installiert, am 25. August 1914 erhielt der Ort elektrisches Licht. Im Ersten Weltkrieg (1914–1918) hatte Flörsheim 104 Gefallene und 7 Vermisste zu beklagen. Nach dem Krieg besetzten französische Truppen am 1. Dezember 1918 den Ort. Die Franzosen hielten Flörsheim bis in die späten 1920er Jahre besetzt (alliierte Rheinlandbesetzung). Gab es zuvor nur eine Fährverbindung nach Raunheim, so schuf die am 26. August 1928 eingeweihte eine Straßenverbindung zur anderen Mainseite nach Rüsselsheim. Diese Brücke wurde 1979 abgerissen und etwas weiter mainaufwärts durch eine größere Brücke mit vierspuriger Fahrbahn ersetzt. In der Nacht vom 18. auf den 19. Juli 1938 wurde der jüdische Friedhof von Nationalsozialisten zerstört. Am 10. November 1938 wurde in der „Reichskristallnacht“ auch die 1718 errichtete Flörsheimer Synagoge zerstört. Im Zweiten Weltkrieg (1939–1945) gingen in der Nacht vom 8. zum 9. September 1942 auf den Ort und die Gemarkung Flörsheim 29 Sprengbomben nieder. Durch den schweren Bombenangriff entstanden 26 Brände, und 11 Gebäude (davon 9 Wohnhäuser) wurden völlig zerstört sowie 81 Gebäude (fast nur Wohnhäuser) schwer beschädigt. Fünf Menschen starben. Am 23. März 1945 sprengten deutsche Truppen die von Rüsselsheim über den Main führende Opelbrücke, um den Vormarsch US-amerikanischer Truppen aufzuhalten. Die Amerikaner marschierten dennoch am nächsten Tag in Flörsheim ein. Nach dem Zweiten Weltkrieg und der Auflösung des Freistaats Preußen durch die Alliierten im Jahr 1945 kam Flörsheim zum neu gebildeten Bundesland Hessen. Im Jahr 1953 erhielt Flörsheim das Stadtrecht. Am 31. Dezember 1971 schlossen sich Flörsheim, Weilbach und Wicker im Vorgriff auf die Gebietsreform in Hessen zusammen. Am 1. Januar 1978 wurde der Name der Stadt amtlich in geändert. Hexenprozesse. Die Hexenprozesse in Flörsheim zu Beginn des 16. und 17. Jahrhunderts dauerten von 1595 bis 1630. In Flörsheim, Weilbach und Wicker fielen über 71 Frauen, Männer und Kinder dem Hexenwahn zum Opfer. Zur "Bestreitung der Unkosten der wegen Ausrottung und Bestrafung des eingerissenen Lasters der Zauberei und Hexerei befohlenen Inquisition" nahm die Gemeinde 1618 beim St. Clara-Kloster in Mainz ein Darlehen auf, konnte aber keine Rückzahlungen leisten. Noch 100 Jahre später hatte die Stadt an der Schuldenlast zu tragen. Namensentwicklung. Die Namensendung auf „-heim“ deutet auf einen fränkischen Ursprung hin, während sich der erste Namensteil möglicherweise auf einen germanischen Personennamen wie „Flarid“ oder „Flarad“ zurückführen lässt. Die Zuordnung einer urkundlichen Erwähnung in einem Kartular des Klosters Fulda aus dem Jahr 828: (Es übertrug Reginpraht zu Flörsheim zwei Hörige.) zu Flörsheim am Main ist spekulativ. Urkundlich zweifelsfrei auf die Ortschaft am Main bezieht sich eine Benennung vom 11. August 922 durch Hermann I. von Köln. In der Urkunde werden als Besitzungen im „pago Moinacense“ (Gau am Main) „Flaradesheim“ (Flörsheim) und „Wikeron“ (Wicker) genannt. 1171 erschien im Lehnsbuch der Herren von Eppstein der Eintrag. 1270 in der Beurkundung des Dorfverkaufs an das Domkapitel des Erzbistums Mainz zum 1. April wird das Dorf als bezeichnet. Seit 1. Januar 1978 heißt die Stadt amtlich Flörsheim am Main, nachdem zuvor schon abkürzende Schreibweisen wie Flörsheim/M, Flörsheim/Main oder Flörsheim a. M. gebräuchlich waren. Im örtlichen Dialekt heißt die Stadt „Flerschem“. Flerschemer Fassenacht. Jedes Jahr am Fastnachtssonntag beginnt um 13.31 Uhr der Flörsheimer Fastnachtsumzug oder „Fassenachtszuuch“ (zum Teil mit über 3500 Teilnehmern und um die 160 Zugnummern). Regelmäßig übersteigt die Zahl der Gäste die der Einwohner. Im Jahr 2007 berichtete der Hessische Rundfunk sogar von 80.000 Besuchern. Der Fastnachts- oder Narrenruf „Hall die Gail“ entstammt der Zeit, als im Fastnachtszug noch viele Wagen mit Pferdegespannen fuhren. Er war die Aufforderung an einen Zugwagenlenker inne zu halten bzw. die vor der ausgelassenen Menschenmenge scheuenden Pferde im Zaum zu halten. So übersetzt sich „Hall die Gail“ mit „Halte die Pferde/Gäule!“ Open-Air-Festival. Seit den 1970er Jahren gibt es an einem Juli-Wochenende das „Flörsheimer Open Air“, ein kleines Rock-Musikfestival mit freiem Eintritt auf den Wiesen unter der Mainbrücke nach Rüsselsheim. Das Festival wird vom örtlichen Verein Old Company e. V. nur durch ehrenamtliche Helfer ausgerichtet und fand 2015 bereits zum 40. mal statt Verlobter Tag. Straße zu Ehren des Pfarrers Münch, dem Initiator des „Verlobten Tages“ Jedes Jahr am letzten Montag im August feiert die Stadt den "„Verlobten Tag“". Dieser hat seinen Ursprung im Jahr 1666, als in Flörsheim die Pest wütete. Nachdem innerhalb kürzester Zeit mehr als 200 Einwohner gestorben waren und der kleinen Gemeinde von etwa 700 Einwohnern die völlige Ausrottung drohte, beteten der Überlieferung nach die Überlebenden in höchster Not um Rettung. Als die Pest dann tatsächlich endete, gelobten die Flörsheimer zusammen mit dem Initiator Pfarrer Johannes Laurentius Münch "„solange in Flörsheim Stein auf Stein steht, eine Dankprozession zum Lobpreis des Allerhöchsten alljährlich durchzuführen“". Dieses Gelöbnis wurde bisher strikt eingehalten; auch in Kriegszeiten und trotz zeitweisem Verbot dieser Veranstaltung. Am 25. August 2014 wurde der „Verlobte Tag“ zum 348. Mal gefeiert. Flerschemer Kerb. Verwurzelt in dem Fest zur Weihe der St.Galluskirche wird am 16. Oktober, dem Tag des Namenspatrons St.Gallus, beziehungsweise am darauffolgenden Wochenende die Flörsheimer „Kerb“ abgehalten. Seit über 100 Jahren wird alljährlich am Mainufer ein Jahrmarkt errichtet. Während dort ein Rummel mit Buden und Fahrgeschäften betrieben wird, organisieren die Kerweborsch (Kerbe-Burschen) Tanzveranstaltungen – pflegen Brauchtum und Geselligkeit: Traditionell wird am Samstag ein Baum errichtet, der mit Kerwebobb (Kerbe-Puppe) und Bluns (Blutwurst ohne Grieben) ausgestattet ist. Ein Umzug findet statt. Die Flörsheimer Besonderheit der „Nachkerb“ am nachfolgenden Wochenende stand im Jahr 2014 zur Disposition. Künftig findet der traditionelle Abschluss der Kerb (Beerdigung der Kerbe-Puppe und Feuerwerk) schon am Nachkerbesonntag – statt wie bislang montags – statt. Galluskonzerte. Seit 1980 finden im vierten Quartal eines Kalenderjahres die Gallus-Konzerte statt, eine musikkulturelle Reihe, deren konzertante Aufführungen teilweise als Veranstaltungen des Hessischen Rundfunks geführt werden. Verwaltung der Stadt Flörsheim am Main. Flörsheimer Rathaus in der Villa und ehemaligen Arztpraxis des Sanitätsrates Dr. med. Emil Börner Der Verwaltungsaufbau der Stadt Flörsheim am Main richtet sich nach der Hessischen Gemeindeordnung und der Hauptsatzung der Stadt in der Fassung vom 8. November 2012. Danach fungiert die Stadtverordneten­versammlung, aus von den Bürgern der Stadt gewählten Stadtverordneten, als oberstes Organ der kommunalen Selbstverwaltung. Der Magistrat als ausführendes Organ besorgt die laufende Verwaltung der Stadt. Er besteht aus elf ehrenamtlichen Stadträten, sowie dem hauptamtlichen Bürgermeister und dem ebenfalls hauptamtlichen Ersten Stadtrat als seinem Vertreter. Die Hauptsatzung regelt die Einteilung der Stadt in vier Ortsbezirke, und legt die Größe der Ortsbeiräte auf jeweils neun Mitglieder, sowie für den Ortsbeirat Keramag/Falkenberg auf fünf Mitglieder fest. Zudem wird ein Ausländerbeirat mit elf Mitgliedern eingerichtet. Die Stadt Flörsheim unterliegt nach der Hessischen Gemeindeordnung der Kommunalaufsicht durch das Regierungspräsidium Darmstadt. Bürgermeister. Der seit 1. November 2006 amtierende Bürgermeister Michael Antenbrink (SPD) wurde am 17. September 2006 in einer Stichwahl mit 56,1 Prozent der Stimmen gewählt. Die Wahlbeteiligung betrug 47,5 Prozent. Für eine zweite sechsjährige Amtszeit wurde er am 17. Juni 2012 wiedergewählt, wiederum in einer Stichwahl, mit 61,6 Prozent der Stimmen bei 46,1 Prozent Wahlbeteiligung. Antenbrink ist Nachfolger von Ulrich Krebs (CDU), der am 18. März 2001 zum Bürgermeister gewählt wurde und am 8. Mai 2006 aus dem Amt ausschied, um im Hochtaunuskreis als Landrat eingeführt zu werden. Bürgerentscheide. Seit Einführung der Möglichkeit zu Bürgerentscheiden in Hessen am 1. April 1993 hat Flörsheim zweimal – am 6. Mai 2007 und am 13. Februar 2011 – über das Betreiben der Planfeststellung zum Bau einer Ortsumgehungsstraße entschieden. Beide Male hat sich die Bevölkerung mit knappen Mehrheiten für die Abstimmungsfrage ausgesprochen, die sich jeweils gegen die Planung einer Ortsumfahrung (Bezeichnung: B 40/519 – Abschnitt B 519) wanden. Die Beteiligungsquote an den Bürgerentscheiden lag jeweils über 60 Prozent. Wappen. Das Wappenmotiv ist hervorgegangen aus dem seit 1816 verwendeten Sinnbild für das noch bis 1868 verkehrende Flörsheimer Marktschiff (Flörsheimer Yacht). Seit 1930 ist das Großsegel mit den drei „F“ versehen. Diese Beschriftung erinnert an die 1765 gegründete Flörsheimer Fayence-Fabrik. Das Rad der Heckflagge verweist auf die lange historische Zugehörigkeit zum Mainzer Domkapitel (1270–1803). So wurde das Mainzer Rad im 18. Jahrhundert auf Grenzsteinen und in amtlichen Siegel benutzt. Ältere Gerichtssiegel verweisen, in der bildlichen Darstellung eines thronenden Bischofs (17. Jahrhundert) oder des Mainzer Landespatron St. Martin (15. Jahrhundert), ebenso auf die Domstadt. Die Farben Flörsheims sind Blau und Orange. In städtischer „Beflaggung“ wird meist das Stadtwappen auf blauer Fahne gezeigt. Verkehrsanbindung. Flörsheimer Fahr, bis 1928 Anlegeplatz der Fähre nach Raunheim Bahnverkehr. Die S-Bahn-Linie S1 verbindet den Flörsheimer Bahnhof mit der Route Wiesbaden – Mainz-Kastel – Frankfurt – Rödermark-Ober-Roden. Schiffsverkehr. Für den Personenverkehr gibt es am Konrad-Adenauer-Ufer eine Schiffsanlegestelle (Bedarfshaltestelle), für den Güterumschlag eine weitere Anlegestelle an der Hafenstraße Kultur und Sehenswürdigkeiten. Der Eisenbaum westlich von Flörsheim Bauwerke. Die Flörsheimer Warte nahe dem Ortsteil Wicker ist ein 1996 im Stile eines früher an gleicher Stelle stehenden Wartturms errichteter 30 Meter hoher Rundturm. Er steht an der Regionalparkroute Rhein-Main, ist mit dem angrenzenden Restaurant ein beliebtes Ausflugsziel und kann für private Veranstaltungen gemietet werden. Die oberste Ebene bietet durch zwanzig 20 schmale Fenster, zwischen denen jeweils Orientierungstafeln angebracht sind, eine gute Aussicht in die Umgebung. Der Eisenbaum westlich von Flörsheim, ebenfalls Teil des Regionalparks Rhein-Main, ist mit seiner ausgefallenen Form sowohl eine Skulptur als auch ein Aussichtsturm. Der stählerne 18 Meter hohe Baum besitzt zehn künstliche Äste und bietet eine 9 Meter hohe Aussichtsplattform. Eine solarbetriebene Tonanlage an der Plattform spricht und macht Geräusche. Katholische Gemeinde. Die katholischen Gemeinden St. Gallus und St. Josef in Flörsheim, St. Katharina in Wicker und Maria Himmelfahrt in Weilbach befinden sich im Prozess der Bildung eines gemeinsamen Pastoralen Raumes Flörsheim. Dieser soll ab Januar 2015 unter dem Namen Pfarrgemeinde St. Gallus firmieren. Die Gemeinden St. Josef, Maria Himmelfahrt und St. Katharina sollen als Ortskirchen weiterbestehen. Ahmadiyya-Gemeinde. Am 24. Juni 2013 wurde von Mirza Masrur Ahmad – dem Kalifen der Ahmadiyya Muslim Jamaat (AMJ) – die Ata-Moschee in der Flörsheimer Altkönigstraße eröffnet. („Ata“ bedeutet „Gottesgeschenk, von Gott gegeben“.) Anwesend waren neben dem Bundesvorsitzenden der Gemeinschaft Abdullah Uwe Wagishauser eine Reihe Kommunal- und Landespolitiker. Zur Moschee wurde seit dem 4. Oktober 2012 ein ehemaliger Lebensmittel-Discounter umgebaut. Der in blau-weiß gehaltene, mit Kalligraphien geschmückte Gebäudekomplex umfasst einen 380 m² großen Gebetsraum mit Gebetsnische, eine separate Küche, einen 80 m² großen Anbau mit Veranstaltungsraum und Bibliothekszimmer, sowie Büros und einen weiteren Seminarraum im Obergeschoss. Den Moscheecharakter unterstreichen zwei ins Dach eingefügte Kuppeln, sowie ein etwa 10 m hohes symbolisches Minarett am Eingang. Die Ahmadiyya Muslim Jamaat oder Ahmadiyya Muslim-Gemeinschaft ist eine 1889 im Indischen Qadian entstandene islamische Reformgemeinde. Das erste Mitglieder der seit 1995 eigenständigen Gemeinde Flörsheim / Hochheim kam 1988 nach Flörsheim. Zur Eröffnung umfasst die Gemeinde 140 Mitglieder. Ihr Präsident ist Muhammad Munawar Abid. Siehe auch. Liste der Kulturdenkmäler in Flörsheim am Main FreeDOS. FreeDOS ist ein Betriebssystem aus der Gruppe der DOS-Betriebssysteme. Die Entwicklung von FreeDOS findet innerhalb des FreeDOS-Projekts statt, in dem sich mehrere Einzelprojekte zusammengefunden haben, um eine freie und kompatible Alternative zum Betriebssystem MS-DOS zu schaffen, dessen Weiterentwicklung von seinem Hersteller Microsoft eingestellt wurde. Viele der Einzelprojekte verfolgen oder verfolgten ursprünglich das Ziel, Bestandteile wie beispielsweise den DOS-Kernel, Treiber- und Dienstprogramme von MS-DOS oder anderen DOS-Betriebssystemen durch Eigenentwicklungen mit vergleichbarer oder auch erweiterter Funktionalität zu ersetzen oder zu ergänzen. Das Gesamtprojekt hat dabei den Anspruch, zeitgemäße Erweiterungen und Anpassungen vorzunehmen und dabei trotzdem den Charakter von FreeDOS als einem MS-DOS-kompatiblen Betriebssystem zu erhalten. Am 3. September 2006 wurde die Version 1.0 fertiggestellt. Die für April 2008 geplante Version 1.1 erschien schließlich am 2. Januar 2012. Geschichte. FreeDOS wurde als Alternative zu MS-DOS geschaffen. Das Projekt wurde 1994 gestartet, als Microsoft bekanntgab, dass der Vertrieb und die Produktunterstützung für MS-DOS eingestellt werden würden. Die Entwicklung startete fast von null, nur auf zwei schon vorhandene Projekte konnten die Entwickler aufbauen: DOS-C, dessen Kernel schließlich von FreeDOS übernommen wurde, und einen sehr primitiven Speichermanager, der nach aufwendiger Überarbeitung zu EMM386.EXE wurde. Die Entwicklung von FreeDOS verlief unabhängig von OpenDOS, das 1996 ebenfalls unter einer Open-Source-Lizenz veröffentlicht wurde. Diese ist jedoch nicht mit der für FreeDOS verwendeten GNU General Public License vereinbar, weswegen die Übertragung von Quelltext ausgeschlossen ist. Speicherverwaltung. FreeDOS umfasst eigene Treiber für XMS (HIMEM.EXE) und EMS (EMM386.EXE). EMM386 unterstützt mittlerweile auch die Speicher-Schnittstelle VCPI und funktioniert somit mit DOS-Extendern und DPMI-Programmen zur Erweiterung des unter MS-DOS-Kompatiblen auf 1 MiB beschränkten, konventionellen Speicherraums. Statt HIMEM und EMM386 kann man auch die Alternativen HIMEMX (Ersatz für und Verbesserungen gegenüber dem originalen HIMEM), JEMM386 (leistungsfähiger Ersatz für EMM386) oder JEMMEX (kombiniert die Funktionalität von HIMEM und EMM386 in einem einzigen Programm) benutzen, die auf den beiden offiziellen FreeDOS-Treibern aufbauen. In der FreeDOS-Distribution sind auch Ultra-DMA-Treiber und das Programm „LBAcache“ enthalten, das ähnlich wie „SmartDrv“ von Microsoft Festplattendaten im XMS-Speicher puffert (siehe auch Festplattencache). Durch Einsatz solcher Treiber und Programme kann teilweise ein schnellerer Festplattenzugriff erzielt werden als unter modernen 32-Bit-Betriebssystemen wie Microsoft Windows oder Linux. Der FreeCOM-Befehlszeileninterpreter sowie Teile des Kernels, Puffer, Treiber und TSRs lassen sich ähnlich wie in späten MS-DOS-Versionen in den UMB- beziehungsweise HMA-Speicher laden, wodurch bis zu 620 KiB des konventionellen DOS-Speichers (der 640 KiB umfasst) verfügbar gemacht werden können. Das ist zum Beispiel für alte Spiele und Anwendungen wichtig, da diese oft viel des knappen konventionellen Speichers benötigen. Einschränkungen. Eine native Unterstützung für NTFS ist nicht geplant, allerdings gibt es Shareware-Treiber, die diese Aufgabe erfüllen. Microsoft Windows ist überhaupt nicht (ab Windows 95), nur eingeschränkt (Windows 3.x) oder nur in sehr alten Versionen (Windows 1.x oder 2.x) nutzbar. Ähnliche Probleme wie mit neueren Windows-Versionen treten auch mit anderen Programmen auf, die viele undokumentierte Schnittstellen in MS-DOS benutzen. Außerdem befinden sich einige Programme in FreeDOS noch in der Beta-Phase, sind also nicht immer ausreichend auf Fehler geprüft und versagen möglicherweise den Dienst. Verbreitung. Das System wird vornehmlich genutzt, damit Komplettsysteme nominell nicht ohne Betriebssystem ausgeliefert werden, so etwa von Dell für seine "n-Serie". Außerdem wird FreeDOS gerne für bootbare Disketten verwendet, z. B. um Testprogramme mit vollem Hardwarezugriff zu starten. Software-Kompatibilität. Mit Hilfe des HX DOS Extender besteht zudem die Möglichkeit, einige für Windows (32-Bit) geschriebene PE-EXE-Dateien unter FreeDOS auszuführen. Kompatibilität zu grafischen Benutzeroberflächen. Für MS-DOS geschriebene grafische Benutzeroberflächen (kurz „GUI“) sollten grundsätzlich auch auf FreeDOS lauffähig sein. Auch hier gilt, falls das betreffende GUI von standardisierten Verhaltensweisen abweicht oder undokumentierte Merkmale von MS-DOS verwendet, treten Probleme auf. Das betrifft beispielsweise Windows-3.x-Versionen (siehe unten). Sehr gute Kompatibilität weist OpenGEM auf, eine grafische Benutzeroberfläche für MS-DOS-kompatible Betriebssysteme, die unter einer freien Lizenz steht. OpenGEM ist eine Weiterentwicklung der Mitte der 1980er Jahre populären Benutzeroberfläche GEM von Digital Research, die unter anderem durch den Atari ST weite Verbreitung fand und bereits damals in einer Version für den IBM-PC verfügbar war. Weitere mit FreeDOS kompatible grafische Benutzeroberflächen sind unter anderem ct-FRAME, GEOS, oZone und SEAL. Windows 1.0 bis 3.x. Die Windows-Versionen 1.0 bis 2.x stellen noch keine eigene Speicherverwaltung und keine eigenen Treiber für den Datenträgerzugriff bereit und lassen sich somit problemlos unter FreeDOS benutzen. Windows 3.x und Windows for Workgroups 3.x laufen bisher nur im "Standard Mode". Zur Verwendung des "Enhanced Mode" ist ein neuerer FreeDOS-Kernel notwendig, der sich noch in der Test-Phase befindet. Windows 95 bis Me. Abgesehen von der theoretischen Möglichkeit, Windows 4.0 (die grafische Bedienoberfläche von Windows 95) direkt unter FreeDOS zu starten, beinhalten alle DOS-basierten Windows-Versionen als vollwertige Betriebssysteme einen angepassten DOS-Unterbau in Form von MS-DOS 7.0/7.1 (Windows 95/98) bzw. MS-DOS 8.0 (Windows Me). Da diese Windows-Versionen auf viele undokumentierte Funktionen des mitgelieferten MS-DOS zugreifen, sind sie nicht von FreeDOS aus startbar. Multiboot. Ab Windows 95 ist ein eigenes, angepasstes MS-DOS im Lieferumfang. Um FreeDOS neben Windows 95 und allen Nachfolgeversionen betreiben zu können, ist daher ein Mechanismus erforderlich, der sich „Dualboot“ oder „Multiboot“ nennt. Windows 95 bringt generell bereits alle Voraussetzungen dazu mit – wenn es zum Beispiel auf einer Partition mit bereits vorhandenem DOS installiert werden soll, konfiguriert es automatisch ein geeignetes Bootmenü zur Auswahl des zu startenden Betriebssystems. Dieser Mechanismus funktioniert jedoch nur zusammen mit MS-DOS und PC-DOS. Daher bietet die FreeDOS-Distribution das Programm "MetaKern", das für DOS-basierte Windows-Versionen (Windows 95 bis Windows Me) ebenfalls ein Bootmenü zur Verfügung stellt. Mit Windows-Versionen, die von Windows NT abstammen und daher NTLDR verwenden, wird FreeDOS als „unbekanntes Betriebssystem“ erkannt und kann auch gestartet werden, im Fall von Windows NT bis einschließlich Version 4.0 jedoch nur, wenn FreeDOS auf einer FAT16-Partition installiert ist. Alternativ kann man die Datei BOOT.INI, bei ReactOS FREELDR.INI, manuell anpassen. Mit Windows Vista wurde ein neues Gebilde mit dem Namen „“ eingeführt (siehe auch "Boot Configuration Data"), das nur über die Befehlszeilenanwendung BCDEDIT.EXE geändert werden kann. FreeDOS-Distribution. Da die Distributions-CD nicht ständig auf dem aktuellen Stand gehalten wird, kann man sich aktualisierte Versionen der einzelnen Programme auch separat herunterladen. Links dazu finden sich jeweils auf der FreeDOS-Website. Familie (Biologie). Die Familie (lat. "familia") ist eine hierarchische Ebene der biologischen Systematik. Sie steht in der Botanik zwischen den Hauptrangstufen Ordnung und Gattung. Direkt über der Familie kann als Ableitung die Überfamilie (lat. "superfamilia") stehen, unter ihr die Unterfamilie (lat. "subfamilia"). In der Zoologie kommt zur speziellen Familien-Rangstufe noch die aus weiteren Rangstufen bestehende Familien-Gruppe. In der Botanik endet die Familienbezeichnung im Grundsatz auf "-aceae" (zum Beispiel Korbblütler: "Asteraceae", Liliengewächse: "Liliaceae") und leitet sich stets vom Gattungsnamen einer festgelegten Typusart ab (z. B. "Aster", "Lilium"). Historisch waren jedoch auch Benennungen nach morphologischen Besonderheiten üblich. Artikel 18.5 des ICBN legt fest, dass acht solche abweichende Familiennamen als gültig publiziert anzusehen sind, nämlich Arecaceae, Poaceae, Brassicaceae, Fabaceae, Clusiaceae, Apiaceae, Lamiaceae und Asteraceae. In allen anderen Fällen gilt ausschließlich der vom Typus abgeleitete und auf "-aceae" endende Name als gültig. Der Begriff geht auf Pierre Magnol zurück, der ihn 1689 in die Botanik einführte. Linné verwandte den Begriff noch nicht. Michel Adanson gebrauchte ihn dann 1764 in seinem Werk "Familles des Plants" und definierte dort die ersten 58 Pflanzenfamilien. Auch bei Antoine-Laurent de Jussieu kommt er nicht vor, vergleichbaren Rang nehmen dort die "ordines naturales" („natürliche Ordnungen“) ein, die konzeptionell den Familien entsprachen. Erst zur Mitte des 19. Jahrhunderts begann sich die Rangstufe dann – auch außerhalb der Botanik – durchzusetzen. Feldschlange. Die Feldschlange, auch Kolubrine (von – „schlangenartig“;, türk. Kolomborna) oder Kalverine'", war ein Kanonentyp des späten Mittelalters und der Frühen Neuzeit. Feldschlangen hatten ein im Vergleich zu Belagerungsgeschützen relativ kleines Kaliber zwischen 14 cm ("ganze Feldschlangen") bis ca. 5 cm ("Falkonetts"). Der Lauf war dagegen mit normalerweise zwischen 30 und 40 Kaliberlängen sehr lang, wodurch Treffergenauigkeit, Reichweite und Durchschlagswirkung der Geschosse erhöht wurden, da in dem längeren Lauf die Kugeln nachhaltiger dem Explosionsdruck der Treibladung ausgesetzt waren. Geschütze mit noch größerer Kaliberlänge bezeichnete man auch als "Bastard-Feldschlangen" (von). Die verschossenen Eisenkugeln variierten im Gewicht zwischen etwa 20 Pfund bei den größten Geschützen und einem Pfund bei den kleinsten. Feldschlangen waren gewöhnlich auf einer zweirädrigen Lafette montiert, die von einem Pferd gezogen werden konnte. Dieser Kanonentyp wurde von der Mitte des 15. Jahrhunderts bis ins 17. Jahrhundert verwendet. Er ging später in der Feldkanone auf. Der Name "Feldschlange" kommt in Deutschland erstmals um 1440 vor und stammt von der anfangs als Schlangen- oder Drachenkopf gestalteten Mündung, die auf den Gegner furchteinflößend wirken sollte. Möglich ist aber auch, dass der Begriff aus der Machart der Feldschlange selbst kommt, deren Rohr häufig mit einem korkenzieherförmigen Eisenband umschmiedet war (vgl. Schrumpfringe bei heutigen Kanonen). Die mittleren Feldschlangen hießen auch Falken oder Falkaunen, die leichteren Falkonetts; speziell letztere dienten dem gezielten Schuss auf feindliche Offiziere oder Geschützbedienungen. So verstarb Tilly infolge der Verwundung durch eine Falkonettkugel an Tetanus. Giovanni dalle Bande Nere kostete ein Falkonetttreffer zunächst ein Bein, die infizierte Wunde dann sein Leben, ebenso Marschall Guébriant. Götz von Berlichingen verlor seine rechte Hand durch eine Feldschlange. Kuriosum: Die Rohre ausgedienter Feldschlangen wurden gelegentlich an belebten Straßenecken zum Schutz der Hauskanten als Prellstein eingemauert (so beschrieben von Wilhelm Raabe in "Die Chronik der Sperlingsgasse"). Frequenz. Die Frequenz (von lat. "frequentia", Häufigkeit) ist in Physik und Technik ein Maß dafür, wie schnell bei einem periodischen Vorgang die Wiederholungen aufeinander folgen, z. B. bei einer fortdauernden Schwingung. Die Frequenz ist der Kehrwert der Periodendauer. Die Einheit der Frequenz ist die abgeleitete SI-Einheit mit dem besonderen Namen Hertz (Einheitenzeichen Hz), wobei 1 Hz = s−1 ist. Gelegentlich werden aber auch andere Einheiten verwendet, wie z. B. min−1 oder h−1. Bei der Frequenzangabe aus Zahlenwert und Einheit sagt demnach der Zahlenwert aus, wie viele Perioden innerhalb der gewählten Zeiteinheit stattfinden. Bei manchen Vorgängen werden auch die Bezeichnungen Folgefrequenz, Impulsfolgefrequenz oder Hubfrequenz verwendet, bei Drehbewegungen Drehzahl. Definition und Natur der Frequenz. Dies wird gelegentlich auch als Definition der Frequenz angegeben. Die Frequenz ist ihrer Natur nach eine beliebig fein veränderbare, kontinuierliche Größe. Frequenz von Wellen. Bei elektromagnetischen Wellen ist formula_11 und formula_12. Dabei ist formula_13 die Vakuumlichtgeschwindigkeit, formula_14 die Wellenlänge im Vakuum und formula_15 der Brechungsindex des Mediums. Bei einer Welle, die während ihrer Ausbreitung das Medium wechselt, ändern sich die Ausbreitungsgeschwindigkeit und die Wellenlänge. Ihre Frequenz bleibt dagegen gleich. Frequenz im Alltag. Für jeden periodischen Vorgang in der Natur und im Alltag kann eine Frequenz angegeben werden. Der Tag-Nacht-Wechsel wiederholt sich beispielsweise mit einer Frequenz von formula_16 Das menschliche Herz hat im ruhenden Körper eine Pulsfrequenz von ca. 50–90 min−1 (das entspricht 0,83–1,5 Hz). In der Akustik ist der Standard-Kammerton mit einer Frequenz von 440 Hz bekannt. Die empfundene Tonhöhe von Tönen aus Musikinstrumenten ist durch die Frequenz ihrer Grundschwingung bestimmt. Dabei wird eine Frequenzverdopplung als Oktavsprung wahrgenommen. Das menschliche Ohr nimmt Schallwellen mit Frequenzen zwischen 20 Hz und 20.000 Hz wahr, wobei die Obergrenze üblicherweise mit zunehmendem Alter abnimmt. Die mit elektronischen Mitteln zugänglichen Frequenzen elektromagnetischer Wellen werden im Bereich zwischen ca. 100 kHz und einigen GHz für die Zwecke der drahtlosen Kommunikation in Frequenzbänder aufgeteilt (Langwelle, Mittelwelle, UKW...). Das für Menschen wahrnehmbare Licht liegt im Bereich zwischen 400 THz und 750 THz. Messung. Eine Reihe unterschiedlicher Messgeräte werden unter Frequenzmesser aufgeführt. Die Frequenz gilt in der digitalen Messtechnik als sehr einfach zu messende Größe, da lediglich deren Schwingungen oder Impulse während einer geeigneten Zeit gezählt werden müssen, so dass diese Messgeräte dann als "Frequenzzähler" bezeichnet werden. Die Frequenzmessung erfordert immer eine genaue Zeitbasis. Dazu werden beispielsweise Zeitdauern als Vielfache der Periodendauer eines genauen Frequenzgenerators gebildet, etwa eines Schwingquarzes. Selbst als Konsumartikel haben Schwingquarze relative Fehlergrenzen in der Größenordnung 0,001 %. Derartig kleine Fehlergrenzen sind sonst in der Messtechnik nur mit extremem Aufwand oder gar nicht erreichbar. Frequenzspektrum. Reale, nicht diskrete Schwingungen bestehen immer aus mehreren überlagerten Schwingungen mit unterschiedlichen Frequenzen, da in der Natur keine perfekt sinusförmigen Schwingungen existieren. Das lässt sich unter anderem dadurch begründen, dass reale Schwingungen eine endliche Länge haben und somit durch einen Aus- und Einschwingvorgang begrenzt sind. Auch können schwingende Systeme von außen gestört werden, was mit dem Einbringen weiterer Frequenzen in die Schwingung verbunden ist. Eine mathematisch exakte Sinusschwingung ist hingegen zeitlich unbegrenzt und ungestört. Die Gesamtheit der in einer Schwingung vertretenen Frequenzen mit ihren jeweiligen Amplituden heißt "Frequenzspektrum". Die Bestimmung des Frequenzspektrums einer gegebenen Schwingung heißt "Fourieranalyse". Verwandte Größen. Auch bei weiteren Größen, die zwar die Dimension einer Rate, d. h. die SI-Einheit s−1, haben, aber keine Frequenz darstellen, etwa die radioaktive Zerfallsrate, ist die Einheit Hertz "nicht" zu verwenden. Franz Werfel. a> Franz Viktor Werfel (* 10. September 1890 in Prag, Österreich-Ungarn; † 26. August 1945 in Beverly Hills, Kalifornien, Vereinigte Staaten) war ein österreichischer Schriftsteller jüdischer Herkunft mit deutschböhmischen Wurzeln, der aufgrund der nationalsozialistischen Herrschaft ins Exil ging und 1941 US-amerikanischer Staatsbürger wurde. Er war ein Wortführer des lyrischen Expressionismus. In den 1920er und 1930er Jahren waren seine Bücher Bestseller. Seine Popularität beruht vor allem auf seinen erzählenden Werken und Theaterstücken, über die aber Werfel selbst seine Lyrik setzte. Mit seinem Roman "Verdi. Roman der Oper" (1924) wurde Werfel zu einem Protagonisten der Verdi-Renaissance in Deutschland. Besonders bekannt wurden sein zweibändiger historischer Roman "Die vierzig Tage des Musa Dagh" 1933/47 und "Das Lied von Bernadette" aus dem Jahr 1941. Leben. Franz Werfel wurde 1890 in Prag als Sohn des wohlhabenden Handschuhfabrikanten Rudolf Werfel und dessen Frau Albine, geb. Kussi, geboren. Die Familie gehörte dem deutsch-böhmischen Judentum an. Die Frömmigkeit seiner tschechischen Kinderfrau, der Besuch der Privatvolksschule der Piaristen und die barocke Katholizität seiner Heimatstadt prägten den jungen Werfel. Seine Reifeprüfung legte Werfel 1909 am Deutschen Gymnasium Stefansgasse in Prag ab. Schon während seiner Schulzeit veröffentlichte er Gedichte. Mit den Schriftstellern Willy Haas, Max Brod und Franz Kafka sowie dem Schauspieler Ernst Deutsch und dem Literaturagenten Ernst Polak, seinem ehemaligen Mitschüler, war Werfel ein Leben lang befreundet. Seine Schwester Marianne Rieser wurde als Schauspielerin bekannt. Volontär und Lektor. 1910 absolvierte Werfel ein Volontariat bei einer Hamburger Speditionsfirma. Zwischen 1911 und 1912 leistete er Militärdienst auf dem Prager Hradschin. Von 1912 bis 1915 war er Lektor beim Kurt Wolff Verlag in Leipzig. Unter seiner Mitverantwortung erschien die expressionistische Schriftenreihe "Der jüngste Tag". Werfel begegnete Rainer Maria Rilke und schloss Freundschaft mit Walter Hasenclever und Karl Kraus, mit dem er sich später überwarf. Er publizierte u. a. auch in der ungarischen deutschsprachigen Zeitung Pester Lloyd. Erster Weltkrieg. Zwischen 1915 und 1917 diente Werfel an der ostgalizischen Front. 1917 wurde er ins Wiener Kriegspressequartier versetzt. Alma Mahler. Alma Mahler-Werfel, geb. Schindler (vor 1899) Werfel lebte die folgenden zwei Jahrzehnte in Wien und schloss hier Freundschaft mit Alma Mahler, der Witwe Gustav Mahlers und Ehefrau von Walter Gropius. Unter Almas Einfluss zog er sich weitgehend aus dem öffentlichen Leben zurück, ging aber oft auf Reisen, so z. B. nach Breitenstein am Semmering, Santa Margherita Ligure und nach Venedig. Während seiner zweiten Nahostreise Anfang 1930 traf er in einem Waisenhaus in Syrien Überlebende des Völkermordes an den Armeniern während des Ersten Weltkrieges. Diese Begegnung inspirierte ihn zu seinem Roman "Die vierzig Tage des Musa Dagh", in dem das Schicksal von etwa 5000 Armeniern geschildert wird, die sich vor der osmanischen Armee auf den Berg Musa Dağı (Mosesberg) geflüchtet hatten. 1918 brachte Alma, noch während ihrer Ehe mit Walter Gropius, Werfels mutmaßlichen Sohn Martin Carl Johannes zur Welt, der 1919 verstarb. Am 7. August 1929 heiratete Werfel Alma Mahler, die 1920 von Gropius geschieden worden war. Friedrich Torberg beschreibt sie in "Die Erben der Tante Jolesch" als „Frau von gewaltigem Kunstverstand und Kunstinstinkt. Wenn sie von jemandes Talent überzeugt war, ließ sie für dessen Inhaber – mit einer oft an Brutalität grenzenden Energie – gar keinen anderen Weg mehr offen als den der Erfüllung“. Am Höhepunkt seiner amerikanischen Bestsellererfolge sagte Franz Werfel zu seinem Freund Friedrich Torberg: „Wenn ich die Alma nicht getroffen hätte – ich hätte noch hundert Gedichte geschrieben und wäre selig verkommen …“ Laut Torberg hatte Werfel „oft und oft davon gesprochen, wie unvorstellbar ein Leben ohne Alma für ihn gewesen wäre“. 1935 starb seine an Kinderlähmung erkrankte Stieftochter Manon Gropius. Gedenktafel für die deutschen und österreichischen Flüchtlinge am Fremdenverkehrsbüro in Sanary-sur-Mer Frühere Wohnung von Franz Werfel und Alma Mahler-Werfel in Sanary-sur-Mer. Dort befindet sich eine Gedenktafel. Emigration. Nach dem „Anschluss“ Österreichs ließ sich Werfel, der sich schon im Winter 1937/1938 mit seiner Frau im Ausland aufgehalten hatte und nach dem Anschluss nicht mehr zurückkehrte, mit Alma in Sanary-sur-Mer in Südfrankreich nieder, wo auch andere Emigranten lebten. 1940, als die Wehrmacht große Teile Frankreichs besetzte, fand er Zuflucht in Lourdes, und Werfel gelobte, falls er gerettet würde, ein Buch über die heilige Bernadette zu schreiben. Zu Fuß überquerte er mit seiner Frau Alma, Heinrich, Nelly und Golo Mann die Pyrenäen nach Spanien. Das Ehepaar erreichte von dort Portugal und emigrierte in die USA, nach Beverly Hills und Santa Barbara. Werfel erhielt 1941 die amerikanische Staatsbürgerschaft. 1943 wurde sein Roman "Das Lied von Bernadette" mit Jennifer Jones in der Titelrolle mit großem Erfolg verfilmt. Tod. 1943 verschlimmerte sich Werfels Angina Pectoris, und er erlitt zwei Herzanfälle. 1945 starb Werfel im Alter von 54 Jahren an einem Herzinfarkt. Er wurde in Beverly Hills auf dem Rosedale Cemetery begraben. 1947 wurde ihm von Theodor Körner, Bürgermeister der Stadt Wien, ein Ehrengrab auf dem Wiener Zentralfriedhof "reserviert", die Grabstelle in Beverly Hills zu einem Ehrengrab aufgewertet. Auf Basis einer vom "Kulturamt der Stadt Wien" sowie der "Österreichischen Gesellschaft für Literatur" 1974 gefassten Initiative wurden Werfels sterbliche Überreste 1975 nach Wien überführt und am 21. Juli 1975 auf dem Wiener Zentralfriedhof beigesetzt (Ehrengrab Gruppe 32 C, Nummer 39). Posthum erhielt Werfel im Jahr 2006 die armenische Staatsbürgerschaft verliehen. Werfel als Namensstifter. Das Zentrum gegen Vertreibungen vergibt den Franz-Werfel-Menschenrechtspreis. Die Österreichische Austauschdienst-Gesellschaft vergibt das Franz-Werfel-Stipendium für junge Universitätslehrende, die sich schwerpunktmäßig mit österreichischer Literatur beschäftigen. Werke. Verzeichnis aller Werke siehe Wikisource Romane. a> mit dem aufgeschlagenen Buch "Die vierzig Tage des Musa Dagh" Farkas Wolfgang Bolyai. Farkas Bolyai (* 9. Februar 1775 in Bólya, Siebenbürgen; † 20. November 1856 in Marosvásárhely), deutsch Wolfgang Bolyai, war ein ungarischer Mathematiker. Bolyai studierte an den Universitäten Klausenburg, Jena und Göttingen und wurde dort ein enger Freund von Carl Friedrich Gauß. Im Jahr 1802 wurde er Professor für Mathematik, Physik und Chemie am reformierten Kolleg in Marosvásárhely, wo er bis 1849 tätig war. Er untersuchte, ob sich das Parallelenaxiom aus den anderen vier Axiomen der euklidischen Geometrie herleiten lässt. Hierbei fand er acht äquivalente Aussagen, die in seinem Hauptwerk "Tentamen" (1832) enthalten sind. Unter anderem bewies er die logische Äquivalenz der Aussage „Durch drei nicht auf einer Geraden liegende Punkte gibt es einen Kreis“ zum Parallelenaxiom. Farkas Bolyai war der Vater des Mathematikers János Bolyai. Freiwirtschaft. Silvio Gesell (1862–1930), Begründer der Freiwirtschaftslehre Freiwirtschaft (auch "Natürliche Wirtschaftsordnung") ist ein Wirtschaftsmodell aus dem 20. Jahrhundert, das auf der Kritik der Geldverfassung und der Kritik der Grundrente (Bodenrente) durch Silvio Gesell beruht. Freiwirtschaft hat sich zum Ziel gesetzt, eine stabile und freiheitliche Marktwirtschaft ohne Monopolrenten durch den Besitz von Geld bzw. Eigentum an Boden oder Handelsrechten zu erreichen, in der zudem Vollbeschäftigung herrscht. Bodenrente und Geldzins bewirken nach freiwirtschaftlicher Auffassung einen ungerechten und sich ständig verstärkenden Umverteilungsprozess von Vermögen von den Ärmeren zu den Reicheren. Verwirklicht werden soll soziale Gerechtigkeit nicht durch Verbote, sondern einerseits durch die Überführung des Bodens in Gemeinschaftseigentum mit zugleich privater Nutzung gegen Entrichtung ständiger Nutzungsabgaben an die Gemeinschaft, bezeichnet als „Freiland“, sowie Benutzung sogenannten „Freigelds“. Ideengeschichte. Silvio Gesell entwickelte seine Theorie zu Beginn des 20. Jahrhunderts und veröffentlichte seine wichtigsten Thesen erstmals im Jahre 1916 in dem Buch „Die natürliche Wirtschaftsordnung durch Freiland und Freigeld“. Die Grundgedanken von Freiland, Zinsfreiheit und Genossenschaftswirtschaft hatte der österreichische Ökonom Theodor Hertzka bereits 1890 in seinem Roman "Freiland – ein soziales Zukunftsbild" veröffentlicht. Die Ideen des Buches fanden viele Anhänger in Deutschland und Österreich und führten zu Siedlungsprojekten, Vereinen und politischen Strömungen in verschiedenen Ländern. Die Freiwirtschaftslehre distanziert sich dabei in ihrer Auffassung sowohl vom Kapitalismus als auch vom Sozialismus, aber nicht von der Marktwirtschaft. Sie setzt eine Grundstruktur mit sowohl privatem (Produktionsmittel) als auch gemeinschaftlichem Eigentum (Boden) voraus. Im Jahre 1949 fand in der Schweiz eine Volksinitiative „zur Sicherstellung der Kaufkraft und Vollbeschäftigung (Freigeldinitiative)“ statt. Diese Initiative wurde durch die Volksabstimmung vom 15. April 1951 jedoch mit 87,6 % Nein-Stimmen abgelehnt, und erhielt weniger Ja-Stimmen als Unterschriften zum Einreichen der Volksinitiative gesammelt wurden. Angenommen wurde in der Volksabstimmung hingegen der Gegenentwurf der Bundesversammlung, mit 69,0 % und in 22 (19 6/2) Ständen. Thema der Abstimmung war allerdings nicht die Einführung einer Umlaufsicherung selbst, sondern die teilweise Aufgabe der Golddeckung, um die Währungsstabilität sicherzustellen. Mit dem Zusammenbruch des Bretton-Woods-Systems wurde diese Golddeckung später aufgehoben. Ziele und Forderungen. Hauptziel der Freiwirtschaft ist eine stabile, sozial gerechte Marktwirtschaft. In einem freiwirtschaftlich organisierten Wirtschaftssystem sollen Produktion und Konsum über den Markt vermittelt werden (Marktwirtschaft). Private oder öffentliche Unternehmen tragen das geschäftliche Risiko und erwirtschaften mit dem Kapitaleinsatz eine gewinnabhängige Rendite. Das Geldvermögen ist mit einem Negativzins belegt, wodurch es als „umlaufgesichert“ gilt. Damit soll die Umlaufgeschwindigkeit des Freigelds erhöht werden, wodurch genügend Mittel für Investitionen bereitstünden. Mit dem Freigeld würde sogar ein Absinken des allgemeinen Marktzinsniveaus auf 0 % (oder gar darunter) erlaubt. Gleichzeitig sollen mittels der Freilandreform die gegenleistungslosen Einkommen, die durch Landbesitz entstehen und sich systemisch nicht eliminieren lassen, an die Allgemeinheit abgeführt und vergesellschaftet werden. Die Reformforderungen der vor allem in den 1920er Jahren im deutschsprachigen Raum großgewordenen Freiwirtschaftsbewegung werden oft mit „F.F.F.“ zusammengefasst: Freigeld, Freiland, Festwährung. Freigeld (Geldreform). Silvio Gesell forderte die Abschaffung der bis dahin weltweit verbreiteten Golddeckung, weil nur eine begrenzte Menge Gold für den Geldkreislauf zur Verfügung steht, während eine Wirtschaft beinahe unbegrenzt wachsen kann. Goldmangel könnte deflationäre Zustände verursachen, Goldüberschuss könnte destabilisierende Inflation zur Folge haben. In der freiwirtschaftlichen Theorie ist das grundsätzliche Problem des Geldes das der fehlenden Lagerkosten. Zwei Ansätze gibt es, um dies zu verdeutlichen: Der Gesellsche Ansatz basiert auf der Analyse von Pierre-Joseph Proudhon, welche besagt, dass der Geldbesitzer gegenüber dem Besitzer bzw. Anbieter von Waren, Produkten, Dienstleistungen sowie Arbeitskraft einen entscheidenden Vorteil besitzen würde: Durch das Lagern von Waren, Produkten und Dienstleistungen entstünden laufende Kosten, bei Geld aber nicht. Dadurch würde der Geldbesitzer (die Nachfrage) einen systemischen Vorteil gegenüber dem Angebot erhalten, was dazu führen würde, dass Geld teurer verkauft würde als Waren. Diesen zusätzlichen Wert definierte Gesell als den „Urzins“, dessen Höhe er auf jährlich 4–5 Prozent schätzte. Investitionen würden seiner Meinung nach nicht getätigt, läge der allgemeine Marktzins unter drei Prozent. Stattdessen würde es als liquides Mittel gehalten und gemäß Gesell zu Spekulationszwecken verwendet. Aus Perspektive der Anleger entstünde der Anlagenotstand, aus Perspektive der Unternehmer entstünde der Eindruck der Kapitalknappheit. Deflation und Spekulationsblasen wären erfahrungsgemäß die Folgen solcher Situationen. Als Gegenmittel dazu bietet Gesell die Umlaufsicherung an, welche sicherstellen soll, dass weiterhin das mit negativem Zins belegte Geld investiert würde. Die Umlaufsicherung soll sich deshalb wie eine Steuer auf Liquidität auswirken, um die Umlaufgeschwindigkeit zu steuern. Dadurch soll – nach freiwirtschaftlicher Annahme – Vollbeschäftigung, vergleichbar mit einer permanenten Hochkonjunktur eintreten, wodurch die Löhne stiegen, während gleichzeitig die Preise real fallen würden. Ein derartiges „Freigeld“ erfüllt nicht die Wertaufbewahrungsfunktion des Geldes. Freiland. Ein weiterer Kritikpunkt der Freiwirtschaft an der bestehenden Verteilung der Produktionsgüter und Mittel ist das private Eigentum am Boden. Es verschafft seinen Eigentümern generell eine Bodenrente, die ihnen als leistungsloses Einkommen zufließt, sowohl bei Selbstnutzung der Grundstücke wie auch beim Verpachten und Vermieten. Nach freiwirtschaftlicher Auffassung soll die Bodenrente nicht in private Verfügung gelangen, sondern der Allgemeinheit zukommen, weil Boden ein Produkt der Natur und kein vom Menschen geschaffenes Gut ist, und der Wert, und damit die Bodenrente, nur durch die Allgemeinheit entsteht. Durch eine Bodenreform will die Freiwirtschaft öffentliches Eigentum am Boden mit dessen privater Nutzung verbinden. Dazu fordert sie, allen Boden gegen volle Entschädigung seiner bisherigen Eigentümer in öffentliches Eigentum zu überführen, zum Beispiel in Eigentum der Gemeinden. Die bisherigen Eigentümer behalten dabei das Nutzungsrecht an ihren Grundstücken gegen Entrichtung einer regelmäßig wiederkehrenden Nutzungsabgabe an die öffentliche Hand. Boden in bis dahin öffentlichem Eigentum, der nicht ausdrücklich für öffentliche Zwecke gebraucht wird, soll an die Meistbietenden zur Nutzung vergeben werden. Im Unterschied zum Boden dürfen und sollen darauf befindliche oder künftig zu errichtende Einrichtungen wie Gebäude oder gewerbliche Anlagen weiterhin Privateigentum sein und können privat genutzt werden, weil sie aus menschlicher Arbeit hervorgegangen sind. Die Rechte zum Vermieten oder Verpachten solcher Einrichtungen bleiben nach freiwirtschaftlicher Vorstellung gewährleistet, nicht jedoch das private Verpachten der Bodennutzung. Wer Boden benötigt und nutzen möchte – sowohl Privatpersonen wie juristische Personen, sowohl bisherige Eigentümer wie neue Nutzer –, soll der zuständigen Bodenverwaltungsbehörde für die Nutzung des Bodens regelmäßig wiederkehrend eine Nutzungsabgabe entrichten, welche in ihrer Höhe ungefähr der Bodenrente entspricht. Die Höhe der Abgabe sollte je nach Begehrtheit des betreffenden Grundstücks bemessen sein und kann zum Beispiel in einer Versteigerung von Nutzungsrechten als Höchstgebot ermittelt werden. Damit wäre die Höhe der Nutzungsabgabe entsprechend marktwirtschaftlichen Prinzipien durch Angebot und Nachfrage bestimmt. Diese Bodenreform bedingt die Schaffung einer rechtlichen Trennung zwischen Boden und darauf befindlichen Einrichtungen, wogegen das bestehende Recht nicht zwischen Boden und Bauten unterscheidet, sondern beides zusammen als "Grundstück" bezeichnet und rechtlich als Ganzes behandelt. Mit der neuen Ordnung wären Handel und Spekulation mit Boden nicht mehr möglich, nach wie vor jedoch Kauf und Verkauf der privaten Einrichtungen. Beim Verkauf eines Bauwerks müsste der Käufer vom Verkäufer auch den Bodennutzungsvertrag mit der betreffenden Behörde übernehmen. Mit der Bodennutzungsabgabe wird die Bodenrente der Allgemeinheit zufließen. Gesell selbst plante, das durch die Vergesellschaftung der Bodenrente gewonnene Geld als "Mutterrente", eine Art hohes Kindergeld, an die Mütter zu verteilen, um diese wirtschaftlich unabhängig von Männern zu machen. Eine Bodenreform nach freiwirtschaftlichem Modell wäre notwendig, um zu verhindern, dass Großgeldbesitzer, deren leistungslose Einkommen aus Zinsen nach der Einführung von Freigeld beschnitten sein würden, auf den Aufkauf von Grundstücken ausweichen. Dadurch würden die Grundstückspreise in unermessliche Höhen klettern und damit auch die Bodenrente in privater Hand, sehr zum Nachteil aller Übrigen, weil jeder Mensch zum Leben und Arbeiten auf Boden angewiesen ist. Gesell bezieht sich dabei auf die Landreform-Theorie von Henry George. Diese sieht für Land eine Eigentumssteuer in einer Höhe vor, die die Grundrente angemessen neutralisiert. Gesell hält dabei aber Freiland für die systemisch überlegene Lösung. Freihandel. Ein weiterer Aspekt, der zur Freiwirtschaft gehört, ist der Freihandel. Damit ist die Abschaffung nationaler Wirtschaftsgrenzen gemeint. Da Freihandel von praktisch allen Ökonomen gefordert und befürwortet wird, ist Freihandel der einzige Freiwirtschaftliche Aspekt, der sich soweit global durchzusetzen scheint. Organisationen wie die WTO üben international großen Druck auf Staaten aus, Zoll- und Importbarrieren zu reduzieren und Exportsubventionen abzuschaffen, in der mit der ursprünglichen Freiwirtschaftsbewegung übereinstimmenden Überzeugung, dass intensive Handelsbeziehungen und -Verflechtungen einen langfristigen Frieden zwischen den Ländern der Welt sicherstellen. Siedlungs- und Genossenschaftsprojekte. Auf die Anregung von Theodor Hertzkas Buch "Freiland" gehen zahlreiche Konsum-, Produktiv- und Baugenossenschaften, sowie verschiedene Siedlungsprojekte zurück, darunter das Projekt Eden, der spätere Wohnort Gesells. Währungsprojekte. Zu den ersten Versuchen, die freiwirtschaftliche Freigeld-Theorie in der Praxis zu erproben, gehörte das sogenannte WÄRA-Experiment. Es wurde Ende der 1920er Jahre an vielen Orten Deutschlands durchgeführt. Initiiert wurde dieser Versuch von den Gesell-Anhängern Hans Timm und Helmut Rödiger im Jahr 1926. Der Bergwerksingenieur Max Hebecker führte in Zusammenarbeit mit Hans Timm und Helmut Rödiger nach 1929 das "Schwanenkirchener Freigeldexperiment" durch. In der Folgezeit erlebte die Region um Schwanenkirchen einen in der Öffentlichkeit sehr beachteten wirtschaftlichen Aufschwung. Über die Grenzen Europas hinaus erlangte das sogenannte "Wunder von Wörgl" Bekanntheit. Der Wörgler Bürgermeister Michael Unterguggenberger arbeitete im Zusammenhang der Weltwirtschaftskrise 1929 ein Nothilfe-Programm aus, das sich an der Gesellschen Freiwirtschaftslehre orientierte und dazu führte, dass umlaufgesichertes Freigeld als Komplementärwährung für die Region Wörgl ausgegeben wurde. Auch in den Vereinigten Staaten kam es Anfang der 30er Jahre des 20. Jahrhunderts an vielen Orten zur Durchführung eines freiwirtschaftlichen Geldexperiments. Unter der Bezeichnung "stamp scrip", gewann das Experiment so sehr an Popularität, dass der Nationalökonom Irving Fisher darüber eine wissenschaftliche Untersuchung veröffentlichte. Als Fortsetzung dieser historischen Freigeldexperimente gilt das sogenannte Regiogeld, das heute an vielen Orten unter unterschiedlichen Bezeichnungen als Komplementärwährung in Umlauf ist. Organisationen der Freiwirtschaft. Mitgliedsbuch der Frei-Sozialen Union (ab 1950) Die Freiwirte haben sich zusammengeschlossen unter anderem in Sammlungen freiwirtschaftlicher Literatur befinden sich unter anderem Unmittelbar nach Gesell. John Maynard Keynes kam in seinem 1936 erschienenen Hauptwerk "Allgemeine Theorie der Beschäftigung, des Zinses und des Geldes" ("General Theory of Employment, Interest and Money") zu folgender Einschätzung der Gesell'schen Lehre: „Ich glaube, daß die Zukunft mehr vom Geiste Gesells als von jenem von Marx lernen wird.“ Der US-amerikanische Ökonom Irving Fisher setzte sich, angeregt durch einen Modellversuch in Wörgl, dafür ein, „Freigeld“ in Form von „stamp scrips“ in den USA einzuführen. Bis Anfang des 21. Jahrhunderts. In den gängigen wirtschaftswissenschaftlichen Lehrbüchern und Zeitschriften wurde die Freiwirtschaft selten diskutiert. Jedoch hat Dieter Suhr, von 1975 bis 1990 Professor für Öffentliches Recht an der Universität Augsburg, in seinen Büchern grundsätzliche verfassungsrechtliche Kritik an der heutigen Geldordnung geübt und wesentliche, sowohl theoretische wie auch praktische Anstöße für eine Weiterentwicklung der Freiwirtschaft gegeben. Bernd Senf, Professor für Volkswirtschaftslehre an der Fachhochschule für Wirtschaft Berlin, präsentierte in seinem erstmals 2001 veröffentlichten Buch "Die blinden Flecken der Ökonomie" die Freiwirtschaftslehre als eine von sieben historisch bedeutsamen Schulen der Volkswirtschaftslehre (neben Physiokratie, klassischer Ökonomie, Marxismus, Neoklassik, Keynesianismus und Monetarismus). 2003 promovierte Roland Wirth bei dem Wirtschaftsethiker Peter Ulrich an der Universität St. Gallen mit einer Dissertation zum Thema "Marktwirtschaft ohne Kapitalismus. Eine Neubewertung der Freiwirtschaftslehre aus wirtschaftsethischer Sicht". Nach Rezensionen von Jost W. Kramer, Professor für Allgemeine Betriebswirtschaftslehre an der Hochschule Wismar, und von Dr. Stephan Märkt, Bologna-Berater der HRK an der Leuphana Universität Lüneburg, resümierte der Berliner Professor Hermann Kendel, Wirths Doktorarbeit bringe „die Ideen von Silvio Gesell wieder in die allgemeine Fachdiskussion zurück.“ Gegenwart. Mit Beginn der Weltwirtschaftskrise 2009 wurde die Idee des umlaufgesicherten Geldes an verschiedenen Stellen erneut aufgegriffen. So verwiesen Gregory Mankiw oder Willem Buiter auf Silvio Gesell. EZB-Direktoriumsmitglied Benoît Cœuré hielt am 9. März 2014 vor der Geldmarkt-Kontaktgruppe der EZB die Rede "Life below zero: Learning about negative interest rates" (Leben unter null: Über negative Zinsen lernen). Darin erklärte er, dass die Idee negativer Zinsen oder der „Besteuerung des Geldes“ auf das 19. Jahrhundert, auf Silvio Gesell zurückgehe, den deutschen Begründer der Freiwirtschaft, der von Irving Fisher unterstützt und von John Maynard Keynes „ein seltsamer, zu Unrecht übersehener Prophet“ genannt wurde. Liberale Kritik an der Freiwirtschaft. Die liberale Gesellschaftsordnung beruht größtenteils auf dem Eigentumsrecht. Durch die Geldumlaufsicherungsgebühr werde das Verfügungsrecht des Geldbesitzers, das nach liberaler Auffassung auch das Recht auf Geldhortung umfasst, eingeschränkt. Der Zins entspricht nach neoklassischer Auffassung (Eugen von Böhm-Bawerk) der Zeitpräferenzrate des Geldbesitzers und somit auch den menschlichen Bedürfnissen. Auch die Zinskosten entsprechen nach neoklassischer Auffassung den gesellschaftlichen Präferenzen. Jeder Konsument habe die freie Wahl zwischen Zahlung der Zinskosten oder Konsumverzicht. Ökonomische Kritik an der Freiwirtschaft. Die Umlaufsicherungsgebühr für Bargeld bildet die Kernidee der freiwirtschaftlichen Geldreform. Substitution durch andere Währungen. Kritisiert wird unter anderem die freiwirtschaftliche Prämisse, dass Geld durch die Umlaufsicherung auf den Konsum- oder Kreditmarkt gedrängt würde. Das umlaufgesicherte Geld würde von den Bürgern "stattdessen" für Devisen, Edelmetalle oder Wertpapiere verkonsumiert, welche keinem Wertverfall unterliegen. Das Greshamsche Gesetz beschreibt den Effekt, dass „schlechtes Geld gutes Geld verdrängt, wenn ein gesättigter Markt vorliegt“. Jeder Konsument, der vor der Wahl steht, Ausgaben mit umlaufgesichertem Geld oder anderem Geld zu begleichen, wird die Zahlung mit umlaufgesichertem Geld vornehmen. Das Ausweichen in Edelmetalle unterliegt denselben Regeln wie das Ausweichen auf andere Währungen und die Investition in wertstabile Wertpapiere ist überhaupt die Absicht der Umlaufsicherung. Inflation. Die Geldmengen "M"1 bis "M"3 Laut der Quantitätsgleichung formula_1 erhöht eine Umlaufsicherung die Umlaufgeschwindigkeit formula_2. Dies hat prinzipiell denselben Effekt wie die Erhöhung der Geldmenge formula_3. Nicht berücksichtigt wird allerdings, dass das Handelsvolumen formula_4 durch die erhöhte Güternachfrage in der Freiwirtschaft auch steigt. Auch kann eine einfache Erhöhung der Geldmenge formula_3 zu einer gleichzeitigen Senkung der Umlaufgeschwindigkeit führen, wenn Geld von der Geldbasis formula_6 und formula_7, welches eine hohe Umlaufgeschwindigkeit formula_8 aufweist, zurückgehalten oder angespart und dadurch zur Geldmenge formula_9 oder gar formula_10 wird, welche geringere Umlaufgeschwindigkeiten formula_11 aufweisen. Diese Verlagerung auf Geldmengen mit geringerer (bzw. keiner) Umlaufgeschwindigkeit entsteht, wenn Menschen Den beiden ersten Effekten wird beim Freigeld durch die Umlaufsicherung entgegengewirkt, denn hier entsteht die Erhöhung der Umlaufgeschwindigkeit durch die Verlagerung der lang- bis mittelfristig angelegten Geldmengen formula_10 und formula_9 auf die rasch zirkulierenden Geldmengen formula_7 und formula_6. Marxistische Kritik an der Freiwirtschaft. Marxisten bezeichnen die Freiwirtschaft als "sozialdarwinistisches Konzept", und lehnen sie deshalb ab. Werner Onken legt in seiner Antwort auf diesen Vorwurf dar, dass die Evolutionslehre damals neu, und vor allem auch im Kontrast zu den Dogmen der Kirchen, - auch in der Arbeiterbewegung - "en vogue" war, und Gesell keineswegs einen "Kampf des Stärkeren gegen den Schwächeren" vertreten hat, sondern dafür eintrat, "mit einer gerechten Rahmenordnung des Wirtschaftens Voraussetzungen für eine gerechte Verteilung der Einkommen und Vermögen [zu] schaffen". Forderung. Unter Forderung wird im Allgemeinen eine Aufforderung, ein Befehl, eine Anweisung, die Einforderung eines Rechtes oder das Geltendmachen eines Anspruches verstanden. Unternehmerischer Begriff. Forderungen sind als Vermögensgegenstand Bestandteil der Aktiva einer Bilanz und können durch eine Kreditversicherung abgesichert werden. Der Gesetzgeber hat den Forderungen eine so große Bedeutung beigemessen, dass er ihnen aus Gründen der Bilanzklarheit eine eigene Bilanzposition zugewiesen hat. Sie sind gemäß Abs. 2 B II HGB als "Forderungen aus Lieferungen und Leistungen", "Forderungen gegen verbundene Unternehmen", "Forderungen gegen Unternehmen mit einem Beteiligungsverhältnis" oder "sonstige Vermögensgegenstände" im Umlaufvermögen des Jahresabschlusses auszuweisen. Forderungen entstehen insbesondere durch eine Lieferung oder Leistung, bei der der Gefahrenübergang auf den Kunden erfolgt ist und dieser nicht unmittelbar bezahlt hat. Grund für die nicht sofortige Bezahlung kann ein vereinbarter Zielverkauf, aber auch ein Zahlungsverzug sein. Diese Forderungen bilden bei den meisten Unternehmen den wichtigsten oder wesentlichen Vermögensgegenstand des Umlaufvermögens in der Bilanz. Ein Forderungsmanagement soll dafür sorgen, dass die unbezahlten Lieferungen im Hinblick auf die Bonität der Abnehmer und die Fälligkeit überwacht werden. Dieses Debitorenrisiko besteht in der Gefahr, dass die Abnehmer zu spät, nicht oder nicht vollständig bezahlen oder gar insolvent werden. Es kann gemindert oder ausgeschaltet werden durch die Lieferung unter Eigentumsvorbehalt. Dieser ist eine originäre Kreditsicherheit, die der Lieferant mit dem Abnehmer vereinbart und bei Nichtbezahlung der Forderung dazu führt, dass der Lieferant die gelieferten Waren vom Abnehmer herausverlangen kann. Verwirklicht sich das Debitorenrisiko, verwandeln sich die intakten Forderungen in zweifelhafte Forderungen. Juristische Bedeutung. In der deutschen Rechtswissenschaft bezeichnet der Begriff „Forderung” einen Anspruch des Schuldrechts, der in den § ff. BGB geregelt ist. Bisweilen wird auch das Synonym „Schuldverhältnis im engeren Sinne” benutzt. Für die Forderung spezifisch ist, dass sie auf einem Schuldverhältnis (im weiteren Sinne) beruht, vgl. § 241 Abs. 1 Satz 1 BGB. Dies unterscheidet sie von anderen, sogenannten dinglichen Ansprüchen, vor allem solchen des Sachenrechts. Forderungen gründen sich auf Personenbeziehungen, dingliche Ansprüche sind hingegen sachbezogen. So handelt es sich etwa bei einem Anspruch des Eigentümers auf Herausgabe seiner Sache gegen den Dieb um einen sachenrechtlichen Anspruch, der auf der Rechtsbeziehung des Eigentümers zu dieser Sache beruht. Forderungen sind dagegen beispielsweise der Anspruch des Verkäufers auf Kaufpreiszahlung gegen den Käufer aus dem Kaufvertrag oder der Anspruch des Unfallopfers auf Schadensersatzzahlung gegen den Verursacher, denn sie basieren auf einer Rechtsverbindung zwischen den beteiligten Personen, die entweder von diesen gewollt (Vertrag) oder gesetzlich angeordnet (gesetzliches Schuldverhältnis) sein kann. Auch öffentlich-rechtliche Beziehungen können Gegenstand von Forderungen werden, z. B. Steuerforderungen, Bußgelder, Rückforderungen zu Unrecht erhaltener Sozialleistungen. Forderungen im Rechnungswesen. Grundlagen für die Bilanzierung von Forderungen im IFRS sind IAS 39 (Finanzinstrumente: Ansatz und Bewertung), IAS 32 (Finanzinstrumente: Darstellung), IFRS 7 (Finanzinstrumente: Angaben), sowie F49a, F53 – F59, F89 – 90. Unterschiede zur gesetzlichen Regelung auf nationaler Ebene lassen sich insbesondere bei der Bewertung von Forderungen feststellen. Nach HGB entfällt die nach den IFRS bekannte Möglichkeit, Forderungen und Ausleihungen zum Fair Value zu bewerten. Forderungen und Ausleihungen werden nach HGB grundsätzlich zum Rückzahlungsbetrag bilanziert, sofern nicht aufgrund des Vorsichtsprinzips auf den niedrigeren beizulegenden Wert abzuwerten ist. Grundlegende Definitionen. Eine Forderung ist jeder vertragliche Anspruch, Zahlungsmittel oder andere finanzielle Vermögenswerte zu erhalten. Forderungen sind finanzielle Vermögenswerte und zählen zu den Finanzinstrumenten. Ein Vermögenswert ist eine Ressource, die auf Grund von Ereignissen in der Vergangenheit in der Verfügungsmacht des Unternehmens steht, und von der erwartet wird, dass dem Unternehmen aus ihr künftiger wirtschaftlicher Nutzen zufließt. Ein Finanzinstrument ist ein Vertrag, der gleichzeitig bei dem einen Unternehmen zu einem finanziellen Vermögenswert und bei dem anderen zu einer finanziellen Verbindlichkeit oder einem Eigenkapitalinstrument führt. Gängige Beispiele für Finanzinstrumente sind unter anderem Wertpapiere und Forderungen. Alle anderen Vermögenswerte sind als langfristig einzustufen. Ansatz und Kategorisierung. Forderungen aus Lieferungen und Leistungen sind gemäß der obigen Abgrenzung erst dann zu aktivieren, wenn der Umsatz realisiert wurde, das heißt, das Produkt muss ausgeliefert oder die Dienstleistung gegenüber dem Kunden erbracht worden sein. Bei Lieferungen ist grundsätzlich erst dann eine Forderung zu aktivieren, wenn das Risiko des Untergangs auf den Käufer übergegangen ist. Das Ausbuchen aus der Bilanz erfolgt, wenn das Unternehmen das Recht auf die Vorteile verliert, die im Vertrag festgelegt sind, wenn die Rechte auslaufen oder wenn das Unternehmen die Verfügungsmacht über die vertraglichen Rechte des Finanzinstruments verliert. Durch die Zuordnung aller Finanzinstrumente in einer der folgenden Kategorien im Rahmen der erstmaligen Erfassung wird bestimmt, wie die betreffenden finanziellen Vermögenswerte in der Bilanz anzusetzen und zu bewerten sind. Bewertungsgrundsätze. Bei erstmaliger Erfassung eines finanziellen Vermögenswertes ist dieser mit dem beizulegenden Zeitwert (fair value) unter Einschluss der Transaktionskosten zu bewerten. Boni (trade discounts), Skonti (cash discounts) und Einzelwertberichtigungen sind vom beizulegenden Zeitwert abzuziehen. Wertberichtigungen sind immer aktivisch abzusetzen. Die Folgebewertung geschieht zu fortgeführten Anschaffungskosten (amortized costs). Aus Wesentlichkeitsgesichtspunkten sind Forderungen nicht abzuzinsen, wenn sie innerhalb eines Jahres fällig werden. Bei Forderungen, die nicht innerhalb eines Jahres fällig werden, sind die fortgeführten Anschaffungskosten mit Hilfe der Effektivzinsmethode zu ermitteln, sofern mit dem Kunden keine gesonderte Vereinbarung über die Berechnung von marktüblichen Zinsen getroffen wurde. Liegt eine getroffene Zinsvereinbarung unter dem marktüblichen Zinssatz, so ist für die Ermittlung des Abzinsungsbetrages die Differenz zwischen dem marktüblichen und dem mit dem Kunden vereinbarten Zinssatz zu Grunde zu legen. Nach IFRS sind Forderungen einzeln zu bewerten, die Bildung von Pauschalwertberichtigungen zur Abdeckung des allgemeinen Kreditrisikos ist damit unzulässig. Zulässig sind jedoch so genannte pauschalierte Einzelwertberichtigungen, wobei individuelle Einzelwertberichtigungen grundsätzlich Vorrang haben. Gemäß IAS 39, AG 87 sind pauschalierte Einzelwertberichtigungen auf Basis einer Gruppierung der Forderungen nach Maßgabe der Bonitätseinschätzungen der jeweiligen Schuldner vorzunehmen. Sobald spezifische Informationen über einen individuellen Einzelwertberichtigungsbedarf einer Forderung innerhalb einer gebildeten Gruppe von Forderungen vorliegen, muss diese Forderung aus der Gruppe ausgesondert und die entsprechende Wertminderung als individuelle Einzelwertberichtigung ausgewiesen werden. Eine Wertberichtigung auf Forderungen ist zwingend vorgeschrieben, wenn der Betrag der Wertberichtigung hinreichend genau ermittelt werden kann und das Ereignis, das die Abwertung verursacht, wahrscheinlich eintreten wird. Einzelwertberichtigungen sind wegen bestrittener Forderungen (Mangel oder angeblicher Mangel auf Seiten des Lieferanten) und wegen Delkredere (bekannte oder vermutete Bonitätsrisiken auf Seiten des Kunden) vorzunehmen. Eine Forderung ist aus der Bilanz auszubuchen, wenn das Unternehmen das Recht auf die Vorteile verliert, die im Vertrag festgelegt sind, wenn die Rechte auslaufen oder wenn das Unternehmen die Verfügungsmacht über die vertraglichen Rechte des Finanzinstruments verliert. Veräußerungsgewinne und -verluste sind erfolgswirksam anzusetzen. Der Veräußerungserfolg ist die Differenz zwischen dem Erlös und dem Buchwert des Finanzinstruments. Eine Aufrechnung von Forderungen und Verbindlichkeiten ist auch bei Identität von Schuldner und Gläubiger und annähernd gleicher Fälligkeit nicht zulässig. Bilanzausweis und Erläuterung. Ein vollständiger Abschluss beinhaltet unter anderem eine Bilanz und eine Gewinn- und Verlustrechnung. Kurzfristige und langfristige Vermögenswerte sind als getrennte Gliederungsgruppen in der Bilanz darzustellen, sofern eine Darstellung nach Liquidität nicht zuverlässig und relevanter ist. Die Angabepflichten gemäß IFRS 7 umfassen auf Ebene der Einzelklassen ähnlicher Finanzinstrumente Informationen über die Bedeutung der Finanzinstrumente und Informationen über Art und Ausmaß der mit den Finanzinstrumenten verbundenen Risiken. Reklassifizierungen (IFRS 7.12) müssen ebenso wie Ausbuchungen (IFRS 7.13) offengelegt werden. Flöhe. Flöhe (Siphonaptera) bilden eine Ordnung in der Klasse der Insekten und gehören zur Gruppe der holometabolen Insekten. Von den etwa 2400 Arten der Flöhe sind etwa 70 Arten in Mitteleuropa nachgewiesen. Die Tiere zählen zu den Parasiten. Sie erreichen eine Länge von 1,5 bis 4,5 Millimetern. Die größte Art ist der Maulwurfsfloh ("Hystrichopsylla talpae" Curtis, 1826), der auf dem Europäischen Maulwurf ("Talpa europaea" Linnaeus, 1758) parasitiert. Merkmale. Flöhe besitzen keine Flügel. Dies erklärt den zweiten Teil des wissenschaftlichen Namens, der sich aus altgriechisch "síphōn" ‚Röhre, Heber, Spritze‘ sowie "ápteros" ‚ungeflügelt‘ zusammensetzt. Stattdessen haben sie aber zur schnellen Fortbewegung kräftige Hinterbeine, die ihnen weite Sprünge von fast einem Meter erlauben. Die Schnellbewegung der Sprungbeine gilt als eine der schnellsten Bewegungen im gesamten Tierreich. Um diese zu erreichen, würde die Kontraktionsgeschwindigkeit der Muskeln nicht ausreichen. Daher besitzen Flöhe in ihren Beinen sogenannte Resilinpolster: Resilin ist ein elastisches Protein, welches vor dem Sprung wie ein Bogen gespannt werden kann und dem Floh auf diese Weise sehr weite und hohe Sprünge ermöglicht. Der Sprung eines Flohs ist ungerichtet. Charakteristisch für Flöhe ist ihr seitlich abgeplatteter Körper, der es ihnen erleichtert, sich im Fell zwischen den Haaren fortzubewegen. Flöhe besitzen keine Facettenaugen, sondern ein Paar einlinsige Punktaugen. Die Mundwerkzeuge sind zu einem kombinierten Stech- und Saugrüssel umfunktioniert (daher der erste Teil des wissenschaftlichen Namens dieser Ordnung: siphon, griech. „Rohr, Röhre“). Beim Saugen führt der Floh einen regelrechten Kopfstand aus. Flöhe besitzen einen sehr harten Chitinpanzer, der es sehr schwer macht, sie zu zerdrücken. Ein Zerreiben ist hingegen eher möglich, man kann sie aber mit dem Fingernagel zerknacken. Am Körper und an den Beinen haben sie nach hinten gerichtete Borsten und Zahnkämme (Ctenidien), die es – zusammen mit den Krallen an den Beinen – schwer machen, Flöhe aus den Haaren zu kämmen. Lebensweise. Flöhe sind Parasiten, die von warmblütigen Tieren leben, wobei 94 Prozent aller Arten auf Säugetieren parasitieren und etwa 6 Prozent auf Vögeln. Flöhe haben zwar Vorlieben für bestimmte Wirtstiere, sind aber nicht ausschließlich auf diese angewiesen. Vielmehr scheinen Flöhe eine größere Bindung zu ihren Nestern (Tiernester, aber auch Polster, s. u.) zu haben als zu ihren Wirten. Somit wird der Mensch auch von anderen Floharten als dem Menschenfloh ("Pulex irritans" Linnaeus, 1758) befallen. Haustierbesitzer sollten auch um ihrer eigenen Gesundheit willen darauf achten, dass ihre Tiere frei von Flöhen sind. Flöhe werden durch das Kohlenstoffdioxid der Atemluft, Wärme und Bewegung von Tieren angelockt. Nach einer üppigen Mahlzeit kommen Flöhe bis zu zwei Monate ohne Nahrung aus. In Wohnungen fühlen sich Flöhe in Teppichen und Polstermöbeln wohl, wo sie auch die meiste Zeit verbringen. Nur zum Blutsaugen suchen sie den Menschen auf. Ein Floh kann maximal 1½ Jahre alt werden. Die Lebensdauer des ausgewachsenen Rattenflohs beträgt fünf bis sechs Wochen. Die Larvenentwicklung dauert je nach Temperatur acht Tage (warme Zimmertemperatur) bis zu einem Jahr. Es gibt drei Larvenstadien und ein ruhendes Puppenstadium. Nach ihrem Verhalten werden die Flöhe in zwei Gruppen eingeteilt: Nestflöhe und Pelzflöhe. Die Nestflöhe bleiben stationär in der Nähe des Schlafplatzes ihres Wirtes in dunkler und trockener Umgebung. Sie kommen des Nachts aus ihrem Versteck, befallen den Wirt und verschwinden wieder im Versteck, wo sie ihre Eier legen. Sie sind extrem lichtscheu und lieben keine Ortsveränderung. Man findet sie daher nur sehr selten auf Kleidung, die in Gebrauch ist. Kennzeichnend ist, dass der Wirt wahllos über den ganzen Körper von Bissen befallen ist. Bekanntester Vertreter ist der Menschenfloh, der sich tagsüber an den dunklen Stellen des Bettes aufhält. Die Pelzflöhe hingegen bleiben auf ihrem Wirt sitzen und wandern mit ihm mit. Sie vertragen daher Licht ohne weiteres sehr gut, springen auch Menschen an und setzen sich in deren Kleidung fest. Aber Menschenblut nehmen sie nur ausnahmsweise, wenn keine Ratten mehr zur Verfügung stehen. Die Larven der Flöhe ernähren sich meist von zerfallenden organischen Stoffen in der Nähe ihrer späteren Wirte. Zur Nahrung kann deshalb auch der Kot der erwachsenen Flöhe zählen. Fortpflanzung. Die Fortpflanzung setzt einen bestimmten Temperaturbereich voraus. Fällt die Temperatur auf 5 °C und darunter, wird die Fortpflanzung eingestellt, bereits unter 10 °C nimmt sie signifikant ab. Das bedeutet aber nicht, dass sich Flöhe in den gemäßigten und nördlichen Breiten im Winter nicht vermehren. Sie pflanzen sich dort in Wohnungen und Ställen das ganze Jahr über fort. Die Männchen besitzen spezielle Klammerorgane, die sie bei der Kopulation einsetzen. Das Weibchen legt die relativ großen Eier in Eipaketen zu etwa 10 Stück ab und muss zwischendurch immer wieder neue Nahrung zu sich nehmen. Während ihres Lebens können Weibchen etwa 400 Eier legen. Die Larven besitzen weder Beine noch Augen und sind mit Borsten bedeckt. Die Entwicklung verläuft im Nest des Wirtes und dauert etwa zwei bis vier Wochen. Dabei ernähren sich die Larven von den Ausscheidungen der erwachsenen Tiere. Da es sich hierbei um eingetrocknetes Blut handelt, lässt sich anhand dieses Flohkotes ein Befall effektiv nachweisen. Hierzu werden die mittels eines Flohkammes ausgekämmten Bestandteile auf eine weiße saugfähige Unterlage (Zellstoff, Kissenbezug oder Ähnliches) gegeben und leicht befeuchtet. Durch seinen Blutgehalt wischt die Ausscheidung des Parasiten rötlich aus. Schadwirkung beim Menschen. Mehrfacher Flohbiss beim Menschen, aufgekratzt und leicht entzündet Springt ein Vertreter dieser Arten auf den Menschen über, so verursacht er dort durch seinen Stich eine kleine Wunde mit einem mehr oder minder intensiven und großflächigen Juckreiz, welcher in der Regel dazu führt, dass die Menschen nachts unbemerkt daran kratzen. Das Ergebnis sind offene Stellen in der Haut, die sich auch entzünden können. Charakteristisch ist, dass die Stiche fast immer in Reihen liegen, weil die Flöhe leicht irritiert werden bzw. Probestiche vornehmen. Durch Flohstiche können Bakterien (z. B. Streptokokken und Staphylokokken) übertragen werden, welche möglicherweise verstärkt durch das Kratzen bei Juckreiz zu Entzündungen an der Stichstelle führen. Der Menschenfloh ("Pulex irritans") kann in seltenen Fällen durch seinen Stich/Biss die Pest auf mechanischem Wege übertragen. Speziell der Rattenfloh ("Xenopsylla cheopis"), der Pestfloh, ist durch seinen Stich/Biss schon lange als biologischer Überträger der Pest bekannt (siehe auch Infektionsweg). Hunde- und Katzenflöhe bleiben in der Regel auf ihren üblichen Wirten, doch bei engerem Zusammenleben gehen sie auch gerne auf den Menschen über. Von tropischen Floharten können die Erreger von Pest, Tularämie und murinem bzw. endemischem Fleckfieber (Erreger: Bakterium "Rickettsia mooseri", Vektor: in erster Linie Ratten- und flohähnliche Mäuseflöhe ("Leptinus testaceus") Mueller) übertragen werden. Eine direkte Übertragung von Mensch zu Mensch ist bei diesen Flöhen nicht möglich. Bekämpfung. Gegen adulte Flöhe bei Tieren gibt es zahlreiche Wirkstoffe, die entweder zur äußeren (Spray, Spot-on, Puder, Halsband) oder zur inneren Anwendung bestimmt sind. Äußerlich werden Insektizide wie Fipronil, Imidacloprid, Metaflumizon, Nitenpyram, Selamectin angewendet. Zur inneren Anwendung in Tablettenform sind Wirkstoffe wie Fluralaner oder Spinosad geeignet. Zur Verhinderung der Larvenentwicklung eignen sich Chitininhibitoren wie Lufenuron. Darüber hinaus sollte eine Behandlung der Umgebung des Tieres, vor allem des Liegeplatzes und bevorzugter Aufenthaltsorte, erfolgen, da sich Flöhe nicht permanent auf dem Tier aufhalten und die Wirksamkeit der am Tier angewendeten Wirkstoffe auf diesen Teil der Flohpopulation begrenzt ist. Die Umgebungsbehandlung erfolgt durch regelmäßiges Wischen, Staubsaugen und Waschen von Decken und Teppichen, unterstützt durch eine chemische Flohbekämpfung mit Chlorpyrifos, Permethrin, Propoxur, Fenoxycarb, Methopren bzw. Kombinationen dieser Wirkstoffe. Flöhe als Attraktion. Noch in der Mitte des 20. Jahrhunderts waren Flohzirkusse eine große Attraktion. Gewöhnlich wurden Menschenflöhe ("Pulex irritans") als „Artisten“ eingesetzt. Weibliche Tiere wurden bevorzugt, da sie größer und sowohl für das Publikum als auch den Dompteur besser sichtbar sind. Der Marburger Gelehrte Otto Philipp Zaunschliffer schrieb humoristische Werke über Flöhe. Ebenso hat der Orientalist Enno Littmann durch seine kleine Sammlung von Geschichten und Liedern über den Floh (Vom morgenländischen Floh. Dichtung und Wahrheit über den Floh bei Hebräern, Syriern, Arabern, Abessiniern und Türken, Leipzig 1925) dem Tier eine amüsante Schrift gewidmet. Fossile Belege. Fossile Flöhe sind aus der Unterkreide Australiens und dem Tertiär bekannt. Während einige morphologische Merkmale des unterkreidzeitlichen Flohs noch deutliche Unterschiede zu seinen rezenten Verwandten aufweisen, sind die wenigen (Stand 2009: 2 Exemplare) Flöhe aus dem eozänen Baltischen Bernstein ("Palaeopsylla klebsiane" Dampf) den heutigen Vertretern ihrer Gattung sehr ähnlich. Als deren Wirte werden, wie auch bei rezenten Vertretern dieser Gattung, die im Tertiär weit verbreiteten kleinen Insektenfresser, wie Spitzmäuse oder Maulwürfe, angesehen. Weitere drei Exemplare sind in dem etwas jüngeren Dominikanischen Bernstein gefunden worden. Filderstadt. Filderstadt ist eine Stadt in der Mitte Baden-Württembergs, direkt südlich der Landeshauptstadt Stuttgart gelegen. Die erst 1975 im Rahmen der Gemeindereform entstandene Stadt hatte bereits bei ihrer Gründung mehr als 20.000 Einwohner und wurde daher mit Wirkung vom 1. Juli 1976 zur Großen Kreisstadt erklärt. Heute ist sie nach Esslingen am Neckar die zweitgrößte Stadt des Landkreises Esslingen und gehört zum Mittelbereich Stuttgart innerhalb des gleichnamigen Oberzentrums. Geografie. Filderstadt liegt auf der inneren Filderhochfläche auf 327 bis 474 Meter Höhe. Die Landschaft, die wortverwandt mit "Gefilde" ist, gab der Stadt ihren Namen. Am Westrand, beim Stadtteil Plattenhardt, beginnt der Naturpark Schönbuch. Die Schwäbische Alb liegt in Sichtweite der Stadt. Nachbargemeinden. Stuttgart (Stadtkreis), Neuhausen auf den Fildern, Wolfschlugen und Aichtal (alle Landkreis Esslingen), Waldenbuch (Landkreis Böblingen) sowie Leinfelden-Echterdingen (Landkreis Esslingen). Stadtgliederung. Das Stadtgebiet Filderstadts besteht aus den 5 Stadtteilen Bernhausen (13.216 Einwohner), Bonlanden (10.296 Einwohner), Plattenhardt (8.482 Einwohner), Sielmingen (7.566 Einwohner) und Harthausen (4.094 Einwohner). Die Stadtteile sind identisch mit den ehemaligen Gemeinden desselben Namens. Die offizielle Bezeichnung der Stadtteile erfolgt durch vorangestellten Namen der Stadt und durch Bindestrich verbunden nachgestellt der Name der Stadtteile. Karte des Stuttgarter Forsts von Georg Gadner, um 1600 Geschichte. Die Stadt Filderstadt entstand am 1. Januar 1975 durch Zusammenschluss der ehemals selbständigen Gemeinden Bernhausen, Bonlanden, Harthausen, Plattenhardt und Sielmingen zunächst unter dem Namen „Gemeinde Filderlinden“. Am 25. Juli desselben Jahres wurde der Name in „Filderstadt“ geändert. Mit Wirkung vom 1. Januar 1976 erhielt die neue Gemeinde das Stadtrecht und ein halbes Jahr später, zum 1. Juli 1976 wurde sie auf Antrag der Stadt von der baden-württembergischen Landesregierung zur Großen Kreisstadt erklärt. Die fünf ehemaligen Gemeinden haben jedoch eine lange Geschichte. Stadtteile. Bernhausen wurde 1089 als „Berinhusen“ (als frühschwäbische Bezeichnung für „Wohnstätten des Bero“) erstmals erwähnt. Einige adelige Familien der Herren von Bernhausen hatten die Rechte über den Ort, doch fiel er in der ersten Hälfte des 14. Jahrhunderts an Württemberg. Die Gemeinde gehörte zum Amt bzw. Amtsoberamt Stuttgart und kam 1938 zum Landkreis Esslingen. Bonlanden wurde Anfang des 12. Jahrhunderts als „Bonlandum“, was so viel wie „baumbestandene Lande“ bedeuten dürfte, erstmals erwähnt. Der Ort gehörte zunächst den Herren von Bernhausen, später deren von Stöffeln, von Stammheim und von Sachsenheim. Württemberg tauschte den Ort Zug um Zug. Um 1400 war ganz Bonlanden württembergisch. 1820 wurde die Gemarkung um ein großes Waldgebiet des Schönbuchs vergrößert. Die Gemeinde gehörte zum Amt bzw. Amtsoberamt Stuttgart und kam 1938 zum Landkreis Esslingen. Harthausen wurde 1304 als „Harthusen“ erstmals erwähnt. Der Name bedeutet so viel wie „Häuser am Hart“, also Weidewald. Auch hier hatten die Herren von Bernhausen ihre Besitzungen. Über verschiedene Herren gelangte auch Harthausen ebenfalls an Württemberg, doch hatten die Herren von Stammheim und Thumb von Neuburg noch bis ins 16. Jahrhundert kleinere Rechte. Die Gemeinde gehörte zum Amt bzw. Amtsoberamt Stuttgart und kam 1938 zum Landkreis Esslingen. Plattenhardt wurde 1269 als „Blatinhart“ erstmals erwähnt und bedeutet wohl platte = eben und Hart = Weidwald. Neben den Herren von Bernhausen hatten auch die Herren von Urslingen Rechte am Ort, der aber bald mit Waldenbuch an Württemberg gelangte. 1833 wurde die zum Amt bzw. Amtsoberamt Stuttgart gehörige Gemeinde um einige Waldflächen vergrößert. 1938 kam Plattenhardt zum Landkreis Esslingen. Sielmingen wurde 1275 als „Sygehelmingen“ (wahrscheinlich abgeleitet vom Eigennamen „Sighelm“ bzw. „Sigehelm“) erstmals erwähnt. Schon damals wurde zwischen Ober- und Untersielmingen unterschieden. Obersielmingen gehörte den Herren von Bernhausen und kam mit Waldenbuch 1363 von den Herren von Urslingen an Württemberg. Untersielmingen gehörte verschiedenen Herren und kam dann teilweise an Württemberg. Das Spital Nürtingen behielt aber bis 1806 einen Teil des Ortes, bevor auch dieser an Württemberg gelangte. Bis 1850 waren beide Orte als Gemeindeverband organisiert, dann wurden sie zu selbständigen Gemeinden erklärt, 1923 jedoch unter dem Namen Sielmingen zu einer Gemeinde vereinigt. Beide Orte bzw. die Gemeinde Sielmingen gehörte zum Amt bzw. Amtsoberamt Stuttgart und kam 1938 zum Landkreis Esslingen. Religionen. Die Bevölkerung der fünf ehemaligen Gemeinden der heutigen Stadt Filderstadt gehörten ursprünglich zum Bistum Konstanz. Da die Orte politisch schon früh zu Württemberg gehörten, wurde auch hier ab 1535 durch Herzog Ulrich die Reformation eingeführt, daher waren sie über Jahrhunderte überwiegend protestantisch. In den Orten gibt es daher auch jeweils eine evangelische Kirchengemeinde mit einer Kirche. In Bernhausen wurde infolge des starken Zuzugs 1965 eine weitere Kirche, die Johanneskirche, erbaut. Später folgte die Petruskirche. Die drei Kirchengemeinden bilden aber weiterhin die Gesamtkirchengemeinde Bernhausen. Die Kirchengemeinde Harthausen war lange Zeit eine Filiale von Bernhausen, später von Plattenhardt, dann von Untersielmingen und schließlich ab 1838 von Bonlanden. 1838 erhielt der Ort seine eigene Kirche und 1959 wurde auch eine eigene Pfarrei errichtet. Alle Kirchengemeinden Filderstadts gehörten früher zum Dekanat bzw. Kirchenbezirk Degerloch. 1981 wurde die Jakobuskirche Bernhausen Sitz eines eigenen Dekanats bzw. Kirchenbezirks innerhalb der Evangelischen Landeskirche in Württemberg, zu dem alle Kirchengemeinden im Stadtgebiet Filderstadts gehören. In Bernhausen sind auch die Altpietistische Gemeinschaft und Hahn’sche Gemeinschaft und in Sielmingen die Landeskirchliche Gemeinschaft vertreten. Katholiken gibt es in Filderstadt erst wieder seit dem 20. Jahrhundert. In Bernhausen entstand 1968 die Kirche St. Stephanus. Zur Kirchengemeinde gehört auch Sielmingen, doch gibt es dort seit 1963 eine eigene Kirche: St. Michael. In Bonlanden wurde 1958 die katholische Kirche „Zu Unserer Lieben Frau“ gebaut, eine Pfarrei gibt es dort seit 1961. Die Kirchengemeinde umfasst auch Plattenhardt. In Harthausen wurde 1968 eine katholische Kirche erbaut, die zur Pfarrei der Nachbargemeinde Grötzingen (Stadt Aichtal) gehört. Alle Kirchengemeinden gehören zum Dekanat Esslingen-Nürtingen des Bistum Rottenburg-Stuttgart und bilden die Seelsorgeeinheit 2 des Dekanats. Leitender Pfarrer ist Andreas Marquardt aus Bernhausen. Neben den beiden großen Kirchen gibt es in Filderstadt auch Freikirchen und Gemeinden, darunter die Evangelisch-methodistische Kirche (Bonlanden) und die Evangelisch-Freikirchliche Gemeinde Esslingen-Fildern in Sielmingen. Auch die Neuapostolische Kirche, die Christengemeinschaft und die Zeugen Jehovas sind in Filderstadt vertreten. Außer den christlichen Gemeinschaften gibt es mehrere islamische Gemeinschaften und die Christlich-Islamische Gesellschaft für die Begegnung und den Dialog zwischen Christen, Muslimen und anderen Religionen. Einwohnerentwicklung. Die Zahlen sind Volkszählungsergebnisse (¹) oder amtliche Fortschreibungen der jeweiligen Statistischen Ämter (nur Hauptwohnsitze). Gemeinderat. Der Gemeinderat in Filderstadt hat 32 Mitglieder. Die Kommunalwahl am 25. Mai 2014 führte zu folgendem amtlichen Endergebnis. Der Gemeinderat besteht aus den gewählten ehrenamtlichen Gemeinderäten und der Oberbürgermeisterin als Vorsitzende. Die Oberbürgermeisterin ist im Gemeinderat stimmberechtigt. Bürgermeister. An der Spitze der Stadt steht die von der Bevölkerung auf acht Jahre gewählte Oberbürgermeisterin. Sie ist auch Vorsitzende des ebenfalls von der Bevölkerung auf fünf Jahre gewählten Gemeinderats. Sie hat als allgemeinen Stellvertreter einen 1. Beigeordneten mit der Amtsbezeichnung „Erster Bürgermeister“ und einen weiteren Beigeordneten mit der Amtsbezeichnung „Bürgermeister“. Am 6. Juli 2015 wurde der CDU-Mann Christoph Traub für die nächste Amtsperiode zum Oberbürgermeister gewählt. Jugendgemeinderat. Der Jugendgemeinderat der Großen Kreisstadt Filderstadt wurde im Oktober 1987 gegründet. Wappen. Das Wappen der Stadt Filderstadt zeigt einen „von Gold und Grün fünf mal geteilten“ Schild. Die Stadtflagge ist gelb-grün. Wappen und Flagge wurden durch das Regierungspräsidium Stuttgart am 10. August 1977 verliehen. Das Wappen ist das Wappen der Edelfreien von Bernhausen, die in allen heutigen Stadtteilen eine historische Rolle spielten. Städtepartnerschaften. Die damalige Gemeinde Bernhausen schloss 1972 Partnerschaften mit Dombasle-sur-Meurthe und La Souterraine in Frankreich. 1988 ging Filderstadt gemeinsam mit den Nachbarstädten Ostfildern und Leinfelden-Echterdingen eine Partnerschaft mit Poltawa in der Ukraine ein. Weitere Partnerstädte sind seit 1990 Oschatz in Sachsen und seit 2002 Selby in Großbritannien. Museen. Im ehemaligen Bonländer Rathaus befindet sich das Gottlob-Häussler-Heimatmuseum. Gezeigt wird das frühere Alltagsleben auf den Fildern mit Landwirtschaft, Handwerk (Schuster-, Schreiner- und Bürstenbinderwerkstätten), Küche und einem „Tante-Emma-Laden“. Wirtschaft und Infrastruktur. Die größten Arbeitgeber Filderstadts sind der Etikettenhersteller Herma, das Klimatechnik-Unternehmen Modine und der TÜV Süd mit seinem zweitgrößten Standort. Im Luftfrachtzentrum des Stuttgarter Flughafens, das sich im Stadtteil Bernhausen befindet und eine Fläche von rund 150.000 m² umfasst, sind mehr als 70 Unternehmen der Logistikbranche ansässig. Im produzierenden Gewerbe, das etwa 30 Prozent der Arbeitsplätze in Filderstadt stellt, sind überwiegend mittelständische Automobilzulieferer tätig. Im Gewerbegebiet Affelter in Bonlanden beginnt 2012 die Hugo Boss AG auf einer Fläche von 23.400 m² mit dem Bau eines Hochregallagers. Außerdem soll dort bis Herbst 2012 mit der "Hall of Soccer" eine Fußballhalle entstehen. Landwirtschaft. Die Filder mit ihren fruchtbaren Lössböden war schon immer ein wichtiges Landwirtschaftsgebiet. Der ehemalige „Gemüsegarten Stuttgarts“ ist mittlerweile zwar durch Siedlungs- und Infrastrukturprojekte etwas eingeschränkt, doch die Landwirtschaft lebt immer noch in allen Stadtteilen, vor allem in Bernhausen und Sielmingen, die die Hauptorte des Krautanbaus in Filderstadt sind. Zwar ging durch den Strukturwandel in der Landwirtschaft die Zahl der landwirtschaftlichen Betriebe zurück, doch heute gibt es immer noch ca. 70 Stück. Vor allem steht hier der Kraut- und Gemüseanbau im Vordergrund, die Viehhaltung ist eher selten anzutreffen. Auf den Hofläden und Wochenmärkten lassen sich heute Produkte direkt vom Bauer erwerben, unter anderem Obst, Gemüse, Fleisch, Wurst und Brot. Der Anteil der Siedlungsfläche an der Gesamtfläche der Stadt stieg zwischen 2000 und 2010 von 29,5 auf 33,8 Prozent. Im gleichen Zeitraum ging der Anteil landwirtschaftlicher Fläche um 4,5 Prozentpunkte auf 45,8 Prozent zurück. Krautanbau. Das traditionelle Filderkraut wurde erstmals 1772 vom Pfarrer Wilhelm Bischoff erwähnt. Vermutlich hatte es seinen Anfang in den Klostergärten des Klosters Denkendorf. Mit der Industrialisierung gewann es immer mehr an Bedeutung. Heute hat es immer noch einen hohen Stellenwert, vor allem in Echterdingen, Bernhausen und Sielmingen, die als Zentrum des Krautanbaus gelten. Mittlerweile wird allerdings immer öfter der leichter zu bearbeitende Rundkohl angebaut. Viehhaltung auf den Fildern. Da die Filder keine Vorrangregion für Milch- bzw. Fleischwirtschaft, wie das Allgäu oder der Schwarzwald war, wurde das Vieh nur zur Selbstversorgung gehalten. Das Ortsbild vor hundert Jahren war noch sehr von der Viehwirtschaft geprägt, Schweine, Schafe oder Ziegen, Kleinvieh wie Hasen, Hühner oder Enten gehörten zu Haushalt und Ortsbild. Im Farrenstall war der Farren untergebracht, für dessen Haltung die Gemeinde verpflichtet war. Heute ist die Zahl der Tiere gesunken, da durch bessere Einkaufsmöglichkeiten die Viehhaltung überflüssig geworden ist. Heute sind lediglich die alten Haltungseinrichtungen zu sehen. Die Funktion von z. B. Pferden hat sich verändert. Heute gibt es fünfmal so viele Pferde wie vor 30 Jahren. Im Gegensatz zu der damaligen Nutzung als Zug- und Arbeitstiere werden sie heute als Hobbytiere zum Reiten gehalten. Die Zahl der Milchkühe reduzierte sich in den letzten 30 Jahren um 85 %, die Menge der gehaltenen Schweine um 95 %. Dies ist kein für Filderstadt besonderer Prozess, er fand fast überall in der Landwirtschaft statt. Streuobstwiesen. Streuobstwiesen sind in Filderstadt noch in sehr großer Zahl vertreten. Mit Aktionen wie den Streuobst-GUIDS und der „Mobilen Moste“ versucht man, diese Naturräume zu erhalten. Das alljährliche Apfelfest des Fildergartenmarkt Briems ist immer ein beliebter Zulauf für Streuobst- Fans. Der Museumsobstgarten beim Bildungszentrum Seefelle ist mit alten Sorten bestückt. Biologischer Landbau. Der Biologische Landbau ist in Filderstadt vor allem durch den Bioland Gemüsehof Hörz in Bonlanden präsent. Verkehr. Der Stuttgarter Flughafen liegt unmittelbar nördlich von Filderstadt. Die Start- und Landebahn befindet sich auf Filderstädter Gemarkung, ebenso der Tower, der in Bernhausen am Rande der Wohnbebauung steht.a>. An der nördlichen Stadtgrenze Filderstadts führt die Bundesautobahn 8 (Karlsruhe–Ulm) vorbei. Über die Anschlussstelle Stuttgart-Flughafen ist die Stadt direkt angebunden. Ferner führen die vierspurige Bundesstraße 27 (Stuttgart–Tübingen) und die Bundesstraße 312 (Flughafen–Reutlingen) durch das Stadtgebiet. Den öffentlichen Personennahverkehr bedient seit Herbst 2001 vor allem die Linie S2 (Filderstadt–Schorndorf über Stuttgart-Flughafen und Stuttgart Hauptbahnhof) der S-Bahn Stuttgart. Der S-Bahnhof Filderstadt befindet sich im Stadtteil Bernhausen. Dieser ist auch der Knotenpunkt für neun von zehn Buslinien, die innerhalb des Stadtgebiets verkehren. Die Linien sind zu einheitlichen Preisen innerhalb des Verkehrs- und Tarifverbunds Stuttgart (VVS) zu benutzen; eine Ausnahme ist die Linie X3, die zwischen Pfullingen/Reutlingen und Stuttgart-Flughafen verkehrt und dem Verkehrsverbund Neckar-Alb-Donau (Naldo) angehört. Medien. Über das Tagesgeschehen Filderstadts berichtet die Filder-Zeitung, die den beiden Tageszeitungen Stuttgarter Zeitung und Stuttgarter Nachrichten beiliegt. Außerdem gibt es noch die kostenlose Zeitung „Filder Wochenblatt“ Einrichtungen. Im Stadtteil Bernhausen befindet sich der Sitz des Kirchenbezirks Bernhausen der Evangelischen Landeskirche in Württemberg. Im Stadtteil Bonlanden befindet sich das Gemeinschaftskrankenhaus Filderklinik, das zur Grund- und Regelversorgung gehört. Im Stadtteil Plattenhardt befindet sich seit 2012 ein Wohnverbund der Diakonie Stetten e.V. für 36 Erwachsene mit geistiger Behinderung, davon 12 Plätze in Apartmentwohnungen. Bildung. In Filderstadt gibt es alle allgemein bildenden Schularten. In Bernhausen besteht eine Grundschule (Bruckenackerschule), eine Grund- und Hauptschule (Gotthard-Müller-Schule), die Fleinsbach-Realschule, Eduard-Spranger-Gymnasium. Außerdem ist hier die Musikschule Filderstadt angesiedelt. Bonlanden hat eine Grundschule (mit den beiden Standorten Uhlbergschule und Schillerschule) sowie eine Haupt- und Realschule im Bildungszentrum Seefälle. In Harthausen gibt es eine Grund- und Hauptschule (Jahnschule mit der Lindenschule). Plattenhardt hat neben der Grundschule (Weilerhauschule) noch die Volkshochschule & Kunstschule Filderstadt. In Sielmingen gibt es eine Grund- und Hauptschule (Wielandschule), das Dietrich-Bonhoeffer-Gymnasium und eine Förderschule (Pestalozzischule). Eine Privatschule ist die Waldorfschule „Gutenhalde“. Ver- und Entsorgung. Die Stadt ist Mitglied im Zweckverband Filderwasserversorgung. Die Stadtteile Harthausen und Sielmingen sowie die nördlichen Teile von Bonlanden erhalten Filderwasser aus der zentralen Enthärtungsanlage des Wasserwerks Neckartailfingen. Die Stadtteile Bernhausen und Plattenhardt sowie die südlichen Teile von Bonlanden erhalten Trinkwasser vom Zweckverband Bodensee-Wasserversorgung. Die Strom- und Erdgasnetze in der Stadt werden von der EnBW Regional AG betrieben. Zur Reinigung des Abwassers werden die beiden Kläranlagen Bombach und Fleinsbach betrieben. Die Abfallentsorgung wird vom Abfallwirtschaftsbetrieb Esslingen organisiert, einem Eigenbetrieb des Landkreises Esslingen. Weblinks. dito Bonlanden, Harthausen, Plattenhardt, Ober-Sielmingen und Unter-Sielmingen File Transfer Protocol. Foto des ersten FTP Transfers von der Amundsen-Scott Research Base (Südpol 1994) Illustration eines passiven Verbindungsaufbaus über Port 21 Das File Transfer Protocol (FTP, für "Dateiübertragungsprotokoll") ist ein im RFC 959 von 1985 spezifiziertes zustandsbehaftetes Netzwerkprotokoll zur Übertragung von Dateien über IP-Netzwerke. FTP ist in der Anwendungsschicht (Schicht 7) des OSI-Schichtenmodells angesiedelt. Es wird benutzt, um Dateien vom Server zum Client (Herunterladen), vom Client zum Server (Hochladen) oder clientgesteuert zwischen zwei FTP-Servern zu übertragen (File Exchange Protocol). Außerdem können mit FTP Verzeichnisse angelegt und ausgelesen sowie Verzeichnisse und Dateien umbenannt oder gelöscht werden. Das FTP verwendet für die Steuerung und Datenübertragung jeweils separate Verbindungen: Eine FTP-Sitzung beginnt, indem vom Client zum "Control Port" des Servers (der Standard-Port dafür ist Port 21) eine TCP-Verbindung aufgebaut wird. Über diese Verbindung werden Befehle zum Server gesendet. Der Server antwortet auf jeden Befehl mit einem Statuscode, oft mit einem angehängten, erklärenden Text. Die meisten Befehle sind allerdings erst nach einer erfolgreichen Authentifizierung zulässig. Aktives FTP. Beim "aktiven FTP" (auch „Active Mode“) öffnet der Client einen zufälligen Port und teilt dem Server diesen sowie die eigene IP-Adresse mittels des PORT- oder des EPRT-Kommandos mit. Dies ist typischerweise ein Port des Clients, der jenseits von 1023 liegt, kann aber auch ein anderer Server sein, der seinerseits in den "Passive Mode" geschaltet wurde, also auf eine Verbindung wartet (so genanntes FXP). Die Datenübertragung auf der Server-Seite erfolgt dabei über Port 20. Die Kommunikation mit Befehlen erfolgt ausschließlich auf dem Control Port. Man spricht auch von der Steuerung „Out of Band“. Somit bleibt es möglich, dass während der Datenübertragung die Partner noch immer miteinander kommunizieren können. Passives FTP. Beim "passiven FTP" (auch „Passive Mode“) sendet der Client ein PASV- oder ein EPSV-Kommando, der Server öffnet einen Port und übermittelt diesen mitsamt IP-Adresse an den Client. Hier wird auf der Client-Seite ein Port jenseits 1023 verwendet und auf der Server-Seite der vorher an den Client übermittelte Port. Diese Technik wird eingesetzt, wenn der Server keine Verbindung zum Client aufbauen kann. Dies ist beispielsweise der Fall, wenn der Client sich hinter einem Router befindet, der die Adresse des Clients mittels NAT umschreibt, oder wenn eine Firewall das Netzwerk des Clients vor Zugriffen von außen abschirmt. Öffentliche FTP-Server. Viele FTP-Server, vor allem Server von Universitäten, Fachhochschulen und Mirrors, bieten sogenanntes "Anonymous FTP" an. Solche FTP-Server werden auch als "Pub" (v. engl. ‚öffentlich‘) bezeichnet. Hier ist zum Einloggen neben den realen Benutzerkonten ein spezielles Benutzerkonto, typischerweise „anonymous“ und/oder „ftp“, vorgesehen, für das kein (oder ein beliebiges) Passwort angegeben werden muss. Früher gehörte es zum „guten Ton“, bei anonymem FTP seine eigene, gültige E-Mail-Adresse als Passwort anzugeben. Die meisten Webbrowser tun dies heute nicht mehr, da es aus Spamschutz-Gründen nicht zu empfehlen ist. FTP-Software. ftp://[ftp_username[:ftp_PWD]@]Servername[:Port] Der Client baut die TCP-Verbindung zum Control Port eines Servers auf. Über diese Verbindung wird über FTP-Kommandos der Datenaustausch zwischen Client und Server gesteuert. Davon zu unterscheiden sind die Kommandos für den zum Betriebssystem gehörenden Terminal-Client „ftp“, siehe auch FTP-Terminal-Client. Daneben ist WebFTP ein von Webservern angebotener Dienst, der den Zugriff auf FTP-Server auch über HTTP ermöglicht. Die Darstellung erfolgt dabei innerhalb eines Webbrowsers. Eine Installation von Client-Software auf einem lokalen Rechner entfällt dadurch. Eine Libre Open Source Software zur Dateiübertragung mittels FTP ist FileZilla. Sicherheit. Um Verschlüsselung und Authentifizierung zu nutzen, kann Transport Layer Security eingesetzt werden (FTP über SSL, kurz FTPS). Nach der Authentifizierung des Hosts und der Verschlüsselung durch TLS kann FTP die Authentifizierung des Client mittels Benutzername und Kennwort durchführen, wenn der Client sich nicht bereits mit einem Zertifikat über TLS authentifiziert hat. Außerdem existiert mit dem SSH File Transfer Protocol (SFTP) eine auf SSH aufbauende Alternative zu FTP für Dateiverwaltung und -übertragung, bei dem nur der schon laufende codice_1-Daemon genutzt und somit keine weitere Software auf Serverseite benötigt wird. Fledermäuse. Die Fledermäuse (Microchiroptera) sind eine Säugetiergruppe, die zusammen mit den Flughunden (Megachiroptera) die Ordnung der Fledertiere (Chiroptera) bilden. Zu dieser Ordnung gehören die einzigen Säugetiere und neben den Vögeln die einzigen Wirbeltiere, die aktiv fliegen können. Weltweit gibt es rund 900 Fledermausarten. Der Name bedeutet eigentlich „Flattermaus“ (ahd. "fledarmūs", zu ahd. "fledarōn" „flattern“). Verbreitung. Fledermäuse sind nahezu weltweit verbreitet, sie kommen auf allen Kontinenten der Erde mit Ausnahme der Antarktis vor. Auch in anderen polaren Regionen sowie auf entlegenen Inseln fehlen sie. Auf manchen Inseln (zum Beispiel Neuseeland) waren sie dagegen bis zur Ankunft des Menschen die einzigen Säugetiere. Die Fledermausgattung der Mausohren ("Myotis") ist die ohne menschlichen Einfluss am weitesten verbreitete Säugergattung überhaupt, ebenfalls sehr weit verbreitet sind die Bulldoggfledermäuse (Molossidae) und die Glattnasen-Freischwänze (Emballonuridae). In Europa sind etwa 40 Arten verbreitet, davon knapp 30 auch in Mitteleuropa. Eine Liste findet sich im Abschnitt Systematik. Allgemein. Fledermäuse sind im Durchschnitt etwas kleiner als Flughunde. Als größte Fledermausart gilt die Australische Gespenstfledermaus ("Macroderma gigas"), die eine Kopfrumpflänge von 14 Zentimetern, eine Spannweite von 60 Zentimetern und ein Gewicht von 200 Gramm erreichen kann. Die kleinste Fledermaus ist die Schweinsnasenfledermaus ("Craseonycteris thonglongyai"), auch bekannt als Hummelfledermaus, mit einer Kopfrumpflänge von drei Zentimetern und einem Gewicht von zwei Gramm. Sie gilt neben der Etruskerspitzmaus als kleinstes Säugetier überhaupt. Die Skelettelemente sind meistens sehr dünn und zart ausgebildet, um das Gewicht möglichst gering zu halten. Fledermäuse besitzen ein dichtes, oft seidiges Fell, das meistens grau bis braun oder schwärzlich gefärbt ist und keinen Haarstrich aufweist. Es gibt aber auch weiße und gemusterte Arten, bei fast allen Arten ist zudem die Bauchseite heller als der Rücken. Anders als andere Säugetiere besitzen sie kein Wollhaar, die Fellhaare sind arttypisch aufgebaut und besitzen kleine Schuppen, sie können zur Bestimmung der Arten dienen. Extremitäten. Skelett einer Fledermaus ("Myotis lucifugus") Auffälligstes Merkmal der Fledermäuse ist, wie bei den Flughunden, die Flughaut, die sie zum aktiven Fliegen befähigt. Die Flughaut besteht aus zwei Hautschichten und erstreckt sich von den Handgelenken bis zu den Fußgelenken (Plagiopatagium). Weitere Häuterstrecken sich von den Handgelenken zu den Schultern (Propatagium), zwischen den Fingern (Dactylopatagium) sowie den Beinen. Letztere wird Uropatagium (Schwanzflughaut) genannt, sie bindet den Schwanz – sofern vorhanden – mit ein und dient oft zum Einkeschern der Beute. In der Flughaut befinden sich Muskelstränge zur Stabilisation und zum Einschlagen der Flügel sowie Nervenfasern und Blutgefäße zur Versorgung der Flughaut. Der Daumen ist kurz – bei den Stummeldaumen (Furipteridae) fehlt er – und trägt eine Kralle; die vier übrigen Finger sind stark verlängert und spannen die Flughaut. Ebenfalls verlängert sind der Ober- und der Unterarm, der nur noch aus einem Knochen, der Speiche (Radius), besteht, während die Elle (Ulna) im mittleren Teil reduziert ist. Im Gegensatz zu den meisten Flughundarten fehlt bei den Fledermäusen die Kralle am zweiten Finger; dieser besteht bei ihnen nur aus einem langen Fingerglied. Ein Dorn am Fußgelenk, Calcar genannt, dient zum Aufspannen der Schwanzflughaut, dieser ist bei einigen Arten noch durch einen steifen Hautlappen, das Epiblema, ergänzt. Die Hinterbeine der Fledermäuse sind im Gegensatz zu den meisten anderen Säugetieren durch eine Drehung des Beines im Hüftgelenk nach hinten gerichtet, sie enden in fünf bekrallten Zehen. Diese dienen in der Ruhephase zum Aufhängen im Quartier, wobei eine besondere Konstruktion der Krallensehnen ein passives Festhalten ohne Muskelanspannung ermöglicht – dadurch bleiben auch tote Tiere hängen. Kopf und Sinne. Die Köpfe der verschiedenen Fledermausarten unterscheiden sich beträchtlich. Während manche an Gesichter anderer Tiere erinnern – zum Beispiel an Mäuse, darum auch der Name dieser Gruppe –, haben andere besondere Strukturen entwickelt. Viele Arten haben Nasenblätter oder andere Gesichtsstrukturen, die zum Aussenden oder Verstärken der Ultraschall­laute dienen. Die Ohren, die bei manchen Arten drastisch vergrößert sind, sind oft mit Rillen oder Furchen versehen, darüber hinaus haben sie einen Tragus, einen Ohrdeckel, der der Verbesserung der Echoortung dient. Fledermäuse können schwarz-weiß sehen, und wie aufgrund jüngster Untersuchungen festgestellt wurde, können einige Arten auch UV-Licht sehen, das von einigen Blüten verstärkt reflektiert wird, die sie dann zur Nektaraufnahme anfliegen. Zusätzlich verfügen Fledermäuse über einen Magnetsinn. Bei Langstreckenflügen orientieren sie sich an den Linien des Erdmagnetfeldes, ähnlich wie Zugvögel und viele andere Tierarten. Es gibt Hinweise darauf, dass der Magnetsinn durch Magnetit entsteht. Fledermäuse besitzen im Normalfall ein Gebiss aus 32 bis 38 Zähnen, wobei besonders die Eckzähne stark ausgeprägt sind. Diese dienen den meisten Arten zum Aufbrechen des Chitin­panzers ihrer Beuteinsekten und den frugivoren zum Festhalten der Früchte. Die sanguinivoren (blutleckenden) Arten verwenden zum Anritzen des Wirts entgegen dem weit verbreiteten Glauben die unteren Schneidezähne. In Anpassung an die unterschiedlichen Ernährungsweisen variiert der Aufbau des Gebisses allerdings erheblich, sodass sich aus der ursprünglichen Zahnformel 2133/3133 = 38 insgesamt über 50 verschiedene Varianten entwickelt haben. Besonders wenige Zähne weist der Gemeine Vampir ("Desmodus rotundus") mit einer Zahnformel von 1111/2121 = 20 auf. Die Augen sind meistens sehr klein, schwarz und besitzen wimpernlose Augenlider. Im Mundbereich und bei einigen Arten auch im Bereich der Nase besitzen die Tiere Vibrissen, also empfindliche Sinneshaare. Durch Drüsen im Mundbereich sezernieren die Tiere ein öliges Sekret, welches zur Pflege der Flughäute eingesetzt wird und wahrscheinlich auch arttypische Geruchsstoffe enthält. Weitere Duftdrüsen sitzen je nach Art an weiteren Stellen des Gesichts, an den Schultern oder an anderen Körperstellen. Geschlechtsunterschiede. Fledermäuse besitzen keine auffälligen Geschlechtsunterschiede. Die ausgewachsenen Weibchen sind in der Regel zwar etwas größer als die Männchen, dies kann jedoch nur durch genaue Messungen festgestellt werden. Erst bei der genauen Betrachtung der Genitalregion ist der Penis der Männchen erkennbar. Dieser wird durch einen kleinen Penisknochen (Baculum) stabilisiert. Der Penis ist, wie auch beim Menschen, freihängend "(Penis pendulum)". Dies ist im Tierreich recht ungewöhnlich. Bei einigen Arten treten besonders zur Paarungszeit auch die Hoden und Nebenhoden deutlich hervor. Bei säugenden Weibchen erkennt man außerdem die gut ausgebildeten Brustdrüsen, die nahe den Achselhöhlen liegen. Bei den meisten Arten sind nur zwei Zitzen ausgebildet, manche Arten besitzen jedoch auch vier. Bei einigen Familien sind außerdem paarige Haftzitzen ohne Milchabgabe im Bereich der Leiste ausgebildet, an denen sich die Jungtiere festklammern können. Lebensweise. Die perfekte Anpassung der Fledermäuse an die Luft als Lebensraum prägt auch ihre Lebensweise. Ernährung. Die meisten Fledermausarten ernähren sich von Insekten, die sie teilweise im Flug erbeuten. Größere Arten fressen auch kleinere Säugetiere wie Nagetiere und andere Fledermäuse, kleinere Zugvögelarten, Frösche und Fische. In den Tropen und Subtropen gibt es aber auch viele vegetarisch lebende Arten, die Früchte fressen oder Nektar trinken. Diese Arten spielen eine wichtige Rolle für die Pflanzen, deren Blüten sie bestäuben (Chiropterophilie) und deren Samen sie verbreiten (Chiropterochorie). Die drei Arten der Vampirfledermäuse (Desmodontinae) ernähren sich vom Blut anderer Tiere. Fortbewegung. Die Hauptfortbewegungsart der Fledermäuse ist das Fliegen, zu dem sie durch den Besitz der Flughäute und verschiedene weitere Anpassungen befähigt sind. Dabei handelt es sich bei schmalflügeligen Arten meistens um schnelle Flieger, die vor allem in offenem Gelände leben, bei breitflügeligen Arten um Langsamflieger in strukturreichen Lebensräumen; manche Fledermäuse beherrschen den Rüttelflug, um Ausschau nach Beute halten zu können, etwa das Braune Langohr. Beim Flug werden die Flügel in einer Rotationsbewegung geschlagen, wobei der kräftige Abschlag vor dem Kopf geschieht und die Flügel dann im hinteren Bereich des Körpers wieder hochgezogen werden. Die Schwanzflughaut dient dabei als Manövrierhilfe und zum Abbremsen. Die anatomischen und physiologischen Anpassungen an diese Fortbewegung sind vielfältig. So besitzen die Fledermäuse einen sehr voluminösen Brustkorb mit einem Brustbein, das in Konvergenz zu dem der Vögel einen Kiel als erweiterte Ansatzstelle für die Flugmuskulatur aufweist, außerdem ist die Wirbelsäule im Brustbereich stark vorgebogen. Während des Fluges werden die Atem- und die Herzschlagfrequenz stark erhöht, um den Sauerstoffbedarf zu decken. Das Herz ist zudem stark vergrößert und hat etwa das dreifache Volumen zu dem anderer Säugetiere gleicher Größe, außerdem ist die Anzahl der roten Blutkörperchen (Erythrozyten) sowie der Hämoglobin­anteil stark erhöht, sodass etwa doppelt so viel Sauerstoff im Blut gebunden werden kann wie bei vergleichbaren Tieren. Zur Abkühlung dienen temperaturabhängig erweiterte Blutgefäße in den Flughäuten, in denen das Blut durch die umströmende Luft abgekühlt wird. Neben dem Fliegen können sich Fledermäuse auch auf dem Boden fortbewegen. Manche Arten – etwa die Vampirfledermäuse oder die Neuseelandfledermäuse – sind dabei sehr geschickt und erstaunlich schnell, andere Arten hingegen sind am Boden plump und ungeschickt. Einige Arten können außerdem ihre Flughäute zum Schwimmen benutzen und sogar von der Wasseroberfläche zum Flug starten. Verhalten. Fledermäuse sind in der Regel nachtaktive Tiere. Zum Schlafen ziehen sie sich in Höhlen, Felsspalten, Baumhöhlen oder menschengemachte Unterschlupfe (Dachböden, Ruinen, Minen und andere) zurück. Neben Arten, die in großen Gruppen zusammenleben, gibt es auch solche, die als Einzelgänger leben. In den kühleren Regionen ihres Verbreitungsgebietes halten sie Winterschlaf, manchmal ziehen sie auch während der Wintermonate in wärmere Regionen. Alle europäischen Fledermäuse haben einen vom Klima bestimmten Jahresablauf. Daher benötigen sie Quartiere, die ihnen Schutz vor schlechter Witterung und vor Feinden bieten. Es lassen sich Sommer- von Winterquartieren unterscheiden. Im Spätsommer, etwa ab Ende August, suchen die meisten europäischen Fledermausarten nach geeigneten Winterquartieren, die ihnen für die kalten Monate ausreichend Schutz bieten. In Europa sind Fledermäuse Winterschläfer und entsprechend während des Winters abhängig von Unterschlupfmöglichkeiten, wo sie gleichmäßige Witterungsbedingungen vorfinden und gleichzeitig für ihre Feinde nicht gut erreichbar sind. Perfekte Winterquartiere stellen für sie als Höhlentiere Höhlen­systeme dar, aber auch Stollen und Festungs­anlagen werden gerne angenommen. So ist das größte bekannte Winterquartier das etwa 50 Meter unter der Erde liegende Bunkersystem des Ostwalles aus dem Zweiten Weltkrieg in Westpolen in Nietoperek bei Międzyrzecz. Hier überwintern jährlich bis zu 30.000 Fledermäuse, die zu zwölf verschiedenen Arten gehören. Weitere wichtige Quartiere sind die Kalkberghöhle in Bad Segeberg und die Zitadelle Spandau, eine Festungsanlage in Berlin. Häufiger sind jedoch Quartiere, die nur eine relativ geringe Anzahl der Tiere beherbergen. Für den Winterschlaf legen die Fledermäuse spezielle Fettvorräte an, deren alleiniger Zweck es ist, während des Aufwachens die notwendige Energie zu liefern, mit der wieder die normale Körpertemperatur erreicht werden kann. Während des Winterschlafes sinkt die Körpertemperatur bis auf wenige Zehntel Grad über der Umgebungstemperatur, aber nicht tiefer als die Temperatur, bei der das Blut nicht mehr in der Lage ist, Sauerstoff zu transportieren. Fortpflanzung. Fledermäuse haben eine auffallend niedrige Fortpflanzungsrate. Die meisten Arten bringen nur einmal im Jahr ein einzelnes Jungtier zur Welt. Dies wird durch eine für Säugetiere ihrer Größe hohe Lebenserwartung kompensiert; so können manche Arten unter günstigen Umständen ein Alter von 20 bis 30 Jahren erreichen. Ein weiteres Merkmal dieser Tiere ist die verzögerte Befruchtung: Der Samen der Männchen kann mehrere Monate im Fortpflanzungstrakt der Weibchen aufbewahrt werden, erst bei günstiger Witterung beginnt der Fötus in der Gebärmutter zu wachsen. In Europa findet die Paarung häufig in den Winterquartieren statt. Dabei suchen die brünstigen Männchen die Weibchen unter den meist in Gruppen hängenden Tieren auf, umklammern sie mit den Flügeln und beißen sie in den Nacken. Durch diese Behandlung wacht das Weibchen auf und wird, sobald es erwacht ist, vom Männchen begattet. Die Männchen sind bei der Verpaarung voll aktiv, während die Weibchen meist noch in der Aufwachphase sind. Eine Werbung um die lethargischen Weibchen findet nicht statt. Nach dem Geschlechtsakt suchen sich beide Tiere wieder einen Schlafplatz. Im Laufe des Winterschlafes kann ein Weibchen mehrfach von verschiedenen Männchen begattet werden. Die Befruchtung der Eizelle erfolgt jedoch nicht im Anschluss an die Paarung, sondern erst nach Beendigung des Winterschlafes. So wird verhindert, dass das Weibchen durch die Schwangerschaft zu viel Energie verliert und die Jungtiere in der kalten Jahreszeit geboren werden. Nach Beendigung des Winterschlafes, etwa Ende März, wandern die Fledermäuse in ihre Sommerquartiere. Dabei suchen sich die Männchen meist Tagesquartiere, die als Ausgangspunkt für die Jagd dienen. Die Weibchen finden sich zu Wochenstuben zusammen, in denen die Jungtiere geboren und gemeinsam aufgezogen werden. Die Tragzeit der mitteleuropäischen Arten ist vom Nahrungsangebot abhängig. Sollte es für das trächtige Weibchen wenig zu fressen geben, so „regelt“ es Kreislauf und Stoffwechsel herunter. Die Tragzeit kann dadurch zwischen 40 und 70 Tagen variieren. Diese Wochenstuben umfassen meistens 20 bis 50 Muttertiere, die sich alljährlich wieder zusammenfinden. Dabei lassen sie die Jungtiere im Quartier zurück, wo sie gemeinsam mit anderen verlassenen Jungtieren regelrechte Fledermaustrauben bilden. Nach dem Jagdflug erkennt jede Mutter ihr Junges und setzt es an ihren Zitzen zum Säugen an. Ab Ende August werden die Jungen dann von ihren Müttern verlassen und finden sich selbständig in den Winterquartieren ein. Sozialverhalten. Fledermäuse sind hochsoziale Tiere, die die meiste Zeit des Jahres in Gruppen zusammenleben. In ihren Quartieren suchen sie meist engen Körperkontakt mit anderen Tieren, wodurch sich Fledermauspulke bilden (Schlafverband). Dies hat den Vorteil, dass die einzelnen Tiere wenig Energie für die Körperaufwärmung aufwenden müssen und verbrauchen. Sowohl in den Wochenstuben als auch in den Winterquartieren kommt es zudem zu einer Durchmischung verschiedener Arten. Dabei findet man meistens zwei oder drei verschiedene Arten in einem Quartier, wobei die einzelnen Arten sowohl in eigenen Clustern beieinanderhängen als auch eine echte Durchmischung vorkommt. In einer Kolonie können mehrere Millionen Tiere leben. So beherbergt die Bracken-Höhle bei Austin in Texas etwa 20 Millionen Tiere der Guano-Fledermaus "Tadarida brasiliensis". Eine Rangordnung innerhalb von Fledermauskolonien wurde bislang nicht beschrieben, allerdings vertreiben männliche Fledermäuse ihre Konkurrenten aus den Paarungsrevieren. Kommt es zu Störungen innerhalb der Quartiere, ist ein Drohen mit aufgerissenem Maul und Zetern die Antwort, und nach kurzer Zeit kehrt wieder Ruhe ein. Einige Arten reagieren bei leichten Störungen mit einer Schreckstellung, bei der sie sich auf den Boden pressen, bei intensiveren Bedrohungen stellen sich diese Arten tot (Akinese). Wie bei vielen anderen sozialen Tieren gibt es auch bei Fledermäusen ein Schwarmverhalten, bei dem die Aktionen einzelner zu einer Beteiligung anderer Tiere führen. So folgt im Regelfall nach dem Abflug eines Tieres auch ein Start weiterer, und auch das Putzen einzelner Tiere führt dazu, dass andere damit beginnen. Beim Putzen gibt es allerdings bei den meisten Arten keine gegenseitige Fellpflege, stattdessen konzentriert sich jedes Tier auf sich selbst. Nur die Jungtiere werden in den ersten Lebenstagen noch vom Muttertier geputzt. Bei verschiedenen Arten, vor allem bei Hufeisennasen, wurde ein gegenseitiges Belecken des Gesichts beobachtet, allerdings geht man davon aus, dass es sich dabei nicht um Reinigungsverhalten, sondern um Kommunikationsgesten handelt. Feinde. Natürliche Feinde der Fledermäuse sind vor allem tag- und nachtaktive Raubtiere, vor allem Katzen sowie Greifvögel und Eulen. Außerdem gibt es eine Reihe von großen, fleischfressenden Fledermausarten, die neben anderen Beutetieren auch kleinere Fledermäuse jagen. Echoortung. Fledermäuse schwärmen kurz vor Sonnenuntergang aus einer Höhle in Thailand Mit ihrem Echoortungssystem (oder auch "Ultraschallortung") haben die Fledermäuse eine sehr komplizierte und effektive Methode entwickelt, die es ihnen ermöglicht, sich im Dunkeln zurechtzufinden und Insekten zu jagen, ohne ihre Augen einzusetzen. Dabei stoßen sie Ultraschall­wellen aus, die von Objekten als Reflexionen zurückgeworfen werden. Die einzelnen Echos werden von der Fledermaus aufgenommen und in die richtige Abfolge gebracht. Durch die Zeit­unterschiede kann das Gehirn die Umgebung erfassen und somit orten, wie weit ein Baum oder Insekt entfernt ist und sogar mit welcher Geschwindigkeit und Richtung sich ein Beutetier bewegt. Beim Großen Hasenmaul ("Noctilio leporinus") erreicht die Lautstärke des Rufes bis zu 140 Dezibel. Forschungsgeschichte. Lange Zeit nahm man an, dass Fledermäuse über extrem gute Augen verfügten, da sie sich in absoluter Dunkelheit zurechtfinden. Im 18. Jahrhundert unternahm der italienische Wissenschaftler Lazzaro Spallanzani erste Versuche mit Fledermäusen und Eulen, in denen er die Tiere in dunklen Räumen fliegen ließ. Während alle Eulen scheiterten, fanden sich Fledermäuse gut zurecht. Einige Zeit später führte er weitere Versuche durch, diesmal mit Fledermäusen, denen er die Augen ausgestochen hatte. Auch diese Tiere konnten ohne Probleme fliegen, während Exemplare mit versiegelten Ohren zu Boden fielen. Als sich Hiram Maxim, der Erfinder des Maschinengewehrs, im Jahre 1913 mit Sonar­systemen zur Navigation auf See und zur Ortung der gesunkenen Titanic beschäftigte, glaubte er auf dem richtigen Weg zu sein, doch er irrte sich, denn er nahm an, dass Fledermäuse niederfrequente Töne mit dem Schlagen ihrer Flügel erzeugen würden. Erst als George W. Pierce kurz vor dem Zweiten Weltkrieg einen Schalldetektor für Hochfrequenztöne entwickelte, wurde die wahre Beschaffenheit des Fledermaussonars erkannt. Das Echoortungssystem der Fledermäuse. Damit das Echoortungssystem richtig funktionieren kann und alle Möglichkeiten optimal ausgeschöpft werden, ist eine spezielle Anpassung der verschiedenen Organe notwendig. So sind bei den Fledermäusen viele Körperteile genau auf den Gebrauch der Echoortung ausgelegt. Allerdings benutzen nicht alle Fledermäuse ihre Ortungssysteme. So verwenden vor allem insekten- und nektarfressende Fledermäuse den Ultraschall, während große Fledermäuse gewöhnlich darauf verzichten. Der Ruf. Der Ruf besteht meistens aus einer Serie von fünf oder mehr verschiedenen Tönen, die eine Dauer von weniger als einer Sekunde bis zum Hundertstel einer Sekunde haben können, siehe auch Chirp. Fledermäuse können Frequenzen zwischen 9 kHz und 200 kHz ausstoßen. Erwachsene Menschen nehmen meist nur Frequenzen zwischen 16 Hz und 18 kHz wahr. Mit Hilfe eines Fledermausdetektors können Ultraschallrufe auch für Menschen hörbar gemacht werden. Dieser wandelt die Rufe in Schallwellen niedrigerer Frequenz um, die in den Hörbereich des Menschen fallen. Zur Jagd könnten die Fledertiere theoretisch sowohl niedrige als auch höhere Frequenzen einsetzen, allerdings haben hochfrequente Rufe viele Vorteile, wie kleinere Wellenlängen, die eine genauere räumliche Trennschärfe ermöglichen und die klarere Abgrenzung des Widerhalls von Hintergrundgeräuschen. Tiefere Frequenzen, die größere Wellenlängen besitzen, umspülen gleichsam kleine Objekte und senden daher kaum Echos zurück. In Baumnähe rufen die Jäger nur leise, um ein Überschneiden mehrerer Echos zu verhindern (Echosalat), während sie im offenen Gelände laute Schreie ausstoßen. Eine Fledermaus passt ihren Ruf (innerhalb ihrer arttypischen Möglichkeiten und Grundstruktur) ständig an die Situation an. In offenem Gelände sind die Rufe länger, lauter und weniger frequenzmoduliert, in der Nähe von Hintergründen und beim Fang eines Insekts werden sie kürzer und stärker frequenzmoduliert. Ein typischer Fledermausruf besteht aus zwei Komponenten, nämlich aus der Komponente mit konstanter Frequenz (CF) und einer Komponente, deren Frequenz mit der Zeit abnimmt (FM). Jedoch unterscheiden die Rufe sich stark zwischen den Arten und Gruppen. Hufeisennasen besitzen z. B. einen sehr langen (viele ms), konstantfrequenten Ruf, dessen Anfang und Ende sehr schwach frequenzmoduliert ist. Andere Arten nutzen sehr kurze, nur frequenzmodulierte Rufe, andere dagegen etwas längere mit einem ausführlicheren konstantfrequenten Teil. Zusätzlich unterscheiden sich die Rufe noch in der Anzahl der Harmonischen. Die CF-Komponente des Rufs hat eine konstante Frequenz (CF = „constant frequency“), vergleichbar mit der einer Stimmgabel. Sie hat eine hohe Reichweite und liefert der Fledermaus ein einfarbiges, lang andauerndes Echo. Nur wenige Fledermäuse (z. B. die Hufeisennasen) verwenden vor allem CF-Rufe (mit einem kleinen FM-Teil am Anfang und/oder Ende). Andere Arten verwenden als Suchlaute im offenen Luftraum sogenannte quasi-konstant-frequente Rufe, die nur schwach frequenzmoduliert sind (also quasi-konstant-frequent). Die FM-Komponente der Fledermausrufe hat eine mit der Zeit abnehmende Frequenz (FM = „frequency modulated“). Sie hat eine geringere Reichweite als die CF-Komponente, liefert dafür aber ein Echo, mit welchem auch Oberflächenstrukturen erkannt werden. FM-Rufe werden meist bei der Verfolgung von Beutetieren verwendet. Die meisten Fledermäuse verwenden ausschließlich FM-Rufe mit unterschiedlich starker Frequenzmodulation. Erzeugung und Aussendung. Der Ruf wird von den Fledermäusen, wie bei Säugetieren üblich, im Kehlkopf erzeugt, wo Luft zwischen zwei Membranen (den Stimmbändern) hindurchgepresst wird und diese dadurch in Schwingungen geraten. Durch das Anspannen der Muskeln, die die Membranen halten, können unterschiedliche Tonhöhen erzeugt werden. Bevor die Schallwellen aus dem Mund oder aus der Nase austreten, werden sie im Kehl- und Rachenraum verstärkt und gefiltert. Fledermäuse, die durch die Nase rufen, haben oft komplizierte Nasenaufsätze, welche die Schallwellen stark bündeln und in die richtigen Richtungen lenken. Fledermäuse mit solchen Aufsätzen, wie z. B. die Hufeisennasen, haben oft kleinere Ohren. Empfang und Verarbeitung. Fledermäuse sind zur Modulation ihres Rufs fähig, um Insekten auch in einer komplexen Umgebung erjagen zu können. Die trichterförmigen Ohren der Fledermäuse sind sowohl gegenüber der Richtung der Echos als auch gegenüber der Klangqualität sehr empfindlich. Sie können die Ohren drehen und neigen, um bestimmte Schallquellen genauer zu orten. Jedes Ohr empfängt unabhängig von dem anderen. Die Hörschnecke, welche besonders an die Jagdfrequenz angepasst ist, besitzt sehr viele Windungen, wodurch sie eine differenziertere Frequenzanalyse besitzen als andere Säugetiere, wie zum Beispiel Menschen. Nur Hufeisennasen besitzen in dem schmalen, wenige Kilohertz umfassenden Frequenzbereich, in dem sie auch rufen, eine hochdifferenzierte Frequenzanalyse. Ihre Gehörschnecke deckt diesen Bereich fein ab, wodurch eine sogenannte „akustische Fovea“, vergleichbar der Fovea (Gelber Fleck) in unserem Auge, entsteht. Nachdem die Echos in den Ohren aufgenommen wurden, wird diese Information an das Gehirn weitergeleitet, wo die verschiedenen Echos anhand ihrer Frequenzen in die richtige Reihenfolge gebracht und dann analysiert werden. Je länger ein Echo benötigt, um nach dem Ruf wieder das Ohr zu erreichen, desto weiter ist der Reflektor entfernt. Ein Zeitabstand von einer Millisekunde entspricht etwa einer Objektentfernung von 17 Zentimeter (zurückgelegter Schallweg zum Objekt hin und zurück also 34 cm). Da die Abstandswahrnehmung von der Schallgeschwindigkeit und damit von der Temperatur der Luft abhängt, entwickelten die Fledermäuse auch ein fein ausgeprägtes Temperaturempfinden, welches in die Abstandswahrnehmung mit einfließt. Fledermäuse können Laufzeiten bis zu ca. 0,1 Millisekunden erkennen. Da beide Ohren die Ultraschallechos empfangen, kann das Gehirn beide Bilder zu einem 3D-Bild zusammenfügen, das einem Vergleich mit unserem Augenbild mehr als standhält. Neben der Größe und Form eines Objekts kann auch die Oberflächenstruktur und damit das Material erkannt werden. Die Objektgröße wird über die Lautstärke des Echos bestimmt. Da die gleiche Lautstärke allerdings entweder von einem kleinen, nahen oder einem großen, weit entfernten Objekt stammen kann, wird erst die Entfernung bestimmt, dann kann die tatsächliche Größe ermittelt werden. Die Erkennung der Objektform beruht auf der Auswertung der Lautstärke und des zeitlichen Verlaufs des Echos. Ein Echo entsteht an mehreren Echofronten, die auf die Form eines Gegenstandes hinweisen. Materialien und Oberflächenstrukturen werden über die Klangfarbe des Schalls unterschieden. Die Klangfarbe eines Objekts entsteht aus objekttypischen Interferenzen (Überlagerungen) der Schallwellen, wodurch bestimmte Frequenzen verstärkt und andere abgeschwächt werden. Richtungsbestimmung. Damit die Fledermaus weiß, ob sich ein Objekt links oder rechts von ihrer aktuellen Position befindet, wertet sie, wie zahlreiche andere Tierarten, die Zeitunterschiede beim Eintreffen des Schalls in beiden Ohren aus. Erreicht das Echo des gleichen Objekts das linke Ohr später als das rechte, so befindet sich der Gegenstand rechts von ihr. Wie die Tiere erkennen, ob das Objekt über oder unter ihnen ist, konnte bis heute noch nicht zweifelsfrei geklärt werden. Man geht davon aus, dass sie das Interferenzmuster der Schallwellen auswerten, wie Menschen es ebenfalls machen. Doppler-Effekt. Der Doppler-Effekt, also eine Verschiebung der Frequenz, tritt auf, sobald Schallwellen auf sich bewegende Objekte treffen. Wenn sich ein Objekt auf die Fledermaus zubewegt, oder die Fledermaus auf ein Objekt, nimmt die Frequenz zu und der Ton wird höher, während ein Entfernen das Gegenteil bewirkt. Fledermäuse (Hufeisennasen?) können Unterschiede von nur 6 Hz erkennen und dadurch die Bewegungsgeschwindigkeit ermitteln. Hufeisennasenfledermäuse sind in der Lage, die durch die Flügelschläge von Insekten (insbesondere Nachtfalter) erzeugten Doppler-Verschiebungen zu analysieren und über die Lautstärke des Echos die Größe des Insektes und über die Häufigkeit der Dopplerverschiebungen pro Sekunde die Flügelschlagfrequenz zu bestimmen. Dadurch können sie verschiedene Insektenarten unterscheiden. Genauigkeit. Die Zwergfledermaus erkennt Drähte von 0,28 Millimeter aus mehr als einem Meter Entfernung und jagt am Tag etwa 500 bis 1200 Taufliegen ("Drosophila"), die ungefähr drei Millimeter lang sind. Andere Fledermausarten wie die Mittelmeer-Hufeisennase können sogar einen Weg zwischen 0,05 Millimeter dicken Drähten finden. Experimente haben gezeigt, dass die vom Fledermausohr aufgenommenen und im Gehirn verrechneten Signale es ermöglichen, Ziele zu unterscheiden, welche nur 10 Millimeter auseinander liegen, auch wenn die Objekte völlig verschiedene Größendimensionen haben. Evolutionäre Aspekte. Das älteste Fledermausfossil wird auf 50 Millionen Jahre datiert. Daher wird die Entwicklung der Fledertiere im Eozän gesehen (das Eozän begann vor etwa 56 Millionen Jahren und endete vor etwa 33,9 Millionen Jahren). Je nach Schädelform haben sich die Fledermäuse auf einen kleinen Kreis von Nahrungsquellen spezialisiert. So besitzen etwa nektartrinkende Fledermäuse lange schmale Schnauzen, mit denen sie optimal in Blüten hineinreichen, wohingegen Fledermäuse, die sich vorwiegend von harten Früchten ernähren, ein kurzes, „mopsähnliches“ Gesicht haben. Blattnasenfledermäuse leben dagegen von Insekten, Nektar, Früchten, Fröschen, Eidechsen und sogar Blut. Die Entwicklung einer breitere Schädelform hat vor 15 Millionen Jahren bei Blattnasenfledermäusen zu einer größeren Beißkraft geführt. So konnten sie sich neue Nahrungsquellen erschließen. Diese „Schlüsseltechnologie“ öffnete den Blattnasenfledermäusen den Zugang zu neuen Ressourcen wie zum Beispiel den Früchten. Dies ermöglichte eine schnelle und vielfältige Aufteilung in verschiedenste neue Fledermausarten. Ein interessanter Nebeneffekt ist, dass Samen vieler Pflanzenarten nun von Fledermäusen ausgebreitet werden. Externe Systematik. In den 1970er-Jahren tauchte die Frage auf, ob Fledertiere tatsächlich monophyletisch sind, das heißt ob Fledermäuse und Flughunde von einem gemeinsamen Vorfahren abstammen oder sich lediglich konvergent entwickelt haben. Zahlreiche Untersuchungen wurden zu dieser Frage durchgeführt, wobei heute die meisten Forscher von der Monophylie der Fledertiere ausgehen (Näheres siehe Systematik der Fledertiere). Mittlerweile wurde diese Ansicht neben morphologischen Vergleichen auch durch biochemische, parasitologische und molekularbiologische Analysen bestätigt. Als nächste Verwandte der Fledermäuse neben den Flughunden innerhalb der Säugetiere galten lange Zeit die Riesengleiter und darüber hinaus ein gemeinsames Taxon bestehend aus den Fledertieren, Riesengleitern, Spitzhörnchen und Primaten. Jüngere molekulargenetische Untersuchungen stellen die Fledertiere jedoch in eine ganz andere Gruppe, nämlich die Laurasiatheria, zu denen unter anderem Insektenfresser, Paarhufer, Wale und Raubtiere gehören. Interne Systematik. Die Fledermäuse werden in rund 17 Familien unterteilt, die in sieben Überfamilien zusammengefasst werden können. Die verwandtschaftlichen Verhältnisse lassen sich in folgendem Diagramm darstellen. Eine in jüngster Zeit aufgetauchte Diskussion betrifft die Monophylie der Fledermäuse, das heißt einige Fledermausarten könnten näher mit den Flughunden als mit anderen Fledermäusen verwandt sein. So platzieren Emma Teeling und Mark Springer die Hufeisennasenartigen (Rhinolophoidea) und die Flughunde (Pteropodidae) in eine eigene Klade, Yinpterochiroptera, und stellen diese allen anderen Fledertierarten gegenüber. Vor allem molekularbiologische Untersuchungen sprechen für diese Theorie, sodass die Fledermäuse eine paraphyletische Gruppe wären. Entwicklungsgeschichte. Die Entwicklungsgeschichte der Fledermäuse ist durch Fossilienfunde nur sehr spärlich dokumentiert. Zu den ältesten bisher gefundenen Gattungen zählen "Onychonycteris finneyi" und "Icaronycteris index" aus dem frühen Eozän der Green-River-Formation Wyomings sowie "Archaeonycteris", "Palaeochiropteryx", "Hassianycteris" und "Tachypteron franzeni" aus dem mittleren Eozän der Grube Messel in Deutschland. Diese frühen Vertreter ähneln in ihrem Körperbau bereits sehr stark den heutigen Fledermäusen, Unterschiede bestehen lediglich in Details wie beispielsweise dem Vorhandensein von Fingerklauen und einem langen, freien Schwanz (der sich allerdings auch bei den heutigen Mausschwanzfledermäusen findet). Auch die eozänen Gattungen dürften bereits zur Echolokation fähig gewesen sein. Im Gegensatz zu anderen schwierig einzuordnenden Säugetiertaxa, etwa den Walen, liefert der Fossilienbefund bisher keinerlei Hinweise auf Übergangsformen. Folglich sind die Bedingungen, die zur Evolution des Schlagflugs bei Fledermäusen führten, unklar. John Speakman, Lehrstuhlinhaber für Zoologie an der Universität Aberdeen, rekonstruiert die Evolution der Fledermäuse dahingehend, dass diese Tiere zunächst tagaktiv waren und sich erst unter dem Druck durch Greifvögel zunehmend auf nächtlichen Beutefang verlegten. Parallel dazu habe sich die Echoortung entwickelt. Fledermäuse erlangten offenbar bereits im Eozän weltweite Verbreitung - aus dieser Epoche sind Funde in Europa, Nordamerika und Australien belegt. Da für etliche Familien fossile Belege fehlen, ist über die Entwicklungsgeschichte der Gruppe kaum etwas bekannt. Menschen und Fledermäuse. Fledermäuse gelten in Teilen Afrikas und Asiens als Delikatesse. Strabo ("Geographika" 16,1,7) berichtet, dass die Einwohner des mesopotamischen Borsippa die dort sehr zahlreichen und auffällig großen Fledermäuse fingen und als Nahrung einsalzten. Der Inka-Herrscher Atahualpa besaß einen grauen Mantel aus Fledermauswolle. Fledermäuse in Mythologie und Symbolik. In China gilt die Fledermaus als Symbol für Glück und Gewinn. Dies spiegelt sich in dem chinesischen Wort "fu" wider, welches zugleich „Glück“ und „Fledermaus“ bedeutet. Als fünf Fledermäuse ("wu fu") wurden Fledermäuse häufig als Stickerei auf Kleidungsstücken oder als runder Talisman um einen Lebensbaum angeordnet, wo sie außerdem für ein langes Leben, Reichtum, Gesundheit und einen leichten Tod standen. In Mittelamerika fand man Abbilder einer Fledermausgottheit der Maya auf Steinsäulen und Tongefäßen, die etwa 2000 Jahre alt waren. Diese Gottheit besaß einen Fledermauskopf und ausgebreitete Flügel und findet sich auch in der Bilderschrift des Volkes wieder. Auf der ostafrikanischen Insel Pemba belästigt ein sogenannter Popobawa seit geraumer Zeit die dort lebende Bevölkerung. In Europa ist die Fledermaus seit der Antike überwiegend negativ besetzt. So erzählt Ovid in seinen "Metamorphosen" (IV, 1–34), dass die Töchter des Königs von Böotien zur Strafe in Fledermäuse verwandelt wurden, weil sie es vorgezogen hatten, am Webstuhl zu arbeiten und sich Geschichten aus der Mythologie zu erzählen, statt an den Festlichkeiten zu Ehren Bacchus’ teilzunehmen. Auch die Bibel schreibt Fledermäusen negative Eigenschaften zu, zählt sie zu den unreinen Tieren (genauer zu den Vögeln) und bringt sie in Verbindung mit heidnischen Götzenbildern (Deuteronomium 14,16 und Jesaja, 2,20). Der Kirchenlehrer Basilius von Caesarea ("Homilie" 8) nannte die Fledermäuse dagegen Gottes nächtliche Geschöpfe und beschrieb ihre Lebensweise. Dass sie sich gegenseitig stützen, nannte er dem Menschen als Vorbild. Dämonische und teuflische Wesen – auch Satan (der Teufel) selbst – werden in der Bildenden Kunst häufig mit Fledermausflügeln dargestellt und unterscheiden sich dadurch von Engeln.a>") Auf Albrecht Dürers bekanntem grafischen Blatt "Melancholie" aus dem Jahre 1514 hält ein an eine Fledermaus erinnerndes Wesen zwischen Tag und Nacht den Schriftzug "Melencolia I". Der spanische Maler Francisco de Goya verwendete Fledermäuse neben Eulen als Symbole des Bedrohlichen. Ein alter Aberglaube besagt, dass sich Fledermäuse gerne in Frauenhaare wickeln. Dieser entstand vermutlich aus der christlichen Vorstellung heraus, dass die Haare von Frauen Dämonen bzw. allgemein „das Böse“ anziehen (weshalb in vielen Glaubensvorstellungen Frauen ihre Haare bedeckt halten müssen). Bei der Landbevölkerung Mexikos gelten die Vampirfledermäuse zum Teil auch heute noch als Hexen, die den schlafenden Menschen das Blut aussaugen. Fledermäuse werden außerdem mit der Seele und deshalb mit dem Tod assoziiert, auf einigen Darstellungen aus dem 14. Jahrhundert verlassen die Seelen beim Sterben den Körper in Form einer Fledermaus. Daraus könnten auch die europäischen Vampirsagen entstanden sein, die es bereits gab, bevor die mittelamerikanischen Vampirfledermäuse bekannt waren. Dieser Vampirglaube hat sich bis heute in der Populärkultur gehalten und spiegelt sich vor allem in der Phantasie von Buchautoren und Filmemachern. Figuren wie Graf Dracula oder auch Der kleine Vampir fliegen nächtens als Fledermäuse herum und suchen ihre Opfer, auch andere Vampirfilme, wie etwa der "Tanz der Vampire", nutzen dieses Motiv. Ebenfalls durch die nächtliche Lebensweise inspiriert ist die Schöpfung der Comic- und Filmfigur Batman – ein Superheld, der in Fledermausverkleidung nachts auf Verbrecherjagd geht. Cesare Ripa ordnet in seinem Werk "Iconologia" unter dem Stichwort "Ignoranca" die Fledermaus der Personifikation der Unwissenheit zu, da das Tier lieber im Dunkeln bleibt, statt sich dem Licht der Wahrheit zu nähern. Auch in der klassischen persischen Literatur ist die Fledermaus ein Symbol für die Ablehnung von Wissen und Güte (also Licht) und wird von der Sonne (als Symbol eines gerechten Herrschers) vertrieben. Fledermäuse in der Volksmedizin. Auch in der Volksmedizin fanden Fledermäuse international Einzug. Ganze Fledermäuse oder auch Teile von ihnen sind bei verschiedenen Naturvölkern in Afrika und Asien Bestandteil von Schutzamuletten. In den arabischen Ländern und auch in Europa gab es vor allem im Mittelalter viele Rezepte, in denen Fledermausteile gegen verschiedenste Krankheiten und Beschwerden verwendet wurden. So empfahl etwa Albertus Magnus im 13. Jahrhundert, dass man sich das Gesicht mit Fledermausblut einreiben solle, wenn man auch in der Nacht klar sehen möchte. Als dämonisches Tier verwendete man die Fledermaus homöopathisch zur Abwehr von Dämonen, in christlicher Zeit auch von Hexen und Teufel. Neben Flughunden findet man Fledermäuse heute noch lebend auf indischen Basaren: Ihnen wird die Haut abgezogen, die zur Wundheilung frisch auf betroffene Körperteile gelegt wird. Zur Wiederansiedlung von Fledermäusen können spezielle Holzkästen angebracht werden. Bedrohung und Schutz. Zu den weltweiten Hauptbedrohungen der Fledermäuse zählen der Verlust des Lebensraumes sowie in geringerem Ausmaß die Bejagung durch den Menschen. Insbesondere die auf kleinen Inseln endemischen Arten sind dabei gefährdet. Die IUCN listet vier Arten als ausgestorben, rund 20 gelten als stark bedroht, zahlreiche weitere als bedroht oder gefährdet. 17 der deutschen Arten werden in den Gefährdungskategorien der Roten Liste Deutschlands geführt. Die Europäische Fledermausnacht ist ein jährlich stattfindendes Ereignis, bei dem auf die Bedrohung dieser Tiere aufmerksam gemacht werden soll. Das bisher einzige Fledermaus-Museum Deutschlands informiert Besucher über den Schutz der Fledermäuse und ihrer Umwelt. Es dokumentiert das Leben der Tiere und zeigt die Entwicklung ihrer Erforschung. Das Museum arbeitet eng mit Wissenschaftlern und Fledermausforschern zusammen. Zerstörung der Lebensräume. Wartungsarmes Ganzjahresquartier unter der Dachtraufe Ihre Gefährdung geht vor allem durch Zerstörung ihrer Lebensräume aus, etwa durch die Sanierung von Altbauten und die Versiegelung von potentiellen Schlafplätzen, durch die Vernichtung von Insekten-Lebensräumen, durch die Zerstörung von Totholzbeständen und die Vergiftung mit Insektenschutzmitteln und Holzschutz­farben. Nicht mehr ganz so selten sind Großes Mausohr ("Myotis myotis", siehe Foto oben), Zwergfledermaus ("Pipistrellus pipistrellus"), Großer Abendsegler ("Nyctalus noctula") und Wasserfledermaus ("Myotis daubentonii"). Mausohrfledermaus-Weibchen bilden im Sommer große Wochenstuben auf Dachböden, wo sie gemeinsam ihre Kinder gebären und aufziehen. Diese Wochenstuben und auch andere Fledermaus-Quartiere (Bäume mit Höhlungen, Spaltenquartiere, Höhlen und Stollen und Fledermauskästen) gilt es wie auch die anderen Lebensräume zu erhalten. Da sich gebäudebewohnende Fledermausarten sowohl Siedlungen als auch Städte erschlossen haben, sind sie westenliche Elemente der Stadtnatur. Jedoch sind sie durch Sarnierungen oder moderne Bauweisen gefährdet. Daher müssen sie bei Baumaßnahmen berücksichtigt werden. Der Landesbund für Vogelschutz in München setzt sich mit seinem Projekt "Artenschutz an Gebäuden" für den Erhalt gebäudebewohnender Fledermaus- sowie Wildvogelarten ein. Falsche Standorte von Windkraftanlagen. Auch an Windkraftanlagen verunglücken Fledermäuse aus ungeklärten Gründen, wie seit einigen Jahren bekannt ist. Zunächst wurde dieses Phänomen in den USA sowie in Australien beobachtet, inzwischen laufen auch in Europa eine Reihe von Untersuchungen, um Umfang und Hintergründe der Todesfälle zu beleuchten. In Deutschland sind bislang 13 Fledermausarten (Stand November 2005) mit mehreren hundert Individuen an den Anlagen verunglückt; die Dunkelziffer dürfte groß sein, da nur eine verschwindend kleine Anzahl der Anlagen kontrolliert wird. Die Problematik der Schlagopfer an Windkraftanlagen zeigt, dass noch erheblicher Forschungsbedarf besteht. Einige bisher als sicher geltende Erkenntnisse werden in Frage gestellt. So fanden sich Arten, bei welchen man Flughöhen bis max. 20 m annahm, als Opfer unter Windkraftanlagen. Die seit über 50 Jahren nördlich der Alpen nicht mehr nachgewiesene Alpenfledermaus fand man als Schlagopfer an einem Windrad in Brandenburg. "Siehe auch" Vogel- und Fledermausschlag. Übertragung von Krankheiten. Die Vampirfledermäuse und andere Arten können den Menschen und andere Tiere gefährden, da sie durch ihre Bisse und Kot verschiedene Krankheiten übertragen können. Dies kommt allerdings sehr selten vor. Fledermaustollwut. Die erste tollwütige Fledermaus wurde 1954 in Hamburg entdeckt. Bis 1985 wurden in Europa nur sehr wenige infizierte Fledermäuse gefunden. Seitdem hat sich die Fledermaustollwut stark ausgebreitet. Zwei Drittel aller tollwütigen Fledermäuse wurden in Dänemark und den Niederlanden registriert. Ungefähr 20 Prozent der in Europa infizierten Tiere wurden in Deutschland erfasst. Die Fledermaustollwut – welche nicht mit der Fuchstollwut identisch ist – wird vom Europäischen Fledermausvirus ("European Bat Lyssavirus", EBLV, Typ I u. II) ausgelöst und wurde 2003 insgesamt 13 mal in Deutschland festgestellt (Berlin 3, Bremen 1, Niedersachsen 3, Sachsen-Anhalt 1, Schleswig-Holstein 5). Bayern gilt bislang als frei von Fledermaustollwut. Allerdings sind die relativ geringen Untersuchungszahlen nicht sehr aussagekräftig. Am häufigsten ist die Breitflügelfledermaus ("Eptesicus serotinus") infiziert. Vermutetes Reservoir von Viren. Bei Fledermäusen und Nagern wird ein Reservoir von Paramyxovirusarten vermutet. Hierbei wurden bis jetzt 86 Fledermaus- und 33 Nagerarten untersucht, hauptsächlich tropische Arten. Das Mumps-Virus ist laut einer Untersuchung von Fledermäusen auf den Menschen übergegangen. Bei dieser Studie wurden nur Fledermäuse und Nager untersucht, keine Tiere der Nahrungskette davor und danach, eine Prüfung, ob die Tiere die Viren über die Nahrung aufgenommen haben (und damit nur Zwischenwirte wären) erfolgte nicht, auch andere Überträger (die nicht untersucht wurden, etwa Insekten) wären als Überträger möglich. Nutzung der Ausscheidungen. Fledermäuse scheiden im Gegensatz zu den meisten anderen Säugetieren, aber ebenso wie Vögel und Reptilien, Stickstoffverbindungen als Guanin aus. Guanin ist zwar energiereicher als Harnstoff, benötigt aber kaum Wasser zur Ausscheidung, sodass die Tiere nicht so viel Trinkwasser wie Säugetiere benötigen und das Wasser im Körper nicht mitgeführt werden muss. Diese Ersparnis an zu bewegender Masse unterstützt die Flugfähigkeit. Höhlenablagerungen aus Fledermauskot können als sogenannter "Höhlenguano" abbauwürdige Mächtigkeiten erreichen. Höhlenguano wird ebenso wie "Inselguano", der aus Seevogelausscheidungen besteht, als phosphatreiches Düngemittel eingesetzt. Fledertiere. Die Fledertiere (Chiroptera, auch Flattertiere) sind eine Ordnung der Säugetiere. Mit rund 1100 Arten sind die Fledertiere nach den Nagetieren die artenreichste Ordnung innerhalb der Säugetiere. Die Fähigkeit zum Schlagflug haben sie als stammesgeschichtlich jüngste Gruppe der Wirbeltiere erworben – nach den ausgestorbenen Flugsauriern und den Vögeln. Die Ordnung der Fledertiere wird in zwei Unterordnungen aufgeteilt: Flughunde (Megachiroptera) und Fledermäuse (Microchiroptera). Das Schwestergruppenverhältnis dieser beiden Gruppen, also die Monophylie des Taxons der Fledertiere, gilt zwar mittlerweile als recht wahrscheinlich, ist jedoch umstritten. Der wissenschaftliche Name "Chiroptera" leitet sich aus und "pteron" πτερόν ‚Flügel‘ ab, bedeutet also „Handflügler“. Verbreitung. Fledertiere sind nahezu weltweit verbreitet, sie fehlen lediglich in den Polarregionen sowie auf entlegenen Inseln. Auf manchen Inseln (beispielsweise Neuseeland) waren sie bis zur Ankunft des Menschen die einzigen Säugetiere. Beschreibung. Fledertiere sind die einzigen Säugetiere und neben den Vögeln die einzigen Wirbeltiere, die aktiv fliegen können. Einige Säugetiergruppen (wie die Gleithörnchen, die Dornschwanzhörnchen, die Riesengleiter und die Gleitbeutler) haben zwar eine Gleitmembran (Flughaut) zwischen den Gliedmaßen, können aber nur von höheren Punkten aus Gleitflüge machen. Im Gegensatz dazu können Fledertiere beim Fliegen auch Höhe gewinnen. Die Flugmembran besteht aus zwei Hautschichten und erstreckt sich von den Handgelenken bis zu den Fußgelenken. Weitere Membranen erstrecken sich von den Handgelenken zu den Schultern und zwischen den Beinen. Letztere wird Uropatagium (Schwanzflughaut) genannt, sie bindet den Schwanz – sofern vorhanden – mit ein und dient oft zum Einkeschern der Beute. Der Daumen ist kurz – nur bei den Stummeldaumen (Furipteridae) fehlt er – und trägt eine Kralle, die vier übrigen Finger sind stark verlängert und spannen die Flughaut. Während Flughunde meist am zweiten Finger ebenfalls eine Kralle haben, fehlt diese bei den Fledermäusen. Ein Dorn am Fußgelenk, Calcar genannt, dient zum Aufspannen der Schwanzflughaut. Die Hinterbeine der Fledertiere sind im Gegensatz zu den meisten anderen Säugetieren nach hinten gerichtet, sie enden in fünf bekrallten Zehen. Das dichte, seidige Fell der Fledertiere ist meistens grau bis braun gefärbt, es gibt aber auch weiße und gemusterte Arten. Die Größe dieser Tiere variiert erheblich, wobei die Schweinsnasenfledermaus mit 3 cm Länge und 2 Gramm Gewicht als das kleinste Säugetier überhaupt gilt, während der Kalong bis zu 1,7 Meter Flügelspannweite und 1,5 Kilogramm Gewicht erreichen kann. Lebensweise. Die meisten Fledertiere – mit Ausnahme einiger Flughunde – sind nachtaktive Tiere, die tagsüber in einem Versteck schlafen. Sie hängen dabei meist kopfüber an den Füßen, wodurch im Gefahrenfall eine schnelle Flucht durch einfaches Fallenlassen ermöglicht wird. Sie brauchen keine Kraft, um sich festzuklammern, da die Krallen durch das Gewicht der Fledermaus gekrümmt werden. Deshalb fallen selbst tote Fledertiere nicht herab. Die meisten Fledermäuse orientieren sich während des Fluges durch Echoortung: Mit dem Mund oder der Nase stoßen sie Laute ab, die im Ultraschallbereich liegen, also jenseits der menschlichen Hörgrenze. Manche Arten, insbesondere die Großblattnasen (Megadermatidae) und die Blattnasen (Phyllostomidae) haben auffällige Auswüchse an den Nasen, sogenannte Nasenblätter, die zur Verstärkung dieser Laute dienen. Die Ohren sind gut entwickelt und oftmals sehr groß, ein Tragus (Ohrdeckel) ist bei vielen Arten vorhanden und dient zum besseren Empfang der zurückgesandten Signale. Im Gegensatz dazu verwenden Flughunde mit Ausnahme der Rosettenflughunde keine Echoortung. Fledertiere sind nicht blind, sondern haben gut entwickelte Augen, auch wenn – wie bei vielen nachtaktiven Tieren – die Stäbchen in der Netzhaut überwiegen. Insbesondere Flughunde haben einen gut entwickelten Gesichtssinn. Auch der Geruchssinn ist bei den meisten Arten gut entwickelt. Fledertiere verbringen den Tag in Höhlen, Felsspalten, Baumhöhlen oder in menschengemachten Behausungen wie Minen, Ruinen und Gebäuden; Flughunde schlafen eher auf Bäumen als Fledermäuse. Viele Arten leben in großen Kolonien, oft aus Tausenden von Tieren, andere sind Einzelgänger. In kühleren Regionen halten sie oft Winterschlaf oder ziehen während des Winters in wärmere Regionen. Auch während des Tagesschlafs sinkt ihr Stoffwechsel in stärkerem Ausmaß als bei anderen Säugetieren. Fortpflanzung. Generell sind Fledertiere durch eine niedrige Fortpflanzungsrate gekennzeichnet. In den meisten Fällen kommt nur ein Jungtier im Jahr zur Welt. Bei den meisten Arten haben die Weibchen zwei Zitzen im Brustbereich, wegen dieses Merkmals wurden sie früher (unter anderem bei Carl von Linné) zu den Primaten gezählt. Als Ausgleich für die niedrige Fortpflanzungsrate sind Fledertiere verglichen mit anderen Säugetieren ähnlicher Größe sehr langlebig, manche Tiere werden über 20, manchmal über 30 Jahre alt. Gefährdung. Viele Fledertierarten sind heute bedroht. Die Gründe dafür liegen meist im Verlust des Lebensraumes, sowohl in den Tropen durch Waldrodungen als auch in Industrieländern durch den Einsatz von Pestiziden und Pflanzenschutzmitteln und die Versiegelung von Schlafplätzen durch Altbausanierungen. 12 Arten sind laut IUCN ausgestorben, 75 weitere gelten als bedroht oder stark bedroht. Systematik. Seit den 1970er-Jahren wird intensiv die Frage diskutiert, ob Fledertiere tatsächlich monophyletisch sind, das heißt von einem gemeinsamen Vorfahren abstammen. Mehrfach wurde die Theorie aufgestellt, Fledermäuse und Flughunde hätten sich unabhängig voneinander entwickelt, die Ähnlichkeiten im Körperbau seien lediglich auf konvergente Evolution zurückzuführen. Viele Studien wurden mit biochemischen, molekularen oder morphologischen Daten durchgeführt, um die Frage der Monophylie der Fledertiere zu klären. Während manche Untersuchungen anhand des Aufbaus des Nervensystems und des Penis sowie gewisser DNA-Sequenzen eher auf konvergente Evolution beider Gruppen hindeuten sollen, sprechen sich die meisten Forschungsergebnisse anhand morphologischer Studien, Untersuchungen des Fortpflanzungssystems und DNA-Vergleichen für die Monophylie beider Gruppen aus. Es ist schwierig, die Stellung der Fledertiere im Stammbaum der Säugetiere festzulegen. Vielfach gelten sie als enge Verwandte der Riesengleiter und Primaten, jüngere Untersuchungsergebnisse stellen sie jedoch in die Überordnung der Laurasiatheria in die nähere Verwandtschaft der Cetartiodactyla (Paarhufer und Wale), Unpaarhufer (Perissodactyla) und Raubtiere (Carnivora). Frankfurter Allgemeine Zeitung. Redaktionsgebäude, Hellerhofstr. 9, Frankfurt am Main Verlagsgebäude, Hellerhofstr. 2–4, Frankfurt am Main Die Frankfurter Allgemeine Zeitung (FAZ, Eigenschreibweise F.A.Z.) ist eine deutsche überregionale Abonnement-Tageszeitung. Sie gehört mehrheitlich (zu 93,7 %) der Fazit-Stiftung und wird von der Frankfurter Allgemeine Zeitung GmbH verlegt. Die Zeitung hat die höchste Auslandsverbreitung aller deutschen Zeitungen (abgesehen von Boulevardblättern). Ihre Hauptkonkurrentinnen sind "Die Welt" und die "Süddeutsche Zeitung". Die Linie der Zeitung wird nicht von einem Chefredakteur, sondern von den Herausgebern bestimmt. Geschichte. Die Gründung der FAZ im Jahr 1949 geht auf einen Beschluss der Wirtschaftspolitischen Gesellschaft (Wipog) zurück, eines zwei Jahre zuvor gegründeten Vereins von Unternehmern, die ihre Interessen in der Öffentlichkeit stärker vertreten sehen wollten. Gründungsherausgeber der FAZ waren Hans Baumgarten, Erich Dombrowski, Karl Korn, Paul Sethe und Erich Welter. Einige Redakteure der FAZ arbeiteten zuvor schon bei der 1943 verbotenen "Frankfurter Zeitung" und bei der "Allgemeinen Zeitung" in Mainz. Die erste Ausgabe der Zeitung erschien am 1. November 1949. Auf der Titelseite dieser Ausgabe hieß es unter der Überschrift „Zeitung für Deutschland“: „Unsere Leser haben heute die erste Nummer der ‚Frankfurter Allgemeinen Zeitung‘ vor sich. Dieses Blatt setzt die journalistische Arbeit fort, die in Mainz mit der ‚Allgemeinen Zeitung‘ begonnen worden ist. Aber es knüpft zugleich den Anfang zu einem neuen Werk.“ Laut eigener Darstellung sieht sich die Zeitung nicht als direkte Nachfolgerin der "Frankfurter Zeitung." So konnte man in der ersten Ausgabe lesen: „Aus der Tatsache, daß einige unserer Mitarbeiter früher der Redaktion der ‚Frankfurter Zeitung‘ angehört haben, ist vielfach geschlossen worden, hier werde der Versuch gemacht, die Nachfolgeschaft dieses Blattes anzutreten. Eine solche Annahme verkennt unsere Absichten. Wie jeder, so haben auch wir die hohen Qualitäten dieses Blattes bewundert; … Aber der Respekt vor einer hervorragenden Leistung bedeutet noch nicht den Wunsch, sie zu kopieren.“ Der Titel "Frankfurter Zeitung" wurde jedoch von der FAZ für sich markenrechtlich geschützt. Jahre später wurde die Marke FAZ geschützt. Bis zum 30. September 1950 wurde die FAZ in Mainz gedruckt. Eine erste Anfrage, die FAZ in der von der "Frankfurter Rundschau" gepachteten Societäts-Druckerei herstellen zu lassen, gab es 1949, doch lehnte der in seine Rechte als Miteigentümer der Druckerei und der "Frankfurter Zeitung" wiedereingesetzte Kurt Simon dies ab mit der Begründung, die Herausgeber Erich Welter und Paul Sethe seien im Sinne nationalsozialistischer Zielsetzung zu stark engagiert gewesen. Später konnte man sich doch noch einigen und ab Herbst 1950 wurde die FAZ in der Societäts-Druckerei gedruckt. Im Jahr 1987 wurde in der Hellerhofstraße ein neues Redaktionsgebäude fertiggestellt, das der Architekt A.C. Walter geplant hatte. 1989 übernahm die Fazit-Stiftung die Mehrheit der Societäts-Druckerei. Neben integren Verlagsgründern und leitenden Mitarbeitern waren die 1950er Jahre auch durch die Einstellung NS-belasteten leitenden Personals geprägt. So traten die Verlagsmanager Viktor Muckel, ehemaliger NS-Gauamtsleiter in Düsseldorf und Erwin Finkenzeller, im Zweiten Weltkrieg Propagandist der SS-Standarte Kurt Eggers, in die Führungsebene dieser Zeitung ein. Während Finkenzeller für das Anzeigengeschäft zuständig war, übernahm Muckel die Bereiche Vertrieb und Werbung, zunächst als „selbständiger Verlagsberater“, dann als einer der Verlagsdirektoren. Von ihm stammt der bis heute gängige FAZ-Werbeslogan „Dahinter steckt immer ein kluger Kopf“. Die Macher der FAZ (und viele Leser) wehrten sich lange Zeit gegen eine Überarbeitung des eher schlichten, ruhigen Erscheinungsbildes. Titelbilder in der FAZ blieben traditionell die Ausnahme und die Einführung farbiger Informationsgrafiken und Fotografien wurde kontrovers diskutiert. Seit dem 5. Oktober 2007 erscheint die Zeitung in einer optisch überarbeiteten, moderneren Aufmachung: Es entfielen dabei unter anderem die Fraktur-Überschriften über den Kommentaren sowie die Linien zwischen den einzelnen Spalten. Die erste Seite erhielt ein farbiges Titelbild, wie auch die Abbildungen im Innenteil der Zeitung nach Möglichkeit farbig gehalten sind. Kästen mit zunehmend kürzeren Erläuterungen zu einzelnen Stichwörtern werden häufiger eingesetzt. Damit reagierte das Herausgebergremium auf anhaltende Auflagenverluste. Seit dem 20. April 2011 ist die FAZ auch als ePaper auf dem iPad verfügbar. Profil. Die FAZ verfügt mit 41 Auslandskorrespondenten über eines der größten Korrespondentennetze der Welt. In größeren Metropolen (Brüssel (4), London (4), Madrid (2), Moskau (2), New York (3), Paris (2), Peking (2), Rom (2), Washington (2), Wien (2)) gibt es mehrere spezialisierte Auslandskorrespondenten für Politik, Wirtschaft und Feuilleton. Seit 2001 leitet Klaus-Dieter Frankenberger das Ressort für Außenpolitik. Im Inland unterhält die F.A.Z. (ausgenommen Rhein-Main-Zeitung) Redaktionsbüros in Berlin, Bonn, Dresden, Düsseldorf, Hamburg, Hannover, Kassel, Leipzig, München, Stuttgart und Wiesbaden. Die FAZ verkaufte im Zuge der Konzentration auf die Kernkompetenz im September 2005 ihre Buchverlage Kösel-Verlag und Deutsche Verlags-Anstalt mit dem Manesse Verlag an Random House. 2006 stieß die "FAZ Buch- und Zeitschriftenverlag" den Kunstbuchverlag Prestel ab. Nach wie vor erscheinen FAZ-Bücher im so genannten FAZ-Institut. Die FAZ gilt als bürgerlich-konservatives Medium. Auflage. Die "Frankfurter Allgemeine Zeitung" hat, wie die meisten deutschen Tageszeitungen in den vergangenen Jahren, an Auflage eingebüßt. Sie beträgt gegenwärtig Das entspricht einem Rückgang von Stück. Der Anteil der Abonnements an der verkauften Auflage liegt bei Prozent. Wirtschaftliche Entwicklung. Im Geschäftsjahr 2012 machte die Verlagsgesellschaft durch den weiteren Rückgang der Anzeigenerlöse einen Verlust von 4,3 Millionen Euro, nachdem im Vorjahr durch den Verkauf von Vermögen noch ein Ertrag von 19,3 Millionen Euro erwirtschaftet worden war. 2013 stieg das Defizit weiter an, auch der Umsatz ging zurück. Zum Ausgleich wurde Anfang 2014 die Seitenzahl der Zeitung reduziert, damit verbunden sind Personaleinsparungen in der Redaktion. Am 16. September 2014 kündigte die FAZ an, bis 2017 jährlich 20 Millionen Euro einsparen zu wollen und bis zu 200 von 900 Stellen zu streichen. Gesellschaftliche Wirkung. Die FAZ spielt in vielen gesellschaftspolitischen Diskussionen eine meinungsbildende Rolle und löste sie öfter grundlegend aus. So veröffentlichte sie etwa wesentliche Debattenbeiträge des Historikerstreits, unter anderem von Ernst Nolte und Michael Stürmer, zuerst. Sie stieß auch die Debatte über Martin Walsers Roman "Tod eines Kritikers" an, als Frank Schirrmacher einen Vorabdruck verweigerte – der Vorabdruck von Walsers Romanen hatte eine gewisse Tradition in der FAZ –, und in Form eines offenen Briefs eine ausführliche Begründung dafür veröffentlichte, die der Rezension eines noch nicht veröffentlichten Buchs gleichkam. 2006 fand ein Interview Aufsehen, das Günter Grass der FAZ bereitwillig gegeben hatte und in dem er kurz vor der Veröffentlichung seiner Memoiren erstmals öffentlich von seiner Waffen-SS-Mitgliedschaft berichtete. In der Diskussion über die Rechtschreibreform von 1996 spielten Beiträge von FAZ-Redakteuren und Gastautoren eine wichtige Rolle. Die Zeitung berichtete nicht nur über die Entwicklungen, sondern griff auch aktiv in die Debatte zugunsten der alten Rechtschreibung ein. Nach einer anfänglichen Umstellung zum 1. August 1999 auf die reformierte Rechtschreibung kehrte die Redaktion nach einem Jahr (zum 1. August 2000) wieder zur bisherigen Rechtschreibung zurück. Nach den Überarbeitungen des Regelwerkes durch den Rat für deutsche Rechtschreibung änderte die FAZ ihre Orthographie schließlich wieder in Richtung auf die Reform und druckt seit 1. Januar 2007 nach einer Hausorthographie, basierend auf der neuen deutschen Rechtschreibung, jedoch mit einigen Modifikationen. Durch das zwischenzeitliche Beharren auf der „bewährten“ Schreibweise (der sich 2005 auch Der Spiegel, der Axel-Springer-Verlag und die Süddeutsche Zeitung vorübergehend anschlossen) wollte die Redaktion unter anderem Druck auf den Rat für deutsche Rechtschreibung ausüben, die in ihren Augen groben Fehler der Reform zu korrigieren. Mit seinem 2004 erschienenen Buch „Das Methusalem-Komplott“ und einer Reihe von Artikeln beteiligte sich der 2014 verstorbene Mitherausgeber der Zeitung, Frank Schirrmacher, an der Diskussion über die Überalterung der deutschen Gesellschaft (siehe auch Demografie Deutschlands) und die damit einhergehenden sozialen, wirtschaftlichen, politischen und städtebaulichen Folgen. Eine Sonderstellung für die gesellschaftspolitische Bedeutung der FAZ nimmt die Leserbriefseite der Zeitung ein, auf der sich oft prominente Diskussionsteilnehmer zu Wort melden. Herausgeber. In der Geschichte der FAZ kam es zu zwei Entlassungen von Herausgebern, der von Jürgen Tern im Jahr 1970 und der von Hugo Müller-Vogg im Jahr 2001. Bei beiden gab es nur vage beziehungsweise gar keine offiziellen Begründungen. Berliner Seiten. Die "Berliner Seiten" waren eine in Berlin produzierte, in der Regel sechsseitige feuilletonistische Beilage der FAZ. Die Redaktion wurde von Florian Illies geleitet. Die "Berliner Seiten" erschienen erstmals am 1. September 1999 und wurden im Sommer 2002 wieder eingestellt, nachdem sich die Erwartung der "FAZ", mit der Beilage die Zahl der Berliner Abonnenten nennenswert zu steigern, nicht erfüllt hatte. FAZ.NET. Seit Januar 2001 ist die "FAZ" mit einem eigenständigen redaktionellen Nachrichtenportal im Internet vertreten. 2006 hat FAZ.NET erstmals an der Erhebung der Arbeitsgemeinschaft Online-Forschung (AGOF) teilgenommen und verzeichnet die größte Reichweite deutscher Qualitätszeitungen bei Internetnutzern: 1,32 Millionen/Monat. 65 % der Nutzer sind männlich, die Hälfte hat Abitur. Ab dem 17. November 2007 erhielt die Website der "FAZ" ein verändertes Seitenlayout. Im Oktober 2011 kam es zu einer weiteren Überarbeitung des Layouts von FAZ.NET. Nach dieser Überarbeitung ähnelt die Website dem Aussehen der Printausgabe. So wich das eigene, moderner gestaltete Logo von FAZ.NET dem bekannten Frakturschrift-Kopf der gedruckten Zeitung, dem seit seinem ersten Erscheinen etablierten Markenzeichen des Organs. Dabei wurde auch die Darstellung der Leserkommentare überarbeitet. Diese waren vor der Umstellung unter dem Artikel und konnten positiv wie negativ bewertet werden; nach der Umstellung befanden sich die Kommentare in einem separaten Reiter, und es war nicht mehr möglich, Leserkommentare negativ zu bewerten. Im Juni 2015 verzeichnete FAZ.NET laut den Ergebnissen der Studie "AGOF digital facts" 6,55 Mio. Besucher pro Monat. Frankfurter Anthologie. Die "Frankfurter Anthologie" ist eine Sammlung deutschsprachiger Gedichte mit Interpretationen, die von Marcel Reich-Ranicki im Jahr 1974 begründet wurde. Frankfurter Allgemeine Sonntagszeitung (FAS) . Die "FAS" (Eigenschreibweise "F.A.S.") ist die Sonntagszeitung der "FAZ". Ursprünglich nur als Regionalzeitung im Rhein-Main-Gebiet vertrieben, ist sie seit dem 30. September 2001 bundesweit erhältlich. Trotz der gemeinsamen Nutzung wie z. B. der redaktionellen Ressourcen tritt die "FAS" eigenständig auf und verfügt über 50 weitere eigene Redakteure. Das Erscheinungsbild unterscheidet sich deutlich von der "FAZ" in der Satzgestaltung, der durchgängigen Vierfarbigkeit und einer eigenen Brotschrift, der Janson. Ein Erkennungsmerkmal sind auch die oft eingesetzten kleinen Illustrationen am Artikelanfang, sogenannte Vignetten, die unter anderem von dem Illustrator Bengt Fosshag stammen. Die Reichweite (Anzahl der Leser) der "FAS" übertrifft mittlerweile die durchschnittliche Tagesreichweite des Mutterblattes. Gemäß AWA 2009 erreicht die "FAS" 1,17 Millionen Leser, das entspricht einer Reichweite von 1,8 % in der Gesamtbevölkerung. Die verkaufte Auflage der "FAS" liegt bei Exemplaren. Die "FAS" hat seit ihrer Gründung stark an Auflage gewonnen. Die verkaufte Auflage ist seit 2001 um Prozent gestiegen. Der Anteil der Abonnements an der verkauften Auflage liegt bei rund 55 Prozent. Hochschulanzeiger. Der "Hochschulanzeiger" ist eine Zeitschrift, die sechsmal jährlich im Verlag der Frankfurter Allgemeinen Zeitung erscheint. Er wendet sich speziell an Studenten, Hochschulabsolventen und Berufseinsteiger, die sich über Branchen und Unternehmen informieren wollen, ihren zukünftigen Arbeitgeber suchen oder Tipps für die Bewerbung wünschen. Er kann einzeln oder zusammen mit einem Studentenabonnement der "FAZ" abonniert werden. Außerdem ist er am Kiosk erhältlich. Zwei Wochen nach Erscheinungstermin wird er kostenlos an vielen Hochschulen in Deutschland und Österreich verteilt bzw. dort ausgelegt. Die verbreitete Auflage des "Hochschulanzeigers" beträgt 216.839 Exemplare, davon 99.839 verkauft (IVW 4/2009). Bilder und Zeiten. Bis Ende 2001 war "Bilder und Zeiten" die Tiefdruckbeilage zur Samstagsausgabe der "FAZ". Sie zeichnete sich durch längere Artikel des Ressorts Feuilleton (insbesondere Literatur) aus. Die Beilage war großformatig schwarz-weiß bebildert. Zu erinnern ist insbesondere an die Fotos von Barbara Klemm, die hier regelmäßig erschienen. Im November 2006 wurde "Bilder und Zeiten" zumindest als Name wiederbelebt: die neue Samstagsbeilage erscheint allerdings in gewöhnlichem Zeitungsdruck und modernisiert gestaltet. Verantwortlicher Redakteur ist Andreas Platthaus. "Bilder und Zeiten" wurde Ende 2012 als Beilage eingestellt; die bisher dort erschienenen Rubriken wurden in das Feuilleton aufgenommen. Im Internet werden die bisher in der Beilage erschienenen Beiträge noch unter altem Namen bereitgestellt. FAZ Weekly (eingestellt). Die "FAZ Weekly" war die englischsprachige Wochenzeitung der "FAZ". Sie fasste hauptsächlich Leitartikel der Tageszeitung zusammen und lag jeweils freitags der International Herald Tribune bei. Sie erschien von Sommer 2002 bis zur Jahresmitte 2005. Vom 3. April 2000 bis zum 29. Juni 2002 hatte es sogar eine tägliche erscheinende Beilage "FAZ English Edition" gegeben. FAZ Audio-Dossiers. "FAZ Audio-Dossiers" bündeln Berichte der "FAZ" oder der Sonntagszeitung zu einem Thema. Sie erscheinen monatlich und haben durch ihre thematische Dichte und die Qualität der Texte den Charakter von Hörbüchern. Die Laufzeit beträgt jeweils etwa zwei Stunden. Auszüge aus dem aktuellen Audio-Dossiers werden gleichzeitig als kostenlose Podcasts veröffentlicht. FAZ Audioausgabe. Die Audioausgabe der "Frankfurter Allgemeinen Zeitung" für das Hören via (Mobil-)Telefon erscheint werktäglich mit den wichtigsten Kommentaren der "FAZ". Sie ermöglicht auch Blinden und Sehbehinderten einen leichten Zugang. Diese Hörzeitung ist 30 bis 40 Minuten lang hörbar. Die Navigation erfolgt über die Tastatur. FAZ Podcast. In Verbindung mit "FAZ Audio-Dossiers" und der Audioausgabe erscheinen seit Mai 2006 in regelmäßigen Abständen Podcasts der "Frankfurter Allgemeinen Zeitung". FAZ-Magazin. Das "FAZ-Magazin" erschien freitags als wöchentliches farbiges Beilagenheft – dem "Zeit-Magazin" ähnlich – mit vorzugsweise kulturellen und biographischen Themen in 1008 Ausgaben vom 7. März 1980 bis zum 25. Juni 1999. Als eigenständiges Verlagsprodukt wurde es zuletzt von einer etwa 20-köpfigen Redaktion unter Thomas Schröder als Chefredakteur hergestellt. Regelmäßig schrieb Johannes Gross eine Kolumne. Am 23. Februar 2013 ist erstmals ein neues "FAZ-Magazin" erschienen, das aus dem bisher gemeinsam mit der "NZZ" herausgegebenen Mode- und Lifestylemagazin "Z" hervorgeht. Es soll im Jahr 2013 achtmal samstags erscheinen und behandelt die Themen Mode, Design, Reise, Beauty, Kunstmarkt und Kulinarik. Im Editorial zur Ausgabe vom 23. Februar 2013 heißt es: „Bei all dem Zuspruch lässt sich unser Supplement, das in diesem Jahr acht Mal der Zeitung beiliegt, schon von Erscheinungsweise, Format und Themenspektrum her nicht mit dem im Jahr 1999 eingestellten Vorläufer gleichsetzen. Die Zeiten ändern sich, die Zeitschriften auch. Mit Themen rund um Lebensstil, Populärkultur und Gesellschaft werden wir neue Seiten aufschlagen.“ Chrismon. Seit 2008 legt auch die "FAZ" monatlich das geheftete "Chrismon"-Magazin der evangelischen Kirche bei. Weitere Geschäftsfelder. Der Verlag diversifiziert seine Aktivitäten, um aus intern vorhandenen Kompetenzen zusätzliche Erlöse zu generieren. Frankfurter Allgemeine Archiv. Das Archiv der FAZ ist mit über 45 Millionen Artikeln eines der umfangreichsten Pressearchive der Welt. Seine Dokumentare verfügen über eine große Pressedatenbank mit Dokumenten aus mehr als 200 Quellen sowie über spezialisierte Wissensdatenbanken. Das Archiv ist das Informationszentrum der Zeitung, dessen vorrangige Aufgabe darin besteht, die Redaktion mit Fakten und Hintergrundinformationen zu versorgen. Daneben bietet es Informationen und -dienstleistungen für externe Kunden an (u. a. Online-Archiv mit Artikeln ab 1993, Jahrgangs-, Länder- und Themen-CD-ROMs, Audio-Dossiers, Vermarktung von Nachdruck- und Nutzungsrechten, Bereitstellung des Online-Archivs für Bibliotheken und Unternehmen, Termindienste). Klassiker der Comic-Literatur. In den Jahren 2005 (Beginn mit "Superman") und 2006 (Abschluss mit "Lucky Luke") veröffentlichte die FAZ in Zusammenarbeit mit "Panini Comics" 20 Bände bekannter Comicserien. Sie wurden redaktionell durch den Journalisten und Autor Andreas Platthaus betreut. FAZ-Forum. Die Verlagsgruppe veranstaltet Fachkongresse, bei denen neben externen Referenten auch redaktionelle Mitarbeiter der Zeitung ihr Fachwissen für die Teilnehmer aufbereiten. Frankfurter Allgemeine Business School. Unter dem Titel "Frankfurter Allgemeine Business School" wird berufliche Weiterbildung im Bereich Wirtschaft und Management angeboten. Wettbewerber. Wichtigste überregionale deutsche Konkurrenzblätter sind die Süddeutsche Zeitung und Die Welt. Die Frankfurter Rundschau war traditionell der regionale Wettbewerber, wurde aber im Zuge der Insolvenz durch die FAZ übernommen und wird unter dem Dach des Verlages weitergeführt. Ebenfalls zum Konzern gehört die Frankfurter Neue Presse, die im Umland von Frankfurt unter verschiedenen lokalen Kopfblättern erscheint. Medienkritik. In medienkritischen Untersuchungen wird auch die FAZ kritisiert, besonders ausführlich untersucht wurden die Bereiche Sicherheits- und Verteidigungspolitik sowie die Berichterstattung und Kommentierung der Finanzkrise. Besonders in der Analyse politische-medialer Netzwerke in Uwe Krügers Untersuchung „Medienmacht“ werden auch Verflechtungen von Journalisten der FAZ thematisiert. Im empirischen Teil fokussiert seine soziale Netzwerkanalyse zunächst die soziale Umgebung von 219 leitenden Redakteuren deutscher Leitmedien. Jeder Dritte unterhielt informelle Kontakte mit Politik- und Wirtschaftseliten; bei vier Außenpolitik-Journalisten, darunter Klaus-Dieter Frankenberger, finden sich dichte Netzwerke im US- und Nato-affinen Elitenmilieu. Eine anschließende Frame-Analyse fragt, inwieweit der Output dieser vier Journalisten in den umstrittenen Fragen der Definition von Sicherheit (erweiterter Sicherheitsbegriff) und Afghanistan-Einsatz der Bundeswehr auf der Linie der ermittelten Bezugsgruppen liegt. Abschließend werden die Berichte über die Münchner Sicherheitskonferenz und deren Gegner in fünf Tageszeitungen inhaltsanalytisch untersucht. Sie kommt zu dem Schluss, dass die Eliten-nahen Leitmedien FAZ, Welt und Süddeutsche den auf der Sicherheitskonferenz laufenden Elitendiskurs ausführlich abbilden, dabei aber die Proteste und die Gegenveranstaltung Münchner Friedenskonferenz marginalisieren und delegitimieren. Eine Studie der gewerkschaftsnahen Otto-Brenner-Stiftung von Hans-Jürgen Arlt und Wolfgang Storz von März 2010 beleuchtete die Zeitungen Handelsblatt, die tageszeitung (TAZ), Süddeutsche Zeitung, Frankfurter Allgemeine Zeitung und Financial Times Deutschland, sowie die ARD-Formate Tagesschau und Tagesthemen, sowie die Nachrichtenagentur DPA zum Thema „Wirtschaftsjournalismus in der Krise – Zum massenmedialen Umgang mit Finanzmarktpolitik“. Die Studie kommt zu dem Schluss, dass der tagesaktuelle deutsche Wirtschaftsjournalismus als Beobachter, Berichterstatter und Kommentator des Finanzmarktes und der Finanzmarktpolitik bis zum offenen Ausbruch der globalen Finanzmarktkrise - mit Ausnahme der TAZ - schlecht gearbeitet habe. Frédéric Chopin. Frédéric François Chopin oder Fryderyk Franciszek Chopin (* 22. Februar oder 1. März 1810 in Żelazowa Wola, im ehemaligen Herzogtum Warschau; † 17. Oktober 1849 in Paris) war ein polnischer Komponist, Pianist und Klavierpädagoge. Bis heute gilt er als einer der einflussreichsten und populärsten Pianisten und Komponisten von Klaviermusik. Als Sohn eines Franzosen und einer Polin in Warschau aufgewachsen, lebte er nach dem gescheiterten Novemberaufstand ab 1831 im Paris der Julimonarchie und der Zweiten Französischen Republik. Chopin zählt zu den bedeutendsten Persönlichkeiten in der Musikgeschichte Polens. Der Internationale Chopin-Wettbewerb, die Fryderyk-Chopin-Musikuniversität in Warschau, die Baltische Fryderyk-Chopin-Philharmonie in Danzig und der Internationale Chopin-Flughafen Warschau tragen seinen Namen. Familie. Seit der Kindheit war der im selben Jahr geborene Julian Fontana ein enger Freund. Bis zu seiner Emigration in die Vereinigten Staaten (1841) war er für Chopin als Kopist, Arrangeur, Sekretär und Impresario tätig. Nach Chopins Tod veröffentlichte er einige nachgelassene Werke. Geburt und Taufe. Chopins Geburtshaus, heute ein Museum Lateinischer Eintrag im Kirchenbuch über die Taufe Chopins am 23. April 1810 Chopin kam in Żelazowa Wola zur Welt, einem Dorf „in der Gemeinde Brochów, Bezirk Sochaczew, Departement Warschau“ im Herzogtum Warschau. 52 Kilometer westlich von Warschau gelegen, war dieses Dorf seit 1800 im Besitz der Landadelsfamilie Skarbek. Geburt und Taufe Chopins wurden zu Ostern 1810 (23. April) in Brochów registriert, zwei Monate nach der Geburt. Die Einträge wurden erst 43 Jahre nach Chopins Tod entdeckt (1892). Die polnischsprachige Geburtsurkunde verzeichnet Chopin als "Fryderyk Franciszek". Mit der eigenhändigen Unterschrift des Vaters bestätigt sie den 22. Februar 1810 als Geburtstag. Getauft wurde er in der Wehrkirche von Brochów. Der lateinische Eintrag im Kirchenbuch ("Liber baptisatorum") vermerkt als Namen "Fridericus Franciscus" und als Geburtsdatum ebenfalls den 22. Februar 1810. Eingetragen sind Chopins Vater als "Nicolai Choppen Gali" (= Galli, Gallier, Franzose), seine Mutter als "Justyna de Krzyżanowska" sowie "Franciscus Grembecki" und "Anna Skarbkówna" als Taufpaten. Obwohl Franciszek Grembecki der offizielle Pate war, trug Chopin Frederik Skarbeks Vornamen als Rufnamen. In einigen Briefen erwähnt er Frederik Skarbek als „Paten“; aber der war 1810 Student in Paris. Franciszek, der zweite Vorname, war auch ein Vorname (François) des Großvaters Nicolas. Chopins Unterschrift war immer "F.F. Chopin". Dieser Vermerk im Taufeintrag („getauft aus Wasser“) bedeutet, dass vor der zeremoniellen Taufe eine Nottaufe stattgefunden hatte, wahrscheinlich bei den Chopins in Żelazowa Wola; aber sie wurde nicht registriert. Auch die Schwester Emilia wurde am 15. Dezember 1812 notgetauft und am 14. Juni 1815 „mit Zeremonien“ getauft. Die beiden Urkunden geben als Geburtsdatum den 22. Februar 1810 an; aber nach Chopins eigener Angabe – lange vor der Entdeckung der Geburtsurkunde – ist sein Geburtstag der 1. März 1810. So schreibt er im Januar 1833 dem Präsidenten der Polnischen Literarischen Gesellschaft in Paris, dass er am 1. März 1810 geboren wurde. Auch gegenüber Fétis, dem Verfasser der "Biographie universelle des musiciens" macht er brieflich im März 1836 die gleiche Angabe. Die letzten Biographien übernehmen dieses Datum und betrachten den „22. Februar“ als Irrtum von Nicolas Chopin am 23. April 1810. In den älteren Biographien (vor der Entdeckung der Einträge) findet man andere Daten. Erwähnt sei noch, dass auch Chopins Mutter den 1. März als Geburtstag angab. (Brief vom Februar 1837). In der Familie wurde Chopins Geburtstag immer am 1. März gefeiert. Drei Gedenkstätten verzeichnen den 22. Februar als Geburtstag: die Gedenktafel am Geburtshaus in Żelazowa Wola, die Tafel am Sterbehaus in Paris (Place Vendôme 12) und die Urne mit Chopins Herz in der Heiligkreuzkirche in Warschau. Die frühen Jahre. Chopin und seine drei Schwestern erhielten eine gründliche Erziehung, die von Herzlichkeit und Toleranz geprägt war. Der Tradition zufolge war es Aufgabe der Mutter sowie der Schwester Ludwika, den Jungen an das Klavier heranzuführen. Chopins musikalisches Talent zeigte sich früh, er galt als Wunderkind und komponierte schon im Alter von sieben Jahren. Seine ersten Polonaisen B-Dur und g-Moll sind auf 1817 datiert und ließen eine außergewöhnliche improvisatorische Begabung erkennen. Sein einziger Lehrer war in den Jahren von 1816 bis 1822 der tschechische Pianist und Violinist Vojtěch Živný. 1818 wurde der österreichische Hofkomponist Adalbert Gyrowetz auf Chopin aufmerksam. Er führte ihn in die Kreise des österreichischen und polnischen Adels ein. 1818 spielte der Achtjährige anlässlich einer Wohltätigkeitsveranstaltung ein Konzert von Gyrowetz; ab dann trat er in den Salons des polnischen Hochadels auf. Seit 1822 nahm Chopin Privatunterricht in Musiktheorie und Komposition bei Joseph Elsner. Ein Jahr später spielte er öffentlich ein Konzert von Ferdinand Ries. Chopin besuchte bis 1826 das "Königlich-Preußische Lyzäum zu Warschau" und studierte anschließend am Konservatorium zunächst Kontrapunkt, dann auch Musiktheorie, Generalbass und Komposition bei Elsner. Nebenher besuchte er Vorlesungen an der Universität. Er komponierte eifrig und legte die Ergebnisse Elsner vor, der dazu feststellte: „Er meidet die ausgetretenen Pfade und gewöhnlichen Methoden, aber auch sein Talent ist ungewöhnlich.“ Chopins zweites veröffentlichtes Werk, die unter der Opus-Zahl 2 erschienenen Variationen über das Thema "Là ci darem la mano" aus der Mozart-Oper Don Giovanni, erregte wenige Jahre später Aufsehen in Deutschland. 1831 schrieb der Komponist Robert Schumann als Musikkritiker in der Leipziger "Allgemeinen Musikalischen Zeitung" unter dem Titel "Ein Werk II." mit dem Ausruf „Hut ab, Ihr Herren, ein Genie“ eine huldigende Rezension über dieses Werk Chopins. Im Juli 1829 beendete Chopin sein Studium. In Elsners Beurteilung heißt es: „Szopen Friderik. Szeczególna zdolność, geniusz muzyczny“ (Chopin Frédéric. Besondere Begabung, musikalisches Genie). Warschau, Wien und Paris. Chopin verließ Polen am 2. November 1830 zum ersten Mal für einen längeren Zeitraum und reiste mit seinem Freund Tytus Woyciechowski nach Wien. Wenige Tage nach der Ankunft brach im damaligen Kongresspolen der Novemberaufstand gegen die russische Herrschaft aus. Sein Vater riet ihm, vorerst im Ausland zu bleiben. Chopin reiste über Stuttgart nach Paris, wo er Ende September oder Anfang Oktober 1831, als völlig Unbekannter mit lediglich einigen Empfehlungsschreiben, ankam. „Die schönste aller Welten“. Die Baulichkeiten und das Ambiente der Stadt sowie das großstädtische Flair der "Parisiens" faszinierten ihn. „Die schönste aller Welten“, schrieb er in einem Brief nach Polen. Hier lernte er den von ihm als Pianisten verehrten Friedrich Kalkbrenner kennen, der ihm anbot, ihn drei Jahre lang zu unterrichten. Chopin lehnte dies ab, in der Sorge, seine persönliche Art des Klavierspiels zu verlieren. Selbstbewusst stellte er fest, nichts werde „imstande sein, einen vielleicht allzukühnen, aber edlen Willen und Plan, sich eine neue Welt zu schaffen, zu verwischen“. Chopins Briefen kann man entnehmen, dass er den Vermutungen seiner Freunde und seines Lehrers Elsner entgegentrat, Kalkbrenner habe es nur darauf abgesehen, sich damit zu schmücken, der Lehrer Chopins zu sein. In Paris finanzierte Chopin seinen Lebensunterhalt mit Konzerten. Zunächst deckten die Einnahmen gerade die Kosten, denn Chopin war noch nicht bekannt genug. Ein einflussreicher Förderer nahm ihn schließlich mit zu einem Empfang bei der Familie Rothschild. Sein Klavierspiel entzückte die Gäste so sehr, dass er bald eine Reihe von Klavierschülern – und vornehmlich Klavierschülerinnen – gewonnen hatte. Dadurch hatte Chopin ab 1833 ein geregeltes Einkommen, das er durch Honorare für Konzerte und Kompositionen zusätzlich aufstocken konnte. Er konnte sich nun eine private Kutsche und Bedienstete leisten und ließ seine Kleidung nur aus feinsten Stoffen fertigen. Sein aufwendiger Lebensstil verschlang so viel Geld, dass er sich bald genötigt sah, statt vier Stunden nun fünf Stunden täglich zu unterrichten. Zu Chopins Freundeskreis zählten u. a. die Dichter Alfred de Musset, Honoré de Balzac, Heinrich Heine und Adam Mickiewicz, der Maler Eugène Delacroix, die Musiker Franz Liszt, Ferdinand Hiller und Auguste Franchomme sowie die Schriftstellerin George Sand. Sie hatte er im Hause Franz Liszts kennengelernt, und seine erste Reaktion auf diese in Männerkleidung auftretende, Zigarren rauchende Frau war pure Ablehnung: „Was für eine unsympathische Frau sie doch ist! Ist sie denn wirklich eine Frau? Ich möchte es fast bezweifeln.“ 1835 machte er in Leipzig, vermittelt durch Felix Mendelssohn Bartholdy, Bekanntschaft mit Clara Wieck und Robert Schumann sowie 1836 mit Adolph von Henselt in Karlsbad. Die Zeit mit George Sand. Das Paar empfängt den Besucher, in überlebensgroßer Darstellung, in der Karthause zu Valldemossa Als Chopin 1837 wegen einer unglücklichen Liebe zu der damals 18-jährigen Maria Wodzińska in eine Lebenskrise geriet, war es die sechs Jahre ältere George Sand, die ihm sein seelisches Gleichgewicht wieder gab. Auf den ersten Blick scheint dies verwunderlich: Maria Wodzińska und George Sand hatten so gut wie nichts miteinander gemeinsam. Wodzińska war ein femininer Typ, wie man sich das von Töchtern aus gutem Hause wünschte, wohingegen die Schriftstellerin Sand sich als selbstbewusste, provozierende und antithetisch gebende Persönlichkeit darstellte. Aufgrund der Tatsache, dass Chopin sie beim ersten Kennenlernen vehement abgelehnt hatte, blieben bei dem Verhältnis der beiden zueinander als Liebesbeziehung viele Fragen offen. George Sand war eine leidenschaftliche Frau, der eine ganze Reihe zumeist jüngere Männer regelrecht verfielen. Ob das auch auf Chopin zutraf, lässt sich nicht beantworten. George Sand hat nachträglich zahlreiche an sie gerichtete Briefe vernichtet, so dass hierfür keine eindeutigen Belege überliefert sind. Ihre intime Beziehung dauerte zehn Jahre. In dieser Zeit hielt sich das Paar abwechselnd in Paris sowie auf George Sands Landsitz in Nohant, der heutigen Maison de George Sand, auf. Valldemossa. Im November 1838 übersiedelte George Sand mit ihren Kindern Maurice und Solange nach Mallorca. Der Entschluss beruhte auf ärztlichem Rat, denn man erwartete sich eine Verbesserung des Gesundheitszustands von Maurice, den eine rheumatische Erkrankung plagte. Da Chopin an Tuberkulose litt und sich eine Besserung durch ein milderes Klima erhoffte, schloss er sich der Familie an. Während Maurice sich erholte, stand für Chopin der Aufenthalt in der Kartause von Valldemossa in der Serra de Tramuntana unter keinem guten Stern. Die Räumlichkeiten waren zu kalt und feucht, und zum unleidlichen Wetter kam hinzu, dass die Mallorquiner gegenüber dem nicht verheirateten Paar sehr distanziert blieben. Gleich zu Anfang entwickelte Chopin alle Anzeichen einer Lungenentzündung, wie George Sand später schriftlich beklagte. Nach dreieinhalb Monaten verließen sie und Chopin die Insel am 13. Februar 1839. So kurz dieser Zeitraum im Verhältnis zu den übrigen Jahren erscheinen mag, sowohl Chopin als auch George Sand hatte dieses Ereignis stark mitgenommen. Aber anders als George Sand, die ihr vernichtendes Urteil über die Mallorquiner gleich in dem Roman "Ein Winter auf Mallorca" aufarbeitete, reagierte Chopin weniger nachtragend. Der gern zitierte Brief vom 3. Dezember 1838 über die ärztliche Kunst der Mallorquiner ist möglicherweise weniger boshaft gemeint als vielmehr Zeugnis seiner Selbstironie, derer Chopin sich oft bediente, um mit seiner chronischen Erkrankung fertig zu werden. Nach George Sand litt Chopin in jener Zeit oft unter Halluzinationen. Paris und Nohant. Nach der Rückkehr von Mallorca nahm Chopins Leben einen geregelten Ablauf an. Die Winter waren dem Unterrichten, den gesellschaftlichen Veranstaltungen, dem Kulturleben, den Salons und Chopins wenigen eigenen Auftritten gewidmet, die Sommer verbrachte das Paar bis einschließlich 1846 meist auf George Sands Landsitz Nohant. Dort fand Chopin Zeit und Ruhe fürs Komponieren. Er empfing Freunde und beschäftigte sich z. B. in Gesprächen mit Delacroix mit ästhetischen Fragen. Er studierte dort das Belcanto-Repertoire des 18. Jahrhunderts und Luigi Cherubinis "Cours de contrepoint et de fugue". Eine beeindruckende Anzahl von Werken entstand in dieser mit George Sand verbrachten Zeit. Ende der Beziehung. Die Beziehung zwischen Chopin und George Sand endete 1847. Der Grund hierfür ist nicht eindeutig geklärt. Weder Chopin noch George Sand haben zu ihrer Trennung Stellung bezogen. Bekannt ist, dass George Sand zu der Zeit sehr konfliktfreudig auftrat. Dass ihre Tochter Solange sich dem mittellosen Bildhauer Auguste Clésinger zugewandt hatte, war Auslöser für Familienstreitigkeiten, bei denen es zu Handgreiflichkeiten zwischen dem Sohn Maurice und Clésinger bzw. der dem Sohn beispringenden Mutter kam. Was im Einzelnen vorgefallen war, ist nicht gesichert, weil es hierüber von Seiten George Sands sowie Solanges unterschiedliche Versionen gibt. Chopin, von der Nachricht brüskiert, dass Solange sich heimlich verlobt hatte, erhielt gleichwohl seine Freundschaft zu ihr aufrecht, was für George Sand einen unglaublichen Affront darstellte. Tod. Im Laufe des Jahres 1847 verschlechterte sich Chopins Gesundheitszustand ernstlich. Chopins Schülerin Jane Stirling, die bis zum Zerwürfnis Chopins mit George Sand eher im Hintergrund für Chopin gewirkt hatte, nahm sich nach der Trennung des Paares der Anliegen Chopins an und versuchte dessen immer größer werdende materielle Not zu lindern. Am 16. Februar 1848 gab Chopin in den Salons Pleyel in der rue Cadet Nr. 9 sein letztes Konzert in Paris. Der Februarrevolution 1848 entging Chopin durch eine sieben Monate dauernde Reise nach Großbritannien, die Jane Stirling organisiert hatte. Zurück in Paris, nahm er seine Unterrichtstätigkeit wieder auf, was ihm wegen seiner nachlassenden Kräfte allerdings nur sehr unregelmäßig gelang. Chopin starb im Alter von 39 Jahren in seiner Wohnung an der Place Vendôme Nr. 12 im 1. Arrondissement (Paris), wahrscheinlich an Tuberkulose. Nach anderer Vermutung könnte auch Mukoviszidose Ursache gewesen sein. Zum Zeitpunkt seines Todes wachten enge Freunde, unter anderem auch George Sands Tochter "Solange Clésinger." an seinem Bett. Am darauffolgenden Morgen nahm Auguste Clésinger Chopin die Totenmaske ab und fertigte einen Abguss von dessen linker Hand an. Zu Chopins Totenmesse in der Kirche La Madeleine wurde, als der Sarg von der Krypta in die Oberkirche getragen wurde, eine Orchesterfassung des Trauermarsches aus seiner Klaviersonate in b-Moll op. 35 gespielt. Weiterhin erklangen, auf der Orgel gespielt, die Préludes in e-Moll und h-Moll aus op. 28. Den Abschluss bildete Mozarts Requiem, ein Wunsch Chopins. Die Bestattung erfolgte auf dem Père Lachaise. Auf seinen Wunsch wurde sein Herz in die polnische Heimat gebracht und Jahre später in der Heilig-Kreuz-Kirche (Warschau). in eine Säule eingemauert. Am 10. März 2011 veröffentlichte der Danziger Fotograf und Galerist Wladyslaw Zuchowski eine Daguerreotypie mit beigefügtem Schriftzug "Frédéric Chopin 1849", die er aus nicht genannter Quelle in Schottland erworben habe; sie sei mit "1849" und dem Namen des Fotografen Louis Auguste Bisson beschriftet und zeige anscheinend den toten Chopin auf dem Sterbebett. Die Authentizität der Aufnahme wurde bisher noch nicht bestätigt. Werke. Chopin hat fast nur Klaviermusik geschrieben. Seine wenigen Kunstlieder waren nicht für die Veröffentlichung bestimmt und erlangten keine Bedeutung. Hingegen hatte er einen Sinn für die Klangfarbe des Violoncellos. Ihm widmete er vier Werke: die "Introduction et polonaise brillante" op. 3, das Klaviertrio op. 8 und die "Sonate für Violoncello und Klavier" op. 65; mit Auguste-Joseph Franchomme schrieb er das "Grand Duo" über Themen aus Giacomo Meyerbeers Oper "Robert der Teufel" (ohne Werknummer). Schon Elsner hatte ihm die Oper nahegebracht. Der Freischütz begeisterte ihn. Mit Vincenzo Bellini befreundet, liebte Chopin vor allem die italienische Oper. Liedformen und singbare Melodien sowie die Verzierungskunst des Belcanto spielten auch von daher in seinen Instrumentalwerken eine große Rolle. Typisch für ihn wurde eine ausgeschmückte Melodik, die mit ihrer relativ freien rhythmischen Entfaltung deutlich vom Vokalen mitgeprägt worden ist. Die feingliedrigen Fiorituren und "Portamenti" seines Klaviersatzes sind dem Gesang abgelauscht. Chopin übernahm – und überhöhte – die brillante Virtuosenliteratur. Der Einfluss von Ignaz Moscheles, Friedrich Kalkbrenner, Carl Maria von Weber, Johann Nepomuk Hummel und (der ebenfalls von Elsner ausgebildeten) Maria Szymanowska ist nicht zu unterschätzen. Von Elsner in konzentrierter und akribischer Arbeit unterwiesen, feilte Chopin manchmal jahrelang an Kompositionsentwürfen. „Er […] wiederholte und änderte einen Takt hundertmal, schrieb ihn nieder und strich ihn ebensooft wieder aus, um am nächsten Tag seine Arbeit mit der gleichen minutiösen, verzweifelten Beharrlichkeit fortzusetzen.“ Zur singbaren Melodik und zum virtuosen Klaviersatz seiner Kompositionen kommt eine hochexpressive Harmonik, die souverän mit Chromatik, Enharmonik und alterierten Akkorden umgeht und ganz eigene Wirkungen hervorruft. Sein Lehrer Elsner bestärkte Chopin in der Hinwendung zu polnischen Volkstänzen und Volksliedern. Ihre Elemente finden sich nicht nur in den Polonaisen, Mazurkas und Krakowiaks, sondern auch in vielen anderen Werken ohne namentlichen Hinweis. Wie jeder Künstler musste Chopin auch ans Geld denken. Und das kam vom französischen Adel in den Pariser Salons. Chopins Leitbilder waren Johann Sebastian Bach und Wolfgang Amadeus Mozart. Balladen. Als Erster übertrug Chopin die epische Form der Ballade auf die Klaviermusik. Als neue Gattung kennzeichnet sie die Verknüpfung kontrastierender, erzählender Melodien nach musikalischer Gesetzmäßigkeit, die Sonatensatzformen nicht ausschließt. Dass Gedichte von Adam Mickiewicz und Juliusz Słowacki Chopin zu den vier Balladen angeregt haben, ist nicht erwiesen. Berceuse. Skizzenblatt und erste Seite des Manuskriptes der Berceuse Erhaltene Skizzen geben einen seltenen Einblick in Chopins Schaffensweise. Neben dem Basso ostinato kennzeichnet eine persönliche Besonderheit Chopins „Wiegenlied“ in Des-Dur op. 57 (1844): Etwa die Hälfte der Werke Chopins tragen Widmungen. Mit Ausnahme der Berceuse und eines Walzers hatte Chopin jeweils einem Menschen stets nur ein einziges Stück gewidmet. Die Berceuse und der Walzer sind "Mademoiselle Elise Gavard" gewidmet, 1842 ein neugeborenes Baby, das mit seiner Mutter, einer Freundin George Sands, und Chopin im Sommerurlaub in Nohant war. Da George Sand und ihre Freundin Verfechterinnen der Freien Liebe waren, wird vermutet, dass Elise Gavard möglicherweise Chopins Tochter war. Die kleine Elise Gavard ist der einzige Mensch, dem zwei Stücke Chopins gewidmet sind – darunter ihr eigenes Wiegenlied. Chopin spielte das luftig-zarte Stück bei all seinen (wenigen) öffentlichen Konzerten. Etüden. Die epochalen Etüden op. 10 (1833) und op. 25 (1837) sind die bei weitem bedeutendsten Werke Chopins. Kongeniale Nachschöpfungen sind die Studien über die Etüden von F. Chopin (Godowsky). Impromptus. Vergleich von Ignaz Moscheles, Impromptu op. 89, und Frédéric Chopin, Fantaisie-Impromptu op. 66 (posth.) Schuberts und Chopins Impromptus sind so wenig Stegreifstücke wie ihre Walzer „Tänze“. Als ausgearbeitete Kunstwerke gehören sie zu den unvergänglichen Werken beider Komponisten. Von Chopin bekannt wurde vor allem das Fantaisie-Impromptu. Es erschien erst 1855 posthum. Chopin hatte es um 1834 geschrieben, aber nicht zur Veröffentlichung freigegeben. Als Grund hierfür wird angenommen, er habe erst nach dem Entstehen des Stücks erkannt, dass das Hauptthema des ersten Teiles eine große Ähnlichkeit mit dem Thema des Vivace aus dem Impromptu op. 89 von Ignaz Moscheles aufwies. Dem Vorwurf des Plagiats wollte sich Chopin nicht aussetzen. Vor allem der Mittelteil in Des-Dur wird oft das Opfer der sentimentalen Darstellungsweise mancher Pianisten. Musikalisch und pianistisch reicher sind die Impromptus Fis-Dur op. 36 (1840) und Ges-dur Op. 51 (1843). Das streckenweise zweistimmige Impromptu As-Dur op. 29 (1837/38) mit seinem reich verzierten f-Moll-Mittelteil bleibt im Rahmen virtuoser Salonmusik. Nocturnes. Eine andere von Chopin weiterentwickelte Werkgruppe sind die 21 Nocturnes. Er baut mit ihnen auf den Nocturnes des Iren John Field auf, der großen Einfluss auf ihn hatte. Chopins Werke weisen dabei einen größeren harmonischen Gehalt, abwechslungsreichere Rhythmik und eine geschmeidigere Melodik auf. Die Melodien orientieren sich deutlich am Stil des Belcanto Gioachino Rossinis und Vincenzo Bellinis. Ab Opus 27 veröffentlichte Chopin die Nocturnes durchweg paarweise. Sie sind miteinander durch ihren antithetischen Charakter verbunden. Préludes. Die 24 Préludes op. 28 entstanden 1839 und früher. Chopin widmete ihre deutsche Ausgabe seinem Freund August Alexander Klengel. Der Organist am Sächsischen Hof hatte ihn auf diese Idee gebracht. Wie Das Wohltemperierte Klavier durchlaufen die Préludes alle Dur- und Moll-Tonarten, aber nicht in chromatischer Reihenfolge, sondern im Quintenzirkel. Sie sind nicht nacheinander entstanden, sondern (auf Mallorca) nach langem Erproben nachträglich in den Ablauf der Quintenfolge gebracht worden. Erstaunlich an diesen „Adlern ohne Flügel“ ist, dass der "„rein mechanischen Ordnung eine geistige, stimmungsmäßige entspricht: die 24 Stücke kann man hintereinander spielen, als habe man ein geschlossenes Gesamtwerk vor sich“". Tänze. Als Pole hat Chopin – wie seine Landsleute Karol Kurpiński und Maria Szymanowska – den heimatlichen Tänzen Polonaise und Mazurka ein Denkmal gesetzt. Als Charakterstücke sind sie wie die Walzer natürlich nicht zum Tanzen geeignet. Sie sind – wie bei einigen anderen Komponisten seiner und späterer Zeit – vielmehr stilisierte und poetisierte Tänze für den konzertanten Vortrag. An Tanz erinnern nur noch Takt und Rhythmus. Bolero. Das konzertante Opus 19 ist ein Bolero (Musikstil). Krakowiak. Das Konzertrondo für Klavier und Orchester op. 14 in F-Dur (1831–1833) und der Schlusssatz des e-Moll-Konzerts sind Krakowiaks. Mazurkas. Die Mazurka war, anders als die Polonaise, Anfang des 19. Jahrhunderts eine recht neue Gattung der Klaviermusik, die sich aber schnell in ganz Europa etablierte. Chopin kannte sie als Folklore – "Masur", "Kujawiak" und "Oberek" – von seinen Sommeraufenthalten auf dem polnischen Land. Mit 15 Jahren schrieb er seine erste Mazurka (B-Dur K. 891–895). Stilistische Merkmale seiner Mazurkas sind Chromatik, modale Wendungen und zuweilen ein Bass mit Quint-Bordun. Chopin veröffentlichte 51 Mazurkas, mit Ausnahme der beiden letzten in dreizehn Zyklen (op. 6, 7, 17, 24, 30, 33, 41, 50, 56, 59, 63, 67, 68). In der Regel bildet das letzte Stück einen größeren Abschluss. Eine Mazurka ist auch Teil der fis-Moll-Polonaise. Polonaisen. Zunächst orientierte er sich an den Polonaisen Michał Ogińskis, Elsners, Johann Nepomuk Hummels und Carl Maria von Webers. Sein frühestes im Druck erhaltene Stück ist eine Polonaise in g-Moll (K. 889) von 1817. Einige Polonaisen ohne Opuszahl sind Jugendwerke, die er später nicht veröffentlichen wollte, weil sie ihm zu schlicht waren. Seine späteren, in Paris entstandenen Werke dieser Gattung machen sich von den Vorbildern frei. Die meisten von ihnen verfügen (ab op. 26 Nr.1) über eine kadenzierende Auftaktphrase, welche die Stücke formal gliedert. Walzer. Die überwiegend raschen Walzer sind Salonmusik. Deshalb ist es nicht verwunderlich, dass Chopin diese Stücke mit wenigen Ausnahmen in Dur-Tonarten setzte, stehen diese doch nach dem abendländischen Harmonieverständnis für eine freudvollere Stimmung als die Moll-Tonarten. Der sog. „Minutenwalzer“ (op. 64.1) ist "nicht" darauf angelegt, in einer Minute gespielt zu werden. Hastiger Vortrag verdirbt diese Miniatur. Föhr. Die Insel Föhr (friesisch "Feer", dänisch "Før") gehört zu den Nordfriesischen Inseln und zum Kreis Nordfriesland in Schleswig-Holstein. Föhr ist die größte und bevölkerungsreichste deutsche Insel ohne Landverbindung. Der Name Föhr und das friesische Pendant "Feer" sind vielfältig interpretiert worden. Die aktuelle etymologische Forschung geht davon aus, dass der Name Föhr einen maritimen Hintergrund hat. Eine weitere Deutung bezieht sich auf friesisch "feer" „unfruchtbar“. Geografie. Föhr liegt südöstlich von Sylt, östlich von Amrum und nördlich der Halligen. Sie ist die fünftgrößte deutsche Insel und zweitgrößte deutsche Nordseeinsel. Unter den deutschen Inseln ohne Straßen- oder Bahnverbindung zum Festland ist Föhr die flächenmäßig größte Insel mit der höchsten Bevölkerungszahl. Föhr wird „die grüne Insel” genannt, da sie durch ihre Lage im Windschatten von Amrum und Sylt vor den stürmischen Einflüssen der Nordsee relativ geschützt ist und sich daher die Vegetation gut entwickeln kann. Sie ist in Nord-Süd-Richtung bis zu 8,5 Kilometer breit und in Ost-West-Richtung 12,5 Kilometer lang und hat eine Fläche von 82,82 Quadratkilometern. Der Norden der Insel besteht aus Marschland, im Süden Föhrs befindet sich die höher gelegene Geest. Die höchste Erhebung liegt 13,2 Meter über Normalnull auf dem Geestrücken zwischen Nieblum und Midlum. Die Geest macht etwa zwei Fünftel der Gesamtfläche aus. Die meisten Ortschaften liegen dort. In der Marsch befinden sich zahlreiche Aussiedlerhöfe. Bis zur ersten Groten Mandränke 1362 war Föhr noch keine Insel, sondern Teil des Festlands. Mit der Nordsee war es durch tiefe Ströme verbunden. Südlich von Föhr verläuft heute die Norderaue; das Amrumtief liegt westlich, die Föhrer Ley östlich Föhrs. Föhr ist, wie auch die benachbarten Inseln, ein beliebtes Urlaubsziel. Vom Fährhafen Wyk zieht sich am Südrand bis etwa zur Mitte der Westküste ein 15 Kilometer langer Sandstrand. Nördlich und nordwestlich der Insel befindet sich die Schutzzone I des Nationalparks Schleswig-Holsteinisches Wattenmeer. Föhr gehört zum Kreis Nordfriesland und hat 8.593 Einwohner (Stand: 31. Dezember 2011). Im Südosten der Insel liegt als einzige Stadt der Hauptort Wyk (Fering: "bi a Wik"), der ein staatlich anerkanntes Nordseeheilbad ist. Die 16 Inseldörfer verteilen sich auf elf Gemeinden. Wyk und alle Föhrer Gemeinden gehören zum Amt Föhr-Amrum. Klima. Auf Föhr herrscht Seeklima. Die Durchschnittstemperaturen betragen im August zwischen 14 und 19 °C, im Januar und Februar zwischen −1 und 3 °C. Föhr hat rund 4,6 Sonnenstunden pro Tag. Monatlich gibt es im Mittel zehn Regentage. Die durchschnittliche Niederschlagsmenge liegt bei etwa 800 Millimetern. Auf Föhr herrscht aufgrund der salzhaltigen Luft und der relativ starken Winde Reizklima. Bis zum Mittelalter. Die höhergelegenen Geestkerne der nordfriesischen Inseln inmitten weiter Marschflächen lockten Menschen an, als zu Beginn der Jungsteinzeit der Wasserspiegel der Nordsee stieg. Auch auf Föhr zeugen Steingräber und zahlreiche Kleinfunde davon. Als die Friesen im 7. Jahrhundert das heutige Nordfriesland besiedelten, befanden sich archäologischen Funden zufolge ihre ersten Niederlassungen auf Föhr. Die zuvor wenig besiedelte Insel erlebte einen schnellen Bevölkerungszuwachs. Die recht große Anzahl skandinavischer Schmuckteile in Gräbern verraten, dass gleichzeitig enge Beziehungen zu Nordeuropa bestanden. Aus der Wikingerzeit sind mehrere Kreiswälle, darunter die sogenannte "Lembecksburg", erhalten. Das 1231 verfasste Erdbuch des dänischen Königs Waldemar berichtet von zwei Föhrer Harden, Westerharde, zu der Westerland Föhr und Amrum gehörten, und Osterland Föhr. 1368 wechselte die Westerharde unter dem Ritter Klaus Lembeck, Amtmann von Ripen, zu den Holsteiner Grafen über. Im Januar 1400 ergab sich die Harde Königin Margarethe I. und blieb beim Amt Ripen. Bis 1864 war die Westerharde Teil der königlichen Enklaven und dem Königreich Dänemark direkt unterstellt, während Osterland Föhr mit Wyk zum Herzogtum Schleswig gehörte, seit es in den 1420er Jahren vom König abgefallen war. Gemeinsam mit der Wiedingharde, der Bökingharde, Strand und Sylt schloss Osterlandföhr 1426 mit Herzog Heinrich IV. von Schleswig die Siebenhardenbeliebung, die besagte, dass sie ihre Rechtsautonomie behalten durften. Das Marschland im Norden der Insel wurde 1523 als 22 Hektar großer "Föhrer Marschkoog" eingedeicht. Föhr seit der Reformation. Von 1526 an wurde die Reformation evangelisch-lutherischer Konfession auf Föhr eingeführt, die 1530 abgeschlossen war. Mit dem Walfang brach für Föhr ein „goldenes“ Zeitalter an. Im 17. und 18. Jahrhundert wurden die holländischen und englischen Grönlandfahrer meistens mit Inselfriesen bemannt. Auf Föhr entstanden mehrere private Seefahrerschulen, in denen Pastoren und ehemalige Commandeure für geringe Gebühren im Winterhalbjahr Unterricht gaben. Ende des 18. Jahrhunderts lebten 1000 Seefahrer, darunter 150 Schiffsführer, auf der Insel. Noch heute sind kostbar ausgestattete Häuser der Commandeure in Nieblum und Süderende zu sehen. Die sogenannten „sprechenden Grabsteine“ auf den Friedhöfen der drei ältesten Föhrer Kirchen berichten ihre Lebensgeschichten. Doch mit dem Rückgang der Walbestände fuhren, wie überall in der Region, immer weniger Männer zur See. Die Bevölkerung wandte sich wieder der Landwirtschaft zu. Der Ort Wyk wurde im Jahr 1706 aus der Harde Osterlandföhr herausgelöst und erhielt den Status eines Fleckens. Strandleben in Wyk auf Föhr, Postkarte (um 1907) Ab 1842, als der dänische König Christian VIII. den Sommer auf Föhr verbrachte, kam die Insel als Kurort in Mode. Während des Deutsch-Dänischen Krieges 1864 war der dänische Seeoffizier Otto Christian Hammer in Wyk Befehlshaber einer dänischen Flottille auf den Nordfriesischen Inseln. Es gelang ihm zunächst erfolgreich, überlegenene preußisch-österreichischen Marineverbände abzuwehren. Im Laufe des Krieges wurde er jedoch in Wyk von dem preußischen Leutnant Ernst von Prittwitz und Gaffron gefangengenommen, dem Wyk auf Föhr daraufhin die Ehrenbürgerwürde verlieh. 1867 wurden nach der Auflösung der Harden die Ämter Westerlandföhr und Osterlandföhr gebildet. Bei der Volksabstimmung in Schleswig im Jahr 1920 stimmten die drei Gemeinden Goting, Utersum und Hedehusum auf Westerland Föhr als einzige Gemeinden in der sogenannten Zone II mehrheitlich für einen Wechsel zum Staatsgebiet von Dänemark. Jedoch sprach sich in der Zone II insgesamt eine deutliche Mehrheit für den Verbleib bei Deutschland aus. Da die drei Gemeinden nicht direkt an der Grenze zu Dänemark lagen, blieben sie bei Deutschland. 1970 wurden die Ämter Wester- und Osterlandföhr zum Amt Föhr-Land vereinigt. Zum 1. Januar 2007 wurde das Amt Föhr-Land mit der Stadt Wyk auf Föhr und dem Amt Amrum zum Amt Föhr-Amrum vereinigt. Sprache und Kultur. Auf Föhr wird von etwa 2.000 Einwohnern, insbesondere der Dörfer in Westerland Föhr, ein Dialekt der nordfriesischen Sprache gesprochen. Dieser Dialekt wird nach der Insel Fering genannt. Damit bilden die Fering-Sprecher die größte Gruppe von Sprechern der nordfriesischen Sprache. Auf Osterland Föhr, besonders in Nieblum, wird seit dem 19. Jahrhundert eher Niederdeutsch, in Wyk nach Gründung der Stadt vor allem Niederdeutsch und heute Hochdeutsch gesprochen. Der ehemalige eigene Wyker Dialekt des Nordfriesischen, das "Wyker Friesisch", ist ausgestorben. Darüber hinaus gibt es auf Föhr auch eine Dänisch sprechende Minderheit. Die Friesentracht wird von vielen Frauen, besonders in Westerland Föhr, zu besonderen Anlässen getragen. Auf Föhr werden verschiedene Volksbräuche gepflegt wie das Biikebrennen am 21. Februar und das "Tamsen" (auch "Thamsen", nach dem Apostel Thomas), bei dem an jedem 21. Dezember junge Leute im Scherz Dinge verstecken, die sich drehen können. In der Weihnachtszeit gibt es, wie auf anderen nordfriesischen Inseln auch, einen speziellen Weihnachtsbaum, Kenkenbuum genannt. Am Silvesterabend gehen verkleidete Föhrer von Haus zu Haus. Auf Fering heißt dieser Brauch "ütj tu kenknin", in Wyk "Rummelrotje" ("siehe auch": Hulken). In den Jahrhunderten, als viele Föhrer Männer Walfänger waren, verbrachten sie den Winter auf Föhr. Die ledigen Seefahrer trafen sich dann am Nachmittag im Halbdunkeln, auf Fering: "Hualewjonken". Heute ist das "Hualewjonken" ein gemütliches Beisammensein Gleichgesinnter. Mehrere Schriftsteller schrieben auf Fering, etwa die Wykerin Stine Andresen (1849–1927), deren Lyrik oft auf Föhr bezogen ist. Die Föhrerin Ellin Nickelsen schrieb in den 1980er Jahren die Erzählung "Jonk Bradlep" (deutsch: „Dunkle Hochzeit“). Alle drei Föhrer Museen haben kulturelle Schwerpunkte (siehe Sehenswürdigkeiten). Die international erfolgreiche Musikband Stanfour hat auf der Insel Föhr ihren Ursprung und unterhält dort ein eigenes Studio. Wirtschaft. Föhr ist vor allem vom Tourismus abhängig. Das Beherbergungsgewerbe wird durch zahlreiche Gewerbebetriebe mit Dienstleistungsfunktion wie Fahrradverleihstationen und Käsereien ergänzt. Daneben gibt es dort zahlreiche landwirtschaftliche Betriebe, die teilweise ebenfalls Unterkünfte bieten. Diese Diversifizierung wird durch Mittel aus dem ELER-Programm gefördert. Auf der Insel sind zahlreiche Handwerks- und Einzelhandelsbetriebe angesiedelt; im Wyker Hafen haben sechs Miesmuschelfischerboote und drei Krabbenkutter ihren Heimathafen. In Utersum befindet sich eine Rehabilitationsklinik, in Wyk das "Nordseesanatorium Marienhof" des Diakonie-Hilfswerkes Schleswig-Holstein. Bildung. Auf Föhr gibt es sechs Kindergärten, davon vier in Wyk sowie je einer in Süderende und Midlum. Einzige Schule mit gymnasialer Oberstufe für die Inseln Föhr und Amrum ist die „Eilun Feer Skuul – Gymnasium & Regionalschule Insel Föhr“ (deutsch: „Insel-Föhr-Schule“) in Wyk. Dort befinden sich außerdem eine Grundschule mit Förderzentrum und eine Dänische Schule, die als Gemeinschaftsschule bis zur achten Klasse führt. Eine weitere Grundschule gibt es in Süderende mit Außenstelle in Midlum. In Wyk befinden sich ferner eine Volkshochschule und eine Musikschule, die eine Bezirksstelle der Kreismusikschule Nordfriesland ist. Verkehr. Vom Fährhafen Wyk aus verkehren mehrmals am Tag unabhängig von der Tide Fähren zum Festlandshafen Dagebüll und nach Wittdün auf der Nachbarinsel Amrum. Betreiber der Fährlinie ist die Wyker Dampfschiffs-Reederei Föhr-Amrum GmbH (W.D.R.) mit Sitz in Wyk auf Föhr. Während der Sommersaison werden Ausflugsfahrten zu den Halligen Langeneß und Hooge sowie zur Insel Sylt (Hafen Hörnum) angeboten. Von Wyk aus bestehen Busverbindungen als Ringlinie mit oder gegen den Uhrzeigersinn in alle Dörfer der Insel Föhr. Die Insel ist über den Verkehrslandeplatz Wyk per Flugzeug zu erreichen. Von diesem Flugplatz aus starten wetterabhängig täglich mehrere Rundflüge über das Wattenmeer, die Nachbarinseln und das nordfriesische Festland. Kirchen. Auf der Insel befinden sich drei mittelalterliche, seit der Reformation evangelische Kirchen aus dem 12. und 13. Jahrhundert – in Wyk-Boldixum die Kirche St. Nicolai, in Nieblum die Kirche St. Johannis und in Süderende die Kirche St. Laurentii. Die dazugehörigen Friedhöfe enthalten ungewöhnliche Grabsteine, die ganze Lebensgeschichten erzählen und teilweise bebildert sind. Archäologie. Mehrere Hügelgräber zeugen von einer Besiedelung der Insel während der Bronzezeit. Heute lassen sich noch 17 dieser alten Grabmonumente besichtigen; sie liegen vor allem im Südwesten der Insel. Bei Borgsum befindet sich zudem die Lembecksburg, ein Ringwall aus der Zeit der Völkerwanderung mit 95 Metern Durchmesser und acht Metern Ringhöhe. Der Sage nach soll hier im Mittelalter der Ritter Klaus Lembeck als Statthalter des dänischen Königs residiert haben. Museen. In Wyk liegt das Friesenmuseum (eigentlich "Dr.-Carl-Häberlin-Museum"), das sich der Wahrung und Vermittlung friesischer Kulturgeschichte widmet, es wurde 1908 eröffnet. In Alkersum befindet sich das 2009 eröffnete Museum Kunst der Westküste, das in wechselnden Ausstellungen internationale klassische und zeitgenössische Kunst zum Thema „Meer und Küste“ präsentiert. Ein kleines Heimatmuseum in Oevenum widmete sich ab 1993 der Geschichte der Landwirtschaft und dem Leben auf der Insel, ist aber seit 2011 aus Altersgründen geschlossen. Die Sammlung ist jedoch erhalten. Windmühlen. Windmühle "Venti Amica" (Windes Freundin) von 1879 in Wyk auf Föhr Auf Föhr befinden sich des Weiteren fünf Windmühlen, davon zwei in Wyk (die Galerieholländerwindmühle "Venti Amica" von 1879 im Stadtgebiet und eine Bockwindmühle von der Hallig Langeneß im Außenbereich des Friesenmuseums), dazu jeweils eine in Wrixum ("Osterwindmühle", achtkantiger Erdholländer, 1850–1960 in Betrieb), Borgsum ("Borigsem", achtkantiger Galerieholländer von 1992 nach Brand des Vorgängerbaus) und Oldsum (achtkantiger Galerieholländer von 1901). Bis auf die Bockwindmühle und die Mühle in Wrixum (Museum und Restaurant) befinden sich die Mühlen in Privatbesitz. Vogelkojen. Sechs Vogelkojen findet man in der Marsch im Norden der Insel. Zu ihnen zählen die neue sowie die alte Oevenumer Vogelkoje, die zu Midlum gehörende Ackerumer Vogelkoje, die Borgsumer, die Oldsumer und die Boldixumer Vogelkoje. Letztere kann man besichtigen. Wattenmeer. Auch das gesamte Wattenmeer (als Nationalpark Schleswig-Holsteinisches Wattenmeer seit 2009 UNESCO-Weltnaturerbe) gilt als Sehenswürdigkeit. Vor allem das Vorland nördlich des Inseldeiches, aber auch die übrigen Wattflächen bieten Rast- und Futterplätze für viele Arten von Seevögeln. So findet man dort zahlreiche Austernfischer, Eiderenten und Brandgänse. Während des Vogelzuges fallen außerdem große Schwärme von Zugvögeln auf Föhr und den umliegenden Inseln ein. Gelegentlich, insbesondere nach schweren Winterstürmen, können Seehunde am Strand angetroffen werden. Der Südstrand der Insel zwischen Wyk und Utersum ist ein beliebter Badestrand. Von den Fremdenverkehrsämtern werden geführte Wattwanderungen, zum Beispiel zur Nachbarinsel Amrum, angeboten. Wyk auf Föhr. Als weitere Wyker Sehenswürdigkeiten gelten der Glockenturm (erbaut 1886) sowie die Seepromenade "Sandwall". Formale Sprache. Eine formale Sprache ist eine abstrakte Sprache, bei der im Unterschied zu konkreten Sprachen nicht die Kommunikation im Vordergrund steht, sondern die mathematische Verwendung. Beispielsweise sind die Programmiersprachen formale Sprachen. Eine formale Sprache besteht aus einer bestimmten Menge von Zeichenketten, die aus einem Zeichenvorrat zusammengesetzt werden können. Anwendung finden formale Sprachen in der Linguistik, der Logik und der theoretischen Informatik. Formale Sprachen eignen sich zur mathematisch präzisen Beschreibung im Umgang mit Zeichenketten. So können zum Beispiel Datenformate oder ganze Programmiersprachen spezifiziert werden. Zusammen mit einer formalen Semantik erhalten die definierten Zeichenketten eine mathematische Bedeutung. Bei einer Programmiersprache kann damit einer Programmieranweisung (als Teil der formalen Sprache) ein eindeutiges Maschinenverhalten (als Teil der Semantik) zugeordnet werden. Aufbauend auf formalen Sprachen können aber auch Logikkalküle definiert werden, mit denen man mathematische Schlüsse ziehen kann. In Verbindung mit formal definierten Programmiersprachen können Kalküle helfen, Programme auf ihre Korrektheit zu überprüfen. Definition. Eine formale Sprache formula_1 über einem Alphabet formula_2 ist eine Teilmenge der Kleeneschen Hülle des Alphabets: formula_3. Die aus einem gegebenen Alphabet formula_2 schlechthin bildbaren Wörter sind alle Wörter mit endlicher Länge (von 0 oder größer), deren jeder einzelne Buchstabe Element von formula_2 ist. Diese größtmögliche Wortmenge zum Alphabet formula_2 nennt man die Kleenesche Hülle des Alphabetes formula_2, formal kurz formula_8. Eine formale Sprache über einem Alphabet formula_2 ist also mathematisch gesehen eine bestimmte Teilmenge der Kleeneschen Hülle ihres Alphabets. Formale Sprachen können leer, endlich oder unendlich sein, maximal können sie die gesamte Kleenesche Hülle ihres Alphabetes umfassen. Sie können über eine mathematische Bedingung an ihre Wörter definiert sein: „Die Sprache … ist die Menge aller Wörter, für die gilt … ”. Die in der theoretischen Informatik auftretenden Sprachen sind jedoch meistens spezieller durch ein bestimmtes Ersetzungsverfahren definiert, von denen es verschiedene Typen gibt: Semi-Thue-Systeme, Chomsky-Grammatiken, Lindenmayer-Systeme u.a. Bei solchen Ersetzungsverfahren geht man etwa von einer spezifischen Start-Zeichenkette aus, die man durch rekursive Anwendung eines bestimmten Typs von Textsubstitutionen schrittweise zu Wortgebilden überführt, von denen dann ein bestimmter Teil als Wörter der mit dem Erzeugungsverfahren erzeugten Sprache gelten. Man redet hier auch von "generativen Grammatiken", weil die Wörter einer Sprache über solche Textsubstitutionen schrittweise "erzeugt" werden. Umgekehrt kann man Sprachen auch definieren als die Menge aller Wörter, aus denen ein vorgegebenes Wort oder eines von mehreren vorgegebenen Wörtern erzeugbar sind. Abgrenzung von natürlichen Sprachen. Mit Hilfe formaler Sprachen können auch natürliche Sprachen modelliert werden, vor allem deren Syntax. Beim Vergleich formaler Sprachen mit natürlichen Sprachen ist aber zu beachten, dass natürliche Sprachen oberhalb der elementaren "Laut-Zeichen" mindestens die zwei übereinander liegenden Hierarchieebenen des "Wortes" und des "Satzes" besitzen. Die Regeln für deren Aufbau trennt man gewöhnlich in Morphologie zum einen und in Syntax zum anderen. In formalen Sprachen dagegen liegt über dem elementaren Alphabet-Zeichen oft nur die eine Hierarchieebene des formalen "Wortes", man redet im Hinblick auf den Bau der Wörter formalsprachlich von Syntax. Wenn eine natürliche Sprache mittels einer formalen modelliert wird, dann werden also die Sätze der natürlichen Sprache in formalsprachlicher Betrachtung "Wörter" genannt. Außerdem haben Äußerungen in natürlicher Sprache eine natürliche Bedeutung, während die Bedeutung formaler Sprachen stets auf ebenfalls formalem Weg definiert werden muss. Operationen auf formalen Sprachen. Zwei Sprachen formula_25 über dem Alphabet formula_26 und formula_27 über dem Alphabet formula_28 sind banalerweise beide Sprachen auch über formula_29, also Mengen von Wörtern aus formula_30. Deshalb sind auch Sprachen über formula_29. Konkatenation. Da außerdem die Potenzmenge der Kleeneschen Hülle eines beliebigen Alphabets formula_2 (die gleich der Menge aller Sprachen ist, die aus formula_2 gebildet werden können) abgeschlossen bezüglich Konkatenation ist, bildet sie zusammen mit der Konkatenation als Operator und der Sprache des leeren Wortes als neutrales Element ein Monoid. Historisches. Als eine der ersten formalen Sprachen wird Gottlob Freges "Begriffsschrift" erachtet, eine wie Frege schrieb „Formelsprache des reinen Denkens“. Axel Thues im Jahre 1914 eingeführtes Semi-Thue-System, das verwendet werden kann, um Zeichenketten zu transformieren, hatte ebenfalls Einfluss auf die Entwicklung formaler Grammatiken. Zitat. Heinrich Scholz traf sich 1944 mit Konrad Zuse, der im Zuge seiner Doktorarbeit an seinem Plankalkül arbeitete. Im März 1945 sprach ihm Scholz für die Anwendung seines Logikkalküls seine Anerkennung aus. Farbe. Farbe ist eine individuelle visuelle Wahrnehmung, die durch Licht hervorgerufen wird. Die für den Menschen wahrnehmbaren Farbreize liegen im Bereich zwischen 380 nm und 780 nm des elektromagnetischen Spektrums. Die Farbwahrnehmung ist subjektiv durch die Beschaffenheit von Augen, Empfindlichkeit der Rezeptoren und den folgenden Wahrnehmungsapparat unterschieden. Andere optische Wahrnehmungen wie Struktur (Licht-Schatten-Wirkungen), Glanz oder Rauheit, sowie psychische Effekte und Phänomene des Sehsinns, wie Umstimmung oder Adaption, sind vom Farbbegriff zu unterscheiden. Wortsinn Farbe. In anderen Sprachen wird stärker zwischen dem Effekt Farbe („farbig“) und der Ursache für Farbe („färben“) unterschieden, so im Englischen ' und ', oder in den romanischen Sprachen (spanisch: ' und '). In diesem Artikel wird nicht das Entstehen von Farben erläutert und die ergänzenden Begriffe zur Farbe werden unter Grundfarbe behandelt. Wahrnehmung. Farbe ist das Wahrgenommene. Sie entsteht durch den visuellen Reiz in Farbrezeptoren als Antwort auf eine Farbvalenz, so wie der mechanische Reiz durch Druck oder Rauheit hervorgerufen wird. Farbe ist nicht die Eigenschaft des gesehenen Lichtes (Farbreiz), sie ist das subjektive Empfinden der physikalischen Ursache von elektromagnetischen Wellen zwischen 380 nm und 780 nm. Entsprechend der spektralen Farbvalenz (unterschiedliche Intensitäten im Licht) werden unterschiedliche Nervenreize ausgelöst, die unterschiedliche Qualitäten der Farbwahrnehmung bilden, so dass im Ergebnis unterschiedliche Farben wahrgenommen werden. Das optische Phänomen der Farbwahrnehmung ist ein Forschungsgebiet von umfassender Komplexität. Es sind physikalische (Spektrum), wahrnehmungsphysiologische (Farbreiz) und wahrnehmungspsychologische (Farbvalenz) sowie sprachlich-konventionelle Aspekte verflochten. Die visuelle Wahrnehmung des Menschen erfolgt durch Rezeptoren, die sich auf der Netzhaut befinden: Stäbchen für Hell-/Dunkel-Kontrast, die Zapfen (nicht Zäpfchen!) für die Farbwahrnehmung. Zapfen sind in drei Ausprägungen vorhanden, die ihr Empfindlichkeitsmaximum je in einem der Spektralbereiche „Rot“, „Grün“ und „Blau“ haben. Farbe lässt sich auf Grund der drei Sorten Farbrezeptoren beim Menschen als dreidimensionale Eigenschaft darstellen. Jede Kombination von Anregungen der drei Zapfenarten durch (Licht-)Strahlung, die auf die Netzhaut trifft, bewirkt einen spezifischen Farbeindruck. Somit sind auch Schwarz (keinerlei Erregung), Neutralgrau (gleiche Erregung) und Weiß (volle Erregung aller drei Zapfensorten) ebenfalls Farben, die klassifizierend als unbunte Farben benannt werden. Spektralfarben, wie sie bei der wellenlängenabhängigen Brechung weißen Lichts hinter einem Prisma auftreten, symbolisch dargestellt als Farbkreis der bunten Farben, enthalten nur einige Farbwahrnehmungen. Sichtbare Strahlung ist eine elektromagnetische Strahlung im Wellenlängenbereich von 380 nm bis 780 nm. Werden Farben durch Farbmittel auf Oberflächen ausgelöst, muss zwangsläufig eine Beleuchtungsquelle vorhanden sein. Durch räumliche Nähe bewirkte Kontraste nennt man Simultankontrast, den Nachfolgeeffekt von Gegenfarben Sukzessivkontrast. Mit dem Simultankontrast verwandt sind die farbigen Schatten: Bei einem mit mehreren verschiedenfarbigen Lichtquellen beleuchteten Gegenstand hat ein Teilschatten die Farbe der überlagerten nicht-abgeschirmten Lichtquellen. Zum Beispiel kann ein mit grünem Licht beleuchteter Gegenstand, bei relativ neutraler Hintergrundfarbe, einen rötlichen Schatten haben. Farbeindruck des Menschen. Innerhalb eines Oberbegriffes Farbe (Farbigkeit) ist Farbe auch Ausdruck für die Unterscheidungskriterien dieser Qualität. Gras hat die Farbe Grün, Blut hat die Farbe Rot, eine Zitrone hat die Farbe Gelb. Klares Glas ist farblos (ohne eigene Farbe). Diese Wahrnehmung einer Qualität eines visuellen Eindruckes entsteht vor der Benennung durch Worte. Worte beschreiben Eindrücke: Blau, Tiefblau, Blassblau, Himmelblau, Rotblau. Farbunterschiede kann man benennen und so kann man Wahrnehmungen austauschen. Neben dem Zeigen von materiellen Proben kann man deshalb auch durch Worte von und über Farben reden (sog. zweites Signalsystem). Dem liegt die konventionelle Übereinkunft zugrunde, von Generationen geprägt und in der Kindheit erlernt. Bei verschiedenen Menschen kann die individuelle Wahrnehmung (objektiv) gleich benannter Farben durchaus unterschiedlich sein. Diese Individualitäten gehen bis zum teilweisen oder vollständigen Ausfall von Rezeptoren, bis zur Farbenfehlsichtigkeit. Farbnamen dienen zum gemeinsamen Verständnis der Umwelt. Hinzu kommen weitere nichtverbale Konventionen: Rot ist an der Ampel oben und Grün ist bei der Ampel unten. Darüber hinaus beeinflussen die Farbwirkung und den Eindruck auch Farbstimmungen, die zeitliche und räumliche Vorwirkung, individuelle Erfahrung und Training der Wahrnehmung. (Liste von Farbnamen (Kategorie)) () Im Sinne von „Farbe“ im allgemeinen Sprachgebrauch bestehen Gruppenbezeichnungen für Klassen des Sinneseindrucks die beispielsweise als „Körperfarbe bei Tageslicht“ eine Objekteigenschaft beschreibt. Solche gebräuchliche, festgelegte Farbnamen finden sich unter Farbbegriffe. In allen Sprachen gibt es eine große Zahl nuancierender Wörter für einzelne Farben. Mitunter „fehlen“ in einer Sprache Farbnamen, die andere haben. Beispiele dafür sind das späte Auftreten von Orange oder Magenta im Deutschen. Die Wortbedeutungen unterliegen auch einem sozialen Wandel. Im Deutschen bedeutete braun im 17. Jahrhundert eher dunkelviolett bis dunkelblau, wie im Kirchenlied "Hernieder ist der Sonnen Schein / die braune Nacht bricht stark herein." Auch der Diskussionspunkt der blauen und grünen Töne, wie im asiatischen Bereich, führt zu Irritationen bei Übersetzungen. Es bestehen ferner Ansätze, die Verfügbarkeit von Bezeichnungen für spezifische Farben als Sprachuniversal in Form einer implikationalen Hierarchie auszudrücken. Demnach verfügen etwa alle Sprachen über eine Schwarz/Dunkel- und Weiß/Hell-Distinktion, wenn sie drei Farbtermini anbieten, weiterhin über eine Bezeichnung für Rot und so weiter. Es gibt gesonderte Farbnamen für bestimmte Einsatzzwecke, beispielsweise gilt blond nur für menschliches, falb dagegen nur für tierisches Haar. Die emotionale Wirkung von Farbnamen nutzt die Werbung für kommerzielle Produkte, da hier Verknüpfungen zu „ansprechenden“, allgemein bekannten Gegenständen oder Situationen nutzbar sind. Die Bezeichnung "Sahara" als Oberflächenfarbe von Autos steht symbolisch z. B. für Sehnsucht oder Weite, und "Ferrari-Rot" soll Gedanken an Leistung und Geschwindigkeit wecken. Zweifellos ist durch Kulturkreis, Psyche und Erziehung eine Symbolik der Farben vorhanden, was sich mitunter in Sprichwörter und Bewertungen ausdrückt. In diesem Sinne stehen Farbnamen auch für Gefühle und umgekehrt. Bedingt durch die Einflüsse der heutigen Umwelt kennen nach einer Studie aus den 2010er Jahren heute Vierjährige so viele Farbbezeichnungen wie vor 100 Jahren Achtjährige. Farbkoordinaten. Für die Farbdarstellung auf technischen Systemen existieren verschiedene nationale und internationale Standards und Quasi-Standards, beispielsweise die „Webfarben“ als Teil der vom World Wide Web Consortium herausgegebenen CSS-3-Spezifikation. Farbkataloge mit Farbdarstellungen bieten eine Verbindung zwischen Farbbezeichnungen und flächiger Farbdarstellung, wie das HKS-Farbsystem oder für den deutschsprachigen Raum der RAL-Farbkatalog. In Deutschland nicht so bedeutend, aber dennoch sehr gebräuchlich ist auch das Pantone-Farbsystem. Wie im Abschnitt Wahrnehmung beschrieben, kann eine Farbe als dreidimensionale Eigenschaft dargestellt werden. Daher werden technische Farbangaben meist als 3-Tupel in einem Farbraum angegeben; dementsprechend gibt es oft drei Grundfarben oder Primärfarben, auf denen der jeweilige Farbraum aufgebaut ist. Angaben solcher Farbkoordinaten, als Farbort, sind wenig anschaulich, für technische Anwendungen (beispielsweise Toleranzangaben in Verträgen) notwendig und unumgänglich. Nur so lässt sich „Farbe“ umrechnen und Farbmanagement wird erst möglich. Die Angabe von drei Farbkoordinaten allein besagt nichts, wenn nicht das zugehörige Farbsystem angegeben ist, um verständliche Aussagen zu machen. Speziell im Falle eines Gerätefarbraums, also für das spezielle (individuelle) Gerät, ist diese Beziehung zu beachten. Am gleichen Bildschirm sehen die drei Balken gleich aus, so scheint der Farbton (Rot,Grün,Blau)= für ein Purpur im RGB-System ausreichend definiert. Beim Betrachten des so erzeugten Farbreizes an verschiedenen (nebeneinander stehenden) Monitoren erscheinen die Balken allerdings unterschiedlich, insbesondere wenn die Monitore "unkalibriert" sind. Für die Prüfung des zur Betrachtung dieses Artikels genutzten Monitors und dessen Einstellung kann die unten angezeigte Grafik dienen. An LC-Bildschirmen wirkt oft sogar der Betrachtungswinkel verändernd auf den wahrgenommenen Farbeindruck. Lichtfarbe. Damit Farbe wahrgenommen werden kann, ist Licht nötig. Dieses entsteht durch Wärmebewegung von Molekülen bzw. Atomen oder durch Änderungen in den Energieniveaus der Elektronenhülle von Atomen. Körperfarben. Körperfarbe ist jene visuelle Wahrnehmung von Gegenständen, die durch spezifische Änderungen des remittierten Spektrums wegen Absorption stoffspezifischer Wellenlängen der optischen Strahlung oder durch Streuung von der Oberfläche reflektiert wird. In der Malerei wird der Begriff Gegenstandsfarbe genutzt und im Speziellen Falle Lokalfarbe als Gegensatz zu Gesamtton. Dabei kann auch durch die Struktur der Oberfläche eine physikalisch begründete Färbung (Strukturfarben), etwa die schillernden Flecken auf den Flügeln eines Schmetterlings, entstehen. Psychische Wirkung. Reizt Licht eines bestimmten Lichtspektrums das Auge, hat das außer der einfachen Sinnesempfindung (wie „kirschrot“, „himmelblau“) komplexere und farbspezifische psychische Wirkungen im Zentralnervensystem. Bei Menschen desselben Kulturkreises bestehen durch Tradition und Erziehung viele Gemeinsamkeiten, aber es bestehen auch individuelle Unterschiede. Solche seelischen Wirkungen der Farbwahrnehmung werden – intuitiv oder bewusst – für Effekte bei der künstlerischen Gestaltung sowie in der Mode- und Werbebranche genutzt. Dabei helfen psychologische Farbtests eine angestrebte Wirkung zu erreichen. Farbempfindung wirkt genauso wie andere Eindrücke auf die Psyche ein. Unübliche Färbung kann auch Details hervorheben oder verbergen und dadurch irritieren. Psychologischen Farbtests wie beispielsweise dem Lüscher-Farbtest wird zugeschrieben, von der Bevorzugung bestimmter Farben und Farbkombinationen auf die Persönlichkeit der Testperson schließen zu können. Allgemeiner sollen Farbtests auch Auskunft geben, wie Persönlichkeiten auf welche Farben reagieren. Psychische Farbwirkungen werden in vielen Kulturen angenommen, was sich in Sprichwörtern und Redewendungen niederschlägt. Erkenntnisse hiervon werden in der Werbung gezielt eingesetzt. Kalt oder warm. Durch die Erfahrung ergeben sich die einfachsten Beziehungen zu den Farben, wie dies für das Temperaturempfinden gilt. Diese Beziehung darf nicht mit der physikalisch definierten Farbtemperatur von Lichtquellen verwechselt werden. Zudem unterliegt sie individuellen und kulturellen Unterschieden der Farbwahrnehmung. So gilt Blau heute meist als kalte Farbe, wurde im Mittelalter aber als warm eingestuft und z.B. mit der Gottesmutter Maria assoziiert. Farbgruppen. Die Wirkungen und symbolischen Bedeutungen von Farben, auch bezogen auf verschiedene Kulturkreise, sind in den entsprechenden Artikeln zu den Farbtönen und Unbuntfarben zu finden. Das visuelle System. Farbvariation mit drei Koordinaten nach Gegenfarbentheorie Farbvariation nach Farbkreis mit Helligkeit und Sättigung Die Arbeitsweise des visuellen Systems im Zentralnervensystem und besonders im Gehirn im Zusammenspiel mit dem Gefühlszentrum ist noch unerforscht. Andererseits ist die Wahrnehmung unterschiedlicher Wellenlängen in den Zapfen und Stäbchen der Netzhaut nicht allein für die Entstehung des wahrgenommen Bildes verantwortlich. Der Sehvorgang von Farbe und Form eines Objektes ist auch dadurch geprägt, dass das Großhirn einen Sinneseindruck mit einer dazugehörenden Erinnerung verbindet. Die empfundene Farbe eines Objektes ist nicht immer mit der messtechnischen (da physikalischen) vergleichbar. Vielmehr ist das wahrgenommene Bild der momentan aufgenommenen Informationen überdeckt, vom Wissen zu diesem Objekt. In der Psychologie ist der Begriff "Gedächtnisfarben" eingebürgert, wenn es um Farbwahrnehmung geht. Objekte mit einem typischen Farbton werden also unter Rückgriff auf den im Gedächtnis gespeicherten prototypischen Farbton wahrgenommen. So werden Tomaten in einem intensiveren Rot wahrgenommen als es ihrer tatsächlichen Erscheinung entspricht. Eine Wiese erscheint selbst in der Dämmerung noch grün. Auch der blaue Himmel ist solch eine Ausbildung, für die Römer war der Himmel „licht“, im Sinne von hell. In der Farbmetrik kann diese Individualisierung zu Schwierigkeiten führen, da zwei Farben nicht zwangsläufig auch von verschiedenen Personen gleich wahrgenommen werden, wenn die Messung denselben L*a*b-Wert hat. Die CIE-Farbmetrik stützt sich schließlich auf Normalbeobachter mit der Statistik und der Licht- und Farbtechnik der 1920er Jahre. Die Wahrnehmung von Farben wirkt psychologisch auf zweierlei Art. Assoziationen und Gefühle infolge von Farbwahrnehmung, gehen in die Traditionen der Kultur im jeweiligen Volksbereich ein. Nach der „Empiristischen Theorie der Gefühlswirkung von Farben“ werden Farbgefühle individuell und implizit (unbewusst, nicht erinnerbar) gelernt: Das sind vor allem Gefühle, die der Mensch auf Grund ererbter Triebstruktur und Daseinsthematik ursprünglich gegenüber bestimmten überall vorkommenden „Universalobjekten“ oder „Universalsituationen“ entwickelt. Weil die Erfahrung und die Erziehung diesen gefühlsbesetzten Dinge eine (vom Kulturkreis) bestimmte Farbe beigibt, entwickelt der Mensch Gefühle schon dann, wenn er die Farbe allein wahrnimmt. Die Reaktion auf die Farbe ist sodann bereits eingeprägt: Rot alarmiert, auch wenn das vermeintlich dazugehörende Feuer fehlt und nur die Wand des Raumes grell rot gestrichen ist. Das entspricht dem erlernten bedingter Reflexe bei Pawlows Hunden durch klassische Konditionierung. Geschichte der Farben. Farbe ist eine auffällige Stoffeigenschaft. Bereits dem Steinzeitmenschen war diese visuelle Qualität bekannt, die allen Primaten eigen ist. Beleg für eine aktive Wahrnehmung sind die steinzeitlichen Höhlenzeichnungen, in denen Menschen die ›gesehene‹ Farbe der Natur in eigener Schöpfung mit andersartigen Farbstoffen reproduziert haben. Handwerkliche Tätigkeit erfordert die Nachbildung von Farbvorlagen, religiöse Ansichten zur Natur führten zu philosophischen Betrachtungen über diese Stoffeigenschaft und Lichterscheinungen. Erste Anmerkungen dieser Art finden sich im klassischen China, im alten Vorderasien und besonders dann in der Antike. Das glänzende Gelb des Materials Gold, der Substanz der Götter, der Abglanz der Sonne führten zum Wunsch dies nachzugestalten. Versuche der Metallhandwerker und philosophische Ansätze zur Stoffwandlung auf Basis der Theorien der Elemente förderten den Wunsch teure Pigmente anders und billiger in gleicher „Farbe“ herzustellen. Insbesondere das „schöne“, aber teure Gold gemäß seiner „sehbaren“ Eigenschaft – der Farbe – „nachzubauen“ wurde zur Grundlage und Triebkraft der Alchemie, der hermetischen Kunst. Theorien und Lehren zur Farbe entwickelten sich wie jede Art von Wissenschaft im Widerstreit. Für Demokrit waren rote Teilchen spitz und die grünen rund. Im deutschen Sprachraum wirkten am stärksten die Untersuchungen und Ansichten von Johann Wolfgang von Goethe, unterstützt durch Philipp Otto Runge in seiner Gegenansicht zu Isaac Newton. Zu nennen sind Hermann von Helmholtz, Ewald Hering, Wilhelm Ostwald und auch Johannes Itten oder Harald Küppers. Bei allen Aufgeführten ist auch der pädagogische Aspekt des „Ratgebens zur Farbanwendung“ vorhanden. Grundlage für Farben, im Sinne von Farbstoff, zur Farbgestaltung waren anfangs die Naturstoffe. Blau wurde aus sehr teurem (da seltenem) Lapislazuli-Pulver gewonnen. Der Blaufärbung von Stoffen diente die Küpe mit Indigo. Purpur aus dem Sekret der Purpurschnecke war der Farbstoff für Kaiser und Könige. Rot stammte aus der Cochenille-Schildlaus. Für Braun-, Gelb- und Rottöne wurden Erden eingesetzt. Stellvertretend sind Umbra und die Terra di Siena (Sienaerde) aus Italien zu nennen. Weiß wurde als Bleiweiß aus Blei gewonnen. Für Schwarz eignete sich Ruß als Pigment, für die schwierige Schwarzfärbung von Stoffen gab es ein besonderes Handwerk: die Zunft der Schwarzfärber. Gold hatte in der byzantinischen Malerei als Himmelsfarbe eine metaphysische Bedeutung. Im 19. Jahrhundert wurde die Farbpalette durch neue anorganische Farbstoffe und Pigmente erweitert. Berliner oder Preußisch Blau, Rinmanns Grün, Schweinfurter Grün. Durch Imitation seltener natürlicher Farbstoffe in großen Mengen, durch industrielle Verfahren oder neu geschaffene Innovationen wurden die Färbemöglichkeiten erweitert. Durch die organischen Anilin-Farben (Teerfarben) wurde die Anzahl der verfügbaren Färbemittel erheblich erweitert. Die natürlichen Pigmente und Farbstoffe konnten durch synthetische Farben den wachsenden Bedarf in Kunst und Wirtschaft ersetzt werden. Die alten Namen mit regionalen Bezügen blieben teilweise bis heute erhalten. Neapel-Gelb, Venezianer-Rot, Veroneser Grün sind Beispiele dafür. Im 20. Jahrhundert wurden durch Farbfotografie und Farbdruck die Möglichkeiten der Wiedergabe von Naturvorlagen über das „Farbvolumen“ von Gemälden oder künstlerischen Grafiken (Handkoloration) hinaus erweitert. So wurde nun auch nach den Gesetzen der farbexakten Wiedergabe geforscht. Die Entwicklung im Farbfernsehen und Digitalfotografie erlaubten wiederum verbesserte Farbwiedergaben der Naturfarben, aber die Sehgewohnheiten änderten sich ebenfalls und erforderten bessere Farbnachstellungen. Probleme bei der Umsetzung der Farben einer Vorlage vom Scanner zum Großformat für Reklamezwecke werden durch „Farbtraining“ in der Breite der Bevölkerung neu wahrgenommen. Durch die entstehenden höheren Ansprüche der Verbraucher an die Farbwiedergabe, die neuen technischen Möglichkeiten und die Forschungsergebnisse entwickelte sich die „Messung“ der physiologischen Größe Farbe zur Farbmetrik. Farbmodelle. Es wurden verschiedene Farbmodelle entwickelt, in denen Farben "quantitativ" (mit Hilfe von Zahlen) beschrieben sind, ohne dass notwendigerweise eine Verständlichkeit der Zahlentripel mit Empfindungen vorliegt. Die Angabe (L = 75, a = 5, b = 33) ruft nicht explizit eine Wahrnehmung einer Farbe hervor. Im Farbmodell wird jede enthaltene Farbe als Punkt innerhalb eines (oft) dreidimensionalen Farbraumes dargestellt – dessen maximaler Umfang sich nach der "Reinheit" der jeweiligen Grundkomponenten richtet. Die Modelle sind durch den Anwendungsfall bedingt und begrenzt, deren Farbraum sollte alle in der jeweiligen Technik möglichen Farben umfassen. Für den Fall, dass in einem Farb-Workflow unterschiedliche Techniken der Farbreproduktion verwendet werden, können diese nur bedingt ineinander umgerechnet werden. Teilweise sind nicht-lineare Beziehungen möglich, meist handelt es sich aber um Matrizen mit Stützstellen, zwischen denen dann linear interpoliert werden muss. Unterschiedliche Farbräume sind nicht deckungsgleich – die Farben können deshalb oft nur relativ zueinander, nicht jedoch absolut gleich reproduziert werden. Der wichtigste Fall ist die Abbildung des RGB-Farbraumes (Farben am Monitor designt) auf den CMYK-Farbraum der Druckfarben. Anders das CIE-Lab-Modell, das auf Untersuchungen der menschlichen Farbwahrnehmung basiert, so dass darin alle vom Menschen wahrnehmbaren Farben enthalten sind. Deshalb wird „Lab“ oft in der Farbreproduktion als Referenzfarbraum verwendet, über den die anderen Farbräume definiert werden. Übergänge zwischen Farbräumen. Da in Farbkatalogen meist Farbwerte im dreidimensionalen System beigefügt sind und Farbwerte der verschiedenen Modelle definiert sind, können diese ineinander umgerechnet werden. Wegen des jeweils unterschiedlichen Farbumfangs der zugeordneten Farbräume sind die Umrechnungsergebnisse besonders in Randbereichen nicht immer ausreichend. Um eine gute Näherung zu finden, bedient man sich der Farbnachstellung am jeweiligen Zielsubstrat. Mischen von Farben. Soll eine große Anzahl verschiedener Farben erzeugt werden, so wird die gewünschte Farbe meist aus einer geringen Anzahl Grundfarben gemischt. Oft genügen dazu die drei Grundfarben, die jedoch im realen Praxisfall (als Farbstoff oder auch Licht) meist nicht zur Verfügung stehen. Mischung von 8-bit basierten Farben (Java generiert) Spektral- und Mischfarben. Rechteckspektrum (Mittel-Optimalfarbe nach Ostwald) hier mit 40 nm Breite (550 bis 590 nm) Farbton, Helligkeit, bunte und unbunte Farben. Diese Unterscheidung ist begründet in der Farbwahrnehmung. Anzumerken bleibt, dass die Zapfen und Stäbchen entwicklungshistorisch auf die gleichen lichtreagierenden Ausgangszellen zurückgehen. Diese Entwicklung führte dazu, dass das Wahrnehmungsspektrum anderer Tierarten vom menschlichen abweicht. Bienen sind im Ultravioletten besser ausgerüstet, ihre Sehzellen nehmen kurzwelligere Strahlung (energiereichere Photonen) wahr als der Mensch. Bei Vögeln hat sich die Kontrastwahrnehmung zwischen roten Früchten und grünem Laub als wichtiger erwiesen. Für Fische ist die bessere Wahrnehmung von kurzwelliger Strahlung nötig, da langwelligere Anteile des Sonnenlichtes durch Wasser absorbiert werden. „Farbe“ ist auf das Sehen der Tiere nur im übertragenen Sinn des Wortes möglich. Die komplexe Natur des Phänomens Farbe ist schließlich auch Grundlage für unterschiedliche Abstraktionsebenen und scheinbar widersprüchlichen Aussagen. Ein Beispiel hierzu findet sich unter Purpurlinie. File. file ist ein traditionelles Unix-Kommando zur Erkennung des Typs oder MIME-Typs einer Datei. Geschichte. Die erste Version von "file" datiert zurück bis 1973, "Unix Research Version 4". System V beinhaltete schon eine wesentlich verbesserte Version von "file", seit dieser Version wurden die Informationen über die Dateitypen nicht mehr direkt in die Programmdatei kompiliert, sondern von einer externen Textdatei ("mime magic file") zur Laufzeit eingelesen. Die heutzutage verbreiteten Unix-Derivate, das heißt vor allem BSD und Linux, verwenden eine freie Open-Source-Implementierung, die von Ian Darwin neu geschrieben wurde. Diese Implementierung wurde 1989 von Geoff Collyer weiterentwickelt und erhielt seitdem verschiedenste Verbesserungen, unter anderem von berühmten Open-Source-Hackern wie Guy Harris, Chris Lowth und Eric Fischer. Der aktuelle Betreuer ist Christos Zoulas. Spezifikation. In zeitgemäßen Implementierungen von "file" werden in den Tests, in denen Teile der Datei eingelesen werden, Vergleiche mit einer Textdatenbank angestellt, die magische Zahlen enthält. Damit unterscheidet sich "file" von wesentlich primitiveren Dateityperkennungen, z. B. anhand Dateiendungen oder MIME-Typ-Angaben. In den meisten Implementierungen benutzt "file" eine Datenbank, mit der es die ersten Bytes einer Datei abgleicht. Diese Datenbank wird üblicherweise in einer sogenannten "magic"-Datei (engl., Magisch) gespeichert, welche typischerweise im Dateisystem unter /etc/magic, /usr/share/file/magic o. ä. gespeichert wird. Der Umfang dieser Datei ist meist ausschlaggebend für die Güte der "file"-Tests zur Bestimmung auch exotischer Dateitypen. Benutzung. "file" lässt sich, wie die meisten Unix-Kommandos, quasi intuitiv benutzen. Ein Aufruf läuft nach dem Schema Beispiele. Die folgenden Beispiele zeigen die typischen Ausgaben von "file", wenn man das Programm mit diversen Dateitypen aufruft. Die fiktiven Dateinamen sollen dabei dem eigenen Dateityp entsprechen. Das Doppelkreuz "#" soll andeuten, dass diese Zeile in einer Shell eingegeben werden muss. File Allocation Table. File Allocation Table (kurz FAT, für "Dateizuordnungstabelle") bezeichnet eine ursprünglich 1977 von Microsoft entwickelte weit verbreitete Familie von Dateisystemen, die zum Industriestandard erhoben wurde und bis heute auch über Betriebssystemgrenzen hinweg als fast universelles Austauschformat dient. Wesentliche Erweiterungen wurden auch von Seattle Computer Products, Compaq, Digital Research und Novell eingebracht. Als proprietäre Nachfolger entwickelte Microsoft NTFS und exFAT. Hintergrund. Das FAT-Dateisystem wurde ursprünglich 1977 in einer 8-bittigen Variante von Marc McDonald für Microsofts Standalone Disk BASIC-80 für 8080-Prozessoren entwickelt, 1978 auf einer DEC PDP-10 unter Zuhilfenahme eines 8086-Simulators für Standalone Disk BASIC-86 portiert, und 1979 für Microsofts Betriebssystem MDOS/MIDAS adaptiert. Ebenfalls 1979 wurde Standalone Disk BASIC-86 von Bob O'Rear auf eine von Seattle Computer Products (SCP) entwickelte S-100-Bus-Hardware-Plattform angepasst. Bei dieser Gelegenheit wurde Tim Paterson auf das Dateisystem aufmerksam, das er 1980 als konzeptionelle Grundlage seines 12-bittigen Dateisystems für SCPs Betriebssystem QDOS wählte, welches, umbenannt in 86-DOS, von Microsoft zunächst lizenziert, aufgekauft und daraufhin 1981 die Ausgangsbasis für MS-DOS und PC DOS 1.0 wurde. FAT12. Mit der 1980 erschienenen ersten Version von QDOS bzw. 86-DOS wurde FAT12 als Dateisystem für 8.0"- und 5.25"-Disketten eingeführt. Erst ab 86-DOS 0.42 von Februar 1981 wiesen die internen Ordnungsstrukturen jedoch ein Format auf, das dem späteren FAT12-Format in MS-DOS und PC DOS in allen wesentlichen Punkten glich. Aufgrund abweichender logischer Geometrien und der Tatsache, dass der BIOS Parameter Block (BPB) erst mit DOS 2 eingeführt wurde, können jedoch (mit Ausnahme von SCP MS-DOS 1.25) weder MS-DOS noch PC DOS auf unter 86-DOS formatierte Medien zugreifen. Anfangs wurden keine Unterverzeichnisse verwaltet. Das änderte sich mit MS-DOS Version 2.0. FAT12 wird nur auf Datenträgern bzw. Partitionen bis zu einer Größe von 16 MiB eingesetzt; es ist bis heute auf allen FAT-formatierten 3,5″-Disketten im Einsatz. FAT16. FAT16 ist ein Dateisystem, das 1983 zu "FAT12" dazukam. Durch die zunehmende Größe der eingesetzten Festplatten wurde eine Erweiterung des Adressraumes notwendig. Nun waren selbst mit 512-Byte-Clustern zumindest theoretisch insgesamt 32 MiB große Platten verwaltbar. Die ursprüngliche FAT16-Implementierung verwendete auf partitionierten Medien in der Regel (abhängig vom jeweiligen DOS-OEM) den Partitiontyp 04h und einen noch vergleichsweise kurzen BIOS Parameter Block (BPB) im Bootsektor. Dessen genauer Aufbau und Inhalt hing insbesondere bei DOS 2.x noch stark von der verwendeten DOS-Version ab, er enthielt jedoch in allen Fällen nur einen 16-Bit breiten Eintrag für die Sektorenanzahl, was die Größe von FAT16-Laufwerken auf 32 MiB bis 512 MiB beschränkte (je nach Betriebssystemversion). Mit OS/2 Release 1 wurde ein Enhanced BIOS Parameter Block (EBPB) eingeführt, erkennbar am Signaturbyte 28h (für DOS-BPB-Version 4.0) an Offset +26h. Mit Einführung von DOS 3.31 wurde dieser durch den nochmals erweiterten, heute allgemein für FAT12 und FAT16 verwendeten "Extended BIOS Parameter Block" (XBPB) mit Signatur 29h (für DOS-BPB-Version 4.1) an Offset +26h ersetzt. EBPB und XBPB zeichnen sich u. a. dadurch aus, dass der Eintrag für die Zahl der Sektoren auf 32 Bit Breite wuchs, womit erstmals FAT16-Laufwerke mit bis zu 2 GiB, später 4 GiB, möglich wurden, auch wenn die damaligen Betriebssysteme davon noch keinen Gebrauch machen konnten. Diese größere Variante von FAT16 wurde in Entwicklerkreisen „BigDOS“ genannt, daher stammt auch ihr offizieller Name "FAT16B." Da ältere Betriebssysteme mit diesem neuen Typ nicht arbeiten konnten, wurde für die Verwendung auf partitionierten Medien auch ein neuer Partitionstyp (06h) dafür definiert. Die alte FAT16-Variante wird zwar nach wie vor unterstützt, findet aber (bis auf die forcierte Erzeugung von sehr kleinen FAT16-Partitionen mit dem Partitionstyp 04h) in der Praxis keine Verwendung mehr, da spätestens seit DOS 5 bei der Erzeugung von FAT12- und FAT16-Partitionen gleichermaßen nur noch Bootsektoren mit XBPB geschrieben werden, um einige neue Betriebssystemfunktionen optimal zu unterstützen. Die Tatsache, dass es eigentlich zwei FAT16-Typen gibt, ist in der Allgemeinheit nicht mehr präsent, mehr noch, da "FAT12" fast nur noch für Disketten verwendet wird, wird heute "FAT" oft fälschlicherweise nur mit "FAT16" (und das auch nur in der beschriebenen "FAT16B"-Variante) gleichgesetzt, obwohl darunter eigentlich mehrere FAT12- und FAT16-Typen zu verstehen wären. Allerdings benötigt das Server-Betriebssystem Novell-NetWare bis zur Version 4.0 noch eine bis zu 16 MiB große „DOS“-Bootpartition, die (automatisch) mit FAT12 erzeugt wurde. Erfolgt der Zugriff über LBA, wird eine FAT16-Partition auch als "FAT16X" bezeichnet. FAT32. FAT32 ist ein von Microsoft entwickeltes Dateisystem, das im Sommer 1996 mit Windows 95B eingeführt wurde und die Vorgängerversion "FAT16" ergänzt. Partitionen kleiner als 512 MiB werden nach wie vor mit FAT16 erzeugt, von 512 MiB bis 2 GiB hat man die Wahl, ab 2 GiB wird FAT32 benutzt. Die Adressierung arbeitet mit 32 Bit, wovon 4 Bit reserviert sind, so dass 228 = 268.435.456 Cluster adressiert werden können. FAT32 kann außerdem mit allen Windows-Versionen seit Windows 95B sowie – anders als NTFS – problemlos auch mit FreeDOS und Enhanced DR-DOS verwendet werden. Da Windows je nach Version von Haus aus nur wenige Dateisysteme unterstützt, wird FAT32 trotz seiner Beschränkungen zum Datenaustausch sowohl mit anderen Windows-Systemen als auch mit Nicht-Windows-Systemen (z. B. OS X, Linux) eingesetzt, z. B. auf USB-Speichersticks und mobilen Festplatten. Spielekonsolen wie beispielsweise die PlayStation 3 oder digitale Satellitenreceiver setzen bei extern angeschlossenen Festplatten häufig FAT32 als Dateisystem voraus. Ein Nachteil eines standardkonformen FAT32-Dateisystems ist, dass nur Dateien erstellt werden können, die kleiner als 4 GiB sind. Mit der rückwärtskompatiblen Erweiterung FAT32+ sind zwar auch Dateien bis zu 256 GiB möglich, diese Erweiterung wird aber nur von wenigen Systemen unterstützt. Da bis zu einer Partitionsgröße von 8 GiB ein Cluster nur 4 KiB groß ist (bei der Standardformatierung), werden diese „kleinen und alten“ Platten verhältnismäßig besser ausgenutzt als mit FAT16, wo ein Cluster bis zu 32 KiB belegt (unter Windows NT oder Windows 2000 FAT16-Clustergröße maximal 64 KiB). Erfolgt der Zugriff über LBA, wird eine FAT32-Partition auch als FAT32X bezeichnet. Da auch in aktuellen Windows-Installationen FAT32 und NTFS koexistieren können, ist zu beachten, dass bei der Übertragung von Dateien von NTFS auf FAT32 sowohl NTFS-Streams als auch die Berechtigungen verloren gehen, was je nach Anwendungszweck sinnvoll oder störend sein kann. VFAT. VFAT ("Virtual File Allocation Table") ist eine Erweiterung des FAT-Formats, die auf FAT12, FAT16 und seit dessen Einführung im Jahr 1997 auch auf FAT32 angewendet werden kann. Gelegentlich wird im Sprachgebrauch auch fälschlich "VFAT" mit "FAT32" gleichgesetzt. Als Windows 95 veröffentlicht wurde, hatten die Festplatten in einem PC um die 400 MiB Kapazität. FAT16 verwaltet 216 = 65.536 Cluster. Selbst bei einer Clustergröße von 8.192 Byte sind 512 MiB adressierbar, bei 32.768 Byte Clustergröße sogar 2 GiB. Für damalige Verhältnisse war das ausreichend (Maximalgrößen siehe FAT16). Die Designer von Windows 95 hatten das Ziel, die Nutzung von langen Dateinamen zu ermöglichen, obwohl die auf MS-DOS aufbauenden Versionen das unter der NT-Serie dafür vorgesehene Nachfolge-Dateisystem NTFS nicht unterstützen. Das wird durch einen Trick im Layout des Dateisystems erreicht. Die Datei wird wie bisher als 8.3-Dateiname gespeichert, bei längeren Namen wird jedoch ein Alias in der Form xxxxxx~1.xxx verwendet, wobei die Nummer hochgezählt wird. Der lange Name wird dann über mehrere Verzeichniseinträge verteilt, die ältere Systeme als ungültig ansehen. Während bisher ein Eintrag auf eine Datei verwies, kann jetzt eine Datei mehrere Einträge mit je 32 Byte belegen. Das endgültige Format erlaubt bis zu 255 Zeichen lange Dateinamen (wobei der Name inklusive Speicherpfad bis zu 260 Zeichen enthalten kann) und nutzt Unicode als Zeichensatz mit der Kodierung UCS-2. In bisher von Microsoft-Systemen nicht genutzten Bereichen des Eintrages mit dem 8.3-Dateinamen werden nun auch das Erstelldatum und das Datum des letzten Zugriffes gespeichert. Auch um lange Dateinamen auf FAT12-Disketten einsetzen zu können, nutzt Windows die VFAT-Erweiterung. Mehrere zusätzliche Verzeichniseinträge liegen vor dem eigentlichen Verzeichniseintrag im FAT12-Format zur Speicherung des langen Dateinamens. Ältere Systeme (z. B. DOS) ignorieren diese Verzeichniseinträge in der Regel, da sie durch eine spezielle Kombination von Attributen markiert sind, u. a. als „Volume“ und „Hidden“. Allerdings kann es durch die Verwendung des „Volume“-Attributes zur Kennzeichnung derartiger Einträge dazu kommen, dass ältere MS-DOS (vor 7.1) im dir-Befehl solche Einträge als Volumenamen interpretieren, speziell wenn der tatsächliche Volumename im Verzeichnis nicht an erster Stelle steht oder ganz fehlt. Unterstützung in Betriebssystemen. "Windows for Workgroups 3.11" unterstützt "VFAT" optional, jedoch nur für Festplatten und ohne die Möglichkeit langer Dateinamen. "VFAT" wird in "Windows 95" und höher und in "Windows NT 3.5" und höher unterstützt. Unter Linux wird die "VFAT"-Erweiterung vollständig unterstützt. UMSDOS. In den frühen 1990er Jahren wurde von vielen "Linux"-Distributionen die UMSDOS-Erweiterung für "FAT16" eingesetzt, um "Linux" zu installieren, ohne das Festplattenlaufwerk neu partitionieren und formatieren zu müssen. "UMSDOS" fügt zu einem "FAT"-Dateisystem eine darüberliegende "UNIX"-kompatible Schicht hinzu. Diese verwaltet Dateien, die den Namen --linux-.--- tragen. Darin werden Benutzerrechte und auch lange Dateinamen gespeichert. In "Linux 2.6.11" wurde "UMSDOS" aus dem Kernel entfernt, da es nicht mehr weiterentwickelt wird. Es gibt als Ersatz ein "POSIX-Overlay"-Dateisystem, das "FUSE" verwendet und über einem normalen "FAT"-Dateisystem „eingeblendet“ werden kann. UVFAT. UVFAT existierte nur für eine kurze Zeit und hat die "VFAT"-Erweiterung zur Speicherung langer Dateinamen genutzt, während der "UMSDOS"-Mechanismus für die unter allen "FAT"-Versionen fehlenden Benutzerrechte verwendet wurde. So waren unter "Linux" angelegte lange Dateinamen auch unter modernen "Windows"-Versionen lesbar und umgekehrt. Die Entwicklung wurde bereits vor derjenigen der "UMSDOS"-Erweiterung wieder eingestellt. exFAT. exFAT ("Extended File Allocation Table") ist ein speziell für Flash-Speicher entwickeltes Dateisystem. Eingeführt wurde es 2006 mit Windows CE 6.0. exFAT wird dort eingesetzt, wo NTFS nur schwer oder gar nicht implementierbar ist. Windows 7 unterstützt exFat nativ, Windows Vista erst ab Service Pack 1. Für Windows XP ab SP2 hat Microsoft ein Aktualisierungspaket bereitgestellt und beschrieben. Ab Mac-OS-X-Version 10.6.5 wird exFAT auf Apple-Computern vollständig unterstützt. TFAT. TFAT ("Transaction-safe File Allocation Table") bietet insbesondere für mobile Geräte mit fest eingebautem Flash-Speicher Schutz vor Beschädigungen des Dateisystems, zum Beispiel wenn während einer Schreiboperation die Stromversorgung des Gerätes ausfällt. Hierzu wird die FAT doppelt geführt: einmal als FAT1 mit den aktuellen Dateizuordnungen und einmal als FAT0 mit dem letzten als konsistent bekannten Stand des Dateisystems. FAT0 wird erst nach erfolgreichem Abschluss einer Transaktion aktualisiert, indem FAT1 nach FAT0 kopiert wird. Eine Transaktion ist beispielsweise das Anlegen einer neuen Datei. Während des Ablaufs einer Transaktion werden Änderungen am Dateisystem in neu angelegten Clustern gespeichert, und FAT1 wird entsprechend angepasst. So kann im Fehlerfall eine unvollständig ausgeführte Transaktion durch Kopieren von FAT0 nach FAT1 rückgängig gemacht und das Dateisystem auf den Stand von vor Beginn der Transaktion zurückversetzt werden. Das rechnerische Limit für TFAT-Partitionen liegt bei einer Sektorgröße von 512 Byte bei bis zu 2 TiB. TFAT ist zwar explizit für nicht entfernbaren Speicher gedacht, kann jedoch auch mit Wechselspeichermedien verwendet werden. Allerdings kann es zu Problemen kommen, wenn ein TFAT-Medium in einem anderen Gerät ohne Unterstützung für TFAT verwendet wird. Prinzipiell ist es möglich, von dem Medium zu lesen, doch wird es hierbei wie ein normales FAT-Medium angesehen werden. Schreibvorgänge werden also nicht transaktionssicher geschrieben. Auch können mit TFAT erstellte Verzeichnisse nicht von FAT-Systemen gelöscht werden. TFAT wird üblicherweise nicht von Desktopsystemen unterstützt. Unterstützt wird es von Microsoft für Mobilgeräte seit Windows Mobile 6.5 und Windows CE ab Version 6.0. Aufbau. Alle Mehrbyte-Werte (16/32 Bit) sind im Little Endian gespeichert, d.h. niederwertigste Bytes zuerst. Bootsektor. Der Bootsektor enthält teilweise ausführbaren x86-Maschinencode, der das Betriebssystem laden soll. An anderen Stellen enthält er Informationen über das FAT-Dateisystem. Reservierte Sektoren. Zwischen Bootsektor und der ersten FAT können Sektoren reserviert werden, die vom Dateisystem nicht benutzt werden. Dieser Bereich kann von einem Bootmanager oder für betriebssystemspezifische Erweiterungen genutzt werden. Auf den meisten FAT12- oder FAT16-Dateisystemen existieren – außer dem Bootsektor – keine weiteren reservierten Sektoren. Die FAT folgt somit direkt im Anschluss an den Bootsektor. FAT32-Dateisysteme enthalten in der Regel noch einige Erweiterungen zum Bootsektor sowie eine komplette Sicherungskopie des Bootsektors und der Erweiterungen. FAT. Die Lage der belegten Cluster einer Datei können aus den Adressen der zugehörigen FAT-Einträge berechnet werden. Diese FAT-Einträge bilden eine einfach verkettete Liste. Wegen ihrer grundlegenden Bedeutung für das Dateisystem existieren in der Regel zwei Kopien der FAT, um bei Datenverlust noch immer eine funktionsfähige zweite FAT zu haben. Mit diversen Programmen ist so eine Datenwiederherstellung in vielen Fällen möglich. Auf Installationsdisketten oder mit Spezialprogrammen formatierten Medien findet man manchmal keine zweite FAT, wodurch der verfügbare Speicherplatz etwas größer wird. Theoretisch ist es auch möglich, ein Dateisystem mit mehr als zwei FAT-Kopien zu formatieren. Diese Dateisysteme können zwar in der Regel von jedem Betriebssystem gelesen werden, jedoch wird die dritte (und jede weitere FAT-Kopie) bei Schreibzugriffen meist nicht aktualisiert, so dass bei Beschädigung der ersten beiden FATs oft keine Reparatur unter Zuhilfenahme der weiteren Kopien möglich ist. Stammverzeichnis und Unterverzeichnisse. Das Stammverzeichnis (engl. "root directory"), auch Wurzelverzeichnis oder Hauptverzeichnis genannt, ist eine Tabelle von Verzeichniseinträgen. Jede Datei oder Unterverzeichnis wird in der Regel durch je einen Verzeichniseintrag repräsentiert. Die bei Windows 95 eingeführte Erweiterung um „lange Dateinamen“ benutzt jedoch ggf. mehrere Verzeichniseinträge pro Datei bzw. Verzeichnis, um die langen Dateinamen unterzubringen. Das Stammverzeichnis folgt bei FAT12 und FAT16 direkt der FAT und hat eine feste Größe und damit eine Maximalanzahl an Verzeichniseinträgen. Diese wird beim Formatieren des Dateisystems festgelegt und kann später – außer mit Spezialsoftware – nicht mehr geändert werden. Bei FAT32 hat das Stammverzeichnis eine variable Größe und kann an einer beliebigen Position des Datenbereichs beginnen. Je nach Medientyp gibt es unterschiedliche Vorgabegrößen für das Stammverzeichnis. Mit speziellen Formatierungsprogrammen lässt sich jedoch die Größe des Stammverzeichnisses frei wählen. So besitzen beispielsweise Installationsdisketten, die nur sehr wenige Archivdateien enthalten, oft ein minimales Stammverzeichnis, das nur einen Sektor groß ist und somit nur Platz für 16 Verzeichniseinträge bietet. Ein Verzeichniseintrag besteht aus 32 Bytes. Soll nun eine Datei gelesen werden, wird der zugehörige Verzeichniseintrag herausgesucht. Neben den Attributen kann hier nun der Startcluster selektiert werden. Die weiteren Cluster werden dann über die FAT herausgesucht. Am Ende terminiert die Weitersuche jener FAT-Tabelleneintrag, welcher den Wert FFFFFFh enthält. Ein Unterverzeichnis wird als normale Datei angelegt, außer dass der Eintrag im übergeordneten Verzeichnis mit dem entsprechenden Bit markiert ist. Der Aufbau der Einträge ist mit jenen des Hauptverzeichnisses identisch. Da die Cluster der Unterverzeichnisse über die FAT verknüpft werden, können sie beliebig wachsen und haben keine Begrenzung in der Zahl der verwaltbaren Dateien. Fessan. Die drei historischen Provinzen Libyens, mit dem Fessan im Südwesten (1952–1963) Sonnenuntergang über den Dünen von Wan Caza im Fessan Der Fessan (aus tamazight ⴼⴻⵣⵣⴰⵏ "Fezzan",) ist eine Landschaft in Libyen, die zur Sahara gehört. Er ist eine der drei historischen Großprovinzen Libyens und früheren Gouvernements, neben Tripolitanien im Norden und der Kyrenaika im Osten. Geographie. Der Fessan ist 551.170 km² groß (nach anderen Angaben 684.280 km²), bei einer Bevölkerung von 413.005 Einwohnern (Stand 2003). Im Westen wird er von Algerien, im Süden von Niger und vom Tschad begrenzt. Die bedeutendsten Orte sind Murzuk und Sabha. Letzteres ist das Verwaltungszentrum für den Fessan und hat in dieser Funktion Murzuk abgelöst. Weitere wichtige Orte sind Ghadames und Ghat. Das Land wird im Wesentlichen von Sand-, Kies- und Felswüsten bedeckt; es gibt jedoch bewohnte Oasen. Die libysche Regierung ist bemüht, die Region durch den Ausbau der Infrastruktur und die Einrichtung von Bewässerungsanlagen zu entwickeln. Die Gefahr der Versalzung der Böden ist dabei groß. Nach anderen Quellen wird Ghadamis (Nr. 18 auf der Karte) noch zum Fessan gerechnet. Geschichte. Früher (1943–1951) zählte auch Ghadamis noch zu Fessan Seit dem Altertum wird die Landschaft von Berbervölkern bewohnt. Mit dem 5. Jahrhundert v. Chr. wurden den Griechen die Garamanten bekannt. Zwar eroberten die Römer nicht den Fessan, doch unternahmen sie Expeditionen in die Sahara und haben wohl unter Maternus um 100 n. Chr. die Gebiete am Tschadsee erreicht. Mit dem Vordringen des Islam und der Einführung des Kamels kam es zu einem Aufschwung des Transsaharahandels, wobei sich Murzuk als bedeutendes Handelszentrum in Fessan etablierte. Nach der Einwanderung der arabischen Banu Sulaym kam es zu einer Vermischung der arabischen Bevölkerungsgruppen mit den Berbern. Nachdem im 13. Jahrhundert Fessan zeitweise der Herrschaft von Kanem-Bornu unterstanden hatte, geriet das Land im 16. Jahrhundert unter die lockere Oberherrschaft der Osmanen und der Qaramanli. Als Italien Libyen eroberte, unterwarf es 1930 die Stämme des Fessan. Seit 1951 bildet Fessan – gemeinsam mit Tripolitanien und der Kyrenaika – das unabhängige Libyen. Fructose. Fructose (oft auch "Fruktose", von ‚Frucht‘, veraltet "Lävulose", umgangssprachlich Fruchtzucker'") ist eine natürlich vorkommende chemische Verbindung mit der Summenformel C6H12O6. Fructose gehört als Monosaccharid ("Einfachzucker") zu den Kohlenhydraten. Sie kommt in mehreren isomeren (anomeren) Formen vor. In diesem Artikel betreffen die Angaben zur Physiologie allein die D-Fructose. L-Fructose besitzt physiologisch keine Bedeutung. Vorkommen. Fructose kommt in der Natur vor allem in Früchten wie Kernobst (Äpfel und Birnen zu je etwa 6 g/100 g), Beeren (beispielsweise Weintrauben 7,5 g/100 g), sowie in manchen exotischen Früchten (Granatapfel und Kaki) und im Honig (35,9–42,1 g/100 g) vor. Im Haushaltszucker (hergestellt aus Zuckerrüben oder Zuckerrohr) ist Fructose in gebundener Form enthalten: Rohr- oder Rübenzucker (Saccharose) ist ein Zweifachzucker, der aus je einem Molekül Glucose (Traubenzucker) und Fructose zusammengesetzt ist. Ein bedeutsamer Anteil bei der Zuckeraufnahme kommt aus industriell gefertigten Nahrungsmitteln, die mit Fructose angereicherten Sirup aus Maisstärke ("high-fructose corn syrup", HFCS) enthalten. Eigenschaften. Fructose ist eine farb- und geruchlose, leicht wasserlösliche, sehr süß schmeckende Verbindung, die prismen- oder nadelförmige, stark hygroskopische Kristalle bildet. Bei 60 % Luftfeuchtigkeit nimmt sie innerhalb einer Stunde 0,28 % Wasser auf, innerhalb von 9 Tagen 0,6 %. Das Monosaccharid ist optisch aktiv und kommt daher in zwei spiegelbildlichen Isomeren, den sogenannten "Enantiomeren" vor. Fructose gehört wegen ihrer sechs Kohlenstoffatome zur Gruppe der Hexosen und wegen der Ketogruppe zu den Ketosen (Ketohexosen). In kristalliner Form liegt sie als Sechsring ("Fructopyranose") vor, gebunden als Fünfring ("Fructofuranose"). Die α- und β-Anomere der jeweiligen Ringformen können in wässriger Lösung ineinander umgewandelt werden und stehen untereinander in einem Gleichgewicht. Bei 20 °C liegt in Wasser gelöste D-Fructose zu 76 % in der β-Pyranoseform, zu 4 % in der α-Furanoseform und zu 20 % in der β-Furanoseform vor. Industrielle Verwendung und Verdrängung. Aus ökonomischen und logistischen Gründen, d. h. günstige Transportmöglichkeiten in Tankwagen und die gegenüber gewöhnlichem Zucker (Kristall- / Tafel- / Haushaltszucker oder Saccharose) 20 % höhere Süßkraft, ist eine zunehmende Verdrängung anderer Süßstoffe durch Fructose zu beobachten. Physiologie. Im Darm wird Fructose von Menschen unterschiedlich gut, vor allem langsamer als Glucose, resorbiert. Dies liegt am passiven Transport durch spezielle Proteine, zum einen durch das so genannte GLUT5 (apikal, d. h. an der dem Darmlumen zugewandten Zelloberfläche), das der Fructose Zutritt zu den Darmzellen (Enterocyten) gewährt und zum anderen durch GLUT2 (basolateral, d. h. dem Blutkreislauf zugewandt), das der Fructose erlaubt, von den Darmzellen ins Blut zu gelangen. Glucose wird hingegen sekundär-aktiv (SGLT1, apikal), also unter Energieverbrauch, in die Zelle gepumpt. Dies geschieht reguliert über eine rückgekoppelte Hemmung. Im Gegensatz dazu fließt Fructose unreguliert ohne Energieaufwand entlang ihres Konzentrationsgradienten. Dies führt dazu, dass Fructose niemals vollständig aus der Nahrung aufgenommen wird. Vor allem bei Kleinkindern besteht daher die Gefahr, dass es bei zu hohen Fructosemengen in der Nahrung zu osmotischer Diarrhoe kommt. D-Fructose wird in Zellen der Leber durch das Enzym Ketohexokinase in D-Fructose-1-phosphat umgewandelt, so kann sie die Zelle nicht mehr verlassen. Der Vorrat an energiereichen Phosphaten wird durch die Ketohexokinase verbraucht: ATP → ADP → AMP und die AMP-Desaminase hochreguliert. Es fällt IMP an, das über den Purinabbau die Konzentration der Harnsäure ansteigen lässt. Fructose-1-phosphat zerfällt durch die Fructose-1-phosphat-Aldolase vermittelt in Glycerinaldehyd und Dihydroxyacetonphosphat. Nach Phosphorylierung kann Glycerinaldehyd (dann als Glycerinaldehyd-3-phosphat) in die Glykolyse eintreten. Bedeutsamer ist der Abfluss der Zerfallsprodukte in die Triglyceridsynthese. Triglyceride lagern sich als Depotfett an, aber auch als Fetttröpfchen zwischen den Myofibrillen der Muskulatur. Im Fettgewebe kann Fructose auch als Fructose-6-phosphat in die Glycolyse eintreten, wenn die Glykogenreserven erschöpft sind. Synthese. Polyolweg von Glucose (1) über Sorbit (2) zu Fructose (3) Im Körper wird Fructose über den sog. Polyolweg aus Glucose hergestellt (lokal beispielsweise in der Samenblase beim Mann als Nährstoff für die Spermatozoen), bei dem Glucose zusammen mit dem Cosubstrat NADPH zu Sorbitol reduziert wird, das dann durch die Sorbitoldehydrogenase zu Fructose oxidiert wird, wobei NAD+ zu NADH reduziert wird. Netto führt dies zu einer Umwandlung von NADPH zu NADH, was für einen Teil der Langzeitfolgen eines chronisch erhöhten Blutzuckerspiegels (z. B. bei Diabetes) verantwortlich gemacht wird, da NADPH von der Zelle auch zur Entgiftung gefährlicher Sauerstoffverbindungen benötigt wird, bei erhöhtem Glucosespiegel im Blut jedoch mehr Glucose über den Polyolweg zu Fructose umgewandelt wird, so dass mehr NADPH verbraucht wird. Zudem sammeln sich Fructose und Sorbitol in den Zellen an, was zum einen die Zelle osmotisch schädigt und zum anderen können bestimmte Zellenzyme durch hohe Konzentrationen dieser beiden Zucker gehemmt werden. Pathophysiologie. Beim Menschen führen Störungen der Fructose-Aufnahme im Darm oder des Fructose-Stoffwechsels in der Leber zu Krankheitssymptomen. Klinische Bedeutung haben die häufige Fructosemalabsorption (auch "intestinale Fructoseintoleranz" genannt), bei der ein gestörter Fruchtzucker-Transport durch die Darmzellen angenommen wird, und die seltene, aber zu ernsten Symptomen führende, hereditäre Fruktoseintoleranz ("HFI"), die durch eine erbliche Störung des Fructosestoffwechsels in der Leber bedingt ist, bei der Fructose nicht oder nicht in ausreichenden Mengen abgebaut werden kann. Geschätzte 30–40 % der Mitteleuropäer weisen die Fructosemalabsorption auf, wobei etwa die Hälfte Symptome zeigt. Die Störung tritt vorwiegend im Kindesalter auf. Nichtresorbierter Fruchtzucker wird von den Bakterien der Darmflora vorwiegend anaerob zu Kohlenstoffdioxid, Wasserstoff und kurzkettigen Fettsäuren abgebaut. Diese erzeugen Reizdarmsymptome wie Blähungen, Bauchschmerzen, breiigen, teils übelriechenden Stuhl und Durchfall. Die hereditäre Fruktoseintoleranz ist sehr viel seltener; auf etwa 130.000 gesunde Menschen kommt ein von der HFI Betroffener. Diese Form der Fructoseintoleranz bewirkt über eine Störung des Glucosestoffwechsels eine gefährliche Unterzuckerung (Hypoglykämie). Verwendung als Süßungsmittel. Lange Zeit wurde Fruchtzucker zum Süßen diätetischer Lebensmittel empfohlen. Bezogen auf Haushaltszucker hat eine 10-prozentige D-Fructoselösung eine Süßkraft von 114 Prozent. Der Blutzucker steigt bei Zufuhr von Fruchtzucker deutlich langsamer an als bei Haushaltszucker. Das Bundesinstitut für Risikobewertung (BfR) kam jedoch bei der Auswertung vorliegender Studien zum Schluss, dass die Verwendung von Fructose als Zuckeraustauschstoff in Diabetiker-Lebensmitteln nicht sinnvoll ist, da sich eine erhöhte Fructoseaufnahme ungünstig auf den Stoffwechsel auswirke und die Entwicklung von Fettleibigkeit sowie des metabolischen Syndroms begünstigt werde. Außerdem kann die erhöhte Zufuhr von Fructose das Risiko für Bluthochdruck steigern. Genese von Adipositas (Fettleibigkeit). Nach einer Studie des Deutschen Instituts für Ernährungsforschung, die an Mäusen durchgeführt wurde, besteht ein Zusammenhang zwischen Fructosekonsum und Übergewicht, der nicht auf einer erhöhten Energieaufnahme beruht, sondern auf einer Beeinflussung des Fett- und Kohlenhydratstoffwechsels. In der Tat konnte auch in einer Untersuchung an Menschen gezeigt werden, dass Fructose vom Körper sehr viel schneller in Körperfett umgewandelt wird als Glucose. Darüber hinaus weisen die Ergebnisse dieser Studie darauf hin, dass eine Fructoseaufnahme die Lipogenese (Fettsynthese) stimuliert und die Einlagerung von Fetten aus der Nahrung steigert. Zudem scheint die Verwendung von Fructose zu einem geringeren Sättigungsgefühl zu führen, da diese keine Insulin-Ausschüttung induziert und Insulin auch zu den Sättigungshormonen gehört. Genese von Diabetes. In den USA stieg die kommerzielle Verwendung von Fructose in den 1970er-Jahren drastisch an - der Verzehr von "High Fructose Corn Syrup" (HFCS), einer besonders fructosereichen Version des Maissirups, stieg von 0,23 kg pro Person im Jahr 1970 auf 28,4 kg pro Person im Jahr 1997. HFCS wird in den USA vor allem in Softdrinks eingesetzt, wobei der Fructosegehalt auf bis zu 90 % (HFCS-90) gesteigert wird. Dieser Süßstoff ist für den Hersteller besonders kostengünstig, da in den USA die Maisproduktion subventioniert wird, wohingegen der Zuckerimport verzollt werden muss. Diese signifikante Änderung in der Zusammensetzung der Zuckerzusätze zu Lebensmitteln wurde vorgenommen, ohne dass die möglichen Wirkungen auf den menschlichen Stoffwechsel zuvor umfassend untersucht wurden. Nach einer Studie der Arbeitsgruppe um M. C. Moore der Vanderbilt University (Nashville, Tennessee) verbessern geringe Mengen Fructose sowohl bei gesunden Menschen als auch bei Patienten mit Diabetes mellitus Typ 2 die Glucose-Toleranz und die glykämische Antwort ohne gesteigerte Insulinsekretion. In einer weiteren Studie, in der Probanden 5 Wochen lang große Mengen Fruchtzucker zu sich nahmen, zeigte sich ein starker Anstieg von Cholesterin und Triglyceriden im Blut, allerdings nur bei den männlichen Testpersonen. Eine Ernährung, die mit Fructose angereichert ist, führt in Tierversuchen zu Insulinresistenz und Fettleibigkeit. Auch für Menschen konnte eine mit einer fructosereichen Diät einhergehende deutliche Abnahme der Insulinsensitivität nachgewiesen werden, und zwar wesentlich stärker als bei einer glukosereichen Diät. Der Anstieg des Konsums an Fructose wird aufgrund dieser Wirkung mit der Zunahme des metabolischen Syndroms, einem Risikofaktor für koronare Herzkrankheiten, in Zusammenhang gebracht. Genese von Leberzirrhose. Neuere Untersuchungen von Manal F. Abdelmalek und Kollegen deuten darüber hinaus darauf hin, dass nicht nur der übermäßige Konsum von alkoholischen, sondern auch der von fructosehaltigen Getränken, wie Limonaden und anderen gesüßten Softdrinks, zu Schädigungen der Leber bis hin zur Fettleber (Steatosis hepatis) mit einhergehender krankhafter Vermehrung des Bindegewebes (Fibrose) führen kann. Der in den letzten Jahren rapide ansteigende Fructosekonsum spielt somit nicht nur eine wichtige Rolle bei der Entstehung des metabolischen Syndroms, sondern stellt nach neueren Untersuchungen einen eigenständigen Risikofaktor für nicht-alkoholbedingte Fettlebererkrankungen ("nonalcoholic fatty liver disease") dar. Genese von Gicht. Verschiedene prospektive Studien mit jeweils mehreren tausend Probanden legen zudem den Verdacht nahe, dass der Konsum von Softdrinks und (damit einhergehend) Fructose sehr stark mit dem Risiko für Gicht (Urikopathie) assoziiert ist. Auch Fructose-reiche Früchte und Fruchtsäfte scheinen das Risiko zu erhöhen, an Gicht zu erkranken, während von Diät-Limonaden diesbezüglich keine Gefahr ausgeht. Deutsche Gesetzeslage. der Verordnung über diätetische Lebensmittel (sogenannte Diätverordnung) regelte einst die Zusammensetzung von speziellen Produkten für Diabetiker. Seit dem 1. Oktober 2010 ist dieser Artikel gestrichen, da der Forschungsstand zu Diabetikerdiäten und Zuckerersatzstoffen zeigt, dass diese Patienten keine derartigen Produkte benötigen, und dass ein erhöhter Fructosekonsum sogar schädliche Einflüsse auf die Gesundheit haben kann (siehe Text). Fruktose ist die gesetzlich geschützte Bezeichnung einer Zuckerart. Fehling-Probe. Als α-Hydroxyketon wirkt Fructose reduzierend, daneben kann sie im alkalischen Milieu in Mannose und Glucose umgewandelt werden (siehe Ketol-Endiol-Tautomerie), so dass ein Gleichgewicht zwischen all diesen Isomeren vorliegt. Seliwanow-Probe. Die Seliwanow-Reaktion ist ein Nachweis für Ketohexosen in der Furanose-Ringform. Da sie im sauren Milieu abläuft, kommt es nicht zur Ketol-Endiol-Tautomerie. Mit Glucose fällt die Probe deshalb negativ aus. Zunächst wird die Fructose mit Salzsäure erhitzt. Dadurch entsteht das 5-Hydroxymethylfurfural. Dieses reagiert dann mit Resorcin zu einem roten Niederschlag. Fixstern. Fixstern (von lateinisch "stellae fixae" „fest stehende Sterne“) ist eine aus der Antike stammende Bezeichnung für die scheinbar unverrückbar am Nachthimmel stehenden (also "fixen") und stets dieselbe Stellung zueinander einnehmenden "Sterne", die zusammen mit der Himmelssphäre den "Sternenhimmel" bilden. Durch ihre gegenseitigen Positionen, die freiäugig als unveränderlich erscheinen, bilden sie die uns bekannten Sternbilder und Konstellationen. Die beobachtbare scheinbare Bewegung dieser „Fixsterne“ im Verlaufe einer Nacht (oder eines Jahres) von Osten nach Westen über das von der Erde aus sichtbare Firmament entsteht durch die Erdrotation bzw. durch den Umlauf der Erde um die Sonne. Im antiken und mittelalterlichen Weltbild, das sich am Augenschein orientiert, drehen sich die Fixsterne und die Kugelschale des Himmelsgewölbes mit gleichförmiger Winkelgeschwindigkeit um die Weltachse. Der Radius dieser Kugelschale ist nach Ptolemäus (150 n. Chr.) gegenüber der Erde unfassbar groß, sodass die Richtung zu einem Fixstern von allen Punkten der Erdoberfläche als parallel gelten kann. Über die mögliche Entfernung der Fixsterne und ihre Natur ließ sich bis ins 18. Jahrhundert nur spekulieren. Gegensatz Fixstern – Wandelstern. Früher verstand man als Gegensatz zu den "Fixsternen" die "Wandelsterne" (wie z. B. Planeten oder Monde), die innerhalb kurzer Zeiträume ihre Position am Himmel merklich verändern. Ihre Entfernung musste wesentlich kleiner sein, insbesondere beim Erdmond, dessen genaue Stellung vor dem Sternhintergrund von der eigenen Position abhängt. Tatsächlich besitzen Fixsterne entgegen ihrem Namen ebenfalls eine Eigenbewegung, wie James Bradley 1728 erkannte. Die Bezeichnung "Fixsterne" ist deswegen aus heutiger Sicht unpräzise und wird zunehmend durch "Sterne" ersetzt. Als Überbegriff für Fix- und Wandelsterne oder sonstige helle Himmelskörper gilt nun "Gestirn". Bewegungen der Fixsterne. Mit bloßem Auge können am gesamten Himmel etwa 3.000 bis 6.000 Fixsterne wahrgenommen werden, davon aber nur rund die Hälfte "gleichzeitig" von einem irdischen Standort. Sie alle sind Sterne der Milchstraße und befinden sich in sehr unterschiedlichen Entfernungen von uns. Die meisten der heute geschätzten 100 Milliarden Sterne der Milchstraße sind jedoch mit bloßem Auge nicht sichtbar, da sie entweder zu lichtschwach, zu weit entfernt oder von anderen astronomischen Objekten verdeckt sind. Das dem Sonnensystem nächstgelegene Sternsystem ist das Alpha-Centauri-System, welches aus drei (Fix-)Sternen besteht, von denen Proxima Centauri der nächste ist. Froschlöffelgewächse. Die Froschlöffelgewächse (Alismataceae) sind eine Familie in der Ordnung der Froschlöffelartigen (Alismatales) innerhalb der Bedecktsamigen Pflanzen (Magnoliopsida). Die bis zu 100 Arten gedeihen an nassen Standorten oder im Wasser. Vegetative Merkmale. Die Vertreter der Froschlöffelgewächse sind selten einjährige oder meist ausdauernde krautige Sumpf- oder Wasserpflanzen. Sie bilden manchmal Rhizome mit Endodermis und manchmal Stolonen. Die Pflanzen enthalten Milchsaft. Pflanzenteile sind unbehaart oder mit einfachen, einzelligen bis sternförmigen Trichomen besetzt. Die Stängel sind nicht chlorophyllhaltig, kurz, aufrecht und kormusartig. Sie verzweigen sympodial. Entlang der Stängel finden sich oft Reste der Gefäßbündel verwelkter Blattstiele. Oftmals werden Rhizome gebildet, die gelegentlich in Knollen enden. Die Wurzeln befinden sich an der Basis der Stängel oder an den unteren Knoten. Die Laubblätter schwimmen auf dem Wasser oder stehen untergetaucht aufrecht. Sie sind grundständig, aufsitzend oder gestielt und stehen zweireihig, spiralartig zweireihig, spiralförmig oder oftmals auch in basalen Rosetten. Die Blattstiele besitzen einen drehrunden bis dreieckigen Querschnitt und weisen an der Basis eine Blattscheide ohne Öhrchen auf. Die Blattspreite ist linealisch, lanzettlich, eiförmig oder rhombisch und kann durchscheinende Punkte oder Linien aufweisen. Der Blattrand ist ganzrandig oder gewellt, die Spitze stumpf, spitz oder zugespitzt oder andersförmig abgeschnitten. Die Basis der Blattspreite ist entweder ohne Lappen spitz zulaufend oder mit abgeschnittenen Lappen versehen, pfeil- oder speerförmig. Die Aderung besteht aus parallelen Hauptadern und netzartigen Nebenadern. Blütenstände und Blüten. Die über einem Blütenstandsschaft meist aufrecht stehenden oder selten auch schwimmenden Blütenstände sind traubig oder durch quirlförmige Verzweigung rispig, selten sind sie auch doldig. Sie enthalten quirlig angeordnete Tragblätter, die linealisch, ganzrandig und nach vorn stumpf bis spitz sind. Die Blüten sind zwittrig oder eingeschlechtig, gelegentlich auch beides an einer Pflanze (Subdiözie). Wenn die Blüten eingeschlechtig sind dann können die Arten einhäusig (monözisch) oder zweihäusig (diözisch) getrenntgeschlechtig sein. Die Blütenstiele sind sehr kurz bis lang. Die radiärsymmetrischen Blüten sind dreizählig mit doppelter Blütenhülle. Die drei grünen und haltbaren Kelchblätter umschließen Blüte und Frucht oder stehen ausgebreitet bis zurückgebogen. Die drei weißen bis rosafarbenen, oder manchmal gelblichen Kronblätter sind zart und werden früh abgeworfen. Die Nektarproduktion kann an der Basis der Kronblätter, an Staubblättern oder aus Staminodien erfolgen. Es sind ein oder zwei Kreise mit jeweils drei oder mehr untereinander freien Staubblätter vorhanden, die zentrifugal oder zentripetal gebildet werden. Die äußeren Staubblätter können zu Staminodien reduziert sein. Die Staubfäden sind relativ lang. Die an der Basis fixierten oder freistehenden Staubbeutel sind nach außen gewendet und öffnen sich durch Längsschlitze. Die Pollenkörner sind meist pantoporat und stachelig. Es werden drei sechs bis viele freie oder an ihrer Basis verwachsene Fruchtblätter gebildet, die in einem Kreis, spiralig oder unregelmäßig angeordnet sind. Jedes Fruchtblatt enthält eine (selten zwei) anatrope, an der Basis befindliche Samenanlagen, nur in der Gattung "Damasonium" werden zwei bis mehrere Samenanlagen mit marginaler Plazentation gebildet. Der endständig oder seitlich stehende Griffel endet in einer linealischen Narbe. Früchte und Samen. Die in Gruppen oder einem Kreis zusammenstehenden Früchte sind meist Nüsschen (Achänen), selten Steinfrüchte oder Balgfrüchte, die einen bis einige Samen enthalten. Die Fruchtschale besitzt oft Drüsenhaare. Die U-förmigen Samen besitzen einen hufeisenförmigen Embryo und, wenn sie ausgereift sind, kein Endosperm. Chromosomen. Die Chromosomen sind 2,4 bis 14,4 µm lang. Als Chromosomengrundzahlen werden x = 5–13 angegeben, wovon 7, 8 und 11 am häufigsten vorkommen. Systematik und Verbreitung. Die Familie der Alismataceae wurde 1799 durch Étienne Pierre Ventenat in "Tableau du Regne Vegetal", 2, S. 157 aufgestellt. Typusgattung ist "Alisma" Die Gattungen der früher eigenständigen Familie Damasoniaceae und Wassermohngewächse (Limnocharitaceae ex) werden jetzt entsprechend APG III den Alismataceae zugeordnet. Die Familie der Alismataceae ist fast weltweit verbreitet, besonders aber auf der Nordhalbkugel, hauptsächlich in tropischen und subtropischen Gebieten. Internationale Friedensfahrt. Logo der 30. Internationalen Friedensfahrt Die Internationale Friedensfahrt (poln. Wyścig Pokoju sowie tschech. Závod Míru bzw. international üblich franz. Course de la Paix) war ein Etappenrennen in Mitteleuropa und bis zum politischen Umbruch in den ehemaligen Ostblockstaaten 1989 das international bedeutendste Amateurradrennen. Bis auf wenige Ausnahmen waren Berlin, Prag und Warschau jährlich abwechselnd Start-, Etappen- oder Zielort. Das bisher letzte Rennen wurde 2006 durch Deutschland, Österreich und Tschechien ausgetragen, nachdem es 2005 nicht in die damals neue UCI Protour aufgenommen wurde und auf Grund finanzieller sowie organisatorischer Probleme erstmals seit der Erstaustragung nicht stattgefunden hatte. Für das Jahr 2014 war vom 1. bis 6. Mai eine Neuauflage des Rennens geplant. Die Friedensfahrt wurde im internationalen Rennkalender der UCI unter der Kategorie 2.2 eingestuft, der Plan wurde jedoch durch den Organisator, den ehemaligen tschechoslowakischen Rennfahrer Jozef Regec, aufgegeben. Stattdessen wurden vier Eintagesrennen im Rennkalender der UCI Europe Tour 2014 registriert. Geschichte. Die Friedensfahrt wurde 1948 erstmals ausgetragen und fand zunächst zwischen Warschau und Prag statt. Veranstalter waren die Tageszeitungen Rudé Právo aus Prag und Trybuna Ludu aus Warschau. Ab 1952 wurde das Rennen auch nach Ost-Berlin geführt und verband danach in wechselnder Streckenführung jeweils im Mai die Hauptstädte der drei teilnehmenden Staaten Polen, Tschechoslowakei und DDR. Für die DDR war die Tageszeitung Neues Deutschland Veranstalter. Offizielles Symbol für die Friedensfahrt wurde Pablo Picassos weiße Friedenstaube. Wegen der politischen Situation in der Tschechoslowakei wurde die Friedensfahrt 1969 nur auf dem Gebiet Polens und der DDR ausgetragen. Der spätere Straßenradweltmeister Täve Schur wurde 1955 der erste Gesamtsieger für die DDR. Ein Jahr später trat erstmals ein Team aus Westdeutschland an. Die erste Etappe für die Bundesrepublik gewann der spätere Bundestrainer Peter Weibel 1976. Die Friedensfahrt galt bis zur Wende 1989 als die „Tour de France des Ostens“ und war dort ähnlich populär wie diese in Westeuropa. Die Friedensfahrt wurde weitgehend von den Staatsamateuren der mittel- und osteuropäischen Länder dominiert. Die ebenfalls teilnehmenden westeuropäischen Nationalmannschaften konnten nur mit Nachwuchsfahrern, die keinen Profistatus hatten, starten. Einen entscheidenden Einschnitt für die Rundfahrt stellte das Jahr 1989 dar. Der Amateurstatus verlor innerhalb kürzester Zeit seine Bedeutung und wurde schließlich ganz abgeschafft. Die Friedensfahrt geriet in die Krise. Mitte der 1990er Jahre wurde sie zu einem Profirennen umgestaltet und hatte sich im Kalender des Radsportweltverbands UCI als Rennen der mittleren Kategorie 2.2 etabliert. Sie führte weiterhin durch die klassischen Teilnehmerländer Polen, Tschechien bzw. Slowakei und Deutschland, berührte deren Hauptstädte jedoch nur noch selten. Der erfolgreichste Teilnehmer ist Steffen Wesemann, der die Friedensfahrt zwischen 1992 und 2003 fünf Mal gewinnen konnte. Je vier Erfolge errungen haben Uwe Ampler (dreimal für die DDR, einmal für das polnische Team „Mroz“) und der Pole Ryszard Szurkowski. Der zweimalige Gewinner Gustav-Adolf Schur, genannt „Täve“, wurde nach 1989 mit großem Abstand zum populärsten Sportler der DDR gewählt. Seit 2004 hat der tschechische Radsportverband die Rechte am Namen „Course de la Paix“, somit ist dieser auch hauptverantwortlich für die Durchführung des Rennens. Mit der Nichtaufnahme des Rennens in die neu geschaffene höchste Radsportklasse UCI ProTour 2005 verschlechterte sich die Stellung der Veranstaltung. Finanzielle und organisatorische Probleme – insbesondere die Trennung zwischen dem tschechischen Hauptorganisator Pavel Doležel und seinen deutschen Marketing-Partnern und dem daraus folgenden Verlust wichtiger deutscher Sponsoren – führten im Frühjahr 2005 dazu, dass die Friedensfahrt zunächst verschoben und schließlich ganz abgesagt wurde. Eine Wiederaufnahme des Rennens für 2006 erfolgte mit insgesamt acht Etappen, welche auf den Territorien der Länder Österreich (Start), Tschechische Republik und Deutschland (Ziel) vom 13. bis 20. Mai ausgefahren wurden. Zum ersten Mal war damit Österreich Veranstalterland. Die 59. Auflage der Friedensfahrt im Jahr 2007 fiel aus. Hauptgrund war der Rückzug des Hauptsponsors Škoda Auto, der zunächst eine Finanzierungssicherung von 500.000 Euro gegeben, diese dann aber im November 2006 zurückgezogen hatte. Daraufhin gab der tschechische Verband bekannt, keinen neuen Partner gefunden zu haben. Seitdem fand keine Friedensfahrt statt. Wertungen. 3. Aktivster Fahrer / Bester Sprinter Gesamtwertung – Einzel. Als Kriterium für die Gesamteinzelwertung gilt die Summe aller Zeiten aus den einzelnen Etappen und dem Prolog (außer Mannschaftszeitfahren), der Fahrer mit der niedrigsten Gesamtzeit führt dabei die Wertung an. Bei Gleichheit entscheidet die niedrigere Summe der Platzierungen bei den bisher absolvierten Etappen (bis 1986 identisch mit der Wertung des "Punktbesten Fahrers"). Gibt es auch hier keinen Unterschied, ist die größere Anzahl der besseren Plätze – verglichen vom ersten Platz an – ausschlaggebend. Falls auch hier Gleichheit herrscht, entscheidet die bessere Platzierung auf der zuletzt beendeten Etappe. Steffen Wesemann (Deutschland) trug insgesamt fünfmal das Gelbe Trikot am Ende der Rundfahrt, womit er alleiniger Rekordhalter ist. Mit 49 Etappen hatte der vierfache Gesamtsieger Ryszard Szurkowski (POL) das Gelbe Trikot am längsten in seinem Besitz. Gesamtwertung – Mannschaft. Die Kategorie der "Besten Mannschaft" existiert seit 1951. Bekamen die Sieger im Premierenjahr noch weiße Trikots verliehen, kennzeichnete in den anschließenden 38 Jahren die Farbe Blau das führende Team in der Mannschaftswertung. Seit 1990 werden die Trikots nur noch symbolisch zum Ende jeder Friedensfahrt-Austragung an die Siegermannschaft überreicht. Als Kriterium gilt die Summe der Etappen-Mannschaftszeiten, die Mannschaft mit der niedrigsten Gesamtzeit führt dabei die Wertung an. Bei Gleichheit entscheidet bei den betroffenen Mannschaften die niedrigere Summe der Plätze der in der Gesamteinzelwertung drei bestplatzierten Fahrer. Gibt es auch hier keinen Unterschied, gibt der in der Gesamteinzelwertung bestplatzierte Fahrer aller betroffenen Mannschaften den Ausschlag. Mit insgesamt 20 Gesamterfolgen ist die Auswahl der UdSSR unangefochtener Rekordsieger in dieser Kategorie, die zudem mit 218 Etappen am längsten die Spitzenposition innehatte. Seit der Zulassung von Profi-Rennställen im Jahre 1996 konnte das Team T-Mobile mit insgesamt vier Gesamtsiegen am häufigsten triumphieren. Aktivster Fahrer / Bester Sprinter. Trikot für Aktivsten Fahrer bis 1997 Trikot für Besten Sprinter seit 1998 Die Wertung für den "Aktivsten Fahrer" wurde 1962 eingeführt und durch das Violette Trikot repräsentiert. Mit der 1998 erfolgten Umstellung wurde die Kategorie in "Bester Sprinter" und die Trikotfarbe in Grün geändert. Als Kriterium gilt die Summe aller Punkte aus Prämienspurts und Vorstößen, der Fahrer mit der höchsten Punktzahl führt dabei die Wertung an. Bei Punktgleichheit entscheidet die bessere Platzierung in der Gesamteinzelwertung. Rekordsieger dieser Kategorie ist Olaf Ludwig, der, ausschließlich für die DDR startend, am Ende von acht Rundfahrten das Violette Trikot des "Aktivsten Fahrers" sein Eigen nennen konnte. Mit 55 Etappen hatte der gebürtige Geraer das Trikot auch am längsten in seinem Besitz. Bester Bergfahrer. Trikot für Besten Bergfahrer 1969 bis 1971 Trikot für Besten Bergfahrer 1972 bis 1997 Trikot für Besten Bergfahrer seit 1998 Die Wertung für den "Besten Bergfahrer" wurde 1956 eingeführt, zunächst ohne Trikotvergabe. Ab 1969 bekam der Bestplatzierte in dieser Kategorie das Rosa Trikot verliehen. Ab 1972 wurde die Trikotfarbe in Grün geändert und die nächsten 25 Jahre beibehalten. Mit der Umstellung der Kategorien und der Einführung des Grünen Trikots für den besten Sprinter im Jahr 1998 wird für den besten Kletterer fortan das Gepunktete Trikot vergeben. Als Kriterium für diese Kategorie gilt die Summe aller Punkte aus Bergwertungen, der Fahrer mit der höchsten Punktzahl führt dabei die Wertung an. Bei Punktgleichheit entscheidet die bessere Platzierung in der Gesamteinzelwertung. Drei Fahrer konnten sich am Ende der Rundfahrt drei Mal den Sieg in der Kategorie "Bester Bergfahrer" sichern. Sergei Suchorutschenkow (URS) stellte 1984 die Rekordmarke auf, die anschließend von Uwe Ampler (DDR) und Jaroslav Bílek (ČSSR) egalisiert wurde. Mit 21 Etappen hatten Ryszard Szurkowski (POL) und Uwe Ampler am häufigsten die Spitzenposition der Bergwertung inne. Bester Nachwuchsfahrer. Trikot für Besten Nachwuchsfahrer seit 1990 Die Wertung für den "Besten Nachwuchsfahrer" wurde 1989 eingeführt. Während im Premierenjahr ein schwarz-weiß gestreiftes Trikot gestiftet wurde, erhält der Führende in dieser Wertung ab 1990 das Weiße Trikot verliehen. Als Kriterium für diese Kategorie galt die Platzierung der Fahrer unter 21 Jahren in der Gesamteinzelwertung. 1998 wurde die Altersgrenze auf 23 Jahre angehoben, seit 2003 gelten 25 Jahre als Höchstgrenze. Torsten Hiekmann (Deutschland) trug das Trikot des besten Nachwuchsfahrers mit zehn Etappen am längsten. Vielseitigster Fahrer. Das Rosa Trikot für den "Vielseitigsten Fahrer" wurde von 1980 bis 1995 vergeben. Als Kriterium galt die Punktsumme aus den drei Kategorien des "Aktivsten Fahrers", des "Besten Bergfahrers" und des "Punktbesten Fahrers", der Fahrer mit der höchsten Punktzahl führte dabei die Wertung an. Bei Punktgleichheit entschied die bessere Platzierung in der Gesamteinzelwertung. Rekordsieger dieser Kategorie ist Olaf Ludwig, der, ausschließlich für die DDR startend, insgesamt achtmal die Abschlusswertung des "Vielseitigsten Fahrers" gewinnen konnte. Mit 75 Etappen hatte Ludwig das Trikot auch am längsten in seinem Besitz. Punktbester Fahrer. Trikot für Punktbesten Fahrer bis 1989 Trikot für Punktbesten Fahrer 1990 bis 1997 Die Wertung für den "Punktbesten Fahrer" wurde 1978 eingeführt und bis 1989 durch das Weiße Trikot repräsentiert. Ab 1990 trug der Führende dieser Kategorie ein weißes Trikot mit roten Punkten, da das bisherige Trikot fortan dem "Besten Nachwuchsfahrer" vorbehalten war. 1998 wurde die Kategorie des punktbesten Fahrers abgeschafft und das Gepunktete Trikot an die Wertung des "Besten Bergfahrers" übertragen. Als Kriterium galt die Summe aller Punkte aus den Etappen-Einzelwertungen. Bis 1986 entsprachen die Punkte dabei der jeweiligen Etappenplatzierung, der Fahrer mit der niedrigsten Punktzahl führte die Wertung an. Ab 1987 wurde die Punktevergabe dem Reglement der "Internationalen Amateurradsport-Föderation" FIAC angepasst, wodurch fortan der Fahrer mit der höchsten Punktzahl die Wertung anführte. Bei Punktgleichheit entschied die bessere Platzierung in der Gesamteinzelwertung. Rekordsieger dieser Kategorie ist Olaf Ludwig, der, ausschließlich für die DDR startend, insgesamt sechsmal die Abschlusswertung für den "Punktbesten Fahrers" gewinnen konnte. Mit 47 Etappen hatte Ludwig das Trikot auch am längsten in seinem Besitz. Friedensfahrt-Fanfare. Anfang der 1950er Jahre suchte der DDR-Rundfunk eine geeignete Fanfare für die Friedensfahrt-Berichterstattung und wählte die Rundfunkproduktion des Komponisten Paul Noack-Ihlenfeld. Die Fanfare wurde jeweils zu Beginn der Rundfunkübertragung sowie zu allen Siegerehrungen gespielt und etablierte sich schon bald als markante Erkennungsmelodie der Friedensfahrt. Später wurde sie in der DDR zum Symbol des Radsports allgemein und war wesentlicher Bestandteil bei Massensportbewegungen („Kleine Friedensfahrt“, „Kinder- und Jugendspartakiade“). Die Friedensfahrtfanfare wurde auch mit den Erfolgen des mehrfachen Friedensfahrtsiegers und Sportidols Täve Schur in Verbindung gebracht und war wohl die bekannteste und beliebteste Fanfare der DDR. Radsportmuseum Course de la Paix. In der Bördegemeinde Kleinmühlingen bei Calbe (Saale) befindet sich das einzige Friedensfahrt-Museum, das Radsportmuseum Course de la Paix. Initiator dieser Einrichtung ist Horst Schäfer. Die Grundsteinlegung für das neue Museum wurde am 21. Mai 2005 vollzogen, denn die Räume in denen es untergebracht war, boten nicht mehr genug Stellfläche für die vielen Exponate. Der Trägerverein wird von ehemaligen Radsportgrößen, unter anderen Täve Schur und Klaus Ampler, unterstützt. Am 24. November 2007 öffnete das Friedensfahrt-Museum seine Türen für die Öffentlichkeit. Die Gesamtsieger von 1948 bis 1961 Amateure/Elite. In einigen Jahren wurden kurze Prolog- und Epilog-Etappen durchgeführt (P und E, Spalte "Etappen") U23. Die U23-Austragung läuft unter dem Namen "Course de la Paix U23 / Závod Míru U23". Junioren. Die Juniorenaustragung läuft unter dem Namen "Course de la Paix Junior". Frankenwald. Der Frankenwald ist ein 300 bis hohes und 925 km² großes deutsches Mittelgebirge im Nordosten Frankens (nördliches Bayern). Kleine Teile gehören zu Thüringen und bilden die südöstliche Fortsetzung des Thüringer Waldes. Der Frankenwald ist der mittlere Teil des " Thüringisch-Fränkischen Mittelgebirges". Dieser 200 km lange Höhenzug aus Thüringer Wald und Thüringer Schiefergebirge, Frankenwald und Fichtelgebirge verläuft von Nordwest nach Südost bis zur tschechischen Grenze. Naturräumliche Lage. Der Frankenwald liegt zwischen dem Thüringer Schiefergebirge (im engeren Sinne) im Nordwesten, dem Hofer Land (Bayerisches Vogtland) im Osten, dem Fichtelgebirge im Südosten und dem Obermainischen Hügelland im Süden; der Übergang zum Thüringer Schiefergebirge ist fließend, der zum Fichtelgebirge verläuft über die Münchberger Hochfläche. Einige Gemeinden im südöstlichen Thüringen zählen zum Frankenwald, der aus geologischer Sicht zusammen mit dem Thüringer Schiefergebirge und dem Vogtländischen Schiefergebirge das Saalische Schiefergebirge bildet. Als Frankenwald wird unter Berücksichtigung morphographischer Werte das Gebiet vom Südwestrand des Saalischen Schiefergebirges bis zu den Kammhöhen bezeichnet. Das heißt insbesondere, dass der Frankenwald nach Nordosten nur knapp über die Main-Saale-Wasserscheide hinaus reicht und fast ausschließlich zum Main entwässert. Naturräumlich ist der Frankenwald Teil des Thüringer Schiefergebirges, einer Haupteinheit innerhalb der Haupteinheitengruppe Thüringisch-Fränkisches Mittelgebirge. Da der Frankenwald aber im touristischen Sinne aus historischen Gründen als ein vom Thüringer Wald, zu dem das Thüringer Schiefergebirge meist hinzugerechnet wird, getrenntes (Teil-)Mittelgebirge aufgefasst wird, versteht man bis heute unter "Frankenwald" in der Regel genau den Teil des Gebirgskamms, der südöstlich der sogenannten Steinacher Flexur längs der Linie Mengersgereuth-Hämmern – Steinach – Spechtsbrunn – Gräfenthal liegt, wobei die ihrer Rodung wegen auch auf Satellitenbildern gut erkennbare Flexur die Flusstäler der Steinach und ihrer Nebenflüsse schneidet und nicht etwa einem ihrer Täler folgt. Physische Geographie. Verkehrskarte aus dem Jahr 1912 mit dem westlichen Frankenwald (oben rechts) Den Charakter des Frankenwalds beschreibt der folgende – nur auf den ersten Blick widersprüchliche – Satz: „Im Frankenwald gibt es keine Berge – da gibt es Täler“. Eine große Zahl an schmalen, zuweilen parallel verlaufenden V-Tälern zwischen Werra, Itz und Steinach im Nordwesten und den Quellästen des Weißen Mains im Südosten greift in die Hochebene ein und gestaltet so ein Mittelgebirge. Der Frankenwald ist ein waldreiches Gebiet. Früher dominierten Rotbuche und Tanne. Nach der fast vollständigen Abholzung um die Wende vom 19. zum 20. Jahrhundert wurde überwiegend mit schnellwachsenden Fichten-Monokulturen wieder aufgeforstet, die heute noch das Bild des Frankenwaldes prägen. Die Geologie des Frankenwalds besteht zu großen Teilen aus Grauwacke und Tonschiefer des Unterkarbons. An der Fränkischen Linie, einer Verwerfungszone, grenzt er an den Muschelkalk des Obermainlands. Wissenschaftlich wird unterschieden zwischen dem Frankenwald im engeren Sinn (westlich von Selbitz) und dem Frankenwald (Überbegriff für die drei Gebiete Frankenwald im engeren Sinn, Münchberger Hochfläche und Bayerisches Vogtland). Am westlichen Rand des Frankenwalds, zwischen Gundelsdorf im Süden und Rothenkirchen im Norden liegt das dreigeteilte Stockheimer Becken, eines der wenigen Rotliegend-Becken in Bayern. In ihm finden sich u. a. saure Vulkanite, vulkanogene und lakustrine Sedimente des Perms (vorwiegend Schiefer, Sandsteine und verschiedene Konglomerate) sowie einige geringmächtige Steinkohleflöze, die bei Stockheim und Neuhaus-Schierschnitz bis in die 1960er Jahre unter Tage abgebaut wurden. Anthropogeographie. Der erwähnte Schiefer gestaltete die Häuser – noch heute wird zur Dacheindeckung das „blaue Gold“ verwendet – und prägt die Frankenwalddörfer. Viele Orte wie Schwarzenbach am Wald oder Bad Steben sind aufgrund ihrer Höhenlage und des Reizklimas staatlich anerkannte Luftkurorte und steuern somit einen großen Teil zum Einkommen der Bevölkerung bei. Die Frankenwäldler sind eng mit ihrem Wald verbunden. Er war Grundlage für ihren Lebensunterhalt in Glas- und Porzellanindustrie, Flößerei, Köhlerei und den zahlreichen Schneidmühlen. Bis nach Amsterdam brachten die Flößer auf Main und Rhein Frankenwaldtannen. Noch heute wird die Flößerei auf der Wilden Rodach bei Wallenfels touristisch betrieben. Die Besiedlung des Frankenwaldes, des früheren Nortwaldes, begann im 13. Jahrhundert zunächst auf den bewaldeten Hochflächen. In Rodungsinseln entstanden die ersten Siedlungen mit den heute noch erkennbaren Siedlungsformen Waldhufen- und Rundangerdorf. Musterbeispiel für ein guterhaltenes Rundangerdorf ist die Ortschaft Effelter im Landkreis Kronach, die heute ein Ortsteil von Wilhelmsthal ist. Erst später fand die Besiedlung der Täler statt und es entstanden die typischen Wiesentäler. Im Osten, in der Gegend um Naila und Schwarzenbach am Wald, herrscht eine eher sanft gewellte Hochplateaulandschaft vor. Im Westen dagegen, im Landkreis Kronach, wechseln sich enge Wiesentäler, bewaldete Hänge und gerodete Hochflächen ab. Durch den Frankenwald bzw. an seinem Rand verlaufen die Bahnlinien München – Berlin, Lichtenfels – Kulmbach – Hof, Saalfeld – Blankenstein, Münchberg – Helmbrechts, Hof – Naila – Bad Steben, die Bundesautobahn 9 und die Bundesstraßen 2, 85, 89, 173, 289 und 303. Orte. Folgende Gemeinden liegen im Frankenwald oder an seinen Grenzen. Die Liste ist alphabetisch sortiert. Flüsse. Der Frankenwald liegt zwischen dem Main im Südwesten und der (sächsischen) Saale im Nordosten. Dem Main zu fließt die Rodach mit ihren Nebenflüssen Haßlach und Kronach sowie die Schorgast mit der Unteren Steinach, wobei die beiden letztgenannten Flüsse der Münchberger Hochfläche entspringen und nur die Untere Steinach den Frankenwald durchquert, während ihr Vorfluter westlich von Wirsberg die Südgrenze bildet. Die Selbitz im östlichen Frankenwald und die Loquitz im Norden münden in die Saale. Zwischen den Zuflüssen zu Saale und Main verläuft im Frankenwald die Europäische Wasserscheide zwischen Elbe und Rhein. Sonstiges. Den Naturpark Frankenwald bilden Teile des Landkreises Kronach und der Nachbarkreise Hof und Kulmbach. Im Naturpark liegt die Ködeltalsperre, die größte Trinkwassertalsperre Bayerns, die mit ihren 21 Millionen Kubikmeter Fassungsvermögen fast die gesamte oberfränkische Bevölkerung mit Rohwasser versorgt. Der Frankenwaldverein ist ein Heimat- und Wanderverein. Er pflegt Brauchtum und Geschichte im Frankenwald und unterhält ein dichtes Netz von Wanderwegen. Der Verein wurde in Naila gegründet und setzt Technologien wie GPS für Wanderungen ein. Der Frankenwald war wie der Schwarzwald in vergangenen Jahrhunderten ein Waldrodungsgebiet. Mittels Flößerei wurden die Stämme bis in die Niederlande verschifft. Während das Schwarzwaldholz in Rotterdam verbaut wurde, bildete Frankenwaldholz das Fundament für Amsterdam. Fluid. Fluid (vom lateinischen ' für „fließend“ und vom englischen ' für „Flüssigkeit“) ist eine gemeinsame Bezeichnung für Gase und Flüssigkeiten. Viele physikalische Gesetze gelten für Gase und Flüssigkeiten gleichermaßen, denn diese Stoffe unterscheiden sich in manchen Eigenschaften nur quantitativ, also in ihren Größenordnungen, aber nicht qualitativ. Die Strömungslehre bezeichnet als Fluid jede Substanz, die einer genügend langsamen Scherung keinen Widerstand entgegensetzt (endliche Viskosität). Fachliteratur. Die Fachliteratur ist ein Teilgebiet der nichtbelletristischen Literatur und zählt somit – neben der Sachliteratur, zu deren Untermenge die Fachliteratur zunehmend gerechnet wird – zur literarischen Gattung der Non-Fiction. Im Unterschied jedoch zur (ggf. übrigen) Sachliteratur, die bestimmte Sachthemen – oft populärwissenschaftlich aufbereitet und von Fachjargon befreit – für ein Laien­publikum darstellt, richtet sich die Fachliteratur an „ein Fach­publikum meist mit Blick auf die professionelle Anwendung oder die Gewinnung neuer wissenschaftlicher Erkenntnisse.“ Ein Teilgebiet der Fachliteratur wiederum ist die wissenschaftliche Literatur, mit den sogenannten Standardwerken, die sich an wissenschaftlich gebildete Personen richtet bzw. deren Ausbildung dient. Veränderungen durch die Digitale Revolution. Die Digitale Revolution hat es mit sich gebracht, dass heute auch im Bereich der Fachliteratur zunehmend auf elektronischen bzw. digitalen Medien publiziert wird, vor allem auf CD-ROM oder DVD sowie auf speziellen Websites. Im Bereich der wissenschaftlichen Fachartikel sind dies meist die extra hierfür eingerichteten Online-Plattformen der die jeweiligen Fachzeitschriften herausgebenden Verlage. Zu den bekanntesten dieser Portale gehören "ScienceDirect" des Elsevier-Verlages und "SpringerLink" des Verlags Springer science+business media. Es werden aber auch von öffentlichen Einrichtungen Plattformen betrieben, die eine weitgehend freie Veröffentlichung und Nutzung ermöglichen, zum Beispiel der Preprint-Server "arXiv". Die Sprache(n) der Wissenschaft. Fachliteratur entsteht in all jenen Sprachen, in denen sie benötigt wird; seit der zweiten Hälfte des 20. Jahrhunderts erscheint sie jedoch immer häufiger auf Englisch. Dadurch hat die englische Sprache immer mehr die Rolle der wissenschaftlichen "Lingua franca" eingenommen, die im 19. Jahrhundert in Westeuropa das Deutsche und teilweise auch das Französische innehatten. Noch weiter in der Vergangenheit waren in Europa sowie dem gesamten Mittelmeerraum seit dem Ende der Antike Latein und Griechisch, sowie teils (Mittelmeer) die arabische Sprache die führenden Sprachen der Wissenschaft gewesen. Einzelnachweise. !Fachliteratur Fuchsschwanzgewächse. Die Fuchsschwanzgewächse (Amaranthaceae) sind eine Familie in der Ordnung der Nelkenartigen (Caryophyllales) innerhalb der Bedecktsamigen Pflanzen (Magnoliopsida). Hier ist auch die oft separat geführte Familie der Gänsefußgewächse (Chenopodiaceae) eingegliedert. Nicht verwandt mit dieser Gruppe sind die Fuchsschwanzgräser. Erscheinungsbild und Blätter. Die meisten Arten sind einjährige oder ausdauernde krautige Pflanzen oder Halbsträucher; es gibt auch einige Sträucher; wenige Arten sind Lianen oder Bäume. Viele Arten sind sukkulent. Bei vielen Arten sind an den Sprossachsen die Knoten (Nodien) verdickt. Das Holz der mehrjährigen Sprossachsenteile weist ein für die Familie typisches „anomales“ Dickenwachstum auf, welches nur den Polycnemoideae fehlt. Die Laubblätter sind meist wechselständig, gelegentlich auch gegenständig. Nebenblätter sind keine vorhanden. Die Gestalt der Blätter ist äußerst variabel, die Blattränder sind ganzrandig oder gezähnt, ihr Querschnitt ist flächig bis stielrund, bei einigen Arten sind die Blätter auch zu winzigen Schuppen reduziert. Blüten. Die Vorblätter und Tragblätter sind entweder krautig oder trockenhäutig. Die Blütenhülle ist mehr oder weniger krautig oder auch trockenhäutig und besteht aus (selten eines bis) meist fünf (selten bis acht) Tepalen. Die meist in gleicher Anzahl vorhandenen Staubblätter stehen entweder vor den Tepalen oder dazwischen. Sie entspringen am Blütengrund einem Diskus, welcher bei einigen Arten Anhängsel (Pseudostaminodien) trägt. Die Staubbeutel besitzen zwei oder vier Pollensäcke. Bei den "Caroxyloneae" kommen blasenförmige Staubbeutelanhängsel vor. Die Pollenkörner sind rund mit zahlreichen Öffnungen (pantoporat), wobei die Porenzahl von wenigen bis zu 250 (bei "Froelichia") reichen kann. Die meist ein bis drei (selten bis sechs) Fruchtblätter sind zu einem oberständigen Fruchtknoten verwachsen. Im Fruchtknoten befindet sich eine (selten zwei) basale Samenanlage. Früchte und Samen. Als Ausbreitungseinheit (Diasporen) dienen entweder die Samen, oft sind aber die Blütenhüllblätter auch noch bei der reifen Frucht vorhanden und erfahren Umgestaltungen, die der Ausbreitung dienen. Gelegentlich werden auch die Trag- und Vorblätter in die Diaspore einbezogen. Seltener kommen Kapselfrüchte oder Beeren vor. Der Same ist horizontal oder anders ausgerichtet, oft mit verdickter und verholzter Samenschale. Der Embryo ist grün oder weiß, spiralig (dann ohne Nährgewebe) oder ringförmig (selten gerade). Chromosomenzahl. Die Chromosomengrundzahl ist (selten sechs) meist acht oder neun (selten 17). Inhaltsstoffe. Weitverbreitet bei den Fuchsschwanzgewächsen ist das Vorkommen von Betalainen. Die früheren Chenopodiaceae enthalten oft Isoflavonoide. Bei phytochemischen Untersuchungen wurden zudem Methylendioxyflavonole, Saponine, Triterpene, Ecdysteroide sowie in den Wurzeln spezielle Kohlenhydrate gefunden. Photosyntheseweg. Mit etwa 800 C4-Arten sind die Fuchsschwanzgewächse die größte Gruppe mit diesem Photosyntheseweg innerhalb der Eudikotyledonen (circa 1600 C4-Arten). Innerhalb der Familie gibt es verschiedene Typen von C4-Photosynthese und etwa 17 verschiedene Typen der Blattanatomie. Daher wird angenommen, dass diese Eigenschaft wahrscheinlich etwa 15-mal unabhängig voneinander in der Evolution dieser Familie erworben wurde, davon 2/3 bei den ehemaligen Chenopodiaceae. Das erste Mal trat C4-Photosynthese im frühen Miozän vor etwa 24 Millionen Jahren auf. Bei einigen Gruppen entstand dieser Photosyntheseweg aber erst wesentlich später, vor sechs (oder weniger) Millionen Jahren. Die mehrfache Entwicklung von C4-Photosynthese bei den Amaranthaceae wird als Anpassung an zunehmende Wasserknappheit und höhere Temperaturen angesehen. Diese Arten waren durch ihre größere Effizienz im Wasserverbrauch in trockenen Lebensräumen im Vorteil und konnten sich dort ausbreiten. Nutzung. Einige Arten, wie etwa der Spinat ("Spinacia oleracea") oder Kulturformen der Rübe ("Beta vulgaris") (z. B. Rote Rübe, Mangold), werden als Gemüsepflanzen genutzt. Weitere Formen von "Beta vulgaris" sind die Futterrübe und die Zuckerrübe. Die Samen mehrerer "Amaranthus"-Arten und der Quinoa ("Chenopodium quinoa"), selten auch Reismelde genannt, werden ähnlich wie Getreide (Pseudogetreide) verwendet. Mexikanischer Drüsengänsefuß ("Dysphania ambrosioides") und Wurmsamen-Drüsengänsefuß ("Dysphania anthelmintica") sind Heilpflanzen. Aus mehreren Arten wird Soda gewonnen. Als Zierpflanzen werden beispielsweise Garten-Fuchsschwanz, Brandschopf und Iresine verwendet. Verbreitung. Die Familie Amaranthaceae ist weltweit in den gemäßigten Zonen sowie den Subtropen und Tropen verbreitet. Viele Arten sind an Böden mit relativ hohem Salzgehalt angepasst oder kommen in trockenen Steppen- und Halbwüstengebieten vor. Systematik. a> Arbeiten von Müller & Borsch 2005, Kadereit & al. 2006, Sanchez del-Pino & al. 2009 Eine Gruppe von Gattungen, die mehr als die Hälfte der Arten umfasst, wurde traditionell als eigene Familie Gänsefußgewächse (Chenopodiaceae) abgetrennt. Molekularbiologische Untersuchungen haben aber eine enge Verwandtschaft der beiden traditionell unterschiedenen Familien ergeben und nahegelegt, dass die Gänsefußgewächse paraphyletisch sind und nur bei einer Vereinigung mit den Amaranthaceae im engeren Sinn ein monophyletisches Taxon ergeben. Aktuelle Veröffentlichungen verwenden weiterhin den Familiennamen Chenopodiaceae. Die Familie Amaranthaceae wurde 1789 durch Antoine Laurent de Jussieu in "Genera Plantarum", S. 87–88 aufgestellt. Die Erstveröffentlichung der Familie Chenopodiaceae erfolgte 1799 durch Étienne Pierre Ventenat in "Tableau du Regne Vegetal", 2, S. 253. Der älteste und nach der Prioritätsregel gültige wissenschaftliche Name des erweiterten Taxons ist Amaranthaceae. Aus dem Kladogramm wird deutlich, dass die Einstufung der Chenopodiaceae entscheidend von der Unterfamilie Polycnemoideae abhängt: Wird sie so wie bisher als Teil der Familie betrachtet, müssen auch die Amaranthaceae im engeren Sinn dazugehören, und der Name der erweiterten Familie lautet nach der Prioritätsregel Amaranthaceae. Würden die Polycnemoideae jedoch als eigene Familie abgetrennt, dann wären Chenopodiaceae und Amaranthaceae zwei jeweils monophyletische Verwandtschaftsgruppen, die als separate Familien betrachtet werden könnten. In der Familie Amaranthaceae im neuen Umfang sind die Gattungen der früheren Familien: Achyranthaceae, Atriplicaceae, Betaceae, Blitaceae, Celosiaceae, Chenopodiaceae nom. cons., Corispermaceae, Deeringiaceae, Dysphaniaceae nom. cons., Gomphrenaceae, Polycnemaceae, Salicorniaceae, Salsolaceae, Spinaciaceae enthalten. Die Systematik der Familie Amaranthaceae wird seit einigen Jahren intensiv erforscht. Molekularbiologische Studien haben gezeigt, dass die bisherige Einteilung, die auf morphologischen und anatomischen Merkmalen beruhte, nicht die verwandtschaftlichen Beziehungen widerspiegelte. Die früher den Gänsefußgewächsen (Chenopodiaceae) zugerechneten Arten werden derzeit (2011) in etwa acht Unterfamilien eingeordnet (die Bearbeitung ist noch nicht abgeschlossen): die Polycnemoideae, welche als ursprünglich angesehen werden, sowie die Betoideae, Camphorosmoideae, Chenopodioideae, Corispermoideae, Salicornioideae, Salsoloideae und Suaedoideae. Innerhalb der Amaranthaceae s. str. (im engeren Sinne) erwiesen sich die Unterfamilie Amaranthoideae sowie manche Gattungen innerhalb der Gomphrenoideae als polyphyletisch, so dass hier in den nächsten Jahren weitere taxonomische Änderungen zu erwarten sind Filmgenre. Unter einem Filmgenre wird eine Gruppe von Filmen verstanden, die unter einem spezifischen Aspekt Gemeinsamkeiten aufweisen. Diese Gemeinsamkeiten können insbesondere in einer bestimmten Erzählform (Filmkomödie, Drama) oder Grundstimmung (Liebesfilm, Thriller), hinsichtlich des Themas der Handlung (Kriminalfilm, Fantasyfilm) oder in historischen oder räumlichen Bezügen (Historienfilm) bestehen. Definitionsansätze. Bestandsaufnahmen haben ergeben, dass im Laufe der Zeit mindestens für eine hohe dreistellige Zahl verschiedener Filmgruppen eigene Genrebezeichnungen kreiert worden sind. Dieses Ergebnis ist zu großen Teilen damit zu erklären, dass Filmkritik und Kinowerbung sich häufig auf andere Filme beziehen, und dieses Bedürfnis immer wieder neue Genrebezeichnungen generiert. Eine Tendenz, die dadurch begünstigt wird, dass Filme häufig die Merkmale mehrerer Genres (siehe Genresynkretismus) in sich tragen und die jeweiligen Kombinationen gern als neue Genres ausgerufen werden. Diese Vorgehensweise wird nicht von der filmwissenschaftlichen Genretheorie gestützt. Diese definiert einzelne Genres insbesondere über enge Produktionszusammenhänge, ein Repertoire konventionalisierter Formen und ein stabiles Verständnis, das sowohl seitens der Produzenten als auch beim Publikum vorhanden ist. Wie strittig Definitionsansätze sein können, illustriert das Beispiel des Film noir, bei dem sich die Filmwissenschaftler nicht einig sind, ob von einem Filmgenre oder einer Stilrichtung gesprochen werden sollte. Herausbildung des Filmgenrebegriffs. Die Herausbildung des Begriffs Filmgenre ging in den ersten Jahrzehnten des 20. Jahrhunderts einher mit der zunehmenden Bedeutung des Films als Wirtschaftsfaktor. Angelehnt an Genredefinitionen, die im 19. Jahrhundert für einzelne Sparten massenhaft produzierter Unterhaltungsliteratur (s. Trivialliteratur) entwickelt worden waren, ging die Filmindustrie zunehmend dazu über, Handlungen, Sujets, Stimmungen, Erzählformen und andere Einflussfaktoren zu schematisieren. Ähnlich gelagerte Produktionen wurden mit Genrebezeichnungen etikettiert, deren vorrangige Funktion darin bestand, Marketingbotschaften an die Erwartungshaltungen des Publikums zu senden. Dies insbesondere dann, wenn sich ein vorheriger Film als kommerziell einträglich erwiesen hatte und mit weiteren Produktionen nach dem entsprechenden Strickmuster an diesen Erfolg angeknüpft werden sollte. Zum einen entwickelten sich Filmgenres damit auch zu mehr oder minder verlässlichen Kalkulationsfaktoren. Insbesondere im Studiosystem des damals bereits führenden Filmlandes USA bildeten sich in den 1920er und 1930er Jahren außerdem "Production Units" heraus, die jeweils auf die Herstellung von Filmen eines bestimmten Genres spezialisiert waren. Hauptsächlich repräsentierten Western, Komödien, Gangsterfilme und Horrorfilme in dieser Zeit die ersten abgegrenzten Filmgenres. Zu nennen sind in diesem Zusammenhang aber auch Musikfilme, die zu Beginn der Tonfilmära ein erfolgreiches eigenständiges Genre bildeten, sowie Produktionen, deren Sujet eine Liebesbeziehung war und die unbedingt mit einem Happy End ausgehen mussten. Als feste Größe etablierte sich der Genrefilm spätestens im Zeitraum von 1930 bis 1950. Im US-Studiosystem manifestierte er sich unter anderem in Gestalt der B-Filme, die jeweils ein bestimmtes Genre bedienten, mit dem das Publikum klar umrissene Erwartungen verband. Abgrenzung gegenüber anderen Filmgattungen und Stilrichtungen. Trotz aller Definitions- und Abgrenzungsschwierigkeiten ist zumindest weitgehend unstrittig, dass der Genrebegriff nicht auf die „Großgattungen“ des Films angewendet wird. Dazu gehören insbesondere die Gattungen Spielfilm, Dokumentarfilm, Experimentalfilm, Nachrichtenfilm, Kulturfilm, Lehrfilm, Werbefilm/Propagandafilm und Wirtschaftsfilm. Im engeren Sinne zählen dazu auch nicht die Gattungen, die sich durch spezifische technische Merkmale auszeichnen (zum Beispiel Stummfilm, Schwarzweißfilm, 3D-Film und Trick-/Animationsfilm). Obwohl teilweise auch im Zusammenhang mit bestimmten Produktionsbedingungen (zum Beispiel Independentfilm) oder mit einer bestimmten Länge von Filmen (zum Beispiel Kurzfilm) von eigenständigen Filmgenres gesprochen wird, handelt es sich dabei im engeren Sinne nicht um solche. Dies gilt auch im Zusammenhang mit Zielgruppen, an die sich Filme vorrangig richten (zum Beispiel Kinderfilm und Jugendfilm). Vergleichsweise schwierig gestaltet sich die Abgrenzung gegenüber bestimmten Stilrichtungen und Bewegungen. Obwohl Strömungen wie die Nouvelle Vague oder der Italienische Neorealismus von großer filmgeschichtlicher Bedeutung sind, werden sie mehrheitlich nicht als Genres aufgefasst. Und zwar deshalb, weil sich die einzelnen Produktionen u.a. in ästhetischer Hinsicht zu unterschiedlich darstellen. In der praktischen Terminologie der Filmkritik erkennt man auch oft die Nähe zur Literaturwissenschaft (siehe auch Text). Klassifizierung bedeutender Filmgenres. In ihrer Gesamtheit sind Filmgenres bisher nicht systematisiert worden, auch wegen des Bedeutungswandels, den Filmgenres häufig im Laufe der Zeit durchgemacht haben. Aber auch, weil Genrebezeichnungen in verschiedenen kulturellen oder sprachlichen Zusammenhängen unterschiedlich verstanden werden können. So wird zum Beispiel im englischsprachigen Raum unter einem Filmdrama weitgehend ein Film verstanden, der sich durch eine ausgeprägte Darstellung einzelner Persönlichkeiten auszeichnet, während das Merkmal dieser Filmgattung nach dem Verständnis im deutschsprachigen Raum in einer Handlung im Sinne des klassischen Dramas oder in einem besonders erregenden bzw. tragischen Verlauf der Handlung besteht. Filmregisseur. Ein Filmregisseur ist ein Regisseur (veraltet "Spielleiter"), der eine komplette Filmproduktion kreativ leitet. Im Gegensatz dazu leitet der Produzent (englisch: "Producer") die Filmproduktion administrativ. Bei kleinen Produktionen erstreckt sich diese Tätigkeit von der Stoffentwicklung über die Erarbeitung von Drehbüchern, die Planung des Ablaufs der Produktion einschließlich der Kosten bis zur Postproduction. In professionellen Produktionszusammenhängen ist die Kernaufgabe des Regisseurs die Inszenierung, das heißt, die Auflösung der Szenen eines Drehbuches in einzelne Kameraeinstellungen und die Anleitung der Darsteller. Der Begriff „Regie“ ist beim Kino-Spielfilm klar definiert. Beim Fernsehen kann er vielerlei bedeuten: von der Studio-Regie, der Ablauf-Regie über die Bild-Regie (Kamera) bis hin zur Spielfilm-Regie gleichen Regie, vor allem im fiktionalen Bereich (Fernsehspiel, auch in Form von Reihen und Serien, TV-Movie etc.). Der Filmregisseur ist der Haupturheber eines Filmwerks, der dieses persönlich und eigenschöpferisch prägt unter Bearbeitung vorbestehender Werke (z. B. Drehbuch) und gegebenenfalls im Zusammenwirken mit weiteren Mit-Urhebern (z. B. Bildgestalter oder Drehbuchautoren). Etymologie. Der Begriff leitet sich von Französisch "régisseur" „Verwalter“ ab. Im Französischen wird ein Regisseur allerdings als "réalisateur" (wörtlich „Verwirklicher“) bezeichnet. Geschichte. In den 1910er- und 1920er-Jahren hatten in den USA prominente Filmregisseure wie David W. Griffith, Charlie Chaplin, Rex Ingram, Cecil B. DeMille, King Vidor oder Erich von Stroheim eine große Entscheidungsfreiheit und Machtfülle bei den von ihnen inszenierten Filmen. Ihre Popularität und Werbewirksamkeit überstrahlte teilweise sogar die der in den Filmen eingesetzten Schauspieler. Mitte der 1920er-Jahre begannen die Produzenten des Studiosystems, die wirtschaftliche und zum großen Teil auch künstlerische Kontrolle über die Filmherstellung zurückzugewinnen, die sie in den Anfangstagen des Films innehatten. Filmregisseure gerieten in Abhängigkeit von Produzentenentscheidungen und wurden oft nur als Koordinatoren und ausführende Spielleiter eingesetzt. Um sich ihre künstlerische Freiheit zu bewahren, entschlossen sich einige Regisseure, ihre eigenen Produktionsfirmen zu gründen, etwa Frank Capra, George Stevens und William Wyler mit ihrer gemeinsamen Firma Liberty Films. Auch Regisseure wie Robert Aldrich, Otto Preminger, Samuel Fuller und Sam Peckinpah agierten zeitweise als “Produzenten-Regisseure”. Später versuchten auch Filmemacher wie Robert Altman, Sydney Pollack, George Lucas oder Steven Spielberg, auf diese Weise die Kontrolle über ihre Filme zu behalten. In Europa war der Konflikt zwischen geldgebenden Produzenten und künstlerisch arbeitenden Regisseuren nicht so stark ausgebildet wie in den USA. Das Problem, Ökonomie und Anspruch zusammenzubringen, wurde oft eher kooperativ gelöst, jedoch waren die Regisseure oft in ihrer künstlerischen Freiheit beschnitten. Die Auteur-Theorie begann ab den 1940ern und verstärkt zur Zeit der Nouvelle Vague, zwischen dem "Realisateur", dem zwar begabten, aber Zwängen unterworfenen „Handwerker“, und dem "Auteur", der seine Arbeit als individuelle, künstlerisch freie Aufarbeitung der eigenen Weltvorstellung sieht, zu unterscheiden. Dieses Verständnis des Filmregisseurs als ganzheitlicher Künstler, dem in seiner Arbeit auch Schwächen und Fehler zugestanden werden müssen, um ihn frei agieren zu lassen, wurden von den Regisseuren des Neuen Deutschen Films übernommen. Ausbildung. Die Ausbildung zum Regisseur ist nicht einheitlich geregelt. Ein grundständiges Studium im Regiefach wird an staatlichen und privaten Filmhochschulen angeboten. Bei der Aufnahmeprüfung muss eine filmspezifische künstlerische Befähigung nachgewiesen werden. Zur formalen Voraussetzung gehört in der Regel die allgemeine Hochschulreife oder zumindest die Fachhochschulreife. Üblich ist die praktische Aneignung der erforderlichen Kenntnisse und Fähigkeiten über eine Tätigkeit als Regieassistent bei einer Filmproduktion. Persönliche Voraussetzungen. Voraussetzung für die Regietätigkeit ist eine Kombination aus vielen verschiedenen Fähigkeiten. Die Fähigkeit, künstlerische und technische Mitarbeiter zu motivieren, zu leiten und koordinieren zählt ebenso dazu, wie dramaturgische, darstellerische, sprachliche, musikalische und visuelle Elemente zu einem Filmwerk zusammenzufügen. Regisseure müssen über Psychologie und Menschenkenntnis verfügen, um auch evtl. entstehende Konflikte innerhalb des Gesamtteams zu lösen. Flüssigkeit. Eine Flüssigkeit ist Materie im "flüssigen Aggregatzustand". Nach einer makroskopischen Definition handelt es sich um einen Stoff, der einer Formänderung so gut wie keinen, einer Volumenänderung hingegen einen recht großen Widerstand entgegensetzt (der Stoff ist nahezu inkompressibel). Nach einer mikroskopischen Definition ist eine Flüssigkeit ein Stoff, dessen Teilchen sich ständig nichtperiodisch bewegen sowie keinerlei Fernordnung, jedoch einer Nahordnung unterliegen und deren mittlere freie Weglänge in der Größenordnung des Teilchendurchmessers liegt. Flüssigkeiten sind also volumenbeständig, formunbeständig und unterliegen einer ständigen Brownschen Bewegung. Der flüssige Zustand ist nicht allein stoffspezifisch, sondern hängt auch von äußeren Faktoren wie der Temperatur und dem Druck ab. Wechselt eine solche Flüssigkeit ihren Aggregatzustand, so spricht man von einer Phasenumwandlung, wobei der Begriff der Phase selbst einen Überbegriff zum Aggregatzustand darstellt. Mit den Gasen werden die Flüssigkeiten zu den Fluiden zusammengefasst. Makroskopische Beschreibung und Eigenschaften. Die temperaturabhängige Volumenausdehnung einer Flüssigkeit wird durch deren Volumenausdehnungskoeffizienten quantifiziert. Der Kompressionsmodul ist ein Maß für die adiabatische Volumenelastizität, das heißt für die „Zusammendrückbarkeit“ einer Flüssigkeit. In der Schwerelosigkeit beziehungsweise bei einer Abwesenheit äußerer Kräfte nehmen Flüssigkeiten aufgrund ihrer Oberflächenspannung eine kugelförmige Gestalt an, da diese Form die Oberfläche minimiert. Flüssigkeiten üben auf die Wand des Gefäßes, in dem sie sich befinden, einen hydrostatischen Druck aus, zum Beispiel den Wasserdruck. Ruhende Flüssigkeiten sind physikalisch hauptsächlich durch diesen Druck gekennzeichnet. Übt man von außen Druck auf Flüssigkeiten aus, so verteilt sich der Druck gleichmäßig in der ganzen Flüssigkeit. Je tiefer man einen Körper in eine Flüssigkeit taucht, desto größer wird der hydrostatische Druck auf den Körper. Dieser hängt allerdings nicht nur von der Tauchtiefe sondern auch von der Dichte der Flüssigkeit ab. In strömenden Flüssigkeiten treten zusätzliche Größen auf, die durch die Fluiddynamik, ein Teilgebiet der Kontinuumsmechanik beschrieben werden. Mikroskopische Beschreibung und Eigenschaften. Aufgrund der im Vergleich zum Festkörper fehlenden Translationsperiodizität und der ständigen Teilchenbewegung müssen Flüssigkeiten mit den Mitteln der statistischen Mechanik (z. B. klassische Dichtefunktionaltheorie) beschrieben werden. Wichtig sind hier die atomaren Verteilungsfunktionen. Viele Eigenschaften der Volumenphase von Flüssigkeiten lassen sich mittels Molekulardynamik- oder Monte-Carlo-Simulation berechnen. Finanzkrise. Finanzkrisen sind größere Verwerfungen im Finanzsystem, die durch plötzlich sinkende Vermögenswerte (z. B. bei Unternehmensbeteiligungen – siehe Börsenkrach) und die Zahlungsunfähigkeit zahlreicher Unternehmen der Finanzwirtschaft und anderer Branchen gekennzeichnet sind und die die ökonomische Aktivität in einem oder mehreren Ländern beeinträchtigen. Die Gesellschaft für deutsche Sprache kürte das Wort 2008 zum Wort des Jahres. Varianten. Prinzipiell wird nach ihrer äußeren Erscheinungsform unterschieden zwischen Bankenkrisen, Währungskrisen, Finanzsystemkrisen und Krisen, in denen ein Land oder einzelne Länder ihre Auslandsschulden nicht mehr bedienen können (Verschuldungskrisen). Überinvestitionstheorien. Gemäß der monetären Überinvestitionstheorie nach Friedrich August von Hayek und Knut Wicksell kommt es zu einem Anstieg der internen Verzinsung der Unternehmen, also des „natürlichen Zinssatzes“, etwa durch technischen Fortschritt, über den bestehenden Geldzinssatz. Auf dem Kapitalmarkt steigt die Nachfrage nach Krediten, um neue Investitionen zu finanzieren. Zunächst nährt die zusätzliche Liquidität den Aufschwung, in dessen Verlauf auch Investitionsprojekte mit niedrigeren (erwarteten) Renditen finanziert werden. Nach Hayek führt die größere Nachfrage nicht zu einem Anstieg der Zinssätze, weil die Banken die allgemeine Wirtschaftsbelebung als Anreiz verstehen, das Kreditangebot mit der Nachfrage auszuweiten. Erst mit zeitlicher Verzögerung passt sich der Geldzinssatz an den natürlichen Zinssatz an. Dann können sich Sachinvestitionen als überdimensioniert herausstellen. Investitionsprojekte, die zum bisherigen Geldzinssatz noch rentabel waren, werden abgebrochen. Die Strukturbereinigung zieht Unternehmen, Konsumenten und Finanzinstitute in den Strudel der Krise. Nach Wicksell müsste die Zentralbank rechtzeitig den Leitzins anheben, um der Überinvestitionskrise vorzubeugen. Auch Hayek empfiehlt eine rechtzeitige Anhebung des Leitzinssatzes durch die Zentralbank, ohne dass aber dadurch die Finanzkrisen völlig vermieden werden können. „Was die Krisenbewältigung betrifft, so gelingt diese, ganz grob gesprochen, nur durch einen Abbau der Überkapazitäten, also deren Liquidation. Die Handlungsempfehlung ist einfach: Nichtstun.“ Die monetäre Überinvestitionstheorie war die dominierende Vorstellung in der Zeit um 1929. Der amerikanische Präsident Herbert Hoover folgte dieser Theorie in der Weltwirtschaftskrise der 1930er Jahre weitgehend („Hoover-Economics“). Irving Fisher verglich diese mit einem Arzt, der bei einer Lungenentzündung „die Heilung der Natur überlassen“ würde. Nach dem Platzen der Dotcom-Blase erlebte die zwischenzeitlich in Vergessenheit geratene monetäre Überinvestitionstheorie eine Renaissance. Monetarismus. Eine Theorie zur Erklärung von gesamtwirtschaftlichen Finanzkrisen geht auf Milton Friedman und Anna J. Schwartz zurück. Diese erklärt die Great Depression in den Vereinigten Staaten mit einer verfehlten Politik der Zentralbank. Die Reduzierung der Geldmenge in den USA um 30 % zwischen den Jahren 1929 und 1933 betrachten sie als entscheidend für den Verlauf der Weltwirtschaftskrise in den 1930er Jahren. Neuere keynesianische und postkeynesianische Finanzkrisentheorien. Die Einschätzung von einigen Experten, so etwa die Mehrheitsauffassung der Financial Crisis Inquiry Commission, führte die Finanzkrise ab 2007 unter anderem auf die relativ laxe Finanzregulierung der 1980er und 1990er zurück. Selbst vorherige Verfechter dieser Politik, wie Alan Greenspan, rückten nach der Krise von der Markteffizienzhypothese ab. In der Folge kam es zu einem neuen Interesse an keynesianischen oder postkeynesianischen Erklärungsmodellen. Hyman Minsky. Ein auf den Postkeynesianer Hyman P. Minsky und Charles P. Kindleberger zurückgehender Ansatz erklärt Finanzkrisen als Ergebnis exzessiver Spekulation in einer boomenden Konjunktur. In der Theorie von Minsky verfolgen die Investoren nach einer Krise zunächst eine abgesicherte Finanzierung („hedging“). Die Einnahmen, die den Investitionen folgen, reichen aus, um die Kredite mit Zinsen zurückzuzahlen. Erweist sich das wirtschaftliche Wachstum als stabil, erscheint eine „spekulative Finanzierung“ eingehbar. Die Einnahmen reichen jetzt nur noch aus, um die Zinsen der aufgenommenen Kredite zu bedienen. Die Kredite selbst werden durch neu aufgenommene Kredite abgelöst. Erweist sich auch dies als stabil, gehen die Investoren schließlich zur „Ponzi-Finanzierung“ über, benannt nach Charles Ponzi. Sogar um die Zinslast finanzieren zu können, werden jetzt zusätzliche Kredite aufgenommen. Die Investoren erwarten aber weiterhin, dass ganz zum Schluss die Einnahmen aus der Investition ausreichen, um allen aufgelaufenen Verpflichtungen genügen zu können. Insgesamt ist aber die Wirtschaft immer labiler geworden und in einer Krise kommt es zu Insolvenzen und zu einer Bilanzbereinigung bei den Investoren. Nach der Krise beginnt mit der jetzt zunächst wieder abgesicherten Finanzierung (hedging) ein neuer Zyklus. Minsky vertrat die Auffassung, dass die Finanzierungsprozesse einer kapitalistischen Ökonomie endogene destabilisierende Kräfte entwickeln. Er hielt die Finanzinstitutionen des Kapitalismus für „von sich aus ruinös“. Deshalb riet er dazu, zu akzeptieren, dass das Gebiet effizienter und wünschenswerter freier Märkte begrenzt ist. Verhaltensökonomik. George A. Akerlof und Robert J. Shiller wollen in ihrer Diagnose der Ursachen von Finanzkrisen wieder an die bei John Maynard Keynes präsente Vorstellung der „Animal Spirits“ anknüpfen. Diese sei im Keynesianismus zugunsten einer Synthese mit dem neoklassischen Mainstream vernachlässigt worden. Stärker als von rationalen Erwartungen sei die Entwicklung der Konjunktur abhängig von Vertrauen, Gerechtigkeitsvorstellungen, phasenweiser Korrumpierung ethischer Standards, Geldillusion und kollektiven Narrativen oder „Erzählungen“, die den Marktteilnehmern Orientierung geben können. Maßnahmen. Unter anderem wird als Maßnahme gegen Finanzkrisen oder zu deren Dämpfung Makroprudentielle Aufsicht empfohlen. d. h. Aufsichtsbehörden sollen nicht nur mikroprudentiell vorgehen, sondern makroprudentiell auch den Systemzusammenhang insgesamt im Auge behalten. Antike Krisen. Midas erkannte, dass er angesichts des begrenzten Vorrats an Metallen für die Münzproduktion die Geldmenge durch die Senkung des Metallgehalts pro Münze erhöhen konnte. Die Folge war eine Trennung der Geld- und Kreditpolitik und eine Globalisierung des Zahlungsmittels. Sparer, die in Midas „Leichtgeld“ ihr Vermögen anlegten, büßten durch diesen Geldüberhang und den nun fälligen Währungsschnitt ihre Kaufkraft ein. Sinnbildlich wird die Finanzierungstechnik Midas’ durch die Redewendung symbolisiert, dass alles, was Midas anfasste, sich in Gold verwandelte, sogar Wasser. Nach der Erzählung von Herodot starb Midas, weil er am zum Gold verwandelten Wasser erstickte. Broschüre von der Tulpenmanie in den Niederlanden, gedruckt 1637 Krisen im 19. Jahrhundert. a> in New York im Jahr 1873 Globale Krisen nach Bretton Woods. Grenzüberschreitende Finanzkrisen nach dem Ende des Bretton-Woods-Systems waren u. a. die Fränkisches Reich. Das Fränkische Reich, das zwischen dem 5. und 9. Jahrhundert bestand und sich im Wesentlichen aus dem römischen Gallien und angrenzenden rechtsrheinisch-germanischen Siedlungsgebieten gebildet hatte, war der bedeutendste Nachfolgestaat des 476 untergegangenen Weströmischen Reiches und die historisch wichtigste Reichsbildung in Europa seit der Antike. Das Reich der Franken ging auf mehrere westgermanische Kriegerverbände der Völkerwanderungszeit zurück. Nach dem Untergang Westroms stieg es im Frühmittelalter unter den Dynastien der Merowinger und der Karolinger in drei Jahrhunderten zu einer Großmacht auf, die weite Teile West-, Mittel- und Südeuropas beherrschte. Als Hausmeier der merowingischen Könige übten die Karolinger bereits seit dem späten 7. Jahrhundert die tatsächliche politische Macht aus, bevor sie im Jahr 751 selbst die Königswürde übernahmen. Den Höhepunkt seiner Macht und Ausdehnung erreichte das Frankenreich unter der Herrschaft Karls des Großen (768–814). Nachdem es im 9. Jahrhundert geteilt worden war, entwickelten sich aus der östlichen Reichshälfte das mittelalterliche deutsche Reich, aus der westlichen das spätere Frankreich. Die Expansion des Frankenreichs von 481 bis 814 Das merowingische Frankenreich. Gallien im Jahr 481, kurz vor Chlodwigs Herrschaftsantritt; sein Machtbereich umfasste anfangs nur einen Teil der fränkischen Gebiete Teilung des Frankenreiches im Jahr 511 nach dem Tod Chlodwigs Seit dem 4. Jahrhundert siedelten auf dem Gebiet des Römischen Reiches germanische Gruppen als Foederaten. Bei ihnen handelte es sich um Krieger, die unter eigenen Anführern im Dienste der Kaiser kämpften und dafür Anspruch auf Versorgung durch den römischen Staat hatten. Am nordöstlichen Ende Galliens siedelten dabei die Franken, die als "Franci" in römischen Quellen das erste Mal in den 50er Jahren des 3. Jahrhunderts erwähnt werden und seit dem späten 4. Jahrhundert als "foederati" für die Verteidigung der Rheingrenze gegen Plünderer zuständig waren. Umstritten ist, wie und wann sich aus diesen meist germanischen Söldnern im Laufe der Zeit ein Volk mit eigener Identität ausgebildet hat (siehe Ethnogenese). Nachdem Gallien spätestens seit dem Tod des machtbewussten Heermeisters Aëtius 454 der weströmischen Kontrolle mehr und mehr entglitten war, nutzten die Franken den Zusammenbruch des von Bürgerkriegen zerrütteten Weströmischen Reiches (um 476), um das entstandene Machtvakuum zu füllen und ihr Gebiet eigenmächtig zu vergrößern, ähnlich wie die Westgoten im Süden. Im Norden Galliens hatte sich ein römisches Restreich unter dem römischen Kommandeur Syagrius, dem Sohn des Heermeisters Aegidius, im Gebiet um Soissons halten können, welches vom Rest des Imperiums abgeschnitten war (seit 464, siehe auch Paulus). Mit den Gallo-Römern möglicherweise verbündet, eventuell aber auch in Konkurrenz zu ihnen stehend, war der salfränkische "rex" Childerich von Tournai. 486/487 besiegte Childerichs Sohn Chlodwig I. Syagrius, eroberte dessen Herrschaftsgebiet und übernahm das Kommando über die verbliebenen römischen Truppen. Dadurch verschob sich die Grenze des merowingischen Machtbereiches bis an die Loire. Chlodwig, der vorher nur einer von mehreren fränkischen "warlords" war, nutzte danach die Chance, die übrigen Teilreiche zu beseitigen und ein germanisch-romanisches Reich zu gründen. Er beseitigte nacheinander unter anderem den "rex" Sigibert von Köln sowie Ragnachar und führte 496/506 erfolgreiche Kriege gegen die Alamannen. 507 schlug Chlodwig die Westgoten in der Schlacht von Vouillé (oder bei Voulon), nach der er sie fast ganz aus Gallien verdrängte. Der Besitz jener römischen Grundherren, die während der fränkischen Eroberungskriege getötet oder vertrieben wurden, gelangte in den Besitz des Herrschers. Dadurch finanzierte Chlodwig seine weiteren Feldzüge und stärkte seine Macht. Er wurde nach und nach größter Grundbesitzer. Durch Landschenkungen brachte er andere Adlige in direkte Abhängigkeit, woraus sich nach Ansicht der älteren Forschung vielleicht das Lehnswesen entwickelte – eine heute allerdings sehr umstrittene Hypothese. Im Laufe der Zeit verwandelte sich die Stellung des fränkischen "rex" immer mehr in die eines regelrechten Königs. Chlodwig, dem es um die Versorgung seiner Krieger gehen musste, übernahm, soweit möglich, den funktionsfähigen spätantiken römischen Verwaltungs- und Finanzapparat (dessen Kern vor allem im Süden die "civitates" waren). Dabei spielte die Macht der örtlichen Bischöfe, die oft Verwaltungsaufgaben in den "civitates" übernommen hatten, eine wichtige Rolle, so dass sich die Kirche zu einer weiteren Machtstütze des Herrschers entwickeln sollte, dem es gelang, die Bischöfe weitgehend unter seine Kontrolle zu bringen. Angeblich unter dem Einfluss der Burgunderin Chrodechild trat Chlodwig, der zuvor entweder Heide oder Arianer gewesen war, zum katholischen Christentum über. Mit seiner Taufe (vielleicht 496/98 oder 508; das Datum ist umstritten) sicherte er sich die Unterstützung durch die römischen Christen und bereitete so einem Miteinander von fränkischen Kriegern und gallo-römischer Zivilbevölkerung den Weg. Um die Mitte des 6. Jahrhunderts ging dann die spätantike Übergangszeit in Gallien vorüber, das Frühmittelalter nahm langsam Gestalt an. Die lokalen Autoritäten (Grafen und Bischöfe) waren dazu bestimmt, Chlodwigs Anordnungen durchzusetzen. Daneben setzte Chlodwig 511 auf dem ersten fränkischen Reichskonzil einen maßgeblichen Einfluss fränkischer Könige auf die Bischofsinvestitur durch und versuchte, eine einheitliche kirchliche Gesetzgebung für das Frankenreich zu schaffen. Im frühen 6. Jahrhundert (nach 507) entstand mit der "Lex Salica" eine Sammlung des Rechts der Franken, das von der modernen Forschung allerdings nicht mehr auf altes germanisches Stammesrecht, sondern auf spätrömisches Soldatenrecht zurückgeführt wird. Der Aufstieg der Arnulfinger und Pippiniden. Nach dem Tode Chlodwigs (511) wurde die Herrschaft nach dem Vorbild des spätrömischen Kaisertums (und nicht etwa, wie man früher glaubte, aufgrund germanischer Tradition) unter seine vier Söhne aufgeteilt. Allerdings konnte die formal nie aufgehobene Reichseinheit durch Chlodwigs Nachfolger immer wieder hergestellt werden (wobei vor allem Theudebert I. von Bedeutung ist, der eine expansive Politik in Italien betrieb). 639 starb Dagobert I., der letzte bedeutende Merowinger, und hinterließ seinem Sohn das nochmals geeinigte Reich. Die wahre Macht lag aber fortan beim Hausmeier Aega und der Witwe Dagoberts. Die Hausmeier strebten nun auch nach der gesamten Macht im Reich. Ob die Merowingerkönige nach Dagobert allerdings durchgängig wirklich so schwach waren, wie es die späteren pro-karolingischen Quellen schildern, ist nicht eindeutig. In jüngerer Zeit äußern Historiker wie Ian N. Wood, Bernhard Jussen oder Johannes Fried zumindest vermehrt Zweifel an der Zuverlässigkeit der diesbezüglich parteiischen Berichten aus der Karolingerzeit. Ein Intermezzo brachten die Jahre 657–662, in denen der Sohn des Hausmeiers Grimoald, der unter dem Namen Childebertus adoptivus in die Geschichte einging, von dem Merowinger Sigibert III. adoptiert wurde und in diesen Jahren auf dem Thron saß. In der Schlacht bei Tertry (687) schließlich besiegte der austrasische Hausmeier Pippin II. den rechtmäßigen Herrscher des fränkischen Gesamtreiches und schuf so die Voraussetzung für den weiteren Aufstieg der Arnulfinger und Pippiniden und später den der Karolinger. Pippin wagte es aber nach dem im Endeffekt missglückten „Staatsstreich“ Grimoalds noch nicht, sich selbst zum König zu erheben, weil das dynastische Denken zu stark ausgeprägt war, das in spätantiker Tradition nur einer einzigen Familie das Recht auf die Herrschaft zusprach. 714, nach dem Tode Pippins, entbrannten Machtkämpfe, in denen sich 719 sein unehelicher Sohn Karl Martell durchsetzte. Der für seine Härte und sein Durchsetzungsvermögen bekannte Karl stand vor schwierigen innen- und außenpolitischen Problemen. Immer wieder versuchten einige Führer der "alten" Reichsadelsgeschlechter im Frankenreich, sich gegen seine Herrschaft aufzulehnen. Einen Wendepunkt stellte das Jahr 732 dar. In der Schlacht bei Tours und Poitiers besiegte Karl, gemeinsam mit seinem ehemaligen Feind Eudo von Aquitanien und unterstützt von den Langobarden, die muslimischen Araber. Hierfür wurde er als Retter des Abendlandes gefeiert. Auch die Kämpfe gegen Friesen, Sachsen, Bajuwaren und Alamannen festigten seine Herrschaft. Daneben unterstützte er die Missionsarbeit des Bischofs Bonifatius in diesen Gebieten. Ab 737 herrschte er nach dem Tode des merowingischen Königs Theuderich IV. allein über das Frankenreich, wie schon sein Vater ohne Königstitel. Nach fränkischer Tradition teilte Karl Martell das Reich kurz vor seinem Tode unter seinen Söhnen Karlmann und Pippin III. auf. Das Frankenreich unter den Karolingern. Pippin III. wurde Alleinherrscher, nachdem sein Bruder Karlmann ins Kloster gegangen war. 751 schloss er ein Bündnis mit dem Papsttum, setzte den letzten merowingischen König, Childerich III. ab und ließ er sich dann nach alttestamentlichem Vorbild zum König salben. Drei Jahre später salbte ihn Papst Stephan II. ein zweites Mal. Im Vertrag von Quierzy (754) versprach Pippin, das ehemalige oströmische Exarchat von Ravenna dem Papst als weltliche Herrschaft zu übertragen (Pippinische Schenkung); im Gegenzug legitimierte der Papst die Karolinger als Könige des Frankenreichs. Schon 755 ereilte den fränkischen König die Bitte, dem Vertrag nachzukommen. Bis zu seinem Tode führte Pippin zwei erfolgreiche Feldzüge gegen die Langobarden und schenkte dem Papst die eroberten Gebiete. Pippin III. gilt so als Begründer des Kirchenstaates. Bei seinem Tode 768 hinterließ er seinen Söhnen Karl und Karlmann ein Reich, das politisch wie wirtschaftlich im Aufbau begriffen war. Kurze Zeit später (771) starb Karlmann, und Karl der Große wurde dadurch Alleinherrscher. Durch den von seinem Vater geschlossenen Vertrag mit dem Papst war Karl diesem verpflichtet. Da die Langobarden die Schenkungen Pippins nicht anerkannten, führte Karl weiter gegen sie Krieg und eroberte ihr Reich im Jahre 774. Neben den Langobardenfeldzügen schritt die Missionierung im Osten voran. Besonders die Kriege gegen die Sachsen bestimmten die Politik Karls bis 785, als sich Widukind schließlich dem fränkischen König unterwarf. Die Sachsenkriege dauerten noch bis 804 fort (letzter Feldzug der Franken nach Nordelbien). 811 wurde die Eider als Grenze zwischen dem fränkischen und dem dänischen Reich festgelegt; damit war die Nordexpansion der Franken abgeschlossen. Die zahlreichen Kriege bewirkten eine fortschreitende Feudalisierung, eine Stärkung der Reichen und einen Anstieg der feudalabhängigen Bauern. Im Ergebnis dieser Entwicklung wuchsen Besitz und Macht der Lehnsherren, insbesondere des Königs (und späteren Kaisers) und der Herzöge. Auch die Kirche konnte ihre Macht festigen. Karl konsolidierte die Staatsmacht nach außen durch die Errichtung von Grenzmarken. Diese waren Bollwerke für die Reichsverteidigung und Aufmarschgebiete für Angriffskriege. Zur Verwaltung setzte er Markgrafen ein, die mit besonderen Rechten ausgestattet waren, da die Marken nicht direkt Teil des Reiches waren und somit auch außerhalb der Reichsverfassung standen. In den Marken wurden Burgen errichtet und eine wehrhafte Bauernbevölkerung angesiedelt. Besonders wichtig waren hierbei die Marken im Osten des Reiches, die Awarenmark (siehe auch Marcha Orientalis) und die Mark Karantanien, aus denen später Österreich hervorging (siehe auch Ostarrîchi). Zur Festigung seiner Herrschaft nach innen zentralisierte Karl die Königsherrschaft um 793 durch eine Verwaltungsreform. Die Königsherrschaft gründete sich auf den königlichen Hof, das Pfalzgericht und die Kanzlei. Im Reich verwalteten Grafen die Königsgüter (Pfalzen). Pfalz- und Markgrafen wurden durch Königsboten "(missi dominici)" kontrolliert und sprachen königliches Recht. Aachen wurde unter Karl zur Kaiserpfalz und zum Zentrum des Frankenreiches. Den Höhepunkt seiner Macht erreichte Karl am 25. Dezember 800 mit der Krönung zum römischen Kaiser: Damit war das Frankenreich – neben dem Byzantinischen Kaiserreich und dem Kalifat der Abbasiden – nun endgültig eine anerkannte Großmacht. Der Niedergang des Frankenreichs. Nach 46-jähriger Herrschaft starb Karl 814 in Aachen. Sein Sohn Ludwig der Fromme wurde Kaiser. Dieser versuchte, entgegen der fränkischen Tradition, welche die Aufteilung des Erbes vorsah und wie es auch Karl der Große in der Divisio Regnorum von 806 bestimmt hatte, die Reichseinheit zu wahren und erließ 817 ein Reichsteilungs- oder besser Reichseinheitsgesetz (Ordinatio imperii). Schließlich galt auch die Kaiserwürde als unteilbar. Deswegen bestimmte Ludwig seinen Sohn Lothar zum Mitkaiser. Das Gesetz sah vor, dass immer der älteste Sohn des Kaisers den Titel des römischen Kaisers erben sollte. Ludwig entschied sich für den Reichseinheitsgedanken, wenn auch unter kirchlichem Einfluss, der die Einheit des Reiches als Pendant zur Einheit der Kirche sah. Daher spielten die Bischöfe auch eine besondere politische Rolle: Sie stellten sich gegen die Söhne des Kaisers, die für die Aufteilung des Reiches waren. Seit 829 führten diese Spannungen zu militärischen Auseinandersetzungen zwischen dem Kaiser und seinen Söhnen. Als Ludwig 840 starb, wurde Lothar I. zwar Kaiser, doch einigten sich die Söhne 843 im Vertrag von Verdun, das Frankenreich aufzuteilen. Später wurde das Reich durch die Prümer Teilung (855) und die Verträge von Mersen (870) und Ribemont (880) weiter aufgeteilt. Die Reichseinheit wurde, außer kurzzeitig unter Karl III. (885–887), nicht wiederhergestellt. Die einzelnen Teile entwickelten unterschiedliche Sitten, Bräuche, Sprachen und wurden so zu eigenständigen Staaten. Einige Zeit darauf sprach man von einem West- und Ostfränkischen Reich, bis dieser Hinweis auf die gemeinsame Herkunft ein Jahrhundert später verschwand. Vom alten Frankenreich sollte nur der westliche Teil den Namen "„Frankreich“" übernehmen. Das aus dem Ostfrankenreich entstehende Heilige Römische Reich, aus dem später Deutschland hervorging, führte die Tradition des römischen Kaisertums fort. Ein Herzogtum Franken konnte sich dort im Frühmittelalter nicht durchsetzen und wurde aufgeteilt. Jedoch hat der fränkische Name in der Region Franken, die jeweils einen kleinen oder größeren Teil der Länder Baden-Württemberg, Bayern, Thüringen und Hessen ausmacht, bis in die moderne Zeit überlebt, ebenso wie der Gebrauch des Wortes "Franken" in einigen Dialektgruppen: Niederfränkisch, Mittelfränkisch, Rheinfränkisch, Südfränkisch und Ostfränkisch. Divisio Regnorum (806). Das Testament Karls des Großen sah die Aufteilung unter seinen Söhnen Pippin, Ludwig dem Frommen und Karl dem Jüngeren vor ("siehe" Divisio Regnorum). Da jedoch Pippin und Karl der Jüngere bereits 810 bzw. 811 und damit vor ihrem Vater verstarben, wurde dieser Plan aufgegeben und Ludwig wurde stattdessen 813 zum Mitkaiser erhoben, der so nun nach dem Tod seines Vaters 814 im Besitz aller kaiserlichen Rechte seine Nachfolge antreten konnte. Vertrag von Verdun (843). Die Gebietsaufteilung im Vertrag von Verdun 843 Die Aufteilung des Fränkischen Reichs ging auf den teils kriegerischen Erbfolgestreit zurück, den Kaiser Ludwig I., "der Fromme," mit seinen Söhnen führte. Nach einer Palastrevolution und Gefangennahme wurde Kaiser Ludwig I. Anfang der 830er Jahre von seinen Söhnen entmachtet. Ab 831/832 verselbständigten die Söhne zunehmend ihre Herrschaftsbereiche im Reichsverband und beließen ihren Vater in der Funktion eines "Titularkaisers". Drei Jahre nach dem Tod ihres Vaters leiteten Kaiser Lothar I., König Karl der Kahle und König Ludwig der Deutsche 843 im Vertrag von Verdun die Teilung und damit das Ende des Fränkischen Reiches ein; die Reichseinheit war nicht mehr zu gewährleisten und endete faktisch mit dem Vertrag von Verdun. Prümer Teilung (855). 855 veranlasste Lothar I. in der Prümer Teilung die Aufteilung des Mittelreiches unter seinen Söhnen. Vertrag von Meersen (870). Nach dem Tod der Söhne Lothars I. wurde das einstige Mittelreich unter Karl dem Kahlen und Ludwig dem Deutschen im Vertrag von Meersen aufgeteilt. Vertrag von Ribemont (880). Nach vergeblichen Versuchen Karls des Kahlen, das ganze Mittelreich zu erobern (Erste Schlacht bei Andernach 876), erhielt der ostfränkische König Ludwig III. durch den Vertrag von Ribemont die Westhälfte Lotharingiens. Damit war die Aufteilung des Frankenreiches vorläufig abgeschlossen, die Grenze zwischen dem West- und Ostteil blieb das ganze Mittelalter über nahezu unverändert. Nach dem Tod der Könige Ludwig III. (882) und Karlmann (884) wurde der ostfränkische König Karl III. bis 888 noch letzter Kaiser des Gesamtreiches (außer Niederburgund). Der Streit zwischen den späteren Nachfolgestaaten Deutschland und Frankreich um Gebiete, die einst Teile des Mittelreichs waren, reichte als sogenannte "Erbfeindschaft" bis ins 20. Jahrhundert hinein. Die Bevölkerung. Im Frankenreich war der Großteil der Bevölkerung Bauern oder bäuerliches Gesinde. In vielen Gegenden gab es keine Städte, da Gallien bereits in der Antike zu den weniger stark urbanisierten Teilen des "Imperium Romanum" gezählt hatte. Vor allem im Süden bestanden aber verkleinerte römische Anlagen fort, die als Verwaltungsmittelpunkte von Civitates unter Bischöfen oder "comites" („Grafen“) weiter existierten. Im Süden des Frankenreichs stellten die Gallorömer die große Mehrheit der Bevölkerung, weshalb sich die germanischen Dialekte der fränkischen Kriegerschicht hier nie durchsetzten. Im Norden setzten sich hingegen fränkische Sprache und Lebensweise stärker durch. Hier war das Leben insgesamt primitiver als im Süden. Über dem niederen Volk befand sich eine dünne Schicht von Adligen, in der damaligen Zeit meist „die Großen“ genannt. Die Lebensweise der bäuerlichen Bevölkerung im Frankenreich lässt sich nicht mit der heutigen vergleichen. Die materielle Kultur war nach dem Zerfall der antiken Strukturen nun erheblich einfacher als in römischer Zeit, und anders als in der Kaiserzeit konnte nun auch nur noch ein Bruchteil der Menschen lesen und schreiben. Der Großteil der Menschen verbrachte sein ganzes Leben in demselben Dorf. Täglich wurde von Sonnenaufgang bis Sonnenuntergang gearbeitet, außer am Sonntag und an kirchlichen Festtagen. War man alt genug, heiratete man und bekam beinahe jährlich ein Kind; die meisten Kinder starben jung. Allgemein war die Lebenserwartung wesentlich niedriger als heute, mit 50 Jahren galt eine Bäuerin oder ein Bauer als Greis. Die meisten Menschen kannten nebst ihrem Dorf nur den Weg zur nächsten Kirche und umliegende Ortschaften. Von dem Geschehen in größerer Entfernung hatte der Großteil keine Ahnung. Ein zusätzliches Hindernis war das Fehlen von befestigten Straßen außer denjenigen, die von den Römern angelegt worden waren. Arbeiten auf dem Land wurden von den Bauern in der gleichen Weise verrichtet, wie es einst ihre Väter vor ihnen taten. Genaue Zahlen über die damalige Bevölkerung sind nicht bekannt, so dass die Historiker auf Schätzungen angewiesen sind. Diese ergaben eine ungefähre Anzahl von 2 Millionen Einwohnern im nördlichen, „deutsch“-sprachigen Teil des Frankenreichs. Für das ganze Reich nimmt man eine durchschnittliche Bevölkerungsdichte von etwa 8 Einwohnern/Quadratkilometer an, für die fränkischen Sprachgebiete hingegen nur eine durchschnittliche Anzahl von 4 bis 5 Einwohnern/Quadratkilometer. Entstehung der Grundherrschaft. Die Krieger des fränkischen "rex" übernahmen nach dem Kollaps des weströmischen Reiches vielfach die Herrenhöfe gallo-römischer Vorgänger, während andere Latifundien nicht den Besitzer wechselten. Wie die anschließende Transformation der spätrömischen Wirtschaft und Gesellschaft genau ablief, ist unklar; der Prozess war jedenfalls weitaus komplexer, als es die Forschung lange annahm. Details kennt man erst für die karolingische Zeit: Die Knechte und Mägde, die neben dem Herrenhof wohnten, kümmerten sich nun um das Land des Herren. Sie bekamen kein Geld, aber dafür Verpflegung und Unterkunft. Die Handwerker unter ihnen stellten die Kleidung und Waffen her und pflegten diese. Die Ärmeren wurden zu Heeresdienst gezwungen. Die anderen, die Abgaben leisten konnten, wurden nach Hause entlassen. Die Bauern als der vorherrschende Teil der Landbevölkerung im Mittelalter wurden genau nach ihrem Rechtsstatus unterschieden. Es gab Freie, Halbfreie und Unfreie, später wurde noch zwischen Leibeigenen und Hörigen unterschieden. Auch die Adligen waren anfangs nur Großbauern mit besonders umfangreichem Besitz an Land, Allod genannt, und an Menschen. Über diese Angehörigen seines Hauses übte der Adlige ein weitreichendes Herrenrecht aus. Zum Haus zählten dabei in weiterem Sinne auch abhängige Familien. Eine ähnliche Stellung nahmen zuvor in der spätrömischen Gesellschaft die Großgrundbesitzer ein, denen ein umfangreicher Besitz an Latifundien gehörte, in dessen Zentrum ein luxuriöser Herrenhof stand, der von zahlreichen abhängigen Bauern bewirtschaftet wurde. Daneben gehörten noch Handwerker zu dessen Besitz, so dass man nahezu von Selbstversorgung ausgehen kann. Diese Bauern waren an ihr Stück Land gebunden und durften nicht wegziehen, um sich an einem anderen Ort einen anderen Herren oder gar einen anderen Beruf zu suchen. Aus diesen beiden Wurzeln entstand in einer langen Entwicklung die neue Gesellschaftsordnung der heutzutage so genannten Grundherrschaft im Frankenreich. Die Grundherrschaft setzte sich im ganzen Reich durch. Sie breitete sich rasch auch in den Gebieten aus, die erst um 800 in fränkischen Besitz gelangten. Grundherren waren Adlige, Klöster, Bischöfe und der König, der damals der größte Grundeigentümer war. Die Bauern, die unter eine solche Herrschaft fielen, wirtschafteten den größten Teil der Zeit nicht selbstständig, sondern mussten gleichzeitig auf den Feldern des Eigentümers mithelfen. Die Grundherrschaft wurde zum „Grundbaustein“ des damaligen Gesellschaftsbaus und spätestens in karolingischer Zeit zum üblichen landwirtschaftlichen Betrieb, ähnlich wie heute der Bauernhof der übliche landwirtschaftliche Betrieb ist. Grundherren. Die Grundherren waren in karolingischer Zeit alle Adligen (Bischöfe, Äbte). Der hörige Bauer des Mittelalters durfte ohne die Erlaubnis seines Grundherren nicht aus der Grundherrschaft ausscheiden. Die Hörigen mussten Dienste für ihren Herrn verrichten und ihm dabei regelmäßig Abgaben zahlen, meist in Form von Anteilen an der Ernte. Aber auch der Eigentümer hatte Pflichten, die es zu erfüllen galt. Er musste seinem Untergebenen „Schutz und Schirm“ bieten, das heißt ihn schützen und unterstützen, beispielsweise bei Krankheiten, einem Brand oder einer starken Missernte. Er musste ihn sowohl vor Angreifern verteidigen, als auch in seinem Namen Rache üben, falls er umgebracht werden sollte. Innerhalb seiner eigenen Grundherrschaft war er der Hüter des Friedens, so sprang er auch bei Streitereien als Vermittler und Richter ein und konnte im Streitfall den Friedensbrecher bestrafen. Die Grundherrschaft gliederte sich dabei in verschiedene Bereiche. Es gab je nach Größe des Hofes eine Kirche, verschiedene Werkstätten (Lederwerkstatt, Schmiede, Wagnerei, Schneiderei, Tuchfärberei, Schuhmacher), eine Brauerei, eine Mühle und eine Kelterei. Dazu gab es natürlich eine Vielzahl von Feldern, von denen der Großteil den Hörigen zur Verfügung gestellt wurde. Ein Teil der Felder war jedoch noch im Besitz des Grundherrn. Und so gehörte es nebst den Abgaben ebenfalls zu den Aufgaben der Bauern, täglich eine bestimmte Zeit auf diesen Feldern zu arbeiten, bevor sie sich um die Bestellung ihrer eigenen Flächen kümmern konnten. Nebst den Hörigen gab es auch das so genannte Gesinde. Mit diesem Begriff bezeichnet man die Knechte und Mägde des Grundherrn, deren einzige Aufgabe darin bestand, auf den Feldern ihres Eigentümers Frondienst zu leisten. Sie wohnten zumeist im Fronhof oder unmittelbar daneben. Bauern. Nebst den zahlenmäßig größten Schichten der Bevölkerung, dem hörigen Bauern und dem grundherrlichen Gesinde, gab es im Frankenreich noch zwei weitere bäuerliche Schichten: die Zinsbauern und die Königsfreien. Bei den Zinsbauern handelt es sich um solche Landwirte, die keiner Arbeit auf dem Fronhof oder dem Herrenacker verpflichtet waren, dem Grundherren jedoch eine bestimmte Abgabe zahlten, damit dieser sie vor allfälligen Gefahren schützt. Im Laufe der Zeit wurden sie den Hörigen langsam angepasst und gegen Ende des Frankenreichs (etwa um 900) unterschieden sie sich praktisch nicht mehr von ihnen. Die Königsbauern waren Bauern, die außer dem König keinen Menschen über sich hatten. Meist gehörten sie dem fränkischen Stamm an. Sie waren zur Heerfolge verpflichtet, wenn der König seine Armee aufbot und dienten dort als Fußkrieger. Die Frankenkönige hatten seit dem Einbrechen der Franken in Gallien die Königsbauern zumeist auf herrenloses Land gesetzt. Karl der Große siedelte vor allem in Sachsen diese Bauern an, die er vermutlich aus den Hörigen der Königsgüter, über die er Grundherr war, hatte auswählen lassen. Sie sollten damit gleichzeitig die fränkische Herrschaft über Sachsen sichern. Es kam nicht selten vor, dass Könige ein vormals an einen Königsfreien vergebenes Land wieder an eine neue Person verschenkten, beispielsweise als Landgeschenk an ein Kloster oder wenn sie einen Vasallen mit Grund ausstatten wollten. In diesem Fall wurde das Land mitsamt dem Königsfreien verschenkt. Dieser blieb zwar theoretisch gesehen ein freier Mann, war aber gleichzeitig seinem neuen Eigentümer untertan. Zuerst verlor er das Recht, von seinem Besitz wegzuziehen und wurde Schritt für Schritt zum Hörigen gemacht. Es gab aber auch Fälle, in denen sich ein Königsfreier freiwillig einem Grundherren untertan machte. Dies konnte verschiedene Gründe haben: Verarmung und die Unfähigkeit, selber weiter zu wirtschaften, eine große Anzahl Schulden an einen Grundherren, die nicht mehr zurückgezahlt werden konnten oder weil er sich nicht mehr für das Heer aufbieten lassen wollte. Ohne dass es ein genaues Gesetz gab, bürgerte es sich mit der Zeit ein, dass hörige Bauern nicht mehr dazu verpflichtet waren, in Kriegen zu kämpfen. Gegen Ende des Frühmittelalters wurde in den verschiedensten Gegenden Frankreichs und Deutschlands beschlossen, dass kein Landbewohner frei sein könne. Das heißt, jeder Bauer musste einen Grundherren über sich haben und gehörte damit entweder zum Gesinde eines Herrn oder zu dessen hörigen Bauern. Klöster im Frankenreich. Im Laufe der Jahrhunderte nahm die Anzahl Klöster im Reich stark zu. Seit dem ersten Karolingerkönig und seit Bischof Bonifatius nahmen mehr und mehr solcher Einrichtungen die 530 verfasste Regel des heiligen Benedikt an. Benedikt von Nursia hatte hiermit das Zusammenleben und Verhalten der Mönche in seinem Kloster auf dem Montecassino bei Neapel festgelegt. Es wurde in der darauf folgenden Zeit zur Mustereinrichtung für das gesamte europäische Klosterwesen. Mönche und Nonnen wurden hauptsächlich jene, die sich von der restlichen Welt mit ihren Freunden oder Bindungen zurückziehen wollten, um ihr Leben in den Dienst Gottes zu stellen. Es gab jedoch noch weitere Beweggründe für einen Eintritt, so wurden Klosterbrüder und -schwestern wirtschaftlich hinreichend versorgt. Fünfmal am Tag und zweimal in der Nacht versammelten sich die Mönche in ihrer Kirche zu Gebeten und zum Psalmensingen. Bei den Mahlzeiten las immer abwechselnd ein Mönch seinen Brüdern aus den Schriften von Heiligen vor. Aufgrund der drei Gelübde, die Mönche bei ihrem Eintritt ablegen mussten, durften sie weder eine Ehe führen noch Kinder haben. Sie sollten mittellos sein und waren dem jeweiligen Abt zu Gehorsam verpflichtet. Dies alles sollte dazu dienen, dass ein Mönch sein Leben nur auf Gott ausrichten konnte. Da Untätigkeit als eine Sünde galt, schrieb das Reglement vor, dass die Mönche mehrere Stunden pro Tag arbeiten und mehrere Stunden lesen sollten. Alles, was man zum Leben brauchte, wurde in der Klosteranlage hergestellt. Ein Teil der Mönche verrichtete seine Arbeit auf den Feldern, ein Teil seine im Klostergarten. Wieder andere verrichteten ihren Dienst als Abschreiber, indem sie Pergamentschreiben oder Bücher aus den Klosterbibliotheken kopierten. Nebst vorwiegend christlichen Schriften wurden auch Bücher „weltlicher“ Autoren übernommen, beispielsweise die Schriften von Titus, Caesar und Vergil. Ab dem 6. Jahrhundert entstanden zusätzlich zu den Mönchsklöstern auch Frauenklöster für Nonnen. Nonnen verrichteten keine Feldarbeit, arbeiteten jedoch oftmals im Garten. Im Frankenreich wurden Klöster vielfältig mit Ländereien beschenkt und konnten sich auf diese Weise zu reichen Grundherren entwickeln. Die großen Klöster beschäftigten unter anderem auch Knechte, die als Handwerker in gewissen Werkstätten arbeiteten. Von Adligen wurden die Klöster nicht selten auch als Versorgungsstätten für ihre Söhne und Töchter verwendet, die sie nicht hatten verheiraten können. Hier konnten sie zwar kein adeliges Leben führen, allerdings ohne wirtschaftliche Not leben. Überdies waren die einem Kloster vorstehenden Äbte und Äbtissinnen in vielen Fällen von adeliger Herkunft. "Siehe auch:" Kloster, Klosteralltag (Zisterzienser) Stellung des Königs. Der König stand seit karolingischer Zeit nicht nur über den gewöhnlichen Bauern und den Adligen, sondern auch über den Äbten und Bischöfen in seinem Reich. Er war bei weitem der größte Grundherr im Land. In einer Vielzahl von Gebieten hatte er Adlige zu Grafen gemacht; mit diesem Titel führten sie dort die Aufsicht über die in der Nähe gelegenen Königsgüter und einzelne Fronhöfe, wirkten beim Heeresaufgebot mit und zogen die dem König zustehenden Abgaben aus dem Land (Grenz-, Schifffahrts- und Wegzölle, Münzenprägungs- und Marktabgaben) ein. In einigen seiner Gutshöfe ließ der König ab karolingischer Zeit größere, steinerne Gebäude errichten, die sogenannten Pfalzen (von lat. "palatium", „Palast“). Alle Königsgüter hatten ihre Überschüsse an die nächstgelegene solche Einrichtung zu entrichten. Jeder Pfalz stand ein Pfalzgraf vor. Der König hatte keine feste Hauptstadt, sondern zog mit seinem Hofgefolge von Pfalz zu Pfalz. Zum einen war sein Gefolge auf diese Weise leichter zu versorgen, zum anderen konnte er so Präsenz im Reich zeigen – da mit dem Ende des weströmischen Reiches auch die antike Infrastruktur und Verwaltung zerfallen waren, war dies unumgänglich, um Kontrolle auszuüben. Zum Gefolge zählten ein Kämmerer, dessen Aufgabe darin bestand, den Königsschatz und die Einkünfte des Königs zu verwalten, und der Marschall, der die berittenen Krieger der Königswache befehligte. Ein Geistlicher war ebenfalls anwesend und leitete die Kanzlei. Er las dem König die Briefe anderer Herrscher oder von Bischöfen vor, verfasste die Antwortschreiben und ließ durch die ihm unterstehenden Hofgeistlichen die Schenkungs- und andere königliche Urkunden verfassen. Der Herrscher selbst konnte nur in den wenigsten Fällen lesen und schreiben. Auch Karl der Große hatte dieses Problem: Anstelle seiner Unterschrift zeichnete er auf eine Urkunde oder ein Schreiben einen kleinen Strich und vervollständigte so sein Monogramm, um die Urkunde für gültig zu erklären. Fakultät (Mathematik). Die Fakultät (manchmal, besonders in Österreich, auch Faktorielle genannt) ist in der Mathematik eine Funktion, die einer natürlichen Zahl das Produkt aller natürlichen Zahlen (ohne Null) kleiner und gleich dieser Zahl zuordnet. Sie wird durch ein dem Argument nachgestelltes Ausrufezeichen („!“) abgekürzt. Diese Notation wurde erstmals 1808 von dem elsässischen Mathematiker Christian Kramp (1760–1826) verwendet, der um 1798 auch die Bezeichnung "faculté" „Fähigkeit“ dafür einführte. Definition. Für alle natürlichen Zahlen formula_1 ist als das Produkt der natürlichen Zahlen von 1 bis formula_1 definiert. Da das leere Produkt stets 1 ist, gilt außerdem Fakultäten für negative oder nicht ganze Zahlen sind nicht definiert. Beispiele. Diagramm von 0! bis 4! Permutationen. In der abzählenden Kombinatorik spielen Fakultäten eine wichtige Rolle, weil formula_2 die Anzahl der Möglichkeiten ist, formula_1 unterscheidbare Gegenstände in einer Reihe anzuordnen. Falls formula_11 eine formula_1-elementige Menge ist, so ist formula_2 auch die Anzahl der bijektiven Abbildungen formula_14 (die Anzahl der Permutationen). Dies gilt insbesondere auch für den Fall formula_15, da es genau eine Möglichkeit gibt, die leere Menge auf sich selbst abzubilden. Beispielsweise gibt es bei einem Autorennen mit sechs Fahrern formula_16 verschiedene Möglichkeiten für die Reihenfolge beim Zieleinlauf, wenn alle Fahrer das Ziel erreichen. Für den ersten Platz kommen alle sechs Fahrer in Frage. Ist der erste Fahrer angekommen, können nur noch fünf Fahrer um den zweiten Platz konkurrieren. Für die Belegung des zweiten Platzes ist es maßgeblich, welcher der sechs Fahrer nicht berücksichtigt werden muss (da er bereits auf Rang 1 platziert ist). Daher muss für jede Belegungsmöglichkeit von Platz 1 gesondert gezählt werden, wie viele Belegungsmöglichkeiten für Platz 2 bestehen. Für die Belegung der Plätze 1 und 2 ergeben sich bei sechs Fahrern daher formula_17 Möglichkeiten. Ist auch der zweite Platz vergeben, kommen für den dritten Platz nur noch vier Fahrer in Frage, woraus sich für die ersten drei Plätze und sechs Fahrer formula_18 Belegungsmöglichkeiten ergeben, usw. Letztlich gibt es also Binomialkoeffizienten. Ein Begriff, der in der abzählenden Kombinatorik eine ähnlich zentrale Stellung wie die Fakultät einnimmt, ist der Binomialkoeffizient Er gibt die Anzahl der Möglichkeiten an, eine formula_21-elementige Teilmenge aus einer formula_1-elementigen Menge auszuwählen. Hier ist das beliebteste Beispiel, das Zahlenlotto 6 aus 49 mit Taylorreihen. Eine prominente Stelle, an der Fakultäten vorkommen, sind die Taylorreihen vieler Funktionen wie zum Beispiel der Sinusfunktion und der Exponentialfunktion. Numerische Berechnung. Die Fakultät und die Stirlingformel Der numerische Wert für formula_2 kann gut rekursiv oder iterativ berechnet werden, falls formula_1 nicht zu groß ist. Die größte Fakultät, die von den meisten handelsüblichen Taschenrechnern berechnet werden kann, ist formula_28 da formula_29 außerhalb des üblicherweise verfügbaren Zahlenbereiches liegt. Die größte als Gleitkommazahl im Format "double precision" des IEEE-754-Standards darstellbare Fakultät ist formula_30. Dabei bedeutet formula_34, dass der Quotient aus linker und rechter Seite für formula_35 gegen formula_36 konvergiert. Pythonprogramm. Umsetzung der Fakultätberechnung in ein Pythonprogramm (in der Programmiersprache Python kann mit beliebig großen ganzen Zahlen gerechnet werden, Grenzen setzt lediglich der verfügbare Speicher). Auf einem Intel Pentium 4 benötigt zum Beispiel die Berechnung von 10000! nur wenige Sekunden. Die Zahl hat 35660 Stellen in der Dezimaldarstellung, wobei die letzten 2499 Stellen nur aus der Ziffer "Null" bestehen. n = int(input('Fakultaet von n = ')) n = int(raw_input('Fakultaet von n = ')) Faktorielle. Eine kombinatorische Verallgemeinerung stellen die steigenden und fallenden Faktoriellen formula_40 und formula_41 dar, denn formula_42. Subfakultät. Die vor allem in der Kombinatorik auftretende Subfakultät bezeichnet die Anzahl aller fixpunktfreien Permutationen von formula_1 Elementen. Doppelfakultät. Die seltener verwendete "Doppelfakultät" oder "doppelte Fakultät" ist für gerade "n" das Produkt aller geraden Zahlen kleiner gleich "n". Für ungerade "n" ist es das Produkt aller ungeraden Zahlen kleiner gleich "n". Werden nicht ganzzahlige Funktionswerte zugelassen, dann gibt es genau eine Erweiterung auf negative ungerade Zahlen, so dass "n"!! = "n" · ("n"−2)!! für alle ungeraden ganzen Zahlen "n" gilt. Man erhält die Formel formula_53 für ungerade "n"<0. Die Anzahl formula_54 der formula_1 -stelligen Kombinationen aus elementfremden Paaren gebildet aus formula_56 Elementen wird gegeben durch die Rekursion formula_57 mit Rekursionsanfang formula_58 (2 Elemente!). Auflösung der Rekursion ergibt formula_59. Sollen z. B. formula_56 Mannschaften durch Verlosung paarweise aufeinandertreffen, dann ist die Wahrscheinlichkeit, dass dabei 2 bestimmte gegeneinander spielen, gegeben durch formula_61. Multifakultät. Analog zur doppelten Fakultät wird eine dreifache (formula_62), vierfache (formula_63)..., formula_21-fache Fakultät (formula_65) rekursiv definiert als Superfakultät. mit der Barnes’schen Funktion formula_69, die andere als mehrfache Potenz einer Fakultät Hyperfakultät. Sie kann durch die K-Funktion auf komplexe Zahlen verallgemeinert werden. Primzahlexponenten. Falls nicht die vollständige Zahl formula_2 gesucht ist, sondern nur der Exponent einer ihrer Primfaktoren, so lässt sich dieser direkt und effizient ermitteln. Hier steht formula_76 für den Exponenten von formula_77 in der Primfaktorzerlegung von formula_21. Im obigen Beispiel wäre für die Anzahl der Nullen am Ende von "10.000!" der Exponent der 5 zu bestimmen, der Exponent der 2 ist auf jeden Fall größer. Frank Herbert. Frank Herbert im Jahr 1978 Frank Patrick Herbert (* 8. Oktober 1920 in Tacoma, Washington; † 11. Februar 1986 in Madison, Wisconsin) war ein US-amerikanischer Fantasy- und Science-Fiction-Autor. Als sein wichtigstes Werk gilt der Romanzyklus "Dune", der bereits mehrfach verfilmt wurde. Leben. Nach eigener Aussage hegte Herbert bereits zu seinem achten Geburtstag den Wunsch, Schriftsteller werden zu wollen. Da seine Familie jedoch in Armut lebte, boten sich ihm kaum Perspektiven, diesen Traum in die Wirklichkeit umsetzen zu können. Im Alter von 18 Jahren zog er schließlich zu Verwandten nach Salem, wo er die Schule beendete und als freier Journalist zu arbeiten begann. Um an Aufträge zu gelangen, fälschte er unter anderem seine Dokumente, um älter zu erscheinen. Nach Ausbruch des Zweiten Weltkrieges wurde Herbert in die Marine eingezogen, für die er als Fotograf zum Einsatz kam. Nach seiner Entlassung heiratete er 1940 seine erste Frau, Flora Parkinson. Die Ehe hielt jedoch nur fünf Jahre und blieb kinderlos. 1946 lernte Herbert während des Studiums an der Universität von Washington in einem Seminar für kreatives Schreiben seine zweite Frau, Beverly Ann Stuart, kennen. Mit ihr sollte er später zwei Söhne haben. Brian, der 1947 geboren wurde, ist ebenfalls schriftstellerisch tätig. Bruce, der 1951 zur Welt kam und 1993 an HIV verstarb, war Aktivist im Kampf für die Rechte von Schwulen und Lesben. Sein Studium brach Herbert bald wieder ab und begann in Seattle erneut für unterschiedliche Tageszeitungen als Journalist zu arbeiten. Nebenbei schrieb er erste Kurzgeschichten, die unter anderem im "Esquire" sowie Pulpmagazinen veröffentlicht wurden. Nach sechs Jahren der Recherche und des Schreibens versuchte Herbert zuerst erfolglos, einen Verleger für das erste Buch seines Romanzyklus "Dune" zu finden. Zwanzig Absagen später erschien es endlich 1965 und leitete den Beginn seiner literarischen Karriere ein. Unter anderem erhielt das Werk im selben Jahr den begehrten Nebula Award und 1966 den renommierten Hugo Award. In dem Science-Fiction-Roman verknüpft Herbert Probleme der Ökologie mit philosophischen, politischen und sozialen Fragestellungen. Den spezifischen Stil, aus der Perspektive verschiedener Handlungsträger die Erzählung zu verknüpfen, nutzte er auch in seinen späteren Veröffentlichungen. Seit 1970 unterrichtete Herbert selbst als Dozent an der Universität von Washington. Ab 1972 war er schließlich Vollzeitschriftsteller geworden und hatte seit etwa 1980 neben seinem Wohnsitz im Bundesstaat Washington auch ein Haus auf Hawaii. Bis in die 1980er Jahre hinein war Herbert höchst produktiv. Es entstanden viele seiner bekanntesten Werke, darunter auch einige in Zusammenarbeit mit Bill Ransom. Nachdem seine Frau Beverly 1984 gestorben war, heiratete er Ende 1985 seine dritte Frau, Theresa Shackleford. Doch nur wenige Monate später starb Herbert im Alter von 65 Jahren an den Folgen eines Bauchspeicheldrüsenkrebses in Madison. Dune-Zyklus. Diese Romane stellen jedoch nach Ansicht vieler Fans eine Abkehr von Herberts eigener Darstellung komplexer Ideen und der Auseinandersetzung mit dem menschlichen Leben dar. Auch der Stil der neuen Bücher ist weniger dicht und intensiv; es finden sich vermehrt reine Abenteuerelemente. Unabhängig davon erschien 1985 von Herbert die Kurzgeschichte "The Road to Dune" (1985 dt. "Auf dem Wüstenplaneten"), ein Auszug aus dem fiktiven „Imperiumsführer“, einer Art Touristenführer. Der siebzehnseitige Text erschien 1990 exklusiv im Sammelband "Auge" mit Illustrationen von Jim Burns. Caleban-Zyklus. Der Caleban-Zyklus Herberts wird in zwei Kurzgeschichten und zwei Romanen behandelt. Leonardo Fibonacci. Leonardo da Pisa, auch Fibonacci genannt (* um 1170 in Pisa; † nach 1240 ebenda), war Rechenmeister in Pisa und gilt als einer der bedeutendsten Mathematiker des Mittelalters. Auf seinen Reisen nach Afrika, Byzanz und Syrien machte er sich mit der arabischen Mathematik vertraut und verfasste mit den dabei gewonnenen Erkenntnissen das Rechenbuch "Liber ab(b)aci" im Jahre 1202 (Überarbeitung 1228). Bekannt ist daraus heute vor allem die nach ihm benannte Fibonacci-Folge. Zum Namen. Leonardo wird in den Handschriften als "Leonardus Pisanus", "Leonardus filius Bonacij", "Leonardus Pisanus de filiis Bonaccij" und "Leonardus Bigollus" bezeichnet. Bonaccio (von lat. "bonatius" „gütig, günstig, angenehm“) war der Großvatername, den Leonardos Vater Guglielmo und dessen Brüder Alberto und Matteo als Patronym führten, und der sich in Leonardos eigener Generation bereits zum Familiennamen verstetigt hatte. Aus "filius Bonacii" bzw. "figlio di Bonaccio" („Sohn des Bonaccio“) wurde im Italienischen dann durch Kontraktion die in Leonardos eigener Zeit noch nicht bezeugte Zunamensform "Fibonacci", unter der Leonardo vor allem wegen der seit Édouard Lucas nach ihm benannten Fibonacci-Folge heute noch am besten bekannt ist. Der Beiname "Bigollus", jeweils nur im Genitiv in der Form "Leonardi Bigolli" belegt und wohl darum in der Literatur zuweilen irrtümlich als Patronym "Leonardo Bigolli" wiedergegeben, ist in seiner Deutung nicht sicher, wird aber meist im Sinne von „der Weitgereiste“ interpretiert. Leben und Schriften. Über die Biographie Leonardos ist nur wenig bekannt, die meisten Angaben gehen zurück auf den Widmungsprolog seines Rechenbuchs "Liber abbaci" und auf ein Dokument der Kommune von Siena. Leonardo wurde in der zweiten Hälfte des 12. Jahrhunderts als einer von mindestens zwei Söhnen des Guglielmo Bonacci in Pisa geboren, wo sich die Familie bis auf den Urgroßvater Leonardos, einen Anfang des 12. Jahrhunderts verstorbenen Bonito, zurückverfolgen lässt. Als der Vater von der Stadt als Notar in die Niederlassung der Pisaner Kaufmannschaft im algerischen Bougie, dem heutigen Bejaia, entsandt wurde – wofür man als Datum um 1192 annimmt –, ließ er auch Leonardo zu sich kommen, um ihn dort im Rechnen unterrichten zu lassen. Leonardo lernte dort das Rechnen mit den "novem figurae indorum" („neun Ziffern der Inder“), unseren heutigen (indo-arabischen) Ziffern, die den arabischen Mathematikern in Bagdad seit der zweiten Hälfte des 8. Jahrhunderts aus Indien bekannt geworden waren und im 12. Jahrhundert von Spanien (Toledo) aus durch lateinische Übersetzungen aus den arabischen Schriften des Al-Chwarizmi auch im Westen allmählich verbreitet wurden. Leonardo war in den neunziger Jahren des 12. Jahrhunderts folglich nicht der erste Lateiner, der das Rechnen mit den neuen Ziffern erlernte, aber er erwarb in Bougie offenbar mathematische Grundlagen, die er höher schätzte als alles, was er bei weiteren Studien an Handelsorten „in Ägypten, Syrien, Griechenland, Sizilien und Südfrankreich“ noch erlernte. Als von ihm vergleichsweise gering, „gleichsam als Irrtum“ eingeschätzte Methoden nennt er besonders den „Algorismus“, worunter das elementare Ziffernrechnen nach Al-Chwarizmi verstanden wurde, von dem sich Leonardos eigene Mathematik eigentlich nur durch die anspruchsvollere Anwendung der Verfahren unterschied, sowie eine von ihm als „Bögen des Pythagoras“ umschriebene Methode: gemeint ist das abazistische Rechnen auf dem im 10. bis 12. Jahrhundert gebräuchlich gewesenen, zu Leonardos Zeit wieder weitgehend außer Gebrauch gekommenen Gerbertschen Abakus, der als Erfindung des Pythagoras galt und auf dem im Unterschied zu den späteren mittelalterlichen Rechenbrettern mit bezifferten Rechensteinen (beziffert mit arabischen Ghubar-Ziffern 1-9) gerechnet wurde. Seine Reisen scheinen ihn gegen Ende des 12. Jahrhunderts auch nach Konstantinopel geführt zu haben, da er von einer der Aufgaben in seinem "Liber abbaci" angibt, dass sie ihm in Konstantinopel von einem dorther stammenden, hochgelehrten Meister namens „Muscus“ ("a peritissimo magistro musco constantinopolitano", ed. Boncompagni, vol. I, p. 249) vorgelegt worden sei. Ein Mathematiker dieses Namens, vermutlich Μόσκος, ist anderweitig nicht bekannt. Nachdem Leonardo, wie er im Widmungsprolog ausführt, seine Kenntnisse weiter vertieft hatte, teils durch eigene Beobachtungen und teils durch Studium der Geometrie Euklids, legte er schließlich die „summa“ seiner mathematischen Kenntnisse in seinem Hauptwerk, dem "Liber abbaci" nieder. Der Titel ist am besten mit „Buch der Rechenkunst“ zu übersetzen, da die ursprüngliche, an das Rechenbrett gebundene Bedeutung von "ab(b)acus" sich in Italien erweitert hatte und zu Leonardos Zeit die allgemeine Bedeutung „Rechenkunst“ angenommen hatte. Die erste, heute nicht mehr erhaltene Fassung dieses Werks soll bereits 1202 (oder 1201?) entstanden sein, allerdings ist dieses Datum nur aus dem Kolophon einer Handschrift der zweiten, einzigen erhaltenen Fassung bekannt. Zudem besteht bei den expliziten Datierungen von Leonardos Schriften generell die Schwierigkeit, dass das Jahr nach dem "mos pisanus" am 25. März des – aus Sicht gewöhnlicher Jahreszählung – voraufgegangenen Jahres begann, so dass von solchen Jahresangaben ein Jahr abzuziehen ist, sofern die Datierung nicht im letzten Jahresviertel (von Januar bis 24. März) erfolgte. Von Leonardo sind noch einige weitere Werke erhalten: eine "Practica geometriae" von 1220 (1219?), gewidmet einem Freund und Lehrer Dominicus, die im 15. Jahrhundert von Cristoforo Gherardo di Dino auch ins Italienische übertragen wurde; ein "Liber quadratorum" von 1225 (1224?), der Friedrich II. gewidmet ist und erwähnt, dass dieser bereits ein Buch Leonardos gelesen habe, was man auf den "Liber abbaci" zu beziehen pflegt; ferner eine nicht datierte Schrift "Flos super solutionibus quarumdam questionum ad numerum et ad geometriam uel ad utrumque pertinentium", welche dem Kardinal Raniero Capocci von Viterbo gewidmet ist und Fragen behandelt, die Leonardo im Beisein Friedrichs II. von einem Magister Johannes aus Palermo vorgelegt worden sein sollen; und schließlich ein Brief an einen Magister Theodorus. Aus Leonardos Schriften geht hervor, dass er auch noch zwei weitere, heute nicht mehr erhaltene Schriften verfasste, ein kürzeres Rechenbuch und einen Kommentar zum zehnten Buch der Elemente Euklids. Die zweite Fassung des "Liber abbaci" entstand dem Widmungsprolog zufolge für Michael Scotus († um 1236), nachdem dieser von Leonardo eine Abschrift des Werkes erbeten und Leonardo aus diesem Anlass einige Ergänzungen und Kürzungen vorgenommen hatte. Da Michael Scotus ab Herbst 1227 am Hof Friedrichs II. bezeugt ist, hat man 1227 auch als Entstehungsdatum für die erhaltene zweite Fassung des "Liber abbaci" angenommen, tatsächlich kann sie aber auch früher oder später entstanden sein, jedoch nicht vor 1220 (1219?), da sie bereits auf die "Practica geometriae" verweist. Die letzte Erwähnung Leonardos findet sich in einem Dekret der Kommune von Pisa, das ihn als geachteten Magister Leonardus Bigollus für seine Verdienste als Steuerschätzer und Rechenmeister der Stadt würdigt und ihm für künftige Dienste dieser Art ein Jahresgehalt von zwanzig Pfund Pfennigen zuzüglich der bei solchen Beamten üblichen Naturalien gewährt. Der Herausgeber Bonaiini hatte das im Text nicht datierte Dokument auf 1241 datiert, allerdings ohne Angabe von Gründen. Falls die Datierung zutrifft, starb Leonardo nicht vor 1241 (wegen der Divergenz des "mos pisanus" in der Forschung manchmal auch „nicht vor 1240“ angegeben), so dass er, wenn man das Geburtsjahr um 1180 ansetzt, ein für die Zeit nicht unbeachtliches Alter von mindestens sechzig Jahren erreicht hätte und auch in diesem Alter von der Kommune noch für weitere Dienste vorgesehen gewesen wäre. Zur Statue Leonardos. In Pisa befindet sich im Kreuzgang des historischen Friedhofes Camposanto eine Statue Leonardos, welche die Inschrift: "A Leonardo Fibonacci Insigne Matematico Pisano del Secolo XII" trägt. Als Porträt ist die Darstellung ein Produkt künstlerischer Phantasie, da aus Leonardos eigener Zeit keine Abbildungen und keine Überlieferung über dessen Aussehen existiert. Die Statue geht zurück auf die Initiative von zwei Mitgliedern der provisorischen Regierung des ehemaligen Großherzogtums Toskana, Bettino Ricasoli und Cosimo Ridolfi, die am 23. September 1859 ein Dekret zur Finanzierung der Statue herbeiführten. Beauftragt wurde der Florentiner Bildhauer Giovanni Paganucci, der das Werk 1863 vollendete. Die Statue wurde in Pisa auf dem Campo Santo aufgestellt, wo Grabmonumente Pisaner Bürger zusammen mit antiken Sarkophagen und neu hinzugefügten Kunstwerken seit dem Mittelalter ein einzigartiges Grab- und Gedenkensemble bilden. Zur Zeit des Faschismus entschieden die Behörden in Pisa, die Statue Leonardos 1926 ebenso wie zwei Statuen anderer namhafter Bürger Pisas aus der sakralen Abgeschiedenheit des Campo Santo heraus an öffentlich besser sichtbare Standorte zu versetzen. Die Statue Leonardos wurde am südlichen Ende des Ponte di Mezzo aufgestellt. Während des Zweiten Weltkrieges wurde 1944 bei den Kämpfen um Pisa die Brücke zerstört und auch die Statue beschädigt, die zunächst an ihrem Standort verblieb, dann in einem Lager verwahrt wurde und zeitweise in Vergessenheit geriet. In den 1950er Jahren wurde sie wiederentdeckt, notdürftig restauriert und im Park Giardino Scotto am östlichen Eingang der Altstadt aufgestellt. Erst in den 1990er Jahren entschloss sich die pisanische Stadtverwaltung die Statue zu restaurieren und sie wieder an ihrem ursprünglichen Platz im Campo Santo aufstellen zu lassen. Fibonacci-Folge. Kachelmuster aus Quadraten, deren Kantenlängen der Fibonacci-Folge entsprechen Die darin enthaltenen Zahlen heißen Fibonacci-Zahlen. Benannt ist die Folge nach Leonardo Fibonacci, der damit im Jahr 1202 das Wachstum einer Kaninchenpopulation beschrieb. Die Folge war aber schon in der Antike sowohl den Griechen als auch den Indern bekannt. Weitere Untersuchungen zeigten, dass die Fibonacci-Folge auch noch zahlreiche andere Wachstumsvorgänge der Pflanzen beschreibt. Es scheint, als sei sie eine Art Wachstumsmuster in der Natur. Definition der Fibonacci-Folge. Die Fibonacci-Folge formula_1 ist durch das rekursive Bildungsgesetz Aus der Forderung, dass die Rekursion Die so erweiterte Fibonacci-Folge lautet dann Darüber hinaus ist eine Verallgemeinerung der Fibonacci-Zahlen auf komplexe Zahlen und auf Vektorräume möglich. Beziehungen zwischen den Folgegliedern. Es gibt noch zahlreiche weitere derartige Formeln. Verwandtschaft mit dem Goldenen Schnitt. Da diese Quotienten im Grenzwert gegen den goldenen Schnitt konvergieren, lässt sich dieser als der unendliche Kettenbruch Die Zahl Φ ist irrational. Das bedeutet, dass sie sich nicht durch ein Verhältnis zweier ganzer Zahlen darstellen lässt. Am besten lässt sich Φ durch Quotienten zweier aufeinanderfolgender Fibonacci-Zahlen approximieren. Dies gilt auch für verallgemeinerte Fibonaccifolgen, bei denen formula_43 und formula_44 beliebige natürliche Zahlen annehmen. Zeckendorf-Theorem. Das nach Edouard Zeckendorf benannte Zeckendorf-Theorem besagt, dass jede natürliche Zahl formula_9 eindeutig als Summe voneinander verschiedener, nicht direkt aufeinanderfolgender Fibonacci-Zahlen geschrieben werden kann. Das heißt, es gibt für jedes formula_46 eine eindeutige Darstellung der Form Die entstehende Folge formula_48 von Nullen und Einsen wird Zeckendorf-Sequenz genannt. Da aufeinanderfolgende Fibonacci-Zahlen ausgeschlossen sind, können keine zwei Einsen in einer Zeckendorf-Sequenz unmittelbar hintereinander stehen. So wäre zum Beispiel formula_52 als Binärsequenz codice_1 darstellbar. Fibonacci-Folgen in der Natur. Sonnenblume mit 34 und 55 Fibonacci-Spiralen Anordnung gleich großer Kreise im Abstand des goldenen Winkels mit farblicher Markierung der Fibonacci-Spiralen 8, 13, 21, 34 Viele Pflanzen weisen in der Anordnung ihrer Blätter und anderer Teile Spiralen auf, deren Anzahlen durch Fibonacci-Zahlen gegeben sind, wie beispielsweise bei den Früchten in Fruchtständen. Das ist dann der Fall, wenn der Winkel zwischen architektonisch benachbarten Blättern oder Früchten bezüglich der Pflanzenachse der Goldene Winkel ist. Hintergrund ist der Umstand, dass die rationalen Zahlen, die den zugrunde liegenden Goldenen Schnitt am besten approximieren, Brüche von aufeinanderfolgenden Fibonacci-Zahlen sind. Die Spiralen werden daher von Pflanzenelementen gebildet, deren Platznummern sich durch die Fibonacci-Zahl im Nenner unterscheiden und damit fast in die gleiche Richtung weisen. Durch diese spiralförmige Anordnung der Blätter um die Sprossachse erzielt die Pflanze die beste Lichtausbeute. Der Versatz der Blätter um das irrationale Verhältnis des Goldenen Winkels sorgt dafür, dass nie Perioden auftauchen, wie es z. B. bei 1/4 der Fall wäre (0° 90° 180° 270° | 0° 90° …). Dadurch wird der denkbar ungünstigste Fall vermieden, dass ein Blatt genau senkrecht über dem anderen steht und sich so die jeweils übereinanderstehenden Blätter maximalen Schatten machen oder maximale ‚Lichtlücken‘ entstehen. Beispielsweise tragen die Körbe der Silberdistel ("Carlina acaulis") hunderte gleichgestaltiger Blüten, die in kleineren Körben in einer 21-zu-55-Stellung, in größeren Körben in 34-zu-89- und 55-zu-144-Stellung in den Korbboden eingefügt sind. Auch die Schuppen von Fichtenzapfen wie auch von Ananasfrüchten bilden im und gegen den Uhrzeigersinn Spiralen, deren Schuppenanzahl durch zwei aufeinanderfolgende Fibonaccizahlen gegeben ist. Wissenschaftshistorisch sei hier auf das Buch "On Growth and Form" von D’Arcy Wentworth Thompson (1917) verwiesen. Ein weiterer interessanter Aspekt ist, dass die Fibonacci-Folge die Ahnenmenge einer männlichen ("n"=1) Honigbiene (Apis mellifera) beschreibt. Das erklärt sich dadurch, dass Bienendrohnen sich aus unbefruchteten Eiern entwickeln, die in ihrem Genom dem Erbgut der Mutter ("n" = 2) entsprechen, welche wiederum zwei Eltern besitzt ("n" = 3) usw. Formel von Moivre/Binet. Das explizite Bildungsgesetz für die Glieder der Fibonacci-Folge wurde unabhängig voneinander von den französischen Mathematikern Abraham de Moivre im Jahr 1718 und Jacques Philippe Marie Binet im Jahr 1843 entdeckt. Dazwischen war sie aber auch den Mathematikern Leonhard Euler und Daniel Bernoulli bekannt, Letzterer lieferte 1728 auch den vermutlich ersten Beweis. Die Fibonacci-Zahlen lassen sich direkt mittels berechnen, wobei formula_54 die beiden Lösungen der charakteristischen Gleichung formula_55 sind und somit auch formula_56 und formula_57 gilt. Setzt man Bemerkenswert ist das Zusammenspiel zweier irrationaler Zahlen "φ" und "ψ", das zu einem ganzzahligen Ergebnis führt. Die Abbildung zeigt die beiden Teilfolgen mit "φ" und "ψ" sowie deren Differenz. Der Einfluss von "ψn" geht rasch gegen Null. Das kann man verwenden, um die Berechnung zu beschleunigen, indem man den Term ignoriert und das Ergebnis zur nächstgelegenen natürlichen Zahl rundet. Induktiver Beweis. Dabei haben wir benutzt, dass formula_64 und formula_65 der charakteristischen Gleichung formula_66 bzw. formula_67 genügen. Nach dem Prinzip der vollständigen Induktion muss nun die Formel für alle "n" gelten. Herleitung der Formel von Moivre-Binet. Nun transformiert man die Matrix formula_69 in eine Diagonalmatrix formula_70 durch Betrachtung als Eigenwertproblem. formula_74 Herleitung mittels Differenzengleichung. Wenn also formula_77 so gewählt wird, dass die charakteristische Gleichung formula_55 erfüllt ist (also formula_79 oder formula_80), wird formula_81, d. h., formula_82 erfüllt die Fibonacci-Rekursion mit dem Rekursionsanfang formula_83 und formula_84. Die rekursive Folge formula_85, formula_86, formula_87 hat die explizite Darstellung formula_88. Ebenso formula_89, formula_90, formula_91. Mit formula_92 und formula_93 genügt wegen der Superpositionseigenschaft auch jede Linearkombination formula_94 der Fibonacci-Rekursion formula_95. Mit Hilfe eines linearen Gleichungssystems ergibt sich formula_96 und formula_97, damit formula_98 und formula_99. Folglich ergibt sich explizit formula_100. Für formula_101 ergibt sich formula_102 und formula_103, d. h. die klassische Lucas-Folge mit explizit formula_104. Erzeugende Funktion. Die erzeugende Funktion der Fibonacci-Zahlen ist Die auf der linken Seite stehende Potenzreihe konvergiert für formula_106. Über die Partialbruchzerlegung erhält man wiederum die Formel von Moivre-Binet. Durch Entwicklung der obigen Erzeugenden Funktion formula_107 in eine Potenzreihe um formula_108 ergibt sich durch Koeffizientenvergleich ein Zusammenhang zwischen den Fibonacci-Zahlen und den Binomialkoeffizienten. Dies gelingt durch Einsetzen des Polynoms formula_109 in die Potenzreihe für formula_110 mit formula_111 und somit formula_112. Nach Multiplikation mit "z" ergibt sich formula_113, nach Umformen dieser Summe zu einer Binomialreihe. Die letzte Summe kann mittels Umbenennung der Summationsindizes vereinfacht werden zu formula_114. Koeffizientenvergleich liefert schließlich formula_115. Alternativ ergibt sich über die Definition formula_116 die Darstellung Darstellung mit Matrizen. Aus der Relation formula_120 ergibt sich beispielsweise die erste oben angegebene Formel für formula_121. formula_122 beschreibt zugleich die Summationsvorschrift der Fibonacci-Folge, denn ihr Produkt mit einem Paar aufeinanderfolgender Fibonacci-Zahlen (als Spaltenmatrix geschrieben) ergibt das nächste Paar; entsprechend erzeugt formula_123 das formula_25-te Paar aus dem Startpaar formula_125. Dies und die Tatsache, dass die Eigenwerte von formula_122 gerade der Goldene Schnitt und dessen Kehrwert (letzterer mit negativem Vorzeichen) sind, führen wieder auf die oben genannte Formel von Binet. Näherungsformel für große Zahlen. Für große Werte von "n" wird formula_127 in der Formel von Binet immer kleiner, da der Ausdruck in der Klammer vom Betrag kleiner als 1 ist. Deshalb erhält man die Näherungsformel mit der Gaußklammer formula_131. Geschichte. Berechnung der Kaninchenaufgabe im "Liber abbaci" Ihre früheste Erwähnung findet sich unter dem Namen "maatraameru" („Berg der Kadenz“) in der "Chhandah-shāstra" („Kunst der Prosodie“) des Sanskrit-Grammatikers Pingala (um 450 v. Chr. oder nach anderer Datierung um 200 v. Chr.). In ausführlicherer Form behandelten später auch Virahanka (6. Jh.) und besonders dann Acharya Hemachandra (1089–1172) diese Zahlenfolge, um die rechnerische Möglichkeit der Bildung von Metren durch regelmäßige Verteilung kurzer und langer Silben zu beschreiben. Modell einer Kaninchenpopulation. Fibonacci begann die Reihe, nicht ganz konsequent, nicht mit einem neugeborenen, sondern mit einem trächtigen Paar, das seinen Nachwuchs bereits im ersten Monat wirft, sodass im ersten Monat bereits 2 Paare zu zählen sind. In jedem Folgemonat kommt dann zu der Anzahl der Paare, die im Vormonat gelebt haben, eine Anzahl von neugeborenen Paaren hinzu, die gleich der Anzahl derjenigen Paare ist, die bereits im vorvergangenen Monat gelebt hatten, da der Nachwuchs des Vormonats noch zu jung ist, um jetzt schon seinerseits Nachwuchs zu werfen. Fibonacci führte den Sachverhalt für die zwölf Monate eines Jahres vor (2, 3, 5, 8, 13, 21, 34, 55, 89, 144, 233, 377) und wies auf das Bildungsgesetz der Reihe durch Summierung jeweils zweier aufeinanderfolgender Reihenglieder (2+3=5, 3+5=8, 5+8=13 usw.) hin. Er merkte außerdem an, dass die Reihe sich nach diesem Prinzip für eine unendliche Zahl von Monaten fortsetzen lässt, was dann allerdings unsterbliche Kaninchen voraussetzt: "„et sic posses facere per ordinem de infinitis numeris mensibus.“" Weitere Beachtung hatte er dem Prinzip in seinen erhaltenen Werken nicht geschenkt. Eine gerade erschienene mathematisch-historische Analyse zum Leben des Leonardo von Pisa, insbesondere zu seinem Aufenthalt in der nordafrikanischen Hafenstadt Bejaia (im heutigen Algerien), kam zu dem Schluss, dass der Hintergrund der Fibonacci-Folge gar nicht bei einem Modell der Vermehrung von Kaninchen zu suchen ist (was schon länger vermutet wurde), sondern vielmehr bei den Bienenzüchtern von Bejaia und ihrer Kenntnis des Bienenstammbaums zu finden ist. Zu Leonardos Zeit war Bejaia ein wichtiger Exporteur von Bienenwachs, worauf noch heute der französische Name der Stadt (Bougie, wie das frz. Wort für Kerze) hinweist. Nachdem spätere Mathematiker wie Gabriel Lamé (1795–1870) die Entdeckung dieser Zahlenfolge für sich beansprucht hatten, brachten Édouard Lucas (1842–1891) und andere wieder in Erinnerung, dass der zu dieser Zeit älteste bekannte Beleg von Leonardo da Pisa stammte, und unter dem Namen „Fibonacci-Folge“ („suite de Fibonacci“, „Fibonacci sequence“, „successione di Fibonacci“) ist sie seither in den meisten westlichen Sprachen geläufig. a>“), 2014, 10 cm bis 5,50 m Fibonacci-Datenstrukturen. Die Fibonacci-Folge ist namensgebend für folgende Datenstrukturen, bei deren mathematischer Analyse sie auftritt. Faradayscher Käfig. Der faradaysche Käfig (auch Faradaykäfig) ist eine allseitig geschlossene Hülle aus einem elektrischen Leiter (z. B. Drahtgeflecht oder Blech), die als elektrische Abschirmung wirkt. Bei äußeren statischen oder quasistatischen elektrischen Feldern bleibt der innere Bereich infolge der Influenz feldfrei. Bei zeitlich veränderlichen Vorgängen wie elektromagnetischen Wellen beruht die Abschirmwirkung auf den sich in der leitfähigen Hülle ausbildenden Wirbelströmen, die dem äußeren elektromagnetischen Feld entgegenwirken. Statische oder langsam variierende Magnetfelder (wie das Erdmagnetfeld) werden durch einen faradayschen Käfig nicht abgeschirmt. Faradayscher Käfig, besetzt mit Probanden im feldfreien Innenraum Der Begriff geht auf den englischen Physiker Michael Faraday (1791–1867) zurück. Die Quantität der Schirmwirkung wird über die Schirmdämpfung (zum Beispiel einer Abschirmung) erfasst. Abschirmung elektrostatischer Felder. Animation zur Ladungsverschiebung bei einem faradayschen Käfig Die Abschirmung von elektrostatischen bzw. quasistationären elektrischen Feldern beruht auf der Wirkung der Influenz. Wird eine elektrisch leitende Hülle, beispielsweise eine Hohlkugel, in ein von außen aufgebrachtes elektrostatisches Feld "E" gebracht, kommt es aufgrund der Kraftwirkung formula_1 auf die in der Hülle frei beweglichen Ladungen "Q" zu räumlichen Umverteilung der Ladungen an der Oberfläche bis die tangential auf der Oberfläche stehende elektrische äußere Feldkomponente null wird und damit ein Ausgleich gefunden ist. Dadurch entspringt bzw. endet im statischen Fall der elektrische Fluss an der Oberfläche der Hülle, womit das Innere der Hülle feldfrei bleibt. Diese Schirmwirkung ist nicht an eine bestimmte Form der Hülle gebunden und tritt bei beliebig geformten Hohlkörpern auf, sofern sie elektrisch leitfähig sind. bestimmen, mit formula_4 der Flächenladungsdichte und formula_5 der Dielektrizitätskonstante. Die leitfähige Hülle ist eine Äquipotentialfläche, die im Sprachgebrauch elektrische Wand genannt wird. Wesentlich ist, dass die Schirmwirkung nur gegen äußere elektrische Felder wirkt. Ein elektrischer Fluss, der durch eine von der Hülle isolierte Ladungsansammlung im Inneren der Hülle entspringt, die davon getrennte Ladung mit umgekehrtem Vorzeichen befindet sich im Außenbereich, führt so auch im Außenraum zu einem elektrischen Feld. Besteht hingegen eine elektrische Verbindung zwischen den ladungstragenden Innenbereichen und der Hülle, werden die elektrische Ladungen zur Oberfläche verschoben und der innere Bereich bleibt feldfrei. Dieses Prinzip der Ladungsverschiebung wird bei manchen Hochspannungsgeneratoren wie dem Van-de-Graaff-Generator zur Ladungsspeicherung und zur Erzeugung von hohen elektrischen Spannungen genutzt. Bei nicht zu hochfrequenten Wechselfeldern kann ein faradayscher Käfig statt aus einer geschlossenen Leiter-Wand auch aus einem Käfig aus Leiterstäben, -drähten oder aus einem Blech mit kleinen Öffnungen bestehen. Die Schirmdämpfung hängt mit der Maschenweite zusammen, die etwa 1/10 der Wellenlänge nicht überschreiten sollte. Abschirmung von Wechselfeldern (Elektrodynamik). Ein idealer faradayscher Käfig schirmt auch hochfrequente Wechselfelder ab, weil auf der Oberfläche des Käfigs Wirbelströme induziert werden, die dem äußeren Feld nach der Lenzschen Regel entgegenwirken. Die Schirmwirkung ist in diesem Fall aber nicht ideal, sondern durch endliche Schirmdämpfungen und Eindringtiefen in den Schirm gekennzeichnet. Faradaysche Käfige aus nicht-ferromagnetischem Metall schirmen aufgrund ihrer endlichen Leitfähigkeit dann hochfrequente Wechselfelder ab, wenn die Metallschicht deutlich stärker als die Eindringtiefe der induzierten Ströme ist. Schlitze führen zur Unterbrechung der Induktionsströme im Schirm. Elektromagnetische Wellen durchdringen den Schirm vergleichsweise gut, wenn Schlitze im Schirm parallel zur Magnetfeldkomponente der Welle liegen. Die Schirmdämpfung lässt mit zunehmender Apertur nach und wird gering, wenn die Wellenlänge der ankommenden elektromagnetischen Welle in der Größenordnung der Schlitzabmessungen liegt. Anwendungen. Faradaysche Käfige werden häufig dort angewandt, wo Einflüsse von äußeren elektrischen oder elektromagnetischen Feldern die Funktionsweise eines Gerätes negativ beeinflussen können oder wo innere elektromagnetische Felder nicht nach außen gelangen sollen. Beispielsweise wird er zur Abschirmung von Messinstrumenten, elektrischen Leitungen oder Messräumen, z.B. vor Sendern, verwendet. Der faradaysche Käfig ist dann z. B. das Gehäuse aus einem leitenden Material oder eine dünne metallische Folie, mit welcher der zu schützende Raum umhüllt ist. Die Abschirmung kann ganze Räume umfassen, zum Beispiel geschirmte Räume als elektromagnetisch beruhigte Prüfumgebung in EMV-Laboren (Absorberhalle). Das Prinzip des faradayschen Käfigs findet auch Anwendung beim Blitzschutz für Gebäude. Hier ist er durch eine grobe Struktur aus Blitzableitern und geerdeten Gebäudeteilen angenähert. Auch Autos und Flugzeuge mit einer leitfähigen Hülle wirken wie faradaysche Käfige. Elektromagnetische Felder, deren Wellenlänge im Vergleich zu den elektrisch offenen Fugen und Spalten der Karosserie klein sind, werden allerdings nicht effizient geschirmt. Dies erklärt, warum im Auto Mobilfunk-Empfang möglich ist. Kleine, oft aus Weißblech gefertigte Abschirmkäfige findet man um die Hochfrequenz-Baugruppen in elektronischen Geräten (Mobiltelefone, Radio- und Fernseh-Tuner, drahtlose Babyfone usw.). Der Mikrowellenherd ist ein Beispiel für einen faradayschen Käfig, bei dem gewissermaßen Innen und Außen vertauscht sind. Der metallene Garraum schirmt die Umgebung von der starken Mikrowellenstrahlung innerhalb des Ofens ab. An der Tür befindet sich meist eine Resonanzdichtung, die nur für eine ganz bestimmte Wellenlänge wirksam ist. Das metallische Gehäuse eines Magnetrons sorgt dafür, dass das hochenergetische elektromagnetische Feld im Inneren des Magnetrons bleibt. Ein geringer Teil des Feldes wird durch den Antennenanschluss nach außen geleitet. Die vereinfachte, zweidimensionale Ausführung eines faradayschen Käfigs wird als Koronaring bezeichnet und wird im Hochspannungsbereich beispielsweise bei Isolatoren und Überspannungsableitern (Varistoren) eingesetzt. Im Ringinneren ist die Feldstärke sehr gering, deshalb kann dort auch an Ecken und Spitzen wie dem Montagegeschirr keine verlustbringende Feldemission auftreten. Fieber. Das Fieber ist ein Zustand erhöhter Körperkerntemperatur, der meistens als Begleiterscheinung der Abwehr gegen eindringende Viren, lebende Mikroorganismen oder andere als fremd erkannte Stoffe auftritt, sowie seltener im Rahmen anders verursachter Entzündungsvorgänge, Traumata oder als Begleiterscheinung bei manchen Tumoren vorkommt. Die hiermit verbundenen Vorgänge beruhen auf komplexen physiologischen Reaktionen, zu denen unter anderem eine pyrogenvermittelte, vom Organismus aktiv herbeigeführte, geregelte und begrenzte Erhöhung der Körperkerntemperatur gehört. Letztere entsteht infolge einer Temperatursollwertänderung im hypothalamischen Wärmeregulationszentrum. Fieber ist damit ein Beispiel für eine regulierte Änderung der Homöostase. Etymologie. Das heutige Wort „Fieber“ geht auf das mittelhochdeutsche ' zurück, dies von althochdeutsch ', nachweisbar seit dem 9. Jahrhundert und entlehnt aus lateinisch "," eigentlich „Hitze“; auch die "Pyrexie" von altgriechisch, "," „Fieber haben“, von griechisch, "," „Fieber“; vergleiche "," „Feuer“. Temperaturregulation. Entgegen einem häufig vorkommenden Missverständnis ist Fieber damit in den meisten Fällen nicht Ursache von Krankheit, sondern Teil der Antwort des Organismus auf Krankheit. Entsprechend ist es zwar eine häufige Praxis, Fieber ab einer bestimmten Höhe symptomatisch zu senken, um vermeintlichen Schaden vom Kranken abzuwenden; diese häufige Praxis entspricht aber oft nicht dem Forschungsstand der Fieberphysiologie. Anstelle einer routinemäßigen Senkung des Fiebers ab einer bestimmten Temperatur, sollte sich eine symptomatische Therapie an der Befindlichkeit und an sekundären Risiken des Fiebers für bestimmte Patientengruppen orientieren. Fieber unterscheidet sich grundsätzlich von ungeregelten Zuständen der Hyperthermie, an der keine Pyrogene beteiligt sind, gegen die keine medikamentöse antipyretische Therapie hilft und bei denen die Temperatur erhöht ist, obwohl der Organismus an der Grenze seiner gegenregulatorischen Möglichkeiten versucht, seine Temperatur zu senken. Solche Überhitzung kann bei überstarker Erwärmung durch die Umgebung und/oder im Rahmen kräftiger körperlicher Bewegung vorkommen, ferner selten bei einer gestörten Temperaturregulation im Rahmen neurologischer Krankheiten oder bei der malignen Hyperthermie. Fieber ist einer der häufigsten Beratungsanlässe in einer allgemeinmedizinischen oder pädiatrischen Praxis. Evolution. Die Fähigkeit mehrzelliger Organismen, fieberartige Reaktionen im Rahmen der angeborenen Immunantwort zu bilden, ist wahrscheinlich etwa 600 Millionen Jahre alt, in der Evolution hochkonserviert und überwiegend erfolgreich: Sie kommt bei Säugetieren, Reptilien, Amphibien, Fischen wie auch bei einigen Invertebraten (Wirbellose) bis hin zu den Insekten vor und führt in der Regel zu verbessertem Überleben oder Ausheilen verschiedener Infektionen. Warm- und Kaltblüter ändern im Rahmen einer Fieberreaktion ihr Verhalten, um die von der Fieberreaktion geforderte höhere Körpertemperatur zu erreichen (Aufsuchen wärmerer Umgebung etc.), Warmblüter haben darüber hinaus effizientere physiologische Möglichkeiten, ihre Körpertemperatur zu erhöhen. Dieselben Antipyretika, die bei Warmblütern die physiologische Fieberreaktion hemmen, unterdrücken bei Kaltblütern z. B. das gezielte Aufsuchen eines wärmeren Ortes im Falle einer Infektion. Fieber ist normale Wärmeregulation auf höherem Niveau. Typischer Verlauf eines Fiebers.Die grüne Linie zeigt den Sollwert, die rote die tatsächliche Kerntemperatur. Ferner wird im Hypothalamus das Verhalten über die Wahrnehmung der Eigenwärme beeinflusst (Wechseln der Kleidung, Aufsuchen einer anderen Umgebung etc.). Bei einer normalen pyrogeninduzierten Fieberreaktion laufen diese Regulationsmechanismen genauso ab, sie sind also ebenfalls nur mit einer intakten Regio praeoptica des Hypothalamus möglich. Daher friert man bei fieberhaft ansteigender Temperatur und fühlt sich an Händen und Füßen kalt an. Demgegenüber ist einem warm bis hin zum Schwitzen, wenn die Temperatur nach dem Fieber (oder bei Gabe eines fiebersenkenden Medikamentes) wieder sinkt. Entstehung des Fieberanstiegs. In der Regio praeoptica des Hypothalamus finden sich verschiedene Neurone: Etwa 30 % sind wärmesensitiv (das heißt, sie feuern schneller, wenn die Temperatur steigt), über 60 % reagieren nicht auf Temperaturänderungen und weniger als fünf Prozent sind kältesensitiv. Es wird vermutet, dass der sogenannte Temperatursollwert durch einen Vergleich der Neuronenaktivität der temperaturinsensitiven Neurone mit den wärmesensitiven Neuronen entsteht. Insbesondere die Aktivität der kältesensitiven Neurone ist stark abhängig von excitatorischem und inhibitorischem Input benachbarter Neurone, während die wärmesensitiven Neurone vor allem Input aus der Peripherie bekommen. Die wärmesensitiven Neurone werden also ab einer bestimmten Temperatur aktiver und lösen im Endeffekt eine Regulation aus, die den Körper zu mehr Wärmeabgabe bringt. Diese wärmesensitiven Neurone können durch sogenannte Pyrogene gehemmt werden, wodurch dann das normale regulatorische Gleichgewicht im Thermoregulationszentrum verschoben wird. Diese Pyrogene gehören teilweise zu den Akute-Phase-Proteinen, die im Rahmen einer Entzündung vorkommen. Eine Vorstellung über die Wirkungszusammenhänge der verschiedenen Pyrogene gewann man vor allem durch tierexperimentelle Fiebererzeugung vor allem mit gespritzten Lipopolysacchariden (Bestandteile aus der Wand gramnegativer Bakterien). Dieses exogene Pyrogen führt vor allem in Monozyten, vermittelt unter anderem durch den CD14-Rezeptor, zu einer vermehrten Bildung von endogenen Pyrogenen und zwar beginnend für Tumornekrosefaktor (TNF), Interleukin-8 und Spuren von Interleukin-1 und etwas später für deutliche Mengen von Interleukin-6. Letzteres korreliert am besten mit dem Fieberverlauf selbst. Diese Bildung endogener Pyrogene in durch Lipopolysaccharide angeregten Monozyten läuft bei 42 °C (also einer Temperatur, die knapp über der natürlichen Fiebergrenze liegt) etwas langsamer (und für TNF und Interleukin-8 zeitlich begrenzter) als bei 37 °C. Tumornekrosefaktor kann je nach Kontext auch eine fieberbegrenzende Eigenschaft haben. Wenn im Experiment Lipopolysaccaride als exogenes oder Interleukin-1β als endogenes Pyrogen gespritzt werden, resultiert ein uniformer, zweigipfliger Fieberanstieg. Ein erster Fiebergipfel beginnt rasch und dauert 30-60 Minuten. Er wird dadurch hervorgerufen, dass das Interleukin-1β über seinen Interleukin-1 Rezeptor die Neutrale Sphingomyelinase aktiviert, welche die Bildung des löslichen C2-Ceramides katalysiert. Ceradmide hemmt die wärmesensitiven Neurone. Es gab auch die Hypothese, dass dieser erste Fieberanstieg durch den Vagusnerv vermittelt werde, diesbezügliche Versuche erbrachten aber uneinheitliche Ergebnisse. Gleichzeitig regt das Interleukin-1β die vermehrte Transkription der Cyclooxygenase-2 zunächst in den Makrophagen an, diese bildet vermehrt Prostaglandine, vor allem auch Prostaglandin E2, welches über die zirkumventrikulären Organe in den Hypothalamus gelangt und den Beginn des zweiten Fieberanstieges bewirkt. Dann wird die Cyclooxygenase-2 in den Endothelzellen des Hypothalamus selbst angeregt, welche zentral zu einer erhöhten Prostaglandin-E2-Bildung führt. Das entstehende Prostaglandin-E2 kann in das Gehirn gelangen und induziert über seinen EP3-Rezeptor dann letztlich einen längerdauernden Fieberanstieg mit einem Maximum ungefähr drei Stunden nach dem Auftreten des Interleukin-1β, ebenfalls über die Hemmung wärmesensitiver Neurone. Hierdurch werden wärmeabgebende Prozesse (periphere Gefäßerweiterung, Schwitzen etc.) gehemmt und ferner die Hemmung der wärmesensitiven Neurone auf die kältesensitiven Neurone aufgehoben. Dies führt dann zur Wärmebildung bis hin zum Schüttelfrost. Alles in allem resultiert ein stereotyper und reproduzierbarer zweigipfliger Fieberanstieg, bis jeweils das neue regulatorische Gleichgewicht hergestellt ist. Fieber ist also insgesamt das Ergebnis einer fein abgestimmten Kommunikation des Immunsystems des Organismus mit seinem Nervensystem. Begrenzung des Fieberanstiegs. Es ist eine allgemeine alte Erfahrung, dass bei einer akuten Fieberreaktion die menschliche Körpertemperatur (insbesondere bei Kindern) schnell bis zu Werten zwischen 40 und 41 °C ansteigt, jedoch fast nie Werte über etwa 41 °C erreicht, unabhängig von der Fieberursache oder dem Ort der Temperaturmessung. Der Körper muss also unter normalen Bedingungen in der Lage sein, eine Fieberreaktion regulatorisch wirksam zu begrenzen, bevor sie durch sich selbst gefährlich wird. Wenn dies nicht der Fall wäre, hätte sich das Phänomen der Fieberreaktion nicht evolutionär durchsetzen können. Allerdings sind die Vorgänge der Fieberentstehung viel länger erforscht und daher ist über sie mehr bekannt als über die Vorgänge der Fieberbegrenzung durch den Organismus selbst. Modulation des Entzündungsgeschehens. Viele Funktionen der neutrophilen Granulozyten, der Makrophagen und der Lymphozyten, die für die Infektabwehr wichtig sind, wie z. B. Beweglichkeit, Phagozytosefähigkeit, Radikalbildung, Vermehrung, Antikörperbildung usw. sind bei Temperaturen von 38 bis 41 °C verstärkt beobachtbar und nehmen bei Temperaturen über 41 °C wieder ab. Infektabwehr. Es gibt auch Studien, die keinen krankheitsverlängernden Effekt fiebersenkender Maßnahmen bei Infektionskrankheiten feststellen konnten. Aber verkürzend auf eine Infektionserkrankung wirkt sich eine Fiebersenkung in der Regel nicht aus. Eine Fiebersenkung kann bei einigen Patientengruppen aber sekundäre Probleme abmildern. Solche Ergebnisse und klinische Erfahrungen sowie die zunehmenden Kenntnisse über die Fieberphysiologie stellen den routinemäßigen Gebrauch von Antipyretika bei Fieber z. B. auf Intensivstationen in Frage. Gefordert wird heute vielmehr eine an den individuellen Behandlungszielen orientierte Therapie; Temperatursenkung als Selbstzweck ist bei Fieber kein unbedingtes Behandlungsziel. Fieberkrämpfe, epileptische Anfälle. Fieberkrämpfe treten bei (1 %)–6 %–(14 %) (je nach Bevölkerungsgruppe) aller ein- bis fünfjährigen Kinder auf; die Mechanismen, warum sie auftreten, sind kaum bekannt. Man vermutet, dass betroffene Kinder eine komplex vererbte Anlage für Fieberkrämpfe haben. Eine zurzeit diesbezüglich verfolgte Hypothese ist, dass es sich bei dieser Anlage um Mutationen eines anfallshemmenden GABA-Rezeptors handeln könnte, der temperaturabhängige Eigenschaften aufweist. Im Gegensatz zu einer auch in Lehrbüchern oft geäußerten Vermutung verhindern Antipyretika nicht signifikant ein Fieberkrampfrezidiv. Endogene Pyrogene können die Krampfschwelle des Gehirnes senken. Dies sind zum Beispiel Tumornekrosefaktor-alpha, Interleukin-1 beta und Interleukin-6, die über die Stimulierung der Cyclooxygenase-2 mit nachfolgender Prostaglandin-E2-Erhöhung zu Fieber führen. Eine Fiebersenkung hemmt nur die Cyclooxygenase-2, nicht aber die Ausschüttung dieser Pyrogene. Eine erhöhte Temperatur selber wiederum kann aber die Ausschüttung dieser Pyrogene hemmen. Eventuell kann auch hierdurch begründet sein, warum Fiebersenkung Fieberkrämpfe nicht verhindert. Patienten mit Epilepsie müssen von solchen mit Fieberkrämpfen unterschieden werden. Da es viele verschiedene Epilepsien gibt, ist der Einfluss von Fieber und erhöhter Temperatur auf die Anfallsaktivität unterschiedlich: Sie kann erhöht werden oder gleich bleiben. In manchen Fällen kann die Anfallsaktivität durch Fieber aber auch vorübergehend abnehmen. Einfluss von Fieber im 1. Lebensjahr auf Asthma und Allergie. Wiederholte Fieberepisoden im ersten Lebensjahr (die zumeist aufgrund von Luftwegsinfekten auftreten) gehen mit einer höheren Prävalenz von früh begonnenem, nichtallergischem Asthma einher. Allerdings treten allergische Sensibilisierungen und später begonnenes Asthma nach häufigeren Fieberepisoden im ersten Lebensjahr seltener auf. Wichtig scheint zu sein, dass die fieberhaften Episoden auftreten, bevor eine allergische Sensibilisierung eingetreten ist. Es scheinen nur Fieberepisoden zwischen dem siebenten und zwölften Lebensmonat vor atopischer Veranlagung zu schützen, wichtig ist ferner eine ausreichende Fieberhöhe > 39 °C. Luftwegsinfekte im ersten Lebensjahr im Allgemeinen scheinen dagegen die Asthmahäufigkeit eher zu erhöhen (siehe z. B.). In diesen Studien wurde aber zumeist nicht der Einfluss von Antibiotika und antipyretischen Maßnahmen z. B. durch Paracetamol berücksichtigt; letzteres hat einen asthmabegünstigenden Effekt. Kinder aus Familien mit anthroposophischem Lebensstil erhalten unter anderem weniger Antibiotika und Antipyretika und haben seltener Asthma und Allergien. Fieber und Krebs. Seit Krebsdiagnostik und -behandlung im 19. Jahrhundert eine Wissenschaft wurde, wurden immer wieder seltene Fälle mit „unerklärlichen“ Spontanheilungen berichtet. Vielen dieser Fälle ist eine hochfieberhafte Erkrankung vorausgegangen. Dies wurde vor der Chemotherapieära erfolgreich therapeutisch genutzt, z. B. mit der Fiebererzeugung durch ein injiziertes Bakterienextrakt. Während man in der Chemotherapie- und Bestrahlungsära ab den 1950er Jahren der Meinung war, dass der Körper keine eigenen Mittel habe, gegen Krebszellen zu kämpfen, wird der Zusammenhang zwischen Fieber und Krebsheilung seit den 1990er Jahren wieder systematischer untersucht. Unterdessen ist es unstrittig, dass Fieber, insbesondere wenn es hoch ist, unter Umständen das Immunsystem zu einer besseren Krebsabwehr bringen kann. In der praktischen Onkologie müssen solche Überlegungen mit dem Ziel verbunden werden, unangenehme Situationen für den Patienten zu lindern. Da Krebserkrankungen eine länger schlummernde Erkrankung sind, ist dies auch im Vorfeld einer manifesten Krebserkrankung möglich, also präventiv. So erklärt sich, dass in der Vorgeschichte von Krebspatienten seltener Episoden mit fieberhaften Infekten zu finden sind. Dies konnte zum Beispiel deutlich für das Melanomrisiko gezeigt werden Messung der Körpertemperatur. Die Körpertemperatur kann mit verschiedenen Messgeräten und an verschiedenen Orten, Messstellen gemessen werden. Messmittel. Traditionell wurde mit Quecksilberthermometern gemessen. Wegen des enthaltenen Quecksilbers und der Glasbauweise geht von beschädigten Thermometern jedoch eine Gesundheitsgefahr aus. Seit April 2009 ist der Vertrieb von Quecksilberthermometern mit Ausnahme des wissenschaftlichen und medizinischen Bereichs innerhalb der EU verboten. Zunehmend wird Quecksilber durch nicht-toxisches Gallium ersetzt. Es handelt sich um Spitzenwert-Thermometer, d. h. der im Verlaufe der Messung höchste Wert verbleibt in der Anzeige. Vor erneuter Messung ist die Metallsäule deshalb herunterzuschütteln. Solche analogen Thermometer besitzen gegenüber modernen digitalen Thermometern den Vorteil, ohne elektrischen Strom auszukommen. Digitalthermometer weisen dafür eine höhere Bruchfestigkeit auf, ermöglichen eine schnellere Messung und bieten häufig eine Speicherfunktion zur Anzeige früherer Messergebnisse. Durch ein akustisches Signal am Ende des Messvorgangs und die einfache Ablesbarkeit sind sie zudem einfacher zu benutzen. Zunehmende Verbreitung findet die pyrometrische Messung der Infrarotabstrahlung, meist mit Ohr-Thermometern. Diese ist wegen der hohen Messgeschwindigkeit vor allem für die Messung bei Kindern beliebt, findet aber auch zunehmend generelle Verwendung in Arztpraxen und Krankenhäusern. Moderne Digitalthermometer brauchen oft nur noch 60 Sekunden und signalisieren, dass der Messvorgang abgeschlossen ist. Digitale Ohrthermometer brauchen sogar oft nur wenige Sekunden, um die Messung durchzuführen. Preislich liegen analoge und digitale Thermometer mit kleineren Abweichung ungefähr gleichauf. Ohrthermometer sind je nach Modell um den Faktor 10 bis 40 teurer. Ein Kostenfaktor, der bei Ohrthermometern zusätzlich zu berücksichtigen ist, sind die auswechselbaren Kunststoffschalen, die den direkten Hautkontakt mit dem Gerät vermeiden sollen. Messstellen. Die Körpertemperatur kann sublingual (im Mund), rektal (im After), aurikular (im Ohr), vaginal (in der Scheide), inguinal (in der Leiste) oder axillar (in der Achselhöhle) gemessen werden, wobei der rektal gemessene Wert der Körperkerntemperatur am nächsten ist. Orientierend ist eine Messung auch an der Stirn möglich. Mittels Infrarotmessgeräten ist das, z. B. in der Seuchenkontrolle, auch über Distanz möglich. Die rektale Messung ist – insbesondere bei Säuglingen und Kleinkindern bis vier Jahren – am zuverlässigsten, dabei ist die gemessene Temperatur im Vergleich am höchsten. Die Temperatur unter der Zunge liegt etwa 0,3–0,5 °C niedriger, die unter den Achseln um etwa 0,5 °C und ist relativ unzuverlässig. Bei der Messung im Ohr wird pyrometrisch, d. h. anhand der temperaturabhängigen Infrarotabstrahlung, die Temperatur des Trommelfelles gemessen. Diese Messmethode ist schnell und prinzipiell genau, liefert jedoch bei Fehlbedienung durch falsche Winkelung und Verlegung des Gehörganges durch Cerumen falsch-niedrige Werte. Modernere Geräte bieten technische Möglichkeiten, die dies erkennen sollen. Um die Messung nicht durch Abkühlung zu verfälschen, sollte das Messgerät vorher auf annähernd Körpertemperatur erwärmt werden. Bei hochwertigen Ohrthermometern wird die Spitze vor der Messung elektrisch auf 37 Grad erwärmt. Bei Messung im Mund sollte man innerhalb von 15 Minuten keine kühlen Speisen oder Getränke eingenommen haben. In der Intensivmedizin wird die Temperatur häufig über einen Blasenkatheter mit Thermistor oder über einen Thermistor-Katheter in einer Arterie (der außerdem zur Messung des Herzminutenvolumens dient) gemessen. Mund und Achseln sind zu unzuverlässig. Behandlung. Bei Fieber ist der Flüssigkeitsbedarf gesteigert, deshalb ist hier besonders auf eine ausreichende Flüssigkeitszufuhr zu achten. In der ersten Phase (siehe Symptome), in der vielfach auch Schüttelfrost empfunden wird, sollte Wärmeverlust des Körpers vermieden werden. Fiebersenkung durch Wärmeableitung, z. B. Wadenwickel, ist i. d. R. nur sinnvoll bei zusätzlicher Senkung des Sollwertes durch geeignete Medikamente. Kühlende Maßnahmen sind zudem sinnvoll bei extrem hohen Temperaturen, dann werden z. B. Eisbeutel in den Leisten platziert. Ein Mensch mit Fieber muss nicht unbedingt Bettruhe einhalten, da es bislang keinen Nachweis eines positiven Effektes der Bettruhe gibt. Körperliche Schonung, also Vermeidung von körperlichen und geistigen Überanstrengungen, ist empfehlenswert. Sollte Schwindel auftreten, ist die Verkehrstüchtigkeit eingeschränkt. Unter „fiebersenkender Therapie“ versteht man Behandlungen zur Senkung fiebriger Körpertemperaturen. Es gibt verschiedene Indikationen für eine fiebersenkende Therapie. Vor allem ein reduziertes subjektives Wohlbefinden bei Fieber spricht für den Einsatz einer fiebersenkenden Therapie, wobei fiebersenkende Arzneimittel oft zusätzlich auch analgetisch wirken. Aber auch die Vermeidung unerwünschter metabolischer Effekte bei Fieber, wie z. B. Dehydratation oder auch unerwünschter kardiovaskulärer Effekte bei Fieber, z. B. Tachykardie, sind Indikationen. Speziell Kinder und ältere Menschen sind empfindlich gegenüber hohem Fieber; bei Kleinkindern können Fieberkrämpfe auftreten, insbesondere nach schnellem Fieberanstieg. Bevor man eine fiebersenkende Therapie einsetzt, sollte man allerdings auch Argumente bedenken, die gegen den Einsatz einer fiebersenkenden Therapie sprechen. So verliert man das Fieber als diagnostischen Parameter, wodurch eine Verzögerung von therapeutischen Entscheidungen theoretisch denkbar ist. Fiebersenkende Medikamente (Antipyretika) sind z. B. Acetylsalicylsäure, Ibuprofen, Paracetamol oder Metamizol. Die naturheilkundlich verwendete Weidenrinde enthält Salicin, das im Körper zu Salicylsäure verstoffwechselt wird und ähnlich wie Acetylsalicylsäure wirkt. Behandlung durch Ableitung von Körperwärme, wie z. B. Wadenwickel, Rumpf-Reibebad, absteigendes Wannenbad oder Irrigator (Einläufe) werden komplementärmedizinisch verwendet. Auch intensivmedizinisch wird im Bedarfsfall durch Wärmeableitung behandelt, dann meist mit Hilfe von mit Eiswasser gefüllten Beuteln, die z. B. in der Leiste platziert werden. Dabei findet im Gegensatz zur medikamentösen Fiebersenkung keine Normalisierung des Temperatursollwertes statt, so dass der Körper versucht, der externen Kühlung entgegenzusteuern, was mit einem hohen Energieverbrauch einhergeht. Deshalb sind diese Maßnahmen nur sinnvoll, wenn auch medikamentös behandelt wird. Erhöhung der Temperatur zur Fieberbekämpfung. Nach Meinung von Anhängern komplementärer Verfahren eignet sich auch eine Erhöhung der Temperatur zur Fieberbekämpfung. Dabei werden vor allem ansteigende Fußbäder, Tees und Sauna empfohlen. Einen Wirksamkeitsnachweis für diese Maßnahmen gibt es nicht; insbesondere beim Saunieren besteht die Gefahr eines lebensbedrohlichen Temperaturanstiegs. Ursächliche Behandlung des Fiebers. Eine Behandlung mit Antibiotika erfolgt bei einem bakteriell bedingten Fieber. Wird das Fieber von Pilzen verursacht, helfen Antimykotika; bei manchen Virusinfektionen können Virostatika eingesetzt werden. Flüchtigkeit. Flüchtigkeit (auch Volatilität oder Verdunstungszahl) ist eine dimensionslose relative Kennzahl, die die Verdunstung eines Lösungsmittels beschreibt. Verdunstungszahl. In Deutschland wird die Verdunstungszahl (VD) nach DIN 53170 bestimmt. Dabei wird die Zeit, in der ein Stoff komplett verdunstet (Verdunstungszeit = VDZ) mit der Zeit in Relation gesetzt, die Diethylether zum Verdunsten benötigt. Eine hohe Verdunstungszahl bedeutet relativ langsames Verdunsten, also eine geringe Flüchtigkeit. Eine kleine Verdunstungszahl bedeutet schnelleres Verdunsten, also eine relativ hohe Flüchtigkeit. Evaporation rate. In den USA wird die evaporation rate (E) über die Zeit und in Bezug auf Butylacetat bestimmt. mit formula_4 = Zeit, bis zu der 90 % der Probe verdunstet ist. Fremdwort. Fremdwörter sind Wörter, die aus anderen Sprachen übernommen wurden. Das Fremdwort ist hinsichtlich Lautstand, Betonung, Flexion, Wortbildung oder Schreibung der Zielsprache meistens so unangepasst, dass es (im Gegensatz zum integrierteren Lehnwort) als „fremd“ empfunden werden kann. In der modernen Sprachwissenschaft ist die Unterscheidung zwischen „Fremd-“ und „Lehnwörtern“ unüblich, da es viele Zweifelsfälle gibt. Wie auch in vielen anderen Sprachen – vgl. frz. "emprunts" und engl. "loanwords" – wird allgemein nur von „Entlehnungen“ bzw. „Lehnwörtern“ gesprochen. Die Quantitative Linguistik modelliert den Prozess der Übernahme von Fremd- und Lehnwörtern mit Hilfe des Sprachwandelgesetzes (Piotrowski-Gesetzes). Die Entlehnung geschieht, wie sich immer wieder zeigt, im Sinne bestimmter Gesetze. Dasselbe gilt für das Fremdwortspektrum, das eine Übersicht gibt, aus welchen Sprachen wie viele Wörter übernommen wurden. Lateinische Lehn- und Fremdwörter. Latein verbreitete sich durch Lehnwörter wie "Straße", "Frucht", "Sichel", "Koch" erstmals im germanischen Sprachbereich, als das römische Reich zwischen dem 1. Jh. v. Chr. und dem 6. Jh. n. Chr. große Teile Europas beherrschte. Die Begriffe drangen vor der zweiten Lautverschiebung in die deutsche Sprache ein und wurden von ihr erfasst und umgeformt (z. B. "Ziegel" aus "tēgula", "Pfeffer" aus "piper"). Seit dem Ende der Antike war Latein die Sprache der Wissenschaft. Griechisch begann erst mit der Renaissance wieder eine Rolle zu spielen. Seit dem Ausgang des Mittelalters. In der Zeit der Entstehung der großen Handelsgesellschaften wurden im deutschsprachigen Raum kaufmännische Ausdrücke aus dem Italienischen eingebürgert (Konto, Saldo). Das Italienische prägte auch Kunst (Torso, Fresko) und Musik (forte, Tempobezeichnungen wie "andante"). Zur Zeit des Barocks und der Aufklärung war in Deutschland das Französische die Sprache der oberen Gesellschaftsschichten. Die Sprachpuristen Philipp von Zesen und Johann Heinrich Campe versuchten dem durch gekonnte Verdeutschungen entgegenzuwirken (z. B. Abstand [Distanz], Anschrift [Adresse], Augenblick [Moment], Beistrich [Komma], Bücherei [Bibliothek], Gesichtskreis [Horizont], Leidenschaft [Passion], Mundart [Dialekt], Nachruf [Nekrolog], Rechtschreibung [Orthographie], altertümlich [antik], herkömmlich [konventionell], Erdgeschoss [Parterre], Lehrgang [Kursus], Stelldichein [Rendezvous], tatsächlich [faktisch], Voraussage [Prophezeiung], Wust [Chaos]). Viele derartige Neuschöpfungen haben sich, nicht zuletzt durch den Nationalismus des 19. Jahrhunderts, in der deutschen Alltagssprache durchsetzen können. Post und Bahn deutschten systematisch Wörter aus ihren Fachbereichen ein (Bahnsteig [Perron]; Umschlag [Kuvert], Einschreiben [recommandé]). Andere Länder sind damit noch weiter gegangen (z. B. die Türkei, in der so viele arabische Begriffe durch neugeschaffene türkische ersetzt wurden, dass die heutigen Türken die Osmanische Sprache nicht mehr verstehen). Neuere Versuche von Verdeutschungen (Nuance > Abschattung) sind wenig erfolgreich geblieben. Bis heute ist ein Anteil der deutschen Fremdwörter französischen Ursprungs. Erst mit dem technischen und industriellen Siegeszug der USA, und seit im 20. Jahrhundert das Englische das Französische auch als Sprache der Diplomatie abzulösen begonnen hatte, ist der Strom französischer Ausdrücke ins Deutsche versiegt. Heute überwiegt die Übernahme von Wörtern aus dem Englischen, besonders dem amerikanischen (Meeting [Treffen], Computer [Rechner]). Von den rund 140.000 Begriffen des heutigen Duden hat etwa jedes vierte fremdsprachliche Wurzeln. Jeweils etwa 3,5 Prozent stammen aus dem Englischen und dem Französischen. Jeweils etwa fünf bis sechs Prozent stammten aus dem Lateinischen und Griechischen. Ein fortlaufender Zeitungstext erreicht beispielsweise etwa 8 bis 9 Prozent Fremdwörter, werden nur Substantive, Adjektive und Verben gezählt steigt der Anteil auf etwa 16 bis 17 Prozent. In Fachtexten mit vielen Termini technici liegt der Anteil meist wesentlich höher. Beispiele. Zu den Fremdwörtern ist in der linken Spalte eine Gebersprache angegeben. Viele Lehnwörter und Fremdwörter sind auf dem Weg über mehrere Sprachen ins Deutsche gekommen. Aus Gründen der Übersichtlichkeit stehen auch solche Wörter jeweils nur bei einer Gebersprache. Bei der zugeordneten Sprache handelt es sich also entweder um die "Ursprungssprache" oder um eine "vermittelnde Sprache". In den meisten der verlinkten Artikel findet man nähere Angaben zur Etymologie. Genaue Auskünfte erteilen etymologische Wörterbücher. Deutsche Wörter in anderen Sprachen. Auch deutsche Wörter werden in andere Sprachen übernommen und sind dort dann Fremdwörter. Sprachwissenschaftliche Forschungen ergaben, dass bis zu 2500 Wörter der polnischen Sprache einen Ursprung in deutschen oder mittelhochdeutschen Wörtern haben könnten. Eine Auflistung aller bisher bekannten Lehnwörter findet sich auf der Homepage der Universität Oldenburg. Internationale Suche „Wörterwanderung“. Für eine Ausschreibung mit dem Titel „Wörterwanderung“ sammelten im Sommer 2006 über 1600 Menschen aus 57 Ländern „ausgewanderte Wörter“ mit persönlichen Erlebnissen und Erläuterungen zu Bedeutungsverschiebungen in anderen Sprachen. Der Deutsche Sprachrat hat einige Ergebnisse inzwischen veröffentlicht (vgl. Limbach 2007). Das deutsche „Hinterland“ steht beispielsweise in England für das Gebiet hinter einem Frachtschiffhafen, in Italien für die dicht besiedelte Gegend um Mailand und in Australien für Gebiete, die in einem größeren Abstand von der Küste liegen, jedoch im Gegensatz zu den riesigen Flächen im Landesinneren („Outback“). Das dänische „habengut“ für Dinge, die man besitzt und mit sich tragen kann, kam mit deutschen Wandergesellen. Ein Teilnehmer aus der Schweiz berichtete von „schubladisieren“, abgeleitet von „Schublade“, in der französischsprachigen Schweiz im Sinne von zu den Akten legen, auf die lange Bank schieben bzw. nicht behandeln wollen. In der englischen Jugendsprache hat sich das Wort „uber“ – „über“ ohne Umlaut – als Steigerungsform von „super“ oder „mega“ herausgebildet. Das deutsche Wort „Zeitgeist“ wird dort sogar als Adjektiv „zeitgeisty“ verwendet. In Italien, so ein Einsender, hat sich das Wort „Realpolitik“ in der Zeit des Eisernen Vorhangs verbreitet, mit Willy Brandt assoziiert, heute zunehmend als „wahre, sinnvolle, lebensnahe Politik“ verstanden. Die meisten Zusendungen nannten ins Englische, Russische, Ungarische und Polnische ausgewanderte Wörter. Auch Vietnamesisch, Koreanisch, Chinesisch, Japanisch, Arabisch, Persisch, Hebräisch, Brasilianisch, Spanisch, Finnisch, Estnisch, Afrikaans, Swahili, Wolof und Kirundi kommen vor. Spitzenreiter ist nach wie vor das französische „vasistas“ für „Oberlicht“ oder „Kippfenster“, abgeleitet vom deutschen „Was ist das?“. An zweiter Stelle steht der „kindergarten“, den es im englischen, französischen, spanischen und japanischen Sprachgebrauch gibt, gefolgt vom russischen „butterbrot“, das ein belegtes Brot, allerdings auch ohne Butter, bezeichnet und dem Wort „kaputt“ im Englischen, Spanischen, Französischen und Russischen. Fremdwörter als Überreste einstiger Landessprachen. Wenn ein fremdes Volk einem Gebiet seine Kultur so flächendeckend aufzwingt, dass seine Sprache ganz in ihm zu herrschen beginnt, nehmen die verbleibenden örtlichen Ausdrücke den Charakter von Fremdwörtern an. Beispiele im Amerikanischen sind "toboggan" (Rutschschlitten) und "canoe" aus dem Indianischen oder "adobe" (an der Sonne getrockneter Lehmziegel), "lasso", "sierra", "desperado" aus der Zeit der spanischen Kolonisation. Felsit. Felsite sind allgemein helle magmatische oder metamorphe Gesteine, die hauptsächlich aus Quarz und Feldspat, also felsischen Mineralen, bestehen und eine Dichte kleiner als 3 g/cm³ haben. Der Begriff "Felsit" ist eine Zusammenfassung der Wörter "Feldspat" und "Silikat", wobei mit Silikat hier Quarz gemeint ist. Das entsprechende Adjektiv ist felsisch. Da Quarz aus Siliziumdioxid, chemisch inkorrekt oft als Kieselsäure bezeichnet, besteht, wird für Felsite nicht selten auch der Ausdruck saure Gesteine genutzt. Das Adjektiv felsitisch steht darüber hinaus für ein feinkörniges bis dichtes und ohne besondere morphologische Kornausbildung gekennzeichnetes Gefüge felsischer Gesteine. Felsische Glase, wie z.B. Obsidian, waren in Kulturen, in denen die Metallverarbeitung nicht bekannt war, bedeutende Rohstoffe für Werkzeuge und Waffen. Literatur. !Felsit !Felsit Französische Sprache. Französisch bzw. die französische Sprache (frz. ', ') gehört zu der romanischen Gruppe des italischen Zweigs der indogermanischen Sprachen. Damit ist diese Sprache unter anderem mit dem Italienischen, Rätoromanischen, Spanischen, Katalanischen, Portugiesischen und Rumänischen näher verwandt. Französisch wird von etwa 80 Millionen Menschen als Muttersprache gesprochen und gilt als Weltsprache, da es von rund 230 Millionen Sprechern auf allen Kontinenten in über 50 Ländern gesprochen und weltweit oft als Fremdsprache gelernt wird. Französisch ist unter anderem Amtssprache in Frankreich, Kanada, der Schweiz, Belgien, Haiti und zahlreichen Ländern in West- und Zentralafrika, während es im arabischsprachigen Nordafrika und in Südostasien als Nebensprache weit verbreitet ist. Zudem ist es Amtssprache der Afrikanischen Union und der Organisation Amerikanischer Staaten, eine der Amtssprachen der Europäischen Union und eine der sechs Amtssprachen sowie neben Englisch Arbeitssprache der Vereinten Nationen, weiterhin Amtssprache des Weltpostvereins. Auf die französische Sprache wirken normierend ein die "Académie française," die sogenannte "Loi Toubon" (ein Gesetz zum Schutz der französischen Sprache in Frankreich), das "Office québécois de la langue française" (eine Behörde in Québec), der "Service de la langue française" (eine belgische Institution zur Pflege der französischen Sprache) sowie die "Délégation générale à la langue française et aux langues de France". __TOC__ Französisch in Europa. Französisch in Frankreich und in angrenzenden Gebieten Französisch wird in Europa vor allem in Frankreich selbst, aber auch in weiten Teilen Belgiens und Luxemburgs sowie in der Westschweiz und im Aostatal (Italien) von Muttersprachlern gesprochen. In Monaco ist es zudem Amtssprache. Nach der Eurostat-Studie „Die Europäer und ihre Sprachen“ "(Europeans and Languages)," die von Mai bis Juni 2005 in den damaligen 25 Mitgliedstaaten der Europäischen Union durchgeführt und im September 2005 veröffentlicht wurde, sprechen 11 % der EU-Bürger Französisch als Fremdsprache. Somit ist Französisch die am dritthäufigsten gelernte Fremdsprache Europas nach Englisch (34 %) und Deutsch (12 %). Französische Muttersprachler sind nach der Studie 12 % der EU-Bürger. Neben Deutsch und Englisch ist Französisch die wichtigste Amts- und Arbeitssprache der Europäischen Union. Dies liegt unter anderem daran, dass Frankreich ein Gründungsmitglied der Organisation ist und sich viele EU-Institutionen in den hauptsächlich französischsprachigen Städten Brüssel, Straßburg und Luxemburg befinden. Französisch ist ebenfalls die traditionelle interne Arbeitssprache des Europäischen Gerichtshofs, des judikativen Organs der EU, und des Europarats. Allerdings schwindet innerhalb der EU aufgrund der wachsenden Relevanz des Englischen der Einfluss des Französischen auf die Arbeitswelt insgesamt stetig. Französisch auf internationaler Ebene. Die französische Sprache gilt als Weltsprache, sie wird auf allen Kontinenten der Erde verwendet und ist Amtssprache zahlreicher wichtiger internationaler Organisationen. Französisch gilt auch im globalisierten Zeitalter, in dem viele gesellschaftliche Bereiche von der englischen Sprache dominiert werden, immer noch als zweite Sprache der Diplomatie. Französisch ist Amts- bzw. Verkehrssprache der Vereinten Nationen, der Afrikanischen Union, der Organisation Amerikanischer Staaten, des Weltpostvereins (UPU), von Interpol, des Internationalen Olympischen Komitees, der FIFA, der UEFA, der Lateinischen Union, von "Reporter ohne Grenzen", von "Ärzte ohne Grenzen", der Welthandelsorganisation, der Frankophonie und von vielen weiteren Institutionen und Organisationen. Rolle des Französischen in einzelnen Ländern. Außer in den Ländern, in denen Französisch als Amtssprache gilt, wie z. B. in den Überseegebieten Frankreichs und Staaten Afrikas, der Antillen und Ozeaniens, wird es in vielen ehemaligen Kolonien Frankreichs und Belgiens als Verkehrs- und Kultursprache gesprochen. In den Staaten des Maghreb ist Französisch als Unterrichts- und Kultursprache erhalten geblieben. In den Vereinigten Staaten gibt es französischsprachige Minderheiten vor allem in Maine und Louisiana, in geringerem Maße auch in New Hampshire und Vermont. Siehe auch: Französische Sprache in den Vereinigten Staaten. In der kanadischen Provinz Québec spricht die überwiegende Mehrheit der Menschen Französisch als Muttersprache. Das Quebecer Französisch unterscheidet sich in Bezug auf Grammatik, Aussprache und Vokabular nur in geringem Maße vom Standardfranzösischen. Kleinere französischsprachige Minderheiten gibt es in Ontario, in Alberta, im Süden von Manitoba, im Norden und Südosten von New Brunswick (Neubraunschweig) und im Südwesten Nova Scotias (Neuschottland). Über 20 Prozent der Kanadier sind französische Muttersprachler, und Französisch ist neben dem Englischen gleichberechtigte Amtssprache. Siehe auch: Französisch in Kanada. In Mauritius, Mauretanien, Laos, Kambodscha, Vietnam, dem Libanon, auf den Kanalinseln und in Andorra wird die französische Sprache in unterschiedlichem Maße als Bildungs- und Verwaltungssprache verwendet. Sprachvarianten der französischen Sprache. Französische Dialekte (gelbliche, grüne und blaue Farbtöne) und andere Sprachgruppen in Frankreich Französisch ist eine indogermanische Sprache und gehört zu den galloromanischen Sprachen, die in zwei Gruppen unterteilt werden: "Langues d’oïl" im nördlichen Frankreich und Belgien und "Langues d’oc" im Süden Frankreichs. Hierbei ist der Status, was dabei Dialekt und was eigenständige Sprache ist, umstritten. Meistens spricht man von zwei Sprachen und deren jeweiligen Patois, den französischen Dialekten. Das Französische wird den "Langues d’oïl" zugeordnet und geht auf eine Mundart aus der Île de France zurück, der weiteren Umgebung der Hauptstadt Paris. Sie grenzen sich von den "Langues d’oc" ab, die südlich des Flusses Loire verbreitet sind und eine eigene Sprache darstellen. Die Unterscheidung bezieht sich auf die Verwendung des Wortes "Ja" – "Oc" im Süden und "Oïl" im Norden. Zudem ist bei den "Langues d’oc", die zusammenfassend auch als Okzitanisch bezeichnet werden, der romanische Charakter stärker ausgeprägt, während bei den "Langues d’oïl" der Einfluss des fränkischen Adstrats zu erkennen ist. Daneben gibt es das Franko-Provenzalische, das mitunter als selbständig gegenüber den anderen beiden gallo-romanischen Sprachen eingestuft wird. Da es allerdings keine Hochsprache entwickelt hat, wird es auch als Dialekt der "Langues d’oc" angesehen. Der Gruppe der Oïl-Sprachen zugerechnet wird in der Regel auch das Jèrriais, eine Varietät auf der Kanalinsel Jersey, die sich durch die isolierte geographische Lage strukturell von den Festlandvarietäten unterscheidet. In vielen afrikanischen Ländern wird Französisch als Zweitsprache verwendet. In diesen Ländern ist die Sprache häufig durch einen Akzent gefärbt. Aus dem Französischen haben sich außerdem in den ehemaligen (vor allem karibischen) Kolonialgebieten verschiedene Französisch geprägte Kreolsprachen herausgebildet. Diese werden wegen ihrer vom Standardfranzösischen stark abweichenden Struktur jedoch meist als eigene Sprachgruppe und nicht als französische Varietät angesehen, wie z.B. Haitianisch. Geschichte der französischen Sprache. In Gallien gab es drei große Völker mit eigenen Sprachen: die Kelten (die von den Römern Gallier genannt wurden), die Aquitanier im Südwesten und die Belger im Norden. Die Romanisierung erfolgte in zwei Schritten. Die lateinische Sprache gelangte mit der Einrichtung der römischen Provinz Gallia Narbonensis nach Südfrankreich, beginnend mit der Gründung der Festung "Aquae Sextiae" (120 v. Chr., heute Aix-en-Provence) und der Siedlung "Colonia Narbo Martius" (118 v. Chr., heute Narbonne). Ab 58 v. Chr. eroberte Gaius Iulius Caesar Nordgallien im Gallischen Krieg. Anschließend verbreitete sich das Lateinische im ganzen Land. Substrateinfluss des Gallischen. Innerhalb eines Zeitraums von vier Jahrhunderten setzte sich das Lateinische gegenüber den einheimischen festlandkeltischen (gallischen) Dialekten durch. Die Romanisierung geschah zunächst in Städten, Schulen und Verwaltungen, erst später in den abgelegenen Gebieten Galliens. Die keltischen Sprachen verschwanden nicht spurlos, sondern fanden mit schätzungsweise deutlich über 240 Wortstämmen Eingang in das gesprochene Vulgärlatein. Infolge der späteren Durchsetzung des Lateinischen in den ländlichen Regionen Galliens blieben vor allem Begriffe keltischer Herkunft aus der Landwirtschaft im Vulgärlatein erhalten, die auch im heutigen Französisch weiter verwendet werden, z. B. "aller" ‚gehen‘ (vgl. korn. "ello" ‚er gehe‘), "craindre" ‚fürchten‘ (vgl. bret. "kren" ‚Zittern‘), "mouton" ‚Schaf‘ (vgl. wal. "mollt" ‚Schafbock‘), "soc" ‚Pflugschar‘ (vgl. ir. "soc" ‚Schar, Saugrüssel‘) usw. Aber auch die Zählweise im Zwanziger-System (Vigesimalsystem), die das Standardfranzösische bis heute teilweise beibehält, wird häufig keltischen Einflüssen zugeschrieben (z. B. "soixante et onze": sechzig und elf = 71, "quatre-vingts": vier(mal)-zwanzig = 80). Einen solchen Einfluss einer untergehenden Sprache auf die sich durchsetzende Sprache nennt man Substrat. Adstrateinfluss der Franken. Die gallorömische Bevölkerung im Norden Galliens kam mit germanischen Stämmen hauptsächlich durch Handelsbeziehungen in Kontakt, aber auch durch Söldnerdienste der Germanen in der römischen Armee. Bereits durch diese Kontakte fanden neben dem keltischen Substrat etliche Wörter germanischen Ursprungs Eingang in die französische Sprache. Ein solcher Vorgang einer friedlichen Beeinflussung durch nachbarschaftliche Beziehungen wird Adstrat genannt. Einen stärkeren Einfluss übte später der westgermanische Stamm der Franken aus. Die Franken eroberten nach dem endgültigen Sieg über eine römische Restprovinz 486 n. Chr. durch Chlodwig I das Gebiet Galliens und prägten den französischen Wortschatz entscheidend mit. Um die 700 Wortstämme wurden von den Franken übernommen (z. B. "alise" ‚Mehl- oder Elsbeere‘ [vgl. entsprechend dt. "Erle"], "blanc" ‚weiß‘, "danser" ‚tanzen‘, "écran" ‚Schirm‘ [vgl. dt. "Schrank"], "gris" ‚grau‘, "guerre" ‚Krieg‘ [vgl. mnl. "werre" ‚Ärgernis, Verwirrung‘, entsprech. dt. "wirr"], "jardin" ‚Garten‘, "lécher" ‚lecken‘, "saule" ‚Salweide‘), außerdem sind jene Ortsnamen in Nordfrankreich, die auf "-court, -ville" und "-vic" enden, meist germanisch-fränkischer Herkunft. Hierbei vollzog sich der geschichtlich bemerkenswerte Vorgang, dass sich die Franken sprachlich dem Vulgärlatein der besiegten gallo-romanischen Bevölkerung bis auf wenige verbleibende fränkische Einflüsse anpassten. Den Verbleib einiger Wörter aus der Sprache der Sieger in der sich durchsetzenden Sprache der Besiegten nennt man Superstrat. Dieser Vorgang zog sich vom 5. bis zum 9. Jahrhundert hin. Noch Karl der Große (Krönung 800 n. Chr.) sprach als Muttersprache Fränkisch. Nur ganz im Norden Galliens konnte durch die fränkische Eroberung die germanische Sprachgrenze in das heutige Belgien hinein verschoben werden, die heute das Land in Flandern und Wallonien teilt. Die ungebrochene Dominanz des Vulgärlateinischen erklärt sich unter anderem aus dem nach wie vor hohen Prestige des Lateinischen, sowie aus der weitgehenden Übernahme der römischen Verwaltung. Auch die fränkische Lex Salica, in der sich römisches Rechtsdenken mit germanischen Zügen verbunden hat, begünstigte diese Entwicklung. Die fränkischen Einflüsse schlugen sich nicht nur im Wortschatz nieder, sondern auch im Lautsystem (etwa das sogenannte "h aspiré", das „behauchte h“, das im Anlaut nicht gebunden wird), sowie in der Wortstellung (z. B. Voranstellung einiger Adjektive vor Nomen: "une grande maison" – „ein großes Haus“). Weitere Entwicklung im Mittelalter. Zur Zeit Karls des Großen wich die Aussprache des Vulgärlateins erheblich von der Schreibweise ab. Auf Grund dessen veranlasste er – angeregt durch Alkuin – die karolingische Bildungsreform, wodurch Latein mit dem Ziel einer klassischen Aussprache erlernt wurde. Somit sollte die Missionierung der germanischen Bevölkerungsteile erleichtert werden, die vor allem von irischen Mönchen ausging, für die Latein eine Fremdsprache war. Darüber hinaus sollten eingetretene Unsicherheiten in der Aussprache bereinigt werden. Diese sich herausbildende Zweisprachigkeit führte zu erheblichen Schwierigkeiten bei der Verständigung des lateinisch sprechenden Klerus mit dem Volk. Auf dem Konzil von Tours 813 legte man eine einheitliche, dem Volk verständliche Sprache für Predigten in Kirchen fest. Latein blieb als Schriftsprache erhalten. Das Konzil von Tours erscheint als Geburtsstunde eines Bewusstseins davon, dass die gesprochene Sprache eine andere war als Latein. Es bildeten sich verschiedene Dialekte heraus, die als Langues d’oïl zusammengefasst werden, in Angrenzung zu den südlichen Langues d'oc, benannt nach dem jeweiligen Wort für „Ja“ (im heutigen Französisch "oui"). Die ersten Dokumente, die der französischen Sprache zugeordnet werden, sind die Straßburger Eide, die 842 sowohl auf Altfranzösisch als auch auf Althochdeutsch verfasst wurden. Damit war auch die herkömmliche Diglossie, lateinisch zu schreiben, aber romanisch zu sprechen, zerstört. Im offiziellen Gebrauch blieb Latein aber noch jahrhundertelang dominant. Unter den Kapetingern kristallisierte sich Paris und die Ile-de-France allmählich als politisches Zentrum Frankreichs heraus, wodurch der dortige Dialekt, das Franzische, zur Hochsprache reifte. Aufgrund der zunehmend zentralistischen Politik wurden die anderen Dialekte in den folgenden Jahrhunderten stark zurückgedrängt. Nachdem Wilhelm der Eroberer im Jahr 1066 den englischen Thron bestiegen hatte, wurde das normannische Französisch für zwei Jahrhunderte die Sprache des englischen Adels. In dieser Zeit wurde die englische Sprache sehr stark vom Französischen beeinflusst, das Französische aber auch vom Normannischen, was Wörter wie "crevette, quai" sowie die Himmelsrichtungen "sud, nord" usw. bezeugen. Mit den Albigenserkreuzzügen im 13. Jahrhundert weitete Frankreich sein Territorium nach Süden aus (später folgte noch Korsika), die Kultur und Sprache des siegreichen Nordens wurden dem Süden oktroyiert. Das Okzitanische wurde zunächst aus dem offiziellen, im Laufe des 19. und 20. Jahrhunderts auch aus dem privaten Sprachgebrauch verdrängt; eine ähnliche Entwicklung widerfuhr dem Niederdeutschen (mit dem Hochdeutschen) in Norddeutschland. Dadurch schwand die Bedeutung der Langues d’oc (siehe oben) und des Frankoprovenzalischen, die vorher prestigeträchtige Kultur- und Literatursprachen waren. Am 15. August 1539 erließ Franz I., der zweite französische König des Renaissancezeitalters, das Edikt von Villers-Cotterêts, mit der das Französische das Latein als Kanzleisprache ersetzt. Seither ist das Französische Amtssprache in Frankreich. Sprachgeschichtlich spricht man im Zeitraum von 842 bis etwa 1340 von Altfranzösisch, "l’ancien français", und von 1340 bis etwa 1610 von Mittelfranzösisch, "le moyen français". Weitere Entwicklung in der Neuzeit. Im Jahre 1635 gründete Kardinal Richelieu die bis heute bestehende Académie française, die sich mit der „Vereinheitlichung und Pflege der französischen Sprache“ beschäftigt. Ab dem 17. Jahrhundert wird Französisch die "Lingua franca" des europäischen Adels, zunächst in Mitteleuropa, im 18. und 19. Jahrhundert auch in Osteuropa (Polen, Russland, Rumänien); zahlreiche Gallizismen gelangen in die Sprachen Europas. Jahrhundertelang wurde das Französische vom Adel und den Intellektuellen Europas gesprochen und galt als Sprache des Hofes und der Gebildeten. Auch heute noch zeugen Wörter wie Manieren, Noblesse, Kavalier, Etikette oder Konversation von der starken Anlehnung an französische Sitten und Gebräuche. In dieser Zeit entwickelte sich Frankreich zu einer Kolonialmacht und legte damit den Grundstein für die heutige Verbreitung der französischen Sprache außerhalb Europas und der französischen Kreolsprachen. Das 1830 aus den Vereinigten Niederlanden hervorgegangene Belgien eroberte ebenfalls Kolonien (das ehemalige Belgisch-Kongo) und führte dort die französische Sprache ein. Im 18. Jahrhundert übernahm das Französische als Sprache des Adels die Domäne der internationalen Beziehungen und der Diplomatie (zuvor: Latein). Nach der Französischen Revolution und dem Scheitern der napoleonischen Großmachtspolitik, die Nationalismus und Freiheitsbewegungen der unterworfenen Völker hervorbrachte, ging die Verwendung des Französischen stark zurück; das aufstrebende Bürgertum etwa in Deutschland dachte national und sprach deutsch. Durch den Aufstieg des englischsprachigen Vereinigten Königreichs im 19. Jahrhundert zur vorherrschenden Kolonialmacht und der englischsprachigen Vereinigten Staaten von Amerika im 20. Jahrhundert zur Supermacht entwickelte sich Englisch zur De-facto-Welthauptsprache und verdrängte das Französische aus weiten Teilen der Diplomatie, der Politik und des Handels. Dies zeigt sich etwa darin, dass der Friedensvertrag von Versailles von 1919 nicht mehr allein auf Französisch, sondern auch auf Englisch verfasst wurde. Als Gegengewicht zum britischen Commonwealth baute Präsident Charles de Gaulle, dem an der Fortführung der Weltgeltung des Landes gelegen war, seit Beginn der Fünften Republik ein System von kulturellen Beziehungen zwischen Mutterland und ehemaligen Kolonien auf, unter anderem die "Organisation internationale de la Francophonie," den Weltverbund aller französischsprachiger Staaten. Im Jahr 1977 erhielt in Kanada das Gesetz 101 Rechtskraft, das Französisch als einzige Amtssprache der Provinz Québec festlegt. Mit der Dezentralisierung in den 1980er Jahren wurde den Regionalsprachen sowie den Dialekten in Frankreich mehr Freiraum zugestanden, wodurch diese ein Wiederaufleben erfuhren. 1994 wurde in Frankreich das nach dem Kulturminister benannte Loi Toubon erlassen: Ein Gesetz, das den Schutz der französischen Sprache sichern soll. Danach sollen Anglizismen im offiziellen Sprachgebrauch bewusst vermieden werden: Entsprechend heißt zum Beispiel der Computer "l'ordinateur" und der Walkman "le baladeur". Laut einer demographischen Analyse der kanadischen Université Laval und der "Agence universitaire de la Francophonie" wird sich die Anzahl der französischsprachigen Menschen im Jahr 2025 auf 500 Millionen und im Jahr 2050 auf 650 Millionen belaufen. 2050 würde dies sieben Prozent der Weltbevölkerung ausmachen. Grund für diesen starken Anstieg ist hauptsächlich der rasche Bevölkerungszuwachs in arabischen und afrikanischen Staaten. Aussprache. Aussprache und Sprachmelodie der französischen Sprache stellen viele Deutschsprachige vor Probleme, da das Französische mehrere Laute enthält, die im Deutschen unbekannt sind. Dazu zählen vor allem die Nasallaute. Weitere Schwierigkeiten treten beim Erlernen der Schriftsprache auf, weil sich Schriftbild und die korrekte Aussprache seit Jahrhunderten auseinanderentwickelt haben, wobei allerdings die Zuordnung meistens recht einfachen Regeln folgt. Vokale. Die Oppositionen // – // und // – // sind im Verschwinden begriffen bzw. werden bereits von der Mehrzahl der Sprecher nicht mehr beachtet, in der Regel zugunsten des jeweils letztgenannten Phonems. Dadurch werden frühere Minimalpaare für Sprecher, die eines der beiden Phoneme nicht besitzen, zu Homophonen. Die Nasalvokale. Ausnahmen: Bei den Präfixen "em-" und "en-" bleibt die Nasalisierung erhalten (z. B.: "emmancher, emménager, emmerder, emmitoufler, emmener, ennoblir, ennuyer"), bei "im-" gilt es nur selten "(immangeable immanquable)". Importe aus dem Englischen auf "-ing" "(faire du shopping)" und aus der Wissenschaftssprache auf "-um" (sprich ausnahmsweise:, z. B.: "uranium") nasalieren nicht. Konsonanten. Das Phonem // kommt fast ausschließlich in Fremdwörtern aus dem Englischen vor; von einigen Franzosen wird es als realisiert. Stumme Zeichen. Aufgrund ihrer Geschichte, in der sich die Aussprache teilweise deutlich, die Schreibweise aber gar nicht geändert hat, hat die französische Sprache einen sehr großen Anteil stummer Zeichen. Insbesondere am Wortende können ganze Zeichengruppen stumm bleiben. Konsonant am Wortende. Ist der Konsonant am Wortende ein "-t" (außer nach "s"), ein grammatisch bedingtes "-s" oder "-x," einer dieser beiden Buchstaben in Ortsnamen, die Endung "-d" in den Verben auf "-dre," die finite Verbendung "-nt" oder ein deutsches "-g" in Ortsnamen, so wird er nicht ausgesprochen, und vor ihm werden auch alle etwa noch davorstehenden "p, t, c/k, b, d, " nicht ausgesprochen. Weiterhin haben "assez" „genug“, "chez" „bei“ und die Verbformen auf "-ez" (2. P. Pl.) stummes "z". Die Adjektive auf (im Femininum) "-ille" haben im Maskulinum stummes "l" ("gentil", gentille „freundlich“); bei der Liasion wird dieses wie doppeltes "l," also der Eselsbrücke zufolge wie das Femininum ausgesprochen ("gentil'"homme" „Gentleman“). Unregelmäßig fällt der Konsonant aus bei Grundsätzlich kann außer vor Satzzeichen immer Liaison gemacht werden, aber nicht nach Infinitiven auf "-er" und wohl auch nicht nach Standesbezeichnungen auf "-er". Vokal am Ende eines Wortes. Auch ein "e" am Wortende ist zumeist stumm. Der in der Schrift davor stehende Konsonant ist zu artikulieren. Konsonanten. Bisweilen aber tauchen stumme Konsonanten am Wortende in der Aussprache wieder auf, wenn das folgende Wort mit einem Vokal beginnt. Es wird dann eine so genannte Liaison vorgenommen, also beide Wörter werden zusammenhängend ausgesprochen. Da das "h" im Französischen nicht gesprochen wird, wird also auch bei vielen Wörtern, die mit "h" beginnen, eine Liaison vorgenommen. Jedoch wird nicht immer eine Liaison durchgeführt. In manchen Fällen ist beides möglich. Zudem gibt es eine ganze Reihe von Wörtern, die mit einem „aspirierten (gehauchten) h“ "(h aspiré)" beginnen. Dieses "h" bleibt zwar ebenso stumm, aber durch seine Existenz wird gewissermaßen die Autonomie des Wortes bewahrt, also keine Liaison vorgenommen. Faustregeln. Zur Aussprache gewisser Buchstaben bzw. Buchstabengruppen lassen sich zumeist schnell Regeln finden, die auch in den meisten Fällen Gültigkeit haben. Die Apostrophierung. Französisch erhält seinen Klang nicht nur durch den Wegfall der Aussprache (Elision) „unnötiger“ Konsonanten, sondern auch durch das Auslassen von Vokalen, vor allem des, damit es zu keiner Häufung (Hiat) kommt; siehe oben. In bestimmten grammatischen Gegebenheiten wird dies auch von der Rechtschreibung nachvollzogen und durch einen Apostroph gekennzeichnet. In der Umgangssprache wird auch das in "tu" gerne weggelassen (so bei "t’as" statt "tu as"). Vor einem "h aspiré" (siehe oben) kann nicht gekürzt werden. Grammatik. Französisch ist eine romanische Sprache, d. h. sie ist aus dem antiken Latein entstanden. Wie auch in vielen anderen Sprachen dieses Sprachzweigs, wie Spanisch oder Italienisch, zeichnet sich die französische Grammatik dadurch aus, dass die Deklinationen der Ursprungssprache getilgt wurden. An grammatischen Geschlechtern kennt das Französische zwei: Maskulinum und Femininum. Die Artikel, die verwendet werden, haben sich aus den lateinischen Demonstrativpronomen entwickelt. Außerdem hat sich die Flexion der Verben in mehreren Zeiten geändert, die nun mit Hilfsverb und Partizip konstruiert werden. Der Sprachbau im Französischen ist wie folgt: Subjekt – Verb – Objekt. Diese Regel wird nur gebrochen, wenn das Objekt ein Pronomen ist. In diesem Fall lautet die Satzstellung: Subjekt – Objekt – Verb. Einige Archaismen, die ebenfalls typisch für romanische Sprachen sind, weichen von dieser Regel ab, vor allem im Nebensatz. Flut. Als Flut wird das Steigen des Wasserstandes infolge der Gezeiten (Tide) bezeichnet. Dieser Zeitraum reicht von einem Niedrigwasser bis zum folgenden Hochwasser. An der Küste wird auch der Ausdruck auflaufendes Wasser zur Unterscheidung von binnenländischen Hochwässern oder Überflutungen benutzt. Das darauf folgende Sinken des Meeresspiegels wird Ebbe ("ablaufendes Wasser") genannt. Die Flut ist nicht mit dem Hochwasser zu verwechseln. Flut zeigt eine Bewegungsrichtung an, während Hochwasser den höchsten Stand des Wassers markiert. Der "Flutstrom" kann in den Prielen des Wattenmeers beträchtliche Geschwindigkeiten (bis über 20 km/h) erreichen. Daher ist bei Wanderungen im Watt besondere Vorsicht geboten. Die Höhe der Flut über dem Meeresspiegel ist nicht überall gleich. In der von den Ozeanen relativ abgeschnittenen Ostsee liegt sie bei 10 cm, auf der offenen Nordsee meist bei 100 cm. Der Tidenhub des Atlantiks liegt im Gebiet des mittelatlantischen Rückens bei nur 50 cm. An Küsten, Buchten und an Ästuaren, an denen der Wasserberg Engstellen passieren muss, liegt er weitaus höher. In den Ästuaren der Flüsse, beispielsweise der Elbe und Weser, werden bis zu 4 m, bei Sturmfluten bis zu 10 m erreicht. Der Tidenhub ist an Flüssen auch noch im Landesinneren zu spüren, sofern keine Sperrwerke bestehen und der Höhenunterschied gering ist (Tidefluss), z. B. Amazonas, Themse, Elbe, Weser, Wümme, Ems. Der Tidenhub am Ärmelkanal beträgt bis zu 12 m, an der Bay of Fundy von 15 bis zu 21 m. In Sturmfluten wird der Wasserstand durch die Kraft des Windes über das Normalmaß hinaus erhöht. Dadurch können Wasserstände erreicht werden, die 3 bis 5 Meter über dem normalen mittleren Tidehochwasser (MTHW) liegen. In der Vergangenheit haben Sturmfluten insbesondere an den Küsten der Nordsee beträchtliche Opfer gefordert, so z. B. 1962 in Hamburg. Abu Nidal Organisation. Die Abu-Nidal-Organisation (ANO, auch bekannt unter den Namen Fatah-Revolutionsrat) ist eine von Abu Nidal 1974 gegründete Abspaltung von der PLO, die sich für ein selbständiges Palästina einsetzt. Sie wurde zuerst von Saddam Hussein, dann von Hafiz al-Assad, dann von Muammar al-Gaddafi und vom Iran unterstützt. Ihr werden zahlreiche Anschläge zur Last gelegt. Unter anderem wird die Gruppe für Anschläge auf die Flughäfen von Rom und Wien im Jahre 1985, bei denen 18 Menschen ums Leben kamen, sowie einen Angriff auf Synagogen in Paris und Wien (Stadttempel) verantwortlich gemacht. Zudem ist sie für die Ermordung des Wiener Politikers Heinz Nittel verantwortlich. Die EU und die USA führen die Organisation auf ihrer Liste der Terrororganisationen. Darüber hinaus beging die Gruppe Auftragsmorde und tötete Fatah-Politiker, die für Verhandlungen mit Israel eintraten wie z.B. 1983 den Arafat-Vertrauten Issam Sartawi. Sie wurde aber, anders als andere palästinensische Organisationen, niemals zum Ziel israelischer Vergeltungsschläge. Dies und ihre offensichtliche Arbeit gegen die Interessen der PLO führte zu Spekulationen, die Gruppe sei zumindest in Teilen von israelischen Geheimdiensten unterwandert. Im Jahr 2000 versuchte die Frau des Abu-Nidal-Finanzreferenten Samir N., die Ägypterin mit dem Spitznamen „Die Sanfte“, Geld von dessen Bankkonto abzuheben. Sie wurde wegen Terrorismus angeklagt, konnte aber nach Libyen entkommen. Die acht Millionen US-Dollar, die sich bereits seit Jahren auf jenem Wiener Bankkonto befinden, sind seither Gegenstand mehrerer Gerichtsprozesse, die beinahe zur Überweisung des Geldes an ehemalige Mitglieder geführt hätten. 2009 wurde ein entsprechendes Urteil jedoch vom Wiener Oberlandesgericht aufgehoben. Ein neuer Prozess soll klären, was mit dem Geld geschehen soll. Formant. Als Formant (von lateinisch "formare" = formen) bezeichnet man in der Akustik oder Phonetik die Konzentration akustischer Energie in einem bestimmten Frequenzbereich. Formanten entstehen beispielsweise in den Resonanz­spektren von Musikinstrumenten oder der menschlichen Stimme. Aufgrund der Resonanzeigenschaften eines Instruments (oder des Artikulationsraums) werden bestimmte Frequenzbereiche im Verhältnis zu anderen Frequenzbereichen verstärkt. Formanten sind dabei diejenigen Frequenzbereiche, bei denen die relative Verstärkung am höchsten ist. Erläuterungen zur Definition. Im Kehlkopf oder z. B. im Mundstück eines Blasinstrumentes wird zunächst ein Grundton mit zahlreichen Obertönen produziert. Erst im Klangkörper eines Musikinstrumentes bzw. auf dem Weg zwischen Kehlkopf und Mundöffnung wird aus diesem Spektrum ein Teil der Harmonischen, also Partial- bzw. Teiltöne oder Obertöne und Rauschanteile, gedämpft, ein anderer Teil durch Resonanz relativ gegenüber der Grundfrequenz und gegenüber anderen Obertönen verstärkt. Die Bereiche, bei denen eine maximale relative Verstärkung stattfindet, sind die Formanten. Stimmen und Instrumente besitzen oft mehrere Formantregionen, die nicht direkt aneinander anschließen. Die Lage und Ausprägung der Formanten prägen maßgeblich die Klangfarbe (Timbre) eines Musikinstruments oder einer Stimme. Durch sie lassen sich Stimmen und auch Musikinstrumente voneinander unterscheiden – etwa die Stimmen zweier Frauen oder eine Geige von einer anderen. Sprache. a> der Laute i, u, ɑ in amerikanisches Englisch. Formanten F1, F2 rot markiert Bei der menschlichen Sprache charakterisiert die Lage der Formanten die Bedeutung bestimmter Laute. Anhand der ersten beiden Formanten im Vokaldreieck beziehungsweise im Vokaltrapez lassen sich alle Vokale eines Lautsystems voneinander unterscheiden. Die Vokal-Formantlagen unterscheiden sich von Mensch zu Mensch, besonders zwischen Männern, Frauen und Kindern. Hier folgt eine anschauliche Tabelle der gemittelten Formantlagen aus dem genannten Vokaldreieck. Tabelle 1: Gemittelte Formantlagen aus dem Vokaldreieck Die ersten beiden Formanten "f"1 und "f"2 sind für die Verständlichkeit der Vokale wichtig. Ihre Lage charakterisiert den gesprochenen Vokal, der dritte und der vierte Formant "f"3 und "f"4 sind für das Sprachverständnis nicht mehr wesentlich. Sie charakterisieren eher die Anatomie des Sprechers und dessen Artikulations-Eigenarten sowie das Timbre seiner Sprache und variieren je nach Sprecher. Darüber hinaus wird der Charakter einer Stimme noch durch die Grundfrequenz 100 bis 250 Hz und Artikulationseigenarten bestimmt. Die mittlere Sprechstimmlage liegt beim Mann etwa bei 130 Hz und bei der Frau etwa bei 240 Hz. Formanten, die zwischen 1500 und 2000 Hz liegen, bringen die Wirkung des Näseleffekts hervor, was darum Näselformant genannt wird. Wird das Velum geöffnet, treten ein, oft auch zwei Nasalformanten hinzu. Hierzu liegen diverse Untersuchungen vor, die unterschiedliche Nasalformanten ergeben haben. Der erste Nasalformant wird mit Werten zwischen 200 und 250 Hz angegeben, der zweite Nasalformant sehr unterschiedlich mit Werten zwischen 1000, 1200, 2000 und 2200 Hz. Tabelle 2: Typische spektrale Anhebung (Quint- bis Oktavbreite),die bei der Tonaufnahme von Gesang und Instrumenten gezielt eingesetzt wird. Besonderheiten beim Gesang. Spektrogramm der Vokale a, e, i, o, u gesungen von einer professionellen Sängerin bei gleicher Tonhöhe. Sichtbar sind die Formanten F1, F2, F3 und der Sängerformant. Grundsätzlich gilt für den Gesang das gleiche wie für die Sprache. Die o. g. Formanten lassen sich besonders gut für tiefe Töne, z. B. gesungen im Schnarrregister zeigen. Aber bereits im höheren Bereich einer Sopranstimme liegt die Grundfrequenz oberhalb der in Tabelle 1 genannten 1. Formantfrequenzen. Bei Frequenzen von z. B. 700 Hz müssten demnach die Vokale u, e und i unverständlich sein und wegen der starken Dämpfung zwischen den Formanten nur schwache, nicht tragfähige Töne bilden. Allerdings sind nach Sundberg die Formanten "nicht" unabhängig vom Grundton. Diese unabhängige Variation der Formanten wird beispielsweise beim Obertongesang praktiziert. Wenn der Grundton in den Bereich des 1. Formanten fällt oder darüber liegt, dann steigt mit steigendem Grundton auch der 1. Formant. Dieses erzielt die Sängerin, indem sie den Mund weiter öffnet. Diese Anpassung des ersten Formanten bezeichnet man als "Formanttuning". Es führt beim i, u, e zu einem Anstieg des 1. Formanten, er liegt bei einer Grundfrequenz von 700 Hz ebenfalls bei etwa 700 Hz. Beim a bleibt er weitgehend konstant. Der 2. Formant sinkt dagegen beim e und i und steigt beim u. Der Anstieg des 1. Formanten geht aber nicht „unendlich“ weiter, im Bereich um h2 und darüber kann man mit weiterem Öffnen des Mundes nichts mehr bewirken. Die Vokale sind bei sehr hohen Tönen nicht mehr unterscheidbar, weil nunmehr die Grundfrequenz immer oberhalb des ersten Formanten liegt und somit der Klangeindruck dieses Formanten verschwindet. Frequenzen um 3 kHz spielen eine entscheidende Rolle für die Tragfähigkeit einer Stimme. Deshalb nennt man diesen Frequenzbereich Sängerformant. Der Sängerformant ist gut ausgeprägt, wenn in einem gesungenen Ton die Frequenzen in einem breiten Band zwischen 2800 und 3400 eine „relative Stärke“ haben, unabhängig vom Grundton. Geschichte. Der Begriff "Formant" wurde 1890 erstmals von Ludimar Hermann in seiner Akustischen Phonetik verwendet, aber erst 1929 von Erich Schumann in seiner Habilitationsschrift in Berlin technisch beschrieben und bildet heute ein breites Forschungsfeld sowohl auf analytischen, nachrichtentechnischen wie klangsynthetischen Domänen. Fastenzeit. Als Fastenzeit wird in der Westkirche der 40-tägige Zeitraum des Fastens und Betens zur Vorbereitung auf das Hochfest Ostern bezeichnet. In den reformatorischen Kirchen ist der Begriff „Passionszeit“ gebräuchlich. In der römisch-katholischen Kirche wird seit dem Zweiten Vatikanischen Konzil auch die Bezeichnung „österliche Bußzeit“ verwendet. Die orthodoxen Kirchen nennen sie die Heilige und Große Fastenzeit, kennen daneben aber noch drei weitere längere Fastenzeiten. Historische Begriffe im deutschen Sprachraum sind „die große Faste“ und „die lange Faste“. Die wichtigste lateinische Bezeichnung ist Quadragesima. Zur Vorbereitung auf Weihnachten kennt die Westkirche eine zweite, ursprünglich ebenfalls 40-tägige Bußzeit, den Advent. Vorkonfessionelle Entwicklung. Seit dem 2. Jahrhundert ist ein zweitägiges Trauerfasten an Karfreitag und Karsamstag bezeugt, das im 3. Jahrhundert mancherorts auf die ganze Karwoche ausgedehnt wurde. Im 3. Jahrhundert gab es in Rom eine dreiwöchige Fastenzeit, doch bis Anfang des 5. Jahrhunderts hatte sich überall ein 40-tägiges vorösterliches Bußfasten durchgesetzt. Diese Periode galt als Bußzeit für öffentliche Sünder und gleichzeitig als Vorbereitungszeit der Taufbewerber "(Katechumenen)" auf die Taufe, die damals nur in der Osternacht gespendet wurde. Biblische Motive und Symbolik. Biblischer Hintergrund für die Festsetzung der Fastenzeit auf 40 Tage und Nächte ist das ebenfalls 40-tägige Fasten Jesu in der Wüste. Die Zahl 40 erinnert aber auch an die 40 Tage der Sintflut, an die 40 Jahre, die das Volk Israel durch die Wüste zog, an die 40 Tage, die Mose auf dem Berg Sinai in der Gegenwart Gottes verbrachte, und an die Frist von 40 Tagen, die der Prophet Jona der Stadt Ninive verkündete, die durch ein Fasten und Büßen Gott bewegte, den Untergang von ihr abzuwenden. Zählung. Die Dauer von "vierzig Tagen" ist eher als symbolische und weniger als mathematische Größe verstanden worden. Ursprünglich – so etwa in Rom gegen Ende des 4. Jahrhunderts – scheint das Fasten am 6. Sonntag vor Ostern (Invocavit) begonnen zu haben, es endete am 40. Tag, dem Gründonnerstag, an dem die Büßer wieder zum Empfang der Kommunion zugelassen wurden. Ab dem 5. Jahrhundert wurden die Sonntage (als „kleine“ Auferstehungstage) vom Fasten ausgenommen. Um auf eine 40-tägige Fastenzeit zu kommen, wurde daher der Beginn des Fastens "(caput ieiunii)" auf den Aschermittwoch vorgezogen und auch die beiden Tage des Trauerfastens (Karfreitag und Karsamstag) noch mitgerechnet. Nach einer anderen Zählweise, welche die Sonntage einschließt, beginnt die Fastenzeit am Aschermittwoch und geht bis Palmsonntag. Mit dem Palmsonntag beginnt die Heilige Woche, die dann als gesonderter Abschnitt gerechnet wird. Auch die adventliche Fastenzeit umfasste ursprünglich 40 Tage und begann nach dem 11. November, dem Martinstag. Die Sitte, an diesem Abend noch eine Martinsgans zu essen, ist ebenso wie der Beginn der Karnevalssession am 11. November in Parallele zu den Fastnachtsbräuchen vor Aschermittwoch zu sehen. Entwicklung in der Westkirche. Mit dem Auslaufen der öffentlichen Kirchenbuße gegen Ende des ersten Jahrtausends erhielt sich der Ritus der Bestreuung mit Asche als Zeichen der Buße und wurde an allen Gläubigen vorgenommen. Der Ascheritus erhielt seinen liturgischen Ort am Aschermittwoch. Auf der Synode von Benevent (1091) empfahl Papst Urban II. diesen Brauch allen Kirchen. Die mittelalterlichen Fastenregeln erlaubten nur eine Mahlzeit am Tag, in der Regel am Abend. Der Verzehr von Fleisch, Milchprodukten, Alkohol und Eiern war verboten. Darauf geht die Tradition zurück, in den Fastnachtstagen Backwerk mit Zutaten wie Milch, Eiern, Zucker oder Schmalz herzustellen, wie etwa Krapfen, um diese verderblichen Vorräte aufzubrauchen. Der Fastnachtsdienstag heißt im französischsprachigen Raum dementsprechend "Mardi Gras" (fetter Dienstag), im englischsprachigen "Pancake Tuesday" (Pfannkuchendienstag). Erst 1486 erlaubte Papst Innozenz VIII. auch den Verzehr von Milchprodukten in der Fastenzeit. Die Fastenzeit in der römisch-katholischen Kirche. Die vierzigtägige Fastenzeit der römisch-katholischen Kirche ist als österliche Bußzeit bestimmt. „Die Fastenzeit dauert von Aschermittwoch bis zum Beginn der Messe vom letzten Abendmahl am Gründonnerstag.“ Ab Karfreitag bis zur Osternachtfeier schließt sich das Osterfasten an, nun nicht mehr als Bußübung, sondern als Trauerfasten zum Gedächtnis der Passion und der Grabesruhe Christi vor der besonderen Festfreude des Auferstehungstages Ostern. Die Fastenzeit gilt als geschlossene oder „gebundene“ Zeit. Die Anforderungen der katholischen Kirche an die Fastenpraxis sind detailliert in der Apostolischen Konstitution Paenitemini von Papst Paul VI. aus dem Jahr 1966 geregelt. Neben der Beachtung besonderer Speisegebote werden auch andere Formen der Askese und Buße empfohlen. Die Gläubigen sind angehalten, das Gebet intensiver zu pflegen und vermehrt an Gottesdiensten und Andachten (etwa der Kreuzwegandacht) teilzunehmen. Ebenso sollen sie mehr Werke der Nächstenliebe verrichten und Almosen geben. An Sonntagen und Hochfesten (etwa dem Josefstag oder an Mariä Verkündigung) wird auch innerhalb der Fastenzeit nicht gefastet. Viele katholische Pfarrgemeinden kennen die Tradition des "Fastenessens". Unter diesem Begriff versteht man ein Solidaritätsessen zugunsten von Projekten in der Dritten Welt, für die auf den üblichen Sonntagsbraten verzichtet wird. Stattdessen wird oft ein einfacher Eintopf oder ein für das Projektland typisches Gericht verkauft oder gegen eine Spende gereicht. Liturgie. Die sechs Sonntage der Fastenzeit werden nach den Anfängen der liturgischen Messfeiern benannt, den lateinischen Antiphonen zum Introitus bzw. nach dem Ritus der Palmweihe am Palmsonntag (Palmarum). In der Liturgie der Fastenzeit wird kein Halleluja gesungen, das Gloria nur an Hochfesten. Nach dem Gloria der Messe vom letzten Abendmahl am Gründonnerstag bis zum Gloria in der Osternacht werden keine Glocken geläutet, sondern stattdessen Ratschen verwendet. Auch die Orgel schweigt traditionell während des folgenden Triduum Sacrum. Ebenso gibt es bis auf den Sonntag Laetare in der Fastenzeit keinen Blumenschmuck in der Kirche. Ab dem 5. Sonntag der Fastenzeit („Passionssonntag“) werden Kreuze und Standbilder durch violette Tücher verhüllt. Die Retabeln von Triptychen und Flügelaltäre sind in der Fastenzeit häufig zugeklappt und zeigen die einfacher gestaltete Rückseite der Flügel. Teilweise verhüllen Fastentücher den ganzen Chorraum. Fasten außerhalb der Fastenzeit. Bis zum Zweiten Vatikanischen Konzil galt das Fastengebot auch noch viermal im Jahr an den Quatembertagen. Daneben bestand das Fasten- bzw. Abstinenzgebot am Vortag verschiedener Hochfeste und Heiligenfeste (Vigilfasten), etwa am Heiligen Abend vor Weihnachten mit vielerorts traditionellem Fischgericht. Bis in die 1960er Jahre war Katholiken auch der Verzicht auf Fleisch an allen Freitagen, auf die kein Hochfest fällt, verbindlich vorgeschrieben. Heute kann dieser Verzicht durch einen anderen Akt der Buße und des Verzichts ersetzt werden. Einzelne Gläubige fasten jedoch aus persönlicher Frömmigkeit außer freitags zusätzlich noch mittwochs (vgl. Artikel Freitagsopfer). Fastenstufen in den orthodoxen Kirchen. Je nach Tradition gibt es verschiedene Fastenstufen. Während der Fastenzeiten sollte sowohl die Anzahl der täglichen Mahlzeiten wie auch deren Gehalt eingeschränkt werden. An Samstagen und Sonntagen wird das Fasten jeweils um eine „Stufe“ gelockert. Nach der in den orthodoxen Kirchen verbreiteten Ansicht gilt jedoch das Beten sowie die strengstmögliche Enthaltung von Sünden als der wichtigere Teil des Fastens, wichtiger als der Nahrungsverzicht im engeren Sinne. Jeder Gläubige sollte seine Fastenregeln mit Gott, sich selbst und seinem Priester oder Beichtvater abklären. Fasten „auf eigene Faust“ wird nicht empfohlen. Die genaue Beachtung der Speiseregeln wird heute nur noch von einer kleinen Minderheit von Gläubigen vollständig eingehalten, in der Karwoche jedoch ist das Fasten weiterhin verbreitet üblich. Diese Fastenstufen können von Kirche zu Kirche verschieden gehandhabt werden. Sie können auch durch den Priester für den einzelnen Gläubigen an dessen Möglichkeiten angepasst werden. In Klöstern gibt es noch eine zusätzliche Form des Fastens, die "Xerophagia", die sich durch kompletten Nahrungsverzicht bis zur neunten Stunde (15 Uhr) auszeichnet und danach nur Brot, Früchte und Wasser erlaubt. Diese Form ist für die Große Fastenzeit vor Ostern vorgesehen und wird von Laien bisweilen am „Reinen Montag“ (dem ersten Fastentag) und am Karfreitag eingehalten. Fasten außerhalb der Fastenzeiten. Außer in den Wochen direkt nach Ostern und Pfingsten (Oktav) und in den zwei Wochen nach Weihnachten soll an jedem Mittwoch und Freitag streng gefastet werden. Für orthodoxe Mönche gelten weitere Regeln. Allgemein fasten sie zusätzlich an jedem Montag. Die weitere Ausgestaltung ist jedoch von Kloster zu Kloster verschieden. In den strengsten Klöstern kann ein einziges gekochtes Ei pro Jahr, am Ostersonntag, das maximal Erlaubte an tierischen Lebensmitteln sein. Die Fastenzeit in den evangelischen Kirchen. Deutlich wird aus diesem Zitat, dass Luther das Fasten als eine Art individuelles Trainingsprogramm versteht. Daher kann nicht das gleiche Verzichtsverhalten allen gleichermaßen empfohlen oder gar verordnet werden. Zweck des Fastens ist nach den lutherischen Bekenntnisschriften „den alten Adam zu zähmen“; das Fasten wird insbesondere zur Vorbereitung auf das Abendmahl empfohlen: „Fasten und leiblich sich bereiten ist wohl eine feine äußerliche Zucht“. Jedoch wird die Festschreibung des Fastens in kirchenrechtlichen Kategorien durchweg abgelehnt und „Freiheit in äußerlichen Ceremonien“ gefordert, programmatisch z. B. in der Augsburgischen Konfession, § 26 „Von Unterschied der Speis“: „Und wird also nicht das Fasten verworfen, sondern daß man einen notigen Dienst daraus auf bestimbte Tag und Speise, zu Verwirrung der Gewissen, gemacht hat.“ Auch Luther formulierte: „Kein Christ ist zu den Werken, die Gott nicht geboten hat, verpflichtet. Er darf also zu jeder Zeit jegliche Speise essen.“ Seine theologische Pointe lag dabei in seiner Rechtfertigungslehre, weil Luther die Gefahr sah, dass der Mensch mit seinem Handeln Gott gefallen wolle. Im traditionellen Luthertum wird jedoch am Karfreitag bis zur Todesstunde Jesu um 15 Uhr strikt gefastet. Das Evangelische Gottesdienstbuch, das für die VELKD und die UEK, also für fast alle evangelischen Landeskirchen in Deutschland, verbindlich ist, sieht vor, dass ab dem Beginn der Vorpassionszeit, also ab Septuagesimae, „das Halleluja entfällt. Von Aschermittwoch bis Karsamstag entfällt auch das Ehre sei Gott in der Höhe (Ausnahme Gründonnerstag).“ Am anderen Ende des evangelischen Spektrums, z. B. bei Pfingstlern oder Evangelikalen, aber auch bei vielen reformierten Christen werden geschichtlich gewachsene Traditionen wie die Fastenzeit eher skeptisch gesehen, manchmal provokativ durchbrochen wie beim Zürcher Wurstessen an Invokavit 1522. Wo in den evangelischen Kirchen die Fastenzeit neu entdeckt wird, geht es generell nicht um eine Rückkehr zu überlieferten Speiseregeln, sondern um das Aufbrechen eigener Gewohnheiten, um dem Heiligen Geist Raum zu geben. Seit rund 25 Jahren verbinden evangelische Christen diese geistliche Praxis auch wieder mit einer körperlichen: dem Verzicht auf liebgewonnene Gewohnheiten wie gut essen, rauchen, Alkohol trinken oder fernsehen. Kennzeichen für diese Entwicklung ist die Fastenaktion "7 Wochen Ohne" der Evangelischen Kirche. Inzwischen nehmen jedes Jahr viele Millionen Menschen an dieser Aktion teil, die sich 1983 aus einer Stammtischidee des Hamburger Pressepastors Hinrich Westphal entwickelte. Fastenzeiten in anderen Religionen. Auch andere Religionen wie das Judentum und der Islam kennen Zeiten des Fastens, in der sich die Gläubigen von morgens bis abends Speise und Trank enthalten. Das Judentum kennt Fastentage wie den Jom Kippur und Tischa beAv. Im Islam ist der Fastenmonat der Ramadan. Im Alevitentum fastet man im Muharrem-Monat, 20 Tage nach dem islamischen Opferfest. Im Februar findet noch das Hizir-Fasten statt. Im Bahaitum beginnt die Fastenzeit Anfang März und endet 19 Tage darauf unmittelbar vor dem astronomischen Frühlingsanfang, wenn die Bahai das Nouruz-Fest begehen. Freistaat (Republik). Freistaat ist die im 19. Jahrhundert entstandene deutsche Bezeichnung für einen von keinem Monarchen regierten freien Staat, das heißt für eine Republik. In der Weimarer Republik war der Begriff des Freistaats – neben Volksstaat – die amtliche Bezeichnung der meisten deutschen Flächenländer. Es ist heute die amtliche Bezeichnung für die Länder Bayern (seit 1945), Sachsen (seit 1990) und Thüringen (seit 1993) und wurde von 1945 bis 1952 auch für das Land Baden verwendet. Vorgeschichte. Bereits im Mittelalter gab es die Bezeichnung "frei" für Stände, Reichsstädte oder Hansestädte. Dies stand für die Gewährung bestimmter Rechte, der Steuerfreiheit oder der eigenen Gerichtshoheit. In der Neuzeit wird das Wort "Freistaat" im Sinn von Republik verwendet, nämlich als die Übersetzung der lateinischen Bezeichnung für die römische Republik (‚freier Staat‘, während oft nur allgemein ‚Staat‘ bedeutet). Im 18. Jahrhundert ist die Bezeichnung "Freistaat" ein von Sprachpuristen eingeführtes deutsches Synonym für Republik (lat.,). Sie bezeichnet einen Staat, in dem die Staatsgewalt vom Volk ausgeht und insbesondere – im Gegensatz zur Monarchie – das Staatsoberhaupt direkt oder indirekt vom Volk gewählt wird. Als Synonym für Republik verwendet dieses Wort auch die Weimarer Reichsverfassung (1919), wenn sie in Art. 17 bestimmt: „Jedes Land muss eine freistaatliche Verfassung haben“. Der Freistaat ist heute üblicherweise als parlamentarische Demokratie organisiert; die Bezeichnung ist aber zum Beispiel auch von der Münchner Räterepublik gebraucht worden. Deutsche Freistaaten nach 1918. Am Ende des Ersten Weltkriegs rief in der Nacht vom 7. zum 8. November 1918 der Sozialist Kurt Eisner in München den "Freistaat Bayern" aus und wurde wenig später von den Arbeiter- und Soldatenräten zum Ministerpräsidenten bestimmt. Nach der Ausrufung der Republik in Deutschland am 9. November 1918 in Berlin übernahmen neben Bayern viele der neuen deutschen Republiken – entsprechend dem Artikel 17 der Weimarer Reichsverfassung: „Jedes Land muss eine freistaatliche Verfassung haben“ – den Begriff Freistaat als offizielle Bezeichnung für Republik: Preußen, Sachsen, Braunschweig, Anhalt, Oldenburg, Mecklenburg-Schwerin, Mecklenburg-Strelitz, Waldeck, Lippe, Schaumburg-Lippe sowie die thüringischen Kleinstaaten mit Ausnahme von Reuß. Andere deutsche Gliedstaaten bezeichneten sich als "Republik" oder "Volksstaat", wie etwa der „freie“ Volksstaat Württemberg. 1919 wurde die Gründung einer "Nordwestdeutschen Republik" erwogen, die aus zehn sozialistischen Freistaaten bestehen sollte. 1920 schloss sich der Freistaat Coburg an Bayern an. Verschiedene thüringische Staaten gingen im neu gegründeten Land Thüringen auf, welches die Bezeichnung Freistaat (damals) nicht benutzte. 1929 schloss sich Waldeck an Preußen an, die Nationalsozialisten vereinigten 1934 die beiden mecklenburgischen Staaten zwangsweise zum Land Mecklenburg. Nach dem Zweiten Weltkrieg wurde der Staat Preußen durch das Kontrollratsgesetz Nr. 46 von 1947 förmlich aufgelöst. Braunschweig, Oldenburg und Schaumburg-Lippe wurden 1946 Teile des neu gegründeten Landes Niedersachsen, Lippe kam 1947 zu Nordrhein-Westfalen, Anhalt 1945/1947 zu Sachsen-Anhalt. Nachdem im Jahre 1952 Sachsen zusammen mit den anderen Ländern der Deutschen Demokratischen Republik faktisch aufgelöst und in die Bezirke Dresden, Chemnitz (später "Karl-Marx-Stadt") und Leipzig aufgeteilt worden war, blieb von allen Ländern, die sich als Freistaaten bezeichnet hatten, allein Bayern übrig. Erst am Tage der Deutschen Einheit entstand der Freistaat Sachsen erneut, und etwa drei Jahre später beschloss die Landesregierung Thüringens, die Bezeichnung für ihr Land erstmals einzuführen. Die heutige Situation. Auch in der Struktur der Bundesrepublik Deutschland mit ihrem föderalen System hat die Bezeichnung "Freistaat" keine maßgebliche rechtliche Bedeutung, da alle Länder der Bundesrepublik die gleiche verfassungsrechtliche Stellung besitzen. Daher ergeben sich für die Bundesländer, welche sie – wie etwa der Freistaat Bayern vornehmlich aus historischen Gründen – verwenden, auch keinerlei Sonderstellungen. Auch die Existenz der Regionalpartei CSU (anstelle eines Landesverbandes der CDU) begründet keine Ausnahme in Bezug auf den Föderalismus, sondern steht lediglich in der Tradition, dass der politische Katholizismus in Bayern vom Anfang der Parteienbildung an eigenständig organisiert war (statt "Zentrum" im Kaiserreich "Bayerische Patriotenpartei" und in der Weimarer Republik "Bayerische Volkspartei"). Vergleichbare Bezeichnungen mit historischem Hintergrund führen die "Freie und Hansestadt Hamburg" und die "Freie Hansestadt Bremen". Im Fall von Bremen ist die Bezeichnung darüber hinaus geeignet, das Land Bremen, zu dem auch die Stadt Bremerhaven gehört, von der Stadt Bremen zu unterscheiden. "Freistaat" und "Freie Stadt" unterscheiden sich in ihrem historischen Hintergrund. Geographie. Die Geographie, Geografie ("geographía", zusammengesetzt aus γῆ "gē" ‚Erde‘ und γράφειν "gráphein" ‚(be-)schreiben‘) oder Erdkunde ist die sich mit der Erdoberfläche befassende Wissenschaft, sowohl in ihrer physischen Beschaffenheit wie auch als Raum und Ort des menschlichen Lebens und Handelns. Sie bewegt sich dabei an der Schnittstelle zwischen den Naturwissenschaften, Geistes- und Sozialwissenschaften. Gegenstand der Geographie ist die Erfassung, Beschreibung und Erklärung der Strukturen, Prozesse und Wechselwirkungen in der Geosphäre. Die physikalische, chemische und biologische Erforschung ihrer Einzelerscheinungen ist jedoch Gegenstand anderer Geowissenschaften. Schreibweise. Traditionell wird in wissenschaftlichen Texten und unter Fachleuten die alte Schreibweise genutzt. So empfahl das Präsidium der Deutschen Gesellschaft für Geographie im Jahr 2003 einstimmig, die Schreibweise "Geographie" beizubehalten. Der Duden erlaubt 2006 in seiner 24. Auflage beide Schreibweisen und kennzeichnet die Variante "Geografie" als "Dudenempfehlung". Antike und Mittelalter. Die Bedeutung geographischen Wissens wurde, soweit historisch überliefert, erstmals in der Antike von den Griechen erkannt. Vom Naturphilosophen Anaximander aus Milet wird berichtet, dass er als erster um 550 v. Chr. eine Karte der Erde und der Meere skizzierte. Herodot von Halikarnassos (484–424 v. Chr.) verfasste eine Vielzahl geographischer Berichte. Eine Berechnung des Erdumfangs gelang erstmals Eratosthenes (ca. 273–194 v. Chr.), während der um die Zeitenwende lebende Strabon eines der heute am besten erhaltenen geographischen Werke der Antike verfasste. Der Astronom Claudius Ptolemäus (ca. 100 bis 170) sammelte topografisches Wissen von Seefahrern und gab Anleitungen für das Zeichnen von Landkarten. Die Erkenntnisse der Griechen nutzten die Römer weiter. Während des Mittelalters geriet die Geographie, wie andere Wissenschaftszweige auch, in Europa weitgehend in Vergessenheit. Neue Impulse kamen jedoch aus dem Kaiserreich China und dem aufstrebenden Orient. Frühe theoretische Ansätze lieferte Albertus Magnus: In seiner Abhandlung „De natura locorum“ beschrieb er die Abhängigkeit der Eigenschaften eines Ortes von seiner geographischen Lage. Im Anschluss daran führte der Wiener Astronom Georg Tannstetter die physikalische Geographie in den Kreis der universitären Lehrgegenstände ein (1514). Frühe Neuzeit. Die neuzeitliche Geographie wurde von Bartholomäus Keckermann (1572–1608) und Bernhard Varenius (1622–1650) begründet. Sie entwickelten ein Begriffssystem, unterschieden „Allgemeine Geographie“ "(geographia generalis)" und die „Regionale Geographie“ beziehungsweise Länderkunde "(geographia specialis)". Sie sahen Völker, Staaten und Orte in einem räumlichen, historischen und auch religiösen Kontext. Zu Beginn des 18. Jahrhunderts beförderten in Deutschland vor allem Johann Hübner (1668–1731) und Johann Gottfried Gregorii alias MELISSANTES (1685–1770) durch ihre Lehrbücher, thematischen Lexika und Atlanten die Verbreitung der Geographie in weite Teile der bildungsnahen Bevölkerung. Das Zeitalter der Aufklärung förderte Erklärungsversuche von Naturerscheinungen durch Wissenschaftler wie Johann Gottfried Herder (1744–1803) und Georg Forster (1754–1794). Anton Friedrich Büsching (1724–1763) verfasste die elfbändige "Neue Erdbeschreibung" mit Beschreibungen der Länder und deren Wirtschaft. Etablierung als eigenständige Disziplin. Alexander von Humboldt (1769–1859) und Carl Ritter (1779–1859) begründeten schließlich die moderne wissenschaftliche Geographie, deren ursprüngliches länder- und landschaftskundliches Forschungsprogramm auf Herders Kulturtheorie basiert. Im Laufe des 19. Jahrhunderts gründeten sich zunächst vielerorts „geographische Gesellschaften“, während die universitäre Institutionalisierung des Fachs vor allem mit der Gründung des Deutschen Reichs vorangetrieben wurde. Ferdinand von Richthofen (1833–1905) definierte die Geographie zu jener Zeit als "„Wissenschaft von der Erdoberfläche und den mit ihr in ursächlichem Zusammenhang stehenden Dingen und Erscheinungen“". Dieser geodeterministische Betrachtung standen das von Paul Vidal de la Blache (1845–1918) geprägte Konzept des Possibilismus sowie die von Alfred Hettner (1859–1941) formulierte Chorologie gegenüber. Einzelne Fachvertreter wie Élisée Reclus (1830–1905) knüpften früh Verbindungen zur aufkommenden Soziologie. Auch belegt etwa das Entstehen der ersten Nationalparks, dass der prägende Einfluss des Menschen auf seine Umwelt nicht nur bekannt, sondern auch von politischer Bedeutung war. Insbesondere die deutsche Geographie war aber letztendlich von sozialdarwinistisch und völkisch argumentierenden Vertretern wie Alfred Kirchhoff (1838–1907), dem als Begründer der Humangeographie geltenden Friedrich Ratzel (1844–1904) und dem Geomorphologen Albrecht Penck (1859–1945) bestimmt. Anwendung fanden diese Ansichten schließlich vor allem durch die Geopolitik, wie sie insbesondere durch Halford Mackinder (1861–1947) und Karl Haushofer (1869–1946) formuliert worden war. Neuere Entwicklungen. Nach dem Zweiten Weltkrieg wandte sich die geographische Forschung im deutschsprachigen Raum zunächst Themengebieten von relativ geringer politischer Brisanz zu. Carl Troll (1899–1975), Karlheinz Paffen (1914–1983), Ernst Neef (1908–1984) und Josef Schmithüsen (1909–1984) entwickelten die Landschaftsökologie, Hans Bobek (1903–1990) und Wolfgang Hartke (1908–1997) die Sozialgeographie weiter. Eine stärker an den Erfordernissen der Raumplanung orientierte, nicht zuletzt auf den Werken von Walter Christaller (1893–1969) aufbauende Geographie wurde dagegen zunächst in Schweden durch Torsten Hägerstrand (1916–2004) und im anglo-amerikanischen Raum etabliert. Seit Ende der 1960er Jahre („Quantitative Revolution“) versteht sich auch die deutschsprachige Geographie zunehmend als angewandte Wissenschaft und sucht ihre Themen im Zusammenhang mit Städtebau, Entwicklung des ländlichen Raumes, Raumplanung oder dem Umweltschutz. Gleichzeitig trägt die Entstehung einer sich als kritisch verstehenden Geographie dieser neuerlich übernommenen gesellschaftspolitischen Verantwortung Rechnung. Durch die wachsende Spezialisierung im 20. Jahrhundert entstand die Vielfalt der heutigen Teildisziplinen und die Aufteilung zwischen Physischer Geographie und Humangeographie. Das Drei-Säulen-Modell der Geographie. Es existieren verschiedene Versuche, die Geographie schematisch zu ordnen. Die im heutigen Wissenschaftsbetrieb bedeutsamste ist die Einteilung in die beiden großen Teilgebiete der "Physischen Geographie" und der "Humangeographie" nebst einem interdisziplinären Bereich als dritter „Säule“. Es lassen sich jeweils diverse Unterdisziplinen identifizieren, wobei die Teilbereiche der physischen Geographie insgesamt relativ stark in die übergeordneten naturwissenschaftlichen Disziplinen integriert sind, während diejenigen der Humangeographie wiederum untereinander eng vernetzt sind. Physische Geographie. Die "Physische Geographie" (oder "Physiogeographie") beschäftigt sich in erster Linie mit den natürlichen Bestandteilen und Strukturen der Erdoberfläche. Dabei wird die Tätigkeit des Menschen zur Erklärung der Landschaftsgenese auch behandelt. Humangeographie. Die "Humangeographie" (auch "Anthropogeographie", selten "Kulturgeographie") beschäftigt sich sowohl mit dem Einfluss des Menschen auf den geographischen Raum, als auch mit dem Einfluss des Raums auf den Menschen − beispielsweise im Zusammenhang mit der räumlichen Verteilung von Bevölkerung oder Wirtschaftsgütern. Ehemals als Teil der Geisteswissenschaften aufgefasst, hat sie sich insbesondere seit den 1980er Jahren („spatial turn“) den Gesellschaftswissenschaften angenähert. Hartmut Leser (2001) definiert die Humangeographie als denjenigen „Teilbereich der Allgemeinen Geographie, der sich mit der Raumwirksamkeit des Menschen und mit der von ihm gestalteten Kulturlandschaft und ihren Elementen in ihrer räumlichen Differenzierung und Entwicklung befasst.“ Die Sozialgeographie und die Kulturgeographie gelten dabei als „Kerngebiete“ der Humangeographie, da sie alle weiteren Subdisziplinen berühren. Teilweise werden diese Begriffe auch als Synonym für die Humangeographie im Ganzen verwendet. Auch die politische Geographie, zumal in ihrer damaligen Anwendung als Geopolitik und Militärgeographie, ist eng in die Gründungsgeschichte der Humangeographie verwoben, bildet heute aber eine eigenständige Fachrichtung. Weitere sozialwissenschaftlich orientierte Bereiche der Geographie stellen die Bevölkerungsgeographie, die Bildungsgeographie und die Religionsgeographie dar. Einige andere Unterdisziplinen, die diesem Fächerspektrum zugerechnet werden können, werden im deutschen Sprachraum allerdings nur in geringem Maß oder als Teil anderer sozialwissenschaftlicher Fachrichtungen betrieben. Dazu gehören unter anderem die Kriminalgeographie, die Sprachgeographie mit der Dialektgeographie und die Wahlgeographie. Zu den klassischen Teilgebieten der Humangeographie zählen jene Unterdisziplinen, die sich mit der vom Mensch errichteten gebauten Umwelt befassen, also die Siedlungsgeographie, die Geographie des ländlichen Raumes, die Stadtgeographie und die Verkehrsgeographie. Letztere wird teilweise auch zur Wirtschaftsgeographie gerechnet, die außerdem die Geographie des primären (Agrargeographie), sekundären (Industriegeographie) und tertiären Wirtschaftssektors (Handelsgeographie, Tourismusgeographie) umfasst. Eine Sonderstellung nimmt die Historische Geographie ein. Ursprünglich vor allem mit genetischer Siedlungsforschung beschäftigt und damit humangeographisch orientiert, ist das Fach inzwischen relativ stark interdisziplinär integriert und insbesondere eng mit der Umweltgeschichte verbunden. Klassische Anwendungsbereiche sind die Kulturlandschaftsforschung, Waldgeschichte, Wüstenbildungsforschung oder Flusslaufsdokumentation. Mensch-Umwelt-Beziehungen. Auch wenn sich natur- und geistes- bzw- sozialwissenschaftlich orientierte Geographie inzwischen in ihrer methodischen Vorgehensweise stark voneinander unterscheiden, ergeben sich hinsichtlich der Fragestellungen weiterhin Überschneidungen. Da diese vor allem die Folgen menschlichen Handelns auf die Natur und deren Rückwirkung auf die Gesellschaft betreffen, wurde dieser der Humanökologie nahestehende Teilbereich teilweise als "physische Anthropogeographie" bezeichnet, ein Begriff von allgemeiner Verwendung existiert jedoch nicht. Eng eingebunden ist die Geographie auch in die interdisziplinäre Erforschung von spezifischen Mensch-Umwelt-Systemen wie die Gebirgs-, die Küsten-, die Polar-, die Tropen- und die Wüstenforschung. Allgemeine und Regionale Geographie. Eine traditionelle Einteilung hingegen ist jene in die "Allgemeine Geographie" und die "Regionale Geographie", wie sie etwa im länderkundlichen Schema von Alfred Hettner modellhaft dargestellt wurde. Die "Allgemeine Geographie" ist demnach der Teil der Geographie, welcher sich nomothetisch mit den Geofaktoren der Erdoberfläche (Geosphäre) beschäftigt. Im Mittelpunkt stehen zumeist ein Geofaktor (z. B. Wasser, Boden, Klima etc.) und dessen Wechselwirkungen mit anderen Geofaktoren. Die allgemeine Geographie beschäftigt sich somit mit allgemeinen Gesetzmäßigkeiten in der gesamten Geosphäre. Physische Geographie und Humangeographie sind dann lediglich Teile der Allgemeinen Geographie. Unter "Regionale Geographie (Spezielle Geographie)" wird gemäß dieser Unterteilung jener Teil der Geographie verstanden, welcher sich idiographisch oder typologisch mit bestimmten Teilgebieten der Erdoberfläche (Geosphäre) beschäftigt. Im Mittelpunkt steht somit eine Region, z. B. ein Land oder eine Landschaft, deren räumliche Elemente, Strukturen, Prozesse und Funktionsweisen (Wechselwirkungen zwischen den Geofaktoren) erfasst, klassiert und erklärt werden. Die Regionale Geographie lässt sich demnach unterteilen in die Länderkunde, also die idiographische Untersuchung von Raumindividuen, und die Landschaftskunde, die typologische Untersuchung von Raumtypen. Bis weit ins 20. Jahrhundert hinein galten Länder- und Landschaftskunde als der eigentliche „Kern“ der Geographie, der dem Fach eine gewisse Identität gab. Zwar werden Werke mit entsprechender Thematik weiterhin produziert, ihnen wird inzwischen aber kein wissenschaftlicher Charakter mehr attestiert. Die "Regionale Geographie" erfuhr einen Bedeutungswandel und beschäftigt sich, statt Regionen als Forschungsgegenstand vorauszusetzen, mit dem Regionalisierungsvorgang an sich. Damit ist sie heute Teil von Sozial- und Wirtschaftsgeographie sowie des interdisziplinären Felds der Regionalwissenschaft. Theoretische und Angewandte Geographie. Die "Angewandte Geographie", die in der zweiten Hälfte des 20. Jahrhunderts in Abgrenzung zur "Theoretischen Geographie" entstand, stellt eine normative Form der geographischen Forschung dar, die sich in allen ihren Fachgebieten wiederfindet. Gegenstand der Angewandten Geographie ist die Analyse und Planung räumlicher Strukturen und Prozesse, sowie die Lösung raumbezogener Probleme. Praktische Anwendungsgebiete sind die Raumplanung oder der Umweltschutz. Insbesondere einige Forschungsbereiche der physischen Anthropogeographie sind normativ etwa auf die Paradigmen der Nachhaltigkeit und der Gesundheit hin ausgerichtet. Beispiele hierfür sind die Geographische Entwicklungsforschung, die Geographische Risikoforschung und die Medizinische Geographie. Didaktik. Unter "Schulgeographie" versteht man das Schulfach "Geographie" / früher auch "Erdkunde" genannt (in Österreich "Geographie und Wirtschaftskunde") und die dazugehörige Ausbildung für das Lehramt. Zentrales Anliegen dieses Zweiges ist – wie in jeder Disziplin – Wissenschaftsdidaktik in ihrer speziellen Ausprägung als Geographiedidaktik. Daher umfasst die Schulgeographie auch die Methodologie der systematischen Reduzierung, Paradigmenbildung und didaktischen Aufbau des Fachgebiets in den verschiedenen Schultypen (Erstellung von Lehrplänen und Lerninhalten). Im weiteren Sinne kann sie damit auch in die hochschulische Lehre selbst eingreift und auch Schulkartografie, Weiterbildung, Beratung und Information umfassen, und so zum Tätigkeitsfeld eines angewandten Geographen werden (Erstellung etwa von Lehrbüchern, Lehrsendungen, geographischen Dokumentationen, Kartenwerken, bzw. Fachberatung bei denselben und Öffentlichkeitsarbeit). Allgemeines. Als „Brückenfach“ zwischen natur-, geistes- und gesellschaftswissenschaftlichen Disziplinen besteht in der Geographie generell eine große methodische Vielfalt, die die Bandbreite an möglichen Forschungsobjekten reflektiert. Während die Erstellung von Karten und die Nutzung geographischer Informationssysteme (GIS) als wichtige Darstellungs- und Forschungsmethoden in allen Teilbereichen zu finden sind, kommen außerdem den jeweiligen Nachbardisziplinen entlehnte Verfahren zur Anwendung. Vergleichende Geographie. Die "Vergleichende Geographie" wurde schon im 19. Jahrhundert von Carl Ritter und Oskar Peschel begründet. Sie ist eine Vorgehensweise, die zwei typologische Kategorien in Bezug setzt. Ästhetische Dimension. Der kritische Geograph Gerhard Hard argumentierte nach 1968, dass der Landschaftsgeographie, die seit Alexander von Humboldt den Kern der klassischen Geographie bildet, Wahrnehmungsmuster zugrunde liegen, die aus der Landschaftsmalerei stammen. Daher bestimmten jene Forschungsrichtungen, die sich auf Landschaft beziehen wie z. B. die Landschaftsökologie, ihren Gegenstand primär auf ästhetischer Weise, der erst sekundär mit einem szientistischen Methodendesign versehen werde. Dieses führe wiederum dazu, dass die ästhetischen Implikationen innerhalb der Profession nicht bewusst reflektiert werden. Obwohl sich die Geographie immer wieder neu verstanden und ausgerichtet hat, sieht Gábor Paál ein kontinuierliches Merkmal in der ästhetischen Grundlage, die der Wissenschaft zugrunde liegt. Demnach ist es immer ein zentrales Motiv von Geographen gewesen, räumliche Muster zu erkunden und zu verstehen, und zwar insbesondere solche Muster, die sich in ihrer Größenordnung innerhalb des menschlichen Aktionsradius bewegen: Sie befasst sich mit Mustern „von der Größenordnung dessen, was das menschliche Augen ohne große Anstrengung noch erkennen kann bis zur gesamten Erdoberfläche.“ Ansätze, die sich explizit mit Umweltwahrnehmungen auseinandersetzen, werden unter der Wahrnehmungsgeographie gefasst. Gesundheit. Die Gesundheit des Menschen ist ein (undefinierter) Zustand des körperlichen wie geistigen Wohlbefindens und somit die Nichtbeeinträchtigung durch eine Krankheit. Definitionen. Als Pendant zu dem englischen, internatioinal weit verbreiteten Begriff "Public Health" hat sich in Deutschland seit den 1990er Jahren der Begriff "Gesundheitswissenschaften" durchgesetzt. Er wurde vor allem mit dem "Handbuch Gesundheitswissenschaften" bekannt, das 1993 zum ersten Mal erschien. Ganz im Sinne der Definition des Bundisministeriums für Bildung, Wissenschaft, Forschung und Technologie wird Gesundheit nicht nur als Abwesenheit von Krankheit verstanden, sondern als ein extremer Pol auf ein Kontinuum zwischen Krankheit und Gesundheit. Die Beiträge in dem Handbuch betonen, dass Gesundheit eine körperliche, psychische, soziale und ökologische Dimension habe und deshalb nicht alleine durch naturwissenschaftliche und medizinische, sondern zusätzlich auch durch psychologische, soziologische, ökonomische und ökologische Analysen erforscht werden kann (sihe die aktuelle Ausgabe des Handbuchs Gesundheitswissenschaften, herausgegeben von Klaus Hurrelmann und Oliver Razum, 6. Auflage 2016). Gesundheitswert. Gesundheit ist ein wichtiger persönlicher und gesellschaftlicher Wert. Ihre Bedeutung wird oft erst bei Krankheit oder mit zunehmendem Alter erkannt. Welche Einschränkungen mit dem Verlust von Gesundheit verbunden sind, wird oft erst dem alternden Menschen bewusst – durch eigene durchgestandene Krankheiten, gesundheitliche Probleme im Umfeld und das sich nähernde Lebensende. Vorsorgeprogramme für jüngere Altersgruppen werden propagiert, laufen aber oft ins Leere. Im Allgemeinen sind Frauen gesundheitsbewusster als Männer. Dies kann man beispielsweise an der Beteiligung zur Darmkrebsvorsorge erkennen (Männer ca. 10–15 %, Frauen ca. 30 % Beteiligung). Die gesetzliche Krankenversicherung zahlt jährliche Krebsvorsorgeuntersuchungen (SGB V §25) für Frauen schon ab 20 Jahren, für Männer erst ab 45 Jahren. Privilegierte Schichten sind gesünder als unterprivilegierte (Sozial bedingte Ungleichheit von Gesundheitschancen). Der Abstand ist in den letzten zwanzig Jahren kontinuierlich gewachsen. Die Förderung und Erhaltung der Gesundheit erfordert im Verhältnis geringe finanzielle Mittel. Die Gesundheit wiederherzustellen, die sog. kurative Medizin, ist demgegenüber erheblich teurer. Die gesetzliche Krankenversicherung ist neben der gesetzlichen Renten-, Arbeitslosen-, Unfall- und Pflegeversicherung eine der fünf Säulen des Sozialsystems. Faktoren der sozialen Ungleichheit. Privilegierte Schichten sind in Deutschland eindeutig gesünder und haben eine längere Lebenserwartung als Menschen, die über geringere Bildung, Einkommen und Berufsstatus verfügen. Die Gründe dafür liegen nach Mielck (2005, S. 53) in Faktoren für ein gesundes Leben sind also stets auch sozialpolitischer Art. Glaube. Das Wort Glaube (auch Glauben; indogermanisch "leubh" ‚begehren‘, ‚lieb haben‘, ‚für lieb erklären‘, ‚gutheißen‘, ‚loben‘) bezeichnet hier eine Grundhaltung des Vertrauens, v. a. im Kontext religiöser Überzeugungen. Während der ähnliche Begriff „Religiosität“ die Ehrfurcht vor der Ordnung und Vielfalt in der Welt und die "allgemeine" Empfindung einer transzendenten (nicht erklär- oder beweisbaren) Wirklichkeit meint, beinhaltet „Glaube“ das Überzeugtsein von der Lehre einer "konkreten" Religion (oder Philosophie). Wortbedeutung. Das deutsche Wort "Glaube" wird in dem hier behandelten Sinn verwendet als Übersetzung des griechischen Substantivs "pistis" mit der Grundbedeutung „Treue, Vertrauen“. Das zugehörige Verb lautet "pisteuein" („treu sein, vertrauen“). Ursprünglich gemeint war also: „Ich verlasse mich auf..., ich binde meine Existenz an..., ich bin treu zu...“. Das Wort zielt demnach auf Vertrauen, Gehorsam (vergleiche: Gelöbnis, Verlöbnis), Treue. Das lateinische Wort "credere" (vgl. Credo und Kreditor) von "cor dare": "das Herz geben/schenken" - ist direkt verwandt mit der altindischen Wurzel "sraddha-" („glauben“) und ist eine sehr alte (indogermanische) Verbalkomposition. Die Bestandteile bedeuten: „Herz“ und „setzen, stellen, legen“, zusammen also etwa „sein Herz (auf etwas) setzen“. Das unbestimmte „ich weiß nicht“ entspricht hingegen dem lateinischen Wort "putare" ("glauben, dass"). Im Hebräischen gibt es die Vokabel "aman": sich an etwas festmachen. Die Vokabel "aman" mit der Schreibung „"Aleph-Mem-Nun"“ wird nur in der Stammesmodifikation des "Hif'il" (Aussprache „hä'ämin“) mit dem Wort „glauben“ übersetzt. Diese Stammesmodifikation drückt im Allgemeinen einen kausativen Aspekt der Grundbedeutung aus. Die Grundbedeutung, die auch im ursprünglich hebräischen Wort Amen erscheint, ist „fest“ oder „unerschütterlich“, die Bedeutung im "Hif'il" ist also „jemanden fest sein lassen“. Christentum. Für gläubige Christen gilt "christlicher Glaube" als keine antike oder mittelalterliche Vorstufe vom Wissen, sondern etwas vom Wesen her anderes. Damit ist auch kein bloßes "Für-wahr-Halten", auch keine Vermutungsäußerung gemeint. Dann hieße es so viel wie: ‚Ich traue dir, ich vertraue dir, ich kann auf dich bauen. Ich habe eine Gewissheit, die weniger aus Berechnungen und Experimenten kommt.‘ Theologisch unterscheidet man den Glaubensakt, lateinisch „fides qua creditur“ (zu Deutsch; „der Glaube, mit dem geglaubt wird“) einerseits, den Glaubensinhalt, lat. ‚der Glaube, der geglaubt wird‘ andererseits. Der Glaubensinhalt wird in den Christlichen Glaubensbekenntnissen zum Ausdruck gebracht und in der Dogmatik systematisch dargelegt und theologisch untersucht. Zentral geht es beim christlichen Glauben um eine Bejahung Gottes: „Es gehört gerade zur Wahrheit des Glaubens, Gott aufgrund seiner Selbstmitteilung so zu denken, wie er ist.“ Gemeinsam ist den meisten christlichen Strömungen der Glaube, dass alles Seiende durch Gott geschaffen wurde und im Dasein gehalten wird. Im Mittelpunkt dieser Schöpfung steht der Mensch, der aber nicht aus eigener Kraft zum Guten fähig ist (Erbsünde) und der Liebe Jesu Christi bedarf, um gerettet zu werden und ewiges Leben zu erlangen. Jesus Christus ist nach der christlichen Glaubenslehre der Mensch gewordene Sohn Gottes. Die drei Personen der christlichen Gottheit, Gott der Sohn, Gott der Vater und Gott der Heilige Geist, sind dreieinig. Grundlage des Glaubens ist die Heilige Schrift der Bibel, die als von Gott inspiriert angesehen wird. Biblische Texte sind interpretationsbedürftig. Zwischen vielen Stellen, die mehr implizit zur Deutung des Glaubensbegriffs verwendbar sind, wird folgende besonders explizite Formulierung häufig diskutiert: „Es ist aber der Glaube das feste Vertrauen auf das Erhoffte, ein Überzeugtsein von dem, was man nicht sieht.“ (Hebr 11,1) Das hier mit „Überzeugtsein“ wiedergegebene griechische "elegchos" bedeutet auch so viel wie Gegenbeweis, Widerlegung oder „Überführtsein“. In diesem Sinne wird hier wohl gesprochen von einem Überführtwerden wider äußeren Anscheins. Ein wesentlicher Streitpunkt unter den christlichen Konfessionen ist seit der Reformation die Frage, ob der Mensch vor Gott durch seinen Glauben allein gerechtfertigt werde, wie Martin Luther es betont hat, oder ob dazu auch die guten Werke nötig seien, weil Glaube ohne Werke tot sei, wie es im Katholizismus unterstrichen wird. Nach allgemein christlicher Überzeugung ist der Glaube die persönliche Antwort auf Gottes bzw. Jesu Wort. Dabei geschieht diese Antwort immer in der Gemeinschaft aller Glaubenden und stellvertretend für alle Menschen. Uneinigkeit besteht in der Frage, ob die volle Wirklichkeit des Glaubens sich im Herzen des Einzelnen vollzieht (so die meisten protestantischen Denominationen) oder ob der Glaube der Kirche ontologische Priorität hat (so die katholische Lehre). Die vom christlichen Glauben geprägte Lebensführung wird als Frömmigkeit bezeichnet. Glaube und Religion. Besonders in der christlich-protestantischen Theologie wird nach Karl Barth oft Glaube gegen Religion abgegrenzt. Barth sah Religion als eigenmächtigen Weg des Menschen zu Gott an und betonte, eine Erkenntnis des Willens Gottes gebe es nur im Glauben an Jesus Christus. Das Hören auf das Evangelium sprenge alle menschlichen Begriffe von Gott, alle ethischen Irrwege. Dietrich Bonhoeffer übernahm diese Unterscheidung und radikalisierte sie in seiner Frage nach einem Christentum ohne Religion. Angesichts der grundsätzlich positiv gesehenen „mündig gewordenen Welt“, des Verlusts des „religiösen Apriori“, von Innerlichkeit, Gewissen und klassischer Metaphysik habe Barth Bonhoeffers Ziel war es dagegen, den Kern der Glaubenshaltungen im Rahmen der kirchlichen Tradition herauszustellen, den er nicht in Aussagen über einen Jenseitsgott sieht, sondern in Praxis und deren Begründung in Ethik, alt- und neutestamentlicher Geschichte und Mythologie sowie mystischer Erfahrung (als ästhetisches Bewusstwerden von Grundeinstellungen, nicht übersinnliche Erfahrung). Gerhard Ebeling betonte wie Barth die kritische Kraft des Glaubens gegen religiöse Festlegungen und Sicherheiten, sah aber Religion als Lebensbedingung des Glaubens an. Glaube im Neuen Testament. Nach Paulus von Tarsus ist Glaube (neben der Hoffnung und der Liebe) eine der drei christlichen Tugenden. Glaube im Alten Testament. Das Christentum verehrt vor allem Abraham für seinen unerschütterlichen Glauben an Gott. Christen verstehen Abraham so, dass er damals den im ganzen Vorderen Orient bekannten Gott El verehrte, der als der Schöpfer des Alls, als der höchste Gott über allen Göttern galt und unter mancherlei Zunamen: als Höchster, als der Ewige, als der Mächtige, als der Allsehende an den verschiedensten Orten angebetet wurde. Er verehrte ihn auch als seinen Familiengott, als seinen persönlichen Gott, der so für seine Nachfahren zum Gott Abrahams und zum Gott Israels wurde und auch im Christentum eine neue Bedeutung gewann. Laut Auslegung des Alten Testaments, ist von einem Glauben an das Jenseits bei Abraham jedoch noch nicht die Rede. Ebenfalls ist nicht anzunehmen, dass Abraham die Existenz anderer Götter bestritt. Von diesem Gott El wusste er sich ganz persönlich angerufen. Sein Glaube sah dahingehend aus, dass er mit einer Verheißung beschenkt wurde. El stellte ihm Nachkommenschaft und Land in Aussicht. Ein Erklärungsansatz sieht so aus, dass der Halbnomade Abraham, nur "die Himmel", als eine symbolische Entsprechung seines Gottes, der sich allenthalben über ihm wölbt, als seine ständige Begleitung ansah. Er vertraute sich nicht den Göttern irgendeines Landes an, sondern nur dem Gott, dem alle Lande gehören; nicht einem Ortsgott, sondern seinem Gott, der mit ihm geht und ihn persönlich kennt, ihm nahe ist von Ort zu Ort. Abraham wurde um der Zukunft willen, die ihm der Glaube verhieß, zum Heimatlosen, und fand seine Heimat gerade in der Treue zu seinem Gott. Judentum. Glaube selbst ist kein religiöses Konzept des Judentums. Eine hebräische annähernde Entsprechung für "Glauben" im religiösen Sinn ist "Emuna" (auch: Emunah), was meist unzureichend gemeinhin mit "Glaube", "Zuversicht" oder "Vertrauen in Gott" übersetzt wird. Emuna ('E-mu-na; hebräisch: אמונה) stammt von der hebräischen Wort-Wurzel אמן, von der "Amen" und die hebräischen Wörter für Treue, Verlässlichkeit, Übung, Künstler, Handwerker u.a. abgeleitet werden. Im Judentum wird der positive Wert jener "Emuna" und der negative Status eines "Apikorus" (übersetzt mit "Gottesleugner") beachtet. Jüdischer Glaube bezieht sich auf die ganze jüdische religiöse Tradition. "Nicht Glauben hat der Ewige von Abraham gefordert." (Michael Holzman, in:, S. 157) Statt eines inhaltlich festgelegten religiösen Glaubens steht nach alter - schon weit vorchristlicher - Tradition Gerechtigkeit auf der Grundlage der universellen Nächstenliebe und Gleichheit aller Menschen im Mittelpunkt, was auch im liberalen Judentum bewahrt bleibt: „Das Judentum ist nicht nur ethisch, sondern die Ethik macht sein Prinzip, sein Wesen aus.“ In dieser Form ist der jüdische „Glaube“ ausgedrückt in: Gerechtigkeit und Liebe (Gottesliebe, Nächstenliebe, Feindesliebe), Tat und Erinnerung, in Freiheit zum Schutz des Lebens. Das gegenwärtige Judentum, das diese Traditionen des ethischen Monotheismus bewahrt und anpasst, wird das rabbinische Judentum genannt. Dieses umfasst den weiten Raum der Traditionen in der Neuzeit und im Mittelalter, mit Bezug in die biblischen und vorbiblischen Zeiten, und betrifft das Mosaik der Traditionen des Judentums in der Vielfalt seiner Strömungen. Immer wieder wird in diesem Zusammenhang von "jüdischen Glaubensprinzipien" gesprochen, jedoch existiert im Judentum kein allgemeingültiger, zwingend geforderter Glaube, kein "Credo". Das rabbinische Judentum hat den antiken Macht- und Hoheitszentralismus der Tempelpriesterschaft viel radikaler abgelegt als das in den christlichen Gemeinden und Kirchen der Fall ist, die "bei sich einen besonderen Priesterstand schufen, an die biblischen Vorschriften über die jüdischen Priester anknüpften", wie sich auch in den verschiedenen christlichen Dogmatiken zeigt. Rabbiner sind keine Priester und jüdische Traditionen verwalten sich hauptsätzlich in demokratischen lokalen Gemeinden. Im Gegensatz zum Christentum oder Islam kann im Judentum jeder persönliche Glaube an den ein-einzigen Gott, das ewige Wesen akzeptiert werden. In der Gegenwart werden gleichwohl verschiedene religiöse Strömungen des Judentums praktiziert, welche die Bedeutung von Überlieferungen unterschiedlich gewichten. Obgleich sich die christlichen Religionen in allen ihren Konfessionen und Abspaltungen (siehe: Mormonen, Zeugen Jehovas etc.) einst vom Judentum und der mosaischen Tradition getrennt hatten und die jüdische Bibel als eigene Interpretation in griechischer und lateinischer Übersetzung in ihre heiligen Schriften integrierte, bleibt der christliche Glaube mit dem Judentum unvereinbar. Naturwissenschaftliche Ansätze. Der nordamerikanische Neurowissenschaftler Michael Persinger stimulierte durch magnetische Felder die Schläfenlappen seiner Probanden, und meinte dadurch religiöse Empfindungen (Gottesmodul) zu erzeugen. Er erklärte, dass diese Phänomene den Symptomen der Epilepsie gleichen. Scott Atran verfolgt dagegen in seinem Werk "In Gods We Trust" einen darwinistischen Ansatz. Die darwinistische Glaubensforschung sieht den Glauben nicht als anerzogen, sondern als im Bewusstsein des Menschen evolutionär verankert. Die Fähigkeit zu Religiosität und Glaube wird dabei beispielsweise als evolutionäres Nebenprodukt erklärt, es werden aber auch mögliche Selektionsvorteile untersucht. Justin Barrett dagegen sieht in einer evolutionspsychologischen Herangehensweise die Religiosität nicht als überlebenswichtige Strategie von Gemeinschaften, sondern als ein Entwicklungsstadium der menschlichen Psyche. Quellen. ! Hermetic Order of the Golden Dawn. Das hermetische Rosenkreuz des Golden Dawn Der Order of the Golden Dawn, besser bekannt als Hermetic Order of the Golden Dawn (Hermetischer Orden der Goldenen Dämmerung, kurz: "Golden Dawn") war eine magische diskrete Gesellschaft. Er wurde am 12. Februar 1888 von William Robert Woodman, Samuel Liddell MacGregor Mathers und William Wynn Westcott in England gegründet. Am 1. März 1888 erfolgte die offizielle Eröffnung des "Isis-Urania Tempels No. 3" in London. Der Orden bestand bis 1900/1903 und zerfiel dann wegen innerer Streitigkeiten in diverse Nachfolgeorganisationen. Bekannte Mitglieder des Ordens waren unter anderem Aleister Crowley, Arthur Machen, Pamela Colman Smith, Arthur Edward Waite und William Butler Yeats. Im Gegensatz zur Theosophischen Gesellschaft, die sich zunehmend an östlichen Weisheitslehren orientierte, verstand sich der Golden Dawn als Fortführung der westlichen Mysterien, insbesondere der Tradition der Rosenkreuzer. Als esoterisch arbeitender Orden wurde er zum Prototyp ähnlicher Organisationen. Viele der modernen magischen oder esoterischen Strömungen wie Wicca und Thelema können bis zu diesem Orden zurückverfolgt werden. Geschichte. Alle drei Gründer – Westcott, Woodman und Mathers – waren sowohl Freimaurer als auch Rosenkreuzer der Societas Rosicruciana in Anglia. Westcott und Mathers gehörten außerdem der von Anna Kingsford gegründeten Hermetic Society in London an. Das Cipher Manuscript. Die Grundlagen der Lehren des Golden Dawn entnahm man dem sogenannten "Cipher Manuscript," das der Ordenslegende nach unter obskuren Umständen von A.F.A Woodford entdeckt worden sein soll. Es war in einem Alphabet verfasst, das einer überlieferten Geheimschrift von Abt Trithemius ähnlich ist, und konnte daher von Westcott entschlüsselt werden. Das Manuskript enthält in skizzierter Form fünf Initiationsrituale, sowie entsprechendes Lehrmaterial, u.a. die bisher geheimen Zuordnungen des Tarots zu den hebräischen Buchstaben. Ferner soll sich auf einer der Seiten die Kontaktadresse einer gewissen "Soror Sapiens Dominabitur Astris" (Anna Sprengel), einer hohen Adeptin der Rosenkreuzer aus Deutschland, befunden haben. William Wynn Westcott will von ihr die Erlaubnis zur Gründung des "Golden Dawn in the Outer" (des äußeren Ordens der Goldenen Dämmerung) erhalten haben. Schließlich beauftragte Westcott Mathers, die Ritualskizzen zu arbeitsfähigen Ritualen auszuarbeiten. Wachstum. Der Eröffnung des "Isis- Urania Tempels No.3" in London im März 1888 folgten noch im selben Jahr die Gründung des "Osiris Tempels No.4" in Weston-super-Mare (Somerset) und des "Horus Tempel No.5" in Bradford (Yorkshire). Erst 1893 erfolgte auf Antrag einiger schottischer Mitglieder die Eröffnung des "Amen-Ra Tempels No.6" in Edinburgh, gefolgt von der Einweihung des "Ahathoor Tempels No.7" in Paris im Januar 1894. Zunächst wurden nur fünf Grade rituell bearbeitet, die in ihrer Gesamtheit den "äußeren oder ersten Orden" bildeten. Neben der rituellen Arbeit wurde nur theoretisches Grundlagenwissen über die Kabbala, Astrologie, Tarot und Alchemie vermittelt. Einzige Ausnahme war das "Kleine Pentagrammritual", das gelehrt wurde, damit sich der Schüler ein erstes Bild von den unsichtbaren Kräften und deren Lenkung machen konnte. Bis Dezember 1891 existierte der "zweite oder innere Orden", der die Adeptengrade umfassen sollte, nur administrativ, da es noch keine entsprechenden Initiationsrituale gab. Es wurde lediglich der sogenannte "Portalgrad" geschaffen, der als Bindeglied zwischen äußeren und inneren Orden fungierte. Rote Rose und goldenes Kreuz. Es war Samuel Liddell MacGregor Mathers vorbehalten, diesen "zweiten oder inneren Orden", den eigentlichen magischen Orden, zu schaffen, den "Ordo Rosae Rubeae et Aureae Crucis" (Orden der Roten Rose und des goldenen Kreuzes), auch kurz "R.R. et A.C." genannt. Im Herbst 1891 erklärte Mathers, in Paris den Kontakt zu den "geheimen Oberen", den Mitgliedern des innersten oder dritten Ordens, hergestellt zu haben. Von einem Frater L.E.T "(Lux e tenebris)" will er weitere Instruktionen für den Aufbau des zweiten Ordens erhalten haben. Er schuf daraufhin das zentrale Initiationsritual des Ordens, das des "Adeptus Minor Grades". Dafür wird die in der Fama Fraternitatis geschilderte Wiederauffindung des verborgenen Grabes von Christian Rosencreutz rituell umgesetzt. Es wird eigens das "Gewölbe der Adepten" konstruiert, eine begehbare siebenseitige Initiationskammer. Dieses Gewölbe gilt als Widerspiegelung des Universums, unter anderem entsprechen seine farbig bemalten Seiten den sieben Planeten. Darin steht der sogenannte Pastos, ein Sarkophag, in dem der Chefadept während des Rituals liegen wird, um den Ordensgründer Christian Rosencreutz zu verkörpern. Es war Annie Horniman, die im Dezember 1891 als Erste das neue Adeptus Minor Ritual durchlief. War Westcott vorwiegend für Lehrinhalte des äußeren Ordens verantwortlich, verfasste Mathers fast alle wichtigen Instruktionen und Lehrschriften des zweiten Ordens. Gleich nach der Initiation hatte sich der der "Neophyt Adeptus Minor" durch einen Katalog von Instruktionen und Lehrschriften zu arbeiten. Er hatte verschiedene magische Gegenstände herzustellen und zu weihen, unter anderem die vier „Elementarwaffen“ Stab, Kelch, Dolch und Pantakel. Eine andere häufig geübte Technik war das sogenannte "Reisen in der Geistvision (Travelling in the Spirit Vision)", einer der aktiven Imagination vergleichbaren Methode. Weiter fortgeschrittene Dokumente beschäftigen sich unter anderem mit dem frühneuzeitlichen System der henochischen Engelmagie von John Dee. Neben den offiziellen Lehrschriften zirkulierten zwischen den Mitgliedern des inneren Ordens auch noch die sogenannten "Flying Rolls", Abhandlungen und Erfahrungsberichte, die von fortgeschritteneren Mitgliedern geschrieben wurden. Innere Auseinandersetzungen. Nach dem Tod von William Robert Woodman im Dezember 1891, dessen Funktion jedoch nicht ersetzt wurde, kam es zu einer unterschwelligen Rivalität zwischen Mathers und Westcott, der sich 1897 schließlich ganz von allen administrativen Führungspositionen im Orden zurückzog. Mathers, der seit Mai 1892 überwiegend in Paris lebte und den Orden aus der Distanz leitete, ernannte daraufhin Florence Farr zu seiner Repräsentantin in England. Dies provozierte einige Auseinandersetzungen, da sich einige männliche Mitglieder weigerten, sich einer weiblichen Führung unterzuordnen. Darüber hinaus führte der autoritäre und zugleich inkonsistente Führungsstil von Mathers zu vielfältigen Streitigkeiten. So wurde u.a. Annie Hornimann wegen ihrer anhaltenden Kritik von ihm im Dezember 1886 wegen mangelnder Unterordnung aus dem Orden ausgeschlossen. Rebellion und Unabhängigkeit. Dies führte zum offenen Aufruhr der Londoner Adepten, die ein siebenköpfiges Komitee einsetzten, um diese Aussagen ihrem Wahrheitsgehalt nach zu untersuchen. Jedoch weigerte sich Westcott, Stellung zu den Vorwürfen zu beziehen. Nachdem auch Mathers nicht bereit dazu war, in London vor einem Komitee zu erscheinen, das er in keinster Weise billigte, wurde er von seinem Amt entbunden, was einer offenen Rebellion gleichkam. Am 17. April brach Crowley, im Auftrag von Mathers, gewaltsam in die Räumlichkeiten des "zweiten Ordens" ein und lies die Schlösser austauschen, um das "Gewölbe der Adepten" und weiteres Material in seinen Besitz zu bringen. Dies konnte jedoch von Yeats und andern Mitgliedern des "inneren Ordens" durch gerichtliche Schritte verhindert werden. Mathers und Crowley wurden aus dem Orden ausgeschlossen, wodurch die Spaltung endgültig wurde. Annie Hornimann wurde rehabilitiert und zur Sekretärin ernannt, um das gesamte Material des Ordens neu zu ordnen. Wenige Monate später versammelte Edward Berridge die wenigen Mathers noch loyal gebliebenen Adepten und gründete den "Isis Tempel No.11" in London, der später zum " Alpha et Omega Tempel No.1" wurde. Morgenröthe. Auf einer Zusammenkunft des "inneren Ordens" am 3. Mai 1902 wurden Percy Bullock, Robert William Felkin und John William Brodie-Innes für ein Jahr als leitende Triade bestätigt. In Folge wurde der äußere Orden in "Hermetic Society of the M.R." umbenannt, wobei M.R. für "Morgenröthe" steht. Jedoch scheiterte der Versuch, die Leitung dauerhaft auf eine demokratische Basis zu stellen, an den unterschiedlichen Interessen der Mitglieder. 1903 versuchte John William Brodie-Innes seinen Führungsanspruch durchzusetzen, scheiterte jedoch an Arthur Edward Waite und seiner Fraktion. Trotz mehrfacher Treffen konnte man sich nicht auf eine leitende Triade einigen. Independent and Rectified Rite of the Golden Dawn. In dieser Situation übernahmen Waite und seine Fraktion das "Gewölbe der Adepten " von "Isis- Urania No.3" und konstituierten am 7. November 1903 den "Independent and Rectified Order R.R. et A.C." als inneren Orden des "Independent and Rectified Rite of the Golden Dawn". Waite und seine Fraktion bevorzugten eher die mystische Ausrichtung des Ordens und unterzogen alle Rituale einer ausführlichen Revision. Aus dem "Independent and Rectified Rite" ging schließlich 1916 das "Fellowship of the Rosy Cross" hervor. Stella Matutina. Der Großteil der verbleibenden, eher magisch orientierten, Mitglieder gründeten daraufhin unter Felkin und Brodie-Innes den "Amon Tempel", der zum Haupttempel der Stella Matutina wurde. Auch die Stella Matutina unterzog die Rituale des ursprünglichen Golden Dawn ausführlichen Überarbeitungen, die dadurch eine wesentliche Verbesserung und Erweiterung erfuhren. In der Folgezeit bemühte sich Brodie-Innes darum, den eingeschlafenen "Amen Ra Tempel No.6" in Edinburgh wiederzubeleben. Er nahm heimlich Kontakt zu Mathers auf, mit dem er sich wieder versöhnte, und wechselte schließlich zum Alpha et Omega. Lehrinhalte. Das Erd- Pantakel, eine der vier "Elementarwaffen" Die Lehrinhalte des Golden Dawn bestanden aus zahlreichen okkulten und mystischen Traditionen, wie Kabbala und Tarot, Astrologie, Alchemie und der henochischen Magie Dees sowie aus magischen Arbeiten mit den Göttern Altägyptens und Griechenlands. Elemente des Christentums und Judentums wurden synkretistisch integriert. Das Gradsystem gliederte sich anfangs in neun, später in elf Grade, die in Zusammenhang mit den kabbalistischen zehn Sephiroth stehen. Viele heutige okkulte Organisationen bedienen sich des Studienmaterials des Golden Dawn. Zum Beispiel in einigen Wicca-Kult-Gruppen werden seine Pentagrammrituale verwendet, die unverändert dem Golden Dawn entstammen. Weblinks. In der Tradition des Golden Dawn arbeitende Gruppen Georges Méliès. Georges Méliès (* 8. Dezember 1861 in Paris; † 21. Januar 1938 ebenda) war ein französischer Illusionist, Theaterbesitzer, Filmpionier und Filmregisseur. Méliès zählt zu den Pionieren der Filmgeschichte und gilt als Erfinder des „narrativen Films“ und der Stop-Motion-Filmtechnik. Leben. Marie-Georges-Jean Méliès − dritter Sohn des wohlhabenden Schuhfabrikanten Jean-Louis-Stanislas Méliès und dessen Frau Johannah Catherine Schuering − wurde mit sieben Jahren im Lycée du Prince Impérial eingeschult. Während des Deutsch-Französischen-Krieges folgte 1870 eine Umschulung in das Lycée Louis-Le-Grand, wo er 1880 sein Baccalauréat erwarb. Bereits zu dieser Zeit zeigte sich sein künstlerisches Talent. Vom November 1881 bis November 1882 leistete Méliès Militärdienst. Er hoffte anschließend die École des Beaux-Arts besuchen zu dürfen, was ihm sein Vater jedoch untersagte. Um sich auf die Arbeit in der väterlichen Manufaktur vorzubereiten und seine Englischkenntnisse zu verbessern, wurde er 1884 für ein Jahr von seinen Eltern nach London geschickt, wo er für einen Geschäftsfreund seines Vaters arbeitete. Da seine Sprachkenntnisse noch nicht genügten, Vorstellungen im Sprechtheater zu verstehen, besuchte er hier regelmäßig die magischen Vorstellungen in der Egyptian Hall von John Nevil Maskelyne und Méliès entwickelte eine Passion für die Zauberkunst. Nach der Rückkehr 1885 nach Paris trat Méliès als Aufseher über die Maschinen in den väterlichen Betrieb ein. Er entwickelte dabei technisches Geschick, das er neben seiner Arbeit beim Nachbau einiger Automaten des Zauberkünstlers Jean Eugène Robert-Houdin verfeinerte. Méliès begann zu dieser Zeit ebenfalls, magische Tricks einzuüben und absolvierte erste Auftritte im Musée Grévin sowie in der Galerie Vivienne. Im Jahr 1885 heirateten Georges Méliès und Eugénin Genin († 1913). Sein Vater zog sich 1888 aus der Arbeit in der Manufaktur zurück. Méliès verkaufte nun den Teil des möglichen Erbes an die beiden älteren Brüder. Vom Erlös erwarb er das "Théâtre Robert-Houdin". Die Geschäfte am Theater gestalteten sich gerade zu Beginn schwierig: Bis 1898 erzielte Méliès keinen Gewinn. Das Programm bestand aus Zaubervorstellungen, kurzen Féerien, Pantomimen und der Vorführung einiger Automaten, die Méliès zusammen mit dem Theater erworben hatte. In den Vorstellungen traten auch bekanntere Zauberkünstler dieser Zeit auf, darunter Buatier de Kolta, der Zwerg La Fée Mab, Duppery und Legris. Zum festen Ensemble gehörte ebenfalls Jeanne d’Alcy, die später in vielen Filmen von Méliès spielte und die er in zweiter Ehe heiratete. Die Brüder Lumière hatten über dem Theater ein Atelier gemietet. Am 28. Dezember 1895 sah Méliès eine der ersten Vorführungen des Cinématographen. Den Verkauf des Apparates an Méliès verweigerten die Brüder Lumière mit der Begründung, der wirtschaftliche Erfolg dieser Erfindung sei unklar und die eigene Verwertung solle solange laufen, wie ein Interesse des Publikums bestehe. Méliès reiste daraufhin nach England, wo er von Robert William Paul einen Projektor, einige Filme von Edison und unbelichtete Negative kaufte. Am 4. April 1896 eröffnete Méliès sein "Théâtre Robert-Houdin" neu als Kino. Er kaufte bald einen weiteren Projektor und baute den von Paul in eine Kamera um. Zusammen mit den Geschäftspartnern Lucien Reulos und Lucien Korsten ließ Méliès im September 1896 einen Méliès-Reulos-Kinétographen patentieren. Im Sommer 1896 drehte Méliès seinen ersten Film mit dem Titel "Une partie de cartes", der einem gleichnamigen Film der Lumières stark ähnelte. Anschließend filmte er zuerst nur kurze Aufnahmen von alltäglichen Szenen, ergänzte sein Repertoire aber bald auch um inszenierte Szenen, den sogenannten "scènes composées". Seine Filme zeigte er nicht nur im "Théâtre Robert-Houdin", sondern vertrieb sie auch an Jahrmarktskünstler, die sie zusammen mit anderen Attraktionen vorführten. Méliès errichtete 1896 Frankreichs erstes Filmstudio – neben Edisons Black Maria eines der ersten der Welt – auf dem Grundstück seiner Familie in Montreuil in der Nähe von Paris. Das Studio wurde Anfang 1897 eröffnet. Hier entstanden von nun an fast alle seine Filme. Das Studio glich in seinen Maßen dem "Théâtre Robert-Houdin" und wie dessen Bühne war auch seine mit Falltüren und anderen Mechanismen ausgestattet, um Bühnenillusionen zu erzeugen. Die Wände und das Dach waren wie bei einem Fotoatelier aus Glas gefertigt, um eine ausreichende Beleuchtung der Bühne zu gewährleisten. Bewegliche Jalousinen erlaubten es, den Lichteinfall zu beeinflussen. Im Jahre 1905 erweiterte Méliès das Filmstudio. Grab von Georges Méliès auf dem Friedhof Père Lachaise in Paris Im Jahr 1897 gründete Méliès die Produktionsfirma Star Film, mit der er bis 1913 über 500 Filme drehte. Zu Beginn war er mit ihnen wirtschaftlich relativ erfolgreich, doch schon bald wurde er von der Konkurrenz und Schwarzkopierern bedroht. Um in Amerika seine Filme besser vertreiben und seine Rechte wahren zu können, eröffnete die Star Film 1903 in New York ein Büro, das von Méliès’ Bruder Gaston Méliès geleitet wurde. In Frankreich erwuchs ihm insbesondere mit der Produktionsfirma Pathé ein starker Konkurrent. Als sich im Jahr 1909 deren Vertriebssystem durchsetzte, bei dem die Filme nicht mehr verkauft, sondern verliehen wurden, waren Méliès’ teuer produzierte Filme den günstigen, schnell und industriell gefertigten Filmen wirtschaftlich nicht mehr gewachsen. Ab 1911 konnte er eigene Filme nur noch im Auftrag der Pathé produzieren, 1913 kam seine Filmproduktion zum Erliegen. Während des Ersten Weltkrieges trat Méliès als Varietékünstler auf; er verlor jedoch sein gesamtes Vermögen. In seiner zweiten Ehe heiratete Georges Méliès im Jahr 1925 Jeanne d’Alcy (Fanny Manieux alias Charlotte Faës). Mit seiner Ehefrau betrieb er bis 1932 einen Spielzeugladen in der Metrostation Montparnasse. Als Filmschaffender war er zu dieser Zeit vergessen, bis 1929 einige seiner Werke auftauchten und Filmjournalisten wieder über ihn berichteten. Ab 1932 ermöglichten andere Filmschaffende ihm und seiner Frau den Aufenthalt in einer Altersresidenz in Orly. Sein Grab liegt auf dem Pariser Friedhof Père Lachaise. Im Jahr 1947 benannte die neu gegründete französische Filmkritikervereinigung Association Française de la Critique de Cinéma (AFCC) ihren jährlich vergebenen Preis für die beste französische Kinoproduktion nach Méliès. Werk. Das Werk von Georges Méliès zeichnet sich durch eine große Vielfalt, Phantasie und technisches Geschick aus. Von der großen Zahl seiner Filme, die er zwischen 1896 und 1913 drehte, sind etwa 200 erhalten. Die Filme stammen aus verschiedenen Genres. Sein bekanntester Film ist wahrscheinlich "Le Voyage dans la Lune" "(Die Reise zum Mond)", mit dem er 1902 in Anlehnung an den gleichnamigen Roman von Jules Verne den ersten Science-Fiction-Film schuf. Neben diesen Féeries entstanden auch kurze Dokumentationen ähnlich denen der Brüder Lumière, nachgestellte Ereignisse der Zeitgeschichte und kurze Trickfilme. Üblicherweise wird Méliès die Erfindung des Stopptricks zugesprochen. Dass er diesen entdeckte, als er während einer Aufnahme auf dem Place de l'Opera filmte und seine Kamera stockte, muss aber wahrscheinlich als Legende betrachtet werden. Mit Hilfe des Stopptricks drehte er viele Filme, die an Zauberkunststücke erinnern, wie sie im "Théâtre Robert-Houdin" gezeigt wurden. Neben diesem bediente er sich auch anderer filmischer Tricks wie Doppelbelichtungen und Modellaufnahmen. Einen wichtigen Platz in seinem Schaffen nehmen sogenannte Aktualitätenfilme ein, in denen er Ereignisse der Zeitgeschichte nachstellte. Unter anderem filmte er eine zwölfteilige Reihe über die Dreyfus-Affäre ("L'Affaire Dreyfus", 1899) und inszenierte 1902 die Krönung Eduards VII., bevor diese überhaupt stattfand. Weil Méliès massive finanzielle Probleme hatte und keine Geldgeber für seine Filmprojekte fand, musste er nach 1923 im Anschluss an den Bankrott 1200 Filme als Rohmaterial an die Schuhindustrie verkaufen. Position. Die filmgeschichtliche Position der Werke von Méliès zu bestimmen, gestaltet sich schwierig: Klassischerweise unterscheidet die Filmgeschichte Méliès’ inszenierte Stücke von den dokumentarischen Arbeiten der Lumières und sieht hierin den wichtigsten Gegensatz im frühen Film. Diese Unterscheidung wird heute jedoch nicht mehr so scharf gezogen, da auch Méliès zu Beginn hauptsächlich dokumentarisch filmte und die Brüder Lumière ebenfalls kurze Szenen inszenierten. Eine weitere Unterscheidung wird häufig zwischen den primitiven frühen Filmen, wie denen von Méliès, und dem späteren elaborierten Kino nach D. W. Griffith vorgenommen. Méliès’ Filme stehen als Beispiele für ein primitives Kino, das noch keine filmische Sprache mit Schnitten und diversen Aufnahmegrößen kannte. Auch diese Unterscheidung wurde in den letzten Jahren häufig abgelehnt und statt ihrer gefordert, das frühe Kino nicht mit den Begriffen des späteren narrativen zu analysieren, sondern es als ein Kino der Attraktionen zu betrachten, das eigenen ästhetischen Regeln folgte. Rezeption. In dem Roman "Die Entdeckung des Hugo Cabret" (2007) beschreibt Brian Selznick die Wiederentdeckung der Filme von Georges Méliès durch den Protagonisten Hugo Cabret. Den Roman verfilmte Martin Scorsese im Jahre 2011 unter dem Titel "Hugo Cabret", wobei Georges Méliès durch Ben Kingsley dargestellt wurde. Einige Ausschnitte der Filme "Le voyage dans la lune", "Le voyage à travers l'impossible" und "L’éclipse du soleil en pleine lune" sind im Musikvideo zu "Heaven for Everyone" von Queen aus dem Jahr 1995 eingearbeitet. Das Video der Smashing Pumpkins zu ihrem Titel "Tonight, tonight" (1996) wurde im Stil dieser Méliès-Filme gestaltet. Guy Ritchie. Guy Ritchie in Paris auf der Premiere zu ' (Januar 2012) Guy Stuart Ritchie (* 10. September 1968 in Hatfield, Hertfordshire) ist ein britischer Drehbuchautor und Filmregisseur. Leben und Karriere. Ritchie begann 1995 als Regisseur für Werbefilme und Musikvideos. Im selben Jahr drehte er den Kurzfilm "The Hard Case", mit Hilfe dessen er seinen ersten Film "Bube, Dame, König, grAS" finanzieren konnte, der zum Kultfilm avancierte. Der darauf folgende Film "Snatch – Schweine und Diamanten" bot ein größeres Starensemble mit Schauspielern wie Brad Pitt und Benicio del Toro. Außerdem hatte Ritchie für "Snatch" ein wesentlich größeres Budget als bei seinem Debütfilm. Am 22. Dezember 2000 heiratete er die Sängerin Madonna, mit der er 2001 das kontroverse Musikvideo "What It Feels Like For A Girl" und den Kurzfilm ' für BMW drehte. Sein Spielfilm "Stürmische Liebe – Swept Away" (2003) mit Madonna in der Hauptrolle fiel sowohl bei den Kritikern als auch kommerziell durch. Zwei Jahre darauf folgte mit "Revolver" der dritte Film Ritchies mit Jason Statham in der Hauptrolle. Kommerziell konnte der Film nicht an die Erfolge von "Bube, Dame, König, grAS" und "Snatch – Schweine und Diamanten" anknüpfen, jedoch ist es der Film, mit dem Ritchie bis dato am zufriedensten war. Madonna und Ritchie haben einen gemeinsamen leiblichen und einen gemeinsam adoptierten Sohn. Die Ehe wurde am 21. November 2008 in London geschieden, er erhielt eine Abfindung in Höhe von 55,6 Millionen bis 66,7 Millionen Euro. 2008 führte Ritchie Regie beim Nike-Werbespot "Evolution", der unter anderem für die Euro 2008 gedreht wurde, außerdem drehte er den Film "Rock N Rolla" mit Gerard Butler sowie die Werbereihe "Nespresso – What else?" mit George Clooney. 2009 drehte Ritchie den Film "Sherlock Holmes" mit Robert Downey junior als Sherlock Holmes und Jude Law als Dr. Watson in den Hauptrollen. Der Film kam am 25. Dezember 2009 in die US-amerikanischen Kinos und lief in Deutschland im Februar 2010 an. Im Jahr 2011 wurde eine Fortsetzung des Filmes mit dem Titel ' realisiert. Goldene Himbeere. 29. Verleihung der Goldenen Himbeere, 2009 Die Goldene Himbeere, im amerikanischen Original "Golden Raspberry Award" (kurz "Razzie Award"), ist ein Filmpreis, entworfen als eine Art Gegen-Oscar, der seit 1981 als Negativpreis in verschiedenen Kategorien für die jeweils schlechteste Leistung des Jahres traditionell am Abend vor der Oscar-Verleihung vergeben wird. Hinter dem Preis steht die von dem Cineasten John Wilson gegründete "Golden Raspberry Award Foundation" (G.R.A.F.), der 2007 über 750 Filmkritiker, Journalisten und Filmschaffende aus 42 US-Staaten und mehr als zwölf Ländern angehörten. Aus Deutschland benennt die Münchner Filmwerkstatt 50 Personen, die an der Abstimmung teilnehmen. Die Preis-Statue besteht aus einer Kunststoffhimbeere, die auf eine Super-8-Filmrolle aus Aluminium geklebt ist und mit Goldfarbe überzogen wurde. Ihr Materialwert ist gering. Aus dem Cockney Rhyming Slang stammt der englische Ausdruck "to blow a raspberry" für das Flattern der Lippen auf der herausgestreckten Zunge, welches ein Zeichen der Verhöhnung ist. Da englisch "raspberry",Himbeere‘ heißt, wurde dieser Name für den Preis gewählt. Die 35. Golden Raspberry Awards wurden am 21. Februar 2015, dem Vorabend der Oscarverleihung, im kalifornischen Hollywood, Los Angeles vergeben. Sonderpreisvergaben. Rückblickend auf ein Jahrzehnt werden an besonders schlechte Filmwerke und Filmschaffende nochmals Goldene Himbeeren verliehen, so geschehen für die 1980er-, 1990er- und 2000er-Jahre. Während der Preisverleihung zur Goldenen Himbeere 2000 wurden des Weiteren für das 20. Jahrhundert die schlechteste Schauspielerin und der schlechteste Schauspieler des Jahrhunderts gekürt. Anlässlich des 25-jährigen Bestehens der Goldenen Himbeere wurden auf der Preisverleihung 2005 Trophäen für "das Schlechteste aus 25 Jahren" verliehen. Ab 2015 wird der "Razzie Redeemer Award" (Himbeere der Erlösung) vergeben. Diesen erhält ein Künstler, der mit der Goldenen Himbeere ausgezeichnet oder dafür nominiert war und der später eine beachtenswerte künstlerische Leistung abgeliefert hat. Ob diese Kategorie dauerhaft eingerichtet werden wird, steht noch nicht fest. Goldene Himbeere/Schlechtester Film. Die Goldene Himbeere für den schlechtesten Film wird seit 1981 jährlich vergeben. Dabei bezieht sie sich auf Filme des vergangenen Jahres. So wurde beispielsweise der Preis des Jahres 2007 am 23. Februar 2008 verliehen. 2015. Film Gnus. Die Gnus ("Connochaetes") sind eine Gattung afrikanischer Antilopen, die in großen Herden leben und zur Gruppe der Kuhantilopen gehören. Merkmale. Der Kopf und die Hörner der Gnus haben rinderartige Merkmale. Die Hörner sind kurz, kräftig und bei beiden Geschlechtern vorhanden. Die Kopfrumpflänge beträgt etwa 2 m, die Schulterhöhe 130 cm und das Gewicht 200 kg. Die Fellfarbe ist je nach Art unterschiedlich. Lebensweise. Gnus bewohnen die offene Savanne. Hier leben sie in großen Herden. Sie sind vor allem für ihre Wanderungen bekannt. Allerdings wandern nicht alle Herden. In der Serengeti sind etwa 3 % der dort lebenden Gnus sesshaft. Die Wanderung der Gnus ist einer der auffälligsten Tierzüge der Welt. Während der Regenzeit sind die Gnuherden in den mineralstoffreichen Ebenen der südöstlichen Serengeti in Tansania zu finden. Gegen Ende Mai oder Anfang Juni endet die Regenzeit, und die Gräser verwelken. Die Gnus ziehen dann in einer Kolonne nordwärts über den Mara-Fluss in die Masai-Mara-Ebene in Südkenia. Dort finden sie aufgrund von Schauern vereinzelte Regionen mit starkem Graswachstum. Das Gras hier hat jedoch einen schweren Phosphormangel, so dass die Gnus mit dem Beginn der Regenzeit gegen Ende des Jahres in die Serengeti zurückkehren. Bei der dabei notwendigen Überquerung des Mara-Flusses werden die Gnus von Krokodilen erwartet, die hunderte von ihnen erbeuten. Während in trockenen Habitaten Herden aus Gnus aller Altersgruppen und Geschlechter zusammengesetzt sein können, bilden Männchen und Weibchen für gewöhnlich jeweils getrennte Herden. Weibchen und Jungtiere leben in Herden, die zehn bis tausend Tiere umfassen. Im Alter von etwa einem Jahr verlassen männliche Jungtiere diese Herden, während die heranwachsenden Weibchen dort bleiben. Junge Männchen finden sich zu separaten Junggesellenverbänden zusammen, die drei Jahre zusammenbleiben. Dann werden die Männchen Einzelgänger und versuchen, ein Territorium zu etablieren. Dieses Revier wird gegen andere Männchen verteidigt; solche Zusammentreffen haben ritualisierte Drohgebärden und Kämpfe mit den Hörnern zur Folge. Betritt eine Weibchenherde einen solchen Eigenbezirk, übernimmt das Männchen die Kontrolle über sie, verteidigt sie und paart sich mit ihnen, bis sie das Revier wieder verlassen. Die Tragzeit beträgt etwa neun Monate. Anschließend wird ein einziges Junges geboren, das für weitere neun Monate gesäugt wird. Im dritten Lebensjahr werden Gnus geschlechtsreif; ihre Lebensdauer beträgt zwanzig Jahre, allerdings werden die meisten lange vorher von Raubtieren gerissen. Menschen und Gnus. Gnus wurden schon immer wegen ihres Fleisches und ihrer Haut gejagt; aus den Schwänzen pflegte man Fliegenwedel herzustellen. Mit der Ankunft weißer Siedler wurden die Tiere massenhaft abgeschossen, so dass die Herden kontinuierlich kleiner wurden. Im Serengeti-Nationalpark haben sich die dortigen Serengeti-Weißbartgnus dank massiver Schutzbemühungen wieder stark vermehrt. Von 500.000 Tieren im Jahr 1970 stieg die Population wieder auf etwa 1,3 Millionen an. Allerdings ist es nicht in ganz Afrika so gut um die Gnus bestellt. In vielen Staaten sinken die Bestände weiterhin, so im südlichen Afrika, wo der Bestand des Streifengnus von 300.000 im Jahr 1970 auf 130.000 abfielen. Die Population des Weißbindengnus könnte sich auf etwa 70.000 bis 80.000 beziffern, während das Weißbartgnu möglicherweise nur noch rund 8000 Individuen umfasst. Der Name "Gnu" ist der Sprache der Khoikhoi entnommen. Gold. Gold (von indogermanisch "ghel": glänzend, gelb) ist ein chemisches Element (siehe auch Entstehung der Elemente) mit dem Elementsymbol Au (von) und der Ordnungszahl 79. Es ist ein Übergangsmetall und steht im Periodensystem in der 1. Nebengruppe (Gruppe 11), die auch als Kupfergruppe oder "Münzmetalle" bezeichnet wird. Gold zählt zu den Edelmetallen und ist zusammen mit Kupfer eines der wenigen farbigen Metalle. Gold wird seit Jahrtausenden für rituelle Gegenstände und Schmuck sowie seit dem 6. Jahrhundert v. Chr. in Form von Goldmünzen als Zahlungsmittel genutzt. Es wird auch als Lebensmittelzusatzstoff mit der E-Nummer "E175" verwendet. Ur- und Frühgeschichte. a> (ca. 1400 v. Chr.) im Nationalmuseum Athen Gold zählt zu den ersten Metallen, die von Menschen verarbeitet wurden. Mit seiner auffallend glänzenden gelben Farbe wurde es metallisch gediegen in der Natur gefunden. Gold lässt sich sehr gut mechanisch bearbeiten und korrodiert nicht. Wegen der Beständigkeit seines Glanzes, seiner Seltenheit, seiner scheinbaren Unvergänglichkeit und seiner auffallenden Schwere wurde es in vielen Kulturen vor allem für herausgehobene rituelle Gegenstände und Schmuck verwendet. Die Goldgewinnung ist seit der frühen Kupferzeit nachgewiesen. Die leichte Legierbarkeit mit vielen Metallen, die moderate Schmelztemperatur und die günstigen Eigenschaften der Legierungen machten Gold als Werkstoff sehr attraktiv. Die ältesten bislang bekannten Goldartefakte der Menschheit sind insgesamt etwa 3.000 goldene Objekte aus dem Gräberfeld von Warna (Bulgarien), die als Grabbeigaben niedergelegt wurden und zwischen 4600–4300 v. Chr. datiert werden. Mehr als 7.000 Goldobjekte sind aus dem 4. Jahrtausend v. Chr. aus Gräbern der osteuropäischen Majkop-Kultur bekannt. Der früheste Nachweis in Mitteleuropa liegt mit den beiden Goldscheiben im Depotfund von Stollhof (Niederösterreich) vor und stammt ebenfalls aus dem 4. Jahrtausend v. Chr. Seit dieser Zeit wurde Gold vereinzelt in Form von Schmuckgegenständen aus Südosteuropa importiert. In Mittel- und Nordeuropa treten goldene Gegenstände vermehrt erst im dritten Jahrtausend v. Chr. als Grabbeigaben auf, vor allem in der endneolithischen Glockenbecherkultur. Beispiele sind die Ohrringe und die Haarspange beim Bogenschützen von Amesbury oder die 2013 gefundenen Goldringe eines Glockenbecher-Grabes aus Wustermark, Landkreis Havelland. Berühmte Beispiele aus der nachfolgenden Bronzezeit sind die Goldauflagen der Himmelsscheibe von Nebra (Frühbronzezeit) und die vier spätbronzezeitlichen Goldhüte. Die Ägypter beuteten Vorkommen in Oberägypten und Nubien aus. So ist auf dem Turiner Papyrus u.a. auch die Lage einer Goldmine verzeichnet. Die Römer nutzten Fundstätten in Kleinasien, Spanien (Las Médulas), Rumänien und Germanien. Die Sage von der Fahrt der Argonauten zum "Goldenen Vlies" nach Kolchis wurde anscheinend von den Seereisen griechischer Goldsucher angeregt. In der Tora wird vom Goldenen Kalb erzählt, das sich die Israeliten als Götzenbild herstellten, während Moses die Zehn Gebote empfing, und vom Goldland Ophir. Das Neue Testament erwähnt Gold (neben Weihrauch und Myrrhe) als eines der Huldigungsgeschenke der Weisen aus dem Morgenland für den neugeborenen Jesus. Auch in Südamerika und Mesoamerika wurde schon sehr früh Gold verarbeitet. So beherrschten beispielsweise die Mochica in Peru bereits Anfang des ersten Jahrtausends die Legierungsbildung (Tumbago) sowie die Vergoldung und stellten Gegenstände für rituelle Zwecke aus mehreren Kilogramm Gold her. Die Goldgewinnung und -reinigung erfolgte durch Goldwäscherei, Amalgamation und Kupellation (oxidieren unedlerer Metalle mit Blei, auch Läuterung genannt), auch in Kombination der Verfahren. Neuzeit. Die Gier nach Gold wurde mit der Vormachtstellung der europäischen Seemächte Spanien, Portugal, England und Italien zu einem maßgeblichen Grund für Kriege und Eroberungszüge der Neuzeit. Besonders der Goldreichtum der indigenen Völker in Mittel- und Südamerika lockte nach der Entdeckung Amerikas im Jahre 1492 europäische und insbesondere spanische Eroberer (Conquistadores) an, die Gold in Galeonen nach Europa brachten. Spanien wurde so eine Zeit lang zur reichsten Nation Europas; die indigenen Kulturen wurden durch die Eroberer bzw. durch eingeschleppte Krankheiten zerstört. Immer wieder lockten Goldfunde große Scharen von Abenteurern an. Im 19. Jahrhundert kam es auf verschiedenen Kontinenten zu Goldrausch genannten Massenbewegungen von Goldsuchern in die Gebiete großer Goldvorkommen. Beispiele hierfür sind der kalifornische Goldrausch im Jahre 1849 und der Goldrausch des Jahres 1897 am Klondike River in Alaska. Auch in Australien (Bathurst, Temora, Teetulpa und Coolgardie) und Südafrika (Witwatersrand) kam es zum Goldrausch. Auch heute führt der schwankende Goldpreis oft zu bedeutenden sozialen Veränderungen: So führte ein fallender Goldpreis in Südafrika zu einer starken Verarmung des von der Goldförderung lebenden Bevölkerungsteils. Im brasilianischen Amazonasraum ist der informelle Goldabbau durch Garimpeiros oft mit schwerwiegenden sozialen und ökologischen Folgen verbunden. Vorkommen. Der Goldanteil in der kontinentalen Erdkruste beträgt 0,004 ppm, also etwa 4 Gramm pro 1000 Tonnen Gestein. Der Anteil schwankt je nach Region – in Lagerstätten, die abgebaut werden, liegt der Goldanteil oft bei mehreren Gramm pro Tonne. Die Weltjahresförderung betrug 2008 noch 2260 Tonnen, 2011 bereits 2.700 Tonnen, etwa hundertmal mehr als im 19. Jahrhundert. Aktuell wird in zwei Jahren mehr Gold gefördert, als in den tausend Jahren des Mittelalters zusammen dokumentiert ist. Gold kommt auf der Erde vorwiegend als gediegenes Metall vor, in primären Rohstoffvorkommen als goldhaltiges Gestein (Golderz) sowie in sekundären Vorkommen. Etwa 45 % des 2011 geförderten Goldes stammen aus der Volksrepublik China, Australien, den Vereinigten Staaten, Russland und Südafrika. Die tiefsten Goldbergwerke der Welt befinden sich in Südafrika. Dort wird Gold fast 4000 Meter unter der Erdoberfläche abgebaut. Anfang 2011 plante das Bergbauunternehmen AngloGold Ashanti bereits Schächte in bis zu 5000 Metern Tiefe. Bedeutende Goldmengen fallen bei der Raffination anderer Metalle wie Kupfer, Nickel oder der anderen Edelmetalle an, sodass unter Umständen erst die Gewinnung dieser „Verunreinigungen“ die Ausbeutung einer Goldlagerstätte wirtschaftlich machen. Witwatersrand-Typ (Paläo-Seifenlagerstätte). Das Witwatersrand-Goldfeld in Südafrika ist mit Abstand das größte der Welt. Bis heute hat diese Lagerstätte mehr als 40.000 t Gold geliefert. Die Erzkörper sind frühproterozoische (etwa 1,8 Milliarden Jahre alte) Paläo-Flussschotter, die gediegen Gold, Pyrit und lokal abbauwürdige Konzentrationen von Uranpechblende enthalten. Die genaue Genese ist bis heute umstritten. Klassisch wird die Lagerstätte als eine Paläo-Seifenlagerstätte interpretiert, womit sie unter die sekundären Lagerstätten fallen würde. Etwa 25 % des gefundenen Goldes weisen eine Form auf, die für einen Transport durch hydrothermale Lösungen typisch ist, während es sich bei 75 % des Goldes um die typischen Nuggets handelt, die für einen fluvialen Transport sprechen. Neuere Isotopenuntersuchungen legen allerdings eine sehr kleinräumige hydrothermale Mobilisation des Goldes von wenigen Millimetern bis Zentimetern nahe, sodass wahrscheinlich auch dieses Gold ursprünglich aus den Flussschottern stammt. Das Vorhandensein von gerundeten Pyrit- und Uranpechblende-Klasten zeigt aber auf jeden Fall an, dass diese zum ursprünglichen Bestand der Flussschotter gehörten. Sie zeigen damit auch an, dass die Erdatmosphäre zu diesem Zeitpunkt nur einen geringen Gehalt an Sauerstoff besessen haben kann, da diese Minerale unter oxidierenden Bedingungen nicht stabil sind. Die Ressourcen der Lagerstätte liegen noch bei mehreren zehntausend Tonnen Gold, allerdings in erheblicher Tiefe. Hier befinden sich die tiefsten Bergwerke der Welt (nahezu 4000 m); ihr Abbau ist deshalb nur bei hohen Goldpreisen wirtschaftlich. Die Lagerstätte macht 40 % des weltweit bisher geförderten Goldes plus Ressourcen aus. Goldquarzgänge. Es handelt sich meist um reine Goldlagerstätten ohne Gewinnungsmöglichkeit für andere Metalle. Einige wenige Lagerstätten enthalten allerdings solch hohe Gehalte an Arsen, dass sie zu den wichtigsten Vorkommen dieses Halbmetalls gehören. Bedeutende Beispiele für diesen Lagerstättentyp gibt es unter anderem in Papua-Neuguinea, Neuseeland, Mexiko, Peru und Rumänien. Carlin-Typ. Bei diesem Typ handelt es sich um Lagerstätten in karbonatischen Gesteinen. Die bedeutendsten Vorkommen dieses Typs liegen in Utah und Nevada (USA). Die dortigen Lagerstätten bildeten sich in einem kurzen Intervall vor 42 bis 30 Millionen Jahren. Sie formten sich aus reduzierten, mäßig sauren Fluiden mit Temperaturen von 150 bis 250 °C in Tiefen über 2000 m. Die Erzkörper können wenige bis mehr als 100 Millionen Tonnen Erz enthalten bei Gehalten zwischen 1 und 10 g/t. Gold ist meist an feinverteilten arsenreichen Pyrit gebunden. Dadurch ist die Aufbereitung dieser Erze relativ aufwendig. IOCG (Iron-Oxide-Copper-Gold)-Typ. Diese Lagerstätten kommen in felsischen Magmatiten wie Graniten und Rhyoliten vor. Es handelt sich dabei um große hydrothermale Brekzienkörper mit hohen Gehalten an Eisen in Form von Hämatit und/oder Magnetit. Diese Lagerstätten entstanden vermutlich unter einem Vulkankomplex. Bei einem Ausbruch führten hydrothermale Fluide zur Bildung von Brekzien aus Magmatiten und setzten Eisenoxide, Kupfersulfide, gediegenes Gold sowie weitere Minerale ab. Die bedeutendsten Lagerstätten dieses Typs befinden sich in mesoproterozoischen Gesteinen Australiens wie zum Beispiel Earnest Henry (Queensland), Prominent Hill und Olympic Dam (beide im Bundesstaat South Australia). Letztere stellt einen der größten Erzkörper der Erde dar mit derzeit vermuteten Ressourcen von 8,4 Milliarden Tonnen Erz. Die Erzgehalte liegen zwischen 0,5 und 2 % für Kupfer und 0,5 und 1,5 g/t Gold. In den meisten Lagerstätten dieses Typs befinden sich reine Kupfer- und Goldvorkommen, während Olympic Dam auch Uran und Silber enthält. Diese Lagerstätte stellt die größte bekannte Uranlagerstätte der Erde dar. Porphyrische Cu-Au-Lagerstätten. Solche Lagerstätten finden sich weltweit in jungen Gebirgskomplexen. Es handelt sich um große Erzkörper in intermediären bis sauren plutonischen Magmatiten. Die Erzminerale (Pyrit, Chalcopyrit, Bornit, Chalkosin, Molybdänit) kommen feinverteilt auf ein Netzwerk aus Klüften im Gestein vor. Die Erzkörper beinhalten einige 10 Millionen bis mehreren Milliarden Tonnen Erz. Die größte Lagerstätte dieses Typs ist Chuquicamata in Chile mit über 10 Milliarden Tonnen Erz. In den USA ist Bingham Canyon die bedeutendste Lagerstätte und einer der größten Goldproduzenten des Landes. Die Erzgehalte sind vergleichsweise gering mit 0,5 bis 1 % Kupfer und 0,1 bis 1 g/t Gold, aber die Größe der Erzkörper lässt eine wirtschaftliche Gewinnung zu. Oftmals sind diese Lagerstätten auch mit Skarnlagerstätten assoziiert und es finden sich epithermale Goldlagerstätten im weiteren Umfeld. VHMS-/SHMS-Lagerstätten. Diese Lagerstätten bilden sich im marinen Bereich. "Volcanic Hosted Massive Sulfides" (VHMS) sind an basische Magmatite (meist Basalte) gebunden, während "Sediment Hosted Massive Sulfides" (SHMS) in marinen Sedimentgesteinen vorkommen. Meist handelt es sich bei diesen Lagerstätten um reine Buntmetalllagerstätten (Blei, Zink, Kupfer), einige enthalten aber auch gewinnbare Beimengungen von Gold, Silber und anderen Elementen. Die devonische SHMS-Lagerstätte Rammelsberg bei Goslar im Harz stellt mit 28 Millionen Tonnen Erz und einem Goldgehalt von 1 g/t als Beimengung zu den extrem hohen Blei- und Zinkgehalten die bedeutendste deutsche Goldlagerstätte dar. Sekundäre Lagerstätte (Waschgold/Seifengold). Fast alle europäischen Flüsse führen Spuren von Gold mit sich. Dieses Gold war zuvor in Form zumeist kleiner, dünner Blättchen in Gestein eingelagert. Durch Verwitterungsprozesse des umgebenden Gesteins wird es freigesetzt und gelangt so ins Flusswasser und wird als Fluss-Seife abgelagert. Auch auf den Geröllbänken des Hoch- und Oberrheines wie beispielsweise bei Istein finden sich geringe Mengen, insbesondere Flitter. Diese, als Rheingold bezeichneten Sekundärablagerungen, wurden in den vergangenen Jahrhunderten und bis heute, mit mäßigem Ertrag, ausgewaschen. Der einzige offizielle Goldproduzent Deutschlands, ein seit 2008 zur Holcim-Gruppe gehörendes Kieswerk bei Rheinzabern, nutzt ebenfalls diese Vorkommen. Förderung weltweit. Zeitliche Entwicklung der weltweiten Goldförderung Das meiste Gold wurde lange Zeit in Südafrika gefördert. Im Jahr 2007 förderte Australien die größte Menge. Seit 2008 stammt die größte Fördermenge aus der Volksrepublik China, gefolgt von Australien. Seit 2008 fördern die USA mehr Gold als Südafrika, seit 2010 liegt auch die Fördermenge der Russischen Föderation über der von Südafrika. Weltweit existieren nur wenige große Goldförderunternehmen, deren Aktien an den Börsen gehandelt werden. Dazu gehören etwa Agnico-Eagle Mines, AngloGold Ashanti, Barrick Gold, Freeport-McMoRan Copper & Gold, Gold Fields Ltd., Goldcorp, Kinross Gold, Newmont Mining und Yamana Gold. Vorkommen in Europa. Die Förderung von Gold in Europa - am meisten in Finnland und Schweden - ist im internationalen Vergleich unbedeutend. Die rumänischen Golderzvorkommen sind wohl die größten in Europa. In Bulgarien finden in den stillgelegten Goldminen "Zlata" (aktiver Bergbau: 1939–1973) und "Krushov Dol" (aktiv: 1965–1974) wieder Erkundungen statt. In "Barsele" (in der Gemeinde Storuman) in Schweden wurde ein Vorkommen erkundet. Gewinnung. a>, 4. Auflage. 1885 bis 1890) Im Gegensatz zu den meisten anderen Metallen kommt das chemisch inerte Gold meist gediegen vor und muss nicht durch Reduktion aus Erzen gewonnen werden, wie beispielsweise Eisen. Es wird nur mechanisch aus dem umgebenden Gestein gelöst. Da Gold chemisch wenig reaktiv und somit nur schwierig in lösliche Verbindungen überführt werden kann, werden spezielle Verfahren zur Goldgewinnung angewendet. Ohne Lupe direkt sichtbares Gold, sogenanntes „Freigold“ in Form von Nuggets oder Goldstaub ist eine Rarität. Das meiste Gold in den Vorkommen liegt in kleinsten Partikelchen im umgebenden Gestein fein verteilt vor und entgeht somit den Versuchen, es mit einfachen Verfahren manuell zu sammeln. Das größte bekannte Goldnugget, "„Welcome Stranger“" genannt, wurde 1869 in Australien gefunden und wog 2284 Feinunzen (rund 71 kg). In der Praxis werden mehrere Verfahren miteinander kombiniert, um die gewünschte hohe Ausbeute zu erhalten. Durch Fortschritte in den Gewinnungsmethoden, Vernachlässigung der Abfallproblematik und bei hohem Marktpreis lohnt sich sogar der Abbau von Erz, das nur ein Gramm Gold pro Tonne enthält. Alte Abraumhalden ehemaliger Goldvorkommen werden deshalb mittels verbesserter Technik nochmals aufgearbeitet. Gold fällt auch als Nebenprodukt bei der Raffination anderer Metalle an und wird dort in großem Umfang wiedergewonnen. Goldwaschen. Das sogenannte Goldwaschen als einfachstes Verfahren zur Goldgewinnung nutzt die hohe Dichte des Metalls. Dabei wird goldhaltiger Sand mit Wasser aufgeschlämmt. Da Gold schwerer ist als der umgebende Sand, setzt sich das Gold schneller am Boden ab und kann so abgetrennt werden. Gold aus Flussablagerungen wird so gewonnen. Die Hobby-Goldsucher von heute wenden meist dieses Verfahren an. Dessen Nachteil besteht jedoch in der geringen Ausbeute bei großem Zeitaufwand des Goldsuchers. Der Vorteil dieser Methode ist die zuverlässige Ausbeute an groben Goldteilchen, die bei der Cyanidlaugerei nicht vollständig erfasst werden. Es lässt sich verbessern durch Einbringen von Fellen in die abströmende Flüssigkeit, in dem sich dann auch kleinste Goldpartikelchen in den Fellhaaren verfangen und die Ausbeute erhöhen. Goldwaschen wird auch teilmechanisiert an Land durchgeführt, aber auch mit Schwimmbaggern mit integrierter Wäsche, die direkt im Fluss arbeiten. Minentechnisch gewonnenes Erz wird zuvor mechanisch auf geeignete Korngrößen zerkleinert und das zermahlene Gestein in ähnlicher Weise bearbeitet. Dieses Verfahren geht auch der nachfolgend beschriebenen weiteren Ausnutzung der goldführenden Sande und Schlämme voraus. Amalgamverfahren. Neben seiner hohen Dichte kann die Legierungsbildung zu Amalgam zwischen Gold und Quecksilber zur Goldgewinnung und -reinigung genutzt werden. Hierbei werden goldhaltige Sande und Schlämme intensiv mit Quecksilber vermischt. Das Gold aber auch eventuell andere vorhandene gediegene Metalle wie beispielsweise Silber lösen sich dabei im Quecksilber. Goldamalgam hat eine silberne Farbe; je nachdem, wie viel Quecksilber im Überschuss vorliegt, ist es flüssig bis pastös teigig und der Schmelzpunkt der Legierung ist geringer. Amalgam und Quecksilber sammeln sich wegen der hohen Dichte am Gefäßgrund, das Quecksilber lässt man abfließen. Durch Erhitzen des Amalgams (wie bei der Feuervergoldung detailliert beschrieben) verdampft das Quecksilber und zurück bleibt kompaktes Rohgold. Das Amalgamverfahren wurde bereits in der Antike angewendet. Die entstehenden Quecksilberdämpfe stellen bei unsachgemäßer Handhabung eine große gesundheitliche Gefahr dar (siehe Quecksilbervergiftung). Speziell einfache Goldschürfer praktizieren keine Wiedergewinnung des Quecksilbers (durch Destillation oder Absaugung und Abfilterung mit Aktivkohle). Stattdessen wird das Amalgam in offenen Blechgefäßen mithilfe von Lötlampen und sonstigen Gasbrennern erhitzt. Das Quecksilber (Siedepunkt 357 °C) dampft dabei in die Umgebungsluft ab und kondensiert alsbald in der Umwelt, was zur Quecksilberverseuchung dieser Landstriche, der Flüsse und der dort lebenden Menschen führt. Es wurde geschätzt, dass 20 bis 30 Prozent des weltweit geförderten Goldes durch nicht industrielles Schürfen, also von Goldsuchern gewonnen wird. Cyanidlaugung. Bei größeren Vorkommen, die eine industrielle Erschließung erlauben, wird seit Ende des 19. Jahrhunderts die "Cyanidlaugung" angewendet. Vor dem Hintergrund, dass sich Gold in sauerstoffhaltiger Natriumcyanid-Lösung (Natriumsalz der Blausäure HCN) als Komplexverbindung löst, werden die metallhaltigen Sande staubfein gemahlen, aufgeschichtet und im Rieselverfahren mit der Extraktionslösung unter freiem Luftzutritt versetzt. Die kleinsten Metallteilchen werden hierbei zuerst aufgelöst, weil sie die relativ größte Reaktionsoberfläche haben. Das Edelmetall findet sich chemisch gebunden im hochgiftigen Sickerwasser. Nach Filtration und Ausfällung mit Zinkstaub erhält man es als braunen Schlamm, aus dem nach Waschen und Trocknen durch Reduktion Rohgold wird. Hieran schließt sich die Reinigung des Rohgoldes an. Raffiniert zu Feingold ist es dann standardisiert und marktreif. Die Cyanidlaugen werden in Kreislaufprozessen wiederverwendet. Dennoch entweichen Blausäure und ihre Salze (Cyanide) in die Umwelt, teilweise auch in größeren Mengen, etwa bei Unglücken, Fehlfunktionen der Anlage, Überschwemmungen etc. Alle diese Stoffe sind hochgiftig, allerdings auch leicht zersetzbar. Im Stoffkreislauf der Natur werden sie relativ schnell oxidativ abgebaut oder durch Hydrolyse zersetzt. Diese Art der Goldgewinnung hinterlässt enorme Abraumhalden und Stäube mit Cyanidspuren. Umweltschäden entstehen auch dadurch, dass Schlamm in Ländern mit geringer Umweltüberwachung unkontrolliert in Flüsse abgeleitet wird oder Schlammabsetzbecken bersten, wie im Jahr 2000 im rumänischen Baia-Mare. Boraxverfahren. Ein umweltfreundlicheres Verfahren stellt die Goldextraktion und -reinigung mithilfe von Borax (Natriumborat) dar. Der Zusatz von Borax als schlackenbildendes Flussmittel beim Schmelzen von verunreinigtem Gold setzt Schmelzpunkt und Viskosität der Schmelze aus Oxiden und Silikaten der Begleitstoffe ("nicht des Goldes" wie es oft fälschlicherweise angegeben wird) herab, sodass das Schmelzen auch mit einfacheren kostengünstigen Brennern (mit Zusatz von Holzkohle und extra Luftzufuhr unter Verwendung eines Haartrockners oder Blasebalgs) erfolgen kann, wobei auch die Ausbeute der Extraktion erhöht wird. Das Gold (oder bei Anwesenheit von Silber eine Gold-Silber-Legierung) setzt sich dabei am Boden der Schmelzpfanne ab, die Oxide schwimmen auf. Gelegentlich werden auch andere Flussmittel zugesetzt (beispielsweise Calciumfluorid, Natriumcarbonat, Natriumnitrat oder Mangandioxid). Würden alle Goldschürfer auf der Welt dieses Verfahren anwenden, könnte die Emission von rund 1000 Tonnen Quecksilber, etwa 30 % der weltweiten Quecksilber-Emissionen, vermieden werden. Anodenschlammverfahren. Gold wird häufig aus Anodenschlämmen gewonnen, die bei der Raffination anderer Metalle, vor allem von Kupfer, zurückbleiben. Während der Elektrolyse wird das edle Gold nicht oxidiert und nicht gelöst; es sammelt sich unter der Anode an. Neben Gold fallen dabei auch Silber und andere Edelmetalle an, die durch geeignete Verfahren voneinander getrennt werden. Wiedergewinnung aus Reststoffen (Recycling). Eine wichtige Quelle des Edelmetalls ist die Aufbereitung von Dental- und Schmuckverarbeitungsabfällen sowie alten edelmetallhaltigen Materialien, wie selektierter Elektronikschrott und Galvanikschlämme. Auch in den Klärschlämmen der Städte sind bemerkenswerte Goldspuren enthalten, die von der Nutzung, der Verarbeitung und dem Verschleiß von Goldlegierungen (Abrieb von Zahnfüllungen, Schmuckkettenglieder, Verlust usw.) stammen. September 2013 berieten Österreichs Krematorienbetreiber, wie mit dem Gold verbrannter Verstorbener rechtlich umgegangen werden soll, das bislang verklumpt mit Knochenasche in der Urne den Hinterbliebenen ausgefolgt wird. Versuche zur Goldgewinnung aus dem Meer. Fritz Haber versuchte in den 1920er Jahren, Gold aus dem Meerwasser zu gewinnen, womit die deutschen Reparationen bezahlt werden sollten. Die durchschnittliche Ausbeute war mit 0,004 Milligramm Gold pro Tonne Meerwasser für eine wirtschaftliche Verwertung jedoch zu gering, als dass das Verfahren lohnend erschien. Durch moderne Messmethoden wurde festgestellt, dass der Atlantik und der Nordöstliche Pazifik 50–150 Femtomol (fmol) Gold pro Liter Wasser beinhaltet. Das entspricht 0,010–0,030 mg/m³. Im Tiefenwasser des Mittelmeers misst man eher höhere Werte um die 100–150 fmol Gold pro Liter Meerwasser. Insgesamt ergibt das 15.000 Tonnen Gold in den Weltmeeren. Goldsynthese. Die Hoffnung, Gold künstlich herstellen zu können, wurde von vielen Kulturen über Jahrhunderte vergeblich gehegt. Dabei entstand unter anderem die Legende vom sog. "Stein der Weisen", der Gold aus unedlen Metallen herstellen können sollte. Im elften Jahrhundert bis in das Mittelalter definierte man die Alchemie als „künstliche Darstellung von Silber und Gold“ oder schlicht als „Goldmacherei“. Das auf der Erde vorkommende Gold ist – wie alle Elemente, die schwerer sind als Eisen – bei dem Supernova-Kernkollaps unseres Sonnenvorgängers entstanden. Gold entsteht auch bei verschiedenen kerntechnischen Prozessen (Kernfusion resp. Kernfission) in winzigen, atomaren Mengen. Umweltauswirkungen. Beträchtliche Mengen von hochgiftigem Quecksilber, schon bei der Goldgewinnung mit ausgeschwemmt oder beim Verdampfen wissentlich in die Umwelt freigesetzt, vergiften große Gebiete und Flussläufe dauerhaft. Da Goldgewinnung oft improvisatorische Züge trägt und fernab von effektiver behördlicher Überwachung stattfindet, werden Umweltaspekte untergeordnet oder ignoriert. Die negativen Umweltauswirkungen führen häufig auch zu Konflikten zwischen den Goldschürfern und der einheimischen Bevölkerung. Es gibt jedoch auch erste Projekte ökologischen Goldabbaus, wie das "Oro Verde" in Kolumbien. Für Barren, deren Gold aus dieser Mine stammt, wurde im Februar 2011 erstmals das Fair-Trade-Siegel vergeben. Gold als Mineral. Gold kommt in der Natur gediegen vor und ist deshalb als Mineral anerkannt. Die International Mineralogical Association (IMA) führt es gemäß der Systematik der Minerale nach Strunz (9. Auflage) unter der System-Nr. „1.AA.05“ (Elemente – Metalle und intermetallische Verbindungen – Kupfer-Cupalit-Familie) (8. Auflage: "I/A.01-40"). Die im englischsprachigen Raum ebenfalls geläufige Systematik der Minerale nach Dana führt das Element-Mineral unter der System-Nr. „1.1.1.1“. Gold kristallisiert im kubischen Kristallsystem, hat eine Härte von 2,5 bis 3, eine metallisch-sattgelbe Farbe, die entsprechend als „goldgelb“ bekannt ist, und eine ebensolche Strichfarbe. In feiner Verteilung ist es je nach Korngröße gelblich, ockerbraun bis purpurviolett und wird dann als Goldpurpur bezeichnet. Mit zunehmender Temperatur verliert Feingold an Farbintensität und ist hellgelb glühend, bevor es schmilzt. Das geschmolzene Metall ist zitronengelb, leicht grünlich und erhält seine intensive gelborange Farbe erst wieder, wenn es vollständig abgekühlt ist. Beimengungen von Kupfer lassen es rosa oder rötlich erscheinen, senken die Schmelztemperatur und steigern zugleich Härte, Festigkeit und Polierbarkeit beträchtlich. Steigende Silberanteile verändern die Farbe des reinen Goldes über hellgelb nach hellgrün und schließlich zu weiß; Schmelztemperatur und Härte verändern sich dabei nur sehr wenig. Die meisten Metalle, so auch die bekannten Platinmetalle, Quecksilber und die Eisenmetalle, führen als Beimischungen dagegen in steigenden Anteilen zu einer Entfärbung in Form einer eher schmutziggelbgrauen bis grauweißen Legierung. So variiert die Farbe von Palladiumhaltigem Gold ("Porpezit") zwischen Lohfarben und einem hellen Braun. Da Gold ein relativ reaktionsträges Element ist, behält es gewöhnlich seinen Glanz und Farbe und ist daher in der Natur leicht zu erkennen. Daneben kommt Gold auch als Bestandteil von Mineralen vor. Beispiele hierfür sind Calaverit, Krennerit und Sylvanit (Schrifterz). Physikalische Eigenschaften. Goldkristalle, synthetisch im Labor gezüchtet Gold besteht aus nur einem stabilen Isotop und gehört damit zu den 22 Reinelementen. Das Schwermetall ist unlegiert weich wie Zinn. Gold lässt sich aufgrund seiner Duktilität zu Blattgold schlagen und zu besonders dünnen Folien von etwa 2000 Atomlagen ausrollen. Deshalb verwendete Ernest Rutherford Goldfolie für seinen Streuversuch. Weißes Licht schimmert grünlich durch Goldfolie. Darüber hinaus lässt es sich leicht mit vielen Metallen legieren. Einige der ungewöhnlichen Eigenschaften wie die goldgelbe Farbe und hohe Duktilität lassen sich nach neueren Berechnungen am besten mit dem relativistischen Effekt erklären. In der Oberflächenchemie werden verschiedene Flächen von Au-Einkristallen u. a. in der Rastertunnelmikroskopie eingesetzt (siehe Abbildung). Die spezifische Verdampfungsenthalpie ΔHv von Gold ist mit 1,70 kJ/g wesentlich geringer als beispielsweise diejenige von Wasser (mit 2,26 kJ/g) oder Eisen (6,26 kJ/g, alle für die Siedetemperatur bestimmt). Bei überhitzten Goldschmelzen können daher (wie auch bei anderen Schmelzemanipulationen etwa in der Stahlindustrie) beträchtliche Rauch- und Verdampfungsverluste auftreten, sofern der Schmelzvorgang ohne Abdichtung oder Absaugung und Abscheidung in Aktivkohle erfolgt. Chemische Eigenschaften. Die Halogene Chlor, Brom und Iod vermögen Gold zu lösen, letzteres sogar in alkoholischer Lösung. In wässrigen Cyanidlösungen ist Gold leicht unter Oxidation durch Sauerstoff als Kaliumdicyanidoaurat(I) löslich. In heißen, sauren hydrothermalen Lösungen ist Gold relativ gut physikalisch löslich. Demzufolge wird es oft in Quarzgesteinen mit vorgefunden. Es wurde auch beobachtet, dass einige Huminsäuren in der Lage sind, Gold anzulösen. Verwendung. Das derzeit geförderte Gold wird zu etwa 85 % zu Schmuck verarbeitet, 12 % verwendet die Industrie (Elektronik, Medizin, Optik). Die restlichen 3 % gelangen in Tresore von Banken. Siehe hierzu auch Tabelle zu Angebot und Nachfrage. Reinheit und Feingehalt. Die Reinheit von Gold wird historisch in Karat (abgekürzt kt) angegeben. 24 Karat entsprechen purem Gold (Feingold). Mit Einführung des metrischen Systems wurde die Umstellung auf Promille-Angaben vorgenommen. So bedeutet der Stempeleindruck „750“ in Goldware, dass das Metall von 1000 Gewichtsanteilen 750 Anteile (d. h. ¾) reines Gold enthält, entsprechend 18 Karat („585“ entspricht 14 Karat, „375“ entspricht 9 Karat und „333“ entspricht 8 Karat). Bullionmünzen haben entweder 916,6 Promille (Krugerrand, Britannia, American Eagle) oder 999,9 Promille Gold (Wiener Philharmoniker, Maple Leaf, Nugget, American Buffalo). Die Reinheit kann aber auch mit einer Dezimalzahl angegeben werden, zum Beispiel als 0,999 oder 1,000 (Feingold). Der exakte Feingehalt von Edelmetallen kann nur im Labor festgestellt werden. Im Alltag behelfen sich Goldschmiede, Münzsammler etc. zur annähernden Bestimmung des Feingehaltes darum mit der Strichprobe. Hochwertiger Schmuck wird international üblicherweise aus Goldlegierungen mit einem Feingehalt von 750 oder höher angefertigt. Dabei ist Wahl des verwendeten Feingehaltes auch von regionalen und kulturellen Vorlieben beeinflusst. So werden auf dem amerikanischen Kontinent vor allem Legierungen mit 585 ‰ Goldanteil verwendet, während im Nahen Osten sattgelber Goldschmuck ab Feingehalten von etwa 20 bis 22 kt (833–916 ‰) aufwärts besonders geschätzt wird. In Südostasien und im chinesisch, thailändisch und malaiisch beeinflussten Kulturkreis geht dies traditionell sogar bis hin zum Schmuck aus reinem Feingold, der in der dortigen Kultur als besonders hochwertig betrachtet wird. Die Anteile an eventuell enthaltenen anderen Edelmetallen (Silber, Palladium, Platin, Rhodium, Iridium u. a.) wird bei der Stempelung nicht berücksichtigt. Währung und Wertanlage. Gold dient in Form von Anlagegold (Goldmünzen und Barrengold) als internationales Zahlungsmittel und wird von vielen Zentralbanken der Welt als Währungsreserve eingelagert, obwohl heute die Währungen nicht mehr durch Goldreserven gedeckt sind. Private und institutionelle Anleger investieren außerdem in Gold und in Wertpapiere, die den Goldkurs abbilden. In Krisenzeiten (z. B. Inflation oder Wirtschaftskrise) wird Gold als stabile Wertanlage (siehe Gold als Kapitalanlage) gesehen, die Wertsteigerungen relativ zu anderen Wertanlagen erfahren kann. Der intrinsische Wert von Gold wird durch seine relative Seltenheit und durch die durchschnittlich aufgebrachte Arbeitsleistung bei seiner Förderung bestimmt. Deswegen hat Gold kein Ausfallrisiko wie sonstige Papiergeldanlagen, wo die Zinsrate sich nach dem wahrgenommen Ausfallrisiko der Marktteilnehmer richtet. Bei dieser Betrachtung wird allerdings häufig ausgeblendet, dass der Goldpreis im Zeitablauf auch starken Schwankungen ausgesetzt ist. Goldpreis. Der Preis des Goldes wird auf dem offenen Markt bestimmt. Das geschieht seit dem 17. Jahrhundert am London Bullion Market. Seit dem 12. September 1919 treffen sich wichtige Goldhändler in einer Rothschild-Bank in London, um den Goldpreis formal zu fixieren (siehe Goldfixing). Seit 1968 gibt es ein weiteres tägliches Treffen in der Bank um 15 Uhr Londoner Zeit, um den Preis zur Öffnungszeit der US-Börsen erneut festzulegen. Der Goldpreis kann auch von Marktteilnehmern mit großen Goldreserven, etwa Zentralbanken und Goldminen-Gesellschaften, erheblich beeinflusst werden. Soll der Goldpreis sinken, so wird Gold verliehen (um Leerverkäufe zu provozieren) oder verkauft, oder aber die Goldförderung wird gesteigert. Soll der Goldpreis steigen, so kaufen die Zentralbanken Gold auf bzw. die Goldförderung wird gedrosselt. Allerdings haben hier die goldbesitzenden Zentralbanken auch nur eingeschränkte Möglichkeiten. So umfasst der gesamte Goldbesitz aller Zentralbanken mit etwa 30.750 Tonnen (Stand Dezember 2011) nur knapp 19 % der weltweit vorhandenen Goldmenge von 170.000 Tonnen. Wichtige Faktoren, die auf den Goldpreis Einfluss nehmen, sind der Ölpreis und der aktuelle Kurs des US-Dollar, da Gold in dieser Währung gehandelt wird. Am 17. März 1968 wurde der Goldpreis gespalten und ein zweigliedriges System eingeführt. Der eine Preis konnte sich frei dem Markt anpassen, der andere war fix. 1973 wurde der Goldpreis freigegeben, und der Besitz von Gold war in den USA wieder erlaubt. China hat den Privatbesitz von Gold 1983 wieder erlaubt (siehe Goldverbot). Für den standardisierten Goldhandel an Rohstoffbörsen wurde „XAU“ als eigenes Währungskürzel nach ISO 4217 vergeben. Es bezeichnet den Preis einer Feinunze Gold. Gold als Währung oder Währungsdeckung. Historisch wurde Gold seit Jahrtausenden als Währung eingesetzt. Eine Geldeinheit entsprach einer bestimmten Menge Gold. In Deutschland war während des Deutschen Reichs von 1871 bis 1918 das gesetzliche Zahlungsmittel die Goldmark (siehe auch Kurantmünze), wobei 2,79 Goldmark einem Gramm Gold entsprachen und die Reichsbank gegen Vorlage einer Banknote die entsprechende Menge in physisches Gold eintauschte. Die Golddeckung wurde zu Beginn des Ersten Weltkrieges aufgehoben und konnte danach nicht wieder eingeführt werden wegen der Reparationen, die die Goldreserven des Deutschen Reiches verschlangen. Die daraus resultierende zwangsweise Umstellung auf nicht-goldgedecktes Geld (Vertrauenswährung oder Fiat Money) ermöglichte erst die Hyperinflation der 1920er Jahre. Lange Zeit entsprachen in den Vereinigten Staaten 20,67 US-Dollar einer Unze Gold. 1934 fand eine Abwertung des US-Dollars durch die Neufestlegung des Goldpreises auf 35 US-Dollar je Feinunze statt. Das neue Verhältnis wurde im Bretton-Woods-System von 1944 bestätigt. Um Gold als Währungsalternative auszuschließen und um die Währungsreserven (Goldreserve) zu erhöhen, war der Goldbesitz in den USA zeitweise verboten. Von 1933 bis 1973 war Goldbesitz nur in Form von Schmuck und Münzsammlungen erlaubt. Präsident Franklin D. Roosevelt ließ Gold über die "Executive Order 6102" konfiszieren, und Präsident Richard Nixon unterband 1971, dass nicht-US-amerikanische Nationalbanken US-Dollars zu einem fixen Preis gegen Gold wechseln konnten. Da der Goldstandard die herausgegebene Geldmenge und die Höhe der Staatsverschuldung beschränkt, waren die Regierungen daran interessiert, ihre Währungen vom Gold zu lösen. In beiden Weltkriegen wurde der Goldstandard aufgegeben, da die benötigten Geldmittel zur Kriegsproduktion nur per Inflation aufzubringen waren. Heutzutage sind sämtliche Währungen der Welt vom Gold losgelöst, und erst dadurch war die extreme Ausweitung der heutigen Geldmengen und Schulden möglich. Die heute vorhandene Goldmenge würde zu den aktuellen Kursen nicht als Wertdeckung für eine bedeutsame Währung ausreichen. Das im Januar 2006 vorhandene Gold entsprach einem Marktwert von 2,5 Billionen € und wäre hypothetisch somit gerade einmal geeignet gewesen, die damaligen Staatsschulden Deutschlands und Spaniens zu decken. Im Falle einer erneuten Deckung von bedeutenden Währungen müsste der Goldkurs auf ein Vielfaches ansteigen. Weltweiter Goldbestand. In der gesamten Geschichte der Menschheit wurden bisher schätzungsweise 170.000 Tonnen Gold geschürft. (Stand 2011) Dies entspricht einem Würfel mit 20,65 Metern Kantenlänge (rund 8800 Kubikmetern) reinem Gold, und rund 24,3 g (also etwas mehr als ein Kubikzentimeter) pro Kopf der Weltbevölkerung. Prüfung der Echtheit. Das Wiegen hat den Vorteil der Einfachheit, kann aber nur mit einer Feinwaage exakt erfolgen. Zudem gibt es Abweichungen bei stark zerklüfteten und unregelmäßig geformten Goldstücken. Beim Säuretest muss ein Teil des Prüflings abgerieben werden, man muss also einen Materialverlust in Kauf nehmen. Die Röntgenfluoreszenzspektrometrie ist genau und ohne Materialverlust, jedoch muss die notwendige Ausstattung vorhanden sein. Da das Innere eines Barrens o. ä. für alle handhabbaren Untersuchungsmethoden unerreichbar ist, kann ein endgültiger Beweis über die Reinheit und Echtheit nur nach vollständigem Aufschmelzen geführt werden. Elektronik. a>-Anschlussbuchse eines Studiomikrofones mit vergoldeten Kontaktstiften Optik. Gold reflektiert Infrarotlicht sehr gut (98 % bei Wellenlängen > 700 nm) sowie rotes und gelbes Licht besser als blaues und violettes, deshalb werden wärmereflektierende Beschichtungen auf Gläsern, Strahlteiler und Spiegel – auch Laserspiegel für Laser im mittleren Infrarot – aus Goldschichten hergestellt (Sputtern, Bedampfen, auch mit Schutzschicht). Gold ist ein Dotand von Germanium (Germanium-Gold, kurz Ge:Au) – einem Halbleiter zum Nachweis von Infrarot von 1 bis etwa 8 µm Wellenlänge bei Kühlung auf 77 K nach dem Prinzip der Photoleitung. Medizin. Wegen seiner Korrosionsbeständigkeit und ästhetischen Qualitäten wird es in der Zahnprothetik als Füll- oder Ersatzmaterial für defekte oder fehlende Zähne eingesetzt. Einige Goldsalze werden heilend zur Rheumatherapie eingesetzt. Die Goldsalze Natriumaurothiomalat und Auranofin werden als Basistherapie gegen rheumatoide Arthritis (chronische Polyarthritis) angewendet. In neuerer Zeit jedoch verdrängen preisgünstigere Medikamente eine Behandlung mit goldhaltigen Therapeutika. Allerdings haben medizinisch eingesetzte Goldverbindungen auch Nebenwirkungen. Es kann zu allergischen Reaktionen und bei unsachgemäßer Anwendung zu einer Schädigung von Leber, Blut und Nieren kommen. Etwa 50 % der Therapien mit Goldsalzen werden aufgrund der unerwünschten Wirkungen abgebrochen. Die volle Wirkung einer Goldtherapie setzt erst nach mehreren Monaten ein. 1913 ließ der Arzneimittelhersteller Madaus das homöopathische Präparat "Essentia Aurea: Goldtropfen" patentieren, das unter der Marke "Herzgold" verkauft und gegen Herz- und allgemeine Schwächezustände angewandt wurde. Goldverbindungen können aufgrund der Giftigkeit des Verbindungspartners zum Teil sehr giftig sein. Die farblosen Goldcyanide und die zitronengelbe Tetrachloridogoldsäure zählen dazu. Dekoration und Schmuck. a>n bestehen aus mindestens 92,5 % reinem Silber und sind mit mindestens sechs Gramm Gold vergoldet Anwendung findet Gold in der Schmuckindustrie, die es zu Ringen, Ketten, Armbändern und anderem Schmuck verarbeitet. Der Edelmetallgehalt wird durch die Repunze beglaubigt. Einige Orden sind aus Gold gefertigt (z. B. Kutusoworden). Goldfolie, auch Blattgold genannt, wird seit der Antike verwendet. Hergestellt aus hochgoldhaltigen Legierungen, wird es dünner als die Wellenlänge des sichtbaren Lichtes gewalzt und geschlagen. Im Auflicht glänzt es goldgelb, im Gegenlicht scheint grünlich-blau die Lichtquelle durch und bildet auch das Schlagmuster des Metalls ab, weshalb es auch meistens auf einer entsprechend präparierten Unterlage aufgetragen wird. Verwendet wird es, um nichtmetallischen Gegenständen, wie Bilderrahmen, Büchern (Goldschnitt), Mobiliar, Figuren, Architekturelementen, Stuck, Ikonen etc., das Aussehen von echtem Gold zu geben. Mit 1 Gramm Blattgold kann man einen halben Quadratmeter Fläche überziehen. Im Speisenbereich dient es in Form von Blattgold und Blattgoldflocken als Lebensmittelzusatzstoff E 175 zum Vergolden von Speisen, zum Beispiel für Überzüge von Süßwaren und zur Verzierung von Pralinen, und in Getränken, zum Beispiel Danziger Goldwasser und Schwabacher Goldwasser. Metallisches Gold gilt als ungiftig, reichert sich im Körper nicht an und wird für gewöhnlich mit dem Rest der verdauten Nahrung wieder ausgeschieden. Dekorativ findet Gold vielfältige Anwendungen, zum Beispiel in galvanischen Beschichtungen von Metallen und Kunststoffen. Auf Porzellanglasuren, Zahnersatzkeramiken und Glas lassen sich Goldpigmente einbrennen. Historisch war die Feuervergoldung von Metallen mit Hilfe der Gold-Quecksilber-Legierungen, sogenannter Amalgame, nachweislich schon in der Antike die einzig brauchbare Methode, um dauerhafte Vergoldungen auf Silber, Bronze oder unedlen Metallen herzustellen. Mit der Entwicklung galvanischer Vergoldungsbäder im späten 19. Jahrhundert und 20. Jahrhundert wurde dieser Bereich in den Möglichkeiten qualitativ erweitert und ersetzt. Goldpigmente wurden historisch in der Glasherstellung seit dem 16. Jahrhundert eingesetzt (Goldrubinglas), werden allerdings heute weitgehend durch preiswertere Verfahren ersetzt. Nanopartikel. Nanoskopisch vorliegende metallische Goldpartikel, also solche mit einer Größe im Nanometer-Maßstab, sind in jüngster Zeit Schwerpunkt intensiver Forschung geworden, weil ihre Verwendung als heterogene Katalysatoren in organisch-chemischen Reaktionen neue, Lösungsmittel-freie Verfahren zulässt. Dies ist Teil eines Prozesses der Umgestaltung der chemischen Produktionsweisen in Richtung einer grünen Chemie. In diesem Zusammenhang wurde entdeckt, dass Gold-Nanopartikel nach Adsorption chiraler Substanzen selbst chirale Strukturen aufweisen können. Die Chiralität dieser Partikel kann durch die Enantiomere der Adsorbentien gesteuert werden, bleibt jedoch erhalten, wenn in achiraler (racemischer) Umgebung verfahren wird. Allgemeines. Klassische Goldlegierungen für Schmuck gehören dem Dreistoffsystem Gold-Silber-Kupfer an. Ein Grund dafür ist, dass diese Metalle auch natürlich miteinander vorkommen und es bis ins 19. Jahrhundert in Europa verboten war, Gold mit anderen Metallen als Kupfer und Silber zu legieren. Das Farbspektrum derartiger Goldlegierungen reicht von sattgelb über hellgrün und lachsrosa bis hin zu silberweiß. Diese Legierungen sind leicht herstellbar und gut zu verarbeiten. Je nach Anforderung werden durch Zusatz weiterer Metalle die Legierungseigenschaften wie erwünscht beeinflusst. So senken beispielsweise kleinere Zusätze von Zink, Indium, Zinn, Cadmium oder Gallium die Schmelztemperaturen und die Oberflächenspannung der Metallschmelze bei nur geringfügiger Änderung der Farbe der Legierung. Dies ist eine Eigenschaft, die der Verwendung als Lotlegierungen für andere Goldwerkstoffe entgegenkommt. Andere Zusätze wie Platin, Nickel oder höhere Kupferanteile erhöhen beträchtlich die Härte der Metallmischung, verändern aber andererseits die schöne Farbigkeit des Goldes negativ. Zusätze wie Blei ("bleihaltiges Lötzinn"), Bismut und viele Leichtmetalle machen Goldlegierungen spröde, sodass diese nicht mehr verformbar sind. Doch nicht nur die Art, sondern auch die Menge der zugesetzten Metalle verändert die Goldlegierungen in gewünschter Weise. Ist z. B. eine schöne satte Eigenfarbe erwünscht, so wird man sich im Bereich der sehr edlen Goldlegierungen mit mindestens dreiviertel Massenteilen Gold bewegen. Höchste Festigkeit und Härte werden andererseits bei den eher blasseren Goldlegierungen mit einem Feingehalt um 585 erreicht, weshalb dieses empirisch gefundene Legierungsverhältnis seit langem verwendet wurde. Legierungen mit einem deutlich geringeren Feingehalt als diese sind hingegen aufgrund der unedlen Beimischungen durch langfristige Korrosionseffekte bedroht. Weiterhin ist zu unterscheiden, ob die Legierungen als Gussmaterial verarbeitet werden sollen oder wie herkömmlich als Knetlegierungen, also schmiedbar, zur Kaltverformung geeignet sein müssen. Erstere beinhalten z. B. Kornfeinungszusätze im Zehntelpromillebereich, die beim langsamen Erstarren der Schmelze in der Gussform das Kristallwachstum günstig beeinflussen, Zusätze von etwas Silicium unterdrücken die Oberflächenoxidation beim Erhitzen in der Luft, verschlechtern aber die Kaltbearbeitungsfähigkeit und Lötbarkeit. Legieren bedeutet in diesem Zusammenhang letztendlich immer ein „Verdünnen“ des reinen Goldes, man „verdünnt“ aber auch seine geschätzten Eigenschaften wie Farbe, Korrosionsfestigkeit, Preis, Dichte, gewinnt andererseits z. B. mechanische Festigkeit und Polierfähigkeit hinzu. Edelmetallanteile und Korrosionsfestigkeit. Die gebrauchsfreundlichen Eigenschaften, das „Edle“ der Goldlegierungen, wird durch das Verhältnis von Edelmetallatomen zur Gesamtanzahl der Atome in der Legierung bestimmt. Deren Eigenschaften wie Korrosionsfestigkeit, Farbwirkung oder intermetallische Bindung werden durch dieses Stückzahlenverhältnis festgelegt. Die Stoffmenge, das Mol und die Stöchiometrie weisen darauf. Der Gewichtsanteil bestimmt nur indirekt die Eigenschaften und ist darüber hinaus sehr von den verwendeten Zusatzmetallen abhängig. Gold mit der Atommasse 197 und Kupferatome mit der Massenzahl 63 (nur rund ein Drittel) bilden z. B. eine Legierung mit dem Atomverhältnis 1:1. Dieses Legierungsbeispiel zeigt ein Gewichtsanteil von 756 Teilen Feingold und suggeriert über das Gewicht einen hohen Edelmetallgehalt. Genau betrachtet jedoch beträgt dieser über den Anteil der Goldatome (die Stückzahl) nur 50 %. Empirisch wird jedoch eine Legierung unter 50 Atomprozent Gold von Säuren angreifbar. Je kleiner die Atommassen der Legierungszusätze, desto drastischer fällt dieser Effekt aus. So betrachtet sind bei den üblicherweise verwendeten 750er-Goldlegierungen bereits nur ca. die Hälfte der Legierungsatome Gold. Extremes Beispiel ist eine 333er-Goldlegierung, hier kommen nur 2 Goldatome auf 9 Zusatzatome. Dies erklärt auch die sehr unedlen Eigenschaften dieses Materials, wie hohe Anlaufneigung, Korrosionsverhalten und geringe Farbtiefe. Viele Goldschmiede und Länder, z. B. die Schweiz, lehnen es ab, diese Legierung noch als „Gold“ aufzufassen. Farbgoldlegierungen. Farben von Legierungen aus Gold, Silber und Kupfer Die Zahlangabe 750/ooo (z.B.) - egal ob bei Weißgold, Rotgold oder Gelbgold - sagt immer automatisch aus, dass dieselbe Menge Feingold in der jeweiligen Legierung enthalten ist. Kupfer, Silber und/oder Palladium und andere Legierbestandteile wechseln jedoch - je nach Farbe der Goldlegierung - in ihrer mengenmäßigen Zusammensetzung. Rotgold. Rotgold ist eine Goldlegierung, bestehend aus Feingold, Kupfer und gegebenenfalls etwas Silber, um die mechanische Verarbeitbarkeit zu verbessern. Der relativ hohe Kupferanteil, der deutlich über dem des Silbers liegt, ist für die namensgebende „rote“ Färbung und Härte des Materials verantwortlich. Der Farbton ist kupferähnlich. Regional sind bestimmte Goldfarbtönungen beliebt; so werden im Osten und Süden Europas eher dunklere und farbstarke rötlichere Goldlegierungen verwendet. Umgangssprachlich wurde Rotgold in der DDR auch als "Russengold" bezeichnet; teilweise ist in Süddeutschland auch heute noch der Begriff "Türkengold" gebräuchlich. Russengold hat den ungebräuchlichen Feingehalt von 583 und ist daran sehr gut zu erkennen. Die Färbung ist auch etwas heller als bei heutigem Rotgold. Gelbgold. Dabei handelt es sich um eine dem Feingold ähnelnde gelbe Goldlegierung aus Feingold mit Silber und Kupfer. Das Verhältnis beeinflusst die Farbe. Mit abnehmendem Goldgehalt reduziert sich auch die Tiefe des Gelbtons sehr schnell. Üblicherweise ist das Verhältnis der dem Gold zugesetzten Metalle untereinander ca. 1:1; die Tönungen und Farbintensität können stufenlos und beliebig gewählt werden. Die Farbe reicht von hellgelb mit deutlichem Silberanteil bis zu gelborange mit dem umgekehrten Verhältnis zum Kupferzusatz. Gelbgold ist durch ihren hohen Erkennungswert weltweit mit Abstand die beliebteste Goldfarbe. Grüngold. Grüngold ist eine grünlichgelbe Goldlegierung ohne Kupferzusatz. Die Farbe entsteht durch Annäherung an das Atomverhältnis Gold:Silber 1:1, was im optimalen Fall einem Goldanteil von 646 entspricht, bei dem der deutlichste Grünton auftritt. Da in diesem Falle der Silberanteil schon über 40 % beträgt, ist der Farbton relativ hell. Bis zu einem Drittel des Silbers lässt sich durch Cadmium ersetzen, was den Grünton intensiviert, die günstigen Anlaufeigenschaften und die Schmelztemperatur allerdings reduziert. Die Legierungen sind sehr weich und wenig farbstark. Grüngold wird selten verwendet, üblicherweise z. B. zur Darstellung von Laubblättern oder Ähnlichem. Weißgold und Graugold. Weißgold als Sammelbegriff bezeichnet Goldlegierungen, die durch Beimischung deutlich entfärbender Zusatzmetalle eine weiß-blassgetönte Goldlegierung ergeben. Als Legierungszusätze werden hauptsächlich das Platinnebenmetall Palladium, (früher sehr häufig) Nickel oder bei niedrigen Goldgehalten Silber verwendet. Die Entfärbung des von Natur aus gelben Goldes tritt kontinuierlich ein und setzt eine gewisse Menge des entfärbenden Zusatzes voraus; der Rest, der dann noch bis zum berechneten Gesamtvolumen fehlt, wird oft aus Kupfer/Silber gestellt. Diese fast farblosen Werkstoffe wurden in den Jahren 1912/13 als kostengünstiger und punzierfähiger Platinersatz für Schmuckzwecke in Pforzheim entwickelt und werbewirksam als "Weißgold" eingeführt. Im frankophonen Sprachraum sind diese Werkstoffe treffender als „or gris“, "Graugold" bekannt. Ziel war ein gut zu verarbeitendes, anlaufbeständiges Material, in dem farblose Brillanten hervorragend ihre Wirkung zeigen konnten. Bis dato war man auf Silber, das nachdunkelt, oder eben Platin und das etwas dunklere und leichtere Palladium angewiesen. Folgerichtig existieren auch vor dieser Zeit keine Schmuckstücke mit Weißgold. Viele Metalle bilden mit Gold „weiße“ Legierungen, so Quecksilber, Eisen, das dadurch mitnichten rostfrei wird, und auch Platin, das eine schwere, teurere und sehr gut aushärtbare Legierung mit Gold bildet. Die in präkolumbischer Zeit in Südamerika hergestellten Platinobjekte bestehen aus diesem weißlich-beige bis schmutzig-grau aussehenden Material. "Nickelhaltiges Weißgold" (eine Gold-Kupfer-Nickel-Zink-Legierung mit variablen 10–13 % Nickelanteil) kann auch als durch den Nickelzusatz entfärbte Rotgoldlegierung aufgefasst werden; demzufolge ist es auch relativ hart und kann bis zur Federhärte gewalzt, gezogen oder geschmiedet werden. Die hohe Grundfestigkeit ermöglicht beispielsweise geringere Wandstärken bei gleicher Stabilität. Weitere Eigenschaften wie hervorragende Zerspanbarkeit und Polierbarkeit sind von großem Vorteil. Dazu kommen noch der niedrige Schmelzpunkt und günstigere Preis, der wiederum daraus resultiert, dass keine weiteren Edelmetalle im Zusatz enthalten sind und die Dichte geringer ist als beim palladiumlegierten Pendant. Für mechanisch beanspruchte Teile wie Broschierungen, Nadeln, Scharniere und Verbindungsteile wird dieses Material von den Schmuckherstellern und Juwelieren aufgrund der Festigkeit sehr geschätzt. Nickelweißgold ist die Basis von weißgoldenen Lotlegierungen. Da jedoch der Nickelanteil auf der Haut allergische Reaktionen hervorrufen kann, wird es mittlerweile in fast allen modernen Schmucklegierungen weitestgehend vermieden. Die edlere Alternative ist "palladiumhaltiges Weißgold", eigentlich treffender als Graugold zu bezeichnen. Es ist vergleichsweise weich, wobei es unterschiedliche Rezepturen von harten bis weichen Legierungen gibt. Es handelt sich um Mehrstofflegierungen mit bis zu sechs Komponenten. Der Grundfarbton der palladiumbasierten Goldmischungen ist Allgemein dunkler, eben „grauer“ als der des nickelbasierten Weißgoldes. Der Palladiumzusatz mit ca. 13–16 % muss höher als beim Nickelweißgold gewählt werden, um die Gesamtmischung vergleichbar zu entfärben. Üblicherweise werden diese Weiß-/Graugoldlegierungen meistens nach der Bearbeitung sowieso rhodiniert. Daher ist es weniger wichtig, dass die Legierung so ganz farbrein weiß oder hellgrau erscheint, und man spart bewusst am Palladiumzusatz, der doch sehr den Preis auftreibt und zudem die Mischung nachteilig auch dunkler färbt. Nativ sehen diese Werkstoffe demzufolge oft leicht beige aus. Der Vergleich mit Platin oder Silber ist augenfällig. Die Verarbeitungseigenschaften, wie Zerspanbarkeit, die bei maschinellem Drehen beispielsweise von Trauringen (österr.: Ehering) gefordert ist, stellen andere Anforderungen an die Werkzeuge. Die Gießeigenschaften (höherer Schmelzpunkt und höhere Oberflächenspannung der Schmelze) unterscheiden sich auch vom nickelbasierten Pendant. Eine strukturelle Zähigkeit der Legierungen erhöht z. B. den Aufwand der Hochglanzpolitur in ungewohnter Weise. Nachteilig ist der erhöhte Preis durch den nicht unbeträchtlichen Palladiumanteil und die höhere Dichte des Materials. Positiv zeigen die Legierungen ihren hohen Anteil an Edelmetallen (Gold-Palladium-Silber) in deren Eigenschaften. Ein Schmuckstück in Palladiumweißgold ist derzeit (Januar 2007) ca. 20 % teurer als das vergleichbare aus Gelbgold bei gleichem Feingehalt. Anbieter von Goldlegierungen entwickeln immer wieder neuartige Werkstoffe. So gibt es Weißgoldlegierungen mit Cobalt, Chrom, Mangan-Germanium und anderen Metallen. Verarbeitungsprobleme, Preisentwicklungen oder mangelnde Akzeptanz der Kunden lassen solche neuen Goldlegierungen häufig schnell wieder vom Markt verschwinden. Da sich „weißes“ Gold nicht elektrochemisch abscheiden lässt, werden Schmuckerzeugnisse aus Weißgold in der Regel auf galvanischem Wege rhodiniert. Dieser Überzug mit Rhodium, einem Platin-Nebenmetall, bewirkt eine Farbverbesserung hin zu einem reinen, silberartigen Weiß sowie eine verbesserte Kratzfestigkeit gegenüber der unbeschichteten Metalloberfläche aus reinem Weißgold. Dieser Rhodiumüberzug muss nicht explizit angegeben werden. Durch Abtragen dieses Überzuges kommt das eigentliche Weiß- oder Graugold wieder zum Vorschein, was z. B. bei Trauringen oft zu optischen Beeinträchtigungen führt. In den letzten Jahren werden daher Weißgoldringe bewusst in ihrer Naturfarbe verkauft, um Enttäuschungen beim Verbraucher zu vermeiden. Titan-Gold-Legierung. Eine aushärtbare Titan-Gold-Legierung mit 99 % Gold und 1 % Titan wird in der Trauringherstellung und Medizintechnik eingesetzt. Der hohe Edelmetallanteil in Verbindung mit hoher Festigkeit machen den Werkstoff interessant. Die gelbe Farbe ist vergleichbar mit der von 750 Gelbgold, jedoch „grauer“. Durch den Titanzusatz ist die Legierung beim Schmelzen sehr empfindlich und reagiert mit Sauerstoff und Stickstoff. Metaphorische Verwendung und Symbolik. Mit Gold, das für wertvoll und kostbar steht, bezeichnet man auch andere wertvolle Sachen. Meist wird ein Adjektiv davor gesetzt, wie zum Beispiel „Schwarzes Gold“ für Öl. Wörter und Redewendungen, in denen "Gold" vorkommt, sind zudem in ihrer Bedeutung meist positiv oder euphemistisch besetzt. Allerdings gibt es zu diesen positiv besetzten Ausdrücken auch Gegenbeispiele, so sind z. B. "goldene Wasserhähne" nicht nur Zeichen von großem Luxus, sondern auch Sinnbild für Dekadenz. Als „Blutgold“ wurden illegal ausgeführte Goldmengen während des Zweiten Kongokriegs bezeichnet, mit denen die beteiligten Milizen ihre Waffenkäufe finanzierten (vgl. auch →"Blutdiamanten"). Schrottsammler bezeichnen Kupfer mit „Gold“, da sie unter den gängigen Metallen für Kupfer den höchsten Preis erzielen. In der Heraldik wird Gold, wegen seiner gelben Farbe, als Metall bezeichnet, das zu den heraldischen Tinkturen zählt. Goldimitate. Vor allem aufgrund des hohen Preises von Gold hat man Legierungen aus unedlen Metallen entwickelt, die als Goldimitat benutzt werden oder als Unterlage bei der Herstellung von Doublé Verwendung finden. Dies sind in den meisten Fällen ungenormte Kupferlegierungen mit den verschiedensten Zusätzen. Besteht eine solche Legierung aus mindestens 50 % Kupferanteil, manchmal auch geringfügig darunter liegend, kombiniert mit Zink als Hauptlegierungsanteil (bis über 44 %), so bezeichnet man sie als "Messing". Manchmal ist hier bis zu 3 % Blei enthalten, um die Zerspanbarkeit des nicht leicht zu verarbeitenden Messings zu erhöhen. Steigt der Kupferanteil des Messings auf über 67 %, so nennt man es "Tombak". Von "Sondermessing" spricht man, wenn kleine Mengen von Aluminium, Eisen, Mangan, Nickel, Silicium, Zinn oder in seltenen Fällen auch Gold hinzulegiert sind. Auch aus Edelmetallen werden Legierungen hergestellt, die wie Gold erscheinen können, ohne dass Gold in ihnen enthalten ist. Bei manchen Legierungen wird jedoch auch Gold selbst in geringen Anteilen hinzugegeben. Verbindungen. Gold kommt in seinen Verbindungen hauptsächlich in den Oxidationsstufen +1 und +3 vor. Daneben kennt man auch −1-, +2- und +5-wertiges Gold. Goldverbindungen sind jedoch sehr instabil und zersetzen sich bei Erwärmung leicht unter Entstehung von elementarem Gold. Biologische Bedeutung. Gold und Goldverbindungen sind für Lebewesen nicht essentiell. Da Gold in Magensäure unlöslich ist, ist beim Verzehr (z. B. als Dekoration) von reinem, metallischem Gold keine Vergiftung zu befürchten. Reichern sich hingegen Gold-Ionen, zum Beispiel bei übermäßiger Aufnahme von Goldsalzen, im Körper an, kann es zu Symptomen einer Schwermetallvergiftung kommen. Die meisten Pflanzenwurzeln werden durch Gabe (hoher Mengen) an Goldsalzen geschädigt. Es gibt Menschen, die allergisch auf Goldlegierungen reagieren (Nachweisversuche mittels Natriumthioaurosulfat sind schwierig und unsicher). Diese Goldallergie ist allerdings extrem selten und noch nicht ausreichend untersucht. Bei der Verwendung von Goldfüllungen und anderem goldhaltigen Zahnersatz ist zu beachten, dass Goldlegierungen auch andere Bestandteile enthalten und eine allergisierende Wirkung meist von den anderen Bestandteilen, beispielsweise Zink, ausgelöst werden kann. Gallium. Gallium ist ein selten vorkommendes chemisches Element mit dem Elementsymbol Ga und der Ordnungszahl 31. Im Periodensystem steht es in der 4. Periode und ist das dritte Element der 3. Hauptgruppe, 13. IUPAC-Gruppe, oder Borgruppe. Es ist ein silberweißes, leicht zu verflüssigendes Metall. Gallium kristallisiert nicht in einer der sonst häufig bei Metallen anzutreffenden Kristallstrukturen, sondern in seiner stabilsten Modifikation in einer orthorhombischen Struktur mit Gallium-Dimeren. Daneben sind noch sechs weitere Modifikationen bekannt, die sich bei speziellen Kristallisationsbedingungen oder unter hohem Druck bilden. In seinen chemischen Eigenschaften ähnelt das Metall stark dem Aluminium. In der Natur kommt Gallium nur in geringem Umfang und meist als Beimischung in Aluminium-, Zink- oder Germaniumerzen vor; Galliumminerale sind sehr selten. Dementsprechend wird es auch als Nebenprodukt bei der Produktion von Aluminium oder Zink gewonnen. Der größte Teil des Galliums wird zum Halbleiter Galliumarsenid weiterverarbeitet, der vor allem für Leuchtdioden verwendet wird. Geschichte. Paul Émile Lecoq de Boisbaudran Erstmals wurde ein dem späteren Gallium entsprechendes Element 1871 von Dmitri Mendelejew vorausgesagt. Er prognostizierte mit Hilfe des von ihm entwickelten Periodensystems ein neues, "Eka-Aluminium" genanntes Element und sagte auch einige Eigenschaften dieses Elementes (Atommasse, spezifisches Gewicht, Schmelzpunktlage und Art der Salze) voraus. Der französische Chemiker Paul Émile Lecoq de Boisbaudran, der Mendelejews Voraussagen nicht kannte, hatte herausgefunden, dass in der Linienabfolge im Linienspektrum von Elementfamilien bestimmte Gesetze herrschen, und versuchte diese für die Aluminiumfamilie zu bestätigen. Dabei erkannte er, dass zwischen Aluminium und Indium ein weiteres, noch unbekanntes Element stehen müsse. 1875 gelang es ihm schließlich, im Emissionsspektrum von Zinkblende-Erz, das er in Säure gelöst und mit metallischem Zink versetzt hatte, zwei violette Spektrallinien nachzuweisen, die er dem unbekannten Element zuordnete. Anschließend konnte Lecoq de Boisbaudran aus einigen Hundert Kilogramm Zinkblende eine größere Menge Galliumhydroxid gewinnen. Daraus stellte er durch Lösen in einer Kaliumcarbonatlösung und Elektrolyse erstmals elementares Gallium dar. Für die Namensgebung gibt es zwei Theorien. Nach der ersten benannte Boisbaudran das Element nach Gallien, der lateinischen Bezeichnung seines Heimatlandes Frankreich. Die zweite gibt das ebenfalls lateinische Wort "gallus" (Hahn) als Quelle des Namens an, das im Französischen "Le Coq" heißt. Paul Émile "Lecoq" de Boisbaudran hätte das neue Element demnach nach seinem eigenen Namen benannt. Nachdem die Eigenschaften des neuen Elementes bestimmt waren, erkannte Mendelejew schnell, dass es sich dabei um das von ihm vorausberechnete Eka-Aluminium handeln müsse. Viele Eigenschaften stimmten sehr genau mit den vorausberechneten Werten überein. So wich der theoretisch ermittelte Wert der Dichte von 5,9 nur sehr wenig vom experimentellen von 5,904 ab. Vorkommen. Gallium ist auf der Erde ein seltenes Element, mit einem Gehalt von 19 ppm in der kontinentalen Erdkruste ist seine Häufigkeit vergleichbar mit derjenigen von Lithium und Blei. Es kommt nicht elementar, sondern nur gebunden vor, vorwiegend in Aluminium-, Zink- oder Germaniumerzen. Zu den galliumreichsten Erzen zählen Bauxite, Zinkblende-Erze und Germanit. Die Galliumgehalte sind meist gering, so enthält der in Surinam gefundene Bauxit mit dem höchsten bekannten Gehalt nur 0,008 % Gallium. Die weltweit in Bauxit befindlichen Galliumreserven werden auf 1,6 · 106 Tonnen geschätzt. Höhere Gehalte mit bis zu 1 % Gallium kommen in Germanit vor. Lediglich in der Apex-Mine im US-Bundesstaat Utah kommen so hohe Gehalte in den Erzen vor, dass ein Abbau zur Galliumgewinnung versucht wurde. Dies scheiterte jedoch nach kurzer Zeit aus Rentabilitätsgründen. Nur wenige Galliumminerale sind bekannt, zu diesen zählen die vorwiegend in Tsumeb in Namibia gefundenen Gallit (CuGaS2), Söhngeit (Ga(OH)3) und Tsumgallit (GaO(OH)). Gewinnung und Darstellung. Kristalle aus 99,999 % Gallium Gallium wird als Nebenprodukt bei der Aluminiumherstellung aus Bauxit im Bayer-Verfahren gewonnen. Als Ausgangsprodukt dient das dabei in Natronlauge gelöste Gemisch von Natriumaluminat und Natriumgallat. Durch verschiedene Verfahren kann hieraus Gallium vom Aluminium getrennt werden. Eine Möglichkeit ist die fraktionierte Kristallisation mit Hilfe von Kohlenstoffdioxid, wobei zunächst bevorzugt Aluminiumhydroxid ausfällt, während sich das leichter lösliche Natriumgallat in der Natronlauge anreichert. Erst nach weiteren Prozessschritten wird Galliumhydroxid gefällt, vermischt mit Aluminiumhydroxid. Anschließend wird das Gemisch in Natronlauge gelöst und Gallium durch Elektrolyse gewonnen. Da dieses Verfahren energie- und arbeitsaufwändig ist, wird es nur in Ländern mit geringen Kosten dafür, etwa der Volksrepublik China, angewendet. Gallium kann auch direkt durch Elektrolyse aus der Natronlauge gewonnen werden. Dazu werden Quecksilberkathoden eingesetzt, wobei sich bei der Elektrolyse ein Galliumamalgam bildet. Auch das Versetzen der Lösung mit Natriumamalgam ist möglich. Mit Hilfe spezieller Hydroxychinoline als Chelatliganden ist es möglich, Gallium aus der Natronlauge mit Kerosin zu extrahieren und so vom Aluminium zu trennen. Weitere Elemente, die dabei ebenfalls extrahiert werden, können mit verdünnten Säuren abgetrennt werden. Anschließend wird die verbliebene Galliumverbindung in konzentrierter Salz- oder Schwefelsäure gelöst und elektrolytisch zum Metall reduziert. Für viele technische Anwendungen wird sehr reines Gallium benötigt, für Halbleiter beispielsweise darf es mitunter nur ein Hundertmillionstel an Fremdstoffen enthalten. Mögliche Reinigungsverfahren sind Vakuumdestillation, fraktionierte Kristallisation oder Zonenschmelzen. Die Menge an produziertem Gallium ist gering, 2008 betrug die Weltprimärproduktion 95 Tonnen. Eine weitere wichtige Quelle ist das Wiederaufbereiten von galliumhaltigen Abfällen, daraus wurden 2008 weitere 135 Tonnen Gallium gewonnen. Hauptproduktionsländer sind die Volksrepublik China, Deutschland, Kasachstan und die Ukraine, für das Galliumrecycling auch die Vereinigten Staaten, Japan und das Vereinigte Königreich. Im Labormaßstab lässt sich Gallium durch Elektrolyse einer Lösung von Galliumhydroxid in Natronlauge an Platin- oder Wolfram-Elektroden darstellen. Eigenschaften. Flüssiges Gallium beginnt zu kristallisieren Physikalische Eigenschaften. Gallium ist ein silberweißes, weiches (Mohs-Härte: 1,5) Metall. Es hat einen für Metalle ungewöhnlich niedrigen Schmelzpunkt, der bei 29,76 °C liegt. Es ist damit nach Quecksilber und Caesium das Metall mit dem niedrigsten Schmelzpunkt, der auch deutlich unter denjenigen der benachbarten Elemente Aluminium und Indium liegt. Verantwortlich hierfür ist wahrscheinlich die ungewöhnliche Kristallstruktur, die im Gegensatz zu den Strukturen anderer Metalle keine hohe Symmetrie aufweist und daher nicht sehr stabil ist. Da der Siedepunkt mit 2400 °C vergleichsweise hoch liegt, besitzt Gallium einen ungewöhnlich großen Bereich, in dem es flüssig ist. Auf Grund der schwierigen Kristallisation lässt sich flüssiges Gallium leicht unter den Schmelzpunkt abkühlen (Unterkühlung) und kristallisiert bei der Bildung von Kristallisationskeimen schlagartig. Gallium besitzt wie Silicium, einige andere Elemente und Wasser eine Dichteanomalie, seine Dichte ist im flüssigen Zustand um etwa 3,2 % höher als in fester Form. Dies ist typisch für Stoffe, die im festen Zustand molekulare Bindungen besitzen. Gallium ist im festen Zustand diamagnetisch, wird jedoch im flüssigen Zustand paramagnetisch (formula_1 = 2,4 · 10−6 bei 40 °C) Charakteristisch für seine Strukturen ist das Ausbilden von Gallium-Gallium-Bindungen. Es sind verschiedene Modifikationen bekannt, die sich unter unterschiedlichen Kristallisationsbedingungen (vier bekannte Modifikationen, α- bis δ-Gallium, unter Normaldruck) und unter Druck bilden (insgesamt drei weitere Hochdruckmodifikationen, Ga-II, Ga-III, Ga-IV). Die bei Raumtemperatur stabilste Modifikation ist das α-Gallium, das in einer orthorhombischen Schichtstruktur kristallisiert. Dabei bilden jeweils zwei über eine kovalente Bindung aneinander gebundene Atome ein Dimer. Jedes Galliumatom grenzt zusätzlich an sechs weitere Atome anderer Dimere. Zwischen den einzelnen Dimeren herrschen metallische Bindungen. Die Galliumdimere sind so stabil, dass sie auch beim Schmelzen zunächst erhalten bleiben und auch in der Gasphase nachweisbar sind. Weitere Modifikationen bilden sich bei der Kristallisation von unterkühltem, flüssigem Gallium. Bei −16,3 °C bildet sich β-Gallium, das eine monokline Kristallstruktur besitzt. In der Struktur liegen parallel angeordnete Zickzackketten aus Galliumatomen vor. Tritt die Kristallisation bei einer Temperatur von −19,4 °C ein, bildet sich trigonales δ-Gallium, in dem vergleichbar mit α-Bor verzerrte Ikosaeder aus zwölf Galliumatomen vorliegen. Diese sind über einzelne Galliumatome miteinander verbunden. Bei −35,6 °C entsteht schließlich γ-Gallium. In dieser orthorhombischen Modifikation bilden sich Röhren aus miteinander verbundenen Ga7-Ringen aus, in deren Mitte eine lineare Kette aus weiteren Galliumatomen liegt. Wird Gallium bei Raumtemperatur unter hohen Druck gesetzt, so bilden sich bei Druckerhöhung nacheinander verschiedene Hochdruckmodifikationen. Ab 30 kbar ist die kubische Gallium-II-Modifikation stabil, bei der jedes Atom von jeweils acht weiteren umgeben ist. Wird der Druck auf 140 kbar erhöht, kristallisiert das Metall nun als tetragonales Gallium-III in einer Struktur, die derjenigen des Indiums entspricht. Wird der Druck weiter auf etwa 1200 kbar erhöht, bildet sich schließlich die kubisch-flächenzentrierte Struktur des Gallium-IV. Chemische Eigenschaften. 99,9999 % (6N) Gallium, versiegelt in einer Vakuumampulle Die chemischen Eigenschaften von Gallium ähneln denen des Aluminiums. Wie dieses ist Gallium durch die Bildung einer dichten Oxidschicht an der Luft passiviert und reagiert nicht. Erst in reinem Sauerstoff bei hohem Druck verbrennt das Metall mit heller Flamme unter Bildung des Oxides. Ähnlich reagiert es auch nicht mit Wasser, da sich hierbei das unlösliche Galliumhydroxid bildet. Ist dagegen Gallium mit Aluminium legiert und durch die Schmelzpunkterniedrigung bei Raumtemperatur flüssig, so reagiert es sehr heftig mit Wasser. Auch mit Halogenen reagiert Gallium schnell unter Bildung der entsprechenden Salze GaX3. Gallium ist amphoter und sowohl in Säuren als auch in Basen unter Wasserstoffentwicklung löslich. In Säuren bilden sich analog zu Aluminium Salze mit Ga3+-Ionen, in Basen Gallate der Form [Ga(OH)4]−. In verdünnten Säuren löst es sich dabei langsam, in Königswasser und konzentrierter Natronlauge schnell. Durch Salpetersäure wird Gallium passiviert. Die meisten Metalle werden von flüssigem Gallium angegriffen, so dass es nur in Behältern aus Quarz, Glas, Graphit, Aluminiumoxid, Wolfram bis 800 °C und Tantal bis 450 °C aufbewahrt werden kann. Isotope. Es sind insgesamt 30 Galliumisotope zwischen 56Ga und 86Ga und weitere sieben Kernisomere bekannt. Von diesen sind zwei, 69Ga und 71Ga stabil und kommen auch in der Natur vor. In der natürlichen Isotopenzusammensetzung überwiegt 69Ga mit 60,12 %, 39,88 % sind 71Ga. Von den instabilen Isotopen besitzt 67Ga mit 3,26 Tagen die längste Halbwertszeit, die übrigen Halbwertszeiten reichen von Sekunden bis maximal 14,1 Stunden bei 72Ga. Zwei Galliumisotope, 67Ga und das mit 67,71 Minuten Halbwertszeit kurzlebige 68Ga werden in der Nuklearmedizin als Tracer für die Positronen-Emissions-Tomographie genutzt. 67Ga wird dabei in einem Cyclotron erzeugt, während bei der Erzeugung von 68Ga kein Cyclotron nötig ist. Stattdessen wird das längerlebige Germaniumisotop 68Ge durch Bestrahlung von 69Ga mit Protonen erzeugt. Dieses zerfällt zu 68Ga, wobei das entstandene 68Ga in einem Gallium-68-Generator extrahiert werden kann. Für Untersuchungen wird das Gallium in der Regel in einem Komplex mit einem stark chelatisierenden Liganden wie 1,4,7,10-Tetraazacyclododecan-1,4,7,10-tetraessigsäure (DOTA) gebunden. "→ Liste der Gallium-Isotope" Verwendung. Auf Grund der Seltenheit des Elementes wird Gallium nur in geringem Umfang verwendet. Aus dem größten Teil des produzierten Galliums werden verschiedene Galliumverbindungen hergestellt. Die mit Abstand ökonomisch wichtigsten sind die mit Elementen der 5. Hauptgruppe, vor allem Galliumarsenid, das unter anderem für Solarzellen und Leuchtdioden benötigt wird. Im Jahre 2003 wurden 95 % des produzierten Galliums hierzu verarbeitet. Daneben dient es auch als Material zur Dotierung von Silicium (p-Dotierung). Der große Temperaturbereich, in dem das Element flüssig ist, und der gleichzeitig niedrige Dampfdruck werden für den Bau von Thermometern (als Bestandteil von Galinstan) ausgenutzt. Galliumthermometer lassen sich bis zu Temperaturen von 1200 °C einsetzen. Flüssiges Gallium kann als Sperrflüssigkeit zur Volumenmessung von Gasen bei höheren Temperaturen sowie als flüssiges Elektrodenmaterial bei der Gewinnung von Reinstmetallen wie Indium verwendet werden. Gallium besitzt eine hohe Benetzbarkeit und ein gutes Reflexionsvermögen und wird darum als Beschichtung für Spiegel eingesetzt. Weiterhin wird es in Schmelzlegierungen, für Wärmetauscher in Kernreaktoren und als Ersatz für Quecksilber in Lampen eingesetzt. Legierungen von Gallium mit anderen Metallen haben verschiedene Einsatzgebiete. Magnetische Werkstoffe entstehen durch Legieren mit Gadolinium, Eisen, Yttrium, Lithium und Magnesium. Die Legierung mit Vanadium in der Zusammensetzung V3Ga ist ein Supraleiter mit der vergleichsweise hohen Sprungtemperatur von 16,8 K. In Kernwaffen wird es mit Plutonium legiert, um Phasenumwandlungen zu verhindern. Viele Galliumlegierungen wie Galinstan sind bei Raumtemperatur flüssig und können das giftige Quecksilber oder die sehr reaktiven Natrium-Kalium-Legierungen ersetzen. Aufgrund seines niedrigen Schwellenwerts für den Neutrinoeinfang von nur 233,2 keV eignet sich Gallium als Detektormaterial zum Nachweis solarer Neutrinos (vgl. Sonnenneutrinoexperiment Gallex). Nachweis. Gallium lässt sich mit verschiedenen typischen Farbreaktionen qualitativ nachweisen. Dazu zählen die Reaktion mit Rhodamin B in Benzol, das bei Zusatz von Gallium orangegelb bis rotviolett fluoresziert, Morin, das wie bei der Reaktion mit Aluminium eine grüne Fluoreszenz zeigt, und Kaliumhexacyanidoferrat(III), mit dem Gallium einen weißen Niederschlag aus Galliumhexacyanidoferrat(III) bildet. Weiterhin ist ein spektroskopischer Nachweis über die charakteristischen violetten Spektrallinien bei 417,1 und 403,1 nm möglich. Quantitative Nachweise können über komplexometrische Titrationen, beispielsweise mit Ethylendiamintetraessigsäure oder über die Atomabsorptionsspektrometrie erfolgen. Toxikologie und biologische Bedeutung. Für Galliummetall existieren keine toxikologischen Daten; es wirkt jedoch reizend auf Haut, Augen und Atemwege. Die Verbindungen Gallium(III)-nitrat Ga(NO3)3 und Gallium(III)-oxid Ga2O3 besitzen orale LD50-Werte im Grammbereich: 4,360 g/kg für das Nitrat und 10 g/kg für das Oxid. Gallium wird daher als gering toxisch angesehen und spielt, soweit bekannt, als Spurenelement keine Rolle für den Menschen. Verbindungen. Gallium kommt in Verbindungen fast ausschließlich in der Oxidationsstufe +3 vor. Daneben sind seltene und meist sehr instabile Gallium(I)-Verbindungen bekannt sowie solche, die sowohl ein- als auch dreiwertiges Gallium enthalten (formal Gallium(II)-Verbindungen). Verbindungen mit Elementen der Stickstoffgruppe. Die technisch wichtigsten Verbindungen des Galliums sind diejenigen mit den Elementen der Stickstoffgruppe. Galliumnitrid, Galliumphosphid, Galliumarsenid und Galliumantimonid sind typische Halbleiter (III-V-Halbleiter) und werden für Transistoren, Dioden und andere Bauteile der Elektronik verwendet. Insbesondere Leuchtdioden verschiedener Farben werden als Gallium-Stickstoffgruppen-Verbindungen hergestellt. Die von der Bandlücke abhängige Farbe kann dabei durch das unterschiedliche Verhältnis der Anionen oder auch durch das Ersetzen von Gallium durch Aluminium oder Indium eingestellt werden. Galliumarsenid wird darüber hinaus für Solarzellen verwendet. Insbesondere bei Satelliten werden diese eingesetzt, da Galliumarsenid widerstandsfähiger gegen ionisierende Strahlung als Silicium ist. Halogenide. Galliumhalogenide der Form GaX3 ähneln in vielen Eigenschaften den entsprechenden Aluminiumverbindungen. Mit Ausnahme des Gallium(III)-fluorides kommen sie als Dimer in einer Aluminiumbromidstruktur vor. Als einziges Halogenid hat Gallium(III)-chlorid eine geringe wirtschaftliche Bedeutung. Es wird als Lewis-Säure in Friedel-Crafts-Reaktionen eingesetzt. Weitere Verbindungen. Gallium(III)-oxid ist wie Aluminiumoxid ein farbloser, hochschmelzender Feststoff. Es kommt in fünf verschiedenen Modifikationen vor, von denen die kubische β-Modifikation am stabilsten ist. Organische Galliumverbindungen existieren als "Gallane" GaR3, "Gallylene" GaR und als "höhere Gallane", die Gallium-Gallium-Bindungen enthalten. Sie sind wie viele andere metallorganische Verbindungen instabil gegen Luft und Hydrolyse. Eine der wenigen galliumorganischen Verbindungen mit wirtschaftlicher Bedeutung ist Trimethylgallium, das als Dotierungsreagenz und für die Erzeugung dünner Schichten an Galliumarsenid und Galliumnitrid in der metallorganischen Gasphasenepitaxie eingesetzt wird. Einen Überblick über Galliumverbindungen gibt die. Gadolinium. Gadolinium ist ein chemisches Element mit dem Elementsymbol Gd und der Ordnungszahl 64. Im Periodensystem steht es in der Gruppe der Lanthanoide und zählt damit auch zu den Metallen der seltenen Erden. Geschichte. Das Element wurde erstmals 1880 vom Schweizer Chemiker Jean Charles Galissard de Marignac entdeckt. Er untersuchte dabei die Bestandteile von Samarskit und ihre unterschiedliche Löslichkeit in Kaliumsulfat-Lösungen. Es bildeten sich je nach Löslichkeit mehrere Fraktionen. In einer der Fraktionen fand er im Absorptionsspektrum die Spektrallinien eines unbekannten Elements. Dieses nannte er, da er nicht ausreichend Material für eine exakte Bestimmung erhalten konnte, Yα. Daneben fand er in einer weiteren Fraktion das ihm ebenfalls unbekannte Yβ, hierbei stellte sich jedoch schnell heraus, dass es sich um das schon von Marc Delafontaine und Paul Émile Lecoq de Boisbaudran gefundene Samarium handelte. Nachdem die Existenz von Yα von William Crookes und Paul Émile Lecoq de Boisbaudran bestätigt werden konnte, nannte Lecoq de Boisbaudran am 19. April 1886 das neue Element in Absprache mit Marignac "Gadolinium", zu Ehren des finnischen Chemikers Johan Gadolin, mit dem Symbol Gd. Metallisches Gadolinium wurde erstmals 1935 von Félix Trombe gewonnen. Er nutzte dafür die elektrolytische Reduktion einer Schmelze aus Gadolinium(III)-chlorid, Kaliumchlorid und Lithiumchlorid bei 625–675 °C an Cadmiumelektroden. Kurze Zeit später entdeckte er zusammen mit Georges Urbain und Pierre-Ernest Weiss den Ferromagnetismus des Elements. Vorkommen. Gadolinium ist auf der Erde ein seltenes Element, sein Anteil an der kontinentalen Erdkruste beträgt etwa 6,2 ppm. Das Element kommt in vielen Mineralen der Seltenerdmetalle in unterschiedlichen Gehalten vor. Besonders hoch ist der Gadoliniumgehalt in Mineralen der Yttererden wie Xenotim, in Xenotimvorkommen aus Malaysia beträgt der Gadoliniumanteil etwa 4 %. Aber auch Monazit enthält je nach Lagerstätte 1,5 bis 2 % des Elements, in Bastnäsit ist der Anteil mit 0,15 bis 0,7 % dagegen geringer. Es ist nur ein einziges Mineral bekannt, in dem Gadolinium das Seltenerdmetall mit dem höchsten Anteil ist. Dabei handelt es sich um das sehr seltene Uranylcarbonat Lepersonnit-(Gd) mit der chemischen Zusammensetzung Ca(Gd,Dy)2(UO2)24(SiO4)4(CO3)8(OH)24 · 48H2O. Gewinnung und Darstellung. Auf Grund der Ähnlichkeit, und da Gadolinium nur in geringen Mengen in den Erzen enthalten ist, ist die Abtrennung von den anderen Lanthanoiden schwierig. Nach dem Aufschluss der Ausgangsmaterialien wie Monazit oder Bastnäsit mit Schwefelsäure oder Natronlauge sind verschiedene Wege zur Abtrennung möglich. Neben Ionenaustausch ist besonders ein auf der Flüssig-Flüssig-Extraktion basierendes Verfahren wichtig. Dabei wird bei Bastnäsit als Ausgangsmaterial zunächst das Cer in Form von Cer(IV)-oxid abgetrennt und die verbleibenden Seltenen Erden in Salzsäure gelöst. Daraufhin werden mit Hilfe einer Mischung von DEHPA (Di(2-ethylhexyl)phosphorsäure) und Kerosin in Flüssig-Flüssig-Extraktion Europium, Gadolinium, Samarium und die schwereren Seltenerdmetalle von den leichten getrennt. Ersteres lässt sich chemisch durch Reduktion zu zweiwertigem Europium und Fällung als schwerlösliches Europium(II)-sulfat abtrennen. Für die Trennung von Gadolinium, Samarium und dem Rest wird wiederum die Flüssig-Flüssig-Extraktion genutzt. Die Mischung wird in verdünnter Salzsäure gelöst, mit einer Mischung von DEHPA und Trimethylbenzolen (Shellsol A) behandelt und in einer Mixer-Settler-Apparatur getrennt. Die Gewinnung elementaren Gadoliniums ist über die Reduktion von Gadolinium(III)-fluorid mit Calcium möglich. Gadolinium wird nur in geringerem Umfang produziert und benötigt, wichtigster Produzent ist wie bei allen Seltenerdmetallen die Volksrepublik China. Physikalische Eigenschaften. Das silbrigweiß bis grauweiß glänzende Metall der seltenen Erden ist duktil und schmiedbar. Es kristallisiert in einer hexagonal-dichtesten Kristallstruktur mit den Gitterparametern a = 363 pm und c = 578 pm. Oberhalb von 1262 °C geht die Struktur in eine kubisch-raumzentrierte Struktur über. Neben dieser Hochtemperaturphase sind mehrere Hochdruckphasen bekannt. Die Abfolge der Phasen entspricht dabei der der anderen Lanthanoide (außer Europium und Ytterbium). Auf die hexagonale Struktur folgt (jeweils bei Raumtemperatur) bei Drücken über 1,5 GPa eine Struktur vom Samarium-Typ, oberhalb von 6,5 GPa ist eine doppelt-hexagonale Kristallstruktur stabil. Eine kubisch-flächenzentrierte Packung ist bei Drücken zwischen 26 und 33 GPa am stabilsten. Bei noch größeren Drücken sind noch eine doppelt-kubisch-flächenzentrierte Struktur sowie das monokline Gd-VIII bekannt. Gadolinium ist neben Dysprosium, Holmium, Erbium, Terbium und Thulium eines der Lanthanoide, das Ferromagnetismus besitzt. Mit einer Curie-Temperatur von 292,5 K (19,3 °C) besitzt es die höchste Curie-Temperatur aller Lanthanoide, nur Eisen, Cobalt und Nickel besitzen höhere. Oberhalb dieser Temperatur ist es paramagnetisch mit einer magnetischen Suszeptibilität χ"m" von 0,12. Aufgrund dieser magnetischen Eigenschaften hat Gadolinium auch eine sehr stark temperaturabhängige Wärmekapazität. Bei tiefen Temperaturen (unter 4 K) dominiert zunächst, wie bei Metallen üblich, die elektronische Wärmekapazität "C"el (wobei "C"el = γ·"T" mit γ = 6,38 mJ·mol−1·K−2 und "T" der Temperatur). Für höhere Temperaturen ist die Debyesche Wärmekapazität (mit der Debye-Temperatur ΘD = 163,4 K) ausschlaggebend. Unterhalb der Curie-Temperatur nimmt die Wärmekapazität dann stark zu, was auf das Spinsystem zurückzuführen ist. Sie erreicht 56 J·mol−1·K−1 bei 290 K, um bei höheren Temperaturen fast schlagartig auf unter 31 J·mol−1·K−1 einzubrechen. Gadolinium ist Bestandteil keramischer Hochtemperatur-Supraleiter des Typs Ba2GdCu3O7-x mit einer Sprungtemperatur von 94,5 K. Das reine Element ist nicht supraleitfähig. Gadolinium hat mit 49.000 barn wegen seines enthaltenen Isotops Gd-157 (mit 254.000 barn) den höchsten Einfangquerschnitt für thermische Neutronen aller bekannten stabilen Elemente (nur das instabile Xe-135 erreicht etwa das zehnfache von Gd-157). Die hohe Abbrandrate ("burn-out-rate") schränkt eine Verwendung als Steuerstab in Kernreaktoren stark ein. Chemische Eigenschaften. In trockener Luft ist Gadolinium relativ beständig, in feuchter Luft bildet es eine nichtschützende, lose anhaftende und abblätternde Oxidschicht aus. Mit Wasser reagiert es langsam. In verdünnten Säuren löst es sich auf. Stäube von metallischem Gadolinium sind feuer- und explosionsgefährlich. Verwendung. Gadolinium wird zur Herstellung von Gadolinium-Yttrium-Granat für Mikrowellenanwendungen verwendet. Oxysulfide dienen zur Herstellung von grünem Leuchtstoff für nachleuchtende Bildschirme (Radar). Intravenös injizierte Gadolinium(III)-Verbindungen, wie zum Beispiel Gadopentetat-Dimeglumin, dienen als Kontrastmittel bei Untersuchungen im Kernspintomographen. Dazu werden wegen der hohen Giftigkeit von freien Gadolinium-Ionen Komplexierungsmittel mit hoher Komplexierungskonstante, wie beispielsweise die Chelate DTPA (Diethylentriaminpentaessigsäure) und DOTA (1,4,7,10-Tetraazacyclododecan-1,4,7,10-tetraessigsäure, mit Gd = Gadotersäure), verwendet. Durch die sieben ungepaarten Elektronen in der f-Schale ist Gadolinium stark paramagnetisch. Das Kontrastmittel ermöglicht so den umgebenden Protonen – im Wesentlichen Wasser – schneller zu relaxieren. Dies erhöht die Kontrastunterschiede zwischen verschiedenen Geweben in einer MRT-Aufnahme erheblich. Gadolinium wird intravenös verabfolgt, um bspw. Tumoren und entzündliche Veränderungen im Gehirn darzustellen. Bei Störungen der Blut-Liquor Schranke kommt es zu einer Anreicherung im verdächtigen Bereich und liefert somit wichtige diagnostischen Informationen. Gadolinium-Gallium-Granat wurde zur Herstellung von Magnetblasenspeichern genutzt. Auch in der Herstellung von wiederbeschreibbaren Compact Discs findet es Anwendung. Zusätze von 1 % Gadolinium erhöhen die Bearbeitbarkeit und die Hochtemperatur- und Oxidationsbeständigkeit von Eisen- und Chromlegierungen. Entsprechende Gadolinium-Eisen-Kobalt-Legierungen können zur optomagnetischen Datenspeicherung eingesetzt werden. Gadolinium könnte, da es einen Curie-Punkt nahe der Zimmertemperatur besitzt, in Kühlgeräten, die nach dem Prinzip der adiabatischen Magnetisierung funktionieren, Verwendung finden. Solche Kühlgeräte würden ohne Ozonschichtschädigende Fluorchlorkohlenwasserstoffe (FCKW) auskommen und besäßen keine verschleißenden mechanischen Teile. Gadolinium wird in Form von Gadoliniumoxid in modernen Brennelementen als abbrennbares Absorbermaterial verwendet, das nach einem Brennelementewechsel zu Beginn des Betriebszyklus die durch einen Überschuss an Kernbrennstoff entstehende zu hohe Reaktivität des Reaktors begrenzt. Mit zunehmendem Abbrand der Brennelemente wird auch das Gadolinium abgebaut. Mit Terbium dotiertes Gadolinium-Oxysulfid (Gd2O2S:Tb) ist ein in der Röntgentechnik häufig eingesetzter Szintillator. Gd2O2S:Tb emittiert Licht mit einer Wellenlänge von 545 nm. Physiologie. Es ist keine biologische Funktion des Gadoliniums bekannt. Toxizität. Freie Gadolinium-Ionen verhalten sich ähnlich wie Calcium-Ionen, das heißt, sie werden vorwiegend in der Leber und im Knochensystem eingebaut und können dort über Jahre verbleiben. Freies Gadolinium beeinflusst außerdem als Calciumantagonist – die Ionenradien von Calcium und Gadolinium sind nahezu gleich – die Kontraktilität des Myokards und hemmt das Gerinnungssystem. Intravenös applizierte Lösungen von freien Gadolinium-Ionen wirken akut toxisch. Von der Toxizität betroffen sind unter anderem die glatte und die quergestreifte Muskulatur, die Funktion der Mitochondrien und die Blutgerinnung. Die Toxizität von freiem Gadolinium ist als hoch einzustufen. In "komplexierter" Form, so wie das Gadolinium in den zugelassenen Kontrastmitteln vorliegt, ist es dagegen unter Berücksichtigung der Kontraindikationen im Allgemeinen gut verträglich. Seit 2006 gibt es zunehmend Berichte, dass es bei niereninsuffizienten Patienten nach Gabe verschiedener Chelate des Gadoliniums, insbesondere Gd-DTPA, zum Krankheitsbild der nephrogenen systemischen Fibrose kommen kann. Eine neue Studie liefert Hinweise darauf, dass Gadolinium in Kontrastmitteln nach mehrmaligen MRTs zu Ablagerungen und eventuell auch Strukturschädigungen im Gehirn führen könnten.Tomonori Kanda, Kazunari Ishii, Hiroki Kawaguchi, Kazuhiro Kitajima, Daisuke Takenaka: "High Signal Intensity in the Dentate Nucleus and Globus Pallidus on Unenhanced T1-weighted MR Images: Relationship with Increasing Cumulative Dose of a Gadolinium-based Contrast Material." In: "Radiology." 2013, S. 131669. Ob es wirklich zu einer Schädigung kommt, konnte jedoch noch nicht festgestellt werden. Germanium. Germanium (von ‚Deutschland‘, dem Heimatland des Entdeckers Clemens Winkler) ist ein chemisches Element mit dem Elementsymbol Ge und der Ordnungszahl 32. Im Periodensystem steht es in der 4. Periode und in der 4. Hauptgruppe (Gruppe 14 oder Kohlenstoffgruppe). Es wurde am 6. Februar 1886 erstmals nachgewiesen. Geschichte. Als 1871 Dmitri Mendelejew das Periodensystem entwarf, stieß er auf eine Lücke unterhalb des Siliziums und postulierte ein bis dahin unbekanntes Element, das er als Eka-Silicium bezeichnete. Mendelejew machte Vorhersagen über die Eigenschaften des Eka-Siliciums und dessen Verbindungen, die von der Wissenschaft jedoch abgelehnt wurden. 1886 entdeckte Clemens Winkler (1838–1904), ein Chemiker an der Bergakademie Freiberg, der mit Cobalt-Glas arbeitete, das Germanium. Es handelte sich hierbei um das von Mendelejew vorhergesagte Element Eka-Silicium, dessen Eigenschaften dem gefundenen Germanium sehr nahe kamen. Mendelejew hatte die Eigenschaften aus seinem Periodensystem abgeleitet, so dass dieser Fund zur Anerkennung des Periodensystems beitrug. Die Herkunft und Etymologie des Namens Germanium könnte auch aus einem semantischen Missverständnis in Zusammenhang mit seinem Vorgängerelement Gallium herrühren, denn für die Namensgebung von Gallium gibt es zwei Theorien. Nach der ersten benannte der französische Chemiker Paul Émile Lecoq de Boisbaudran das Element nach Gallien, der lateinischen Bezeichnung seines Heimatlandes Frankreich. Die zweite gibt das ebenfalls lateinische Wort "gallus" (Hahn) als Quelle des Namens an, das im Französischen "Le Coq" heißt. Paul Émile "Lecoq" de Boisbaudran hätte das neue Element demnach nach seinem eigenen Namen benannt. Winkler nahm an, dass das vorherige Element Gallium nach der Staatsangehörigkeit des französischen Entdeckers benannt wurde. So nannte er das neue chemische Element „Germanium“ zu Ehren seines Landes (lat. Germania für Deutschland). Vorkommen. Germanium ist weit verbreitet, kommt aber nur in sehr geringen Konzentrationen vor; Clarke-Wert (= Durchschnittsgehalt in der Erdkruste): 1,5 g/t. Es wird als Begleiter in Kupfer- und Zinkerzen gefunden (Mansfelder Kupferschiefer). Die wichtigsten Minerale sind Argyrodit, Canfieldit, Germanit und Renierit. Einige Pflanzen reichern Germanium an. Diese Eigenschaft führt zu einigen sehr umstrittenen Thesen bezüglich der Physiologie von Pflanzen („pflanzlicher Abwehr-Stoff gegen Viren“), die letztlich auch zu Anwendungen in der Homöopathie führen. Gewinnung und Herstellung. Laut USGS lag die Jahresproduktion 2014 bei geschätzten 165 t, davon 120 t in China. Der Preis für 1 kg Germanium betrug 2014 ca. 1.900 USD. Laut EU lag der Preis 2003 bei 300 USD je kg und stieg bis 2009 auf 1.000 USD. Eigenschaften. Germanium steht im Periodensystem in der Serie der Halbmetalle, wird aber nach neuerer Definition als Halbleiter klassifiziert. Elementares Germanium ist sehr spröde und an der Luft bei Raumtemperatur sehr beständig. Erst bei starkem Glühen in einer Sauerstoff-Atmosphäre wird es zu Germanium(IV)-oxid (GeO2) oxidiert. In Pulverform ist es ein entzündbarer Feststoff und kann durch kurzzeitige Einwirkung einer Zündquelle leicht entzündet werden und brennt nach deren Entfernung weiter. Die Entzündungsgefahr ist umso größer, je feiner der Stoff verteilt ist. In kompakter Form ist es nicht brennbar. Germanium ist zwei- und vierwertig. Germanium(IV)-Verbindungen sind am beständigsten. Von Salzsäure, Kalilauge und verdünnter Schwefelsäure wird Germanium nicht angegriffen. In alkalischen Wasserstoffperoxid-Lösungen, konzentrierter heißer Schwefelsäure und konzentrierter Salpetersäure wird es dagegen unter Bildung von Germaniumdioxidhydrat aufgelöst. Gemäß seiner Stellung im Periodensystem steht es in seinen chemischen Eigenschaften zwischen Silicium und Zinn. Germanium weist als einer von wenigen Stoffen die Eigenschaft der Dichteanomalie auf. Seine Dichte ist in festem Zustand niedriger als in flüssigem. Seine Bandlücke beträgt bei Zimmertemperatur ca. 0,67 eV. Wafer aus Germanium sind erheblich zerbrechlicher als Wafer aus Silicium. Elektronik. Als Halbleiter war es das führende Material in der Elektronik, vor allem zur Herstellung von Dioden und Transistoren, bis es vom Silicium verdrängt wurde. Anwendungen finden sich heute in der Hochfrequenztechnik (z. B. als Siliziumgermanium-Verbindungshalbleiter) und Detektortechnologie (z. B. als Röntgendetektor). Für Solarzellen aus Galliumarsenid (GaAs) werden zum Teil Wafer aus Germanium als Trägermaterial verwendet. Die Gitterkonstante von Germanium ist der von Galliumarsenid sehr ähnlich, so dass GaAs epitaktisch auf Germanium-Einkristallen aufwächst. 2012 wurde bekannt, dass einatomige Schichten aus Germanium Elektronen bis zu 10-mal schneller als Silizium leiten. Dadurch könnte es als Halbleitermaterial erneut interessant werden. Gläser und Fasern. Seine zweite Hauptanwendung findet es in der Infrarotoptik in Form von Fenstern und Linsen-Systemen aus poly- oder monokristallinem Germanium sowie optischen Gläsern mit Infrarotdurchlässigkeit, so genannten Chalkogenidgläsern. Einsatzgebiete hierfür sind unter anderem militärische und zivile Nachtsichtgeräte sowie Wärmebildkameras. Weitere wesentliche Verwendungen liegen in der Herstellung von Lichtwellenleitern und Polyesterfasern: In modernen Glasfasern für die Telekommunikation wird mit Hilfe von Germaniumtetrachlorid bei der chemischen Gasphasenabscheidung eine Anreicherung von Germaniumdioxid im inneren Faserkern erzeugt. Dadurch entsteht im Vergleich zum Fasermantel ein höherer Brechungsindex im Kern, wodurch die Führung der Lichtwellen gewährleistet wird. In der Polyesterchemie kommt Germaniumdioxid als Katalysator bei der Herstellung von bestimmten Polyesterfasern und -granulaten zum Einsatz, speziell für recyclingfähige PET-Flaschen (PET = Polyethylenterephthalat). Nuklearmedizin und Kerntechnik. 68Ge wird beim Gallium-68-Generator als Mutternuklid zur Herstellung von Gallium-68 verwendet. Ebenso findet 68Ge als Quelle zur Detektorkalibration bei der Positronen-Emissions-Tomographie Anwendung. Als hochreiner Einkristall wird Germanium als Strahlendetektor eingesetzt. Germanium in Nahrungsergänzungsmitteln. Die Substanz Bis(carboxyethyl)germaniumsesquioxid ("Ge-132") ist als Nahrungsergänzungsmittel zur Anwendung bei einer Reihe von Erkrankungen einschließlich Krebs, chronischem Müdigkeitssyndrom, Immunschwäche, AIDS, Bluthochdruck, Arthritis und Lebensmittelallergien angepriesen worden. Positive Wirkungen auf den Krankheitsverlauf wurden bisher wissenschaftlich nicht nachgewiesen. Gemäß der europäischen "Richtlinie 2002/46/EG zur Angleichung der Rechtsvorschriften der Mitgliedstaaten über Nahrungsergänzungsmittel" soll Germanium nicht in Nahrungsergänzungsmitteln verwendet werden. In vielen Ländern der EU, die ihre nationalen Rechtsvorschriften bereits angeglichen haben, so auch Deutschland und Österreich, ist daher der Zusatz von Germanium als Mineralstoffquelle in Nahrungsergänzungsmitteln nicht erlaubt. Die zuständigen Behörden warnen ausdrücklich vor dem Verzehr von "Ge-132", da schwere Gesundheitsschäden und Todesfälle nicht auszuschließen sind. Arzneiliche Verwendung von Germanium. Eine therapeutische Wirksamkeit der antineoplastischen Substanz Spirogermanium bei Krebserkrankungen wurde nicht nachgewiesen. Zugelassene Fertigarzneimittel mit dem Wirkstoff Spirogermanium gibt es nicht. In Deutschland gelten germaniumhaltige Arzneimittelanfertigungen (Rezepturen), abgesehen von homöopathischen Verdünnungen ab D4, als bedenklich. Ihre Herstellung und ihre Abgabe sind daher verboten. "Germanium metallicum" gibt es in Form homöopathischer Arzneimittel. Als Bestandteil homöopathischer Zubereitungen wird "di"-Kalium-Germanium-citrat-lactat beschrieben. Physiologie. Germanium und seine Verbindungen weisen eine relative geringe Toxizität auf. Spuren von Germanium sind in den folgenden Nahrungsmitteln enthalten: Bohnen, Tomatensaft, Austern, Thunfisch und Knoblauch. Es ist nach dem Stand der Wissenschaft kein essentielles Spurenelement. Es ist keine biologische Funktion für Germanium bekannt. Ein möglicher Einfluss auf den Kohlenhydrat-Metabolismus wurde diskutiert. Es sind keine Germanium-Mangelerkrankungen bekannt. Toxizität. Vergiftungen mit Germanium bei Menschen traten bisher nur nach der Einnahme von anorganischen Germaniumverbindungen als Nahrungsergänzungsmittel auf. Erste Symptome sind dabei Appetitlosigkeit, Gewichtsverlust, Erschöpfungszustände und Muskelschwäche. Darauf folgen Funktionsstörungen der Niere, bis hin zum Nierenversagen, das für den Patienten letal sein kann. Periphere Neuropathie als Folgeerkrankung sind ebenfalls berichtet. In Fällen, in denen Patienten die Einnahme von anorganischen Germaniumverbindungen überlebten, konnte die normale Nierenfunktion nicht wiederhergestellt werden. Vorübergehende neurotoxische Nebenwirkungen bei der Einnahme von Spirogermanium in klinischen Studien werden berichtet. Spirogermanium wurde in den 1980er Jahren als Cytostatikum getestet. Daten aus Studien an gesunden freiwilligen Probanden sind nicht verfügbar. Organische Germaniumverbindungen zeigten eine geringere Giftigkeit, führten jedoch bei den Versuchstieren zu Gewichtsverlust und einer Abnahme der Anzahl der roten Blutkörperchen. Über die fruchtschädigende Wirkung von Germanium liegen nur wenige Daten vor. Natriumgermanat wurde in Ratten als nicht krebserregend getestet. Der Mechanismus der Toxizität von Germanium ist noch nicht vollständig geklärt. Spezifische pathologische Effekte an den Mitochondrien von Nieren- und Nervenzellen wurden jedoch beobachtet. Wechselwirkungen. Es wird ebenfalls diskutiert, ob Germanium evtl. Wechselwirkungen mit Silizium im Knochen-Metabolismus zeigt. Es kann die Wirkung von Diuretika blockieren und die Aktivität einer Reihe von Enzymen herabsetzen bzw. blockieren, wie beispielsweise Dehydrogenasen. Im Tierversuch zeigen Mäuse eine erhöhte Hexabarbital-induzierte Schlafdauer, wenn sie zusätzlich mit Germaniumverbindungen behandelt wurden. Dies lässt darauf schließen, dass die Cytochrom P450 Aktivität ebenfalls eingeschränkt wird. Es gibt Berichte über organische Germaniumverbindungen, welche das Entgiftungsenzym Glutathion-S-Transferase blockieren. Bioverfügbarkeit und Metabolismus. Germanium wird bei oraler Aufnahme sehr leicht vom Körper aufgenommen. Es verteilt sich dabei über das gesamte Körpergewebe, vornehmlich in den Nieren und der Schilddrüse. Organogermane akkumulieren dabei im Gegensatz zu anorganischen Germaniumverbindungen nicht im menschlichen Körper. Allerdings gibt es nur wenige Studien über den Germanium-Metabolismus. Es wird im Wesentlichen über den Urin ausgeschieden. Ausscheidung über Galle und Fäzes findet ebenso statt. Verbindungen. Germanium bildet Ge(II)- u. beständigere Ge(IV)-Verbindungen, nur wenige besitzen technische Bedeutung. Germanate sind Verbindungen des Germaniums, die sich von dessen Oxid ableiten. In fast allen Germanium-haltigen Mineralien liegt das Germanium als Germanat vor. Germane werden die Wasserstoffverbindungen des Germaniums genannt, die eine homologe Reihe verschieden langer Kettenmoleküle bilden. Monogerman oder Germaniumhydrid (GeH4) ist ein Gas und wird in der Halbleiterindustrie zur Epitaxie und zum Dotieren verwendet. Gramm. Ein Gramm ist eine physikalische Maßeinheit für die Masse, das Einheitenzeichen ist g. Ein Gramm beträgt ein Tausendstel eines Kilogramms (kg), der offiziellen SI-Basiseinheit für die Masse. In dieser Art, als 0,001 Kilogramm, ist das Gramm in nationalen Einheitengesetzen und in Normen definiert. Namensherkunft. Der Name stammt von lat. "gramma" (), der Bezeichnung für ein kleines Gewicht (1/24 Unze, entsprechend dem Skrupel, ca. 1,25 g). Übliche Masseneinheiten. 10−12 Mt = 10−12 Tg = 10−9 kt = 10−6 t = 10−3 kg = 1 g = 103 mg = 106 µg = 109 ng = 1012 pg 1 pound = 16 ounces = 453,59238 g Speziell in der Chemie und der Atomphysik wird auch die atomare Masseneinheit formula_5 (auch als "Dalton", Da, bezeichnet) verwendet. Sie ist von der Masse eines Protons abgeleitet, aber leicht abweichend definiert. Definition. Eine erste Definition von Gramm und Kilogramm stammen aus der Zeit des revolutionären Frankreichs und beziehen sich auf Wasser, das in metrischen Volumeneinheiten zu messen ist (ein Liter für das kg). Präzise formuliert: Ein Gramm destilliertes Wasser nimmt bei einer Temperatur von 3,98 °C und einem Luftdruck von 101,325 kPa das Volumen eines Kubikzentimeters bzw. eines Milliliters ein. Seit 1889 ist der tausendste Teil des Urkilogramms, welches in Paris aufbewahrt wird, als ein Gramm festgelegt. Abweichend von den sonstigen Regeln im SI bildet man dezimale Teile und Vielfache von Masseeinheiten nicht, indem man von der Basiseinheit Kilogramm ausgeht, sondern durch Herleitung vom Gramm. Dabei hat das Megagramm den besonderen Namen Tonne (t). Dekagramm. Das Dekagramm hat das SI-konforme Einheitenzeichen „dag“. In Österreich ist das Dekagramm (= 10 Gramm) vor Entstehung des SI durch Gesetz vom 5. Juli 1950 als gesetzliches Maß für die Masse mit dem Zeichen „dkg“ eingeführt worden. 1973 wurde das Zeichen entsprechend den Regeln im SI zu „dag“ geändert. Das ursprüngliche Zeichen blieb bis zum 31. Dezember 1977 übergangsweise zulässig. In Österreich (und auch den anderen Nachfolgestaaten Österreich-Ungarns) wird vor allem beim Einkauf von Lebensmitteln und in Rezepten die Maßeinheit Dekagramm häufig verwendet und dabei umgangssprachlich oft zu „Deka“ verkürzt. In gewisser Weise setzt es das metrische Lot fort. Hektogramm. In Italien ist das Hektogramm ("ettogrammo," umgangssprachlich zu "etto," Plural "etti" verkürzt, = 100 Gramm) eine beim Einkaufen von Lebensmitteln übliche Maßeinheit. Grad Celsius. Das Grad Celsius ist eine Maßeinheit der Temperatur. Definition. Die geschweiften Klammern bezeichnen dabei nur die Zahlenwerte, und zwar bei Verwendung der Einheiten Grad Celsius oder Kelvin. Nach Regeln der Organe der internationalen Meterkonvention darf das Grad Celsius auch zusammen mit SI-Vorsätzen benutzt werden, nach deutschem Einheitenrecht jedoch nicht. Diese Regelung wurde nicht in die nationale deutsche Normung des Deutschen Instituts für Normung (DIN 1301-1, DIN 1345) übernommen. Durch die Neudefinition der Celsius-Skala über die Kelvin-Skala liegen der Schmelz- und der Siedepunkt von Wasser nicht mehr genau bei 0 °C und 100 °C, sondern bei 0,002519 °C und 99,9839 °C (99,9743 °C nach ITS-90). Geschichte. Die Celsius-Skala geht auf den schwedischen Astronomen Anders Celsius zurück, der 1742 eine hundertteilige Temperaturskala vorstellte. Als Fixpunkte nutzte er, wie die 1730 vorgestellte Réaumur-Skala, die Temperaturen von Gefrier- und Siedepunkt des Wassers bei Normaldruck, das heißt einem Luftdruck von 1013,25 Hektopascal oder 760 Millimeter Quecksilbersäule. Der Bereich zwischen diesen Fixpunkten, gemessen mit einem Quecksilberthermometer, ist in 100 gleich lange Abschnitte eingeteilt, die als Grad bezeichnet sind. Dies führte zu der historischen Bezeichnung des „hundertteiligen Thermometers“. Anders als bei der modernen Celsius-Skala ordnete Celsius jedoch dem Siedepunkt von Wasser den Wert 0° und dem Gefrierpunkt den Wert 100° zu. Somit nahm der Temperaturwert eines Körpers beim Erwärmen ab. Die moderne Celsius-Skala, bei der dem Siedepunkt von Wasser der Wert 100° und dem Gefrierpunkt der Wert 0° zugeordnet wird, wurde durch Carl von Linné, einen Freund Celsius’, kurz nach dessen Tod im Jahr 1744 eingeführt. 1948, ca. 200 Jahre nach der Einführung der Skala, wurde zu Ehren Celsius’ der Skalenabstand bei einem Celsius-Thermometer von einem Zentigrad bzw. Zentesimalgrad durch die "9. internationale Generalkonferenz für Maß und Gewicht" offiziell in die Temperatureinheit Grad Celsius umbenannt. Formelzeichen für thermodynamische Temperatur und Celsius-Temperatur. Als Formelzeichen für die Celsius-Temperatur ist das formula_7 (zur Unterscheidung auch formula_8) ("Theta") und nach DIN 1345 vom Dezember 1993 das kleine "t" üblich und normgerecht; fälschlicherweise wird hierfür jedoch auch das große "T" verwendet. Eigentlich ist "T" der absoluten Temperatur in "Kelvin" vorbehalten. Temperaturdifferenz. Die Temperaturdifferenz formula_9 ist der Unterschied in der Temperatur von zwei Messpunkten formula_10, die sich in der Zeit oder der räumlichen Position unterscheiden. Als Einheit für Temperaturdifferenzen wird vom DIN in Anpassung an das Internationale Einheitensystem (SI) mit der Norm DIN 1345 (Ausgabe Dezember 1993) das Kelvin empfohlen. Die DIN ergänzt dazu: Im Sinne dieser Norm stellt die „Celsius-Temperatur“ die Differenz der jeweiligen thermodynamischen Temperatur und der festen Bezugstemperatur 273,15 K dar; bei Angabe der Celsius-Temperatur wird der Einheitenname Grad Celsius als besonderer Name für das Kelvin benutzt (denn für Temperaturdifferenzen empfiehlt die Norm ja an sich das Kelvin). Umrechnung. Im folgenden Abschnitt werden einige Umrechnungstabellen für verschiedene Temperaturwerte und -einheiten angegeben. Gauß (Einheit). Gauß (in der Schweiz oder unter englischsprachigem Einfluss auch Gauss, Einheitenzeichen: Gs, G) ist die Einheit der magnetischen Flussdichte "B" im elektromagnetischen CGS-System und im Gaußschen CGS-System. Sie ist benannt nach Carl Friedrich Gauß. Das Gauß ist in Deutschland seit 1970 keine gesetzliche Einheit im Messwesen, es wird aber vor allem in der Astrophysik weiterhin verwendet. Im Internationalen Einheitensystem (SI) ist die Einheit der magnetischen Flussdichte das Tesla, als SI-Einheit ist dieses in der EU und der Schweiz die gesetzliche Einheit. Im Gaußschen Einheitensystem und in elektromagnetischen CGS-Systemen sind, anders als im SI, magnetische Flussdichte ("B") und magnetische Feldstärke ("H") von gleicher Dimension, im Vakuum stimmen sie miteinander überein, "B" = "H". Deshalb wird das Gauß oft mit der Gaußschen CGS-Einheit der magnetischen Feldstärke, dem Oersted verwechselt, denn beide Einheiten sind formal gleich, jede der beiden CGS-Einheiten ist darstellbar als 1 cm−1/2g1/2s−1. Das Gamma entspricht dem Nanotesla (nT = 10−9 T) und wird u. a. in der Astrophysik und der Geomagnetik verwendet, weil die magnetischen Anomalien im interstellaren Raum und auf der Erdoberfläche im Bereich von 0,1 bis einigen tausend γ bzw. nT liegen. Historisches. Im Jahre 1900 wurde auf dem 5. Internationalen Elektrizitätskongress in Paris „Gauß“ als Name der elektromagnetischen CGS-Einheit für die magnetische Feldstärke festgelegt. Infolge eines Missverständnisses nahmen die amerikanischen Delegierten jedoch an, „Gauß“ sei als Name für die elektromagnetische CGS-Einheit der magnetischen Flussdichte vereinbart worden. Diese Mehrdeutigkeit wurde 1930 auf der IEC-Tagung in Stockholm und Oslo zugunsten der amerikanischen Auffassung bereinigt. 1933 legte das IEC auf einer Sitzung in Paris fest, dass 1 cm−1/2g1/2s−1 als elektromagnetische CGS-Einheit der magnetischen Feldstärke Oersted heißen soll. Die IEC hat 1935 auf einer Konferenz in Scheveningen das Einheitenzeichen „Gs“ für das Gauß festgelegt. Grad Fahrenheit. Thermometer mit Celsius-Skala (links) und Fahrenheit-Skala (rechts) Grad Fahrenheit ist eine nach Daniel Gabriel Fahrenheit benannte Einheit der Temperatur. Fahrenheits Festlegungen. Fahrenheit entwickelte seine Temperaturskala nach einem Besuch bei dem dänischen Astronomen Ole Rømer in Kopenhagen. Rømer war der Erste, der ein Thermometer entwickelte, welches mit Hilfe zweier Fixpunkte kalibriert wurde. In der Rømer-Skala liegt der Gefrierpunkt des Wassers bei 7,5 Grad, der Siedepunkt bei 60 Grad und die durchschnittliche Körpertemperatur eines Menschen bei 26,9 Grad. Fahrenheit verwendete demgegenüber als Nullpunkt seiner Skala die tiefste Temperatur, die er mit einer Mischung aus „Eis, Wasser und Salmiak oder Seesalz“ ("Kältemischung") erzeugen konnte: −17,8 °C. Dadurch wollte er negative Temperaturen vermeiden, wie sie bei der Rømer-Skala schon im normalen Alltagsgebrauch auftraten. Als zweiten und dritten Fixpunkt legte Fahrenheit 1714 den Gefrierpunkt des reinen Wassers (Eispunkt) bei 32 °F und die „Körpertemperatur eines gesunden Menschen“ bei 96 °F fest. Allerdings entsprechen 96 °F rund 35,5 °C; dieser Wert liegt, verglichen mit heute üblichen Messmethoden, deutlich unterhalb des menschlichen Normaltemperaturbereichs. Weiterentwicklung. Der Nachteil dieser Skala bestand darin, dass mit der verbesserten Genauigkeit von Messungen im 19. Jahrhundert insbesondere der untere und der obere Fixpunkt nicht hinreichend genau reproduzierbar waren. Es wurde damit eine Neudefinition der Skala nötig. Zur Definition einer Temperaturskala benötigt man zum einen nur zwei verschiedene, dafür aber möglichst genau reproduzierbare Temperaturen, zum anderen die willkürliche Festlegung der Einteilung der Temperaturdifferenz in Skalenteile und eines Skalennullpunkts. Seit den 1860er Jahren, und gesetzlich eingeführt in den Vereinigten Staaten mit dem "Mendenhall Order" von 1893, versuchte man die hergebrachten Einheiten ("customary units") des angloamerikanischen Maßsystems an die Definitionen des internationalen metrischen Systems anzubinden. Seit dieser Zeit war die Fahrenheit-Skala durch die Skala des „hundertteiligen Thermometers“ definiert, und hatte damit also als Fixpunkte den Gefrierpunkt (gleich 32 °F) und den Siedepunkt des Wassers (gleich 212 °F). Seit 1948, als das „hundertteilige Thermometer“ in „Celsius-Skala“ umbenannt und neu definiert wurde, ist die Fahrenheitskala indirekt durch die Kelvin-Skala definiert. Die Fahrenheit-Skala war im 18. und frühen 19. Jahrhundert auch in Europa verbreitet (neben anderen, nun gänzlich unüblichen Skalen); erst mit der Durchsetzung des metrischen Systems seit dem mittleren 19. Jahrhundert hat sich in Kontinentaleuropa die Celsius-Skala durchgesetzt. In Großbritannien blieb die Fahrenheit-Skala länger in Gebrauch. Dort wurde sie zudem auch für die Definition gewisser anderer imperialer Maßeinheiten verwendet, so war etwa im "Weights and Measures Act" von 1855 das Yard definiert anhand eines Norm-Yards aus Bronze und Gold bei einer Temperatur von 62 °F. Kopien dieses Norm-Yards, die herstellungsbedingt leichte Abweichungen aufwiesen, wurden durch die Angabe von leicht abweichenden Temperaturen geeicht (zwischen 61,94 und 62,16 °F). Die offizielle Einführung des metrischen Systems ("metrication") wurde in Großbritannien bereits ab 1818 diskutiert, und wurde zwischen 1965 und 1980 aktiv vorangetrieben, dann aber wieder aufgegeben. Zwingend wurde die Einführung erst mit der Mitgliedschaft in der Europäischen Wirtschaftsgemeinschaft, umgesetzt ab 1995. In inoffiziellen Publikationen, besonders in Wetterprognosen, wurde die Fahrenheit-Skala in Großbritannien auch nach 1995 verwendet, allerdings mit abnehmender Tendenz. Offizielle Verwendung findet die Fahrenheit-Skala nur noch in den USA und ihren Außengebieten, in Belize sowie auf den Bahamas und den Cayman Islands. Umrechnung. Im Folgenden werden einige Umrechnungstabellen für verschiedene Temperaturwerte und -Einheiten angegeben. Postwertzeichen. Zum 300. Jahrestag der Einführung der Fahrenheitskala gab die Deutsche Post AG am 3. November 2014 ein Sonderpostwertzeichen im Wert von 60 Eurocent heraus. Der Markenentwurf stammt von den Grafikern Thomas und Martin Poschauko. Gallone. Die Gallone () ist eine Raumeinheit (Trocken-, Flüssigkeitsmaß, siehe Raummaß). Es gibt unterschiedliche Definitionen der Gallone in den Maßsystemen verschiedener Länder. Imperiales Maßsystem. "1 Imp.gal." = US.liq.gal. ≈ "1,20095 US.liq.gal." "1 Imp.gal." = 4 Imp.qt. = 8 Imp.pt. = 16 Imp.cup = 32 Imp.gi. = 160 Imp.fl.oz. =" 4,54609 Liter" "(exakt per Definition!)" =  inch³ ≈ 277,41945 inch³ Die britische (imperiale) Gallone basiert auf einem mittelalterlichen englischen Biermaß. Im Jahr 1824 wurde sie neu definiert auf physikalischer Basis als das Volumen von 10 englischen Pfund destilliertem Wasser bei 62 °F (17 °C), gemessen mit Messinggewichten einer bestimmten Zusammensetzung bei festgelegtem Luftdruck. Im Jahr 1985 wurde dann nach kanadischem Vorbild eine Neudefinition basierend auf dem metrischen Liter eingeführt. In den USA verwendet man dagegen eine aus dem Weinhandel stammende Definition (siehe unten). US-amerikanisches Maßsystem. "1 US.liq.gal." = 4 liquid qt. = 8 US.liq.pt. = 16 US.cup = 32 US.liq.gi. = 128 US.fl.oz. = 231 inch³ = 3,785411784 Liter Die US-amerikanische Gallone basiert auf einem mittelalterlichen englischen Weinmaß, das ursprünglich als ein Zylinder mit einer Höhe von 6 Zoll (engl. "inch") und einem Durchmesser von 7 Zoll definiert wurde. Die Kreiszahl π wurde damals üblicherweise mit 22/7 approximiert. Im Jahr 1706, während der Herrschaft von Königin Anne, wurde die Weingallone daher redefiniert als ein Quader mit einer Abmessung von (3 × 7 × 11) inch³, was dem alten Zylindervolumen, berechnet mit der erwähnten Näherung für π, entspricht. Diese Definition ist in den USA bis heute in Gebrauch, in Großbritannien selbst wurde sie jedoch durch die aus dem Bierhandel stammende Imperial Gallon (siehe oben) verdrängt. Da das Inch heute definiert ist (1 inch = 25,4 mm), ist das oben in Litern angegebene Volumen der US-amerikanischen Gallone exakt. Ferner ist 1 petroleum barrel = "42 US.gal." = 9702 inch³ = 158,987294928 Liter Trockenmaß. "1 US.dry.gal." = 4 US.dry.qt = 8 US.dry.pt = 268,8025 inch³ ≈ 4,404 Liter 1 US.bushel = 4 peck = "8 US.dry.gal." = 2150,42 inch³ ≈ 35,239 Liter "92.400 US dry gallon (corn gallon) = 107.521 US liquid gallon" 1 US dry gallon (corn gallon) ≈ 1,1636 US liquid gallon Metrische Gallone. "1 metric gallon" = 8 metric pint = 16 metric cup = 4 Liter Gill. Gill war ein englisches Volumenmaß und als ein Trocken- und Flüssigkeitsmaß in Anwendung. Das Maß war mit Ausnahme von Bier in den britischen Kolonien und den USA etwa 6 Kubikzoll (Preuß.) oder Quart (Preuß.). Ein Gill liegt zwischen 0,11 und 0,14 Liter. In britischen Bars wurde der Schnaps früher in Mengen von gill verkauft, was in etwa 2,3 cl entsprach. Heute sind in Großbritannien 2,5 oder 3,5 cl üblich. Gran (Einheit). Das Gran (lat. ' „Korn“), auch "Grän", ist eine alte Maßeinheit der Masse. Das Einheitenzeichen ist "gr." Römisches Gran. Das römische Gran – wohl ein Gerstenkorn – ist der (12 × 576 =) 6912. Teil der römischen Libra, bzw. der (16 × 576 =) 9216. Teil der Mina. Es wog also recht genau 47 mg. Englisches Grain. Das Grain ist die kleinste klassische englische Masse-Einheit und ist allen drei in der Neuzeit verbreiteten englischen Systemen ("Avoirdupois, Troy" und "apothecaries' weight") gemein. So zählt das übliche Pfund 7000 "grains", das Apotheker- und Troy-Pfund genau 5760 "grains". Daneben wurden auch einige traditionelle Masse-Einheiten in englischen Kolonien anhand des "Grains" neu definiert, etwa das indische Tola zu 180 Grain. Die Einheit wird zunehmend durch Karat bzw. Milligramm ersetzt. Die Masse von Hand- und Faustfeuerwaffengeschossen, die Masse von Pfeilspitzen sowie die Masse von Treibladungspulver bei Munition wird weiterhin allgemein in englischen "Grain" angegeben. Französisches Gran. Das "französische Grain" war der 9216. Teil des französischen Pfundes. Im Jahre 1799 wurde das definitive, dezimale Kilogramm als 18.827,15 "französische Grain" festgestellt. Das bedeutet ein "französisches Grain" entspricht etwa 53,1148 mg (1 gr. / (18827,15 gr./kg) × 1000000 mg/kg). Giordano Bruno. Modernisiertes Porträt von Giordano Bruno aus dem "Livre du recteur" der Universität von Genf (1578) Giordano Bruno (* Januar 1548 in Nola; † 17. Februar 1600 in Rom; eigentlich "Filippo Bruno") war ein italienischer Priester, Dichter, Philosoph und Astronom. Er wurde durch die Inquisition der Ketzerei und Magie für schuldig befunden und vom Gouverneur von Rom zum Tod auf dem Scheiterhaufen verurteilt. Am 12. März 2000 erklärte Papst Johannes Paul II. nach Beratung mit dem päpstlichen Kulturrat und einer theologischen Kommission, die Hinrichtung sei nunmehr auch aus kirchlicher Sicht als Unrecht zu betrachten. Bedeutung. Bruno postulierte die Unendlichkeit des Weltraums und die ewige Dauer des Universums. Damit stellte er sich der damals herrschenden Meinung einer in Sphären untergliederten geozentrischen Welt entgegen. Viel schwerer wog damals, dass seine pantheistischen Thesen von einer unendlichen materiellen Welt keinen Raum für ein Jenseits ließen, da zeitliche Anfangslosigkeit des Universums eine Schöpfung und dessen ewiger Bestand ein Jüngstes Gericht ausschlossen. Jugend. Giordano Bruno wurde im Jahre 1548 unter dem Namen Filippo Bruno in Nola bei Neapel geboren. Von seinem Heimatort ist seine spätere Selbstbezeichnung „Nolano“ (der Nolaner) abgeleitet. Sein Vater war Giovanni Bruno, ein Soldat, seine Mutter Fraulissa (Flaulisa?) Savolino. Bruno studierte zunächst in Neapel und trat 1565 in den Orden der Dominikaner ein, dem Kloster San Domenico Maggiore, "Chiesa di San Domenico Maggiore" wo er den Taufnamen Filippo ablegte und den Ordensnamen Jordanus/Giordano (nach dem zweiten Ordensmeister Jordan von Sachsen) annahm. Bald darauf geriet er in Konflikt mit der Ordensleitung, da er sich der Marienverehrung verweigerte und alle Heiligenbilder aus seiner Klosterzelle entfernte. Doch wurde dies als jugendliche Verirrung aufgefasst und blieb zunächst folgenlos. 1572 empfing er die Priesterweihe. Flucht aus Italien. Schon 1576 geriet er zum ersten Mal unter Verdacht der Ketzerei und musste Neapel verlassen. Er floh nach Rom, um sich dem Papst zu Füßen zu werfen. Als dort jedoch bekannt wurde, dass Bruno bei seiner Flucht aus dem Kloster Schriften des Kirchenvaters Hieronymus (die Vulgata?) in die Latrine geworfen hatte, musste er auch aus Rom fliehen. Er trat aus dem Mönchsorden aus und reiste nach Noli und Savona (Ligurien), dann nach Turin, Venedig und Padua weiter. Brunos Leben wurde fortan zu einer Wanderschaft durch halb Europa. Die wiederentdeckten Ideen der antiken Naturphilosophie übten große Anziehung auf ihn aus. Zu dieser Zeit begann sich das von Nikolaus Kopernikus postulierte heliozentrische Weltbild durchzusetzen. Hierdurch ermutigt, entwickelte Bruno im Laufe der folgenden Jahre seine eigene Philosophie. Genf. Über Chambéry ging er im Spätherbst 1578 zunächst nach Genf, wo seit Calvins Tod Théodore de Bèze dessen Nachfolge angetreten hatte. Bruno trat der protestantischen Kirche bei und hoffte, so Schutz vor der römischen Inquisition zu finden. Infolge unüberbrückbarer theologischer Differenzen wurde Bruno im August 1579 für kurze Zeit inhaftiert und mit Maßnahmen der calvinistischen Kirchenzucht belegt. Um freizukommen, widerrief er. Ende August 1579 kam er frei und reiste sogleich nach Lyon weiter. Frankreich. Bruno gelangte dann 1579 nach Toulouse und hatte dort kurz einen Lehrstuhl inne. Zu dieser Zeit begann sein phänomenales Gedächtnis Furore zu machen. Bruno arbeitete mit einer speziellen Mnemotechnik. Aber die Erklärung, dass er magische Fähigkeiten habe, schien manchen Zeitgenossen dann doch einleuchtender. Die Hugenottenkriege trieben ihn dann zwei Jahre später nach Paris. Dort blieb er bis 1583 und wurde von Heinrich III. gefördert. England. Mit einem Empfehlungsschreiben Heinrichs III. von Frankreich ging er 1583 nach England, versuchte zunächst in Oxford zu lehren, verursachte mit seinen Angriffen auf Aristoteles und wegen eines Plagiatsvorwurfs jedoch einen Skandal und erhielt keinen Lehrstuhl. Bis Mitte 1585 lebte er dann im Haus seines Freundes und Förderers, des französischen Botschafters, Michel de Castelnau Mauvissière (1517–1592) in London. Er machte Bekanntschaft mit Philip Sidney und mit Mitgliedern von John Dees hermetischem Zirkel. Ob Bruno John Dee persönlich begegnete, bleibt ungewiss. Seine Ansichten setzten in Oxford eine intensive Kontroverse in Gang, an der John Underhill, der Rektor des Lincoln College und spätere Bischof von Oxford, sowie George Abbot, der spätere Erzbischof von Canterbury, beteiligt waren. Dort veröffentlichte er seine „italienischen Dialoge“, darunter "Cena de le Ceneri" (Das Aschermittwochsmahl) (1584), in dem er schonungslose Polemik gegen den Oxforder Gelehrtenstand übte und das Londoner Geistesleben heftig karikierte, sowie "De l’Infinito, Universo e Mondi" (Über die Unendlichkeit, das Universum und die Welten). In letzterem erklärte er die Sterne damit, dass sie wie unsere Sonne seien, dass das Universum unendlich sei, es eine unendliche Anzahl von Welten gebe und diese mit einer unendlichen Anzahl intelligenter Lebewesen bevölkert seien. Wieder in Paris. 1585 ging er wieder nach Paris, die Stimmung dort war aber nicht so aufgeschlossen wie noch zwei Jahre zuvor. Nach Tumulten, die durch seine 120 Thesen gegen die aristotelische Naturlehre und ihre Vertreter entfacht wurden, und nach einer Schmähschrift gegen den Mathematiker Fabrizio Mordente musste er Paris verlassen. Deutschland, Prag, Genf, Zürich. Bruno reiste nach Deutschland weiter und versuchte, einen Lehrstuhl in Marburg zu erhalten. Im Sommer 1586 kam Bruno nach Wittenberg. Auf Fürsprache des Rechtsgelehrten Alberico Gentilis fand er Aufnahme als Extraordinarius an der Artistenfakultät der Universität Wittenberg. Er erhielt das Recht auf freie Vorträge über Philosophie. In seinen Vorlesungen behandelte er das Organon des Aristoteles, Mathematik, Logik, Physik und Metaphysik. In Wittenberg entstanden 1587 zwei Bücher über Logik und Gedächtniskunst – ein Thema, das später Gottfried Wilhelm Leibniz fortsetzen sollte –, die Bruno dem Kanzler der Universität Georg Mylius widmete. Als 1588 in Wittenberg Streitigkeiten zwischen Gnesiolutheranern und Philippisten ausbrachen, verließ Bruno am 8. März die Stadt und ging für ein halbes Jahr nach Prag. Zwar gewann er die Gunst Kaiser Rudolfs II., erhielt aber keinen Lehrauftrag. Mit einer finanziellen Unterstützung von 300 Talern von Rudolf II. reiste er nach Helmstedt weiter, wo er eine Professur an der Academia Julia erhielt. Hier sammelte er, wie in Noli, in der Stille seine Kräfte und bereitete die "Frankfurter Schriften" vor, die sein philosophisches Vermächtnis werden sollten. Es hielt ihn nicht lange; nach den Calvinisten in Genf exkommunizierten ihn jetzt die Lutheraner. Wo auch immer Bruno wirkte, versuchte er einen festen Lehrstuhl zu erhalten – erfolglos. Brunos Talent, sich in der Welt der komplizierten Machtverhältnisse der Renaissance zu behaupten, könnte zwiespältiger nicht interpretiert werden: Auf der einen Seite gelang es ihm immer wieder, mächtige Gönner auf seine Seite zu ziehen. Auf dem theologisch-philosophischen Kampfplatz aber scheint er ein besonderes Talent dafür gehabt zu haben, sich mit rücksichtsloser Polemik, beißendem Spott und insbesondere mit der Ablehnung der Gottessohnschaft Christi und mit seiner kompromisslosen Gegnerschaft zu Aristoteles Feinde zu schaffen. Ab Juli 1590 lebte er in Frankfurt am Main. In der Freien und Reichsstadt kam es aber zu Auseinandersetzungen u. a. mit Johannes Münzenberger, der seit 1574 Kustos und ab 1580 Prior am Karmeliterkloster Frankfurt war, aber auch mit den Stadtoberen aus dem Rat der Stadt, die ihn im Februar 1591 auswiesen. Er plante in der freien Reichsstadt zunächst bei dem Verleger und Drucker Johann Wechel († 1593) zu wohnen. Die Stadtherren lehnten Brunos Ansinnen ab. Johann Wechel fand für Bruno eine Unterkunft im Karmeliterkloster. Es folgt ein Kurzaufenthalt in Zürich. Rückkehr nach Italien. Während seiner Frankfurter Zeit erfasste ihn so etwas wie Heimweh. In Italien war freilich die Inquisition mächtig und die katholische Kirche kämpfte mit allen Mitteln gegen die Reformation. Schließlich waren es der Tod des konservativen Papstes Sixtus V. und die Vakanz eines Lehrstuhls für Mathematik an der Universität Padua, die den Ausschlag gaben, dass Bruno nach Italien zurückkehrte. Während eines Aufenthalts auf der Buchmesse in Frankfurt erreichte ihn eine Einladung von Giovanni Mocenigo nach Venedig, die er jedoch ablehnte. Er lehrte zunächst in Padua, doch wurde der Lehrstuhl bald an Galileo Galilei vergeben. Verhaftung in Venedig. Bruno nahm danach eine Einladung nach Venedig an. Sein Gastgeber, Zuane Mocenigo (1531–1598), "Provveditore Generale di Marano", wollte in die Gedächtniskunst eingeweiht werden; doch es ist viel wahrscheinlicher, dass er sich von Bruno Einblick in weit „magischere“ Künste erhoffte. Wohl aus Enttäuschung, dass diese Erwartungen nicht erfüllt wurden, kam es zu Streitigkeiten. Während Bruno noch überlegte, Venedig zu verlassen, wurde er von Mocenigo denunziert und am 22. Mai 1592 von der Inquisition verhaftet. Im venezianischen Kerker widerrief er nach sieben Verhören. Die Macht der Inquisition traf in Venedig auf wenig Widerstand, da sich Venedig für Bruno als nicht zuständig erachtet haben dürfte. Einerseits war Venedig zuerst nicht geneigt, Bruno nach Rom auszuliefern, andererseits war er nach damaliger Rechtsauffassung ein geflohener Mönch, der ausgeliefert werden musste. Zudem wurde er ein Opfer der damaligen politischen Spiele. Kerker in Rom. Giordano Bruno vor der Inquisitionskommision. Historisierendes Relief von Ettore Ferrari (1848–1929) Anfang 1593 wurde Giordano Bruno nach Rom gebracht und in der Engelsburg gefangengesetzt. In den folgenden sieben Jahren wurde der Prozess gegen ihn vorbereitet. Er versuchte vergeblich, eine Audienz bei Papst Clemens VIII. zu erreichen, und war sogar bereit, teilweise zu widerrufen. Doch dies genügte der Inquisition nicht. Als sie den vollständigen Widerruf forderte, reagierte Bruno hinhaltend und schließlich trotzig: An der Ablehnung der Gottessohnschaft Christi, des Jüngsten Gerichts und der Behauptung vieler ‚Welten‘ hielt er fest. Verurteilung und Hinrichtung. Am 8. Februar 1600 wurde das Urteil des Heiligen Offiziums verlesen: Giordano Bruno wurde wegen Ketzerei und Magie aus dem Orden der Dominikaner und aus der Kirche ausgestoßen und dem weltlichen Gericht des Gouverneurs in Rom überstellt, mit der herkömmlichen Bitte, dieser möge die Strenge des Gesetzes mildern und keine Strafen gegen Leib oder Leben verhängen. Außerdem wurden alle seine Schriften verboten, seine Werke sollten öffentlich zerrissen und verbrannt werden. Bruno reagierte auf das Urteil mit seinem berühmt gewordenen Satz: „Mit größerer Furcht verkündet ihr vielleicht das Urteil gegen mich, als ich es entgegennehme“ („Maiori forsan cum timore sententiam in me fertis quam ego accipiam“). Von dem weltlichen Gericht des römischen Gouverneurs wurde Bruno anschließend zum Tod auf dem Scheiterhaufen verurteilt. Von fast achtjähriger Kerkerhaft körperlich gebrochen, wurde der 52-jährige Giordano Bruno am 17. Februar 1600 auf dem Campo de’ Fiori auf dem Scheiterhaufen hingerichtet. Vor der Hinrichtung wurde Giordano Bruno angeblich die Zunge festgebunden, damit er nicht zum anwesenden Volk sprechen konnte. Nachleben. Denkmal auf dem Campo de’ Fiori von Ettore Ferrari a> am Denkmal auf dem Potsdamer Platz Seine Bücher wurden auf den Index der verbotenen Schriften gesetzt, wo sie bis zu dessen Abschaffung 1966 im Zuge des Zweiten Vatikanischen Konzils blieben. Im Jahr 2000 erklärt Papst Johannes Paul II. nach Beratung mit dem päpstlichen Kulturrat und einer theologischen Kommission die Hinrichtung Giordano Brunos für Unrecht: Selbst Männer der Kirche seien im Namen des Glaubens und der Sittenlehre mitunter Wege gegangen, „die nicht im Einklang mit den Evangelien stehen“. Eine vollständige Rehabilitierung des Gelehrten Giordano Bruno durch die katholische Kirche fand aber nicht statt, da der Pantheismus nicht mit der katholischen Lehre vereinbar ist. Bruno beeinflusste eine Reihe von Philosophen und Schriftstellern stark, u. a. Pierre Gassendi, Baruch de Spinoza, Lucilio Vanini, Friedrich Schelling, Galileo Galilei, Johann Wolfgang von Goethe und Friedrich Nietzsche. Gottfried Wilhelm Leibniz übernahm von ihm den Begriff der Monade. Aus der großen Zahl von literarischen Verarbeitungen des Lebens Brunos zwei Beispiele: 1841 veröffentlichte Leopold Schefer die Novelle "Göttliche Komödie in Rom" über den Prozess und die Hinrichtung Giordano Brunos. Bertolt Brecht schrieb die Erzählung "Der Mantel des Ketzers". Auf dem Campo de’ Fiori in Rom erinnert ein Denkmal der Freimaurer des Grande Oriente d’Italia, das von der laizistisch regierten Stadtgemeinde 1889 gegen den Willen des damaligen Papstes Leo XIII. (1878–1903) errichtet wurde, an Giordano Bruno. Nach Giordano Bruno ist der Asteroid (5148) Giordano und ein 22 km durchmessender Mondkrater benannt, 103° östl. Länge, 36° nördl. Breite. Im deutschsprachigen Raum trägt seinen Namen die 2004 gegründete Giordano-Bruno-Stiftung, die sich dem evolutionären Humanismus und der Förderung der Religionskritik widmet und insbesondere den Religionskritiker Karlheinz Deschner förderte. Außerdem ist die Giordano-Bruno-Gesamtschule in Helmstedt nach ihm benannt. Seit 2008 gibt es am Potsdamer Platz in Berlin ein Giordano-Bruno-Denkmal. Pantheismus. Für Bruno stammte alles aus der Natur von der göttlichen Einheit von Materie und Dunkelheit ab. Zum einen trennte er Gott von der Welt und zum anderen tendierte er zu einem dazu entgegengesetzten Pantheismus. Bruno verband die These, dass Gott allem innewohne, mit dem Glauben, dass die Realität der Vorstellung entspringe. Damit nahm er die Gedanken von Gottfried Wilhelm Leibniz und Baruch de Spinoza vorweg. Er stellte sich gegen das geozentrische Weltbild, nahm stattdessen an, dass die Welt und die Menschen ein einmaliger „Unfall“ einer einzelnen lebenden „Welt-Substanz“ seien, und bekannte sich zur kopernikanischen Theorie. Weiterhin postulierte er die Monade, die als eine unteilbare Einheit ein Element des Weltaufbaus darstellt. Der Begriff Monade wurde von Gottfried Wilhelm Leibniz übernommen. Bruno ist einer der wichtigsten Vertreter einer panpsychistischen Weltanschauung, der zufolge überall im Kosmos geistige Eigenschaften vorhanden sind. „So verschlingen die Hunde, die Gedanken an göttliche Dinge, diesen Aktaion, so dass er nun für das Volk, die Menge tot ist, gelöst aus den Verstrickungen der verwirrten Sinne, frei vom fleischlichen Gefängnis der Materie. Deshalb braucht er seine Diana nun nicht mehr gleichsam durch Ritzen und Fenster zu betrachten, sondern ist nach dem Niederreißen der Mauern ganz Auge mit dem gesamten Horizont im Blick.“ Unendlichkeit des Weltalls. Den Prinzipien seiner Naturphilosophie folgend, glaubte Bruno nicht nur, dass das Weltall unendlich ist, sondern dass es auch unendlich viele Lebewesen auf anderen Planeten im Universum gibt. Diese Schlussfolgerungen zog er aus dem Gedanken, dass einer allmächtigen und unendlichen Gottheit auch nur ein unendliches Universum entsprechen kann, denn alles andere wäre einer unendlichen Gottheit nicht würdig. Giordano Bruno kann in seiner Philosophie aber nicht einfach „hinter“ Kopernikus oder Galilei eingereiht werden. Er teilte deren in erster Linie auf der Beobachtung der Natur basierenden Überlegungen nicht. Er zweifelte an der Kompetenz der Mathematik und setzte an deren Stelle seine spezifische naturphilosophische Betrachtungsweise. In seiner Gesamtheit kann Brunos Denken in die Philosophia perennis eingeordnet werden, der er einen neuen naturphilosophischen Zugang sowie revolutionären und kämpferischen Aspekt hinzufügte. Zerbrechung der Auffassung von der Zweigeteiltheit der Welt. Zwar übernahm Bruno von Aristoteles die Vorstellung, die riesigen Räume zwischen den unendlich vielen Sonnensystemen seien mit Äther erfüllt, weil leerer Raum nicht existieren könne, doch entwickelte er darüber hinaus die eigene Vorstellung, dass das ganze Weltall von demselben göttlichen Puls durchwirkt sei. Dadurch zerbrach er die bis dahin gängige Auffassung des Aristoteles von der Zweigeteiltheit der Welt in den translunaren und den sublunaren Bereich. Der Bereich über der Mondsphäre galt als der heilige Bereich, von dem allein ein verlässliches Zeitmaß abgenommen werden konnte. Dies galt aber nicht für den Bereich unterhalb der Mondsphäre, den sublunaren Bereich, in dem sich die Erde befand, so dass es vor Giordano Bruno nicht denkbar war, ein irdisches Zeitmaß anzugeben. Durch die Aufhebung dieser Grenze zwischen sublunarem und translunarem Bereich durch Giordano Bruno wurde die Erde in den göttlichen Bereich einbezogen, so dass auch auf der Erde gültige Zeitmaßstäbe denkbar wurden. Einflüsse auf Giordano Bruno. Sein Denken wurde von Platon, Epikur, Lukrez, Thomas von Aquin, Johannes Scotus Eriugena, Nikolaus von Kues und Ramon Llull beeinflusst. Er war ein ausgeprägter Kritiker der Lehren des Aristoteles. Untersuchungsergebnissen der Kulturhistorikerin Frances Yates zufolge war Bruno auch von Marsilio Ficino und der hermetischen Literatur beeinflusst. Gregor Gysi. Gregor Florian Gysi (* 16. Januar 1948 in Berlin) ist ein deutscher Rechtsanwalt, linksgerichteter Politiker sowie zwischen 1990 und 2000 und seit 2005 erneut Mitglied des Deutschen Bundestages. Er ist Mitglied der Partei Die Linke. Er war von 2005 bis 2015 Fraktionsvorsitzender der Linksfraktion im Bundestag. Mit dem Amtsantritt des dritten Kabinetts Merkel am 17. Dezember 2013 wurde Gysi zusätzlich Oppositionsführer im Deutschen Bundestag. Zuvor war er von 1998 bis 2000 Vorsitzender der PDS-Bundestagsfraktion, von 1990 bis 1998 Vorsitzender der Bundestagsgruppe der PDS und von 1989 bis 1993 Vorsitzender der SED-PDS beziehungsweise PDS. 2002 war er Bürgermeister und Senator für Wirtschaft, Arbeit und Frauen des Landes Berlin. Daneben war er Mitglied der ersten frei gewählten Volkskammer der DDR. Gysi war und ist eine zentrale und prominente Figur der PDS bzw. der Linkspartei und wirkte dabei prägend auf das politische Geschehen in der Bundespolitik seit 1990. Zu seinen politischen Erfolgen zählt der Formationsprozess der SED, der er ab 1967 angehörte, zur PDS und die Schaffung einer bundesdeutschen linken Partei. Ausbildung. Von 1954 bis 1962 besuchte Gregor Gysi die Polytechnische Oberschule, von 1962 bis 1966 die Erweiterte Oberschule „Heinrich Hertz“ (ab 1965 Schule mit mathematischem Schwerpunkt) in Berlin-Adlershof. Hier erwarb er 1966 sein Abitur und legte gleichzeitig den Lehrabschluss zum Facharbeiter für Rinderzucht (im VEG Blankenfelde) ab. Gysi absolvierte ein Studium der Rechtswissenschaft an der Humboldt-Universität zu Berlin, welches er 1970 als Diplom-Jurist beendete. Juristische Karriere. Ab 1971 war Gysi einer der wenigen freien Rechtsanwälte in der DDR. In dieser Funktion verteidigte er auch Systemkritiker und Ausreisewillige, darunter bekannte Personen wie Robert Havemann, Rudolf Bahro, Jürgen Fuchs, Bärbel Bohley und Ulrike Poppe. 1976 erfolgte seine Promotion zum Dr. jur. mit der Arbeit "Zur Vervollkommnung des sozialistischen Rechtes im Rechtsverwirklichungsprozeß". Von 1988 bis 1989 war er Vorsitzender des Kollegiums der Rechtsanwälte in Ost-Berlin und gleichzeitig Vorsitzender der 15 Kollegien der Rechtsanwälte in der DDR. Am 12. September 1989 war er zusammen mit dem Ost-Berliner Rechtsanwalt Wolfgang Vogel in Prag, um die DDR-Flüchtlinge in der deutschen Botschaft zur Rückkehr in die DDR aufzufordern. Im Herbst 1989, vor der politischen Wende in der DDR, setzte Gysi sich als Anwalt für die Zulassung des oppositionellen Neuen Forums ein. Von August 2002 bis zu seiner Wiederwahl als Abgeordneter des Bundestages im Jahre 2005 war er wieder als Rechtsanwalt tätig. Politische Karriere. a> in der Dynamo-Sporthalle in Berlin (1989) Seit 1967 war Gysi Mitglied der SED. Als er 1989 in den Blickpunkt der Öffentlichkeit trat, arbeitete er an einem Reisegesetz mit. Am 4. November 1989 sprach Gysi vor 500.000 Menschen auf der Massenkundgebung auf dem Berliner Alexanderplatz und forderte ein neues Wahlrecht sowie ein Verfassungsgericht. Seine Eloquenz und rhetorische Begabung ließen ihn schnell zu einem der Medienstars des Herbstes werden. Ab dem 3. Dezember 1989 gehörte er dem Arbeitsausschuss zur Vorbereitung des außerordentlichen Parteitages der SED an und war Vorsitzender eines parteiinternen Untersuchungsausschusses. Auf dem Sonderparteitag am 9. Dezember 1989 wurde Gysi mit 95,3 Prozent der Delegiertenstimmen zum Vorsitzenden der SED gewählt. Am 16. Dezember 1989 sprach er sich auf dem Sonderparteitag der SED-PDS für eine Zusammenarbeit beider deutscher Staaten bei voller Wahrung ihrer Souveränität aus. Im Winter 1989/90 war Gysi als Parteivorsitzender der damaligen SED-PDS daran beteiligt, dass die Partei nicht aufgelöst wurde und das Parteivermögen sowie Arbeitsplätze innerhalb der Partei erhalten blieben. Den Parteivorsitz der PDS hatte Gysi bis zum 31. Januar 1993 inne. Danach wirkte er zunächst als stellvertretender Parteivorsitzender, dann als Mitglied im Parteivorstand weiter mit, bis er im Januar 1997 endgültig aus dem Parteivorstand ausschied. Am 23. Dezember 2005 wurde er auch Mitglied der WASG, ebenso wie Oskar Lafontaine auch Mitglied in der Linkspartei.PDS wurde. Damit machten beide demonstrativ von der Möglichkeit einer Doppelmitgliedschaft in der Linkspartei und in der WASG Gebrauch. Seit dem 16. Juni 2007 ist Gysi Mitglied der Partei Die Linke. Gysi ist Mitglied der Rosa-Luxemburg-Stiftung. Vorwürfe wegen Verschleierung des SED-Vermögens. Auf dem Sonderparteitag der SED vom 8./9. und 16./17. Dezember 1989 unterstützte Gregor Gysi den Fortbestand der SED unter neuem Namen („SED-PDS“) unter anderem mit dem Argument, eine Auflösung und Neugründung würde juristische Auseinandersetzungen um das Parteivermögen nach sich ziehen und sei eine ernste wirtschaftliche Bedrohung für die Partei. Später wurde ihm seitens der Unabhängigen Kommission zur Überprüfung des Vermögens der Parteien und Massenorganisationen der DDR vorgeworfen, er sei aktiv an der Verschleierung des SED-Parteienvermögens beteiligt gewesen und habe im Putnik-Deal versucht, mit Hilfe der KPdSU SED-Gelder ins Ausland zu verschieben, um sie vor dem Zugriff staatlicher Stellen zu sichern. Der Untersuchungsausschuss des Deutschen Bundestages 1998 zum Verbleib des SED-Parteienvermögens gab an, dass Gysi bei seiner Befragung geschwiegen und damit zusammen mit weiteren PDS-Funktionären die Arbeit des Ausschusses behindert habe. 1990–2002. Von März bis Oktober 1990 war Gysi Abgeordneter der ersten frei gewählten Volkskammer der DDR, dort Fraktionsvorsitzender der PDS. Als solcher wurde er am 3. Oktober 1990 Mitglied des Deutschen Bundestages, aus dem er am 1. Februar 2002 ausschied, um das Amt des Wirtschaftssenators in Berlin anzutreten. Er war von 1990 bis 1998 Vorsitzender der PDS-Bundestagsgruppe, dann bis zum 2. Oktober 2000 Vorsitzender der PDS-Bundestagsfraktion. Abgeordnetenhaus von Berlin, Bonusmeilen-Affäre. Von 2001 bis 2002 war er Mitglied des Abgeordnetenhauses von Berlin. Am 17. Januar 2002 wurde Gysi Bürgermeister und Senator für Wirtschaft, Arbeit und Frauen des Landes Berlin in dem vom Regierenden Bürgermeister Klaus Wowereit geführten Senat. Am 31. Juli 2002 trat er im Rahmen der Bonusmeilen-Affäre von allen Ämtern zurück. Bundestagswahl 2005. Für die Bundestagswahl 2005 kehrte er als Spitzenkandidat der Linkspartei zurück. Er war Direktkandidat für den Wahlkreis 85 Treptow-Köpenick und führte die Landesliste der Linkspartei Berlin an. Bei der Wahl konnte er sich gegen seinen Konkurrenten Siegfried Scheffler von der SPD durchsetzen und zog mit 40,4 Prozent der abgegebenen Erststimmen direkt in den Bundestag ein. Gemeinsam mit Oskar Lafontaine wurde er zum Fraktionsvorsitzenden der Linksfraktion gewählt. Bundestagswahl 2009. Auch bei der Bundestagswahl 2009 trat er als Spitzenkandidat der Berliner Landesliste an. Sein Erststimmen-Ergebnis in seinem Wahlkreis Berlin-Treptow-Köpenick konnte er jedoch auf 44,4 Prozent verbessern und zog somit erneut per Direktmandat in den Bundestag ein. Nach dem Verzicht Oskar Lafontaines wurde Gysi am 9. Oktober 2009 mit 94,7 Prozent zum alleinigen Fraktionsvorsitzenden der Bundestagsfraktion der Linken bestimmt und 2011 mit 81,3 Prozent im Amt bestätigt. Bundestagswahl 2013. Gregor Gysi am Abend der Bundestagswahl 2013 Bei der Bundestagswahl 2013 gelang es Gysi – wiederum Spitzenkandidat der Berliner Landesliste – trotz leichter Einbußen von 2,6 Prozent sein Direktmandat mit 42,2 Prozent erneut zu verteidigen. Wie schon 2011 wies er Sahra Wagenknechts Ambitionen auf eine Doppelspitze in der Fraktion erfolgreich zurück und wurde am 9. Oktober 2013 auf einer Fraktionsklausur im brandenburgischen Bersteland erneut zum alleinigen Fraktionsvorsitzenden gewählt. Aufgrund der regierenden Großen Koalition ist er damit Oppositionsführer. Am 7. Juni 2015 gab er bekannt, dass er nicht erneut für den Fraktionsvorsitz der Linken kandidieren werde. Entsprechend schied er am 12. Oktober 2015 aus beiden Ämtern aus. Seine Nachfolge im Fraktionsvorsitz und damit auch in der Oppositionsführung wurden Dietmar Bartsch und Sahra Wagenknecht. Beobachtung durch den Verfassungsschutz. Im Januar 2012 wurde bekannt, dass Gregor Gysi als einer von 27 Bundestagsabgeordneten der Linken unter Beobachtung durch das Bundesamt für Verfassungsschutz steht, was von Politikern aller Fraktionen kritisiert wurde. Nachdem diese Überwachung Anfang 2014 eingestellt worden war, stellte das Verwaltungsgericht Köln in einem Anerkenntnisurteil im September 2014 fest, dass die Personenakte Gysis zu vernichten sei. Bericht des Immunitätsauschusses 1998. Laut Abschlussbericht des Immunitätsausschusses des Deutschen Bundestages soll Gysi zwischen 1975 und 1986 für das Ministerium für Staatssicherheit der DDR unter verschiedenen Decknamen, dabei hauptsächlich als "IM Notar" gearbeitet haben, nachdem in einer früheren Version des Abschlussberichtes noch davon die Rede war, dass ein solcher Nachweis aufgrund der vorhandenen Unterlagen nicht erfolgen kann. Im Abschlussbericht heißt es unter anderem, Gysi habe Die Feststellungen des Immunitätsausschusses hatten aber keine Auswirkungen auf Gysis Arbeit als Abgeordneter, der im Abschlussbericht selbst der Beschuldigung widersprach und auf „wesentliche Mängel und Fehler“ im Verfahren hinwies. Die PDS und die FDP stimmten dem Papier nicht zu. Gysi legte erneut Klage gegen die Feststellung ein. Gregor Gysi bekannte sich zur Kooperation mit der Staatsanwaltschaft und dem Zentralkomitee der SED „im Interesse und mit Wissen seiner Klienten“ und ging mehrmals, bisher (2013) erfolgreich, gerichtlich gegen die Verbreitung der Behauptung, er wäre "IM Gregor" / "IM Notar" gewesen, vor. 1998 untersagte das Landgericht Hamburg dem Magazin "Der Spiegel", weiterhin zu behaupten, Gregor Gysi habe für die Stasi-Spionageabteilung gearbeitet und dort den Decknamen "IM Notar" geführt, weil der Spiegel seine Behauptungen nicht habe beweisen können. Klage gegen Aktenveröffentlichungen 2008. Nachdem das ZDF am 27. Mai 2008 ein Interview mit Marianne Birthler ausgestrahlt hatte, in dem sie Gysi eine Stasi-Tätigkeit vorwarf, ging Gysi mit einem Unterlassungsbegehren gegen den Sender vor. Im Mai 2008 unterlag Gysi vor dem Berliner Verwaltungsgericht mit einer Klage gegen die Veröffentlichung mehrerer Protokolle über Robert Havemann und den – laut diesen Berichten – zur DDR-Führung „negativ eingestellt[en]“ Thomas Klingenstein, geb. Erwin. In einem der Protokolle ist die Rede von einer Autofahrt eines „IM“ mit „Erwin“. Das Protokoll wird von der BStU und von Klingenstein selbst auf die Rückfahrt von einem Besuch bei Havemann am 3. Oktober 1979 bezogen. ("„Der IM nahm ‚Erwin‘ mit in die Stadt und erfuhr zur Person folgendes …“"). Die Bundesbeauftragte für die Stasiunterlagen, Marianne Birthler, erklärte hierzu, es gäbe in ihrem Haus keine Zweifel daran, dass der IM nach Aktenlage „nur Gregor Gysi gewesen sein“ könne. Der ARD sagte sie, es gebe Erkenntnisse, dass Gysi „wissentlich und willentlich“ die Stasi unterrichtet habe. Klingenstein erklärte, er sei mit niemandem außer Gysi auf der Rückfahrt zusammen gewesen, der Text könne sich daher nur auf Gysi beziehen. Die erfolglose Klage richtete sich ferner gegen die Freigabe von Protokollen, ausweislich derer DDR-Staatschef Erich Honecker Gysi über dessen Vater ausrichten ließ, dieser solle im Rahmen der „juristisch konsequente[n] Verteidigung“ Havemanns als dessen Rechtsanwalt „ein Vertrauensverhältnis zu Havemann her[zu]stellen mit dem Ziel, dass dieser seine Außenpropaganda einstellt“. Dem liegt ein Tonbandbericht in Ich-Form über ein Gespräch bei, das Gysi 1979 mit Havemann führte. („Ich schlug ihm noch einmal vor, jegliche Veröffentlichungen im Westen zu unterlassen und sich allein auf die DDR zu beschränken.“) Die zunächst mit seiner anwaltlichen Schweigepflicht begründete Berufung zog Gysi später zurück. Gysis öffentliche Auftritte 2008. Gysi bestreitet nach wie vor, als IM tätig gewesen zu sein: Er sei erstmals 1980 von der Stasi wegen der Möglichkeit einer inoffiziellen Mitarbeit überprüft und 1986 abschließend „zur Aufklärung und Bekämpfung politischer Untergrundtätigkeit nicht geeignet“ befunden worden. „Im September 1980 legte die Stasi einen Vorlauf an, um zu prüfen, ob ich als IM infrage käme. Wozu einen solchen Vorlauf im Jahr 1980, wenn ich angeblich 1979 bereits IM war?“ Eine „inhaltliche Weitergabe des Gesprächs mit Thomas Erwin, allerdings nicht an die Stasi, sondern an das ZK der SED“, schließt Gysi aber nicht mehr aus. Er habe außerdem „erhebliche Verbesserungen für Havemann wie die Aufhebung des Hausarrestes oder die Verhinderung weiterer Anklagen erreicht“. Havemanns Sohn Florian hat Gysi in der Angelegenheit ausdrücklich verteidigt. Am 28. Mai 2008 erklärte er in einem Interview: „Unabhängig von der Frage, ob Herr Gysi IM war, was ich nicht beurteilen kann, hat er im Sinne unseres Vaters gehandelt.“ Hingegen stellt Havemanns Frau Katja anhand der Stasi-Unterlagen Gysis Rolle ins andere Licht – und spricht dabei auch über ihre Gewissheit, dass er sich eindeutig hinter "IM Gregor" und "IM Notar" verbirgt. Gysi hinterfragte die Glaubwürdigkeit der Akten: Die Bundesbeauftragte habe in einem anderen Fall erklärt, „dass sie die Diskrepanzen zwischen dem Akteninhalt und tatsächlichen Begebenheiten nicht untersuchen dürfe. Die Behörde sei auch nicht befugt, Unterlagen zu bewerten und auch nicht, Wahrheitsfeststellungen zu treffen.“ Deutscher Bundestag 2008. Am 28. Mai 2008 befasste sich der Bundestag auf Verlangen von CDU/CSU und SPD in der Aktuellen Stunde mit dem „Bericht aus den Unterlagen der Bundesbeauftragten für die Stasi-Unterlagen, Marianne Birthler, über vertrauliche Gespräche, die Gregor Gysi 1979/80 als DDR-Rechtsanwalt mit Mandanten geführt hat“. In der Debatte forderten Abgeordnete der CDU, SPD, Grüne und FDP sowohl Konsequenzen in Form einer Entschuldigung bei den Opfern als auch den Ämterverzicht Gysis. Lafontaines Angriff. Der Vorsitzende der Linksfraktion, Oskar Lafontaine forderte als Konsequenz aus den Äußerungen von Marianne Birthler deren Entlassung. Birthler bekräftigte dagegen, dass die Aktenlage zweifelsfrei zeige, dass Gysi wissentlich und willentlich Informationen an die Stasi geliefert habe. Dies sei gemäß Stasi-Unterlagengesetz entscheidend, als Stasi-Spitzel zu gelten, "unabhängig davon, ob eine Verpflichtungserklärung existiere oder nicht." ZDF-Beitrag verboten. Gegen den entsprechenden ZDF-Beitrag setzte sich Gysi beim Landgericht Hamburg mit einer einstweiligen Verfügung auf Unterlassung und Gegendarstellung zur Wehr. Nachdem das Hamburger Landgericht in erster Instanz gegen Gysi entschied, hob das Hanseatische Oberlandesgericht den Entscheid der Vorinstanz auf. Begründet wurde dies mit einer unzulässigen Verdachtsberichterstattung und unzureichenden Recherchen im Vorfeld. Gegen dieses Urteil wurden durch das ZDF Rechtsmittel eingelegt. Am 4. September 2009 fällte das Landgericht Hamburg im Hauptsacheverfahren das Urteil, das dem ZDF untersagt, durch die im „heute-journal“ vom 22. Mai 2008 erfolgte Berichterstattung den Verdacht zu erwecken, Gysi habe „wissentlich und willentlich an die Stasi berichtet“. Damit hat das Landgericht Hamburg kein grundsätzliches Verbreitungsverbot im Hinblick auf die streitige Äußerung von Frau Birthler verhängt, sondern den Verbotstenor ausschließlich auf die konkrete Darstellungsform in der Sendung „heute-journal“ vom 22. Mai 2008 beschränkt. Im Berufungsverfahren zum weitergehenden Antrag Gysis auf einstweilige Verfügung bestätigte das Oberlandesgericht Hamburg am 8. September 2009 sein Urteil, in welchem dem ZDF überhaupt verboten wird, die Äußerungen Birthlers bestätigend zu verbreiten. In der darauf folgenden Berufungsverhandlung wurde im Urteil vom 23. März 2010 vom OLG Hamburg dieses Verbot bestätigt und eine Revision nicht zugelassen. Eine Beschwerde des ZDF gegen die Nichtzulassung dieser Revision wurde am 20. September 2011 vom Bundesgerichtshof zurückgewiesen. Ausweitung der Ermittlungen 2013. Wegen neuer Hinweise hat die Staatsanwaltschaft Hamburg ihre Ermittlungen gegen Gysi ausgeweitet. Ermittelt wird wegen einer möglicherweise falschen eidesstattlichen Versicherung. Gysi hatte erklärt, „zu keinem Zeitpunkt über Mandanten oder sonst jemanden wissentlich und willentlich an die Staatssicherheit berichtet zu haben“. Fortsetzung der ARD/NDR-Dokumentation. Der Rechtsstreit um den ersten Film "Die Akte Gysi", der im Januar 2011 in der ARD ausgestrahlt wurde, endete mit einem Vergleich, in dem sich der NDR verpflichtete, ihn nicht mehr zu zeigen. Die NDR-Autoren Hans-Jürgen Börner und Silke König setzten ihre Recherchen fort und legen weitere Einzelheiten zu Gysis DDR-Vergangenheit vor – auch (u.a.) zu Gysis Rolle in Fällen von Rudolf Bahro, Robert Havemann, Thomas Klingenstein, Rolf Henrich – ihren zweiten Film "Gysi und die Stasi" strahlte die ARD im Dezember 2013 aus. Politische Positionen. Im Wahlkampf 2013 behauptete Gysi, in Deutschland gelte noch immer das Besatzungsstatut. So forderte Gysi im Interview mit dem Deutschlandfunk ein Ende der Besatzung Deutschlands und die Aufhebung des Besatzungsstatuts, damit Deutschland endlich als Land souverän werden könne. Gysi wiederholte diese Forderungen in Interviews mit dem Tagesspiegel, bei Phoenix und bei TV Berlin. Später nahm er die Aussage zurück, indem er sagte, Deutschland sei nicht besetzt, benehme sich aber häufig so. Herkunft, Familie und Privates. Gregor Gysi stammt aus einer evangelischen Berliner Familie, deren Stammvater, der Seidenfärber Samuel Gysin (* 1681), im frühen 18. Jahrhundert aus Läufelfingen (Schweiz) eingewandert war. Gysi hat aber auch jüdische Vorfahren, so einen jüdischen Urgroßvater mütterlicherseits und eine jüdische Großmutter väterlicherseits. Gregor Gysis Vater Klaus Gysi (1912–1999) ist somit nach jüdischer Sichtweise Jude. Klaus Gysi, studierter Ökonom, trat 1931 der KPD bei und arbeitete nach dem Zweiten Weltkrieg in der DDR als Botschafter, Kulturminister und Staatssekretär für Kirchenfragen. Er war auch für die Staatssicherheit tätig als "IM Kurt". Mütterlicherseits stammen Gregor Gysis Vorfahren aus der jüdischen Kaufmannsfamilie Lessing, die aus der Nähe von Bamberg kam und zeitweise in Sankt Petersburg lebte und tätig war. Sein Urgroßvater war der nach St. Petersburg ausgewanderte Industrielle Anton Lessing, sein Urgroßonkel der Gründer der Bamberger Hofbräu AG Simon Lessing. Irene Gysis Großvater mütterlicherseits Gottfried Lessing, Anton Lessings Sohn, ein in Russland lebender Hütteningenieur, heiratete die deutsch-russische Adelige Tatjana von Schwanebach. Dieser Ehe entstammten zwei Kinder: Gregor Gysis Mutter Irene (1912–2007) und Gottfried Lessing (1914–1979), der zweite Ehemann der späteren Literaturnobelpreisträgerin Doris Lessing. Nach Ausbruch des Ersten Weltkriegs wurde die Familie aufgrund ihrer deutschen Herkunft nach Deutschland ausgewiesen. Die Eltern von Gregor Gysi hielten sich während des Zweiten Weltkriegs in Deutschland auf. Das Paar war im Auftrag der KPD im Widerstand gegen den Nationalsozialismus und heiratete 1945; die Ehe wurde nach 14 Jahren geschieden. Die Mutter Irene Gysi (geborene Lessing) war im Kulturministerium der DDR für den Austausch mit dem Ausland zuständig und leitete später die ostdeutsche Filiale des Internationalen Theaterinstituts. Als Kind wurde Gregor Gysi zeitweise als Synchronsprecher eingesetzt. Seine Schwester Gabriele Gysi (* 1946) ist Schauspielerin, sie lebte bereits seit 1985 in der Bundesrepublik. Gysis erste Ehe endete mit einer Trennung Anfang der 1970er Jahre. In zweiter Ehe war Gysi seit 1996 mit der Rechtsanwältin und Politikerin Andrea Gysi verheiratet, von der er seit November 2010 getrennt lebte und 2013 geschieden wurde. Er hat drei Kinder; einen Sohn aus erster Ehe, eine Tochter aus zweiter Ehe und einen Adoptivsohn. Nachdem Gregor Gysi im Jahr 2004 bereits zwei Herzinfarkte erlitten hatte, musste er sich im November 2004 wegen eines Gehirnaneurysmas einer Operation unterziehen. Infolge dieses Eingriffs erlitt er einen dritten Herzinfarkt. Gysi bezeichnet sich als nicht gläubig und ist konfessionslos. Auszeichnungen. Gysi wurde vom Verband der Redenschreiber deutscher Sprache zum besten Redner des Wahlkampfs für die Bundestagswahl 2013 gekürt. Gabi Zimmer. Gabriele „Gabi“ Zimmer (* 7. Mai 1955 in Berlin) ist eine deutsche Politikerin (Die Linke). Von 2000 bis 2003 war sie Bundesvorsitzende der PDS, zuvor war sie bereits von 1990 bis 1998 Landesvorsitzende der PDS Thüringen und von 1999 bis 2000 PDS-Fraktionsvorsitzende im Thüringer Landtag. Sie ist seit 2004 Mitglied des Europäischen Parlamentes und wurde 2009 und 2014 wiedergewählt. Seit März 2012 ist sie zudem Vorsitzende der Fraktion der Nordische Grüne Linke. Leben und Beruf. Nach dem Abitur absolvierte Gabi Zimmer ab 1973 ein Studium in der Sektion "Theoretische und Angewandte Sprachwissenschaften" an der Karl-Marx-Universität Leipzig in der russischen und der französischen Sprache, welches sie 1977 als Diplom-Sprachmittlerin beendete. Danach begann sie eine Tätigkeit als Sachbearbeiterin beim VEB Jagd- und Sportwaffenwerk "Ernst Thälmann" in Suhl. Von 1981 bis 1987 war sie hier Redakteurin der betriebseigenen Zeitung und gehörte dann von 1987 bis 1989 der Parteileitung der SED dieses Betriebes an. Gabi Zimmer ist konfessionslos, verheiratet und hat zwei Kinder. Partei. Gabi Zimmer wurde 1981 Mitglied der SED. Im November 1989 wurde sie zur SED-Parteisekretärin ihres Betriebes gewählt. Im Februar 1990 wurde sie zur PDS-Bezirksvorsitzenden in Suhl gewählt und war von Juli 1990 bis Dezember 1998 PDS-Landesvorsitzende in Thüringen. Von 1997 bis 2000 war sie stellvertretende Parteivorsitzende. Am 14. Oktober 2000 wurde sie als Nachfolgerin von Lothar Bisky Bundesvorsitzende der PDS. Nach dem Scheitern der Partei an der Fünf-Prozent-Hürde bei der Bundestagswahl 2002 und den anschließenden Flügelkämpfen zwischen Parteilinken und Parteirechten kündigte sie am 7. Mai 2003 auf einem Sonderparteitag der PDS an, nicht erneut zu kandidieren. Am 28. Juni 2003 wurde schließlich Lothar Bisky wieder zum Parteivorsitzenden gewählt. Abgeordnete. Von 1990 bis 2004 war sie Mitglied des Thüringer Landtags. Sie war Spitzenkandidatin ihrer Partei bei den Landtagswahlen 1994 und 1999. Nach der Landtagswahl 1999 wurde sie Vorsitzende der PDS-Landtagsfraktion, gab dieses Amt aber nach ihrer Wahl zur PDS-Bundesvorsitzenden am 1. November 2000 an Werner Buse ab. Bei den Europawahlen 2004, 2009 und 2014 wurde sie zum Mitglied des Europäischen Parlaments gewählt. Dort gehört sie der Fraktion NGL an und ist Stellvertretendes Mitglied im Ausschuss für Beschäftigung und soziale Angelegenheiten sowie Mitglied in der Konferenz der Präsidenten und in der Delegation in der Paritätischen Parlamentarischen Versammlung AKP-EU. Seit März 2012 ist sie zudem Fraktionsvorsitzende. Greenpeace. Greenpeace ist eine 1971 von Friedensaktivisten in Vancouver, Kanada, gegründete transnationale politische Non-Profit-Organisation, die den Umweltschutz zum Thema hat. Sie wurde vor allem durch Kampagnen gegen Kernwaffentests und Aktionen gegen den Walfang bekannt. Später konzentrierte sich die Organisation darüber hinaus auf weitere Themen wie Überfischung, die globale Erwärmung, die Zerstörung von Urwäldern und die Gentechnik. Greenpeace hatte nach eigenen Angaben im Jahr 2012 rund drei Millionen Fördermitglieder und beschäftigte rund 2.400 Mitarbeiter. Greenpeace Deutschland hat mehr als 580.000 Fördermitglieder (2012). Es gibt über 40 Greenpeace-Büros weltweit. Geschichte. Die Organisation entstand Anfang der siebziger Jahre in Vancouver (Kanada) aus der Formation "Don’t Make a Wave Committee", die von US-amerikanischen und kanadischen Atomkraftgegnern und Pazifisten gegründet worden war. Dieses Komitee kam in der Absicht zusammen, eine Serie von Atombombentests zu verhindern, welche die Vereinigten Staaten auf der zu Alaska gehörenden Insel Amchitka durchführen wollten. Benefizkonzert 1970. Am 16. Oktober 1970 fand ein Benefizkonzert von Joni Mitchell, James Taylor und Phil Ochs im Pacific Coliseum in Vancouver statt, dessen Erlöse (Eintritt: 3 Dollar pro Person) einer kleinen Gruppe friedensbewegter Menschen zugutekam, die den Plan hatten, mit einem Schiff vor der Küste Alaskas gegen den anstehenden Atomtest auf Amchitka zu protestieren. Der Name der geplanten Aktion lautete "Greenpeace". Organisiert wurde das Benefizkonzert von Irving Stowe, einem Anwalt und späteren Mitbegründer von Greenpeace, der dabei von Joan Baez unterstützt wurde. Joan Baez konnte damals nicht am Konzert teilnehmen, stellte aber die Verbindung zwischen Stowe und Mitchell her und Mitchell lud Ihren damaligen Freund James Taylor zum Konzert ein. Das Konzert wurde 1970 auf Band aufgezeichnet und die Bänder von Familie Stowe verwahrt. Die Stowes hatten nie das Geld, aber immer die Hoffnung gehabt, das Konzert irgendwann veröffentlichen zu können. Somit konnte die Familie die erforderlichen Restaurierungen nicht selbst durchführen und wusste auch nicht, wie man sich die Rechte am Mitschnitt sichern könnte. Das änderte sich 2006, als John Timmins, Bruder eines Cowboy-Junkies-Mitgliedes, als „Foundation Officer“ zu Greenpeace kam. Als Timmins von den Bändern erfuhr, besuchte er Barbara Stowe, Irvings Tochter, die ihm diese Geschichte erzählte. Timmins gelang es danach, Joni Mitchell und James Taylors Vertreter zu kontaktieren, die erforderliche Erlaubnis zur Restaurierung der Bänder zu erhalten und die Rechte zur Veröffentlichung der Aufnahmen zu sichern. Das Benefizkonzert wurde dann im November 2009 durch Greenpeace als CD und Download-Album mit dem Namen "Amchitka, the 1970 concert that launched Greenpeace" veröffentlicht und wird seither über eine eigene Website vertrieben. Aktion Greenpeace 1971. Die Aktivisten des "Don’t Make a Wave Committee" charterten im September 1971 den von John Cormack befehligten Fischkutter „Phyllis Cormack“ mit der Absicht, den angesetzten zweiten Atomtest zu stören und die Zündung der Bomben zu verhindern. Das Schiff wurde in "Greenpeace" umbenannt und setzte die Segel in Richtung des Testgeländes nach Amchitka. Doch die US Coast Guard fing die "Phyllis Cormack" mit ihrem Küstenwachenschiff "Confidence" ab und zwang sie, zum Hafen zurückzukehren. Auf ihrer Rückkehr nach Alaska erfuhr die Mannschaft, dass in allen größeren Städten Kanadas Proteste stattgefunden und die USA den zweiten unterirdischen Test auf den November verschoben hatten. Die Versuche, mit einem zweiten gecharterten Schiff in die Testzone zu fahren, schlugen zwar fehl, dennoch fanden bei Amchitka keine weiteren Atomtests mehr statt. Später änderte auch die Organisation ihren Namen in „Greenpeace“. Mururoa-Atoll und das Rammen der Vega 1972/73. Im Mai 1972 veröffentlichte die neu gegründete "Greenpeace-Stiftung" einen Appell an verständnisvolle Kapitäne, um ihnen beim Protest gegen die Atomtests der französischen Regierung im Pazifik-Atoll Mururoa zu helfen. Eine Antwort kam hierbei von David McTaggart, einem Kanadier und früheren Unternehmer, der zu diesem Zeitpunkt in Neuseeland lebte. McTaggart verkaufte seine Geschäftsinteressen und zog in den Südpazifik. Sein Handeln war eine Reaktion auf eine Gasexplosion, die einen Angestellten in einer seiner Skihütten ernsthaft verletzt hatte. Entrüstet darüber, dass jede Regierung ihn von jedem Teil des Pazifiks ausschließen könnte, stellte er aus dem Grund seine Jacht, die "Vega", zur Verfügung und machte sich daran, eine Mannschaft zusammenzustellen. 1973 fuhr McTaggart die "Vega" in die Ausschlusszone um Mururoa, damit sein Schiff von der französischen Marine gerammt wurde. Als er den Protest im Folgejahr wiederholte, bestiegen französische Seeleute die Vega und schlugen ihn zusammen. Später veröffentlichte die Marine organisierte Fotos, wie sich McTaggart mit oberen Marineoffizieren eine Schlägerei liefert, und verlangte von den beiden gegnerischen Parteien mehr Zurückhaltung. In einem anderen Licht erschien der Sachverhalt, als in den Medien Fotos erschienen, die McTaggart während der Schlägerei zeigen, die das Mannschaftsmitglied Anne-Marie Horne aufnahm und aus der Jacht schmuggelte. Die Kampagne zeigte Wirkung, als die französische Regierung eine Unterbrechung der oberirdischen Tests bekannt gab, wenngleich sie diese fortan unterirdisch durchführte. Auch in der Folgezeit veranstaltete Greenpeace Kampagnen gegen die Tests im Pazifik, bis die Franzosen ihr Testprogramm 1995 zu Ende brachten. Greenpeace International 1979. 1975 gab es 15-20 verschiedene Gruppen mit dem Namen Greenpeace, erst später wurden sie in einer Organisation zusammengefasst, die am 14. Oktober 1979 unter dem Namen "Greenpeace International" gegründet wurde. Prominente Gründungsmitglieder waren unter anderem David McTaggart, Robert Hunter und Patrick Moore. Auf Initiative McTaggarts wurde das Hauptquartier nach Europa verlegt, wo es gut organisierte Ableger gab, welche finanziell besser aufgestellt waren als die kanadische Organisation. Die Versenkung der Rainbow Warrior 1985. 1985 sollte die "Rainbow Warrior" zum Mururoa-Atoll in Französisch-Polynesien fahren, um gegen die dort stattfindenden französischen Atomtests zu protestieren. Im Hafen von Auckland vor Anker liegend wurde sie am 10. Juli 1985 durch Agenten des französischen Auslands-Nachrichtendienstes (DGSE) versenkt. Dabei ertrank der niederländisch-portugiesische Greenpeace-Fotograf Fernando Pereira. Aktivitäten. a> und die damit verbundene CO2-Emission Ein zentrales Element der Greenpeace-Arbeit ist die Aktion. Hierbei begeben sich Aktivisten an einen Ort, der ihrer Auffassung nach symbolisch für Umweltzerstörung steht und protestieren dort meistens mit Transparenten. Mittels oft spektakulärer Auftritte direkt am Ort des Geschehens versucht die Organisation, die Öffentlichkeit aufmerksam zu machen, um meist große Industriekonzerne oder Regierungen durch öffentlichen Druck zum Einlenken zu bewegen. Diese Art des Auftretens machte die Organisation in den achtziger Jahren bekannt. Neben eher konventionellen Methoden von Umweltorganisationen wie Beeinflussung von Politikern und Anwesenheit bei internationalen Organisationen verfolgt Greenpeace noch die ausdrückliche Methodik direkter Aktionen ohne Gewaltanwendung. Die Methode, die Aufmerksamkeit der Öffentlichkeit auf sich zu lenken, wurde vom „Bearing Witness“ (Zeugnis ablegen) der Quäker abgeleitet. Dabei geht es Greenpeace nach eigenen Angaben darum, „Zeugnis abzulegen“ über Unrecht, das der Meinung der Organisation nach geschieht. So positionieren sich beispielsweise Mitglieder öffentlichkeitswirksam zwischen der Harpune der Walfänger und deren Beute oder dringen in Atomkraftwerke ein. Um ihre Standpunkte wissenschaftlich belegen beziehungsweise neue Standpunkte entwickeln zu können, beauftragt Greenpeace wie andere Umweltschutzorganisationen Wissenschaftler mit dem Anfertigen von Studien. Außerdem ist Greenpeace in vielen internationalen Gremien beratend tätig. Von anderen Umweltschutzorganisationen grenzt sich Greenpeace unter anderem durch die Beschränkung auf bestimmte, meist weltweit verfolgte, öffentlichkeitswirksame Themengebiete ab wie zum Beispiel Atomkraft, Globale Erwärmung, Biodiversität und Artenschutz, Grüne Gentechnik, Biopatente und Chemie. Bereits seit längerem plädiert die Umweltschutzorganisation gegen den Import von Atomstrom Eine weitere Kampagne der Organisation richtet sich beispielsweise gegen H&M. Der Modehersteller verwende zu viele chemische Zusätze in den Sachen. Nach langem Hin und Her beugte sich H&M und sicherte Greenpeace die Verringerung der chemischen Zusätze zu. Themen wie Verkehr oder Hausmüll spielen höchstens eine untergeordnete Rolle in einigen Greenpeace-Länderbüros. Auch ist Greenpeace entgegen weitläufigen Annahmen keine Tierschutzorganisation. Die Brent-Spar-Kampagne. "siehe Hauptartikel Brent Spar" Im Jahr 1995 erreichte Greenpeace durch die Besetzung des schwimmenden Öltanks Brent Spar, dass die Betreiberfirmen Shell und Exxon von der geplanten Versenkung im Nordatlantik Abstand nahmen und die Anlage statt dessen an Land entsorgen ließen. Die Kampagne führte zu einem Verbot der Versenkung von Ölplattformen im Nordatlantik. Im Zuge der Kampagne hatte Greenpeace grob falsche Schätzungen zur Menge der Ölrückstände auf der Plattform veröffentlicht. Die Organisation hat sich für die falschen Zahlen bei Shell und der Öffentlichkeit entschuldigt. Kampagnen gegen Mahagoni-Holz. 2001 organisierte Greenpeace eine Aktion gegen die US-Importe von brasilianischem Mahagoni-Holz im Wert von zehn Millionen US-Dollar, nachdem die brasilianische Regierung eine Wartefrist für Exporte von Mahagoni-Holz verhängt hatte. Am 12. April 2002 enterten zwei Vertreter von Greenpeace das Schiff und trugen das Mahagoni-Holz, um ein Transparent mit der Aufschrift „Präsident Bush, stoppen Sie die illegale Abholzung“ aufzuhängen. Die beiden Vertreter wurden zusammen mit vier anderen, die ihnen halfen, verhaftet. Nachdem sie sich schuldig bekannt und eine Ordnungsgeld gezahlt hatten, wurden sie zu einem Wochenende Gefängnis verurteilt. Am 18. Juli 2003 verwendete das Justizministerium der USA den Vorfall dazu, die gesamte Organisation Greenpeace an sich unter das 1872 verabschiedete und relativ unbekannte „Sailormongering-Gesetz“ zu stellen, das 1890 zuletzt angewendet worden war. Die Berufung auf dieses Gesetz, das den Zweck hatte, gewaltlose kriminelle Demonstranten strafrechtlich verfolgen zu können, löste auf der ganzen Welt Proteste aus. Zu den Kritikern dieser strafrechtlichen Verfolgung gehörten Al Gore, Patrick Leahy, die National Association for the Advancement of Colored People, die "ACLU of Florida" und die "People For the American Way". Das Ministerium stellte dies später beim Bundesgericht in Miami am 14. November 2003 auf überarbeitete Anklageschrift um, indem es die Aussage, dass Greenpeace fälschlicherweise behauptet hätte, dass das Mahagoni-Holz auf dem betroffenen Schiff Schmuggelware sei, fallen ließ. Am 16. Mai 2004 entschied der zuständige Richter Adalberto Jordan zugunsten von Greenpeace und kam zu dem Ergebnis, dass „die Anklage eine seltene – und wohl auch beispiellose – strafrechtliche Verfolgung einer rechtlich legalen Gruppe“ sei, deren Verhalten zur freien Meinungsäußerung gehöre. Kampagnen gegen IT-Hersteller. In den letzten Jahren haben es sich Greenpeace-Aktivisten zur Aufgabe gemacht, Hersteller der IT-Industrie durch Kampagnen zu umweltbewussterem Handeln im Sinne von Green IT zu bewegen. Zum Beispiel blockierten 2004 niederländische Greenpeace-Aktivisten in diesem Zusammenhang das Utrechter Büro der Firma Hewlett-Packard und im Mai 2005 wurde vor der Genfer Zentrale eine LKW-Ladung Elektronikschrott abgeworfen. Im Dezember 2005 demonstrierten erneut Aktivisten vor dem Hauptquartier in Palo Alto, weil die Firma als führendes Unternehmen der Branche weitaus mehr gefährliche Stoffe bei der Produktion verwendet als die Konkurrenzunternehmen. 2006 rief Greenpeace im Internet im Rahmen einer Mitmachkampagne die Apple-Nutzer zur kreativen Beteiligung auf, um den Hersteller dazu zu bewegen, weniger giftige Chemikalien bei der Herstellung seiner Geräte zu verwenden. Ferner wurde hierbei das eingeschränkte Rücknahme- und Recyclingprogramm für Altgeräte von Apple kritisiert. Für diese Aktion wurde Greenpeace 2007 von der International Academy of Digital Arts and Sciences bei der 11. Verleihung des Webby Awards mit einem Preis in der Sparte „Aktivismus“ ausgezeichnet. Kampagnen gegen Kohlepolitik. Zuletzt im Herbst 2014 machte Greenpeace durch eine Aktion mit einem Schaufelrad auf der SPD-Zentrale in Berlin auf die Kohlepolitik der Bundesregierung aufmerksam, verbunden mit der Botschaft an den Bundeswirtschaftsminister Sigmar Gabriel "Kohle zerstört das Klima!". Bisherige Erfolge. Zu den Erfolgen der Organisation zählen unter anderem das Ende des kommerziellen Walfangs seit 2002, die Einrichtung eines Schutzgebietes in der Antarktis und der vorzeitige Stopp vieler Atombombentestreihen. Zu den bedeutendsten Erfolgen, die die Organisation ihrem Einfluss zuschreibt, gehören unter anderem die Einstellung von Atomtests auf Amchitka in Alaska (1972) und die Verlängerung des Antarktisvertrages (1991), der die Besitznahme der Antarktis durch andere Länder oder aus kommerziellen Interessen verbietet. Um letzteres zu sichern, wurde in der Antarktis die "World Park Base" errichtet, die von 1987 bis 1992 in Betrieb war. Bereits 1983 war ein "Weltpark Antarktis" gefordert worden. In einem Patentstreit mit dem Neurobiologen Oliver Brüstle erwirkte Greenpeace 2011 durch den Europäischen Gerichtshof (EuGH) in Luxemburg ein Urteil, das das Patentieren menschlicher embryonaler Stammzellen verbietet. Der Bonner Forscher hatte 1997 ein Patent für nervliche Vorläuferzellen angemeldet, die er aus menschlichen embryonalen Stammzellen herstellte. Greenpeace machte ethische Bedenken gegen die Patente des Wissenschaftlers geltend. Das Bundespatentamt erklärte das Patent daraufhin für nichtig und verwies auf den Schutz der Menschenwürde und des menschlichen Lebens. Als nächste Instanz war der Bundesgerichtshof mit der Sache befasst. Dieser verwies die Frage an den EuGH. Greenpeace in Deutschland. Greenpeace-Boot auf der Süderelbe nahe dem Länderbüro Deutschland in Hamburg 1980 in Bielefeld von William Parkinson, Gerhard Dunkel, Dirk Rehrmann u. a. gegründet, erlangte die heute in Hamburg ansässige Organisation in Deutschland eine große Bekanntheit mit ihren Protesten gegen die Dünnsäureverklappung in der Nordsee und gegen die Luftverschmutzung mit Dioxinen durch den Chemiekonzern Boehringer. Den größten von der deutschen Öffentlichkeit wahrgenommenen Erfolg erreichte die Organisation 1995, als sie den Konzern Shell nach einem monatelangen Medienkrieg dazu bewegen konnte, auf die Versenkung des schwimmenden Öltanks Brent Spar im Atlantik zu verzichten und zudem im Jahr darauf international ein Versenkungsverbot für Ölplattformen im Nordatlantik festgeschrieben wurde. Greenpeace hat im Laufe dieser Kampagne eine stark überhöhte Angabe zur Ölmenge an Bord des Tanks gemacht und dies später der Öffentlichkeit gegenüber auf einen Messfehler zurückgeführt. Greenpeace Deutschland ist ein als gemeinnützig anerkannter, eingetragener Verein. Die Mitgliederversammlung, das oberste Beschlussgremium, besteht laut Satzung aus 40 stimmberechtigten Mitgliedern – zusammengesetzt aus 10 Mitarbeitern von Greenpeace Deutschland, 10 Mitarbeitern von ausländischen Greenpeace-Büros, 10 Personen aus dem öffentlichen Leben sowie 10 ehrenamtlichen Mitgliedern. Diese 40 Mitglieder werden nicht von den Fördermitgliedern gewählt, was Greenpeace schon den Vorwurf eingebracht hat, eine undemokratische Organisationsstruktur zu haben. Die Organisation verweist hingegen auf die höhere Effizienz, Schnelligkeit und Unabhängigkeit dieser Organisationsform. Bei basisdemokratischen Mitgliederversammlungen sei meistens nur ein Bruchteil der Wahlberechtigten anwesend, was es Splittergruppen oder Industrielobbyisten leicht machen würde, ihre Stimmmacht zu missbrauchen. Die Handlungsfähigkeit der Organisation beruht im Wesentlichen auf den 580.000 Fördermitgliedern (Stand: 2011), die Greenpeace zur größten deutschen Umweltschutzorganisation machen. Als finanzstärkstes Länderbüro schultert Greenpeace Deutschland schon seit Jahren den Großteil der Ausgaben für internationale Greenpeace-Kampagnen. Ende Oktober 2013 bezog das Länderbüro Deutschland seinen neuen Sitz in der Hamburger HafenCity. Im Jahr 2011 hat Greenpeace Deutschland Jahreserträge von rund 48,9 Millionen Euro erwirtschaftet. Im Vergleich zu 2010 (46,7 Millionen) entspricht das einem leichten Zuwachs. Der deutsche Kommunikationsdirektor der Umweltschutzorganisation Michael Pauli bestätigte, dass die Organisation insgesamt rund 90 Millionen Euro für Fundraising, also das Spendensammeln, ausgebe - „um 300 Millionen Euro Einnahmen weltweit zu erhalten. Wir sehen das positiv.“ Greenpeace-Jugend. Seit 1995 gibt es Jugendaktionsgruppen (JAG) der Greenpeace-Jugend. In den JAGs können sich Jugendliche zwischen 14 und 19 Jahren für den Umweltschutz engagieren. In rund 40 Städten sind über 700 Jugendliche auf diese Art und Weise aktiv und richten sich mit ihren Aktionen auch an die Öffentlichkeit und die Politik. Themenschwerpunkte sind dieselben wie die der Greenpeace-Mutterorganisation. Für Kinder zwischen 10 und 14 Jahren gibt es bei Greenpeace die Möglichkeit so genannte "Greenteams" zu gründen. Hier können sich die Kinder – mit ein wenig Hilfe von Erwachsenen – auch schon für den Umweltschutz engagieren und eigene Aktionen gestalten. Ozeaneum Stralsund. Greenpeace arbeitet mit der Stralsunder Stiftung Deutsches Meeresmuseum zusammen. Die Organisation gestaltet eine Ausstellung im Ozeaneum Stralsund mit, in der unter dem Titel "1:1 Riesen der Meere" in einer 18 Meter hohen Halle lebensgroße Modelle verschiedener Walarten präsentiert werden. Außerdem ist in einem 1.500 Liter fassenden, mit Formalin gefüllten Wasserbecken ein aus Neuseeland stammender Riesenkalmar zu sehen. Weitere Projekte. Ein weiteres wichtiges Standbein von Greenpeace Deutschland sind die über 100 Ortsgruppen mit ihren über 4.000 ehrenamtlichen Mitarbeitern. Über 5.000 Aktivitäten sind 2011 mit Hilfe von Ehrenamtlichen in Deutschland unterstützt worden. Die Greenpeace Stiftung ist verbunden mit dem Bergwaldprojekt, das 1987 durch Greenpeace Schweiz gegründet wurde, und betreut den Tierpark Arche Warder. Außerdem gibt es das Greenpeace-Magazin, das von der Greenpeace Media GmbH herausgegeben wird und neben Umweltschutz ebenso soziale und wirtschaftliche Themen behandelt. Die Redaktion ist unabhängig vom Verein Greenpeace. Greenpeace weltweit. Greenpeace arbeitet als international agierende Umweltschutzorganisation mit 27 nationalen und 15 regionalen Büros. Die Arbeiten der einzelnen Greenpeace-Sektionen sind untereinander koordiniert, die internationalen Kampagnen und Arbeitsgebiete werden unter Federführung von Greenpeace International entwickelt und für alle Länderbüros vorgeschlagen. Die internationale Greenpeace-Organisation ist die "Stiftung Greenpeace Council", eine Stiftung nach niederländischem Recht mit Sitz in Amsterdam. Sie ist unter der Nummer 41200415 der Handelskammer Amsterdam registriert. Die Greenpeace Organisationen sind in den verschiedenen Ländern in unterschiedlichen Rechtsformen organisiert: In Deutschland als eingetragener Verein, in der Schweiz als eine Stiftung. Greenpeace-Schiffe. Seit Greenpeace gegründet wurde, spielen Hochseeschiffe in den jeweiligen Kampagnen eine sehr große Rolle. Sirius im Hafen von Amsterdam Eisklassen-Schiff Gondwana, 1990 im Panamakanal 1978 stellte Greenpeace die "Rainbow Warrior" in Dienst, einen 40 Meter langen früheren Fisch-Trawler. Einer der ersten Einsätze der "Rainbow Warrior" wandte sich gegen isländischen Walfang. Zwischen 1978 und 1985 engagierten sich Mitglieder der Mannschaft direkt bei friedlichen Aktionen gegen das Abladen von giftigem und radioaktivem Müll in Ozeanen, gegen die Jagd auf die Kegelrobbe auf den Orkney-Inseln und gegen Atomtests im Pazifik. 1985 sollte "Rainbow Warrior" in den Gewässern um das Mururoa-Atoll demonstrieren, wo Frankreich gerade Atomtests durchführte. Bei der Versenkung des Schiffes (siehe Versenkung der Rainbow Warrior) mit zwei Bomben durch den französischen Geheimdienst, kam auch der Fotograf Fernando Pereira ums Leben. 1989 gab Greenpeace den Auftrag, ein Ersatzschiff zu beschaffen, das "Rainbow Warrior" genannt wurde. Es war das Flaggschiff der Greenpeace-Flotte, bis es am 16. August 2011 in Singapur der NGO Friendship übergeben wurde. Am 4. Juli 2011 setzte sich durch den Stapellauf der "Rainbow Warrior" die Namenstradition fort. Das neue Schiff hat Platz für 32 Besatzungsmitglieder und einen Hubschrauberlandeplatz. Vornehmlich als Segler konzipiert, hat es dennoch einen effizienten Dieselmotor mit Katalysator, was bei Schiffsmotoren unüblich ist. Der Preis für das werftneue Schiff betrug 23 Millionen Euro. Weitere Schiffe, die sich im Besitz von Greenpeace befinden, sind die "Sirius" (seit 1981), die "Arctic Sunrise" (seit 1996), die "Esperanza" (seit 2002) und die "Beluga II" (seit 2004). Im Jahre 1995 erregte das gecharterte Greenpeace-Schiff "Altair" erhebliches Aufsehen in den Medien, erst als es am 30. April die Tank- und Verladeplattform Brent Spar in der Nordsee besetzte, um deren Versenkung im Atlantik zu verhindern, und dann ein zweites Mal, als es am 25. Oktober im italienischen Brindisi von der Besatzung einer französischen Fregatte geentert und beschädigt wurde. Am 19. September 2013 wurde die Arctic Sunrise von Beamten des russischen Grenzschutzes gestürmt. Greenpeace-Aktivisten hatten am Vortag versucht, die Ölplattform Priraslomnaja des russischen Staatskonzerns Gazprom in der Petschorasee zu besetzen. Rezeption. Greenpeace wurde bei den Save The World Awards 2009, die in Zwentendorf/NÖ überreicht wurden, ein Preis für sein weltweites Engagement zum Schutz des Weltklimas verliehen. Manche kritisieren die Vorgehensweise der Organisation an sich, die sie für zu direkt und teilweise illegal halten: Gerade bei Protesten auf oder direkt neben dem Gelände von Unternehmen reagieren die Betreiber oft mit Anzeigen wegen Hausfriedensbruch und Nötigung und versuchen, einstweilige Verfügungen gegen den Verein durchzusetzen. Greenpeace-Aktivisten gehen das Risiko einer Verurteilung ein, weil sie durch ihr Auftreten die Aufmerksamkeit der Öffentlichkeit auf sich ziehen können, unter anderem, um deren Spendenbereitschaft zu erhöhen und sie damit höhere Rechtsgüter durchzusetzen hoffen, die ihrer Ansicht nach anders nicht durchzusetzen wären. Gemeinnützigkeit. Einige Kritiker der Organisation stellen deren steuerliche Begünstigung in Frage, in den USA etwa die von ExxonMobil finanzierte und ausschließlich zur Beobachtung von Greenpeace gegründete "Public Interest Watch" (PIW). Im März 2006 bestätigte die Steuerbehörde IRS, dass Greenpeace USA zu Recht die Steuervorteile einer Non-Profit-Organisation besitzt. In Deutschland gab es mehrere Versuche, die Gemeinnützigkeit abzuerkennen, die jedoch bislang nicht erfolgreich waren. Im Dezember 2004 untersuchte das Finanzamt Hamburg, ob Greenpeace gegen Gesetze verstoßen hat und dem Verein deshalb der Status der Gemeinnützigkeit für 2003 aberkannt werden soll, weil die Organisation sich auf ihrer Internetseite nicht von bestimmten rechtswidrigen Aktionen distanziert habe. 1989 wurde in Kanada das Steuerrecht für gemeinnützige Organisationen geändert. Greenpeace und andere Organisationen verloren dadurch den Status der Gemeinnützigkeit. Am 6. Mai 2011 wurde die Berufung im Zuge eines abgewiesenen Antrags von Greenpeace of New Zealand Inc. auf Gemeinnützigkeit durch das High Court of New Zealand abgelehnt, da die Organisation durch ihr Lobbying zu politisch orientiert sei. In diesem Zusammenhang wurden auch potentiell illegale Aktivitäten durch Greenpeace als Begründung genannt. Undemokratische Strukturen. Undemokratische Strukturen werden der Organisation immer wieder vorgeworfen. Im Gegensatz zu den meisten anderen großen Umweltorganisationen haben die Basis-Aktivisten und Förderer bei Greenpeace nur wenige bzw. keine Mitbestimmungsrechte, so spricht der Spiegel von einem „nicht eben demokratische[n] Verbandsaufbau“. Bereits in den 1980er Jahren spaltete sich die Organisation Robin Wood „unter anderem aus Protest gegen den als undemokratisch empfundenen ‚Öko-Multi‘ Greenpeace“ ab. Greenpeace argumentiert, dass eine international handlungsfähige Organisation nicht jede einzelne Entscheidung basisdemokratisch treffen könne und verweist auf die höhere Effizienz, Schnelligkeit und Unabhängigkeit seiner Organisationsform. Unwissenschaftlichkeit. Ein konkretes Beispiel für den Vorwurf der Unwissenschaftlichkeit ist die Ablehnung des Goldenen Reis. Moore warf der Organisation im Zusammenhang mit deren Lobby-Tätigkeit gegen die Zulassung von Goldenem Reis die Mitschuld am Tod von Kindern in Entwicklungsländern und Verbrechen gegen die Menschlichkeit vor. Laut Ingo Potrykus hätte Greenpeace Probleme, wenn die Menschen erkennen würden, dass Angst unbegründet ist und dass die Technologie zur Rettung von Menschenleben eingesetzt werden könnte. Kritik von Paul Watson. Paul Watson war 1972 eines der ersten Mitglieder von Greenpeace International und bis 1977 deren Vorsitzender. Im Jahre 1977 verließ Watson Greenpeace im Streit und gründete die Sea Shepherd Conservation Society. Ihm war die Organisation Greenpeace zu passiv und zu ineffizient. Nach seinen Worten hat sich Greenpeace zur größten „Wohlfühlorganisation“ der Welt entwickelt. Er sagt, dass Menschen Greenpeace beitreten, um sich gut zu fühlen. Sie wollen sich als Teil der Lösung fühlen und nicht als Teil des Problems. Nach der Meinung von Paul Watson ist Greenpeace ein Geschäft. Dieses Geschäft verkaufe den Menschen ein gutes Gewissen. Devisenverluste 2013. Im Juni 2014 wurde bekannt, dass durch Devisentermingeschäfte eines Mitarbeiters der Greenpeace-Zentrale in Amsterdam zur Absicherung von Währungsschwankungen Verluste in Höhe von insgesamt 3,8 Millionen Euro entstanden. Das Geld sei ursprünglich für den Aufbau neuer Länderorganisationen gedacht gewesen, der Verlust sei laut einem Greenpeace-Sprecher „gravierend, aber nicht existenzbedrohend“, aktuelle Kampagnen seien nicht gefährdet. Greenpeace International hat nach eigenen Angaben allein 2012 rund 270 Millionen Euro eingenommen, die Gelder stammten wie auch hier, größten Teils aus Spenden. Vorsatz und persönliche Motive konnten laut Greenpeace ausgeschlossen werden. Der mittlerweile entlassene Finanzmitarbeiter für den internationalen Bereich hatte scheinbar eine Firma damit betraut Organisations-Gelder anzulegen. Dass Makler auf dem Finanzspekulationsmarkt, mit fortwährenden globalen Schäden, mit Greenpeace-Geldern „zocken“, wird kritisiert und statt dessen mehr Geldanlage in ökologische Unternehmen gefordert. Nach dem Bekanntwerden der Millionenverluste hat Greenpeace in Österreich rund 200 und in Deutschland rund 700 Förderer verloren. Ein Sprecher von Greenpeace Österreich sagte es habe, gerade in dieser schwierigen Situation, auch viele zusätzliche Spenden gegeben - aus Solidarität. Nazca-Linien. Im Dezember 2014 platzierten Greenpeace-Aktivisten während der Weltklimakonferenz in Lima Stofftücher in unmittelbarer Nähe der Kolibri-Figur der Nazca-Linien, welche den Schriftzug "Time for change! The future is renewable!" sowie das Greenpeace-Logo darstellten. Die Peruanische Regierung verurteilte die Aktion an der empfindlichen archäologischen Stätte und ersuchte um die Festnahme der 20 Beteiligten, was jedoch von einem lokalen Gericht zurückgewiesen wurde. Nach Ana María Cogorno der Vorsitzenden der Nazcalinien-Schutzorganisation Asociación María Reiche sind die durch Greenpeace entstandenen Schäden irreparabel. Newsletter und Zeitschrift. Der Verein versendet Newsletter zu aktuellen Kampagnen und Aktionen und viermal pro Jahr kostenfrei die Zeitschrift "Greenpeace Nachrichten" () an seine Förderer. Graz. Graz ist die Landeshauptstadt der Steiermark und mit 280.423 Einwohnern (Stand: 1. Oktober 2015) die zweitgrößte Stadt der Republik Österreich. Die Stadt liegt an beiden Seiten der Mur im Grazer Becken. Die Metropolregion Graz ist mit 605.143 Einwohnern (Stand 2014) nach den Metropolregionen Wien und Linz die drittgrößte Metropolregion Österreichs. Der Großraum Graz war in den letzten 10 Jahren der am schnellsten wachsende Ballungsraum Österreichs. Das Grazer Feld war in der römischen Kaiserzeit eine dicht besiedelte Agrarlandschaft. Im 6. Jahrhundert wurde hier eine Burg errichtet, von der sich der Name Graz ableitet (alpenslaw. "gradec" bedeutet "kleine Burg"). Das Stadtwappen erhielt Graz 1245, von 1379 bis 1619 war Graz habsburgische Residenzstadt und widerstand in diesem Zeitraum mehreren osmanischen Angriffen. 2003 war Graz die Kulturhauptstadt Europas. Graz hat sich zu einer Universitätsstadt mit insgesamt über 45.000 Studierenden entwickelt. Sie wurde zur Menschenrechtsstadt erkoren und ist Trägerin des Europapreises. Die Altstadt von Graz und das Schloss Eggenberg gehören zum UNESCO-Weltkulturerbe. Graz ist Bischofssitz der Diözese Graz-Seckau. Seit März 2011 ist Graz als "UNESCO City of Design" Teil des Creative Cities Network. Lage und Stadtgliederung. Graz liegt an beiden Seiten der Mur, wo diese ihren Durchbruch durch das Grazer Bergland beendet und in das Grazer Becken eintritt. Die Stadt füllt den nördlichen Teil des Grazer Beckens von Westen bis Osten fast vollständig aus und ist an drei Seiten von Bergen umschlossen, die das verbaute Stadtgebiet um bis zu 400 m überragen. Nach Süden öffnet sich das Stadtgebiet ins Grazer Feld. Der höchste Punkt in Graz ist der Plabutsch mit 754 m im Nordwesten der Stadt, die tiefste Stelle, mit etwa 330 m, befindet sich dort, wo die Mur die Stadt im Süden verlässt. Innerhalb von Graz befinden sich zwei markante Erhebungen: einerseits der Schloßberg und andererseits der Austein mit dem Kalvarienberg. Graz liegt rund 150 km südwestlich von Wien. Die nächste Stadt mit überregionaler Bedeutung ist Marburg an der Drau (Maribor) in Slowenien, rund 60 km südlich von Graz gelegen. Die beiden Städte verbinden immer enger werdende kulturelle und wirtschaftliche Beziehungen. Die Europaregion Graz-Maribor ist ein Beispiel dafür. Blick vom Schloßberg in den Süden von Graz Blick vom Schloßberg in den Norden von Graz Graz gegen Süden, die Mur mit Brücken Bezirke. Das Stadtgebiet von Graz ist in 17 Stadtbezirke gegliedert. Rund um den ersten Bezirk, der Inneren Stadt (I.), reihen sich St. Leonhard (II.), Geidorf (III.), Lend (IV.), Gries (V.) und Jakomini (VI.). Abgesehen von der Altstadt sind fünf der sechs Kernbezirke historisch gewachsen. Innerstädtische Zentren, von denen das Wachstum ausging, waren der Murplatz, heute Südtiroler Platz, in der ehemaligen Murvorstadt, der Jakominiplatz, die ehemals eigenständige Vorstadt Geidorf, die sich um die Leechkirche gebildet hatte und der Guntarn-Hof, ein historischer Hof auf dem Areal der Leonhardkirche, der als zweites Grazer Siedlungsgebiet gilt. In der Murvorstadt entwickelten sich die Bezirke Gries um den Griesplatz und Lend um den Lendplatz. Die restlichen Bezirke bilden den äußeren Ring von Graz: Liebenau, St. Peter, Waltendorf, Ries, Mariatrost, Andritz, Gösting, Eggenberg, Wetzelsdorf, Straßgang und Puntigam. Der gesamte äußere Ring der Vorstadtgemeinden wurde 1938 in Stadtbezirke umgewandelt, es kam zur Bildung von „Groß-Graz“ und zu einem dadurch bedingten Bevölkerungsanstieg; die Abspaltung Puntigams von Straßgang erfolgte 1988. Katastralgemeinden. Graz ist in 28 Katastralgemeinden aufgeteilt: Die Bezirke Innere Stadt, St. Leonhard, Geidorf, Lend, Gries, Jakomini, Wetzelsdorf, Gösting sowie Waltendorf bilden je eine Katastralgemeinde. Einige äußere Bezirke bestehen aus Katastralgemeinden, die mit dem jeweiligen Bezirk nicht deckungsgleich sind. Diese sind Engelsdorf, Messendorf (teilweise), Thondorf, Liebenau, Murfeld und Neudorf in Liebenau; Stifting und Ragnitz in Ries; Wenisbuch und Fölling in Mariatrost; Andritz, St. Veit ob Graz und Weinitzen in Andritz; Algersdorf und Baierdorf in Eggenberg; Straßgang (teilweise) und Webling (teilweise) in Straßgang; sowie Gries (teilweise), Rudersdorf, Straßgang (teilweise) und Webling (teilweise) in Puntigam. Bei einigen Katastralgemeindenamen ist die alte, dörfliche Struktur erhalten geblieben. Drei Beispiele: Algersdorf war ein eigenständiges Dorf außerhalb des Stadtgebietes, wie Thondorf im heutigen Liebenau oder Wenisbuch in Mariatrost. Andere Dörfer und Ortschaften wie St. Johann oder Kroisbach im Bezirk Mariatrost, die vor der Eingemeindung einen geschlossenen Siedlungskern bildeten, werden nicht als Katastralgemeinden geführt. Klima. Graz liegt im Bereich der illyrischen Klimazone. Durch die Lage am südöstlichen Alpenrand ergibt sich eine gute Abschirmung gegenüber den in Mitteleuropa vorherrschenden Westwetterlagen. Größere Niederschlagsmengen dringen daher vorwiegend aus dem mediterranen Bereich ein. Die Durchschnittstemperaturen betragen am Flughafen Graz-Thalerhof 8,7 °C und bei der Universität Graz 9,4 °C. Der mittlere Jahresniederschlag ergibt bei durchschnittlich 92,1 Niederschlagstagen (Messpunkt Universität Graz) eine Gesamtmenge von 818,9 mm. Durch die geschützte Lage herrscht mildes Klima, sodass in den Parkanlagen und auf dem Schloßberg Pflanzenarten gedeihen, die üblicherweise erst in Südeuropa anzutreffen sind. Der mediterrane Einfluss zeigt sich in über 2100 jährlichen Sonnenstunden sowie einer durchschnittlichen Julitemperatur von 21 °C im zehnjährigen Mittel. Die Beckenlage hat vor allem in den Wintermonaten klimatische Nachteile: Besonders im Winter kommt es oft zur Inversionswetterlage, die einen Luftaustausch im Grazer Becken verhindert und eine hohe Smog- und Feinstaubbelastung bewirkt. Etwa 140.000 Autos, die wochentags im innerstädtischen Verkehr unterwegs sind, tragen neben den Haushalts- und Industrieabgasen maßgeblich zur Feinstaubbelastung bei. In einer vom steirischen Gesundheitsreferat in Auftrag gegebenen Studie findet sich ein direkter Zusammenhang zwischen Feinstaub und Erkrankungen in der Bevölkerung. Es wurde ermittelt, dass der Feinstaub für ein erhöhtes Krankheitsrisiko verantwortlich ist. Der motorisierte Individualverkehr wurde in dieser Studie als Hauptverursacher des Feinstaubs in Graz eruiert. Der Grenzwert der Feinstaubbelastung von 50 µg/m³ wird in Graz seit Jahren regelmäßig überschritten. Geologie. Das Gebirgsland nördlich von Graz auf beiden Seiten des engen Murtals besteht aus Kalk und Schiefer aus dem Paläozoikum. Hydrologie. Das Stadtgebiet von Graz wird von der Mur durchflossen. Neben diesem gibt es noch eine Reihe von Fließgewässern. Siehe Liste der Fließgewässer in Graz. Bevölkerungsentwicklung. Die Bevölkerungszahl von Graz überschritt etwa im Jahr 1870, in der sogenannten Gründerzeit, die 100.000er-Marke. In der Folge stieg die Einwohnerzahl bis in die 1970er Jahre stetig an – teilweise durch natürlichen Zuwachs und Zuwanderung, teilweise durch Eingemeindung von Nachbarorten im Jahre 1938 nach dem Anschluss Österreichs durch die Nationalsozialisten. Von Ende der 1970er Jahre bis 2001 verringerte sich die Zahl wieder, da viele Grazer in die Umlandgemeinden zogen. Obwohl in diesen Jahren die Zahl der Bewohner mit Hauptwohnsitz abnahm, gab es zeitgleich eine Zunahme an Bewohnern mit Zweitwohnsitz und seit 2001 wieder eine Zunahme von Einwohnern mit Hauptwohnsitz. Hinzu kommen in Graz wohnende jüngere Werktätige, die ihren Hauptwohnsitz bei den Eltern außerhalb von Graz haben. Das stellt Graz vor finanzielle Probleme, da die Stadt die Infrastruktur für alle in und um Graz wohnenden Menschen bereitstellen muss, vom Bund jedoch nur Geld für die Bewohner mit Hauptwohnsitz erhält. Andererseits profitieren der Wirtschaftsstandort und die Bauwirtschaft von den meist jüngeren Leuten, die in Graz ihren Zweitwohnsitz haben. Graz ist somit die am schnellsten wachsende Stadt Österreichs. Graz hat zirka 110.000 Haushalte mit einem Frauenanteil von 52 Prozent. Am 9. Jänner 2014 hatten 271.998 Personen ihren Hauptwohnsitz in Graz, 31.375 ihren Nebenwohnsitz, und es gab 358 gemeldete Obdachlose in der Stadt. Bevölkerungsstruktur. 18,14 % der Grazer sind unter 20 Jahre alt, 64,58 % zwischen 20 und 65. Der Anteil der Senioren (Über-65-Jährige) beträgt 17,27 %. 51,66 % der Grazer sind Frauen. 223.071 der Menschen (83,56 %) mit Hauptwohnsitz in Graz sind österreichische Staatsbürger, 16.548 EU-Bürger (6,20 %) und 27.346 Nicht-EU-Bürger (10,24 %). Von den Nicht-EU-Bürgern stammen 2.525 aus Afrika, 1.096 aus Nord- oder Südamerika, 8.655 aus Asien, 68 aus Ozeanien, 1.510 aus Russland und insgesamt 10.610 aus Nicht-EU-Staaten Europas. 371 Grazer sind staatenlos. Staaten, aus denen mindestens 500 Menschen in Graz leben: Bosnien und Herzegowina (5.575), Kroatien (4.912), Deutschland (5.372), Türkei (4.688), Rumänien (4.584), Ungarn (2.012), Russland (1.510), Slowenien (1.386), Italien (1.031), Nigeria (911), Ägypten (716), Mazedonien (675), Polen (639), Volksrepublik und Republik China (Taiwan) (615), Slowakei (612), Bulgarien (591), Serbien und Montenegro (550). Politik. Graz ist eine Statutarstadt. Das bedeutet, dass die Gemeindeorganisation durch ein eigenes Landesgesetz ("Statut der Landeshauptstadt Graz" aus dem Jahr 1967) geregelt wird und die Gemeindeorgane (insbesondere der Magistrat) neben den üblichen Aufgaben einer Gemeinde die der Bezirksverwaltungsbehörde innehaben. Die Grazer Gemeinderatswahlen finden nicht gleichzeitig mit den steirischen Gemeinderatswahlen statt. Graz ist Sitz des Landtages Steiermark (im Landhaus), der Steiermärkischen Landesregierung und aller Landesbehörden, der Bezirkshauptmannschaft Graz-Umgebung, der Wirtschafts-, Landwirtschafts- und Arbeiterkammer Steiermark, der Landespolizeidirektion Steiermark, der Landesgerichte für ZRS und Strafsachen und des Oberlandesgerichtes für Steiermark und Kärnten, der Finanzlandesdirektion und des Arbeitsmarktservices. Gemeinderat. In den letzten Jahrzehnten kam es innerhalb der Grazer Kommunalpolitik zu einigen Besonderheiten: Das in Graz traditionell politisch starke deutschnationale Lager, vertreten durch die FPÖ, erhielt überdurchschnittlich viele Wählerstimmen und stellte zwischen 1973 und 1983 mit Alexander Götz den Bürgermeister. Danach fiel die FPÖ auf wenige Mandate zurück. Zur gleichen Zeit war Graz die erste Großstadt in Österreich, in der die Grünen – als Alternative Liste Graz (ALG) – in den Gemeinderat einzogen (1983). Nachdem in der folgenden Legislaturperiode die Mehrheitsverhältnisse nicht eindeutig waren, teilten sich zwei Bürgermeister die Amtszeit, zuerst Franz Hasiba (ÖVP) und anschließend Alfred Stingl (SPÖ), der nach der Wahl 1988 bis 2003 Bürgermeister blieb. In der folgenden Amtsperiode wurde die KPÖ mit über 20 % der Stimmen drittstärkste politische Kraft. Dieser Erfolg wird dem sozialen Engagement des damaligen KPÖ-Spitzenkandidaten und Gemeinderates Ernest Kaltenegger zugeschrieben. Nachdem Kaltenegger für die KPÖ-Steiermark bei den Landtagswahlen (Oktober 2005) antrat und in den Landtag einziehen konnte, verließ er den Grazer Gemeinderat. Seine Nachfolgerin Elke Kahr setzte dieses Engagement fort. Stadtrat. Der Grazer Stadtrat umfasst sieben Mitglieder, die gemäß den Gemeinderatswahlergebnissen auf die sechs vertretenen Parteien aufgeteilt werden. Bürgermeister. Der erste gewählte Grazer Bürgermeister in der Nachkriegszeit war Eduard Speck (SPÖ), welcher sein Amt bis 1960 ausübte. Er wurde von seinem Parteikollegen Gustav Scherbaum (SPÖ) abgelöst, dieser regierte bis 1973. Nach dem Erstarken des rechtsnationalen Lagers unter der FPÖ wurde 1973 Alexander Götz Bürgermeister; er übte das Amt bis 1983 aus. Auf ihn folgten Franz Hasiba (ÖVP) und Alfred Stingl (SPÖ), welche sich zunächst eine fünfjährige Amtsperiode aufteilten, Stingl behielt das Bürgermeisteramt jedoch bis 2003. Auf ihn folgte Siegfried Nagl (ÖVP), der bei den Gemeinderatswahlen 2008 und 2012 nochmals als Bürgermeister bestätigt wurde. E-Government. Auf der Plattform graz.at können Behördenwege mit Hilfe von Online-Verfahren einfach von zuhause erledigt werden. Bei einem Teil dieser Formulare, wie zum Beispiel dem Förderungsantrag auf Fernwärme oder auch dem Kirchenaustritt ist eine elektronische Signatur mit der Bürgerkarte notwendig. Die verwendete Formularlösung AFORMSOLUTION stammt von dem Unternehmen aforms2web. Städtepartnerschaften. Denkmal für Städtefreundschaft auf dem Schloßberg (2008) Den meisten Städten, mit denen Städtepartnerschaften eingegangen werden, sind im Stadtgebiet einige Straßen- und Wegnamen gewidmet: Am häufigsten vertreten sind Alleebezeichnungen: Coventryallee, Dubrovnikallee, Montclairallee, Pécsallee sind Wege im Grazer Stadtpark, der Groningenplatz ist eine Freifläche im Bereich der Burgringkurve, die St.-Petersburg-Allee befindet sich im Augarten. Die Darmstadtgasse und die Trondheimgasse sind Wohn- und Parallelstraßen im Bezirk Lend. Der Pula-Kai ist ein Murkai zwischen Augartenbrücke und Berta-von-Suttner-Friedensbrücke in Jakomini, der Marburger Kai in der Innenstadt, sowie die Marburger Straße beim ORF-Landesstudio. Die Triester Straße ist eine der Grazer Fernstraßen. Keine Entsprechung im Straßennetz haben die Städte Temeswar und Ljubljana. Stadtwappen. Das Grazer Stadtwappen ähnelt dem steirischen Landeswappen und geht diesem in seiner Darstellung voraus. Es zeigt im grünen Feld einen aufrecht nach rechts schreitenden, silbernen, goldgewaffneten Panther. Er ist gekrönt mit einer goldenen, dreiblättrigen Laubkrone im Gegensatz zum steirischen Wappen, bei dem der Panther behörnt ist und der Schild den Herzogshut der Steiermark trägt. Aus den Leibesöffnungen schlagen rote Flammenzungen. Das Stadtwappen ist jenem der oberösterreichischen Stadt Steyr ähnlich. Zeitungen. Graz ist eine Stadt mit langer Zeitungstradition. Gab es zu Zeit Kaiser Josefs II. fünf Zeitungen in der Stadt, reduzierte sich deren Anzahl unter Erzherzog Johann auf eine, die „Grätzer Zeitung“, die einer strengen Kontrolle unterlag. Ein wichtiger Grazer Medienkonzern ist die Styria, die neben der regionalen „Kleinen Zeitung“, mit einer Reichweite von 50 % in den Bundesländern Steiermark und Kärnten, die „Presse“ und andere Zeitschriften und Zeitungen in Österreich, Slowenien und Kroatien herausgibt. Historisch erschienen die „Neue Zeit“, eine sozialdemokratische Tageszeitung und die „Südost Tagespost“ eine Tageszeitung der steirischen ÖVP. Jede österreichweit erscheinende Tageszeitung verfügt über eine eigene Redaktion in Graz. Die „Kronen Zeitung“ produziert in Graz eine eigene Steiermark-Ausgabe. Kostenlos wöchentlich verteilt werden (an die Wohnungstür:) die „Woche“ und der „(Neue) Grazer“ und seit Mitte 2014 "(Kleine Zeitung) Wohin" mit Veranstaltungsprogramm (als Nachfolger von "G7" nun über Entnahmefächer an Bim-Haltestellen). Monatlich erscheint "BIG" (Bürgerinformation Graz der Regierenden der Stadt), "Grazer Stadtblatt" der KPÖ, ein Gratisblatt der FPÖ und anderes. Die "Woche" betreibt eine Online-Ausgabe mit Beiträgen von "Regionauten" aus dem Publikum. Seit Oktober 1995 erscheint monatlich die Straßenzeitung „Megaphon“ mit den Schwerpunkten Sozialpolitik und Integration im Straßenverkauf. Die Wochenzeitung Falter betrieb von März 2005 bis etwa 2010 eine Steiermark-Redaktion. Rundfunk. In Graz gibt es, wie in jeder Landeshauptstadt, ein ORF-Landesstudio. Von dort aus wird das 24-Stunden-Vollprogramm Radio Steiermark gesendet. Die tagesaktuelle TV-Sendung "Steiermark heute" wird im Landesstudio produziert und im Vorabendprogramm auf ORF 2 ausgestrahlt. Bevor das Landesstudio in der Marburger Straße errichtet wurde, sendete der ORF sein Programm aus der Villa Ferry in der Zusertalgasse im Bezirk Geidorf. Mit Steiermark1 und MemaTV, einem Sender der nur gelegentlich Programm sendet, gibt es in Graz zwei weitere TV-Anstalten. Der erste Radiosender, der sich neben den ORF-Radios etablieren konnte, ist die Antenne Steiermark. Sie war 1995 der erste Privatsender Österreichs und hatte ihren Sitz am Sender Dobl bei Graz und ist Ende 2014 ins neue Styria-Gebäude in der Conrad-von-Hötzendorf-Straße übersiedelt. Mit Radio Graz, Radio Soundportal und dem freien Radio Helsinki können in Graz drei weitere Radiokanäle empfangen werden. Das österreichweit gesendete Radio KroneHit hat eine Zweigstelle in Graz. Am Grazer Hausberg, dem Schöckl, steht die gleichnamige Rundfunk-Sendeanlage, die Graz, die gesamte Südsteiermark, das Südburgenland und andere Gebiete mit Radio- und Fernsehprogrammen versorgt. Tourismus. Heute setzt Graz im Tourismus vor allem auf die historische Substanz der Altstadt und auf das südliche Flair. Die offiziellen Auszeichnungen der Stadt als Kulturhauptstadt 2003, als Weltkulturerbe unterstreichen diese Positionierung. 2012 erhob die Agrarmarkt Austria Marketing GesmbH Graz zur "Genuss-Hauptstadt" Österreichs. Grund dafür war der "Grazer Krauthäuptel", eine besondere Form des Kopfsalats, die Anfang des 20. Jahrhunderts aus Krain in die Steiermark gekommen war. Große Bedeutung kommt Graz auch als Kongressstadt zu. Graz verfügt aktuell über rund 5.000 Gästebetten im gewerblichen Bereich, dazu kommen weitere ca. 1.000 Gästebetten im nicht gewerblichen Bereich (inkl. Camping, Jugendherbergen und Privatzimmer). Rund 50 % aller Nächtigungen sind dem Segment der Geschäftsreisenden zuzurechnen. Etwa 13 % entfallen auf das Segment Kongress- und Seminartourismus. Bereits 37 % entfallen auf das Segment des klassischen Städte- und Kulturtouristen. Dieses Segment weist in den letzten Jahren die stärkste Wachstumsrate auf, so konnten im Jahre 2014 mehr als 1 Million Nächtigungen erzielt werden. Das Krisenjahr 2009 konnte Graz mit rund 788.000 Nächtigungen abschließen, was gegenüber dem Jahr zuvor nur einen Rückgang von 1 % bedeutet. Bemerkenswert im Hinblick auf die Gästestruktur ist der hohe Anteil an Inlandsgästen (rund 47 %) und der gleichzeitig sehr internationale Gästemix. Als beste Reisezeit gilt nach wie vor die warme Jahreszeit, die in Graz von April bis Oktober dauert. Die Adventszeit (Ende November – Weihnachten) hat sich durch die Adventmärkte in der Zwischenzeit ebenfalls zu einer sehr attraktiven Besuchszeit entwickelt. Grazer Altstadt. Graz, Mur und Schloßberg 1912 Allgemeines. Die historische Grazer Altstadt und die Dachlandschaft wurden 1999 wegen ihres sehr guten Erhaltungszustandes und der Sichtbarkeit der baugeschichtlichen Entwicklung im Altstadtbild zum UNESCO-Weltkulturerbe erklärt und 2010 auf „Stadt Graz – Historisches Zentrum und Schloss Eggenberg“ erweitert. Diese Auszeichnung ist verbunden mit der Verpflichtung, das historische Erbe mit seinem seit der Gotik errichteten Bauensemble zu erhalten und neue Architektur harmonisch einzufügen. Die meisten Grazer Sehenswürdigkeiten befinden sich in der Altstadt. Diese erstreckt sich über den gesamten Bezirk Innere Stadt. Auch außerhalb der Altstadt gibt es viele historische Gebäude, vor allem in den Bezirken St. Leonhard (2) und Geidorf (3). Schloßberg und Umgebung. Im geographischen Zentrum der Stadt liegt der Schloßberg, der zwischen 1125 und 1809 als Festung diente. Nach der erfolgreichen Verteidigung der Anlage gegen die Truppen Napoleons unter dem Kommando von Genieoberst Franz Xaver Hackher zu Hart und dem Friedensschluss erfolgte die Sprengung der Schloßbergfestung. Die Grazer Bürger kauften den Uhrturm und den Glockenturm frei, sodass beide bis in die Gegenwart erhalten sind. Ab 1839 begann der Ausbau des kahlen Felsens zur Parkanlage. Neben den beiden Türmen sind noch einige Festungsreste und denkmalgeschützte Bauwerke aus der Zeit erhalten geblieben, unter ihnen die Reste der Thomaskapelle, Bürger- und Stallbastei und die Kasematten (ehemaliges Verlies). Zu erreichen ist das Schloßbergplateau mit seinen Denkmälern, von denen nicht alle freigelegt sind, über den Kriegssteig, die Schloßbergbahn, dem Lift und über einige Fußwege. Im Berg selbst befinden sich einige Kilometer lange Stollensysteme, die im Zweiten Weltkrieg Schutzbunker bei Luft- und Bombenangriffen waren. In der Gegenwart wird ein Teil davon für Veranstaltungen („Dom im Berg“) oder als Märchenbahn („Die Grazer Märchenbahn“) genutzt. Das Eisenbahnmuseum im Berg ist für die Öffentlichkeit nicht zugänglich. Der Schloßberg ist über ein Weg- und Straßennetz umrund- und erschließbar. Der Rundgang beginnt mit dem äußeren Paulustor in der gleichnamigen Paulustorgasse, dem einzigen erhaltenen Stadttor des Renaissance-Befestigungsgürtels, der von Domenico dell’Allio ausgeführt wurde. Das nächste Bauwerk stadteinwärts ist die Palmburg mit ihrer mächtigen Auffahrtsrampe. Unmittelbar daneben befindet sich das Volkskundemuseum und die unscheinbare Antoniuskirche. Die Bauzeit des Sakralbaus war zwischen 1600 und 1602, nachdem im Jahr 1600 über 10.000 protestantische Bücher an ihrem Standort verbrannt wurden. Dieser Bereich heißt Paulustorvorstadt. Den Eingang zur Sporgasse, einem steil abfallenden und engen Gassenzug, dominiert das Palais Saurau mit seinem wuchtigen Portal und der Halbfigur eines Türken unterhalb der Dachkante. Es folgen das ehemalige Gasthaus „Zur goldenen Pastete“ mit seinem in Graz einmaligen Runderker, das ehemalige Augustinereremitenkloster und die Stiegenkirche, das Deutschritterordenshaus und einige repräsentative Bürgerhäuser mit Geschäftslokalen, bevor die Gasse in den Hauptplatz mündet. Die Stiegenkirche, die über einen Stiegenaufgang erreichbar ist, war Teil der Paulsburg, dem ältesten Teil der Grazer Stadtbefestigung. Vom Hauptplatz führt die Sackstraße in Richtung Norden. Zu Beginn des Straßenzugs steht das „Hotel Erzherzog Johann“, danach folgen das Warenhaus Kastner & Öhler, die Landschaftsapotheke, die älteste Grazer Apotheke, das Gasthaus „Zum Roten Krebsen“, das Palais Kellersberg, das Witwenpalais und die Palais Attems, Herberstein und Khuenburg. Das Palais Attems mit seiner Prunkfassade ist „das bedeutendste Adelspalais der Steiermark“, an seiner Rückseite angebaut ist der Admonterhof. Das Palais Herberstein beherbergt das „Museum im Palais“; im Palais Khuenburg, dem Geburtsort des 1914 in Sarajewo ermordeten Habsburger Thronfolgers Franz Ferdinand, sind das Grazer Stadtmuseum und das Apothekermuseum untergebracht. Unmittelbar daneben steht der Reinerhof, das älteste urkundlich erwähnte Grazer Gebäude. Vom Schloßbergplatz aus sind der Kriegssteig und der Schloßbergstollen, eine direkte Verbindung zum Karmeliterplatz, zu sehen. Der Platzanlage gegenüber liegt die Dreifaltigkeitskirche. Sie zählt zum Gebäudekomplex der Schulschwesternschule. Die Sackstraße mündet in den Kaiser-Franz-Josef-Kai', ein Straßenzug der anstelle einer abgebrochenen Häuserzeile das Murufer säumt. Die Grazer Sackstraße bestand ursprünglich aus drei „Säcken“, also abgeschlossenen Verbauungszonen. Mit der Zeit durchbrachen insgesamt drei, nicht mehr bestehende Sacktore die Mauern, um Wohnraum zu gewinnen. Dieses Gebiet galt lange Zeit als das am dichtesten besiedelte in Graz. Am Kai, der in die stark befahrene Wickenburggasse mündet, liegen die Talstation der Schloßbergbahn und Bürgerhäuser. Es sind noch Reste der alten Bastei des dritten Sacktores erkennbar. Grazer Stadtkrone. Am Fuße des Schloßberges liegt die „Grazer Stadtkrone“. Sie besteht aus vier Monumentalbauten: dem gotischen Dom (Domkirche St. Ägidius), dem bedeutenden manieristischen Bau des Mausoleums mit integrierter Katharinenkirche aus dem 17. Jahrhundert, der alten Jesuiten-Universität und der Grazer Burg. Der Grazer Dom ist seit 1786 Domkirche der Diözese Graz-Seckau und Pfarrkirche der Grazer Dompfarre. Der außen unscheinbar anmutende Sakralbau mit schlichtem Dachreiter diente von 1577 bis 1773 den Grazer Jesuiten als Ordenskirche. Er ist das kunst- und kulturhistorisch bedeutendste innerstädtische Sakralbauwerk, wurde unter Friedrich III. im 15. Jahrhundert errichtet und war Hofkirche der römisch-deutschen Kaiser. Der Dom war einst mit einem Verbindungsgang mit der Grazer Burg verbunden. Der Hauptaltar ist in seiner Gestaltung ein barockes Gesamtkunstwerk. In den beiden Seitenschiffen befinden sich die Brauttruhen der Paola Gonzaga aus dem Herrschergeschlecht von Mantua – geschaffen von Andrea Mantegna in der italienischen Frührenaissance. An der Außenwand des Doms ist ein Fresko, das sogenannte Landplagenbild, angebracht. Unmittelbar neben dem Dom steht die Katharinenkirche mit dem Mausoleum, ein Gebäude im Stil des Manierismus. Es ist die Grabstätte von Kaiser Ferdinand II. (1578–1637) und der größte Mausoleumsbau der Habsburger. Zwischen Domkirche und Mausoleum steht auf einem Sockel eine Bronzeskulptur des Kirchenpatrons Ägidius, die nach der Vorlage des Grazer Künstlers Erwin Huber gestaltet wurde. Graz war von 1379 bis 1619 Residenzstadt der Habsburger. Untrennbar mit der Grazer Geschichte verbunden ist der Jesuitenorden. Gegenüber der alten und ersten Grazer Universität bewohnten die Mönche den Domherrenhof. Die Grazer Burg mit dem Burggarten ist der Sitz der steirischen Landesregierung. Ihr Bau wurde 1438 unter Herzog Friedrich V. begonnen und unter Erzherzog Karl II. und seinem Sohn, Kaiser Ferdinand II., weitergeführt. Ein Relikt aus der ersten, gotischen Bauphase ist die Doppelwendeltreppe von 1499. In das Gebäude integriert ist das Burgtor, neben dem äußeren Paulustor das letzte erhaltene Stadttor von Graz. Zentrum. Das Grazer Zentrum besteht in großen Teilen aus dem Hauptplatz, der Herrengasse, Färberplatz und Mehlplatz, Teilen der Burggasse und Bürgergasse, der Schmiedgasse, Raubergasse, Neutorgasse, dem Marburger Kai, Andreas-Hofer-Platz und dem Franziskanerviertel mit den jeweiligen Nebengassen. Der Grazer Hauptplatz ist eine unregelmäßige und historisch gewachsene Platzanlage mit Marktfunktion, die sich früher bis zur Landhausgasse erstreckte. Er wird von allen Straßenbahnlinien frequentiert. An der Südseite steht das Grazer Rathaus, das in seiner jetzigen Form seit 1889 existiert und den Grazer Gemeinderat beherbergt. Das Erzherzog-Johann-Brunnendenkmal in der Platzmitte ist ein Brunnen mit einem überlebensgroßen Bronze-Standbild des Erzherzogs Johann und den allegorischen Darstellungen der vier Flüsse Mur, Enns, Drau und Sann. Den Hauptplatz säumen Bürgerhäuser und Stadtpalais: das Weißsche Haus, die Adler-Apotheke, die beiden stuckverzierten Luegg-Häuser an der Ecke zur Sporgasse, das Weikhard-Haus mit der gleichnamigen Standuhr und das Palais Stürgkh. Zwischen dem Hauptplatz und dem zweiten zentralen Platz, dem Jakominiplatz, verläuft die Herrengasse, eine barocke Prunkstraße. Hier stehen das Landhaus mit seinem Renaissancearkadenhof, das Landeszeughaus mit der größten frühneuzeitlichen Waffensammlung der Welt, das sogenannte „Gemalte Haus“ und die Stadtpfarrkirche, die Grazer Hauptpfarrkirche. Bevor die Herrengasse in die Ringstraße mündet, durchquert sie den Platz Am Eisernen Tor mit seinem Brunnen und der Mariensäule. Das namensgebende Eiserne Tor war bis ins 19. Jahrhundert ein Stadttor des Renaissance-Befestigungsgürtels. Im südlichen Teil der Herrengasse befand sich, geographisch von Kaiserfeldgasse und Schmiedgasse begrenzt, bis 1439 das Grazer Judenghetto. Von der Stadtkrone erreicht man das 1776 eröffnete Grazer Schauspielhaus am Freiheitsplatz und über Hofgasse und Bürgergasse das Gassensystem um den Glockenspielplatz mit dem Glockenspielhaus. Am Ende der Engen Gasse kann man via Stempfergasse, eine Einkaufsstraße, in die Herrengasse gelangen oder beim Bischofplatz das Bischöflichen Palais sehen. Die Franziskanerkirche, die zweitgrößte Grazer Kirche, ist am Ostufer der Mur zu finden und Mittelpunkt des Franziskanerviertels. Wegen ihrer einstigen Insellage ist die erste Grazer Klosterniederlassung schräg gestellt. Der Verlauf der sogenannten „Kot(h)mur“, ein Abwasserkanal, trennte das Areal vom Rest der Innenstadt. Vom Franziskanerviertel ist das Joanneumviertel, zwischen Raubergasse, Landhausgasse und Andreas-Hofer-Platz gelegen, erreichbar. Es besteht aus zwei Monumentalbauten und beherbergt das Haupthaus des größten steirischen Museums, dem Joanneum. Im neu gestalteten Innenhof befand sich einst der alte botanische Garten, der nach Geidorf ausweichen musste. Anstelle des neuen Joanneums und des Postamtsgebäudes von Friedrich Setz stand bis 1884 das abgebrochene Neutor. Das Magistratsgebäude der Stadt Graz dominiert das Straßenbild der Schmiedgasse. Am Südende des Marburger Kais steht das Oberlandesgericht Graz. An wenigen oberirdischen Stellen ist die alte Stadtmauer sichtbar: die Glacisstraße und der Stadtpark erinnern namentlich und räumlich an die Freifläche vor der Stadtfestung; im Pfauengarten und im Stadtpark ist je ein Mauerrest erhalten geblieben. Die Anlage der Ringstraße folgt ungefähr dem Verlauf des ehemaligen Wassergrabens; an einigen Ecken ist aus der Luft die Lage der ehemaligen Basteien zu sehen. Der Grazer Stadtpark, der den Großteil des alten Glacis bedeckt, ist der größte innerstädtische Grünraum. Neben zahlreichen Denkmälern befinden sich in ihm das Forum Stadtpark, das Künstlerhaus, der Musikpavillon, der Stadtparkbrunnen und einige Naturdenkmäler. Im Jahr 1869 begann die Anlage des Parks, 1873 eröffnete sie Bürgermeister Moritz Ritter von Franck. Außerhalb des Stadtparks und auf dem Gebiet der Innenstadt wurde das 1899 eröffnete Opernhaus Graz errichtet. Brücken. Die Beschreibung der Grazer Brücken und Stege beschränkt sich auf jene, die den Murfluss überqueren oder in einem Fall auch nur begleitet. Im Norden des Stadtgebiets befindet sich die 1922 eröffnete und unter Denkmalschutz stehende, schmale Weinzöttlbrücke – aus Beton, mit einem Industrie-Anschlussgleis, ursprünglich mit Gasleuchten. Es folgen der Pongratz-Moore-Steg und die 1991/92 erbaute Kalvarienbrücke mit einem aufragenden, blauen Dreiecksrahmen aus Stahl zwischen den Tragwerken. Eine kleine Stele oberhalb dieser Brücke linksufrig am ufernahen Geh-Radweg erinnert an eine ehemals hier bestehende „Überfuhr“, eine Fähre, rechtsufrig die Überfuhrgasse und auch ein Bild am Brückenkopf unterwasserseitig an einer Hauswand. Die nordwestlich des Schlossbergs gelegene Ferdinandsbrücke, benannt nach Kaiser Ferdinand I., war die erste Kettenbrücke der Steiermark und die größte Österreichs, ab Herbst 1833 vom Pächter der Überfuhr, Franz Strohmeyer, erbaut nach den Plänen des Wiener Architekten Johann Jäckl, eingeweiht am 19. April 1836 von Fürstbischof Roman Sebastian Zängerle. Sie wurde 1920 in Keplerbrücke umbenannt, zu Ehren von Johannes Kepler, der hier sechs Jahre lebte und forschte. 1963 erfolgte ein Brückenneubau mit Stahlträger, dessen unterwasserseitiger Gehsteig um 1993 für Radfahrer geöffnet und auf Kosten der Fahrbahn verbreitert wurde. 2006 wurde die stark genutzte Route für Rad- und Fußverkehr entlang des linken Ufers hier kreuzungsfrei durch das längste Grazer Brückenbauwerk unterführt und nach einer der ersten Grazer Radfahrerinnen Elise-Steininger-Steg benannt. Die Stahlträgerelemente sind mit Epoxidharz-Quarzsand rutschfest beschichtet, eines der Südrampe ist rollstuhlgerecht waagrecht, sie weisen jedoch bis zu 30 mm breite Dehnfugen auf. Die in der unübersichtlichen Nord-Kurve noch breiter geratene Fuge wurde durch ein rutschig glattes NiRo-Blech abgedeckt, später durch ein geriffeltes ersetzt, der stoßende Buckel bleibt. Das schmuck designte NiRo-Geländer mit senkrechte Streben weist einen Handlauf mit laserscharf geschnittenen Halterungen auf, die die Haut von Fingern zerschneiden. Flussabwärts liegen die Murinsel und knapp danach – in der Verlängerung des Schlossbergplatzes – der Erich-Edegger-Steg. Dieser Steg wurde 2003 nach dem Kommunalpolitiker und Kämpfer für sanfte Mobilität benannt. Die als Sehenswürdigkeit beliebte und teilweise überdachte „Insel“ ist eigentlich eine Pontonbrücke aus Stahl, die aus einem großen ovalen Schwimmkörper, der bei Niedrigwasser auf Kufen am Grund aufsitzt. Damit auch in diesem Fall die „Insel“ ganz von Wasser umgeben ist, wurde etwas unterhalb eine kleine Sohlschwelle quer über den ganzen Fluss errichtet. Vom rechten Ufer führt ein geschwungener Steg zum Bug des Schwimmkörpers, der – länglich-oval, in Flussmitte – oben an einem Stahlseil hängt, das im Fluss verankert ist und etwa jährlich von einem Taucher überprüft wird. Vom Heck führt ein gegenläufig geschwungener Steg zum linken Ufer. In Flussachse gesehen laufen die Stege bei Niedrigwasser V-förmig zur Flussmitte nach unten. Der Schwimmkörper hebt sich mit Hochwasser, im Extremfall höher als die Brückenköpfe der Stege an den Ufern. Der Querschub der Stege verdreht dabei die Insel etwas um die Hochachse. Die Stege sind per Treppen, links auch per Lift, von rechts auch per Rampe erreichbar und als Fußweg beschildert. Dann kommt die Erzherzog-Johann-Brücke. Die ehemalige Furt hier war die erste und über 400 Jahre einzige Grazer Murbrücke. 1843 errichtete die Stadt eine Kettenbrücke, die 1892 durch eine Eisenkonstruktion ersetzt wurde. 1918 wurde die Franz-Carl-Kettenbrücke in Hauptbrücke umbenannt. Ein schlichter Neubau der Hauptbrücke mit breiter Fahrbahn erfolgte 1964 noch mit der Absicht, eine Häuserzeile der engen Murgasse abzureißen und Kfz-Verkehr über den Hauptplatz zu führen. Die Figuren der Austria und Styria, die auf der Brücke standen, befinden sich im Stadtpark, Bronze-Verzierungen gelangten in Privathand und wurden um 2003 und 2014 wiederum der Stadt zum Kauf angeboten. Ein Bronze-Schmuckelement ist seit etwa 2003 am linken Ufer unter der Brücke ausgestellt, sowie eines aus Stein, das aus der Mur geborgen wurde. Hier wurde um 2002 eine Terrasse betoniert, von der unterwasserseitig eine markante Treppe bis nahe zum linken Brückenkopf hinaufführt, flussabwärts führt die als Gehweg mit Steinbänken ausgebaute Murpromenade. Die moderne Hauptbrücke wurde um 2006 generalsaniert: Die Geländer wurde aus NiRo-Stahl als sanft gewölbt profilierte Reling plus Drahtseilnetz ausgeführt, das mittlerweile voll von „Liebesschlössern“ hängt. Die Gehsteige wurden verbreitert, die Stufe des oberwasserseitigen auf 3 cm abgesenkt und die Straßenbahntrasse radfreundlicher entlang der südlichen Gehsteigkante parallel geführt. Erst um 2013 wurde die fast autofreie Brücke auf Erzherzog-Johann-Brücke umbenannt. An einer unterwasserseitig zwischen Mittelpfeiler und linkem Ufer durch Steinschlichtung erzeugten breiten Wasserwalze fand 2003 die Paddel-Rodeo-WM statt. Flussabwärts folgt die 1975 fertiggestellte Tegetthoffbrücke, die denkmalgeschützte Radetzkybrücke, die um 2000 mit 4 Leuchtpylonen in Form schräg aufgeschnittener schlanker Zylinder und unterwasserseitig um einen Geh- und Radweg auf extra Tragwerk erweitert wurde, um einen Kfz-Fahrstreifen zu gewinnen. Mit Unterstützung eines von der GRW-Brücke abgehängten Seils wird seit etwa 2000 in der linken Flusshälfte bei passender Wasserführung in einer Walze sowohl auf Brettern gesurft als auch Playboating betrieben. Ein auf Höhe Sturzgasse geplantes Murkraftwerk würde diese, wie auch die Stelle an der Erzherzog Johann-Brücke weiter oben stillstauen. Darunter folgt die Augartenbrücke als letzte bestehende Betonbogenbrücke und der besonders aufwendig konstruierte Augartensteg für Fuß- und Radverkehr, der zur Kosteneinsparung 2003 ohne das von den Architekten für das linke Ufer geplante Anschlussbauwerk errichtet wurde. Das Tragwerk wurde als Ganzes am rechten Ufer auf Rollen gelagert, durch Kranzug unterstützt vorne von einem Schreitwerk über den Fluss gebracht. Nach Auflagerung auf die Brückenköpfe wurden die 4 etwas schräg gestellten Bögen mittels 2 über der Flussmitte und jeweils rechts und links etwas unter der Fahrbahn liegenden auf stählerne Druckstreben wirkenden Hydraulikzylindern, die zuletzt per Schweißnaht fixiert wurden, in sich verspannt. Erst um 2010 wurde dieser Steg um eine Schotterwegachse Richtung Osten durch den Park ergänzt, auf der sogar Radverkehr erlaubt wurde. Nach dem auf den Augarten folgenden Augartenbad führt die erst (um) 1984 so benannte Berta-von-Suttner-Friedensbrücke. Sie ist 4-spurig, stark mit Kfz befahren und rechtsufrig mit einer Schleife und Unterführung kreuzungsfrei angeschlossen. Unterwasserseitig weist sie einen Geh- und Radweg auf, der sich am linken Ufer durch unfallträchtig schlechte Sichtbeziehung auszeichnet und am rechten Ufer durch mangelnden Radverkehrsanschluss flussaufwärts. Nur eine Schrottplatzbreite (nahe dem linken Ufer) weiter und nach der Schneesturzstelle rechts quert die Eisenbahnbrücke der steirischen Ostbahn. Für Bootfahrer und Schwimmer – die Mur hat seit Jahrzehnten schon gute Badequalität – gefährlich im Bereich eines ehemaligen Mittelpfeilers aufragende Stahlprofile wurden um 2009 von der Feuerwehr entfernt. Etwa 1 km flussabwärts führt der für die Öffentlichkeit gesperrte "Rohrsteg" der Steweag/Steg zwei isolierte Fernwärmerohre plus Hochspannungskabel vom 1963 in Betrieb gegangenen Fernheizkraftwerk (Lagergasse) die Mur. Fast 1 km weiter und etwas südlich der Sturzgasse läuft der Puchsteg mit einem Pfeiler über den Fluss. Mit Trägern und Geländer aus Stahl, beides holzbeplankt wurde er um 1960 für Mitarbeiter des am rechten Ufer liegenden Puchwerks errichtet und in den letzten Jahren wieder denkmalschutzgerecht für Gehen und Radfahren saniert. Es folgt die Puntigamer Brücke, eine 4-spurige Straßenbrücke, die 1995/96 neu errichtet wurde und mit dem Südgürtel (Baustart 2014) noch mehr Autoverkehr tragen wird. Beidseits mit Geh- und Radweg auf Niveau der Fahrbahn ausgestattet, getrennt von dieser durch eine abgestufte Betonmauer. Etwa 500 m südlich auf Höhe Auer-von-Welsbach-Gasse, an der ein Stadtgaswerk lag, führt der eiserne ebenfalls holzbeplankte Gasrohrsteg mit einem Pfeiler für Radfahrer und Fußgänger über den Fluss, linksufrig mit einer rechtwinkelig abgeknickten steilen Rampe an den Uferweg (GRW nur flussaufwärts) und die parallele Murfelderstraße angebunden. Am rechten Ufer endet hier die legale Möglichkeit zu Skaten, eigentlich wäre ab hier nur "Rollsteigen" am Rand der gehsteiglosen Fahrbahn erlaubt. Hier liegt in etwa die Stauwurzel des erst 2012 in Betrieb gegangene Murkraftwerks Gössendorf. Die bald folgende Autobahnbrücke liegt schon knapp südlich der Stadtgrenze in Gössendorf bzw. Feldkirchen bei Graz, genau 1 km weiter das genannte Kraftwerk. Tore. Von den insgesamt elf Grazer Stadttoren sind zwei in der Gegenwart erhalten: das Burgtor als Abschnitt der Grazer Burg und das äußere Paulustor am Ende der Paulustorgasse. Während das Paulustor das einzig erhalten gebliebene Walltor des historischen Spätrenaissance-Befestigungsgürtels ist, der von Festungsbaumeister Domenico dell’Allio geplant worden war, ist das Burgtor weder der mittelalterlichen, noch der neuzeitlichen Stadtbefestigung zuzuordnen. Von der mittelalterlichen Mauer ist nichts mehr erhalten. Die beiden Murtore in der Murgasse wurden 1837 abgetragen, 1846 folgte das innere Paulustor in der Sporgasse, die drei Sacktore in der Sackstraße sind seit dem 19. Jahrhundert nicht mehr vorhanden. Am Platz zum Eisernen Tor stand das gleichnamige Stadttor der Renaissance-Mauer. Es ähnelte wie das Neutor, 1884 als letztes der alten Tore abgebrochen, dem äußeren Paulustor. Am kürzesten bestand das Franzenstor an der Mündung der Burggasse in den Roseggergarten. Der 1835 errichtete Zierbogen wurde 1856 wieder entfernt. Die Abrisse der Grazer Stadttore wurden durch das erhöhte Verkehrsaufkommen und durch die gestiegene Bautätigkeit legitimiert. Nach der Schleifung der Festungswerke Mitte des 19. Jahrhunderts verloren sie ihre Schutzfunktion. Bis zum Anschluss Österreichs (März 1938) wurde an den Grazer Stadttoren ein Pflasterzoll erhoben (diese Maut war im 19. Jahrhundert fast überall in Europa abgeschafft worden). Sehenswürdigkeiten außerhalb der Altstadt. Planetengarten im Schlosspark Eggenberg (Detail) Schloss Eggenberg. Das Schloss Eggenberg und der Schlosspark sind mit jährlich mehr als einer Million Besuchern die meistfrequentierte Sehenswürdigkeit außerhalb der Grazer Innenstadt. Es zählt seit 2010 mit der Altstadt zum UNESCO-Welterbe. Das Schloss gilt als die bedeutende barocke Schlossanlage der Steiermark. Seine Geschichte reicht bis ins Mittelalter zurück. Ab 1625 wurde es im Auftrag Hans Ulrichs von Eggenberg (1568–1634) und unter der Leitung des Hofarchitekten Giovanni Pietro de Pomis zur repräsentativen Vierflügelanlage ausgebaut. Das Schloss war direkt über die "Eggenberger Allee" mit der Innenstadt verbunden; von der Prachtstraße sind nur mehr ein kleiner Abschnitt mit Alleebestand unmittelbar in Schlossnähe und ein Straßenname übrig geblieben. Schloss Eggenberg ist nach einer kosmischen Zahlensymbolik ausgerichtet. Die vier Ecktürme stehen für die vier Himmelsrichtungen und die vier Elemente. Die Anlage besitzt 365 Außenfenster für die Tage eines Jahres. Im zweiten Stock, der Beletage, befinden sich 52 Außenfenster für die Wochen eines Jahres. Jedes Stockwerk im Haus hat genau 31 Räume für die maximale Anzahl der Tage eines Monats. Im zweiten Stock sind außen, ringförmig 24 Prunkräume angeordnet, die die Stunden eines Tages symbolisieren. Das Konzept soll an die Gregorianische Kalenderreform von 1582 erinnern. Ein Zyklus von 24 Prunkräumen mit originaler Ausstattung aus dem 17. und 18. Jahrhundert gehört zu den bedeutendsten Ensembles historischer Innenräume Österreichs. Selten hat sich eine Raumausstattung von vergleichbarer Qualität so vollständig erhalten. Ihr Mittelpunkt ist der stuckverzierte Planetensaal mit dem Gemäldezyklus von Hans Adam Weissenkircher. Der öffentlich zugängliche Schlosspark wurde zusammen mit dem Schloss konzipiert. Im Verlauf der Geschichte wechselte er häufig sein Aussehen. Er ist einer der wenigen historischen Gärten Österreichs, die unter Denkmalschutz stehen. An der Nordecke befindet sich der seit 2000 neu angelegte Planetengarten. Im Schlosspark leben frei laufende Pfauen. Sakralbauten. a> in Graz-Straßgang, eine der ältesten der Grazer Kirchen In Graz gibt es, wie in den meisten Städten im katholisch geprägten Österreich, zahlreiche Sakralbauten. Zu den ältesten Kirchen der Stadt zählen die Leechkirche nahe der Universität Graz, deren Ursprünge in das Jahr 1202 zurückgehen, die Stiegenkirche als Teil der historischen Paulsburg in der Sporgasse und die Rupertikirche in Straßgang. Die höchsten Kirchen sind die im neugotischen Backsteinstil erbaute Herz Jesu Kirche und die Franziskanerkirche – deren Turmunterteil einst Teil der Grazer Stadtmauer war. Die Herz-Jesu-Kirche ist mit 109,6 m die dritthöchste Kirche Österreichs und das höchste Gebäude von Graz. Im selben Bezirk befindet sich gegenüber dem LKH Graz die 1361 erstmals urkundlich erwähnte Pfarrkirche St. Leonhard. An dieser Stelle stand mit dem Meierhof Guntarn im Mittelalter die erste Grazer Siedlung außerhalb der Innenstadt. In Graz existieren zahlreiche Ordensniederlassungen, von denen viele im Zuge der Josephinischen Reformen von 1783 aufgelöst wurden. Es blieben hauptsächlich Klöster bestehen, die sich der Krankenpflege und der Bildung widmeten. In der Innenstadt hat sich seit dem 13. Jahrhundert ein Franziskanerkloster erhalten, am gegenüberliegenden Murufer liegt das Minoritenkloster mit der barocken Mariahilferkirche. In der Sackstraße, direkt gegenüber dem Schloßbergsteig, ist die Dreifaltigkeitskirche zu sehen, die bis 1900 die Kirche des ehemaligen Ursulinenkonvents war. In der Paulustorgasse steht neben dem Volkskundemuseum die Antoniuskirche. Zu den größeren Anlagen auf Grazer Stadtgebiet zählen (in Auswahl) der Dominikanerkonvent in der Münzgrabenstraße, das Lazaristenkloster in der Mariengasse, unmittelbar daneben steht das Kloster der Barmherzigen Schwestern. Die Barmherzigen Brüder unterhalten in Graz zwei Krankenhäuser: eines in der Marschallgasse und eines in Eggenberg. Frauenorden, die sich der Krankenpflege widmen, sind die Elisabethinen im Bezirk Gries und die Kreuzschwestern mit Konvent und Privatklinik in Geidorf. Im Schulbetrieb tätig sind die Ursulinen in der Leonhardstraße, die Schulschwestern am Fuße des Schloßberges und in Eggenberg, sowie Schule und Kloster des Sacré Coeur Graz. In den Grazer Kernbezirken St. Leonhard und Geidorf befinden sich die Leonhardkirche, die neugotische Herz-Jesu-Kirche, die Leechkirche, die Grabenkirche als Klosterkirche der Ordensniederlassung der Kapuziner, die Erlöserkirche am Gelände des LKH Graz und die Kirche Maria Schnee als Teil des Karmelitenklosters in der Grabenstraße. Neben dem Männerkloster steht das weibliche Pendant, das Karmelitinnenkloster mit der Kirche zum Hl. Josef, deren erstes Konvent am ehemaligen Fischplatz (heute Andreas-Hofer-Platz) 1782 aufgelöst und das Gebäude 1934 abgebrochen wurde. Neben der Kreuzschwesternkirche mit der Privatklinik ist in Geidorf mit der Salvatorkirche ein moderner Sakralbau erhalten. Der Grazer Kalvarienberg befindet sich im vierten Bezirk Lend. Die Anlage auf dem Austein wurde im 16. Jahrhundert gegründet und von den Jesuiten verwaltet. Besonders sehenswert ist die hochbarocke Kalvarienbergkirche mit der "Heiligen Stiege" und der "Ecce-Homo-Bühne" und die zahlreichen Kapellen. Im selben Bezirk sind außerdem die Barmherzigenkirche und die Marienkirche in der Nähe des Grazer Hauptbahnhofs erwähnenswert. In Gries stehen mit der Kirche St. Andrä, der Welschen Kirche am Griesplatz und der Bürgerspitalkirche bedeutende gotische und barocke Kirchenbauten. Neben der barocken Karlauerkirche und der Zentralfriedhofskirche im neugotischen Backsteinstil gibt es einige moderne Kirchenbauten: St. Lukas mit seiner ungewöhnlichen Innenausstattung, St. Johannes als Teil der Triestersiedlung, sowie Kirche und Pfarrzentrum Don Bosco, in deren Gebäude eine Mautstelle und ein Pulvermagazin untergebracht waren. Der Bezirk Jakomini ist vor allem durch den modernen Kirchenbau der Münzgrabenkirche und durch die Josefkirche geprägt. Ein sakrales Zentrum in Graz ist der Außenbezirk Mariatrost. Die Basilika Mariatrost, eine überregional bekannte und barocke Wallfahrtskirche auf dem Purberg ist offiziell seit 1714 Ziel großer Pilgerströme. Verehrt wird eine wundertätige Marienstatue aus dem Stift Rein in Eisbach. Die Errichtung des Sakralbaus dauerte von 1714 bis 1779. Nach den Josephinischen Reformen wurden die Klostertrakte als Stallungen zweckentfremdet. Von der Mitte des 19. Jahrhunderts nahmen die Franziskaner die Wallfahrtstradition bis 1996 wieder auf. Im selben Jahr ernannte Papst Johannes Paul II. Mariatrost zur Basilica minor. 1968 kam es in der Wallfahrtskirche zur Veröffentlichung der Mariatroster Erklärung. Neben der Basilika Mariatrost befinden sich zwei weitere Sakralbauten im Stadtbezirk: zum einen die Mariagrüner Kirche, die als bedeutendste kirchliche Stiftung eines Bürgers der Stadt Graz gilt. Louis Bonaparte, ein Bruder Napoleons, besuchte auf seinen Spaziergängen oftmals den Kirchenbau. 1873 heiratete der steirische Schriftsteller Peter Rosegger seine erste Frau in der Mariagrüner Kirche. Zum anderen die moderne Maria Verkündigungskirche in Kroisbach, die, in eine Wohnsiedlung integriert, 1974 geweiht wurde. Im Stadtbezirk St. Peter steht weithin sichtbar die Pfarrkirche St. Peter. Im Nordosten von Graz kann man die Kirche St. Ulrich samt dazugehörigem Quellheiligtum, die Pfarrkirche St. Veit und die Kirche Heilige Familie in Andritz besichtigen. In zwei Stadtbezirken gibt es jeweils einen Sakralbau: St. Paul in der Eisteichsiedlung in Waltendorf und die Bruder-Klaus-Kirche nahe der Satelliten-Stadt am Berliner Ring in der Ragnitz. Am rechten Murufer sind in den Bezirken Gösting und Eggenberg die Kirche St. Anna, die Schlosskirche des Schlosses Eggenberg, der Vierzehn-Nothelfer-Kirche, die moderne Schutzengelkirche, die Vinzenzkirche und auf einem Bergkamm in Wetzelsdorf die Kirche St. Johann und Paul zu sehen. Im südlichen Stadtteil Straßgang befinden sich mit der Kirche Maria im Elend, der Schlosskirche St. Martin, der etwas entlegenen Florianikirche auf dem Florianiberg, der Elisabethkirche und der erwähnten Rupertikirche weitere Grazer Sakralbauten. Im jüngsten Grazer Bezirk Puntigam gibt es die 1967 erbaute Pfarrkirche St. Leopold und die Anstaltskirche des LSF Graz. Die Heilandskirche, in der Nähe des Grazer Opernhauses gelegen, ist die größte evangelische Kirche der Stadt Graz. Der heute bestehende Bau wurde im historistischen Stil ab 1853 errichtet, nachdem sich seit 1824 ein evangelisches Bethaus an dieser Stelle befunden hatte. Er ist Teil eines Gebäudekomplexes mit Pfarrgebäuden und des Martin-Luther-Hauses. Zur evangelischen Konfession zählen auch die Kreuzkirche am Rande des Volksgartens, deren Pfarrheim das Mühl-Schlössl ist, die Christuskirche in Eggenberg, die Evangelische Johanneskirche in Andritz und die Erlöserkirche in Liebenau. Neben den katholischen und evangelischen Kirchenbauten findet man in Graz in der Kernstockgasse die altkatholische Kirche, in der Wiener Straße die koptische Kirche und über das Stadtgebiet verstreut Zentren diverser Konfessionen, darunter in Eggenberg ein Gemeindehaus der Kirche Jesu Christi der Heiligen der Letzten Tage (Mormonen). Graz besitzt auch eine Synagoge. Die alte Grazer Synagoge wurde im Jahr 1892 errichtet und gehörte zur jüdischen Gemeinde mit ihren 2500 Mitgliedern. Sie war ein Nachfolgebau der Synagoge im ehemaligen Judenviertel in der Grazer Innenstadt. In der sogenannten Reichskristallnacht vom 9. zum 10. November 1938 wurde das Gebetshaus niedergebrannt und das gesamte Areal eingeebnet, um die Erinnerung an die Synagoge auszulöschen. Sämtliche Grazer Juden wurden nach Wien deportiert und Graz zur ersten „judenfreien“ Großstadt der Ostmark erklärt. Bis ins Jahr 1998 befand sich an der Stelle der zerstörten Synagoge nur eine Rasenfläche mit einem Gedenkstein. Unter Verwendung des alten Ziegelwerks wurde die neue Grazer Synagoge 1998 erbaut. Profanbauten. Am nördlichen Grazer Stadtrand befindet sich die Burgruine Gösting, eine Ruine mit sehr gutem Überblick, von der aus das Murtal nördlich von Graz einst kontrolliert wurde. An jener Stelle befand sich im 10. und 11. Jahrhundert eine Vorgängeranlage auf dem Frauenkogel, deren Reste wie die Burg denkmalgeschützt sind. Die Burg Gösting selbst ist im 12. Jahrhundert datiert und war Teil eines Kreidfeuer-Warnsystems, das die Bevölkerung vor Bedrohungen warnen sollte. 1723 wurde die Burg durch Blitzschlag zerstört, heute ist die Ruine ein beliebtes Ausflugsziel. Nach der Zerstörung erbauten die Grafen Attems als neuen Sitz das Barockschloss Gösting. Der größte Jugendstilbaukomplex Österreichs liegt im Osten der Stadt, das LKH-Universitätsklinikum Graz. Es „galt damals als das modernste Krankenhaus des Kontinents und wurde vielfach sogar als Weltwunder bezeichnet“. Die relativ weite Entfernung vom Stadtzentrum erregte jedoch den Unmut der Grazer Bürgerschaft. Der Gebäudekomplex ist durch ein unterirdisches Tunnelsystem verbunden. Jede medizinische Abteilung besitzt ihr eigenes Gebäude. Im Laufe der Zeit wurden Modernisierungsmaßnahmen ausgeführt. In der Nähe des Krankenhauses findet man auch die Rettenbachklamm, eine ganzjährig begehbare Klamm im Stadtgebiet, das Naherholungsgebiet Leechwald, den künstlich angelegten Hilmteich mit einem Schlössl und die Hilmwarte. Außerhalb der Innenstadt sind relativ wenige Palais vorhanden, die meisten sind Eigentum der öffentlichen Hand. In St. Leonhard steht am Stadtparkrand das Palais Kees, ein Bauwerk des Spätklassizismus. Es beherbergte unter anderem das k.u.k. Korpskommando. Seit einer Renovierung zu Beginn des 21. Jahrhunderts wird es als Studentenheim genutzt. Das Palais Meran, der ehemalige Stadtsitz Erzherzog Johanns, findet seit 1963 als Hauptgebäude der Grazer Kunstuniversität Verwendung. Die Elisabethstraße ist mit zahlreichen Palais und Villenanlagen eine der Grazer Prachtstraßen aus der Gründerzeit. Zu erwähnen sind die Palais Apfaltrern, Auersperg, Kottulinsky, Kübeck und Prokesch-Osten und die Meranhäuser. In den Räumlichkeiten des Palais Mayr-Melnhof ist das Grazer Literaturhaus untergebracht. Etwas stadtauswärts liegen (in Auswahl) die Villen Kollmann und Lazarini. Das Geidorfer Villenviertel erstreckt sich von der Elisabethstraße über die Leechgasse bis zur Schubertstraße. Das Palais Thinnfeld im Bezirk Lend ist direkt das Grazer Kunsthaus angeschlossen. Eine Besonderheit am Palais Wertl von Wertlsberg ist sein schlossähnlicher Charakter, der durch zwei polygonale Ecktürme und einen Eck-Erker erzielt wird. Am Eingang zur Dominikanergasse steht mit dem Palais Gleispach das einzige Palais im Bezirk Gries. In allen anderen Grazer Stadtbezirken existieren keine Palais, sondern Schlösser und Edelhöfe. Da Graz während der Monarchie ein beliebter Sitz von Adeligen und höheren Beamten war, findet man auf dem Stadtgebiet viele Schlösser und Palais. Neben den zahlreichen Innenstadtpalais sind es vor allem Schlösser und Edelhöfe die das Grazer Erscheinungsbild in den Randbereichen prägen. Neben dem Schloss Eggenberg mit seiner Parkanlage, dem Barockschloss Gösting und der Grazer Burg sind einige Bauten erwähnenswert. Inmitten von Geidorf steht das Meerscheinschlössl, ein barocker Bau mit ehemals weitläufigem Park. Das Hallerschloss und das Schloss Lustbühel mit integriertem Kindergarten liegen in Waltendorf. Im ehemaligen Schloss Liebenau war eine Kadettenschule untergebracht, seit den 1970er Jahren befindet sich in den Räumlichkeiten das HIB Liebenau. Zu den innerstädtischen Schlössern zählen das Messe-Schlössl, das Metahof-Schlössl in Bahnhofsnähe, das Mühl-Schlössl beim Volksgarten oder das Tupay-Schlössl in der ehemaligen Schönau. In den Randbezirken stehen an prominenter Lage Schloss St. Martin und das St. Veiter Schlössl, etwas verborgen Schloss Algersdorf, Schloss Reinthal, Schloss Moosbrunn oder Schloss Kroisbach. Neben den Grazer Schlössern gibt es einige erhaltene Edelhöfe, also Ansitze, die häufig von Steuern befreit waren und als Gutsbetrieb geführt wurden. Ein Beispiel ist der Weisseneggerhof am Esperantoplatz. Die meisten Anlagen befinden sich in Privatbesitz. Eine Besonderheit ist das ehemalige Jagdschloss Karlau. Es war in das ursprüngliche Gebiet der Karl-Au eingebettet und von einem Tiergarten und dem kaiserlichen Jagdgebiet umgeben. Im Tiergarten wurden neben Wassergeflügel und Rotwild auch Falken, Reiher und Fasanen gezüchtet, in den Mur-Auen ausgesetzt und bejagt. Noch heute erinnern etliche Straßennamen (Tiergartenweg, Rebhuhnweg, Reiherstadlgasse, Falkenturmgasse, Fasangartengasse, Auf der Tändelwiese) in der Umgebung an Tiergarten und Jagdgebiet. „Tändel“ zum Beispiel ist eine alte Bezeichnung für Rotwild. Im Laufe seiner Geschichte nutzte man das Schloss als Kriegsgefangenenhaus, ab 1769 als Arbeitshaus, bis 1803 die Einrichtung zum Provinzialstrafhaus erfolgte. Nach vielen Aus- und Umbauten ist vom Schloss nur mehr der Kern der Justizanstalt Graz-Karlau erhalten geblieben. Denkmäler und Brunnen. Statue der Mariensäule „Am Eisernen Tor“ Rosariumbrunnen im Rosegger-Garten am Opernring Graz besitzt eine Fülle an Denkmälern. Zu den prominentesten zählen (in Auswahl) die Mariensäulen (1666–70) am Eisernen Tor, am Karlauplatz (1762) und am Marienplatz (1680), die Pestsäulen am Karmeliterplatz (1680), Lendplatz (1680) und Griesplatz (1680), die als Votivsäulen nach Pestepidemien oder Feindinvasionen von der Bürgerschaft gestiftet wurden. Dazu zählt auch das Pestdenkmal „Am Damm“, ein Denkmal in Kapellenform von 1680. Die verstärkte Errichtung solcher Pestsäulen und -denkmäler um das Jahr 1680 entsprang der Dankbarkeit wegen des Endes einer Pestepidemie in Graz, die mit über 3.500 Todesopfern ungefähr ein Fünftel der Stadtbevölkerung das Leben kostete. Der Erzherzog-Johann-Brunnen (1878) am Hauptplatz mit einem überlebensgroßen Bronze-Standbild des Erzherzogs Johann und den allegorischen Darstellungen der vier Flüsse Mur, Enns, Drau und Sann wurde von Franz Pönninger entworfen und am 8. September 1878 enthüllt. An den vier Ecken sind Brunnenschalen eingefasst. Die Sockel sind mit allegorischen Bronzereliefs verziert. Ursprünglich sollte der Brunnen im Joanneumsgarten oder am Eisernen Tor aufgestellt werden. Das Erscheinungsbild einiger Grazer Plätze und Parks ist durch Brunnen geprägt. Das Major-Hackher-Denkmal („Hackher-Löwe“, 1909) am Schloßberg ist dem gleichnamigen Oberst gewidmet, der 1809 den Schloßberg erfolgreich gegen die Truppen Napoleons verteidigte. 1909 schuf Otto Jarl zum hundertjährigen Gedenken die erste Löwenplastik, die nach ihrer Einschmelzung 1943 erst 1966 durch eine Bronzeplastik Wilhelm Gössers ersetzt wurde. Einige Plätze der Grazer Innenstadt sind mit exponierten Persönlichkeitsdenkmälern versehen. Das überlebensgroße Persönlichkeitsdenkmal Kaiser Franz I. (1838/41) steht am Freiheitsplatz, eine Bronzebüste Josephs II. (1887) am Opernring, das Persönlichkeitsdenkmal Peter Roseggers von Wilhelm Gösser und der Rosariumbrunnen befinden sich im Roseggergarten. Im Stadtpark, auf dem Schloßberg und in Opernnähe sind zahlreiche Denkmäler und Büsten aufgestellt, wie das Welden-Denkmal. In der Nähe des Stadtparkbrunnens (1873), der für die Wiener Weltausstellung gefertigt wurde, am "Platz der Menschrechte" stehen die Bronzefiguren der Austria und Styria von Hans Brandstätter, die sich auf der ehemaligen Hauptbrücke (gegenwärtig: Erzherzog-Johann-Brücke) befanden. Ebenfalls im Stadtpark steht Moritz Ritter von Franck-Denkmal. Das Persönlichkeitsdenkmal des Admirals Wilhelm von Tegetthoff dominiert den Tegetthoffplatz, das Maria-Grüner-Denkmal, eine Säule mit bekrönender Terrakotta-Vase und Versen von Louis Bonaparte, Castelli und Anastasius Grün. befindet sich in unmittelbarer Nähe zur Mariagrüner Kirche. Sonstiges. Auf Teilen des ehemaligen Glacis wurde durch den Grazer Bürgermeister Moritz Ritter von Franck ein großer Park begründet, der heute den Stadtpark bildet. In der Nähe des Stadtparks liegt das Opernhaus Graz, das zweitgrößte Opernhaus Österreichs, welches Ende des 19. Jahrhunderts von dem Wiener Architekturbüro Büro Fellner & Helmer erbaut wurde. Direkt neben dem Opernhaus steht eine moderne Stahlskulptur, das „Lichtschwert“. Direkt gegenüber, am Westufer der Mur, befinden sich die modernen Gebäude, das Kunsthaus und dazwischen die Murinsel. Weiterhin sind die Hauptgebäude der Karl-Franzens-Universität, der Technischen Universität und der Universität für Musik und darstellende Kunst, sowie die Leechkirche, die älteste Kirche in Graz (1202), in den an die Altstadt angrenzenden Bezirken zu finden. Unweit der Karl-Franzens-Universität liegt der Botanische Garten. Museen. Altes Joanneum in der Raubergasse Universalmuseum Joanneum in Graz. Das Universalmuseum Joanneum in der Steiermark ist nicht nur das älteste und – nach dem Kunsthistorischen Museum in Wien – das zweitgrößte Museum Österreichs, sondern seiner Vielfalt und des Umfanges der Sammlungsbestände wegen auch das bedeutendste unter den österreichischen Landesmuseen. Namensgeber des Museums ist Erzherzog Johann, der im Jahr 1811 seine privaten Sammlungen stiftete mit dem Auftrag, „das Lernen zu erleichtern und die Wissbegierde zu reizen“. Der Erzherzog legte besonderes Gewicht auf Technik und Naturwissenschaften. Die Idee zu einer naturwissenschaftlichen Lehranstalt stammte aus 1775 vom ehemaligen Jesuiten Leopold Biwald. Neben dem Unterhalt eines Lyzeums und den Ankauf des Lesliehofes, das fortan als Altes Joanneum bekannt ist, war die Gründung eines Landesarchives Primärziel von Erzherzog Johann. Seine Sammlertätigkeit ermöglichte dessen Eröffnung und der erste Joanneumsarchivar Josef Wartinger konnte eine erste „kurzgefasste Geschichte der Steiermark“ verfassen. Den Gründungsstatuten des Erzherzogs zufolge erfüllt das Universalmuseum Joanneum – gemäß der Idee des Sammelns, Forschens, Bewahrens und Vermittelns – nach wie vor die Aufgabe, ein umfassendes Bild der Entwicklungen von Natur, Geschichte, Kunst und Kultur in der Steiermark zu zeigen. Die meisten der sechzehn Ausstellungsorte liegen in Graz: Die Alte Galerie im Schloss Eggenberg verfügt über bedeutende Bestände europäischer Kunst; von Romanik und Gotik über die deutsche und italienische Renaissance bis zu reich bestückten Kennerkabinetten des Barock. Die Neue Galerie umfasst bedeutende Sammlungen bildender Kunst des 19. und 20. Jahrhunderts und der Gegenwart. Sie ist seit 2011 im Joanneumsviertel untergebracht, das mit den Multimedialen Sammlungen sowie dem im März 2013 neu eröffneten Naturkundemuseum zwei weitere sehenswerte Museen beheimatet. Schloss Eggenberg, die bedeutendste barocke Schlossanlage der Steiermark, zählt mit seiner erhaltenen Ausstattung, dem weitläufigen Landschaftsgarten, sowie mit den im Schloss untergebrachten Sammlungen (Alte Galerie, Münzkabinett und Archäologiemuseum) zu den wertvollsten Kulturgütern Österreichs. Außerhalb des renovierten Joanneumviertels befinden sich das als „Friendly Alien“ bekannte Kunsthaus mit Ausstellungen zeitgenössischer Kunst und das Künstlerhaus im Stadtpark, welches bildenden Künstlern zur Verfügung steht. In der Paulustorgasse beherbergt das Volkskundemuseum die älteste und umfangreichste volkskundliche Sammlung der Steiermark. Das Landeszeughaus in der Herrengasse ist ein Museum für Rüstungen und Waffen und mit zirka 32.000 Einzelstücken (im Originalzustand) die größte historische Sammlung der Welt. Friedhöfe. Ursprünglich wurden die Friedhöfe rund um die Kirchen angelegt. Durch das Bevölkerungswachstum wurden ab dem 16. Jahrhundert auch außerhalb der Stadtmauern, in den Vorstädten, Friedhöfe angelegt. Kaiser Joseph II. erließ im Rahmen der Sanitätsreform 1782 ein generelles Verbot für innerstädtische Beisetzungen. In der Folge wurden die innerstädtischen Friedhöfe aufgelassen und neue außerhalb der Stadt angelegt. Die Grazer Friedhöfe sind alle im kirchlichen Besitz, ausgenommen der Urnenfriedhof, welcher der Stadt Graz (Grazer Bestattung) gehört. Mit einem Alter von rund eintausend Jahren ist der, an der südlichen Stadtgrenze gelegene, Friedhof Feldkirchen bei Graz der älteste bestehende Friedhof, welcher von der Grazer Bestattung zu den Grazer Friedhöfen gezählt wird. Er besitzt auch ein eigenes Beinhaus mit den Gebeinen von 1.767 Menschen aus Galizien und der Bukowina, welche 1936 nach Schleifung des Internierungslagers und des dazugehörenden Friedhofs im Bereich des heutigen Flughafens Graz-Thalerhof, hierher überführt worden sind. Architektur und Stadtentwicklung. Schloßberg und Franziskanerkirche von der Tegetthoff-Brücke Das Stadtbild der inneren 6 Stadtbezirke ist, wie für eine mitteleuropäische Stadt typisch, vor allem durch eher niedrige, gleichmäßige Verbauung sowie durch zahlreiche Sakralbauten geprägt. Die restlichen Bezirke von Graz sind geprägt von den Baustilen der zweiten Hälfte des 20. Jahrhunderts. Abgesehen von der Altstadt lässt sich an den vorherrschenden Baustilen der Stadtteile sehr gut die Epoche, in denen sie ihren größten Ausbau und Bevölkerungszuwachs erfuhren, erkennen. So werden die direkt an die Altstadt angrenzenden inneren sechs Stadtbezirke vom Baustil der Gründerzeit, dem Historismus, geprägt. Ganze, bisher vorstädtisch geprägte Stadtviertel, wurden mit mehrgeschossigen Zinshäusern, die reichen Fassadenstuck aufweisen, verbaut. Für die neu entstandene Klasse der Großindustriellen entstanden auch mehrere vornehme Villenviertel. In der Zwischenkriegszeit war die Bautätigkeit aufgrund der schwierigen wirtschaftlichen Lage gedämpft. Trotzdem gelang es der Stadt Graz einige Wohnsiedlungen und öffentliche Gebäude zu bauen, ansonsten aber wurde in diesen Jahren wenig errichtet. Die stärkste Veränderung des Stadtbildes wurde in der Zeit zwischen 1950 und 1980 vollzogen, da die vielen kriegszerstörten Häuser oft mit Hochhäusern ersetzt wurden und zugleich die Wohnungsnot mit dem Bau von großen Hochhaussiedlungen in den Außenbezirken bekämpft wurde. Außerdem wurden auch weite Teile der Außenbezirke von Graz mit einem Teppich aus Einfamilienhäusern verbaut. Das Bauerbe des Historismus wurde in der Nachkriegszeit als geschmacklos empfunden und bei vielen Häusern wurden die Stuckfassaden abgeschlagen, auch wenn sie den Krieg unbeschädigt überstanden hatten. Das geschah vor allem in jenen Stadtteilen, die der Bombenkrieg stark in Mitleidenschaft gezogen hatte. In den Stadtteilen Geidorf und St. Leonhard, die den Bombenkrieg fast unbeschädigt überstanden hatten, gibt es aber noch ganze Viertel mit Häusern deren Fassadenstuck intakt ist. 1972 wurde die Altstadt unter Schutz gestellt, um den geplanten Abriss von ganzen Häuserzeilen zu verhindern. 1974 wurde ein Hochhausbauverbot für die gesamte Stadt verordnet, als Reaktion auf den oft unsensiblen Umgang der Investoren mit dem Stadtbild. Weiterhin wurden auch Teile der Außenbezirke als Grüngürtel unter Schutz gestellt, und die Bebauungsdichten im gesamten Stadtgebiet wurden drastisch gesenkt. Während die Unterschutzstellung der Altstadt und des Grüngürtels heutzutage als großer Erfolg gewertet werden, wurden das Hochhausverbot und die niedrigen Bebauungsdichten inzwischen teilweise revidiert. Die Stadtplaner hatten erkannt, dass Zersiedlung ein großes Problem darstellt; daher ist der Bau von Hochhäusern in mehreren Gebieten außerhalb der Altstadt und der Gründerzeitviertel wieder erlaubt. Mit dem Bau des Südgürtels ab 2014 wird mehrere Jahre viel Geld in Struktur für Kfz-Verkehr fließen. Das relativ zentrumsnahe, große Gelände der ehemaligen Brauerei Reininghaus im XIV. Bezirk Eggenberg wird von Investoren in den nächsten Jahren bebaut werden. Großer Bedarf an Wohnungen führt derzeit zur Bebauung von Baulücken und Ausbauten von bestehenden Häusern. Die Ansiedlung von jungen Wirtschaftstreibenden auch in Form von Co-Working-Space findet seit einigen Jahren insbesondere um Mariahilfergasse und Lendplatz statt. Moderne Architektur. "Frog Queen" der Grazer Gruppe "SPLITTERWERK" als Headquarters von "Prisma Engineering" in Liebenau 1965 entstand die „Grazer Schule“. Bemerkenswert ist eine ganze Reihe von spannenden Gebäuden im Bereich der Grazer Universitäten. Dazu zählen z. B. die Gewächshäuser von Volker Giencke, oder das RESOWI-Zentrum von Günther Domenig. 2003 bestärkte Graz als Kulturhauptstadt Europas seinen Ruf mit mehreren neuen Bauten – Stadthalle, Kindermuseum, Helmut-List-Halle, Kunsthaus und Murinsel waren und sind vielbeachtete Highlights. Letztere knüpfen, obwohl nicht von heimischen Architekten und Künstlern, in ihrer Formgebung an die Grazer Schule an. Ein bemerkenswertes Wohnbauprojekt der letzten Jahre ist das Rondo. Seit 2009 besitzt die Kunstuniversität mit dem sogenannten Mumuth von Ben van Berkel einen modernen Veranstaltungsort. Grünanlagen und Parks. Stadtpark (im Hintergrund der Uhrturm) Blick in den Augarten (2008) 70 % der Stadtfläche von Graz werden von Grünflächen eingenommen, wobei einen großen Teil dieser Flächen die Gärten der zahlreichen Einfamilienhäuser ausmachen. Der Grüngürtel, der unter besonderem Schutz steht, nimmt den ganzen westlichen, nördlichen und östlichen Stadtrand ein. Sehr beliebt als Ausflugsziele im Grüngürtel sind die Platte, der Leechwald und der Plabutsch. Es gibt zahlreiche Parkanlagen in Graz. Neben dem Stadtpark, dem größten Park in Graz, sind auch noch Volksgarten, Augarten, Schlosspark Eggenberg, Eustacchio Naturpark und Burggarten nennenswert. Auch der Schloßberg wurde nach der Schleifung der Burg im 19. Jahrhundert begrünt und dient heute als Erholungsraum. Ausflugsziele. Die Berge, die das Grazer Becken von Westen bis Nordosten umschließen (Buchkogel, Plabutsch, Hohe Rannach, Leber, Platte, Lustbühel), laden zu kurzen Spaziergängen oder ausgedehnten Wanderungen ein und bieten schöne Ausblicke auf die Stadt; zudem sind sie vom Zentrum aus leicht mit öffentlichen Verkehrsmitteln erreichbar. Darüber hinaus gibt es ein immer dichter werdendes Netz von Mountainbike-Routen mit den Hauptgebieten Schöckl und Plabutsch. Das nordöstlich anschließende Grazer Bergland − das sich vom Grazer Hausberg Schöckl (1445 m) bis hin zum Hochlantsch (1720 m) erstreckt − erweitert diese Möglichkeiten nochmals um sehenswerte Klammen und Höhlen wie die Bärenschützklamm, die Kesselfallklamm oder die Lurgrotte. Für historisch Interessierte bieten sich Tagesausflüge zum Österreichischen Freilichtmuseum im rund 20 Kilometer nördlich der Stadt gelegenen Stübing oder beispielsweise zum Bundesgestüt Piber an, in dem die Lipizzaner für die Spanische Hofreitschule in Wien gezüchtet und dressiert werden. Im Großraum Graz finden sich auch Kirchen, die von österreichischen Künstlern neu gestaltet wurden. In Bärnbach die Hundertwasserkirche (umgestaltet von Friedensreich Hundertwasser) und im Vorort Thal bei Graz die St. Jakob Kirche mit dem Zubau und der Ausstattung von Ernst Fuchs. Auch in Bärnbach wurde ein Brunnen von Ernst Fuchs gestaltet. Kultur. Die Stadt Graz hat wegen ihrer Lage am Schnittpunkt europäischer Kulturen eine jahrhundertealte Tradition als internationales Kulturzentrum. Durch die Funktion als Hauptstadt Innerösterreichs ab 1379 gewann Graz größeren Einfluss im Alpen-Adria-Raum. Die romanischen und slawischen Einflüsse sind bis in die Gegenwart bemerk- und vor allem durch die Bauwerke der Altstadt gut sichtbar. 1993 fand in Graz der Europäische Kulturmonat statt. Am 1. Dezember 1999 wurde Graz für seine Altstadt von der UNESCO in die Liste der Weltkulturerbe aufgenommen. 2003 war Graz Kulturhauptstadt Europas. Seit 2010 zählt das Barockschloss Eggenberg zum Weltkulturerbe. Grazer Varieté Orpheum, Großer Varietésaal, Ansichtskarte, um 1900 Veranstaltungsorte. Zu den wichtigsten Grazer Veranstaltungsorten zählen seit 2002 die Stadthalle Graz auf dem Messegelände, die bis zu 11.030 Menschen Platz bietet, der Stephaniensaal im Congress Graz, die Helmut-List-Halle mit Platz für bis zu 2.400 Besucher, das Veranstaltungszentrum Seifenfabrik, ein 2003 eröffnetes Zentrum, das in einer ehemaligen Seifenfabrik etabliert wurde. Eine der ältesten Spielstätten auf Grazer Stadtgebiet ist das Grazer Orpheum. Es zählt neben der Kasemattenbühne auf dem Schloßberg und dem Dom im Berg zu den sogenannten „Grazer Spielstätten“. Das Orpheum, die Geburtsstätte des Circus Roncalli, ist der 1950 errichtete Nachfolgebau des alten Grazer Varieté Orpheum, das zwischen 1899 und 1936 bestand. Der „Dom im Berg“ wurde für die Landesausstellung 2000 in den Schloßbergstollen errichtet und bietet bis zu 600 Personen Platz. Die Kasematten-Bühne auf dem Schloßberg ist eine überdachte Freilichtbühne, die zur Bestandszeit der Festung als Vorratskeller oder Kerker diente. Seit 2005 steht für Veranstaltungen die Alte Universität Graz in der Hofgasse zur Verfügung. Veranstaltungen und Festivals. Der 1967 gegründete Steirische Herbst ist ein internationales Mehrsparten-Festival für zeitgenössische Kunst; die styriarte ist ein Musikfestival für Klassik und Barock, das springfestival eine Veranstaltung für elektronische Kunst und Musik und das Aufsteirern ein Fest der Volkskultur. Der Lendwirbel versammelt Junge und Kreative. Zu den wichtigsten Grazer Veranstaltungen zählen die Diagonale, ein jährlich stattfindendes Filmfestival, das Elevate Festival mit Schwerpunkt zeitgenössischer Musik, Kunst und politischen Diskurs, der Jazz-Sommer Graz, sowie LaStrada, eine internationale Veranstaltungsreihe für Straßen- und Figurentheater. Seit 1987 wird in Graz der Grazer Kleinkunstvogel vergeben, ein Wettbewerb, der als ältestes deutschsprachiges Sprungbrett für den Kabarett- und Kleinkunst-Nachwuchs gilt. Seit 1986 findet das Berg- und Abenteuerfilmfestival Graz statt. Den gesellschaftlichen Höhepunkt des Jahres bildet, ähnlich wie in Wien der Opernball, seit 1999 die Opernredoute im Grazer Opernhaus. Film. Die österreichische Filmproduktion ist auf Wien zentriert. In Graz entstanden 1919 die Kurzstummfilme (600 bis 800 Meter) "Der Sprung in die Ehe" mit Ernst Arnold als Hauptdarsteller und "Die Zwangsjacke" mit Sängern des Opernhauses Graz als Darsteller. Beide stammten von der Grazer „Alpin-Film“. Ebenfalls in Graz produzierte man die Filme "Czaty, Die schöne Müllerin" und "Schwarze Augen". Alle drei Filme inszenierte Ludwig Loibner und wurden von der Mitropa-Musikfilm produziert. Besonderheit dieser Stummfilme war, dass es keine Zwischentitel gab, da stattdessen Sänger und Orchester den Film begleiteten, wozu Adolf Peter Balladenmusik von Carl Loewe und Liedmusik von Franz Schubert bearbeitete. Problematisch war natürlich die Abstimmung von Orchester und Sänger auf die Geschwindigkeit des Films, weshalb abgesehen von der Premiere der Filme am 19. September 1921 keine weiteren Aufführungen belegt sind. Ebenfalls in der Steiermark stellte der Dokumentarfilmpionier Bruno Lötsch, Vater von Umweltschützer und Museumsdirektor Bernd Lötsch, seine ersten Aufnahmen für das ab 1920 erschienene „Steiermärkische Filmjournal“ her, eine Wochenschau im Grazer Kinovorprogramm. Im März 2004 wurde die CINESTYRIA laut Eigendefinition als eine regionale, nationale und internationale Schnittstelle für Filmförderung, Information, Service und Support steiermarkrelevanter Film- und TV-Projekte eingesetzt. Die verbesserte Kunst- und Nachwuchsförderung führte zu neuen Impulsen in der lokalen Filmszene. Die Nachwuchsfilmgruppe LOOM drehte 2005 in Graz ihren Kinofilm "Jenseits" (2006, Regie Stefan Müller, u. a. mit Andreas Vitásek), u. a. in den Bezirken Mariatrost, Liebenau und St. Leonhard. Zwei jüngere Fernsehproduktionen, die in Graz spielen und gedreht wurden, sind: "Die Liebe hat das letzte Wort" (2004, Regie Ariane Zeller, u. a. mit Günther Maria Halmer und Ruth Maria Kubitschek), sowie "Die Ohrfeige" (2005, Regie Johannes Fabrick, u. a. mit Alexander Lutz und Julia Stemberger). Auch der Handlungsort des dreifachen Gewinners des Österreichischen Filmpreises 2011 "Die unabsichtliche Entführung der Frau Elfriede Ott" ist Graz. Im Jahr 2014 wurde in Graz nach der Buchvorlage von Wolf Haas "Das ewige Leben" gedreht. (Regie: Wolfgang Murnberger) Musik. Die bekannteste Grazer Band ist Opus mit dem Welthit "Live Is Life" aus dem Jahr 1985. Wilfried (Wilfried Scheutz) vertrat Österreich beim Eurovision Song Contest 1988 mit "Lisa Mona Lisa" und mit dem bekanntesten Popsänger Österreichs Falco ist Graz durch seine Ehefrau verbunden. In den Jahren 2004 und 2005 konnten die Bands Shiver und Rising Girl, deren Bandmitglieder aus Graz kommen, in der österreichischen Hitparade beachtliche Platzierungen landen. Weitere Bands, die im regionalen Bereich sowie teilweise österreichweit und auch in Deutschland Beachtung finden sind Binder & Krieglstein, Jerx, Antimaniax, The Staggers, Facelift und Red Lights Flash. Im Jahr 2002 formierte sich ein Orchester neu: Das Recreation – Großes Orchester Graz, welches oft auch in kleiner Besetzung auftritt. Auch die Worls Chor Games fanden in Graz statt. Literatur. Die Literaturzeitschrift "manuskripte" erscheint seit 1960 in Graz, die "Perspektive" seit 1977 und die "Lichtungen" seit 1979. Wichtige Örtlichkeiten der Literaturszene sind das Forum Stadtpark und ist das Grazer Literaturhaus in der Elisabethstraße. Mit Graz verbunden sind der Schriftstellerverbände der Grazer Autorinnen Autorenversammlung und der Grazer Gruppe. Sport. Mit dem SK Sturm und dem GAK, die sich seit Jahrzehnten auf Augenhöhe duellierten, stellt die Stadt zwei der großen Traditionsvereine des österreichischen Fußballs. Während Sturm aktuell in der Fußball-Bundesliga spielt, musste der GAK 2012 Konkurs anmelden; der Nachfolgeverein GAK 1902 startet neu in der untersten Liga. Durch die EC Graz 99ers ist Graz ebenso in der höchsten Spielklasse der österreichischen Eishockeyliga vertreten, durch den ATSE Graz zudem auch in der zweithöchsten. Im American Football sind die Graz Giants in der Austrian Football League aktiv. Auch der Laufsport ist unter den Bürgern der steirischen Landeshauptstadt sehr beliebt. Die Stadt bzw. die nähere Umgebung bieten eine Vielzahl an Trainingsmöglichkeiten. So bieten der Murradweg und die Naherholungszentren Leechwald (21,5 km Laufwege) und Platte beschilderte und vermessene Laufwege. Diese Wege sind auch unter Mountainbikern und Nordic-Walkern beliebt. Höhepunkte der Laufsaison sind der Graz-Marathon (Ende Oktober), der Grazer Volkslauf, welcher am 17. April 1983 erstmals ausgetragen wurde und somit der älteste Volkslauf Österreichs ist, weiterhin der Business-Lauf und der Frauenlauf und schließlich als Jahresabschluss der Grazer Silvesterlauf. Bekannt ist auch der sogenannte USI-Lauf oder Kleeblatt-Lauf, der einmal jährlich vom Sportinstitut der Grazer Universität abgehalten wird. Er wird jedes Jahr begleitet vom USI-Fest, das stets abends auf den Kleeblattlauf folgt und mit bis zu 25.000 Besuchern als das größte Studentenfest Europas gilt. Graz ist auch Zentrum des Orientierungslauf, mit drei ansässigen Klubs (Sportunion Schöckl Graz, OLC Graz und HSV Graz), die regelmäßig nationale, aber auch internationale Wettkämpfe veranstalten. Internationale Aufmerksamkeit brachte das jahrelang unmittelbar nach der Tour de France durchgeführte „Grazer Altstadtkriterium“, ein Radrennen mit Streckenführung durch die engen Gassen der Grazer Altstadt, an dem internationale Spitzenradsportler wie Lance Armstrong oder Jan Ullrich teilnahmen. Einradfahren und Artistik wird von vielen Kindern und Jugendlichen sommers in Kursen der Zirkusschulen gelernt. Als Spezialität wird auch Municycling und Rad-Trial betrieben. Von etwa 1964 bis etwa 1989 und etwa 2005 wurden Bergsprint-Radrennen auf den Grazer Schloßberg gefahren; 2015 wird hier erstmals ein ähnliches Bergeinzelzeitfahren, der Schlossbergman veranstaltet. Seit etwa 2001 findet findet auch in Graz Freitag abends regelmäßig ab dem Tummelplatz ein 20-km-Cityskating statt. Im Sommer bietet die Stadt zahlreiche Bade- und Schwimmmöglichkeiten. Die Freibäder der Grazer Freizeitbetriebe Augarten (Jakomini), Eggenberg, Margarethen (Geidorf), Stukitz (Andritz) und Straßgang werden jeden Sommer von Badegästen besucht. Auch die in Graz-Umgebung gelegenen Badeseen in Kumberg (Well-Welt), das Schwarzl-Freizeitzentrum in Unterpremstätten und die Copacabana in Kalsdorf bei Graz ziehen jedes Jahr hauptsächlich Grazer Gäste an. In den Freizeitzentren, aber auch in den Freibädern, gibt es ein reichhaltiges Sportangebot (Beachvolleyball, -soccer, Paddle, Minigolf und so weiter). Wärmer werdende Winter ließen in den letzten Jahren kaum mehr Natureis-Eislaufen auf dem Hilmteich, dem Teich im Volksgarten oder im Schatten des Kirchbergs in Mariatrost zu. Die einzige Kunsteisbahn befindet sich in der Liebenauer Eishalle. Als kostenlose Attraktion wenige Wochen um den Jahreswechsel wird in den letzten Jahren eine Kunsteisbahn, nun am Karmeliterplatz aufgebaut. Schlittschuhläufer des Eislaufvereines der Turnhalle Graz im Jahre 1909 Eislaufen und Eiskunstlaufen haben in Graz und in der Steiermark eine längere Tradition. So wurde der "Steirische Eislaufverband" mit dessen ersten Präsidenten Leo Scheu bereits 1923 gegründet. Zu Ehren von Scheu wird in Graz jährlich eine große Eislaufveranstaltung, die "Icechallenge" (das "Leo Scheu Memorial") veranstaltet. Diese Veranstaltung mit jährlich bis zu 150 Sportlern wurde seit dem Jahr 1971 insgesamt bereits 35 Mal in der Liebenauer Eishalle durchgeführt. Der Steirische Eislaufverband konnte sportlich einige Erfolge verbuchen. In den letzten fünf Jahren konnte bei den Damen durch Karin Brandtstätter 2005, Kathrin Freudelsperger 2007 (beide vom Grazer Eislaufverein) und durch Denise Kögl 2008 (Eissportclub) insgesamt drei "Österreichische Staatmeistertitel" gewonnen werden. Zudem wurden erstmals überhaupt mit Kathrin Freudelsperger 2007 und Denise Kögl 2008 steirische Einzelsportler im Eiskunstlaufen zu Weltmeisterschaften entsandt. Auch Ultimate Frisbee wird in Graz professionell gespielt. Drei österreichische Nationalspieler trainieren in Graz. Das österreichische Nationalteam wurde im Sommer 2004 in Portugal Weltmeister. Als berühmte Sportler, die aus Graz stammen, sind an oberster Stelle die Medaillengewinner bei Olympischen Spielen zu nennen: Harald Winkler (Gold, Viererbob 1992), Franz Brunner und Walter Reisp (Silber, Handball 1936), und Ine Schäffer (Bronze, Leichtathletik 1948) sowie Marion Kreiner (Bronze, Snowboard 2010). Wirtschaft. Graz hat durch seine günstige Lage im Südosten Österreichs eine wichtige Standort-Funktion für internationale wie nationale Unternehmen. Der Zentralraum Graz erwirtschaftet mehr als ein Drittel der industriellen Wertschöpfung des Bundeslandes Steiermark und bietet mehr als 40 % der steirischen Arbeitnehmer einen Arbeitsplatz. Graz und die Steiermark sind Österreichs Innovationszentrum und Technologiefabrik, jede dritte High-Tech-Innovation in Österreich kommt aus dieser Region. 2003 arbeiteten in Graz 184.135 Personen in 10.692 Arbeitsstätten, rund 70 % davon im Dienstleistungssektor (besonders öffentlicher Dienst, Handel, Geld- und Versicherungswesen). Zum Vergleich: Im Jahr 2001 waren es noch 158.268 Personen. 2003 wurden 996 neue Grazer Unternehmen gegründet. Seit 1906 finden in Graz jährlich die Grazer Herbstmesse und zahlreiche Fachmessen im Messecenter Graz statt, bei denen häufig mehr als 200.000 Besucher registriert werden. Aufgrund der großen wirtschaftlichen Anziehungskraft der Stadt sind mehr als 75.000 der Arbeitnehmer Einpendler. Mehr als 40 % der gesamten steirischen Wirtschaftsleistung werden im Zentralraum Graz erwirtschaftet. Unternehmen und Wirtschaftsgeschichte. Graz ist Sitz bedeutender, global wie national agierender Unternehmen und wichtigster Wirtschaftsstandort der Region und Südösterreichs. Zu den großen und bekannten Arbeitgebern zählen der Anlagenbauer Andritz AG, der Automobilhersteller Magna Steyr, ein vom Austro-Kanadier Frank Stronach gegründeter und international tätiger Konzern, der sich auf dem Gelände des ehemaligen Eurostar Automobilwerkes befindet. Das Vorgängerunternehmen war Steyr Daimler Puch. Die Fabriken der Puch-Werke in Thondorf wurden von Steyr adaptiert. Der Grazer Unternehmer Johann Puch hatte seine Fabrik 1899 in der Grazer Strauchergasse gegründet; das Werk wurde während des Zweiten Weltkrieges nach Thondorf verlegt, um für die Rüstungsindustrie produzieren zu können. Graz ist weltweit bekannt für hochspezialisierte, insbesondere im KMU-Bereich angesiedelte Unternehmen des Maschinenbaus und der Umwelttechnik. Das Schuhhandelshaus Stiefelkönig wurde 1919 in Graz gegründet. Die AVL List unter der Leitung von Helmut List sowie Anton Paar haben ihren Sitz in Graz, ebenso wie der Versicherungskonzern der Grazer Wechselseitigen und die Merkur Versicherung, zahlreiche Banken, sowie verschiedenste Mittel-, Klein- und Kleinstbetriebe aus Gewerbe und Industrie. In Puntigam befindet sich die gleichnamige Brauerei, die mittlerweile Teil des Heineken-Konzerns ist. Bis zu ihrer Stilllegung im Jahr 1947 gab es in Eggenberg die Brauerei Reininghaus. Das Reininghaus-Bier wird in Puntigam abgefüllt. Im Laufe der langen Geschichte entstanden viele historisch interessante Unternehmen auf dem Grazer Stadtgebiet. Ehemalige Grazer Unternehmen sind, in Auswahl, die Maschinen- und Motorenfabrikanten Simmering-Graz-Pauker, der Automobilhersteller Ditmar & Urban, der von 1924 bis 1925 bestand und nur ein Modell herstellte, die 1825 gegründete und Ende des 19. Jahrhunderts geschlossene Grazer Zuckerfabrik, die erste steirische Sektkellerei und Weingroßhandlung der Brüder Kleinoscheg oder die Hutfabrik Josef Pichler & Söhne. Autocluster. Der stark wachsende Autocluster Steiermark (oder „ACstyria“) ist ein Zusammenschluss von mehr als 180 steirischen Unternehmen, die in der Autozulieferindustrie tätig sind. Das Zentrum des Autoclusters ist Graz. Größtes Unternehmen und Leitbetrieb ist der Magna-Konzern. Im Autocluster arbeiteten im Jahr 2006 zirka 44.000 Menschen, die einen Umsatz von 9,6 Mrd. € und eine Wertschöpfung von 1,6 Mrd. € erwirtschafteten. KTM fertigt seinen Sportwagen X-Bow im neu erbauten Werk in Graz (Bezirk St. Peter). Darüber hinaus entwickeln sich innerhalb der Stadtgrenzen Branchen wie Nano- und Biotechnologie, Umwelttechnologie, Medizintechnik und Flugzeugbau in rasantem Tempo. Einkaufsstraßen und Shoppingzentren. Graz ist eine bedeutende, überregionale Einkaufsstadt, deren Einzugsgebiet sich weit über die Stadtgrenzen und das Umland hinaus bis ins südliche Burgenland, nach Slowenien, Ungarn und Kroatien erstreckt. Eine beliebte Einkaufsstraße ist die Herrengasse in der Inneren Stadt. Die Annenstraße, welche vom Hauptplatz nach Westen Richtung Hauptbahnhof führt, war früher eine sehr belebte Einkaufsstraße. Sie hat mittlerweile, trotz einiger Revitalisierungsversuche, viel von ihrer einstigen Bedeutung verloren. Weitere Einkaufsstraßen sind die Sackstraße, wo viele kleine Galerien und Kunstgewerbegeschäfte zu finden sind, die Sporgasse sowie die Murgasse. Das Großkaufhaus Kastner & Öhler, das älteste Grazer Kaufhaus, steht in der Sackstraße. In und um Graz gibt es eine Reihe von Einkaufszentren: Das Shopping-Center West am Weblingergürtel, das Einkaufszentrum Murpark an der Liebenauer Tangente, den Citypark am Lazarettgürtel sowie das Einkaufszentrum Shopping Nord in Gösting, an der Kreuzung Wiener Straße – Autobahnzubringer Nord. In der Grazer Nachbargemeinde Seiersberg liegt das größte Einkaufszentrum, die Shopping City Seiersberg. In Planung befindet sich ein Outletcenter in Puntigam. Seit der Eröffnung des Shopping Nord im März 2008 weist Graz die höchste Dichte an Einkaufszentren in ganz Österreich auf. Damit kommt auf jeden Einwohner der Stadt mindestens ein Quadratmeter Einkaufszentrum. Landwirtschaft. Graz ist die größte Landwirtschaftsgemeinde der Steiermark. Etwa 7.600 Rinder, Schweine, Schafe, Hühner und sonstiges Geflügel sowie Ziegen und Zuchtwild werden in etwa 340 Betrieben im Stadtgebiet gehalten. Auf 14 verschiedenen Bauernmärkten bieten die Landwirte das ganze Jahr über Kulinarisches aus Eigenproduktion an. Die Märkte am Kaiser-Josef-Platz und am Lendplatz zählen zu den größten und ältesten Grazer Märkten. Von einem reichhaltigen Angebot an frischen Lebensmitteln aus biologischem Anbau profitiert auch die berühmte und stark expandierende Spitzengastronomie der Stadt. Strom, Wasser und Abfallentsorgung. Solaranlage auf der Trainingshalle des Eisstadions Graz-Liebenau Graz besitzt eine ausgeprägte Fernwärmeversorgung mit einer Anschlussleistung von mehr als 500 MW. Im Winter wird die Wärme überwiegend aus Abwärme der Stromerzeugung genutzt, im Sommer stammt die Energie teils aus industrieller Abwärme und Gaskesseln. Graz beschreitet technologisch neue Wege: Thermische Solaranlagen mit mehreren Tausend m² Kollektorfläche liefern mehrere Megawatt Wärme: auf dem Dach der Trainingshalle des Eisstadions Graz-Liebenau (direkt neben der UPC-Arena) mit 700 kW Leistung, auf der Siedlung Berliner Ring (1300 kW), am Fernheizkraftwerk und auf den Dächern der städtischen AEVG (Abfall-Entsorgungs- und Verwertungs-GmbH, 3000 kW) und beim Wasserwerk der Graz AG (2000 kW). Die Wasserversorgung in Graz stellt die Grazer Stadtwerke bereit. Das Wasser stammt ausschließlich vom Grundwasser der quartären Schotterfüllungen des Murtales. Die Quellen liegen in Friesach, im Stadtbezirk Andritz und in St. Ilgen am Hochschwab. Das Verteilsystem in Graz hat eine Länge von 835 km; inklusive der etwa 30.000 Hausanschlüssen 1.273 km. Die Grazer Stadtwerke verfügen über 23 Trinkwasserhochbehälter mit einem Gesamtspeichervolumen von 34.742 m³. Die Abfallentsorgung in Graz wird seit 1984 von der AEVG wahrgenommen. Sie ist ein Unternehmen der Grazer Stadtwerke und der Stadt Graz. Jährlich entsorgt das Unternehmen zirka 135.000 t Müll, davon landen etwa 20.000 t auf einer Deponie. Der Betrieb trägt das Emas-Gütesiegel für geprüftes Umweltmanagement. Krankenanstalten. Das UKH und das LKH-West In Graz decken sieben Krankenhäuser, mehrere Privatkliniken/Sanatorien sowie über 40 Apotheken und zahlreiche niedergelassene Ärzte die Gesundheitsversorgung der Bevölkerung ab. Das LKH-Universitätsklinikum Graz ist ein Krankenhaus mit Maximalversorgung, über 1500 Betten und 7190 Mitarbeitern. Es deckt den Grazer Osten ab und dient außerdem als Schwerpunkt-Klinik für Patienten aus der gesamten Steiermark. Für den Westen sind das LKH Graz-West in Eggenberg mit 280 Betten und rund 500 Mitarbeitern, sowie das Unfallkrankenhaus der AUVA mit 180 Betten und rund 440 Mitarbeitern zuständig. In der Landesnervenklinik Sigmund Freud (LSF), einer öffentlichen Sonderkrankenanstalt in Straßgang, werden Patienten mit psychischen, psychosomatischen und neurologischen Erkrankungen ambulant und stationär betreut. Für diese stehen 780 Betten zur Verfügung. Weiters bestehen im Grazer Westen das geriatrische Krankenhaus Albert-Schweitzer-Klinik in Gries mit über 300 Betten, das Krankenhaus der Barmherzigen Brüder I in Lend mit etwa 220 Betten, das Krankenhaus der Barmherzigen Brüder II in Eggenberg mit 260 Betten und das Krankenhaus der Elisabethinen in Gries mit rund 180 Betten. Es gibt in Graz einige Privatkliniken: die Privatklinik Kastanienhof, die Privatklinik Leech, die Privatklinik der Kreuzschwestern, das Sanatorium St. Leonhard, das Sanatorium Hansa und die Privatklinik Graz-Ragnitz. Rettungsdienst. Den Rettungsdienst deckt in Graz das Österreichische Rote Kreuz mit zwei Notarzteinsatzfahrzeugen, zwei Notfallwagen (Jumbo) und mehr als 30 Rettungswagen (RTW) ab. Die „Jumbo“ genannten Notfallwagen sind eine Grazer Besonderheit und im österreichischen Rettungsdienst einmalig, da sie besetzt mit sogenannten Rettungsmedizinern des Medizinercorps (Ärzten oder Medizinstudenten kurz vor Studienabschluss) zwischen Rettungs- und Notarztwagen einzuordnen sind. Weiteres ist Graz der Standort der Landesleitstelle des steirischen Roten Kreuzes. Neben dem Roten Kreuz sorgen der Arbeiter-Samariter-Bund (ASB), die Malteser und das Grüne Kreuz für den Krankentransport. Zusätzlich ist am Flughafen Graz-Thalerhof der Christophorus Notarzthubschrauber C12 stationiert. In Graz gibt es einen Ärztenotdienst, der außerhalb der Praxisöffnungszeiten eine allgemeinmedizinische Versorgung in und um Graz bietet. Polizei. Als Sicherheitsbehörde für die Stadt fungiert die Landespolizeidirektion Steiermark mit Sitz in der Straßganger Straße. Ihr beigegeben als Dienststelle des Wachkörpers für das Stadtgebiet, mit 13 Polizeiinspektionen und einem Polizeianhaltezentrum, ist das Stadtpolizeikommando Graz. Ordnungswache. Als Ergänzung zur Polizei dient die städtische Ordnungswache. Sie dient der Überwachung der örtlichen Sicherheit, darf aber keine gerichtlich strafbaren Taten verfolgen und führt auch keine Überwachungstätigkeiten im Gebiet des Straßenverkehrs durch. Feuerwehr. Wie fast alle anderen großen österreichischen Städte verfügt auch Graz über eine hauptberufliche Feuerwehr. Mit insgesamt drei Wachen in den Bezirken Lend, St. Leonhard und Puntigam wird die Stadt im Regeldienst durch die Berufsfeuerwehr abgedeckt, zusätzlich gibt es noch eine Feuerwache der Freiwilligen Feuerwehr Graz im Bezirk Mariatrost. Die Freiwillige Feuerwehr fungiert als Ergänzung zur Berufsfeuerwehr, die im Bedarfsfall alarmiert wird. Der Großteil der Fahrzeuge der Freiwilligen Feuerwehr ist im Sinne der Nutzung von Synergieeffekten in der Feuerwache Süd der Berufsfeuerwehr stationiert. Eine Besonderheit bildet die Feuerwache Mariatrost, die von der Berufsfeuerwehr aufgelassen und an die Freiwillige Feuerwehr übergeben wurde. Seitdem wird diese Wache ausschließlich von der Freiwilligen Feuerwehr besetzt, eine Lösung die steiermarkweit einmalig ist. Verkehr. Der Binnenverkehr in Graz wird vor allem durch den motorisierten Individualverkehr geprägt, durch den rund 45 % der Wege zurückgelegt werden. Der öffentliche Personennahverkehr erreicht rund 20 %, etwa 16 % werden mit dem Fahrrad zurückgelegt und rund 19 % zu Fuß. Fußgänger und Radverkehr. Der Augartensteg, eine Fußgänger- und Radfahrerbrücke Einbahn ausgenommen Radfahrer, mit roter Bodenmarkierung Die Grazer Innenstadt ist von großflächigen Fußgängerzonen geprägt. Die Erweiterung wird von der Stadtplanung aktiv vorangetrieben. Dennoch ist ein Anstieg des motorisierten Individualverkehrs zu verzeichnen. Für die positive Entwicklung des Grazer Radfahrnetzes war das Engagement Erich Edeggers entscheidend. 1980 markierten Aktivisten einen Radfahrstreifen mit einem Radfahrsymbol. Sie wurden polizeilich abgestraft und die Schablone von Vizebürgermeister Edegger aufgekauft. Die Markierungsart wurde übernommen, auch das Befahren der Fußgängerzone in der Schmiedgasse und das Fahren gegen die Einbahn wurden gesetzlich geregelt. Nach Edeggers Tod 1992 stockten seine begonnenen Initiativen. Der Fußgänger- und Radfahrsteg zwischen Schloßbergplatz und Mariahilferplatz ist nach dem Stadtpolitiker benannt. Graz ist eine relativ radfahrerfreundliche Stadt, auf deren Gebiet rund 120 km Radverkehrsanlagen angelegt sind. Erklärtes Ziel der städtischen Verkehrsplaner ist es, den Radverkehrsanteil von 14 % (2007) zu steigern. Ein Beschluss aus dem Jahr 1980, ein Netz aus 190 km Radverkehrsanlagen zu errichten, dürfte erst 2035 realisiert sein. Neben dem Bau dreier Stege über die Mur gibt es an beiden Ufern Rad- und Fußwege. Befragungen zum Fahrradverhalten der Bürger führt die Stadt in regelmäßigen Abständen mit einem Fahrradklimatest durch. Die 365 km lange „Murradweg“, eine touristische Radroute und nach dem „Donauradweg“ der zweithäufigste frequentierte Radweg Österreichs, sowie die Mountainbike-Route „Alpentour“ führen durch Graz. Die nähere Umgebung kann man über die gebirgige Radroute „Rund um Graz“ erkunden. Seit 2007 fordert die Protestinitiative critical mass mehrfach mehr Platz für Radfahren in der Stadt. Seit die grüne Vizebürgermeisterin Lisa Rücker das Verkehrsresort übernommen hatte, ist eine Forcierung des Radnetzausbaus zu beobachten. Dazu zählen eine Liberalisierung von Radfahren im Zentrum (Fußgängerzonen, Parks, Einbahnen), die Qualitätshebung von Radwegen, das Werben für Radfahren als gesunde Bewegungsform, sowie die Berücksichtigung von Wünschen der Nutzer (Aktion Radfalle), neben einer deutlichen Reduktion des Autoverkehrsanteils. Motorisierter Individualverkehr. Graz besitzt ein Straßennetz von rund 1000 km. Als eine der ersten österreichischen Städte realisierte Graz im September 1992 eine flächendeckende Tempo-30-Zone (ausgenommen Vorrangstraßen), was zu einer deutlichen Reduktion der Unfallzahlen führte. Nach massivem Bau von Tiefgaragen in der Innenstadt, unter anderem aufwändig unter dem historischen Gebäude des Kaufhauses Kastner & Öhler, wurden bis 2007 bei Kaufhäusern, Großbetrieben und am Stadtrand Auto-Parkflächen ausgebaut. Mit der zweiten Röhre im Plabutschtunnel, der Nordspange (Gürtel-Unterführung) und Ausbauten am Südgürtel wurden großräumig wirksame Kapazitäten geschaffen. Die ersatzlose Schließung eines kleineren niveaugleichen Bahnübergangs in Gösting erfolgte um 2013 trotz Protests von Anrainern. Für das Stadtentwicklungsgebiet Reininghaus wird eine zusätzliche Bahnunterführung in westlicher Verlängerung der Josef-Hubergasse in den nächsten Jahren gebaut. Öffentlicher Verkehr. Graz verfügt über ein relativ gut ausgebautes öffentliches Verkehrsnetz, das Teil des Steirischen Verkehrsverbunds ist. Sechs reguläre Straßenbahnlinien und viele Buslinien durchziehen das Stadtgebiet. Das Netz ist dicht ausgebaut und wird von vielen Grazern frequentiert (66.4 km Straßenbahn und 250 km Bus). Eine steigende Anzahl von Bahnhöfen und Haltestellen führt zur zunehmenden Benützung der S-Bahn innerhalb des Stadtgebietes. Die Holding Graz Linien betreiben mit der Grazer Schloßbergbahn eine Standseilbahn, die mit gewöhnlichen Fahrscheinen zu benutzen ist, und einen kostenpflichtigen Aufzug auf den Schloßberg. In den Nächten von Freitag auf Samstag und von Samstag auf Sonntag, sowie in den Nächten vor Feiertagen verkehren Nachtbuslinien. Die ursprünglichen Pferdebahnen (1878–1895) wurden durch elektrische Garnituren ersetzt. Die erste Grazer Straßenbahnlinie führte vom alten Südbahnhof (heute Hauptbahnhof) über eine Strecke von 2,2 km zum Jakominiplatz. Nach stetigem Ausbau des Liniennetzes bis nach dem Zweiten Weltkrieg fiel ein Großteil der Anlagen in den 1950er- und 1960er-Jahren dem verstärkten Aufkommen des Individualverkehrs zum Opfer. Betroffen war die nicht mehr existierende Ringlinie 2. Sie wurde ersatzlos gestrichen und wird in der Liniennummerierung nicht geführt. Exponate, die an die historische Entwicklung der Grazer Straßenbahn erinnern, sind im Tramway-Museum bei der Mariatroster Endhaltestelle ausgestellt. Den wichtigsten Knotenpunkt des innerstädtischen öffentlichen Verkehrs bilden der Jakominiplatz, an dem alle Straßenbahnlinien, zehn Buslinien und alle Nachtbuslinien zusammentreffen, und der Europaplatz vor dem Grazer Hauptbahnhof, der als Busbahnhof für den Regionalverkehr dient. Zwischen 2005 und 2007 wurden die Straßenbahnlinien 4, 5 und 6 verlängert – die erste nennenswerte Erweiterung (insgesamt 3,5 km), seit in der Nachkriegszeit fast die Hälfte des Straßenbahnnetzes eingestellt worden war. Der Ausbau des Straßenbahnnetzes Richtung Südwesten zum Nahverkehrsknoten Don Bosco und zum Stadtentwicklungsgebiet Reininghaus, sowie der Bau einer Innenstadt-Entflechtungstrecke wurden vom Gemeinderat beschlossen. Weitere Projekte, etwa eine Nordwestlinie oder die Anbindung der Karl-Franzens-Universität, wurden aus finanziellen Gründen vorerst aufgeschoben. In der jüngsten Gegenwart sorgt die hohe Lautstärke (Luft- und Bodenschall) der neuen – schwereren und etwas breiteren – Variobahn-Triebwagen für Aufregung. Bahnverkehr. Blick Richtung Innenstadt mit dem Grazer Köflacherbahnhof im Vordergrund Der Grazer Hauptbahnhof, für seine funktionale Innenarchitektur mit dem Brunel Award ausgezeichnet und bei einer VCÖ-Passagier-Umfrage als schönster Bahnhof bewertet, liegt an der Südbahn. Er ist der Ausgangspunkt der steirischen Ostbahn und der Graz-Köflacher Eisenbahn (GKB). Von ihm fahren S-Bahnen in alle Teile der Steiermark sowie direkte Intercity-Züge nach Wien, Salzburg, Innsbruck und Bregenz ab. EuroCity-Züge verbinden Graz direkt mit Marburg an der Drau und Laibach in Slowenien, Zagreb in Kroatien und Frankfurt am Main und Saarbrücken in Deutschland. Zürich in der Schweiz ist per EuroNight direkt erreichbar, Budapest in Ungarn mit einer Kurswagen-Verbindung. Die im Bau befindliche Koralmbahn soll die historisch und geographisch bedingte schlechte Anbindung von Graz an das europäische Eisenbahnnetz deutlich verbessern und Graz direkt mit Italien verbinden. Neben dem Hauptbahnhof, der nach massivem Bombardement im Zweiten Weltkrieg wiederaufgebaut werden musste, gibt es auf Grazer Stadtgebiet den Ostbahnhof, einen 1873 im Bezirk Jakomini eröffneten und denkmalgeschützten Backsteinbau und den Köflacher-Bahnhof. Zeitgleich mit der Koralmbahn soll der Semmeringbasistunnel, der sich gegenwärtig im Planungsstadium befindet, fertiggestellt sein und Graz direkt mit Nordosteuropa verbinden. Nach dem Bau könnte die Fahrzeit zwischen Wien und Graz um mehr als eine halbe Stunde reduziert werden. Im Güterverkehr böte er deutliche Vorteile gegenüber der bestehenden Semmeringbahn, da diese nur für beschränkte Lasten transportfähig ist. Ebenfalls in Planung befindet sich der Ausbau der Steirischen Ostbahn. Die S-Bahn Steiermark wurde im Dezember 2007 mit sechs Linien eröffnet und ist in der Ausbauphase. An diesem Projekt wird seit 1998 gearbeitet. Die Teilinbetriebnahme erfolgte am 9. Dezember 2007 und die Fertigstellung sollte bis 2016 erfolgen. Die S-Bahn bietet stündlich mehrere Verbindungen. Insgesamt werden im Vollbetrieb neun S-Bahn-Linien im Großraum Graz im Einsatz sein. Die S-Bahn ist eine Kooperation zwischen den Bahngesellschaften ÖBB, STLB und GKB. Im Zuge des Ausbaus der Südbahn und der Koralmbahn sind mehrere neue Bahnhöfe im Stadtgebiet errichtet worden, diese stellen einen weiteren Schritt in Richtung Vollausbau der Grazer S-Bahn dar. Der sich im Umbau befindende Nahverkehrsknoten Hauptbahnhof soll eine zeitgemäße Umstiegsmöglichkeit zwischen den S-Bahn-Zügen und den innerstädtischen Verkehrsmitteln bieten. Die neue Anbindung der Straßenbahn an den Hauptbahnhof erfolgt mittels einer Unterführung des nahen "Eggenbergergürtels" und einer Unterflurtrasse mit Doppelhaltestellen in Tieflage. Der Nahverkehrsknoten soll ab 2012 betriebsbereit und bis 2016 fertiggestellt sein. Fernbusse. Die meisten Fernbuslinien starten mehrmals täglich und am Hauptbahnhof Graz, vielfach in Stockbussen, mit WC und WLAN. Die ÖBB bieten den Intercitybus (Option: 1. Klasse) nach (Wolfsberg und) Klagenfurt (Fahrtzeit 2:00; Anschluss nach Venedig) an, Westbus/Blaguss bedient über St. Michael Wien (2:45) und Klagenfurt (3:00). Mit Flixbus erreicht man Linz, Triest, Maribor und Ljubljana. Nur Dr. Richard/MeinFernbus.de fährt (ab 26. November 2014) ab Jakominiplatz und Murpark in knapp 2:30 nach Wien. Am längsten doch teilweise nur zum Wochenende bestehen Busverbindungen auf den Gastarbeiterstrecken: Über Varazdin täglich nach Zagreb (in 4:15; von Wien) durch Blaguss/Eurolines/AP-Varazdin mit Abfahrt am Hauptbahnhof jedoch vor dem alten Postamt. Fahrten in 22 bis 30 Stunden von Wien nach Istanbul bieten Bosfor (mit Ulusoy über Budapest, Belgrad und Sofia) und Imperial Reisen. Flughafen Graz. Tower des Flughafens Graz-Thalerhof (2008) Südlich von Graz, etwa 10 km vom Stadtzentrum entfernt, befindet sich im Gemeindegebiet von Feldkirchen und Kalsdorf der Flughafen Graz, der im Linienverkehr vor allem als Zubringer für internationale Flughäfen dient. Dieser ist über Bus- und Bahnverbindungen von Graz aus erreichbar. Der Flughafen Graz Thalerhof ist, nach dem Flughafen Wien dem Flughafen Salzburg und dem Flughafen Innsbruck, der viertgrößte österreichische Flughafen im Personenverkehr und Frachtaufkommen. Am Flughafen befindet sich seit 1981 das österreichische Luftfahrtmuseum. Im Jahr 2007 wurden am Flughafen Graz 948.000 Passagiere gezählt, 2008 überschritten die Passagierzahlen erstmals die 1.000.000-Marke. Im Linienverkehr werden verschiedene Destinationen im In- und Ausland angeflogen, unter anderem durch Austrian Airlines nach Wien, Düsseldorf und Stuttgart, Lufthansa nach Frankfurt und München, Intersky nach Zürich, Air Berlin nach Berlin und Niki nach Palma de Mallorca. Ziele des Charterverkehrs sind vor allem Mittelmeer-Destinationen. Fernstraßen. Graz liegt am Kreuzungspunkt der Pyhrn Autobahn (A 9) und der Süd Autobahn (A 2), die sich beim Knoten Graz-West schneiden. Die A9 verläuft auf Stadtgebiet beinahe komplett unterirdisch durch den zehn Kilometer langen Plabutschtunnel im Grazer Westen. Pläne, eine Stadtautobahn durch besiedeltes Gebiet zu führen, wurden nach Bürgerprotesten aufgegeben. Die A2 ist von Graz aus über den Autobahnzubringer Graz-Ost erreichbar. Weiterhin quert die B 67 im Westen die Stadt von Nord nach Süd; sie ist durchgehend vierspurig ausgebaut und eine wichtige innerstädtische Transitstraße. Von ihr zweigen drei Teilstücke ab, die an der Stadtgrenze in Landesstraßen (ehemalige Bundesstraßen) münden: die Gleisdorfer Straße (B 65), die Weizer Straße (B 72) und die Kirchbacher Straße (B 73). Straßennamen. Die Schreibweise der Namen der Grazer Verkehrsflächen folgt den Grundsätzen der Wiener Nomenklaturkommission. Bildung. Technische Universität Graz, Erzherzog-Johann-Universität, Hauptgebäude Schulen. Die Stadt ist in erster Linie für die Pflichtschulen verantwortlich, für welche sie die Infrastruktur zur Verfügung stellt. Es gibt 51 Volksschulen und 21 Hauptschulen in Graz. Daneben wird auch mit den vom Bund betriebenen Allgemein- und Berufsbildenden Höheren Schulen zusammengearbeitet. In Graz existieren 23 Bundesgymnasien (z.B. das BRG Kepler), davon ein eigenständiges internationales Gymnasium Graz International Bilingual School und vier katholische Privatschulen. Darüber hinaus gibt es in Graz acht höhere technische Lehranstalten (HTL), vier Handelsakademien/Handelsschulen (HAK/HASCH) sowie acht Schulen für wirtschaftliche Berufe (HBLA). Das Schulzentrum St. Peter umfasst neben zwei Gymnasien sechs Landesberufsschulen. Universitäten und Fachhochschulen. Graz ist mit ca. 50.000 Studenten und vier Universitäten, zwei pädagogischen Hochschulen und zwei Fachhochschulen nach Wien der zweitgrößte Universitätsstandort Österreichs. Der Anteil der Studierenden in der Bevölkerung ist hoch und umfasst etwa jeden sechsten Einwohner. Die im Bezirk Geidorf gelegene Karl-Franzens-Universität (Carola-Franciscea) wurde 1585 gegründet und ist somit nach der Universität Wien die zweitälteste Universität Österreichs. Mit 28.500 Studenten ist die Universität Graz auch die zweitgrößte Universität des Landes und bietet eine Vielzahl an Studienrichtungen und -fächern an. 11.500 Studenten besuchen die Technische Universität (Erzherzog-Johann-Universität) und weitere 4.300 sind an der Medizinischen Universität (Leopold-Auenbrugger-Universität) immatrikuliert. Auch diese beiden Universitäten sind damit die zweitgrößten des jeweiligen Fachbereiches in Österreich. Ergänzt wird die Reihe der Grazer Universitäten durch die Universität für Musik und darstellende Kunst mit 2.300 Studierenden (einschließlich Mitbelegern). Auch die Universität Klagenfurt unterhält im Rahmen der Fakultät für Interdisziplinäre Forschung und Fortbildung einen Standort in Graz. Mit über 40 Studentenverbindungen zählt Graz in diesem Bereich zu den „Verbindungshochburgen“. Graz ist das größte österreichische Fachhochschulzentrum mit der Fachhochschule Joanneum, welche mit 3.400 Studierenden die zweitgrößte Fachhochschule in Österreich darstellt, sowie mit der Fachhochschule Campus02, welche 1.000 Studierende ausbildet. Neben diesen sind die pädagogischen Hochschulen (vor dem Wintersemester 2007 noch Akademien) – die Pädagogische Hochschule des Bundes in der Steiermark sowie die Kirchliche Pädagogische Hochschule in Graz ansässig. Für die Musikausbildung unterhalb des Hochschulniveaus ist das Johann-Joseph-Fux-Konservatorium des Landes Steiermark zuständig. Weiters existiert das Konservatorium für Kirchenmusik der Diözese Graz-Seckau. Darüber hinaus existiert in Graz auch eine Schule für allgemeine Gesundheits- und Krankenpflege. Erwachsenenbildung. Anbieter berufsorientierter Weiterbildung sind das Wirtschaftsförderungsinstitut (WIFI), das Berufsförderungsinstitut (BFI), das Volksbildungshaus „Urania“, das Berufsförderungsinstitut Steiermark, die Volkshochschule Steiermark, das Gymnasium für Berufstätige Graz, die BHAKB Bundeshandelsakademie für Berufstätige, die Bulme Höhere Technische Bundeslehranstalt, FH Johanneum und FH Campus02. Bibliotheken. Der breiten Öffentlichkeit stehen die Stadtbibliothek Graz mit sechs Zweigstellen, einer Mediathek, einem Bücherbus und dem Zustellservice in allen Grazer Postfilialen, die Steiermärkische Landesbibliothek sowie die Bibliothek der Arbeiterkammer Graz zur Verfügung. Auf dem wissenschaftlichen Sektor sind jene Bibliotheken zu nennen, die an allen Hochschulen, Universitäten und Fachhochschulen eingerichteten sind und deren älteste, bedeutendste und umfangreichste die Bibliothek der Universität Graz mit derzeit mehr als 3 Millionen Medien ist. Wissenschaft. Die Wissenschaftsstadt Graz ist in hohem Maß von Lehre und Forschung an ihren vier Universitäten geprägt. Neben den akademischen Bildungsstätten gibt es eine große Zahl von wissenschaftlichen Projekten und Institutionen. Dazu zählt in erster Linie die Joanneum Research GmbH, die mit ca. 20 Instituten und ca. 400 Mitarbeitern die zweitgrößte außeruniversitäre Forschungseinrichtung Österreichs darstellt und ihre Zentrale sowie einige ihrer Institute in Graz hat. Ebenfalls vertreten ist die Österreichische Akademie der Wissenschaften mit ihrem Institut für Weltraumforschung mit ca. 85 Mitarbeitern. Der Strafrechtler und Kriminologie Hans Gross lebte und wirkte in Graz. Er gilt als Begründer der Kriminalistik, der Lehre von den Mitteln und Methoden der Bekämpfung einzelner Straftaten und des Verbrechertums. Ihm und seiner Arbeit ist im Keller des Hauptgebäudes der Karl-Franazens-Universität ein eigenes Museum gewidmet. Gebürtige Grazer. Zu den bekanntesten in Graz geborenen Personen zählen die beiden Kaiser Ferdinand II. und Ferdinand III., der Barockbaumeister Johann Bernhard Fischer von Erlach, der 1914 in Sarajevo ermordete Erzherzog Franz Ferdinand und der Adelige Roman von Ungern-Sternberg. In der jüngeren Geschichte haben Graz als Geburtsort: der jüdische Kantor Leo Roth, Autor Gerhard Roth, Komponist Robert Stolz, Dirigent Karl Böhm, Schauspieler Rudolf Lenz, der ehemalige Rennfahrer und jetzige Motorsportberater von Red Bull Racing Helmut Marko, Zeitungsherausgeber Hans Dichand, der Architekt Friedrich St. Florian sowie der derzeitige Bundespräsident Heinz Fischer. Persönlichkeiten, die mit Graz verbunden sind. In Graz lehrte und forschte Johannes Kepler von 1594 bis 1600. Erzherzog Johann wirkte hier von 1811 bis zu seinem Tod. Johann Nestroy trat zwischen 1826 und 1833 als Schauspieler in Graz auf. Karl Ritter von Stremayr (* 30. Oktober 1823 in Graz; † 22. Juni 1904 Pottschach, Niederösterreich) war österreichischer Politiker, mehrmaliger Minister sowie Ministerpräsident Cisleithaniens, des kaiserlichen Teils Österreich-Ungarns und Präsident des Obersten Gerichtshofes. Nach ihm wurde am 7. Juni 1905 die "Stremayrgasse" benannt. Nikola Tesla erhielt seine Ausbildung 1876 bis 1878 an der Technischen Universität Graz. Der steirische Dichter und Publizist Peter Rosegger verbrachte in der Stadt einen Großteil seines Lebens. August Musger, der als Erfinder der Zeitlupe gilt, erwarb ab 1879 seine Ausbildung in Graz und starb in der Stadt. Leopold von Sacher-Masoch studierte Jus, Mathematik und Geschichte an der Universität Graz. Der Namensspender des Masochismus stiftete am 28. Oktober 1863 mit sechs weiteren Personen das Corps Teutonia Graz. Der Naturforscher und Arachnologe Anton Ausserer war ab 1874 Professor am 1. Staatsgymnasium in Graz. Friedrich Schmiedl entwickelte in den 1920er und 1930er-Jahren in Graz seine Postraketen. Ludwig Boltzmann lehrte 1869–1873 und 1876–1890 an der Karl-Franzens-Universität. Auch der Chemiker und Pharmakologe Otto Loewi (Professur ab 1909), der Ökonom Joseph Schumpeter (1910–1920), der Begründer der Kontinentalverschiebungstheorie, Alfred Wegener (ab 1924) und der Physik-Nobelpreisträger Erwin Schrödinger hatten eine Professur an der Karl-Franzens-Universität. Literatur-Nobelpreisträger Ivo Andrić studierte in Graz Slawistik und promovierte daselbst 1924. Der Schauspieler Karlheinz Böhm kam 1946 mit seinen Eltern nach Graz und maturierte in der steirischen Landeshauptstadt. Nikolaus Harnoncourt, ein bekannter Dirigent, ist in Graz aufgewachsen und wirkt alljährlich als ein wichtiger Künstler bei der Styriarte mit. Hans Hollmann (Regisseur) ein bekannter deutschsprachiger Regisseur und Träger des Österreichischen Ehrenkreuzes für Wissenschaft und Kunst I. Klasse wuchs in Graz auf und promovierte daselbst 1956. Formel-1-Weltmeister Jochen Rindt wuchs bei seinen Großeltern in Graz auf. Arnold Schwarzenegger, Bodybuilder, Schauspieler und von 2003 bis 2011 Gouverneur von Kalifornien, besuchte in Graz die Schule, leistete den Militärdienst ab und begann in der Stadt mit seinem Training. Der akademische Maler Carl O’Lynch of Town (1869–1942) wurde am Zentralfriedhof Graz in einer Gruft zu Grabe gelegt. Ehrenringträger und Ehrenbürger. Von der Stadt Graz zu Ehrenbürgern und Ehrenringträgern ernannt wurden unter anderem: Karlheinz Böhm, Nikolaus Harnoncourt, David Herzog, Helmut List, Fritz Popelka, Arnold Schwarzenegger – er gab den Ehrenring am 19. Dezember 2005 zurück – und Heinz Fischer. Panoramabilder. Panorama von St. Leonhard in Richtung Altstadt Gottfried Wilhelm Leibniz. Unterschrift von Gottfried Wilhelm Leibniz Gottfried Wilhelm Leibniz (* in Leipzig; † 14. November 1716 in Hannover) war ein deutscher Philosoph, Mathematiker, Diplomat, Historiker und politischer Berater der frühen Aufklärung. Er gilt als der universale Geist seiner Zeit und war einer der bedeutendsten Philosophen des ausgehenden 17. und beginnenden 18. Jahrhunderts sowie einer der wichtigsten Vordenker der Aufklärung. Leibniz sagte über sich selbst: „Beim Erwachen hatte ich schon so viele Einfälle, dass der Tag nicht ausreichte, um sie niederzuschreiben.“ Im 18. Jahrhundert wird er vielfach als Freiherr bezeichnet; doch bislang fehlt eine Beurkundung über eine Nobilitierung. In den frühen Schriften anderer Autoren über ihn, aber gelegentlich auch von ihm selbst wurde sein Nachname analog zum Nachnamen seines Vaters auch „Leibnitz“ geschrieben. Leben. Leibniz wurde nach heutigem Kalender am 1. Juli 1646 in Leipzig geboren. Seine Eltern, insbesondere sein Vater, der aus Altenberg im Erzgebirge stammende Rechtsgelehrte Friedrich Leibnütz (1597–1652), weckten früh ein Interesse an juristischen und philosophischen Problemen. Sein Vater war Jurist und Professor für Moralphilosophie (Ethik) und seine Mutter Catharina war die Tochter des Leipziger Professors und Rechtswissenschaftlers Wilhelm Schmuck. Der achtjährige Leibniz erlernte anhand der umfangreichen väterlichen Bibliothek autodidaktisch die lateinische und die griechische Sprache. Mit zwölf Jahren entwickelte er beim Durchdenken logischer Fragestellungen die Anfänge einer mathematischen Zeichensprache. Leibniz besuchte von 1655 bis 1661 die Nikolaischule. 1661 immatrikulierte er sich an der Leipziger Universität und betrieb philosophische Studien beim Theologen Johann Adam Schertzer und dem Philosophietheoretiker Jakob Thomasius. 1663 wechselte er an die Universität von Jena, um sich dort unter Anleitung des Mathematikers, Physikers und Astronomen Erhard Weigel pythagoreischen Gedanken zu öffnen. Mit 20 Jahren wollte sich Leibniz zum Doktor der Rechte promovieren lassen, doch die Leipziger Professoren lehnten ihn als zu jung ab. So ging er nach Nürnberg, um dort an der Universität Altdorf das Verwehrte nachzuholen. Vorübergehend stand er in Verbindung zu einer dortigen alchimistischen Geheimgesellschaft, deren Experimente er jedoch schon bald verspottete. Anschließend stand er bis 1672 im Dienst des Mainzer Erzbischofs Johann Philipp von Schönborn. Er lebte während seiner Mainzer Zeit im Boyneburger Hof, der Wohnstätte des kurmainzischen Oberhofmarschalls Johann Christian von Boyneburg, der ihm eine Stelle als Mitarbeiter des Hofrats Hermann Andreas Lasser verschafft hatte. Mit Lasser arbeitete er im Auftrag des Kurfürsten an einer Reform des römischen Rechts ("Corpus juris reconcinnatum"). Sein Werk "Nova methodus discendae docendaeque jurisprudentiae" („Eine neue Methode, die Jurisprudenz zu lernen und zu lehren“) erlangte in einschlägigen Kreisen starke Rezeption. Im Jahre 1670 stieg Leibniz trotz seiner lutherischen Konfession zum Rat am kurfürstlichen Oberrevisionsgericht auf. 1672 reiste Leibniz als Diplomat nach Paris. Dort unterbreitete er dem „Sonnenkönig“ Ludwig XIV. einen Plan für einen kreuzzugähnlichen Eroberungsfeldzug gegen Ägypten, um ihn von den geplanten Eroberungskriegen in Europa abzubringen. Der König lehnte diesen Plan ab; über einhundert Jahre später jedoch setzte Napoléon Bonaparte ihn in der Ägyptischen Expedition um. 1672/73 vollendete Leibniz Arbeiten an seiner Rechenmaschine mit Staffelwalze für die vier Grundrechenarten, führte diese vor der Royal Society in London vor und wurde auswärtiges Mitglied dieser berühmten Gelehrtengesellschaft. Das von Leibniz weiterentwickelte duale Zahlensystem legte den Grundstein für die rechnergestützte Informationstechnologie des 20. Jahrhunderts. Schon Jahre zuvor, ab 1668, hatte sich unterdessen der welfische Herzog Johann Friedrich bemüht, Leibniz als Bibliothekar an seine Residenzstadt Hannover zu berufen. Doch erst nach mehreren Absagen sagte Leibniz dem Herzog schließlich im Jahr 1676 zu und wurde rund zwei Jahre später auch zu Johann Friedrichs Hofrat ernannt. Unter Ernst August wurde Leibniz 1691 auch Bibliothekar der Herzog August Bibliothek in Wolfenbüttel, mit Kurfürstin Sophie von der Pfalz stand er in regem Gedankenaustausch. 1682–1686 beschäftigte sich Leibniz mit technischen Problemen der Bergwerke im Oberharz. Er hielt sich häufig in Clausthal auf und machte zahlreiche Vorschläge zur Verbesserung des Oberharzer Bergbaus. Ab 1685 reiste Leibniz im Auftrag des Welfenhauses durch Europa, um eine Geschichte der Welfen zu schreiben. Dadurch hatte er 1688 die Gelegenheit zu einer Audienz bei Kaiser Leopold I. in Wien. Dabei trug Leibniz seine Pläne für eine Münzreform, zum Geld-, Handels- und Manufakturwesen, zu der Finanzierung der Eroberungskriege gegen die Türken, zum Aufbau eines Reichsarchives und vieles andere vor. Doch es wurde ihm nur wohlwollende Aufmerksamkeit zuteil. 1698 bezog Leibniz ein heute nach ihm benanntes Leibnizhaus in Hannover. Hier ließ Leibniz bald darauf für Jahre seinen Schüler und Sekretär, den späteren Gelehrten Rafael Levi, ebenfalls wohnen. Im Zweiten Weltkrieg wurde das Leibnizhaus zerstört und 1983 an anderer Stelle mit rekonstruierter Fassade neu gebaut. 1700 wurden nach Verhandlungen mit dem brandenburgischen Kurfürsten Friedrich III., dem späteren König Friedrich I., Pläne für eine Königlich-Preußische Akademie der Wissenschaften nach englischem und französischem Vorbild in die Tat umgesetzt. Mit Unterstützung von Friedrichs Gattin Sophie Charlotte, an deren Hof im Schloss Lietzenburg Leibniz häufig zu Gast war, wurde die Akademie in Berlin gegründet und Leibniz wurde ihr erster Präsident. Um diesen Erfolg auszudehnen, führte er 1704 in Dresden Verhandlungen über die Gründung einer sächsischen Akademie. Er gründete insgesamt drei Akademien, die bis heute Bestand haben: die Brandenburgische Sozietät der Wissenschaften (heute weitergeführt als Leibniz-Sozietät der Wissenschaften zu Berlin und als Berlin-Brandenburgische Akademie der Wissenschaften) sowie die Akademien in Wien und St. Petersburg. Leibniz hat auf diese Weise zusammen mit seinen eigenen mathematischen und philosophischen Leistungen die Herausbildung von eigenständigen Wissenschaften sehr befördert und hiermit historisch bleibende Bedeutung erlangt. Gottfried Wilhelm Leibniz wurde angeblich Ende 1711 von Kaiser Karl VI. geadelt und in den Freiherrenstand erhoben; es fehlt allerdings die entsprechende Urkunde. a> nach der Öffnung der Grablege schenkte Pastor August Kranold 1906 "Ernst August von Hannover", dem 3. Herzog von Cumberland Kurz vor seinem Tod kühlten die Beziehungen zum Haus Hannover ab, das nun unter der Leitung von Georg I. Ludwig stand. Leibniz starb vereinsamt am 14. November 1716 im Alter von 70 Jahren in Hannover und wurde dort in der Neustädter Hof- und Stadtkirche St. Johannis beigesetzt. Umstritten ist der Rahmen der Begräbnisfeier. Vielfach wird behauptet, nur sein Sekretär sei beim Begräbnis anwesend gewesen und kein Geistlicher habe die Beisetzung begleitet. Dagegen berichten Johann Georg von Eckhart (Leibniz’ langjähriger Sekretär und Mitarbeiter) und Johann Hermann Vogler (sein letzter Assistent und Amanuensis), die Beisetzung habe am 14. Dezember 1716 durch Oberhofprediger David Rupert Erythropel stattgefunden. Eckhart, der wenige Tage nach Leibniz’ Tod zum Hofrat und dessen Nachfolger als Bibliothekar und Historiograph des Hauses Hannover ernannt worden war, berichtet aber auch, dass alle Kollegen, die Beamten des Hofes, zum Begräbnis eingeladen worden waren, aber nur Hofrat von Eckhart selbst war als einziger „von Stand“ erschienen. Auf dem Sarg ließ Hofrat von Eckhart ein Ornament anbringen, das eine Eins innerhalb einer Null zeigte, mit der Inschrift "OMNIA AD UNUM" (deutsch: „Alles auf Einen“), als Hinweis auf das von Leibniz entwickelte binäre Zahlensystem. Im Auftrag von Friedrich Simon Löffler, dem Neffen und Erben von Gottfried Wilhelm Leibniz, erstellte der Bibliothekar Daniel Eberhard Baring ein Verzeichnis der von dem Universalgelehrten privat aufgebauten „Leibniz-Bibliothek“. Letzter Universalgelehrter. Leibniz zählt zur Frühaufklärung und wird oft als letzter Universalgelehrter bezeichnet. Er hatte einen starken Einfluss auf die nachfolgenden Aufklärer, die klassische deutsche Philosophie, den deutschen Idealismus und die Literatur der Klassik. Seine Entdeckungen in den Naturwissenschaften und seine philosophischen und historischen Schriften werden bis heute von Gelehrten aller Welt zu Rate gezogen. Er repräsentierte als letzter großer Denker die vor dem 18. Jahrhundert praktizierte Wissenschaft der vielfältigen Verknüpfung und des Analysierens der Zusammenhänge. Philosophie, Religion und Zahl. Leibniz betrachtete die Wissenschaft als eine Einheit. Seine Erkenntnisse in der Integralrechnung, die Theorie der unendlichen Reihen, seine neuartige Geometrie, die Theorien der Kombinatorik, die Vorstellung über die Grundlagen der Mathematik und die Wahrscheinlichkeitsrechnung entwickelten sich in enger Verbindung mit seinen philosophischen Ansichten. Das gleiche trifft auf seine Erkenntnisse der Dynamik, auf die biologischen und geologischen Konzeptionen sowie auf die Forschungen im Bereich der praktischen Politik und der theoretischen Geschichtswissenschaft zu. Das philosophische Schaffen von Leibniz gruppiert sich um drei große Problemkreise: die Monadentheorie, die Determinationskonzeption und die erkenntnistheoretisch-logischen Ansichten. Philosophie. Leibniz hat sein Denken kontinuierlich revidiert. Eine komprimierte Darstellung wichtiger Ideen zur Metaphysik findet sich in seiner "Monadologie" (1714) – eine Monadentheorie. Auch das Problem der „Essai de Théodicée“ (1710) erscheint bei Leibniz gelöst. Unsere Welt ist die beste aller möglichen Welten, sie besitzt einen maximalen Reichtum von Momenten und in diesem Sinne die größtmögliche Mannigfaltigkeit. In seiner Begriffslehre geht Leibniz davon aus, dass sich alle Begriffe auf einfache, atomare Konzepte zurückführen lassen. Er beschäftigte sich damit, wie man diesen Konzepten Zeichen zuordnen könnte und so wiederum daraus alle Begriffe ableiten könnte. So ließe sich eine ideale Sprache aufbauen. Neben anderen haben die Philosophen Russell und Wittgenstein diese Idee aufgegriffen und weitergeführt. Mit der "Ars combinatoria" (1666) versuchte Leibniz eine Wiederaufnahme des Projektes der Heuristik. Beste aller möglichen Welten. Der berühmte Satz von der „besten aller möglichen Welten“ ist oft missverstanden worden, unter anderem hat ihn Voltaire in seinem Roman "Candide" parodiert. Die Idee der „besten aller möglichen Welten“ soll nicht in naiver Weise tatsächliches und großes Übel in der Welt leugnen oder schönreden. Vielmehr weist Leibniz auf einen notwendigen Zusammenhang zwischen Gutem und Üblem hin: Es gebe nämlich Gutes, das nur zum Preis der Existenz von Übel zu haben ist. Die wirkliche Welt ist die beste u. a. in dem Sinne, dass das Gute in ihr auch von Gott nicht mit einem geringeren Maß an Übel verwirklicht werden kann. Außerdem ist die "„beste aller möglichen Welten“" dynamisch gedacht: Nicht der derzeitige Zustand der Welt ist der bestmögliche, sondern die Welt mit ihrem Entwicklungspotential ist die beste aller möglichen Welten. Gerade dieses Entwicklungspotential ermöglicht es, den derzeitigen Zustand zu verbessern, nicht hin auf einen utopischen Endpunkt, sondern immer weiter, in einem nicht endenden Prozess der ständigen sich überbietenden Entwicklung. Leibniz argumentiert einerseits, dass einige der Übel nur scheinbar sind, bzw. dass weniger Übel an einer Stelle ein mehr an anderer Stelle notwendig machen würde. Auch führt er zum Beispiel die Vielfalt an, die die Qualität der Welt ausmache. Es gibt aber auch einen logischen Grund, warum diese die beste aller möglichen Welten sein muss. Wenn nämlich Gott eine Welt aus dem Möglichen ins Wirkliche überführen möchte, so braucht er einen zureichenden Grund, da er nicht willkürlich wählen kann. Das einzige Kriterium, das eine Welt aber qualitativ von allen anderen unterscheidet, ist, die beste zu sein. Im Gegensatz etwa zu Descartes vertritt Leibniz die Ansicht, dass Gott logische Wahrheiten nicht schaffen oder ändern kann. Die Summe aller möglichen Welten findet Gott ebenso vor wie mathematische Sätze. Er hat darum auf den Zustand und die Geschehnisse innerhalb einer Welt keinen Einfluss. Selbst wenn er – Naturgesetze außer Kraft setzend – ein Wunder wirkt, so ist dieses Wunder mit der Auswahl der möglichen Welt schon ein für allemal festgelegt. Nach Leibniz gibt es keinen Widerspruch zwischen Determinismus und Freiheit. Obwohl mit der Wahl der Welt jede Handlung eines Menschen zum Beispiel vollständig unverrückbar festliegt, so ist die Tatsache, dass sich ein Mensch in einer Situation so und nicht anders verhält, völlig frei (im Sinne von unvorhersehbar). Dass sich ein Mensch so verhält (so verhalten würde), ist gerade der Grund, warum die Welt gewählt wurde. Ein anderes Verhalten wäre entweder logisch nicht möglich (nicht kompossibel mit dem Rest der Welt) oder würde eine moralisch schlechtere Welt bedingen. Die Ausführungen über die beste aller möglichen Welten können als Antizipation moderner Modallogiken (z.B. die von Saul Aaron Kripke oder David Kellogg Lewis) gesehen werden. Aufklärung. Leibniz formuliert früh die Maxime der Verstandesmäßigkeit der Aufklärung. Zitat: „Jeder Mensch besitzt Fähigkeiten zur vernünftigen Lebensführung.“ Wenn Religion und Vernunft übereinstimmen, entstünde eine wahrhafte Religion. Leibniz postulierte, alle Gaben können den Menschen verderben, nur die echte Vernunft sei ihm unbedingt heilsam, aber an ihr werde erst dann kein Zweifel mehr haften, wenn sie sich überall gleich klar und gewiss, wie die Arithmetik, erweisen könne. Der Mathematiker Leibniz war im Gefolge des Pythagoras der Auffassung, dass sich in den Zahlen die tiefsten Geheimnisse verbergen. Das heißt, wenn man Vernunft mit Zahlen ausdrücken könnte, wäre der Einwand widerlegt: „Woher weißt du, dass deine Vernunft besser ist als meine? Welches Kriterium hast du für die Wahrheit?“ Harmonie. Harmonie ist ein prägender Begriff von Leibniz’ Philosophie. Er beschreibt Harmonie als Summe von unendlich vielen, unendlich kleinen Krafteinheiten, sogenannten Monaden, den Urbestandteilen der Weltsubstanz, die durch Gott vereint wurden und so die Welt zusammenhalten. Leibniz geht davon aus, dass Gott alles aus dem Nichts geschaffen hat (creatio ex nihilo) und alles, was Gott geschaffen hat, gut ist. Daraus ergibt sich die Schlussfolgerung, dass überall eine wunderbare Ordnung zu finden ist. Als Beispiel nennt er die Zahlen, da dort keine Veränderungen vorgenommen wurden. Dieses Sinnbild des christlichen Glaubens wollte Leibniz sogar zur Heidenbekehrung einsetzen. Andererseits meint Leibniz auch: „Alles weltliche Übel entsteht aus dem endlichen Wesen der Natur.“ Allerdings sei die Unvollkommenheit ein notwendiges Teilübel. Letztlich sei die aktuale Welt die „bestmögliche aller Welten". Leibniz’ populäre Darstellung vieler seiner Grundgedanken unter dem Titel „Theodizee“ behandelt u. a. diese Ausräumung von vermeintlich an Gott zu richtenden Einwendungen wegen der Unvollkommenheit der Welt und der erfahrenen Leiden. Monadentheorie. Leibniz entwickelte die Monadentheorie als Gegenentwurf zu den zeitgenössischen Strömungen. Die Philosophen des 17. Jahrhunderts arbeiteten in der Regel entweder eine neue Substanztheorie aus oder sie entwickelten die Atomtheorie nach neuzeitlichen Maßstäben weiter. Leibniz befriedigte keine dieser Auffassungen. Er nennt die Philosophie der Atomisten eine „faule“ Philosophie, da diese Auffassung, welche die Atome als letzte Bausteine ansieht, die lebendige, sich verändernde Welt nicht tiefgründig genug analysiere. Entgegen atomistischen Zeit- und Raumauffassungen, die diese Existenzformen der Materie mit einem leeren Gefäß vergleichen, vertritt Leibniz eine dialektische Konzeption, in der Raum und Zeit Ordnungsbeziehungen in der materiellen Welt sind. Der Raum ist die Ordnung der zur gleichen Zeit existierenden Dinge, die Zeit die Ordnung ihrer kontinuierlichen Veränderungen. Den Monadenbegriff greift er aus der neuplatonischen Tradition auf. Der Begriff "Monade", „Einheit“, stammt aus der "Stoicheiosis theologike" des spätantiken Philosophen Proklos. Wenn man die unendliche Substanz Baruch de Spinozas und des Mathematikers Blaise Pascal in unzähligen Punkten repräsentiert findet, deren jeder das Universum enthält, dann hat man ein Bild für das Bewusstsein, das in seinem Ichpunkt das ganze All umfasst: dann hat man die Leibniz’schen Monaden. Eine Monade – der zentrale Begriff der Leibniz’schen Welterklärung – ist eine einfache, nicht ausgedehnte und daher unteilbare Substanz, die äußeren mechanischen Einwirkungen unzugänglich ist. Das gesamte Universum bildet sich in den von den Monaden spontan gebildeten Wahrnehmungen (Perzeptionen) ab. Sie sind eine Art spirituelle Atome, ewig, unzerlegbar, einzigartig. Leibniz vertritt somit eine panpsychistische Weltanschauung. Die Idee der Monade löst das Problem der Wechselwirkung von Geist und Materie, welches dem System René Descartes’ entspringt. Ebenso löst sie das Problem der Vereinzelung, welches im System Baruch Spinozas problematisch erscheint. Dort werden einzelne Lebewesen als bloß zufällige Veränderungen der einzigen Substanz beschrieben. Ein Beispiel: Eine Substanz kann ohne Denken existieren, aber das Denken nicht ohne Substanz. Da Leibniz die Grundfrage der Philosophie idealistisch löst und die Materie für ihn nur ein „Anderssein der Seele“ ist, verwirft er den absoluten Charakter von Raum und Zeit. Raum und Zeit werden in der Leibniz’schen Metaphysik als Ordnungsbeziehungen zwischen Entitäten der materiellen Welt verstanden. Die Theorie der Substanz von Leibniz schließt die Möglichkeiten der allseitigen Entwicklungen ein. Obwohl die Monaden in ihren Keimen identisch sind, entwickeln sie sich verschieden. Entwicklung bedeutet nach Leibniz nicht das Entstehen von grundsätzlich Neuem, sondern nur die Entfaltung des Vorhandenen. Leib, Seele und Geist sind nicht grundsätzlich verschieden, sie sind bloß unterschiedlich entwickelt. Leibniz löst das Problem der Verbindung von Körper und Seele, indem er darlegt, dass alle Monaden, obwohl sie keinen gegenseitigen Einfluss auf ihre innere Struktur ausüben, koordiniert wirken. Er behauptet, dass Gott beim Schaffen der Monaden ihre Einheit und koordinierte Wirkung gesichert habe. Er kennzeichnet diesen Zustand mit dem Begriff der „prästabilierten Harmonie“. Trotz des idealistisch-teleologischen Wesens dieser Anschauung ist das Bemühen zu spüren, die Einheit der Welt nachzuweisen und die in ihr wirkenden Gesetzmäßigkeiten aufzudecken. Rechtswesen. 1667 veröffentlichte Leibniz eine Schrift zur Reform des Rechtswesens. Darin fordert er eine Vereinheitlichung der Gesetzeswerke der christlichen Nationen. Er versuchte, in jeder Religion etwas Wahres zu finden und dies in eine große "Harmonie", in eine allumfassende allgemeine Religion einzuordnen. Mit diesen Bemühungen begab er sich auf die Ebene eines Erasmus von Rotterdam, der ein ähnliches Ziel hatte, nämlich eine Gelehrtenrepublik zu erschaffen, in der antike und christliche Elemente verbunden werden und zu Toleranz und Humanität führen sollten. Leibniz bemühte sich zeit seines Lebens um den Frieden. Er versuchte 1670 zu einer Reunion von Katholiken und Protestanten beizutragen. Zwischen 1679 und 1702 führte er Verhandlungen mit den Bischöfen Spinola und Bossuet. Bis 1706 bemühte er sich ergebnislos um einen Zusammenschluss wenigstens der evangelischen Konfessionen. Diesen Bemühungen lag seine Ansicht zu Grunde, dass die Glaubensgemeinschaft eine unerlässliche Voraussetzung für die Bewahrung der abendländischen Kultur sei. Alle seine Anstrengungen konnten den Eigensinn der tief voneinander getrennten Länder nicht überwinden. Daran scheiterte Leibniz’ Streben nach Synthese und Harmonie. Zahlen aus dem Geist der Religion. Für Leibniz galt die Devise: „Ohne Gott ist nichts.“ Deshalb setzte er für Gott die Eins und für das Nichts die Null. Gleichzeitig untersuchte er die Sprache und stellte fest, dass sie ständig Fehler zulässt. Dadurch entstehen enorme Verständigungsprobleme, die über kurz oder lang zu Konflikten führen. Leibniz setzte als Ziel seiner Forschungen die Lösung dieser Konflikte. Er meinte erkannt zu haben, dass unser Denken eigentlich ein Rechenvorgang sei, womit sich der Kreis zur Religiosität und jener von Gott und Nichts, von 1 und 0, schließt. Konsequenterweise versuchte er eine sichere logische Symbolsprache zu entwickeln (mathesis universalis). Dafür diskutierte er das Dualsystem entsprechend aus: es bildet die operationale Grundlage der modernen Computertechnik. Außerdem erkannte Leibniz, dass man jedem Gegenstand eine charakteristische Zahl beilegen kann, ähnlich den arithmetischen Zeichen für die natürlichen Zahlen. Damit, so Leibniz, wollte Gott uns zeigen, dass unser Verstand noch ein weit tieferes Geheimnis birgt, von dem die Arithmetik nur ein Schattenbild ist. Analysis situs. Leibniz begründete eine Mathematik räumlicher Lage- und Ortsbeziehungen, die nicht wie die Algebra auf Zahlen und Größen basieren sollte, sondern auf rein qualitative Eigenschaften. Er nannte seine neue Wissenschaft "Analysis situs", verwendete aber auch andere Bezeichnungen wie "Geometria situs", "Calculus situs", "Nouvelle characteristique" oder "Analyse géometrique". Daraus entstand später die Topologie, die von Johann Benedict Listing in Auseinandersetzung mit der Leibnizschen Analysis Situs entwickelt wurde. Logik. Leibniz befasste sich intensiv mit Logik und propagierte erstmals eine symbolische Logik in Kalkülform. Seine Logikkalkül-Skizzen veröffentlichte er allerdings nicht; erst sehr verspätet (1840, 1890, 1903) wurden sie publiziert. Seine charakteristischen Zahlen aus dem Jahr 1679 sind ein arithmetisches Modell der Logik des Aristoteles. Seinen Hauptkalkül entwickelte er in den "Generales Inquisitiones" von 1686. Er entwarf dort die erste Gleichungslogik und leitete in ihr fast zwei Jahrhunderte vor der Boole-Schule die Gesetze der booleschen Verbandsordnung ab. Innerhalb dieses Kalküls formulierte er die traditionelle Begriffslogik bzw. Syllogistik auf gleichungslogischer Grundlage. Er erfand die Mengendiagramme lange vor Leonhard Euler und John Venn und stellte mit ihnen die Syllogistik dar. Das Leibniz’sche Gesetz geht auf ihn zurück. Infinitesimalrechnung. Während eines Parisaufenthalts in den Jahren 1672 bis 1676 trat Leibniz in Kontakt zu führenden Mathematikern seiner Zeit. Ohne sichere theoretische Grundlage lernte man damals, unendliche Folgen und Reihen aufzusummieren. Leibniz fand ein Kriterium zur Konvergenz alternierender Reihen (Leibniz-Kriterium), aus dem insbesondere die Konvergenz der sogenannten Leibniz-Reihe folgt. Mittels geometrischer Überlegungen fand er auch deren Grenzwert formula_2. Durch Summation von Reihen gelangte Leibniz 1675 zur Integral- und von dort zur Differentialrechnung; er dokumentierte seine Erfindung 1684 mit einer Veröffentlichung in den "acta eruditorum". Nach heutigen Maßstäben (Priorität der Erstveröffentlichung) würde er als alleiniger Erfinder der Infinitesimalrechnung gelten; diese Betrachtung ist jedoch anachronistisch, da wissenschaftliche Kommunikation im 17. Jahrhundert primär mündlich und per Briefwechsel erfolgte. Bleibendes Verdienst von Leibniz ist insbesondere die heute noch übliche Notation von Differentialen (mit einem Buchstaben "d" von lat. "differentia"), Differentialquotienten formula_3 und Integralen (formula_4; das Integralzeichen ist abgeleitet aus dem Buchstaben "S" von lat. "summa"). Prioritätsstreit. Der englische Naturwissenschaftler Sir Isaac Newton hatte die Grundzüge der Infinitesimalrechnung bereits 1666 entwickelt. Jedoch veröffentlichte er seine Ergebnisse erst 1687. Daraus entstand Jahrzehnte später der vielleicht berühmteste Prioritätsstreit der Wissenschaftsgeschichte. Die ersten Pamphlete, in denen Leibniz beziehungsweise Newton beschuldigt wurden, den jeweils anderen plagiiert zu haben, erschienen 1699 und 1704. Im Jahr 1711 brach der Streit in voller Schärfe aus. Die Royal Society verabschiedete 1712 einen Untersuchungsbericht, der von Newton selbst fabriziert worden war; Johann Bernoulli antwortete 1713 mit einem persönlichen Angriff auf Newton. Der Streit wurde über Leibniz’ Tod hinaus fortgeführt und vergiftete die Beziehungen zwischen englischen und kontinentalen Mathematikern über mehrere Generationen hinweg. Schaden nahm vor allem die Entwicklung der Mathematik in England, die lange an den technisch unterlegenen newtonschen Notationen festhielt. Heute ist sich die Forschung einig, dass Leibniz und Newton ihre Kalküle unabhängig voneinander entwickelt haben. Matrix und Dyadik. Er entwickelte auch die Dyadik (Dualsystem) mit den Ziffern 0 und 1 (Dualzahlen), die für die moderne Computertechnik von grundlegender Bedeutung ist. Die Leibniz’sche Rechenmaschine. Leibniz’ Vier-Spezies-Rechenmaschine –- Original, um 1690 Dresdner Nachbau von Leibniz’ Rechenmaschine Viele bedeutende Erfindungen stammen von Leibniz, zum Beispiel eine Rechenmaschine sowie Erfindungen zur Nutzung des Windes bei der Grubenentwässerung im Oberharzer Bergbau. Leibnizens Rechenmaschine (von der es fünf aufeinanderfolgende Versionen gibt) war ein historischer Meilenstein im Bau von mechanischen Rechenmaschinen. Das von ihm erfundene Staffelwalzenprinzip, mit dem Multiplikationen auf mechanische Weise realisiert werden konnten, hielt sich über 200 Jahre als unverzichtbare Basistechnik. Die feinmechanischen Probleme, die es beim Bau einer solchen Maschine zu überwinden galt, waren jedoch so immens, dass berechtigte Zweifel daran bestehen, ob zu Leibnizens Lebzeiten jemals eine fehlerfrei arbeitende Maschine realisiert werden konnte. Eine fehlerfrei arbeitende Replik nach Leibnizens Konstruktionsplan konnte erst 1990 durch Nikolaus Joachim Lehmann (Dresden) realisiert werden. Im weiteren Sinne war Leibniz wegbereitend für die Rechenmaschine im heutigen Sinne, den Computer. Er entdeckte, dass sich Rechenprozesse viel einfacher mit einer binären Zahlencodierung durchführen lassen, und ferner, dass sich mittels des binären Zahlencodes die Prinzipien der Arithmetik mit den Prinzipien der Logik verknüpfen lassen (siehe "De progressione Dyadica", 1679; oder "Explication de l’Arithmetique Binaire", 1703). Die hier erforschten Prinzipien wurden erst 230 Jahre später in der Konstruktion von Rechenmaschinen eingesetzt (z. B. bei der Zuse Z1). Leibniz hatte beim Bau einer Rechenmaschine, anders als frühere Erfinder, eher philosophische Motive. Mit dem viel bemühten Zitat, es sei „ausgezeichneter Menschen unwürdig, gleich Sklaven Stunden zu verlieren mit Berechnungen“, wird eine Grenze zwischen Mensch und Maschine gezogen. Dem Erfindergeist (Freiheit, Spontaneität und Vernunft) als das spezifisch Menschliche wird das Mechanische der technisch-natürlichen Kausalität gegenübergestellt. Leibniz Erfindung sollte daher eng im Zusammenhang mit den etwa zeitgleich erschienenen Arbeiten zur Monadologie gesehen werden, statt in Verbindung mit praktischen, d. h. kaufmännischen, technischen und mathematischen Interessen. Vor- und Frühgeschichte. Im Streit um das historische Ausgangsgebiet der germanischen Sprachen bzw. Völker vertraten schwedische Forscher wie Olof Rudbeck d. Ä. bereits im 17. Jahrhundert die Theorie, Skandinavien sei die „Urheimat“ der Germanen ("Gothizismus"). Leibniz widersprach dieser Theorie im Jahre 1696 in seiner "Dissertatio de origine Germanorum", wobei er – seiner Zeit weit voraus – mit dem Befund der Gewässernamen (Hydronymie) argumentierte. In dem bis heute nicht abschließend entschiedenen Gelehrtenstreit neigt seit einiger Zeit (wieder) eine wachsende Zahl von Prähistorikern (u. a. Rolf Hachmann) und Linguisten (u. a. Jürgen Udolph, Wolfram Euler) der von Leibniz vertretenen Position zu. Linguistik/Philologie. Im Zusammenhang mit der Auseinandersetzung über die Herkunft des Germanischen widersprach Leibniz zudem der von zeitgenössischen schwedischen Gelehrten vertretene Ansicht, ein archaisches Schwedisch sei die Urform der germanischen Sprachen. Ebenso wies er die damals noch weit verbreitete Ansicht zurück, Hebräisch sei die erste Sprache der gesamten Menschheit. Im Zuge seiner intensiven philologischen Studien arbeitete er über die Frage der Ursprünge der slawischen Sprachen, erkannte die linguistische Bedeutung des Sanskrit und war vom klassischen Chinesisch fasziniert. Paläontologie und Biologie. Als im Juni 1692 in einem Steinbruch bei Thiede, heute ein Stadtteil von Salzgitter, ein riesiges prähistorisches Skelett freigelegt wurde, wies Leibniz anhand eines Zahnes nach, dass man nicht die Überreste eines „Riesen“, sondern das Knochengerüst eines Mammuts oder See-Elefanten gefunden habe. In seinem 1759 posthum veröffentlichten Werk „Protogaea“ gilt Leibniz als Pionier der Höhlenkunde und als Mitbegründer der Paläontologie, da er darin Fossilien nicht als Naturspiele betrachtete, sondern als Versteinerungen früherer Organismen, die durch große Umwälzungen in anderen Teilen der Erde verschwunden seien oder verändert wurden. Leibniz hatte auch erste Vorstellungen zu einem evolutiven Artenwandel und vermutete beispielsweise, dass die verschiedenen Raubkatzenarten von einer gemeinsamen ursprünglichen Katzenart abstammen könnten. Briefe. Leibniz war einer der wichtigsten interdisziplinären Gelehrten seiner Epoche. Ein großer Teil seines Wirkens ist in Briefen dokumentiert. Aus der Zeit zwischen 1663 und 1716 sind über 20.000 Briefe an Leibniz überliefert, die er von rund 1.100 Korrespondenten aus 16 Ländern erhalten hat. Im Leibniz-Archiv sind rund 15.000 Briefe dokumentiert. Er war ein „homo societatis“. Zu den aufschlussreichsten Quellen zur Arbeit, den persönlichen und finanziellen Verhältnissen Leibniz’ sowie der Situation am kurfürstlichen Hof von Hannover gehört der intensive Briefwechsel mit seinem Amanuensis Johann Friedrich Hodann, dem in den Zeiten der oft jahrelangen Abwesenheit von Hannover die Aufsicht und Verwaltung des Hauses in der Schmiedestraße und der Gärten übertragen wurde. Briefwechsel als UNESCO-Weltdokumentenerbe. Brief von Leibniz nach Kiel aus dem März 1716 eine Veröffentlichung betreffend Das Deutsche Nominierungskomitee hat den in der Gottfried Wilhelm Leibniz Bibliothek in Hannover aufbewahrten Briefwechsel von "Gottfried Wilhelm Leibniz" 2006 für das UNESCO-Programm Weltdokumentenerbe (Memory of the World) vorgeschlagen. Im Herbst 2007 entschied der Generaldirektor der UNESCO abschließend über den Neueintrag in das Memory of the World-Register. Damit erklärte die UNESCO den Briefwechsel als Bestandteil des Weltgedächtnisses und damit als besonders schützenswert. Der Briefwechsel enthält rund 15.000 Briefe mit 1.100 Korrespondenten. Er ist Bestandteil des in Hannover aufbewahrten Leibniz-Nachlasses mit ca. 50.000 Nummern mit rund 200.000 Blättern. Zum Nachlass gehören auch die Bibliothek von Leibniz und das einzig erhaltene Exemplar der von ihm konstruierten Vier-Spezies-Rechenmaschine. Denkmäler. Im Innenhof der Universität Leipzig befindet sich eine Statue Leibniz’. In Hannover erinnern zwei Denkmäler im öffentlichen Raum an Leibniz. Der Leibniztempel im Georgengarten wurde 1790 geweiht; es handelt sich um das erste einem Nichtadeligen gewidmete Bauwerk in Deutschland. Am Opernplatz befindet sich ein von Stefan Schwerdtfeger geschaffener bronzener Schattenriss von Leibniz’ Kopf, der am 27. November 2008 eingeweiht wurde. Die 2,5 m hohe Skulptur auf einem Granitsockel wurde von 10 Sponsoren für 110.000 Euro gestiftet. Eine Seite bildet das Leibniz-Zitat "Unitas in multitudine" (Einheit der Vielfalt) ab, die andere Seite zeigt das von Leibniz entwickelte binäre Zahlensystem. Gedenktag. 14. November im Evangelischen Namenkalender Sonstiges. a> HLRN-III, genannt Gottfried, am Standort Hannover Garbage Collection. Die Garbage Collection, kurz GC (englisch: „Müllabfuhr“, auch Automatische Speicherbereinigung oder Freispeichersammlung genannt) bezeichnet in der Software- und Informationstechnik eine automatische Speicherverwaltung, die den Speicherbedarf eines Computerprogramms minimiert. Dabei wird zur Laufzeit versucht, nicht länger benötigte Speicherbereiche automatisch zu identifizieren, um diese dann freizugeben. Manche automatische Speicherbereinigungen führen darüber hinaus die noch verwendeten Speicherbereiche zusammen ("Defragmentierung"). Wesentlicher Vorteil von GC gegenüber manueller Speicherverwaltung ist die Vermeidung von Fehlern, der mit einem erhöhten Ressourcenverbrauch erkauft wird. Motivation. In vielen Softwaresystemen wird benötigter (Arbeits-)Speicher dynamisch, d. h. bei Bedarf reserviert. Wird er nach Abarbeitung eines Programmteils nicht weiter verwendet, so sollte der Speicher wieder freigegeben werden, um eine Wiederverwendung dieser Ressource zu ermöglichen. Bei einer expliziten, manuellen Speicherverwaltung geschieht dies durch Festlegen der Speicherreservierung und -freigabe im Programm durch den Programmierer, ein schnell komplex und damit potenziell fehlerträchtig werdendes Vorgehen. Hinzu kommt, dass vergessene Speicherfreigaben nicht sofort zu Auffälligkeiten im Programmablauf führen - zumindest nicht während der typischerweise nur kurzen Programmläufe während der Entwicklung, sondern erst, wenn das fertige Programm vom Endanwender oft über Stunden und Tage ununterbrochen betrieben wird. Beschreibung. Bei der automatischen Speicherbereinigung ist die Idee, diese Aufgabe durch eine "Garbage Collector" genannte Routine automatisch erledigen zu lassen, ohne Zutun des Programmierers. D. h. das Speichermanagement wird von einer expliziten Festlegung zur Programmerstellungszeit ("Compile-Zeit") zu einer dynamischen Analyse des Speicherbedarfs zur "Laufzeit" des Programms verschoben. Üblicherweise läuft eine solche automatische Speicherbereinigung im Hintergrund (bzw. nebenläufig) in mehr oder minder regelmäßigen Zeitabständen (z. B. während Pausen im Programmablauf) und wird nicht explizit durch das Programm ausgelöst. GC kann jedoch häufig auch zusätzlich direkt ausgelöst werden, um dem Programm etwas Kontrolle über die Bereinigung zu geben, z. B. in einer Situation von Speichermangel ("Out-Of-Memory"). Ansätze. Es gibt verschiedene Ansätze, um eine automatische Speicherbereinigung zu implementieren. Gewünschte Anforderungen können ein möglichst geringer Speicherverschnitt, eine maximale Allokierungsgeschwindigkeit, eine Reduktion der Speicherfragmentierung und viele weitere mehr sein, die sich durchaus auch widersprechen und zu Zielkonflikten führen können. D. h. je nach Anwendungsfall kann eine automatische Speicherbereinigung sehr unterschiedlich aussehen und sicher viele Anforderungen erfüllen, manche aber auch nicht. Typischerweise werden jedoch alle diese Varianten zwei Grundtypen von Speicherbereinigungen zugeordnet: Konservative und nicht-konservative Speicherbereinigung. Konservative automatische Speicherbereinigung. Unter einer konservativen automatischen Speicherbereinigung versteht man eine, die "nicht" zuverlässig alle nicht-referenzierten Objekte erkennen kann. Diese hat meistens keine Informationen darüber, wo sich im Speicher Referenzen auf andere Objekte befinden. Zur Speicherbereinigung muss sie den Speicher auf "mögliche" Referenzen durchsuchen. Jede Bitfolge, die eine gültige Referenz in den Speicher sein könnte, wird als Referenz angenommen. Es kann dabei nicht festgestellt werden, ob es sich dabei nicht doch um ein Zufallsmuster handelt. Daher erkennen konservative Kollektoren gelegentlich Objekte als referenziert, obwohl sie es eigentlich nicht sind. Da eine automatische Speicherbereinigung niemals Objekte entfernen darf, die noch gebraucht werden "könnten", muss sie konservativ annehmen, dass es sich bei der erkannten Bitfolge um eine Referenz handelt. Insbesondere wenn eine automatische Speicherbereinigung auch dringlichere Ressourcen als Speicher freigeben muss (siehe Finalisierung), kann ein konservativer Kollektor ein Risiko darstellen. Im Allgemeinen findet man konservative GCs dort, wo interne Pointer (also Pointer auf unterschiedliche Teile eines Objektes) erlaubt sind, was eine Implementierung der automatischen Speicherverwaltung erschwert. Beispiele dafür sind die Sprachen C und C++. (Anmerkung: Dies gilt nicht für die "„verwalteten Typen“" in CLI, da dort eigene Referenztypen für die automatische Speicherbereinigung eingeführt wurden, die es nicht erlauben, direkt die Adresse eines Objekts auszulesen.) Nicht-konservative automatische Speicherbereinigung. Unter einer nicht-konservativen automatischen Speicherbereinigung (manchmal auch als "„exakte Speicherbereinigung“" bezeichnet) versteht man eine, der Metadaten vorliegen, anhand derer sie alle Referenzen innerhalb von Objekten und Stackframes auffinden kann. Bei nicht-konservativer Speicherbereinigung wird zwischen Verfolgung ("tracing garbage collectors") und Referenzzählung unterschieden. Mark-and-Sweep-Algorithmus. Bei diesem Verfahren der Speicherbereinigung wird von bekanntermaßen noch benutzten Objekten ausgehend allen Verweisen auf andere Objekte gefolgt. Jedes so erreichte Objekt wird markiert. Anschließend werden alle nicht markierten Objekte zur Wiederverwendung freigegeben. Die Freigabe kann zur Speicherfragmentierung führen. Das Problem ist hierbei jedoch etwas geringer als bei manueller Speicherverwaltung. Während bei manueller Speicherverwaltung die Deallozierung immer sofort erfolgt, werden bei Mark-and-Sweep fast immer mehrere Objekte auf einmal beseitigt, wodurch größere zusammenhängende Speicherbereiche frei werden können. Mark-and-Compact-Algorithmus. Der "Mark-and-Compact-Algorithmus" benutzt ebenso wie "Mark-and-Sweep" das Prinzip der Erreichbarkeit in Graphen, um noch referenzierte Objekte zu erkennen. Diese kopiert er an eine andere Stelle im Speicher. Der ganze Bereich, aus dem die noch referenzierten (man spricht hier auch von „lebenden“) Objekte herauskopiert wurden, wird nun als freier Speicherbereich betrachtet. Das Verschieben der Objekte hat allerdings den Vorteil, dass jene, die die Bereinigung „überlebt“ haben, nun alle kompaktiert zusammenliegen und der Speicher damit praktisch defragmentiert ist. Auch ist es möglich, sehr schnell zu allozieren, weil freier Speicherplatz nicht aufwändig gesucht wird. Anschaulich: Werden die referenzierten Objekte an den „Anfang“ des Speichers verschoben, kann neuer Speicher einfach am „Ende“, hinter dem letzten lebenden Objekt, alloziert werden. Das Allozieren funktioniert damit vergleichsweise einfach, ähnlich wie beim Stack. Generationell. Generationelle GCs verkürzen die Laufzeit der Speicherfreigabe. Dazu wird die Situation ausgenutzt, dass in der Praxis die Lebensdauer von Objekten meist sehr unterschiedlich ist: Auf der einen Seite existieren Objekte, die die gesamte Laufzeit der Applikation überleben. Auf der anderen Seite gibt es eine große Menge von Objekten, die nur temporär für die Durchführung einer einzelnen Aufgabe benötigt werden. Der Speicher wird bei generationellen GCs in mehrere Teilbereiche (Generationen) aufgeteilt. Die Langlebigkeit wird durch einen Zähler quantifiziert, welcher bei jeder Garbage-Collection inkrementiert wird. Mit jeder Anwendung des Freigabe-Algorithmus (zum Beispiel Mark-and-Compact oder Stop-And-Copy) werden langlebige Objekte in eine höhere Generation verschoben. Der Vorteil liegt darin, dass die Speicherbereinigung für niedrige Generationen häufiger und schneller durchgeführt werden kann, da nur ein Teil der Objekte verschoben und deren Zeiger verändert werden müssen. Höhere Generationen enthalten mit hoher Wahrscheinlichkeit nur lebende (bzw. sehr wenige tote) Objekte und müssen deshalb seltener bereinigt werden. GC Generationen in Java HotSpot Die Anzahl der Generationen wird heuristisch festgelegt (zum Beispiel drei in.NET, zwei für junge Objekte (auch Young-Generation genannt) und einer für alte Objekte (Tenured-Generation) in der Java-VM von Sun). Zudem können für jede Generation unterschiedliche Algorithmen verwendet werden. In Java beispielsweise wird für die niedrigste Generation ein modifizierter Stop-And-Copy-Algorithmus angewandt, für die höhere Mark-And-Compact. Referenzzählung. Bei diesem Verfahren führt jedes Objekt einen Zähler mit der Anzahl aller Referenzen, die auf dieses Objekt zeigen. Fällt der Referenzzähler eines Objektes auf null, so kann es freigegeben werden. Ein besonderes Problem der Freispeichersammlung mit Referenzzählung liegt in so genannten "zyklischen Referenzen", bei denen Objekte Referenzen aufeinander halten, aber sonst von keinem Konsumenten im System mehr verwendet werden. Nehmen wir beispielsweise an, Objekt A halte eine Referenz auf Objekt B und umgekehrt, während der Rest des Systems ihre Dienste nicht mehr benötigt. Somit verweisen beide Objekte gegenseitig "(zyklisch)" aufeinander, weshalb die automatische Speicherbereinigung nicht ohne weiteres erkennen kann, dass sie nicht mehr benutzt werden. Die Folge hiervon ist, dass der Speicher somit für die Dauer der Programmausführung belegt bleibt. Es gibt unterschiedliche Algorithmen, die solche Situationen erkennen und auflösen können, zumeist nach dem Prinzip der "Erreichbarkeit in Graphen". Eigenschaften. Mit einer Garbage Collection können einige häufig auftretende Programmierfehler, die beim Umgang mit dynamischer Speicherverwaltung oft gemacht werden, ganz oder zumindest teilweise vermieden werden. Besonders zu erwähnen sind hierbei Speicherlecks, die doppelte Freigabe von Ressourcen und die Dereferenzierung von versehentlich zu früh freigegebenen Ressourcen (Hängende Zeiger). Eine Freigabe noch referenzierter Objekte führt zu hängenden Zeigern, welche oft zu Programmabstürzen und undeterministischem Verhalten führen. Als Folge des Satzes von Rice kann nicht festgestellt werden, ob noch referenzierte Objekte jemals wieder benutzt werden. Darum gibt eine automatische Speicherbereinigung nur vom Programm nicht mehr referenzierte Objekte frei; sie verhindert keine Speicherlecks der Sorte, dass das Programm auf den Speicherbereich noch eine Referenz hält, den Inhalt jedoch nie wieder nutzt. Derartige Speicherlecks stellen Logische Fehler oder Designfehler (Fehler im Grundkonzept, falsche Anforderungen an die Software, Softwaredesign-Fehler) dar und können auch bei nicht-automatischer Speicherverwaltung entstehen. Leistungsfähigkeit. Ob eine automatische Speicherbereinigung Programme insgesamt beschleunigt oder ausbremst, ist umstritten. In einigen Kontexten, wie z. B. wenn Speicher erst dann freigegeben wird, wenn die Systemanforderungen gerade niedrig sind oder wenn die Speicherverwaltung des Systems durch Defragmentierung entlastet wird, kann sie zu Leistungssteigerungen führen. Es existieren Microbenchmarks, welche belegen, dass bei Programmiersprachen mit automatischer Speicherbereinigung die Anlage/Freigabe von Objekten in Summe schneller vonstattengeht als ohne, jedoch auch Microbenchmarks, die insgesamt einen überwiegend negativen Einfluss auf die Leistungsfähigkeit sehen.. Ein Paper von 2005 gibt an, dass die Leistungsfähigkeit von Garbage Collection nur dann gleich gut oder leicht besser wie beim expliziten Speichermanagement sei, wenn der Garbage Collection fünfmal soviel Speicher zusteht, wie tatsächlich benötigt wird. Bei dreimal soviel Speicher läuft Garbage Collection im Schnitt 17 % langsamer, bei doppelt soviel Speicher 70 % langsamer als bei explizitem Speichermanagement. Speicherverbrauch. Beim Speicherverbrauch führt eine automatische Speicherverwaltung und -bereinigung zu einem Overhead gegenüber einem expliziten, händischen Speichermanagement aufgrund der zeitverzögerten Bereinigung. Ein wissenschaftliches Paper von 1993 schätzt den Overhead bei "konservativer" Speicherbereinigung auf typischerweise 30–150 %. Andererseits ist eine korrekte Implementierung manueller Speicherfreigabe in nicht trivialen Programmen komplex umzusetzen, was Fehlerquellen für Speicherlecks bei manueller Speicherfreigabe schafft. Beispielsweise kann die oft angewandte Methode der Referenzzählung keine zyklischen Referenzen erkennen und führt ohne Ergänzung durch komplexe Algorithmen zu Speicherlecks. Determinismus. Indem der Programmierer die Entscheidung über den Freigabezeitpunkt nicht explizit festlegt, gibt er auch einen Teil der Kontrolle über den Programmfluss auf. Da die automatische Speicherbereinigung i. d. R. nebenläufig stattfindet, hat das Programm selbst keine Information darüber, wann Speicherbereiche wirklich freigegeben bzw. Objekte finalisiert werden. Dadurch ist der Programmfluss potentiell nicht mehr deterministisch. Defragmentierung. Mittels kompaktierender Algorithmen kann Garbage Collection eine Fragmentierung des Speichers verhindern. Siehe dazu Mark and Compact. Damit werden Lücken im Speicher vermieden, die aufgrund zu großer neuer Objekte nicht aufgefüllt werden könnten. Defragmentierung führt zwar zu einer längeren Verzögerung beim Freigeben von Speicher, reduziert allerdings die Allozierungsdauer. Um die Speicherfreigabe möglichst schnell durchführen zu können, wird darauf geachtet, dass möglichst selten große Speicherbereiche aufgeräumt werden müssen. Deshalb werden diese Algorithmen bevorzugt in Kombination mit generationellen Verfahren eingesetzt. Finalisierung. Als "Finalisierung" () bezeichnet man in objekt-orientierten Programmiersprachen eine spezielle Methode, die aufgerufen wird, wenn ein Objekt durch den "Garbage Collector" freigegeben wird. Anders als bei Destruktoren sind Finalisierungsmethoden nicht deterministisch: Ein Destruktor wird aufgerufen, wenn ein Objekt explizit durch das Programm freigegeben wird. Die Finalisierungsmethode wird jedoch erst aufgerufen, wenn der Garbage Collector entscheidet, das Objekt freizugeben. Abhängig vom Garbage Collector kann dies zu einem beliebigen Zeitpunkt geschehen, wenn festgestellt wird, dass das Programm das Objekt nicht mehr verwendet – möglicherweise auch nie bzw. am Ende der Laufzeit (siehe auch Abschnitt Determinismus). In der Programmiersprache Java verfügen Objekte über eine spezielle Methode namens finalize(), die für diesen Zweck überschrieben werden kann. Aus den oben genannten Gründen wird für Java empfohlen, komplett auf Finalisierung zu verzichten und stattdessen eine explizite Terminierungsmethode zu verwenden. Der automatischen Speicherbereinigung fällt dann also ausschließlich die Aufgabe der Speicherverwaltung zu. Verbreitung. Einige ältere (APL, LISP, BASIC) und viele neuere Programmiersprachen verfügen über eine integrierte automatische Speicherbereinigung. Für Programmiersprachen wie C, bei denen die Programmierer die Speicherverwaltung „von Hand“ erledigen müssen, gibt es teilweise Bibliotheken, die eine automatische Speicherbereinigung zur Verfügung stellen, was bei der Programmierung aber leicht umgangen werden kann, beziehungsweise bei systemnaher Programmierung sogar umgangen werden muss. Aus diesem Grund können in einigen Programmiersprachen systemnah programmierte Module von der automatischen Speicherbereinigung ausgenommen, indem sie explizit gekennzeichnet werden (zum Beispiel in mit der Option "/unsafe" oder in Component Pascal mit der obligatorischen Anweisung "IMPORT SYSTEM"). Weitere Beispiele für Programmiersprachen mit einer automatischen Speicherverwaltung sind Smalltalk, Haskell, Oberon, Python, Ruby, OCaml, Perl, Visual Objects, ABAP, Objective-C (ab Version 2.0), D sowie alle Sprachen, die auf der Java Virtual Machine (JVM) ablaufen (Java, Groovy, Clojure, Scala, …) sowie die für die Common Language Runtime von .NET entwickelt wurden (zum Beispiel oder VB.NET). Apple Ökosystem. Apple führte 2007 mit der Veröffentlichung von Mac OS X 10.5 Garbage Collection als die „wichtigste Veränderung“ für Objective-C 2.0 ein, die gemäß Apple „Objective-C dieselbe Leichtigkeit der Speicherverwaltung wie bei anderen modernen Sprachen“ brachte.. 2012 mit OS X 10.8 wurde allerdings Garbage Collection als veraltet deklariert und die Verwendung des mit OS X 10.7 eingeführten automatischen Referenzzählungsmechanismus (engl. Automatic reference counting, ARC) zur Kompilierungszeit auf Basis des gerade eingeführten CLANG/LLVM 3.0 Compilers forciert. Bei dieser automatisierten Referenzzählung wird durch den Compiler Code zum Erkennen und Entfernen nicht mehr benötigter Objekten mittels Referenzzählung an geeigneten Stellen eingebaut. Im Gegensatz zu GCs mit Referenzzählung läuft die automatisierte Referenzzählung seriell und an zur Compilezeit festgelegten Zeitpunkten und damit deterministisch. Allerdings enthält ARC keine Möglichkeit, zyklische Referenzen zu erkennen; Programmierer müssen daher die Lebensdauer ihrer Objekte explizit managen und Zyklen manuell auflösen oder mit schwachen oder unsicheren Referenzen arbeiten. Laut Apple haben Mobil-Apps ohne GC eine bessere und vorhersagbarere Leistungsfähigkeit. Das GC-freie iOS als Basis ermöglicht Apple, mobile Geräte mit weniger Speicher als die GC-basierende Konkurrenz zu bauen, welche trotzdem eine gleiche oder bessere Leistungsfähigkeit und Akku-Laufzeit aufweisen; ein Ansatz, der auch in der Fachpresse als architektonischer Vorteil beschrieben wurde. Galileo Galilei. Galileo Galilei (* 15. Februar 1564 in Pisa; † in Arcetri bei Florenz) war ein italienischer Philosoph, Mathematiker, Physiker und Astronom, der bahnbrechende Entdeckungen auf mehreren Gebieten der Naturwissenschaften machte. Herkunft und Lehrjahre. Galileo Galilei stammte aus einer verarmten Florentiner Patrizierfamilie. Sein Familienzweig hatte den Namen eines bedeutenden Vorfahren angenommen, des Arztes Galileo Bonaiuti (15. Jahrhundert). Galileis Vater Vincenzo war Tuchhändler, Musiker und Musiktheoretiker und hatte mathematische Kenntnisse und Interessen; er untersuchte den Zusammenhang zwischen Saitenspannung und Tonhöhe und erkannte dabei eine nichtlineare Beziehung der Physik. Galilei wurde als Novize im Kloster der Vallombrosaner erzogen und zeigte Neigung, in den Benediktinerorden einzutreten, wurde aber von seinem Vater nach Hause geholt und 1580 zum Medizin-Studium nach Pisa geschickt. Nach vier Jahren brach er sein Studium ab und ging nach Florenz, um bei Ostilio Ricci, einem Gelehrten aus der Schule von Nicolo Tartaglia, Mathematik zu studieren. Er bestritt seinen Lebensunterhalt mit Privatunterricht, beschäftigte sich mit angewandter Mathematik, Mechanik und Hydraulik und begann, in den gebildeten Kreisen der Stadt mit Vorträgen und Manuskripten auf sich aufmerksam zu machen. Vor der Accademia Fiorentina glänzte er mit einem geometrisch-philologischen Referat über die Topografie von Dantes Hölle ("Due lezioni all’Accademia fiorentina circa la figura, sito e grandezza dell’Inferno di Dante", 1588). 1585/86 veröffentlichte er erste Ergebnisse zur Schwere fester Körper ("Theoremata circa centrum gravitatis solidorum") und löste ein antikes Problem (Heron) durch Konstruktion einer hydrostatischen Waage zur Bestimmung des spezifischen Gewichts ("La bilancetta", Manuskript). Lektor in Pisa, 1589–1592. Im Jahr 1589 erhielt Galilei eine Stelle als Lektor für Mathematik an der Universität Pisa. Der Lohn reichte kaum zum Überleben; dennoch gelang es ihm, vorzügliche Instrumente zu bauen und zu verkaufen. Auch entwickelte er ein – noch sehr ungenau arbeitendes – Thermometer. Er untersuchte die Pendelbewegung und fand, dass die Periode nicht von der Auslenkung oder dem Gewicht des Pendels, sondern von dessen Länge abhängt. Bis in seine letzten Lebensjahre beschäftigte ihn das Problem, wie man diese Entdeckung zur Konstruktion einer Pendeluhr nutzen kann. Galileis Schüler und erster Biograf Vincenzo Viviani behauptete, Galilei habe in Pisa auch Fallversuche vom Schiefen Turm unternommen. In Galileis Schriften und Manuskripten findet sich jedoch kein Hinweis auf solche Versuche, die mangels hinreichend genauer Uhren quantitativ nicht auswertbar gewesen wären. Davon zu unterscheiden ist das Turmargument als Gedankenexperiment, auf das Galilei in seinem Hauptwerk "Dialogo" eingeht. Galilei fasste die Ergebnisse seiner mechanischen Untersuchungen in einem Manuskript zusammen, das heute als "De motu antiquiora" zitiert wird und erst 1890 gedruckt wurde. Darin enthaltene Angriffe auf Aristoteles nahmen seine aristotelisch geprägten Kollegen in Pisa unfreundlich auf. Galileis Anstellung wurde 1592 nicht verlängert. Seine materielle Situation war zusätzlich dadurch verschärft, dass 1591 sein Vater gestorben war. Professor in Padua, 1592–1610. Dank guter Protektion wurde Galilei 1592 auf den Lehrstuhl für Mathematik in Padua berufen, auf den sich auch Giordano Bruno Hoffnungen gemacht hatte. In Padua, das zur reichen und liberalen Republik Venedig gehörte, blieb Galilei 18 Jahre lang. Aus dieser Zeit stammt auch ein in der Nationalbibliothek von Florenz entdeckter Einkaufszettel, der Einblick in Galileis Umsetzung seiner Erkenntnisse in die Praxis, im konkreten Fall seines Teleskops gibt. Obwohl seine Stelle wesentlich besser dotiert war als die vorige in Pisa, besserte Galilei sein Salär auf, indem er neben seinen akademischen Vorlesungen vornehmen Schülern Privatunterricht erteilte, darunter zwei späteren Kardinälen. Ferner vertrieb Galilei ab 1597 einen "Proportionszirkel". Für die Fertigung dieses Vorläufers des Rechenschiebers, der "Compasso" genannt wurde und dessen Konstruktion er erheblich verbessert hatte, beschäftigte er einen eigenen Mechaniker. Bereits in diesem Jahr ließ er in einem Brief an Johannes Kepler deutlich erkennen, dass er das heliozentrische Weltsystem gegenüber dem vorherrschenden Glauben an das geozentrische Weltbild favorisierte: „… unser Lehrer Copernicus, der verlacht wurde“. Die heute nach Kepler benannte Supernova von 1604 veranlasste ihn zu drei öffentlichen Vorträgen, in denen er die aristotelische Astronomie und Naturphilosophie angriff. Aus der Tatsache, dass keine Parallaxe festgestellt werden konnte, schloss Galilei wie bereits 1572 Tycho Brahe, dass der neue Stern weit von der Erde entfernt sei und sich deshalb in der Fixsternsphäre befinden müsse. Nach herrschender Lehre wurde diese Sphäre für unveränderlich gehalten und Galilei vertrat damit ein weiteres Argument gegen die Anschauungen der Peripatetiker, wie man die Aristoteles-Schüler auch nannte. Seine Untersuchungen zu den Bewegungsgesetzen setzte er in diesen Jahren fort. Aufzeichnungen zu Galileis Entdeckung der Jupitermonde (1610) 1609 erfuhr Galilei von dem im Jahr zuvor in Holland von Jan Lippershey erfundenen Fernrohr. Er baute aus käuflichen Linsen ein Gerät mit ungefähr vierfacher Vergrößerung, lernte dann selbst Linsen zu schleifen und erreichte bald eine acht- bis neunfache, in späteren Jahren bis zu 33-fache Vergrößerung. Am 25. August 1609 führte Galilei sein Instrument, dessen militärischer Nutzen auf der Hand lag und das im Gegensatz zum wenig später entwickelten Keplerschen Fernrohr eine aufrecht stehende Abbildung lieferte, der venezianischen Regierung – der Signoria – vor. Das Instrument machte einen tiefen Eindruck und Galilei überließ der Signoria das völlig illusorische alleinige Recht zur Herstellung solcher Instrumente, woraufhin sein Gehalt erhöht wurde. Entgegen der Darstellung in Brechts Drama "Leben des Galilei" hat Galilei die Grundidee des Teleskops wohl nicht als seine eigene Erfindung ausgegeben. Eine Gehaltskürzung [-suspension] im folgenden Jahr deutet aber an, dass sich die Signoria durchaus hinters Licht geführt fühlte. Als einer der ersten Menschen nutzte Galilei ein Fernrohr zur Himmelsbeobachtung. Dies bedeutete eine Revolution in der Astronomie, denn bis dahin waren die Menschen auf Beobachtungen mit dem bloßen Auge angewiesen. Er stellte fest, dass die Oberfläche des Mondes rau und uneben ist, mit Erhebungen, Klüften und Kratern. Er erkannte zudem, dass die dunkle Partie der Mondoberfläche von der Erde aufgehellt wird (sog. Erdschein) und dass die Planeten – im Gegensatz zu den Fixsternen – als Scheiben zu sehen sind. Er entdeckte die vier größten Monde des Jupiter, die er in Vorbereitung seines Wechsels an den Medici-Hof die "Mediceischen Gestirne" nannte und die heute als die "Galileischen Monde" bezeichnet werden. Er beobachtete, dass es sich bei der Milchstraße nicht um ein nebliges Gebilde (wie es dem bloßen Auge vorkommt), sondern um „"nihil aliud quam innumerarum Stellarum coacervatim consitarum congeries" (nichts anderes als eine Anhäufung zahlloser Sterne)“ handelt. Diese Entdeckungen und seine Federzeichnung der Mondoberfläche wurden im "Sidereus Nuncius" (Sternenbote bzw. Nachricht von den Sternen) von 1610 veröffentlicht und machten Galilei auf einen Schlag berühmt. Obwohl Galilei darin die Abbildung eines unübersehbar nichtexistenten großen Mondkraters am Terminator publizierte, war der "Sidereus Nuncius" innerhalb weniger Tage vergriffen. Federzeichnung aus dem "Sidereus Nuncius" und Foto Hofmathematiker in Florenz, ab 1610. Im Herbst 1610 ernannte der Großherzog der Toskana und ehemalige Schüler Galileis Cosimo II. de’ Medici ihn zum Hofmathematiker, Hofphilosophen und zum ersten Mathematikprofessor in Pisa ohne jede Lehrverpflichtung. Galilei bekam damit volle Freiheit, sich ganz seinen Forschungen zu widmen. Bereits 1605 war Galilei zum Mitglied der Florentiner Accademia della Crusca gewählt worden, nach seiner Übersiedlung übernahm er in ihr auch Führungsaufgaben. 1658 beschloss die Akademie, seine "Opere" in der nächsten Ausgabe des "Vocabolario" (1691 veröffentlicht) als eine der Textgrundlagen für mathematische und philosophische Terminologie zu benutzen. Spätestens bei der Umsiedlung nach Florenz trennte sich Galilei von Marina Gamba, seiner Haushälterin, mit der er drei Kinder hatte: Virginia (Ordensname: Maria Celeste; 1600–1634), Livia (Ordensname: Arcangela; 1601–1659) und Vincenzio (1606–1669). Mit Hilfe eines Bewunderers, des Kardinals Maffeo Barberini und späteren Papstes Urban VIII., brachte Galilei seine Töchter noch vor Erreichen des Mindestalters in einem Kloster unter, denn sie hatten als uneheliche Kinder kaum Aussichten auf eine standesgemäße Heirat. Der Sohn wurde 1613 zu seinem Vater nach Florenz geschickt, nachdem Marina Gamba einen Mann namens Giovanni Bartoluzzi geheiratet hatte. Galilei legitimierte ihn später. Weitere astronomische Entdeckungen. Galilei setzte seine astronomischen Beobachtungen fort und fand heraus, dass der Planet Venus Phasengestalten wie der Mond zeigt. Die Venussichel und die volleren Phasen interpretierte er derart, dass die Venus zeitweise zwischen Sonne und Erde steht, zu anderen Zeiten aber jenseits der Sonne. Darüber korrespondierte er mit den römischen Jesuiten um Christophorus Clavius (mit diesem hatte er bereits 1587 eine kontroverse Diskussion geführt), welche die Phasengestalt der Venus bereits unabhängig von ihm entdeckt hatten. Über die kosmologischen Konsequenzen und darüber, dass das ptolemäische Weltbild nicht mehr länger haltbar war, waren sich der jesuitische Mathematiker und der Astronom mehr oder weniger im Klaren. In seiner Begeisterung über seine wissenschaftlichen Erkenntnisse sandte er in seiner Werkstatt gefertigte Fernrohre an Freunde und andere Wissenschaftler. Jedoch erreichten nur wenige Exemplare das gewünschte Auflösungsvermögen. So konnte es geschehen, dass manche die Jupitermonde und andere seiner Entdeckungen nicht erkennen konnten und ihm Täuschungsabsichten unterstellten. Im Jahr 1611 besuchte Galilei Rom. Er wurde für seine Entdeckungen hoch geehrt und machte mittels seines Teleskops seinen Freunden – darunter auch Jesuiten – unverzüglich „le cose nuove del cielo“ (die neu entdeckten Gegenstände am Himmel) zugänglich: den Jupiter mit seinen vier Begleitern, den gebirgigen, zerklüfteten Mond, die „gehörnte“, d. h. sichelförmige Venus und den „dreifachen“ Saturn. Er wurde daraufhin zum sechsten Mitglied der Accademia dei Lincei ernannt. Diese Ehre war ihm so wichtig, dass er sich fortan "Galileo Galilei Linceo" nannte. Bei diesem Aufenthalt hatte er eine Audienz bei Papst Paul V. und traf seinen alten Bewunderer Maffeo Barberini. Ein Jahr später war Barberini dabei, als Galilei eine weitere, unhaltbare Behauptung des Aristoteles mit einem simplen, aber überzeugenden Experiment widerlegte: Eis schwimmt auf Wasser nicht deswegen, weil es zwar schwerer, aber flach ist, sondern weil es leichter ist. Zwischen Ende 1610 und Mitte 1611 beobachtete Galilei erstmals mit dem Teleskop dunkle Flecken auf der Sonnenscheibe. Diese Entdeckung der Sonnenflecken verwickelte ihn in eine Auseinandersetzung mit dem Jesuiten Christoph Scheiner: Man stritt sowohl um die Priorität als auch um die Deutung. Um die Vollkommenheit der Sonne zu retten, nahm Scheiner an, dass die Flecken Satelliten seien, wogegen Galilei die Beobachtung anführte, dass Sonnenflecken entstehen und vergehen. Er veröffentlichte diese Erkenntnis 1613 in "Lettere solari", einem der ersten wissenschaftlichen Werke, die nicht in lateinischer Sprache, sondern in Umgangssprache verfasst wurden. Für Galilei war es offensichtlich, dass seine astronomischen Beobachtungen das heliozentrische Weltbild des Nikolaus Kopernikus stützten, aber keinen zwingenden Beweis lieferten: Sämtliche Beobachtungen wie etwa die Venusphasen waren auch mit dem Weltmodell des Tycho Brahe vereinbar, wonach sich Sonne und Mond um die Erde, die übrigen Planeten aber um die Sonne drehen. Tatsächlich gelang es erst James Bradley im Jahre 1729, mit der stellaren Aberration die Eigenbewegung der Erde gegenüber der Fixsternsphäre nachzuweisen. Galilei hielt sich bei der Interpretation seiner astronomischen Beobachtungen zunächst zurück. Jedoch war ihm wohl schon in seiner Zeit in Pisa der Gedanke gekommen, die Drehungen "(revolutiones)" der Erde um ihre Achse und um die Sonne seien die Ursache für die Gezeiten: „die Gewässer würden dabei beschleunigt und hin- und herbewegt“. Damit glaubte er, einen Beweis für das kopernikanische Weltbild in Händen zu haben. Erst Isaac Newton konnte jedoch beweisen, dass neben der Zentrifugalkraft auch die Anziehungskräfte der Massen von Mond und Sonne für Ebbe und Flut ursächlich sind. Kontroverse Diskussionen am Florentiner Hof veranlassten Galilei zu erklären, dass eine mit dem kopernikanischen System verträgliche Bibelauslegung möglich sei (Brief an seinen Schüler und Nachfolger in Pisa, Benedetto Castelli, 21. Dezember 1613; Brief an die Großherzogin-Mutter Christine von Lothringen, 1615, jedoch erst 1636 veröffentlicht). Der Brief an Castelli wurde in fehlerhafter Abschrift der Inquisition zugespielt, was Galilei veranlasste, eine korrekte Abschrift hinterherzusenden und selbst nach Rom zu reisen, um seinen Standpunkt zu vertreten. Im März 1614 gelang es Galilei, das spezifische Gewicht der Luft als ein 660stel des Gewichts des Wassers zu bestimmen – herrschende Meinung war bis zu diesem Zeitpunkt, dass Luft keinerlei Gewicht hat. Dies war eine weitere Widerlegung aristotelischer Anschauungen. In dieser Zeit war er häufig als Gutachter für den Großherzog in technisch-physikalischen Fragen tätig. Als Forscher beschäftigte er sich insbesondere mit Hydrodynamik, Lichtbrechung in Glas und Wasser sowie Mechanik mit der mathematischen Beschreibung der Beschleunigung beliebiger Körper. In den Jahren 1610–1614 hielt er sich häufig auf dem Landgut seines Freundes Filippo Salviati auf, um seine seit Jahren angeschlagene Gesundheit wiederherzustellen. Das Verfahren von 1616. Im Jahr 1615 veröffentlichte der Kleriker Paolo Antonio Foscarini (circa 1565–1616) ein Buch, das beweisen sollte, dass die kopernikanische Astronomie nicht der Heiligen Schrift widersprach. Daraufhin eröffnete die Römische Inquisition nach Vorarbeit des bedeutenden Kirchenlehrers Kardinal Robert Bellarmin, einer zentralen Persönlichkeit der Kurie und der Inquisition, ein Untersuchungsverfahren. 1616 wurde Foscarinis Buch gebannt. Zugleich wurden einige nichttheologische Schriften über kopernikanische Astronomie, darunter auch ein Werk von Johannes Kepler, auf den Index Librorum Prohibitorum gesetzt. Das Hauptwerk des Copernicus, "De revolutionibus orbium coelestium", in dessen Todesjahr 1543 erschienen, wurde nicht verboten, sondern „suspendiert“: Es durfte fortan bis 1822 im Einflussbereich der Römischen Inquisition nur noch in Bearbeitungen erscheinen, die betonten, dass das heliozentrische System ein bloßes mathematisches Modell sei. An diesem Verfahren, das nicht zu den Inquisitionsprozessen gezählt werden kann, war Galilei offiziell nicht beteiligt. Seine Haltung war jedoch ein offenes Geheimnis, auch wenn das Schreiben an die Großherzogin-Mutter noch nicht veröffentlicht war. Wenige Tage nach der förmlichen Index-Beschlussfassung schrieb Bellarmin an Galilei einen Brief mit der Versicherung, Galilei habe keiner Lehre abschwören müssen; gleichzeitig jedoch enthielt dieses Schreiben die nachdrückliche Ermahnung, das kopernikanische System in keiner Weise als Tatsache zu verteidigen, sondern allenfalls als Hypothese zu diskutieren. Dieser Brief wurde im Prozess von 1632/33 als Beweis für Galileis Ungehorsam zitiert. Allerdings gab es in den Akten zwei verschiedene Fassungen, von denen nur eine korrekt unterschrieben und zugestellt war, weshalb im 19. und 20. Jahrhundert einige Historiker annahmen, die Inquisitionsbehörde habe 1632 zu Ungunsten Galileis einen Beweis gefälscht. Galilei hielt sich von nun an mit Äußerungen in der Öffentlichkeit zum kopernikanischen System zurück. Ab 1616 beschäftigte er sich intensiv mit der Möglichkeit, die Bewegungen der Jupitermonde als Zeitmesser zu nutzen, um das Längengradproblem zu lösen. Allerdings blieb er damit erfolglos. Auch veränderte er erstmals ein Teleskop in ein Mikroskop. Die Mikroskopie selbst blieb für ihn aber immer eine Beschäftigung, der er kein besonderes Interesse widmete. Saggiatore. 1623 wurde Galileis alter Förderer, Kardinal Maffeo Barberini, zum Papst gewählt (Urban VIII.). Galilei widmete ihm sogleich seine Schrift "Saggiatore", eine Polemik gegen den Jesuitenpater Orazio Grassi über die Kometenerscheinungen von 1618–1619, über atomistische und methodologische Fragen. In diesem Buch, an dem er seit 1620 gearbeitet hatte, äußerte Galilei seine berühmt gewordene Überzeugung, die Philosophie (nach dem Sprachgebrauch der Zeit ist damit die Naturwissenschaft gemeint) stehe in dem Buch der Natur, und dieses Buch sei in mathematischer Sprache geschrieben: Ohne Geometrie zu beherrschen, verstehe man kein einziges Wort. Seither gilt Galilei als Begründer der modernen, mathematisch orientierten Naturwissenschaften, gleichzeitig enthielt dies eine klare Absage an Alchemie und Astrologie. Im "Saggiatore" griff er auf eine Theorie des Aristoteles über Meteore zurück und interpretierte die Kometen als erdnahe optische Effekte, vergleichbar den Phänomenen wie Regenbogen oder Polarlicht. Zur Zeit der Kometenerscheinungen war Galilei allerdings aus gesundheitlichen Gründen nicht in der Lage, selbst Beobachtungen anzustellen. Seine empirisch nicht fundierte Polemik gegen die Theorie der Kometen, die Tycho Brahe und Orazio Grassi vertraten, ist als indirekte Verteidigung des kopernikanischen Systems zu verstehen, das durch die Annahme sich nicht auf Kreisbahnen bewegender Himmelskörper bedroht gewesen wäre. Das "Saggiatore" wurde anonym wegen Atomismus und damit Verstoß gegen die die Eucharistie betreffenden Dogmen des tridentinischen Konzils angezeigt. Unter Zuhilfenahme eines Gefälligkeitsgutachtens Pater Giovanni Guevaras ließen die Gönner Galileis im Vatikan diese Anzeige versanden. Der Wissenschaftshistoriker Pietro Redondi vermutet deshalb, dass auch dem Prozess 1633 eine Anzeige wegen Atomismus und damit häretischen Ansichten bezüglich des Abendmahls zugrunde liegt, die jedoch durch Intervention der eigens geschaffenen päpstlichen Untersuchungskommission auf die weit weniger brisante Frage des Kopernikanismus bzw. des Ungehorsams abgelenkt wurde. Der Dialog über die zwei Weltsysteme. 1624 reiste Galilei nach Rom und wurde sechs Mal von Papst Urban VIII. empfangen, der ihn ermutigte, über das kopernikanische System zu publizieren, solange er dieses als "Hypothese" behandle; den Brief von Bellarmin an Galilei aus dem Jahr 1616 kannte Urban VIII. damals nicht. Nach langen Vorarbeiten und wieder unterbrochen durch Krankheiten, vollendete Galilei 1630 den "Dialogo di Galileo Galilei sopra i due Massimi Sistemi del Mondo Tolemaico e Copernicano" (Dialog von Galileo Galilei über die zwei wichtigsten Weltsysteme, das ptolemäische und das kopernikanische). In diesem Buch erklärte Galilei unter anderem sein Relativitätsprinzip und seinen Vorschlag zur Bestimmung der Lichtgeschwindigkeit. Die erste präzise Messung der Lichtgeschwindigkeit auf der Erde gelang erst 1849 Fizeau. Als vermeintlich stärkstes Argument für das kopernikanische System diente Galilei seine – irrige – Theorie der Gezeiten. Im Mai 1630 reiste Galilei erneut nach Rom, um bei Papst Urban VIII. und dem für die Zensur verantwortlichen Inquisitor Niccolò Riccardi ein Imprimatur zu erwirken. Er erhielt daraufhin eine vorläufige Druckerlaubnis. Zurück in Florenz entschied Galilei aus verschiedenen Gründen, sich mit dem Imprimatur durch den Florentiner Inquisitor zu begnügen und das Werk in Florenz drucken zu lassen. Zwei dieser Gründe waren der Tod des Herausgebers Fürst Cesi, Gründer der Accademia dei Lincei, und eine Pestepidemie. Aufgrund verschiedener Schwierigkeiten, ausgelöst durch Riccardi, konnte der Druck aber erst im Juli 1631 beginnen. Im Februar 1632 erschien der "Dialogo". Das Buch widmete Galileo Galilei dem Großherzog Ferdinando II. de’ Medici und händigte ihm das erste gedruckte Exemplar am 22. Februar aus. In zweierlei Hinsicht setzte der "Dialogo" im aktuellen, astronomischen und eben auch weltanschaulich-theologischen Diskurs neue Akzente: 1. An die Stelle der Wissenschaftssprache Latein trat die Volkssprache Italienisch, denn die Diskussionen sollten gezielt über die Kreise der Wissenschaft hinausgetragen werden. 2. Er verschwieg bewusst das von den Jesuiten – u. a. Clavius, Giovanni Riccioli, Grimaldi – favorisierte Tychonische Planetenmodell. Es hätte analog zu Kopernikus’ Modell einige Phänomene wie die zeitweise Venussichel und die veränderliche Größe der Planetenscheibchen erklärt. Im Kampf um die Deutungshoheit des astronomischen Weltbildes bekämpfte Galilei den Konkurrenten Tycho Brahe mit Totschweigen. Der Zensurauflage, das Werk mit einer Schlussrede zugunsten des ptolemäischen Systems zu beschließen, meinte Galilei nachzukommen, indem er diese Rede in den Mund des offensichtlichen Dummkopfs "Simplicio" legte. Überdies beging er den Fehler, sich über einen Lieblingsgedanken Barberinis (Urban VIII.) lustig zu machen: dass man eine Theorie niemals über die von ihr vorhergesagten Effekte prüfen könne, da Gott diese Effekte jederzeit auch auf anderem Wege hervorbringen könne. Damit hatte Galilei den Bogen überspannt und die Protektion des Papstes verspielt. Der Prozess gegen den "Dialog". Im Juli 1632 wies Riccardi den Inquisitor von Florenz an, er solle die Verbreitung des "Dialogo" verhindern. Im September bestellte der Papst Galilei nach Rom ein. Mit Bitte um Aufschub, ärztlichen Attesten, langwieriger Anreise und obendrein Quarantäne infolge der Pestepidemie verging jedoch der gesamte Winter. In Rom wohnte Galilei in der Residenz des toskanischen Botschafters. Anfang April 1633 wurde er offiziell vernommen und musste für 22 Tage eine Unterkunft der Inquisition beziehen. Am 30. April bekannte er in einer zweiten Anhörung, in seinem Buch geirrt zu haben, und durfte wieder in die toskanische Botschaft zurückkehren. Am 10. Mai reichte er seine schriftliche Verteidigung ein, eine Bitte um Gnade. Am 22. Juni 1633 fand der Prozess in der Basilika Santa Maria sopra Minerva statt. Zunächst leugnete Galilei, auf die Dialogform seines Werkes verweisend, das kopernikanische System gelehrt zu haben. Ihm wurde der Bellarminbrief (welche Fassung, ist nicht bekannt) vorgehalten, und man beschuldigte ihn des Ungehorsams. Nachdem er seinen Fehlern abgeschworen, sie verflucht und verabscheut hatte, wurde er zu lebenslanger Kerkerhaft verurteilt und war somit der Hinrichtung auf dem Scheiterhaufen entkommen. Dass Galilei überhaupt verurteilt wurde, war unter den zuständigen zehn Kardinälen durchaus strittig; drei von ihnen (darunter Francesco Barberini, der Neffe des Papstes) unterschrieben das Urteil nicht. Galilei selbst hielt an seiner Überzeugung fest. Die Behauptung, der zufolge er beim Verlassen des Gerichtssaals gemurmelt haben soll, „Eppur si muove“ (und sie [die Erde] bewegt sich doch), ist historisch nicht belegt und äußerst unwahrscheinlich. Sie wurde jedoch schon zu seinen Lebzeiten verbreitet, wie ein spanisches Gemälde von circa 1643/45 zeigt. Diese Worte wurden erstmals 1757 in den "Italian Libraries" von einem Giuseppe Baretti erwähnt. Galilei sah zeitlebens die Kreisbahnen als zentralen Bestandteil des kopernikanischen Systems an und lehnte elliptische Bahnen aus diesem Grund ab. Kepler, mit dem er in Briefkontakt stand, hatte mit seinem Modell der Ellipsenbahnen praktisch alle Ungereimtheiten zwischen Beobachtung und dem heliozentrischen Weltbild beseitigt. Zur Rettung seines Konzepts der Kreisbahnen nahm Galilei in Kauf, dass es die beobachtete Position des Planeten Mars wesentlich schlechter voraussagte als die geozentrischen Modelle von Ptolemaios oder Brahe. Dass Galilei die Kometen zu atmosphärischen Erscheinungen uminterpretierte, weil die alternative Erklärung von sich im Sonnensystem umherbewegenden Objekten sein Weltbild gefährdet hätte, dürfte der Glaubwürdigkeit seines Modells ebenfalls eher abträglich gewesen sein. Bei den nur unter großen Gefahren für das Augenlicht beobachtbaren Sonnenflecken kam hinzu, dass deren Zahl nach 1610 abfiel und sie von 1645 an sogar für fast 75 Jahre nahezu völlig ausblieben (sog. Maunderminimum). Schließlich diskutierte Galilei in seinem Dialog wohlweislich nur die beiden Weltsysteme von Copernicus und Ptolemaios, Letzteres hatte er anhand der Venusphasen empirisch widerlegt, nicht jedoch das geozentrische Modell von Brahe, das sich mit seinen Beobachtungen ebenfalls vertrug. Hausarrest 1633–1642 und die "Discorsi". Galilei blieb nach dem Urteil unter Arrest in der Botschaft des Herzogtums Toskana in Rom. Nach wenigen Wochen wurde er unter die Aufsicht des Erzbischofs von Siena gestellt, der allerdings sein glühender Bewunderer war und ihn nach Kräften unterstützte. In Siena konnte er seine tiefe Niedergeschlagenheit über den Prozess und seinen Ausgang überwinden. Nach fünf Monaten, im Dezember 1633, durfte er in seine Villa "Gioiella" in Arcetri zurückkehren, blieb jedoch unter Hausarrest, verbunden mit dem Verbot jeglicher Lehrtätigkeit. Als er wegen eines schmerzhaften Leistenbruchs um Erlaubnis bat, Ärzte in Florenz aufsuchen zu dürfen, wurde sein Gesuch abgelehnt mit der Warnung, weitere solche Anfragen würden zu Aufhebung des Hausarrestes und Einkerkerung führen. Gemäß dem Urteil hatte er über drei Jahre lang wöchentlich die sieben Bußpsalmen zu beten; diese Verpflichtung übernahm – solange sie noch lebte – seine Tochter Suor Celeste. Zudem wurden seine sozialen Kontakte stark eingeschränkt. Immerhin war es ihm gestattet, mit seinen weniger kontroversen Forschungen fortzufahren und seine Töchter im Kloster San Matteo zu besuchen. Sämtliche Veröffentlichungen waren ihm verboten, jedoch führte er einen ausgedehnten Briefwechsel mit Freunden und Gelehrten im In- und Ausland und konnte später zeitweilig Besucher empfangen, darunter Thomas Hobbes und John Milton, ab 1641 seinen ehemaligen Schüler Benedetto Castelli. Galilei hatte seit längerem Probleme mit seinen Augen; 1638 erblindete er vollständig – sei es als Folge seiner anfangs ohne ausreichenden Schutz unternommenen Sonnenbeobachtungen oder aufgrund einer genetisch bedingten Veranlagung. Jedoch entdeckte er noch kurz vor dem völligen Verlust seiner Sehkraft die Libration des Mondes. Ein Gnadengesuch auf Freilassung wurde abgelehnt. Seine letzten Jahre verbrachte er in seinem Landhaus in Arcetri. Ab dem Juli 1633 – noch in Siena – hatte Galilei an seinem physikalischen Hauptwerk "Discorsi e Dimostrazioni Matematiche intorno a due nuove scienze" gearbeitet. Obwohl das Inquisitionsurteil kein explizites Publikationsverbot enthielt, stellte sich eine Veröffentlichung im Einflussbereich der katholischen Kirche als unmöglich heraus. So geschah es, dass die Welt zuerst durch Matthias Berneggers lateinische Übersetzung von Galileis Werk Kenntnis erhielt, erschienen unter dem Titel "Systema cosmicum" im Verlag Elsevier und gedruckt 1635 in Straßburg bei David Hautt. Ein Druck des italienischen Texts der "Discorsi" erschien im Jahr 1638 bei Elsevier in Leiden. Inhaltlich griff Galilei in den Discorsi Ansätze und Ergebnisse aus seinen frühen Jahren wieder auf. Die beiden "neuen Wissenschaften", die Galilei darin begründet, sind in moderner Sprache Festigkeitslehre und Kinematik. Er wies unter anderem nach, dass die bogenförmige Bewegung eines Geschosses aus zwei Komponenten besteht: Die horizontale mit konstanter Geschwindigkeit in Folge der Trägheit, die nach unten gerichtete mit zeitproportional zunehmender Geschwindigkeit durch konstante Beschleunigung. Das Zusammenwirken beider führt zu einer parabelförmigen Flugbahn. In dem Buch findet sich auch ein Paradoxon über das Unendliche (Galileis Paradoxon), dessen zugrundeliegende Ideen erst viel später im 19. Jahrhundert von Georg Cantor ausgebaut wurden. Im Spätherbst 1641 löste Evangelista Torricelli seinen seit 1637 für ihn tätigen Begleiter Vincenzo Viviani als Assistent und Privatsekretär ab, doch war bereits klar, dass Galilei nicht mehr lang zu leben hatte. Er starb am 8. Januar 1642 in Arcetri. Ein feierliches Begräbnis in einem prunkvollen Grab, das der Großherzog vorgesehen hatte, wurde unterbunden. Er wurde zunächst anonym in Santa Croce in Florenz beigesetzt. Erst ungefähr 30 Jahre später erfolgte die Kennzeichnung des Grabes mit einer Inschrift. Die heute vorhandene repräsentative Grabstätte in Santa Croce wurde 1737 fertiggestellt. Sie wurde durch eine Stiftung des Galilei-Assistenten Vincenzo Viviani finanziert. Galileo und die Kirche. Nachdem es den Päpsten und Kardinälen gerade erst gelungen war, mithilfe der Dominikaner- und Jesuitenorden ihren Einfluss in Italien im Kampf gegen die Reformation wieder zu festigen, deuteten sie die Förderung der Wissenschaften in Großbritannien, Holland und Deutschland als fortdauernde Angriffe auf die Erklärungshoheit ihrer Institutionen – des dekretierten Consensus patrum. Sie sahen sich zum Beharren auf dem Althergebrachten gezwungen. Gleichzeitig gab es mächtige kirchliche Stimmen, die eine wörtliche Auslegung der Heiligen Schrift ablehnten und die Argumentation, Glauben und Wissenschaft seien getrennte Sphären, offensiv vertraten. So schrieb Kardinal Bellarmin, dass man, "läge ein wirklicher Beweis für das heliozentrische System vor, bei der Auslegung der heiligen Schrift in der Tat vorsichtig vorgehen" müsse. Ausdruck der kirchlichen Ambivalenz ihm gegenüber ist die recht milde Ermahnung von 1616, Galilei sei im „Irrtum des Glaubens“ und möge darum „von einer Verbreitung des kopernikanischen Weltbildes absehen“. Erst nachdem Galilei 1632 mit dem "Dialogo" wieder für das kopernikanische Weltbild eintrat und die ersten Exemplare sogar an seine erklärten Gegner wie z. B. den Inquisitor Serristori schickte, wurde ein formales Verfahren gegen ihn eröffnet. Auch jetzt noch war das Klima, verglichen mit anderen Häresieprozessen, freundlich und das Urteil milde. Nachdem Galilei geschworen hatte, „… stets geglaubt zu haben, gegenwärtig zu glauben und in Zukunft mit Gottes Hilfe glauben zu wollen alles das, was die katholische und apostolische Kirche für wahr hält, predigt und lehret“, erhielt er lediglich Kerkerhaft, die bereits nach wenigen Wochen in Hausarrest umgewandelt wurde. In einem Kerker hat Galilei jedoch nie eingesessen. Die Tragik von Galileis Wirken liegt darin, dass er als ein zeitlebens tiefgläubiges Mitglied der Kirche den Versuch unternahm, ebendiese Kirche vor einem verhängnisvollen Irrtum zu bewahren. Seine Intention war es nicht, die Kirche zu widerlegen oder zu spalten, vielmehr war ihm an einer Reform der Weltsicht der Kirche gelegen. Seine verschiedenen Aufenthalte in Rom bis zum Jahr 1616 hatten auch den Zweck, Kirchenmänner wie Bellarmin davon zu überzeugen, dass die Peripatetiker nicht unfehlbar waren und die Heilige Schrift nicht immer buchstabengetreu gelesen werden müsse. Auch war Galilei davon überzeugt, die Werke Gottes durch Experiment und Logik früher oder später vollständig klären zu können. Papst Urban VIII. dagegen vertrat die Auffassung, dass sich die vielfältigen von Gott bewirkten Naturerscheinungen dem beschränkten Verstand der Menschen für immer entzögen. Nachgeschichte, Nachruhm. Der Inquisitionsprozess gegen Galilei hat zu endlosen historischen Kontroversen und zahlreichen literarischen Bearbeitungen angeregt; unter anderem in Bertolt Brechts "Leben des Galilei". 1741 gewährte die römische Inquisition auf Bitte Benedikts XIV. das Imprimatur auf die erste Gesamtausgabe der Werke Galileis. Unter Pius VII. wurde 1822 erstmals ein Imprimatur auf ein Buch erteilt, das das kopernikanische System als physikalische Realität behandelte. Der Autor, ein gewisser Settele, war Kanoniker. Für Nicht-Kleriker war das Interdikt wohl längst belanglos geworden. 1979 beauftragte Johannes Paul II. die Päpstliche Akademie der Wissenschaften, den berühmten Fall aufzuarbeiten. Am 31. Oktober 1992 wurde der Kommissionsbericht übergeben, und Johannes Paul II. hielt eine Rede, in der er seine Sicht des Verhältnisses von kirchlicher Lehre und Wissenschaft darstellte. Am 2. November 1992 wurde Galileo Galilei von der römisch-katholischen Kirche formal rehabilitiert. Er soll eine Statue im Vatikan erhalten. Im November 2008 distanzierte sich der Vatikan erneut von der Verurteilung Galileis durch die päpstliche Inquisition. Der damalige Papst Urban VIII. habe das Urteil gegen Galilei nicht unterzeichnet, Papst und Kurie hätten nicht geschlossen hinter der Inquisition gestanden. Galilei wurde wiederholt vorgeworfen, einige der von ihm beschriebenen und als Beleg für die Korrektheit seiner Theorien ausgegebenen Experimente niemals selbst durchgeführt zu haben. Siehe dazu: Betrug und Fälschung in der Wissenschaft Der Journalist und Schriftsteller Hans Conrad Zander wirft Galilei unter anderem vor, dass dieser durch die Behauptung die Erfindung des Fernrohrs wider besseres Wissen für sich beansprucht habe. Methodisches. In methodischer Hinsicht ist die streng mathematische, und zwar geometrische Vorgehensweise Galileis bemerkenswert. Seine wichtigste Arbeit zur Bewegungslehre, die Lehre "De motu locali" „Über die örtliche Bewegung“ im „Dritten Tag“ der Discorsi von 1638, beginnt mit der „gleichförmigen Bewegung“ ("de motu aequabili"). Zu ihrer Darstellung bedient er sich zweier skalierter Linien IK und GH, wobei IK „die Zeit an sich“ und GH „den Raum an sich“ repräsentiert. An diesen Linien – als absoluten, invarianten Maßstäben – misst er sodann variable „relative Räume“ und „relative“ Zeiten der Bewegung, aus deren Verhältnis zueinander sich die „Geschwindigkeit“ der Bewegung ergibt. Zugrunde liegt dem eine geometrische Messtheorie von „relativen Räumen“ am absoluten Raum und von „relativen Zeiten“ an der absoluten Zeit, die zu einer Definition der Geschwindigkeit absoluter oder wirklicher geradlinig-gleichförmiger Bewegung nach dem Muster einer viergliedrigen Proportion (tetraktys) führt: Die Wege formula_1 und die Zeiten formula_2 verhalten sich zueinander ebenso, wie die Elemente formula_3 und formula_4 der absoluten Maßstäbe „Raum“ und „Zeit“ sich zueinander verhalten. Das Verhältnis formula_5 ist konstant, da die Maßstäbe unveränderlich sind. Damit tritt in diesem geometrischen Beweis des Maßes der Geschwindigkeit gleichförmig-geradliniger Bewegung erstmals eine Naturkonstante auf; ihre Dimension ist [Raumelement durch Zeitelement, oder L/T]. Sie bindet die Bewegungslehre an ein metrisches absolutes raumzeitliches Maß- und Bezugssystem. In den später üblich gewordenen und in Lehrbüchern zu findenden analytisch-algebraischen Darstellungen der Bewegungslehre Galileis und Newtons ist diese Konstante verloren gegangen; sie erscheint erst wieder in der modernen Physik – jetzt unter der Bezeichnung „Vakuumlichtgeschwindigkeit“. Kinematik. Der Leuchter, an dem Galilei die Pendelgesetze untersucht haben soll Die gleichmäßig beschleunigte Bewegung beschäftigte Galilei über vierzig Jahre lang. Seine experimentelle Innovation bestand in der Verwendung der schiefen Ebene, mit der er die Fallgesetze auf einer verlangsamten Zeitskala studieren und – über seinen Puls oder mit Wasseruhren – quantitativ überprüfen konnte. In seinem frühen Manuskript "De motu" (1590) vertrat er noch die Meinung, die Beschleunigung hänge von der Dichte ab. Später kam er dann zum Schluss, dass im Vakuum alle Körper die gleiche Beschleunigung erfahren. Im Zusammenhang mit dem Turmargument finden sich kinematische Überlegungen im Dialog über die zwei Weltsysteme; voll ausgearbeitet werden die Fallgesetze im dritten und vierten Tag der vier Tage der "Discorsi e Demonstrazioni" von 1636/38. Mit den Fallgesetzen hängt auch das Relativitätsprinzip eng zusammen. Es wird in der modernen Physik durch die Galilei-Invarianz beschrieben und besagt, dass ein gleichmäßig bewegter Beobachter die gleichen physikalischen Gesetze wahrnimmt wie ein ortsfester. Galilei kam bei seinen Schlussfolgerungen dem ersten Bewegungsgesetz Isaac Newtons recht nahe. Das zweite Gesetz nahm er in gewisser Weise bereits vorweg, was Newton später selbst zugab. Neuere wissenschaftsgeschichtliche Arbeiten betonen, dass Galilei mit seinen Forschungen zur Kinematik nicht alleine stand. Mit dem Thema befassten sich unter anderem Alessandro Piccolomini, Nicolo Tartaglia, Giovanni Battista Benedetti, Francesco Maurolico, Bernardino Baldi, Guidobaldo del Monte, Michel Varro ("De motu", Genf 1584) und Francesco Buonamici ("De motu", Florenz 1591). Christiaan Huygens entwickelte später seine Idee einer von einem Pendel gesteuerten Uhrmechanik zur Praxisreife. Festigkeitslehre. Wie aus dem Titel der "Discorsi" hervorgeht, veröffentlichte Galilei seine Ergebnisse über die Festigkeit eines Balkens mit dem vollen Bewusstsein, damit eine neue Wissenschaft zu begründen. Die weitere Entwicklung hat ihm recht gegeben; sein Beitrag kann tatsächlich als Begründung der Festigkeitslehre gelten. Galilei stellte fest, dass die Tragfähigkeit eines Balkens größer ist, wenn man ihn hochkant, nicht flachkant stellt. Er setzte als Erster die äußere Belastung in Relation zu den inneren Spannungen. Eine quantitative Theorie konnte er allerdings noch nicht aufstellen. Den heute "Neutralfläche" genannten Bereich verschwindender Zug- bzw. Druckspannung ordnete er am unteren Rand des eingespannten Balkens statt in der Mitte des Balkenquerschnittes an. Korrekturen dieses Irrtums konnten sich im 17. und 18. Jahrhundert nicht durchsetzen; erst Anfang des 19. Jahrhunderts sorgte Navier erfolgreich für eine Richtigstellung. Astronomie. Galileis astronomische Entdeckungen sind im biografischen Teil bereits aufgeführt. Weitere Erfindungen. Galileis Thermoskop aus dem Jahr 1592 ist das erste nachweisbare Temperaturmessgerät. Es wurde von Santorius mit Skalenstrichen versehen und schließlich von Fahrenheit 1714 entscheidend verbessert. Rezeption in Kunst und Literatur. Eine überraschende Deutung zu Galileis Entdeckung der Jupitermonde findet sich in der Geschichte von Magenband. Ein Magenband (englisch "gastric band") dient einer medizinischen Behandlungsmethode bei krankhafter Adipositas, die durch Diäten und konservative Behandlungsmaßnahmen nicht behandelbar ist. Zusammen mit anderen Methoden gehört das Magenband zum Spektrum der Adipositaschirurgie, der chirurgischen Therapie des krankhaften Übergewichts. Sie ist das letzte Mittel der Wahl, wenn konservative Methoden zur Gewichtsreduktion versagt haben. Die Indikation zur Magenzügelung ist gegeben ab einer Körpermassenzahl = Body-Mass-Index von mindestens 35-40. Durch Einengen des Magendurchmessers im Eingangsbereich kann eine dauerhafte deutliche Gewichtsreduktion erreicht werden. Hierzu wird in einer laparoskopischen Operation ein verstellbares Silikonband um den Magenfundus gelegt. Der Durchmesser der Öffnung ist durch Auffüllen des Bandes mit Flüssigkeit veränderbar, ein entsprechender Zugang (Portkammer) wird in der Bauchwand oder vor dem Brustbein platziert. Kostenübernahme durch die Krankenkassen. In Deutschland übernehmen die Krankenkassen die Kosten für das Magenband, wenn die medizinische Notwendigkeit belegt wurde. Dies ist in der Regel der Fall, wenn der Patient einen BMI > 40 oder einen BMI > 35 mit schwerwiegenden Begleiterscheinungen (z.B. Diabetes, Gelenkerkrankungen, etc.) hat, alle konservativen Behandlungsmöglichkeiten ausgeschöpft sind (ultima ratio) und der Patient aufgeklärt und motiviert ist. Außerdem darf das OP-Risiko nicht das Risiko bei anderen möglichen Eingriffen übersteigen. Gefäßchirurgie. Gefäßchirurgie ist ein medizinisches Fachgebiet. Sie umfasst die konservative, endovaskuläre oder operative Behandlung der Blutgefäße, häufig durch Anlegen von Gefäßbypässen bei peripherer arterieller Verschlusskrankheit oder Protheseneinlage bei Aneurysmen. Zur Gefäßchirurgie gehört auch die operative Behandlung der das Gehirn versorgenden Gefäße bei Arteriosklerose zur Schlaganfallprophylaxe. Daneben werden in der Gefäßchirurgie Shunts angelegt. Diese bezeichnen eine Kurzschlussverbindung zwischen Arterie und Vene, über die dann eine Dialyse durchgeführt wird. Nach der Musterweiterbildungsordnung der Bundesärztekammer müssen die Fachärzte für Gefäßchirurgie auch "Operationen am Venensystem" beherrschen. Die Phlebologie befasst sich als Zusatz-Weiterbildung mit den Beinvenen. Geschichte. Unter Geschichte versteht man im Allgemeinen diejenigen Aspekte der Vergangenheit, derer Menschen gedenken und die sie deuten, um sich über den Charakter zeitlichen Wandels und dessen Auswirkungen auf die eigene Gegenwart und Zukunft zu orientieren. Im engeren Sinne ist "Geschichte" die Entwicklung der Menschheit, weshalb auch von Menschheitsgeschichte gesprochen wird (im Unterschied etwa zur Naturgeschichte). In diesem Zusammenhang wird "Geschichte" gelegentlich synonym mit Vergangenheit gebraucht. Daneben bedeutet "Geschichte" aber auch die Betrachtung der Vergangenheit im Gedenken, im Erzählen und in der Geschichtsschreibung. Forscher, die sich der Geschichtswissenschaft widmen, nennt man Historiker. Schließlich bezeichnet man mit "Geschichte" auch das Schulfach Geschichte, das über den Ablauf der Vergangenheit informiert und einen Überblick über Ereignisse der Welt-, Landes-, Regional-, Personen-, Politik-, Religions- und Kulturgeschichte gibt. Einführung. Nur die Geschichte in diesem dritten, engsten Bereich ist Gegenstand der Geschichtswissenschaft mit ihrer spezifischen Methode, denn erst über Schriftzeugnisse wird das fassbar, was der Mensch aus dem Erfahrenen als seine Geschichte versteht und wie er sich diese angeeignet hat. Im Mittelpunkt der Beschäftigung mit Geschichte, der Erkundung (griechisch: "Historie") der Vergangenheit, stehen dabei die "Quellen", d. h. zeitnahe schriftliche Aufzeichnungen und Dokumente. Dabei ist zu unterscheiden zwischen Geschichte als Geschehen und dem Geschichtsbewusstsein, dem Bild des Gewesenen, das sich einerseits im Selbstverständnis der historischen Personen widerspiegelt, andererseits sich bei der Erforschung und Darstellung aufgrund der vorhandenen Überlieferungen für den Betrachter ergibt, der das Geschehen zu erfassen versucht (vgl. Geschichtsschreibung und Geschichte der Geschichtsschreibung). Diese nachträgliche Geschichtserkenntnis gründet sich auf Überreste und Tradition. Solche Erkenntnis ist allerdings nie völlig objektiv, sondern abhängig von der historischen Situation, der Perspektive des Betrachters und den verfügbaren Quellen. Eine bestimmte Perspektive gegen andere Perspektiven durchzusetzen (aber auch der Versuch, Multiperspektivität zu ermöglichen) ist Sache der Geschichtspolitik. Dagegen hat sich Geschichtsdidaktik die Aufgabe gestellt, den Zugang zu den wichtigsten Bereichen von Geschichte zu erleichtern und ein mehrdimensionales Geschichtsbewusstsein zu ermöglichen. Der Geschichtsunterricht ist der Versuch der praktischen Umsetzung von Geschichtsdidaktik. Im Idealfall sollen inhaltlich nicht nur die bisherigen Erkenntnisse der Geschichtswissenschaft, sondern zumindest in Ansätzen auch historisch-kritische Methodenkenntnisse vermittelt werden - dies umso mehr, als das in der Schule vermittelte Geschichtswissen an sich stets nur eine Rekonstruktion ist, die keinen Wahrheitsanspruch erheben kann. Einen Zugriff auf Geschichte von den verschiedenen Geschichtsräumen und Nationalgeschichten aus verschafft das. Den Zugriff auf spezifische Sachbereiche der Geschichte ermöglichen die verschiedenen Disziplinen der Geschichtswissenschaft. Wissenschaftliche Betrachtungsweisen. a> gilt als einer der Gründerväter der modernen Geschichtswissenschaft, der sich um eine möglichst große Objektivität bei der Wiedergabe der Geschichte bemühte. Geschichte als Konstruktion. Die Geschichtswissenschaft diskutiert auch die Frage, wie weit das von ihr entworfene Bild von der Vergangenheit überhaupt in der Lage ist, die tatsächliche Vergangenheit abzubilden. Das bezieht sich nicht allein auf die Unmöglichkeit, historische Situationen und Prozesse in ihrer Gesamtheit oder Totalität abzubilden, sondern hängt auch mit Zweifeln in ihre Quellen (ganz abgesehen von den Fälschungen) zusammen. Während man im 19. Jahrhundert bemüht war, gegensätzliche Aussagen in verschiedenen Quellen weitestgehend zu harmonisieren, findet man sich heute eher damit ab, dass der vergangene Sachverhalt häufig endgültig und unrekonstruierbar verschwunden ist. Bekanntes Beispiel für diesen Wandel ist die Darstellung der Krönung Karls des Großen in Rom zum Kaiser, die in den päpstlichen Quellen anders geschildert wird als in den Quellen, die nördlich der Alpen entstanden sind. Während in diesem Falle die Nichtrekonstruierbarkeit angesichts sich widersprechender Quellen heute allgemein akzeptiert wird, ist es bei Quellen, denen keine abweichende oder von ihr unabhängige Darstellung gegenübersteht, eine viel diskutierte Frage, ob das Bild, das auf Grund dieser Quellen von der Vergangenheit gezeichnet wird, nicht eine Konstruktion ist, die mit den wirklichen Geschehnissen wenig oder möglicherweise nichts zu tun hat. Hier können der Prozess Jesu oder die Hintergründe der konstantinischen Wende als Beispiel dienen. Dabei wird zum einen die Frage diskutiert, ob der Versuch einer Rekonstruktion in derartigen Fällen nicht ebenfalls unterbleiben sollte, und zum anderen, ob eine solche Unterscheidung zwischen „wirklicher“ und „rekonstruierter“ Wirklichkeit überhaupt einen Sinn hat und ob nicht die Maxime genügt, dass die rekonstruierte Geschichte so lange als Wirklichkeit gilt, bis neue Erkenntnisse eine Korrektur erfordern. Historische Rekonstruktion mit sprachlichen Mitteln. Doch auch das Bemühen um wissenschaftliche Rekonstruktion von Geschichte kommt – schon allein wegen der sprachlichen Bestimmtheit ihrer Vermittlung – nicht ohne konstruierende Anteile aus. Der Rohstoff der Geschichte, die Gesamtheit des Vergangenen, kann erst durch Benennung, Bewertung und geistige Ordnung im Medium der Sprache sichtbar bzw. begreiflich gemacht werden. Demnach ist Geschichte (auch) das Erzeugnis der Historiker und der sich auf die Vergangenheit besinnenden Menschen. „Nur soweit diese Besinnung stattfindet und sich artikuliert, gibt es Geschichte. Außerhalb dieses Bereichs ist nur noch Gegenwart ohne Tiefendimension und totes Material.“ Geschichtspolitik. Die gezielt von politischen Interessen geleitete Darstellung von Geschichte ist Gegenstand der Geschichtspolitik, die auch von manchen Historikern aktiv mit betrieben wird. Geschichtspolitik dient der Einflussnahme auf die allgemeine Meinungsbildung in der Gesellschaft, insbesondere in totalitären Systemen. Sie hat in Abhängigkeit vom politischen System zeittypische Auswirkungen auf Geschichtsdidaktik und der Geschichtspädagogik. Die Mittel von Geschichtspolitik sind vielfältig. Zu den diesbezüglichen Begriffen gehören: Geschichtlichkeit, Geschichtsbewusstsein, Geschichtsraum, Geschichtsperspektive, Historisierung, Erinnerungskultur, Glorifizierung beziehungsweise Geschichtsfälschung. Daneben gibt es Formen geschichtlicher Wissensvermittlung durch Museumspädagogik und durch Unterhaltungsmedien bis hin zum Histotainment (wie zum Beispiel Mittelaltermärkte), ein Spektrum, das von didaktischer Wissensvermittlung bis zur bloßen Unterhaltung reicht und auch in mancherlei Kombinationen anzutreffen ist. Weblinks. Wege zu Geschichtsdarstellungen für Laien und für schulische Zwecke Gruppentheorie. Die Gruppentheorie als mathematische Disziplin untersucht die algebraische Struktur von Gruppen. Anschaulich besteht eine Gruppe aus den Symmetrien eines Objekts oder einer Konfiguration zusammen mit jener Verknüpfung, die durch das Hintereinanderausführen dieser Symmetrien gegeben ist. So bilden beispielsweise die Drehungen eines regelmäßigen formula_1-Ecks in der Ebene, mit denen die Figur auf sich selbst abgebildet werden kann, eine Gruppe mit formula_1 Elementen. Um dieses Konzept allgemein zu fassen, hat sich eine knappe und mächtige Definition herausgebildet: Demnach ist eine Gruppe eine Menge zusammen mit einer zweistelligen inneren Verknüpfung (durch die jedem geordneten Paar von Elementen eindeutig ein Element dieser Menge als Resultat zugeordnet wird), wenn diese Verknüpfung assoziativ ist und es ein neutrales Element gibt sowie zu jedem Element ein Inverses. So bildet zum Beispiel auch die Menge der ganzen Zahlen zusammen mit der Addition eine Gruppe. Die systematische Untersuchung von Gruppen begann im 19. Jahrhundert und wurde durch konkrete Probleme ausgelöst, zunächst durch die Frage nach der Lösbarkeit von algebraischen Gleichungen, später durch die Untersuchung geometrischer Symmetrien. Dementsprechend stand zunächst die Untersuchung konkreter Gruppen im Vordergrund; erst gegen Ende des 19. Jahrhunderts wurden verstärkt abstrakte Fragestellungen untersucht. Wichtige Beiträge stammen unter anderem von Évariste Galois und Niels Henrik Abel in der Algebra sowie Felix Klein und Sophus Lie in der Geometrie. Eine der herausragenden mathematischen Leistungen des 20. Jahrhunderts ist die Klassifikation aller endlichen einfachen Gruppen, also der unzerlegbaren Bausteine aller endlichen Gruppen. Die große Bedeutung der Gruppentheorie für viele Gebiete der Mathematik und ihrer Anwendungen resultiert aus ihrer Allgemeinheit, denn sie umfasst in einer einheitlichen Sprache sowohl geometrische Sachverhalte (Bewegungen des Raumes, Symmetrien etc.) als auch arithmetische Regeln (Rechnen mit Zahlen, Matrizen etc.). Vor allem in der Algebra ist der Begriff der Gruppe von grundlegender Bedeutung: Ringe, Körper, Moduln und Vektorräume sind Gruppen mit zusätzlichen Strukturen und Eigenschaften. Methoden und Sprechweise der Gruppentheorie durchziehen daher viele Gebiete der Mathematik. In Physik und Chemie treten Gruppen überall dort auf, wo Symmetrien eine Rolle spielen (z. B. Invarianz physikalischer Gesetze, Symmetrie von Molekülen und Kristallen). Zur Untersuchung solcher Phänomene liefern die Gruppentheorie und die eng verwandte Darstellungstheorie die theoretischen Grundlagen und eröffnen wichtige Anwendungen. Zugang ohne mathematische Voraussetzungen. Gruppen werden in der Mathematik verwendet, um das Rechnen mit Zahlen zu verallgemeinern. Entsprechend besteht eine Gruppe aus einer Menge von Dingen (z. B. Zahlen, Symbolen, Objekten, Bewegungen) und einer Rechenvorschrift (eine Verknüpfung, in diesem Absatz als formula_3 dargestellt), die angibt, wie mit diesen Dingen umzugehen ist. Diese Rechenvorschrift muss dabei bestimmten Regeln genügen, den sogenannten Gruppenaxiomen, die im Folgenden erklärt werden. Man beachte: Falls auf der Menge von mehreren Verknüpfungen die Rede ist, etwa formula_3 und formula_17, dann gibt es mehrere neutrale und inverse Elemente, jeweils passend zur Verknüpfung. Wenn aus dem Kontext klar ist, dass nur eine bestimmte Verknüpfung gemeint ist, dann spricht man kurz von "dem" neutralen Element formula_7 und "dem" inversen Element formula_13 zu formula_10 ohne die Verknüpfung nochmals explizit zu erwähnen. Die sehr allgemeine Definition von Gruppen ermöglicht es, nicht nur Mengen von Zahlen mit entsprechenden Operationen als Gruppen aufzufassen, sondern auch andere mathematische Objekte mit geeigneten Verknüpfungen, die die obigen Anforderungen erfüllen. Ein solches Beispiel ist die Menge der Drehungen und Spiegelungen (Symmetrietransformationen), durch die ein regelmäßiges n-Eck auf sich selbst abgebildet wird, mit der Hintereinanderausführung der Transformationen als Verknüpfung (Diedergruppe). Definition einer Gruppe. Andernfalls, d. h., wenn es Gruppenelemente formula_46 gibt, für die formula_47 ist, heißt die Gruppe formula_26 nichtabelsch. Beispiele. Eine ausführlichere Aufzählung finden Sie in der Liste kleiner Gruppen. Ordnung einer Gruppe. Die Mächtigkeit (Kardinalität) formula_49 der Trägermenge der Gruppe nennt man "Ordnung" der Gruppe oder kurz "Gruppenordnung." Für endliche Mengen ist dies einfach die Anzahl der Elemente. Untergruppen. Ist formula_50 eine Teilmenge der Trägermenge formula_27 einer Gruppe formula_26 und ist formula_53 selbst eine Gruppe, so nennt man formula_50 eine "Untergruppe" von formula_27, Bezeichnung formula_56. Hierzu ein wichtiger Satz (Satz von Lagrange): Die Ordnung jeder Untergruppe formula_50 einer endlichen Gruppe formula_27 ist ein Teiler der Ordnung der Gruppe formula_27. Ist speziell formula_49 eine Primzahl, dann hat formula_27 nur die (trivialen) Untergruppen formula_62 (bestehend aus dem neutralen Element) und formula_27 selbst. Zyklische Gruppen. Gibt es in formula_27 ein Element formula_10, so dass man jedes andere Element als Potenz formula_66 (mit einer ganzen Zahl formula_1, die auch negativ sein darf) schreiben kann, so nennt man formula_27 eine "zyklische Gruppe" und formula_10 erzeugendes Element. Ordnung von Elementen. Ergibt ein Element formula_10 der Gruppe, endlich viele Male formula_71 mit sich selbst verknüpft, das neutrale Element 1, d. h. gilt für ein geeignetes "n": formula_72, so nennt man das kleinste derartige formula_73 die "Ordnung" des Elements formula_10. Falls kein solches formula_1 existiert, sagt man, dass formula_10 "unendliche Ordnung" hat. In beiden Fällen entspricht die Ordnung des Elements der Ordnung der von ihm erzeugten Untergruppe. Wegen des Satzes von Lagrange folgt: In einer endlichen Gruppe ist die Ordnung jedes Elements endlich, und ein Teiler der Gruppenordnung. Die kleinste Zahl formula_71, für welche formula_78 für alle Gruppenelemente formula_79 zugleich erfüllt ist, wird Gruppenexponent genannt. Nebenklassen. erhält man eine Äquivalenzrelation auf formula_27. Die Äquivalenzklasse zu einem Element formula_85 (d. h. die Menge aller Elemente formula_33, die zu formula_10 in der Relation formula_82 stehen), ist die Menge Für diese Menge schreibt man formula_90 oder formula_91. Da diese Menge alle Elemente von formula_27 enthält, die dadurch entstehen, dass das Element formula_10 mit allen Elementen aus formula_50 verknüpft wird, heißt sie die Linksnebenklasse, Alternativbezeichnung Linksrestklasse, von formula_50 nach dem Element formula_10. Wenn man andererseits eine Relation formula_97 durch definiert, dann ist dies im Allgemeinen eine andere Äquivalenzrelation und die Menge der zu formula_10 äquivalenten Elemente in formula_27 jetzt die durch "Rechts"verknüpfung der Elemente aus formula_50 mit dem Element formula_10 entsteht. Sie wird mit formula_104 oder formula_105 bezeichnet und Rechtsnebenklasse, Alternativbezeichnung Rechtsrestklasse, von formula_50 nach dem Element formula_10 genannt. Nebenklassen werden benutzt, um den Satz von Lagrange zu beweisen; um die Begriffe "Normalteiler" und "Faktorgruppe" zu erklären; und um Gruppenoperationen zu studieren. Normalteiler. Ist für jedes Element formula_85 die linke Nebenklasse von formula_50 gleich der rechten, d. h. formula_110, so nennt man formula_50 einen "Normalteiler" von formula_27, Bezeichnung formula_113. In einer abelschen Gruppe ist jede Untergruppe ein Normalteiler. Der Kern jedes Gruppenhomomorphismus ist ein Normalteiler. Faktorgruppe. Die Linksnebenklassen (oder auch die Rechtsnebenklassen) bezüglich einer Untergruppe teilen die Gruppe (als Menge angesehen) in disjunkte Teilmengen auf. Ist die Untergruppe sogar ein Normalteiler, so ist jede Linksnebenklasse zugleich eine Rechtsnebenklasse und wird ab jetzt nur "Nebenklasse" genannt. Die Verknüpfung ist wohldefiniert, d.h. sie ist nicht abhängig von der Wahl der Repräsentanten formula_118 und formula_119 in ihrer Nebenklasse. (Ist formula_50 kein Normalteiler, dann gibt es Nebenklassen mit Repräsentanten, die verschiedene Ergebnisse produzieren.) Zusammen mit dieser induzierten Verknüpfung bildet die Menge der Nebenklassen eine Gruppe, die Faktorgruppe formula_116. Die Faktorgruppe ist eine Art vergröbertes Abbild der originalen Gruppe. Klassifikation der endlichen einfachen Gruppen. Eine nicht-triviale Gruppe heißt "einfach," wenn sie keine Normalteiler außer der trivialen Gruppe und sich selbst hat. Beispielsweise sind alle Gruppen von Primzahlordnung einfach. Die einfachen Gruppen spielen eine wichtige Rolle als „Grundbausteine“ von Gruppen. Seit 1982 sind die endlichen einfachen Gruppen vollständig klassifiziert. Jede gehört entweder zu einer der 18 "Familien endlicher einfacher Gruppen" oder ist eine der 26 Ausnahmegruppen, die auch als sporadische Gruppen bezeichnet werden. Ausblick. Rubiks Zauberwürfel als Beispiel einer endlichen nichtabelschen Gruppe Die Eigenschaften endlicher Gruppen lassen sich mit dem Zauberwürfel veranschaulichen, der seit seiner Erfindung vielfach im akademischen Unterricht eingesetzt wurde, weil die Permutationen der Ecken- und Kantenelemente des Würfels ein sichtbares und handgreifliches Beispiel einer Gruppe darstellen. Punktgruppen. Die Menge der möglichen Positionen der Atome der Moleküle in ihrer Gleichgewichtskonformation lässt sich mit Hilfe von Symmetrieoperationen (Spiegelung, Drehung, Inversion, Drehspiegelung) auf sich selbst abbilden. Die Symmetrieoperationen lassen sich zu Gruppen, den sogenannten Punktgruppen zusammenfassen. Physik. In der Quantenmechanik sind Symmetriegruppen als Gruppen von unitären oder antiunitären Operatoren realisiert. Die Eigenvektoren einer maximalen, abelschen Untergruppe dieser Operatoren zeichnet eine physikalisch wichtige Basis aus, die zu Zuständen mit wohldefinierter Energie oder Impuls oder Drehimpuls oder Ladung gehört. Beispielsweise bilden in der Festkörperphysik die Zustände in einem Kristall mit einer fest gewählten Energie einen Darstellungsraum der Symmetriegruppe des Kristalls. Geschichte. Die Entdeckung der Gruppentheorie wird Évariste Galois zugeschrieben, der die Lösbarkeit algebraischer Gleichungen durch Radikale auf (in heutigen Begriffen) die Auflösbarkeit ihrer Galois-Gruppe zurückführte. Galois’ Arbeit wurde erst 1846 postum veröffentlicht. Implizit spielte das Konzept einer Gruppe aber bereits bei Lagrange ("Réflexions sur la résolution algébrique," 1771) und Gauss ("Disquisitiones Arithmeticae," 1801) eine Rolle. Im letzten Viertel des 19. Jahrhunderts wurde die Gruppentheorie vor allem durch Felix Kleins Erlanger Programm und die von Sophus Lie entwickelte Theorie der kontinuierlichen Transformationsgruppen sowie auch Poincarés und Kleins Arbeiten über automorphe Funktionen zu einem zentralen Bestandteil der Mathematik. Aus dem Jahr 1881 stammt Poincarés bekanntes Zitat „Les mathématiques ne sont qu’une histoire des groupes.“ Erst ab 1878 erschienen die ersten Arbeiten zur abstrakten Gruppentheorie. Cayley bewies, dass jede endliche Gruppe isomorph zu einer Gruppe von Permutationen ist und bemerkte in derselben Arbeit, dass es einfacher sei, Gruppen als abstrakte Gruppen statt als Gruppen von Permutationen zu betrachten. 1882 definierte Dyck erstmals Gruppen mittels Erzeugern und Relationen. Globale Erwärmung. Globaler Temperaturindex Oberflächentemperaturen Land und See 1880-2014 Veränderung der Oberflächentemperaturen 2000–2009 (oben) und 1970–1979 (unten), bezogen auf die Durchschnittstemperaturen von 1951 bis 1980 Als globale Erwärmung bezeichnet man den Anstieg der Durchschnittstemperatur der erdnahen Atmosphäre und der Meere seit der Industrialisierung, in den letzten 50 bis 150 Jahren. Der berechnete Erwärmungstrend über die letzten 50 Jahre (1956 bis 2005) in Höhe von 0,13° C +-0,03°C pro Jahrzehnt ist fast zweimal so groß wie derjenige über die letzten 100 Jahre (1906 bis 2005) in Höhe von vs. 0,07° C +-0,02°C pro Jahrzehnt. Dieser Prozess verläuft erheblich schneller als alle bekannten Erwärmungsphasen der letzten 65 Millionen Jahre. Der Temperaturanstieg zwischen 1880 und 2012 beträgt nach Angaben des Weltklimarates (IPCC) 0,85 K. Der IPCC schreibt in seinem 2013 erschienenen fünften Sachstandsbericht, dass es extrem wahrscheinlich ist, dass die beobachtete Erwärmung zu mehr als 50 % vom Menschen verursacht wird. Im Gegensatz zum Wetter, das kurzfristig-aktuelle Zustände der Atmosphäre beschreibt, werden hinsichtlich des Klimas Mittelwerte über längere Zeiträume erhoben. Üblicherweise werden dabei Normalperioden von jeweils 30 Jahren betrachtet. Oft werden die Bezeichnungen „Klimawandel“ und „globale Erwärmung“ synonym verwendet, obwohl die Gleichsetzung missverständlich ist: Der natürliche Klimawandel ist vom anthropogenen Einfluss überlagert. Die Klimaforschung sucht zu klären, welcher Anteil des beobachteten Temperaturanstiegs natürliche Ursachen hat und welcher Anteil vom Menschen verursacht wurde und weiterhin wird. Die fortdauernde anthropogene Anreicherung der Erdatmosphäre mit Treibhausgasen (Kohlenstoffdioxid (CO2), Methan und Distickstoffmonoxid), die vor allem durch die Nutzung fossiler Energie (Brennstoffe), durch weltumfassende Entwaldung sowie Land- und insbesondere Viehwirtschaft freigesetzt werden, erhöht das Rückhaltevermögen für infrarote Wärmestrahlung in der Troposphäre. Nach Modellrechnungen trägt Kohlenstoffdioxid am meisten zur globalen Erwärmung bei. Die ersten wissenschaftlichen Erkenntnisse zum menschengemachten (anthropogenen) Treibhauseffekt stammen vom Ende des 19. Jahrhunderts. Etwa ab den 1960er Jahren gab es auf internationaler Ebene erste Gespräche zu dem Thema und spätestens seit den 1980er Jahren einen wissenschaftsbasierten Konsens und politische Maßnahmen. Dazu gehörte die Schaffung des Weltklimarats (IPCC), der den politischen Entscheidungsträgern und Regierungen zuarbeiten soll. Im IPCC wird der wissenschaftliche Erkenntnisstand zur globalen Erwärmung und zum anthropogenen Anteil daran diskutiert und in Berichten zusammengefasst. Zu den laut Klimaforschung erwarteten und teils bereits beobachtbaren Folgen der globalen Erwärmung gehören je nach Erdregion: Meereis- und Gletscherschmelze, ein Meeresspiegelanstieg, das Auftauen von Permafrostböden, wachsende Dürrezonen und zunehmende Wetter-Extreme mit entsprechenden Rückwirkungen auf die Lebens- und Überlebenssituation von Menschen und Tieren (Artensterben). Nationale und internationale Klimapolitik zielt sowohl auf die Abschwächung des Klimawandels wie auch auf eine Anpassung an die zu erwartende Erwärmung. Ursachen. Während der langwellige Strahlungsanteil der Sonne teilweise von Treibhausgasen absorbiert wird, läuft der kurzwellige Strahlungsanteil durch das atmosphärische Fenster der Atmosphäre und wandelt sich an der Erdoberfläche in Infrarotstrahlung, die dann von Treibhausgasen absorbiert wird. Datei:Major greenhouse gas trends.png|hochkant=1.4|miniatur| Kohlenstoffdioxid, Lachgas, Methan und FCKWs/FKWs (nur letztere nehmen durch weltweite Anstrengungen zum Schutz der Ozonschicht ab da ohne sie die gemessenen Temperaturen nicht zu erklären sind. Treibhauseffekt. Die Antreiber der globalen Erwärmung seit 1750 und ihr Nettoeffekt auf den Wärmehaushalt der Erde Treibhausgase lassen die von der Sonne kommende kurzwellige Strahlung weitgehend ungehindert auf die Erde durch, absorbieren aber einen Großteil der von der Erde ausgestrahlten Infrarotstrahlung. Dadurch erwärmen sie sich und emittieren selbst Strahlung im längerwelligen Bereich (vgl. Kirchhoffsches Strahlungsgesetz). Der in Richtung der Erdoberfläche gerichtete Strahlungsanteil wird als atmosphärische Gegenstrahlung bezeichnet. Im isotropen Fall wird die absorbierte Energie je zur Hälfte in Richtung Erde und Weltall abgestrahlt. Hierdurch erwärmt sich die Erdoberfläche stärker, als wenn allein die kurzwellige Strahlung der Sonne sie erwärmen würde. Das IPCC schätzt den Grad des wissenschaftlichen Verständnisses über die Wirkung von Treibhausgasen als „hoch“ ein. Das Treibhausgas Wasserdampf (H2O) trägt mit 36 bis 66 %, Kohlenstoffdioxid (CO2) mit 9 bis 26 %, und Methan mit 4 bis 9 % zum natürlichen Treibhauseffekt bei. Die große Bandbreite erklärt sich folgendermaßen: Einerseits gibt es sowohl örtlich wie auch zeitlich große Schwankungen in der Konzentration dieser Gase. Zum Anderen überlappen sich deren Absorptionsspektren. Beispiel: Strahlung, die von Wasserdampf bereits absorbiert wurde, kann von Kohlenstoffdioxid nicht mehr absorbiert werden. Das bedeutet, dass in einer (Eis-)Wüste, in der Wasserdampf nur wenig zum Treibhauseffekt beiträgt, die übrigen Treibhausgase mehr zum Gesamttreibhauseffekt beitragen als in den feuchten Tropen. Da die genannten Treibhausgase natürliche Bestandteile der Atmosphäre sind, wird die von ihnen verursachte Temperaturerhöhung als "natürlicher Treibhauseffekt" bezeichnet. Der natürliche Treibhauseffekt führt dazu, dass die Durchschnittstemperatur der Erde bei +15 °C liegt. Ohne den natürlichen Treibhauseffekt läge sie bei ca. −18 °C. Seit der Industriellen Revolution verstärkt der Mensch den natürlichen Treibhauseffekt durch den Ausstoß von Treibhausgasen, wie messtechnisch belegt werden konnte. Konzentrationsanstieg der wichtigsten Treibhausgase. Der Anteil aller vier Bestandteile des natürlichen Treibhauseffekts in der Atmosphäre ist seit dem Beginn der industriellen Revolution gestiegen. Die Geschwindigkeit des Konzentrationsanstiegs ist die schnellste der letzten 22.000 Jahre. Die Konzentration von Kohlenstoffdioxid in der Erdatmosphäre ist vor allem durch die Nutzung fossiler Energie, durch die Zementindustrie und großflächige Entwaldung seit Beginn der Industrialisierung von ca. 280 ppmV um 40 % auf ca. 400 ppmV (parts per million, Teile pro Million Volumenanteil) im Jahr 2015 gestiegen. Dies ist wahrscheinlich der höchste Wert seit wenigstens 15 bis 20 Millionen Jahren. Nach Messungen aus Eisbohrkernen betrug die CO2-Konzentration in den letzten 800.000 Jahren nie mehr als 300 ppmV. Der Volumenanteil von Methan stieg von 730 ppbV im Jahr 1750 auf 1.800 ppbV (parts per billion, Teile pro Milliarde Volumenanteil) im Jahr 2011 an. Dies ist ein Anstieg um 150 % und wie bei Kohlenstoffdioxid der höchste Stand seit mindestens 800.000 Jahren. Als eine der Ursachen hierfür ist die Viehhaltung anzuführen, gefolgt von weiteren landwirtschaftlichen Aktivitäten wie dem Anbau von Reis. Das Treibhauspotenzial von 1 kg Methan ist, auf einen Zeitraum von 100 Jahren betrachtet, 25 mal höher als das von 1 kg Kohlenstoffdioxid. Nach einer neueren Untersuchung beträgt dieser Faktor sogar 33, wenn Wechselwirkungen mit atmosphärischen Aerosolen berücksichtigt werden. In einer sauerstoffhaltigen Atmosphäre wird Methan jedoch oxidiert, meist durch Hydroxyl-Radikale. Ein einmal in die Atmosphäre gelangtes Methan-Molekül hat dort eine durchschnittliche Verweilzeit von zwölf Jahren. Im Unterschied dazu liegt die Verweildauer von Kohlenstoffdioxid teilweise im Bereich von Jahrhunderten. Die Ozeane nehmen atmosphärisches Kohlenstoffdioxid zwar sehr rasch auf: Ein CO2-Molekül wird nach durchschnittlich fünf Jahren in den Ozeanen gelöst. Diese geben es aber auch wieder an die Atmosphäre ab, so dass ein Teil des vom Menschen emittierten Kohlenstoffdioxids letztlich für mehrere Jahrhunderte (ca. 30 %) und ein weiterer Teil (ca. 20 %) sogar für Jahrtausende im Kohlenstoffkreislauf von Hydrosphäre und Atmosphäre verbleibt. Der Volumenanteil von Lachgas stieg von vorindustriell 270 ppbV auf mittlerweile 323 ppbV. Durch sein Absorptionsspektrum trägt es dazu bei, ein sonst zum Weltall hin offenes Strahlungsfenster zu schließen. Trotz seiner sehr geringen Konzentration in der Atmosphäre trägt es zum anthropogenen Treibhauseffekt etwa 6 % bei, da seine Wirkung als Treibhausgas 298 mal stärker ist als die von Kohlenstoffdioxid; daneben hat es auch eine recht hohe atmosphärische Verweilzeit von 114 Jahren. Projektionen der Temperaturentwicklung bis 2100 Die Wasserdampfkonzentration der Atmosphäre wird durch anthropogene Wasserdampfemissionen nicht signifikant verändert, da zusätzlich in die Atmosphäre eingebrachtes Wasser innerhalb weniger Tage auskondensiert. Steigende globale Durchschnittstemperaturen führen jedoch zu einem höheren Dampfdruck, das heißt einer stärkeren Verdunstung. Der damit global ansteigende Wasserdampfgehalt der Atmosphäre treibt die globale Erwärmung zusätzlich an. Wasserdampf wirkt somit im Wesentlichen als Rückkopplungsglied. Diese Wasserdampf-Rückkopplung ist neben der Eis-Albedo-Rückkopplung die stärkste, positiv wirkende Rückkopplung im globalen Klimageschehen. Aerosole. Neben Treibhausgasen beeinflussen auch die Sonnenaktivität sowie Aerosole das Erdklima. Aerosole liefern von allen festgestellten Beiträgen zum Strahlungsantrieb die größte Unsicherheit, und das Verständnis über sie wird vom IPCC als „gering“ bezeichnet. Die Wirkung eines Aerosols auf die Lufttemperatur ist abhängig von seiner Flughöhe in der Atmosphäre. In der untersten Atmosphärenschicht, der Troposphäre, sorgen Rußpartikel für einen Temperaturanstieg, da sie das Sonnenlicht absorbieren und anschließend Wärmestrahlung abgeben. Die verringerte Reflektivität (Albedo) von Schnee- und Eisflächen und anschließend darauf niedergegangenen Rußpartikeln wirkt ebenfalls erwärmend. In höheren Luftschichten hingegen sorgen Mineralpartikel durch ihre abschirmende Wirkung dafür, dass es an der Erdoberfläche kühler wird. Einen großen Unsicherheitsfaktor bei der Bemessung der Klimawirkung von Aerosolen stellt ihr Einfluss auf die ebenfalls nicht vollständig verstandene Wolkenbildung dar. Trotz der Unsicherheiten wird Aerosolen insgesamt eine deutlich abkühlende Wirkung zugemessen. Der zwischen den 1940er bis Mitte der 1970er Jahre beobachtete Rückgang der globalen Durchschnittstemperaturen sowie die Stagnation der globalen Durchschnittstemperaturen seit ca. dem Jahr 2000 wird zum großen Teil der kühlenden Wirkung von Sulfataerosolen zugeschrieben, die im ersten Fall in Europa und den USA und im letzten Fall in der Volksrepublik China und Indien zu verorten waren. Nachrangige und fälschlich vermutete Ursachen. Verlauf der globalen Durchschnittstemperaturen und der Aktivität galaktischer kosmischer Strahlung seit der zweiten Hälfte des 20. Jahrhunderts Eine Reihe von Faktoren beeinflussen das globale Klimasystem. In der Diskussion um die Ursachen der globalen Erwärmung werden oft Faktoren genannt, die nachrangig sind oder sogar kühlend auf das Klimasystem wirken. So ist eine veränderte kosmische Strahlung nicht für die gegenwärtig beobachtete Erwärmung verantwortlich. Die Erde befindet sich seit ca. 1850, also etwa dem Beginn der industriellen Revolution, in einer Phase der Wiedererwärmung aus der kleinen Eiszeit. Ohne die Eingriffe des Menschen in den natürlichen Klimaverlauf würde sich aber der seit 6000 Jahren bestehende Abkühlungstrend fortsetzen, der – je nach Literaturquelle – in 20.000 bis 50.000 Jahren zur nächsten Eiszeit geführt hätte. Ozonloch. Die Annahme, das Ozonloch sei eine wesentliche Ursache der globalen Erwärmung, ist ebenso falsch, denn der Ozonabbau wärmt nicht das Klima der Erde, sondern kühlt es. Der Ozonabbau wirkt hierbei auf zweierlei Arten: Die verringerte Ozonkonzentration kühlt die Stratosphäre, da die UV-Strahlung dort nicht mehr absorbiert wird, wärmt hingegen die Troposphäre, wo sie absorbiert wird. Die kältere Stratosphäre schickt weniger wärmende Infrarotstrahlung nach unten und kühlt damit die Troposphäre. Insgesamt dominiert der Kühlungseffekt, so dass das IPCC folgert, dass der beobachtete Ozonschwund im Verlauf der letzten beiden Dekaden zu einem negativen Strahlungsantrieb auf das Klimasystem geführt hat, der sich auf etwa −0,15 ± 0,10 Watt pro Quadratmeter (W/m²) beziffern lässt. Sonnenaktivität. Globale Temperaturentwicklung (rot), atmosphärische CO2-Konzentration (blau) und Sonnenaktivität (gelb) seit dem Jahr 1850 Veränderungen in der Sonne wird ein geringer Einfluss auf die gemessene globale Erwärmung zugesprochen. Die seit 1978 direkt vom Orbit aus gemessene Änderung der Sonnenaktivität ist bei weitem zu klein, um als Hauptursache für die seither beobachtete Temperaturentwicklung in Frage zu kommen. Seit den 1960er Jahren ist der Verlauf der globalen Durchschnittstemperatur von der Sonnenaktivität entkoppelt. Das IPCC schätzt den zusätzlichen Strahlungsantrieb durch die Sonne seit Beginn der Industrialisierung auf etwa 0,12 Watt pro Quadratmeter. Das 90-Prozent-Konfidenzintervall für diese Schätzung wird mit 0,06 bis 0,30 W/m² angegeben; im Vergleich dazu tragen die anthropogenen Treibhausgase mit 2,63 (± 0,26) W/m² zur Erwärmung bei. Das IPCC schreibt, dass der Grad des wissenschaftlichen Verständnisses bezüglich des Einflusses solarer Variabilität (siehe auch Streuung) vom Dritten zum Vierten Sachstandsbericht von „sehr gering“ auf „gering“ zugenommen hat. Abwärme. Bei fast allen Prozessen entsteht Wärme, so bei der Produktion von elektrischem Strom, bei der Nutzung von Verbrennungsmotoren (siehe Wirkungsgrad) oder beim Betrieb von Computern. In den USA und Westeuropa trugen Gebäudeheizung, industrielle Prozesse und Verbrennungsmotoren im Jahr 2008 mit 0,39 W/m² bzw. 0,68 W/m² zur Erwärmung bei und haben damit einen gewissen Einfluss auf das regionale Klimageschehen. Weltweit gesehen betrug dieser Wert 0,028 W/m² (also nur etwa 1 % der globalen Erwärmung). Gemessene und projizierte Erwärmung. Als Hauptanzeichen für die derzeitige globale Erwärmung gelten die seit etwa 1860 vorliegenden weltweiten Temperaturmessungen sowie die Auswertungen verschiedener Klimaarchive. Verglichen mit den Schwankungen der Jahreszeiten sowie beim Wechsel von Tag und Nacht erscheinen die im Folgenden genannten Zahlen klein; als globale Änderung des Klimas bedeuten sie jedoch sehr viel, wenn man die um nur etwa 6 K niedriger liegende Durchschnittstemperatur auf der Erde während der letzten Eiszeit bedenkt. Im Jahr 2005 wurde u.a. aufgrund der gemessenen Temperaturzunahme der Meere über eine Dekade errechnet, dass die Erde 0,85 Watt pro Quadratmeter mehr Leistung aufnimmt als sie ins All abstrahlt. Eine deutliche Erwärmungsphase war zwischen 1910 und 1945 zu beobachten, in der aufgrund der noch vergleichsweise geringen Konzentration von Treibhausgasen auch natürliche Schwankungen einen deutlichen Einfluss hatten. Am ausgeprägtesten ist die Erwärmung von 1975 bis heute. Nach NOAA und NASA waren 2010 und 2005 die global wärmsten Jahre seit Beginn der Aufzeichnungen, dicht gefolgt von 1998. Insbesondere bei kurzen Zeitreihen ist zu berücksichtigen, dass Anfangs- und Endjahr starken Einfluss auf den Trend haben können und somit nicht zwingend langfristige Trends widerspiegeln müssen. Ein Beispiel für eine solche Abweichung ist der Zeitraum zwischen 1998 und 2012, der mit einem starken El Niño und damit außergewöhnlich heißen Jahr begann, weshalb der Erwärmungstrend mit 0,05° C pro Jahrzehnt in diesem Zeitraum deutlich unter dem langfristigen Trend von 0,12 °C pro Jahrzehnt im Zeitraum 1951–2012 zurückblieb. Die 30 Jahre von 1983 bis 2012 waren auf der Nordhalbkugel die wärmste Normalperiode seit 1400 Jahren. 2014 gilt als das wärmste Jahr seit Beginn der Wetteraufzeichnungen im Jahr 1880. Im Zeitabschnitt 1979–2012 (34 Jahre) nahm die globale Durchschnittstemperatur nach Bodenmessungen von 0,151 bis 0,161 °C pro Jahrzehnt zu. Die linearen Trends der mittleren globalen Erdoberflächentemperatur (GMST) Die Daten der Satellitenmessungen werden von verschiedenen Forschungsgruppen ausgewertet, die zu leicht unterschiedlichen Ergebnissen kommen. Nach der Gruppe RSS beträgt der Trend 0,12 K und nach Messungen an der University of Alabama in Huntsville 0,14 K pro Jahrzehnt in dem Zeitabschnitt 1979 -2014. Hierbei ist zu beachten, dass Satellitenmessungen (UAH, RSS) und Messungen an der Erdoberfläche nicht direkt vergleichbar sind, da sie unterschiedliche physikalische Eigenschaften wiedergeben. In einer 2007 erschienenen Studie konnte der natürliche Anteil der Erwärmung des 20. Jahrhunderts auf unter 0,2 K eingegrenzt werden. Erwärmung der Ozeane. Die Grafik zeigt, welche Teile der Erde die Energie aufnehmen, die durch die globale Erwärmung eingebracht wird Neben der Luft haben sich auch die Ozeane erwärmt, die über 90 % der Wärmeenergie aufgenommen haben. Während sich die Weltmeere seit 1955 aufgrund ihres enormen Volumens und ihrer großen Temperaturträgheit insgesamt nur um 0,04 K aufgeheizt haben, erhöhte sich ihre Oberflächentemperatur im selben Zeitraum um 0,6 K. Im Bereich zwischen der Meeresoberfläche bis zu einer Tiefe von 75 Metern stieg die Temperatur von 1971 bis 2010 um durchschnittlich 0,11 K pro Jahrzehnt an. Der Energieinhalt der Weltmeere nahm zwischen Mitte der 1950er Jahre bis 1998 um ca. 14,5 × 1022 Joule zu, was einer Heizleistung von 0,2 Watt pro m² der gesamten Erdoberfläche entspricht. Besonders markant fiel die Erwärmung in der Arktis aus, wo sie im jährlichen Mittel etwa doppelt so hoch ist wie im globalen Durchschnitt. Mit Ausnahme weniger Regionen ist die Erwärmung seit 1979 weltweit nachweisbar. Für die verschiedenen Luftschichten der Erdatmosphäre wird theoretisch eine unterschiedliche Erwärmung erwartet und faktisch auch gemessen. Während sich die Erdoberfläche und die niedrige bis mittlere Troposphäre erwärmen sollten, lassen Modelle für die höher gelegene Stratosphäre eine Abkühlung vermuten. Tatsächlich wurde genau dieses Muster in Messungen gefunden. Die Satellitendaten zeigen eine Abnahme der Temperatur der unteren Stratosphäre von 0,314 K pro Jahrzehnt während der letzten 30 Jahre. Diese Abkühlung wird zum einen durch den verstärkten Treibhauseffekt und zum anderen durch Ozonschwund durch FCKWs in der Stratosphäre verursacht, siehe auch Montrealer Protokolls zum Schutz der Ozonschicht. Wäre die Sonne maßgebliche Ursache, hätten sich sowohl die oberflächennahen Schichten, die niedere bis mittlere Troposphäre wie auch die Stratosphäre erwärmen müssen. Nach dem gegenwärtigen Verständnis heißt dies, dass der überwiegende Teil der beobachteten Erwärmung durch menschliche Aktivitäten verursacht sein muss. Zeitweise Abkühlung oder Pause in der globalen Erwärmung. Auch bei Annahme einer Erwärmung um 4 K bis zum Ende des 21. Jahrhunderts wird es im Verlauf immer wieder Phasen der Stagnation oder sogar der Abkühlung geben. Diese Phasen können bis zu ca. 15 Jahre andauern. Ursachen sind der elfjährige Sonnenfleckenzyklus, kühlende starke Vulkanausbrüche, sowie die natürliche Eigenschaft des Weltklimas, einen schwingenden Temperaturverlauf zu zeigen (AMO, PDO, ENSO). So kann beispielsweise das Auftreten von El-Niño- bzw. La-Niña-Ereignissen die globale Durchschnittstemperatur von einem Jahr auf das andere um 0,2 K erhöhen bzw. absenken und für wenige Jahre den jährlichen Erwärmungstrend von ca. 0,02 K überdecken aber auch verstärken. Gleiches gilt auch bei einer Abkühlung, die durch dieselben Prozesse weiter verstärkt wird. Zur quantitativen Beschreibung der Reaktion des Klimas auf Veränderungen der Strahlungsbilanz wurde der Begriff der Klimasensitivität etabliert. Mit ihr lassen sich unterschiedliche Einflussgrößen gut miteinander vergleichen. Die Rolle der Wolken. Niedrige Wolken kühlen die Erde durch ihre Sonnenreflexion, hohe Wolken erwärmen die Erde. Wolken beeinflussen das Klima der Erde maßgeblich, indem sie einen Teil der einfallenden Strahlung reflektieren. Strahlung, die von der Sonne kommt, wird zurück ins All, Strahlung darunter liegender Atmosphärenschichten in Richtung Boden reflektiert. Die Helligkeit der Wolken stammt von kurzwelliger Strahlung im sichtbaren Wellenlängenbereich. Eine größere optische Dicke niedriger Wolken bewirkt, dass mehr Energie ins All zurückgestrahlt wird; die Temperatur der Erde sinkt. Umgekehrt lassen weniger dichte Wolken mehr Sonnenstrahlung passieren, was darunter liegende Atmosphärenschichten wärmt. Niedrige Wolken sind oft dicht und reflektieren viel Sonnenlicht zurück in den Weltraum. Sie liegen auch niedriger in der Atmosphäre, wo Temperaturen höher sind und strahlen deshalb mehr Wärme ab. Die Tendenz niedriger Wolken ist daher, die Erde zu kühlen. Hohe Wolken sind meist dünn und nicht sehr reflektierend. Sie lassen einen Großteil der Sonnenwärme durch und da sie sehr hoch liegen, wo die Lufttemperatur sehr niedrig ist, strahlen diese Wolken nicht viel Wärme ab. Die Tendenz hoher Wolken ist, die Erde zu erwärmen. Die Vegetation und die Beschaffenheit des Bodens und insbesondere seine Versiegelung, Entwaldung oder landwirtschaftliche Nutzung haben maßgeblichen Einfluss auf die Verdunstung und somit auf die Wolkenbildung und das Klima. Nachgewiesen wurde ebenfalls eine Verminderung der Wolkenbildung durch Pflanzen, welche bei einem Kohlenstoffdioxid-Anstieg bis zu 15 Prozent weniger Wasserdampf freigeben und somit die Wolkenbildung reduzieren. Einfluss der Vegetation und des Bodens. Vegetation und Bodenbeschaffenheit reflektieren je nach Beschaffenheit das einfallende Sonnenlicht unterschiedlich. Reflektiertes Sonnenlicht wird als kurzwellige Sonnenstrahlung in den Weltraum zurückgeworfen (ansonsten wäre die Erdoberfläche aus Sicht des Weltalls ohne Infrarotkamera schwarz). Albedo ist ein Maß für das Rückstrahlvermögen von diffus reflektierenden (reemittierenden), also nicht spiegelnden und nicht selbst leuchtenden Oberflächen. Prozent des reflektierten Sonnenlichtes in Abhängigkeit von unterschiedlichen Erdoberflächenbeschaffenheiten Nicht nur der Verbrauch von fossilen Energieträgern führt zu einer Freisetzung von Treibhausgasen. Die intensive Bestellung von Ackerland und die Entwaldung sind ebenfalls eine bedeutende Treibhausgasquelle. Die Vegetation benötigt für den Prozess der Photosynthese Kohlenstoffdioxid zum Wachsen. Bäume benötigen CO2 in größeren Mengen als Getreide. Der Boden ist eine wichtige Senke, da er organisches, kohlenstoffhaltiges Material enthält. Durch ackerbauliche Tätigkeiten wird dieser gespeicherte Kohlenstoff in Form von Kohlenstoffdioxid jedoch teilweise freigesetzt. Im Permafrost Westsibiriens lagern 70 Milliarden Tonnen Methan, in der Tiefsee ungleich größere Mengen Gashydratvorkommen. Durch lokale Klimaveränderungen (aktuell: +3 K innerhalb von 40 Jahren in Westsibirien) könnten auch bei geringer globaler Erwärmung regional kritische Temperaturen erreicht werden; es besteht die Gefahr der Freisetzung der dort gespeicherten Methanressourcen in die Atmosphäre. Eine Berechnung unter Annahme derartiger Rückkopplungen wurde von Wissenschaftlern der University of California, Berkeley erstellt, die annahmen, dass der Kohlenstoffdioxidgehalt der Atmosphäre sich von den derzeitigen etwa 390 ppmV bis 2100 auf etwa 550 ppmV erhöhen wird. Dies sei allein der von der Menschheit bewirkte anthropogene Zuwachs. Die erhöhte Temperatur führt zu zusätzlicher Freisetzung von Treibhausgasen, insbesondere Kohlenstoffdioxid und Methan. Bei ansteigender Temperatur erfolgt eine erhöhte Freisetzung von Kohlenstoffdioxid aus den Weltmeeren und die beschleunigte Verrottung von Biomasse, was zusätzliches Methan und Kohlenstoffdioxid freisetzt. Durch diese positive Rückkopplung könnte die globale Erwärmung um 2 K stärker ausfallen als gegenwärtig angenommen wird. Aus diesem und anderen Gründen schätzt Barrie Pittock in "Eos", der Publikation der American Geophysical Union, dass die zukünftige Erwärmung über die vom IPCC genannten Bandbreiten hinausgehen könnte. Er nennt acht Gründe für seine Vermutung, darunter unter anderem auch den Rückgang der globalen Verdunkelung und Rückkopplungseffekte durch Biomasse. Projizierte Erwärmung. Bei einer Verdoppelung der CO2-Konzentration in der Atmosphäre gehen Klimaforscher davon aus, dass die Erhöhung der Erdmitteltemperatur innerhalb von 1,5 bis 4,5 K liegen wird. Dieser Wert ist auch als Klimasensitivität bekannt und ist auf das vorindustrielle Niveau (von 1750) bezogen, ebenso wie der dafür maßgebende Strahlungsantrieb; mit dieser Größe werden alle bekannten, die Strahlungsbilanz der Erde beeinflussenden Faktoren vom IPCC quantitativ beschrieben und vergleichbar gemacht. Das IPCC rechnet, abhängig von den Zuwachsraten aller Treibhausgase und dem angewandten Modell, bis 2100 mit einer Zunahme der globalen Durchschnittstemperatur um 0,9 bis 5,4 K.Zum Vergleich: die schnellste Erwärmung im Verlauf von der letzten Eiszeit zur heutigen Warmzeit war eine Erwärmung um etwa ein Grad pro 1000 Jahre. Nach einer Studie an der Carnegie Institution for Science, in der die Ergebnisse eines Kohlenstoff-Zyklus-Modells mit Daten aus Vergleichsuntersuchungen zwischen Klimamodellen des fünften IPCC-Sachstandsberichts ausgewertet wurden, reagiert das globale Klimasystem auf einen CO2-Eintrag mit einer zeitlichen Verzögerung von etwa 10 Jahren mit einer Sprungfunktion; das bedeutet, dass die Erwärmung nach etwa 10 Jahren ihr Maximum erreicht und dann für sehr lange Zeiträume dort verharrt. Nach Modellergebnissen des Met Office von Ende 2012 wird davon ausgegangen, dass für den Zeitraum 2013–2017 (in Bezug auf den Referenzzeitraum von 1971 bis 2000) eine globale Erwärmung von 0,43 K (min. 0,28 K, max. 0,59 K) erwartet werden kann. Das Metoffice ergänzt, dass dekadische Vorhersagen experimentellen Charakter haben. Einflussfaktoren auf die zu erwartenden Treibhausgasemissionen. Der dabei maßgebliche, allerdings auch der mit der größten Unsicherheit behaftete Parameter ist die Prognose über die künftige Entwicklung der Weltwirtschaft. Da das Wirtschaftswachstum der Welt in der Vergangenheit stark mit dem Verbrauch an fossilen Energieträgern korrelierte und dies auch in der näheren Zukunft erwartet werden kann, erklärt sich hieraus die relativ große Bandbreite der von den Klimatologen projizierten globalen Erwärmung. Karte der berechneten globalen Temperaturverteilung zum Ende des 21. Jahrhunderts. In diesem verwendeten HadCM3-Klimamodell beträgt die durchschnittliche Erwärmung 3 K. Ein weiterer wahrscheinlicher Einfluss ist ein Rückgang der Förderung konventionellen Erdöls aufgrund des Eintretens des globalen Erdölfördermaximums (des sogenannten „Peak Oil“), das von vielen Experten bis etwa 2030, möglicherweise jedoch auch deutlich früher, erwartet wird. Wird das dann fehlende Öl durch nicht-konventionelles Erdöl wie z. B. Ölsande ausgeglichen, so kann sich die Menge an Treibhausgasen bis zu einem Faktor von 2,5 vergrößern und Anstrengungen zur Reduktion von Emissionen zunichtemachen. Langfristige Betrachtung und daraus resultierende Konsequenzen. Nach einer im Jahr 2009 erschienenen Studie wird die gegenwärtig bereits angestoßene Erwärmung noch für mindestens 1000 Jahre irreversibel sein, selbst wenn heute alle Treibhausgasemissionen vollständig gestoppt würden. In weiteren Szenarien wurden die Emissionen schrittweise bis zum Ende unseres Jahrhunderts fortgesetzt und dann ebenfalls abrupt beendet. Dabei wurden wesentliche Annahmen und Aussagen, die im 4. IPCC-Bericht über die folgenden 1000 Jahre gemacht wurden, Dies entspricht der Fortschreibung des Wachstums seit der ersten Ölkrise von 1973 und schließt die Möglichkeit einer Nutzung der Kernfusion mit ein. Bei Fortsetzung ergäbe sich ein globaler Beitrag von 3 Grad in 280 Jahren) Ein realistischeres Wachstumsszenario (mit anfänglicher Unterscheidung zwischen OECD- und Nicht-OECD-Ländern und einer Stabilisierung der Weltbevölkerung bei 9 Milliarden ab dem Jahr 2100) liefert den Beitrag von 3 Grad in 320 Jahren. Anhaltendes Wirtschaftswachstum, "„unser bisheriges Mantra“" (laut Klaus Töpfer), führt somit auch nach diesen Szenarien zu abwegigen Konsequenzen. Wie besonders im Abschnitt 5.2 („Das IPCC“) in Zusammenhang mit der Box zu den Projektionen bis 2100 noch deutlicher wird, ist bereits vorher ein "Kurswechsel" notwendig. Er entspräche einem Wechsel von den wachstumsorientierten A- zu den nachhaltigen B-Szenarien des IPCC. Wissenschaftsgeschichte. a>, einer der Pioniere in der Geschichte der Wissenschaft über die globale Erwärmung Aufbauend auf die Entdeckung des Treibhauseffektes durch Jean Baptiste Joseph Fourier im Jahr 1824, identifizierte John Tyndall 1862 einige der für diesen Effekt verantwortlichen Gase, allen voran Wasserdampf und Kohlenstoffdioxid. Hieran anknüpfend, veröffentlichte Svante Arrhenius 1896 als Erster die Hypothese, dass die anthropogene CO2-Anreicherung in der Atmosphäre die Erdtemperatur erhöhen könne, womit die „Wissenschaft von der globalen Erwärmung“ im engeren Sinne begann. Im Jahr 1908 publizierte der britische Meteorologe und spätere Präsident der Royal Meteorological Society Ernest Gold ein Paper zur Stratosphäre. Er schrieb darin, dass die Temperatur der Tropopause mit steigender CO2-Konzentration steigt. Es ist dies ein Kennzeichen der globalen Erwärmung, das fast ein Jahrhundert später auch gemessen werden konnte. In den späten 1950er Jahren wurde erstmals nachgewiesen, dass der Kohlenstoffdioxidgehalt der Atmosphäre ansteigt. Auf Initiative von Roger Revelle startete Charles David Keeling 1958 auf dem Berg Mauna Loa (Hawaii, Big Island) regelmäßige Messungen des CO2-Gehalts der Atmosphäre (Keeling-Kurve). Gilbert Plass nutzte 1956 erstmals Computer und erheblich genauere Absorptionsspektren des CO2 zur Berechnung der zu erwartenden Erwärmung. Er erhielt 3,6 K (3,6 °C) als Wert für die Klimasensitivität. Die ersten Computerprogramme zur Modellierung des Weltklimas wurden Ende der 1960er Jahre geschrieben. 1979 schrieb die National Academy of Sciences der USA im sog. Charney-Report, dass ein Anstieg der Kohlenstoffdioxidkonzentration ohne Zweifel mit einer signifikanten Klimaerwärmung verknüpft sei. Deutliche Effekte seien aufgrund der Trägheit des Klimasystems jedoch erst in einigen Jahrzehnten zu erwarten. Die anthropogene globale Erwärmung im Kontext der Erdgeschichte. Die Erforschung von Ursachen und Folgen der globalen Erwärmung ist seit ihrem Beginn eng mit der Analyse der klimatischen Bedingungen vergangener Zeiten verknüpft. Svante Arrhenius, der als erster darauf hinwies, dass der Mensch durch die Emission von CO2 die Erde erwärmt, erkannte bei der Suche nach den Ursachen der Eiszeiten den klimatischen Einfluss wechselnder Konzentrationen von Kohlenstoffdioxid in der Erdatmosphäre. So wie Erdbeben und Vulkanausbrüche sind auch Klimawandel etwas Natürliches. Seit der Entstehung der Erde hat sich das irdische Klima ständig verändert und es wird sich auch künftig ändern. In erster Linie verantwortlich dafür waren eine wechselnde Konzentration und Zusammensetzung der Treibhausgase in der Atmosphäre durch die unterschiedliche Intensität von Vulkanismus und Erosion. Weitere klimawirksame Faktoren sind die variable Sonneneinstrahlung, unter anderem auf Grund der Milanković-Zyklen, sowie eine durch die Plattentektonik verursachte permanente Umgestaltung und Verschiebung der Kontinente mit einer daraus resultierenden Verlagerung großer Meeresströmungen. Landmassen an den Polen förderten die Bildung von Eiskappen, und veränderte ozeanische Strömungen lenkten Wärme entweder von den Polen weg oder zu diesen hin und beeinflussten auf diese Weise die Stärke der sehr mächtigen Eis-Albedo-Rückkopplung. Obwohl Leuchtkraft und Strahlungsleistung der Sonne am Beginn der Erdgeschichte etwa 30 Prozent unter den heutigen Werten lagen, herrschten in der gesamten Zeit Bedingungen, unter denen flüssiges Wasser existieren konnte. Dieses Paradoxon der schwachen, jungen Sonne genannte Phänomen führte in den 1980er Jahren zur Hypothese eines „CO2-Thermostats“. Er hielt die Temperaturen der Erde über Jahrmilliarden konstant in Bereichen, die Leben auf unserem Planeten ermöglichten. Wenn Vulkane vermehrt CO2 ausstießen, so dass die Temperaturen anstiegen, erhöhte sich der Grad der Verwitterung, wodurch mehr CO2 gebunden wurde. War die Erde kalt und die Konzentration des Treibhausgases gering, wurde die Verwitterung durch die Vereisung weiter Landflächen stark verringert. Das durch den Vulkanismus weiter in die Atmosphäre strömende Treibhausgas reicherte sich dort bis zu einem gewissen Kipppunkt an, um schließlich ein globales Tauwetter auszulösen. Der Nachteil dieses Mechanismus besteht darin, dass er mehrere Jahrtausende für die Korrektur von Treibhausgaskonzentrationen und Temperaturen benötigt, und es sind mehrere Fälle bekannt, bei denen er versagte. Im Verlauf – vermutlich mehrerer – Schneeball-Erde-Ereignisse während des Neoproterozoikums vor rund 750 bis 600 Millionen Jahren fror die Erdoberfläche fast vollkommen zu, und zur Zeit des wahrscheinlich größten Massenaussterbens vor 250 Millionen Jahren war der Planet ein Supertreibhaus mit drastisch höheren Temperaturen als heute. Man nimmt an, dass die große Sauerstoffkatastrophe vor 2,3 Milliarden Jahren einen Zusammenbruch der Methankonzentration in der Atmosphäre bewirkte. Dies verminderte den Treibhauseffekt so stark, dass daraus eine großflächige und lang andauernde Vereisung der Erde während der huronischen Eiszeit resultierte. Das letzte derartige Ereignis fand unmittelbar vor der kambrischen Explosion vor 635 Millionen Jahren statt und wird Marinoische Eiszeit genannt. Die helle Oberfläche der fast vollständig gefrorenen Erde reflektierte nahezu die gesamte einfallende Sonnenenergie zurück ins All und hielt die Erde so im Eiszeitzustand gefangen; dies änderte sich erst, als die Konzentration von Kohlenstoffdioxid in der Erdatmosphäre, bedingt durch den unter dem Eis fortdauernden Vulkanismus, auf extrem hohe Werte gestiegen war. Da das CO2-Thermostat auf Veränderungen nur träge reagiert, taute die Erde nicht nur auf, sondern stürzte in der Folge für einige Jahrzehntausende in das andere Extrem eines Supertreibhauses. Das Ausmaß der Vereisung ist jedoch in der Wissenschaft umstritten, weil Klimadaten aus dieser Zeit ungenau und lückenhaft sind. Entwicklung der globalen Mitteltemperatur im Verlauf der Erdgeschichte. Ganz rechts sind die für das Ende des 21. Jahrhunderts für ein Szenario mit ungebremsten Emissionen zu erwartenden Temperaturen aufgetragen Das Supertreibhaus, das vor 250 Millionen Jahren an der Perm-Trias-Grenze fast alles Leben auf der Erde auslöschte, wurde sehr wahrscheinlich von einer lang andauernden intensiven Vulkantätigkeit verursacht, die zur Entstehung des sibirischen Trapp führte. Aktuelle Isotopenuntersuchungen deuten darauf hin, dass sich die damaligen Meere innerhalb eines relativ kurzen Zeitraums um bis zu 8 K erwärmten und parallel dazu stark versauerten. Während dieser und anderer Phasen extrem hoher Temperaturen enthielten die Ozeane zu großen Teilen keinen Sauerstoff. Derartige ozeanische anoxische Ereignisse wiederholten sich in der Erdgeschichte mehrfach. Man weiß heute, dass sowohl Phasen starker Abkühlung, wie sie beispielsweise während der grande Coupure stattfand, als auch rapide Erwärmungen von Massenaussterben begleitet wurden. Der Paläontologe Peter Ward behauptet sogar, dass alle bekannten Massenaussterben der Erdgeschichte mit Ausnahme des KT-Impakt durch Klimakrisen ausgelöst wurden. a> in einem „Business as usual-Szenario“ Das Klima der letzten 10.000 Jahre war im Vergleich zu den häufigen und starken Schwankungen der vorangegangenen Jahrhunderttausende ungewöhnlich stabil. Diese Stabilität gilt als Grundvoraussetzung für die Entwicklung und den Fortbestand der menschlichen Zivilisation. Der laufende und für die kommenden Jahre erwartete Klimawandel hat möglicherweise das Ausmaß großer Klimawandel der Erdgeschichte, läuft aber mindestens um einen Faktor 20 schneller ab als alle globalen Klimawandel der letzten 65 Millionen Jahre. Anhand der bald zweihundert Jahre umfassenden Datenlage und Forschung kann man davon ausgehen, dass die Epoche des Pliozäns ein analoges Beispiel für die Zukunft unseres Planeten sein kann. Der Kohlenstoffdioxid-Gehalt der Atmosphäre im mittleren Pliozän wurde mit Hilfe der Isotopenuntersuchung von Δ13C ermittelt und lag damals im Bereich von 400 ppm, das entspricht der Konzentration des Jahres 2014. Mit Hilfe von Klimaproxies sind Temperatur und Meeresspiegel der Zeit vor 5 Millionen Jahren rekonstruierbar. Zum Beginn des Pliozäns lag die globale Durchschnittstemperatur um 2 K höher als im Holozän; die globale Jahresdurchschnittstemperatur reagiert aufgrund der enormen Wärmekapazität der Weltmeere sehr träge auf Änderungen des Strahlungsantriebs und so ist sie seit Beginn der industriellen Revolution erst um 0.8 K angestiegen. Die Erwärmung führt unter anderem zu einem Meeresspiegelanstieg. Der Meeresspiegel lag in der Mitte des Pliozäns um rund 20 Meter höher als heute. Der IPCC. Der Intergovernmental Panel on Climate Change (IPCC) fasst im Abstand von einigen Jahren den wissenschaftlichen Kenntnisstand über die globale Erwärmung zusammen Der Intergovernmental Panel on Climate Change (IPCC) wurde 1988 vom Umweltprogramm der Vereinten Nationen (UNEP) gemeinsam mit der Weltorganisation für Meteorologie (WMO) eingerichtet und ist der 1992 abgeschlossenen Klimarahmenkonvention beigeordnet. Der IPCC fasst für seine im Abstand von etwa sechs Jahren erscheinenden Berichte die weltweiten Forschungsergebnisse auf dem Gebiet der Klimaveränderung zusammen und bildet damit den aktuellen Stand des Wissens in der Klimatologie ab. Die Organisation wurde 2007, gemeinsam mit dem ehemaligen US-Vizepräsidenten Al Gore, mit dem Friedensnobelpreis ausgezeichnet. Der Fünfte Sachstandsbericht ist im September 2013 erschienen. Wie sicher sind die Erkenntnisse zur globalen Erwärmung? Seit der Entdeckung des Treibhauseffektes 1824 durch Jean Baptiste Joseph Fourier und 1862 von Wasserdampf und Kohlenstoffdioxid durch John Tyndall gilt die Erforschung zum Erd-Klimasystem als eine der best erforschten Wissenschaften in der Geschichte der Menschheit. Seit 150 Jahren ist die wärmende Wirkung von Treibhausgasen bekannt, deren Konzentrationsanstieg in der Erdatmosphäre dann Mitte der 50er Jahre des vorigen Jahrhunderts sicher nachgewiesen werden konnte. Die seit Mitte der 1970er Jahre festgestellte, ausgeprägte und bis heute ununterbrochene Klimaerwärmung kann mit Hilfe der seitdem deutlich verbesserten Messtechnik nicht primär auf solare Einflüsse oder andere natürliche Faktoren zurückgeführt werden, da sich diese seit dieser Zeit nur minimal veränderten. Viele tausende Studien wurden seitdem veröffentlicht und die große Mehrheit dessen (etwa 97 %) basieren auf dem „wissenschaftlichen Konsens zum Klimawandel“. Projektionen und Berechnungen, die vor Jahrzehnten getätigt wurden, haben sich als zuverlässig herausgestellt. Die ursprünglich nur theoretischen Vorhersagen zur Wirkung des Treibhauseffekts wurden mittlerweile durch Langzeituntersuchungen direkt in der Natur auch experimentell bestätigt. Trends und exakte Zeitpunkte. Man unterscheidet in der Klimaforschung zwischen Trend und Zeitpunkt und berechnet dafür die Eintrittswahrscheinlichkeiten. Beispiele für Ereignisse, für die der genaue Zeitpunkt noch nicht ermittelt werden konnte, sind der Zeitpunkt an dem die Arktis im 21. Jahrhundert im Sommer eisfrei sein wird oder der exakte Meeresspiegelanstieg bis zum Ende des 21. Jahrhunderts. Unsicherheiten bestehen in der genauen Art, Form, Ort und der Verteilung von globalen Kipppunkten im Klimasystem und damit auch verbunden in der Kenntnis der genauen regionalen Auswirkungen der globalen Erwärmung. Die Mehrzahl der relevanten wissenschaftlichen Grundlagen gelten als sehr gut verstanden. Der wissenschaftliche Konsens zum Klimawandel. Keine wissenschaftliche Einrichtung auf nationaler oder internationaler Ebene hat Abweichungen zu den Konsensergebnissen des Klimawandels feststellen können. Der in den IPCC-Berichten zum Ausdruck gebrachte wissenschaftliche Konsens wird von den nationalen und internationalen Wissenschaftsakademien und allen G8-Ländern ausdrücklich unterstützt. Der wissenschaftliche Konsens zum Klimawandel besteht in der Feststellung, dass sich das Erd-Klimasystem erwärmt und weiter erwärmen wird. Dies wird anhand von Beobachtungen der steigenden Durchschnittstemperatur der Luft und Ozeane, großflächigem Abschmelzen von Schnee- und Eisflächen und dem Meeresspiegelanstieg ermittelt. Mit 90 % Sicherheit wird dies durch Treibhausgase, Rodungen und das Verbrennen von fossilem Treibstoff verursacht. Die American Association for the Advancement of Science – die weltweit größte wissenschaftliche Gesellschaft – stellt dar, dass sich 97 % aller Klimatologen darüber einig sind, dass ein vom Menschen verursachter Klimawandel stattfindet und betont den zu vielen Aspekten der Klimatologie herrschenden Konsens. Der Wissensstand um die mit dem Klimawandel verbundenen Folgen wird als ausreichend sicher angesehen, umfangreiche Klimaschutzmaßnahmen zu rechtfertigen. Laut einer 2014 veröffentlichten Studie besteht nur eine Wahrscheinlichkeit von 0,001 %, dass der durchschnittliche globale Temperaturanstieg in den letzten 60 Jahren, ohne vom Menschen verursachtes Treibhausgas, genauso hoch wäre. Klimaskepsis. Der Themenkomplex der globalen Erwärmung war seit jeher Gegenstand kontroverser Diskussionen mit wechselnden Schwerpunkten. Anfang des 20. Jahrhunderts überwog die Unsicherheit, ob die theoretisch vorhergesagte Erwärmung messtechnisch überhaupt nachweisbar sein würde. Als in den USA während der 1930er Jahre erstmals ein signifikanter Temperaturanstieg in einigen Regionen registriert wurde, galt dies zwar als ein starkes Indiz für eine zunehmende Erderwärmung, gleichzeitig wurde jedoch bezweifelt, ob dieser Prozess tatsächlich auf menschlichen Einflüssen beruhte. Diese Zweifel werden von manchen Gruppen bis heute geäußert, und gelegentlich wird sogar eine globale Abkühlung für die kommenden Jahrzehnte vorausgesagt. Da der direkt wärmende Effekt der Treibhausgase nur ca. ein Drittel der erwarteten Erwärmung ausmacht und der größte Teil eine Folge nicht genau quantifizierbarer Rückkopplungsvorgänge ist, ist das Ausmaß der erwarteten Erwärmung ein Aspekt der Diskussion. Ebenso ist die kommende Klimaerwärmung möglicherweise historisch einzigartig, weswegen über einzelne Folgen dieser Erwärmung teils nur spekuliert werden kann. Zwangsläufig ergeben sich damit auch Streitpunkte, wie von politischer Seite reagiert werden sollte. Folgen der globalen Erwärmung. Wegen der Auswirkungen auf menschliche Sicherheit, Gesundheit, Wirtschaft und Umwelt ist die globale Erwärmung mit Risiken behaftet. Einige schon heute wahrnehmbare Veränderungen wie die verringerte Schneebedeckung, der steigende Meeresspiegel oder die Gletscherschmelze gelten neben den Temperaturmessungen auch als Belege für den Klimawandel. Konsequenzen der globalen Erwärmung wirken sowohl direkt auf den Menschen als auch auf Ökosysteme. Um die vielfältigen Auswirkungen quantitativ erfassen zu können, wurde der sogenannte Klimawandelindex geschaffen. Experten projizieren verschiedene direkte und indirekte Auswirkungen auf Hydrosphäre, Atmosphäre und Biosphäre. Im Bericht des Weltklimarats (IPCC) werden diesen Projektionen jeweils Wahrscheinlichkeiten zugeordnet. Zu den Folgen zählen Hitzewellen, besonders in den Tropen, ein Hunderte Millionen Menschen betreffender Anstieg des Meeresspiegels, und Missernten, welche die globale Ernährungssicherheit gefährden. Eine sich stark erwärmende Welt ist, so ein Weltbank-Bericht, mit erheblichen Beeinträchtigungen für den Menschen verbunden. Bedingt durch die vielfachen Rückkopplungen im Erdsystem reagiert dieses auf Einflüsse oftmals nichtlinear, d. h. Veränderungen vollziehen sich in diesen Fällen nicht kontinuierlich, sondern sprunghaft. Es bestehen eine Reihe von Kippelementen, die bei fortschreitender Erwärmung wahrscheinlich abrupt einen neuen Zustand einnehmen werden, der ab einem gewissen Punkt (Tipping Point) schwer oder gar nicht umkehrbar sein wird. Beispiele für Kippelemente sind das Abschmelzen der arktischen Eisdecke oder eine Verlangsamung der Thermohalinen Zirkulation. Auswirkungen auf Hydrosphäre und Atmosphäre. a> um 3,2 mm pro Jahr. Dies sind 50 % mehr als der durchschnittliche Anstieg im 20. Jahrhundert. Auswirkungen auf die Biosphäre. Die Risiken für Ökosysteme auf einer sich erwärmenden Erde wachsen mit jedem Grad des Temperaturanstiegs. Die Risiken unterhalb einer Erwärmung von 1 K gegenüber dem vorindustriellen Wert sind vergleichsweise gering. Zwischen 1 und 2 K Erwärmung liegen auf regionaler Ebene mitunter substanzielle Risiken vor. Eine Erwärmung oberhalb von 2 K birgt erhöhte Risiken für das Aussterben zahlreicher Tier- und Pflanzenarten, deren Lebensräume nicht länger ihren Anforderungen entsprechen. Bei über 2 K Temperaturanstieg droht der Kollaps von Ökosystemen und signifikante Auswirkungen auf Wasser sowie Nahrungsmittelvorräte durch Ernteausfall. Sprunghafte Veränderungen. Obwohl die Erwärmung der Erde durch einen kontinuierlich stattfindenden Energiezustrom verursacht wird, zeigen sich die Folgen dieses Erwärmungsprozesses nicht in kontinuierlichen Effekten, sondern meist in abrupten Ereignissen. Abrupte Veränderungen durch den Klimawandel. Wie in vielen anderen Bereichen, so führt auch der menschengemachte Klimawandel zu einer Reihe von plötzlich auftretenden Veränderungen, die oft unvorhergesehen eintreten. Beispiele sind: Plötzliches Aussterben einer Art, die - womöglich durch andere Umweltfaktoren vorbelastet - durch ein klimatisches Extremereignis eliminiert wird. Ein anderes Beispiel ist die Wirkung steigender Meeresspiegel. Diese führen nicht unmittelbar zu Überschwemmungen, sondern erst, wenn im Rahmen von z. B. Sturmfluten ein vormals ausreichender Damm überschwemmt wird. Und auch der Meeresspiegelanstieg kann sich durch nichtlineare Effekte in sehr kurzer Zeit rasch beschleunigen, wie dies in der Klimageschichte beispielsweise beim Schmelzwasserpuls 1A der Fall war. Abrupte Klimawechsel. Untersuchungen von klimatischen Veränderungen in der Erdgeschichte zeigen, dass Klimawandel in der Vergangenheit nicht nur graduell und langsam abliefen, sondern bisweilen auch sehr rasch. Die Durchschnittstemperaturen veränderten sich bei diesen plötzlichen Klimaveränderungen mit einer Geschwindigkeit, die regional 10 K in 10 Jahren erreichen konnte. Nach heutigem Kenntnisstand erscheint es wahrscheinlich, dass diese schnellen Sprünge im Klimasystem auch künftig stattfinden werden, wenn bestimmte Kipppunkte überschritten werden. Das gegenwärtige Verständnis der zugrunde liegenden Prozesse reicht jedoch nicht aus, diese Ereignisse vorherzusagen. Sollte es in den kommenden Jahren oder Jahrzehnten dazu kommen, wird dies somit unerwartet und überraschend erfolgen. Friedens- und Weltordnung, Politik. Das Weltwirtschaftsforum Davos stuft in seinem Bericht „Global Risks 2013“ den Klimawandel als eines der wichtigsten globalen Risiken ein: Das Wechselspiel zwischen der Belastung der wirtschaftlichen und ökologischen Systeme werde unvorhersehbare Herausforderungen für globale und nationale Widerstandsfähigkeiten darstellen. Verschiedene Militärstrategen und Sicherheitsexperten befürchten geopolitische Verwerfungen infolge von Klimaveränderungen, die sicherheitspolitische Risiken für die Stabilität der Weltordnung und den „Weltfrieden“ bergen, auch der UN-Sicherheitsrat fasste 2011 auf Initiative Deutschlands eine entsprechende Resolution. Der amtierende deutsche Außenminister Frank-Walter Steinmeier bewertete im April 2015 nach Erscheinen einer zum „G7“-Außenminister-Treffen in Lübeck verfassten europäischen Studie den Klimawandel ebenfalls als „eine wachsende Herausforderung für Frieden und Stabilität“. Die Studie empfiehlt u. a. die Einrichtung einer G7-Taskforce. Wirtschaft. Die wirtschaftlichen Folgen der globalen Klimaerwärmung sind nach gegenwärtigen Schätzungen beträchtlich: Das Deutsche Institut für Wirtschaftsforschung schätzt, dass ohne zügig umgesetzten Klimaschutz der Klimawandel bis zum Jahr 2050 bis zu 200.000 Milliarden US-Dollar volkswirtschaftliche Kosten verursachen könnte (wobei diese Schätzung mit großen Unsicherheiten behaftet ist); Technische und individuelle Möglichkeiten. Politische Vorgaben zum Klimaschutz müssen durch entsprechende Maßnahmen umgesetzt werden. Auf der technischen Seite existiert eine Vielzahl von Optionen zur Verminderung von Treibhausgasemissionen. So ließe sich theoretisch auch mit heutigen Mitteln ein effektiver Klimaschutz realisieren. Anpassungsstrategien. Anpassungsmaßnahmen an die globale Erwärmung beziehen sich auf bereits eingetretene bzw. künftig zu erwartende Klimaänderungen. Die damit verbundenen Schäden sollen so weit wie möglich gemindert und verträglich gestaltet werden. Andererseits wird die Nutzung regional positiver Folgemöglichkeiten des Klimawandels geprüft. Die Anpassungsfähigkeit variiert in Abhängigkeit von verschiedensten Parametern, darunter der Kenntnisstand zur örtlichen Klimaveränderung, der Entwicklungsstand und die ökonomische Leistungsfähigkeit eines Landes oder einer Gesellschaft. Insgesamt wird die Fähigkeit zur Anpassung stark durch die Vulnerabilität geprägt, speziell in sozio-ökonomischer Hinsicht. Der IPCC zählt zu den Ländern und Regionen mit besonders hoher Vulnerabilität die am wenigsten fortgeschrittenen Entwicklungsländer. Die Palette potenzieller Anpassungsmaßnahmen reicht von rein technologischen Maßnahmen (z. B. Küstenschutz) über Verhaltensänderungen (z. B. Ernährungsverhalten, Wahl der Urlaubsziele) und betriebswirtschaftlichen Entscheidungen (z. B. veränderte Landbewirtschaftung) bis zu politischen Entscheidungen (z. B. Planungsvorschriften, Emissionsminderungsziele). Angesichts der Tatsache, dass der Klimawandel sich auf viele Sektoren einer Volkswirtschaft auswirkt, ist die Integration von Anpassung z. B. in nationale Entwicklungspläne, Armutsbekämpfungsstrategien oder sektorale Planungsprozesse eine zentrale Herausforderung. Viele Staaten haben daher Anpassungsstrategien entwickelt. In Deutschland wurde beispielsweise 2008 die Deutsche Anpassungsstrategie an den Klimawandel verabschiedet und im Jahr 2011 mit dem Aktionsplan Anpassung mit konkreten Maßnahmen unterlegt. Zurzeit wird ein Fortschrittsbericht zur Deutschen Anpassungsstrategie erarbeitet, der u. a. die Umsetzung der Strategie evaluiert und einen Aktionsplan II enthalten wird. In Österreich wurde die nationale Anpassungsstrategie an den Klimawandel seit September 2007 im Auftrag des Lebensministeriums erarbeitet und am 23. Oktober 2012 vom Ministerrat verabschiedet. Am 16. April 2013 wurde von der EU Kommission eine EU-Strategie zur Anpassung an den Klimawandel vorgestellt. Bis zu diesem Datum hatten 15 EU-Mitgliedsstaaten eine eigene Anpassungsstrategie erarbeitet. In der im Jahr 1992 verabschiedeten Klimarahmenkonvention (UNFCCC), die mittlerweile von 192 Staaten ratifiziert worden ist, spielte das Thema Anpassung noch kaum eine Rolle gegenüber der Vermeidung eines gefährlichen Klimawandels (Artikel 2 der UNFCCC). Für das Kyoto-Protokoll, das 1997 vereinbart wurde und 2005 in Kraft trat, gilt das zwar ähnlich, doch wurde dort grundsätzlich der Beschluss zur Einrichtung eines speziellen UN-Anpassungsfonds („Adaptation Fund“) gefasst, um die besonders betroffenen Entwicklungsländer bei der Finanzierung von Anpassungsmaßnahmen zu unterstützen. Dazu soll auch der Green Climate Fund der Vereinten Nationen beitragen, der während der Klimakonferenz 2010 in Cancún eingerichtet wurde. Für den Fonds stellen Industrienationen Gelder bereit, damit sich Entwicklungsländer besser an den Klimawandel anpassen können. Spätestens mit dem 3. Sachstandsbericht des IPCC, der 2001 veröffentlicht wurde, hat das Verständnis für die Notwendigkeit von Anpassungsstrategien zugenommen. Betreffs der wissenschaftlichen Unterstützung für Regierungen war insbesondere das im Jahr 2006 beschlossene Nairobi-Arbeitsprogramm zu Adaptation und Vulnerabilität ein wichtiger Schritt. Der Bali-Aktionsplan (Fahrplan von Bali) von 2007 behandelte Anpassung erstmals gleichgewichtig mit der Vermeidung von Emissionen, und diente als Rahmen für die anschließenden Verhandlungen zu einem neuen, umfassenden internationalen Klimaabkommen. Die globale Erwärmung in Film, Literatur und Kunst. Die globale Erwärmung ist zunehmend auch ein Thema in Kunst, Literatur und Film. Dargestellt wird das Thema zum Beispiel in den Katastrophenfilmen ', ' oder "Welt in Angst". Zudem gibt es verschiedene Dokumentarfilme zu dem Thema. "Eine unbequeme Wahrheit" gilt mit als Kernbotschaft von Nobelpreisträger Al Gore zum Klimawandel. Dokumentarischen Anspruch und teilweise polemische Inhalte hat der britische Film '. Auch der schwedische Dokumentarfilm "Unser Planet" befasst sich unter anderem mit dem Klimawandel und beinhaltet Interviews mit verschiedenen Klimaforschern. Der US-amerikanische Dokumentarfilm "Chasing Ice" hat den Gletscherschwund als Folge der globalen Erwärmung zum Inhalt, und porträtiert das "Extreme Ice Survey"-Projekt des Naturfotografen James Balog. Literarisch wird das Thema u. a. in den 2010 erschienenen Romanen des britischen Schriftstellers Ian McEwan („Solar“) oder des Autorengespanns Ann-Monika Pleitgen und Ilja Bohnet („Kein Durchkommen“) verarbeitet; zur Bewältigung des Klimawandels ist 2013 auch der Comic "Die Große Transformation. Klima – Kriegen wir die Kurve?" erschienen. "Cape Farewell" ist ein internationales gemeinnütziges Projekt des britischen Künstlers David Buckland. Ziel ist die Zusammenarbeit von Künstlern, Wissenschaftlern und „Kommunikatoren“ (u. a. Medienvertreter) zum Thema Klimawandel. Im Rahmen des Projekts wurden verschiedene Expeditionen zur Arktis und in die Anden durchgeführt, die u. a. filmisch, fotografisch, literarisch und musikalisch verarbeitet wurden (u. a. in den Filmen "Art from the Arctic" und "Burning Ice"). Gene Hackman. Gene Hackman (* 30. Januar 1930 in San Bernardino, Kalifornien, USA, als "Eugene Allen Hackman") ist ein ehemaliger Schauspieler und mehrfacher Golden-Globe- sowie zweifacher Oscar-Preisträger. Hackman zählte zu den führenden amerikanischen Charakterdarstellern und erlangte unter anderem 1971 mit der Rolle des unkonventionellen Drogenfahnders "Jimmy „Popeye“ Doyle" in "French Connection – Brennpunkt Brooklyn" große Bekanntheit. Leben. Hackman wuchs bei seiner Großmutter in Danville, Illinois auf. Seine Eltern ließen sich scheiden, als er noch ein Kind war. Seine Schulbildung brach Hackman 1947 ab und trat – trotz seiner Minderjährigkeit – dem Militär bei. Beim Marine Corps diente er mehrere Jahre lang als Funker. Nach seiner Entlassung studierte Hackman in New York Journalismus und arbeitete bei zahlreichen Rundfunkstationen im ganzen Land. Anfang der 1950er Jahre wollte er Schauspieler werden. In Los Angeles besuchte er die "Playhouse Acting School" und gab in "The Curious Miss Caraway" sein Bühnendebüt. Er brach die Ausbildung dort nach drei Monaten ab. Zurück in New York teilte sich Hackman eine Ein-Zimmer-Wohnung mit seinen früheren Kommilitonen Dustin Hoffman und Robert Duvall, mit denen er auch später befreundet blieb. Alle drei Schauspieler lebten jahrelang in sehr bescheidenen Verhältnissen. Erst in den späten 1960er und frühen 1970er Jahren gelangen Hackman, Duvall und Hoffman der Durchbruch in Hollywood. Nach mehreren Auftritten am Broadway (u. a. in "Any Wednesday") und im Fernsehen "(The United States Steel Hour)" spielte er 1961 in seinem ersten Kinofilm, "Der Tollwütige", mit. 1964 lernte er bei den Dreharbeiten zu "Lilith" Warren Beatty kennen, der ihm drei Jahre später eine Rolle in dem Verbrecher-Drama "Bonnie und Clyde" verschaffte. Der große Erfolg des Films brachte Hackmans Karriere weiter voran. Für seine Darstellung des Gangsters Buck Barrow wurde er außerdem als Bester Nebendarsteller für einen Oscar nominiert. 1970 erhielt er für seine Rolle in dem Familiendrama "Kein Lied für meinen Vater" erneut eine Nominierung. Gene Hackman war bereits über 40 Jahre alt, als ihm 1971 mit dem New-Hollywood-Klassiker "French Connection – Brennpunkt Brooklyn" der internationale Durchbruch gelang. Der mit einem geringen Budget von 1,8 Millionen Dollar und ohne Stars realisierte Film wurde zu einem großen Kassenerfolg und spielte mehr als 50 Millionen Dollar ein. Hackman (der die Rolle bekommen hatte, nachdem sie von zahlreichen anderen Schauspielern abgelehnt worden war) trat als fanatischer Drogenfahnder „Popeye“ Doyle in Erscheinung und wurde für seine Darstellung mit einem Oscar ausgezeichnet. Hackman hatte sich in Hollywood nun endgültig als einer der führenden Charakterdarsteller etabliert und konnte diesen Status gut drei Jahrzehnte lang halten. Seine Gage stieg im Lauf der 1970er Jahre von 100.000 Dollar "(French Connection)" auf zwei Millionen "(Superman)". Nach "French Connection" folgten Auftritte in "Die Höllenfahrt der Poseidon", "Asphalt-Blüten" mit Al Pacino und "Der Dialog" von Francis Ford Coppola. 1975 spielte er unter der Regie von Arthur Penn in einem der wichtigsten Neo-Noir-Filme, "Die heiße Spur". 1978, 1980 und 1987 spielte er in den "Superman"-Filmen mit Christopher Reeve den Bösewicht und Superman-Gegenspieler Lex Luthor. Für seine Rolle als FBI-Agent Anderson in dem Südstaaten-Drama "Mississippi Burning – Die Wurzel des Hasses" wurde er 1988 abermals für einen Oscar als Bester Hauptdarsteller nominiert. In den späten 1980er und frühen 1990er Jahren schien Hackman bei der Rollenauswahl weniger anspruchsvoll zu sein und spielte, offensichtlich aus rein finanziellen Erwägungen, in zahlreichen Filmen mit, die bei Kritik und Publikum nur wenig Resonanz fanden. Allein zwischen 1988 und 1991 war der Darsteller in elf Filmen zu sehen. Er lehnte das Angebot ab, als Regisseur und Darsteller (des Hannibal Lecter) den Psychothriller Das Schweigen der Lämmer zu realisieren, da ihm der düstere Stoff nicht zusagte. Gene Hackman gelang es ab 1992, seine Karriere durch eine sorgfältige Rollenauswahl wieder zu stabilisieren. Er reduzierte sein Arbeitspensum und drehte in der Regel noch ein bis zwei Filme pro Jahr. Einige seiner größten kommerziellen Erfolge konnte er in den 1990er Jahren feiern. Unter anderem wirkte er in Clint Eastwoods Spätwestern "Erbarmungslos", wofür er einen Oscar als Bester Nebendarsteller erhielt. Darüber hinaus war er in der Grisham-Verfilmung "Die Firma", in dem Western "Schneller als der Tod" und als U-Boot-Kommandant in dem Meuterei-Film "Crimson Tide" zu sehen. In "Der Staatsfeind Nr. 1" nahm er das Rollenprofil eines Abhörspezialisten wieder auf, was als Hommage an die von ihm dargestellte Figur in dem Psychodrama "Der Dialog" gedacht war. In den Filmkomödien "Schnappt Shorty", "The Birdcage – Ein Paradies für schrille Vögel", "Die Royal Tenenbaums" und ' stellte er sein komisches Talent unter Beweis. 2003 stand er in dem Gerichtsdrama "Das Urteil", wieder nach einem Roman von John Grisham, das einzige Mal mit seinem Freund Dustin Hoffman vor der Kamera. Sein bisher letzter Film war die Komödie "Willkommen in Mooseport" (2004) an der Seite von Ray Romano. Bis 2004 wirkte er in über 80 Filmproduktionen mit. Am 7. Juli 2004 gab Hackman in einem Interview mit dem Talkmaster Larry King bekannt, dass er keine weiteren Filmangebote hätte und er davon ausgehe, dass seine Filmkarriere zu Ende sei. Tatsächlich ist Hackman nach 2004 in keinem Film mehr aufgetreten. Gene Hackman betätigte sich neben seiner Schauspielkarriere auch als Schriftsteller. Er schrieb in Zusammenarbeit mit Daniel Lenihan u. a. die Romane "Wake of the Perdido Star", "Payback at Morning Peak" und (dt.) Jacks Rache. Hackman ist seit 1991 mit Betsy Arakawa verheiratet und lebt in Santa Fe, New Mexico. Aus seiner ersten Ehe mit Faye Maltese hat er drei Kinder. Deutsche Synchronstimmen. Seine Synchronsprecher wechselten im Laufe der Jahrzehnte. Am häufigsten wurde Hackman von Horst Niendorf synchronisiert, der ihn zwischen 1971 und 1990 neunzehnmal sprach. Seit 1993 lieh ihm Klaus Sonnenschein elfmal seine Stimme. Hackman wurde außerdem von Hartmut Neugebauer, Engelbert von Nordhausen, Rolf Schult, Michael Chevalier oder Wolfgang Kieling synchronisiert. Gwyneth Paltrow. Gwyneth Katherine Paltrow (* 27. September 1972 in Los Angeles, Kalifornien) ist eine US-amerikanische Schauspielerin und Sängerin. Sie ist Golden-Globe- sowie Oscar-Preisträgerin. Leben und Karriere. Paltrow wurde als Tochter des Regisseurs und Fernsehproduzenten Bruce Paltrow und der Schauspielerin Blythe Danner geboren. Ihr Vater war polnisch-jüdischer und weißrussisch-jüdischer Herkunft, während ihre Mutter eine Quäkerin der Pennsylvania Dutch mit entfernteren englischen Vorfahren aus Barbados ist. Paltrows Ururgroßvater väterlicherseits hieß ursprünglich Paltrowicz und war ein Rabbi in Nowogród (Polen). Sie hat einen Bruder namens Jake Paltrow, der ebenfalls in der Filmbranche tätig ist, sowie eine Cousine namens Katherine Sian Moennig, ebenfalls Schauspielerin. Als Paltrow 15 Jahre alt war, verbrachte sie ein Jahr in Spanien. Seitdem spricht sie fließend Spanisch, am 12. April 2003 wurde sie zur Ehrenbürgerin ihrer Austauschstadt Talavera de la Reina ernannt. Sie absolvierte die High School und besuchte anschließend die University of California, Santa Barbara, wo sie Kunstgeschichte studierte. Sie brach das Studium ab und widmete sich der Schauspielerei; sie hatte ihr Talent schon früher bewiesen, als sie zusammen mit ihrer Mutter in Theaterstücken mitwirkte. 1990 gab Paltrow ihr professionelles Theaterdebüt. Ihre erste Filmrolle spielte sie in "Shout" (1991) an der Seite von John Travolta. Im selben Jahr spielte sie unter der Regie ihres Patenonkels Steven Spielberg die junge Wendy in dem Fantasyfilm "Hook". Kleinere Rollen hatte sie in den Thrillern "Flesh And Bone – Ein blutiges Erbe" (1993) und "Malice – Eine Intrige" (1993) mit Nicole Kidman. Größere Bekanntheit erlangte sie 1995 an der Seite von Brad Pitt und Morgan Freeman mit einer Nebenrolle in dem Film "Sieben", der ein internationaler Kinoerfolg war und Paltrow eine Nominierung für den Satellite Award einbrachte. 1996 spielte sie die Titelrolle in der Verfilmung von Jane Austens "Emma", wofür sie positive Kritiken erhielt. 1997 war Paltrow im Gespräch für die Rolle der Rose in dem Drama "Titanic" von James Cameron, die dann aber mit Kate Winslet besetzt wurde. 1998 gelang Paltrow der internationale Durchbruch mit der Hauptrolle der Viola De Lesseps in der Liebeskomödie "Shakespeare in Love", in der sie die fiktive Freundin von William Shakespeare (Joseph Fiennes) spielte. Der Film war bei Kritikern wie beim Kinopublikum ein Erfolg, und Paltrow wurde für ihre Darbietung mit zahlreichen Filmpreisen ausgezeichnet. Sie erhielt unter anderem den Oscar als "Beste Hauptdarstellerin", einen Golden Globe als "Beste Hauptdarstellerin – Musical oder Komödie" und den Screen Actors Guild Award für die "Beste weibliche Hauptrolle". 1999 war sie an der Seite von Jude Law, Matt Damon und Cate Blanchett in dem Drama "Der talentierte Mr. Ripley" zu sehen. 2000 spielte sie neben Ben Affleck in dem Liebesfilm "Bounce – Eine Chance für die Liebe". 2001 war sie als Margot Tenenbaum in dem Ensemblefilm "Die Royal Tenenbaums" zu sehen und in der Hauptrolle der Komödie "Schwer verliebt" an der Seite von Jack Black, wofür sie teilweise einen Fettanzug tragen musste. Sie spielte auch die Hauptrolle in der erfolglosen Komödie "Flight Girls" (2003), für die sie 10 Millionen US-Dollar Gage erhielt und war neben Angelina Jolie in "Sky Captain and the World of Tomorrow" (2004) zu sehen. 2006 erhielt Paltrow für das Drama "Der Beweis – Liebe zwischen Genie und Wahnsinn" (2005) erneut eine Nominierung für den Golden Globe. 2007 spielte sie die Hauptrolle in "The Good Night" unter der Regie ihres Bruders Jake. Das US-amerikanische Forbes Magazine zählte sie 2008 zu den bestbezahlten Schauspielerinnen Hollywoods. Zwischen Juni 2007 und Juni 2008 erhielt sie Gagen in Höhe von 25 Mio. US-Dollar, womit sie zusammen mit Reese Witherspoon hinter Cameron Diaz, Keira Knightley und Jennifer Aniston auf Platz vier rangierte. 2008 trat sie als Pepper Potts in dem Actionfilm "Iron Man" mit Robert Downey Jr. auf. Der Film spielte weltweit über 500 Millionen US-Dollar ein und Paltrow wurde für einen Teen Choice Award in der Kategorie "Choice Movie Actress" nominiert. Wegen des großen Erfolges zog der Film die Fortsetzung "Iron Man 2" nach sich, in dem sie ihre Rolle wiederholte und erneut für einen Teen Choice Award und eine Scream Award als "Beste Action-Darstellerin" nominiert war. Am 13. Dezember 2010 wurde Paltrow mit einem Stern (Nr. 2427) auf dem Walk of Fame in Hollywood geehrt. Im März 2011 erreichte sie mit dem Lied "Do You Wanna Touch Me? (Oh Yeah!)", einer Coverversion des gleichnamigen Songs von Gary Glitter (1973), Platz 1 der australischen Charts. Im selben Jahr erhielt sie für ihren Gastauftritt als Holly Holliday in der US-amerikanischen Fernsehserie "Glee" einen Emmy. Paltrows deutsche Standard-Synchronsprecherin ist Katrin Fröhlich. Persönliches. Nach Beziehungen mit Brad Pitt (von 1995 bis 1997 verlobt) und Ben Affleck (von 1998 bis 2000 liiert) heiratete Paltrow am 5. Dezember 2003 in Kalifornien Chris Martin, den Sänger der britischen Band Coldplay. Am 14. Mai 2004 wurde die gemeinsame Tochter geboren. Am 9. April 2006 brachte Paltrow in New York ihr zweites Kind zur Welt. Paltrow und ihr Mann waren früher Vegetarier. In ihrem Goop-Newsletter vom 4. Februar 2010 schrieb sie jedoch unter der Überschrift „Meatless Monday“: „I am not a Vegetarian“ (dt.: „Ich bin keine Vegetarierin“). Diese Aussage wurde 2011 in einem mit ihr gedrehten Werbefilm der Supermarktkette Spar verwendet. Am 25. März 2014 gab Paltrow auf ihrer Internetseite mit ihrem Ehemann Chris Martin zusammen die Trennung bekannt. Im Jahr 2014 konvertierte sie zum Judentum. Auszeichnungen und Nominierungen (Auswahl). Bambi British Academy Film Award Blockbuster Entertainment Award Golden Globe Goldene Kamera Independent Spirit Award MTV Movie Award Satellite Award Screen Actors Guild Award Teen Choice Award George W. Bush. George Walker Bush, meist abgekürzt George W. Bush (* 6. Juli 1946 in New Haven, Connecticut), ist ein US-amerikanischer Politiker der Republikanischen Partei und war von 2001 bis 2009 der 43. Präsident der Vereinigten Staaten. Nach Unternehmertätigkeit in der Ölindustrie bekleidete er von 1995 bis 2000 das Amt des Gouverneurs von Texas. Bei der US-Präsidentschaftswahl 2000 gewann er gegen den Demokraten und damals amtierenden Vizepräsidenten Al Gore und wurde 2004 wiedergewählt. Als Reaktion auf die Terroranschläge am 11. September 2001 leitete Bush einen „Krieg gegen den Terror“ ein, darunter den Afghanistan- und Irakkrieg; die Einschränkung von Bürgerrechten (USA PATRIOT Act) und das Aussetzen rechtsstaatlicher Grundsätze in Ermittlungsverfahren (Guantanamo Bay) sorgten für weltweite Kritik. Im Sinne einer neokonservativen Außenpolitik identifizierte Bush eine „Achse des Bösen“ von „Schurkenstaaten“, gegen die die Vereinigten Staaten als hegemoniale Weltmacht das westliche, wirtschaftlich und politisch liberale Modell ausbreiten sollten bis hin zu einem militärischen Interventionsrecht (Bush-Doktrin). Bush steigerte die Militärausgaben und das Staatsdefizit erheblich; seine innenpolitische Ausgangsidee des „mitfühlenden Konservatismus“ sorgte für Initiativen wie die No-Child-Left-Behind-Politik, während er mit Steuersenkungen und Deregulierungsmaßnahmen eine angebotsorientierte Wirtschaftspolitik verfolgte. Bushs Ansehen sank nach hohen Kriegsverlusten, dem Hurrikan Katrina und der Finanzkrise ab 2007. Bush ist Angehöriger einer wohlhabenden und einflussreichen Familie. Sein Großvater war der Unternehmer und Senator Prescott Bush. Sein Vater George H. W. Bush war der 41. US-Präsident. Sein Bruder Jeb Bush war von 1999 bis 2007 Gouverneur von Florida. Sein von Freunden wie Gegnern zuweilen verwendeter Spitzname "Dubya" ist abgeleitet von der in den Südstaaten üblichen verkürzten Aussprache des Buchstabens W (eigentlich "Double U"). Bushs Vorname und sein Mittelname wurden angelehnt an die entsprechenden Namen seines Vaters (George Herbert Walker Bush) und seines Urgroßvaters (George Herbert Walker). Leben. Der als Sohn von Barbara Pierce Bush und George H. W. Bush geborene George W. wuchs zusammen mit seinen vier jüngeren Geschwistern Jeb, Neil, Marvin und Dorothy in Midland und Houston auf. Eine weitere jüngere Schwester, Robin, verstarb 1953 dreijährig an Leukämie. Bush besuchte von 1961 bis 1964 die Phillips Academy, die auch sein Vater besucht hatte. Anschließend studierte er von September 1964 bis Mai 1968 Geschichte an der Yale University, wo er, ebenfalls wie sein Vater, Mitglied der Vereinigung Skull & Bones und des Studentenbundes Delta Kappa Epsilon war. Im Oktober 1965 wurde er dessen Präsident, wie zuvor ebenfalls sein Vater. 1968 schloss er sein Studium an der Yale-Universität als Bachelor in Geschichte ab. Zwischen 1972 und 1975 besuchte George W. Bush die Harvard Business School der Harvard University, wo er den Titel MBA (Master of Business Administration) erwarb. 1977 heiratete er Laura Welch. Ihre Zwillingstöchter Jenna und Barbara wurden am 25. November 1981 geboren. Wehrdienst in der Nationalgarde. Bush verpflichtete sich 1968 für sechs Jahre bei der Nationalgarde. Bei der Air National Guard in Texas wurde er Leutnant, Pilot und Führer einer Staffel F-102 "Delta Daggers". Da die Nationalgarde zu dieser Zeit vorwiegend im Inland eingesetzt wurde, sah sich Bush später mit dem Vorwurf konfrontiert, sich damit einem Einsatz in Vietnam entzogen zu haben und wurde daher "draft dodger" gescholten („ein sich der Einberufung Entziehender“), bei patriotischen Amerikanern alles andere als ein Ehrentitel. Dies war jedoch damals nicht nur unter Politikersöhnen eine durchaus verbreitete Praxis (sein Vater war damals Kongressabgeordneter im Repräsentantenhaus). Der Verdacht, Bush habe außerdem seine sich aus dem Dienst in der Nationalgarde ergebenden Pflichten nicht gewissenhaft erfüllt, sprach deshalb starke politische Empfindlichkeiten an. Auf Druck der Öffentlichkeit ließ er daher im Februar 2004 die Akten über diese Zeit für Untersuchungen freigeben. Unternehmertätigkeit. Seine Unternehmertätigkeit begann Bush im Jahr 1978 in der Erdölförderindustrie mit der Gründung von "Arbusto Energy" (span. für "Busch"), später in "Bush Exploration" umbenannt. Als Anfang der 1980er-Jahre die Ölpreise einbrachen, geriet das Unternehmen in Schwierigkeiten und musste im Jahr 1984 mit dem Ölunternehmen "Spectrum 7 Energy Corp." fusionieren. Bush wurde Vorsitzender des Unternehmens. Als im Jahr 1986 die Ölpreise erneut einbrachen, wurde es jedoch zahlungsunfähig und von "Harken Energy Corp." aufgekauft. Bush wurde dadurch einer der Direktoren bei Harken. Religiosität und Alkoholprobleme. Die Probleme Bushs im Umgang mit Alkohol wurden im Jahr 1976 aktenkundig. Wegen Trunkenheit am Steuer wurde ihm in Maine befristet der Führerschein entzogen. Zudem musste Bush sich einem strengen Entzug unterziehen. Zehn Jahre später konvertierte er von den Anglikanern zu den Methodisten, um fortan als Wiedergeborener Christ völlig auf Alkohol zu verzichten. Dieser Wechsel seiner Konfession im Jahr 1986 stellt eine einschneidende Veränderung seines Privatlebens dar. Politische Karriere. 1988 war Bush Mitglied des Wahlkampfteams seines Vaters bei dessen schließlich gewonnener Präsidentschaftswahl. Anschließend erwarb er, gemeinsam mit nahen Freunden seines Vaters, das Baseballteam Texas Rangers (sein Anteil betrug 5 %). Er war bis zu seiner Wahl zum Gouverneur von Texas 1994 der "Managing Partner" des Teams. Mit dem Verkauf seines Anteils an den Texas Rangers 1998 verdiente Bush 15 Millionen Dollar. Bush besitzt die "Prairie Chapel Ranch" bei Crawford in Texas, auf der er seine Ferien verbringt und auch Staatsgäste empfing. Er hält sich außerdem oft im Sommersitz seines Vaters "Walker’s Point" bei Kennebunkport in Maine auf, wo auch Staatsgäste empfangen wurden. Gouverneur von Texas. Die texanische Gouverneurswahl am 8. November 1994 konnte Bush mit 53,5 % gegen die demokratische Amtsinhaberin Ann Richards, die 45,9 % erhielt, für sich entscheiden. Sein Wahlkampf wurde – wie alle nachfolgenden – von Karl Rove geplant. Um seine Position auch unter den demokratischen Wählern zu festigen, setzte Bush in seiner ersten Amtszeit auf weitgehende Kooperation mit dem politischen Gegner; so ernannte er einen Demokraten zu seinem Stellvertreter und stärkte diesem den Rücken, indem er sich beispielsweise für Gesetzesvorhaben der gegnerischen Fraktion im texanischen Parlament einsetzte. 1998 wurde er als texanischer Gouverneur mit 68,2 % wiedergewählt, sein Gegenkandidat Garry Mauro kam nur auf 31,2 %. In seiner Amtszeit war Bush ein entschiedener Befürworter der Todesstrafe: Bei 152 zum Tode Verurteilten entschied er sich gegen eine Begnadigung. Dieser Umstand führte bei den Gegnern der Todesstrafe im In- und Ausland wiederholt zu scharfer Kritik. US-Präsidentschaftswahlkampf 2000. Im Jahr 2000 wurde Bush zum Präsidentschaftskandidaten der Republikaner nominiert und trat unter dem Motto vom „mitfühlenden Konservatismus“ ("compassionate conservatism") mit Dick Cheney gegen den Kandidaten der Demokraten und damaligen Vizepräsidenten Al Gore sowie gegen den von den Grünen nominierten (international als Verbraucherschutzanwalt bekannten) Ralph Nader an. Während des Wahlkampfes identifizierte er sich mit den Werten der als "Reagan Revolution" bezeichneten konservativen Wende in Amerika, die vor allem mit dem Ausgang der Präsidentschaftswahl in den Vereinigten Staaten 1980 verbunden ist. Außenpolitisch kritisierte er Clinton und Gore unter anderem für die Interventionen im Balkan, die nicht im nationalen Interesse seien. Andererseits trat er für härtere Positionen gegenüber Irak und Nordkorea sowie eine Erhöhung des Haushaltes des Pentagon ein. Die Wahl wurde ein hartes Kopf-an-Kopf-Rennen zwischen Bush und Gore, so dass der Ausgang schließlich nur noch vom Ergebnis im Bundesstaat Florida abhing. Die dortige Auszählung war jedoch stark umstritten. Die von Al Gore verlangte, von Floridas Staatsgericht eingeleitete Neuauszählung wurde durch ein Urteil des Supreme Court mit der Mehrheit von fünf zu vier Richterstimmen für verfassungswidrig erklärt, weil unordentlich und in den verschiedenen Distrikten des Bundesstaates uneinheitlich organisiert gezählt worden sei. Eine verfassungsgemäße Neuauszählung sei nicht mehr innerhalb der vorgesehenen Frist zu gewährleisten, deshalb sei jede Neuauszählung zu stoppen. Damit wurde die erste Stimmenzählung, bei der Bush knapp geführt hatte, automatisch bestätigt. Bush erhielt zwar etwa 500.000 Wählerstimmen weniger als Gore, konnte aber mit den Wahlmännern Floridas insgesamt mehr Wahlmännerstimmen auf sich vereinigen. Kabinett. Am 20. Januar 2001 wurde Bush vereidigt. Er war nach John Quincy Adams der zweite US-Präsident, dessen Vater ebenfalls US-Präsident gewesen war. Er war der erste Präsident mit einem MBA-Titel. Mit Bush zogen viele Republikaner wieder ins Weiße Haus ein, die schon unter seinem Vater wichtige Ämter innehatten, darunter Dick Cheney als Vizepräsident und Donald Rumsfeld als Verteidigungsminister. Außenminister wurde der frühere Golfkriegsgeneral Colin Powell. Die wichtigsten Berater waren weiterhin Karl Rove und Sicherheitsberaterin Condoleezza Rice. Viele der neuen Mitarbeiter der Bush-Regierung waren vorher Mitglieder der neokonservativen Denkfabrik "Project for the New American Century", etwa Richard Perle, Richard Armitage, Paul Wolfowitz und Lewis Libby. Politik bis 11. September 2001. Wie schon als Gouverneur kündigte Bush anfangs ein möglichst einvernehmliches, zumindest abgestimmtes Handeln mit dem politischen Gegner an. Als Schwerpunkte benannte er unter anderem Rechenschaftspflichten politischer Akteure gegenüber dem Volk, Stärkung des Militärs und Schaffung von Möglichkeiten für Arbeiter, Teile der Sozialversicherungsbeiträge privat zu investieren. Wichtiger Partner bei der Arbeit mit dem Senat wurde für Bush der Demokrat Edward Kennedy. Im Sommer 2001 verloren die Republikaner durch den Wechsel eines republikanischen Senators zu den Demokraten ihre bisherige Mehrheit im Senat. Dies sahen viele Republikaner als Vertrauensbruch, was die parteiübergreifende Zusammenarbeit erschwerte. Wichtigste Gesetzesprojekte vor dem 11. September 2001 waren ein Programm zur massiven Senkung der Steuern und die Reform des Bildungswesens. Beide nahm der US-Kongress an. Im März 2001 wurde der endgültige Ausstieg der USA aus dem Kyoto-Abkommen zur Reduzierung der Treibhausgase verkündet. Dieser Schritt stieß im In- und Ausland auf scharfe Kritik. In der Kontroverse um Ölbohrungen im Arctic National Wildlife Refuge drängte die Regierung Bush auf eine Aufhebung des dort bestehenden Förderverbotes für Erdöl. In der Stammzellenforschung nahm Bush im August 2001 restriktive Positionen ein, auch um den rechten Flügel der Partei zu beruhigen, während er zur Mitte hin mit demokratischen Senatoren den No Child Left Behind Act ausarbeitete. Außenpolitisch baute er zwar nach dem Absturz eines US-Spionageflugzeugs mitsamt der Piloten beim Zwischenfall bei Hainan am 1. April 2001 eine Drohkulisse gegenüber China auf, verfolgte eine militärische Konfrontation aber nicht weiter. Außenpolitik ab 11. September 2001. Die Terroranschläge am 11. September 2001 veränderten die Politik Bushs tiefgreifend. Im Vorfeld hatten US-Nachrichtendienste ihn mehrmals vor Anschlägen der Terrororganisation al-Qaida in den USA gewarnt, zuletzt durch ein Memorandum Richard Clarkes vom 6. August 2001. Am 20. September 2001 machte Bush den Gründer und Anführer al-Qaidas Osama bin Laden für die Anschläge verantwortlich und forderte vom Regime der Taliban ultimativ seine Auslieferung aus Afghanistan binnen 14 Tagen. Dann rief er einen "Krieg gegen den Terrorismus" aus. Mit breiter internationaler Unterstützung, darunter der deutschen Bundesregierung und der Organisation für Islamische Zusammenarbeit, führten die USA und Großbritannien im Rahmen der Operation Enduring Freedom zunächst ab dem 7. Oktober Krieg in Afghanistan, wo al-Qaida ihre Basis hatte. Als Legitimation diente die Resolution 1368 des UN-Sicherheitsrates, welche am 12. September verabschiedet worden war. Ein weiteres Ziel neben der Terrorismusbekämpfung war das islamistische Regime der Taliban zu stürzen. Die Zahl der getöteten Zivilisten in diesem Krieg schätzte die Frankfurter Konferenz der europäischen Exil-Afghanen im Dezember 2001 auf etwa 18.000. Am 15. Juni 2002 hielt Bush eine Rede zum Nahostkonflikt, die neben der Forderung nach einer neuen palästinensischen Führung auch den Grundstein für den späteren gemeinsamen Friedensplan der Vereinigten Staaten, Russlands, der Europäischen Union und der Vereinten Nationen, der sogenannten "Roadmap", enthielt. Dies war sein erstes wahrnehmbares Engagement in dem Konflikt. Im Juli 2002 entschied sich Bush, eine vom US-Kongress bewilligte Finanzhilfe in Höhe von 34 Mio. USD für den Bevölkerungsfonds der Vereinten Nationen (UNFPA) zurückzuhalten, da dieser seiner Meinung nach in der Volksrepublik China Zwangsabtreibungen und -sterilisationen finanziere. Im August 2002 versuchte Bush, den neu errichteten Internationalen Strafgerichtshof zu schwächen. Bilaterale Abkommen mit anderen Staaten sollten Auslieferungen von US-Bürgern nach Den Haag, dem Sitz des Gerichtshofs, verhindern. Der "American Servicemembers' Protection Act" erlaubte dem US-Präsidenten stattdessen, deren gewaltsame Befreiung anzuordnen. Einen Monat später wurde die neue Nationale Sicherheitsstrategie veröffentlicht, die auch als Bush-Doktrin bekannt wurde. Sie ließ explizit Präventivschläge bei Bedrohung der USA durch Massenvernichtungswaffen zu. Auf Initiative von Bush wurde das AIDS Relief Program (PEPFAR) gestartet. Die US-Regierung gab seit 2003 44 Milliarden US$ für den Kampf gegen AIDS, Tuberkulose und Malaria in Afrika aus mit dem Ziel, fünf Millionen Menschen zu retten. Irakkrieg. a> 2003, zu Beginn des Irakkriegs In Folge des 11. September 2001 drängten vor allem Dick Cheney und Paul Wolfowitz den Präsidenten mit später als fehlerhaft erkannten Geheimdienstberichten zu biologischen und Chemiewaffen im Irak, Saddam Hussein endgültig auszuschalten. Mit seiner State of the Union Address am 29. Januar 2002 beginnend sprach Bush bis zum März des Folgejahres 164 Mal öffentlich zum Irak und setzte ihn auf eine Achse des Bösen mit Iran und Nordkorea. In diesen Reden warf er Saddam Hussein stets vor, Massenvernichtungswaffen erlangen zu versuchen, Terrorismus aktiv zu unterstützen, die eigene Bevölkerung zu unterdrücken, auch mit Giftgasangriffen und die Region insgesamt zu destabilisieren. Neben diesen Gründen für eine Invasion des Iraks führte er an, dass eine Demokratisierung des Irak sich positiv auf den ganzen Nahen Osten inklusive Israel und Palästina auswirke. Am 11. Oktober 2002 erreichte er eine breite Zustimmung im Kongress zu einer Invasion des Irak, wobei auch die Demokraten mehrheitlich dafür votierten. Der UN-Sicherheitsrat verabschiedete am 8. November 2002 einstimmig auf amerikanische Initiative die Resolution, welche dem Irak ein letztes Ultimatum stellte, Waffeninspekteuren der Internationalen Atomenergieorganisation unbeschränkten Zugang zu allen Anlagen zu geben. Der Vorwurf wurde schon damals skeptisch aufgenommen und ließ sich später nicht beweisen. Sein stetig wachsender Druck auf den Irak gipfelte schließlich im März 2003 im Irakkrieg mit der Invasion des Iraks durch britische und amerikanische Truppenverbände. Die Truppen des Irak wurden innerhalb weniger Wochen besiegt und das Land besetzt mit dem erklärten Ziel, dort Voraussetzungen für eine demokratische Regierung zu schaffen. Da wegen der starken Opposition im UN-Sicherheitsrat das eigentlich gewünschte ausdrückliche UNO-Mandat nicht zu bekommen war, stützte er sich am Ende lediglich auf eine so genannte "Koalition der Willigen" aus Großbritannien, Spanien, Italien, Polen, Australien und etwa 30 weiteren Staaten. Die Gegner des Irakkrieges, darunter die Regierungen Frankreichs, Russlands, Deutschlands und Österreichs, sahen in einer Fortführung der Waffeninspektionen durch die Internationale Atomenergieorganisation (IAEO) ein angemesseneres, vorläufig ausreichendes Mittel für eine Abrüstung des Irak. Weltweit beteiligten sich im Februar und März 2003 Millionen von Menschen an Antikriegsdemonstrationen der Friedensbewegung, auch in solchen Ländern, deren Regierungen sich hinter Bush gestellt hatten. Unter anderem wurde ihm vorgeworfen, der eigentliche Kriegsgrund seien der wirtschaftspolitische Zugriff auf die irakischen Erdölquellen und geostrategische Interessen der USA. Während der Krieg in Afghanistan im Allgemeinen durch das Recht auf Selbstverteidigung als gedeckt gilt, war die völkerrechtliche Legitimation des Irakkrieges von Anfang an stark umstritten. Im Irak wurden keine Massenvernichtungswaffen gefunden. Auch die Zahl der Terroranschläge mit islamistischem Hintergrund und deren Opferzahlen nahmen nicht ab. Im März 2003 verkündete Bush das Kriegsende ("mission accomplished!"). Doch der Irak blieb ein Unruheherd, in dem sich Anschläge gegen die Besatzungstruppen, gegen andere Ausländer und gegen mit ihnen zusammenarbeitende, aber auch völlig unbeteiligte irakische und arabische Zivilisten häufen. Im Mai 2004 drangen zunehmend Informationen über Praktiken teils systematischer Folter und Misshandlung irakischer Gefangener durch Angehörige amerikanischen Militärs im Bagdader Abu-Ghuraib-Gefängnis an die Öffentlichkeit. Die Folterungen wurden durch Fotos und Videos belegt. Bei den Misshandlungen hatte es auch schon mehrere Todesopfer gegeben. Bald wurden ähnliche Vorfälle auch in anderen von Amerikanern geführten Militärgefängnissen im Irak und in Afghanistan bekannt. Schon zuvor war die Bush-Regierung wegen der Behandlung der Gefangenen im Gefangenenlager Guantanamo in Kuba in die Kritik geraten. Mit dem Bekanntwerden der Vorfälle in Abu Ghuraib weitete sich die Angelegenheit schnell zu einem Skandal aus, der die moralische Glaubwürdigkeit der Bush-Regierung deutlich schwächte. Im Dezember 2008 besuchte Bush den Irak und wurde vom Journalisten Muntazer al-Zaidi mit zwei Schuhen beworfen und verbal beleidigt. Innenpolitik seit 11. September 2001. Der "No Child Left Behind Act" („Kein Kind soll zurückbleiben“), der die Qualität des öffentlichen Schulwesens, jedoch auch den Zugriff des Militärs auf Personalien der Schüler zum Zweck einer Rekrutierung verbessern sollte, trat im Januar 2002 in Kraft. Innenpolitisch konnte sich Bush infolge des allgemeinen Schocks durch die Anschläge zunächst auf eine breite Unterstützung im Kampf gegen den Terrorismus verlassen: Maßnahmen wie strengere Sicherheitskontrollen und Einreisebedingungen und Einschränkungen der Bürgerrechte durch den "Patriot Act I" konnten zügig und praktisch ohne öffentliche Auseinandersetzung verabschiedet werden. George W. Bush konnte in Umfragen die höchsten Zustimmungswerte verzeichnen, die jemals in den Vereinigten Staaten gemessen wurden. Erst später wurde Kritik hauptsächlich an den Plänen zu einem "Patriot Act II" laut. Unter Verweis auf die Terrorismusbekämpfung wurden diverse Institutionen wie der Zoll (CBP und ICE), die Küstenwache und die Katastrophenschutzbehörde Federal Emergency Management Agency in einem neuen "Ministerium für Innere Sicherheit" mit zusammen 180.000 Mitarbeitern zusammengefasst. Im Namen des Ministeriums für Innere Sicherheit unterzeichnete George W. Bush im Mai 2007 die "National Security Presidential Directive 51" (NSPD 51), auch als "Homeland Security Presidential Directive 20" (HSPD 20) bekannt, die im Falle einer nationalen Katastrophe oder Notfalls die Fortdauer der konstitutionellen Regierungsarbeit („Enduring Constitutional Government“) sicherstellen soll, indem der Präsident die Kooperation zwischen der Exekutive, der Legislative, und der Judikative koordiniert. Im März 2002 entschied Präsident Bush, Einfuhrzölle auf Stahlprodukte zu erheben, um amerikanische Firmen vor ausländischer Konkurrenz zu schützen. In der Folge verhängte die Europäische Union, gebilligt von der WTO, Strafzölle gegen die Vereinigten Staaten. Im Jahre 2002 gewann die republikanische Partei die Senatswahlen und konnte, entgegen dem normalen Trend, dass die Regierungspartei in den "Midterm Elections" Stimmen verliert, ihre Mehrheit im Kongress ausbauen. Eine Gesetzesinitiative des Präsidenten, die durch Steuererleichterungen die Konjunktur ankurbeln sollte, gewann im Mai 2003 Gesetzeskraft. Im November 2003 gelang es Präsident Bush, eine Mehrheit für eine umfangreiche Gesundheitsreform mit Einführung staatlicher Zuschüsse für Medikamente im Rahmen der Medicare-Versicherung zu gewinnen. Im Januar 2004 kündigte Präsident Bush an, der Weltraumbehörde NASA Mittel für eine bemannte Station auf dem Mond zur Verfügung zu stellen, die als Bahnhof und Testlabor für spätere Flüge zum Mars dienen soll. Bushs demokratischer Herausforderer in der Wahl 2004, John Kerry, räumte unmittelbar nach der Wahl seine Niederlage ein, wobei sich diesmal Ohio als der am längsten zählende und wahlentscheidende Staat erwies. Bush hatte – aufgrund der für amerikanische Verhältnisse recht hohen Wahlbeteiligung – insgesamt in absoluten Zahlen mehr Stimmen als jeder andere zuvor gewählte amerikanische Präsident auf sich vereinen können. Zum ersten Mal seit 1988 erhielt der Wahlsieger nicht nur die absolute Mehrheit der Wahlmännerstimmen, sondern auch die der abgegebenen Wählerstimmen. Gleichwohl gibt es Kritiker, u. a. den im Kampf um einen Parlamentssitz unterlegenen Demokraten Jeff Fisher, die behaupten, dass nur in Wahlbezirken, in denen elektronische Wahlmaschinen eingesetzt wurden, extreme Abweichungen (Unregelmäßigkeiten) vorgekommen seien (näheres im Hauptartikel zur Präsidentenwahl der Vereinigten Staaten, 2004). Am 8. August 2005 setzte Bush mit seiner Unterschrift den "Energy Policy Act" in Kraft. Als Wesenskern bot dieses Gesetzespaket steuerliche Anreize für fossile Energieträger, um deren Produktion zu fördern. Des Weiteren wurde, um auch die Zustimmung der Demokraten aus dem Mittleren Westen in Senat und Repräsentantenhaus zu erhalten, die Produktion von Biokraftstoff mit nachwachsenden Rohstoffen wie Mais gesetzlich gefördert. Insgesamt wurde der "Energy Policy Act" trotz moderater Umweltschutzmaßnahmen vor allem als ein Gunstbeweis an die Energieindustrie gesehen. Ein US-Bundesgericht in Detroit hat erstmals am 17. August 2006 das umstrittene Abhörprogramm der Regierung für verfassungswidrig erklärt. Die Entscheidung der Richterin in Detroit stellt Beobachtern zufolge einen großen Rückschlag für Bush in dessen Kampf gegen den Terrorismus dar. Bush hatte das Abhörprogramm nach den Anschlägen vom 11. September 2001 unter Ausschluss der Öffentlichkeit genehmigt. Es erlaubt den Behörden, internationale Telefongespräche amerikanischer Bürger mitzuhören und auch E-Mails abzufangen, ohne dafür eine richterliche Genehmigung beantragen zu müssen. Das geheime Programm war 2005 aufgedeckt und daraufhin heftig kritisiert worden. Zweite Amtszeit als Präsident. Im Bushs Kabinett der zweiten Amtsperiode wurde etwa die Hälfte der Minister ausgetauscht. Außenminister Colin Powell, der schon im November seinen Rücktritt erklärt hatte, wurde durch Condoleezza Rice ersetzt. In der Ansprache seiner zweiten Amtseinsetzung im Januar 2005 erklärte Bush, dass es nun die Politik der Vereinigten Staaten wäre, Tyranneien auf der Welt zu beenden, und dass das Überleben der amerikanischen Freiheit von der Freiheit jedes anderen Landes abhänge. Anfang 2005 setzte Bush durch, dass der vormals stellvertretende Verteidigungsminister Paul Wolfowitz Präsident der Weltbank wurde. Am 1. August 2005 bestimmte er per Dekret den UNO-Kritiker John R. Bolton zum neuen UNO-Botschafter der Vereinigten Staaten. (Die Besetzung dieses Postens ist eigentlich zustimmungspflichtig durch den Senat, in der Sommerpause kann der Präsident dies unter bestimmten formalen Voraussetzungen umgehen.) Bolton war von der demokratischen Opposition sowie von Teilen der Republikaner abgelehnt worden. Am 29. August 2005 traf der Hurrikan Katrina auf die amerikanische Südküste und löste eine der verheerendsten Naturkatastrophen in der Geschichte der Vereinigten Staaten aus. Die Stadt New Orleans, die nur mangelhaft auf die Naturkatastrophe vorbereitet war, wurde überflutet. Etwa 1800 Menschen kamen ums Leben und der Sturm richtete Sachschäden im Wert von 81 Milliarden Dollar an. In diesem Zusammenhang erfuhr Bush heftige Kritik an seinem Vorgehen vor und nach der Katastrophe durch die amerikanischen Medien und viele Betroffene. Insbesondere wurde die Notfallplanung kritisiert, da es keine nationalen Evakuierungspläne gab und Bush eine Kongressstudie für den Schutz von Städten vor Hurrikanen der Stärke 5 auf Eis gelegt hatte. Die Haushaltsmittel für Katastrophenschutz und Innere Sicherheit wurden stattdessen teilweise für den Irakkrieg genutzt. Ebenso wurde ihm vorgeworfen, rechtzeitige Mahnungen zur Verstärkung der Deiche missachtet zu haben: Bush hatte den Chef der für den Deichbau zuständigen Behörde 2002 entlassen, nachdem dieser dem Kongress Pläne für ein 188 Millionen Dollar teures Flutungsprojekt am unteren Mississippi vorgelegt hatte. In Interviews Anfang September behauptete Bush hingegen: "Niemand konnte den Bruch der Deiche voraussehen." US-Präsident George W. Bush hat 2006 eine Gruppe von zehn Inseln und acht Atollen im Nordwesten von Hawaii zum größten Meeresschutzgebiet der Welt erklärt. Die Inselgruppe sei Heimat eines sehr seltenen und faszinierenden Meereslebens. Die unbewohnten Inseln erstrecken sich über eine Länge von 2250 Kilometern. Die Fläche entspricht ungefähr der von Deutschland. Zum Meeresschutzgebiet gehört auch das mit rund 11 700 Quadratkilometern größte, abgeschieden liegende Korallenriff-System der Welt. Außerdem legen in dem Gebiet 90 Prozent der gefährdeten Grünen Meeresschildkröten von Hawaii ihre Eier ab. Das Reservat löst das australische Great Barrier Reef als größtes maritimes Schutzgebiet der Welt ab. Zu Bushs bedeutenderen innenpolitischen Erfolgen in der zweiten Amtszeit gehören die Neubesetzungen zweier Sitze am mächtigen "Supreme Court". Am 5. September 2005 nominierte er John G. Roberts junior zum Nachfolger als Chief Justice für den verstorbenen William H. Rehnquist. Nach dessen Bestätigung durch den Senat nominierte Bush am 3. Oktober 2005 seine Rechtsberaterin Harriet Miers als Nachfolgerin der zurückgetretenen Sandra Day O’Connor als Richterin am Obersten Gerichtshof der Vereinigten Staaten, zog dies aber nach außergewöhnlich starker Kritik aus allen politischen Lagern am 27. Oktober 2005 auf Miers’ Bitte hin zurück und nominierte stattdessen Samuel Alito, der am 31. Januar 2006 mit knapper Mehrheit vom Senat bestätigt wurde. Ebenfalls im Oktober spitzte sich die sogenannte Plame-Affäre zu, bei der hochrangige Mitglieder der Bush-Regierung beschuldigt wurden, die Identität der CIA-Agentin und Frau des Bush-kritischen Diplomaten Joseph Wilson, Valery Plame an die Presse weitergegeben zu haben. Lewis Libby, Stabschef von Vizepräsident Dick Cheney, wurde unter anderem wegen Meineids und Behinderung der Justiz verhaftet. Weitere Beschuldigte sind Dick Cheney und Karl Rove, einer der wichtigsten Berater Bushs. Im April 2006 wurden dessen Aufgabenbereich als Berater verändert und ihm die Planung des Wahlkampfes der Kongresswahlen im November übertragen. In der seit 2006 in den Vereinigten Staaten heftig geführten Debatte um das Aufenthaltsrecht illegalisierter (hispanischer, zumeist mexikanischer) Einwanderer nimmt Bush eine eher liberale Haltung ein und befürwortet erleichterte Aufenthaltsbedingungen für bereits im Inland befindliche Einwanderer, überwiegend mit dem Hinweis, dass die Vereinigten Staaten ein traditionelles Einwanderungsland sind. Seine liberale Haltung in dieser Diskussion wird dabei von den Medien oft mit seiner Herkunft aus Texas, dem am stärksten mexikanisch geprägten Bundesstaat, in Zusammenhang gebracht. Bei neokonservativen Kreisen seiner Partei stößt diese Haltung auf bisweilen harsche Kritik. Gleichwohl unterzeichnet George W. Bush Ende Oktober 2006 ein Gesetz zum Ausbau der Grenze zu Mexiko, was von der mexikanischen Regierung massiv kritisiert wird. George W. Bush war seit Jimmy Carter im Jahr 1979 der erste amerikanische Präsident, der Österreich besuchte; Bushs Besuch am 20. und 21. Juni 2006 führte ihn mit dem damals amtierenden EU-Ratspräsidenten und österreichischen Bundeskanzler Wolfgang Schüssel und mit Bundespräsident Heinz Fischer zusammen. Bei den Midterm-Elections 2006 erlitten die Republikaner unter Bush eine Niederlage und verloren sowohl die Mehrheit im Repräsentantenhaus als auch die Mehrheit im Senat. Das bestimmende Thema der Wahlen war der Irakkrieg. Nach der Wahl gab Bush den schon länger geplanten Rücktritt des Verteidigungsministers Rumsfeld bekannt und ernannte den CIA-Mann Robert Gates zu dessen Nachfolger. Im Sommer 2007 zogen sich mehrere hochrangige Mitarbeiter der Bush-Regierung zurück. Pressesprecher Tony Snow aus persönlichen Gründen, Karl Rove und der Justizminister Alberto R. Gonzales jedoch nach einer Affäre um die Entlassung zahlreicher Bundesanwälte, möglicherweise aus politischen Gründen. Im März 2008 legte Bush sein Veto gegen ein Gesetz ein, welches unter anderem die Anwendung der als Waterboarding bekannten Foltermethode durch die CIA verhindern sollte. Bush erklärte, dass die auf solche Weise erzielten Erfolge diese Art von Folter rechtfertigten. Gegen die Anwendung der Methode hatten sich zuvor auch ranghohe Militärs der Vereinigten Staaten gewandt. Am 16. April 2008 feierte der Präsident zusammen mit Papst Benedikt XVI., der im Rahmen einer apostolischen Reise die Vereinigten Staaten besuchte, dessen 81. Geburtstag zusammen mit 9000 Gästen im Weißen Haus. Am 28. Juli 2008 stimmte er, als erster Präsident seit 51 Jahren, der Todesstrafe für einen verurteilten amerikanischen Militärangehörigen zu. Die letzten Monate von Bushs Amtszeit wurden durch die internationale Finanzkrise überschattet, als viele Banken des Landes entweder in eine Schieflage gerieten oder sogar Konkurs anmelden mussten. Durch Bushs geschwächte Position im Kongress musste er bei dem ersten Rettungspaket nicht nur um die Zustimmung der Demokraten, sondern auch bei seinen eigenen Parteifreunden um Billigung werben, die sich zunehmend wegen seiner Unpopularität von ihm distanzierten. Am 29. September 2008 scheiterte tatsächlich ein von Bush eingebrachtes Paket im Kongress, nicht zuletzt weil ihm auch einige Parteifreunde die Gefolgschaft versagten. Irak. Ein bestimmendes Thema der zweiten Amtszeit Bushs blieb der Irak, in dem 130.000 amerikanische und 20.000 britische Soldaten stationiert sind. Eine irakische Übergangsverfassung wurde verabschiedet, deren Ziel es war, einen demokratischen Bundesstaat zu bilden, in dem Kurden, Sunniten und Schiiten gemeinsam leben könnten. Anfang Januar 2005 wurde von den Irakern eine Übergangsregierung gewählt und im Oktober über eine neue Verfassung abgestimmt. Seit dem offiziellen Ende der Kampfhandlungen kam es im Irak zu ständigen terroristischen Angriffen und seit 2006 zu bürgerkriegsähnlichen Zuständen mit Kämpfen zwischen Schiiten und Sunniten. Seit Kriegsende sind zehntausende Iraker und über 1000 amerikanische Soldaten gewaltsam ums Leben gekommen. Bushs Politik änderte sich dadurch jedoch nicht. Die demokratische Opposition konnte sich nicht auf einen gemeinsamen Alternativvorschlag einigen, allerdings wuchs in Anbetracht der wachsenden Ausgaben für den Krieg, der getöteten Amerikaner und der dadurch erzwungenen militärischen Handlungsunfähigkeit in anderen Konflikten wie mit Iran oder Nordkorea, die Kritik. Im März 2006 setzte der Kongress die Baker-Kommission ein, eine zehnköpfige Gruppe um den ehemaligen Außenminister James Baker, um eine neue Strategie für den Irak zu erarbeiten. Diese legte im Dezember ihre Vorschläge vor, u. a. einen Abzug aller Kampftruppen aus dem Irak bis 2008. Die demokratische Opposition, die die Midterm Elections gewonnen hatte, forderte danach eine Änderung der Strategie mit Abzug der amerikanischen Truppen. Am 11. Januar 2007 stellte Bush dann seine neue Irak-Strategie vor, die sogenannte „Surge“. Diese ließ die Vorschläge der Kommission und die Forderungen der Opposition unberücksichtigt und hatte die Entsendung von 21.000 weiteren Soldaten zum Inhalt, um die Situation zu befrieden. Ein Abzug sollte sich anschließen, sobald die irakische Regierung alleine in der Lage seien, für Stabilität zu sorgen. Bush und Europa. Das Verhältnis der meisten europäischen Regierungen zur Regierung Bush war, teils infolge des neokonservativen Paradigmas seiner Politik und seines Werdegangs, belastet. Neben der spanischen unter Zapatero und der italienischen unter Romano Prodi galt dies ebenso für die französische Regierung unter Chirac. So haben die Wahlsieger Zapatero und Prodi die Irak-Kontingente ihrer Länder in Ablehnung des Irakkrieges unmittelbar nach ihrem jeweiligen Regierungswechsel aus dem arabischen Land abgezogen. Auch das Verhältnis Bushs zum ehemaligen deutschen Bundeskanzler Gerhard Schröder war wegen dessen ablehnender Haltung zum Irak-Engagement beeinträchtigt, dies galt jedoch nicht für die Beziehungen der Länder untereinander insgesamt. Schröders Nachfolgerin, Bundeskanzlerin Angela Merkel, hat sich erfolgreich um ein besseres Verhältnis bemüht. Gleichwohl stand Mitte 2006 die deutsche Bevölkerung der Person Bush und dessen Regierung mehrheitlich unverändert negativ gegenüber. Im Vergleich zu Bush genießt der vorherige Präsident Clinton heute nach wie vor wesentlich höhere Sympathiewerte in Europa. Kritik und polarisierende Wirkung. Die Politik der amerikanischen Regierung unter George W. Bushs Präsidentschaft führte zu einer starken Polarisierung zwischen Befürwortern und Kritikern. Darüber hinaus werden Persönlichkeit und Eigenschaften der Person George W. Bush von Anhängern und Gegnern meist sehr gegensätzlich eingeschätzt. Während die einen seinen Glauben an Gott und die Führungsrolle der Vereinigten Staaten als Stärken schätzen, weisen die anderen auf seine denkwürdige Biographie, unter anderem mit Hinweis auf seine früheren Alkoholprobleme, seine selbsterklärte „Wiedergeburt“ als Christ und Anti-Alkoholiker und gewisse sprachliche Unsicherheiten (siehe auch "Bushism"). Während eine große Zahl der Mainstream-Medien nach den Attentaten vom 11. September 2001 die Regierungspolitik unterstützte, riefen die umstrittene Wahl im Jahr 2000 und die Verschärfung der unilateralistischen Politik der Vereinigten Staaten nach den Terroranschlägen am 11. September 2001 zahlreiche Kritiker auf den Plan. Der Dokumentarfilmer Michael Moore erlangte dabei mit seinen Büchern "Stupid White Men" und "Volle Deckung, Mr. Bush" sowie mit seinem Film "11" einen beträchtlichen Bekanntheitsgrad als Bush-Kritiker. Der damalige argentinische Präsident Néstor Kirchner sagte, Bush habe in einem Gespräch mit ihm über weltwirtschaftliche Probleme auf seinen Vorschlag der Auflage eines neuen Marshallplans ärgerlich reagiert und geantwortet, das beste Mittel, die Wirtschaft wiederzubeleben, sei der Krieg, und dass die Vereinigten Staaten durch Krieg stärker geworden seien. Bush wurde vom früheren Regierungssprecher Uwe-Karsten Heye als „intellektuell äußerst niederschwellig“ eingeschätzt, wie dieser 2010 in einem Interview erklärte. George W. Bush war der erste amerikanische Präsident, dessen Handeln die Produktion und Veröffentlichung eines großen Kinofilms ("Fahrenheit 9/11"), den Start eines gesamten Rundfunknetzes ("Air America Radio") und die Premiere einer Fernsehserie ("The Al Franken Show") bewirkte, deren gemeinsames Ziel es war, seine Wiederwahl zu verhindern. Bush war außerdem der erste Präsident, der eine Nominierung (am 26. Februar 2005) und anschließend den Filmpreis Goldene Himbeere der "Golden Raspberry Award Foundation" als schlechtester Hauptdarsteller erhalten hat. Natürlich spielte er in "Fahrenheit 9/11" rein technisch gesehen keine Rolle, sondern wurde nur in Archivaufnahmen gezeigt. Es ist anzunehmen, dass die Verleihung des Preises in diesem Fall als politische Stellungnahme der Jury zu betrachten ist. Im Dezember 2004 wählte ihn das Time Magazine zur "Person des Jahres" 2004 „"for sharpening the debate until the choices bled, for reframing reality to match his design, for gambling his fortunes – and ours – on his faith in the power of leadership"“ (frei übersetzt: Für das Zuspitzen der Debatte bis zum Ausbluten von Alternativen, für das Umformen der Wirklichkeit zur Übereinstimmung mit seiner Vorstellung, für das Aufsspielsetzen seines – und unseres – Geschicks aufgrund seines Glaubens in die Kraft der Führerschaft). Das Informationsfreiheitsgesetz ist in den Vereinigten Staaten seit den Terroranschlägen vom 11. September 2001 stark beschnitten worden. Immer mehr Regierungsakten werden mit dem Vermerk „Geheim“ oder einfach „Nur für den Dienstgebrauch“ versehen und damit der Transparenz entzogen. Staatsbesuche Bushs in anderen Ländern führten immer wieder zu Demonstrationen gegen seine Außenpolitik, insbesondere den Irakkrieg und das Internierungslager Guantánamo. So kam es Anfang Juni 2004 bei einer Europareise Bushs anlässlich des 60. Jahrestags der Invasion der Alliierten in der Normandie beim Staatsbesuch in Italien zu massiven Straßenprotesten in Rom gegen Bush. Dort wurde der Präsident auch von Papst Johannes Paul II. zu einer Audienz empfangen. Der Papst, ebenfalls ein entschiedener Gegner des Irakkrieges, kritisierte Bushs Irak-Politik mit ungewohnt deutlichen Worten und forderte ihn zu einer Veränderung seiner entsprechenden Politik auf. Die Regierung Bush hat die Unterdrückung von Umweltberichten vorangetrieben. Auf kritische Berichte über den Klimawandel wurde Einfluss genommen, etwa indem Wissenschaftler zu einer Vermeidung der kritischen Passagen aufgefordert wurden. Auch Kontakte zu Medien wurden reglementiert. Darüber beklagt hatte sich die Hälfte von 300 zu diesem Thema befragten Wissenschaftlern. Im Juni 2006 bezeichnete Bush den Klimawandel jedoch als „ernsthaftes Problem“. Nach der Präsidentschaft. a> und George W. Bush (von links nach rechts) im April 2013 Nach der Amtseinführung von Barack Obama am 20. Januar 2009 kündigte Bush an, sich mit seiner Frau Laura in Preston Hollow in der Nähe von Dallas niederzulassen. Er hat inzwischen seine Memoiren unter dem Titel "Decision Points" verfasst. Sie sind am 9. November 2010 auf englisch erschienen und wurden am gleichen Tag bereits 220.000 mal verkauft. Am 4. Februar 2011 hat Amnesty International bei der Schweizer Bundesanwaltschaft sowie bei der Genfer Staatsanwaltschaft Anzeige wegen des Verstoßes der Anti-Folter-Konvention gegen Bush eingereicht. In seinen Memoiren hatte Bush unter anderem zugegeben, dass er persönlich angeordnet hatte, den mutmaßlichen 9/11-Drahtzieher Chalid Scheich Mohammed dem Waterboarding zu unterziehen. Die Reise nach Genf, welche Bush am 12. Februar 2011 antreten wollte, wurde danach nach offiziellen Angaben wegen angekündigter Proteste abgesagt. Als Bush von seinem Nachfolger Obama telefonisch über die Tötung Osama Bin Ladens am 2. Mai 2011 informiert wurde, bezeichnete er dies als „guten Anruf“; jedoch sei er „nicht außer sich vor Freude“ gewesen. Er lobte die Arbeit der Geheimdienste in dieser Sache. Obamas Einladung zu einem gemeinsamen Auftritt bei der zu diesem Anlass abgehaltenen Feier am Ground Zero lehnte er ab. Bush tritt – wie auch sein Vorgänger Bill Clinton – regelmäßig als Redner auf. Nach Berechnungen des 'Center for Public Integrity' hat er damit seit 2009 mindestens 15 Millionen Dollar verdient. Seit dem Ruhestand ist Bush als Maler tätig und wurde von seiner Kunstlehrerin als erfolgreich beschrieben. Am 25. April 2013 bekam George W. Bush wie auch alle seiner Vorgänger seit Herbert Hoover eine eigene Präsidentenbibliothek in Dallas. An der Eröffnungszeremonie nahmen auch Barack Obama, Bill Clinton und Jimmy Carter sowie sein Vater teil. Bush erklärte dabei: „Der politische Wind weht von rechts oder links, Umfragewerte steigen und fallen, Unterstützer kommen und gehen, aber am Ende zeichnen sich politische Führer durch ihre Überzeugungen aus. Meine tiefste Überzeugung und die Richtschnur meiner Regierung war, dass die USA sich für die Ausweitung der Freiheit einsetzen müssen.“ Aufgrund einer Arterienverstopfung wurde Bush im August 2013 am Herz operiert. Dabei wurde ihm ein Stent eingesetzt. Im November 2014 veröffentlichte Bush eine Biografie über seinen Vater mit dem Titel "41: A Portrait of my father." Im Vorwahlkampf der Republikaner für die Wahl 2016 unterstützt und berät Bush seinen Bruder Jeb; hielt er sich jedoch bislang eher im Hintergrund. Allerdings äußerte er sich im Oktober 2015 öffentlich im Zuge des Wahlkampfes negativ zu dem erkonservativen Rivale seines Bruders Ted Cruz ("I just don't like the guy"; deutsch: „Ich mag den Kerl einfach nicht“) sowie dem in Umfragen führenden Immobilien-Milliardär Donald Trump. Historische Bewertung. Laut Julian E. Zelizer verfolgte die Regierung Bush konstant vier wesentliche Ziele. Erstens setzte Bush die Politik seiner Vorgänger der letzten Jahrzehnte fort, Dienstleistungen, Hochtechnologie und die Erdölproduktion sowie -verarbeitung im Sun Belt zu fördern, um somit auch dem demographischen Wandel zuungunsten des Mittleren Westen und des Nordosten Rechnung zu tragen. Zudem stammte ein bedeutender Teil der Wählerbasis der Republikaner aus dieser Region. Zweitens ging es Bush darum, die Industrie zu deregulieren und zeitgleich die Steuern zu senken. Während der Präsidentschaft gab es daher kaum Initiativen im Bereich Arbeits- und Umweltschutz. Ein weiteres Mittel, das bereits Richard Nixon und Reagan genutzt hatten, war die Besetzung von Behörden mit Leitern, die deren Auftrag politisch ablehnend gegenüberstanden. Steuersenkungen wurden vor allem für die Wohlhabenden und die obere Mittelschicht durchgesetzt. Ein drittes, seit dem Vietnamkrieg von den Konservativen favorisiertes Leitmotiv der Präsidentschaft war, die exekutive Vollmacht in der Sicherheitspolitik mit aller Gewalt zu stärken, insbesondere nach 9-11. Dazu gehörte eine erhebliche Ausdehnung von Geheimdienstoperationen unter diesem Mandat und eine beim Verhör bis zur Folter reichende Verschärfung ihrer Methoden. Die präsidiale Exekutivmacht durch Bush war mitbestimmend beim Nationbuilding nach dem Irakkrieg. Wie auch Reagan und sein eigener Vater sah er andererseits weitgehende und für die USA verlustreiche Kriege wie Vietnam als warnendes Beispiel für die Grenzen eigenen Engagements. Das vierte und am schwersten zu erreichende Ziel war, eine exekutive und legislative Parteienmacht herzustellen, wie dies zuletzt den Demokraten nach der Präsidentschaftswahl in den Vereinigten Staaten 1932 gelungen war. Dazu wurden einerseits dezidiert konservative Positionen eingenommen, um mit der höheren Mobilisierbarkeit dieser Klientel in polarisierenden Fragen knappe Mehrheiten gewinnen zu können, andererseits konnten mit den Reaktionen auf 9-11 oder Initiativen wie dem "No Child Left Behind Act" breite politische Mehrheiten im Sinne des "compassionate conservatism" gewonnen werden. Verfilmung. Der Regisseur Oliver Stone und der Drehbuchautor Stanley Weiser erarbeiteten eine Filmbiografie von Präsident Bush: "W. – Ein missverstandenes Leben" hatte am 17. Oktober 2008 in den Vereinigten Staaten Premiere. George W. Bush wird von Josh Brolin und Laura Bush von Elizabeth Banks gespielt. Gobi. Die Wüste Gobi liegt auf dem Gebiet Chinas und der Mongolei Gobi ("Gow",), früher auch Schamo, ist eine Wüste in Zentralasien und die sechstgrößte Wüste der Erde. Benennung. Die Bezeichnung „Gobi“ ist zweideutig, da sie in China und in der Mongolei nicht für ein konkretes Gebiet verwendet wird. Stattdessen steht das mongolische Wort "Gobi" (chin. "Gēbì", oft auch) für die Landschaftsform der zentralasiatischen Fels- und Geröllwüsten. Die Sandwüsten heißen im Chinesischen "Shamo" (), deshalb wird teilweise auch diese (falsche) Bezeichnung für das Wüstengebiet benutzt. Die Region wird in China auch "hanhai" () genannt. Geographie. Die Definition der Gobi bezüglich ihrer geographischen Lage ist unklar, die doppeldeutige und somit verwirrende Verwendung des Wortes „Gobi“ mag einer der Gründe dafür sein. Der weitesten Definition nach erstreckt sich die Gobi über den gesamten wüstenhaften Bereich Zentralasiens. Das ist der lange Streifen aus Wüsten und Halbwüsten vom Pamir (77° Ost) bis zum Hinggan-Gebirge (116 bis 118° Ost) an der Grenze zur Mandschurei. Im Norden bilden demnach die Gebirge Altai und Changai die Grenze, im Süden die Gebirgsketten des Nan Shan (Altun-Shan- und Qilian-Shan-Gebirge) und des dieser südlich vorgelagerten Kunlun Shan (Prschewalskigebirge- und Marco-Polo-Gebirge), welche den Norden des ebenfalls ariden tibetischen Plateaus formen. Diese Bestimmung schließt das Ordos-Plateau, die Dsungarei und die Taklamakan-Wüste ein; dass diese Wüsten jeweils eigene geologische Becken bilden, zeigt jedoch die Ungenauigkeit dieser Definition auf. Théodore Monod begrenzt die Gobi dagegen streng auf die Steppe im Süden der Mongolei und im Norden der Inneren Mongolei. Im Westen schließen sich nach Monod die Alashan und die Bejschan als eigenständige Wüsten an. Im Nordwesten liegt das Altaigebirge, im Osten die Mandschurei, im Norden geht die Gobi in die mongolischen Steppen und Grasländer über. Durch Winde breitet sich die Gobi weiter aus und ist im Süden stellenweise bereits bis zu 70 Kilometer an Peking herangerückt. Die Gobi ist streng genommen keine echte Wüste, sondern eher eine monotone Halbwüste oder Wüstensteppe. Nur drei Prozent der Fläche sind typische Dünengebiete, in der Mongolei „Els“ genannt. Im Gegensatz zu den typischen Assoziationen mit der Gobi ist der größte Teil mit kahlen Felsen bedeckt. In der Öde finden sich immer wieder Seen, darunter auch Salzseen. Die Wüste Gobi erstreckt sich von Westen nach Osten über 2000 km Länge, die größte Nord-Süd-Ausdehnung beträgt 800 km. Insgesamt bedeckt die Gobi eine Fläche von rund 1,6 Millionen km². Die durchschnittliche Höhe beträgt etwa. Bejschan. Die "Bejschan" (auch "Beishan") ist eine vor allem gebirgige Wüste, sie wird daher manchmal auch als Gebirge eingeordnet. Sie stellt eine Verknüpfung zwischen der Steppe Gobi im Osten und dem Tarimbecken im Westen dar. Monod klassifizierte Bejschan als eigene Wüste, da hier bestimmte Tier- und Pflanzenarten vorkommen, und sie somit ein eigenes Ökosystem bildet. Dazu kommt die eigene geologische Struktur. Abgegrenzt wird das Gebiet im Süden durch das Nanschan-Gebirge, im Norden durch die mongolische Grenze, im Osten durch den Flusslauf des Edsin Gol, dahinter schließt sich die Alashan an. Durch die Wüste verläuft heute eine Schnellstraße als Verbindung von Xinjiang mit dem östlichen China. Alashan. Die "Alashan" (auch "Alaschan", mongolische Schreibweise "Alxa") ist eine Sandwüste südwestlich der Gobi, die in China mit den Teilwüsten-Namen "Tengger" (Tenggeli Shamo) und "Badain Jaran" (Badanjilin Shamo/Badan Jilin Shamo) bezeichnet wird. Sie wird im Süden durch die Verlängerung des Nanschan-Gebirges abgegrenzt, im Südosten durch den Gelben Fluss, im Osten durch das Alxa- bzw. Helan-Shan-Gebirge, nördlich davon wiederum durch den Gelben Fluss. Im Norden reicht sie bis an die mongolische Grenze, im Westen schließt sich die Bejschan an. Die Landschaft hat eine allgemeine Höhe von 1000 bis 1500 m. Im Badain Jaran liegt der Biluthu, der höchste Sandberg der Welt mit 1610 Metern Höhe. Die Namensgebung ist umstritten, da manche Wissenschaftler den Begriff „Alashan-Gobi“ verwenden und sie als Teil der Gobi ansehen. Dabei soll „Gobi“ allerdings für die Form der Fels- und Geröllwüste stehen. Teilweise wird der Begriff "Alashan" selbst vermieden. Stattdessen wird die Region weiter in die Wüsten Badain Jaran und Tengger (mongolisch: „weiter Himmel“) unterteilt. Laut dem Forscher Prschewalski ist die Alashan eine Ebene, die wahrscheinlich einmal das Bett eines großen Sees oder Meeres bildete. Er folgerte dies aus der ebenen Form der Region insgesamt und den Salztonebenen samt Salzseen in den tiefsten Teilen. Insbesondere in der Tengger-Wüste ist über hunderte Kilometer nichts als bloßer Sand zu sehen; daher auch die mongolische Bezeichnung „Tengger“ für weiter Himmel. Es gibt in der Alashan fast keine Oasen. Nahe der angrenzenden Gebirge ist anstelle des gelben Sandes auch Kies zu finden. Im westlichen Teil der Alashan gibt es Dünen, die bis zu 520 m hoch ("Biluthu") sind und somit die höchsten Dünen der Erde darstellen. Von den 140 Salzseen, die zwischen den Dünen zu finden sind, gelten einige den Mongolen als heilig. Daher befinden sich hier auch lamaistische Klöster. Die Einwohner sind heute vor allem Han-Chinesen, Mongolen und Hui. Klima. Das Klima der Gobi ist kontinental, also mit extrem niedrigen Temperaturen im Winter und heißen Sommern. Wegen fehlender Wassermassen und geringer Vegetation sind die Temperaturunterschiede zwischen Tag und Nacht das ganze Jahr über stark schwankend. In den Wintermonaten gibt es Tage, an denen das Thermometer auf unter −65 °C fällt. Obwohl im Südosten Ausläufer des Monsuns die Steppe erreichen, ist das Gebiet mit 30 bis 200 mm Niederschlag pro Jahr durch Trockenheit ausgezeichnet. Besonders die kalten Winter sind gleichzeitig sehr trocken. Im Frühling und frühen Sommer kann es allerdings zu eisigen Sand- und Schneestürmen kommen. Damit ist das Gebiet im Gegensatz zur Taklamakan-Wüste nicht hyperarid. Funde. In der Gobi wurden viele bedeutende Fossilien, darunter auch Versteinerungen, aus unterschiedlichen geologischen Epochen gefunden. Die meisten Funde von Sauriereiern und ganzen Nestern stammen von hier. In vergangenen Abschnitten der Erdgeschichte herrschten andere klimatische Verhältnisse mit üppiger Vegetation, die entsprechend gute Lebensbedingungen für Saurier boten. Geschichte. Die Gobi ist in der Geschichte vor allem als Teil des Mongolischen Reichs bekannt. Außerdem liegen einige wichtige Handelsstädte der Seidenstraße am Südrand der Gobi. Ökologie. In der Wüste Gobi und den umliegenden Regionen sind zahlreiche Tierarten anzutreffen, darunter Wölfe, Dschiggetai, Kropfgazelle, Gerbil und Steppeniltis. Es gibt auch noch einige Schneeleoparden. Die Wüste beherbergt einige an Trockenheit angepasste Sträucher und Gräser. Das Gebiet ist allerdings gegen Beweidung und Fahrzeuge sehr anfällig. Menschliche Einflüsse sind vor allem im östlichen Teil größer, wo auch mehr Regen fällt und sich Viehhaltung lohnt. In der Mongolei wurde das Grasland in letzter Zeit durch den größeren Anteil von Ziegen in den Viehherden zurückgedrängt. Die Ziegen liefern wertvolle Kaschmirwolle, reißen aber im Gegensatz zu Schafen das Gras mit der Wurzel aus. Die qualitativ hochwertige Kaschmirwolle ist ein Hauptexportgut der Mongolei und wird fast zu 100 % von großen chinesischen Textilunternehmen abgenommen. Da diese Produktionssteigerung nicht nachhaltig vorangetrieben wurde, gilt das Ökosystem als extrem gefährdet. Seit die Viehherden in den 1990er Jahren privatisiert wurden, gibt es auch die staatliche Kontrolle der Weideflächen nicht mehr. In der Volksrepublik China stellt Desertifikation ebenfalls ein gravierendes Problem dar, nicht zuletzt, da es in Form von Sandstürmen auch dichter besiedelte Gebiete wie Peking betrifft. In der Inneren Mongolei versucht man, gegen die Überweidung durch großflächige Absperrungen von Weideland und Umsiedlungen vorzugehen. Außerdem werden vor allem entlang von Verkehrslinien breite Schutzpflanzungen (Chinas Grüne Mauer) angelegt, um die Auswirkungen von Sandstürmen zu begrenzen. Gott. Ein Gott (je nach Zusammenhang auch "Göttin, Gottheit") ist innerhalb verschiedener Mythologien, Religionen und Glaubensüberzeugungen sowie in der Metaphysik ein übernatürliches Wesen oder eine höhere Macht. In der Lehrmeinung und Praxis vieler Religionen werden einem Gott oder mehreren Göttern besondere Verehrung zuteil und besondere Eigenschaften zugeschrieben; unter anderem erster Ursprung bzw. Schöpfer oder Gestalter aller Wirklichkeit zu sein. Indogermanischer Ursprung. Der Wortstamm von "Gott" ist sehr alt, nur im germanischen Sprachraum anzutreffen und außerhalb unbekannt. Bezeichnungen sind mittel- und althochdeutsch "got," gotisch "guþ," englisch "god" und schwedisch "gud." Die Germanen verehrten nachweislich durch sprachliche Evidenzen den indogermanisch ererbten urgermanischen Himmelsgott "Tiwaz". Der Name geht zurück auf die indogermanische Form für den „Gott“, *"deiwos". Hierbei handelt es sich um eine bereits urindogermanische Vrddhi-Ableitung zum Wort *"djew-" „Himmel“. Die Personifizierung *"djeus ph2tēr" „Vater Himmel“ findet sich wieder im griechischen "Zeus" ("Zeu páter", Vok. zu, Gen. – neugriechisch, "Dias"), dem römischen "Jupiter" (vom Vokativ *"Dioupater" zum Nominativ "Diēspiter"), dem vedisch-altindischen "Dyaus Pita" und dem illyrischen "(Dei-páturos griech.; "deutsch" himmlischer Vater)". Alle diese Formen können auf das Wort "dyaus" zurückführen, das als „Erscheinung“ oder „Strahlung“ übersetzt wird. Dieses Wort liegt wiederum mit seiner Ableitung *"deiwos" dem altindischen "deva" und dem lateinischen "deus" als Begriffe für Gott zugrunde. Sprachlich verwandt ist althochdeutsch "Ziu" bzw. altnordisch "Tyr". Für die Herkunft des germanischen Wortes „Gott“ wird davon ausgegangen, dass der Begriff aus dem substantivierten zweiten Partizip des indogermanischen "*ghuto-m" der Verbalwurzel "*gheu-" „(an)rufen“ entstanden ist. Danach wäre "Gott" das (auch durch Zauberwort) angerufene Wesen. Weiter kann es auf die indogermanische Verbalwurzel "*gheu-" „gießen“ zurückgeführt werden, wonach "Gott" als „das, dem (mit) Trankopfer geopfert wird“ zu verstehen wäre. Das griechische "theói" steht ebenfalls etymologisch mit dem Verb "thýein" „opfern“ zusammen, wie das Simplex "theós" (Gott) durch Entsprechungen im anatolischen Wortschatzs das Votivobjekt des Altars etymologisch bezeichnet. Das Standardnachschlagewerk, Kluges "Etymologisches Wörterbuch der deutschen Sprache," bestärkt die Vermutung einer Ableitung von „gießen“ oder Trankopfer durch Vergleich zum Avestischen und Altindischen. Wolfgang Meid fügt hierzu an: "„dies ist aber grammatisch unplausibel, denn ‚gegossen‘ wird der Trank, nicht der Gott“." Bedeutungsverschiebung zu christlicher Zeit. Die germanische Bezeichnung *"guda-" „Gott“ war ursprünglich geschlechtlich neutral, ebenso wie andere germanische Bezeichnungen für Götter. Bei der Übertragung auf den christlichen Gott wurde das Wort zur Zeit der arianischen Christianisierung der Goten im 3. bis 4. Jahrhundert im oströmischen Wirkungskreis und in der fränkisch-angelsächsischen römisch-katholischen Mission unter den Merowingern und Karolingern zum Maskulinum. Das Wort blieb im Gotischen als Bezeichnung der heidnischen Götter wegen der christlichen Ablehnung dieser Götter geschlechtslos. Der Übergang vom Neutrum zum Maskulinum vollzog sich im westgermanischen Bereich etwa vom eingehenden 6. Jahrhundert bis zum ausgehenden 8. Jahrhundert. Im skandinavisch-nordgermanischen Bereich hielt sich das Neutrum länger, da dort das Wort für den persönlichen Gott Ase "(óss)" lebendig blieb. Wie die anderen Wörter, beziehungsweise Begriffe für „Gott“ wurde es oft in der Mehrzahl verwendet, um eine nicht näher umschriebene Gruppe göttlicher Wesen zu beschreiben. Aufgrund der Abstammung des Wortes wird davon ausgegangen, dass es die höheren Mächte (Numen) als passive Wesen bezeichnet, die verehrt wurden, und nicht als aktive Wesen, die das irdische Geschehen instand hielten. Andererseits waren andere Wörter für „Gott“ zur Bezeichnung eines aktiven Wesens ebenfalls geschlechtslos. Daraus ergibt sich mit hoher Wahrscheinlichkeit, dass solche Wörter im Plural die Götter als Ganzheit bezeichneten ("tívar," altnordische Pluralform „die Götter“, ursprünglich zu Týr). Viele Geschehnisse waren nicht einem bestimmten „Gott“, sondern ganz allgemein „den Göttern“ zuzuschreiben. Daraus erklärt sich, dass die Singularform des ursprünglichen *"deiwos"-"Teiwaz" nur noch appellativ in Namenskompositen erscheint, beispielsweise bei Odin, der den Beinamen "Fimbultýr" („großer, gewaltiger Gott“) trägt. Neben den einzelnen Göttergestalten, die durch einen eigenen Namen, eigene Mythen und einen festen Kult in den Vordergrund traten und leicht zu erkennen waren, gab es die unabsehbare göttliche Masse, aus der beispielsweise Mythendichter neue Figuren hervorheben konnten. Einen transzendenten Gottesbegriff entwickelten die Germanen nie, oder speziell im Norden erst sehr spät. Erst bei Snorri Sturluson im 13. Jahrhundert ist Odin der "Alfaþir" („Allvater“). In der Übergangszeit der Christianisierung, verbunden mit Formen von Synkretismus wurden Odin, Thor und Balder in den isländisch-nordischen Texten zu allmächtigen oder vollkommenen Göttern erklärt, um der auftauchenden Gestalt Christi entgegentreten zu können. Der begriffliche Gegensatz zwischen „Götter/Gott“ und „Menschen“ (*"teiwoz" – *"gumanez"), den die Germanen von alther kannten, wurde ersetzt durch *"guda" – *"gumanez." Dadurch, dass diese Verbindung stabreimend wirkt, fand sie in diverser Dichtung, insbesondere der altnordischen, Eingang und somit auch Wirkung. Die ehemals geschlechtsneutrale Begrifflichkeit „Gott“ wurde daraufhin im Germanischen männlich, sobald sie den christlichen Gott bezeichnete. So trat infolge der Christianisierung der heute bestehende Bedeutungswandel ein, in dem das Wort umgedeutet und auf den − meist als männlich empfundenen − jüdisch-christlichen Gott JHWH () angewendet wurde. Der Begriff "Gottheit" ist mehrdeutig und kann zum einen als Substanzbegriff im Sinne von „göttliche Natur“ verwendet werden oder das Innere, Passive der Göttlichkeit betonen, zum anderen ausschließlich auf außerchristliche Götter angewandt werden. Letztere Bedeutung ist erst seit der Mitte des 18. Jahrhunderts gebräuchlich. Begriffsbestimmung und -abgrenzung. Die Frage, unter welchen Umständen eine Entität als Gott eingeordnet werden kann, hat bislang in der Religionswissenschaft kaum Beachtung gefunden, zumal die jüdisch-christliche Tradition stets eine implizite Vorlage für den Gottesbegriff lieferte. Dies ist neben der Einschränkung auf einen Kulturraum auch insofern problematisch, als es bereits in diesen Religionen eine Vielzahl unterschiedlicher Gottesvorstellungen gibt. H. P. Owen stellt in der "Encyclopedia of Philosophy" fest, dass es „sehr schwierig und vielleicht unmöglich“ sei, eine Definition von „Gott“ aufzustellen, die alle Verwendungen des Wortes und entsprechender Wörter in anderen Sprachen abdeckt. Die 2. Ausgabe des "Dictionnaire de la langue philosophique" gibt als allgemeine Definition an: „Übernatürliches Wesen, das die Menschen ehren sollen.“ Der christliche Philosoph Brian Leftow legt in der "Routledge Encyclopedia of Philosophy" folgende restriktivere Definition zugrunde: „Die höchste Wirklichkeit, die Quelle oder der Grund alles anderen, perfekt und der Anbetung würdig.“ Nicht alle Kulturen unterscheiden eindeutig zwischen Göttern, Geistern, Engeln, Dämonen und anderen übernatürlichen Wesen; gelegentlich wird der entsprechende Begriff in anderen Sprachen recht weit gefasst. So etwa können die Orishas der Yoruba sowohl als Ahnengeister als auch als dem höchsten Gott Olorun untergeordnete Götter betrachtet werden. Das Wort "vodon" (vgl. „Voodoo“) in der Fon-Sprache wird sowohl mit „Gott“ als auch mit „Geist“ übersetzt, ebenso wie das japanische Wort "Kami." Die buddhistischen Devas, meist als „Götter“ übersetzt, sind übernatürliche Wesen mit eigener Persönlichkeit, gelten aber nicht als perfekt, unsterblich, allmächtig oder allwissend. Einige neuplatonische Denker bezeichneten mit dem Wort "θεός" (theós) eine Vielzahl spiritueller Entitäten, darunter die menschliche Seele. Die Frage nach einer angemessenen Definition von „Gott“ wird noch dadurch verkompliziert, dass Philosophen und Theologen Gottesbegriffe entwickelt haben, die sich von der religiösen Praxis wesentlich unterscheiden (siehe Abschnitte zu metaphysischen und populären Vorstellungen). In der kognitiven Religionswissenschaft werden Götter zu den übernatürlichen Akteuren gezählt. Als Akteur wird in der Philosophie und Psychologie ein Wesen mit geistigen Fähigkeiten bezeichnet, dem bewusste Ansichten und Wünsche zugesprochen werden, oder dessen Verhalten durch mentale Zustände hervorgerufen wird. Aus natürlichen Konzepten können übernatürliche gebildet werden, indem intuitive, alltägliche Auffassungen der ihnen zugehörigen ontologischen Kategorien verletzt werden. Beispiele für solche Konzepte sind Bäume, die sich nirgendwo befinden, Steine, die Gefühle empfinden, und eben auch Wesen, die unsichtbar sind. Die geistigen Fähigkeiten des Akteurs sind die einzige anthropomorphe Eigenschaft, die von Gläubigen und Theologen gleichermaßen akzeptiert wird. Nach Anzahl: Mono- und Polytheismus. a>, den göttlichen Figuren der Trimurti, Ende 18. Jahrhundert Oft wird zwischen polytheistischen Religionen, die mehrere Götter kennen, und monotheistischen Religionen mit nur einem Gott unterschieden. In der Kosmologie monotheistischer Religionen werden die polytheistischen Götter mit ihren unterschiedlichen Funktionen teils zu Attributen des einzigen Gottes zusammengefasst, teils tiefergestellten übernatürlichen Wesen wie Engeln und Heiligen übertragen. In vielen polytheistischen Religionen sind die Götter als Pantheon organisiert. In dieser heiligen Gemeinschaft gibt es eine Hierarchie, die sich aus den unterschiedlichen Funktionen der einzelnen Götter ergibt. Teilweise gibt es einen Herrscher über das Pantheon, wie zum Beispiel einen Vater aller Götter (so etwa El bei den Kanaanäern) oder eine Göttin mit Vormachtstellung (etwa Amaterasu im frühen Shintō). Religionen mit einem Hauptgott werden auch henotheistisch genannt. Philosophen wie Plato und die Stoiker sprachen gelegentlich von „Gott“ und „den Göttern“ unterschiedslos im selben Absatz. Die Abgrenzung zwischen Mono- und Polytheismus ist nicht immer objektiv eindeutig, denn in manchen Religionen existiert ein Gott in mehreren Formen, beziehungsweise Hypostasen (Trimurti im Hinduismus, Dreifaltigkeit im Christentum, „Gott oben/unten“ bei den Bari, „Vater, Mutter, Sohn“ bei den Ndebele). Darüber hinaus können übernatürliche Personen wie Maria (die Mutter Jesu) oder Siddhartha Gautama zumindest im Rahmen der vergleichenden Religionswissenschaft oder aus dem Blickwinkel anderer Religionen als zusätzliche Götter betrachtet werden. Auch kann eine Religion insofern mono- und polytheistische Aspekte vereinen, als je nach Konfession und selbst je nach Anhänger unterschiedliche Gottesvorstellungen anzutreffen sind. Frühe Christen glaubten beispielsweise je nach Gruppierung an einen, zwei, 30 oder 365 verschiedene Götter, und Dreifaltigkeitslehren reichen vom Glauben an drei Götter (Tritheismus) bis zur Vorstellung, dass die drei nur verschiedene Aspekte eines Gottes sind (Modalismus). Alle drei abrahamitischen Religionen sind heute ausdrücklich monotheistisch. Hochgötter. Die Götter monotheistischer Religionen oder die höchstrangigen, mächtigsten Gottheiten in polytheistischen Religionen "(siehe auch: Henotheismus)" werden in Religionswissenschaft und Ethnologie häufig als "Hochgott" bezeichnet. Bis zum Beginn des 20. Jahrhunderts setzten eurozentrisch denkende Völkerkundler und Missionare viele Hochgottvorstellungen vorschnell und undifferenziert mit der christlichen Gottesvorstellung gleich (etwa bei afrikanischen, australischen oder nordamerikanischen Göttern bzw. göttlichen Kräften). Die ethnographische Literatur ist voller Beispiele dafür. Erd- und Wassergötter. Darstellung der Gaia in einem syrischen Fresko um 730 Nach sozialer Funktion. Georges Dumézil stellte drei hauptsächliche soziale Funktionen bei Göttern der proto-indoeuropäischen Kultur fest: die Funktion eines Herrschers mit magischen und rechtsprechenden Aspekten, eine physische Macht- und Mutfunktion, insbesondere in Kriegszeiten, sowie eine Fruchtbarkeits- und Wohlstandsfunktion. Auf andere Kulturen ist dieses Schema nur bedingt anwendbar. So etwa kombinieren viele Götter des Nahen Ostens und in Afrika die Funktionen eines Herrschers und eines Kriegsherren, während andere Kulturen nicht klar zwischen den Ernte- und den Kriegsfunktionen trennen. Darstellung der Hestia in einem ägyptischen Bildteppich des 6. Jahrhunderts Nach Charaktereigenschaften. Göttern wird mit anthropomorphen Begriffen oft eine spezifische Persönlichkeit zugeschrieben, die gütige und zornige Eigenschaften einschließt. Sehr grausam sind die Muttergöttinnen der Azteken wie etwa Coatlicue, die mit einer Bluse aus menschlichen Händen und Herzen dargestellt wird. Sie gebar den Kriegsgott Huitzilopochtli, der seine vierhundert Geschwister tötete. JHWH wird in der Tora sowohl milde als auch grimmig dargestellt. In Indien besitzen die wichtigsten Götter eine „sanftmütige“ und eine „furchtbare“ Form. Obwohl Kali für Tod und Verwüstung steht und ihre Kinder frisst, wird sie von vielen Hindus als liebevolle Mutter verehrt. Die Göttin Hina der Hawaiier ist ein weiteres Beispiel für einen Gott, der das Gedeihen fördert, aber auch Tod und Verwüstung über die Menschen bringt. Vor der christlichen Missionierung glaubten die Kikuyu, dass ihr Gott ein Gott der Liebe sei, er aber jene, die ihm nicht gehorchen, mit Hunger, Krankheit und Tod bestraft. Andere Götter werden als vollkommen gütig betrachtet. Für Platon war Gott das moralisch Beste und Vollkommene, und für manche christliche Theologen ist Gott allgütig. Im Gegensatz dazu waren die Götter des griechischen Pantheons für ihr oftmals unmoralisches Tun bekannt. Das Volk der Chagga kennt den Schöpfergott Ruwa, der zugleich Hüter der Moral ist. Dieser Gott ist allgütig, sodass die Menschen keine Angst vor ihm haben müssen; gefürchtet sind allein die Totengeister. Der Gott Buga der Ewenken sitzt auf einem weißen Marmorthron und herrscht über alle Dinge, tut aber nur Gutes und bestraft nicht. Gottmenschen und Halbgötter. Götter können nicht nur mit Anthropomorphismen beschrieben werden, sondern auch ein unverblümt menschliches oder menschenartiges Wesen besitzen. Hierzu zählen Halbgötter wie Perseus in der griechischen Mythologie oder Māui in der Religion der Maori. Diese Halbgötter sind gegenüber echten Göttern meist in ihrer Macht eingeschränkt. Ein Beispiel für einen Menschen, der zum Kriegsgott erklärt wurde, ist der chinesische General Guan Yu. Das chinesische Mädchen Mazu wurde als Göttin in den Himmel aufgenommen und wird seitdem als „Himmelskönigin“ und Schützerin der Seeleute verehrt. Umgekehrt können einige Götter in menschlicher Form erscheinen, so etwa Jesus im christlichen Dogma der Menschwerdung sowie die Avatara von Vishnu. Die Apotheose ist die Vergöttlichung eines als heldenhaft angesehenen Menschen, der als Gottkönig verehrt wird. Beispiele dafür sind Alexander der Große und Gaius Iulius Caesar, der im Römischen Reich als Divus Iulius verehrt wurde. Nach metaphysischen Eigenschaften. Die übernatürlichen Eigenschaften, die Göttern zugesprochen werden, variieren. Einige Götter sind allwissend, allmächtig und allgegenwärtig, während andere nur beschränkten Wissenszugang besitzen oder nur in bestimmter Hinsicht mächtig sind. In der Philosophie der Antike sind systematische Betrachtungen zu Gott oder den Göttern häufig anzutreffen. Auch in der hinduistischen Philosophie, der Theologie der abrahamitischen Religionen und der modernen abendländischen Philosophie finden sich rationale Überlegungen zu den metaphysischen Eigenschaften des Göttlichen. Nicht immer wird dabei das Wort „Gott“ verwendet. Verschiedene griechische Philosophen sprachen von „dem Einen“, und Georg Wilhelm Friedrich Hegel verwendete Synonyme wie das „unendliche Leben“, „das Absolute“, der „Begriff“, die „Idee“, der „absolute Geist“ oder die „einzige absolute Wirklichkeit“. Ein tendenziell abstraktes Gottesbild entsteht aus dem Anspruch der Desillusionierung mythologisch-religiöser Gottesvorstellungen durch rationale Erwägungen. Zwar unterscheidet sich ein derartiger, in Blaise Pascals "Mémorial" so genannter „Gott der Philosophen und Gelehrten“ in mancherlei Hinsicht von einem Gott der Mythologie und Offenbarung, häufig gehen Philosophen und Theologen aber davon aus, dass es sich bei beiden lediglich um unterschiedliche Beschreibungen derselben Realität handelt. Verhältnis zur Welt. Je nach metaphysischer Weltanschauung wird das Verhältnis zwischen den Göttern und der Welt unterschiedlich dargestellt. In einigen Vorstellungen sind Gott oder die Götter völlig von der Welt getrennt, in anderen schließt ein Gott die Welt teilweise oder ganz ein. Darstellung in der Kunst und Literatur. Bei der Darstellung von Göttern kann zunächst grob unterschieden werden zwischen Buchreligionen, die eine kanonisierte Heilige Schrift kennen, Kultreligionen, die von vor dem Bild des Gottes ausgeführten Kulthandlungen bestimmt werden, und „mystischen“ Religionen, die Wort und Bild letztlich als unangemessene Form der Aussage über das Göttliche betrachten. Zwar besaßen die Ägypter der Antike zahlreiche heilige Schriften, fassten diese aber nicht zu einer kanonischen Norm zusammen. Die Götter erschienen eher in ihrem Bild als in ihrem Wort, weshalb die ägyptische Religion zu den Kultreligionen gezählt wird. Auch im antiken Griechenland spielte die Schrift neben der Bilderverehrung eine untergeordnete Rolle. Im Judentum hingegen offenbart sich Gott im Wort; bildliche Darstellungen werden daher verworfen. Ähnliches gilt für den Zoroastrismus. Im Christentum kam es über die Frage der Ikonenverehrung zum byzantinischen Bilderstreit. Auch wenn das Bilderverbot im Christentum oft nicht eingehalten wurde, lehnt die Theologie anthropomorphe Beschreibungen grundsätzlich ab, da Gott nicht auf eine Stufe mit profanen menschlichen Zügen gestellt werden soll. Das Bilderverbot im Islam wird vergleichsweise konsequent beachtet, weshalb einzig die Kalligrafie als schmückendes Element hervortritt. In einigen Kultreligionen wurden Götter als tierähnliche Wesen dargestellt, so etwa in Ägypten und in den meso- und südamerikanischen Hochkulturen. Diese Bildnisse bedeuten nicht, dass man sich die angebeteten Götter genauso vorstellte. Vielmehr sollten sie die Andersartigkeit des nicht darstellbaren bekunden. Auch Darstellungen von Göttern mit spezifischen Attributen, wie zum Beispiel Sonnengöttern, sind nicht als Erscheinungsformen jener Götter zu deuten, sondern sollen lediglich wesentliche Aspekte bildlich zum Ausdruck bringen. Darstellung im Film. Mythologische Götter werden häufig in Filmen dargestellt (z. B. Thor). Der einzige Gott im Sinne monotheistischer Religionen wird nur selten in Filmen dargestellt. Beispiele sind Mesopotamien. a>-Vase, frühes 2. Jahrtausend v. Chr. In der sumerischen Religion wurde das Numinose als unsichtbare Kraft oder „Élan vital“ betrachtet, die den Dingen innewohnt. Die sumerische Sprache bezeichnet beispielsweise mit "Nanna" sowohl den Mond als auch die in ihm verborgene Kraft, den Mondgott. Eine ähnliche Gleichsetzung von Objekt und Gott findet sich im Gilgamesch-Epos. Im vierten Jahrtausend v. Chr. wurden vor allem die Kräfte der Natur verehrt, besonders jene, die für das menschliche Überleben wichtig waren. Aus dem menschlichen Bedürfnis, mit den Göttern eine sinnvolle Verbindung aufzubauen, wurden anthropomorphe Götter bevorzugt. Die vorherrschende Form war die des Sohnes und Versorgers, dessen Lebensgeschichte den jährlichen Erntezyklus widerspiegelte, zum Beispiel Dumuzi. Inmitten der kriegsähnlichen Zustände zu Beginn des dritten Jahrtausends entwickelte sich die Vorstellung eines mächtigen göttlichen Herrschers und Kriegers. In den überlieferten Gebeten Gudeas zu Ningirsu, dem Hauptgott von Lagaš, wird dieser mit „Meister“, „Herr“ und „Krieger“ angeredet. Die neue Rolle der Götter als Beschützer und Militärchefs erforderte es, ihren Willen zu ergründen. Dies konnte in Traumvisionen oder durch Wahrsagen geschehen. Die Götter wurden außerdem als Verwalter ihres Gutes betrachtet. Anstatt alleine zu agieren, wurden sie durch höhere Götter oder durch die Götterversammlung mit besonderen Aufgaben betreut. Die Götterversammlung hatte im Wesentlichen die Aufgabe, über Übeltäter zu richten und hochrangige Amtsträger zu ernennen oder abzusetzen, und zwar sowohl Menschen als auch Götter. In dieser Beziehung wurden die Götter recht menschlich dargestellt; so etwa stärkten sie sich vor der Versammlung durch Speisen und Getränke. Im zweiten Jahrtausend entwickelte sich zunehmend eine „persönliche“ Religion, in der Gott sich um den Anbeter sorgt. Zum einen legte der Gläubige sein Vertrauen in das Mitgefühl des Gottes, zum anderen erwartete er Bestrafung für Sünden. Persönliches Glück wurde oft mit göttlicher Belohnung in Verbindung gebracht; in der akkadischen Sprache lautete die Bezeichnung für „Glück haben“ wörtlich übersetzt „einen Gott bekommen“. Deutlich wird die bescheidene Haltung und Selbsterniedrigung in den überlieferten Bußpsalmen und „Briefen zu Gott“. Die Vorstellung eines persönlichen Gottes beeinflusste auch die ägyptische Religion zu dieser Zeit und später die israelitische Religion. Der babylonische Schöpfungsmythos Enûma elîsch nennt etwa 300 Götter des Himmels und 300 Götter der Unterwelt. In Rykle Borgers assyrisch-babylonischer Zeichenliste lassen sich etwa 130 Götternamen belegen, wobei einige Beinamen oder Erscheinungsformen anderer Götter sind, und rund 25 als große Götter gelten können. Ägypten. Wie auch andere prähistorische Völker scheinen die Ägypter ihre Ehrfurcht vor den Mächten der natürlichen Welt bekundet zu haben. Archäologische Funde deuten auf Götter in Tiergestalt wie Kühe oder Falken hin, die Aspekte des Kosmos repräsentierten. Zu Beginn der historischen Zeit gab es Götter wie Min und Neith, die in menschlicher Gestalt verehrt wurden. Das ägyptische Wort "netjer" umfasste sowohl als Götter verehrte Menschen als auch Geister und Dämonen, und selbst die Hieroglyphen wurden manchmal als Götter bezeichnet. Ägypten entwickelte mehrere Schöpfungsmythen, die nie zu einem Mythos vereinheitlicht wurden, aber einige gemeinsame Züge aufweisen. Laut der Achtheit von Hermopolis wurde die Welt durch vier Götterpaare erschaffen, die männliche und weibliche Aspekte des vorweltlichen Zustands verkörperten (Urgewässer, Endlosigkeit, Finsternis, Unsichtbarkeit). Ein anderer Mythos, die Neunheit von Heliopolis, beschreibt den Sonnengott Atum als Allerzeuger und Vater der Götter, aus dessen Körperflüssigkeiten weitere Götter hervorgingen. Nach der memphitischen Theologie erschuf der androgyne Gott der Metallarbeiter, Handwerker und Baumeister, Ptah, Atum und alle anderen Götter durch „Herz und Zunge“. Dies ist die früheste bekannte Variante der Logos-Vorstellung, in der die Welt durch kreative Rede eines Gottes Gestalt annimmt. Die Charaktereigenschaften der Götter waren sehr unterschiedlich. Einige Götter waren besonders hilfreich für den Menschen, wie beispielsweise Thot, Horus und Isis wegen ihrer heilenden Kräfte, während andere der Menschheit feindlich gesinnt waren. Andere Götter wiederum wiesen ambivalente Züge auf; Hathor etwa wurde als Göttin der Liebe, Musik und Feier verehrt, galt aber auch als rasende Zerstörerin der Menschheit. Viele Kulte der Hauptgötter bildeten mit der Zeit Familientriaden aus Vater, Mutter und Sohn, wie zum Beispiel Amun, Mut und Chons in Theben. Daneben bildeten sich Gruppen aus vier, fünf oder mehr Göttern, ohne dass ein klares Schema ersichtlich ist. Insbesondere während des Neuen Reiches war die persönliche Frömmigkeit weitverbreitet. Erhaltene Bittschriften zeugen davon, dass Götter menschliche Sünden vergeben konnten. Viele Götter änderten im Laufe der Zeit ihre regionalen Zugehörigkeiten, während andere zu regionalen oder landesweiten Göttern aufstiegen und umgekehrt. Auch der Charakter von Göttern konnte sich ändern; so etwa war Seths Natur, Beliebtheit und Bedeutung starken Schwankungen ausgesetzt. Osiris übernahm im Laufe der Zeit viele Beinamen und Eigenschaften anderer Götter. Eine ägyptische Besonderheit bestand in der Kombination unterschiedlicher Götter, indem man ihre Namen verknüpfte (beispielsweise Atum-Chepre und Amun-Re) und ihre Gestalt neu zusammensetzte. Aus der altägyptischen Zeit sind 1500 Götter namentlich bekannt, wobei nur von einer kleineren Zahl Genaueres bekannt ist. Isis gehörte zu den letzten ägyptischen Göttern, die überdauerten; noch aus dem Jahr 452 n. Chr. ist überliefert, dass Pilger im Tempel von Philae ihre Statue besuchten. Indien. Die ältesten hinduistischen Schriften, die Veden, reichen bis in die Mitte des 1. Jahrtausends v. Chr. zurück. Ein wichtiger Begriff der hinduistischen Philosophie ist Brahman, eine nicht wahrnehmbare Abstraktion. Brahman lässt sich nicht definieren; es ist nach einem Ausspruch der Brihadaranyaka-Upanishad "neti neti" (nicht so, nicht so!). Die Götter, Ishvara und die Devas sind demnach symbolische Entitäten, die aus dem Brahman hervorgingen und die die leitenden Kräfte der Welt repräsentieren. Nach dem Brihadaranyaka-Upanishad ist der Lebenshauch (Prana) die Seele der Götter und einziges höchstes Wesen. Im Brihadaranyaka-Upanishad ist von 33 Göttern die Rede: acht Existenzsphären (Vasus), elf Lebensprinzipien (Rudras), zwölf Herrscherprinzipien (Adityas), einem Himmelsherrscher (Indra) und einem Erzeuger (Prajapati), die jeweils in verschiedenen Entwicklungssphären (Mahiman) auftreten. Diese Zahlen variieren jedoch je nach Text. Indra wird als allgegenwärtig beschrieben, und er ist in der Lage, jede beliebige Form anzunehmen. Laut dem Avyakta-Upanishad verkörpert er die Eigenschaften aller Götter und ist daher der wichtigste unter ihnen. Die Adityas personifizieren die Gesetze, die das Universum und die menschliche Gesellschaft beherrschen. Zu ihnen gehören Mitra (die Freundschaft), Aryaman (die Ehre) oder Varuna (der Verbindende). Hinzu kommen untergeordnete Götter wie die Söhne von Shiva, darunter Ganapati. Daneben werden weitere Götter beschrieben, wie die Ashvins, die Yakshas oder der Totengott Yama. Die Götter der Veden bilden nur einen kleinen Teil des hinduistischen Pantheons, und viele werden heute nicht mehr verehrt. Die Trimurti aus Brahma, Vishnu und Shiva repräsentiert die drei kosmischen Funktionen des Universums. Vishnu kann in beliebigen Avataras erscheinen. Shiva ging vermutlich aus seiner vedischen Entsprechung Rudra hervor. Während Rudra als aggressiv, aktiv und zerstörerisch beschrieben wurde, gilt Shiva auch als friedlich. Dennoch ist sein Charakter ambivalent; er besitzt furchtbare und sanftmütige Formen. Brahma ist die personifizierte, männliche Form des Brahman. Er gilt als erste Ursache alles Seienden, und wird in verschiedenen Schöpfungsmythen beschrieben. Jeder der männlichen Götter besitzt eine weibliche Form, die Shakti, die dessen Kraft und Macht ist und durch die er handelt. Die Götter werden also als sowohl männlich als auch weiblich angesehen. Üblicherweise verehren Gläubige einen bevorzugten Gott, ohne dessen aus dem Brahman hervorgehende Wesensart zu leugnen. Aus hinduistischer Sicht ist der Monotheismus nur die Verherrlichung eines bevorzugten Gottes; in der Bhagavad Gita erklärt Krishna, die Verehrung anderer Götter sei nur die Verehrung seiner selbst. Oft wurde versucht, Entsprechungen zu Göttern anderer Religionen und Glaubensrichtungen herzustellen; so wurde der vedische Rudra mit dem dravidischen Shiva, dem griechischen Dionysos und dem ägyptischen Osiris identifiziert. Einigen Hindus, die mit der christlichen Religion vertraut sind, gilt Jesus als Avatar Vishnus, denn Vishnu wird nicht als persönlicher Gott einer bestimmten Religion, sondern als universelles Prinzip betrachtet. Die Bezeichnung „Hinduismus“ entstand erst spät und fasst recht unterschiedliche Kulte zusammen. Weit verbreitet ist heute die Verehrung Shivas und Vishnus; im Shivaismus bzw. Vishnuismus werden sie als Hauptgötter oder höchstes Brahman angenommen. Hinzu kommt der Shaktismus, der Shakti, Devi oder eine der vielen anderen Göttinnen als Hauptgöttin verehrt. Neben dem Hinduismus liegt in Indien der Jainismus als atheistische Religion vor und der Sikhismus als monotheistische Religion. Daoismus. Der chinesische Daoismus gilt in seiner Frühform als atheistisch, später entwickelte er jedoch ein großes, polytheistisches Pantheon; siehe dazu Pantheon des Daoismus. Buddhismus. Tibetische Bodhisattva-Statue aus dem 18. Jahrhundert Vor allem in älterer westlicher Literatur und oft auch heute wird die Meinung vertreten, dass der im Pali-Kanon beschriebene „ursprüngliche“ Buddhismus des historischen Buddha, Siddhartha Gautama, eine atheistische „Lebensphilosophie“ und keine Religion sei. Dies ist bestenfalls eine grobe Vereinfachung, die nicht der religiösen Praxis in allen buddhistisch geprägten Ländern entspricht. Nach dem Anguttara-Nikaya antwortete Siddhartha Gautama auf die Frage, ob er ein Mensch oder ein Gott (Deva) sei, dass er kein Gott, Gandharva oder Mensch sei, sondern ein Buddha. In Mahayana-Texten wird der Dharma-Körper (Dharma-kāya) eines Buddhas mit der absoluten Realität gleichgesetzt, die bis an die Grenzen der Welt reicht und alles durchdringt. Der Dharma-Körper ist auch insofern omniszient, als die gesamte Welt sich direkt in seinem Geist widerspiegelt. Der Manifestationskörper (Nirmāṇa-kāya) des Buddhas kann in jeder Form erscheinen; seine Handlungen sind allerdings keine Folge willentlicher Entscheidungen. Nach der formellen Lehre des Theravada-Buddhismus ist der Buddha tot und greift nicht mehr in die Welt ein; dennoch wird er wie ein Gott verehrt und auch von manchen Gläubigen angebetet. Obwohl sich Buddhas und Bodhisattvas in mancher Hinsicht von Göttern unterscheiden, werden sie zum Teil dennoch zu den göttlichen Wesen gezählt. Die im frühen Buddhismus formulierte Lehre des bedingten Entstehens postuliert Nichtwissen als Ursache der Kette der Wiedergeburten. Einer Interpretation zufolge handelt es sich dabei um eine Kritik des brahmanischen Schöpfungsmythos des Rigveda. Insofern entwickelte der Buddhismus eine nichtteleologische Kausalitätslehre, die ohne einen Schöpfergott auskommt. Das Lebensrad, das im Mahayana-Buddhismus die sechs Daseinsbereiche beschreibt, enthält den Bereich der Götter (Devas) und den Bereich der „eifersüchtigen Götter“ (Asuras), die im Theravada zu den Devas gezählt werden. Buddhistische Gläubige beten viele der Hindu-Götter an, was insofern keinen Synkretismus darstellt, als diese Götter von Anfang an Teil des Buddhismus waren. Ihre Existenz wurde nie bestritten, wenngleich sie im Buddhismus als entbehrlich gelten. Zwischen dem Glauben an Buddha und an die Götter besteht insofern ein Gleichgewicht, als Götter in weltlichen Angelegenheiten helfen können, aber nur der Buddha den Weg zur Erlösung zeigen kann. Griechenland und Römisches Reich. Bronzestatue des Zeus oder Poseidons, um 460 v. Chr. Da die Topografie des antiken Griechenlands Kommunikation über Land- und Seewege erschwerte und es sprachliche und ethnische Unterschiede gab, variierten die mythologischen Inhalte und Kulte. Homers Werke "Ilias" und "Odyssee" führten zu einer teilweisen Stabilisierung dieser Mythen und übten auf nachfolgende griechische und römische Autoren einen wesentlichen Einfluss aus. Die Griechen und Römer kannten zahlreiche Schöpfungsmythen, die viele Parallelen zu den Mythen der Ägypter, Sumerer, Babylonier und Hebräer aufweisen. Laut Homer waren die Titanen Okeanos und Tethys für den Ursprung der Götter verantwortlich. Okeanos repräsentierte dabei den ringförmigen Ozean, der die scheibenförmige Erde umschloss. Hesiod gab in seiner "Theogonie" (um 700 v. Chr.) die erste bekannte vollständige Beschreibung der Schöpfung. Aus dem Chaos entstand Gaia, die Uranos hervorbrachte. Beide zeugten sechs weibliche und sechs männliche Kinder, die Titanen, die ebenfalls Kinder hatten. Die Titanen waren im Wesentlichen Personifikationen verschiedener Aspekte der Natur. Nach dem Sturz der Titanen traten Zeus und die anderen Götter des Olymp die Weltherrschaft an. Die Götter bildeten ein hierarchisch organisiertes Pantheon. Im Allgemeinen galten sie als menschenähnlich und fühlend, wenngleich ihr Aussehen und ihre Handlungen bis zu einem bestimmten Grad idealisiert wurden. Andererseits konnten sie die körperlichen und geistigen Schwächen der Menschen widerspiegeln. Die Götter lebten in Häusern auf dem Olymp oder im Himmel; ein wichtiger Unterschied bestand jedoch zwischen den Göttern der Luft und der Oberwelt, und den chthonischen Göttern, die in der Erdtiefe walten. Götter konnten sich mit großer Geschwindigkeit fortbewegen, plötzlich verschwinden und erscheinen, und beliebige Formen annehmen – menschlich, tierisch und göttlich. Obwohl ihre Macht größer war als die der Menschen, waren sie kaum allmächtig, außer womöglich Zeus, und selbst seine Handlungen waren dem Schicksal unterworfen. Die Eigenschaft, die die griechischen Götter am offensichtlichsten von den Menschen abhob, war ihre Unsterblichkeit. Wenngleich einige Götter nur in bestimmten Plätzen besonders verehrt wurden – so etwa Athene in Athen und Hera in Argos – wurden die wichtigsten Götter in der gesamten griechischen Welt anerkannt. An der Spitze stand Zeus, der Vater aller Götter und Menschen. Er verteidigte, teils zusammen mit anderen Göttern, die höchsten moralischen Werte, und beschützte die Familie und den Staat. Zeus konnte als Gott ohne Namensnennung genannt werden. Xenophanes griff die üblichen anthropomorphen Vorstellungen scharf an und behauptete, dass es einen einzigen nichtanthropomorphen Gott gab. Die Römische Religion hatte ihre Wurzeln in den religiösen Vorstellungen vorrömischer italienischer Völker wie den Sabinern und den Etruskern. Im Allgemeinen wiesen die römischen Götter, die ursprünglich eher im Kult als im Mythos verankert waren, weniger anthropomorphe Züge auf als die griechischen Götter. Als im 3. Jahrhundert v. Chr. die ersten Historiker und Epiker auf Latein schrieben, war der Einfluss der griechischen Literatur bereits vorherrschend. Viele Autoren waren selbst Griechen, sodass die römischen Legenden aus den griechischen adaptiert wurden. Die ursprünglichen italienischen Götter wurden mit den griechischen gleichgesetzt, zum Beispiel Saturnus mit Kronos oder der große Himmelsgott Jupiter mit Zeus. Israel. Ugaritische Baal-Figur, 14. bis 12. Jahrhundert v. Chr. Die Hauptquelle für die israelitische und später die jüdische Religion ist die kanonisierte Bibel, der Tanach. Die Religion Israels war ursprünglich henotheistisch. Als die Israeliten zur Richterzeit (1250 bis 1000 v. Chr.) in Kanaan sesshaft wurden, griffen sie die dortigen religiösen Vorstellungen auf, wenngleich die Kanaanäer in der Bibel negativ beschrieben werden. Die weitgehende Übereinstimmung zwischen den Attributen JHWHs, des einzigen Gottes Israels, und des kanaanäisch-ugaritischen Gottes El deutet darauf hin, dass JHWH aus El entstanden ist und sich allmählich vom henotheistischen Kult entfernte. Diese Annahme wird dadurch gestützt, dass gegen El, anders als die anderen biblischen Götter, nicht polemisiert wurde, und dass er seine Funktion als Urvater der Götterversammlung behielt. Der Hochgott El nahm in der ugaritischen Religion den Vorsitz der Götterversammlung ein und wurde als Schöpfer der Götter und Geschöpfe genannt. Neben ihm stand der junge Fruchtbarkeitsgott Baal, Erzeuger des Gewitters und Spender des Regens. Oft wurde er zusammen mit seiner Geliebten Anat als kriegerischer Gott dargestellt, der seine Gegner tötete. Anat selbst tritt als Kämpferin und Liebende hervor, und sie scheut sich nicht, selbst dem obersten Gott El zu drohen. Unter den Göttinnen von Ugarit nahm Athirat als Gemahlin Els den höchsten Rang ein. Astarte oder Aschera, die Himmelskönigin, wurde mit der babylonischen Kriegs- und Liebesgöttin Ištar gleichgesetzt. Das 1. Buch Mose nennt JHWH als Schöpfer des Himmels und der Erde. Da sein Gottesname nicht ausgesprochen wurde, trat an seine Stelle oft die Bezeichnung "Adonai" („Herr“). Im Deboralied, einem der ältesten Texte der Bibel, wird JHWH als Gott Israels beschrieben, der zugunsten seines Volks eingreift. Hier überwiegt die atmosphärische Beschreibung JHWHs, vor dem die Erde bebt, die Wolken von Wasser triefen und die Berge schwanken. Andere Stellen bekunden, dass er im Himmel wohnt. Weitere Texte heben die kriegerischen Züge JHWHs hervor; das Buch der Richter betont vor allem seine Hilfe in Israels Kriegen gegen die Feinde. Außerhalb Jerusalems wurden weiterhin Baal und die Göttinnen verehrt. Sowohl JHWH als auch Baal waren Himmelsgötter, die mit Blitz und Donner in Verbindung standen. Ein Hinweis darauf, dass beide während der Richterzeit nicht immer getrennt wurden, ist der Namensbestandteil "Baal", der auch in den Eigennamen streng jahwistischer Familien vorkommt. Erst später wurde Baal als Erzfeind JHWHs beschrieben. JHWH gilt nach dem 5. Buch Mose als einziger Gott Israels. Er wird als eifersüchtiger Gott beschrieben, der keinen anderen Gott an seiner Seite duldet. Als „großer und furchtbarer Gott“, der sein Volk Israel aus Liebe auserwählt hat, fordert er Ehrfurcht und Liebe von seinen Anhängern. JHWHs Charakter ist ambivalent, denn er bringt sowohl Gutes als auch Böses. Das Gesetz genießt als Wort Gottes göttliche Autorität, und auch die Zehn Gebote sind Ausdruck des göttlichen Willens. Zwar finden sich vor allem in den älteren Texten der Bibel deutliche Anthropomorphismen, doch das jüdische Bilderverbot drückt klar aus, dass JHWH nicht in menschlichen Zügen gedacht werden könne. Arabien. Das Quellenmaterial zur altsüdarabischen Religion besteht im Wesentlichen aus Inschriften in Denkmälern, die eine große Zahl von Göttern und deren Beinamen nennen. In allen altsüdarabischen Reichen war Athtar der Hauptgott, dem der Planet Venus zugeordnet wurde. Neben seiner überlebenswichtigen Bewässerungs- und Fruchtbarkeitsfunktion war er auch als Kriegsgott tätig. Der sabäische Staatsgott war Almaqah, der mit dem Mond in Verbindung stand und zusammen mit dem König und dem Reichsvolk den Staat repräsentierte. Der Sonnengott hatte zwei weibliche Erscheinungsformen, nämlich dat-Himyam und dat-Baʿdan. Zusammen mit Athtar und Almaqah bildeten sie die offizielle Götterdreiheit Sabas, und auch in anderen südarabischen Staaten wurden sie am häufigsten genannt. Daneben gab es weitere regionale Götter wie Sama, vermutlich ein Mondgott, und Taʿlab. In der späteren Königszeit (ab 40 n. Chr.) kam es, bedingt durch schwere innere Machtkämpfe verschiedener Stämme, zu einer Differenzierung in weitere Erscheinungsformen und Einzelgötter. Eine Darstellung von Göttern in menschlicher Gestalt fand nicht statt; stattdessen wurden oft symbolhafte Zeichen und Tiere verwendet. In Zentral- und Nordarabien lebte die Bevölkerung nicht wie im Süden in hochentwickelten Staaten, sondern führte – mit Ausnahme von Lihyan – ein Nomadendasein. Die Quellenlage in Zentralarabien ist zwar wesentlich schlechter als im Süden, doch liefern spätere Texte wie der gegen das Heidentum polemisierende Koran oder das Götzenbuch des Ibn al-Kalbī Hinweise zu den altzentralarabischen Göttern. Wie alle Nomadenvölker beteten auch die Beduinen Arabiens mit Allah einen höchsten Himmelsgott an, der die Welt erschaffen hat und Regen spendet. Andere Götter genossen nicht denselben hohen Rang und bildeten auch kein hierarchisch geordnetes Pantheon. Neben Allah wurden die drei Göttinnen Manat, Al-Lāt und Al-ʿUzzā, auch „Töchter Allahs“ genannt, in ganz Arabien hoch verehrt. Al-Lat wurde von Herodot mit Urania, der Himmelsgöttin, gleichgesetzt; vermutlich hatte sie ursprünglich eine ähnlich überragende Bedeutung wie Allah. Eine untergeordnete Rolle spielten die im Götzenbuch genannten drei Dutzend lokalen Götter, die oft bestimmten Stämmen zugeordnet waren. Postbiblisches Judentum. Obwohl es im rabbinischen Judentum keine systematischen Betrachtungen zu den Attributen Gottes gab, bestand in einigen wesentlichen Punkten Einigkeit. Alle Rabbiner waren von der Einheit Gottes, des Schöpfers von Himmel und Erde, überzeugt. Gott belohnt diejenigen, die seinem Willen gehorchen, und bestraft die anderen, und er wählte unter allen Völkern das jüdische aus, um ihm die Tora zu offenbaren. Das Tetragramm JHWH wurde aus Ehrfurcht nie ausgesprochen, und stattdessen andere Namen oder Umschreibungen wie Adonai („Herr“) oder der Heilige verwendet. Obwohl Gott direkt im Gebet angesprochen werden kann, ist seine wahre Natur unergründlich, und er unterscheidet sich gänzlich von seinen Geschöpfen. Dennoch sorgten sich die Autoren des Talmud wenig um anthropomorphe Beschreibungen. Oft wurde Gott mit einem König verglichen, der auf dem Thron des Urteils oder dem Thron der Vergebung sitzt. Besonders nach dem Jüdischen Krieg wurde die Vorstellung vertieft, dass Gott menschliches Leid fühlt und mit den Opfern der Verfolgung trauert. Bilderverehrung und dualistische Vorstellungen wiesen die Rabbiner strikt zurück. Im Mittelalter kam es unter dem Einfluss der griechischen Philosophie zu einer Verfeinerung der Attribute Gottes. Die mittelalterlichen Theologen wiesen darauf hin, dass alle anthropomorphen Beschreibungen Gottes in der Bibel nicht wörtlich zu verstehen seien. Zu Maimonides’ 13 Prinzipien des jüdischen Glaubens zählt die Auffassung, dass Gott körperlos und immateriell ist. Gott war sowohl allwissend als auch allmächtig. Wie auch die Autoren der Bibel und die Rabbiner vertraten die mittelalterlichen jüdischen Denker einen fürsorglichen Gott, wobei sich diese nach Maimonides und Levi ben Gershon nur auf die Menschen und nicht auf alle Geschöpfe erstreckt. Die Kabbalisten akzeptierten die abstrakten Beschreibungen der mittelalterlichen Philosophen, verspürten aber als Mystiker den Wunsch, eine lebendigere Verbindung zu Gott aufzubauen. In der Kabbala wurde zwischen Gott selbst – dem unergründlichen En Sof – und seinen Erscheinungsformen unterschieden. Die Sephiroth waren die zehn Emanationen, die aus Gott selbst, zu dem überhaupt nichts gesagt werden kann, entspringen. Sie repräsentieren verschiedene Aspekte Gottes wie Weisheit, Stärke oder Pracht. Der Chassidismus des 18. Jahrhunderts, besonders die Chabad-Bewegung, tendierte zu einem panentheistischen Verständnis des Tzimtzum-Begriffs: Ohne Gott gäbe es kein Universum, aber ohne das Universum wäre Gott immer noch das gleiche. Unter den jüdischen Denkern des 20. Jahrhunderts vertrat Mordechai M. Kaplan am vehementesten eine naturalistische Weltsicht. Für ihn war Gott kein übernatürliches, persönliches Wesen, sondern die universelle Kraft, die zu Gerechtigkeit führt. Martin Buber hingegen betonte den persönlichen Aspekt Gottes. Mehr als jedes andere Ereignis führte der Holocaust zu einer Neueinschätzung der mittelalterlichen Aussagen zum Verhältnis von Gott und den Menschen sowie dem Theodizeeproblem. Christentum. Da die Christen ursprünglich eine jüdische Gruppierung waren, wurden ihre Gottesvorstellungen stark von jüdischen Traditionen geprägt. Daneben beeinflusste die griechische Philosophie, insbesondere der antike Platonismus, die christlichen Gottesvorstellungen maßgeblich. Frühe Versuche, eine christliche Theologie auszuarbeiten, etwa bei Klemens von Alexandrien, Justin dem Märtyrer, Irenäus von Lyon, Athenagoras und Theophilus nehmen nicht nur Bezug auf biblische Überlieferung, inzwischen ausgebildete Bekenntnisformeln und liturgische Redeweisen, sondern in Terminologie, Inhalten und Werkkonzeptionen auch in unterschiedlichem Ausmaß Anleihen bei jüdischen Theologen und philosophischen Traditionen. Gott wird vielfach als transzendent und ewig, frei von zeitlichen oder räumlichen Grenzen und mit höchster übernatürlicher Macht und Ehre ausgestattet beschrieben. Wegen der Unergründlichkeit seines Wesens wird er oftmals nur in symbolischen Ausdrucksweisen, in seinen Wirkungen und ansonsten in verneinenden Eigenschaften wie „unendlich“, „unergründlich“ oder „unsichtbar“ benannt. Redeweisen in Bibel, Liturgie, Gebetsformularen und dergleichen, die dazu führen könnten, Gott körperlich und insbesondere anthropomorph vorzustellen, werden dabei vielfach, vor allem bei Theologen in der Schultradition der alexandrinischen Theologie (einschließlich etwa Philon von Alexandria und Origenes), als uneigentliche Aussageweisen interpretiert. Andere Theologen sind zurückhaltender oder ablehnender gegenüber Kultur, Terminologie und Konzepten griechischer Traditionen und beziehen sich direkter auf jüdisch-christliche Überlieferungen. Das im Jahr 325 formulierte Bekenntnis von Nicäa, das heute von allen großen christlichen Kirchen anerkannt wird, nennt Jesus Christus göttlich und wesenseins mit Gottvater und erwähnt außerdem kurz den Heiligen Geist. Die Vorstellung, dass Jesus gleichzeitig Mensch und Gott war, wurde im späteren christologischen Bekenntnis des Konzils von Chalcedon bestätigt. Spätere Debatten und Festlegungen wenden sich von der Christologie stärker der Trinitätstheologie zu. Es wird versucht, die Annahme dreier Götter bzw. voneinander unabhängiger Modalitäten, die durch Vater, Sohn und Geist verkörpert werden, zu vermeiden bzw. als Irrlehre darzustellen. Sie werden als der Substanz nach identisch, jedoch der Relation nach verschieden bestimmt; davon abweichende Lehren und Lehrer werden als häretisch abgegrenzt. Die christliche Theologie des Mittelalters arbeitet in der Rezeption weiterer antiker Konzepte und teils auch der Debatten in jüdischer und islamischer Theologie die Gotteslehre in unterschiedlichen, teils gegensätzlichen Akzenten weiter aus. Dabei war vielfach umstritten, wie stark Anleihen an griechische philosophische Terminologie gehen können und sollen und an nicht bereits ein Wissen aus Offenbarung veranschlagende philosophische Konzeptualisierungen "(natürliche Vernunft)". Eine Kompromissformel des vierten Laterankonzils (can. 806) ist etwa, dass Gott jeweils in größerem Maße unähnlich bleibe auch bei allen durchaus möglichen Aufweisen von Ähnlichkeiten mit Geschaffenem. Die Reformation forderte eine stärkere Rückbesinnung auf biblische Texte. Natürlicher Vernunft und zwischenzeitlicher Tradition wird weniger Erkenntniswert zugeschrieben. Während u.a. im 19. Jahrhundert einige Theologen auf Herausforderungen u.a. durch Aufklärung und moderne Vernunft- und Offenbarungskritik mit einer konstruktiven Rezeption u.a. transzendentalphilosophischer Ideen reagieren, weisen andere dies zurück. Die Reichweite „natürlicher Vernunft“ wird dann geringer, „Übernatürliches“ höher veranschlagt; so in unterschiedlichsten Ausprägungen etwa vonseiten der meisten katholischen Revitalisierungsversuche der Systematisierungen des Thomas von Aquin, anders etwa anfangs des 20. Jahrhunderts bei protestantischen Theologen wie Karl Barth, die sich stärker auf biblische Offenbarung beziehen. In jüngeren theologischen Debatten wurden auch zuvor weitgehend unstrittige Aspekte der Gottesvorstellung kritisch diskutiert, etwa die Allmacht Gottes. Islam. Der Islam, der auf der arabischen Halbinsel entstand, hat seinen Gottesbegriff vor allem in Auseinandersetzung mit der altarabischen Religion, die verschiedene lokale Gottheiten kannte, entwickelt. Bereits der Koran betont die Einheit und Einzigkeit Gottes und bedient sich einer Reihe von Argumenten, um zu zeigen, dass Gott als Schöpfer der Welt den Glauben an andere göttliche Wesen und Mächte überflüssig macht. Kontinuität im Gottesbild bestand dagegen zur monotheistischen Religion im altsüdarabischen Reich von Himyar. Aus diesem Umfeld wurden auch die beiden Gottesnamen Allah und Rahman in den Islam übernommen, die miteinander verbunden zum Beispiel in der Basmala-Formel erscheinen. Darüber hinaus hat sich der frühe Islam auch mit dem christlichen Gottesbild auseinandergesetzt. Die Formel in Sure 112, dass Gott weder zeugend noch gezeugt ist, lässt sich als eine direkte Zurückweisung der Aussage im nizänischen Glaubensbekenntnis verstehen, wonach Jesus von Gott "gezeugt, nicht geschaffen" ist. Theologische Debatten, die um die Mitte des 8. Jahrhunderts einsetzten, kreisten um die Frage, wie die verschiedenen Aussagen über Gott im Koran, die Körperlichkeit oder Menschenähnlichkeit implizieren, zu interpretieren sind. Während einige theologische Schulen diese Aussagen wörtlich nahmen und zu einem anthropomorphistischen Gottesbild neigten (so z. B. Muqātil ibn Sulaimān), vertraten andere eine sehr radikale Transzendenz Gottes (so z. B. Dschahm ibn Safwān). Ende des 8. Jahrhunderts entwickelten sich Zwischenpositionen. Der schiitische Gelehrte Hischām ibn al-Hakam (st. st. 795) definierte Gott als einen dreidimensionalen, massiven Lichtkörper, wobei er sich an den Aussagen über Gott in Sure 112 und im Lichtvers orientierte. Die Anhänger der Muʿtazila betonten, dass Gottes Wesen unbeschreibbar ist; anthropomorphe Zuschreibungen im Koran mussten ihrer Auffassung nach metaphorisch ausgelegt werden. Anlass zu theologischen Spekulationen haben daneben auch die zahlreichen im Koran genannten Namen und Eigenschaften Gottes gegeben. Es stellte sich die Frage, wie diese sich zu Gottes eigenem Wesen verhalten. Während die Muʿtaziliten im Zuge ihrer strengen Betonung der Einheit Gottes (Tauhīd) meinten, dass Gott Qualifikationen wie "wissend" ("ʿālim"), "mächtig" ("qādir"), "lebendig" ("ḥaiy") allein durch sich selbst ("bi-nafsihī") habe, wurde in der sunnitischen Theologie angenommen, dass diese Eigenschaften auf korrelierende Substantive verweisen, nämlich "Wissen" ("ʿilm"), "Macht" ("qudra"), "Leben" ("ḥayāt"), denen eine reale Existenz zukommt. Um nicht das Prinzip der Einheit Gottes zu verletzen, konnten sie allerdings nicht so weit gehen, diese Attribute als verschieden von Gott zu bezeichnen. Der Theologe Ibn Kullāb entwickelte darum die Formel, dass die Attribute Gottes "weder identisch mit Gott noch nicht-identisch mit ihm" seien. Diese Formel wurde später auch in die aschʿaritische Theologie übernommen. Die Attribute Gottes erhielten damit eine Position, die derjenigen der Hypostasen in der christlichen Theologie ähnelte. Manche Gruppen wie die frühen Hanbaliten lehnten es aber auch ganz ab, das Wesen Gottes zum Gegenstand rationaler Spekulation zu machen. In ihrer Tradition stehen die heutigen Wahhabiten. In der sufischen Tradition zog man der rationalen Spekulation über Gott eine unmittelbare Gotteserfahrung in Form des "Entwerdens in Gott" ("fanā fī Llāh") vor. Bei verschiedenen Gruppen der schiitischen Ghulāt-Tradition gab es schließlich die Tendenz, den eigenen Imam als Gott anzusehen. Voodoo. Im Voodoo wird Bondyè als einziger Gott verehrt. Da er sich in unerreichbarer Ferne befinden soll, werden Gebete und Opfer ausschließlich an die Loa als vermittelnde Geistwesen gerichtet. Existenz Gottes. Bestrebungen, die Existenz Gottes oder der Götter schlüssig abzuleiten, finden sich bereits in der griechischen Philosophie. In der jüdischen und frühchristlichen Apologetik, und später in der jüdischen, christlichen und arabischen Scholastik wurden weitere formale Gottesbeweise aufgestellt. Einige moderne Apologeten legen die Existenz Gottes ebenfalls anhand logischer Argumente dar. Die folgende Liste nennt bedeutende Argumente für die Existenz Gottes, sowie einige bekannte Vertreter. Anstatt Beweise für die Existenz eines Gottes zu führen, kann gezeigt werden, dass der Glaube an dessen Existenz vorteilhaft ist. Immanuel Kant und Johann Gottlieb Fichte waren beispielsweise der Auffassung, dass der Gottglaube moralisch notwendig ist. Der Pascalschen Wette zufolge ist es vernünftig, sicherheitshalber an Gott zu glauben, da dieser gegebenenfalls den Glauben belohnt und den Nichtglauben bestraft. Für Friedrich Wilhelm Joseph Schelling war Philosophie nur dann wirkliche Philosophie, wenn sich durch sie über „Dasein und Nichtdasein Gottes etwas wissenschaftlich ausmachen lasse.“ Auch für Georg Wilhelm Friedrich Hegel hat die Philosophie den Zweck, Gott zu erkennen, da ihr Gegenstand, die Wahrheit, nichts anderes sei als die Auseinandersetzung mit Gott. Kant hingegen kritisierte klassische Gottesbeweise und hielt die objektive Realität Gottes weder für beweis- noch widerlegbar. Friedrich Nietzsche war gegenüber metaphysischen Konzepten skeptisch; er lehnte den Versuch ab, auf eine unbedingte, widerspruchslose Welt zu schließen und nur durch Negationen Gott einzuführen. Die Ansicht, dass keine vernünftige Diskussion über die Existenz von Göttern möglich ist, wird üblicherweise damit begründet, dass die menschliche Vernunft hierzu nicht in der Lage sei (Irrationalismus und Fideismus), oder dass alle Wahrheitsaussagen letztendlich willkürlich seien (erkenntnistheoretischer Relativismus). Der starke Agnostizismus vertritt die Auffassung, dass niemand wissen kann, ob es einen Gott gibt, und dass es nicht möglich sein wird, diese Frage je zu beantworten. Der Nichtglaube an Götter wird häufig mit einem Mangel an Beweisen für deren Existenz begründet. Russells Teekanne ist ein Beispiel, das die philosophische Beweislast für die Behauptung eines Gottes aufzeigen soll. Eine ähnliche Haltung wird im Rahmen von Religionsparodien beansprucht, bei denen übernatürliche Wesen wie das „unsichtbare rosafarbene Einhorn“ oder das „fliegende Spaghettimonster“ erfunden werden. Neben logischen Argumenten gegen bestimmte Gottesvorstellungen wie dem Allmachtsparadoxon und dem Theodizeeproblem gibt es Versuche, die Existenz von Göttern empirisch zu widerlegen. So würden naturwissenschaftliche Erklärungen zur Entstehung des Lebens und des Universums sowie statistische Untersuchungen zur Unwirksamkeit von Gebeten zeigen, dass das Universum sich genau so verhält, wie in Abwesenheit eines Gottes zu erwarten sei. In einer 1998 durchgeführten Umfrage unter 1000 US-Amerikanern wurden als Hauptgründe für den Glauben an Gott die Schönheit, Perfektion oder Komplexität der Welt (29 % der Befragten, die an Gott glauben) sowie die persönliche Gotteserfahrung (21 %) genannt. Eine Umfrage unter Mitgliedern der Skeptics Society ergab als Hauptgrund für den Nichtglauben an Gott den Mangel an Beweisen für dessen Existenz (38 % der Befragten, die an keinen Gott glauben). Verbreitung des Gottglaubens. Anteil der Bevölkerung, die „glaubt, dass es einen Gott gibt“ (Eurobarometer-Umfrage von 2005) Demografie. Eine Zusammenfassung von Umfrageergebnissen aus verschiedenen Staaten ergab im Jahr 2007, dass es weltweit zwischen 505 und 749 Millionen Atheisten und Agnostiker gibt. Laut der Encyclopædia Britannica gab es 2009 weltweit 640 Millionen (9,4 %) Nichtreligiöse und Agnostiker, und weitere 139 Millionen (2,0 %) Atheisten, hauptsächlich in China. Bei einer Eurobarometer-Umfrage im Jahr 2005 wurde festgestellt, dass 52 % der damaligen EU-Bevölkerung glaubt, dass es einen Gott gibt. Eine vagere Frage nach dem Glauben an „eine Art Geist oder Lebenskraft“ wurde von weiteren 27 % positiv beantwortet. Die Umfrage ergab, dass der Glaube an Gott in Staaten mit starkem kirchlichen Einfluss am stärksten verbreitet ist, dass mehr Frauen (58 %) als Männer (45 %) an einen Gott glauben, und dass der Gottglaube mit höherem Alter, geringerer Bildung und politisch rechtsgerichteten Ansichten korreliert. Populäre Vorstellungen. a> von Attributen, mit denen Gott von US-amerikanischen Studenten beschrieben wurde (nach Kunkel). Hier lassen sich grob zwei Dimensionen in der Beschreibung unterscheiden, nämlich primitiv-fürsorglich (horizontal) und abstrakt-anthropomorph (vertikal). Bei empirischen Untersuchungen wurde immer wieder festgestellt, dass die unter Gläubigen verbreiteten Gottesvorstellungen auch innerhalb derselben Religion sehr vielfältig sind. Ähnlichkeitsstruktur- und Faktorenanalysen ergaben verschiedene Dimensionen, aus denen ein Gottesbild aufgebaut sein kann. So können göttliche Eigenschaften beispielsweise entlang der Dimensionen richtend-kümmernd, kontrollierend-rettend oder konkret-abstrakt variieren. Justin Barrett kam bei Untersuchungen unter US-amerikanischen und indischen Gläubigen zum Ergebnis, dass Personen intuitiv zu personenähnlichen Gottesvorstellungen tendieren, die der theologischen Lehre zuwiderlaufen. Beispielsweise besteht die Tendenz, zu denken, dass Gott beziehungsweise die Götter sich bewegen, Sinneseindrücke verarbeiten oder nur eine Aufgabe auf einmal erledigen können. Andererseits werden in abstrakteren Situationen theologische Attribute wie Allgegenwart oder Allmacht zur Beschreibung von Gott übernommen. Die ontologische Diskrepanz zwischen Menschen und dem Übernatürlichen wird demnach zumindest in kognitiv relevanten, alltäglichen Situationen wie dem Gebet überbrückt, indem die Unterschiede zwischen beiden Bereichen ignoriert werden. Psychologische Erklärungsversuche. In der Psychoanalyse wird der Gottglaube als eine Form des Wunschdenkens betrachtet. Für Sigmund Freud war Gott die Projektion einer perfekten, schützenden Vaterfigur, die das Gefühl einer idealisierten Kindheit vermitteln soll. Für Carl Gustav Jung ist Gott eine Erfahrung, die in seelischen Tiefenschichten bereit liegt. Das innerseelische Gottesbild entspricht dem Archetypus des Selbst und repräsentiert psychische Ganzheit. Über die metaphysische Wirklichkeit Gottes ist damit nichts ausgesagt. Andere Psychoanalytiker sahen Gott nicht als tröstlichen Traum, sondern als Projektion des neurotischen Selbsthasses. Ludwig Feuerbach, der ebenfalls religionskritische Thesen vertrat, sah im Gottglauben den „Spiegel des Menschen“, der Rückschlüsse auf das menschliche Wesen erlaube. Die kognitive Religionswissenschaft geht davon aus, dass Menschen aufgrund ihrer Veranlagung dazu tendieren, Vorstellungen von übernatürlichen Akteuren zu verfestigen. Die Standardtheorie begründet dies im Wesentlichen durch zwei mentale Module bei Menschen, dem Theory of Mind Mechanism (ToMM) und der Agency Detection Device (ADD). Durch das ToMM sind Menschen in der Lage, bei anderen Akteuren Gefühle und Absichten zu vermuten. Die ADD ermöglicht es, aufgrund sensorischer Reize schnell die Anwesenheit von Akteuren in der Umgebung wahrzunehmen. Sie diente beim Frühmenschen dazu, Prädatoren rechtzeitig zu erkennen und zu meiden, wird aber auch heute noch aktiv, sodass selbst hinter natürlichen Ereignissen oftmals ein Akteur vermutet wird. Dieses Erklärungsmodell bezieht sich nicht nur auf Götter, sondern auf alle übernatürlichen Akteure. Ein verwandter Forschungsgegenstand ist die Frage, welche kognitiven Fähigkeiten in Bezug auf den Gottglauben angeboren sind. Die Anthropomorphismus-Hypothese geht davon aus, dass Kinder einen Gott anfänglich als „großen Supermenschen im Himmel“ betrachten, und erst später die Vorstellung eines transzendenten, körperlosen Wesens entwickeln. Demgegenüber besagt die Preparedness-Hypothese, dass Kinder derartige metaphysische Eigenschaften problemlos akzeptieren, da sie von Beginn an kognitiv in der Lage sind, sich allgemeine übernatürliche Akteure vorzustellen. Genotyp. Der Genotyp (griech. "genos" „Gattung, Geschlecht“ und "typos" „Abbild, Muster“) oder das Erbbild eines Organismus repräsentiert seine exakte genetische Ausstattung, also den individuellen Satz von Genen, den er im Zellkern in sich trägt und der somit seinen morphologischen und physiologischen Phänotyp bestimmt. Der Begriff "Genotyp" wurde 1909 von dem dänischen Genetiker Wilhelm Johannsen geprägt. Die genetische Information der gesamten Zelle wird als Idiotyp (Idiotypus) bezeichnet. Zwei Organismen, deren Gene sich auch nur an einem Locus (= einer Position in ihrem Genom) unterscheiden, haben einen unterschiedlichen Genotyp. Der Begriff „Genotyp“ bezieht sich also auf die vollständige Kombination aller Allele / aller Loci eines Organismus. Unter Phänotyp versteht man die Summe aller beobachtbaren Merkmale des Organismus (z. B. Größe, Blütenfarbe, Schnabelform), die sich als Ergebnis der Interaktion des Genotyps mit der Umwelt entwickelt haben. Der Genotyp ändert sich zu Lebzeiten eines Organismus nicht, ausgenommen durch Unfälle wie z. B. den Einfluss von radioaktiver α-, β-, und γ-Strahlung oder durch Temperaturschocks. Den größten Einfluss auf die Entwicklung eines Organismus hat sein Genotyp. Doch es gibt noch andere Faktoren, auch Organismen identischen Genotyps unterscheiden sich gewöhnlich in ihrem Phänotyp. Verantwortlich dafür sind epigenetische Mechanismen, d.h. identische Gene können in verschiedenen Organismen verschieden exprimiert werden. Ein alltägliches Beispiel sind monozygotische (eineiige) Zwillinge. Eineiige Zwillinge haben den gleichen Genotyp, da sie das gleiche Genom in sich tragen, doch niemals den gleichen Phänotyp, obwohl sie sich sehr ähnlich sein können. Das zeigt sich darin, dass ihre Eltern und enge Freunde sie jederzeit auseinanderhalten können, auch wenn anderen das Erkennen dieser subtilen Unterschiede schwerfällt. Darüber hinaus können eineiige Zwillinge anhand ihrer Fingerabdrücke identifiziert werden, die niemals vollständig gleich sind. Phänotypische Plastizität. Das Konzept der phänotypischen Plastizität beschreibt das Maß, in dem der Phänotyp eines Organismus durch seinen Genotyp vorherbestimmt ist. Ein hoher Wert der Plastizität bedeutet: Umwelteinflüsse haben einen starken Einfluss auf den sich individuell entwickelnden Phänotyp. Bei geringer Plastizität kann der Phänotyp aus dem Genotyp zuverlässig vorhergesagt werden, unabhängig von besonderen Umweltverhältnissen während der Entwicklung. Hohe Plastizität lässt sich am Beispiel der Larven des Wassermolchs beobachten: Wenn diese Larven die Anwesenheit von Räubern wie Libellen wahrnehmen, vergrößern sich Kopf und Schwanz im Verhältnis zum Körper und die Haut wird dunkler pigmentiert. Larven mit diesen Merkmalen haben bessere Überlebenschancen gegenüber Räubern, wachsen aber langsamer als andere Phänotypen. Genetische Kanalisierung. Im Gegensatz zur phänotypischen Plastizität befasst sich das Konzept der genetischen Kanalisierung mit der Frage, in welchem Umfang der Phänotyp Rückschlüsse auf den Genotyp zulässt. Ein Phänotyp wird kanalisiert genannt, wenn Mutationen (Änderungen des Genoms) die körperlichen Merkmale eines Organismus nur unmerklich beeinflussen. Das heißt, ein kanalisierter Phänotyp kann sich aus einer großen Bandbreite von Genotypen bilden. In diesem Fall lässt sich aus der Kenntnis des Phänotyps nicht zuverlässig auf den Genotyp schließen. Gibt es keine Kanalisierung, können kleine Veränderungen des Genoms unmittelbaren Einfluss auf den sich entwickelnden Phänotyp nehmen. Graphentheorie. Die Graphentheorie ist ein Teilgebiet der Mathematik, das die Eigenschaften von Graphen und ihre Beziehungen zueinander untersucht. Dadurch, dass einerseits viele algorithmische Probleme auf Graphen zurückgeführt werden können und andererseits die Lösung graphentheoretischer Probleme oft auf Algorithmen basiert, ist die Graphentheorie auch in der Informatik, insbesondere der Komplexitätstheorie, von großer Bedeutung. Die Untersuchung von Graphen ist auch Inhalt der Netzwerktheorie. Zudem lassen sich zahlreiche Alltagsprobleme mit Hilfe von Graphen modellieren. Ungerichteter Graph mit sechs Knoten. Betrachteter Gegenstand. In der Graphentheorie bezeichnet ein Graph eine Menge von Knoten (auch Ecken genannt) zusammen mit einer Menge von Kanten. Eine Kante ist hierbei eine Menge von genau zwei Knoten. Ist die Menge der Knoten endlich, spricht man von "endlichen Graphen", ansonsten von "unendlichen Graphen". Wenn die Kanten statt durch Mengen durch Paare von Knoten angegeben sind, spricht man von "gerichteten Graphen". In diesem Falle unterscheidet man zwischen der Kante ("a","b") – als Kante von Knoten "a" zu Knoten "b" – und der Kante ("b","a") – als Kante von Knoten "b" zu Knoten "a". Knoten und Kanten können auch mit Farben (formal mit natürlichen Zahlen) oder Gewichten (d. h. rationalen- oder reellen Zahlen) versehen werden. Man spricht dann von knoten- bzw. kantengefärbten oder -gewichteten Graphen. Grundlegende Begriffe und Probleme. Graphen können verschiedene Eigenschaften haben. So kann ein Graph zusammenhängend, bipartit, planar, eulersch oder hamiltonisch sein. Es kann nach der Existenz spezieller Teilgraphen gefragt werden oder bestimmte Parameter untersucht werden, wie zum Beispiel Knotenzahl, Kantenzahl, Minimalgrad, Maximalgrad, Taillenweite, Durchmesser, Knotenzusammenhangszahl, Kantenzusammenhangszahl, Bogenzusammenhangszahl, chromatische Zahl, Stabilitätszahl oder Cliquenzahl. Die verschiedenen Eigenschaften können zueinander in Beziehung stehen. Die Beziehungen zu untersuchen ist eine Aufgabe der Graphentheorie. Beispielsweise ist die Knotenzusammenhangszahl nie größer als die Kantenzusammenhangszahl, welche wiederum nie größer als der Minimalgrad des betrachteten Graphen ist. In ebenen Graphen ist die Färbungszahl immer kleiner als 5. Diese Aussage ist auch als der Vier-Farben-Satz bekannt. Einige der aufgezählten Grapheneigenschaften sind relativ schnell algorithmisch bestimmbar, etwa wenn der Aufwand höchstens mit dem Quadrat der Größe der Graphen wächst. Andere Eigenschaften praktisch angewandter Graphen sind innerhalb der Lebensdauer heutiger Computer nicht zu bestimmen. Geschichte. … und abstrakt als Graph (Orte durch Knoten, Brücken durch Kanten repräsentiert) Ein von der Graphentheorie unabhängiger Vorläufer in der Antike war die Methode Dihairesis, mit deren Hilfe man (nur teilweise graphisch) zoologische, musikwissenschaftliche und andere Begriffe hierarchisierte. Es entstanden so frühe Systematiken innerhalb verschiedener Wissensgebiete. Die Anfänge der Graphentheorie gehen bis in das Jahr 1736 zurück. Damals publizierte Leonhard Euler eine Lösung für das Königsberger Brückenproblem. Die Frage war, ob es einen Rundgang durch die Stadt Königsberg (Preußen) gibt, der jede der sieben Brücken über den Fluss Pregel genau einmal benutzt. Euler konnte eine für dieses Problem nicht erfüllbare notwendige Bedingung angeben und so die Existenz eines solchen Rundganges verneinen. Der Begriff "Graph" wurde in Anlehnung an graphischen Notationen chemischer Strukturen erstmals 1878 von dem Mathematiker James Joseph Sylvester verwendet. Als weiterer Begründer der frühen Graphentheorie gilt Arthur Cayley. Eine der ersten Anwendungen waren chemische Konstitutionsformeln. (Siehe auch Chemische Graphentheorie und Literatur: Bonchev/Rouvray, 1990). Das erste Lehrbuch zur Graphentheorie erschien 1936 von Dénes Kőnig. Anwendungen. Eine wichtige Anwendung der algorithmischen Graphentheorie ist die Suche nach einer kürzesten Route zwischen zwei Orten in einem Straßennetz. Dieses Problem kann man als Graphenproblem modellieren. Hierzu abstrahiert man das Straßennetz, in dem man alle Orte als Knoten aufnimmt, und eine Kante hinzufügt, wenn es eine Verbindung zwischen diesen Orten gibt. Die Kanten dieses Graphen werden je nach Anwendung gewichtet, zum Beispiel mit der Länge der assoziierten Verbindung. Mit Hilfe eines Algorithmus zum Finden von kürzesten Pfaden (beispielsweise mit dem Algorithmus von Dijkstra) kann eine kürzeste Verbindung effizient gefunden werden. Algorithmisch deutlich schwieriger ist die Bestimmung einer kürzesten Rundreise (siehe Problem des Handlungsreisenden), bei der alle Orte eines Straßennetzwerkes genau einmal besucht werden müssen. Da die Zahl der möglichen Rundreisen faktoriell mit der Zahl der Orte wächst, ist der naive Algorithmus, alle Rundreisen auszuprobieren und die kürzeste auszuwählen, für praktische Anwendungen nur für sehr kleine Netzwerke praktikabel. Es existieren für dieses Problem eine Reihe von Approximationsalgorithmen, die eine gute aber nicht eine optimale Rundreise finden. So liefert die Christofides-Heuristik eine Rundreise die maximal 1,5-mal so lang ist wie die bestmögliche. Unter der Annahme, dass "P" ≠ "NP" ("siehe" P-NP-Problem), existiert kein effizienter Algorithmus für die Bestimmung einer optimalen Lösung, da dieses Problem "NP"-schwer ist. Ein weiteres bekanntes Problem fragt, wie viele Farben man braucht um die Länder einer Landkarte einzufärben, sodass keine zwei benachbarten Länder die gleiche Farbe zugewiesen bekommen. Die Nachbarschaftsbeziehung der Länder kann man als planaren Graph repräsentieren. Das Problem kann nun als Knoten-Färbungsproblem modelliert werden. Nach dem Vier-Farben-Satz braucht man maximal 4 verschiedene Farben. Ob sich im Allgemeinen ein Graph mit weniger Farben einfärben lässt, kann man nach heutigem Wissensstand nicht effizient entscheiden. Das Problem gilt als eines der schwierigsten Probleme in der Klasse der "NP"-vollständigen Probleme. Unter der Voraussetzung, dass "P"≠ "NP", ist selbst eine bis auf einen konstanten Faktor angenäherte Lösung nicht effizient möglich. Veränderung von Graphen. Hauptsächlich in der Informatik wird die Transformation von Graphen anhand von regelbasierten Graphersetzungssystemen untersucht. Graphersetzungssysteme, die dem Aufzählen aller Graphen einer Graphsprache dienen, werden auch Graphgrammatik genannt. Visualisierung. Im Bereich der Computergrafik ist die Visualisierung von Graphen (‚Graphzeichnen‘,) eine Herausforderung. Besonders komplexe Netze werden erst durch ausgefeilte Autolayout-Algorithmen übersichtlich (siehe hierzu: Graphentheorie). Teilgebiete. Ungerichtete Graphen besitzen symmetrische Adjazenzmatrizen und deshalb reelle Eigenwerte. Alle Eigenwerte zusammengenommen werden als Spektrum des Graphen bezeichnet. Während die Adjazenzmatrix von der Knotensortierung abhängig ist, ist das Spektrum davon unabhängig. Gentherapie. Als Gentherapie bezeichnet man das Einfügen von Nukleinsäuren wie DNA oder RNA in die Körperzellen eines Individuums, um beispielsweise eine Krankheit zu behandeln. Klassischerweise soll ein intaktes Gen in das Genom der Zielzelle eingefügt werden, um ein defektes Gen zu ersetzen, welches ursächlich für die Entstehung der Krankheit ist. Beim Menschen wurden und werden Gentherapien teilweise erfolgreich z.B. im Rahmen von klinischen Studien durchgeführt. Als weltweit erstes Fertigarzneimittel wurde 2003 in China "Gendicine" (rAD-p53) eingeführt. Im Oktober 2012 erfolgte als erste Zulassung eines Gentherapeutikums in der westlichen Welt die Zulassung von "Glybera" (Alipogentiparvovec) durch die Europäische Kommission zur Behandlung des seltenen Leidens der familiären Lipoproteinlipasedefizienz (LPLD) bei Erwachsenen. Für die USA ist die Zulassung beantragt. Innerhalb Europas gehören Gentherapeutika zur Gruppe der Arzneimittel für neuartige Therapien. Im November 2015 haben sich der GKV-Spitzenverband und der pharmazeutische Unternehmer Chiesi GmbH auf einen Erstattungsbetrag für das Arzneimittel geeinigt. Prinzip. Üblicherweise werden dem Körper einige Zellen entnommen, um diesen im Labor ("in vitro") die entsprechenden Nukleinsäuren einzufügen. Anschließend können die Zellen zum Beispiel vermehrt werden, um dann wieder in den Körper eingebracht zu werden. Eine Gentherapie kann auch direkt im Körper ("in vivo") erfolgen. Je nach Art der Gentherapie und der verwendeten Technik kann die Nukleinsäure in das Zellgenom integriert werden oder lediglich zeitweise in der Zelle verbleiben. Entsprechend kann der therapeutische Effekt dauerhaft oder zeitlich beschränkt bestehen. Beschränkungen und Risiken. Das Ersetzen und dauerhafte Einfügen eines intakten Gens in Form von DNA hat nur bei sogenannten monogenetischen Erkrankungen Aussicht auf Erfolg. Erkrankungen, die durch komplexere genetische Schäden ausgelöst werden, wie zum Beispiel Krebs, können mit Gentherapie nicht ursächlich behandelt werden. Eine mögliche Gentherapie darf nur in somatischen (nicht die Keimbahn betreffenden) Zellen durchgeführt werden, damit die neue genetische Information nicht an die Kinder des behandelten Individuums weitergegeben werden kann. Dieses ist eine gesetzliche Beschränkung, basierend sowohl auf ethischen als auch die Sicherheit betreffenden Gesichtspunkten. Das größtmögliche Risiko der Gentherapie ist eine ungerichtete Integration der Nukleinsäure an unpassender Stelle innerhalb des Genoms der Wirtszelle. Da eine Integrationsstelle bisher nicht vorhersehbar ist, können andere vorher intakte Gene in ihrer Funktion gestört werden. Im schlimmsten Fall könnte der therapeutische Nutzen des neuen Gens durch eine neue evtl. schwerere Krankheit, bedingt durch die Störung eines vorher intakten Gens, ersetzt werden. Derzeit beschränken sich gentherapeutische Ansätze in der Praxis auf zwei verschiedene Zelltypen: zugängliche Stammzellen und langlebige, ausdifferenzierte, postmitotische Zellen. Je nach Zelltyp kommen verschiedene Methoden der Gentherapie zum Einsatz. Anwendungen am Patienten. In der von "The Journal of Gene Medicine" bereitgestellten Datenbank "Gene Therapy Clinical Trials Worldwide" werden über 1500 klinische Studien gelistet, die bisher genehmigt wurden (Stand 2010). Aufreinigung und molekulare Charakterisierung von Zytokinen. Die Aufreinigung und molekulare Charakterisierung von Zytokinen wurde vom Team um Roland Mertelsmann erforscht. Sowohl Interleukin-2 wie auch G-CSF wurden homogen dargestellt, erste translationale und klinische Studien zu Zytokinen folgten. Da Experimente in murinen Modellen demonstrierten, dass die lokale Sekretion von Immunität stimulierenden Zytokinen wie Interleukin-2 zur starken Aktivierung des Immunsystem mit therapeutischer Wirksamkeit führte, wurde dieser Ansatz auch im Menschen verfolgt. Diese Untersuchungen lieferten eine der Grundlagen für die späteren, klinisch erfolgreichen Gentherapiestrategien. Therapie von SCID. Am 14. September 1990 wurde von Ärzten des US-amerikanischen Bundesgesundheitsinstituts an einem vierjährigen Mädchen die weltweit erste gentherapeutische Behandlung durchgeführt. Die Patientin Ashanti DeSilva litt an einem schweren kombinierten Immundefekt (SCID), einer sehr seltenen Krankheit (Inzidenz 1:100.000), verursacht durch einen schweren Defekt sowohl des T- als auch des B-Lymphozytensystems. Bei von diesem Defekt betroffenen Patienten ist das Immunsystem in seiner Funktion erheblich bis vollständig beeinträchtigt, d. h. es gibt wenig oder gar keine Immunantwort – schon eine Erkältungskrankheit kann für die Kinder den Tod bedeuten. Die Gentherapie, die aufgrund der begrenzten Lebensdauer der Leukozyten mehrmals im Jahr wiederholt werden muss, ermöglicht den Patienten ein Leben ohne strikte Quarantäne. Der Gentherapie an Ashanti DeSilva ging ein dreijähriges Genehmigungsverfahren voraus. Die von den Symptomen her identische Erkrankung X-SCID, die auf Grund von Mutationen in der gemeinsamen Kette einiger Interleukinrezeptoren auftritt (γc, CD132), wurde ebenfalls mit einem gentherapeutischen Ansatz von Alain Fischer in Paris behandelt. Nachdem die Behandlung zunächst größtenteils erfolgreich verlief, traten bei einigen Patienten nach einiger Zeit Leukämien auf (Näheres siehe X-SCID). Fall Jesse Gelsinger. 1999 erfuhr die Gentherapieforschung einen Rückschlag. Bei einer von der Universität von Pennsylvania durchgeführten, von James M. Wilson geleiteten Versuchsreihe kam es zu schwerwiegenden Komplikationen. Der 18-jährige Jesse Gelsinger litt am angeborenen Ornithin-Transcarbamylase-Defizit. Er nahm an der letzten von sechs Versuchsstufen als Proband teil. Die am 13. September bei ihm injizierte Dosis der als Träger verwendeten Adenoviren lag bei 38 Billionen Partikeln. Das ist bedeutend mehr, als bei einer natürlichen Infektion übertragen werden. Der Zustand Gelsingers verschlechterte sich nach der Injektion sehr schnell, so dass er infolgedessen am 17. September an einem Multiorganversagen verstarb. Jesse Gelsinger war zu diesem Zeitpunkt der weltweit sechste, offiziell gemeldete Tote, der durch eine bei Gentherapie-Versuchen angewandte, künstliche Infektion mit Adenoviren verstorben ist. In jedem dieser sechs Fälle soll nach Einschätzung der entsprechenden Versuchsleitung die Grunderkrankung die Ursache für den eingetretenen Tod gewesen sein. Dem leitenden Arzt James M. Wilson wurde im Anschluss dieses Versuches von der Gesundheitsbehörde der USA jede weitere Forschung am Menschen untersagt. Unter anderem, weil Voraussetzungen, die für einen Versuch am Menschen vorgegeben waren, bewusst nicht eingehalten wurden. So war der Gesundheitszustand von Jesse Gelsinger zu Beginn des Versuches zwar stabil, allerdings überschritten seine Leberwerte die von der Gesundheitsbehörde vorgegebenen Höchstgrenze. Genre-Theorie. Die Genre-Theorie (von frz. "genre" für "Gattung" bzw. "Stil") befasst sich mit den typischen Merkmalen literarischer oder filmischer Werke. Sie stammt aus der Literaturwissenschaft. Seit den 1970er Jahren hat sie sich von den USA ausgehend in der Filmwissenschaft etabliert, aber sie wird auch in der Musikwissenschaft und in der Spielwissenschaft verwendet. Aufgrund der unterschiedlichen Ansätze ist der Begriff Genre vielgestaltig und unterscheidet sich nur bedingt von anderen Allgemeinbegriffen wie Gattung oder Textsorte. Ein komplementärer Ansatz in der Filmwissenschaft ist die Auteur-Theorie. Genre und Gattung. Der Philosoph Aristoteles teilte in seiner "Poetik" die Dichtung in Epik, Lyrik und Drama ein und definierte damit die ersten Gattungen. Im Deutschen ergibt sich ein Verständnisproblem aus der Tatsache, dass die Begriffe "Genre" und "Gattung" gleichermaßen verwendet werden, je nach Kontext aber unterschiedliche Bedeutungen besitzen. Die Gattung gliedert der Tendenz nach die „hohe“ und das Genre die „niedere“ Kunst, ähnlich wie bei der Unterscheidung zwischen der „niederen“ Genremalerei und der „hohen“ Historienmalerei. Außerdem scheint die Gattung größere Werkgruppen zu bezeichnen als das Genre. Das englische "genre" wird im Deutschen zwar mit "Gattung" übersetzt und umgekehrt; je nach Kontext und Autor können die beiden Begriffe aber divergierende Bedeutungen annehmen. In der Filmwissenschaft spricht man in der Regel von Genres und meint damit thematisch verbundene Filmgruppen wie Western oder Thriller. In der Literaturwissenschaft ist dagegen meist von Gattungen die Rede, wenn es sich um Bildungsroman oder bürgerliches Trauerspiel handelt. Das Genre ist aus dieser Sicht eher eine Mode, während die Gattung als Ausführung eines theoretischen Programms erscheint. Genretheorie ist den Genres, die sie beschreibt, nicht vorausgesetzt, wie eine Poetik es für die Gattungen zu sein versucht. So ist es in der deutschsprachigen Filmwissenschaft durchaus üblich, ‚große‘ Gruppen wie Spiel- oder Dokumentarfilm als Gattung zu bezeichnen; in der Germanistik wiederum kommt auch der Ausdruck Genre zum Einsatz, meist als Bezeichnung für besonders stark typisierte, kommerziell ausgerichtete Literaturgattungen außerhalb oder am Rande des Literaturkanons. Der Arztroman ist beispielsweise typische Genreliteratur, der Roman wird dagegen als Gattung bezeichnet. Auch hier gilt, dass diese Unterscheidung keineswegs überall gemacht wird. Es ist durchaus zulässig, den Kriminalroman als Gattung zu bezeichnen; den Roman als Genre zu betiteln, ist dagegen unüblich. Im Englischen wiederum besitzt "genre" eine ähnlich breite Bedeutung wie "Gattung" im Deutschen: "Gothic Novel", "romance" oder "poetry" sind „genres“. Der unterschiedliche Sprachgebrauch führt nicht selten zu Verwirrung. Für Englischsprachige stellt die Behauptung, der "nonfiction film" sei ein "genre", kein Problem dar, im deutschsprachigen Kontext führt diese Feststellung dagegen meist zu heftigen Diskussionen, weil Genre hier normalerweise als kleinere Einheit verstanden wird. Geschichte. Wenn die Merkmale eines Genres nicht durch eine Poetik definiert sind wie beim Regeldrama der französischen Klassik, stellen sich bei jeder Zuordnung die Probleme der Induktion: Ein Film wird im Vergleich mit anderen Filmen dem Genre des Westerns oder des Horrorfilms zugeordnet. Es gibt keine vorgegebene Norm als feste Bezugsgröße. Wie soll man jedoch feststellen, zu welchem Genre ein Werk gehört, wenn ein Genre lediglich ein Kanon von Werken ist, den man mehr oder weniger willkürlich festlegen muss, da eine vollständige Beschreibung aller relevanten Merkmale nicht oder nur aus den Werken selbst hergeleitet werden kann? Erschwerend kommt hinzu, dass jedes Werk sich mit den Genre-Traditionen auseinandersetzt und neue Elemente einführt, beziehungsweise alte weglässt oder uminterpretiert. Sonst wäre es zu vorhersehbar und klischeehaft. Da das Publikum mit dem Genre gewisse Erwartungen verknüpft, ist das Werk stereotyp, wenn sie alle erfüllt, und unverständlich, wenn sie alle enttäuscht werden. Anders war es noch mit der französischen Hofgesellschaft im 17. Jahrhundert, die keine Neuerungen in den Tragödien erwartete, sondern darüber wachte, dass auf dem Theater nichts Irreguläres geschah. Abhängigkeit von historischen Prozessen. Wenn ein neues Werk unweigerlich neue Elemente einbringen muss, verändert sich die Definition eines Genres im Laufe der Zeit. Genres sind demnach historischen Prozessen unterworfen und beziehen sich immer auf bereits vorhandene Werke, neue können sie nicht vollständig beschreiben. In diesen Prozessen spielen auch gesellschaftliche Veränderungen eine wichtige Rolle, da der Konsens über ein Genre letztlich ein gesellschaftlicher Konsens ist. Verschiedene Parteien tragen also zur Bildung und Weiterentwicklung von Genres bei: Einmal die Produzenten und Autoren im Versuch, die Publikumsreaktionen zu kalkulieren, zum anderen das Publikum selbst, das eine Erwartungshaltung aufgebaut hat, und nicht zuletzt die Kritiker, die als Motor der Entwicklung dienen und den analytischen Hintergrund liefern. Die Genre-Theorie beschäftigt sich mit all diesen Fragen und hat komplexe Erklärungssysteme entworfen. Trotzdem bleiben viele Fragen offen, zum Beispiel zum Verhältnis von Autor und Genre. Goldbachsche Vermutung. Brief von Goldbach an Euler vom 7. Juni 1742 (lateinisch-deutsch) Die Goldbachsche Vermutung, benannt nach dem Mathematiker Christian Goldbach, ist eine unbewiesene Aussage aus dem Bereich der Zahlentheorie. Sie gehört als eines der Hilbertschen Probleme zu den bekanntesten ungelösten Problemen der Mathematik. Starke (oder binäre) Goldbachsche Vermutung. Mit dieser Vermutung befassten sich bis in die heutige Zeit viele Zahlentheoretiker, ohne sie beweisen oder widerlegen zu können. Tomás Oliveira e Silva zeigte mittels eines Volunteer-Computing-Projekts mittlerweile (Stand April 2012) die Gültigkeit der Vermutung für alle Zahlen bis 4·1018. Ein Beweis dafür, dass sie für "jede" beliebig große gerade Zahl gilt, ist dies natürlich nicht. Nachdem der britische Verlag Faber & Faber im Jahr 2000 ein Preisgeld von einer Million Dollar auf den Beweis der Vermutung ausgelobt hatte, wuchs auch das öffentliche Interesse an dieser Frage. Das Preisgeld wurde nicht ausgezahlt, da bis April 2002 kein Beweis eingegangen war. Schwache (oder ternäre) Goldbachsche Vermutung. ist als "ternäre" oder "schwache" Goldbachsche Vermutung bekannt. Sie ist teilweise gelöst: Denn einerseits gilt sie, wenn die verallgemeinerte Riemannsche Vermutung richtig ist, und andererseits ist gezeigt, dass sie für alle genügend großen Zahlen gilt (Satz von Winogradow, siehe Verwandte Resultate). Am 13. Mai 2013 kündigte der peruanische Mathematiker Harald Helfgott einen mutmaßlichen Beweis der ternären Goldbachschen Vermutung für alle Zahlen formula_1 an. Die Gültigkeit für sämtliche Zahlen unterhalb ist bereits mit Computerhilfe überprüft worden. Aus der starken Goldbachschen Vermutung folgt die schwache Goldbachsche Vermutung, denn jede ungerade Zahl formula_2 kann als Summe formula_3 geschrieben werden. Der erste Summand formula_4 ist nach der starken Goldbachschen Vermutung Summe zweier Primzahlen (formula_5), womit eine Darstellung formula_6 von formula_2 als Summe von drei Primzahlen gefunden ist. Goldbach-Zerlegungen. Anzahl der Möglichkeiten, die geraden Zahlen bis 200.000 als Summe zweier Primzahlen darzustellen Als Goldbach-Zerlegung wird die Darstellung einer geraden Zahl als Summe zweier Primzahlen bezeichnet, beispielsweise ist formula_8 eine Goldbach-Zerlegung der 8. Die Zerlegungen sind nicht eindeutig, wie man an formula_9 ersehen kann. Für größere gerade Zahlen gibt es eine tendenziell wachsende Anzahl von Goldbach-Zerlegungen („mehrfache Goldbachzahlen“). Die Anzahl der Goldbach-Zerlegungen lässt sich mit Computerunterstützung leicht berechnen, siehe Abbildung. Um die starke Goldbachsche Vermutung zu verletzen, müsste ein Datenpunkt irgendwann auf die Nulllinie fallen. Die Forderung an eine gerade Zahl formula_10, dass für jede Primzahl formula_11 mit formula_12 auch formula_13 eine Primzahl und somit formula_14 eine Goldbach-Zerlegung ist (die Zahl formula_10 also die maximale Anzahl an Goldbach-Zerlegungen besitzt), erfüllen genau die vier Zahlen 10, 16, 36 und 210. Auch die schwächere Forderung, dass für jede Primzahl formula_11 mit formula_17 auch formula_13 eine Primzahl ist, erfüllt keine Zahl formula_19. Beweisversuche durch Amateure. Die Goldbachsche Vermutung zieht immer wieder Amateurmathematiker an. Gelegentlich erhalten solche Beweisversuche auch mediale Aufmerksamkeit. Daniel Gabriel Fahrenheit. Fahrenheits Geburtshaus in der Danziger Hundegasse heute Daniel Gabriel Fahrenheit (* 24. Mai 1686 in Danzig; † 16. September 1736 in Den Haag) war ein Physiker und Erfinder von Messinstrumenten. Nach ihm wurde die Temperatureinheit „Grad Fahrenheit“ °F benannt. Herkunft. Seine in Danzig wohnenden Eltern waren Daniel und Concordia Fahrenheit (geb. Schumann, verw. Runge). Die Mutter Concordia kam aus der bekannten Danziger Kaufmannsfamilie Schumann. Daniel war das älteste von fünf Kindern (zwei Söhne, drei Töchter) und überlebte als einziges die ersten Lebensjahre in der Danziger Hundegasse (bis 1378 Brauergasse, nach 1945 Ul. Ogarna 95). Sein Großvater Reinhold Fahrenheit war von Kneiphof/Königsberg (Preußen) nach Danzig gezogen und hatte sich dort als Kaufmann etabliert. Die Familie stammte vermutlich aus Hildesheim, Daniels Urgroßvater hatte aber in Rostock gelebt, bevor er nach Königsberg gezogen war. Leben. Seine Eltern waren früh verstorben, vermutlich am Verzehr giftiger Pilze. Dadurch war Fahrenheit gezwungen, eine Kaufmannslehrstelle in Amsterdam anzunehmen. Er unternahm dann weite Reisen und ließ sich 1717 in der niederländischen Stadt Den Haag als Glasbläser nieder, um sich vor allem mit dem Bau von Barometern, Höhenmessern und Thermometern zu befassen. 1718 hielt er in Amsterdam Vorlesungen über Chemie. Am 7. Mai 1724 wurde er zum Fellow der Royal Society gewählt. Bedeutung. Fahrenheit entwickelte präzise Thermometer mit 3-Punkte-Eichung (Fahrenheit-Skala) und begründete hiermit die Thermometrie. Zunächst verwendete er als Thermometersubstanz Weingeist, ab etwa 1714 auch Quecksilber. Er kam auf den Gedanken, als er eine Arbeit von Guillaume Amontons las, in der die Änderung der Anzeige von Quecksilberbarometern mit der Temperatur beschrieben wurde. Er erfand somit das Quecksilberthermometer (dieses gab es bereits vorher, aber nur durch seine Kalibrierung und seine Herstellungsverfahren wurde es auch allgemein anwendbar). Als Nullpunkt seiner Skala verwendete er die tiefste Temperatur, die er mit einer Eis-Salz-Kältemischung erzeugen konnte: −17,8 °C. 1721 entdeckte er, dass Wasser erheblich unter seinen Frostpunkt abgekühlt werden kann, ohne zu gefrieren. Fahrenheit konstruierte außerdem ein Aräometer, ein Pyknometer und ein Hypsobarometer. Eine Zeit lang war die Fahrenheit-Skala in Deutschland in Gebrauch. In den USA wird heute noch nach Fahrenheit gemessen. Autographen von ihm werden unter anderem in der Gottfried Wilhelm Leibniz Bibliothek aufbewahrt. Germanische Sprachen. Die germanischen Sprachen sind ein Zweig der indogermanischen Sprachfamilie. Sie umfassen etwa 15 Sprachen mit rund 500 Millionen Muttersprachlern, fast 800 Millionen einschließlich der Zweitsprecher. Ein charakteristisches Phänomen aller germanischen Sprachen gegenüber den anderen indogermanischen Sprachen sind die Veränderungen im Konsonantismus durch die Germanische Lautverschiebung. Dieser Artikel dient der Gesamtdarstellung der germanischen Sprachen. Auf Untergruppen und einzelne Sprachen und ihre Dialekte wird verwiesen. Die urgermanische Sprache wird in einem separaten Artikel behandelt. Die großen germanischen Sprachen. Insgesamt zehn germanische Sprachen besitzen jeweils mehr als eine Million Sprecher. Die West-Nord-Ost-Gliederung der germanischen Sprachen. Die germanischen Sprachen werden in der Regel in "West-", "Nord-" und "Ostgermanisch" eingeteilt (siehe unten die ausführliche Klassifikation). Die Sprachgrenze zwischen Nord- und Westgermanisch wird heute durch die deutsch-dänische Grenze markiert und lag früher etwas weiter südlich an der Eider. Innerhalb der beiden großen Sprachgruppen gibt es fließende Übergänge durch lokale Dialekte. Zu den westgermanischen Sprachen gehören: Englisch, Deutsch, Niederländisch, Afrikaans, Niederdeutsch, Jiddisch, Luxemburgisch, Friesisch und Pennsylvania Dutch. Dazu gehören: Schwedisch, Dänisch, Norwegisch, Färöisch und Isländisch. Alle ostgermanischen Sprachen sind ausgestorben. Die bestüberlieferte ostgermanische Sprache ist Gotisch. Einteilung der heutigen germanischen Sprachen. Die Grundlage dieser Klassifikation ist der Weblink „Klassifikation der indogermanischen Sprachen“, der für das Germanische vor allem auf Robinson 1992 basiert. Die aktuellen Sprecherzahlen entstammen Ethnologue 2005 und offiziellen Länderstatistiken. Da die Grenzen zwischen Sprachen und Dialekten fließend sind, werden z. B. "Luxemburgisch, Plautdietsch, Pennsylvanisch" und "Niederdeutsch" nicht von allen Forschern als "Sprachen" betrachtet, "Schwyzerdütsch" und "Schottisch (Scots)" dagegen von anderen als weitere eigenständige westgermanische Sprachen angesehen. Ein weiteres Beispiel: Die beiden Varianten des "Norwegischen" ("Bokmål" und "Nynorsk") werden von einigen Skandinavisten als separate Sprachen betrachtet, wobei dann Bokmål in die Nähe des Dänischen, Nynorsk in die Nähe des Isländisch-Faröischen rückt. Historische Klassifikation. Während die obige Klassifikation lediglich eine Gliederung der heute existierenden germanischen Sprachen bietet, soll folgende Darstellung einen historischen Einblick vermitteln, da auch die ausgestorbenen germanischen Sprachen aufgeführt werden. Nicht belegte, aber erschließbare Zwischenglieder sind durch * gekennzeichnet. Insbesondere über die historische Gliederung der westgermanischen Sprachen gibt es bisher keinen vollständigen Konsens, die folgende historisch orientierte Darstellung (nach Maurer 1942, Wiesinger 1983, dtv-Atlas Deutsche Sprache 2001) gibt aber die mehrheitlich vertretene Forschungsrichtung wieder. Dabei wird das Westgermanische nicht als ursprüngliche genetische Einheit aufgefasst, es hat sich erst später aus seinen Komponenten Nordseegermanisch, Weser-Rhein-Germanisch und Elbgermanisch durch Konvergenz herausgebildet. Aus dieser Darstellung wird auch klar, dass die Dialekte des Deutschen verschiedenen Zweigen des „Westgermanischen“ angehören, "Deutsch" also nur in Form seiner Dialekte in einen historischen germanischen Stammbaum integrierbar ist. Entwicklung des Deutschen. Die drei historischen Stadien des Hochdeutschen – Althochdeutsch, Mittelhochdeutsch und Neuhochdeutsch – sind nur als Vereinigung von Dialekten greifbar, die verschiedenen Zweigen der obigen Klassifikation angehören. Das Neuhochdeutsche entwickelte sich aus mittel- und oberdeutschen Dialekten; Details im Artikel Deutsche Sprache. Germanische Schriften. Seit ungefähr dem 2. Jahrhundert n. Chr. haben die germanischen Stämme eigene Schriftzeichen verwendet, die Runen. Es entstand das sogenannte ältere Futhark, eine frühe Form der Runenreihe, die bis ca. 750 n. Chr. in Gebrauch war. Die überlieferte Gotische Bibel des 4. Jahrhunderts hat ihre eigene Schrift, nämlich das vom Bischof Wulfila entwickelte Gotische Alphabet. Später wurden die germanischen Sprachen mit lateinischen Buchstaben geschrieben. Beispiele von modifizierten Buchstaben sind das Yogh (Yogh) und die latinisierten Runen Thorn (þ) und Wunjo (Wunjo). Germanische Wortgleichungen. Die folgenden Tabellen stellen einige Wortgleichungen aus den Bereichen "Verwandtschaftsbezeichnungen", "Körperteile", "Tiernamen", "Umweltbegriffe", "Pronomina", "Verben" und "Zahlwörter" für wichtige alt- und neugermanische Sprachen zusammen. Man erkennt den hohen Grad der Verwandtschaft der germanischen Sprachen insgesamt, die besondere Ähnlichkeit der westgermanischen und nordgermanischen Sprachen untereinander, die stärkere Abweichung des Gotischen von beiden Gruppen und letztlich die Beziehung des Germanischen zum Indogermanischen (letzte Spalte, hier sind die Abweichungen natürlich größer). Hier können auch die Gesetze der germanischen (ersten) und hochdeutschen (zweiten) Lautverschiebung überprüft werden (ausführliche Behandlung im nächsten Abschnitt). Da die germanischen und indogermanischen Formen nur rekonstruiert sind, sind sie mit einem * versehen. Gesamtgermanische Zahlwörter. Quelle dieser Tabellen ist der Weblink „Germanische Wortgleichungen“, der wiederum auf der Basis mehrerer etymologischer Wörterbücher zusammengestellt wurde, darunter Kluge 2002, Onions 1966 und Pokorny 1959. Germanische Lautverschiebung. Die germanischen Sprachen unterscheiden sich von anderen indogermanischen Sprachen durch eine charakteristische, eben die "germanische" Konsonantenverschiebung, die in der Germanistik als "erste" von einer folgenden "zweiten" Lautverschiebung unterschieden wird. Die folgende Tabelle bringt Wortgleichungen, die diesen Übergang von den indogermanischen zu den entsprechenden protogermanischen Konsonanten belegen. Da auch die hochdeutschen Parallelen angegeben sind, belegt die Tabelle auch die Zweite Lautverschiebung vom (Proto-)Germanischen zum Hochdeutschen. Rekonstruierte protogermanische und indogermanische Formen sind durch * gekennzeichnet, entsprechende Konsonanten durch Fettdruck hervorgehoben. Protogermanisch und seine Abspaltungen. Einige Forscher vermuten, dass das Protogermanische mit den Vorläufern der baltischen und slawischen Sprachen eine Dialektgruppe innerhalb der west-indogermanischen Sprachen bildete. Diese Annahme wird nicht zuletzt durch eine neuere lexikostatistische Arbeit gestützt. Diese Vorformen des Germanischen könnten bereits im späten 3. und frühen 2. Jahrtausend v. Chr. entsprechend ihrer geographischen Lage eine Zwischenstellung zwischen dem Keltisch-Italischen im Südwesten und dem Baltoslawischen im Südosten eingenommen haben. Das Protogermanische habe sich dann aus dieser Gruppe gelöst, wonach es deutliche Wechselwirkungen mit frühfinnischen Sprachen zeigt. Bezüglich einer sogenannten germanischen „Urheimat“ bringt der Onomast Jürgen Udolph das Argument, dass sich germanische Orts- und Gewässernamen mit Schwerpunkt im weiteren Umkreis des Harzes nachweisen lassen. Diese Beobachtung belegt jedoch im Grunde nur eine seit der Benennung ungestörte germanische Besiedlung, nicht deren Zeitrahmen. Einen Zeitrahmen bieten dagegen archäologische Funde auf Grund gleichartiger, ungebrochener Traditionen im Raum zwischen dem von Udolph vorgeschlagenen Harzumland bis Südskandinavien seit etwa dem 12. Jahrhundert v. Chr. Die protogermanische Sprache (auch „Urgermanisch“ oder „Gemeingermanisch“) konnte durch sprachwissenschaftliche Vergleiche weitgehend rekonstruiert werden. Diese erschlossene Vorform soll bis etwa 100 v. Chr., in der sogenannten "gemeingermanischen" Sprachperiode relativ einheitlich geblieben sein. Als Eigenheit fällt auf, dass das Germanische einige indogermanische Erbwörter recht eigenwillig verwendet (Beispiel: "sehen" = „[mit den Augen] folgen“, vgl. Lateinisch "sequi"). Nach Euler (2009) spaltete sich als erste Sprache das ausgestorbene, fast nur durch das Gotische überlieferte Ostgermanische ab. Im 1. Jahrhundert n. Chr. hätten sich dann die westgermanischen von den nordgermanischen Sprachen getrennt. Wortschatz, Lehnwörter. Der protogermanische Wortschatz enthält eine Reihe von Lehnwörtern nicht-germanischen Ursprungs. Auffallend sind z. B. Entlehnungen im Bereich von Schiffbau und Navigation aus einer bisher unbekannten Substratsprache, vermutlich im westlichen Ostseeraum. Diese germanische Substrathypothese wird allerdings inzwischen stark bestritten. Dagegen werden Entlehnungen im Bereich sozialer Organisation vor allem keltischem Einfluss zugeschrieben. Diese Beobachtungen legen eine Entstehung des Germanischen als Einwanderersprache nahe. Wertvolle Hinweise sowohl auf die germanischen Lautformen als auch vorgeschichtliche Nachbarschaftsverhältnisse geben noch heute in ostsee-finnischen Sprachen erhaltene Entlehnungen aus dem Germanischen, wie z. B. finnisch "kuningas" (König) aus Germanisch: *"kuningaz", "rengas" (Ring) aus Germanisch: *"hrengaz" (/z/ steht für stimmhaftes /s/). Artikel. Das Germanische kannte ursprünglich weder den bestimmten noch den unbestimmten Artikel, ebenso wie das Lateinische. Das Westgermanische bildete dann die bestimmten Artikel „der“, „die“ und „das“ aus den Demonstrativpronomen. Die unbestimmten Artikel wurden in den westgermanischen und in den meisten nordgermanischen Sprachen (wie in den romanischen Sprachen) aus dem Zahlwort für „1“ gebildet. Das moderne Isländisch hat keinen unbestimmten Artikel entwickelt. Goldener Schnitt. Die Kenntnis des Goldenen Schnittes ist in der mathematischen Literatur seit der Zeit der griechischen Antike (Euklid von Alexandria) nachgewiesen. Vereinzelt schon im Spätmittelalter (Campanus von Novara) und besonders dann in der Renaissance (Luca Pacioli, Johannes Kepler) wurde er auch in philosophische und theologische Zusammenhänge gestellt. Seit dem 19. Jahrhundert wurde er zunächst in der ästhetischen Theorie (Adolf Zeising) und dann auch in künstlerischer, architektonischer und kunsthandwerklicher Praxis als ein ideales Prinzip ästhetischer Proportionierung bewertet. Die Nachweisbarkeit einer derart besonderen ästhetischen Wirkung ist in der Forschung allerdings umstritten, desgleichen die historische Frage, ob der Goldene Schnitt auch schon bei der Proportionierung von Kunst- und Bauwerken älterer Epochen eine Rolle gespielt hat. Das Verhältnis des goldenen Schnitts ist nicht nur in Mathematik, Kunst oder Architektur von Bedeutung, sondern findet sich auch in der Natur, beispielsweise bei der Anordnung von Blättern und in Blütenständen mancher Pflanzen. Definition und elementare Eigenschaften. Eine Strecke der Länge formula_6 wird durch einen Punkt T innen so geteilt, dass die Länge formula_2 des größeren Teilabschnitts "mittlere Proportionale" zwischen der Länge formula_3 des kleineren Teilabschnitts und der gesamten Streckenlänge wird. Es gilt somit: =:. Diese Teilung heißt "Goldener Schnitt" der Strecke. Das Verhältnis formula_9 der Streckenabschnitte: wird "Goldene Zahl" genannt. Wird eine Strecke formula_6 im Goldenen Schnitt geteilt, so gilt für den längeren Abschnitt Die Goldene Zahl ist eine irrationale Zahl, das heißt, sie lässt sich nicht als Bruch zweier ganzer Zahlen darstellen. Sie ist jedoch eine algebraische Zahl vom Grad 2, insbesondere kann sie mit Zirkel und Lineal konstruiert werden. Ferner ist sie besonders schlecht durch Brüche approximierbar. Aus diesem Grund wird sie in der Literatur gelegentlich auch als "irrationalste Zahl" bezeichnet. Diese Eigenschaft wird im Abschnitt Approximationseigenschaften der Goldenen Zahl genauer erläutert. Konstruktionen mit Zirkel und Lineal. Als Konstruktionsverfahren werden nach den Postulaten des Euklid nur diejenigen Verfahren akzeptiert, die sich auf die Verwendung von Zirkel und Lineal (ohne Skala) beschränken. Für die Teilung einer Strecke im Verhältnis des Goldenen Schnittes gibt es eine Fülle derartiger Verfahren, von denen im Folgenden exemplarisch nur einige erwähnt werden. Man unterscheidet dabei eine "innere" und "äußere" Teilung. Bei der "äußeren Teilung" wird der in der Verlängerung der Ausgangsstrecke außen liegende Punkt gesucht, der die vorhandene Strecke zum (größeren) Teil des Goldenen Schnittes macht. Der Goldene Schnitt stellt dabei einen Spezialfall der harmonischen Teilung dar. Aufgeführt werden im Folgenden auch zwei moderne, von Künstlern gefundene Konstruktionen. Äußere Teilung. Anstatt stets neu konstruieren zu müssen, wurde im 19. Jahrhundert von Künstlern und Handwerkern ein "Goldener Zirkel" – ein auf das Goldene Verhältnis eingestellter Reduktionszirkel – benutzt. Insbesondere im Schreinerhandwerk wurde ein ähnliches Instrument in Form eines Storchschnabels benutzt. Der Goldene Schnitt im Fünfeck und im Pentagramm. Regelmäßiges Fünfeck und Pentagramm bilden jeweils eine Grundfigur, in der das Verhältnis des Goldenen Schnittes wiederholt auftritt. Die Seite eines regelmäßigen Fünfecks z. B. befindet sich im Goldenen Schnitt zu seinen Diagonalen. Die Diagonalen untereinander wiederum teilen sich ebenfalls im goldenen Verhältnis, d. h. verhält sich zu wie zu. Der Beweis dazu nutzt die Ähnlichkeit geeignet gewählter Dreiecke. Das Pentagramm, eines der ältesten magischen Symbole der Kulturgeschichte, steht in einer besonders engen Beziehung zum Goldenen Schnitt. Zu jeder Strecke und Teilstrecke im Pentagramm findet sich ein Partner, der mit ihr im Verhältnis des Goldenen Schnittes steht. In der Abbildung sind alle drei möglichen Streckenpaare jeweils blau (längere Strecke) und orange (kürzere Strecke) markiert. Sie lassen sich über das oben beschriebene Verfahren der stetigen Teilung nacheinander erzeugen. Im Prinzip ist es damit in das verkleinerte Pentagramm fortsetzbar, das man in das innere Fünfeck zeichnen könnte, und damit auch in alle weiteren. Stünden die beiden Strecken in einem Verhältnis ganzer Zahlen, müsste dieses Verfahren der fortgesetzten Subtraktion irgendwann Null ergeben und damit abbrechen. Die Betrachtung des Pentagramms zeigt aber anschaulich, dass das nicht der Fall ist. Ersetzt man formula_16 und beachtet die Gleichheit der auftretenden Teilstücke, so erhält man genau die obige Definitionsgleichung für den Goldenen Schnitt. Goldenes Rechteck und Goldenes Dreieck. Ein Rechteck, dessen Seitenverhältnis dem Goldenen Schnitt entspricht, bezeichnet man als Goldenes Rechteck. Ebenso nennt man ein gleichschenkliges Dreieck, bei dem zwei Seiten in diesem Verhältnis stehen, Goldenes Dreieck. Goldener Winkel. Der Goldene Winkel formula_17 Blattstand einer Pflanze mit einem Blattabstand nach dem Goldenen Winkel Den Goldenen Winkel formula_18 erhält man, wenn man den Vollwinkel im Goldenen Schnitt teilt. Dies führt auf den überstumpfen Winkel formula_19 Gewöhnlich wird aber seine Ergänzung zum Vollwinkel, formula_20 als Goldener Winkel bezeichnet. Dies ist dadurch gerechtfertigt, dass Drehungen um ±2π keine Rolle spielen und das Vorzeichen nur den Drehsinn des Winkels bezeichnet. Es ist nämlich Durch wiederholte Drehung um den Goldenen Winkel entstehen immer wieder neue Positionen, etwa für die Blattansätze im Bild. Wie bei jeder irrationalen Zahl werden dabei nie exakte Überdeckungen entstehen. Weil die Goldene Zahl im unten beschriebenen Sinn die „irrationalste“ Zahl darstellt, wird dabei erreicht, dass die Überdeckung der Blätter, welche die Photosynthese behindert, in der Summe minimiert wird. Goldene Spirale. Goldene Spirale (genähert durch Viertelkreise) Die Goldene Spirale ist ein Sonderfall der logarithmischen Spirale. Diese Spirale lässt sich mittels rekursiver Teilung eines Goldenen Rechtecks in je ein Quadrat und ein weiteres, kleineres Goldenes Rechteck konstruieren (siehe nebenstehendes Bild). Sie wird oft durch eine Folge von Viertelkreisen approximiert. Ihr Radius ändert sich bei jeder 90°-Drehung um den Faktor formula_22. Es gilt: formula_23 mit der Steigung formula_24, wobei formula_25 hierbei der Zahlenwert für den rechten Winkel, also 90° bzw. formula_26 ist, also formula_27 mit der Goldenen Zahl formula_28. Mithin gilt für die Steigung: formula_29. Goldener Schnitt im Ikosaeder. Die zwölf Ecken des Ikosaeders bilden die Ecken von drei gleich großen, senkrecht aufeinanderstehenden Rechtecken mit gemeinsamem Mittelpunkt und mit den Seitenverhältnissen des Goldenen Schnittes. Herleitung des Zahlenwertes. Die in der Einleitung angegebene Definition lautet mit aufgelöster rechter Seite und nach Umstellung Multiplikation mit   formula_22   ergibt die quadratische Gleichung mit den beiden Lösungen   formula_36   und   formula_37 Da von diesen beiden Werten nur der positive für die Goldene Zahl in Frage kommt, folgt Die Goldene Zahlenfolge. Zu einer gegebenen Zahl formula_50 lässt sich eine Folge formula_51 für formula_52 konstruieren. Diese Folge hat die Eigenschaft, dass je drei aufeinanderfolgende Glieder formula_53 einen Goldenen Schnitt bilden, das heißt, es gilt Diese Folge spielt in der Proportionslehre in Kunst und Architektur eine wichtige Rolle, weil sich zu einer gegebenen Länge formula_50 weitere dazu harmonisch wirkende Längen erzeugen lassen. Dadurch lassen sich auch Objekte sehr unterschiedlicher Abmessungen, wie etwa Fenster- und Raumbreite, mittels des Goldenen Schnitts in Bezug setzen und ganze Serien untereinander harmonischer Maße erstellen. Zusammenhang mit den Fibonacci-Zahlen. Die jeweils nächste Zahl in dieser Folge erhält man als Summe der beiden vorangehenden. Das Verhältnis zweier aufeinanderfolgender Zahlen der Fibonacci-Folge strebt gegen den Goldenen Schnitt (siehe Tabelle). Das rekursive Bildungsgesetz formula_60 bedeutet nämlich Sofern dieses Verhältnis gegen einen Grenzwert formula_22 konvergiert, muss für diesen gelten Diese Argumentation gilt auch für verallgemeinerte Fibonacci-Folgen mit zwei beliebigen Anfangsgliedern. mit formula_67. Diese Formel liefert die richtigen Anfangswerte formula_68 und formula_69 und erfüllt die rekursive Gleichung formula_60 für alle formula_71. Approximationseigenschaften der Goldenen Zahl. Wie weiter oben schon angegeben, ist die Goldene Zahl formula_22 eine irrationale Zahl, das heißt sie lässt sich nicht als Bruch zweier ganzer Zahlen darstellen. Sie wird manchmal die „irrationalste“ aller Zahlen genannt, weil sie sich (in einem speziellen zahlentheoretischen Sinn) besonders schlecht durch rationale Zahlen approximieren lässt (Diophantische Approximation). Dies soll im Folgenden durch einen Vergleich mit der ebenfalls irrationalen Kreiszahl formula_73 illustriert werden. Letztere ist wesentlich besser approximierbar als formula_22, zum Beispiel lässt formula_73 sich durch den Bruch formula_76 mit einer Abweichung von nur zirka 0,00126 approximieren. Einen derartig geringen Fehler würde man im Allgemeinen erst bei einem sehr viel größeren Nenner erwarten. Die Goldene Zahl lässt sich direkt aus der Forderung nach möglichst schlechter Approximierbarkeit durch rationale Zahlen konstruieren. Um das zu verstehen, betrachte man das folgende Verfahren zur Approximation beliebiger Zahlen durch einen Bruch am Beispiel der Zahl formula_73. Wir zerlegen diese Zahl zunächst in ihren ganzzahligen Anteil und einen Rest, der kleiner als formula_78 ist: formula_79. Der Kehrwert dieses Restes ist eine Zahl, die größer als formula_78 ist. Sie lässt sich daher wiederum zerlegen in einen ganzzahligen Anteil und einen Rest kleiner formula_78: formula_82. Verfährt man mit diesem Rest und allen folgenden ebenso, dann erhält man die so genannte unendliche Kettenbruchentwicklung der Zahl formula_73 Im obigen Kettenbruch erscheint vor jedem Pluszeichen eine ganze Zahl. Je größer diese Zahl ist, umso kleiner ist der Bruch, in dessen Nenner sie steht, und umso kleiner ist daher auch der Fehler, der entsteht, wenn der unendliche Kettenbruch vor diesem Bruch abgebrochen wird. Die größte Zahl im obigen Abschnitt des Kettenbruchs ist die formula_96. Das ist der Grund, warum formula_76 eine derart gute Approximation für formula_73 darstellt. In Umkehrung dieser Argumentation folgt nun, dass die Approximation besonders schlecht ist, wenn die Zahl vor dem Pluszeichen besonders klein ist. Die kleinste zulässige Zahl dort ist aber die formula_78. Der Kettenbruch, der ausschließlich Einsen enthält, lässt sich daher besonders schlecht durch rationale Zahlen approximieren und ist in diesem Sinn die „irrationalste aller Zahlen“. Für die Goldene Zahl gilt nun aber formula_100 (siehe oben), woraus sich durch wiederholte Anwendung ergibt Da die Kettenbruchentwicklung der Goldenen Zahl formula_22 also nur Einsen enthält, gehört sie zu den Zahlen, die besonders schlecht rational approximierbar sind. Bricht man ihre Kettenbruchentwicklung an irgendeiner Stelle ab, so erhält man stets einen Bruch aus zwei aufeinanderfolgenden Fibonacci-Zahlen. Eine weitere kuriose Bezeichnung ist die folgende: In der Theorie der dynamischen Systeme bezeichnet man Zahlen, deren unendliche Kettenbruchdarstellung ab irgendeiner Stelle nur noch Einsen enthält, als „noble Zahlen“. Da die Goldene Zahl nur Einsen in ihrem Kettenbruch hat, kann man sie scherzhaft als „nobelste Zahl“ bezeichnen. Geometrisches Mittel. Wird die Strecke in ihrer Länge formula_120 als reelle Zahl formula_2 interpretiert, und die Teilung durch den Goldenen Schnitt im Punkt T in die beiden Teilstrecken und als Zerlegung dieser Zahl formula_2 in zwei Summanden formula_92 und formula_124, so ist formula_92 das geometrische Mittel der Zahlen formula_2 und formula_124. Das folgt aus der allgemeinen Definition des geometrischen Mittels formula_128, hier: formula_129. Des Weiteren folgt daraus unmittelbar, dass formula_2 wiederum das geometrische Mittel von formula_131 und formula_132 ist. Für jedes beliebige reelle formula_2 lässt sich daher sowohl eine mathematische Folge aufsteigend wie absteigend angeben. Die aufsteigende, wie auch die absteigende Folge ist jeweils rekursiv definiert. formula_134 mit dem Anfangspunkt formula_135. formula_136 mit dem Anfangspunkt formula_135. Stetige Teilung. Die geometrische Verallgemeinerung des Goldenen Schnittes durch seine mehrfache Anwendung ist die stetige Teilung einer Strecke formula_138. Dabei wird die Strecke formula_138 zunächst in eine kleinere Strecke formula_140 und eine größere formula_141 zerlegt. Die Strecke formula_141 (d. h. der größere der entstandenen Streckenabschnitte) wird nunmehr erneut einem Goldenen Schnitt unterzogen, wobei formula_143 als (neuer) größerer Streckenabschnitt und formula_144 als kleinerer verbleiben. Dieser Schritt kann nun unendlich oft wiederholt werden, da auf Grund der mathematischen Eigenschaften des Goldenen Schnittes trotz der fortschreitenden Teilung es keinen Punkt formula_145 geben wird, der mit dem ursprünglichen Punkt formula_146 zusammenfällt. Dieses allgemeingültige Vorgehen kann aber auch dadurch erreicht werden, dass im Punkt B nach der Konstruktion von A' die Strecke formula_140 abgetragen wird: Der auf diese Weise entstehende Punkt formula_148 ist der gleiche, wie der soeben in der (allgemeinen) Zerlegung beschriebene Punkt formula_148. Diese Schrittfolge bezeichnet man als stetige Teilung einer Strecke formula_138. Analytisch ist damit die stetige Teilung als Verallgemeinerung des Goldenen Schnittes ein Beispiel von Selbstähnlichkeit: Interpretiert man wiederum die entstandenen Längen der Strecken als reelle Zahlen, so gilt: Subtrahiert man die kürzere der beiden Strecken von der längeren, so erhält man eine noch kürzere Strecke formula_151, zu der die mittlere Strecke formula_3 wiederum im Verhältnis des Goldenen Schnittes steht, also Diese Aussage ist analytisch wiederum identisch zu der absteigenden geometrischen Folge des vorangegangenen Abschnittes. Für die Verlängerung einer gegebenen Strecke gilt demzufolge die gleiche Aussage, sie führt zur aufsteigenden geometrischen Folge. Aus dieser Aussage heraus gilt aber auch: Ein Rechteck mit den Seiten formula_2 und formula_3 entspricht genau dann dem Goldenen Schnitt, wenn das auch für das Rechteck mit den Seiten formula_156 und formula_2 der Fall ist. Ein Goldenes Rechteck lässt sich daher stets in ein kleineres Goldenes Rechteck und ein Quadrat zerlegen. Diese Verallgemeinerung ist wiederum Grundlage für die Konstruktion der (unendlichen) Goldenen Spirale, wie oben beschrieben. Verfahren des Goldenen Schnittes. Das Verfahren des Goldenen Schnittes (auch: "Methode des Goldenen Schnittes", "Suchverfahren Goldener Schnitt", seltener auch "Goldenes Verfahren") ist ein Verfahren der mathematischen nichtlinearen Optimierung, genauer berechnet es algorithmisch eine numerische Näherung für eine Extremstelle (Minimum oder Maximum) einer reellen Funktion einer Variablen in einem Suchintervall formula_158. Es basiert auf der analytischen Anwendung der ursprünglich geometrisch definierten stetigen Teilung. Im Gegensatz zum Intervallhalbierungsverfahren wird dabei das Suchintervall nicht bei jedem Schritt halbiert, sondern nach dem Prinzip des Goldenen Schnittes verkleinert. Der verwendete Parameter formula_159 ("tau") hat dabei nicht, wie bei dem Bisektionsverfahren, den Wert formula_160, sondern man wählt formula_161, sodass sich zwei Punkte formula_162 und formula_163 für das Optimierungsverfahren ergeben, die das Suchintervall im Goldenen Schnitt teilen. Wird angenommen, dass jeder Punkt in jedem Intervall mit gleicher Wahrscheinlichkeit Extrempunkt sein kann, führt dies bei Unbestimmtheitsintervallen dazu, dass das Verfahren des Goldenen Schnittes z. B. um 14 % effektiver ist als die Intervallhalbierungsmethode. Im Vergleich zu diesem und weiteren sequentiellen Verfahren ist es – mathematisch gesehen – das für allgemeine Funktionen effektivste Verfahren; nur im Fall differenzierbarer Funktionen ist es der direkten mathematischen Lösung unterlegen. Dass sich dieses Verfahren in der manuellen Rechnung nicht durchgesetzt hat, liegt vor allem an den notwendigen Wurzelberechnungen für die einzelnen Zwischenschritte. Für computergestützte Berechnungen sind heute andere numerische Verfahren leistungsfähiger, so dass es sich auch in diesem Bereich nicht durchsetzte. Geschichte. Der Begriff "Goldener Schnitt" wurde erst ab der ersten Hälfte des 19. Jahrhunderts populär, obwohl die mathematischen Prinzipien schon seit der Antike bekannt waren. Auch der Begriff "Goldene Zahl" stammt aus dieser Zeit, noch 1819 wird dieser Begriff mit dem Meton-Zyklus in einem der griechischen Kalendersysteme in Verbindung gebracht. Antike. Die erste erhalten gebliebene genaue Beschreibung des Goldenen Schnittes findet sich im zweiten Buch der "Elemente" des Euklid (um 300 v. Chr.), der darauf über seine Untersuchungen an den platonischen Körpern und dem Fünfeck beziehungsweise dem Pentagramm stieß. Seine Bezeichnung für dieses Teilungsverhältnis wurde später ins Lateinische als „proportio habens medium et duo extrema“ übersetzt, was heute als „Teilung im inneren und äußeren Verhältnis“ bezeichnet wird. Als historisch gesichert kann heute gelten, dass der Goldene Schnitt bereits vor Euklid bekannt war. Umstritten ist, ob die Entdeckung auf Hippasos von Metapont (spätes 6. Jahrhundert v. Chr.) oder auf Eudoxos von Knidos (um 370 v. Chr.) zurückgeht. Mittelalter. In seinem Rechenbuch "Liber abbaci" (nicht erhaltene Erstfassung 1202, erhaltene 2. Fassung nicht vor 1220), einem umfangreichen arithmetischen und algebraischen Lehrwerk über das Rechnen mit den indo-arabischen Ziffern, kommt der italienische Mathematiker Leonardo da Pisa, genannt „Fibonacci“, kurz auch auf die später nach ihm benannten Fibonacci-Folge zu sprechen, und zwar im Zusammenhang mit der sogenannten Kaninchen-Aufgabe, in der zu errechnen ist, wie viele Kaninchenpaare bei einer Fortpflanzungsrate von einem Paar Jungkaninchen pro Elternpaar und Monat nach Ablauf eines Jahres insgesamt vorhanden sind, wenn ein erstes Paar bereits im ersten Monat und dessen Nachwuchs jeweils ab seinem zweiten Lebensmonat Junge wirft. Leonardo führt die Zahlenfolge für jeden Monat vor (2, 3, 5, 8... bis 377) und weist darauf hin, dass sich jedes Glied der Reihe (ab dem dritten) durch Summierung der beiden vorhergehenden Reihenglieder errechnen lässt. Eine weitere Beschäftigung mit dieser Folge findet sich bei ihm nicht, d. h. der Zusammenhang zum Goldenen Schnitt wird von ihm nicht dargestellt. Dass ihm allerdings der (erst später so genannte) Goldene Schnitt bekannt und in der Tradition Euklids ein Begriff war, zeigt sich gegen Ende seines Werks bei einer algebraischen Aufgabe, in der es darum geht (in moderner Formulierung wiedergegeben) "a" und "b" zu finden mit formula_164 und formula_165. Hierzu weist Leonardo darauf hin, dass im Fall von formula_166 die Proportion formula_167 gilt, 10 also von "a" und "b" im Verhältnis des Goldenen Schnittes (ohne diesen Begriff zu gebrauchen) geteilt wird ("et scis, secundum hanc diuisionem, 10 diuisa esse media et extrema porportione; quia est sicut 10 ad maiorem partem, ita maior pars ad minorem"). Renaissance. Auch der Herausgeber dieser Euklid-Ausgabe, der Franziskanermönch Luca Pacioli di Borgo San Sepolcro (1445–1514), der an der Universität von Perugia Mathematik lehrte, hatte sich intensiv mit dem Goldenen Schnitt befasst. Er nannte diese Streckenteilung "Göttliche Teilung", was sich auf Platons Identifizierung der Schöpfung mit den fünf platonischen Körpern bezog, zu deren Konstruktion der Goldene Schnitt ein wichtiges Hilfsmittel darstellt. Sein gleichnamiges Werk „De Divina Proportione“ von 1509 besteht aus drei unabhängigen Büchern. Bei dem ersten handelt es sich um eine rein mathematische Abhandlung, die jedoch keinerlei Bezug zur Kunst und Architektur herstellt. Das zweite ist ein kurzer Traktat über die Schriften des Römers Vitruv aus dem 1. Jahrhundert v. Chr. zur Architektur, in denen Vitruv die Proportionen des menschlichen Körpers als Vorlage für Architektur darstellt. Dieses Buch enthält eine Studie von Leonardo da Vinci (1452–1519) über den vitruvianischen Menschen. Das Verhältnis von Seite des den Menschen umgebenden Quadrats zu Radius des umgebenden Kreises – nicht das Verhältnis der Proportionen des Menschen selbst – in diesem berühmten Bild entspricht mit einer Abweichung von 1,7 % dem Goldenen Schnitt, der jedoch im zugehörigen Buch gar nicht erwähnt wird. Darüber hinaus würde man diese Abweichung bei einem konstruktiven Verfahren nicht erwarten. Im Oktober 1597 stellte Johannes Kepler in einem Brief an seinen früheren Tübinger Professor Michael Maestlin die Frage, warum es nur eine einzige mögliche Lösung gebe für die Aufgabe, ein rechtwinkliges Dreieck zu konstruieren, bei dem das Verhältnis der kürzeren zur längeren Seite dem der längeren zur Hypotenuse entspricht. Auf das Original dieses Briefes notierte Maestlin eine Berechnung, die die Hypotenuse einmal mit 10 und einmal mit 10.000.000, und für den letzteren Fall dann die längere Seite mit 7.861.514 und die kürzeste Seite mit 6.180.340 beziffert. Das entspricht einer bis auf die sechste Nachkommastelle genauen (und bis zur fünften korrekten) Angabe des Goldenen Schnittes und ist nach den älteren sexagesimalen Berechnungen der Antike die erste bekannte dezimale Angabe dieser Art. 19. und 20. Jahrhundert. In Abhandlungen verschiedener Autoren im 19. Jahrhundert, insbesondere von dem Philosophen Adolf Zeising, wurden die beiden Schriften von Pacioli und da Vinci zu der These kombiniert, Pacioli habe in der „De Divina Proportione” in Zusammenarbeit mit Leonardo da Vinci einen Zusammenhang zwischen Kunst und Goldenem Schnitt hergestellt und damit seine Wiederentdeckung für die Malerei der Renaissance begründet. Zeising war überdies von der Existenz eines Naturgesetzes der Ästhetik überzeugt, dessen Basis der Goldene Schnitt sein müsse. Er suchte und fand den Goldenen Schnitt überall. Seine Schriften verbreiteten sich rasch und begründeten eine wahre Euphorie bezüglich des Goldenen Schnittes. Andererseits zeigt eine Untersuchung der Literatur, dass vor Zeising niemand in den Werken der Antike oder Renaissance den Goldenen Schnitt zu erkennen glaubte. Entsprechende Funde sind daher heute unter Kunsthistorikern eher umstritten, wie z. B. "Neveux" 1995 nachwies. Eine der ersten gesicherten Verwendungen der Bezeichnung "Goldener Schnitt" wurde 1835 von Martin Ohm (1792–1872; Bruder von Georg Simon Ohm) in einem Lehrbuch der Mathematik verwendet. Auch die Bezeichnung "sectio aurea" entstand erst in dieser Zeit. Gustav Theodor Fechner, ein Begründer der experimentellen Psychologie, stellte 1876 bei Untersuchungen mit Versuchspersonen anhand von Rechtecken in der Tat eine Präferenz für den Goldenen Schnitt fest. Die Ergebnisse bei der Streckenteilung und bei Ellipsen fielen jedoch anders aus. Neuzeitliche Untersuchungen zeigen, dass das Ergebnis solcher Experimente stark vom Kontext der Darbietung abhängt. Fechner fand ferner bei Vermessungen von Bildern in verschiedenen Museen Europas, dass die Seitenverhältnisse im Hochformat im Mittel etwa 4:5 und im Querformat etwa 4:3 betragen und sich damit deutlich vom Goldenen Schnitt unterscheiden. Ende des 20. Jahrhunderts suchte die Kunsthistorikerin Marguerite Neveux mit röntgenanalytischen Verfahren unter der Farbe von Originalgemälden, die angeblich den Goldenen Schnitt enthalten würden, vergeblich nach entsprechenden Markierungen oder Konstruktionsspuren. Biologie. Anordnung von Blättern im Abstand des Goldenen Winkels von oben betrachtet. Das Sonnenlicht wird optimal genutzt. Das spektakulärste Beispiel für Verhältnisse des Goldenen Schnittes in der Natur findet sich bei der Anordnung von Blättern (Phyllotaxis) und in Blütenständen mancher Pflanzen. Bei diesen Pflanzen teilt der Winkel zwischen zwei aufeinander folgenden Blättern den Vollkreis von 360° im Verhältnis des Goldenen Schnittes, wenn man die beiden Blattansätze durch eine Parallelverschiebung eines der Blätter entlang der Pflanzenachse zur Deckung bringt. Es handelt sich dabei um den "Goldenen Winkel" von etwa 137,5°. Die daraus entstehenden Strukturen werden auch als selbstähnlich bezeichnet: Auf diese Weise findet sich ein Muster einer tieferen Strukturebene in höheren Ebenen wieder. Beispiele sind die Sonnenblume, Kohlarten, Kiefernnadeln an jungen Ästen, Zapfen, Agaven, viele Palmen- und Yuccaarten und die Blütenblätter der Rose, um nur einige zu nennen. Ursache ist das Bestreben dieser Pflanzen, ihre Blätter auf Abstand zu halten. Es wird vermutet, dass sie dazu an jedem Blattansatz einen besonderen Wachstumshemmer (Inhibitor) erzeugen, der im Pflanzenstamm – vor allem nach oben, in geringerem Umfang aber auch in seitlicher Richtung – diffundiert. Dabei bilden sich in verschiedene Richtungen bestimmte Konzentrationsgefälle aus. Das nächste Blatt entwickelt sich an einer Stelle des Umfangs, wo die Konzentration minimal ist. Dabei stellt sich ein bestimmter Winkel zum Vorgänger ein. Würde dieser Winkel den Vollkreis im Verhältnis einer rationalen Zahl formula_168 teilen, dann würde dieses Blatt genau in die gleiche Richtung wachsen wie dasjenige "n" Blätter zuvor. Der Beitrag dieses Blattes zur Konzentration des Inhibitors ist aber an dieser Stelle gerade maximal. Daher stellt sich ein Winkel mit einem Verhältnis ein, das alle rationalen Zahlen meidet. Die Zahl ist nun aber gerade die Goldene Zahl (siehe oben). Da bisher kein solcher Inhibitor isoliert werden konnte, werden auch andere Hypothesen diskutiert, wie beispielsweise die Steuerung dieser Vorgänge in analoger Weise durch Konzentrationsverteilungen von Nährstoffen. Der Nutzen für die Pflanze könnte darin bestehen, dass auf diese Weise von oben einfallendes Sonnenlicht (bzw. Wasser und Luft) optimal genutzt wird, eine Vermutung, die bereits Leonardo da Vinci äußerte, oder auch im effizienteren Transport der durch Photosynthese entstandenen Kohlenhydrate im Phloemteil der Leitbündel nach unten. Die Wurzeln von Pflanzen weisen den Goldenen Winkel weniger deutlich auf. Bei anderen Pflanzen wiederum treten Blattspiralen mit anderen Stellungswinkeln zutage. So wird bei manchen Kakteenarten ein Winkel von 99,5° beobachtet, der mit der Variante der Fibonacci-Folge 1, 3, 4, 7, 11, … korrespondiert. In Computersimulationen des Pflanzenwachstums lassen sich diese verschiedenen Verhaltensweisen durch geeignete Wahl der Diffusionskoeffizienten des Inhibitors provozieren. Fichtenzapfen mit 5, 8 und 13 Fibonacci-Spiralen Bei vielen nach dem Goldenen Schnitt organisierten Pflanzen bilden sich in diesem Zusammenhang so genannte Fibonacci-Spiralen aus. Spiralen dieser Art sind besonders gut zu erkennen, wenn der Blattabstand im Vergleich zum Umfang der Pflanzenachse besonders klein ist. Sie werden nicht von aufeinander folgenden Blättern gebildet, sondern von solchen im Abstand "n", wobei "n" eine Fibonacci-Zahl ist. Solche Blätter befinden sich in enger Nachbarschaft, denn das "n"-fache des Goldenen Winkels formula_18 ist ungefähr ein Vielfaches von 360° wegen wobei "m" die nächstkleinere Fibonacci-Zahl zu "n" ist. Da jedes der Blätter zwischen diesen beiden zu einer anderen Spirale gehört, sind "n" Spiralen zu sehen. Ist formula_171 größer als formula_22, so ist das Verhältnis der beiden nächsten Fibonacci-Zahlen kleiner und umgekehrt. Daher sind in beide Richtungen Spiralen zu aufeinander folgenden Fibonaccizahlen zu sehen. Der Drehsinn der beiden Spiralentypen ist dem Zufall überlassen, sodass beide Möglichkeiten gleich häufig auftreten. Besonders beeindruckend sind Fibonacci-Spiralen (die damit wiederum dem Goldenen Schnitt zugeordnet sind) in Blütenständen, wie beispielsweise bei Sonnenblumen. Dort sitzen Blüten, aus denen später Früchte entstehen, auf der stark gestauchten, scheibenförmigen Blütenstandsachse dicht nebeneinander, wobei jede einzelne Blüte einem eigenen Kreis um den Mittelpunkt des Blütenstandes zugeordnet werden kann. Wachstumstechnisch aufeinander folgende Früchte liegen daher räumlich weit auseinander, während direkte Nachbarn wieder einen Abstand entsprechend einer Fibonacci-Zahl haben. Im äußeren Bereich von Sonnenblumen zählt man 34 und 55 Spiralen, bei größeren Exemplaren 55 und 89 oder sogar 89 und 144. Die Abweichung vom mathematischen Goldenen Winkel, die in diesem Fall nicht überschritten wird, beträgt weniger als 0,01 %. Der Goldene Schnitt ist außerdem in radiärsymmetrischen fünfzähligen Blüten erkennbar wie beispielsweise bei der Glockenblume, der Akelei und der (wilden) Hecken-Rose. Der Abstand der Spitzen von Blütenblättern nächster Nachbarn zu dem der übernächsten steht wie beim regelmäßigen Fünfeck üblich in seinem Verhältnis. Das betrifft ebenso Seesterne und andere Tiere mit fünfzähliger Symmetrie. Darüber hinaus wird der Goldene Schnitt auch im Verhältnis der Längen aufeinander folgender Stängelabschnitte mancher Pflanzen vermutet wie beispielsweise bei der Pappel. Auch im Efeublatt stehen die Blattachsen "a" und "b" (siehe Abbildung) ungefähr im Verhältnis des Goldenen Schnittes. Diese Beispiele sind jedoch umstritten. Noch im 19. Jahrhundert war die Ansicht weit verbreitet, dass der Goldene Schnitt ein göttliches Naturgesetz sei und in vielfacher Weise auch in den Proportionen des menschlichen Körpers realisiert wäre. So nahm Adolf Zeising in seinem Buch über die Proportionen des menschlichen Körpers an, dass der Nabel die Körpergröße im Verhältnis des Goldenen Schnittes teile, und der untere Abschnitt werde durch das Knie wiederum so geteilt. Ferner scheinen die Verhältnisse benachbarter Teile der Gliedmaßen wie beispielsweise bei Ober- und Unterarm sowie bei den Fingerknochen ungefähr in diesem Verhältnis zu stehen. Eine genaue Überprüfung ergibt jedoch Streuungen der Verhältnisse im 20-%-Bereich. Oft enthält auch die Definition, wie beispielsweise die Länge eines Körperteils exakt zu bestimmen sei, eine gewisse Portion Willkür. Ferner fehlt dieser These bis heute eine wissenschaftliche Grundlage. Es dominiert daher weitgehend die Ansicht, dass diese Beobachtungen lediglich die Folge gezielter Selektion von benachbarten Paaren aus einer Menge von beliebigen Größen sind. Bahnresonanzen. Seit langem ist bekannt, dass die Umlaufzeiten mancher Planeten und Monde in Verhältnis kleiner ganzer Zahlen stehen wie beispielsweise Jupiter und Saturn mit 2:5 oder die Jupitermonde Io, Ganymed und Europa mit 1:2:4. Derartige Bahnresonanzen stabilisieren die Bahnen der Himmelskörper langfristig gegen kleinere Störungen. Erst 1964 wurde entdeckt, dass auch hinreichend irrationale Verhältnisse, wie sie beispielsweise im Fall formula_173 vorliegen würden, stabilisierend wirken können. Derartige Bahnen werden KAM-Bahnen (siehe Kolmogorow-Arnold-Moser-Theorem) genannt, wobei die drei Buchstaben für die Namen der Entdecker Andrei Kolmogorow, V. I. Arnold und Jürgen Moser stehen. Schwarze Löcher. Kontrahierbare kosmische Objekte ohne feste Oberfläche, wie Schwarze Löcher oder auch die Sonne, haben aufgrund ihrer Eigengravitation "(self-gravity)" die paradoxe Eigenschaft, heißer zu werden wenn sie Wärme abstrahlen (negative Wärmekapazität). Bei Schwarzen Löchern, die rotieren, findet ab einer kritischen Geschwindigkeit ein Umschlag von negativer zu positiver Wärmekapazität statt. Dieser Tipping-Point wird nur von der Masse und dem Goldenen Schnitt definiert. Eine weitere Verbindung zwischen Schwarzen Löchern und dem Goldenen Schnitt ergibt sich bei der Betrachtung in höheren Dimensionen. Kristallstrukturen. Der Goldene Schnitt tritt auch bei den Quasikristallen der Festkörperphysik in Erscheinung, die 1984 von Dan Shechtman und seinen Kollegen entdeckt wurden. Dabei handelt es sich um Strukturen mit fünfzähliger Symmetrie, aus denen sich aber, wie bereits Kepler erkannte, keine streng periodischen Kristallgitter aufbauen lassen, wie dies bei Kristallen üblich ist. Entsprechend groß war die Überraschung, als man bei Röntgenstrukturanalysen Beugungsbilder mit fünfzähliger Symmetrie fand. Diese Quasikristalle bestehen strukturell aus zwei verschiedenen rhomboedrischen Grundbausteinen, mit denen man den Raum zwar lückenlos, jedoch ohne globale Periodizität füllen kann (Penrose-Parkettierung). Beide Rhomboeder setzten sich aus den gleichen rautenförmigen Seitenflächen zusammen, die jedoch unterschiedlich orientiert sind. Die Form dieser Rauten lässt sich nun dadurch definieren, dass ihre Diagonalen im Verhältnis des Goldenen Schnittes stehen. Für die Entdeckung von Quasikristallen wurde Shechtman 2011 der Nobelpreis für Chemie verliehen. Papier- und Bildformate. Im Buchdruck wurde gelegentlich die Nutzfläche einer Seite, der so genannte Satzspiegel, so positioniert, dass das Verhältnis von Bundsteg zu Kopfsteg zu Außensteg zu Fußsteg sich wie 2:3:5:8 verhielt. Diese Wahl von Fibonacci-Zahlen approximiert den Goldenen Schnitt. Eine solche Gestaltung wird auch weiterhin in Teilen der Fachliteratur zum Buchdruck empfohlen. Architektur. Frühe Hinweise auf eine Verwendung des Goldenen Schnittes stammen aus der Architektur. Die Schriften des griechischen Geschichtsschreibers Herodot zur Cheops-Pyramide werden gelegentlich dahingehend ausgelegt, dass die Höhe der Seitenfläche zur Hälfte der Basiskante im Verhältnis des Goldenen Schnittes stünde. Die entsprechende Textstelle ist allerdings interpretierbar. Andererseits wird auch die These vertreten, dass das Verhältnis formula_174 für Pyramidenhöhe zu Basiskante die tatsächlichen Maße noch besser widerspiegele. Der Unterschied zwischen beiden vertretenen Thesen beträgt zwar lediglich 3,0 %, ein absoluter Beweis zugunsten der einen oder anderen These ist demzufolge damit aber nicht verbunden. Viele Werke der griechischen Antike werden als Beispiele für die Verwendung des Goldenen Schnittes angesehen wie beispielsweise die Vorderfront des 447–432 v. Chr. unter Perikles erbauten Parthenon-Tempels auf der Athener Akropolis. Da zu diesen Werken keine Pläne überliefert sind, ist nicht bekannt, ob diese Proportionen bewusst oder intuitiv gewählt wurden. Auch in späteren Epochen sind mögliche Beispiele für den Goldenen Schnitt, wie etwa der Dom von Florenz, Notre Dame in Paris oder die Torhalle in Lorsch (770 n. Chr.) zu finden. Auch in diesen Fällen ist die bewusste Anwendung des Goldenen Schnittes anhand der historischen Quellen nicht nachweisbar. Es gibt demzufolge keinen empirisch gesicherten Nachweis für eine signifikant größere Häufigkeit des Goldenen Schnittes in diesen Epochen im Vergleich zu anderen Teilungsverhältnissen. Ebenso fehlen historische Belege für eine absichtliche Verwendung des Goldenen Schnittes. Altes Rathaus in Leipzig, Zeichnung von 1909 Als ein Beispiel für eine Umsetzung des Goldenen Schnittes wird immer wieder das Alte Rathaus in Leipzig, ein Renaissancebau aus den Jahren 1556/57, herangezogen. Der aus der Mittelachse gerückte Rathausturm wird, so wird behauptet, als architektonische Avantgardeleistung der damaligen Zeit angesehen und er stünde mit dem dadurch verursachten Aufruhr für das städtische Selbstbewusstsein der Stadt. Gleichwohl gibt es bei genauer historischer Quellenforschung keinen Beleg dafür. Insbesondere gibt es keinen Beleg dafür, dass Hieronymus Lotter als der damalige Baumeister den Goldenen Schnitt bewusst als Konstruktionsprinzip verwendet hat: Alle originären Quellen verweisen lediglich auf einen gotischen Vorgängerbau, auf dessen Grundmauern Lotter das Rathaus errichtet hat. Dass der Goldene Schnitt hier eine Rolle gespielt habe, ist quellenhistorisch nicht belegbar. Die erste – quellenhistorisch gesicherte – Verwendung des Goldenen Schnittes in der Architektur stammt aus dem 20. Jahrhundert: Der Architekt und Maler Le Corbusier (1887–1965) entwickelte ab 1940 ein einheitliches Maßsystem basierend auf den menschlichen Maßen und dem Goldenen Schnitt. Er veröffentlichte dieses 1949 in seiner Schrift "Der Modulor", die zu den bedeutendsten Schriften der Architekturgeschichte und -theorie gezählt wird. Bereits 1934 wurde ihm für die Anwendung mathematischer Ordnungsprinzipien von der Universität Zürich der Titel "doctor honoris causa" der mathematischen Wissenschaften verliehen. Für eine frühere Verwendung dieses Systems ist dieses jedoch aus den aufgezeigten Gründen kein Beleg. Bildkomposition. Inwieweit die Verwendung des Goldenen Schnittes in der Kunst zu besonders ästhetischen Ergebnissen führt, ist letztlich eine Frage der jeweils herrschenden Kunstauffassung. Für die generelle These, dass diese Proportion als besonders ansprechend und harmonisch empfunden wird, gibt es keine gesicherten Belege. Viele Künstler setzten den Goldenen Schnitt bewusst ein, bei vielen Werken wurden Kunsthistoriker erst im Nachhinein fündig. Diese Befunde sind jedoch angesichts der Fülle von möglichen Strukturen, wie man sie beispielsweise in einem reich strukturierten Gemälde finden kann, oft umstritten. So werden zahlreichen Skulpturen griechischer Bildhauer, wie der Apollo von Belvedere, der Leochares (um 325 v. Chr.) zugeschrieben wird, oder Werke von Phidias (5. Jahrhundert v. Chr.) als Beispiele für die Verwendung des Goldenen Schnittes angesehen. Auf letzteren bezieht sich auch die heute oft übliche Bezeichnung formula_22 für den Goldenen Schnitt, die von dem amerikanischen Mathematiker Mark Barr eingeführt wurde. Die ebenfalls gelegentlich verwendete Bezeichnung formula_159 bezieht sich dagegen auf das griechische Wort "τομή" für „Schnitt“. Der Goldene Schnitt wird auch in vielen Gemälden der Renaissance vermutet, wie bei Raffael, Leonardo da Vinci und Albrecht Dürer, zum Beispiel bei da Vincis Das Abendmahl von 1495, bei Dürers Selbstbildnis von 1500 und seinem Kupferstich Melencolia I von 1514. Auch in der Fotografie wird der Goldene Schnitt zur Bildgestaltung eingesetzt. Als Faustformel verwendet man hier die Drittel-Regel. "Goldener Schnitt" von Martina Schettina (2009) Zeitgenössische bildende Kunst. In der zeitgenössischen bildenden Kunst wird der Goldene Schnitt nicht nur als Gestaltungsmerkmal verwendet, sondern ist in manchen Arbeiten selbst Thema oder zentraler Bildinhalt. Der Künstler Jo Niemeyer verwendet den Goldenen Schnitt als grundlegendes Gestaltungsprinzip in seinen Werken, die der konkreten Kunst zugeordnet werden. Die Künstlerin Martina Schettina thematisiert den Goldenen Schnitt in ihren Arbeiten zum Fünfeck, bei welchem die Diagonalen einander im Goldenen Schnitt teilen. Auch visualisiert sie Konstruktionsmethode und Formeln zum Goldenen Schnitt. Intervalle. In der Musik werden Töne als konsonant empfunden, wenn das Verhältnis ihrer Schwingungsfrequenzen ein Bruch aus kleinen ganzen Zahlen ist. Dass eine Annäherung dieses Verhältnisses zum Goldenen Schnitt hin nicht unbedingt zu einem wohlklingenden Intervall führt, lässt sich daran erkennen, dass unter den Tonintervallen, deren Schwingungsverhältnis aufeinanderfolgenden Fibonacci-Zahlen entspricht, höchstens die Quinte mit einem Schwingungsverhältnis von 3:2 herausragt. Die große Terz mit einem Schwingungsverhältnis von 5:4 wird schon als harmonischer empfunden als die große Sexte mit 5:3 und die kleine Sexte mit 8:5. Da ein Tonintervall im Goldenen Schnitt mit etwa 833,09 Cent nur etwa 19 Cent größer ist als eine kleine Sexte, ist es für ein wenig geschultes Ohr nur schwer von dieser zu unterscheiden (). Komposition. Der Goldene Schnitt wird gelegentlich auch in Strukturkonzepten von Musikstücken vermutet. So hat der ungarische Musikwissenschaftler Ernö Lendvai versucht, den Goldenen Schnitt als wesentliches Gestaltungsprinzip der Werke Béla Bartóks nachzuweisen. Seiner Ansicht nach hat Bartók den Aufbau seiner Kompositionen so gestaltet, dass die Anzahl der Takte in einzelnen Formabschnitten Verhältnisse bilden, die den Goldenen Schnitt approximieren würden. Allerdings sind seine Berechnungen umstritten. In der Musik nach 1945 finden sich Beispiele für die bewusste Proportionierung nach den Zahlen der Fibonacci-Reihe, etwa im Klavierstück IX von Karlheinz Stockhausen oder in der Spektralmusik von Gérard Grisey. Instrumentenbau. Der Goldene Schnitt wird gelegentlich im Musikinstrumentenbau verwendet. Insbesondere beim Geigenbau soll er für besonders klangschöne Instrumente bürgen. So wird auch behauptet, dass der berühmte Geigenbauer Stradivari den Goldenen Schnitt verwendete, um die klanglich optimale Position der F-Löcher für seine Violinen zu berechnen. Diese Behauptungen basieren jedoch lediglich auf nachträglichen numerischen Analysen von Stradivaris Instrumenten. Ein Nachweis, dass Stradivari bewusst den Goldenen Schnitt zur Bestimmung ihrer Proportionen angewandt habe, existiert jedoch nicht. Informatik. Dabei stellen formula_182 Gaußklammern dar, die den Klammerinhalt auf die nächste ganze Zahl abrunden. Der angesehene Informatiker Donald E. Knuth schlägt für die frei wählbare Konstante formula_183 vor, um eine gute Verteilung der Datensätze zu erhalten. Eine weitere Verbindung zwischen der Informationstheorie und dem Goldenen Schnitt wurde durch Helmar Frank mit der Definition der Auffälligkeit hergestellt. Er konnte zeigen, dass der mathematische Wert des Maximums der "Auffälligkeit" sehr nah an das Verhältnis des Goldenen Schnitts herankommt. Grunge. Grunge (deutsch: ‚Schmuddel‘, ‚Dreck‘) ist ein seit etwa Anfang der 1990er-Jahre populärer Musikstil, dessen Ursprünge und Anfänge in der US-amerikanischen Undergroundbewegung lagen. Grunge wurde auch als "„Seattle-Sound“" bezeichnet und wird oft als eine Vermischung von Punkrock und Heavy Metal angesehen. Klangcharakteristik. Der „Grunge-Sound“ beruht hauptsächlich auf dem Gitarrensound des Hard Rocks der 1970er-Jahre (deutlicher Einfluss zum Beispiel bei Pearl Jam) und der Ästhetik und den Lyrics des Punkrocks. Während sich einige der Bands mehr in Richtung Metal (Soundgarden, Alice in Chains) bewegten und andere sich mehr dem Punkrock-Einfluss (Nirvana, Mudhoney, 7 Year Bitch) verschrieben hatten, so war tatsächlich bei allen Grunge-Bands aus Seattle der charakteristische „Seattle-Sound“ aufzufinden. Geschichte. Der Begriff „Grunge“ kam als Umschreibung für einen Musiktyp erstmals in den 1960er- und 1970er-Jahren auf, um den Stil der Musik einiger Bands zu beschreiben. Damals wurde Grunge weniger als "Subgenre" gesehen, sondern als besonders markantes aber passendes Eigenschaftswort für einen rau und „dreckig“ wirkenden Klang. Neil Young (& Crazy Horse), The Stooges und The Velvet Underground beispielsweise fielen zu dieser Zeit im Vergleich zu anderen Bands des Rock-Genres besonders auf, da sie ziemlich experimentierfreudig waren, was "Feedback"-Effekte anging – akustische Rückkopplungen, besonders der E-Gitarre. Zudem wirkte ihr Gitarrenspiel oft weniger „sauber“ und „glatt“ als das der musikalischen Referenzen dieser Jahrzehnte. Vielmehr sollte der Klang roh und ungeschliffen wirken, was durch Einsatz von Verzerreffekten hervorgehoben wurde. Auch wurden die Aufnahmen in der Regel wenig bis gar nicht im Studio bearbeitet. Dadurch wirkte die Musik generell „unkonventionell“ und „unabhängig“. Dieser Stil prägte den Sound der Musikszene aus Seattle, welche Ende der 1980er- und Anfang der 1990er-Jahre aufkam. Erst seit dieser Zeit und durch kontinuierlich steigende Popularität von Bands wie Nirvana, Pearl Jam, Alice in Chains oder Soundgarden wurde „Grunge“ auch als Begriff für ein Subgenre der Rockmusik verwendet. Zu den ersten Bands, die in diesem Bereich experimentierten, gehörten Wipers und Mission of Burma, deren Stil in den späten 1970ern und frühen 1980ern dem vorherrschenden Punk-Publikum zu rockig oder, im Falle von Mission of Burma, zu komplex war. Später folgte Hüsker Dü, deren Ursprünge in der Punkszene lagen. Sie kombinierten die Energie des Punk-Rock mit dem komplexeren Songwriting des Rock und erreichten damit Mitte der 1980er-Jahre ein größeres Publikum. Einen Schritt weiter bewegten sich Dinosaur Jr., die mit ihrer Nähe zum klassischen Rock im Stil von Neil Young und einem extrem übersteuerten Gitarrensound mit Wah-Wah-Effekten, im Stil des Garagenrock der 1960er-Jahre auffielen. Weitere Einflüsse waren Sonic Youth, Big Black, Butthole Surfers und andere Vertreter des Noise-Rock. Die Veröffentlichungen ganzer Labels wie zum Beispiel Homestead Records, SST Records oder Amphetamine Reptile waren ausschlaggebend. Prägend für die Szene waren College-Rundfunksender, die diese Independent-Musik oft spielten, sowie der eher provinzielle Charakter der Region um Seattle, einer Gegend, in der nur unbekannte Musiker eine Auftrittsmöglichkeit suchten. Mitte der 1980er bildete sich ein Kern in der Szene Seattles, zu dem neben Green River, Soundgarden und The U-Men auch The Melvins gehörten. Zu diesem Zeitpunkt entstand auch die Bezeichnung "Grunge" als Genrebegriff. 1988 wurde in Seattle der "Sub Pop Singles Club" gegründet – ein Plattenlabel, auf dem die ersten Aufnahmen lokaler Bands wie Tad, Mudhoney, Nirvana und Soundgarden erschienen. Ein großer Teil der Aufnahmen wurde von Jack Endino produziert, und es kristallisierte sich ein Klang heraus, den man für geeignet hielt, als "„Seattle-Sound“" vermarktet zu werden. Ein Jahr später wurde ein Rockjournalist des britischen "Melody Maker"-Magazins auf diese Produktionen aufmerksam, worauf im März 1989 der umfangreiche Artikel "„Seattle, Rock City“" erschien. In Seattle sorgte dieser Artikel für große Aufregung. Der Rest der Welt zeigte zunächst nur mäßiges Interesse. Das änderte sich schlagartig, als im September 1991 das Album Nevermind von Nirvana erschien. Auslöser des "Grunge"-Hypes war der Song "Smells Like Teen Spirit", der auf ebendiesem Album erschienen war. Dank des häufigen Einsatzes des Musik-Videos beim Musik-Fernsehkanal MTV avancierte er zum Hit. Die Musikindustrie und die Medien entwickelten fortan ein ausgeprägtes Interesse für die Musikszene in Seattle. Das Magazin "Spin" beschrieb es in der Dezember-Ausgabe von 1992 mit den Worten: "„Seattle ist momentan für die Rockwelt, was Bethlehem für das Christentum ist.“" Bands ohne Plattenvertrag wurden plötzlich unter Vertrag genommen. Andere Bands, die schon bei einem "Independent-Label" unter Vertrag waren, wurden per Vertriebsverträge an die großen Plattenfirmen weitergereicht. Die Kommerzialisierung der Szene ging sehr schnell. Markante Bekleidungsstücke wie das Flanellhemd wurden als neue Mode verkauft. Dabei waren Flanellhemden im Alltag der Region von Seattle seit Jahrzehnten ein beliebtes Kleidungsstück bei Jung und Alt. So wurde ein banaler Alltagsgegenstand zum "Dresscode" der neuen "Grunge"-Szene. Nicht nur durch den Tod des Sängers Kurt Cobain von Nirvana im April 1994 fand "Grunge" ein jähes Ende. Ursache waren auch die immer größer werdenden persönlichen oder künstlerischen Differenzen innerhalb einiger Bands, die durch den Druck von außen (Presse, Medien) zusätzlich angeheizt wurden. Überdies hatte eine ungewöhnlich hohe Zahl an Grunge-Musikern Drogenprobleme, was Bands wie Alice in Chains oder die Stone Temple Pilots erheblich belastete. Die Musikindustrie und die Medien ersetzten den Begriff "Grunge" durch den Begriff "Alternative". Damit öffnete man die Szene für neue Bands und stilistische Varianten. Kritik. Der "Grunge"-Hype war bei den Kritikern ein beliebtes Angriffsziel. Die Entwicklung zeigt, wie die Musikindustrie mit einer Handvoll Bands und deren Auftreten in Bezug auf Aussehen und Attitüde einen "Hype" produzierte, von dem sie noch heute zehrt. Doch neben dem erwünschten Aspekt, dem Eintreten in den Fokus der öffentlichen Wahrnehmung, kamen auch negative Aspekte hinzu. So kam es, dass sich nach dem Tode Cobains die meisten Grunge-Bands auflösten oder aus dem Blickfeld der breiteren Masse verschwanden. Sämtliche Metal-Genres hatten mit dem Aufstieg des Grunge an Popularität verloren. Auf Nachfrage äußerte sich 1994 Joey DeMaio von Manowar über die Grunge-Szene: „Gibt es ein Wort für etwas, das rangmäßig noch unter Scheiße steht?“ Ob daraus der Frust über eigenen Popularitätsverlust spricht oder ob es sich dabei um eine für die Band typische derbe Wahrung ihrer True-Metal-Attitüde handelt, sei dahingestellt. Dass Grunge so einen Rundumschlag bewirkte und den Massengeschmack so sehr veränderte, kam also auch für viele Musiker damals überraschend. Neben Frust und negativer Kritik gab es jedoch auch positive Stimmen dazu, etwa von John Such, dem ehemaligen Bassisten von Bon Jovi, der Grunge als „erfrischend“ lobte, oder auch von Sebastian Bach, der den neuen, anderen Klang begrüßte. Dass der Grunge etwa 1997 aus ähnlichen Gründen zu Grunde ging wie zuvor der Glam Metal, ist wohl Ironie. Der Metal Hammer-Redakteur und Autor Frank Thiessies fügt dazu süffisant an, dass heute Grunge, wenn auch als Alternative Rock betitelt, und Sleaze einträchtig nebeneinander existieren, wenn auch nicht wie zu den jeweiligen Glanzzeiten und wirft in den Raum, wieso denn niemand die Frage stellt, ob der Nu Metal dem Rock und Metal nicht noch viel schwerer zu schaffen gemacht hätte. Bedenklich erscheint aber die bereits Mitte der 1990er-Jahre große Distanz der Hörer zum Glam Metal. Viele schienen nun nicht mehr zugeben zu wollen, dass ihnen diese „stumpfe, klischeesatte, aber einfach umwerfende Räubermusik“ noch einige Jahre zuvor so wichtig gewesen war. Generation X (Roman). Generation X ist der Titel des 1991 erschienenen Episodenromanes des kanadischen Schriftstellers und Künstlers Douglas Coupland. Übersetzer ist Harald Riemann. Inhalt und Gliederung. Die Protagonisten des Romans, Andrew Palmer – er hat an der Universität Japanisch studiert –, Dagmar Bellinghausen, ehemaliger Marketingexperte, und Claire Baxter, Tochter aus reichem Hause, wohnen in Mietbungalows in der kalifornischen Stadt Palm Springs. Sie schlagen sich mit schlecht bezahlten Jobs durch, für die sie alle drei überqualifiziert sind: einer arbeitet als Parfümverkäufer in einem Warenhaus, die beiden anderen sind Barkeeper. Die „Mitglieder des Armut-Jet-Sets“, wie sie sich nennen, unterhalten sich, indem sie sich Geschichten erzählen: Geschichten aus ihrem Leben, Familiengeschichten, aber auch Phantasiegeschichten und Lebensträume, denen sie nachhängen und Schreckensvisionen von einem möglichen Nuklearschlag, von denen die amerikanische Gesellschaft dieser Zeit umgetrieben wird. Und sie verbringen viel Zeit vor dem Fernsehapparat. Am Ende des Romans sind die Drei auf dem Weg nach Mexiko, um dort ein Hotel zu eröffnen. Der Text gliedert sich in drei Teile mit insgesamt 32 kurzen Kapiteln. Das letzte Kapitel "Zahlen" gehört nicht mehr zur Romanhandlung, sondern enthält statistische Daten zu Bevölkerung und Umwelt. "Hinweis: Die Angaben stammen aus der Ausgabe Douglas Coupland: Generation X. Geschichten für eine immer schneller werdende Kultur. Goldmann Verlag" "Benutze Flugzeuge, solange du noch Gelegenheit dazu hast". Illustration aus dem ersten Kapitel "Es könnte sein, dass du in der neuen Ordnung nicht zählst". Illustration aus "Abenteuer ohne Risiko ist Disneyland" Diagnose und Kritik der Wohlstandsgesellschaft. Nach Couplands Einschätzung ist für diese Generation charakteristisch, dass sie sich erstmals ohne Kriegseinwirkung mit weniger Wohlstand und ökonomischer Sicherheit begnügen muss als die Elterngenerationen, aber andererseits für deren ökonomische und ökologische Sünden büßt. Der Roman erzählt „Geschichten von der Katerstimmung im Amerika nach der auf Pump veranstalteten letzten großen Sause unter Reagan und Bush“ "(Deutschlandfunk)" über eine Generation mit „zu vielen Fernsehern und zu wenig Arbeit“ (Newsweek). Coupland kritisiert mit seinem Schlüsselroman die Wohlstandsgesellschaft der Vorgänger-Generation, die „mit 30 stirbt, um mit 70 begraben zu werden“. Ursprünglich sollte der Begriff "Generation X" andeuten, dass sich diese Generation bislang erfolgreich der Benennungswut von Werbeindustrie und journalistischem Gewerbe entzogen hat. Couplands Buch erreichte die Bestsellerlisten und der Titel wurde zum Schlagwort für die bis dahin unbenannte Generation. Aus Couplands Erzählstil gingen neben dem Titel noch weitere Vokabeln in den allgemeinen Sprachgebrauch über. Eigentlich hätte Coupland ein Lifestyle-Lexikon über die „Twentysomethings“ schreiben sollen. Der ehemalige Kunststudent kam jedoch von der Idee eines unterhaltsamen Sachbuchs ab und legte stattdessen einen anekdotenhaft erzählten Roman vor, dessen Helden sich weigern "„kleine Monster so scharf auf einen Hamburger [zu] machen, dass ihre Begeisterung auch über ihr Kotzen hinaus anhält“". Erste Skizzen aus dem ursprünglichen Projekt wurden als Marginalien in den Roman eingearbeitet, die an passender Stelle Couplands Wortschöpfungen in einem „Lexikon der nicht funktionierenden Kultur“ erklären sollen. So prägte Coupland auch den Begriff McJob, im Roman definiert als "„ein niedrig dotierter Job im Dienstleistungsbereich mit wenig Prestige, wenig Würde, wenig Nutzen und ohne Zukunft. Oftmals als befriedigende Karriere bezeichnet von Leuten, die niemals eine gemacht haben“". Coupland stellt dem eingeschliffenen Lebensstil aus gesellschaftlichen und ökonomischen Zwängen eine "„Lessness“" genannte Philosophie gegenüber, die den Wert des Lebens nicht an der Anhäufung von Statussymbolen misst. Das 'neue' Wertsystem wird auch ironisch als „Exhibitionistische Bescheidenheit“ bezeichnet. Aufgrund dieses Lebensgefühls der Konsumverweigerung würde Couplands "Generation X" (z. B. von der "Seattle Times") in Anlehnung an Gertrude Stein auch als „Lost Generation der Neunziger“ bezeichnet. Coupland stützt seine Beobachtungen am Ende des Buches mit einigen Statistiken und Zitaten aus verschiedenen Zeitschriften. Der Titel und sein historischer Hintergrund. Seit den frühen 1950er Jahren wurde der Begriff "Generation X" verschiedentlich in Zusammenhängen mit der jeweils zeitgenössischen Jugend gebraucht; der Begriff lag also sozusagen „in der Luft“. Siehe dazu den Abschnitt "Begriffsgeschichte" im Artikel zum gleichnamigen soziologischen Begriff. Coupland selbst lieferte unterschiedliche Erklärungen, wer ihn zum Titel seines Buchs angeregt hat. Coupland, damals Kunststudent, sollte eigentlich im Auftrag eines kanadischen Verlages ein Sachbuch über die amerikanische Jugend der Zeit schreiben, lieferte aber stattdessen einen Roman ab. Allerdings ergänzte er ihn um ein Glossar der Neologismen der beschriebenen „Szene“. Das Buch wurde vom Verlag abgelehnt, dann aber von Simon & Schuster publiziert, entwickelte sich nach zögerlichem Start zu einem Bestseller, und der Autor avancierte in der öffentlichen Wahrnehmung zu einem Sprecher der Befindlichkeiten seiner Generation und Diagnostiker des Zeitgeists. Rezeption. Couplands Wortneuschöpfungen wurden von den Medien und Marketingfirmen der USA begierig aufgegriffen und als „Leitfaden für die Kategorisierungen und das Verständnis der schwer zu fassenden Alterskohorte genommen“. Noch heute dient das Schlagwort dem Verlag selbst als Marketingmittel, wenn er sein Marketingbuch über die sogenannten Baby-Boomer (geboren zwischen 1943 und 1960) unter dem Titel "Marketing to Generation X. Strategies for a new aera" publiziert. Der Spiegel bewertete die literarische Qualität des Romans eher zurückhaltend, hält den Autor aber für einen „intelligenten Beobachter des Alltags“ und „Meister darin, prägnante Etikette für aktuelle Phänomene zu vergeben“. Ohne Glossar hätte nach Meinung des Spiegels das Buch nicht zu einen weltweit gelesenen und zitierten Kultbuch werden können. Der Roman wurde in 16 Sprachen übersetzt, mehreren Auflagen gedruckt und allein in den USA bis 1994 über 300 000 Mal verkauft. Siehe auch. Der Begriff Generation X wird auch in der Soziologie oder im Marketing für eine Bevölkerungskohorte bezeichnet. Daraus abgeleitet wurde die Generation Y. Allgemeines Zoll- und Handelsabkommen. Das Allgemeine Zoll- und Handelsabkommen (, GATT) wurde am 30. Oktober 1947 abgeschlossen, als der Plan für eine Internationale Handelsorganisation (ITO) nicht verwirklicht werden konnte. Das Abkommen trat am 1. Januar 1948 in Kraft. Das GATT von 1947 begründete keine Internationale Organisation, sondern war ein gewöhnlicher völkerrechtlicher Vertrag, weshalb seine 23 Gründungsmitglieder (Australien, Belgien, Brasilien, Burma, Kanada, Ceylon, Chile, Republik China, Kuba, Frankreich, Indien, Libanon, Luxemburg, Neuseeland, Niederlande, Norwegen, Pakistan, Südrhodesien, Südafrikanische Union, Syrien, Tschechoslowakei, Vereinigtes Königreich sowie USA) auch als „Vertragsparteien“ und nicht als Mitgliedsstaaten bezeichnet wurden. Die Bundesrepublik Deutschland trat am 1. Oktober 1951 diesem Vertragssystem bei. Österreich gehört dem GATT seit 19. Oktober 1951 an. Die Schweiz trat 1966 als Vollmitglied bei. Alle Mitglieder der Welthandelsorganisation (WTO) sind auch Vertragspartner des GATT. Sitz des GATT-Sekretariats war, bis zu seiner Ablösung durch die WTO 1995, Genf. Die WTO als Dachorganisation des GATT hat auch heute noch ihren Hauptsitz dort. Es stellt eine internationale Vereinbarung über den Welthandel dar. Bis 1994 wurden in acht Verhandlungsrunden Zölle und andere Handelshemmnisse Schritt für Schritt abgebaut. Durch das GATT ist im Verlauf der Geschichte der Grundstein zur Gründung der Welthandelsorganisation (WTO 1995) gelegt worden, in die es heute noch eingegliedert ist. Damals gehörten dem Abkommen 123 gleichberechtigte Mitgliedsländer an. Zur Unterscheidung zwischen dem ursprünglichen und dem heutigen Übereinkommen im Rahmen der WTO wird in der Regel die Jahreszahl 1947 bzw. 1994 hinzugefügt. Geschichtlicher Hintergrund. Der Beginn des GATT liegt 1944 in den USA, als die Bretton-Woods-Konferenz stattfand, an der 44 Staaten teilnahmen. Diese ist für die Einrichtung eines festen Wechselkurssystems verantwortlich, gründete den Internationalen Währungsfonds (IWF) sowie die Weltbank. In einem Punkt jedoch konnte keine Einigung erzielt werden: Bei der Gründung einer Welthandelsorganisation. Stattdessen entwickelte die Bretton-Woods-Konferenz ein Vertragswerk, das 1948 in Kraft trat: Das "Allgemeine Zoll- und Handelsabkommen (GATT)". Aufgabenbereiche. Durch das GATT wurde festgelegt, dass Zölle, Abgaben und andere Hemmnisse im internationalen Handel abgebaut werden müssen. Dadurch sollten Welthandel und Weltwirtschaft gefördert werden. Hieraus resultierten zwei Prinzipien: Erstens die Meistbegünstigungsklausel (Prinzip der Gleichbehandlung), bei der allen Handelspartnern eines Landes gleiche Zollvergünstigungen gewährt werden. Zweitens das Verbot der Diskriminierung, bei dem erlassene Ausnahmen vom Verbot mengenmäßiger Beschränkungen für alle gelten. Des Weiteren sollte durch GATT ein Prozess zur Lösung von internationalen Handelskonflikten etabliert werden. Die Maßnahmen konzentrierten sich vornehmlich auf den Güterhandel. Ausnahmen von den GATT-Prinzipien sind auch möglich, wie zum Beispiel vom Meistbegünstigungsprinzip innerhalb einer Zollunion oder Freihandelszone, wie etwa der Europäischen Union. Auch Nachbarländern und Entwicklungsländern können besondere Handelspräferenzen eingeräumt werden. Ausnahmen. Art. XIV erlaubt Ausnahmen vom Meistbegünstigungsprinzip. Art. XII erlaubt Beschränkungen zum Schutz der Zahlungsbilanz. Art. XIX erlaubt Notstandsmaßnahmen bei der Einfuhr bestimmter Waren, um zu verhindern, dass inländischen Erzeugern ernsthafter Schaden zugefügt wird. Diese Ausnahme wurde unter GATT 1947 häufig angewandt, ist in GATT 1994 jedoch durch ein zusätzliches Übereinkommen stärker reglementiert. Art. XXV:5 erlaubt unter außergewöhnlichen, nicht vorgesehenen Umständen, dass eine Vertragspartei von einer Verpflichtung befreit wird. Über eine solche Ausnahme entscheiden die Vertragsparteien mit Zweidrittelmehrheit. Art. XXIV regelt Ausnahmen von Freihandelszonen und Zollunionen Verhandlungsrunden. Von 1948 bis 1994 wurden durch das GATT die Regeln für einen Großteil des Welthandels festgelegt. In dieser Zeit gab es acht mehrjährige Verhandlungsrunden (u. a. in Frankreich, Großbritannien, Belgien und Marokko). Diese kontinentübergreifenden Treffen nahmen 1948 in Havanna (Kuba) ihren Anfang. Es stellte sich heraus, dass GATT das einzige multilaterale Instrument war, um den internationalen Handel kontrollieren zu können. In den Anfangsjahren konzentrierten sich die Handelsrunden auf Senkung der Zölle. Die sogenannte "Kennedy-Runde" (1964–1967) ergab ein Anti-Dumping-Abkommen zur Vermeidung von Preisverfall und eine Lektion zur Entwicklung. In den 70ern stellte die "Tokio-Runde" den ersten bedeutenden Versuch dar, sich internationalen Handelsbarrieren zu widersetzen. Als letzte und umfangreichste Verhandlungsrunde führte die "Uruguay-Runde" (1986–1994) zur Gründung der WTO und einem neuen Katalog von Vereinbarungen. Die Tokio-Runde. Die "Tokio-Runde" (1973–1979) stellte einen ersten Versuch dar, das internationale Handelssystem zu reformieren. An diesen Verhandlungen beteiligten sich 102 Länder. Es wurden Bemühungen fortgesetzt die Handelszölle weiter zu senken. Ein Resultat war die durchschnittliche Senkung der Zollgebühren für industriell gefertigte Produkte auf rund 4,7 %. Dies geschah nach dem Prinzip der Verhältnismäßigkeit: je höher der Zoll, umso höher die Kürzung. In anderen Verhandlungsschwerpunkten traten Unstimmigkeiten zwischen den Teilnehmern auf. Ein Streitpunkt war die Reformierung des landwirtschaftlichen Handels. Dennoch einigte man sich über eine Reihe von Abkommen, die zollfreie Staatsgrenzen betrafen. In vielen Fällen unterzeichnete nur eine geringe Zahl von GATT-Mitgliedern diese Vereinbarungen und Absprachen. Diese nicht akzeptierten Abkommen waren nicht multilateral und wurden inoffiziell als "Codes" bezeichnet. Mehrere Codes wurden in der "Uruguay-Runde" überarbeitet und in multilaterale Verpflichtungen umgewandelt. Die Uruguay-Runde. Der Grundstein zur "Uruguay-Runde" wurde im November 1982 auf einem Treffen der Abgesandten in Genf gelegt. Das verabschiedete Arbeitsprogramm wurde zur Basis der in Uruguay verhandelten Agenda. Im September 1986 begannen in Punta del Este (Uruguay) die Verhandlungen. Sie beinhalteten ausstehende handelspolitische Probleme. Das Handelssystem wurde auf mehrere neue Bereiche ausgedehnt, um den Handel in den sensiblen Bereichen Landwirtschaft und Textilindustrie zu verbessern. Neben diesen Punkten wurden alle ursprünglichen GATT-Texte besprochen. Dieser bis dahin größte Verhandlungsauftrag sollte über einen Zeitraum von vier Jahren vervollständigt werden. Nach der Hälfte der Zeit fand ein Treffen der Beauftragten in Montreal (Kanada, 1988) statt, um die Fortschritte des Auftrages zu bewerten. In diesen Gesprächen konnte jedoch keine Einigung erzielt werden. Aus diesem Grund fand im folgenden April ein erneutes Treffen der Offiziellen in Genf statt. Am Ende der Verhandlungen stand ein Paket von Beschlüssen fest. Um die Entwicklungsländer zu fördern, wurden Zugeständnisse in der Markttransparenz für tropische Produkte gemacht. Zur schnellen Beseitigung von Streitigkeiten unter den Handelspartnern wurden ein Konfliktsystem sowie ein Prüfmechanismus für die Handelspolitik eingeführt. In landwirtschaftlichen Fragen wurden dagegen kaum Ergebnisse erzielt, und man beschloss, die Gespräche später fortzusetzen. Letztendlich entstand ein erster Entwurf der endgültigen rechtlichen Übereinkunft, der „Final Act“. Dieser wurde von dem späteren Generaldirektor der GATT Arthur Dunkel übersetzt und im Dezember 1991 in Genf vorgelegt. Der Text erfüllte alle Aspekte der "Uruguay-Runde" mit einer Ausnahme: Die Liste der Verpflichtungen zum Beschneiden der Importsteuern und Öffnung ihrer Dienstleistungsmärkte (siehe auch GATS, engl. "General Agreement on Trade in Services"). Der Entwurf wurde zur Basis für den endgültigen Beschluss. Im Juli 1993 gaben die USA, Japan, die EU und Kanada bekannt, dass wichtige Fortschritte in den Zollverhandlungen ähnlicher Bereiche (Marktzugang) erzielt wurden. Es dauerte bis zum 15. Dezember 1993, bis jedes Problem gelöst wurde und die Verhandlungen über den Marktzugang von Gütern und Dienstleistungen endeten. Das Abkommen wurde am 15. April 1994 in Marrakesch (Marokko) von den Abgeordneten der 123 teilnehmenden Staaten unterzeichnet. Ergebnisse. Die im "Allgemeinen Zoll- und Handelsabkommen" (GATT) beschlossenen Aktionen stellten lediglich ein Provisorium dar. Dennoch konnte 47 Jahre lang die Liberalisierung des Welthandels gefördert und gesichert werden. Die fortwährende Minimierung der Zölle regte zwischen den 50er und 60er Jahren sehr hohe Wachstumsraten des Welthandels an. Infolgedessen konnte ein durchschnittliches Wachstum von 8 % pro Jahr erreicht werden. Während der GATT-Ära überstieg das Handelswachstum durch die Handelsliberalisierung das Produktionswachstum. Die Stabilität dieses Handelssystems verursachte einen Anstieg der Mitgliederzahl seit der "Uruguay-Runde". Die Reformen bewirkten eine nachhaltige Verbesserung und Entwicklung der internationalen Wirtschafts- und Handelsbeziehungen. Für die Gründung der WTO wurden die Errungenschaften der GATT-Verhandlungen als Dachvertrag genutzt und bestehen noch heute. Die GATT-Regelungen setzen sich aus den ursprünglichen Verträgen von 1947 (GATT 1947), den aktualisierten Satzungen der "Uruguay-Runde" und den abschließenden Änderungen von 1994 ((GATT 1994), Marrakesch) zusammen. Heutzutage kontrolliert die WTO den internationalen Güterhandel. Gibraltar. Gibraltar (,) ist ein britisches Überseegebiet an der Südspitze der Iberischen Halbinsel. Es steht seit 1704 unter der Souveränität des Vereinigten Königreichs und wurde 1713 von Spanien offiziell im Frieden von Utrecht abgetreten. Geographie. Gibraltar ist eine Halbinsel, die die Bucht von Algeciras östlich begrenzt, und liegt an der Nordseite der Meerenge Straße von Gibraltar, an der Europa und Afrika sich am nächsten sind. Das Territorium umfasst eine Landfläche von 6,5 km2, wobei die Grenze zwischen Gibraltar und Spanien nur 1,2 Kilometer lang ist. Auf der spanischen Seite der Grenze liegt die Stadt La Línea de la Concepción. Die von Gibraltar beanspruchte Meeresfläche reicht bis zu drei Seemeilen vor der Küste. Geologie. Gibraltar besteht aus einem flachen, größtenteils sandigen Gebiet und dem Felsen von Gibraltar. Der an der Ostseite spektakulär steil aus dem Meer aufragende Kalksteinfelsen "(engl. Upper Rock, span. Peñón)" fällt schon von weitem über der Bucht von Algeciras ins Auge. Er ist von Nord nach Süd etwa vier Kilometer lang und bis zu 1,2 Kilometer breit. Die Spitze des Felsens erreicht eine Höhe von 426 m. Er besteht hauptsächlich aus dem im Jura gebildeten Kalkstein und ist damit älter als die benachbarten südspanischen Felsen. Der flache Teil Gibraltars konnte durch Landgewinnung etwas vergrößert werden. Das Material stammt zum großen Teil aus dem Inneren des Felsens, wo es beim Bau der insgesamt etwa 50 Kilometer Tunnel anfiel. Neben den künstlichen Hohlräumen besitzt der Felsen eine ganze Reihe von natürlich entstandenen Höhlen. Klima. Das Wetter in Gibraltar wird wesentlich durch den Levante (Ostwind) und den Poniente (Westwind) bestimmt. Diese lokalen Winde entstehen durch das Atlas-Gebirge im Süden und die Sierra Nevada im Norden. Böden und Flächennutzung. Gibraltar gliedert sich in das Naturschutzgebiet "Upper Rock", das Stadtgebiet, die Ostseite und den zu Gibraltar gehörenden Teil des Mittelmeeres, insbesondere der Bucht von Gibraltar. Das Naturschutzgebiet wurde am 1. April 1993 gegründet und ist heute für Touristen gegen Gebühr zu besichtigen. Die Stadt Gibraltar erstreckt sich auf dem schmalen Streifen der Westseite, wo der Felsen flacher zum Meer abfällt. Während die Westseite stark bevölkert ist, leben auf der Ostseite nur wenige Menschen in den beiden Dörfern Catalan Bay und Sandy Bay. Im Norden der Halbinsel befinden sich an der Grenze zu Spanien der Flughafen, einige militärische Einrichtungen und ein Friedhof für Gefallene aus den Weltkriegen. Im Nordwesten ist ein modernes, mit Hochhäusern bebautes Viertel entstanden, in dem auch eine Marina und Terminals für Fähren gebaut wurden. Südlich davon findet sich am Ufer der Militärhafen und ein Industriegebiet, wo zum Beispiel einige Trockendocks vorzufinden sind. Das touristische Zentrum im Westen ist die "Main Street" und die umliegenden Straßen und Plätze, die teilweise autofrei sind. Da es keine natürlichen Süßwasservorkommen gibt, wurde lange Zeit Regenwasser aufgefangen und, wo möglich, Salzwasser verwendet. So entstand beispielsweise 1908 ein 130.000 m2 großes Auffangbecken für Regenwasser auf der Ostseite der Halbinsel, das allerdings vor einigen Jahren abgebaut wurde. Heute wird das benötigte Süßwasser durch Meerwasserentsalzung produziert. Fauna und Flora. Gibraltar im Vordergrund und das spanische Festland Neben dem Naturschutzgebiet "Upper Rock" ist auch das gesamte Meeresgebiet von Gibraltar seit dem 1. Januar 1996 unter Schutz gestellt. Gibraltar ist der einzige Ort in Europa, an dem Affen (Tierart: Berberaffe oder Magot, "Macaca silvanus") freilebend vorkommen. Deswegen nennt man Gibraltar auch den „Affenfelsen“. Die Affen werden zwar allgemein als freilebend bezeichnet; der Sache nach sind es aber mittlerweile Haustiere, die regelmäßig von Menschen gefüttert werden. Sehenswürdigkeiten. Treppen im höher gelegenen Teil von Gibraltar Demografie. Gibraltar ist eines der am dichtesten besiedelten Gebiete der Erde. 32.577 Personen wohnen in Gibraltar. Die Bevölkerungsdichte beträgt 5012 Einwohner pro Quadratkilometer (2012), die unbesiedelten Gebiete von Upper Rock mitgerechnet. Mittels Landgewinnung wird versucht, der Platznot Herr zu werden. Überalterung ist seit den 1990er-Jahren ein immer größer werdendes Problem. Die Lebenserwartung der Bewohner liegt bei 78,5 Jahren für Männer, und 83,3 Jahren für Frauen. Die Geburtenrate liegt bei jährlich 10,67 Geburten pro 1000 Einwohner. Auf eine Frau kommen im Schnitt 1,65 Neugeborene. Die Kindersterblichkeit liegt bei 0,483 %. Das Bevölkerungswachstum ist mit 0,11 % pro Jahr sehr niedrig. Ethnien. Die meisten Einwohner Gibraltars sind britischer, spanischer, italienischer oder portugiesischer Herkunft. Alle Gibraltarer haben einen britischen Pass. Die Ausländerbehörde stellt Einwanderern zusätzlich zu ihrer alten Staatsbürgerschaft einen britischen Pass für Gibraltar aus. Gemäß einer Analyse der Familiennamen im Wählerregister von 1995 waren 27 % britischer, 24 % spanischer, 19 % italienischer, 11 % portugiesischer, 8 % maltesischer, 3 % israelischer und 2 % menorquinischer Herkunft. Weitere 4 % kamen aus anderen Staaten, während bei 2 % die Herkunft nicht eruierbar war. Religion. Der Großteil der Bevölkerung ist mit über 78 Prozent katholisch. Das Gebiet Gibraltars bildet das Bistum Gibraltar; als Nationalheiligtümer werden die Kathedrale St. Mary the Crowned und das Heiligtum Unserer Lieben Frau von Europa angesehen. An zweiter Stelle folgt konfessionell die Anglikanische Kirche mit rund sieben Prozent der Bevölkerung. Die Cathedral of the Holy Trinity ist Bischofskirche der Diözese in Europa der Church of England für ganz Kontinentaleuropa. Für die vier Prozent Muslime steht mit der Ibrahim-al-Ibrahim-Moschee eine der größten Moscheen Europas als Versammlungsraum zur Verfügung. Weiter wohnen in Gibraltar auch Angehörige weiterer christlicher Konfessionen (3 %), Juden (2 %), Hindus (2 %) und Anhänger mehrerer anderer Religionen. Sprachen. Einzige Amtssprache Gibraltars ist Englisch, die meisten Einwohner sprechen daneben auch Spanisch. Darüber hinaus sprechen viele Einwohner als Umgangssprache Llanito, einen Dialekt, der größtenteils auf andalusischem Spanisch basiert, jedoch auch einige Elemente des Englischen und verschiedener südeuropäischer Sprachen enthält. Obgleich nur Englisch offiziellen Charakter besitzt, sind viele Verkehrs-, Straßen- und Hinweisschilder zusätzlich in spanischer Sprache beschriftet. Geschichte. Denkmal zum Bau der "Great Siege Tunnels", 1782 bis 1783. Grenzübergang zwischen Spanien und Gibraltar Natürliche Höhlen im Felsen von Gibraltar gelten als die letzten Rückzugsgebiete der Neandertaler in Europa. Gesicherte Spuren weisen auf eine Besiedlung der Gorham-Höhle noch vor etwa 28.000 Jahren hin. Im Altertum galt Gibraltar als eine der Säulen des Herakles. Römische Spuren in Gibraltar (lat. „Mons Calpe“) sind nicht bekannt. Den Römern folgten die Westgoten, die sich der Iberischen Halbinsel bemächtigten. 711 wurde Gibraltar von den muslimischen Arabern und Berbern eingenommen. Der Name "Gibraltar" stammt aus dem Arabischen ("Jabal Ṭāriq" „Berg des Tarik“), nach Tāriq ibn Ziyād, einem maurischen Feldherrn, der die strategische Bedeutung Gibraltars für die Eroberung Spaniens erkannte und als erster Muslim ein Stück Spaniens eroberte. Um etwa 1160 entstand eine erste Festung in Gibraltar, die in den kommenden Jahrhunderten ausgebaut wurde und heute als "Moorish Castle" bekannt ist. Die Muslime beherrschten Gibraltar bis zur Reconquista 1462 (von 1309 bis 1333 erstmals kastilisch durch Ferdinand IV.). Am 25. April 1607 fand während des Achtzigjährigen Krieges die Schlacht bei Gibraltar statt. Dabei überraschte eine niederländische Flotte eine in der Bucht von Gibraltar ankernde spanische Flotte und vernichtete sie. Nachdem die spanischen Habsburger die Vorherrschaft in Europa am Ende des Dreißigjährigen Krieges 1648 verloren hatten, kämpften Niederländer und Engländer um die Kontrolle der Ozeane. Dies war die Zeit der vier Englisch-Niederländischen Seekriege, die in der Zeit zwischen 1652 und 1784 stattfanden. So wurde beispielsweise der Zweite Englisch-Niederländische Seekrieg dadurch ausgelöst, dass ein niederländischer Geleitzug im Dezember 1664 in der Straße von Gibraltar von den Engländern überfallen wurde. Zwischen diesen Auseinandersetzungen kam es immer wieder zu Friedensschlüssen und gemeinsamen Aktionen gegen Dritte. Eine dieser gemeinsamen Aktionen war die Eroberung Gibraltars am 4. August 1704 durch Prinz Georg von Hessen-Darmstadt im Spanischen Erbfolgekrieg an Bord der englisch-holländischen Flotte unter Admiral Sir George Rooke. Die spanische Besatzung wurde dabei in Abwandlung militärischer Taktik nicht im Morgengrauen, sondern während der Siesta am Nachmittag überrascht. Die anschließende Belagerung Gibraltars durch Spanien blieb erfolglos. 1713 wurde das Gebiet im Vertrag von Utrecht formell den Briten zugesprochen und ist seit 1830 britische Kronkolonie. Während des Englisch-Spanischen Krieges von 1727–1729 belagerten Truppen von Philipp V. vergeblich Gibraltar. Zwischen 1779 und 1783 versuchten spanische und französische Truppen erneut, die Festung zu erobern (Great Siege). In dieser Zeit wurden die ersten Tunnel, die sogenannten "Great Siege Tunnels", gegraben. Während des Zweiten Weltkrieges wurde die Zivilbevölkerung Gibraltars umgesiedelt. In dieser Zeit wurde der Felsen in eine unterirdische Festung für bis zu 15.000 Soldaten umgewandelt. Die Tunnel, die sogenannten "World War II Tunnels", können heute in Teilen besichtigt werden. Ziel dieser Befestigung war es, einem möglichen Angriff der deutschen Wehrmacht begegnen zu können. Diese hatte auch mit einem ersten Operationsentwurf vom 20. August 1940 die Eroberung des Stützpunktes geplant. Das Unternehmen Felix wurde jedoch nie durchgeführt, da Spanien neutral blieb. Bei einem Vergeltungsschlag für die britische Operation Catapult bombardierten Luftstreitkräfte des restfranzösischen Vichy-Regimes Gibraltar am 24. und 25. September 1940 und versenkten dabei einen Hilfskreuzer im Hafen. Vor Beginn der anglo-amerikanischen Invasion Französisch-Nordafrikas, der Operation Torch, schlug der US-amerikanische General Eisenhower sein Hauptquartier am 5. November 1942 in Gibraltar auf. Drei Tage später begann die Invasion Marokkos mit 300.000 Soldaten. Letzten Endes blieb Gibraltar der einzige Teil des nichtneutralen westeuropäischen Festlands, der zu keiner Zeit von Deutschland oder seinen Verbündeten besetzt war. Vor Gibraltar kam der Premierminister der polnischen Exilregierung, General Sikorski, bei einem Flugzeugunglück am 4. Juli 1943 ums Leben. Die Straße von Gibraltar, die das Mittelmeer mit dem Atlantik verbindet, ist für das Militär von großer Bedeutung. Das Vereinigte Königreich unterhält in Gibraltar einen Flottenstützpunkt. Seit langem kommt es zu Spannungen zwischen England und Spanien, weil Spanien die Hoheit über Gibraltar wiedererlangen möchte. Die Grenze nach Spanien war von 1969 bis 1985 geschlossen. Bei einem Referendum am 7. November 2002 (Wahlbeteiligung: fast 90 %) stimmten 99 % der Abstimmenden für einen Verbleib unter britischer Herrschaft. Nur 187 Bewohner waren für eine geteilte Souveränität. Am 18. September 2006 schlossen der Außenminister Spaniens und der Europaminister des Vereinigten Königreichs sowie der Chief Minister of Gibraltar Peter Caruana in Córdoba einen Vertrag zur Zusammenarbeit. Darin wird festgelegt, dass ein neues Terminal für den Flughafen Gibraltar gebaut wird, sodass der Flughafen auch von spanischer Seite aus genutzt werden kann. Außenminister Spaniens war damals Miguel Ángel Moratinos (Kabinett Zapatero I), Europaminister des UK war Geoff Hoon (Kabinett Blair III). Ab dem 16. Dezember 2006 gab es (zum ersten Mal seit Jahrzehnten) einen Linienflug von Spanien nach Gibraltar (Näheres hier). Außerdem wurden Regelungen über das Telefonnetz, die Entschädigung von spanischen Arbeitern, die nach der Schließung der Grenze 1969 ihre Arbeit verloren hatten, und eine Erleichterung der Grenzkontrollen auf der Landseite getroffen. Weiterhin soll eine Dépendance des Instituto Cervantes in Gibraltar eröffnet werden. Am 21. Juli 2009 kam Außenminister Moratinos als erster Vertreter der spanischen Regierung seit Beginn der britischen Souveränität über Gibraltar zu einem offiziellen Besuch nach Gibraltar. Politik. Abstimmungsplakat zum Volksreferendum von 2002 Bucht und Straße von Gibraltar Verhältnis zum Vereinigten Königreich. Gibraltar ist ein Überseeterritorium des Vereinigten Königreichs. Es hat eine eigene Regierung, die die Aufgaben der Selbstverwaltung erfüllt. Sie umfasst alle Bereiche außer Verteidigung, Außenpolitik und innere Sicherheit, die vom Vereinigten Königreich übernommen werden. Staatsoberhaupt ist die britische Königin; sie wird in Gibraltar durch einen Gouverneur repräsentiert. Der Gouverneur ist gleichzeitig der Oberbefehlshaber der Armee und der Polizei. Der amtierende Gouverneur James Dutton wurde im Dezember 2013 ernannt. Im November 2006 stimmten über 60 Prozent der gibraltarischen Bevölkerung für eine neue Verfassung, die größere Eigenständigkeit vorsieht, insbesondere im Justizwesen. Verhältnis zu Spanien. Seit 1704, als die Englische Krone die Herrschaft über die Halbinsel erlangte und im Vertrag von Utrecht 1713 zugesichert bekam, versuchte Spanien, die britische Kolonie zurückzuerobern. Im 18. Jahrhundert wurde dies mit militärischen Mitteln versucht, nämlich in den drei Belagerungen von 1704, 1727 und 1779–1783, allesamt erfolglos. Im 19. Jahrhundert waren weitere militärische Aktionen gegen Großbritannien infolge seiner weltweiten politischen und militärischen Dominanz aussichtslos und unterblieben daher. Erst in den 1950er Jahren unternahm der spanische Diktator Francisco Franco neue Versuche, Gibraltar zu annektieren, wobei er auch den Exilpräsidenten Spaniens, Claudio Sánchez Albornoz, auf seiner Seite hatte. Seither fanden mehrere Verhandlungsrunden statt, die aber zu keiner abschließenden Lösung führten. In zwei Volksabstimmungen, in denen Gibraltar über einen Wechsel zu Spanien entschied, wurden die Vorschläge überaus deutlich verworfen: Am 10. September 1967 mit 12.138 zu 44 Stimmen und am 7. November 2002 mit 17.900 zu 187 Stimmen. 2002 war nur über eine gemeinsame britisch-spanische Ausübung der Souveränitätsrechte über Gibraltar abgestimmt worden. Durch verschiedene Repressionen hatte sich Spanien bei den Einwohnern Gibraltars unbeliebt gemacht, darunter die jahrelange komplette Schließung der Grenze (vom 9. Juni 1969 bis zum 4. Februar 1985), danach oft lange Wartezeiten am Grenzübergang, Beschränkungen beim Zugang zu Telekommunikationsmitteln oder Versuche, Gibraltars Bevölkerung von der Teilnahme an internationalen Sportanlässen auszuschließen. Zwischen 2009 und 2011 gab es auch kleinere Grenzzwischenfälle in den Hoheitsgewässern. Spanien war zwar von den Vereinten Nationen in dem Bestreben, die Souveränität über Gibraltar zu erlangen, unterstützt worden, da Gibraltar offiziell noch eine aufzulösende Kolonie ist, nach diesen Abstimmungen stellte Jim Murphy, britischer Minister, klar, dass das Vereinigte Königreich nichts ohne die explizite Zustimmung der Gibraltarer tun würde. Außerdem sei der Status Gibraltars umstritten und somit auch sein Status als Kolonie. Inzwischen sieht die UNO Gibraltar als ein bilaterales Problem zwischen Großbritannien und Spanien an und überlässt es diesen Staaten, eine Lösung zu finden. Trotz der verbesserten Zusammenarbeit zwischen Spanien und dem britischen Überseegebiet herrscht bis in die heutige Zeit Uneinigkeit über die jeweiligen Hoheitsrechte vor der Küste Gibraltars. Spanien erkennt nur eine kleine Zone rund um den Hafen als britisch an und beruft sich dabei auf den Vertrag von Utrecht, das Vereinigte Königreich hingegen beansprucht unter Berufung auf dieselbe Urkunde eine Drei-Meilen-Zone, was wiederholt zu Zusammenstößen zwischen der spanischen Guardia Civil und britischen Patrouillenbooten führte. Am 18. November 2009 beobachtete die Guardia Civil, wie ein Schnellboot der britischen Marine sieben Seemeilen südlich von Gibraltar Schießübungen auf eine Boje mit der spanischen Fahne durchführte; der britische Botschafter Giles Paxman entschuldigte sich wenig später für „mangelndes Urteilsvermögen und fehlende Sensibilität“ der Schiffsbesatzung. Am 7. Dezember 2009 fuhr ein Boot der Guardia Civil bei der Verfolgung mutmaßlicher Drogenschmuggler bis in den Hafen von Gibraltar. Die spanischen Sicherheitskräfte machten dort zwar die zwei Insassen des flüchtenden Schnellbootes dingfest, wurden aber ihrerseits von der Gibraltar Squadron festgenommen. Der spanische Innenminister Alfredo Pérez Rubalcaba entschuldigte sich wenig später bei Gibraltars Chief Minister Peter Caruana für das „nicht korrekte Verhalten“ seiner Beamten. Diese wurden noch am selben Tag wieder auf freien Fuß gesetzt. Ende Juli 2013 ließ die Regierung von Gibraltar 70 je drei Tonnen schwere eisenbewehrte Betonklötze im Meer versenken. Fischer protestierten gegen die Klötze. Premierminister David Cameron bat etwa drei Wochen später in einem Telefongespräch mit EU-Kommissionspräsident José Manuel Barroso „dringend“ um die Entsendung von EU-Beobachtern an die Grenze. Politisches System. Die Bevölkerung Gibraltars wählt das siebzehnköpfige Gibraltar Parliament. Jeder Wähler hat zehn Stimmen. Eine Einteilung in Wahlkreise gibt es nicht. Da eine Personenwahl stattfindet, ist die Vertretung der Parteien nicht notwendigerweise proportional. Derzeit sind drei Parteien im Parlament vertreten. Der von einer Mehrheit unterstützte Kandidat wird vom Gouverneur zum Regierungschef (Chief Minister) ernannt. Außer dem Chief Minister besteht die Exekutive noch aus dem Finanzminister und dem Justizminister. Bei den Parlamentswahlen am 8. Dezember 2011 erhielt die Gibraltar Socialist Labour Party (GSLP) sieben Mandate, die Gibraltar Social Democrats (GSD) des früheren Chief Minister Peter Caruana trotz erheblich höherer Stimmenzahl ebenso nur sieben Sitze. Die Gibraltar Liberal Party (Libs) ist mit drei Sitzen vertreten und bildet mit der GSLP eine Koalition, sodass die GSD derzeit in der Opposition ist. Die GSLP stellt mit Fabian Picardo den Chief Minister. Alle Parteien sind für Gibraltars Selbstregierung. Sowohl GSD als auch GSLP weigern sich, Vereinbarungen mit Spanien zu treffen, wobei die GSLP traditionell radikaler ist. Bis 2006 trug das Gremium den Namen "House of Assembly". Die Namensänderung im Zuge der neuen Verfassung sollte auch das höhere Maß an Selbständigkeit ausdrücken, da House of Assembly ein wiederholt verwendeter Name in britischen Kolonien war. Es hatte auch 17 Mitglieder, aber nur 15 wurden von der Bevölkerung gewählt. Jeder Wähler hatte acht Stimmen, was oft dazu führte, dass die Parteien acht Kandidaten aufstellten mit der Bitte, alle zu wählen. Hierdurch erhielt die stärkste Fraktion in der Regel acht Sitze, die unterlegene Partei sieben Sitze. Status innerhalb der EU. Im Jahr 2003 erhielten die Bewohner Gibraltars durch den "European Parliament (Representation) Act 2003" das Wahlrecht für das Europäische Parlament, obwohl die Bürger keine Unionsbürger im Sinne des Art. 20 AEUV sind. Dies begründet der EuGH mit der engen Verbindung von Gibraltar zum Vereinigten Königreich. Die Konsequenzen für andere EU-Mitgliedstaaten (diese müssten die Bürger von Gibraltar dann auch zu Europawahlen zulassen) sind noch ungeklärt. Gibraltar gehört bei der Europawahl zum Wahlgebiet Südwestengland, das sieben Vertreter stellt. Bei der Europawahl 2004 nutzten 57,5 % der Wahlberechtigten Gibraltars ihr neues Recht. Damit lag die Wahlbeteiligung 18,6 Prozentpunkte über dem britischen Durchschnitt. Wirtschaft. Die Wirtschaft Gibraltars wird vor allem vom Tourismus bestimmt. Neben vielen Tagestouristen übernachten auch immer mehr Touristen in den zahlreichen Hotels. Daneben tragen das Offshore-Finanzwesen sowie Schiffbau und Schiffsreparatur mit jeweils etwa 25 Prozent zum Bruttoinlandsprodukt bei. An vierter Stelle steht der Telekommunikationsbereich, der zu etwa 10 Prozent am BIP beteiligt ist. Einen immer größeren Teil der Wirtschaft stellt die wachsende Zahl in Gibraltar angesiedelter internationaler Anbieter von Online-Sportwetten sowie -Casinos dar. Im Haushaltsjahr 2011/2012 betrug das Bruttoinlandsprodukt 1.169,37 Mio. £, das entsprach Mitte 2012 etwa 1,837 Mrd. US$. Im Staatshaushalt wurden seit 2004 regelmäßig Überschüsse erwirtschaftet, die jeweils zwischen 1,1 % und 4,1 % des BIP betrugen. So standen im Haushaltsjahr 2011/2012 Einnahmen von 454,6 Mio. £ lediglich Ausgaben von 420,3 Mio. £ gegenüber, was einem Haushaltsüberschuss von 2,93 % des BIP entsprach. Das Gibraltar-Pfund ist formal eine eigene Währung, ist aber in einem Verhältnis von 1:1 fest an das britische Pfund gebunden. Deswegen wird auch oft mit britischen Pfund bezahlt und weniger mit dem Euro. Postwesen. Für Postdienstleistungen war in Gibraltar seit dem Jahr 1886 das „Gibraltar Post Office“ zuständig. Im Jahre 2005 wurde ihm von der britischen Königin Elisabeth II. der Titel „Royal“ verliehen, sodass das Postwesen in Gibraltar nun in der Hand des „Royal Gibraltar Post Office“ liegt. Damit ist die Postgesellschaft von Gibraltar das einzige Postunternehmen außerhalb des britischen Mutterlandes, dem der Titel „Royal“ zuerkannt wurde. Das Royal Gibraltar Post Office gibt eigene Briefmarken heraus, deren Nominalwert in Gibraltar-Pfund (GIP) ausgewiesen werden. Aufgrund der geographischen Limitierung sind die Briefmarken des „Royal Gibraltar Post Office“ bei Touristen und Sammlern sehr beliebt. Die Briefmarken weisen häufig das Motiv der britischen Königin Elisabeth II. auf. Postsendungen von Gibraltar in das Ausland (Ausnahme Spanien) werden zunächst nach London geflogen und von dort aus in ihre Bestimmungsstaaten weitertransportiert. Postsendungen für Spanien werden hingegen an der Landesgrenze der spanischen Post übergeben. Die gleiche Vorgehensweise gilt ebenfalls in umgekehrter Richtung für Postsendungen aus dem Ausland nach Gibraltar. Das Hauptpostamt ist in der Main-Street 104 zu finden. Verkehr. Die Start- und Landebahn des Gibraltar Airport führt über eine Straße Seilbahn über den Dächern von Gibraltar Gibraltar verfügt über einen eigenen Flughafen, den Flughafen Gibraltar. Es handelt sich dabei um den weltweit einzigen Flughafen, dessen Landebahn eine vierspurige Straße kreuzt. Gibraltar ist einer der bedeutendsten, in jedem Fall aber der umsatzstärkste Nachschubplatz für Schiffsdiesel im Mittelmeer. Im Jahre 2005 liefen 6662 hochseetaugliche Schiffe den Hafen an, 90 % von ihnen zum Tanken. In Gibraltar verkehren insgesamt sieben Buslinien (1 bis 4, 7 bis 9, Stand: Februar 2014), wobei es die Linie 1 noch als verkürzte Variante 1B gibt, die aber selten verkehrt. Die Beförderung ist kostenfrei für Inhaber bestimmter Ausweise, andere zahlen 2,25 Gibraltar-Pfund bzw. 3 Euro für ein Tagesticket. Obgleich Gibraltar unter britischer Oberhoheit steht, gilt hier, wegen der Größe und seiner Nähe zu Spanien, seit dem Jahr 1929 der Rechtsverkehr. Von der Innenstadt zum Felsen (Upper Rock) gibt es eine regelmäßig verkehrende Seilbahn mit einer Zwischenstation. Die Winston Churchill Avenue ist die einzige Verbindung nach Spanien. Kultur. Die gibraltarische Kultur ist stark beeinflusst durch die britische, die spanische und auch die marokkanische Kultur. Musikbands aus Gibraltar sind zum Beispiel Breed 77 und "No Direction". Nationalfeiertag. Der gibraltarische Nationalfeiertag ist der 10. September. Viele Häuser werden mit der Flagge Gibraltars und rot-weißen Luftballons verziert, und für jeden Bürger wird ein Ballon „in die Luft entlassen“. Sport. Die Fußballnationalmannschaft von Gibraltar existiert seit 1895 und belegte unter anderem beim FIFI Wild Cup den dritten Platz. Es wird jährlich eine nationale Meisterschaft ausgespielt. Gibraltar hat ein eigenes Fußballstadion, in dem sämtliche Ligaspiele sowie Länderspiele ausgetragen werden. Am 8. Dezember 2006 wurde der Fußballverband von Gibraltar vorläufig als UEFA-Mitglied aufgenommen. Eine definitive Abstimmung erfolgte am 26. Januar 2007 in Düsseldorf – dort wurde der Antrag Gibraltars zur UEFA-Mitgliedschaft abgelehnt. Nach einem Urteil des internationalen Sportgerichtshof CAS vom August 2011 musste die Entscheidung revidiert und Gibraltar ab 1. Oktober 2012 erneut als vorläufiges Mitglied aufgenommen werden. Daraufhin wurde Gibraltar als eigenständiger Nationalverband bei den Auslosungen zur EM der U-17, der U-19 und zum UEFA Futsal Cup berücksichtigt. Die endgültige Aufnahme wurde im Rahmen des 37. UEFA-Kongresses am 24. Mai 2013 in London beschlossen. Per Exekutiv-Entscheid ist auch als Vollmitglied ein Aufeinandertreffen von Mannschaften aus Spanien und Gibraltar in Gruppenspielen nicht zulässig. Am 19. November 2013 bestritt die Nationalmannschaft im portugiesischen Faro ihr erstes offizielles Länderspiel gegen ein anderes UEFA-Mitglied. Die Partie gegen die Slowakei endete 0:0. Die Qualifikation zur Fußball-Europameisterschaft 2016 ist das erste Turnier, bei dem Gibraltar um die Teilnahme spielt. Das erste Spiel gegen Deutschland fand am 14. November 2014 in Nürnberg statt und endete 4:0 für Deutschland. Wie auch in anderen Sportarten kämpfen die Nationalmannschaften Gibraltars um internationale Anerkennung. Rugby und Cricket haben sich auf Grund der Historie Gibraltars etabliert. In Cricket wird am europäischen Wettbewerb teilgenommen. Medien. Die Gibraltar Broadcasting Corporation (GBC) betreibt einen eigenen Radio- und Fernsehsender für Gibraltar. Außerdem gibt es verschiedene Tageszeitungen in englischer und spanischer Sprache. Die wichtigsten gibraltarischen Tageszeitungen sind der „Gibraltar Chronicle“ und „Panorama“. Seit 1995 existiert die Top-Level-Domain „.gi“. Große Syrte. Die Große Syrte (Dschûnel Kebrit, auch Golf von Sidra) ist eine weite Bucht des Mittelmeeres an der Nordküste Libyens. Sie gehört zum Libyschen Meer und ist der südlichste Teil des Mittelmeeres. Geographie. Die Große Syrte erstreckt sich zwischen der Landspitze von Cephalae (Ras Kasr Hamet) bei Misurata in Tripolitanien (Westen) und der Landspitze von Boreum Ras Teyonas bei Bengasi in der Kyrenaika mit dem Plateau von Barka im Osten und weist eine Länge von 439 Kilometern auf, sowie eine maximale Breite von 180 Kilometern (Einbuchtung nach Süden). Die Flächenausdehnung beträgt rund 57.000 km². An der Großen Syrte liegen die Städte Sirte, Ras Lanuf und Marsa el-Brega (al-Burayqah). Sie sind Umschlagplätze für den Erdölexport Libyens und über Pipelines mit dem Landesinneren verbunden. Geschichte. Die Reichsteilung von 395, die das Römische Reich in West- und Ostrom teilte, teilte die Küste der großen Syrte unter den beiden Reichen auf. Während des Zweiten Weltkrieges fanden zwei Gefechte zwischen Briten und Italienern im Golf von Syrte, das Erste und das Zweite Seegefecht im Golf von Syrte statt. Unter Berufung auf eigene Auslegungen des Seerechtsübereinkommens erklärte Libyen 1973 einen Großteil der Großen Syrte, nämlich den gesamten Bereich südlich des 32. Breitengrades (genauer: 32° 30' N; von Libyens ehemaligen Staatschef Muammar al-Gaddafi „Todeslinie“ genannt), zu seinen Hoheitsgewässern. Diese von den meisten nichtarabischen Staaten der Welt nicht anerkannte Ausbreitung in als international angesehene Gewässer führte wiederholt zu militärischen Auseinandersetzungen, obwohl außer von und nach Libyen gehenden Verbindungen keine internationalen Schifffahrtswege durch die Syrte verlaufen. Die im Mittelmeer stationierte 6. US-Flotte führte dort wiederholt Manöver ("freedom of navigation exercises") durch, die Libyen in die Schranken weisen sollten. 1981 und 1989 wurden jeweils zwei libysche Kampfjets von im Mittelmeer stationierten Streitkräften der USA abgeschossen. 1986 wurden während der Operation "Prairie Fire" in der Großen Syrte zwei libysche Kriegsschiffe durch U.S.-Streitkräfte versenkt. Einzelnachweise. Syrte Syrte Genetik. Die Genetik (moderne Wortschöpfung zu griechisch γενεά "geneá" ‚Abstammung‘, γένεσις "génesis" ‚Ursprung‘) oder Vererbungslehre ist ein Teilgebiet der Biologie. Sie befasst sich mit den Gesetzmäßigkeiten und materiellen Grundlagen der Ausbildung von erblichen Merkmalen und der Weitergabe von Erbanlagen (Genen) an die nächste Generation (Vererbung). Das Wissen, dass individuelle Merkmale über mehrere Generationen hinweg weitergegeben werden, ist relativ jung; Vorstellungen von solchen natürlichen Vererbungsprozessen prägten sich erst im 18. und frühen 19. Jahrhundert aus. Als Begründer der Genetik gilt der Augustinermönch und Hilfslehrer Gregor Mendel, der in den Jahren 1856 bis 1865 im Garten seines Klosters systematisch Kreuzungsexperimente mit Erbsen durchführte und diese statistisch auswertete. So entdeckte er die später nach ihm benannten Mendelschen Regeln, die in der Wissenschaft allerdings erst im Jahr 1900 rezipiert und bestätigt wurden. Der heute weitaus wichtigste Teilbereich der Genetik ist die Molekulargenetik, die in den 1940er Jahren begründet wurde und sich mit den molekularen Grundlagen der Vererbung befasst. Aus ihr ging die Gentechnik hervor, in der die Erkenntnisse der Molekulargenetik praktisch angewendet werden. Etymologie. Das Adjektiv „genetisch“ wurde schon um 1800 von Johann Wolfgang von Goethe in dessen Arbeiten zur Morphologie der Pflanzen und in der Folgezeit häufig in der romantischen Naturphilosophie sowie in der deskriptiven Embryologie verwendet. Anders als heute meinte man damit eine „Methode'“ („genetische Methode“) der Untersuchung und Beschreibung der Individualentwicklung (Ontogenese) von Organismen. Das Substantiv „Genetik“ gebrauchte erstmals William Bateson 1905 zur Bezeichnung der neuen Forschungsdisziplin. In Deutschland wurde bis in die zweite Hälfte des 20. Jahrhunderts der Ausdruck „Erbbiologie“ bedeutungsgleich gebraucht, zumeist zur Unterscheidung der „Erbbiologie des Menschen“ (Humangenetik) von der allgemeinen Genetik. Die Bezeichnung „Humangenetik“ war dabei in Deutschland bereits um 1940 etabliert. Damit wurde ein Rückzug auf wissenschaftlich gebotene Grundlagenforschung angezeigt, während „Rassenhygiene“ angewandte Wissenschaft darstellte. Nach 1945 verschwanden die Bezeichnungen „Erbbiologie“ sowie „Rassenhygiene“ allmählich aus dem wissenschaftlichen Sprachgebrauch. Vorgeschichte. Schon seit der Antike versuchen die Menschen die Gesetzmäßigkeiten der Zeugung und die Ähnlichkeiten zwischen Verwandten zu erklären, und einige der im antiken Griechenland entwickelten Konzepte blieben bis in die Neuzeit gültig oder wurden in der Neuzeit wieder aufgegriffen. So lehrte der griechische Philosoph Alkmaion um 500 v. Chr., dass die Zeugung der Nachkommen durch die Zusammenwirkung des männlichen und des weiblichen „Samens“ geschehe. Sein Postulat eines weiblichen Samens fand in der damaligen Naturphilosophie und später auch in der hippokratischen Medizin allgemeine Anerkennung. Davon abweichend behaupteten Hippon und Anaxagoras, dass nur der Mann zeugungsfähigen Samen bilde und dass der weibliche Organismus den Keim nur ernähre. Die Bildung des Samens erfolgte laut Alkmaion im Gehirn, von wo aus er durch die Adern in den Hoden gelange. Demgegenüber erklärten Anaxagoras und Demokrit, dass der gesamte Organismus zur Bildung des Samens beitrage, – eine Ansicht, die als Pangenesistheorie über 2000 Jahre später von Charles Darwin erneut vertreten wurde. Auch die Überlegungen des Anaxagoras, wonach alle Körperteile des Kindes bereits im Samen (Sperma) vorgebildet seien, traten als Präformationslehre in der Neuzeit wieder auf. In der Antike wurden diese frühen Lehren weitgehend abgelöst durch die Ansichten des Aristoteles (De generatione animalium), wonach das Sperma aus dem Blut entsteht und bei der Zeugung nur immateriell wirkt, indem es Form und Bewegung auf die durch den weiblichen Organismus bereitgestellte flüssige Materie überträgt. Die Entwicklung des Keims beschrieb Aristoteles als Epigenese, wonach im Gegensatz zur Präformation die verschiedenen Organe nacheinander durch die Einwirkung des väterlichen Formprinzips ausgebildet werden. Neben der geschlechtlichen Zeugung kannte Aristoteles auch die Parthenogenese (Jungfernzeugung) sowie die (vermeintliche) Urzeugung von Insekten aus faulenden Stoffen. Vererbung war bis in das 18. Jahrhundert ein juristischer Begriff und fand für natürliche Vorgänge keine Anwendung. Denn Ähnlichkeiten zwischen Verwandten wurden ausreichend über jeweils spezifische lokale Faktoren und die Lebensweise des Individuums erklärt: über das Klima, die Ernährung, die Art der Betätigungen usw. Wie gewisse Merkmale unter Nachkommen blieben auch diese Faktoren für die Nachkommen in der Regel konstant. Irreguläre Merkmale konnten dann entsprechend auf irreguläre Einflüsse bei der Zeugung oder der Entwicklung des Individuums zurückgeführt werden. Erst mit dem zunehmenden internationalen Verkehr und zum Beispiel der Anlage von exotischen Gärten wurde ein Wahrnehmungsraum dafür geschaffen, dass es vom Individuum und seinem jeweiligen Ort ablösbare, natürliche Gesetze geben müsse, die sowohl die Weitergabe von regulären als auch zuweilen eine Weitergabe von neu erworbenen Eigenschaften regeln. Der Begriff der Fortpflanzung oder Reproduktion, in dessen Kontext von Vererbung im biologischen Sinn gesprochen werden kann, kam erst gegen Ende des 18. Jahrhunderts auf. In früheren Jahrhunderten galt die „Zeugung“ eines Lebewesens als ein Schöpfungsakt, der grundsätzlich eines göttlichen Eingriffs bedurfte und im Rahmen des Präformismus vielfach als Teilaspekt der Erschaffung der Welt betrachtet wurde. Dabei unterschied man die Zeugung durch den Samen (Sperma) im Mutterleib von der Urzeugung, durch welche niedere Tiere (etwa Würmer, Insekten, Schlangen und Mäuse) aus toter Materie hervorzugehen schienen. Die „Samenzeugung“ betrachtete man als Eigenheit des Menschen und der höheren Tiere, welche zu ihrer Ausbildung eines Mutterleibs bedürfen. Erst gegen Ende des 17. Jahrhunderts setzte sich, vor allem aufgrund der Experimente Francesco Redis, die Einsicht durch, dass Würmer, Insekten und andere niedere Tiere nicht aus toter Materie entstehen, sondern von gleichartigen Tieren gezeugt werden. Nun betrachtete man die Zeugung nicht mehr als Schöpfungsakt, sondern verlegte diesen in die Zeit der Erschaffung der Welt, bei der, wie man annahm, alle zukünftigen Generationen von Lebewesen zugleich ineinandergeschachtelt erschaffen wurden. Die Zeugung war somit nur noch eine Aktivierung des längst vorhandenen Keims, der sich dann zu einem voll ausgebildeten Organismus entfaltete. Strittig war dabei, ob die Keime durch das weibliche oder durch das männliche Geschlecht weitergegeben werden, ob sie also im Ei oder im „Samentierchen“ eingeschachtelt sind. Beide Ansichten hatten ihre Anhänger (Ovisten und Animalkulisten), bis die Entdeckung der Jungfernzeugung bei der Blattlaus durch Charles Bonnet 1740 den Streit zugunsten der Ovisten entschied. Neben der sehr populären Präformationslehre, die 1625 durch Giuseppe degli Aromatari (1587–1660) ins Spiel gebracht worden war, gab es im 17. Jahrhundert auch renommierte Anhänger der an Aristoteles anknüpfenden Epigenesislehre, namentlich William Harvey und René Descartes. Deren Ansichten galten jedoch als antiquiert und wurden als unwissenschaftlich verworfen, da sie immaterielle Wirkprinzipien voraussetzten, während der Präformismus rein mechanistisch gedacht werden konnte und zudem durch die Einführung des Mikroskops einen starken Auftrieb erfuhr. Die Vorstellung der Präformation herrschte bis in das 19. Jahrhundert hinein vor, obwohl es durchaus Forschungsergebnisse gab, die nicht mit ihr in Einklang gebracht werden konnten. Großes Erstaunen riefen die Versuche zur Regeneration bei Salamandern, Süßwasserpolypen und anderen Tieren hervor. Polypen kann man fein zerhacken, und jedes Teilstück entwickelt sich, wie Abraham Trembley 1744 beschrieb, innerhalb von zwei bis drei Wochen zu einem kompletten Tier. In den Jahren 1744 bis 1754 veröffentlichte Pierre-Louis Moreau de Maupertuis mehrere Schriften, in denen er aufgrund von Beobachtungen bei Tieren und Menschen, wonach beide Eltern Merkmale an ihre Nachkommen weitergeben können, die Präformationslehre kritisierte und ablehnte. Entsprechende Beobachtungen publizierte auch Joseph Gottlieb Kölreuter (1761), der als Erster Kreuzungen verschiedener Pflanzenarten studierte. Und Caspar Friedrich Wolff beschrieb 1759 minutiös die Entwicklung des Embryos im Hühnerei aus völlig undifferenzierter Materie. Trotz der Probleme, die derartige Forschungen aufwarfen, geriet die Präformationslehre jedoch erst im frühen 19. Jahrhundert durch die embryologischen Untersuchungen von Christian Heinrich Pander (1817) und Karl Ernst von Baer (1828) ins Wanken, bei denen diese die Bedeutung der Keimblätter aufklärten und allgemein gültige Gesetzmäßigkeiten der Embryogenese der Tiere aufzeigten. Mit der Etablierung der von Matthias Jacob Schleiden (1838), Theodor Schwann (1839) und Rudolf Virchow (1858) entwickelten Allgemeinen Zelltheorie wurde deutlich, dass die Gründe für die Ähnlichkeit von Eltern und Nachkommen in der Zelle lokalisiert sein müssen. Alle Organismen bestehen aus Zellen, Wachstum beruht auf der Vermehrung der Zellen durch Teilung, und bei der geschlechtlichen Fortpflanzung, die bei Vielzellern der Normalfall ist, vereinigen sich je eine Keimzelle beiderlei Geschlechts zu einer Zygote, aus welcher durch fortwährende Teilung und Differenzierung der neue Organismus hervorgeht. Klassische Genetik. Die Gesetzmäßigkeiten der Vererbung blieben lange im Unklaren. Schon in den Jahren 1799 bis 1823 führte Thomas Andrew Knight – wie einige Jahrzehnte später Gregor Mendel – Kreuzungsexperimente mit Erbsen durch, bei denen er bereits die Erscheinungen der Dominanz und der Aufspaltung von Merkmalen beobachtete. 1863 publizierte Charles Naudin (1815–1899) die Ergebnisse seiner Kreuzungsexperimente mit zahlreichen Pflanzengattungen, wobei er das sehr gleichartige Aussehen aller Pflanzen der ersten Tochtergeneration und die „extreme Verschiedenartigkeit der Formen“ in den folgenden Generationen konstatierte und damit weitere bedeutende Aspekte der fast zeitgleichen Erkenntnisse Mendels vorwegnahm, aber im Unterschied zu Mendel keine statistische Auswertung durchführte. Der entscheidende Durchbruch gelang dann Mendel mit seinen 1856 begonnenen Kreuzungsversuchen, bei denen er sich auf "einzelne Merkmale" konzentrierte und die erhaltenen Daten "statistisch auswertete". So konnte er die grundlegenden Gesetzmäßigkeiten bei der Verteilung von Erbanlagen auf die Nachkommen ermitteln, die heute als Mendelsche Regeln bezeichnet werden. Diese Entdeckungen, die er 1866 publizierte, blieben jedoch zunächst in der Fachwelt fast unbeachtet und wurden erst im Jahr 1900 von Hugo de Vries, Carl Correns und Erich Tschermak wiederentdeckt und aufgrund eigener Versuche bestätigt. Einen radikalen Umbruch der Vorstellungen von der Vererbung brachte die Keimbahn- oder Keimplasmatheorie mit sich, die August Weismann in den 1880er Jahren entwickelte. Schon seit dem Altertum galt es als selbstverständlich, dass Merkmale, welche die Eltern während ihres Lebens erworben haben, auf die Nachkommen übertragen werden können. Nach Jean-Baptiste de Lamarck, in dessen Evolutionstheorie sie eine bedeutende Rolle spielte, wird diese Ansicht heute als Lamarckismus bezeichnet. Doch auch Charles Darwin postulierte in seiner Pangenesistheorie, dass der ganze elterliche Organismus auf die Keimzellen einwirke – unter anderem sogar indirekt durch Telegonie. Weismann unterschied nun zwischen der Keimbahn, auf der die Keimzellen eines Organismus sich von der Zygote herleiten, und dem Soma als der Gesamtheit aller übrigen Zellen, aus denen keine Keimzellen hervorgehen können und von denen auch keine Einwirkungen auf die Keimbahn ausgehen. Diese Theorie war allerdings anfangs sehr umstritten. Mit seinem zweibändigen Werk "Die Mutationstheorie" (1901/03) führte de Vries den bis dahin in der Paläontologie gebräuchlichen Begriff „Mutation“ in die Vererbungslehre ein. Nach seiner Auffassung handelte es sich bei Mutationen um umfassende, sprunghafte Veränderungen, durch welche eine neue Art entstehe. Dabei stützte er sich auf seine Studien an Nachtkerzen, bei denen eine „in allen ihren Organen“ stark veränderte Pflanze aufgetreten war, deren Merkmale sich als erbkonstant erwiesen und die er daher als neue Art ("Oenothera gigas") beschrieb. (Später stellte sich heraus, dass "„Oe. gigas“" im Unterschied zu den diploiden Ausgangspflanzen tetraploid war und somit – aus heutiger Sicht – der Sonderfall einer Genommutation (Autopolyploidie) vorlag.) Dieser Befund stand im Widerspruch zu der an Charles Darwin anschließenden Evolutionstheorie, die das Auftreten geringfügiger Veränderungen voraussetzte, und das war einer der Gründe, warum der „Mendelismus“ sich zeitweilig im Widerstreit mit dem damals noch nicht allgemein akzeptierten Darwinismus befand. In den Jahren um die Jahrhundertwende untersuchten etliche Forscher die unterschiedlichen Formen der Chromosomen und deren Verhalten bei Zellteilungen. Aufgrund der Beobachtung, dass gleich aussehende Chromosomen paarweise auftreten, äußerte Walter Sutton 1902 als erster die Vermutung, dass dies etwas mit den ebenfalls gepaarten Merkmalen und deren „Spaltung“ in den Untersuchungen von Mendel und seinen Wiederentdeckern zu tun haben könne. Im Anschluss daran formulierte Theodor Boveri 1904 die Chromosomentheorie der Vererbung, wonach die Erbanlagen an die Chromosomen gebunden sind und deren Verhalten bei der Meiose und Befruchtung den Mendelschen Regeln entspricht. a>". Abbildung aus "The Physical Basis of Heredity" (1919) Eine sehr folgenreiche Entscheidung war die Wahl von Taufliegen als Versuchsobjekt durch die Arbeitsgruppe um Thomas Hunt Morgan im Jahre 1907, vor allem weil diese in großer Zahl auf kleinem Raum gehalten werden können und sich sehr viel schneller vermehren als die bis dahin verwendeten Pflanzen. So stellte sich bald heraus, dass es auch geringfügige Mutationen gibt, auf deren Grundlage allmähliche Veränderungen innerhalb von Populationen möglich sind (Morgan: "For Darwin", 1909). Eine weitere wichtige Entdeckung machte Morgans Team etwa 1911, als man die schon 1900 von Correns publizierte Beobachtung, dass manche Merkmale meist zusammen vererbt werden (Genkopplung), mit Untersuchungen der Chromosomen verband und so zu dem Schluss kam, dass es sich bei den Koppelungsgruppen um Gruppen von Genen handelt, welche auf demselben Chromosom liegen. Wie sich weiter herausstellte, kann es zu einem Austausch von Genen zwischen homologen Chromosomen kommen (Crossing-over), und aufgrund der relativen Häufigkeiten dieser intrachromosomalen Rekombinationen konnte man eine lineare Anordnung der Gene auf einem Chromosom ableiten (Genkarte). Diese Erkenntnisse fasste Morgan 1921 in "The Physical Basis of Heredity" und 1926 programmatisch in "The Theory of the Gene" zusammen, worin er die Chromosomentheorie zur Gentheorie weiterentwickelte. Diese Theorie war schon während ihrer allmählichen Herausbildung sehr umstritten. Ein zentraler Streitpunkt war die Frage, ob die Erbanlagen sich ausschließlich im Zellkern oder auch im Zytoplasma befinden. Vertreter der letzteren Ansicht waren u. a. Boveri, Correns, Hans Driesch, Jacques Loeb und Richard Goldschmidt. Sie postulierten, dass im Kern nur relativ geringfügige Erbfaktoren bis hin zu Artmerkmalen lokalisiert seien, während Merkmale höherer systematischer Kategorien (Gattung, Familie usw.) durch das Plasma vererbt würden. Der entschiedenste Vertreter der Gegenseite war Morgans ehemaliger Mitarbeiter Hermann Joseph Muller, der in "The Gene as the Basis of Life" (1929) die im Kern lokalisierten Gene als die Grundlage des Lebens überhaupt bezeichnete und die Bedeutung des Plasmas als sekundär einstufte. Muller war es auch, der 1927 erstmals von der Erzeugung von Mutationen durch Röntgenstrahlung berichtete, wodurch die genetische Forschung nicht mehr darauf angewiesen war, auf spontan auftretende Mutationen zu warten. Der von de Vries, Morgan, Muller und Anderen vertretenen Ansicht der Zufälligkeit der Mutationen stand das u. a. von Paul Kammerer und Trofim Denissowitsch Lyssenko verfochtene Postulat gegenüber, dass Mutationen „gerichtet“ und qualitativ durch Umwelteinflüsse bestimmt seien. Populationsgenetik. Nach dem allgemeinen Bekanntwerden von Mendels mathematisch exakter Beschreibung des dominant-rezessiven Erbgangs im Jahr 1900 wurde die Frage diskutiert, ob rezessive Merkmale in natürlichen Populationen allmählich verschwinden oder auf Dauer erhalten bleiben. Hierzu fanden der deutsche Arzt Wilhelm Weinberg und der britische Mathematiker Godfrey Harold Hardy 1908 fast gleichzeitig eine Formel, die das Gleichgewicht dominanter und rezessiver Merkmale in Populationen beschreibt. Diese Entdeckung wurde jedoch unter Genetikern zunächst kaum beachtet. Erst 1917 führte Reginald Punnett das von ihm so genannte „Hardy-Gesetz“ in die Populationsforschung ein, was ein wichtiger Beitrag zur Begründung der Populationsgenetik als eigenständigem Forschungszweig in den 1920er Jahren war. Weinbergs Beitrag wurde sogar erst 1943 von Curt Stern wiederentdeckt, der die Formel daraufhin in „Hardy-Weinberg-Gesetz“ umbenannte. Die Grundlagen der Populationsgenetik wurden parallel von Sewall Wright, Ronald A. Fisher und J. B. S. Haldane entwickelt. Sie erkannten, dass Vererbungsvorgänge in der Natur sinnvollerweise auf der Ebene von Populationen zu betrachten sind, und formulierten dafür die theoretischen Grundlagen (Haldane: "A Mathematical Theory of Natural and Artificial Selection", 1924–1932; Fisher: "The Genetical Theory of Natural Selection", 1930; Wright: "Evolution in Mendelian Populations", 1931). Die Erbsubstanz. Seit 1889 (Richard Altmann) war bekannt, dass Chromosomen aus „Nucleinsäure“ und basischem Protein bestehen. Über deren Aufbau und Funktion konnte jedoch lange Zeit nur spekuliert werden. 1902 postulierten Emil Fischer und Franz Hofmeister, dass Proteine Polypeptide seien, also lange Ketten von Aminosäuren. Das war zu diesem Zeitpunkt allerdings noch sehr spekulativ. Als 1905 die ersten Analysen der Aminosäuren-Zusammensetzung von Proteinen publiziert wurden, erfassten diese lediglich ein Fünftel des untersuchten Proteins, und die Identifikation aller 20 proteinogenen Aminosäuren zog sich bis 1935 hin. Dagegen war bei der Nukleinsäure schon 1903 klar (Albrecht Kossel), dass sie neben Zucker und Phosphat lediglich fünf verschiedene Nukleinbasen enthält. Erste Analysen der Basenzusammensetzung durch Hermann Steudel ergaben 1906, dass die vier hauptsächlich vorhandenen Basen zu annähernd gleichen Anteilen enthalten sind. Daraus schloss Steudel (1907), dass die Nukleinsäure „ein relativ einfach gebauter Körper sei“, dem man keine anspruchsvollen Funktionen beimessen könne. Dies etablierte sich als Lehrmeinung, die bis in die 1930er Jahre gültig blieb, und auf dieser Grundlage betrachtete man nicht die Nukleinsäure(n), sondern die Proteine als „Erbsubstanz“. Zu der Einsicht, dass es sich gerade umgekehrt verhält und die Nukleinsäure DNA als Erbsubstanz angesehen werden muss, führten die Experimente der Arbeitsgruppe von Oswald Avery zur Transformation von Pneumokokken (1944) und das Hershey-Chase-Experiment von 1952 mit Bakteriophagen. Außerdem zeigte Erwin Chargaff 1950, dass die vier Nukleotide, aus denen die DNA besteht, nicht zu gleichen, sondern zu "paarweise" gleichen Anteilen enthalten sind. Zusammen mit Röntgenstrukturanalyse-Daten von Rosalind Franklin war das die Grundlage für die Entwicklung des Doppelhelix-Strukturmodells der DNA durch James Watson und Francis Crick 1953. Großbritannien (Insel). Die Insel Großbritannien liegt im Atlantischen Ozean, zwischen der Irischen See und dem Nordatlantik im Westen, der Nordsee im Osten und dem Ärmelkanal im Südosten, an der nordwestlichen Küste des europäischen Kontinents. Mit einer Fläche von 219.331 km² ist die Hauptinsel die neuntgrößte Insel der Welt sowie die größte Insel Europas und der Britischen Inseln, zu denen unter anderem auch noch Irland und die Isle of Man gehören. England und Wales bildeten im Altertum die römische Provinz '. Ein alter Name für die Insel Großbritannien ist „Albion“. Dieser Name, von Alfred Holder ("Alt-Keltischer Sprachschatz", 1896) als „Weißland“ übersetzt, könnte sich auf die weißen Kreideklippen von Dover beziehen, die man normalerweise als Erstes sieht, wenn man mit dem Schiff über den Ärmelkanal nach Großbritannien fährt. Ein historischer Name im Gälischen für Schottland ist '. Politisch ist Großbritannien seit dem ' eine Einheit, die aus den Staaten England, Wales (seit 1542 englisch) und Schottland gebildet wurde. Die Hebriden, die Orkney und die Shetlandinseln werden als Teil Schottlands ebenfalls politisch zu Großbritannien gerechnet. Die Länder Großbritanniens bilden zusammen mit der Provinz Nordirland das Vereinigte Königreich Großbritannien und Nordirland. Großbritannien ist also nur Teil des Vereinigten Königreichs und nicht mit diesem gleichzusetzen. Die direkt der britischen Krone unterstehenden Kanalinseln und die Insel Man sind kein Teil des Vereinigten Königreichs Großbritannien und Nordirland; Man und auch ganz Irland gehören jedoch geographisch zu den Britischen Inseln, die Kanalinseln dagegen nicht. Herkunft des Namens. Historisch gab es zwei Britannien: Die Insel (Groß-)Britannien und die Halbinsel Kleinbritannien im Norden Frankreichs, heute Bretagne genannt. Im Englischen werden sie als ' und ' bezeichnet; im Französischen werden ähnlich ' und ' unterschieden. Entstehen und Veränderungen der Bezeichnung „Großbritannien“. Der Begriff Großbritannien fand erstmals weite Verbreitung während der Regierung des Königs Jakob VI. von Schottland, der als Jakob I. auch England regierte; er bezeichnete die von einem Monarchen regierte Insel, die aus zwei Staaten mit eigenen Parlamenten bestand. Nach der Vereinigung von England und Schottland war die Bezeichnung Königreich Großbritannien von 1707 bis 1800 gebräuchlich. Mit dem ' fand eine erneute Umgestaltung statt: Das vom englischen Königshaus regierte Irland wurde mit dem „Königreich Großbritannien“ zum „Vereinigten Königreich von Großbritannien und Irland“ vereint. Als im Jahre 1922 26 der 32 irischen Grafschaften den Irischen Freistaat bildeten, entstand das „Vereinigte Königreich von Großbritannien und Nordirland“. Vereinfachenderweise wird im deutschen Sprachgebrauch die Bezeichnung „Großbritannien“ als Synonym für das Vereinigte Königreich verwendet, selbst von Politikern und Nachrichtensprechern. Die Regierungsorgane im Vereinigten Königreich werden heute als „britisch“ bezeichnet: „Der britische Premierminister“ oder „das Britische Königshaus“. Strenggenommen ist dies allerdings nicht richtig, denn die Organe sind nicht nur für Großbritannien zuständig, sondern auch für Nordirland. Die häufig verwendete Bezeichnung „englisch“ anstatt „britisch“ an gleicher Stelle ist allerdings noch ungenauer, da England als Staat seit 1707 nicht mehr existiert. ' bezeichnet im Englischen nur Großbritannien und nicht Nordirland. Englands Dominanz über Großbritannien. Seit England, Wales und Schottland im Jahre 1707 vereint wurden, hat England, welches die weitaus größte Bevölkerung hat, immer die dominierende Rolle in allen nachfolgenden Staaten gespielt. Das zeigt sich auch, indem die Krönung des britischen Monarchen das englische Ritual befolgt, oder das britische Parlament der Struktur des englischen Parlaments folgt und mit dem ' das ursprünglich englische Parlamentsgebäude nutzt. Geologie und Geografie. Die äußersten Punkte der Insel sind Land’s End in der Grafschaft Cornwall im Südwesten und John o’ Groats in Caithness im Norden Schottlands. England ist überwiegend hügelig. Süd- und Ostengland sind eine Schichtstufenlandschaft und abgesehen von kleinen Küstenebenen der geologisch jüngste Teil der Insel. Die einzige ausgedehnte Ebene sind die Fens zwischen Cambridge und dem Wash an der Grenze zwischen Ost- und Mittelengland. Die Penninen (Pennine Range) im Norden Englands gehen fast bruchlos in die Uplands Südschottlands über. Östlich davon erstrecken sich wiederum Hügelländer. Die Mitte Schottlands besteht aus dem Firth of Clyde und Firth of Forth verbindenden Graben der Central Lowlands und einem nordöstlich anschließenden Hügelland. Zum nördlich anschließenden Schottischen Hochland werden außer der rauen Gebirgsregion auch die westlich und nördlich anschließenden, ebenfalls rauen, aber nicht immer hohen über 80 Inseln gezählt, weswegen man auch von Highlands and Islands spricht. Wales, durch den Bristolkanal genannten Meeresarm von Südwestengland getrennt, ist ebenfalls ein Bergland. Siedlung und Bodennutzung. Industrielle Ballungsräume sind Greater London, die Umgebung von Birmingham, die alten Steinkohlegebiete die sich U-förmig um die Penninen gruppieren, Südwales und das Quertal in der Mitte Schottlands. Die Hügelländer mit ihren von Hecken gesäumten Ländereien und oft kleinen Landstraßen sind von einer Geschichte intensiver Nutzung geprägt, die allerdings im 19. Jahrhundert mit der Möglichkeit Grundnahrungsmittel in großem Maße zu importieren, vielerorts einer Grünlandwirtschaft wich. Die Bergländer sind dünn besiedelt und werden extensiv beweidet. Im Norden und Westen Schottlands wurde für die extensive Schafhaltung ein großer Teil der eingesessenen Landbevölkerung im 18. und frühen 19. Jahrhundert vertrieben (Highland Clearances). Jahrhundertelanger Raubbau an den Wäldern ist erst zum geringen Teil in den letzten Jahrzehnten durch Aufforstung behoben worden. Weblinks. ! Gewerkschaft. Eine Gewerkschaft ist eine Vereinigung von in der Regel abhängig Beschäftigten zur Vertretung ihrer wirtschaftlichen, sozialen und kulturellen Interessen. Aufgaben und Interessen. Streik bei den Münchener Verkehrsbetrieben, 2005 Die Gewerkschaften sind zumeist aus der europäischen Arbeiterbewegung hervorgegangen und setzen sich seit ihrem Bestehen für höhere Löhne, bessere Arbeitsbedingungen, mehr Mitbestimmung, für Arbeitszeitverkürzungen und teilweise auch für weitergehende Gesellschaftsveränderung ein. Sie schließen als Verhandlungspartner von Arbeitgeberverbänden beispielsweise überbetriebliche Tarifverträge ab und führen dazu Lohnkämpfe, gegebenenfalls auch mit Hilfe von Streiks und Boykotts. Die Gewerkschaften versuchen, in Vertretung der Interessen ihrer Mitglieder, einen möglichst großen Teil der Unternehmensgewinne als Lohn und zur Verbesserung der Arbeitsbedingungen an die Belegschaft zu verteilen. Dagegen vertritt die Unternehmensführung die Interessen der Unternehmensinhaber und Aktionäre, die möglichst hohe Gewinne erwirtschaften will, als ausgeschüttete Dividende und neue betriebliche Investitionen. Da es keine "richtige" oder "optimale" Aufteilung der Gewinne gibt, ist die Gewinnverteilung eine Machtfrage, die von beiden Parteien entsprechend ihrer Interessenlage unterschiedlich beurteilt wird. Gewerkschaften, die eine positive Entwicklung des Betriebes ebenfalls im Auge haben müssen, sind deshalb auch für neue betriebliche Investitionen, ohne die der Betrieb wirtschaftlich ins Hintertreffen geriete. Sie waren wegen dieser engen Verknüpfung mit den Unternehmensinteressen nie so radikal wie die Arbeiterparteien im 19. Jahrhundert. Richtig ist, dass Gewerkschaften – häufig begrenzt auf fachliche Sektoren – für den Erhalt ihres Sektors kämpfen, auch wenn dieser ökonomisch nicht mehr wettbewerbsfähig ist. Gewerkschaftsvertreter sind sehr oft in den von Arbeitgebern finanzierten Aufsichtsräten an der Kontrolle der Betriebsleitung beteiligt. "Leitende Angestellte" werden mit steigender Hierarchieebene der Unternehmensleitung zugehörig betrachtet und sind entsprechend selten Gewerkschaftsmitglied. Ökonomische Grundlage. Gewerkschaften weisen oft darauf hin, dass ihre Lohnforderungen für eine Umverteilung mindestens des Produktivitätsfortschritts sorgen und so insbesondere die Massenkaufkraft, Voraussetzung für einen stabilen (Binnen-)Konsum, erhalten bleibt. So argumentieren Gewerkschaften auf der Grundlage nachfrageorientierter Wachstumsmodelle für ihre Positionen. Insbesondere neoklassisch orientierte Ökonomen fordern ein flexibles Arbeitszeitmodell; Gewerkschaften stehen jedoch häufig für andere Regelungen ein. Kritiker werfen Gewerkschaften vor, dadurch den heimischen Standort zu schwächen. Für die Ökonomen der Gewerkschaften – traditionell eher Anhänger des Keynesianismus – geht die Krise auf dem Arbeitsmarkt v. a. auf die Produktivitätszuwächse zurück, die gesellschaftlich ungleich verteilt sind und der Markt deshalb nicht das erhöhte Produktionspotential aufnehmen kann (Binnennachfrage). Die Gewerkschaften behaupten, nicht die Lohnkosten seien zu hoch, sondern die Löhne seien zu niedrig. Gegner dieser Auffassung sagen, dass gerade für Unternehmen, die dazu in der Lage sind, flexibel den Standort in Niedriglohnländer zu verlagern, hohe Stundenlöhne jedoch abschreckend seien. Andererseits können sich auch die Verhältnisse in Niedriglohnländern schnell ändern. In China steigen die Löhne derzeit um bis zu zehn Prozent pro Jahr. Chinesen verlagern Produktionen nach Vietnam und Myanmar. Es scheint auch, dass in Osteuropa in den letzten Jahren zahlreiche neue Werke der Automobilindustrie entstanden und in Deutschland Arbeitsplätze verloren gegangen seien. In Ländern mit hoher Produktivität und niedrigeren Lohnkosten als in Deutschland, etwa Schweden, blieben Arbeitsplätze hingegen erhalten. Gerade in der Industrie seien von Arbeitsplatzabbau auch zuliefernde Unternehmen und damit weitere Stellen betroffen. Tatsächlich haben sich aber die durchschnittlichen Lohnstückkosten in Schweden in den letzten zehn Jahren um das Vierfache mehr erhöht als in Deutschland. Auch ist die Zahl der in der deutschen Automobilbranche Beschäftigten in Deutschland sogar gestiegen. In globalisiertem Kontext aufgeführte keynesianische Argumente zu Nachfragestärkung würden nach den Kritikern angeblich damit überlagert, da ohne Arbeit auch keine Nachfrage möglich ist und weil sich Investitionen ungehinderter im globalen Markt bewegen können als Menschen. Zur Kaufkrafttheorie der Löhne gibt es unterschiedliche Ansichten. Während der Kaufkrafttheorie kritisch gegenüberstehende Ökonomen meinen, dass diese Theorie die Verhältnisse zu sehr vereinfache, meinen die Befürworter dieser Theorie, dass die Gewinntheorie die Verhältnisse zu sehr vereinfache. Durch die Senkung von Konfliktkosten tragen die Gewerkschaften in Deutschland zu einer stabilen Grundlage der Wirtschaft bei. Im Vergleich zu anderen industriell entwickelten Rechtsstaaten wird in Deutschland nur selten gestreikt. Als nach dem Prinzip der Gewaltenteilung wirkende Gegenkraft ermöglichen sie es den Arbeitgebern, sich klar auf ihre Standpunkte zu konzentrieren. Dem stehen auch "Konsenskosten" entgegen. In Rechtsstaaten sind diese vorwiegend finanzieller Natur. Sie unterscheiden sich somit von den menschlichen Kosten, die durch erzwungenen Konsens in autoritären Staaten entstehen. Ziele. In den vergangenen Jahren nahm der Druck auf die Gewerkschaften zu. Staaten in Mittel- und Osteuropa sowie in Asien gelang es, ein hohes Bildungs-, Produktivitäts- und Infrastrukturniveau aufzubauen. In Staaten wie China erfolgt der Druck auf Gewerkschaften durch Kriminalisierung der Gründer unabhängiger Gewerkschaften. Weiterhin existiert als Kennzeichen für fehlende Rechtsstaatlichkeit ein Widerspruch zwischen gesetzlichen Regelungen und der Einklagbarkeit von Rechten. Die Folge der Konkurrenz aus Gebieten mit geringerer Rechtsstaatlichkeit und der Unterdrückung von Gewerkschaften war zum Teil die Abwanderung von Arbeitsplätzen aus Westeuropa. Trotz der hohen Arbeitslosigkeit und der (umstrittenen) These, ein Industrieland wie Deutschland sei international nicht mehr wettbewerbsfähig, halten die Gewerkschaften an Lohnforderungen fest, die zumindest die Inflation ausgleichen, aber auch teilweise höher sind als das wirtschaftliche Wachstum, wenn in einer Branche besonders hohe Produktivitätszuwächse zu verzeichnen sind. In Deutschland wird auf die im internationalen Vergleich wenigsten Streiktage verwiesen. Streiks sind für alle Gewerkschaften mit hohen Kosten verbunden und für Arbeitgeber neben kurzfristigen Produktionsausfällen langfristig ein Standortnachteil. So ist es im Sinne beider Parteien, Streiks zu vermeiden. Die meisten Gewerkschaften halten Strategien von Lohnsenkung, um gegen Maschinen zu konkurrieren oder um arbeitsintensive Produktionen zu halten, langfristig für verfehlt, auch wenn sie in Einzelfällen entsprechenden Abmachungen zustimmen. Eine wirtschaftstheoretische Grundlage für solche Lohnsenkungen hierfür gibt es jedoch nicht. Gewerkschaften zielen bei ihren Aktivitäten auf die Schaffung neuer Massennachfrage, die die Binnenkonjunktur anregen soll. So wird die Abkopplung Deutschlands von der anziehenden Weltkonjunktur zum Teil auf die schwache Binnennachfrage zurückgeführt. Einige Wirtschaftsexperten kritisieren jedoch, dass dabei der doppelte Nachfrageeffekt von den Gewerkschaften keine Berücksichtigung findet. Nachfrage entstehe auch dann, wenn man es Unternehmen erleichtert, Investitionen zu tätigen. Jedoch ist die Wirkung der Investition der eines vorweggenommenen zukünftigen Konsums gleich, denn investiert wird nur dort, wo später auch Konsum erwartet wird. Langfristig sei der Konsum der Zukunft durch die Kredite für die Investitionen in der Vergangenheit bereits gebunden. Somit könne man sich langfristig auf die Betrachtung des Konsums zurückziehen und deswegen den Effekt der doppelten Nachfrage ignorieren. Allerdings haben die letzten Jahre gezeigt, dass beispielsweise Großunternehmen verstärkt nicht mehr im Inland, sondern auf den Kapitalmärkten oder in Fusionen mit ausländischen Unternehmen investieren. Auch Exportrekorde der deutschen Wirtschaft – die der These mangelnder internationaler Wettbewerbsfähigkeit widersprechen – können die Binnennachfrage nicht ausreichend stützen. Bedeutender ist beim doppelten Nachfrageeffekt jedoch die Nachfrage im Inland. Diese ist naturgemäß hoch, wenn es heimischen Unternehmen gut geht. Denn nicht nur private Haushalte, sondern insbesondere auch heimische Unternehmen konsumieren im Inland, etwa über Zulieferungen. Hohe Löhne oder hohe Abgaben jedoch wirkten diesem Konsum entgegen und verlagerten ihn ins Ausland. Dieser These wird aber mit dem Argument widersprochen, die hohen Löhne an ortsansässige Mitarbeiter würden diesen erst ermöglichen, auch in der Region ihr erarbeitetes Geld auszugeben, sodass sich bei Lohnerhöhungen allenfalls eine Substitution von Zahlungen an regionale Zulieferer zu Zahlungen an regionale Mitarbeiter ergebe. Ähnlich sehe es mit Staatsabgaben aus, die auch vom jeweiligen Staat zur Bezahlung seiner Ausgaben in bevorzugt seinem Staatsgebiet verwendet würden. Gesellschaftspolitische Aufgaben der Gewerkschaften. Den Gewerkschaften gelang es im Laufe der Nachkriegszeit immer deutlicher, auch als allgemeiner gesellschaftlicher Vertreter der Interessen der arbeitenden Bevölkerung politisch und institutionell anerkannt zu werden. Hierbei übernahmen sie außerhalb des eigentlichen Koalitionszwecks, wie der Wahrnehmung der Arbeitnehmerinteressen beim Abschluss von Tarifverträgen, umfangreiche Aufgaben. Dies gelang vor allem im politischen Raum umso mehr, als sie in allen Parlamenten durch eine große Anzahl von ihnen als Mitglieder angehörenden Abgeordneten Unterstützung fanden. So waren in den Bundestagen von 1965–1987 sowie von 1998 (gemeint ist jeweils das Wahljahr) zwischen 50 % und 60 % der Abgeordneten Mitglieder von Gewerkschaften, 2002 waren es 47 %, 2005 sind es unter 40 % (36 % bei den DGB-Gewerkschaften). Im Rahmen der Mitbestimmung der Arbeitnehmer bei den sie beschäftigenden Betrieben erhielten die Gewerkschaften, soweit sie dort Mitglieder besitzen, selbständige Antrags- und Beteiligungsrechte, wie auch grundsätzliche Zugangsrechte zu diesen Betrieben. Bei Unternehmen, die mehr als 2000 Beschäftigte haben, haben sie das Recht zwei oder drei der den dort Beschäftigten zustehenden Aufsichtsräte (zwischen sechs und zehn je nach Betriebsgröße) direkt zu stellen. Zwar werden auch die Gewerkschaftsvertreter von den stimmberechtigten Mitarbeitern des Betriebes oder deren Delegierten gewählt, jedoch steht das Vorschlagsrecht hierzu allein der Gewerkschaft zu. So saßen nach einer Ermittlung des Instituts der deutschen Wirtschaft aus dem Jahre 2006 in den Aufsichtsräten der mitbestimmungspflichtigen Unternehmen ca. 1.700, zum teil hochrangige, Vertreter der Gewerkschaften. An der Sozial- und Arbeitsverwaltung nehmen die Gewerkschaften teilweise durch Entsendung von Mitgliedern teil und treten immer dort als Vertreter der Arbeitnehmer auf, wo die Arbeitgeber sich von ihren Verbänden vertreten lassen. Aufgrund ihrer Stellung entsenden sie auch ihre Vertreter in allgemeine Einrichtungen, wie etwa den bei den öffentlich-rechtlichen Rundfunkanstalten gebildeten Rundfunkräten. Organisationsgrad. Ein wichtiger Maßstab für die Durchsetzungskraft einer Gewerkschaft oder eines Gewerkschaftsverbandes ist der Organisationsgrad. Der (Netto-)Organisationsgrad bezeichnet dabei den Anteil der in einer Branche oder einem Organisationsbereich beschäftigten Gewerkschaftsmitglieder an allen in dieser Branche oder diesem Bereich Beschäftigten. Manche Gewerkschaften in manchen Ländern haben wie andere gesellschaftliche Großorganisationen in den letzten Jahrzehnten einen erheblichen Mitgliederschwund gehabt. Das Gesamtbild ist jedoch nicht einheitlich. Häufig genannte Gründe für einen Rückgang sind eine gesellschaftliche Tendenz zur Individualisierung, kleiner werdende Betriebsstrukturen, Verringerung von Arbeitsplätzen in der Industrie zu Gunsten des Dienstleistungsbereichs, aber auch der Führungsstil der Gewerkschaften, Korruptionsaffären und Unzufriedenheit der Mitglieder mit den Ergebnissen bei der Durchsetzung von Entgelterhöhungen. Einzelheiten sind der folgenden Tabelle zu entnehmen. In Deutschland verzeichnen manche Gewerkschaften inzwischen wieder Mitgliederzuwächse. Organisationsgrad in %: aktive Mitglieder (ohne Rentner) zu abhängig Beschäftigte zzgl. Arbeitslose; Länder mit *: Mitglieder zu abhängig Beschäftigte. Belgien. Die erste Gewerkschaft („Vakbond“) wurde in Belgien von den Schriftsetzern in Brüssel 1842 gegründet. Belgien hat mit ca. 80 % der Beschäftigten einen der höchsten gewerkschaftlichen Organisationsgrade in Europa. In Belgien gibt es verschiedene Gewerkschaftsrichtungen, unter anderem „Freie Gewerkschaften“. Die Gewerkschaften übernehmen in Belgien auch Aufgaben als Arbeitslosenkassen. Confédération française démocratique du travail. Die Confédération française démocratique du travail (CFDT, "Französischer Demokratischer Gewerkschaftsbund") ist mit etwa 800.000 Mitgliedern der größte Gewerkschaftsbund Frankreichs. Gegründet wurde die CFDT 1964, als die Mitglieder des christlichen Gewerkschaftsbunds "Confédération française des travailleurs chrétiens" (CFTC) sich mehrheitlich für eine Säkularisierung und die Umbenennung zur CFDT entschieden. Etwa ein Zehntel ihrer Mitglieder verließ allerdings in der Folge den Verband und gründete die CFTC wieder neu. In ihren frühen Jahren stand die CFDT politisch der Parti socialiste unifié (PSU) nahe, ab 1974 dann der "Parti socialiste" (PS) unter François Mitterrand. Inzwischen ist die CFDT allerdings politisch weitgehend ungebunden und unterstützte beispielsweise 1995 den konservativen Premierminister Alain Juppé bei der Durchsetzung heftig umstrittener Sozialstaatsreformen. Confédération générale du travail. Die Confédération générale du travail (CGT, "Allgemeiner Gewerkschaftsbund") ist ein französischer Gewerkschaftsbund, der traditionell der Kommunistischen Partei Frankreichs nahesteht. Seit einigen Jahren ist allerdings zu beobachten, dass diese Verbindung zunehmend schwächer wird. Gegründet wurde die CGT 1895 auf einem Kongress in Limoges durch den Zusammenschluss der "Fédération des bourses du travail" und der "Fédération nationale des syndicats". Heute ist die CGT mit etwa 700.000 Mitgliedern der zweitgrößte Gewerkschaftsbund Frankreichs. Geographische Schwerpunkte sind das Département Ariège im Südwesten des Landes (an der Grenze zu Spanien und Andorra) und die Region Limousin. Confédération générale du travail-Force ouvrière. Die Confédération générale du travail-Force ouvrière (CGT-FO; sinngemäß "Allgemeiner Gewerkschaftsbund-Arbeitermacht"), heute in aller Regel "Force ouvrière (FO)" genannt, ist einer der vier bedeutenden Gewerkschaftsbünde in Frankreich. Sie ist traditionell der gemäßigten Linken zuzuordnen. Ihre "Raison d’Être" (Daseinszweck) ist die Dominanz der KPF im Allgemeinen Gewerkschaftsbund (CGT) nach dem Zweiten Weltkrieg. Die Gründung erfolgte 1948. Sie sieht ihr Ziel in der Verteidigung der Ideale der Republik: (Freiheit, Gleichheit, Brüderlichkeit, Trennung des Staates von der Religion). Die Besonderheit der CGT-FO liegt in der parteipolitischen Profillosigkeit. Confédération paysanne. Die Confédération paysanne (auch als die "conf’" bekannt) ist eine französische Bauerngewerkschaft. Sie ist Mitglied in der Europäischen Bauern Koordination und der Via Campesina. Sie wurde 1987 gegründet. Sie entstand aus der Vereinigung zweier kleinerer Gewerkschaften, der FNSP und der CNSTP. 2001 erhielt sie 28 % der Stimmen bei den Wahlen zur Landwirtschaftskammer, dies machte sie zur zweitgrößten landwirtschaftlichen Gewerkschaft in Frankreich. Sie ist in allen französischen Départements und Übersee-Départements aktiv. Sie kämpft für eine kleinräumige Landwirtschaft, für den Umweltschutz und für die Qualität der erzeugten Produkte. Ihre öffentlichkeitswirksamen Aktionen gegen die WTO im August 1999 und gegen die Nutzung von gentechnisch veränderten Organismen in der Landwirtschaft sowie die Skandale um dioxinverseuchtes Hühnerfleisch und BSE in der Massentierhaltung ließen ihre Popularität in Frankreich steigen. Confédération française des travailleurs chrétiens. Die Confédération française des travailleurs chrétiens (CFTC, "Französischer Bund christlicher Arbeiter") ist ein französischer Gewerkschaftsbund mit derzeit etwa 130.000 Mitgliedern. Gegründet wurde der Verband 1919 durch den Zusammenschluss von 321 Gewerkschaften. Die Programmatik lehnte sich an die Enzyklika Rerum Novarum von Papst Leo XIII. an. Daher wurde eine Revolution, als deren Instrument sich der kommunistische Konkurrenzverband CGT sah, von der CFTC stets zugunsten von Reformen abgelehnt. 1964 entschied sich eine Mehrheit der Mitglieder der CFTC für die Säkularisierung und die Umbenennung in "Confédération française démocratique du travail (CFDT)". Etwa zehn Prozent der Mitglieder verließen daraufhin die Organisation und gründeten die CFTC neu. Die CFTC steht politisch weiter rechts als die CFDT. Sie ist der einzige Gewerkschaftsbund Frankreichs, dessen Mitglieder bei der französischen Präsidentschaftswahl 2002 überdurchschnittlich oft für den rechtsextremen Kandidaten Jean-Marie Le Pen stimmten. Confédération Française Nationale des Travailleurs. Die Confédération Française Nationale des Travailleurs ist der Gewerkschaftsbund der rechtsextremen Partei Front national (FN). 1997 nahm er an den Sozialwahlen teil, was ihn nicht annäherend auf fünf Prozent kommen ließ. Dies sollte durch Klagen von Gewerkschaften verhindert werden. Einer der Gründe, warum er sehr hinter den Wahlergebnissen der FN zurückbleibt, ist die Tatsache, dass er nicht allgemein als Gewerkschaftsorganisation anerkannt ist. Confédération nationale du travail. Die "Confédération Nationale du Travail-Vignoles (CNT-F)" ist eine revolutionär-syndikalistische Gewerkschaftsföderation. Sie ist mit nur 1000 Mitgliedern in 66 Regionen vertreten. Die "Confédération Nationale du Travail – AIT (CNT-IAA)" ist der anarchosyndikalistischen Internationalen ArbeiterInnen-Assoziation (IAA) angeschlossen. Sie ist eine dezentral aufgebaute anarchistische Gewerkschaftskonföderation und besteht aus lokalen und betrieblichen Gruppen (Syndikaten) in 17 französischen Städten. Ihre Mitgliederzahl liegt nach eigenen Angaben derzeit im dreistelligen Bereich. Ihren Ursprung haben beide Minigewerkschaften in einer Gruppe, die 1946 von im französischen Exil lebenden spanischen Anarchosyndikalisten gegründet wurde. Union syndicale Solidaires. Die Union syndicale Solidaires ist ein kleiner linker basisdemokratischer Gewerkschaftsverband. Sie ist eine Abspaltung der gemäßigten CFDT. Die Einzelgewerkschaften gehören der "G10 Solidaires" an. Die trotzkistische "Ligue communiste révolutionnaire" versucht, sich durch Einflussnahme in der SUD zu etablieren. Entwicklung im 18., 19. und 20. Jahrhundert. Schon im ausgehenden 18. Jahrhundert begann in Großbritannien die Entwicklung der Industrialisierung; der bisherige Agrarstaat wandelte sich. Noch waren die Handwerker in „Guilds“ – also Gilden – organisiert. Die dann zunehmende Industrialisierung war der Kern der Entwicklung zu „trade unions“ oder „labour unions“, also zu den Gewerkschaften. Ein wichtiger Schritt war die formale staatliche Anerkennung der Gewerkschaften im Jahr 1872, die einerseits einen Meilenstein der Demokratisierung darstellte, andererseits die britischen Gewerkschaften auch davon abhielt, sich in einer Partei zu organisieren, um grundlegende politische Ziele durchzusetzen, wie es etwa bei der deutlich früheren Entwicklung von Arbeiterparteien in anderen, stärker repressiven Staaten der Fall war. Großbritannien hat als früher Industriestaat die bedeutendste historische Entwicklung in der Gewerkschaftsbewegung. Davon zeugen die rund 108 historischen Gewerkschaften. Auch der Trade-Unionismus hat seinen Ursprung in den industriellen Zentren Englands. Traditionell arbeiteten die Gewerkschaften politisch mit der Labour Party zusammen, welche in ihren Anfangsjahren keine Individualmitgliedschaft kannte. Mitglieder der Labour Party waren automatisch auch Gewerkschaftsmitglieder, sofern sich die entsprechenden Gewerkschaften für einen Beitritt zur Labour Party entschlossen haben. Vor der Zusammenarbeit mit Labour bestand jedoch ein enges Verhältnis der Trade Unions zur Liberalen Partei, welche über Jahrzehnte die parlamentarische Interessenvertretung der Gewerkschaften war ("Lib Lab"). Labour konnte anfangs kaum Anklang bei der Mehrheit der Gewerkschafter finden. Auch frühere Gründungen von sozialdemokratischen Parteien blieben erfolglos, so die Independent Labour Party und die Social Democratic Federation, die sich später der Labour Party anschlossen. Britische Gewerkschaften waren vor allem durch ein hohes Maß an Entpolitisierung und Misstrauen gegenüber sozialistischen Ideen geprägt. Revolutionäre Umsturzpläne waren unter Gewerkschaftsmitgliedern praktisch nicht zu finden. Eine Folge der langen Tradition von Gewerkschaften in Großbritannien und dem Ausbleiben allzu großer Repressionen gegen die Arbeitervertretung, etwa im Gegensatz zum bismarckschen Deutschland. Schwächung im ausgehenden 20. Jahrhundert. In Großbritannien herrschte bis 1980 das Closed Shop-Modell (dt. hier in etwa: in sich geschlossener Betrieb), das heißt, alle Mitarbeiter eines Betriebes mussten pflichtmäßig der Gewerkschaft angehören. Schon der Winter of Discontent 1978/1979, in dem es zu ausgedehnten Streiks der Gewerkschaften mit dem Ziel signifikanter Lohnsteigerungen kam, endete mit einer erheblichen Schwächung der Gewerkschaftsbewegung. In der Folge kam Margaret Thatcher bei den Parlamentswahlen am 4. Mai 1979 an die Regierungsmacht. Im 1985 verlor die National Union of Mineworkers (NUM) immer mehr den Rückhalt der britischen Bevölkerung und führte zu einer zunehmenden Radikalität des Bergarbeiterführers Arthur Scargill. Nach über einem Jahr des Arbeitskampfes gewann die Regierung unter Margaret Thatcher die Oberhand über die Bergarbeitergewerkschaft. Es folgte die Abschaffung des Closed Shop (Pflichtmitgliedschaft in Gewerkschaften für Arbeiter zahlreicher Unternehmen) und dem Verbot der so genannten Flying Pickets (Streikposten, die nicht dem bestreikten Betrieb angehören). In der Wirtschaft wurden daraufhin einige von den Gewerkschaften zuvor bekämpften technischen Innovationen nachgeholt. So konnten beispielsweise Ende der Achtziger die britischen Zeitungen vom Bleisatz auf den in anderen Ländern schon seit langem üblichen Fotosatz umgestellt werden, was die Gewerkschaften bis dahin immer verhindert hatten. Die Bergarbeitergewerkschaft National Union of Mineworkers (NUM) verlor von 253.000 Mitgliedern im Jahre 1979 auf nunmehr unter 5.000 Mitglieder im Jahre 2000. Die "Transport and General Workers Union (TGWU)" hatte im Jahre 1979 noch 2.086.000 Mitglieder und kam im Jahre 2000 noch gerade auf 858.000 Mitglieder. Irland. 1908 wurde in Irland die "Irish Transport and General Workers’ Union" (ITGWU; Irische Transport- und Arbeiterunion) als eine irische Gewerkschaftsunion von James Larkin gegründet. Anfangs bezog die ITGWU ihre Mitglieder hauptsächlich von der in Liverpool ansässigen "National Union of Dock Labourers" (Nationale Union der Hafenarbeiter), aus der Larkin 1908 ausgeschlossen worden war. Später umfasste die Union Mitglieder verschiedenster Industriezweige. Die ITGWU war der Dreh- und Angelpunkt während des "Dublin Lockout" im Jahr 1913 – einem monatelangen Generalstreik, der die ITGWU und die Arbeiterbewegung nachhaltig beeinflusste. Nach der (für die ITGWU fehlgeschlagenen) Aussperrung wanderte Larkin 1914 nach Amerika aus, und William X. O’Brien wurde der neue Anführer und diente später für viele Jahre als Generalsekretär. Larkin kehrte 1923 nach Irland zurück und traf sich mit Mitgliedern der "Trade Union", um ein Ende des Irischen Bürgerkriegs zu bewirken. Trotz aller Bemühungen befand sich Larkin im Widerspruch zu William O’Brien, der in dessen Abwesenheit zur tragenden Figur der ITGWU, der "Irish Labour Party" und dem "Trade Union Congress" aufgestiegen war. Der bittere Streit zwischen den beiden sollte über zwanzig Jahre andauern. 1924 gründete Larkins Bruder Peter eine neue Union, die "Workers’ Union of Ireland" (WUI), zu der viele ITGWU-Mitglieder aus Dublin wechselten. Doch trotz des Mitgliederschwunds blieb die ITGWU die dominante Kraft unter den Gewerkschaftsverbänden, vor allem außerhalb der Hauptstadt Dublin. 1945 verließ die ITGWU den "Irish Congress of Trade Unions", als der "Congress" die Mitgliedschaft der WUI akzeptierte, und begründete den rivalisierenden "Congress of Irish Unions". 1990 schloss sich die ITGWU letztendlich mit der WUI zur neuen Gewerkschaft, der "Services, Industrial, Professional and Technical Union" (SIPTU) zusammen. Confederazione Generale Italiana del Lavoro. Die Confederazione Generale Italiana del Lavoro (CGIL) ist ein nationaler Gewerkschaftsbund in Italien. Sie wurde im Juni 1944 gegründet durch die Einigung von Sozialisten, Kommunisten und Christdemokraten, niedergelegt im so genannten "Vertrag von Rom". Sie hat mehr als 5 Mio. Mitglieder, von denen ungefähr 2,3 Mio. aktiv sind. Die CGIL ist Mitglied im Internationalen Bund Freier Gewerkschaften und dem Europäischen Gewerkschaftsbund sowie des "Trade Union Advisory Committee", einem gewerkschaftlichen Beratungskomitee der OECD. Unione Sindacale Italiana. Die Unione Sindacale Italiana (USI; Union der italienischen Syndikalisten) war der Dachverband der italienischen Syndikalisten, der im Zuge des "Biennio rosso" ca. 1 Mio. Mitglieder zählte. Die USI wurde 1912 gegründet. Sie sagte sich vom Reformismus los und orientierte sich an den radikalen Grundsätzen der Ersten Internationale. Sie schloss sich später der anarcho-syndikalistischen "International Workers Association" (IWA) an. Nach Kriegsende erreichte die Mitgliedszahl im "Biennio rosso", den beiden „roten“ Jahren 1919 und 1920, einen Höhepunkt (ca. 1.000.000). Während dieser Zeit schloss sich der "International Workers Association" (IWA; "Associazione Internazionale dei Lavoratori", AIT; "Asociación Internacional de los Trabajadores") an. Sie nannte sich auch USI-AIT und wurde zum Hauptgegner Mussolinis in den Straßenschlachten des "Biennio rosso" und "Biennio nero". Die USI-AIT wurde 1926 von Mussolini verboten, setzte jedoch ihre Tätigkeit im Untergrund und im Exil fort. Nach dem Zweiten Weltkrieg folgten die verbliebenen Mitglieder dem Ruf der "Federazione Anarchica Italiana" die zur Teilnahme an einer Einheitsgewerkschaft aufrief und fusionierte mit der "Confederazione Generale Italiana del Lavoro" (CGIL). Als sich die CGIL 1950 teilte, gründeten einige Aktivisten die USI-AIT erneut, konnten aber auch nicht annähernd an frühere Erfolge anschließen. Bis in die 1960er Jahre war sie in einigen Regionen vertreten, die syndikalistische Botschaft hielt sie bis zuletzt aufrecht. Confederazione Generale dei Sindacati Autonomi dei Lavoratori. Die Confederazione Generale dei Sindacati Autonomi dei Lavoratori (CONF.S.A.L.) ist ein 1979 gegründeter italienischer Gewerkschaftsbund. Er entstand aus einer Fusion der seit vielen Jahren existierenden SNALS und UNSA. Er gehört dem europäischen Gewerkschaftsbund CESI an, dessen Mitgliedsorganisationen nicht sozialistisch sind. Confederazione Italiana Sindacati Autonomi Lavoratori. Die Confederazione Italiana Sindacati Autonomi Lavoratori (CISAL) ist ein kleinerer Gewerkschaftsbund in Italien. Er wurde 1957 gegründet. Als einziger Gewerkschaftsbund weist er eine Präferenz für die von relativ vielen Arbeitern gewählten Partei "Forza Italia" des früheren Ministerpräsidenten Silvio Berlusconi auf. Die CISAL zählt 1.700.000 Mitglieder. Autonomer Südtiroler Gewerkschaftsbund. Der Autonome Südtiroler Gewerkschaftsbund (ASGB) ist die gewerkschaftliche Organisation der deutschen und ladinischen Arbeiterschaft in Südtirol. Er wurde 1964 von ehemaligen Mitgliedern der mehrheitlich italienischen Gewerkschaft CISL gegründet, um den Arbeitern der deutschen und ladinischen Volksgruppe eine eigenständige Gewerkschaftsvertretung zu ermöglichen. Heute ist der ASGB mit 27.000 Mitgliedern (2006) die stärkste Gewerkschaftsorganisation in Südtirol. Confederazione Italiana Lavoratori Liberi. Die Confederazione Italiana Lavoratori Liberi (CONF.ILL; Italienischer Bund freier Arbeiter) ist eine Mitgliedsorganisation des Bundes europäischer nicht-sozialistischer Gewerkschaftsbünde CESI. Die CONF.ILL ist kein Gewerkschaftsbund im juristischen Sinne, hat aber in Italien etwa 200.000 Mitglieder. Unione Generale del Lavoro. Die Unione Generale del Lavoro (UGL) ist ein unbedeutender italienischer Gewerkschaftsbund. Er steht der postfaschistischen Partei Alleanza Nazionale nahe. Die deutschen Gewerkschaften kooperieren nicht mit der UGL. 1950 wurde die UGL als CISNAL gegründet und trägt seit 1996 den jetzigen Namen. Sindacato Padano. Das Sindacato Padano (SINPA, sinngemäß "Oberitalienische Gewerkschaft") ist eine sehr kleine Gewerkschaft in Norditalien. Sie steht der norditalienischen Befreiungsbewegung "Lega Nord" nahe und besitzt nur eine eingeschränkte Bedeutung. Sie wurde 1996 als "Sindacato Autonomo di Lavoratori Padani" (Autonome Gewerkschaft der oberitalienischen Arbeiter) gegründet. Niederlande. Die erste Gewerkschaft (vakbond) in den Niederlanden war der "Algemene Nederlandse Grafische Bond", die 1866 gegründet wurde. Österreichischer Gewerkschaftsbund. Der Österreichische Gewerkschaftsbund ist eine 1945 gegründete überparteiliche Interessenvertretung für Arbeitnehmer. Traditionell wird er aber von den Sozialdemokraten dominiert. Er ist als Verein konstituiert und gliedert sich intern in sieben (Stand 2011) Teilgewerkschaften. Die Zentrale befindet sich in Wien (Laurenzerberg). Seit 2009/2010 befindet sich der ÖGB aber mit den Fachgewerkschaften PRO-GE, GBH, vida, GPF, GdG-KMSfB und dem Verband Österreichischer Gewerkschaftlicher Bildung (VÖGB), dem ÖGB-Verlag und dem Reiseunternehmen Sotour Austria in einem gemeinsamen Haus. Es befindet sich am Handelskai im 2. Wiener Gemeindebezirk (Johann-Böhm-Platz 1, 1020 Wien). Gewerkschaften in Österreich. Weiters sind die Gewerkschaften GBH, KMSfB, GPF und vida als "infra – Die Allianz der Infrastrukturgewerkschaften" gemeinsam tätig. Schweden. Die Gewerkschaftsbewegung war ein integraler Bestandteil der Arbeiterbewegung in Schweden. Die ersten Gewerkschaftsvereine wurden in den 1870er Jahren nach britischem und deutschem Vorbild gebildet. Der Durchbruch gelang infolge der großen Streikwelle in Norrland um 1880. Diese Streiks, die vom Militär niedergeschlagen worden waren, wiesen auf die Notwendigkeit einer einheitlichen Organisation hin. In den folgenden Jahren entstand eine Reihe von Gewerkschaften, die sich 1898 in einem Dachverband, der Landesorganisation LO zusammenschlossen. Die positive Entwicklung wurde durch den Generalstreik von 1909 unterbrochen, weil dieser nach einigen Wochen zusammenbrach. Viele Mitglieder verließen die Landesorganisation und schlossen sich einer neugegründeten syndikalistischen Bewegung nach französischem Vorbild, "Sveriges Arbetares Centralorganisation" (SAC), an. Zunächst war die Konkurrenz zwischen diesen beiden Gewerkschaften stark, doch verlor die syndikalistische Gewerkschaft nach dem Ersten Weltkrieg schnell an Bedeutung. Die Landesorganisation ging schon früh eine enge Verbindung mit dem politischen Zweig der Arbeiterbewegung, der Sozialdemokratischen Arbeiterpartei (SAP), ein. Mit dem Erstarken der SAP bekam auch LO eine stärkere Position bei der Durchsetzung gewerkschaftlicher Fragen. Gewerkschaften und Arbeitgeber bekämpften gleichermaßen Versuche des Staates, den Arbeitsmarkt durch Gesetzgebung zu regeln. 1938 wurde das historisch bedeutsame "Abkommen von Saltsjöbaden" geschlossen: LO und die Arbeitgeberorganisation "Svenska Arbetsgivareföreningen " (SAF) legten Rahmenbedingungen für die Sozialpartnerschaft fest, die bis in die 1960er Jahre Gültigkeit behielten. Die Vertragspartner einigten sich über eine Verhandlungsordnung und stellten Regeln für den Einsatz von Kampfmaßnahmen auf. In der Zwischenkriegszeit entstanden auch die ersten Angestelltengewerkschaften. Die soziale und berufliche Situation der Angestellten war besser als die der Arbeiter, und sie standen den Arbeitgebern näher. Diese Angestelltengewerkschaften traten nicht dem SAP-nahen Dachverband LO bei, sondern bildeten 1944 einen eigenen Dachverband, "Tjänstemännens Centralorganisation" (TCO). 1947 entstand die letzte der drei Dachorganisationen, die Akademiker-Gewerkschaft SACO. In den 1960er und 1970er Jahren wuchsen die Gewerkschaften stark. Der Organisationsgrad betrug Mitte der 1980er Jahre 85 %. Danach stagnierte zwar die Mitgliederzahl, aber der heutige Organisationsgrad von 70 % (2013) ist einer der höchsten in allen Industriestaaten. Der Frauenanteil gleicht in skandinavischen Gewerkschaften dem Männeranteil und ist somit deutlich höher als im übrigen Europa. Die veränderten Bedingungen auf dem Arbeitsmarkt haben zu einer verstärkten Zusammenarbeit der Gewerkschaftsverbände seit den 1990er Jahren geführt. Schweiz. In der Schweiz ist heute gut jeder vierte Beschäftigte in einer Gewerkschaft oder einem gewerkschaftsähnlichen Verband organisiert. Im westeuropäischen Vergleich ist dies eher wenig. Gewerkschaftsverbände in der Schweiz. Der Schweizerische Gewerkschaftsbund (SGB) ist die größte Arbeitnehmerorganisation der Schweiz. In ihm sind sechzehn Einzelgewerkschaften zusammengeschlossen, die insgesamt rund 380.000 Mitglieder vertreten. Die Schweizer Gewerkschaften waren von Anfang an um die Schaffung eigener Selbsthilfe- und Sozialeinrichtungen bemüht: Zunächst Arbeitslosen- und Krankenkassen, Alters- und Unterstützungskassen, später Schulungs- und Ferien- und Sozialeinrichtungen. Von jeher gewährten die Gewerkschaften ihren Mitgliedern auch Rechtsschutz. 2002 wurde in Bern unter dem Namen Travail.Suisse eine neue Dachorganisation der Arbeitnehmenden gegründet. Urheber dieser Gründung waren die Verbände und Gewerkschaften, die vorher dem Christlichnationalen Gewerkschaftsbund der Schweiz (CNG) und der Vereinigung schweizerischer Angestelltenverbände (VSA) angeschlossen waren. Diese Verbände vertreten rund 170.000 Mitglieder. Einzelgewerkschaften in der Schweiz. Mit dem Zusammenschluss der GBI, SMUV, VHTL, unia und actions zur Unia ist im Herbst 2004 die größte Gewerkschaft der Schweiz mit rund 200.000 Mitgliedern und fast 100 Sekretariaten entstanden. Die Anstellungsbedingungen von gegen einer Million Menschen sind in Gesamtarbeitsverträgen geregelt, die von der Unia ausgehandelt werden. Spanien. In Spanien gibt es verschiedene Gewerkschaftsbünde. Zu den größten gehören die "Comisiones Obreras", die "Confederación General del Trabajo" und die "Union Sindical Obrera". Regionale Organisationen sind die "Confederación Intersindical Galego" in Galicien, die baskische demokratische ELA-STV und die baskische nationalistische "Langile Abertzalen Batzordeak". Des Weiteren ist die anarcho-syndikalistische Gewerkschaft "Confederación Nacional del Trabajo" (CNT) eine einflussreiche Gewerkschaft, v. a. im katalanischen Raum um Barcelona. Gewerkschaftsentwicklung im 19. Jahrhundert. In den USA entstanden die Gewerkschaften nicht wie die europäischen Gewerkschaften aus klassenkämpferischen Motiven, sondern sie waren überwiegend eine Schutzgemeinschaft gegenüber den Einwanderern und den Nichtorganisierten. Die US-Gewerkschaften des späten 19. Jahrhunderts verstanden sich als Gegenentwurf zu den Unternehmenskartellen gewissermaßen als „Lohnkartelle“, die im kapitalistischen System die Rolle des Anbieters von Arbeitskraft einnahmen und diese im Interesse ihrer Mitglieder möglichst teuer verkaufen wollten. In der Anfangszeit wurden Arbeitgeber oft erpresst und mit Gewalt gezwungen, nur Gewerkschaftsmitglieder einzustellen. Umgekehrt war die Mitgliedschaft in einer US-Gewerkschaft üblicherweise an hohe Eintrittsgebühren oder Abgabe eines Teils des Lohnes sowie Aufnahmeprüfungen gebunden. Als erste US-Gewerkschaft wurde die National Labor Union (NLU) am 20. August 1866 in Baltimore gegründet. Ihr wichtigstes Ziel war die Einführung des Achtstundentages. Schwarze oder Chinesen wurden in dieser "Trade Union" anfangs nicht als Mitglied aufgenommen und gründeten eigene kleine Gewerkschaften. In ihrer Grundsatztagung von 1869 erklärte die NLU, Arbeiterrechte unabhängig von Geschlecht und Hautfarbe zu vertreten, und öffnete sich ab nun auch Frauen und Schwarzen. Die NLU beschränkte sich jedoch zunehmend auf die Arbeit im Parlament (Einbringen von Gesetzesinitiativen); ihre Bedeutung nahm ab und sie löste sich 1873 auf. Schon 1869 wurden die Knights of Labor gegründet und wurden bald zur führenden Gewerkschaft in den USA. Sie hatte bis zu 700.000 Mitglieder im 19. Jahrhundert. Ihre Ziele waren neben der Erhöhung der Löhne die Abschaffung der Kinderarbeit und die Einführung des Achtstundentages. Sie forderten „a proper share of the wealth they create, […] more free time, and generally more benefits of society“, kurz also eine gerechtere Vermögensverteilung, mehr Freizeit und eine sozialere Gesellschaft. Bekannt wurde aus den Reihen dieser Gewerkschaft Thomas Mooney (1882–1942), der ein Arbeiteraktivist in San Francisco war und der in den Bombenanschlag beim "Preparedness Day" 1916 verwickelt gewesen sein soll. 1886 gründete Samuel Gompers als Reorganisation der Vorgängerorganisation "Federation of Organized Trades and Labor Unions" in Columbus (Ohio) die "American Federation of Labor" (AFL, heute AFL-CIO), die US-weit schon bald 1,4 Millionen Mitglieder aufweisen sollte. Sie war einer der ersten Facharbeitergewerkschaftsbünde in den USA. Gompers war bis zu seinem Tode im Jahr 1924 Präsident der AFL. Gewerkschaftsverbände in den USA. 1886 schlossen sich viele Einzelgewerkschaften zum Dachverband AFL zusammen, der rund die Hälfte der amerikanischen Arbeiter vertrat. Nach außen setzte der Verband auf die Abriegelung vor allem gegenüber der wegen der Fließbandfertigung wachsenden Schicht der ungelernten Arbeiter. Die AFL konzentrierte sich auf die direkten, aktuellen Forderungen der Arbeiter und stellte die Rechte der Eigentümer der Produktionsmittel im Kapitalismus nicht in Frage. Sie unterstützte einzelne Politiker, welche die Interessen der Arbeiter vertrat, nicht jedoch einzelne Parteien. Sie stand im Gegensatz zu den radikaleren "Industrial Workers of the World" (IWW). 1938 spalteten sich zehn Gewerkschaften von der AFL ab und gründeten den neuen Dachverband CIO, der sich gezielt Ungelernten öffnete. Beide Verbände standen sich in den folgenden Jahrzehnten verfeindet gegenüber. Nach dem Zweiten Weltkrieg gerieten die Gewerkschaften unter Druck durch die republikanische Mehrheit im Kongress und den Präsidenten Eisenhower. 1955 vereinigte sie sich deshalb wieder mit dem CIO und existiert heute als AFL-CIO. Die Mitgliederschaft nimmt kontinuierlich ab. 1955 waren 34 % der Arbeiter in den USA in dem neuen Dachverband organisiert. 2005 waren es 12 %. Für 2008 wird der gewerkschaftliche Organisationsgrad in der privaten Wirtschaft nur noch mit 7,5 % angegeben. 2005 traten zahlreiche Gewerkschaften (darunter mit der Dienstleistungsgewerkschaft SEIU die größte Einzelgewerkschaft) aus und formierten sich unter dem neuen Dachverband "Change to win". Seit dem späten 20. Jahrhundert wandeln sich die US-Gewerkschaften programmatisch immer mehr zu einer ganzheitlichen Vertretung aller Arbeitnehmer. Ihr Einfluss ist seit 1980 stetig zurückgegangen. United Steelworkers. Die "United Steel, Paper and Forestry, Rubber, Manufacturing, Energy, Allied Industrial and Service Workers International Union" (USW) ist mit über 1,2 Millionen aktiven und ehemaligen Mitgliedern die größte Industriegewerkschaft Nordamerikas. Sie vertritt Arbeiter in den USA und in Kanada. Hauptsitz der Gewerkschaft ist Pittsburgh (Pennsylvania). Die USW wurde als USWA am 22. Mai 1942 von Mitgliedern der "Amalgamated Association of Iron, Steel, and Tin Workers" und des "Steel Workers Organizing Committee" gegründet. Zuvor war es zu häufigen, teilweise gewaltsamen Auseinandersetzungen von streikenden Arbeitern und Streikbrechern oder der Polizei gekommen. Erster Präsident der Gewerkschaft war Mitbegründer Philip Murray. American Railway Union. Die "American Railway Union" (ARU) war die größte Gewerkschaft der 1890er Jahre in Amerika und die erste Industriegewerkschaft in den Vereinigten Staaten. Sie wurde am 20. Juni 1893 von Bahnarbeitern in Chicago, Illinois, unter der Führung von Eugene V. Debs (einem Lokomotivheizer) gegründet. Die ARU verkörperte in ihrer Politik, anders als die anderen Gewerkschaften, eine Vertretung aller Bahnmitarbeiter, unabhängig davon, ob sie nun als Handwerker oder im Dienst am Kunden bei einer Eisenbahngesellschaft eingesetzt waren. Innerhalb eines Jahres hatte die ARU Hunderte von Ortsgruppen und über 140.000 Mitglieder im ganzen Land. 1893 kürzte die Eisenbahngesellschaft "Great Northern Railway" die Löhne ihrer Beschäftigten. Bis zum April entschied sich die ARU für einen Streik und legte damit die Eisenbahn für 18 Tage lahm. Sie erzwang dadurch von der Gesellschaft die Rücknahme der Lohnkürzungen bei ihren Arbeitern. Dies war der erste und einzige Sieg der Gewerkschaft. In ähnlicher Weise kürzte die "Pullman Palace Car Company" ihre Löhne fünfmal – um 30 bis 70 Prozent – zwischen September 1893 und März 1894. Viele Pullman-Arbeiter waren inzwischen in die Eisenbahnergewerkschaft eingetreten. Eine ARU-Versammlung sich aus Solidarität den Streikenden anzuschließen und boykottierte Pullman-Waggons. Der Boykott wurde ein großer Erfolg. Als Antwort darauf gab das Pullman-Management die Order aus, Pullman-Waggons an die Postzüge anzuhängen, um sich so eine Unterstützung ihres Standpunktes über den Postdienst zu verschaffen und die Bundesregierung zu interessieren. Mit Hilfe des "Sherman Antitrust Acts" von 1890, der geregelt hatte, es sei für Firmenzusammenschlüsse illegal, Handelsbewegungen oder den Handel einzuschränken, wurde ein gerichtliches Verbot am 2. Juli erwirkt. Es untersagte der ARU-Führung, durch „Zwingen oder Herbeiführen von Drohungen, Einschüchterung, Überredung, Gewalt oder Tätlichkeiten, Bahnangestellten zu verwehren oder sie zu hindern, ihre Aufgaben durchzuführen.“ Am nächsten Tag befahl US-Präsident Grover Cleveland 20.000 Mann Bundestruppen, den Streik zu zerschlagen und für den Zuglauf zu sorgen. Bis zum 7. Juli wurden Debs und sieben andere ARU-Funktionäre festgenommen, angeklagt und wegen „Verschwörung zur Störung des freien Postverkehrs“ verurteilt. Der Streik wurde endgültig zerschlagen. Die ARU löste sich schließlich auf. Die "Pullman Company" öffnete ihren Betrieb ohne die entlassenen Gewerkschaftsführer wieder. International Brotherhood of Teamsters. Die "International Brotherhood of Teamsters" (IBT) (sinngemäß: Internationale Bruderschaft der Fuhrleute), kurz nur "Teamsters" genannt, ist die Gewerkschaft der Transportarbeiter und damit die größte Einzelgewerkschaft der USA und ist seit 1992 auch in Kanada als "Teamsters Canada" tätig. Die IBT, vormals auch bekannt als "International Brotherhood of Teamsters, Chauffeurs, Warehousemen and Helpers of America" verfügt über etwa 1,4 Mio. beitragszahlende Mitglieder und 400.000 Rentner (Stand 2004) und gehört damit auch zu den größten Einzelgewerkschaften weltweit. Anfänglich waren die "Teamsters" nur eine Gewerkschaft für Lastkraftwagenfahrer, expandierten aber zur allgemeinen Transportarbeitergewerkschaft und reichen heute bis hinein in die Lebensmittelbranche. Sie sind somit auch die zuständige Gewerkschaft beim Logistikriesen UPS. Die Gewerkschaft gehört heute zur Gewerkschaftsgruppe "Change to win", nachdem sie mit einigen anderen Gewerkschaften 2005 den ehemaligen Dachverband AFL-CIO verließ. Writers Guild of America. Die "Writers Guild of America" (WGA) ist die gemeinsame Gewerkschaft der Autoren in der Film- und Fernsehindustrie der USA. Sie teilt sich in einen westlichen und östlichen Bereich. Ab 2003 zählte sie landesweit über 11.000 Mitglieder. Die Gewerkschaft sorgt auch für die Gesundheits- und Pensionsleistungen der Mitglieder. Ebenso kontrolliert sie die Einhaltung des Urheberrechtes. National Hockey League Players Association. Die "National Hockey League Players Association" (NHLPA) ist eine Gewerkschaft der Profi-Eishockey-Spieler der NHL in Nordamerika. Der Hauptsitz der Spielervereinigung NHLPA ist Toronto. Sie wurde im Juni 1967 von den Spielern aus den Eishockeyclubs der "Original Six" gegründet. Das "Collective Bargaining Agreement" (CBA; Gesamtarbeitsvertrag) stellt den Tarifvertrag zwischen der NHL (Vereine) und der Spielergewerkschaft NHLPA dar. Gernika. Das von der Legion Condor zerstörte Gernika Gernika (offiziell baskisch "Gernika-Lumo", kastilisch "Guernica y Luno") ist eine Stadt in der spanischen autonomen Region Baskenland mit Einwohnern (Stand:). Am 26. April 1937, während des spanischen Bürgerkrieges, flog die Legion Condor den Luftangriff auf Gernika. Bei den darauf folgenden Großfeuern kamen mehrere hundert Menschen ums Leben, die Stadt wurde großflächig zerstört. Geografie. Gernika liegt nordöstlich von Bilbao (Bilbo) und gehört zur Provinz Bizkaia. Das Municipio "Gernika-Lumo" besteht aus der Stadt "Gernika" und dem 1,5 km entfernten Vorort "San Pedro de Luno." Sie liegt am Fluss Oka. Geschichte. Gernika wurde am 28. April 1366 gegründet und ist eine heilige Stadt der Basken. Seit dem Mittelalter fanden hier Ratsversammlungen statt. Die kastilischen Könige schworen unter der Eiche von Gernika, die besonderen Autonomiegesetze der Bizkaia, die Fueros, zu achten und zu wahren. In Gernika befindet sich oberhalb der Stadtmitte das heilige Nationalsymbol der Basken, eine Eiche (Gernikako Arbola), unter der bis 1876 die Ältestenräte aus dem ganzen Baskenland jährlich zusammenkamen, um eine Form von direkter Demokratie auszuüben. Der Baum wird jeweils, wenn er abstirbt, durch eine Neupflanzung aus den Früchten des alten Baumes ersetzt. Im spanischen Bürgerkrieg wurde die Stadt am 26. April 1937 durch Flugzeuge der deutschen Legion Condor und der italienischen Corpo Truppe Volontarie, die auf Seiten Francos kämpften, bombardiert und kurze Zeit später durch nationalistische Truppen eingenommen. Pablo Picasso verarbeitete die Schrecken dieses Angriffs in seinem Bild "Guernica". Sonstiges. Gernika ist seit 1989 Partnerstadt der baden-württembergischen Stadt Pforzheim. Bei der Städtepartnerschaft spielt die Tatsache eine Rolle, dass Pforzheim am 23. Februar 1945 Ziel eines Flächenbombardements der Royal Air Force und nach Dresden die am stärksten zerstörte Stadt des damaligen Deutschlands war. Gernika verfügt über ein "Museum des Friedens", das an das 1987 gegründete Friedensforschungszentrum "Gernika Gogoratuz" (baskisch für „Gernika erinnern“) angeschlossen ist. Galba. Lucius Livius Ocella Servius Sulpicius Galba (* 24. Dezember 3 v. Chr. bei Tarracina; † 15. Januar 69 n. Chr. in Rom) war vom 8. Juni 68 bis 15. Januar 69 n. Chr. römischer Kaiser. Er war einer der vier Kaiser des Vierkaiserjahres. Er war der erste römische Kaiser, der nicht aus der julisch-claudischen Familie stammte. Familie und Herkunft. Galba wurde am 24. Dezember 3 v. Chr. in einer Villa bei Tarracina geboren. Er stammte aus einer alten senatorischen Familie und galt charakterlich als untadelig. Sein Vater war Gaius Sulpicius Galba (Suffektkonsul 5 v. Chr.), seine Mutter Mummia Achaica. Über seine Mutter hatte er verwandtschaftliche Verbindungen zu Quintus Lutatius Catulus (Konsul 78 v. Chr.), einem großen Politiker der späten Republik, der Galba ein Vorbild war. Nach deren Tod adoptierte ihn Livia Ocellina, die zweite Frau seines Vaters, wodurch er deren großen Besitz bei Tarracina erbte. Fortan nannte er sich Lucius Livius Ocella Servius Sulpicius Galba, wodurch eine nähere Verbindung zu Livia entstand, der Frau des Augustus und Mutter des Tiberius, die ihn in seiner Karriere förderte. Zudem vermachte Livia Ocellina ihm eine beachtliche Menge an Reichtum. Galba hatte einen älteren Bruder, Gaius, der 22 n.Chr. das Amt des Konsuls erreichte, jedoch sein Vermögen verschleuderte und sich aus Rom zurückzog. Nachdem er bei Tiberius in Ungnade gefallen war, beging Gaius 36 n. Chr. Selbstmord. Galba heiratete um 20 n. Chr. Aemilia Lepida, mit der er zwei Söhne hatte. Sowohl seine Frau, als auch die beiden Kinder verstarben jedoch, woraufhin Galba als Witwer lebte. Karriere. Galba begann die senatorische Ämterlaufbahn "(cursus honorum)" unter der Herrschaft des Tiberius. Als Prätor ließ er bei den "ludi florales", den Spielen zu Ehren der Göttin Flora, seiltanzende Elefanten auftreten. Noch vor seinem ersten ordentlichen "Consulat" 33 n. Chr. war Galba für ein Jahr praetorischer Statthalter von Aquitanien. Nachdem im Sommer 39 n. Chr. eine Verschwörung gegen Caligula aufgedeckt wurde, bei der Gnaeus Cornelius Lentulus Gaetulicus (Konsul 26), der Kommandant des obergermanischen Heeres, eine tragende Rolle spielte, wurde Galba dessen Nachfolger. Mit harten Maßnahmen stellte er die Disziplin des Heeres wieder her. Etwa um diese Zeit, vielleicht noch unter seinem Vorgänger, war ein Einfall der Chatten über den Rhein erfolgt, weshalb Galba 39/40 n. Chr. einen Vorstoß in deren Gebiet unternahm. Dieser Feldzug wurde im Frühjahr oder Sommer 40 n.Chr. unter dem Oberbefehl Caligulas auf rechtsrheinischem Gebiet fortgesetzt. Als jedoch Caligula im Spätsommer 40 n. Chr. nach Rom abreiste, kam es zu einem erneuten Vorstoß der Chatten. Dieser wurde im folgenden Jahr, unter der Herrschaft des Claudius, durch Galba zurückgeschlagen, wobei er auch in das Gebiet der Chatten eindrang. Die Siege Galbas sorgten dafür, dass in den folgenden zehn Jahren die Chatten den Frieden hielten. 43 n. Chr. begleitete er Claudius, der ihn sehr schätzte, als comes auf dessen Britannienreise und war von 44–46 Prokonsul von Africa. Dort sollte Galba die Ordnung in der Provinz wiederherstellen, die sowohl durch innere Streitigkeiten als auch rebellierende Stämme bedroht war. Hier besiegte er 45 n. Chr. die Musulamier. Auch sein Beharren auf Disziplin und sein Gerechtigkeitssinn, gerade auch in unbedeutenden Angelegenheiten, halfen ihm bei der Ausführung seiner Aufgabe. Für seine Dienste in Africa und Germanien bekam Galba die Auszeichnungen eines Triumphators und drei Priesterämter verliehen. In der folgenden Zeit zog sich Galba ins Privatleben zurück, wobei wohl die Missgunst Agrippinas, der Schwester des Caligula und Mutter Neros, die Claudius 49 n. Chr. geheiratet hatte, eine Rolle spielte. Nach deren Ermordung im März 59 n. Chr. wurde Galba 59/60 n. Chr. wieder rehabilitiert, da er immer noch als tüchtig und loyal galt.. Von Nero wurde Galba 60 n. Chr. als Statthalter in die Provinz Hispania Tarraconensis gesandt. Herrschaftsübernahme. Bereits nach der Ermordung Caligulas durch die Prätorianer am 24. Januar 41 n. Chr. soll Galba ein erstes Mal von seinen Freunden dazu gedrängt worden sein, nach der Macht zu greifen, was er jedoch ablehnte. Im Winter 67/68 n. Chr. begann nun unter der Initiative von Gaius Iulius Vindex, dem Statthalter der unbewaffneten Provinz Gallia Lugdunensis, eine Aufstandsbewegung gegen Nero. Galba verhielt sich auf dessen Briefe mit der Bitte um Unterstützung zuerst neutral, da er sich weder anschloss, noch die Nachricht von der Rebellion nach Rom übersandte, wie dies andere Kommandeure taten. Dies scheint daran gelegen zu haben, dass Galba den Briefen kein Vertrauen schenkte. Erst Anfang April 68 n. Chr. schloss sich Galba der Aufstandsbewegung an und wurde am 3. April in Carthago Nova durch Soldaten und Provinziale zum Kaiser ausgerufen. Er nannte sich jedoch zunächst "legatus Senatus Populique Romani", da die letztendliche Entscheidung über den Nachfolger Neros dem Senat überlassen werden sollte. Galba sandte zudem Briefe an die anderen Provinzstatthalter, in denen er um ihre Unterstützung bat. Diesen Bitten kamen Aulus Caecina Alienus, der Quaestor von Baetica, und Marcus Salvius Otho, der Statthalter von Lusitania, nach, die sich ihm anschlossen. Gerade die finanzielle Unterstützung, die Otho lieferte, brauchte Galba um seine Truppen zu bezahlen. Zu Beginn verfügte er nur über eine Legion, die "Legio VI Victrix", drei Auxiliarkohorten und zwei Reiterschwadronen. Galba ordnete deshalb Aushebungen an und stellte somit eine zweite Legion, die "Legio VII Galbiana", und zwei weitere Auxiliarkohorten aus dem Gebiet der Vasconen auf, wodurch sich seine Streitkraft fast verdoppelte. Unterdessen hatte Vindex die Belagerung von Lugdunum aufgenommen, der Hauptstadt der Provinz Gallia Lugdunensis. Als Lucius Verginius Rufus, der Statthalter in Obergermanien, davon erfuhr, zog er los, um den Aufstand niederzuschlagen. Hierzu führte er seine zwei Legionen aus Mogontiacum, die "Legio IV Macedonica" und die "Legio XXII Primigenia", sowie Teile weiterer vier Legionen aus Niedergermanien inklusive Auxiliartruppen ins Feld. Vindex soll zu diesem Zeitpunkt etwa 100.000 Mann unter Waffen gehabt haben, die jedoch hauptsächlich schlecht ausgerüstet waren. Als er davon erfuhr, dass Rufus Vesontio belagerte, das ihn nicht mit offenen Toren empfangen hatte, eilte Vindex der Stadt zur Hilfe und schlug sein Lager in der Nähe auf. Die beiden Befehlshaber schickten untereinander Nachrichten und trafen sich letztendlich sogar persönlich, wobei sie sich gegen Nero aussprachen. Dennoch kam es danach unter ungeklärten Umständen zur Schlacht zwischen den beiden Heeren, die wohl durch die Initiative der Soldaten zustande kam und bei der Vindex, nach dem Verlust von 20.000 Soldaten, Selbstmord beging. Als die Legionäre Rufus nun zum Kaiser ausrufen wollten, lehnte dieser jedoch ab, weshalb seine Truppen weiterhin zu Nero standen. Nachdem Galba die Nachricht von der Niederlage des Vindex bei Vesontio erhielt, schrieb er sofort an Rufus und bot eine Kooperation an, bekam jedoch keine Antwort und zog sich daraufhin nach Clunia zurück. Im Juni 68 n. Chr. änderte sich die Lage für Galba jedoch, da der Prätorianerpräfekt Gaius Nymphidius Sabinus die Prätorianer mit dem Versprechen eines gewaltigen Geldgeschenkes von 7.500 "Denarii" (30.000 Sesterzen) zum Abfall von Nero bewegte. Daraufhin bestätigte der Senat am 8. Juni 69 n. Chr. Galba als neuen Kaiser und erklärte Nero zum Staatsfeind, der am 9. Juni Selbstmord beging. Herrschaft. Die Nachricht von seiner Bestätigung als Kaiser erreichte Galba wohl am 16. oder 18. Juni, als dessen Freigelassener Icelus in Clunia eintraf. Zwei Tage später folgte eine Nachricht mit dem exakten Text des Senatsbeschlusses, die der Senator Titus Vinius überbrachte. Galba übernahm nun den Namen Servius Galba Imperator Caesar Augustus und die "tribunicia potestas". Vor seinem Aufbruch nach Italien regelte er jedoch zuerst die Verhältnisse in Hispania und übertrug die Kontrolle über die drei Provinzen Tarraconensis, Lusitania und Baetica Cluvius Rufus. Vermutlich am 16. Juli brach Galba von Tarraco nach Italien auf, wobei er die "Legio VII Galbiana" mit sich führte. Auf seinem Weg nach Rom bestrafte Galba die Städte Spaniens und Galliens, die gezögert hatten, sich ihm anzuschließen, durch höhere Steuerabgaben sowie die Schleifung der Stadtmauern in einigen Fällen. Bei der Stadt Narbo traf er eine Abordnung des Senats, die ihn bat die Reise zu beschleunigen. Dieses Treffen lässt sich etwa auf den 5. August datieren. Galba setzte seinen Weg in Gallien fort und setzte Iunius Blaesus als Statthalter der Provinz Lugdunensis ein, in deren Hauptstadt er die "Legio I Italica" und die "ala Tauriana" stationierte. Die Stämme der Haeduer, Arverner und Sequaner, die Vindex unterstützt hatten, wurden mit zusätzlichen Gebiet und der Befreiung von Tributen belohnt, während die Treverer und Lingonen, die mit den Rheinlegionen kooperiert hatten, bestraft wurden. Dieses Verhalten der Belohnung von Unterstützern und Bestrafung von Zauderern oder Widersachern wandte Galba auch in weiteren Fällen an. Den Statthalter der Provinz Aquitania, Betuus Cilo, ließ Galba hinrichten, wohl weil dieser um Unterstützung angefragt hatte, als der Aufstand des Vindex ausgebrochen war. Auch in Germanien griff Galba ein und ließ Verginius Rufus durch Marcus Hordeonius Flaccus ablösen. Rufus schloss sich daraufhin dem Zug des Kaisers nach Rom an. Aulus Caecina Alienus, der Galba schon früh unterstützt hatte, wurde mit einem Legionskommando in Obergermanien betraut. In Niedergermanien war der Befehlshaber Fonteius Capito unter unklaren Umständen umgekommen. Er wurde durch Aulus Vitellius ersetzt. In der Provinz Belgica wurde Pompeius Propinquuus als Prokurator eingesetzt. In Mauretania wurde Lucceius Albinus, dem prokuratorischen Statthalter von Mauretania Caesariensis, durch Galba ebenfalls die Verwaltung von Mauretania Tingitana übertragen. In Pannonia und Dalmatia wurde Cornelius Fuscus zum Prokurator ernannt, wohl um die beiden Statthalter der Provinzen zu überwachen. Ebenso wurde die Legio VII Galbiana im November 68 unter dem Befehl des Marcus Antonius Primus nach Carnuntum in Pannonia verlegt. Galatia und Pamphylia wurden durch den neu eingesetzten Calpurnius Asprenas verwaltet. Nach dem Tode Lucius Clodius Macers in der Provinz Africa hatte Gaius Vipstanus Apronianus das Amt des Prokonsuls auf Galbas Geheiß inne. Auch in Rom selbst griff der Kaiser zu Gunsten seiner Anhänger ein und ernannte Cornelius Laco zum Prätorianerpräfekten. Ebenso erhielt Aulus Ducenius Geminus das Amt des "praefectus urbi" und Plotius Firmus wurde zum "praefectus vigilum" ernannt. Bei der Behandlung der Soldaten zeigte Galba kein besonderes Geschick. Die Legionen Germaniens erhielten von ihm keine Anerkennung für ihren Einsatz zur Aufstandsniederschlagung des Vindex und fürchteten eine Bestrafung, da sie in dieser Angelegenheit auf der scheinbar falschen Seite gekämpft hatten. Weitere Feindschaft erregten die Absetzung des Verginius Rufus und der mysteriöse Tod des Fonteius Capito. Weiteren Hass unter den Soldaten erzeugte Galbas Vorgehen gegen die unter Nero ausgehobene "Legio I Adiutrix" aus Marinesoldaten, die vor Rom ihr Lager aufgeschlagen hatte. Diese wollten von Galba eine Bestätigung ihres Status erhalten und versammelten sich dazu an der Milvischen Brücke. Als ihre Forderungen jedoch zurückgewiesen worden, versuchten die Soldaten durch einen Aufruhr der Sache Nachdruck zu verleihen. Galba ließ daraufhin seine Infanterie und Kavallerie gegen die Aufständischen vorgehen, wobei viele getötet wurden. Die Überlebenden wurden dezimiert. Die darauf folgende Erfüllung der Forderungen und offizielle Anerkennung als "Legio I Adiutrix" änderte wenig an dem Schaden, den Galbas Ansehen bei den Soldaten durch diese Tat erhalten hatte. Auch sein Verhalten gegenüber den Prätorianern nahm ihm den Rückhalt der Soldaten, da er gar nicht daran dachte, das von Gaius Nymphidius Sabinus versprochene Donativ zu zahlen. Dies wäre umso ratsamer gewesen,da durch die Prätorianer unter Führung des Militärtribunen Antonius Honoratus der Versuch des Sabinus, die Herrschaft zu übernehmen, niedergeschlagen und dieser daraufhin getötet worden war. Ein politisches Ziel Galbas war die Sanierung des Staatshaushaltes, der unter den immensen Ausgaben Neros gelitten hatte. 2,2 Milliarden Sesterzen, die unter Nero verschenkt worden waren, sollten wieder eingetrieben werden, nur ein Zehntel der Schenkung sollte den betroffenen Personen überlassen werden. Für die Eintreibung der Summe wurden 30 Ritter eingesetzt. Da das Geld größtenteils schon in Güter umgesetzt worden war, wurden diese zwangsversteigert. Der größte Erfolg bei diesem Vorhaben scheint die Eintreibung von 40.000 Sesterzen gewesen zu sein, die Nero dem Orakel von Delphi geschenkt hatte. Durch eine Inschrift vom Herbst 68 ist ebenso bekannt, dass Galba Reparaturen an der "Horrea Sulpicia", dem größten Getreidespeicher Roms vornehmen ließ. Eine Wiederherstellung der "frumentationes", der kostenlosen Getreideabgaben an die männlichen Bewohner Roms, nahm er jedoch nicht vor, wohl aus finanziellen Gründen. Als größtes Problem Galbas erwies sich jedoch die Abhängigkeit von seinen Beratern Titus Vinius, Cornelius Laco und Icelus, durch die er sich isolierte. Diese drei Männer hatten laut den antiken Quellen alle charakterliche Mängel und verfolgten eigene Interessen. Vinius Karriere war von Skandalen geprägt und er häufte sich ein Vermögen an. Laco hatte keine militärische oder administrative Erfahrung und soll arrogant und faul gewesen sein. Icelus, der erst kürzlich in den Ritterstand erhobene Freigelassene Galbas, raffte sich ebenso wie Vinius ein Vermögen zusammen. Zur Krise für Galbas Herrschaft kam es am 1. Januar 69 n. Chr., als die Legionen in Obergermanien sich weigerten ihren Eid auf den Kaiser zu erneuern und dessen Standbilder umstießen. Die Nachricht von diesem Ereignis erreichte Galba wenige Tage später durch einen Brief des Prokurators der Provinz Belgica, Pompeius Propinquus. Adoption Pisos und Ermordung. Die Krise in Germanien beschleunigte nun die Wahl eines Nachfolgers. Da seine beiden Söhne sowie seine Frau vor ihm gestorben waren, musste Galba nach einem anderen potentiellen Kandidaten Ausschau halten. Hierfür kamen mehrere Männer in Frage. Eine Option war Marcus Salvius Otho, der Galba schon seit Spanien und dem Aufstand des Vindex als einer der frühesten Gefolgsleute begleitete. Als Alternative wurde Gnaeus Cornelius Dolabella gesehen, ein entfernter Verwandter und vermutlich dessen Großneffe. Nachdem nun am 9. Januar der Brief des Prokurators der Provinz Belgica, Pompeius Propinquus, eintraf, der Galba über die Krise bei den germanischen Legionen informierte, sah sich der Kaiser gezwungen eine Entscheidung in der Nachfolgerwahl zu treffen. Deshalb rief er am 10. Januar seine engsten Berater zu einem Treffen und erklärte, dass er Lucius Calpurnius Piso Frugi Licinianus auserkoren habe ihm nachzufolgen. Die Adoption Pisos wurde zuerst den Prätorianern bekannt gemacht, jedoch versäumte es der Kaiser auch bei dieser Gelegenheit die Soldaten an sich oder seinen Nachfolger zu binden. Auch in dieser Situation versprach er kein Geldgeschenk, weder das von Nymphidius Sabinus versprochene Geld noch eine Summe zur Feier der Ereignisse wollte Galba zahlen. Danach suchte man den Senat auf, um diesem die Adoption Pisos zu verkünden. Viele Senatoren nahmen die Nachricht mit Freude auf oder täuschten dies vor, wenn sie Piso nicht wohlgesinnt waren, die neutrale Mehrheit duldete die Entscheidung. Die Entscheidung Galbas musste Otho brüskieren, da dieser sich selbst Hoffnungen auf die Nachfolge gemacht hatte. Er plante nun eine Verschwörung gegen Galba, um sich den Kaisertitel zu sichern. Hilfreich war hierbei, dass Otho auch schon früher sich um die Soldaten bemüht und diesen Geldgeschenke oder Gunstbeweise zukommen lassen hatte. Er soll unter anderem je 100 Sesterze an jeden Mann der wachhabenden Kohorte verteilt haben, wenn Galba bei ihm speiste. Otho überließ nun die Planung des Putsches seinem Freigelassenen Onomastus, der den Ordonanzoffizier Barbius Proculus, der für die Parole der kaiserlichen Leibgarde zuständig war, und den Optio Veturius mit Geld und Versprechungen bestach, damit diese weitere Soldaten für den Putsch gewinnen. Es wurde nun zuerst der Plan gefasst, Galba in der Nacht des 14. Januar zu ergreifen und zum Prätorianerlager zu bringen, jedoch dann verworfen, da er zu viele Risiken barg. Die Ausführung des Putsches wurde auf den Morgen des 15. Januar verschoben. An diesem Tag opferte Galba morgens vor dem Tempel des Apoll. Zuerst war auch Otho bei der Zeremonie anwesend, entschuldigte sich jedoch später unter dem Vorwand eines Hauskaufes, nachdem Onomastus ihm die Nachricht überbracht hatte, dass man bereit zum Putsch sei, und eilte zum "Miliarium Aureum". Dort traf er jedoch nur 23 Leibgardisten an, die ihn als Kaiser anriefen, weshalb man sich schleunigst auf den Weg zum Prätorianerlager machte, wobei sich die Zahl der Putschisten etwa verdoppelte. Als Galba über die Ereignisse informiert wurde, befahl er zuerst die Loyalität der Palastwache zu überprüfen, weshalb Piso dorthin geschickt wurde. Unterdessen wurden auch Gesandte zu den anderen in Rom verbliebenen Truppen gesandt, jedoch ohne großen Erfolg. Die Prätorianer bedrohten zwei gesandte Tribunen, Cetrius Severus und Subrius Dexter, den dritten, Pompeius Longinus, setzten sie fest. Die Legion der Marinesoldaten, die von Galba bestraft worden waren, hatte sich auf die Seite der meuternden Prätorianer geschlagen. Die illyrischen Truppenteile vertrieben den Gesandten Celsus Marius und die germanischen Truppen zögerten, obwohl sie Galba wohlgesinnt waren. Der Kaiser musste sich nun entscheiden, ob er sich im Palast verschanzen oder den Putschisten aktiv entgegentreten wolle, bevor sie sich organisierten. Galba entschied sich dafür, den Putsch zu zerschlagen und machte sich in Begleitung einer ihm wohlgesinnten Menschenmenge, die sich vor dem Palast versammelt hatte, auf zum Forum. Unterdessen hatte Otho die Soldaten im Prätorianerlager für sich gewonnen und bewaffnen lassen. Da die Nachricht umging, dass Galba den Pöbel bewaffnen lasse, ließ er die Soldaten überstürzt aufbrechen, die daraufhin auf das Forum stürmten und die Menge auseinandertrieben. Als diese in Sichtweite kamen, desertierten auch die verbliebenen Soldaten der Palastwache, lediglich der Prätorianerzenturio Sempronius Densus verteidigte Galba, starb jedoch dabei. Der Kaiser, der im Chaos aus seiner Sänfte geschleudert worden war, wurde in der Nähe des Lacus Curtius getötet. Sein verstümmelter Leichnam wurde von Gaius Helvidius Priscus mit Erlaubnis Othos geborgen und vom Rechnungsführer Argius in seinen Privatgärten an der Via Aurelia bestattet. Über ihn wurde zuerst die Damnatio Memoriae verhängt, jedoch wurde am 1. Januar 70 n.Chr. Galbas Ansehen durch Vespasian wiederhergestellt. Quellen. Die wichtigsten antiken Quellen für Leben und Herrschaft Galbas sind Suetons Kaiserviten, die Historien des Tacitus (1,1–49), die Galba-Biografie des Plutarch und das Geschichtswerk Cassius Dios (63,22–64,7). Vermutlich gab es auch von Cluvius Rufus, Fabius Rusticus and Plinius dem Älteren Werke über Galba, diese sind jedoch nicht erhalten. Anmerkungen. Ocella Servius Sulpicius Galba, Lucius Livius Gen. Als Gen wird meist ein Abschnitt auf der DNA bezeichnet, der die Grundinformationen zur Herstellung einer biologisch aktiven RNA enthält. Bei diesem Herstellungsprozess (Transkription) wird eine komplementäre Kopie des codogenen Stranges in Form der RNA hergestellt. Es gibt verschiedene Arten von RNAs, die bekannteste ist die der mRNAs, von denen während der Proteinbiosynthese die Aminosäuresequenzen der Proteine abgelesen werden (Translation genannt). Die Proteine übernehmen im Körper jeweils ganz spezifische Funktionen, die auch als Merkmale bezeichnet werden können. Allgemein werden Gene daher als Erbanlage oder Erbfaktor bezeichnet, da sie die Träger von Erbinformation sind, die durch Reproduktion an die Nachkommen weitergegeben werden. Die Expression, das heißt die Ausprägung oder der Aktivitätszustand eines Gens, ist in jeder Zelle genau reguliert. Die Erforschung des Aufbaus, der Funktion und Vererbung von Genen ist Gegenstand der Genetik. Die gesamte Erbinformation einer Zelle wird Genom genannt. Forschungsgeschichte. 1854 begann Johann Gregor Mendel, die Vererbung von Merkmalen bei Erbsen zu untersuchen. Er schlug als erster die Existenz von Faktoren vor, die von Eltern auf die Nachkommen übertragen werden. Bei seinen Kreuzungsversuchen beschrieb er, dass Merkmale voneinander unabhängig vererbt werden können, sowie dominante und rezessive Merkmale. Er entwickelte die Hypothese, dass es homo- und heterozygote Zustände geben kann, und legte damit die Grundlage für die Unterscheidung zwischen Genotyp und Phänotyp. 1900 gilt als das Jahr der „Wiederentdeckung“ der mendelschen Regeln, da die Botaniker Hugo de Vries, Erich Tschermak und Carl Correns aufgriffen, dass es quantifizierbare Regeln gibt, nach denen die Faktoren, die für die Ausprägung von Merkmalen verantwortlich waren, an die Nachkommen weitergegeben werden. Correns prägte dabei den Begriff "Anlage" bzw. "Erbanlage". William Bateson erinnerte 1902 in "Mendel's Principles of Heredity" daran, dass es zwei Varianten der Erbfaktoren in jeder Zelle gibt. Er nannte das zweite Element "Allelomorph" nach dem griechischen Wort für „Andere“ und prägte damit den Begriff des Allels. Archibald Garrod, ein britischer Arzt, hatte sich mit Stoffwechselerkrankungen beschäftigt und stellte fest, dass diese in Familien vererbt wurden. Garrod erkannte, dass die Gesetze also auch bei Menschen gültig waren, und vermutete, die Erbanlagen seien die Basis für die "Chemische Individualität" von Menschen. August Weismann stellte in seinen "Vorträgen zur Deszendenztheorie" 1904 die Entdeckung vor, dass es einen Unterschied zwischen Körperzellen und Keimzellen gibt, und dass nur letztere in der Lage sind, neue Organismen hervorzubringen. Keimzellen sollten eine „Vererbungssubstanz“ enthalten, die sich aus einzelnen Elementen zusammensetzten, die er "Determinanten" nannte. Diese Determinanten sollten für die sichtbare Ausprägung beispielsweise der Gliedmaßen verantwortlich sein. Die Bezeichnung „Gen“ wurde erst 1909 von dem Dänen Wilhelm Johannsen geprägt. Er benannte die Objekte, mit denen sich die Vererbungslehre beschäftigt, nach dem griechischen Wort "genos" (Geschlecht). Für ihn waren sie jedoch nur eine Rechnungseinheit. Bereits drei Jahre zuvor hatte William Bateson die Wissenschaft von der Vererbung als "Genetik" bezeichnet, nach dem griechischen Wort "genetikos" (Hervorbringung). Zu diesem Zeitpunkt war die chemische Natur der Gene immer noch vollkommen unklar. In den ersten Jahren des 20. Jahrhunderts nahmen sich die Genetiker nach verschiedenen Pflanzen auch Insekten und später Vögel vor, um die Vererbungsgesetze zu testen. In Kombination mit den 1842 entdeckten und 1888 benannten Chromosomen entstand so die Chromosomentheorie der Vererbung. Es war durch verbesserte Färbetechniken beobachtet worden, dass sich Chromosomen erst verdoppeln und sich dann mit den Zellen teilen. Daher waren sie als Träger der Erbanlagen in Frage gekommen. Während dieser Zeit herrschte eine Kontroverse zwischen den Vertretern der Hypothese von Johannsen und Mendel, dass Gene etwas Materielles sind, und deren Kritikern, die eine Verbindung von Genen und Chromosomen als „Physikalismus“ und „Mendelismus“ abtaten und Gene weiterhin als abstrakte Einheiten betrachteten. Thomas Hunt Morgan war ebenfalls überzeugt, dass es nicht physikalische Einheiten sein konnten, die für die verschiedenen Merkmale verantwortlich waren, und versuchte, den Mendelismus zu widerlegen. Er begann 1910 mit Kreuzungsversuchen an Schwarzbäuchigen Taufliegen. Seine Arbeiten erbrachten jedoch das Gegenteil: Den endgültigen Beweis, dass Gene auf Chromosomen liegen und damit materiellen Ursprungs sind. Zusammen mit seinen Mitarbeitern, darunter Calvin Bridges, Alfred Sturtevant und Hermann Muller, fand er viele natürliche Mutationen und untersuchte in unzähligen Kreuzungen die Wahrscheinlichkeit, dass zwei Merkmale gemeinsam vererbt werden. Sie konnten so zeigen, dass Gene an bestimmten Stellen auf den Chromosomen liegen und hintereinander aufgereiht sind. Gemeinsam erstellte die Gruppe in jahrelanger Arbeit die erste Genkarte. Da unter dem Mikroskop auch das Crossing over beobachtet werden konnte, war bekannt, dass Chromosomen Abschnitte austauschen können. Je näher zwei Gene auf dem Chromosom beieinander liegen, desto größer die Wahrscheinlichkeit, dass sie gemeinsam vererbt und nicht durch ein Crossing-over-Ereignis getrennt werden. Dadurch konnten Angaben über die Entfernung zweier Gene gemacht werden, die nach Morgan in "centiMorgan" angegeben werden. Hermann Muller begann einige Zeit später, mit Röntgenstrahlen zu experimentieren, und konnte zeigen, dass die Bestrahlung von Fliegen deren Mutationsrate stark erhöht. Diese Erkenntnis aus dem Jahr 1927 war eine Sensation, da dadurch zum ersten Mal tatsächlich gezeigt wurde, dass Gene physikalische Objekte sind, die sich von außerhalb beeinflussen lassen. 1928 wies Frederick Griffith in dem als „Griffiths Experiment“ bekannt gewordenen Versuch zum ersten Mal nach, dass Gene von Organismen auf andere übertragen werden können. Der von ihm nachgewiesene Vorgang war die Transformation. 1941 zeigten George Wells Beadle und Edward Lawrie Tatum, dass Mutationen in Genen für Defekte in Stoffwechselwegen verantwortlich sind, was zeigte, dass spezifische Gene spezifische Proteine codieren. Diese Erkenntnisse führten zur „Ein-Gen-ein-Enzym-Hypothese“, die später zur „Ein-Gen-ein-Polypeptid-Hypothese“ präzisiert wurde. Oswald Avery, Colin MacLeod und Maclyn McCarty zeigten 1944, dass die DNA die genetische Information enthält. 1953 wurde die Struktur der DNA von James D. Watson and Francis Crick, basierend auf den Arbeiten von Rosalind Franklin und Erwin Chargaff, entschlüsselt und das Modell der DNA-Doppelhelix entworfen. 1969 gelang Jonathan Beckwith als erstem die Isolierung eines einzelnen Gens. Die Definition, was ein Gen genau ist, hat sich ständig verändert und wurde an neue Erkenntnisse angepasst. Für den Versuch einer aktuellen Definition benötigten 25 Wissenschaftler des Sequence Ontology Consortiums der Universität Berkeley Anfang 2006 zwei Tage, bis sie eine Version erreichten, mit der alle leben konnten. Ein Gen ist demnach "a locatable region of genomic sequence, corresponding to a unit of inheritance, which is associated with regulatory regions, transcribed Regions and/or other functional sequence regions" (eine lokalisierbare Region genomischer DNA-Sequenz, die einer Erbeinheit entspricht und mit regulatorischen, transkribierten und/oder funktionellen Sequenzregionen assoziiert ist). Und auch diese Definition ist nicht endgültig. Durch das ENCODE (ENCyclopedia Of DNA Elements)-Projekt, bei dem die Transkriptionsaktivität des Genoms gemappt wurde, wurden neue, komplexe Regulationsmuster gefunden und festgestellt, dass die Transkription von nichtcodierender RNA viel verbreiteter ist als bisher bekannt. Ein Gen ist demnach eine "Einheit aus genomischer DNA-Sequenz, die einen zusammenhängenden Satz von potenziell überlappenden funktionellen Produkten codiert" "(A gene is a union of genomic sequences encoding a coherent set of potentially overlapping functional products)". Aufbau. Es gibt verschiedene Besonderheiten im Aufbau von Genen verschiedener Lebewesen. In der Zeichnung wird der Aufbau eines typischen eukaryotischen Gens dargestellt, das ein Protein codiert. Schematischer Aufbau eines eukaryotischen Gens. Vor der Transkriptionseinheit oder auch innerhalb der Exons (hellblau und dunkelblau) und Introns(rosa und rot) liegen regulatorische Elemente, wie zum Beispiel Enhancer oder Promotor. An diese binden, abhängig von der Sequenz, verschiedene Proteine, wie beispielsweise die Transkriptionsfaktoren und die RNA-Polymerase. Die prä-mRNA (unreife mRNA), die im Zellkern bei der Transkription zunächst entsteht, wird in dem Reifungsprozess zur reifen mRNA modifiziert. Die mRNA enthält neben dem direkt proteincodierenden Offenen Leserahmen noch untranslatierte, also nichtcodierende Bereiche, den 5' untranslatierten Bereich (5' UTR) und den 3' untranslatierten Bereich (3' UTR). Diese Bereiche dienen zur Regulation der Translationsinitiation und zur Regulation der Aktivität der RNAsen, die die RNA wieder abbauen. Die Gene der Prokaryoten unterscheiden sich im Aufbau von eukaryotischen Genen dadurch, dass sie keine Introns besitzen. Zudem können mehrere unterschiedliche RNA-bildende Genabschnitte sehr nah hintereinander geschaltet sein (man spricht dann von polycistronischen Genen) und in ihrer Aktivität von einem gemeinsamen regulatorischen Element geregelt werden. Diese Gencluster werden gemeinsam transkribiert, aber in verschiedene Proteine translatiert. Diese Einheit aus Regulationselement und polycistronischen Genen nennt man Operon. Operons sind typisch für Prokaryoten. Gene codieren nicht nur die mRNA, aus der dann die Proteine translatiert werden, sondern auch die rRNA und die tRNA sowie weitere Ribonukleinsäuren, die andere Aufgaben in der Zelle haben, beispielsweise bei der Proteinbiosynthese oder der Genregulation. Ein Gen, das ein Protein codiert, enthält eine Beschreibung der Aminosäure-Sequenz dieses Proteins. Diese Beschreibung liegt in einer chemischen Sprache vor, nämlich im genetischen Code in Form der Nukleotid-Sequenz der DNA. Die einzelnen „Kettenglieder“ (Nukleotide) der DNA stellen – in Dreiergruppen (Tripletts, Codon) zusammengefasst – die „Buchstaben“ des genetischen Codes dar. Der codierende Bereich, also alle Nukleotide, die direkt an der Beschreibung der Aminosäuresequenz beteiligt sind, wird als offener Leserahmen bezeichnet. Ein Nukleotid besteht aus einem Teil Phosphat, einem Teil Desoxyribose (Zucker) und einer Base. Eine Base ist entweder Adenin, Thymin, Guanin oder Cytosin. Gene können mutieren, sich also spontan oder durch Einwirkung von außen (beispielsweise durch Radioaktivität) verändern. Diese Veränderungen können an verschiedenen Stellen im Gen erfolgen. Demzufolge kann ein Gen nach einer Reihe von Mutationen in verschiedenen Zustandsformen vorliegen, die man Allele nennt. Eine DNA-Sequenz kann auch mehrere überlappende Gene enthalten. Durch Genduplikation verdoppelte Gene können sequenzidentisch sein, dennoch aber unterschiedlich reguliert werden und damit zu unterschiedlichen Aminosäuresequenzen führen, ohne dass sie Allele sind. Verhältnis Introns zu Exons. Generell schwankt das Verhältnis zwischen Introns und Exons von Gen zu Gen sehr stark. So gibt es einige Gene ohne Introns, während andere zu über 95 % aus Introns bestehen. Beim Dystrophin-Gen – mit 2,5 Millionen Basenpaaren das größte menschliche Gen – besteht das daraus codierte Protein aus 3685 Aminosäuren. Der Anteil der codierenden Basenpaare beträgt somit 0,44 %. In der nachfolgenden Tabelle sind einige typische Gene und die daraus codierten Proteine aufgeführt. Genaktivität und Regulation. Gene sind dann „aktiv“, wenn ihre Information in RNA umgeschrieben wird, das heißt, die Transkription stattfindet. Je nach Funktion des Gens entsteht also mRNA, tRNA oder rRNA. In der Folge kann also, muss aber nicht zwingend, bei mRNA aus dieser Aktivität auch ein Protein translatiert werden. Eine Übersicht über die Vorgänge bieten die Artikel Genexpression und Proteinbiosynthese. Die Aktivität einzelner Gene wird über eine Vielzahl von Mechanismen gesteuert und kontrolliert. Ein Weg ist die Steuerung über die Rate ihrer Transkription in hnRNA. Ein anderer Weg ist der Abbau der mRNA, bevor sie beispielsweise über siRNA translatiert wird. Kurzfristig erfolgt die Genregulation durch Bindung und Ablösung von Proteinen, sogenannten Transkriptionsfaktoren, an spezifische Bereiche der DNA, die sogenannten „regulatorischen Elemente“. Langfristig wird dies über Methylierung oder das „Verpacken“ von DNA-Abschnitten in Histon­komplexe erreicht. Auch die regulatorischen Elemente der DNA unterliegen der Variation. Der Einfluss von Änderungen in der Genregulation einschließlich der Steuerung des alternativen Splicings dürfte vergleichbar mit dem Einfluss von Mutationen proteincodierender Sequenzen sein. Mit klassischen genetischen Methoden – durch Analyse von Erbgängen und Phänotypen – sind diese Effekte in der Vererbung normalerweise nicht voneinander zu trennen. Lediglich die Molekularbiologie kann hier Hinweise geben. Eine Übersicht über die Regulationsvorgänge von Genen wird im Artikel Genregulation dargestellt. Organisation von Genen. Bei allen Lebewesen codiert nur ein Teil der DNA für definierte RNAs. Die übrigen Teile der DNA werden als nichtcodierende DNA bezeichnet. Sie hat Funktionen in der Genregulation, beispielsweise für die Regulation des alternativen Splicings, und hat Einfluss auf die Architektur der Chromosomen. Der Ort auf einem Chromosom, an dem sich das Gen befindet, wird als Genort bezeichnet. Gene sind darüber hinaus nicht gleichmäßig auf den Chromosomen verteilt, sondern kommen zum Teil in sogenannten Clustern vor. Gencluster können dabei aus zufällig in räumlicher Nähe zueinander liegenden Genen bestehen, oder es handelt sich um Gruppen von Genen, die für Proteine codieren, die in einem funktionellen Zusammenhang stehen. Gene, deren Proteine ähnliche Funktion haben, können aber auch auf verschiedenen Chromosomen liegen. Es gibt Abschnitte auf der DNA, die für mehrere verschiedene Proteine codieren. Der Grund dafür sind überlappende offene Leserahmen. Genetische Variation und genetische Variabilität. Als "genetische Variation" wird das Auftreten von genetischen Varianten (Allele, Gene oder Genotypen) bei individuellen Lebewesen bezeichnet. Sie entsteht durch Mutationen, aber auch durch Vorgänge bei der Meiose („Crossing over“), durch die Erbanlagen der Großeltern unterschiedlich auf die Geschlechtszellen verteilt werden. Für die Entstehung neuer Gene können ebenfalls Mutationen oder De-novo-Entstehung ursächlich sein. Genetische Variabilität ist dagegen die Fähigkeit einer gesamten Population, Individuen mit unterschiedlichem Erbgut hervorzubringen. Hierbei spielen nicht nur genetische Vorgänge, sondern auch Mechanismen der Partnerwahl eine Rolle. Die genetische Variabilität spielt eine entscheidende Rolle für die Fähigkeit einer Population, unter veränderten Umweltbedingungen zu überleben, und stellt einen wichtigen Faktor der Evolution dar. RNA-Gene in Viren. Obwohl bei allen zellbasierten Lebensformen Gene als DNA-Abschnitte vorliegen, gibt es einige Viren, deren genetische Information in Form von RNA vorliegt. RNA-Viren befallen eine Zelle, die dann sofort mit der Produktion von Proteinen direkt nach Anleitung der RNA beginnt; eine Transkription von DNA nach RNA entfällt. Retroviren hingegen übersetzen ihre RNA bei der Infektion in DNA, und zwar unter Mitwirkung des Enzyms Reverse Transkriptase. Pseudogene. Als Gen im engeren Sinne bezeichnet man in der Regel eine Nukleotidsequenz, die die Information für ein Protein enthält, das unmittelbar funktionsfähig ist. Pseudogene stellen dagegen Genkopien dar, die kein funktionelles Protein in voller Länge codieren. Oftmals sind diese durch Genduplikationen entstanden und/oder durch Mutationen, die sich in der Folge ohne Selektion auch im Pseudogen akkumulieren (anhäufen), und ihre ursprüngliche Funktion verloren haben. Einige scheinen dennoch eine Rolle bei der Regulierung der Genaktivität zu spielen. Das menschliche Genom enthält etwa 20.000 Pseudogene. Das Humangenomprojekt wurde mit dem Ziel gegründet, das Genom des Menschen vollständig zu entschlüsseln. Springende Gene. Sie werden auch als Transposons bezeichnet und sind mobile Erbgutabschnitte, die sich innerhalb der DNA einer Zelle frei bewegen können. Aus ihrem angestammten Ort im Erbgut schneiden sie sich selbst aus und fügen sich an einer beliebig anderen Stelle wieder ein. Biologen um Fred Gage vom Salk Institute for Biological Studies in La Jolla (USA) haben nachgewiesen, dass diese springenden Gene nicht nur wie bislang angenommen in den Zellen der Keimbahn vorkommen, sondern auch in Nerven-Vorläuferzellen aktiv sind. Forschungsergebnisse von Eric Lander et al. (2007) zeigen, dass Transposons eine wichtige Funktion haben, indem sie als "kreativer Faktor" im Genom wichtige genetische Innovationen rasch im Erbgut verbreiten können. Gordian III.. Marcus Antonius Gordianus (* 20. Januar 225; † 244), auch bekannt als Gordian III., war von 238 bis 244 römischer Kaiser. Herkunft. Marcus Antonius Gordianus wurde am 20. Januar 225 in Rom geboren. Die Namen seiner Eltern in der spätantiken "Historia Augusta" sind fiktiv. Als sehr wahrscheinlich gilt, dass seine Mutter Antonia Gordiana eine Tochter von Gordian I. und damit Schwester des Gordian II. war. Wohl im Sommer 241 heiratete er Furia Sabinia Tranquillina, Tochter seines späteren Prätorianerpräfekten Gaius Furius Sabinus Aquila Timesitheus. Die Ehe blieb kinderlos. Erlangung der Herrschaft. Nach dem Tod der beiden Gordiane im Januar oder März 238 übernahm der Senat notgedrungen den Widerstand gegen den amtierenden Kaiser Maximinus Thrax, den man zuvor zum Staatsfeind erklärt hatte, und ernannte zwei gleichrangige "Augusti" aus den eigenen Reihen, Balbinus und Pupienus. Die stadtrömische Bevölkerung setzte mit Hilfe der Prätorianer, die sich durch das Vorgehen des Senates in der Kaiserwahl übergangen fühlten, die Ernennung des 13-jährigen Gordian (III.) zum "Caesar" und "princeps iuventutis" durch. Nach Maximinus’ gewaltsamen Tod bei Aquileia (zwischen April und Juni 238) traten offensichtliche Differenzen zwischen Balbinus und Pupienus hervor. Beide strebten die alleinige Herrschaft an. In dieser Situation ergriffen die Prätorianer die Initiative: Sie töteten die beiden "Augusti" im Kaiserpalast und zwangen den Senat zur Anerkennung von Gordians Herrschaftsanspruch. Gordian wurde daraufhin (wohl im Juli/August 238) zum alleinigen Kaiser proklamiert. Regierung. Zu Beginn seiner Herrschaft stand Gordian III. unter dem Einfluss des Senats, der den Kaiser durch einen Beraterstab lenkte. Innenpolitisch galt es zunächst, die Lage nach den chaotischen Verhältnissen der ersten Monate des Jahres 238 zu stabilisieren. Das bedeutete, die Autorität der Regierung auf Basis der Akzeptanz durch Heer und Senat (bzw. formal auch der stadtrömischen Bevölkerung) wiederherzustellen. Als Zeichen des Konsenses wurde zunächst die "Legio III Augusta", die unter dem mauretanischen Statthalter Capelianus die Erhebung der Gordiane in der Provinz "Africa" niedergeschlagen hatte, aufgelöst (was bald zu militärischen Problemen im nun fast wehrlosen Nordafrika führen sollte). Neuer Prätorianerpräfekt wurde der Senator Aedinius Julianus - eine ungewöhnliche Entscheidung, da der Posten eigentlich Rittern vorbehalten war. Der Provinzstatthalter von "Hispania Citerior", Quintus Decius Valerinus, der Gordian III. die Anerkennung verweigert hatte, wurde gegen Ende 238 abgelöst. Die stadtrömische "plebs" wurde durch Zuwendungen und die Ausrichtung von Spielen besänftigt, und dem Heer wurden die bei Herrscherwechseln üblichen Geldzahlungen (Donative) versprochen. Der Steuerdruck auf die Reichsbevölkerung wurde leicht gemindert und die Selbstverwaltung der Städte gestärkt. Zeugnis der vielfältigen Maßnahmen ist eine spürbare Steigerung der Rechtsaktivitäten zu Beginn der Herrschaft Gordians III. Die enorme finanzielle Belastung führte allerdings zu einer Geldentwertung mit spürbaren Auswirkungen auf Preise und Löhne. In den Jahren 239 und 241 bekleidete Gordian selbst das Konsulat. Im Jahr 240 wurde Sabinianus in Karthago zum Kaiser ausgerufen. Die Usurpation wurde aber durch den Statthalter von Mauretanien noch im selben Jahr niedergeschlagen. Im gleichen Jahr fiel die wichtige, mit Rom verbündete Grenzstadt Hatra in Mesopotamien an das erstarkende neupersische Sassanidenreich. Die Perser überschritten den Euphrat und bedrohten Antiochia und die Provinz "Syria". Die persische Bedrohung sollte die letzten Regierungsjahre Gordians III. prägen (siehe auch "Römisch-Persische Kriege"). Die Römer reagierten mit den Vorbereitungen zu einem Perserfeldzug, den wohl bereits Pupienus und Balbinus beschlossen hatten. Mit dieser Aufgabe wurde der Ritter Gaius Furius Sabinus Aquila Timesitheus beauftragt. Timesitheus wurde Anfang 241 zum Prätorianerpräfekten ernannt und führte von nun an die Regierungsgeschäfte für den Kaiser, auf den er großen Einfluss gewann. Die Vorbereitungen waren Anfang 242 abgeschlossen. Nach der rituellen Öffnung der Tore des Janustempels (wohl zum letzten Mal in der Antike) begab sich der Kaiser mit dem Heer in den Osten. Im Herbst 242 erreichte das Heer Antiochia und konnte die Sicherheit in der Provinz wiederherstellen. Ende 242 oder Anfang 243 starb der loyale Timesitheus unter unbekannten Umständen, ihm folgte sein Stellvertreter Philippus Arabs im Amt des Prätorianerpräfekten nach. Zu Beginn des Jahres 243 rückten die römischen Legionen in die Provinz Mesopotamien ein und schlugen die Armee des Perserkönigs Schapur I., der inzwischen die Nachfolge seines Vaters Ardaschir I. angetreten hatte, in der Schlacht bei Resaina (vermutlich noch unter der Führung des Timesitheus). Damit war die Kontrolle über die Provinz Mesopotamien wiederhergestellt. Gegen Herbst 243 stieß das römische Heer wahrscheinlich gegen die persische Hauptresidenz Ktesiphon vor, doch erlitten die Römer Anfang 244 bei Mesiche eine schwere Niederlage. Tod. Gordian III. starb wohl im Februar 244. Sowohl über den Ort als auch über die genauen Todesumstände liegen uns in den Quellen unterschiedliche Versionen vor. Möglicherweise befand er sich schon wieder auf dem Rückweg außerhalb des persischen Gebiets, als er einer Meuterei der Soldaten zum Opfer fiel. Es wird oft angenommen, dass Philippus Arabs aus eigenem Machtstreben zumindest die Diskreditierung Gordians III. beim Heer betrieb, wenn nicht gar für seine Ermordung direkt verantwortlich war, doch ist dies umstritten. Die persische Darstellung, nach der Gordian infolge der Schlacht von Mesiche fiel, wird aber von mehreren Forschern als durchaus glaubwürdig angesehen, zumal auch spätere byzantinische Quellen (etwa Johannes Zonaras), die auf älteres Material zurückgreifen konnten, nicht auf eine Ermordung des Kaisers hinweisen. Die Quellen zeichnen ein recht positives Bild von ihm – nur in der "Historia Augusta" erscheint er im Angesicht des Todes recht jämmerlich –, können aber nicht verleugnen, dass er wohl alles in allem aufgrund seiner Jugend ein schwacher und von seiner Umgebung abhängiger Herrscher war. Porträts. Gordian III. gehörte zu den sogenannten Kinderkaisern Roms. Trotz der relativ kurzen Dauer seines Wirkens konnte die Forschung fünf Bildnistypen ausmachen. a) Typ 1 (Archetypus, vor Regierungsantritt) Die Bildnisse zeigen wenig differenziert ausgearbeitete, symmetrische Gesichtszüge. Die Physiognomie Gordians III. ist dennoch erkennbar, wenn auch die für Gordian typischen Gesichtsfalten noch fehlen. Ein Beispiel für diesen Typ findet sich im Konservatorenpalast in Rom (Inv. 995). b) Typ 2 (ca. 238 bis 239) Dieser Bildnistyp stellt Gordian III. mit zwei Querfalten auf der Stirn und zwei senkrechten Falten über der Nasenwurzel dar. Der Kaiser blickt äußerst konzentriert. Das Stilmittel der Querfalten, die sich in späteren Bildnistypen kaum mehr finden, sowie des wachen Blicks sind offensichtlich zur Darstellung von Herrscherwürde und Reife angewandt worden. Das Leitstück für diesen Typ stellt die Trabeabüste im Pergamonmuseum in Berlin dar. c) Typ 3 (ca. 238 bis 239) Das Bestimmungsmerkmal dieses Typs, der offenbar zeitgleich mit Typ 2 kursierte, ist die gewollte Ähnlichkeit mit Severus Alexander. Dazu wurden andere Stilmittel als bei Typ 2 verwendet. Die Konturen sind nicht so hart ausgeführt und die Querfalten auf der Stirn fehlen. Dadurch strahlen die Bildnisse mehr Ruhe und Milde aus. Das Leitstück für diesen Typ stellt eine Büste im Louvre in Paris dar (Inv. 2331). d) Typ 4 (ca. 240 bis 242) Dieser Bildnistyp verzichtet sowohl auf die Strenge des Typs 2 als auch auf die Nachahmung der Physiognomie von Severus Alexander aus Typ 3. Durch ein markanteres und annähernd rechteckiges Schädelprofil, durch angedeuteten Bartwuchs und die Führung der Augenbrauen wirkt der Kaiser reifer und strahlt Optimismus aus. Das Leitstück für diesen Typ stellt eine Büste im Konservatorenpalast in Rom dar (Inv. 479). e) Typ 5 (ca. 242 bis 244) Diese letzten Bildnisse Gordians III. sind in den Proportionen des Typs 4 in der Länge gestreckt, vielleicht um den Herrscher im Zuge des Perserkrieges heroisch entrückt darzustellen. Das Leitstück für diesen Typ stellt eine Panzerbüste im Louvre in Paris dar (Inv. 1063). Quellen. Gordian III. ist in einer ganzen Reihe von Quellen belegt, darunter in Auch wenn keine dieser Quellen als besonders zuverlässig gilt und die späteren vielfach auf den früheren beruhen, so ergeben sie doch in ihrer Gesamtheit ein relativ klares Bild vom Leben Gordians, schildern ihn aber vielleicht insgesamt zu positiv. Geisteswissenschaft. Der Begriff Geisteswissenschaft(en) ist in der deutschsprachigen Denktradition eine Sammelbezeichnung für aktuell rund 40 unterschiedliche Einzelwissenschaften („Disziplinen“), die mit unterschiedlichen Methoden Gegenstandsbereiche, welche mit kulturellen, geistigen, medialen, teils auch sozialen bzw. soziologischen, historischen, politischen und religiösen Phänomenen zusammenhängen, untersuchen. Die meisten Geisteswissenschaften betreiben dabei also auch in einem gewissen Maße Anthropologie, da in allen Disziplinen der Mensch und seine Hervorbringungen im Mittelpunkt stehen (→ Anthropologie). Eine einheitliche Begründung der Geisteswissenschaften wurde von Wilhelm Dilthey auf Basis einer philosophischen Lehre vom Sinn und Verstehen von Lebensäußerungen (Hermeneutik) angestrebt. Begriffsgeschichte. Das Wort „Geisteswissenschaft“ ist schon in einer 1787 anonym verfassten Schrift mit dem Titel "Wer sind die Aufklärer?" belegt, wo es heißt: „Wenn sage ich, Geistliche, die doch in der Gottesgelehrtheit und Geisteswissenschaft sorgfältigst sind unterrichtet worden...“ Der Autor bezieht sich also noch auf eine Theorie der „Pneumatologie des Geistes“. Damit ist eine Wissenschaft gemeint, welche Erklärungen gibt, die sich nicht auf natürliche, sondern „geistige“ Ursachen beziehen. In diesem Sinne redet auch z. B. Gottsched von einer „Geisterlehre“. Fritz van Calker und Friedrich Schlegel verwenden „Geisteswissenschaft“ als Synonym für Philosophie überhaupt. Näher am heutigen Wortsinn ist, was David Hume mit „moral philosophy“ meint, was Jeremy Bentham als „Pneumatologie“ von „Somatologie“ abgrenzt und was Ampère „Noologie“ im Gegensatz zur „Kosmologie“ nennt. John Stuart Mill bezeichnet in seinem System der deduktiven und induktiven Logik von 1843 mit „moral sciences“ die Disziplinen Psychologie, Ethologie und Soziologie. Mill bezieht dabei die induktive Logik auf die Datenbeschaffung aus geschichtlichen und gesellschaftlichen Phänomenen, weshalb die moral sciences so ungenau seien wie z. B. die Meteorologie. Jacob Heinrich Wilhelm Schiel hatte in einer ersten Übersetzung (in der zweiten nicht mehr) für moral sciences „Geisteswissenschaft“ gesetzt. Diese Verwendung dürfte zwar einflussreich gewesen sein, aber der deutsche Ausdruck wurde "nicht", wie früher oft angenommen, als Lehnübersetzung aus Mill geprägt, sondern ist, wie angezeigt, schon früher zu finden. Georg Wilhelm Friedrich Hegel, Franz Hillebrand und andere deutsche Autoren sprechen von einer Geisteslehre oder Geisteswissenschaft. Hegels Geist-Begriff bezieht sich dabei nicht nur auf Individuen, sondern auch Gruppen und als objektiver Geist auf die Welt überhaupt. Etwa im heutigen Sinne tritt das Wort „Geisteswissenschaft“ bei dem sonst unbekannten Ernst Adolf Eduard Calinich (* 25. März 1806 in Bautzen – 1824 stud.phil. in Leipzig, Mitglied in der Lausitzer Predigergesellschaft – 1844 Vizedirektor am Seminar in Dresden) auf, der 1847 zwischen der „naturwissenschaftlichen und der geisteswissenschaftlichen Methode“ unterscheidet, eine Zweiheit, von der unspezifisch auch schon 1824 bei W. J. A. Werber die Rede ist. Der Ausdruck „Geisteswissenschaft“ bekommt seine Prägnanz wesentlich durch Wilhelm Dilthey ("Einleitung in die Geisteswissenschaften", 1883) und ist eng mit den politischen und universitären Voraussetzungen im deutschen Sprachgebiet verbunden. Prägend ist dabei u. a. die Ausbildung der historischen Schule im Gefolge u. a. von Friedrich Carl von Savigny, Leopold von Ranke und Johann Gustav Droysen, die in kritischer Absetzung u. a. zu Hegel ein Ideal für Näherbestimmungen des methodischen Propriums von „Geisteswissenschaften“ vorgibt. Dilthey definierte die Geisteswissenschaften in scharfer Entgegensetzung zu den Naturwissenschaften durch die ihnen eigene Methode des Verstehens, wie sie als Hermeneutik seit Friedrich Schleiermacher auch außerhalb der Philologie gebräuchlich geworden war. Dilthey suchte sie als „Erfahrungswissenschaft der geistigen Erscheinungen“ beziehungsweise als „Wissenschaft der geistigen Welt“ zu begründen. Sie sollte eine ursprünglich konzipierte „Kritik der historischen Vernunft“ empirisch erweitern. Dilthey griff zur Wortbildung „Geisteswissenschaften“ Hegels Begriff des Geistes auf. Hegel bezog den Begriff „Geist“ auf das „Geistesleben“ einer Gruppe, eines Volkes oder einer Kultur. Der Begriff ist daher stark an die deutsche idealistische Tradition und Hegels Konzept des objektiv-objektivierten Geistes gebunden. Dies ist bis heute Grund dafür, dass er sich kaum übersetzen lässt. Übliche Analoga sind "humanities", "(liberal) arts" und "human studies". Das französische Analogon ist meist "sciences humaines". Wichtig für die frühe Konzeption der Geisteswissenschaften waren die Gegensatzpaare Geist–Natur, Geschichte–Naturwissenschaft, Verstehen-Erklären. Während die Naturwissenschaft versuchte, die Natur aufgrund ewiger Gesetze zu "erklären", sah man es als Aufgabe einer historisch ausgerichteten Geisteswissenschaft, das Geistesleben vergangener Völker in ihrer Einmaligkeit zu "verstehen". Zu Mitte und Ende des 19. Jh. orientieren sich außerdem viele Autoren an kantischer Erkenntnistheorie und v. a. am sog. Psychologismus. So definiert etwa Wilhelm Wundt, dass die Geisteswissenschaften ansetzen, „wo der Mensch als wollendes und denkendes Subject ein wesentlicher Faktor der Erscheinungen ist“. Theodor Lipps definierte - bezogen auf das Individuum - die 'Geisteswissenschaft' als 'Wissenschaft der inneren Erfahrung'. Er hielt die individuelle 'innere Erfahrung' für den grundlegenden Maßstab von Erkenntnistheorie, Logik, Psychologie und Wahrnehmung. Ähnlich die „Südwestdeutsche Schule“ des Neukantianismus (Wilhelm Windelband, Heinrich Rickert). Im Sinne von Psychologismus und historischer Schule wird hier postuliert: Geisteswissenschaften sind ideographisch, nicht nomothetisch (Windelband); sie sind individualisierend und wertbezogen, nicht generalisierend (H. Rickert), „auf historische Einmaligkeiten und nicht nur auf Gesetzmäßigkeiten gerichtet“. Rickert nennt die Geisteswissenschaften, da er sie auf Kulturwerte bezieht, auch „Kulturwissenschaften“. Auch Max Weber und Ernst Troeltsch stehen dieser Wertphilosophie nahe. Die Marburger Schule (Hermann Cohen u. a.) dagegen sieht die Logik der Geisteswissenschaften in der Rechtswissenschaft. Um 1900 ist dann der lebensphilosophische Geistbegriff u. a. Diltheys weithin prägend, so etwa bei Philosophen und Pädagogen wie Nicolai Hartmann, Otto Friedrich Bollnow, Eduard Spranger, Theodor Litt, Herman Nohl, Georg Misch, Hans Freyer und Erich Rothacker. Im Gefolge des Linkshegelianismus wird die nach Hegel und der Lebensphilosophie übliche Rede von „Geisteswissenschaften“ Mitte des 20. Jh. im marxistischen Sprachgebrauch weitgehend ersetzt durch „Sozialwissenschaften“ oder „Gesellschaftswissenschaften“. Der Begriff umfasst im „deutschen Sprachgebrauch sämtliche Wissenschaften, die nicht Naturwissenschaften sind (mit Ausnahme der Mathematik), also alle, die in der theologischen, juristischen und philosophischen (d.i. philologisch-historischen) Fakultät gepflegt werden“. Auch wenn in den Geisteswissenschaften heute noch davon ausgegangen wird, dass sich kulturelle Bedeutungszusammenhänge, Sinnstrukturen, Verstehens- und Wahrnehmungsweisen nicht allein im Rahmen einer naturwissenschaftlichen Betrachtungsweise behandeln lassen, so ist die starke Opposition zwischen den Disziplinen inzwischen verschwunden, und es wird versucht, durch interdisziplinäre Ansätze beide Zugangsweisen zu kombinieren. Gesellschaftlicher Hintergrund. Über diese erkenntnistheoretischen Erörterungen hinaus führten jedoch auch politische und soziale Absichten zu solchen Schlüssen: Die Nützlichkeit technischer Neuerungen täuschte nach der Julirevolution von 1830 und der Märzrevolution von 1848 über den gescheiterten gesellschaftlichen Konsens hinweg. Die aufstrebenden Natur- und Ingenieurwissenschaften stützten mindestens vordergründig die restaurative Macht des Spätabsolutismus. Hermeneutik hat dagegen mit einem stets neu zu findenden und zu erhaltenden Konsens von Beobachtern zu tun und entzieht sich der empirischen Nachweisbarkeit in Spurensicherung oder Experiment, die mit Erfolg gegen ältere wissenschaftliche Methoden ausgespielt wurden. Um dem gewachsenen Anspruch auf Wertfreiheit und Objektivität zu genügen, musste sich allerdings auch die Hermeneutik vermehrt der Spurensicherung bedienen. Dieses Konzept einer Wissenschaft erschien Dilthey verteidigenswert. Der Aufschwung der Naturwissenschaften seit Anfang des 19. Jahrhunderts war einhergegangen mit der Herausbildung neuartiger Disziplinen im Rahmen der alten Philosophischen Fakultät, die sich durch rigorose Methodik auszeichneten; die alte Einheit war unwiederbringlich verloren. Damit war ein Großteil der alten Fächer in Frage gestellt. Das Konzept der Geisteswissenschaften half diesen, sich zu behaupten und zu modernisieren. So haben sich die alten Fakultätswissenschaften Theologie und Rechtswissenschaft erfolgreich als Geisteswissenschaften neu definiert. Eine ähnliche und parallel laufende Unterscheidung ist die zwischen nomothetischen („regelsetzenden“) und idiographischen („beschreibenden“) Wissenschaften, die manchmal dazu dient, die Sozialwissenschaften als nomothetisch abzugrenzen. Sie geht auf Wilhelm Windelband zurück. Ein weiterer wichtiger Faktor für die Entstehung der Geisteswissenschaften war das Verhältnis zwischen Universität und Staat: Im 19. Jahrhundert hatten sich die bürgerlichen Gelehrten, Künstler und Literaten einen Geistesadel und eine Hochkultur geschaffen, und diesen „Geist“ galt es nicht zuletzt gegenüber der führenden Oberschicht zu behaupten. Der Adel dagegen benötigte keine Reputation durch künstlerische oder wissenschaftliche Betätigung. Er zog sich zurück und tendierte eher zur populären Unterhaltung. Ob eine Geschichtlichkeit von „Seelenvorgängen“ (Dilthey) etwas Kollektives sein kann, war nicht zuletzt eine politische Haltung. Georg Friedrich Hegel betrachtete den Geist als etwas Überindividuelles, nicht bloß Subjektives. Dies traf in einer Zeit der fehlenden staatlichen Einheit und der missglückten Emanzipation des Bürgertums von partikularisierenden Interessen des Adels auf breite Zustimmung. Mehr als in anderen Sprachgebieten ist im deutschen das Wollen und Handeln („Wirken“) eines gemeinschaftlichen Geistes behauptet worden. Aus dieser Tradition heraus entstanden Allgemeinbegriffe wie Zeitgeist, „Geist einer Nation“, „Geist einer Epoche“. Max Weber sprach von einem „Geist“ des Kapitalismus ("Die protestantische Ethik und der „Geist“ des Kapitalismus", 1904/05). Dieser Begriff des Geistes, der Institutionen, Strukturen und Erklärungsmuster zu etwas von sich aus Lebendigem macht, blieb nicht unumstritten. So gab es immer den Vorwurf, dass die traditionellen Autoritäten de facto durch technische und bürokratische Apparate ersetzt worden seien, die die Willensfreiheit zum Sachzwang machten. Eine ähnliche Ansicht hat Friedrich Kittler mit seiner Forderung einer „Austreibung des Geistes aus den Geisteswissenschaften“ vertreten. In der interdisziplinär angelegten Aktion Ritterbusch wurden Geisteswissenschaften in die völkische Ideologie des Nationalsozialismus und die Verherrlichung des Krieges eingebunden. Als Gegenbewegung nach dem Zweiten Weltkrieg erfolgte eine starke Individualisierung. Die wissenschaftliche Würdigung großer Persönlichkeiten und ihrer Werke blendete mitunter ihre geschichtlichen Bedingtheiten aus. In der Literaturwissenschaft wurde die werkimmanente Interpretation üblich. Der Titel der 1959 erschienenen These der Zwei Kulturen von C. P. Snow wurde zum Schlagwort: Geisteswissenschaften (englisch "humanities") und Naturwissenschaften trennen unvereinbare Wissenschaftskulturen, die sich derart diametral gegenüberstehen, dass eine Kommunikation unmöglich scheint. Als Reaktion auf diese stark rezipierte Studie erschien im Jahr 1995 John Brockmans "Die dritte Kultur" als Vision einer Vermittlung zwischen den Wissenschaften. Wissenschaftsgliederung. Wie die Begriffsgeschichte illustriert, hat der Ausdruck „Geisteswissenschaft“ eine wechselhafte Verwendung erfahren. Bis in die Gegenwart hat die Vielfalt unterschiedlicher Einzelwissenschaften weiter zugenommen, wobei unterschiedliche institutionelle Systematiken entstanden, etwa was die unterschiedliche verwaltungsmäßige Zusammenlegung zu universitären Fachbereichen und Fakultäten betrifft. Unter die verschiedenen heute gebrauchten Sammelbegriffe zählen beispielsweise neben „Geisteswissenschaften“ Bezeichnungen wie Sozialwissenschaften, Naturwissenschaften, Humanwissenschaften (Wissenschaften, die irgendeinen Aspekt der Menschen zum Untersuchungsgegenstand haben, wie neben Geistes- und Sozialwissenschaften Humanbiologie, Medizin u. a.), Kulturwissenschaften, Lebenswissenschaften usw. Auch hier besteht im Detail und in Grenzfällen, v.a. was neuere interdisziplinäre Fächer und Studiengänge betrifft, kein Konsens über Begriffsbestimmung oder Begriffsumfang, also insbesondere darüber, welche faktischen Studiengänge aus welchen kriteriologischen Gründen unter welchen dieser Sammelbegriffe gehören. Zahlreiche Theoretiker sowie eine Vielzahl der Institute rechnen weder die Sozial- und Wirtschaftswissenschaften noch die Humanwissenschaften (im engeren Sinne) zu den Geisteswissenschaften. Aufgabe der Geisteswissenschaften. „Die Geisteswissenschaften helfen den Traditionen, damit die Menschen die Modernisierung aushalten können; sie sind […] nicht modernisierungsfeindlich, sondern – als Kompensation der Modernisierungsschäden – gerade modernisierungsermöglichend. Dafür brauchen sie die Kunst der Wiedervertrautmachung fremd gewordener Herkunftswelten.“ „Die Geisteswissenschaften sind der ‹Ort›, an dem sich moderne Gesellschaften ein Wissen von sich selbst in Wissenschaftsform verschaffen. […] es ist ihre Aufgabe, dies in der Weise zu tun, daß ihre Optik auf das kulturelle Ganze, auf Kultur als Inbegriff aller menschlichen Arbeit und Lebensformen, auf die kulturelle Form der Welt geht, die Naturwissenschaften und sie selbst eingeschlossen.“ "Jedenfalls gab und gibt es eine große Fraktion innerhalb der technischen und naturwissenschaftlichen Disziplinen, die [...] die eminent wichtige Funktion der Geisteswissenschaften [übersieht], die zu großen Teilen das historisch-kulturelle Erbe bewahren, auch das von technisch-naturwissenschaftlichen Errungenschaften, z.B. in der Wissenschaftsgeschichte, an der unter anderem auch die Kunstgeschichte maßgeblich beteiligt ist. Darüber hinaus halten die Geisteswissenschaften institutionell auch eine Reflexion über die Selbstverständigung der Gesellschaft lebendig in Gang, die über reines Effizienzdenken hinausgeht." Kritik. Hans Albert hat den methodologischen Autonomieanspruch der Geisteswissenschaft als solchen kritisiert. Er vertritt demgegenüber, dass es für Wissenschaft grundsätzlich gesehen nur eine einheitliche Methode gebe. Damit leugnet er aber keineswegs, dass das (Sinn-)Verstehen eine für die Geisteswissenschaften spezifische Funktion hat; nur ist dies nach Albert keine methodologische, sondern eine der Rolle der Wahrnehmung in den Naturwissenschaften vergleichbare Funktion, ein „Sonderfall der Wahrnehmung". Göttingen. Luftbild von Göttingen (2006 von Nordwesten fotografiert) Göttingen () ist eine Universitätsstadt in Südniedersachsen. Mit einem Anteil von rund 20 Prozent Studenten an der Bevölkerung ist das städtische Leben stark vom Bildungs- und Forschungsbetrieb der Georg-August-Universität, der ältesten und größten Universität Niedersachsens, und zweier weiterer Hochschulen geprägt. Das erstmals 953 als "Gutingi" urkundlich erwähnte Dorf am Fluss Leine erlangte um 1230 die Stadtrechte. Göttingen wurde 1964 zur Großstadt und ist heute eines der neun Oberzentren von Niedersachsen. Die Kreisstadt und größte Stadt des Landkreises Göttingen wurde 1964 als bis dahin kreisfreie Stadt durch das vom Niedersächsischen Landtag verabschiedete Göttingen-Gesetz in den gleichnamigen Landkreis integriert, ist jedoch weiterhin den kreisfreien Städten gleichgestellt. Göttingen liegt im Süden der Europäischen Metropolregion (EMR) Hannover-Braunschweig-Göttingen-Wolfsburg. Geografie. Göttingen liegt am Leinegraben an der Grenze der "Leine-Ilme-Senke" zum Göttinger Wald und wird in Süd-Nord-Richtung von der Leine durchflossen, der nördliche Stadtteil Weende von der Weende, mehrere nordöstliche Stadtgebiete von der Lutter und mehrere westliche Stadtbereiche von der Grone. Wenige Kilometer weiter nördlich schließt sich der Nörtener Wald an. Am südlichen Stadtrand von Göttingen liegt der vom Wasser der Leine gespeiste Göttinger Kiessee, drei Kilometer südlich davon der Rosdorfer Baggersee. Das zu Göttingen gehörende Gebiet liegt auf 138 bis 427 m ü. NN westlich der Berge Kleperberg (332 m) und Hainberg (315 m), wobei die Mackenröder Spitze (427 m) an der Ostgrenze des Göttinger Walds der höchste Berg Göttingens ist. Im Stadtgebiet sowie westlich der Leine liegen mit gleichnamigen Stadtvierteln der Hagenberg (auch Kleiner Hagen genannt; 174 m) und ungefähr 2 km südlich davon die sanfte Erhöhung des Egelsbergs. An der westlichen Stadtgrenze erheben sich Knutberg (363 m) und Kuhberg (288 m). Das direkt westlich des Göttinger Walds befindliche Göttingen liegt zwischen Solling (etwa 34 km nordwestlich), Harz (etwa 60 km nordöstlich), Kaufunger Wald (etwa 27 km süd-südwestlich), Dransfelder Stadtwald (13 km südwestlich) und Bramwald (19 km westlich); die Entfernungen beziehen sich per Luftlinie gemessen auf die Strecke Göttingen-Innenstadt bis zu den Zentren und Hochlagen der jeweiligen Mittelgebirge. Naturschutzgebiete. Im Gebiet der Stadt Göttingen sind zur Erhaltung wertvoller und gefährdeter Lebensräume zwei Naturschutzgebiete ausgewiesen: Das Naturschutzgebiet "Stadtwald Göttingen und Kerstlingeröder Feld" wurde im Mai 2007 ausgewiesen und umfasst eine Fläche von 1193 Hektar, das Naturschutzgebiet Bratental in den Gemarkungen Nikolausberg und Roringen besteht seit September 1982 und umfasst 115 Hektar in drei räumlich voneinander getrennten Flächen. Klima. Die Stadt Göttingen liegt innerhalb der gemäßigten Breiten im Übergangsbereich zwischen ozeanisch und kontinental geprägten Gebieten. Die Jahresmitteltemperatur beträgt 8,7 °C, die durchschnittliche jährliche Niederschlagsmenge liegt bei 644 mm. Die wärmsten Monate sind Juli mit durchschnittlich 17,1 °C und August mit 16,7 °C und die kältesten Januar mit 0,3 °C und Februar mit 1,0 °C im Mittel. Der meiste Niederschlag fällt im Juni mit durchschnittlich 81 mm, der geringste im Februar mit durchschnittlich 39 mm. Im Mai ist mit 6,3 Stunden täglich der meiste Sonnenschein zu erwarten. Stadtgliederung. Das Stadtgebiet Göttingens ist in 18 Stadtbezirke und Stadtteile eingeteilt. Einige Stadtteile sind allein oder mit benachbarten Stadtteilen zusammen Ortschaften im Sinne des Niedersächsischen Kommunalverfassungsgesetzes (NKomVG). Sie haben einen vom Volk gewählten Ortsrat, der je nach Einwohnerzahl der Ortschaft zwischen 9 und 13 Mitglieder hat; deren Vorsitzender ist ein Ortsbürgermeister. Die Ortsräte sind zu wichtigen, die Ortschaft betreffenden Angelegenheiten zu hören. Die endgültige Entscheidung über eine Maßnahme obliegt jedoch dem Rat der Stadt Göttingen. Nachbargemeinden. Folgende Gemeinden grenzen an die Stadt Göttingen. Sie werden im Uhrzeigersinn beginnend im Norden genannt und gehören alle zum Landkreis Göttingen: Flecken Bovenden, Waake und Landolfshausen (beide Samtgemeinde Radolfshausen), Gleichen, Friedland, Rosdorf, Stadt Dransfeld (Samtgemeinde Dransfeld) und Flecken Adelebsen. Ur- und Frühgeschichte. Das Stadtgebiet Göttingens ist seit der frühen Jungsteinzeit besiedelt, wie zahlreiche Fundstellen der bandkeramischen Kultur zeigen. Eine dieser Fundstellen wurde beim Bau des heutigen Einkaufszentrums "Kauf Park" in Grone in den 1990er Jahren von der Stadtarchäologie großflächig ausgegraben. Darüber hinaus finden sich Besiedlungsspuren der Bronze- und Eisenzeit. Dorf Gutingi. Göttingen geht auf ein Dorf zurück, das sich archäologisch bis ins 7. Jahrhundert nachweisen lässt. Dieses Dorf wurde 953 unter dem Namen "Gutingi" erstmals in einer Urkunde Kaiser Ottos I. erwähnt – mit der Beurkundung schenkte der Kaiser dem Kloster St. Moritz in Magdeburg Besitz im damaligen Gutingi – und lag am Ostrand des Leinetalgrabens im Umkreis der heutigen St. Albanikirche auf einem Hügel. Diese Kirche wurde spätestens zu Beginn des 11. Jahrhunderts dem Heiligen Albanus geweiht und ist damit die älteste Kirche Göttingens, auch wenn das heutige Gebäude erst aus dem 14. und 15. Jahrhundert stammt. Neuere archäologische Funde im Bereich des alten Dorfes weisen auf ein ausgebildetes Handwerk hin und lassen auf weitreichende Handelsbeziehungen schließen. Durch das Dorf floss ein kleiner Bach, die Gote, von der das Dorf seinen Namen bezog („-ing“ = „Bewohner bei“). Pfalz Grona. Gedenkstein an der Stelle der früheren Pfalz Grona bei Göttingen Friedenskirche Göttingen auf dem Gelände der ehemaligen Pfalz Grona, Informationstafeln dazu im Kirchturm Während – abgesehen von den archäologischen Funden – über das Schicksal des Dorfes Gutingi im frühen Mittelalter nicht viel bekannt ist, tritt mit der Pfalz Grona (dt. Grone) zwei Kilometer nordwestlich des Dorfes ein Ort deutlicher aus der Geschichte hervor. Als neu erbaute Burg 915 urkundlich erwähnt, wurde sie später zur Pfalz ausgebaut. Diese über dem gegenüberliegenden Ufer der Leine auf dem südlichen Sporn des Hagenbergs gelegene Pfalz gilt mit ihren insgesamt 18 bezeugten Königs- und Kaiseraufenthalten zwischen 941 und 1025 als spezifisch ottonische Pfalz mittleren Ranges. Insbesondere für Heinrich II. und seine Gemahlin Kunigunde war Grone ein beliebter Aufenthaltsort. Hierher zog sich Heinrich II. schwer erkrankt im Sommer 1024 zurück, wo er am 13. Juli 1024 verstarb. Die Burg verlor später ihre Funktion als Pfalz und wurde im 13. Jahrhundert zur Burg der Herren von Grone umgebaut. Zwischen 1323 und 1329 wurde sie von den Bürgern der Stadt Göttingen zerstört. Die Reste wurden 1387 von Herzog Otto III. wegen seiner Fehde mit der Stadt Göttingen abgetragen. Stadtgründung. An der zur Furt über die Leine führenden Straße, westlich des Dorfes, entstand im Laufe der Zeit ein Wik (eine kaufmännische Siedlung), die den Ortsnamen weiterführte und später das Stadtrecht erhielt. Das nunmehr so genannte "Alte Dorf", das der Stadt den Namen gab, war nicht die eigentliche Keimzelle der neuen Stadt; es lag außerhalb der ersten Stadtmauer und ist noch heute als gesonderter Bereich um die Albanikirche und die heutige Lange-Geismar-Straße erkennbar. Unter welchen Umständen die eigentliche Stadt Göttingen entstand, ist nicht exakt zu bestimmen. Man geht davon aus, dass Heinrich der Löwe die Stadtgründung initiierte, die in der Zeit zwischen 1150 und 1180/1200 erfolgte. In der Zeit zwischen den Jahren 1201 bis 1208 wird Pfalzgraf Heinrich, der Bruder Ottos IV., als Stadtherr angegeben. In dieser Zeit wurden bereits von Göttingen aus welfische Besitz- und Herrschaftsrechte wahrgenommen. Zu dieser Zeit wurden erstmals Göttinger Bürger (burgenses) erwähnt, was darauf schließen lässt, dass Göttingen bereits auf spezifisch städtische Weise organisiert war. Die Welfen verwalteten ihren Besitz um Göttingen von einem Hofe aus, der nördlich des alten Dorfes, am heutigen Ritterplan lag und in späterer Zeit zu einer Burg, dem sogenannten Ballerhus (balrus) ausgebaut wurde. Der Ackerflur, welcher in diesem Wirtschaftshof sich befand, wird als Bünde, was gebundenes Land bedeutet, bezeichnet und selbst in spätmittelalterlichen Urkunden noch erwähnt. Die Hofleute besaßen ihren Wohnsitz neben dem Herrensitz. In enger Verbindung zum Hof und zur späteren Burg befand sich zudem die Jakobikirche, welche eine Stiftung Heinrichs des Löwen war und ein südlich angrenzender Hof, der 1303 von Herzog Albrecht an das Kloster Walkenried verkauft wurde. Es liegt nahe, dass durch die Einbeziehung der Jakobikirche und des angrenzenden Hofes der gesamte Burgkomplex im Süden bis an die heutige Speckstraße, sowie bis in die Nähe der Weender Straße gereicht haben mag. Göttingen war jedoch keine Reichsstadt, sondern den welfischen Herzögen von Braunschweig-Lüneburg unterworfen. Die landesherrlichen Statthalter hatten ihre Residenz in der Burg, die in der nordöstlichen Ecke der ältesten, vor 1250 errichteten Stadtbefestigung lag, und an die noch heute der Name Burgstraße erinnert. Gleichwohl mussten die Herzöge der Stadt gewisse Freiheiten zubilligen und Kompromisse schließen. Göttingen wurde in der Frühzeit seiner Geschichte als Stadt in Konflikte der Welfen mit ihren Widersachern im südlichen Niedersachsen hineingezogen. Die Auseinandersetzungen in den ersten Jahrzehnten des 13. Jahrhunderts waren den politischen Interessen der Göttinger Bürger förderlich, und diese konnten die politisch-militärische Situation geschickt ausnutzen und sich umwerben lassen. In einer Urkunde aus dem Jahre 1232 bestätigte Herzog Otto das Kind den Göttingern die Rechte, die sie zur Zeit seiner Onkel – also Otto IV. und Pfalzgraf Heinrich – besessen hätten. Dabei wird es sich um solche Privilegien gehandelt haben, die den Handel erleichterten, am Ort wohnende Kaufleute schützten und Befugnisse der Göttinger Selbstverwaltung absteckten. Er stellte in Aussicht, dass die Stadt nicht in fremde Hände gelangen solle. Es ist davon auszugehen, dass spätestens zu dieser Zeit ein von den Bürgern gestellter Stadtrat und damit ein praktikables Instrument der Selbstverwaltung existierte. Namen von Ratsherren werden erstmals in einer Urkunde aus dem Jahre 1247 genannt. Ausbau und Erweiterung. Städtisches Museum am Ritterplan Ecke Jüdenstraße Der von der alten Stadtbefestigung zunächst geschützte Bereich umfasste den Markt, das heutige alte Rathaus, die beiden Hauptkirchen St. Johannis und St. Jacobi, die kleinere St. Nikolai-Kirche, sowie die wichtigsten Verkehrswege Weender, Groner und Rote Straße. Außerhalb dieser Befestigung, vor dem inneren Geismarer Tor, lag noch das alte Dorf, das danach "Geismarer altes Dorf" genannt wurde, mit der Kirche St. Albani. Das Dorf gehörte im Hochmittelalter nur zu Teilen zum welfischen Herrschaftsbereich und konnte deswegen nicht an den städtischen Privilegien und am Schutz durch die Stadtmauer teilhaben. Geschützt wurde die Stadt zunächst durch Wälle, spätestens Ende des 13. Jahrhunderts durch Mauern auf den Wällen. Von dieser alten Stadtbefestigung ist heute nur in der Turmstraße der "Mauerturm" sowie ein Teil der Mauer erhalten. Das damals befestigte Areal umfasste maximal 600 mal 600 m, etwa 25 ha, und war damit zwar kleiner als Hannover, jedoch übertraf es die benachbarten welfischen Städte Northeim, Duderstadt und Münden. Die Genehmigung zur Errichtung des Walls wurde 1362 von Herzog Ernst von Braunschweig-Göttingen erteilt, der Bau zog sich schließlich über 200 Jahre hin. Nimmt man die von den Landesfürsten angeordnete Anlage von Außenwerken und die notwendigen Instandsetzungsarbeiten und späteren Verbesserungen hinzu, summiert sich die Bauzeit auf insgesamt 400 Jahre. Gewaltige Geldsummen und Anstrengungen waren nötig, um den Wall in einem solchen Zustand zu errichten, wie er heute auf alten Stichen und Plänen zu sehen ist. Zunächst bildete er einen einfachen Graben mit niedrigem Aufwurf, welcher durch Zäune und Knicks, später mittels Planken und einer niedrigen gemauerten Brustwehr verstärkt wurde. In ihrem Endzustand besaß der Wall eine starke Stützmauer und Brustwehr, einen breiten, aus einer Kette von Teichen zusammengesetzten Festungsgraben, mindestens 30 am Außenrand der Wälle errichtete Türme sowie eine Reihe von Schanzen und Außenbastionen. Vier Haupttore entstanden im Kontext zu den jeweiligen Toren der alten Stadtmauer und wurden als "äußere Tore" bezeichnet. Der südlich der Mauern fließende Bach Gote wurde um diese Zeit durch einen Kanal mit der Leine verbunden. Der danach "Leinekanal" genannte Wasserlauf der Leine führte wesentlich mehr Wasser an der Stadt entlang. Im Zuge der welfischen Erbteilungen erhielt 1286 Herzog Albrecht der Feiste die Herrschaft über Südniedersachsen. Er wählte Göttingen zu seinem Herrschaftssitz und zog in die in der nördlichen Altstadt befindliche Burg, das "Ballerhus" (auch "Bahrhus") ein. Von diesem wurde außerhalb der Mauern im Westen auf der gegenüberliegenden Seite des Leinekanals eine Neustadt, ein beidseitig bebauter Straßenzug von nur etwa 80 m Länge, noch vor 1300 angelegt. Albrecht beabsichtigte mit der Neugründung ein Gegengewicht zur wirtschaftlich und politisch schnell wachsenden Stadt zu schaffen, um von diesem Stützpunkt aus seine Macht neu zu festigen. Der Herzog konnte das aufstrebende Göttingen jedoch nicht daran hindern, sich nach Westen weiter auszudehnen, da es dem Göttinger Rat gelang, der Neustadt alle Entwicklungsmöglichkeiten zu verbauen. Nachdem sich das Projekt schlecht entwickelte, kaufte der Rat der Stadt Göttingen diese unangenehme Konkurrenzgründung im Jahre 1319 für nur 300 Mark auf. Im Süden an die Neustadt wurde zunächst als Pfarrkirche der Neustadt die St. Marien-Kirche errichtet, die im Jahre 1318 mitsamt den angrenzenden Höfen dem Deutschen Ritterorden übertragen wurde. Am Rande der Altstadt wurden zudem im späten 13. Jahrhundert zwei Klöster gegründet. Im östlichen Teil der Altstadt, auf dem Gelände des heutigen Wilhelmsplatzes, wurde zunächst ein Franziskanerkloster errichtet. Nach Angaben des späteren Stadtchronisten Franciscus Lubecus sollen sich die Franziskaner bereits seit 1268 dort angesiedelt haben. Das Kloster soll dort bis 1533 bestanden haben. Da die Franziskaner als Ausdruck ihrer Armut und Demut keine Schuhe trugen, wurde ihr Orden im Volksmund "Barfüßer" genannt; daher erhielt die zum Kloster führende Straße ihren heutigen Namen "Barfüßerstraße". Ausgrabungen am Wilhelmsplatz förderten im Jahr 2015 zahlreiche Skelette zutage, bei denen es sich um bestattete Franziskanermönche handelte. Im Jahre 1294 gestattete Albrecht der Feiste den Dominikanern im Papendiek, am Leinekanal gegenüber der Neustadt, ein Kloster zu gründen, als dessen Klosterkirche die 1331 geweihte Paulinerkirche diente. Juden wurden im späten 13. Jahrhundert in der Stadt angesiedelt. Unter dem Datum des 1. März 1289 erteilten die Herzöge zu Braunschweig und Lüneburg dem Göttinger Rat die Erlaubnis, den Juden Moses in der Stadt aufzunehmen. Die Juden wohnten hauptsächlich in der Nähe der St. Jacobi-Kirche in der heutigen Jüdenstraße. In Göttingen war die Geschichte der Juden schon im Mittelalter von großem Leid geprägt. Nachdem im Jahre 1369/1370 Herzog Otto III. der Stadt das Recht der Gerichtsbarkeit über die Juden abgetreten hat, kam es hier immer wieder zu blutigen Pogromen und Vertreibungen. Von 1460 bis 1599 wohnten über 100 Jahre überhaupt keine Juden in Göttingen. Das 14. und das 15. Jahrhundert bildeten für Göttingen eine Blütezeit wirtschaftlicher Machtentfaltung, von der die Werke der Baukunst Zeugnis ablegen. In der ersten Hälfte des 14. Jahrhunderts begann der Neubau der St.-Johannis-Kirche als gotische Hallenkirche. Ab 1330 ersetzte ein gotischer Bau die kleinere St. Nikolai-Kirche. Nach dem Abschluss der Arbeiten an der St. Johannis-Kirche wurde in der zweiten Hälfte des 14. Jahrhunderts mit dem Neubau der St. Jacobi-Kirche begonnen. In den Jahren nach 1366 entstanden wesentliche Teile des jetzigen (alten) Rathauses. Die heutige Gestalt des Gebäudes erhielt es in Grundzügen erst um die Mitte des 15. Jahrhunderts. In den Jahren um 1360 wurde zudem der Befestigungsring um die Stadt neu abgesteckt und umfasste nunmehr die Neustadt und das Alte Dorf. Im Zuge dieser Baumaßnahmen wurden die vier Stadttore weiter nach außen verlegt und das Gebiet der Stadt wuchs auf ein Areal von etwa 75 ha. Wachstum und Selbständigkeit. Nach dem Tode Albrecht des Feisten 1318 kam Göttingen über Otto den Milden († 1344) an Herzog Ernst I. († 1367). Das von ihm regierte Fürstentum Göttingen bildete ein Teilfürstentum im Herzogtum Braunschweig-Lüneburg. Das Fürstentum Göttingen war das wirtschaftlich ärmste der welfischen Fürstentümer. Unter Ernsts Nachfolger, Otto III. († 1394), gelang es Göttingen, seinen Status als autonome Stadt weiter zu befestigen. Otto III., der "Quade" (der Bösewicht) genannt, wird als markanter Vertreter des damaligen Rittertums beschrieben, dessen Hass den Städten galt, deren aufblühende Macht ihm ein Dorn im Auge war. Dementsprechend stand seine Herrschaft ununterbrochen im Zeichen von Fehden und außenpolitischen Konflikten. Obwohl die Stadt Göttingen anfangs heftig von ihm bedrängt wurde, gelang es ihm letztlich nicht, die Landesherrschaft weiter auszubauen, wovon die Selbständigkeit Göttingens profitierte. Das vor den Toren der Stadt gelegene herzogliche Landgericht am Leineberg geriet unter Göttinger Einfluss und wurde 1375 von Otto an die Stadt verpfändet. Es gelang der Stadt, neben der Erlangung der gerichtsherrschaftlichen Rechte, grundherrschaftliche Rechte von Otto zu erwerben. Im April 1387 erreichten die Auseinandersetzungen zwischen der Stadt und Otto ihren Höhepunkt: Die Göttinger erstürmten die herzogliche Burg innerhalb der Stadtmauern, im Gegenzug verwüstete Otto Dörfer und Ländereien in der Umgebung. Die Bürger konnten jedoch im Juli in einer offenen Feldschlacht unter dem Stadthauptmann Moritz von Uslar zwischen Rosdorf und Grone einen Sieg über die fürstliche Streitmacht erringen. Otto musste danach im August 1387 die Freiheit der Göttinger Güter in der Umgebung anerkennen. Insofern markiert das Jahr 1387 einen wichtigen Einschnitt in der Geschichte der Stadt. Nach Ottos Tod konnte Göttingen unter dessen Nachfolger Otto Cocles (der Einäugige) seine Autonomie weiter ausbauen, nicht zuletzt, weil mit Otto Cocles das Haus Braunschweig-Göttingen ausstarb und die offene Erbfrage sowie seine vorzeitige Abdankung 1435 zu einer weiteren Destabilisierung der landesherrschaftlichen Macht führten. Das Verhältnis zur welfischen Landesherrschaft war in der Folgezeit bis zum Ende des 15. Jahrhunderts durch eine ständige und erfolgreiche Zurückdrängung des landesherrlichen Einflusses auf die Stadt gekennzeichnet. Auch wenn Göttingen offiziell keine Freie Reichsstadt war, sondern stets den Braunschweiger Herzögen untertan blieb, so konnte es sich doch eine bedeutende Selbständigkeit erkämpfen und wurde teilweise in Urkunden unter den Reichsstädten geführt und zu besonders wichtigen Reichstagen geladen. Nach diversen weiteren dynastischen Teilungen und Herrschaftswechseln, die mit dem Tode Otto Cocles’ (1463) einsetzten, erhielt Erich die Herrschaft über das zusammengelegte Fürstentum Calenberg-Göttingen. Die Stadt verweigerte zunächst dem neuen Herrscher die Huldigung, woraufhin Erich 1504 bei König Maximilian eine Reichsacht gegen Göttingen erwirkte. Die andauernden Spannungen führten zu einer wirtschaftlichen Schwächung der Stadt, so dass die Stadt letztendlich 1512 die Huldigung leistete. Schon bald darauf zeichnete sich das Verhältnis zwischen Erich und der Stadt durch eine eigenartige Friedfertigkeit aus, die darauf zurückgeführt wird, dass Erich finanziell auf die Stadt angewiesen war. Grundlage für den politischen und allgemeinen Aufschwung Göttingens im Spätmittelalter war die wachsende wirtschaftliche Bedeutung der Stadt. Diese beruhte vor allem auf der verkehrsgünstigen Lage im Leinetal an einem alten und wichtigen Nord-Süd-Handelsweg. Dieser begünstigte den heimischen Wirtschaftszweig, die Wollweberei in Göttingen. Neben den Leinenwebern, die zwar zum inneren Kreis der Göttinger Gilden gehörten, allerdings im sozialen Ansehen am unteren Ende rangierten, siedelten sich in der Neustadt die Wollenweber an. Die dort verarbeitete Wolle kam hauptsächlich aus der Umgebung der Stadt; teilweise standen hier bis zu 3000 Schafe und 1500 Lämmer. Die Wolltücher wurden erfolgreich bis nach Holland und über Lübeck exportiert. Ab 1475 wurde mit der Anwerbung neuer Fachkräfte die heimische Tuchproduktion ausgebaut. Diese so genannten "neuen Wollenweber" brachten neue, bisher nicht angewandte Techniken mit nach Göttingen und festigten die Stellung der Stadt als exportorientierte Tuchmacherstadt für drei Generationen. Erst gegen Ende des 16. Jahrhunderts, als mit den billigen englischen Tüchern kaum noch konkurriert werden konnte, kam es zum Niedergang des Göttinger Tuchmachergewerbes. Von der guten Verkehrslage zwischen den bedeutenden Handelsstädten Lübeck und Frankfurt am Main profitierten die Göttinger Kaufleute. Der Göttinger Markt erreichte überregionale Bedeutung. Viermal im Jahr kamen zum Jahrmarkt fremde Händler in großer Zahl nach Göttingen. Die Kaufleute, die den Fernhandel als Zulieferer für den Göttinger Markt und als Transithändler im überregionalen Geschäft betrieben, besaßen in Göttingen die großen Vermögen. Auch der Hanse trat Göttingen bei. Die erste Ladung der Stadt zum Hansetag wird auf 1351 datiert. Das Verhältnis zur Hanse blieb jedoch weitgehend distanziert. Als Binnenstadt nutzte Göttingen zwar gerne das funktionierende Wirtschaftsnetz der Hanse, wollte sich aber nicht in die Politik des Gesamtverbandes verwickeln lassen. Zahlendes Mitglied wurde Göttingen erst 1426, und 1572 folgte bereits der endgültige Austritt aus der Hanse. Reformation und Dreißigjähriger Krieg. Ansicht der Stadt von Westen (Holzschnitt aus dem Jahr 1585) Das 16. Jahrhundert begann in Göttingen mit wirtschaftlichen Problemen, die schließlich zu Spannungen führten. Zum offenen Konflikt zwischen Handwerksgilden und Rat, der im Wesentlichen von der Schicht der Kaufleute gestellt wurde, kam es 1514, als der Rat zur Haushaltssanierung neue Steuern erlassen wollte. Am 6. März 1514 stürmten die Gilden das Rathaus, setzten den Rat kurzerhand gefangen und jagten ihn anschließend aus der Verantwortung. Der Rat konnte zwar mit Hilfe von Herzog Erich I. seine alte Stellung wieder zurückgewinnen, der Konflikt schwelte jedoch weiter und bildete damit den Nährboden für die Einführung der Reformation in Göttingen. Die Reformation, die infolge von Martin Luthers Thesenanschlag 1517 und dem Reichstag zu Worms im Jahre 1521 nach und nach weite Teile Deutschlands und insbesondere die großen Städte ergriffen hatte, schien jedoch zunächst an Göttingen vorbeizugehen. Selbst als der Bauernkrieg 1524/25 durch Deutschland tobte, blieb es in Göttingen ruhig. Erst 1529, also zwölf Jahre nach Luthers Thesenanschlag, kam in Göttingen die Reformation auf. Anlass dazu war zunächst eine Szene ganz mittelalterlicher Prägung: eine Bartholomäus-Prozession. Derartige Prozessionen waren in den großen Städten Deutschlands in diesen Zeiten selten geworden. Das alte Kirchenwesen war in Göttingen bis zu diesem Zeitpunkt jedoch noch unbestritten. Der Umbruch wurde von den "neuen Wollenwebern" eingeleitet, jenem Personenkreis also, der erst ab 1475 in Göttingen angesiedelt war, und insofern dem neuen Gedankengut offener gegenüberstand als die Alteingesessenen, also gewissermaßen das progressive Element in der Stadt bildete. Diese "neuen Wollenweber" hatten eine Gegendemonstration zu der Bartholomäus-Prozession formiert und die Prozession auf der Groner Straße mit Luthers Choral „Aus tiefer Not schrei ich zu dir“ empfangen sowie den Zug mit weiteren christlichen Psalmen und Spottliedern begleitet. Über den religiösen Aspekt hinaus stellten damit die "neuen Wollenweber" zugleich das in der Stadt bestehende Herrschaftssystem in Frage. Nunmehr drängten sich die Ereignisse, der vorherigen Verspätung folgte eine überraschende Beschleunigung des Umbruchs: Mit dem ehemaligen Rostocker Dominikaner Friedrich Hüventhal war jetzt ein evangelischer Prediger in der Stadt. Dieser gewann zunehmend an Einfluss, hielt eine öffentliche Predigt auf dem Marktplatz und konnte schließlich nach kontroversen Verhandlungen mit dem Rat gegen den Willen der Paulinermönche in der Paulinerkirche am 24. Oktober 1529 den ersten regulären evangelischen Gottesdienst in Göttingen feiern. Dieser Ort musste gewählt werden, da der Rat der Stadt Göttingen anfangs noch keine Verfügungsgewalt über die Pfarrkirchen in der Stadt hatte. Diese unterstanden der Verfügungsgewalt des Herzogs Erich I. Dieser hing noch dem alten Glauben an und wollte evangelische Predigten in den ihm unterstellten Pfarrkirchen nicht zulassen. Erich I. war bereits 1525 dem Dessauer Bund, einem antiprotestantischen Bündnis norddeutscher Staaten, beigetreten, und sah durch die Einführung der Reformation in der größten Stadt in seinem Fürstentum Calenberg-Göttingen das Verhältnis zwischen der Stadt und ihrem Landesherrn empfindlich gestört. Nachdem die Göttinger mit einem abschließenden Rezeß am 18. November 1529 die Kirchenreform und politische Neuerungen zusammenfassten, reagierte Erich prompt und schroff. Er wandte sich an die Stadt in der harten Form eines Fehdebriefes. Hüventhal, der in der reformatorischen Bewegung der Stadt nicht mehr unumstritten war, musste daraufhin die Stadt verlassen. Dies bedeutete jedoch nicht das Ende der Reformation in Göttingen, die Göttinger holten den gemäßigteren Prediger Heinrich Winkel aus Braunschweig in die Stadt. Um diese Zeit wurde Johann Bruns einer der bestimmenden Köpfe der Göttinger Kirchenpolitik. Schon vorher hatte er als Pfarrer von Grone als einer der ersten in der Region lutherisch gepredigt; später wurde er Syndicus der Stadt. Nachdem der Rat der Stadt die Pfarrkirchen, in denen nicht lutherisch gepredigt werden durfte, hatte schließen lassen, wurde am Palmsonntag des Jahres 1530 die neu ausgearbeitete Kirchordnung Göttingens verlesen, die der Göttinger Reformation den Abschluss gab. Die Kirchenordnung wurde Martin Luther zur Korrektur und Absegnung vorgelegt und erschien 1531 in einer Wittenberger Druckerei mit einem zustimmenden Vorwort des Reformators. Nach dem Abschluss der Reformation durch die neue Kirchenordnung spitzte sich die Situation nochmals zu. Herzog Erich I. erlangte auf dem Landtag zu Moringen die Unterstützung der Stände für die Forderung an die Stadt, zur alten Kirche zurückzukehren. Göttingen seinerseits tat einen Schritt in die Reichspolitik hinein und entschloss sich am 31. Mai 1531, dem Schmalkaldischen Bund beizutreten, einem Zusammenschluss der protestantischen Reichsstände zur Verteidigung ihres Glaubens. Im April 1533 gelang es der Stadt, sich mit dem Herzog ins Benehmen zu setzen und in einem Vertrag die Kontroverse auszuräumen. Daran nicht unbeteiligt war Erichs Frau Elisabeth von Brandenburg, die selbst 1538 öffentlich zum evangelischen Glauben übertrat. Nach Erichs Tod im Jahre 1540 übernahm sie die vormundschaftliche Regierung für ihren Sohn Erich II. und begann von ihrer Leibzucht Münden aus, im Fürstentum Calenberg-Göttingen die Reformation durchzusetzen. Elisabeth machte den Pfarrer Anton Corvinus aus dem hessischen Witzenhausen zum Superintendenten für das Fürstentum und ließ von diesem die Calenberger Kirchenordnung ausarbeiten, die 1542 in Druck ging. Nach der Niederlage der Protestanten im Schmalkaldischen Krieg 1548 mussten diese das Augsburger Interim hinnehmen. Wie in vielen Teilen des Reiches fiel dies den Göttingern schwer und sie weigerten sich, dieses durchzusetzen. Herzog Erich II. kehrte nach längerer Abwesenheit wieder in sein Fürstentum zurück, trat 1549 zum katholischen Glauben über und begann – sehr zum Leidwesen seiner Mutter – das Interim durchzusetzen. In Göttingen führte dies dazu, dass die Stadt ihren Superintendenten Mörlin, der sich zu harsch gegen das Interim und gegen den Herzog gewandt hatte, entlassen musste. In dieser Entlassung kann ein erster Schritt zur Beseitigung der städtischen Autonomie im Kirchenwesen und in anderen Bereichen der Selbstverwaltung im späten 16. und im 17. Jahrhundert gesehen werden. Nachdem im Augsburger Reichs- und Religionsfrieden 1555 den Reichsständen das Recht zugesprochen wurde, das Bekenntnis ihrer Untertanen zu bestimmen, versprach Erich II., obwohl er dem katholischen Glauben treu blieb, das Fürstentum bei der Kirchenordnung von 1542 und bei der evangelischen Lehre zu belassen. Der Rat der Stadt Göttingen unterzeichnete 1580 die lutherische Konkordienformel von 1577. Nach dem Tode Erichs II. 1584, der keinen männlichen Nachfolger hinterließ, fiel das Fürstentum an Herzog Julius von Wolfenbüttel, wodurch das Fürstentum Calenberg-Göttingen wieder an das Fürstentum Braunschweig-Wolfenbüttel gelangte. Göttingen, das schon 1582 durch den Verlust der umgebenden Leinedörfer an die Herzöge an Einfluss verloren hat, musste neben dem wirtschaftlichen Niedergang, der nunmehr einsetzte, 1597, 1611 und zuletzt 1626 mehrere Pestausbrüche verkraften. Im Jahre 1623 wurde Göttingen erstmals in den 1618 ausgebrochenen Dreißigjährigen Krieg einbezogen. Göttingen war von den kämpfenden Heeren umgeben und musste auf Drängen des Landesherren Friedrich Ulrich von Braunschweig-Wolfenbüttel vorübergehend eine Garnison aufnehmen. Dessen Bruder Christian, genannt "der tolle Halberstädter", hatte den niedersächsischen Reichskreis, zu dem Göttingen gehörte, mit in den Krieg gezogen. 1625 begann Göttingen mit Genehmigung des Landesherrn, die Befestigungsanlagen auszubauen. Diese sollte die Stadt brauchen, denn schon im Herbst 1625 belagerte der kaiserliche Feldherr Albrecht von Wallenstein die Stadt und stellte Proviant- und Quartierwünsche. Wallenstein zog weiter und gab sich damit zufrieden, die gesamte Göttinger Kuhherde von etwa 1.000 Stück Vieh als Beute davon zu führen. Göttingen strengte seine Verteidigungsvorbereitungen an, doch schon kurz darauf stand Tilly, der Feldherr der katholischen Liga, im Sommer 1626 vor der Stadt, nachdem er kurz zuvor im benachbarten Münden ein Blutbad angerichtet hatte. Tilly ließ Göttingen angeblich fünf Wochen lang beschießen und die Leine durch Harzer Bergleute umleiten, so dass die Stadt Tilly am 3. August 1626 die Tore öffnen musste. Tilly nahm Residenz in der Weender Straße 32, dem Kommandantenhaus. Nach dem Siege Tillys in der Schlacht bei Lutter am Barenberge über die dänischen Truppen konnte dieser seine Position in Niedersachsen sichern und Göttingen blieb von kaiserlich-katholischen Truppen besetzt. Göttingen litt sehr unter der Besatzung und den für die Stadt unerträglichen Kontributionslasten, woraufhin ein großer Teil der Bevölkerung die Stadt verließ und bis zu 400 Häuser leer standen. Erst sechs Jahre später änderten sich die Machtverhältnisse, und nach dem Sieg der Schweden über Tilly in der Schlacht bei Breitenfeld 1631 wurde Göttingen von schwedischen und weimarischen Truppen unter Wilhelm von Weimar für die evangelische Seite zurückerobert. Göttingen wurde im Herbst des Jahres 1632 zwar nochmals von Pappenheimer Truppen bedroht, anschließend war die Stadt fest in der Hand protestantischer Truppen. Dies bedeutete für die Stadt jedoch zunächst keine Besserung der Verhältnisse, die Besatzung lastete weiterhin schwer auf der Zivilbevölkerung. 1634 erlosch mit dem Tode Friedrich Ulrichs das Mittlere Haus Braunschweig. Göttingen fiel nach der abermaligen welfischen Erbteilung an Georg von Braunschweig und Lüneburg-Calenberg, der Hannover zu seiner Residenz wählte. Nach dessen Tod 1641 musste Göttingen unter Herzog Christian Ludwig, die letzte große Belagerung durch Piccolomini ertragen. Anschließend war der Krieg für Göttingen zwar zu Ende, die Stadt hatte noch lange Jahre die Last der Garnison und der Kriegskosten zu tragen. Wiederaufstieg als Universitätsstadt. Ansicht der Stadt von Südosten. Das Schriftband des 1735 entstandenen Kupferstichs betont die neue Bedeutung der Stadt durch die Universitätsgründung. Nach dem Dreißigjährigen Krieg setzte sich der wirtschaftliche Niedergang der Stadt weiter fort. Der Export von Tuchen und Leinwand war fast völlig zusammengebrochen. Die Einwohnerzahl, die im Jahre 1400 noch 6000 Personen betrug, sank um 1680 auf unter 3000. Dem wirtschaftlichen Niedergang folgte der politische. Die Vorherrschaft der Gilden in Rat und Bürgerschaft wurde abgelöst durch die Herrschaft des Landesherrn. Herzog Ernst August erreichte es 1690, dass durch den so genannten Stadtrezess der Rat faktisch in ein fürstliches Verwaltungsorgan umgestaltet wurde. Außenpolitisch änderte sich die Situation. Das Fürstentum Braunschweig-Calenberg, zu dem Göttingen seit 1634 gehörte, wurde unter Herzog Ernst August im Jahre 1692 von Kaiser Leopold I. zum Kurfürstentum ernannt. Die nunmehr Kurfürsten von Braunschweig-Lüneburg (Kurhannover) waren ab 1714 zugleich in Personalunion König von Großbritannien. Ernst Augusts Sohn, Kurfürst Georg Ludwig von Hannover, sollte als Georg I. den britischen Thron besteigen. Das Kurfürstentum Braunschweig-Lüneburg, das sich zu einer territorialen Macht in der Mitte Deutschlands zu entwickeln begann, verfügte bis dahin über keine eigene Universität. Es wurde daher beschlossen, eine Universität neu zu gründen, die der Ausbildung der im Land benötigten Theologen, Juristen und Ärzte dienen sollte. Die kurhannoversche Landesregierung entschied, diese in Göttingen anzulegen. Für Göttingen sprach, dass sich in der Stadt bereits seit einiger Zeit ein Gymnasium, das Pädagogium, befand, das als Keimzelle der neuen Universität fungieren konnte. Während der Regierungszeit Georgs II. August von Großbritannien, der der Universität ihren Namen gab, konnte 1734 der Lehrbetrieb der Georg-August-Universität eröffnet werden. Im Jahre 1737 folgte die feierliche Einweihung. Der schnelle Erfolg, den die Neugründung hatte, ist nicht zuletzt auf das Engagement des ersten Kurators der Universität, Gerlach Adolph von Münchhausen, zurückzuführen. Die Universität brachte neuen Aufschwung in die Stadt und beförderte das Bevölkerungswachstum. Durch intensive Bautätigkeit veränderte sich rasch das Gesicht der Stadt. Ein repräsentatives Beispiel für das Selbstbewusstsein Göttinger Neubürger verkörpert noch heute das barocke Grätzelhaus in der Goetheallee. Neue Wohnungen, Gaststätten und Speiselokale sowie Herbergen wurden eröffnet (siehe Londonschänke). Um das kulturelle Angebot der Professoren und Studenten zu verbessern, wurde ein Universitätsreitstall errichtet. Göttingen erhielt in der Folgezeit in ganz Europa und in Übersee einen Ruf als Ort der Wissenschaft, viele berühmte Gelehrte kamen in die Stadt und wirkten dort. Das hohe Ansehen der Universität beruhte nicht zuletzt auf der klugen Anschaffungspolitik der neu gegründeten Universitätsbibliothek. Zudem wurde 1751 die "Königliche Societät der Wissenschaften in Göttingen", die spätere Akademie der Wissenschaften zu Göttingen gegründet, die die Göttingischen Anzeigen von Gelehrten Sachen herausgab, eine schnell international bekannt gewordene Zeitschrift für Informationen über wissenschaftliche Neuerungen. Der Siebenjährige Krieg bedeutete für Göttingen zwischen 1757 und 1762 neue Besatzungen. Die französische Armee quartierte sich ein, die Universität erhielt jedoch ihren Lehrbetrieb aufrecht. Nach dem Krieg wurden in Göttingen die Stadtwälle geschleift, aus dem Stadtwall wurde eine Promenade. Die insofern entmilitarisierte Universitätsstadt konnte sich wieder voll dem Universitätsbetrieb widmen und trat in ihre Blütezeit ein. Von Napoléon bis 1866. a> benannte Jérôme-Pavillon auf der Göttinger Schillerwiese, in dem er sich des Öfteren in weiblicher Begleitung aufgehalten haben soll In den von Napoléon Bonaparte geführten Kriegen wurde das Kurfürstentum Hannover 1803 kampflos von französischen Truppen besetzt. Göttingen selbst blieb von Besatzungen und anderen Belastungen verschont. Dies mag mit dem hohen Ansehen der Universität zu tun haben. Kurzfristig wurde Hannover 1805 Preußen zugesprochen. Göttingen wurde daraufhin von preußischen Truppen besetzt. Nach dem Frieden von Tilsit im Jahre 1807 verschwand das Kurfürstentum Hannover von der Landkarte. Göttingen wurde Teil des Königreichs Westphalen mit der Residenzstadt Kassel unter Napoléons Bruder Jérôme Bonaparte. Im Königreich Westphalen war Göttingen Hauptstadt des Leine-Departements, das sich zeitweise bis nach Rinteln erstreckte. Göttingen wurde dadurch Sitz mehrerer Behörden und Gerichte mit Zentralfunktion, die Präfektur hatte ihren Sitz im Michaelishaus. Die Fremdherrschaft wurde mit der Zeit nicht als bedrückend angesehen. Die Studentenzahlen stabilisierten sich nach einem anfänglichen Rückgang, und Göttingen passte sich der französischen Herrschaft an, die bis 1813 dauerte. Nach dem Zusammenbruch der französischen Herrschaft in Deutschland wurde das Kurfürstentum Hannover zum Königreich erhoben. Göttingen gehörte ab 1823 zur Landdrostei Hildesheim, der neu gebildeten Zwischenbehörde. Im Jahr 1807 wurde Carl Friedrich Gauß Leiter der Sternwarte der Universität; er zählt bis heute zu den weltweit angesehensten Mathematikern und Physikern. Das letzte bekannte Beispiel der Hinrichtungsmethode des Zerstoßens der Glieder mit eisernen Keulen im Hannöverschen datiert vom 10. Oktober 1828. Als Vergeltung für den aus Habsucht begangenen Mord an Vater und Schwester wurde Andreas Christoph Beinhorn aus Grone auf einer Kuhhaut zum Richtplatz geschleift und dort, auf dem Leineberg in Göttingen, öffentlich von unten auf gerädert – wie es in einem zeitgenössischen Flugblatt heißt – „mit Keulen zerschlagen und nachher sein Körper auf das Rad geflochten“ (wenn auch nur für einen Tag). a> wurde im Zuge der "Göttinger Revolution" im Januar 1831 das Rathaus gestürmt. Die in Deutschland aufkommende Nationalbewegung ging einher mit Forderungen nach politischer Liberalisierung und Demokratisierung. Als im Jahre 1830 die Pariser Julirevolution auf Deutschland übergriff, erlebte Göttingen im Januar 1831 die so genannte "Göttinger Revolution". Während das Land Hannover weitgehend ruhig blieb, kam es in Göttingen durch eine Verkettung verschiedener Ursachen zu einem gewaltsamen Ausbruch, in deren Folge unter der Führung des Privatdozenten Johann Ernst Arminius von Rauschenplatt ein Revolutionsrat gebildet und am 8. Januar 1831 der Magistrat der Stadt Göttingen aufgelöst wurde. Vom König wurde eine freie Verfassung für das Königreich Hannover verlangt und der Sturz der Regierung. Die Regierung zeigte sich unnachgiebig und sandte Truppen in größerem Ausmaß auf die Stadt zu. Am 16. Januar mussten die Aufrührer kapitulieren. Die Truppen zogen in die Stadt ein und quartierten sich dort ein. Die Anführer des Aufstandes wurden, soweit sie nicht ins Ausland geflohen waren, zu drakonischen Strafen verurteilt. Erst gegen Anfang März 1831 kehrte in Göttingen wieder Ruhe ein. Die Universität, die von der Regierung am 18. Januar geschlossen worden war, konnte Mitte April wiedereröffnet werden. Als Folge des Aufstandes nahm die Regierung tiefgreifende Veränderungen an der Stadtverfassung vor und ersetzte die alte Stadtverfassung von 1690 durch eine neue. Die jahrhundertealte politische Rolle der Gilden endete, und an ihre Stelle traten Repräsentanten einer bürgerlichen Honoratiorenschicht. Zum 100-jährigen Bestehen der Universität wurde in Göttingen 1837 eine neue Universitätsaula errichtet. 1837 – 100 Jahre nach Eröffnung der Universität – konnte als Repräsentations- und Verwaltungsgebäude der Universität die Aula eingeweiht werden. Auf dem Platz davor, dem heutigen Wilhelmsplatz, wurde dem damaligen Landesherrn und Stifter, Wilhelm IV., ein Denkmal errichtet. Unter dessen Nachfolger König Ernst August I., mit dem die 123-jährige Personalunion zwischen Großbritannien und Hannover beendet wurde, kam es noch im gleichen Jahr zum Konflikt. Bei seinem Amtsantritt hob dieser die relativ freiheitliche Verfassung, die sein Vorgänger 1833 erlassen hatte, wieder auf, woraufhin sieben Göttinger Professoren Protest einlegten. Am 12. Dezember 1837 entließ Ernst August I. die Professoren und verwies drei von ihnen des Landes. Dieses Ereignis hatte eine enorme Wirkung – nicht nur im Königreich Hannover, sondern in ganz Deutschland. "Die Göttinger Sieben", wie sie von nun an genannt wurden, galten bald als Märtyrer eines politisch aufmerksamer werdenden Bürgertums. Durch die Protestaktion wurde die Opposition im Königreich aufgerüttelt. Der Widerstand des Bürgertums hatte teilweise Erfolg: mit dem Landesverfassungsgesetz vom 6. August 1840 erhielt Hannover wieder eine konstitutionelle Verfassung, in der jedoch die Rechte der Stände zugunsten des Monarchen stark beschnitten waren. In Göttingen kehrte zwar bald wieder Ruhe ein, die Universität, die ohnehin schon seit den 1820er-Jahren an zurückgehenden Studentenzahlen zu leiden hatte, verlor jedoch zusehends an Ansehen. Nach den Verfassungskämpfen gab es jedoch wenig Entspannung bei den politischen Freiheiten. Versammlungen mussten genehmigt werden, Leihbibliotheken wurden kontrolliert, und die drei ausgewiesenen Professoren durften bis 1848 nicht zurück nach Göttingen kommen. Die Universitätsangehörigen waren der Ansicht, dass das strenge Polizeiregiment, das in Göttingen herrschte, für die Universität verderblich sei. Blick auf Göttingen aus der Vogelschau nach Nordwesten (Lithographie von Friedrich Besemann um 1850) Die 49, bei der es in vielen Teilen Deutschlands zu Tumulten und Aufständen kam, blieb in Göttingen ohne größeres Blutvergießen. Es kam nur in der Nacht vom 11. zum 12. März 1848 zu einer kleineren Auseinandersetzung zwischen der Polizei und einigen Korpsstudenten. In deren Folge verließen die Studenten aus Protest geschlossen die Stadt. Da sich das Semester ohnehin dem Ende neigte, war dieser Auszug wenig überzeugend. In Göttingen wurden als revolutionäre Institutionen eine Bürgerversammlung und eine Bürgerwehr gegründet. Erstere löste sich jedoch schon zum Jahresende auf, da sie mit und an ihrer Politisierung gescheitert war. Die Zeit nach den Märzunruhen war für Göttingen eine eher ruhige Zeit. Die politischen Bewegungen verhielten sich ruhiger als früher, und auch sonst werden die fünfziger Jahre des 19. Jahrhunderts als Zeit behäbiger Behaglichkeit beschrieben. Ein Datum von überragender Bedeutung für die Stadtentwicklung war der 31. Juli 1854. An diesem Tage wurde die Eisenbahnstrecke von Alfeld nach Göttingen eröffnet und der Göttinger Bahnhof mit einem prächtigen Fest eingeweiht. Nunmehr machte Göttingen einen großen Schritt in die Moderne, die Einwohnerzahlen stiegen an, Wirtschaftsbetriebe siedelten sich in Göttingen an und außerhalb des mittelalterlichen Walles entstanden neue Wohnviertel. Die letzte öffentliche Hinrichtung unter der Gerichtslinde auf dem Leineberg fand am 20. Januar 1859 statt. Friederike Lotze hieß die zum Tode verurteilte Delinquentin. Sie hatte den Bäckermeister Sievert zu Münden, der ihr die Ehe versprochen hatte und dessen Dienstmagd sie war, am 13. März 1858 vergiftet. Sie wurde mit dem Schwert enthauptet. Das Verhältnis der Stadt zu ihrem Monarchen, seit 1851 Georg V., war weiterhin angespannt. Königsbesuche in der Stadt waren selten und wenn, dann galten sie der Universität, auf die er stolz war. Georg misstraute dem Göttinger Bürgertum, das er als Opposition kritisch beobachtete. Zwar wurde in Göttingen keine Revolution gegen den wenig überzeugenden Monarchen geplant, aber als am 22. Juni 1866 preußische Truppen in Göttingen einrückten, und wenig später nach der Schlacht bei Langensalza Hannover an Preußen fiel, gab es in Göttingen keine wesentliche Opposition gegen das Preußischwerden. 1866 bis 1933. Unter preußischer Herrschaft passten sich die Göttinger relativ rasch den neuen Verhältnissen an. Insbesondere entwickelte sich in Göttingen eine Begeisterung für Otto von Bismarck, der von 1832 bis 1833 an der Georgia Augusta immatrikuliert war. Im Göttinger Stadtgebiet wurde neben einem Bismarckturm auf dem Kleperberg, wie es ihn in vielen Städten Deutschlands gab, ein Bismarckstein am Klausberg errichtet. In der Stadt erinnern zwei Göttinger Gedenktafeln, eine davon an seiner letzten Studentenwohnung in Göttingen, dem Bismarckhäuschen, an den bekanntesten Göttinger Studenten des 19. Jahrhunderts. In der Stadt Göttingen erzielte die Preußen-freundliche Nationalliberale Partei starken Zulauf, während die hannoveranerfreundliche Welfen-Partei eher im Göttinger Landkreis Erfolge erzielte. Die Industrialisierung setzte in Göttingen relativ spät ein. Erst ab der Jahrhundertwende kann man von einem Vordringen der industriellen Produktionsweise in Göttingen sprechen. Bedingt durch die Nähe zur Universität, die inzwischen zu einer weltweit geachteten Hochburg der Naturwissenschaften aufgestiegen war, entwickelte sich in Göttingen die feinmechanische, optische und elektrotechnische Industrie, die jetzt die Textilwirtschaft als wichtigsten Göttinger Wirtschaftszweig ablöste. Die Stadtbevölkerung Göttingen begann seit den 1870er-Jahren stark zu wachsen. 1875 zählte Göttingen 17.000 Einwohner, 1900 waren es bereits 30.000. Der Großteil der Bevölkerung lebte damals noch in der Altstadt; lediglich die Angehörigen der Mittel- und Oberklasse, insbesondere die Professoren, setzten sich östlich der Stadt auf den Anhöhen des Hainbergs nieder. Erst um 1895 herum begann die Bevölkerung in den Gebieten außerhalb der Altstadt stärker anzuwachsen. In der Zeit des Kaiserreiches wurde unter den Göttinger Bürgermeistern Merkel und Calsow damit begonnen, die unterentwickelten öffentlichen Versorgungseinrichtungen auszubauen und die Stadt zu modernisieren. Nach fast dreißigjähriger Diskussion entschloss sich die Stadt im April 1914, eine Straßenbahn einzurichten. Am 29. Juni begannen die Bauarbeiten. Schienen waren bereits geliefert, aber nicht eingebaut. Bei Kriegsausbruch am 1. August wurden die Arbeiten eingestellt und nie wiederaufgenommen. In Göttingen wurde der Erste Weltkrieg überwiegend enthusiastisch begrüßt. Viele Professoren ließen sich von der nationalen Hysterie mitreißen. Schon bald trat hier Ernüchterung auf. Die Gewerbebetriebe mussten sich auf die Kriegsökonomie einstellen, und die Lebensmittelversorgung wurde zum Problem. Der Krieg kam Göttingen insofern nahe, als schon ab August 1914 im Ebertal unterhalb des Lohberges ein Kriegsgefangenenlager eingerichtet wurde, in dem zeitweise bis zu 10.000 Kriegsgefangene untergebracht waren. Als 1918 der Niederlage im Ersten Weltkrieg die Novemberrevolution folgte, wurde in Göttingen ein Soldaten- und Volksrat gewählt und eine Resolution verabschiedet. Am 10. November wurde durch den Arbeiter Willi Kretschmer auf dem Rathaus die rote Fahne gehisst. Faktisch änderte sich in Göttingen jedoch trotz der Tumulte nicht allzu viel; die Stadtverwaltung unter Bürgermeister Georg Calsow konnte nahezu ungestört weiterarbeiten. a> der Handelskammer Göttingen in den 1920er Jahren Die innere Instabilität der Weimarer Republik schlug sich in Göttingen nieder. Während des Kapp-Putsches im Frühjahr 1920 wurde in Göttingen der Generalstreik beschlossen. Das Militär demonstrierte daraufhin seine Macht und marschierte am 15. März in der Innenstadt auf und sperrte die Straßen ab. In den folgenden unruhigen Jahren der Weimarer Republik konnte die NSDAP in Göttingen schnell Fuß fassen. Bereits 1922 wurde die NSDAP-Ortsgruppe Göttingen gebildet, und schon in der ersten Hälfte der 1920er-Jahre galt Göttingen als Hochburg der Nationalsozialisten, die in Göttingen überdurchschnittlich hohe Wahlerfolge verbuchen konnten. Die NSDAP und allen voran die SA zeigten regelmäßig bei Massenausmärschen Präsenz auf der Straße, wobei Zusammenstöße mit den politischen Gegnern bewusst provoziert wurden. Bereits im März 1930 kam es zu gewalttätigen Zusammenstößen zwischen SA und dem kommunistischen Rotfrontkämpferbund. Schlägereien zwischen Kommunisten und Nationalsozialisten blieben in der Folge in Göttingen an der Tagesordnung. Die Weltwirtschaftskrise ab 1929 zeigte ebenfalls in Göttingen ihre Folgen. Große Betriebe mussten schließen, die Arbeitslosigkeit stieg an, und in Göttingen steigerte sich die Not. Die NSDAP erhielt dadurch weiteren Zulauf. Am 21. Juli 1932 bildete ein Auftritt Hitlers den Höhepunkt im Göttinger Reichstagswahlkampf. 20.000 bis 30.000 Zuhörer fanden sich trotz strömenden Regens zu der Veranstaltung im Kaiser-Wilhelm-Park ein. Bei der anschließenden Wahl am 31. Juli wählten 51 % der Göttinger, also die absolute Mehrheit, die Nationalsozialisten. Im Gegensatz zur Stadt Göttingen hatten es die Nationalsozialisten in den umliegenden Gemeinden, die ab 1963 als Stadtteile eingegliedert wurden, wesentlich schwerer, Fuß zu fassen. Insbesondere die damals selbständige Gemeinde Grone sticht heraus. Hier blieben selbst bei der Reichstagswahl am 5. März 1933 die Sozialdemokraten stärkste Kraft. Grone war eine von nur vier Gemeinden im damaligen Wahlkreis Braunschschweig-Südhannover, in dem die NSDAP bei dieser Wahl nicht stärkste Kraft werden konnte. Trotzdem gelang es den Nationalsozialisten, nachdem sie durch das "Ermächtigungsgesetz" den Parlamentarismus der Weimarer Republik beendet hatten, im April 1933 durch einen einzigen Federstrich – genauer durch ein einziges Regierungsdekret, das sogenannte "Gesetz zur Wiederherstellung des Berufsbeamtentums" – alle gegnerisch eingestellten und nicht-arischen Beamten zu entlassen bzw. in den vorzeitigen Ruhestand zu versetzen, wodurch allein die Universität schlagartig etwa 18 bis 19 % ihrer Professoren verlor. Im 20. Jahrhundert war es von Beginn an – bis zur nationalsozialistischen Epoche – zu einer enormen Blüte der Fächer Mathematik und Physik an der Universität gekommen. Mathematiker wie Felix Klein, David Hilbert, Hermann Minkowski, Emmy Noether, Hermann Weyl, Richard Courant und andere, sowie Physiker wie Max Born, James Franck setzten Maßstäbe, genossen weltweites Ansehen und verbreiteten den Glanz der Stadt. Dass das jetzt vorbei sein sollte, wurde von den Nazis bewusst in Kauf genommen. Nationalsozialismus, Kriegs- und Nachkriegszeit. An der Stelle, an der bis 1938 die Göttinger Synagoge stand, befindet sich seit 1973 ein von Corrado Cagli entworfenes Denkmal Skulptur am Platz der Synagoge von innen gesehen Zwar gingen die Wahlerfolge der NSDAP in Göttingen kurz vor der Machtergreifung noch leicht zurück, Hitlers Ernennung zum Reichskanzler am 30. Januar 1933 wurde in Göttingen am nächsten Tag jedoch mit einem großen Fackelzug gefeiert, an dem mehr als 2.000 uniformierte Angehörige von SA, SS und Hitlerjugend teilnahmen. Die Machtübernahme in Göttingen verlief ohne Zwischenfälle. Nach der Reichstagsbrandverordnung vom 28. Februar ging die Göttinger Polizei gezielt gegen die Kommunisten in Göttingen vor, und bereits am 5. März konnte die SA auf dem Rathaus ungehindert die Hakenkreuzflagge hissen. Die SA schlug am 28. März 1933 in Göttingen die Schaufenster jüdischer Geschäfte ein und griff jüdische Mitbürger tätlich an. Nicht weit von Göttingen, in Moringen (Landkreis Northeim), wurde schon 1933 ein Konzentrationslager eingerichtet, das ab 1940 als Jugendkonzentrationslager diente. Personen jüdischer „Abstammung“  wurden systematisch aus Verwaltung, Wirtschaft und Wissenschaft herausgedrängt. Für die Universität, insbesondere im Bereich der Mathematik und Physik, führte dies zu einem Aderlass, von dem sich die Naturwissenschaften in Göttingen und in ganz Deutschland nach dem Zweiten Weltkrieg nur langsam erholt haben. Zugleich kam es langfristig zu einer nicht sofort sichtbaren Verarmung des Geisteslebens in der Stadt. Im Gefolge der Bücherverbrennung, bei der die deutschen Studenten in vielen Universitätsstädten Bücher als „undeutsch“ bezeichneter Autoren öffentlich verbrannten, wurde das schon bald spürbar. Die Bücherverbrennung am 10. Mai 1933 wurde vom Rektor der Georg-August-Universität, Friedrich Neumann eröffnet. Nach einer sogenannten „Feuerrede“ des Germanisten Gerhard Fricke zogen die studentischen Gruppen um den Nationalsozialistischen Deutschen Studentenbund in einem Fackelzug vom Weender Tor zum Adolf-Hitler-Platz, dem heutigen Albaniplatz. Dort hielt der "Führer der Studentenschaft", Heinz Wolff, vor dem Scheiterhaufen mit einem „Lenin“-Schild auf der Spitze, eine kurze Rede über den „undeutschen Geist“. Nach dem Singen des Lieds „Flamme empor“ und des Horst-Wessel-Lieds löste sich die Menge auf. Im Zuge der Gleichschaltung der Studentenverbindungen mit dem Ziel der Überführung dieser in die nationalsozialistischen Kameradschaften (der so genannte Feickert-Plan) kam es zu Auseinandersetzungen, die von der Stadt unter dem nationalsozialistischen Bürgermeister Albert Gnade noch geschürt wurden und 1934 in den Göttinger Krawallen einen Höhepunkt fanden. Dennoch setzte sich die Staatsmacht durch, und alle Verbindungen wurden, beschleunigt durch die reichsweite Wirkung des Heidelberger Spargelessens im Mai 1935, bis Mitte 1936 entweder aufgelöst oder in Kameradschaften übergeleitet. In der Reichspogromnacht vom 9. auf den 10. November 1938 wurde die Göttinger Synagoge in der Maschstraße, die schon bei den Übergriffen im März 1933 erstmals verwüstet worden war, vom Nazi-Pöbel verbrannt. Von den vor 1933 fast 500 jüdischen Einwohnern lebten 1938 noch an die 220 in der Stadt. Diese wurden fast ausnahmslos Opfer der Angriffe von SA und SS. Im Dezember 1941 beschwerte sich die NSDAP-Kreisleitung Göttingen, dass die bevorstehende Deportation der Göttinger Juden in der Bevölkerung bereits bekannt geworden sei und sie mit Anträgen auf Wohnungszuweisung überhäuft werde. Widerstand gegen die Aktionen regte sich nicht. Die letzten 140 Mitglieder der jüdischen Gemeinde in Göttingen wurden 1942 in die Vernichtungslager deportiert. Bei Luftangriffen auf Göttingen im Zweiten Weltkrieg entstanden im Vergleich zu anderen Städten nur mäßige Schäden. Ab dem 7. Juli 1944 erlebte die Stadt zwar acht Luftangriffe, diese galten vorwiegend den Bahnanlagen. Zerstört wurden: Anatomie, Brauerei, die Eisenbahnbrücke über die Leine, der Güterbahnhof, das Gaswerk und das Empfangsgebäude des Bahnhofs. Die historische Altstadt blieb weitgehend unzerstört. Sprengbomben vernichteten hier die Hälfte der Unteren Maschstraße, ebenso die Lutherschule, die Junkernschänke, den "Rheinischen Hof" und mehrere Wohnhäuser in der Jüden- und Angerstraße. Schwer beschädigt wurde die Universitätsbibliothek, die sich damals in der Prinzenstraße befand, ebenso das Auditorium am Weender Tor, Paulinerkirche, Rathaus, Johanniskirche und Zoologisches Institut. Außerhalb der Altstadt wurden in Grone und Treuenhagen sowie in der Kasseler Landstraße, Arndtstraße, Emilienstraße und Weender Landstraße Wohnhäuser vernichtet. Insgesamt waren 107 Tote zu beklagen; zudem wurden 235 Wohnungen restlos zerstört, viele Häuser und öffentliche Gebäude beschädigt. Die Nachbarstädte Kassel, Hannover und Braunschweig mussten die volle Wucht der alliierten Bombenangriffe erleben. Göttingen wurde mit Bombenflüchtlingen überfüllt. Unter anderem wegen der gut ausgestatteten Krankenhäuser war es im Laufe des Krieges zur Lazarettstadt geworden, in der sich bei Kriegsende drei- bis viertausend verwundete Soldaten befanden. Mit Rücksicht darauf hatte Göttingen das Glück, dass das von General Otto Hitzfeld zur "Offenen Stadt" erklärte Göttingen vor den anrückenden amerikanischen Truppen von allen Kampfeinheiten verlassen wurde und so ohne größere Kampfhandlungen am 8. April 1945 befreit werden konnte. Durch Artilleriebeschuss wurden an diesem Tage noch mehrere Häuser in Geismar und der Wilhelm-Weber-Straße sowie die St.-Paulus-Kirche beschädigt. Insgesamt wurde Göttingen im Zweiten Weltkrieg zu 2,1 % zerstört. Nach dem Krieg wurde die Stadt der britischen Besatzungszone zugeschlagen, die amerikanischen Einheiten durch britische abgelöst. Göttingen lag nunmehr in einem Zonendreieck: Das benachbarte Thüringen gehörte zur sowjetischen Besatzungszone, Kassel im Süden zur amerikanischen. Durch diese Lage und da Göttingen weitgehend intakt den Krieg überstanden hatte, wurde es Anlaufstelle für viele Interzonenwanderer und Flüchtlinge. Die Göttinger Universität konnte als erste in Deutschland (kurz vor Heidelberg) zum Wintersemester 1945/46 den Lehrbetrieb wieder aufnehmen. Seit Gründung der Bundesrepublik Deutschland. Aufgrund der Kriegs- und Nachkriegswirren nahm die Bevölkerung der Stadt schlagartig zu. Während 1939 in Göttingen noch knapp 50.000 Einwohner lebten, waren es 1949 schon 80.000. Göttingen gehörte in dieser Zeit zu den am dichtesten besiedelten Städten Deutschlands. Dies lag daran, dass die Stadt nicht schon während des Industrialisierungsprozesses im 19. Jahrhundert wie andere Städte durch Eingemeindungen ausgeweitet worden war. In den ersten Nachkriegsjahren wurde vorrangig die Weststadt bebaut. Die Altstadt (Johanniskirche und Rückseite des Rathauses) im Jahre 1953 Am 12. April 1957 kam es erneut zu einer "Göttinger Erklärung": 18 deutsche Atom- und Kernphysiker, darunter Nobelpreisträger wie Max Born, Otto Hahn, Werner Heisenberg und Max von Laue warnten unter der Federführung von Carl Friedrich von Weizsäcker vor der Ausrüstung der Bundeswehr mit taktischen Atomwaffen, wie sie damals vom Kanzler der jungen Bundesrepublik, Konrad Adenauer, ins Gespräch gebracht wurde. Die Initiative der "Göttinger Achtzehn", die sich selbst in der Nachfolge der oben erwähnten "Göttinger Sieben" sahen, war von Erfolg gekrönt, denn Adenauers Vorstellungen waren von diesem Zeitpunkt an hinfällig. Eingemeindungen und Industrialisierung wurden durch das Göttingen-Gesetz vom 1. Juli 1964 nachgeholt. Einerseits wurden die Gemeinden Geismar, Grone, Nikolausberg und Weende mit Wirkung vom 4. Juli 1964 in die Stadt eingegliedert. Andererseits wurde die Stadt Göttingen in den Landkreis Göttingen eingegliedert. Dennoch erhielt Göttingen eine Sonderstellung im Kreis, da für die Stadt weiterhin die Vorschriften für kreisfreie Städte anwendbar sind, soweit nicht landesrechtlich etwas anderes bestimmt ist. Göttingens Stadtgebiet wurde durch die Eingliederungen auf 7371 ha mehr als verdoppelt, die Einwohnerzahl erhöhte sich um 31 % von 83.000 auf 109.000. Parallel dazu entstanden in den eingemeindeten Außenbezirken große Neubaugebiete und neue Stadtteile. Das neue Rathaus konnte 1978 bezogen werden Die Weichen für eine Entwicklung zu einer modernen Großstadt waren gestellt. Größere Planungsvorhaben in den 1970er-Jahren wollten zwar das Gepräge der alten Universitätsstadt erhalten, Göttingen sollte nach dem Raumordnungsplan als Oberzentrum für den gesamten südniedersächsischen Raum fungieren. Im Zuge dieses Vorhabens wurden große Teile der, da im Krieg unzerstörten, gut erhaltenen Altstadt im Rahmen sog. "Flächensanierungen " vollständig abgerissen und durch Neubauten, Parkhäuser oder Brachflächen ersetzt. Einschneidendster Schritt hierbei war der 1968 erfolgte Abriss des 1735 errichteten universitären Reitstalls in der Weender Straße, der von heftigen Bürger- und Studentenprotesten begleitet wurde. Zwischen 1966 und 1975 wurden die innerstädtischen Straßen weitgehend zu Fußgängerzonen ausgebaut. Die Verwaltung konnte 1978 ihr neues Rathaus beziehen, für das ursprünglich der Reitstall weichen musste, das aber an ganz anderer Stelle südöstlich der Altstadt gebaut wurde. Statt des Rathauses entstanden im Reitstallviertel ein Kaufhaus und ein kurzlebiges Stadtbad (nach langem Leerstand etwa 2004 abgerissen). a> am Campus wurde 1993 eröffnet. Wie die Stadt, modernisierte sich die wachsende Universität. Die Studentenzahlen stiegen von 4680 im Wintersemester 1945/46 auf 30.000 Anfang der 1990er-Jahre; erst anschließend wurden sie wieder rückläufig. Ab 1964 entstand der heutige Campus und das geisteswissenschaftliche Zentrum auf dem Gebiet des ehemaligen Universitätssportzentrums nördlich der Altstadt. Zwischen Weende und Nikolausberg wurde die Nord-Uni aufgebaut, wo sich heute ein Großteil der naturwissenschaftlichen Einrichtungen befindet. Ab 1973 wurde zudem mit dem Bau eines neuen Universitätsklinikums begonnen. 1993 wurde schließlich der architektonisch anspruchsvolle Neubau der Staats- und Universitätsbibliothek auf dem Campus eröffnet. Mit der Grenzöffnung 1989 und dem Beitritt der ostdeutschen Bundesländer 1990 verlor Göttingen seine Randlage und liegt verkehrsgünstig mitten in Deutschland. Der Wandel war jedoch damit verbunden, dass die Bundeswehr 1993 ihren Standort in Göttingen aufgab und so nicht nur die traditionsreiche Geschichte der Stadt als Garnisonsstadt ein Ende fand (siehe 2. Kurhessisches Infanterie-Regiment Nr. 82), sondern ein bedeutender Wirtschaftsfaktor verschwand. Die im Jahre 1968 in Göttingen aufgetretenen Studentenunruhen gingen hier nicht so schnell zu Ende wie anderswo. Noch Anfang der 1990er-Jahre geriet Göttingen wegen der sogenannten "Scherbendemos" der Autonomen Antifa sowie der spektakulären Bündnisdemonstrationen gegen Rechtsextremismus unter Beteiligung des linksradikalen schwarzen Blockes, dessen Teilnehmer vermummt an der Spitze der bis ins bürgerliche Spektrum reichenden Demonstrationen auftraten, in die Schlagzeilen. Seit 1990 fast durchgängig bis heute gibt es aus dieser linksradikalen Bewegung zahlreiche Aktionen, welche ein bundesweites Medienecho auf sich ziehen. Das entschlossene Vorgehen weiter Teile der Göttinger Bevölkerung gegen rechtsradikale Demonstrationen, häufig in Form von Bündnissen, an welchen sich kirchliche Gruppen sowie Gewerkschaften und autonome Gruppen aus dem linksradikalen Spektrum Göttingens beteiligen, hat mit dazu beigetragen, dass der Rechtsextremismus in Göttingen selbst wenig bis gar keinen Boden gewinnen konnte. Trotzdem finden regelmäßig NPD-Demonstrationen, Naziaufmärsche und -kundgebungen mit Teilnehmerinnen und Teilnehmern aus ganz Deutschland statt, die regelmäßig viele Gegendemonstranten dazu bringen sich aktiv gegen Rechtsextremismus zu positionieren. Während derartiger Ereignisse müssen die Rechtsextremen und die Gegendemonstranten von einem hohen Polizeiaufgebot getrennt werden. Bei der Entschärfung eines 65 Jahre alten Blindgängers aus dem Zweiten Weltkrieg auf dem Göttinger Schützenplatz starben am 1. Juni 2010 drei Personen, zwei wurden schwer und vier leicht verletzt; alle waren mit den Vorarbeiten zur Bombenentschärfung beschäftigt. Einwohnerentwicklung. Die Einwohnerentwicklung weist seit dem Mittelalter ein Wachstum auf, das sich mit Beginn der frühen Neuzeit stark beschleunigt hat. 1986 wurde mit offiziell 133.796 hauptwohnlich gemeldeten Einwohnern ein vorläufiger Höchststand erreicht, der jedoch nach der Volkszählung 1987 um 20.000 Personen nach unten korrigiert werden musste, auf 114.698, da die zu hohe Zahl auf einer fehlerhaften Fortschreibung beruhte. In den folgenden Jahren stieg die offizielle Einwohnerzahl zwischenzeitlich auf 128.419 (1997), sank danach leicht ab und pendelte sich ab 2004 bei ca. 122.000 Einwohnern ein. Bis 2013 blieb diese Zahl etwa konstant, als die Zensusdaten zugrundegelegt wurden und Göttingens offizielle Zahl der hauptwohnlich gemeldeten Personen ein weiteres Mal um etwa 5000 Personen auf 116.420 im Juni 2013 nach unten korrigiert wurde. Sehr viele Studierende hatten sich in der Zwischenzeit beim Fortzug nicht abgemeldet und waren noch als hauptwohnlich gemeldet registriert, was in zu hohen Einwohnerzahlen resultierte. Auf der anderen Seite sind nur etwa die Hälfte der Studierenden in Göttingen hauptwohnlich gemeldet, was bedeutet, dass die tatsächliche Einwohnerzahl der Stadt bei etwa 132.000 liegen dürfte (2014). Studierendenzahlen der Uni Göttingen: Sommersemester 2004: 23.446, Wintersemester 2004/05: 24.398, Sommersemester 2005: 23.649, Wintersemester 2005/06: 24.400 (). 2014 lag diese Zahl bei 27.456, von denen 18.391 in Göttingen haupt- oder nebenwohnlich gemeldet waren. Daneben gibt es noch weitere Hochschulen wie die Hochschule für Angewandte Wissenschaft und Kunst oder die Private Fachhochschule Göttingen (beide zusammen mit 1802 am Standort Göttingen eingeschriebenen Studierenden), was einen Studentenanteil von etwa 22 % ergibt (2014). Religionen. Das Gebiet der Stadt Göttingen gehörte anfangs zum Erzbistum Mainz beziehungsweise zu dessen Archidiakonat Nörten. Nach der Reformation war Göttingen über viele Jahrhunderte eine fast ausschließlich lutherische Stadt. 1530 erhielt die Stadt eine neue Kirchenordnung mit einem Stadtsuperintendenten, welcher dem Landessuperintendenten in Grubenhagen unterstand. Alle Kirchengemeinden der Stadt bildeten einen Gesamtverband. Im späteren Königreich Hannover wurde Göttingen Sitz eines Sprengels, zu dem mehrere Kirchenkreise, darunter der Kirchenkreis Göttingen gehört. Alle protestantischen Kirchengemeinden der Stadt Göttingen gehören heute – sofern es sich nicht um Freikirchen handelt – zum Kirchenkreis Göttingen der Evangelisch-Lutherischen Landeskirche Hannovers. Ab 1713 wurden in Göttingen reformierte Hausgottesdienste gehalten, 1736 gab es französisch-reformierte Gottesdienste. Dies alles führte 1748 zur Gründung einer reformierten Gemeinde, die 1752 in die Konföderation reformierter Kirchen in Niedersachsen aufgenommen wurde. 1928 war die reformierte Gemeinde Göttingens Gründungsmitglied des Bundes Evangelisch-reformierter Kirchen Deutschlands, dem sie heute noch angehört. Ab 1746 wurden für die Studenten in Göttingen wieder katholische Gottesdienste erlaubt, ein Jahr später für alle Einwohner der Stadt. Erst 1787 konnte die erste katholische Kirche (St. Michael) nach der Reformation gebaut werden. 1825 entstand eine selbständige Pfarrgemeinde, die zum Bistum Hildesheim gehörte. 1929 wurde eine zweite katholische Kirche, die Pauluskirche, geweiht. Später wurde Göttingen Sitz eines Dekanats des Bistums Hildesheim, zu dem heute alle römisch-katholischen Pfarrgemeinden der Stadt gehören. Neben den beiden großen Kirchen gibt es Gemeinden, die zu Freikirchen gehören, darunter eine Evangelisch-Freikirchliche Gemeinde (Baptisten, gegründet 1894), eine Mennoniten-Gemeinde (gegründet 1946), die Evangelische Freikirche Ecclesia, eine Gemeinde der Siebenten-Tags-Adventisten, eine Gemeinde der Selbständigen Evangelisch-Lutherischen Kirche (SELK) und die Freie Evangelische Gemeinde (FeG). In Göttingen gibt es eine seit dem 16. Jahrhundert nachweisbare jüdische Gemeinde, deren Synagoge in der Reichspogromnacht 1938 niedergebrannt wurde. Der jüdische Friedhof neben dem Stadtfriedhof hat die Zeit des Nationalsozialismus erstaunlich gut überstanden. Mittlerweile gibt es wieder ein reges jüdisches Gemeindeleben. Zum Jahresbeginn 2004 konnte in der Angerstraße ein neues Gemeindezentrum eingeweiht werden. Am 6. Februar 2004 konnte der erste Erew-Shabbat-Gottesdienst im neuen Gotteshaus gefeiert werden. Das neue Synagogengebäude wurde aus Bodenfelde nach Göttingen versetzt („transloziert“). Ebenso gibt es mehrere muslimische Gemeinden. Im Königsstieg wurde 2005 mit dem Bau der Salimya-Moschee begonnen, die 2006 fertiggestellt wurde. Außerdem befindet sich die Al-Taqwa-Moschee in der Güterbahnhofstraße. Darüber hinaus sind Gemeinden der Zeugen Jehovas, der Kirche Jesu Christi der Heiligen der Letzten Tage, der Neuapostolischen Kirche und der Russisch-Orthodoxen Kirche in Göttingen vertreten. Politik- und Verwaltungsgeschichte. An der Spitze der Stadt stand schon seit dem 12. Jahrhundert der Rat mit 24 Ratsherren. Ab 1319 unterstand die Neustadt dem Rat. Die Wahl des Rates erfolgte am Montag nach dem Michaelistag. Ab 1611 wurden die 24 Ratsherren von der gesamten Bürgerschaft gewählt. Der Rat wählte aus seiner Mitte den Bürgermeister. Ab 1669 gab es nur noch 16 Ratsherren, später nur noch 12. Ab 1690 wurde das Stadtregiment völlig neu geordnet. Danach gab es den Rat, der aus dem Gerichtsschulze, zwei Bürgermeistern, dem Syndikus, dem Stadtsekretär und acht Ratsherren, die von der Regierung zu wählen waren, bestand. Während der Zugehörigkeit der Stadt zum Königreich Westphalen leitete ein Maire die Stadtverwaltung. Ihm stand ein Munizipalrat zur Seite. 1831 wurde ein neues Verfassungs- und Verwaltungsreglement erlassen. Danach gab es einen Bürgermeister beziehungsweise ab 1844 einen Oberbürgermeister. Mit der neuen Städteordnung von 1852 gab es wieder einen Bürgermeister, der ab 1885 erneut den Titel Oberbürgermeister trug. Während des Dritten Reichs wurde das Stadtoberhaupt von der NSDAP eingesetzt. 1946 führte die Militärregierung der Britischen Besatzungszone die Kommunalverfassung nach britischem Vorbild ein. Danach gab es einen vom Volk gewählten Rat. Dieser wählte aus seiner Mitte den Oberbürgermeister als Vorsitzenden und Repräsentanten der Stadt, welcher ehrenamtlich tätig war. Daneben gab es ab 1946 einen ebenfalls vom Rat gewählten hauptamtlichen Oberstadtdirektor als Leiter der Stadtverwaltung. 2000 wurde in Göttingen die Doppelspitze in der Stadtverwaltung aufgegeben. Seither gibt es nur noch den hauptamtlichen Oberbürgermeister. Dieser ist Leiter der Stadtverwaltung und Repräsentant der Stadt. Er wird seit 1999 direkt vom Volk gewählt. Aus der ersten Wahl im Jahr 1999 ging Jürgen Danielowski (CDU) als Sieger hervor. Er trat das Amt am 1. Januar 2000 an und übergab es am 1. November 2006 an seinen Nachfolger, Wolfgang Meyer (SPD). Es gibt jedoch weiterhin einen eigenen Vorsitzenden des Rates, der nach jeder Kommunalwahl bei der konstituierenden Sitzung des Rates aus dessen Mitte gewählt wird. Dies ist Katharina Lankeit (SPD). Rat der Stadt. 2013 aufgenommenes Luftbild vom Neuen Rathaus Stand: Kommunalwahl am 11. September 2011 Der Rat der Stadt Göttingen setzt sich aus 47 Ratsmitgliedern (46 Ratsfrauen und Ratsherren und einem direkt gewählten hauptamtlichen Oberbürgermeister) zusammen. Stand: Kommunalwahl am 11. September 2011 SPD und GRÜNE haben sich für die Wahlperiode auf Eckpunkte einer gemeinsamen Politik und ein Haushaltsbündnis verständigt. Oberbürgermeister. Am 15. Juni 2014 wurde Rolf-Georg Köhler in einer Stichwahl mit 58,9 % zu Göttingens Oberbürgermeister gewählt. Er trat sein Amt am 1. November 2014 an. Abgeordnete. Im Bundestag wird Göttingen durch die Bundestagsabgeordneten Thomas Oppermann (SPD), Fritz Güntzler (CDU) und Jürgen Trittin (Grüne) vertreten. Im 2008 gewählten Niedersächsischen Landtag vertreten die Abgeordneten Gabriele Andretta (SPD, Direktwahl Göttingen-Stadt), Ronald Schminke (SPD, Direktwahl Göttingen/Münden), Lothar Koch (CDU, Direktwahl WK15), Stefan Wenzel (Grüne, Landesliste) und Patrick Humke (Die Linke, Landesliste) die Stadt Göttingen. Wappen. Das Stadtwappen wurde in seiner heutigen Form zuletzt 1961 in der Hauptsatzung der Stadt festgelegt. Zeitweise verwendete die Stadt ein einfacheres Wappen, das in Schwarz den golden gekrönten, goldenen Großbuchstaben G zeigte. Flagge. Die Flagge der Stadt zeigt die Farben schwarz und gold in zwei gleichbreiten Längsstreifen. Wahlspruch. Göttingens Wahlspruch, der sich am Eingang zum Ratskeller befindet, lautet: „"Extra Gottingam non est vita, si est vita non est ita"“ (zu deutsch „Außerhalb Göttingens gibt es kein Leben; gibt es Leben, dann kein solches“) und soll auf den Schriftsteller und Historiker August Ludwig von Schlözer zurückgehen. Bildung und Forschung. Göttingen ist eine Stadt, die seit dem 18. Jahrhundert im Wesentlichen von Bildung und Forschung geprägt wird, daher die Bezeichnung "Universitätsstadt". 45 Nobelpreisträger kamen aus der Stadt und/oder haben dort gewirkt. (Dies wird als Göttinger Nobelpreiswunder bezeichnet.) Dominierend in Stadtbild und Wahrnehmung ist die Georg-August-Universität Göttingen. Sie wurde 1737 durch den damaligen Kurfürsten Georg II. August von Hannover, König von Großbritannien gegründet und hat eine lange Liste bekannter Persönlichkeiten hervorgebracht. 2007 gewann die Universität die zweite Runde der Exzellenzinitiative. Im Stadtbild erinnern die für Göttingen seit 1874 typischen Gedenktafeln an den Häusern an die Wohnstätten von etwa 320 berühmten Göttinger Gelehrten und Studenten. Sie sind zumeist aus weißem Marmor und verweisen auf die Wohnzeit der geehrten Person im jeweiligen Haus. Mit der Anbringung der Tafel ist eine "Göttinger Laudatio" verbunden. 1751 wurde die "Königliche Societät der Wissenschaften in Göttingen", die spätere Akademie der Wissenschaften zu Göttingen, gegründet. Seit 1974 hat die Hochschule für angewandte Wissenschaft und Kunst einen Standort in Göttingen. 1983 wurde die Berufsakademie Göttingen gegründet, 1994 die Private Fachhochschule Göttingen und 2002 die Fachhochschule im Deutschen Roten Kreuz, die nicht mehr besteht. Daneben gibt es die Verwaltungs- und Wirtschafts-Akademie Göttingen e. V. sowie die "Volkshochschule Göttingen e. V". Neben den Hochschulen sind fünf Institute der 1948 von Otto Hahn gegründeten Max-Planck-Gesellschaft zur Förderung der Wissenschaften in Göttingen ansässig, es handelt sich um das Max-Planck-Institut für experimentelle Medizin, das Max-Planck-Institut für biophysikalische Chemie, das Max-Planck-Institut zur Erforschung multireligiöser und multiethnischer Gesellschaften und das Max-Planck-Institut für Dynamik und Selbstorganisation. 2014 wurde das bis dahin noch in Katlenburg-Lindau ansässige Max-Planck-Institut für Sonnensystemforschung nach Göttingen verlegt. Die Stadt Göttingen ist außerdem „Korporativ Förderndes Mitglied“ der Max-Planck-Gesellschaft. Mit dem Thema "Perspektive Sprache" gehörte Göttingen zu den zehn deutschen Städten, die im Wissenschaftsjahr 2009 Treffpunkt der Wissenschaft waren. Sonstige wissenschaftliche Einrichtungen. Gebäude des Schülerlabors XLAB auf dem Nordcampus der Universität Schulen. Göttingen hat neben fünf Gymnasien (Felix-Klein-Gymnasium, Hainberg-Gymnasium, Max-Planck-Gymnasium, Otto-Hahn-Gymnasium, Theodor-Heuss-Gymnasium) die Georg-Christoph-Lichtenberg-Gesamtschule, die Geschwister-Scholl-Gesamtschule und das Abendgymnasium Göttingen, an welchem man ebenso sein Abitur absolvieren kann. Außerdem besteht diese Möglichkeit an den Berufsbildenden Schulen I (Arnoldischule) im Fachgymnasium Wirtschaft, im Fachgymnasium Technik der Berufsbildenden Schulen II sowie an den Berufsbildenden Schulen III im Fachgymnasium Gesundheit und Soziales. Schulen in freier Trägerschaft sind die Freie Waldorfschule Göttingen als Gesamtschule mit allen Abschlussmöglichkeiten sowie eigenem Waldorfabschluss und die Montessori-Schule. Allgemein gibt es in Göttingen ein vollständiges Angebot an Allgemeinbildenden und beruflichen Schulen. Theater. Barbara – Repro von Reginald Gray Die Göttinger Theaterlandschaft umfasst das renommierte Deutsche Theater Göttingen, das Junge Theater Göttingen (JT), das Theater im OP, welches einen ehemaligen Schauoperationssaal der alten chirurgischen Klinik der Göttinger Universität als Bühne nutzt, sowie die Großbühne der Freien Waldorfschule Göttingen in Weende, auf der jährlich mehrere Theater- und Eurhythmieaufführungen in einem 450 Personen fassenden Festsaal stattfinden. In Göttingen gibt es weiterhin verschiedene Theatergruppen, wie die "Stillen Hunde" oder den Verein "Domino". Musik. Die jährlich im Frühsommer von der Händelgesellschaft veranstalteten Internationalen Händel-Festspiele gehen auf die ersten Wiederaufführungen von Händel-Opern in nachbarocker Zeit zurück, die in den 1920er Jahren von Musikwissenschaftlern in Göttingen initiiert wurden. Im späten 20. Jahrhundert wurden die Festspiele unter der Leitung von John Eliot Gardiner und später Nicholas McGegan zu einem Zentrum der musikalischen und szenischen historischen Aufführungspraxis der Werke Georg Friedrich Händels. Seit 2012 ist der Brite Laurence Cummings Künstlerischer Leiter der Festspiele. Die Festspiele ziehen ein internationales Publikum an, insbesondere aus Händels Wahlheimat Großbritannien. Einer der zahlreichen Konzertorte ist das Deutsche Theater Göttingen. Im Sommer 2007 hat Judith Kara in Zusammenarbeit mit der Universität Göttingen die "Alte Fechthalle" renoviert und zu einem Kulturzentrum ausgebaut. Es entstand ein Veranstaltungsort mit guter Akustik, um unterschiedliche Kunstformen zusammenzuführen. Hier findet im Herbst die "Tanz-Kultur-Woche" statt. Seit vielen Jahren ist das Goethe-Institut ein Veranstaltungsort für Kammerkonzerte. Die Levinsche Villa wurde Ende des 19. Jahrhunderts von einem Göttinger Unternehmer erbaut. Zwischen den Weltkriegen wurde das Gebäude von der Stadt Göttingen Wissenschaftlern als Wohnung zur Verfügung gestellt. Seit März 2012 betreibt der Pianist Gerrit Zitterbart einen "Clavier-Salon", wo internationale junge Preisträger solistisch und mit Kammermusik auftreten. 1964 machte das Chanson "Göttingen" der französischen Sängerin Barbara die Stadt bekannt. Es sind Einrichtungen wie das Göttinger Symphonie Orchester, das Jugend-Sinfonieorchester Göttingen, der Göttinger "Flowmarkt" oder die Guano Apes und Ganz Schön Feist, die über die Stadtgrenzen hinaus bekannt sind. Daneben besitzt Göttingen im Bereich der klassischen Musik eine Laienmusikszene mit allein fünf Sinfonieorchestern mit verschiedener thematischer Ausrichtung. Die Stadt hat mit dem Göttinger Knabenchor einen in den 1970er Jahren über die Landesgrenzen hinaus bekannten Chor. Solisten der Chorakademie Göttingen werden an Musiktheatern der Region regelmäßig engagiert. Weiterhin gibt es in Göttingen mehrere Laien-Bigbands und andere Jazz-Formationen. Seit 1978 findet am ersten Wochenende im November das Göttinger Jazzfestival mit internationalen Stars sowie Göttinger Jazzkünstlern statt. Der Verein stallarte organisiert jedes Jahr ein Festival mit Bildender Kunst, Literatur und Neuer Musik. Aus rechtlichen Gründen wird das Göttinger Altstadtfest nicht mehr veranstaltet, stattdessen gibt es seit 2006 jährlich ein "Indoor-Altstadtfest" in den Räumen verschiedener Diskotheken. Für Veranstaltungen stehen die Stadthalle und die Lokhalle zur Verfügung. Ein traditionsreicher Live-Club ist der Nörgelbuff. Literatur. Seit 1992 findet jährlich im Herbst der zehntägige Göttinger Literaturherbst statt, mit Lesungen und Vorträgen internationaler Autoren im Alten Rathaus und im Deutschen Theater. Im Jahr 2002 fand der Festakt zum 75. Geburtstag von Günter Grass im Rahmen des Literaturherbstes statt, in Anwesenheit von Bundeskanzler Gerhard Schröder und Bundespräsident Johannes Rau. Das Literarisches Zentrum Göttingen bestreitet ein ganzjähriges regelmäßiges Programm, zu dem als „begehbarem Feuilleton“ nicht nur Autorinnen und Autoren, sondern auch Kulturschaffende aus den angrenzenden Bereichen eingeladen werden. Das Literarische Zentrum besteht seit dem Jahr 2000 als feste Institution. Denkmäler. Der "Nabel", Zentrum der Göttinger Fußgängerzone Bauwerke. Im Rahmen einer von 2008 bis 2010 durchgeführten Nachinventarisierung der ausgewiesenen Kulturdenkmale in der Innenstadt von Göttingen wurde der gesamte vom mittelalterlichen Wall umschlossene Bereich bis zum äußeren Wallfuß als "Baukulturensemble Innenstadt Göttingen" ausgewiesen. Innerhalb dieses Bereichs sind 179 Bauwerke als Einzelbaudenkmale ausgewiesen. Weitere 819 Gebäude, in 90 Gruppen zusammengefasst, zählen als konstituierende Bestandteile des Baukulturensembles Innenstadt. Für die weitere Entwicklung der Innenstadt wurde im Jahr 2011 ein Innenstadtleitbild herausgegeben. Davon sind die fünf ältesten Stadtpfarrkirchen: Albani, Jacobi, Johannis, Nikolai und Pauliner – Marien kam wahrscheinlich erst nach einer Stadterweiterung hinzu. Der "Vierkirchenblick" ist mit einer Bronzeplatte im Pflaster an der Ecke Marktplatz/Kornmarkt gekennzeichnet. Von dort ist in jeder Himmelsrichtung eine Kirche zu sehen (N: Jacobi, O: Albani, S: Michaelis, W: Johannis). Die Bronzeplatte wurde von dem Inhaber des Bekleidungshauses Diekmann, Harro Tubbesing, gestiftet. 1981 wurden bei Umbauarbeiten im Bekleidungshaus Diekmann die Grundmauern des 1251 erbauten "Schuhhofes", das älteste Gildehaus der Stadt mit gotischem Tonnengewölbe und Kreuzgratgewölbe, entdeckt. Heute wird das Kellergewölbe als Gaststätte genutzt. Die Gebäude mit den Hausnummern Markt 7 und 8 wurden in die Liste niedersächsischer Kulturdenkmale aufgenommen und stehen an der Südseite des Marktplatzes. Die Junkernschänke wurde im 15. Jahrhundert als spätgotisches Fachwerkhaus erbaut. An der Hausfront sind prachtvolle Schnitzereien mit Gestalten des alten Testaments zu sehen. Das Alte Rathaus ist im Kern gotisch. An der Treppe des Rathauses befinden sich zwei steinerne, wappentragende Löwen. Auf dem davor gelegenen Marktplatz befindet sich der berühmte Gänselieselbrunnen, das Wahrzeichen der Stadt. Außerdem finden sich zahlreiche mitunter stark restaurierte Fachwerkhäuser (13. bis 19. Jahrhundert), wie zum Beispiel die "Rote Straße 25" von 1276, ein typisches gotisches Wohnhaus, und – nach zwei Fachwerkhäusern in Esslingen am Neckar von 1262/63 und 1267 – das drittälteste bislang dendrochronologisch datierte Fachwerkhaus in Deutschland. Ferner erwähnenswert sind die Ratsapotheke und die am 21. März 1945 durch Bomben zerstörte und nach dem Zweiten Weltkrieg wieder aufgebaute Junkernschänke (1547), das Bornemannsche Haus, der Schwarze Bär, das Schrödersche Haus und das Lichtenberghaus, mit dem sich die Stadt Göttingen im "Zeit"-Wettbewerb "365 Orte im Land der Ideen" bewirbt. Die Innenstadt ist noch heute fast vollständig umgeben vom im 18. Jahrhundert zu einem Spazierweg umgebildeten Wall. Zu den universitären Sehenswürdigkeiten zählen die Aula mit dem Karzer (in dem entgegen einem weit verbreiteten politischen Mythos der Reichskanzler Otto von Bismarck nicht als Student einsaß), die neben anderen Göttinger Bauten auf dem 10-D-Mark-Schein zu sehen war, das Alte Auditorium und der Alte Botanische Garten. Die ehemalige Sternwarte beim Geismarer Tor ist ein klassizistischer Bau mit Anklängen an die sogenannte Revolutionsarchitektur (um 1800). Am Geismartor befindet sich das ehemalige Accouchierhaus (Entbindungsanstalt der späten Aufklärungszeit), das heute als Musikwissenschaftliches Seminar der Universität genutzt wird. An die Studienzeit Bismarcks erinnert neben dem Karzer das Bismarckhäuschen am Wall unmittelbar vor den Toren der Stadt. Auf dem Kleperberg steht ein Exemplar der beliebten Bismarcktürme. Im Stadtteil Nikolausberg findet man in exponierter Lage eine malerische Dorfkirche, deren romanischen Bauteile stilistisch mit der sogenannten Bauschule von Königslutter am Elm in Verbindung zu stehen scheinen. Ursprünglich wurde sie als Klosterkirche gegründet; der Konvent siedelte aber schon früh in das nahe im Tal gelegene Weende (heute Stadtteil von Göttingen) über. Im Stadtteil Weende beeindruckt der 1987 fertiggestellte, in der Region architektonisch einzigartige Schulbau der Freien Waldorfschule Göttingen mit seinem 2007 eingeweihten Südflügel (Entwurf: Jochen Brandi). Nördlich von Göttingen, oberhalb von Bovenden, befindet sich die Ruine der mittelalterlichen Burg Plesse. Konzert der Händel-Festspiele in der Alten Aula am Wilhelmsplatz Um Göttingen herum wurden im Mittelalter 11 Warttürme angelegt. Erhalten sind: Rieswarte (Nikolausberg), Diemardener Warte und Roringer Warte. Im Stadtgebiet gibt es zahlreiche Beispiele für moderne Kunst, beispielsweise die Bronzeskulptur "Der Tanz" von Bernd Altenstein (1982). Ihr Standort in der Mitte der Altstadt wird im Volksmund "Nabel" genannt. Glockenspiel. Am Gebäude Lange-Geismar-Str. 44 ertönt mehrfach täglich ein Glockenspiel. Regelmäßige Veranstaltungen. Eine sehr bekannte Veranstaltung mit zahlreichen über die gesamte Fußgängerzone verteilten Bühnen für die Präsentation von satirischen und musikalischen Liveaufführungen war das am letzten Augustwochenende stattfindende "Altstadtfest". Der letzte Veranstalter wurde jedoch zahlungsunfähig, ein Nachfolger ließ sich aufgrund des finanziellen Risikos nicht mehr finden und zudem gab es eine Lärmschutzklage einer Anwohnerin, die den Prozess gewann. Diese beiden Gründe führten dazu, dass das letzte Altstadtfest im Jahre 2004 stattfand. Auf Initiative verschiedener Einrichtungen in Göttingen findet seit 2007 das "Indoor-Altstadtfest" zum gleichen Zeitpunkt in einigen Kneipen statt. Gemeinsam mit der Stadt Toruń verleiht Göttingen alljährlich den Samuel-Bogumil-Linde-Preis. Damit ehrt sie das Ehrenmitglied der Akademie der Wissenschaften zu Göttingen Samuel Linde. Studentenverbindungen und Logen. Durch die Universität gründeten sich Mitte des 19. Jahrhunderts etliche Burschenschaften und andere Studentenverbindungen in Göttingen. Von ihnen sind noch die Burschenschaften Hannovera, Holzminda und Brunsviga aktiv. Als Gegner der Burschenschaften entstand seit den 1960er Jahren eine größere Gruppe linker Aktivisten, welche ein Gebäude in der Roten Straße zu ihrem Treffpunkt machte und regelmäßig Demonstrationen veranstalten. Nach Gründung der Universität wurde in Göttingen 1747 auf Wunsch von Carl Phillip Freiherr von Knigge, der in Göttingen studiert hatte und in Hannover Meister vom Stuhl der Freimaurerloge "Friedrich" geworden war, eine Deputationsloge (Zweigloge) ins Leben gerufen. Damit war Göttingen eine der ersten Städte mit einer Loge. Erster Meister vom Stuhl wurde der Professor und Rechtswissenschaftler Georg Ludwig Böhmer. Nach anfänglichen Schwierigkeiten wurde die Loge 1753 aufgelöst, 1765 und 1793 erneut gegründet und 1810 unter dem jetzigen Namen "Augusta zum Goldenen Zirkel" mit der Matrikelnummer 22 gegründet. Die Loge, die knapp 50 Mitglieder umfasst, stellt sich selbst als offene Gemeinschaft für jeden dar. Sie nimmt nur Männer auf, lädt aber auch deren Familien ein und trifft sich regelmäßig in ihrem Logenhaus in der Oberen Karspüle 47. Aktueller Meister vom Stuhl ist Peter Rehfeld. Wirtschaft und Infrastruktur. Im Jahr 2010 betrug die Arbeitslosenquote 8,3 % (2009: 9,4 %, 2008: 10,1 %). Verkehr. 2013 aufgenommenes Luftbild vom Göttinger Bahnhof Weender Tor zwischen Innenstadt und Universitätsbereich Versuchsweise wurde Ende 2007 ein Doppelgelenkbus in Göttingen eingesetzt Durch das westliche Stadtgebiet von Göttingen führt von Nord nach Süd die Bundesautobahn 7 Hannover–Kassel. Südlich von Göttingen entstand mit dem Autobahndreieck Drammetal der Anschluss an die Bundesautobahn 38 nach Halle (Saale) und Leipzig. Ferner führen die Bundesstraßen 3 und 27 durch Göttingen. Rund um die Innenstadt verläuft entlang des ehemaligen Stadtwalls der Verkehrsring, der das Stadtzentrum fußläufig relativ stark von den angrenzenden Quartieren abschneidet, den Autoverkehr weitestgehend aus dem Stadtkern heraushält und in die entlegenen Stadtteile in allen Richtungen hin verteilt. Dennoch gibt es Überschneidungen unterschiedlicher Nutzergruppen, insbesondere im Bereich des Übergangs zwischen Fußgängerzone und kleingekammerter Bebauung. Bus- und Parksuchverkehr stören sich hier mit Fahrradfahrern und Fußgängern. Der Bahnhof Göttingen liegt an der 1991 eröffneten Schnellfahrstrecke Hannover–Würzburg und ist seitdem ein Halt des ICE. Die Linienverläufe des InterCityExpress führen über Kassel nach Frankfurt am Main, München und Stuttgart, teils in die Schweiz und nach Österreich, sowie in Gegenrichtung nach Hannover, Hamburg, Bremen und über Braunschweig und Wolfsburg nach Berlin. Im alten Streckennetz liegt Göttingen an der Nord-Süd-Hauptstrecke von Hamburg über Hannover aus Norden und nach Kassel, Frankfurt und Würzburg im Süden (Bahnstrecke Göttingen–Bebra). Die Bahnstrecke Göttingen–Bodenfelde führt an die Weser und in den Solling (mit Anschlüssen in Richtung Paderborn). Täglich verkehren in Göttingen 126 ICE, 53 IC und 236 Nahverkehrszüge. Der Regionalverkehr wird seit einigen Jahren auf der Südstrecke nach Ausschreibungen durch private Anbieter gewährleistet. In Richtung Kassel fährt über Eichenberg–Witzenhausen–Hann.Münden ein Regionalexpress in Doppeltraktion, wobei die eine Traktion die Strecke über Bad Sooden–Eschwege bis nach Bebra bedient. Seit 1980 ist die in Göttingen abzweigende Dransfelder Bahn, die als Bestandteil der Hannöverschen Südbahn die erste Bahnverbindung zwischen Hannover und Kassel war, stillgelegt. 1957 wurde die Gartetalbahn, eine Schmalspurbahn nach Duderstadt für den Personenverkehr stillgelegt. Die nächsten Verkehrsflughäfen sind in Hannover (etwa 105 km Luftlinie), Paderborn (etwa 90 km Luftlinie) und Kassel-Calden (etwa 40 km Luftlinie). Kleinere Flugplätze in der Umgebung von Göttingen sind der Flugplatz Göttingen-Heilbad Heiligenstadt (20 km Luftlinie), der Flugplatz Witzenhausen (20 km Luftlinie), der Flugplatz Höxter-Holzminden (47 km Luftlinie) und der Flugplatz Northeim (etwa 20 km Luftlinie). 27 Stadtbuslinien (Linien 11/12, 21/22, 23, 31/32, 33, 41/42, 50, 61/62, 71/72, 73, 80, 91/92 sowie Nachtbuslinien N1 bis N8) der Göttinger Verkehrsbetriebe und zahlreiche Taxis bedienen den öffentlichen Personennahverkehr Göttingens. Vielfach bevorzugtes Verkehrsmittel in der Studentenstadt ist das Fahrrad. Durch seine weitgehend hügellose Lage ist der Stadtkern Göttingens für den Fahrradverkehr prädestiniert. Es gibt zahlreiche ausgebaute Fahrradwege und Stellplätze, darunter eine kostenpflichtige Fahrradstation am Bahnhof. Im Jahr 2006 hat die Stadt Göttingen den Landeswettbewerb "Fahrradfreundliche Kommune" des Landes Niedersachsen gewonnen. Seit 2008 ist ein im Auftrag der Stadt herausgegebener "Fahrrad-Flyer" mit Verkehrsregeln und Lageplan von innerstädtischen Fahrradparkplätzen erhältlich. Durch die Stadt führt der Leine-Heide-Radweg. Ansässige Unternehmen. Göttingen hat eine hohe Anzahl von Firmen, welche sich mit Messtechnik beschäftigen. Deshalb wurde 1998 der regionale Wirtschaftsverband Measurement Valley gegründet. Zu den 34 Mitgliedern gehören Einrichtungen wie Berufsbildende Schulen, die Georg-August-Universität Göttingen, die Fachhochschule Hildesheim/Holzminden/Göttingen oder die Industrie- und Handelskammer Hannover. Ebenfalls Mitglieder sind die Sartorius AG und die Mahr Gruppe. Die Sartorius AG ist ein weltweit agierender Konzern mit Hauptsitz in Göttingen und als Anbieter in Teilbereichen von Labor- und Prozesstechnologie international führend. Mit rund 5900 Mitarbeitern weltweit erzielte das Unternehmen 2013 einen Umsatz von 887,3 Millionen Euro. Die Mahr Gruppe mit weltweit circa 1700 Mitarbeitern hat ebenfalls ihren Hauptsitz in Göttingen, beschäftigt 2012 rund 750 Mitarbeiter in Göttingen und erzielte einen Umsatz in Höhe von 214 Millionen Euro. Sie bezeichnet sich selbst als die „Nr. 3 im Weltmarkt der dimensionellen Messtechnik“. Energieversorgung. Im Jahr 2012 wurde Göttingen für sein Engagement für erneuerbare Energien als "Energie-Kommune" ausgezeichnet. Blockheizkraftwerke (BHKWs) versorgen dort zahlreiche Haushalte über Fernwärmenetze mit Bioenergie aus der Region. In Zukunft sollen die Netze Stück für Stück ausgeweitet werden. Gesundheitswesen. Die Gesundheitsversorgung der Einwohner wird von mehreren Krankenhäusern sichergestellt. Die Universitätsmedizin Göttingen steht mit 2600 Betten an der Spitze der Krankenversorgung, gefolgt vom Asklepios Fachklinikum Göttingen mit 375, dem Evangelischen Krankenhaus Göttingen-Weende mit 448, dem Agaplesion Krankenhaus Neu Bethlehem mit 120 und dem Krankenhaus Neu-Mariahilf mit 118 Betten. Printmedien. Bis zur "Gleichschaltung" der Presse 1933 erschienen in Göttingen und dem Umland die Göttinger Zeitung und das Göttinger Volksblatt. Hörfunk. Als Lokalsender bietet das StadtRadio Göttingen ein nichtkommerzielles Lokalradio-Programm an. Lokale Fenster werden ebenfalls von den niedersächsischen Privatsendern Hit-Radio Antenne und radio ffn ausgestrahlt. NDR 1 Niedersachsen sendet werktags aus dem Studio Braunschweig für Süd- und Ostniedersachsen Regionalfenster aus, wobei südniedersächsische Beiträge in einem in Göttingen ansässigen Regionalstudio produziert werden, das auch für die anderen NDR-Hörfunkwellen sowie für Das Erste und NDR Fernsehen produziert. In einigen höher gelegenen Stadtteilen kann eine Vielzahl weiterer Sender auf UKW aus den Bundesländern Sachsen-Anhalt, Thüringen und Nordrhein-Westfalen gehört werden. Fernsehen. In Göttingen existiert kein Lokalfernsehen. Am 29. Mai 2006 wurde das analoge terrestrische Fernsehsignal der Sender Göttingen (Nikolausberg) und Hoher Meißner, die bisher das Stadtgebiet mit Analogfernsehen abdeckten, abgeschaltet und DVB-T eingeführt. Zwar können die Privatsender RTL und Sat.1 nicht mehr terrestrisch empfangen werden; dafür steht jedoch eine im Vergleich zum Analogempfang größere Anzahl öffentlich-rechtlicher Programme zur Verfügung. Der Sender Espol überträgt Das Erste, ARTE, Phoenix, tagesschau24, 3sat, ZDF, KiKA/ZDFneo, ZDFinfo sowie die dritten Programme von NDR, WDR, hr-fernsehen und MDR. Im gesamten Stadtgebiet können die im Wesentlichen aus den gleichen Programmen bestehenden Bouquets vom Hohen Meißner bzw. vom Sender Hetjershausen empfangen werden. Neben dem Kabel- und Satellitenfernsehen ist in einigen Stadtteilen IPTV vom Anbieter Telekom verfügbar. Online-Medien. Seit 2001 ist das "Göttinger Stadtinfo (goest)" als nichtkommerzielles Online-Magazin im Internet mit Berichten zu lokalen Ereignissen politischer wie kultureller Art und einem ausführlichen Veranstaltungskalender. Von Mitte 2005 bis Ende 2012 war die "Internet-Zeitung www.buergerstimmen.de" online. Filmstadt Göttingen. 1945 bis 1960 war Göttingen Produktionsstätte von über 90 Spielfilmen, unter anderem Produktionsfirma war die Göttinger Filmaufbau-Gesellschaft, die von Hans Abich und Rolf Thiele 1946 gegründet wurde. Die Gesellschaft steht für den problemorientierten Kinofilm der 50er-Jahre sowie die Produktion zahlreicher Komödien mit Heinz Erhardt. 1960 siedelte die Gesellschaft nach München um. Die Curt-Goetz-Filme wurden von der Domnick-Filmproduktion GmbH produziert. Seit 1994 gibt es alle zwei Jahre im Mai in der Himmelfahrtswoche in der innerstädtischen Pauluskirche das Göttingen International Ethnographic Film Festival. Fußball. Ein überregional bekannter Fußballclub Göttingens war der 1. SC Göttingen 05, der im Jahre 2003 Insolvenz anmelden musste. Im Folgejahr fusionierte die vor der Insolvenz ausgegliederte Jugendabteilung (FC Göttingen 05) mit dem RSV Geismar zum RSV Göttingen 05. Der Club spielt aktuell in der Landesliga Niedersachsen und ist momentan der erfolgreichste Göttinger Fußballverein. Spielorte des 1. SC Göttingen 05 waren der Maschpark und das Jahnstadion. Der Nachfolgeverein "RSV 05" fing auf dem Sportplatz an der Benzstraße in Geismar an und spielt heute wieder im Jahnstadion. Überregional bekannt ist der Verein aufgrund seiner Anhängerschaft, die wohl größte eines Fußballvereins in Göttingen. Es bestehen noch aus den Zeiten des SC mehrere Fanclubs, darunter die "05 Supporters Crew", die den Dachverband bilden. Die Heimspiele locken im Schnitt 900 Zuschauer an, was beachtlich für einen Fünftligisten ist. Langjähriger sportlicher Rivale ist der "Nachbarverein", die SVG Göttingen 07. Dieser ist (vom Jahnstadion gesehen) auf der anderen Seite des Leineufers beheimatet, im SVG-Stadion am Sandweg und spielt in der Landesliga Braunschweig. Höhepunkt war das Göttinger Stadtderby in der Landesliga Braunschweig im Mai 2011 vor etwa 2500 Zuschauern im SVG-Stadion. Die Partie ging 1:1 aus und der RSV 05 stieg Monate danach überraschend in die Oberliga auf. Fußballturniere. Bekannt ist außerdem der SCW Göttingen aufgrund eines jährlich ausgerichteten A-Jugend-Hallenturniers. Das früher kurz vor Weihnachten in der Lokhalle stattfindende Turnier musste auf Grund des in diesem Zeitraum angesetzten Viertelfinales des DFB-Junioren-Ligapokals auf Mitte Januar verlegt werden. Vier Tage lang kämpfen vier international bekannte Vereine (in der Vergangenheit Vertretungen des FC Barcelona, Chelsea London, PSV Eindhoven, Bröndby Kopenhagen), acht Bundesliga-Mannschaften (wie VfL Wolfsburg, Hannover 96 oder Borussia Dortmund) und 12 Regionalvereine um den Turniersieg. Das Turnier hat regelmäßig hohe Zuschauerzahlen und gilt als Europas größtes A-Jugend-Hallenturnier. Die mexikanische Nationalmannschaft hatte anlässlich der Fußball-Weltmeisterschaft 2006 ihr WM-Quartier in Göttingen aufgeschlagen. Die Mannschaft gastierte dabei im Hotel "Freizeit In" und trug ein Testspiel vor 15.000 Zuschauern gegen eine Göttinger Regionalauswahl aus. Zudem war Göttingen 2006 Austragungsort der inoffiziellen deutschen Meisterschaft im Futsal. Basketball. Göttingen ist ebenfalls ein traditionsreicher Basketballstandort. Die BG 74 Göttingen ist mit dem Herrenteam derzeit als BG Göttingen in der ersten Basketball-Bundesliga vertreten. Diese Mannschaft hat 2010 die EuroChallenge gewonnen. In den Jahren 1980, 1983 und 1984 gewannen die Göttinger Basketballer des ASC 1846 Göttingen, der zweite große Verein der Stadt, die deutsche Meisterschaft, 1984 und 1985 wurde man deutscher Pokalsieger. Die Damenmannschaft der BG 74 Göttingen spielte von 2003 bis 2009 ebenfalls in der ersten Damen-Basketball-Bundesliga, in der Saison 2008/2009 unter dem Namen Trinos Göttingen. Nach der Saison 2008/2009 gab es jedoch erneute finanzielle Probleme, die dazu führten, dass dem Team keine Erstligalizenz erteilt wurde. Des Weiteren spielt das Team Göttingen (bestehend aus Spielern des ASC 1846, der BG 74 sowie dem Sportgymnasium Bad Sooden-Allendorf) in der Nachwuchs-Basketball-Bundesliga (NBBL). Dass drei Teams in der höchsten deutschen Liga spielten, war bisher einzigartig in der deutschen Basketballgeschichte. Spielort des Damenteams ist die Sporthalle des Felix-Klein-Gymnasiums, welche etwa 1500 Zuschauer fasst. Spielort der Herren seit der Saison 2007/2008 ist die Göttinger Lokhalle. Der ASC 1846 spielt in der Halle der IGS. Die Wettkampfgemeinschaft der Universität Göttingen war zudem mehrfacher deutscher Hochschulmeister, zuletzt 2006. Zur Tradition des Basketballs in Göttingen gehören die Damen-Basketballerinnen von Göttingen 05, die in den Jahren 1968, 1970, 1971, 1972 und 1974 Deutsche Meisterinnen wurden. Kanupolo. Kanupolo ist eine der erfolgreichsten Sportarten Göttingens. Das Herrenteam des Göttinger Paddler Clubs (GPC) wurde 2012 nach zwei Vizemeisterschaften (2006 in Essen und 2007 in Berlin) und einem dritten Platz 2009 zum ersten Mal in der Vereinsgeschichte Deutscher Meister der Kanupolo Bundesliga und erreichte bei den European Club Championships "(Championsleague)" in Duisburg den 8. Platz. Das Damenteam, eine der erfolgreichsten Mannschaften des Landes (Meister:2004,2005,2007,2011 – Vizemeister 2008,2010 Dritter:2009,2012 – European Club Championshipssiegerin 2007), erreichte 2012 den dritten Platz. Die Nachwuchsmannschaften des GPC konnten schon einige Erfolge feiern: beispielsweise den ersten Platz in der Niedersachsenmeisterschaft, den ersten Platz auf dem hochkarätig besuchten Karnath-Cup und den bisher größten Erfolg bei der Deutschen Meisterschaft 2007 in Berlin mit dem dritten Platz. Neben den Erfolgen auf nationaler Ebene hat Göttingen zahlreiche erfolgreiche Nationalspieler hervor gebracht. Aktuell spielen Lukas Richter (Vizeweltmeister 2012) und Tonie Lenz (Weltmeisterin 2006, 2012 – 1.Platz World Games 2005) in den höchsten Nationalkadern. Alljährlich findet am letzten April Wochenende mit internationaler und hochkarätiger Besetzung eins der größten nationalen Turniere im Freibad am Brauweg statt. Hockey. Seit dem 1. Juli 1982 existiert der Hockey-Club Göttingen e. V., der sich aus dem ESV Rot-Weiß Göttingen abspaltete. Die Trainingsplätze befinden sich für die Feldsaison auf der Bezirkssportanlage (BSA) im Greitweg, dort wird auf dem Naturrasen gespielt und für die Hallensaison in der großen Halle der Geschwister-Scholl-Gesamtschule (KGS). Der Clubraum befindet sich ebenfalls auf dem Schulgelände. Nach zwei Aufstiegen in Folge spielen die Damen ab der Hallensaison 2011/12 in der Oberliga Niedersachsen/Bremen. Die 1. Herren treten in der 1. Verbandsliga Niedersachsen an, die 2. Herrenmannschaft des Vereins spielt in der 3. Verbandsliga. Neben diesen drei Teams gibt es noch Kinder- und Jugendmannschaften, sowie eine Freizeitmannschaft, die hauptsächlich an Turnieren in der Region teilnimmt. Inline-Skater Hockey. Die Black-Lions vertreten den Tuspo 1861 Göttingen in der Norddeutschen Inlinehockey Liga (NIHL). Persönlichkeiten. Eine Zusammenstellung von Ehrenbürgern, Söhnen und Töchtern der Stadt, Angehörigen der Universität, (Ober-) Bürgermeistern, Oberstadtdirektoren sowie weiteren Persönlichkeiten der Stadt findet sich im Artikel → Liste von Persönlichkeiten der Stadt Göttingen. Wissenswertes. Auf der letzten Serie der D-Mark-Banknoten fand sich auf der 10-D-Mark-Banknote, links neben dem Porträt des Mathematikers und Astronomen Carl Friedrich Gauß, eine Collage verschiedener historischer Bauwerke von Göttingen. Dort sind die Sternwarte, die Johanniskirche, die Universitätsaula, das Rathaus, der Kirchturm von Jacobi und das Museum zu sehen. Ein Airbus A340-311 der Lufthansa mit der Kennung D-AIGF trug bis zu dessen Außerdienststellung im Jahre 2014 den Namen "Göttingen", zwischenzeitlich rückte ein etwas kleinerer Airbus A321-231 mit der Kennung D-AIDG an dessen Stelle. Ein ICE der Deutschen Bahn mit dem Tz 300 wurde ebenfalls auf den Namen "Göttingen" getauft. Große Koalition. Als Große Koalition (auch große Koalition) bezeichnet man eine Regierungskoalition der beiden mitgliederstärksten Parteien im Parlament. Allgemeines. Je nach politischem System bzw. Parteiensystem kann auch eine Koalition der beiden größten Parteien eine Koalition der knappsten Mehrheit sein oder eine Minderheitsregierung zur Folge haben. Für westeuropäische Staaten wird der Begriff in der Regel verwendet, um eine Koalition zwischen den beiden größten in einem von zwei so genannten Volksparteien dominierten Parteiensystem zu beschreiben, bei dem rechnerisch auch kleinere Koalitionen möglich gewesen wären. Große Koalitionen sind teilweise umstritten, da sie nach Meinung der Kritiker über zu große Regierungsmacht verfügen und aufgrund ihrer Breite zu viele Kompromisse erfordern. Andererseits schafft eine Große Koalition die Möglichkeit, manche dringend erforderlichen Reformprojekte auch dann durchzusetzen, wenn ihre Begleiterscheinungen von den Betroffenen als stark negativ empfunden werden, wie Steuererhöhungen, Subventions- oder Rentenkürzungen. Eine starke Opposition würde diese Projekte – sei es aus Überzeugung oder aus parteitaktischen Gründen – angreifen und eventuell verhindern. Deutschland. Da im politischen System der Bundesrepublik Deutschland traditionell die Parteien CDU/CSU und SPD die größten Fraktionen stellen, bestanden Große Koalitionen bisher meist aus diesen beiden Parteien. Sie werden aufgrund ihrer Farben im Parteienspektrum umgangssprachlich auch "Schwarz-Rot" bzw. "Rot-Schwarz" genannt. In einigen Bundesländern wie Sachsen-Anhalt, Sachsen und Thüringen werden mitunter CDU-SPD-Koalitionen als "Große Koalition" bezeichnet, obwohl bei der Landtagswahl die Partei Die Linke höhere Stimmanteile und mehr Parlamentsplätze errungen hat als die SPD. Die Linke und die SPD bildeten von 2009 bis 2014 zahlenmäßig in Brandenburg eine Große Koalition, SPD und Die Grünen von 2011 bis 2015 in Bremen. Große Koalitionen zur Zeit der Weimarer Republik. In der Weimarer Republik wurden die beiden Kabinette Stresemann I und II (1923) und das Kabinett Müller II (1928–1930) als "Große Koalitionen" bezeichnet. Mit dem Wort „groß“ meinte man dabei, dass sowohl links die SPD als auch rechts die DVP eingebunden wurde. Meistens regierte in der Weimarer Zeit eine Koalition von DDP und Zentrum, die jeweils entweder nach links (SPD) oder rechts (DVP, DNVP) erweitert wurde. Oft wurde eine bürgerliche Minderheitsregierung von der SPD toleriert. So gesehen war dieses Modell die eigentliche „Weimarer Koalition“, auch wenn man mit diesem Begriff gemeinhin etwas anderes meint: die drei republiktreuen Parteien SPD, Zentrum und DDP, die seit der Reichstagswahl am 6. Juni 1920 allerdings keine gemeinsame Mehrheit mehr hatten. Es gab auch große Koalitionen auf Landesebene. Als deren bekannteste gelten die SPD-Zentrums-Regierungen im Freistaat Preußen (→ Große Koalition). Große Koalition in der DDR 1990. Unter Lothar de Maizière bildete sich nach langwierigen Verhandlungen eine Große Koalition aus der Allianz für Deutschland (einem aus der Christlich-Demokratischen Union (CDU-Ost), Deutschen Sozialen Union (DSU) und Demokratischem Aufbruch (DA) gebildeten Wahlbündnis), der SPD und den Liberalen. Am 12. April 1990 wurde Lothar de Maizière (CDU) von der Volkskammer mit 265 Stimmen bei 108 Gegenstimmen und 9 Enthaltungen zum Ministerpräsidenten der DDR gewählt. Die Abgeordneten bestätigten danach en bloc auch die Regierung de Maizière. Am 20. August verließen die Sozialdemokraten die Regierung, nachdem de Maizière die Entlassung unter anderem eines SPD-Ministers angekündigt hatte. Damit bestand die Regierung nur aus parteilosen Ministern sowie solchen der Allianz und den Liberalen; in der Bundesrepublik würde man von einer christlich-liberalen Koalition sprechen. Die Regierung konnte sich also nicht mehr auf eine „Große“ Koalition stützen. Am 23. August 1990 trat die DDR mit Wirkung zum 3. Oktober 1990 der Bundesrepublik bei, und die Volkskammer löste sich auf. Ihre Legislaturperiode hatte somit nur gute sechs Monate gedauert. Am 2. Dezember 1990 folgte die erste gesamtdeutsche Bundestagswahl. Große Koalition 1966–1969. In den 1950er Jahren dominierte die CDU/CSU die westdeutsche Parteienlandschaft, musste aber 1961 abermals eine Koalition mit der FDP eingehen. 1962 war im Verlauf der Spiegel-Affäre die Koalition in Frage gestellt worden. So diskutierten Christdemokraten und Sozialdemokraten sehr ernsthaft über eine Große Koalition, nicht nur, wie Kritiker meinten, weil Konrad Adenauer die FDP disziplinieren wollte. Adenauer ging zu Recht davon aus, dass die SPD ihn als Kanzler akzeptieren würde, um in die Regierung zu gelangen (die FDP wollte einen neuen Kanzler). Andere Christdemokraten wie Bauminister Paul Lücke dachten vor allem daran, gemeinsam mit der SPD das Mehrheitswahlsystem einzuführen. Schließlich aber einigten sich die Koalitionsparteien CDU/CSU und FDP auf eine Fortsetzung der Koalition, bis im Herbst 1963 Adenauer durch Erhard abgelöst werden würde. Die (erste) Große Koalition kam zustande, nachdem die Koalition aus CDU/CSU und FDP daran zerbrochen war, dass die CDU/CSU das entstandene Haushaltsdefizit und die immer größer werdende Staatsverschuldung im Haushalt 1967 durch eine Steuererhöhung eindämmen wollte. Die FDP war dazu nicht bereit und trat daher im Oktober 1966 aus der Koalition aus. Nach dem Rücktritt der FDP-Minister nahm die CDU/CSU Verhandlungen mit der SPD auf, die sich nach Erwägen einer sozialliberalen Koalition für die Kooperation mit der CDU entschied, woraufhin am 1. Dezember 1966 die Große Koalition geschlossen wurde. Geführt wurde die Regierung von dem früheren Ministerpräsidenten Baden-Württembergs Kurt Georg Kiesinger, der den letztlich glücklosen Bundeskanzler Ludwig Erhard ablöste. Im Kabinett Kiesinger wurde der SPD-Vorsitzende Willy Brandt Vizekanzler und Außenminister. So bestand die – von den meisten nur als Übergangslösung betrachtete – „Vernunftehe“ aus CDU/CSU und SPD nur bis zur nächsten Wahl im Jahre 1969, bei der die CDU/CSU die angestrebte absolute Mehrheit verfehlte. So bildeten SPD und FDP unter Bundeskanzler Willy Brandt die erste sozialliberale Koalition auf Bundesebene ("Kabinett Brandt I"). Große Koalition 2005–2009. Nach der vorgezogenen Bundestagswahl vom 18. September 2005 konnte kein angestrebtes Koalitionsbündnis, weder eine schwarz-gelbe Koalition aus CDU/CSU und FDP noch ein rot-grünes Bündnis aus SPD und Die Grünen, die absolute Mehrheit der Bundestagsmandate erreichen. Dies war unter anderem auf den Einzug der Partei Linkspartei.PDS zurückzuführen, die 8,7 % der Stimmen erringen konnte und mit der keine der anderen Parteien bereit war, eine Koalition einzugehen. Nach kurzen Sondierungsgesprächen, den kategorischen Absagen der FDP an eine Ampelkoalition mit Bündnis 90/Die Grünen und SPD sowie von Bündnis 90/Die Grünen an eine Jamaika-Koalition mit CDU und FDP und weiterhin von SPD und Bündnis 90/Die Grünen an eine Koalition unter Tolerierung durch Die Linke.PDS, standen alle Zeichen auf Schwarz-Rot. Am 11. November 2005 kam es zur Einigung auf den endgültigen Wortlaut des Koalitionsvertrages. Die Parteitage von Union und SPD stimmten mit großer Mehrheit dem Vertragswerk zu. Am 18. November unterzeichneten die Vorsitzenden der drei Parteien den Koalitionsvertrag, am 22. November 2005 wurde Angela Merkel zur Bundeskanzlerin gewählt und die anderen Minister des ersten Kabinetts Merkel ernannt. Damit hatte die Bundesrepublik Deutschland zum zweiten Mal eine Große Koalition auf Bundesebene. Entscheidender Einfluss bei den Koalitionsverhandlungen wurde neben Angela Merkel vor allem dem damaligen SPD-Vorsitzenden Franz Müntefering zugeschrieben. Nicht zuletzt durch seine Präsenz kam es dazu, dass die SPD bei den Verhandlungen über die Ressortverteilung einige wichtige Ministerien gewinnen konnte und somit auf das Kanzleramt verzichtete. Nach der Niederlage bei der Abstimmung im Bundesvorstand über den neuen Generalsekretär der Partei legte Müntefering allerdings den Vorsitz der SPD nieder, den Matthias Platzeck übernahm, der damit auch für die SPD den Koalitionsvertrag am 18. November unterzeichnete. Matthias Platzeck leitete die SPD in der großen Koalition aber nur kurzzeitig, da er am 10. April 2006 aus gesundheitlichen Gründen sein Amt niederlegte. Sein Nachfolger wurde der rheinland-pfälzische Ministerpräsident Kurt Beck. Die Zweite Große Koalition nahm sich, wie die erste, besondere Hauptaufgaben vor, um die Chancen durch absolute Mehrheiten in Bundestag und Bundesrat zu nutzen. Die erste war das Erreichen eines ausgeglichenen Haushaltes, also eines Haushaltsplanes ohne Nettokreditaufnahme, bis 2011. Eine erste Maßnahme war das Anheben der Mehrwertsteuer auf 19 %. Weiterhin wurde in der Föderalismusreform das Verhältnis von Bund und Ländern zueinander neu geordnet. Außerdem wurde mit dem Schacht Konrad das erste Endlager für leicht und mittelstark radioaktive Abfälle beschlossen und damit für 90 % des in Deutschland erzeugten Atommülls. Große Koalition seit 2013. Nach der Bundestagswahl 2013 konnte die bisherige schwarz-gelbe Koalition nicht fortgeführt werden, da die FDP nicht mehr im Bundestag vertreten war. Eine absolute Mehrheit hatte die CDU/CSU knapp verfehlt. Die Sondierungsgespräche der CDU/CSU mit SPD und Grünen sowie die Absage gegenüber einer rot-rot-grünen Koalition führten zu alleinigen Koalitionsverhandlungen mit der SPD. Diese wurden am 28. November vorläufig mit einem Koalitionsvertrag abgeschlossen. Die SPD wartete zunächst noch auf das Ergebnis eines Mitgliederentscheids, bevor sie in die Koalition ging. Nachdem die Abstimmung zugunsten der Großen Koalition ausgegangen war, wurden am 15. Dezember die Mitglieder der Regierung durch CDU/CSU und SPD in den Berliner Parteizentralen bekanntgegeben und einen Tag später der Koalitionsvertrag unterzeichnet. Die neue Regierung nahm ihre Arbeit mit der Wahl der Kanzlerin und der folgenden Vereidigung der Minister am 17. Dezember auf. Große Koalitionen auf Landesebene. Auf Ebene der deutschen Länder sind Große Koalitionen häufiger zu finden. Insgesamt gab es auf Landesebene bereits in 15 der 16 Bundesländer eine Große Koalition aus CDU bzw. CSU und SPD. Derzeit bestehen in fünf Bundesländern Große Koalitionen: in Berlin, in Mecklenburg-Vorpommern, im Saarland, in Sachsen-Anhalt und Sachsen. Bisher noch keine Große Koalition auf Landesebene gab es in Hamburg. Eine Große Koalitionen, in der einer der Regierungsparteien nur drittstärkste Partei im Parlament ist, gibt es derzeit nur in Sachsen-Anhalt (SPD als drittstärkste Partei). Österreich. In Österreich ist die Große Koalition aus der konservativen ÖVP und der sozialdemokratischen SPÖ die am längsten regierende Koalitionsform der Nachkriegszeit. Seit 1945 gab es nur zwischen den Jahren 1966 und 1987 sowie 2000 und 2007 keine Große Koalition auf Bundesebene. Seit dem 11. Jänner 2007 gibt es in Österreich wieder eine Große Koalition, die nach den Nationalratswahlen 2008 und 2013 fortgesetzt wurde. Große Koalitionen gab es auf Bundesebene zwischen 1945 und 1966 unter den konservativen Bundeskanzlern Leopold Figl (bis 1953), Julius Raab (1953–1961), Alfons Gorbach (1961–1964) und Josef Klaus (1964–1966). Ab 1987 gab es SPÖ-ÖVP-Koalitionen unter den sozialdemokratischen Kanzlern Franz Vranitzky (1987–1997), Viktor Klima (1997–2000), Alfred Gusenbauer (2007–2008) und Werner Faymann (seit Dezember 2008). Bis auf die sehr kurze Legislaturperiode zwischen Herbst 1994 und 1995 und wieder seit der Wahl 2008 hatten alle Große Koalitionen auch jeweils die notwendige Zweidrittelmehrheit im Parlament zum Beschluss von Verfassungsgesetzen. Bulgarien. Zwischen 2005 und 2009 bestand zwischen der Bulgarischen Sozialistischen Partei, der Nationalen Bewegung Simeon der Zweite und der Bewegung für Rechte und Freiheiten eine Große Koalition im bulgarischen Parlament. Griechenland. In Griechenland herrschte 1967–1974 eine Militärdiktatur. Nach Wiedereinführung der Demokratie kristallisierten sich die Parteien PASOK und Nea Dimokratia als die beiden großen Parteien heraus. Bis 2011 kam es zu keiner großen Koalition. Im November 2011 bot – nach fast zweijährigem Kampf gegen die griechische Finanzkrise, die auch Teil einer Eurokrise ist – der bis dahin regierende Ministerpräsident Giorgos Andrea Papandreou seinen Rücktritt an. Der griechische Staatspräsident wirkte massiv auf die beiden Parteien ein, bis zu Neuwahlen eine Große Koalition zu bilden. Island. Nach der Parlamentswahl in Island 2007 bestand nach 12 Jahren liberal-konservativer Regierung eine Große Koalition aus der konservativen Unabhängigkeitspartei und der sozialdemokratischen Allianz. Diese hielt allerdings nur zwei Jahre lang. Nach der Parlamentswahl in Island 2013 kam es mit der Koalition von Unabhängigkeitspartei und Fortschrittspartei erneut zu einer Großen Koalition. Japan. In Japan wird angesichts der anhaltenden politischen Lähmung des Landes in den letzten Jahren (Nejire Kokkai) immer wieder die Bildung einer Großen Koalition (, "dairenritsu") aus der Liberaldemokratischen Partei (LDP) und der Demokratischen Partei ins Spiel gebracht. Historisch wurde während der Besatzungszeit nach dem Pazifikkrieg über eine Große Koalition zwischen Liberaler Partei Japans (LPJ) und Sozialistischer Partei Japans (SPJ) verhandelt. Erstmals verwirklicht wurde eine „große“ Koalition aber erst ab 1994 zwischen LDP und SPJ im Kabinett Murayama, wobei die SPJ allerdings bereits 1993 nur noch knapp zweitstärkste Partei geworden war, während ihrer Regierungsbeteiligung zahlreiche Abgeordnete verlor (im Unterhaus von 70 1993 auf 30 vor den Wahlen 1996) und nach den Wahlen 1996, als sie noch mal die Hälfte ihrer Unterhausmandate verlor, als kleine Sozialdemokratische Partei aus der Regierungskoalition ausschied. In späteren Jahren diskutierte die LDP mehrfach über eine Große Koalition, insbesondere mit der Neuen Fortschrittspartei von Ichirō Ozawa (1996) und der Demokratischen Partei unter Ichirō Ozawa (2007) sowie nach dem Großen Ostjapanischen Erdbeben 2011 unter Naoto Kan; diese Gespräche erreichten aber nicht den Status konkreter Koalitionsverhandlungen. Luxemburg. In Luxemburg gibt es den Begriff der Großen Koalition nicht. Dort stellte die konservative Christlich Soziale Volkspartei in den letzten Jahrzehnten immer die größte Fraktion. Von 1979 bis 2013 stellte diese Partei den Premierminister und hatte dabei stets die zweitstärkste Partei als Koalitionspartner. Zwischen 1999 und 2004 war die liberale Demokratesch Partei zweitstärkste Partei, zwischen 1979 und 1999 sowie zwischen 2004 und 2013 war es die Lëtzebuerger Sozialistesch Aarbechterpartei. Nach den Wahlen 2013 kam es zu einer Gambia-Koalition, wodurch die CSV nunmehr der Opposition angehört, obwohl sie nach wie vor stärkste Partei in der Chambre des Députés ist. Niederlande. In den Niederlanden gibt es den Begriff der Großen Koalition nicht. Gleichwohl waren Christdemokraten und Sozialdemokraten meist die beiden stärksten Parteien im Parlament. Allerdings gibt es den Christen Democratisch Appèl (CDA) offiziell erst seit 1980, davor war meist die Vorgängerpartei Katholieke Volkspartij (KVP) stärkste Kraft. Die Sozialdemokraten der Partij van de Arbeid (PvdA) waren in der Legislaturperiode 2002–2003 wegen der Lijst Pim Fortuyn nur drittstärkste Fraktion. Seit den Wahlen von 2010 und 2012 hat die rechtsliberale VVD die Position der stärksten Kraft auf der Rechten, während die Christdemokraten zur Mittelpartei herabgesunken sind. Für die 1950er- und 1960er-Jahre, als oftmals mehr Parteien in der Regierung vertreten waren als rechnerisch für die Mehrheit nötig, spricht man von den "brede cabinetten" (Kabinetten auf breiter Grundlage). Die Zusammenarbeit von KVP und PvdA nannte man "rooms-rood", römisch-rot. Römisch-rote Kabinette gab es unter Willem Drees 1948–1958 und noch einmal kurz 1965/1966 unter dem Katholiken Jo Cals. Das Kabinett Cals hatte mit KVP und PvdA eine große Mehrheit im Parlament, nahm aber noch die protestantische ARP mit hinzu. Es endete dramatisch, nachdem die KVP-Fraktion auf mehr Zurückhaltung bei den Ausgaben gedrängt hatte (sogenannte Nacht von Schmelzer). PvdA und KVP arbeiteten von 1973 bis 1977 unter dem PvdA-Ministerpräsidenten Joop den Uyl zusammen. Sie hatten aber keine gemeinsame Mehrheit; vertreten waren in der Regierung auch noch eine protestantische, eine radikaldemokratische und eine sozialliberale Partei (ARP, PPR und D66). Überhaupt war die PvdA zusammen mit PPR und D66 ein lockeres Wahlbündnis eingegangen. Das Kabinett litt unter großen Spannungen vor allem zwischen Ministerpräsident Den Uyl und dem KVP-Justizminister Dries van Agt. Der CDA entstand 1977 zunächst als gemeinsame Wahlliste von KVP und zwei kleineren protestantischen Parteien (ARP und CHU). Offiziell kam der Zusammenschluss 1980 zustande. Gemeinsam in der Regierung vertreten waren CDA und PvdA in den Jahren 1981/1982 (Dries van Agt, zusammen mit D66), 1989–1994 (Ruud Lubbers) und 2007–2010 (Jan Peter Balkenende, zusammen mit der ChristenUnie). Alle CDA-Ministerpräsidenten haben damit während eines Teils ihrer Amtszeit mit den Sozialdemokraten regiert. Bei den Niederländischen Parlamentswahlen am 12. September 2012 erzielte die VVD, die Partei des bisherigen Ministerpräsidenten Mark Rutte die meisten und die PvdA die zweitmeisten Stimmen. PvdA-Vorsitzender Diederik Samsom äußerte Bereitschaft. Ukraine. In der Ukraine wird angesichts der anhaltenden politischen Lähmung des Landes immer wieder die Bildung einer Großen Koalition (/"Schirka", dt. wörtlich "Die Breite") aus dem Block Julija Tymoschenko und der Partei der Regionen ins Spiel gebracht. Presseberichten zufolge standen die Verhandlungen über eine solche Koalition Anfang Juni 2009 kurz vor dem Abschluss. Georgius Agricola. Georgius Agricola (* 24. März 1494 in Glauchau; † 21. November 1555 in Chemnitz) war ein deutscher Wissenschaftler, der als „Vater der Mineralogie“ bekannt wurde. Als herausragender Renaissance-Gelehrter zeichnete er sich außerdem durch besondere Leistungen in Pädagogik, Medizin, Metrologie, Philosophie und Geschichte aus. Georgius Agricola hieß mit bürgerlichem Namen "Georg Pawer" bzw. "Bauer". Petrus Mosellanus, sein Leipziger Professor, riet ihm zur Latinisierung des Namens. Jugendjahre und Studium. Agricola wurde 1494 als zweites von sieben Kindern eines Tuchmachers und Färbers in Glauchau geboren. Dort erhielt er seinen ersten Unterricht, so dass er im Alter von zwölf Jahren nach Chemnitz in die Lateinschule gehen konnte. Hier verliert sich zunächst seine Spur. Er tauchte zwar kurz in Magdeburg auf, aber sicher ist erst wieder seine Immatrikulation an der Universität Leipzig. Da studierte er von 1514 bis 1518 alte Sprachen bei Petrus Mosellanus (1493–1524), einem Anhänger Erasmus’ von Rotterdam, der ihn anschließend in Zwickau empfahl. So wurde Agricola dort zuerst Konrektor (1518), dann Rektor der Zwickauer Ratsschule (1519) und schuf einen neuen Schultyp mit Latein, Griechisch und Hebräisch-Unterricht in Kombination mit Gewerbekunde: Ackerbau, Weinbau, Bau- und Messwesen, Rechnen, Arzneimittelkunde und Militärwesen. Aufenthalt in Italien. Nachdem Agricola 1522 erneut in Leipzig studierte, diesmal Medizin, ging er 1523 an die Universitäten von Bologna und Padua. 1524 begab er sich nach Venedig, um im Verlag Aldus Manutius die Galen-Ausgabe zu bearbeiten. 1526 kehrte er nach Chemnitz zurück. Zurück in Deutschland. Ersatz der Grabplatte für Agricola im Zeitzer Dom Im Jahre 1527 heiratete Agricola die Witwe Anna Meyner aus Chemnitz und ließ sich nun als Arzt und Apotheker in St. Joachimsthal (heute: Jáchymov) nieder. 1531 wurde er Stadtarzt in Chemnitz, dort hatte er viermal das Bürgermeisteramt inne (1546, 1547, 1551 und 1553). Zudem war er im Staatsdienst als sächsischer Hofhistoriograph beschäftigt. Als Universalgelehrter forschte Agricola im Bereich der Medizin, Pharmazie, Alchemie, Philologie und Pädagogik, Politik und Geschichte, Metrologie, Geowissenschaften und Bergbau. Agricola verband humanistische Gelehrsamkeit mit technischen Kenntnissen. So entstand sein Erstlingswerk "Bermannus, sive de re metallica" (1530), in dem er Verfahren zur Erzsuche und -verarbeitung sowie Metallgewinnung ebenso beschreibt wie die Fortschritte der Bergbautechnik, das Markscheidewesen, den Transport, die Aufbereitung und die Verarbeitung der Erze. In "De Mensuris et ponderibus" von 1533 beschreibt er die griechischen und römischen Maße und Gewichte – seinerzeit gab es keine einheitlichen Maße, was den Handel erheblich behinderte. Dieses Werk legte den Grundstein für Agricolas Ruf als humanistischer Gelehrter. Mit mehreren Werken begründete Agricola die Geowissenschaften: So beschreibt er die Entstehung der Stoffe im Erdinneren in "De ortu et causis subterraneorum" von 1544, die Natur der aus dem Erdinneren hervorquellenden Dinge in seinem Werk "De natura eorum, quae effluunt ex terra" von 1545, Mineralien in "De natura fossilium" sowie die Erzlagerstätten und den Erzbergbau in alter und neuer Zeit ("De veteribus et novis metallis"). Auch der Meurer-Brief ("Epistula ad Meurerum") von 1546 gehört zu diesen Werken. Agricola war zweimal verheiratet und hatte (mindestens) sechs Kinder. Seine erste Frau starb 1540. Zwei Jahre später heiratete er im Alter von 48 Jahren die 30 Jahre jüngere Tochter Anna von Ulrich Schütz d. J., dem ehemaligen Besitzer der Saigerhütte Chemnitz. Dadurch heiratete er in die damals reichste Chemnitzer Familie ein. Am 21. November 1555, im Alter von 61 Jahren, starb er in Chemnitz. Nach der Reformation in Sachsen verweigerte die Stadt dem katholischen Agricola die Beerdigung auf Chemnitzer Flur. Auf Initiative seines Freundes, des Gelehrten und Bischofs Julius Pflugk von Zeitz, wurde er daraufhin in der Schlosskirche von Zeitz begraben. De natura fossilium libri X. Gegründet auf viele eigene Untersuchungen fasste Agricola in den zehn Büchern von "De natura fossilium" (1546) das mineralogische und geologische Wissen seiner Zeit zusammen. Unter Fossilien verstand man damals nicht nur versteinerte Lebewesen, sondern auch Steine und Mineralien. Das Werk gilt als erstes umfassendes Lehrbuch bzw. Handbuch der Mineralogie, welches sich eines systematischen wissenschaftlichen Ansatzes bediente. Darin werden Vorkommen, Gewinnung, Eigenschaften und Verwendung von Mineralien beschrieben. Vor allem klassifizierte Agricola die Mineralien anhand ihrer physikalischen Eigenschaften wie Form, Farbe, Transparenz, Glanz und Gewicht (Dichte). Im ersten Buch werden allgemeine Mineraleigenschaften behandelt, im zweiten Erden, gefolgt von Büchern über „magere“ und „fette“ Salze (Bitumen). Im fünften bis siebten Buch werden unter anderem Edelsteine beschrieben, im achten und neunten Buch metallische Schlacken. Das zehnte Buch schließlich befasst sich mit mineralischen Gemischen. Hauptwerk – De re metallica libri XII. Titelblatt von "De re metallica libri XII" Durch zahlreiche Reisen im Bergbaurevier des sächsischen und böhmischen Erzgebirges gewann Agricola einen Überblick über die gesamte Technik des Bergbaus und Hüttenwesens zu seiner Zeit. Das Ergebnis ist sein Hauptwerk: Das Buch der Metallkunde "De re metallica libri XII" erschien 1556, ein Jahr nach seinem Tod, in lateinischer Sprache in Basel. Später wurde es in zahlreiche andere Sprachen übersetzt. Philippus Bechius (1521–1560), ein Freund Agricolas und Professor an der Universität Basel, übertrug die Schrift ins Deutsche und veröffentlichte sie 1557 unter dem Titel "Vom Bergkwerck XII Bücher". Es handelt sich um die erste systematische technologische Untersuchung des Bergbau- und Hüttenwesens und blieb zwei Jahrhunderte lang das maßgebliche Werk zu diesem Thema. Der erste Band stellt eine zeitgemäße Apologie dar und vergleicht den Bergbau mit anderen Gewerben, beispielsweise der Landwirtschaft oder dem Handel. Im zweiten Band werden die Erschließungsbedingungen erörtert, also geographische Beschaffenheit, Wasserhaltung, Wege, Bodenbesitz und Landesherrschaft; im dritten Band das Markscheidewesen. Der vierte Band äußert sich zur Verteilung der Grubenfelder und den Pflichten des Bergbeamten. Im fünften Band werden die verschiedenen Schachtarten und ihr Ausbau beschrieben, zudem der Gangbau und das Vermessen unter Tage. Der sechste ist der umfangreichste Band und behandelt die Geräte und Maschinen des Bergbaus. Das Probieren der Erze findet sich im siebten Band, ihr Aufbereitungsprozess im achten Band. Das Schmelzen und die Verfahren zur Metallgewinnung inklusive einer Anleitung zum Schmelzofenbau finden sich im neunten Band. In den Bänden zehn, elf und zwölf geht es dann noch um das Scheiden von Edelmetallen, das Gewinnen von Salzen, Schwefel und Bitumen sowie um Glas. Im Gesamtwerk stehen ausschließlich objektive Eigenschaften zur Diskussion, alle Überlieferungen und alchemistische Aussagen werden auf ihren Wahrheitsgehalt untersucht. Mangels einheitlicher Maße nimmt Agricola Bezug auf bekannte Angaben: oder Die Beschreibungen der Minerale bauen auf den Werken von Avicenna und Albertus Magnus auf. Dieses Buch der Metallkunde war auch Francis Bacon bekannt, der daraus wichtige Anregungen entnahm. Es enthält neben einer modernen Theorie der Entstehung von Erzgängen allerdings auch Abschnitte über Kobolde und Drachen in den Gruben, die Agricola „Lebewesen unter Tage“ ("De animantibus subterraneis") nannte. Postume Ehrungen. 1926 gründen Oskar von Miller, Schöpfer des Deutschen Museums, und Conrad Matschoß, Direktor des Vereins Deutscher Ingenieure und Nestor der deutschen Technikgeschichtsschreibung, die Georg-Agricola-Gesellschaft beim Deutschen Museum. Erstes Ziel der Gesellschaft ist die Herausgabe der ersten modernen deutschen Ausgabe von Agricolas Hauptwerk. 1960 konstituiert sich beim Verein Deutscher Ingenieure – unter maßgeblicher Beteiligung des Deutschen Verbandes Technisch-Wissenschaftlicher Vereine e.V. und der Montanindustrie – die „Georg-Agricola-Gesellschaft zur Förderung der Geschichte der Naturwissenschaften und der Technik e.V. 1961 benannte sich das Saalfelder Krankenhaus (heute Thüringen-Kliniken) „Georgius Agricola“, heute trägt das Krankenhaus in Zeitz diesen Namen. Die Universitätsbibliothek der TU Bergakademie Freiberg wurde 1980 nach Georgius Agricola benannt. In Freiberg gibt es darüber hinaus eine Agricolastraße. Seit dem Jahr 1995 trägt die Fachhochschule Bergbau in Bochum den Namen "Technische Fachhochschule Georg Agricola". Auch das Krankenhaus in Zeitz und eine Straße in dieser Stadt sind nach ihm benannt. Eine Studentenverbindung mit Sitz in Aachen und Clausthal-Zellerfeld gab sich 1948 den Namen "Akademischer Verein Agricola Schlägel und Eisen" und änderte ihn später in "Agricola Akademischer Verein". Die Westsächsische Hochschule Zwickau besitzt einen Georgius-Agricola-Bau. In Glauchau und Chemnitz, sowie in Hohenmölsen (Sachsen-Anhalt) gibt es ein Georgius-Agricola-Gymnasium. In den Städten Glauchau und Schneeberg ist eine Straße nach ihm benannt. Geologie. Die Geologie ("gē̂" ‚Erde‘ und λόγος "lógos" ‚Lehre‘) ist die Wissenschaft vom Aufbau, von der Zusammensetzung und Struktur der Erdkruste, ihren physikalischen Eigenschaften und ihrer Entwicklungsgeschichte sowie der Prozesse, die sie formten und auch heute noch formen. Abweichend von der eigentlichen Bedeutung verwendet man das Wort auch für geologischer Aufbau, etwa "Die Geologie der Alpen". Die Bezeichnung "Geologie" im heutigen Sinn findet man zuerst 1778 bei Jean-André Deluc (1727–1817). Horace-Bénédict de Saussure (1740–1799) führte Geologie im Jahr 1779 als feststehenden Begriff ein. Davor war der Begriff Geognosie gebräuchlich. Grundzüge. Ein Geologe wirft den ersten Blick auf die Gesteinsproben in einem frischen Bohrkern. Geologen beschäftigen sich mit der Erdkruste, Gesteinen sowie Erdöl und -gas (Petrogeologie). Sowohl die räumlichen Zusammenhänge zwischen verschiedenen Gesteinskörpern, als auch die Zusammensetzung und innere Struktur der einzelnen Gesteine, liefern Informationen zur Entschlüsselung der Bedingungen, unter denen diese entstanden sind. Der Geologe ist dabei für den Nachweis und die Erschließung von vielfältigen Rohstoffen wie Metallerzen, Industriemineralien sowie Baustoffen wie Sanden, Kiesen und Tonen zuständig, ohne die eine weitere wirtschaftliche Entwicklung nicht möglich wäre. Darüber hinaus ist er auch für die Sicherung von Trinkwasser sowie Energierohstoffen wie Erdöl bzw. -gas und Kohle sowie neuerdings Silizium für die Solarindustrie zuständig. Schließlich obliegt der Geologie die Erkundung des Baugrundes, insbesondere bei größeren Bauprojekten, um Setzungen, Rutschungen und Grundbrüche langfristig zu vermeiden. Im Gelände oder unter Tage gliedert der Geologe die aufgeschlossenen (offen zugänglichen) Gesteine anhand von äußeren Merkmalen in definierte Einheiten. Diese Kartiereinheiten müssen sich bei dem gewählten Maßstab auf einer geologischen Karte, oder in einem geologischen Profil, darstellen lassen. Durch Extrapolation kann er so vorhersagen, wie die Gesteine im Untergrund mit großer Wahrscheinlichkeit gelagert sind. Die genauere Untersuchung der Gesteine (Petrografie, Petrologie) findet aber meist im Labor statt. Solche detaillierten Untersuchungen auf "kleinem Maßstab" liefern die Daten und Fakten für die großräumigen Untersuchungen der Allgemeinen Geologie. Die Geologie hat vielfältige Berührungspunkte mit anderen Naturwissenschaften, die als Geowissenschaften zusammengefasst werden. So betrachtet die Geochemie chemische Prozesse im System Erde – und nutzt Methoden aus der Chemie, um zusätzliche Informationen über geowissenschaftliche Fragestellungen zu erhalten. Ähnliches gilt für die Geophysik und Geodäsie. Selbst die Mathematik hat einen speziellen Zweig, die Geostatistik, hervorgebracht, der besonders im Bergbau Verwendung findet. Seit den 1970er Jahren besteht in den Geowissenschaften allgemein ein gewisser Trend von eher qualitativ beschreibenden Untersuchungen hin zu mehr quantitativ messenden Methoden. Trotz der erhöhten Rechenleistung moderner Computer stoßen solche "numerischen Methoden", wegen der enormen Variabilität und Komplexität geowissenschaftlicher Parameter, immer noch an ihre Grenzen. Im Grenzgebiet zur Astronomie bewegt sich die Planetengeologie oder Astrogeologie als Teilgebiet der Planetologie, die sich mit der Zusammensetzung, dem inneren Aufbau und den formenden Prozessen auf fremden Himmelskörpern beschäftigt. Geologische Fragestellungen und die Anwendung geologischer Methoden außerhalb der Erde gewannen vor allem seit Beginn der Raumfahrt und der Erforschung unseres Sonnensystems mit Sonden und Satelliten an Bedeutung. Geschichte der Geologie. Bereits in der Antike verfügten die Menschen schon seit langem über praktische Kenntnisse für die Suche nach mineralischen Rohstoffen, deren Abbau und Verwertung. Die ersten Versuche einer theoretischen Behandlung geologischer Fragestellungen, wie die Ursache von Erdbeben, oder die Herkunft von Fossilien, finden sich jedoch erst in der ionischen Naturphilosophie im 5. Jh. v. Chr. Bis in die frühe Neuzeit hinein blieb die Lehre des Empedokles von den vier Elementen und die Lehre des Aristoteles von der Transmutation der Elemente auch richtungsweisend für die Vorstellungen über die Natur von Metallen, Mineralen und Gesteinen. Während des Niedergangs des Römischen Reiches in der Spätantike wurden diese Ansichten nur im östlichen, griechisch geprägten Teil überliefert, wo sie im frühen Mittelalter von arabischen Gelehrten, wie Ibn Sina, wieder aufgenommen wurden. In Westeuropa hingegen gingen selbst viele praktische Kenntnisse im Bergbau wieder verloren. Erst im 12. und 13. Jahrhundert begannen sich abendländische Alchemisten wieder mit der Bildung von Metallen und Gesteinen im Inneren der Erde zu befassen. Im Laufe der Renaissance wurden solche Spekulationen nicht nur von humanistischen Gelehrten, wie Paracelsus, ausgebaut, sondern auch um umfangreiche empirische Daten und praktische Methoden ergänzt, besonders von Georgius Agricola. Aus solchen Ansätzen entwickelte sich bis ins 17. Jahrhundert eine Art „Proto-Geologie“, die viele Gemeinsamkeiten mit der „Proto-Chemie“ des Ökonomen, Alchemisten und Bergbauingenieurs Johann Joachim Bechers hatte. Einen wichtigen Schritt zur Etablierung der Geologie als eigenständige Wissenschaft ging der dänische Naturforscher Nicolaus Steno, indem er 1669 das "stratigrafische Prinzip" einführte. Hiermit begründete er den Grundsatz, dass die räumliche Lagerung von Sedimentschichten "übereinander" in Wirklichkeit einer zeitlichen Abfolge von Gesteinsablagerungen "nacheinander" entspricht. Auch Robert Hooke spekulierte etwa zur selben Zeit, ob man aus dem Fossilinhalt der Gesteine nicht den historischen Ablauf der Gesteinsbildung rekonstruieren könne. Im Lauf des 18. Jahrhunderts bemühten sich Bergwerksleiter und Ingenieure zunehmend um ein theoretisches Verständnis von geologischen Zusammenhängen. Hierbei entwickelten sie Mitte des Jahrhunderts die grundlegenden Methoden der geologischen Kartierung und der Erstellung stratigrafischer Profile. Der Beginn der Geologie als moderne Wissenschaft wird meist mit der Kontroverse zwischen den Denkrichtungen des "Plutonismus" und "Neptunismus" angesetzt. Als Begründer des Plutonismus gilt James Hutton (1726–97) mit seinem Postulat, alle Gesteine seien vulkanischen Ursprungs. Hutton popularisierte ebenfalls den Gedanken, dass die Erdgeschichte um viele Größenordnungen länger sei, als die menschliche Geschichte. Die Neptunisten wurden von Abraham Gottlob Werner (1749–1817) geführt, mit der heute verworfenen Grundannahme, alle Gesteine seien Ablagerungen eines primordialen Urozeans. Aus der Verbindung von Magmatismus, Sedimentation und Gesteinsumwandlung entwickelte sich im Folgenden die Vorstellung vom Kreislauf der Gesteine. Um 1817 etablierte William Smith den Gebrauch von Leitfossilien zur relativen Datierung der Gesteinsschichten innerhalb einer stratigrafischen Abfolge. Etwa in der Zeit von 1830 bis 1850 bildete der Streit zwischen "Katastrophismus" in der Nachfolge von Georges de Cuvier (1769–1832), und "Aktualismus" um Sir Charles Lyell (1797–1875) die zweite große Kontroverse in der Geschichte der Geologie. Während die Katastrophisten von plötzlichen und globalen Umwälzungen in der Erdgeschichte ausgingen, mit anschließender Neuschöpfung der ausgerotteten Lebewesen, betonten die Aktualisten die gleichmäßige und stetige Entwicklung der Erde in unzähligen kleinen Schritten, die sich im Laufe langer Zeiträume nach und nach akkumulieren (Gradualismus). Auch Charles Darwin (1809–1882) folgte in seiner Evolutionstheorie, mit ihrer langsamen Entwicklung neuer biologischer Arten, weitgehend dem aktualistischen Prinzip. In der Folge befassten sich die Geologen vermehrt mit den Problemen der Gebirgsbildung und den globalen Bewegungen der Erdkruste. Bis weit ins 20. Jahrhundert hinein dominierte die, auf Léonce Élie de Beaumont (1798–1874) zurückgehende Vorstellung, dass die weltweiten Gebirgsgürtel das Resultat der Abkühlung und Schrumpfung des Erdkörpers seien. Aus der Beobachtung von gefalteten und tektonisch gestörten Gesteinen entwickelte James Dwight Dana (1813–1895) um 1875 die Geosynklinal-Theorie. Dieses tektonische Erklärungsmodell wurde von Eduard Suess (1831–1914) und Hans Stille (1876–1966) maßgeblich weiter entwickelt. Hierbei wurden die geotektonischen Hypothesen vom Prinzip des "Fixismus" dominiert. Die Position der Kontinente und Ozeane zueinander galt als weitgehend unveränderlich. Seitliche Bewegungen der Erdkruste, deren Spuren man in Faltengebirgen oder an regionalen Spaltensystemen beobachten konnte, wurden als weitgehend lokale Phänomene angesehen. Hingegen galten vertikale Bewegungen der Erdkruste als ausschlaggebend für die Absenkung von Ozeanbecken, oder den Aufstieg von Landbrücken zwischen den Kontinenten. Die ersten wichtigen Vorstellungen, über die Möglichkeit bedeutender horizontaler Bewegungen von Festlandsmassen, finden sich in der Kontinentaldrift-Hypothese Alfred Wegeners (1880–1930) aus dem Jahr 1915. Der Durchbruch des "Mobilismus" erfolgte aber erst drei Jahrzehnte später, als grundlegend neue Beobachtungen der Geophysik und Ozeanografie zur Entwicklung der heute allgemein akzeptierten Theorie der Plattentektonik führten. Allgemeine Geologie. Die Allgemeine Geologie befasst sich mit den Kräften, die auf den Erdkörper einwirken und mit den Prozessen die in "großem Maßstab" zur Gesteinsbildung beitragen. Jedes Gestein kann anhand seiner spezifischen Ausbildung (Gefüge, Struktur) einer der drei großen Gesteinsklassen zugeordnet werden: Sedimentite, Magmatite und Metamorphite. Jedes Gestein kann durch geologische Vorgänge in ein Gestein der jeweils anderen beiden Familien umgewandelt werden (siehe dazu: Kreislauf der Gesteine). Die Prozesse, die an der Erdoberfläche wirken, werden als exogen, die im Erdinneren als endogen bezeichnet. Exogene Dynamik. Die exogene Dynamik (auch "exogene Prozesse") wird durch auf die Erdoberfläche einwirkende Kräfte wie Schwerkraft, Sonneneinstrahlung und Rotation der Erde generiert und führt zur Bildung von Sedimentgesteinen. Dies geschieht durch Ein eigenes, komplexes Gebiet exogener Prozesse behandelt die Bodenkunde. Die Quartärgeologie befasst sich mit den Vorgängen und Ablagerungen der letzten Eiszeiten im Quartär, die einen großen Teil der heutigen Landschaftsformen auf der nördlichen Hemisphäre prägen. Endogene Dynamik. Die endogene Dynamik (auch "endogene Prozesse") beruht auf Kräften innerhalb der Erdkruste, wie Spannungen, Wärmeentwicklung durch radioaktive Zerfallsprozesse oder dem Magmakern der Erde und führt zur Bildung von Metamorphiten und Magmatiten. Sie beginnt mit der Die Bewegungen, die die Oberflächengesteine in die Tiefe verfrachten, verformen und falten, aber gleichzeitig die Tiefengesteine wieder an die Oberfläche bringen, sowie die Spuren, die diese Kräfte in den Gesteinen hinterlassen, wie Faltung, Scherung und Schieferung, werden von der Tektonik und der Strukturgeologie untersucht. Historische Geologie. Die historische Geologie erforscht die Geschichte der Erde von ihrer Entstehung bis zur Gegenwart im Allgemeinen, und die Entwicklungsgeschichte (Evolution) der Lebewesen im Besonderen. Mit diesem historischen Ansatz stellt die Geologie (zusammen mit der physikalisch-astronomischen Kosmologie) eine Ausnahme innerhalb der Naturwissenschaften dar. Letztere befassen sich vorrangig mit dem "Ist"-Zustand ihres Studienobjekts und weniger mit dessen "Werden". Als Informationsquellen dienen in der Geologie die Ausbildung der Gesteine (Lithofazies) und die in ihnen eingeschlossenen Fossilien (Biofazies). Die Gliederung der Erdgeschichte in einer geologischen Zeitskala erfolgt durch stratigraphische und geochronologische Methoden. Stratigraphie. Die Grundlage der Stratigraphie bildet ein einfaches Prinzip: die "Lagerungsregel". Eine Schicht im Hangenden (‚oben‘) wurde später abgelagert als die Schicht im Liegenden ('unten'). Allerdings sollte beachtet werden, dass ursprünglich horizontal abgelagerte Schichten durch spätere tektonische Bewegungen verstellt oder sogar überkippt sein können. In diesem Fall ist man auf die Existenz von eindeutigen Oben-Unten-Kriterien angewiesen, um die ursprüngliche Lagerung zu bestimmen. Weiterhin gilt, dass Schichten, die solche verstellten Gesteine mit einer Diskordanz überlagern, das heißt schiefwinklig zur Schichtung, ebenfalls jünger sind als letztere. Dasselbe gilt aber auch für magmatische Gänge und Intrusionen aus der Tiefe, die die Schichten von unten durchschlagen. Bei der Erstellung eines stratigraphischen Profils werden besonders Erkenntnisse der Paläontologie angewandt. Wenn die Reste eines bestimmten Lebewesens nur in ganz bestimmten Schichten auftreten, gleichzeitig aber eine weite, überregionale Verbreitung haben, und möglichst unabhängig von örtlichen Variationen der Ablagerungsbedingungen sind, dann spricht man von einem Leitfossil. Alle Schichten, in denen sich diese Leitfossilien finden, haben somit dasselbe Alter. Nur wenn keine Fossilien vorhanden sind, muss man Zuflucht zur Lithostratigraphie nehmen. Dann kann die Zeitgleichheit bestimmter Schichten nur bei seitlicher Verzahnung nachgewiesen werden. Um tektonische Abläufe zu rekonstruieren, untersucht der Geologe den Versatz und die Verformung der Gesteine durch Klüftung, Schieferung, Störung und Faltung. Auch hier sind diejenigen Strukturen die jüngsten, die die anderen durchschlagen, aber selbst nicht versetzt sind. Die Kunst ist hier „Verwickeltes einfach, Ruhendes bewegt zu sehen.“ (Hans Cloos) Geochronologie. Ein prinzipielles Problem ist hierbei die Tatsache, dass man mit obigen Methoden nur eine "relative Zeitskala", ein Vorher-Nachher der verschiedenen Gesteinsbildungen, aber keine absoluten Datierungen erhält. Zwar hatte man schon früh versucht die Sedimentationsraten bestimmter Gesteine zu schätzen, aber die meiste Zeit "steckt" ja nicht in den Schichten selbst, die sich in relativ kurzer Zeit gebildet haben können, sondern vor allem in den Lücken zwischen den Schichten und in den Diskordanzen zwischen verschiedenen Schichtpaketen. Deshalb reichte die "absolute Zeitskala", die mit Hilfe von Jahresringen in Bäumen (Dendrochronologie), oder durch Auszählung der Warven-Schichtung in Ablagerungen der letzten Eiszeit gewonnen wurde, nur wenige tausend Jahre zurück. Erst mit der Entdeckung der natürlichen Radioaktivität fanden sich zuverlässige Methoden für die absolute Datierung, auch von ältesten Gesteinen. Diese basieren auf den bekannten Zerfallsraten von radioaktiven Isotopen innerhalb der Minerale und Gesteine, zuweilen kombiniert mit paläomagnetischen Messungen. "Siehe auch: Datierung, Kosmologie, Entstehung der Erde, Rubidium-Strontium-Methode, Kalium-Argon-Methode, Radiokarbon-Methode, so wie die detailliertere Geologische Zeitskala" Aktualismus. Um aus der heutigen Situation Rückschlüsse auf die Vergangenheit ziehen zu können, bedienen sich die Geologen des Prinzips des Aktualismus. Dieses lässt sich in einem Satz zusammenfassen: "Der Schlüssel zur Vergangenheit ist die Gegenwart." Findet ein Geologe z. B. alte Gesteine, die fast identisch mit ausgeflossenen Laven eines heute aktiven Vulkans sind, dann kann er davon ausgehen, dass es sich bei dem gefundenen Gestein ebenfalls um vulkanisches Material handelt. Allerdings lässt sich der Aktualismus nicht auf alle Gesteine anwenden. Die Bildung von Eisenerzlagerstätten (BIF—„Banded Iron Formations“) lässt sich etwa heute nicht mehr beobachten, da sich die chemischen Bedingungen auf der Erde derart geändert haben, dass die Entstehung solcher Gesteine nicht mehr stattfindet. Andere Gesteine bilden sich eventuell in solchen Tiefen, dass ihre Bildung außerhalb des Zugriffs des Menschen liegt. Um die Entstehung solcher Gesteine zu verstehen, greifen die Geowissenschaftler auf Laborexperimente zurück. Angewandte Geologie. Die angewandte Geologie beschäftigt sich mit der praktischen Nutzbarmachung geologischer Forschung in der Gegenwart. Der Nutzen besteht nicht nur in der effizienten Ausbeutung der natürlichen Ressourcen der Erde, sondern auch in der Vermeidung von Umweltschäden und der Frühwarnung vor Naturkatastrophen, wie Erdbeben, Vulkanausbrüchen und Tsunamis. Sie gliedert sich in eine Vielzahl unterschiedlichster Felder, die sich sowohl untereinander als auch mit anderen Wissenschaften verzahnen. "Siehe: Geowissenschaften" Es besteht eine enge Verzahnung angewandter geologischer Gebiete mit anderen Disziplinen, wie etwa Bauingenieurwesen, Bergbau- und Hüttenwesen, Materialkunde oder Umweltschutz. Allgemeines Abkommen über den Handel mit Dienstleistungen. Das Allgemeine Abkommen über den Handel mit Dienstleistungen (; GATS) ist ein internationales, multilaterales Handelsabkommen der Welthandelsorganisation (WTO), das den grenzüberschreitenden Handel mit Dienstleistungen regelt und dessen fortschreitende Liberalisierung zum Ziel hat. Die Dienstleistung wird vom Heimatland des Anbieters zum Konsumenten ins Ausland transferiert (z. B. E-Banking, wenn die Dienstleistung per Internet oder Telefon zu einem ausländischen Kunden übermittelt wird, E-Learning). "Mode 2": Ausländischer Konsum im Inland Die Dienstleistung wird im Heimatland des Anbieters für einen ausländischen Konsumenten erbracht (z.B (Auslands-)Tourismus, Aufsuchen eines Zahnarztes im Ausland, Studierende aus dem Ausland). Die Dienstleistung wird im Heimatland des Konsumenten durch die Niederlassung eines ausländischen Anbieters erbracht (z. B. Direktinvestitionen oder Joint-Ventures im Ausland, Sprachschule eines ausländischen Anbieters). "Mode 4": Natürliche Personen im Ausland Die Dienstleistung wird im Heimatland des Konsumenten durch eine ausländische, natürliche Person erbracht (z. B. Persönliche Beratung durch einen ausländischen Rechtsanwalt (in seinem Heimatrecht) im Inland; Erntehelfer aus dem Ausland, muttersprachliches Lehrpersonal an einer Sprachschule). Anmerkung: Nur bei Mode 1 und 2 befindet sich der Anbieter der Dienstleistung "nicht" im Heimatland des Konsumenten. Geschichte. Nach dem Zweiten Weltkrieg bestand zwischen den Industriestaaten ein Konsens darüber, dass ein friedliches Zusammenleben der Nationen durch wirtschaftliche Verflechtungen gefördert werden soll. Dazu wurde zunächst eine Internationale Handelsorganisation (ITO) entworfen und die Charta von Havanna, die u. a. Wohlstand, Frieden, Beschäftigung und faire Sozialstandards forderte, beschlossen, deren Inkrafttreten jedoch am US-amerikanischen Kongress scheiterte. An ihrer Stelle wurde das Allgemeine Zoll- und Handelsabkommen (GATT) gegründet. Das GATT übernahm zunehmend die Funktion eines multilateralen Rahmens für den internationalen Handel. Bis 1994 fanden acht Runden des GATT statt, in deren Verlauf die Mitgliedsstaaten ihre Zölle massiv gesenkt und nicht-tarifäre Handelshemmnisse abgebaut haben. Die letzte Runde, die Uruguay-Runde, die von 1986 bis 1994 stattfand, bezog auch Dienstleistungen und geistige Eigentumsrechte (Patente und Urheberrechte) in das Abkommen mit ein. Ergebnisse der Uruguay-Runde sind die Gründung der Welthandelsorganisation (WTO), das Agreement on Trade-Related Aspects of Intellectual Property Rights (Abkommen über den Schutz geistiger Eigentumsrechte, „TRIPs“) und das GATS. Das GATS-Abkommen wurde am Ende der Uruguay-Runde unterzeichnet und trat am 1. Januar 1995 in Kraft ("GATS 1995"). Zugleich wurde damals beschlossen, den Vertrag nach fünf Jahren zu überarbeiten. So wird das GATS seit Beginn 2000 neu verhandelt ("GATS 2000"). Die Verhandlungen sollten bis zum Ende der „Neuen Runde“ (der in Doha unter gewissen Konditionen vereinbarten neuen Verhandlungsrunde) 2005 abgeschlossen sein (siehe Doha-Runde). Zu einem Verhandlungsabschluss kam es aber aufgrund unterschiedlicher Ansichten der WTO-Mitglieder bisher nicht. Zuletzt wurde, angesichts der weltweiten Finanzkrise, vom Weltfinanzgipfel im November 2008 in Washington die beschleunigte Wiederaufnahme der Welthandelsgespräche beschlossen. Meistbegünstigung und Inländerbehandlung. Zu den wesentlichen Prinzipien des GATS gehören die Meistbegünstigung und die Inländerbehandlung. Das Prinzip der Meistbegünstigung bedeutet, dass es nicht möglich ist, Handelsvergünstigungen nur einzelnen Staaten zu gewähren, sondern dass sie stets allen WTO-Staaten zugestanden werden müssen. Einige allgemeine Ausnahmen von der Meistbegünstigung gibt es für regionale Integrationsabkommen, so dass beispielsweise die EU Handelsvorteile ihres Binnenmarkts nicht auch Drittstaaten gewähren muss. Das Prinzip der Inländerbehandlung verpflichtet die Mitgliedsstaaten, ausländische Anbieter inländischen gleichzustellen. Staatliche Aufwendungen müssen auch privaten Anbietern aus dem Ausland zur Verfügung stehen. Länderlisten und GATS-Verhandlungen. Grundsätzlich können die WTO-Mitgliedsstaaten selbst bestimmen, welche Dienstleistungsbereiche sie für den Markt öffnen. In den so genannten Länderlisten verpflichten sich die einzelnen Staaten, welche Dienstleistungen sie freigeben, bzw. legen fest, welche Einschränkungen es in Bezug auf Marktzutritt und "Inländerbehandlung" gibt. Die Öffnung der einzelnen Dienstleistungssektoren geschieht schrittweise in mehreren Runden und erfolgt etwa nach dem Muster: „Gibst du mir die Dienstleistung Bildung, gebe ich dir die Dienstleistung Verkehr“. Die Liberalisierung der Dienstleistung wird in sehr vielen Einzelpunkten – 12 Sektoren bzw. 155 Subsektoren „mal“ den jeweils vier verschiedenen Dienstleistungserbringungsarten ("Modes") – verhandelt. Derzeit führt die WTO Verhandlungen mit dem Ziel, die Beschränkungen in den Länderlisten bis 2005 zu liberalisieren. Die Liberalisierung soll, in jeder Runde zunehmend, verstärkt betrieben werden. Der "Artikel XIX" des GATS spricht ausdrücklich von einer "fortschreitenden Liberalisierung". Die Rücknahme von einmal eingegangenen Liberalisierungsverpflichtungen ist nur möglich, wenn die dadurch geschädigten Handelspartner Kompensationen, z. B. in Form von und für Liberalisierung anderer Bereiche, erhalten. Die GATS-Diskussion. Der zentrale Diskussionspunkt ist, ob öffentliche Dienstleistungen (Gesundheitsdienstleistungen, Bildungsdienstleistungen, …) durch Artikel I:3 ausgenommen sind, oder doch unter das GATS fallen. So argumentiert etwa das österreichische Wirtschaftsministerium, dass das System der österreichischen Sozial- und Pensionsversicherung aus dem GATS ausgenommen sei, da es sich um Dienstleistungen handelt, die gemäß Artikel I:3 lit. b des GATS-Abkommens in staatlicher Zuständigkeit erbracht werden. Was laut den Kritikern das Wirtschaftsministerium regelmäßig verschweige, ist Punkt c dieses Artikels. In dieser Bestimmung heißt es, dass Dienstleistungen die Es besteht weder unter WTO-Mitgliedern noch im WTO-Sekretariat Einigkeit über die Bedeutung des Begriffs „erbracht in Ausübung staatlicher Gewalt“. Besonders das Sekretariat der WTO scheint, je nach Umstand, unterschiedliche Ansätze zu verfolgen. In einem Hintergrundpapier zu Gesundheitsdienstleistungen und soziale Dienste (S/C/W/50) argumentiert das Sekretariat, dass es in Fällen, in denen private, kommerziell orientierte und öffentlich-gemeinnützige Krankenhäuser "parallel" existieren, unrealistisch sei, zu behaupten, dass keine Wettbewerbssituation herrsche. Folglich sind öffentliche Krankenhäuser, obwohl sie ein öffentlicher Dienst sind, "nicht" vom GATS "ausgenommen". Um die Bedeutung von "Artikel I:3" für die EU zu verstehen, sind die Ausnahmeregelungen im Zuge der "horizontalen Verpflichtungen" heranzuziehen. Die EU hat in die Länderlisten des GATS eintragen lassen, dass „Dienstleistungen, die auf nationaler oder örtlicher Ebene als öffentliche Aufgaben betrachtet werden, staatlichen Monopolen oder ausschließlichen Rechten privater Betreiber unterliegen“ können (vgl. WTO 1994: Liste der spezifischen Verpflichtungen – deutsche Übersetzung der Europäischen Gemeinschaften und ihrer Mitgliedstaaten. GATS/SC/31, 15. April, Genf. In: Bundesgesetzblatt, teil II, S. 1678–1683). Dies stellt demnach die Grundlage für die Beschränkungen des Marktzuganges im Bereich öffentlicher Aufgaben dar. Diskutiert wird weiters der "Artikel VI:4", wo unter anderem ein sog. Notwendigkeitstest beschrieben wird. Dieser soll prüfen, ob staatliche Umwelt- oder sonstige Auflagen "handelsneutral" sind und ob es andere Auflagen geben könnte, die einen größeren Anreiz für ausländische Investoren bieten. Dieser bedrohe den demokratischen Gestaltungsspielraum, da der Nationalstaat beweisen muss, dass seine Auflagen die geringstmöglichen sind. Die OECD schlägt vor, Dienstleistungen, die im Rahmen staatlicher Zuständigkeit erbracht werden, als gemeinnützig aufzufassen. GATS und EU. Unerwünschterweise sind die Forderungen der EU wie auch die Angebote an die EU an die Öffentlichkeit gekommen und haben für Unmut gesorgt, da u. a. von den USA gefordert wird, im Bildungssektor zu privatisieren. Von den 109 Ländern, an deren Adresse die EU ihre Liberalisierungsforderungen (so genannte Requests) richtete, sind die große Mehrheit (94) Entwicklungs- oder Schwellenländer. In Europa gibt es das „European Services Forum“ (ESF), das von Sir Leon Brittan (Handelskommissar vor Pascal Lamy) geschaffen wurde, um die europäischen Dienstleistungskonzerne in die GATS-Verhandlungen einzubinden. GATS und Österreich. Österreich trat 1994 durch einen 4 Parteien-Beschluss im Nationalrat dem GATS bei (siehe Bundesgesetzblatt 1/95). In Österreich hat sich eine besonders starke Gruppierung gegen GATS gebildet - beteiligt sind: der Gemeindebund, der Städtebund, die Caritas, Attac und Ex-ÖVP-Vizekanzler Josef Riegler. Auch der Gewerkschaftsbund ist beteiligt; so hat der ÖGB zum ersten Mal mit anderen Trägerorganisationen zusammengearbeitet. Der frühere Gegner Greenpeace, etwa beim Kraftwerksbau Hainburg, wurde einer von 80 Bündnispartnern. Die EU eröffnete zu den "Offers" aufgrund der Bürgerproteste einen so genannten Konsultationsprozess: eine Umfrage von NGO und Sektorverbänden wurde begonnen; von tausenden Anfragen kamen über 60 % aus Österreich. Um diesen Bedenken zu begegnen, hat die EU nun ein Dokument veröffentlicht, in dem über die an sie gerichteten Forderungen Auskunft gegeben wird. Der Nahverkehr, Gesundheit, Bildung und die audiovisuellen Medien seien nach offiziösen Meldungen für Österreich aus den GATS ausgenommen, eine Nachprüfbarkeit ist aufgrund der Geheimverhandlungen nicht möglich. Auch wie lange diese Ausnahmen für die Dauer der Verhandlungen erhalten bleiben, ist fraglich, da ja genau darüber verhandelt wird. Auch die Länder und Gemeinden in Österreich melden Kritik an: So meint Sepp Rieder, Vize-Bürgermeister von Wien, dass zwar zuerst versichert worden sei, dass die Sozialpartner mit eingebunden werden würden, es aber keine konkreten Verhandlungen oder Informationen gebe. Er schlug vor, dass GATS und MAI. Das GATS (besonders der "Mode 3") lehnt sich an das beim WTO-Gipfel (1999) in Seattle gescheiterte "Multilaterale Investitionsabkommen" (MAI) an. Das MAI beabsichtigt in diesem Zuge, Schadenersatzansprüche für Konzerne gegenüber Regierungen zu ermöglichen, in deren Land gestreikt wird oder in dem höhere Arbeitnehmer- oder Umweltschutzgesetze in Kraft treten. Der Schadenersatz für den Konzern soll sich nach der Gewinnschmälerung richten, die dem Konzern durch die Maßnahmen entstanden ist. Siehe auch. Neoliberalismus, Meistbegünstigungsprinzip, Dienstleistungsrichtlinie, Cross-Border-Leasing, General Agreement on Tariffs and Trade (GATT), Trade in Services Agreement (TiSA) GNU-Lizenz für freie Dokumentation. Die GNU-Lizenz für freie Dokumentation (oft auch "GNU Freie Dokumentationslizenz" genannt; englische Originalbezeichnung "GNU Free Documentation License"; Abkürzungen: GNU FDL, GFDL) ist eine Copyleft-Lizenz, die für freiheitsgewährende Software-Dokumentationen gedacht ist, die aber auch für andere freie Inhalte verwendet wird. Die Lizenz wird von der Free Software Foundation (FSF), der Dachorganisation des GNU-Projekts, herausgegeben. Die Lizenz liegt ausschließlich in englischer Sprache vor, die aktuelle Fassung 1.3 wurde im November 2008 veröffentlicht. Die Lizenz drohte – wie alle anderen freien Lizenzen auch – in Deutschland durch einen vom Bundesjustizministerium eingereichten Gesetzesvorschlag zur Modernisierung des Urheberrechts vom 22. März 2000 ungültig zu werden. Das Institut für Rechtsfragen der Freien und Open Source Software reichte am 26. Juni 2001 jedoch eine erweiternde Bestimmung, heute besser bekannt als Linux-Klausel, ein, die die Verwendbarkeit von freien Lizenzen in Deutschland sicherte. Begriff. „GNU“ ist ein rekursives Akronym. Es steht für „GNU is not Unix“. Unix ist ein älteres, unfreies Betriebssystem. Das Softwareprojekt GNU sollte dafür stattdessen eine freiheitsgewährende Variante werden. Beabsichtigter Zweck. Wenn ein Urheber oder Rechte-Inhaber (Lizenzgeber) ein Werk unter diese Lizenz stellt, bietet er damit jedermann weitgehende Nutzungsrechte an diesem Werk an: Die Lizenz gestattet die Vervielfältigung, Verbreitung und Veränderung des Werkes, auch zu kommerziellen Zwecken. Im Gegenzug verpflichtet sich der Lizenznehmer zur Einhaltung der Lizenzbedingungen. Diese sehen unter anderem die Pflicht zur Nennung des Autors oder der Autoren vor und verpflichten den Lizenznehmer dazu, abgeleitete Werke unter dieselbe Lizenz zu stellen (Copyleft-Prinzip). Wer sich nicht an die Lizenzbedingungen hält, verliert damit automatisch die durch die Lizenz eingeräumten Rechte. Geschichte. Die GNU-Lizenz für freiheitsgewährende Dokumentation wurde ursprünglich geschaffen, um Dokumente, wie beispielsweise Handbücher, die im Rahmen des GNU-Projekts verfasst wurden, unter eine ähnliche Lizenz zu stellen wie die Software selbst und damit entsprechend dem Geist der Bewegung für freie Software die Bekanntgabe und Übertragung von Rechten für jede Person zu garantieren. Das Pendant der GNU-Lizenz für freie Dokumentation im Software-Bereich ist die "GNU General Public License" (GPL). Der erste Entwurf mit der Versionsnummer 0.9 wurde von Richard Stallman am 12. September 1999 in der Newsgroup gnu.misc.discuss zur Diskussion vorgestellt. Die erste Version erschien im März 2000 mit der Versionsnummer 1.1. Nach der Version 1.2 vom November 2002 erschien im November 2008 die aktuelle Version 1.3. Sie erlaubt es den Betreibern sogenannter "Massive Multiauthor Collaboration Sites" – als Beispiel werden öffentliche Wikis mit Bearbeitungsmöglichkeit für Jedermann genannt – Inhalte, die vor bestimmten Stichtagen veröffentlicht worden sind, unter "Creative-Commons-Share-alike"-Lizenzen zu relizenzieren. Verwendung in der Wikipedia. Alle Texte der Wikipedia sowie die Texte der meisten Schwesterprojekte der Wikipedia stehen unter der GNU-Lizenz für freiheitsgewährende Dokumentationen. Aufgrund von Problemen mit der GFDL sowie der großen Verbreitung der später erschienenen Creative-Commons-Lizenzen gab es von vielen Benutzern den Wunsch, auf die der GFDL ähnliche Creative-Commons-Lizenz "CC-BY-SA" umzusteigen. Da dies jedoch nur mit Zustimmung aller Autoren ginge, einigten sich die Wikimedia Foundation, Creative Commons und die FSF darauf, einen Lizenzwechsel über einen Umweg zu ermöglichen. Dafür wurde am 3. November 2008 die neue Version 1.3 der GFDL veröffentlicht, welche eine projektweite Migration zu "CC-BY-SA" ohne ausdrückliche Zustimmung der Autoren ermöglichen soll. Da die Dokumente in den Projekten immer mit der Klausel "Version 1.2 oder später" lizenziert sind, sei ein Umstieg von GFDL 1.2 zu GFDL 1.3 und damit wiederum ein Umstieg auf "CC-BY-SA 3.0" möglich, ohne alle Autoren um Zustimmung nachfragen zu müssen. Kritik. Bemängelt wird, dass die Lizenz im Vergleich zu anderen, später entstandenen Lizenzen für freiheitsgewährende Inhalte zu kompliziert sei und dass sie nur in einer englischsprachigen Fassung vorliegt – es gibt lediglich inoffizielle, nicht rechtsverbindliche Übersetzungen. Die GFDL erlaubt dem Urheber, für bestimmte Abschnitte die Modifikation zu untersagen, falls diese weitere Informationen über die Autoren oder Herausgeber enthalten. Kritiker bemängeln, dass dies dem Gedanken der Software-Freiheit zuwiderlaufe. In der Vergangenheit führte dies beispielsweise dazu, dass die GFDL vom Debian-Projekt eine Zeit lang als unfrei angesehen wurde. Im März 2006 wurde dies jedoch auf Dokumente mit "invariant sections" eingeschränkt. Die Tatsache, dass die Wirksamkeit der GFDL in Deutschland (im Gegensatz zur GPL) noch nicht in einem Prozess von einem deutschen Gericht bestätigt wurde, wird von einigen Kritikern als Nachteil der GFDL angeführt. Befürworter interpretieren dies als Beleg für die Wirksamkeit der GFDL, da mögliche Kläger gegen eine Wirksamkeit unter deutschem Recht durch spekulativ geringe Erfolgsaussichten abgeschreckt seien. Kritisiert wird auch die Haftungsausschlussklausel in der GFDL, so kann im deutschen Recht beispielsweise Vorsatz (Abs. 3 BGB) vertraglich nicht wirksam von einer Haftung ausgeschlossen werden. Ganymed (Mond). Ganymed (auch "Jupiter III") ist ein Eismond. Er ist der dritte und mit einem Durchmesser von 5262 km der größte der vier großen Monde des Planeten Jupiter. Er ist noch vor Titan der größte Mond des Sonnensystems und hat einen größeren Durchmesser als der massereichere Planet Merkur. Ganymed ist der einzige Trabant mit einem ausgeprägten Magnetfeld. Er wurde von Galileo Galilei entdeckt, weswegen er auch als einer der Galileischen Monde bezeichnet wird. Entdeckung. Ganymeds Entdeckung wird dem italienischen Gelehrten Galileo Galilei zugeschrieben, der im Jahre 1610 sein einfaches Fernrohr auf den Jupiter richtete. Die vier großen Monde Io, Europa, Ganymed und Kallisto werden daher auch als die Galileischen Monde bezeichnet. Benannt wurde der Mond nach dem Jüngling Ganymed, einem Mundschenk der Götter und Geliebten des Zeus aus der griechischen Mythologie. Er ist der einzige Jupitermond, der nach einer männlichen Figur benannt ist. Obwohl der Name "Ganymed" bereits kurz nach seiner Entdeckung von Simon Marius vorgeschlagen wurde, konnte er sich über lange Zeit nicht durchsetzen. Erst in der Mitte des 20. Jahrhunderts kam er wieder in Gebrauch. Vorher wurden die Galileischen Monde üblicherweise mit römischen Ziffern bezeichnet und Ganymed war der "Jupitermond III". Die Galileischen Monde sind so hell, dass man sie bereits mit einem Fernglas beobachten kann. Insbesondere Ganymed ist mit einer Helligkeit von bis zu 4,6 mag zu Oppositionszeiten so hell, dass er freiäugig sichtbar wäre, wenn er nicht durch den nahen Jupiter überstrahlt würde. Umlaufbahn und Rotation. Resonanzen der Umlauffrequenzen der drei inneren Galileischen Monde Ganymed umkreist Jupiter in einem mittleren Abstand von 1.070.400 km in 7 Tagen 3 Stunden und 42,6 Minuten. Er befindet sich damit in Resonanz mit seinen beiden inneren Nachbarn Europa (1:2) und Io (1:4), ein Effekt, der zu verhältnismäßig großen Exzentrizitäten der Bahnen dieser Monde beiträgt. Diese Tatsache hat insbesondere große Bedeutung für die Gezeitenreibung im Inneren dieser Monde und ist damit eine Erklärung für den Vulkanismus auf Io. Die Bahn weist eine Exzentrizität von 0,0015 auf und ist 0,21° gegenüber der Äquatorebene des Jupiters geneigt. Ganymed rotiert in 7 Tagen, 3 Stunden und 42,6 Minuten um die eigene Achse und weist damit, wie der Erdmond und die übrigen inneren Jupitermonde, eine gebundene Rotation auf. Wegen der im Vergleich zum Erdmond geringen Exzentrizität der Bahn und der sehr kleinen Achsneigung Ganymeds sind Librationseffekte gering. Die maximale Libration der Länge, die proportional zur Exzentrizität der Bahn ist, beträgt nur etwa 10' (beim Erdmond beträgt diese maximal etwa 7°). Die durch diese Taumelbewegung entstehenden Gezeiteneffekte, die beim Jupitermond Io als Hauptursache für den starken Vulkanismus gelten, sind daher (und aufgrund des wesentlich größeren Abstandes) viel geringer. Physikalische Eigenschaften. Ganymed besitzt einen mittleren Durchmesser von 5262 km und ist damit der größte Mond im Sonnensystem. Er ist etwas größer als der Saturnmond Titan (5150 km) und deutlich größer als der Planet Merkur (4878 km), wobei er allerdings mit seiner geringen Dichte von 1,936 g/cm3 nur die Hälfte von Merkurs Masse aufweist. Oberfläche. Helle und dunkle Regionen auf Ganymeds Oberfläche. Am unteren Bildrand ist ein relativ frischer Impaktkrater sichtbar, bei dem helles Material aus dem Untergrund strahlenförmig ausgeschleudert wurde. Ganymeds Oberfläche, die aus hunderte Kilometer dickem Eis besteht, kann in zwei unterschiedliche Regionen unterteilt werden: Eine geologisch sehr alte, dunkle Region mit einer großen Anzahl an Einschlagskratern und eine etwas jüngere, hellere Region mit ausgeprägten Gräben und Verwerfungen. Die beiden Regionen sind auf tektonische Aktivitäten zurückzuführen. Ganymeds Oberfläche besteht aus zwei kontinentalen Platten, die sich unabhängig voneinander bewegen, wobei an ihren Randzonen Gebirgszüge aufgeworfen werden können. Darüber hinaus sind Gebiete sichtbar, durch die sog. "wässrige Lava" geflossen sein könnte, deren Ursprung auf vergangenen Kryovulkanismus zurückzuführen ist. Hinsichtlich der Tektonik ähnelt Ganymed dem Planeten Erde, obwohl die Aktivitäten auf Ganymed zum Erliegen gekommen sind. Die dunklen Regionen ähneln der Oberfläche von Kallisto, ein ähnliches System von Gräben und Verwerfungen existiert auf dem Saturnmond Enceladus und den Uranusmonden Miranda und Ariel. Beide Regionen weisen viele Einschlagskrater auf. Deren Anzahl und Verteilung ergeben für Ganymeds Oberfläche ein Alter von 3 bis 3,5 Milliarden Jahren, vergleichbar dem Erdmond. Dabei überlagern die Krater die Gräben oder werden von diesen durchbrochen, was darauf schließen lässt, dass die Gräben ebenfalls geologisch alt sind. Daneben gibt es auch Einschläge jüngeren Datums, bei denen Material aus dem Untergrund in Form von Strahlensystemen ausgeworfen wurde. Anders als auf dem Erdmond oder dem Merkur sind die meisten Krater relativ flach und weisen keine Ringwälle oder Zentralberge auf. Offensichtlich hat die Eiskruste über geologische Zeiträume nachgegeben und diese Strukturen eingeebnet. Sehr alte Krater sind nur noch als dunkle Reliefs zu erkennen. Die größte zusammenhängende Struktur auf Ganymed ist eine dunkle Ebene, die "Galileo Regio" genannt wird. Weiterhin sind ausgedehnte konzentrische Erhebungen sichtbar, die das Überbleibsel eines gewaltigen Impaktereignisses sind, das vor sehr langer Zeit stattgefunden hat. Ganymeds Albedo beträgt 0,43, das heißt 43 % des einfallenden Sonnenlichts werden von der Oberfläche reflektiert. Im Vergleich zu den Monden Io und Europa ist seine Oberfläche relativ dunkel. Die Oberflächentemperatur beträgt im Durchschnitt −160 °C. Innerer Aufbau. Die Auswertung der Daten der Raumsonde Galileo weist darauf hin, dass es sich bei Ganymed um einen differenzierten Körper handelt, dessen Schalenaufbau aus vier Schichten besteht: Ein relativ kleiner Kern aus Eisen oder Eisensulfid ist von einem Mantel aus silikatischem Gestein umgeben. Darüber liegen eine etwa 800 km dicke Schicht aus weichem Wassereis und eine äußere harte Eiskruste. Ferner zeigte die Bahnbewegung der Raumsonde kleine Anomalien im Schwerefeld, die entweder auf einen ungleichmäßigen Gesteinsmantel hinweisen oder von größeren Mengen an im Eismantel eingeschlossenen Gesteinen zeugen. Vielleicht werden sie auch von Gesteinstrümmern in oberflächennahen Eisschichten verursacht. Der metallische Kern ist ein Anzeichen dafür, dass Ganymed in der Frühzeit seiner Entstehung im Innern höhere Temperaturen aufwies, als man zuvor angenommen hatte. Tatsächlich scheint Ganymed ähnlich aufgebaut zu sein wie Io, nur dass er zusätzlich von einem äußeren Eismantel und einer Eiskruste umgeben ist. Ozean. Nach einem neuen Modell der Kruste wäre es auch möglich, dass sich unter der Eisoberfläche ein leicht salzhaltiger Ozean befindet, in dessen unterem Bereich durch hohen Druck sich Kristalle einer dichteren Eissorte bilden. Die enthaltenen Salze werden frei und sinken nach unten, wo sie mit Wasser einen unteren salzhaltigeren Ozeanteil bilden. Dieser schwimmt auf einer weiteren Schicht aus einer noch dichteren Eissorte, die wiederum auf einem noch salzhaltigeren und damit noch dichteren Ozean schwimmt, der auf Ganymeds Gesteinsmantel aufliegt. Atmosphäre. Erste Anzeichen der Existenz einer Atmosphäre um den Jupitermond wurden bereits im Jahr 1972 bei der Bedeckung des Sterns SAO 186800 durch Ganymed gefunden. Der Druck in der extrem dünnen Atmosphäre wurde damals mit größer als 10−6 bar angegeben. Beobachtungen mit dem Hubble-Weltraumteleskop ergaben 1997 Hinweise auf das Vorhandensein einer extrem dünnen Atmosphäre aus Sauerstoff. Es wird angenommen, dass der Sauerstoff durch die Einwirkung der Sonnenstrahlung auf die Eiskruste entsteht, wobei das Wassereis in Sauerstoff und Wasserstoff gespalten wird. Der flüchtige Wasserstoff entweicht in den Weltraum, der massereichere Sauerstoff wird durch Ganymeds Gravitation festgehalten. Magnetfeld. Modell des Magnetfeldes von Ganymed als Überlagerung des Jupiterfeldes und des eigenen Dipolfeldes während des Vorbeiflugs "G1" der Raumsonde Galileo Im Rahmen der beiden ersten Vorbeiflüge der Raumsonde Galileo am Mond Ganymed im Juni 1996 (G1) in einer Höhe von 838 km und im September 1996 (G2) in einer Höhe von nur 264 km konnte nachgewiesen werden, dass Ganymed über ein eigenes magnetisches Dipolfeld verfügt. Neben der Erde und dem Merkur ist Ganymed damit der einzige feste planetare Körper im Sonnensystem mit nennenswertem eigenen Dipolfeld, insbesondere der einzige Mond. Spekulationen über ein ebensolches Feld des Jupitermondes Io haben sich hingegen nicht bestätigt. Das Magnetfeld kann in einer ersten Näherung als einfache Überlagerung eines Dipolfeldes mit dem Feld des Jupiters im Vakuum angenommen werden. Das Jupiterfeld kann dabei in einer Umgebung des Mondes von etwa 10 Ganymedradien als konstant angesehen werden, wobei die Stärke dieses homogenen Feldes etwa 120 nT beträgt. Die Ausrichtung des Magnetfeldes kann allerdings während des Umlaufes um Jupiter variieren. Das Modell passt zu den Daten des Vorbeiflugs "G1", wenn eine äquatoriale Feldstärke des Dipolfeldes von 750 nT angenommen wird (dargestellt in nebenstehendem Bild). Die Feldstärke ist zwar viel geringer als die des Erdmagnetfeldes (äquatorial 30.000 nT), aber größer als die des Planeten Merkur (äquatorial 450 nT). Die Richtung des magnetischen Dipols weicht etwa 10° von der Rotationsachse ab und zeigt im Ganymed-zentrierten Koordinatensystem in die Richtung des 220. Längengrades (der Nullmeridian zeigt dabei wegen der gebundenen Rotation immer zum Jupiter). Die Struktur des Magnetfeldes ist etwas verschieden von den planetaren Magnetfeldern der Erde oder der Gasplaneten. Das umgebende Magnetfeld des Jupiters ist so stark, dass es auf der Oberfläche des Ganymeds nur eine relativ kleine Zone am Äquator gibt, wo die Magnetfeldlinien vom Mond wieder auf den Mond zurücklaufen. In den relativ großen polaren Regionen verlaufen die Feldlinien hingegen zum Jupiter oder kommen dorther. Die grüne Linie im nebenstehenden Bild – die "„Separatrix“" – trennt Gebiete in denen die Feldlinien von Ganymed zu Ganymed, Ganymed zu Jupiter und von Jupiter zu Jupiter laufen. Bessere Modelle des Magnetfeldes ziehen die Tatsache in Betracht, dass sich Ganymed nicht im Vakuum durch das Magnetfeld des Jupiters bewegt, sondern dass es ein mit Jupiter "korotierendes" (beidseitige Rotationsbindung) Plasma gibt, in dem der Mond sich befindet. Die Einbeziehung des Plasmas in das Modell geschieht im Rahmen der Magnetohydrodynamik und erklärt die Ausbildung einer Magnetosphäre. Die Existenz einer Magnetopause wurde von Galileo bestätigt, allerdings gibt es im Gegensatz zur Erdmagnetosphäre keine "Bugstoßwelle". Zur Ausbildung einer solchen Stoßwelle müsste das einströmende Plasma eine Geschwindigkeit relativ zum Ganymed besitzen, die größer als die Alfvén-Geschwindigkeit ist. Anders als bei der Erde, bei der der Sonnenwind mit etwa achtfacher Alfvén-Geschwindigkeit (und zehnfacher Schallgeschwindigkeit) auf die Magnetopause trifft, hat das korotierende Plasma des Jupiters zwar 2,4-fache Schallgeschwindigkeit, aber nur etwa halbe Alfvén-Geschwindigkeit. In den polaren Regionen des Ganymed, in denen Feldlinien von Jupiter zu Ganymed laufen, kann Plasma bis zur Atmosphäre des Planeten vordringen und führt dort zu Polarlichtern, die vom Hubble-Weltraumteleskop im UV-Licht tatsächlich beobachtet werden konnten. Die Tatsache, dass die Richtung des Dipols von der Richtung der Rotationsachse nur um 10° abweicht, deutet darauf hin, dass die Ursache des Magnetfeldes in einem Dynamoeffekt zu suchen ist. Als möglicher Träger des Dynamoeffekts kommen leitfähige Flüssigkeiten in Frage. Diskutiert werden als Kandidaten sowohl flüssiges Metall im Kern des Mondes, als auch Salzwasser im Mantel. Erkundung durch Sondenmissionen. Die Erkundung des Ganymed durch Raumsonden begann in den Jahren 1973 und 1974 mit den Jupiter-Vorbeiflügen von Pioneer 10 und Pioneer 11. 1979 konnten Voyager 1 und Voyager 2 erstmals genauere Beobachtungen dieses Mondes vornehmen. Der Großteil unseres Wissens über Ganymed stammt jedoch vom Galileo-Orbiter, der 1995 das Jupitersystem erreichte und während der darauffolgenden acht Jahre mehrere nahe Vorbeiflüge am Jupitermond vollführte. Für das Jahr 2020 hatten die Raumfahrtbehörden NASA und ESA die gemeinsame Europa Jupiter System Mission Laplace vorgeschlagen, die mindestens zwei Orbiter vorsah, die jeweils in einen Orbit um Europa und Ganymed eintreten und das gesamte Jupitersystem mit einem revolutionären Tiefgang erforschen sollten. Die NASA, die den JEO bauen wollte, stieg jedoch aus dem Projekt aus. Die ESA verwirklicht jedoch den JGO mit leicht abgewandelter Missionsplanung als JUICE. JUICE soll nach ihrer Ankunft am Jupiter im Jahr 2030 nach zwei Vorbeiflügen an Europa und zwölf Vorbeiflügen an Kallisto 2032 in einen Orbit um Ganymed einschwenken. Da die NASA-Sonde entfällt, wurden die Europa-Vorbeiflüge als Ersatz dafür in den Missionsplan für JUICE aufgenommen. Science-Fiction. Ganymed spielt in vielen Romanen und Kurzgeschichten von Philip K. Dick eine wesentliche Rolle; am prominentesten vertreten ist der Mond in dem Roman "The Ganymede Takeover" („Die Invasoren von Ganymed“), der 1967 zusammen mit Ray Nelson geschrieben wurde. Der Roman "Farmer im All" (, 1950) von Robert A. Heinlein hat das Terraforming und die Besiedlung von Ganymed zum Thema. Der deutsche Spielfilm "Operation Ganymed" handelt von den Erlebnissen einer fiktiven Raumschiffbesatzung, die von einer Reise zu Ganymed zur Erde zurückkehrt. In der Anime-Serie "Cowboy Bebop" ist der Mond Geburtsort der Figur Jet Black. In der Serie "Babylon 5" wurde ein Schiff der „Schatten“ unterhalb der Oberfläche von Ganymed entdeckt und von einem „Whitestar“-Schiff zerstört. In der "Giants"-Serie von James P. Hogan heißt es in Buch 2: „Eine Gruppe von Außerirdischen aus einer Rasse, die lange verschwunden war, kehrt zurück, um mit irdischen Wissenschaftlern zusammenzuarbeiten, um die seltsame Geschichte einer früheren Epoche des Solar-System zusammenzusetzen, bevor beide Arten getrennte Wege gingen.“ Dies passiert auf Ganymed. Gary Gygax. Ernest Gary Gygax [ˈgaɪ.gæks] (* 27. Juli 1938 in Chicago, Illinois; † 4. März 2008 in Lake Geneva, Wisconsin) war ein US-amerikanischer Spieleautor und einer der Erfinder des Pen-&-Paper-Rollenspiels Dungeons & Dragons. Leben und Werk. Gary Gygax war der Sohn des aus der Schweiz nach Amerika emigrierten Musikers Martin Gygax, der im Symphonieorchester von Chicago Violine spielte, und einer Amerikanerin. Gygax wurde in Chicago geboren und wuchs in Lake Geneva auf, wohin seine Familie zog, als er acht Jahre alt war. Er ging ohne Abschluss von der High School ab, nahm verschiedene Gelegenheitsjobs an, besuchte die Abendschule und hörte Anthropologie an der University of Chicago. Er verdiente sein Geld als Versicherungsvertreter, bis seine Spielsysteme Erfolg hatten. Er und Jeff Perren erfanden das Spiel "Chainmail", aus dem in den späten 1960ern dann das mittelalterlich anmutende "Dungeons & Dragons" (kurz D&D) entwickelt wurde. Gygax und Don Kaye gründeten einen eigenen Spieleverlag, Tactical Studies Rules (TSR), mit dem sie 1974 die erste Version von D&D veröffentlichten. 1975 fiel Gygax ein englisches Magazin namens "Owl and Weasel" in die Hände. Er nahm mit den Verfassern, unter anderem Ian Livingstone, Kontakt auf und schickte ihnen eine Version von D&D. Die Engländer waren sofort begeistert und verkauften das Spiel in England mit enormem Erfolg. Gygax entwickelte später eine neue Version von D&D, die von 1977 bis 1997 unter dem Namen "Advanced Dungeons & Dragons" herausgegeben wurde. Vor D&D beschäftigte sich Gygax zusammen mit seinem Freund Dave Arneson mit Wargaming („Chainmail“) – hier wurden Schlachtfeldszenarien mit Plastikfiguren nachgestellt. Arneson kam auf die Idee, die Soldaten in einem Kommandounternehmen die Burg einnehmen zu lassen, wobei sie Fallen entschärfen und Türen öffnen mussten. So lernte jeder Spieler, sich mit seinem Krieger zu identifizieren. Der Erfolg blieb nicht aus, und nun entstanden ganze Welten wie Arnesons "Blackmoor" und Gygax’ "World of Greyhawk". Da "Chainmail" dafür nicht ausgereift war, wurde es erweitert, und Dinge wie „Trefferpunkte“ wurden integriert. Zunächst erhielt es den Titel „The Fantasy Game“. Doch der Name war nicht zugkräftig genug, und Gygax’ Frau kam auf den Namen „Dungeons & Dragons“. Eine weitere Kreation von Gygax war "DragonChess", eine dreidimensionale Fantasy-Variante von Schach, das im August 1985 in Ausgabe 100 des Magazins "Dragon" veröffentlicht wurde. Es wird auf drei Spielbrettern der Größe 8×12 gespielt, die aufeinandergesteckt sind. Das obere Spielbrett steht dabei für den Himmel, das mittlere für die Erde und das untere für die Unterwelt. Die Spielsteine sind Figuren und Monstern aus der D&D-Serie nachempfunden: König, Magier, Paladin, Kleriker, Drache, Griffin, Oliphant, Held, Dieb, Elementar, Basilisk, Einhorn, Zwerg, Sylph und Krieger. Nachdem Gygax TSR verlassen hatte, publizierte er "Dangerous Journeys", ein fortgeschrittenes Rollenspiel, das mehrere Genres miteinander verband. 1995 begann er die Arbeit an einem komplett neuen Rollenspiel, das ursprünglich als Computerspiel gedacht war, dann aber 1999 unter dem Namen "Lejendary Adventure" herausgegeben wurde. Es wird teilweise als seine beste Arbeit angesehen. Ein besonderes Augenmerk hatte er dabei auf einfache Spielregeln geworfen, da Gygax meinte, dass Rollenspiele mit der Zeit zu komplex geworden seien und somit neue Spieler abschreckten. Gygax lieh in der englischen Originalversion der Zeichentrickserie "Futurama" in der Episode "Geschichten von Interesse I" sowie im Zeichentrickfilm ' (postum aus Archivmaterial) sich selbst die Stimme. Außerdem erhielt er ein Denkmal auf einem Friedhof in der MMORPG-Umsetzung „Dungeons & Dragons Online: Stormreach“,in der er auch in einem Dungeon dem Spielleiter seine Stimme leiht. Er starb am 4. März 2008 im Alter von 69 Jahren an den Folgen eines Herzinfarktes in seinem Haus in Lake Geneva, Wisconsin, wo er noch im Januar D&D-Spielrunden leitete. Ferdinand von Zeppelin. Ferdinand Adolf Heinrich August von Zeppelin (* 8. Juli 1838 in Konstanz; † 8. März 1917 in Berlin) war ein deutscher Graf, General der Kavallerie und Begründer des Starrluftschiffbaus. Durch eine Serie von Unfällen mit seinen Luftschiffen wurde er im Volksmund als "der Narr vom Bodensee" bezeichnet. Ein Unfall sollte jedoch die Geschichte nachhaltig prägen: Im Anschluss an eine Havarie seines Luftschiffs LZ 4 am 5. August 1908 in Echterdingen bei Stuttgart entstand eine große Solidarität in der Bevölkerung, welche in die Zeppelinspende des deutschen Volkes mündete und damit die Grundlage für die noch heute existierende Luftschiffbau Zeppelin GmbH und die Zeppelin-Stiftung legte. Familie. Ferdinand war der Sohn des früheren fürstlich hohenzollernschen Hofmarschalls und Baumwollfabrikanten Graf Friedrich Jerôme Wilhelm Karl von Zeppelin (1807–1886) und dessen Frau Amélie Françoise Pauline (geb. Macaire d’Hogguèr) (1816–1852). Deren Vater David Macaire d’Hogguèr (1775–1845) schenkte der Familie von Zeppelin das Schloss Girsberg in Emmishofen (Schweiz), wo Ferdinand zusammen mit seinen Geschwistern Eugenia und Eberhard aufwuchs, seine Erziehung durch Hauslehrer erfuhr und das er bis zu seinem Tod bewohnte. Von seinem Onkel Kaspar Macaire, dem Besitzer einer Indigo-Färberei auf der Konstanzer Dominikanerinsel, erhielt er 1846 dessen Naturalien-Sammlung, die er dann auf Schloss Girsberg neu inventarisierte und den Bestand vergrößerte. 1872 übergab er die Insekten- und 1874 die Mineraliensammlung dem Rosgartenmuseum. Graf Zeppelin heiratete am 7. August 1869 in Berlin Isabella (genannt „Bella“) Freiin von Wolff-Alt-Schwanenburg (* 4. Mai 1846 in Alt Schwanenburg/ Livland; † 2. Januar 1922 in Stuttgart). Sie war eine Cousine von Sophie (russisch: Sonja) Freiin von Wolff-Stomersee (1840–1919), welche ein Jahr zuvor Ferdinands Bruder, Eberhard von Zeppelin, geheiratet hatte. Aus der Ehe von Ferdinand und Isabella ging als einziges Kind Helene (Hella) von Zeppelin (1879–1967) hervor, die 1909 Alexander von Brandenstein-Zeppelin (1881–1949) heiratete. Ihr Sohn Alexander Graf von Brandenstein-Zeppelin (der Jüngere, 1915–1979) heiratete Ursula Freiin von Freyberg-Eisenberg-Allmendingen (1917–1985). Aus dieser Ehe gingen vier Kinder hervor, u. a. Albrecht von Brandenstein-Zeppelin und Constantin von Brandenstein-Zeppelin. Leben. Geburt im ehemaligen Dominikanerkloster in Konstanz Ferdinand Zeppelin wurde am 8. Juli 1838 auf der Dominikanerinsel im heutigen Inselhotel geboren. Seine Jugendjahre verbrachte er überwiegend auf dem Schloss Girsberg. Ab 1853 besuchte er zunächst die Realschule und das Polytechnikum in Stuttgart. Er führte von Kind an und nahezu sein gesamtes Leben ein Tagebuch. 1855 im 17. Lebensjahr trat er als Kadett in die Kriegsschule Ludwigsburg ein. Er wurde 1858 Leutnant in der Württembergischen Armee und im selben Jahr für ein Studium der Staatswissenschaft, Maschinenbau und Chemie in Tübingen beurlaubt. Aufgrund der vorsorglichen Mobilmachung wegen des österreichisch-italienischen Konflikts musste er 1859 sein Studium abbrechen und wurde zum Ingenieurkorps einberufen. Wiederum beurlaubt, reiste Zeppelin von Liverpool nach Nordamerika und erhielt eine Audienz bei Präsident Abraham Lincoln. Nachdem er Ausweispapiere für die Armeen der Nordstaaten erhalten hatte, nahm er seit 1863 am Sezessionskrieg als Beobachter teil und wurde der Potomac-Armee der Nordstaaten zugeteilt. Hier erlebte er zum ersten Mal den militärischen Einsatz von Ballonen und konnte am 30. April 1863 selbst an einer Ballonfahrt teilnehmen. Dieses Erlebnis ließ ihn zeitlebens nicht mehr los, insbesondere die Schwäche dieses Instruments: die Abhängigkeit von der jeweiligen Windrichtung bzw. die Unlenkbarkeit eines Freiballons. Im November 1864 kehrte er aus den Vereinigten Staaten nach Württemberg zum Regimentsdienst zurück und wurde im April 1865 Adjutant des Württembergischen Königs Karl I. Den Deutschen Krieg 1866 erlebte er als Generalstabsoffizier und wurde mit dem Ritterkreuz des Württembergischen Militärverdienstordens ausgezeichnet. Im Deutsch-Französischen Krieg 1870/1871 wurde er aufgrund seines ausgedehnten Erkundungsritts hinter den feindlichen Linien berühmt. Auch in diesem Krieg spielte der Einsatz von Freiballons, besonders auf französischer Seite, eine gewisse Rolle. Am 25. April 1874 findet sich in seinem Tagebuch die erste Eintragung über die Idee, ein lenkbares Luftschiff zu bauen, nachdem er an diesem Tag einen Vortrag von Reichspostminister Stephan zum Thema "Über Weltpost und Luftschiffahrt" verfolgt hatte. im gleichen Jahr wurde er zum Major befördert. Als Oberstleutnant wurde Zeppelin 1882 Kommandeur des Ulanen-Regiment „König Karl“ (1. Württembergisches) Nr. 19 in Ulm, wo er 1884 zum Oberst befördert wurde. Im September 1885 wurde er zum württembergischen Militärbevollmächtigten an der Gesandtschaft in Berlin berufen und 1887 selbst zum württembergischen Gesandten ernannt. Hier verfasste er eine Denkschrift an seinen König über die „Notwendigkeit der Lenkballone“. Insbesondere stellte er in dieser Schrift dar, dass – im Gegensatz zu Ballonen – nur lenkbare Luftschiffe für die Kriegsführung sinnvoll sein können. Eine weitere „persönliche Denkschrift“ aus dem Jahr 1891 an das preußische Außenministerium, in welcher er zum Ende seiner Amtszeit das preußische Oberkommando über württembergische Truppenteile kritisierte, rief den Unwillen des Kaisers hervor. Im Herbstmanöver desselben Jahres, in dem Zeppelin eine Division führte, wurde er durch den Inspekteur der Kavallerie, den preußischen General von Kleist, ungünstig beurteilt, worauf er seinen Abschied aus dem aktiven Militärdienst nahm. Er wurde aber von seinem König zum Generalleutnant befördert und blieb auch weiterhin „General à la suite“ des Königs von Württemberg. 1891 nahm er in der Schweiz an einer Luftfahrt des Ballonfahrers Eduard Spelterini mit dem Ballon "Urania" teil. Nach seiner Verabschiedung widmete er sich ganz der Konstruktion eines starren Luftschiffes. Eine von Kaiser Wilhelm berufene Sachverständigenkommission, der unter anderem die Professoren Hermann von Helmholtz, Richard Aßmann, Adolf Slaby, Heinrich Müller-Breslau und der spätere Konstrukteur von halbstarren Militärluftschiffen Premierleutnant Hans Groß angehörten, riet dem Kriegsministerium nach der Beratung in zwei Sitzungen von einer Förderung des Projekts ab. Zwar kämpfte Zeppelin gegen die Entscheidung und Mitglieder der Kommission an, jedoch waren die folgenden Jahre für ihn äußerst beschwerlich. In der Bevölkerung wurde Zeppelin ab 1895 als Narr verschrien und teilweise auf offener Straße ausgelacht. Auch sein Versuch, das für den Bau eines Luftschiffs notwendige Kapital von rund einer Million Mark auf eigene Initiative einzutreiben, gelang ihm nicht: Lediglich der Kaiser bezuschusste Zeppelin mit 6.000 Mark. Durch alte Freunde und Mitglieder des Württembergischen Königshauses kamen immerhin weitere 100.000 Mark zusammen. Trotz dieser Rückschläge verfolgte Zeppelin beharrlich und optimistisch sein Ziel. Im Jahr 1896 wurde Graf Zeppelin Mitglied im Verein Deutscher Ingenieure (VDI), der das Luftschiffprojekt tatkräftig unterstützte. Neben der Einberufung einer Kommission unterbreitete der Verband auch einen groß angelegten Aufruf zur Unterstützung des Vorhabens. Tatsächlich gelang es Zeppelin durch diesen Aufruf im Jahr 1898 in Kooperation mit deutschen Industriellen die "Aktiengesellschaft zur Förderung der Luftschiffahrt" zu initiieren und wenig später zu gründen. Allerdings blieben einige Industrielle in ihrer finanziellen Beteiligung noch zurückhaltend, sodass der Graf die Hälfte des 800.000 Mark umfassenden Stammkapitals der Aktiengesellschaft aus seinem Privatvermögen aufbringen musste. Ebenfalls im Jahr 1898, am 13. August, erwarb Zeppelin das Reichspatent Nummer 98580 für einen "Lenkbaren Luftfahrzug mit mehreren hintereinander angeordneten Tragkörpern". Der Entwurf für sein Starrluftschiff wurde hierdurch rückwirkend zum 31. August 1895 geschützt, und von nun an begann die Phase des Baus und der Realisierung des ersten Luftschiffs. Die wichtigsten Punkte von Zeppelins Konstruktion waren hierbei das starre Gerippe aus Aluminium, welches aus Ringen und Längsträgern aufgebaut war, die feste Verbindung der beiden getrennten Gondeln mit dem Alu-Gerippe, die Einteilung des Gasraumes in jeweils gleich große, zylindrische Zellen und die Anbringung von Luftschrauben in der Höhe des Luftwiderstandsmittelpunktes. 1899 begann er mit dem Bau des ersten lenkbaren Starrluftschiffs. Die Starrluftschiffe von Ferdinand von Zeppelin wurden ihrerseits Zeppeline genannt. Aus dieser Zeit stammen seine berühmten Worte: „Für mich steht naturgemäß niemand ein, weil keiner den Sprung ins Dunkel wagen will. Aber mein Ziel ist klar und meine Berechnungen sind richtig“. Von der – damals noch kaum vorhandenen – Fachwelt und der breiten Öffentlichkeit wurden Zeppelins Ideen überwiegend abgelehnt und verspottet; Kaiser Wilhelm II. bezeichnete den Grafen gar als den „Dümmsten aller Süddeutschen“. 1900 kam es zu den ersten drei Aufstiegen über dem Bodensee. Die immer besseren Resultate führten zu einer spontanen Begeisterung in der Bevölkerung, was entscheidend dazu beitrug, dass der Graf die Technik der Luftschiffe und ihres Betriebes weiterentwickeln konnte. Am 7. Januar 1901 verlieh der Kaiser ihm den Roten Adlerorden I. Klasse. Am 5. Dezember 1905 erhielt er den Charakter als württembergischer General der Kavallerie. Ferdinand Zeppelin kaufte Melanie Schwarz, der Witwe des Erfinders David Schwarz, die Entwürfe und Patente ihres Ehemanns ab, der kurz vor dem ersten Aufstieg seines Luftschiffes gestorben war. Schon die Realisierung des zweiten "Zeppelins" war nur möglich durch Spenden und die Einnahmen einer Art Geldlotterie. Endgültig finanziell gesichert wurde die weitere Entwicklung der Luftschiffe erst, als 1908 der Zeppelin LZ 4 bei Echterdingen verunglückte, was eine Welle der Hilfsbereitschaft auslöste und zu der Zeppelinspende des deutschen Volkes führte. Ausschlaggebend dafür war eine von einem Unbekannten gehaltene Ansprache an den Grafen, in der er am Schluss das deutsche Volk zu einer Sammlung aufforderte, um so einen neuen Zeppelin entstehen zu lassen. Die als Nationalspende durchgeführte Spendenaktion erbrachte über sechs Millionen Mark, mit denen Graf von Zeppelin die Luftschiffbau Zeppelin GmbH und die "Zeppelin-Stiftung" gründen konnte. 1908 kaufte die Militärverwaltung das voll funktionsfähige Luftschiff "LZ 3" und stellte es als "Z I" in Dienst. Seit 1909 wurden Zeppeline auch in der zivilen Luftfahrt eingesetzt: Bis 1914 beförderte die "Deutsche Luftschifffahrts AG" (DELAG) auf mehr als 1500 Fahrten insgesamt fast 35.000 Personen unfallfrei. Die größte Anzahl von Zeppelinen wurde während des Ersten Weltkriegs gebaut. Anfangs waren die Luftschiffe als Bomber und Aufklärer unersetzlich, doch im Laufe des Krieges ging die Technik-Entwicklung über sie hinweg, und die Flugzeuge übernahmen die Rolle der Zeppeline. Graf Ferdinand von Zeppelin erwarb 1910 ein 25 Hektar großes Areal an der Pirschheide in Potsdam West. Im Jahr 1912 wurde hier die größte Luftschiffhalle Deutschlands errichtet. Seine Pläne sahen vor, Potsdam zum Luftfahrzentrum für Europa auszubauen. Seit 1914 wurden hier Kriegsluftschiffe gebaut, 1917 musste die Produktion jedoch eingestellt werden. Von 1916 bis zu seinem Tode war Zeppelin als Vertreter der Ritterschaft Abgeordneter in der Ersten Kammer des Württembergischen Landtags. Beerdigung Graf Zeppelins in Stuttgart Grab auf dem Stuttgarter Pragfriedhof Er verstarb 1917 in Berlin, also noch vor Ende des Krieges. Seine Grabstätte befindet sich auf dem Stuttgarter Pragfriedhof. Rezeption in Kunst und Kultur. Die Person und das Werk Ferdinand von Zeppelins fand nicht nur zu seinen Lebzeiten, sondern auch nach seinem Tod vielfältige Rezeption in Kunst und Kultur. Die Grenzen zwischen achtungsvoller Ehrung und komischer bis spöttischer Bloßstellung verliefen hierbei fließend – was sich ansatzweise anhand von Karikaturen über seine Person nachvollziehen lässt. Zu den bekannten Karikaturen gehört eine am 18. August 1908 und damit kurz nach dem Unglück von Echterdingen im Magazin Simplicissimus erschienene Illustration. Graf Zeppelin wird hier in einer „Galerie berühmter Zeitgenossen“ karikaturistisch abgebildet und dabei als Mann dargestellt, welcher einen kleinen Luftballon an der Hand hält. Zeising interpretiert diese Karikatur als Darstellung eines „infantilen Luftgreises mit Frack und Kinderluftballon an der Hand“. Eine weitere bekannte Karikatur erschien 1928 ebenfalls im Simplicissimus. Von Zeppelin wird hier als liegende, wolkenähnliche Gestalt gezeichnet, welche auf das nach ihm benannte Luftschiff LZ 127 "Graf Zeppelin" hinunterschaut, welches im Jahr 1928 seinen Erstflug absolvieren sollte. Ebenso haben viele Künstler aus dem Bereich des Cabarets und der Kleinkunst Lieder und Szenen auf und über den Zeppelin gemacht, die auf Edisoncylindern und Grammophonplatten erhalten sind. Würdigung. Das vorläufige Aus für seine Luftschiffe aufgrund des Versailler Vertrags erlebte er ebenso wenig wie die zweite Blüte, die sie unter seinem Nachfolger Hugo Eckener erfuhren. Erst zwanzig Jahre später leiteten das Unglück von LZ 129 „Hindenburg“, der am 6. Mai 1937 bei der Landung in Lakehurst in Flammen aufging, und der heraufziehende Zweite Weltkrieg das endgültige Ende der riesigen Starrluftschiffe ein. Ferdinand Graf von Zeppelin ist Ehrenbürger der Städte Friedrichshafen (1907), Konstanz (1908), Worms (1908), Stuttgart (1908), München (1909), Lindau (1909), Baden-Baden (1910) und Ulm (1912). Trivia. Wie Graf Zeppelin 1913 selbst berichtete, baute er in den 1860er Jahren einen Fischerkahn in ein Sportsegelboot um und war damit einer der ersten Sportsegler auf dem Bodensee. GfK (Unternehmen). Die GfK SE mit Sitz in Nürnberg ist das größte deutsche Marktforschungsinstitut, derzeit weltweit die Nummer vier der Branche und im mehrheitlichen Besitz (57 %) des GfK-Vereins. Das Unternehmen erhebt die Einschaltquoten für das Fernsehen in der Bundesrepublik Deutschland. Die Gemeinde Haßloch dient als durchschnittlicher Ort als Testmarkt für das Instrument GfK BehaviorScan, mit dem vor allem die Wirkung von Fernsehwerbung untersucht und die Neueinführung von Produkten simuliert wird. Vom Unternehmen wird unter anderem auch der GfK-Konsumklimaindex errechnet. Geschichte. GfK-Gebäude am Nordwestring in Nürnberg Die GfK wurde im Februar 1935 als "GfK-Nürnberg Gesellschaft für Konsumforschung e. V." von Nürnberger Hochschullehrern, darunter dem späteren deutschen Wirtschaftsminister und Bundeskanzler Ludwig Erhard, gegründet. Das Konzept wurde vom Mitbegründer Wilhelm Vershofen gestaltet. 1984 wurden die kommerziellen Aktivitäten in die "GfK GmbH" ausgegliedert, diese wurde am 23. Januar 1990 zur "GfK AG" umfirmiert. Zu diesem Zeitpunkt beschränkte sich der „GfK-Verein“ auf die Förderung der Markt- und Absatzforschung. Im September 1999 vollzog die "GfK AG" ihren Börsengang und wurde mit Wirkung zum 20. März 2000 in den MDAX aufgenommen. Am 24. März 2003 stieg das Unternehmen in den SDAX ab. Im Jahr 2009 folgte die Umwandlung in eine Europäische Gesellschaft (SE). Konzernstruktur. Die GfK SE ist in den zwei Sektoren "Consumer Choices" und "Consumer Experiences" aktiv. Seit 1999 ist die GfK Aktiengesellschaft an der Börse vertreten. Sie stellt eine Holding für 120 Tochterunternehmen, darunter auch GfK Entertainment, dar und unterhält Beteiligungen in über 100 Ländern. Messung der Einschaltquoten. Anzeige-Display eines GfK-Meter Innerhalb Deutschlands ist die GfK vor allem dafür bekannt, dass sie mit der Messung der Einschaltquoten des Fernsehens beauftragt ist. Dafür benutzt sie spezielle Messgeräte "(GfK-Meter)", die an den Fernsehapparat angeschlossen werden. Die Entwicklung der GfK-Meter geht zurück in das Jahr 1963. Das erste Fernseh-Meter, "Tammeter" genannt, wurde von der britischen „Television Audience Measurement“ (TAM) entwickelt. Die ARD und ZDF gründeten mit der „Infratam“ mit Sitz in Wetzlar eine gemeinsame Tochtergesellschaft und führten von 1963 bis 1974 die ersten kontinuierlichen Quotenmessungen durch. Das Tammeter maß dabei minutengenau, lieferte die Ergebnisse (Geräteeinschaltung, Kanal, Uhrzeit) aber erst vier Wochen später und nur für den kompletten Fernsehhaushalt. 1975 wurde das Tammeter vom "Teleskomat" (ebenfalls von Infratam) abgelöst, welches personenbezogene Ergebnisse aus 1.200 Haushalten im 30-Sekunden-Takt bis zu sechs Programme und bis zu sieben Personen im Haushalt erfasste und über Nacht über die Telefonleitung an den Zentralrechner lieferte. Einen weiteren Fortschritt stellte das "Telecontrol" (TC 3, TC 6, TC XL) dar, das bei der Messung der Einschaltquote alle Programme, alle Personen, die an der jeweiligen Fernsehübertragung beteiligt sind, berücksichtigt und mit Hilfe der Telefonleitung die Daten ins GfK-Daten-Center übermittelt. Seit 1985 wird die Fernsehnutzung von 5500 repräsentativ ausgewählten Haushalten sekundengenau mittels der GfK-Meter in Deutschland gemessen. Zusätzlich wurden 2001 noch 140 Haushalte aus der Europäischen Union hinzugefügt. Das System (GfK-Meter) besteht aus drei Teilen: dem eigentlichen Messgerät, einer Fernbedienung, mit der alle Personen des Haushalts sich individuell an- und abzumelden haben, sowie einer Anzeige. Nachts werden die Daten über Telefonleitung zur GfK nach Nürnberg geschickt, dort ausgewertet und stehen am nächsten Morgen den Mitgliedern der Arbeitsgemeinschaft Fernsehforschung zur Verfügung. Kanton Glarus. Glarus (Kürzel GL;,,) ist ein Kanton in der Deutschschweiz und zählt zu den Regionen Nordost- und Südostschweiz. Der Hauptort ist die gleichnamige Gemeinde Glarus, der einwohnerstärkste Ort ist die Gemeinde Glarus Nord. Geographie. Blick ins Glarnerland nördlich von Niederurnen in Richtung Süden Der Kanton umfasst das Einzugsgebiet der Linth bis zum Walensee und die Linthebene westlich der Linth bis Bilten sowie den Kerenzerberg. Grosse Höhenunterschiede prägen das Bild des Glarnerlandes: Vom flachen Talboden auf 414 Meter Höhe steigt das Gelände bis auf über 3600 Meter (Tödi,). Diese Gegensätze widerspiegeln sich im Klima: Es wechselt innerhalb weniger Kilometer von mild am Walensee mit seiner südländischen Pflanzenwelt zu hochalpin auf den vergletscherten Berggipfeln; und bläst der Föhn durchs Tal, können Temperaturrekorde gemessen werden. Das Tal ist nur nach Norden zur Linthebene hin geöffnet. Der 685 Quadratkilometer grosse Kanton entspricht etwa dem Einzugsgebiet der Linth. Das Sernf- oder Kleintal bietet als einziges Seitental dörflichen Siedlungen Platz. Das Klöntal, das wichtigste westliche Seitental, ist, wie Carl Spitteler rühmt, mit seinem Bergsee «so schön, wie es kein Traum errät». Als sichtbarster Eingriff des Menschen zur Zähmung der Natur zeigt sich das imposante Linthwerk, welches das Antlitz der ganzen Region prägt. Die Linthkorrektion wurde 1807 als erstes Nationalwerk der Schweiz in Angriff genommen. Die Linth wird in den Walensee geleitet und ihr Lauf in den Zürichsee kanalisiert. Zuvor floss sie, den Ausfluss des Walensees immer mehr zurück stauend und die Linthebene versumpfend, träge dem Zürichsee zu. Bevölkerung. Per betrug die Einwohnerzahl des Kantons Glarus. Die Bevölkerungsdichte liegt mit  Einwohnern pro Quadratkilometer unter dem Schweizer Durchschnitt (Einwohner pro Quadratkilometer). Der Ausländeranteil (gemeldete Einwohner ohne Schweizer Bürgerrecht) bezifferte sich am auf  Prozent, während landesweit  Prozent Ausländer registriert waren. Per betrug die Arbeitslosenquote  Prozent gegenüber  Prozent auf eidgenössischer Ebene. 42 Prozent der Bewohner bekennen sich zur evangelisch-reformierten und rund 37 Prozent zur römisch-katholischen Konfession. Sprachen. Amtssprache im Kanton Glarus ist Deutsch. 83,6 Prozent der Einwohner sind deutsch- und 6,8 Prozent italienischsprachig. Die Glarner Mundart ist nicht einheitlich, gemeinsam jedoch ist den glarnerischen Idiomen die melodiöse, singende Sprache. Das Glarnerdeutsche zählt zu den Dialekten des Höchstalemannischen. Politik. a> 2009 – Die Stimmberechtigten stehen «im Ring» und halten ihre Stimmrechtsausweise hoch, während Zuschauer auf Tribünen zuschauen. Legislative – Landsgemeinde. Die Legislative liegt bei der Glarner Landsgemeinde. Der Kanton Glarus ist – zusammen mit dem Kanton Appenzell Innerrhoden – der letzte Kanton, der noch eine kantonale Landsgemeinde hat. Exekutive – Regierungsrat. Der Regierungsrat des Kantons Glarus besteht seit 2006 aus fünf (vorher sieben) Mitgliedern. Er wird vom Volk an der Urne gewählt. Die Regierung des Kantons Glarus wurde per 9. Februar 2014 gewählt. Die Wahlbeteiligung lag bei 43,2 Prozent. Stimmrechtsalter 16. Mit dem Landsgemeindebeschluss vom 6. Mai 2007 wurde das Stimmrechtsalter auf 16 festgesetzt. In einer hart umkämpften Debatte und mit einem knappen Resultat konnte sich der Antrag der JUSO Glarus durchsetzen. So können seither im Kanton Glarus – als erstem und bisher einzigem Schweizer Kanton – Staatsbürger ab dem 16. Lebensjahr das aktive Stimm- und Wahlrecht in kantonalen Angelegenheiten wahrnehmen. Das passive Wahlrecht bleibt weiterhin bei 18 Jahren. Vertretung in der Bundesversammlung. Der Kanton Glarus entsendet einen Vertreter in den Nationalrat und zwei in den Ständerat. Derzeitiger Glarner Nationalrat ist Martin Landolt (BDP), die Glarner Ständeräte sind Thomas Hefti (FDP, seit 2014) und Werner Hösli (SVP, seit 2014). Wirtschaft. In der Landwirtschaft überwiegt die Vieh- und besonders die Milchwirtschaft. Hauptwirtschaftszweig ist aber die Industrie, vor allem Textilindustrie, Maschinen- und Apparatebau, Holzverarbeitung und Baustoffindustrie. Der Kanton Glarus war eine der ersten und die am stärksten industrialisierte Gegend der Schweiz. Daneben sind Elektrizitätsgewinnung durch Wasserkraftwerke und Fremdenverkehr wichtig. Tourismus. Dem Tourismus kommt – insbesondere in den Orten Braunwald, Elm und Filzbach – grosse Bedeutung zu, der Dienstleistungssektor wächst stetig und die Infrastruktur im Tal ist sehr gut ausgeprägt. Verkehr. Das Glarnerland wird grösstenteils von der Eisenbahnlinien Rapperswil SG–Glarus–Linthal und Zürich–Ziegelbrücke–Schwanden bedient. Die stündlich verkehrenden Regionalzüge bedienen auch Ziegelbrücke, den wichtigsten Verkehrsknotenpunkt in der Umgebung. Seit dem Fahrplanwechsel vom 14. Dezember 2014 verbindet die S25 der S-Bahn Zürich Glarus und Zürich stündlich ohne Umsteigen in 58 Minuten. Ein Fortschritt, für den der Pendlerverein mehrere Jahre lang gekämpft hat. Konzessionäre für den Busverkehr sind die Schweizerischen Bundesbahnen, der Schweizerische Postautodienst und im Hinterland der "Autobetrieb Sernftal" (AS) als Nachfolger der 1969 stillgelegten Sernftalbahn. Politische Gemeinden. Im Kanton Glarus existieren seit dem 1. Januar 2011 nur noch drei Gemeinden: Glarus Nord, Glarus und Glarus Süd. Vor der Gemeindefusion gab es keine Gemeinde mit mehr als 10'000 Einwohnern, um statistisch als Stadt zu gelten. Gemeindereform. Mit dem Landsgemeindebeschluss vom 7. Mai 2006 (bestätigt in BGE 132 I 291) wurden die Gemeinden des Kantons Glarus per 1. Januar 2011 zusammengelegt, sodass nach den Fusionen nur noch drei Glarner Gemeinden existieren. Dieser Beschluss wurde an einer ausserordentlichen Landsgemeinde vom 25. November 2007 deutlich bestätigt. Die drei neuen Gemeinden tragen die Namen "Glarus Nord", "Glarus" und "Glarus Süd". Sie umfassen je etwa 10'000 bis 17'000 Einwohner. Bezirke. Der Kanton Glarus kennt keine Einteilung in Bezirke. Das Bundesamt für Statistik (BFS) führt den gesamten Kanton jedoch als einen Bezirk unter der BFS-Nr.: 0800. Ausbildung und Freizeit. Das Schulsystem des Kantons Glarus ist gut ausgebaut: Kindergarten, Volksschule (teilweise Einführungsklassen, Sonder- und Hilfsschule) mit den Oberstufenzügen Ober-, Real- und Sekundarschule; zudem gibt es das Werkjahr, das freiwillige zehnte Schuljahr, den hauswirtschaftlichen Jahreskurs und die Integrationsklasse. An der Kantonsschule Glarus kann die schweizerische Maturität erlangt und die Fachmittelschule besucht werden. Es finden auch Volkshochschulkurse statt. In Ziegelbrücke wird eine Gewerbliche Berufsschule, in Glarus diejenige der kaufmännischen Berufe und die Pflegeschule geführt. Im Kanton können in rund 400 Lehrbetrieben etwa 130 Berufe erlernt werden. Die reichen Angebote von Landesarchiv und vor allem der modernen Glarner Landesbibliothek dienen nicht nur den Bildungshungrigen, sondern auch geschichtlich und kulturell Interessierten oder einfach dem Lese-, Hör- und Sehvergnügen. Die Landesbibliothek (Kantonsbibliothek) verfügt mit der Kartensammlung von Walter Blumer und der Kartografie-Bibliothek von Arthur Dürst über eine wenig bekanntes, aber kartenhistorisch interessantes Forschungsmaterial. Glarus besitzt ein renommiertes, als solches errichtetes Kunsthaus. Auch die Galerie Tschudi in Glarus und verschiedene private Galerien zeigen immer wieder Sehenswertes aus dem Bereich der darstellenden Künste, die von zahlreichen Künstlern und Künstlerinnen im Kanton ausgeübt werden. Die Musikwoche Braunwald ist die traditionsreichste derartige Veranstaltung in ganz Europa. Sie lädt die Teilnehmenden nicht nur zum Zuhören, sondern auch zum aktiven Mittun ein. Die Glarner Musikschule Glarus trägt, zusammen mit zahlreichen Vereinen und Gruppen, zum Musikleben bei. Und die "Modern Music School – Glarnerland" ergänzt das traditionelle Ausbildungs-Angebot mit einem auf die modernen Stilrichtungen spezialisierten Programm. Weiter sind die Glarner Konzert und Theatergesellschaft sowie das Kultur- und Vereinszentrum Holenstein Glarus (vor allem in alternativer Kultur) aktiv. Im sportlichen Bereich besteht ein Angebot in verschiedene Sportzentren und locken natürlich die nahen Berge und Seen zu lokaler Aktivität. Übrigens wurde die erste Schweizer-Alpen-Club-Hütte der Schweiz im Kanton Glarus, am Tödi, erstellt und stand die Wiege des schweizerischen Skisports im Glarnerland. Wappen. Der Legende nach war Fridolin ein irischer Glaubensbote, der anfangs des 6. Jahrhunderts lebte und durch dessen Einfluss die Bewohner des Glarnerlandes zu Christen geworden waren. In kirchlichen Darstellungen wird er von einem Skelett begleitet. Die Sage berichtet, Fridolin, der vom sterbenden, reichen Ursus grosse Teile des Glarnerlandes geschenkt bekam, habe diesen im Erbstreit mit dessen Bruder Landolf aus dem Grab um Hilfe geholt. Landolf sei, als er den bereits in Verwesung übergegangenen Bruder vor Gericht erscheinen sah, darob so erschrocken und beschämt worden, dass er Fridolin auch seinen Teil des Glarnerlandes schenkte. Auf diese Art wurde die Zugehörigkeit des Glarnerlandes zum von Fridolin gegründeten Kloster Säckingen in Deutschland erklärt, und Fridolin gilt als Schutzpatron vor Erbschleicherei. Einzelnachweise. Glarus Glarus. Wappen der bis 31. Dezember 2010 existierenden Ortsgemeinde Die Stadt Glarus (örtlich,,) ist eine politische Gemeinde (bis 2010 Ortsgemeinde, heute Einheitsgemeinde) und der Hauptort des gleichnamigen Schweizer Kantons Glarus. Im Rahmen der Glarner Gemeindereform fusionierte Glarus auf den 1. Januar 2011 mit den Gemeinden Ennenda, Netstal und Riedern zur neuen politischen Gemeinde "Glarus". Geographie. Glarus liegt in der geografischen Mitte des gleichnamigen Kantons an der Linth und am Fusse des rund 2300 m hohen Vorderglärnisch. Der höchste Punkt des Gemeindegebiets ist der 2914 m hohe Bächistock, der zum Massiv des Glärnisch gehört. Nachbargemeinden sind die Gemeinden Glarus Nord, Glarus Süd sowie Muotathal und Innerthal (beide Kanton Schwyz). Geschichte. Erstmals schriftlich erwähnt wird der Ort "Clarona" im 8. Jahrhundert in einer Lebensgeschichte der Heiligen Felix und Regula. Der Name geht wahrscheinlich auf eine lateinische Grundform "*ad clārōnam" «bei der hellen Stelle», im übertragenen Sinn «Waldlichtung», zurück. Bis Ende des 14. Jahrhunderts gehörten grosse Teile des Glarner Landes zur Grundherrschaft des Klosters Säckingen, bis sich die Einwohner davon loskauften. 1387 fand die erste Landsgemeinde statt, eine Institution, die noch heute hier besteht und in der Regel am ersten Sonntag im Mai abgehalten wird. Zum Hauptort des Linthtals wurde Glarus durch Beschluss der Landsgemeinde 1419, da hier lange die einzige Kirche der Talschaft stand. 1506 bis 1516 war der spätere Reformator Ulrich Zwingli Pfarrer von Glarus. Während der Helvetik (1798–1803) war Glarus Hauptort des Kantons Linth. Im Jahr 1861 wütete ein Brand, der grosse Teile des Ortes zerstörte. Nur wenige Gebäude aus der Zeit vor dem Brand blieben im Stadtbild erhalten. Der Wiederaufbau erfolgte sehr schnell nach einem städtebaulichen Plan, der einem Schachbrettmuster gleicht. Diese vor allem aus den Vereinigten Staaten bekannte Städteplanung wurde gewählt, um weitere derartige Feuersbrünste zu verhindern. Politik. Gemeindepräsident ist Christian Marti (FDP; Stand: 2012). Dem Gemeinderat gehören neben ihm noch sechs weitere Mitglieder an. Die neue Gemeinde Glarus bildet einen Landratswahlkreis, der 19 der 60 Glarner Landräte stellt. Wirtschaft. Die einst wichtige Textilindustrie ist fast völlig verschwunden. Es überwiegt heute Holz- und Kunststoffindustrie sowie Stoff- und Buchdruckerei. Der Dienstleistungssektor ist zum wichtigsten Wirtschaftszweig geworden. Grösster Arbeitgeber ist heute das Kantonsspital mit etwa 450 Arbeitsplätzen. Auch der Tourismus gewinnt an Bedeutung. Sehenswürdigkeiten. Wahrzeichen der Stadt ist die neuromanische Stadtkirche Glarus des Architekten Ferdinand Stadler. Gregorianischer Kalender. a> gregorianischer Kalender ab dem 15. Oktober 1582 Der heute weltweit verbreitete gregorianische Kalender (benannt nach Papst Gregor XIII.) entstand Ende des 16. Jahrhunderts durch eine Reform des julianischen Kalenders und wurde 1582 mit der päpstlichen Bulle "Inter gravissimas" verordnet. Er löste im Laufe der Zeit sowohl den julianischen als auch zahlreiche andere Kalender ab. Die letzte Umstellung auf den gregorianischen Kalender erfolgte 1949 in China. Das Wesen der gregorianischen Kalenderreform bestand darin, dass das Zählschema, das der julianische Kalender bot, verallgemeinert und damit zukunftsfest gemacht wurde. Der gregorianische Kalender ist nicht ein grundsätzlich anderer, sondern ein flexibilisierter julianischer Kalender. Der julianische Kalender hinkte dem Jahreslauf der Sonne im 16. Jahrhundert, im Verhältnis zum 4. Jahrhundert, bereits um zehn Tage nach. Der nötige, in einem Stück angeordnete Ausfall von zehn Kalendertagen sorgte für allgemeine Irritation und führte auch innerhalb der katholischen Kirche zur zögerlichen Annahme des gregorianischen Kalenders. Die aus der Reformation hervorgegangenen Kirchen verzögerten die Annahme aus ideologischen Gründen, weil die Reform vom Papst ausgegangen war. Gregorianische Kalenderreform. Grund für die gregorianische Kalenderreform war nicht allein das im Vergleich zum Sonnenjahr zu lange julianische Kalenderjahr, sondern auch die zunehmende falsche Datierung des christlichen Osterfestes. Mängel im julianischen Kalender. Da ein julianisches Kalenderjahr mit seinen durchschnittlich 365,25 Tagen um etwa elf Minuten länger ist als das Sonnenjahr, verschob sich der astronomische Frühlingsanfang etwa alle 130 Jahre um einen Tag auf ein früheres Kalenderdatum. Im Jahre 1582 fiel er auf den 11. März des durch die gregorianische Reform korrigierten Kalenders, das heißt, dass der julianische Kalender den astronomischen Ereignissen im Sonnenjahr um fast zwei Wochen nachhinkte. Da außerdem 19 julianische Jahre etwa um 0,06 Tage länger sind als die 235 synodischen Monate des Mondzirkels, verschob sich etwa alle 16 19-Jahre-Perioden (also etwa alle 300 Jahre) der berechnete („zyklische“) gegenüber dem astronomischen Vollmondzeitpunkt um einen Tag auf später im julianischen Kalender. Das vom Datum des Frühlingsanfangs und vom Datum des Frühlingsvollmondes abhängige Osterdatum wurde infolgedessen nicht mehr richtig bestimmt. Das Schema für die Vorhersage der in Ostertafeln (siehe Komputistik) eingetragenen künftigen Osterdaten war im 6. Jahrhundert als Ergebnis der Arbeiten von Dionysius Exiguus fixiert worden. Bereits Beda stellte im Jahre 725 fest, dass der Vollmond den berechneten Terminen voraus war. Reformansätze. a> war ein wichtiger Mitarbeiter in der Reformkommission und hat die Reform-Maßnahmen schließlich formuliert. Seit dem 14. Jahrhundert wurden immer wieder Vorschläge für eine Kalenderreform unterbreitet – unter anderem durch Nikolaus von Kues im Auftrag des Konzils von Basel, Regiomontanus und Nikolaus Kopernikus. Diese waren aber stets abgelehnt worden. Gleichwohl bildeten Kopernikus’ Werk "De revolutionibus orbium coelestium" („Von den Umdrehungen der Himmelskörper“) sowie die prutenischen Tafeln von Erasmus Reinhold die Basis für die schließlich von Papst Gregor XIII. dekretierte Reform. In der Reformkommission unter dem Vorsitz von Kardinal Guglielmo Sirleto arbeiteten Aloisius Lilius (bis 1576, danach sein Bruder Antonio), Christophorus Clavius, Ignazio Danti, Pedro Chacón (1526–1581), Seraphinus Olivarius Rotae und Vincenzo di Lauro. Die Kommission entschied sich dafür, den Kalender derart zurechtzurücken, dass das Primar-Äquinoktium wieder in der Nähe des 23. März wie im Jahre 46 v. Chr., als der julianische Kalender geschaffen wurde, stattfinden sollte, und es mittels einer genaueren mittleren Jahreslänge dort zu stabilisieren. Hauptbestandteil der vorgesehenen Reform war ein korrigierter Algorithmus zur Bestimmung des Osterfestes. Außer dem korrigierten und künftig einzuhaltenden richtigen Datum des Frühlingsanfangs war dafür das korrigierte und künftig einzuhaltende Datum des (Frühlings-) Vollmondes nötig. Mit der mathematischen Ausarbeitung des neuen Kalenders wurde der in Rom als Mathematiker am Collegio Romano lehrende deutsche Jesuit Christophorus Clavius vom Papst beauftragt. Er folgte dabei weitgehend den Vorschlägen des Mediziners und Astronomen Aloisius Lilius. Reformjahr 1582. Die Reform erfolgte durch die päpstliche Bulle "Inter gravissimas curas" vom 24. Februar 1582. Die Verspätung des Kalenders gegenüber den Jahreszeiten (z. B. dem Frühlingsanfang) wurde 1582 durch Auslassen von 10 Kalenderdaten (auf Donnerstag, den 4. Oktober folgte Freitag, der 15. Oktober) korrigiert. Man begnügte sich dabei mit der Wiederherstellung der Verhältnisse zur Zeit des Konzils von Nicäa im Jahre 325, denn auf diesem Konzil wurden erstmals Beschlüsse über das Osterdatum gefasst. Der Frühlingsanfang hatte sich in dieser Zeit vom zur Zeit von Julius Cäsar zutreffenden 23. März auf den 21. März verschoben. Im Jahr 1583 fand in allen Ländern, die den neuen (gregorianischen) Kalender sofort angenommen hatten, der Frühlingsanfang dann wieder am 21. März statt. Die aktuellen vorhergesagten (zyklischen) Daten der Mondphasen wurden durch Verschieben im reformierten Kalender um drei Tage auf früher korrigiert. Bei der Suche nach einem geeigneten Zeitpunkt für die Reform war die Wahl auf den Oktober gefallen, da der Kalender für diesen Monat vergleichsweise wenige Heiligenfeste enthielt und die ausgelassenen Tage auf diese Weise nur eine geringe Störung des Heiligenkalenders verursachten. Wegen der hohen Bedeutung des Sonntags im Christentum unterbrach die Reform nicht die Abfolge der Wochentage. Alle Sonntage im julianischen Kalender sind auch Sonntage im gregorianischen. Neue Jahreslänge (Sonnengleichung). Um ein fortwährendes Abrücken des Frühlingsanfangs vom 21. März in Zukunft zu vermeiden, wurde im gregorianischen Kalender die Dauer des mittleren Kalenderjahres mit 365,2425 statt wie bisher mit 365,25 Tagen berücksichtigt. Die Verkürzung erfolgte mit Hilfe einer weiteren, übergeordneten Schaltregel, nach der diejenigen Säkularjahre (Jahre, deren Zahl durch 100 ohne Rest teilbar ist), deren Zahl dividiert durch 400 keine ganze Zahl ergibt, keine Schaltjahre sind. Danach waren die Jahre 1700, 1800 und 1900 keine Schaltjahre. Die Jahre 1600 und 2000 waren Schaltjahre. Die Jahre 2100, 2200 und 2300 sowie 2500, 2600 und 2700 usw. werden ohne Schalttag sein (Sonnengleichung, Metemptose). Da aber bis zur ersten Anwendung dieser neuen Ausnahmeregel im Jahre 1700 noch 117 Jahre vergehen mussten, war der Frühlingsanfang im Kalender im Durchschnitt wieder um einen Tag zu früh. Er pendelte zwischen dem 19. und dem 21. März (anstatt um den 21. März). Korrektur des Mond-Datums (Mondgleichung). Zur Bestimmung des Osterdatums wird die Periode des Mondzirkels verwendet, nach der die Mondphasen alle 19 Sonnenjahre wieder auf den gleichen Tag fallen. Bisher wurde der dabei gemachte kleine Fehler von einem Tag in etwa 310 Jahren ignoriert. Bei der Reform wurde der aufgelaufene Fehler von etwa 3 Tagen durch Vorverlegen um 3 Tage im Kalender beseitigt und eine genauere künftige Übereinstimmung mit Hilfe der Mondgleichung vorgesehen. Diese besagt, dass der Tag des Frühlingsvollmondes alle 312,5 Jahre um einen Kalendertag auf früher zu verschieben ist. Dafür sind acht Säkularjahre in 2500 Jahren vorgesehen. Die Korrektur der Länge des Kalenderjahres mit ausgelassenen Schalttagen würde die Korrektur des Mond-Datums verfälschen. Deshalb ist in den Säkularjahren ohne Schalttag das Monddatum um einen Tag später im Kalender anzugeben (umgekehrte Sonnengleichung). Wenn in einem Säkularjahr sowohl die Mond- als auch die Sonnengleichung anzuwenden ist, bleibt das Monddatum unverändert: - 1 Tag + 1 Tag = 0 Tage. Jahresbeginn. Parallel zur Kalenderreform, nicht gleichzeitig mit ihr, wurde der Jahresbeginn offiziell auf den 1. Januar verschoben, der sich aufgrund seines Namens (lat. "ianua" bedeutet „Tür“) und der zeitlichen Nähe zum Christfest und der Wintersonnenwende als Neujahrstag anbot; außerdem hatte sich darin die römische Tradition bewahrt. Im Mittelalter hatte das Jahr ansonsten an unterschiedlichen Tagen begonnen, darunter Weihnachten, Ostern und Mariä Verkündigung. Dennoch hatte die gregorianische Reform einen Einfluss darauf, weil der päpstlichen Bulle eine Liste mit den neuen Namenstagen der Heiligen beilag, die die restlichen Feiertage 1582 bis zum 31. Dezember und die des ganzen folgenden, neu aufgeteilten Jahres (und aller zukünftigen) aufführte. Damit kam es zu Überschneidungen von elf Tagen (gregorianischer/julianischer Kalender) und gleichzeitig einem Jahr (zwischen Neujahr und Ostern): „am 10./21. Februar 1750/1751“. Verbreitung. Nur die Länder Spanien, Portugal, Polen und teilweise Italien übernahmen den gregorianischen Kalender tatsächlich am 5./15. Oktober 1582. Die meisten katholischen Länder Europas folgten in den nächsten Jahren, während die protestantischen Länder den neuen vom Papst dekretierten Kalender zunächst ablehnten. Vor dem Hintergrund der einsetzenden Konfessionalisierung führte dies zu heftigen Polemiken, beispielsweise brachte der Kalenderstreit die seit 1555 bikonfessionelle Stadt Augsburg 1584 an den Rand eines Bürgerkriegs. Ähnliches ereignete sich bei den Kalenderunruhen in Riga. Im selben Jahr führten ihn die meisten katholischen Kantone der Schweiz ein; dort folgte damals auf den 28. Februar der 11. März. Einige katholische schweizerische Territorien folgten allerdings erst später, nämlich Unterwalden 1584, das Wallis 1655 und katholisch Glarus 1700. Die evangelischen Territorien des Heiligen Römischen Reichs übernahmen den gregorianischen Kalender erst 1700, 118 Jahre nach dessen erster Einführung, nach einem Beschluss des Corpus Evangelicorum. Außerhalb des Reiches hatte schon 1612 das mit dem Kurfürstentum Brandenburg in Personalunion verbundene Herzogtum Preußen als erstes protestantisches Territorium den katholischen Kalender eingeführt, auf Druck des Lehnsherrn Königreich Polen. Auf den 18. Februar folgte im Reich unmittelbar der 1. März 1700. An diesem Tag erhöhte sich die Differenz zwischen dem julianischen und dem gregorianischen Kalender von zehn auf elf Tage, wodurch sich bei einem weiteren Festhalten am julianischen Kalender die Umrechnung auf den gregorianischen Kalender weiter verkompliziert hätte. Zuvor mussten beispielsweise Verträge zwischen katholischen und protestantischen Fürsten mit beiden Daten versehen werden, etwa als 3./14. April 1750 (siehe Beispiel rechts). Um die Jahreswende differierten die Jahreszahlen zwischen den Gebieten des alten und neuen Kalenders. Aus dieser Zeit stammt der Ausdruck „zwischen den Jahren“ für die Tage nach Weihnachten. Deutscher Vertrag, in England unterschrieben, datiert nach beiden Kalendersystemen Das Königreich Dänemark, zu dem damals auch Norwegen und Island gehörten, führte den gregorianischen Kalender ebenfalls vom 18. Februar auf den 1. März 1700 ein. Die reformierten Orte der Schweiz folgten knapp ein Jahr später, sie sprangen vom 31. Dezember 1700 auf den 12. Januar 1701, allerdings mit vier Ausnahmen: Der protestantische Halbkanton Appenzell Ausserrhoden, die protestantische Stadt St. Gallen und die protestantischen Teile von Glarus schlossen sich erst 1724 an, und in Graubünden erfolgte der offizielle Übergang zum neuen Kalender je nach Gemeinde zwischen 1760 bis 1812; der alte Kalender blieb aber noch länger in der Bevölkerung lebendig. Die Appenzeller Silvesterkläuse treten noch immer am 13. Januar auf, dem 31. Dezember nach dem julianischen Kalender. In England (und auch in den späteren USA) wurde der gregorianische Kalender in der Nacht vom 2. auf den 14. September 1752 eingeführt, in Schweden vom 17. Februar auf den 1. März 1753. Die Osterrechnung blieb im Heiligen Römischen Reich noch mehr als 70 Jahre unterschiedlich, was in den Jahren 1724 und 1744 zu unterschiedlichen Terminen führte (1724: ev. 9., kath. 16. April; 1744: ev. 29. März, kath. 5. April) und auch 1778 und 1798 dazu geführt hätte. Auf Antrag Friedrich des Großen beschloss das Corpus Evangelicorum am 13. Dezember 1775 ein Reichsgutachten anzunehmen, in dem man die freiwillige Einigung betonte. In Vermeidung des päpstlichen Namens wurde der „Verbesserte Reichskalender“ angenommen. Kaiser Joseph II. bestimmte daraufhin im Einvernehmen mit allen Reichsständen im Jahre 1776 unter förmlicher Bestätigung des Gutachtens den gregorianischen Kalender als „Verbesserten Reichskalender“. Die evangelischen Kantone der Schweiz, Dänemark und Schweden schlossen sich dieser Regelung ebenfalls an. In Japan, wo zuvor mit einigen Abweichungen der chinesische Kalender gegolten hatte, wurde der gregorianische Kalender am 1. Januar 1873 im Zuge der Modernisierung des Landes eingeführt. Nur in der Jahreszählung verwendet Japan bis heute gleichzeitig ein eigenes System (siehe japanische Zeitrechnung), in dem die Jahre seit Regierungsantritt des jeweils amtierenden Kaisers gezählt werden; diese Zahl wird durch ein von Kaiser zu Kaiser wechselndes zweisilbiges Motto (Nengō) ergänzt. Die orthodoxen Länder Osteuropas behielten den julianischen Kalender noch bis Anfang des 20. Jahrhunderts bei. Da die Jahre 1700, 1800 und 1900 in Russland Schaltjahre waren, machte die Abweichung vom gregorianischen Kalender mittlerweile 13 Tage aus. Die russische Oktoberrevolution vom 25. Oktober 1917 war nach dem gregorianischen Kalender eigentlich eine „Novemberrevolution“ vom 7. November. An diesem Kalendertag wurde die Revolution auch bis zum Ende der Sowjetunion gefeiert, nachdem Russland am 14. Februar 1918 die neue Kalenderrechnung eingeführt hatte. Einige orthodoxe Kirchen (z. B. in Russland, Serbien und Georgien) begehen ihre feststehenden Feste weiterhin nach dem julianischen Kalender. Ihr Weihnachtsfest (25. Dezember) fällt darum derzeit auf den 7. Januar (gregorianischer Kalender). Andere orthodoxe Kirchen (z. B. in Griechenland und Bulgarien) verwenden hierfür den sogenannten neo-julianischen Kalender, der bis zum Jahr 2799 dem gregorianischen Kalender entsprechen wird. Alle orthodoxen Kirchen berechnen Ostern und die anderen beweglichen Feste nach dem julianischen Frühlingsanfang sowie nach dem Vollmond im Mondzirkel; das Fest fällt daher nur gelegentlich mit dem Osterdatum der westlichen Kirchen zusammen; meistens sind es eine, vier oder fünf Wochen später als im Westen. Am 1. Januar 1912, nach dem Sturz des Kaiserreiches, übernahm auch die Republik China den gregorianischen Kalender, der sich aber wegen der Beherrschung weiter Teile des Landes durch Warlords nicht durchsetzen konnte. Die von der Kuomintang gestellte Regierung veranlasste seine Verwendung schließlich ab dem 1. Januar 1929 in den von ihr beherrschten Gebieten. Die Volksrepublik China verwendet ihn seit ihrer Proklamation am 1. Oktober 1949. Die Türkei übernahm nach dem vorherigen Beschluss ihrer Nationalversammlung vom 26. Dezember 1925 den gregorianischen Kalender ab 1. Januar 1926; dort hatte bis dahin der islamische Kalender sowie der Rumi-Kalender gegolten. Der Rumi-Kalender, ursprünglich ein julianischer Kalender mit Jahreszählung nach der Hedschra, war aber schon 1917 (mit Ausnahme der Jahreszählung) an den gregorianischen Kalender angepasst worden. Heute ist der gregorianische Kalender auch in den meisten islamischen Staaten eingeführt und letztlich wichtiger als der islamische Kalender, der im Alltag außer für islamische Feste keine Rolle spielt. Nationalfeiertage und andere nationale Gedenktage, Neujahr, der Tag der Arbeit, Muttertag und andere internationale Feier- und Gedenktage werden nach dem gregorianischen Kalender gefeiert. Im bürgerlichen Leben, etwa für Arbeitsverhältnisse, Mietverhältnisse etc., ist meist der gregorianische, nicht aber der islamische Kalender ausschlaggebend. Die nicht zeitgleiche Einführung des gregorianischen Kalenders in den verschiedenen Ländern sorgte für Verwirrung: So sind sowohl William Shakespeare als auch Miguel de Cervantes am 23. April 1616 gestorben, obwohl Shakespeare Cervantes um zehn Tage überlebt hat. Auch die Feiern des Geburtstags von George Washington wurden verschiedentlich am 11. und am 22. Februar ausgerichtet, bis es zu einer bundesgesetzlichen einheitlichen Feiertagsregelung kam. In Deutschland, Österreich, der Schweiz und in vielen anderen Ländern gilt für Datumsangaben die Norm ISO 8601. Sie basiert auf dem gregorianischen Kalender und erweitert seine Gültigkeit auf den Zeitraum vor der Kalenderreform. In dieser Norm sind ein Jahr null und negative Jahreszahlen vorgesehen, die es weder im julianischen noch im gregorianischen Kalender gibt. Bei dem – vom Computerhersteller Apple entwickelten – Kalenderprogramm "iCal" wurde der Sprung vom julianischen zum gregorianischen Kalender (4. auf den 15. Oktober 1582) berücksichtigt. Das Unix-Standard-Tool cal berücksichtigt diesen Sprung ebenfalls, setzt ihn jedoch für September 1752. Kalender- und tropisches Jahr. Tropische und gregorianische Jahreslängen(gemessen in mittleren Sonnentagen) Das Kalenderjahr orientiert sich am tropischen Jahr (Sonnenjahr) in der alten Definition – dem zwischen zwei aufeinanderfolgenden Frühlingsanfängen (Frühlings-Tag-und-Nacht-Gleichen) liegende Zeitraum, der auf das Jahr 2000 bezogen im Mittel 365,242375 mittlere Sonnentage lang ist. Somit ist auch das gregorianische Kalenderjahr im Vergleich zur astronomischen Wirklichkeit noch etwas zu lang, nämlich 0,000125 Tage (= 11 Sekunden). Mit dieser Differenz würde der Frühlingsanfang erst nach rund 8000 Jahren wieder einen ganzen Kalendertag früher eintreten. Vorher wäre keine Kalenderkorrektur nötig. Der Differenzwert nimmt bis zum Ende des dritten Jahrtausends aber ab, nähert sich dann wieder dem Wert des Jahres 2000, den er Anfang des fünften Jahrtausends erreicht haben wird. Ab dem fünften Jahrtausend vergrößert sich der Differenzwert dann kontinuierlich. "Ausführlichere Informationen dazu siehe tropisches Jahr." Schaltjahrzirkel. Das Verteilschema zwischen Gemein- und Schaltjahren wiederholt sich erst nach je 400 Jahren. Der vier Jahre lange julianische Schaltjahr-Zirkel hat die hundertfache Periode bekommen. Zuordnung zwischen Kalenderdaten und Wochentagen (Sonnenzirkel). Die Periode des Sonnenzirkels ist im julianischen Kalender 28 Jahre lang. Nach dieser Zeit wiederholt sich die Zuordnung der Kalenderdaten auf die Wochentage. Im gregorianischen Kalender ist auch diese Periode länger, beträgt aber „nur“ 400 Jahre, weil dieser Zeitraum mathematisch exakt aus einer ganzen Zahl von Wochen besteht. Innerhalb eines Jahrhunderts gilt auch im gregorianischen Kalender die 28-Jahre-Periode. Weil das Jahr 2000 ein Schaltjahr war, gilt diese sogar zwei Jahrhunderte lang. Für alle heute lebenden Menschen (außer für einige ganz junge, die das Jahr 2100 erleben werden) wiederholt sich die Verteilung aller ihrer Geburtstage auf die Wochentage immer nach 28 Jahren. Kalenderwochen pro Jahr. Die Sonnenzirkel-Periode enthält genau 20.871 Wochen (wo). In jeder Periode gibt es 71 Jahre mit einer 53. Kalenderwoche. Durchschnittliche Monatslänge und durchschnittliche Wochenzahl pro Monat. Ein Monat (mo) ist im Durchschnitt 30,436875 Tage oder 4,348125 Wochen lang, das heißt vier Wochen, zwei Tage, zehn Stunden, 29 Minuten und sechs Sekunden oder 2.629.746 Sekunden (ohne Berücksichtigung von Schaltsekunden). (Betrachtet wird ein ganzer Schaltjahrzirkel von 400 a.) Freitag, der 13.. Ein bestimmtes Datum (Tag und Monat oder nur Tag) fällt nicht gleich häufig auf alle Wochentage. Der 13. eines beliebigen Monats fällt geringfügig öfter (nämlich 688 mal in 400 Jahren) auf einen Freitag als auf andere Wochentage (Donnerstag und Samstag: 684 mal, Montag und Dienstag: 685 mal, Sonntag und Mittwoch: 687 mal). Osterzyklus. Im gregorianischen Kalender sind nach jeweils 5.700.000 Jahren wieder 5.700.000 Ostern gleich auf die Jahresdaten verteilt wie die 5.700.000 Ostern vorher (siehe "Osterzyklus"). Einzelnachweise. ! Glasgow. Glasgow [oder] (Scots: ', schottisch-gälisch: ', amtlich "City of Glasgow") ist mit etwa 600.000 Einwohnern die größte Stadt Schottlands und nach London und Birmingham die drittgrößte Stadt des Vereinigten Königreichs. Die Stadt bildet eine der 32 Council Areas in Schottland und liegt im Südwesten des Landes am Fluss Clyde. Im späten 19. und frühen 20. Jahrhundert hatte Glasgow mehr als eine Million Einwohner. Heute leben in der "Greater Glasgow Urban Area" 1.750.500 Einwohner. Glasgow gilt im Gegensatz zur schottischen Hauptstadt Edinburgh als „Arbeiterstadt“. In Glasgow gibt es eine Kathedrale aus dem 12. Jahrhundert und vier Universitäten (Universität Glasgow, Universität Strathclyde, Glasgow Caledonian University und die University of the West of Scotland) sowie die Glasgow School of Art und das Royal Conservatoire of Scotland (ehemals "Royal Scottish Academy of Music and Drama"). Geschichte und Stadtgründung. George Square und City Chambers Seit Jahrtausenden haben Menschen an der Stelle des heutigen Glasgow gesiedelt, wobei der Clyde optimale Voraussetzungen zum Fischfang bot. Um 80 n. Chr. besiedelten die Römer den Ort, der wohl damals "Cathures" hieß. Später errichteten die Römer um 140 n. Chr. den Antoninuswall, dessen Reste heute noch in Glasgow zu sehen sind, um das römische Britannien vom keltischen und piktischen Caledonia zu trennen. Glasgow selbst wurde vom christlichen Missionar Sankt Mungo (auch bekannt als "Sankt Kentigern") im 6. Jahrhundert gegründet. An der Stelle der heutigen Kathedrale errichtete er eine Kirche, und in den folgenden Jahren wurde Glasgow zu einem religiösen Zentrum. Die Wunder, die man Sankt Mungo zuschreibt, finden sich noch heute im Stadtwappen wieder. Mittelalter. Die Geschichte Glasgows ist vage, bis es im 12. Jahrhundert zur Stadt heranwuchs und der Bau der St. Mungo’s Cathedral begann. 1451 wurde durch päpstliches Dekret die Universität zu Glasgow gegründet. Anfang des 16. Jahrhunderts war Glasgow zu einem bedeutenden religiösen und akademischen Zentrum geworden. Handel und industrielle Revolution. Ebenfalls zu dieser Zeit waren die Händler und Facharbeiter der Stadt zu erheblichem Einfluss gelangt, was die Macht der Kirche zu schmälern begann. Durch den Schiffsverkehr auf dem Clyde wurde Glasgow ein geschäftiges Handelszentrum und zum Tor nach Edinburgh und zum Rest Schottlands. Glasgows Position im Zentrum des Britischen Empires machte es darüber hinaus zum zentralen Umschlagplatz im Handel mit den britischen Kolonien. Der leichte Zugang zum Atlantischen Ozean erleichterte den Import von amerikanischem Tabak, der dann in ganz Europa verkauft wurde. Handel mit der Karibik erlaubte den Import von Zucker. Seit den 1770er Jahren ermöglichte die Entschlammung des Clyde, mit größeren Schiffen weiter den Fluss hinaufzufahren, was den Grundstein für den Industrie- und Werftbau während des 19. Jahrhunderts legte. Durch den Überfluss an Kohle und Eisen aus Lanarkshire wurde Glasgow eine Industriestadt, die den Beinamen „zweite Stadt des Empire“ erhielt. Auch die Baumwollindustrie und Textilherstellung florierte. Arbeiter aus Schottland, Irland und dem übrigen Europa zog es in die aufstrebende Stadt. Durch die industrielle Revolution wurde Glasgow zu einer der reichsten Städte der damaligen Welt. Wohlhabende Händler finanzierten spektakuläre Bauten, Parks, Museen und Bibliotheken. Fabriken wurden als wahre Prachtbauten errichtet, so zum Beispiel eine Teppichfabrik (Templeton’s carpet factory), die als Kopie des Dogenpalastes von Venedig gestaltet wurde. Hier fanden große internationale Industrieausstellungen statt, 1888 zum Beispiel im Kelvingrove Park und 1938 die Empire Exhibition im Bellahouston Park. Glasgow wurde auch kulturell zu einem wichtigen Zentrum. Zahlreiche Galerien siedelten sich an, und außergewöhnliche Gebäude entstanden, wie die Glasgow School of Art, erbaut von Charles Rennie Mackintosh, oder die (heute rekonstruierten) Willow Tearooms desselben Architekten. Scottish Exhibition and Conference Centre Footbridge Science Centre am River Clyde Abstieg und Nachkriegszeit. Nach dem Ersten Weltkrieg litt Glasgow am weltweiten Niedergang der Wirtschaft. Obwohl in Glasgow weiterhin Schiffe und Züge hergestellt wurden, wurden billigere Arbeitskräfte außerhalb der Stadt zur Konkurrenz. Die Lage der Arbeiterklasse in der Stadt verschärfte sich, es entwickelte sich ein Bewusstsein für die eigene Situation. Die Arbeiterschaft politisierte sich zunehmend. So entsandten die Glasgower Arbeiter zur Unterstützung der spanischen Republik eine ganze Brigade in den Spanischen Bürgerkrieg 1936–1939. Seit den 1960er Jahren ging es mit der Wirtschaft der Stadt steil bergab. In den 1970er und 1980er Jahren wurden Stahlwerke, Kohleminen, Motorwerke und andere Schwerindustrie in und um Glasgow geschlossen, was zu Massenarbeitslosigkeit und Zerfall der Stadt führte. Trotz Schiffsneubauten wie der "Queen Elizabeth 2" wurde eine Werft nach der anderen geschlossen. Zur Jahrtausendwende existierten nur noch zwei Werften, die beide ausschließlich aus Rüstungsaufträgen der Regierung finanziert wurden. Seit Mitte der 1980er Jahre gibt es jedoch durch Strukturwandel hin zur Dienstleistungsbranche einen beschwerlichen Aufschwung – ein "Finanzdistrikt" wurde geschaffen. Die ehemaligen Fabrikgelände in den Vororten wurden von der Unterhaltungsindustrie bezogen. Kritiker dieser Entwicklung bezweifeln allerdings, ob eine solche allein auf Dienstleistungen basierende Wirtschaftsstruktur langfristig Bestand haben kann. Das moderne Glasgow. In den 1990er Jahren hat sich Glasgow kontinuierlich von seinem Niedergang erholt. Die Stadt hat in den vergangenen 15 bis 20 Jahren große Summen in die Renovierung und Restaurierung einer Vielzahl von Gebäuden investiert. Durch diesen Aufwand ist die Lebensqualität in der Stadt spürbar gestiegen. 1990 wurde (statt Londons oder Edinburghs) überraschenderweise Glasgow 6. Europäische Kulturhauptstadt und erhielt 1999 den Architektur- und Designpreis. 2003 wurde Glasgow Europäische Sporthauptstadt. Mit dem Strukturwandel bekam Glasgow auch ein modernes Kultur- und Kongresszentrum, wo zahlreiche unterschiedliche Veranstaltungen stattfinden, darunter solche wie die Science-Fiction-World-Cons „Intersection“ 1995 und „Interaction“ 2005 mit etwa 4000 Teilnehmern. Tourismus, Sportveranstaltungen und große Konferenzen prägen das Bild des modernen Glasgow. Besonders erwähnenswert ist die Vielfalt der Museen in Glasgow, die fast alle kostenlos besucht werden können. Eine Ausnahme ist das "Glasgow Science Centre", das Eintritt verlangt. Wichtige Museen in Glasgow sind das Kelvingrove Art Gallery and Museum, das Hunterian Museum and Art Gallery (an der University of Glasgow), das Centre for Contemporary Art (CCA) und die Burrell Collection. Letztere geht auf die Privatsammlung von William Burrell zurück, der sie der Stadt vermachte. Mit dem Glasgow Science Centre, dem Glasgow Tower von Richard Horden und dem Clyde Auditorium von Norman Foster hat die Stadt auch einiges an moderner Architektur zu bieten. Der Anstieg der Lebensqualität ist ebenfalls an den stark angestiegenen Miet- und Kaufpreisen für Wohnraum erkennbar. Im Gegensatz dazu stehen Viertel wie Calton, in denen, bedingt durch den Niedergang der schottischen Stahlindustrie und daraus folgende Phänomene wie Massenarbeitslosigkeit, Armut, soziales Elend und weit verbreiteten Alkoholismus, die statistische Lebenserwartung bei 53 Jahren liegt. Diese hohe Sterblichkeit durch Alkohol- und Zigarettenmissbrauch, Übergewicht, falsche Ernährung und Folgekrankheiten wie Herzinfarkt, Krebs und Diabetes wird in der Medizin auch als "Glasgow-Effekt" bezeichnet. Jugendkriminalität ist weit verbreitet. Bereits 2006 wurde Glasgow als "Stadt der Morde und der Messer" bezeichnet, Besonders betroffen sind Stadtviertel in der Peripherie wie Drumchapel, Castlemilk und Easterhouse.. Auch in den folgenden Jahren blieb Glasgow das Gebiet mit dem höchsten Prozentsatz an Morden innerhalb des Vereinigten Königreiches. 2007 kamen 4.5 Morde auf 100.000 Einwohner. 2012 sank die Quote auf 2.7 Morde lag aber immer noch klar vor London mit 1.67 Morden und dem Landesdurchschnitt von 1.0 Morden. Verwaltungsgeschichte. Historisch zur Grafschaft Lanarkshire gehörig, war Glasgow neben Edinburgh, Aberdeen und Dundee seit 1893 eine der vier "Counties of cities" in Schottland. 1975 wurde Glasgow zu einem District der Region Strathclyde. Gleichzeitig wurden aus Lanarkshire die Orte Rutherglen, Cambuslang, Baillieston, Garrowhill, Mount Vernon und Carmyle nach Glasgow eingemeindet. 1996 wurde Glasgow im Rahmen der Einführung einer einstufigen Verwaltungsstruktur zur Council Area „City of Glasgow“. Gleichzeitig wurden einige Eingemeindungen von 1975 wieder rückgängig gemacht. Rutherglen und Cambuslang wurden wieder ausgegliedert und gehören seitdem zur Council Area South Lanarkshire. Glasgow ist auch eine der Lieutenancy Areas von Schottland. Politik. Für Wahlen zum britischen Unterhaus ist Glasgow in sieben Wahlkreise eingeteilt. Bei der Unterhauswahl 2010 konnte die Labour Party alle sieben Wahlkreise gewinnen. Bei der Wahl zum Schottischen Regionalparlament 2007 gewannen die Labour Party in Glasgow 9 Sitze, die SNP 5 Sitze sowie Konservative, Liberaldemokraten und Grüne je einen Sitz. Verkehr. Glasgow ist über die beiden Flughäfen Glasgow International und Glasgow Prestwick an den Luftverkehr angebunden. Während ersterer von zahlreichen Fluggesellschaften aus verschiedenen Ländern angeflogen wird, wird letzterer fast nur von der Fluggesellschaft Ryanair bedient, die von dort aus allerdings ebenfalls ein stattliches Streckennetz unterhält. Die beiden Hauptbahnhöfe der Stadt sind Glasgow Central und Queen Street. Glasgow besitzt die drittälteste U-Bahn der Welt. Am 14. Dezember 1896 eröffnete die "Glasgow Underground Railway", heutzutage Glasgow Subway, ihren Betrieb. Sport. Das sportliche Geschehen in Glasgow wird von den beiden Fußballclubs Celtic und Rangers und ihrer traditionsreichen, "Old Firm" genannten Rivalität dominiert. Die wichtigsten Fußballstadien der Stadt sind Geozentrisches Weltbild. Im geozentrischen Weltbild (' „erdzentriert“) steht die Erde im Zentrum des Universums. Mond, Sonne und Planeten umkreisen die Erde geometrisch auf Kurvenbewegungen. Bis zu seiner Ablösung in der Renaissance durch das Heliozentrische Weltbild war es etwa 1800 Jahre lang (200 v. Chr. bis 1600 n. Chr.) die vorherrschende Auffassung. Beim homozentrischen System als einer der Spielarten der Geozentrik erfolgt die Bewegung der Gestirne in verschiedenen, von innen nach außen konzentrisch angeordneten Sphären. Die Achsen der Kreisbahnen gehen dabei durch das Erdzentrum. Diese Sphären wurden teilweise als durchsichtige Hohlkugeln aufgefasst. Die äußerste Sphäre wird von den Fixsternen besetzt. Nach der Epizykeltheorie steht die Erde zwar weiterhin im Zentrum, die Planeten beschreiben um sie aber keine vollkommene Kreisbahn mehr. Das geozentrische Weltbild ist nicht identisch mit dem Konzept einer flachen Erde. Seit Aristoteles (384–322 v. Chr.) wurde überwiegend eine Kugelform der Erde im Rahmen eines geozentrischen Weltbildes vertreten. Es ist das Resultat langer systematischer Beobachtungen und exakter Berechnungen. Die Erde im Zentrum. Geozentrisches Weltbild in der Variante der Homozentrik (oben) im Gegensatz zum heliozentrischen Weltbild (unten) Das geozentrische Weltbild wurde im klassischen Altertum in Griechenland eingeführt und setzte sich gegen frühe Meinungen z. B. des Aristarchos von Samos (310–230 v. Chr.) durch, der meinte, nicht die Erde, sondern die Sonne (Heliozentrisches Weltbild) stehe im Mittelpunkt des Kosmos. Bis zum Ende des Mittelalters war das geozentrische Weltbild in Europa allgemein verbreitet. Auch im alten China und in der islamischen Welt wurde es gelehrt. Ob es bereits vor den Griechen in Mesopotamien vertreten wurde, ist nicht sicher. Das geozentrische Weltbild basiert auf der Annahme, dass die Erde und damit mittelbar auch der Mensch im Zentrum des Universums sei, und dass alle Bewegungen des Mondes, der Sonne und der Planeten geometrisch auf Kurvenbewegungen abliefen um die als ruhend oder um ihre Achse rotierend gedachte Erde. Beim homozentrischen System des Eudoxos von Knidos (ca. 390–338 v. Chr.) findet diese Kurvenbewegung auf Kreisbahnen statt, deren Achsen durch das Erdzentrum gehen und somit perfekt erscheinen. Bereits Apollonios von Perge (262–190 v. Chr.) und Hipparchos (ca. 190–120 v. Chr.) nahmen für ihre Modelle der planetarischen Bewegungen Exzentern und Epizykeln zu Hilfe. Ptolemäus (ca. 100–160 n. Chr.) arbeitete mit Ausgleichspunkten um fiktive, exzentrisch gelegene Punkte unter Einschluss von Exzentern und Epizykeln zu erhalten. Herakleides Pontikos (ca. 390–322 v. Chr.) wird teilweise ein System zugeschrieben, bei dem sich die Planeten Merkur und Venus um die Sonne drehen, die sich ihrerseits wie der Mond und die Fixsternsphäre um die in ihrer Zentralstellung bewahrte Erde dreht. Dies würde einen Kompromiss zwischen dem geozentrischen und dem heliozentrischen Weltsystem darstellen. In der neueren Forschung ist das Weltsystem des Herakleides allerdings heftig umstritten. Die wichtigste Begründung für die Annahme des geozentrischen Weltbildes war die Beobachtung der Schwerkraft, die sich damit erklären ließ, dass alles Schwere seinem natürlichen Ort, dem Mittelpunkt der Welt, zustrebe. Auch Aristoteles war ein einflussreicher Verfechter des geozentrischen Weltbilds. Die Aristotelische Physik verträgt sich aber streng genommen nicht mit den Hilfsannahmen von Exzentern, Epizyklen und Ausgleichspunkten. Am besten harmoniert sie mit der homozentrischen Variante. Von der Sonne und den Planeten nahm man teilweise an, sie bestünden aus einem überirdischen „fünften Element“, der Quintessenz, dessen natürliche Bewegung die Kreisbahn sei. Ptolemäisches Weltbild. a> eines Planeten nach der Epizykeltheorie. Die Erde steht zwar weiterhin im Zentrum, die Planeten beschreiben um sie aber keine vollkommene Kreisbahn mehr. Das Werk des Claudius Ptolemäus "Mathematices syntaxeos biblia XIII" hat das geozentrische Weltbild für fast 1500 Jahre festgeschrieben. Er verwendete die sogenannte Epizykeltheorie, insoweit wird dann auch vom "Ptolemäischen Weltbild" gesprochen. Eine Herausforderung für das geozentrische Weltbild war die plötzliche scheinbar rückwärtige Bewegung der äußeren Planeten, beispielsweise des Jupiters, gegen den Sternenhintergrund. Sie führt insgesamt aus der Erdperspektive zu einer scheinbaren Schleifenbewegung des Planeten. Dieses auch als „retrograde Bewegung“ bezeichnete Phänomen tritt gerade dann auf, wenn der Planet der Erde am nächsten ist. Um die astronomischen Beobachtungen mit dem geozentrischen Weltbild in Einklang zu bringen, wurde es notwendig, einen Teil der Himmelskörper auf ihren Bahnen weitere Kreise um diese Bahn ziehen zu lassen. Dies sind die sogenannten Epizykel. Danach bewegen sich die äußeren Planeten in einer Kreisbahn um einen gedachten Punkt, der wiederum die Erde umkreist. Ein Planet bewegt sich zunächst auf einem gleichförmig durchlaufenen Tragekreis (Deferent). Auf diesem rotiert gleichförmig ein zweiter Kreis, der sogenannte Aufkreis (Epizykel). Der Planet selbst läuft gleichförmig auf dem Aufkreis um. Das Zentrum des Aufkreises rotiert gleichförmig um den Mittelpunkt des Tragekreises. Damit stellt sich der von der Erde aus beobachtete Planetenumlauf als Überlagerung dieser Bewegungen dar. Teilweise wurden dann auch noch weitere Bahnen um diese Kreise modelliert. Berechnungen innerhalb dieses Modells waren sehr kompliziert. Durch den Einsatz von etwa 80 solcher Bahnen konnte Ptolemäus die damals möglichen Beobachtungen der Planetenbewegungen in Einklang mit der Geozentrik bringen. Bei der Sonne tritt keine Retrogression auf. Die Ptolemäische Astronomie verknüpfte die Planetenbewegung mit dem Sonnenumlauf unter der Prämisse der Geozentrik und ermöglichte mit ihrem komplexen Modell weitgehend zutreffende Vorhersagen. Im heliozentrischen Weltbild lässt sich die retrograde Bewegung ohne Epizyklen erklären. Die christlichen Kirchen. Das geozentrische Weltbild war nahe an der alltäglichen Erfahrung des Beobachters und widersprach nicht der Bibel. Die christlichen Kirchen übernahmen und verteidigten es entschieden. Es ging zunächst auf die griechischen Kirchenväter wie zum Beispiel Basilius den Großen (330–379) über. Er behandelte in neun Homilien exegetisch den Schöpfungsbericht und zeichnete ein Naturbild, das unmittelbar an die Antike anknüpfte. Seine Fastenpredigten beeinflussten seinen Freund Ambrosius von Mailand (340–397). Über diesen wurde es auch Augustinus von Hippo bekannt, der ein Schüler des Ambrosius war. Die Originaltexte des Ptolemäus lagen dem Westen im Mittelalter nicht vor, seine und des Aristoteles Theorien waren hauptsächlich durch lateinische Kompendienliteratur bekannt. Die wenigsten Mönchsgelehrten beherrschten überhaupt noch das Griechische. Auch die Scholastiker des 13. Jahrhunderts sahen in der Erde das absolute Zentrum, mit dem die Stellung des Menschen definiert sei. Dagegen befinde sich in der höchsten Sphäre des Himmels das Reich Gottes und der Heiligen: das Empyreum. Frühneuzeitliche Gegenkonzepte. Das geozentrische Weltbild wurde im Mittelalter und auch in der beginnenden Renaissance nicht hinterfragt. Nachhaltige Zweifel daran kamen erst mit Nikolaus Kopernikus auf, Giordano Bruno und Galileo Galilei wurden schließlich wegen Befürwortung des heliozentrischen Systems des Kopernikus von der Inquisition wegen Häresie angeklagt. Die Fälle Bruno und Galilei. Kopernikus selbst ("De revolutionibus orbium coelestium", 1543) war noch nicht in offenen Widerspruch mit dem Dogma der Kirche geraten, diese war im Geiste der Renaissance seinerzeit durchaus aufgeklärt und interessiert an wissenschaftlicher Erkenntnis. Erst als die Reformation für Rom bedrohlich wurde (Gegenreformation ab 1545), wurden solche Anschauungen zunehmend bekämpft: Stünde die Erde nicht mit Mittelpunkt, stünde folglich auch die Stadt Rom (oder Jerusalem) keinesfalls im Mittelpunkt. Der Willkür der Ansichten wäre nach Standpunkt der katholischen Kirche dann Tür und Tor geöffnet. Die Inquisition zwang Galilei zum Widerruf seiner Thesen, mit denen er die Erkenntnis des Kopernikus bejaht hatte, dass sich die Erde um die Sonne drehe. Im 17. Jahrhundert folgten von katholischer Seite noch zahlreiche Versuche, die Geozentrik zu verteidigen. Ein namhafter Hauptvertreter war dabei der Jesuit Giovanni Battista Riccioli, der in Ferrara Professor für Philosophie, Theologie und Astronomie war. Galileis Bücher standen bis 1835 auf dem "Index der verbotenen Bücher" (Index Librorum Prohibitorum). Erst 1992 wurde er offiziell rehabilitiert, Giordano Bruno erst 2000. Tycho Brahe. Tycho Brahe identifizierte den gedachten Punkt des Ptolemäus mit der Sonne, blieb aber grundsätzlich noch beim geozentrischen Weltbild. In seinem System kreisen Mond und Sonne um die Erde, die anderen Planeten um die sich bewegende Sonne. Es handelt sich um einen Kompromiss zwischen dem geozentrischen und dem heliozentrischen Weltsystem. Heliozentrisches Weltbild. Erst durch die Vorarbeiten von Nikolaus Kopernikus und vor allem nachdem Johannes Kepler durch Aufgabe der Theorie der Kreisbewegung zu sehr einfachen mathematischen Gesetzen der elliptischen Planetenbewegung gekommen war, erwies sich das geozentrische Weltbild als überholt. Es wurde durch das letztlich einfachere und mathematisch leichter benutzbare heliozentrische Weltbild ersetzt, das sich etwas später mit Isaac Newtons Gravitations­theorie auch hervorragend theoretisch erklären ließ. Die Unterscheidung zwischen irdischer und himmlischer Materie konnte somit entfallen. Moderne Kosmologie und Relativität des Beobachtungsortes. Standpunkt des gemeinsamen Schwerpunkts zweier ungleich schwerer Himmelskörper Die Newtonschen Gesetze führten zu einer weiteren Präzisierung des heliozentrischen Modells. Demnach ist der Mittelpunkt der Sonne nicht das Zentrum des Sonnensystems, sondern rotiert um dessen Baryzentrum (die Sonne „eiert“ etwas um den Schwerpunkt des Sonnensystems). Hauptsächlich durch die Masse des Jupiter liegt es etwa soweit vom Sonnenmittelpunkt entfernt, wie diese Durchmesser hat, also in der Gegend ihrer Oberfläche. Dieser baryzentrische Standpunkt bildet die Basis aller himmelsmechanischen Überlegungen. Aber erst Mitte des 20. Jahrhunderts wurde eine Rechengenaue in der Modellierung des Sonnensystems erreicht, die den heliozentrischen Standpunkt unbrauchbar macht. Das galaktische Zentrum links oben im infraroten Spektrum, verdeckt von Staubwolken Bereits Galileo Galilei hatte gesehen, dass der Nebel der Milchstraße – in der auch unser Sonnensystem liegt – aus Sternen besteht. Der 1738 in Hannover geborene Wilhelm Herschel stellte auf der Grundlage der Beobachtungen von Charles Messier einen Katalog mit 2500 Nebeln zusammen. Diese Gebilde entpuppten sich dann zum größten Teil als Galaxien, ähnlich unserer Milchstraße. Nach der Entdeckung des Aufbaus und der Rotation der Milchstraße konnte auch die Sonne nicht mehr als Mittelpunkt des Universums gelten. Das Massenzentrum unserer Milchstraße wird als galaktisches Zentrum bezeichnet. Daraus folgt, dass die Sonne um dieses Zentrum kreist. Dass die Milchstraße nur eines von vielen rotierenden Systemen ist, geht erst auf Edwin Hubble in den 1920ern zurück. Der modernen wissenschaftlichen Kosmologie und der Einsteinschen Relativitätstheorie (1905, 1916) zufolge ist kein Punkt im Raum fundamental ausgezeichnet, wodurch sich die Frage nach einem absoluten Zentrum erübrigt. Heutige Verwendung des geozentrischen Standpunktes. In praktischen Anwendungen können heute je nach Bedarf verschiedene Perspektiven eingenommen werden. Die Mittelpunktsfrage ist rein rechentechnischer Natur, man verlegt ihn dorthin, wo er die brauchbarste Darstellung ergibt. In der beobachtenden Astronomie, wo es ein zweckmäßiger Zwischenschritt der Rechenverfahren ist, spricht man vom geozentrischen Koordinatensystem (auf den Erdmittelpunkt bezogen) in Abgrenzung zu topozentrischen Anblicksproblemen (denen auf den Oberflächen rotierender Körper), also dem tatsächlichen Standpunkt des Beobachters. In der subjektiven Wahrnehmung des Beobachters auf der Erde bewegen sich Sonne, Mond und Planeten um seinen relativen Beobachtungsstandpunkt (Koordinatenursprung): „Morgens geht die Sonne auf“, und des nachts ebenso die Sterne für den beobachtenden Astronomen. Daher rechnen Nachführungen von Teleskopen oder Steuerungen eines Planetariums streng topozentrisch. Moderne analytische Planetentheorien wie die VSOP oder die Mondtheorie ELP sind in geozentrischer, heliozentrischer oder baryzentrischer Fassung ohne und mit relativistischen Effekten ausformuliert, sodass je nach Anwendung in Astronomie und Raumfahrt möglichst wenig Rechenaufwand notwendig ist. Die zwischenzeitlichen Erklärungsversuche kleinerer Schwankungen wie die Epizyklen der Planeten in Bezug zur Erde sind dort dann in Form periodischer Terme enthalten. Besonders die Probleme der erdnahen Raumfahrt (wie Satelliten) werden naturgemäß rein geozentrisch gerechnet und die anderen Himmelskörper, einschließlich der Sonne, als je nach Fall unterschiedlich genau zu berücksichtigende sich bewegende Bahnstörung aufgefasst. Anwendungen wie die Vermessung des Schwerefeldes der Erde aus Satellitendaten oder GPS-Navigation wären ohne Modell einer feststehenden Erde nicht lösbar. Bei genauer Rechnung ist aber die exakte Lokalisierung des Geozentrums (Erdmittelpunkts) je nach Anwendung zu berücksichtigen (Erdkörpermodelle). Ungeachtet der wissenschaftlichen Debatten stimmen bei Umfragen in westlichen Gesellschaften regelmäßig 20–30 % der Befragten der Aussage zu, dass „sich die Sonne um die Erde drehe“. Erstaunlicherweise wird diese Aussage – 100 Jahre nach Einsteins Beleg ihrer Zulässigkeit – gerade unter Astronomen als „unwissenschaftlich“ gesehen. Auch in zeitgenössischer populärwissenschaftlicher Fachliteratur wird bis heute das heliozentrische Weltbild oft als „richtig“ genannt. Ghibellinen und Guelfen. Der Name Ghibellinen / Waiblinger ist für das mittelalterliche Italien die Bezeichnung für die Parteigänger des Kaisers, benannt nach der heute württembergischen Stauferstadt Waiblingen und dem Kampfruf der Staufer. Die Existenz dieses Namens ist erstmals um 1215 zur Zeit des Stauferkaisers Friedrich II. bezeugt. Bei der entsprechenden Gegengruppierung handelte es sich um die Guelfen / Welfen, die die Politik des Papsttums unterstützten und die sich nach den Rivalen des Stauferhauses, dem Geschlecht der Welfen benannt hatten. Allerdings unterstützten die italienischen Guelfen gegebenenfalls auch die Sache des Kaisers, wenn es in ihrem Interesse war. Daher war die Trennung in Ghibellinen und Guelfen keineswegs immer so ausgeprägt, wie es gelegentlich dargestellt wird. So spalteten sich um 1300 in Florenz die Guelfen in die "weißen Guelfen" (kaiserfreundliche Guelfen), die für einen Kompromiss mit dem Kaiser eintraten, und die "schwarzen Guelfen", die eine harte Politik gegenüber dem Kaiser verfolgten. Je nach aktueller Regierung in den Kommunen wurden Anhänger der einen oder der anderen Partei der Stadt verwiesen und ins Exil geschickt. Opfer dieser Machtpolitik wurde in Florenz beispielsweise auch der berühmte Dichter Dante. Der Kampf zwischen beiden Parteien überdauerte den Untergang der Staufer und stand im Spätmittelalter oft nur für verschiedene Gruppen innerhalb einer italienischen Kommune, die sich feindlich gegenüberstanden. Historische Entwicklung. Innerstädtische Kämpfe spielen in der Geschichte vieler italienischer Städte eine große Rolle. Solche Fehden gab es in fast allen italienischen Städten – mit Ausnahme Venedigs − und sie sind in ihren Einzelheiten nicht leicht zu beschreiben. Es gab zunächst einmal den großen und das ganze Land durchziehenden Antagonismus zwischen den „weißen“ Ghibellinen und den „schwarzen“ Guelfen, also zwischen den Anhängern des Kaisers und denen des Papstes. Diese Auseinandersetzung zwischen Papst und Kaiser bestimmte jahrhundertelang die mittelalterliche und frühneuzeitliche Geschichte. Es gab mit Beginn des Mittelalters im 6. Jahrhundert und später zunehmend im 10. und 11. Jahrhundert einen umfassenden Konkurrenzkampf um die Macht im christlichen Abendland. Neben dem Machtanspruch des Kaisers gab es den des Papstes in Rom. Es heißt zwar immer gerne, dass es eine Trennung zwischen weltlicher und geistlicher Gewalt gab, die sogenannte Zwei-Schwerter-Theorie, aber eine saubere Trennung war nicht immer möglich. Vor allem sollte eine solche oft gar nicht vorgenommen werden. Karl der Große und Heinrich IV. empfanden sich beispielsweise nicht nur als weltliche Herrscher, die von Fürsten gewählt und von diesen abhängig waren. Sie sahen ihre Herrschaft als gottgegeben an und kamen damit in die Einflusssphäre des Papstes. Ebenso hatte der Papst nicht vor, sich lediglich um das so genannte Seelenheil seiner Untertanen zu kümmern. Die Kirche hatte klare weltliche Machtansprüche und schließlich waren die „Untertanen“ dieselben wie jene des Kaisers. Der Papst war nicht nur eine geistliche Autorität. Der Kirchenstaat sorgte durch Ausdehnung seines geographischen Gebietes und seiner finanziellen Einnahmen zunehmend für die Möglichkeit, seine Vorstellungen konkret durchzusetzen – auch mit Waffengewalt. Darum ging es und das war es auch, wogegen Savonarola und später Luther vorgehen wollten. Aus einem Streit um die Aufteilung des menschlichen Lebens zwischen religiösen und weltlichen Prinzipien war ein reiner Machtkampf geworden. Eine der zentralen Fragen war es, wie die Rangordnung zwischen Papst und Kaiser zu definieren sei, woraus sich die Frage ableitete, wer wen einsetzen (und damit auch absetzen) dürfe. Diese Auseinandersetzung wird oft auch als Investiturstreit bezeichnet. Diese umfassende Auseinandersetzung zwischen den beiden Gruppen, den Ghibellinen und den Guelfen, also zwischen Kaisertreuen und Papsttreuen, durchzog und beeinflusste in weiterer Folge alle zwischenstädtischen und innerstädtischen Vorgänge. Die Polarität zwischen Ghibellinen und Guelfen war seit dem beginnenden 13. Jahrhundert ein altes, traditionelles Raster, um private Fehden jedweder Couleur auf diese Bühne zu verlagern. Man kann überspitzt sagen, dass für Auseinandersetzungen zwei Namen zur Verfügung standen, und wenn man sich streiten wollte, musste man einen der beiden Namen wählen. Das ist das historische Raster, das immer wieder in den Stadtgeschichten auftaucht und das man einmal in seiner Grundstruktur verstanden haben muss, um die jeweiligen Feinheiten in den einzelnen Städten zu durchschauen. Das mittelalterliche Florenz beispielsweise sah dementsprechend auch anders aus als heute, auch wenn viele Bauwerke aus dieser Zeit erhalten sind. „Wir müssen uns das alte Florenz als einen Wald von Türmen vorstellen“, wie er heute noch ähnlich in San Gimignano vorhanden ist. Diese sogenannten „Geschlechtertürme“ der einzelnen Patrizierfamilien waren nicht regelmäßig über das Stadtgebiet verteilt, sondern zu Familiengruppen vereint. Florenz war damals eine Stadt aus lauter privaten Festungen, zwischen denen die Häuser der Kleinbürger sich in engen Gässchen zusammendrängten. „Jeder hatte allen Grund, vor jedem [anderen] auf der Hut zu sein, darum gab es statt Fenstern meist nur Schießscharten, durch die man den Raum vor den ebenfalls engen, verrammelten Türen stets beobachten und beschießen konnte.“ Das Leben in diesen Türmen war also alles andere als luxuriös und änderte sich erst später mit dem Aufkommen der Paläste im 15. Jahrhundert. Auf diesen Palästen wurde dann gerne als Erkennungszeichen eine bestimmte Zinnenform im Kranz angebracht, wobei besonders die Schwalbenschwanzform unter der Bezeichnung "Ghibellinenzinnen" bekannt geworden ist. Ursprünglich handelte es sich dabei aber eher um eine technische, von der politischen Ausrichtung unabhängige Weiterentwicklung der Rechteckzinnen, um eine Armbrust sicherer auflegen und genauer zielen zu können. Im 13. Jahrhundert hatte Florenz mehr als 150 solcher Geschlechtertürme und sie erreichten eine Höhe bis zu 70 Metern. Der Torre Asinelli in Bologna war sogar 97 Meter hoch. Die erste demokratische Verfassung 1250 brachte das Verbot, höher als 29 Meter zu bauen, und alle privaten Bauwerke wurden auf diese Höhe abgetragen. „Aber nicht nur die Zwecke der Verteidigung und die Unsicherheit des damals üblichen Kampfes aller gegen alle trieb die Bauwerke der Patrizier so in die Höhe, sondern allein schon die Enge des Raumes innerhalb der alten Stadtmauer war Grund genug, diese ersten Wolkenkratzer der Menschheit zu errichten“. Nicht zuletzt war die Höhe der Türme auch eine Prestigefrage für die Familie. Die Auseinandersetzungen zwischen den beiden Gruppen wurden teilweise mit großer Zerstörungswut ausgetragen. In Florenz wurden beispielsweise vor dem Auszug der Guelfen zur Schlacht von Montaperti am 4. September 1260 gegen die sienesischen Ghibellinen deren Florentiner Türme abgebrochen. Doch die Ghibellinen gewannen die Schlacht und rissen nun ihrerseits 47 Paläste, 198 Häuser und 59 Türme der Guelfen in Florenz und weitere 464 Gebäude auf dem Land nieder. Andere wichtige Schlachten zwischen Ghibellinen und Guelfen waren die Schlacht von Cortenuova am 27. November 1237, die Schlacht bei Tagliacozzo am 23. August 1268, die Schlacht von Campaldino am 11. Juni 1289 und die Schlacht von Altopascio im Jahr 1325. Neuzeit. Bezeichnungen wie "Ghibellinia" oder "Guelphia" kamen im 19. Jahrhundert auch bei Studentenverbindungen auf. Mit diesen wurde Bezug auf die Reichspolitik der mittelalterlichen Staufer nach der deutschen Nationalstaatsgründung 1871 genommen. Gambia. Gambia () ist eine islamische Republik in Westafrika, die an den Ufern des Gambia liegt. Mit Ausnahme eines kurzen Küstenabschnittes an der Mündung des Flusses in den Atlantischen Ozean wird Gambia vollständig vom Staat Senegal umschlossen. Mit einer Fläche von ungefähr 11.000 Quadratkilometern ist das Land der kleinste Staat des afrikanischen Festlandes. Gambia hat rund 1,7 Millionen Einwohner. Zum Namen Gambia. Die genaue etymologische Herkunft des Namens Gambia ist nicht bekannt, es gibt mehrere Deutungen dazu. Er wurde in der Zeit der europäischen Entdecker vor rund 500 Jahren zum ersten Mal schriftlich benutzt. Als sie ihre Expeditionen immer weiter nach Süden ausdehnten, fertigten sie gleichzeitig Karten über die Regionen für zukünftige Reisen an. Ortsnamen wurden in ihren Berichten erwähnt und auf den Karten markiert. Da die Expeditionen zuerst auf dem Wasserweg erfolgten, waren die Flüsse in der Region Senegambia von großer Bedeutung. Aus der mündlichen Überlieferung, die in Westafrika eine weitere wichtige historische Quelle ist, stammt eine andere Deutung des Namens "Gambia". Nach einer Wiedergabe des Griot Fabala Kanuteh an "Samuel Carter" heißt es, als die Portugiesen James Island besuchten, sandte der König von Niumi, Seneke Jamme, einen Boten zu den Fremden. Dieser Bote mit dem Namen "Kambi Manneh" wurde von den Portugiesen gefragt, „was ist der Name dieses Ortes?“ Seine Antwort auf die Frage, die er wohl nicht richtig verstanden hatte, war: „Mein Name ist Kambi“. "Kambi-yaa" bedeutet "Kambis Ort" oder "an Kambis Ort". Die Geschichte wurde in dieser Form ebenfalls vom Griot Foday Musa Suso wiedergegeben, nur der vollständige Name des Boten war "Kambi Sonko". Im 19. Jahrhundert beziehen sich die Dokumente auf die Siedlung am Fluss Gambia (). 1888 wurde die Kolonie als die Kolonie von Gambia () bezeichnet. In der kolonialen Zeit wurden keine Unterschiede zwischen den Schreibweisen "Gambia" und "The Gambia" gemacht. Seit der Unabhängigkeit Gambias ist der offizielle Name des Staates "The Gambia" mit einem großgeschriebenen Artikel. Auf diese Schreibweise wird besonders in englischsprachigen Schriften geachtet. Nach einer weiteren Theorie stammt der Ursprung des Namens vom portugiesischen Wort "câmbio" („Austausch“, „Wechsel“ oder „Handel“). "Câmbio" könnte die Übersetzung der Bezeichnung für den Fluss der damaligen Bevölkerung im 15. Jahrhundert sein. Das Wort "ba dimma" (nach anderer Deutung "fura"), wird dabei als Quelle genannt. "Ba dimma" kommt aus der Mandinka-Sprache ("ba-djio" = Fluss). Die Bewohner am Fluss haben keinen speziellen Namen für ihn, das allgemeine Wort für Fluss in Fula ist "maayo", "baa" in Mandinka oder "dex" in Wolof. Der Begriff "Kambi Bolongo", der eine Schlüsselrolle in Alex Haleys Roman "Roots" spielt, ist einzig im Flussmündungsgebiet bekannt. Bolongo ist ein Wort für Creek. Geographie. Gambia an der Westküste Afrikas Gambia liegt an der Westküste des afrikanischen Kontinents und ist mit 11.295 km² dessen kleinster Flächenstaat. Die ungefähr 740 Kilometer lange Grenze folgt auf einer Länge von etwa 480 Kilometer sowie einer Breite von 10 bis 50 Kilometer dem Verlauf des Gambia-Flusses. Abgesehen vom Küstenabschnitt ist Gambia vom zwanzigmal größeren Senegal umschlossen. Häufig wird das Land als eine Enklave bezeichnet, was aber den Zugang zum Atlantischen Ozean nicht berücksichtigt. Der ungewöhnliche Grenzverlauf Gambias ergibt sich aus der Tatsache, dass dies die Reichweite der Kanonen der britischen Schiffe auf dem schiffbaren Teil des Flusses war. Klima. Das Klima ist tropisch mit einer ausgeprägten Regenzeit und Trockenzeit. Die Trockenzeit dauert von November bis Mai. Sie ist beeinflusst vom trockenen Nordost-Wind aus der Sahara, genannt Harmattan. Die Durchschnittstemperaturen steigen dabei auf Werte zwischen 21 und 27 Grad Celsius an, wobei Spitzenwerte bis über 40 °C erreicht werden können. Die relative Luftfeuchtigkeit bleibt im Bereich zwischen 30 und 60 Prozent. Gewässer. Gambia hat eine Küstenlinie von ungefähr 80 Kilometern Länge. Etwa 1300 Quadratkilometer, also 11,5 Prozent der Landesfläche, sind Wasserflächen. Davon trägt der Gambia-Fluss – einer der Hauptströme Afrikas – mit seinen Seitenarmen den Hauptanteil. Flora. Die geographische Position des Landes, kombiniert mit den umfangreichen Feuchtgebieten, sorgt für eine große Anzahl verschiedenster Pflanzenarten. Ungefähr 530 verschiedene Pflanzenarten sind in Gambia bekannt. Der nördliche Teil des angrenzenden Senegal liegt in der Sahelzone, weiter im Süden Westafrikas schließt sich der tropische Regenwald (Guineazone) an. Die Übergangszone, in der auch Gambia liegt, nennt man Sudanzone. Feuchtsavanne ist der vorherrschende Vegetationstyp, wobei nördlich des Gambias die Vegetation spärlicher ist. Nach der Landnutzungsstudie von 1998 waren etwa 45 Prozent der Landesfläche mit unterschiedlichen Waldtypen bedeckt. Allerdings betrug der Anteil geschlossenen Waldes („dense forest“, mit geschlossenem Kronendach) nur knapp 9 Prozent der Landesfläche, während etwa dreiviertel der Waldfläche als „Waldsavanne“ klassifiziert wurde. Weitere 32 Prozent der Landesfläche wurden als parkartige, offene Busch-Savanne bezeichnet, die meist saisonal beackert wird. Typischerweise werden bei der Umwandlung von Wald in landwirtschaftliche Fläche Einzelbäume bestimmter Baumarten auf den Feldern stehen gelassen; nämlich meist solche, die einen Wert als Lieferant von Früchten (z.B. „Buschmango“ ("Cordyla pinnata"), Baobab), Medizinalprodukten (z. B. „westafrikanisches Mahagoni“ "Khaya senegalensis"), Viehfutter (grünes Laub während der Trockenzeit, z.B. Anabaum ("Faidherbia albida")) oder technische Fasern (z. B. Rinde des Baobab für die Herstellung von Seilen) haben. Die Waldsavanne kann man grob einteilen in eine Variante auf tiefgründigeren, besseren Böden mit höheren Niederschlägen (besonders in der West Coast Region und in der westlichen Hälfte der Lower River Region) und in eine Variante, die eher auf den flachgründigeren Plateaus mit niedrigeren Niederschlägen im Osten des Landes zu finden ist. Die häufigsten Baumarten sind "Khaya senegalensis", "Cordyla pinnata", "Daniellia oliveri", "Pterocarpus erinaceus", "Prosopis africana". Auf den trockeneren Plateaus sind außerdem der rote Seidenwollbaum und "Afzelia africana" vertreten. Auf den besseren Standorten im Westen sind dagegen "Anogeissus leiocarpa", Néré ("Parkia biglobosa") und "Sterculia setigera" häufiger zu finden. Auf weiter Fläche ist die Waldsavanne durch Waldbrände, Überweidung und übermäßige Nutzung seit Jahrzehnten degradiert und in der Artenzusammensetzung stark verändert worden. Statt der ursprünglichen Artenvielfalt sind robuste Pionierpflanzen wie "Terminalia macroptera" und verschiedene Combretum-Arten vorherrschend geworden. Über eine Strecke von gut 200 Kilometern von der Mündung landeinwärts finden sich, soweit der Einfluss des Salzwassers – der so genannten Brackwasserzone – reicht, am Ufer des Gambia dicht verschlungene Mangrovenwälder. Weiter flussaufwärts sowie an einigen der meist kurzen Frischwasserzuflüsse, die zum Teil nur in der Regenzeit Wasser führen, finden sich an den Rändern der Fließgewässer Reste von immergrünem Galeriewald. Hier wachsen außer den meisten der für die Waldsavanne genannten Baumarten auch Ebenholz, "Erythrophleum guineense", "Milicia regia", sowie die Äthiopische Palmyrapalme ("Borassus aethiopum") und zahlreiche Lianen. Typische Beispiele von Galeriewald sind im Abuko Nature Reserve und bei dem Ort Pirang in einem kleinen staatlichen Forest Park erhalten geblieben. Entlang des Atlantiks erstreckte sich vor der Überbauung der Küste durch hauptsächlich touristische Infrastruktur ein Streifen von Küstenwald (Coastal Woodland), der besonders durch geschlossene Bestände der Athiopischen Palmyrapalme gekennzeichnet ist. Weiterhin sind dort "Allophyllus africanus", "Malacantha alnifolia" mit charakteristisch unrundem Stamm und der dornige Busch "Fagara zanthoxyloides" häufig vertreten. Ein gut erhaltener und geschützter Rest des typischen Küstenwaldes ist bei Bijilo zu finden. Einige in Gambia nicht heimische Baumarten werden in größerem Maße angepflanzt. Insbesondere wurden Plantagen mit der aus Südostasien stammenden "Gmelina arborea" angelegt, beispielsweise im Nymbai Forest Park in der West Coast Region, wo eine kleine Sägewerks-Industrie entstanden ist. Diese schnellwachsende Baumart hat sich auch gut bewährt zur Pflanzung auf Feuerschutzstreifen und zur Markierung von unterschiedlichen Besitzverhältnissen in der Waldsavanne, weshalb in Reihen gepflanzte "Gmelina" ziemlich augenfällig entlang von Straßen und Wegen zu sehen sind. Weitere Baumarten, die in Westafrika nicht heimisch sind, aber in Gambia aus forst- oder landwirtschaftlichen Gründen regelmäßig angepflanzt werden, sind z. B. Teakbaum (Tectona grandis), Mango ("Mangifera indica"), Niembaum ("Azadirachta indica") und "Eukalyptusarten". Fauna. Großwild wie Elefanten, Löwen oder Giraffen wurde im 19. Jahrhundert und zu Beginn des 20. Jahrhunderts von den Kolonialherren und Wilderern ausgerottet. Dennoch bietet Gambia mit seinen umfangreichen Savannen- und Feuchtgebieten noch heute einer großen Anzahl von Tierarten Lebensraum. Ungefähr 108 Säugetierarten, wie die verschiedenen kleine Antilopenarten, beispielsweise die Sitatungas oder die Buschböcke, sind hier heimisch. Primaten sind häufig anzutreffen, darunter Guinea-Paviane und Grüne Meerkatzen aber auch Westafrikanische Stummelaffen und Husarenaffen. Erfolgreich hat man die letzten Schimpansen des Landes in ein Naturreservat übersiedelt. Für die große Vielfalt der bunten Vogelwelt ist das Land bekannt. Über 540 Vogelarten sind in der Fachliteratur beschrieben – ein Drittel dieser Vögel sind Zugvögel. Einst galt der Gambia als krokodilreichster Fluss Afrikas; heute sind in freier Wildbahn nur noch selten Krokodile anzutreffen, darunter das Nilkrokodil und das Stumpfkrokodil. Zu den Echsen gehört auch der bis zu zwei Meter große Nilwaran. Selten geworden, aber gefährlicher sind die Flusspferde, von denen oberhalb von Elephant Island noch ungefähr 100 Exemplare leben. Die geschützte Küstenlinie ist ein beliebtes Laich- und Aufwuchsgebiet für diverse Fische. Delfine sind in der Flussmündung zu beobachten. Städte und Ortschaften. Weil die Hauptstadt Banjul auf einer Insel liegt, kann sie nicht weiter expandieren. Dadurch ist Serekunda in der Kombo-St. Mary Area mit Abstand die größte Ortschaft und mit 415.962 Einwohnern das wirtschaftliche und kulturelle Zentrum des Landes. Ethnien. Die größte Bevölkerungsgruppe ist die der Mandinka mit einem Anteil von ungefähr 40 Prozent, gefolgt von den Fulbe und den Wolof. Ein Anteil von einem Viertel verteilt sich auf die restlichen ethnischen Gruppen. Sprachen. Englisch blieb nach der Unabhängigkeit vom Vereinigten Königreich 1965 offizielle Amtssprache. Der meiste Schriftverkehr wird auf Englisch abgewickelt. Da in Gambia viele verschiedene Ethnien leben, die sich hauptsächlich durch ihre eigene Sprache definieren, sind die Gambier recht polyglott. Häufig sprechen sie mehrere Sprachen fließend oder können sich zumindest darin verständigen. Neun Sprachen sind hauptsächlich verbreitet, aber über zwanzig verschiedene Sprachen werden in dem kleinen Land gesprochen. Am weitesten verbreitet ist mit etwa 454.000 Sprechern das Mandinka aus der Gruppe der Mande-Sprachen. Topographische Bezeichnungen sind häufig in Mandinka. Das Wolof mit etwa 165.000 Sprechern, das die größte Verbreitung in Senegal hat, wird vor allem in der Küstenregion um Banjul und in der Kombo-St. Mary Area gesprochen. Wolof wird oft als Handels- und Geschäftssprache benutzt und diente auch in der Zeit der Konföderation Senegambia als Parlamentssprache. Das Fulfulde (oder "Fulani") wird von etwa 263.000 Gambiern gesprochen. Die farbenfrohe Kleidung der Frauen Die arabische Sprache ist eine alte Schriftsprache im Gambia-Tal. Im Zuge des Transsaharahandels kamen schon seit dem 10. Jahrhundert v. Chr. nordafrikanische Händler zu den westafrikanischen Herrscherhäusern. Durch die Annahme des Islam wurde die arabische Sprache, die heute als Bildungssprache und Sprache der Religion gilt, auch in die Region südlich des Maghreb verbreitet. Durch die grenznahen Kontakte mit Senegal haben viele Gambier auch fundierte Französisch-Kenntnisse. Gambier, die Kontakt mit dem Tourismus haben, besitzen oft zusätzlich Sprachkenntnisse in Deutsch, Niederländisch, Schwedisch oder Finnisch. Religionen. Das Streicheln der Krokodile soll Glück bringen Gambias Bevölkerung ist zu 90 Prozent muslimisch, neun Prozent christlich, und etwa ein Prozent gehört traditionellen indigenen afrikanischen Religionen an. Zwischen allen Religionen herrscht eine ruhige und friedliche Koexistenz. Gambia verstand sich bis 2015 als ein weltlicher Staat, der den Respekt vor allen kulturellen und traditionellen Werten fördert. Es war in Gambia traditionell üblich, dass offizielle Veranstaltungen mit Gebeten eines muslimischen Imams und eines christlichen Geistlichen zu eröffnen. Am 11. Dezember 2015 erklärte Staatspräsident Yahya Jammeh jedoch Gambia zu einer „islamischen Republik“. Seine Kritiker wiesen darauf hin, dass es für seine Entscheidung keine „verfassungsmäßige Grundlage“ gebe. Unter den indigenen Religionen findet sich der Voodoo. Im Gegensatz zum Voodoo-Kult in Haiti versteht sich der Voodoo in Westafrika in der Regel als eine weiße, heilende und gute Magie. Trotzdem werden gelegentlich Geschichten verbreitet, in denen jemand böswillig etwas mit Voodoo bewirkt haben soll. Es wurde beispielsweise ein Beschuldigter gelyncht, weil er angeblich einem anderen das Geschlechtsteil weggezaubert hatte. Es gibt drei bekannte "heilige Krokodilbecken", die unter anderem für den Tourismus betrieben werden. Das meistbesuchte ist das "Heilige Krokodilbecken von Kachikally" bei Bakau. Daneben gibt es Anlagen bei Barra und Allahein. Dort werden in langer Familientradition Krokodile aufgezogen, die dann die Besucher – sofern sie mutig sind – berühren dürfen. Dieses Berühren soll Glück und Fruchtbarkeit bringen. Auch das Wasser aus diesen Kultstätten wird für rituelle Zwecke benutzt. Als Baum mit mystischer Bedeutung gilt der Affenbrotbaum Baobab. Bildung. Der Alphabetisierungsgrad liegt nach einer Schätzung von 2003 bei 40,1 Prozent. Nach Geschlechtern aufgeteilt sind das 47,8 Prozent der Männer und 32,8 Prozent der Frauen. Die Staatsausgaben für das Bildungswesen lagen 2002 bei 2,8 Prozent des Bruttoinlandsprodukts. Das Schulsystem ist ans britische System angelehnt, eine Schulpflicht besteht in der Greater Banjul Area. Das Einschulungsalter liegt bei sieben Jahren in der "Primary School", die sechs Schuljahre umfasst. Nach einem guten Abschluss folgt die fünfjährige "Secondary High School". Danach ist der Weg offen für die zweijährige "High School" in Banjul. Dieser Abschluss berechtigt zum Besuch einer Universität. In Serekunda gibt es die im Jahr 1998 gegründete Universität von Gambia, die 1999 ihren Lehrbetrieb aufnahm. Zuvor mussten die Studenten ins Ausland gehen, wenn sie ein Medizin- oder Agrarstudium beginnen wollten. Demografie. Junge Gambierin mit ihrem Baby Der Staat Gambia hat nach einer Schätzung eine Einwohnerzahl von über 1,6 Millionen (Schätzung Juli 2006) und wächst mit einer Rate von 2,84 Prozent pro Jahr. Dieser Wert ist im Laufe der Zeit angestiegen und erreichte im Jahr 1993 den Zenit mit 3,88 Prozent. Seitdem sinkt die Wachstumsrate wieder. Bei einer Fläche von 11.295 Quadratkilometern macht das eine Bevölkerungsdichte von 145 Einwohnern pro Quadratkilometer. Weltweit liegt Gambia damit auf Rang 52. Die Bevölkerungsstruktur zeigt den für ein Entwicklungsland typischen Aufbau, was man in der leichten Pagodenform in der Alterspyramide erkennen kann. So macht zum Beispiel die Altersgruppe der bis 14-Jährigen einen Anteil von 44,3 Prozent aus. Die Gruppe der Alten hat nur einen Anteil von 2,7 Prozent. Die restlichen 53,0 Prozent sind die Einwohner zwischen 15 und 64 Jahre. Die Verteilung auf die beiden Geschlechter ist nahezu gleich. In der Altersstruktur ist kein Ausschlag zu erkennen, der auf gesellschaftliche Veränderungen wie zum Beispiel Kriege, Katastrophen oder einen Pillenknick hindeutet. Bei der Gruppe der bis 14-Jährigen überwiegt leicht mit einem Verhältnis 1,01:1 der männliche Anteil und auch bei der Gruppe der Alten liegt das Verhältnis zu Gunsten des männlichen Anteils bei 1,05:1. In der restlichen Bevölkerungsgruppe liegt das Verhältnis des männlichen Anteils bei 0,99:1. In Gambia liegt das mittlere Alter (Median) bei 17,7 Jahren (♂ 17,6/♀ 17,8). Man kann für die im Jahr 2006 Geborenen von einer Lebenserwartung von 54,1 Jahren ausgehen (♂ 52,3/♀ 56,0). Die Todesrate beträgt 12,3 Sterbefälle pro Jahr und 1000 Einwohner. Die Geburtenrate beträgt 39,4 Geburten pro Jahr und 1000 Einwohner. Dabei liegt die durchschnittliche Kinderzahl bei 5,3 Geburten pro Frau. Die Säuglingssterblichkeit liegt bei 71,6 Todesfällen pro 1000 Geburten (♂ 78,1/♀ 64,9). Das Land verzeichnet eine positive Einwanderungsrate, die bei 1,29 Einwanderern pro 1000 Einwohner liegt. Die Gründe liegen wohl in den wirtschaftlichen Verhältnissen, die besser sind als in Guinea und Guinea-Bissau; auch aus Ghana gibt es viele Immigranten. Gesundheit. Die Staatsausgaben für das Gesundheitswesen, gemessen an dem Anteil am Bruttoinlandsprodukt, betrugen 1990 2,2 Prozent und stiegen 2001 auf 3,2 Prozent. Auch die Zahl der Ärzte und des Personals im Gesundheitswesen erhöhte sich im gleichen Zeitraum. Durch die neue Universität ist es nun auch möglich, Ärzte im eigenen Land auszubilden. Erfolgreiche Programme zur AIDS-Bekämpfung sorgten dafür, dass die AIDS-Rate in Gambia rückläufig ist. Sie lag 2003 bei 1,2 Prozent, was im Vergleich mit dem schwarzafrikanischen Durchschnitt von neun Prozent besonders niedrig ist. Auch das Malaria-Kontroll-Programm Gambias gilt als vorbildlich für ganz Westafrika. Die Verbesserung in der klinischen Versorgung zeigt sich darin, dass im Jahr 2003 zum ersten Mal in der gambischen Geschichte eine junge Frau aus Brikama Fünflinge bekam. Sie brachte die Kinder unter weltweitem Medieninteresse gesund in einer Klinik zur Welt. Weibliche Genitalverstümmelung. Wie in den Nachbarstaaten stellt auch in Gambia die Tradition der weiblichen Genitalverstümmelung eine große Gefahr für die körperliche und seelische Gesundheit von Mädchen und Frauen sowie ihrer Kinder dar. Im Zusammenhang mit der niedrigen Alphabetisierungsquote der Frauen, der vor allem auf dem Land fehlenden Bildung und den zementierten, von Aberglauben beeinflussten Vorstellungen über weibliche Sexualität hat sich die Praxis bis ins 21. Jahrhundert fortgesetzt. Abhängig von der Zugehörigkeit zu den unterschiedlichen Ethnien liegt der Prozentsatz genitalverstümmelter Frauen zwischen 12,5 Prozent bei den Wolof und 98 Prozent bei den Sarahule. Terre des Femmes spricht von 76 Prozent genitalverstümmelter Frauen in Gambia. Allerdings sinkt, auch in Folge von Aufklärungskampagnen, die Anzahl der Befürworterinnen allmählich von 71 Prozent im Jahr 2005 auf 64 Prozent wenige Jahre später. Die Beschneidungen werden nur von Frauen vorgenommen, und Frauen sind auch diejenigen, die am stärksten an der Praxis festhalten. Geschichte. Briefmarke der Kolonie Gambia von 1944 Die fruchtbaren Ufer des Gambia-Flusses sind seit Jahrtausenden besiedelt. Ein schriftliches Zeugnis gab der Karthager Hanno der Seefahrer um 470 v. Chr. im Bericht seiner Reise nach Westafrika. Die Verbindung zum Mittelmeerraum riss erst mit dem Fall des Römischen Reiches und der Ausbreitung des Islams ab. Mitte des 15. Jahrhunderts führten zahlreiche von Heinrich dem Seefahrer initiierte Entdeckungsfahrten an die Westspitze von Afrika. Darunter waren die Seefahrer Dinis Dias, Alvise Cadamosto und Nuno Tristão. In den folgenden Jahren übernahmen portugiesische Händler die Route mit Schiffen als Transportmittel. Zu diesem Zeitpunkt war Gambia Teil des Reiches Mali. 1618 vergab König James I. einer britischen Gesellschaft das Privileg zum Handel mit Gambia und der Goldküste, dem heutigen Ghana. Auch die Niederlande und das Herzogtum Kurland hatten kurzzeitig Kolonien auf dem Gebiet des heutigen Gambia. Vom späten 17. bis zum Ende des 18. Jahrhunderts stritten sich England und Frankreich um die politische und wirtschaftliche Herrschaft über die Flüsse in Senegal und Gambia. Der Pariser Frieden von 1763 übertrug Großbritannien die Herrschaft über Gambia, die Franzosen bekamen lediglich eine kleine Enklave um Albreda nördlich des Flusses. Diese wurde 1857 an Großbritannien abgetreten. In der Zeit des transatlantischen Sklavenhandels wurden mehr als drei Millionen Sklaven nach Amerika verschleppt. Erst 1807 hörte Großbritannien offiziell mit dem Sklavenhandel auf, was dem Handel in Gambia vorerst keinen Abbruch tat. Im Jahr 1816 bauten die Engländer in "Bathurst" (heute Banjul) einen Militärstützpunkt. Die folgenden Jahre unterstand Banjul zeitweise dem britischen General-Gouverneur in Sierra Leone. Erst 1888 wurde Gambia eine eigenständige Kolonie. Dabei wurde die Grenze zwischen der französischen Kolonie Senegal und Gambia endgültig festgelegt. Am 18. Februar 1965 wurde Gambia als konstitutionelle Monarchie ins Commonwealth aufgenommen. Bei einem Besuch von Senegals Präsident Léopold Sédar Senghor 1967 in Gambia wurde ein Abkommen über intensive Zusammenarbeit zwischen dem damals noch nicht so genannten Banjul und Dakar geschlossen. Am 24. April 1970 wurde Gambia in eine Republik innerhalb des Commonwealth umgewandelt. Erster Präsident der Republik wurde der bisherige Ministerpräsident David Dawda Kairaba Jawara, der bis 1994 fünfmal wiedergewählt wurde. 1981 erschütterte ein gewaltsamer Staatsstreich das Land. Im Nachspiel zum Putsch unterzeichneten Gambia und Senegal am 12. Dezember 1981 einen Vertrag, der die Vereinigung der Streitkräfte, der Währung und des Wirtschaftsraumes in der Konföderation Senegambia vorsah. Diese Konföderation bestand vom 1. Februar 1982 bis zum 30. September 1989, als Gambia aus dem Bund austrat. Vor der gambischen Küste ereignete sich 2002 eine der größten Katastrophen der Seefahrt der Nachkriegszeit. Die senegalesische Fähre "Le Joola", die damals einzige Fähre zwischen Ziguinchor in der Region Casamance und Dakar, sank in einem Sturm. Dabei kamen über 1800 Menschen um. Am 2. Oktober 2013 erklärte die gambische Regierung mit sofortiger Wirkung die Mitgliedschaft im Commonwealth für beendet. Großbritannien hatte zuletzt, wie auch die Menschenrechtsorganisation Amnesty International, die Menschenrechtslage in Gambia gerügt. Die Regierung in der Hauptstadt Banjul teilte mit, das westafrikanische Land wolle „niemals Mitglied einer neokolonialen Einrichtung“ oder einer Institution sein, „die für eine Fortsetzung des Kolonialismus steht“. Politik. a>“ des Präsidenten auf einer 25-Dalasi-Banknote Gambia ist eine Republik unter dem Staatspräsidenten Yahya Jammeh. Am 12.12.2015 erklärte Staatspräsident Yahya Jammeh Gambia zu einem islamischen Staat. Der junge Leutnant Jammeh kam 1994 durch einen militärischen, aber weitgehend unblutigen Staatsstreich an die Macht, der aus einem Protest der Soldaten über verspätete Soldauszahlungen entstand. Er kündigte damals an, mindestens bis zum Jahr 1998 allein regieren zu wollen. Dennoch wurden bereits 1996 wieder Wahlen abgehalten, aus der Jammeh klar als Sieger hervorging. Eine neue Verfassung wurde 1997 eingeführt. Tatsächlich waren die Jahre von 1996 bis 2000 von einer gewissen Stabilität und wirtschaftlichem Aufschwung geprägt: Der internationale Flughafen in Banjul sowie zahlreiche Straßen wurden modernisiert, ein neues Krankenhaus, neue Schulen, eine Fernsehstation und ein riesiges Revolutionsdenkmal entstanden, der Tourismus war wieder eine gute Einnahmequelle. 2000 wurden laut Amnesty International mindestens 14 Personen bei einer Straßenschlacht zwischen studentischen Demonstranten und der Polizei getötet. Schulen waren zeitweilig geschlossen, Patrouillen prägten das nächtliche Stadtbild. 2001 wurde Jammeh erneut wiedergewählt. 2002 gewann die Alliance for Patriotic Reorientation and Construction (APRC) die Wahl zur Nationalversammlung, allerdings boykottierte die Oppositionspartei UDP die Wahl. Sie kritisierte die Wahl, die von der Independent Electoral Commission (IEC) organisiert wurde, weil nach ihrer Ansicht das Wahlsystem fehlerhaft war. Am 16. Dezember 2004 wurde der regierungskritische Journalist Deyda Hydara ermordet. Zuvor hatte er das neue Mediengesetz angeprangert, nach dem Journalisten für das Schreiben eines „verleumderischen Artikels“, wie üble Nachrede, Veröffentlichung aufrührerischer Artikel, zu einer Haftstrafe von mindestens sechs Monaten verurteilt werden können. Vier Tage nach der Tat protestierten Hunderte von Journalisten gegen Hydaras Ermordung und für den Erhalt der Pressefreiheit. 2011 gründeten Regimegegner in der Diaspora, vor allem in den USA und Großbritannien, die "Coalition for Change", die sich als oppositionelle politische und Bürgerrechtsbewegung versteht. Einer der Gründer war der ehemalige Informationsminister des Landes, Amadou Scattred Janneh, der auch die US-Staatsbürgerschaft besitzt und bis zu seiner Ernennung zum Minister 2003 in der US-Botschaft in Gambia arbeitete. 2011 wurde er inhaftiert, 2012 unter dem Druck amerikanischer Bürgerrechtler wieder freigelassen. Am 23. August 2012 wurden neun politische Häftlinge in Todeszellen standrechtlich erschossen. Es waren die ersten „offiziellen“ Hinrichtungen in Gambia seit 30 Jahren. Seit dem Jahr 2014 häufen sich Berichte über massive Menschenrechtsverletzungen, u.a. über Folter, außergerichtliche Hinrichtungen und die Verfolgung von Homosexuellen. Präsident Yahya Jammeh bezeichnete Homosexuelle als "Ungeziefer", das man "töten solle, wie Moskitos". Weiterhin äußerte er, sie seien "gefährlicher als Tsunamis und Erdbeben", er werde Homosexuellen "eigenhändig den Hals durchschneiden". EU und USA froren daraufhin ihre wirtschaftlichen Förderprogramme für Gambia ein. Präsident Jammeh suchte darauf hin neue Verbündete in Nahost, besuchte im Jahr 2014 Katar und verstärkte die islamische und antiimperialistische Propaganda. Nach einem gescheiterten Putschversuch am 30. Dezember 2014 verschärfte sich die Repression. Jammeh beschuldigte ausländische Regierungen, die Verschwörer unterstützt zu haben. Im Juni 2015 wurde die ständige EU-Vertreterin ohne Angabe von Gründen des Landes verwiesen. Verfassung. Die aktuell gültige Verfassung Gambias trat zum 1. Januar 1997 in Kraft. Im Jahr 2002 ließ Staatspräsident Yahya Jammeh eine Verfassungsänderung beschließen, nach der der Präsident unbegrenzt wiedergewählt werden kann. Staatsoberhaupt. Der amtierende Präsident Yahya Jammeh Das Staatsoberhaupt vereint in seinem Amt die Funktion des Regierungschefs und des Oberbefehlshabers der Streitkräfte. Einen Ministerpräsidenten gibt es seit 1970 nicht mehr. Das Staatsoberhaupt wird alle fünf Jahre direkt vom Volk gewählt. Das zweithöchste Amt als Vizepräsidentin hat Isatou Njie Saidy seit 1997 inne. Parteien. Gambia ist ein von einer Partei dominiertes Land; an der Macht ist die Alliance for Patriotic Reorientation and Construction. Oppositionelle Parteien sind erlaubt, erlangten aber in der Vergangenheit keinen großen Einfluss. Im Jahr 2005 bildeten fünf oppositionelle Parteien, also praktisch die gesamte Opposition des Landes, eine Koalition mit dem Namen National Alliance for Democracy and Development (NADD). Wahlen. Das Parlament, das in der National Assembly tagt, und das Staatsoberhaupt werden alle fünf Jahre direkt vom Volk gewählt. Das aktive Wahlrecht hat jeder Gambier, der über 18 Jahre alt ist und sich zuvor zur Wahl hatte registrieren lassen. Die Wahlen selber fanden in der Vergangenheit frei und ohne Druck statt, es wurde keine Kritik von Oppositionellen und ausländischen Beobachtern geäußert. Präsidentschaftswahlen fanden im September 2006 und November 2011 statt, die letzten Parlamentswahlen im Januar 2007. Verschiedene Oppositionsparteien hatten ein Bündnis geschlossen, um als geeinte Kraft besser gegen die regierende Partei APRC konkurrieren zu können. Bei den Präsidentschaftswahlen 2006 wurde Yahya Jammeh mit 67,3 Prozent der Stimmen wiedergewählt. Im November 2011 wurde Jammeh für eine vierte Amtszeit bestätigt. Er erhielt nach Angaben der Wahlkommission 72 Prozent der Stimmen, die Westafrikanische Wirtschaftsgemeinschaft hatte im Vorfeld aber die Präsidentschaftswahlen als „nicht frei, fair und transparent“ kritisiert und die Entsendung von Wahlbeobachtern abgelehnt. Mitgliedschaft in internationalen Organisationen. Gambia ist Mitglied in verschiedenen internationalen Organisationen und Gruppierungen. Zu den wichtigsten zählen die Vereinten Nationen und ihre Unter- und Sonderorganisationen, der Internationalen Währungsfonds und die Weltbank. Auf regionaler Ebene sind die Afrikanische Union und die Westafrikanische Wirtschaftsgemeinschaft (ECOWAS) am wichtigsten. Verwaltungsgliederung. Der Staat Gambia ist in fünf "Regionen" und zwei Gemeinden (), die Stadt Banjul und die Gemeinde Kanifing, unterteilt. Militär. Der Anteil der Staatsausgaben für Verteidigung lag 2006 geschätzt bei einem halben Prozent des Bruttoinlandsproduktes. Damit gehört Gambia zu den Staaten mit den geringsten Militärausgaben weltweit. Es gibt eine knapp 2000 Mann starke Armee, die "Gambia National Army" (GNA). Sie beinhaltet auch die Gambia Navy (GN), Presidential Guard und der Gambia National Guard. Eine Wehrpflicht besteht nicht. Die Armee wurde, zunächst infolge des Putsches von 1981, als eine 200 Mann starke Einheit 1983 gegründet. Vorher gab es seit der Unabhängigkeit keine bewaffneten Streitkräfte im Land, lediglich eine 750 Mann starke Polizei und einen halb so großen Verband mit dem Namen "Field-Force". Man hatte bis zum Putsch ein Verteidigungsabkommen mit dem Senegal abgeschlossen. Obwohl das Land nur eine kleine Armee besitzt, beteiligt es sich intensiv an Friedensmissionen der Vereinten Nationen und der Afrikanischen Union (AU), so zum Beispiel an der United Nations Mission in Liberia (UNMIL). Seit Dezember 2004 beteiligt sich Gambia an einer Friedensmission in Sudan unter Führung der Afrikanischen Union. Infrastruktur. Die Süduferstraße zwischen Soma und Janjanbureh Seit der Ankunft der Portugiesen im 15. Jahrhundert war der Fluss ein Haupthandels- und Transportweg zum afrikanischen Hinterland. Von Elfenbein, Eisen, Gold, Sklaven bis hin zu Erdnüssen wurde auf dem Fluss alles transportiert. Seit den 80er Jahren des 20. Jahrhunderts wird der Flusstransport durch den Passagierverkehr beherrscht. Obwohl der Gambia weitestgehend schiffbar ist, wird er heute für Transportzwecke in das gambische Hinterland im Grunde genommen überhaupt nicht mehr genutzt. Auch der öffentliche Personenverkehr in West/Ost-Richtung hat sich nun ganz auf die Straße verlagert. Die Kraftwerksleistung zur Erzeugung von Strom betrug 2009 etwas mehr als 60 Megawatt Leistung, die ausschließlich von Dieselgeneratoren erzeugt werden. 80 Prozent aller Staatsausgaben dienen dem Öleinkauf, und damit ist Gambia anfällig für steigende Energiepreise. Die Energieversorgung ist lückenhaft, nur jeder zweite Bewohner in den städtischen Siedlungen und jeder vierte in den ländlichen Siedlungen ist ans Stromnetz angeschlossen. Die Netzverluste sind gravierend, rund 40 Prozent der einspeisten Energie gehen verloren. Gründe liegen in der Leitungsschwäche und im Diebstahl. Im Bereich der Erneuerbare Energien hat man in Gambia noch kaum investiert, eine erste 150-Kilowatt-Windkraftanlage entstand an der atlantischen Küste in Batokunku. Straßenverkehr. Ein Jahr nach der Unabhängigkeit von Großbritannien im Jahr 1965 hat Gambia den Linksverkehr auf den Straßen abgeschafft. Seitdem wird auf den Straßen wie in den anderen westafrikanischen Staaten rechts gefahren. Fahrzeuge, die rechts gesteuert werden, sind nicht mehr zugelassen. Das Straßennetz hatte 2003 eine Länge von ungefähr 3742 Kilometern. Davon sind 723 Kilometer asphaltiert. Nördlich des Gambia-Flusses befindet sich die wichtige Straße North Bank Road, die das Land durchquert. Bedeutender für den Fernverkehr ist jedoch die South Bank Road, die von Banjul über Brikama bis nach Basse Santa Su durch das ganze Land verläuft. Seit einigen Jahren werden auch zunehmend Ampeln installiert, meist aber noch mit Unterstützung eines Verkehrspolizisten, da sich die Ampel noch nicht bei allen Fahrern als ernstzunehmendes Verkehrssignal durchgesetzt hat. 2009 waren bereits sechs Ampeln vorhanden. Den öffentlichen Personennahverkehr übernehmen Buschtaxis. Die Minibusse fahren die Hauptverkehrsstraßen ab und lassen sich einfach durch Handzeichen anhalten. Konventionelle Taxis in gelber Farbe mit einem grünen Querstrich sind zahlreich vorhanden. In den Touristenzentren fahren aber auch noch grün lackierte Taxis. Sie haben spezielle staatliche Lizenzen, die sie auch als Touristenführer auszeichnen. Schienenverkehr. Gambia besitzt heute kein aktiv betriebenes Streckennetz mehr. In den 1930er Jahren gab es bei Brikama eine zwölf Kilometer lange Strecke. Luftverkehr. Etwas außerhalb von Banjul befindet sich Gambias einziger Flughafen. Das Flugfeld des "Banjul International Airport" wurde 1987 von der NASA als transatlantische Notlandestelle für Space Shuttles ausgewählt und in den folgenden Jahren für diese Aufgabe angepasst, so wurde die Start- und Landebahn auf 3600 Meter ausgebaut. Wasserverkehr. Eine kleine Fähre bei Janjanbureh Der Tiefwasserhafen von Banjul spielt für den internationalen Warenverkehr eine große Rolle, betrieben wird er von der staatlichen Gambia Ports Authority. Der Gambia-Fluss ist bis 390 Kilometer ins Landesinnere schiffbar. Hochseeschiffe können, bedingt durch den Tiefgang, den Gambia etwa 190 Kilometer befahren. Auf dem Fluss gibt es einige Fähren, die für den Personen- und Kraftfahrzeugverkehr eine wichtige Nord-Süd-Verbindung darstellen. Bis in die 1970er-Jahre war die Binnenschifffahrt nahezu die einzige Möglichkeit, ins Landesinnere zu kommen. Erst in den 1980ern schritt der Ausbau der Fernstraßen voran, seit dem Untergang der "Lady Chilel Jawara" 1984 wurde keine regelmäßige Fährverbindung längs des Flusses aufgenommen. Eine wichtige Fährverbindung befindet sich zwischen Banjul und Barra am nördlichen Ufer der Gambia-Mündung, auf der wichtigen Verkehrsstrecke nach Dakar. Für den Fährverkehr wurde am 25. Juli 2005 die in der Ukraine gebaute Fähre "Kanilai" vom Präsidenten Jammeh in Dienst gestellt. Die Fähre mit 50 Metern Länge, 12,5 Metern Breite und einem Tiefgang von 1,7 Metern kann maximal 250 Tonnen Fracht sowie 1200 Personen befördern. Die maximale Zahl der Passagiere wurde aber auf 600 begrenzt. Telekommunikation. Satellitenkommunikation in Gambia auf einer 10-Dalasi-Banknote Die staatliche Gambia Telecommunications Company, kurz Gamtel, ist Gambias wichtigstes Telekommunikationsunternehmen. Neben den rund 50.000 Festnetz-Anschlüssen 2004 betreibt sie ein Mobilfunknetz. In der Banjul Greater Area und im Westen der Western Division ist dies flächendeckend, in den anderen Landesteilen besteht Netzversorgung mit Mobilfunk nur in den Ballungsräumen. Ein weiteres Unternehmen, das in Gambia ein Mobilfunknetz betreibt, ist die afrikaregionale Africell. Zusammen hatten die beiden Anbieter im September 2005 über 220.000 Mobilfunkteilnehmer, das sind 25 Prozent der 15- bis 64-Jährigen oder 1,9 Handys pro Haushalt. Die Anzahl der Teilnehmer stieg von 5624 im Jahr 2000 innerhalb von fünf Jahren um das Vierzigfache, damit hat Gambia eine der höchsten Mobilfunkquoten von ganz Afrika. Nach einer Schätzung von 2005 gibt es im Land 49.000 private Internetnutzer, das sind knapp sechs Prozent der 15- bis 64-Jährigen. Diese Zahl hat sich innerhalb von vier Jahren verzehnfacht. Es gibt eine Vielzahl von Telecentern, die verschiedene Kommunikationsdienste wie Internet-Terminals, Faxgeräte oder Festnetztelefone gegen Entgelt zur Verfügung stellen. Wirtschaft. Die traditionelle Art, Getreide zu zerstampfen Touristen bevorzugen nicht nur die schönen Strände… Gambia besitzt keine Bodenschätze, die sich wirtschaftlich erschließen ließen – Landwirtschaft, Tourismus und Fischerei sind die Haupterwerbszweige des Landes. Die Exporte – im Jahr 2008 geschätzt auf 111 Millionen US-Dollar – flossen 2007 zu ca. 38 Prozent nach China, zu ca. 18 Prozent nach Indien und zu knapp 9 Prozent in das Vereinigte Königreich. Hingegen kamen 60 Prozent der Importe aus der EU. Die Schätzungen für das Bruttoinlandsprodukt schwanken extrem je nach Wechselkurs. Kaufkraftbereinigt soll es 2005 2,39 Milliarden Euro betragen haben, das entspricht 1460 Euro pro Einwohner. Andere Schätzungen liegen um 50 % niedriger. Damit zählt Gambia zu den ärmsten Ländern der Welt: 2003 belief sich der Anteil der Bevölkerung mit einem Einkommen von weniger als 1 US-Dollar pro Tag (nicht kaufkraftbereinigt) auf 59 Prozent. Landwirtschaft. Die Erdnuss, Gambias wichtigstes Exportgut Zwei Drittel bis drei Viertel der Erwerbstätigen arbeiten im Bereich der Landwirtschaft, die ein Viertel bis ein Drittel des Bruttoinlandsprodukts erwirtschaftet. Der Gambia-Fluss mit seinen Nebenflüssen ist Gambias Lebensader. Das Flusswasser lässt sich am effizientesten in der Bewässerung landwirtschaftlich genutzter Flächen verwenden. Die dicht besiedelten Gebiete Westgambias hängen völlig von der Nutzung des Grundwassers für den industriellen und häuslichen Gebrauch ab. Die mit Abstand wichtigste Kulturpflanze ist die Erdnuss, die leicht sandige Böden bevorzugt. Jedes zweite landwirtschaftlich genutzte Feld ist ein Erdnussfeld. Sie bringt mit ihren Nebenprodukten 78 Prozent der Exporterlöse ein. Die exportorientierte, auf die Erdnuss ausgerichtete Landwirtschaft macht es aber notwendig, dass ein Fünftel der benötigten Nahrungsmittel eingeführt werden muss. Daneben werden Hirse und Sorghum, Maniok und Mais kultiviert. Reis, das Grundnahrungsmittel Nummer eins, wird nicht ausreichend im Land produziert und muss zusätzlich importiert werden. Eine untergeordnete Rolle für den Export spielen Baumwolle, die in den östlichen Landesteilen angebaut wird, und Palmkernöl. Die Ölpalme wird in erster Linie an der Küste angebaut. Außerdem werden Tierhäute exportiert. Tourismus. Der Tourismus in Gambia leistet nach der Landwirtschaft mit etwa 18 % den zweitwichtigsten Beitrag zum Bruttoinlandsprodukt. Die meisten Touristen besuchen das Land der Strände wegen. Daneben sind Fluss- und Vogelexkursionen besonders wichtig. Auch kulturell Interessierte kommen nach Gambia, um das Trommeln auf einer Djembé in einem mehrtägigen Kurs zu lernen. Mitte der 1960er-Jahre begann ein schwedisches Reisebüro, Reisen nach Gambia anzubieten. Die Zahl der Hotelbetten stieg von anfänglich 52 auf 4500 im Jahr 1989. Durch die Zunahme des Tourismus in den letzten 30 Jahren wurde nach und nach mehr als die Hälfte der erschlossenen Küstenlinie bebaut, und die Regierung Jammeh forciert die weitere Zunahme des Fremdenverkehrs. In den Schlagzeilen erscheint Gambia im Zusammenhang mit Sextourismus. Die so genannten "Bumster" versuchen, sich auf charmante Weise als Reisebegleiter anzupreisen. Allein reisende Frauen, die sich sicher im Land bewegen wollen, nehmen die Dienste gelegentlich an. Die Bumster hoffen, für sich und ihre Familien Almosen zu erhalten, oder spekulieren auf eine Heirat mit anschließender Emigration nach Europa. Im Sommer 2008 haben mehrere europäische Regierungen ihre Reisewarnungen an schwule Männer verschärft, nachdem zwei Spanier lediglich ihrer Homosexualität wegen verhaftet worden waren. „Man müsse bei einem Besuch des westafrikanischen Landes äußerst vorsichtig sein, so die Empfehlung.“ Industrie und verarbeitendes Gewerbe. Es gibt keine ausgeprägte industrielle Fertigung in Gambia. Den größten Industriezweig bildet die lokale Verarbeitung von Erdnüssen. Die größeren privaten Unternehmen beschäftigen sich mit dem Straßen- und Häuserbau. Weiter gibt es die Brauerei Banjul Breweries, Bäckereien, einen Fahrradhersteller und eine Gießerei. Ein Betrieb eines Pharmaherstellers wurde 2007 eröffnet. Es gibt auch viele Kleinbetriebe, die Möbel herstellen, Metall verarbeiten, Holzschnitzereien fertigen oder Fisch verarbeiten. Viele Betriebe werden staatlich subventioniert. Staatshaushalt. Der Staatshaushalt umfasste 2009 Ausgaben von umgerechnet 153,1 Millionen US-Dollar, dem standen Einnahmen von umgerechnet 129,1 Millionen US-Dollar gegenüber. Daraus ergibt sich ein Haushaltsdefizit in Höhe von 3,4 Prozent des Bruttoinlandsprodukts. Die Staatsverschuldung betrug 2007 357 Millionen US-Dollar oder 54,9 Prozent des BIP. Zeitungen. Zeitungen haben in den letzten Jahren mit dem Sinken der Analphabetenquote an Bedeutung gewonnen. Mit fünf Ausgaben in der Woche ist "The Daily Observer" die bedeutendste. Die Regierung Jammeh ist aber bestrebt, die Rechte der Presse einzuschränken oder gar sie zu verbieten. Unter anderem wurde das Erscheinen der Tageszeitung "The Point" untersagt. Die Organisation Reporter ohne Grenzen nahm am internationalen Tag der Pressefreiheit am 3. Mai 2005 Präsident Jammeh neu in die Liste der „Feinde der Pressefreiheit“ auf und machte dadurch weltweit darauf aufmerksam, dass die Bedingungen für Journalisten in Gambia nicht die besten sind. Radio und Fernsehen. Die staatliche Rundfunkgesellschaft, die Gambia Radio & Television Services (GRTS) ist der einzige Fernsehsender. Von GRTS gibt es fünf Hörfunkprogramme, es wird aber auch Rundfunk aus dem benachbarten Senegal empfangen. Nach einer Schätzung von 1997 gibt es 197.000 Radios. Musik. Djembé, ein typisches westafrikanisches Musikinstrument Traditionelle Instrumente in Gambia sind Balafon, Kora und Djembé. Man findet im ganzen Land immer Männer, die zum Zeitvertreib auf einer Djembé spielen. Für die Touristen werden Trommelkurse angeboten, bei denen die Gäste das Trommelspielen vor Ort erlernen können. In Westafrika gibt es eine Reihe von Musikern, die populäre Musik produzieren. So ist im Nachbarland Senegal Youssou N’Dour ein Superstar, dies ist in Gambia nicht anders. Aus Gambia ist der Musiker Foday Musa Suso international bekannt, in der Schweiz und Deutschland hat sich der Kora-Spieler und Sänger Tata Dindin einen Namen gemacht. Weit verbreitet sind neben der internationalen Popmusik auch Reggae und die afrokaribische Musik. Der Afrikanische Hip-Hop wird auch verbreitet gehört, es konnte sich mit dem Gambischen Hip-Hop eine eigene Musikszene entwickeln. Essen und Trinken. Die gambische Küche gehört zur westafrikanischen Küche und ist wie diese durch die nordafrikanischen Länder von der arabischen Küche beeinflusst worden. Es gibt in diesem kleinen Land keine typisch gambischen Spezialitäten; die verbreiteten Gerichte sind in Variationen oder mit anderem Namen auch in Senegal und den anderen westafrikanischen Ländern zu finden. Im Gegensatz zu Senegal, wo sich die französische Küche der ehemaligen Kolonialmacht mehr durchgesetzt hatte, konnte die englische Küche in Gambia nicht Fuß fassen. Gemeinsame Mahlzeit; hier das Reisgericht "Benachin" Gekocht wird viel mit frischem und getrocknetem Fisch. Folgende Fische werden beispielsweise dabei verwendet: Frauenfisch, Barrakuda, Meeräsche, Korallenfische und Seezunge. Als Beilage werden Reis, Süßkartoffeln, Maniok, Okra und andere Gemüsesorten verwendet. Typisch für die gambische Küche ist die Erdnusssoße. Die Hauptgerichte sind Chicken Yassa (oder "sisay yassa"), ein in Zitronensaft und Zwiebeln sauer eingelegtes Hähnchen und Benachin, ein Reisgericht, das mit frischem Gemüse und getrocknetem Fisch zubereitet wird. Daneben gibt es Domoda, einen Eintopf mit Erdnusssoße, der mit Fleisch und Gemüse zubereitet wird. Als kleine Zwischenmahlzeit gelten die Fish Cakes, mit Fisch und Gewürzen gefüllte frittierte Teigtaschen. Als Süßspeise gibt es das Chakery, das mit Joghurt zubereitet wird. Neben frischem Obst wird man immer frisch geröstete Erdnüsse bekommen. Auf Grund des islamischen Glaubens ist Alkohol nicht weit verbreitet. Die Volksgruppen Aku und Diola aber trinken gerne Palmwein. Dazu wird gegorener Saft aus Palmen mittels aufgehängter Flaschen gesammelt. Das Hauptgetränk der Gambier ist aber Ataya, ein grüner Tee, der wie im nordafrikanischen Raum im Rahmen einer rituellen Teezeremonie getrunken wird. Ferner werden Fruchtsäfte (Mango, Guave, Papaya, Tamarinde) und der aus getrockneten Hibiskusblüten ("Hibiscus sabdariffa") zubereitete Bissap-Saft getrunken. Eine weitere Spezialität des Landes ist der Kinkéliba-Tee. Kleidung. Typisches Straßenbild in Westafrika 2004 Die Westafrikaner tragen gerne bunte Kleider, die Stoffe sind dünn gewebt und in der Batik-Technik gefärbt. Im Straßenbild der Küstenregion um Serekunda mischt sich die europäische Kleidung gleichberechtigt mit den traditionellen Gewändern. Trotz vielfach staubiger und unbefestigter Straßen sind Gambier stets bestrebt, sauber und modisch gekleidet zu sein. Für das islamische Freitagsgebet kleiden sich die meisten Männer, auch die jungen Männer in der Küstenregion, die sonst gerne westliche Kleidung tragen, in einen Kaftan. Die muslimischen Sitten werden aber hier freier ausgelegt, Frauen haben hier andere Möglichkeiten, Modebewusstsein zu zeigen. So ist eine freie Schulter überhaupt nichts Verwerfliches, selbst eine entblößte Brust einer stillenden Frau wird dort eher akzeptiert als in westlichen Ländern. Einzig das Knie einer Frau sollte bedeckt sein; selbst diese Regel wird in der Küstenregion lockerer gehandhabt. Sport. An den Olympischen Sommerspielen 2004 nahmen zwei Sportler aus Gambia teil: zum einen Jaysuma Saidy Ndure, der an den Leichtathletik-Wettbewerben 100-Meter und 200-Meter der Männer teilnahm, und zum anderen Adama Njie, die am 800-Meter-Lauf der Frauen teilnahm. Drei Teilnehmer vertraten Gambia bei den Olympischen Sommerspielen 2008 in Peking: der Boxer Badou Jack, die Leichtathletin Fatou Tiyana und der Leichtathlet Suwaibou Sanneh. In der Olympischen Geschichte Gambias gab es bisher noch keine Medaillen. Internationale Golfturniere werden auf dem Fajara Golf Course ausgetragen. Fußball. Die Nation ist stark vom Fußball begeistert, in der Nähe von Banjul gibt es ein großes Stadion, das 40.000 Zuschauer fassen kann. Das 29 Millionen Euro teure Independence Stadium wurde von den Chinesen im Rahmen eines Entwicklungshilfeprojektes gebaut. Dieses Stadion wird auch für kulturelle Veranstaltungen genutzt. Die "The Scorpions" genannte gambische Fußballnationalmannschaft befindet sich zurzeit in der FIFA-Weltrangliste auf Platz In der Qualifikation für die Fußball-Weltmeisterschaft 2006 unterlag die Mannschaft in der ersten Qualifikationsrunde gegen die Mannschaft aus Liberia und konnte sich damit nicht weiter qualifizieren. Das U-20-Team hingegen qualifizierte sich für die Junioren-WM. Dort konnte das unerfahrene Team am 9. Juli 2007 durch einen 2:1-Erfolg über das portugiesische Team den Einzug in das Achtelfinale der U-20-Weltmeisterschaft in Kanada perfekt machen, wo es sich allerdings Österreich mit 1:2 geschlagen geben musste. Wrestling. Volkssport mit großer Tradition unter den Männern, vor allem der Ethnie der Diola, ist das afrikanische Wrestling, eine Form des Ringkampfes. Dieses Wrestling hat in Gambia eine ähnliche Stellung wie das Sumō-Ringen in Japan. Unter den Herrscherfamilien gab es schon im 11. Jahrhundert Ringerwettkämpfe. Heute wird der Wettkampf in jedem Dorf, besonders im Süden an der Grenze zu der senegalesischen Region Casamance, ausgetragen. Sehenswürdigkeiten. Als Wahrzeichen des Landes und der Hauptstadt gilt das Arch 22. Die Geschichte des Landes ist im National Museum in Banjul, in der noch einige Gebäude aus kolonialer Zeit erhalten sind, zu erkunden. Weitere koloniale Reste sind unter anderem auf James Island, in Juffure und in Janjanbureh (früher "Georgetown") zu finden. Von der Lamin Lodge lässt sich gut das Ökosystem Mangrovenwald im Tanbi Wetland Complex beobachten. Der Abuko Nature Reserve zeigt anschaulich einen Galeriewald. Schwer erreichbar ist das Mungo-Park-Memorial bei Karantaba Tenda. Größtenteils ungeklärt sind noch die Herkunft und der Zweck der megalithischen Steinkreise von Wassu. Ähnliche Anlagen sind sogar in der gesamten Region zu finden. Feiertage. Die elf gesetzlichen Feiertage gründen sich auf die beiden Nationalfeiertage am 18. Februar ("Independence Day") und am 22. Juli ("Republic Day") und die religiösen Feiertage der beiden größten im Land vertretenen Religionen. Trotz der Mehrheit der muslimischen Bevölkerung haben die christlichen Feiertage ihren Platz, dies liegt begründet in der britischen Kolonialgeschichte. Der Sonntag ist seit der Kolonialzeit wöchentlicher Ruhetag. Fällt ein Feiertag auf einen Sonntag, so wird er auf den folgenden Montag verschoben, der dann arbeitsfrei ist. Der Freitag ist der Gebetstag der Moslems, strenggläubige halten nach dem Mittagsgebet am Freitag ihre Geschäfte geschlossen. Umwelt. Die häufigsten Naturkatastrophen, die das Land bedrohen, sind Buschfeuer, Dürren, Küstenerosion, Überschwemmungen, Sandstürme und Heuschreckenplagen. Seit den 1970er-Jahren kommt es – zusammen mit Buschbränden – zu häufigerem Auftreten von Dürrekatastrophen. Seit Mitte der 1980er-Jahre treten Sandstürme, die mehr als drei Tage dauern, fast jährlich auf. In den letzten zwanzig Jahren sind weite Abschnitte der Küstenlinie zwischen Banjul und Tanji durch Erosion bei Sturmfluten beschädigt worden, wobei es auch zu erheblichen Verlusten an Besitztümern gekommen ist. Seit kurzem treten Überschwemmungen des Flusses jährlich auf, die in vielen Teilen des Landes Felder und Gebäude beschädigen. Im Jahr 2004 bekämpfte die gesamte westafrikanische Region eine riesige Population Heuschrecken. Die gambische Regierung rief deshalb vorsorglich den Notstand aus. Die Erweiterung der Ackerflächen, Überweidung durch Viehwirtschaft, Buschbrände und unerlaubter Holzeinschlag hat den Waldanteil von ungefähr 70 Prozent in den sechziger Jahren auf weniger als neun Prozent im Jahr 2000 verringert. Naturschutzgebiete. Der Abuko Nature Reserve ist das bekannteste Naturschutzgebiet in Gambia. Der 1968 eingerichtete etwa hundert Hektar große Park liegt ungefähr zwanzig Kilometer südlich der Kombo-St. Mary Area. Glas. Glas (von germanisch "glasa" „das Glänzende, Schimmernde“, auch für „Bernstein“) ist ein Sammelbegriff für eine Gruppe amorpher Feststoffe. Die meisten Gläser bestehen hauptsächlich aus Siliciumdioxid, wie Trink- oder Fenstergläser; diese – meist lichtdurchlässigen – Silikat-Gläser haben wirtschaftlich die weitaus größte Bedeutung aller Gläser. Auch amorph erstarrte Metalle sind Gläser. Gläser aus organischen Materialien sind beispielsweise der natürliche Bernstein oder viele Kunststoffe wie Acrylglas. Durch sehr schnelles Abkühlen aus dem flüssigen oder gasförmigen Zustand kann nahezu jeder Stoff in ein (metastabiles) Glas überführt werden. Es gibt eine sehr große Anzahl von Gläsern verschiedener Zusammensetzungen, die aufgrund ihrer Eigenschaften von wirtschaftlichem oder wissenschaftlichem Interesse sind. Wegen der breiten Palette von Anwendungen für Gläser gibt es auch vielfältige Techniken zu deren Erzeugung und Formgebung. Viele dieser Techniken sind bereits sehr alt und werden – von ihrem Grundprinzip her unverändert – auch heute noch industriell umgesetzt. Definition. Glas ist eine amorphe Substanz. Gewöhnlich wird Glas durch Schmelzen erzeugt, die Bildung von Glas ist aber auch durch die Erwärmung von Sol-Gel und durch Stoßwellen möglich. Thermodynamisch wird Glas als gefrorene, unterkühlte Flüssigkeit bezeichnet. Diese Definition gilt für alle Substanzen, die geschmolzen und entsprechend schnell abgekühlt werden. Das bedeutet, dass sich bei der Erstarrung der Schmelze zum Glas zwar Kristallkeime bilden, für den Kristallisationsprozess jedoch nicht genügend Zeit bleibt. Das erstarrende Glas ist zu schnell fest, um noch eine Umordnung der Bausteine zu einem Kristall zu erlauben. Vereinfachend dargestellt entspricht somit der atomare Aufbau eines Glases "in etwa" dem einer Flüssigkeit. Der Transformationsbereich, das ist der Übergangsbereich zwischen Schmelze und Feststoff, liegt bei vielen Glasarten um 600 °C. Trotz des nicht definierten Schmelzpunkts sind Gläser Festkörper. Allerdings werden sie in der Fachterminologie als „nichtergodisch“ bezeichnet. Das heißt, ihre Struktur befindet sich nicht im thermodynamischen Gleichgewicht. Viele Kunststoffe, wie zum Beispiel Plexiglas, fallen wegen ihres amorphen Aufbaus und eines Glasübergangs ebenfalls in die Kategorie Gläser, obwohl sie eine völlig andere chemische Zusammensetzung aufweisen als Silikatgläser. Sie werden daher oft als organisches Glas bezeichnet. Der Unterschied zwischen Gläsern und anderen amorphen Feststoffen liegt darin, dass Gläser beim Erhitzen im Bereich der Glasübergangstemperatur in den flüssigen Zustand übergehen, während nicht glasartige amorphe Substanzen dabei kristallisieren. Aus der Beobachtung der Eigenschaften der Gläser und ihrer Struktur wurden viele Versuche angestrengt, eine umfassende Definition für den Begriff Glas zu geben. Der anerkannte Glaswissenschaftler Horst Scholze führte eine Auswertung der gängigsten Definitionsversuche des Begriffs Glas durch. G. Tamman definierte 1933 den Glaszustand folgendermaßen: „"Im Glaszustand befinden sich die festen, nicht kristallisierten Stoffe."“, während die ASTM 1945 als Definition „"Glas ist ein anorganisches Schmelzprodukt, das im wesentlichen ohne Kristallisation erstarrt."“ vorschlug. F. Simon gab bereits 1930 eine Definition aus thermodynamischer Sicht: „"Im physikochemischen Sinn ist Glas eine eingefrorene unterkühlte Flüssigkeit."“. Nach Scholze haben alle dieser Definitionen ihre Berechtigungen, jedoch auch ihre Schwächen. So ist die Definition nach Tamman zu allgemein und schließt Kieselgel, das ebenfalls ein nichtkristalliner Festkörper ist, nicht als Glas aus. Die Beschränkung der ASTM-Definition auf anorganische Substanzen wurde von Scholze als bedenklich bewertet, da mittlerweile einige organische Gläser bekannt sind. Eine umfassende Definition wurde von der Kommission für Terminologie der UdSSR gegeben: „"Als Gläser werden alle amorphen Körper bezeichnet, die man durch Unterkühlung einer Schmelze erhält, unabhängig von ihrer chemischen Zusammensetzung und dem Temperaturbereich ihrer Verfestigung und die infolge der allmählichen Zunahme der Viskosität die mechanischen Eigenschaften der fester Körper annehmen. Der Übergang aus dem flüssigen in den Glaszustand muß dabei reversibel sein."“ Die Beschränkung der Gläser auf Festkörper, die aus einer Schmelzphase erhalten wurden, ist aus heutiger Sicht ebenfalls bedenklich, da auch der Sol-Gel-Prozess amorphe Festkörper bzw. Gläser hervorbringen kann. Die Besonderheit des Glaszustandes der Materie geht soweit, dass einige Forscher ihn als „vierten Aggregatzustand zwischen Festkörper und Flüssigkeit“ ansahen. Einteilung der Gläser. Die Glasindustrie wird gewöhnlich in Hohlglas-, Flachglas- und Spezialglasherstellung gegliedert, auch wenn diese einfache Gliederung nicht alle Bereiche der Glasindustrie erfasst. Hohlglas bezeichnet in der Regel Behältnisse für Lebensmittel, wie beispielsweise Flaschen und Konservengläser. Diese Massenprodukte werden maschinell im Press-Blas- oder Blas-Blas-Prozess gefertigt. Glasbausteine und Trinkgläser werden nur durch einen Pressvorgang geformt. Höherwertige Produkte wie Weingläser, werden als sogenanntes Tableware bezeichnet und meist in einem aufwendigen mehrstufigen Prozess hergestellt. Im Gegensatz zu den Glasflaschen werden sie nicht mit Hilfe von IS-Maschinen, sondern sogenannten Rotationsblasmaschinen produziert. Für Glühlampen ist ein besonderes Verfahren notwendig, welches sich besonders durch die hohen Produktionsgeschwindigkeiten der Ribbonmaschine auszeichnet. Rohrglas kann nach verschiedenen Verfahren hergestellt werden, welche sich durch die unterschiedlichen Abmessungen des herzustellenden Halbzeugs unterscheiden. Flachglas wird je nach Produktionsverfahren Floatglas oder Walzglas genannt. Das Grundprodukt ist eine Glasscheibe. Endprodukte sind z. B. Automobilglas, Spiegel, Temperglas oder Verbundglas, welche auf verschiedenste Weise nachbearbeitet wurden. Anwendungen in Form von Fasern umfassen Lichtwellenleiter, Glaswolle und glasfaserverstärkten Kunststoff sowie Textilglas. Mundgeblasene Gläser existieren praktisch nur noch im Kunstgewerbe sowie bei kostspieligen Vasen und Weingläsern. Häufig hat sich der Markenname eines Glasherstellers als Sammelbegriff für verschiedene Produkte eines oder sogar mehrerer Glashersteller eingebürgert. Ceran wird sehr oft als Synonym für Glaskeramiken oder Kochfelder verwandt. Jenaer Glas steht umgangssprachlich oft für alle Varianten von hitzefestem Borosilikatglas. Im angelsächsischen Raum hat sich der Markenname Pyrex von Corning für diese Sorte von Gläsern eingebürgert. Struktur. Obwohl Glas zu den ältesten Werkstoffen der Menschheit gehört, besteht noch Unklarheit in vielen Fragen des atomaren Aufbaus und seiner Struktur. Die mittlerweile allgemein anerkannte Deutung der Struktur ist die Netzwerkhypothese, die 1932 von W. H. Zachariasen aufgestellt und B.E. Warren 1933 experimentell bekräftigt wurde. Diese besagt, dass im Glas grundsätzlich dieselben Bindungszustände oder Grundbausteine wie in einem Kristall vorliegen müssen. Im Falle silikatischen Glases also die SiO4-Tetraeder, welche aber im Gegensatz zu einem Quarzkristall ein regelloses Netzwerk bilden. Um die Glasbildung weiterer chemischer Verbindungen vorhersagen zu können, stellte Zachariasen weitere Regeln in seiner Netzwerkhypothese auf. Unter anderem muss ein Kation in einer Verbindung relativ klein im Verhältnis zum Anion sein. Die sich bildenden Polyeder aus den Anionen und Kationen dürfen nur über deren Ecken verbunden sein. Werden die betrachteten Verbindungen auf Oxide beschränkt, so erfüllen unter anderen Phosphorpentoxid (P2O5), Siliziumdioxid (SiO2) und Bortrioxid (B2O3) diese Bedingungen zur Netzwerkbildung und werden daher als Netzwerkbildner bezeichnet. Wie die zweidimensionalen Abbildungen des Quarzes und des Quarzglases zeigen, liegt der Unterschied in der Regelmäßigkeit des atomaren Aufbaus. Beim Quarz, welcher ein Kristall ist, liegt ein Gitteraufbau vor – beim Quarzglas hingegen ein regelloses Netzwerk von aneinandergereihten SiO4-Tetraedern. Zur besseren Anschaulichkeit ist die vierte Oxidbindung, die aus der Zeichenebene hinaus ragen würde, nicht dargestellt. Die Bindungswinkel und Abstände im Glas sind nicht regelmäßig und die Tetraeder sind ebenfalls verzerrt. Der Vergleich zeigt, dass Glas ausschließlich über eine Nahordnung in Form der Tetraeder verfügt, jedoch keine kristalline Fernordnung aufweist. Diese fehlende Fernordnung ist auch verantwortlich für die sehr schwierige Analyse der Glasstruktur. Insbesondere die Analyse in mittlerer Reichweite, also die Verbindungen mehrerer Grundformen (hier den Tetraedern), ist Gegenstand der Forschung und wird zu den heutigen größten Problemen der Physik gezählt. Das liegt zum Einen daran, dass Gläser röntgenographischen Untersuchungen nur sehr schwer zugänglich sind und zum Anderen die strukturbildenden Prozesse teilweise bereits in der Schmelze beginnen, wobei die vorliegenden Temperaturen eine genaue Untersuchung zusätzlich erschweren. Das Material, das diese Grundstruktur des Glases bestimmt, heißt Netzwerkbildner. Neben dem erwähnten Siliciumoxid können auch andere Stoffe Netzwerkbildner sein, wie Bortrioxid und auch nichtoxidische wie Arsensulfid. Einkomponentengläser sind jedoch sehr selten. Das trifft auch auf reines Quarzglas zu, das als einziges Einkomponentenglas wirtschaftliche Bedeutung hat. Die Ursache hierfür sind die enorm hohen Temperaturen (über 2000 °C) welche zu dessen Erzeugung notwendig sind. Weitere Stoffe binden sich anders in das Glasnetzwerk der Netzwerkbildner ein. Hier werden Netzwerkwandler und Stabilisatoren (oder auch Zwischenoxide) unterschieden. Netzwerkwandler werden in das vom Netzwerkbildner gebildete Gerüst eingebaut. Für gewöhnliches Gebrauchsglas – Kalk-Alkali-Glas (gebräuchlicher ist allerdings der engere Terminus "Kalk-Natron-Glas") – sind dies Natrium- bzw. Kaliumoxid und Calciumoxid. Diese Netzwerkwandler reißen die Netzwerkstruktur auf. Dabei werden Bindungen des Brückensauerstoffs in den Siliciumoxid-Tetraedern aufgebrochen. Anstelle der Atombindung mit dem Silicium geht der Sauerstoff eine deutlich schwächere Ionenbindung mit einem Alkaliion ein. Zwischenoxide wie Aluminiumoxid können als Netzwerkbildner und -wandler fungieren, das heißt, sie können ein Glasnetzwerk verfestigen (stabilisieren) oder genau wie die Netzwerkwandler die Strukturen schwächen. Ihre jeweilige Wirkung in einem Glas ist stets abhängig von einer Reihe von Faktoren. Allerdings sind Zwischenoxide allein nicht zur Glasbildung fähig. Übergang von der Schmelze zum festen Glas. Während bei kristallinen Materialien der Übergang von der Schmelze zum Kristall bei einer bestimmten Temperatur spontan erfolgt, geht dieser Vorgang bei Gläsern allmählich vonstatten. Das ist dann nicht ein Schmelz"punkt", sondern ein Transformations"bereich". Im Laufe der Abkühlung nimmt die Viskosität des Materials stark zu. Dies ist das äußere Zeichen für eine zunehmende innere Struktur. Da diese Struktur kein regelmäßiges Muster aufweist, heißt der Zustand der Schmelze im Transformationsbereich, wie auch des erstarrten Glases, amorph. Am kühlen Ende des Transformationsbereichs liegt ein thermodynamischer Übergang, der für Glas charakteristisch ist und daher den Namen Glasübergang trägt. An ihm wandelt sich die Schmelze in den festen, glasartigen Zustand, den das Glas auch bei weiterer Abkühlung beibehält. Der Glasübergang zeichnet sich durch eine sprunghafte Änderung des Wärmeausdehnungskoeffizienten sowie eine Abnahme der spezifischen Wärme formula_1 aus. Diese Abfolge von Transformationsbereich und Glasübergang ist charakteristisch für alle Gläser, auch solche, die wie Plexiglas aus Kohlenwasserstoffen bestehen. Der amorphe, viskose Zustand der Schmelze im Transformationsbereich wird für die Bearbeitung von Glas durch Glasbläserei ausgenutzt. Er erlaubt eine beliebige Verformung, ohne dass Oberflächenspannung und Gravitation das Werkstück sofort zerfließen lassen. Physikalische Eigenschaften. Die im allgemeinen Sprachgebrauch tragende Eigenschaft von Glas ist die optische Durchsichtigkeit. Die optischen Eigenschaften sind so vielfältig, wie die Anzahl der Gläser. Neben klaren Gläsern, die in einem breiten Band für Licht durchlässig sind, kann die Zugabe von speziellen Materialien zur Schmelze die Durchlässigkeit blockieren. Zum Beispiel werden damit optisch klare Gläser für infrarotes Licht undurchdringbar, die Wärmestrahlung ist blockiert. Die bekannteste Steuerung der Durchlässigkeit ist die Färbung. Die verschiedensten Farben können erzielt werden. Andererseits gibt es undurchsichtiges Glas, das schon aufgrund seiner Hauptkomponenten oder der Zugabe von Trübungsmitteln opak ist. Gebrauchsglas hat eine Dichte von ca. 2500 kg/m³ ("Kalk-Natron-Glas"). Die mechanischen Eigenschaften variieren sehr stark. Die Zerbrechlichkeit von Glas ist sprichwörtlich. Die Bruchfestigkeit wird stark von der Qualität der Oberfläche bestimmt. Glas ist weitgehend resistent gegen Chemikalien. Eine Ausnahme ist Flusssäure; sie löst das Siliciumdioxid und wandelt es zu Hexafluorokieselsäure. Durch Verwitterung, bspw. jahrzehntelange Lagerung im Erdreich, entstehen mikroskopisch feine Risse an der Glasoberfläche, die sogenannte Glaskrankheit. Klarglas erscheint dann für das menschliche Auge trüb. Bei Raumtemperatur hat Kalk-Natron-Glas einen hohen elektrischen Widerstand, der allerdings mit steigender Temperatur stark abfällt. Quarzglas (glasartig erstarrtes reines Siliciumdioxid) ist auch noch bei deutlich höheren Temperaturen ein Isolator. Neben den Silikatgläsern gibt es aber auch sog. metallische Gläser wie Fe80B20, die bereits bei Raumtemperatur höhere Leitfähigkeiten besitzen, weil sie sich ähnlich wie eingefrorene flüssige Metalle verhalten. Wegen seiner Natur als unterkühlte Schmelze kann Glas auch in sehr begrenztem Umfang fließen. Dieser Effekt macht sich aber erst bei höheren Temperaturen bemerkbar. Die häufige Behauptung, dass Kirchenfenster unten dicker seien, weil das Glas im Laufe der Jahrhunderte durch die Schwerkraft nach unten geflossen sei, ist falsch, derartige Fließvorgänge hätten bei Raumtemperatur Jahrmillionen benötigt. Die Verdickung ist auf das damalige Produktionsverfahren (Zylinderblasen) zurückzuführen. Gemenge. Für Spezialgläser kommen auch Mennige, Borax, Bariumcarbonat und seltene Erden zum Einsatz. Schmelze. Doghouse der Schmelzwanne mit Einlegemaschine Bei chargenweise arbeitenden Tageswannen und Hafenöfen geschehen diese Schritte nacheinander in demselben Becken. Dieses historische Produktionsverfahren findet heute nur noch bei kunsthandwerklicher Produktion und speziellen, optischen Gläsern in geringen Mengen statt. Im industriellen Maßstab finden ausschließlich kontinuierlich arbeitende Öfen Verwendung. Hier ist die Abfolge obiger Schritte nicht zeitlich, sondern räumlich getrennt, auch wenn die einzelnen Abschnitte fließend ineinander übergehen. Die Menge des zugeführten Gemenges muss derjenigen der Glasentnahme entsprechen. Die notwendige Energie zum Erschmelzen des Glases kann durch fossile Brennstoffe oder elektrische Energie, mittels Stromdurchgang durch die Schmelze, erbracht werden. Das Gemenge wird der Schmelzwanne mit einer Einlegemaschine am Einlegevorbau, dem Doghouse, aufgegeben. Da das Gemenge eine geringere Dichte als die Glasschmelze besitzt, schwimmt dieses auf der Schmelze und bildet den sogenannten Gemengeteppich. Bei Temperaturen von ca. 1400 °C und mehr schmelzen die verschiedenen Bestandteile langsam auf. Einige der Gemengebestandteile können zusammen Eutektika bilden und bereits bei wesentlich geringeren Temperaturen erste Schmelzphasen bilden. Die Konvektion im Glasbad bewirkt einen kontinuierlichen Abtransport von Material, das sich vom Gemengeteppich löst. Gleichzeitig bewirkt sie eine Erwärmung des Gemenges. Somit erzeugt sie sowohl eine thermische, als auch eine chemische Homogenität der Schmelze. Diese kann durch ein Bubbling, die Eindüsung von Luft oder Gasen in die Schmelze, unterstützt werden. Im Läuterbereich, der dem Schmelzbereich unmittelbar folgt, und häufig auch durch einen Wall in der Schmelze von diesem getrennt ist, werden in der Schmelze verbliebene Gase ausgetrieben. Zu diesem Zweck wird dem Gemenge zuvor ein sogenanntes Läutermittel zugegeben. Dieses Läutermittel zersetzt sich bei einer bestimmten Temperatur unter Gasbildung. Aufgrund von Partialdruckdifferenzen diffundieren nun Gase aus der Schmelze in die Läutermittel-Gasblasen ein, welche dadurch anwachsen und aufsteigen. Um diesen Prozess in wirtschaftlich vertretbaren Zeiten durchführen zu können, herrschen im Läuterteil einer Glasschmelzwanne ähnlich hohe Temperaturen wie im Schmelzteil, weil eine zu hohe Viskosität der Schmelze das Aufsteigen der Gasblasen stark verlangsamen würde. Da die Läuterung bestimmend für die Glasqualität ist, gibt es vielfältige unterstützende Maßnahmen. Dem Läuterbereich schließt sich die baulich klar getrennte Arbeitswanne an. Da für die Formgebung niedrigere Temperaturen als zur Schmelze und Läuterung nötig sind, muss das Glas vorher abstehen, das Gefäß heißt daher auch "Abstehwanne". Der Kanal, der Schmelzwanne und Arbeitswanne verbindet, wird "Durchlass" genannt und arbeitet nach dem Siphon­prinzip. Bei Flachglaswannen sind Schmelz- und Arbeitswanne nur durch eine Einschnürung getrennt, da ein Durchlass eine optische Unruhe im Fertigprodukt entstehen ließe. Von der Arbeitswanne fließt das Glas weiter zum Entnahmepunkt, wo dann die Formgebung stattfindet. Bei der Produktion von Hohlglas sind dieses die Speiser oder Feeder. Hier werden Tropfen erzeugt, die über ein Rinnensystem in darunter stehende Glasmaschinen geleitet werden. Bei der Flachglasherstellung nach dem Floatglasverfahren fließt das Glas über einen Lippstein in das Floatbad. Kühlung. Mit Hilfe der Doppelbrechung von polarisiertem Licht sichtbar gemachte Spannungen in Glas In jedem Glasgegenstand entstehen bei der Formgebung mechanische Spannungen als Folge einer Zwangsformgebung oder Dehnungsunterschiede im Material aufgrund von Temperaturgradienten. Diese Spannungen lassen sich mit optischen Spannungsprüfern unter polarisiertem Licht geometrisch messen (Spannungsdoppelbrechung). Die Spannungsanfälligkeit hängt vom Ausdehnungskoeffizienten des jeweiligen Glases ab und muss thermisch ausgeglichen werden. Für jedes Glas lässt sich ein Kühlbereich festlegen, welcher von der sogenannten "oberen" und "unteren Kühltemperatur" begrenzt wird. Die Lage dieser Temperaturen definiert sich nach der Viskosität, so ist die obere Kühltemperatur diejenige Temperatur bei der das Glas eine Viskosität von 1012 Pa·s besitzt. Bei der unteren Kühltemperatur liegt eine Viskosität 1013,5 Pa·s vor. In der Regel erstreckt sich der Kühlbereich, für die meisten kommerziell genutzten Gläser, zwischen 590 °C und 450 °C. Die Spannungen werden durch Tempern verringert, also durch definiertes langsames Abkühlen, da bei den hier vorherrschenden Viskositäten eine Spannungsrelaxation gerade noch möglich ist und bleibende Spannungen im Glaskörper vermieden werden. Die Zeit, in der ein Glasgegenstand den Kühlbereich durchlaufen kann, hängt maßgeblich von der je nach Glasart zu überbrückenden Temperatur und der Stärke (Dicke) des Gegenstands ab. Im Hohlglasbereich sind dies zwischen 30 und 100 Minuten, bei großen optischen Linsen mit 1 m Durchmesser und mehr kann eine langsame Abkühlung von einem Jahr notwendig sein, um sichtbare Spannungen und somit Bildverzeichnungen der Linse zu vermeiden. Es gibt zwei Arten von Kühlaggregaten, die zum Entspannungskühlen von Glasgegenständen genutzt werden können: die periodisch arbeitenden Kühlöfen und kontinuierlich betriebene Kühlbahnen. In der Praxis geschieht jedoch zumeist keine klare Abgrenzung zwischen diesen beiden Fällen, so wird beispielsweise das kontinuierlich betriebene Kühlaggregat in der Flachglasindustrie häufig als Rollenkühlofen bezeichnet. Kühlöfen eignen sich nur für Sonderfertigungen und Kleinstchargen, da nach jeder Entnahme der Werkstücke der Ofen wieder auf Temperatur gebracht werden muss. Industriell werden Kühlbahnen genutzt. In der Hohlglasindustrie erfolgt der Transport der Glasgegenstände auf Stahlmatten oder Kettenbändern durch die Kühlbahn, während das kontinuierliche Glasband in der Flachglasindustrie mittels Rollen durch die Kühlbahn transportiert wird. Vor den Kühlbahnen (regional auch Kühlbänder genannt) wurden für mittlere Sortimente sogenannte Zugöfen verwendet. Nachdem der Zug im Ofen mit Gläsern gefüllt war, wurde der eine Wagen aus dem Ofen heraus- und ein leerer Wagen hereingefahren. Der heiße Wagen wurde mit isolierten Blechen verhängt und konnte langsam abkühlen, bevor er entleert wurde. Pro Schicht wurden meist drei Wagenwechsel durchgeführt. Die bisher geschilderten Vorgänge lassen sich unter dem Begriff des "Entspannungskühlen", also dem Kühlen eines Glaskörper mit dem Zweck bleibende Spannungen zu vermeiden, zusammenfassen. Als einen umgekehrten Fall kann das thermische Vorspannen von Glas zur Herstellung von beispielsweise Einscheibensicherheitsglas betrachtet werden. Dabei wird das Glas von einer Temperatur oberhalb seiner Transformationstemperatur so schnell abgekühlt, dass die thermisch erzeugten Spannungen nicht mehr abgebaut werden können. Infolgedessen entstehen im Glasvolumen Zugspannungen und in der Glasoberfläche Druckspannungen, die ursächlich für eine gesteigerte Festigkeit und Temperaturwechselbeständigkeit des Glaskörpers sind. Oberflächenveredelung. Eine durch Ätzen kunstvoll verzierte Scheibe. Eine Oberflächenveredelung entsteht durch das Aufbringen von Schichten oder das Abtragen von Schichten, sowie das Modifizieren der Struktur oder der Chemie der Glasoberfläche. Sinn und Zweck solcher Maßnahmen ist die Verbesserung der bestehenden Gebrauchseigenschaften eines Glasgegenstandes oder die Erzeugung neuer Anwendungsgebiete für einen Glasgegenstand. Glasfärbung und Entfärbung. a> ist wegen Fe2+-Verunreinigungen in dickeren Schichten grün Grundsätze. Die meisten Glassorten werden mit weiteren Zusatzstoffen produziert, um bestimmte Eigenschaften, wie ihre Färbung, zu beeinflussen. Grundsätzlich werden bei Gläsern drei Farbgebungsmechanismen unterschieden, die Ionenfärbung, die kolloidale Färbung und die Anlauffärbung. Während die erstgenannte Möglichkeit hauptsächlich auf der Wechselwirkung des Lichtes mit den Elektronenhüllen der farbgebenden Elemente beruht, treten bei den letzten beiden unterschiedlichste Beugungs-, Reflexions- und Brechungserscheinungen des Lichts auf, die stark abhängig von dispergierten Phase sind. Im Falle der Anlauffärbung handelt es sich um eine Elektronenanregung im Kristallgitter des Chromophors. Ionenfärbung. Als färbende Substanzen in Gläsern werden Metalloxide, sehr häufig 3d-Elemente, eingesetzt. Die Entstehung der Farbwirkung beruht auf der Interaktion der äußeren Elektronen mit elektromagnetischen Wellen. Dabei kann es zur Absorption bestimmter Wellenlängen und zur Emission anderer Wellenlängen kommen. Werden Wellenlängen des sichtbaren Lichtes absorbiert, entsteht eine Farbwirkung, da das übriggebliebene Wellenlängenspektrum kein weißes Licht mehr ergibt. Die Färbung kann also als eine selektive Transmission betrachtet werden. Die tatsächliche Färbung eines Glases ist von einer Vielzahl von Parametern abhängig. Neben der Konzentration der farbgebenden Ionen ist auch deren Koordination und die umgebende Glasstruktur von entscheidender Bedeutung. Beispielsweise ergibt Cobalt(II)-oxid in einem Silikatglas einen anderen Blauton als in einem Phosphatglas. Um einen speziellen Farbton zu erhalten, können die verschiedenen farbgebenden Oxide miteinander kombiniert werden, jedoch müssen dabei eventuell auftretende Wechselwirkungen beachtet werden. Anlauffärbung. Zu den Anlaufgläsern gehören die durch Chalkogenide gefärbten Gläser, die hauptsächlich in silikatischen Gläsern mit hohen Zink- und Kaliumoxid­gehalten Anwendung finden. Am häufigsten werden hierfür Cadmiumsulfid oder Cadmiumselenid in geringen Prozentbereichen zugegeben, aber auch andere Metallchalkogenide sind denkbar. Das Glas wird unter reduzierenden Bedingungen erschmolzen, wobei zunächst farbloses Glas entsteht. Erst eine anschließende Temperung bewirkt, dass die Gläser farbig werden – sie "laufen an". Mit zunehmender Dauer wandert die UV-Kante des Glases immer mehr in den sichtbaren Bereich hinein. Durch eine gezielte Temperung können somit unterschiedliche Farbwirkungen erzielt werden. Ursache für dieses Verhalten sind mikroskopische (Cadmium-)Chalkogenidkristalle, die sich während des Temperns bilden und mit andauernder Temperzeit weiter wachsen. Es handelt sich also um eine gesteuerte Entglasung. Untersuchungen zeigten, dass sich mit zunehmender Kristallisation des Chalkogenids die Verbotene Zone zwischen Valenz- und Leitungsband vergrößert, was die Ursache für die Verschiebung der UV-Kante in den sichtbaren Bereich ist. Aufgrund ihrer scharfen Farbkante werden diese Gläser häufig als Filtergläser eingesetzt. Kolloidale Färbung. Kolloidalgefärbte Gläser werden oft auch als "(echte) Rubingläser" bezeichnet. Bei diesen Gläsern werden Metallsalze der Schmelze zugegeben. Zunächst ergibt sich ebenfalls ein farbloses Glas. Durch eine anschließende Temperaturbehandlung werden Metalltröpfchen aus der Glasmatrix ausgeschieden und wachsen an. Die Farbwirkung der Kolloide beruht sowohl auf der Absorption des Lichtes durch die Teilchen als auch der Rayleigh-Streuung des Lichtes an ihnen. Je größer die erzeugten Kolloide werden, umso mehr nimmt ihre Extinktion zu. Gleichzeitig verschiebt sich die Wellenlänge ihrer maximalen Absorption zu langwelligerem Licht hin. Außerdem nimmt mit zunehmender Kolloidgröße der Effekt der Streuung zu, jedoch muss hierfür die Größe des Kolloids sehr viel kleiner als die Wellenlänge des zu streuenden Lichtes sein. Farbwirkung einzelner Bestandteile (Auswahl). Durch Eisen und Schwefel ("Kohlegelb") braungefärbte Flaschen Die nachfolgende Liste enthält einige der häufigeren zur Färbung genutzten Rohstoffe, unabhängig von deren Farbgebungsmechanismus. Entfärbung von Gläsern. Die Entfärbung eines Glases ist dann notwendig, wenn durch Verunreinigungen der Rohstoffe größere Mengen an farbgebenden Bestandteilen im Glas vorhanden sind ("ungewollter Farbeffekt"), oder falls in der regulären Glasproduktion ein Erzeugnis anderer Farbe hergestellt werden soll. Die Entfärbung eines Glases kann sowohl chemisch, als auch physikalisch geschehen. Unter der "chemischen Entfärbung" werden Änderungen an der Chemie des Glases verstanden, die zur Folge haben, dass die Färbung reduziert wird. Dies kann im einfachsten Fall durch eine Veränderung der Glaszusammensetzung geschehen. Sollten polyvalente Elemente in der Schmelze vorliegen, entscheidet neben deren Konzentration auch deren Oxidationszustand über die Farbwirkung. In diesem Fall kann ein veränderter Redoxzustand einer Glasschmelze die Farbwirkung des fertigen Produktes ebenfalls beeinflussen. Sofern eine Färbung des Glases durch Chalkogenide (Anlauffärbung) verursacht ist, kann der Schmelze Oxidationsmittel zugegeben werden. Diese bewirken eine Zersetzung der Chalkogenide in der Glasschmelze. Eine weitere Möglichkeit, Fehlfarben in einem Glas zu kompensieren, stellt die "physikalische Entfärbung" dar. Dazu werden kleinste Mengen farbgebender Bestandteile der Schmelze zugegeben. Grundsätzlich dient die komplementäre Farbe zur Beseitigung von Farbstichen. Dadurch entsteht der Effekt eines farblosen Glases. Mit steigender Intensität der ursprünglichen Fehlfärbung werden auch höhere Mengen an Entfärbungsmitteln notwendig, wodurch das Glas zwar farblos, aber zunehmend dunkler wirkt. Entfärbemittel werden Glasmacherseifen (auch "Glasseifen") genannt. Phototropie und Elektrotropie. Hierbei handelt es sich um Färbungen und Entfärbungen, die unter dem Einfluss von mehr oder weniger Sonnenlicht zustande kommen; sie eignen sich für bei starkem Sonnenlicht automatisch dunkel werdende Brillengläser. Ein ähnlicher Effekt ist mit einem veränderlichen elektrischen Feld erzielbar; er wird u. a. für verdunkelbare Windschutzscheiben verwendet. Einstellung der Glaseigenschaften allgemein. a> durch Wasser (Korrosionstest ISO 719) Glaseigenschaften können mittels statistischer Analyse von Glasdatenbanken ermittelt und optimiert werden. Sofern die gewünschte Glaseigenschaft nicht mit Kristallisation (z. B. Liquidustemperatur) oder Phasentrennung in Zusammenhang steht, ist einfache lineare Regressionsanalyse anwendbar, unter Zuhilfenahme algebraischer Gleichungen der ersten bis zur dritten Ordnung. Viele Verfahren zur Vorausberechnung von Glaseigenschaften sind hauptsächlich empirischer Natur. Die nachstehende Gleichung zweiter Ordnung ist ein Beispiel, wobei "C" die Konzentrationen der Glaskomponenten wie Na2O oder CaO darstellen. Die "b"-Werte sind variable Koeffizienten, und "n" ist die Anzahl aller Glaskomponenten. Der Glas-Hauptbestandteil SiO2 ist in der dargestellten Gleichung ausgeschlossen und wird mit der Konstante "bo" berücksichtigt. Der Großteil der Glieder in der Beispielgleichung kann aufgrund von Korrelations- und Signifikanzanalyse vernachlässigt werden. Weitere Einzelheiten und Anwendungen siehe. Oft ist es erforderlich, mehrere Glaseigenschaften sowie die Produktionskosten gleichzeitig zu optimieren. Dies geschieht mit der Methode der kleinsten Quadrate, wodurch der Abstand zwischen den gewünschten Eigenschaften und den vorausberechneten einer fiktiven Glassorte durch Variation der Zusammensetzung minimiert wird. Es ist möglich, die gewünschten Eigenschaften unterschiedlich zu wichten. Frühzeit. Eine Messerklinge aus dem natürlichen Glas Obsidian a>fläschchen aus dem römischen Vicus "Turicum" Natürliches Glas wie Obsidian wurde wegen seiner großen Härte und des scharfen Bruchs seit frühester Zeit für Werkzeuge wie Keile, Klingen, Schaber und Bohrer benutzt. Obsidian kann jedoch – anders als künstlich hergestelltes Glas – mit antiken Mitteln nicht geschmolzen oder gefärbt werden. Ob die Glasherstellung in Mesopotamien, in Ägypten oder an der Levanteküste erfunden wurde, lässt sich nicht mit letzter Gewissheit sagen. Die ältesten Glasfunde stammen aus Mesopotamien; ägyptische Quellen deuten für die Anfangsphase der Glasnutzung in Ägypten auf einen Import aus dem Osten hin. Die älteste textliche Erwähnung stammt aus Ugarit und wird auf etwa 1600 v. Chr. datiert. Als älteste Funde gelten die Nuzi-Perlen. Das älteste sicher zu datierende Glasgefäß ist ein Kelch, der den Namen des ägyptischen Pharaos Thutmosis III. trägt und um 1450 v. Chr. entstand. Der Kelch befindet sich seit dem 20. Jahrhundert im Staatlichen Museum Ägyptischer Kunst in München. Glas wurde in Ägypten seit etwa 1450 v. Chr. zu Gefäßen verarbeitet (siehe unten). Der Herstellungsort dieses frühesten Glases ist allerdings unbekannt, er wird in Theben vermutet, dem heutigen Luxor. Die bekannteste Verarbeitungstechnik beruht auf dem Herstellen von Hohlgefäßen durch das Wickeln von erweichten Glasstäbchen um einen porösen Keramikkern, der anschließend herausgekratzt wurde. Die besten Funde hierzu liegen aus den Grabungen von Flinders Petrie aus Amarna vor. Die bislang einzige bekannte bronzezeitliche Glashütte, in der Glas aus seinen Rohstoffen hergestellt wurde, datiert in die Ramessidenzeit und wurde Ende der 1990er Jahre bei Grabungen des Roemer- und Pelizaeus-Museums (Hildesheim) unter der Leitung von Edgar Pusch im östlichen Nil-Delta in Qantir-Piramesse gefunden. Untersuchungen gaben Aufschluss über das Schmelzverfahren. So wurde Quarzgestein zerkleinert, mit sodahaltiger Pflanzenasche vermengt, in einen Krug gefüllt und bei vielleicht 800 °C zu einer Fritte geschmolzen. Diese Fritte wurde nach dem Abkühlen vermutlich zerkleinert und in einer zweiten Schmelze in speziell hergestellten Tiegeln bei 900 bis 1100 °C zu einem 8 bis 10 cm hohen Barren mit 10 bis 14 cm Durchmesser geschmolzen. Das Glas wurde dabei durch Beimischen von Metall-Oxiden schwarz, violett, blau, grün, rot, gelb oder weiß gefärbt. Ein konkreter Zusammenhang von Glasherstellung und Metallgewinnung ist trotz der ähnlichen Temperaturen nicht nachzuweisen. Das gefärbte Rohglas wurde in Barrenform an die weiterverarbeitenden Werkstätten geliefert, die daraus monochrome und polychrome Objekte herstellten. Solche Glasbarren wurden im Schiffswrack von Uluburun nahe dem türkischen Bodrum gefunden, das auf das 14. Jahrhundert v. Chr. datiert ist. Die erste bekannte Rezeptur ist aus der Bibliothek des assyrischen Königs Assurbanipal überliefert, die auf ca. 650 v. Chr. datiert wird: "Nimm 60 Teile Sand, 180 Teile Asche aus Meerespflanzen und 5 Teile Kreide und du erhältst Glas." Zu dieser Zeit wurde schon wesentlich mehr Glas verarbeitet, und es entwickelte sich eine neue Glasschmelztechnik. Römisches Parfumfläschen aus Glas, 1.-3. Jh. n. Chr., 8,2 cm hoch Antike. Plinius der Ältere beschreibt in der "Historia naturalis" die Herstellung des Glases. Chemische Analysen und Erkenntnisse der experimentellen Archäologie haben Plinius in vielen Fragen bestätigt. Zur Römerzeit wurde Glas mit Flusssand und Natron aus Ägypten geschmolzen. Das ägyptische Natron wurde am Wadi Natrun, einem natürlichen Natronsee in Nord-Ägypten, abgebaut und über Alexandria von den Phöniziern in den Mittelmeerraum exportiert. Dieses war verhältnismäßig rein und enthielt mehr als 40 Prozent Natriumoxid (die Angabe wurde wie in der Petrologie üblich auf das Oxid bezogen, faktisch liegt aber Natriumcarbonat vor) und bis zu 4 Prozent Kalk. Die Zusammensetzung machte es zu einem idealen Schmelzmittel. Plinius schreibt weiter von Glassandlagern in Italien, Hispanien und Gallien, aber an keiner dieser Stätten entwickelte sich eine so bedeutende Glasherstellung wie an der palästinischen Küste zwischen Akkon und Tyros sowie in den ägyptischen Glashütten rund um den Wadi Natrun bei Alexandria. Kaiser Diokletian legte im Jahr 301 die Preise für eine ganze Reihe von Produkten fest, unter anderem für Rohglas. Unterschieden wurde "judaicum" und "alexandrium", wobei Letzteres teurer und wahrscheinlich entfärbtes Glas war. Zu dieser Zeit war die Glasproduktion im Wesentlichen noch immer in Primär- und Sekundärwerkstätten gegliedert. In den Primärwerkstätten wurde in großen Schmelzwannen Rohglas geschmolzen, das dann an die Sekundärwerkstätten geliefert wurde, wo es in Tiegeln eingeschmolzen und verarbeitet wurde. In Bet Eli’ezer im heutigen Israel wurden 17 Glasschmelzwannen freigelegt, die jeweils 2 × 4 m groß sind. Nachdem das Gemenge in die Wanne eingelegt worden war, wurde der Ofen zugemauert und 10 bis 15 Tage lang befeuert. Acht bis neun Tonnen blaues bzw. grünes Rohglas wurden so in nur einem Arbeitsgang erschmolzen. Nach dem Feuerungsstopp und dem Abkühlen wurde das Gewölbe des Ofens abgetragen, der Glasblock herausgestemmt und das Rohglas zur weiteren Verarbeitung versandt. Ein Schiffswrack aus dem 3. Jahrhundert, das an der südfranzösischen Küste gefunden wurde, hatte mehr als drei Tonnen Rohglas geladen. In Ägypten wurden Rohglashütten gefunden, die bis ins 10. Jahrhundert reichten. Die Ägypter benutzten Antimon zur Entfärbung, konnten also farbloses, durchsichtiges Glas herstellen. Die Sekundärglashütten waren im ganzen Römischen Reich verbreitet und stellten Hohlglas, Flachglas und Mosaiksteine her. Das Rohglas wurde in einem Tiegel eingeschmolzen und mit der Pfeife im zähflüssigen Zustand aus dem Ofen genommen und verarbeitet. An der Pfeife konnte das Glas aufgeblasen werden, was die Herstellung von größeren Gefäßen und neuen Formen ermöglichte. Wurde bis dahin Glas für Perlen, Parfümfläschchen und Trinkschalen verwendet, verbreitete sich im Römischen Reich vor allem Behälterglas – im Gegensatz zu den üblichen Ton-, Holz-, Metall- oder Lederbehältnissen ist Glas geschmacksneutral – sowie Karaffen zum Kredenzen und in der Spätantike auch Trinkgläser. Erste Fenstergläser fanden sich in Aix-en-Provence und Herculaneum. Die Funde haben Größen von bis zu 80 cm × 80 cm. Allerdings erwähnt keine schriftliche Überlieferung das Herstellungsverfahren. Für das frühe, dickwandige und einseitig matte Fensterglas gibt es in der Fachwelt unterschiedliche Auffassungen zu dessen Herstellung. Einerseits wird eine manuelle Strecktechnik in Betracht gezogen, zum Anderen wird von einem Gussverfahren für dessen Herstellung ausgegangen. Für das ab dem 2. Jh. n. Chr. aufkommende, dünnwandige und beidseitig klare Fensterglas ist das Zylinderblasverfahren wahrscheinlich. Glasarmringe sind eine typische Schmuckform, die neben gläsernen Fingerringen und Ringperlen zur mittleren La-Tène-Zeit im keltischen Mitteleuropa als Frauenschmuck aufkommt und als Grabbeigabe gefunden wird. Mittelalter und Neuzeit. Im frühen Mittelalter stellten die Germanen überall dort, wo die Römer sich zurückgezogen hatten, Glas her, das nahtlos an die schon germanisierte spätantike Formensprache anschließt. Man geht heute davon aus, dass für das fränkische Glas noch vorhandene römische Gläser wiederverwertet wurden. Waldglas. Mit "De diversis artibus" des Benediktinermönches Theophilus Presbyter steht erstmals eine längere schriftliche Quelle zur Verfügung, die die Glasherstellung, das Blasen von Flachglas und Hohlglas sowie die Ofentechnologie beschreibt. Theophilus, der wahrscheinlich in Konstantinopel war, vermischte Asche von getrocknetem Buchenholz mit gesiebtem Flusssand im Verhältnis 2:1 und trocknete dieses Gemenge im Ofen unter ständigem Rühren, so dass es nicht schmelzen oder verkleben konnte, einen Tag und eine Nacht. Danach wurde diese Fritte in einen Tiegel gefüllt und in einer Nacht unter starker Hitze zu Glas geschmolzen. Dieser am Anfang des 12. Jahrhunderts wohl in Köln entstandene Text bildet wahrscheinlich die Grundlage für die Kirchenfenster der Gotik und auch für das Waldglas. Die Pflanzenasche mit allen Verunreinigungen lieferte auch einen Teil des Kalks, der für die Herstellung guten Glases nötig war. Um die enorme Menge an Holz, die für die Befeuerung der Öfen und für die Aschegewinnung nötig war, nicht über lange Wege befördern zu müssen, wurden die Glashütten in abgelegenen Waldgebieten angelegt. Diese Waldglashütten stellten überwiegend Glas her, welches durch Eisenoxid (aus verunreinigtem Sand) grünlich verfärbt war. In Georgius Agricolas "De re metallica" gibt es eine kurze Beschreibung der Glaskunst. Er hat von 1524 bis 1527 in Venedig gelebt und wohl die Insel Murano besuchen dürfen, was die detaillierten Beschreibungen der Öfen vermuten lassen. Als Rohstoff sind durchsichtige Steine genannt, also Bergkristall und „weiße Steine“, also Marmor, die im Feuer gebrannt, im Pochwerk zu grobem Griss zerstoßen und danach gesiebt werden. Weiter führt er Kochsalz, Magnetstein und Soda an. Kochsalz und Magnetstein werden von späteren Autoren als unnütz verworfen. Marmor und Soda gab es in Altare und in Mailand; sie sind in Deutschland nicht zu erhalten. Einzig eine Andeutung "„salz das aus laugen dargestellt wird“" weist auf ein venezianisches Geheimnis hin. Die Glasschmelzöfen der Waldglashütten und Venedigs waren eiförmige Konstruktionen mit 3 Meter Durchmesser und bis zu 3 Meter Höhe, gemauert aus mit gebrannter Schamotte versetzten Lehmziegeln. Im unteren Stock lag der Befeuerungsraum mit ein oder zwei halbrunden Öffnungen für den Holzeinwurf. In der Mitte schlugen die Flammen durch eine große runde Öffnung in den zweiten Stock, in dem die Hafenöfen standen. Dieser etwa 1,20 Meter hohe Raum war rundum mit 20 × 20 cm großen Ofentoren versehen, durch die das Gemenge eingelegt und das Glas entnommen werden konnte. Im Obergeschoss, das durch eine kleine Öffnung mit dem Schmelzraum verbunden war, lag der Kühlofen, der nur 400 °C heiß war. Der Kühlofen war mit einer kleinen Öffnung versehen, durch die fertige Werkstücke eingetragen wurden. Am Abend wurde das Loch zwischen Schmelzraum und Kühlraum mit einem Stein verschlossen, so dass das Glas über Nacht abkühlen konnte. Venedig. Am Anfang der venezianischen Glastradition steht wohl der Handel mit byzantinischen Glaserzeugnissen, die schon im 10. Jahrhundert importiert und nach ganz Europa exportiert wurden. Erste Glasmacher finden sich in den Registern des 11. Jahrhunderts. Sie werden "phiolarius" („Flaschner“) genannt. Ein an der Südküste der Türkei havariertes Handelsschiff, das um 1025 gesunken ist, transportierte nicht weniger als drei Tonnen Rohglas, das aus Caesarea in Palästina stammte. Ob es für Venedig bestimmt war, lässt sich nicht mit Gewissheit sagen, ist aber naheliegend. Bis 1295 werden alle Glasmacher auf der Insel Murano angesiedelt und ihre Reisefreiheit per Gesetz eingeschränkt. Auf dieser von der Welt abgeschnittenen Insel konnte Angelo Barovier Mitte des 15. Jahrhunderts das Geheimnis der Glasentfärbung lüften und erstmals ungetrübtes, klar durchsichtiges Glas in Europa herstellen. Das "crystallo", ein Soda-Kalk-Glas, das mit Manganoxid entfärbt war, sollte den Weltruhm des venezianischen Glases begründen. Die Soda wurde aus der Levante oder Alexandria importiert, ausgelaugt und versotten, bis ein reines Salz entstand. Als Sand wurde ein reiner Glassand aus dem Ticino oder gebrannter Marmor verwendet. Die Manganerze wurden wahrscheinlich von reisenden Erzsuchern aus Deutschland beschafft, die dort als Walen oder Venediger bekannt waren. Eine weitere venezianische Wiederentdeckung ist das "lattimo" (Milchglas), ein opakes weißes Glas, das mit Zinndioxid und Knochenasche getrübt war und das chinesische Porzellan nachahmte. Viele neue Techniken wurden entwickelt, insbesondere im 19. und 20. Jahrhundert. Den Höhepunkt erreichte die Branche in den 1950er und 1960er Jahren. Berühmte Techniken aus dieser Zeit sind zum Beispiel: Anse Volante, Battuto, Canna, Colorazione a caldo senza fusione, Fenicio, Incamiciato, Murrina, Oriente, Pezzato, Pulegoso, Scavo, Siderale, Sommerso, Tessuto. Muranoglas gilt heute als begehrtes Sammlerobjekt. Es werden teilweise sehr hohe Summen für seltene und besondere Stücke bezahlt. Berühmte historische Glasmanufakturen sind zum Beispiel Venini & C., Pauly & C., Barovier & Toso, Seguso Vetri d’Arte. Einige dieser Manufakturen bestehen noch heute. Glasperlen. Die Glasperlen wurden zu einer begehrten Handelsware und breiteten sich schnell über ganz Europa aus. Über Jahrhunderte waren Glasperlen ein beliebtes Zahlungsmittel im Tauschhandel mit Gold, Elfenbein, Seide und Gewürzen. Seit einigen Jahren sind die bunten Kunstwerke begehrte Objekte für Sammler. Glasperlen aus Venedig sind die bekanntesten und begehrtesten Perlen der Welt. Venezianische Glaskünstler haben während mehrerer Jahrhunderte Perlenhersteller auf der ganzen Welt beeinflusst. Dort werden die Glasperlen über offener Flamme hergestellt. Es ist ein sehr zeitaufwendiges Verfahren, da jede Perle einzeln gefertigt wird. Ein Glasstab wird unter der Verwendung einer Lötlampe bis zum Schmelzen erhitzt und um einen Metallstab gewickelt, bis die gewünschte Perlenform erreicht wird. Auf diese Grundperle können nach und nach weitere Glasfarben aufgeschmolzen werden und unterschiedliche Dekorationselemente, wie dünne Glasfäden oder hauchdünne Glasplättchen (Confettis), aufgebracht werden. Dann wird die Perle sehr langsam abgekühlt und von der Stange entfernt, wodurch ein Loch entsteht, durch das die Perle später aufgefädelt werden kann. Diese Perlen heißen Wickelperlen. Fensterglas. Der Arbeiter links trägt Holz zu Befeuerung. Mittig wird ein Glastropfen entnommen oder das Werkstück aufgeheizt. Rechts im Vordergrund wird ein Glastropfen durch "Marbeln" vorgeformt, im Hintergrund wird eine Scheibe ausgeschleudert. Funde von Fensterglas in Pompeji belegen, dass die Römer bereits im 1. Jahrhundert Fensterglas kannten, das beispielsweise in Thermen oder Villen zum Einsatz kam. Es gibt sogar vereinzelte Berichte von gläsernen Gewächshäusern. Meist handelte es sich um rechteckige Platten von ca. 20 cm × 30 cm bis zu 80 cm × 80 cm Größe und einer Stärke von 3 bis 5 mm, die eine glatte Seite und eine raue Seite aufweisen. Ab dem 2. Jh. n. Chr. scheint beidseitig glattes, dünnwandiges Fensterglas das dickwandige und aufgrund seiner rauen Seite nur mäßig transparente Fensterglas zu verdrängen, welches im archäologischen Befund oftmals schwer von Gefäßglas und rezentem Glas zu unterscheiden ist. Dieses dünnwandige Fensterglas ist wahrscheinlich im Zylinderblasverfahren entstanden. Zu einer breiteren Verwendung kommt es mit der aufkommenden Gotik im 12. Jahrhundert. Bei dem Mondglasverfahren, das bereits im vierten Jahrhundert im vorderen Orient belegt ist und später breite Anwendung in Frankreich fand, wird ein Glastropfen mit der Glasmacherpfeife zu einer Kugel vorgeblasen. Die heiße Glaskugel wird auf der gegenüberliegenden Seite an einem Metallstab befestigt, und die Glasmacherpfeife abgesprengt. Die Kugel hat nun ein Loch, dessen Ränder nach außen gestülpt werden. Zur weiteren Verarbeitung wurde die Kugel wieder auf Temperatur gebracht. Bei ca. 1000 °C war das Glas weich genug, um mittels Zentrifugalkraft in Tellerform geschleudert zu werden. Die Kugel öffnete sich um das Loch, an dem vorher die Pfeife befestigt war. Durch diese Technik wurden Glasplatten von ca. 1,20 m Durchmesser erzeugt. Anschließend wurde der äußere Rand zu Rechtecken geschnitten. Diese fanden Verwendung als z. B. Kirchenglas mit Bleieinfassungen. Das Mittelstück mit der Anschlussstelle des Schleuderstabs heißt Butze und wurde für Butzenscheiben von 10–15 cm Durchmesser verwendet. Das Walzglasverfahren wurde zum ersten Mal 1688 in Saint Gobain, der Keimzelle des heutigen gleichnamigen Weltkonzerns, dokumentiert. Geschmolzenes Glas wird auf den Walztisch gegossen, verteilt und schließlich gewalzt. Im Gegensatz zu den vorher genannten Verfahren wurde hier eine gleichmäßige Dicke erreicht. Auch waren erstmals Scheibengrößen von 40 × 60 Zoll möglich, was für die Produktion von Spiegeln genutzt wurde. Probleme bereitet jedoch die ungleichmäßige Oberfläche. Fensterglas dieses Herstellungsverfahrens ist oft blind und Spiegelglas nur durch aufwendiges kaltes Polieren zu erzielen. Zeichnung des Regenerativofens von Friedrich Siemens Industrialisierung und Automatisierung. Gusseiserne Form zur manuellen Formgebung von Hohlglas Die Industrialisierung und Automatisierung der Glaserzeugung setzte schrittweise im 19. Jahrhundert ein. Zunächst wurden einzelne Verfahrensabschnitte optimiert. So wurden 1847 durch Joseph Magoun Metallformen in der Hohlglasproduktion eingeführt, welche die bis dahin hauptsächlich genutzten Holzformen ersetzten. 1856 Entwickelte Friedrich Siemens den ersten Glasofen mit Regenerativfeuerung, was 1867 zum ersten kontinuierlichen Wannenofen ebenfalls durch Friedrich Siemens führte. Die regenerative Befeuerung ermöglichte erhebliche Energieeinsparungen und zugleich eine verbesserte Temperaturführung in der Glasschmelzwanne. Wenig später, im Jahr 1884, gründeten Ernst Abbe und Otto Schott in Jena ein Glaswerk für optische Spezialgläser. Flachglas. Herstellung von Flachglas nach dem Fourcault-Prozess. Die Glastafel wird durch eine Düse senkrecht aus der Schmelze gezogen. Im Jahr 1905 entwickelte der Amerikaner John H. Lubbers ein Verfahren zur Flachglasherstellung, wobei er den manuellen Prozess des Zylinderblasverfahrens im industriellen Maßstab umzusetzen versuchte. Dabei wurden Zylinder direkt aus der Schmelz gezogen, diese konnten einen Durchmesser von 80 cm erreichen und waren bis zu 12 m hoch. Der Zylinder wurde anschließend aufgeschnitten und geplättet. Das Verfahren war jedoch sehr umständlich, insbesondere das Umlegen der Zylinder in die Horizontale bereitete Schwierigkeiten. Ein Patent zur verbesserten Flachglasproduktion sollte 1902 von Émile Fourcault folgen. Das nach ihm benannte "Fourcault-Verfahren" zur Ziehglasherstellung. Das Glas wird dabei kontinuierlich als Glastafel durch eine Düse aus der Schmelze senkrecht nach oben gezogen. Das Flachglas wurde somit ohne Umweg über einen Zylinder erzeugt. Nach dem Hochziehen durch einen senkrechten Kühlkanal auf ca. 8 m Höhe kann gekühltes Flachglas am oberen Ende zugeschnitten werden. Durch Variation der Ziehgeschwindigkeit konnte die Glasdicke eingestellt werden. Das Fourcault-Verfahren kam ab 1913 zum Einsatz und bedeutete eine große Verbesserung. Ein ähnliches Verfahren ließ der Amerikaner Irving Wightman Colburn 1904 patentieren. Das Glasband wurde ebenfalls senkrecht aus der Schmelz gezogen, aber zur besseren Handhabung über eine Umlenkrolle in einen horizontalen Kühlkanal umgeleitet. Mit einer eigenen Fabrik wurde bis 1912 versucht, das Verfahren zu beherrschen, blieb aber letztlich erfolglos, so dass Insolvenz angemeldet wurde. Das Patent ging an die Toledo Glass Company. 1917 kam das nunmehr sogenannte Libbeys-Owens-Verfahren zur industriellen Anwendung. Die Vorteile gegenüber dem Fourcault-Verfahren lagen in der einfacheren Kühlung. Hingegen konnten bei jenem mehrere Ziehmaschinen an einer Glasschmelzwanne arbeiten. Da der Kühlofen beliebig lang sein konnte, erreichte dieses Verfahren etwa die doppelte Produktionsgeschwindigkeit. In der Folgezeit existierten beide Verfahren parallel. 1925 verbesserte die Plate Glass Company die Vorteile der Verfahren von Fourcault und Colburn; sie erzielte mit dem Pittsburg-Verfahren dadurch eine deutliche Steigerung der Produktionsgeschwindigkeit. Dem Deutschen Max Bicheroux gelang 1919 der entscheidende Schritt bei der Gussglasherstellung. Im Gegensatz zu den bisher genannten Verfahren wurde hier keine Glastafel aus der Schmelze gezogen, sondern die flüssige Glasmasse wurde dabei zwischen gekühlten Walzen zu einem Glasband geformt. Im noch erwärmten Zustand wurde das Glasband zu Tafeln geschnitten und in Öfen abgekühlt. Mit diesem Verfahren konnten Scheiben bis zu 4,5 m Breite hergestellt werden. Ein ähnliches Verfahren wurde 1921 von Pilkington und dem Fahrzeugfabrikanten Ford zur kontinuierlichen Herstellung von Automobilglas als Walzglas entwickelt. Dieses Verfahren lieferte allerdings geringere Breiten als das von Bicheroux. Die Firma Pilkington bewältigte in den 1960er Jahren als erste die technischen Probleme der Floatglasfertigung, wobei die Glasschmelze auf ein Bad aus flüssigem Zinn gegossen wurde. Dieses Prinzip revolutionierte die Flachglasfertigung, da es eine sehr hohe Produktivität aufwies und die Spiegelglasherstellung ohne weitere Nachbearbeitungsschritte ermöglichte. In den 1970er Jahren wurde dieses Verfahren allgemeiner Standard und verdrängte die Übrigen nahezu vollkommen. Das Verfahren basiert auf einer Idee von Henry Bessemer, die William E. Heal bereits 1902 zum Patent angemeldet hatte. Hohlglas. Die Owens-AR-Maschine von 1912 in Karussellform Im frühen 19. Jahrhundert wurden neue mechanische Hilfsmittel zum Blasen der Gläser benutzt. Es wurden Formen benutzt, die ein zu erzeugendes Relief als Negativ aufwiesen. Durch den Blasdruck wird das Glas an die Form gedrückt und das Werkstück erhält so seine Gestalt. Allerdings ist die Lungenkraft des Glasmachers nicht ausreichend hoch für tiefere Reliefs, so dass mechanische Hilfsmittel eingeführt wurden. Durch den Einsatz von Luftpumpen wurde genügend Druck erzielt. Eine weitere Neuerung in der Mitte des 19. Jahrhunderts war die Einführung von Metallformen. Erstmals 1847 ersetzten die von Joseph Magoun entwickelten Formen die alten aus Holz, was deren Haltbarkeit beträchtlich erhöhte. Die erste halbautomatische Flaschenblasmaschine entwickelten die Briten Alexander Mein und Howard M. Ashley in Pittsburg im Jahr 1859. Doch noch immer waren manuelle Arbeitsschritte vonnöten. Ein Meilenstein war die 1903 von Michael Joseph Owens eingeführte Owens-Maschine als erste vollautomatische Glasmaschine überhaupt. In einem in der Schmelze eingetauchten Speiser wird ein Vakuum erzeugt und so die benötigte schmelzflüssige Glasmenge exakt aufgenommen. Der Arm des Speisers schwenkt zurück und drückt den Tropfen in die Form. Mit Pressluft wird der Tropfen in die Metallform geblasen und das Werkstück erhält seine endgültige Gestalt. Diese Technik heißt "Saug-Blas-Verfahren". Damit war es möglich, die zu dieser Zeit enorme Menge von vier Flaschen pro Minute zu produzieren. Trotz dieser Errungenschaft blieben maschinell geblasene Flaschen noch viele Jahre schwerer als mundgeblasene. Um die Glasmacher zu übertreffen, mussten die Maschinen noch sehr viel genauer arbeiten. So ist auch zu erklären, dass die verschiedenen Produktionsverfahren noch lange parallel betrieben wurden. Wesentliche Verbesserungen der Tropfenentnahme durch den Tropfenspeiser von Karl E. Pfeiffer im Jahre 1911 führten ebenfalls zu einer Steigerung der Produktivität. Die Portionierung der Glasmasse erfolgte nicht mehr durch Abschöpfen oder Saugen einer Menge Glas von der blanken Schmelzoberfläche, sondern indem ein Tropfen durch eine Öffnung am Ende des Feeders (Speiserkanals) abläuft. Durch die genauer mögliche Dosierung der Glasmenge konnten gleichmäßigere Flaschen gefertigt werden. 1924 wurde die IS-Maschine von den Namensgebern Ingle und Smith patentiert, die erste industrielle Anwendung folgte wenige Jahre später. Diese Maschine, die die Vorteile des Tropfen-Verfahrens erst richtig nutzt, arbeitet nach dem Blas-Blas-Verfahren. Ein Tropfen wird in eine Metallform geleitet und vorgeblasen. Der vorgeformte Tropfen wird in eine zweite Form geschwenkt, in der das Werkstück fertig geblasen wird. Erste Anwendungen des neuen Verfahrens folgten wenige Jahre später. Die erste Maschine von 1927 hatte vier Stationen: Ein Feeder beschickte eine Maschine und diese konnte parallel vier Flaschen fertigen. Das Prinzip des Blas-Blas-Verfahrens ist auch heute noch in der Massenfabrikation gültig. Rohrglas. Danner-Rohrzug im VEB Glaswerk Weißwasser Glasrohre wurden bis ins 19. Jahrhundert ebenfalls (mundgeblasen) ausschließlich diskontinuierlich aus einer Charge oder einem Glasposten hergestellt. Die industriellen Prozesse zur Glasrohrerzeugung werden in Verfahren mit rotierender Pfeife und Ziehverfahren mit Düsen unterteilt. Letztere können weiter unterteilt werden in Varianten, bei denen das Glasrohr senkrecht nach unten oder oben aus der Schmelze gezogen wird. 1912 entwickelte E. Danner ("Libbey Glass Company") in den USA das erste kontinuierliche Röhrenziehverfahren, worauf 1917 ein Patent erteilt wurde. Beim Danner-Verfahren fließt eine Glasschmelze als Band auf einen schräg nach unten geneigten, rotierenden keramischen Hohlzylinder – die "Dannerpfeife". Nach Zuführung von Druckluft über das Innere der Pfeife gelingt das Abziehen des sich bildenden Glasrohres in Richtung der Pfeifenachse. Die Ziehgeschwindigkeit des Rohrs sowie Höhe des Drucks der zugeführten Luft bestimmen hierbei die Rohrdimension. In Frankreich wurde 1929 von L. Sanches-Vello ein vertikales Ziehverfahren ausgearbeitet. Dabei handelt es sich um ein senkrechtes Rohrziehverfahren. Die Schmelze wird durch eine Düse im Boden der Schmelzwanne nach unten gezogen und kurz darauf in die Horizontale umgeleitet. Für die Produktion von Rohrglas existieren eine Reihe weiterer Verfahren, die aber alle nach sehr ähnlichen Prinzipien arbeiten. Märkte für Glas. Glas ist ein vielseitiges Material, das in vielen Bereichen des täglichen Lebens zum Einsatz kommt. So spielt Glas eine wichtige Rolle in Forschung und Wissenschaft, in der modernen Architektur sowie in Zukunftsbranchen. Kernbereiche, in denen Glas eingesetzt wird, sind: Bauindustrie, Ernährungs- und Getränkeindustrie, Kraftfahrzeugindustrie, Elektro(nik)industrie, Haushalt und Gastronomie, Medizin, Forschung und Wissenschaft, Chemie, Pharmazie, Kosmetik, Möbelindustrie und Innenausbau, Kunststoff- und Textilindustrie. Ägypten. Das Glashandwerk im pharaonischen Ägypten lässt sich bis an den Beginn der 18. Dynastie zurückverfolgen; zunächst handelt es sich dabei um Kleinfunde wie Perlen, Amulette oder Kettenglieder sowie farbigen Einlagen in den typischen ägyptischen Schmuckobjekten (z. B. Pektorale). Diese sind meist in Türkis oder Dunkelblau gehalten, da sie solche Objekte aus Lapislazuli oder Türkis imitieren sollten; dies galt nicht als "billiger Schmuck", sondern die Imitation dieser edlen, hoch machtgeladenen Steine galt als besondere "Kunst". Das Verfahren war für die damalige Zeit sehr aufwändig und man arbeitete solche Kleinfunde aus Rohglasstücken, ganz und gar vergleichbar mit solchen aus Stein. Dafür spricht auch, dass ein ägyptisches Wort für „Glas“ so nicht existierte; es hieß "künstliches Lapislazuli" bzw. "künstliches Türkis" im Gegensatz zum wahren/echten Türkis bzw. Lapislazuli. In der "Ersten ägyptischen Glaskunstblüte" (18. bis 20. Dynastie) traten stabgeformte Gefäße auf (die auch kerngeformt genannt werden, nach der "Sandkerntechnik"). Sie gehen auf Vorbilder zeitgenössischer Gefäße, insbesondere solchen aus Stein, zurück. Typische Formen ägyptischer Glasgefäße sind Lotoskelchbecher, Granatapfelgefäße, Krateriskoi und Schminkgefäße wie Kohltöpfe und Kohlpalmsäulchen (für schwarze Augenschminke, sprich „kochel“). Seit Thutmosis III., aus dessen Regierungszeit auch die ältesten Hohlglasfunde stammen, treten auch Importgefäßformen aus dem Mittelmeergebiet hinzu (z. B. Amphoriskoi, Linsenflasche, Henkelflasche, Bilbils und andere Sonderformen); diese werden allgemein in das Spektrum der Gefäßformen eingeführt und betreffen somit auch Gefäßformen aus Keramik und Fayence beispielsweise. Die älteren kerngeformten Gefäße (etwa in der Zeit Thutmosis' III. bis Amenophis III.) sind meistens türkis bis kräftig blau (wie der echte Türkis und Lapislazuli, denn Glas galt als Imitation dieser edlen Steine). Später, besonders in der Ramessidenzeit, wurden Gläser in hellen, kräftigen Farben wie Gelb und Grün, Weiß aber auch Braun beliebt. Als Dekor entstanden Fadenverzierungen in Zickzack- oder Girlandenform in Gelb, Weiß, und Hellblau sowie tordierte Fäden im Hell-Dunkel-Kontrast, manchmal wurden sie auch monochrom belassen und nur die Henkel oder Schulterumbrüche durch Fadenzier betont. Die ägyptischen Glasgefäße dienten der Aufbewahrung von Kosmetika wie Salben, Ölen, Parfümen und Augenschminke. Das stark gefärbte, undurchsichtige Glas wirkte konservierend. In der Spätzeit (ab der 3. Zwischenzeit bis zur Griechischen Epoche) blieb das Hohlglashandwerk unterrepräsentiert, nur gelegentlich kamen Hohlgläser vor, weiterhin in Form von kleinen meist unverzierten Salbgefäßen. Dagegen waren Glaseinlagen in Schmuck oder Figuren nicht selten und wurden wie zuvor den Edelsteinen gleichrangig behandelt. In der hellenistischen Zeit gewann die Glasproduktion wieder an Bedeutung, auch in Ägypten. Zusammen mit neuen Herstellungstechniken trat eine völlig neue Formenwelt auf, ist aber nicht für Ägypten, sondern eher zeittypisch. Bereits im 5. Jahrhundert v. Chr. hatte sich Rhodos als wichtiges Zentrum der Glasherstellung etabliert. Neben Intarsien und Perlen fanden sich nun vielfarbige Mosaikschalen und die Gefäße der "Canossa-Gruppe". Römisches Reich. Im 1. Jahrhundert stieg die Glasproduktion derart, dass das vormals rare und teure Material für weite Kreise erschwinglich wurde. Eine umfangreiche Produktion von Trinkgefäßen, Krügen, Schalen und Tellern setzte ein, anfangs meist manuell geformt oder abgesenkt, dann zunehmend mundgeblasen. Eine Vielzahl hochwertiger Spezialgläser beweist handwerkliche Meisterschaft, so die Mosaik-Fadengläser, Kameogläser, Goldfoliengläser, Gläser mit Emailmalerei und besonders die Diatretgläser, meist glockenförmige, prunkvolle Leuchtgefäße in Netzglastechnik, die bis heute wegen ihrer künstlerischen Qualität bewundert werden. Eines der berühmtesten römischen Gläser ist der im Besitz des Britischen Museums befindliche "Lykurgosbecher" aus dem 4. Jahrhundert, an dem eine dreidimensionale figurative Darstellung angebracht ist, die im Gegenlicht rot und im Auflicht opak-gelbgrün erscheint. Venezianisches Glas. Venedig wurde ab der ersten Hälfte des 16. Jahrhunderts für sein farbloses, dünnwandiges und fein elaboriertes "cristallo" bekannt. Aus der Zeit davor ist nichts, aus dem 16. und 17. Jahrhundert nur noch wenig erhalten. Über die Variationsbreite der venezianischen Renaissance-Gläser, ihre Formen und Dekore geben vor allem niederländische und flämische Stillleben Auskunft. Es handelt sich größtenteils um Becher, Schalen, Kannen und Flaschen, die aus hohl geblasenen Balustern zusammengesetzte Schäfte mit flachen Füßen hatten. Diese Schäfte wurden in der Folgezeit immer ausgeklügelter, Flügel wurden in phantasievollen Ornamenten und figürlichen Dekorationen angesetzt, manchmal war auch der Schaft in figürlicher, beispielsweise in Tiergestalt ausgeführt. Für die Wandung gab es besondere Veredelungstechniken. Beim "Eisglas", hergestellt durch Abschrecken in eiskaltem Wasser oder durch Rollen über kleine Splitter, wird auf der Oberfläche ein Effekt wie bei einem durch Eisblumen überzogenen Fensterglas erzielt. Beim "Faden- oder Netzglas" () - wurden Milchglas-Fäden in die klare Glasmasse eingeschmolzen und durch Drehen so verwoben, dass ein faden- bzw. netzartiges Muster entstand. Diese Technik war in Ansätzen schon in der Antike bekannt. Als Glas à la façon de Venise fand der venezianische Stil trotz aller Versuche der Republik Venedig, ihre Kunst geheim zu halten, Zugang in die Länder nördlich der Alpen. Schmucktechniken im Barock und Rokoko. Barockes Schnittglas (und Rokoko-Glas) vornehmlich aus Böhmen und Schlesien, aber auch Nürnberg, Brandenburg und Sachsen, seltener Thüringen, Hessen, Norddeutschland und den Niederlanden lief ab dem 18. Jahrhundert venezianischem Glas den Rang ab, da deren Glas für den Glasschnitt und Glasschliff aufgrund seiner Dünnwandigkeit nicht geeignet war. Die Formen mit Fuß, Baluster-Schaft und dünnwandiger Kuppa ähnelten dem farblosen venezianischen Glas, jedoch ohne Flügel und wiesen eine stärkere Wandung auf. In Potsdam, Schlesien, Böhmen, Kassel und anderen Gebieten experimentierte man mit den Rezepten von Glas, um eine Masse herzustellen, die den Schliff und Schnitt erlaubte. Die Themen des Schnittes waren vielseitig. Jagdszenen waren häufig, Landschaften, aber auch allegorische Figuren mit Beischriften, Blumen- und Blattornamente sowie zeitgenössische Persönlichkeiten und Schlachtenszenen. Bereits im 17. Jahrhundert signierten Glasschneider vereinzelt ihre Werke und auch aus dem 18. Jahrhundert sind Glasschneider bekannt, etwa: Christian Gottfried Schneider und Friedrich Winter prägten den Glasschnitt Schlesiens wie Martin Winter und Gottfried Spiller denjenigen von Potsdam, Johann Christoph Kießling arbeitete für August den Starken, Franz Gondelach stand im Dienst des Landgrafen Carl von Hessen und David Wolff arbeitete in den Niederlanden. Gelegentlich weisen die barocken Schnittgläser Vergoldungen an Fuß, Schaft oder am Lippenrand auf. Im 18. Jahrhundert waren auch die Zwischengoldgläser beliebt. Für deren Herstellung wurden zwei Gläser verwendet, wobei eines passgenau in das Zweite, daher größere Glas, passte. Auf die Außenwand des inneren Glases wurde eine Goldfolie aufgelegt und mit einer Radiernadel Motive darin eingeritzt. Dann wurde es in das zweite Glas eingepasst und weiterverarbeitet. Von der Porzellanmalerei her kam die Technik der Schwarzlotmalerei, die in anderem Zusammenhang bereits im Mittelalter bekannt war. Johann Schaper und Ignaz Preissler prägten diese Kunst in Nürnberg und Schlesien, Böhmen und Sachsen. Eine rurale Veredelungstechnik barocken Glases ist die Emailmalerei. Sie findet sich vor allem an Gebrauchsglas in ländlichen Gegenden (z. B. Bierhumpen der Schützenvereine und Schnapsflaschen). Passend zur Provenienz sind die Motive: Bauer mit Vieh und Ackergerät, Wirtshausszenen, Spielkarten, Sinnsprüche. In Böhmen entsteht die Emailmalerei auch auf opakem Milchglas, was diese Technik in die Nähe der Porzellanmalerei rückt. Biedermeierglas. Die Engländer übernahmen im 18. Jahrhundert die Arten und Formen der böhmischen Gläser und beherrschten mit Hilfe der Reinheit ihres Bleikristalls, dessen hervorragende lichtbrechende Eigenschaften durch den Brillantschliff wirkungsvoll zur Geltung kamen, Anfang des 19. Jahrhunderts schließlich den zu der Zeit von klassizistischen Geschmacksvorstellungen geprägten Markt. Um den Vorsprung der Engländer wettzumachen, bemühten sich die böhmischen Glasfabrikanten um größere Reinheit ihres bleifreien Kristallglases. Zugleich nutzten sie alle Möglichkeiten des Musterschliffes für abwechslungsreiche Dekore und versuchten vor allem auch, billiger zu produzieren. Das Ergebnis dieser Anstrengungen lässt sich an den meisterlich geschliffenen Biedermeiergläsern ablesen, die als bewundernswerte Beispiele kunsthandwerklichen Glasschliffs gelten. In den 1830ern erreichte der Biedermeierstil seinen Höhepunkt. Um Produktion und Absatz auszuweiten, bereicherten die Glashütten nach 1840 ihr Angebot mit dem neuentwickelten Farbglas und verdrängten damit das farblose Glas mehr und mehr vom Markt. Besonders die nordböhmischen Glashütten gestalteten ihre Gläser in immer wirkungsvollerer Farbigkeit. Im Zuge dieser Entwicklung verlor jedoch der Glasschliff gegenüber der Buntheit der Dekore an Bedeutung, Form und Schliff wurden nicht zuletzt aus Kostengründen zunehmend einfacher. Die Mannigfaltigkeit der aus Farbglas und überfangenem bzw. gebeiztem (siehe Rotbeize) Kristallglas mit Schnittdekor sowie aus Steinglas (Lithyalinglas und Hyalithglas, das mit Gold, Email- und Transparentfarben bemalt wurde) hergestellten Produkte erreichte schließlich ein bis dahin nicht gekanntes Ausmaß. Gängig waren zum Beispiel Trinkgläser und Karaffen aus buntem Glas, ganze Likör- und Dessertservice, Garnituren für Kommoden und Waschtische, Schreibzeuge und Parfümflakons, Schalen, Teller, Tafelaufsätze, und vor allem Vasen. Hinzu kamen die unzähligen Andenken- und Freundschaftsgläser, Dekorations- und Ehrenpokale, außerdem Exportartikel wie Wasserpfeifen und Sprenggefäße für Rosenwasser. Jugendstilglas. Langhalsvase mit geätztem Dekor, ähnlich Gallé Um 1900 waren sich die Gestalter der jungen Generation einig in ihrer Abkehr vom überkommenen Historismus. Für das daraus resultierende kunstgewerbliche Streben nach neuen, frischen, originellen Ausdrucksformen auf der Basis alter handwerklicher Techniken bürgerte sich im deutschsprachigen Raum, den Niederlanden und den Nordischen Ländern der Begriff Jugendstil ein, während sonst die Bezeichnung "Art nouveau" gebräuchlich ist. Die Fantasie der Jugendstil-Künstler wurde vor allem von der Farben- und Formenwelt des fernen Ostens beflügelt. So sind die wesentlichen Teile oder Elemente des Jugendstils durch dekorativ geschwungene Linien sowie flächenhafte florale Ornamente und Asymmetrie gekennzeichnet. Glas nahm in der Entwicklung des Jugendstils eine zentrale Rolle ein. Der Grund dafür ist in den gestalterischen Möglichkeiten zu suchen, die dem angestrebten organischen Wesen der Formgebung entgegenkamen. Die Zusammenarbeit von Designern und Handwerkern brachte fantasievolles, in limitierten Auflagen von Hand hergestelltes Atelierglas hervor, das durch die Vielfalt der Farbeffekte besticht. Französische Glasmacher wie Emile Gallé und die Daum Frères schufen geschnittenes und geätztes Überfangglas in kräftigen Farben. Das böhmische Jugendstilglas hat seinen guten Ruf vor allem Max Ritter von Spaun, Besitzer der Firma Joh. Loetz Witwe in Klostermühle in Böhmen, zu verdanken. Von jenseits des Großen Teiches, aus New York, kamen das irisierende Glas und die berühmten, in Europa als beispielhaft angesehenen Kreationen von Louis Comfort Tiffany. Der konstruktive Stil, der bestrebt war, alle Formen mit Hilfe einfachster Gebilde wie Quadrat, Rechteck, Kreis und Ellipse zu gestalten und starke Farbgegensätze zu verwenden, wurde am konsequentesten von der Wiener Schule verfolgt. Ihre führenden Repräsentanten waren Josef Hoffmann und Koloman Moser. Mit den wachsenden wirtschaftlichen Schwierigkeiten in der Zeit des Ersten Weltkrieges ging die Ära des Jugendstils zu Ende. Sie währte knapp zwanzig Jahre, ihre Auswirkungen sind jedoch weiterhin spürbar. Fusing. Beim Fusing (dt. Verschmelzung) oder Fusen (neudeutsch für Glasverschmelzung) werden verschiedene (weiße oder farbige, eventuell mit Glasschmelzfarbe bemalte) Glasstücke bei 780–900 °C miteinander verschmolzen. Die Schmelztemperatur ist von Zusammensetzung und Dicke der Gläser abhängig. Temperaturbeständige Gegenstände, wie etwa Metalle, können mit eingeschmolzen werden. Fusing ist in seinen Grundlagen, nach bisherigem archäologischem Wissensstand, ein mindestens 2200 Jahre altes Glasverarbeitungsverfahren. In den letzten Jahrzehnten wurde es zu einer der vielseitigsten und technisch anspruchsvollsten Glasverarbeitungstechniken weiterentwickelt. Viele Glasereien und künstlerische Glasstudios können Glas nach der Fusing-Technik verarbeiten. Das Verfahren wird in großer Variationsbreite eingesetzt: Von Modeschmuck und der Dekoration von Gegenständen bis hin zu Kunstobjekten, großen künstlerisch gestalteten Fenstern und anderen Glaselementen in Architektur und Innenarchitektur. Konventionell handwerklich kann Fusing folgendermaßen ablaufen: Aus verschiedenfarbigen Glasplatten werden passende Teile mit einer besonderen Zange abgezwickt oder mit einem Glasschneider abgeschnitten. Die Glasstücke setzt der Glaskünstler dem Entwurf entsprechend zusammen, beispielsweise als Muster für den Rahmen eines Spiegels oder für die Herstellung einer Glasschüssel. Zwischenräume werden oft mit Glaspulver aus zerstampften Glasplatten ausgefüllt. Nun werden die Stücke im Brennofen verschmolzen. Die Temperaturen werden so gewählt, dass das Glas noch nicht als Flüssigkeit verläuft, alle Glasteile und Partikel aber eine dauerhafte Verbindung eingehen. Bei entsprechender Temperaturführung kann ein vollkommen geschlossener und harter Glaskörper hergestellt werden. Dieser Brennvorgang dauert, abhängig von Dicke und Durchmesser des Glases, etwa 18 bis 22 Stunden. Der Glaskörper wird zunächst zu einer flachen Platte verschmolzen, die bei Bedarf in einem zweiten Arbeitsgang in einem Glasschmelzofen weiter geformt wird, z. B. wenn daraus eine Glasschüssel entstehen soll. Dazu werden Trägerformen oder Modelle verwendet, die oft aus Ton oder unglasierter Keramik bestehen. In konkave Modelle kann sich die erhitzte Glasplatte absenken und über konvexe Modelle kann sie sich aufbiegen. Die Form muss etwas größer als die Glasplatte sein, da Glas sich bei Erwärmung ausdehnt und beim Abkühlen zusammenzieht. Auf die entstandenen Objekte können nach dem Abkühlen Glasveredelungstechniken angewendet werden: Gravieren, Glasmalen, Schleifen, Sandstrahlen oder Ätzen. Eine fortgeschrittene Anwendung des Verfahrens ist die Herstellung großer selbsttragender Glasscheiben oder Glasobjekte, die beispielsweise als Gegenwartskunst oder als Kirchenkunst künstlerisch kontrolliert gestaltet werden können. Dafür werden auch industriell hergestellte Glasbruchstücke (Fritten) und Glaspulver aus farblosen und farbigen Gläsern verwendet. Die Herstellung derartiger "Fusing-Stücke" setzt künstlerisches Talent und die Kenntnis der Verfahrenstricks voraus. So müssen die zusammengeschmolzenen Gläser den gleichen Ausdehnungskoeffizienten (AKW) haben und die Erhitzung und Abkühlung des Glases muss genau kontrolliert bestimmten Temperaturkurven folgen. Andernfalls können im Glas mechanische Spannungen entstehen, die es zerreißen oder zerspringen lassen. Große Fusing-Stücke können daher nur in einem Flachbett in digital gesteuerten Brennöfen hergestellt werden. Besonders fortgeschrittene Glaskünstler verwenden Glasöfen der Bauart "Glory Hole", weil sie es gestatten, kleinere Glasmassen direkt in verschiedenen angeschmolzenen oder nahezu flüssigen Zuständen künstlerisch zu bearbeiten. Glas wird dabei immer wieder für einen neuen Arbeitsgang durch das Loch in der Ofenwand gehalten und aufgeheizt, um es dann außerhalb des Ofens bearbeiten zu können. Zur ebenso direkten Bearbeitung dienen Öfen mit ausziehbarem Flachbett. Das im Flachbett liegende Glas wird auf Bearbeitungstemperatur gebracht und dann für kurze Zeit aus dem Ofen hervorgezogen. Unter Beachtung der richtigen Verfahren und Vorsichtsmaßnahmen werden dann beispielsweise Chemikalien, Metallstaub oder farbige Glaspulver auf das angeschmolzene oder geschmolzene Glas gebracht. Besondere Kenntnisse setzt es voraus, mit Werkzeugen direkt gestalterisch in diese Glasmasse einzugreifen. Eine weitere neue Variante ist die Pàte-de-Verre-Herstellung großformatiger Glasplastiken. Galaxie. Eine Galaxie, selten auch Welteninsel genannt, ist eine durch Gravitation gebundene, große Ansammlung von Sternen, Planetensystemen, Gasnebeln und sonstigen stellaren Objekten. Die Bezeichnung (γαλαξίας / "galaxías") stammt aus dem Altgriechischen und geht auf eine antike Sage zurück, wonach es sich dabei um die Milch ("gála") der Göttermutter handelt. Als Galaxis (Singular) wird im Deutschen nur noch unsere eigene Galaxie bezeichnet, eben die Milchstraße. Im Englischen ("galaxy") gibt es keine solche Unterscheidung. Allgemeines. Galaxien variieren stark in Aussehen (Morphologie), Größe und Zusammensetzung. Die Milchstraße gehört zu den größeren Galaxien und besitzt etwa 300 Milliarden (3·1011) Sterne bei einem Durchmesser von etwa 100.000 Lichtjahren. Neben den Sternen besteht eine Galaxie auch aus Gas, Staub und vermutlich Dunkler Materie. Die Andromeda-Galaxie ist unsere nächste größere Nachbargalaxie. Die Entfernung zwischen diesen beiden Galaxien beträgt 2,4–2,7 Millionen Lichtjahre. Zusammen mit weiteren Galaxien bilden beide Galaxien die Lokale Gruppe. Galaxien treten oft in Gruppen oder Haufen mit bis zu einigen tausend Mitgliedern auf. Aufgrund der letzten „Ultra-Deep-Field“-Aufnahmen des Hubble-Teleskops vom März 2004 kann man grob abschätzen, dass mit heutiger Technik von der Erde aus über 50 Milliarden (5·1010) Galaxien theoretisch beobachtet werden könnten. Lange Zeit war die genaue Natur der Galaxien unklar, da die einzelnen Sterne nicht aufgelöst werden konnten und nur ein „Nebel“ beobachtet wurde. Die Frage war, ob diese „Spiralnebel“ zu unserer Galaxie gehören oder eigene Sternensysteme sind. Bereits Immanuel Kant vermutete in den „nebligen Sternen“ Milchstraßen gleich unserer, aber erst im Jahr 1923 gelang es Edwin Hubble, diese Frage zu klären. Er bestimmte die Entfernung zum Andromedanebel und stellte fest, dass dieser zu weit entfernt ist, um zu unserer Galaxis zu gehören, also eine eigene Galaxie darstellt. Klassifikation nach Hubble. NGC 1300, eine Balkenspirale vom Hubble-Typ SBb Neben der Klassifikation nach Hubble gibt es auch weitere Einteilungen, beispielsweise nach Gérard-Henri de Vaucouleurs oder die Yerkes-Klassifikation, die jedoch seltener gebraucht werden. Die groben Klassifikationen werden der Vielzahl der gefundenen Galaxientypen oft nicht gerecht, weshalb man viele weitere Charakteristika zur Beschreibung von Galaxien heranzieht. Weitere Galaxientypen. Die aktive Galaxie NGC 7742 hat einen sehr hellen Kern. Entstehung und Entwicklung. Der Mikrowellenhintergrund gibt die Materieverteilung des Universums 380.000 Jahre nach dem Urknall wieder. Damals war das Universum noch sehr homogen: Die Dichtefluktuationen lagen in der Größenordnung von 1 zu 105. Im Rahmen der Kosmologie kann das Anwachsen der Dichtefluktuation durch den Gravitationskollaps beschrieben werden. Dabei spielt vor allem die Dunkle Materie eine große Rolle, da sie gravitativ über die baryonische Materie dominiert. Unter dem Einfluss der Dunklen Materie wachsen die Dichtefluktuationen, bis sie zu dunklen Halos kollabieren. Da bei diesem Prozess nur die Gravitation eine Rolle spielt, kann dieser Prozess heute mit großer Genauigkeit berechnet werden (z. B. Millennium-Simulation). Das Gas folgt der Verteilung der dunklen Materie, fällt in diese Halos, verdichtet sich und es kommt zur Bildung der Sterne. Die Galaxien beginnen sich zu bilden. Die eigentliche Galaxienbildung ist aber unverstanden, denn die gerade erzeugten Sterne beeinflussen das einfallende Gas (das sogenannte Feedback), was eine genauere Simulation schwierig macht. Nach ihrer Entstehung haben sich die Galaxien weiter entwickelt. Nach dem hierarchischen Modell der Galaxienentstehung wachsen die Galaxien vor allem durch Verschmelzen mit anderen Galaxien an. Danach bildeten sich im frühen Kosmos unter dem Einfluss der Schwerkraft die ersten noch recht massearmen Proto-Galaxien. Nach und nach, so die Vorstellung, fügten sich diese Galaxienvorläufer durch Kollisionen zu ausgewachsenen Exemplaren wie unserer Milchstraße und noch größeren Galaxien zusammen. Die Relikte solcher Kollisionen zeigen sich in der Milchstraße noch heute als sogenannte Sternenströme. Das sind Gruppen von Sternen, deren gemeinsames Bewegungsmuster auf einen Ursprung außerhalb der Milchstraße weist. Sie werden kleineren Galaxien zugerechnet, die von der Milchstraße durch Gezeitenkräfte zerrissen und verschluckt wurden. Ein Modell der Galaxienentstehung geht davon aus, dass die ersten Gaswolken sich durch Rotation zu Spiralgalaxien entwickelt haben. Elliptische Galaxien entstehen nach diesem Modell erst in einem zweiten Stadium durch die Kollision von Spiralgalaxien. Spiralgalaxien wiederum können nach dieser Vorstellung dadurch anwachsen, dass nahe (Zwerg-)Galaxien in ihre Scheibe stürzen und sich dort auflösen (Akkretion). Die Beobachtung von hochrotverschobenen Galaxien ermöglicht es, diese Entwicklung nachzuvollziehen. Große Erfolge hatten dabei insbesondere tiefe Durchmusterungen wie das Hubble Deep Field. Insgesamt ist die Entstehung und Entwicklung von Galaxien als aktueller Forschungsgegenstand noch nicht abgeschlossen und somit noch nicht ausreichend sicher erklärbar. Neueste Studien gehen davon aus, dass sich im Zentrum jeder Galaxie ein supermassereiches schwarzes Loch befindet, das signifikant an der Entstehung der Galaxie beteiligt ist. So entstehen Galaxien aus riesigen Gaswolken (Wasserstoff), deren Zentren zu supermassereichen schwarzen Löchern kollabieren, diese wiederum heizen das umliegende Gas so weit auf, dass sich durch Verdichtung Sterne und letztendlich Planeten bilden. Die Größe der Galaxien und deren Zentren (supermassereiche schwarze Löcher) stehen in direktem Zusammenhang: je größer eine Galaxie, desto größer das Zentrum. Entstehung der Spiralarme. Die Spiralarme sind heller als der Rest der Scheibe und stellen keine starren Strukturen dar. Auch wenn es bei Spiralgalaxien so aussieht, als würde die Galaxie nur innerhalb der Spiralarme existieren, so befinden sich auch in weniger leuchtstarken Teilen der Galaxien-Scheibe verhältnismäßig viele Sterne. Eine Galaxie rotiert nicht starr wie ein Rad; vielmehr laufen die einzelnen Sterne aus den Spiralarmen heraus und hinein. Die Spiralarme sind sichtbarer Ausdruck stehender Dichtewellen (etwa wie Schallwellen in Luft), die in der galaktischen Scheibe umherlaufen. Diese Theorie wurde zuerst von "Chia-Chiao Lin" und "Frank Shu" in den 1960er Jahren aufgestellt. Danach ist in den Spiralarmen und im zentralen Balken die Materiedichte erhöht, so dass dort verhältnismäßig viele helle, blaue, also kurzlebige Sterne aus dem interstellaren Medium neu entstehen. Dadurch erscheinen diese Bereiche heller als ihre Umgebung. Diese Dichtewellen entstehen durch das Zusammenspiel aller Sternumlaufbahnen, denn die Sterne bewegen sich nicht wie etwa die Planeten im Sonnensystem gleichmäßig um ein festes Zentrum (ein schwarzes Loch im Galaxienzentrum), weil dafür die Gesamtmasse der Galaxie nicht konzentriert genug ist. Daher kehrt ein Stern nach einer Umrundung des Galaxienzentrums nicht wieder an seinen Ausgangspunkt zurück, die Bahnen sind also keine Ellipsen, sondern besitzen die Form von Rosetten. Dichtewellen entstehen, wenn sich viele Sterne gleich schnell bewegen. So sind in einer Balkenspiralgalaxie alle Bahnen gleich gegeneinander ausgerichtet, in einer reinen Spiralgalaxie dagegen noch gegeneinander verschoben. Die Synchronisierung der Bahnen erfolgt durch gravitative Rückkopplung. Mittels Computersimulationen, die auch interstellares Gas berücksichtigen, kann sogar die Ausbildung von Spiralarmen modelliert werden. Dabei zeigt sich, dass diese keineswegs statisch sind, sondern entstehen und vergehen. Danach durchläuft jede Galaxie einen Kreislauf (Dauer ca. 10 Milliarden Jahre) der ständigen Umwandlung von der Balken- in die Spiralform und zurück. Ferner stören die Spiralarme die Bahnkurven der Sterne, was zu den sogenannten Lindblad-Resonanzen führt. Wechselwirkende Galaxien. Wenn Galaxien aufeinandertreffen, können Gaswolken innerhalb der Galaxie instabil werden und kollabieren. Dabei entstehen neue Sterne. Die Sterne der wechselwirkenden Galaxien selbst verschmelzen bei diesem Prozess sehr selten miteinander. Die verschmolzenen Galaxien strahlen im blauen Licht der neu entstandenen Sterne. Eine solche Wechselwirkung kann hunderte von Millionen Jahren dauern. Dabei können sich die Formen der Galaxien stark verändern. Wechselwirkungen zwischen zwei Galaxien sind ziemlich häufig. Die Sterne können durch die Schwerkraftwirkung der Galaxien stark abgelenkt werden. Beispiele für solche kollidierenden Galaxien, die schon z. T. verschmolzen sind, sind die Systeme M 51 – NGC 5195 und die „Antennen“-Galaxien NGC 4038 – NGC 4039 (siehe Abbildung) im Sternbild Adler. Geschichte von Maßen und Gewichten. Die Geschichte von Gewichten und Maßen gehört zum Aufgabengebiet der Wissenschaftsgeschichte. Sie beginnt bei den frühesten Gewichtsstücken und bei Maßeinheiten, welche von menschlichen Körperteilen und der natürlichen Umgebung abgeleitet wurden. Überblick. Den frühesten Gewichten und Maßeinheiten lagen die Maße von Körperteilen und der natürlichen Umgebung zugrunde. Frühe babylonische und ägyptische Aufzeichnungen sowie Schriften aus der Bibel zeigen, dass die Länge zuerst anhand der Maße von Arm, Hand oder Finger gemessen wurde. Die Zeit wurde nach den Umlaufzeiten oder Rotationsperioden von Sonne, Mond und anderen Himmelskörpern eingeteilt. Wenn man das Volumen von Behältern wie Flaschen oder Tonkrügen vergleichen wollte, wurden sie mit Pflanzensamen gefüllt, die anschließend ausgezählt wurden. Beim Wiegen maß man das Gewicht mit Steinen oder Samen. Die Gewichtseinheit Karat, die bis heute für Schmucksteine verwendet wird, wurde vom Samen des Johannisbrotbaums abgeleitet. Unsere heutigen Kenntnisse über die frühen Maße und Gewichte stammen aus vielerlei Quellen. Archäologen haben einige frühe Standards geborgen, die heute in Museen aufbewahrt werden. Der Vergleich zwischen den Abmessungen eines Gebäudes und Beschreibungen zeitgenössischer Autoren liefert weitere Informationen. Ein interessantes Beispiel dafür ist der Vergleich der Abmessungen des griechischen Parthenon mit den Beschreibungen von Plutarch, aus dem man ziemlich genau die Länge des attischen "Fuß" erhält. In manchen Fällen existieren allerdings nur plausible Theorien und Interpretationen. So ist zum Beispiel offen, ob es nur Zufall ist, dass die Länge der frühbabylonischen "Doppel-Elle" bis auf zwei Promille mit der Länge eines Sekundenpendels (etwa 0,994 m) übereinstimmt, oder ob dies auf Kenntnisse über Pendel zu einem sehr frühen Zeitpunkt hindeutet. Längeneinheiten. Die menschliche "Elle" – in der Regel die eines ausgewachsenen Mannes – ist das erste Längenmaß, von dem berichtet wird. Naturgemäß gab es mehrere "Ellen", die sich je nach Ursprung oder Herrscher unterschieden. Die "gewöhnliche Elle" war die Länge des Armes vom Ellbogen bis zur Spitze des Mittelfingers. Sie wurde unterteilt in die "Spanne" (Spannweite der Hand, eine halbe Ellenlänge), die "Handbreite" (eine sechstel Elle) und den "Finger" (Fingerbreite, eine vierundzwanzigstel Elle). Die königliche oder heilige "Elle" war sieben "Handbreit" oder 28 "Finger" lang und wurde beim Bau von Gebäuden und Monumenten sowie zur Landvermessung verwendet. Griechen und Römer erbten den "Fuß" von den Ägyptern. Der römische "Fuß" wurde sowohl in zwölf unciae (Zoll) als auch in sechzehn "Finger" unterteilt. Die Römer führten auch die "Meile" zu je tausend "Doppelschritten" ein, wobei jeder "Doppelschritt" fünf römischen "Fuß" entsprach. Später wurden diese historischen Maßeinheiten im angloamerikanischen Maßsystem standardisiert. Der "Steinwurf" oder "Hammerwurf" oder auch der "Pfeilschuss" sind weitere Beispiele für Längenmaße mit historischer Bedeutung. Bayerische Fischer und Müller von (Fluss-)mühlen „erwarfen“ sich so ihr temporäres Fang- oder Arbeitsgebiet, eine bestimmte Jagdordnung erlaubte einem Jäger ein verletztes Tier einen "Beilwurf" weit zu verfolgen. Gewichtseinheiten. Ursprünglich wurden Handelsgüter nach Stück oder Volumen bemessen. Als das Wiegen von Gütern begann, basierten die Gewichtseinheiten auf Volumen von Getreidekörnern oder Wasser. Zum Beispiel war das "Talent" in manchen Gegenden ungefähr so schwer wie ein "Kubikfuß" Wasser, welcher etwa 27 Litern entspricht. Das "grain" (vom lateinischen für „Korn“) war die früheste und kleinste Gewichtseinheit und ursprünglich ein Weizen- oder Gerstenkorn, um die Edelmetalle Gold und Silber abzuwiegen. Größere Einheiten wurden entwickelt, die sowohl als Gewichtsmaß wie auch als Währungseinheit dienten, so das "Pfund", der "Schekel" und das "Talent". Das Gewicht variierte von Ort zu Ort. Bei den Babyloniern und Sumerern waren sechzig "Schekel" ein "Mina", und sechzig "Minas" ergaben ein "Talent". Ein Mina hatte etwa 500 Gramm. Das römische "Talent" bestand aus hundert "Pfund", die leichter waren als das Mina. Wie auch das englische "Troy Pound" (bei Edelmetallen gebräuchlich) war das römische "Pfund" in zwölf "Unzen" eingeteilt, die aber kleiner waren. Das metrische Karat, welches ursprünglich vom getrockneten Samen des Johannisbrotbaums abgeleitet war, wurde später auf 1/144 "Unze" und dann auf 0,2 "Gramm" festgelegt. Beispiel der Vielfalt. Beispiele für die Vielfalt an Maßen in zwei ehemaligen Großherzogtümern vor der Maßvereinheitlichung. Einheiten für Zeit und Winkel. Die Einteilung des Kreises in 360 Grad (Symbol: °) und die Einteilung des Tages in Stunden zu je sechzig Minuten mit je sechzig Sekunden lässt sich auf die Babylonier zurückführen, die das Sexagesimalsystem, d. h. ein Zahlensystem mit der Basis 60, verwendeten. Der Vorteil dabei ist, dass die Zahl 360 durch sehr viele Zahlen ohne Rest teilbar ist (siehe auch Division mit Rest) und man somit oftmals aufwendige Bruchrechnungen vermeiden kann. Die 360 Grad könnten auch damit zusammenhängen, dass ein Jahr etwa 360 Tage besitzt. Die Einheit Gon (früher: "Neugrad", Symbol: g), die den rechten Winkel in hundert Teile einteilt, ist im Alltag völlig ungebräuchlich, wird aber im Vermessungswesen benutzt. Ein nautischer Strich ist der 32. Teil des Vollkreises, entsprechend 11,25 Grad. Der 200. Teil eines nautischen Strichs heißt artilleristischer Strich (auch: "mil") und teilt den Vollkreis in 6400 Teile. Ein artilleristischer Strich entspricht ungefähr einem Meter in einem Kilometer Entfernung (oder einem Millimeter in einem Meter Entfernung). Auch heute noch wird diese Winkelmessung im militärischen Bereich verwendet. Die Einheit Radiant (Symbol: rad) wird wie folgt definiert: Ein Kreissektor mit der Bogenlänge 1 und dem Radius 1 hat den Winkel 1. Welche Maßeinheit dabei für Radius und Bogenlänge benutzt wird, ist egal – solange es dieselbe ist. Durch diese Definition ergibt sich, dass ein Vollwinkel 2 · π rad entspricht (ca. 6,2832). Angelsächsische Maßeinheiten. Während der Besetzung Englands durch die Römer wurde die römische Meile dort eingeführt. Königin Elisabeth I. änderte per Erlass die Meile auf 5280 "Fuß" oder acht "furlongs", wobei ein "furlong" aus vierzig "rods" zu je 5,5 "yards" bestand. Das "yard" als Längenmaß wurde später eingeführt, sein Ursprung ist nicht genau bekannt. Das frühe "yard" wurde in zwei, vier, acht und sechzehn Teile eingeteilt, die "half-yard" (halbes Yard), "span" (Spanne), "finger" und "nail" (Nagel) genannt wurden. Die Verbindung des "yard" mit dem Körperumfang oder der Entfernung von der Nasenspitze zum Daumen von König Heinrich I. sind vermutlich nur Versuche der Standardisierung, da verschiedene "yard"-Maße im Vereinigten Königreich benutzt wurden. Das metrische System. Das erste wohldefinierte metrische System wurde in Frankreich eingeführt. 1791 wurde gesetzlich die Absicht zur Schaffung eines solchen Systems festgelegt; seine Einführung erfolgte 1793 zur Zeit der Terrorherrschaft der Jakobiner. Erstmals in der Geschichte wurde ein künstlich entwickeltes Maßsystem eingeführt. Die Einführung des dezimalmetrischen Systems erfolgte mit dem Anspruch, ein Maßsystem „Für alle Zeit, für alle Völker“ zu schaffen. In Paris wird das Urmeter aufbewahrt, welches als Referenzgröße geschaffen wurde. Das erste metrische System war auf "Zentimeter", "Gramm" und "Sekunde" aufgebaut (cgs-System, c für Centimeter) und diese Einheiten waren sehr praktisch in Wissenschaft und Technik. Spätere metrische Systeme basierten auf "Meter", "Kilogramm" und "Sekunde" (mks-System), um leichter handhabbar für praktische Anwendungen zu sein und in der Technik und Industrie entstand das Technische Maßsystem, das als Basiseinheiten Meter, Kilopond (früher: Kraftkilogramm), Sekunde und Grad hatte. Metrische Einheiten haben sich über die ganze Welt verbreitet, zunächst in den nicht englischsprachigen Ländern, aber in letzter Zeit auch dort. Das metrische System wurde in Frankreich nur langsam angenommen, aber Wissenschaftler und Techniker hielten seine Einführung als internationales System für wünschenswert. Am 20. Mai 1875 wurde ein internationaler Vertrag, die Meterkonvention, von siebzehn Staaten unterzeichnet. Verschiedene Organisationen und Laboratorien wurden gegründet, um ein einheitliches System zu schaffen und zu bewahren. Das metrische System ist einfacher als die alten Maßeinheiten, weil verschieden große Einheiten immer glatte Zehnerpotenzen von anderen Einheiten sind. Diese Beziehung zwischen den Einheiten führt im Dezimalsystem zu leichten Umrechnungen von einer Einheit zur anderen. Die gegenwärtig vorherrschende Ausprägung eines metrischen Systems ist das Internationale Einheitensystem. Es wurde im Jahr 1954 – noch nicht unter seinem heutigen Namen und mit zunächst nur sechs Basiseinheiten – begründet und basiert ebenfalls auf "Meter", "Kilogramm" und "Sekunde", enthält aber auch weitere Grundeinheiten für Temperatur, elektrische Stromstärke, Lichtstärke und Stoffmenge. Typografische Maßeinheiten. Der "typografischer Punkt" als Einheit der Schriftgröße wurde von Pierre Simon Fournier im Jahr 1737 eingeführt und 1755 von den Brüdern François Ambroise Didot und Pierre-François Didot weiterentwickelt. Der Didot-Punkt (dd) betrug 0,376065 Millimeter (das Grundmaß war auch hier: ein französischer Fuß, "Pied de roi") bis er 1973 zur einfacheren Handhabung im metrischen System auf 0,375 Millimeter abgerundet wurde. Zur Unterscheidung wird die neue Einheit häufig auch "typographischer Punkt" genannt. In diesem System (Schriftsatz) gibt es auch die Einheit "Cicero", ein Cicero entspricht zwölf Punkt. Vier Cicero werden zu einer "Konkordanz" zusammengefasst. Eine ausführliche Darstellung/Gegenüberstellung gibt es unter Schriftsatzmaße. 1886 kam aus den USA (Fa. Marder, Luse & Co. Chicago) mit der Erfindung der Linotype-Zeilengussmaschine ein alternatives Punktmaß auch nach Europa: der "Pica-Punkt" (pp) hat die exakte Größe von 0,3514598 Millimetern, das entspricht ungefähr 1/72 Zoll. Analog zum Cicero bildet hier ein "Pica" das nächsthöhere Schriftmaß von zwölf Pica-Punkt. Heute werden im IT-Bereich „geglättete“ Maße verwendet. Ein Zoll hatte genau 72,27 (Pica-)Punkt, heute hat ein Zoll genau 72 "DTP-Punkt" (gelegentlich auch PostScript-Punkt). Der "DTP-Punkt" (pt) ist die einzig verlässliche Größe (zurzeit) als Maßangabe auf dem Computer. Die Punktgrößen weichen zwischen PC-Systemen (auch Linux) und Apple Mac-Systemen etwas voneinander ab. Historisch bedingt, wird mit den oben genannten Maßeinheiten nicht die tatsächliche Buchstabengröße (Versalhöhe) gemessen, sondern die so genannte Kegelhöhe. Der Kegel ist im Bleisatz der Körper, der den (meist kleineren) Buchstaben trägt. Die DIN 16507-2 verwendet metrische Maße, die Schriftgrößenabstufung ist 0,25 mm, bei Bedarf 0,05 mm. 1 p Didot = 0,376 mm. Der Kegel kennzeichnet die Schriftgröße. Einzelnachweise. Masse Gustave Eiffel. Alexandre Gustave Eiffel (* 15. Dezember 1832 in Dijon; † 27. Dezember 1923 in Paris) war ein französischer Ingenieur. Lebenslauf. Eiffels Geburtsname lautete "Alexandre Gustave Bonickhausen dit Eiffel". Gustave Bonickhausen "dit" („genannt“) "Eiffel" ließ seinen Nachnamen am 15. Dezember 1880 durch Gerichtsbeschluss in Eiffel ändern. Ab 1843 besuchte Eiffel das Collège Sainte-Barbe in Paris und absolvierte danach ein Studium an der "Ecole Centrale des Arts et Manufactures" (heute École Centrale Paris), das er 1855 als Chemie-Ingenieur abschloss. Nachdem sich ein Eintritt in die Fabriken seines Onkels nicht verwirklichte, war er für einige Monate in einer Sprengstoff-Fabrik in Châtillon-sur-Seine beschäftigt und arbeitete danach in der Eisenbahngesellschaft "Compagnie des chemins de fer de l'Ouest". Dort machte er 1856 die Bekanntschaft mit dem Stahlbau-Unternehmer Charles Nepveu. Dieser fand persönlich Gefallen an dem jungen Talent und machte ihn zum Projekt-Manager im Eisenbahnbrückenbau. In dieser Sparte bestand damals eine große Nachfrage nach Ingenieuren und zugleich eine hohe Personal-Fluktuation. Eiffel zeigte Durchhaltevermögen, diplomatische Menschenkenntnis und vor allem großes Organisationstalent, immer die geeignetsten Fachleute für seine Projekte zu gewinnen und zusammenzuführen. Von 1857 bis 1860 oblag ihm die Errichtung der 500 Meter langen, später Passerelle Eiffel genannten Eisenbahnbrücke von Bordeaux. Dieser erfolgreich vollendete anspruchsvolle Auftrag begründete seinen guten Ruf in der Branche. Im Jahr 1862 heiratete Eiffel die Französin Marie Gaudelet, mit der er insgesamt fünf Kinder hatte, drei Mädchen und zwei Jungen. Gustave Eiffels Frau starb jedoch schon sehr früh im Jahr 1877. Er heiratete danach seine Cousine Chantall Letou. 1866 machte er sich mit einem eigenen Betrieb in Levallois-Perret bei Paris selbständig. Darauf erhielt er 1867 den Auftrag für den Bau der Viadukte von Rouzat-sur-la-Sioule und Neuvial auf der Eisenbahnlinie Commentry-Gannat in der Auvergne; es folgten erste Arbeiten für die Weltausstellung. Von 1872 bis 1874 war Eiffel in Südamerika tätig, wo er in Chile, Bolivien und Peru arbeitete. 1875 oblag ihm der Bau des Westbahnhofs in Budapest. 1880 erhielt er den Zuschlag für den Bau des Viadukts von Garabit, das wegen seiner Höhe (122 Meter) und seiner gebogenen Form Aufsehen erregte. Von 1881 bis 1882 baute Eiffel die Brücke von Szeged in Ungarn. 1879 begann er mit der Entwicklung eines ausgeklügelten Trägersystems für die von dem Franzosen Frédéric-Auguste Bartholdi entworfene Freiheitsstatue in New York. Das "Dictionnaire des Francs-Maçons Européens" nennt Eiffel als Mitglied einer Loge des Grand Orient de France, ohne jedoch die Loge konkret zu benennen. Zwar scheint insbesondere die maßgebliche gestalterische und finanzielle Beteiligung der Freimaurer an der Freiheitsstatue die Mitgliedschaft zu bestätigen, da jedoch Aufnahmedatum als auch der konkrete Name der Loge nicht allgemein bekannt sind, gilt die Mitgliedschaft als umstritten. Sein bekanntestes Bauwerk ist der nach ihm benannte Eiffelturm, den der Architekt Charles Léon Stephen Sauvestre nach einer Konstruktionsidee von Maurice Koechlin entwarf und der ab 1887 für die Pariser Weltausstellung 1889 unter Eiffels Leitung erbaut wurde. Ab 1888 war er außerdem am Bau des Panamakanals beteiligt. Zu Beginn des 20. Jahrhunderts leistete Eiffel Pionierarbeit auf dem Gebiet der Windkanäle mit Experimenten zur Untersuchung des Luftwiderstandes von verschiedenen geometrischen Formen und legte damit einen Grundstein für den modernen Flugzeugbau. Der Name „Eiffel“. Die väterlichen Vorfahren Gustave Eiffels trugen den Namen „Bonickhausen-Eiffel“ bzw. „Bonickhausen dit Eiffel“ („genannt Eiffel“). Die deutsche Schreibung des Namens Bonickhausen ist „Bönickhausen“ mit Trema. Das heute als Eifel bekannte deutsche Mittelgebirge wurde bis in die zweite Hälfte des 19. Jahrhunderts „Eiffel“ geschrieben. Der älteste nachweisbare Vorfahre der Familie Bönickhausen in Frankreich ist Jean René Bönickhausen, der am 30. April 1711 im Haus des Herzogs von Gramont in der rue Neuve Saint-Augustin in der Pfarrei St-Roch, Paris, Marie Lideriz heiratete und als Angestellter der Ferme générale am 7. Januar 1734 im Alter von 75 Jahren in Saint-Valery-sur-Somme in der Picardie verstarb. In dessen Sterbeeintrag findet sich der Namenszusatz „dit Eiffel“ (genannt Eiffel). Der Schriftsteller und Eiffel-Biograph François Poncetton und der ehemalige Generaldirektor der französischen Archive, Charles Braibant vertraten die Annahme, dass der älteste Vorfahre in der französischen Linie, Jean René Bönickhausen, der Familie des Eifeler Schulmeisters Leo Heinrich Bönickhausen entstammt. Dieser lebte zu Ende des 17. Jahrhunderts in Aremberg, Kreis Ahrweiler, und in Marmagen, Kreis Euskirchen, und stand dort als ludimagister (Schulmeister) und Sakristan in Kirchendiensten. Auf Braibant zurückgehend hat sich die Erklärung verbreitet, dass dessen 1680 in Marmagen getaufter Sohn Wilhelm Heinrich um 1710 nach Frankreich ausgewandert sei und sich dort Jean René Bönickhausen mit dem Zusatz Eiffel genannt habe. Diese in vorliegenden Eiffel-Biographien häufig zu findende Behauptung ist aber unbewiesen. Auch in der Geburtsurkunde von Alexandre Gustave Eiffel ist „Bonickhausen dit Eiffel“ eingetragen. Am Rande der Urkunde befindet sich aber der Vermerk, dass per Richterspruch des erstinstanzlichen Gerichts von Dijon vom 15. Dezember 1880 verfügt wurde, den Namen „Eiffel“ an die Stelle von „Bonickhausen dit Eiffel“ zu setzen. Die Namensverkürzung hatte er am 30. Oktober 1878 beim Justizministerium beantragt und ausführlich begründet. Kanton Graubünden. Graubünden (Kürzel GR;,,) ist ein Kanton in der Schweiz und liegt vollständig im Gebiet der Alpen. Die Amtssprachen Graubündens sind Deutsch, Rätoromanisch und Italienisch. Der Kanton zählt zur Region Südostschweiz und zur Grossregion Ostschweiz. Der Hauptort und zugleich grösste Ort ist Chur. Name und Wappen. Die Hauptstadt Chur; Blick gegen Westen ins Vorderrheintal Der Kanton Graubünden trägt den Namen des ehemals politisch gewichtigsten der Drei Bünde, aus denen er entstanden ist. Der 1367 gegründete "Graue Bund" (gespaltener Schild, weiss/schwarz) wurde 1442 erstmals genannt, vermutlich ein Spottname der Zürcher und Österreicher, der von den Bundsleuten vor 1486 übernommen wurde. Im 15. Jahrhundert erscheint der Name für die sonst "Drei Bünde" genannte Gesamtheit der Bünde. Im 16. Jahrhundert wurde von Humanisten der Name der römischen Provinz "Raetia" als "Rätien" auf das Gebiet der Drei Bünde übertragen. 1799 wurden die Bünde von Napoleon Bonaparte als "Kanton Rätien" der damaligen Helvetischen Republik eingegliedert. Die Bezeichnung ist heute noch für Institutionen wie die Rhätische Bahn oder das Rätische Museum in Chur üblich, und auch die Bezeichnung "rätoromanisch" für die bündnerromanische Sprache stammt daher. Mit der 1803 von Napoleon Bonaparte erlassenen Mediationsakte und der damit verbundenen Konstituierung der modernen Schweizerischen Eidgenossenschaft wurde der Name "Graubünden" offiziell. Das Kantonswappen setzt sich entsprechend aus den Wappen der Drei Bünde zusammen; siehe auch Fahne und Wappen des Kantons Graubünden. Übersicht. Der Kanton bildet als flächengrösster Kanton der Schweiz deren südöstlichen Teil und ist vor allem durch Berglandschaften geprägt. Aufgrund der geographischen Bedingungen ist er der am dünnsten besiedelte Kanton der Schweiz und belegt trotz seiner Grösse von der Einwohnerzahl her nur den 14. Rang. Nachbargebiete. Gemeinsame Kantonsgrenzen hat Graubünden im Südwesten mit dem Kanton Tessin, im Westen mit Uri, im Norden mit Glarus und St. Gallen. Graubünden bildet die Landesgrenze der Schweiz mit Liechtenstein sowie mit Österreich (Bundesländer Vorarlberg und Tirol) im Norden, dem italienischen Südtirol im Osten und der Lombardei im Süden. Neben Graubünden grenzt nur noch St. Gallen an drei verschiedene Nachbarstaaten. Weg des Wassers. Entwässert wird Graubünden zum grössten Teil vom Rhein mit seinen in Graubünden entspringenden Quellflüssen Vorderrhein und Hinterrhein. Den Osten des Landes, das Engadin, entwässert der Inn, der ebenfalls in Graubünden entspringt. Jenseits des Alpenhauptkamms liegen die zum Po entwässernden und italienischsprachigen Bündner Südtäler: das Misox mit dem Calancatal, das Bergell und das Puschlav. Der östlichste Teil des Landes, das Münstertal, entwässert zur Etsch. Die drei Einzugsgebiete der Nordsee, des Mittelmeers und des Schwarzen Meers treffen sich unweit der Inn-Quelle nahe dem Pass Lunghin oberhalb von Maloja, der Dreiwasserscheide. Von dort fliesst Richtung Norden die Julia, die via Rhein zur Nordsee führt, nach Süden die Maira, deren Wasser über den Po ins Mittelmeer kommt, und nach Osten der Inn, der in die Donau mündet und damit ins Schwarze Meer fliesst. Landschaften. Im Kanton Graubünden gibt es 150 Täler, 615 Seen (von gut 1500 Seen in der Schweiz), 937 Berggipfel bis hinauf zum Piz Bernina auf sowie den grössten prähistorischen Bergsturz der Welt, welcher bei Flims immer noch sichtbar ist. Den Gesamtkomplex der Berggruppen um Rhein- und Innquellgebiet nennt man "Bündner Alpen". Fauna und Flora. Im Kanton Graubünden sind rund 300 Vogelarten bekannt. Dokumentiert sind sie im Nachschlagewerk «Die Vögel Graubündens». Übersicht. Die Einwohner werden als "Bündner" bezeichnet. Per betrug die Einwohnerzahl des Kantons Graubünden. Die Bevölkerungsdichte liegt mit  Einwohnern unter dem Schweizer Durchschnitt (Einwohner pro Quadratkilometer). Der Ausländeranteil (gemeldete Einwohner ohne Schweizer Bürgerrecht) bezifferte sich am auf  Prozent, während landesweit  Prozent Ausländer registriert waren. Per betrug die Arbeitslosenquote  Prozent gegenüber  Prozent auf eidgenössischer Ebene. Sprachen. Ehemaliges Verbreitungsgebiet der einzelnen romanischen Idiome in Graubünden Als einziger Kanton der Schweiz hat Graubünden drei Amtssprachen: Deutsch, Rätoromanisch und Italienisch. Gleichzeitig ist es der einzige Kanton, in dem Rätoromanisch Amtssprache ist. Aufgrund dieser und damit auch der kulturellen Vielfalt, aber auch wegen seiner Form und Beschaffenheit wird der Kanton auch als kleine Schweiz innerhalb der Schweiz bezeichnet. Die Gemeinden und Kreise sind autonom, ihre eigenen Amts- und Schulsprachen festzulegen, der Kanton setzt jedoch Richtlinien, insbesondere zur Unterstützung der Minderheitensprachen Rätoromanisch und Italienisch. Gemäss Artikel 16 des Bündner Sprachengesetzes von 2006 gelten Gemeinden, in denen mindestens 40 Prozent der Einwohner das angestammte Idiom sprechen, als amtlich einsprachig, und Gemeinden, in denen wenigstens 20 Prozent das angestammte Idiom sprechen, als amtlich zweisprachig. Im "Bündnerromanischen," das in verschiedenen Gegenden des Kantons – Surselva, in Teilen Mittelbündens, im Engadin und im Münstertal – gesprochen wird, existieren sowohl fünf regionale Schriftdialekte (sogenannte Idiome), nämlich Surselvisch (Sursilvan), Sutselvisch (Sutsilvan), Surmeirisch (Surmiran), Oberengadinisch (Puter) und Unterengadinisch (Vallader) als auch eine einheitliche Schriftsprache Rumantsch Grischun, die erst in den 1980er Jahren als Kunstsprache geschaffen worden ist. Münstertalisch (Jauer) hat keine schriftsprachliche Tradition. In den Münstertaler Schulen wurde bis zur Einführung von Rumantsch Grischun in Unterengadinisch unterrichtet. Die "italienischen Mundarten" im Misox und Calancatal, Bergell, in Bivio und dem Puschlav gehören dem Alpinlombardischen an. Spätestens seit Mitte des 19. Jahrhunderts, als der Bund im Zug der Umsetzung des "Gesetzes betreffend die Heimatlosigkeit" dem Kanton Graubünden eine grosse Zahl Jenischer zwangsweise zuwies, hat Graubünden auch eine statistisch nicht erfasste (gesamtschweizerisch auf 35'000 Personen geschätzte) Population "jenischer Muttersprache". Das Jenische ist anerkannte Minderheitensprache in der Schweiz und somit auch in Graubünden, besitzt aber keinen Amtssprachenstatus. Bis 2003 hatte der Kanton Graubünden seine Schulbücher in sieben Sprachen herausgegeben, neben Deutsch und Italienisch auch in allen fünf rätoromanischen Schriftdialekten. 2003 entschied das Bündner Parlament, die romanischen Lehrmittel nur noch in Rumantsch Grischun herauszugeben. Dieser Entscheid wurde jedoch bereits 2013 im Grundsatz wieder rückgängig gemacht. Der dialektale und historische Wortschatz sowie die Volkskultur Graubündens werden für das Deutsche vom Schweizerischen Idiotikon, für das Bündnerromanischen vom Dicziunari Rumantsch Grischun und für das Italienische vom Vocabolario dei dialetti della Svizzera italiana dokumentiert. Konfessionen. Infolge der Souveränität der einzelnen Gemeinden konnte im 16. Jahrhundert jede Gemeinde ihre Konfession autonom bestimmen. Fläsch war die erste reformierte Gemeinde im Kanton, danach folgte St. Antönien, später andere. Graubünden gehört somit zu den traditionell paritätischen Kantonen. Überwiegend katholisch sind das Vorderrheintal mit dem Lugnez (ohne Teile der Gruob sowie Waltensburg), das Oberhalbstein (ohne Bivio) und das mittlere Landwassertal (ohne Bergün), das Misox, das Calancatal und das Puschlav. Überwiegend reformiert sind das Prättigau, das Schanfigg und die Landschaft Davos, im Hinterrheintal das Schams, das Rheinwald und das Avers, im Vorderrheintal das Safiental, Teile der Gruob und die Ortschaft Waltensburg sowie in Südbünden das Engadin (ohne Tarasp und Samnaun), das Bergell und das Münstertal (ohne Müstair). Konfessionell traditionell gemischt sind die Regionen Fünf Dörfer und Imboden sowie das Domleschg und das Churwaldnertal. Klöster gibt es in Müstair, Disentis, Cazis und Ilanz. Verfassung und Verwaltung. Bisher kennt Graubünden drei kantonale Verfassungen. Die früher gültigen wurden in den Jahren 1854 und 1892 erlassen, die heutige datiert von 2003. Für die Bundesversammlung entsendet Graubünden wie jeder Vollkanton zwei Vertreter in den Ständerat und gemäss seinem Anteil an der Bevölkerung fünf Abgeordnete in den Nationalrat. Legislative. a> in Chur, vor der Fassadenrenovierung und Neugestaltung des Eingangsbereichs Gesetzgebende Behörde ist der Grosse Rat, der 120 Mitglieder zählt und vom Volk gemäss Majorzverfahren fest für vier Jahre gewählt wird. Das Volk ist direkt an der Gesetzgebung beteiligt: 4000 Stimmberechtigte oder ein Siebtel der Gemeinden können eine Änderung der Verfassung verlangen, 3000 Stimmberechtigte oder ein Achtel der Gemeinden ein Gesetz oder eine Gesetzesänderung vorschlagen (Volksinitiative) und 1500 Stimmberechtigte oder ein Zehntel der Gemeinden können verlangen, dass ein vom Grossen Rat erlassenes Gesetz oder eine solche Gesetzesänderung der Volksabstimmung zu unterwerfen sei (Referendum). Änderungen der Verfassung unterliegen obligatorisch der Volksabstimmung. Exekutive. Die Regierung (früher: "Kleiner Rat") zählt fünf Mitglieder und wird vom Volk ebenfalls im Majorzverfahren auf ebenfalls vier Jahre gewählt. Das Präsidium wechselt jährlich im Turnus. Leiter der Standeskanzlei ist seit 1990 Claudio Riesen. Judikative. a> – Sitz des Kantonsgerichts in Chur Die obersten Gerichte des Kantons sind das Kantonsgericht und das Verwaltungsgericht. Das Kantonsgericht ist mit der Rechtsprechung auf den Gebieten des Zivil-, Straf-, Schuldbetreibungs- und Konkursrechts sowie teilweise des Verwaltungs- und Verwaltungsstrafrechts betraut. Das Verwaltungsgericht ist zugleich Verfassungs- und Versicherungsgericht und ist mit der Rechtsprechung auf dem Gebiet des öffentlichen Rechtes betraut. Untere Instanz sind die elf Bezirksgerichte (ab 2017 "Regionalgerichte" genannt). Bevor eine Klage bei einem Bezirksgericht eingereicht werden kann, ist in der Regel ein Schlichtungsverfahren durchzuführen. Dafür zuständig sind die Schlichtungsbehörden, deren Vorsitzende im allgemeinen Sprachgebrauch oft Friedensrichter oder Vermittler genannt werden. Im Kanton Graubünden gibt es drei Arten von Schlichtungsbehörden (Artikel 3 "Einführungsgesetz zur Schweizerischen Zivilprozessordnung," kurz "EGzZPO"): Vermittlerämter (ein pro Bezirk), Schlichtungsbehörden für Mietsachen (eine pro Bezirk) und die kantonale Schlichtungsbehörde für Gleichstellungssachen (eine im Kanton). Verwaltungseinheiten. Graubünden ist der Kanton, in dem die 125 politischen Gemeinden – im Jahr 2001 waren es noch 212 – historisch bedingt die wohl ausgeprägteste Gemeindeautonomie der Schweiz haben. Autonomie geniessen auch die Kreise, die aus einer kleinen Zahl Gemeinden oder ausnahmsweise aus einer einzigen Gemeinde bestehen. Sie sind zugleich die Wahlkreise des Grossen Rates, in denen die Grossräte bis 2014 teilweise noch an den traditionellen Landsgemeinden gewählt wurden. Als Gebietskörperschaften werden die Kreise 2016/17 aufgehoben, bleiben aber als Wahlkreise erhalten. Die Bezirke sind reine Verwaltungsorgane des Kantons und damit ohne innere Autonomie. Sie werden 2016 durch elf Regionen ersetzt. Diese dreifache Verwaltungsgliederung ist vor dem geschichtlichen Hintergrund zu sehen, dass die politischen Gemeinden in ihrer Mehrheit die Nachbarschaften und die Kreise die Gerichtsgemeinden des früheren Freistaats der Drei Bünde fortsetzen, die Bezirke hingegen eine erst im 19. Jahrhundert vom modernen Kanton Graubünden errichtete Institution sind. Wirtschaft und Tourismus. Die für die dauerhafte Besiedlung mancher Talschaften unabdingbare Berglandwirtschaft überlebt dank Nischenproduktion sowie Subventionen. Acht Prozent der Bevölkerung arbeiten in der Land- und Forstwirtschaft, wobei 50 Prozent der Betriebe biologisch geführt werden. Das grösste Wachstum nach der Jahrtausendwende erreicht die Exportindustrie, 24 Prozent der Bevölkerung arbeiten in Industrie und Gewerbe. Wichtigster Wirtschaftszweig ist der Dienstleistungssektor und insbesondere der Tourismus mit einem sehr hohen Anteil am Bündner Bruttoinlandsprodukt von rund 14 Prozent. Der Fremdenverkehr, ursprünglich eine Sommeraktivität, wurde schon 1865 durch die Bündner Erfindung des Wintertourismus ergänzt, die Brennpunkte sind die Regionen Oberengadin, Davos/Klosters, Arosa, Lenzerheide und Flims. Hervorzuheben ist auch der Bädertourismus in Vals, Scuol und Andeer sowie Alvaneu. Graubünden ist der Kanton mit der grössten Dichte an Burgen und weist mit dem Benediktinerinnenkloster St. Johann in Müstair, dem Dorf Soglio und der Kirche von Zillis Kulturgüter von Weltrang auf. Neu dazugestossen ist die Anlage der Rhätischen Bahn im Albulatal. Auch die Bahnstrecke über den Berninapass ist von grosser architektonischer Bedeutung, während die TektonikArena Sardona als Weltnaturerbe gelistet wird. Seit 1991 ist die Salginatobelbrücke der Verbindungsstrasse von Schiers nach Schuders das bislang einzige Weltmonument der Schweiz. Diese Auszeichnung wurde von der ASCE vergeben. Verkehr. Propagandaschrift zur Abstimmung über das kantonale Strassenverkehrsgesetz vom 20. Februar 1927 Der Verkehr bestimmte seit dem Altertum die Besiedelung des Kantons. Der Handelsverkehr war ein wichtiger Wirtschaftsfaktor; schon während der Römerzeit querten Karren den Julierpass. 1387 beauftragte der Bischof von Chur den Bergeller Adligen Jakob von Castelmur, den Septimerpass zu einer befahrbaren Strasse auszubauen. Zu Beginn des 20. Jahrhunderts gab es im Kanton Graubünden Strassen in der Länge von 1000 Kilometern, doch der motorisierte Individualverkehr wurde vehement bekämpft. 1903 erteilte der «Kleine Rat» des Kantons nur Autos von Ärzten und Sanitätsfahrzeugen eine Fahrbewilligung auf Bündner Strassen. Am 13. Oktober 1907 stimmten 9110 Stimmbürger gegen die Zulassung von Autos, 2074 waren dafür. Trotzdem setzte der Rat seine frühere Bewilligungspraxis fort und beschloss am 14. Mai 1910, die Strasse von der Tardisbrücke bei Landquart bis Chur ganz dem Verkehr zu öffnen. Eine weitere Volksabstimmung machte diese Bewilligung rückgängig, später wurde ein absolutes Verbot durchgesetzt. 1919 wurden auch Postautokurse auf Bündner Strassen abgelehnt. Erst am 21. Juni 1925 stimmte der Bündner Souverän knapp einer Vorlage zu, die das Befahren der Strassen mit Autos bis acht Plätzen erlaubte. Die Zulassung von Autos verlangte den Ausbau des Strassennetzes, wofür dem Kanton jedoch die finanziellen Mittel fehlten. Erst 1935 kam die Eidgenossenschaft den Alpenkantonen zu Hilfe und stellte 126 Millionen Franken zur Verfügung, 35 erhielt Graubünden. Damit wurden die vier wichtigsten Alpenstrassen ausgebaut; darunter die «Obere Strasse» über den Julierpass. Das kantonale Strassennetz umfasst heute 163 Kilometer Nationalstrassen, 597 Kilometer Hauptstrassen und 835 Kilometer Verbindungsstrassen. Die wichtigsten Talschaften und die grossen Tourismusorte Graubündens werden von der Rhätischen Bahn bedient. Zudem wird der Kanton in Nord-Süd-Richtung von der Autobahn A13 durchquert. Wichtigste Pässe zwischen Nord und Süd sind heute der San Bernardino zwischen dem Rheinwald und dem Misox und der Julierpass ins Engadin. Geschichte. Der Freistaat der Drei Bünde bis 1797 Während der Eisenzeit bestanden auf dem Gebiet des heutigen Graubünden vor allem keltische, rätische und lepontische Kulturen. Abgesehen von den italischen Südtälern gehörte das Gebiet von etwa 15 vor unserer Zeitrechnung bis zum 5. Jahrhundert zum Römischen Reich (Provinz "Raetia", später Provinz "Raetia I"). Um 536/537 fiel Rätien (das Gebiet der ehemaligen Provinz "Raetia I") an das Fränkische Reich. Um 806/807 wurde das Bistum Chur vom Erzbistum Mailand zum Erzbistum Mainz umgegliedert. Im 10. und 11. Jahrhundert war Rätien Teil des Herzogtums Schwaben. Im Laufe des Hochmittelalters kam es zur Territorialbildung. Zu den bedeutendsten Territorialherren erwuchsen der Bischof von Chur und das Kloster Disentis. Kleinere Territorien wurden von verschiedenen Grafen und Herren ausgebildet oder erworben. Im Süden erreichte die Familie Visconti eine starke Stellung (später Herzogtum Mailand). Das Spätmittelalter ist gekennzeichnet durch politische Verselbständigung vieler (Gerichts-)Gemeinden, die viele Souveränitätsrechte an sich binden konnten. Sie vereinigten sich in mehreren Bünden (Gotteshausbund 1367, Oberer oder Grauer Bund 1395, Zehngerichtebund 1436). Diese Bünde fanden sich ab 1450 zu einem eigenständigen staatlichen Gebilde zusammen (Freistaat der Drei Bünde). Die Bünde wurden durch verschiedene Verträge (seit 1497) gleichberechtigter Partner der schweizerischen Eidgenossenschaft (formell als Zugewandter Ort). Seit 1512 verfügten die Bünde über die südlich anschliessenden Untertanengebiete Chiavenna, Veltlin und Bormio. Die bündnerischen Untertanengebiete fielen 1797 an die Cisalpinische Republik. 1799/1800 kam das verbliebene Gebiet als Kanton Rätien zur Helvetischen Republik, 1803 als Kanton Graubünden zur Schweiz. Am 5. März 1972 wurde das Frauenstimm- und -wahlrecht eingeführt. Bündner Küche. Der Kanton Graubünden hat eine eigenständige Küche entwickelt, welche sich von anderen Schweizer Regionalküchen unterscheidet. Typische regionale Produkte sind das luftgetrocknete Bündnerfleisch und andere Trockenfleischspezialitäten wie Salsiz oder Andutgel. Typische Gerichte sind Capuns, Plain in Pigna, Pizokel, Maluns, die Bündner Nusstorte sowie die Bündner Gerstensuppe. Als typisches Bündner Getränk gilt der Röteli. Bekannt sind die Weine aus der Bündner Herrschaft, dem grössten Weinbaugebiet des Kantons. Literatur. Es gibt eine in verschiedenen Idiomen geschriebene rätoromanische Literatur; bekannte Vertreter waren und sind Clo Duri Bezzola, Cla Biert, Arno Camenisch, Göri Klainguti und Tresa Rüthers-Seeli. Einzelnachweise. Graubunden Glycerin. Glycerin (von gr. "glykerós" ‚süß‘, auch Glycerol oder Glyzerin) ist der Trivialname und die gebräuchliche Bezeichnung von Propan-1,2,3-triol. Glycerin ist ein Zuckeralkohol und der einfachste dreiwertige Alkohol, ein Triol. Der Name "Glycerol" wurde eingeführt, da er die korrekte Endung "-ol" für einen Alkohol besitzt (die Endung "-in" steht für Alkine oder Amine). Glycerin ist in allen natürlichen Fetten und fetten Ölen als Fettsäureester (Triglyceride) vorhanden und spielt eine zentrale Rolle als Zwischenprodukt in verschiedenen Stoffwechselprozessen. Als Lebensmittelzusatzstoff trägt es das Kürzel E 422. Geschichte. 1779 erhielt Carl Wilhelm Scheele bei der Verseifung von Olivenöl erstmals Glycerin. Michel-Eugène Chevreul konnte im Jahr 1813 nachweisen, dass Fette Ester von Fettsäuren und Glycerin sind und gab dem Alkohol 1823 seinen Namen, abgeleitet von, ‚süß‘. Der Engländer George Fergusson Wilson entwickelte 1854 ein Verfahren, um reines Glyzerin in industriellem Maßstab synthetisieren. Gewinnung und Darstellung. Die Herstellung kann petrochemisch aus Propen mit den Zwischenprodukten Allylchlorid und Epichlorhydrin oder chemisch als Nebenprodukt bei der Verseifung von natürlichen Fetten und Ölen zur Gewinnung von Seifen (= Alkalisalze der Fettsäuren) geschehen. Früher wurden dazu vor allem tierische Fette eingesetzt. Inzwischen werden große Mengen Glycerin als Nebenprodukt der Biodieselherstellung erzeugt. Dies geschieht durch eine Umesterung von meist pflanzlichen Ölen mit Methanol. Ein Fettmolekül (Triacylglycerid) wird mit drei Methanolmolekülen zu Glycerin und drei Fettsäuremethylestern (FAME) umgesetzt. a> (unten), ein Gemisch von Fettsäuremethylestern, im Beispiel drei verschiedene. Auch eine biotechnologische Herstellung durch Fermentation ist möglich. Hefen können durch Sulfitzusatz die Gärung von Ethanolbildung auf Glycerinbildung umstellen. Als Substrat wurde oftmals Melasse verwendet, da diese neben einem hohen Anteil an Zucker auch viel Sulfit enthält. Diese Form der Gärung wurde 1918 von Neuberg als "2. Neuberg'sche Gärungsform" bezeichnet. Glycerin ist in unterschiedlichen Reinheiten im Handel erhältlich. Für industrielle Zwecke wird es als Rohglycerin und für pharmazeutische Zwecke ("Pharmaglycerin") in den Qualitäten 99,8-, 99,5- und etwa 86-prozentig angeboten. 86-prozentig (mit 14 % Wasser) ist es wegen des stark erniedrigten Schmelzpunkts (–10 °C) und der niedrigeren Viskosität (ca. 100 mPa·s) technisch einfacher zu handhaben. Die Aufbereitung erfolgt durch mehrstufige Destillation, Desodorierung und Filtration. Hochreines, synthetisches Glycerin stammt nicht aus tierischen oder pflanzlichen Vorprodukten und wird besonders in qualitätssensiblen Bereichen der Pharmaindustrie sowie der Kosmetik- und Lebensmittelindustrie eingesetzt. Physikalische Eigenschaften. Glycerin ist bei Raumtemperatur eine farb- und geruchlose, viskose und hygroskopische Flüssigkeit, die süßlich schmeckt. Glycerin hat eine Viskosität von 1480 mPa·s (20 °C). Chemische Eigenschaften. Glycerin bildet unter Hitzeeinwirkung weißen Dampf. Beim Erhitzen unter Sauerstoffmangel zersetzt es sich zu dem in Wasser gut (267 g/l) löslichen, sowie giftigen ungesättigten Aldehyd Propenal, das auch Acrylaldehyd oder Acrolein genannt wird. Mit festem Kaliumpermanganat reagiert es unter Selbstentzündung vollständig zu Kohlendioxid und Wasser. Von wässrigem Kaliumpermanganat wird es nur bis zur Mesoxalsäure oxidiert. (CSB-Titration durch Manganometrie) Lebensmittel und Kosmetik. Wegen seiner wasserbindenden Eigenschaften ist Glycerin in Kosmetikartikeln als Feuchtigkeitsspender enthalten. Als Lebensmittelzusatzstoff findet Glycerin unter der Nummer "E 422" Anwendung zur Feuchthaltung, etwa für Datteln oder Kaugummi, aber auch als Süßungsmittel. Auch in verschiedenen Zahnpasten ist Glycerin enthalten. Haushalt. Häufig wird Glycerin in das Wasser von Weihnachtsbaumständern gegeben, um den Baum länger frisch zu halten. Das Glycerin sorgt für Frostschutz und führt dazu, dass die Nadeln länger halten. Glycerin findet aufgrund seiner feuchtigkeitsspendenden Wirkung Verwendung in Lederpflegemitteln und Schuhcremes, um Leder glatt und geschmeidig zu halten. Auch bei der Herstellung von Flüssigkeit für Seifenblasen wird in der Regel etwas Glycerin hinzugegeben. Tabak und Zigaretten. Glycerin (E 422) wird zusammen mit 1,2-Propandiol als Feuchthaltemittel für Tabakwaren verwendet, nicht zu verwechseln mit der Glycerin-Phosphorsäure und deren Natrium-, Kalium- und Magnesiumverbindungen, deren Reinheitsanforderungen in der Tabakverordnung klar definiert ist. Im Zigaretten- und Pfeifentabak sollen die Feuchthaltemittel vor allem die Lagerungszeiten der Produkte verlängern und die Austrocknung verhindern. Shisha-Tabak werden von den Herstellern deutlich höhere Mengen an Feuchthaltemitteln zugemischt, um einerseits die Verbrennung des Tabaks zu verhindern und andererseits einen dichteren Dampf zu erzeugen. Weiterhin findet Glycerin ebenso wie 1,2-Propandiol Verwendung als Nebelfluid in elektrischen Zigaretten. Industrie und Technik. Glycerin wird als Frostschutzmittel (in Mischung mit Wasser als Wärmeträger), Schmierstoff und Weichmacher verwendet. In Nebelfluiden wird es zur Erhöhung der Standzeit des Nebels beigesetzt. Bei der Herstellung von Kunststoffen, Microchips, Farbstoffen sowie Zahnpasta wird die Substanz als Reaktant benötigt. Bei der Reaktion mit einem Gemisch konzentrierter Salpetersäure und konzentrierter Schwefelsäure entsteht „Glyceroltrinitrat“. Diese Verbindung ist der als „Nitroglycerin“ bekannte Explosivstoff, der zusammen mit Kieselgur den Sprengstoff Dynamit bildet. Aufgrund der zeitweise deutlich gesunkenen Preise werden neue Anwendungsgebiete für Glycerin gesucht. Neben der Verbrennung sind dabei insbesondere die Nutzung als zusätzliches Nährmedium (Cosubstrat) in Biogasanlagen zur Erzeugung von Biogas sowie die Nutzung als Fermentationssubstrat in der Industriellen Biotechnologie Alternativen. Weiterhin wird geforscht, Glycerin mit Isobuten zu Glycerin-"tert"-Butylether (GTBE; analog zu MTBE und ETBE) umzusetzen für den Einsatz als Kraftstoffzusatz. Seit 2009 setzt die Volkswagen AG aus alten Frittierfetten gewonnenes Glycerin anstelle von aus Erdöl gewonnenem Ethylenglycol als Kühlmittelzusatz (G13) in ihren Fahrzeugmodellen ein. Glycerin lässt sich in einem neuen Verfahren unter Einwirkung von Ameisensäure zu einem chemischen Grundbaustein – dem Allylalkohol – umsetzen. Landwirtschaft. Bei wachsenden Futtermittelpreisen findet Glycerin als Futtermittel für Wiederkäuer, Schweine und Hühner Interesse. Medizin. Glycerin wird in der Medizin als Arzneistoff zur Behandlung des Hirnödems eingesetzt. Dazu wird es als 10 %ige Lösung infundiert. In Form glycerinhaltiger Zäpfchen kommt es als Abführmittel (Laxans) zur Anwendung. Die Wirkung entsteht zum einen durch einen reflektorischen Effekt: Durch den Kontakt des Glycerins mit der Rektalschleimhaut wird der Defäkationsreiz gesteigert. Zum anderen wirkt ein osmotischer Effekt: Durch den Wassereinstrom in das Darmlumen wird der Stuhl weicher und gleitfähiger. Gegenstand medizinischer Forschung ist die Verwendung von Glycerin zur Aufrechterhaltung der menschlichen Hirn- und Organfunktionen während einer künstlichen Absenkung der Körpertemperatur. Dies könnte für langwierige, schwierige medizinische Operationen von Bedeutung sein. Biologisches Vorbild ist der kanadische graue Laubfrosch "Hyla versicolor", dessen Körperzellen sich zur Überwinterung mit Glycerin anreichern. Glycerin wird auch im Rahmen des Klockhoff-Testes (Glycerol-Belastungstest) zur Diagnose eines Morbus Menière verwendet. Biologische Bedeutung. Die meisten tierischen und pflanzlichen Fette und Öle sind Triacylglyceride (Triglyceride). Sie bestehen aus dem dreiwertigen Alkohol Glycerin, der über die Hydroxygruppen (–OH) dreifach mit Fettsäuren verestert ist. Sie sind Energiespeicher im Fettgewebe oder in Samen von Ölpflanzen, wie Raps, Soja und Sonnenblume. Ähnlich aufgebaut sind Phosphoglyceride. Statt der dritten Fettsäure ist eine Phosphatgruppe verestert und an diese ein Rest gekoppelt, wie Cholin im Lecithin. Somit erhält das Molekül einen polaren und einen apolaren Bereich, was die Bildung einer Membran (Zellmembran) ermöglicht. Nahezu alle natürlich vorkommenden Glycerinderivate weisen die sn-Konfiguration auf, welche die räumliche Anordnung der Substituenten am mittleren Kohlenstoffatom des Glycerins festlegt. Gesundheitsrisiken. Glycerin wird neben anderen Feuchthaltemitteln Wasserpfeifentabaken in erheblichen Mengen zugesetzt. Eine Untersuchung des Bundesinstitut für Risikobewertung (BfR) quantifizierte den Feuchthaltemittelgehalt im Wasserpfeifenrauch und konnte erhebliche Mengen der Feuchthaltemittel Glycerin und Propandiol (Propylenglycol) nachweisen. In der Bewertung der Ergebnisse wurde auf mögliche Gesundheitsgefahren hingewiesen, beispielsweise wurden im Tierversuch Veränderungen des Zellepithels im Kehlkopf und Reizungen der Nasenschleimhäute bis hin zum Nasenbluten festgestellt. Galileische Monde. Jupiter mit seinen vier größten Monden (Montage). Durch die Bezeichnung als "galileische" Monde wird der italienische Astronom und Naturforscher Galileo Galilei geehrt, der sie 1610 als erster beschrieb; zu Einzelheiten der Namensgebung und Entdeckungsgeschichte siehe Abschnitt "Wissenschaftsgeschichte." Eigenschaften. Die beiden Fotomontagen, aus einzelnen Aufnahmen der Raumsonde Galileo zusammengesetzt, zeigen die Galileischen Monde im richtigen Maßstab zueinander und zum Jupiter. Ihre Distanzen vom Riesenplaneten sind jedoch viel größer, sie liegen zwischen dem drei- bis dreizehnfachen Jupiterdurchmesser. Die Monde sind in der rechten Aufnahme von oben nach unten (und in der oberen Aufnahme von links nach rechts) Io, Europa, Ganymed und Kallisto. Dies ist auch die tatsächliche Reihenfolge ihrer Entfernungen vom Jupiter, wobei Io dem Planeten am nächsten und Kallisto am fernsten ist. Die Galileischen Monde gehören zu den größten im Sonnensystem. Mit einem Durchmesser von 5262 km ist Ganymed sogar größer (wenn auch masseärmer) als der Planet Merkur. Die Oberflächen der Monde sind höchst unterschiedlich. Aufsehen erregte der Mond Io, als man beim Vorbeiflug der Sonde Voyager 1 aktive Vulkane auf ihm entdeckte (siehe "Vulkanismus auf dem Jupitermond Io"). Europa hat eine zerfurchte Oberfläche, unter der eventuell ein Ozean liegt (siehe "extraterrestrischer Ozean"). Die mittlere Dichte der Monde nimmt mit zunehmendem Abstand vom Jupiter ab, das Material von Kallisto ist kaum mehr als Gestein zu bezeichnen. Alle anderen Jupitermonde – als fünfter wurde erst 1892 Amalthea mit etwa 150 km Durchmesser entdeckt – haben nicht annähernd die Größe der Galileischen Monde. Ihre gesamte Masse beträgt trotz 59 gezählter weiterer Satelliten kaum ein Promille der Masse von Europa, des kleinsten Galileischen Mondes. Erscheinungsbild. Jupiter mit seinen vier größten Monden im Fernrohr Die Beobachtung der Galileischen Monde ist bei Amateurastronomen sehr beliebt. Sie sind bereits in einem guten Fernglas zu sehen, es empfiehlt sich aber, das Fernglas zum Beispiel mit einem Stativ zu stabilisieren. Sie sind dann als kleine Lichtpunkte neben Jupiter zu sehen und können mit Sternen verwechselt werden. Da die Monde innerhalb von Stunden ihre Position verändern, ist es reizvoll, sie regelmäßig zu beobachten und Bedeckungen durch Jupiter oder Durchgänge vor der Planetenscheibe zu betrachten. Durch ein gutes Teleskop mit einer großen Öffnung, am besten ab 20 cm, sind die Monde als Scheibchen zu sehen, die sich alle in Farbe und Größe unterscheiden; bei hoher Vergrößerung und gutem Seeing ist es sogar möglich, grobe Strukturen zu erkennen. Da die Monde selbstverständlich Schatten werfen, kommt es regelmäßig vor, dass sie eine Sonnenfinsternis auf Jupiter verursachen. In einem Teleskop kann man dann einen kleinen schwarzen Schatten auf Jupiter erkennen, der langsam über die Planetenscheibe wandert. Die Galileischen Monde können sich auch gegenseitig bedecken oder verfinstern. Auch die Beobachtung solcher Phänomene ist mit einem guten Teleskop möglich. Wissenschaftsgeschichte. Galilei berichtetete 1610 in seinem "Sidereus Nuncius", er habe die vier Monde am 7. Januar desselben Jahres entdeckt, mit Hilfe eines von ihm selbst gefertigten Fernrohrs. Er nannte sie "Sidera Medicea" – die „Mediceischen Gestirne“. Ihre Namen im Einzelnen wurden von Simon Marius, einem Astronomen aus Gunzenhausen, (wohl nach Johannes Kepler) propagiert. Zusammen bezeichnete Marius sie seinen Markgrafen zu Ehren als "Sidera Brandeburgica", als er in einer 1614 erschienenen Schrift behauptete, sie bereits seit 1609 beobachtet zu haben ("Die Welt des Jupiter, 1609 mit dem flämischen Teleskop entdeckt" – Einzelheiten und wissenschaftshistorische Diskussionen zum entstandenen Prioritätsstreit entnimmt man dem Artikel über Marius). Mit der Entdeckung dieser Satelliten konnte zum ersten Mal beobachtet werden, dass es Himmelskörper gibt, die sich "nicht" um die Erde drehen. Da dies ein Widerspruch zum offiziellen geozentrischen Weltbild von Kirche und Gesellschaft war, nach dem alle Himmelskörper um die Erde kreisten, wurden seine Forschungen von einflussreichen Kreisen bekämpft oder nicht anerkannt. Professoren in Florenz weigerten sich sogar, auf Galileis Aufforderung hin durch sein Teleskop zu sehen. Galilei hatte als Erster vorgeschlagen, den Umlauf der vier Monde als weltweit beobachtbare Uhr zu verwenden. Mit Tabellen und Beobachtungen der Verfinsterungen der Monde sei es möglich, die Ortszeit und damit den Längengrad zu bestimmen. Doch 1676 wies Ole Rømer durch Vergleich von Tabelle und Beobachtung in Paris erstmals nach, dass die Lichtgeschwindigkeit endlich ist. Danach mussten die Tabellen um die Lichtlaufzeit korrigiert werden. Ein weiteres Problem wies Pehr Wilhelm Wargentin um 1740 an der Sternwarte Uppsala nach. Die Monde laufen nicht wie eine Uhr mit konstanter Geschwindigkeit um. Er vermutete, dass die gegenseitige Anziehung der Monde die Ursache dafür sei. Dies wurde 1766 von Lagrange und 1788 durch Laplace durch Störungsrechnung bestätigt. Laplace wies außerdem nach, dass die drei Monde Io, Europa und Ganymed in einem stabilen Zeitverhältnis 1:2:4, der sogenannten Laplace- oder Bahnresonanz umlaufen. Er konnte damit auch erstmals die Massen der Monde berechnen. Heute wird die seltene gegenseitige Verfinsterung der Monde genau beobachtet, um damit die Bahnen von Erkundungssonden wie Galileo genauer berechnen zu können. Gasplanet. Ein Gasplanet oder Gasriese („planetarer Gasriese“) ist in der Astronomie ein gebräuchlicher Ausdruck für einen großen Planeten, der überwiegend aus leichten Elementen wie Wasserstoff und Helium besteht. Gasplaneten rotieren meist schnell und haben nur einen geringen Anteil an schwererem Material (Gestein, Metalle). Demgegenüber haben erdähnliche Planeten relativ hohe Dichten, feste Gesteinskrusten und eine langsame Rotation. Im Sonnensystem sind dies die vier inneren Planeten (Merkur, Venus, Erde und Mars), während die vier Gasplaneten (Jupiter, Saturn, Uranus und Neptun) die Sonne viel weiter außen umrunden. Überblick. Gasplaneten haben keine feste Oberfläche; ihr gasförmiges Material wird mit zunehmender Tiefe dichter, da es durch die darüber befindlichen Schichten komprimiert wird. Dennoch können diese Planeten einen festen Kern haben – und nach der Kern-Aggregations-Hypothese ist solch ein Kern für ihre Entstehung sogar notwendig. Der Großteil der Planetenmasse besteht jedoch aus leichten Gasen, die im Innern aufgrund des hohen Drucks und niedriger Temperaturen in flüssigem oder festem Aggregatzustand vorliegen. Im Sonnensystem gibt es vier Gasplaneten, die aufgrund ihrer Lage jenseits des Asteroidengürtels auch als äußere Planeten bezeichnet werden. In der Reihenfolge von der Sonne aus gesehen sind das Jupiter, Saturn, Uranus und Neptun. Häufig werden Gasriesen nach dem größten dieser vier auch als jupiterähnliche oder – aus dem Lateinischen – als jovianische Planeten bezeichnet. Über die ähnliche Zusammensetzung hinaus haben die vier Riesenplaneten des Sonnensystems – im Unterschied zu den kleineren, terrestrischen Planeten aus Gestein und Metallen – alle ein mehr oder weniger ausgeprägtes Ringsystem und zahlreiche Satelliten. Das Fehlen einer sichtbaren, festen Oberfläche macht es zunächst schwierig, die Radien bzw. Durchmesser von Gasplaneten anzugeben. Wegen der nach innen kontinuierlich zunehmenden Dichte kann man aber jene Höhe berechnen, in der der Gasdruck gerade so hoch ist wie der Luftdruck, der an der Erdoberfläche herrscht (auf Meeresniveau "1 atm" oder 1013 mbar). Was man bei einem Blick auf Jupiter oder Saturn sieht, sind ausnahmslos die obersten Wolkenstrukturen innerhalb der Atmosphären der jeweiligen Planeten. Gürtel und Zonen. Alle vier Gasplaneten rotieren relativ schnell. Dies verursacht Windstrukturen, die in Ost-West-Bänder oder -streifen aufbrechen. Diese Bänder sind bei Jupiter sehr auffällig, dezenter bei Neptun und Saturn, auf Uranus hingegen kaum nachweisbar. Diese Strukturen sind grob mit Hoch- und Tiefdruckzellen in der irdischen Atmosphäre vergleichbar, wobei sie sich doch erheblich von diesen unterscheiden. Im Gegensatz zu kleinen lokalen Zellen von Druckgebieten umspannen die Bänder entlang der Breitengrade (latitudinal) den ganzen Planeten. Dies scheint an der schnellen Rotation, die wesentlich höher als die der Erde ist, und der darunterliegenden Symmetrie des Planeten zu liegen: Es gibt schließlich keine Landmassen oder Gebirge, welche die schnellen Winde bremsen könnten. Es gibt aber auch kleinere, lokale Strukturen, etwa Flecken von unterschiedlicher Größe und Färbung. Das auffälligste Merkmal Jupiters ist der Große Rote Fleck, der seit mindestens 300 Jahren existiert. Diese Strukturen stellen gewaltige Stürme dar. Bei einigen dieser Flecken treten Gewitter auf: Astronomen haben bei etlichen dieser „Spots“ Blitze beobachtet. Aufbau. Schematischer Aufbau von Jupiter, Saturn, Uranus und Neptun (v. l. n. r.) im Größenvergleich mit der Erde (oben). Im Sonnensystem haben die planetaren Gasriesen, Jupiter und Saturn, eine dicke Atmosphäre, die hauptsächlich aus Wasserstoff und Helium besteht, aber auch Spuren anderer Stoffe wie Ammoniak enthält. Der Großteil des Wasserstoffes ist jedoch in "flüssiger" Form vorhanden, der auch die Hauptmasse dieser Planeten ausmacht. Die tieferen Schichten des flüssigen Wasserstoffes stehen oft unter so starkem Druck, dass dieser metallische Eigenschaften bekommt. Metallischer Wasserstoff ist nur unter solch extremem Druck stabil. Berechnungen legen nahe, dass felsiges Material vom Kern im metallischen Wasserstoff gelöst ist und daher bei größeren Gasplaneten auch der Kern keine feste Oberfläche besitzt. Die kleineren Gasplaneten im Sonnensystem, Uranus und Neptun, beinhalten mehr Anteile an Wasser (Eis), Ammoniak und Methan als die Gasriesen Jupiter und Saturn. Daher werden die beiden kleineren Planeten manchmal auch als "Eisriesen" bezeichnet. Der Grund dieser Unterschiede ist ihr prozentual geringerer Anteil an Wasserstoff und Helium. Entstehungsmodelle. Als Erklärung der Entstehung von Gasplaneten konkurrieren zwei Modelle mit unterschiedlichem Ansatz. Exoplaneten und Zwergsterne. Viele der Exoplaneten, die in den letzten Jahren bei anderen Sternen entdeckt wurden, scheinen Gasriesen zu sein. Daher liegt die Vermutung nahe, dass diese Art von Planeten im Universum recht häufig ist. Allerdings konnte man bisher aufgrund der schwierigen Beobachtungstechnik ohnehin nur "große" Exoplaneten entdecken, sodass die vorhandenen Daten nicht repräsentativ sind. Oberhalb von etwa der 13-fachen Masse des Jupiter, was 1,2 % der Sonnenmasse entspricht, setzen wegen der großen Hitze und des enormen Drucks im Inneren bereits erste Kernfusionsprozesse ein. Dies sind im Wesentlichen Himmelskörper über 13 Jupitermassen (MJ) sind jedoch noch keine Sterne, sondern so genannte Braune Zwerge. In ihnen findet noch keine Wasserstoff-Helium-Fusion statt, die erst ab etwa 75 Jupitermassen einsetzt und die Hauptenergiequelle eines "normalen Sterns" ist. Nach der neueren Definition für Braune Zwerge durch Fusionsprozesse beträgt die Obergrenze für einen Planeten also 13 Jupitermassen. Hat ein Gasriese eine Masse über 13 MJ, beginnt die Gaskugel – im Gegensatz zu einem Planeten – Fusionsenergie freizusetzen und wird bis etwa 70 MJ (7 % der Sonnenmasse) als Brauner Zwerg bezeichnet, kann den Kontraktionsprozess aber, anders als ein Stern, durch diese Energie noch nicht stabilisieren. Erst noch massereichere Himmelskörper sind tatsächlich Sterne. Geist. Geist ("pneuma", "nous" und auch "psyche", lat. "spiritus", "mens", "animus" bzw. "anima", hebr. "ruach" und arab. "rūh", engl. "mind", "spirit", franz. "esprit") ist ein aus historischen Gründen uneinheitlich verwendeter Begriff der Philosophie, Theologie, Psychologie und Alltagssprache. Die Frage nach der „Natur“ des Geistes ist somit ein zentrales Thema der Metaphysik. In der Tradition des deutschen Idealismus bezieht sich der Begriff hingegen auf überindividuelle Strukturen. In diesem Sinne ist etwa die hegelsche Philosophie zu verstehen, aber auch Wilhelm Diltheys Konzeption der Geisteswissenschaften. a>s "Utriusque cosmi maioris scilicet et minoris" … "historia" Der Begriff des Geistes. Die modernen heterogenen Konzeptionen des Geistes haben ihren Ursprung zum einen in der antiken Philosophie und zum anderen in der Bibel. Während sich in den meisten romanischen Sprachen ein entsprechender Begriff aus dem lateinischen "spiritus" entwickelte, leitet sich der Begriff des Geistes aus der indogermanischen Wurzel "*gheis-" für erschaudern, ergriffen und aufgeregt sein ab. Das westgermanische Wort "*ghoizdo-z" bedeutete wohl „übernatürliches Wesen“ und wurde mit der Christianisierung der Germanen christlich umgedeutet, so dass der Begriff in althochdeutschen ("geist") und altenglischen ("gást") Schriften als Übersetzung für den biblischen "Spiritus Sanctus" diente. Dieser Sinngehalt des Wortes hielt sich bis in die Gegenwart, so dass „Geist“ auch als Synonym für „Gespenst“ verwendet wird. Eine weitere Bedeutungsebene, die heute jedoch nicht mehr offensichtlich ist, stellt „Geist“ in einen Zusammenhang mit „Atem, Windeshauch“ als Ausdruck der Belebtheit. So findet sich noch in Luthers Übersetzung der Bibel die Formulierung „der himmel ist durchs wort des herrn gemacht und all sein heer durch den geist seines munds“. Auch das lateinische "spiritus" weist diese Bedeutung auf; es ist mit "spirare" „atmen“ verwandt. Zudem wird der Begriff des Geistes verwendet, um sich auf die kognitive und emotionale Existenz eines Lebewesens zu beziehen. Umstritten ist in der Theorie das Verhältnis von Geist und Gehirn: Während die Theologie und die Philosophie in der Tradition René Descartes' davon ausgehen, dass sich der Begriff „Geist“ auf ein immaterielles Ding bezieht, postulieren viele Naturwissenschaftler und Philosophen, der Geist sei nichts anderes als neuronale Aktivität. In diesem Fall beziehe sich der Terminus letztlich auf das Gehirn. Andere Philosophen behaupten wiederum, der Geist sei keine immaterielle Substanz, könne aber dennoch nicht auf das Gehirn reduziert werden. Die Natur des Geistes ist das Hauptthema der Philosophie des Geistes. In verschiedenen Theorien, gelegentlich auch im Alltag, wird der Ausdruck zur Charakterisierung überindividueller Phänomene, Objekte, Eigenschaften oder Prozesse eingesetzt. Johann Gottfried Herders Werk "Vom Geist des Christentums" prägte diese Begriffsverwendung entscheidend mit. Ein zentrales Konzept der deutschsprachigen Kultur wurde „Geist“ spätestens mit dem Werk Georg Wilhelm Friedrich Hegels. Nach Hegel manifestiert sich in Gemeinschaften ein objektiver Geist, während der absolute Geist Kunst, Philosophie und Religion auszeichnet. Auch die Sozialwissenschaften benutzen den Begriff des Geistes, um auf Merkmale von Gemeinschaften hinzuweisen. In dem Sinne ist etwa Max Webers Rede vom „Geist“ des Kapitalismus zu verstehen. Dieser „Geist“ ergibt sich durch die Normen und Werte kapitalistischer Gemeinschaften. Im allgemeinen Sprachgebrauch findet sich beispielsweise die Formulierung: „Hier herrscht ein Geist der Eintracht“. Antike. Die Antwort auf die Frage, was der deutsche Begriff „Geist“ in der Antike umfasste, ist bei einem so vielschichtigen Wort problematisch. Die durch „Geist“ ausgedrückten Aspekte werden in der griechischen Antike vor allem durch "pneuma" (Geist, Hauch) und "nous" (Vernunft, Geist) umfasst. Hinzu kommen die Ausdrücke "psychê" (Seele), "thymos" (Leben(skraft), Zorn/Mut) und "logos" (Rede, Vernunft). "Pneuma" wie auch "nous" bezeichnen jeweils teilweise ein menschliches Vermögen aber auch ein kosmologisches Prinzip. "Pneuma" ist dabei der Wortbedeutung nach ein materiell gedachter Körper bewegter Luft. "Nous" hingegen wird mitunter auch immateriell gedacht. Zumeist wird er bei menschlichen Angelegenheiten aufnehmend gedacht, bei kosmischen anstoßend. Pneuma. Der Begriff des Pneumas ist zuerst bei Anaximenes belegt. Seit dem Hellenismus und insbesondere in der römischen Stoa vermischen sich die beiden Aspekte menschliches Vermögen und kosmologisches Prinzip im Begriff des "pneuma". "Pneuma" bezeichnet hier die materielle Substanz – die Stoiker waren Materialisten – sowohl der Einzelseele als auch der Weltseele. "Pneuma" ist somit ein stoffliches und zugleich geistiges Prinzip, das den gesamten – als Lebewesen vorgestellten – Kosmos durchdringt und dessen Organisation bewirkt. Das "Pneuma" im Menschen ist zum Lebensanfang wie ein unbeschriebenes Blatt, das mit sinnlichen Eindrücken und Vorstellungen gefüllt wird. Es ist zudem der lenkende Seelenteil, der die für Stoiker zentrale Forderung „"in Übereinstimmung" (mit der – als vernünftig gedachten – Natur) "leben"“ zu erfüllen ermöglicht. Nous. Bei Homer und später bei den meisten Vorsokratikern scheint "nous" ein Vermögen zu sein, das sich sowohl auf sinnliche wie auch mit dem Verstand erfassbare (intelligible) Gegenstände richtet. Xenophanes und auch noch Empedokles setzen Denken und Wahrnehmen in eins. Für Parmenides hingegen hat der "nous" nur notwendig existierende und daher nur intelligible Gegenstände. Hinsichtlich der Funktionsweise ist von Vorsokratikern wie Empedokles, Anaxagoras und Demokrit belegt, dass sie den Geist, das Denken als einen körperlichen Vorgang ansehen. Empedokles, der das Prinzip "Gleiches wird nur von Gleichem erkannt" vertrat, behauptet, das Blut sei der Sitz der Erkenntnis, weil es der am besten durchmischte Stoff sei. Platon und Aristoteles fassen – im Gegensatz zu vielen Vorsokratikern – die Tätigkeit des "nous", das Denken, als einen nicht-körperlichen Vorgang auf. Dieser komme nur dem Menschen zu. Zudem unterscheidet Platon explizit auch sinnlich Wahrnehmbares von Intelligiblem und vertritt – in der Tradition von Parmenides – sehr deutlich die These, dass Wissen nur gegen die sinnliche Wahrnehmung und den Körper möglich sei. Aristoteles definiert in seiner Schrift "De anima nous" als „"das, womit die Seele denkt und Annahmen macht.“" Er vergleicht den "nous" – analog wie bei der Wahrnehmung – mit einer leeren Schreibtafel aus Wachs. "Nous" ist unaffiziert (d. h. unangeregt), unbestimmt, ein passives Vermögen, dessen Natur darin besteht, im Aufnehmen der Formen das aktual werden zu können, was er denkt. Er ist auch nicht einem bestimmten Organ zugeordnet, sondern körperlos. Im Hellenismus wird das kognitive Vermögen "nous" sowohl von der Stoa als auch von Epikur materialistisch aufgefasst. Beide Schulen führen Erkenntnis vollständig auf materiell gedachte Wahrnehmung zurück. Mittelalter. Der Philosoph und christliche Kirchenlehrer Augustinus unterscheidet im Übergang zwischen Spätantike und Frühmittelalter zwischen Geist ("mens", "animus") und Seele ("anima"). Er fasst den Geist als eine an der Vernunft teilhabende Substanz auf, die zur Leitung des Leibes bestimmt ist ("„substantia quaedam rationis particeps regendo corpori accomodata“"). Dem Geist kommen wesensmäßig Vernunft ("ratio") und Einsicht ("intelligentia") zu. Er wird durch die Laster ("vitium") geschwächt und muss, um seiner Leitungsaufgabe gerecht werden zu können, durch den Glauben ("fides") gereinigt werden. Er beschreibt den menschlichen Geist als "„Auge der Seele (oculus animae)“". Diesem ist die Erkenntnis ewiger Wahrheiten durch das unveränderliche Licht ("lumen incommutabilis") des göttlichen Geistes möglich, das den menschlichen Geist und das ihm begegnende Seiende erleuchtet. Dieses Licht stellt das Innerste des Menschen selbst dar. Die Wendung ("conversio") des Menschen zu diesem Innersten hin ist für Augustinus Selbstvollzug des Geistes und bedeutet die Rückkehr zu seinem eigentlichen Ursprung. Thomas von Aquin, einer der Hauptvertreter der Scholastik, fasst die menschliche Seele als eine geistige Substanz ("substantia spiritualis") auf. Im Unterschied zur Tierseele hat sie einen rein geistigen Charakter und ist daher unsterblich. Thomas vertritt eine strikte Leib-Seele-Einheit des Menschen. Die Seele ist Form des Leibes ("forma corporis") und teilt ihm ihr Sein mit. Umgekehrt ist aber auch der Geist zur Erkenntnis auf den Leib und seine sinnliche Vermittlung angewiesen. Alle geistigen Erkenntnisse werden mittels des „tätigen Intellekts ("intellectus agens")“ von den Sinneswahrnehmungen abstrahiert. Der Mensch als schwächster Strahl der Geistigkeit vermag das rein Geistige nicht zu schauen. Die Erkenntnis vermag nur so weit zu reichen wie der geistige Gehalt des Sinnenfälligen, von dem sie ausgeht, es ihr gestattet. Eine unmittelbare Erkenntnis Gottes ist daher für Thomas ausgeschlossen. Die menschliche Seele ist bei Thomas die niederste der geistigen Formen. Sie ist ein Vernunftprinzip, das notwendig eines Körpers bedarf, um tätig werden zu können. Sie stellt daher gegenüber der Seele der Engel, die in keinerlei Verbindung mit dem Materiellen steht, eine tiefere Stufe der Geistigkeit dar. Die Seele hängt zwar in ihrer Existenz nicht von der Materie ab, ragt aber doch tief in das Körperliche hinein, da sie ohne den Körper etwas Unfertiges ist. Sie wird bei Thomas zum äußersten und abgeschwächtesten Strahl des Verstandeslichtes, das in Gott aufleuchtet und im Menschen seine unterste Grenze erreicht wie das Sein bei der Materie. Sie steht daher auf der Grenze der geistigen und körperlichen Geschöpfe ("in confinio spiritualium et corporalium creaturarum"). Descartes. Bei dem Philosophen, Mathematiker und Naturwissenschaftler René Descartes, Begründer des Rationalismus, ist der Geist ontologisch von der Materie getrennt, die Wirklichkeit gliedert sich in eine materielle und eine nichtmaterielle Sphäre. Menschen sind im Wesentlichen durch ihren immateriellen Geist ausgezeichnet und unterscheiden sich dadurch von Tieren, die Descartes als Automaten begreift. Zur Stützung seines Leib-Seele-Dualismus entwickelte Descartes Argumente, die bis heute in der Philosophie des Geistes diskutiert werden. So erklärte er, dass man sich klar und deutlich vorstellen könne, dass Geist ohne Materie existiere. Was man sich klar und deutlich vorstellen kann, ist aber zumindest prinzipiell auch möglich. Und wenn es prinzipiell möglich ist, dass Geist ohne Materie existiert, können Geist und Materie nicht identisch sein. Varianten dieses Argumentes findet man in der heutigen Debatte bei Saul Kripke und David Chalmers. Ein anderes Argument Descartes' bezieht sich auf die menschliche Sprachfähigkeit: Es sei unvorstellbar, dass ein Automat das komplexe System einer natürlichen Sprache beherrsche. Diese Argumentation wird heute von den meisten Philosophen und Wissenschaftlern unter Verweis auf die Erkenntnisse der Computer- Psycho- und Neurolinguistik abgelehnt. Es bleibt jedoch festzuhalten, dass die menschliche Sprachfähigkeit keineswegs umfassend erforscht ist und dass die Computerlinguistik weit davon entfernt ist, die Komplexität natürlicher Sprachen zu erfassen. Descartes' Bild vom Menschen ist also wesentlich zweigeteilt: Der Mensch besteht aus einem materiellen Körper und einem immateriellen Geist. Körper und Geist interagieren an einer Stelle im Gehirn (der Zirbeldrüse) miteinander. Verbrennt sich eine Person etwa am Fuß, so wird der Reiz durch den Körper zum Gehirn und von dort zum Geist geleitet (siehe Abbildung). Im Geist verspürt die Person Schmerzen, was wiederum eine körperliche Reaktion verursacht. Vertreter eines solchen Dualismus haben unter anderem zu erklären, wie diese Interaktion von Geist und Körper genau vorzustellen ist. In der Gegenwartsphilosophie wird dieses Problem unter dem Begriff "Mentale Verursachung" diskutiert. 18. und 19. Jahrhundert. Immanuel Kant knüpfte sowohl an Hume wie auch an Gottfried Wilhelm Leibniz an. Im Rahmen des transzendentalen Idealismus ist der menschliche Geist selbst an der Bildung der Realität beteiligt. Eine vom Geist und seiner Subjektivität freie Realität lässt sich nur als Ding an sich vorstellen. Doch auch mit Bezug auf das "Ding an sich" sind keine konkreten Aussagen über eine vom Geist unabhängige Realität möglich, da das "Ding an sich" nicht durch die menschlichen Kategorien zu fassen ist. Mit der idealistischen Wende findet eine Aufwertung des Geistes statt, der zu einem konstitutiven Element der Realität wird. Georg Wilhelm Friedrich Hegel, porträtiert von Jakob Schlesinger, 1831 In der Philosophie des 19. Jahrhunderts, besonders im Deutschen Idealismus, setzte sich diese Tendenz fort. Hegel entwickelte einen absoluten Idealismus, der die subjektive Zurücknahme des Erkenntnisanspruches auf objektive Wahrheit überwinden wollte. Darin fasste er die Denkgeschichte dialektisch als einen geschichtlichen Prozess der Entwicklung des Weltgeistes auf. Dieser wird als die Rückwendung des Absoluten aus seinem Anderssein, der Natur, zu sich selbst gedacht. Sie konkretisiert sich in den drei Erscheinungsformen des Geistes: im "subjektiven Geist" des einzelnen Menschen, im "objektiven Geist" der menschlichen Gemeinschaftsformen von Recht, Gesellschaft und Staat und dem "absoluten Geist", Kunst Religion und Philosophie. In der Philosophie vollendet sich die Rückkehr des Geistes zu sich selbst in Gestalt des absoluten Wissens. Der absolute Geist ist so der Inbegriff für die Wirklichkeit und den Grund allen Seins. Im deutschen Idealismus wurde das kantsche Programm ohne dessen Idee des "Dings an sich" fortgeführt. Dies rückte den Geist noch weiter in den Fokus der philosophischen Aufmerksamkeit, da nun eine vom Geist unabhängige Wirklichkeit nicht einmal als Grenzbegriff angenommen wurde. Das Leib-Seele-Problem fand im Rahmen derartiger Konzeptionen folgende Lösung: Wenn der Geist immer schon konstitutiv für die wissenschaftlich untersuchte Natur ist, so ergibt es keinen Sinn, zu fragen, ob und wo der Geist in dieser Natur zu lokalisieren sei. In der gegenwärtigen Philosophie des Geistes werden nur noch selten konsequent idealistische Theorien vertreten. Dagegen formulierte Karl Marx, sich auf Hegel beziehend, seine materialistische Auffassung des Geistes. Demnach bedingt die „Produktionsweise des materiellen Lebens“ bzw. die darin verankerte Arbeit den „sozialen, politischen und geistigen Lebensprozeß“. Eine weitere Bedeutungskomponente erhielt der Begriff des Geistes im 19. Jahrhundert durch den Philosophen, Psychologen und Pädagogen Wilhelm Dilthey, Mitbegründer der Lebensphilosophie, der die Geisteswissenschaften den Naturwissenschaften gegenüberstellte. Nach seiner Auffassung sind die Geisteswissenschaften durch eine besondere Methode, die Hermeneutik, ausgezeichnet. Während sich die Naturwissenschaften mit Kausalzusammenhängen beschäftigen, sollen die Geisteswissenschaften zu einem tieferen Verstehen der Phänomene beitragen. Der Neukantianer Wilhelm Windelband versuchte diese Unterscheidung zu präzisieren, indem er betonte, dass die Geisteswissenschaften besondere und einmalige Ereignisse erforschen, während die Naturwissenschaften nach allgemeinen Naturgesetzen suchen. 20. Jahrhundert. Im frühen 20. Jahrhundert war das philosophische Nachdenken über den Geist maßgeblich durch den Wiener Kreis geprägt. Die Mitglieder des Wiener Kreises versuchten, philosophische Konsequenzen aus der Methodologie des psychologischen (methodologischen) Behaviorismus zu ziehen. Die klassischen Behavioristen hatten erklärt, dass sich introspektive Angaben über den Geist nicht überprüfen lassen und daher nicht Teil einer Wissenschaft sein können. Die Psychologie müsse sich daher auf Verhaltensbeschreibungen beschränken. Im Wiener Kreis wurden diese Annahmen mit dem Verifikationismus kombiniert, also der These, dass nur überprüfbare Aussagen eine Bedeutung haben. Als Konsequenz erscheinen Aussagen über den Geist als sinnlos, sofern sie nicht von Verhalten handeln. Die behavioristische Tradition fand ihre Fortführung in Gilbert Ryles 1949 veröffentlichtem Werk "The Concept of Mind" ("Der Begriff des Geistes"), das für mehr als ein Jahrzehnt zur orthodoxen Interpretation des Themas „Geist“ in der angelsächsischen Philosophie wurde. Ryle erklärte, es sei ein Kategorienfehler, davon auszugehen, dass der Geist etwas Inneres ist. In einer gewissen Spannung zum Behaviorismus stand hingegen das Werk Ludwig Wittgensteins. Zwar bestreitet auch Wittgenstein, dass der Geist als ein innerer Zustand zu verstehen sei, grenzt sich jedoch zugleich vom Behaviorismus ab. In eine entgegengesetzte Richtung führte die von Edmund Husserl begründete Phänomenologie, die explizit die Untersuchung subjektiver, geistiger Phänomene zum Ziel hatte. Im Verfahren der epoché sollen alle Annahmen über die Außenwelt „eingeklammert“ und so eine Erforschung der puren Subjektivität möglich gemacht werden. Unter Bezugnahme auf Franz Brentano nahm Husserl an, dass geistige Zustände im Wesentlichen durch Intentionalität gekennzeichnet seien. Damit ist gemeint, dass sich mentale Zustände auf etwas beziehen, so bezieht sich etwa die Sehnsucht nach einer Person auf eine Person. Die Husserlsche Phänomenologie übte einen enormen Einfluss auf die Philosophie des 20. Jahrhunderts aus, unter anderen auf Husserls Schüler Martin Heidegger und Jean-Paul Sartre, der nach Freiburg kam, um bei Husserl zu studieren. In der französischen Philosophie knüpfte insbesondere Maurice Merleau-Ponty an Husserls Intentionalitätsbegriff an. Dabei wollte Merleau-Ponty mit dem Begriff des Leibes die Entgegensetzung von Körper und Geist aufheben. Der Leib ist ein lebender und aktiv wahrnehmender Körper und lässt sich somit nicht durch eine Entgegensetzung von Geistigem und Nicht-Geistigem fassen. In den frühen 1960er Jahren gab es auch in der angelsächsischen Philosophie eine radikale Abkehr von den behavioristischen Theorien. Durch die Erfolge der neurowissenschaftlichen Forschung inspiriert, versuchten Identitätstheoretiker den Geist auf das Gehirn zu reduzieren. Ein analoges Programm wurde von Funktionalisten vertreten, die sich jedoch auf Künstliche Intelligenz und Kognitionswissenschaft stützen. Diese reduktiven Bemühungen blieben allerdings nicht unwidersprochen, es wurde auf unüberwindbar erscheinende Probleme des Reduktionismus hingewiesen. Mit den so genannten Qualia (Bewusstsein der Phänomene) und der Intentionalität hat der Geist nach Meinung vieler Philosophen Eigenschaften, die sich nicht durch Naturwissenschaften erklären lassen. Durch die Spannung zwischen den Erfolgen der empirischen Forschung und den Problemen des Reduktionismus ist in der Philosophie eine sehr differenzierte Debatte um die Natur des Geistes entstanden. Heute werden verschiedene Formen des Physikalismus, Dualismus und Pluralismus vertreten. Die Eliminativen Materialisten verzichten gänzlich auf die Annahme der Existenz eines Geistes. Geist in den Wissenschaften. Auch bei dem Blick auf die wissenschaftliche Erforschung des Geistes ergibt sich kein einheitliches Bild. Die Wissenschaften, die sich mit dem Phänomen des Geistes beschäftigen, verfolgen verschiedene Ziele und verwenden zum Teil sehr unterschiedliche Modelle und Methoden. Die relevanten Wissenschaften reichen von der Psychiatrie, den Sozialwissenschaften, der Sozialpsychologie und der Psychologie bis hin zur Hirnforschung. Psychiatrie. Die Psychiatrie hat sich in ihrer geschichtlichen Entwicklung in Deutschland vor allem in der Zeit der Aufklärung mit dem Geist als auslösende Voraussetzung der Geisteskrankheiten befasst. Hier wurden geisteswissenschaftliche Bedingungen dieser Erkrankungen untersucht, so wie es die Psychiker bis etwa 1845 taten. Da der Geist anderen Gesetzen unterliegt als die Materie, erfolgten ideologische Auseinandersetzungen mit dem naturwissenschaftlichen Standpunkt der Somatiker. Erst recht wurden diese geisteswissenschaftlichen psychiatrischen Ergebnisse durch die neuere Hirnforschung in Frage gestellt. Sozialwissenschaft und Sozialpsychologie. In den Sozialwissenschaften kommt gelegentlich eine überindividuelle Verwendung des Begriffs „Geist“ hinzu. So nannte der Soziologe Max Weber eines seiner einflussreichsten Werke 1904 "Die protestantische Ethik und der Geist des Kapitalismus" und noch 1935 Ferdinand Tönnies sein Alterswerk "Geist der Neuzeit". In diesem Zusammenhang bezieht sich der Ausdruck „Geist“ auf grundlegende Normen, Überzeugungen und Weltanschauungen, die für eine Gemeinschaft konstitutiv sind. Allerdings ist auch diese Bedeutung nicht unabhängig vom Geist der Individuen, da die Normen und kollektiven Anschauungen für die einzelnen Mitglieder eines Kollektivs sehr bedeutsam sind. Der Geist im sozialwissenschaftlichen Sinne ist nur denkbar, wenn es Entsprechungen im Geist einer Vielzahl von Individuen gibt. Pierre Bourdieu entwickelte in der zweiten Hälfte des 20. Jahrhunderts eine komplexe so genannte „Theorie der Praxis“ mit eigenen Begrifflichkeiten. Er unternahm den Versuch, Geist und Materie wie auch Subjektivismus und Objektivismus auf der Basis empirischer Erforschungen des Alltagslebens und vergleichender Kulturforschung miteinander zu verknüpfen. Der Mensch „inkorporiert“ demnach seine soziale Umwelt durch geistige Lernakte, die sich auch körperlich ausdrücken. Zu diesem Habitus gehören unter anderem die Denk- und Sichtweisen der Wahrnehmungen, die das Urteilen und Bewerten beeinflussen und den Handlungsspielraum begrenzen. In der Sozialpsychologie wird der Einfluss sozialer Interaktion auf geistige Prozesse wie Gedanken oder Gefühle untersucht. Dabei kann der Fokus auf einen weiten sozialen Kontext oder auf zwischenmenschliche Prozesse gerichtet sein. Ergänzt werden sozialpsychologische Ansätze durch kulturvergleichende oder kulturhistorische Untersuchungen, in denen etwa dargestellt wird, wie Gefühle (z. B. Liebe oder Eifersucht) sich in verschiedenen Kulturen unterscheiden und entwickelt haben. Die Sozialpsychologie berührt hier auch die klassische anthropologische Frage nach der Universalität von bestimmten geistigen Prozessen. Von der Kognitionspsychologie zur Psychoanalyse. Die klassische Wissenschaft des Geistes ist die Psychologie, wobei man innerhalb der Psychologie wiederum zwischen verschiedenen Ansätzen unterscheiden muss. So untersucht etwa die Kognitionspsychologie geistige Prozesse mit möglichst präzisen experimentellen Methoden, um so kognitive Phänomene wie Gedächtnis, Wahrnehmung oder Denken besser zu verstehen. Ein Beispiel hierfür ist die Forschung zum Priming, bei dem mittels Darbietung eines Reizes (Prime) die Verarbeitungszeit eines Zielreizes (Target oder Probe) beeinflusst wird. Bei Primingexperimenten wird der Versuchsperson eine Aufgabe gestellt, so muss sie etwa präsentierte Bilder benennen (Beispiel: Bild von einem Brot → Reaktion „Brot“). Präsentiert man der Person kurz vor der Aufgabe einen verwandten ähnlichen Reiz bzw. Prime (etwa das Wort „Käse“), so wird die Versuchsperson die Benennungsaufgabe schneller lösen. Kognitionspsychologen schließen aus diesen Befunden, dass die Begriffe im Geist in einer netzwerkartigen Struktur organisiert sind und die Präsentation des Primes eine Voraktivierung an der richtigen Stelle des Netzwerks auslöst. In den letzten Jahrzehnten haben die Kognitionspsychologen sehr viele Daten über geistige Prozesse gesammelt, und sie gehen zunehmend dazu über, diese Daten in komplexen Modellen zusammenzufassen. In Form von kognitiven Architekturen werden solche Modelle als Computerprogramme realisiert und sollen die Prognose von geistigen Prozessen möglich machen. Derartige kognitionspsychologische Modelle sind jedoch auf grundlegende geistige Prozesse beschränkt, also etwa auf die Wahrnehmung von Bewegungen und Formen oder auf das Kurzzeitgedächtnis. Will man mit Hilfe von psychologischen Untersuchungen komplexe geistige Phänomene, wie etwa Charaktermerkmale oder psychische Erkrankungen verstehen, so muss man auf andere Teildisziplinen (wie etwa die Persönlichkeitspsychologie) zurückgreifen. Strukturmodell der Psyche nach Freud Einflussreich ist in diesem Zusammenhang auch die Psychoanalyse in der Tradition von Sigmund Freud. Freud machte zu Beginn des vorigen Jahrhunderts darauf aufmerksam, dass geistige Prozesse zu weiten Teilen unbewusst ablaufen. So muss sich eine Person etwa keinesfalls im Klaren über ihre Angst oder Wut sein. Gleichzeitig betonte Freud, dass die Struktur des Geistes maßgeblich durch die sozialen Normen und Werte einer Gemeinschaft geprägt sind. Freud beschrieb die Bildung des "Ichs" (Wahrnehmen, Denken und Gedächtnis) im Strukturmodell der Psyche als einen Prozess im Spannungsfeld zwischen dem Unterbewussten ("Es") und den verinnerlichten Normen und Werten ("Über-Ich"). Auch wenn die psychoanalytischen Methoden und auch die psychoanalytische Therapie weiterhin umstritten sind, wird in der Psychologie doch allgemein anerkannt, dass zum umfassenden Verständnis geistiger Strukturen eine Analyse unbewusster und sozialer Prozesse notwendig ist. Es wird zudem akzeptiert, dass eine solche Analyse nicht allein mit kognitions- oder biopsychologischen Ansätzen durchgeführt werden kann. Will man etwa psychische Erkrankungen wie Phobien oder Depressionen umfassend verstehen, so muss man den weiten lebensgeschichtlichen und sozialen Kontext einer Person betrachten. Geist und Gehirn. Während die Psychologie am Verhalten indirekt geistige Aktivitäten untersucht, ist das Thema der Neurowissenschaften zunächst das Gehirn und nicht der Geist. Zugleich macht die neurowissenschaftliche Forschung jedoch deutlich, dass geistige Aktivitäten nicht unabhängig vom neuronalen Geschehen sind. So beschreibt etwa die Neurologie den Zusammenhang zwischen Läsionen (Schädigungen) des Gehirns und kognitiven Beeinträchtigungen. Ein Beispiel hierfür sind Aphasien (erworbene Sprachstörungen), bei denen spezifische Beeinträchtigungen oft mit Schäden in spezifischen Gehirnregionen verbunden sind. Große Aufmerksamkeit hat in den letzten Jahren zudem die Suche nach neuronalen Korrelaten des Bewusstseins erfahren. Mit der Hilfe von bildgebenden Verfahren ist es möglich, die neuronalen Aktivitäten im Gehirn zu messen und zu visualisieren: Derartige Methoden erlauben es zumindest in Ansätzen zu untersuchen, welche Aktivitäten im Gehirn ablaufen, wenn eine Person sagt oder auf andere Weise signalisiert, dass sie etwas wahrnimmt, fühlt oder denkt. Dabei kann man feststellen, dass während der von Versuchspersonen bezeichneten geistigen Aktivitäten nicht alle Bereiche des Gehirns gleichmäßig aktiv sind. Vielmehr scheinen mit spezifischen geistigen Aktivitäten oft auch spezifische neuronale Aktivitäten verbunden zu sein. Die Erforschung derartiger Verbindungen steckt jedoch noch in der Anfangsphase und es war bisher nicht möglich, von einer bestimmten neuronalen Aktivität auf eine bestimmte geistige Aktivität zu schließen. Es wird zudem oft bezweifelt, dass dies bei komplexen Gedanken oder Gefühlen jemals möglich sein wird. Wie ist nun diese Verbindung zwischen geistigen und neuronalen Aktivitäten zu verstehen? Warum sind etwa Veränderungen des Geistes mit Veränderungen des Gehirns verknüpft? Eine mögliche Antwort lautet, dass die geistigen Aktivitäten mit den Aktivitäten im Gehirn identisch sind. Nach einer solchen Theorie wären etwa Kopfschmerzen nichts anderes, als eine bestimmte Aktivität im Gehirn. Auch wenn eine solche Identitätstheorie die systematischen Verbindungen zwischen Geist und Gehirn leicht erklären kann, hat sie doch mit Problemen zu kämpfen. Zweifel an der Gleichsetzung von geistigen Aktivitäten mit Gehirnvorgängen werden oft mit Hilfe des Qualiaproblems artikuliert. Mentale Zustände wie Kopfschmerzen sind durch Erleben ausgezeichnet, es fühlt sich auf eine bestimmte Weise an, etwas zu erleben. Wenn nun mentale Aktivitäten mit Gehirnaktivitäten identisch sind, so müssen auch die Gehirnaktivitäten durch diese Qualia ausgezeichnet und durch die Neurowissenschaften erklärbar sein. Die Frage, warum eine bestimmte Gehirnaktivität mit einem Erlebnis verknüpft ist, können Neurowissenschaftler derzeit nicht beantworten. Bedeutet dies, dass solche neuronalen Aktivitäten mit Bewusstseinserfahrungen nicht identisch sind? Diese These ist – wie die gesamte philosophische Interpretation der Neurowissenschaften – weiterhin umstritten. Tanach. Im Tanach entspricht am ehesten das hebräische Wort „rûah“ dem, was im Deutschen unter „Geist“ verstanden wird. Es bedeutet, wie das griechische „pneuma“ und das lateinische „spiritus“, zunächst „bewegte Luft“, „Wind“. Bei Mensch und Tier bezeichnet die rûah weiterhin den Atem, der den Geschöpfen Leben einhaucht. Als Lebensprinzip ist die rûah Gottes Eigentum; die Geschöpfe leben von ihr und sterben, wenn Gott sie entzieht. Im Menschen übt sie die verschiedensten Lebensfunktionen geistiger, willensmäßiger, sittlicher und religiöser Art aus und ist hier mit dem Begriff „næfæsch“ („Seele“) fast synonym. Gott als die Quelle der rûah ist selbst Geistwesen. So schwebte am ersten Tag der Schöpfung der Geist Gottes über den Wassern und im Buch der Weisheit heißt es „Der Geist des Herrn erfüllt den Erdkreis“. Gott teilt sich auserwählten Menschen mit, indem er den Geist über sie kommen lässt. Sie werden charismatisch begabt zu (kriegerischen) Heldentaten, prophetisch-ekstatischen Fähigkeiten und mit dem „Geist der Weisheit“ erfüllt. Der Tanach kennt auch den bösen Geist, der von Jahwe als dem einzigen Gott ausgehen kann. Dies geschieht dann, wenn die Empfänger Unheil verdienen: „Als Abimelech drei Jahre lang über Israel geherrscht hatte, sandte Gott einen bösen Geist zwischen Abimelech und die Bürger von Sichem, so dass die Bürger von Sichem von Abimelech abfielen“. Diese böse Geistesmacht, die Gott unterstellt ist, wird später in der christlichen Theologie die Gestalt des Satans als eine selbständige Funktion, in sich böse Figur und sogar mit eigener Personifikation als Gegenpart zu Gott bekommen. Neues Testament. Im Neuen Testament wird „Geist“ mit dem griechischen Wort „pneuma“ bezeichnet. Gemeint ist meist der Geist Gottes, der als „Heiliger Geist“ scharf vom Geist des Menschen unterschieden wird. Dieser Geist Gottes wird noch nicht so deutlich wie später in der Trinitätslehre als personal angesehen, sondern als Medium des göttlichen Handelns. Für die personale Auslegung sprechen jedoch Stellen wie die in der Apostelgeschichte, in der Hananias und Saphira bestraft werden, weil sie den Heiligen Geist belügen. Pneuma und Jesus. Der Begriff des Pneuma spielt eine zentrale Rolle in der Geschichte Jesu. Bereits seine Empfängnis geschieht unter Einwirkung des Heiligen Geistes. Vom Pneuma wird er in die Wüste getrieben, um dort den Versuchungen zu widerstehen. Als Geistträger übernimmt er sein öffentliches Amt; auf ihm ruht nun das Pneuma des Herrn. Mit seiner Hilfe ist Jesus in der Lage, die Herrschaft des Satans zu brechen. Dies bedeutet allerdings nicht, dass Jesus dämonische Kräfte unterstellt werden dürften. Die Auferweckung Jesu von den Toten bedeutet einen Übergang in die Seinsweise des Pneuma, womit Jesus als Herr (Kyrios) identifiziert wird. Das Pneuma in der christlichen Gemeinde bei Paulus. Für Paulus ist fast jede Lebensäußerung der Kirche Wirkung des Pneuma. Schon bei der Konstituierung der christlichen Gemeinde ist das Pneuma am Werk. Das Pneuma ist eine Gnadengabe (Charisma), die bei den Gläubigen unterschiedlich verteilt ist. Paulus stellt eine Rangfolge der Charismen auf und verlangt ihre Indienstnahme in den Aufbau der Gemeinde. Paulus unterscheidet auch ein falsches Pneuma, das die Gemeinde „aus der Fassung bringen und in Schrecken jagen“ kann. Es ist daher „die Fähigkeit, die Geister zu unterscheiden“. All das geistige Sein der Gläubigen vollzieht sich im Pneuma. Es wird im Glauben als eschatologische Segensgabe empfangen und mit ihr das „Leben“. Das Pneuma heiligt die Glaubenden; selbst ihr Leib ist ein „Tempel“ des Pneuma. Es bedeutet Freiheit von der Herrschaft der Sünde, des Todes und des Gesetzes. Der Gläubige darf aber diese im Pneuma gewährte Freiheit nicht zum „Anlass für das Fleisch“ nehmen, sondern soll sich in seiner sittlichen Existenz von Pneuma leiten lassen. Das Pneuma wird zwar als Fundament des Heils bezeichnet, aber nicht als dessen Erfüllung. Paulus bezeichnet es als „Erstlingsgabe“ oder „Angeld“ des Gesamtheils. Die Gläubigen erwarten kraft des Pneumas „die erhoffte Gerechtigkeit“ und v.a die Auferweckung des Leibes. Die Unterscheidung zwischen dem Reich des "Geistes" (und der Liebe) und dem Reich des "Fleisches" (und der Sünde) war für Paulus zentral. Diese Theologie hat nach Einschätzung von Kritikern dualistische Vorstellungen begünstigt. Das paulinische Gedankengut wurde später durch Thomas von Aquin in der Summa Theologica weitergeführt, und bis heute wird der Begriff "anima forma corporis" verwendet. Islam. Im Bereich des Islam bildet der arabische Begriff "rūh" () in etwa das Gegenstück zum deutschen Begriff des Geistes. "Rūh" ist etymologisch mit dem Wort "rīh" verwandt, das die Grundbedeutung von "Wind" hat. Im Koran heißt es, dass Gott Adam von seinem Geist einblies und ihn auf diese Weise lebendig machte (Sure 15:29; 32:9; 38:72). Durch Einblasen seines Geistes kommt es auch dazu, dass Maria Jesus empfängt (Sure 21:91; 66:12). Der Geist Gottes zeigt sich dabei Maria in einer menschlichen Gestalt (, Sure 19:17). Durch den Geist der Heiligkeit erfährt Jesus später besondere Stärkung (Sure 2:87, 253; 5:110). Auch Jesus selbst wird als ein Geist von Gott bezeichnet (, Sure 4:171). Der Geist erscheint darüber hinaus als Vermittler der Offenbarung. In Sure 40:15 heißt es, dass Gott den Geist mit dem von ihm gegebenen Befehl zu dem Menschen schickt, von dem er das will, damit er die Menschen vor dem Tag der Begegnung warne. Der Geist der Heiligkeit ist es, der den Koran herabsendet, um damit die Gläubigen zu stärken (Sure 16:102). Der "treue Geist" überbringt Mohammed den Koran (26:193-194). Theologische Reflexionen über den Geist setzten im Islam Ende des 8. Jahrhunderts ein. Der basrische Asket Bakr, auf den die Lehrrichtung der Bakrīya zurückgeführt wird, behauptete, dass der Mensch und ebenso alle übrigen Lebewesen identisch mit dem Geist seien. Der Bagdader Muʿtazilit Bischr ibn al-Muʿtamir (st. 825) sah hingegen in dem Menschen eine Verbindung aus Leib ("badan") und Geist ("rūḥ"). Tragende Bedeutung erhielt der Geist in dem Lehrsystem des basrischen Muʿtaziliten an-Nazzām (st. 835-845). Er stellte sich den Geist in Anknüpfung an das platonische Pneuma-Konzept als einen feinstofflichen Körper vor, der sich wie ein Gas mit dem Leib vermischt und ihn bis in die Fingerspitzen durchdringt, sich beim Tode aber wieder aus dieser Verbindung löst und selbständig weiterexistiert. Buddhismus. Mit dem Begriff des Geistes ("citta") wird im Buddhismus etwas bezeichnet, was zur Körperlichkeit hinzutritt. Der Ausdruck wird in der buddhistischen Anthropologie synonym gebraucht zu Begriffen wie Denken ("manas") und Bewusstsein ("vijñana"). „Geist“ wird unter zweierlei Aspekten betrachtet. Zum einen ist er eine Erscheinungsweise der menschlichen Existenz ("samsara") und bedarf als solcher der Erlösung ("nirvana"); andererseits bezeichnet er genau das Instrument mittels dessen die Erlösung erst möglich wird. Der Geist geht nach buddhistischer Lehre allem Reden und Handeln voraus. Oberste Aufgabe ist es daher, ihn durch die Übung der „Achtsamkeit“ ("sati") – dem siebten Glied des achtfachen Pfades – unter Kontrolle zu bringen. Weiterhin ist die Ausrichtung des Geistes, seine Konzentration auf einen Punkt ("samādhi") von Bedeutung. In der mahayanischen Tradition – vor allem der Yogachara- Schule – des Buddhismus bildet sich ein radikaler Idealismus heraus, der das Wesen der Welt nur als Geist interpretiert, wohingegen die Vielheit der Erscheinungen als Trug und Illusion ("māyā") angesehen wird. Der Begriff des Geistes rückt hier in die Nähe des "nirwana", das als Absolutes, nicht genau zu beschreibendes Prinzip alles Seienden hinter dem Schleier der individualisierenden "māyā" liegt. Mystik. In religiösen mystischen Schriften und einigen philosophischen Traditionen wird der Begriff Geist meist in zwei verschiedenen Bedeutungen gebraucht. Zum einen als der „menschliche Geist“, was in etwa der heutigen Verwendung von „Bewusstsein“ oder „Verstand“ entspricht und zusätzlich noch „Seele“ umfasst. Zum anderen als „göttlicher Geist“ oder „absoluter Geist“, der je nach Tradition auch personalisiert als Gott oder Gottheit angeredet wird. Die praktische Überwindung dieser Trennung ist für viele Mystiker dabei die wesentliche Aufgabe. Die Frage nach der Beziehung zwischen Geist und Körper tritt demgegenüber bei Mystikern häufig in den Hintergrund. Die in den mittelalterlichen Klöstern praktizierten „geistlichen Übungen“ werden in „"oratio"“ (liturgisches Gebet), „"lectio"“ (Lesung aus den Schriften), „"meditatio"“ (gegenständliche Betrachtung, Meditation) und „"contemplatio"“ (gegenstandfreie Anschauung, Kontemplation) unterteilt. Der Verstand und das Denken sollen so zur Ruhe kommen, um den „einen Urgrund“, also den göttlichen Geist, freizulegen. In diesem Sinn besteht für den Mystiker kein Unterschied zwischen menschlichem und göttlichem Geist. Auch der Körper des Menschen ist in diesem Verständnis ein Ausdruck des Göttlichen und diesem nicht entgegengesetzt. In der Mystik der frühen Neuzeit wird der eigene Körper des Mystikers oft in besonderer, teils extremer Weise thematisiert. Gregor XIII.. Wappen von Papst Gregor XIII., moderne Nachzeichnung. Der Schild zeigt das Wappen der Boncompagni Gregor XIII., mit bürgerlichem Namen Ugo Boncompagni, (* 7. Januar 1502 in Bologna; † 10. April 1585 in Rom) war Papst von 1572 bis 1585. Gregor XIII. trat 1539 in den Dienst der Kirche. 1558 wurde er Bischof von Vieste und 1565 Kardinal. Am 13. Mai 1572 wurde er im Konklave innerhalb von weniger als 24 Stunden zum Papst gewählt. Den Papstnamen, der schon 150 Jahre außer Gebrauch war, wählte er, da er am Festtag des Hl. Gregor I. zum Kardinal erhoben worden war. Gregor XIII. förderte Wissenschaft und Bildung, reformierte den Kalender, bemühte sich um die Wiedergewinnung verlorener Gebiete des Kirchenstaats und war eine der zentralen Figuren der Gegenreformation. In sein Pontifikat fällt die Bartholomäusnacht in Frankreich, die er ausdrücklich begrüßte. Rosenkranzfesttag. Zum ersten Jahrestag der osmanischen Niederlage am 7. Oktober 1571 in der Seeschlacht von Lepanto begründete er 1572 das Rosenkranzfest. Vatikanische Sternwarte. Um seinen wissenschaftlichen Beraterstab für eine Kalenderreform in die Lage zu versetzen, die Reform vorzubereiten und zu überprüfen, ließ er 1578 einen Turm für astronomische Beobachtungen bauen (Turm der Winde) und gründete damit die bis heute bestehende Vatikanische Sternwarte. Kalenderreform. Bekannt ist er heute vor allem wegen der auf ihn zurückgehenden Kalenderreform, die er nach heutiger Datierung am 24. Februar 1582 mit seiner Bulle "Inter gravissimas" erließ und die noch heute als Gregorianischer Kalender gültig ist. Hierbei ging es im Wesentlichen darum, dafür zu sorgen, dass das gemessene Jahr dem astronomischen wirklich entsprach. Die Frühlings-Tag-Nacht-Gleiche (Primar-Äquinoktium) sollte wieder auf den 21. März fallen, wie es durch das Konzil von Nicäa im Jahre 325 festgelegt worden war. Bis 1582 galt der (nach Julius Caesar benannte) „Julianische Kalender“, der gegenüber der wirklichen Dauer des Jahres um elf Minuten und vierzehn Sekunden zu lang war. Alle 128 Jahre summierten sich diese ständigen kleinen Fehler zu einem vollen Tag. Gregor verfügte nun, die Vier-Jahres-Periodik der Schaltjahre zu modifizieren: Unter den Jahren, mit denen jeweils ein Jahrhundert zu Ende ging (Jahre wie 1300, 1400 oder 1500), sollten nur noch diejenigen Schaltjahre sein, die sich durch 400 teilen ließen (Jahre wie 1600, 2000, 2400 und so weiter). Damit sind 400 Jahre im Gregorianischen Kalender drei Tage kürzer als im Julianischen. Die überzähligen zehn Tage, die seit dem Konzil von Nicäa bereits aufgelaufen waren, ließ Gregor aus dem Kalender entfernen, so dass auf Donnerstag, den 4. Oktober 1582 sogleich Freitag, der 15. Oktober folgte (). Päpstliche Universität Gregoriana. 1551 richtete Ignatius von Loyola, der Gründer des Jesuitenordens, die erste Schule der Jesuiten ein, die "Collegio Romano" genannt wurde. Dieses Kolleg erfreute sich großen Zuspruchs und wurde 1584 von Papst Gregor XIII. an anderer Stelle in der Stadt neu eröffnet und besonders gefördert. Ihm zu Ehren wurde dem "Collegio Romano" 1873 von Papst Pius IX. der Titel "Pontificia Universitas Gregoriana" (Päpstliche Universität Gregoriana) verliehen. Sonstiges. Gregor XIII. hatte – aus seiner vorpäpstlichen Zeit – einen illegitimen Sohn: Giacomo Boncompagni, der am 26. August 1572 legitimiert wurde (Siehe Boncompagni-Ludovisi). Bei der Eröffnungsfeier des Heiligen Jahres 1575 im Petersdom zu Weihnachten 1574 gehörte der Erbprinz der Vereinigten Herzogtümer, Karl Friedrich von Jülich-Kleve-Berg, zu den Ehrengästen Papst Gregors XIII. Diesem war sehr an seinem Gast gelegen, denn er hoffte, dass der junge Erbprinz später im Sinne der vom Heiligen Stuhl angestrebten Gegenreformation auf seine in der Glaubensfrage gespaltenen Länder sowie auf die benachbarten protestantischen Gebiete einwirken würde. Daher verlieh er ihm eine Woche später das geweihte Schwert und den Hut, eine Ehrung als Fidei Defensor, die sonst nur Königen galt. Als Karl Friedrich nur fünf Wochen später starb, zahlte Gregor XIII. die fürstliche Bestattung und den enormen Trauerzug aus eigener Kasse und ließ ihn in der römischen Kirche der deutschen Nation, Santa Maria dell’Anima, gegenüber von Papst Hadrian VI. begraben. Er erhielt ein prachtvolles Ehrengrab nach dem Entwurf seines Erziehers Pighius, ausgeführt von den Bildhauern Nicolas Mostaert und Gillis van den Vliete, das unter anderem eine Auferstehungsszene zeigt, die auf eine intensive Auseinandersetzung mit der 1506 gefundenen Laokoon-Gruppe verweist. Der zweite Teil des Grabmals, ein Relief mit der Szene der Verleihung des geweihten Schwertes durch Gregor XIII., hängt heute im Vorraum der Kirche. Geowissenschaften. Die Geowissenschaften verwenden die Kenntnisse und Methoden der Basiswissenschaften Physik, Mathematik, Chemie und Biologie. Interdisziplinär, umweltrelevant und wirtschaftsbezogen. Da die Geowissenschaften sehr interdisziplinär und fächerübergreifend arbeiten, gibt es viele spezielle Disziplinen, die eine hohe Umweltrelevanz besitzen, wie die Angewandte Geologie im weiteren Sinne, die Ingenieurgeologie, Hydrogeologie und Hydrologie, Geochemie (etwa als mikrobielle Geochemie), Geoökologie und Geostatistik, sowie Geothermie, Meteorologie und Klimatologie. Die Geowissenschaften haben eine tragende Rolle für die Rohstoff- und Energieversorgung unserer Welt. Die "Suche (Exploration)" nach Ressourcen wie Trinkwasser, Kohlenwasserstoffen (Erdöl, Erdgas, Kohle), Metallen und Nichtmetallen (Steine und Erden), nach Massenrohstoffen wie Kies, Bausand, Ziegelton, Kalk, Zement etc., aber auch nach Kernenergierohstoffen (Uran) und Erdwärme werden durch Geowissenschaftler projektiert und realisiert. Die "Gewinnung" dieser Rohstoffe fällt jedoch eher in den Bereich der Ingenieurwissenschaften, besonders des Bergbaus. Die "angewandten" Geowissenschaften wiederum sind bei vielen Bauvorhaben wichtig (Gründung von Bauwerken, Erdbau, Grundbau, Fels- und Tunnelbau). Auch die Raumplanung und der Umweltschutz bis hin zur Abfallwirtschaft (Deponien) benötigen geowissenschaftliche Kenntnisse, die in Geoinformationssystemen gesammelt und verarbeitet werden. Mit Methoden der Geotechnik werden Befestigungs- und Überwachungsaufgaben durchgeführt, mit Geotextilien Böschungen oder Deponien stabilisiert. Die Abgrenzung bzw. die Definition des Begriffs „Geowissenschaften“ ist nicht eindeutig, wofür das Fach Geographie ein Beispiel ist. Die oben angeführten „harten“ Themen sind auch Bestandteil der „Physiogeographie“. Andererseits gibt es die Untergruppe der „Humangeographie“ mit zahlreichen Bezügen zu zwar raumbezogenen, nicht aber per se „erd“-bezogenen Themen, wie bei der Wirtschafts- und der Sozialgeographie. Doch auch dieser vermeintliche Widerspruch verliert mit zunehmenden Eingriffen des Menschen in das System der Erdsphären an Bedeutung. Deutschland. In den letzten Jahren sind an vielen deutschen Universitäten die Studiengänge Geologie, Geophysik und Mineralogie zum Studiengang „Geowissenschaften“ fusioniert. Die Studiengänge Meteorologie, Geographie, Hydrologie, Geoökologie, Geotechnik, Geodäsie, Kartografie und Geoinformatik konnten hingegen meist ihre Eigenständigkeit erhalten. Geowissenschaftliche Studiengänge können in Deutschland an nahezu allen Universitäten studiert werden, unterscheiden sich aber in ihren Inhalten bzw. Vorlesungen. Die meisten Universitäten legen im Studiengang „Geowissenschaften“ gezielt Schwerpunkte und ermöglichen eine spezielle Ausrichtung des Studiums, wobei diese Möglichkeit von Hochschule zu Hochschule sehr unterschiedlich an den Teilbereichen Geologie, Geophysik und Mineralogie ausgerichtet sein kann. Glagolitische Schrift. Die glagolitische Schrift oder auch Glagoliza (in slavistischer Schreibweise auch "Glagolica"; bulgar./mazedon./slowen./serb./russ. "glagolica", kroat./serb. "glagoljica", tschech. "hlaholice", slowak. "hlaholika") ist die älteste slawische Schrift. Die Glagoliza (von altkirchenslawisch "glagol" = Wort) ist eine Buchstabenschrift und wurde von Kyrill von Saloniki (826–869) erdacht. Geschichte. Sie wurde um 860 (höchstwahrscheinlich jedoch erst 863) von dem aus Thessaloniki stammenden und von Byzanz entsandten Gelehrten Konstantin, der später als Mönch den Namen Kyrill annahm, für die Zwecke der Moravisch-Pannonischen Mission und ersten slawischen Kirchengründung weiterentwickelt. Da das griechische Alphabet für die slawischen Sprachen nur eingeschränkt geeignet war und Konstantin die kulturelle Eigenständigkeit der Slawen betonen wollte, konzipierte er die glagolitische Schrift als „Abstandschrift“; d. h., er legte ihr zwar das griechische System („Schriftdenken“: Buchstaben mit Laut- und numerischer Funktion) zugrunde, schuf jedoch ein von anderen Schriften formal unabhängiges, neues Alphabet. Freilich konnte sich Kyrill dabei dem Einfluss anderer Schriften nicht ganz entziehen. Als Quellen dienten ihm neben den griechischen Minuskeln auch kaukasische (insbesondere das georgische) und semitische Schriftsysteme. Sicher ist ebenfalls, dass christliche Symbole (insbes. Kreuz, Kreis, Dreieck) bei der Formgebung eine wichtige Rolle spielten. Aus der konstruktiven Urform der Glagoliza entwickelte sich zunächst eine runde, dann auch eine eckige Variante. Die runde Glagoliza dominierte im bulgarisch-makedonisch-serbischen Raum, die jüngere eckige vor allem in Kroatien und wurde ab dem 16. Jahrhundert auch für den Buchdruck verwendet. Als in den letzten Jahrzehnten des 9. Jahrhunderts auf dem Territorium des bulgarischen Reiches die kyrillische Schrift größtenteils aus der griechischen Schrift entwickelt wurde, wurden einige Zeichen der glagolitischen Schrift (ohne Zahlwert) beibehalten, und zwar für Laute, die im Slawischen vorhanden waren, im Griechischen dagegen fehlten. Ab dem 10./11. Jahrhundert wurde die Glagoliza von der kyrillischen Schrift durch Reformen mehr und mehr verdrängt. In Serbien konnte sich die Glagoliza bis ins 13. Jahrhundert halten. Die um das Jahr 1100 verfasste Tafel von Baška, eines der ältesten und bekanntesten Kulturdenkmäler der kroatischen Sprache und Geschichte, ist in glagolitischer Schrift geschrieben. Während sie auf anderen Territorien schon im späten 12. Jahrhundert allenfalls als Geheimschrift noch eine gewisse Rolle spielte, konnte sie sich in Kroatien noch lange halten, auf der Insel Krk und in der nordwestkroatischen Region Istrien sogar bis Anfang des 19. Jahrhunderts. Für die damals entstehende Nationalbewegung der Kroaten wurde sie ein Zeichen der Abgrenzung gegen den lateinischen Westen und den orthodoxen Osten. Die Glagoliza gilt noch heute in Kroatien als nationales Symbol und wird häufig als Verzierung verwendet (z. B. als Schmuck, bei Logos oder als Tätowierung). Das erste mit glagolitischen Lettern gedruckte Buch, ein Missale, erschien 1483 in Venedig. Noch um die Wende von 19. zum 20. Jahrhundert erschien ein katholisches kirchenslawisches Messbuch in glagolitischer Schrift. Grönland. Grönland, auf Grönländisch "Kalaallit Nunaat" – „Land der Kalaallit“ (nach dem größten ansässigen Volk), auf Dänisch "Grønland"  – „Grünland“, ist die größte Insel der Erde und wird geologisch zum arktischen Nordamerika gezählt. Aus politischer Sicht ist es ein autonomer Bestandteil des Königreichs Dänemark. Das Land hat, abgesehen von der Antarktis, die geringste Bevölkerungsdichte der Welt. Geographie. Grönland reicht von 59° 46′ nördlicher Breite (Kap Farvel) bis 83° 40′ nördlicher Breite (Kaffeklubben-Insel bei Kap Morris Jesup) und ist 2650 km lang. Die Breite beträgt maximal 1200 km von Kap Alexander im Westen bis Nordostrundingen im Osten. Grönlands Nordküste ist mit 710 km Abstand die dem Nordpol am nächsten gelegene größere zusammenhängende Landmasse. Im Norden der Insel liegt der vereiste Arktische Ozean mit seinen Randmeeren Lincolnsee und Wandelsee. Im Osten grenzt sie an die Grönlandsee und an die Irmingersee, im Westen an die Davisstraße und die Baffin Bay, alles Randmeere des Atlantiks. Im Nordwesten geht Grönland in die sehr zerklüftete und weitläufige Inselwelt der Königin-Elisabeth-Inseln über. Dort ist Grönland durch die Naresstraße, die die Baffin Bay mit der Lincolnsee verbindet und bereits zum Arktischen Ozean gehört, von der Ellesmere-Insel (Teil der Königin-Elisabeth-Inseln) getrennt. Grönland hat überaus große Eisvorkommen. Der bis 3400 m mächtige, durchschnittlich 2000 m starke Grönländische Eisschild bewegt sich an den Küsten zum Meer und lässt oft Eisberge von mehreren Kilometern Länge entstehen. Lediglich 410.000 km² der Fläche Grönlands sind eisfrei, das sind 18,9 % (zum Vergleich: die Fläche Deutschlands beträgt 357.093 km²). In Grönland befinden sich mit bis zu 3400 m die zweitgrößten Eisdicken der Welt, nur die Antarktis weist mit bis zu 4776 m noch größere auf. Würde das gesamte Inlandeis Grönlands schmelzen, so würde der Wasserstand weltweit um sechs bis sieben Meter steigen. In dem Buch "Der Planet Erde – Gletscher" wird zudem erwähnt, wie stark Wasser in Form von Eis auf die Erdoberfläche drückt. Darin heißt es beispielsweise: „Sollte das Grönlandeis eines Tages verschwinden, so würde sich die Insel um etwa 600 Meter heben.“ (Isostatische Bodenhebung). Das Inlandeis ist weniger eine Folge des heutigen Klimas, vielmehr ist es ein Überbleibsel der letzten Kaltzeit, die vor etwa 11.500 Jahren endete. Kartografisch wird Grönland oft verzerrt dargestellt, weil die Landmasse durch die zweidimensionale Darstellung gestreckt wird. In der Mercatorprojektion zum Beispiel wirkt Grönland größer als Afrika. Am Nordrand Grönlands geht dessen Eisdecke direkt in die (schwimmende) Eiskappe des Nordpolarmeeres über. Die (jahreszeitlich stark schwankende) Ausdehnung der gesamten Nordpolareisfläche (einschließlich Grönlandeis) hat sich nach gegenwärtigen Erkenntnissen in den letzten 40 Jahren (seit Sommer 1972) auf etwa 4,24 Mio. km² (im Sommer 2011) halbiert. Für das Volumen der Grönland-Eisdecke (2,85 Mio. km³) war für 2006 eine jährliche Abnahme von 240 km³ errechnet worden, was einer Verdreifachung der Rate gegenüber dem Beobachtungszeitraum 1997–2003 entspricht. Im Süden ist Grönland ein leicht gewelltes Hochland, das an der Küste durch zahlreiche Fjorde, Buchten und Meeresstraßen gegliedert ist. Im Zentrum und im Norden besteht der Untergrund aus einem riesigen, zum Teil unter dem Meeresspiegel liegenden Becken. An seinem Hochlandsrand umsäumen Grönland sehr hohe Berge und Gebirge, die im Watkins-Gebirge am Ostrand der Insel mit dem Gunnbjørn Fjeld, das auch als "Hvitserk" bezeichnet wird, bis zu 3694 m hoch aufragen. Im Jahr 2013 wurde durch die Auswertung von Daten eines speziellen Bodenradars, der das Eis durchdringt, eine der weltweit größten Schluchten unter dem zentralen und nördlichen Eisschild entdeckt. Diese verläuft vom Zentrum Grönlands westlich oder südwestlich vom Summit kurvig in Richtung Nordküste, wo sie unter dem Petermann-Gletscher in das Hall-Becken der Nares-Straße mündet. Die Schlucht ist mit einer Länge von mindestens 750 km länger als der Grand Canyon und wird deshalb provisorisch "Grand Canyon von Grönland" genannt. Sie ist bis zu 10 km breit und bis zu 800 Meter tief. Die Schlucht ist älter als der 1,6 Millionen Jahre alte Grönländische Eisschild. Geologie. Die Insel liegt auf dem Grönland-Schild, der zu einer präkambrischen Plattform gehört. In eisfreien Küstenstreifen treten präkambrisch gebildete, ablaufend verformte und metamorph überprägte Sedimente auf, welche sich im Norden der Insel bis ins Mesozoikum fortsetzen. In Ost- und Westgrönland gibt es Zeugen von tertiärem Vulkanismus. Die wichtigsten Gesteinsprovinzen liegen im Süden bei Fiskenässet (metamorphe Magmatite, Ultramafite und Anorthosite). Östlich von Nuuk finden sich in der über drei Milliarden Jahre alten Isukasia-Eisenerz-Region die ältesten Gesteine der Welt, darunter Grönlandit, entstanden vor 3,8 Milliarden Jahren, sowie Nuummit und benachbart eine 2,6 Milliarden Jahre alte Granitintrusion. In Südgrönland besteht der "Illimaussaq Alkaline Complex" aus Pegmatiten wie Nephelin, Syeniten (namentlich Kakortokit oder Naujait) sowie Sodalitit. Narsarsuaq und Kungnat: Der fluoridführende Pegmatit von Ivittuut sowie die sogenannten Gardar-Alkalipegmatit-Intrusionen (Augit Syenite, Gabbro etc.). Im Westen und Südwesten paläozoische Carbonatitkomplexe bei Kangerlussuaq (Gardiner-Komplex) und Safartoq sowie basische und ultrabasische Eruptivgesteine bei Ovifaq auf der Diskoinsel, wo bis zu 25 t schwere gediegene Eisenmassen in den Basalten vorkommen. Postglaziale Vergletscherung auf der Halbinsel Nuussuaq. Das 1310 Meter hohe Qaqugdluit-Bergland auf der Südseite der Halbinsel Nuussuaq befindet sich 50 Kilometer westlich des grönländischen Inlandeises bei 70° 7′ 50.92″ N 51° 44′ 30.52″ W und ist exemplarisch für zahlreiche Berggebiete Westgrönlands. Es weist bis zum Jahr 1979 (Stadium 0) mindestens 7000 maximal ca. 10.000 Jahre zurückliegende, historische bis holozäne, das heißt nacheiszeitliche Gletscherstände auf. Die Gletscherzungen endeten 1979 – je nach Größe und Höhe des Gletschernährgebietes – zwischen 660 und 140 Meter über dem Meer. Die zugehörige klimatische Gletscherschneegrenze (ELA) verlief in ca. 800 Metern Höhe. Die Schneegrenze des ältesten (VII) der drei holozänen Gletscherstadien (V–VII) verlief ca. 230 Meter tiefer, in etwa 570 Metern Höhe. Die vier jüngsten Gletscherstände (IV–I) sind historischen Alters. Sie sind den globalen Gletschervorstößen der Jahre 1811 bis 1850 und 1880 bis 1900 („kleine Eiszeit“), 1910 bis 1930, 1948 und 1953 zuzuordnen. Ihre Schneegrenzen stiegen schrittweise bis zum Niveau von 1979 hinauf. Die heutige Schneegrenze (Stadium 0) verläuft annähernd unverändert. Während des ältesten nacheiszeitlichen Stadiums VII deckte ein Eisstromnetz aus sich zusammenschließenden Talgletschern die Landschaft großflächig ab. Seine Nährgebiete bestanden aus hochgelegenen Plateaugletschern und lokalen Eiskappen. Durch die Anhebung der Schneegrenze um jene ca. 230 Meter – was einer Erwärmung um etwa 1,5 °C entspricht – besteht seit 1979 nur noch eine Plateauvergletscherung mit kleinen randlich hinabhängenden Gletscherzungen, welche die Haupttalböden fast nicht mehr erreichen. Klima. In Grönland herrscht polares und subpolares Klima, das an der Westküste durch den Grönlandstrom gemildert wird, den hier der Nordatlantische Strom und der Golfstrom mit relativ warmem Wasser versorgen. Auf dem Inlandeis wurde eine Minimaltemperatur von −66,1 °C gemessen; im Sommer reicht die Lufttemperatur bis an 0 °C heran. Die Küstenstreifen, an der Westküste bis 150 km breit, und alle vorgelagerten Inseln sind eisfrei und haben Tundrenvegetation, die nach Norden hin stark abnimmt. Die Wölbung des Inlandeises nach oben verhindert Windstille oder stabile Windverhältnisse. Föhnwinde und warme Schneestürme strömen, vor allem im Winter oft sehr plötzlich, zur Küste hin, die dadurch im Westen zum Teil eine Trockensteppe mit salzhaltigen Seen geworden ist. Rund 100 km von der Küste entfernt ist das Klima deutlich kontinental geprägt, ähnlich dem Klima Sibiriens oder Mittelalaskas. Ein Beispiel hierfür ist die Stadt Kangerlussuaq (Søndre Strømfjord). In den Bohrkernen von Material unter dem mehr als 2000 Meter dicken Eis wurden DNA-Spuren von Kiefern, Eiben und Erlen sowie von Schmetterlingen und anderen Insekten gefunden, die ein Alter zwischen 450.000 und 800.000 Jahren aufzuweisen scheinen, aufgrund von Messunsicherheiten aber auch nur etwa 120.000 Jahre alt sein könnten. Die Forscher um Martin Sharp (University of Alberta, Kanada) vermuten daher, dass Grönland vor der Vergletscherung während der Riß-Kaltzeit ein „grünes Land“ mit deutlich wärmerem Klima als heute war. Auch während der Mittelalterlichen Warmzeit wurde die südwestliche Küste als ein „grünes Land“ bezeichnet und von Wikingischen Siedlern bewohnt. Diese Siedlungen gingen im 15. Jahrhundert zugrunde, als sie einem Zusammenspiel der Kleinen Eiszeit mit Überweidung und der Konkurrenz durch die Thule-Kultur der Inuit ausgesetzt waren. Die Städte und Siedlungen liegen durchweg im eisfreien Küstenstreifen, vor allem an der Westküste, an der der Fischhandel blüht, weil das Meer dank des Golfstroms im Winter nicht zufriert. Im küstenfernen Inlandeis wurden zeitweilig Forschungsstationen wie Eismitte und North Ice unterhalten. Tierwelt. Grönland verfügt über eine artenreiche Fauna; Amphibien und Reptilien kommen hier allerdings nicht vor. Die Gewässer um Grönland werden von zahlreichen Fischarten bevölkert. Die am häufigsten vorkommenden Arten sind Dorsch, Heilbutt, Lachs, Wandersaibling und Steinbeißer. Man schätzt, dass auf der Insel Grönland über 700 Insektenarten, vor allem blutsaugende Stech- und Kriebelmücken, aber auch Hummeln und Schmetterlinge, sowie Spinnenarten vorkommen. Säugetiere. Bekanntester Vertreter der grönländischen Tierwelt ist der Eisbär (Inuktitut: Nanuq). Sein hauptsächlicher Lebensraum befindet sich im äußersten Norden sowie im Nordost-Grönland-Nationalpark, dem größten Nationalpark der Welt. Mit dem Treibeis, das sich mit dem Ostgrönlandstrom um Kap Farvel bis nach Südgrönland bewegt, gelangen Eisbären auf der Jagd nach Robben bis in den äußersten Süden (Nanortalik) und mit anderen Treibeisströmungen nach Upernavik in Nordwestgrönland. Der zweitgrößte Landsäuger Grönlands ist der Moschusochse (Inuktitut "umimmaq", auch "umingmaq"), der ursprünglich nur in Nordostgrönland in oft großen Herden vorkam. Insgesamt 27 Moschusochsen wurden 1962 und 1965 auch an der Westküste ausgesetzt, etwa in Kangerlussuaq, Ivittuut und bei Upernavik, und vermehrten sich hier inzwischen auf etwa 4000 Tiere. Man schätzt, dass heute etwa 40 % der Gesamtpopulation der Erde auf Grönland leben. Rentiere kommen, zum Teil in großen Herden, vor allem an der mittleren Westküste vor. Doch kann man sie auch im Nordwesten bis nach Upernavik und im Süden bis Paamiut in den trockenen Steppengebieten antreffen. Kleinsäuger wie Hermelin und Lemming leben nur in Nordostgrönland. Auch der Polarwolf kommt nur dort und im äußersten Norden vor. Weit verbreitet sind dagegen der Polarhase und der Polarfuchs. Meeressäuger kommen in den Gewässern um Grönland in zahlreichen Arten vor: Minkwal, Buckelwal, Beluga, Schwertwal, Narwal, Grönlandwal, Atlantik-Walross, Klappmütze, Sattelrobbe, Bartrobbe und Ringelrobbe. Die Inuit zählen auch den Eisbär zu den Meeressäugern, weil dieser wesentliche Zeit seines Lebens auf dem Meer, insbesondere auf dem Pack- und Treibeis, verbringt. Vögel. Die Vogelwelt ist ebenfalls sehr reichhaltig. Rund 200 Arten kann man auf Grönland beobachten, davon etwa 50 Arten das ganze Jahr über. Am meisten verbreitet sind Kolkrabe, Gryllteiste, Dreizehenmöwe, Schneeammer, Eiderente, Eistaucher, Odinshühnchen und Alpenschneehuhn. An den Vogelfelsen, vor allem in der Nähe von Upernavik, Qaanaaq und Ittoqqortoormiit, nisten viele Seevögel. In großer Zahl treten Dickschnabellummen auf. Ihre größten Brutkolonien liegen im Upernavik-Distrikt; weitere Kolonien befinden sich in den Distrikten Qaanaaq, Ilulissat (Ritenbenk/Appat), Maniitsoq, Nuuk, Ivittuut, Ittoqqortoormiit und in dem zu Qaqortoq gerechneten Ydre Kitsitsut-Archipel. Trottellummen sind vergleichsweise selten und vor allem an einigen Vogelfelsen in Südwestgrönland zu beobachten. Der hocharktische Krabbentaucher kommt in riesigen Kolonien bei Qaanaaq und Ittoqqortoormiit vor. Kleinere Kolonien liegen bei Upernavik (Horse Head) und in der Diskobucht (Grönne Ejland). Der Papageitaucher hat für nordatlantische Verhältnisse eher kleinere Kolonien in Grönland, etwa bei Aasiaat, Upernavik, Nuuk, auf Ydre Kitsitsut (Qaqortoq) und vor Nanortalik sowie bei Ittoqqortoormiit und Qaanaaq. Gryllteisten sind in ganz Grönland verbreitet und leben nicht nur an den Vogelfelsen. Weitere Bewohner der Vogelfelsen sind Dreizehenmöwen und Kormorane. Küstenseeschwalben haben ihre größten Kolonien in der Diskobucht (Grönne Ejland). Thorshühnchen und Prachteiderenten sind vor allem in Gebieten nördlich der Diskobucht vertreten. Seeadler sind in Südwestgrönland verbreitet, während Falken und Skuas wesentlich ausgedehntere Lebensräume besiedeln. Die Schneeeule lebt hauptsächlich in Nord- und Nordostgrönland. Auch viele Gänsearten (etwa Nonnengans, Schneegans, Blässgans und andere) leben in Grönland. Die hocharktische Rosenmöwe kommt nur im äußersten Norden vor. Pflanzenwelt. Auf Grönland wachsen annähernd 600 Arten höhere Pflanzen (Samenpflanzen). Außerdem kommen hier noch über 3.000 Arten von Moosen, Flechten, Pilzen und Algen vor. Das Pflanzenwachstum ist allgemein sehr niedrig; es nimmt von Süden nach Norden ab, und nur in besonders geschützten Fjorden des äußersten Südens wachsen Bäume (Birken und Weiden). Grönländer. Erster Schultag am 14. August 2007 an der Prinsesse-Margrethe-Schule in Upernavik, die Schulkinder tragen die Nationaltracht Grönländer (Kalaallit, Singular: Kalaaleq) ist im "rechtlichen" Sinne jeder dänische Staatsbürger mit Wohnsitz in Grönland. Dies sind die meisten der rund 56.000 Bewohner Grönlands. Aus grönländischer Sicht werden nur jene 88 % der Bevölkerung Grönländer genannt, die vorwiegend von den Ureinwohnern (einer Untergruppe der Inuit) abstammen und in der Regel die grönländische Sprache (Dialekt der Inuit-Sprache Inuktitut) sprechen (jedoch nicht ihren Wohnsitz in Grönland unterhalten müssen). In der Literatur bezieht sich die Bezeichnung "Grönländer" in der Regel auf diese ethnische Sicht. Gegenwärtig nennen viele Einheimische "nur die" Menschen „Grönländer“, die sich von traditioneller Inuit-Kost ernähren. Was man genau darunter versteht (Beispiel: nur nicht angebratenes und kaum gewürztes Wildfleisch und -fisch oder auch Schafsfleisch?) wird je nach Region unterschiedlich definiert. Die Bezeichnung "Inuit" hingegen wird heute vielfach (etwas abfällig) nur dann verwendet, wenn es sich um lokale Gemeinschaften handelt, die eine sehr traditionelle Lebensweise führen wie etwa die Inughuit im äußersten Norden. Auch umgekehrt bezeichnen sich manche Inughuit "nicht" als Kalallit, um ihre eigene Ethnizität hervorzuheben. Grönland-Inuit / ethnische Grönländer. mini Die Vorfahren der meisten Grönländer gehen auf die Einwanderer der Thule-Kultur zurück, die nach dem Jahr 1000 von Norden kommend die westgrönländische Küste besiedelten und dabei im Süden auf die dort siedelnden Wikinger stießen, mit denen sie sich jedoch nicht vermischten. Eine Vermischung mit Europäern – die heute für 80 % aller Grönländer nachweisbar ist – fand erst frühestens seit dem 18. Jahrhundert statt. Der Genpool der Bevölkerung der lange Zeit isolierten Gebiete des Nordwestens und der Ostküste, aber auch der kleinen Siedlungen an der Südspitze, hat wesentlich weniger europäische Genanteile. Ursprünglich waren alle Grönland-Inuit Jäger, Fischer und Sammler. Noch heute stellt die subsistenzwirtschaftliche Jagd neben der Fischwirtschaft, dem Tourismus und dem Bergbau (Eisen, Öl, Uran) bei vielen Familien eine wichtige Zusatzversorgung dar. Wie in vielen anderen Regionen der Arktis weicht die traditionelle Selbstversorgung mehr und mehr dem Vertrauen in die moderne Marktwirtschaft, was allerdings zu einer wachsenden Abhängigkeit von der Außenwelt führt. 12 % der Bevölkerung sind europäischen – meist dänischen – Ursprungs. Diese Minderheit ist zu 90 % in Nuuk zu finden und darüber hinaus in den wenigen anderen Städten. Etwa 20 % der Einwohner wurden außerhalb des Landes geboren. Aufgrund der andauernden Rückwanderung der Bewohner bleibt die Bevölkerungszahl fast konstant (Bevölkerungswachstum 2007: 0 %). 98 % der Bevölkerung ist evangelisch. Bei den Ostgrönländern spielen zudem noch die traditionellen Glaubensvorstellungen (Animismus) eine Rolle. Das häufige Vorkommen deutscher Familiennamen wie Fleischer, Kleist, Chemnitz oder Kreutzmann beruht auf der Präsenz evangelischer, vor allem Herrnhuter, Missionare. Sie heirateten Inuitfrauen und/oder adoptierten Inuit-Kinder. Die heutigen Namensträger sind Grönländer, die außer dem Namensgeber zumeist keine deutschen Vorfahren haben. Die Grönländer sind nicht zu verwechseln mit Grænlendingar, den skandinavischen Siedlern, die vom 10. bis zum 15. Jahrhundert in Westgrönland lebten. Bildung. An der Universität von Grönland in Nuuk, „Ilisimatusarfik“, studieren etwa 150 Studenten, davon wenige Ausländer. In den Studienfächern Verwaltung, Kultur- und Sozialgeschichte Grönlands sowie Grönländische Sprach-, Literatur- und Medienstudien können Bachelor- und Master-Abschlüsse erworben werden. Außerdem gibt es das Studienfach Theologie. Unterrichtet wird größtenteils auf Dänisch, in einigen Kursen auch auf Grönländisch. In Nuuk befindet sich die 1956 gegründete Landesbibliothek Nunatta Atuagaateqarfia. Sie fiel 1968 einem Brand zum Opfer, wurde aber 1976 in einem neuen Gebäude wiedereröffnet. Seit 1980 fungiert sie als grönländische Nationalbibliothek. Ihre Groenlandica-Sammlung wurde 2008 auf den neuen Campus Ilimmarfik der Universität ausgelagert. Mit Knud Rasmussen hatte Grönland Anfang des 20. Jahrhunderts seinen eigenen Polarforscher, der von Thule ausgehend sieben Expeditionen unternahm. Soziale Probleme. Laut einer dänischen Reportage sollen ein Drittel der Mädchen bis 15 Jahre sexuell missbraucht worden sein und Grönland eine der höchsten Selbstmordraten der Welt haben, dies vor allem bei Kindern und Jugendlichen. Danach hatte der Suizid, ebenso wie der sexuelle Umgang miteinander, in der Historie (siehe Absatz über die anderen Kulturen im Artikel Suizid) in der Inuitgesellschaft einen anderen Stellenwert als in der christlichen Kultur. Alkoholmissbrauch ist in Grönland eine weitverbreitete Krankheitsursache. Die meisten Straftaten wie Körperverletzung und Totschlag werden unter Einfluss von Alkohol begangen. Der Unterschied zwischen Arm und Reich sei größer als in den Vereinigten Staaten. Die Schulbildung sei schlecht, es gebe hohe Abbruchquoten. Nur zwei Prozent der Schüler erreichen einen Universitätsabschluss, viele Studenten denken darüber nach, Grönland zu verlassen. Das Land sei von einem sozialen Zusammenbruch bedroht. Im Jahr 2009 steht Grönland zum ersten Mal auf der Liste der Länder, die die UN-Kinderrechtskonvention missachten. Nach Angaben der UNICEF leidet jedes sechste grönländische Kind an Unterernährung und geht hungrig in die Schule oder ins Bett. Besiedlung. Um 3000 v. Chr. wanderten die Vorfahren der ersten Inuit über die Beringstraße aus Asien nach Alaska. Um 2500 v. Chr. begannen die ersten Einwanderungen von Prä-Dorset-Eskimos (Paläo-Eskimos) nach Grönland (unter anderem Menschen der Saqqaq-Kultur). Bereits aus dieser Zeit sind Jagdplätze zum Beispiel in der Disko-Bucht und bei Qaja in der Nähe des Jakobshavn-Isfjords nachgewiesen. Diese Erstbesiedler starben wieder aus, aber von 500 v. Chr. bis 1000 n. Chr. siedelten Angehörige der Dorset-Kultur (Neo-Eskimos) in Grönland. Um 875 entdeckte der Norweger Gunnbjørn die Insel und nannte sie Gunnbjørnland. 982 musste Erik der Rote aus Island fliehen und landete schließlich im Südwesten Grönlands. Er gab der Insel ihren Namen Grænland (altnordisch für „Grünland“), was wahrscheinlich darauf zurückzuführen ist, dass aufgrund der mittelalterlichen Warmzeit im Küstengebiet eine üppigere Vegetation entstehen konnte, aber möglicherweise auch nur ein Euphemismus war um potentielle Siedler zu motivieren. Die in Grönland siedelnden Wikinger wurden daher Grænlendingar genannt. Mit Erik begann daher die vielversprechende Landnahme. Mit seinen Gefolgsleuten besiedelte er ab 986 die Gegend um Brattahlíð. 986 erreichten nur 14 von 25 isländischen Auswandererschiffen mit 700 Menschen an Bord Grönland. Aus der Zeit um 1000 sind im Süden Wohn- und Kirchenruinen nordländischer Siedler erhalten. Christianisierung und Nordmännersiedlung. Siegel der Bischöfe (Heinrich, Jakob, Gregorius und Vincentius) von Grönland 1000 kehrte Leif Eriksson, der Sohn Eriks des Roten, von Norwegen, wo er Christ wurde, mit einem Missionar nach Grönland zurück. Die grönländischen Wikinger wurden Christen und errichteten die erste Kirche. Eriksson entdeckte in dieser Zeit dann, von Grönland kommend, das nordamerikanische Festland (Vinland). Die Handelsbeziehungen mit Vinland dauerten bis ins 14. Jahrhundert. Ebenfalls in dieser Zeit wanderten aus Alaska und Nordkanada Inuit der Thule-Kultur ein und verdrängten die bisher dort lebenden Dorset-Inuit. 1076 gab Adam von Bremen in seiner Geschichte des Erzbistums Hamburg den ersten schriftlichen Nachweis über die Besiedlung und Christianisierung Grönlands, das bei ihm Gronland heißt. Grönland gehörte damals kirchlich administrativ zum Erzbistum Hamburg-Bremen. Um 1124 bis 1126 wurde Grönland eine eigene Diözese, der Bischofssitz war in Gardar, dem heutigen Igaliku. 1350 berichtete der isländische Kirchenmann Ivar Bardarsson, dass die westliche Siedlung aufgegeben sei. Eine schwedisch-norwegische Expedition unter Paul Knudson (1355–1364) fand keine Grænlendingar mehr vor. Von 1408 stammt die letzte schriftliche Aufzeichnung der Nordmänner aus der östlichen Siedlung, die von einer Hochzeit in der Kirche von Hvalsey berichtete. Die Kontakte mit Norwegen und Island rissen ab. Spätestens um 1550 erlosch die letzte nordische Siedlung in Grönland. Neuere genetische Untersuchungen sowohl an heutigen Inuit als auch an archäologischen Überresten der Grænlendingar scheinen eine Vermischung der beiden Gruppen auszuschließen, das heißt, die Grænlendingar sind wahrscheinlich ausgestorben. Bis heute gibt es für das Verschwinden der Nordmännersiedlungen keine allgemein akzeptierte Erklärung. Vermutlich wirkten verschiedene Einflüsse, wie das Ende der mittelalterlichen Warmzeit sowie die Ausbreitung der Thule-Inuit in die Gebiete der Grænlendingar-Siedlungen zusammen. Verschiedene in der Forschung vertretene Ansätze werden im Artikel Grænlendingar vorgestellt. Rolle der Norweger und Dänen. Nachdem der Kontakt Europas mit den Siedlern auf Grönland 1408 abgerissen war, blieb die Insel wegen ihrer Unwirtlichkeit 300 Jahre lang fast unbeachtet. Unter Christian IV. gab es Anfang des 17. Jahrhunderts drei Grönlandexpeditionen. 1721 begannen dänische Walfänger, dauerhafte Stützpunkte anzulegen. Wegen der mittlerweile verschlechterten klimatischen Bedingungen waren das aber keine autarken Siedlungen wie zuvor die der Wikinger, sondern blieben stets von Dänemark abhängig. Mit der Landung des dänisch-norwegischen Pfarrers Hans Egede 1721 begann die protestantische Missionierung der Inuit, an der auch deutsche Missionare großen Anteil hatten. Gleichzeitig wurden Handelsstationen errichtet. 1776 bekam der "Kongelige Grønlandske Handel" (KGH) das Handelsmonopol über Grönland. Der KGH übernahm auch die Verwaltung und weitere Missionstätigkeit. Im 18. und 19. Jahrhundert wurde Grönland immer wieder von niederländischen, dänisch-norwegischen, deutschen und anderen Walfängern besucht. Dabei kam es immer wieder zu gewalttätigen Konflikten mit den Einheimischen. Die Grönlandfahrt trug wesentlich zur wirtschaftlichen Entwicklung Flensburgs bei, das damals zweitgrößter Hafen im dänischen Gesamtstaat war. 1814 wurde im Kieler Frieden die dänisch-norwegische Personalunion aufgelöst, Grönland fiel an Dänemark. Ab 1862 wurden die Einheimischen formal in die lokale Verwaltung sozialer Angelegenheiten miteinbezogen. Ab 1911 entstanden Gemeinderäte und zwei Landräte, und ab 1925 wurde das Land von der "Grønlands styrelse" regiert, deren Direktor dem dänischen Staatsministerium unterstand. Auch die grönländische Kolonialgeschichte war nicht frei von verschiedenen Konflikten und Protesten der Eingeborenen. 20. und 21. Jahrhundert. Im Ersten Weltkrieg blieb Dänemark (und damit auch Grönland) neutral. 1921 erklärte Dänemark seine Oberhoheit über Grönland. Auf norwegischer Seite behauptete man, dass gemäß dem Frieden von Kiel die dänische Hoheit nur für die wirtschaftlich erschlossenen Gebiete in Westgrönland gelte. Dennoch erkannte Norwegen die dänischen Ansprüche zunächst an. Als Dänemark allerdings Ostgrönland für Nicht-Dänen schloss, erhob sich erneut norwegischer Protest. 1930 begannen norwegische Fischer mit dem Wohlwollen ihrer Regierung mit der Besetzung der Ostküste Grönlands, so dass 1931 eine Teilung der Insel drohte (Eirik Raudes Land). 1933 gab Norwegen nach einem Schiedsspruch des Ständigen Internationalen Gerichtshofes in Den Haag seine Ansprüche auf Grönland endgültig zugunsten Dänemarks auf. Im Zweiten Weltkrieg wurde Dänemark am 9. April 1940 im Rahmen der Operation Weserübung von der Wehrmacht besetzt und blieb bis zum Kriegsende unter deutscher Besatzung. Grönland war von diesem Zeitpunkt an von Dänemark abgeschnitten. Die dänischen Beamten vor Ort übernahmen die Staatsgewalt. Einen Tag nach der deutschen Besetzung erklärte der dänische Gesandte in den Vereinigten Staaten, Henrik Kauffmann, dass er keine Weisungen aus Kopenhagen mehr entgegennehmen werde. Washington betrachtete ihn dennoch weiterhin als den bevollmächtigten dänischen Botschafter und ging mit ihm am 9. April 1941 einen Vertrag ein, der die Errichtung von US-amerikanischen Basen in Grönland garantierte, nachdem deutsche Kriegsschiffe vor Grönland aufgetaucht waren. Daraufhin diente Grönland vor allem als Basis für atlantiküberwachende Flugzeuge auf der Suche nach deutschen U-Booten und wurde als Basis und Auftankstation für eigene Seemissionen benutzt. Es gab darüber hinaus auch deutsche Versuche, die Insel zur Errichtung von Wetterstationen der Wehrmacht in der Arktis mit dem Unternehmen Holzauge, Unternehmen Bassgeiger, Unternehmen Edelweiß und Unternehmen Zugvogel zu nutzen. Als Gegenmaßnahme wurde die Sirius-Patrouille aufgestellt. Luftbild mit Thule AFB im Vordergrund Mit dem Vertrag vom 27. April 1951 wurde Grönland in ein gemeinsames dänisch-amerikanisches Verteidigungsgebiet unter NATO-Regie umgewandelt. Die Vereinigten Staaten erbauten ab 1952 größere Luftstützpunkte wie die Thule Air Base, denn im Kalten Krieg spielte die Nähe zur Sowjetunion quer über den Nordpol für Bomber und Aufklärungsflugzeuge, die entlang einer Orthodrome in die Sowjetunion fliegen konnten, eine wichtige Rolle. 1953 wurden die Inuit aus Thule nach Qaanaaq umgesiedelt. 1950 erlosch das dänische Handelsmonopol. Grönland wurde damit für den Freihandel geöffnet. Der KGH verlor auch seine administrative Gewalt. Verwaltungschef wurde ein von Dänemark ernannter Landeshauptmann, und es gab einen demokratisch gewählten Landrat (landsråd), der allerdings nur beratende Funktion hatte. Der Aufbau der Infrastruktur wurde nun durch die "Grønlands Tekniske Forvaltning" (GTO) übernommen (bis 1987). Neue technische Möglichkeiten wie Flugzeuge, Hubschrauber, Eisbrecher, Trawler usw. ermöglichten die Schaffung einer Versorgungslage auf sehr hohem Niveau. Mit dem Inkrafttreten des neuen dänischen Grundgesetzes am 5. Juni 1953 war Grönland keine Kolonie mehr. Das Land wurde nach dänischem Vorbild in drei Verwaltungsbezirke (dän. "amter") mit insgesamt 18 Kommunen eingeteilt. Seit 1953 entsendet Grönland auch zwei demokratisch gewählte Abgeordnete ins dänische Folketing, erstmals nach der Wahl am 22. September 1953. Am 30. August 1955 wurde in Kopenhagen ein spezielles Grönlandministerium eingerichtet, das bis 1987 existierte. Erster Grönlandminister war Johannes Kjærbøl. Letzter Minister für Grönland war Tom Høyem. Die formale Entkolonialisierung und die wirtschaftliche Öffnung blieben nicht ohne Folgen für die traditionelle Jägergesellschaft der Inuit, sodass viele auch von einer „kulturellen Kolonialisierung“ sprachen, vor der die Inuit zu Zeiten der Isolation weitgehend geschützt waren. In den ersten Jahrzehnten nach dem Zweiten Weltkrieg wurde die Jägergesellschaft schlagartig ins Industriezeitalter versetzt. Die Umwälzungen schufen unmittelbar bessere Lebensbedingungen und Ausbildungsmöglichkeiten nach dänischen Standards, sie führten jedoch auch zu einer tiefgreifenden nationalen Identitätskrise. Alkohol und Kriminalität wurden zu einem Problem. Seit dem Beginn der 1960er-Jahre wurde die Nationalbewegung mit ihrer Forderung nach Selbstverwaltung immer stärker; sie richtete sich gegen ein Gesetz, in dem Dänen bei gleicher Arbeit ein höherer Lohn zustehen sollte als den geborenen Grönländern. Nach dem Beitritt Dänemarks (mit Grönland) zur Europäischen Gemeinschaft 1973 verschärfte sich der Protest erneut, denn bei der entsprechenden dänischen Volksabstimmung am 2. Oktober 1972 stimmten lediglich 3905 Grönländer für den Beitritt, während 9386 dagegen stimmten. In der Folge wurde 1975 eine paritätisch besetzte grönländisch-dänische Kommission gebildet, die ein Autonomiegesetz nach dem Vorbild der Färöer ausarbeiten sollte. Im Ergebnis der Verhandlungen der Kommission wurde 1978 ein entsprechendes Gesetz vom Folketing verabschiedet. Bei der darauf folgenden Volksabstimmung in Grönland am 17. Januar 1979 sprach sich die große Mehrzahl der Grönländer für dieses Autonomiegesetz "(hjemmestyreloven)" aus. Am 1. Mai 1979 erlangte Grönland schließlich seine Selbstverwaltung sowie die innere Autonomie mit eigenem Parlament und eigener Regierung. Erster Ministerpräsident war Jonathan Motzfeldt. Seitdem besteht Grönland als „Nation innerhalb des Königreichs Dänemark“. Aufgrund der Zugehörigkeit zu Dänemark war Grönland Mitglied der Europäischen Gemeinschaft. Das hatte zur Folge, dass europäische Hochseeflotten in den Gewässern Grönlands fischen und europäische Konzerne auf Grönland nach Bodenschätzen suchen konnten. Dagegen entwickelte sich eine Volksbewegung mit dem Ziel, die Mitgliedschaft in der Europäischen Gemeinschaft zu beenden. In Deutschland warb das Unterstützungskomitee für die Selbstbestimmung der Inuit in Grönland für das Anliegen der Grönländer. Am 23. Februar 1982 gab es eine Volksabstimmung über den Austritt aus der Europäischen Gemeinschaft, der am 1. Januar 1985 vollzogen wurde, in erster Linie wegen der Überfischung grönländischer Gewässer durch damals westdeutsche Fangflotten. Grönland genießt in der EU allerdings weiterhin den Status eines „assoziierten überseeischen Landes“ mit den Vorteilen einer Zollunion (vgl. EG-Vertrag). Dennoch gehört Grönland gemäß Art. 3 Abs. 1 Zollkodex nicht zum Zollgebiet der Gemeinschaft. Nach dem Ende des Kalten Krieges verblasste die militärische Bedeutung Grönlands, allerdings gibt es Bemühungen seitens der Vereinigten Staaten, auf Grönland Bodenstationen für den geplanten US-Atomraketenabfangschild errichten zu dürfen. Im Jahr 2007 erlangte Grönland, das jahrzehntelang von den Medien nicht beachtet worden war, im Zuge der Debatte um den Klimawandel ungewöhnlich viel Aufmerksamkeit. Dazu trug auch der spontane Besuch der deutschen Bundeskanzlerin Angela Merkel bei. Grönland ist innenpolitisch vollständig unabhängig, wird in allen außenpolitischen Angelegenheiten jedoch von Dänemark vertreten. Am 25. November 2008 fand eine Volksabstimmung statt, mit der die Ersetzung des seit 1979 geltenden Autonomiestatuts durch eine Selbstverwaltungsordnung erreicht wurde. Sie wurde am 21. Juni 2009 umgesetzt. Politik. Grönland ist demokratisch verfasst. Das Parlament (grön. Inatsisartut) wird alle vier Jahre gewählt und wählt seinerseits den Premierminister und die Regierung (Naalakkersuisut). Die grönländische Regierung und das Landsting verwalten die grönländischen Angelegenheiten. Das geht bis in den Bereich der Gesetze und Rechtsprechung. Dänische Gesetze können vom Landsting übernommen werden. Die Landesverteidigung obliegt dem dänischen Militär, die Außenpolitik ist weitgehend von Dänemark übernommen, dabei sind spezielle außenpolitische Interessen zu berücksichtigen, beispielsweise die Beziehungen zu anderen Inuit-Regionen oder die Nichtmitgliedschaft in der EU. Grönland ist durch zwei direkt gewählte Abgeordnete im dänischen Parlament vertreten. Grönland arbeitet mit Island und den Färöern im Westnordischen Rat zusammen (seit 1985/1997). Weiterhin ist es als Teil der dänischen Delegation seit 1983 Mitglied im Nordischen Rat. Am 5. September 2007 wurde das "Ålandsdokument" beschlossen, das den Autonomiegebieten Åland, den Färöern und Grönland die gleichwertige Mitgliedschaft im Nordischen Rat ermöglicht. Gegenwärtig wird durch die Erschließung von Rohstoffen versucht, sich wirtschaftlich weiter von Dänemark zu lösen. „Die Grönländer […] träumen von einer besseren Zukunft, manchmal sogar von einem Ölfund vor der Küste“. Auch der politisch vorangetriebene Ausbau des Survival- und Kreuzfahrttourismus und das durch die Berichterstattung über den Klimawandel gestiegene Interesse an Grönland gilt als Chance – ist aber aus ökologischer Sicht nicht unproblematisch. Am 25. November 2008 fand eine Volksabstimmung über das Gesetz zur Selbstverwaltung statt. Bei einer Wahlbeteiligung von nahezu 72 % stimmten 39.611 Wahlberechtigte ab. Eine große Mehrheit von 75,5 % stimmte für die erweiterte Selbstverwaltung. Das Gesetz, das als Schritt zur Unabhängigkeit von Dänemark zu werten ist, regelt unter anderem die Übernahme verschiedener Verwaltungseinheiten von Dänemark und die Eigentumsrechte an Bodenschätzen. Am 21. Juni 2009 trat ein Abkommen zur erweiterten Autonomie in Kraft "(Lov om Grønlands Selvstyre)". Nur noch Außen- und Verteidigungspolitik verbleiben in dänischer Verantwortung. Grönländisch, die Sprache der einheimischen Inuit, wird Landessprache; die grönländische Regierung übernimmt unter anderem die Zuständigkeiten für Polizei, Justiz und den Küstenschutz. Königin Margrethe II. bleibt Staatsoberhaupt Grönlands. Sie wird weiterhin durch die Reichsombudsschaft in Grönland vertreten, zurzeit durch die Reichsombudsfrau Mikaela Engell. Bei der Wahl 2013 gelang es der sozialdemokratischen Siumut mit 42,8 % wieder stärkste Kraft zu werden. Regierung. 2005–2009 gab es eine Koalitionsregierung aus Siumut, Inuit Ataqatigiit und Atassut. 2009–2013 bestand eine Koalitionsregierung aus Inuit Ataqatigiit (IA), Demokraten (D) und Kattusseqatigiit (K). Wirtschaft. Die Wirtschaft Grönlands ist der geringen Bevölkerungszahl und den klimatischen Bedingungen entsprechend schwach ausgebildet. Das Bruttoinlandsprodukt (BIP) lag 2001 bei 1,1 Milliarden US-Dollar. Die Arbeitslosigkeit betrug 2013 9,4 %. Eine der Haupteinnahmequellen ist der Tourismus, der derzeit stark ausgebaut wird. Die steigenden Besucherzahlen sollen in Zusammenhang mit dem Klimawandel stehen. Inzwischen wurde Grönland auch von den Medien entdeckt. So gilt Grönland inzwischen nicht mehr nur als Geheimtipp für alle, die keinen Massentourismus mögen, sondern auch als neues Ziel für Auswanderer. Die Haupthandelspartner sind Dänemark, Japan und Schweden. Wie schon seit langer Zeit bilden die Fischerei und der Robben-, Walross- und Walfang die weiteren Grundlagen der Wirtschaft. Die Fischerei alleine macht bis zu 89 % (Stand 2008) des Warenexports aus. Schafzucht und Landwirtschaft werden fast ausschließlich in Südgrönland betrieben und machen nur einen geringen Teil der Wirtschaftskraft aus. In den letzten Jahren ist insbesondere der Anbau von Gurken und Brokkoli möglich geworden, wofür es in der traditionellen Sprache der Ureinwohner nur das Wort "Salat" gibt. Auch Kartoffeln gedeihen zum Beispiel in den Buchten der Südspitze seit einigen Jahren, derzeit aber noch im Versuchsanbau. Ursächlich für die auf 120 Tage verlängerte Wachstumsperiode im Sommer ist vor allem der Klimawandel der letzten 30 Jahre mit einem Anstieg der Jahresdurchschnittstemperatur (bei Qaqortoq) um 1,3 Grad Celsius. Die Kehrseite des Klimawandels ist jedoch das schmelzende Eis auf den Fjorden, wodurch die Jagd schwieriger wird. Am 24. Oktober 2013 stimmte das Grönländische Parlament mit 15 gegen 14 Stimmen dafür, ein Jahrzehnte altes Verbot der Gewinnung von Bodenschätzen aufzuheben. Durch die Nutzung von Uran und Seltenen Erden will Grönland künftig Einnahmen erzielen, die den Grad der finanziellen Unabhängigkeit erhöhen. Gegen die Entscheidung gab es Proteste von Naturschützern, die die Rohstoffgewinnung unter arktischen Bedingungen als Gefahr für die Lebensgrundlagen ansehen. Rohstoffe. Grönland sieht in der Erschließung seiner Rohstoffvorkommen einen wichtigen Bestandteil seiner politischen Eigenständigkeit. „Wir müssen das grundlegende Eigentumsrecht der Grönländer an den Ressourcen des Landes beschützen und das Recht, das Land selbst zu steuern, sichern“, sagte in dem Zusammenhang der sozialdemokratische grönländische Regierungschef Enoksen 2008. Unter dem grönländischen Eis verbirgt sich ein enormer Reichtum an Bodenschätzen wie Zink und Öl. In den Arktischen Seegebieten vor Grönland wurden große Vorkommen an unterseeischem Erdgas und Erdöl geortet. Durch den Klimawandel schmilzt teilweise das Eis und es lohnt sich in vielen Fällen, bislang aus Kostengründen brachliegende Vorkommen abzubauen. Im Sommer 2010 startete das schottische Energieunternehmen Cairn Energy in der grönländischen Arktis mit Bohrungen in bis zu 500 Metern Tiefe nach Öl. 175 Kilometer vor der Westküste Grönlands im sogenannten „Planquadrat Sigguk“ in Höhe der Disko-Bucht und der kanadischen Baffin-Insel fand die Firma Erdgas. Dort errichtet sie eine Bohrplattform. Naturschutzorganisationen sehen durch die Bohrungen eine enorme Gefahr für das Ökosystem Arktis. Um die Bohrplattformen zu sichern muss großer technischer Aufwand getrieben werden um Kollisionen mit Eisbergen zu verhindern: Schiffe besprühen Treibeis mit Flüssigkeiten und Schlepper versuchen den Kurs von Eisbergen durch Schleppeinsatz zu ändern. Greenpeace entsandte sein arktistaugliches Schiff "Esperanza", um die Aktivitäten auf der Bohrplattform zu überwachen. Bei einem Unfall wie einem Blowout bei der Plattform "Deepwater Horizon" im Golf von Mexiko im April 2010 wären die Folgen sehr viel verheerender. Da das Meeresgebiet ein halbes Jahr von Eis bedeckt ist, kann ein eventueller Ölaustritt aus den gebohrten Löchern zwischen Oktober und Mai nicht bekämpft werden. An den unzugänglichen grönländischen Küsten kann das Öl nicht aufgesammelt werden. Im kalten Wasser Grönlands verdunstet Öl deutlich langsamer als im Golf von Mexiko. Der kommunale Bereitschaftschef an der betroffenen Küste Grönlands sagte 2010: „Wenn etwas passiert, sind wir verloren. Wir könnten nichts tun, als zuzuschauen.“ Verkehr. Eine wesentliche Rolle spielt neben der Schifffahrt vor allem der Flugverkehr. Der größte Flughafen ist Kangerlussuaq (Søndre Strømfjord). Internationale Flüge führen hauptsächlich nach Kopenhagen. Sowohl Air Greenland und Air Iceland bietet Routen vom Flughafen Keflavík in Island um mehrere Ziele in Grönland. Weitere Flughäfen befinden sich in Narsarsuaq (bei Narsaq, Anbindungen an Island und Dänemark), Nuuk (Anbindung an Island), Kulusuk (bei Tasiilaq, Anbindung an Island), und Constable Point bei Ittoqqortoormiit (Scoresbysund, Anbindungen an Island). Kultur. Die Inuit haben ihre eigene kunsthandwerkliche Tradition; beispielsweise schnitzen sie den Tupilak. Dieses Kalaallisut-Wort bedeutet Seele oder Geist eines Verstorbenen und umschreibt heute eine meist nicht mehr als 20 Zentimeter große, überwiegend aus Walrosselfenbein geschnitzte Kunstfigur mit verschiedenartiger, ungewöhnlicher Gestalt. Diese Skulptur stellt eigentlich ein mythisches oder spirituelles Wesen dar; gewöhnlich ist sie aber wegen ihres für westliche Sehgewohnheiten grotesken Aussehens zum reinen Sammelobjekt geworden. Grönland hat auch eine eigene bemerkenswert moderne Musikkultur. Die erste Band, die grönländisch sang, war in den 1970ern die Gruppe Sumé (grönländisch "wo?"). Wichtigste Bands sind Chilly Friday (Rock), Disko Democratic Republic (Rock) und Nuuk Posse (Hip-Hop). Bekanntester Liedermacher ist Angu Motzfeldt. International am bedeutendsten ist der Sänger und Schauspieler Rasmus Lyberth. Medien. Kalaallit Nunaata Radioa betreibt auf Grönland je einen Fernseh- und einen Radiosender. Außerdem gibt es einen zusätzlichen 100-Watt-Hörfunksender in Nuuk, der das Programm von Danmarks Radio (DR P1) ausstrahlt, wo es von 90 Prozent der dänischsprachigen Minderheit gehört werden kann. Trotz der geringen Bevölkerungsdichte gibt es in Grönland ein reichhaltiges Medienangebot. Zum grönländischen Radio- und Fernsehverband STTK gehören insgesamt neun Radio- und elf Fernsehstationen. Beispielsweise verweist Nuuk TV darauf, mit fast 4000 Haushalten fast 75 Prozent aller Haushalte in der Hauptstadt mit 23 Fernseh- und acht Radiokanälen digital verschlüsselt erreichen zu können. Das private lokale Fernsehhauptprogramm sendet darüber hinaus unverschlüsselt digital und analog für die Region Nuuk. Weihnachtsmann von Grönland. Nach Angaben der Dänischen Botschaft in Deutschland erreichen jedes Jahr tausende Briefe das Weihnachtspostamt des Weihnachtsmanns in Grönland, weil viele Kinder auf der Welt glauben, der Weihnachtsmann wohne dort. Im Sommer kann man sein Haus besichtigen. Es liegt einen kleinen Spaziergang außerhalb der Ortschaft Uumannaq, unterhalb des markanten Robbenherzberges. Sport. Trotz der Anbindung an Dänemark gibt es eine Art Grönländische Fußballnationalmannschaft. Grönland ist aber bisher nicht Mitglied der FIFA. Ein Beitritt wird zwar angestrebt, CONCACAF, UEFA und FIFA sperren sich allerdings dagegen. Jahrelang wurde als Grund das Fehlen von Naturrasenplätzen angegeben. Seitdem auf Kunstrasen gespielt werden darf, wird als Grund angegeben, dass die FIFA nur noch souveräne Staaten als Mitglieder akzeptiert. Die Färöer-Inseln oder auch die vier Nationalteams des Vereinigten Königreichs (England, Schottland, Wales und Nordirland) fielen allerdings nicht unter diese Regel. Die Grönländische Männer-Handballnationalmannschaft erreichte über die kontinentalamerikanische Qualifikation die Handball-Weltmeisterschaften 2001 in Frankreich, 2003 in Portugal und 2007 in Deutschland. Das Wort „Kajak“ ist dem Inuktitut entnommen. Die Inuit bezeichnen mit „Qajaq“ ein Boot, das ursprünglich aus Walknochen, später aus Holzverstrebungen konstruiert und mit Robbenhaut bespannt wurde. Anders als der Umiak, das Frauen-Boot, war der Kajak sehr schmal und dem Körper der ihn nutzenden Person so genau angepasst, dass der Unterkörper wassergeschützt blieb und dem Insassen die sogenannte Eskimorolle ermöglichte. Der Kajak wurde schon von den Menschen der Thule-Kultur im Sommer für Jagd und Fischfang genutzt. Auch nachdem Kanus mit Außenbordmotoren und sogar Jachten sich in der Arktis durchgesetzt und die traditionellen Kajaks und Umiaks weitgehend verdrängt haben, werden in entlegenen Regionen wie Qaanaaq, Ittoqqortoormiit oder in einzelnen Ansiedlungen der Kommune Upernavik aus Traditionsgründen noch immer auch Kajaks verwendet. Geochemie. Die Geochemie (altgriechisch γῆ ge ‚Erde‘, γεω- "geo-" ‚die Erde betreffend‘ und χημεία "chemeia" ‚Chemie‘) befasst sich mit dem stofflichen Aufbau, der Verteilung, der Stabilität und dem Kreislauf von chemischen Elementen und deren Isotopen in Mineralen, Gesteinen, Boden, Wasser, Erdatmosphäre und Biosphäre. Sie ist die naturwissenschaftliche Fachrichtung, die Geologie und Chemie verbindet. Dabei hat sie mit der Geologie den Untersuchungsgegenstand und mit der Chemie die Untersuchungsmethoden gemein. Geschichte. Bis in das späte 19. Jahrhundert hinein wurde in den Geowissenschaften ein beschreibender Ansatz verfolgt, der die Gesteine und Minerale nach ihren äußeren Eigenschaften zu verstehen suchte, hingegen jedoch nicht oder kaum die stoffliche Basis und deren chemische Dynamik mit einschloss. Ein Verständnis dieser Dynamik ist jedoch unerlässlich, denn viele Fragen lassen sich nur durch geochemische Ansätze beantworten. Die Geschichte der modernen Geochemie, zu deren Gründern Victor Moritz Goldschmidt, Wladimir Iwanowitsch Wernadski, Frank Wigglesworth Clarke und Alfred Treibs am Anfang bis Mitte des 20. Jahrhunderts gehörten, ist dadurch eng mit jener der Geologie und Mineralogie verknüpft. Der Begriff selbst geht auf den Schweizer Chemiker Christian Friedrich Schönbein (1838) zurück. Wichtige Etappen auf dem Weg zum modernen Verständnis der Geochemie stellten die Arbeiten von Carl Gustav Bischof (1846), Justus Roth (1818–1892; 1859) und James David Forbes (1868) dar. Schematische Darstellung eines geochemischen Kreislaufs Untersuchungsgegenstand. In der modernen Geochemie ist eine Zweiteilung des Faches zu beobachten. Auf der einen Seite steht die Untersuchung metamorpher und magmatischer Gesteine, wobei das Hauptaugenmerk auf deren Spurenelementgehalten und (meist radiogenen) Isotopenverhältnissen liegt, mit dem Ziel, Aussagen über Alter (Geochronologie) und Bildungsbedingungen (Geothermobarometrie) machen zu können. Im Bereich der Rekonstruktion der frühesten Erdgeschichte gibt es hier Überschneidungen mit der Planetologie und der Kosmochemie. Auf der anderen Seite steht die Untersuchung von Sedimenten, Wässern, Böden, Lebewesen und der Luft, wobei die Untersuchung stabiler Isotope und der Speziierung von Elementen eine herausragende Rolle spielt. An diesem Ende des Spektrums der Geochemie bildet die Biogeochemie, also die Untersuchung des Einflusses von Organismen auf die Chemie der Erde, den Übergang zur Biochemie und zur Biologie. Untersuchungsmethoden. Für die Untersuchung flüssiger Proben wird für die Bestimmung der Hauptelemente oft die Ionenchromatographie, für die Spurenelemente die ICP-OES und für Ultraspurenelemente die ICP-MS verwendet. Mit letzterer können auch die verschiedenen Isotope gemessen werden. Durch die Kopplung mit einem Laser können mit letztgenannter Probe auch feste Proben untersucht werden, wobei der Laser Material von der Probenoberfläche abträgt. Eine weitere Möglichkeit, die chemische Zusammensetzung fester Proben direkt zu messen, ist die Elektronenstrahlmikroanalyse. Oft werden feste Proben auch einem Aufschluss unterzogen und entweder aufgeschmolzen oder aufgelöst. Die erstarrte Schmelztablette kann dann mit der Röntgenfluoreszenzanalyse untersucht werden, während für Lösungen die gesamte Bandbreite der oben genannten Methoden zur Verfügung steht. Neben diese Standardmethoden existieren weitere Verfahren für besondere Fragestellungen: die Mößbauer-Spektroskopie zur Unterscheidung von zweiwertigem und dreiwertigem Eisen, die Elektronenspinresonanz zum Nachweis geringer Konzentrationen paramagnetischer Ionen in Mineralen, die Röntgenabsorptionsspektroskopie und die Rasterkraftmikroskopie zur chemischen Untersuchung von Oberflächen, die Raman-Spektroskopie und die Infrarot-Spektroskopie zum Nachweis bestimmter Bindungen und der an ihnen beteiligten Elemente sowie die Neutronenaktivierungsanalyse für extrem geringe Konzentrationen. Studiengänge. Grundlagen der Geochemie werden in vielen geowissenschaftlichen Bachelor-Studiengängen (z.B. "Geowissenschaften", "Geologie/Mineralogie") vermittelt. Vertiefende Kenntnisse können im Master-Studiengang "Geomaterialien und Geochemie" oder in geochemischen Vertiefungen meist mineralogisch orientierter Studiengänge erworben werden. In der deutschen Hochschulpolitik ist die Geochemie als Kleines Fach eingestuft; sie wird von der "Arbeitsstelle Kleine Fächer" gemeinsam mit der Mineralogie, der Petrologie und ähnlichen Fachgebieten erfasst. Altgriechische Sprache. Altgriechisch (Eigenbezeichnung: ', ‚die griechische Sprache‘) ist die antike Sprachstufe der griechischen Sprache, einer indogermanischen Sprache im östlichen Mittelmeerraum, die einen eigenen Zweig dieser Sprachfamilie darstellt, möglicherweise über eine balkanindogermanische Zwischenstufe. Unter dem Begriff Altgriechisch werden Sprachformen und Dialekte zusammengefasst, die zwischen der Einführung der griechischen Schrift (etwa 800 v. Chr.) und dem Beginn der hellenistischen Ära (etwa 300 v. Chr.), zumindest in der Literatur noch sehr viel länger, nämlich bis zum Ende der Antike (um 600 n. Chr.), verwendet wurden. Als Norm für das klassische Altgriechisch gilt der literarische attische Dialekt des 5. und 4. Jahrhunderts vor Christus, die Sprache von Sophokles, Platon und Demosthenes. Die Sprachstufe zwischen etwa 600 und 1453 (Eroberung Konstantinopels durch die Osmanen) wird gemeinhin als Mittelgriechisch oder byzantinisches Griechisch bezeichnet; das darauf folgende Neugriechische, die Staatssprache des modernen Griechenland, hat sich nachvollziehbar kontinuierlich aus dem Alt- bzw. Mittelgriechischen entwickelt. Die altgriechische Sprache hat einerseits durch die Vermittlung durch das Lateinische, für dessen Geltungsbereich sie die wesentliche Bildungssprache war, andererseits durch die exemplarische erhaltene Literatur vor allem in den Bereichen Philosophie, Naturwissenschaft, Geschichtsschreibung, Dichtung, Musik und Theater eine herausragende Bedeutung für das gesamte Abendland. Hinzu kommt ihre Bedeutung als Sprache des Neuen Testaments für Religion und Theologie des Christentums. Auch sprachlich hat sie durch diesen Einfluss die europäischen Sprachen geprägt: Eine Vielzahl von Lehnübersetzungen, Lehn- und Fremdwörtern hat in europäische Sprachen Eingang gefunden und wird in diversen Fachsprachen verwendet. Der Sprachcode nach ISO 639 für Alt- und Mittelgriechisch (bis 1453) ist grc. Textprobe. "Übersetzung:" „Selbst überzeugt, versuche ich, auch die anderen zu überzeugen, dass man zur Erlangung dieses Guts einen besseren Helfer für die menschliche Natur als die Liebe schwerlich finden kann.“ Klassifikation. Das Altgriechische lässt sich als indogermanische Sprache klassifizieren, leitet sich also vom Ur-Indogermanischen ab, das sich wahrscheinlich im 3. Jahrtausend v. Chr. in die heute bekannten Sprachzweige aufspaltete. Lautbestand und Vokabular des Altgriechischen weichen jedoch von allen anderen Sprachen der Familie so erheblich ab, dass es als eigener Zweig des Indogermanischen im engeren Sinne gewertet wird und man von einer starken Substratwirkung der „vorgriechischen“ Sprachstufen auf die griechischen Idiome ausgeht. Den Ursprung vieler nicht indogermanischer Wörter des Griechischen (etwa ' ‚Meer‘ und ' ‚Insel‘) vermuten Forscher in der Sprache oder den Sprachen der Bewohner Griechenlands vor Ankunft der indogermanischen Völker um 2000 v. Chr., die auch als Ägäische Sprachen bezeichnet werden. Die vorgriechische Bevölkerung hieß im Altgriechischen u. a. ' ‚Pelasger‘. Sicher haben auch das Minoische und Eteokretische, vorgriechische Sprachen auf Kreta, das Vokabular des frühen Griechisch beeinflusst. Martin Bernal vertrat die umstrittene These, dass viele griechische Wörter unklarer oder nicht-indogermanischer Herkunft semitischen Ursprungs seien. Geschichte. Die ältesten Schriftzeugnisse des Griechischen sind in Linear B abgefasst und stammen aus dem 14. Jahrhundert, eventuell bereits aus dem Beginn des Jahrhunderts, die jüngsten aus dem frühen 12. Jahrhundert v. Chr. Die damit in der mykenischen Kultur (1600–1050 v. Chr.) geschriebene Sprache wird als mykenisches Griechisch bezeichnet und als frühgriechischer Dialekt, nicht jedoch als direkter ‚Vorgänger‘ des klassischen Griechisch gesehen. Aus der Zeit zwischen ca. 1200 und 800 v. Chr. gibt es keine schriftlichen Quellen des Griechischen; mit den Epen Homers, die vermutlich zwischen 850 und 700 v. Chr. entstanden, begegnet uns erstmals ein literarisches Werk in altgriechischer Sprache. Die Sprache Homers ist eine künstlich gebildete Literatursprache, die vorwiegend aus ionischen und äolischen Elementen besteht. Zu diesem Zeitpunkt muss das Altgriechische in verschiedenen Dialekten im südlichen Balkan und um die Ägäis weit verbreitet gewesen sein. Die griechischen Dialekte im Kern des griechischen Siedlungsgebiets Nach und nach wurde mit der steigenden kulturellen und wirtschaftlichen Bedeutung der Poleis und ihrer Kolonien im gesamten Mittelmeerraum das Griechische zu einer Weltsprache der Antike. Man schätzt die Zahl der Griechisch-Sprecher zu Beginn des 4. Jahrhunderts v. Chr. auf etwa sieben Millionen Menschen, zur Zeit Alexanders des Großen auf rund neun Millionen. Als Staatssprache des Reichs Alexanders und seiner Nachfolger verbreitete es sich bis Ägypten und Mittelasien, als Amtssprache des Römischen Reiches bis Großbritannien, Spanien und Nordafrika. Altgriechisch wird in vier Dialektgruppen gegliedert, das Ionisch-Attische, das Arkadisch-Kyprische, das Äolische, sowie Westgriechisch, das aus dorischen, und nordwestgriechischen Dialekten bestand. Neben diesen "epichorischen" also ‚einheimischen‘, d. h. regional verteilten gesprochenen Dialekten entwickelten sich auch so genannte literarische Dialekte: Verschiedene Gattungen der Versdichtung bedienten sich hauptsächlich vier Varianten der epichoreischen Dialekte (Ionisch, Äolisch, Dorisch und Attisch). Die literarische Prosa war zu Beginn von ionisch schreibenden Autoren bestimmt (die "Naturphilosophen" Thales, Anaximander und Anaximenes; Herodot), doch setzte sich im 5. Jahrhundert das Attische als vorherrschender literarischer Dialekt durch und wurde durch Autoren wie Platon zum klassischen literarischen Vorbild für die gesamte griechische Literatur. Diese Sprachform wurde fortan von den meisten Autoren der Antike als Literatursprache verwendet und gilt bis in die Gegenwart als Norm für das Altgriechische. Schon zur Zeit des Hellenismus begann ein zunehmender Wandel in Hinsicht auf Aussprache, Betonung und Grammatik einzusetzen, der bis zum Ende der Spätantike weitgehend abgeschlossen war. In Abgrenzung zum Neugriechischen werden aber auch die hellenistischen ("Koine", etwa 300 v. Chr. bis 300 n. Chr.) und spätantiken (etwa 300 bis 600 n. Chr.) Sprachformen zum Altgriechischen gezählt. In der Literatur bildete das „klassische“ attische Griechisch in dieser Zeit den Standard, dem sich noch spätantike Autoren wie Libanios (4. Jahrhundert) oder Agathias (um 580) verpflichtet fühlten: Seit dem 1. Jahrhundert v. Chr. hatte sich in der Oberschicht die Ansicht durchgesetzt, die "Koine" sei als vulgär abzulehnen. Da sich die Sprache der gebildeten Stände, die sich am attischen Dialekt der Jahrzehnte um 400 v. Chr. orientierte ("Attizismus"), immer mehr von der der restlichen Bevölkerung zu unterscheiden begann, spricht man ab dieser Zeit von einer ausgeprägten Diglossie im Griechischen. Am Ende der Antike ging aber die Elite, die die attizistische Sprachform pflegte, unter. Das mittelalterliche Griechisch (etwa 600–1453) des Byzantinischen Reiches wird dann meist als Mittelgriechisch bezeichnet. Schrift. Das heute für die alt- und neugriechische Sprache verwendete Alphabet wurde vermutlich in der Zeit vom späten 9. bis zum mittleren 8. Jahrhundert v. Chr. vom phönizischen abgeleitet. Anfangs gab es mehrere Varianten des Alphabets in Griechenland, aber das ionische (auch „milesische“, nach der Stadt Milet) setzte sich allmählich fast im gesamten griechischsprachigen Raum durch. Dabei wurden ungebräuchliche Buchstaben wie Digamma, Sampi, Qoppa und San aufgegeben. Als Fixpunkt für die Übernahme des ionischen Alphabets wird das Jahr 403 v. Chr. angesehen, als die Stadt Athen es offiziell einführte, da Athen sich zu dieser Zeit zum Zentrum der literarischen Kultur Griechenlands entwickelte. Die griechischen Alphabete wurden bis in klassische Zeit mit den 24 Majuskeln ohne Wortzwischenräume und Satzzeichen geschrieben, zunächst von rechts nach links, dann furchenwendig, mit der Einführung des milesischen Alphabets in Athen schließlich rechtsläufig, also von links nach rechts. Seit diesem Datum hat sich das griechische Alphabet bis heute nicht verändert, wenn man von der Einführung der Diakritika und Minuskeln absieht. Das lateinische Alphabet leitete sich nicht vom milesischen, sondern von einem westgriechischen Alphabet ab, in dem beispielsweise für stand, und nicht wie im milesischen für, was auch die anderen Unterschiede zwischen beiden Schriften erklärt. Mit den phonologischen Veränderungen in der Zeit des Hellenismus wurden verschiedene diakritische Zeichen eingeführt, um den schwindenden Lautbestand des Griechischen und den tonalen Akzent, die für das Verständnis der klassischen Dichtung entscheidend sind, zu konservieren. Es handelt sich um die drei Akzente Akut (' ‚die Schärfe‘), Gravis (' ‚die Schwere‘) und Zirkumflex (' ‚die Umgebogene‘), die den tonalen Akzent des Altgriechischen wiedergeben sowie die beiden Spiritūs – Spiritus asper (' ‚die Raue‘) und Spiritus lenis (' ‚die Leichte‘) – die bei mit Vokal oder /r/ beginnenden Wörtern die Behauchung bzw. das Fehlen einer solchen anzeigen. Näheres zu den Diakritika siehe unter Polytonische Orthographie. In byzantinischer Zeit kam das Iota subscriptum (‚untergeschriebenes Iota‘) hinzu, das ursprünglich der zweite Buchstabe der Langdiphthonge, und war, aber schon im 8. Jahrhundert v. Chr. verstummt war. Da aber die Kennzeichnung dieser Langvokale zur Distinktion grammatischer Kategorien nötig ist, wurde das Iota "unter" den übrigen Vokal gesetzt. Bei Majuskeln wird es als Iota adscriptum "neben" den Vokal gesetzt (Beispiel: '). Die griechischen Minuskeln wurden vermutlich in Syrien im 9. Jahrhundert n. Chr. entwickelt. Die heute für das Altgriechische gebrauchten Satzzeichen wurden zur selben Zeit eingeführt: Komma, Punkt und Kolon "(:)" werden wie im Deutschen gebraucht. Das Semikolon "(;)" schließt anders als in der lateinischen Schrift einen Fragesatz ab, die Funktion des Semikolons erfüllt der Hochpunkt "(·)". Die Gräzistik der Neuzeit verwendet zur Kennzeichnung der langen und kurzen Phoneme von α, ι und υ auch die diakritischen Zeichen Breve und Makron (). Außerhalb der Fachliteratur werden sie jedoch kaum verwendet. Vokale. Das Altgriechische kennt sieben Vokale, deren Länge bedeutungsunterscheidend ist. Zwei Vokale kommen jedoch nur in Langform vor, so dass insgesamt zwölf Phoneme bestehen. Bei, und wird die Länge nicht bezeichnet, lässt sich aber in "betonten" Silben (ab etwa 300 v. Chr.) durch die Akzente erschließen. Die neuzeitliche Gräzistik kennzeichnet in Wörterbüchern und Grammatiken den Unterschied durch Breve (˘) für kurze und Makron (¯) für lange Vokale. Aus den Vokalen bilden sich zahlreiche Diphthonge, die stets in oder enden, wobei letzteres aus einer früheren Sprachform durch das wiedergegeben wird: (), (), (), (), (), (). Bei den drei Diphthongen mit langem Anlaut (,) schwand ungefähr zu klassischer Zeit der -Laut, die Herkunft dieser Vokale aus Diphthongen wird seit byzantinischer Zeit jedoch durch das sogenannte Iota subscriptum angezeigt: (). Konsonanten. Die Plosive erscheinen, wie noch heute im Armenischen, in Dreierreihen (stimmhaft, stimmlos, stimmlos-behaucht). Hinzu kommen drei Affrikaten aus den stimmlosen Plosiva und /s/, die auch in der Flexion (etwa >) eine Rolle spielen. Die Aussprache des (Zeta) in klassischer Zeit ist nicht vollständig geklärt, sie war jedenfalls nicht. Dionysios Thrax beschreibt es als eine Verbindung von und, was die Aussprache sd (beides stimmhaft, also) nahelegt; es könnte aber auch umgekehrt (also ds,) gewesen sein. Nicht ganz eindeutig ist auch die Aussprache des Buchstabens Φ. Die meisten Altphilologen und der "Gemoll" setzen "Φ" bzw. "φ" dem "F" bzw. "f" (Frikativ) gleich, doch manche vermuten eine Aussprache mit aspiriertem Plosiv, also, und verteidigen die Schreibweise "Phi" (z. B. "Philosophie") gegen die modernere mit "F" (Fotografie, Grafik etc). Das Lateinische transkribierte in griechischen Lehnwörtern das φ zunächst mit „ph“, ab dem 1. Jahrhundert auch mit „f“. So wird z. B. „Philippus“ zu „Filippus“. Das Italienische spricht φ fast ausschließlich als f, etwa in la Fisica oder Sfera (Sphäre). Neben diesen Plosiven gibt es die Nasale () und (), letzteren mit der Variante vor velaren Konsonanten (geschrieben), den lateralen Approximanten () und den Vibranten (), letzteren mit der Variante oder, die später geschrieben wurde und in deutschen Fremdwörtern noch als "rh" erscheint, sowie den Frikativ (). Im Anlaut gab es außerdem, das etwa ab dem 3. Jahrhundert v. Chr., durch den "Spiritus asper" () über dem betreffenden Vokal wiedergegeben wurde. Der "Spiritus lenis" () wurde als graphisches Äquivalent für ‚kein [h]‘ neu erfunden und stand ebenfalls über dem Anlaut (sofern dieser vokalisch war). Teilweise wird die Theorie vertreten, dass es für den Glottisschlag stand, jedoch nur von einer Minderheit; es ist also davon auszugehen, dass ein vokalischer Anlaut gebunden wurde. Tonalität und Akzent. Der altgriechische Akzent war weniger (wie im heutigen Deutsch) durch größere Schallfülle (Lautstärke) gekennzeichnet als vielmehr durch die Tonhöhe, er war also dezentralisierend. Ein Akzent konnte im Altgriechischen auf eine der drei letzten Silben eines Wortes fallen (dies auch abhängig von der Länge der Vokale dieser Endsilben), hob diese aber nicht lautstärkemäßig vor den übrigen Silben hervor, sondern wurde mit einem höheren Ton als die umgebenden Silben gesprochen. Als der dezentralisierende Akzent einem zentralisierenden wich (etwa im 3. Jahrhundert v. Chr.), begann man, durch diakritische Zeichen die Tonalität des Altgriechischen durch Akzente zu konservieren (Aristophanes von Byzanz): Der Akut bezeichnete den Hochton, der Zirkumflex bezeichnete bei langen Silben den hoch beginnenden, dann fallenden Ton, der Gravis (der sich nur in betonten Endsilben im Kontext findet) war vermutlich ein fallender Ton, wofür es allerdings keine Belege gibt. Die gesamte altgriechische (Vers-)Dichtung und Metrik beruht nicht wie im Deutschen auf dem Kontrast zwischen betonten und unbetonten Silben, sondern ausschließlich auf der Länge oder Kürze der jeweiligen Silben. Morphologie. Das Altgriechische ist eine stark flektierende Sprache; bedeutungstragende Wortstämme sind vielseitigen Wandlungen unterworfen. Sowohl der Vokal-Ablaut als auch insbesondere der Konsonantenwandel im Auslaut von Wortstämmen sind bei Deklination und Konjugation häufig, ebenso wie in der Wortableitung und -bildung. Sie bereiten dem Griechisch Lernenden ein großes Pensum an Lernstoff. Des Weiteren verfügt das Altgriechische über eine Fülle von Morphemen, die die grammatischen Kategorien als Infixe und Affixe wiedergeben. Das Altgriechische kommt weitestgehend ohne zusammengesetzte Formen aus, das heißt, alle grammatischen Parameter lassen sich durch Anfügungen an die Wurzel bilden und vereinen sich in einem einzigen Wort.So lässt sich ein so komplexer Ausdruck wie ‚ich werde mir [etwas] schreiben lassen‘, das im Deutschen durch fünf einzelne Wörter ausgedrückt werden muss, im Altgriechischen durch eine einzige Verbform, "()" ausdrücken. Auch die Wortbildung verfügt über zahlreiche Morpheme, die Ableitungen und Bedeutungsdifferenzierungen ermöglichen, im Griechischen sind ähnliche ‚Bandwurmwörter‘ möglich wie im Deutschen. Berühmtes Beispiel ist das karikierende Endloswort λοπαδο­τεμαχο­σελαχο­γαλεο­κρανιο­λειψανο­δριμ­υποτριμ­ματο­σιλφιο­τυρο­μελιτο­κατα­κεχυμενο­κιχλ­επικοσ­συφοφαττο­περιστεραλ­εκτρυονο­πτεκε­φαλλιο­κιγκλο­πελειο­­σιραιο­βαφη­τραγανο­πτερυγών (‚austernschneckenlachsmuränen-essighonigrahmgekröse-butterdrosselnhasenbraten-hahnenkammfasanenkälber-hirnfeldtaubensiruphering-lerchentrüffelngefüllte Schüssel‘) aus den "Ekklesiazusai" des Aristophanes (Vers 1169). Grammatik. Die ersten Grammatiklehrbücher des Abendlandes wurden zu hellenistischer Zeit in der philologischen Schule von Alexandria abgefasst. Aristarch von Samothrake schrieb eine ' des Griechischen. Die vermutlich erste autonome grammatische Schrift ist die ' des Dionysios Thrax (2. Jahrhundert v. Chr.), welche die Phonologie und Morphologie einschließlich der Wortarten umfasst. Die Syntax ist Gegenstand eines sehr systematischen Werks des zweiten bedeutenden griechischen Grammatikers, des Apollonios Dyskolos (2. Jahrhundert n. Chr.). Angeblich im Jahre 169/68 „importierten“ die Römer die griechische Grammatiklehre und adaptierten sie. Die Grammatik des Altgriechischen ist auf den ersten Blick recht ähnlich zum Lateinischen, was Partizipialkonstruktionen und sonstige satzwertige Konstruktionen (AcI etc.) anbelangt, so dass Lateinkenntnisse beim Erlernen des Altgriechischen sehr hilfreich sind – und umgekehrt. Gutes Verständnis der deutschen Grammatik hilft allerdings auch; in vielen Fällen ist das Altgriechische dem Deutschen strukturell ähnlicher als dem Lateinischen, beispielsweise sind bestimmte Artikel im Griechischen vorhanden, während sie im Lateinischen fehlen. Es gibt auch Fälle, in denen die Ähnlichkeit mit dem Lateinischen eher oberflächlicher Art ist und mehr Verwirrung stiftet als hilft – beispielsweise werden die Zeitformen der Verben im Griechischen oft anders verwendet als im Lateinischen. Im Westen und auch in diesem Artikel werden oft lateinisch-basierte Begriffe (wie Substantiv, Dativ, Aktiv, Person …) zur Bezeichnung von altgriechischen grammatischen und semantischen Kategorien verwendet, die (oft) direkte Übersetzungen der griechischen Definitionen darstellen. In Griechenland werden dagegen bis heute griechisch-basierte Begriffe aus der ' des Dionysios Thrax verwendet. Deklination. Im Altgriechischen werden Substantive, Adjektive, Pronomina, der (definite) Artikel und einige Zahlwörter dekliniert. Besonders Zahl und Formenreichtum der Verbaladjektive ist hoch. Grammatikalische Kategorien der Nomina. Auch Partizipien, Verbaladjektive und Infinitive werden dekliniert, sie gelten als Zwischenformen (sogenannte Nominalformen des Verbs). Substantive können mit einem Artikel (' ‚der, die, das‘) bestimmt werden; einen unbestimmten Artikel gibt es nicht. Von den acht Kasus des Indogermanischen haben sich im Altgriechischen fünf erhalten: Nominativ, Akkusativ, Genitiv, Dativ und Vokativ (Anredeform). Nach ihrer Verwendungsweise werden zahlreiche verschiedene Kasusfunktionen unterschieden. Das altgriechische Kasussystem ähnelt in seinen Grundzügen dem deutschen. Neben dem Singular (Einzahl) und Plural (Mehrzahl) hat das Altgriechische noch in Resten den Dual (Zweizahl) behalten. Die Artikel des Duals lauten oft in allen Genera ' im Nominativ und Akkusativ und ' im Genitiv und Dativ. Seltenere Formen des femininen Duals sind entsprechend ' und '. In der o-Deklination (s. u.) hat er die Endungen ' im Nominativ und Akkusativ und ' im Genitiv und Dativ. In der a-Deklination lauten die Endungen entsprechend ' und ', in der 3. Deklination ' und '. Der Dual war schon zu vorklassischer Zeit (vor dem 5. Jahrhundert v. Chr.) im Schwinden begriffen, und die ursprüngliche Verwendungsweise (nur für wirklich in der Zweizahl Zusammengehöriges, wie Zwillinge, die beiden Hände, Augen und so weiter) ging verloren. In der klassischen Literatur wurden vorsichtige Wiederbelebungsversuche unternommen, die den Dual jedoch nicht wieder etablierten und außerdem seiner ursprünglichen, spezifischen Verwendungsweise entfremdeten. Aufgrund seiner Seltenheit ist der Dual in den untenstehenden Deklinationsbeispielen nicht aufgenommen. Wie die meisten indogermanischen Sprachen kennt das Altgriechische drei Genera: Maskulinum (männlich), Femininum (weiblich) und Neutrum (sächlich). Männliche Personen sind oft maskulin, weibliche oft feminin. Winde, Flüsse und Monate sind oft maskulin, Länder, Inseln und Städte oft feminin. Eine Besonderheit des Neutrums ist, dass bei einem neutralen Subjekt das Prädikat stets im Singular steht. Dies lässt sich damit erklären, dass das Neutrum Plural sprachhistorisch auf ein Kollektivum zurückgeht. Das Genus commune ist bei einigen Vokabeln ebenfalls erhalten, etwa bei ', das sowohl ‚Rind‘ als auch ‚Ochse‘ oder ‚Kuh‘ heißen kann. Einige Wörter sind Epicöna wie, "der Fuchs", was sowohl männliche als auch weibliche Füchse einschließt. Deklination der Substantive. Das Altgriechische kennt drei grundlegende Deklinationsklassen: die o-Deklination, die a-Deklination und eine dritte, konsonantische Deklination. Zur "a-Deklination" (oder ersten Deklination) gehören Feminina auf kurzes ' (wie ' ‚Ruhm‘ ‚Ansicht‘), langes ' (etwa ' ‚Land‘) und ' (etwa ' ‚Sieg‘) sowie Maskulina auf ' (etwa ' ‚Jüngling‘) und ' (etwa ' ‚Dichter‘). Endet der Wortstamm auf ein " ", ' oder ', haben die Endungen in allen Formen ein ' "(Alpha purum)," andernfalls wird ein langes ' zu einem ' "(Alpha impurum)." Die Maskulina haben im Genitiv die Endung', im Vokativ enden sie auf ', ansonsten werden sie gleich dekliniert wie die Feminina. Beispielwort: ' ‚Ruhm‘ ‚Ansicht‘ (femininum, mit kurzem Alpha impurum) Zur "o-Deklination" (oder zweiten Deklination) gehören Maskulina auf ' (wie ' ‚Freund‘) und Neutra auf ' (wie ' ‚Kind‘). Die Deklinationsendungen sind dieselben, außer dass Wörter auf ' wie alle Neutra im Nominativ und Akkusativ Plural auf ' enden und im Vokativ dieselbe Form wie im Nominativ haben. Ganz vereinzelt kommen auch Feminina auf ' vor (etwa ' ‚Insel‘), die ebenso dekliniert werden wie die Maskulina. Dazu kommen als Sonderfälle Kontrakta (etwa ' ‚Sinn‘), bei denen der vokalische Stamm mit der Deklinationsendung verschmolzen ist, und die sogenannte "attische Deklination" (wie ' ‚Tempel‘). Die "3. Deklination" umfasst eine Vielzahl von konsonantischen Stämmen. Je nach Stammauslaut lassen sie sich in Muta-Stämme (etwa ' "m." ‚Geier‘, ' "f." ‚Ziege‘, ' "m." ‚Vogel‘), Liquida- und Nasalstämme (etwa ' "m." ‚Redner‘, ' "f." ‚Mutter‘, ' "m." ‚Hafen‘), Sigma-Stämme (wie ' "n." ‚Geschlecht‘ ‚Art‘) und Vokalstämme (etwa ' "f." ‚Stadt‘, ' "m." ‚König‘) unterteilen. Aus sprachhistorischen Gründen unterliegt die Deklination der einzelnen Untergruppen Unregelmäßigkeiten, auf die hier nicht eingegangen werden kann. Zur 3. Deklination gehören sowohl Maskulina, Feminina und Neutra. Der Nominativ ist bei den Maskulina und Feminina entweder durch die Endung "-s" oder die Dehnstufe des Stammes (etwa ' zum Stamm ') gekennzeichnet, bei den Neutra besteht er aus der Grundstufe des Stammes. Manche Liquidastämme unterliegen dem quantitativen Ablaut (so hat ' im Nominativ die Dehnstufe, im Akkusativ ' die Grundstufe und im Genitiv ' die Schwundstufe). Beispielwort Maskulinum: ' ‚Redner‘ (maskulinum, Liquida-Stamm ohne Ablaut) Adjektive. Adjektive werden entweder nach der o/a-Deklination oder nach der 3. Deklination dekliniert. Erstere enden im Maskulinum auf ', im Femininum auf ' oder ' und im Neutrum auf ' (etwa ";" ‚neu‘). Manche (vor allem zusammengesetzte) Adjektive sind auch zweiendig, d. h. sie enden sowohl im Maskulinum als im Femininum auf ' (etwa ";" ‚leicht‘). Adjektive der 3. Deklination werden teils im Femininum nach der a-Deklination dekliniert (wie ";" ‚ganz‘), teils sind sie auch zweiendig (etwa ', ‚klar‘ ‚deutlich‘). Adjektive können gesteigert werden (Positiv ' ‚klug‘, Komparativ ' ‚klüger‘, Superlativ ' ‚am klügsten‘). Der Superlativ kann als "absoluter Superlativ" auch nur eine absolute Herausgehobenheit (‚sehr klug‘) bezeichnen. Die Endungen des Komparativs und des Superlativs sind meist ' und ', bei einigen Adjektiven auch ' und ' (etwa ";" ' ‚schlecht, schlechter, am schlechtesten‘). Adverbien werden von den Adjektiven mit der Endung ' abgeleitet (vgl. ' ‚er ist klug‘ – ' ‚er spricht klug‘). Pronomina. Personalpronomina gibt es in der 1., 2. und 3. Person. Die Nominativformen der Personalpronomina (attisch: ' ‚ich‘, ' ‚du‘, ' ‚wir‘, ' ‚ihr‘) sind stets betont, weil die Person im Normalfall schon durch das Verb angegeben ist. In den übrigen Kasus wird zwischen den enklitischen unbetonten Formen (etwa ' ‚mich‘) und nicht-enklitischen Formen ('), die in betonter Stellung und nach Präpositionen stehen, unterschieden. Als Ersatz für die Personalpronomina der 3. Person werden im Nominativ auch die Formen des Demonstrativpronomens ' ‚dieser‘, in den übrigen Kasus die Formen des Wortes ' ‚selbst‘ verwendet. In allen drei Personen gibt es reflexive und nichtreflexive Formen des Personalpronomens, je nachdem ob sie sich auf das Subjekt des Satzes beziehen (etwa ' ‚mich‘ – ' ‚mich [selbst]‘). In der 3. Person wird zudem zwischen direkt und indirekt reflexiven Pronomina unterschieden, wobei sich die indirekt reflexiven Pronomina auf das Subjekt des übergeordneten Satzes beziehen. An Demonstrativpronomina kommen ' ‚dieser‘ (wie lat. '), ' ‚dieser‘ (wie lat. ') und ' ‚jener‘ (wie lat. ') vor. Das Relativpronomen ' wird durch Anhängung des Indefinitpronomens zum verallgemeinernden Relativpronomen '. Das verallgemeinernde Relativpronomen ähnelt dem indirekten Fragepronomen. Das direkte Fragepronomen ' ‚wer‘ ‚was‘ trägt stets den Akut. Das Indefinitpronomen ' ‚irgendjemand‘ ‚irgendetwas‘ entspricht dem direkten Fragepronomen, ist aber enklitisch. Grammatische Kategorien des Verbsystems. Das altgriechische Tempussystem unterscheidet sich grundlegend von dem deutschen oder lateinischen. Die in der Grammatik übliche Einteilung in sechs (sieben bei Berücksichtigung des seltenen Perfektfuturs) Tempora ist genau genommen irreführend, da nicht die zeitliche Bedeutung, sondern der Aspekt im Vordergrund steht. Im Altgriechischen gibt es drei Tempusstämme, die einen bestimmten Aspekt ausdrücken. Zu jedem Tempusstamm gehört im Indikativ ein Haupttempus mit Gegenwarts- und ein Nebentempus mit Vergangenheitsbedeutung. (Der Aoriststamm ist der älteste Tempusstamm und hat ein Haupttempus im Indikativ nie ausgebildet.) Zum Beispiel drückt der Indikativ Präsens eine durative Handlung der Gegenwart, der Indikativ Imperfekt eine durative Handlung der Vergangenheit aus. Dazu kommt der sprachhistorisch jüngere Futurstamm, der kein Nebentempus kennt und tatsächlich eine rein zeitliche Bedeutung hat. Mit der Handhabung dieser drei Aspekte stellt der Griechischsprechende durch Flexionsaffixe die zeitlichen Bezüge her, die von den Aspekten selbst nicht ausgedrückt werden. Die Aspekte gelten generell, während es eine direkt zeitliche Bedeutung nur im Indikativ gibt (bis auf das Futur: siehe unten). Die Vergangenheit wird mit Hilfe der Nebentempora, die nur im Indikativ auftauchen, gebildet. Das sind im Präsensstamm das Imperfekt, im Perfektstamm das Plusquamperfekt und im Aoriststamm der Aorist. Anmerkung: In Grammatiken wird der Paratatikos "Imperfekt" genannt, was von der Originalbezeichnung von Dionysios Thrax abweicht, jedoch im Folgenden verwendet werden soll. Die übrigen Modi werden jeweils dem Haupttempus des Tempusstammes zugeordnet. Sie haben aber keinerlei zeitliche Bedeutung. Dadurch erklärt sich auch die auf den ersten Blick paradox wirkende Tatsache, dass mit dem Imperativ Aorist eine Befehlsform zu einem Vergangenheitstempus existiert. Der Präsensstamm– auch "linearer" oder "paratatischer" Stamm genannt – ist besser als Imperfektivstamm zu behandeln. Er übernimmt die Funktionen der durativen, iterativen, habituativen und konativen Aktionsart. Das bedeutet, es wird mit diesem Aspekt u. a. der Verlauf oder das Andauern einer Handlung ausgedrückt. Der "Aoriststamm" bezeichnet Punktuelles. Das bedeutet, es wird der bloße Vollzug einer Handlung vermeldet. (Die Bezeichnung "punktuell" wird benutzt, um den Gegensatz zum linearen sogenannten Präsensstamm auszudrücken. Der Aoriststamm ist die Normalform und benennt eine Handlung oder ein Ereignis, "ohne" ausdrücken zu wollen, ob diese Handlung in Wirklichkeit punktuell oder linear war/ist.) Bei diesem Aspekt wird in der Sprachpraxis gern ein bestimmter Punkt des Verbalbegriffs ins Auge gefasst, nämlich der Abschluss (resultativ) oder der Beginn (ingressiv, inchoativ) einer Handlung. Der Formen des "Perfektstamms" haben vorzeitig-ergebnisbezogene Bedeutung. Das heißt: Da, wo andere Sprachen Verben resultativer Aktionsart setzen, steht im Altgriechischen eine Perfektform. Das bedeutet, es wird mit diesem Aspekt ein (erreichter) Zustand oder einfach ohne jede nähere Bestimmung die Qualität einer Sache ausgedrückt. Der vierte Tempusstamm des Altgriechischen, der "Futurstamm", ist eine jüngere Entwicklung und hat in der Tat in allen Modi zeitliche Bedeutung. Es gibt im Altgriechischen (nach Ansicht moderner Linguisten) vier Modi: Indikativ, Optativ, Konjunktiv, Imperativ. Die Funktionen, die diese Formen syntaktisch und semantisch erfüllen, sind sehr vielfältig. Hier kann nur eine grundsätzliche Bestimmung ihrer Bedeutung vorgenommen werden. Von den drei Diathesen sind zwei (Aktiv und Medium) aus dem Indogermanischen geerbt. Das Passiv ist eine jüngere Entwicklung. Das Aktiv ist die unmarkierte Struktur. Das Passiv drückt die Wirkung einer Handlung auf das Subjekt aus, die nicht von ihm ausgeht. Insofern die Handlung nur noch auf das Subjekt wirkt, ohne von ihm auszugehen, bildet es den Grenzfall des Mediums. (Außerhalb des Futur- und Aoriststamms hat das Passiv keine eigenständige Form. Formal übernimmt dort das Medium neben der eigenen Funktion auch die des Passivs, was nur aus dem syntaktischen Zusammenhang oder bei genauer Kenntnis der Beschaffenheit des entsprechenden Verbums zu unterscheiden ist.) Aufgrund der Personalflexion des altgriechischen Verbs werden die Personalpronomina des Nominativs wie in vielen anderen indogermanischen Sprachen (so auch im Lateinischen) meist ausgelassen, wenn sie nicht besonders betont – etwa in Adversativsätzen – werden sollen. Es muss also nicht zwangsläufig ein das Subjekt ausdrücklich nennendes Bezugswort (Pronomen oder Substantiv) beim Verb stehen – die Endung reicht aus, um die Person und damit das Subjekt zu identifizieren. Das Altgriechische ist also eine Pro-Drop-Sprache. Das Altgriechische kennt beim Verb einen Singular, einen Plural und einen Dual (als Schwundform). Der Dual mit eigenen Endungen wird nur für die "2. und 3. Person" gebildet, während die 1. Person des Duals mit der ersten Person Plural zusammenfällt. In den folgenden Beispielen wird nur das Aktiv behandelt. Konjugationstabellen. Konjugationstabelle für das regelmäßige Verb ',(Infinitiv ' ‚lösen‘) im Aktiv.Der Dual wurde aufgrund seiner Seltenheit nicht berücksichtigt. Entsprechende Tabelle für das wichtige unregelmäßige Hilfsverb ' (Infinitiv ' ‚sein‘). Die restlichen Tempora sind für die Benutzung als Hilfsverb irrelevant. Sie werden eigentlich aus dem Stamm des Verbs ' (‚werden‘; gleichbedeutend mit englisch ') abgeleitet. Heutige Bedeutung. Im deutschsprachigen Raum ist das Griechische neben Latein seit dem ausgehenden Mittelalter bis heute eine wichtige Bildungssprache. Vorwiegend an humanistischen Gymnasien wird (meist ab Klasse 7, 8 oder 9) Griechischunterricht erteilt. Griechisch-Gymnasiasten können ihre Fähigkeiten im internationalen Exploring-the-Ancient-Greek-Language-and-Culture-Wettbewerb messen. Gräzistik wird im Rahmen der Klassischen Philologie an zahlreichen deutschen Universitäten als Lehrfach angeboten. Für Studiengänge wie Latinistik, Theologie, Klassische Archäologie, Alte Geschichte und Philosophie ist das Griechisch-Examen, das so genannte Graecum, bis heute oft Voraussetzung. Grundlage für das in Schulen gelehrte Altgriechisch bildet das Attische des 5. und 4. Jahrhunderts v. Chr., aber auch Autoren anderer Dialekte werden behandelt. Zahlreiche deutsche Ausdrücke "(geflügeltes Wort, Schwanengesang)" und Sprichwörter "(Im Wein liegt Wahrheit, Eine Hand wäscht die andere)" stammen ursprünglich aus altgriechischen Quellen und sind Lehnübersetzungen. Viele exemplarische Redewendungen altgriechischer Autoren sind bis heute berühmt und werden vielfach zitiert. Aus dem Altgriechischen entlehnte Wörter finden sich in zahlreichen wissenschaftlichen Fachsprachen, besonders in Gebieten, die bereits durch altgriechische Autoren bearbeitet wurden. Insbesondere im Bereich der Geometrie, Naturwissenschaften, Medizin, Philosophie und Theologie sowie Rhetorik und Theaterwissenschaft haben griechische Wortstämme das Fachvokabular geprägt. Anders als etwa ältere Formen des Deutschen in der Deutschen Sprache, spielt das Altgriechische auch im aktiven Wortschatz der Neugriechischen Sprache eine Rolle: So werden antike Zitate und Redewendungen stets unübersetzt benutzt, Wortneubildungen und zusammengesetzte Wörter sind direkt aus dem Altgriechischen abgeleitet. Einzelnachweise. !3 Go (Spiel). Ein japanischer Go-Tisch, genannt "goban". Go (jap.: ', kor.: ') ist ein strategisches Brettspiel für zwei Spieler. Das alte Spiel stammt ursprünglich aus China, hat eine besondere Prägung in Japan und Korea erhalten und fand seit dem 20. Jahrhundert auch Verbreitung außerhalb Ostasiens. Laut Angaben von "Mind Sports Online" lag die Zahl der Go-Spieler im Jahr 2000 weltweit bei rund 27 Millionen Menschen, wovon allein 22 Millionen in Asien lebten. Deutschland lag nach dieser Berechnung auf Platz eins der westeuropäischen Länder. Die International Go Federation bezifferte 2011 die Zahl der Go-Spieler weltweit auf rund 40 Millionen. Die britische Go Association gibt 2013 die weltweiten Spieler mit 60 Millionen an. Charakterisierung. Man spielt mit linsenförmigen schwarzen und weißen Steinen, die auf das Spielfeld gesetzt werden – im Gegensatz zu anderen Spielen auf die Verbindungspunkte der Linien, anstatt in die Rechtecke. Ziel des Spiels ist es, mit den Steinen seiner Farbe möglichst große Gebiete zu umranden. Am Ende wird die Größe der Gebiete sowie die Anzahl eventuell gefangener Steine von jedem der beiden Spieler verglichen. Beim Go versuchen gleichsam zwei Kriegsherren, ein bisher herrenloses Gebiet zu besetzen und streitig untereinander aufzuteilen. Das Ziel ist dabei nicht, den Gegner vollständig zu vernichten, sondern einen größeren Gebietsanteil zu erlangen. Das Besondere am Go-Spiel ist zum einen seine hohe Komplexität – die Zahl der spielbaren Varianten übersteigt selbst die des Schachspiels erheblich, und die Verbesserung der Spielstärke sowie die Verfeinerung des Stils sind Aufgaben, an denen ein Spieler sein Leben lang arbeiten kann. Zum anderen sind die Grundregeln (es gibt nur 4) aber so einfach, dass man sie in relativ kurzer Zeit erlernen kann. Unterschiedliche Spielstärken können durch Vorgabesteine ausgeglichen werden. Dadurch hat auch ein schwächerer Spieler eine Chance auf den Sieg und ein Erfolgserlebnis. Die Strategie ist zwar ein wichtiger, aber nicht der einzige Aspekt des Spiels: Go kann zur Meditation anregen, stellt Herausforderungen an den Geist und bietet manchem Spieler auch einen Spiegel der eigenen Persönlichkeit. In der Spieltheorie wird Go den endlichen Nullsummenspielen mit perfekter Information zugeordnet. Theoretisch könnte man also je nach Komi ermitteln, ob bei beiderseits perfektem Spiel Schwarz oder Weiß gewinnt oder die Partie unentschieden ausgehen muss. Nach heutigem Wissensstand erscheint es jedoch ausgeschlossen, dass diese Frage durch vollständige Berechnung des Suchbaums geklärt werden kann, da die Komplexität des Spiels andere ungelöste Spiele wie Schach sogar noch bei Weitem übersteigt. Geschichte. Die Ursprünge des Spiels liegen weitestgehend im Dunkeln. Nach Auffassung einiger Autoren beziehen sich schon Stellen in den Zuozhuan-Annalen (4. Jahrh. v. Chr.) auf das in China als "Weiqi" bezeichnete Spiel. Sicher zugeordnete Bezüge und archäologische Funde stammen aus der Zeit kurz nach der Zeitenwende. Daher kann man Go gemeinsam mit Backgammon und Mühle zu den ältesten bekannten Strategiespielen der Welt zählen. In der Han-Zeit verbreitete sich Weiqi zusehends in der Bevölkerung und wurde auch in der Beamtenelite ein akzeptierter Zeitvertreib. Während der Tang-Dynastie erlebte Weiqi eine erste Hochblüte, so dass es auch am Kaiserhof ausgiebig gespielt wurde. Die Tang-Zeit war eine besonders bedeutende Epoche der chinesischen Geschichte, in der die Kultur einen Höhepunkt erlebte. Die kaiserliche Bürokratie benötigte unzählige Beamte, wodurch eine gut ausgebildete Klasse zur Verfügung stand, die sich für das Weiqi-Spiel interessierte. Auch unter späteren Dynastien sollte das Brettspiel seine große Anziehungskraft behalten. So soll auch der Song-Kaiser Huizong ein begeisterter Weiqi-Spieler gewesen sein, ebenso wie der erste Ming-Kaiser Hongwu, der eine berühmte Partie gegen seinen General Xu Da verlor und diesem daraufhin seine Gartenvilla in Nanjing schenken musste. Und auch noch am kaiserlichen Hof der Qing-Dynastie erfreute sich das Spiel großer Beliebtheit. Mit dem Untergang des Kaiserreichs 1911 versank Weiqi in der Krise, da die kultivierte Oberschicht Chinas weitestgehend wegbrach. Erst nach der Kulturrevolution erlebte Weiqi seine Renaissance beim chinesischen Volk. Die Legende sagt, dass Kibi no Makibi (695–775) das Spiel 735 nach Japan brachte. Er wurde als Gesandter in die chinesische Hauptstadt Chang’an beordert, das politische und kulturelle Zentrum der damaligen Welt. Dort sollte er am Hof des Tang-Kaisers Xuanzong Wissenschaften und Künste studieren. Von 717 bis 735 blieb er in Chinas Hauptstadt. Auf seiner Rückreise soll er dann ein Weiqi-Spiel mitgenommen haben, welches er dann unter dem Namen "Go" in seiner Heimat bekannt machte. Womöglich ist es tatsächlich Kibi no Makibi zu verdanken, dass dieses Spiel in die japanische Aristokratie eingeführt wurde, galt doch die verfeinerte Kultur der Tang-Herrscher als vorbildlich für die Japaner. Dennoch findet sich das japanische Schriftzeichen für Go () bereits im "Kojiki" aus dem Jahr 712, was dafür spricht, dass das Spiel schon vor Kibi in Japan bekannt war. Mit Beginn der Edo-Periode im frühen 17. Jahrhundert änderten sich die politischen Verhältnisse in Japan grundlegend. Der neue Shōgun aus dem Hause der Tokugawa war dem Go sehr zugetan und förderte es sehr stark: Er besetzte den Posten des Godokoro („Go-Minister“) und ließ den "o-shiro-go", eine Go-Zeremonie in Anwesenheit des Shōgun, bei der der stärkste Go-Spieler ermittelt wurde, veranstalten. Stipendien gab es für die stärksten Spieler der vier großen Go-Schulen, die um diese Zeit entstanden waren: die Honinbo-Schule, die Inoue-Schule, die Yasui-Schule und die Hayashi-Schule. Unter diesen vier Schulen herrschte große Rivalität, was dem Go-Spiel zu einem bis dato nicht erreichten Niveau verhalf. Unter anderem wurde in dieser Zeit ein Rangsystem eingeführt, welches an das der Kampfkünste angelehnt war. Der beste Spieler der Edo-Periode, Shusaku Kuwahara, entwickelte unter anderem eine neue Eröffnung, die nach ihm benannte Shusaku-Eröffnung, die noch bis ins 20. Jahrhundert gespielt wurde. Shusaku gewann 19-mal in Folge den jährlichen "o-shiro-go", bevor er im Alter von 33 Jahren während einer Epidemie an Cholera starb. Die Regierung beendete 1868, nach dem Fall des Tokugawa-Shogunats, die Unterstützung für die Go-Schulen. Mit der Zeit übernahmen aber Tageszeitungen die Rolle von Go-Sponsoren, sodass das hohe Niveau des japanischen Go erhalten blieb. Zu Ehren der Honinbo-Schule, aus der zumeist die stärksten Spieler des vormodernen Japan entstammten, trägt noch heute eine der prestigeträchtigsten japanischen Meisterschaften den Namen Honinbo. Die Blüte, die das japanische Go durch seine frühe Förderung erfuhr, mag mit ein Grund sein, warum das Spiel in westlichen Sprachen unter seiner japanischen Bezeichnung besser bekannt ist als unter seinem ursprünglichen chinesischen Namen. Go war lange Zeit eine Männerdomäne, ähnlich dem Schach. Jedoch haben die Öffnung von Turnieren und der Aufstieg starker weiblicher Spieler, vornehmlich Rui Naiwei, zunehmend die Kompetenz und Spielstärke von Spielerinnen unter Beweis gestellt. Seit den späten 1980er Jahren ist es in China und vor allem in Korea zu einem regelrechten Go-Boom gekommen, der dazu geführt hat, dass Japan seine ehemalige Vormachtstellung bei internationalen Turnieren verloren hat. In Japan gibt es schätzungsweise zehn Millionen Go-Spieler. Seit 1998 hat die japanische Manga- und Anime-Serie Hikaru no Go, deren Geschichte sich mit Go-Spielern befasst, die Popularität von Go unter Kindern und Jugendlichen stark erhöht. Auf der ganzen Welt ist seitdem die Anzahl von Go-Clubs, Go-AGs und jugendlichen Go-Spielern deutlich gestiegen. In Europa wurde Go in den 1880er Jahren durch eine Artikelserie von Oskar Korschelt bekannt: "Das japanisch-chinesische Spiel „Go“. Ein Concurrent des Schach". Bereits 1909 erschien eine deutsche Go-Zeitung, aber erst seit den 1950er Jahren verbreitete sich das Go-Spiel langsam. Es entstanden Clubs und die ersten regelmäßigen Turniere fanden statt. Der "Deutsche Go-Bund" hat heute über 2000 Mitglieder. Die Anzahl sämtlicher Go-Spieler in Deutschland dürfte bei etwa 20.000 liegen. Philosophie. Go in der japanischen Kunst (Kanō Eitoku, 1543–1590). Es gibt verschiedene Legenden zur Entstehung des Spieles, die die philosophischen Ideen und kulturellen Werte hinter dem Go veranschaulichen. Einer Überlieferung nach wurde das Spiel vom mythischen Urkaiser Yao als Unterrichtswerkzeug für seinen Sohn Shun entworfen, um ihn Disziplin, Konzentration und geistige Balance zu lehren. Der Sohn sei schließlich der erste große Spieler und zudem ein guter Kaiser mit einem ausgeglichenen menschlichen Wesen geworden. Eine andere vermutete Genese des Spiels gibt an, dass in alten Zeiten chinesische Kriegsherren und Generäle Stücke eines Steins benutzten, um die Positionen auf dem Schlachtfeld abzubilden. Diese Legenden spiegeln die beiden grundlegenden Ideen des Go wider: die Entwicklung des eigenen Charakters und die Veranschaulichung des Wettstreits zweier Elemente. Oft bezieht man sich auf die im Daoismus verwurzelten Elemente Yin und Yang, die als treibende Kräfte auch auf dem Go-Brett agieren. Viele behaupten, das Spiel sei nicht durch Logik allein begreifbar, sondern seine Komplexität und Tiefe könne nur durch Intuition bewältigt werden. Regeln. Kurz zusammengefasst: Die Spieler setzen abwechselnd jeweils einen eigenen Stein auf die Schnittpunkte der Linien des Brettes. Man kann gegnerische Steine und Steingruppen schlagen, indem man sie rundum einschließt. Am Ende gewinnt der Spieler, der den größeren Teil des Brettes kontrolliert. Die Grundregeln sind seit Entstehen des Spiels unverändert geblieben. Hier wird eine japanische Version der Regeln dargestellt, die in Deutschland populär ist. Andere Regeln (die chinesischen Regeln oder die Ing-Regeln) unterscheiden sich in Details. So erfolgt beispielsweise das Auszählen am Ende des Spieles anders, was aber fast immer zum selben Gewinner führt. Spielmaterial und Zugfolge. Das Spielfeld besteht aus 19 horizontalen und 19 vertikalen Linien, die ein Gitter von 19×19 = 361 Schnittpunkten bilden. Auf diese Punkte werden die Steine gesetzt. Beide Spieler, "Schwarz" und "Weiß" genannt, verfügen über einen im Prinzip unbegrenzten Vorrat gleichartiger Steine in der jeweiligen Farbe. Traditionell sind es 181 schwarze und 180 weiße Steine, was fast immer ausreicht. Für kürzere Partien und besonders (aber nicht nur) für Anfänger eignen sich kleinere Spielbretter, meistens in der Größe 13×13 oder 9×9. Die Spielregeln sind für alle Brettgrößen gleich. Das Brett ist zu Beginn leer, außer der stärkere Spieler gibt eine Vorgabe. Die Spieler ziehen abwechselnd, Schwarz beginnt. Der Spieler, der am Zug ist, darf einen Stein aus seinem Vorrat auf einen beliebigen leeren Punkt setzen. Anders als beim Schach gibt es jedoch keine Zugpflicht, das heißt ein Spieler darf auch auf seinen Zug verzichten ("passen"). Das Spiel endet auch meist dadurch, dass beide Spieler nacheinander passen. Sie tun dies, wenn sie erkennen, dass weiteres Setzen keinen Punktgewinn oder sogar einen Punktverlust darstellen würde. Auch hier drückt sich also die „sanfte“ Philosophie des Spiels aus, indem kein Spieler zu einem für ihn ungünstigen Zug gezwungen wird. Gesetzte Steine werden im weiteren Spiel nicht mehr bewegt. (Daher sprechen manche Spieler, besonders nach einer Tradition der DDR, nicht von „Zügen“, sondern von „Sätzen“.) Steine können aber unter bestimmten Bedingungen "geschlagen", d.h. vom Brett entfernt werden. Schlagen von Steinen. Auf den markierten Punkten können schwarze Steine geschlagen werden. Die Stellung nach Ausführung aller möglichen Schlagzüge (ohne schwarze Gegenzüge). Ein einzelner Stein wird "geschlagen" (auch "gefangen", "getötet"), also vom Brett genommen, wenn seine letzte "Freiheit" von einem gegnerischen Stein besetzt worden ist. Freiheiten sind die einem Stein benachbarten unbesetzten Punkte. Benachbart sind Punkte, wenn sie direkt nebeneinander liegen und durch eine Linie des Spielbretts verbunden sind. Benachbart sind also horizontal und vertikal angrenzende, aber nicht diagonal gegenüberliegende Punkte. Ein Punkt in der Mitte besitzt vier, einer am Rand drei und einer in der Ecke nur zwei Nachbarpunkte. Das nebenstehende Bild zeigt oben und links vier Stellungen mit einzelnen schwarzen Steinen, die jeweils nur noch eine Freiheit haben (durch ein Quadrat gekennzeichnet). Entsprechendes gilt für "Ketten" von Steinen. Mehrere gleichfarbige Steine, die zusammenhängen, indem einer zum nächsten benachbart ist, bilden eine Kette. Im Bild befindet sich am rechten Rand eine Kette von drei schwarzen Steinen, darüber eine Kette von zwei weißen Steinen. Ein Stein in einer Kette muss selbst keinen freien Nachbarpunkt haben, sondern es wird nur die gesamte Kette betrachtet. Die Freiheiten einer Kette sind die unbesetzten Punkte, die zu einem ihrer Steine benachbart sind. Die schwarze Kette im Bild hat also nur noch eine Freiheit (Quadrat). Wenn der Gegner die letzte Freiheit einer Kette besetzt, schlägt er damit alle Steine der Kette. Somit kann man eine Kette nur als ganzes schlagen, und nicht nur einen Teil einer Kette. Ein einzelner Stein kann auch als Kette aufgefasst werden, die nur aus einem Stein besteht. Ab jetzt soll „Kette“ auch einen einzelnen Stein bezeichnen. Ein Zug kann mehreren Ketten gleichzeitig die letzte Freiheit nehmen. Es werden in jedem Fall alle gegnerischen Ketten geschlagen, die keine Freiheit mehr haben. Wenn eine Kette nur noch eine einzige Freiheit hat, dann sagt man, sie steht im "Atari". Der Gegner droht, sie im nächsten Zug zu schlagen. Um dies zu verhindern, kann es sinnvoll sein, ihr durch Hinzufügen eines Steins zusätzliche Freiheiten zu verschaffen. Schwarz könnte also im Bild auf eine der Freiheiten eines Steins setzen, um diesen (zumindest vorläufig) zu retten. Bei der Dreierkette würde dies hier jedoch nichts nützen, denn sie hätte danach wieder nur eine Freiheit (unterhalb des Quadrats) und könnte sofort geschlagen werden. Geschlagene Steine werden vom Spielbrett genommen und als "Gefangene" aufbewahrt. Jeder Gefangene zählt einen Punkt und wird in der Endabrechnung zu den eigenen Gebietspunkten addiert. Selbstmord. Es ist nicht erlaubt, einen Stein so zu setzen, dass die Kette, zu der er gehört, nach dem Zug keine Freiheit besitzt. Zur vollständigen Ausführung eines Zuges gehört auch das Herausnehmen geschlagener Steine. Deshalb ist es kein Selbstmord, wenn ein Zug gleichzeitig einer eigenen und einer gegnerischen Kette die letzte Freiheit nimmt. Denn die eigene Kette erhält durch das Entfernen der gegnerischen Kette wieder eine Freiheit. Es gibt auch Regelvarianten, die Selbstmord erlauben. Dann gilt: Wenn ein Zug keine gegnerischen Steine schlägt und die Kette mit dem gesetzten Stein keine Freiheit hat, dann wird diese Kette selbst geschlagen, und ihre Steine zählen als Gefangene für den Gegner (in diesen Regelsystemen gehen aber die Gefangenen in der Regel gar nicht in das Ergebnis ein, sondern es zählt nur das Gebiet). Im praktischen Spiel ergibt sich dadurch aber kaum ein Unterschied, denn es ist nur selten sinnvoll, eigene Steine zu schlagen. Kō. Das sofortige Zurückschlagen eines einzelnen Steines, der gerade einen einzelnen Stein geschlagen hat, ist verboten. In anderen Worten: Ein Stein darf nicht geschlagen werden, wenn danach wieder die gleiche Anordnung der Steine wie nach dem vorherigen Zug entstehen würde. Eine solche Situation nennt man "Kō" (abgeleitet von japanisch "kō", sprich "koh", zu deutsch Ewigkeit). Sinn der Kō-Regel ist es, eine endlose Wiederholung der Stellung zu verhindern. Gleichzeitig kommt in Form des "Kō-Kampfes" ein interessantes taktisches Element ins Spiel. Wenn Spieler A im Kō geschlagen hat, spielt Spieler B als Zwischenzug eine „Drohung“ ("Kō-Drohung"), auf die A antworten muss. A wird dadurch vom Besetzen und Sichern des Kō-Punktes abgehalten. Danach darf B wieder im Kō schlagen. Das kann sich beliebig oft wiederholen, bis ein Spieler keine Kō-Drohung mehr hat oder eine Drohung zu klein ist, so dass der Gegner sie nicht beantwortet. Die Spieler müssen den Wert der Drohung gegen den Wert des Kō-Gewinns abwägen. Zudem muss schon vor dem Beginn eines wertvollen Kōs die Gesamtheit aller Drohungen betrachtet werden, die beiden Spielern zur Verfügung stehen, um zu entscheiden, ob man sich auf den Kō-Kampf einlassen soll. Diese „einfache“ Kō-Regel verhindert aber nicht alle möglichen Stellungswiederholungen. Wenn etwa drei verschiedene Kō-Situationen auf dem Brett sind, kann man immer in mindestens einer davon zurückschlagen. Wenn in einer solchen Situation kein Spieler von der Wiederholung abweichen will, endet das Spiel nach den Japanischen Regeln ohne Ergebnis und wird wiederholt. Ein solcher Fall kommt aber nur äußerst selten vor. Als Alternative verwenden manche Regelsysteme eine "globale Kō-Regel", auch "Superkō-Regel" genannt. Dabei gibt es leicht unterschiedliche Varianten. Beispielsweise verbietet eine SuperKō-Regel, einen Stein so zu setzen, dass die resultierende Anordnung der Steine auf dem Brett mit irgendeiner früheren Anordnung übereinstimmt und der gleiche Spieler am Zug ist und die Differenz der geschlagenen Steine gleich ist (das heißt mit den dazwischen erfolgten Zügen haben beide Spieler gleich viele Steine geschlagen). Ein endloser Zyklus, von dem kein Spieler im Eigeninteresse abweichen sollte, kann damit nicht mehr vorkommen. Spielende. Eine Endsituation, Gefangene sind schon entfernt. Weiß hat 15 und Schwarz 20 Gebietspunkte. Hat Weiß 6 Steine gefangen und Schwarz 4, dann gewinnt Schwarz mit 20+4=24 gegenüber 15+6 = 21 Punkten falls kein Komi ausgemacht wurde Das Spiel ist zu Ende, wenn beide Spieler nacheinander passen. Passen liegt bei Spielende im Interesse des jeweiligen Spielers. Er würde sonst sein eigenes Gebiet verkleinern oder dem Gegner unnötig Gefangenensteine geben. Die Punktzahl eines Spielers ist die Summe der durch Steine der eigenen Farbe umschlossenen freien Punkte (Gebiet) und der gefangenen Steine (gegnerischer Farbe). Der Spieler mit der höheren Punktzahl gewinnt das Spiel. Wenn am Ende noch Steine auf dem Brett sind, die geschlagen werden können, also tot sind, dann gelten sie als Gefangene. Sie werden vor der Gebietszählung vom Brett genommen und zusammen mit den geschlagenen Steinen gezählt. Über den Status dieser Steine einigt man sich mit seinem Gegner nach dem Spielstopp. Diese Einigung ist unter erfahrenen Spielern unproblematisch, denn meistens ist es offensichtlich, welche Steine tot und somit gefangen sind. Wenn es doch einmal Uneinigkeit gibt, dann muss die Situation ausgespielt werden: Das Spiel wird in diesem Fall fortgesetzt, und wer behauptet hat, dass gegnerische Steine tot seien, muss es beweisen, indem er sie schlägt. Wenn ihm dies nicht gelingt, gelten sie als lebend. Die beim Ausspielen gesetzten Steine dürfen dann aber die Zählung nicht beeinflussen. Man muss entweder die Situation vor dem Ausspielen wiederherstellen oder die beim Ausspielen in das eigene oder gegnerische Gebiet gesetzten Steine auf geeignete Weise ausgleichen. Ist die Punktzahl beider Spieler gleich, so ist das Spiel unentschieden, was „Jigo“ genannt wird. Auch haben beide Spieler die Möglichkeit, die Partie aufzugeben, wenn die Situation auf dem Brett ausweglos erscheint. Der Gegner hat dann „durch Aufgabe gewonnen“. Für Anfänger ist es manchmal schwierig zu erkennen, wann das Spiel zu Ende ist. In dem Beispiel rechts sind die Grenzen, wo sich schwarze und weiße Steine berühren, vollständig ausgespielt, so dass keine freien Schnittpunkte mehr zwischen Steinen mit unterschiedlicher Farbe liegen. Das ist ein gutes Indiz dafür, dass das Spiel zu Ende ist. Es ist von den Regeln her im Prinzip möglich, dass das Spiel sich „einseitig“ fortsetzt, nämlich wenn ein Spieler noch setzt, weil er glaubt, lohnende Züge machen zu können, während der andere Spieler diese Einschätzung nicht teilt und deswegen auf Antwortzüge verzichtet. Da man durch aussichtslose Angriffszüge letztlich dem Gegner gefangene Steine schenkt, wäre es für diesen nicht günstig, in jedem Fall zu reagieren. Er würde durch Gegenzüge auf bereits sicheres eigenes Gebiet diesen Punktgewinn wieder preisgeben. Komi. Bei Spielbeginn besteht ein leichter Nachteil für Weiß, da Schwarz den Vorteil des ersten Zuges hat. Dieser Nachteil wird meist durch eine „Entschädigung“ in Form von Zusatzpunkten an den weißen Spieler ausgeglichen. Diese Punkte werden "Komi" () genannt und schwanken je nach Regeln oder Vereinbarung zwischen den Spielern. Um ein Unentschieden zu vermeiden, wird meist ein Komi mit einem halben Punkt gewählt; übliche Werte sind 5½ oder 6½. Manchmal wird auch nur ½ Punkt gegeben, wenn es einem vor allem darauf ankommt, ein Jigo zu vermeiden. Der angemessene Wert ist immer noch Gegenstand von Diskussionen, und so wird der Nachteil, Weiß zu spielen, auf manchen Turnieren mit bis zu 8½ Punkten entschädigt. Man kann das Problem durch eine Art Komi-Auktion oder durch eine Tauschregel lösen, etwa indem ein Spieler die Komi festlegt und der andere dann eine Farbe wählt. Das hat sich aber noch kaum durchgesetzt. Das Komi kann auch dazu benutzt werden, Vorgabesteine zu ersetzen oder zu ergänzen (so genanntes "Rückkomi", wenn Schwarz Komi bekommt). Leben und Tod. Siegpunkte für ein umschlossenes Gebiet werden erst vergeben, wenn das Spiel zu Ende ist; so lange ein Spieler im Laufe des Spiels freie Punkte mit seinen Steinen umschließt, wird dieses Gebiet von ihm zunächst nur beansprucht. Zwei Möglichkeiten sind denkbar, wie der Gegner es ihm noch streitig machen kann: Erstens, wenn es dem Gegner gelingt, sich mit seinen Steinen im Inneren des beanspruchten Gebiets dauerhaft anzusiedeln ohne geschlagen zu werden. Dies ist umso leichter, je größer das beanspruchte Gebiet ist. Zweitens, wenn die Gruppen, die Gebiet beanspruchen, ihrerseits durch den Gegner umzingelt und geschlagen werden können. Beide Szenarien führen auf die Erkenntnis, dass das Überdauern von beanspruchtem Gebiet davon abhängt, ob die dafür entscheidenden Gruppen von Steinen noch geschlagen werden können oder nicht. Von einer Gruppe, die unter keinen Umständen mehr geschlagen werden kann, sagt man, dass sie "lebt". Entsprechend ist eine Gruppe "tot," wenn sie auf keinen Fall vor dem Geschlagenwerden gerettet werden kann. Ein Beispiel für eine Gruppe mit zwei Augen. Der Grund, weshalb eine Gruppe unschlagbar sein (leben) kann, ist folgender: Wenn eine Gruppe einen einzigen freien Schnittpunkt einschließt (was innere Freiheit genannt wird) und vollkommen von gegnerischen Steinen umgeben ist (also keine äußeren Freiheiten besitzt), so kann der Gegner einen Stein auf diese letzte Freiheit der Gruppe setzen und sie damit schlagen, was man "Sprengen" nennt. Umschließt die Gruppe aber noch einen zweiten freien Schnittpunkt, der dem ersten Schnittpunkt nicht benachbart ist, so kann der Gegner auf keinen der beiden Schnittpunkte setzen, ohne diesen Stein sofort zu verlieren, da immer noch eine Freiheit verbleibt und nicht gleichzeitig zwei Steine gesetzt werden können. Deshalb gilt auch der folgende Satz: Eine Gruppe lebt dann, wenn das Gebiet, das sie umschließt, in zwei voneinander getrennte Teilgebiete unterteilt ist oder bedingungslos so unterteilt werden kann. Diese Teilgebiete nennt man "Augen." Augen können einen einzelnen Schnittpunkt, aber auch mehrere benachbarte Schnittpunkte beinhalten. Zudem dürfen sich in einem Auge auch Gefangene befinden. Eine Schwierigkeit besteht darin, dass es auch „unechte Augen“ gibt. Zwar sind diese von Steinen einer Farbe umschlossen, aber nicht von einer durchgehenden "Kette". Damit kann eventuell ein Teil der umschließenden Steine durch eine Folge von Zügen des Gegners separat in „Atari“ gesetzt werden. Danach könnte der andere Spieler das vermeintliche Auge zusetzen, um das Schlagen der Teilkette zu verhindern, oder das Schlagen in Kauf nehmen. In beiden Fällen ist das Auge zerstört. Allgemein gilt also: Nur eine Gruppe mit zwei „echten“ Augen lebt bedingungslos. Eine weitere Möglichkeit zu leben ist das Seki: Dies ist eine Art lokale Pattsituation, bei der keiner der beiden Spieler die Freiheiten der jeweils gegnerischen Gruppe besetzen kann, ohne seiner eigenen Gruppe dadurch lebenswichtige Freiheiten zu nehmen. In einer Lage, in der jeweils der Spieler die Gruppe verliert, der den ersten Zug setzt, werden beide Spieler auf ihren Zug verzichten; daher werden für die Endabrechnung diese Gruppen liegenbleiben, auch wenn sie keinerlei Gebiet umschließen. Es können so auch dauerhaft "neutrale Punkte" auf dem Spielbrett entstehen, also freie Punkte, die dennoch kein Gebiet darstellen. Bei Leben und Tod handelt es sich um das grundlegendste und wichtigste Element der Strategie beim Go-Spiel, das entscheidend für den Verlauf und den Ausgang einer Partie ist. Ist eine Gruppe tot, ist sie auch gefangen und zählt am Ende Punkte für den Gegner, auch ohne dass die Situation bis zum endgültigen Schlagen ausgespielt werden muss. Oft ist Leben und Tod einer Gruppe davon abhängig, wer den nächsten Zug macht, weil sie oftmals, je nachdem, wer dran ist, mit einem Zug getötet oder zum Leben erweckt werden kann. Aufgrund der großen Bedeutung von Leben und Tod für das Go-Spiel sollten sich die Spieler zu jedem Zeitpunkt der Partie über Leben und Tod aller Gruppen im Klaren sein. Denn das Hinzufügen von Steinen zu einer ohnehin toten Gruppe ist ebenso sinnlos wie das Absichern bereits lebendiger Gruppen. Andererseits sind Züge, die eine lebende Gruppe bedrohen, oder Züge, die eine tote Gruppe zum Leben erwecken könnten, klassische "Ko-Drohungen" (s.o.). Daher ist das Üben von Leben-und-Tod-Problemen unverzichtbar für alle, die ihr Können verbessern möchten. Eröffnung. Als Eröffnung einer Go-Partie bezeichnet man in etwa die ersten 30 bis 40 Züge. Da das Brett zu Beginn leer ist, gibt es theoretisch unermesslich viele spielbare Varianten für die ersten Züge. Dennoch haben sich bestimmte Züge als besonders gut erwiesen. So wird fast jede Partie mit einem Zug in der Nähe einer Ecke begonnen. Erst nachdem alle vier Ecken mit je einem oder auch zwei Steinen besetzt worden sind, werden die Seiten besetzt. Danach beginnt die Ausweitung der Positionen ins Zentrum. Mit den ersten Steinen, die aufs Brett gesetzt werden, versucht man eine möglichst perfekte Balance herzustellen. Damit ist gemeint, dass die Steine weder zu eng beieinander noch zu weit auseinander und weder zu hoch noch zu niedrig stehen sollten, und auch, dass man mit den gesetzten Steinen flexibel auf Aktionen des Gegners reagieren kann. Dies zeigt wieder, dass Go in vielerlei Hinsicht ein Spiel der Balance ist (siehe Abschnitt "Philosophie"). Das Eröffnungsspiel ist bei fortgeschrittenen Spielern durch die Anwendung von Ganzbrettmustern (Fuseki) und festgelegten Eckspielabfolgen (Jōseki) geprägt. Fuseki und Jōseki sind die variabelsten Elemente des Go-Spiels und werden ständig weiterentwickelt. Die Anzahl der verschiedenen Eröffnungen beim Go übersteigt die der Eröffnungen beim Schach um ein Vielfaches. Auch sehr experimentelle Eröffnungen werden gelegentlich gespielt. Gebiet und Einfluss. Eine Go-Partie im Mittelspiel (der letzte Zug ist markiert). "Gebiet" und "Einfluss" sind strategische Konzepte des Go. Eine "gebietsorientierte" Spielweise legt besonderes Augenmerk auf feste, sichere Positionen in den Ecken und am Rand des Brettes (dort ist es am einfachsten Gebiet zu machen, weil man es am Brettrand nicht mehr extra umzingeln muss). Das hat den Vorteil, dass man bereits in einer relativ frühen Phase der Partie sicheres Gebiet absteckt und damit sichere Punkte sammelt. Später ist es dann umso wichtiger, die Gebietsanlagen des Gegners möglichst zu verkleinern. Ein geeignetes Mittel dazu bietet die "Invasion" (Aufbauen einer lebenden Gruppe im Einflussbereich des Gegners). Gebietsorientiertes Spiel verlangt daher mitunter auch riskante taktische Manöver. Andererseits ist es möglich, "einflussorientiert" zu spielen. Dies stellt in gewisser Weise das Gegenstück zum gebietsorientierten Spiel dar. Man versucht hierbei vor allem, starke Positionen aufzubauen, die oft wie „Wände“ aussehen und ins Zentrum gerichtet sind. Dadurch wird zunächst kein Gebiet gemacht, sondern vielmehr Einfluss auf die umgebenden Teile des Brettes ausgeübt. Einflussorientierte Spieler antizipieren Kämpfe in ihrem Einflussgebiet, also in für sie vorteilhaften Situationen. Festes Gebiet entsteht erst als Ergebnis dieser Kämpfe. Vorhand und Nachhand. Das Mittelspiel geht in das Endspiel über, in dem es hauptsächlich darum geht, die Grenzen zwischen den Gebieten genau festzulegen. In aller Regel herrscht in dieser Phase des Spiels bereits Klarheit darüber, welche Gruppen leben und welche tot sind. Ziel ist es dann, die Gebiete des Gegners so weit es geht zu verkleinern und die eigenen zu vergrößern. Hier spielt ein weiterer strategischer Gesichtspunkt eine übergeordnete Rolle, und zwar der Gebrauch von Vorhand ("sente",) und Nachhand ("gote",). "Vorhand" bedeutet, dass jeder Zug, den man spielt, eine Reaktion des Gegners erfordert. Eine Vorhandsequenz kann aus beliebig vielen Zügen bestehen, solange sie nur mit einem Sicherungszug des Gegners endet. Nach jeder Sentesequenz behält der erste Spieler die Initiative und kann an einer anderen Stelle weiterspielen. Gote (Nachhand) bedeutet genau das Gegenteil, nämlich am Ende einer Zugfolge den letzten Zug machen zu müssen. Danach ergreift der Gegner die Initiative. Das Aufrechterhalten des Sente (Vorhand) bringt oft spielentscheidende Punkte im Endspiel. Auch im Mittelspiel und in der Eröffnung können bestimmte Züge als Sente bezeichnet werden, wenn sie lokal beantwortet werden müssen, um einen größeren Punktverlust zu verhindern. Aus Rücksicht auf potentielle "Ko-Drohungen" (s.o.) sollten solche Vorhandsequenzen jedoch nicht zu früh ausgespielt werden. Traditionelles Spielmaterial. Obwohl man natürlich auch auf einem Stück Karton und mit einem Sack Plastiksteinen Go spielen kann, legt vor allem die japanische Go-Kultur besonderen Wert auf qualitativ hochwertige Spielsets. In China spielt man traditionellerweise auf flachen Brettern aus Holz, die bis zu etwa 5 cm dick sind. Dabei sitzt man heute wie damals zumeist auf Stühlen an einem Tisch. In Japan wird Go dagegen idealerweise auf dem Boden gespielt, wobei die Spieler auf flachen Kissen (') sitzen. Das traditionelle Go-Brett ('), das sich vor den Spielern am Boden befindet, ist ebenfalls aus massivem Holz, aber ungefähr 15 cm bis 20 cm dick und steht auf kurzen Beinen. Die wertvollsten Bretter werden aus dem seltenen, goldgelben Holz des Kayabaums (Torreya nucifera) gefertigt, manche aus dem Holz von über 700 Jahre alten Bäumen. Die Gitterlinien, die das Spielfeld darstellen, werden auf derartigen Brettern bisweilen noch heute von eigenen Professionisten mit einem Schwert ("katana") in die Oberfläche des Holzes geritzt und mit Lack nachgezogen. Das japanische Go-Brett ist nicht perfekt quadratisch. Das Spielfeld misst traditionell 1 Shaku und 5 Sun in der Länge und 1 Shaku und 4 Sun in der Breite (455 mm × 424 mm), wobei an den Rändern noch etwas Raum frei bleiben muss, damit das Spielen an den Randlinien und Eckpunkten möglich wird. Diese Maße beschreiben ein Verhältnis von 15:14. Die erweiterte Länge dient dazu, die optische Verzerrung (perspektivische Verkürzung) auszugleichen, die dadurch entsteht, dass die Spieler nicht senkrecht, sondern von schräg oben auf das Brett schauen. Als weiterer Grund wird die japanische Ästhetik genannt, die perfekt symmetrische Strukturen und damit auch ein perfektes Quadrat vermeidet. Die Spielsteine (') sind vorzugsweise aus weißen Muscheln bzw. schwarzem Schiefer gefertigt, ellipsoid geschliffen und werden in Holzdosen (') aufbewahrt. Da die entsprechenden Ressourcen beschränkt sind (Muscheln und Kayabäume benötigen geraume Zeit, bis sie die erforderliche Größe erlangt haben und sind mittlerweile sehr selten), kann traditionell gefertigtes Spielmaterial oft nur zu exorbitanten Preisen erstanden werden. Die Behältnisse für die Steine sind einfach geformt, wie ein Ellipsoid mit einem abgeflachten Boden. Der locker sitzende Deckel wird beim Spiel umgedreht und dient als Behälter für gefangene gegnerische Steine. Die Behälter sind normalerweise aus gedrechseltem Holz, in China sind auch kleine geflochtene Bambuskörbe verbreitet. In Go-Clubs und auf Meisterschaften, wo eine große Menge an Sets instand gehalten (und auch gekauft) werden, sind diese traditionellen japanischen Sets normalerweise nicht in Gebrauch. Auch wird zumeist auf westlichen Tischen und Sesseln gespielt. Für solche Situationen werden 2 cm bis 5 cm dicke Tischbretter ohne Beine verwendet. Die Steine sind zumeist aus Glas, die Dosen aus Plastik. Tischbretter und Glassteine sind auch in Europa am weitesten verbreitet. Obwohl billige Plastiksteine ebenfalls im Umlauf sind, werden diese von vielen Spielern aufgrund ihres geringen Gewichts und des dementsprechend unbefriedigenden haptischen und akustischen Erlebnisses beim Setzen des Spielsteins abgelehnt. Erfahrene Spieler zeichnen sich in der gesamten Go-Welt durch eine besondere Art aus, Go-Steine auf dem Brett zu platzieren: Der Stein wird zwischen Mittelfinger und Zeigefinger gehalten, um dann fest auf das Brett zu treffen, wobei ein sattes „Klack“ ertönt. Im Idealfall wackelt der Stein nach dem Loslassen nicht. Die Qualität des Spielmaterials kann die Akustik des Spielzugs natürlich beeinflussen. Die pyramidenförmige Aushöhlung an der Unterseite eines traditionellen japanischen Go-Bretts wird manchmal mit der Verbesserung des Klangs erklärt. Ein Spielbrett wird darüber hinaus für edler gehalten, wenn leichte Spuren von Steinen sichtbar sind, die im Laufe der Jahrzehnte – oder Jahrhunderte – darüber geglitten sind. Verhalten am Go-Brett. Die Etikette des Go wird von vielen Spielern als wichtig erachtet und befolgt. Demnach soll man dem Gegner immer den nötigen Respekt zollen, damit er die gespielte Partie nicht als unangenehm empfindet. Es ist zunächst grundlegend, welche Einstellung man zu dem Spiel hat. Man kann spielen, um sich zu entspannen, um Spaß zu haben, um zu lernen und vieles mehr. Die Einstellung seines Gegners soll man in jedem Fall wertschätzen. Eine einseitige Fixierung allein auf das Gewinnen der Partie widerspricht der in der ostasiatischen Kultur verankerten Philosophie des Spiels. Somit verstößt das Prahlen über einen Sieg, das Spotten über eine Niederlage und Ähnliches deutlich gegen die guten Sitten des Go-Spiels. Auf Go-Servern im Internet (siehe Weblinks) wird die gewöhnliche Spielsituation, bei der man sich am Tisch gegenübersitzt, auf einen Chatraum verlagert. Selbstverständlich treten hier einige der oben genannten Regeln außer Kraft. Doch auch hier gibt es Normen, zum Beispiel, dass man sich bei Spielbeginn kurz begrüßt und dass man sich nicht ohne Nachricht aus dem Spiel entfernt. Spieler, die regelmäßig auf diese Weise Partien abbrechen, wenn sie zu verlieren drohen, werden Escaper genannt. Auf den meisten Go-Servern gibt es Mechanismen, die sicherstellen, dass Escaper keinen Vorteil aus ihrem Abbruch ziehen. Das öffentliche Denunzieren von Escapern („xxx is an escaper!“) ist zwar immer wieder zu beobachten, gehört aber auch nicht zum guten Benehmen auf dem Go-Server. Einstufung und Rangsysteme. Go-Spieler, die in Klubs und auf Turnieren spielen, tragen üblicherweise einen Rang, der u. a. zur Orientierung bei der Wahl eines Spielpartners dient. In den drei führenden Go-Nationen Korea, China und Japan gibt es jeweils eigene Rangsysteme für professionelle Spieler, die ebenfalls vom 1. Dan bis zum 9. Dan reichen. Profi-Ränge werden von den Verbänden auf der Grundlage von Turnierergebnissen oder ausnahmsweise ehrenhalber verliehen. Im Amateurbereich handelt es sich mit wenigen Ausnahmen um ein System der Selbsteinstufung. Beispielsweise wurden in der DDR hohe Schülerränge und alle Meisterränge auf der Grundlage von Turnierergebnissen nach festen Regeln verliehen. In Japan sind die Gebühren für die Ausstellung von Spielstärke-Urkunden für Amateure eine wichtige Einnahmequelle für den Nihon Kiin, die größte Organisation von professionellen Go-Spielern. Die Rangsysteme in Amerika, Europa und Asien sind gegeneinander zwar leicht verschoben, der Spielstärkeunterschied zwischen den jeweiligen Rängen ist aber bei den Amateuren stets der gleiche. Er bemisst sich nach einem festgesetzten System von Vorgabesteinen zur Ausgleichung des Spielstärkeunterschieds. Ein 1. Profi-Dan in Japan entspricht in etwa einem 7. Dan bei den Amateuren. Wenn zwei Go-Spieler unterschiedlichen Ranges aufeinandertreffen, wird aus dem Rangunterschied eine "Vorgabe" bestimmt: Ein 1. Dan erhält gegen einen 5. Dan eine Vorgabe von 4 Steinen. Das bedeutet, dass der schwächere Spieler mit den schwarzen Steinen spielt und 4 Steine auf dem Brett platzieren darf, bevor sein Gegner den ersten Zug macht. In Japan und auch in Europa werden die Vorgabesteine auf die Schnittpunkte gelegt, die auf dem Go-Brett etwas dicker gezeichnet sind. Diese neun Punkte, die achsen- und punktsymmetrisch angeordnet sind, heißen ' („Stern“). In China hingegen ist es üblich, dass der schwächere Spieler sich aussuchen darf, wo er seine Vorgabesteine platzieren möchte. Bei einem Unterschied von nur einem Rang beginnt der schwächere Spieler, ohne Vorgabesteine zu setzen. Bei gleich starken Spielern (Gleichaufpartie) erhält der Nachziehende (Weiß) im Voraus einige Punkte ("Komi" genannt), die den Vorteil, den Schwarz durch den ersten Zug hat, ausgleichen. Als Standard-Komi haben sich in Japan und Europa 6 oder 6,5 Punkte und in China 7 oder 7,5 Punkte etabliert. Nicht ganzzahliges Komi wird verwendet, wenn man ein Unentschieden ("Jigo",) ausschließen will. Die Höhe des Komi ist allgemein (von Turnierveranstaltern) frei wählbar. Bei den Profis entsprechen ungefähr drei Ränge einem Stein Vorgabe und damit dem Unterschied von einem Amateurrang. Zeitsysteme. Da durch diese Zeitsysteme klassische Schachuhren überfordert sind, weil die Restzeit zu oft neu eingestellt werden muss, gibt es auch spezielle (elektronische) Go-Uhren, die mit den vergleichsweise komplizierten Zeitregeln des Go klarkommen. Bevor es solche Uhren gab, musste die Zeitmessung manuell, das heißt durch einen Menschen, erfolgen. Beim klassischen Byōyomi hatte dazu ein Zeitnehmer eine Uhr und informierte die Spieler durch Ansage, wie viele Sekunden sie noch für den Zug haben. Gerade auf Turnieren führte das zu einem erhöhten Lärmpegel. Professionelles Go. Professionelles Go hat sich hauptsächlich in Japan, Korea, Taiwan und in China entwickelt. In Japan wurde das Spiel bereits seit dem 17. Jh. staatlich gefördert. Diese Förderung beschränkte sich zwar nur auf einige wenige Familien, legte aber den Grundstein für das moderne Profi-System, das sich in der Folge auch in den anderen ostasiatischen Ländern etablierte. Go-Profis genießen einen hohen Status und können allein durch Unterricht des Spiels ihr Auskommen finden. Spitzenprofis nehmen überdies an Turnieren teil, die zumeist von Tageszeitungen oder anderen Firmen gesponsert werden und mit Preisgeldern bis 300.000 Euro dotiert sind. Die koreanischen und taiwanischen Turniere werden allerdings immer noch etwas schwächer bezahlt. Bis in die zweite Hälfte des 20. Jahrhunderts brachte Japan die meisten und stärksten professionellen Spieler hervor. Jedoch hat das chinesische Profi-Go in den achtziger Jahren ein mindestens ebenso hohes Niveau erreicht, während in Korea seit den neunziger Jahren eine neue Generation von Go (Baduk) Spielern an die Weltspitze drängt. Heute sind die Top-Spieler aus diesen drei Ländern in etwa von vergleichbarer Stärke; koreanische Profispieler schneiden zurzeit allerdings bei internationalen Turnieren am besten ab. Es gibt keine Weltmeisterschaft für professionelle Go-Spieler. Stattdessen gibt es eine Reihe hoch angesehener Titel. Zu den wichtigsten japanischen Titeln gehören ' (, „Spiel-Heiliger“), ' (, „Meister“), ' (, Name einer früheren Go-Schule), ' (, „Königsthron“), ' (, „10. Dan“), ' (, „Mitte des Himmels“) und ' (, „Go-Heiliger“). Anwärter auf den Profi-Status müssen ihre Spielstärke in der Regel auf einem Qualifikationsturnier beweisen. Die Profi-Organisationen in den jeweils genannten Ländern halten, in der Regel einmal pro Jahr, ein entsprechendes Turnier ab. Die bestplatzierten Spieler erhalten dann die Ernennung zum Profi. Es werden pro Jahr und Organisation nur eine Handvoll Profis ernannt. Die Go-Profis fangen in der Regel schon in ihrer Kindheit zu spielen an. Jeder Schüler hat einen erfahrenen Spieler als Lehrer ("sensei",). Ein Anwärter zum Profi wird in Japan "insei" () genannt. Nur jeder dritte Insei schafft es zum Profi. In Japan gibt es zurzeit etwa 470 Profis. Als erste Profispielerinnen, Lehrerinnen und Expertinnen für das Go-Spielen mit Kindern kamen Shigeno Yuki (Generalsekretärin der Internationalen Go Föderation IGF 2006–2014, lebte lange in Italien) und Guo Juan (lebt in Amsterdam) von Asien nach Europa. Geschichte. Der deutschsprachige Raum nimmt, was die Verbreitung des Go-Spiels im Westen betrifft, eine Pionierrolle ein. Bis ins späte 19. Jahrhundert war Go in Europa nur dem Namen nach bekannt. Erst durch den deutschen Chemiker Oskar Korschelt, der von 1875 bis 1886 in Japan tätig war und 1880 eine Artikelreihe "Das Japanisch-chinesische Spiel „Go“. Ein Concurrent des Schach" veröffentlichte, erlangten Interessenten in Europa die Möglichkeit, das Spiel zu erlernen. Kurz zuvor, 1877, veröffentlichte der berühmte englische Sinologe Herbert Giles eine Spielbeschreibung unter dem Titel "Weichi or the Chinese Game of War". Offenbar wurde Korschelts Werk jedoch eine größere Öffentlichkeit zuteil. In seiner englischen Übersetzung "The Theory and Practice of Go" ist dieses Werk noch heute erhältlich. Nach seinem Japanaufenthalt zog Korschelt nach Leipzig, seitdem wird dort Go gespielt. 1905 bildete sich in Berlin ein kleiner Kreis von Schachspielern, die Go unter Anleitung eines japanischen Studenten praktizierten. Zu diesem Kreis stieß 1907 auch Emanuel Lasker, der von 1894 bis 1921 amtierender Schach-Weltmeister war. Ein weiteres Mitglied dieses Go-Zirkels war Eduard (Edward) Lasker (mit dem Schachweltmeister nur indirekt verwandt), der bald nach Amerika emigrierte und dort die American Go Association mitbegründete. Nach dem Ersten Weltkrieg, im Jahr 1919, entstand in Berlin der erste deutsche Go-Klub. Im Jahr 1909 gab der österreichische Physiker Leopold Pfaundler in Graz die erste deutschsprachige Go-Zeitung heraus. Während des Ersten Weltkriegs entstand im österreichischen Marinestützpunkt Pula, in Istrien, der größte Go-Zirkel Europas. Ab 1920 wurde die Deutsche Go-Zeitung vom Dresdner Bruno Rüger erneut herausgegeben und entwickelte sich rasch zu einem wichtigen Kommunikationsmedium der Go-Spieler im deutschsprachigen Raum. Zu dieser Zeit galt Felix Dueball, dessen Spielstärke damals in etwa einem 1. Dan-Grad entsprach, als bester Spieler Deutschlands. Von einem Turnier in Berlin 1930 hat sich die Notation einer Partie gegen den erwähnten Emanuel Lasker erhalten. Lasker gewann die Partie gegen Dueball. 1930 wurde Dueball zusammen mit seiner Frau vom japanischen Multimillionär Baron Okura für 12 Monate nach Japan eingeladen, wo er das Go-Spiel intensiv studierte und sich an einigen Turnieren beteiligte. In die Go-Geschichte ist eine Partie Dueballs gegen den damals prominentesten Spieler Japans Honinbō Shūsai eingegangen. 1936 spielte Dueball – zu Werbezwecken – eine Fernpartie Go gegen den ehemaligen japanischen Minister für Kultur, Ichiro Hatoyama. Die laufende Partie wurde Zug für Zug sowohl im "Völkischen Beobachter" als auch in der japanischen Zeitung "Nichi-Nichi" abgedruckt. Hatoyama, der mit dem 2. Dan eingestuft wurde, gewann die Partie. Felix Dueball wird im übrigen auch namentlich im Roman "Meijin", einem Schlüsselroman aus der damaligen Go-Szene, des japanischen Literaturnobelpreisträgers Yasunari Kawabata erwähnt. 1978 erhielt der Österreicher Manfred Wimmer als erster Nicht-Asiate einen japanischen Profi-Rang, nur wenige Monate danach wurde die gleiche Ehre auch dem Amerikaner James Kervin zuteil. Neben den USA stammen die führenden nicht-asiatischen Spieler heute vor allem aus Osteuropa, insbesondere aus Russland und Rumänien, wo sich das Spiel seit der politischen Öffnung (1989) besonders stark verbreitet hat. Gegenwart. In Deutschland, Österreich und der Schweiz sind inzwischen rund 2.500 Go-Spieler in Vereinen und Verbänden organisiert, der mit Abstand größte davon der Deutsche Go-Bund (DGoB). In den letzten Jahren hat die Anzahl von Seminaren, Schulungen und Simultanspielen mit starken Amateuren (7. Dan) und Profispielern aus China, Japan und Korea, den Go-Zentren der Welt, stark zugenommen. Die aus Südkorea stammende Yoon Young-Sun ist die erste Profi-Spielerin, die ihren Wohnsitz nach Deutschland verlegt hat. Sie unterrichtet Go in Hamburg. In Wien haben in den letzten Jahren Profi-Spieler aus Japan ein zeitweiliges Domizil gefunden. Der amtierende deutsche Meister ist Lukas Krämer (6. Dan Amateur). Die Arbeit der wachsenden Anzahl von Schul-Go-AGs wird durch die seit 2003 stattfindende deutsche Schul-Go-Meisterschaft (Hans Pietsch Memorial) stark gefördert. Damit ist es gelungen, den typischen Go-Einstieg aus der Universität in die Schule zu verlagern. In Deutschland entstanden seit 2002 einige Go-Verlage, etwa der "Hebsacker Verlag" und der Verlag "Brett und Stein", über die man Go-Material auch im Internet bestellen kann. Der Verlag "Brett und Stein" hat inzwischen den Vertrieb von Spielmaterial aufgegeben und konzentriert sich auf das Verlegen deutschsprachiger Gobücher. In jeder größeren europäischen Stadt gibt es Go-Treffs und Spielabende. In Metropolen wie Hamburg, Berlin oder Wien kann man an jedem Abend in einem Spieltreff Go spielen. Regelmäßige Turniere finden in vielen Städten statt. Für über 5000 aktive europäische Turnierspieler wird eine gesamteuropäische Ratingliste (European Go Database) geführt. In Japan finden jährlich die Amateurweltmeisterschaften statt. 2008 wurden zum ersten Mal die Weltdenksportspiele (World Mind Sports Games) in der Olympiastadt Peking ausgetragen. Zu diesen internationalen Veranstaltungen entsenden viele Länder ihre Vertreter. Computer-Go. Die Bewertung der besten Go-Programme auf dem KGS-Server ab 2007. Seit 2006 verwenden die besten Programme "Monte Carlo tree search"-Methoden.Die Entwicklung gospielender Computerprogramme erwies sich als erheblich schwieriger als im Fall des Schachspiels: Bis heute gibt es keines, das mit einem starken Amateur auf dem 19×19-Brett konkurrieren kann. Dabei wurde schon sehr früh damit begonnen, solche Programme zu schreiben (zum Beispiel "Gobang" für den Commodore VC20 1982, "GO" für den Commodore 64 1983 oder den Atari um 1987). Erst im August 2008 gewann ein Spezialprogramm auf dem Supercomputer Huygens gegen einen Go-Profi, allerdings nur mit einer Vorgabe von neun Steinen. Die geringste Vorgabe, mit der seither (Stand April 2009) ein professioneller Spieler gegen ein Goprogramm verloren hat, beträgt sechs Steine. Erik van der Werf von der „Computer Games Group“ der Universität Maastricht hat das Programm "Migos" geschrieben, mit dem er 2002 Go für 5×5-Bretter gelöst hat. Zu den derzeit stärksten Go-Programmen gehören "The Many Faces of Go", "MoGo", "MyGoFriend", "Leela", "Crazystone" und "Zen". Mit "Hikarunix" gibt es auch eine Live-CD, die verschiedene freie Go-Programme und Clients enthält. In der Goprogrammierung werden andere Techniken eingesetzt als in den meisten anderen Zweispielerspielen ohne Zufall und mit vollständiger Information. Im Schach kann eine mittlere Spielstärke durch Kombination einer fehlerfreien Implementation der Schachregeln, des Alpha-Beta-Algorithmus mit Ruhesuche, und einer relativ einfachen Bewertungsfunktion erreicht werden. Im Go scheint dies auf den ersten Blick an der größeren Variantenvielfalt zu scheitern (die unvorstellbar hohe Anzahl verschiedener Stellungen, die auf einem 19×19-Brett möglich sind, ist etwa 4,63 × 10170, im Schach „nur“ etwa 1043). Im Vergleich: Die Anzahl aller Atome im gesamten Universum beträgt ungefähr 1080. Das heißt, wenn das Universum genauso oft neu entstanden wäre, wie es heute an Atomen besitzt, dann gäbe es immer noch mehr Go-Stellungen als Atome in all diesen Universen zusammen. Der wirkliche Grund liegt allerdings tiefer: Es ist schwieriger als im Schach, eine gute und schnelle Bewertungsfunktion für Verwendung mit einer Alpha-Beta-ähnlichen Suche zu schreiben. Im Go wird daher ein anderer Ansatz verwendet, der als Monte Carlo Tree Search bekannt ist. Die Zugauswahl beruht bei diesen Programmen auf der statistischen Auswertung der Ergebnisse einer großen Anzahl ausgehend von der Wurzelstellung komplett ausgespielter Partien. Da sich bei einem solchen Vorgehen die Bewertung der Endstellungen der Zufallspartien direkt aus den Goregeln ableiten lässt, benötigen diese Programme Gowissen nur für die Suche. Es ist schwierig, Computerprogrammen Ränge zuzuordnen, da einerseits die Spielstärke moderner Goprogramme stark abhängig ist von der Leistungsfähigkeit der zugrundeliegenden Hardware und von der verwendeten Bedenkzeit, und andererseits menschliche Spieler meistens schnell typische Fehler der Programme finden und diese ausnutzen. Oftmals wertet man deswegen nur die erste Partie eines Menschen gegen ein Computerprogramm zur Einstufung. Wertet man noch weitere Partien, so sinkt die "gefühlte" Spielstärke dieser Programme nach Meinung vieler Gospieler erheblich. Die stärksten Programme haben etwa auf dem KGS Go Server stabile Ränge in der Gegend von 6 Dan erreicht (Zen, Crazystone - Stand: 2015). Feng-hsiung Hsu, der als Programmierer von Deep Blue bekannt wurde, hielt es 2007 für möglich, bis zum Jahr 2017 ein Go-Programm zu entwickeln, das die besten menschlichen Spieler besiegte. Bis dahin stünde seiner Ansicht nach Hardware zur Verfügung, die mehr als 100 Billionen Positionen pro Sekunde berechnen könnte. Auf dem 9x9-Brett wurden seit Ende 2006 durch Einsatz von Monte-Carlo-Methoden für Suche und Stellungsbewertung erhebliche Fortschritte erzielt. Die Leistungen der besten 9x9-Programme waren Mitte 2007 wahrscheinlich äquivalent der Spielstärke eines europäischen 3-Dans mit durchschnittlicher Erfahrung mit den Besonderheiten des kleinen Brettes. Auf Supercomputern sind die besten Programme in 9x9-Go heute mit professionellen Spielern konkurrenzfähig. Im August 2008 gelang es dem Supercomputer Huygens auf dem in Portland in Oregon stattfindenden 24. Jahreskongress des Go-Spiels erstmals, in einem offiziellen Wettkampf gegen einen Menschen mit einer Vorgabe von 9 Steinen zu gewinnen. Dabei unterlag der koreanische 8-Dan-Profi Kim Myungwan nach 255 Zügen mit 1,5 Punkten. Die gemeinsame Presseerklärung der Universität von Maastricht, NCF, NWO Physical Sciences und SARA sagt, dass dies der erste Sieg von einem Computer gegen einen Go-Profi ist. Die zusammen mit INRIA Frankreich entwickelte Anwendung "MoGo Titan" läuft auf Huygens der sich bei SARA in Amsterdam befindet. Es gibt Programme, wie zum Beispiel "GoTools", die sich auf das Lösen idealisierter Teilstellungen beschränken. Bei bestimmten Stellungstypen kann dieses Programm menschliche Analyseleistungen bei weitem übertreffen. Für das Ziel des spielstarken Go-Programms ist damit jedoch fast nichts gewonnen, da diese idealisierten und in sich abgeschlossenen Stellungen in der Praxis eine relativ kleine Rolle spielen. Ähnliches gilt für die Ergebnisse, die sich für einige späte Endspiel-Positionen mit Hilfe der kombinatorischen Spieltheorie erzielen lassen. Anfängern wird meist geraten, die ersten Spiele eher gegen menschliche Gegner zu spielen. Es besteht sonst die Gefahr einer Überanpassung des Anfängers an die spezifischen Schwächen eines einzelnen Computergegners. Im März 2015 gewann das Programm "Crazy Stone" den 8. UEC Cup der japanischen "University of Electro-Communications" in Chōfu, in dem verschiedene Go-Programme gegeneinander antraten. Varianten und Abarten. Abweichende, aber gängige Brettgrößen sind 13 × 13 und 9 × 9. Darüber hinaus gibt es Varianten, die Änderungen oder Ergänzungen in der Strategie oder in den Regeln des Spiels nach sich ziehen. Beim Go auf einem kreisförmigen Spielbrett mit Kreissegmenten als Linien "(Rund-Go)" gibt es bei gleichen Spielregeln keine Ecken und somit keine Eck-Jōseki mehr. Überlegungen zum Go auf einem Zylindermantel führen zum gleichen Effekt. Beim Go auf einem Torus fallen zusätzlich die Ränder weg. Jeder Punkt ist somit am Anfang des Spiels gleichberechtigt. Beim "Keima-Go" wird das normale Spielmaterial verwendet. Allerdings setzt jeder Spieler in seinem Zug zwei Steine im Rösselsprung-Abstand. "Poker-Go" verwendet zusätzlich zum normalen Spielmaterial einen gemeinsamen oder zwei spielereigene inhaltsgleiche Stapel mit Karten, von welchen die Spieler abwechselnd Karten mit auszuführenden Anweisungen ziehen. Diese können im Setzen bestimmter Steinformationen, im Bewegen oder auch im Entfernen eigener oder gegnerischer Steine bestehen. "Atari-Go" wird als Vorstufe zum eigentlichen Go-Spiel eher von Anfängern gespielt. Die Regeln bleiben dieselben. Gewonnen hat jedoch derjenige, der zuerst einen Stein gefangen hat. "Siehe auch: Govarianten, Gobang, Ninuki Renju und Fünf in eine Reihe" Getreide. Als Getreide (mhd. "getregede", eigentlich „das [von der Erde] Getragene)“ oder kurz Korn werden einerseits die Pflanzen der Familie der Süßgräser bezeichnet, die wegen ihrer Körnerfrüchte kultiviert werden, andererseits die geernteten Körnerfrüchte. Die Früchte dienen als Grundnahrungsmittel zur menschlichen Ernährung oder als Viehfutter, daneben auch als Rohstoff zur Herstellung von Genussmitteln und technischen Produkten. Getreidekörner bestehen aus dem stärke- und (in geringerem Umfang) auch eiweißhaltigen Mehlkörper, dem fetthaltigen Keimling, der miteinander verwachsenen Samenschale und Fruchtwand sowie der zwischen Mehlkörper und Schale liegenden eiweißhaltigen Aleuronschicht. Das enthaltene Eiweiß einiger Getreidegattungen (Weizen, Dinkel, Roggen, Gerste, Triticale) wird auch als Kleber oder Gluten bezeichnet. Andere Gattungen sind glutenfrei (Mais, Reis, Hirse und Bambussamen). Für die meisten Verwendungen werden die Früchte nach der Reife durch Dreschen von den abgemähten Pflanzen abgetrennt, wobei bei einigen Sorten auch die mit der Schale verwachsenen Deck- und Vorspelzen noch am Korn verbleiben, bei wenigen urtümlichen Sorten auch Hüllspelzen und Bruchstücke der Ährenspindel. Bei den meisten Mehlsorten wird traditionell die Schale durch Mahlen, Schleifen oder andere Verfahren möglichst vollständig entfernt und als Kleie getrennt verwertet, bei Vollkornmehl ist dies nicht der Fall. Um lagerfähige Produkte zu erhalten, muss auch der Keimling entfernt oder hitzebehandelt werden. Er kann zur Gewinnung von Getreidekeimöl genutzt werden. Zum Verzehr werden Getreidefrüchte bzw. ihre Mehlkörper hauptsächlich gemahlen und als Brot gebacken, als Brei gekocht oder zum Beispiel zu Nudeln weiterverarbeitet. Aus Getreidesorten mit geringem Kleberanteil lässt sich Brot nur als Fladenbrot herstellen. Die wichtigsten Getreidepflanzen für die menschliche Ernährung sind Reis, Weizen, Mais, Hirse, Roggen, Hafer und Gerste. Als Viehfutter genutzt werden vor allem Gerste, Hafer, Mais und Triticale. Herkunft. Getreide im engeren Sinne sind Zuchtformen von Süßgräsern (Poaceae). Der Ursprung des landwirtschaftlichen Anbaus vieler Getreidegattungen kann nicht mehr ermittelt werden. Getreideanbau und -zucht wurden, im Nahen Osten (Fruchtbarer Halbmond) agrargeschichtlich belegt, bereits vor mehr als 10.000 Jahren praktiziert. Die ersten angebauten Getreidearten waren Einkorn, Emmer und Gerste. In Mitteleuropa und Westeuropa verbreiteten sie sich vor etwa 7000 Jahren. Aussaat. Aussaat- und Erntezeitpunkt hängen stark von den Klimabedingungen und der Höhenlage des Anbaugebietes ab. Es gibt typische Früherntegebiete (zum Beispiel die Niederrheinebene oder das Bauland) und Späterntegebiete (zum Beispiel die Schwäbische Alb). Wintergetreide. Das Wintergetreide benötigt nach der Aussaat und der Keimung eine Frostperiode, um dann im Frühjahr schossen (Vernalisation) zu können. Es kann daher schon ab September gesät und dann je nach Getreideart ab Juli des nächsten Jahres geerntet werden. Durch die längere Vegetationszeit und insbesondere die bessere Ausnutzung der Winterfeuchtigkeit und Frühlingswärme liegen die Erträge der Wintergetreidearten weit über denen der Sommerformen, was zur überwiegenden Verbreitung von Wintergetreide führte. Zudem ist eine frühere Ernte möglich. Winterroggen, Winterweizen, Wintergerste und Wintertriticale sind im mitteleuropäischen Raum die bedeutendsten Getreidearten. Bis zum Ende des 19. Jahrhunderts zählte Emmer zu den häufig angebauten Wintergetreiden. Sommergetreide. Sommergetreide benötigt im Gegensatz zum „Wintergetreide“ nur etwa ein halbes Jahr, bis es erntereif ist. Es wird ab März gesät und ab Juli geerntet. Saathafer, Mais und Sommergerste sind im mitteleuropäischen Raum die bedeutendsten Arten. Weniger relevant sind Sommerroggen und Sommerweizen. Vor der Verdrängung durch den Mais war Hirse ein wichtiges Sommergetreide. Wachstumsstadien und Ernte. Die Wachstumsstadien von Getreidepflanzen sind in der sogenannten BBCH-Skala ausführlich beschrieben. Damit ist eine weitgehend vereinheitlichte Beschreibung der Entwicklungsstadien von Pflanzen nach phänologischen Merkmalen und deren Codierung möglich. Dies macht einen Vergleich möglich. Die Skala unterscheidet 10 Makrostadien (Makrostadium 0 = Keimung bis Makrostadium 9 = Absterben), die weiter unterteilt sind in Mikrostadien, in denen eine genauere Differenzierung beschrieben wird. So werden in der Skala die Reifestufen des Korns unterschieden: (Mikrostadien in Klammern) Getreide wird in der Regel im Zustand der Voll- oder der Totreife geerntet. Drusch erfordert Totreife, die auch noch nach der Ernte erreicht wird. Eine Ernte mit Mähdreschern ist jedoch erst bei Totreife möglich. In der Getreidefrucht sind auch im Zustand der Totreife nur Mehlkörper und Schale im biologischen Sinn tot. Sowohl Keimling als auch Aleuronschicht bestehen aus lebenden Zellen und atmen. Dies führt bei ca. 15 % Wassergehalt zu jährlichen Stärkeverlusten zwischen 0,25 % und 2 %. Sorten. In Deutschland müssen Getreidesorten vom Bundessortenamt zugelassen werden. Die folgende Anzahl der Getreidesorten war 2009 bei den verschiedenen Getreidegattungen zugelassen. Begrannung. Weizen (links), Hafer (Mitte), Gerste (rechts) Krankheiten. Getreide werden überwiegend im Fruchtwechsel mit anderen Arten angebaut. Die Getreidearten sind unterschiedlich anfällig für verschiedene Krankheiten. Bei Massenbefall kam es in der Zeit vor der Errichtung weltweiter Handelsbeziehungen regional immer wieder zu Missernten, Hungersnöten oder zu gesundheitlichen Auswirkungen auf die Bevölkerung. Getreidekrankheiten bewirken heute vor allem wirtschaftliche Schäden. Futtermittel. Getreide stellt weltweit das wichtigste Futtermittel dar. Vor allem an Wiederkäuer wird es überwiegend als Ganzpflanzensilage (GPS), z. B. als Roggen-, Gerste- oder Mais-GPS verfüttert. Nach Angaben der FAO wurden 2008/09 35 % der weltweiten Getreideproduktion von 2,23 Milliarden Tonnen als Futtermittel verwendet. Industrielle Nutzung. Die industrielle Nutzung von Getreide umfasst die energetische Nutzung, d. h. die Herstellung von Biokraftstoffen und die direkte Stroh- und Getreideverbrennung sowie die stoffliche Nutzung, für die vor allem die Stärke den relevanten Rohstoff darstellt. Dabei spielen beinahe ausschließlich Weichweizen und Mais eine Rolle als Stärkelieferanten während alle anderen Getreidesorten fast vollständig zur Herstellung von Lebensmitteln oder in Brauereien (Gerste) verwendet werden. Die weltweite Verwendung von Getreide in Biokraftstoffen wird von der FAO mit 125 Millionen Tonnen angegeben. Im Jahr 2009/10 werden geschätzte sechs Prozent des Weltgetreideverbrauchs für Bioethanol verwendet (zu 97 % Mais in den Vereinigten Staaten), 47 % für Nahrung, 35 % für Futtermittel und 12 % für sonstiges (Saatgut, technische Verwendung, Verluste). Im Wirtschaftsjahr 2006/07 wurden von knapp 43 Millionen Tonnen Getreide in Deutschland 9 % für die stoffliche industrielle Nutzung verwendet, 3,5 % für Energie sowie 62 % für Futtermittel, 20 % für Nahrung und 2,3 % für Saatgut. Durchschnittliche Zusammensetzung. Die Zusammensetzung von Getreide schwankt naturgemäß, sowohl in Abhängigkeit von den Umweltbedingungen (Boden, Klima) als auch von der Anbautechnik (Düngung, Pflanzenschutz). Weltgetreideernte. Weltweite Erntemengen der drei wichtigsten Getreidearten 1990–2013 (in 1000 t) Quelle: FAO: Faostat 2013 Die größten Getreideproduzenten. "Siehe auch:" Die größten Weizenproduzenten, Die größten Roggenproduzenten, Die größten Gersteproduzenten, Die größten Reisproduzenten, Die größten Maisproduzenten, Die größten Haferproduzenten Pro-Kopf-Verbrauch in Deutschland. In Deutschland wurden 2011/12 pro Kopf 96,5 kg Getreideerzeugnisse verbraucht. Selbstversorgungsgrad mit Getreide in Deutschland. Der Selbstversorgungsgrad mit Getreide betrug 2011/12 in Deutschland 101 %. Getreidepreis. Der Getreidepreis setzt für preisbestimmende Eigenschaften des Getreides festgelegte Basis- oder Standardwerte voraus. Abweichungen von den Standardwerten führen zu entsprechenden Ab- oder Zuschlägen auf den Grundpreis. Die Festlegung der Basiswerte für preisbestimmende Eigenschaften kann erfolgen durch Börsen- oder Handelsusancen, oder auch durch gesetzliche Regelungen wie in den USA mit dem "United States Grain Standards Act". Die Preisbildung kann unterschiedlich stattfinden. Im marktwirtschaftlich geregelten Wirtschaftsraum erfolgt die Preisfindung hauptsächlich an Warenterminbörsen. In abgrenzten Wirtschaftsräumen kann ein Staat den Getreidepreis direkt festsetzen oder indirekt durch eine staatliche Abnahmegarantie (= Interventionsaufkäufe). Dabei ist – im Gegensatz zur Preisfindung an Warenterminbörsen – zwischen Ein- und Verkaufspreis zu unterscheiden. Warenterminbörsen ermöglichen den Anbaubetrieben das Getreide bereits vor der Ernte oder dem Anbau zu vermarkten, um dadurch eine Absicherung gegen fallende Preise zu erhalten. Erkauft wird dieser Vorteil für den Anbaubetrieb mit dem Verzicht auf die Gewinnbeteiligung bei steigenden Preisen. Gleichzeitig wird durch das Marktgeschehen an Warenterminbörsen die Marktinformation für alle Marktteilnehmer gleichermaßen transparent und verfügbar. Beim Preis für Getreide ist zu unterscheiden zwischen dem Preis, der an den Warenterminbörsen ermittelt wird und dem Preis, den der Anbaubetrieb tatsächlich erhält, sofern das Getreide den festgelegten Standard- oder Basiswerten entspricht. Die Preisunterschiede ergeben sich durch Fracht- und Manipulationskosten zwischen dem Ort der Preisbildung und dem Ort des Warenübergangs (= Ort der tatsächlichen Nachfrage) sowie aus dem Umstand, inwieweit am Ort der Verfügbarkeit des Getreides das Angebot die Nachfrage über- oder untersteigt. Eine der wichtigsten und größten Warenterminbörsen für Getreide ist die CBOT (Chicago Board of Trade). Für die häufigsten Getreidearten wie Mais oder Weizen wird dort der weltweit beachtete Preis in "cents per bushel" festgelegt. In Europa gilt als die bedeutendste Warenterminbörse für Getreide die in NYSE Euronext aufgegangene MATIF () in Paris. Getreidehandel. Der größte Teil des Getreidehandels wird nach Formverträgen verschiedener Körperschaften abgewickelt. In Deutschland gelten die Einheitsbedingungen im Deutschen Getreidehandel als "stillschweigender Bestandteil jedes Getreidehandelsvorgangs". In Österreich werden bevorzugt die Usancen der Börse für landwirtschaftliche Produkte in Wien verwendet und in der Schweiz die Usancen der Schweizer Getreidebörse Im Überseehandel sind diese Verträge weitgehend bedeutungslos. Dort werden für Getreide bevorzugt die Kontrakte der Grain and Feed Trade Association (GAFTA) und bei Ölsaaten die Kontrakte der Federation of Oils, Seeds and Fats Associations (FOSFA) verwendet. Trocknung. Seit dem Neolithikum wissen die Menschen, dass Getreide für eine dauerhafte, schadensfreie Lagerung getrocknet werden muss. Eine frühe Einrichtung, die für eine Darre gehalten wird, fand sich bei Bab edh-Dhra am Toten Meer. Da Getreide erst ab 14,5 % Feuchte sicher lagerfähig ist, je nach Witterung aber auch mit einer höheren Feuchte gedroschen wird, muss die Feuchte durch Trocknen entzogen werden. Würde die Lagerung zu feucht erfolgen, wäre Pilzbefall die Folge. Getreidetrocknung ist sehr energieaufwändig. Da während der Ernte nicht immer das gesamte angenommene Getreide gleich getrocknet werden kann, werden in vielen Mühlen Getreidepartien vorübergehend auf +7 °C gekühlt, bis sie ebenfalls getrocknet werden können. Für die Vermahlung sind 14 % Feuchte allerdings zu wenig. Da die trockene Schale bei der Vermahlung zu sehr splittern würde und eine Trennung zwischen Kleie und Mehl schwieriger wird, muss das Getreide vor der Vermahlung, in Abhängigkeit von der „Glasigkeit“ des Korns, wieder auf 16–17 % Feuchte „aufgenetzt“ (angefeuchtet) werden. Lagerung. Üblich sind heute Silos zur Einlagerung von Getreide, sogenannte Flach- und Hochsilos. Es werden aber auch einfache Lagerhallen (Flachlager) als Zwischenlager verwendet. Die Überwachung und Pflege des Getreides im Lager sind unbedingt erforderlich. Getreide atmet: Das heißt, es findet eine Feuchtigkeitsumverteilung im Getreidekorn statt und zum Teil auch Wasseraustritt – das Getreide „schwitzt“. Dies begünstigt das Wachstum von Mikroorganismen. Zudem sind ca. 40 % einer Siloschüttung Hohlräume. Der Luftzustand dieser Hohlräume bestimmt das „Klima“ der Schüttung. Daher ist eine ständige Überwachung von Feuchtigkeit und Temperatur erforderlich. Zu den Grundregeln der Lagerhaltung gehören die Reinigung des Getreides vor der Einlagerung und von Zeit zu Zeit ein Luftaustausch im Silo. Getreide gilt unter folgenden Bedingungen als lagerfest: Feuchtigkeit unter 14 %, Temperatur unter 20 °C (am günstigsten sind Temperaturen von 5–8 °C). Besatz unter 1 %. Vorratsschutz. Vorratsschutz ist die Verhinderung des Befalls durch Vorratsschädlinge, aber auch deren Bekämpfung, wenn Befall eingetreten ist. Die FAO schätzt die weltweiten Lagerverluste durch tierische Schädlinge in Getreidelagern auf ca. 10–30 %, dies entspricht einem jährlichen Verlust von 180 bis 360 Millionen Tonnen Getreide. In Deutschland dürfte die Verlustrate unter einem Prozent liegen, in Entwicklungsländern dagegen sogar häufig über 30 %. Verunreinigungen. Auf Getreidefeldern wachsen neben erwünschten Getreidesorten auch andere Pflanzen, die nicht angebaut wurden, aber durch wandernde Samen oder durch Verunreinigungen im Saatgut eingetragen wurden. Es handelt sich meist um Anteile anderer Getreidesorten oder weiterer, nicht essbarer Pflanzen (Unkräuter). Diese können die Qualität des Mehls, den Ertrag oder die Qualität des Saatgutes für die nächste Periode mindern. Der Anteil der Verunreinigen im Getreide soll deshalb gering gehalten werden. Die meisten Unkräuter, die in Getreidefeldern wachsen, haben Samen, die sich von den Getreidekörnern stark unterscheiden und deshalb technisch entfernt werden können. Heute wird durch Siebungen und Luftstromtransport bereits im Mähdrescher ein Großteil der Verunreinigungen abgetrennt. Saatgut, das in höheren Anteilen mit anderen Getreidesorten verunreinigt ist und für Handel und Verzehr nicht geeignet erscheint, kann immer noch als Futtergetreide ausgesät oder vermischt mit anderen Sorten als Gemengesaat verwendet werden. Soll Futtergetreide noch vor der Reife geerntet und grün verfüttert oder siliert werden, fallen Verunreinigungen durch andere Sorten kaum ins Gewicht. Getreidereinigung. In der Getreidemühle wird das angelieferte Getreide vor der Annahme auf Verunreinigungen geprüft. Das vom Landwirt in der Mühle angelieferte Rohmaterial ist in aller Regel kein reines Getreide, sondern mit Unkrautsamen, Steinen, Erdklumpen, Metallteilen, Insekten, Fremdgetreide und vielem mehr verunreinigt. Alle Verunreinigungen zusammen nennt der Müller „Besatz“. Ist der Besatzanteil zu hoch, oder befinden sich gar lebende Schädlinge in der Partie, so wird der Müller deren Abnahme verweigern. Der genaue Besatzanteil kann im Mühlenlabor durch eine „Besatzanalyse“ ermittelt werden. Bevor Getreide in der Mühle eingelagert wird, durchläuft es die sogenannte „Silo- oder Schwarzreinigung“. Man unterscheidet gewöhnlich zwischen „Fremdbesatz (Schwarzbesatz)“ und „Kornbesatz“. Speisegetreide, das die Mühle verlässt, hat heute einen nie zuvor gekannten Reinheitsgrad. Vermahlung, Siebung. Die Zerkleinerung erfolgt heute mit der wichtigsten und verbreitetsten Maschine: dem Walzenstuhl. In den Walzenstühlen sind üblicherweise zwei oder vier Walzenpaare untergebracht, die sich gegenläufig mit unterschiedlicher Umfangsgeschwindigkeit drehen. Sie sind entweder als Riffel- oder Glattwalzen ausgeführt. Das bei einem Walzendurchgang entstehende „Haufwerk“ wird durch den Plansichter und je nach Granulation unterschiedlich weitergeleitet. Alle kleinen Mehlpartikel (µm) werden sofort als Mehl abgezogen. Das grobe Schrot wird dagegen auf einen weiteren Walzenstuhl geleitet, wo sich der Vorgang wiederholt. Grieße können auf einer Grießputzmaschine gereinigt werden. So können sich noch weitere acht bis zehn Vermahlungen und Siebungen anschließen. Den Durchgang durch einen Walzenstuhl und einen Plansichter nennt man „Passage“. Mischen, Verladen, Absacken. Durch das Mischen in Mischmaschinen kann der Müller verschiedene Passagenmehle zu einem Typenmehl zusammenmischen, das der DIN-Norm entspricht. Dabei können auch unterschiedliche Backqualitäten ausgeglichen werden. Die heutigen Mehlsilozellen sind elektronisch durch Füllstandmelder überwacht. Die fertigen Mehle kommen in ein Lose-Verladesystem. Die übliche Form der Auslieferung ist die Silowagen-Befüllung. Bei Großbäckereien und Backfabriken wird das Mehl aus dem Silowagen mit Druckluft in die Mehlsilozellen geblasen. Nur noch Spezialprodukte oder Mehle für kleine Bäckereien werden in Säcke abgepackt. Viele Großmühlen verfügen heute auch über Kleinpackungsanlagen, auf denen 1- bis 5-kg-Packungen abgepackt und für den Einzelhandel fertig palettiert werden. Goldschlägerhaut. Goldschlägerhaut, auch Darmserosa genannt, wird aus der äußersten Hautschicht von Rinderblinddärmen hergestellt. Sie ist sehr dünn (ca. 0,05 bis 0,1 mm), elastisch und reißfest. Fertigung. Zur Herstellung von Goldschlägerhaut wird zunächst der Rinderdarm gewaschen und eingeweicht. Dann wird die oberste Hautschicht abgezogen, gespannt und getrocknet. Zur Haltbarkeit wird die Haut chemisch behandelt. Die Größe eines Stückes beträgt maximal etwa 100 x 25 cm. Begriffsherkunft. Der Name "Goldschlägerhaut" leitet sich ab von ihrer früheren Verwendung beim Goldschlagen, also der Herstellung von Blattgold. Zwischen die einzelnen Lagen Blattgold wurden Goldschlägerhäute gelegt, damit die Blattgoldschichten nicht aneinanderkleben. Bau von Luftschiffen. Bereits im Jahr 1883 experimentierte das britische Militär mit Ballonen, deren Ballonhülle aus Goldschlägerhaut gefertigt war. Auch das US-amerikanische Militär experimentierte ab dem Jahr 1893 mit diesem Material beim Einsatz für Ballone. Anfang des 20. Jahrhunderts stieg der Bedarf an Goldschlägerhäuten durch die Luftschifffahrt enorm an. Da gummierter Stoff schnell brüchig wurde und zu statischer Aufladung neigt, wurden die Gaszellen aus Goldschlägerhäuten genäht, die in bis zu sieben Lagen auf eine Trägerschicht aus Stoff aufgebracht wurden. Das Gewicht dieses Materials lag bei 136 g/m² Für eine einzige Gaszelle wurden die Häute von rund 50.000 Rindern benötigt, für einen Luftschifftyp, welcher im Ersten Weltkrieg verwendet wurde, wurden zusammen Blinddärme von rund 700.000 Rindern benötigt. Später konnte die Goldschlägerhaut auf vier Lagen reduziert werden. Die Herstellung der Gaszellen war aufwendig und teuer. In England wurden Rinderblinddärme zuerst in Salzwasser getaucht und dann abgeschabt. Anschließend wurden die Stücke zusammengefügt und auf Leinwand geklebt. Die fertige Gaszelle wurde zum Schluss mit Luft aufgeblasen und auf Dichtheit kontrolliert. Die Arbeiter (zumeist Arbeiterinnen) im Inneren trugen dabei weiche Filzpantoffeln. Heute werden für gasdichte Zellen synthetische Materialien verwendet. Anfang des 20. Jahrhunderts wurden zudem spezielle Unternehmen gegründet, welche sich auf die Produktion der Goldschlägerhaut spezialisierten. In Berlin Schöneberg wurde im Jahr 1909 beispielsweise die Ballonhüllen GmbH gegründet. Abdichtung von Oboenmundstücken. Aufgrund der guten Dehnbarkeit benutzen Oboisten Goldschlägerhaut zum Abdichten ihrer Mundstücke, damit keine Luft zwischen den beiden Blättern des Mundstücks entweicht. Umgangssprachlich bezeichnen die Oboisten die Goldschlägerhaut auch als "Fischhaut". Schinkenherstellung. "Goldschlägerhäutchen" finden auch als Umhüllung von feinen Schinkenwaren Verwendung, so zum Beispiel als Umhüllung von Lachsschinken nach „Pariser Art“. Diese Häute werden allerdings aus der Haut des Bauchfilzes (Speck) vom Schwein gewonnen. Gerste. Die Gerste ("Hordeum vulgare") ist eine Pflanzenart und gehört zur Gattung "Hordeum" der Familie der Süßgräser (Poaceae). Sie ist eine der wichtigsten Getreide-Arten. Beschreibung. Gerste ist ein einjähriges Gras, das Wuchshöhen von 0,7 bis 1,2 m erreicht. Die Pflanze ist glatt und unbehaart. Der Halm ist aufrecht. Die wechselständig und zweizeilig (distich) angeordneten Laubblätter sind einfach und parallelnervig. Die flache Blattspreite weist eine Länge von 9 bis 25 cm und eine Breite von 0,6 bis 2 cm auf. Die wichtigsten morphologischen Erkennungsmerkmale sind die zwei langen, unbewimperten Blattöhrchen der Blattscheide, die den Halm vollständig umschließt. Das schmale und leicht gezähnte Blatthäutchen (Ligula) ist 1 bis 2 mm lang. Das Tausendkorngewicht liegt bei 35–50 Gramm. Der ährige Blütenstand besitzt eine flexible, also nicht zerbrechliche Rhachis, darin unterscheidet sie sich von den anderen "Hordeum"-Arten. Die in Reihen stehenden, ungestielten Ährchen sind alle gleich und fertil. Die Ährchen enthalten meist nur eine Blüte, selten zwei. Die Hüllspelze ist lineal-lanzettlich. Die Grannen sind 8 bis 15 cm lang. Der ährige Fruchtstand mit langen Grannen ist im reifen Zustand geneigt bis hängend. Botanisch betrachtet sind die Körner Karyopsen, also einsamige Schließfrüchte. Gerste wird anhand der unterschiedlichen Ähren in zwei- und mehrzeilige Formen unterschieden. Die zweizeiligen Formen entwickeln pro Ansatzstelle nur ein Korn, das voll und kräftig ausgeprägt ist. Bei den mehrzeiligen Formen treten drei Körner pro Ansatzstelle auf, die sich schwächer entwickeln. Zweizeilige Gerstensorten (überwiegend Sommergerste) finden vorwiegend bei der Bierherstellung als Braugerste Verwendung (Malz). Vier- und sechszeilige Gerstensorten sind überwiegend Wintergerstensorten, die im Herbst gesät werden und eine Vernalisation zum Schossen benötigen. Durch effektive Nutzung der Winterfeuchtigkeit sind die Erträge höher und die Nährstoffe günstig für die Verwendung als Futtergerste. Herkunft. Ursprungsgebiete der Gerste sind der Vordere Orient und der östliche Balkan. Die ältesten Nachweise von Gerstenutzung lassen sich bis 15.000 v. Chr. zurückdatieren. Gerste ist eng verwandt mit der im Nahen Osten vorkommenden Wildgerste "(Hordeum vulgare" subsp. "spontaneum)". Als klassisches Getreide der Antike wurde sie vor mehr als 8000 Jahren im Zweistromland und am Nil angebaut; Gerste, Einkorn und Emmer waren die ersten vom Menschen gezielt angebauten Getreidearten. Ab 7000 v. Chr. begann die systematische Zuchtauswahl und seit der Jungsteinzeit (5500 v. Chr.) wird auch in Mitteleuropa Gerste angebaut. Bei Wildgerste fallen die reifen Körner aus der Ähre und müssen mühsam aufgesammelt werden. Kulturgerste entstand wahrscheinlich durch eine nicht gezielte Auslese der Menschen, die bevorzugt eine Mutation ernteten und pflegten, bei der die reifen Körner in der Ähre blieben. Im Mittelalter wurde die Gerste als ertragreiches Viehfutter geschätzt. Durch die Züchtung anspruchsloser Sorten können die Erträge mit denen von Weizen konkurrieren. Neben der Qualitätssteigerung versuchte die Züchtung, auch eine technisch besser handhabbare grannenlose Gerste zu erzeugen. Dies ist zwar gelungen (Sorten wie "Ogra", "Nudinka)," die Form hat sich aber nicht durchgesetzt. Hierbei darf nicht vernachlässigt werden, dass auch die Granne photosynthetisch aktiv ist. Nutzung. Der Gerste werden auch Heilwirkungen zugesprochen. Gestampfte Gerste (Ptisane) wird schon von Hippokrates von Kos ausführlich beschrieben. Gerstenwasser, auch als „Tisane“ bezeichnet, war im 19. Jahrhundert ein beliebtes Getränk für Kranke. Schösslinge wirken entwässernd und fiebersenkend. In Japan und Korea wird Gerstentee getrunken. Als Nachwachsender Rohstoff wird Gerste bisher kaum genutzt. Die Körner könnten als Quelle für Stärke genutzt werden. Durch Züchtung konnte der für technische Nutzungen interessante Anteil verzweigtkettiger Stärke Amylopektin auf über 95 % der Gesamtstärke erhöht werden. Aufbau der Körner. Die Körner sind, außer bei der Nacktgerste, fest mit den Spelzen verwachsen. Vor der Zubereitung für die menschliche Ernährung müssen sie daher entspelzt werden. Dies geschah früher in der Mühle durch einen Gerbgang, heute wird dieser Arbeitsschritt in einer Schälmühle erledigt. Gerste enthält Gluten, was bei Personen mit Glutenunverträglichkeit zu gesundheitlichen Problemen führen kann. Da Bier u. a. aus Gerstenmalz gebraut wird, wird diesen Personen oftmals auch empfohlen, den Bierkonsum zu reduzieren. Durchschnittliche Zusammensetzung (Gerste, entspelzt, ganzes Korn). Die Zusammensetzung von Gerste schwankt naturgemäß, sowohl in Abhängigkeit von den Umweltbedingungen (Boden, Klima) als auch von der Anbautechnik (Düngung, Pflanzenschutz). Der physiologische Brennwert beträgt 1320 kJ je 100 g essbarem Anteil. Stroh. Gerstenstroh ist im Vergleich zum Weizenstroh zwar weicher und saugfähiger, aber als Einstreu nur bedingt geeignet. Reste von Grannen können bei empfindlichen Tieren (Pferde, Schweine) u. a. zu Reizungen der Atemwege führen. Gerstengras. Gerstengras wird häufig bei der Tiermast eingesetzt. Aufgrund des hohen Nährstoffgehalts findet es auch Verwendung als Nahrungsergänzungsmittel und wird in neuerer Zeit auch als Superfood gehandelt. Es enthält neben den Vitaminen B und C auch Kalzium, Kalium und Eisen in größeren Konzentrationen. Für den Verzehr werden die Blätter der jungen Gerstenpflanze gefriergetrocknet. Dieses Pulver wird in kühlem Wasser aufgelöst und eingenommen. Der Geschmack erinnert ein wenig an verdünnten Spinat. Gerstenkorn als Grundmaß. Da ein Gerstenkorn eine relativ konstante Größe hat, bildete es früher die Grundlage für einige Maße und Gewichte, siehe Gerstenkorn (Einheit). Anbauzyklus und Ernte. Die Gerste zählt zu den Selbstbefruchtern; man unterscheidet zwischen Winter- und Sommergerste. Wintergerste, die im September gesät wird, ist ertragreicher. Ideale Wachstumsbedingungen für die Wintergerste sind Temperaturen unter 10 °C. Bei länger anhaltenden Temperaturen unter -15 °C erfriert die Wintergerste. Die Ausbildung von Nebentrieben (Bestockungstrieben) ist vor dem Winter abgeschlossen. Aus ihnen entwickeln sich im nächsten Frühjahr die Ähren tragenden Halme. Gerste gedeiht am besten auf tiefgründigen, gut durchfeuchteten Böden, aber auch mit ungünstigeren Bedingungen kommt sie zurecht. In der Regel beginnt die alljährliche Getreideernte mit der Wintergerste. Die Aussaat der Sommergerste erfolgt Ende Februar bis Anfang April. Sie reift in weniger als 100 Tagen heran. Nach den Phasen der Bestockung, des Schossens und des Ährenschiebens folgen Blüte und Ernte. Die Ernte erfolgt bei Voll- bis Totreife. Wintergerste liefert je nach Standort zwischen 50 und 90 dt/ha, Sommergerste 40-65 dt/ha Fruchtertrag. In Deutschland wird die Wintergerste auf ca. 1,24 Mio. Hektar angebaut, während die Sommergerste auf ca. 0,5 Millionen Hektar angebaut wird. Lagerung. Wie alle Getreidearten muss auch Gerste vor der Einlagerung auf Feuchtigkeit überprüft werden, da ansonsten Schimmelbefall droht (Mykotoxingefahr). Die Obergrenze der Kornfeuchte liegt für die Einlagerung bei 15 %. Geschichte der Mathematik. Die Geschichte der Mathematik reicht zurück bis ins Altertum und den Anfängen des Zählens in der Jungsteinzeit. Nachweise erster Anfänge von Zählverfahren reichen ca. 50.000 Jahre zurück. Der vor über 4500 Jahren im Alten Ägypten einsetzende Pyramidenbau mit seinen exakt berechneten Formen ist ein deutliches Anzeichen für das Vorhandensein von bereits weitreichenden mathematischen Kenntnissen. Im Gegensatz zur Mathematik der Ägypter, von der wegen der empfindlichen Papyri nur wenige Quellen existieren, liegt von der babylonischen Mathematik in Mesopotamien ein Bestand von etwa 400 Tontafeln vor. Die beiden Kulturräume hatten zwar unterschiedliche Zahlensysteme, kannten aber beide die vier Grundrechenarten sowie Annäherungen für die Kreiszahl formula_1. Mathematische Belege aus China sind deutlich jüngeren Datums, da Dokumente durch Brände vernichtet wurden, ähnlich schlecht lässt sich die frühe indische Mathematik datieren. Im antiken Europa wurde die Mathematik von den Griechen als Wissenschaft im Rahmen der Philosophie betrieben. Aus dieser Zeit datiert die Orientierung an der Aufgabenstellung des „rein logischen Beweisens“ und der erste Ansatz einer Axiomatisierung, nämlich die euklidische Geometrie. Arabische Mathematiker griffen die von den Römern eher vernachlässigten griechischen, aber auch indische Erkenntnisse auf und begründeten die Algebra. Von Spanien und Italien aus verbreitete sich dieses Wissen in die europäischen Klosterschulen und Universitäten. Ägypten. Die wichtigsten der wenigen erhaltenen Quellen, die uns Auskunft über die mathematischen Fähigkeiten der Ägypter geben, sind der Papyrus Rhind, der Papyrus Moskau und die so genannte "Lederrolle". Die Ägypter verwendeten die Mathematik meist nur für praktische Aufgaben wie die Lohnberechnung, die Berechnung von Getreide­mengen zum Brot­backen oder Flächenberechnungen. Sie kannten die vier Grundrechenarten, so die Subtraktion als Umkehrung der Addition, die Multiplikation führte man auf das fortgesetzte Verdoppeln zurück und die Division auf das wiederholte Halbieren. Um die Division vollständig durchführen zu können, verwendeten die Ägypter allgemeine Brüche natürlicher Zahlen, die sie durch Summen von Stammbrüchen und dem Bruch 2/3 darstellten. Sie konnten auch Gleichungen mit einer abstrakten Unbekannten lösen. In der Geometrie waren ihnen die Berechnung der Flächen von Dreiecken, Rechtecken und Trapezen, formula_2 als Näherung der Kreiszahl π (pi) und die Berechnung des Volumens eines quadratischen Pyramidenstumpfs bekannt. Archäologische Funde von Aufzeichnungen einer mathematischen Beweisführung fehlen bis heute. Sie hatten für Zahlen eigene Hieroglyphen, ab dem Jahr 1800 v. Chr. benutzten sie die hieratische Schrift, die mit abgerundeten und vereinfachten hieroglyphischen Schriftzeichen geschrieben wurde. Babylon. Babylonische Keilschrifttafel YBC 7289 mit einer sexagesimalen Näherung für die Quadratwurzel von 2 (auf der Diagonalen). Die Babylonier verwendeten ein Sexagesimal-Stellenwertsystem für die Darstellung von beliebigen Zahlen sowie die Rechenarten der Addition, Subtraktion, Multiplikation und Division (Multiplikation mit dem Kehrwert). Neben dem Algorithmus für die Berechnung von Quadratwurzeln legten sie Zahlentabellen (z. B. für Kehrwerte, Quadrate, Kuben, Quadratwurzeln, Kubikwurzeln und Logarithmen) an. Die Babylonier berechneten Zwischenwerte durch lineare Interpolation und konnten quadratische Gleichungen lösen. Sie kannten den Satz des Pythagoras und als Näherung für die Kreiszahl π benutzten sie 3 oder 3+1/8. Eine strenge Beweisführung wurde von den Babyloniern offenbar nicht angestrebt. Mathematik der Antike. Nach einer aus der Antike stammenden, aber unter Wissenschaftshistorikern umstrittenen Überlieferung beginnt die Geschichte der Mathematik als Wissenschaft mit Pythagoras von Samos. Ihm wird – allerdings wohl zu Unrecht – der Grundsatz „Alles ist Zahl“ zugeschrieben. Er begründete die Schule der Pythagoreer, aus der später Mathematiker wie Hippasos von Metapont und Archytas von Tarent hervorgingen. Im Unterschied zu den Babyloniern und Ägyptern hatten die Griechen ein philosophisches Interesse an der Mathematik. Zu den Erkenntnissen der Pythagoreer zählt die Irrationalität von geometrischen Streckenverhältnissen, die von Hippasos entdeckt worden sein soll. Die früher verbreitete Ansicht, dass die Entdeckung der Irrationalität bei den Pythagoreern eine philosophische „Grundlagenkrise“ auslöste, da sie ihre früheren Überzeugungen erschütterte, wird jedoch von der heutigen Forschung verworfen. Die antike Legende, wonach Hippasos Geheimnisverrat beging, indem er seine Entdeckung veröffentlichte, soll aus einem Missverständnis entstanden sein. In der Platonischen Akademie in Athen stand die Mathematik hoch im Kurs. Platon schätzte sie sehr, da sie dazu diente, wahres Wissen erlangen zu können. Die griechische Mathematik entwickelte sich danach zu einer beweisenden Wissenschaft. Aristoteles formulierte die Grundlagen der Aussagenlogik. Eudoxos von Knidos schuf mit der Exhaustionsmethode zum ersten Mal eine rudimentäre Form der Infinitesimalrechnung. Wegen des Fehlens von reellen Zahlen und Grenzwerten war diese Methode allerdings recht unhandlich. Archimedes erweiterte diese und berechnete damit unter anderem eine Näherung für die Kreiszahl π. Euklid fasste in seinem Lehrbuch "Elemente" einen Großteil der damals bekannten Mathematik (Geometrie und Zahlentheorie) zusammen. Unter anderem wird darin bewiesen, dass es unendlich viele Primzahlen gibt. Dieses Werk gilt als Musterbeispiel für mathematisches Beweisen: aus wenigen Vorgaben werden alle Ergebnisse in einer Strenge hergeleitet, die es zuvor nicht gegeben haben soll. Euklids „Elemente“ wird auch noch heute nach über 2000 Jahren als Lehrbuch verwendet. Im Gegensatz zu den Griechen befassten sich die antiken Römer kaum mit Mathematik. Bis zur Spätantike blieb die Mathematik weitgehend eine Domäne der griechischsprachigen Bewohner des Reichs, der Schwerpunkt mathematischer Forschung lag in römischer Zeit auf Sizilien und in Nordafrika, dort vor allem in Alexandria. Die letzte, namentlich bekannte Mathematikerin in Alexandria war Hypatia, die 415 von einem christlichen Pöbel hingerichtet wurde. China. Das erste noch erhaltene Lehrbuch chinesischer Mathematik ist das "Zhoubi suanjing". Es wurde während der Han-Dynastie, zwischen 206 v. Chr. bis 220 n. Chr., von Liu Hui ergänzt, da infolge der Bücher- und Urkundenverbrennungen während der Qin-Dynastie die meisten mathematischen Aufzeichnungen zerstört waren und "aus dem Gedächtnis heraus wieder aufgeschrieben" wurden. Die mathematischen Erkenntnisse werden bis in das 18. Jahrhundert v. Chr. datiert. Es folgten später bis 1270 n. Chr. weitere Ergänzungen. Es enthält außerdem einen Dialog über den Kalender zwischen Zhou Gong Dan, dem Herzog von Zhou, und dem Minister Shang Gao. Fast genauso alt ist „Jiuzhang Suanshu“ („Neun Kapitel über mathematische Kunst“), welches 246 Aufgaben über verschiedene Bereiche enthält; unter anderem ist darin auch der Satz des Pythagoras zu finden, jedoch ohne jegliche Beweisführung. Die Chinesen verwandten ein dezimales Stellenwertsystem aus waagerechten und senkrechten Strichen (Suan Zi, "Rechnen mit Pfählen" genannt) geschrieben; um 300 n. Chr. errechnete Liu Hui über ein 3072-Eck die Zahl 3,14159 als Näherung für π. Den Höhepunkt erreichte die chinesische Mathematik im 13. Jahrhundert. Der bedeutendste Mathematiker dieser Zeit war Zhu Shijie mit seinem Lehrbuch "Siyuan Yujian" („Kostbarer Spiegel der vier Elemente“), das algebraische Gleichungssysteme und algebraische Gleichungen vierzehnten Grades behandelte und diese durch eine Art Hornerverfahren löste. Nach dieser Periode kam es zu einem jähen Abbruch der Mathematik in China. Um 1600 griffen Japaner die Kenntnisse in der Wasan (Japanische Mathematik) auf. Ihr bedeutendster Mathematiker war Seki Takakazu (um 1700). Mathematik wird als geheime Tempelwissenschaft betrieben. Indien. Datierungen sind, dem Bonmot des Indologen W. D. Whitney zufolge, in der gesamten indischen Geschichte außerordentlich problematisch. Die ältesten Andeutungen über geometrische Regeln zum Opferaltarbau finden sich bereits im Rig Veda. Doch erst mehrere Jahrhunderte später entstanden (d. h. wurden kanonisiert) die Sulbasutras („Seilregeln“, geometrische Methoden zur Konstruktion von Opferaltären) und weitere Lehrtexte wie beispielsweise die Silpa Sastras (Regeln zum Tempelbau) usw. Möglicherweise halbwegs verlässlich datiert auf etwa um 500 n. Chr. das Aryabhatiya und verschiedene weitere „Siddhantas“ („Systeme“, hauptsächlich astronomische Aufgaben). Die Inder entwickelten das uns vertraute dezimale Positionssystem, d. h. die Polynomschreibweise zur Basis 10 sowie dazugehörende Rechenregeln. "Schriftliches Multiplizieren" in babylonischer, ägyptischer oder römischer Zahlnotation war außerordentlich kompliziert und arbeitete mittels Substitution; d. h. mit vielen auf die Notation bezogenen Zerlegungs- und Zusammenfassungsregeln, während sich in indischen Texten viele „elegante“ und einfache Verfahren beispielsweise auch schon zum "schriftlichen Wurzelziehen" finden. Unsere Zahlzeichen (Indische Ziffern) für die Dezimalziffern leiten sich direkt aus der indischen Devanagari ab. Die früheste Verwendung der Ziffer 0 wird auf etwa 400 n. Chr. datiert; Aryabhata um 500 und Bhaskara um 600 verwendeten sie jedenfalls bereits ohne Scheu, sein Zeitgenosse Brahmagupta rechnete sogar mit ihr als Zahl und kannte negative Zahlen. Die Benennung der Zahlzeichen in verschiedenen Kulturen ist uneinheitlich: Die Araber nennen diese (adoptierten Devanagari-) Ziffern "indische Zahlen", die Europäer auf Grundlage der mittelalterlichen Rezeptionsgeschichte "arabische Zahlen" und die Japaner aus analogem Grund "Romaji", d. h. lateinische oder römische Zeichen (zusammen mit dem lat. Alphabet). Unter „römischen Zahlen“ verstehen Europäer wiederum etwas anderes. Mit der Ausbreitung des Islams nach Osten übernahm um etwa 1000 bis spätestens 1200 die muslimische Welt viele der indischen Erkenntnisse, islamische Wissenschaftler übersetzten indische Werke ins Arabische, die über diesen Weg auch nach Europa gelangten. Ein Buch des persischen Mathematikers Muhammad ibn Musa Chwarizmi wurde im 12. Jahrhundert in Spanien ins Latein übersetzt. Die indischen Ziffern („figurae Indorum“) wurden zuerst von italienischen Kaufleuten verwendet. Um 1500 waren sie auf dem Gebiet des heutigen Deutschland bekannt. Andere bedeutende Mathematiker waren Brahmagupta (598 – 668) und Bhaskara II (1114 – 1185). Mathematik im islamischen Mittelalter. In der islamischen Welt bildete für die Mathematik die Hauptstadt Bagdad das Zentrum der Wissenschaft. Die muslimischen Mathematiker übernahmen die indische Positionsarithmetik und den Sinus und entwickelten die griechische und indische Trigonometrie weiter, ergänzten die griechische Geometrie und übersetzten und kommentierten die mathematischen Werke der Griechen. Die bedeutendste mathematische Leistung der Muslime ist die Begründung der heutigen Algebra. Diese Kenntnisse gelangten über Spanien, die Kreuzzüge und den italienischen Seehandel nach Europa. Beispielsweise in der Übersetzerschule von Toledo wurden viele der arabischen Schriften ins Lateinische übertragen. Mathematik der Maya. Die einzige schriftliche Überlieferung der Mathematik der Maya stammt aus dem Dresdner Kodex. Das Zahlensystem der Maya beruht auf der Basis 20. Als Grund dafür wird vermutet, dass die Vorfahren der Maya mit Fingern und Zehen zählten. Die Maya kannten die Zahl 0, aber verwendeten keine Brüche. Für die Darstellung von Zahlen verwendeten sie Punkte, Striche und Kreise, die für die Ziffern 1, 5 und 0 standen. Die Mathematik der Maya war hochentwickelt, vergleichbar mit den Hochkulturen im Orient. Sie verwendeten sie zur Kalenderberechnung und für die Astronomie. Der Maya-Kalender war der genaueste seiner Zeit. Mathematik im Mittelalter. Das Mittelalter als Epoche der europäischen Geschichte begann etwa mit dem Ende des römischen Reiches und dauerte bis zur Renaissance. Die Geschichte dieser Zeit war bestimmt durch die Völkerwanderung und den Aufstieg des Christentums in Westeuropa. Der Niedergang des römischen Reiches führte zu einem Vakuum, das in Westeuropa erst durch den Aufstieg des Frankenreiches kompensiert wurde. Im Zuge der Gestaltung einer neuen politischen Ordnung durch die Franken kam es zu der sogenannten karolingischen Renaissance. Das Wissen des Altertums wurde zunächst in Klöstern bewahrt. Klosterschulen wurden im späteren Mittelalter von Universitäten als Zentren der Gelehrsamkeit abgelöst. Eine wichtige Bereicherung der westeuropäischen Kultur erfolgte unter dem Einfluss der arabischen Tradition, indem die arabische Überlieferung und Weiterentwicklung griechischer Mathematik, Medizin und Philosophie sowie die arabische Adaption indischer Mathematik und Ziffernschreibung auf dem Weg von Übersetzungen ins Lateinische im Westen bekannt wurden. Die Kontakte zu arabischen Gelehrten und deren Schriften ergaben sich einerseits als Folge der Kreuzzüge in den Vorderen Orient und andererseits durch die Kontakte mit den Arabern in Spanien und Sizilien, hinzu kamen Handelskontakte besonders der Italiener im Mittelmeerraum, denen zum Beispiel auch Leonardo da Pisa („Fibonacci“) einige seiner mathematischen Kenntnisse verdankte. Aufstieg der Klosterschulen. Bekannt sind folgende in Klöstern entstandenen Rechenbücher: Aufgaben zur Schärfung des Geistes Jugendlicher (um 800) (früher Alkuin von York zugeschrieben), die Aufgaben aus den Annales Stadenses (Kloster Stade) (um 1180) und die Practica des Algorismus Ratisbonensis (Kloster Emmeran Regensburg) (um 1450). Berechnung des Ostertermins. Die Berechnung des Termins für das Osterfest, das wichtigste Fest des Christentums, spielte im Mittelalter eine große Rolle für die Weiterentwicklung der Mathematik. Karl der Große verfügte, dass sich in jedem Kloster ein Mönch mit der Komputistik befasste. Dadurch sollte das Wissen um die Berechnung des Osterdatums sichergestellt werden. Die genaue Berechnung des Termines und die Entwicklung des modernen Kalenders wurde durch diese Mönche weiterentwickelt, die Grundlagen übernahm das Mittelalter von Dionysius Exiguus (ca. 470 bis ca. 540) und Beda Venerabilis (ca. 673–735). Im Jahre 1171 publizierte Reinher von Paderborn eine verbesserte Methode zur Berechnung des Osterdatums. Universitäten. Die frühmittelalterlichen Klosterschulen wurden erst im weiteren Verlauf des Mittelalters ergänzt durch die Kathedralschulen, die Schulen der beiden Bettelorden und die Universitäten. Sie waren deshalb zunächst die einzigen Träger des antiken Kulturerbes, indem sie für die Abschrift und Verbreitung der antiken Werke sorgten. Die Abschrift, Kommentierung und kompilierende Aufbereitung des Lehrguts blieb lange Zeit die einzige Form der Auseinandersetzung mit den Themen der Mathematik. Erst im Hochmittelalter entwickelte sich die in Ansätzen kritischere Methode der Scholastik, mit der Lehrmeinungen in ihrem pro und contra auf Widersprüche überprüft und diese nach Möglichkeit in Übereinstimmung mit den als grundlegend erachteten Standpunkten der kirchlichen und antiken Autoritäten aufgelöst wurden. Diese Methode wird ab dem 12. Jahrhundert auf die Darstellungen der antiken Wissenschaft angewendet, insbesondere die des Aristoteles. Im 12. Jahrhundert werden die Universitäten Paris und Oxford zum europäischen Zentrum der wissenschaftlichen Aktivitäten. Robert Grosseteste (1168–1253) und sein Schüler Roger Bacon (1214–1292) entwerfen ein neues Wissenschaftsparadigma. Nicht die Berufung auf kirchliche oder antike Autoritäten, sondern das Experiment soll die Bewertung der Korrektheit maßgeblich bestimmen. Roger Bacon wurde von Papst Clemens IV. im Jahre 1266 aufgefordert, ihm seine Ansichten und Vorschläge zur Behebung der Missstände in der Wissenschaft mitzuteilen. Bacon verfasste als Antwort mehrere Bücher, darunter sein Opus Maius. Bacon weist auf die Bedeutung der Mathematik als Schlüssel zur Wissenschaft hin; er befasste sich insbesondere mit der Geometrie angewendet auf die Optik. Unglücklicherweise starb der Papst, bevor ihn das Buch erreichte. Ein weiterer wichtiger Beitrag Bacons betrifft die Kalenderreform, die er einforderte, die allerdings dann erst im Jahre 1582 als Gregorianische Kalenderreform durchgeführt wurde. Eine wichtige methodische Entwicklung in der Wissenschaft war die Quantifizierung von Qualitäten als Schlüssel für die quantitative Beschreibung von Vorgängen. Nikolaus von Oresme (1323–1382) war einer der Ersten, die sich weitergehend auch mit der Veränderung der Intensitäten beschäftigten. Oresme untersuchte verschiedene Formen der Bewegung. Er entwickelte eine Art funktionale Beschreibung, indem er Geschwindigkeit gegen Zeit auftrug. Er klassifizierte die unterschiedlichen Formen der Bewegungen und suchte nach funktionalen Zusammenhängen. Nikolaus von Kues (Nikolaus Cusanus) Oresme, aber auch Thomas Bradwardine (1295–1349), Wilhelm von Ockham (1288–1348), Johannes Buridan (ca. 1300 bis ca. 1361) und andere Gelehrte des Merton College untersuchten die funktionale Beschreibung der Zusammenhänge von Geschwindigkeit, Kraft, Ort, kurzum: sie beschäftigten sich mit Kinetik. Es wurden auch methodisch wichtige Fortschritte erzielt. Grosseteste formulierte das Prinzip der Uniformität der Natur, demzufolge Körper gleicher Beschaffenheit sich unter gleichen Bedingungen auf gleiche Weise verhalten. Hier wird deutlich, dass schon damals den Gelehrten bewusst war, dass die Umstände, unter denen bestimmtes Verhalten betrachtet wird, zu kontrollieren sind, wenn Vergleiche angestellt werden sollen. Weiterhin formulierte er das Prinzip der Ökonomie der Beschreibung, nach dem unter gleichen Umständen diejenige Argumentation vorzuziehen ist, die zum vollständigen Beweis weniger Fragen zu beantworten oder weniger Annahmen erfordert. William Ockham war einer der größten Logiker der damaligen Zeit, berühmt ist Ockhams Rasiermesser, ein Grundsatz, der besagt, dass eine Theorie immer so wenig Annahmen und Begrifflichkeiten wie möglich enthalten soll. Man darf nicht vergessen, dass die Gelehrten der damaligen Zeit oft auch Theologen waren. Die Beschäftigung mit religiösen Fragen wie z. B. der Allmacht Gottes führte sie zu Fragen des Unendlichen. In diesem Zusammenhang ist Nikolaus von Kues (Nikolaus Cusanus) (1401–1464) zu nennen, der als einer der ersten, noch vor Galilei oder Giordano Bruno, die Unendlichkeit der Welt beschrieben hat. Sein Prinzip der coincidentia oppositorum zeugt von einer tiefgehenden philosophischen Beschäftigung mit dem Thema Unendlichkeit. Praktische Mathematik. Gegen Ende des Mittelalters entstanden die Kathedralen Europas, deren Bau ganz neue Anforderungen an die Beherrschung der Statik stellte und zu technologischen Höchstleistungen auf diesem Gebiet herausforderte. In diesem Zusammenhang wurden auch immer wieder geometrische Probleme behandelt. Ein wichtiges Lehrbuch, das die Architektur behandelt, ist das Bauhütten­buch von Villard de Honnecourt. In späterer Zeit befasste sich auch Albrecht Dürer mit dieser Thematik. Im Bereich der Vermessungsgeometrie wurden während des gesamten Mittelalters stetige Fortschritte erzielt, besonders zu nennen sind hier im 11. Jahrhundert die Geometrie der Geodäten zurückgehend auf ein Buch des Boëthius, im 12. Jahrhundert die eher konventionelle "Geometria practica" von Hugo von St. Victor (1096–1141). Im 13. Jahrhundert wurde von Levi ben Gershon (1288–1344) ein neues Vermessungsgerät beschrieben, der sogenannte Jakobsstab. Beginn der Geldwirtschaft. Leonardo da Pisa (Fibonacci), Fantasieporträt Mit dem Beginn einer Wirtschaft, die nicht auf Warentausch, sondern auf Geld basiert, entstanden neue Anwendungsgebiete der Mathematik. Dies gilt insbesondere für Italien, das zur damaligen Zeit ein Umschlagplatz für Waren von und nach Europa war, und dessen damals führende Rolle im Finanz- und Bankwesen sich noch heute in der Verwendung von Wörtern wie „Konto“, „brutto“ und „netto“ auswirkt. In diesem Zusammenhang ist besonders Leonardo da Pisa, genannt Fibonacci, und sein "Liber abbaci" zu nennen, der nichts mit dem Abacus als Rechenbrett zu tun hat, sondern gemäß einem zu dieser Zeit in Italien aufkommenden Sprachgebrauch das Wort abacus oder „abbacco“ als Synonym für Mathematik und Rechnen verwendet. In der Mathematik Fibonaccis vollzog sich eine für das Mittelalter singuläre Synthese aus kaufmännischem Rechnen, traditioneller griechisch-lateinischer Mathematik und neuen Methoden der arabischen und (arabisch vermittelten) indischen Mathematik. Mathematisch weniger anspruchsvoll, dafür mehr an den praktischen Erfordernissen von Bank- und Kaufleuten ausgerichtet, waren die zahlreichen Rechenbücher, die als Lehrbücher zur praktischen und merkantilen Arithmetik seit dem 14. Jahrhundert in italienischer Sprache verfasst wurden. Mathematik der frühen Neuzeit. Im Zuge der Reconquista werden die Mauren aus Europa vertrieben. Ihre Mathematik lassen sie zurück und sie beeinflusst in der Folge die europäische Mathematik grundlegend. Begriffe wie Algebra, Algorithmus sowie die arabischen Ziffern gehen darauf zurück. In Deutschland erklärte der sprichwörtliche Adam Ries(e) seinen Landsleuten in der Landessprache das Rechnen, und die Verwendung der indischen Ziffern statt der unpraktischen römischen wurde populär. In Frankreich entdeckte René Descartes, dass man Geometrie, die bis dahin nach Euklid gelehrt wurde, auch mit Zahlen beschreiben kann. Alles, was dazu nötig ist, sind zwei Linien, die einen rechten Winkel miteinander bilden sowie eine Länge „1“ (Normierung) und eine allgemeine Länge „a“. Dann kann man bei affinen Abbildungen, z. B. zentrischen Streckungen, alle Größen algebraisch, also wie mit Zahlen, berechnen. Das kartesische Koordinatensystem stammt in seiner heutigen Form von Leonhard Euler. Eine damals neue Idee im Briefwechsel zwischen Blaise Pascal und Pierre de Fermat im Jahr 1654 führte zur Lösung eines alten Problems, für das es schon andere, allerdings umstrittene Lösungsvorschläge gab. Der Briefwechsel wird als Geburt der klassischen Wahrscheinlichkeitsrechnung angesehen. Die neuen Ideen und Verfahren erobern viele Bereiche. Aber über Jahrhunderte hinweg kommt es zur Aufspaltung der klassischen Wahrscheinlichkeitstheorie in separate Schulen. Versuche, den Begriff "Wahrscheinlichkeit" explizit zu definieren, gelingen nur für Spezialfälle. Erst das Erscheinen von Andrei Kolmogorows Lehrbuch "Grundbegriffe der Wahrscheinlichkeitsrechnung" im Jahr 1933 schließt die Entwicklung der Fundamente moderner Wahrscheinlichkeitstheorie ab. Blaise Pascal fand den Zusammenhang der Binomialkoeffizienten (Pascalsches Dreieck) und definierte die Negative Binomialverteilung (Pascal-Verteilung). Vieta verwendete als erster Mathematiker Variablen. Damit wurde die Algebra weiter formalisiert. Pierre de Fermat fand neben seinem Beruf als Richter wichtige Resultate in der Zahlentheorie, insbesondere den „kleinen Fermatschen Satz“ und formulierte den „großen Fermatschen Satz“. Er behauptete, dass die Gleichung formula_3 keine positiven ganzzahligen Lösungen hat, falls formula_4. Am Rand seiner Ausgabe der „Arithmetica“ von Diophant von Alexandrien schrieb er dazu den Satz: „Ich habe einen wunderbaren Beweis gefunden, doch leider ist dafür der Rand zu schmal“. 400 Jahre suchten Mathematiker vergeblich nach diesem angeblichen Beweis. Erst im Jahre 1995 gelang dem britischen Mathematiker Andrew Wiles nach jahrelanger geheimer Arbeit der Beweis für das Fermat-Problem (Fermats letzter Satz). Man nimmt heute an, Fermat habe einen Beweis für einen Spezialfall gefunden, von dem er glaubte, ihn verallgemeinern zu können. In Italien fanden Cardano und Tartaglia die Formel für die Lösungen der kubischen algebraischen Gleichung. Galileo Galilei entdeckte, dass sich Kräfte wie Vektoren verhalten; damit wurde die Vektorrechnung zusammen mit den kartesischen Koordinaten ein wichtiger Teil der Physik. Entwicklung der Infinitesimalrechnung. Unabhängig voneinander entwickelten Isaac Newton und Leibniz eine der weitreichendsten Entdeckungen der Mathematik, die Infinitesimalrechnung und damit den Begriff der Ableitung. Newton beschrieb damit in seinem Hauptwerk "Philosophiae Naturalis Principia Mathematica" seine grundlegenden Gleichungen der Physik. Um der Problematik der unendlich kleinen Größen beizukommen, argumentierte er dabei hauptsächlich über Geschwindigkeiten. Leibniz ging einen philosophischeren Weg, er postulierte seine Monaden und kam damit zur Differentialrechnung. Er erfand auch den eigentlichen Infinitesimalkalkül und die Bezeichnungen formula_5 und das Zeichen für das Integralformula_6. Zwischen den beiden und ihren Schülern kam es später zu einem langwierigen Prioritätsstreit. Letztendlich erwies sich die Leibnizsche Symbolik als dauerhafter. Mit der Infinitesimalrechnung war die Analysis begründet. Zusammen mit den Newtonschen Gleichungen konnte bald die gesamte Mechanik und Astronomie mit mathematischen Mitteln behandelt werden. Mathematik im 18. Jahrhundert. Die Methoden der Infinitesimalrechnung wurden weiter entwickelt, auch wenn ihre Grundlagen auf tönernen Füßen stünden, wie einige Philosophen, zum Beispiel George Berkeley, scharf kritisieren. Einer der produktivsten Mathematiker jener Zeit war der Schweizer Leonhard Euler. Ein Großteil der heute verwendeten „modernen“ Symbolik geht auf Euler zurück. Neben seinen Beiträgen zur Analysis führte er, neben vielen anderen Verbesserungen in der Notation, als erster das Symbol i als eine Lösung der Gleichung x2 = −1 ein. Auch wenn sich niemand eine Zahl vorstellen konnte, deren Quadrat negativ ist, wird die Verwendung dieser Größe populär. Die komplexen Zahlen halten Einzug in die Mathematik. Außerdem spekulierte Euler darüber, wie eine „Analysis situs“ aussehen könnte, also die Beschreibung von Objekten ohne Verwendung von genauen Längen. Diese Idee wurde schließlich zum Theoriegebäude der Topologie ausgebaut. Eulers erster Beitrag dazu war die Lösung des Königsberger Brückenproblems und sein Polyedersatz. Ein weiterer fundamentaler Zusammenhang zwischen zwei entfernten Gebieten der Mathematik, der Analysis und der Zahlentheorie geht ebenfalls auf ihn zurück. Die Verbindung von bestimmten Potenzreihen und Primzahlen, die Bernhard Riemann unter anderem in der Riemannschen Vermutung verwendet, entdeckte Euler als Erster. Weitere Beiträge zur Analysis der Zeit stammten von den Bernoullis, auf französischer Seite von Blaise Pascal, Fourier, Laplace, Lagrange, D'Alembert, wo viele bedeutende Mathematiker von der Pariser Universität angezogen wurden. In England wurden von Thomas Bayes wichtige Grundlagen der Wahrscheinlichkeitstheorie gelegt. Mathematik im 19. Jahrhundert. Ab dem 19. Jahrhundert wurden die Grundlagen der mathematischen Begriffe hinterfragt und fundiert. Augustin-Louis Cauchy begründete die formula_7-Definition des Grenzwertes. Außerdem legte er die Grundlagen der Funktionentheorie. Die Verwendung komplexer Zahlen wurde von Dedekind und Kronecker algebraisch fundiert. Der Legende nach schrieb der Franzose Évariste Galois am Vorabend eines für ihn tödlich verlaufenen Duells seine Galoistheorie nieder. Damit war er der erste Vertreter der Gruppentheorie. Zu seiner Zeit von wenigen verstanden, wurde diese ein mächtiges Hilfsmittel in der Algebra. Mit Hilfe der Galoistheorie wurden die drei klassischen Probleme der Antike als nicht lösbar erkannt, nämlich die Dreiteilung des Winkels, die Verdoppelung des Würfels und die Quadratur des Kreises. Die Algebraiker erkannten, dass man nicht nur mit Zahlen rechnen kann; alles, was man braucht, sind Verknüpfungen. Diese Idee wurde in Gruppen, Ringen und Körpern formalisiert. Der Norweger Sophus Lie untersuchte die Eigenschaften von Symmetrien. Durch seine Theorie wurden algebraische Ideen in die Analysis und Physik eingeführt. Die modernen Quantenfeldtheorien beruhen im Wesentlichen auf Symmetriegruppen. In Göttingen wirkten zwei der einflussreichsten Mathematiker der Zeit, Carl Friedrich Gauß und Bernhard Riemann. Neben fundamentalen Erkenntnissen in der Analysis, Zahlentheorie, Funktionentheorie schufen sie und andere die Differentialgeometrie – Geometrie wurde mit analytischen Methoden beschrieben. Auch wurde dank ihres Mitwirkens zum ersten Mal Euklids Geometrie neu überarbeitet: die Nichteuklidische Geometrie entstand. Georg Cantor überraschte mit der Erkenntnis, dass es mehr als eine „Unendlichkeit“ geben kann. Er definierte zum ersten Mal, was eine Menge ist, und wurde somit der Gründer der Mengenlehre. Nach Tausenden von Jahren erfuhr die Logik eine Runderneuerung. Gottlob Frege erfand die Prädikatenlogik, die erste Neuerung auf diesem Gebiet seit Aristoteles. Zugleich bedeuteten seine Arbeiten den Anfang der Grundlagenkrise der Mathematik. Moderne Mathematik. Die moderne Mathematik entsteht aus dem Bedürfnis, die Grundlagen dieser Wissenschaft ein für alle Mal zu festigen. Allerdings beginnt alles mit einer Krise anfangs des 20. Jahrhunderts: Bertrand Russell erkennt die Bedeutung von Freges Arbeiten. Gleichzeitig entdeckt er allerdings auch unlösbare Widersprüche darin (Russellsche Antinomie). Diese Erkenntnis erschüttert die gesamte Mathematik. Falls es nur einen einzigen widersprüchlichen Satz in der Mathematik gibt, fällt die ganze Wissenschaft wie ein Kartenhaus zusammen. Sollte der Packesel Mathematik, der so viele gute Dienste geleistet hat, unter Cantors Unendlichkeiten erdrückt werden? Eine Zeit lang schien eine Lösung im Intuitionismus Brouwers nahezuliegen. Aber die zunächst sehr interessierten Mathematiker wandten sich schnell von dieser philosophischen Richtung ab. Mehrere Versuche zur Rettung werden gemacht: Russell und Alfred North Whitehead versuchen in ihrem mehrtausendseitigen Werk "„Principia Mathematica“" mit Hilfe der Typentheorie ein Fundament aufzubauen. Alternativ dazu begründen Ernst Zermelo und Abraham Fraenkel die Mengenlehre axiomatisch (Zermelo-Fraenkel-Mengenlehre). Letztere setzt sich durch, weil ihre wenigen Axiome wesentlich handlicher sind als die schweren "„Principia Mathematica“". a>, Foto aus dem Jahr 1886 Der Zweifel an den Grundlagen bleibt aber bestehen. Es bedurfte eines Geistesriesen, um den (scheinbaren) Ausweg aus der Situation zu finden. Dieser kam in Gestalt von David Hilbert, von dem gesagt wird, dass er der Letzte war, der die gesamte Mathematik überblicken konnte. Seine Idee – um die Mathematik wasserdicht zu machen – war, das mathematische Beweisen selbst mit Hilfe der Mathematik zu untersuchen. Schließlich waren Beweise nur eine Folge von Symbolen mit vorgegebenen Verknüpfungen, und Symbole und Verknüpfungen kann man mit mathematischen Methoden behandeln. Es konnte wieder Hoffnung aufkommen. Diese wurde jedoch jäh von Kurt Gödel zerstört. Sein Unvollständigkeitssatz zeigt, dass nicht jeder wahre Satz bewiesen werden kann. Dies war wahrscheinlich eine der wichtigsten Erkenntnisse in der Mathematik. Damit schien der Traum, eine umfassende Widerspruchsfreiheit zu finden, zunächst ausgeträumt. Allerdings konnten Mathematiker und Logiker wie Gerhard Gentzen und Paul Lorenzen zeigen, dass eine konstruktive Mathematik und Logik durchaus widerspruchsfrei ist. Allerdings muss dort auf einen Teil des Satzbestandes der Mathematik verzichtet werden. Für manche rationalitätskritische Philosophen war die Erkenntnis Gödels aber die Bestätigung ihrer Ansicht, dass der Rationalismus gescheitert sei. Andererseits kann man sich fragen, ob eine Theorie, die ihre eigenen Grenzen erkennt, nicht mächtiger ist als eine, die das nicht kann. Neben der Logik wird die Mathematik zunehmend abstrahiert. Die polnische Schule unter ihrer Leitfigur Stefan Banach begründet die Funktionalanalysis. Mit Hilfe der Banachräume und ihrer Dualitäten können viele Probleme, zum Beispiel der Integralgleichungen, sehr elegant gelöst werden. Aber auch hier - sowie in den Querbeziehungen z. B. zur Theoretischen Physik - sind letztlich Hilbert'sche Erkenntnisse grundlegend. Andrei Kolmogorow liefert eine axiomatische Begründung der Wahrscheinlichkeit. Die Wahrscheinlichkeit ist für ihn ähnlich dem Flächeninhalt und kann mit Methoden der Maßtheorie behandelt werden. Damit ist auch dieses Feld logisch einwandfrei (siehe auch: Geschichte der Wahrscheinlichkeitsrechnung). In der ersten Hälfte des 20. Jahrhunderts werden alle Teilgebiete der Mathematik in mengentheoretischer Sprache formuliert und auf axiomatische Grundlagen gestellt. Einen Höhepunkt erreichen Abstraktion und Formalisierung im Schaffen des Autorenkollektivs Nicolas Bourbaki. Im Zweiten Weltkrieg entsteht großer Bedarf an der Lösung konkreter mathematischer Probleme, beispielsweise bei der Entwicklung der Atombombe oder der Entschlüsselung von Codes. John von Neumann, Alan Turing und andere entwickeln deshalb ein abstraktes Konzept einer universalen Rechenmaschine. Zuerst nur auf dem Papier, werden diese Ideen bald in Hardware gegossen und der Computer hält Einzug in die Mathematik. Dies führt zu einer dramatischen Weiterentwicklung der numerischen Mathematik. Mit Hilfe des Computers können nun komplexe Probleme, die per Hand nicht zu lösen waren, relativ schnell berechnet werden. Bedeutend in der zweiten Hälfte des 20. Jahrhunderts ist die völlige Revolutionierung der algebraischen Geometrie durch Arbeiten Alexander Grothendiecks, sowie – teilweise damit einhergehend – die Entwicklung der Kategorientheorie. Beide bieten neue Ansätze und Denkweisen, die in weiten Teilen der Mathematik wirksam geworden sind. Die Kategorientheorie bietet dabei eine Alternative zur Mengenlehre als Theorie der grundlegenden Strukturen. 1995 kann schließlich Andrew Wiles den Satz von Fermat beweisen. Fermats Aussage, dass der Rand einer Buchseite zu schmal für einen Beweis sei, bestätigt sich: Wiles' Beweis ist über 100 Seiten lang, und er braucht Hilfsmittel, die weit über den mathematischen Erkenntnisstand zu Fermats Zeiten hinausgehen. Geologische Zeitskala. Die geologische Zeitskala ist eine hierarchische Unterteilung der Erdgeschichte. Sowohl die Hierarchie-Ebenen als auch die Zeitabschnitte sind benannt. Die feiner unterteilenden Ebenen reichen nicht bis zur Entstehung der Erde zurück. Die Unterteilung der älteren Zeitalter erfolgt ausschließlich anhand tektonischer Phasen. Mit Beginn des Phanerozoikums („Zeitalter des sichtbaren [tierischen] Lebens“) vor 541 Millionen Jahren setzt der kontinuierliche Fossilbericht ein, der mit den Methoden der Biostratigraphie eine differenziertere Einteilung ermöglicht. Die Grenzen der Zeitabschnitte werden mit den Methoden der Geochronologie, hauptsächlich radiometrisch, mit einem absoluten (numerischen) Alter belegt. Konventionell wird die zeitliche Abfolge von unten nach oben dargestellt, so wie die Serien der Sedimentgesteine innerhalb eines idealisierten, tektonisch ungestörten Gesteinsprofils anzutreffen sind. Eine international verbindliche Einteilung der geologischen Zeitskala wird von der International Commission on Stratigraphy (ICS) vorgenommen. Die Tabelle rechts zeigt die stratigraphischen Einheiten nach ICS-Standard in kompakter, nicht maßstäblicher Darstellung (die Einheiten der beiden untersten Hierarchieebenen sind nicht mit enthalten). Eine ausführlich kommentierte Tabelle ist hier zu finden. Duale Nomenklatur . Die Erdgeschichte überspannt einen gigantischen Zeitraum, der in hierarchisch strukturierte Intervalle unterteilt wird. In der von der Internationalen Kommission für Stratigraphie (ICS) festgelegten globalen Standard-Zeitskala, an der sich alle anderen globalen Skalen orientieren, folgt die hierarchische Gliederung zwei parallel verwendeten und einander relativ ähnlichen Konzepten: der Geochronologie und der Chronostratigraphie. Die geochronologische Gliederung bezieht sich ausschließlich auf die "Zeitabschnitte" der Erdgeschichte („Erdzeitalter“, geologische Zeit). Die Chronostratigraphie bezieht sich hingegen auf die "geologische Überlieferung", das heißt auf die Gesamtheit oder eine bestimmte Teilmenge der "Gesteine", die aus einem solchen Zeitabschnitt überliefert sind. Das geochronologische und das chronostratigraphische Konzept unterscheiden sich nomenklatorisch nur in der Benennung der Hierarchieebenen. Der nicht exakt definierte, allgemeinsprachlich oder in populärwissenschaftlichem Zusammenhang gebräuchliche Begriff Erdzeitalter steht meist für einen größeren Zeitabschnitt der Erdgeschichte. In der Regel bezieht er sich auf die Ären und Perioden der geologischen Zeitskala und damit auf Intervalle von mindestens zwei, meist jedoch zwischen 40 und 250 Millionen Jahren. Die Namen der Intervalle sind in beiden Konzepten identisch. Beispiel zur Veranschaulichung: Die Aussage „"Im Devon lebten die ersten Landwirbeltiere"“ bezieht sich auf die geologische Zeit und das geochronologische Konzept des Intervalls "Devon" (Periode). Die Aussage „"Im Devon Grönlands wurden zahlreiche Überreste früher Landwirbeltiere gefunden"“ bezieht sich auf die geologische Überlieferung und das chronostratigraphische Konzept des Intervalls "Devon" (System). Im letztgenannten Fall könnte man den Namen des Zeitabschnittes auch durch die Nennung einer oder mehrerer lithostratigraphischer Einheiten ersetzen („"In der [devonischen] Britta-Dal-Formation Grönlands wurden zahlreiche Überreste früher Landwirbeltiere gefunden"“) und eine Präzisierung der stratigraphischen Angabe „Devon“ ist mittels der Attribute „oberes“ bzw. „unteres“ vorzunehmen („"Im oberen Devon Grönlands wurden zahlreiche Überreste früher Landwirbeltiere gefunden"“ bzw. "In der oberdevonischen Britta-Dal-Formation Grönlands wurden [...]"“). Bei Nutzung des geochronologischen Konzeptes eines Intervalls ist die Präzisierung mittels der Attribute „frühes“ bzw. „spätes“ vorzunehmen („"Im späten Devon lebten die ersten Landwirbeltiere"“). Beide Konzepte sind eng miteinander verknüpft, denn absolute (numerische) Alters- bzw. Zeitangaben können nur aus geologisch überliefertem Material gewonnen werden, im Regelfall durch radiometrische Datierung. Eine strikte Trennung von Geochronologie und Chronostratigraphie wird in der Praxis daher nur selten durchgehalten. Die aktuelle Version der Standard-Zeitskala der ICS trägt den Titel "International Chronostratigraphic Chart", obwohl im Tabellenkopf auch die Bezeichnungen für die geochronologischen Hierarchieebenen stehen. Regionale Skalen. In verschiedenen Regionen der Erde (Nordamerika, Westeuropa, Osteuropa, China, Australien) werden neben der globalen Standard-Zeitskala auch regionale Skalen verwendet. Diese unterscheiden sich voneinander und von der Standard-Zeitskala hinsichtlich der Benennung einiger Intervalle, meist der mittleren und unteren Hierarchieebenen, sowie hinsichtlich des absoluten (numerischen) Alters einiger Intervallgrenzen. Sie tragen damit Besonderheiten der geologischen Überlieferung in der entsprechenden Region Rechnung. Es handelt sich folglich um „rein“ chronostratigraphische Tabellen. Einzelne Abschnitte dieser regionalen Skalen können in subregionalem Maßstab wiederum voneinander abweichen. Beispielsweise sind für die Kaltzeiten des Pleistozäns von Nordamerika, der Norddeutschen Tiefebene und des Alpenraums unterschiedliche Bezeichnungen in Gebrauch und das Perm von Mitteleuropa, Dyas genannt, beginnt früher als das Perm der globalen Zeitskala und anderer regionaler Skalen. Definition der Einheitengrenzen. a>-Abfolge am Enorama Creek, South Australia) kennzeichnet. Oberhalb und links der Markierung sind Beprobungsstellen zu sehen. Die Grenzen der Einheiten bzw. Intervalle des Phanerozoikums sind primär meist anhand des Erscheinens (engl.: "first appearance date", FAD) oder Verschwindens (engl.: "last appearance date", LAD) bestimmter Tierarten im Fossilbericht (ein sogenanntes "Bioevent") definiert. Es handelt sich dabei stets um Überreste von Meeresorganismen, weil zum einen Meeressedimente, speziell Schelf­sedimente, in der geologischen Überlieferung wesentlich häufiger sind als festländische Sedimente, und zum anderen, weil Schelfsedimente im Schnitt deutlich fossilreicher sind als festländische Sedimente. Definiert ist jeweils immer nur die Basis, die Untergrenze, einer Einheit, und die Obergrenze ist identisch mit der Basis der nächstfolgenden. Neben den primären Markern sind die Einheiten zusätzlich durch sekundäre Marker definiert, die das Auffinden der Einheitengrenze in Sedimenten, die den Primärmarker fazies­bedingt (vgl. → Ablagerungsmilieu) nicht enthalten, ermöglichen soll. Neben Fossilien dienen auch geochemische und/oder magnetostratigraphische Anomalien als Marker. Für einen Großteil der Einheiten der geologischen Zeitskala im Rang einer Stufe wurden mittlerweile spezielle Aufschlüsse bestimmt, in deren Sedimentgesteinsschichten die entsprechend definierte Stufenuntergrenze mit dem Primärmarker und ggf. mehreren Sekundärmarkern enthalten und optisch („goldener Nagel“) gekennzeichnet ist. Dieses Referenzprofil wird Global Stratotype Section and Point (GSSP) genannt. Die Untergrenze einer höherrangigen Einheit (Serie, Periode usw.) wird durch die Untergrenze der untersten in ihr enthaltenen Stufe festgelegt. Die Untergrenze der Kreidezeit wird folglich definiert durch die gleichen Kriterien, die auch die Untergrenze des Berriasiums definieren. Im Laufe des 20. Jahrhunderts wurden Methoden entwickelt mit deren Hilfe es möglich wurde, bestimmte Gesteine, in der Regel magmatischen Ursprunges, absolut (numerisch) radiometrisch zu datieren. Aus dem Alter eines solcherart datierten Gesteins ergibt sich indirekt das absolute Mindest- oder Höchstalter auf- bzw. darunterlagernder fossilführender Sedimentgesteine, damit auch das ungefähre absolute Alter der darin enthaltenen Fossilien, und durch weltweit ausgiebige Beprobung schließlich auch das absolute Alter jener Fossilien, die die Grenzen der Einheiten der geologischen Zeitskala definieren. Entsprechend sind auch die absoluten Alter dieser Einheiten bekannt sowie die absoluten Zeitspannen, über die sie sich erstrecken. Die Zusammenfassung der Alter/Stufen zu Perioden/Systemen und dieser wiederum zu Ären/Ärathemen erfolgt aufgrund gemeinsamer Merkmale der Fossilüberlieferung in den Sedimentgesteinen dieser Einheiten. Die Grenzen höherrangiger Einheiten fallen daher oft mit bedeutenden Massenaussterben zusammen, in deren Folge sich die Zusammensetzung der fossilen Faunen deutlich und vor allem auf höheren taxonomischen Niveaus ändert. Die geologische Zeitskala bildet damit letztlich auch die Evolution ab. Die Einteilung des Präkambriums und damit des weitaus längsten Abschnittes der Erdgeschichte kann, mit Ausnahme des Ediacariums, hingegen nicht auf Grundlage von Fossilien erfolgen, weil es in diesen Gesteinen keine oder wenigstens keine brauchbaren Fossilien gibt. Stattdessen wird eine „künstliche“ Gliederung verwendet, die auf Mittelwerten radiometrisch ermittelter Altersdaten tektonischer Ruhephasen fußt. Diese auf volle 50 oder 100 Millionen Jahre gerundeten Werte werden "Global Standard Stratigraphic Age" (GSSA) genannt. Für die älteren Einheiten des Präkambriums wird die geologische Überlieferung mit zunehmendem Alter immer schlechter. Die seit Milliarden Jahren permanent ablaufende exogene und endogene Aufarbeitung („Recycling“) der Erdkruste (siehe → Gesteinskreislauf) hat einen Großteil dieser frühen Gesteine zerstört. Fast völlig unbekannt sind die Geschehnisse im Hadaikum, weil keine Gesteine, sondern nur einige wenige detritische Zirkone, eingeschlossen in jüngerem Gestein, aus dieser Zeit überliefert sind. Das Hadaikum ist die einzige Einheit der geologischen Zeitskala für die keine Basis definiert ist. Historie der geologischen Skalen. Der Engländer Adam Sedgwick prägte mehrere Namen chronostratigraphischer Einheiten, die heute noch in Gebrauch sind. Bereits im 17. Jahrhundert war durch die Arbeiten von Nicolaus Steno bekannt, dass Sedimentgesteine chronologisch geschichtet sind. Doch gab es keine Methode, die Zeiträume bzw. Zeitpunkte zu ermitteln, in bzw. zu denen eine Schicht abgelagert wurde. Fossilienfunde von Meeresbewohnern im Hochgebirge ließen auch frühzeitig den Schluss zu, dass die Erde nicht unveränderlich, sondern tiefgreifenden Umwälzungen unterzogen ist. Dieser Gedanke war seinerzeit jedoch für viele Zeitgenossen befremdlich, weil für das Alter der Erde noch weitgehend die biblische Schöpfungsgeschichte maßgeblich war (siehe u. a. →Ussher-Lightfoot-Kalender), wenngleich Naturforscher wie Georges Buffon oder James Hutton in der zweiten Hälfte des 18. Jahrhunderts aus ihren Forschungen ableiteten, dass die Erde wesentlich älter sein musste. Wie alt sie tatsächlich ist, war jedoch noch unbekannt, und eine Möglichkeit der Gliederung der geologischen Zeit gab es vorerst ebenfalls noch nicht. Frühe Paläontologen wie William Buckland und Georges Cuvier bereiten schließlich mit ihren systematischen Arbeiten den Weg für die Erkenntnis, dass Schichten mit gleichem Fossilinhalt zum gleichen Zeitpunkt in der Erdgeschichte entstanden sein müssen. Der Engländer William Smith erarbeitete Ende des 18./Anfang des 19. Jahrhunderts unter anderem auf dieser Grundlage eine stratigraphische Tabelle für seine geologische Karte Großbritanniens. Im Lauf des 19. Jahrhunderts entwickelte sich so allmählich die moderne Stratigraphie. Geologen überall in Europa und Nordamerika untersuchten, kategorisierten und korrelierten die Gesteinsschichten in ihren Ländern nach dem Vorbild William Smiths und veröffentlichten Karten, stratigraphische Tabellen und Abhandlungen mit den Ergebnissen ihrer Arbeit. So konnte die geologische Überlieferung verschiedener Länder und Regionen miteinander verglichen werden, und es reifte zügig die Erkenntnis, dass sich Schichten auch im überregionalen Maßstab korrelieren lassen. Für die jeweils korellierbaren Abfolgen (Intervalle) etablierten sich Namen, die ursprünglich für regionale Schichtenfolgen geprägt worden waren, beispielsweise von Jean Baptiste Julien d’Omalius d’Halloy das "Terrain Cretacé" (anglisiert "Cretaceous", eingedeutscht "Kreide") für bestimmte Schichten des Pariser Beckens, die in ähnlicher Ausbildung mit ähnlichem Fossilinhalt u. a. auch in anderen Regionen Frankreichs, in England, den Niederlanden, Deutschland, Polen und Dänemark bereits bekannt waren oder nachträglich identifiziert wurden. Adam Sedgwick und John Phillips erkannten, dass sich diese Intervalle aufgrund von Gemeinsamkeiten in ihrer Fossilüberlieferung zu größeren Einheiten zusammenfassen lassen und prägten die Bezeichnungen Paläozoikum (Erdaltertum), Mesozoikum (Erdmittelalter) und Känozoikum (Erdneuzeit), die die bis dahin verwendeten Überbegriffe "Primär", "Sekundär" und "Tertiär", bis auf Letztgenanntes, ablösten. So bestand bereits Mitte des 19. Jahrhunderts eine stratigraphische Nomenklatur, die in wesentlichen Punkten der in allen aktuellen Zeitskalen verwendeten entsprach. Auch gab es im 19. Jh. zahlreiche Versuche, die geologischen Zeiträume realistisch abzuschätzen – etwa anhand von Erosions- und Sedimentationsraten – und der Gedanke, dass die Erde viele Millionen Jahre alt ist, fand zunehmend Akzeptanz. So schätzte beispielsweise der berühmte Charles Lyell die seit dem Beginn des Kambriums verstrichene Zeit in der 10. Auflage seiner "Principles of Geology" (1867) auf 240 Millionen Jahre. Bis heute wurden die geologischen Zeitskalen permanent weiterentwickelt. Insbesondere die Entdeckung der Radioaktivität im 20. Jahrhundert und dass Radionuklide für die absolute Datierung von Gesteinen genutzt werden können, läuteten eine neue Phase in der Entwicklung der Zeitskalen ein. Nunmehr konnten die Einheitengrenzen mit einem numerischen Alter belegt und die enormen Spannen der geologischen Zeit seit Entstehung der Erde (englisch "deep time") genau ermittelt werden (siehe Veranschaulichung der Zeiträume). Während Revisionen der Zeitskala lange Zeit im Rahmen des „normalen“ wissenschaftlichen Diskurses erfolgten (Publikation von Vorschlägen in Fachzeitschriften, die nachfolgend von anderen Autoren entweder akzeptiert und aufgegriffen, ignoriert oder auch aktiv kritisiert und abgelehnt wurden), werden sie heute international verbindlich von der International Commission on Stratigraphy (ICS) verabschiedet. In regelmäßigen Abständen wird eine aktuelle Version der globalen Zeitskala von der ICS auf ihrer Website publiziert und im Abstand von mehreren Jahren erscheint eine umfassend kommentierte, detaillierte globale Zeitskala, die auch die Korrelation mit regionalen Skalen beinhaltet. Eine der jüngeren Änderungen in der chronostratigraphischen Nomenklatur betrifft die Abschaffung der Bezeichnung „Tertiär“ für den älteren und größten Teil des Känozoikums der globalen Zeitskala zugunsten einer Zweigliederung dieses Zeitraumes in Paläogen und Neogen. Eine weitere Änderung, der eine kontroverse Debatte über die Beibehaltung des Namens „Quartär“ vorausging, ist die Verschiebung der Neogen/Quartär bzw. Neogen/Pleistozän-Grenze um knapp 800.000 Jahre nach unten, von 1,8 auf 2,59 mya, einhergehend mit der Eingliederung des Gelasiums in das Pleistozän. Eine vorgeschlagene, aber noch nicht verabschiedete Revision betrifft die Neugliederung des Präkambriums, bei der die Einheitengrenzen, wie auch für das Phanerozoikum üblich, durch GSSPs statt durch GSSAs (siehe Definition der Einheitengrenzen) definiert sind. Von einigen Wissenschaftlern, speziell Vertretern der „Global Change research community“, also jenen Forschern, die sich unmittelbar mit dem anthropogen beeinflussten Wandel des Systems Erde beschäftigen, wird eine neue Einheit als jüngstes Glied der Zeitskala vorgeschlagen, das Anthropozän. Über dessen Beginn besteht allerdings keine Einigkeit und für den weit überwiegenden Teil der Geologen hätte eine nur wenige 100 Jahre währende Einheit zudem keinerlei praktischen Nutzen. Skalenmaßstab und Ausschnitte. Das Phanerozoikum ist als „Zeitalter der Fossilien“ und aufgrund der gegenüber dem Präkambrium generell besseren geologischen Überlieferung am detailliertesten gegliedert. Generell gilt: je jünger ein Teil der geologischen Überlieferung, desto feiner ist er gegliedert bzw. desto kürzer ist die Dauer der chronostratigraphischen Einheiten, die ihn beinhalten. Daher wechselt der Skalenmaßstab in manchen Darstellungen innerhalb der geologischen Zeitskala, meistens zwei Mal: einmal an der Präkambrium-Kambrium-Grenze und einmal an der Kreide-Tertiär-Grenze. Ebenfalls zur besseren Darstellung der Einheiten der niedrigsten Ränge und eventueller Untereinheiten werden einzelne Abschnitte, in der Regel die Perioden/Systeme, in separaten Tabellen dargestellt. Paläobotanische Zeitskala. Die Einteilung der paläobotanischen Zeitskala basiert nicht, wie die der geologischen Zeitskala, auf der Evolution wirbelloser Meerestiere, sondern auf der Evolution der Pflanzenwelt, vor allem der Landpflanzen. Sie enthält auch nur eine Hierarchieebene, die den Ären/Ärathemen der geologischen Zeitskala entspricht. Die Namen dieser „Ären“ sind analog zu denen der geologischen Zeitskala, enden jedoch nicht auf "-zoikum", sondern auf "-phytikum". Anstelle des Paläozoikums werden zwei „Ären“ unterschieden: Eophytikum (Kambrium und Ordovizium) und Paläophytikum (Silur bis Perm). Weil die Evolution der Landpflanzen nicht mit der Evolution der wirbellosen Meerestiere korreliert, decken sich die Grenzen der paläobotanischen „Ären“ nur sehr grob mit denen der geologischen Zeitskala. So beginnt das Neophytikum (= Känophytikum) vor 95 Millionen Jahren, mit Einsetzen der Dominanz der Bedecktsamer im Fossilbericht, während das „Neozoikum“ (= Känozoikum) vor 65 Millionen Jahren mit dem Verschwinden unter anderem der Ammoniten und Belemniten aus dem Fossilbericht beginnt. Veranschaulichung der Zeiträume. Die Erdzeitalter umfassen enorme Zeitspannen, die kaum zu ermessen sind. Daraus können Missverständnisse resultieren, zum Beispiel die Meinung, für die gesamte Evolution habe nicht genug Zeit zur Verfügung gestanden. Die folgenden Vergleiche sind zur Veranschaulichung der Zeiträume gebräuchlich. Vergleich Erdzeitalter – Ein Tag. Die untenstehende Tabelle listet in der mittleren Spalte erdgeschichtliche Ereignisse in chronologischer Reihenfolge auf, die eine Schlüsselstellung in der biologischen und kulturellen Evolution des Menschen einnehmen. Die linke Spalte zeigt die tatsächlich seit der Entstehung der Erde verstrichene Zeit und die rechte Spalte zeigt die gleichen Zeitspannen, jedoch auf die Dauer eines einzigen Tages (24 Stunden) heruntergerechnet. In diesem Fall erschiene der moderne Mensch ("Homo sapiens") erst rund 4 Sekunden vor Tagesende. Grünkern. Dinkelpflanzen, aus deren Körnern Grünkern hergestellt wird Schürloch für das Feuer unter einer Grünkerndarrpfanne Grünkern (auch „Badischer Reis“ genannt) ist das Korn des Dinkels, das halbreif geerntet und unmittelbar darauf künstlich getrocknet wird. Ursprünglich wurde der Dinkel als Reaktion auf Schlechtwetterperioden, welche die Ernte vernichteten, vor der Reife (in der sogenannten „Teigreife“ mit ca. 50 % Kornfeuchte) geerntet. Da die getrockneten Kerne − mit Wasser gekocht − wohlschmeckend waren, entwickelte sich die Tradition, einen Teil des Dinkels bereits als grünes Korn zu ernten. Herstellung. Als Wintergetreide wird der für Grünkern bestimmte Dinkel schon Ende Juli eingebracht und anschließend gedarrt – traditionell über einem Buchenholzfeuer oder modern in Heißluftanlagen. Dadurch wird der Grünkern haltbar gemacht (nur noch ca. 13 % Kornfeuchte) und erhält sein typisches Aroma. Vor der Weiterverarbeitung muss der Grünkern noch in einer Schälmaschine oder einem Gerbgang von seinen Spelzen befreit werden (Gerben des Getreides). Ein Teil der Spelzen wird als Füllung für kleine Kissen verwendet, denen man eine den gesunden Schlaf fördernde Wirkung nachsagt. Der Rest wird als Viehfutter verwendet. Die Haupterntezeit Ende Juli fand auch Eingang in mundartliche Bauernregeln, zum Beispiel „Christine, Jagowi, Sankt Anne is Ern! / Schneid't mer kee Korn, / so schneid’t mer doch Keern.“ (Christophorus, Jakobus, Sankt Anna ist Ernte! / Schneiden wir kein Korn, / so schneiden wir doch Grünkern.) Geschichte. Grünkern ist nach verschiedenen Berichten vor mehreren hundert Jahren in Süddeutschland erstmals hergestellt worden. Die erste urkundliche Erwähnung des Grünkerns stammt aus dem Jahre 1660, und zwar aus einer Kellereirechnung des Klosters Amorbach. Er wurde schon damals als Suppeneinlage verwendet. Anfänglich wurde zum Trocknen noch die Restwärme der Backhäuser genutzt. Seine breite Nutzung ging bis in die 1930er Jahre, wo er im auf Autarkie bedachten „Dritten Reich“ als „deutsche Suppenfrucht“ und als Ersatz für Getreideeinfuhren aus dem Ausland galt. Mit der verbesserten Nahrungsmittelversorgung auch in ländlichen Gebieten seit den Jahren des Wirtschaftswunders ging seine Verbreitung zurück, die Tradition der Herstellung blieb aber erhalten oder wurde wiederbelebt. Aber auch Nahrungsmittelhersteller wie beispielsweise die Firma Knorr in Heilbronn (heute Unilever Deutschland GmbH) verarbeiten Grünkern. Grünkern in fein vermahlener oder geschroteter Form ist noch heute ein wichtiger Bestandteil von Fertigsuppen. Anbauregion und Herkunftsschutz. Als „Heimat des Grünkerns“ bezeichnet man einen Landstrich in Nordbaden: das Bauland. Der hier erzeugte „Fränkische Grünkern“ ist seit dem 8. April 2015 als geschützte Ursprungsbezeichnung (g.U.) europaweit geschützt.. Im Bauland verfügen heute noch viele Dörfer über Grünkerndarren, die wegen der starken Rauchentwicklung außerhalb der örtlichen Wohnbebauung errichtet wurden. Darre. Durch das Darren bei 120–150 °C auf der Darrpfanne einer speziellen Grünkerndarre erhält der Grünkern durch die Hitzeentwicklung und den Buchenholzrauch seinen spezifischen Geschmack. Hohe Qualität zeigt sich nach dem Darren in einer olivgrünen Farbe des Grünkerns. Ist er hingegen schon bräunlich geworden, also geröstet, gilt er als minderwertig. Das Klebereiweiß des Grünkerns wird durch das Darren verändert. Das daraus hergestellte Mehl ist nicht mehr backfähig. Grünkern wird ganz oder geschrotet in Suppen und als Bratlinge verwendet. Gas. Neben "fest" und "flüssig" ist gasförmig einer der drei klassischen Aggregatzustände. Eine Substanz ist dann ein Gas, wenn sich deren Teilchen in großem Abstand voneinander frei bewegen und den verfügbaren Raum gleichmäßig ausfüllen. Im Vergleich zum "Festkörper" oder zur "Flüssigkeit" nimmt die gleiche Masse als Gas unter Normalbedingungen den rund tausend- bis zweitausendfachen Raum ein. Zusammen mit den Flüssigkeiten zählen Gase zu den Fluiden. Etymologie. Die Herkunft des Wortes "Gas" war lange Zeit unklar. Zwar war mehr oder weniger bekannt, dass das Wort als Fachbegriff im 17. Jahrhundert durch den flämischen Arzt und Naturforscher Johan Baptista van Helmont († 1644) eingeführt wurde, über die Etymologie bestand jedoch Unsicherheit, und es wurde Herkunft u. a. aus dem Hebräischen, aus niederl. "geest" („Geist“), aus niederl. "gisten" („gären“) oder aus deutsch "gäsen" (bei Paracelsus für „gären“), "gäscht" („Schaum“ auf gärender Flüssigkeit) vermutet. Die Klärung wurde 1859 durch den Sprachwissenschaftler Matthias de Vries herbeigeführt, der eine Aussage aus van Helmonts "Ortus Medicinae" (Amsterdam 1648) beibrachte, wonach dieser das Wort speziell für den durch Kälte entstandenen Dunst des Wassers bewusst neugeschaffen und hierbei eine Anlehnung an das griechische, im Niederländischen sehr ähnlich ausgesprochene Wort "χάος" („Chaos“) bezweckt hatte: „"ideo paradoxi licentia, in nominis egestate, halitum illum "gas" vocavi, non longe a "chao" veterum secretum"“ („In Ermangelung eines Namens habe ich mir die Freiheit zum Ungewöhnlichen genommen, diesen Hauch "Gas" zu nennen, da er sich vom "Chaos" der Alten nur wenig unterscheidet.“). Der Aggregatzustand "gasförmig". Der Aggregatzustand „gasförmig“ entsteht aus der „festen“ oder „flüssigen“ Form durch Energiezufuhr (Wärme). Für einige Elemente und Verbindungen genügen bereits die Standardbedingungen (Temperatur 20 °C, Druck 101325 Pa), um als Gas vorzuliegen; bei ausreichend hohen Temperaturen wird jedoch jede Materie in den gasförmigen Zustand versetzt. Die dabei zugeführte Energie wird zur Bewegungsenergie der einzelnen Teilchen (je nach Temperatur mit Geschwindigkeiten im Bereich um 500 m/s), was den gasförmigen Zustand mit vollständigem Ausfüllen des vorgegebenen Raumes mit statistischer Gleichverteilung der Gasteilchen bewirkt. Hierbei strebt das Gesamtsystem den Zustand höchster Entropie an (zweiter Hauptsatz der Thermodynamik). Dass dies der wahrscheinlichste Zustand ist, kann man auf folgende Weise anschaulich machen: Unterteilt man gedanklich das einem Gas zur Verfügung stehende Volumen in Raumzellen von etwa der Größe eines Moleküls, dann gibt es viel mehr Möglichkeiten, die Moleküle auf die vielen Zellen des ganzen Volumens zu verteilen als auf einen kleinen Bruchteil. Der Makrozustand der raumerfüllenden Verteilung weist die meisten Anordnungsmöglichkeiten (Mikrozustände) für die Teilchen auf und damit auch die höchste Entropie. Die Zahl der Mikrozustände, das statistische Gewicht, kann berechnet werden. Genaueres unter Entropie (Thermodynamik) /Beispiele. Eigenschaften. Bei idealen Gasen ist die freie Beweglichkeit der einzelnen Teilchen entsprechend der kinetischen Gastheorie vollkommen; dieser Zustand wird erst bei hohen Temperaturen gegenüber dem Siedepunkt erreicht (was z. B. für Wasserstoff und Helium bereits bei Zimmertemperatur gilt). Füllt man ein beliebiges ideales Gas in ein vorgegebenes Volumen, so befindet sich bei gleichem Druck und gleicher Temperatur darin immer die gleiche Anzahl Teilchen (Atome oder Moleküle), d. h. unabhängig von der Masse jedes Teilchens und somit unabhängig von der Art des Gases. Quantitativ ausgedrückt beansprucht bei Normalbedingungen ein Mol (das sind nach Avogadro 6,022 × 1023 Teilchen) jedes beliebigen Gases einen Raum von 22,4 Litern (siehe auch Molares Volumen und Loschmidt-Konstante). Bei realen Gasen sind noch mehr oder weniger große Anziehungskräfte der Teilchen untereinander wirksam (van der Waals'sche Kräfte). Der Unterschied ist beim Komprimieren bemerkbar: Gase sind kompressibel, das Volumen idealer Gase ist umgekehrt proportional zum Druck (Zustandsgleichung). Reale Gase weichen von den vorstehend beschriebenen Gesetzmäßigkeiten mehr oder weniger ab. Gase besitzen auch Eigenschaften von Flüssigkeiten: Sie fließen und widerstehen Deformationen nicht, obgleich sie viskos sind. a> in einem Metallbecher (-196 °C) Zustandsübergänge. Den Übergang vom flüssigen in den gasförmigen Aggregatzustand bezeichnet man als Verdampfung (oberhalb des Siedepunktes) oder Verdunstung (unterhalb des Siedepunktes), den umgekehrten Übergang vom gasförmigen in den flüssigen Aggregatzustand als Kondensation. Der direkte Übergang vom festen in den gasförmigen Aggregatzustand ist die Sublimation, der umgekehrte Übergang vom gasförmigen in den festen Aggregatzustand heißt Resublimation. Gaskessel der Stadtwerke Esslingen Lagerung. Um eine möglichst große Menge an Gas in einem Behälter zu speichern, also eine hohe Dichte zu erhalten, wird das Gas stark komprimiert (siehe auch Druckgas). Zwecks hoher Druckbelastbarkeit der Gasbehälter werden meist zylinderförmige oder kugelförmige Druckbehälter (z. B. Gasflaschen) eingesetzt. Gaskessel oder Gasometer sind Niederdruckspeicher mit großem geometrischen Volumen. Aufgrund des geringen Drucks (Gasversorger speichern das Gas üblicherweise im Leitungsnetz (Gasnetz), indem sie Hochdruckleitungen großer Nennweite einsetzen. Goabohne. Die Goabohne ("Psophocarpus tetragonolobus"), auch als Flügelbohne bezeichnet, ist eine Nutzpflanze in der Unterfamilie der Schmetterlingsblütler (Faboideae) aus der Familie der Hülsenfrüchtler (Fabaceae oder Leguminosae). Beschreibung. Die Goabohne ist eine reich verzweigte, linkswindende, ausdauernde, krautige Pflanze. Sie wird aber meist als einjährige Pflanze angebaut. Die Wurzeln bilden Knollen als Speicherorgane. Die Laubblätter sind dreiteilig gefiedert. Die Teilblätter sind leicht schräg eiförmig, 5 bis 14 cm lang und 3 bis 9 cm breit, zugespitzt, ganzrandig oder gelegentlich gelappt. Nur gelegentlich stehen die Blüten einzeln, meist stehen sie achselständig an 2 bis 10 cm langen Blütenstandsstielen in dichten traubigen Blütenständen. Die zygomorphe Blüte ist mit einer Länge von 2 bis 5 cm verhältnismäßig groß. Die Krone ist gelb-rosa oder violett gefärbt. Die Fahne steht meist aufrecht und ist 2,5 cm breit. Die Hülsenfrüchte sind 10 bis 20 cm lang, entlang der Nähte stehen zwei wellig geformte Flügel mit einer Breite von etwa 5 mm. Die Hülsenfrüchte enthalten zwischen fünf und 20, bis höchstens 40 Samen. Die rundlich-ovalen Samen weisen einen Durchmesser von 7 bis 8 mm auf. Das Hilum ist hell bis cremefarbene mit einem dunklen Rand. Vorkommen. Natürliche Vorkommen der Goabohne sind unbekannt, ihre Herkunft wird in Asien, auf den Maskarenen oder auf Madagaskar vermutet. In Kultur ist diese Art weit verbreitet. Nutzung. Die Pflanzenteile werden vielseitig eingesetzt, sowohl die jungen Früchte, die reifen Samen als auch die unterirdischen Knollen sind essbar. Aus den Samen werden Fettsäuren gewonnen. 100 Gramm getrockneter Goabohnen enthalten in ihrem Anteil von 16 g Fett durchschnittlich 3,3g gesättigte, 5,8 g einfach ungesättigten und 3,7 g mehrfach ungesättigte Fettsäuren. Das Öl der Samen wird unter anderem zur Herstellung von Seife genutzt. Die Samen haben einen hohen Nährwert, der sich in etwa mit der Sojabohne vergleichen lässt. Weblinks. Goabohne Gartenbohne. Die Gartenbohne "(Phaseolus vulgaris)," auch Grüne Bohne oder österreichisch Fisole, im Südosten Österreichs auch Strankerl genannt, ist eine Pflanzenart aus der Unterfamilie der Schmetterlingsblütler (Faboideae). Sie ist in Deutschland und Österreich fast immer mit dem Begriff „Bohne“ gemeint, der sich aber auch auf viele andere Nutzpflanzenarten beziehen kann. Je nach Wuchsform wird die Art auch als Buschbohne oder Stangenbohne bezeichnet. Gartenbohnen gehören botanisch zu den Körnerleguminosen und nach landwirtschaftlichem Nutzen zu den Eiweißpflanzen. In den Tropen (vor allem in Mittel- und Südamerika) spielen Gartenbohnen aufgrund ihres hohen Proteingehaltes eine elementare Rolle für die Grundversorgung der Bevölkerung, da Maniok und Kochbananen nur einen geringen Eiweißgehalt aufweisen. Körnerleguminosen haben mit 23 % Roheiweißgehalt den zweithöchsten Proteinwert von Nahrungspflanzen nach den Sojabohnen. Gartenbohnen enthalten für den Menschen giftige Lektine (Phaseolin), die durch Kochen zerstört werden. Bohnen und Hülsen sind daher roh nur eingeschränkt genießbar. Die Gartenbohne wurde durch den Verein zur Erhaltung der Nutzpflanzenvielfalt (VEN) zum Gemüse des Jahres 2004 gewählt. Merkmale. Die Gartenbohne ist eine einjährige Pflanze. Die Blätter sind dreizählig, in ihren Achseln entspringen Seitentriebe. Von den zwei Varietäten wird die "Stangenbohne" zwei bis vier Meter hoch, und windet sich als Linkswinder (gegen den Uhrzeigersinn) an Stützen nach oben. Die "Buschbohne" hat ein begrenztes Längenwachstum, windet nicht und wird nur 30 bis 60 cm hoch. Die Buschbohne beendet nach vier bis acht Internodien das Wachstum und bildet endständige Blütenstände. Die Hauptwurzel ist schwach ausgeprägt. Von ihr zweigen viele Seitenwurzeln ab, die bis 30 cm lang werden. An den Seitenwurzeln sitzen die für die Leguminosen charakteristischen Wurzelknöllchen mit den stickstofffixierenden, symbiontischen Knöllchenbakterien der Art "Rhizobium leguminosarum". Die Blüten stehen wechselständig zu mehreren in Trauben. Eine Blüte ist ein bis zwei Zentimeter lang. Fremdbestäubung ist möglich, es herrscht jedoch Selbstbestäubung vor. In Mitteleuropa erfolgt die Bestäubung bereits vor Öffnung der Blüten. Die europäischen Sorten sind sämtlich tagneutral, die Zeit bis zur Blüte ist von der Wärmemenge abhängig. Die Hülsen sind im Querschnitt flach oder rund und sehr variabel. Ihre Farbe kann grün, gelb, blau, violett-gestreift oder schwarz marmoriert sein. Ihre Länge reicht von 5 bis 25 cm. Die Samen sind ebenfalls unterschiedlich groß, ihre Farbe reicht von weiß, hellbraun bis dunkelbraun und weiß-rot gesprenkelt. Das Tausendkorngewicht beträgt je nach Sorte zwischen 250 und 530 g. Die Keimung verläuft epigäisch, die dicken Speicher-Keimblätter kommen aus dem Boden und entfalten sich, sterben aber recht schnell ab. Die Chromosomenzahl beträgt 2n = 22. Ökologie. Die Gartenbohne ist eine einjährige Kletterpflanze und ein Linkswinder. Die Schlafbewegungen der Blätter werden durch Schwankungen des Zellsaftes in den Blatt- und Fiedergelenken ermöglicht. Bei der Buschbohne beginnt die Schlafstellung, einem inneren Rhythmus folgend, um 6 Uhr abends. Morgens um 6 Uhr heben sich die Blätter wieder. Dies ist eine Anpassung an den äquatorialen, tropischen Kurztag ihrer Heimat. Die Abscheidung von Wassertröpfchen, Guttation genannt, erfolgt durch Drüsenhaare, sogenannte Hydathoden. Die Wurzelknöllchen sind mit Stickstoff bindenden Bakterien besiedelt. Die Blüten sind streng vormännliche „Pollen-Schmetterlingsblumen“ mit einer „Griffelbürsten-Klappeinrichtung“. Die Öffnung der Staubbeutel erfolgt schon in der Blütenknospe. Nur kräftige Hummeln können die Blüten öffnen. Auch Selbstbestäubung ist möglich. Blütezeit ist von Juni bis September. Die Früchte sind Hülsen. Bei den Kulturformen bleiben die Früchte gewöhnlich geschlossen. Die Wildform ist ein Austrocknungsstreuer. Die Keimblätter dienen als Nährstoffspeicher. Sie entfalten sich über dem Boden, wobei sie ergrünen, man spricht von einer epigäischen Keimung. Der Keimspross ist relativ weit entwickelt, so dass sogar die ersten Laubblätter erkennbar sind (Lupe!). Giftigkeit. Rohe Bohnen sind stark giftig. Ähnlich wirken auch Grüne Bohnen. Hauptwirkstoff ist das Toxalbumin Phasin. Phasin ruft Erbrechen, Durchfall, und Absorptionsstörungen im Darm hervor. Es kann zu schweren, eventuell tödlichen hämorrhagischen Gasteroenteritiden führen, weiter zu tonischen Krämpfen, Schock, Hypokaliämie und als Folge davon zu Veränderungen im Elektrokardiogramm. Grüne Bohnen erzeugen bei Menschen, die dazu disponiert sind, eine Dermatitis, die als „Bohnenkrätze“ in Konservenfabriken bekannt ist. Kulturgeschichte. Die Gartenbohne ist nur in Kultur bekannt. Ihre wilde Stammform dürfte die in Südamerika heimische "Phaseolus aborigineus" sein. Die ältesten Funde der Gartenbohne stammen aus der Guitarrero-Höhle in Peru von etwa 6000 v. Chr. und aus Pichasca in Chile von etwa 2700 v. Chr. Die nächsten Funde stammen dann erst wieder aus der Zeit von 300 v. Chr. bis etwa Christi Geburt, der Zeit der mittelamerikanischen Hochkulturen. Die Funde sind sowohl Samen wie auch Hülsen. Generell sind die Samen kleiner als die heutiger Sorten, aber wesentlich variabler in Form, Farbe und Muster. In präkolumbischer Zeit verbreitete sich der Gartenbohnen-Anbau in Amerika sehr weit. Die Gartenbohne war neben Kürbis und Mais die wichtigste Nahrungspflanze (Milpa). Im Norden reichte der Anbau bis zum Sankt-Lorenz-Strom, von wo Jacques Cartier den Anbau beschrieb. Aus Florida beschrieb de Soto die Gartenbohne 1539, Lescarbot 1608 aus Maine. Alle frühen europäischen Autoren betonen auch die große Bedeutung der Bohnen für die Ernährung der Indianer. Bei den Inka war die Gartenbohne nach frühen spanischen Berichten (Garcilaso de la Vega) die Nahrung der unteren Bevölkerungsschichten, während die Oberschicht die Mondbohne "(Phaseolus lunatus)" bevorzugte. Während die nord- und mittelamerikanischen Wildsippen ebenfalls zu "Phaseolus vulgaris" gestellt werden, werden die wilden Verwandten in Südamerika zu "Phaseolus aborigineus" gestellt. Die nord- und mittelamerikanischen Wildsippen werden als eingeschleppt interpretiert. Nach Europa gelangte die Gartenbohne im 16. Jahrhundert. Die älteste Abbildung aus Deutschland stammt aus dem Kräuterbuch von Leonhart Fuchs 1543, der sie als „Welsch Bonen“ bezeichnet. Weitere frühe Erwähnungen stammen von Georg Oelinger (1553) und Kaspar Bauhin. In Europa verdrängte sie die bis dahin angebauten Bohnen, die Ackerbohne und die Kuhbohne. Die lateinische und auch noch mittelalterliche Bezeichnung für die Kuhbohne ("fasiolum", "faseolum", "phaseolum") ging nun auf die neue, vorherrschende Gartenbohne über. Genetische Vielfalt und Zuchtziele. Eine Auswahl an Farben und Formen bei Gartenbohnen-Sorten Infolge der Domestikation der Bohne vor 7000 oder 8000 Jahren hauptsächlich im Hochland von Mexiko ist sie heute weltweit eine bedeutende Nutzpflanze für eine Reihe von Klimazonen und unterschiedlichen Landnutzungssystemen. Im Laufe der ersten Domestikationsphase und der folgenden Evolution (Inkulturnahme, Selektion, Migration und genetischer Drift) veränderten sich die morphologischen, physiologischen und genetischen Eigenschaften der heutigen Bohnensorten. Als Anpassung auf die unterschiedlichsten geographischen Lagen und Klimazonen bildete sich eine große genetische Variabilität an Stämmen von "Rhizobium phaseoli" und die unterschiedlichsten Krankheiten und Schädlinge aus. Bohnen liefern durch die Hybridisierung der einzelnen Genotypen eine noch höhere genetische Variabilität, was die pflanzenphysiologische Grundlagenforschung und Züchtungsarbeit sehr erleichtert. Bei Bohnen unterscheidet man nach ihrer genetischen Herkunft den andinen (andines Hochland von Peru und Bolivien) und den mesoamerikanischen (Mexiko und Mittelamerika) Genpool. In beiden Genzentren wurden unterschiedliche Bohnengenotypen für die lokalen Boden- und Klimaverhältnisse entwickelt. Die Wildform von "P. vulgaris" wurde erstmals entlang dem Andenbogen von Argentinien bis Kolumbien domestiziert. Bohnen sind neben den Kürbissen die ältesten angebauten Nutzpflanzen Amerikas und gehören noch heute zu den wichtigsten Pflanzenkulturen der kleinbäuerlichen Subsistenzlandwirtschaft in Lateinamerika und Afrika. In der Saatgutbank des CIAT (IBN – International Bean Germplasm Nursery) werden über 10.000 unterschiedliche Bohnenherkünfte mit den unterschiedlichsten Resistenzgenen konserviert, davon sind allein 2.000 Genotypen aus Ruanda, Burundi, Honduras und Chile. Zu den Hauptzielen in der Pflanzenzüchtung gehört die qualitative Verbesserung von Inhaltsstoffen (z. B. Aminosäuremuster), der ökophysiologischen Anpassung und Ertragsstabilität für suboptimale Standorte (z. B. abiotischer Stress wie Trockentoleranz, Bodenazidität, etc.) und Resistenzzüchtung gegen Krankheiten und Schädlinge. Genetische Untersuchungen verschiedener Bohnenlinien haben ergeben, dass insbesondere für die qualitative Verbesserung noch ein großes züchterisches Potential vorhanden ist. Exportpflanzen und Marktfrüchte ("Cash Crops") wie Getreide und Sojabohnen als Ölsaat liefern immer noch den höchsten Anteil der pflanzlichen Roheiweißproduktion und wurden traditionell züchterisch intensiver bearbeitet als Eiweißpflanzen wie die Körnerleguminosen. Auch blieb das Anbaugebiet der Bohnen von 1972 bis 1981 noch weitgehend konstant. Sorten. Es gibt Tausende von Sorten. Für den Anbau unterteilt man nach der Nutzung in "Filetbohnen", das sind Sorten mit fleischiger Hülse, die vorwiegend als grüne Hülse geerntet und genutzt werden, und in "Kernbohnen" oder "Trockenkochbohnen", bei denen die Nutzung der Samen (genannt Bohnenkerne) im Vordergrund steht. "Zwiebohnen" sind Sorten, die je nach Erntezeitpunkt sowohl zur Gewinnung grüner Hülsen, als auch zur Ernte von Bohnenkernen nutzbar sind. "Wachsbohnen" sind Filetbohnen mit gelben Hülsen, "Perlbohnen" sind meist kleinsamige Bohnen, bei denen die rundlichen Samen in der Hülse hervortreten und wie eine Perlenkette aufgereiht aussehen. "Prinzessbohnen" sind besonders jung geerntete und daher feinere Filetbohnen. Außerhalb der Saison werden aus verschiedenen afrikanischen Ländern teils mit Luftfracht importierte Filetbohnen als "Keniabohnen" vermarktet. In Deutschland verbreitete Sorten sind bei Filetbohnen: Neckarkönigin, Saxa, Delinel, Blauhilde; bei Wachsbohnen: Beste von allen, Neckargold; als Zwiebohne: Feuerzunge. Kidney-Bohne ist ursprünglich nur ein anderer Name für die Gartenbohne, bezeichnet heute aber auch bestimmte rotsamige Sorten. Der Begriff "Kidney-Bean" (zu deutsch: „Nieren-Bohne“) wurde im 19. Jahrhundert im englischen Sprachraum noch für alle Vertreter der Gattung "Phaseolus" gebraucht, in Abgrenzung zu den heute als Ackerbohne bezeichneten Bohnen. Ausschlaggebend war die ausgeprägte Nierenform der Samen. Zwar ist der Begriff im englischen Sprachraum auch heute noch für die Gartenbohne als Art in Gebrauch, wird aber umgangssprachlich vor allem für die großen, roten Samen der Gartenbohne gebraucht. Sorten der Kidneybohne, großsamig, rot bis rosa: Red Kidney, Redkloud, Diacol-Calima. Die Pintobohne (Spanisch: "frijol pinto") ist rot-braun gesprenkelt mit beigefarbenem Grundton – die Farbgebung ähnelt einem Wachtelei, darum wird sie auch "Wachtelbohne" genannt. Es ist die in den USA und Nordwesten von Mexiko am häufigsten verwendete Varietät der Gartenbohne. Die Pintobohne wird im Aufweichwasser gekocht, püriert und teilweise fritiert. Ganz oder püriert wird sie oft als Füllung für Burritos verwendet. Im Südwesten der USA wird die Pintobohne als wichtiges Symbol der regionalen Identität angesehen, insbesondere bei den mexikanischstämmigen Einwohnern. Zusammen mit der Chilifrucht ist sie die offizielle Gemüsesorte des Bundesstaates New Mexico. Sorten der Pintobohne sind: Sierra, Burke, Othello, Maverick. Eine neue, mit traditionellen Methoden gezüchtete Sorte "prim beans" ist arm an Tanninen und führt kaum mehr zu Blähungen. Nutzung. Alle Bohnen der Gruppe Phaseolus sind roh giftig. Erst das Erhitzen (in Kochwasser) auf mehr als 70 °C zersetzt das Gift "Lectin" ("Phasin", ein Samenglykoproteid). Unreife Hülsen. In Europa, Nordafrika und dem Vorderen Orient werden die noch nicht ausgereiften Hülsen der Gartenbohnen vielfach als Gemüse gegessen (Grüne Bohnen, gelbe Wachsbohnen), ein bekanntes deutsches Gericht daraus sind Saure Bohnen und Bohnensalat aus grünen Bohnen. Getrocknet erhält man die in der Schweiz verbreiteten Dörrbohnen. Grüne Bohnen können auch Bestandteil von Gemüseeintöpfen sein. Getrocknete Bohnen. Die reifen, trockenen Bohnen sind ein viel genutztes Grundnahrungsmittel, das sich leicht und lange lagern lässt. Die vergleichsweise billigen Bohnen decken als Grundnahrungsmittel in vielen Ländern einen Großteil der Eiweißversorgung der ärmeren Bevölkerungsschichten. Bohnen werden in vielen regionalen Varianten als Suppen- und Eintopfzutat verwendet, beispielsweise im Bohneneintopf der deutschen Küche, in der serbischen Bohnensuppe, in der italienischen Minestrone und in Baked Beans, die auch in Konservendosen gehandelt werden. In Frankreich gibt es Cassoulet, in Spanien Fabada. Bohnen sind Grundbestandteil des brasilianischen Nationalgerichts “Feijoada” und können je nach Region ein Bestandteil von Chili con Carne sein. Das indische Dal ist ein Gericht, das aus den verschiedensten Hülsenfrüchten hergestellt wird, wovon Rajma Dal eine Variante aus roten Gartenbohnen ist. Gallo Pinto ist eine Kombination aus Bohnen und Reis. Flageolettbohnen. Im Reifegrad zwischen den „Grünen Bohnen“ und der „Trockenkochbohne“ oder „Körnerbohne“ liegen die Flageolettbohnen, bei denen die milchreifen Kerne geerntet werden, wenn die Hülsen eine lederartige Reife haben. Sie gelten als Delikatesse. Bohnenblätter. Vor allem im Balkan werden die Bohnenblätter zur Beseitigung von Bettwanzen genutzt. Sie werden abends großzügig um das gesamte Bett gestreut. Die Bettwanzen verfangen sich in den feinen Haaren der Blätter und können am nächsten Morgen mit den Blättern aufgesammelt werden. Ernährungsphysiologie. Die Samen der Gartenbohne haben einen hohen Proteingehalt und enthalten eine Reihe von essentiellen Aminosäuren, das enthaltene Protein deckt aber nicht alle essentiellen Aminosäuren ab. Die Kohlenhydrate der Bohne liegen in vom Menschen teilweise nicht abbaubaren Oligosaccharosen vor. Sie enthalten größere Mengen der Mineralstoffe Calcium, Kalium, Magnesium und Eisen (v. a. in der Form von Leghämoglobin), sowie der Vitamine B2, B6, C, E, Provitamin A (Betacarotin) und Folsäure. Das Vitamin C unterstützt die Aufnahme des enthaltenen Eisens, geht allerdings durch das Kochen zum größten Teil verloren. Der Verzehr von Bohnen kann zu einer stark vermehrten Gasbildung im Dickdarm und dadurch zu Blähungen führen. Der Grund hierfür ist, dass bestimmte in Bohnen enthaltene Dreifachzucker, wie zum Beispiel Raffinose, nicht vom Menschen verdaut werden können, von Darmbakterien aber sehr wohl – unter Absonderung von Faulgasen – metabolisiert werden. Dies führt zu Blähungen. Eine Möglichkeit, dieser Nebenwirkung vorzubeugen, ist, die Bohnen vor der Zubereitung zu wässern, um die fraglichen Zucker auszuwaschen. Dabei gehen aber auch Mineralstoffe und wasserlösliche Vitamine verloren. Die andere Möglichkeit besteht in der Einnahme des Enzyms α-Galactosidase A, das die Raffinose in Saccharose und Galaktose spaltet. Die Zugabe von Gewürzen wie Asant, Fenchel, Anis, Koriander, Kreuzkümmel und Kümmel führt nicht zu einer Verringerung der Menge an produziertem Gas, wirken aber entspannend auf die Darmmuskulatur, was die Blähungen für manche Erwachsene und insbesondere Kleinkinder weniger unangenehm macht. Pharmakologie. Als Heildroge dienen Bohnenschalen, samenfreie Gartenbohnenhülsen, Phaseoli pericarpium (DAC). Arginin u. a. Aminosäuren, Flavonoide, Mineralstoffe mit Kieselsäure und Chromsalze. Die Droge hat schwach harntreibende Eigenschaften, sie kann daher unterstützend bei Katarrhen der ableitenden Harnwege und zur Vorbeugung der Bildung von Harngrieß und von Harnsteinen genutzt werden. Es ist nicht bekannt, auf welche Inhaltsstoffe die Wirkung zurückzuführen ist. Zur Behandlung leichter Fälle von Zuckerkrankheit ist der Tee aus Bohnenhülsen in der Volksheilkunde in Gebrauch. Extrakte sind auch in einigen kombinierten Fertigpräparaten enthalten. Die Anwendung wird kritisch gesehen, die in der älteren Literatur beschriebenen, für die Wirkung angeblich verantwortlichen Gukokinine konnten nicht bestätigt werden. Man diskutiert über die Beteiligung der Chromsalze und der Kieselsäure im Zusammenhang mit einer Blutzucker senkenden Wirkung. Ökophysiologie. Bohnen als „plastische“ Pflanzen sind an die verschiedensten Klimata und ökologischen Bedingungen angepasst. Nur wenige Pflanzen zeigen eine derart große Mannigfaltigkeit an Anpassungsmechanismen an unterschiedlichen Standorten sowie Wuchstypen und Vegetationslängen. "Phaseolus vulgaris" wächst am besten in Regionen mit einer durchschnittlichen Temperatur von 18 bis 30 °C während der Wachstumsperiode. Möglichst gleichmäßig verteilte Niederschläge und relativ kühle Nächte unter 20 °C begünstigen Wachstum und Samenertrag. Im kühlen und niederschlagsarmen Hochland wird der Anbau von großsamigen Sorten bevorzugt, da durch eine rasche und tiefgründige Wurzelentwicklung ein größeres Bodenvolumen erschlossen wird und unerwartete und kurze Trockenperioden somit überbrückt werden können. Trockenperioden, die länger als zwei Wochen dauern, können die Bohnen in den Tropen, insbesondere während der Blüte, nachhaltig schädigen und es kommt zu Ertragsreduktionen. In den humiden Tropen auf schlecht drainierten Standorten sind wiederum Sorten mit einem flacheren Wurzelwerk von Vorteil, um teilweise auch Staunässe auszuhalten. Starke Niederschläge verbunden mit einer hohen Luftfeuchtigkeit können das Entstehen zahlreicher Pilzkrankheiten begünstigen. Die meisten handelsüblichen Bohnensorten sind im Vergleich zur Sojabohne tagneutral, das bedeutet, die Photoperiode Kurztag/Langtag hat keinen nachweislichen Einfluss auf die Blühinduktion. Geeignet sind Böden mit einem mittleren pH-Wert zwischen 4,5 und 8,0. Auf sauren Böden treten Mangelerscheinungen wie Phosphormangel auf, dabei kann Phosphor nicht mehr in ausreichenden Mengen von der Wurzel aufgenommen werden. Gelöste Metalle wie Aluminium und Mangan können zu toxischen Symptomen führen. Stark ertragsreiche Bohnensorten werden nur unzureichend durch die N-Fixierung versorgt, hier muss mit Stickstoff (bis ca. 10 kg N/ha) nachgedüngt werden. Anbaumethoden und Produktionsverfahren. In Lateinamerika und Afrika finden sie ihre häufigste Verwendung in kleinbäuerlichen Mischkulturen zusammen mit Mais oder Kaffee. Der Anbau der Bohnen erfolgt entweder gleichzeitig mit der Aussaat des Maises oder zeitlich versetzt, um sich die Wechselwirkungen der Stickstoff-Fixierung zunutze zu machen. In Kaffeeplantagen Kolumbiens wurden Bohnen angebaut, um die Grundnahrungsversorgung der Pflücker zu sichern. Der Grund dafür, dass Bohnen selten in größeren Kulturen angebaut werden, liegt an ihrer hohen Anfälligkeit für Krankheiten und Schädlinge, geringen und instabilen Erträgen, hohe Marktpreisfluktuationen und lokale Präferenzen eines ganz bestimmten Samentyps. Das semiaride Hochland Mexikos ist das größte zusammenhängende Bohnenanbaugebiet der Welt. Obwohl andere Nutzpflanzen mit höheren Deckungsbeiträgen wie Mais die Bohnen dort vielerorts verdrängt haben, sind in dieser Zone mit geringen und unregelmäßigen Niederschlägen, lokale Bohnen-Landsorten mit die beste Option der Landnutzung. In Brasilien werden Bohnen in allen Bundesstaaten angebaut, wobei die fruchtbarsten und ertragsfähigsten Böden meist mit profitablen Sojabohnen bepflanzt werden und Bohnen mehr und mehr auf ungünstigere und weniger produktive Standorte verdrängt werden. Diese Verschiebung auf die Marginalböden führt zu neuen Risiken wie dem Goldenen Mosaikvirus und Ertragsausfällen durch Trockenheit und geringer Bodenfertilität. Die Saattiefe beträgt meist nicht mehr als 2,5 cm, um ein rasches Wachstum zu beschleunigen. Der Boden wird vorher grundbearbeitet, soll abgesetzt, mindestens 25 cm tief sein und einen geringen Bestand an Unkräutern (korrekte Bezeichnung Ackerwildpflanzen oder Ackersegetalflora) haben, um die Bohnen einem möglichst geringen Konkurrenzdruck durch andere Pflanzen auszusetzen. In den Tropen wird nach Möglichkeit am Anfang der Regenzeit ausgesät, um während der gesamten Vegetationsperiode ausreichende Niederschläge zu erhalten. In den gemäßigten Breiten erst, wenn keine Nachtfröste mehr zu erwarten sind und die durchschnittliche Temperatur über 12 °C liegt. Im Bohnenanbau finden Herbizide wie Alachlor, Fluordifen und Metolachlor im Vorauflauf (vor der Saat) und Bentazon im Nachauflauf (nach der Saat) Verwendung. Um hohe Samenerträge zu erreichen wird mit Stickstoff gedüngt, um das vegetative Wachstum und einen hohen Blattflächenindex anzuregen. Phosphorarme tropische Böden erfordern außerdem zusätzliche P-Gaben, da Phosphate beispielsweise in Ultisolen und Oxisolen fest fixiert werden. Kommt eine Mineraldüngung aus Kostengründen nicht in Frage, so kann die Bodenbiologie durch Gründüngung und Mulchwirtschaft nachhaltig verbessert werden. Die verschiedenen Rhizobienstämme sind hochspezialisiert auf den jeweiligen Bohnen-Genotyp angepasst und finden ihr Optimum bei einer ausreichenden Versorgung mit Spurenelementen wie Kalzium, Molybdän, Kobalt, Eisen und Kupfer, einer Bodentemperatur nicht über 32 °C und eine hohe Assimilatversorgung durch die Pflanze. Auf schattenarmen Standorten mit starker Sonneneinstrahlung verhindert ein dichter, geschlossener Pflanzenbestand die übermäßige Bodenerhitzung und Schädigung der Rhizobien. Erntereif sind die Bohnen bei einem Wassergehalt von etwa 18 %, die Hülsen müssen dabei trocken und dreschfähig sein. Erträge und Anbauländer. In Lateinamerika (Ausnahme Chile und Argentinien mit bis zu 4000 kg/ha bei günstigen Standortbedingungen und geringem Schädlings- und Krankheitsdruck) liegen die Durchschnittserträge meist nur zwischen 500 und 1000 kg/ha. In den USA werden Erträge von 1500 kg/ha erreicht, 75 % mehr als im größten Bohnenerzeugerland Brasilien (Stand 1989), welches die Hälfte des Weltertrages an Bohnen liefert. Weitere wichtige Hauptanbauländer sind Indien, die Volksrepublik China und Mexiko. Argentinien und Chile exportieren weiße Bohnen für den Konsum in arabischen Ländern. Die Gesamterzeugung liegt bei 10 bis 14 Millionen Tonnen (Stand 1986). Krankheiten und Schädlinge. Die im Folgenden genannten Arten haben vor allem in Mitteleuropa Bedeutung im Gartenbohnen-Anbau. Die wichtigste Virenerkrankung ist das Gewöhnliche Bohnenmosaikvirus (bean common mosaic virus), das zum Absterben der befallenen Pflanzenteile und zu erheblichen Ertragseinbußen führt. Von geringerer Bedeutung sind das Gelbmosaikvirus der Gartenbohne (bean yellow mosaic virus), das Tabakmosaikvirus (tobacco necrosis virus) und das Luzernemosaikvirus (alfalfa mosaic virus). Die bedeutendste bakterielle Krankheit ist die Fettfleckenkrankheit, verursacht durch "Pseudomonas syringae" pv. "phaseolicola". Sie führt zu starken Ertrags- und Qualitätseinbußen. Es können alle Blätter einer Pflanze vertrocknen und vor der Blüte abfallen. Unter den pilzlichen Erregern sind die Erreger der Brennfleckenkrankheit wirtschaftlich am wichtigsten, unter ihnen "Colletotrichum lindemuthianum". Sie befallen meist schon die Sämlinge und können zum Absterben der Jungpflanzen führen, zumindest den Ertrag stark reduzieren. Weitere Krankheiten sind der Bohnenbrand "(Xanthomonas campestris" pv. "phaseoli)" der Bohnenrost "(Uromyces appendiculatus)" und "Sclerotinia sclerotiorum". Unter den tierischen Schädlingen sind zwei von Bedeutung. Die Schwarze Bohnenblattlaus "(Aphis fabae)" überwintert an "Euonymus europaea" und befällt im Mai die Gartenbohne, wo sie in mehreren Generationen besonders im Juni und Juli in Massen auftreten kann. Die Bohnenfliege "(Phorbia platura)" legt ihre Eier an die Bohnensamen, von denen sich die Maden dann ernähren. Der Befall wird daher umgangssprachlich auch als Bohnenwurm bezeichnet. Als Vorratsschädling können getrocknete Bohnen von Bohnenkäfern ("Acanthoscelides obtectus") aus der Familie der Samenkäfer befallen werden. Spiele. Getrocknete Bohnen als Zählsteine gaben dem „Bohnenspiel“, einer Variante der weit verbreiteten Mancala-Spiele, seinen deutschsprachigen Namen. Zum Dreikönigstag (6. Januar) wurde früher eine Bohne in den Kuchen gebacken. Wer sie fand, war der Bohnenkönig, manchmal gab es auch zusätzlich eine weiße Bohne für die Bohnenkönigin. Wenn der König trank, wurde gerufen: „Der König trinkt!“ und alle mussten mittrinken. Bei diesem Fest wurde das Bohnenlied gesungen, woher die Redewendung kommt: Das geht mir über das Bohnenlied. Der Anbau von Bohnen ist das Hauptthema des prämierten Kartenspiels "Bohnanza" und seiner zahlreichen Ableger. Dabei werden nicht nur Bohnen im eigentlichen Sinne dargestellt, sondern auch metaphorisch „Bohnen“ genannte Gegenstände wie Blaue Bohnen, Kakaobohnen oder Weinbrandbohnen. Gesetz der großen Zahlen. Als Gesetze der großen Zahlen werden bestimmte mathematische Sätze aus der Stochastik bezeichnet. In ihrer einfachsten Form besagen diese Sätze, dass sich die relative Häufigkeit eines Zufallsergebnisses in der Regel um die theoretische Wahrscheinlichkeit eines Zufallsergebnisses stabilisiert, wenn das zu Grunde liegende Zufallsexperiment immer wieder unter denselben Voraussetzungen durchgeführt wird. Die häufig verwendete Formulierung, dass sich die relative Häufigkeit der Wahrscheinlichkeit „immer mehr annähert“ ist dabei irreführend, da es auch bei einer großen Anzahl von Wiederholungen Ausreißer geben kann. Die Annäherung ist also nicht monoton. Formal handelt es sich um Aussagen über die Konvergenz des arithmetischen Mittels von Zufallsvariablen, zumeist unterteilt in „starke“ (fast sichere Konvergenz) und „schwache“ (Konvergenz in Wahrscheinlichkeit) Gesetze der großen Zahlen. Beispiel: Wurf einer Münze. Die Wahrscheinlichkeit, dass eine Münze beim Werfen Kopf zeigt, betrage ½. Je häufiger die Münze geworfen wird, desto unwahrscheinlicher wird es, dass der Anteil der Würfe, bei denen Kopf erscheint (also die "relative" Häufigkeit des Ereignisses „Kopf“), um mehr als einen beliebigen vorgegebenen Wert von der theoretischen Wahrscheinlichkeit ½ abweicht. Dagegen ist es durchaus wahrscheinlich, dass die "absolute" Differenz zwischen der Anzahl der Kopf-Würfe und der halben Gesamtzahl der Würfe anwächst. Insbesondere besagen diese Gesetze der großen Zahlen "nicht", dass ein Ereignis, welches bislang nicht so häufig eintrat wie erwartet, seinen „Rückstand“ irgendwann ausgleichen und folglich in Zukunft häufiger eintreten muss. Dies ist ein bei Roulette- und Lottospielern häufig verbreiteter Irrtum, die „säumige“ Zahlenart müsse nun aber aufholen, um wieder der statistischen Gleichverteilung zu entsprechen. Es gilt damit "kein" Gesetz des Ausgleichs. Ein Beispiel dazu: Angenommen, eine Serie von Münzwürfen beginne mit „Kopf“, „Zahl“, „Kopf“, „Kopf“. Dann wurde „Kopf“ bis dahin dreimal geworfen, „Zahl“ einmal. „Kopf“ hat gewissermaßen einen Vorsprung von zwei Würfen. Nach diesen vier Würfen ist die relative Häufigkeit von „Kopf“ ¾, die von „Zahl“ ¼. Nach 96 weiteren Würfen stelle sich ein Verhältnis von 47 Mal „Zahl“ zu 53 Mal „Kopf“ ein. Der Vorsprung von „Kopf“ ist also nach 100 Würfen sogar noch größer als nach vier Würfen, jedoch hat sich der "relative" Abstand von „Kopf“ und „Zahl“ stark verringert, beziehungsweise – und das ist die Aussage des Gesetzes der großen Zahlen – der Unterschied der relativen Häufigkeit von „Kopf“ zum Erwartungswert von „Kopf“. Der Wert formula_1 liegt sehr viel näher beim Erwartungswert 0,5 als ¾ = 0,75. Schwaches Gesetz für relative Häufigkeiten. Der einfachste Fall eines Gesetzes der großen Zahlen, das schwache Gesetz für relative Häufigkeiten, ist das Hauptergebnis in Jakob Bernoullis "Ars Conjectandi" (1713). Ein Zufallsexperiment mit genau zwei Ausgängen, genannt "Erfolg" und "Misserfolg", also ein Bernoulli-Experiment, werde formula_2 Mal unabhängig wiederholt. Bezeichnet formula_3 die Erfolgswahrscheinlichkeit bei einer einzelnen Durchführung, dann ist die Anzahl formula_4 der Erfolge binomialverteilt mit den Parametern formula_2 und formula_6. Für den Erwartungswert von formula_4 gilt dann formula_8 und für die Varianz formula_9. Für die relative Häufigkeit formula_10 folgt daraus formula_11 und formula_12. Die Tschebyscheff-Ungleichung angewendet auf formula_13 lautet damit für alle formula_15. Da die rechte Seite der Ungleichung für formula_16 gegen null konvergiert, folgt das heißt, für jedes noch so kleine formula_15 geht die Wahrscheinlichkeit, dass die relative Häufigkeit der Erfolge nicht im Intervall formula_19 liegt, gegen null, wenn die Anzahl der Versuche gegen unendlich geht. Schwaches Gesetz der großen Zahlen. also wenn die arithmetischen Mittel der zentrierten Zufallsvariablen formula_26 stochastisch gegen formula_27 konvergieren. Im häufigen Fall, dass alle formula_28 den gleichen Erwartungswert formula_29 besitzen, ist das gleichbedeutend damit, dass die arithmetischen Mittel formula_30 der formula_28 stochastisch gegen formula_29 konvergieren. Der Beweis der genannten Sätze lässt sich jeweils über die Tschebyscheff-Ungleichung führen, falls die Varianz in den Voraussetzungen enthalten ist. Starkes Gesetz der großen Zahlen. Unter der Annahme, dass die vierten Momente existieren, ist der Beweis des starken Gesetzes der großen Zahlen für Folgen von unabhängigen, identisch verteilten Zufallsvariablen mit Hilfe der Markow-Ungleichung relativ elementar möglich. Schwierigkeiten ergeben sich eher bei der Interpretation der formalen Aussagen, die Gegenstand des starken Gesetzes der großen Zahlen sind. Das starke Gesetz der großen Zahlen impliziert das schwache Gesetz der großen Zahlen. Ein starkes Gesetz der großen Zahlen gilt beispielsweise, wenn die Folge unabhängig ist und die Zufallsvariablen identisch verteilt sind (Zweites Gesetz der großen Zahlen nach Kolmogorow). Eine Form des starken Gesetzes der großen Zahlen für abhängige Zufallsvariablen ist der individuelle Ergodensatz und der "L'p"-Ergodensatz, beide gelten für ergodische stochastische Prozesse. Interpretation der formalen Aussagen. Anders als bei klassischen Folgen, wie sie in der Analysis untersucht werden, kann es in der Wahrscheinlichkeitstheorie in der Regel keine absolute Aussage über die Konvergenz einer Folge von Zufallsergebnissen geben. Grund ist, dass zum Beispiel bei einer Serie von Würfelversuchen Folgen von Zufallsergebnissen wie 6, 6, 6, … nicht ausgeschlossen sind. Bei einer solchen Folge von Zufallsergebnissen würde die Folge der daraus gebildeten arithmetischen Mittel aber nicht gegen den Erwartungswert 3,5 konvergieren. Allerdings besagt das starke Gesetz der großen Zahlen, dass das Ereignis, bei dem die arithmetischen Mittelwerte "nicht" gegen den Erwartungswert 3,5 konvergieren, die Wahrscheinlichkeit 0 besitzt. Man nennt ein solches Ereignis auch fast unmögliches Ereignis. Gegenstand der Gesetze der großen Zahlen ist die zu einer gegebenen Folge von Zufallsvariablen formula_20 gebildete Folge der arithmetischen Mittel der zentrierten Zufallsvariablen formula_53 Aufgrund der beschriebenen Problematik muss die formale Charakterisierung der Konvergenz dieser Folge formula_54 gegen den Wert 0 nicht nur, wie bei einer klassischen Folge von Zahlen, von einem beliebig klein vorgegebenen Toleranzabstand formula_55 ausgehen. Zusätzlich wird eine beliebig kleine Toleranzwahrscheinlichkeit formula_56 vorgegeben. Die Aussage des schwachen Gesetzes der großen Zahlen bedeutet dann, dass zu jeder beliebigen Vorgabe eines Toleranzabstands formula_24 und einer Toleranzwahrscheinlichkeit formula_58 bei "einem" genügend groß gewählten Index formula_2 eine Abweichung formula_60, die den Toleranzabstand formula_24 überschreitet, höchstens mit der Wahrscheinlichkeit formula_58 eintritt. Demgegenüber bezieht sich das starke Gesetz der großen Zahlen auf das Ereignis, dass "irgendeine" der Abweichungen formula_63 den Toleranzabstand formula_24 überschreitet. Geschichte der Gesetze der großen Zahlen. Erstmals formuliert wurde ein Gesetz der großen Zahlen durch Jakob Bernoulli im Jahr 1689, wobei die posthume Veröffentlichung erst 1713 erfolgte. Bernoulli bezeichnete seine Version des schwachen Gesetzes der großen Zahlen als "Goldenes Theorem". Die erste Version eines starken Gesetzes der großen Zahlen für den Spezialfall eines Münzwurfs wurde 1909 durch Émile Borel veröffentlicht. 1917 bewies Francesco Cantelli als Erster eine allgemeine Version des starken Gesetzes der großen Zahlen. Einen gewissen Abschluss erlangte die Geschichte des starken Gesetzes der großen Zahlen mit dem 1981 bewiesenen Satz von N. Etemadi 1981. Der Satz von Etemadi zeigt die Gültigkeit des starken Gesetzes der großen Zahlen unter der Annahme, dass die Zufallsvariablen integrierbar sind (also einen endlichen Erwartungswert besitzen), jeweils dieselbe Verteilung haben und je zwei Zufallsvariablen unabhängig sind. Die Existenz einer Varianz wird nicht vorausgesetzt. Guarbohne. Die Guarbohne ("Cyamopsis tetragonolobus"), auch Guar genannt, ist eine Nutzpflanze aus der Familie der Hülsenfrüchtler (Fabaceae oder Leguminose), Unterfamilie Schmetterlingsblütler (Faboideae). Sie ist nahe verwandt mit einer Reihe anderer, „Bohnen“ genannter Feldfrüchte. Beschreibung. Die Guarbohne erreicht eine Wuchshöhe von bis zu zwei Metern. Die Pflanze bildet etwa 10 cm lange Hülsenfrüchte mit ovalen, etwa 5 mm großen Samen. Verbreitung. Die Guarbohne hat ihren Ursprung wahrscheinlich in Indien, vielleicht aber auch in Zentralafrika. Die Hauptanbaugebiete liegen in Indien und Pakistan. Sie stammt eventuell von der Wildpflanze "Cyamopsis senegalensis" ab. Nutzung. Die Blätter und frischen Hülsen werden als Gemüse gegessen, die ganze Pflanze dient als Grünfutter. Auch die getrockneten Samen („Guarkerne“) können gegessen werden. Wichtigstes Produkt der Pflanze ist das Guarkernmehl (auch "Guar", "Guarmehl" oder "Guargummi" genannt), das hauptsächlich aus dem Mehrfachzucker Guaran besteht. Die äußeren Schichten und der Keimling werden vom Samen abgetrennt, bevor dieser vermahlen wird. Guarkernmehl wird als Verdickungsmittel für eine Vielzahl von Lebensmitteln verwendet (Zusatzstoff E 412). Ähnliche Lebensmittelzusatzstoffe sind Gummi arabicum und Johannisbrotkernmehl aus den Samen des Johannisbrotbaums (siehe auch Pflanzengummi). Eine technische Anwendung von Guarkernmehl ist die Herstellung von Verdickungsmitteln für die Erdöl- und Erdgasförderung (Fracking). Gesellschaftstanz. Mit Gesellschaftstanz bezeichnet man Tänze, die „in Gesellschaft“, d. h. entweder privat bei Feiern oder bei entsprechenden öffentlichen Tanzveranstaltungen, wie sogenannten "Tanztees" oder Bällen, in der Regel von Paaren, getanzt werden. Klassisches Programm der Tanzschulen und Tanzsportvereine. Seit dem frühen 20. Jahrhundert gibt es zunehmend Modetänze. Das Bedürfnis nach einer Vereinheitlichung des Tanzmaterials gab es jedoch schon bald, insbesondere die englischen Tanzlehrer besaßen dieses Verlangen: Die "Standard Ballroom Dances" oder kurz Standardtänze wurden festgelegt. Später kamen die Lateinamerikanischen Tänze hinzu. So werden seit der zweiten Hälfte des 20. Jahrhunderts die lateinamerikanischen Tänze und die Standardtänze als „die Gesellschaftstänze“ bezeichnet. Gesellschaftstanz in dieser stark gefestigten Form wird hauptsächlich nur noch im Bereich des Tanzsportes und in Tanzsportvereinen gelehrt. Tanzschulen unterrichten in erster Linie vereinfachte Formen (siehe Welttanzprogramm) und Modetänze, wie zum Beispiel Discofox, um ein breit gefächertes und aktuelles Angebot zu haben. So finden seit einigen Jahren auch die Swing-Tänze aus den 1930er bis 1950er Jahren wieder Beachtung, sie werden teilweise zu den Gesellschaftstänzen gerechnet. Geschichte. Die größte Verbreitung fand das aus Frankreich stammende Menuett, das im Gegensatz zu den oben aufgezählten Gruppentänzen erstmals auch paarweise getanzt wurde. Grüne Sauce. Frische Kräuter, die in Frankfurter Grüner Soße zu finden sind. Grüne Sauce ist eine kalte Kräutersauce, die meist zu gekochtem Fleisch oder Fisch, kaltem Braten, Pellkartoffeln oder Salzkartoffeln gereicht wird. Sie wird mit Kräutern auf der Basis von Schmand und saurer Sahne bereitet. Auch Pflanzenöl und Eier bzw. Mayonnaise werden verwendet. In Varianten ist grüne Sauce in verschiedenen Ländern bekannt: in Deutschland vor allem aus Frankfurt am Main (Frankfurter Grüne Soße), Mittelhessen und Kassel. In diesen Regionen gilt die jeweilige Zubereitungsvariante als besondere regionale Spezialität. In Italien ist sie als "Salsa verde", in Frankreich als "Sauce verte" bekannt. Geschichte. Vorgänger der grünen Sauce sind in Europa bereits seit 2000 Jahren bekannt. Von den Römern wurde das Rezept aus dem Orient übernommen. Wie sie nach Deutschland gelangte, ist unklar. Möglicherweise waren es Hugenotten, die sich in Kurhessen, auch im Rhein-Main-Gebiet niederließen und die "Sauce verte" aus Frankreich mitbrachten. Andere Quellen verweisen auf die italienische Handelsfamilie Bolongaro, die seit 1733 in Frankfurt vertreten war. Es spricht jedoch einiges für den hugenottischen Ursprung der Grünen Soße, denn sie ist insbesondere auch in Nordhessen in und um Kassel und in Mittelhessen beliebt, wo Ende des 17. Jahrhunderts zahlreiche Hugenottenfamilien angesiedelt wurden. Dass jedoch Frau Aja, die Mutter von Johann Wolfgang von Goethe, die "Grüne Soße" erfunden habe, kann in den Bereich der Legende verwiesen werden. Ein gedrucktes Rezept der Frankfurter Variante erschien zum ersten Mal 1860 in einem Frankfurter Kochbuch von Wilhelmine Rührig. Deutschland: "Frankfurter Grüne Soße". Frankfurter Grüne Soße mit Kartoffeln und Ei Frisch verpackte „Frankfurter Grüne Soße“-Kräuter auf dem Wochenmarkt In die Frankfurter Grüne Soße (mundartlich "Grie Soß" oder "Grie Sos") gehören traditionell sieben Kräuter: Borretsch, Kerbel, Kresse, Petersilie, Pimpinelle, Sauerampfer und Schnittlauch. Zur Zubereitung werden die Kräuter sehr fein gewiegt, mit saurer Sahne oder – vorzugsweise selbst angerührter – Mayonnaise und eventuell hartgekochtem Eigelb verarbeitet, bei einigen Varianten durch ein Sieb gestrichen (selten) und mit Öl, Essig, Zitrone, Salz und Pfeffer aufgeschlagen. Je nach Rezept können noch andere Zutaten wie Schalotten, Zwiebeln, Knoblauch, Senf und Joghurt hinzugegeben werden. Meist wird darauf verzichtet, die Soße zu passieren, weil der intensive Kräutergeschmack dadurch verloren geht. Das Eigelb kann entfallen oder durch gehacktes oder gevierteltes gekochtes Ei ersetzt werden, das am Ende zugegeben wird. In manchen Varianten wird teilweise auch als Grundlage Quark oder Joghurt verwendet, um das Gericht kalorienärmer zuzubereiten. Zur Frankfurter Grünen Soße reicht man gekochte Kartoffeln und hartgekochte Eier. Häufig wird die Sauce auch als Beilage zu gekochter Ochsenbrust, Tafelspitz oder Fisch gereicht. Traditionell werden die erforderlichen Kräuter von Gärtnern im Stadtteil Frankfurt-Oberrad angebaut und in der richtigen Mischung in Rollen aus weißem Papier, in das die Kräuter möglichst schonend eingewickelt werden, auf den Markt gebracht, zum Beispiel in der Kleinmarkthalle. 15 Kräutergärtner haben sich im „Verein zum Schutz der Frankfurter Grünen Soße“ zusammengeschlossen und 2011 beim DPMA einen Schutz der Herkunftsbezeichnung beantragt. Demnach setzt sich die Soße aus den klassischen sieben Kräutern ohne Dill- oder andere Varianten zusammen, wobei jede Kräuterart maximal 30 Prozent der Gesamtmenge betragen darf und mindestens 70 Prozent der Kräuter aus der Frankfurter Region kommen müssen. Der Einspruch des Berliner Unternehmens Hans Grötsch, das seit 1993 ein tiefgekühltes Produkt namens „Frankfurter Grüne Soße“ herstellt, wurde durch Vergleich beigelegt. Der Antrag zum Schutz als geographische Angabe wurde an die Europäischen Kommission weitergeleitet und am 22. Oktober 2015 im Amtsblatt der Union veröffentlicht. Die Einspruchsfrist beträgt drei Monate. Denkmal für die Grüne Soße Die Saison beginnt traditionell am Gründonnerstag und dauert bis zum ersten Frost im Herbst. Die beste Qualität haben die Kräuter im Allgemeinen im Mai. Im Winter ist die Grüne Soße auch erhältlich, jedoch stammen die Kräuter dann aus dem Treibhaus; oft lässt dann die Qualität zu wünschen übrig, weil besonders die empfindlichen Kräuter Kerbel und Pimpinelle nicht hinreichend verfügbar sind. In Frankfurt findet seit 2008 alljährlich im Mai das "Grüne-Soße-Festival" mit Kulturprogramm statt, bei dem die Köchinnen und Köche prämiert werden, die die beste "Grüne Soße" zubereiten. Denkmal für die Grüne Soße. Seit dem 21. Mai 2007 gibt es in Frankfurt-Oberrad auch ein Denkmal für die Grüne Soße. An einem Weg im Norden des Stadtteils stehen sieben kleine Gewächshäuser aus Plexiglas (). Darin befindet sich auf dem Boden jeweils ein Schriftzug mit dem Namen einer Zutat: Borretsch, Kerbel, Kresse, Petersilie, Pimpinelle, Sauerampfer und Schnittlauch. Entworfen hat das Denkmal die Ludwigsburger Künstlerin Olga Schulz. Bei der Luminale, einem Lichtspektakel in Frankfurt und Region, waren die Gewächshäuser vom 15. bis 20. April 2012 eines der 221 besonders beleuchteten Projekte. Deutschland: "Nord- und Mittelhessische Grüne Soße". Zur Kasseler (auch: Kasseläner) oder Nordhessischen Grünen Soße (Kasselänerisch: "Griene Sose") werden ebenfalls traditionell bis zu sieben Kräuter hinzugegeben, üblicherweise sind das Borretsch, Petersilie, Pimpinelle, Sauerampfer und Schnittlauch, je nach Variante kommen Dill und Zitronenmelisse hinzu. Die Kräuter Kerbel, Kresse oder Liebstöckel werden für die Kasseler Grüne Sauce nicht verwendet. Grundstoff der Kasseler Grünen Soße sind ein Teil Schmand und zwei bis drei Teile Saurer Sahne, zu denen die gehackten Kräuter mit ebenfalls gehackten gekochten Eiern und wenig Öl und Essig zugegeben werden. In Mittelhessen gibt man zu den Kräutern (Borretsch, Dill, Schnittlauch, glatte Petersilie, Pimpinelle, Sauerampfer, Zitronenmelisse) auch fein gehackte Schalotten (Steckzwiebeln), Senf und Knoblauch, sowie Pfeffer, Zitronensaft und etwas Zucker dazu. Die hart gekochten Eier werden hier nicht gehackt, sondern nur in grobe Stücke geschnitten und zu den Kartoffeln gegeben. Als Soßenbasis wird Buttermilch verwendet, die entweder mit Schmand oder mit Saurer Sahne gemischt wird. Die Soße (mittelhessisch: "groine Suß") wird traditionell zu Pell-, Salzkartoffeln oder (seltener) Backkartoffeln gereicht. Frankreich: "Sauce verte". Die französische "Sauce verte" ist eine Mayonnaise, die mit feingehackten, eventuell durch ein Sieb gestrichenen Kräutern wie Petersilie, Estragon, Kerbel, Brunnenkresse, Pimpinelle und Schnittlauch vermischt wird. Sie enthält häufig auch Knoblauch. Indien: "Hari Chutney". "Hari Chutney" („Grüner Chutney“) oder "Hara masala" („Grüne Mischung“) besteht aus Minze, Koriandergrün, möglichst frischen Kokosraspeln und reichlich grünen Chilis. Es wird oft mit Reis zu einem Pilaw vermischt; auch Huhn in Grüner Soße ("Hara Masala Murgh") ist bekannt. Italien: "Salsa verde". In der italienischen Küche gibt es eine Vielzahl von kalten Kräutersaucen, deren bekannteste der "Pesto" ist. Die eigentliche "Salsa verde" aus Norditalien, die traditionell zu Bollito misto gereicht wird, ähnelt stark einer Frankfurter Sauce mit Ei und Senf, wenn auch andere Kräuterkombinationen mit z. B. Basilikum und Majoran verwendet werden und üblicherweise Knoblauch enthalten ist. Als weitere Zutaten sind gehackte Kapern verbreitet. Vergleichbar ist der "Bagnetto verde", der durch gekochtes Eigelb und Paniermehl gebunden wird, an Kräutern aber meist nur Petersilie enthält. Er wird auch mit Kapern und eingelegten Sardellenfilets ergänzt. Mexiko: "Salsa verde". Mexikanische Salsa verde neben der roten Variante In der mexikanischen Küche und bei Tex-Mex-Gerichten und Tacos werden zumeist kalte grüne und rote Gewürzsaucen gereicht. Die als Salsa verde bekannte Version beinhaltet pürierte Tomatillos, Chili oder Jalapeños, Korianderkraut und Zitronensaft. Spanien: Baskische "Salsa verde". Die im Baskenland verbreitete "Salsa verde" besteht aus Öl, Mehl, Erbsen und Petersilie. Sie wird vor allem zu Fisch serviert (siehe Baskische Küche). Spanien: Kanarisches "Mojo verde". Auf den kanarischen Inseln wird gerne eine hauptsächlich aus Koriandergrün oder Petersilie bestehende Grüne Sauce "(Mojo verde)" gereicht, die mit Zitrone, Olivenöl, Kreuzkümmel und Salz zubereitet und zum Teil mit grünem Paprika gestreckt wird. Trinidad und Tobago: "Green Seasoning". Green Seasoning ist eine beliebte Würzsauce der trinidadischen Küche und eine wichtige Komponente des Bake and Shark. Die geschmacklich herausstechende Zutat ist langer Koriander, die weiteren verwendeten Kräuter sind Schnittlauch, Thymian, Oregano, Petersilie und Knoblauch. Die frischen Kräuter werden einfach im Standmixer zu einer Paste zerkleinert. In Paramin, dem in der Northern Range gelegenen Zentrum der Gewürzproduktion Trinidads, hat sich eine Variante durchgesetzt, der zusätzlich Schalotten, Zwiebeln, Essig, Salz und Pfeffer beigemengt werden. Gilgamesch. Gilgamesch war nach der sumerischen Königsliste Anfang des 3. Jahrtausends v. Chr. ein König der ersten Dynastie der sumerischen Stadt Uruk. Als Pabilgameš-Utu-pada ist der Name bereits in Texten des 27. Jahrhunderts v. Chr. nachgewiesen. Weitere überlieferte Namen sind (Pa)bilgameš; sumerisch Bilgameš, dGIŠ.BIL.PAP.ga.meš; "Der Vorfahr war ein Held" beziehungsweise "Der Nachkomme ist ein Held", Beiname "Herr von Kulaba und Sohn des Windhauchs", sowie früher auch Izdubar bzw. Iztubar'". Die Heldentaten des früh vergöttlichten Königs und seines Freundes Enkidu werden im Gilgamesch-Epos erzählt. In diesem frühen Werk der Weltliteratur wird Gilgamesch der Bau der ersten Stadtmauer zugeschrieben, der die Stadt Uruk ihre bedeutende Rolle im Süden Mesopotamiens verdankt. Totengott. Bevor Gilgamesch als irdischer König belegt ist, wurde er als Totengott der Unterwelt mit dem Namen „(Pa)bilgamesch“ verehrt. Im Ur-Nammu-Text ist Gilgamesch, zusammen mit Nergal, Namtaru, Nin[…], Dumuzi, Ningišzida und Ḫušbiša, einer der sieben Unterweltsgötter ("lugal kurra"), von denen jeder in einem eigenen Palast wohnt. Historische Belege. Es ist bis heute nicht ganz gesichert, ob Gilgamesch eine reale Person war, da die sumerische Königsliste teilweise unglaubwürdig lange Regierungszeiten für die Könige angibt – im Falle Gilgameschs 126 Jahre. Gilgamesch war vermutlich einer der wichtigsten Herrscher der Sumerer und wurde noch über viele Jahrhunderte in Mesopotamien verehrt und vergöttlicht. Im Schutze der Mauer, die ihm zugeschrieben wird, wurde Uruk zu einem frühen städtischen Zentrum mit Arbeitsteilung, Handwerk und Bürokratie. Die meisten Informationen über Gilgamesch stammen aus dem "Gilgamesch-Epos", dem ältesten bekannten literarischen Epos der Weltgeschichte, das in Keilschrift auf Tontafeln niedergeschrieben wurde. Danach soll König Gilgamesch die Unabhängigkeit Uruks vervollständigt, neue Handelswege eröffnet und vor allem die Stadt mit einer 11,3 km langen, ca. 9 m hohen und genauso tiefen Stadtmauer versehen haben. Nach dem "Gilgamesch-Epos" war er Sohn der Göttin Ninsun und des vergöttlichten Königs Lugalbanda. Die Götter hatten entschieden, dass Gilgamesch zu seiner menschlichen Natur zwei göttliche Attribute erhalten sollte: "Die Manneskraft von Šamaš [Sonnengott] und den Heldensinn von Adad". Damit war Gilgamesch zu "zwei Dritteln" göttlich und "einem Drittel" menschlich, somit auch sterblich. Gilgamesch-Epos. Das "Gilgamesch-Epos" geht auf verschiedene Erzählungen zurück, die bereits 3000 v. Chr. schriftlich in Mesopotamien festgehalten wurden. Es erzählt die Geschichte Gilgameschs und seines Freundes Enkidu: Um die Fronherrschaft des Königs über die Stadt Uruk abzumildern, erschaffen ihm die Götter einen Gefährten, den „Tiermenschen“ Enkidu. Als dieser durch die Liebeskunst der Priesterin Schamkat zum Menschen zivilisiert ist, geht er mit Gilgamesch auf Heldentaten aus. Die beiden töten den Wächter des Waldes Chumbaba und fällen die heiligen Zedern. Nach seiner Rückkehr fordert Ischtar den hünenhaften König zur „heiligen Hochzeit“ auf. Als dieser ablehnt, entsendet Ischtar zur Strafe den Himmelsstier, doch gelingt es den beiden Helden, das riesige Tier zu töten. Als Strafe für ihre Taten entscheiden die Götter, dass Enkidu sterben muss. Der weitere Verlauf des Epos kreist um die Sterblichkeit der Menschen und den Versuch Gilgameschs, ihr zu entrinnen. In seiner Trauer um Enkidu führt ihn die Suche nach dem Sinn des Lebens schließlich in die Unterwelt. Hier erfährt er, wie Utnapischtim durch die Sintflut einen unsterblichen Namen erhielt, und erringt sich selbst durch den Bau der ersten Stadtmauer ewigen Ruhm. Durch seine Wanderungen im Grenzbereich zwischen Menschen, Tod und Göttern wurde er für die Sumerer zum Heros der Weisheit. Der Himmelsstier aber ziert seither als Sternbild Taurus den winterlichen Sternhimmel. Große Teile des Gilgamesch-Epos hat der Wiener Komponist Prof. Alfred Uhl 1956 in Form eines Oratoriums vertont. Es wurde Anfang 1957 unter dem Titel "Gilgamesch. Oratorisches Musikdrama" im Wiener Musikverein uraufgeführt. Dem böhmischen Komponisten Bohuslav Martinů diente es 1958 als Grundlage für "The Epic of Gilgamesh", einer oratorienähnlichen Kantate. Gilgamesch in früheren Dichtungen. Sumerische Tontafeln aus dem 3. Jahrtausend v. Chr. enthalten Fragmente weiterer sechs Dichtungen über Gilgamesch, u. a. zum Himmelsstier, zur Geburt und sogar zu seinem Tod. Sie sind sprachlich und inhaltlich erst teilweise erforscht. Das Gedicht "Gilgamesch und der Himmelsstier" enthält Hinweise, wie solche Dichtungen aufgeführt wurden: Während der Herrscher beim Bier sitzt, trägt ein Sänger das Werk vor. Literatur. "Für weitere Literatur zum Epos siehe unter Gilgamesch-Epos." Gilgamesch-Epos. Das Gilgamesch-Epos ist eine Gruppe literarischer Werke, die vor allem aus dem babylonischen Raum stammt und eine der ältesten überlieferten schriftlich fixierten Dichtungen beinhaltet. Das Gilgamesch-Epos stellt in seinen verschiedenen Fassungen das bekannteste Werk der akkadischen und der sumerischen Literatur dar. Als Gesamtkomposition trägt es den ab der zweiten Hälfte des 2. Jahrtausends v. Chr. belegten Titel „Derjenige, der die Tiefe sah“ (ša naqba īmuru). Eine vermutlich ältere Fassung des Epos ist unter dem Titel „Derjenige, der alle anderen Könige übertraf“ (Šūtur eli šarrī) bereits seit altbabylonischer Zeit (1800 bis 1595 v. Chr.) bekannt. Die umfassendste bekannte Version des Epos, das sogenannte Zwölftafel-Epos des Sîn-leqe-unnīnī, ist auf "elf Tontafeln" aus der Bibliothek des assyrischen Königs Aššurbanipal erhalten, jedoch ist diese Fassung unvollständig. Das vorhandene Schriftmaterial erlaubt die Rückdatierung der ursprünglichen Fassung bis mindestens in das 18. Jahrhundert v. Chr, reicht aber wahrscheinlich in die Abfassungszeit des Etana-Mythos im 24. Jahrhundert v. Chr. zurück. Wiederentdeckung. Die ersten Tontafeln mit Fragmenten des Gilgamesch-Epos wurden 1853 von Hormuzd Rassam gefunden. George Smith (1840–1876) übersetzte sie 1872 und gilt daher als der eigentliche Wiederentdecker des Gilgamesch-Epos. Smith übersetzte das Fragment, das sich mit der Überflutung der Erde beschäftigte und sehr große Ähnlichkeiten zum Bericht der Sintflut im Buch Genesis (und) der Bibel aufweist. Dieses Fragment ist ein Teil der elften und letzten Tafel des Gilgamesch-Epos. Damit wurde die Hypothese gestärkt, dass die Bibel diesen Text in veränderter Form übernommen hatte. Übersetzung. Der Text des Epos musste aus verschiedenen Fragmenten rekonstruiert werden, wobei größere Lücken (Lacunae) bestehen blieben. Da die verschiedenen Fragmente in verschiedenen Sprachen (altbabylonischem Akkadisch, Hurritisch und Hethitisch) verfasst worden waren, ergaben sich Übersetzungs- und Zuordnungsschwierigkeiten. Einige Textstellen waren nicht erhalten und mussten rekonstruiert werden. Häufig war auch die Bedeutung wichtiger Begriffe nicht bekannt. Erst S. N. Kramer, Sumerologe aus Philadelphia (USA), stellte große Teile der sumerischen Mythendichtungen in einen sinnvollen Zusammenhang. Die erste vollständige deutsche Übersetzung erstellte Alfred Jeremias im Jahr 1891. 1934 wurde das Epos von Albert Schott erneut übersetzt. Schott hat die Personennamen des Epos vereinheitlicht, so dass sich der Name Gilgamesch auch für die älteren Erzählungen durchsetzte, die im Original den Namen "dGIŠ-gím-maš" verwenden. Das Gleiche gilt für die Namenspaare Ḫuwawa/Ḫumbaba und Sursun-abu/Ur-šanabi. Mit einer neuen wissenschaftlichen Edition stellte der Londoner Altorientalist Andrew R. George im Jahr 2003 die textkritische Erforschung des Gilgamesch-Epos auf eine neue Grundlage. Aus über 100 Textfunden, die inzwischen neu übersetzt worden waren, ergab sich eine Neubewertung des überlieferten Textes. Zusätzlich konnten zwischen 2003 und 2005 fünf weitere Bruchstücke übersetzt werden. Der Assyriologe Stefan Maul legte im Jahr 2005 eine umfassend überarbeitete, neue, poetische Übersetzung vor, die Ergänzungen, persönliche Interpretationen und Erweiterungen zu den älteren Übersetzungen des Gilgamesch-Epos enthält. Altbabylonisch. Bisher sind nur kleine Bruchstücke bekannt geworden. Es zeichnet sich ab, dass bereits vor der ersten Dynastie Babyloniens beziehungsweise vor der Isin-Larsa-Zeit ein erstes Epos aus den sumerischen Stoffen um Gilgamesch erstellt wurde, das später mehrfach ausgebaut und variiert wurde. Der Held wird in der altbabylonischen Zeit mit dem Zeichen „Giš geschrieben, allerdings wohl „Gil ausgesprochen. Ob darüber hinaus weitere Tafeln zu dieser altbabylonischen Fassung des Epos gehören, ist unklar. Funde weiterer Fragmente deuten darauf hin, dass eventuell zwei oder mehr verschiedene Fassungen dieses Textes existierten. Neben dem Sintfluthelden Uta-na’ištim gibt es im Altbabylonischen das ältere Atraḫasis-Epos über die Sintflut, das außerhalb der Gilgamesch-Tradition steht. Mittelbabylonisch. Unter der kassitischen Dynastie verbreitete sich das Epos bis nach Hattuša und Megiddo. Es wurde über das Hurritische auch in das Hethitische übersetzt. Bisher lässt sich noch kein einheitliches Epos rekonstruieren. Neubabylonisch. Das Zwölftafel-Epos wurde im Alten Orient einem Schreiber des Namens Sîn-leqe-unnīnī zugeschrieben, welcher der „Sekretär“ des Gilgamesch gewesen sei. Von der assyriologischen Forschung wird dieser zumeist als Endredaktor verstanden, welcher bei der Endkomposition des Textes auf ältere, fast identische Werke zurückgegriffen und frühestens im 12. Jahrhundert v. Chr. gelebt hätte – beide Annahmen können jedoch nicht bewiesen werden. Die Endversion des Epos mit etwa 3600 Verszeilen wurde vermutlich in Uruk auf elf Tafeln niedergeschrieben. Der Großteil des Werkes ist durch Tontafel-Fragmente aus der Bibliothek Assurbanipals (669 v. Chr.–627 v. Chr.) in Ninive überliefert, denen eine zwölfte Tafel angehängt wurde, welche eine wortgetreue Übersetzung von „Gilgamesch, Enkidu und die Unterwelt“ enthält. Die hethitische Fassung. Die hethitische Fassung des Epos ist nur sehr bruchstückhaft erhalten (einige Dutzend Bruchstücke von Tafeln), obwohl die Anzahl der Duplikate zeigt, dass das Werk wohl sehr bekannt gewesen sein muss. In der Hauptstadt Hattuša sind außerdem zwei akkadische Versionen gefunden worden, und einige hurritische Fragmente weisen ebenfalls Textbezüge auf. Gegenüber den mesopotamischen Versionen des Epos ist die hethitische Version deutlich vereinfacht und entbehrt vieler Details sowie einer ganzen Reihe von Nebencharakteren. Die hethitische Version umfasst drei Tafeln, aber der Text ist an vielen Stellen unzusammenhängend, weil von den Tafeln zu wenig erhalten ist. Das Epos. Gilgamesch war nach sumerischer Überlieferung König der sumerischen Stadt Uruk; zu einem Drittel menschlich und zu zwei Dritteln göttlich. Sein Name bedeutet "Der Vorfahr war ein Held" beziehungsweise "Der Nachkomme ist ein Held". Das Epos erzählt, abhängig von der jeweiligen Fassung, von seinen Helden­taten mit dem von der Göttin Aruru erschaffenen menschenähnlichen Wesen Enkidu (das oft als Freund, mitunter aber auch nur als Diener in den Texten erscheint), thematisiert aber vor allem seine Suche nach Unsterblichkeit. Eine Reihe anderer altorientalischer Werke weisen auffällige Ähnlichkeiten zur Gilgamesch-Erzählung auf. Dazu zählen auch interessante Parallelen in der späteren biblischen Überlieferung. So erinnert die Figur des biblischen Noach stark an den göttlich auserwählten Helden Utnapischtim. In der Genesis Kapitel findet sich auch das Motiv der Söhne Gottes, die sich auf der Erde materialisiert haben und Beziehungen mit Menschenfrauen eingegangen sind. Die dabei gezeugten Kinder werden „Nephilim“ genannt und als eine Art „Halbgötter“ beschrieben, die für ihre übermenschliche Stärke und ihren aufbrausenden und schlechten Charakter bekannt sind. Es lassen sich auch Entsprechungen im griechischen Götterhimmel mit seinen Titanen und Halbgöttern finden, besonders in den menschlichen Kindern des Zeus, die dieser den Göttersagen zufolge nach Lust und Laune mit sterblichen Frauen gezeugt haben soll. Der Inhalt des Zwölftafel-Epos. Gilgamesch, der Held der Geschichte, ist zu zwei Dritteln Gott und zu einem Drittel Mensch. Er besitzt außergewöhnliche physische Kräfte, wird als furchtloser und ungehobelter Tatmensch geschildert und herrscht als König in Uruk. Sein despotischer Regierungsstil und die bedrückenden Lasten, die mit seinen Bauprojekten verbunden sind, führen insbesondere zur Verärgerung der Frauen von Uruk, die sich bei der Göttin Ištar beschweren. Um den Herrscher zu bändigen, erschafft die Muttergöttin Aruru gemäß der Anordnung des Himmelsgottes An, Vater der Ištar, aus Lehm Enkidu, der zunächst als wildes, menschenähnliches Wesen in der Steppe bei Uruk mit den Tieren der Wildnis zusammenlebt. Gilgamesch erhält mittels zweier Träume Kenntnis von Enkidu. Gilgameschs Mutter Ninsun, Traumdeuterin und Wissende der Zukunft, weist Gilgamesch auf die bevorstehende Ankunft des Enkidu in Uruk hin, der später sein Bruder werden wird. Gilgamesch ist von Ninsuns Mitteilung erfreut und erwartet ungeduldig die Ankunft Enkidus. Ein Fallensteller entdeckt Enkidu, der als Schützer der Wildtiere die Herde vor den tödlichen Anlagen des Fallenstellers bewahrt. Dessen Vater rät ihm, nach Uruk zu gehen und Gilgamesch um die Entsendung der Dirne Šamḫat zu bitten, die durch sexuelle Verführung von Enkidu seine Herde ihm entfremden soll. Gilgamesch wiederholt die Worte des Vaters vom Fallensteller bezüglich Šamḫats, die mit dem Wissen um den ursprünglichen Götterauftrag, Enkidu nach Uruk als Widerpart von Gilgamesch zu führen, sich mit dem Jäger in die Steppe begibt. Als Enkidu Šamḫat entdeckt, erliegt er ihren Verführungskünsten. Nach dem folgenden einwöchigen Liebesspiel flieht, wie vom Vater des Fallenstellers vorhergesagt, Enkidus Herde in die Weiten der Steppe und lässt ihn allein. Šamḫat kann Enkidu überzeugen, mit ihr nach Uruk zu gehen. Während eines Zwischenaufenthaltes in einem Hirtenlager nahe Uruk lernt Enkidu die menschliche Nahrung und das Bier kennen. Zuvor hatte er im Beisein von Šamḫat den Verstand erworben. Enkidu wandelt sich unter anderem durch das Wirken eines Barbiers endgültig zu einem Menschen. In Uruk angekommen, treffen Enkidu und Gilgamesch aufeinander. Der sich anschließende Kampf endet unentschieden. Ermüdet von der Auseinandersetzung, sinken die beiden Helden nieder und schließen Freundschaft. Gilgamesch und Enkidu nehmen sich vor, gemeinsam eine Heldentat zu vollbringen und Ḫumbaba, den Hüter des Zedernwaldes, zu töten und in Ištars Wald Zedern zu fällen. Gilgameschs Mutter Ninsun bittet angesichts der bevorstehenden Gefahren den Sonnengott Šamaš um Hilfe und erklärt Enkidu durch Adoption zu ihrem Sohn. Zusätzlich versieht sie Enkidu im Nacken mit ihrem göttlichen Zeichen als Schutzsymbol. Nunmehr als Brüder machen sich Gilgamesch und Enkidu auf den Weg. Sie finden Ḫumbaba, können ihn töten, und fällen anschließend die Zedern. Als Ištar den zurückgekehrten Helden Gilgamesch erblickt, verliebt sie sich in ihn. Doch Gilgamesch weist sie zurück. Erbost darüber geht sie zum Göttervater Anu und verlangt, den Himmels-Stier auszusenden, um Gilgamesch zu töten. In Uruk angelangt, richtet das Ungeheuer schlimme Zerstörungen an. Der Stier tötet Hunderte von Uruks Männern, bis Enkidu und Gilgamesch den Kampf aufnehmen und ihn töten. Als die Götter dies sehen, sind sie sich einig, dass die beiden jetzt zu weit gegangen sind. Sie beschließen, die Aufrührer zu bestrafen, zunächst, indem sie eine Krankheit schicken, an der Enkidu stirbt. Der Tod Enkidus bringt Gilgamesch zur Verzweiflung, und er begibt sich auf eine lange Wanderschaft, um in der Fremde das Geheimnis des Lebens zu finden. Er will nicht das gleiche Schicksal wie Enkidu erleiden und hofft, dass ihm sein Urahn Uta-napišti dabei helfen kann. Auf seiner Suche irrt er zunächst durch die Weite der Steppe und kommt schließlich zum Berg Mašu, in dem sich der Einstieg in den nächtlichen Tunnel befindet, den die Sonne Šamaš nachts auf ihrem Weg von West nach Ost durchläuft. Gilgamesch kann die Wächter des Tunnels, zwei Wesen, die halb Mensch, halb Skorpion sind, überreden, ihn passieren zu lassen. Als er aus dem Tunnel heraustritt, befindet er sich im Edelsteingarten und trifft dort an einer Schänke auf die göttliche Wirtin Siduri, die ihm den Weg zum Fährmann Ur-šanabi weist. Gilgamesch findet also den Fährmann Ur-šanabi, der ihn über das „Wasser des Todes“ zur Insel „Land der Seligen“ bringen soll, auf der Uta-napišti mit seiner Frau lebt. Aber im Streit zerschlägt Gilgamesch die Wesen, genannt "Die Steinernen", die die Stocherstangen als Fährhilfe für die Überfahrt herstellten. Nur mit diesen speziellen Stangen kann sich ein Schiffer problemlos über die Wasser des Todes fortbewegen. Da "Die Steinernen" ansonsten Ur-šanabi begleiteten, musste nun Gilgamesch deren Funktion übernehmen und zusätzlich 300 Stocherstangen aus Holz schnitzen. Nach Abfahrt lässt Gilgamesch die gerade benutzte Stange in das Wasser hineingleiten, da sie mit dem Wasser des Todes in Berührung gekommen und dadurch unbrauchbar geworden war. Als sie die letzte Stange aufgebraucht haben, sind sie noch immer nicht an der Insel angelangt. Gilgamesch zieht Ur-šanabis Kleid aus und hängt es wie ein Segel zwischen seinen Armen auf. So erreichen sie Utnapišti. Auf der elften Tafel des Epos wird die Geschichte einer Flutkatastrophe erzählt. Eine vollständig erhaltene Fassung der Tafel ist nicht vorhanden. Deshalb musste die Handlung aus sumerischen, babylonischen, akkadischen, hurritischen und hethitischen Überlieferungsfragmenten rekonstruiert werden. Demnach sucht Gilgamesch seinen Urahnen auf, der in der sumerischen Fassung der Erzählung Ziusudra heißt und ihm die Geschichte von der Flut erzählt (Rahmenhandlung). Dieser Erzählung zufolge hatte der Gott Enki den Menschen Ziusudra vor einer Flut gewarnt, die alles Leben vernichten wird, und ihm geraten, ein Schiff zu bauen. Verkompliziert wird die Situation dadurch, dass Enki den anderen Göttern zuvor hatte schwören müssen, über die kommende Katastrophe Stillschweigen zu bewahren. Um seinen Eid nicht zu brechen, wendet Enki eine List an und redet nicht unmittelbar mit dem Menschen, sondern spricht seine Worte gegen die aus Schilf bestehende Wand des Hauses, in dem Ziusudra schläft. So wird Ziusudra im Schlaf in Form eines Traumes vor der Gefahr gewarnt. Er folgt daraufhin den erhaltenen Befehlen Enkis aus dem Traum, reißt sein Haus ab und baut aus dem Material ein Boot. Auf ausdrückliche Weisung Enkis verrät er den anderen Menschen nichts von dem drohenden Untergang. In das Boot lässt Ziusudra nun die Tiere der Steppe, seine Frau und seine gesamte Sippe einsteigen. Die babylonische Fassung berichtet im weiteren Verlauf über den Ablauf der Katastrophe, die in Form einer Flut über das Land hereinbricht und es untergehen lässt. Nach dem Ablaufen des Wassers werden Ziusudra und seine Frau von Enlil für die Rettung der Lebewesen dadurch belohnt, dass beide vergöttlicht werden und ein göttliches Leben auf der Götterinsel „Land der Seligen“ führen dürfen. Im Gilgamesch-Epos wird Šuruppak im unteren Mesopotamien als der Ort angegeben, von dem die Flut ihren Ausgang nahm. Nun setzt die Rahmenhandlung wieder ein. Nach dem Anhören der Geschichte fordert Uta-napišti von Gilgamesch, den Schlaf, als kleinen Bruder des Todes, zu bezwingen, doch Gilgamesch schläft ein. Während seines Schlafes legt die Frau Utanapištis täglich ein Brot an sein Bett, damit er sein Scheitern erkenne. Nachdem er aufgewacht ist und sein Scheitern erkennen musste, erklärt Uta-napišti ihm zumindest, wo sich die Pflanze der ewigen Jugend befindet. Gilgamesch kann das Gewächs finden und macht sich auf den Weg zurück in die Heimat, wo er die Wirkung der Pflanze zunächst an einem Greis testen will, ehe er die Substanz der Pflanze an sich selbst erprobt. Als Gilgamesch an einem Brunnen rastet, ist er jedoch unvorsichtig und eine Schlange kann ihm die Pflanze der ewigen Jugend stehlen. Betrübt und niedergeschlagen kehrt er nach Uruk zurück, bereichert um die Kenntnis, dass er sich nur durch große Werke als guter König einen unsterblichen Namen erwerben kann. So beginnt er mit dem Bau der Stadtmauer von Uruk. Moderne Rezeption. Im Gegensatz zu vielen griechisch-römischen Mythen wurde der Gilgamesch-Stoff erst spät für Musik (als Opern, Oratorien) und Literatur (insbesondere Fantasy­romane) als Sujet entdeckt. Thomas Mann hat in seiner Tetralogie "Joseph und seine Brüder" (ab 1933), der Bibelforschung seiner Zeit folgend, die unter anderem nach Vorlagen der biblischen Motive suchte, Elemente der Gilgamesch-Mythologie in die Josephs-Legende verwoben. Hans Henny Jahnns Romanzyklus Fluss ohne Ufer (ab 1949) basiert in wesentlichen Motiven auf dem Gilgamesch-Epos. Zu den modernen Interpretationen des Mythos zählen Stephan Grundys Roman "Gilgamesch" von 1998 sowie das 2001 erschienene Drama "Gilgamesh" von Raoul Schrott. Auch der 1988 erschienene Roman "Gilgamesch, König von Uruk" von Thomas R. P. Mielke erzählt eine weitere Variante des Epos. "Gilgamesch im Outback" ist eine Fantasy-Geschichte von Robert Silverberg, in der Gilgamesch und Enkidu in der Unterwelt weiter zusammenleben, sich entzweien und mit der Hilfe von Albert Schweitzer wieder zusammenfinden. Außerdem erschien 2006 "Gilgamesh: A Verse Play (Wesleyan Poetry)" von Yusef Komunyakaa. In der Folge "Darmok" der Star-Trek-Serie erzählt Captain Picard einem im Sterben liegenden Außerirdischen Teile des Gilgamesch-Epos. Der amerikanische Science-Fiction-Autor Robert Silverberg spinnt in seinem 1990 erschienenen Roman "Das Land der Lebenden" (im Original "To the Land of the Living") die Gilgamesch-Erzählung weiter, indem er Gilgamesch in einem Totenreich „wiederauferstehen“ lässt, das sich nur geringfügig von unserer heutigen Welt unterscheidet. Sämtliche Toten unserer Welt, aus allen Zeitaltern der Geschichte, sind dort versammelt. So trifft Gilgamesch nicht nur auf Platon, Lenin, Albert Schweitzer, Picasso und viele andere – sondern auch auf seinen Freund Enkidu, nur um ihn allerdings kurz darauf wieder zu verlieren. In der Videospielszene erlangte Gilgamesh Bekanntheit durch diverse Auftritte in der japanischen Computer-Rollenspiel-Reihe Final Fantasy, als Gegner oder Helfende Hand. Dargestellt als mächtiger gepanzerter Krieger und Schwertsammler besitzt er im Kampf unter anderem die Macht Enkidu aus der Unterwelt zu beschwören. Das Gilgamesch-Epos ist mehrfach vertont worden. 1957 wurde im Wiener Musikverein das Oratorium "Gilgamesch" von Alfred Uhl uraufgeführt, 1958 in Basel "The Epic of Gilgamesh" von Bohuslav Martinů (komponiert im Winter 1954/55). Von 1964 ist die Oper "Gılgamış" von Nevit Kodallı, in türkischer Sprache, ebenso "Gılgameş" (1962–1983), komponiert von Ahmed Adnan Saygun. Von 1998 gibt es ein Tanzoratorium nach dem Gilgamesch-Epos mit dem Titel "Die Ordnung der Erde" von Stefan Heucke. Die Oper "Gilgamesh" (komponiert 1996–1998) von Volker David Kirchner wurde 2000 an der Niedersächsischen Staatsoper in Hannover uraufgeführt. Wilfried Hiller schuf 2002 ein Vokalwerk nach dem Gilgamesch-Epos mit dem Titel "Gilgamesch" für Bariton und Instrumente. In der Bildenden Kunst haben der Maler Willi Baumeister und der Grafiker Carlo Schellemann in jeweiligen Bilderserien dem Gilgamesch-Epos visuell Gestalt gegeben. Auf 358 Seiten erschien 2010 die Gilgamesch-Epos-Interpretation als Graphic Novel illustriert durch den Künstler Burkhard Pfister. Gene Roddenberry. Gene Roddenberry im Jahr 1976 Eugene Wesley „Gene“ Roddenberry (* 19. August 1921 in El Paso, Texas; † 24. Oktober 1991 in Santa Monica, Kalifornien) war ein Drehbuchautor, Fernseh- und Filmproduzent und Schöpfer von Star Trek. Die Serien "Andromeda" und "Mission Erde" wurden von seiner Witwe Majel Barrett aus seinem Nachlass erschaffen. Roddenberry war ein Anhänger des Humanismus. Leben und Wirken. Roddenberry wurde 1921 in Texas geboren. Er besuchte kurzzeitig das "Los Angeles City College". Im Zweiten Weltkrieg war er B-17-Bomberpilot bei den amerikanischen Army Air Forces. Er flog insgesamt 89 Einsätze während des Pazifikkrieges und erhielt für seine Leistungen das Distinguished Flying Cross. Nachdem er im Juli 1945 ehrenhaft im Range eines Captains aus der USAAF entlassen wurde, arbeitete er bis 1949 als Pilot bei der PanAm. Im Juni 1947 erhielt er eine Belobigung der damaligen Civil Aeronautics Authority (heute Federal Aviation Administration) der Vereinigten Staaten für seine Leistungen während einer Rettungsmission nach dem Absturz des PanAm-Flugs 121 ("Clipper Eclipse") über der Syrischen Wüste. Von 1949 bis 1956 war er Sergeant bei der Polizei von Los Angeles. Dort war er Untersuchungsleiter des "Office of Chief of Police" und bereitete Reden für seinen Vorgesetzten Chief William H. Parker (1905–1966) vor. Seit Anfang der 1950er betätigte er sich auch als freier Drehbuchautor und schrieb Drehbücher für zahlreiche US-Fernsehserien, unter anderem "Polizeibericht", "Streifenwagen 2150", "Dr. Kildare", "Gnadenlose Stadt", "The U.S. Steel Hour" und "Have Gun, Will Travel" (Chefautor). 1959 versuchte er, die erste selbst konzipierte Serie "333 Montgomery Street" unterzubringen, und produzierte dafür einen Pilotfilm, der jedoch abgelehnt wurde. In diesem Film spielte DeForest Kelley die Hauptrolle, der später als Dr. Leonard McCoy in "Raumschiff Enterprise" berühmt werden sollte. 1963 hatte Roddenberry mit "The Lieutenant" Glück. MGM kaufte die Serie, die sich mit dem Marine-Corps in Friedenszeiten beschäftigte. Die Hauptrollen waren mit Robert Vaughn und Gary Lockwood besetzt (Lockwood war später als "Gary Mitchell" in "Where no man has gone before" ("Raumschiff Enterprise", Episode 3) zu sehen). 1964 regte sich endlich Interesse an "Raumschiff Enterprise" beim damals unabhängigen Studio Desilu Productions, das NBC dazu bewegen konnte, Roddenberry 20.000 US-Dollar zur Verfügung zu stellen, um aus drei Episodenvorlagen, die auf Grundlage des Serienkonzeptes entstanden, eine zu verfilmen. NBC entschied sich für "The Cage" (dt. Titel: "Der Käfig"). Die Produktion des Pilotfilms dauerte von Oktober 1964 bis Februar 1965. Die Präsentation bei NBC war ein Desaster: Der Film war zu teuer (630.000 US-Dollar statt üblicher 160.000 bis 180.000 US-Dollar), zu lang (65 Minuten statt 50 Minuten für Serienepisoden) und der angedeutete Internationalismus schien nicht zeitgemäß. Dennoch entschied man sich – gegen jede Erwartung – dafür, einen zweiten Pilotfilm in Auftrag zu geben. Damit war "Raumschiff Enterprise" fürs erste gerettet. Am 8. September 1966 wurde die erste Episode "The Man Trap" (dt. Titel: "Das Letzte seiner Art") bei NBC ausgestrahlt. "Raumschiff Enterprise" erreichte in der Erstausstrahlung keine besonders hohen Einschaltquoten und war mehrfach kurz davor, abgesetzt zu werden. Die Fans der Serie, die sich selbst Trekkies (im englischen Sprachraum auch häufig "Trekkers") nannten, sorgten jedoch durch organisierte Briefaktionen dafür, dass die Serie bis September 1969 weiter lief. Letztendlich stellte sich aber kein kommerzieller Erfolg ein, und die Serie wurde eingestellt. 1969 heirateten Roddenberry und Majel Barrett. Paramount Television versuchte seine Verluste zu kompensieren, indem sie die Serie günstig an möglichst viele kleine Fernsehsender verkaufte. In dieser Zeit gewann Star Trek einen enormen Popularitätsschub, wurde weltweit ausgestrahlt und erreichte Kultstatus. Dies veranlasste Paramount dazu, 1973 eine Zeichentrickserie zu produzieren, und 1975 die Planung einer Neuauflage der Serie unter dem Arbeitstitel '. Als dieses Projekt scheiterte, nahm man einen Kinofilm in Angriff. Der Kinofilm ' von 1979 war erfolgreich genug, dass weitere Kinofilme folgten und schließlich im Jahr 1987 eine neue Serie ', der nach dem Tod Roddenberrys weitere Ableger-Serien folgten. Des Weiteren wurden noch andere seiner Ideen verfilmt, beispielsweise Andromeda und Mission Erde. Gene Roddenberry starb am 24. Oktober 1991 an Herzversagen. Am 21. April 1997 beförderte eine Pegasus-XL-Rakete einen Teil seiner Asche und der von 20 anderen Personen, unter anderem Timothy Leary, in eine Erdumlaufbahn. Damit war Roddenberry einer der ersten, die sich im Weltraum bestatten ließen ("siehe" Weltraumbestattung). Die Kapsel mit der Asche verglühte im Jahr 2004 in der Atmosphäre. Eine weitere Weltraumbestattung ist für das Jahr 2016 geplant, bei der seine Asche zusammen mit der seiner 2008 verstorbenen Witwe Majel Barrett in den Weltraum befördert werden soll. Auszeichnungen und Ehrungen. Roddenberry war 1985 der erste Autor und Produzent, der einen Stern auf dem Hollywood Walk of Fame erhielt. Eines der Produktions- und Verwaltungsgebäude der Paramount-Studios auf dem Melrose Boulevard ist das Gene Roddenberry Building. In Anerkennung des Lebenswerkes von Gene Roddenberry beschloss die Internationale Astronomische Union ("IAU") 1994, einen Krater auf dem Mars nach ihm zu benennen. Er liegt auf −49,9° Breite und 4,5° Länge areographischer (martianischer, d. h. den Mars betreffend) Koordinaten und hat einen Durchmesser von 140 km. Auch der Asteroid (4659) Roddenberry trägt seinen Namen. Am 4. Oktober 2002 wurde in Anwesenheit seines Sohnes Eugene W. Roddenberry das El Paso Independent School District Planetarium in Roddenberry Planetarium umbenannt. Im selben Jahr wurde ihm postum — sowie seiner inzwischen ebenfalls verstorbenen Ehefrau Majel Barrett Roddenberry — von der Space Foundation der Douglas S. Morrow Outreach Award für Verdienste um die öffentliche Wahrnehmung von Weltraumprogrammen verliehen. Das Science Fiction Museum in Seattle nahm Gene Roddenberry zusammen mit Regisseur Ridley Scott, Künstler Ed Emshwiller und Autor Gene Wolfe am 16. Juni 2007 in die Science Fiction Hall of Fame auf. Die Verleihung wurde von dem Schauspieler und Schriftsteller Wil Wheaton moderiert. Gerhart Hauptmann. Gerhart Johann Robert Hauptmann (* 15. November 1862 in Ober Salzbrunn (Szczawno-Zdrój) in Schlesien; † 6. Juni 1946 in Agnetendorf (Agnieszków) in Schlesien) war ein deutscher Dramatiker und Schriftsteller. Er gilt als der bedeutendste deutsche Vertreter des Naturalismus, hat aber auch andere Stilrichtungen in sein Schaffen integriert. 1912 erhielt er den Nobelpreis für Literatur. Kindheit und Jugend. Vater Robert Hauptmann mit seinem Sohn Gerhart Gerhart Hauptmann wurde 1862 im niederschlesischen Obersalzbrunn geboren. Seine Eltern waren die Eheleute Robert (1824–1898) und Marie Hauptmann, geborene Straehler (1827–1906), die am Ort ein Hotel betrieben. Hauptmann hatte drei ältere Geschwister: Georg (1853–1899), Johanna (1856–1943) und Carl (1858–1921). In der Nachbarschaft war der junge Hauptmann als fabulierfreudig bekannt. Seinen Rufnamen Gerhard änderte er später in Gerhart. Ab 1868 besuchte er die Dorfschule, ab dem 10. April 1874 die Realschule in Breslau, für die er nur knapp die Eignungsprüfung geschafft hatte. Hauptmann hatte Schwierigkeiten, sich in die neue Umgebung der Großstadt einzuleben; gemeinsam mit seinem Bruder Carl wohnte er zunächst in einer heruntergekommenen Schülerpension, ehe sie bei einem Pastor unterkamen. Darüber hinaus bereitete ihm der preußisch geprägte Schulalltag Probleme. Ihn störten vor allem die Härte der Lehrer und die Besserbehandlung der adligen Mitschüler. Eine sich daraus entwickelnde Abneigung und zahlreiche Krankheiten, deretwegen er nicht am Unterricht teilnehmen konnte, führten dazu, dass Hauptmann das erste Jahr wiederholen musste. Er schloss sich einem "Jünglingsbund" an, der utopische Pläne entwickelte. Eine neue Gesellschaftsordnung sollte geschaffen werden mit Nacktkultur und Liebesfreiheit, fern von den Zwängen und Vorurteilen der wilhelminischen Gegenwart. "Der Leitsatz, der uns immer begleitete, hieß: Rückkehr zur Natur". In Übersee sollte eine alternative Siedlung begründet werden von der freisinnigen Art, wie sie Jahre später auf dem Monte Verità von Ascona entstand. Mit der Zeit allerdings lernte er Breslau wegen der Möglichkeit schätzen, das Theater zu besuchen. Im Frühjahr 1878 verließ Hauptmann die Realschule, um Landwirtschafts-Eleve auf dem Gutshof seines Onkels Gustav Schubert in Lohnig (heute Łagniewniki Średzkie bei Udanin) zu werden, ab Herbst im nahegelegenen Lederose (heute Różana). Nach anderthalb Jahren musste er die Lehre abbrechen. Er war der Arbeit physisch nicht gewachsen und hatte sich ein Lungenleiden zugezogen, das ihn in den folgenden zwanzig Jahren mehrmals in Lebensgefahr brachte. Studium und Bildhauerdasein. a> in Zitzschewig, heute Radebeul (Museumsverbund) Gerhart Hauptmann (rechts) und Marie Thienemann, 1881 Nachdem sein Versuch gescheitert war, das „Einjährigen-Examen“ zu absolvieren, trat Hauptmann im Oktober 1880 in die Bildhauerklasse der Königlichen Kunst- und Gewerbeschule in Breslau ein. Hier traf er Josef Block, mit dem ihn zeitlebens eine tiefe Freundschaft verband. Nach vorübergehendem Ausschluss wegen „schlechten Betragens und unzureichenden Fleißes“ und baldiger Wiederaufnahme (auf Empfehlung von Professor Robert Härtel) verließ Hauptmann die Hochschule 1882. Für die Hochzeit seines Bruders Georg mit der Radebeuler Kaufmannstochter Adele Thienemann schrieb er das kleine Festspiel "Liebesfrühling", das am Polterabend auf Hohenhaus uraufgeführt wurde. Bei der Hochzeit lernte er auch die Schwester der Braut, Marie Thienemann, kennen. Er verlobte sich heimlich mit ihr, Marie unterstützte ihn fortan finanziell, und das ermöglichte ihm, zum Wintersemester 1882/83 ein Studium der Philosophie und der Literaturgeschichte an der Universität Jena zu beginnen, das er aber auch bald abbrach. Danach finanzierte Marie ihm eine Mittelmeerreise, die er mit Carl unternahm. Er beschloss, sich in Rom als Bildhauer niederzulassen, hatte aber keinen Erfolg. Seine Versuche, in der deutschen Gemeinde Roms Fuß zu fassen, misslangen, und seine überlebensgroße Tonplastik eines germanischen Kriegers fiel in sich zusammen. Hauptmann kehrte enttäuscht nach Deutschland zurück und begann ein Zeichenstudium an der Königlichen Akademie Dresden, das er ebenso wenig beendete wie ein anschließendes Geschichtsstudium an der Universität Berlin. Er widmete sein Interesse eher dem Theater als dem Studium. Ehe mit Marie Thienemann – Beginn als Schriftsteller. Die Villa Lassen in Erkner (Museumsverbund) Gerhart Hauptmann heiratete am 5. Mai 1885 Marie Thienemann vom Hohenhaus in Radebeul. Im Juli holten sie zusammen mit Hauptmanns Bruder Carl und dessen Frau Martha (einer weiteren Schwester von Marie, Hochzeit 1884) ihre Hochzeitsreise nach Rügen nach. Sie besuchten erstmals die Insel Hiddensee, die in Zukunft ein beliebtes Reiseziel Hauptmanns werden sollte. Weil das Stadtleben ihm Lungenprobleme bereitete, wohnten Hauptmann und seine Frau für die nächsten vier Jahre in Erkner in der Villa Lassen. Dort kamen ihre drei Söhne Ivo (1886–1973), Eckart (1887–1980) und Klaus (1889–1967) zur Welt. 1889 zog Hauptmann in die Schlüterstraße 78 in Charlottenburg bei Berlin. Dort nahm er Verbindung mit dem naturalistischen Literaturverein "Durch" auf, dem unter anderem Karl Bleibtreu und Wilhelm Bölsche angehörten. Während eines Aufenthalts in Zürich lernte er an Pfingsten 1888 den Naturprediger Johannes Guttzeit (1853-1935) kennen, der ihm das Vorbild wurde für die Erzählung "Der Apostel". Unter seinem Einfluss und dem des Hirnforschers und Alkoholgegners Auguste Forel wandelte sich Hauptmann für eine Zeit lang zum Lebensreformer und Abstinenzler. Diese Thematik ging ein in die Gestalt des Loth in seinem Drama "Vor Sonnenaufgang", das ihm den Durchbruch als Dramatiker brachte. Der Theaterskandal um dieses krass naturalistische Stück machte ihn in Berlin und darüber hinaus bekannt. Hauptmann bezog 1891 das gemeinsam mit seinem Bruder Carl gekaufte Haus in Schreiberhau im schlesischen Riesengebirge. Heute befindet sich dort im Haus ein Museum, eine Außenstelle des Riesengebirgsmuseums in Hirschberg (Jelenia Góra). Dort wird zeitgenössische polnische Kunst aus dem Riesengebirge gezeigt und mit einer kleinen Ausstellung noch immer an die Brüder Hauptmann erinnert, was sich auch durch die Mitgliedschaft im "Museumsverbund Gerhart Hauptmann" zeigt. Ab 1890 entstanden mit "Das Friedensfest" (1890), "Einsame Menschen" (1891) und "Der Biberpelz" (1893) weitere Dramen Hauptmanns. Auch Komödien wie "Kollege Crampton" (1891) verfasste er, doch einzig mit "Der Biberpelz" gelang es ihm, „auch das gesellschaftliche Anliegen des Naturalismus erfolgreich und überzeugend einzuarbeiten“. In seinem Drama "Die Weber", welches er zum größten Teil in Schreiberhau verfasste, verarbeitete Gerhart Hauptmann den Aufstand der schlesischen Weber von 1844. Die Sozialanklage, die er in seinem Drama formulierte, löste im Jahr 1892 ein Beben aus. Das Drama verhalf Hauptmann – in den Aufführungen von Otto Brahms „Freier Bühne“ – zum Durchbruch und wurde von Theodor Fontane lebhaft begrüßt. 1893 wurde Margarete Marschalk Hauptmanns Geliebte. Um Abstand zu gewinnen, fuhr Marie mit ihren Söhnen in die Vereinigten Staaten. Hauptmann bereitete in Paris die französische Erstaufführung von "Hanneles Himmelfahrt" vor und reiste Marie nach, ohne die Premiere abzuwarten. Der Riss war aber nicht mehr zu überbrücken. Nach mehreren Jahren des Getrenntseins wurde die Ehe im Juli 1904 geschieden. Marie wohnte jedoch noch bis 1909 in der 1899 von Hauptmann erbauten Villa Rautendelein in Dresden-Blasewitz. Ehrungen und Engagement für den Weltkrieg. Das Haus Wiesenstein in Agnetendorf (Museumsverbund) Ab 1901 bewohnte Hauptmann mit Margarete Marschalk das Haus Wiesenstein in Agnetendorf (heute "Jagniątków"); er nannte es „die mystische Schutzhülle meiner Seele“. Im Vorjahr hatte Margarete den gemeinsamen Sohn Benvenuto (1900–1965) zur Welt gebracht. Im September 1904 vermählte Hauptmann sich mit ihr; die zweite Ehe währte bis zu seinem Tod und geriet nur kurz, 1905/06, durch seine Liaison mit der 16-jährigen Schauspielerin Ida Orloff in eine ernste Krise. Hauptmann war 1905 eines der ersten von 31 Mitgliedern der Berliner Sektion in der Gesellschaft für Rassenhygiene des Alfred Ploetz. 1909 kam es zur Begegnung mit dem Wanderpropheten Gusto Gräser vom Monte Verità, dessen Gestalt eingegangen ist in Hauptmanns ersten Roman "Der Narr in Christo Emanuel Quint" (1910). Er erzählt die Geschichte eines Wanderpredigers, der Sonnenkult und Jesusnachfolge miteinander verband. 1912 folgte der Roman "Atlantis", der 1913 verfilmt wurde. Von den Möglichkeiten des neuen Mediums angeregt, schrieb Hauptmann selbst einige Filmszenarien (z. B. "Apollonius von Tyrus"), die jedoch nicht realisiert wurden. 1905 wurde Gerhart Hauptmann zum Ehrenmitglied der Berliner Secession ernannt. Das Schreiben von Hans Baluschek unterzeichneten Fritz Rhein, Ludwig Stutz, Leo von König, Hans Dammann, Max Liebermann, Heinrich Hübner, Fritz Klimsch, Georg Kolbe, Robert Breyer, Ulrich Hübner, Walter Leistikow, Ernst Oppler, Jacob Alberts, Käthe Kollwitz und August Endell. Um die Jahrhundertwende setzten offizielle Ehrungen ein. Dreimal erhielt Hauptmann den österreichischen Grillparzer-Preis, ferner die Ehrendoktorwürde der Universität Leipzig (1909) und des Worcester College der University of Oxford (1905). 1912 wurde er „vor allem als Anerkennung für sein fruchtbares und vielseitiges Wirken im Bereich der dramatischen Dichtung“ mit dem Nobelpreis für Literatur ausgezeichnet. Kaiser Wilhelm II. schätzte den „sozialdemokratischen“ Dichter nicht. Gegen die Verleihung des Schillerpreises an Hauptmann (für "Hanneles Himmelfahrt") legte er 1896 sein Veto ein. Auf Betreiben seines Sohnes, des Kronprinzen Wilhelm, wurde 1913 in Breslau Hauptmanns "Festspiel in deutschen Reimen" abgesetzt, weil darin das hundertjährige Jubiläum der Befreiungskriege nicht mit Hurrapatriotismus begangen, sondern mit pazifistischen Akzenten versehen wurde. Derselbe Gerhart Hauptmann jedoch, der im "Festspiel" den Popanz des Militarismus buchstäblich beerdigt hatte, gehörte ein Jahr später auch zu den vielen, die den Ersten Weltkrieg bejahten. Er unterzeichnete das Manifest der 93 und publizierte entsprechende Gelegenheitsverse (die sich wie unfreiwillige Satiren lesen und die er im Manuskript später eigenhändig durchstrich). 1915 erkannte Wilhelm II. ihm den Roten Adler-Orden IV. Klasse zu – die niedrigste Stufe dieses Ordens. Nach der militärischen Niederlage des Reichs und dem Sturz der Monarchie flüchtete sich Hauptmann Trost suchend in die pazifistische Kolonie Monte Verità bei Locarno. In den Bergen über der Maggia hatte er die Vision eines heidnischen Heilands, eines apollinischen Hirten, der keine Marterspuren mehr an sich trägt. Mit diesem Bild endet sein großes Versepos "Till Eulenspiegel" von 1928. In ihm setzte er auch dem Pazifisten und Lebensreformer Hans Paasche (1881–1920), der von fanatischen Nationalisten ermordet worden war, ein dichterisches Denkmal. Dieses Langgedicht bezeugt den Wandel des ehemaligen Nationalisten, der sich nun auch für Mahatma Gandhi einsetzte. Repräsentativer Dichter Deutschlands. Gerhart Hauptmann mit seiner Ehefrau Margarete, 1932 Das 1929 von Hauptmann erworbene und erweiterte Haus Seedorn auf Hiddensee (Museumsverbund) Hauptmanns Kriegseuphorie wandelte sich bald. So beteiligte er sich an einer von zahlreichen Intellektuellen unterschriebenen Erklärung, die am 16. November 1918 im "Berliner Tageblatt" veröffentlicht wurde und sich mit der Republik solidarisierte. Dass Hauptmann eine Kandidatur als Reichspräsident erwog, wurde 1921 dementiert, das Amt des Reichskanzlers ihm aber angeboten. Im darauf folgenden Jahr wurde ihm als erstem der Adlerschild des Deutschen Reiches verliehen. Zu dieser Zeit war die Nachfrage nach Hauptmanns Werken schon rückläufig, so dass er, um seinen Lebensstandard zu halten, Verfilmungen und Fortsetzungsromane machte. Trotzdem erfreute er sich großer Popularität. Im Ausland galt er als der Repräsentant der deutschen Literatur schlechthin. 1932 begab er sich wegen des Goethejahres auf eine Vortragsreise durch die USA, auf der ihm die Ehrendoktorwürde der Columbia University verliehen wurde. Zudem erhielt er den Goethepreis der Stadt Frankfurt am Main. Anlässlich seines 70. Geburtstags erhielt er mehrere Ehrenbürgerwürden; es gab zahlreiche Ausstellungen und vor allem viele Aufführungen seiner Werke mit bekannten Darstellern. Max Reinhardt gestaltete die Uraufführung von "Vor Sonnenuntergang". 1926 bis 1943 lebte Hauptmann während der Sommermonate mit seiner Familie in Kloster auf Hiddensee. Von 1922 bis 1933 war Elisabeth Jungmann als Sekretärin, Verwalterin und Übersetzerin (Hauptmann nannte sie schlicht „Helferin“) die Vertraute des Hauptmannschen Haushalts. Als Jungmann zu Rudolf G. Binding wechselte, übernahm Erhart Kästner die Stelle. Wirken in der Zeit des Nationalsozialismus. Nach der „Machtergreifung“ der Nationalsozialisten unterzeichnete Hauptmann am 16. März 1933 eine Loyalitätserklärung der Deutschen Akademie der Dichtung, Sektion der Preußischen Akademie der Künste. Im Sommer desselben Jahres beantragte er die Mitgliedschaft in der NSDAP, sein Antrag wurde aber von den örtlichen Parteidienststellen abgelehnt. In denselben Zeitraum fällt Hauptmanns ausführliche Auseinandersetzung mit Adolf Hitlers Buch "Mein Kampf"; sein mit Markierungen, Anmerkungen und Kommentaren reiches Exemplar befindet sich heute in der „Hauptmann-Bibliothek“ der Staatsbibliothek zu Berlin. In seinem Selbstverständnis war Hauptmann allerdings immer ein überparteilicher Dichter gewesen, die nationalsozialistische Ideologie floss auch nicht in sein Werk ein. Die Distanz zwischen Hauptmann und dem Nationalsozialismus geht auch aus einer Stellungnahme des Amts Rosenberg aus dem Jahr 1942 hervor: „Bei aller Anerkennung der künstlerischen Gestaltungskraft Hauptmanns ist die weltanschauliche Haltung der meisten seiner Werke vom nationalsozialistischen Standpunkt aus kritisch zu betrachten.“ Hauptmann genoss hohes Ansehen in der Bevölkerung, weshalb die Nationalsozialisten alles taten, den Schriftsteller trotz der Emigration zahlreicher Berufskollegen im Land zu halten und für ihre Zwecke zu nutzen. Dennoch wachte die Zensur des Reichspropagandaministers Goebbels über Hauptmanns Wirken. So verbot Goebbels eine Neuauflage von "Der Schuss im Park", weil darin eine Schwarze vorkommt. Hauptmann wurde dagegen gesagt, ein neuer Druck sei wegen Papiermangels nicht möglich. Zudem wurden die Verfilmungen von "Der Biberpelz" und "Vor Sonnenaufgang" zensiert und die filmische Adaption von "Schluck und Jau" verboten. Zu Hauptmanns 80. Geburtstag kam es, auch unter Beteiligung von Repräsentanten des nationalsozialistischen Regimes, zu Ehrungen, Jubiläumsfeiern und -aufführungen. Hauptmann wurden von seinen Verlegern Peter Suhrkamp und C.F.W. Behl die ersten Exemplare der 17-bändigen Gesamtausgabe seiner Werke überreicht, welches – nach Papierverweigerung durch Goebbels – durch in Holland besorgtes und in Haarlem bedrucktes Papier vom "Suhrkamp Verlag vorm. S. Fischer" (S. Fischer Verlag / Suhrkamp Verlag) realisiert wurde. 1944 erschien sein großes Alterswerk, die "Atriden-Tetralogie", an der er vier Jahre gearbeitet hatte und die "Iphigenie in Delphi", "Iphigenie in Aulis", "Agamemnons Tod" und "Elektra" umfasste. Im August 1944 nahm ihn Adolf Hitler nicht nur in die Gottbegnadeten-Liste, sondern auch als einen der sechs wichtigsten Schriftsteller in die Sonderlisten der unersetzlichen Künstler auf, was Hauptmann von sämtlichen Kriegsverpflichtungen befreite. Während des Luftangriffs auf Dresden weilte Hauptmann im Stadtteil Wachwitz (am damaligen Stadtrand) in Weidners Sanatorium, weil er eine schwere Lungenentzündung auskurieren musste. Über das Inferno sagte er: „Wer das Weinen verlernt hat, der lernt es wieder beim Untergang Dresdens. […] Ich stehe am Ausgangstor des Lebens und beneide alle meine toten Geisteskameraden, denen dieses Erlebnis erspart geblieben ist.“ Hauptmann erlebte das Kriegsende in seinem Haus „Wiesenstein“. Nach dem Krieg kam Schlesien unter polnische Verwaltung; das Verbleiben Hauptmanns wurde durch einen Schutzbrief vorübergehend ermöglicht. Am 7. April 1946 wurde Hauptmann von sowjetischer Seite mitgeteilt, dass die polnische Regierung nun auch auf seiner Aussiedlung bestehe. Vor einer allfälligen Vertreibung erkrankte er jedoch schwer. Tod und Überführung. Anfang Mai 1946 erfuhr Hauptmann, dass die polnische Regierung darauf bestand, ausnahmslos alle Deutschen auszuweisen. Am 6. Juni starb er nach einer Bronchitiserkrankung in Agnieszków. Seine letzten Worte sollen gelautet haben: „Bin ich noch in meinem Haus?“ Gegen seinen testamentarisch erklärten Willen wurde Hauptmann nicht in seiner Heimat begraben. Auch ein amtliches Schreiben der Sowjetadministration zugunsten des Schriftstellers, der in der Sowjetunion hoch verehrt wurde, erwies sich als wirkungslos. Lediglich die Mitnahme von Hab und Gut wurde der Familie gestattet. Schon eine Stunde nach dem Tode hatten sich Angehörige der polnischen Miliz vor den Fenstern des Wiesensteins versammelt und direkt unter dem Sterbezimmer ihre Genugtuung geäußert. Der Leichnam Hauptmanns wurde in einem Zinksarg aufbewahrt und im Arbeitszimmer seines Hauses abgestellt. Die Genehmigung zur zugesicherten Ausreise in einem Sonderzug ließ auf sich warten. Über einen Monat nach dem Tode forderten Vertreter der Sowjetadministration die polnische Verwaltung auch aufgrund der hygienischen Zustände zur Überführung der sterblichen Überreste auf. Einige Tage später wurde der Sarg daraufhin nach Deutschland geschafft. In dem Dokumentarfilm "Hauptmann-Transport" von Matthias Blochwitz wird die Fahrt des Zuges rekonstruiert. Hauptmanns Grabstein in Kloster auf Hiddensee, 2008 Bei einer Trauerfeier in Stralsund sprachen Wilhelm Pieck, der Dichter Johannes R. Becher und der sowjetische Kulturoffizier Tjulpanow. Am Morgen des 28. Juli wurde Hauptmann vor Sonnenaufgang und 52 Tage nach seinem Tod auf dem Inselfriedhof in Kloster auf Hiddensee bestattet. Die Witwe des Dichters vermischte ein Säckchen Riesengebirgserde mit Ostseesand. Kurz nach seinem Tod gab es zahlreiche Trauerfeiern, wo sich viele Intellektuelle der Zeit zu Wort meldeten, unter anderen Ivo Hauptmann, der im Hamburger Rathaus am 4. Juli 1946 folgendes sagte: „Er liegt, seinem Wunsche entsprechend, in einem Fichtenbretter-Sarg, bekleidet mit der Mönchskutte, die ihm vor 40 Jahren in Soana ein Franziskaner schenkte. Er ließ sie sich vor seinem Tode oft reichen, um sich mit ihr vertraut zu machen. Heimaterde, ein kleines Neues Testament, von Kind auf in seinem Besitz, seine Dichtung "Der große Traum" und der Lobgesang des heiligen Franz von Assisi liegen im Sarg bei ihm.“ 1951 wurde ein Granitblock als Grabstein enthüllt. Er trägt gemäß Hauptmanns Wunsch nur seinen Namenszug. 1983 wurde die Urne der 1957 verstorbenen Margarete Hauptmann im Grab ihres Mannes beigesetzt. Er war der Großvater von Anja Hauptmann. Werk. In einer Ansprache vor der Kaiserlichen Akademie der Wissenschaften in Wien erklärte Hauptmann am 24. März 1905: „Es meldeten sich in meinem Innern stets viele Stimmen zum Wort, und ich sah keine andere Möglichkeit, einigermaßen Ordnung zu schaffen, als vielstimmige Sätze: Dramen zu schreiben.“ (Centenar-Ausgabe, Bd. 6, S. 689). Die Dramatik bildet das Zentrum seines Schaffens; aber auch andere Gattungen sind in allen Lebensepochen kontinuierlich präsent: Lyrik und Versepik ebenso wie erzählende, autobiografische und essayistische Prosa. Die Gattungs-Grenzen sind bisweilen fließend – sowohl formal (einige der Bühnenwerke sind Versdramen, sozusagen „dramatische Gedichte“) als auch thematisch: der Gedankenkomplex "Pippa – Wann – Merlin – Galahad" wurde mit starken Veränderungen abwechselnd dramatisch und erzählerisch verarbeitet, zum "Eulenspiegel"-Stoff gibt es neben dem Versepos auch Szenenfragmente, der Roman "Atlantis" war vorübergehend als Drama geplant usw. Einflüsse. Im Berliner avantgardistischen Verein "Durch" begegnete Hauptmann ab 1885 verschiedenen Vertretern des Naturalismus, die ihn entscheidend prägten. Der Verein berief sich auf historische Vorbilder vom Sturm und Drang, an dem sich vor allem der Kreis um die Brüder Hart orientierte, bis zum Vormärz. Auf den Sitzungen wurde über ästhetische Fragen, über Idealismus, Realismus und die naturalistische Bewegung diskutiert. Gerhart Hauptmann hielt einen Vortrag über den damals weitgehend vergessenen Georg Büchner. Auch damit lässt sich sein naturalistischer Hang begründen. Ende der 1880er Jahre wurde er mit der einsetzenden Sozialistenverfolgung konfrontiert. Das "Gesetz gegen die gemeingefährlichen Bestrebungen der Sozialdemokratie" wurde zwar schon 1878 auf Bismarcks Bestreben im Reichstag beschlossen, 1887 allerdings nochmals verschärft. Hauptmann wurde 1887 als Zeuge vor das Breslauer Gericht geladen, da er während seiner Studentenzeit Anhänger der "Ikarier" gewesen war, deren Idee auf den französischen Kommunisten Etienne Cabet zurückgeht. Er suchte 1888 Schutz im Zürcher Haus seines Bruders Carl, um nicht von den Gerichten belangt zu werden. Dort begegnete er dem Psychiater Auguste Forel und dem Naturprediger Johannes Guttzeit, dessen lebensreformerische Vorstellungen sich in "Vor Sonnenaufgang" niederschlugen. Hauptmanns frühe Träume von einer utopisch-sozialistischen Gemeinschaft wurden noch weiter genährt durch seine Begegnungen mit dem Dichter und Naturpropheten Gusto Gräser (1879–1958), dessen Gründung, die Aussteigerkolonie Monte Verità bei Ascona, er 1919 mehrmals besuchte. Sowohl die Erzählung "Der Ketzer von Soana" wie auch der Roman "Der Narr in Christo Emmanuel Quint" und das Schlusskapitel seines "Till Eulenspiegel" verarbeiten seine Erfahrung eines dionysisch-jesuanischen Wanderpropheten. Naturalismus. In Zürich begann Hauptmanns naturalistisches Schaffen. Von hier aus schickte er das Manuskript zu seinem ersten naturalistischen Werk "Bahnwärter Thiel" nach München, wo es der Kritiker Michael Georg Conrad begutachten sollte. Mit seinem 1889 uraufgeführten Drama "Vor Sonnenaufgang" sorgte er für einen der größten Skandale der deutschen Theatergeschichte. Das bürgerliche Publikum war schockiert, weil in Hauptmanns Stück Sexualität und Alkoholismus freimütig dargestellt wurden. Es entsprach jedoch auch den Ansprüchen an ein sozialkritisches Drama jener Zeit. Laut Franz-Josef Payrhuber sei Hauptmanns "Vor Sonnenaufgang" zwar ein epochemachendes Werk, aber sei nicht das repräsentative Beispiel für das naturalistische Drama. Dieses Prädikat käme "Familie Selicke" von Arno Holz und Johannes Schlaf zu. Hauptmann komme jedoch eine wichtige Rolle zu, da er mit Unterstützung Otto Brahms naturalistische Dramen auf deutschen Bühnen etabliert habe. Unter Brahms Leitung der "Freien Bühne", des Deutschen Theaters und des Lessingtheaters kam es beispielsweise zu 17 Hauptmann-Uraufführungen. Durch die zahlreichen Aufführungen auf verschiedenen Bühnen in ganz Deutschland habe der Naturalismus allererst Breitenwirkung und sozialkritische Stoßkraft erhalten. Mit seinem wichtigsten Drama "Die Weber" (1891/92), an dessen Realisierung er schon während seines Zürichaufenthalts gedacht hatte, erlangte Hauptmann Weltruhm und erreichte den Höhepunkt seiner naturalistischen Schaffensphase. "Die Weber" hatten als Grundlage die Weberaufstände von 1844. Hauptmann unternahm zur Recherche größere Reisen durchs Riesengebirge. Ende 1891 vollendete er das Werk zunächst in schlesischem Dialekt, in dem es "De Waber" heißt. Die dem Hochdeutschen angenäherte Fassung wurde im März 1892 abgeschlossen. Die preußische Zensur verbot die Inszenierung durch die „Freie Bühne“, weil sie in dem Stück einen Aufruf zum Klassenkampf zu erkennen glaubte und man in Breslau – in der Dialektfassung – schlechte Erfahrungen mit seiner überaus starken Wirkung gemacht hatte. Um eine Inszenierung am Deutschen Theater zu ermöglichen, ließ Hauptmann durch seinen Anwalt erklären, das Drama sei nicht als sozialdemokratische Parteischrift, sondern als dichterischer Aufruf an das Mitleid der Besitzenden zu verstehen. Sozialdemokratische Kreise waren von dem Stück – nach der Aufhebung des Aufführungsverbots am 2. Oktober 1893 – begeistert, aber Kaiser Wilhelm II. kündigte seine Loge im Deutschen Theater. Mit dem Drama "Das Friedensfest. Eine Familienkatastrophe" (1890) verärgerte Hauptmann angeblich Frank Wedekind, der in dem Stück Anspielungen auf Ereignisse aus seinem eigenen Leben wiederzuerkennen meinte, von denen er dem Autor berichtet hatte. Wedekinds Replik bestand im Auftritt eines Dichters namens Franz Ludwig Meier, der beständig die Äußerungen seiner Freunde protokollierte, in seiner Komödie "Die junge Welt". An einem Weihnachtsabend in den 1880er Jahren kommt Wilhelm Scholz zum ersten Mal nach Jahren wieder in sein Elternhaus. Ein Streit mit dem Vater, Fritz Scholz, hat ihn vor Jahren aus dem Haus getrieben. Seine Verlobte, Ida Buchner, und deren Mutter haben ihn zu dem Besuch überredet. Überraschend erscheint auch der jahrelang verschollene Vater, der heruntergekommen und von Krankheit und Alkohol gezeichnet wirkt. Wilhelm will den Vater nicht sehen. Trotzdem gibt er sich Mühe, den Abend versöhnlich zu gestalten. Doch sein zynischer Bruder Robert macht ihm einen Strich durch die Rechnung. Fritz Scholz stirbt. Ida ist verzweifelt. Wilhelm wendet sich von ihr ab. Trotzdem gibt sie die Hoffnung nicht auf, einen glücklichen Menschen aus ihm zu machen. Mit dem Drama "Einsame Menschen" (1891) übte Hauptmann nach Auskunft von Konstantin Stanislawski starken Einfluss auf Anton Tschechow und die russische Dramatik aus. Hauptmann griff dafür auf einen Konflikt seines Bruders Carl zurück, dessen Beziehung zu einer jungen Polin die ganze Familie in Aufruhr versetzte. Marie Hauptmann, geb. Thienemann war das Vorbild für die Figur der Käthe Vockerat, auch wenn es damals in der Ehe des Autors noch nicht kriselte. Das Stück spielt um 1890 in einem Landhaus am Müggelsee. Der junge Gelehrte Johannes Vockerat und seine Frau Käthe haben ihr erstes Kind bekommen. Johannes kommt mit seiner wissenschaftlichen Arbeit nicht so wie erhofft voran. Als sein Freund, der Maler Braun, Besuch von der russischen Studentin Anna Mahr erhält, ist Johannes hingerissen von der intelligenten, selbstbewussten jungen Frau und lädt sie ein, für ein paar Wochen bei ihm und seiner Familie zu wohnen. Er findet in Anna erstmals eine ebenbürtige Gesprächspartnerin. Seine Familie beobachtet die immer größer werdende Vertrautheit zwischen Johannes und Anna mit Sorge. Käthe leidet darunter, weil sie sich der klugen Anna unterlegen fühlt. Ihre Eltern, die sehr fromm sind, äußern moralische Bedenken. Johannes und Anna gestehen einander ihre Liebe, müssen aber erkennen, dass diese Liebe keine Zukunft hat. Anna reist ab, Johannes rudert auf den See hinaus, um sich das Leben zu nehmen. "Der Biberpelz" erfuhr schlechte Kritiken. Hauptmann wandte sich daraufhin von der naturalistischen Darstellungsweise ab und widmete sich mythisch-religiösen und Märchenstoffen. In diese Schaffenszeit fallen "Hanneles Himmelfahrt", "Die versunkene Glocke" sowie "Und Pippa tanzt". 1901 schrieb er eine Fortsetzung des "Biberpelz": Die Tragikomödie "Der rote Hahn" ist im gleichen Milieu angesiedelt. Im Vergleich zum "Biberpelz" treten hier aber die lustspielhaften Elemente zugunsten einer schärferen Kritik zurück. Mutter Wolffen wurde Witwe und hat wieder geheiratet. Sie heißt nun Fielitz. Sie ist keine urwüchsige Proletarierin mehr, sondern eine Kleinbürgerin. Ihre Aufsteigermentalität macht vor nichts halt – und erneut wird sie für ihren Betrug nicht bestraft. Mutter Wolffen ist verwitwet und hat den „Schuhmachermeister und Polizeispion“ Fielitz geheiratet. Die Tochter Adelheid hat sie mit dem Baumeister Schmarowski verheiratet. Die zweite Tochter, Leontine, hat zwar ein uneheliches Kind, aber Frau Fielitz hat schon einen Mann für sie im Auge – auch wenn dieser im Moment noch verheiratet ist. Das eigene Haus ist Frau Fielitz zu klein. Im Dorf sind in letzter Zeit mehrere Häuser abgebrannt, und die „untröstlichen“ Besitzer haben beachtliche Versicherungssummen kassiert. Während das Ehepaar Fielitz in Berlin Besorgungen erledigt, brennt ihr Haus bis auf die Grundmauern nieder. Der Schmiede- und Spritzenmeister Langheinrich kann nur mehr den Totalschaden feststellen. Allerdings verschweigt er, dass er ein Stück Zündschnur gefunden hat. Der Verdacht fällt auf Gustav, den geistig behinderten Sohn des pensionierten Gendarmen Rauchhaupt. Der Gendarm will das nicht auf seinem Sohn, der in eine Anstalt gesperrt wird, sitzen lassen, kann aber nichts beweisen. Schmarowski kann einen großzügigen Neubau entwerfen, dessen Fertigstellung Frau Fielitz allerdings nicht mehr erlebt. Es folgten das soziale Drama "Rose Bernd" (1901), die Tragikomödie "Die Ratten" (1911) und das Schauspiel "Vor Sonnenuntergang" (1932). Weitere Tendenzen. Peter Sprengel sieht in Hauptmanns Werk nach den "Webern" drei Haupttendenzen. Die erste Tendenz ist ein Bruch mit dem Naturalismus und eine Zuwendung zur Neuromantik. Zu dieser Richtung passe das Märchendrama "Die versunkene Glocke" (1896). Das in Versen geschriebene Drama war zum Zeitpunkt seiner Veröffentlichung ein großer Erfolg und zu Lebzeiten Hauptmanns das meistgespielte Stück. Mit dem ebenfalls in Versen geschriebenen Stück "Der arme Heinrich" (1902) begab sich Hauptmann in das Reich der Legenden und adaptierte das gleichnamige mittelhochdeutsche Versepos "Der arme Heinrich" von Hartmann von Aue. "Kaiser Karls Geisel" (1908) und "Griselda" fallen in die gleiche Kategorie. Eine weitere Grundlage bot die griechische Mythologie, wie das Schauspiel "Der Bogen des Odysseus" (1913) zeigte. In letzterem erlebt der Zuschauer einen der tragischsten Momente der "Odyssee". Nach langjähriger Irrfahrt gelangt Odysseus endlich wieder auf seine Heimatinsel Ithaka. Als Bauer und Hirte will er sein Leben nun verbringen. Seine Frau Penelope, die so viele Jahre auf ihn gewartet hat, tritt nicht auf – ist aber ständig präsent in seinem Kampf gegen ihre Freier, die sein Königsamt übernehmen wollen, und wird in gewisser Weise auch verantwortlich gemacht für den Verfall der sittlichen Ordnung während der Abwesenheit des Odysseus. Die gesamte Handlung spielt sich auf dem Bauernhof des Schweinehirten Eumaios ab. Hier haben sich vier Freier zu einem Festmahl versammelt, bei dem der von seinen jahrelangen Irrfahrten erschöpfte Odysseus als Bettler verkleidet auftaucht. Odysseus scheint verwirrt, planlos. Erst im vierten Akt gewinnt er mit Hilfe des Hirtengottes Pan seine Kräfte zurück und kann zur Rache an den Freiern ansetzen. In Sprengels zweiter Tendenz verband Hauptmann Naturalistisches mit Nicht-Naturalistischem. Die Verbindung entstünde durch Kontrastierung der beiden Richtungen. So zeige das Traumspiel "Hanneles Himmelfahrt" (1893) sowohl soziale Anklage als auch den Entwurf einer romantischen Phantasiewelt. Auch in "Und Pippa tanzt!" (1905) zeigten sich demnach eine reale und eine ideale Sphäre. Die dritte Tendenz sieht laut Sprengel keinen Bruch mit dem Naturalismus vor und beinhaltet sämtliche weitere Hauptmann-Dramen naturalistischer Prägung. Ihr gehören u. a. das historische Revolutionsdrama "Florian Geyer. Die Tragödie des Bauernkrieges" (1896), "Fuhrmann Henschel" (1898) und die erst aus dem Nachlass aufgeführten Dramen "Herbert Engelmann" (1962) und "Christine Lawrenz" (1990) an. Florian Geyer (1490-1525) war ein Anführer im Deutschen Bauernkrieg von 1525. Das Stück kam beim Publikum überhaupt nicht an. Während und nach dem Ersten Weltkrieg schuf Hauptmann eine Reihe von Theaterstücken, die andere Stilphänomene aufwiesen, als die bereits genannten. So entwarf er mit der "Winterballade" (1917) und im "Weißen Heiland" mythische Bilder. Versuche symbolischer Gestaltung unternahm er in den Dramen "Die goldene Harfe" (1932) und "Ulrich von Lichtenstein" (1939). Die Shakespeare-Adaption "Hamlet in Wittenberg" (1935) enthält ebenso historische Darstellungsweisen wie das 1915 beendete "Magnus Garbe", das aber erst 1956 zur Uraufführung kam. Mit seinem Spätwerk, der "Atriden-Tetralogie", adaptierte Hauptmann antike Dramen. Allerdings hat er sie nach den Erfahrungen seiner Griechenlandreise neu gedeutet. Rezeption. Hauptmanns Frühwerk wurde unterschiedlich beurteilt. Die konservativen Kreise und auch die Staatsführung des Kaiserreichs waren von seinen sozialkritischen Dramen wenig begeistert, was sich auch durch Zensur und Schmähauszeichnungen ausdrückte. Seine oppositionelle Position steigerte jedoch sein Ansehen in den Kreisen der progressiven Intellektuellen, die gerade diese Züge an seinen Dramen schätzten. Nach zahlreichen naturalistisch geprägten Werken änderte sich Hauptmanns Schaffen und seine Werke fanden zunehmend Anklang beim Besitz- und Bildungsbürgertum. Für diese Kehrtwendung wurde er vielfach kritisiert, wie zum Beispiel von Franz Mehring, der anlässlich der Aufführung von "Hanneles Himmelfahrt" schrieb: „Es tut mir leid um Gerhart Hauptmann, aber wenn er unter die Räuber der bürgerlichen Kritik gefallen ist, wenn die Börsenpresse ihm jubelnd bescheinigt, er biege in das Tor der echten und wahren Dichtkunst ein, so hat er dies Schicksal reichlich verdient. […] Wir sind noch niemals verurteilt gewesen, einen so großen Missbrauch eines so großen Talents mit eigenen Augen zu sehen.“ Dennoch war er weiterhin gefragter Schriftsteller und galt im Ausland als repräsentativer Dichter Deutschlands. Der ungarische Philosoph und Literaturkritiker Georg Lukács hingegen nannte Hauptmann später den „repräsentativen Dichter des bürgerlichen Deutschlands“, womit er jedoch nicht Hauptmanns hervorgehobene Stellung unterstrich. Vielmehr drückte er damit seinen Unmut gegenüber Hauptmanns Wankelmütigkeit und geringer Verwurzelung an seine „revolutionären Anfänge“ aus. Trotz seines hohen Ansehens ging der Verkauf seiner Werke stetig zurück, weil sich andere Dichter und Dramatiker in den Blickpunkt drängten. Hauptmann hatte sich einen kostspieligen Lebensstil angeeignet, lebte in teuren Hotels, empfing oft Gäste im Wiesenstein und unternahm Reisen nach Italien. Die Sommer verbrachte er in seinem großen Haus auf Hiddensee, das Günter Kunert als „Do-it-your-self-Olymp“ bezeichnete. Thomas Mann ließ sich bezüglich dieses Lebensstils zu einer spöttischen Kritik an Hauptmann hinreißen, als er ihn 1922 als „König der Republik“ bezeichnete. Zudem verarbeitete Thomas Mann einige Charakterzüge Hauptmanns in der Person Mynheer Peeperkorn in seinem Buch "Der Zauberberg". Die Tatsache, dass Hauptmann nach der „Machtergreifung“ 1933 noch in Deutschland lebte, wollten sich die Nationalsozialisten zunutze machen und den angesehenen Dichter zu ihrem Nutzen verwenden. Verschiedene Stücke, die der Parteiführung wegen ihres aufrührerischen Charakters missfielen, wurden zwar verboten, dennoch wurden weiterhin Hauptmann-Werke aufgeführt. Zu Hauptmanns 80. Geburtstag 1942 wurden Festaufführungen und Ehrungen vorgenommen, die er vorbehaltlos entgegennahm. Nach seinem Tod begann Hauptmanns Ruhm, den er zu Lebzeiten noch genossen hatte, zu verblassen. Sein Ansehen wurde durch sein unkritisches Verhalten gegenüber den Nazis zusätzlich gesenkt. Anlässlich seines 100. Geburtstags 1962 fanden in zahlreichen deutschen Städten Festveranstaltungen statt. Bis in die 1970er Jahre wurden an westdeutschen Bühnen immer wieder Hauptmannwerke aufgeführt, wobei sich vor allem "Der Biberpelz" und "Die Ratten" über Zuspruch freuen konnten. Dennoch wurde Hauptmanns Werk nun kritischer betrachtet. In diesem Zuge kamen manche schwachen Aspekte innerhalb seines Werkes zutage, die zuvor durch „unbedenkliches lautes Lob“ zugedeckt worden waren. Überdies wurden Hauptmanns Werke hinsichtlich der politischen Kultur der späten sechziger und frühen siebziger Jahre zunehmend bedeutungsloser, da man mit dem „überlieferten Bilde des Sehers vom Wiesenstein wenig anfangen“ konnte. In der DDR lebte Hauptmanns literarisches Ansehen weiter. Seine Sozialkritik fand vielerorts Anklang und war beispielgebend für die lebendig fortwirkende Tradition des bürgerlichen deutschen Humanismus. Gedenken und Ehrungen. a> an Hauptmanns Wohnhaus in Berlin-Charlottenburg, 2007 Hauptmann in der bildenden Kunst. Gerhart Hauptmann, der nach eigenem Bekunden gerne auch Bildhauer geworden wäre, war zeitlebens selbst ein interessantes Motiv für Künstler. Porträts schufen unter anderem Hörspiele. Ursendung: 27. September 1926 (Live ohne Aufzeichnung) Ursendung: 8. November 1926 (Live ohne Aufzeichnung) u. a. Ursendung: 11. November 1926 (Live ohne Aufzeichnung) Gattung. Eine Gattung ist die Gesamtheit von Arten von Dingen, Einzelwesen oder Formen, die in wesentlichen Eigenschaften übereinstimmen. Griechische Euromünzen. Die griechischen Euromünzen sind die in Griechenland in Umlauf gebrachten Euromünzen der gemeinsamen europäischen Währung Euro. Am 1. Januar 2001 trat Griechenland der Eurozone bei, womit die Einführung des Euros als zukünftiges Zahlungsmittel gültig wurde. Umlaufmünzen. Griechische Euromünzen haben ein unterschiedliches Motiv auf jeder der acht Münzen. Alle wurden entworfen von Georgios Stamatopoulos, wobei die kleinen Münzen Schiffe darstellen, die mittleren bekannte Griechen und die beiden großen Münzen Beispiele der griechischen Geschichte und Mythologie zeigen. Alle Münzen zeigen die zwölf Sterne der EU und das Prägejahr. Einzigartig ist, dass die Währungsbezeichnung auf den griechischen Münzen in griechischen Buchstaben angegeben wird und anstelle von "Cent" der Begriff "ΛΕΠΤΟ" ("LEPTO") bzw. der Plural "ΛΕΠΤΑ" ("LEPTA") verwendet wird. Wörtlich übersetzt bedeutet Lepto "dünnes Geld". Griechenland wurde erst sehr spät in die Währungsunion aufgenommen. Da Griechenland in dieser kurzen Zeit die vorgeschriebene Mindestmenge an Münzen nicht prägen konnte, wurde ein Teil der Münzen von anderen Ländern geprägt („Fremdprägung“). Diese Münzen haben in einem der zwölf Sterne einen Länderkennungsbuchstaben eingeprägt: die 1-, 2-, 5-, 10- und 50-Cent-Münzen den Buchstaben "F" (France) für Frankreich, die 20-Cent-Münze "E" (España) für Spanien, die 1- und 2-Euro-Münzen die Prägung "S" (Suomi) für Finnland. Nachfolgende Münzen werden in der griechischen Münzprägestätte in Athen geprägt. Wie die meisten Euroländer prägt Griechenland bereits seit 2007 seine Euromünzen mit der neu gestalteten Vorderseite (neue Europakarte). Einklang mit den Gestaltungsrichtlinien. Die griechischen Euromünzen entsprechen, durch den fehlenden Hinweis auf das ausgebende Land, nicht vollständig den Gestaltungsrichtlinien der Europäischen Kommission von 2008. In diesen sind Empfehlungen für die Gestaltung der nationalen Seiten der Kursmünzen festgelegt. Die Länder, deren Münzen den Empfehlungen noch nicht entsprechen, können die notwendigen Anpassungen jederzeit vornehmen; bis spätestens zum 20. Juni 2062 müssen sie diese vollziehen. 20 und 200 Euro. Die Münzen sind dem 75-jährigen Bestehen der Nationalbank Bank von Griechenland gewidmet. Ausgegeben wurden sie ab dem 3. November 2003 zunächst nur an Angestellte der Bank. Die Restbestände von 8000 Silber- und 600 Goldmünzen werden ab den 21. Juni 2012 zum Preis von 90 bzw. 2100 Euro öffentlich verkauft. Einzelnachweise. Euro Geschichte Europas. Die Geschichte Europas ist die Geschichte der Menschen auf dem europäischen Kontinent, von dessen erster Besiedlung bis zur Gegenwart. Die klassische Antike begann im antiken Griechenland, das im Allgemeinen als der Beginn der westlichen Zivilisation angesehen wird und einen immensen Einfluss auf Sprache, Politik, Erziehungssysteme, Philosophie, Naturwissenschaften und Künste ausübte. Die griechische Kultur, die sich während des Hellenismus über weite Teile der östlichen Mittelmeerwelt ausgebreitet hatte, wurde vom Römischen Reich übernommen, das sich nach der Eroberung Italiens seit dem 3. Jahrhundert v. Chr. von Italien aus nach und nach über den gesamten Mittelmeerraum ausbreitete und im frühen 2. Jahrhundert n. Chr. seine größte Ausdehnung erreichte. Der römische Kaiser Konstantin der Große förderte mit der konstantinischen Wende den Aufstieg des Christentums zur Staatsreligion im Imperium und verlegte seine Residenz in den Osten des Reiches nach Konstantinopel, dem heutigen Istanbul. Nach dem Untergang des Weströmischen Reiches 476 blieben große Teile Südosteuropas im Machtbereich des Oströmischen Reiches (Byzanz), während das Gebiet des früheren Weströmischen Reiches im Laufe der Völkerwanderung eine instabile Zeit durchlebte und sich hier mehrere germanisch-romanische Reiche bildeten. Karl der Große, 800 vom Papst zum Kaiser (im Westen) gekrönt, beherrschte große Teile Westeuropas, das jedoch bald darauf von Wikingern, Muslimen (islamische Expansion bereits seit dem 7. Jahrhundert) und Magyaren (Ungarneinfälle) angegriffen wurde. Das Paderborner Epos, ein Werk der das Abendland erfassenden Karolingischen Renaissance, erklärte ihn zum „Vater Europas“ ("pater Europæ"). Im weiteren Verlauf des Frühmittelalters entstanden eine Reihe neuer Reiche in Europa und es fand eine Umformung des römischen Erbes statt. Das europäische Mittelalter war unter anderem geprägt von der Entstehung des Lehnswesens, einer ständischen Herrschaftsordnung und einer starken Rolle der christlichen Religion in Kultur und Alltag. Der Mongolensturm in der Mitte des 13. und die Pestepidemie in der Mitte des 14. Jahrhunderts versetzten dem europäischen Feudalsystem schwere Schläge. Die Renaissance, das erneute kulturelle Aufleben der griechisch-römischen Antike, begann im 14. Jahrhundert in Florenz. Die Ausbreitung des Buchdrucks, ausgehend von der Erfindung der Druckerpresse durch Johannes Gutenberg in Mainz, förderte die Bewegungen des Humanismus und der Reformation. Das Zeitalter der Reformation und Gegenreformation war von zahlreichen Religionskriegen gekennzeichnet, die ihren Abschluss im Dreißigjährigen Krieg und dem Westfälischen Frieden 1648 fanden. Die christliche Reconquista Spaniens und Portugals führte zum Zeitalter der Entdeckungen in Nord- und Südamerika, Afrika und Asien, zum Aufbau europäischer Kolonialreiche sowie zum „Columbian Exchange“, dem Austausch von Pflanzen und Tieren zwischen der östlichen und westlichen Hemisphäre. Die industrielle Revolution, ausgehend von Großbritannien, förderte die Mechanisierung der Arbeitsprozesse und den internationalen Handel. Die Aufklärung forderte die Gewaltenteilung. Sie war der Vorbote der Französischen Revolution von 1789, aus welcher als neuer Herrscher Frankreichs Napoleon hervorging, der bis 1815 mehrere Kriege führte. Die erste Hälfte des 19. Jahrhunderts war von weiteren Revolutionen gekennzeichnet, aus denen das Bürgertum und die Arbeiterklasse in Frankreich und England gestärkt hervorgingen. 1861 entstand das Königreich Italien und 1871 das Deutsche Reich als Nationalstaaten, wie die meisten damaligen Staaten Europas in Form von konstitutionellen Monarchien. Gegen Ende des 19. Jahrhunderts verstärkte sich im Zuge des Imperialismus der Konkurrenzkampf der europäischen Großmächte, bis zum Ausbruch des Ersten Weltkriegs 1914. Die russische Oktoberrevolution von 1917 führte zur Bildung der kommunistischen Sowjetunion. Die Unzufriedenheit mit den Ergebnissen des Ersten Weltkrieges sowie die Weltwirtschaftskrise von 1929 begünstigten den Aufstieg des Nationalsozialismus in Deutschland, des Faschismus in Italien, des Franquismus in Spanien und führten letztlich zum Zweiten Weltkrieg. Nach dem Kriegsende 1945 war Europa in der Periode des Kalten Krieges durch den „Eisernen Vorhang“ zwischen dem von den USA dominierten Westen und dem von der Sowjetunion beherrschten Ostblock getrennt. Gegen Ende der 1980er Jahre wurden die meisten sowjetischen Gliedstaaten unabhängig, und die Sowjetunion selbst löste sich auf. Mit der EU-Erweiterung sind bis 2007 die meisten Staaten und Gebiete des ehemaligen Ostblocks der EU beigetreten. Der Einfluss der Geschichte auf die Kulturen Europas kann geografisch in sechs unterschiedlichen „historischen Kulturregionen“ abgebildet werden. right Name. Der Name „Europa“ lässt sich in Europa selbst am weitesten in Form der griechischen zurückverfolgen: Hier wurde ' meist als Kompositum aus altgriechisch ' „weit“ und ' „Sicht“, „Gesicht“ aufgefasst, daher ', „die [Frau] mit der weiten Sicht“. Mythos. Der griechische Mythos erzählt, dass Europa, die Tochter des phönizischen Königs Agenor, sich mit ihren Gefährtinnen am Strand des Mittelmeeres vergnügt habe. Zeus verliebte sich in das schöne Mädchen und beschloss, es zu entführen. Er nahm die Gestalt eines weißen Stiers an, der dem Meer entstieg und sich Europa näherte. Das Mädchen streichelte das überaus schöne, zutrauliche Tier und fand sich schließlich bereit, auf dessen Rücken zu klettern. Darauf erhob sich der Stier und stürmte ins Meer, das er mit Europa auf dem Rücken durchquerte. Aber wie durch ein Wunder wurden sie und der Stier nicht einmal nass. Zeus entführte Europa nach Kreta, wo er sich ihr in seiner göttlichen Gestalt zu erkennen gab und mit ihr drei Söhne zeugte: Minos, Rhadamanthys und Sarpedon. Aufgrund einer Verheißung der Aphrodite wurde der heimatliche Erdteil nach ihr benannt. Urgeschichte. Älteste Nachweise von Vertretern der Gattung "Homo" stammen derzeit aus der Sierra de Atapuerca in Spanien und sind bis zu 1,2 Millionen Jahre alt. Noch ältere Fossilfunde aus Georgien (außerhalb der heute gültigen Grenzen Europas) sind 1,8 Millionen Jahre alt und werden als „Homo georgicus“ bezeichnet. Im nordalpinen Europa beginnt der älteste Besiedlungshorizont mit "Homo heidelbergensis" vor ca. 600.000 Jahren. Die Zuordnung der Funde zu einer eigenständigen Art ist allerdings umstritten; viele Paläoanthropologen bezeichnen die Angehörigen der ersten Auswanderungswelle aus Afrika (Out-of-Africa-Theorie) einheitlich als "Homo erectus", der vor ca. 1,8 Millionen Jahren bereits Java besiedelt hatte. Während die Entwicklung des "Homo sapiens" vor ca. 160.000 Jahren in Afrika ihren Ausgang von den dort verbliebenen Populationen des "Homo erectus" nahm, wurde Europa zur Domäne des hier aus "Homo erectus" bereits entstandenen "Homo heidelbergensis" und des aus diesem hervorgegangenen Neandertalers. Erst vor ca. 35.000 Jahren gelangte "Homo sapiens" in einer zweiten Auswanderungswelle der Gattung "Homo" nach Europa (vgl. Ausbreitung des Menschen) und ersetzte nach und nach den Neandertaler (vgl. Cro-Magnon-Mensch). Mit der Jungsteinzeit und der Bronzezeit begann in Europa eine lange Geschichte großer kultureller und wirtschaftlicher Errungenschaften, zunächst im Mittelmeerraum, dann auch im Norden und Osten. Für Nordeuropa waren mehrere Eiszeiten für die weitere Entwicklung vor allem der geologischen Formationen bestimmend. Diese Vereisungen betrafen das heutige Skandinavien, Island, Irland, den Norden Deutschlands, Polens und Russlands. Die letzte Hauptvereisungszeit dauerte etwa von 23.000 bis 10.000 v. Chr. Mittelsteinzeit. Die Zeit nach dem Ende der letzten Vereisung in Europa wird als Mittelsteinzeit bezeichnet. Es breiteten sich dichte Wälder in Europa aus und die wenigen Menschen, die nomadisch in kleinen Sippen von etwa 20 Personen als Jäger und Sammler lebten, mussten sich an die neuen Umweltbedingungen gewöhnen. Jungsteinzeit, "Neolithikum". In einer langen Entwicklung, beginnend im 12. Jahrtausend v. Chr., begann sich im Fruchtbaren Halbmond die Landwirtschaft zu entwickeln. Diese Entwicklung, auch als "Neolithische Revolution" bezeichnet, verbreitete sich im 8. Jahrtausend v. Chr. nach Europa. Nach Westen verlief diese Ausbreitung entlang der Küsten des Mittelmeeres, nach Nordwesten entlang der Donau ins westliche Mitteleuropa. Nach Nordosten um oder entlang der Küsten des Schwarzen Meeres. Die Ausbreitungswege nach Osten sind bisher wenig erforscht. Hinweise auf dauerhafte Siedlungen des Menschen ("Homo sapiens") gibt es von 7000 v. Chr. an. Aus dieser Zeit wurden zum Beispiel an der Lahn in Wetzlar-Dalheim Siedlungsreste der Bandkeramiker gefunden. Die Fachwerkhäuser haben einen je 30 Meter langen Grundriss. Sie werden von einem rund zwei Meter tiefen Graben sowie einem vorgelagerten Wall geschützt. Zur Sicherstellung der Wasserversorgung bestanden zwei voneinander unabhängige Brunnen innerhalb der Befestigung. Bronzezeit. Um 1800 v. Chr. setzte sich die Bearbeitung von Bronze durch. Gleichzeitig strebten in immer neuen Wellen Völker aus den Tiefen der sibirischen Steppe nach Europa (Kimmerier, Skythen). Eisenzeit. Etwa um 800 v. Chr. begannen die Menschen in Mitteleuropa mit der Verhüttung von Eisen. Träger waren die den Illyrern und Kelten zugeschriebenen Kulturen der Hallstattzeit und der Latènezeit. Hochkulturen. Die erste Hochkultur in Europa war die der Minoer und Achäer auf der Insel Kreta sowie dem nahe gelegenen Griechenland, die um 2000 v. Chr. begann. Etwa zur gleichen Zeit breiteten sich die Kelten über Mitteleuropa bis nach Spanien und die heutige Türkei aus. Da sie keine schriftlichen Aufzeichnungen hinterließen, ist das Wissen über sie nur bruchstückhaft. Die Römer begegneten ihnen und schrieben etliches über sie nieder. Diese Aufzeichnungen und archäologische Grabungen bilden den Kern unserer Informationen über diese sehr einflussreiche Kultur. Die Kelten stellten einen gigantischen, wenn auch wenig organisierten Gegner für die Römer dar. Später eroberten und kolonialisierten die Römer große Teile Südeuropas. Griechen. Am Ende der Bronzezeit brachen die älteren griechischen Herrschaftsgebilde zusammen und eine neue Zivilisation erwuchs an ihrer Stelle. Die griechische Zivilisation war eine Ansammlung von Stadtstaaten (Poleis), die bedeutendsten davon waren Athen und Sparta, die unterschiedliche Regierungsformen aufwiesen. Kulturell entstanden im antiken Griechenland bedeutende Leistungen in Politik (wie die Demokratie), Philosophie, Mathematik, Physik, Sport, Theater, Literatur, Geschichtsschreibung und Musik. Die Stadtstaaten gründeten mehrere Kolonien (siehe Griechische Kolonisation) an den Küsten des Mittelmeeres, vor allem in Kleinasien, auf Sizilien und in Süditalien. Im frühen 5. Jahrhundert gelang die Abwehr des Achämenidenreichs in den Perserkriegen, doch in der zweiten Hälfte des 5. Jahrhunderts kam es zu Kämpfen um die Hegemonie im griechischen Mutterland zwischen Athen und Sparta (Peloponnesischer Krieg), im frühen 4. Jahrhundert zwischen Sparta auf der einen und Theben und dessen Verbündete auf der anderen Seite. Mitte des 4. Jahrhunderts v. Chr. geriet Griechenland schließlich unter die Oberherrschaft König Philipps II. von Makedonien, der 338 v. Chr. die verbündeten Athener und Thebaner in der Schlacht von Chaironeia schlug. Im Verlauf der Feldzüge von Philipps Sohn Alexander dem Großen verbreiteten die griechische Kultur bis nach Indien und brachte die Griechen in Kontakt mit anderen Kulturkreisen, wodurch eine neue Entwicklung einsetzte, der Hellenismus. Von nun an waren nicht mehr die Stadtstaaten die politisch relevanten Mitspieler, sondern die Diadochenreiche, bis diese nacheinander an Macht einbüßten und ihre Restterritorien weitgehend von den Römern einverleibt wurden. Römer. Die Expansion des Römischen Reiches Nach der Königszeit wandelte sich Rom (der Sage nach um 509 v. Chr., wahrscheinlich jedoch erst im frühen 5. Jahrhundert v. Chr.) zu einer Republik, in der die Politik aber von einer relativ kleinen und wohlhabenden Schicht betrieben wurde. Rom übernahm viel vom Wissen der Griechen, als es sich von Italien her ausbreitete. Die Römer nutzten es zu ihrem Vorteil, dass ihre Gegner nicht in der Lage waren, sich gegen Rom zu vereinigen und Rom größere Mengen an Truppen mobilisieren konnte. Die einzige wirkliche Gefahr für Roms Aufstieg kam von der phönizischen Kolonie Karthago. Mit der entscheidenden Niederlage Karthagos am Ende des 3. Jahrhunderts v. Chr. (siehe Punische Kriege) stieg Rom endgültig zur unbestrittenen Vormacht im westlichen Mittelmeerraum auf. Ab dem 2. Jahrhundert v. Chr. weitete Rom seine Einflusssphäre auf die hellenistischen Mächte im Osten aus, wo zuletzt Ägypten im Jahr 30 v. Chr. an Rom fiel. Die Republik wurde seit dem späten 2. Jahrhundert v. Chr. von fast hundert Jahren Bürgerkriegen geplagt. Gaius Iulius Caesar legte durch die Siege über seine politischen Konkurrenten das Fundament für die Abschaffung der Republik, die Ende des 1. Jahrhunderts v. Chr. unter Augustus zum römischen Kaiserreich (Prinzipat) umgestaltet wurde. Das Imperium hatte sein Zentrum am Mittelmeer und kontrollierte alle Regionen, die ans Mittelmeer grenzten. Um 100 hatte Rom seine Grenze im Norden an Rhein und Donau vorgeschoben und auch Britannien erobert; im Osten reichte der römische Machteinfluss bis nach Mesopotamien. Unter Kaiser Trajan im 2. Jahrhundert erreichte das Römische Reich seine größte Ausdehnung. Im Osten wurde die römische Expansion jedoch vom Partherreich und (seit dem frühen 3. Jahrhundert) vom Sassanidenreich behindert. Der Augusteische Frieden, der auch als Pax Romana bezeichnet wurde, wurde in der Reichskrise des 3. Jahrhunderts durch Bürgerkriege geschwächt. Anschließend gelang es Kaiser Diokletian, das Imperium durch Verwaltungsreformen entscheidend zu stabilisieren, und es begann die Spätantike. Sein Nachfolger Konstantin förderte das Christentum (konstantinische Wende), das unter Theodosius I. Ende des 4. Jahrhunderts zur Staatsreligion im Imperium erhoben wurde. Es kam zur Ausbildung der Reichskirche, wenngleich immer wieder theologische Konflikte ausgetragen werden mussten (siehe Arianismus, Monophysitismus). Durch die Reichsteilung von 395 wurde das Imperium in einen westlichen (bis 476) und einen östlichen Herrschaftsbereich aufgeteilt. Das Reich geriet von außen (durch die Germanen an Rhein und Donau) sowie im Osten (durch das Sassanidenreich) unter erheblichen Druck. Die Kaiser im Westen besaßen schließlich kaum noch faktische Macht, sondern waren von den mächtigen Heermeistern weitgehend abhängig. Der wirtschaftlich stärkere Osten hingegen überstand die Krisen des 5. Jahrhunderts intakt, befand sich aber im 6. Jahrhundert fast durchgehend im Kriegszustand (siehe Justinian I. und Römisch-Persische Kriege). Völkerwanderung und Ende der Antike. Ende des 4. Jahrhunderts setzte mit dem Vordringen der Hunnen nach Osteuropa die sogenannte Völkerwanderung ein, die eine wellenartige Fluchtbewegung mehrerer (vor allem germanischer) Stammesgruppen auslöste, und die mit dem Einbruch der Langobarden in Italien 568 endete. Viele Aspekte der Völkerwanderung werden heute differenzierter betrachtet. In diesem Zusammenhang wird betont, dass den eindringenden germanischen Gruppen weniger an Zerstörung, sondern vielmehr an Teilhabe an der antiken Kultur gelegen war, die auch in den germanisch-romanischen Nachfolgereichen noch im 6. Jahrhundert gepflegt wurde. Im Jahre 476 kam es zum „Untergang“ des Weströmischen Reiches, der von den Zeitgenossen aber kaum als solcher empfunden wurde (denn in Konstantinopel herrschte immer noch ein Kaiser) und erst im Nachhinein eine größere Bedeutung bekam. Nach dem Ende der Antike bestimmten mehr oder weniger langlebige Neubildungen verschiedener Reiche die historische Landschaft in Westeuropa. Das hellenistisch geprägte Oströmische Reich, nach seiner Hauptstadt Byzanz in der Moderne auch Byzantinisches Reich genannt, konnte sich hingegen noch ein weiteres Jahrtausend bis zur Eroberung seiner Hauptstadt 1453 halten. Die in den 30er Jahren des 7. Jahrhunderts beginnende Ausbreitung der Araber brachte die islamische Kultur an die Mittelmeerküsten, von Kleinasien über Sizilien bis nach Spanien. Die raschen arabischen Eroberungen waren auch eine Folge der Schwächung Ostroms, das sich bis 628 im Kriegszustand mit dem Sassanidenreich befunden hatte. Ostrom konnte ein Restreich halten und den arabischen Vormarsch damit im Osten zum Stillstand bringen. Der Einbruch der Araber in die Mittelmeerwelt bedeutete das endgültige Ende der Antike, wobei die Epochengrenze zwischen Spätantike und Frühmittelalter fließend ist. Mittelalter. In der Epoche des Übergangs von der Spätantike zum Frühmittelalter, der Merowingerzeit, verkümmerte die städtische Kultur, der Handel ließ stark nach und die Menschen kehrten zu ländlichen Gemeinschaften zurück. Der Feudalismus ersetzte die römische Zentralverwaltung. Die einzige Institution, die den Zusammenbruch des westlichen Reiches überlebte, war die Kirche, die einen Teil des römischen kulturellen Erbes bewahrte und bis zum 14. Jahrhundert außerhalb von Byzanz einen Schwerpunkt der Bildung und Wissenschaft darstellte. Byzanz befand sich unter Kaiser Basileios II. auf dem Höhepunkt der Macht, verlor aber in der Folgezeit mehrere Territorien und an Einfluss. Nach der Krönung Karls des Großen durch Papst Leo III. zum römischen Kaiser im Jahre 800 (womit im Denken der Zeitgenossen das antike Römerreich erneuert wurde) wurde die neue Hauptresidenz des Kaisers Aachen zu einem Zentrum der Kunst und der Wissenschaften und gab damit den Anstoß zur karolingischen Renaissance, der Neubelebung der Kultur unter Rückbesinnung auf die Antike. Karl eroberte große Teile von Italien und anderen umliegenden Ländern und vergrößerte damit sein Reich (siehe Karte). Er bekam dabei Hilfe durch den Papst, der nicht länger auf den Schutz des Byzantinischen Reiches vertrauen konnte. Auf diese Art wurde der Papst zunächst ein Lehnsmann des Kaisers, der Rom vor der Gefahr von Langobarden und Sarazenen schützte, später aber wurden die Güter des Papstes zum unabhängigen Kirchenstaat in Mittelitalien. Die Aufteilung des Reiches unter seinen Nachkommen führte zur Entstehung des Westfrankenreiches, aus dem im 9. und 10. Jahrhundert Frankreich hervorging, und des Ostfrankenreiches, aus dem 962 mit der Kaiserkrönung Ottos I. das (allerdings erst seit 1254 so genannte) Heilige Römische Reich wurde. Während und nach den Erbfolgekriegen gewann das feudalistische System an Bedeutung. Das römisch-deutsche Reich entwickelte sich nie zu einem Nationalstaat und vertrat einen expliziten Universalanspruch (siehe Reichsidee). Die Stellung des Königtums gegenüber den starken Landesherren war aber vergleichsweise sehr schwach ausgeprägt, so dass sich eine konsensuale Herrschaftsform entwickelte. Die normannische Eroberung Englands und Süditaliens waren Meilensteine in der europäischen Geschichte. In England etablierte sich im 12. Jahrhundert das Haus Plantagenet, das auch über erhebliche Besitzungen im Königreich Frankreich verfügte. Dies führte zu wiederholten, auch militärisch geführten Konflikten mit der französischen Krone, die seit dem späten 12. Jahrhundert ihre Macht stärker konsolidierte. Den Höhepunkt dieser Entwicklung markierte der Hundertjährige Krieg im 14. und 15. Jahrhundert. In Süditalien und Sizilien entstand ein normannisches Königreich, das im späten 12. Jahrhundert an die Staufer fiel, bevor es in den 60er Jahren des 13. Jahrhunderts an das Haus Anjou fiel. Im 11. Jahrhundert war in den unabhängigen Stadtstaaten Italiens wie Venedig und Florenz eine wirtschaftliche und kulturelle Blüte zu verzeichnen, gleichzeitig wurden in Italien die ersten Universitäten Europas gegründet. Neben dem Heiligen Römischen Reich, Frankreich und dem Kirchenstaat formten sich Königreiche wie England, Spanien (siehe Reconquista), Königreich Ungarn, Königreich Polen und die Kiewer Rus. Im Gegensatz dazu blieben Deutschland und Italien noch in eine Vielzahl kleiner Feudalstaaten und unabhängiger Städte zersplittert, die dem Kaiser nur formell unterstanden. Das Im Morgenländischen Schisma 1054 spaltete sich die Kirche in die römisch-katholische und die orthodoxe Kirche auf. Dies führte zu einer nachhaltigen Entfremdung zwischen den Regionen, in denen diese Konfessionen vorherrschend waren. Ein Tiefpunkt der Entwicklung war die Eroberung und Plünderung Konstantinopels im Vierten Kreuzzug 1204. Im späten 11. Jahrhundert begannen die Kreuzzüge in den Vorderen Orient, die bis ins 13. Jahrhundert in unterschiedlicher Intensität fortgeführt wurden. Die Provinz al-Andalus im Jahr 720 Im Mittelalter existierten auch nachhaltigste Herrschaften außereuropäischer Mächte über Teile Europas. Gegen Ende des 6. Jahrhunderts kontrollierten die Awaren weite Teile des Balkans, doch befand sich ihre Macht bereits im 7. Jahrhundert im Niedergang. In den 90er Jahren des 8. Jahrhunderts wurden die Awaren von den Franken unter Karl dem Großen geschlagen, das Restreich der Awaren befand sich im frühen 9. Jahrhundert in einem endgültigen Auflösungsprozess. Im April 711 begann die Invasion der Umayyaden in Südspanien, die den Grundstein legte für eine bis 1492 andauernde arabische Herrschaft über die Iberische Halbinsel. Zu ihrer größten Ausdehnung umfasste der Herrschaftsbereich neben dem heutigen Spanien, Portugal auch Teile von Südfrankreich. Insbesondere durch die Übersetzerschule von Toledo wurden arabische Schriften aus den Bereichen Astronomie, Physik, Alchemie und Mathematik ins Lateinische bzw. Kastilische übersetzt. Die so gewonnenen Erkenntnisse kamen unter anderem nach Italien und hatten starken Einfluss etwa auf die Entstehung der Scholastik. In den frühen 1220er Jahren begann unter den Generälen des Dschingis Khan, Jebe und Subutai, die Invasion der Mongolen in Europa. In der heutigen Ukraine schlugen sie zunächst ein russisches Heer in der Schlacht an der Kalka. Ab 1237 eroberten Dschötschi und Batu Khan die meisten russischen Fürstentümer. Sie drangen bis 1241 ins heutige Deutschland, Tschechien und Österreich vor und siegten in der Schlacht bei Liegnitz (Polen) und in der Schlacht bei Muhi (Ungarn). Diese Eroberungen wurden zur Goldenen Horde, die noch bis 1502 ein bedeutender Machtfaktor war. Durch die Pax Mongolica gab es auch hier erhöhte Reisetätigkeit in beide Richtungen und einen Technologietransfer nach Europa. Eine der größten Katastrophen, die Europa heimgesucht haben, war die Pest. Es gab eine Reihe von Epidemien, aber die schwerste von allen war der „Schwarze Tod“ von 1346 bis 1352, die vermutlich ein Drittel der Bevölkerung Europas dahinraffte. Die Pandemie trat zuerst in Asien auf und gelangte über die Handelsrouten nach Europa. Im Zusammenhang mit dem Pestausbruch fanden zudem Judenverfolgungen statt. Das Ende des Mittelalters wird normalerweise mit dem Fall von Konstantinopel 1453 und der endgültigen Eroberung des Byzantinischen Reichs durch die Osmanen verbunden. Die Osmanen machten Konstantinopel zur neuen Hauptstadt des Osmanischen Reichs, das bis 1919 Bestand hatte und in seiner größten Ausdehnung den Nahen Osten, Nordafrika, die Krim, den Kaukasus und den Balkan umfasste. Renaissance und Reformation. Im 15. Jahrhundert, am Ende des Mittelalters, waren mächtige Nationalstaaten, wie Frankreich, England und Polen-Litauen, entstanden. Die Kirche dagegen hatte viel von ihrer Macht durch Korruption, innere Meinungsverschiedenheiten und die Ausbreitung der Kultur verloren, die zur Weiterentwicklung von Kunst, Philosophie, Wissenschaft und Technik im Renaissance-Zeitalter führte. Die neuen Nationalstaaten waren im Kampf um die Vormachtstellung in Europa andauernd in einem Zustand politischer Veränderung und in Kriege verstrickt. Besonders mit dem Losbrechen der Reformation (nach gesamteuropäischer Betrachtung ab 1520), die Martin Luther mit seiner Verbreitung der Thesen zum Ablass 1517 mitbedingte, verwüsteten politische Kriege und Religionskriege den Kontinent. Das „Zeitalter der Glaubensspaltung“ führte zum Bruch zwischen dem Katholizismus und dem Protestantismus. In England brach König Heinrich VIII. mit Rom und erklärte sich selbst zum Oberhaupt der Kirche. In Deutschland einte die Reformation die verschiedenen protestantischen Fürsten gegen die katholischen Kaiser aus dem Hause Habsburg. In Frankreich konnte nach acht Hugenottenkriegen, mit dem Massaker der Bartholomäusnacht 1572 als Höhepunkt, mit dem Edikt von Nantes 1598 eine zeitweilige Beruhigung der Lage erreicht werden. Koloniale Expansion. Die zahlreichen Kriege hielten die neuen Staaten nicht von der Erforschung und Eroberung großer Teile der Welt ab, besonders im neu entdeckten Amerika. Im frühen 16. Jahrhundert waren Spanien und Portugal, die bei der Erforschung führend waren, die ersten Staaten, die Kolonien in Südamerika sowie Handelsposten an den Küsten Afrikas und Asiens gründeten, aber Frankreich, England und die Niederlande taten es ihnen bald nach. Spanien hatte die Kontrolle über große Teile Südamerikas und die Philippinen, Großbritannien hatte ganz Australien, Neuseeland, Indien und große Teile von Afrika und Nordamerika, Frankreich hatte Kanada und Teile von Indien (beide verlor es 1763 an Großbritannien), Teile Südostasiens (Französisch-Indochina) und große Teile Afrikas unter Kontrolle. Die Niederlande bekamen Indonesien und einige Inseln in der Karibik, Portugal gehörten Brasilien und mehrere Gebiete in Afrika und Asien. Später erwarben auch andere Mächte wie Russland, Deutschland, Belgien, Italien, außerhalb Europas die USA und Japan einige Kolonien. Der Amerikanische Unabhängigkeitskrieg, der 1776 zur Unabhängigkeitserklärung der Vereinigten Staaten führte, sowie die Unabhängigkeitserklärungen der südamerikanischen Staaten setzten der europäischen Kolonialisierung Grenzen. 17. und 18. Jahrhundert. In diesen zwei Jahrhunderten erreichten die religiösen und dynastischen Spannungen ihren Höhepunkt im Dreißigjährigen Krieg von 1618 bis 1648, der längsten Kriegsperiode, an dem nahezu der gesamte Kontinent beteiligt war. Dieser Krieg begann mit dem sogenannten Prager Fenstersturz und endete mit dem Westfälischen Frieden, der den Territorialherren im Heiligen Römischen Reich weitgehende Souveränität verschaffte und die Entwicklung von Nationalstaaten einleitete. Durch den Dreißigjährigen Krieg wurden ganze Landstriche verwüstet und entvölkert, und es bedurfte mehr als einer Generation, bis sich die Bevölkerung wieder erholt hatte. Die mittelalterliche Feudalordnung löste sich im 17. Jahrhundert weitgehend auf. Die Grafen und Fürsten verloren mit der stetigen Unabhängigkeit der Bevölkerung viel Vermögen und dem Kaiser blieb am Ende nur die Ohnmacht des Reiches, wobei die Kleinstaaterei ihren Anfang nahm und die Nationalstaaten weiter gestärkt wurden bzw. der Absolutismus sich zur vorherrschenden Regierungsform entwickelte. Das veränderte Machtgefüge hinterließ bleibenden Eindruck in der Kultur und im kollektiven Gedächtnis der Menschen, das hervorgegangen war aus dieser Unzufriedenheit und den daraus resultierenden Kriegsfolgen und nun ganz langsam zum Aufstieg des Bürgertums führte. Durch den resultierenden Aufschwung des Handels kam der Merkantilismus als Wirtschaftsform auf. Eine Erschütterung wiederholte sich 1683 in Europa mit der zweiten Belagerung Wiens nach 1529 durch die Türken. Durch Einwirkung des Papstes kam es zu einer umfassenden Koalition zur Verteidigung gegen die Türken. Die damals stärkste Militärmacht Europas, Frankreich unter dem „Sonnenkönig“ Ludwig XIV., beteiligte sich nicht an der Koalition, sondern nutzte die Tatsache, dass der deutsche Kaiser mit der Türkenabwehr beschäftigt war, zur Fortsetzung seiner Reunionskriege. Geistesgeschichtlich wurde die Renaissance durch die Philosophie der Aufklärung fortgesetzt, die die Stellung der Religion schwächte und die Grundlage für erste Demokratiebewegungen legte. Die Naturwissenschaften erzielten große Fortschritte; mit Erfindungen wie der Dampfmaschine begann im späten 18. Jahrhundert die industrielle Revolution, die Wirtschaft entwickelte sich zum frühen Kapitalismus. Ab 1756 wurde der Siebenjährige Krieg von Preußen und Großbritannien auf der einen Seite gegen Österreich, Frankreich und Russland auf der anderen Seite geführt. Die Hauptveränderung auf dem Kontinent war der Aufstieg Preußens zur Großmacht, das weltpolitische Ergebnis war, dass Frankreich einen großen Teil seiner Kolonien an Großbritannien verlor, das dadurch den Grundstein zu seinem Weltreich legte. Gegen Ende des 18. Jahrhunderts führte die Weigerung von König Ludwig XVI. von Frankreich, unterstützt vom Adel und der Kirche, dem sogenannten dritten Stand mehr Einfluss zu geben, zur Französischen Revolution von 1789. Es war ein maßgeblicher Versuch, einen neuen Staat nach den Prinzipien der Freiheit, Gleichheit, Brüderlichkeit ("Liberté, Egalité, Fraternité") zu schaffen. Der König wurde hingerichtet, in Frankreich wurde die Republik ausgerufen und eine Art demokratischer Regierung wurde errichtet. In den darauf folgenden Wirren, die unter anderem durch die Kriegserklärungen der meisten europäischen Monarchien ausgelöst wurden, übernahm General Napoleon Bonaparte nach dem Staatsstreich des 18. Brumaire VIII die Macht. Die Trennung von Exekutive und Legislative, also die Gewaltenteilung zwischen Gesetzgebung und Kontrolle, wurde nun in Frankreich vollzogen und war der Anfang vom Ende des Feudalismus in ganz Europa. Um ein Übergreifen von Revolutionen sowie veränderte Machtgefüge in Europa zu verhindern, nahmen am Ende des 18. Jahrhunderts die Koalitionskriege ihren Anfang. 19. Jahrhundert. In den zahlreichen Kriegen des napoleonischen Zeitalters besiegte Napoleon mehrmals das Kaisertum Österreich, dessen Kaiser den Titel "Kaiser des Heiligen Römischen Reiches" ablegte, sowie Russland, Preußen und andere Mächte. Napoleon errichtete zeitweilig erneut das Königreich Polen, das im ausgehenden 18. Jahrhundert von Preußen, Österreich und Russland aufgeteilt worden war. 1804 ließ er sich zum französischen Kaiser ernennen. 1815 wurde er endgültig bei Waterloo geschlagen. Nach der Niederlage Frankreichs versuchten die anderen europäischen Mächte beim Wiener Kongress von 1814/1815 unter Federführung des österreichischen Staatskanzlers Fürst von Metternich und in der Zeit des Vormärz zwischen 1815 und 1848, mit Hilfe von Restaurationsmaßnahmen die Situation vor 1789 wiederherzustellen. Sie waren jedoch längerfristig nicht in der Lage, die Ausbreitung der revolutionären Bewegungen aufzuhalten. Die Bürgerschicht war stark von den demokratischen Idealen der Französischen Revolution beeinflusst. Außerdem brachte die industrielle Revolution im Lauf des 19. Jahrhunderts tiefgreifende wirtschaftliche und soziale Veränderungen mit sich. Die Arbeiterklasse wurde zunehmend von sozialistischen, kommunistischen und anarchistischen Ideen beeinflusst, besonders von den Theorien, die von Karl Marx im Kommunistischen Manifest 1848 zusammengefasst worden waren. Weitere Destabilisierung kam durch die Gründung nationalistischer Bewegungen unter anderem in Deutschland, Italien und Polen, die die nationale Einheit und/oder die Befreiung von Fremdherrschaft forderten. Als Folge dieser Entwicklungen gab es in der Zeit zwischen 1815 und 1871 eine große Anzahl von Umsturzversuchen und Unabhängigkeitskriegen, etwa die Julirevolution 1830 oder die 49. Auch wenn die Revolutionäre oft besiegt wurden, hatten die meisten Staaten bis 1871 eine Verfassung erhalten und wurden nicht mehr absolutistisch regiert. Deutschland wurde 1871 nach den drei Einigungskriegen (1864 Deutsch-Dänischer Krieg, 1866 Deutscher Krieg gegen Österreich und 1870/1871 Deutsch-Französischer Krieg) im Schloss Versailles zum Deutschen Kaiserreich unter Kaiser Wilhelm I. ausgerufen. Dessen Politik wurde bis 1890 wesentlich von Reichskanzler Otto von Bismarck bestimmt, siehe dazu auch Bündnispolitik Otto von Bismarcks. Ähnlich wie in Deutschland wurde nach dem Scheitern der demokratisch und liberal gesinnten Revolutionen und Unabhängigkeitsbewegungen in den italienischen Fürstentümern der italienische Nationalstaat als Königreich Italien unter sardischer Führung nach mehreren Kriegen vor allem gegen Österreich durchgesetzt (siehe auch Risorgimento). 1861 wurde der sardinische König Viktor Emanuel II. zum italienischen König proklamiert. Sein Ministerpräsident Camillo Benso Graf von Cavour spielte für Sardinien-Piemont und Italien eine ähnliche Rolle wie Bismarck für Preußen und das Deutsche Reich. In Frankreich kam es nach dem Sturz von Kaiser Napoleon III. als Folge der französischen Niederlage im Krieg gegen Preußen und die anderen deutschen Staaten zur Ausrufung der Dritten Französischen Republik. Im Verlauf der Umwälzungen in Frankreich hatten sich 1871 die Pariser Bürger und Arbeiter gegen die preußenfreundliche Politik der jungen Republik erhoben und die Pariser Kommune gegründet. Sie gilt als der erste sozialistisch-kommunistische Revolutionsversuch, wurde aber schon nach wenigen Wochen blutig niedergeschlagen. Die letzten Jahrzehnte des 19. Jahrhunderts wurden durch eine zunehmende wirtschaftliche und machtpolitische Konkurrenz der Großmächte Zentraleuropas, insbesondere des Deutschen Reiches, Frankreichs und Großbritanniens bestimmt. Diese Konkurrenz führte unter anderem zu einer verstärkten Militarisierung der jeweiligen Gesellschaften, einem Rüstungswettlauf, dem „Wettlauf um Afrika“ und Asien („Great Game“) und zu einem Höhepunkt des Imperialismus und Nationalismus. Diese Entwicklungen führten langfristig, insbesondere nach der Auflösung des bismarckschen Bündnissystems unter Kaiser Wilhelm II., das bis 1890 für eine gewisse zwischenstaatliche Stabilität gesorgt hatte, zum Ersten Weltkrieg. Frühes 20. Jahrhundert: Weltkriege. Das 20. Jahrhundert brachte dramatische Veränderungen des Machtgefüges innerhalb Europas und den Verlust seiner kulturellen und wirtschaftlichen Dominanz über die anderen Kontinente mit sich. Schon während der "Belle Époque" eskalierten die Rivalitäten der europäischen Mächte, bis 1914 der Erste Weltkrieg ausbrach. Den Mittelmächten Deutschland, Österreich-Ungarn, Osmanisches Reich und Bulgarien stand die "Entente" gegenüber, bestehend aus Frankreich, Großbritannien und Russland, die 1915 durch Italien und 1917 durch die USA und noch weitere Staaten verstärkt wurden. Trotz der Niederlage Russlands 1917 siegte Ende 1918 die "Entente". Der Krieg war eine der Hauptursachen für die Oktoberrevolution, die zur Gründung der Sowjetunion führte. Im Friedensvertrag von Versailles erlegten die Sieger Deutschland harte Bedingungen auf, worauf in den weiteren Pariser Vorortverträgen auf dem Gebiet des vormaligen österreichisch-ungarischen Reiches statt des Vielvölkerstaates eine Reihe neuer Staaten wie Österreich, Ungarn, Polen, die Tschechoslowakei und Jugoslawien geschaffen wurden, mit dem theoretischen Ziel, die Selbstbestimmung der Völker zu fördern. In den folgenden Jahrzehnten führten die Angst vor dem Kommunismus und die Weltwirtschaftskrise zur Machtübernahme autoritärer und totalitärer Regierungen: Faschisten in Italien (1922), Nationalsozialisten in Deutschland (1933), Franquisten in Spanien (nach Ende des Bürgerkriegs 1939) und auch in vielen anderen Ländern wie etwa in Ungarn. Nachdem 1936 Deutschland und Japan über den Antikominternpakt zusammengefunden hatten, dem 1937 Italien beitrat und der 1940 im Dreimächtepakt durch militärische Kooperation ergänzt wurde, löste NS-Deutschland, ermutigt durch das Münchner Abkommen von 1938 und gestützt auf einen Nichtangriffspakt mit der Sowjetunion, am 1. September 1939 mit dem Angriff auf Polen den Zweiten Weltkrieg aus. Nach anfänglichen Erfolgen, unter anderem der Besetzung Polens, Frankreichs und des Balkans bis 1940, übernahm sich Deutschland durch den Krieg gegen die Sowjetunion und die Kriegserklärung an die USA zur Unterstützung Japans. Nach anfänglichen Erfolgen wurde die Wehrmacht im Dezember 1941 in der Schlacht um Moskau gestoppt und erlitt ein Jahr später eine entscheidende Niederlage in der Schlacht von Stalingrad. Die alliierten Streitkräfte siegten in Nordafrika in den zwei Schlachten von El Alamein, besetzten ab 1943 Italien und eroberten 1944 mit der Operation Overlord Frankreich zurück. Im Frühjahr 1945 wurde Deutschland von Osten von den sowjetischen Truppen und von Westen her von den US-amerikanischen und britischen Truppen besetzt. Den einrückenden alliierten Soldaten bot sich vielerorts ein Bild des Grauens. In Tausenden von Konzentrations- und KZ-Außenlagern innerhalb Deutschlands und in den besetzten Gebieten waren Millionen Juden, Sinti und Roma, Sozialdemokraten, Kommunisten, Geistliche, Arbeitsunfähige, sowjetische Kriegsgefangene und polnische Zivilisten erschossen oder vergast worden, viele verhungerten oder starben an Krankheiten. Eine Woche nach dem Suizid Hitlers kam es zur bedingungslosen Kapitulation der Wehrmacht am 8. Mai 1945. Japan ergab sich im August 1945, nachdem die USA die Städte Hiroshima und Nagasaki mit Atombomben zerstört hatten. Vom Ende des Zweiten Weltkriegs bis zum Ende des Kalten Krieges. Militärbündnisse zu Zeiten des Kalten Kriegs Die beiden Weltkriege, insbesondere der zweite, beendeten die herausragende Rolle Europas in der Welt. Die Landkarte Europas wurde neu gezeichnet, als der Kontinent das Hauptspannungsfeld im Kalten Krieg zwischen den neu entstandenen Supermächten, den kapitalistischen USA und der kommunistischen Sowjetunion, wurde. Der „Eiserne Vorhang“ bildete die Trennlinie zwischen der westlichen Welt und dem sowjetisch beherrschten Ostblock mit Polen, der Tschechoslowakei, Ungarn, Rumänien, Bulgarien und der DDR. Militärisch standen sich die von den USA geführte NATO und der sowjetisch kontrollierte Warschauer Pakt gegenüber. Mitgliedsstaaten und Beitrittskandidaten der EU Von West- und Mitteleuropa ausgehend begann innerhalb der westlich orientierten Staaten ein Prozess wirtschaftlicher und politischer Integration: Von einer Montanunion aus entwickelte sich die Europäische Wirtschaftsgemeinschaft (1957), die nach dem Maastrichter Vertrag 1992 von der Europäischen Union abgelöst wurde. Im Ostblock entwickelte sich in den Satellitenstaaten ein starkes Freiheitsbedürfnis, das trotz mancher Rückschläge (1956 in Ungarn, 1968 in der CSSR) nach einer Schwächung der Sowjetunion aufgrund von wirtschaftspolitischen Fehlern und einer Überlastung durch den Rüstungswettlauf schließlich zum Ende der Teilung Europas führte. Die sowjetischen Satellitenstaaten konnten ihre kommunistischen Regierungen abschütteln, und die deutsche Wiedervereinigung wurde am 3. Oktober 1990 abgeschlossen. Infolge der Auflösung der Sowjetunion 1991 entstand eine Reihe neuer Staaten in Osteuropa und Asien. Nach der Auflösung des Warschauer Paktes. Zunächst erschien es so, als könne die Beendigung des Kalten Krieges und die Auflösung der Blöcke aufgrund allgemeiner Abrüstung zu einer Friedensdividende und zu weitreichender Demokratisierung führen. Und es herrschte in der Mehrzahl der europäischen Staaten weitgehende Einigkeit darüber, dass die wirtschaftliche Entwicklung von Deregulierung und Globalisierung geprägt sein sollte. Der Washington Consensus von 1990 und der Umbau des GATT in die WTO mit stärkeren Kompetenzen sollte einen Zollabbau erzwingen. Andererseits entstand Kritik an dieser Politik durch Attac (1998 gegründet) oder etwa den Wirtschaftsnobelpreisträger Joseph E. Stiglitz in "Die Schatten der Globalisierung" (2002). Das Auseinanderbrechen Jugoslawiens und mehr noch die Terroranschläge am 11. September 2001 in den USA durch al-Qaida beendeten diese Friedenshoffnung. Es kam zu Terroranschlägen auch in Europa: in Madrid (2004) und in London (2005). Russland kehrte unter Gorbatschows Nachfolger Boris Jelzin zu einer nationalistischeren Politik zurück. Wirtschaftsführer bereicherten sich unverhältnismäßig, während ein großer Teil der Bevölkerung verarmte. Ab 2000 setzte Wladimir Putin mit diktatorischen Methoden die staatliche Autorität wieder durch, doch bei dem inneren Konflikt mit Tschetschenien ließ er schwere Menschenrechtsverletzungen zu. Beim Kaukasuskrieg 2008 trat Russland deutlich als Hegemonialmacht auf. Die europäische Integration machte weiterhin Fortschritte durch die Einführung einer gemeinsamen Währung, des Euro, in mittlerweile 17 Ländern der Europäischen Union und durch die Erweiterung der Europäischen Union um Polen, Tschechien, die Slowakei, Ungarn, Estland, Lettland, Litauen, Slowenien, Malta und die Republik Zypern am 1. Mai 2004 sowie um Bulgarien und Rumänien am 1. Januar 2007. Mit dem Vertrag von Lissabon von 2009 (unterzeichnet 2007, endgültig ratifiziert 1. Dezember 2009) wurde die Struktur an die neue Situation angepasst, nachdem ein Verfassungsvertrag 2005 an Negativvoten bei Volksabstimmungen in Frankreich und den Niederlanden gescheitert war. 2009 geriet Griechenland im Zuge der Weltfinanzkrise wegen seiner hohen Schulden in eine schwere Finanzkrise, die sich 2010 zur Eurokrise entwickelte, gegen die ein Europäischer Stabilitätsmechanismus entwickelt wurde. Dieser verhinderte mit immer neuen Maßnahmen eine Katastrophe, die grundsätzliche Krise konnte aber bislang nicht beendet werden. Von diesen Wirtschaftskrisen wurden auch Irland, Spanien, Portugal und Italien ergriffen. Während Irland in den Jahren 2012/2013 seine Wirtschaft stabilisieren konnte, sind die anderen Staaten, aber insbesondere Griechenland, nach wie vor hoch verschuldet. Im März 2014 kam es parallel zu einer Revolution in der Ukraine zu einer Annexion der Halbinsel Krim, gesteuert durch Russland und unterstützt durch russisches Militär. Ein hastig improvisiertes Votum der Bevölkerung ergab nach den veröffentlichten Zahlen eine deutliche Mehrheit von mehr als 90 % für einen Anschluss an Russland – dies bei der Unmöglichkeit, sich für den Status Quo auszusprechen. 100 Staaten der UNO verurteilten das Votum, welches nicht eine Basis für eine Statusänderung der Krim sein könne. Historische Kulturregionen. Im Gegensatz zu anderen Kontinenten, für die Anfang des 20. Jahrhunderts verschiedene Modelle zur Einteilung in Kulturkreise (veraltet) oder Kulturareale entwickelt wurden, blieb Europa aufgrund der enorm differenzierten Entwicklung und der Verschmelzung der Völker in Nationalstaaten lange Zeit außen vor. Erst seit der Arbeit des 1988 verstorbenen ungarischen Historikers Jenő Szűcs wird eine Einteilung auf Grundlage der „historischen Regionen Europas“ ernsthaft diskutiert. Die Karte zeigt die Kulturareale, die Christian Giordano 2002 in Anlehnung an die „Weltsystem-Theorie“ von Immanuel Wallerstein vorgeschlagen hat. Geisteskrankheit. Unter Geisteskrankheiten oder "Geistesstörungen" wurden unterschiedliche Verhaltensbilder und Krankheiten zusammengefasst, die sich durch Verhaltensformen ausdrücken, die in der Gesellschaft nicht akzeptiert werden, siehe Kapitel "Staatsmedizin". Geisteskrankheiten können als Oberbegriff für jede Art von seelischer Störung verstanden werden oder spezieller als Psychose, d. h. als Krankheitsgruppe mit klinisch stärker ausgeprägter Symptomatik und eher ungünstiger Prognose. Im medizinischen und psychologischen Sprachgebrauch findet der Begriff "Geisteskrankheit" heute wegen definitorischer Schwierigkeiten kaum noch Verwendung. Siehe dazu auch die Veröffentlichung "Geisteskrankheiten sind Gehirnkrankheiten". Eine historisch - kritische Untersuchung am Beispiel "Schizophrenie" Rolf Kaiser, Pahl Rugenstein Verlag 1983, die die Mängel der Definitionsversuche belegt. Man spricht heute anstelle von Geisteskrankheiten neutraler von psychischen Störungen oder "seelischen Krankheiten". Aber noch in dieser Wortwahl macht sich das historische Erbe bemerkbar, vgl. auch Kap. "Historische Wurzeln des Begriffs". Von den Geisteskrankheiten wurden die Gemütskrankheiten als umschriebene affektive Psychose und die "Geistesschwäche" als Störung mit klinisch schwächer ausgeprägter Symptomatik abgegrenzt. In der juristischen Diktion und insbesondere in der forensischen Psychiatrie findet der Begriff hingegen für psychische Störungen von erheblichen Ausmaß wie Schizophrenie oder auch für geistige Behinderung und bestimmte Persönlichkeitsstörungen weiterhin Verwendung, etwa im Betreuungsrecht, bei der Entmündigung und der Schuldunfähigkeit. Historische Wurzeln des Begriffs. Nach Klaus Dörner wurde der Begriff Geisteskrankheit maßgeblich durch Friedrich Wilhelm Schelling und seine Identitätsphilosophie um 1800 geprägt. Schelling wandte sich hier gegen Hegel, indem er behauptete, dass die Seele nicht erkranken könne, da sie göttlichen Ursprungs sei: ›Nicht der Geist wird vom Leib, sondern umgekehrt der Leib vom Geist infiziert.‹ Hier liegen auch die Ursprünge für die deutsche Endogenitätslehre und die französische Degenerationslehre sowie ihrer vermutenden Vorwegnahme körperlicher Begründbarkeit. Es handelte sich hierbei um den Standpunkt der Psychiker, wonach vor allem Sünde und moralische Verfehlungen eine Geisteskrankheit verursachen. Es musste dahingestellt bleiben, ob Seele oder Geist erkranken. Für die Seelenkrankheit setzte sich im 19. Jahrhundert der Begriff Gemütskrankheit durch, für die Geisteskrankheit ab 1845 der Begriff Psychose. Dies war allerdings auch der Zeitpunkt, ab dem die allgemeine Geltung der Psychiker ins Wanken geriet. Psychische Störung meint ebenfalls eher den naturwissenschaftlich definierten Begriff von Krankheit, vgl. die Unterscheidung von Psyche und Seele und die von Johann Christian Reil geprägte Bezeichnung Psychiatrie. Das von Wilhelm Griesinger mit seinem Lehrbuch „Pathologie und Therapie der psychischen Krankheiten“ 1845 verkündete Fazit: „"Geisteskrankheiten sind Gehirnkrankheiten"“ erforderte ein Umdenken der Psychiatrie im Sinne der Somatiker. Damit kam die Forschung aber erst recht auf die Bahn einer Suche nach somatischen Befunden bei Psychosen, wie sie vor allem die klassische deutsche Psychiatrie vertrat. Die Sichtweise Freuds und der von ihm behandelten Neurosen erschien daher wie ein Rückfall in die romantische Medizin. Gesellschaftspolitische Bezüge wurden so aber eher nicht hergestellt, sondern ärztlicherseits meist ein rein naturwissenschaftliches Paradigma ohne gesellschaftliches Engagement behauptet, siehe Kap. "Staatsmedizin". Ein triadisches System der Psychiatrie und die mit ihm verbundene multikonditionale Betrachtungsweise (Ernst Kretschmer) bildete sich erst nach und nach heraus. Auch die Sichtweise einer Mitbedingtheit psychischer Erkrankungen durch körperliche "und" seelische Faktoren, wie sie die psychosomatische Medizin mit Modellvorstellungen von psychophysischer Korrelation vertritt, ist ein erst vergleichsweise junger Entwicklungsschritt in der seit zwei Jahrhunderten währenden Geschichte der Erforschung von Geisteskrankheiten. Staatsmedizin. a> (1820–1895) Pinel befreit die Irren von ihren Ketten In Deutschland waren die Anfänge der institutionellen Psychiatrie im 19. Jahrhundert weitestgehend durch eine Staatsmedizin bestimmt, die Ihre staatstragenden ideologischen Anleihen vorwiegend aus den Morallehren der Philosophie und der Religion übernahm, die aber auch durch die beginnende Industrialisierung zunehmend sozialökonomische Gesichtspunkte in die staatspolitischen Überlegungen aufnahm. Das Vorhandensein staatlicher Präsenz erschien vor allem deshalb unerlässlich, weil man von der Grundannahme der Uneinfühlbarkeit und Unverständlichkeit des tätigen Verhaltens bei Geisteskrankheiten ausging, so insbesondere auch von der Gefahr der Tobsucht. Dies bewirkte, dass man Geisteskranke teilweise in Fortsetzung der absolutistischen "Ausgrenzung von Unvernunft" – etwa durch die Methoden des Hôpital général – potentiell als gemeingefährlich hielt. Diese Annahme hat sich jedoch durch die neueren Erkenntnisse der psychiatrischen Kriminalstatistik nicht bestätigt. Die Grundannahme der Gemeingefährlichkeit begünstigte die Befürwortung von Zwangsmaßnahmen. Philippe Pinel (1745–1826) wird allgemein dafür gerühmt, die Kranken von ihren Ketten befreit zu haben, weil er die Grundannahme der Gemeingefährlichkeit umkehrte und gegenüber dem jakobinischen Schreckensmann Georges Couthon vor den Anstaltsinsassen behauptete, die Tobsüchtigen seien deshalb aggressiv, weil sie wegen der Zwangsmaßnahmen dieses Verhalten angenommen hätten. Der Begriff Geisteskrankheit spielte daher auch in rechtlicher Hinsicht eine entscheidende Rolle. Bis Ende 1991 war der Begriff „Geisteskrankheit“ gemäß gesetzestextlich verankert. Geschwindigkeit. Die Geschwindigkeit (Formelzeichen: formula_1, von eng. "velocity") ist ein Grundbegriff der klassischen Mechanik. Für die Angabe einer Geschwindigkeit ist nicht nur ihr Betrag (anschaulich gesprochen das „Tempo“ einer Bewegung, wie es beispielsweise der Tachometer eines Autos angezeigt), sondern auch die Angabe der Bewegungsrichtung notwendig – es handelt sich also um eine vektorielle Größe. Der Betrag der Geschwindigkeit gibt an, welche Wegstrecke ein Körper innerhalb einer bestimmten Zeitspanne zurücklegt. Die international verwendete Einheit für die Geschwindigkeit ist s), gebräuchlich sind auch h) und – vor allem in der See- und Luftfahrt – Knoten (kn). Die höchste mögliche Geschwindigkeit für jedwede Informationsübertragung ist die Lichtgeschwindigkeit formula_3. Physikalische Körper, die eine Masse besitzen, können sich nur mit Geschwindigkeiten bewegen, die geringer als diese sind. Etymologie. Geschwind (Adjektiv von Geschwindigkeit) 'schnell', mittelhochdeutsch "geswinde" 'schnell, vorschnell, ungestüm, kühn', mittelniederdeutsch "geswint", "geswine" 'stark' (verstärkte Bedeutung durch das Präfix "ge-"), mittelhochdeutsch "swinde", "swint" 'gewaltig, stark, heftig, gewandt, schnell, böse, gefährlich'. Althochdeutsches Vorkommen wird durch Namen wie "Amalswind, Swindbert, Swinda" erwiesen. Definition . Wegstrecken bei einer Bewegung mit gekrümmter Bahnkurve. Wenn die Bewegung als eindimensional (entlang einer bestimmten Bahnkurve) aufgefasst wird, kann der vektorielle Charakter der Geschwindigkeit außer Acht gelassen und sie wie eine skalare Größe betrachtet werden. Das ist insbesondere bei einer geradlinigen Bewegung der Fall. Die vom Ausgangspunkt "A" zum Zielpunkt "P" zurückgelegte Wegstrecke trägt die Bezeichnung "s". Zusätzlich betrachtet sei die verstrichene Zeit "t" bis zum Erreichen des Punktes "P". Der Quotient aus beiden ergibt die Durchschnittsgeschwindigkeit. Für einen Streckenabschnitt formula_5 zwischen den Punkten "P"1 und "P"2 wird die Zeitspanne formula_6 benötigt. Hieraus ergibt sich die Durchschnittsgeschwindigkeit im untersuchten Streckenabschnitt. Diese Definition des Geschwindigkeitsbegriffs geht wohl auf Galileo Galilei zurück. Durch Reduzieren des Beobachtungszeitraums formula_6 auf ein verschwindend kleines Zeitintervall entsteht ein Grenzwert, den die Mathematik als Differentialquotienten oder Ableitung der Strecke nach der Zeit kennt. Daraus resultiert die Momentangeschwindigkeit Bei einer Bewegung im Raum wird die Bahnkurve durch den sich zeitlich verändernden Ortsvektor formula_10 beschrieben. Da jede Ortsänderung eine Richtung aufweist, stellt auch die Geschwindigkeit, die diese Änderung im Bezug zur Zeit charakterisiert, eine vektorielle Größe dar. Die erste Ableitung der Zeit-Ort-Funktion nach der Zeit, oft mit formula_11 bezeichnet, ist die Momentangeschwindigkeit formula_12. Der Betrag dieser Geschwindigkeit wird auch als Bahngeschwindigkeit bezeichnet. Beziehungen zu anderen physikalischen Größen. Der Impuls – also anschaulich gesprochen der „Schwung“ – eines Körpers der Masse formula_17 berechnet sich nach während die kinetische Energie durch gegeben ist. Streng genommen gelten die letzten beiden Gleichungen nur näherungsweise für den so genannten nichtrelativistischen Fall, also für Geschwindigkeiten, die viel kleiner als die Lichtgeschwindigkeit sind. Messung. Am einfachsten kann die Geschwindigkeit bestimmt werden, indem man misst In beiden Fällen wird eigentlich nur eine Durchschnittsgeschwindigkeit gemessen. Wenn das Weg- bzw. Zeitintervall aber kurz genug gewählt wird oder die Bewegung annähernd gleichförmig ist, kann man mit beiden Methoden befriedigende Genauigkeiten erreichen. Ein Beispiel für die Methode 1 wäre die Messung der Lichtgeschwindigkeit nach Hippolyte Fizeau. Methode 2 wird unter anderem angewendet, wenn Geschwindigkeitswerte aus GPS-Daten berechnet werden. Die Geschwindigkeit eines Fahrzeugs lässt sich leicht mit einem Tachometer bestimmen. Dieses misst eigentlich die Drehzahl des Rades, welche direkt proportional zur Geschwindigkeit ist. Es kann aber praktisch jeder andere geschwindigkeitsabhängige Effekt auch für eine Messmethode verwendet werden, so z. B. der Doppler-Effekt im Doppler-Radar, der Impuls im ballistischen Pendel oder der Staudruck in der Prandtlsonde. Einheiten. SI-Einheit der Geschwindigkeit ist Meter pro Sekunde (m/s). Eine weitere gebräuchliche Einheit der Geschwindigkeit ist Kilometer pro Stunde (km/h). In der Alltagssprache wird auch die Bezeichnung „Stundenkilometer“ verwendet. Da in der Physik eine derartige Zusammensetzung zweier Einheiten (hier: „Stunde“ und „Kilometer“) als eine Multiplikation dieser Einheiten verstanden wird, wird der Ausdruck „Stundenkilometer“ in den Naturwissenschaften normalerweise nicht verwendet. Als nicht metrische Einheit wird vor allem in den USA und einigen anderen englischsprachigen Ländern Meilen pro Stunde (mph) benutzt. In der See- und Luftfahrt ist außerdem die Einheit Knoten (kn) gebräuchlich. Ein Knoten ist eine Seemeile (sm) pro Stunde. Vertikalgeschwindigkeiten in der motorisierten Luftfahrt werden oft in Fuß pro Minute (LFM von engl. "linear feet per minute" oder nur fpm von engl. "feet per minute") angegeben. Fast nur in der Luftfahrt wird die Mach-Zahl verwendet, die keine absolute Größe angibt, sondern das Verhältnis der Geschwindigkeit zur lokalen Schallgeschwindigkeit angibt. Die Schallgeschwindigkeit ist stark temperaturabhängig aber nicht luftdruckabhängig. Der Grund für die Nutzung dieser Zahl ist, dass aerodynamische Effekte von ihr abhängen. Anmerkung: Die fett gedruckten Umrechnungsfaktoren sind exakt, alle anderen auf vier geltende Ziffern gerundet. Geschwindigkeiten und Bezugssystem . Vorbeifliegendes Flugzeug mit Geschwindigkeit (rot), Radialgeschwindigkeit (grün) und Tangentialgeschwindigkeit (blau) Im homogenen Schwerefeld wird oft ein kartesisches Koordinatensystem verwendet. Geschwindigkeiten, die parallel zur Fallbeschleunigung formula_21 gerichtet sind, werden meist als "Vertikalgeschwindigkeiten", solche, die orthogonal zu dieser Richtung sind, als "Horizontalgeschwindigkeiten" bezeichnet. Das Vektorprodukt aus der Winkelgeschwindigkeit und dem Ortsvektor ergibt die Tangentialgeschwindigkeit. Bei Bewegungen auf einer Kreisbahn, aber auch nur in diesem Fall, ist die Radialgeschwindigkeit null und die Tangentialgeschwindigkeit die Geschwindigkeit längs der Tangente an die Bahnkurve. Aus der Änderung des Abstands zum Koordinatenursprung (Radius) folgt die Radialgeschwindigkeit. Setzt man voraus, dass es ein allgemein gültiges Bezugssystem gibt, so nennt man die Geschwindigkeiten, die in diesem System gemessen werden, "Absolutgeschwindigkeiten". Geschwindigkeiten, die sich auf einen Punkt beziehen, der sich selbst in diesem System bewegt, heißen "Relativgeschwindigkeiten". Beispiel: Eine Straßenbahn fährt mit einer Geschwindigkeit von 50 km/h. Darin bewegt sich ein Fahrgast mit einer Relativgeschwindigkeit (gegenüber der Straßenbahn) von 5 km/h. Seine Absolutgeschwindigkeit (vom ruhenden Beobachter auf der Straße aus gesehen) beträgt also 55 km/h oder 45 km/h, je nachdem, ob er sich in Fahrtrichtung oder gegen die Fahrtrichtung bewegt. Das Relativitätsprinzip besagt jedoch, dass es keinen physikalischen Grund gibt, warum man ein bestimmtes Bezugssystem herausgreifen und gegenüber anderen Systemen bevorzugen sollte. Sämtliche physikalischen Gesetze, die in einem Inertialsystem gelten, gelten auch in jedem anderen. Welche Bewegungen man als „absolut“ ansieht, ist also vollkommen willkürlich. Deswegen wird der Begriff der Absolutgeschwindigkeit spätestens seit der speziellen Relativitätstheorie vermieden. Stattdessen sind alle Geschwindigkeiten Relativgeschwindigkeiten. Aus diesem Relativitätsprinzip folgt, zusammen mit der Invarianz der Lichtgeschwindigkeit, dass Geschwindigkeiten nicht – wie im obigen Beispiel stillschweigend angenommen – einfach addiert werden dürfen. Stattdessen gilt das relativistische Additionstheorem für Geschwindigkeiten. Dies macht sich jedoch erst bei sehr hohen Geschwindigkeiten bemerkbar. Geschwindigkeit zahlreicher Teilchen. Betrachtet man ein System aus vielen Teilchen, so ist es meist nicht mehr möglich für jedes individuelle Teilchen eine bestimmte Geschwindigkeit anzugeben. Stattdessen ergibt sich eine Geschwindigkeitsverteilung. Diese gibt an, wie häufig ein Geschwindigkeitsbetrag in dem Teilchenensemble auftritt. In einem idealen Gas gilt beispielsweise die Maxwell-Boltzmann-Verteilung (siehe nebenstehende Abbildung): Sehr kleine Geschwindigkeiten werden nur von ganz wenigen Teilchen angenommen. Die wahrscheinlichste Geschwindigkeit – das Maximum der Maxwell-Boltzmann-Verteilung – ist stark temperaturabhängig. Je heißer das Gas ist, desto mehr Teilchen erreichen hohe Geschwindigkeiten. Dies deckt sich mit der Aussage, dass die Temperatur ein Maß für die mittlere kinetische Energie der Gasteilchen ist. Dabei sind auch bei niedrigen Temperaturen sehr hohe Geschwindigkeiten nicht vollständig ausgeschlossen. Damit lassen sich manche physikalische Phänomene erklären, wie z. B. das Diffusionsverhalten von Gasen. Strömungsgeschwindigkeit eines Fluids. Allerdings können sich die "lokalen" Strömungsgeschwindigkeiten sehr stark von einander unterscheiden. Beispielsweise ist die Geschwindigkeit in der Mitte eines idealen Rohres am größten und fällt durch die Reibung zur Wandung hin bis auf Null ab. Man muss daher die Strömung eines Mediums als Vektorfeld auffassen. Wenn die Geschwindigkeitsvektoren zeitlich konstant sind, spricht man von einer stationären Strömung. Verhalten sich die Geschwindigkeiten im Gegensatz dazu chaotisch, so handelt es sich um eine turbulente Strömung. Bei der Charakterisierung des Strömungsverhaltens hilft die Reynoldszahl, die die Strömungsgeschwindigkeit in Relation zu der Abmessungen des angeströmten Körpers und zur Viskosität des Fluids setzt. Mathematisch wird das Verhalten der Geschwindigkeiten durch die Navier-Stokes-Gleichungen modelliert, die als Differenzialgleichungen die Geschwindigkeitsvektoren mit inneren und äußeren Kräften in Beziehung setzen. Damit haben sie für die Bewegung eines Fluids eine ähnliche Bedeutung wie die Grundgleichung der Mechanik für Massenpunkte und starre Körper. Geschwindigkeit von Wellen. a>, und die grünen Punkte mit Gruppengeschwindigkeit. Die komplexe Bewegung von Wellen macht es nötig, verschiedene Geschwindigkeitsbegriffe zu verwenden. (Insbesondere kann mit dem Wort Ausbreitungsgeschwindigkeit verschiedenes gemeint sein.) Phasen- und Gruppengeschwindigkeit stimmen nur in seltenen Fällen überein (z. B. Ausbreitung von Licht im Vakuum). In der Regel unterscheiden sie sich. Ein anschauliches extremes Beispiel ist die Fortbewegung von Schlangen: Fasst man die Schlange als eine Welle auf, so ist die Geschwindigkeit ihres Vorankommens eine Gruppengeschwindigkeit. Die Phasengeschwindigkeit ist beim Schlängeln jedoch Null, denn die Stellen, an denen sich der Körper der Schlange nach rechts oder links krümmt, sind durch den Untergrund vorgegeben und bewegen sich nicht über den Boden. In aller Regel ist die Phasengeschwindigkeit einer physikalischen Welle von der Frequenz bzw. der Kreiswellenzahl abhängig. Diesen Effekt bezeichnet man als Dispersion. Er ist unter anderem dafür verantwortlich, dass Licht verschiedener Wellenlänge von einem Prisma unterschiedlich stark gebrochen wird. Relativitätstheorie. Die Effekte, die sich aus der speziellen Relativitätstheorie ergeben, machen sich jedoch erst bei sehr hohen Geschwindigkeiten bemerkbar. Der Lorentz-Faktor, der für Zeitdilatation und Längenkontraktion maßgeblich ist, ergibt erst für Geschwindigkeiten von formula_35 eine Abweichung von mehr als einem Prozent. Folglich stellt die klassische Mechanik selbst für die schnellsten bisher gebauten Raumfahrzeuge eine äußerst präzise Näherung dar. Greg Egan. Greg Egan (* 20. August 1961 in Perth, Australien) ist ein australischer Fantasy- und Science-Fiction-Schriftsteller. Zu Beginn seiner Karriere schrieb er hauptsächlich Fantasy-Kurzgeschichten, wandte sich später jedoch mehr und mehr der Science-Fiction zu, wobei er einen Schwerpunkt auf Biologie legte. Er ist unter anderem Locus- und Kurd-Laßwitz-Preisträger. Leben. Greg Egan wurde am 20. August 1961 in Perth, Australien, geboren. Er studierte Mathematik an der University of Western Australia und erhielt hierin einen Bachelor of Science. Bis 1992 arbeitete er hauptberuflich als Programmierer. 1983 veröffentlichte er seinen ersten Roman "An Unusual Angle", der von ihm selbst als Jugendsünde betrachtet wird. Seit seinem schriftstellerischen Durchbruch 1991 mit "Quarantine" (dt. "Quarantäne") arbeitet er hauptberuflich als Autor. Werk. Viele von Egans Romanen und Kurzgeschichten behandeln komplexe wissenschaftliche Zusammenhänge einer nicht sehr weit entfernten Zukunft. Typische Themen sind virtuelle Welten, künstliche Intelligenz oder biotechnologische Veränderungen, insbesondere auch des Menschen. Egan zeigt hier ein für Schriftsteller überdurchschnittliches Fachwissen in vielen naturwissenschaftlichen Disziplinen. Ein wiederkehrendes Motiv seiner Romane ist die Übertragung des menschlichen Bewusstseins von einem biologischen Körper in einen Computer, wo dieses seine Existenz in einer virtuellen Realität zeitlich unbegrenzt fortsetzen kann, wobei die möglichen Folgen für das Individuum diskutiert werden. Egan gehört damit zu den Autoren, die sich stark mit dem Posthumanismus auseinandersetzen. Egans Werke wurden vielfach mit Preisen ausgezeichnet, unter anderem 1998 mit dem Hugo Award für seine Novelle "Oceanic" ("Ozeanisch") und 2000 mit dem Kurd-Laßwitz-Preis für den Roman "Distress" ("Qual"). Greg Egan ist insbesondere in Australien und Japan äußerst erfolgreich. Golden Goal. Das Golden Goal (Goldenes Tor) war eine Regel im Fußball, wonach ein Spiel, das in die Verlängerung geht, durch ein in der Verlängerung erzieltes Tor unmittelbar entschieden wird. Ursprung. Die ursprünglich aus dem Eishockey (Sudden Death) stammende Regel wurde von der FIFA zur U-20-Weltmeisterschaft 1993 in Brasilien in das WM-Regelwerk aufgenommen. Das erste Spiel, das nach diesem Modus entschieden wurde, ist allerdings weitaus älter als der Begriff. Im Endspiel um die deutsche Fußballmeisterschaft 1914 zwischen der SpVgg Fürth und dem VfB Leipzig galt die Regel, dass, wenn es nach der Verlängerung immer noch unentschieden steht, so lange weitergespielt wird, bis eine Mannschaft ein Tor erzielt. Das Spiel endete mit einem 3:2 für Fürth, nachdem Karl Franz in der 154. Minute das entscheidende Tor erzielte. Auch beim Coupe des Nations 1930 wurde das Spiel der ersten Runde zwischen dem FC Sète und der SpVgg Fürth in der 2. Verlängerung durch diese Regel entschieden. Auch für das deutsche Pokalfinale 1943 galt die „Golden-Goal-Regel“, um ein Wiederholungsspiel zu vermeiden. Nachdem es zwischen dem Luftwaffen-Sportverein Hamburg und dem First Vienna FC 1894 nach 90 Minuten 2:2 stand, ging es in die Verlängerung, in der Rudolf Noack das entscheidende Tor für die Wiener schoss. Das allererste Golden Goal wurde sogar schon früher erzielt, und zwar beim Finale des ersten Fußballturniers (Cromwell Cup in Sheffield von The Wednesday gegen Gerrick). 1994 experimentierte die FIFA bei der Fußball-Karibikmeisterschaft mit einer Regel, die Sudden-Victory-Verlängerungen auch bei Gruppenspielen vorsah, wobei Golden Goals doppelt gewertet wurden. Die angewandten Regeln in Verbindung mit einer unglücklichen Ausgangslage vor dem letzten Spiel in Gruppe 1 sorgten allerdings dafür, dass im Spiel Barbados gegen Grenada erst Barbados durch ein absichtlich herbeigeführtes Eigentor die Verlängerung erzwingen wollte und so in der Schlussphase Grenada dazu gezwungen wurde, sowohl auf das eigene als auch auf das gegnerische Tor zu spielen, um entweder zu gewinnen oder mit nur einem Tor Unterschied zu verlieren. Sowohl der Sieg als auch die Niederlage mit nur einem Tor Unterschied hätten das Weiterkommen bedeutet. Barbados, das zwischenzeitlich (durch den Ausgleich per Eigentor) beide Tore verteidigen musste, gelang es danach aber in der Verlängerung, durch das doppelt zählende Golden Goal den nötigen Sieg mit zwei Toren Vorsprung zu erringen und die nächste Runde zu erreichen. Kennzeichnung. Ergebnisse eines durch ein Golden Goal entschiedenen Spiels werden in der Regel mit dem Vermerk "n.GG." gekennzeichnet. In Klammer dahinter werden die Spielstände nach der regulären Spielzeit und zur Halbzeit angegeben. Der Spielstand nach der regulären Spielzeit ist zwar aus dem Endergebnis ("n.GG.") bzw. dem Ergebnis nach Verlängerung ("n.V.") ableitbar, wird aber zum besseren Verständnis dennoch mit angegeben. Durch "Golden Goal" entschiedene Spiele. Das erste Golden Goal, welches auch offiziell so bezeichnet wurde, wurde vom Australier Anthony Carbone im Viertelfinale der U-20-Weltmeisterschaft 1993 zum 2:1-Sieg gegen Uruguay erzielt. Das erste Golden Goal der Herren, also nicht Junioren, schoss der deutsche Stürmer Oliver Bierhoff am 30. Juni 1996 im Endspiel der Fußball-Europameisterschaft gegen Tschechien. Deutschland wurde damit zum dritten Mal Europameister. Bei der EM 2000 gewann Frankreich durch die einzigen beiden Golden Goals des Turniers das Halbfinale (gegen Portugal) sowie das Endspiel (gegen Italien). Bei Weltmeisterschaften fielen insgesamt vier Golden Goals: 1998 besiegte Frankreich im Achtelfinale Paraguay durch ein Tor von Laurent Blanc. 2002 konnten sich im Achtelfinale Senegal gegen Schweden und Südkorea gegen Italien durch ein Golden Goal durchsetzen; die Türkei besiegte Senegal im Viertelfinale durch das vorerst letzte Golden Goal der Herren-WM-Geschichte. Im UEFA-Super-Cup-Finale 2000 zwischen Galatasaray Istanbul und Real Madrid entschied Mário Jardel durch ein Golden Goal das Spiel und schoss damit Galatasaray zum ersten Super-Cup-Titel. Beim UEFA-Pokal-Finale 2001 zwischen dem FC Liverpool und Deportivo Alavés sorgte Delfí Geli in der 117. Minute durch ein Goldenes Eigentor zum 5:4 für die Entscheidung. Auch das Finale der Frauen-EM 2001 am 7. Juli in Ulm zwischen Deutschland und Schweden wurde durch ein Golden Goal entschieden, Claudia Müller traf in der 98. Minute zum 1:0. Im Endspiel der Frauen-Fußball-WM 2003 in den USA am 12. Oktober traf Nia Künzer in der 98. Minute ebenfalls gegen Schweden per Kopf zum 2:1. Dieses vorläufig letzte Golden Goal eines internationalen Wettbewerbs bescherte Deutschland den Weltmeister-Titel. Golden Goal in der Major League Soccer. Um Fußball für die amerikanischen Fans interessanter zu gestalten, wurde im Jahr 2000 in der MLS die Golden-Goal-Regel bei Ligaspielen eingeführt. In einer 10-minütigen Verlängerung sollte den Teams die Chance gegeben werden, doch noch den Sieg zu erringen. Dadurch sollten für die US-amerikanische Sportlandschaft untypische Unentschieden vermieden werden. Um sich allerdings an den internationalen Standards zu orientieren, wurde diese Regel nach 2003 wieder abgeschafft. Abschaffung. Da die Spiele durch die Golden-Goal-Regel unattraktiv wurden, weil beide Mannschaften größeren Wert darauf legten, kein Tor zu kassieren, als eines zu erzielen, wurde sie in der Saison 2002 von der UEFA für innereuropäische Wettbewerbe in eine sogenannte Silver-Goal-Regel geändert: Steht ein Spiel in einer K.-o.-Runde nach 90 Minuten immer noch unentschieden, gibt es zunächst eine 15-minütige Verlängerung. Die Mannschaft, die am Ende dieser Zusatzzeit führt, ist Sieger. Bei Gleichstand wird noch eine zweite Verlängerung von 15 Minuten gespielt. Steht danach immer noch kein Sieger fest, folgt ein Elfmeterschießen. In außereuropäischen Wettbewerben galt weiterhin die Golden-Goal-Regel. Am 28. Februar 2004 beschloss die Regelkommission IFAB, das Golden Goal und damit auch das Silver Goal zum 1. Juli 2004 wieder abzuschaffen. Da die im gleichen Jahr stattfindende Fußball-Europameisterschaft 2004 in Portugal zwar im Juli endete, aber bereits im Juni begann, wurde hier noch die Silver-Goal-Regel angewandt. Der Grieche Traianos Dellas erzielte das einzige Silver Goal des Turniers im Halbfinale gegen Tschechien. Seither folgt auf ein nach der regulären Spielzeit unentschiedenes K.-o.-Spiel wieder die traditionelle Verlängerung von zweimal 15 Minuten. Sollte das Spiel nach 120 Minuten immer noch nicht entschieden sein, folgt ein Elfmeterschießen. Geschichte Berlins. Die Geschichte Berlins beginnt nicht erst mit der ersten urkundlichen Erwähnung, sondern bereits mit der Vor- und Frühgeschichte des Berliner Raumes. Zeugnisse dieser frühen Phase der Besiedlung sind vor allem im Museum für Vor- und Frühgeschichte sowie als lebensechte Nachbildung im Museumsdorf Düppel zu sehen. Ausklang der Weichseleiszeit. Funde von Feuersteinen und bearbeiteten Knochen lassen auf eine Besiedlung des Berliner Raums seit etwa 60.000 v. Chr. schließen. Zu dieser Zeit waren weite Teile Nord- und Ostdeutschlands von den Vergletscherungen der letzten Eiszeit bedeckt, die ungefähr von 110.000 bis 8.000 v. Chr. dauerte. Im Baruther Urstromtal, rund 75 Kilometer südlich Berlins, erreichte das Inlandeis vor rund 20.000 Jahren seine maximale südliche Ausdehnung. Seit rund 19.000 Jahren ist der Berliner Raum, dessen Niederung zum Jungmoränenland der Weichsel-Kaltzeit zählt, wieder eisfrei. Vor rund 18.000 Jahren bildeten die abfließenden Schmelzwasser das Berliner Urstromtal als Teil der "Frankfurter Staffel" aus, das wie alle Urstromtäler im Untergrund aus mächtigen Schmelzwassersanden besteht. Die Spree nutzte das Urstromtal für ihren Lauf, im unteren Spreetal bildete sich stellenweise eine Tundra heraus. Westlich dominierten feuchte Niederungen und Moorgebiete das Erscheinungsbild des Tals. Die Plateaus Barnim und Teltow bildeten sich parallel zum späteren Lauf der Spree. Mit dem Rückgang des Eises wurde Standwild wie Rehe, Hirsche, Elche und Wildschweine sesshaft und verdrängte die Rentiere. In der Folge begannen die Menschen, die von der Jagd lebten, feste Siedlungen zu errichten. Im 9. Jahrtausend v. Chr. siedelten an der Spree, Dahme und Bäke Jäger und Fischer, die Pfeilspitzen, Schaber und Feuersteinbeile hinterließen. Aus dem 7. Jahrtausend v. Chr. stammt eine Maske, die wahrscheinlich als Jagdzauber diente. Jungsteinzeit, Bronze- und Eisenzeit. Im 4. Jahrtausend v. Chr. bildeten sich Kulturen mit Ackerbau und Viehzucht, die handgefertigte Keramiken und Vorratsspeicher benutzten. Drei Bestattungen auf dem Gebiet von Schmöckwitz aus dieser Zeit bilden die ältesten Menschenfunde auf Berliner Boden. Ein Dorf der Trichterbecherkultur konnte 1932 bis 1934 auf dem Gebiet der Britzer Hufeisensiedlung ausgegraben werden. Die meisten jungsteinzeitlichen Funde stammen von der Kugelamphorenkultur um 2000 v. Chr. Rund 200 bronzezeitliche Fundstellen bezeugen eine immer dichter werdende Besiedlung an der Havel und Spree. Schätzungsweise 1000 Menschen sollen sich zu dieser Zeit auf etwa 50 Siedlungen verteilt haben, die überwiegend der Lausitzer Kultur und der Nordischen Bronzezeit zugerechnet werden. Ein 1955 in Lichterfelde entdecktes bronzezeitliches Dorf bestand aus sieben oder acht rechteckigen Häusern, die sich um einen Dorfplatz herum gruppierten. Die Pfostenhäuser waren mit lehmverkleideten Wänden sowie schilf- oder strohgedeckten Dächern ausgestattet. Ein weiteres Dorf mit fast 100 Bauten konnte beim Bau des Klinikums in Berlin-Buch freigelegt werden. Mit Beginn der Eisenzeit um 600 v. Chr. wurde die Lausitzer von der Jastorf-Kultur abgelöst. Seit ungefähr 500 v. Chr. drangen die nachfolgenden Germanen ins Berliner Gebiet vor und siedelten sich auf den waldreichen Höhen des Barnim und des Teltow an. Germanische Siedlungen wurden vor allem in Rudow, Lübars, Marzahn und Kaulsdorf ausgegraben. In der Zeit nach Christi Geburt tauchten die elbgermanischen Semnonen, ein Volksstamm der Sweben, auf. Ein Teil der semnonischen Bevölkerung wanderte 200 n. Chr. nach Südwesten ab. Ihnen folgten ostgermanische Burgunden. Im 4. und 5. Jahrhundert n. Chr. verließen große Teile der germanischen Stämme das Gebiet um Havel und Spree und wanderten Richtung Oberrhein nach Schwaben. Im Berliner Raum nahm daher die Besiedlungsdichte ab, er blieb aber von germanischen Restgruppen besiedelt. Slawen und Gründung der Mark Brandenburg. Ab dem 6. Jahrhundert strömten Slawenstämme in die Lausitzer Gegend und Ende des 7. Jahrhunderts auch in das weitgehend entvölkerte Spree-Havel-Gebiet. Sie übernahmen alte germanische Standorte und ließen sich ferner in bisher unbesiedelten Landstrichen nieder. Besonders viele slawische Spuren finden sich an den Randgebieten außerhalb des späteren Berliner Stadtkerns. Auf dem Gebiet von Berlin siedelten die Stämme der Heveller (Havelslawen) und der Sprewanen, die zum Stammesverband der Lutizen gehörten. Die Heveller bevölkerten das Havelland hinauf bis zum Rhinluch und zum Tegeler See und hatten ihren Hauptsitz auf der Brennaburg auf der heutigen Dominsel der Stadt Brandenburg. Zur Sicherung ihres Gebietes nach Osten errichteten die Heveller um 750 etwas südlich der Spreemündung (Burgwallinsel) in die Havel einen weiteren slawischen Burgwall, um die sich herum dank günstiger Verkehrslage eine Kaufmannssiedlung entwickelte. Weiter im Osten und durch einen breiten Waldgürtel getrennt befand sich das Siedlungsgebiet der Sprewanen, deren Zentrum die Köpenicker Schlossinsel am Zusammenfluss von Spree und Dahme bildete. Hier bestand im 9. Jahrhundert ebenfalls ein slawischer Burgwall. Spandau und Köpenick waren durch eine wichtige Handelsstraße verbunden, die südlich der Spree verlief, um 1170 aber auf das Nordufer verlegt wurde. Die Sprewanen gründeten weitere Siedlungen auf den Gebieten von Mahlsdorf, Kaulsdorf, Pankow und Treptow. Der durch zahlreiche Münzfunde bezeugte Sprewanenfürst Jaxa von Köpenick, der auf der Köpenicker Burg vermutlich seinen Hauptsitz hatte, wurde 1157 vom Askanier Albrecht den Bären (1134–1170) bei der Eroberung der Brennaburg entscheidend geschlagen und vertrieben. Albrecht, der bereits 1134 von Lothar III. mit der Nordmark belehnt wurde, gründete daraufhin die Mark Brandenburg und ernannte sich zu ihrem ersten Markgrafen. Der während des 12. Jahrhunderts aufgegebene Spandauer Burgwall wurde als Frühstadt von den Askaniern weiter nördlich auf das Gebiet der heutigen Zitadelle Spandau verlegt, und es entwickelte sich ein neuer Stadtkern gegenüber der Spreemündung. Die Gründung der ersten Dörfer im Bereich des heutigen Berlin fiel in den anschließenden Landesausbau der askanischen Markgrafen im Teltow, der durch eine geschickte Siedlungspolitik und eine kluge Einbeziehung der international agierenden geistlichen Orden der Zisterzienser (Kloster Lehnin) und der Tempelritter (Komturhof Tempelhof) gekennzeichnet war. Entstehung der Doppelstadt Berlin-Cölln. Ältestes Siegel von Berlin, 1253 Ältestes Siegel von Cölln, 1334 Ende des 12. Jahrhunderts legten Fernkaufleute, die, wahrscheinlich aus dem niederrheinisch-westfälischen Raum kommend, durch das Gebiet reisten, an der Spreeniederung mit der Cöllner Spreeinsel eine erste Siedlung an. An der Stelle zwischen den Hochflächen des Teltow und des Barnim verengte sich das sumpfige Urstromtal auf vier bis fünf Kilometer. Trockene Flächen auf beiden Seiten einer Furt über die Spree eigneten sich als günstige Siedlungsplätze. Auf der rechten, nördlichen Uferseite entstand Alt-Berlin, auf der Spreeinsel direkt gegenüber Cölln. Neuere Grabungen haben gezeigt, dass erste Siedlungsaktivitäten für Berlin/Cölln wohl schon im letzten Viertel des 12. Jahrhunderts begannen. Archäologische Untersuchungen 1997–1999 stießen in der Breiten Straße 28 (Alt-Cölln) auf einen um 1200 wiederverwendeten Balken, der mit Hilfe der Baumringanalyse auf „um/nach 1171“ datiert werden konnte. Im Jahre 2007 wurde bei Ausgrabungen auf dem Cöllner Petrikirchplatz in einem Erdkeller ein Eichenbalken gefunden, dessen Analyse ergab, dass der Baum um das Jahr 1212 gefällt worden war. 1997 und 2008 wurden im Bereich des Schlossplatzes unter den Fundamenten des 1747 abgerissenen Dominikanerklosters Siedlungsreste gefunden. Das jüngste Datum hat ein Holzrest von 1198 (Waldkante); der gesamte Befund trägt Brandspuren. Dieser Siedlungsteil ist also offenbar nach 1198 nach einer Brandzerstörung aufgegeben worden, denn er wurde spätestens zu Beginn der zweiten Hälfte des 13. Jahrhunderts von der ersten Cöllner Stadtmauer überbaut. Die seit der Wende 1990 ermittelten Dendrodaten können aber nur unterschiedlich wissenschaftlich verwendet werden. Das älteste „belastbare“ Dendrodatum für Berlin/Cölln ist 1198 (Waldkante). Nach wie vor ist ungeklärt, wer älter ist: Berlin oder Cölln, und wer der jeweilige Gründer war: eine Genossenschaft von Fernkaufleuten (die Berliner Nikolaikirche hat das Patrozinium der Fernkaufleute) oder der Markgraf (Cölln hat den brandenburgischen Adler im Wappen). Ungeklärt ist auch die Frage, ob Cölln als Vorgänger eine Niederlassung der Erzbischöfe von Magdeburg hatte (Rolf Barthels "Magdeburg-Hypothese"). Berlin und Cölln entstanden als Gründungsstädte. Im Gegensatz zu den slawischen Gründungen Spandau und Köpenick (1197 bzw. 1209/10 erstmals urkundlich erwähnt) am westlichen und östlichen Ausgang des Spreetales, die eher eine strategische Bedeutung hatten, waren Berlin und Cölln von Anfang an als Handelsplätze geplant, um die Handelsvorteile (Zoll, Niederlage) von Spandau und Köpenick abzuziehen. Die Urkunden mit den frühesten Erwähnungen Cöllns vom 28. Oktober 1237 und Berlins vom 26. Januar 1244 befinden sich im Domstiftsarchiv in Brandenburg an der Havel. Zu beachten ist dabei, dass der Brandenburger Vertrag vom 28. Oktober 1237, der u. a. einen "Symeon plebanus de Colonia" („Symeon, Pfarrer von Cölln“) bezeugt, nur in einer zu Merseburg am 28. Februar 1238 ausgestellten Urkunde überliefert ist. 1244 erscheint derselbe Symeon in einer anderen Urkunde dann als Propst von Berlin, d. h. zu dieser Zeit war Berlin bereits Mittelpunkt eines Archidiakonats. Als Stadt "(civitas)" wird Berlin erstmals 1251 urkundlich erwähnt, Cölln erst zehn Jahre später. Die Entwicklung und die gezielte Privilegierung des Ausbaus der Doppelstadt durch die beiden Markgrafen seit den 1230er Jahren hing eng mit der Aufsiedlung der Hochflächen Teltow und Barnim zusammen, ausführlich geschildert in der Märkischen Fürstenchronik. Die askanischen Siedlungen auf dem nordwestlichen Teltow waren durch die sperrriegelartig gegründeten Templerdörfer um den Komturhof Tempelhof strategisch gegen die Wettinische Herrschaft auf dem Teltow mit Mittenwalde und Köpenick sowie dem sehr wahrscheinlich geplanten wettinischen Aufbau einer Herrschaft um Hönow (u. a. mit Hellersdorf) gesichert. Die Grenze zwischen der askanischen Mark und den wettinischen Besitzungen verlief zu dieser Zeit in Nord-Süd-Richtung mitten durch das heutige Berliner Stadtgebiet. Die Behauptung eines dazwischen liegenden Streifens der Erzbischöfe von Magdeburg wird überwiegend bestritten. Die Spannungen mit den Wettinern entschieden sich im Teltow-Krieg zwischen 1239 und 1245 zugunsten der Askanier, der ihnen endgültig den gesamten Teltow und Barnim (abgesehen von Rüdersdorf) und damit das gesamte heutige Stadtgebiet einbrachte. Einen großen Teil seines Aufstiegs von einem kleinen Brückenort zu einem bedeutenden Spreeübergang verdankt Berlin-Cölln den Askaniern, die den alten Fernhandelsweg von Magdeburg nach Posen, der auch über Spandau und Köpenick führte, durch die Stadt leiteten. Wirtschaftlich konnte sie sich insbesondere durch das von den gemeinsam regierenden Markgrafen Otto III. und Johann I. ausgestellte Niederlags- oder Stapelrecht gegenüber den Städten Spandau und Köpenick durchsetzen. Dieses verpflichtete durchreisende Kaufleute ihre Waren einige Tage in der Stadt anzubieten. Hinzu kamen Zollfreiheiten, die den Zwischenhandel und die Ausfuhr landwirtschaftlicher Erzeugnisse begünstigten. Die Handelsverbindungen reichten von Osteuropa bis Hamburg, Flandern und England sowie zur Ostseeküste und nach Süddeutschland "(Via Imperii)". Die Stadt erstreckte sich zu dieser Zeit auf einer Fläche von 70 Hektar und umfasste die Handelsniederlassung am Molkenmarkt und rund um die Nikolaikirche sowie die Gegend des Neuen Marktes und der Marienkirche. Die wichtigste Verbindung zwischen Berlin und Cölln war der Mühlendamm, der die Spree anstaute und auf dem sich mehrere Mühlen befanden. Obwohl Berlin und Cölln viele gemeinsame Einrichtungen besaßen, wurden beide Städte von getrennten Verwaltungen geführt. In den aus zwölf bzw. sechs Mitgliedern bestehenden Räten saßen Großkaufleute und Fernhändler, die das Patriziat der Stadt bildeten. An der Spitze beider Verwaltungen stand der Schultheiß, der in Berlin und Cölln als Vertreter des Markgrafen amtierte. Als erster bekannter Schulze wird Marsilius de Berlin 1247 erwähnt, nachdem spätestens 1240 das Stadtrecht verliehen wurde; der neueste Forschungsstand (Fritze 2000) geht von einem Zusammenhang mit dem Zehntvertrag von 1237 aus, ebenso die Aufwertung der Nikolaikirche zur Propsteikirche und die Anlage des Marienviertels. Die mittlere Schicht bildeten Kaufleute, Handwerksmeister und Ackerbürger, die sich in Zünften organisierten. Als ältestes Dokument des Zunftwesens gilt die Bestätigung einer Bäckergilde aus dem Jahr 1272. Von 1284 ist ein erster Innungsbrief für die Schuster überliefert, die Tuchmacher erhielten 1289 verschiedene Rechte und die Fleischerinnung wurde 1311 gegründet. Diese vier Stände waren am angesehensten und bildeten das Viergewerk. An religiösen Einrichtungen existierten zu der Zeit eine Propstei, mit der Marienkirche, der Nikolaikirche und der Petrikirche (Cölln) drei Pfarrkirchen, das Graue Kloster des Franziskaner Ordens und das Dominikanerkloster in Cölln sowie die zugehörigen Klosterkirchen. Um das Heilig-Geist-Spital entstand ein eigenes Stadtviertel, das Georgenhospital befand sich im Osten von Berlin vor dem Oderberger Tor bzw. Georgentor. Das 1406 gegründete Gertraudenhospital lag südöstlich von Cölln. In der Klosterstraße befand sich das Hohe Haus, in dem zeitweise die Kurfürsten residierten. Im Jahr 1307 schlossen sich Berlin und Cölln zu einer Union zusammen, um eine gemeinsame Bündnis- und Verteidigungspolitik zu verfolgen. Für den gemeinsamen Rat wurde ein drittes Rathaus auf der Langen Brücke errichtet. Mark Brandenburg unter den Wittelsbachern bis zum Neubau des Kurfürstenschlosses. Nach dem Aussterben der märkischen Askanier 1320 übertrug der Wittelsbacher Kaiser Ludwig IV., ein Onkel des letzten Askaniers Heinrichs II., 1323 die Mark Brandenburg seinem ältesten Sohn Ludwig dem Brandenburger. Von Anfang an war die wittelsbachische Regierung über Brandenburg von starken Spannungen geprägt. 1325 erschlugen und verbrannten die Berliner und Cöllner Bürger Propst Nikolaus von Bernau, der als Parteigänger des Papstes Johannes XXII. aus Frankreich gegen den Kaiser auftrat, daraufhin verhängte der Papst über Berlin das Interdikt. Im 14. Jahrhundert waren Berlin und Cölln Mitglied in der Hanse. Im Jahr 1378 gab es einen Großbrand in Cölln und im 1380 auch einen in Berlin. Dabei wurden unter anderem das Rathaus und fast alle Kirchen zerstört, wie auch der überwiegende Teil der Stadturkunden und Dokumente der Städte. Stadtansicht Berlins von Südwesten von Johann Bernhard Schultz, 1688 Berlin um 1688 (Zeichnung von 1835) Friedrich I. wurde im Jahr 1415 Kurfürst der Mark Brandenburg und blieb dies bis 1440. Mitglieder der Familie Hohenzollern regierten bis 1918 in Berlin, erst als Markgrafen und Kurfürsten von Brandenburg, dann als Könige in und von Preußen und schließlich als Deutsche Kaiser. Die Einwohner Berlins haben diese Veränderung nicht immer begrüßt. 1448 revoltierten sie im „Berliner Unwillen“ gegen den Schlossneubau des Kurfürsten Friedrich II. Eisenzahn. Dieser Protest war jedoch nicht von Erfolg gekrönt und die Bevölkerung büßte viele ihrer politischen und ökonomischen Freiheiten ein. Erste Herrscher ziehen nach Berlin und bestimmen die Geschicke der Einwohner. Berlin-Cölln wurde nach 1448 zunehmend als Residenzstadt der brandenburgischen Markgrafen und Kurfürsten betrachtet. 1451 bezog Friedrich II. seine neue Residenz in Cölln. Als Berlin-Cölln Wohnsitz der Hohenzollern wurde, musste es seinen Status als Hansestadt aufgeben. Die ökonomischen Aktivitäten verlagerten sich vom Handel auf die Produktion von Luxuswaren für den Hofadel. Die Bevölkerungszahl stieg im 16. Jahrhundert auf über zehntausend an. Im Jahr 1510 wurden 100 Juden beschuldigt, Hostien gestohlen und entweiht zu haben. 38 von ihnen wurden verbrannt, zwei wurden – nachdem sie zum Christentum konvertiert waren – geköpft, alle anderen Berliner Juden wurden ausgewiesen. Nachdem ihre Unschuld nach 30 Jahren nachgewiesen werden konnte, durften Juden – nach Zahlung einer Gebühr – wieder nach Berlin siedeln, wurden jedoch 1573 erneut, diesmal für hundert Jahre, vertrieben. Westlich von Berlin wurde 1527 der Tiergarten als Jagdrevier für die Kurfürsten angelegt und 1573 als Verbindung zum Schloss ein Reitweg gebaut, aus dem später die Straße Unter den Linden wurde. Dadurch begann die Ausrichtung der Stadtentwicklung Richtung Westen. Joachim II., Kurfürst von Brandenburg und Herzog von Preußen, führte 1539 die Reformation in Brandenburg ein und beschlagnahmte im Rahmen der Säkularisierung Besitzungen der Kirche. Das so erworbene Geld benutzte er für seine Großprojekte wie den Bau der Zitadelle Spandau und des Kurfürstendamms als Verbindungsstraße zwischen seinem Jagdschloss im Grunewald und seiner Residenz im Berliner Stadtschloss. 1539 ging die erste Druckerei in Berlin in Betrieb. 1567 entwickelte sich aus einem geplanten Schauspiel der dreitägige „Knüppelkrieg“ zwischen Berlin und Spandau, bei dem sich die Spandauer nicht mit der Niederlage im Schauspiel abfinden wollten und letztendlich die Berliner verprügelten. Die Uhrmacherinnung wurde 1552 gegründet. Kurfürst Johann Sigismund trat 1613 vom lutherischen zum reformierten Bekenntnis über. Vom Dreißigjährigen Krieg bis zu den Napoleonischen Kriegen 1618–1806. In der ersten Hälfte des 17. Jahrhunderts hatte der Dreißigjährige Krieg für Berlin schlimme Folgen: Ein Drittel der Häuser wurde beschädigt, die Bevölkerung halbierte sich. Friedrich Wilhelm, bekannt als der "Große Kurfürst", übernahm 1640 die Regierungsgeschäfte von seinem Vater. Er startete eine Politik der Immigration und der religiösen Toleranz. Die Verbindung von Oder und Spree durch den Friedrich-Wilhelm-Kanal ab 1668 brachte für Berlin wirtschaftliche Vorteile wegen geringerer Frachtkosten. (Siehe auch: Wirtschaftsgeschichte Brandenburg-Preußens) In der Folge des Dreißigjährigen Krieges begann 1658 unter der Leitung von Johann Gregor Memhardt der Bau einer Festungsanlage um die Stadt, die etwa 1683 fertiggestellt war. Die 1662 neu gegründete Stadt Friedrichswerder sowie die Vorstadt Neukölln am Wasser lagen innerhalb dieser Fortifikation. Der alte Reitweg zum Tiergarten wurde ab 1647 zur Allee ausgebaut und mit Linden bepflanzt. Nördlich davon wurde ab 1674 die zweite Stadterweiterung Dorotheenstadt angelegt. Die dritte Neustadt war die Friedrichstadt, die ab 1691 entstand. Vor den Toren der Festung befanden sich im Norden die Spandauer Vorstadt, im Osten die Stralauer Vorstadt und dazwischen die Georgenvorstadt, im Süden lag die Köpenicker Vorstadt und südwestlich die Leipziger Vorstadt. Im Jahr 1671 wurde 50 aus Österreich vertriebenen jüdischen Familien ein Zuhause gegeben. Mit dem Edikt von Potsdam 1685 lud Friedrich Wilhelm die französischen Hugenotten nach Brandenburg ein. Über 15.000 Franzosen kamen, von denen sich 6.000 in Berlin niederließen. Um 1700 waren 20 Prozent der Berliner Einwohner Franzosen, und ihr kultureller Einfluss war groß. Viele Einwanderer kamen außerdem aus Böhmen, Polen und Salzburg. Friedrich Wilhelm baute außerdem eine Berufsarmee auf. Zur Annäherung der beiden protestantischen Konfessionen in Brandenburg fand 1662–1663 das Berliner Religionsgespräch statt. Der erste Kirchenneubau für die Anhänger der reformierten Kirche war die 1695 erbaute Parochialkirche. Die Berliner Hugenottengemeinde ließ die Französische Friedrichstadtkirche errichten (1705 eingeweiht). Die angestrebte Standeserhöhung zum preußischen König erreichte Kurfürst Friedrich III. 1701, Berlin wurde zur Hauptstadt des Königreich Preußen. Am 17. Januar 1709 wurde das Edikt zur Bildung der "Königlichen Residenz Berlin" durch Zusammenlegung der Städte Berlin, Cölln, Friedrichswerder, Dorotheenstadt und Friedrichstadt erlassen. Nach einigen dazu nötigen Verwaltungsänderungen erfolgte die Vereinigung zum 1. Januar 1710. Die Einwohner der Berliner und Cöllner Vorstädte erhielten 1701 die Bürgerrechte und waren damit den Stadtbewohnern gleichgestellt. Plan Berlins von Abraham Guibert Dusableau, 1737 (Süden oben) Plan von Berlin nebst denen umliegenden Gegenden im Jahr 1798 von J. F. Schneider Das ab 1696 für die Kurfürstin Sophie Charlotte westlich von Berlin gebaute Schloss Lützenburg wurde nach deren Tod 1705 in Schloss Charlottenburg umbenannt, die benachbarte Siedlung erhielt den Namen Charlottenburg und das Stadtrecht. Mit dem Baubeginn des Zeughaus 1695 begann der repräsentative Ausbau der späteren Straße Unter den Linden. Andreas Schlüter gestaltete das Berliner Schloss um. Nicht die alte Berliner Hauptstraße, die Königsstraße, sondern Unter den Linden wurde zur "via triumphalis" Preußens, die Stadtentwicklung verlagerte von nun an den Schwerpunkt hin zu den Neustädten im Westen. Um die Residenzstadt zum Mittelpunkt der Künste und der Wissenschaften zu machen, gründete Kurfürst Friedrich III. 1696 die Academie der Mahler-, Bildhauer- und Architectur-Kunst, sowie 1700 die Kurfürstlich-Brandenburgische Societät der Wissenschaften, ihr erster Präsident wurde Gottfried Wilhelm Leibniz. Beide Einrichtungen bezogen das obere Stockwerk des königlichen Stalles (Marstall zwischen Unter den Linden und Dorotheenstraße, heute Grundstück der Staatsbibliothek). Dort wurde 1711 die Berliner Sternwarte eingeweiht. Als oberste Gesundheitsbehörde wurde 1685 das Collegium medicum eingerichtet. Außerhalb der Stadtmauer entstand 1710 ein „Lazareth“ für Pestkranke, das 1727 zum Bürgerhospital unter dem Namen Charité umgewandelt wurde. Bereits 1661 war die Churfürstliche Bibliothek angelegt worden. Die erste Zeitung Berlins erschien 1617 und hatte unter wechselndem Namen bis Mitte des 18. Jahrhunderts ein Monopol, seit 1751 wurde diese inoffiziell "Vossische Zeitung" genannt. Das „Große Friedrichshospital“ wurde 1702 in der Stralauer Vorstadt gegründet. Friedrichs Sohn, Friedrich Wilhelm I., König in Preußen, ab 1713 an der Macht, war ein sparsamer Mann, der das Stehende Heer vergrößerte und Preußen zu einer bedeutenden Militärmacht aufbaute. 1709 hatte Berlin 55.000 Einwohner, von denen 5.000 in der Armee dienten, 1755 waren es bereits 100.000 Einwohner bei 26.000 Soldaten. Außerdem ließ Friedrich Wilhelm die Akzisemauer um die Stadt errichten, eine hölzerne Mauer mit 14 Toren, an denen die Verbrauchssteuern auf eingeführte Waren sowie Schutzzölle erhoben wurden. Weiterhin hatte die Mauer Kontrollfunktionen und sollte die Flucht von Soldaten verhindern. Neue Exerzierplätze und militärische Gebäude entstanden in Berlin und Umgebung. In der Breiten Straße fanden oft Bestrafungen durch Spießrutenlaufen statt. Nordwestlich von Berlin ließ Friedrich Wilhelm I. von 1717 bis 1719 die Königliche Pulverfabrik errichten und siedelte französische Einwanderer an, Moabit entstand. Der Unternehmer und hohe Beamte Johann Andreas Kraut beteiligte sich an der Gründung des Königlichen Lagerhauses, Berlins größter Manufaktur. Ein bedeutendes Großunternehmen war das Bank- und Handelshaus Splitgerber & Daum. Die erste Börsensitzung der bereits 1685 gegründeten Börse fand 1739 im Neues Lusthaus im Lustgarten statt. Eine der ersten Versicherungen in Deutschland wurde 1718 mit der Feuersozietät gegründet. Das seit 1468 bestehende Kammergericht bezog 1735 den Neubau des Kollegienhauses in der Lindenstraße, dem ersten großen Verwaltungsgebäude während der Regierungszeit Friedrich Wilhelm I. Unter dem Oberbaudirektor Philipp Gerlach wurden in 1730er Jahren die Torplätze Quarree, Octogon und Rondell angelegt. Der Gendarmenmarkt entstand 1688 nach Plänen von Johann Arnold Nering. Die Neustädte waren durch ein geordnetes Straßenraster geprägt mit geraden Straßen, die weite Perspektiven boten. Die Bürger der königlichen Stadterweiterungen waren verpflichtet in ihren Häusern Soldaten mit deren Familien einzuquartieren. Französische Einwanderer siedelten ab etwa 1716 am südlichen Rand des Tiergartens, dem späteren Tiergartenviertel. Im Jahr 1740 kam Friedrich II., bekannt als "Friedrich der Große", an die Macht. Friedrich II. wurde auch der "Philosoph auf dem Thron" genannt, da er unter anderem mit Voltaire korrespondierte. Unter ihm wurde die Stadt zum Zentrum der Aufklärung. Der bekannteste Berliner Philosoph der Zeit war Moses Mendelssohn. Mittelpunkte der Berliner Aufklärung waren der literarische Freundeskreis um den Verleger und Literaten Friedrich Nicolai in dessen Haus in der Brüderstraße und der Montagsklub. Die Berliner Mittwochsgesellschaft gab die Zeitschrift "Berlinische Monatsschrift" heraus. Mehrere Vereinigungen der Freimaurer entstanden, und Vereine, wie die Gesellschaft der Freunde oder die Gesellschaft Naturforschender Freunde wurden gegründet. Der Bau des Forum Fridericianum begann 1741 mit der Grundsteinlegung für das Opernhaus unter Knobelsdorff. Nach Plänen von Georg Christian Unger entstand die Königliche Bibliothek. Die Königliche Porzellan-Manufaktur wurde 1763 gegründet. Zuckersiedereien entstanden. Johann Georg Wegely gründete 1723 eine Wollzeugmanufaktur auf der Speicherinsel, heute ein Teil der Fischerinsel. Der Bankier und Händler Veitel Heine Ephraim ließ das als Ephraim-Palais bekannt gewordene Haus errichten. (Siehe auch: "Merkantilismus") Zur Versorgung der Kriegsopfer wurde das Invalidenhaus 1748 eröffnet. Während der Regierungszeit Friedrich II. entstanden neue Kasernen, in denen Militärangehörige mit ihren Familien einquartiert wurden. Für den Warenhandel bedeutsame Gebäude wurden an der Spree errichtet, wie der Alte und Neue Packhof oder der Aktienspeicher und das Mehlhaus. Güter und Baustoffe wurden vor allem mit den Kaffenkähnen transportiert. Die inzwischen militärisch veraltete Festungsanlage wurde ab 1734 abgerissen. Der damit beauftragte Stadtkommandant Graf von Hacke ließ 1750 beim Abbruch des Spandauer Tors einen Platz anlegen, der bald zum Hackeschen Markt wurde. Die Spandauer Vorstadt erhielt 1712 eine eigene Kirche in der Sophienstraße. Während des Siebenjährigen Krieges wurde die preußische Hauptstadt zweimal kurzzeitig von Feinden Preußens besetzt: 1757 von den Österreichern und 1760 von den Russen. Unter der Regierung seines Nachfolgers Friedrich Wilhelm II. folgte die Stagnation. Friedrich Wilhelm II. war ein Gegner der Aufklärung, praktizierte Zensur und setzte auf Repressalien. Unter ihm wurde die Stadtmauer in Stein neu errichtet. Ende des 18. Jahrhunderts gab er ein neues Brandenburger Tor in Auftrag – das bekannte heutige Wahrzeichen der Stadt. Die vorherige Wirtschaftsförderung wurde beendet. Das führte zu Krisen in der vor allem hier verbreiteten Textilindustrie und zur Verarmung großer Teile der Berliner Bevölkerung. Dagegen entstanden zahlreiche prächtige Hofpaläste. Die bisher bevorzugte barocke Formgebung wurde durch den Klassizismus abgelöst. Trotz aller Probleme entwickelten sich Wissenschaften und Kultur in Berlin, deren deutlichster Ausdruck die zahlreichen literarischen Salons waren, beispielsweise die Salons von Henriette Herz oder Rahel Varnhagen. Auch Oper, Theater, Kunst und wissenschaftliche Einrichtungen nahmen einen deutlichen Aufschwung. Bedeutende Künstler, wie der Grafiker und Illustrator Daniel Chodowiecki oder die Bildhauer Johann Gottfried Schadow und Christian Daniel Rauch wirkten in Berlin. Als erste befestigte Chaussee Preußens wurde zwischen 1790 und 1792 die Potsdamer Straße und in deren Fortsetzung die Berlin-Potsdamer Chaussee unter Leitung von Carl Gotthard Langhans ausgebaut. Nach dessen Plänen wurde 1789 bis 1791 das Brandenburger Tor gebaut, das aufgrund seiner Lage zwischen Tiergarten und Unter den Linden ein bedeutendes Stadttor war. Vor diesem befand sich seit 1730 ein Exerzierplatz aus dem später der Königsplatz hervorging. Das Schloss Bellevue wurde 1786 fertiggestellt. An der Potsdamer Straße entstand ab 1809 der Botanische Garten, der Ende des 19. Jahrhunderts nach Dahlem verlegt wurde. Napoleon in Berlin. Im Ergebnis der Französischen Revolution und der folgenden kriegerischen Auseinandersetzungen beteiligte sich auch Preußens Armee am Kampf gegen Frankreich, wurde jedoch in der Doppelschlacht bei Jena und Auerstedt 1806 besiegt und der König verließ Berlin Richtung Königsberg. Behörden und wohlhabende Familien zogen aus Berlin fort, aber aus dem Umland kamen Flüchtlinge in die Stadt. Das entstehende Chaos versuchte der Gouverneur von Berlin, Graf von der Schulenburg, durch einen öffentlichen Aufruf zu entschärfen: „Der König hat eine Bataille verloren. Jetzt ist Ruhe die erste Bürgerpflicht. Ich fordere die Einwohner Berlins dazu auf. Der König und seine Brüder leben.“ Bald zog Napoleons Armee durch das besiegte Preußen und erreichte im Oktober 1806 auch Berlin, wo am 27. Oktober 1806 ein feierlicher Einzug durch das Brandenburger Tor inszeniert wurde. Im Anschluss besetzten seine Truppen die Stadt für zwei Jahre. Die bestehende Verwaltung wurde in dieser Zeit nach französischem Vorbild umstrukturiert, staatliches Eigentum und persönlicher Besitz der Adligen wurden eingezogen, Kunstschätze wie die Quadriga vom Brandenburger Tor wurden nach Paris verbracht. Die französischen Soldaten (in einer Stärke von bis zu 30.000 Mann) mussten verpflegt und privat einquartiert werden und Berlin hatte insgesamt 2,7 Millionen Taler für den Unterhalt der Besatzungstruppen zu zahlen. Alle Maßnahmen führten zu einem Ausbluten der Berliner Wirtschaft, Produktion und Handel gingen zurück und die Lage der Bevölkerung verschlechterte sich enorm. Die daraus entstandene Opposition gegen die Besatzung führte schließlich zum Abzug der französischen Truppen im Dezember 1808 aus Berlin. Innere Reformen und neue Berliner Verwaltung. Als Reaktion auf den offensichtlichen Zusammenbruch des altpreußischen Militärstaats hielten allmählich demokratische Reformen Einzug. Reformer wie der Freiherr vom und zum Stein, der Philosoph Johann Gottlieb Fichte oder der Theologe Friedrich Schleiermacher setzten sich nun für die Berliner Belange ein: Unter Stein wurde am 19. November 1808 die neue Berliner Städteordnung beschlossen und in einem Festakt am 6. Juli 1809 in der Nikolaikirche proklamiert, was zur ersten frei gewählten Stadtverordnetenversammlung führte. Wahlberechtigt waren aber nur Hauseigentümer und Personen mit einem Jahreseinkommen über 200 Taler, das waren dazumal rund sieben Prozent der Einwohner. An die Spitze der neuen Verwaltung wurde ein Oberbürgermeister gewählt, der erste in diesem Amt war Carl Friedrich Leopold von Gerlach, der es bis zu seinem Tod 1813 blieb. Die Vereidigung der neuen Stadtverwaltung, nun Magistrat genannt, erfolgte am 8. Juli 1809 im Berliner Rathaus. Weitere Reformen wie die Einführung einer Gewerbesteuer, das unter Staatskanzler Carl August von Hardenberg verabschiedete Gewerbe-Polizeigesetz (mit der Abschaffung der Zunftordnung und Einführung der Gewerbefreiheit), die bürgerliche Gleichstellung der Juden und die Erneuerung des Heereswesens führten zu einem neuen Wachstumsschub in Berlin. Vor allem legten sie die Grundlage für die spätere Industrieentwicklung in der Stadt. Der König kehrte Ende 1809 mit seinem gesamten Hofstaat nach Berlin zurück. Als die napoleonischen Truppen im Zuge ihres Russlandfeldzuges 1812 wieder in Berlin einrückten, herrschte zeitweilig Stillstand. Diese erneute Besatzung war nach der vernichtenden Niederlage Napoleons 1813 beendet, bis dahin hatten sich sogar viele Berliner als Freiwillige in die Russische Armee gemeldet. Als Napoleon geschlagen war, sorgte General Blücher auch für die sofortige Rückgabe der Quadriga an Berlin (siehe auch → hier). Sie erhielt erneut ihren Platz auf dem Brandenburger Tor, dabei wurde dem Stab der Siegesgöttin nach einem Entwurf von Karl Friedrich Schinkel nun ein Eisernes Kreuz und ein preußischer Adler hinzugefügt. Viele Berliner verbanden den Sieg über Frankreich mit der Hoffnung, dass ein neuer Weg in eine demokratische Zukunft beschritten werden könne. Geistige Erneuerung und Gründung der Berliner Universität. Die bestehenden zahlreichen Schulen und kleinen wissenschaftlichen Einrichtungen (wie die Akademie der Künste, Bauakademie, Lehrinstitut für Bergwerk und Hüttenwesen, Schulen zur Ausbildung von Militär oder Ärzten) mussten zwecks besserer Wirksamkeit reformiert werden. Unter der Leitung von Wilhelm von Humboldt wurde das Bildungswesen neu geordnet. Die Gründung der Berliner Universität erfolgte 1810. Hier wurde die notwendige Einheit von Lehre und Forschung praktiziert. 52 Professoren begannen ihre Vorlesungen vor 256 eingeschriebenen Hörern im Palais des Prinzen Heinrich. Zu den ersten Professoren gehörten August Boeckh, Albrecht Daniel Thaer, Friedrich Carl von Savigny, Christoph Wilhelm Hufeland. Erster Rektor wurde der Philosoph Johann Gottlieb Fichte. Die neue Universität entwickelte sich rasch zum geistigen Mittelpunkt von Berlin und wurde bald weit über die preußische Residenzstadt hinaus berühmt. Hier lehrte beispielsweise ab 1818 der Philosoph Georg Wilhelm Friedrich Hegel. Mit Berlin verbunden war Alexander von Humboldt. In den folgenden Jahrzehnten wirkten viele bedeutende Wissenschaftler in der Stadt, wie der Historiker Leopold von Ranke der Geodät Johann Jacob Baeyer, der Biologe Johannes Peter Müller, der Geograph Carl Ritter, der Mathematiker Karl Weierstraß, der Astronom Wilhelm Foerster oder der Arzt Albrecht von Graefe. Heinrich Gustav Magnus baute ab 1840 eines der ersten physikalischen Institute Deutschlands in Berlin auf. Zwischen 1810 und 1811 erschien Berlins erste Tageszeitung, die von Heinrich von Kleist herausgegebenen "Berliner Abendblätter". Das in der Straße An der Stechbahn gelegene "Volpische Kaffeehaus", später "Café Josty", wurde zu einem beliebten öffentlichen Treffpunkt des Bürgertums genauso wie auch das Weinlokal "Lutter & Wegner" am Gendarmenmarkt. Friedrich Ludwig Jahn begann 1811 mit den Turnveranstaltungen in der Hasenheide. Seit 1812 galt für die Juden eine Berufsfreiheit. Die Niederlage der Franzosen 1814 bedeutete auch ein Ende weiterer Reformen. Der Komponist Carl Friedrich Zelter, ein Bewohner von Berlin, schrieb 1817 an seinen Freund Wolfgang Goethe: Heinrich Heine äußerte 1826 in seinen Reisebildern: „Berlin ist gar keine Stadt, sondern Berlin gibt bloß den Ort dazu her, wo sich eine Menge Menschen, und zwar darunter viele Menschen von Geist, versammeln, denen der Ort ganz gleichgültig ist.“ Karl Friedrich Schinkel legte 1822 Pläne für die Neugestaltung der nördlichen Spreeinsel vor, dort wurde 1825 mit dem Bau des Alten Museums begonnen. Das Schauspielhaus am Gendarmenmarkt eröffnete 1821. Vom Stillstand, Bevölkerungswachstum zur Industrialisierung. Karte von Berlin, Charlottenburg und Spandau, 1842 Alle Hoffnungen und Versprechen auf eine bessere Zukunft wurden jedoch durch Verhaftungen und die sogenannte „Demagogenverfolgung“ zunichtegemacht. Ausdruck der Unzufriedenheit im Vormärz waren Unruhen wie die Schneiderrevolution 1830 und die Feuerwerksrevolution 1835. Ab dem Jahr 1819 wurden die Überwachung der Universität, der Predigten sowie die Buch- und Pressezensur eingeführt, unbequeme Personen wurden beschattet oder aus ihren Ämtern entfernt. Nur in kleinsten Kreisen befasste man sich mit möglichen Entwicklungen, es entstanden zahlreiche „Debattierklubs“. Durch Bauernbefreiung und Industrialisierung verdoppelte sich in den folgenden Jahrzehnten bis um 1850 die Zahl der Einwohner, von 200.000 auf 400.000, womit Berlin nach London, Paris und Wien zur viertgrößten Stadt Europas wurde. Die damit verbundenen sozialen Probleme und die Wohnungsnot führten zu einem gewaltigen Bauboom, insbesondere im Innenstadtbereich entstanden auf engstem Raum Mietshäuser. Unter Leitung von Peter Beuth wurde ein umfassendes Programm der Gewerbeförderung durchgeführt und 1821 zur Verbesserung der Gewerbeausbildung das Gewerbeinstitut eingerichtet. Nach der Gründung des Deutschen Zollverein 1834 beschleunigte sich die Industrialisierung Berlins. Außerhalb der Stadtmauern siedelten sich neue Fabriken an, in denen die Zuwanderer als Arbeiter oder Tagelöhner Beschäftigung fanden. Vor dem Oranienburger Tor begann 1804 die Königlich Preußische Eisengießerei ihre Arbeit. Weitere Unternehmen folgten, wie 1837 die Maschinenbauanstalt von August Borsig. Das Industriegebiet in der Oranienburger Vorstadt erhielt bald den Namen "Feuerland". Neue Maschinenbaufabriken, wie die Werke von Louis Schwartzkopff, Julius Pintsch oder Heinrich Ferdinand Eckert entstanden. Die erste Eisenbahn in Preußen, die Berlin-Potsdamer Eisenbahn, nahm 1838 ihren Betrieb auf. Der Potsdamer Bahnhof setzte den Beginn der sich schnell entwickelnden Eisenbahnstadt Berlin. Die erste von Borsig gebaute Lokomotive fuhr 1841 vom neuen Anhalter Bahnhof. Der Stettiner Bahnhof nahm 1842 den Betrieb auf. Im selben Jahr wurde auch der Frankfurter Bahnhof eröffnet, der als einziger innerhalb der Zollmauer lag. Der fünfte Kopfbahnhof wurde 1846 als Hamburger Bahnhof eingeweiht. Die am Stadtrand gelegenen Bahnhöfe wurden durch Pferdeomnibusse, später Pferdebahnen, untereinander und mit der Stadt verbunden. Die Straßen, die vom Stadtzentrum zu den Bahnhöfen verliefen, entwickelten sich zu Hauptverkehrsadern. Die Leipziger Straße wandelte sich in den folgenden Jahrzehnten von einer Wohnstraße zur Geschäftsstraße, an der sich die großen Warenhäuser befanden. Der preußische Staat benötigte für die Verwaltung und Kontrolle der von der Hauptstadt weit entfernten Rheinprovinzen schnellere Kommunikationsmittel. Ausgehend von der Berliner Sternwarte in der Dorotheenstraße wurde bis Ende 1832 eine optische Telegrafenlinie über Potsdam bis Magdeburg fertiggestellt, deren Verlängerung später bis Koblenz erfolgte. Die Einführung der elektrischen Telegrafie ermöglichte 1849 die Gründung der Nachrichtenagentur Wolffs Telegraphisches Bureau. Das Kaufhaus Gerson eröffnete 1849 als erstes Warenhaus Berlins am Werderschen Markt. Ab 1825 wurde die zentrale Gasversorgung aufgebaut, vor allem auch für die Straßenbeleuchtung. Das erste private Gaswerk der englischen Imperial Continental Gas Association vor dem Halleschen Tor ging 1826 in Betrieb. Zwei städtische Gaswerke, aus denen später die Gasag entstand, wurden Mitte der 1840er Jahre am Stralauer Platz und in der Gitschiner Straße (Böcklerpark) gebaut. Die Berliner Münze bezog 1800 ihr neues Gebäude am Werderschen Markt. Nicht weit entfernt in der Jägerstraße befand sich die 1765 gegründete Königliche Hauptbank (ab 1847 Preußische Bank, aus der 1876 die Reichsbank hervorging). Seit 1815 hatte das Bankhaus Mendelssohn seinen Sitz in der Jägerstraße. In der Nachbarschaft war das Gebäude der staatlichen Seehandlungsgesellschaft, die in der Finanzierung des Eisenbahnbaus aktiv war. Bedeutsam bei der Finanzierung der Industrie wurde die 1856 gegründete Berliner Handels-Gesellschaft, die zwischen Französischer Straße und Behrenstraße ihren Sitz hatte. Die 1851 gegründete Disconto-Gesellschaft, lange Zeit eine der größten deutschen Bankgesellschaften, bezog ein Gebäude Unter den Linden. In den folgenden Jahrzehnten entwickelte sich die Gegend zum führenden Zentrum der Finanzwirtschaft in Deutschland. Die Choleraepidemie erreichte Berlin 1831, während der etwa 2000 Einwohner erkrankten. Kinderarbeit in der Industrie mit hohen täglichen Arbeitszeiten war üblich. Die durchschnittliche Lebenserwartung in Berlin Mitte des Jahrhunderts lag für höhere Berufe bei 54 Jahren, für Industriearbeiter bei 42 Jahren. Der Zoologischer Garten eröffnete 1844. Bereits in den 1820er Jahren bildete sich die Friedrich-Wilhelm-Stadt als eigener Stadtteil. Bis 1841 wurden die Stadtgrenzen über die Zollmauer hinaus erweitert, die Oranienburger und Rosenthaler Vorstadt kamen hinzu, ebenso die äußere Luisenstadt, das äußere Stralauer Viertel und das äußere Königsviertel sowie die Friedrichsvorstadt. Peter Joseph Lenné übernahm ab 1840 die stadtbaulichen Planungen. Aufbauend u. a. auf Ideen von Schinkel legte er 1840 die „Projectirten Schmuck- und Grenzzüge von Berlin mit nächster Umgebung“ vor, worin der Ausbau des Landwehrkanals (1850 eingeweiht) vorgeschlagen wurde. Mit dem 1852 fertiggestellten Luisenstädtischen Kanal sollte der neue Stadtteil einen attraktiven Freiraum erhalten. Weitere Pläne von Lenné für den Berliner Norden folgten 1853. Das Königreich Preußen wurde 1850 konstitutionelle Monarchie. Die zwei Kammern des Preußischen Landtags, Herrenhaus und Abgeordnetenhaus, hatten ihren Sitz in Berlin. Die Bauordnung von 1853 begünstigte in den folgenden Jahrzehnten die Entstehung der Mietskasernen. Eine bedeutende Stadterweiterung erfolgte 1861. Wedding mit Gesundbrunnen, Moabit, die Tempelhofer und Schöneberger Vorstädte und die äußere Dorotheenstadt kamen hinzu. Barrikadenkämpfe 1848 und politische Neuausrichtung. Plan nach der Stadterweiterung von 1861 Die politischen Spannungen waren bei allen Fortschritten nicht ausgeräumt. Der Tod des Königs Friedrich Wilhelm III. und der Regierungsantritt von Friedrich Wilhelm IV. änderten an den bestehenden Zuständen kaum etwas. Die erstarkenden Handwerksbetriebe schlossen sich im Jahr 1844 zum Berliner Handwerker-Verein zusammen und nahmen damit auch auf die politische Bildung des Mittelstandes Einfluss. Außerdem wurde der Bund der Gerechten gegründet. Die sozialen Probleme in Berlin wurden durch die Kunde über den Schlesischen Weberaufstand besonders deutlich beleuchtet. Eine Missernte und die zunehmende Verfolgung Andersdenkender führten zu ersten Unruhen in der Stadt. Im Jahr 1848 kam es am 18. März zu einer großen Kundgebung, an der sich rund 10.000 Berliner beteiligten. Die königstreuen Truppen waren dagegen aufmarschiert und es begannen nächtliche Barrikadenkämpfe. Bis zur Beendigung dieser Märzrevolution am 21. März waren 192 Personen umgekommen. Allerdings kam es auch danach weiterhin zu Unruhen. So wurde am 14. Juni 1848 das Zeughaus gestürmt und geplündert. Im Ergebnis des Aufstands machte der König mit seiner Proklamation „An meine lieben Berliner“ jedoch zahlreiche Zugeständnisse; vor allem wurde die Presse- und Versammlungsfreiheit eingeführt, und ihrem Gefolge entstanden erste politische Vereinigungen als Vorläufer späterer Parteien. Ende 1848 wurde ein neuer Magistrat gewählt. Die Wirtschaft war in den vorangegangenen Jahrzehnten rückläufig, sodass es nun eine große Anzahl Erwerbsloser gab. Man führte Notstandsarbeiten ein, die zum schnellen Ausbau des Berliner Wasserstraßensystems führten. Diese kleinen Verbesserungen waren jedoch nicht von langer Dauer, im Spätherbst 1848 setzte der König ein neues Kabinett ein, am 10. November rückten wieder preußische Truppen in Berlin ein, am 12. November wurde der "Belagerungszustand" ausgerufen. Viele Errungenschaften der Revolution waren damit zunichte geworden. Zeit der Reaktion bis zur Gründung des Kaiserreichs 1871. Nach einer kurzen Pause wurde im März 1850 eine neue Stadtverfassung und Gemeindeordnung beschlossen, wonach die Presse- und Versammlungsfreiheit wieder aufgehoben, ein neues Dreiklassenwahlrecht eingeführt und die Befugnisse der Stadtverordneten stark eingeschränkt wurden. Die Rechte des Polizeipräsidenten Carl Ludwig Friedrich von Hinckeldey wurden dagegen gestärkt. In seiner Amtszeit bis 1856 sorgte er allerdings auch für den Aufbau der städtischen Infrastruktur (vor allem Stadtreinigung, Wasserwerke, Wasserleitungen, Errichtung von Bade- und Waschanlagen). Im Jahr 1861 wurde Wilhelm I. neuer König. Zu Beginn seiner Regentschaft gab es Hoffnung auf eine Liberalisierung. 1861 wurde das Stadtgebiet durch die Eingemeindung von Wedding und Moabit sowie Tempelhofer und Schöneberger Vorstadt erweitert. Das weiterhin rapide Bevölkerungswachstum der Stadt führte in dieser Zeit zu großen Problemen. Während der Amtszeit des Oberbürgermeisters Karl Theodor Seydel wurde das Verkehrswesen erneuert, der Bau der Berliner Ringbahn führte zur besseren Verbindung der Berliner Kopfbahnhöfe. Das erste kommunale Krankenhaus entstand im Friedrichshain. 1862 trat der Hobrecht-Plan in Kraft, der die Bebauung von Berlin und seines Umlandes in geordnete Bahnen lenken sollte. Der Bau von Wasserversorgung und Kanalisation unter maßgeblicher Beteiligung von Rudolf Virchow schuf wesentliche Voraussetzungen für die moderne Stadt. Der Neubau des Roten Rathauses wurde 1869 fertiggestellt. Mit der Eröffnung der ersten Strecke der Pferdebahn begann 1865 die Geschichte der Straßenbahn in Berlin. Die ABOAG, der größte Betreiber von Pferdeomnibussen in Berlin, wurde 1868 gegründet (bereits seit 1825 gab es Pferdeomnibusse). Die ersten Postbezirke für Berlin wurden 1862 festgelegt. Das Haupttelegraphenamt zwischen Französischer und Jägerstraße entstand ab 1863. Das Rohrpostsystems ging 1865 in Betrieb. Von 1910 bis 1916 wurde das neue Haupttelegraphenamt in der Oranienburger Straße gebaut, in unmittelbarer Nähe liegt das 1881 fertiggestellte Postfuhramt. Für das Hofpostamt wurde bis 1882 ein Neubau errichtet. Seit 1862 waren Steinplatten aus Lausitzer Granit – die sogenannten „Schweinebäuche“ oder „Charlottenburger Platten“ – als Belag der Bürgersteige vorgeschrieben und seit 1873 deren Rahmung mit Mosaikpflaster. Die ersten Plakatsäulen von Ernst Litfaß wurden 1855 aufgestellt. Vor allem im Nordosten der Stadt entstanden mehrere große Brauereien, wie das Unternehmen von Julius Bötzow, die Schultheiss-Brauerei von Richard Roesicke, die Aktienbrauerei Friedrichshöhe von Georg Patzenhofer und Friedrich Goldschmidt, das Böhmische Brauhaus von Armand Knoblauch und weitere. Die politische Bedeutung Berlins als Hauptstadt Preußens wuchs 1867 an, als der Norddeutsche Bund gegründet wurde, dessen Bundeskanzler der preußische Ministerpräsident Otto von Bismarck wurde, sodass Berlin nun erstmals auch für nichtpreußische Gebiete Hauptstadtfunktionen innehatte. Hauptstadt des Deutschen Kaiserreiches (1871–1918). a> am Ende des 19. Jahrhunderts Unter der Führung Preußens kam es nach Ende des Deutsch-Französischen Kriegs zur Kleindeutschen Lösung; 1871 wurde das Deutsche Reich gegründet, Wilhelm I. wurde Kaiser, Otto von Bismarck Reichskanzler und Berlin zur Hauptstadt des Reichs. Berlin war inzwischen zu einer Industriestadt mit 800.000 Einwohnern angewachsen. Mit diesem Wachstum konnte die Infrastruktur jedoch nicht mithalten. 1873 begann man endlich mit dem Bau einer Kanalisation, der 1893 abgeschlossen war. Auf den ökonomischen Boom der Gründerzeit folgte der Gründerkrach, eine Wirtschaftskrise in der zweiten Hälfte der 1870er Jahre. Die Stadtentwicklung blieb nach wie vor ein strittiges Thema. Am 1. Januar 1876 erhielt die Stadt Berlin per Vertrag vom Staat die Brücken und Straßen. 1882 beschränkte das sogenannte "Kreuzbergerkenntnis" die Baupolizei auf das Abwenden von Gefahren, untersagte ihr jedoch die Einflussnahme in ästhetischen Aspekten. Die weiter rasant wachsende Industrie Berlins brachte auch eine starke Arbeiterbewegung hervor. Spätestens nach dem Ende des Sozialistengesetzes 1890 zählte sie zu den bestorganisierten der Welt. Dazu gehörten die SPD, aber auch zahlreiche Gewerkschaften. Eine Vielzahl von Streiks, Demonstrationen und Protesten gingen von ihr aus, wie etwa die Moabiter Unruhen oder die Wahlrechtskämpfe. Nach der Reichsgründung von 1871 bestand in der Hauptstadt Berlin ein Bedarf an repräsentativen Regierungsgebäuden. Der Reichstag bezog zunächst seinen provisorischen Sitz in der Leipziger Straße. Der Bau des neuen Reichstagsgebäudes begann 1884 am Königsplatz. Nach der Fertigstellung 1894 wurde am alten Standort zwischen Leipziger Straße und heutiger Niederkirchnerstraße ein Gebäudekomplex für das Preußische Herrenhaus und den Preußischen Landtag (1892–1904) errichtet. Max von Forckenbeck wurde 1878 zum Oberbürgermeister gewählt und übte das Amt bis 1892 aus. In die Dienstzeit von Hermann Blankenstein als Berliner Stadtbaurat fällt der Bau des Zentralvieh- und Schlachthofes von 1876 bis 1883 sowie der Zentralmarkthalle (1883–1886). Das Wasserwerk Friedrichshagen ging 1893 in Betrieb. Gustav Meyer wurde 1870 zum Gartendirektor von Berlin ernannt (bis 1877) und plante mehrere Parks in Berlin, wie den Volkspark Friedrichshain, den Volkspark Humboldthain, den Treptower Park oder den Kleinen Tiergarten. Ludwig Hoffmann wurde 1896 Stadtbaurat in Berlin (bis 1924), er entwarf u. a. das Alte Stadthaus und die Volksbäder in der Oderberger und Baerwaldstraße sowie viele Schulbauten und Feuerwachen. Während der Amtszeit von Martin Kirschner als Oberbürgermeister (1899–1912) wurden beispielsweise die Heilanstalten in Buch, das Rudolf-Virchow-Krankenhaus oder der Osthafen gebaut sowie der Schillerpark angelegt. Bereits in 1860er Jahren begann die öffentliche Hand mit dem Ankauf von Grundstücken im historischen Stadtkern. Durch die Neubebauung mit Gebäuden für kommunale Einrichtungen wurde die Berliner Altstadt zu einem modernen Stadtzentrum umgeformt. Der Bau des Berliner Rathauses erfolgte zwischen 1860 und 1869. Die Gerichtslaube, eines der ältesten Bauwerke der Stadt, wurde 1871 abgerissen. Durch das schnelle Stadtwachstum war das Rote Rathaus bald zu klein, und es wurde ein „zweites Rathaus“ benötigt. Von 1902 bis 1911 entstand darum das Alte Stadthaus. In der Dirksenstraße wurde 1886 bis 1890 das Polizeipräsidium gebaut. Das bei seiner Fertigstellung zweitgrößte Gebäude Berlins war das Land- und Amtsgericht in der Neuen Friedrichstraße (heute Littenstraße), gebaut zwischen 1896 und 1905. Ebenfalls in der Neuen Friedrichstraße bezogen die städtischen Gaswerke ein neues Geschäftshaus. Am Rande des zu dieser Zeit entstandenen Zeitungsviertels in der südlichen Friedrichstadt wurde 1879 an der Oranienstraße im heutigen Kreuzberg die Reichsdruckerei mit dem Ziel gegründet, hoheitlichen Wertdruck – beispielsweise Banknoten und Briefmarken – zentral für das Deutsche Kaiserreich herzustellen. Um den Alexanderplatz für Straßenverkehr besser mit der Friedrichstadt zu verbinden, erfolgte 1891 der Durchbruch der Kaiser-Wilhelm-Straße durch die Berliner Altstadt (Idee bereits 1873 in Orths Bebauungsplan). Die Berliner Stadtbahn wurde ab 1883 gebaut und folgt teilweise dem Verlauf des alten Festungsgrabens. Zur Bewältigung des stark angewachsenen Verkehrs begann 1896 die Konstruktion der U-Bahn und der Vorortstrecken der Eisenbahn. An der Leipziger Straße entstand zwischen 1896 und 1906 nach Plänen des Architekten Alfred Messel ein Wertheim-Warenhaus, 1907 wurde am Wittenbergplatz das Kaufhaus des Westens eröffnet, beide zählten zu den größten Warenhäusern Europas. Das Gebiet um den Kurfürstendamm entwickelte sich zur zweiten Berliner City. Weitere City-Bereiche waren das Regierungsviertel Wilhelmstraße, das Bankenviertel, das Zeitungsviertel und das Konfektionsviertel. Im Exportviertel Ritterstraße konzentrierten sich Unternehmen der Luxuswarenherstellung. Die bedeutendesten Geschäftsstraßen waren Friedrichstraße, Leipziger Straße und Unter den Linden. Das Zentrum des Fremdenverkehrs war die Kreuzung Friedrichstraße/Unter den Linden mit dem "Café Bauer" und der Konditorei "Kranzler". Die renommiertesten Hotels waren das "Kaiserhof", das "Bristol", das "Adlon" und das "Esplanade". Beliebter Treffpunkt von Berliner Künstlern, wie Max Liebermann oder Paul Lincke, war das "Café des Westens". Mit dem Bau des ersten Blockkraftwerks in der Schadowstraße begann in den 1880er Jahren die Elektrifizierung der Berliner Innenstadt. Die Städtischen Electricitäts-Werke (später: BEWAG) wurden 1884 gegründet, und das erste öffentliche Kraftwerk ging 1885 in der Markgrafenstraße in Betrieb. Emil Rathenau gründete 1883 die "Deutsche Edison-Gesellschaft für angewandte Elektricität", die sich unter dem Namen AEG innerhalb weniger Jahrzehnte zum größten deutschen Industrieunternehmen entwickelte. Bereits 1847 hatte Werner von Siemens die "Telegraphen Bau-Anstalt von Siemens & Halske" gegründet und 1866 den ersten elektrischen Generator entwickelt. Zusammen mit der 1879 entstandenen Technischen Hochschule, dem im selben Jahr gegründeten "Elektrotechnischen Verein Berlin" und den Berliner Banken als Finanziers entwickelte sich bald die "Elektropolis Berlin". Für die AEG entwarf Peter Behrens moderne Industriebauten, wie die AEG-Turbinenfabrik von 1909 in Moabit oder die Werke im Wedding. Zwischen Charlottenburg und Spandau entstand mit der Siemensstadt ein ganzer Stadtteil, der von der Elektroindustrie geprägt wurde. Bedeutende Bauten der Industriearchitektur, wie die Dynamohalle oder in den 1920er Jahren von Hans Hertlein das Schaltwerk wurden dort errichtet. Das Gegenstück dazu bildete das Fabrikquartier Oberschöneweide im Südosten, u. a. mit dem Kabelwerk Oberspree. Die flächendeckende Elektrifizierung erfolgte wesentlich in den 1920er und 1930er Jahren. Das 1927 fertiggestellte Kraftwerk Klingenberg versorgte zusammen mit dem 1931 in Betrieb genommenen Kraftwerk West die wachsende Metropole mit elektrischer Energie. Siemens stellte 1881 in Lichterfelde die erste elektrisch betriebene Straßenbahn vor. Die erste U-Bahnstrecke vom Stralauer Tor zum Potsdamer Platz wurde 1902 eröffnet. Ein weiterer neuer Industriezweig war die chemische Industrie. Ernst Schering gründete 1864 im Wedding eine chemische Fabrik, und aus den Zusammenschluss der Unternehmen von Paul Mendelssohn Bartholdy, Carl Alexander von Martius und Max August Jordan entstand 1873 die "Actien-Gesellschaft für Anilin-Fabrikation (Agfa)". Die Physikalisch-Technische Reichsanstalt nahm ihre Arbeit 1887 auf. Ihr erster Präsident war der Physiker Hermann von Helmholtz. Die 1911 gegründete Kaiser-Wilhelm-Gesellschaft als Trägerin der in der Grundlagenforschung führenden Kaiser-Wilhelm-Institute nahm ihren Sitz in Berlin. Mehrere Kaiser-Wilhelm-Institute entstanden in Dahlem. Das Kaiserliche Patentamt begann 1877 seine Arbeit in Berlin. Nobelpreise wurden an den in Berlin lebenden Historiker Theodor Mommsen, den Mediziner und Mikrobiologen Robert Koch, den Chemiker Emil Fischer oder den Physiker Max Planck vergeben. Die Urania-Gesellschaft, eine neuartige Bildungseinrichtung, wurde 1888 gegründet. Ein Beispiel für die typische "Berliner Mischung" von Wohnen und Arbeiten in der Innenstadt sind die Hackeschen Höfe. Außerhalb der 1860 abgerissenen Akzisemauer begann in den vom Hobrecht-Plan vorgesehenen Bereichen (heute: Kreuzberg, Prenzlauer Berg, Friedrichshain und Wedding) im sogenannten „Wilhelminischen Ring“ der Bau von Mietskasernen, um billigen Wohnraum für Arbeiter zu schaffen. Diese überbelegten Wohngebiete waren durch dichte Bebauung, lichtarme Höfe, Kellerwohnungen und mangelnde sanitäre Ausstattung geprägt, Industriebetriebe verursachten Luftverschmutzung und Lärm. Im Südwesten der Stadt entstanden ab 1850 großzügige und weit ausgedehnte Villenkolonien für das wohlhabende Bürgertum, beispielsweise in Lichterfelde, weitere Villenviertel folgten im Westen gegen Ende des 19. Jahrhunderts, zum Beispiel Grunewald oder Westend. Diese Gebiete wurden hauptsächlich durch die "Terraingesellschaften" (Immobilienunternehmen) geplant und gebaut. Eine führende Rolle bei dieser privat finanzierten Stadtplanung hatte der Unternehmer Johann Anton Wilhelm von Carstenn. Entlang der damals neuen Kaiserstraße, die Lichterfelde mit Charlottenburg verband, entstanden zunächst als Gartenvororte Friedenau und Wilmersdorf (siehe: Carstenn-Figur), die sich später zu dichter bebauten bürgerlichen Wohnvierteln entwickelten. Die Gesellschaft von Salomon und Georg Haberland baute das Viertel um den Viktoria-Luise-Platz, das Bayerische Viertel und das Rheinische Viertel. Ab der Jahrhundertwende entstanden vor der Stadt einige Gartenstädte, wie die Baugenossenschaft „Freie Scholle” in Tegel, die Waldsiedlung Hakenfelde, die Gartenstadt Staaken oder die Gartenstadt Falkenberg. Die im Reformbaustil errichteten Wohnhäuser um den Rüdesheimer Platz versuchten Gartenstadt und Großstadt zu verbinden. Mit dem Reichsgenossenschaftsgesetz von 1889 wurde die Gründung von Wohnungsbaugenossenschaften möglich. In den folgenden Jahren entstanden eine Reihe gemeinnütziger Wohnanlagen, zum Beispiel von Paul Mebes für den "Beamten-Wohnungs-Verein" oder von Alfred Messel in der Proskauer Straße und das Weißbachviertel (beide in Friedrichshain). Zu den Reformbestrebungen dieser Zeit gehörten die Wandervogel-Bewegung, die 1896 in Steglitz gegründet wurde, mehrere Einküchenhäuser entstanden und die Berliner Arbeitergärten wurden angelegt. Ab 1888 traf sich der Friedrichshagener Dichterkreis. Zwischen 1904 und 1908 beschäftigte sich die 51-teilige Buchreihe "Großstadt-Dokumente" ausführlich mit Berlin. Eines der Hauptthemen des aufwendigsten Stadtforschungsprojektes im deutschsprachigen Raum dieser Zeit war der Vergleich des häufig als „moderne Retortenstadt“ betrachteten Berlins mit dem als traditions- und kulturreicher geltenden Wien. In seiner 1910 veröffentlichten Schrift "Berlin – ein Stadtschicksal" schrieb Karl Scheffler, Berlin sei „"dazu verdammt: immerfort zu werden und niemals zu sein."“ Otto Lilienthal führte seine Versuchsflüge durch, und in Johannisthal eröffnete 1909 der erste Motorflugplatz Deutschlands. Nach sechsjähriger Bauzeit wurde 1906 der Teltowkanal für den Schiffsverkehr freigegeben. Die Berliner Gewerbeausstellung fand 1896 in Treptow statt. Der "Lunapark" in Halensee zählte zu den größten Vergnügungsparks Europas. Auf dem Tempelhofer Feld fanden die Spiele von neu gegründeten Fußballvereinen statt, die sich Anfang der 1890er Jahre in ersten Verbänden organisierten, wie dem Bund Deutscher Fußballspieler oder dem Deutschen Fußball- und Cricket Bund. Seit 1911 fanden im Sportpalast die Sechstagerennen statt. Der „Wettbewerb Groß-Berlin“ von 1910 prägte die weitere Entwicklung der Stadt im 20. Jahrhundert maßgeblich. Zur Koordinierung infrastruktureller Maßnahmen im rasant wachsenden Berliner Raum bildete sich 1911 der Zweckverband Groß-Berlin, aus dem 1920 der Zusammenschluss zu Groß-Berlin hervorging; bleibende Leistung des Verbandes ist der Abschluss des Dauerwaldvertrags. Der Erste Weltkrieg führte zu Hunger in Berlin. Im Winter 1916/1917 waren 150.000 Menschen auf Hungerhilfe angewiesen, und Streiks brachen aus. Als 1918 der Krieg endete, dankte Wilhelm II. ab. Der Sozialdemokrat Philipp Scheidemann und der Kommunist Karl Liebknecht riefen beide nach der Novemberrevolution die Republik aus. In den nächsten Monaten fanden in Berlin zahlreiche Straßenkämpfe zwischen den unterschiedlichen Fraktionen statt. Die Weimarer Republik. Berlin nach der Erweiterung von 1920 In den ersten Jahren der Weimarer Republik war Berlin Schauplatz gewaltsamer innenpolitischer Auseinandersetzungen. Zur Jahreswende 1918/1919 wurde die Kommunistische Partei Deutschlands (KPD) in Berlin gegründet. Im Januar 1919 versuchte sie im Spartakusaufstand, die Macht an sich zu reißen. Die Revolte scheiterte, und am 15. Januar 1919 töteten rechtsgerichtete Truppen Rosa Luxemburg und Karl Liebknecht. Im März 1919 kam es in Berlin zu einem politischen Generalstreik, der das gesamte Wirtschaftsleben und den Verkehr lahmlegte. Rund eine Million Beteiligte forderten eine Verankerung der Räte in der zu dieser Zeit verhandelten Weimarer Reichsverfassung sowie weitere Reformen. Am 13. Januar 1920, während die Nationalversammlung im Reichstagsgebäude über das Betriebsrätegesetz verhandelte, fand vor dem Haus eine Demonstration gegen den Gesetzesvorschlag statt. Dazu hatten die linken Oppositionsparteien USPD und KPD aufgerufen, die dann aber die Demonstration der rund 100.000 Menschen dem Selbstlauf überließen. Als die Menge das Gebäude zu stürmen drohte, eröffnete die Polizei das Feuer und tötete mindestens zwanzig Menschen, über 100 wurden verletzt. Damit handelte es sich um die blutigste Demonstration der deutschen Geschichte. Im März 1920 versuchte Wolfgang Kapp an der Spitze von Freikorpsformationen im "Kapp-Putsch" die sozialdemokratische Regierung zu stürzen und eine Militärherrschaft zu errichten. Die Berliner Reichswehrtruppen sympathisierten mit den Putschisten, verhielten sich jedoch weitgehend "neutral". Während die Regierung Berlin verlassen hatte, brach der Putsch infolge eines reichsweiten Generalstreiks nach fünf Tagen zusammen. Am 1. Oktober 1920 wurde Groß-Berlin durch das "Gesetz über die Bildung einer neuen Stadtgemeinde" gegründet. Dabei wurde Berlin mit sieben weiteren Städten, nämlich Charlottenburg, Köpenick, Lichtenberg, Neukölln, Schöneberg, Spandau und Wilmersdorf, 59 Landgemeinden und 27 Gutsbezirken zu einer Gemeinde unter dem Namen "Berlin" verschmolzen. Groß-Berlin hatte damals 3.804.048 Einwohner. Berlin wurde damit hinter New York, London, Tokio und Paris zur fünftgrößten Stadt der Welt und zur größten Industriestadt Europas. Neuer Oberbürgermeister wurde Gustav Böß, der das Amt bis 1929 ausübte. Seit der Wahl zur Berliner Stadtverordnetenversammlung von 1919 galt das Frauenwahlrecht, das Wahlalter wurde von 25 auf 20 Jahre herabgesetzt und das Dreiklassenwahlrecht abgeschafft. Im Jahr 1922 wurde Außenminister Walther Rathenau in Berlin ermordet. Die Stadt war schockiert: eine halbe Million Menschen kamen zu seiner Beerdigung. Die ersten Jahre der jungen Republik waren von wirtschaftlichen Problemen geprägt. Die Arbeitslosigkeit war hoch. Die Geldentwertung verschärfte sich und erreichte im Herbst 1923 ihren Höhepunkt (Deutsche Inflation 1914 bis 1923). Das Geldvermögen von großen Teilen des Mittelstandes und der Rentner wurde vernichtet. Deutschland hatte durch den Friedensvertrag von Versailles hohe Reparationen zu zahlen. Ab 1924 besserte sich die Situation durch neue Vereinbarungen mit den Alliierten, amerikanische Hilfe (Dawes-Plan) und eine bessere Finanzpolitik. Die Hochzeit Berlins, die „Goldenen Zwanziger Jahre“ begannen. Personen wie der Architekt Walter Gropius, der Physiker Albert Einstein, der Maler George Grosz, Schriftsteller wie Arnold Zweig, Bertolt Brecht und Kurt Tucholsky, die Schauspielerin Marlene Dietrich und Regisseure wie Friedrich Wilhelm Murnau, Fritz Lang und Max Reinhardt machten Berlin zum kulturellen Zentrum Europas. Das Nachtleben dieser Zeit hat seinen bekanntesten Niederschlag in dem Film "Cabaret" gefunden, nach der Vorlage des Buches "Goodbye To Berlin" von Christopher Isherwood. Die Gegend zwischen Lützowplatz und Potsdamer Platz war Wohnort für viele Künstler, und Kunsthändler wie Alfred Flechtheim hatten hier ihre Galerien. Zum bevorzugten Treffpunkt für Künstler wurde das "Romanische Café" am Kurfürstendamm. Ein kulturelles Zentrum im Berliner Westen war das Viertel um den Prager Platz, wo viele Künstler, Schauspieler und Schriftsteller lebten. Im Jahr 1924 eröffnete der Flughafen Tempelhof. Im gleichen Jahr fand auch die erste Funkausstellung auf dem Messegelände statt, die erste "Grüne Woche" folgte 1926. Berlin war der zweitgrößte Binnenhafen des Landes (siehe: Westhafen). Die ab 1924 nach und nach elektrifizierten Berliner Stadt-, Ring- und Vorortbahnen wurden 1930 unter dem Namen "S-Bahn" zusammengefasst. Diese Infrastruktur wurde zur Versorgung der über vier Millionen Berliner benötigt. Mit der Ausstrahlung der ersten Unterhaltungssendung begann 1923 im Vox-Haus die Geschichte des deutschen Rundfunks. 1926 wurde zum Auftakt der dritten Funkausstellung der Funkturm eingeweiht. Das von Hans Poelzig entworfene Haus des Rundfunks, wurde 1931 eingeweiht. Die autobahnähnliche Renn- und Versuchsstrecke AVUS wurde 1921 eröffnet. Zwischen 1930 und 1933 führte der "Verein für Raumschiffahrt", zu dem auch der spätere Ingenieur Wernher von Braun gehörte, auf dem Raketenflugplatz Berlin in Tegel erste Versuche mit Flüssigkeitsraketen durch. Grüne Stadträume schuf Erwin Barth mit der Neugestaltung des Klausenerplatzes oder den neuen Anlagen von Lietzenseepark, Volkspark Jungfernheide und Volkspark Rehberge. Um die dicht bebaute Innenstadt entstand ein grüner Parkring. Das neue Strandbad Wannsee wurde 1930 eingeweiht und das Poststadion gebaut. Zur Linderung der Wohnungsnot begann unter dem Stadtbaurat Martin Wagner nach Einführung der Hauszinssteuer der Bau von Großsiedlungen durch gemeinnützige Wohnungsunternehmen, wie beispielsweise die Hufeisensiedlung und Onkel Toms Hütte. Durch dieses Wohnungsbauprogramm entstanden 140.000 neue Wohnungen in Berlin. Der Alexanderplatz wurde ab Ende der 1920er Jahre umgestaltet, das Berolina- und das Alexanderhaus nach Plänen von Peter Behrens entstanden. Den U-Bahnhof unter dem Platz entwarf Alfred Grenander. Bekannte Architekten für die neuartigen Gewerkschaftshäuser waren Max Taut und Erich Mendelsohn. Die kurze Zeit des Aufschwungs endete im Jahr 1929 mit der Weltwirtschaftskrise. Im November dieses Jahres gewann die NSDAP ihre ersten Sitze in der Stadtverordnetenversammlung (5,8 % der Stimmen, 13 Mandate). Die NSDAP schnitt bei Wahlen in Berlin bis 1933 allerdings signifikant schlechter ab als im Reichsdurchschnitt. Wählerhochburgen der Partei waren die Stadtbezirke mit eher bürgerlicher Wohnbevölkerung, in den ausgesprochenen Arbeiterbezirken erzielte sie dagegen bis zuletzt weit unterdurchschnittliche Ergebnisse. Bei der Reichstagswahl im Juli 1932 erhielt die NSDAP in Steglitz 42,1 % und in Zehlendorf 36,3 %, im Wedding aber nur 19,3 % und in Friedrichshain 21,6 % der Stimmen. Am 20. Juli 1932 wurde die preußische Regierung unter Otto Braun in Berlin durch einen Staatsstreich der rechtskonservativen Reichsregierung, den sogenannten „Preußenschlag“, abgesetzt. Am 30. Januar 1933 wurde Hitler, der seit 1931 im Hotel Kaiserhof logierte, zum Reichskanzler ernannt. Schon in der Nacht zum 31. Januar gab es mehrere Tote und Verletzte, als SA-Leute in die als KPD-Hochburg geltende Wallstraße (heute: Zillestraße) in Charlottenburg eindrangen und um sich schossen (das Ereignis steht im Mittelpunkt des Romans "Unsere Straße" von Jan Petersen). Zeit des Nationalsozialismus. a> auf dem Opernplatz am 10. Mai 1933 geplünderte jüdische Geschäfte in der Potsdamer Straße nach den Novemberpogromen 1938 Die Jahre 1932 bis 1935. In den Jahren der Weimarer Republik war das bei der politischen Rechten verhasste „rote Berlin“ eine Wähler- und Mitgliederhochburg von KPD (bei der Reichstagswahl im November 1932 mit 860.837 Stimmen stärkste Partei im Stadtgebiet) und SPD gewesen. Bis 1933 waren alle Versuche des 1926 ernannten NSDAP-Gauleiters Joseph Goebbels, die strukturelle Dominanz der Linksparteien zu brechen, erfolglos geblieben. Das gelang erst durch die im Anschluss an den Reichstagsbrand ausgelöste Terrorwelle, die im Juni 1933 mit der „Köpenicker Blutwoche“ einen lokalen Höhepunkt erreichte. Der seit 1931 amtierende Oberbürgermeister Heinrich Sahm trieb 1933 zusammen mit Julius Lippert, dem zum Staatskommissar ernannten NSDAP-Fraktionschef in der Stadtverordnetenversammlung, die „Säuberung“ der städtischen Körperschaften und Behörden voran und trat noch 1933 in die NSDAP ein. Geschätzt wird, dass in Berlin bis Ende 1933 rund 30.000 Menschen aus politischen Gründen inhaftiert, viele in den über 100 SA-Lokalen und „wilden“ Konzentrationslagern misshandelt, nicht wenige auch getötet wurden. Trotz der massiven Repressivmaßnahmen soll die illegale Berliner Parteiorganisation der KPD aber noch Ende 1934 rund 5.000 aktive Mitglieder gehabt haben. Die Stadt blieb bis 1945 ein Zentrum des – in seiner politischen Reichweite freilich sehr limitierten – organisierten Widerstands gegen die NS-Diktatur. Olympiajahr 1936 bis 1939. Im Jahr 1936 wurden in Berlin die Olympischen Sommerspiele abgehalten. Die Nationalsozialisten nutzten die bereits vor 1933 an Berlin vergebenen Spiele zur Propaganda. Um die Selbstinszenierung als normaler Staat in der internationalen Öffentlichkeit nicht zu gefährden, wurde die ansonsten für jeden wahrnehmbare Diskriminierung und Verfolgung der jüdischen Bevölkerung reduziert. So wurden zum Beispiel die Schilder mit der Aufschrift „Für Juden verboten“ zeitweise entfernt. 1937 folgten dann im Rahmen der 700-Jahr-Feiern Berlins weitere Propagandaveranstaltungen der Nationalsozialisten. In diese Zeit fallen auch die Planungen der Nationalsozialisten, Berlin zur „Welthauptstadt Germania“ auszubauen. Die Pläne des Architekten Albert Speer sahen gigantische Zentralachsen in Berlin vor, an denen Monumentalbauten stehen sollten. Geplant wurde für eine Einwohnerzahl von 8 bis 10 Millionen Menschen, die Stadtgrenze sollte bis zum neuen Autobahnring erweitert werden. Während die meisten Projekte nicht verwirklicht wurden, sind in Berlin noch heute Reste dieser Architektur zu finden. Judenverfolgungen in Berlin. während der Novemberpogrome zerstörtes Gotteshaus der jüdischen Gemeinde in der Fasanenstraße Um 1933 lebten etwa 160.000 Juden in Berlin: ein Drittel aller deutschen Juden, vier Prozent der Bevölkerung der Stadt. Ein Drittel davon waren arme Immigranten aus Osteuropa, die hauptsächlich im Scheunenviertel nahe dem Alexanderplatz lebten. Die Juden wurden von Anfang an vom NS-Regime verfolgt. Im März mussten alle jüdischen Ärzte das Krankenhaus Charité verlassen. In der ersten Aprilwoche inszenierten die Nazimachthaber den sogenannten „Judenboykott“, bei dem die übrige Bevölkerung vom Einkaufen in jüdischen Läden abgehalten werden sollte. Vom 9. bis 10. November 1938 brannten infolge des reichsweit organisierten Pogroms gegen die Juden die Synagogen. Jüdische Geschäfte und Wohnungen wurden demoliert, viele als Juden denunzierte Deutsche wurden „zu ihrem Schutz“ verhaftet. Die Zwangsauswanderung in Verbindung mit Arisierungen (versteckter Form von Enteignung) wurde erneut vorangetrieben. Um 1939 lebten noch rund 75.000 Juden in Berlin. Am 18. Oktober 1941 ging vom Bahnhof Grunewald der erste von insgesamt 63 Transporten mit Juden ins damalige Litzmannstadt ab. Der Holocaust begann. 50.000 Juden wurden in die Konzentrationslager verschleppt, wo die meisten ermordet wurden. Von historischer Bedeutung über Berlin hinaus ist in diesem Zusammenhang auch die 1942 im Ortsteil Wannsee abgehaltene Wannseekonferenz, auf der unter Leitung des Chefs des Reichssicherheitshauptamts Reinhard Heydrich die von den Nazis „Endlösung“ genannte Judenverfolgung zwischen den staatlichen Stellen koordiniert wurde. Nur rund 1.200 Juden überlebten in Berlin die Kriegsphase, indem sie sich – auch mit Hilfe von Judenrettern – versteckten oder untertauchten. 30 Kilometer nordwestlich von Berlin, nahe Oranienburg, befand sich das Konzentrationslager Sachsenhausen, wo hauptsächlich politische Gegner und sowjetische Kriegsgefangene inhaftiert waren. Zehntausende starben dort. Das KZ Sachsenhausen hatte Nebenlager in der Nähe von Industriebetrieben, in denen die Gefangenen arbeiten mussten. Viele dieser Lager befanden sich in Berlin. Experten des Holocaust Memorial Museum ermittelten für Berlin insgesamt rund 3000 NS-Lager und als „Judenhäuser“ bezeichnete Wohnhäuser zur Vorbereitung von Deportationen. Jahre des Zweiten Weltkriegs in Berlin. Am 1. September 1939 begann der Zweite Weltkrieg, von dem Berlin anfangs wenig betroffen war. Die ersten britischen Fliegerangriffe auf Berlin fanden bereits 1940 statt, da sich die Stadt jedoch fast außerhalb der Reichweite der Bomber befand, waren die ersten Schäden noch relativ gering. Auch die mehrmals stattfindenden Angriffe der sowjetischen Luftstreitkräfte auf Berlin verursachten nur geringe Zerstörungen. Mit dem Eintritt der USA in den Krieg nahmen die Schäden jedoch größere Ausmaße an. Während die Briten weiterhin nachts Berlin ansteuerten, flogen die Amerikaner tagsüber, sodass das Bombardement quasi rund um die Uhr stattfand. Allein am 18. März 1945 griffen 1250 amerikanische Bomber die Stadt an. Infolge der Luftangriffe starben schätzungsweise 20.000 Berliner, mehr als 1,5 Millionen wurden obdachlos. Teile der Innenstadt wurden komplett zerstört. Die äußeren Bezirke erlitten geringere Beschädigungen. Im Schnitt waren ein Fünftel (50 Prozent in der Innenstadt) der Berliner Gebäude zerstört. Flug über das zerstörte Berlin, Juli 1945 Auch die Verkehrsinfrastruktur war größtenteils zerstört; die Versorgungslage war bis nach dem Ende des Krieges katastrophal. Insgesamt fielen 450.000 Tonnen Bomben auf Berlin. Ab dem 21. April 1945 eroberten sowjetische und polnische Verbände in der Schlacht um Berlin die Stadt. Hitler tötete sich am 30. April 1945 im Führerbunker unter der Reichskanzlei. Am Morgen des 2. Mai kapitulierte Berlins Kampfkommandant General Weidling, und das Regierungsviertel wurde von der Roten Armee besetzt. Doch unternahmen trotzdem dort und an anderen Stellen eingekesselte Wehrmachts-, SS- und HJ-Einheiten verzweifelte Ausbruchsversuche, gaben sie aber in den Abendstunden auf. In den nächsten Wochen übte der sowjetische Generaloberst Bersarin als Stadtkommandant die Macht in Berlin aus. Kriegsende 1945. Nach dem Kriegsende lag Berlin in Schutt und Asche: 28,5 Quadratkilometer des Stadtgebietes lagen in Trümmern, 600.000 Wohnungen waren total zerstört, 100.000 beschädigt, jedes zweite Kaufhaus war eine Ruine. Seit Kriegsbeginn 1939 hatte die Stadt über 1,5 Millionen Einwohner verloren; neben Kriegstoten, -gefangenen, ermordeten und vertriebenen NS-Opfern sind als größte Gruppe die nicht aus der luftkriegsbedingten Evakuierung zurückgekehrten Berliner zu nennen. Teilung der Stadt. Auf der Konferenz von Jalta vom 2. bis 11. Februar 1945 beschlossen die Alliierten, Deutschland in vier Besatzungszonen und Berlin in vier Sektoren aufzuteilen, von denen jeder von einem der Alliierten, Großbritannien, Frankreich, den USA und der Sowjetunion, kontrolliert wurde. Dazu zogen sich die sowjetischen Streitkräfte im Sommer 1945 aus den Westsektoren zurück, die sie nach der Schlacht um Berlin bis dahin besetzt hatten. Noch im Mai hatte die sowjetische Stadtkommandantur einen ersten Magistrat unter Arthur Werner und eine auf KPD-Mitglieder gestützte Stadtverwaltung eingesetzt. In der Zeit vom 1. bis 4. Juli 1945 trafen die amerikanischen und britischen Besatzungstruppen sowie eine Vorausabteilung des französischen Kontingents in den ihnen zugewiesenen Sektoren ein. Trotz der Sektorenaufteilung wurde Berlin weiter von einer gemeinsamen alliierten Kommandantur verwaltet. Schon bald gab es sich verschärfende politische Konflikte zwischen den Westalliierten und der Sowjetunion. Am 20. Oktober 1946 fand die erste Wahl zur "Stadtverordnetenversammlung von Groß-Berlin" in allen vier Besatzungssektoren gemeinsam statt und endete mit einem deutlichen Sieg der SPD vor CDU und SED. Es folgten zunehmende Auseinandersetzungen in der Verwaltung und in der Stadtverordnetenversammlung. Am 5. Dezember 1948 sollte eine erneute gemeinsame Wahl zur Stadtverordnetenversammlung von Groß-Berlin stattfinden, die jedoch nur in West-Berlin durchgeführt werden konnte, weil die sowjetische Besatzungsmacht sie in ihrem Sektor verboten hatten. Vielmehr hatte die SED-Fraktion am 30. November 1948 eine „Stadtverordnetenversammlung“ unter Teilnahme von hunderten angeblicher Abordnungen der Ost-Berliner Betriebe durchgeführt, auf der der rechtmäßig gewählte Magistrat für abgesetzt erklärt wurde und Friedrich Ebert (der Sohn des ehemaligen Reichspräsidenten) zum Oberbürgermeister „gewählt“ wurde. Berlin-Blockade und Luftbrücke. Im Juni 1948 blockierten sowjetische Truppen sämtliche Straßen- und Schienenverbindungen durch die sowjetische Zone Richtung West-Berlin, in der Hoffnung, wieder die wirtschaftliche Kontrolle über die gesamte Stadt zu erlangen. Der in Ost-Berlin residierende Magistrat von Groß-Berlin verteilte an alle West-Berliner Lebensmittelkarten, die jedoch zumeist nicht in Anspruch genommen wurden. Die Blockade war mehr symbolischer Art und behinderte ausschließlich den Gütertransport aus Westdeutschland. Die West-Berliner jedoch fühlten sich in Anbetracht der politischen Verhältnisse um sie herum stärker dem westdeutschen Wirtschaftsraum zugehörig und verzichteten auf den Warenverkehr mit den östlichen Stadtbezirken und dem Umland. Die Regierung der Vereinigten Staaten reagierte, indem sie die Luftbrücke einrichtete, bei der Nahrung, Heizstoffe und andere Versorgungsgüter in die Stadt eingeflogen wurden. Die Luftbrücke blieb bis September 1949 bestehen, obwohl die Blockade am 12. Mai 1949 aufgehoben wurde. Als Teil des Projektes erweiterten Ingenieure der US-Armee den Flughafen Tempelhof. Da die Piloten gelegentlich Süßigkeiten für Kinder bei der Landung aus dem Fenster warfen, wurden die Flugzeuge von den Berlinern "Rosinenbomber" genannt. Pakete mit Süßigkeiten wurden auch über Ost-Berlin abgeworfen. Das Ziel der Sowjetunion, West-Berlin wirtschaftlich mit seinem Umland zu verzahnen und eine dauerhafte wirtschaftliche Loslösung zu verhindern, misslang gründlich. Mehr noch: Die West-Berliner Bevölkerung fühlte sich nach der Blockade politisch und wirtschaftlich noch stärker mit Westdeutschland verbunden als jemals zuvor. Nach der wirtschaftlichen Teilung war die politische Teilung somit nicht mehr aufzuhalten. Berlin und die beiden deutschen Staaten. Als am 23. Mai 1949 die Bundesrepublik Deutschland in den drei westlichen Besatzungszonen gegründet wurde, listete Artikel 23 des Grundgesetzes auch Groß-Berlin als Bundesland mit auf. Ähnlich verhielt es sich mit der am 7. Oktober 1949 gegründeten DDR. Die damalige Fassung der Verfassung der DDR beschreibt Deutschland als „unteilbare Republik“ in der es nur eine deutsche Staatsangehörigkeit gäbe und deren Hauptstadt Berlin sei. Gemeint war zweifellos das gesamte Groß-Berlin, das nach DDR-Sichtweise auf dem Gebiet der sowjetischen Besatzungszone lag und deren westliche Sektoren nur von den Westalliierten verwaltet wurden. Somit beanspruchten beide neu gegründeten Staaten das gesamte Groß-Berlin, ohne jedoch vor dem 3. Oktober 1990 jemals Verfügungsgewalt über ganz Berlin gehabt zu haben. West-Berlin während der Teilung. Im Jahr 1950 trat in West-Berlin die Verfassung von Berlin (VvB) in Kraft. Nach Art. 2 Abs. 1 VvB war Berlin ein Land der Bundesrepublik Deutschland; dieser Artikel konnte jedoch keine Wirkung entfalten, da er von den in Berlin maßgeblichen Alliierten gemäß Genehmigungsschreiben vom 29. August 1950 zurückgestellt war. Die Bindung West-Berlins an die Bundesrepublik wurde jedoch durch „Übergangs“-Regelungen, die in Art. 87 VvB für die Zeit der alliierten Einschränkungen getroffen wurden, weitgehend gewährleistet, insbesondere durch regelmäßige Übernahme der Bundesgesetze durch das Berliner Abgeordnetenhaus. Am 3. Dezember 1950 folgte die erste Wahl zum Abgeordnetenhaus von Berlin, das seinerseits den Senat von Berlin wählte. Erster Regierende Bürgermeister von Berlin wurde Ernst Reuter. Bis 1961 folgtem ihm Walther Schreiber (CDU), Otto Suhr (SPD), Franz Amrehn (CDU) und Willy Brandt (SPD) Auswirkung des Mauerbaus 1961. Als am 13. August 1961 die ersten Steinblöcke in den frühen Morgenstunden am Potsdamer Platz gelegt wurden, standen amerikanische Truppen mit scharfer Munition bereit, schauten dem Bau der Mauer jedoch nur zu. Zwar wurden die Westalliierten durch Gewährsleute über die Planung „drastischer Maßnahmen“ zur Abriegelung von West-Berlin informiert, vom konkreten Zeitpunkt und Ausmaß der Absperrung gaben sie sich öffentlich überrascht. Da ihre Zugangsrechte nach West-Berlin nicht beschnitten wurden, griffen sie nicht militärisch ein. US-Präsident Kennedy besuchte am 26. Juni 1963 Berlin. Vor dem Rathaus Schöneberg hielt er eine Rede über die Mauer, in der er die historischen Worte sprach: „Ich bin ein Berliner“. Dies bedeutete den West-Berlinern auf ihrer demokratischen Insel inmitten der DDR viel, war jedoch in Anbetracht der amerikanischen Akzeptanz beim Bau der Mauer teilweise Symbolik. Für die Westalliierten und die DDR bedeutete der Mauerbau eine politische und militärische Stabilisierung, der Status quo von West-Berlin wurde im wahrsten Sinne des Wortes zementiert – die Sowjetunion gab ihre im Chruschtschow-Ultimatum noch 1958 formulierte Forderung nach einer entmilitarisierten, „freien“ Stadt West-Berlin auf. Im Jahr 1971 sicherte das Viermächteabkommen über Berlin die Erreichbarkeit West-Berlins und beendete die wirtschaftliche und politische Bedrohung, die mit einer Schließung der Zufahrtsrouten möglich gewesen wäre. Ferner bekräftigten alle vier Mächte die gemeinsame Verantwortung für ganz Berlin und stellten klar, dass West-Berlin kein Bestandteil der Bundesrepublik sei und nicht von ihr regiert werden dürfe. Während die Sowjetunion den Vier-Mächte-Status nur auf West-Berlin bezog, unterstrichen die Westalliierten 1975 in einer Note an die Vereinten Nationen ihre Auffassung vom Viermächte-Status über Gesamt-Berlin. Berlinpolitik. Der Westteil der Stadt wurde von der Bundesrepublik massiv subventioniert, auch um mit dem „Schaufenster des Westens“ propagandistische Wirkung in der DDR zu entfalten. Unternehmen erhielten massive Investitionszuschüsse. Die Berlinzulage (genannt: „Zitterprämie“), ein achtprozentiger Lohnaufschlag, sollte den fortgesetzten Arbeitskräftemangel lindern. Sowohl für Berliner Ehepaare als auch für die Zuzügler wurde ein zinsloses Familiengründungsdarlehen in Höhe von 3000 DM eingeführt, das „abgekindert“ werden konnte. Trotzdem blieb die Bevölkerungsentwicklung West-Berlins von Abwanderung und Überalterung geprägt (siehe auch hier). Landespolitik. Nach Willy Brandt (bis 1966) amtierten als Regierende Bürgermeister Heinrich Albertz, Klaus Schütz, Dietrich Stobbe, Hans-Jochen Vogel (alle SPD). Ab der Wahl zum Abgeordnetenhaus von Berlin 1981 regierten mit Richard von Weizsäcker und Eberhard Diepgen Politiker der CDU. Ab der Abgeordnetenhauswahl 1989 war in dem von Walter Momper (SPD) geleiteten Senat Momper erstmals die Alternative Liste an der Landesregierung beteiligt. Stadtentwicklung. Das Gebiet um den Kurfürstendamm im Westen wurde als neues repräsentatives Zentrum ausgebaut. Mit der Freien Universität Berlin wurde 1948 eine eigene Universität gegründet. Weitere bedeutende Bauprojekte waren unter anderem die anlässlich der Internationalen Bauausstellung "Interbau" 1957 entstandene Mustersiedlung "Südliches Hansaviertel", das nach seinem Architekten benannte Corbusierhaus, die Stadtautobahn, die Berliner Philharmonie, die von Ludwig Mies van der Rohe stammende Neue Nationalgalerie, das Europa-Center-Berlin, das Internationale Congress Centrum (ICC), das neue Gebäude der Deutschen Oper oder die Staatsbibliothek Preußischer Kulturbesitz (heute: Staatsbibliothek zu Berlin, Haus Potsdamer Straße) nach Plänen des Architekten Hans Scharoun. Parallel dazu sind historische Gebäude aufwendig restauriert worden, so beispielsweise der Martin-Gropius-Bau oder anlässlich der 750-Jahr-Feier 1987 der Hamburger Bahnhof. Den Wohnungsbau kennzeichneten seit den 1960er Jahren mehrere Großwohnraumsiedlungen wie die Gropiusstadt in Neukölln, das Märkische Viertel in Reinickendorf oder das Falkenhagener Feld in Spandau. 1960 wurde Werner Düttmann zum Senatsbaudirektor von West-Berlin berufen. Das internationale Filmfestival Berlinale fand 1951 erstmals statt. Seit 1957 war der von Paul Schwebes entworfene Zoo Palast zentrales Wettbewerbskino. Wichtige Infrastrukturprojekte waren u. a. der Ausbau des Flughafens Tegel von 1965 bis 1975, der Ausbau des Flughafens Schönefeld oder die neuen U-Bahn-Linien U9 und U7. Erste Neubauviertel nach dem Zweiten Weltkrieg. Beispiele für frühe Wohnungsbauprojekte der Nachkriegszeit sind in West-Berlin die 1953/54 errichtete Ernst-Reuter-Siedlung im Wedding zwischen Ackerstraße und Gartenstraße und die Otto-Suhr-Siedlung in der Luisenstadt ab 1956. Als Gegenstück zur Stalinallee in Ost-Berlin (s. u.) begann ab 1956 im Rahmen der Interbau (IBA 57) die Errichtung des neuen Hansaviertels (ca. 1.300 Wohnungen). Die erste neue Großsiedlung am Stadtrand entstand ab 1960 auf dem Falkenhagener Feld in Spandau (ca. 8.000 Wohnungen). In Berlin-Buckow-Rudow wurde von 1960 bis 1975 die Gropiusstadt errichtet (rund 17.000 Wohnungen). Der Bau des Märkischen Viertels in Reinickendorf begann 1963 und endete 1974 (ca. 16.000 Wohnungen). Die vierte Großsiedlung West-Berlins war die Thermometersiedlung in Lichterfelde-Süd (1968–1974). Von der „Kahlschlagsanierung“ zur „behutsamen Stadterneuerung“. Mit dem Beschluss des ersten "Stadterneuerungsprogramms" 1963 setzte im Westteil Berlins ein großflächiger Abriss zehntausender Wohnungen der innerstädtischen Quartiere aus dem späten 19. Jahrhundert ein („Mietskasernen“). Diese Gebiete wurden nach Vorstellungen modernen Städtebaus völlig umgestaltet und neu bebaut. Das Viertel um die Brunnenstraße im Wedding wurde zum größten zusammenhängenden Sanierungsgebiet Deutschlands mit rund 17.000 Wohnungen. Das erste Stadterneuerungsprogramm war für einen Zeitraum von 10 bis 15 Jahren angelegt. Diese Praxis des Umgangs mit der Stadt wurde zunehmend kritisiert, und um 1970 gelang es erstmals das Vorderhaus einer Mietskaserne in der Putbusser Straße im Sanierungsgebiet Wedding-Brunnenstraße zu erhalten. Eine Wende brachte das Europäische Jahr des Denkmalschutzes 1975, erstmals gelang es dem Architekten Hardt-Waltherr Hämer am Klausenerplatz in Charlottenburg einen Mietskasernenblock (Block 118) mit innerer Bebauung überwiegend zu erhalten. Das vormals schlechte Ansehen der Arbeiterquartiere der Gründerzeit änderte sich langsam. Josef Paul Kleihues entwarf für den Vinetaplatz im Sanierungsgebiet Wedding-Brunnenstraße den ersten Baublock West-Berlins, der wieder an die Traditionen der Stadt des 19. Jahrhunderts anknüpfte, der Block 270 wurde im Rahmen des ersten Stadterneuerungsprogramms von 1975 bis 1977 errichtet. Mitte der 1970er Jahre hatten sich die politischen und ökonomischen Rahmenbedingungen geändert. Das Vier-Mächte-Abkommen von 1971 bestätigte die Teilung Berlins, Planungen die sich noch auf die ganze Stadt bezogen wurden aufgegeben. Die Ölkrise von 1973 leitete u. a. die langsame Abkehr von der autogerechten Stadt ein, sodass 1976 der Aufbau eines umfassenden Stadtautobahnsystems aufgegeben wurde. 1974 endete der Bau von Großsiedlungen am Stadtrand. Im selben Jahr wurde noch ein zweites Stadterneuerungsprogramm gestartet, das einen höheren Anteil modernisierter Altbauwohnungen vorsah. Beispielsweise sollten bei der Sanierung des Bereiches um den Chamissoplatz in Kreuzberg Platz, Straßen und Teile der alten Höfe erhalten bleiben. Allerdings wurden weiterhin tausende Wohnungen aus der Gründerzeit abgerissen und durch städtebauliche Großformen ersetzt, wie beispielsweise das "Neue Kreuzberger Zentrum" am Kottbusser Tor (1969–1974), die "Autobahnüberbauung Schlangenbader Straße" in Wilmersdorf (1976–1980) oder das "Pallasseum" in Schöneberg (1977). Der gesellschaftliche Protest gegen die „Kahlschlagsanierungen“ durch Hausbesetzungen erreichte zwischen 1979 und 1982 seinen Höhepunkt. Hauptkritikpunkte waren vor allem die Zerstörung sozialer Gefüge und die Vernichtung von billigem Wohnraum. Die städtebauliche Wende hin zur Wiedergewinnung der Innenstadt als Wohnort leitete 1978 der Beschluss zur Durchführung einer Internationalen Bauausstellung, der IBA 1984–1987 ein. Der „Kahlschlagpolitik“ des Neubaus und dem modernen Städtebau wurden die Leitbilder der „behutsamen Stadterneuerung“ und der „kritischen Rekonstruktion“ gegenübergestellt. 1982 entstanden die 12 Grundsätze der Stadterneuerung, die nach 1990 auch im Prenzlauer Berg Anwendung fanden und bis heute die Stadterneuerungsprozesse in Berlin prägen. Der Schwerpunkt der IBA lag in Kreuzberg, die „kritische Rekonstruktion“ der historischen Stadträume in der südlichen Friedrichstadt wurde nach 1990 in der nördlichen Friedrichstadt im Bezirk Mitte fortgesetzt. Die Themen der IBA waren u. a. ökologisches Bauen, Bürgerbeteiligung, neue Wohnformen, Umnutzung von Gebäuden, Mischung von Wohnen und Arbeiten oder die fußgängerfreundliche Umgestaltung von Straßen. West-Berlin in den „68ern“. Ab 1967 wurde West-Berlin Zentrum der Studentenrevolten, die von der Freien Universität ausging, und die ihr Zentrum in Charlottenburg hatte. Ein weiterer Brennpunkt war die Zentrale der Springer-Verlage in der damaligen Kreuzberger Kochstraße (heute: Rudi-Dutschke-Straße). Es ging hier um einen gesellschaftlichen Konflikt, der die Bevölkerung spaltete. Studenten und Polizei standen sich oft gewalttätig gegenüber. Ein Moment, der die Studentenbewegung aufrüttelte und aktivierte, war der 2. Juni 1967, als der pazifistische Student Benno Ohnesorg in der Nähe der Deutschen Oper bei einer Demonstration gegen den Besuch des Schahs von Persien von dem Polizisten Karl-Heinz Kurras erschossen wurde. Terroranschläge. Ab Anfang der 1970er Jahre entwickelte sich in West-Berlin eine Terroristenszene. Neben Personen aus der Rote Armee Fraktion war in West-Berlin auch die Bewegung 2. Juni aktiv, die sich nach dem Todesdatum von Benno Ohnesorg benannt hatte. Am 10. November 1974 wurde der Kammergerichtspräsident Günter von Drenkmann ermordet und 1975, kurz vor der Wahl zum Abgeordnetenhaus von Berlin 1975, der Vorsitzende der Berliner CDU, Peter Lorenz, von Terroristen entführt. Hausbesetzerszene. Als Reaktion auf den Wohnungsmangel bei gleichzeitigem spekulationsbedingtem Leerstand entwickelte sich im östlichen Teil Kreuzbergs, dem alten Postbezirk SO 36, Ende der 1970er Jahre eine vergleichsweise große und aktive Hausbesetzerbewegung. Im Juli 1981 erreichte die Anzahl der besetzten Häuser in Berlin mit 165 ihren Höhepunkt. Von diesen Besetzungen wurden 78 bis zum November 1984 durch den Abschluss von Miet-, Kauf- oder Pachtverträgen legalisiert, die Restlichen wurden geräumt. Bereits im Dezember 1980 war es infolge einer versuchten Besetzung zu schweren Zusammenstößen zwischen Hausbesetzern und der Polizei gekommen. (siehe: "Schlacht am Fraenkelufer") Bei einer Demonstration gegen die Räumung von acht besetzten Häusern starb in der Potsdamer Straße der Demonstrant und Hausbesetzer Klaus-Jürgen Rattay, der infolge eines Polizeieinsatzes unter einen Bus der BVG geraten war. 750-Jahr-Feier. Zwischen 1982 und 1986 wurden in Vorbereitung auf die umfangreichen 750-Jahr-Feiern von 1987 in beiden Teilen der Stadt zahlreiche Verschönerungen vorgenommen. Beispielsweise wurden in West-Berlin der Breitscheidplatz und der Rathenauplatz neu gestaltet. An Pfingsten fand vom 6. bis 8. Juni 1987 an drei aufeinanderfolgenden Tagen das Concert for Berlin statt. Das Konzertgelände lag beim Reichstag nahe der Mauer und es kam auf deren Ostseite zu Zusammenstößen zwischen jugendlichen Zuhörern der DDR und Volkspolizei. Die Tour de France startete zu Ehren des Jubiläums mit einer Einzelzeitfahretappe auf dem Kurfürstendamm. Die Jubiläumsfeier wurde durch Briefmarkenausgaben (Deutsche Bundespost Berlin), aber auch im Osten (siehe unten) gewürdigt. Im Westen erschien ein Block mit vier Marken sowie eine Einzelmarke. Juni 1945 bis um 1955. Umfangreiche Aufräumarbeiten der zerstörten Innenstadtbereiche waren erforderlich. Dazu setzten Baubetriebe Trümmerbahnen ein, Frauen und Männer mussten tatkräftig mit anpacken. Der Lehrbetrieb der Humboldt-Universität wurde wieder aufgenommen, Straßenbahn-, S-Bahn- und U-Bahnnetze und Wagen instand gesetzt. Ebenfalls kam die Wasser- und Energieversorgung vor allem durch Reparaturen des Leitungsnetzes und der vorhandenen Technik wieder in Gang. Durch die Lagerung des Trümmerschutts entstanden im Stadtbild künstliche Erhebungen wie der "Mont Klamott" im Volkspark Friedrichshain oder die "Biesdorfer Höhe". Im Ortsteil Berlin-Karlshorst des Bezirks Lichtenberg quartierte sich gleich ab Mai 1945 die sowjetische Stadtverwaltung ein, wofür Bewohner des auserkorenen Bereichs östlich der Treskowallee kurzfristig ausquartiert wurden. Die Lebensmittelversorgung erfolgte mit Lebensmittelkarten, ebenfalls gab es "Kohlenkarten". Für dringende Neuanschaffungen von Kleidung wurden von den Bezirksämtern "Bezugsscheine" ausgegeben. Dort, wo bereits große Flächen freigeräumt waren, wurden mit den wiedergewonnenen Materialien neue Wohnhäuser errichtet, die bedeutendste Baustelle war die in Stalinallee umbenannte vormalige Große Frankfurter Straße. Aufstand vom 17. Juni 1953. Am 17. Juni 1953 begann eine Demonstration von anfänglich 60 Bauarbeitern, die später als Volksaufstand bekannt wurde. Am Beginn war es nur Protest über eine kürzlich von der DDR-Regierung beschlossene Arbeitsnormerhöhung. Ihren Ausgang nahm die Demonstration an der im Bau befindlichen Stalinallee (heute: Karl-Marx-Allee). Als insbesondere der RIAS von der Demonstration berichtete, solidarisierten sich viele Ost-Berliner mit dem Protestzug und reihten sich ein. Unterstützung erhielten die Ost-Berliner, die zum Potsdamer Platz zogen, auch von Berlinern aus den Westbezirken. Auch in zahlreichen Städten der DDR kam es infolge der Aufstände in Ost-Berlin zu Arbeitsniederlegungen und Demonstrationen. Als der Aufstand außer Kontrolle zu geraten drohte, rief die Regierung der DDR sowjetische Truppen zu Hilfe. In der Folge kam es zu Straßenkämpfen, bei denen auf kaum bewaffnete Arbeiter scharf geschossen wurde. Während der Niederschlagung des Aufstandes wurden mindestens 153 Personen getötet. Die Beteiligung von West-Berliner Arbeitern, die Berichterstattung des RIAS, Angriffe auf Volkspolizisten und das Niederbrennen des Columbushauses nutzte die DDR-Regierung, um diesen Aufstand als konterrevolutionär und von West-Berlin gesteuert zu bezeichnen. Die unbeliebten Normerhöhungen wurden aber dennoch zurückgenommen und Kampfgruppen aus politisch besonders linientreuen Bürgern gegründet, um zukünftige Aufstände ohne sowjetische Soldaten niederschlagen zu können. Mauerbau. Am 13. August 1961 begann die ostdeutsche Regierung mit dem Bau der Berliner Mauer, die die Trennung Berlins endgültig festigte. Der Plan zum Bau der Mauer in Berlin war ein Staatsgeheimnis der DDR-Regierung. Die Mauer sollte die Emigration der ostdeutschen Bevölkerung in den Westen verhindern, da die DDR wirtschaftlich und personell auszubluten drohte (sogenannte „Abstimmung mit den Füßen“). Auch in Ost-Berlin wurden rund 50 Prozent des städtischen Haushalts aus der Staatskasse der DDR finanziert. Im Osten begann in den 1970er Jahren ein groß angelegtes Wohnungsbauprogramm, in dem ganze Stadtteile neu angelegt wurden, nachdem schon in den 1960er Jahren insbesondere am Alexanderplatz repräsentative Neubauten errichtet worden waren (Kongresshalle, Haus des Lehrers) einschließlich des Fernsehturms. Der Palast der Republik wurde 1976 eröffnet. 1984 wurde Schinkels Schauspielhaus als Konzerthaus Berlin völlig renoviert wieder eröffnet. Der Tierpark in Friedrichsfelde wurde 1955 eingeweiht. Ein wichtiges Infrastrukturprojekt bildete der Ausbau des Flughafens Schönefeld Nach Kriegsende waren (Gesamt-Berliner Zahlen) von den rund 1,5 Millionen Wohnungen der Vorkriegszeit über ein Drittel zerstört und nicht mehr verfügbar. Hatte die Beseitigung der enormen Trümmermengen und die Herrichtung nur schwach beschädigter Gebäude anfangs Vorrang, folgten mit der Errichtung der Laubenganghäuser an der Karl-Marx-Allee von Hans Scharoun und der benachbarten fünf Wohnzeilen zwischen Graudenzer Straße und Hildegard-Jadamowitz-Straße in Friedrichshain 1949–1950 die ersten neuen Wohnhäuser. Weiteres Beispiele für frühe Wohnungsbauprojekte der Nachkriegszeit ist das Hochhaus an der Weberwiese (1952). Der Straßenzug des Prestigeprojektes Stalinallee wurde zwischen 1952 und 1956 fertig gestellt (ca. 2.500 Wohnungen). Um 1955 wurde das DDR-Bauwesen nach überwiegend ökonomischen Kriterien neu ausgerichtet, der industrielle, typisierte Wohnungsbau begann. Größere Baustellen waren der Wohnkomplex Friedrichshain ab 1956, der zweite Bauabschnitt der Karl-Marx-Allee ab 1958 (ca. 4.500 Wohnungen) oder das Wohngebiet Fennpfuhl ab 1961. In der Luisenstadt begann 1958 der Bau des Neanderviertels (ab 1966 Heinrich-Heine-Viertel) mit Q3A-Typenbauten. „Lösung der Wohnungsfrage als soziales Problem“. Mit dem Regierungswechsel 1971 in der DDR wurde auf dem VIII. Parteitag der SED die Ausrichtung der künftigen Wirtschaftspolitik festgelegt "(Einheit von Wirtschafts- und Sozialpolitik)" und ein langfristiges Wohnungsbauprogramm eingeleitet. Das Politbüro des ZK der SED beschloss 1976 den Neubau von rund 200.000 Wohnungen bis 1990 in Ost-Berlin. Das Ziel sollte durch die Errichtung von Großsiedlungen am Stadtrand, Baulückenschluss in der Innenstadt als auch durch Stadterneuerungsmaßnahmen erreicht werden. Bereits 1973 war mit der Sanierung der historischen Bausubstanz am Arnimplatz begonnen worden, die auch für die West-Berliner Entwicklungen bedeutsam war. Ebenfalls im Prenzlauer Berg wurden die Häuser um den Arkonaplatz von Mitte der 1970er bis Mitte der 1980er Jahre restauriert. Diese beispielhaften Projekte führten auch in Ost-Berlin zur Anerkennung des Wertes der historischen Bausubstanz, das 1979 erlassene Abrissverbot wurde in der Praxis allerdings häufig umgangen. Diese aufwendigen Stadterneuerungsmaßnahmen blieben letztlich Einzelfälle, der überwiegende Altbaubestand verfiel weiter. Die Investitionen flossen überwiegend in die großen Neubaugebiete. Von 1975 bis 1987 wurden in Marzahn rund 62.000 Wohnungen errichtet und ein neuer Stadtbezirk gegründet. Marzahn war das größte Wohnungsbauprojekt der DDR. Ab 1979 folgte der Aufbau von Hohenschönhausen, wo bis 1989 über 40.000 Wohnungen entstanden. In Hellersdorf wurden zwischen 1981 und Ende 1989 rund 34.000 Wohnungen gebaut. In der ersten Hälfte der 1980er Jahre entstand am Stadtrand in Köpenick das Salvador-Allende-Viertel II, eine weitere Großsiedlung in Altglienicke (Treptow) war Mitte der 1980er Jahre in Planung. Im Vorfeld der 750-Jahr-Feier sollten zusätzlich 20.000 Neubauwohnungen entstehen und 10.000 Wohnungen modernisiert werden. Bekanntere Beispiele sind die Restaurierungen der Husemannstraße oder der Sophienstraße sowie von Teilen der Spandauer Vorstadt (dort wurden historisierende Plattenbauten errichtet). Der Aufbau des Nikolaiviertels als „neue“ Altstadt kann als Variante der „kritischen Rekonstruktion“ der historischen Stadt gesehen werden. Von 1983 bis 1986 entstand im Prenzlauer Berg das Prestigeprojekt Ernst-Thälmann-Park mit ca. 1.300 Wohnungen. Im Innenstadtbereich wurden S- und U-Bahnhöfe saniert und z. T. auch aufwendig künstlerisch ausgestaltet, wie der U-Bahnhof Klosterstraße als „erfahrbares Museum“. Die Jubiläumsfeier wurde auch im Osten Berlins (Deutsche Post) durch mehrere Briefmarken gewürdigt, die unter dem Namen 750 Jahre Berlin zusammengefasst wurden. Eine mit dem West-Berliner Vorbild vergleichbare Hausbesetzerbewegung entwickelte sich erst im Rahmen der Wende 1989 in den Ost-Berliner Stadtteilen Friedrichshain und Prenzlauer Berg. Diese war insbesondere durch das passive Verhalten der Ost-Berliner Volkspolizei begünstigt. Dies änderte sich allerdings nachdem im Juli 1990 der Ost-Berliner Magistrat unter den Einfluss des Senats von West-Berlin geraten war. In der Folge kam es zu den schweren Straßenschlachten bei der Räumung der Mainzer Straße. Viele der Besetzungen wurden ähnlich wie bei der ersten Besetzungswelle legalisiert. Die letzten besetzen Häuser, die im Rahmen der „Berliner Linie“ toleriert worden waren, ließ der Berliner Innensenator Jörg Schönbohm zwischen 1996 und 1998 räumen. Mauerfall und Wiedervereinigung. Symbolische Grabkreuze erinnern an die Opfer der Berliner Mauer, Januar 1990 Zentren der Oppositionsbewegung im Ostteil Berlins während der 1980er Jahre waren beispielsweise Gethsemanekirche, Samariterkirche und Zionskirche. Am 17. Januar 1988 protestierten Bürgerrechtler auf der offiziellen Liebknecht-Luxemburg-Demonstration. Im Herbst 1989 kam es zur Wende und friedlichen Revolution in der DDR. Am 4. November 1989 fand mit der Alexanderplatz-Demonstration die größte nicht staatlich gelenkte Demonstration in der Geschichte der DDR statt. Bei den Feierlichkeiten zum 40. Jahrestag der DDR in Ost-Berlin im Oktober 1989 hielt Ehrengast Michail Gorbatschow eine Rede, in der er andeutete, dass er eine restriktive Politik der DDR-Regierung in Bezug auf die Flüchtlinge, die zu diesem Zeitpunkt über die Grenzen von Ungarn und der Tschechoslowakei flüchteten, nicht zulassen würde. Am 9. November ließen die Grenztruppen zunächst am Übergang Bornholmer Straße, später auch an anderen Grenzübergängen nach einer missverstandenen Äußerung des Politbüromitgliedes Günter Schabowski auf einer Pressekonferenz die dort wartende Menge passieren. Viele Ost-Berliner fuhren noch in der Nacht nach West-Berlin. Am Brandenburger Tor erklommen Menschen die Mauer, es herrschte Volksfeststimmung. Die Reisefreiheit wurde nicht mehr zurückgenommen und die Mauer wurde in der Folgezeit abgerissen, wobei viele Berliner als sogenannte „Mauerspechte“ mit Hammer und Meißel Teile der Mauer als Souvenirs abschlugen. Der Ost-Berliner Oberbürgermeister Tino Schwierzina und der West-Berliner Regierende Bürgermeister Walter Momper arbeiteten fortan in enger Absprache, um die große Menge an Aufgaben, die die bevorstehende Wiedervereinigung der Stadthälften aufwarf, in Angriff zu nehmen. Das Bürgermeistergespann wurde scherzhaft in den Medien als „Schwierzomper“ oder „Mompzina“ verballhornt, die beiden Stadtregierungen Senat (West) und Magistrat (Ost) wurden von Walter Momper bald als „Magi-Senat“ tituliert. Der Einigungsvertrag erklärte Berlin mit der Wiedervereinigung am 3. Oktober 1990 zur Hauptstadt Deutschlands. Mit der Zustimmung zum Einigungsvertrag verzichteten die Alliierten auf ihre Kontrolle über Berlin, wodurch der umstrittene rechtliche Status Berlins geklärt und damit die Berlin-Frage gelöst war. Am 2. Dezember 1990 fanden die ersten Wahlen zum Abgeordnetenhaus des wiedervereinigten Berlins statt. Der Sitz von Bundestag und Bundesregierung blieb allerdings zunächst noch in Bonn. Erst nach einer kontroversen – auch von der Öffentlichkeit geführten – Debatte beschloss der Bundestag am 20. Juni 1991, dass die Hauptstadt Berlin auch Parlaments- und Regierungssitz sein solle (siehe: Hauptstadtbeschluss). Als erstes Verfassungsorgan verlegte zum 1. Januar 1994 der damalige Bundespräsident Richard von Weizsäcker seinen Dienstsitz nach Berlin. Am 7. September 1999 nahm der Bundestag und am 29. September 2000 der Bundesrat ihre Arbeiten in Berlin auf. Stadtgeschichte seit den 1990er Jahren. Nach dem Mauerfall stand Berlin vor der Herausforderung die beiden eigenständigen Teilstädte wieder zu einer Gesamtstadt zusammenzuführen und den wirtschaftlichen Strukturwandel zu bewältigen. Ein Drittel aller Erwerbstätigen in Ost-Berlin waren im Staatssektor beschäftigt, in West-Berlin arbeiteten ein Viertel aller Erwerbstätigen im öffentlichen Dienst, während dagegen die Dienstleistungen des Wirtschaftssektors nur schwach entwickelt waren. Berlin war 1990 gemessen an der Zahl der Beschäftigten die größte Industriestadt Deutschlands. In Ost-Berlin hatte die Industriebeschäftigung einen Anteil von 25 %. Die krisenhafte Deindustrialisierung der Region in den folgenden Jahren und der Abbau der Staatsbeschäftigung führte zu einem drastischen Anstieg der Arbeitslosigkeit. Der Dienstleistungssektor entwickelte sich langsamer als erhofft, der Aufbau neuer High-Tech-Industrien, wie in Adlershof, konnte nur mit langfristiger Perspektive begonnen werden. Anfänglich optimistische Annahmen über das Wachstum Berlins sowie steuerliche Anreize für Immobilieninvestitionen befeuerten einen Bauboom bei Bürogebäuden und im Wohnungsbau. Mitte der 1990er Jahre wurden jährlich 20.000 Wohnungen fertiggestellt. Der Senat plante in einem neuen Wohnungsbauprogramm mehrere Großprojekte am Stadtrand, wie Karow-Nord, Französisch-Buchholz, Altglienicke, Rudow, Staaken. Für den Bezirk Hellersdorf wurde mit der „Hellen Mitte“ ein neues Stadtteilzentrum errichtet. Weitere wichtige Bauvorhaben waren die Entwicklungsgebiete Altes Schlachthofgelände, die Wasserstädte Rummelsburger Bucht und Oberhavel sowie Biesdorf-Süd. Die Infrastruktur Ost-Berlins musste zu großen Teilen erneuert und mit West-Berlin zusammengefügt werden. Die Züge der S-Bahn können seit 2002 wieder auf der geschlossenen Ringbahn fahren. Der Schienenverkehr wurde nach dem Pilzkonzept neu geordnet, und im Jahr 2006 wurde der neue Hauptbahnhof eröffnet. Als Bewerberstadt für die Olympischen Spiele im Jahr 2000 hat Berlin einige neue Sportstätten, wie das Velodrom oder die Max-Schmeling-Halle errichtet. Zahlreiche städtebauliche Maßnahmen, wie der Wiederaufbau des Pariser Platzes oder die Schaffung des neuen Parlaments- und Regierungsviertels, wurden begonnen. Die größte Baustelle Berlins war damals der Potsdamer Platz. Um die Neubebauung der Berliner Innenstadt entzündete sich der "Berliner Architekturstreit". Neue Freiräume, wie der Mauerpark wurden angelegt. Im Sommer 1995 wurde das Reichstagsgebäude verhüllt. Die Fusion der Bundesländer Berlin und Brandenburg scheiterte 1996 in einer Volksabstimmung am Veto der Brandenburgischen Wähler. Der Entfall der meisten staatlichen Subventionen infolge der Deutschen Teilung und seit 1997 zusätzlich der Berliner Bankenskandal brachten das Land Berlin in enorme finanzielle und fiskalische Schwierigkeiten, die dessen Handlungsfähigkeit einschränken. Der Bankenskandal führte 2001 zu einem Misstrauensvotum gegen den Regierenden Bürgermeister Eberhard Diepgen. Nachfolger Klaus Wowereit regierte Berlin anschließend über 13 Jahre lang in unterschiedlichen Koalitionen. Seit der Abgeordnetenhauswahl 2011 regiert eine Koalition aus SPD und CDU, die seit 2014 von Michael Müller geführt wird. Berlin klagte 2003 beim Bundesverfassungsgericht wegen einer „extremen Haushaltsnotlage“, um eine Bundesergänzungszuweisung von 35 Milliarden Euro zum Schuldenabbau zu erhalten. Diese Klage wurde 2006 zurückgewiesen. Die defizitäre Lage Berlins (Zitat Klaus Wowereit:) konnte durch Wachstum der Wirtschaft, besonders des Tourismus, und der Bevölkerung in der Folgezeit abgemildert werden; seit 2013 macht Berlin nun gar keine neuen Schulden mehr. Am 28. Oktober 2012 feierte die Stadt offiziell ihr 775-jähriges Jubiläum. Einzelnachweise. Berlin Großer Lauschangriff. Als Großer Lauschangriff werden in Deutschland, Österreich und der Schweiz umgangssprachlich akustische und optische Überwachungsmaßnahmen der Strafverfolgungsbehörden und Nachrichtendienste bezeichnet. Deutschland. Die Grundlagen für den „Großen Lauschangriff“ wurden am 16. Januar 1998 vom Bundestag und am 6. März 1998 vom Bundesrat durch Einfügung der Absätze 3 bis 6 des Grundgesetz (GG), wodurch die sogenannte "akustische Wohnraumüberwachung" zu Zwecken der Strafverfolgung ermöglicht wurde (Abs. 3), gelegt. Die Ausführungsbestimmungen zu dem Gesetz mussten nach einer Entscheidung des Bundesverfassungsgerichts am 3. März 2004 geändert werden. Zwar erklärte das Gericht die Grundgesetzänderung für grundsätzlich verfassungskonform, die Ausführungsbestimmungen wurden jedoch als verfassungswidrig eingestuft. Mit dem „Gesetz zur Umsetzung des Urteils des Bundesverfassungsgerichts zur akustischen Wohnraumüberwachung“ (), das der Bundestag am 12. Mai 2005 mit den Stimmen der SPD und der Grünen verabschiedete, erhielt der Große Lauschangriff seine bis heute gültige Form. Die Gesetzesänderung war in Politik und Öffentlichkeit sehr umstritten. Eine von Journalisten initiierte Kampagne gegen die geplante Überwachung ihrer Berufsgruppe führte zu einem plötzlichen Umschwung in der Medienberichterstattung, sodass kurz vor Verabschiedung des Gesetzes diese Berufsgruppe einfach gesetzlich wieder in den Kreis der vom „Großen Lauschangriff“ ausgenommenen Gruppen aufgenommen wurde. Vor allem Juristen ging der Eingriff in das Grundrecht auf Unverletzlichkeit der Wohnung zu weit. Von Kritikern wurde die Befürchtung geäußert, die Grundgesetzänderung sei der Beginn der Einrichtung eines Überwachungsstaates. Schon vor 1998 hatte die Bundesregierung versucht, den „Großen Lauschangriff“ einzuführen. Meist scheiterte dies an der damaligen Bundesjustizministerin Sabine Leutheusser-Schnarrenberger (FDP). 1995 führte die FDP dazu eine Urabstimmung durch, bei der sich eine Mehrheit von 63,6 % für den „Großen Lauschangriff“ aussprach. Als Reaktion darauf trat Sabine Leutheusser-Schnarrenberger von ihrem Amt als Bundesministerin zurück. Begrifflichkeit. Im Rahmen des „Großen Lauschangriffs“ sind Polizei und Staatsanwaltschaft befugt, auch Wohnungen zu überwachen. Dies ist jedoch nur möglich, wenn zuvor auf Antrag der Staatsanwaltschaft diese Überwachung durch die Staatsschutzkammer, in Fällen des Vorliegens von Gefahr im Verzug auch durch den Vorsitzenden der Staatsschutzkammer, angeordnet wird (i.V.m. Abs. 1 StPO). Vom „Großen Lauschangriff“ ist der „Kleine Lauschangriff“ zu unterscheiden. Der „Kleine Lauschangriff“ bezieht sich nur auf Gespräche außerhalb von Wohnungen, also an öffentlichen Örtlichkeiten sowie auch in allgemein zugänglichen Büro- und Geschäftsräumen. Wohnungen in diesem Sinne sind die Bereiche, die der Berechtigte der allgemeinen Zugänglichkeit entzogen und zur Stätte seines Lebens und Wirkens gemacht hat. Der Begriff „Lauschangriff“ taucht erstmals 1968 in der von Erika Fuchs übersetzten Donald-Duck-Geschichte „Irrungen und Wirrungen mit einem Werwolf“ (DD 117) auf. Er verbreitete sich nicht etwa über Kritiker solcher Maßnahmen, sondern über das nachrichtendienstliche und ministerielle Umfeld, als diese Maßnahme in den 70er Jahren erstmals genutzt wurde. (→ Lauschaffäre Traube). Gleichwohl kann gleichbedeutend der Terminus „akustische Wohnraumüberwachung“ verwendet werden. Eingriffsumfang. Die Gesetzesänderung ermöglicht den Einsatz der akustischen Wohnraumüberwachung für den Bereich der Strafverfolgung; außerdem wurde die bereits in der alten Fassung des GG enthaltene Möglichkeit der Wohnraumüberwachung zu Zwecken der Gefahrenabwehr modifiziert (Absätze 4 bis 6). Die einfachgesetzlichen Umsetzung erfolgte durch das "Gesetz zur Verbesserung der Bekämpfung der Organisierten Kriminalität", durch das die maßgeblichen, und StPO eingefügt bzw. geändert wurden. Die Voraussetzungen der akustischen Wohnraumüberwachung sind in Abs. 1 StPO geregelt. Zusätzliche Voraussetzungen gelten nach Abs. 3 der Vorschrift, wenn die Überwachung in Räumen Dritter durchgeführt werden soll. Nach der Rechtsprechung des Bundesverfassungsgerichts muss die Überwachung in Situationen unterbleiben, in denen Anhaltspunkte bestehen, dass die Menschenwürde (GG) durch die Maßnahme verletzt wird. Demzufolge bestimmt Abs. 4 StPO, dass Äußerungen, die dem Kernbereich privater Lebensgestaltung zuzurechnen sind, nicht erfasst werden dürfen. Im Rahmen einer sogenannten „negativen Kernbereichsprognose“ ist dies vor Anordnung der Maßnahme schon vom zuständigen Gericht zu prüfen. Führt dennoch die Überwachung unerwartet zur Erhebung von absolut geschützten Informationen, muss sie abgebrochen werden und die Aufzeichnungen sind unverzüglich zu löschen (Abs. 5 Satz 1 und 2 StPO). Erkenntnisse über solche Äußerungen dürfen nicht verwendet werden (Abs. 5 Satz 3 StPO). Das Risiko, solche Daten zu erfassen, besteht typischerweise beim Abhören von Gesprächen mit engsten Familienangehörigen, sonstigen engsten Vertrauten und Personen, zu denen ein besonderes Vertrauensverhältnis besteht. Bei diesem Personenkreis dürfen laut Bundesverfassungsgericht Überwachungsmaßnahmen nur ergriffen werden, wenn konkrete Anhaltspunkte dafür bestehen, dass die Gesprächsinhalte zwischen dem Beschuldigten und diesen Personen keinen absoluten Schutz erfordern, so bei einer Tatbeteiligung der das Gespräch führenden Personen. Ein im Juli 2004 vom Bundesjustizministerium vorgelegter Referentenentwurf zur Änderung des Gesetzes sah vor, dass diese Ausnahmeregelungen auf Strafverteidiger und Rechtsanwälte beschränkt werden sollten. Daneben sollte der „Große Lauschangriff“, den Maßgaben des Bundesverfassungsgerichts folgend, nur noch bei schweren Straftaten wie Mord und Totschlag Anwendung finden. Gegen diesen Entwurf wurde von Interessenvertretern der vom Schutzentzug bedrohten Berufsgruppen, von nahezu allen deutschen Datenschutzbeauftragten, von Teilen der Presse und von den Grünen massive Kritik geäußert, da der Entwurf wesentliche Aspekte des Urteils des Bundesverfassungsgerichts (s. weiter unten) ignorierte oder gar ins Gegenteil verkehrte. Bundesjustizministerin Brigitte Zypries zog den Entwurf daraufhin bereits nach wenigen Tagen wieder zurück. Im Mai 2005 verabschiedeten SPD und Grüne im Bundestag schließlich das „Gesetz zur Umsetzung des Urteils des Bundesverfassungsgerichts zur akustischen Wohnraumüberwachung“. Das Gesetz enthält kein absolutes Überwachungsverbot für Gespräche im privaten Bereich, sondern statuiert vielmehr eine allgemeine Eingriffsbefugnis und nennt die Bedingungen, wann abgehört werden darf. Nicht übernommen wurde das in der Entscheidung des Bundesverfassungsgerichts vom 3. März 2004 (siehe weiter unten) aufgestellte Erfordernis, dass die Verwendung einer Aufnahme einer gerichtlichen Überprüfung bedarf. Grundlinien der Entscheidung. Am 3. März 2004 entschied das Bundesverfassungsgericht auf die Verfassungsbeschwerde unter anderem von Sabine Leutheusser-Schnarrenberger, Gerhart Baum und Burkhard Hirsch hin, dass große Teile des "Gesetzes zur Bekämpfung der organisierten Kriminalität" gegen die Menschenwürde verstoßen und deshalb verfassungswidrig sind. Während die Änderung von GG durch das Gericht nicht beanstandet wurde, erklärten die Richter zahlreiche Ausführungsbestimmungen der Strafprozessordnung für nicht verfassungskonform. Insbesondere dürfe die Überwachung nur noch bei dem Verdacht auf besonders schwere Straftaten angeordnet werden. Von der besonderen Schwere einer Straftat im Sinne des Abs. 3 GG ist nur auszugehen, wenn sie der Gesetzgeber mit einer höheren Höchststrafe als fünf Jahre Freiheitsstrafe bewehrt hat. Gespräche zwischen engen Angehörigen dürfen nur abgehört werden, wenn alle Beteiligten verdächtig sind und das Gespräch strafrechtlich relevanten Inhalt hat. Sind diese Voraussetzungen nicht erfüllt, sind entsprechende Aufzeichnungen nicht nur als Beweismittel wertlos, sondern dürfen gar nicht erst vorgenommen werden. Durch diese Norm wird die bisherige Praxis automatisierter Mitschnitte als nicht verfassungsgemäß verworfen. Um Verfassungsmäßigkeit im Vollzug der Überwachung herzustellen, muss nunmehr die Überwachung aktiv durch einen Beamten verfolgt werden, der erforderlichenfalls die Überwachung abbricht, sobald die vom Gericht genannten Voraussetzungen nicht mehr vorliegen. Die Beibehaltung des geänderten GG impliziert, dass der Große Lauschangriff als äußerstes Mittel der Strafverfolgung als verfassungskonform anzusehen ist. Konsequenterweise billigt das Gericht, entgegen der ursprünglichen Intention des GG, dem Bürger keinen vor staatlichem Zugriff geschützten Raum zu. Stattdessen begrenzt das Urteil das Zugriffsrecht des Staates auf die Privatsphäre auf solche Situationen, aus denen für die Gemeinschaft erhebliche Gefahren erwachsen können. Die absolute Norm der geschützten Privatsphäre wird somit durch einen relativierenden Schutz persönlicher Gesprächsinhalte ersetzt. Diese sind jedoch auch nur dann geschützt, wenn sie keinen (nach Meinung der Polizei) „strafrechtlich relevanten Inhalt“ haben. Der Schutz der innersten Privatsphäre wird damit letztendlich ins Ermessen der Polizei verlegt. Das Urteil musste bis zum 30. Juni 2005 in einem neuen Gesetz umgesetzt worden sein. Solange der Gesetzgeber nicht gehandelt hat, muss die Polizei das Urteil des Bundesverfassungsgerichts umsetzen. „Zur Unantastbarkeit der Menschenwürde gehört die Anerkennung eines absolut geschützten Kernbereichs privater Lebensgestaltung. Jede Erhebung von Informationen aus diesem Bereich muss abgebrochen werden. Jede Verwertung ist ausgeschlossen. (Urteil zum Großen Lauschangriff vom 3. März 2004)“ Minderheitsvotum. Den Richterinnen Renate Jaeger und Christine Hohmann-Dennhardt ging das Urteil nicht weit genug. Über die entsprechenden Regelungen der Strafprozessordnung hinaus sei auch die Grundgesetzänderung verfassungswidrig, heißt es in ihrem abweichenden Votum vom 3. März 2004. Sie berufen sich dabei auf die sogenannte „Ewigkeitsklausel“ des Grundgesetzes, wonach Änderungen an den Verfassungsgrundsätzen der und GG mit dem Ziel von deren Einschränkung grundsätzlich unzulässig sind. Insbesondere wurde an der Grundgesetzänderung kritisiert, dass sie zwar eine Reihe von materiell- und verfahrensrechtlichen Hürden gegen das Belauschen von Privatwohnungen aufstellt, jedoch keine, die das Belauschen von „Gesprächssituationen höchstpersönlicher Art“ zwingend verböte. Die Mehrheit der Richter begegnete diesem Einwand mit dem Argument, im Wege einer verfassungskonformen Auslegung – insbesondere unter Beachtung des Abs. 1 GG und des Grundsatzes der Verhältnismäßigkeit – erlaube GG nur solche einfachgesetzlichen Regelungen und darauf gestützte Maßnahmen, die Abs. 3 GG i.V.m. Abs. 1 GG unangetastet ließen. Die Funktion des eigentlich sachlich einschlägigen Schrankengebäudes des Abs. 3 GG wird dadurch freilich implizit in Frage gestellt. Daneben argumentieren die Richterinnen, dass angesichts der inzwischen technisch möglichen Totalüberwachung dem in GG formulierten Schutz der Privatsphäre ein viel größerer Stellenwert beizumessen sei, als es sich die Väter des Grundgesetzes einst überhaupt haben vorstellen können. Einschätzung in den Medien. In der Presse wurde die Entscheidung überwiegend als eine seit Langem überfällige Rückbesinnung auf die Kernelemente des Rechtsstaats begrüßt. Nach einer langen Reihe immer weiter gehender Aushöhlungen des Rechtsstaates durch die Politik unter dem Vorwand der Verbrechensbekämpfung sei durch die Richter deutlich gemacht worden, dass es definitive Grenzen der Relativierung der Grundrechte durch Strafgesetze gebe. Die erheblichen Erschwernisse, die das Gericht dem Vollzug der Überwachung auferlegt, werden als eine De-facto-Aushebelung des Großen Lauschangriffs betrachtet. Die Würdigung der tatsächlichen Durchführung des Großen Lauschangriffs liefert Gegnern wie Befürwortern der Regelung gleichermaßen Argumente: Die Tatsache, dass in fünf Jahren 119 Überwachungsmaßnahmen durchgeführt wurden, wird von den Befürwortern der Regelung als Beweis dafür angesehen, dass von einer flächendeckenden Bespitzelung keine Rede sein könne; umgekehrt argumentieren die Kritiker, die relativ niedrige Zahl der Überwachungen zeige, dass der Nutzen der Regelung weit geringer sei als von den Befürwortern behauptet und von ihrer grundrechtlichen Fragwürdigkeit bei Weitem überwogen werde. Im Vorfeld der Entscheidung des Bundesverfassungsgerichts waren im Lager der Unionsparteien bereits Überlegungen angestellt worden, die akustische Wohnraumüberwachung durch eine optische Wohnraumüberwachung („Spähangriff“) zu ergänzen. Dazu stehen für das BSI, das BKA und den Verfassungsschutz zur Erprobung Terahertz/Millimeterwellensysteme von Thyssen Krupp bereit. Zu Evaluationszwecken wurden nach dem Ground-Range-Radar-Prinzip Entfernungen bis zu 850 km realisiert. Diese Technologie wird zurzeit per Klage verboten, dennoch ist der BMI nicht bereit, auf einen Einsatz zu verzichten. Nach übereinstimmender Meinung der Presse wird diesen Überlegungen nach Bekanntgabe der Entscheidung zum "Großen Lauschangriff" keine Chance auf Umsetzung mehr eingeräumt. Aus dieser weitgehenden Übereinstimmung über den Geist des Richterspruchs erklärt sich das große öffentliche Echo, auf das die Vorlage des Referentenentwurfs im Juli 2004 stieß: Zahlreiche der im Entwurf vorgesehenen Änderungen waren dem Geist des Richterspruchs diametral entgegengesetzt und verschärfen die vom Gericht kritisierten Punkte sogar noch. Allgemein herrscht in der Presse die Einschätzung, dass auf dem Entwurf zwar „Zypries draufstehe“, aber „Schily drin“ sei, wobei auch gerne auf die Zeit verwiesen wird, die Brigitte Zypries als Staatssekretärin Otto Schilys im Bundesinnenministerium verbracht hat. Nutzungshäufigkeit. 2005 ordneten Gerichte in sieben Verfahren eine akustische Wohnraumüberwachung an, 2006 in drei Fällen, 2007 in zehn Fällen und 2008 in sieben Fällen. Vor 2005 lag die Zahl bei rund 30 Genehmigungen pro Jahr. Den Rückgang hat größtenteils das oben erwähnte Urteil des Bundesverfassungsgerichts zur Eingrenzung des Großen Lauschangriffs verursacht. Lauschangriff in Österreich. In Österreich steht Lauschangriff für die „optische und akustische Überwachung von Personen unter Verwendung technischer Mittel“. Diese neue Form der Beweisgewinnung ist in Österreich seit 1997 in StPO geregelt. Überwacht werden nichtöffentliches Verhalten bzw. Äußerungen von Personen in Form von Bild- und Tonübertragung und -aufzeichnung. Im Normalfall muss die Ratskammer (ein aus drei Richtern bestehender Senat) zustimmen. Kontrolliert und geprüft wird die Anordnung und Durchführung des Lauschangriffes durch die unabhängigen Rechtsschutzbeauftragten. Anfangs wurde der Lauschangriff nur unter Probe eingeführt, da es erhebliche Bedenken gegen Eingriffe in die Privatsphäre gab. Doch mittlerweile ist diese Form der Überwachung zur Verbrechensbekämpfung bei allen großen politischen Parteien in Österreich unumstritten. Erstmals angewandt wurde er im Mai 1999 im Zuge der „Operation Spring“. Lauschangriffe werden in Österreich in der Regel von der Sondereinheit für Observation durchgeführt. Der Große Lauschangriff gewann wieder an Aufmerksamkeit im Wiener Neustädter Tierschützerprozess, bei dem das Schicksal 13 unschuldiger Tierrechtler verhandelt wurde. Im Ermittlungsverfahren kam der Große Lauschangriff zum Einsatz ohne das Vorliegen einer Straftat und ist somit sehr umstritten. Gur-Sprachen. Die Gur-Sprachen oder voltaischen Sprachen bilden eine Untereinheit des Nord-Volta-Kongo-Zweigs der Niger-Kongo-Sprachen. Die etwa 75 Gur-Sprachen werden in einem zusammenhängenden Territorium, das vom Südosten Malis über die nördliche Elfenbeinküste, Ghana, Togo und Benin bis nach Burkina Faso und Nigeria reicht, von insgesamt etwa 15 Millionen Menschen gesprochen. Bezeichnung. Der Name „Gur“ wurde 1895 von Gottlob Krause vorgeschlagen, da einige Sprachen dieser Gruppe die erste Silbe "Gur-" aufweisen (z.B. Gurma, Gurunsi, Gurenne). Die Bezeichnung „Voltaisch“ nimmt Bezug auf den Volta-Fluss, sie wird vor allem in der französischen Fachliteratur verwendet ("langues voltaïques"). Bedeutende Gur-Sprachen. Die mit Abstand bedeutendste Gur-Sprache ist das Mòoré, die Sprache der Mossi (mit 7 Mio. Sprechern einschließlich der Zweitsprecher). Sie ist die Hauptverkehrssprache von Burkina Faso und wird auch in Mali, Togo, Benin und der Elfenbeinküste gesprochen. Andere bedeutende Gur-Sprachen mit mindestens 500.000 Sprechern sind Dagaari, Frafra, Dagbani, Kusaal, Gurma, Konkomba, Tem (Verkehrssprache in Togo), Kabiyé, Lobiri und Bariba. Die größeren Sprachen sind in der folgenden Klassifikation aufgeführt. Klassifikation der Gur-Sprachen. Die genetische Einheit der Kerngruppe „Zentral-Gur“ ist seit langem unbestritten, die Zugehörigkeit einzelner Sprachen außerhalb dieses Kerns nach wie vor ungeklärt. Früher wurden auch das Dogon und die Senufo-Sprachen zu den Gur-Sprache gerechnet (z.B. Bendor-Samuel 1971, De Wolf 1981), Dogon wird heute eher als isolierter Primärzweig des Niger-Kongo, Senufo als ein Parallelzweig des Gur innerhalb des Nord-Volta-Kongo angesehen. Die genetische Nähe der Gur-Sprachen zu den Kwa - und Benue-Kongo-Sprachen gab den Anlass, innerhalb des Niger-Kongo die Einheit Volta-Kongo einzuführen. "Klassifikation der Gur-Sprachen (nach Manesssy 1975)" Folgende kleinere Einzelsprachen werden mit Vorbehalt auch dem Gur zugerechnet: Teen-Loma, Tiefo, Tusia, Viemo, Wara-Natioro. Sprachliche Charakteristik. Fast alle Gur-Sprachen haben ein Nominalklassensystem, die meisten zeigen Konkordanz. Durchschnittlich gibt es 11 Nominalklassen, die durch Suffixe markiert werden, einige Sprachen (z.B. Tem) besitzen noch Klassenpräfixe bei häufig vorkommenden Substantiven. Die Wortstellung im Satz ist SVO, in der Regel werden Postpositionen verwendet, nur „mit“ ist in vielen Gur-Sprachen eine Präposition. Genitivattribute und Possessivpronomina stehen vor dem Nomen, das sie näher bestimmen, Adjektivattribute, Demonstrativa und Numerale folgen ihrem Nomen, wobei nicht immer Konkordanz herrscht. Einige Adjektive haben unabhängige Klassenpräfixe für Singular und Plural, die nicht in Konkordanz mit dem Nomen stehen. Die meisten Gur-Sprachen sind Tonsprachen mit zwei bis drei Tonhöhen, das Bariba besitzt sogar 6 differenzierte bedeutungsrelevante Tonvarianten. Ein Beispiel für eine Gur-Sprache ohne bedeutungsunterscheidende Tonhöhen ist Koromfe. Gelber Zwerg. Ein Gelber Zwerg ist ein Stern, der auf der Hauptreihe steht und mit der Sonne in Masse sowie in Größe vergleichbar ist. Die Hauptreihe macht fast 90 Prozent aller Sterne aus und verläuft im Hertzsprung-Russell-Diagramm diagonal von der oberen Mitte nach rechts unten zu den roten, kleinen Sternen. Die Sonne selbst gehört zur Gruppe der Gelben Zwerge, die aber – im Gegensatz zu Begriffen wie Weißer Zwerg oder Roter Riese – kein feststehender Begriff ist. Man nimmt mit diesem Namen nur Bezug auf die relativ geringe Größe dieser „Durchschnittssterne“ (im Vergleich z. B. zu Roten Riesen) und auf die gelbliche Farbe. Gelbe Zwerge weisen mit Massen von 0,8 bis 1,1 Sonnenmassen Oberflächentemperaturen von etwa 5300 K bis 6.000 K auf und entsprechen der Spektralklasse G der Leuchtkraftklasse V. Die meisten der Gelben Zwergsterne gehören der Sternpopulation I an. Weblinks. Gelber Zwerg Gemini-Programm. Titan II-Rakete beim Start von Gemini 9 Das Gemini-Programm war nach dem Mercury-Programm das zweite bemannte Raumfahrtprogramm der Vereinigten Staaten. Ziel des Gemini-Programms war das Entwickeln von Verfahrensweisen und Technologien für das Apollo-Programm. In seinem Rahmen fanden 1965 und 1966 zehn bemannte Raumflüge statt, bei denen Astronauten unter anderem die ersten amerikanischen Weltraumausstiege durchführten. Die Planung. Gemini wurde aus der Not geboren, wobei es der NASA möglich war, hieraus eine Tugend zu machen. Nach Einstellung der Mercury-Flüge würde, das war relativ früh klar, eine zeitliche Lücke von drei oder gar vier Jahren bis zum Beginn der Apollo-Missionen klaffen – wertvolle Jahre, die man dringend benötigte, um die erforderlichen Technologien, z. B. Kopplungsmechanismen, Lebenserhaltungssystem, EVA-Anzüge etc., zu erproben. Aus diesem Grund war ursprünglich geplant, das bestehende Mercury-System zu einem zwei Mann fassenden Raumschiff, genannt Mercury Mark II, zu erweitern. Der Vorteil hätte darin gelegen, durch Rückgriff auf vorhandene Technik Entwicklungskosten zu sparen und die Zeit bis zum Beginn des bemannten Apollo-Flugprogramms sinnvoll überbrücken zu können. Die wesentlichen Veränderungen hätten im Einbau eines zweiten Sitzes, der Montage einer leistungsfähigen Manövriereinheit und dem Einsatz einer bereits existierenden Oberstufe als Docking-Attrappe bestanden. Zur Vereinfachung der Handhabung plante man außerdem eine modularisierte Inneneinrichtung, die einen Austausch oder das Hinzufügen von Komponenten vereinfacht und Mercury Mark II zu einer leistungsfähigen Plattform für bemannte Raumflüge gemacht hätte. "Gemini" steht im Lateinischen für das Sternbild Zwillinge, womit der Name auf das zweisitzige Raumschiff und die Rendezvous-Manöver Bezug nimmt. Außerdem sind die mythologischen Zwillinge Castor und Pollux die Götter der Reisenden. Offiziell erhielt das Programm seinen Namen am 3. Januar 1962, nachdem im Dezember 1961 um Vorschläge gebeten worden war. Der Name "Gemini" wurde von zwei Personen vorgeschlagen. Die Astronauten. Zur Unterstützung der bereits ausgebildeten Mercury-Astronauten entschloss sich die NASA am 18. April 1962, fünf bis zehn neue Astronauten zu rekrutieren, worauf 253 Bewerbungen eingingen. Am 17. September 1962 wurde die Gruppe 2, bestehend aus neun Astronauten, der Öffentlichkeit vorgestellt. Dies waren Neil Armstrong, Frank Borman, Charles Conrad, James Lovell, James McDivitt, Elliott See, Thomas Stafford, Edward White und John Young. Die Auswahl der dritten Astronautengruppe begann am 5. Juni 1963 mit einer weiteren Ausschreibung. Die NASA stellte die 14 erfolgreichen Bewerber am 18. Oktober 1963 vor: Edwin Aldrin, William Anders, Charles Bassett, Alan Bean, Eugene Cernan, Roger Chaffee, Michael Collins, Walter Cunningham, Donn Eisele, Theodore Freeman, Richard Gordon, Russell L. Schweickart, David Scott und Clifton Williams. Damit stieg die Zahl der aktiven Astronauten für die Programme Gemini und Apollo auf 27, da die Mercury-Astronauten Glenn, Carpenter und Slayton aus verschiedenen Gründen für das Gemini-Programm nicht zur Verfügung standen. Theodore Freeman starb am 31. Oktober 1964 bei einem Flugzeugunglück. Elliot See und Charles Bassett, die als Besatzung für Gemini 9 vorgesehen waren, kamen am 28. Februar 1966 ebenfalls bei einem Flugzeugabsturz ums Leben. Virgil Grissom, Edward White und Roger Chaffee starben am 27. Januar 1967 bei der Apollo-1-Katastrophe, Clifton Williams verunglückte am 5. Oktober 1967. Bemannte Missionen. Mit der Landung von Gemini 12 am 15. November 1966 und der offiziellen Schließung des Gemini-Büros am 1. Februar 1967 endete das Gemini-Programm. Gemini-Raumschiff. Die Landekapsel des Gemini-Raumschiffs war 5,8 Meter lang und hatte einen Durchmesser von drei Metern. Die Luken konnten während des Aufenthalts im Weltraum geöffnet und geschlossen werden, so dass Aktivitäten außerhalb des Raumschiffs möglich waren. Ein spezielles Kopplungsmodul war für die Andockmanöver vorgesehen. Die Masse der Landekapsel betrug ca. 3.800 kg. Erstmals wurde bei einem Raumschiff eine Polymerelektrolytbrennstoffzelle als primäre Energieversorgung eingesetzt. Nicht wiederaufladbare Batterien waren nur für den Wiedereintritt und für Notfälle vorgesehen. Erstmals wurde auch ein Bordcomputer, der Gemini Digital Computer, zur Unterstützung der Besatzung bei Berechnungen eingesetzt. Der Computer aus 5 Platinen mit 510 Modulen hatte einen Speicher von nur 4096 Befehlsworten von jeweils 39 Bit Länge. Da sich dieser als zu klein erwies, wurde er ab Gemini 8 durch ein Magnetbandlaufwerk ergänzt, welches die Speicherkapazität versiebenfachte. Seriennummern der Raketen. Gemini 6 während des Rendezvous mit Gemini 7 Wie die Mercury-Redstone- und Mercury-Atlas-Raketen vor ihnen wurden auch die Gemini-Titan-Raketen von der NASA über die United States Air Force geordert und waren eigentlich Raketen, die für militärische Einsätze gedacht waren. Die Air Force war für den Startkomplex 19 auf der Cape Canaveral Air Force Station verantwortlich und bereitete alle Gemini-Starts vor und führte sie aus. Daher trugen die erste und zweite Stufe auch Seriennummern der US-Air Force. Sie waren auf jeweils gegenüberliegenden Seiten am unteren Ende der Stufe angebracht. Da die Raketen im Jahr 1962 bestellt worden waren, sollte eine Seriennummer eigentlich der Vorlage "62-12XXX" folgen. Auf den Stufen der Titan II war aber nur "12XXX" vermerkt. Gemini-Raumanzug und Astronaut Maneuvering Unit (AMU). siehe Gemini-Raumanzug und Astronaut Maneuvering Unit Ergebnisse. Nach dem Mercury-Programm, welches nach den ersten Erfolgen der Sowjetunion die prinzipielle Möglichkeit bemannter Weltraumflüge ebenfalls demonstrierte, wurde mit Gemini ein großer Fortschritt erzielt, auch um die für einen erfolgreichen Mondflug nötigen Manöver zu testen: Rendezvous und Kopplung von Raumschiffen, Außenbordeinsätze, Bahnänderungen, sowie die Zusammenarbeit der Bodenstation mit den Piloten. Konzepte, die die NASA allesamt vorher im Weltall so noch nicht erprobt hatte. Gemini war somit ein überaus erfolgreiches Programm, welches auch bewies, dass es möglich war, schwere Havarien wie im Fall von Gemini 8 zu beherrschen. Es wurde ein Grundstein für die Apollo-Mondmissionen gelegt. Im Jahr 1967 gab es dann aber zu Beginn des Apollo-Programms mit dem Verlust dreier Menschenleben bei Apollo 1 einen schweren Rückschlag. Eine ähnlich schwere Katastrophe ereignete sich im selben Jahr beim sowjetischen Sojus-Programm mit Sojus 1. Die Erfahrungen aus dem Gemini-Programm haben aber letztendlich maßgeblich zur ersten erfolgreichen bemannten Mondlandung von Apollo 11 beigetragen. Gewürzvanille. Die Gewürzvanille – Aussprache:; schweizerisch und süddeutsch  – ("Vanilla planifolia") oder Echte Vanille ist eine Orchideenpflanze. Der Name stammt über das französische "vanille" vom spanischen "vainilla" (‚kleine Hülse oder Schote‘, zu lat. "vagina"). Gewürzvanille wird im Handel unter den Herkunftsbezeichnungen Bourbon-Vanille (von den Inseln Madagaskar und Reunion [ehemals Bourbon]), mexikanische Vanille und Vanille aus Tahiti angeboten (vergleiche Tahiti-Vanille). Die Pflanze besitzt grün-gelbliche Blüten und bringt Samenkapseln hervor, aus denen das Gewürz Vanille hergestellt wird. Beschreibung. Die Gewürzvanille ist eine immergrüne Kletterpflanze, der spärlich verzweigte Spross erreicht Längen von 10–15 m. Die dunkelgrüne Sprossachse ist im Querschnitt rund und meist etwa 1, seltener bis 2 cm dick. Die Länge der Internodien ist recht variabel und beträgt 4–10 cm, gelegentlich mehr. Die nicht oder nur sehr kurz gestielten Blätter sind länglich oder länglich-oval geformt, an der Basis abgerundet, am Ende spitz oder mit lang ausgezogener Spitze. Die Blattlänge beträgt 8–25 cm, die Breite 2–8 cm. Jedem Blatt gegenüber entspringt eine Luftwurzel, die zuerst im Querschnitt rund ist, sich bei Kontakt jedoch flach und fest an eine Unterlage heften kann. Die Luftwurzel verfügen - wie bei vielen anderen epiphytischen Orchideen - über ein Velamen radicum, mit dem sie Wasser und darin gelöste Nährstoffe aufnehmen, speichern und in tiefer gelegen Schichten weiterleiten können Der Blütenstand entspringt den Blattachseln im oberen Bereich der Pflanze, sehr selten sitzt er endständig am Trieb. Die Blütenstandsachse ist im Querschnitt leicht kantig und misst 0,4–1 cm im Durchmesser. Sie wird 5–8 cm lang, ist leicht gebogen und trägt 6–15, gelegentlich auch 20–30 Blüten. Jede Blüte steht in der Achsel eines kleinen länglichen bis ovalen Tragblattes. Die Tragblätter werden 0,5–1,5 cm lang und 0,7 cm breit. Die duftenden, gelblich-grünen Blüten sind von wachsartigem Aussehen. Innerhalb eines Blütenstandes blühen sie nacheinander auf, wobei eine einzelne Blüte nur etwa acht Stunden geöffnet ist, bevor sie verwelkt. Der Fruchtknoten ist etwas gebogen, 4–7 cm lang bei 0,3 bis 0,5 cm Durchmesser; im Querschnitt ist er fast rund. Die äußeren Blütenblätter (Sepalen) weisen auch bei geöffneter Blüte nach vorne, sie sind länglich bis leicht spatelförmig, die Enden sind stumpf und nach außen gebogen, die Länge beträgt 4–7 cm bei 1–1,5 cm Breite. Die seitlichen Petalen gleichen den Sepalen, sie sind etwas kleiner und nicht so dick. Auf ihrer Außenseite zeichnet sich die Mittelrippe als erhabener Kiel ab. Die Lippe wird 4–5 cm lang und 1,5–3 cm breit. Besonders im vorderen Bereich ist sie dunkler und klarer gelb als die übrigen Blütenblätter. An der Basis ist sie für ein Stück mit der Säule verwachsen, auch weiter vorn sind die Seiten der Lippe nach oben geschlagen und umhüllen die Säule, die Spitze ist ausgebreitet oder nach unten umgeschlagen. Der vordere Rand der Lippe ist leicht gewellt. Längs der Lippe laufen mehrere Reihen warziger Papillen, die in der Mitte am längsten sind. Ob es sich diese Papillen ein Futtergewebe darstellen oder nur zur Verstärkung der Schauwirkung dienen, ist bisher unklar. Mittig auf der Lippe sitzt ein nach hinten gerichtetes Haarbüschel. Die Säule wird 3–5 cm lang, nach vorne leicht keulenförmig verdickt, auf der Unterseite behaart. Die Kapselfrucht (umgangssprachlich „Vanilleschote“ genannt) wird 10–25 cm lang bei 0,8–1,5 cm Durchmesser, sie ist nicht gebogen. Bei der Reife springt sie entlang zweier Schlitze auf und setzt zahlreiche glänzende, dunkelbraune bis schwarze Samen frei. Giftigkeit. Die Frucht der Gewürzvanille ist nur bei ständigem Umgang schwach giftig, wirkt aber hautreizend und allergen. 1,5–3 % Vanillin (Bourbonvanille 3,2–3,7 %), Vanillinsäure, Vanillylalkohol, Protocatechualdehyd, Protocatechusäure. Das Vanillearoma beruht neben dem Vanillingehalt auf dem Vorkommen zahlreicher Begleitstoffe. Bei Arbeitern, die mit dem Sortieren und Verpacken von Vanille beschäftigt sind, treten Hautausschläge, Kopfschmerzen und Schlaflosigkeit auf. Allergische und irritative Kontaktdermatiden sind im Englischen unter der Bezeichnung „vanillism“ bekannt. Sie treten in der Regel berufsbedingt, d. h. bei jenen Personen auf, die Vanillefrüchte zu ernten und zu verpacken haben. Der Genuss von vanillehaltigen Speisen (auch Vanille-Eis) führt bei Allergikern gelegentlich zu urtikariellen Erscheinungen und Gesichtsschwellungen. Die für die Vanille-Allergie verantwortlichen Kontaktallergene sind bis heute unbekannt. Allem Anschein nach sind weder Vanillin noch von diesem abgeleitete oder mit diesem nah verwandte Verbindungen wie zum Beispiel Vanillylalkohol, Ethylvanillin, Zimtsäure, Isoeugenol die Ursache. Verbreitung. Ursprung der Gewürzvanille ist Mexiko und Mittelamerika. Vor allem wegen des aromatischen Inhaltsstoffes Vanillin in den nach der Fermentation schwarzen Kapseln war sie schon bei den Ureinwohnern Mexikos, den Azteken, unter dem nahuatl-aztekischen Namen "tlilxochitl" (= schwarze Blume) als Gewürz bekannt. Die spanischen Eroberer brachten die Vanille nach Europa. Da sie nur in Mexiko wuchs, hatten die Spanier lange Zeit das Monopol auf Vanille. Heute wird sie in tropischen Gebieten rund um die Erde angebaut, wobei vor allem Madagaskar und Réunion als wichtigste Anbauregionen zu nennen sind. Vanilleanbau. Die Vanillepflanze aus der Nähe Die Vanille rankt sich oft an Bäumen im charakteristischen „Zick-Zack“-Muster hoch. Die Blüte der Vanille wird auf kommerziellen Plantagen per Hand bestäubt. Der kommerzielle Anbau der Vanille erfolgt fast ausschließlich zur Gewinnung des Gewürzes Vanille. Versuche, die Vanille außerhalb Mexikos anzupflanzen und zu züchten, scheiterten lange Zeit, da sie nur durch ganz bestimmte, ausschließlich in Mexiko und Zentralamerika vorkommende, Bienen- und Kolibriarten bestäubt werden kann. In anderen Ländern, wo diese natürlichen Pollenüberträger nicht vorkommen, muss der Mensch deren Funktion übernehmen. In Plantagen wird immer händisch bestäubt, da hierdurch der prozentuale Anteil an den entstehenden Vanilleschoten erhöht werden kann. Erst 1837 gelang es dem belgischen Botaniker Charles Morren, den Fortpflanzungsmechanismus der Vanille aufzuklären und eine künstliche Bestäubung in einem Gewächshaus durchzuführen. Fast zur gleichen Zeit, im Jahr 1841, glückte dem Plantagensklaven Edmond Albius ebenfalls eine künstliche Bestäubung, als Lohn soll er später seine Freiheit zurückerhalten haben. Bei der arbeitsaufwändigen künstlichen Bestäubung mit z. B. einem Stachel pflanzlicher Herkunft (Kaktus, Organenbaum, Bambus, etc.) schafft ein geübter Plantagenarbeiter am Tag etwa 1000 bis 1500 Blüten. Die Insel Madagaskar liefert 80 % des weltweiten Bedarfs. Bis zu 2000 Tonnen Schoten der Gewürzvanille werden hier pro Jahr geerntet. Die Ernte und die Verarbeitung sind aufwendig. Die Früchte müssen blanchiert werden, wochenlang in der Sonne trocknen und anschließend in Kisten ausreifen, bevor sie ihr charakteristisches Aroma bekommen. Die Bourbon-Vanille hat ihren Namen vom langjährigen Hauptlieferanten von Vanille, der Insel Réunion im Indischen Ozean, die bis zur Französischen Revolution und danach wieder von 1810 bis zur Februarrevolution 1848 "Île Bourbon" hieß. Heute sind die Hauptanbaugebiete Madagaskar (der Norden Madagaskars liefert über 50 % der Weltproduktion), die Komoren und an dritter Stelle Réunion; Mexiko liefert nur noch etwa 10 % der Vanilleproduktion. Weitere Anbaugebiete sind Mauritius, Indonesien (Java), die Seychellen, Tahiti und Sansibar. Die Anteile an der Weltproduktion schwanken klimabedingt (Zyklone in Madagaskar) sowie durch Qualitäts- und Preisschwankungen teilweise stark. Zu den weltgrößten Abnehmern zählen Coca-Cola und Pepsi-Cola, die jeweils etwa 40 Tonnen abnehmen. Preisentwicklung. Der Marktpreis von Vanille unterliegt seit Jahrzehnten starken Schwankungen. Er stieg drastisch Ende der 70er Jahre infolge eines Taifuns. Mitte der 80er Jahre löste sich das seit 1930 bestehende Kartell auf, das die Vanillepreise und -verteilung steuerte. Der Marktpreis sank auf fast 20 US-Dollar pro Kilogramm. Der Taifun Huddah verwüstete im Jahr 2000 die Anbaugebiete. Im Zusammenhang mit politischen Instabilitäten stieg der Vanillepreis bis zum Jahre 2004 stark an, um dann 2005 erneut auf etwa 40 US-Dollar pro Kilogramm zu sinken. Gravitation. a>n, die sich unter dem Einfluss der Gravitation der jeweils anderen verformen a> fallen lässt, dass alle Körper unabhängig von ihrer Masse gleich schnell fallen. Die Gravitation (von für „Schwere“), auch Massenanziehung, Schwerkraft oder Gravitationskraft, ist eine der vier Grundkräfte der Physik. Sie äußert sich in der gegenseitigen Anziehung von Massen. Sie nimmt mit zunehmender Entfernung der Massen ab, besitzt aber unbegrenzte Reichweite. Anders als elektrische oder magnetische Kräfte lässt sie sich nicht abschirmen. Auf der Erde bewirkt die Gravitation, dass alle Körper nach unten fallen, sofern sie nicht durch andere Kräfte daran gehindert werden. Im Sonnensystem bestimmt die Gravitation die Bahnen der Planeten, Monde, Satelliten und Kometen und im Kosmos die Bildung von Sternen und Galaxien sowie dessen Entwicklung im Großen. Im Rahmen der klassischen Physik wird die Gravitation mit dem newtonschen Gravitationsgesetz beschrieben, d. h. als eine instantan durch den leeren Raum wirkende Fernwirkungskraft. Ein grundlegend anderes Verständnis der Gravitation ergibt sich aus der allgemeinen Relativitätstheorie nach Albert Einstein. Hierbei wirkt die Gravitation nicht in Form einer Kraft auf die Körper, sondern durch eine Krümmung der vierdimensionalen Raumzeit, wobei die Bahnen der Körper, auf die keine weiteren Kräfte wirken, einer kürzesten Linie, d. h. einer Geodäte, entsprechen. Geschichtlicher Überblick. Der griechische Philosoph Aristoteles beschrieb in der Antike die Schwere im Rahmen seiner Kosmologie, in der alle sublunaren Elemente (Erde, Wasser, Luft, Feuer) und die daraus bestehenden Körper zum Mittelpunkt der Welt streben. Diese Vorstellung war lange das physikalische Hauptargument für das geozentrische Weltbild. Altindische Autoren führten den freien Fall auf eine Kraft zurück, die proportional zur Masse eines Objektes ist und in Richtung des Erdmittelpunkts wirkt. Der persische Astronom Muhammad ibn Musa erklärte im 9. Jahrhundert die Bewegungen der Himmelskörper durch eine Anziehungskraft. Al-Biruni übersetzte im 11. Jahrhundert die Werke der indischen Autoren ins Arabische und ins Persische. Sein Zeitgenosse Alhazen formulierte eine Theorie der Massenanziehung. Der Perser Al-Khazini stellte im 12. Jahrhundert die Vermutung auf, dass die Stärke der Erdanziehung abhängig vom Abstand zum Erdmittelpunkt ist, und unterschied zwischen Masse, Gewicht und Kraft. Ebenfalls Anfang des 17. Jahrhunderts beschrieb Galileo Galilei den freien Fall eines Körpers als gleichmäßig beschleunigte Bewegung, die unabhängig von seiner Masse oder sonstigen Beschaffenheit ist. Der englische Gelehrte Robert Hooke erklärte um 1670 die Wirkung der Gravitation mit Hilfe von „Gravitationstrichtern“ und erklärte, dass die Gravitation eine Eigenschaft aller massebehafteten Körper sei und umso größer, je näher sich zwei Körper zueinander befänden. Die Theorie, dass die Schwerkraft umgekehrt proportional zum Quadrat des Abstands vom Massezentrum ist, taucht 1680 in einem Brief Hookes an seinen Landsmann Isaac Newton erstmals auf. Newton beschrieb in seiner "Principia" als erster die Gravitation mithilfe einer mathematischen Formel. Dieses von ihm formulierte Gravitationsgesetz ist eine der Grundgleichungen der klassischen Mechanik, der ersten "physikalischen" Theorie, die sich in der Astronomie anwenden ließ. Sie bestätigt die keplerschen Gesetze der Planetenbewegung und lieferte damit ein grundlegendes Verständnis der Dynamik des Sonnensystems mit der Möglichkeit präziser Vorhersagen der Bewegung von Planeten, Monden und Kometen. Danach ist die Gravitation eine Kraft zwischen zwei Massepunkten, die zur Gravitationsbeschleunigung führt. Die nach der newtonschen Gleichung berechneten Werte stimmten lange Zeit mit den astronomischen Beobachtungen und Ergebnissen irdischer Experimente vollkommen überein. Die erste Diskrepanz wurde Mitte des 19. Jahrhunderts an der Periheldrehung der Bahn des Merkur beobachtet. Zur Erklärung der Gravitation im Sinne eines Prozessgeschehens wurden seit der Zeit Newtons bis zur Entwicklung der allgemeinen Relativitätstheorie im frühen 20. Jahrhundert eine Reihe mechanischer respektive kinetischer Erklärungen vorgeschlagen (siehe Mechanische Erklärungen der Gravitation). Eine der bekanntesten ist die von Fatio und Le Sage entwickelte Theorie der Le-Sage-Gravitation. Diese argumentiert, dass die Gravitationsanziehung zweier Körper auf der Abschirmung des aus Richtung des jeweils anderen wirkenden Drucks beruht. Im Zusammenhang hiermit stehen die Theorien eines Äthers als Vermittler von Wechselwirkungen (anstelle einer Fernwirkung), zu diesen Wechselwirkungen gehört auch der Elektromagnetismus. Eine der letzten dieser Theorien war die um 1900 entstandene lorentzsche Äthertheorie, die schließlich von dem neuartigen Ansatz der einsteinschen Relativitätstheorie verdrängt wurde. In dieser 1916 von Albert Einstein aufgestellten allgemeinen Relativitätstheorie (ART) wird die Gravitation auf eine geometrische Eigenschaft der Raumzeit zurückgeführt, die von jeder Form von Energie gekrümmt wird. In der ART wird die Gravitation grundsätzlich anders interpretiert. Nach dem Äquivalenzprinzip kann die Wirkung der Gravitation nicht von der Auswirkung einer Beschleunigung des Bezugssystems unterschieden werden; insbesondere heben sich in einem frei fallenden Bezugssystem die Wirkungen von Gravitation und Beschleunigung exakt auf. Man sagt, die Gravitation sei durch den Übergang zu den neuen Koordinaten „wegtransformiert“. In der allgemeinen Relativitätstheorie wird zu jedem Punkt im Raum das entsprechende "Lokale Inertialsystem" ermittelt, worin es keine Gravitation gibt und die spezielle Relativitätstheorie mit ihrer vierdimensionalen Raumzeit in euklidischer Geometrie gilt. Die Wirkung der Gravitation tritt dann bei der Rücktransformation in das Bezugssystem des Beobachters zutage. Analog dazu, dass nach Galilei kräftefreie Bewegungen geradlinig und gleichförmig verlaufen, bewegen sich in der allgemeinen Relativitätstheorie Körper ohne nichtgravitative Kräfte auf Geodäten in einem „gekrümmten“ Raum mit riemannscher Geometrie. Zur Bestimmung der an einem Punkt herrschenden Krümmung der Raumzeit dienen die einsteinschen Feldgleichungen. Sie wurden so formuliert, dass im Grenzfall schwacher Gravitation die nach ihnen berechneten Ergebnisse mit denen übereinstimmen, die nach der newtonschen Gleichung berechnet werden. Die allgemeine Relativitätstheorie behandelt die Gravitation also als Trägheitskraft und stellt sie mit Zentrifugalkraft, Corioliskraft oder der Kraft, die man in einem Fahrzeug beim Anfahren oder Abbremsen spürt, auf eine Stufe. Innerhalb des Sonnensystems, wo es sich um schwache Felder bzw. geringe Krümmung der Raumzeit handelt, ergeben sich nur geringe Abweichungen von den Vorhersagen des newtonschen Gravitationsgesetzes. Das erste erfolgreiche Anwendungsbeispiel der allgemeinen Relativitätstheorie war die Erklärung der kleinen Abweichung zwischen der beobachteten Periheldrehung der Bahn des Merkur und dem Wert, der nach der newtonschen Theorie aufgrund der Wirkung der anderen Planeten vorhergesagt wird. Bei starker Krümmung, wie sie durch starke Konzentration großer Masse auf kleinem Raum hervorgerufen wird, werden völlig neue Phänomene wie z. B. Schwarze Löcher vorhergesagt. Als Quelle wie auch als Angriffspunkt der Gravitation gilt in der newtonschen Mechanik allein die Masse, die, von dem ursprünglich ungenauen Begriff einer gegebenen Materiemenge ausgehend, hier ihre erste präzise physikalische Definition erfuhr. In der allgemeinen Relativitätstheorie ist die Gravitation Ausdruck der Krümmung der Raumzeit, die ihrerseits nicht nur von der Anwesenheit von Materie, sondern auch von Energie in jeder Form und darüber hinaus von Massen- und Energieströmen beeinflusst ist. Alle der Beobachtung zugänglichen Vorhersagen der allgemeinen Relativitätstheorie wurden durch Messungen bestätigt. Experimentell nicht zugänglich sind extrem hohe Konzentrationen von Masse bzw. Energie auf engstem Raum, für deren Beschreibung neben der Gravitation auch Quanteneffekte berücksichtigt werden müssten. Versuche einer Quantenfeldtheorie der Gravitation gibt es in Ansätzen. Es mangelt allerdings an Vorhersagen, die sowohl berechenbar als auch beobachtbar wären. In der Newtonschen Gravitation ging man noch von einer instantanen oder augenblicklichen Ausbreitung der Gravitationswirkung aus, das heißt, dass die Wirkung auch über große Entfernungen sofort erfolgt. Innerhalb der Einsteinschen Sichtweise gilt jedoch, dass sich keine Wirkung, also auch nicht die Gravitationswirkung, schneller als mit Lichtgeschwindigkeit ausbreitet. Durch eine schnelle Veränderung der Position von Massen, wie zum Beispiel beim Kollaps eines Sternes werden dann Gravitationswellen erzeugt, die sich mit Lichtgeschwindigkeit ausbreiten. Gravitation in der klassischen Mechanik. Da formula_10 nicht von formula_2 abhängt, ergibt sich, dass in einem gegebenen Gravitationsfeld die Beschleunigung durch Gravitation für Körper aller Massen gleich groß ist. Das erklärt die von Galileo Galilei zuerst ausgesprochene Tatsache, dass im leeren Raum alle Körper gleich schnell fallen, was auch als das Prinzip der Äquivalenz von träger und schwerer Masse (in seiner schwachen Formulierung) bezeichnet wird. Die Gravitation bestimmt maßgeblich die Gewichtskraft eines Körpers auf der Erdoberfläche. Wegen der Erdrotation tragen auch Trägheitskräfte zur Gewichtskraft bei, Gravitation und Trägheitskräfte zusammen bilden das Schwerefeld. Die klassische Beschreibung der Gravitation ist für viele Anwendungsfälle hinreichend genau. Abweichungen treten allerdings im Zusammenhang mit präzisesten Messungen auf, z. B. bei der Periheldrehung des Merkur. Die klassische Beschreibung versagt völlig bei extremen Bedingungen, wie Schwarzen Löchern. Gravitationskonstante. Die Gravitationskonstante formula_6 ist eine Fundamentalkonstante der Physik. Ihre genaue Bestimmung ist sehr schwierig, denn zwischen zwei Körpern, deren Masse durch direkte Wägung bestimmt werden kann, ist die Gravitationskraft äußerst gering. Ihr Wert ist daher nur auf vier Dezimalstellen bekannt, im Unterschied zu den mindestens acht Dezimalstellen anderer Fundamentalkonstanten. Die erste Bestimmung gelang 1798 Henry Cavendish. Das in seinem Labor durchgeführte Experiment hat historische Bedeutung für die Entwicklung der experimentellen und theoretischen Grundlagen der Gravitation. Allgemeine Relativitätstheorie. In der allgemeinen Relativitätstheorie (ART) wird die Gravitation nicht wie eine Kraft im Sinne der klassischen Physik behandelt. Im Unterschied zu den gewöhnlichen klassischen Feldtheorien, in denen die Koordinaten für Ort und Zeit in einer festen Struktur vorgegeben werden, betrachtet die ART diese Struktur selber als veränderlich. Als Grundlage nutzt sie die aus der speziellen Relativitätstheorie bekannte Raumzeit, in der Orts- und Zeitkoordinaten in einer vierdimensionalen pseudo-riemannschen Mannigfaltigkeit zusammengefasst sind. Diese Raumzeit ist in der ART aber nicht mehr „flach“ wie in der Euklidischen Geometrie, sondern wird durch das Auftreten von Masse oder Energie „gekrümmt“. Die Krümmung ergibt sich an jedem Punkt der Raumzeit aus der Metrik, die festlegt, wie der vierdimensionale Abstand zwischen zwei Punkten der Raumzeit, also zwischen zwei Ereignissen, zu ermitteln ist. Dabei wird der zeitliche Abstand mit positivem, der räumliche Abstand aber mit negativem Vorzeichen gewertet. Weiter wird festgelegt, dass ein Körper, auf den außer der Gravitation keine Kräfte wirken, sich zwischen zwei Ereignissen (z. B. Abfahrt und Ankunft) stets entlang derjenigen Verbindungslinie bewegt, die nach dieser raumzeitlichen Metrik die "längste" ist (Geodäte), was wegen der erwähnten Vorzeichenwahl die räumlich "kürzeste" Strecke bedeutet. Dort wo die Raumzeit flach ist, ist die Geodäte die gerade Verbindungslinie der beiden Punkte. Umgerechnet in die üblichen Koordinaten für Ort und Zeit gibt sie eine gleichförmige Bewegung auf dem räumlich kürzesten Weg, also längs der räumlichen Verbindungsgeraden. Das entspricht dem Trägheitsgesetz der klassischen Mechanik für den völlig kräftefreien Körper. Bei einer gekrümmten Raumzeit entspricht eine Geodäte im Allgemeinen einer beschleunigten Bewegung längs einer räumlich gekrümmten Bahn. Die durch die Anwesenheit von Masse oder Energie verursachte Krümmung der Raumzeit wird durch die einsteinschen Feldgleichungen gerade so festgelegt, dass die Geodäte eine Bewegung wiedergibt, die genau der Bewegung des ansonsten kräftefreien Körpers im herrschenden Gravitationsfeld entspricht (also freier Fall, Wurfparabel, Planetenbahn etc.). Da die Masse des betrachteten Körpers dabei gar nicht einfließt, gilt für Körper mit verschiedener Masse dieselbe Geodäte, d. h. sie bewegen sich in einem gegebenen Gravitationsfeld gleich. Damit ist auch das Äquivalenzprinzip erklärt, das in der klassischen Physik die Gleichheit von schwerer und träger Masse feststellt. Die Gravitation tritt demnach nicht wie in der klassischen Physik als eine bestimmte Kraft auf, die auf den Körper wirkt und eine Beschleunigung verursacht, sondern als eine Eigenschaft der Raumzeit, in der der Körper sich kräftefrei bewegt. Gravitation wird auf diese Weise als ein rein geometrisches Phänomen gedeutet. In diesem Sinne reduziert die allgemeine Relativitätstheorie die Gravitationskraft auf den Status einer Scheinkraft: Wenn man auf einem Stuhl sitzend fühlt, wie man durch eine „Gravitationskraft“ zur Erde hin gezogen wird, deutet die ART dies so, dass man von der Stuhlfläche fortwährend daran gehindert wird, der Geodäte durch die von der Erdmasse gekrümmten Raumzeit zu folgen, was der freie Fall wäre. Dabei ist die Kraft, mit der die Stuhlfläche auf die Sitzfläche des Beobachters einwirkt, keineswegs eine Scheinkraft. Sie geht letztlich zurück auf die elektrostatische Abstoßung bei der Berührung der Atome der Stuhlfläche durch die Atome des Beobachters. Nach der Sichtweise der allgemeinen Relativitätstheorie verschiebt sich also die Interpretation der Ereignisse. Während nach der klassischen Mechanik die Erde ein Inertialsystem darstellt, in dem die nach unten gerichtete Schwerkraft auf den Beobachter durch die nach oben gerichtete Stützkraft des Stuhls ausgeglichen wird, so dass der Beobachter in Ruhe bleiben kann, stürzt das nach der allgemeinen Relativitätstheorie richtige Inertialsystem mit Erdbeschleunigung formula_13 nach unten. Doch in diesem Inertialsystem übt der Stuhl eine Kraft auf den Beobachter aus, die ihn konstant mit formula_14 nach oben beschleunigt. Senkrecht frei fallende Körper hingegen, aber auch Satelliten, Planeten, Kometen oder Parabelflüge folgen einer Geodäte durch die Raumzeit. Ihre Bewegungen werden in der allgemeinen Relativitätstheorie als (netto) kräftefrei angesehen, da die Erdmasse (oder Sonnenmasse) durch die Raumzeitkrümmung die Definition davon beeinflusst, was im Sinne der Trägheit von Körpern „geradeaus“ bedeutet. Direkter tritt die Raumzeitkrümmung z. B. in astronomischen Beobachtungen in Erscheinung, in denen nachgewiesen werden konnte (s. Abb.), dass große Massen die Krümmung von Lichtstrahlen bewirken. Aufgrund des Relativitätsprinzips und der daraus folgenden Invarianz gegenüber Lorentztransformationen trägt nicht nur Masse, sondern auch jede Form von Energie zur Krümmung der Raumzeit bei. Dies gilt einschließlich der mit der Gravitation selber verbundenen Energie. Daher sind die einsteinschen Feldgleichungen nichtlinear. Sie lassen sich im Bereich schwacher Krümmung durch lineare Gleichungen annähern, in denen sich das newtonsche Gravitationsgesetz wiederfinden lässt. Gegenüber den nach dem newtonschen Gesetz berechneten Phänomenen ergeben sich aber kleine Korrekturen, die durch genaue Beobachtungen sämtlich bestätigt werden konnten (siehe Tests der allgemeinen Relativitätstheorie). Völlig neue Phänomene jedoch ergeben sich bei starker Krümmung der Raumzeit, hier insbesondere die schwarzen Löcher. Quantengravitation, Quantenfeldtheorie. Im Rahmen einer Quantenfeldtheorie wird die Gravitation in linearer Näherung durch den Austausch eines als Graviton bezeichneten masselosen Teilchens beschrieben, das den Spin 2 hat. Darüber hinaus führt schon die Formulierung einer Quantentheorie der Gravitation zu prinzipiellen Problemen, die bisher ungelöst sind. Auch die supersymmetrische Erweiterung führte bisher nicht zu einer konsistenten Theorie. Als derzeit aussichtsreichste Kandidaten gelten die Stringtheorie und die Loop-Quantengravitation. Ein wesentliches Ziel ist dabei, die Gravitation mit den übrigen Wechselwirkungen zu einer „Großen Vereinheitlichten Theorie“ (GUT) zu vereinen, um somit eine Theorie zu formulieren, die alle Naturkräfte auf einmal beschreiben kann. Das bedeutet, dass die Gravitation, welche die Effekte der Quantenfeldtheorie nicht berücksichtigt, um diese erweitert würde. Im Rahmen der vereinigten Superstringtheorien, der M-Theorie, wird das Universum als elfdimensionale Mannigfaltigkeit beschrieben. Dabei stellt der Teil des Universums, in welchem wir existieren, eine höherdimensionale Membran (p-Brane) dar, die selbst in eine noch höherdimensionalere Mannigfaltigkeit eingebettet ist, in der noch weitere Branen schwingen könnten und somit parallele Raumzeiten innerhalb desselben Universums darstellen. In der M-Theorie werden die Gravitonen als geschlossene Strings dargestellt, die nicht an die Grenzen einer Brane gebunden sind. Daher sind sie in der Lage, sich durch alle zusätzlichen Raumdimensionen auszubreiten und auch in andere Branen zu gelangen. Auf diese Weise wird die Stärke der Gravitation hinreichend abgeschwächt, so dass sie im Rahmen unserer vierdimensionalen Erfahrungswelt als die schwächste der vier Wechselwirkungen erscheint. Quantenphysikalische Wirkungen des Gravitationsfelds. Die Wirkung des Gravitationspotentials auf die quantenmechanische Phase der Wellenfunktion wurde 1975 durch ein Interferenzexperiment an freien Neutronen nachgewiesen. Die Wellenfunktion und Energie von Neutronen, die einen im Gravitationsfeld gebundenen Zustand besetzen, konnte 2012 ausgemessen werden. In beiden Fällen bestätigen die Messergebnisse die aufgrund der Quantenmechanik berechneten Voraussagen. Spekulationen im Umfeld der Gravitation. Im Bereich der Science-Fiction gibt es zahlreiche Konzepte einer gravitativen Abschirmung oder einer Antigravitation. Jenseits des Wissenschaftsbetriebs bzw. des wissenschaftlichen Mainstreams gibt es immer wieder Bemühungen, einen solchen Effekt nachzuweisen. Relative Bekanntheit haben Experimente von Quirino Majorana, der um 1920 eine abschirmende Wirkung durch schwere Elemente gefunden haben will (entkräftet u. a. durch Henry Norris Russell), und von Jewgeni Podkletnow, der 1995 bei rotierenden Supraleitern eine Abnahme der Gewichtskraft behauptete, was allerdings ebenfalls nicht bestätigt werden konnte. Gravitation auf der Erde. Die Erde hat eine Masse von 5,974·1024 kg. Ihr Radius beträgt an den Polen 6356 km bzw. wegen der Erdabplattung 6378 km am Äquator. Daraus ergibt sich mithilfe des Gravitationsgesetzes von Newton, dass die Gravitationsbeschleunigung zwischen 9,801 m s−2 (am Äquator) und 9,867 m s−2 (an den Polen) beträgt. Die tatsächlich wirksame Fallbeschleunigung weicht jedoch von dem auf diese Weise berechneten Wert ab, man spricht deshalb auch vom Ortsfaktor. Diese Ortsabhängigkeit, die auch die Richtung der Fallbeschleunigung betrifft, hängt mit der Zentrifugalwirkung, die durch die Erdrotation hervorgerufen wird, mit der Höhe des Standorts und mit lokalen Schwereanomalien zusammen. Dementsprechend ist die Gewichtskraft im Schwerefeld der Erde nicht nur eine reine "Gravitationskraft" im Sinne des Gravitationsgesetzes. Schwerelosigkeit. Wenn von „Schwerelosigkeit“ gesprochen wird, ist (meist) "Gewichtslosigkeit" gemeint, also nicht die Abwesenheit von Gravitation, sondern die Abwesenheit eines spürbaren Gewichts als einer ihrer gewöhnlich bemerkbaren Folgen. Dies tritt genau dann auf, wenn die (räumlich konstante) Gravitation als einzige äußere Kraft überhaupt auf den Körper wirkt und alle im Normalfall wirkenden Gegenkräfte fehlen. Das geschieht etwa bei einem freien Fall im Vakuum oder in einem Satelliten. Der freie Fall hat auf der Erde ein baldiges Ende. Außerhalb der Erdatmosphäre ist es aber möglich, unentwegt um die Erde herumzufallen, wenn die Bahngeschwindigkeit tangential zu einem Kreis um den Erdmittelpunkt hinreichend groß ist. Für eine erdnahe Umlaufbahn ist die erste kosmische Geschwindigkeit erforderlich, mit zunehmender Entfernung von der Erde nimmt die erforderliche Geschwindigkeit kontinuierlich ab. Für lediglich durch ihre Eigengravitation zusammengehaltene Körper begrenzen die Gezeitenkräfte die möglichen Kreisbahnen, siehe Roche-Grenze. Schwerelosigkeit ohne Bewegung relativ zur Verbindungslinie zweier Himmelskörper, z. B. Erde und Sonne, ist an wenigen Stellen, den sogenannten Lagrange-Punkten möglich. Dort heben sich die Gravitationskraft der Erde, die Gravitationskraft der Sonne und die Zentrifugalkraft der Bahnbewegung gegenseitig auf. Dies wird etwa für das Planck-Weltraumteleskop genutzt. Nach dem klassischen Newtonschen Gravitationsgesetz ist im Innern einer hohlen elliptischen oder kugelsymmetrischen homogenen Massenverteilung, z. B. einer Kugelschale, die Gravitationskraft null. So heben sich auch im Erdmittelpunkt alle Gravitationskräfte der Erdmassen auf und lassen dort Schwerelosigkeit entstehen. Gravisphäre. Nahe Massen haben mehr Einfluss auf die Gravitationsbeschleunigung als ferne Massen. Daher sind auch um relativ kleine Körper im Schwerefeld großer Körper Satellitenbahnen möglich. Der Raumbereich, in dem dies der Fall ist, ist die "Gravisphäre" des jeweiligen Himmelskörpers. Aus dem gleichen Grund ist die Gravitationsbeschleunigung eines unregelmäßig geformten Körpers nicht an allen Raumpunkten auf sein Baryzentrum ausgerichtet. Galenos. Galenos von Pergamon, auch Aelius Galenus (, deutsch: Galēn, in frühneuzeitlichen Drucken auch "Galienus"; * 129 oder 131 in Pergamon; † um 199, 201 oder 215 in Rom), war ein griechischer Arzt und Anatom. Der ihm in der Renaissance verliehene Vorname "Claudius" beruht auf einer Fehldeutung der Abkürzung "Cl." – für "Clarissimus". Leben. Galen wurde in Pergamon geboren, wo sich das um die Mitte des 2. Jahrhunderts berühmteste Heiligtum des Asklepios befand. Sein Vater, der Architekt und Mathematiker Nikon, unterrichtete ihn zunächst in aristotelischer Philosophie, Mathematik und Naturlehre. Ab etwa 146 beschäftigte sich Galen vornehmlich mit der Medizin. Er studierte in der Nähe von Smyrna und reiste viel, unter anderem im Alter von 19 Jahren nach Alexandria, zu jener Zeit Zentrum der Heilkunst und der einzige Ort, wo Humansektionen und Untersuchungen an Leichen durchgeführt werden durften. Die Bücher der Bibliothek von Alexandria mit alten Zeichnungen unterstützten die wissenschaftliche Ausbildung. Kuren wurden zu dieser Zeit von Ärzten geleitet, Heilung und Pflege fanden in einem Asklepieion statt, in dem Priester, Heilkundler und Ärzte tätig waren. 158 kehrte Galen nach Pergamon zurück, war als Sport- und Wundarzt der Gladiatoren tätig und unterhielt gleichzeitig eine Praxis. Während der Olympischen Spiele betreute er die Athleten und studierte ihre Verletzungen unmittelbar nach deren Auftreten. Ab 161 war Galen in Rom tätig, nach der Heilung des geachteten Philosophen Eudemos von Pergamon wurde er Arzt der römischen Aristokratie. Um 166 verließ er Rom, wahrscheinlich wegen der dort ausgebrochenen Antoninischen Pest, und nahm seine Arbeit als Gladiatorenarzt in Pergamon wieder auf. 168 reiste er auf Bitte des römischen Kaisers Marcus Aurelius nach Aquileia, wo die „Pest“ unter den römischen Soldaten ausgebrochen war. Seine präzise Beschreibung der Krankheitssymptome lässt die Vermutung zu, dass es sich dabei eher um eine Pockenepidemie gehandelt haben wird. Seinem Wunsch entsprechend wurde er in Rom ab 169 der Leibarzt des Kaisersohnes Commodus, später vermutlich auch des Kaisers P. Septimius Severus. Galen starb in Rom, der Zeitpunkt ist umstritten. Ging die frühere Forschung vom Sterbejahr 199 aus, wird mittlerweile sein Tod um das Jahr 216, in jedem Fall erst nach 204 favorisiert. Werk. Titelseite der 1547 in Venedig erschienen „Opera“ Galens medizinisches Hauptwerk ist der "Methodus medendi", es besteht aus 14 Büchern. Der Leitgedanke darin ist, dass alle Erscheinungen in der Natur und im Menschen einen bestimmten Zweck erfüllen. Galen begriff den Menschen als eine Leib-Seele-Einheit, die von zwei Seiten beeinflusst werden kann: vom Spirituellen und von der Materie. Er nahm die in der Philosophie entwickelte "Vier-Elemente-Lehre" auf, wonach Feuer, Erde, Luft und Wasser in unterschiedlicher Zusammensetzung die Grundelemente allen Seins darstellen. Ebenso knüpfte er an die in der hippokratischen Medizin bereits in Ansätzen entwickelte "Viersäftelehre" an, welche den für die vier Säfte stehenden Organen Blut, Schleim, gelbe Galle und schwarze Galle jeweils die "vier Qualitäten" warm und feucht, kalt und feucht, warm und trocken und kalt und trocken zuordnete. Die von Galen postulierten "vier Geschmacksqualitäten" sind: Blut – süß, Schleim – salzig, gelbe Galle – bitter, schwarze Galle – sauer und scharf. Darüber hinaus verknüpfte er die vier Säfte auch mit den vier Lebensphasen des Menschen. Krankheit war für ihn eine Dyskrasie, eine fehlerhafte Mischung der Säfte. Die von ihm angewandten Medikamente unterteilte er in "elementare", die nur eine der vier Qualitäten besaßen, "kombinierte" – sie wiesen zwei Qualitäten und damit eine Haupt- und eine Nebenwirkung auf – sowie "spezifische" für besondere Fälle, etwa Abführ-, Brech- oder Entwässerungsmittel. In seinem Werk vereinigte Galen zwei über Jahrhunderte hinweg im Widerstreit stehende medizinische Herangehensweisen. Diese Synthese machte Galen bis in die Renaissance hinein maßgebend für die mittelalterliche Medizin. Galenos führte umfangreiche Sektionen und Vivisektionen an Tieren durch. Er verfasste nahezu 400 Schriften, die nach seinem Tod durch Oribasius (326–403) in 70 Büchern zusammengefasst wurden. Knapp ein Viertel davon ist im griechischen Original oder in lateinischen, arabischen oder syrischen Übersetzungen erhalten. Bis ins 17. Jahrhundert und darüber hinaus dienten sie als medizinische Lehrgrundlage an den Universitäten. Viele von Galens Ansichten über die menschliche Anatomie waren jedoch falsch, da er die anhand seiner Sektionen an Schweinen, Affen und Hunden gewonnenen Erkenntnisse einfach auf den Menschen übertragen hatte. Galens Werke waren die Grundlage anatomischer Vorlesungen. Seine Erkenntnisse wurden als so vollständig angesehen, so dass man keinen Anlass zum selbstständigen Forschen sah. Es war nicht üblich, menschliche Körper zu sezieren und auch lange Zeit verboten. Stellten Forscher zufällig bei einer Leiche Abweichungen von Galens Lehre fest, hielten sie das untersuchte Organ für eine Missbildung. Vesalius war in den 1530er Jahren der erste, der erkannte, dass Galen wohl nie einen Menschen seziert hatte. Er äußerte die Ansicht, man hätte bei einem Metzger mehr über Anatomie lernen können als bei anatomischen Vorlesungen. Vesalius’ eigene Sektionen an Leichen in den 1540er Jahren, die er dank guter Beziehungen zur Obrigkeit hatte durchführen können, belebten die anatomische Forschung. Galen legte bei der Diagnose von Krankheiten besonderen Wert auf die Untersuchung von Puls und Harn. Weiter lehrte er, Krankheiten mit entgegengesetzten (allopathischen) Arzneimitteln zu therapieren, den sogenannten und nach ihm benannten Galenika. Galens pathophysiologische Vorstellungen. Sind sämtliche Körperbestandteile – darunter versteht Galen die Säfte, das Pneuma und die "res naturales" – in ausreichender Qualität und Quantität vorhanden und diese körperlichen Funktionen im Sinne einer Zweckmäßigkeit (Teleologie) im freien Fluss, resultiert Gesundheit, "sanitas". Für Galen gibt es fließende Übergänge zwischen dem Zustand der Gesundheit, "sanitas", des Krankseins, "aegritudo" und einem Zwischenzustand, "neutralitas". Dieses Gleich- oder Ungleichgewicht wird durch Größen der "res naturales", "res non naturales" und "res praeter naturales" geregelt. Die Einflussfaktoren jener drei Gruppierungen bestimmen den Umgang hinsichtlich einer Prophylaxe, "praeservatio", Gesunderhaltung, "conservatio sanitatis" oder Therapie, "curatio". Nachwirkung. Galen, lithographisches Phantasieportrait der Neuzeit Galens systematisch ausgebautes Werk, das im frühen Mittelalter von Hunain ibn Ishāq (808–873) ins Syrische und Arabische übersetzt wurde, war in seinem Umfang und in seinem wissenschaftlichen Niveau für die Nachwelt von solcher Autorität, dass es 1400 Jahre brauchte, bis es durch neuere Forschungen langsam überwunden wurde. Seine Auffassungen vom Fluss des Blutes wurden erst im 17. Jahrhundert durch William Harvey und Marcello Malpighi und teils gegen erhebliche Widerstände revidiert. Seine Fassung der Humoralpathologie hatte als Krankheitskonzept Bestand bis ins 19. Jahrhundert. In der anatomischen Fachsprache wird die "Vena cerebri magna" manchmal noch als „Galens Vene“ und der "Ventriculus laryngis" als „Galens Ventrikel“ bezeichnet. Nach Galenus ist auch die Lehre von der Zubereitung der Arzneimittel, die Galenik, benannt (siehe Werk). Carl von Linné benannte ihm zu Ehren die Gattung "Galenia" der Pflanzenfamilie der Mittagsblumengewächse (Aizoaceae). Geometrie. Die Geometrie ("geometria (ionisch geometriē)" ‚Erdmaß‘, ‚Erdmessung‘, ‚Landmessung‘) ist ein Teilgebiet der Mathematik. Einerseits versteht man unter "Geometrie" die zwei- und dreidimensionale euklidische Geometrie, die Elementargeometrie, die auch im Schulunterricht gelehrt wird und die sich mit Punkten, Geraden, Ebenen, Abständen, Winkeln etc. beschäftigt, sowie diejenigen Begriffsbildungen und Methoden, die im Zuge einer systematischen und mathematischen Behandlung dieses Themas entwickelt wurden. Andererseits umfasst der Begriff "Geometrie" eine Reihe von großen Teilgebieten der Mathematik, deren Bezug zur Elementargeometrie für Laien nur mehr schwer erkennbar ist. Auch muss zwischen dem modernen Begriff der Geometrie unterschieden werden, der im Allgemeinen die Untersuchung invarianter Größen bezeichnet. Als erstes Geometriebuch in deutscher Sprache gilt Albrecht Dürers "Underweysung der messung mit dem zirckel und richtscheyt in Linien ebnen unnd gantzen corporen" aus dem Jahre 1525. Gebiete der Mathematik, die zur Geometrie zählen. Die folgende Liste umfasst sehr große und weitreichende Gebiete Geometrie in Schule und Unterricht. Traditionellerweise werden im Geometrieunterricht Geräte wie Zirkel, Lineal und Geodreieck, aber auch der Computer (siehe auch: Dynamische Geometrie) verwendet. Die Anfangsgründe des Geometrieunterrichts befassen sich etwa mit geometrischen Transformationen oder dem Messen von geometrischen Größen wie Länge, Winkel, Fläche, Volumen, Verhältnisse usw. Auch komplexere Objekte wie spezielle Kurven oder Kegelschnitte kommen vor. Darstellende Geometrie ist die zeichnerische Darstellung der dreidimensionalen euklidischen Geometrie in der (zweidimensionalen) Ebene. Geschichte Deutschlands. Die Geschichte Deutschlands beginnt nach herkömmlicher Auffassung mit der Entstehung des römisch-deutschen Königtums im 10./11. Jahrhundert, wenngleich sich damit noch lange keine „deutsche Identität“ entwickelte. Die deutsche Sprache ist seit dem 8. Jahrhundert als eigenständige, in eine Vielzahl von Dialekten unterteilt und sich weiterentwickelnde Sprache fassbar. Die Bewohner des Reiches waren vor allem Nachfahren von Germanen und Kelten, im Westen jedoch auch von römischen Siedlern und im Osten von westslawischen Stämmen, den sogenannten Wenden oder Elbslawen. Das römisch-deutsche Reich entwickelte sich aus dem Ostfrankenreich, das wiederum infolge der Krise des fränkischen Reichs im 9. Jahrhundert entstanden war. Das Herrschergeschlecht der Ottonen konnte im 10. Jahrhundert die westliche („römische“) Kaiserwürde erlangen und legte die Grundlage für das seit dem späten 13. Jahrhundert so genannte Heilige Römische Reich. Ottonen sowie die nachfolgenden Salier und Staufer stützten sich in unterschiedlicher Ausprägung auf die Reichskirche. Die mittelalterlichen römisch-deutschen Kaiser sahen sich in der Tradition des antiken Römischen Reichs (Reichsidee), wobei es wiederholt zu Spannungen zwischen den Universalmächten Kaisertum und Papsttum kam. Bereits gegen Ende der staufischen Dynastie (12./13. Jahrhundert) verlor das Königtum an Macht. Die römisch-deutschen Könige waren aber ohnehin nie absolute Herrscher, vielmehr wurde der Aspekt konsensualer Herrschaft des Königtums im Verbund mit den Großen betont. Im Gegensatz zu den westeuropäischen Monarchien England und Frankreich, entwickelte sich im römisch-deutschen Reich nie eine zentralisierte Reichsherrschaft. Die Macht der vielen Landesherren nahm im Spätmittelalter weiter zu, die Goldene Bulle Karls IV. legte eine kurfürstliche Wahlmonarchie fest. Diese Form einer dezentralisierten Herrschaft, die durchaus auch Vorteile hatte, begründete letztlich die Tradition des deutschen Föderalismus. Im Spätmittelalter kam es außerdem zum Aufstieg des Städtewesens. Der frühneuzeitliche Staatsbildungsprozess spielte sich insbesondere auf der Ebene der einzelnen Territorien und nur bedingt auf der Ebene des Reiches ab. Reformation, Gegenreformation und Dreißigjähriger Krieg im 16. und 17. Jahrhundert führten über Deutschland hinaus zu veränderten Voraussetzungen im Glauben und Denken, zu demographischen Verschiebungen und zu veränderten politischen Konstellationen. Neben den Habsburgern mit Österreich, die seit dem 15. Jahrhundert fast durchgängig den Kaiser stellten, stiegen die Hohenzollern mit Preußen zur zweiten deutschen Großmacht auf. Als Folge der Koalitionskriege gegen die Französische Revolution ging das Heilige Römische Reich Deutscher Nation 1806 unter. Nach der in die Befreiungskriege mündenden Vorherrschaft Napoleons I. über den europäischen Kontinent ergab sich im Zuge restaurativer Bemühungen eine politische Neuordnung in Form des Deutschen Bundes unter gemeinsamer österreichischer und preußischer Führung. Die dagegen gerichteten freiheitlichen Bestrebungen in der 49 wurden niedergeschlagen, der auf nationale Einheit Deutschlands gerichtete Impuls dann aber durch das preußische Militär in Kriegen sowohl gegen Österreich als auch gegen Frankreich in die Gründung des Deutschen Kaiserreichs überführt. Sozialgeschichtlich war das 19. und frühe 20. Jahrhundert geprägt von industrieller Revolution und Hochindustrialisierung, einem hohen Bevölkerungswachstum und einem Prozess der Urbanisierung. Deutsche Weltmachtambitionen im Zeichen des Wilhelminismus trugen im Zeitalter des Imperialismus zur Entstehung des Ersten Weltkriegs bei, der in einer als schmachvoll empfundenen deutschen Niederlage endete. Die 19 brachte mit der Weimarer Republik erstmals ein demokratisch verfasstes deutsches Gemeinwesen hervor, das allerdings dauerhafte politische Stabilität nicht erlangte, sondern 1933 in die nationalsozialistische Diktatur überging. Die damit von Anbeginn einhergehende gewalttätige Unterdrückung aller Regimegegner im Inneren und planvoll betriebene Expansionspolitik nach außen – verbunden mit der Entfesselung des Zweiten Weltkriegs sowie mit der systematischen Verfolgung und Vernichtung der europäischen Juden – haben die NS-Zeit bis 1945 zum katastrophalen Tiefpunkt der deutschen Geschichte werden lassen. Nach der Kapitulation der Wehrmacht vollzogen die vier Siegermächte die Aufteilung Deutschlands und Berlins: Eine östliche und drei westliche Besatzungszonen wurden gebildet. Aus den drei Westzonen entstand 1949 die Bundesrepublik Deutschland, aus der sowjetischen Zone die Deutsche Demokratische Republik (DDR). Die Teilung Deutschlands wurde 1961 mit dem Bau der Berliner Mauer und durch die seitens der DDR militärisch gesicherte und streng bewachte innerdeutsche Grenze zementiert. Nach der friedlichen Revolution in der DDR, die 1989 das Ende der SED-Diktatur herbeiführte und bei den ersten freien Wahlen zur Volkskammer im März 1990 eine weit überwiegende Mehrheit der Einheitsbefürworter zur Folge hatte, war der Weg frei für Verhandlungen über die deutsche Wiedervereinigung. Die Zustimmung der vier vormaligen Siegermächte zum Vollzug der deutschen Einheit war wesentlich mitbestimmt von der Einbindung der alten Bundesrepublik in den 1951 begonnenen europäischen Integrationsprozess und von der Erwartung, dass die Zusagen bezüglich einer Fortsetzung dieses Kurses auch nach der Erweiterung um die fünf neuen Bundesländer durch das vereinte Deutschland eingehalten würden. Die Bestätigung wurde bei der Einführung des Euro wie auch bei der EU-Osterweiterung von deutscher Seite erbracht. Vorgeschichtliche Zeit. a>, die älteste gesicherte Darstellung eines Menschen (Original) Der älteste Nachweis von Vertretern der Gattung "Homo" auf dem Gebiet der heutigen Bundesrepublik ist der zwischen 500.000 und 600.000 Jahre alte Unterkiefer von Mauer, des Typusexemplars von "Homo heidelbergensis". Etwas jüngere Funde stammen vom Fundplatz Bilzingsleben sowie von "Homo steinheimensis"; bekannte Funde sind schließlich auch die Schöninger Speere. Aus "Homo heidelbergensis" ging vor 130.000 Jahren der Neandertaler ("Homo neanderthalensis") hervor, der – sofern die klimatischen Bedingungen es zuließen – nahezu 100.000 Jahre lang auch in Deutschland lebte. Da Deutschland während der letzten Phase der Eiszeit zur Kältesteppe (Tundra) wurde und die polare Vereisung bis ins nördliche Niedersachsen vordrang, dürfte Deutschland während des mittleren Aurignacien bis weit in das Mittelpaläolithikum hinein so gut wie unbewohnt gewesen sein, Spuren menschlicher Besiedlung fehlen für sehr lange Zeit. Spuren des zugewanderten modernen Menschen ("Homo sapiens" der Cro-Magnon-Epoche) wurden in den Höhlen der Schwäbischen Alb gefunden, etwa die 35.000 bis 40.000 Jahre alte Venus vom Hohlen Fels, die älteste gesicherte Darstellung eines Menschen. Die ältesten Überreste des Homo sapiens fanden 1914 Steinbrucharbeiter im Rheinland: das etwa 14.000 Jahre alte Doppelgrab von Oberkassel. Jäger und Sammler stellten um 5800/5600 v. Chr. bereits Keramikgefäße her, bevor sie zwischen etwa 5500 und 5000 v. Chr. durch bäuerliche Kulturen abgelöst wurden. In dieser, als Jungsteinzeit bezeichneten Epoche, entwickelten sich Ackerbau, Viehhaltung und feste Siedlungsplätze sowie eine andere Art der Keramik. Das Gebiet des heutigen Deutschland wurde nach- und nebeneinander von der bandkeramischen, der schnurkeramischen und der Glockenbecherkultur besiedelt, die Benennung erfolgte anhand des archäologischen Fundgutes. Die Verwendung von Metallen revolutionierte die technischen Möglichkeiten. Aus der Bronzezeit sind einige Funde erhalten, wie etwa die in Sachsen-Anhalt gefundene Himmelsscheibe von Nebra, eine Metallplatte mit Goldapplikationen, die als älteste Himmelsdarstellung gilt. Ethnogenese. In der Bronze- und Eisenzeit bildeten sich in diesen Regionen verschiedene indoeuropäisch sprechende Volksgruppen und Stämme. Diese entstanden aus eingewanderten indoeuropäischen Stämmen bzw. deren Nachfahren, die sich mit den seit Ende der letzten Eiszeit ansässigen „Ureinwohnern“ und auch später fortwährend mit durchziehenden Völkern bzw. Siedlern (Ethnogenese) vermischten. Die Nachfahren der in Nordeuropa und Norddeutschland auf dem Gebiet der Nordischen Bronzekultur siedelnden Gruppen wurden in der Antike von griechischen Geschichtsschreibern als Kelten im Westen oder Skythen im Osten beschrieben. Erst unter römischen Autoren etablierte sich der Begriff Germanen. Die südlichen Teile Deutschlands wurden dagegen von Kulturgruppen besiedelt, die seit der Eisenzeit als Kelten bezeichnet werden können. Die keltische Kultur der Latènezeit wurde um die Zeitenwende zwischen den von Norden her vordringenden Germanen und dem von Süden her expandierenden Römischen Reich aufgerieben. Während der Ausbreitung des Römischen Reiches bis in die Spätantike siedelten dazu Römer im Raum des heutigen Süd- und Westdeutschland, deren Truppen den Süden und Westen Germaniens entlang der Donau und des Rheins bis etwa ins 5. Jahrhundert besetzten. Die Legionäre stammten aus sehr unterschiedlichen Regionen des Römischen Reiches, wie z. B. Hispanien, Illyrien, Syrien, Gallien, Afrika. In der zivilen Bevölkerung der römischen Provinzen ist eine starke keltische Komponente erkennbar, etwa auf Steindenkmälern und den dadurch erschließbaren Namen. Dies wird bestätigt durch eine Notiz in der (wichtigen, aber auch problematischen) ethnographischen Schrift "Germania" des Tacitus, der berichtet, dass sich im Dekumatland Leute aus Gallien niederließen. a> im Jahre 9 nach Christus Die historisch erfassten germanischen Stämme der frühen römischen Kaiserzeit des ersten Jahrhunderts gliedern sich in drei Kulturgruppen auf: die sogenannten Rhein-Weser-Germanen, die Nordseegermanen und die Elbgermanen. Durch die makropolitischen Einflüsse des andauernden Konflikts mit dem Römischen Reich sowie innergermanische politische, soziale und wirtschaftliche Veränderungen kam es ab dem 2. Jahrhundert aus diesen Kulturgruppen heraus zur (nicht biologisch, sondern als historisch-sozialer Prozess verstandenen) „Entstehungsprozess“ von neuen und größeren Stammesverbänden. Diese Stammesverbände, vor allem die Alamannen oder auch "Alemannen", die Bajuwaren, die Franken und die Sachsen wirkten konstituierend für die mittelalterliche Bildung Deutschlands und nominell bis in die Neuzeit als sogenannte „deutsche Volksstämme“, beziehungsweise ihnen wird eine solche Bedeutung beigemessen. Seit der Reichskrise des 3. Jahrhunderts verstärkte sich der Druck, den die großen germanischen Stammesverbände der Alamannen und der Franken, die sich in der Germania Magna neu gebildet hatten, auf die Grenzen des Römischen Reiches ausübten. In den Provinzen an Rhein und Donau setzte eine Germanisierung ein, die besonders das römische Heer betraf. Teilweise wurde diese unterstützt durch Ansiedlung germanischer Foederaten auf dem Gebiet des "Imperium Romanum". Während der Völkerwanderung blieben auch Angehörige weiterer Volksgruppen, wie etwa der Sarmaten oder Hunnen, im Gebiet des heutigen Deutschland zurück. Nach der Abwanderung fast aller Germanen aus den Gebieten östlich der Elbe wurden diese von Slawen besiedelt, deren Land erst durch die Ostkolonisation deutscher Zuwanderer vom 11. bis zum 14. Jahrhundert sowie später im Rahmen der Eingliederung ins römisch-deutsche Reich wieder Bestandteil der deutschen Geschichte wurde. Antike. Germanische Stämme, darunter wurden zunächst alle rechtsrheinischen ethnischen Gruppen verstanden, um 100 n. Chr. (ohne Skandinavien) Um 500 v. Chr. war der Raum des heutigen Süddeutschland keltisch und derjenige des heutigen Norddeutschland germanisch besiedelt. Erste Erwähnung finden einige keltische und germanische Stämme bei den Griechen und Römern, beginnend wohl mit Poseidonios im 1. Jahrhundert v. Chr., in der folgenden Zeit unter anderem bei Caesar und Tacitus. Die Germanen selbst waren jedoch eine uneinheitliche Gruppe von verschiedenen Stämmen, die auch kein übergeordnetes Gemeinschaftsgefühl verband. Bereits der Begriff „Germanen“ (lateinisch "Germani") ist ein ethnographischer, wenig präziser Sammelbegriff antiker Autoren, die damit auch ein „Barbarenbild“ verbanden. „Germanen“ darf aus methodischen Gründen daher nicht als Begriff für ein einheitliches Volk missverstanden werden. Die Germanen wanderten im Laufe der Jahrhunderte südwärts, sodass um Christi Geburt die Donau die ungefähre Siedlungsgrenze zwischen Kelten und Germanen war. Hierdurch gelangten keltische Orts- und Gewässernamen sowie keltische Lehnwörter in den germanischen Wortschatz. Nach der Eroberung Galliens durch Caesar im Gallischen Krieg wurden in der Regierungszeit des ersten römischen Kaisers Augustus Feldzüge im rechtsrheinischen Raum durchgeführt, wenngleich nach der Varusschlacht die Römer ihre Truppen schließlich wieder an den Rhein zurückverlegten und es seit Tiberius bei einzelnen Militäroperationen beließen. Von etwa 50 v. Chr. bis ins frühe 5. Jahrhundert n. Chr. gehörten die Gebiete westlich des Rheins und südlich der Donau zum Römischen Reich, von etwa 80 bis 260 n. Chr. auch ein Teil Hessens (Wetterau) sowie der größte Teil des heutigen Baden-Württemberg südlich des Limes. Die römischen Gebiete im heutigen Deutschland verteilten sich auf die Provinzen "Germania superior", "Germania inferior" und "Raetia". Auf die Römer gehen Städte wie Trier, Köln, Bonn, Worms und Augsburg zurück, die zu den ältesten Städten Deutschlands zählen. Die Römer führten Neuerungen in Hausbau und Handwerk ein. Zur Sicherung der Grenzen siedelten die Römer befreundete germanische Stämme in den Provinzen an. Auch Siedler aus allen Teilen des Römischen Reiches, insbesondere aus Italien, wanderten ein und wurden westlich des Rheins und südlich der Donau sesshaft. Eine erste Geschichte Gesamtgermaniens lieferte im Jahr 98 der römische Geschichtsschreiber Tacitus. Nachdem bereits Mark Aurel im 2. Jahrhundert im Verlauf der Markomannenkriege schwere Abwehrkämpfe gegen Germanen zu bestehen hatte, nahm zur Zeit der Reichskrise des 3. Jahrhunderts der germanische Druck auf die römische Nordgrenze beträchtlich zu, während gleichzeitig im Osten das neupersische Sassanidenreich die römische Ostgrenze bedrohte. Die neuformierten tribalen Großverbände der Alamannen und Goten unternahmen immer wieder Einfälle in das Imperium, das um die Mitte des 3. Jahrhunderts den Höhepunkt der Krise durchlief. Zwar errangen römische Truppen wohl 235 in einem Feldzug des Maximinus Thrax im Harzgebiet noch einen Sieg, doch 259/60 mussten die rechtsrheinischen Gebiete aufgegeben werden (Limesfall). Ende des 3. Jahrhunderts hatte sich die Lage für das Imperium wieder stabilisiert, vor allem aufgrund der Reformen Diokletians und Konstantins, die außerdem erfolgreich die Grenzen sicherten. Dennoch kam es im Verlauf der Spätantike immer wieder zu militärischen Auseinandersetzungen zwischen Römern und Germanen. Nach dem um 375 erfolgten Einfall der Hunnen nach Ostmitteleuropa änderte sich die Lage grundlegend. Die sogenannte Völkerwanderung, die im 5. Jahrhundert ihren Höhe- und im späten 6. Jahrhundert ihren Schlusspunkt fand, brachte die Völkerschaften im Osten, insbesondere die Germanen, in Bewegung und spätestens nach dem Rheinübergang von 406 das weströmische Reich in erhebliche Bedrängnis. Germanen stießen auf weströmisches Territorium vor und ergriffen schließlich von weiten Teilen des Westreiches (meistens mit Gewalt, teilweise aber auch durch Verträge) Besitz. Das Westreich war im Jahr 476, als der letzte Kaiser im Westen, Romulus Augustulus, abgesetzt wurde, faktisch auf Italien zusammengeschmolzen. Allerdings sind mehrere Aspekte der Völkerwanderung in der modernen Forschung umstritten. Die auf römisches Gebiet eingewanderten germanischen Stämme (die ethnisch oft recht heterogen zusammengesetzt waren) zogen bis nach Nordafrika und errichteten eigene Reiche. Das Vandalenreich in Nordafrika, das Burgundenreich in Südostgallien und das Ostgotenreich in Italien gingen bereits im 6. Jahrhundert unter, während das Westgotenreich in Hispanien und das Reich der Langobarden in Italien (wo diese 568 eingefallen waren) bis ins 8. Jahrhundert bestehen blieben. Am dauerhaftesten und bedeutendsten sollte sich das um 500 errichtete Frankenreich der Merowinger erweisen. Daneben existierten teilweise bis ins 6. Jahrhundert zahlreiche kleinere Herrschaftsgebilde, wie die der Heruler, Rugier und Gepiden, während die um die Mitte des 5. Jahrhunderts in Britannien eingedrungenen Angelsachsen mehrere Kleinreiche gründeten, bevor sich dort im 7. Jahrhundert eine dauerhaftere Herrschaftsordnung etablierte (Heptarchie). Voraussetzungen. In der historischen Forschung ist bis heute umstritten, ab wann von Deutschland und ab wann vom deutschen Volk gesprochen werden kann. In der älteren, stark national geprägten Forschung wurde die Gleichsetzung von Germanen mit den Deutschen im mittelalterlichen Reich postuliert. Dieser Ansatz ist sehr problematisch und wird in der neueren Forschung abgelehnt, denn es wird dabei auch eine bewusste Eigenidentität vorausgesetzt. In der modernen Forschung wird der Prozess der Ethnogenese hingegen viel weniger als biologischer und eher als sozialer Prozess verstanden. Hinzu kommt, dass eine Sprachgemeinschaft nicht einfach mit einer ethnischen Gemeinschaft gleichgesetzt werden kann. Die Auswertung der zeitgenössischen Quellen ergibt denn auch nicht das Bild von „deutschen Stämmen“, die sich im 9. Jahrhundert bewusst in einem eigenen Reich (dem Ostfrankenreich) zusammengeschlossen haben. Als Orientierungspunkt diente vielmehr bis weit ins 11. Jahrhundert hinein das Frankenreich. Erst im 11. Jahrhundert taucht der Begriff "rex Teutonicorum" („König der Deutschen“) für den ostfränkischen/römisch-deutschen Herrscher auf, allerdings als Fremdbezeichnung durch anti-kaiserliche Kreise, denn die römisch-deutschen Herrscher haben sich selbst nie so bezeichnet. Für die mittelalterlichen römisch-deutschen Herrscher waren die deutschsprachigen Gebiete ein wichtiger Teil des Reiches, das aber daneben auch Reichsitalien und das Königreich Burgund umfasste. Aufgrund der Reichsidee, die die Anknüpfung an das antike Römerreich und eine heilsgeschichte Komponente beinhaltete, war der damit einhergehende Herrschaftsanspruch nicht national, sondern (zumindest theoretisch) universal ausgerichtet. In der folgenden Zeit diente als loser politischer Rahmen das Reich, als verbindende kulturelle Komponente die deutsche Sprache. Frühmittelalter. In die ehemaligen Siedlungsgebiete germanischer Stämme, die von diesen im Verlauf der Völkerwanderung verlassen worden waren, wanderten im 7. Jahrhundert bis zur Elbe-Saale-Linie slawische Gruppen ein. Fast im gesamten Raum östlich der Elbe wurde daher vom Frühmittelalter bis ins hohe Mittelalter slawisch gesprochen "(Germania Slavica)", in der Lausitz leben bis heute die slawischen Sorben. Merowinger (um 500–751). Ein beträchtlicher Teil West- (im Wesentlichen das ehemals römische Gallien) und Teile des westlichen Mitteleuropas wurden ab dem frühen 6. Jahrhundert vom Frankenreich eingenommen, das heutige nordwestliche Deutschland wurde von den Sachsen beherrscht. Das Frankenreich war von den Merowingern gegründet worden und sollte sich als das bedeutendste germanisch-romanische Nachfolgereich des untergegangenen Weströmischen Reichs erweisen. Childerich I. hatte dafür die Grundlage gelegt, an die sein Sohn Chlodwig I. anknüpfte. Versuche der Merowinger, ihren Herrschaftsbereich östlich des Rheins weiter auszudehnen, hatten einigen Erfolg: Alamannen und Thüringer gerieten bereits im 6. Jahrhundert unter fränkische Vorherrschaft. Interne Machtkämpfe und die zunehmende Macht der Hausmeier verhinderten jedoch, dass sich im Merowingerreich ein starkes zentrales Königtum entwickelte. Dagobert I. konnte das Königtum noch einmal stärken, bevor die Merowinger im späten 7. Jahrhundert (so zumindest die traditionelle Lehrmeinung, allerdings beruhend auf spätere und parteiische Quellen) faktisch von den Karolingern entmachtet wurden, die seit 751 auch die fränkische Königswürde bekleideten. Karolinger (751–911). Pippin der Jüngere bestieg 751 als erster Karolinger den fränkischen Königsthron. Der bedeutendste Karolinger war Pippins Sohn Karl der Große, der von 768 (allein seit 771) bis 814 regierte und seit 800 sogar die römische Kaiserwürde im Westen erneuern konnte. Karl führte Feldzüge gegen die Sachsen (die erst nach sehr harten und wechselhaft verlaufenden Kämpfen in den Sachsenkriegen besiegt werden konnten), gegen die Langobarden in Italien, die Awaren an der Südostgrenze und gegen die Mauren in Nordspanien, womit er die Grenzen des Frankenreiches erheblich ausdehnte. Kulturell erlebte das Reich ebenfalls einen lebhaften Aufschwung, der als karolingische Bildungsreform (oft auch eher unpräzise als "karolingische Renaissance") bezeichnet wird. Das Karlsreich, für das vor allem die Merowinger die Grundlage gelegt hatten, einte das Gebiet des kontinentalen Europa zwischen Atlantik, Pyrenäen, Ostsee und Alpensüdrand. Nach Karls Tod 814 wurde es 843 im Vertrag von Verdun unter seinen Enkeln dreigeteilt. Das Westfrankenreich sollte die Grundlage vor allem für die Entwicklung des Königreichs Frankreich bilden. Das Ostfränkische Reich ist eng mit der Geschichte des (erst im Spätmittelalter so genannten) Heiligen Römischen Reiches verknüpft und stellt faktisch die Keimzelle des späteren Deutschlands dar, ohne aber dass sich in dieser Zeit bereits eine deutsche Identität entwickelt hatte. Mit der Teilung des Frankenreichs 843 begann sein Zerfall. Der Sohn Karls des Großen, Ludwig der Fromme, konnte dessen Einheit noch wahren. Als Nachfolger bestimmte er seinen ältesten Sohn Lothar I. Dieser bekam das Mittelreich und die Kaiserwürde, Karl der Kahle den Westteil und Ludwig der Deutsche den Ostteil. Nach dem Tod der Söhne Lothars I. wurde das einstige Mittelreich aufgeteilt unter Karl dem Kahlen und Ludwig dem Deutschen. Nach Ludwigs Tod 876 wurde dann das Ostfränkische Reich unter seinen drei Söhnen Karlmann, Ludwig dem Jüngeren und Karl dem Dicken ebenfalls aufgeteilt. 880 wurde die Grenze zum Westfränkischen Reich festgelegt, die das gesamte Mittelalter beinahe unverändert das Deutsche Reich von Frankreich scheiden sollte. Der ostfränkische König Karl der Dicke konnte nach dem Tod seiner Brüder und des westfränkischen Königs das Fränkische Reich nochmals kurze Zeit vereinigen, wurde aber nach kraftloser Herrschaft im Osten von seinem Neffen Arnulf von Kärnten, einem Sohn Karlmanns, 887 verdrängt. Mit Arnulfs Sohn Ludwig dem Kind starb 911 der letzte ostfränkische Karolinger. Um ihre eigene Macht nicht zu gefährden, wählten die Herzöge den vermeintlich schwachen Frankenherzog Konrad I. zu ihrem König (911–918). Ottonen (919–1024). Auf Konrad I. (911–918), der die karolingische Tradition nicht bewahren konnte, folgte der Sachsenherzog Heinrich I. aus dem Geschlecht der Liudolfinger („Ottonen“). Das Reich blieb bis zum Ende des Mittelalters geprägt vom Wahlkönigtum und dem Einfluss der Großen. In der neueren Forschung wird zwar die Bedeutung der Ottonenzeit für die Ausformung Ostfrankens betont, sie gilt aber nicht mehr als Beginn der eigentlichen „deutschen“ Geschichte. Der damit verbundene komplexe Prozess zog sich vielmehr mindestens bis ins 11. Jahrhundert hin. Heinrich I. verteidigte das Reich gegen Einfälle von Ungarn und Slawen. Neben dem fränkischen Erbe trat nun immer mehr eine eigene gemeinsame Identität hervor. Zum Nachfolger bestimmte Heinrich I. seinen Sohn Otto I. Dieser versuchte zuerst, die neu entstandenen Stammesherzogtümer seiner Macht zu unterstellen. Zur Sicherung seiner Macht stütze er sich immer mehr auf die Kirche (Reichskirchensystem). 955 besiegte Otto die Ungarn in der Schlacht auf dem Lechfeld. 950 wurde Böhmen und ab 963 Polen zeitweise lehnsabhängig vom römisch-deutschen Herrscher. Otto erweiterte sein Herrschaftsgebiet um Teile Italiens. Nach der Heirat mit Adelheid von Burgund nannte er sich eine kurze Zeit König der Langobarden. 962 erreichte Otto endgültig seine Anerkennung als König von Italien und danach die Kaiserkrönung durch den Papst. In Süditalien geriet er in Konflikt mit dem byzantinischen Kaiser. Sein Sohn Otto II. heiratete schließlich die Kaisernichte Theophanu, Süditalien verblieb jedoch bei Byzanz. Otto II. erlitt 982 gegen die Sarazenen eine vernichtende Niederlage. Die Gebiete östlich der Elbe (Billunger Mark und die Nordmark) gingen im großen Slawenaufstand größtenteils für etwa 200 Jahre wieder verloren. Sein Sohn Otto III. starb, bevor er seinen Plan verwirklichen konnte, die Machtbasis nach Rom zu verlegen. Auf dem Kongress von Gnesen im Jahre 1000 erkannte er den polnischen Herrscher Boleslaw I. Chrobry als Mitregenten im Reich an. Der letzte Ottonenkönig Heinrich II. hatte sich in mehreren Kriegen gegen Polen (König Boleslaw I. Chrobry) und Ungarn (König Stephan I.) zu behaupten. Unter ihm wurde das Reichskirchensystem weiter ausgebaut. Salier (1024–1125). 1024 wählten die deutschen Fürsten den Salier Konrad II. zum König. Er erwarb 1032 das Königreich Burgund und stabilisierte die Königsmacht. Sein Nachfolger Heinrich III. setzte auf der Synode von Sutri drei rivalisierende Päpste ab, ernannte den Reformer Clemens II. zum Papst und ließ sich von ihm 1046 zum Kaiser krönen. Kurz darauf erließ er ein Verbot der Simonie. Gegen Heinrichs selbstbewusste Herrschaftsausübung entstand aber auch eine Opposition im Reich, was der Beginn einer Krise der salischen Monarchie war. Während der Regierungszeit Heinrichs IV. eskalierte der sogenannte Investiturstreit, in dem die Kirchenreformer dem Kaiser Simonie vorwarfen. Heinrich erklärte Papst Gregor VII. für abgesetzt, gleichzeitig formierte sich im deutschen Reichsteil eine Opposition. Nun bannte der Papst den König. Um den Kirchenbann zu lösen, unternahm Heinrich IV. den Gang nach Canossa. 1084 setzte er Papst Gregor wiederum ab und ließ sich in Rom von Gegenpapst Clemens III. zum Kaiser krönen. Sein Sohn Heinrich V. verbündete sich schließlich mit den Fürsten gegen ihn und setzte ihn ab. Ein längerer Krieg wurde durch den Tod des Vaters 1106 verhindert. Unter Heinrich V. kam es 1122 im Wormser Konkordat zum Ausgleich mit der Kirche. Die Machtstellung der salischen Monarchie hatte aber nicht unerheblich gelitten. Im 11. Jahrhundert etablierte sich "regnum teutonicum" („Deutsches Königreich“) als Begriff und erhielt im Investiturstreit politische Konturen. Der Begriff wurde jedoch weniger von den römisch-deutschen Königen, die vielmehr stets den universalen Charakter des Reichs betonten, sondern vor allem von dessen politischen Gegenspielern (wie dem Papsttum) eher abwertend benutzt. Staufer (1138–1254). Mit Heinrichs Tod endet die Salierzeit und die Fürsten wählten Lothar III. von Supplinburg zum König. Nach dem Tod Lothars 1138 wurde der Staufer Konrad III. König. Dieser erkannte Lothars Schwiegersohn, dem Welfen Heinrich dem Stolzen, dessen Herzogtümer ab. Konrads Nachfolger Friedrich I. („Barbarossa“) versuchte den Ausgleich, indem er den Welfen Heinrich den Löwen 1156 mit den Herzogtümern seines Vaters, Sachsen und Bayern, belehnte. Heinrich der Löwe unterwarf als neuer Lehnsherr von 1147 bis 1164 die Slawen in Mecklenburg und Pommern. a>, Miniatur aus dem Rupertsberger Codex des Liber Scivias, der vor 1179 entstand. Hildegard empfängt göttliche Inspiration, die sie an ihren Schreiber weitergibt. Das Original ist seit 1945 verschollen. Im Vertrag von Konstanz 1153 erreichte Friedrich I. die Kaiserkrönung, die 1155 erfolgte. Er besiegte anfangs die nach mehr Selbständigkeit strebenden lombardischen Städte, konnte sich aber nicht dauerhaft gegen sie durchsetzen. Als Alexander III. Papst wurde, begann der Kampf zwischen Kaiser und Papst erneut. Nach der Niederlage bei Legnano musste Friedrich Alexander als Papst und den Lombardenbund anerkennen. 1180 entzog Friedrich Heinrich dem Löwen, der seine Italienpolitik nicht mehr unterstützte, dessen Herzogtümer. Am Ende musste Friedrich, der den "honor Imperii" betonte, politisch mehrere Zugeständnisse an die Großen des Reichs machen. Ab 1187 übernahm Friedrich I. die Führung der Kreuzfahrer. 1190 starb er in Syrien. Friedrichs Sohn Heinrich VI. wurde dank der Heirat mit der normannischen Prinzessin Konstanze 1194 König von Sizilien. Als Heinrich VI. 1197 starb, kam es zu einer Doppelwahl des Staufers Philipp von Schwaben, des Bruders von Heinrich VI., und des Welfen Otto IV., eines Sohns Heinrichs des Löwen. Nach der Ermordung Philipps 1208 wurde Otto IV. König. Der Papst unterstützte aber wegen Ottos Italienzug den Staufer Friedrich II., den Sohn Heinrichs VI., der 1212 zum Gegenkönig gewählt wurde. 1214 brachte die Schlacht bei Bouvines die Entscheidung für Friedrich, der 1220 die Kaiserkrone erlangte. Friedrich regierte sein Reich von seiner Heimat Sizilien aus, wo er auch über wesentlich mehr politische Macht verfügte als dies im deutschen Reichsteil der Fall war. Die Regierung in Deutschland überließ er seinem Sohn Heinrich. 1235 setzte er statt Heinrich dessen Bruder Konrad IV. ein. Es kam aufgrund der Italienpolitik Friedrichs und des politischen Machtanspruchs beider Seiten zum Machtkampf mit Papst Gregor IX., der den Kaiser 1227 bannte. Dennoch erreichte Friedrich im Heiligen Land die Übergabe Jerusalems. Der Konflikt setzte sich auch fort, als Innozenz IV. Gregors Nachfolge antrat. Innozenz erklärte den Kaiser 1245 gar für abgesetzt. Friedrich II. starb im Dezember 1250. Nach seinem Tod tobte der Kampf des Papstes gegen die Staufer weiter. Konrad IV. konnte sich im Königreich Sizilien behaupten, starb aber 1254. 1268 wurde der letzte Staufer, der sechzehnjährige Sohn Konrads IV., Konradin, im Kampf um sein sizilianisches Erbe gegen Karl von Anjou in Neapel öffentlich hingerichtet. Spätmittelalter. Das Spätmittelalter (circa 1250 bis 1500) wird in der neueren Forschung im Gegensatz zur älteren Lehrmeinung nicht mehr als Niedergangszeit begriffen. Die Zeit bis ins späte 14. Jahrhundert war stark vom Wahlkönigtum geprägt: Drei große Familien, die Habsburger, die Luxemburger und die Wittelsbacher, verfügten über den größten Einfluss im Reich und über die größte Hausmacht. Es kam zwar zu Krisen wie Hungersnöten aufgrund von Überbevölkerung (siehe auch Spätmittelalterliche Agrarkrise), Pestausbrüchen (Schwarze Tod, dem rund ein Drittel der Bevölkerung zum Opfer fiel und in dessen Verlauf es zu anti-jüdischen Pogromen kam) Mitte des 14. Jahrhunderts und zum abendländischen Schisma. Aber im Spätmittelalter florierten auch die Städte und der Handel mit der expandierenden Hanse, es kam zu grundlegenden politischen Strukturierungen und es begann der Übergang in die Renaissance. Interregnum und beginnendes Hausmachtkönigtum (1254–1313). Nach dem Ende der Staufer verfiel die Königsmacht. Das Königtum stützte sich nur noch auf ein geringes Reichsgut, das vor allem während des 14. Jahrhunderts durch Reichspfandschaften weitgehend verloren ging. Der König musste nun versuchen, seine Hausmacht zu erweitern und damit Politik zu machen. Als neuer Machtfaktor erwiesen sich inzwischen die Reichsstädte. Eine Gruppe mächtiger Reichsfürsten (die späteren Kurfürsten) wählten in einer verfassungsrechtlich bemerkenswerten Doppelwahl sowohl Richard von Cornwall aus England als auch Alfons von Kastilien zum König. Dies verschaffte den Wählenden die Möglichkeit, ihre eigene Macht weiter auszubauen, wenngleich die Forschung betont, dass die Kurfürsten gegenüber den Reichsinteressen keineswegs desinteressiert waren. Beide Gewählten waren aber zu schwach, sich im Reich durchzusetzen, und strebten eher nach der Kaiserkrone. Richard war ganz selten im Reich, Alfons hat es nie betreten. Zeitgenossen sprachen schon damals vom „Interregnum“, der königslosen Zeit, doch wird dieser Zeitraum in der neueren Forschung differenzierter beurteilt, zumal es zu keinem Zusammenbruch des Reiches kam. Das Interregnum wurde 1273 durch die Wahl Rudolfs von Habsburg beendet. Seit dieser Zeit waren die Kurfürsten das exklusive Wahlgremium und beanspruchten auch Mitwirkungsrechte. Rudolf ebnete dem Haus Habsburg den Weg, auf dem es zu einer der mächtigsten Dynastien im Reich wurde. Er konnte die Königsmacht wieder konsolidieren und effektiv Handlungsspielräume nutzen, doch gelang es ihm nicht, Kaiser zu werden. Seine beiden Nachfolger, Adolf von Nassau und Albrecht I., standen im Konflikt mit den Kurfürsten aufgrund ihrer expansiven Hausmachtpolitik. 1308 wurde der Luxemburger Heinrich VII. zum König gewählt. Dieser konnte 1310 seine Hausmacht um Böhmen erweitern, das Haus Luxemburg stieg zur zweiten großen spätmittelalterlichen Dynastie neben den Habsburgern auf. Er betrieb in Anlehnung an die Staufer wieder eine Italienpolitik und wurde im Juni 1312 in Rom zum Kaiser gekrönt. Er starb im August 1313 in Italien. Ludwig IV. der Bayer und Karl IV. (1314–1378). Nach dem Tod Heinrichs setzte sich nach einer Doppelwahl 1314 der Wittelsbacher Ludwig der Bayer gegen die Habsburger durch. 1327 zog Ludwig nach Italien und wurde im darauffolgenden Jahr in Rom zum Kaiser gekrönt, allerdings ohne Mitwirkung des Papstes, der Ludwig die päpstliche Approbation verweigerte. Im Kampf des Kaisers gegen das Papsttum, dem letzten Kampf der beiden Universalgewalten des Mittelalters, bestätigten die Kurfürsten im Kurverein von Rhense 1338, dass ein von ihnen gewählter König nicht vom Papst bestätigt werden müsse. Eine von den Luxemburgern geführte Opposition gegen Ludwigs Hausmachtpolitik formierte sich 1346. Der Luxemburger Karl IV. wurde von seinen Anhängern mit Unterstützung des Papstes zum Gegenkönig gewählt. Der Tod Ludwigs 1347 verhinderte einen längeren Krieg. Karl IV. verlegte seinen Herrschaftsschwerpunkt nach Böhmen. Er gewann unter anderem die Mark Brandenburg zu seinem Hausmachtkomplex hinzu. Im Vertrag von Namslau 1348 erkannte Kasimir der Große von Polen die Zugehörigkeit Schlesiens zu Böhmen – und damit zum Heiligen Römischen Reich – an, versuchte später jedoch beim Papst, diesen anzufechten. 1348 wurde in Prag die erste deutschsprachige Universität gegründet. 1355 wurde Karl zum Kaiser gekrönt. Er verzichtete auf eine Weiterführung der Italienpolitik und gab auch im Westen teils Reichsrechte auf; das Reichsgut verpfändete er weitgehend, so dass die nachfolgenden Könige sich endgültig nur noch auf ihr Hausgut stützen konnten. Die Goldene Bulle von 1356 stellte bis zum Ende des Heiligen Römischen Reichs eine Art Grundgesetz dar und regelte die Wahlmodalitäten (einschließlich Mehrheitsprinzip). Ihr Hauptziel war die Verhinderung von Gegenkönigen und Thronkämpfen. Karl glaubte, die Machtstellung des Hauses Luxemburg zementiert zu haben, vor allem aufgrund seiner starken Hausmacht, doch gelang es den nachfolgenden Luxemburger Königen nicht mehr, effektiv darüber zu verfügen. Beginnender Aufstieg Habsburgs (1378–1493). Das Heilige Römische Reich um 1400 Unter dem Nachfolger Karls verfiel die Königsmacht endgültig. Wenzel, der ältere Sohn Karls IV., wurde 1400 von den vier rheinischen Kurfürsten wegen Untätigkeit abgesetzt. Nach dem Tod des Nachfolgers Ruprecht von der Pfalz aus dem Hause Wittelsbach 1410 wurde mit Wenzels Bruder Sigismund, der bereits König von Ungarn war, wieder ein Luxemburger gewählt. Sigismund war ein gebildeter und intelligenter Herrscher, doch verfügte er über keine ausreichende Machtbasis im Reich. Er erreichte zwar 1433 die Kaiserkrönung, war jedoch nicht in der Lage, das Königtum zu stabilisieren. Eine Reichsreform scheiterte an Eigeninteressen der Landesherrscher. Durch die Einberufung des Konzils von Konstanz konnte er allerdings das Abendländische Schisma beenden. Mit dem Tod Sigismunds erlosch das Haus Luxemburg in männlicher Linie. Die Habsburger traten 1438 mit Albrecht die Nachfolge an. Von 1438 bis 1740 und von 1745 bis zum Ende des Reiches 1806 sollte das Haus Habsburg nun den römischen König stellen. Unter der langen Regierung von Friedrich III. (1440–1493) wurde der Grundstein für die spätere habsburgische Weltmachtpolitik gelegt. Gleichzeitig durchlief das Reich einen Struktur- und Verfassungswandel, wobei in einem Prozess „gestalteter Verdichtung“ (Peter Moraw) die Beziehungen zwischen den Reichsgliedern und dem Königtum enger wurden. Maximilian I. (1486–1519). Maximilian I. erwarb durch Heirat das Herzogtum Burgund, zu dem die reichen Niederlande gehörten, für sein Haus und behauptete es im Krieg gegen Frankreich. 1495 beschloss der Wormser Reichstag eine Reichsreform. Maximilians Sohn Philipp der Schöne wurde 1496 mit der Erbin Spaniens vermählt. Maximilian nahm 1508 ohne päpstliche Krönung den Kaisertitel an. Er beendete faktisch die Züge der römisch-deutschen Könige zur Kaiserkrönung nach Rom (sein Neffe Karl V. wurde aber noch vom Papst in Bologna gekrönt). Grund waren verschiedene schwelende Konflikte mit Frankreich und Venedig, dessen Truppen viele Alpenpässe versperrt hatten. Durch seine Heiratspolitik kamen neben der spanischen Krone auch Böhmen und Ungarn von den Jagiellonen zum Herrschaftsbereich der Habsburger. Reformation und Gegenreformation (1517–1618). Mit der Publikation seiner 95 Thesen gegen den Ablasshandel durch Martin Luther setzte 1517 die Reformation ein. 1519 wurde der Habsburger Karl V. zum König gewählt und nannte sich nach seiner Krönung im Jahre 1520 „erwählter Kaiser“; erst zehn Jahre später wurde er im Rahmen einer Aussöhnung als letzter deutscher Herrscher vom Papst gekrönt, diesmal nicht in Rom, sondern in Bologna. Unter Karl stieg Habsburg zur Weltmacht auf. Außenpolitisch war er in ständige Kriege zur Abwehr der Osmanen sowie gegen Frankreich und den Papst verwickelt. Dadurch war seine Stellung im Reich selbst schwach und er konnte die Ausbreitung der Reformation nicht verhindern. In den Jahren 1522 bis 1526 wurde in etlichen Ländern und Städten des Reichs die Lehre Luthers eingeführt. Die Reformation erfolgte durch Landesherren, die auch zum Landesbischof wurden. Der Bruder des Kaisers, Ferdinand, wollte die Duldung der Lutheraner aufheben. Dagegen protestierten die evangelischen Landesfürsten. Daher leitet sich die Bezeichnung Protestanten für Anhänger der evangelischen Glaubensrichtung ab. Die schlechte Lage der Bauern hatte schon im 15. Jahrhundert zu regionalen Aufständen geführt, während der Reformationszeit kam es 1524 bis 1526 zu einem Bauernkrieg. 1525 wurde ein Bauernheer unter Führung von Thomas Müntzer bei Frankenhausen vernichtet. Im Schmalkaldischen Krieg von 1546/1547 kam es erstmals zum Kampf der Katholiken unter Führung des Kaisers gegen die Protestanten. Der Kaiser gewann den Krieg, konnte aber das Augsburger Interim nicht durchsetzen. Als sich die Fürsten über die Religionsgrenzen hinweg gegen ihn erhoben, verzichtete Karl V. 1556 zugunsten seines Sohnes Philipp II. auf Spanien und machte seinen Bruder Ferdinand zu seinem Nachfolger im Reich. Der neue König hatte bereits 1555 den Augsburger Religionsfrieden ausgehandelt. Unter dem Eindruck der Reformation begann die katholische Kirche eine innere Reform. Zudem setzte die Gegenreformation ein. Diese bestand zum einen in der Verfolgung von Zweiflern an der offiziellen päpstlichen Lehre durch die Inquisition, zum anderen entstanden neue Orden, von denen die Jesuiten eine führende Rolle bei der Rekatholisierung spielten. Dennoch war die Religionspolitik von Ferdinands Sohn und Nachfolger Maximilian II. vergleichsweise tolerant, während in Frankreich zur selben Zeit Religionskriege wüteten. Die dezentralisierte Herrschaft im Reich erwies sich hierbei als vorteilhaft, da es in den jeweiligen Landesherrschaften unterschiedliche Konfessionen geben konnten, aber daraus wenigstens zunächst kein scharfer Gegensatz zum Kaisertum entstand, während in Frankreich das Königtum bestrebt war, ausschließlich die katholische Konfession durchzusetzen. Maximilians Sohn Rudolf II. zog sich dagegen in seiner Residenz Prag immer mehr aus der Wirklichkeit zurück, während die religiösen Konflikte sich zuspitzten. Es kam zum Kölner Krieg, als der dortige Erzbischof zum Protestantismus übergetreten war, und in den zum Reich gehörenden Niederlanden verschärfte sich der Widerstand gegen das streng katholische Regiment der spanischen Habsburger. Die protestantischen Fürsten schlossen sich 1608 unter Führung Friedrichs von der Pfalz zur Union zusammen. Entsprechend schlossen sich die katholischen Fürsten 1609 unter Führung des Bayernherzogs Maximilian I. zur Liga zusammen. Dreißigjähriger Krieg (1618–1648). Nachdem Kaiser Rudolf II. die Regierungsgeschäfte an seinen Bruder Matthias abgetreten hatte, schränkte dieser die den Protestanten gewährten Rechte wieder ein. 1618 kam es deshalb zum Prager Fenstersturz, bei dem zwei kaiserliche Räte von böhmischen Standesvertretern in der Prager Burg zum Fenster hinausgeworfen wurden. Nach dem Tod des Kaisers wurde der Führer der Union, Friedrich von der Pfalz, 1619 zum König von Böhmen erklärt. Der neue Kaiser Ferdinand II. zog mit dem Heer der katholischen Liga nach Böhmen. In der Schlacht am Weißen Berge 1620 wurde das böhmische Heer besiegt. Nach der Flucht Friedrichs besetzte Tilly die Pfalz und die Oberpfalz. Der Bayernherzog Maximilian I. bekam die Pfälzer Kurfürstenwürde. Der Dänenkönig Christian IV. rückte 1625 mit seinem Heer in Norddeutschland ein. Er wurde aber vom kaiserlichen Heer unter Tilly und dem böhmischen Adligen Wallenstein besiegt. Pommern, Jütland und Mecklenburg wurden vom katholischen Heer besetzt. Nach dem Ende des dänischen Krieges erließ der Kaiser 1629 das Restitutionsedikt. Besorgt wegen seiner erheblich gestiegenen Machtfülle erreichten die Reichsstände auf dem Regensburger Kurfürstentag 1630 die Absetzung seines Feldherrn Wallenstein. Nun griff der Schwedenkönig Gustav II. Adolf ins Kriegsgeschehen ein. Bei Rain fiel 1632 Tilly. Der Kaiser setzte daraufhin Wallenstein wieder ein. Bei der Schlacht von Lützen 1632 fiel der Schwedenkönig. Wallenstein wurde 1634 erneut abgesetzt und bald darauf ermordet. Um die Schweden vom deutschen Boden zu vertreiben, schloss der Kaiser mit dem protestantischen sächsischen Kurfürsten 1635 einen Sonderfrieden, den Frieden von Prag. Das Heilige Römische Reich Deutscher Nation 1648 Das katholische Frankreich griff 1635 auf schwedischer Seite ein, jedoch konnte keine der beiden Seiten den Krieg für sich entscheiden. Große Teile des Reiches wurden verwüstet. Die Vorkriegs-Einwohnerzahl wurde erst wieder um 1750 erreicht. Der neue Kaiser Ferdinand III. bemühte sich seit 1637 verstärkt um Friedensverhandlungen, aber Deutschland war längst zum Spielball fremder Mächte geworden, wodurch sich das Leid der Bevölkerung weiter verlängerte. Die seit 1642 laufenden Verhandlungen führten am 24. Oktober 1648 zum Westfälischen Frieden. Der Friedensschluss beinhaltete eine Abtretung von Teilen Lothringens und des Elsass an Frankreich. Die Niederlande und die Schweiz schieden offiziell aus dem Reich aus. Die Stellung der Reichsstände und der Territorien wurde gestärkt und der Augsburger Religionsfriede bestätigt. Bei einem Konfessionswechsel des Landesherrn wurde nicht mehr von der Bevölkerung dasselbe verlangt. Die Macht des Kaisers wurde noch weiter eingeschränkt, seine Durchsetzungskraft beruhte in der Zukunft nur noch auf der Stellung seiner Dynastie. Das Heilige Römische Reich zerfiel in 382 souveräne und halbsouveräne Territorien. Dieses Reichsgebilde wurde vom zeitgenössischen Staatsrechtler Samuel Pufendorf als „Monstrum“ oder „durch göttliche Fügung bewahrtes Unding“ bezeichnet. Pufendorf verwendete aber auch als einer der ersten die Bezeichnung „Deutschland“. Absolutismus (1648–1789). Friedrich Wilhelm I. von Brandenburg Die Zerstörungen und Bevölkerungsverluste des Dreißigjährigen Kriegs förderten die Entwicklung staatlich gelenkter Wirtschafts- und Sozialpolitik. Verbunden mit der merkantilistischen Wirtschaftsform war das Entstehen der absolutistischen Herrschaftsform nach Vorbild des französischen Königs Ludwig XIV. Unter Kurfürst Friedrich Wilhelm begann seit 1640 der Aufstieg Preußens. Der nachfolgende Kurfürst Friedrich III. ließ sich 1701 zum König Friedrich I. "in Preußen" krönen. Die Standeserhebung gelang nur, weil er als Herzog von Preußen über ein Territorium außerhalb der Grenzen des Heiligen Römischen Reiches verfügte, das völlig souverän vom Reich war. Gegen eine Zahlung von zwei Millionen Talern und die Entsendung eines Truppenkontingentes für die Reichsarmee stimmte der habsburgische Kaiser Leopold I. schließlich zu. Der Aufstieg Brandenburg-Preußens, später einfach nur als Königreich Preußen bezeichnet, führte zum Dualismus mit Österreich, der Deutschlands Innenpolitik bis 1866 bestimmen sollte. Unter dem Habsburger Kaiser Leopold I. war das Reich der zweifachen Bedrohung durch die Osmanen und den Expansionsdrang Frankreichs unter Ludwig XIV. ausgesetzt. 1683 konnte der Kaiser mit Unterstützung einiger deutschen Fürsten und des Polenkönigs Jan III Sobieski, der die Schlacht am Kahlenberg bei Wien gegen Kara Mustafa gewann, die Türken vor Wien schlagen und aus Ungarn vertreiben. Dadurch wurde ein Krieg gegen Frankreich verhindert, zu dem schon gerufen werden sollte. Frankreich hatte sich – die außenpolitische Gelegenheit nutzend – unter Ausschluss der verfassungsgemäßen Gegebenheiten die freie Reichsstadt Straßburg und andere elsässische Gebiete in sein Territorium einverleibt, obwohl diese Gebiete Reichsstände waren. Durch die Wahl des sächsischen Kurfürsten Friedrich August I. 1697 zum König von Polen kam es bis 1763 zu einer Personalunion von Sachsen und Polen, die durch den Großen Nordischen Krieg und den Polnischen Thronfolgekrieg unterbrochen wurde. Ebenso gab es von 1714 bis 1837 eine Personalunion von Hannover und England. Das Aussterben der spanischen Habsburger löste 1701 den Spanischen Erbfolgekrieg aus, der mit dem Tod von Joseph I. eine für Habsburg ungünstige Wende nahm, allerdings auch die Kräfte Frankreichs erschütterte. Das österreichische Haus Habsburg war unter Leopold I. und Joseph I. dennoch zur europäischen Großmacht geworden. Das Aussterben der österreichischen Habsburger im Mannesstamm mit Kaiser Karl VI. führte 1740 zum Österreichischen Erbfolgekrieg. Der Wittelsbacher Karl VII. wurde zum neuen Kaiser gewählt, Friedrich II. fiel im habsburgischen Kronland Schlesien ein. Karls VI. Tochter Maria Theresia konnte die Kaiserkrone für ihren Gemahl Franz I. zwar mit britischer Hilfe schließlich gegen preußische Hegemonialansprüche verteidigen, sie verlor aber im Siebenjährigen Krieg 1763 Schlesien endgültig an Preußen. Schweden verlor durch seine Niederlage im Großen Nordischen Krieg (1700–1721) gegen Russland, Dänemark, Sachsen-Polen und Preußen fast alle Besitzungen im Reich. Durch die drei Teilungen Polens 1772, 1793 und 1795 kamen Österreich und Preußen zu erheblichen Gebietsgewinnen. Die Aufklärung hielt Einzug in Preußen unter Friedrich dem Großen (der "Alte Fritz"), der nach den Prinzipien des aufgeklärten Absolutismus herrschte. Auch in Österreich unter Kaiser Joseph II. hielt die Aufklärung Einzug. Sie führte jedoch nicht zu Reformen, die die feudalen Machtverhältnisse erschütterten. Josephs Bruder und Nachfolger Leopold II. musste einen Teil der Reformen in den österreichischen Erblanden wieder zurücknehmen. Das „lange 19. Jahrhundert“ (1789–1914). Als historische Epoche hat das 19. Jahrhundert Überlänge, indem es jeweils mit umwälzenden Ereignissen auch für die Geschichte Deutschlands schon 1789 anfängt und erst 1914 endet. Den Auftakt bilden die Französische Revolution und Napoleon Bonapartes zeitweilige Vorherrschaft über Europa; das Ende markiert der Ausbruch des Ersten Weltkriegs, mit dem nach einem Wort des damaligen britischen Außenministers Edward Grey in Europa die Lichter ausgingen. Für Deutschland war dieses lange Jahrhundert jene Epoche, in der Freiheit und Einheit der Nation als Bürgerforderungen den deutschen Fürsten präsentiert wurden und in der 49 vorerst scheiterten, in der die industrielle Revolution neue wirtschaftliche, soziale und politische Strukturen hervorbrachte und in der mit Hilfe des preußischen Militärs unter Bismarcks politischer Leitung das Deutsche Kaiserreich zustande kam. Vom Ende des Alten Reiches bis zum Scheitern Napoleons I.. Das Heilige Römische Reich am Vorabend der Französischen Revolution 1789 In der mit Freiheitspathos, allgemeinen Menschenrechten und gewaltenteilender Verfassung verbundenen Frühphase der Französischen Revolution wurden diese Errungenschaften auch in Deutschland teils enthusiastisch begrüßt. Man kannte und schätzte in gebildeten Kreisen französische Aufklärer wie Voltaire, Montesquieu und Rousseau. Die Radikalisierung des Revolutionsgeschehens in Frankreich bis hin zum Dauereinsatz der Guillotine gegen „Feinde des Volkes“ und Verdächtige führte außerhalb jedoch schnell zu weit überwiegender Ablehnung dieser Entwicklung. Die aus dem revolutionären Frankreich geflohenen adligen Emigranten schürten die gegenrevolutionäre Stimmung an den Höfen im Ausland. In der Pillnitzer Deklaration drohten Kaiser Leopold II. und König Friedrich Wilhelm II. von Preußen bereits mit militärischer Intervention zugunsten des französischen Königs Ludwigs XVI. In den nachfolgenden Koalitionskriegen gegen das französische Revolutionsheer gab es aber keinen durchschlagenden Erfolg. Vielmehr gelang es dem aus dessen Reihen hervorgegangenen General Napoleon Bonaparte, durch militärische Erfolge und politisches Geschick die Führung der Republik an sich zu reißen, sich alsbald zum Kaiser der Franzosen zu krönen und auch die politischen Verhältnisse in Deutschland in seinem Sinne neu zu ordnen. Während die Franzosen als Nation in einem Staat geeint waren, bot das Heilige Römische Reich deutscher Nation eher ein Bild staatlicher Zersplitterung in die Territorien unterschiedlichster Größe der mehr als 300 Reichsstände. Als Kulturnation durch Sprache, Literatur und Geistesleben geeint, waren die Deutschen weit davon entfernt, eine Staatsnation zu bilden. Für Goethe war Deutschland nicht recht dingfest zu machen: „Wo das gelehrte beginnt, hört das politische auf.“ Mit dem Frieden von Lunéville 1801, der das ganze linksrheinische Gebiet Frankreich angliederte und Kompensationsansprüche deutscher Reichsstände zur Folge hatte, wurde Napoleon zum „Schiedsrichter über Deutschland“. Seinem politischen Gestaltungsanspruch unterlag folglich auch der Reichsdeputationshauptschluss 1803, durch den die katholischen Fürsten in Deutschland im Zuge der Säkularisation und Mediatisierung fast alle ihre Besitzungen verloren. Gebietszuwächse erlangten dabei vor allem Preußen, Bayern, Württemberg und Baden. Kurz nachdem Napoleon sich 1804 zum Kaiser der Franzosen gemacht hatte, erklärte sich Franz II. zum erblichen Kaiser von Österreich, da er als römisch-deutscher Kaiser bedeutungslos geworden war. Mit dem Sieg Napoleons in der Dreikaiserschlacht bei Austerlitz 1805, der Gründung des Rheinbunds unter französischem Protektorat 1806 und der Niederwerfung Preußens durch Napoleon in der Schlacht bei Jena und Auerstedt sowie seinem anschließenden Einzug in Berlin nahm die Franzosenzeit in Deutschland forciert ihren Lauf. Die Sonderformation der Rheinbundstaaten setzte den Schlusspunkt unter die Auflösung des Alten Reiches, da Franz II. als römisch-deutscher Kaiser nun auch formal abdankte. Der Rheinbund, über den Napoleon militärisch wie außenpolitisch gebot, vollzog teilweise innere Reformen nach französischem Vorbild, wurde aber je länger desto deutlicher zu einem Instrument französischer Hegemonie im Dienste Napoleons. Preußen verlor im Frieden von Tilsit die Besitzungen westlich der Elbe und fast alle Gebietszuwächse aus den Teilungen Polens: Es wurde nahezu halbiert. Die auch durch die französische Besatzung sinnfällige Bedrohung seiner staatlichen Existenz bereitete aber auch den Boden für die Preußischen Reformen unter Stein und Hardenberg, die zumal für das Militär (Scharnhorst und Gneisenau), für die Wirtschaft sowie für das Bildungwesen (Wilhelm von Humboldt) neue Kräfte wecken und neue Ressourcen erschließen sollten. Weil Napoleon Deutschland hauptsächlich als imperiale Rekrutierungsbasis der Grande Armée behandelte und zum Objekt finanzieller und wirtschaftlicher Ausbeutung machte, schlugen anfängliche Bewunderung für den Korsen oder relative Gleichgültigkeit um in Abneigung, Verbitterung und Hass auf die französische Okkupationsmacht. Die Verhängung der Kontinentalsperre gegen England durch Napoleon, die ein ausgedehntes Schmuggelwesen erzeugte, gegen das wiederum mit militärischen Mitteln repressiv vorgegangen wurde, ließ den allgemeinen Unmut weiter ansteigen. Man war ständig Kontrollen und Schikanen ausgesetzt, litt unter Teuerung und Versorgungsengpässen. Erst Napoleons gescheiterter Russlandfeldzug ließ 1813 eine Lage entstehen, in der durch eine Koalition der anderen europäischen Mächte die Napoleon verbliebenen Truppen geschlagen und die französische Vorherrschaft in Deutschland wie in Europa beendet werden konnte. Das Signal für den Beginn der Befreiungskriege setzte der preußische General Yorck von Wartenburg, indem er am 30. Dezember 1812 ohne die Order seines noch mehrere Wochen zögerlichen Königs die Konvention von Tauroggen abschloss. Offiziell wurde die preußisch-russische Allianz Ende Februar 1813. Österreich trat erst im August 1813 in den Krieg gegen Napoleon ein, trug aber zu dessen Niederlage in der Völkerschlacht bei Leipzig wesentlich bei. Nun sagten sich auch die Rheinbundstaaten von Napoleon los, und bis zum Jahresende war ganz Deutschland befreit. Deutscher Bund und „Heilige Allianz“ (ab 1815). Die 39 Bundesstaaten des Deutschen Bundes Als die europäischen Mächte auf dem Wiener Kongress darangingen, die Hinterlassenschaft der Ära Napoleons auch in Deutschland neu zu ordnen, suchte man die Balance zu halten zwischen einer Zersplitterung, die als Machtvakuum Begehrlichkeiten der westlichen wie der östlichen Nachbarmächte Frankreich und Russland hätte wecken können, und einer national geeinten deutschen Großmacht, die ihrerseits auf Expansionskurs hätte gehen können. Als für alle akzeptable Neuschöpfung entstand so der Deutsche Bund, kein Bundesstaat, sondern ein Staatenbund aus 41 souveränen Mitgliedern mit einem in Frankfurt am Main tagenden ständigen Gesandtenkongress, dem Bundestag, als einzigem gemeinsamen Organ. Mit den Königen von England, den Niederlanden und Dänemark waren einerseits auch ausländische Fürsten mit Territorialbesitz im Deutschen Bund vertreten; die Herrscher Österreichs und Preußens andererseits geboten zusätzlich über Gebiete außerhalb des Bundes. Der betont restaurative Charakter der Beschlüsse des Wiener Kongresses zeigte sich besonders in der von Zar Alexander I. initiierten Heiligen Allianz, in der die europäischen Herrscher einander Verbundenheit und wechselseitigen Beistand bezeugten und darin übereinstimmten, ihre Völker in väterlichem Sinne christlich und friedlich zu regieren. „Die Heilige Allianz ist kein Instrument realer Politik der europäischen Mächte, aber sie wird ein Symbol der konservativen, der antirevolutionären Restauration und Stabilisierungspolitik.“ In der politischen Praxis gingen die beiden Großmächte innerhalb des Deutschen Bundes, Österreich mit Metternich an der Spitze und Preußen, besonders entschieden auf Restaurationskurs. So löste Friedrich Wilhelm III. von Preußen zur allgemeinen Enttäuschung aller Reformanhänger sein wiederholtes Versprechen nicht ein, Preußen zu einem Staat mit Verfassung zu machen, während in Süddeutschland eine ganze Reihe von Verfassungsstaaten entstanden. Das hatten sich viele der Freiwilligen anders vorgestellt, die für Freiheit und Einheit des Vaterlands in die Befreiungskriege gezogen waren. Die Proteststimmung konzentrierte sich in den studentischen Burschenschaften und kam in öffentlichen Manifestationen zum Ausdruck, so beim Wartburgfest 1817, wo neben den Forderungen nach nationaler Einheit und konstitutioneller Freiheit auch solche gegen den Polizeistaat und die feudale Gesellschaft geäußert wurden. Die Ermordung des Schriftstellers August von Kotzebue, der die Burschenschaften verspottet und die russische Regierung mit Berichten über jakobinische Tendenzen an deutschen Universitäten versorgt hatte, durch den Theologiestudenten Karl Ludwig Sand sowie ein weiteres Attentat mit burschenschaftlich-radikalem Hintergrund wurden zum Anlass für die von Metternich betriebenen Karlsbader Beschlüsse 1819. Diese führten zum Verbot der Burschenschaften, zur Überwachung der Universitäten auch hinsichtlich staatsfeindlicher Lehre, zu ausgedehnter Zensur von Druckerzeugnissen und zur „Exekutionskompetenz gegen widerspenstige oder revolutionäre Gliedstaaten“ des Deutschen Bundes. „Indem jede freie Bewegung abgewürgt und unterdrückt wurde, konnte sich kein politisches Leben, Öffentlichkeit und Verantwortung bilden, keine großen Ziele und keine konkreten Aufgaben, kein freies Wechselspiel der verschiedenen Kräfte.“ Das deutsche Leben wurde ins Innerliche abgedrängt, in Kunstverehrung, Wissenschaft oder Geschichte, in eine weitgehende Entpolitisierung jedenfalls. Bürger, die ihre politische Protesthaltung nicht im Untergrund hochhalten oder theoretisch vertiefen wollten, widmeten sich verstärkt dem Privatleben in Haus und Familie. Kleinheit, Überschaubarkeit und Gemütlichkeit gehörten zum Biedermeier-Ambiente und prägten das Zusammenleben. Der gemeinsame Sonntagsspaziergang der Familie wurde im bürgerlichen Milieu nun ebenso üblich wie der Weihnachtsbaum, das Weihnachtsliedersingen und die Hausmusik im kleinen Kreis. Vormärz und Revolution 1848/49. Jubelnde Revolutionäre nach Barrikadenkämpfen in Berlin am 19. März 1848 Die Julirevolution von 1830 in Frankreich hatte auch weiter östlich Auswirkungen. So kam es zu einem vergeblichen Aufstand in Polen gegen Russlands Vorherrschaft und zu einem polnischen Emigrantenstrom nach Westen. In Deutschland löste sich die zwischenzeitliche Erstarrung des politischen Lebens. Eine deutliche Manifestation wiedererwachten öffentlichen Eintretens für Freiheit und Einheit war das Hambacher Fest 1832, wo im Zeichen schwarz-rot-goldener Fahnen unter dem Jubel der Menge Bekenntnisse zu einem geeinten, demokratisch-republikanischen Deutschland abgelegt wurden. Zwar blieben repressive Reaktionen nicht aus, aber es zeigte sich darin wie auch im Professoren-Widerstand der Göttinger Sieben 1837, dass das fortbestehende Regime der Karlsbader Beschlüsse nicht überall durchschlug. In der Rheinkrise 1840, ausgelöst durch französische Ambitionen auf linksrheinische deutsche Territorien, fanden Bürger und Regierende in nationalem Selbstbehauptungsstreben zusammen. Das Kölner Dombaufest 1842 inszenierte Friedrich Wilhelm IV. von Preußen „als Bekenntnis zu deutscher Größe und zur Versöhnung der Konfessionen im Zeichen eines gemeinsamen kulturellen Erbes“, jedoch ohne die Bereitschaft, sein verfassungsloses „väterliches Regiment“ in Frage stellen zu lassen. Neben uneingelösten politischen Forderungen im Bürgertum waren für die Destabilisierung der Ordnung des Deutschen Bundes im Vormärz auch soziale Missstände mitursächlich. Dem Bevölkerungswachstum zwischen 1815 und 1848 von 22 auf 35 Millionen Menschen (+59 Prozent) stand keine auch nur annähernd proportionale Steigerung der landwirtschaftlichen Produktion gegenüber, mit der Folge einer desolaten Versorgungslage. Pauperismus steht als Begriff und Zustandsbeschreibung für das Elend dieser Zeit. Kartoffelfäule und Getreidemissernten verschlechterten die Lage ab 1845 zusätzlich. Als die Februarrevolution 1848, wiederum von Paris ausgehend, in Europa Wellen schlug, gab es deshalb eine breit gestreute Unzufriedenheit und Auflehnungsbereitschaft gegen die bestehenden Verhältnisse. In Wien wurde am 13. März Metternichs Rücktritt erzwungen, während der Kaiserhof seinen Sitz vorübergehend nach Innsbruck verlegte. In Berlin reagierte Friedrich Wilhelm IV. auf Barrikadenkämpfe und Revolutionstote in der Märzrevolution mit einem Aufruf, der Volksvertretungen auf ständischer Grundlage befürwortete, der die für ein zu einendes Deutschland stehenden Symbolfarben Schwarz-Rot-Gold vereinnahmte und mit der Formel schloss: „Preußen geht fortan in Deutschland auf.“ 500 Liberale und Demokraten aus ganz Deutschland bildeten am 31. März in Frankfurt am Main ein Vorparlament, dessen Beratungsergebnisse von einem nunmehr durch liberale Märzregierungen geprägten Bundestag in Beschlüsse umgesetzt wurde. Abgelöst wurde es am 18. Mai 1848 durch das Zusammentreten der gewählten Deutschen Nationalversammlung in der Frankfurter Paulskirche. Die Paulskirchenversammlung beschäftigte sich zunächst hauptsächlich mit der Ausarbeitung einer Verfassung und vernachlässigte dabei die Klärung der Machtfrage gegenüber den sich allmählich konsolidierenden restaurativen Kräften in Österreich und Preußen. Mit der Bildung einer provisorischen Regierung anstelle des Bundestags am 28. Juni 1848 und der Einsetzung des Erzherzogs Johann von Österreich als Reichsverweser setzte sie ein Signal zur Beteiligung Österreichs am deutschen Nationalstaat und brüskierte damit Friedrich Wilhelm IV. von Preußen. Die Schwäche der von der Nationalversammlung bestellten Exekutive zeigte sich speziell in militärischer Hinsicht, als beide deutsche Großmächte und dazu einige Mittelmächte die Huldigung ihrer Truppen gegenüber dem Reichsverweser verweigerten. Und so kümmerte sich die preußische Regierung in der Auseinandersetzung mit Dänemark um Schleswig und Holstein im August 1848 nicht um Frankfurter Direktiven, sondern folgte allein der eigenen Interessenlage. Die ursprünglich favorisierte großdeutsche Lösung für einen deutschen Nationalstaat unter Einbeziehung von Teilen des österreichischen Vielvölkerstaats scheiterte im Herbst 1848 am Selbstbehauptungsanspruch der wiedererstarkten Monarchie. Die danach später zwecks Verwirklichung einer kleindeutschen Lösung nach Berlin entsandte Paulskirchendelegation wurde mit ihrem Angebot der Kaiserkrone an Friedrich Wilhelm IV. ebenfalls abschlägig beschieden. Auch dessen Stellung war an jenem 3. April 1849 längst wieder so gefestigt, dass er mit dem „Ludergeruch der Revolution“ nichts mehr zu tun haben wollte. Danach ging die Nationalversammlung in Auflösung über, bis ein nach Stuttgart verlegtes Rumpfparlament von württembergischem Militär am 18. Juni 1849 auseinandergetrieben wurde. Die im Zusammenhang mit einer Reichsverfassungskampagne stehenden Maiaufstände in Dresden, in der Rheinpfalz und in Baden waren da bereits gescheitert; die letzten Revolutionäre ergaben sich am 23. Juli in Rastatt. Der verbleibende Ertrag und wesentliche Rezeptionsaspekte der gescheiterten Revolution von 1848/49 lagen vornehmlich auf der Verfassungsebene: Zum einen kam nun auch in Preußen der Konstitutionalisierungsprozess in Gang. Zum anderen wurden mit der am 28. März 1849 kurzzeitig in Kraft getretenen Paulskirchenverfassung etwa bezüglich der Grundrechte und der Bundesstaatlichkeit erstmals für Deutschland Normen gesetzt, die später in der Weimarer Verfassung 1919 und im Grundgesetz für die Bundesrepublik Deutschland 1949 aufgenommen wurden. Ob die historische Niederlage des deutschen Liberalismus 1848/49 in einen deutschen Sonderweg mündete, der Deutschland weg von freiheitlichen Traditionen des Westens und letztlich in den Zivilisationsbruch der NS-Zeit führte, wird in der Geschichtswissenschaft kontrovers diskutiert. Industrialisierung und preußisch-österreichischer Dualismus (1850–1866). Mit dem doppelten Scheitern der Frankfurter Nationalversammlung erst an der österreichischen, dann auch an der preußischen Reaktion waren nun auch die von der Revolution inspirierten liberalen Verfassungen hinfällig und wurden durch obrigkeitsgefälligere Modelle abgelöst. Zu einem Dauerkonflikt für anderthalb Jahrzehnte wurde die Rivalität der beiden Großmächte um die Führungsrolle in Deutschland. Wirtschaftspolitische Voraussetzungen und Entwicklungsprozesse spielten dabei eine wichtige, die preußischen Ambitionen letztlich begünstigende Rolle. Ab der Mitte des 19. Jahrhunderts kam die Industrielle Revolution in Deutschland verstärkt zum Zuge. Mit dem Deutschen Zollverein von 1834 waren über Preußen hinausgehend elementare Voraussetzungen zur Herstellung eines einheitlichen Wirtschaftsraumes geschaffen, in dem sich künftig auch politische Interessen bündeln ließen. Zur Förderung industriellen Wachstums waren neben weiträumigen Märkten auch verbesserte Transportwege und Nachrichtenkommunikation sowie ein mobiler Kapitalmarkt günstig. Maßgeblichen Anteil an dem sich beschleunigenden Industrialisierungsprozess hatte das energisch vorangetriebene Eisenbahnwesen, sei es beim Auf- und Ausbau des Schienennetzes oder bei der Herstellung von Lokomotiven, wie z. B. in den Borsigwerken. Im Ergebnis wurden die Transportkosten um bis zu 80 Prozent gesenkt und die allgemeine Mobilität gestärkt. Für Bodenschätze, Ernteerträge und Massenwaren konnten nun größere Märkte erschlossen werden. Ab der Jahrhundertmitte wurden Aktienbanken für die Finanzierung von Industrie und Handel typisch. Der durch die Industrialisierung angestoßene Strukturwandel verlief in Preußen in mehrerer Hinsicht dynamischer als in Österreich. Neben ein höheres Bevölkerungswachstum auf preußischer Seite trat eine beschleunigt veränderte Beschäftigungssituation: Während in Österreich erst am Ende des 19. Jahrhunderts weniger als 60 Prozent der Bevölkerung in der Landwirtschaft tätig waren, bestand dieses Verhältnis in den außerösterreichischen Gebieten des Deutschen Bundes mehr als ein halbes Jahrhundert früher. „Die Standortnachteile bei Kohle und Eisen, das Fehlen verkohlbarer Kohle, die ungünstigen Verkehrsverhältnisse und vor allem die wesentlich geringere durchschnittliche Produktivität und Kaufkraft schon im Bereich des Agrarsektors – 40 Gulden pro Kopf und Jahr in der Monarchie, 78 Gulden im Zollverein (1852) – hatte ein unaufhaltsames Zurückfallen der österreichischen Wirtschaft zur Folge.“ Bis in die erste Hälfte der 1860er Jahre blieb aber die österreichische Diplomatie darin erfolgreich, die preußischen Ambitionen auf eine mindestens gleichrangige Führungsrolle in Deutschland abzuwehren. Während Preußen unmittelbar nach der gescheiterten Revolution mit der Bildung einer kleindeutschen Union unter preußischer Führung durchzudringen suchte, setzte Österreich auf Wiederherstellung des Deutschen Bundes und hatte dabei Russlands Unterstützung. Mit der Olmützer Punktation nahm Preußen von einer militärischen Auseinandersetzung Abstand und kehrte in den Deutschen Bund mit Österreich als "Präsidialmacht" zurück. Das österreichische Streben nach Schaffung eines mitteleuropäischen Wirtschaftsraums durch Beteiligung an Preußens Zollverein scheiterte jedoch am preußischen Widerstand und daran, dass die deutschen Mittelstaaten sich politisch zwar eher an Österreich hielten, wirtschaftlich aber vom Verbund mit Preußen profitierten. Otto von Bismarck, um 1862 Dass das Präsidieren im Deutschen Bund der äußeren Machtstellung Österreichs nichts nützte, wenn Preußen sich verweigerte, zeigte sich sowohl im Krimkrieg als auch im zweiten italienischen Unabhängigkeitskrieg, der für Österreich mit dem Verlust der Lombardei endete. Auch die vorübergehende Schwächung Preußens durch den inneren Konflikt um Heeresreform und Verfassung konnte Österreich gegen den Widerstand des nunmehr zum preußischen Ministerpräsidenten berufenen Otto von Bismarck nicht zur Festigung des Führungsanspruchs im Deutschen Bund nutzen. Bismarck formulierte ein kampfbetontes Programm: „Preußens Grenzen nach den Wiener Verträgen sind zu einem gesunden Staatsleben nicht günstig; nicht durch Reden und Majoritätsbeschlüsse werden die großen Fragen der Zeit entschieden – das ist der große Fehler von 1848 und 1849 gewesen –, sondern durch Blut und Eisen.“ Den Krieg gegen Dänemark um Schleswig führten beide Mächte 1864 gemeinsam und einigten sich danach auch in der Folgenregelung: Nach zunächst gemeinsamer Zuständigkeit für beide Herzogtümer kam Holstein 1865 unter österreichische, Schleswig unter preußische Verwaltung. Seit Anfang 1866 betrieb Bismarck in der Holstein-Frage eine auf Konfliktschürung angelegte Politik, die Preußens Führung in Deutschland zum Ziel hatte. Durch eine Allianz mit Italien und die Erlangung der Neutralität Napoleons III. konnte Bismarck auch Wilhelm I. für den Waffengang gegen Österreich gewinnen, das von den übrigen deutschen Staaten keine durchschlagende militärische Unterstützung erhielt. In dem knapp sechswöchigen Deutschen Krieg besiegte das preußische Lager zunächst die Österreich verbundenen deutschen Mittelmächte und in der Schlacht bei Königgrätz dann auch das österreichische Heer selbst. Um ein französisches Eingreifen zu vermeiden, begnügte sich Preußen im anschließenden Friedensschluss mit Österreichs Verzicht auf Mitwirkung in den deutschen Angelegenheiten, mit der endgültigen Auflösung des Deutschen Bundes sowie mit der Gründung eines Norddeutscher Bundes unter Führung Preußens nördlich der Mainlinie. Die süddeutschen Staaten erhielten die Möglichkeit, sich zu einem Südbund zusammenzuschließen, der allerdings nicht verwirklicht wurde. Norddeutscher Bund und Kaiserreich im Zeichen Bismarcks (1866–1890). Die Verfassung des Norddeutschen Bundes wie auch die unter preußischer Führung betriebene Wirtschafts- und Infrastrukturpolitik nahmen das nachfolgende Kaiserreich in mancher Beziehung voraus bzw. zielten darauf hin. Wie in der nachmaligen Verfassung des Kaiserreichs gab es einen Bundesrat mit starkem preußischen Übergewicht, einen Kanzler Bismarck, der in Personalunion die Funktionen des preußischen Ministerpräsidenten und des Außenministers vereinte, sowie einen Reichstag als Entscheidungsorgan über Gesetzgebung und Staatshaushalt. Die Anbindung der süddeutschen Staaten an den Weltmarkt war wesentlich auf die Nutzung preußischer Eisenbahnen und Wasserwege angewiesen. Durch Zollverein und zentralisierte Gesetzgebung wurde der wirtschaftliche und rechtliche Rahmen in den Mitgliedsstaaten des Norddeutschen Bundes vereinheitlicht. Zum Frankreich Napoleons III., der für seine Neutralität im preußisch-österreichischen Krieg und für die Hinnahme von Preußens Machtzuwachs wenigstens mit Luxemburg hatte abgefunden werden wollen – was vor allem an England scheiterte –, bestanden zunehmend Spannungen, die hinsichtlich der spanischen Thronfolge eskalierten, als ein Kandidat aus dem Hause Hohenzollern, Leopold von Hohenzollern-Sigmaringen, dafür im Gespräch war. Die von Bismarck redigierte Emser Depesche provozierte Frankreichs Kriegserklärung. Auch im Deutsch-Französischen Krieg von 1870/1871 behielt das preußische Militär die Oberhand (Schlacht bei Sedan) und schuf damit die Voraussetzungen zur Gründung des Deutschen Kaiserreiches, die mit der Krönung Wilhelms I. zum Deutschen Kaiser im Spiegelsaal von Schloss Versailles am 18. Januar 1871 vollzogen wurde. Nicht nur das mussten die Franzosen hinnehmen, sondern im Frieden von Frankfurt am Main als Kriegsverlierer zudem die Abtretung von Elsass und Lothringen sowie eine Kriegsentschädigung des Siegers in Höhe von fünf Milliarden Goldfranken. Vor allem die süddeutschen Staaten Württemberg und Bayern ließen sich ihre Einbeziehung in das Kaiserreich mit Reservatrechten abgelten. Diese betrafen unter anderem Bier- und Branntweinsteuern sowie die Post- und Eisenbahnverwaltungen. Das deutsche Volk kam mit der Reichstagswahl vom 3. März 1871 erst ins Spiel, als die Weichen bereits gestellt waren. Die politische Orientierung und Interessenartikulation der Bürger vermittelten die Parteien, die in Deutschland von weltanschaulichen Grundsätzen geprägt waren und seit der Revolution 1848/49 ein Fünfparteiensystem aus Konservativen, rechten und linken Liberalen, Katholizismus und Sozialisten bildeten. Als erste organisiert hervorgetreten waren im 19. Jahrhundert die Liberalen, die Freiheit und Einheit der Nation in einer Gesellschaft rechtsgleicher Bürger anstrebten: einen Nationalstaat mit liberaler Verfassung. An der Haltung gegenüber Bismarcks antiparlamentarischem Kurs bei der Budgetierung des preußischen Militärs schieden sich die Nationalliberalen von der älteren Fortschrittspartei. Die Konservativen traten im Rahmen der neuen Verfassungsordnung für die Vorrechte von Monarch, Regierung und ländlichem Grundbesitz ein, für Kirche, Militär und Adel. Die Interessen der anwachsenden Industriearbeiterschaft richteten sich seit der Gründung des Allgemeinen Deutschen Arbeitervereins (ADAV) durch Ferdinand Lassalle auf die Durchsetzung des allgemeinen Wahlrechts und die Verbesserung der Lebens-, Arbeits- und Lohnverhältnisse durch Machtzuwachs im staatlichen Institutionengefüge. Seit dem Gothaer Vereinigungsparteitag 1875 mit der SDAP bildeten die Sozialdemokraten eine geschlossene und weiter wachsende politische Bewegung. Die Existenz einer katholischen Volkspartei, des Zentrums, lässt sich mit der Minderheitslage der Katholiken in einer vornehmlich protestantisch und teils säkular geprägten Gesellschaft erklären, in der Katholiken – außer in Bayern – einem nichtkatholischen „Regierungsestablishment“ gegenüberstanden. Bismarcks sowohl durch seine Stellung im Verfassungssystem als auch durch das Vertrauen Wilhelms I. bedingte starke Position als Reichskanzler verschaffte ihm im Kaiserreich großen politischen Gestaltungsspielraum, den er mit wechselnden Partnern innerhalb des Parteienspektrums zu nutzen wusste. Dabei ging es ihm um die Stabilisierung und Modernisierung des Reiches ebenso wie um die Konservierung politischer und gesellschaftlicher Hierarchien. Bei der Modernisierung handelte es sich unter anderem um Vereinheitlichung und Liberalisierung der Wirtschaftsordnung, um reichsweite Gewerbe- und Niederlassungsfreiheit, um die Vereinheitlichung des Rechtswesens, um Verwaltungsreformen und die Einführung der Verwaltungsgerichtsbarkeit, lauter Anliegen, für die Bismarck von den Liberalen unterstützt wurde. Das galt auch für sein Vorgehen im Kulturkampf gegen die Machtposition des katholischen Klerus, dessen Einfluss auf mehreren Ebenen durch die Reichsgesetzgebung zurückgedrängt wurde, speziell durch das Verbot politischer Aufwiegelung von der Kirchenkanzel herab, durch Beseitigung der geistlichen Schulaufsicht, Einführung der obligatorischen Zivilehe und Streichung von staatlichen Leistungen an den Klerus („Brotkorbgesetz“). Als die französischen Kriegsentschädigungen, die ihren Teil zur wirtschaftlichen Blüte des Gründerbooms bis 1873 beigetragen hatten, aufgebraucht waren und es um eine Reform der Reichsfinanzverfassung, bald darauf zudem um die Einführung von Schutzzöllen ging, verschob sich die Bismarcks Gesetzesvorlagen mittragende Reichstagsmehrheit stärker auf die konservative Seite. Und als es Bismarck nach Attentaten auf Kaiser Wilhelm I. 1878 darum ging, die geeinte und als Systembedrohung angesehene Sozialdemokratie durch die Sozialistengesetze niederzuhalten, fand er dafür eine Reichstagsmehrheit aus Konservativen und Liberalen. Diesem bis 1890 bestehenden Repressionsinstrument stellte Bismarck in der Folge eine Sozialgesetzgebung mit Krankenversicherung (1883), Unfallversicherung (1884) und Rentenversicherung (1889) entgegen, die Lebensrisiken und Unmut in der Arbeiterschaft vermindern und zukunftsweisende Bedeutung haben sollte. Außenpolitisch setzte der Reichskanzler und Außenminister Bismarck nach der Krieg-in-Sicht-Krise 1875, in der Frankreich, Großbritannien und Russland gegen Deutschland zusammenwirkten, auf ein Defensivbündnis mit Österreich-Ungarn, das Russland möglichst nicht verprellen sollte (Rückversicherungsvertrag 1887) und damit die prekäre deutsche Mittellage in Anbetracht der sicheren Gegnerschaft Frankreichs durch eine elastische Friedenspolitik zu stabilisieren versuchte: „In jeder europäischen Krise, so stellte sich die Lage in der späten Bismarckzeit dar, spielte Berlin die Hinterhand, konnte bremsen, beruhigen, abwarten und sich nach Möglichkeit heraushalten.“ Die 1884 einsetzende deutsche Kolonialpolitik in Afrika und Ozeanien, wo sich Briten und Franzosen mit ihren Einflussgebieten bereits gegenüberstanden, führte in West-, Südwest- und Ostafrika sowie in der Südsee zwar nominell zu Landnahmen, die die Fläche des Reichsgebiets mehrfach überstiegen, stellte sich aber weder wirtschaftlich noch außenpolitisch als Gewinn dar und spielte in Bismarcks Politik alsbald kaum noch eine Rolle. Im Ernstfall waren die deutschen Kolonien nicht verteidigungsfähig, drohten aber, das Kaiserreich in unübersehbare Konflikte zu verwickeln. Wirtschaftspotenz und Weltmachtstreben (1890–1914). Nachdem das Dreikaiserjahr 1888 nicht nur den Tod Wilhelms I., sondern auch den seines den Thron nur 99 Tage innehabenden Sohnes Friedrichs III. gebracht hatte, der liberalen politischen Vorstellungen nahestand, wurde dessen Sohn Wilhelm II. 29-jährig Deutscher Kaiser, der unverhohlen von der Vorstellung des „persönlichen Regiments“ geleitet war. Meinungsverschiedenheiten über die Beibehaltung des Sozialistengesetzes, wofür Bismarck stand, wurden zu einem Hauptgrund seiner Entlassung 1890. Seit der Berufung zum preußischen Ministerpräsidenten 1862 war Bismarck damit länger im Amt gewesen, als es seine vier Nachfolger bis zum Ersten Weltkrieg in der Summe sein würden (Leo von Caprivi (1890–1894); Fürst Chlodwig zu Hohenlohe-Schillingsfürst (1894–1900); Bernhard von Bülow (1900–1909) und Theobald von Bethmann Hollweg (1909–1917)). Die dem „Gründerkrach“ folgende wirtschaftliche Depression hatte gesellschaftliche Rückwirkungen, die sich im vermehrten Auftreten von Interessenverbänden wie auch in innergesellschaftlichen Ab- und Ausgrenzungstendenzen zeigten. Politisch und gesellschaftlich diskriminiert waren nicht allein die Sozialdemokraten, sondern verstärkt auch wieder Juden, die nun oft als Semiten bezeichnet wurden. Das führte 1879 zur Gründung einer Antisemitenliga. Ebenfalls zu dieser Zeit erklärte Hofprediger Adolf Stoecker die Juden zu „einer Gefahr für das deutsche Volksleben“. Eugen Dühring publizierte im Jahr darauf ein Buch zur „Judenfrage“ als Rassen-, Sitten und Kulturfrage, beklagte darin das „Übel der Verjudung und Judenherrschaft für die modernen Völker“ und erwog Möglichkeiten der „Entjudung“. Spätestens 1890 ging die deutsche Wirtschaftsentwicklung wieder in eine so ausgeprägte Wachstumsphase über, dass sogar von einem „ersten deutschen Wirtschaftswunder“ die Rede ist, zu dessen Leitsektoren Großchemie, Elektrotechnik und Maschinenbau gehörten. Beim Anteil an der Weltindustrieproduktion lag Deutschland 1913 an zweiter Stelle hinter den USA, im Welthandel ebenfalls auf dem zweiten Platz hinter Großbritannien. Für die Mehrzahl in der arbeitenden Bevölkerung verbesserte der Wirtschaftsaufschwung auch die Lebensverhältnisse um die Jahrhundertwende. Dies galt nicht zuletzt für die wachsende Industriearbeiterschaft, die ihre Interessen auch zunehmend gewerkschaftlich organisierte und vertreten ließ. Dagegen gab es in häuslicher Arbeit und traditionellem Handwerk kaum noch ein Auskommen. Das wirtschaftlich prosperierende Kaiserreich dieser Zeit schien somit vielen gesellschaftlich einflussreichen Köpfen prädestiniert, sich auch weltpolitisch im Kampf um Märkte und Rohstoffe einen „Platz an der Sonne“ zu sichern. In Kombination mit der Neigung Wilhelms II. zum Auftrumpfen und zur Prestigesteigerung wurde daraus eine hyperaktive, unstete und wenig substantielle äußere Politik, die mit vielen Forderungen und Drohgesten vor allem Unruhe stiftete. Ein besonders markanter, an Bedeutung stetig zunehmender und letztlich fataler Aspekt deutscher Weltmachtpolitik war die Flottenrüstung, die Alfred von Tirpitz mit Unterstützung unter anderen des „Flottenkaisers“ und des Alldeutschen Verbandes vorantrieb. Dabei war "Navalismus" als Vorstellung, dass Weltmacht sich auf Seemacht gründete, seinerzeit international durchaus verbreitet. Dass aber das Kaiserreich in seiner prekären Mittellage zwischen den Mächten Frankreich und Russland, die untereinander einen Interessenausgleich herbeigeführt hatten und ein Bündnis eingegangen waren, mit seinem unverkennbar gegen England gerichteten, herausfordernden Flottenrüstungsprogramm sich diese etablierte Weltmacht auch noch zum Gegner machte, ist unter rationalen Gesichtspunkten kaum zu erklären. Außer Österreich-Ungarn stand im Wesentlichen nur Italien noch für ein Bündnis zur Verfügung. Nach den Marokkokrisen, der Bosnienkrise und während der Balkankriegen bildete sich im Kaiserreich zunehmend die Vorstellung aus, eingekreist zu sein. Dies zeigte sich auf höchster Ebene im Kriegsrat vom 8. Dezember 1912, wo der Chef des Generalstabes von Moltke davon sprach, den für unvermeidlich gehaltenen Krieg je eher desto besser zu führen. Wilhelm II. sprach sich in erster Konsequenz bezüglich Marine und Heer für intensivierte Kriegsvorbereitungen aus, während der nicht anwesende Reichskanzler Bethmann-Hollweg einstweilen auf diplomatische Entschärfung der Lage setzte. Das „kurze 20. Jahrhundert“ – vom Ersten Weltkrieg bis zum Ende des Ost-West-Konflikts. Während das durch den Aufstieg des Bürgertums, durch die Industrialisierung und die Rivalität der imperialistischen Mächte geprägte Zeitalter auch in Deutschland das erste Jahrzehnt des 20. Jahrhunderts überdauerte, endete die nachfolgende Epoche der verschärften globalen Konflikte des 20. Jahrhunderts, an denen Deutschland wesentlichen Anteil hatte, bereits am Ende der 1980er Jahre. Erster Weltkrieg (1914–1918). Die Bündniskonstellationen zwischen den europäischen Mächten und die Verwicklung des österreichisch-ungarischen Vielvölkerstaats in die seit längerem instabilen Verhältnisse auf dem Balkan (Balkankrise, Balkankriege) wirkten zusammen, als nach der Ermordung des österreichischen Thronfolgers Franz Ferdinand am 28. Juni 1914 in Sarajewo der Erste Weltkrieg ausgelöst wurde. Die ultimativ-harte Reaktion der k.u.k-Monarchie gegenüber Serbien wurde begünstigt durch den „Blankoscheck“, den Wilhelm II. mit der deutschen Regierung dazu erteilte. Angesichts der durch den Kaiser verkündeten Burgfriedenspolitik und der allgemeinen Mobilmachung zu Kriegsbeginn zerstoben nach dem 1. August 1914 zunächst alle Aktivitäten der Friedensbewegung in einer Welle der Kriegsbegeisterung großer Teile der bürgerlich-akademischen Schichten. Wie groß der Anteil der deutschen Politik an der Verursachung dieser „Ur-Katastrophe des 20. Jahrhunderts“ (George Kennan) war, ist bis heute umstritten. Nach der Fischer-Kontroverse der 1960er Jahre war in der Bundesrepublik Deutschland lange die These vorherrschend, das Deutsche Reich habe durch sein Handeln und Unterlassen mehr als die anderen Mächte dazu beigetragen, den Weltkrieg auszulösen. Seit Erscheinen der Werke von Christopher Clark, "Die Schlafwandler – Wie Europa in den Ersten Weltkrieg zog", und Herfried Münkler, "Der Große Krieg. Die Welt 1914 bis 1918" (beide 2013) ist die Debatte laut Christoph Cornelißen wieder offen. a> besteht nach den intensiven Artilleriebombardements nur noch aus Baumstümpfen (1917) Als aber nach ersten militärischen Erfolgen des deutschen Heeres im Osten der mit dem Schlieffen-Plan verbundene Vorstoß im Westen ab September 1914 im Stellungs- und Grabenkrieg zum Erliegen kam, als die Materialschlachten zu hohen Verlusten an der Front führten und die Kriegswirtschaft zu Versorgungsengpässen und –notlagen in der heimischen Zivilbevölkerung, bröckelte die anfänglich geschlossene Unterstützung für die von der Obersten Heeresleitung (OHL) unter Paul von Hindenburg und Erich Ludendorff seit August 1916 zunehmend dominierte Reichsregierung. Zwar konnte 1917 im Friedensvertrag von Brest-Litowsk mit der aus der Oktoberrevolution in Russland hervorgegangenen Sowjetregierung ein aus Sicht der OHL vorteilhafter Frieden geschlossen werden; dennoch wurde mit dem Kriegseintritt der USA die Lage des deutschen Heeres im Westen entgegen der noch im Sommer 1918 optimistisch ausgerichteten Kriegspropaganda zunehmend unhaltbar. Ende September 1918 überraschte die OHL die deutsche Öffentlichkeit mit der Forderung, die politisch Verantwortlichen müssten nunmehr umgehend Waffenstillstandsverhandlungen aufnehmen. Diese Wendung führte zur Oktoberreform, auf deren Grundlage erstmals eine parlamentarische Regierung gebildet wurde, die nun aber auch für den Ausgang des Krieges würde einstehen sollen. Noch während der laufenden Bemühungen um einen Waffenstillstand erteilte die Seekriegsleitung den Befehl an die Flotte, zu einer auf den ehrenvollen Untergang angelegten letzten Schlacht gegen die Royal Navy auszulaufen. Diesem Befehl verweigerten die Schiffsbesatzungen in Wilhelmshaven und Kiel den Gehorsam, und der daraus sich entwickelnde Kieler Matrosenaufstand weitete sich aus zur Novemberrevolution der Arbeiter und Soldaten, die die Monarchie in Deutschland beseitigte und im Ergebnis der politischen Richtungskämpfe zur Ausbildung einer parlamentarischen Republik führte. Weimarer Republik (1918/19–1933). Inmitten der revolutionären Unruhen erfolgte am 9. November 1918 eine zweifache Ausrufung der Republik: durch Philipp Scheidemann mit parlamentarischer Zielsetzung, durch Karl Liebknecht mit sozialistischer Ausrichtung. Unter dem Druck der revolutionären Arbeiter- und Soldatenräte kam es zu einer Übergangsregierung bestehend aus je drei „Volksbeauftragten“ der Mehrheits- und der Unabhängigen Sozialdemokratie. Ein Reichsrätekongress im Dezember 1918 in Berlin machte aber mit großer Mehrheit den Weg frei für Wahlen zu einer Verfassunggebenden Nationalversammlung, erstmals mit Einschluss des Frauenwahlrechts. Da die Unruhen aber anhielten – im Januar 1919 wurde der Spartakusaufstand durch Freikorps-Truppen niedergeschlagen und dessen führende Köpfe Rosa Luxemburg und Karl Liebknecht ermordet –, verlegte man den Tagungsort der Nationalversammlung nach Weimar. Auch in dieser Hinsicht war die Weimarer Republik das Ergebnis anfänglicher Improvisationen. Die Nationalversammlung hatte die Aufgabe, dem Deutschen Reich eine neue politische Ordnung zu geben, was in Form der am 14. August 1919 in Kraft getretenen Weimarer Verfassung geschah, und sie fungierte gleichzeitig als Parlament, stimmte über Gesetze und Haushaltsfragen ab, wählte ein neues Staatsoberhaupt (Reichspräsident Friedrich Ebert) und bildete eine breite Regierungskoalition, die sog. Weimarer Koalition, aus der am 13. Februar 1919 das Kabinett Scheidemann hervorging. Unter den sowohl innen- wie außenpolitisch äußerst schwierigen Nachkriegsbedingungen strebte es eine soziale Befriedung und die Umstellung der Kriegs- auf eine Friedenswirtschaft an. Umstritten waren bei dieser Neuordnung Sozialisierungsmaßnahmen in bestimmten Wirtschaftsbereichen wie auch Möglichkeiten und Ausmaß einer personellen Erneuerung in den Bereichen Verwaltung, Justiz und Militär, um mit den gesellschaftspolitischen Strukturen des Kaiserreichs zu brechen. Diesbezüglich wird mitunter von einer „unvollendeten Revolution“ gesprochen. Vorerst unumstritten waren hingegen die Einführung des Achtstundentags, die Anerkennung der Gewerkschaften und das Betriebsrätegesetz. Berliner Tageszeitung meldet, dass in New York ein Dollar eine Million Mark kostet, Juli 1923 Zur inneren Zerreißprobe und dauerhaften Belastung der Weimarer Republik wurde die Auseinandersetzung um die Unterzeichnung der von den Siegermächten des Ersten Weltkriegs Deutschland auferlegten Bedingungen des Versailler Vertrags. Mit Gebietsabtretungen, Reparationsforderungen und Abrüstungsauflagen war zugleich das Eingeständnis gefordert, dass Deutschland und seine Verbündete „Urheber aller Verluste und aller Schäden“ seien, was als offizielles Schuldeingeständnis interpretiert wurde und in Deutschland ganz überwiegend als „Kriegsschuldlüge“ aufgefasst wurde. Um die deutsche Position in den Friedensverhandlungen nicht zusätzlich zu schwächen, blieben Dokumente, die die kaiserzeitliche politische Führung belasteten, mit sozialdemokratischer Unterstützung unter Verschluss. Als die Nationalversammlung unter ultimativem Druck der Siegermächte dem Vertrag schließlich doch zustimmte, trat Scheidemann als Regierungschef zurück. Anhaltende politische Instabilität und republikfeindliche Tendenzen blieben Merkmale der Weimarer Republik in ihrer Frühphase: 1920 trieb der von oppositionellen Militärs initiierte Kapp-Putsch die Berliner Regierung zunächst in die Flucht, scheiterte jedoch am entschlossenen Widerstand und Generalstreik breiter Bevölkerungskreise. Die Ermordung Matthias Erzbergers 1921 und die Walther Rathenaus 1922 richteten sich nicht zuletzt gegen „Erfüllungspolitiker“ im Hinblick auf den Versailler Vertrag. Ebenfalls mit diesem hing die mehrseitig bedrohliche Existenzkrise der Weimarer Republik 1923 zusammen: Neben der durch Kriegsfinanzierung, Reparationspflichten und finanzpolitische Weichenstellungen bedingten Großen Inflation des Jahres 1923, in der das sparfreudige Bürgertum alle verbliebenen Geldreserven verlor, kam es in dem vom Ruhrkampf geschwächten Rheinland zu separatistischen Aktivitäten, im Hamburger Aufstand zu kommunistischen Machtkämpfen einerseits und zu kommunistischen Regierungsbeteiligungen in Sachsen und Thüringen andererseits. In München, das 1919 kurzzeitig von einer Räterepublik regiert worden war, fand am 9. November 1923 der Hitlerputsch statt. Die Beendigung von Ruhrkampf und Großer Inflation gelang im Herbst 1923 durch eine Währungsreform unter dem kurzzeitigen Reichskanzler Gustav Stresemann, der im Zusammenwirken mit Reichspräsident Ebert auch die anderen Krisenherde unter Kontrolle brachte. Mit Hilfe des Dawes-Plans wurde ab 1924 eine relative Stabilisierung der Weimarer Republik erreicht. Dabei kam es in verbesserter Finanzlage unter anderem zum Infrastrukturausbau, zu Wohnungsbauprogrammen und 1927 zur Einführung der Arbeitslosenversicherung. Die Rede von den „goldenen zwanziger Jahren“ hat aber nicht in politisch oder wirtschaftlich glanzvollen Zeiten ihren Ursprung, sondern bezieht sich auf „die stürmische Entfaltung eines neuen Lebensgefühls und die eruptive Freisetzung schöpferischer geistiger Kräfte in einem kurzen Jahrzehnt denkbar weitgehender Freiheit und großer Vielfalt des geistig-künstlerischen Schaffens.“ Den diesen Aufbruch tragenden Kräften standen aber breite, konservative Strömungen gegenüber, die sich kulturpessimistisch und zivilisationskritisch zu der das kulturelle Klima der Weimarer Republik weitgehend bestimmenden künstlerischen und intellektuellen Avantgarde etwa in der Malerei, in Literatur und Theater oder in der Architektur verhielten. Mit der Neuregelung der Reparationsbedingungen im Dawes-Plan, dem ein Zustrom amerikanischer Kredite und Investitionen nach Deutschland folgte, ging auch die außenpolitische Isolierung des Landes nach dem Ersten Weltkrieg zu Ende. In den Locarno-Verträgen sicherte das Deutsche Reich die Anerkennung der Westgrenzen gemäß Versailler Vertrag zu und wurde 1926 in den Völkerbund aufgenommen. Die diesen Verständigungsprozess gestaltenden Außenminister Frankreichs und Deutschlands, Briand und Stresemann erhielten dafür gemeinschaftlich den Friedensnobelpreis. Ausdruck einer zunehmenden Rechtsverschiebung des politischen Spektrums in der Republik war nach dem Tod Friedrich Eberts die Reichspräsidentenwahl 1925, aus der Paul von Hindenburg als Sieger hervorging, jener nun bereits 77-Jährige, der die Dolchstoßlegende populär gemacht hatte. Andererseits kam es nach der Reichstagswahl 1928 zur Bildung einer großen Koalition der Parteien SPD, DDP, des Zentrums, der BVP und der DVP unter Führung des sozialdemokratischen Reichskanzlers Hermann Müller. Sie zerbrach im März 1930 im Streit um die Finanzierung der 1927 eingeführten Arbeitslosenversicherung, die seit Frühjahr 1929 unterfinanziert war. Hinzukamen der Youngplan, der zwar die jährlichen Reparationszahlungen senkte, die Verantwortung für deren Transfer aber Deutschland selbst übertrug, und die durch den New Yorker Börsencrash im Oktober 1929 ausgelöste Weltwirtschaftskrise, die den Zustrom amerikanischer Kredite nach Deutschland beendete. Ob der Bruch der Großen Koalition auf die divergierenden sozialpolitischen Positionen ihrer Flügelparteien SPD und DVP oder auf die erklärte Absicht von Reichspräsident und Reichwehrführung zurückzuführen ist, die SPD aus der Regierung zu drängen, ist seit 1957 umstritten. Hindenburg ernannte den als Finanzpolitiker profilierten Zentrumsmann Heinrich Brüning zum Reichskanzler und unterstützte ihn in den Jahren 1930 bis 1932 mit allen Befugnissen, die ihm laut Weimarer Verfassung zu Gebote standen: Das Notverordnungsrecht nach Artikel 48 der Verfassung, die Möglichkeit der Reichstagsauflösung nach Artikel 25) mit nachfolgenden Neuwahlen und die Ernennung des Reichskanzlers ohne Wahl durch den Reichstag nach Artikel 53. Nachdem der Reichstag erstmals eine Notverordnung Brünings mit Mehrheit abgelehnt und dadurch aufgehoben hatte, wurde er aufgelöst, während Brüning blieb und in der Zeit bis zu den Neuwahlen wiederum per Notverordnung weiterregierte. Als die rechtsextreme Nationalsozialistische Deutsche Arbeiterpartei (NSDAP) bei den Septemberwahlen 1930 sprunghaft zu einer bedeutenden politischen Kraft im Reichstag anwuchs, entschloss sich die SPD bis auf Weiteres zur Tolerierung von Brünings Notverordnungsregime, während die oppositionellen Kräfte der äußersten Rechten sich in der Harzburger Front sammelten. Mit harten Sparprogrammen, Steuererhöhungen und Leistungskürzungen war Brüning um die Vermeidung einer neuerlichen Inflation und um Zugeständnisse des Auslands bei den Reparationen bemüht, verschärfte im Zuge der Bankenkrise damit aber noch die wirtschaftliche Rezession. Frankreich und Großbritannien irritierte er mit Plänen für eine Deutsch-österreichische Zollunion. Nach der Reichspräsidentenwahl 1932 entzog ihm Hindenburg Ende Mai seine Unterstützung und berief statt seiner Franz von Papen zum Reichskanzler, der die antiparlamentarische Stoßrichtung des Präsidialregimes mit seinem „Kabinett der Barone“ noch verstärkte. Sein autoritärer Kurs gipfelte in dem Preußenschlag vom 20. Juli 1932, mit dem er die geschäftsführende Regierung unter sozialdemokratischer Führung absetzte und in Abstimmung mit Hindenburg selbst als Reichskommissar für Preußen an ihre Stelle einnahm. Im Reichstag hatte Papen kaum Unterstützer; seine Notverordnungen wurden, sofern der Reichstag nicht gerade aufgelöst war, mit drastischen Mehrheiten zurückgewiesen. Unter dem Eindruck der immer weiter massenhaft sich ausbreitenden Arbeitslosigkeit und sozialen Not in der Weltwirtschaftskrise radikalisierte sich das Wählerverhalten noch zunehmend. Die beiden 1932 vorgenommenen Reichstagsauflösungen führten in den Reichstagswahlen sowohl des Julis als auch des Novembers jeweils dazu, dass die NSDAP stärkste Kraft im Reichstag wurde und eine negative Mehrheit der Demokratiegegner mit den Kommunisten bildete, sodass republikanische Regierungsmehrheiten in weite Ferne rückten. Da Papen auch nach der Novemberwahl im Reichstag auf brüske Ablehnung stieß, machte Hindenburg, indem er Adolf Hitler das Amt zunächst noch verweigerte, den Reichswehrgeneral Kurt von Schleicher zum Reichskanzler. Als aber dessen „Querfront“ scheiterte, mit der er Teile der NSDAP abspalten und für eine übergreifende Gewerkschaftsinitiative gewinnen wollte, fand sich Hindenburg unter dem Einfluss seiner Berater bereit, den von Papen und Hugenberg vermeintlich „eingerahmten“ Hitler am 30. Januar 1933 zum Reichskanzler zu ernennen. Nationalsozialismus und Zweiter Weltkrieg (1933–1945). Mit Hitlers Reichskanzlerschaft begann am 30. Januar 1933 der Weg in die nationalsozialistische Diktatur. Die zu diesem Ziel führenden Schritte waren in den Grundzügen bei Hitlers Amtsantritt bereits vorgesehen und wurden bei sich bietenden Gelegenheiten noch beschleunigt, sodass der Prozess der „Machtergreifung“ durch die Ausschaltung sowohl der politischen Gegner als auch der anfänglichen Regierungspartner unter Beseitigung hinderlicher Verfassungsbestimmungen binnen weniger Monate durchschlug. Einer erneuten Reichstagsauflösung durch Hindenburg am 31. Januar folgte als Reaktion auf KPD-Streikaufrufe schon am 4. Februar 1933 eine auf Einschränkung der Meinungs-, Presse- und Versammlungsfreiheit gerichtete Notverordnung. Der Reichstagsbrand am 27./28. Februar, für den die NS-Führung sogleich die Kommunisten als Brandstifter verantwortlich machte, bot vor der für den 5. März angesetzten Reichstagsneuwahl für eine noch viel umfassendere Notverordnung Anlass, die praktisch jeden Schutz politischer Grundrechte auf Dauer außer Kraft setzte, wie sich zeigen sollte. Mittels vorbereiteter Listen kam es umgehend zu einer Verhaftungswelle gegen profilierte NS-Gegner im linken Spektrum. Die unter diesen Umständen abgehaltene Reichstagswahl verschaffte zwar dem „Kabinett der nationalen Erhebung“ eine parlamentarische Mehrheit, nicht aber der NSDAP allein. Mit dem bei der Regierungsbildung verabredeten Ermächtigungsgesetz vom 24. März 1933, das nach Streichung der kommunistischen Mandate und der überwiegenden Zustimmung des Zentrums die nötige Zweidrittelmehrheit erhielt, wurde die Regierung und wurde insbesondere Reichskanzler Hitler von jeglicher parlamentarischen Zustimmung unabhängig, sogar hinsichtlich verfassungsändernder Gesetze. Auf dieser Grundlage setzte ein beschleunigter Gleichschaltungsprozess ein, der sich unter anderem auf die Länder, auf die Verwaltungsbehörden, die Gewerkschaften wie auf die politischen Parteien erstreckte. Am 14. Juli 1933, nach dem Verbot bzw. der Selbstauflösung sämtlicher Parteien außer der NSDAP, wurde diese zur gesetzlich einzig zugelassenen Partei in Deutschland. Die schon seit Februar 1933 in großer Zahl willkürlich festgenommenen NS-Widersacher wurden großteils in Konzentrationslagern inhaftiert. Als attraktives Gegenbild zur Bekämpfung und Vernichtung ihrer tatsächlichen Gegner und vermeintlichen Feinde propagierten die Nationalsozialisten eine geschlossene Volksgemeinschaft, in der sich jeder nach Kräften nützlich machen und vorankommen sollte. Mit ihr und durch sie sollte der „Schandfrieden“ von Versailles getilgt werden und das Deutsche Reich zu neuer Kraft und Größe aufsteigen. Gesellschaftliche Standesunterschiede galt es zu beseitigen, die Gleichwertigkeit körperlicher und geistiger Arbeit anzuerkennen, die „Volksgenossen“ unterschiedlicher Herkünfte bei Gemeinschaftsaufgaben zusammenzuführen. Dazu dienten teilnahmepflichtige Organisationen wie Hitlerjugend, Bund Deutscher Mädel, Reichsarbeitsdienst, Wehrdienst und eine Vielzahl weiterer Einrichtungen, unter denen sich die Freizeit- und Reiseorganisation Kraft durch Freude (KdF) besonderer Beliebtheit erfreute. Für die Verbreitung und Durchsetzung der NS-Weltanschauung in allen Gliederungen von Staat und Volk war als Hauptinstrument das Reichsministerium für Volksaufklärung und Propaganda unter Joseph Goebbels zuständig, dem auch die Zensur der veröffentlichten Meinung in Schrift und Bild unterlag. Am 10. Mai 1933 war er der Hauptredner bei der Bücherverbrennung auf dem Opernplatz, die von Studenten der Friedrich-Wilhelms-Universität „wider den undeutschen Geist“ veranstaltet wurde. Gerade unter den Nachwuchsakademikern waren die NSDAP-Anhänger bereits zu Zeiten der Weimarer Republik besonders stark vertreten, stand die Partei in ihren Augen doch für die Überwindung verkrusteter Strukturen, für Modernität, Mobilität und Egalität: „Den hochgespannten Erwartungen, an dem großen Projekt einer Modernisierung Deutschlands unter den Auspizien eines dynamisierten Nationalismus selber teilnehmen zu können, entsprach offenbar glaubwürdig die messianische Vision eines – im Vergleich mit allen anderen Parteipolitikern – ganz ungewöhnlichen charismatischen «Führers» mit einer extraordinären «Willenspotenz» und der rhetorischen Fähigkeit, das Erreichen großartiger Ziele zu einer unumstößlichen Gewißheit zu erheben.“ Seit Anfang April 1933 gab es ein "Hauptamt für Presse und Propaganda der Vereinigten Deutschen Studentenschaften", das in einem Rundschreiben jeden Studenten aufforderte, seine und die Bibliotheken seiner Bekannten zu „säubern“ und dafür zu sorgen, dass „ausschließlich volksbewusstes Schrifttum darin heimisch ist.“ Wer dagegen von den Nationalsozialisten nicht zur Volksgemeinschaft gezählt wurde, ihnen unnütz erschien, abweichende Ansichten vertrat oder sich ihnen in den Weg stellte, wurde diskriminiert und verfolgt. Das galt, wie die politischen Morde im Zusammenhang mit dem angeblichen Röhm-Putsch zeigten, mit denen die SA zugunsten der Wehrmacht und zum Vorteil der SS entmachtet wurde, sogar für eine mögliche Opposition innerhalb der NSDAP gegen den Kurs Hitlers. Die christlichen Kirchen der Katholiken und der Protestanten ließ man gewähren, nachdem die Zentrumspartei als politischer Akteur verschwunden war und sofern nicht vereinzelt opponiert wurde. Mit dem Vatikan wurde ein Konkordat geschlossen, das unter anderem die Bekenntnisschulen und den katholischen Religionsunterricht zusicherte. Gegen Juden aber, die von den Nationalsozialisten als Schädlinge am „Volkskörper“ angesehen und ausgesondert wurden, kam es bereits im April 1933 zu einer organisierten Boykott-Aktion. 1935 wurden sie durch die Nürnberger Gesetze ausgebürgert, 1938 in und nach der Reichspogromnacht, in der randalierende uniformierte SA- und SS-Leute mehr als 1.400 Synagogen in Deutschland zerstörten, vielfach schwer und teils mit tödlichem Ausgang misshandelt und ihrer wirtschaftlichen Existenz beraubt. Zu Opfern der nationalsozialistischen „Rassenhygiene“ wurden außerdem Sinti und Roma sowie Deutsche mit Geisteskrankheiten oder angeborenen Behinderungen, denen das Gesetz zur Verhütung erbkranken Nachwuchses galt. Die NS-Propaganda bezeichnete solche Menschen als „lebensunwertes Leben“. Im Rahmen von „Euthanasie“-Maßnahmen wurden sie ab 1939 massenhaft umgebracht. Begünstigt von der einsetzenden wirtschaftlichen Erholung und rückläufigen Arbeitslosigkeit – auch ungeachtet der spezifisch nationalsozialistischen Beschäftigungsprogramme, unter denen der Autobahnausbau das bekannteste ist – fanden die NS-Diktatur und ihr „Führer“ rasch wachsende Zustimmung, die Hitler auch durch markiges außenpolitisches Auftreten förderte und sich in Volksabstimmungen bestätigen ließ. Als bedeutende Schritte auf dem Weg zu neuer deutscher Größe wurden die Rückgliederung des Saarlands 1935, der Einmarsch deutscher Truppen in das gemäß Versailler Vertrag entmilitarisierte Rheinland 1936 und der Anschluss Österreichs im März 1938 angesehen und propagandistisch gefeiert. Gemäß seinem in „Mein Kampf“ niedergelegten Programm ging es Hitler aber darüber hinaus um die Eroberung von „Lebensraum“ für das Deutsche Volk im Osten durch die Unterwerfung der Sowjetunion. Bereits 1936 gab er einen geheimen Vierjahresplan aus mit der Vorgabe, binnen vier Jahren die Wehrmacht einsatzfähig und die deutsche Wirtschaft kriegsfähig zu machen. Die dafür nötige militärischen Aufrüstung wurde durch verdeckte Staatsschulden finanziert, die nur aus Kriegsgewinnen hätten getilgt werden können. Schon im Herbst 1938 legte es Hitler in der Auseinandersetzung um das Sudetenland auf eine militärische Intervention mit weiter reichenden Optionen an, musste sich dann aber mit dem Münchner Abkommen begnügen. Mit dem Einmarsch deutscher Truppen in die „Rest-Tschechei“ und in das Memelland im März 1939 endeten die Appeasement-Politik und ungehinderte Expansion des NS-Staates. Für den Fall eines deutschen Angriffs auf Polen gaben Großbritannien und Frankreich eine Beistandsgarantie. a> bei Weimar am 24. April 1945 Mit dem überraschenden, die Vermeidung eines Zweifrontenkriegs begünstigenden Hitler-Stalin-Pakt erschien dem NS-Diktator der Überfall auf Polen als ein überschaubares Risiko. Am 1. September 1939 begann mit dem Polenfeldzug des Deutschen Reiches der Zweite Weltkrieg. Die Blitzkriegsmaschinerie war von Polen über Norwegen und im Westfeldzug so erfolgreich, dass Hitler trotz des am energischen Widerstand unter Winston Churchill gescheiterten Versuchs der Unterwerfung Englands für den 22. Juni 1941 den Angriff auf die Sowjetunion befahl. Der deutsche Vormarsch wurde von der weit unterschätzten Roten Armee mit Einbruch des Winters erst kurz vor Moskau gestoppt. Doch auch den gerade mit Japan in den Krieg eingetretenen USA erklärte der deutsche Diktator am 11. Dezember 1941 deutscherseits den Krieg. Die auf „Lebensraum“-Eroberung gerichtete militärische Ostexpansion des nationalsozialistischen Deutschland sah auch für die einheimische Zivilbevölkerung keinerlei Schonung vor. Vielmehr ging es – unter anderem durch Zwangsarbeit und Aushungern – um eine radikale Dezimierung der slawischen „Untermenschen“, an deren Stelle arische „Herrenmenschen“ als Kolonisten die Organisation der Nahrungsmittel- und Rohstoffversorgung für das künftige „Großgermanische Reich“ übernehmen sollten. Im Generalplan Ost war die „Verschrottung“ von 31 Millionen Slawen vorgesehen, im Protokoll der Wannseekonferenz die Vernichtung von 11 Millionen Juden. Zwischen 1941 und 1944 stieg die Zahl der nach Deutschland verschleppten Zwangsarbeiter von drei auf acht Millionen. Das dem Vernichtungslager Auschwitz-Birkenau angeschlossene Zwangsarbeiterlager Auschwitz-Monowitz gehörte zum oberschlesischen Chemie-Komplex, der Dimensionen annahm, die denen des Ruhrgebiets kaum nachstanden. Den Juden in Europa hatte Hitler bereits Anfang 1939 die Vernichtung angedroht. Seit September 1941 waren sie gezwungen, den Judenstern zu tragen. Auf der Wannseekonferenz im Januar 1942 wurden die bürokratischen Zuständigkeiten und die Organisation der „Endlösung der Judenfrage“ beschlossen, nachdem der Holocaust, der mit den Morden der Einsatzgruppen der Sicherheitspolizei und des SD seit Juli 1941 schon längst begonnen hatte. Nach der Deportation in Ghettos wie Theresienstadt oder das Warschauer Ghetto wurde die Ermordung der Juden im besetzten Osten Europas seit Herbst 1941 mit Gaskammern und Verbrennungseinrichtungen auch industriell betrieben. Neben Auschwitz-Birkenau gehörten im Rahmen der „Aktion Reinhardt“ zu den großen Vernichtungslagern Belzec, Sobibor und Treblinka. Bis zum Kriegsende wurden etwa sechs Millionen europäische Juden ermordet, darunter über drei Millionen polnische Juden. Nachdem die militärische Front des NS-Reiches und seiner Verbündeten 1942 ihre größte Ausdehnung im Osten erreicht hatte, setzte mit der verlorenen Schlacht um Stalingrad der Umschwung ein, der auf deutscher Seite in einen noch mehr als zwei Jahre währenden Krieg der erzwungenen Rückzüge, Zwischenoffensiven, Kapitulationsverbote und Durchhalteparolen mündete; und zwar nicht nur im Osten, sondern auch in Nordafrika und im Italien des verbündeten Faschistenführers Benito Mussolini; nach der angloamerikanischen Invasion in der Normandie im Juni 1944 schließlich auch im Westen. Seit 1943 tauchten lange nach jenen Luftangriffen, mit denen deutsche Bomber im Spanischen Bürgerkrieg zunächst Gernika, im Zuge der Luftschlacht um England dann vor allem London und Coventry verwüstet hatten, die alliierten Luftstreitkräfte vermehrt über deutschen Großstädten auf und richteten mit Spreng- und Brandbomben verheerende Schäden an. Das bis zuletzt verschonte Dresden wurden noch im Februar 1945 in Schutt und Asche gelegt. Der Widerstand gegen das NS-Regime blieb auch angesichts der sich anbahnenden Kriegsniederlage begrenzt und durch den Terror-Apparat (Reichssicherheitshauptamt, Gestapo) beherrschbar, zumal die Propaganda bis zuletzt auf den „Endsieg“ einschwor. Im zeitgenössischen Umfeld praktisch wirkungslos blieben auch die heute berühmten Flugblattaktionen der Weißen Rose oder das von Mitgliedern des Kreisauer Kreises inspirierte Attentat vom 20. Juli 1944, das Claus Schenk Graf von Stauffenberg erfolglos auf Hitler verübte. Einige Wirkung zeigte immerhin der öffentliche Einsatz des Münsteraner Bischofs von Galen gegen die Morde im Rahmen des Euthanasie-Programms. Im Regelfall wurden aktiv Widerständige als Hoch- und Landesverräter behandelt und hingerichtet, teils auch ohne Aburteilung durch den Volksgerichtshof. In den letzten Kriegsmonaten kam es mit dem Vorrücken der Roten Armee an die Reichsgrenzen zu Flucht und Vertreibung der deutschen Bevölkerung im Osten, mitbedingt durch die sowjetischerseits betriebene Westverschiebung Polens. Betroffen waren mehr als 12 Millionen Deutsche, von denen über zwei Millionen dabei umkamen. Während der Schlacht um Berlin erschoss sich Hitler am 30. April 1945. Die deutsche Kapitulation wird auf den 8. Mai 1945 datiert. Die Verhaftung der letzten Reichsregierung unter Karl Dönitz in Flensburg-Mürwik erfolgte erst am 23. Mai 1945. Das geteilte Deutschland. Die mit der Kapitulation besiegelte Niederlage des „Dritten Reiches“ war als historische Zäsur noch durchdringender als der Weltkriegsausgang 1918. Für Deutschland führte sie nicht nur zum faktischen Verlust aller Gebiete jenseits von Oder und Neiße, die seit der mittelalterlichen Ostsiedlung unter deutsche Hoheit gelangt waren, sondern auch zur Aufteilung des verbleibenden Territoriums in Besatzungszonen der vier Siegermächte, die die Gesamtverantwortung für „Deutschland als Ganzes“ zunächst im Rahmen des Alliierten Kontrollrats gemeinsam ausübten. Das in den Kalten Krieg übergehende, durch systembedingte politische und wirtschaftliche Interessenkonflikte verursachte Zerwürfnis zwischen den drei westlichen Mächten und der Sowjetunion bewirkte einen viereinhalb Jahrzehnte andauernden Teilungsprozess bezüglich der politischen Systeme und bei der Entwicklung staatsbürgerlicher Identitäten in beiden deutschen Staaten. Zwar bestand ein Bewusstsein für Zusammengehörigkeit der Deutschen bei vielen DDR-Bewohnern fort, wie sich 1989/90 zeigen sollte; die unterschiedlichen Sozialisations- und Lebensbedingungen in Ost und West wirken aber auch nach erfolgter Wiedervereinigung in vielen Bereichen des individuellen und gesellschaftlichen Lebens nach, wie es grob vereinfachend in dem Bild von der „Mauer in den Köpfen“ zwischen „Ossis“ und „Wessis“ zum Ausdruck kommt. Auch darin zeigen sich Spätfolgen jener von den Siegermächten auferlegten Neuordnung der Verhältnisse in Deutschland, die dem bitteren Ende des „totalen Krieges“ nationalsozialistischer Prägung folgte. Besatzungszeit (ab 1945). a> in einem kleinen Ort Westdeutschlands angekommen, August 1948. Das Ende von Krieg und NS-Herrschaft wurde zur Befreiung für die Vielzahl der vom Regime Verfolgten, in Lagern Internierten und tödlich Bedrohten, darunter neben Juden auch deportierte Zwangsarbeiter hauptsächlich östlicher Herkunft und Kriegsgefangene sowie die unterschiedlich motivierten Widerständler und inneren Emigranten. Auch für die übrige deutsche Bevölkerung ging nun die Schreckenszeit der nächtlichen Luftangriffe und der schließlich sogar nach innen gerichteten Zerstörungswut Hitlers und seiner Gefolgsleute zu Ende, die weder Industrieanlagen noch Elektrizitätswerke oder überhaupt eine überlebenswichtige Einrichtung unzerstört den Alliierten überlassen wollten und die den „Verbrannte-Erde-Befehl“ ihres Führers möglichst gründlich umzusetzen trachteten. Mancher Empfänger widersinniger Befehle und Durchhalteparolen verweigerte nun die Selbstaufopferung und suchte die eigene Haut zu retten. Für die Mehrheit der Deutschen, darunter Vertriebene, Ausgebombte, Hungernde und vergewaltigte Frauen mit ihren Familien, überwog das Erlebnis des Zusammenbruchs und des damit einhergehenden Elends. Die von den Hauptsiegermächten auf der Potsdamer Konferenz getroffenen Vereinbarungen sahen für Deutschland eine grundlegende Abkehr von den NS-Strukturen in verschiedener Hinsicht vor: Demokratisierung, politische Dezentralisierung und strikte Entmilitarisierung, verbunden mit einer wirtschaftlichen Dekartellierung und einem Demontageprogramm. Die Demontagen industrieller Anlagen sollten die Kriegsschäden der Anti-Hitler-Koalition zum Teil ausgleichen, was insbesondere die Sowjetunion in ihrer Besatzungszone, der SBZ, in die Tat umsetzte. Alle deutschen Patente und Industriegeheimnisse wurden 1945–1947 von den USA beschlagnahmt, nach John Gimbel eine durchgreifende Beraubung des deutschen technischen Wissens, Wert fast 10 Milliarden US-Dollar. Ende 1950 wurde die Demontage in der Bundesrepublik eingestellt. Frankreich forderte basierend auf den Plänen Jean Monnets (1946–50), das Saar- und Ruhrgebiet von Deutschland abzutrennen. Die Ruhrbehörde wurde aber 1952 durch die Montanunion abgelöst, sodass das Saarland am 1. Januar 1957 politisch der damaligen Bundesrepublik angegliedert wurde, wirtschaftlich jedoch an Frankreich angekoppelt blieb. Ebenfalls beschlossen wurden Maßnahmen zur Entnazifizierung der deutschen Gesellschaft. Haupt- und Mitverantwortliche in NSDAP, Staatsapparat und Wirtschaft sollten je nach ihrer Belastung zur Rechenschaft gezogen, aus ihren Positionen entfernt und bestraft werden. Die überlebenden Hauptverantwortlichen wurden in den Nürnberger Prozessen der Kriegsverbrechen und der Verbrechen gegen die Menschlichkeit angeklagt und je nach Beweislage und Größe der Schuld zu Freiheitsstrafen oder zum Tode verurteilt, einige freigesprochen. Für die breite Bevölkerung in den Westzonen wurde ein Entnazifizierungsverfahren entwickelt, das mit umfangreichen Fragebögen und Spruchkammern zur Ermittlung der mehr oder minder Belasteten, der Mitläufer und der Entlasteten führen sollte. Der Anteil der auf diese Weise als belastet eingestuften Personen war gering. In der SBZ gab es keine Fragebogenaktion, aber einen intensiv und anhaltend propagierten Antifaschismus sowie mehr als eine halbe Million Entlassungen früherer Nationalsozialisten bis 1948. Dennoch waren beispielsweise mehr als die Hälfte aller Schuldirektoren in der DDR Anfang der 1950er Jahre ehemalige NSDAP-Parteigenossen. Viele deutsche Zwangsarbeiter in der Sowjetunion waren inhaftierte Soldaten des Ostheeres. Zusätzlich dazu überließen die US-Amerikaner den Sowjets einen Teil ihrer Gefangenen. Von den wenigen, die den Mangel und die Knochenarbeit überlebten, kehrten die letzten 1955 heim. Politisch und wirtschaftlich stellten die Besatzungsmächte die Weichen in ihren Zonen jeweils im Sinne der eigenen Zielvorstellungen und Systemlogik. Während in der sowjetisch besetzten Zone schon 1945 eine Bodenreform zur Enteignung von Großgrundbesitzern und zur Schaffung kleinbäuerlicher Existenzen durchgeführt wurde, unterblieb Derartiges im Westen. Dafür intervenierte die amerikanische Besatzungsmacht gegen eine in der hessischen Landesverfassung vorgesehene Option zur Sozialisierung hauptsächlich von Grundstoffindustrien. Je deutlicher der Ost-West-Gegensatz sich im weltpolitischen Maßstab ausbildete, desto klarer schlug er sich auch in der Deutschlandpolitik der Großmächte nieder. Während die sowjetische Besatzungsmacht die Zwangsvereinigung der beiden Arbeiterparteien SPD und KPD in ihrer Zone durchsetzte und freie Wahlen nach ersten SED-Misserfolgen für die Zukunft ausschloss, unterstützten die Westmächte die Ausbildung konkurrierender Parteien im Rahmen eines demokratischen Pluralismus. Die Gründung diverser Parteien auch in der SBZ hatte dagegen nur scheinbar eine demokratische Funktion. Es galt von vornherein das aus Moskau von der Gruppe Ulbricht für den ostdeutschen Wiederaufbau mitgebrachte Motto: „es muß demokratisch aussehen, aber wir müssen alles in der Hand haben.“ Westdeutschland hingegen wurde, dem antikommunistischen Kurs der 1947 Truman-Doktrin folgend, mit Marshallplan-Hilfen wirtschaftlich in die Lage versetzt, alsbald wieder eine wichtige Rolle unter den kapitalistischen Ökonomien der westlichen Welt zu spielen. Darauf bereitete 1947 auch bereits der Zusammenschluss der amerikanischen und britischen Besatzungszone zur Bizone vor, die mit französischer Beteiligung im April 1949 zur Trizone erweitert wurde. Mit der Londoner Sechsmächtekonferenz im März 1948 wurden von westlicher Seite die Weichen für die Gründung eines von der SBZ separierten deutschen Teilstaats gestellt, was den Protest der Sowjetunion hervorrief und ihren Auszug aus dem Alliierten Kontrollrat zur Folge hatte. Die Währungsreform in den Westzonen und in den Westsektoren Berlins im Juni 1948 beantwortete die sowjetische Besatzungsmacht mit einer Währungsreform in der SBZ und in Ost-Berlin sowie mit der Blockade der Zugänge nach West-Berlin, sodass die Bewohner von jeglicher Versorgung abgeschnitten zu werden drohten. Oberbürgermeister Ernst Reuter gelang es, den amerikanischen Militärgouverneur Lucius D. Clay vom Freiheitswillen und von der engen Bindung der West-Berliner an die Westalliierten zu überzeugen und für die Errichtung der Berliner Luftbrücke gemeinsam mit der britischen Royal Air Force zu gewinnen. In den an die Ministerpräsidenten der westdeutschen Länder am 1. Juli 1948 übergebenen Frankfurter Dokumenten formulierten die Westmächte ihre Forderungen und Bedingungen bezüglich der Gründung eines westdeutschen Staates. In zwei Konferenzen bis zum Monatsende (Rittersturz-Konferenz und Niederwaldkonferenz) gaben die an einem Fortbestehen der Einheit Deutschlands orientierten westdeutschen Länderverantwortlichen dieser Aufforderung unter der Bedingung nach, dass der zu errichtende Weststaat als ein Provisorium anzulegen sei und das Ziel einer späteren Wiedervereinigung aller Deutschen in einem Staat ausdrücklich erhalten bliebe. Mit der Ausarbeitung eines Grundgesetzes statt einer Verfassung beauftragt wurde deshalb nach Vorarbeiten durch den Verfassungskonvent auf Herrenchiemsee anstelle einer Verfassunggebenden Versammlung ein Parlamentarischer Rat, der in Bonn zusammentrat. Das von den westdeutschen Ländern bis auf Bayern ratifizierte und von den Militärgouverneuren der Westmächte genehmigte Grundgesetz für die Bundesrepublik Deutschland wurde am 23. Mai 1949 verkündet. In Reaktion auf diese Vorgänge und parallel dazu fanden auch in der SBZ Vorbereitungen für die Gründung eines separaten Staates nach sowjetischen Leitlinien statt: Aus der Volkskongressbewegung ging ein von SED-Mitgliedern dominierter Deutscher Volksrat hervor, der einen SED-nahen Verfassungsentwurf präsentierte und beschloss, den wiederum der Dritte Deutsche Volkskongress verabschiedete. Damit war der Weg in die staatliche Teilung Deutschlands festgelegt. Bundesrepublik Deutschland (1949–1990). a>, zwei Tage nach dessen Verabschiedung am 14. September 1959 Bei den Wahlen zum ersten Deutschen Bundestag am 14. August 1949 erlangten die neu formierten bürgerlichen Parteien von CDU/CSU, FDP und DP Stimmanteile, die dazu ausreichten, den bereits im Parlamentarischen Rat zum Präsidenten gewählten CDU-Vorsitzenden Konrad Adenauer mit einer Stimme Mehrheit (seiner eigenen) zum Bundeskanzler zu wählen. Die SPD um Kurt Schumacher und Carlo Schmid war danach für gut anderthalb Jahrzehnte die führende Oppositionspartei. Erster Bundespräsident wurde der FDP-Vorsitzende Theodor Heuß. Die Gründungsphase der Bundesrepublik Deutschland stand anhaltend im Zeichen der Kriegsfolgenbewältigung und des wirtschaftlichen Wiederaufbaus. Nachdem die Trümmerfrauen den Schutt abgetragen hatten, die allgemeine Versorgungslage sich stabilisiert hatte und Lebensmittelmarken wie Schwarzmarktbeschaffungen nicht mehr gebraucht wurden, ging es in Politik und Alltag um die Beseitigung von Wohnraumnot und um die Herstellung einer funktionierenden sozialen Marktwirtschaft. Deren Motor und leitender Verfechter war bereits seit seiner Zeit als Wirtschaftsdirektor der Bizone Ludwig Erhard, nun Wirtschaftsminister im Kabinett Adenauer und später dessen Nachfolger als Bundeskanzler. Erhards Weichenstellung mit der Freigabe der Preise wurde bis 1950 auf eine harte Probe gestellt, als die Arbeitslosenzahlen von 1948 (400.000) auf über zwei Millionen anstiegen. Erst als der Preisauftrieb der Korea-Krise in einen Korea-Boom überging, der die unausgelasteten Produktionskapazitäten der westdeutschen Industrie ins Spiel brachte, die Exportwirtschaft ankurbelte und den Durchbruch zu anhaltendem Wirtschaftswachstum brachte, kam das sogenannte Wirtschaftswunder in Gang. Vollbeschäftigung, wachsender Wohlstand und der Durchbruch zur Konsumgesellschaft waren die Folge. Aus dem wirtschaftlichen Boom entstanden Verteilungsspielräume, die sich auch sozialpolitisch niederschlugen. Nicht nur höhere Löhne und Einkommenssteigerungen, sondern auch die Beteiligung der Rentner an den Zuwächsen durch Einführung der dynamischen Rente 1957 sorgten dafür, dass Arbeiterschaft, Gewerkschaften und Sozialdemokratie nun nicht mehr auf Zerschlagung, sondern auf Zähmung des Kapitalismus durch Ausbau des Sozialstaats setzten. Ein starker Impuls in Richtung auf eine ausgleichende Sozialpolitik in der deutschen Nachkriegsgesellschaft war aber mit der nötigen Integration der Millionen von Vertriebenen aus dem osteuropäischen Raum von vornherein gesetzt. Speziell darauf zielte das Lastenausgleichsgesetz von 1952, das durch langzeitlich verteilte, mäßige Vermögensabgaben der Nichtgeschädigten die mittellos Hinzugekommenen u. a. mit Eingliederungshilfen, Hausratentschädigung und Aufbaudarlehen unterstützte. Außenpolitisches Hauptziel der Regierung Adenauer nach dem Petersberger Abkommen war in den Anfangsjahren der Bundesrepublik die Wiederherstellung der vollen staatlichen Souveränität gegenüber den westlichen Siegermächten. Dies kam in einer von wechselseitigen Interessen bestimmten starken Westbindung der Bundesrepublik zum Tragen, die 1951 zur Schaffung der Europäischen Gemeinschaft für Kohle und Stahl führte und damit den Grundstein für die heutige Europäische Union legte. Mit dem Inkrafttreten der Pariser Verträge 1955 wurde die angestrebte Souveränität erlangt und im Zuge dessen durch den Deutschlandvertrag das Besatzungsstatut beendet. Die Rechte der Alliierten wurden durch – erheblich eingeschränkte – Vorbehaltsrechte abgelöst. Zur Wiederbewaffnung des westdeutschen Staates hatte bereits der Koreakrieg auch gegen erheblichen inneren Widerstand (Ohne mich-Bewegung) Anlass gegeben. 1955 wurde die Bundesrepublik nun Mitglied des westlichen Verteidigungsbündnisses NATO. Die vormaligen Besatzungsmächte behielten – künftighin als Schutzmächte – eigene militärische Standorte und Einrichtungen im Bundesgebiet. Zudem entstanden die Kasernen und Übungsplätze der neu gegründeten Bundeswehr. In der Deutschlandpolitik verfolgte Adenauer strikt einen Alleinvertretungsanspruch der Bundesrepublik für alle Deutschen und die staatliche Nichtanerkennung der DDR. Mit der Hallstein-Doktrin suchte man diesen Kurs auch anderen Staaten aufzunötigen. Gegenüber der DDR-Schutzmacht Sowjetunion jedoch zeigte man sich flexibel, da anders Adenauer bei seinen Moskauer Verhandlungen 1955 die Rückkehr der restlichen deutschen Kriegsgefangenen aus sowjetischen Arbeitslagern kaum hätte erreichen können. Einen neuen, wirksamen Anstoß zur Auseinandersetzung mit der NS-Vergangenheit erhielt die deutsche Öffentlichkeit seit Anfang der 1960er Jahre mit dem Eichmann-Prozess in Jerusalem und den vor deutschen Gerichten stattfindenden Prozessen gegen die Verantwortlichen in den deutschen Vernichtungslagern der SS, so z. B. die Auschwitzprozesse. Der Deutsche Bundestag debattierte und beschloss 1965 die Verlängerung der Verjährungsfrist für Mord und Beihilfe zum Mord in der NS-Zeit. In Teilen der bundesdeutschen Gesellschaft (insbesondere unter Studenten und Akademikern) setzte zeitlich parallel ein Bewusstseins- und Wertewandel ein. Amerikanisch geprägte Kulturmuster traten an die Stelle der im nationalen Rahmen herkömmlichen. Gegenüber „neuen“ Werten wie Emanzipation, insbesondere der Frauen gegenüber Männern, Partizipation und Lebensqualität traten die im industriegesellschaftlichen Rahmen funktionalen Werte wie Disziplin, Zuverlässigkeit und Unterordnungsbereitschaft zurück. Das Bildungswesen war seit der von Georg Picht ausgerufenen Bildungskatastrophe in Gärung begriffen. Geballter Studentischer Protest, der gegen die überkommene Ordinarienuniversität mit Parolen wie: „Unter den Talaren – Muff von 1000 Jahren“ aufbegehrte, weitete sich zur umfassenden Gesellschaftskritik aus, die sich gegen die unaufgearbeitete NS-Vergangenheit der Vätergeneration und gegen die Verabschiedung der Notstandsgesetze, gegen die amerikanische Kriegführung in Vietnam, gegen das kapitalistische System und die Ausbeutung der Dritte-Welt-Länder durch die westlichen Industriestaaten richtete. Wichtigster Träger der Protestbewegung war die sogenannte 68er-Generation. Einschneidende, die Proteste radikalisierende Ereignisse waren der Tod des Studenten Benno Ohnesorg durch die Kugel eines Polizisten 1967 und das Attentat 1968 auf Rudi Dutschke, den wichtigsten Theoretiker der Studentenbewegung. Schmidt 1981 während eines Besuchs in der DDR mit Erich Honecker Auch auf der Regierungsebene kam Mitte der 1960er Jahre ein Wandel in Gang: In der Großen Koalition unter Bundeskanzler Kurt Georg Kiesinger gelangte die SPD erstmals zur Regierungsbeteiligung; in der sozialliberalen Koalition unter Willy Brandt wurde sie zur führenden politischen Kraft. „Mehr Demokratie wagen“, hieß es in der Regierungserklärung als Motto für einen nun einsetzenden Prozess gesellschaftspolitischer Reformen, darunter die Ausweitung von Bildungschancen durch Einführung des BAföG, die Senkung des Wahlalters, eine Reform des Strafrechts, die Neuregelung von Schwangerschaftsabbrüchen (§ 218 StGB) sowie ein Betriebsverfassungsgesetz zwecks Mitbestimmung von Arbeitnehmervertretern. Die 68er-Bewegung spaltete sich zeitlich parallel in unterschiedliche politische Richtungen auf, teils, indem diverse kommunistische inspirierte Untergruppierungen gebildet wurden, deren Mitgliedern alsbald „Berufsverbote“ drohten, teils in Gestalt reformorientierter Verfechter der Systemveränderung, die den „Marsch durch die Institutionen“ antraten. Randliche Splittergruppen hielten eine Gewalteskalation für das geeignete Mittel zur Herstellung einer revolutionären Situation. Daraus entwickelte sich der Terrorismus der RAF, der zu einer ernsten Herausforderung für die Regierung von Bundeskanzler Helmut Schmidt wurde. Wirksames Krisenmanagement wurde Schmidt auch wirtschaftspolitisch abverlangt, vor allem hinsichtlich der Folgenbewältigung des Ölpreisschocks, der Ende 1973 die von nahöstlichen Ölimporten abhängigen westlichen Industrieländer traf. Nach Jahren üppigen Wirtschaftswachstums geriet die Bundesrepublik bei steigenden Arbeitslosenzahlen 1975 in eine Rezession. Zu einem Regierungswechsel kam es jedoch erst 1982 wieder, als die Gemeinsamkeiten der sozialliberalen Koalition in der Sozial- und Wirtschaftspolitik aufgebraucht waren und die FDP unter der Führung Hans-Dietrich Genschers im Rahmen eines konstruktiven Misstrauensvotums die Wahl des Oppositionsführers Helmut Kohl zum Bundeskanzler unterstützte. Die im März 1983 folgenden Neuwahlen brachten nicht nur die Bestätigung für die neue christlich-liberale Koalition, sondern auch den erstmaligen Einzug der Grünen in den Bundestag. Sie stellten ein Sammelbecken dar für die Neue Linke, für die Frauenbewegung, für Friedensbewegte angesichts der Nachrüstungsdebatte wie für ökologisch Interessierte, Umweltschützer, und Atomkraftgegner, zumal unter dem Eindruck der Reaktorkatastrophe von Tschernobyl 1986. Mit diesen Themen, unangepassten Formen des Auftretens und einer akzentuierten Gleichstellungspolitik von Frauen und Männern wurden sie für die Altparteien im parlamentarischen Alltag zur Herausforderung. Die mit der Einrichtung einer Bundesstelle für Umweltangelegenheiten bereits in der Regierung Brandt begonnene Umweltschutzpolitik fand in der Schaffung des Bundesumweltministeriums durch die Regierung Kohl 1986 ihre Fortsetzung. Doch vor allem in der Außenpolitik ist über alle Regierungswechsel zu Zeiten der Bundesrepublik hinweg die Kontinuität gewahrt worden. Die Westanbindung blieb das feste Fundament auch nach dem Bau der Berliner Mauer 1961 und trotz des danach einsetzenden Bemühens, zu einem Modus vivendi mit den östlichen Machthabern zu gelangen. Die von der Regierung Brandt-Scheel initiierte neue Ostpolitik, die zur vertraglichen Anerkennung des Status quo u. a. gegenüber der Sowjetunion, der Volksrepublik Polen und der DDR führte und im Gegenzug Erleichterungen des innerdeutschen Reise- und Besucherverkehrs sowie einen vertraglich abgesicherten Status für West-Berlin erbrachte, wurde auch von der Regierung Kohl-Genscher bruchlos fortgesetzt. Dies zeigte sich auch beim Besuch Erich Honeckers 1987 in der Bundesrepublik, dem ersten und einzigen eines DDR-Staatsoberhaupts. Auf die mit dem Mauerfall am 9. November 1989 in Gang kommende Dynamik reagierte der mit dem Ziel der deutschen Wiedervereinigung stets eng verbundene Kanzler Kohl situationsangepasst flexibel. Dem am 28. November im Deutschen Bundestag vorgetragenen 10-Punkte-Programm zur Überwindung der Teilung Deutschlands und Europas folgte am 19. Dezember 1989 ein Treffen mit dem neuen DDR-Ministerpräsidenten Hans Modrow in Dresden und am Nachmittag eine Massenkundgebung, die für Kohl den dringlichen Einheitswunsch der Ostdeutschen unterstrich. Er verließ Dresden „mit der Überzeugung, daß das Regime der DDR vor dem Zusammenbruch stand und es keine Alternative mehr gab zu einer Wiedervereinigung in möglichst naher Zukunft.“ Deutsche Demokratische Republik (1949–1990). Von der aus dem Deutschen Volksrat hervorgegangenen „provisorischen Volkskammer“ wurden am 11. Oktober 1949 Wilhelm Pieck zum Staatspräsidenten und Otto Grotewohl zum Ministerpräsidenten der DDR-Regierung gewählt (Wahlen zur Volkskammer fanden erstmals am 15. Oktober 1950 statt, und zwar nach dem Einheitslistenprinzip). Tatsächliches politisches Machtzentrum aber war das SED-Politbüro, das sich die Kontrolle über alle wichtigen Initiativen und Beschlüsse von Volkskammer und Regierung vorbehielt. Den größten persönlichen Einfluss auf die Ausgestaltung der Herrschaftsverhältnisse in den Anfangsjahren der DDR übte der im Juli 1950 zum Generalsekretär der SED gewählte Walter Ulbricht aus. Nach dem Prinzip des Demokratischen Zentralismus’ wurden nicht nur die wichtigen Weichenstellungen innerhalb des engsten SED-Führungszirkels getroffen, sondern auch für die nachgeordneten Organisationen von Partei und Staat mit bindender Wirkung durchgesetzt. Auf dieser Linie wurden dann auch die politisch einflusslosen Länder in der DDR im Juli 1952 aufgelöst und durch 14 Bezirke ersetzt, die ihrerseits von den zugehörigen SED-Gliederungen dominiert wurden, ebenso wie die den Bezirken untergeordneten 217 Kreise. Wichtigster Hebel zur Durchsetzung der Parteilinie in der Praxis war die Kaderpolitik der SED, mittels derer alle wichtigen Positionen in Staat und Gesellschaft durch Personen besetzt wurden, die den spezifischen Eignungskriterien laut SED-Vorgaben entsprachen. Ebenfalls dem sowjetischen Muster folgend, wurde die Wirtschaft mit dem ersten Fünfjahresplan 1951 zentralistisch ausgerichtet; im Folgejahr wurden die ersten Volkseigenen Betriebe (VEB) und die erste Landwirtschaftliche Produktionsgenossenschaft (LPG) gebildet. Zugleich erhöhte die SED den Druck auf alle von den Parteivorgaben Abweichenden innerhalb und außerhalb der SED durch Kriminalisierung und gerichtliche Aburteilung der Widersacher. Ausspähung und Bereitstellung belastenden Materials wurde dabei hauptsächlich von den Mitarbeitern des 1950 gegründeten Ministeriums für Staatssicherheit (kurz: MfS oder „Stasi“) übernommen, dem „Schild und Schwert“ der Partei bis zum Ende der DDR. Tatsächlich gab es Widerstand während der gesamten vier Jahrzehnte, in denen die DDR existierte. Eine breite Volkserhebung gegen das SED-Regime gab es vor 1989 jedoch nur einmal, und zwar in der Frühphase aus Protest gegen verstärkten Leistungsdruck am Arbeitsplatz. Durch Erhöhung der Arbeitsnormen sollten vor allem die hohen Rüstungskosten gedeckt werden, die im Zuge der beiderseitigen deutschen Wiederbewaffnung als Folge des Koreakriegs und der Verhärtung im Ost-West-Konflikt anfielen. Nachdem der Volksaufstand vom 17. Juni 1953 mit Hilfe sowjetischer Militärs und Panzer niedergeschlagen war, kam es bis zum Bau der Berliner Mauer 1961 zu Flüchtlingszahlen in Größenordnungen, die die wirtschaftliche Existenz der DDR gefährdeten. Als die Fluchtmöglichkeit entfiel, bot sich dem SED-Regime einerseits die Möglichkeit, den Ausbau der sozialistischen Gesellschaft zu forcieren; für das Gros der DDR-Bewohner andererseits galt es nun, sich in den bestehenden Verhältnissen einzurichten und mit dem System zu arrangieren. Erich Honecker (links) und Leonid Breschnew In der nach innen gerichteten Kulturpolitik schwankte die SED-Führung je nach aktuellen politischen Opportunitäten zwischen Phasen einer verhaltenen Liberalisierung – auch in Bezug auf westliche Einflüsse – und solchen rigider ideologischer Verhärtung. Die mit dem Prager Frühling 1968 aufkeimenden Hoffnungen auf einen mit mehr Freiheiten verbundenen Reformsozialismus wurden durch Intervention der Staaten des östlichen Militärbündnisses unter Mitwirkung der DDR zerstört. Als im Mai 1971 Erich Honecker mit sowjetischer Unterstützung seinen politischen Ziehvater Ulbricht in der DDR-Staatsführung ablöste, war die soziale Revolution in der DDR bereits im Wesentlichen durchgeführt, und die visionär-utopischen Erwartungen verblassten. Vielmehr wurde nun die „Gestaltung der entwickelten sozialistischen Gesellschaft“ im Rahmen des „realen Sozialismus’“ propagiert. FDJ-Studenten als Erntehelfer im Bezirk Leipzig im August 1978 Als gestaltende Kraft setzte man dabei auf die „sozialistische Persönlichkeit“, die definitionsgemäß über „umfassende politische, fachliche und allgemeinwissenschaftliche Kenntnisse verfügt, einen festen, von der marxistisch-leninistischen Weltanschauung geprägten Klassenstandpunkt besitzt, sich durch hohe geistige, physische und moralische Qualitäten auszeichnet, vom kollektiven Denken und Handeln durchdrungen ist und aktiv, bewusst und schöpferisch den Sozialismus mitgestaltet.“ Der Heranbildung solcher Persönlichkeiten diente das gesamte Erziehungs- und Bildungswesen in der DDR, nicht nur in den Schulen, sondern auch in den parteinahen Jugendorganisationen: zum einen die Pionierorganisation „Ernst Thälmann“ mit den 6- bis 10-jährigen Jungpionieren und den 10- bis 14-jährigen Thälmannpionieren; zum anderen die Freie Deutsche Jugend (FDJ) für die 14- bis 25-Jährigen, die während der Ära Honecker zwei Drittel bis vier Fünftel der Jugendlichen und jungen Erwachsenen einschloss. Neben Flaggenappellen, ideologischen Unterweisungen, dem Liedersingen, Schießübungen und Zeltlagern wurde auch zum Mitmachen bei sogenannten Jugendobjekten angehalten. Das waren Arbeitseinsätze vielfältiger Art, die sich 1974 auf 68.370 Objekte richteten und 854.912 Jugendliche beschäftigten. Mit der an den schulischen Rahmen angebundenen Jugendweihe, die – bis auf wenige mit meist starker kirchlicher Bindung – die Jugendlichen in der DDR auf ein sozialistisches Gelöbnis verpflichtete, prägte sich in der DDR ein nachhaltig wirksames eigenes Brauchtum aus. Die von Honecker betonte Bedeutung der Landesverteidigung und Grenzsicherung für alle Bereiche der Gesellschaft war ein weiteres Sondermerkmal der DDR, in der ab 1978 an allen Schulen ein obligatorischer Wehrunterricht erteilt wurde. Für die Förderung der Berufstätigkeit von Frauen gab es in der DDR nicht nur das Postulat der Geschlechtergleichberechtigung, sondern auch eine von der verbliebenen männlichen Bevölkerung nicht zu füllende Arbeitskräftelücke. Zur Förderung eines hohen Beschäftigungsgrades der Frauen trugen verschiedene Maßnahmen bei, insbesondere der Aufbau eines umfassenden Kinderbetreuungssystems mit Krippen, Kindergärten und Betreuungsangeboten nach Schulschluss. Kindergelderhöhungen, erweiterter Mutterschaftsurlaub und Arbeitsplatzgarantien wirkten ebenfalls daran mit, dass die Geburtenfreudigkeit von 1973 bis 1980 um ein Drittel anstieg. Am Arbeitsplatz waren Frauen wie Männer zu Kollektiven zusammengefasst, die im sozialistischen Wettbewerb, typischerweise als Brigaden, durch eine hohe Produktivität Prämien erlangen konnten. Der Zusammenhalt solcher Kollektive erstreckte sich aber auch auf außerbetriebliche Aktivitäten wie gemeinsame Geburtstagsfeiern, Ausflüge, Ausstellungs- und Theaterbesuche sowie auf ein Sich-Kümmern um Probleme und Sorgen einzelner Mitglieder. Im Zuge des vom Staat dergestalt organisierten Arbeits- und gesellschaftlichen Lebens „schrieb sich das Kollektiv als Team, als Schule der Kommunikation und ihrer Grenzen, als Hort arbeiterlicher Gemeinschaftserfahrung und sozialer Kontrolle in die Alltagserfahrung der DDR ein.“ Doch auch in Fragen des Urlaubs, der Mobilität und der Versorgung mit Konsumgütern war man davon abhängig, was die staatliche Planung vorsah und was produziert und angeboten wurde. Trotz subventionsbedingt niedriger Preise etwa bei Grundnahrungsmitteln, öffentlichen Verkehrsmitteln, Mieten und Büchern wurde die DDR oft als fehlgesteuerte Mangelwirtschaft erlebt: Weil es vieles oft nicht gab, stellte man sich in die Schlange, um auf Vorrat zu kaufen, was man vielleicht aktuell gar nicht brauchte. Wer aber Zugang zu westlichen Devisen hatte, war besser dran als der Rest. Denn er konnte zum Beispiel im Intershop bekommen, was anderen versagt blieb. Zum Teil lange Wartezeiten fielen an bei der Verteilung nachgefragter Urlaubsplätze durch den Feriendienst des FDGB, bei der bedarfsgerechten Wohnraumvergabe und bei der Auslieferung von Kraftfahrzeugen. Die reguläre Wartefrist auf den mit 13.000 Mark der DDR noch erschwinglichsten, etwa ein durchschnittliches Jahreseinkommen kostenden Kleinwagen Trabant betrug in der DDR-Spätphase 14 Jahre. Das „Weltniveau“ in der Produktion zu erreichen und mitzubestimmen, lautete die von der DDR-Führung ausgegebene Parole im Streben um innere und äußere Anerkennung. Hinsichtlich letzterer wurden in der ersten Hälfte der 1970er Jahre wichtige Fortschritte erzielt, als man im Verhältnis zur Bundesrepublik Deutschland den Grundlagenvertrag, die beiderseitige Einrichtung Ständiger Vertretungen in Bonn und Ost-Berlin sowie ein devisenträchtiges Transitabkommen aushandelte. Mit der Aufnahme beider deutscher Staaten in die Vereinten Nationen erlangte die DDR international einen gleichberechtigten Status, der durch die Mitunterzeichnung der KSZE-Schlussakte 1975 noch unterstrichen wurde. Durch gezielte Förderung sportlicher Nachwuchstalente und des Hochleitungssports erzielte die DDR in manchen Bereichen international herausragende Erfolge, etwa bei Olympischen Spielen. Dass die innergesellschaftliche Akzeptanz des SED-Regimes gleichwohl prekär blieb, zeigte die Ausbürgerung des Liedermachers Wolf Biermann 1976, die zu einer breiten Protestwelle führte und vielfach resignative Tendenzen hinsichtlich der Reformierbarkeit des Herrschaftssystems bestärkte. Mit Berufung auf die Menschenrechtsgarantien der KSZE-Schlussakte stellten immer mehr Bürger einen Antrag auf legale Ausreise aus der DDR. Waren es 1984 rund 32.000 Antragsteller, die neben z. T. jahrelangen Wartezeiten auch eine drastische gesellschaftliche Ausgrenzung in Kauf nahmen, so wuchs die Anzahl 1988 auf über 110.000 an. Die Situation war aber noch in anderer Hinsicht instabil. Denn der im Vergleich zu allen anderen Ostblockstaaten am höchsten entwickelte Lebensstandard der DDR-Bevölkerung beruhte auf einer zunehmend dramatischen Staatsverschuldung, die ausweglose Züge annahm, weil die SED-Führung unter Honecker an den vielfältigen Subventionen keine Abstriche machen wollte, um nicht zusätzliche Unzufriedenheit in der Bevölkerung zu schüren. Nach der drastischen Kürzung sowjetischer Öllieferungen 1981 nahm die Krise der DDR-Staatsfinanzen immer dramatischere Züge an, die auch durch westdeutsche Devisenzuflüsse aus Handel und Verträgen sowie durch wiederholte Milliardenkredite nur kurzfristig überbrückt werden konnten: „Allein Improvisationskunst und der westliche Devisentropf vermochten die marode Planwirtschaft noch halbwegs am Laufen zu halten.“ Trotzdem verschlechterte sich die Versorgungslage der Bevölkerung merklich, selbst bei Waren des täglichen Bedarfs; und die notwendigen Investitionen zur Substanzerhaltung bei Wohnungsbauten und Industrieanlagen blieben aus, was der Volksmund bitter kommentierte: „Ruinen schaffen ohne Waffen!“ In der nach dem Mauerbau erwachsen gewordenen Generation bildeten sich Protestgruppen aus, die neue Themen und Positionen besetzten, sich mit Rüstungseskalation und Umweltzerstörung, mit den Ursachen von Verelendung in der Dritten Welt und mit den Perspektiven eines Europas ohne Grenzen befassten, eine international orientierte Friedensbewegung, die sich in Kleingruppen lokal organisierte und als Kern einer vielfach unter kirchlichem Schutz und Zuspruch sich entwickelnden Bürgerrechtsbewegung bereitstand, als Michail Gorbatschow mit Glasnost und Perestroika die Vorzeichen sowjetischer Politik änderte und die sozialistischen „Bruderstaaten“ zu eigenverantwortlicher Zukunftsgestaltung anhielt. Indem die DDR-Führung daraufhin jede Kursänderung ablehnte und daranging, sogar sowjetische Medien zu zensieren und deren Abonnenten zu düpieren, geriet sie zunehmend in die Isolation. Dem Problemandrang – aus finanzwirtschaftlichen Problemen, sich verschlechternder Versorgungslage der Bevölkerung, einer wachsenden Protestbewegung gegen die Kommunalwahlfälschungen vom Mai 1989 und den über die seit Juni offene ungarische Grenze massenhaft abströmenden DDR-Bewohnern – hatte die nun auch mit Desillusionierten und Unzufriedenen in den Reihen der SED konfrontierte Staatsführung außer örtlichen Gewaltübergriffen, Internierungen und Gewaltandrohung nichts mehr entgegenzusetzen. Nach dem Triumph der Leipziger Montagsdemonstranten am 9. Oktober und dem Fall der Berliner Mauer infolge des Massenansturms vom 9. November 1989 war die SED-Herrschaft herkömmlicher Art am Ende. Doch auch die nach den Machtwechseln von Honecker über Egon Krenz zu Hans Modrow neu ausgerichtete und nun von Bürgerrechtlern mitgestaltete DDR selbst ging binnen eines Jahres im wiedervereinigten Deutschland auf. Vereintes Deutschland seit 1990. Die Ostdeutschen bewirkten mit ihrer friedlichen Revolution nicht nur den Zusammenbruch der SED-Herrschaft, sondern nahmen nach der Grenzöffnung mit einer Akzentverschiebung ihrer zentralen Parole bei den fortgesetzten Montagsdemonstrationen mehrheitlich auch deutlich Kurs auf ein wiedervereinigtes Deutschland. Hatte man die DDR-Obrigkeit vordem mit dem Ruf „Wir sind das Volk!“ in die Schranken gewiesen, so demonstrierte man nun vorwiegend mit der Parole „Wir sind ein Volk!“ für die deutsche Einheit. Artikel 23 des Grundgesetzes der alten Bundesrepublik garantierte die Möglichkeit eines geschlossenen Beitritts der DDR zur Bundesrepublik Deutschland. Wer es als Ostdeutscher besonders eilig hatte, in der Bundesrepublik anzukommen, konnte das aber auch durch Übersiedlung unverzüglich in die Tat umsetzen. Anfang 1990 schwoll die Zahl der diese Möglichkeit Nutzenden in einer für beide Staaten auf unterschiedliche Weise problematischen Größenordnung an. Die ohnehin auf Vereinigungskurs ausgerichtete Regierung Kohl arbeitete ihrerseits energisch auf die Herstellung der Einheit Deutschlands hin und wurde durch den Ausgang der Volkskammerwahl vom März 1990 darin bestärkt, in der die Allianz für Deutschland mit dem künftigen CDU-Ministerpräsidenten Lothar de Maizière triumphierte. Schon zum 1. Juli wurde eine Währungs-, Wirtschafts- und Sozialunion vereinbart und durchgeführt. Der mit den vier Siegermächten des Zweiten Weltkrieges ausgehandelte Zwei-plus-Vier-Vertrag bildete den äußeren Grundstein der Einheit Deutschlands; der von Volkskammer, Bundestag und Bundesrat ratifizierte Einigungsvertrag schuf die inneren Voraussetzungen dafür, dass es am 3. Oktober 1990 zur deutschen Wiedervereinigung kam. In der ersten gesamtdeutschen Bundestagswahl im Dezember 1990 und nochmals 1994 wurde die christlich-liberale Koalition unter Bundeskanzler Helmut Kohl bestätigt, die den Vereinigungsprozess wesentlich gestaltet hatte. Mit knapper Mehrheit (338 zu 320 Stimmen) beschloss der Bundestag am 20. Juni 1991, Bonn als Regierungssitz aufzugeben und Regierung und Parlament nach Berlin zu verlegen. Seit 1999 tagt der Deutsche Bundestag im von Grund auf renovierten Reichstagsgebäude in Berlin. Seit September 1999 ist auch die Bundesregierung endgültig in Berlin angesiedelt. Innenpolitisch absolut vorrangig – und wie der gesamte Vereinigungsprozess mit enormen Kosten verbunden – war während der 1990er Jahre der Aufbau Ost. In den neuen Bundesländern wurde die verkehrliche Infrastruktur modern ausgebaut und die Sanierung von Bausubstanz und Industriebetrieben, wo nicht abrissreif, vorangetrieben. Der Umbau hin zu marktwirtschaftlichen Strukturen mit Hilfe der Treuhandanstalt wurde in hohem Tempo und unter Abwicklung der unverkäuflichen bzw. als unrentabel geltenden Betriebe durchgeführt; und die in DDR-Zeiten durch industrielle Schadstoffeinträge aus veralteten Produktionsanlagen ökologisch besonders belasteten Gewässer und Regionen wurden den Erfordernissen des Umweltschutzes angepasst. Der „Vereinigungsboom“ kam wesentlich den Unternehmen in der alten Bundesrepublik zugute, während die angestammten Produktangebote aus DDR-Zeiten nun kaum noch Abnehmer fanden. Der wirtschaftliche Restrukturierungsprozess in den neuen Bundesländern brauchte Zeit und verlief regional unterschiedlich erfolgreich. Die Arbeitslosenquoten in ostdeutschen Bundesländern lagen mitunter doppelt so hoch wie in den alten Ländern, die durch Partnerschaften und Aushilfe mit qualifiziertem Verwaltungspersonal die Anpassung der neuen Länder an die administrativen, juristischen, wirtschaftlichen und politischen Standards der Bundesrepublik unterstützten. Die konzentrierten Anstrengungen und finanziellen Transferleistungen, die zur Angleichung der Lebensverhältnisse im Osten Deutschlands aufgewendet wurden, rückten mit dem Abklingen des vereinigungsbedingten Wirtschaftsaufschwungs einen unterdessen eingetretenen Reformstau ins Bewusstsein. Mehrere Reformvorhaben der Bundesregierung scheiterten an der rot-grünen Mehrheit im Bundesrat (sogenannte „Blockade“). Der lange Zeit vielerorts unergiebige ostdeutsche Arbeitsmarkt hatte auch eine fortgesetzte Abwanderung gerade junger Menschen zur Folge, die im Westen Beschäftigung suchten – ein anhaltendes demographisches Problem in den strukturschwachen Regionen Ostdeutschlands. Teils gibt es dort auch verstärkt rechtsextremistische Tendenzen. Andererseits ist die sozial benachteiligte Lage vieler Ostdeutscher ein wichtiger Grund für die vergleichsweise starke Stellung der in Die Linke aufgegangenen „Partei des Demokratischen Sozialismus“ (vormals SED) in den neuen Bundesländern. Das wiedervereinigte Deutschland ist ein souveräner Staat. Die Truppen der "Vier Mächte" sind zum größten Teil abgezogen, die noch verbliebenen Militäreinheiten der Westalliierten haben keinerlei Hoheitsbefugnisse mehr und unterliegen dem NATO-Truppenstatut. Die Zustimmung der vormaligen Siegermächte zur deutschen Wiedervereinigung war an Zusagen der deutschen Bundesregierung geknüpft, den Prozess der europäischen Integration weiterhin nachhaltig zu fördern, nachdem die Bundesrepublik diesen bereits seit den 1950er Jahren entscheidend mitgestaltet hatte. Diese Ausrichtung wurde auch in die veränderte Präambel des Grundgesetzes eingetragen. Mit der Unterzeichnung des Vertrages von Maastricht 1992 wurde die Europäische Gemeinschaft (EG) in die mit erweiterten Kompetenzen ausgestattete Europäische Union (EU) überführt. Der Vertrag stellte auch die Weichen für die Einführung einer gemeinsamen europäischen Währung, des Euro. Mit klarer Unterstützung der Bundesregierung wurde zudem die EU-Osterweiterung beschlossen, die 2004 in Kraft trat. Aus der Lösung der deutschen Frage 1990 sind neue Erwartungen und Ansprüche an eine verantwortlich mitgestaltende Rolle Deutschlands bei der Aufrechterhaltung des Weltfriedens, bei der militärischen Umsetzung von UN-Resolutionen wie auch hinsichtlich der Beteiligung an Militäreinsätzen der NATO erwachsen. Nach der Wiedervereinigung beteiligte sich die Bundeswehr erstmals an Auslandseinsätzen, so zum Beispiel nach den Terroranschlägen in den USA vom 11. September 2001 am Krieg in Afghanistan. Eine Beteiligung am Irakkrieg lehnte die Fischer dagegen ab. Mit der in den letzten Jahren deutscherseits erhobenen Forderung nach einem ständigen Sitz im UN-Sicherheitsrat, die gleichfalls mit der gewachsenen internationalen Rolle und Verantwortungsbereitschaft Deutschlands begründet wird, ist die Bundesregierung einstweilen nicht durchgedrungen. a> in Deutschland, bei einer Wahlkampfveranstaltung im August 2004 Bei der Bundestagswahl 1998 wurde die CDU/CSU-FDP-Koalition unter Kohl abgelöst. Die neue Bundesregierung aus SPD und Die Grünen (rot-grüne Koalition) ging unter Bundeskanzler Gerhard Schröder eine Reihe umstrittener Reformen an. Allgemein wurde das Thema Ökologie stärker gewichtet, beispielsweise mit dem Beginn des Atomausstiegs oder mit Gesetzesinitiativen zur Reduzierung von Treibhausgasen. Die Regierung setzte auch erste Ansätze für richtungsweisende Veränderungen in der Sozial-, Renten- und Gesundheitspolitik (siehe Agenda 2010) durch. Mittels der Einnahmen aus der Ökosteuer gelang es, die Lohnnebenkosten (Rentenversicherungsbeiträge) zu reduzieren. Im Zuge der schon in den 1990er Jahren für die Volkswirtschaften weiter gewachsenen Bedeutung des Weltmarkts, der sogenannten Globalisierung, verlagerten aber vor allem größere Unternehmen Produktionskapazitäten in sogenannte Billiglohnländer, sodass die Arbeitslosenquote zunächst weiterhin hoch blieb. Mit dem auf wirtschaftliche Wettbewerbsfähigkeit zielenden Hartz-Konzept zur Neuordnung von Arbeitslosen- und Sozialhilfe konnte die rot-grüne Koalition aber nur Teile der eigenen Wählerschaft überzeugen. Seit der vorzeitig herbeigeführten Bundestagswahl 2005 bekleidet mit der in der DDR aufgewachsenen Angela Merkel erstmals eine Frau das Amt des Bundeskanzlers. Die rot-grüne Regierung wurde von einer Großen Koalition abgelöst. Im Jahr 2008 geriet Deutschland in den Sog einer weltweiten Finanz- und Wirtschaftskrise, die im Wesentlichen durch eine zu sorglose Kreditgewährung insbesondere im Bereich der Immobilienbankgeschäfte in den USA ausgelöst wurde. Im Zusammenhang mit den dadurch bedingten Turbulenzen an den globalen Finanzmärkten steht auch die Staatsschuldenkrise im Euroraum, die eine anhaltende Herausforderung auch für die deutsche Finanz- und Europa-Politik darstellt. 2009 wurde die Große Koalition durch eine schwarz-gelbe Koalition aus Union und der FDP ersetzt. Merkel behielt ihr Amt als Bundeskanzlerin. Bei den Bundestagswahlen 2013 hat die FDP den Einzug in den Bundestag verpasst, es kam erneut zu einer großen Koalition unter Merkel als Bundeskanzlerin. Literatur. Eine umfassende und aktuelle bibliographische Onlinedatenbank bieten unter anderem die '. Anmerkungen. ! Gläubiger. Der Rechtsbegriff des Gläubigers ist eine Lehnübersetzung des italienischen "Creditore", das auf "credere" (glauben) zurückgeht. Ein Gläubiger glaubt demnach seinem Schuldner, dass dieser die Schuld (geschuldete Leistung) erbringen wird. Im Schuldrecht wird als Gläubiger bezeichnet, wer von einem anderen, dem Schuldner, eine Leistung fordern kann (Abs. 1 Satz 1 BGB). Die Rechtsbeziehung zwischen Gläubiger und Schuldner wird als Schuldverhältnis bezeichnet. Die Gesamtheit derjenigen, die Forderungen gegenüber dem Schuldner haben, wird als Gruppe der Gläubiger bezeichnet. Zur Durchsetzung machen diese einen Anspruch geltend. In der Zwangsvollstreckung ist (Vollstreckungs-)Gläubiger derjenige, der aus einem vollstreckbaren Titel vollstreckt. (Vollstreckungs-)Schuldner ist, gegen wen aus dem vollstreckbaren Titel vollstreckt wird. Im schweizerischen Sprachgebrauch hat der Begriff „Gläubiger“ in einer Betreibung lediglich die Bedeutung „Betreibender“. Mit anderen Worten ist Gläubiger „diejenige Person, deren Forderung vollstreckt, zu deren Gunsten also das Schuldbetreibungsverfahren durchgeführt werden soll“. Im Insolvenzverfahren vertreten die Gläubiger ihre Interessen gemeinschaftlich. Hauptorgan ist die so genannte Gläubigerversammlung, InsO. Die Gläubigerversammlung trifft die wesentlichen Entscheidungen im Insolvenzverfahren. Daneben kann von der Gläubigerversammlung noch ein Gläubigerausschuss eingesetzt werden, der den Insolvenzverwalter bei der Durchführung seiner Aufgaben unterstützen und überwachen soll, InsO. Der Gläubiger wird häufig mit dem wirtschaftlich Berechtigten gleichgesetzt. Obwohl die Gläubigereigenschaft und die wirtschaftliche Berechtigung häufig in einer Person zusammenfallen können, ist ein Auseinanderfallen beider Eigenschaften durchaus möglich. Grand-Bassam. Ein altes Haus aus der Kolonialzeit unter der üppigen Vegetation, trotz deutlichem Zerfall bewohnt bis auf den heutigen Tag. Grand-Bassam (auf Deutsch auch: Groß-Bassam) ist eine Hafenstadt der Elfenbeinküste an der Atlantikküste (Golf von Guinea), 40 Kilometer östlich von Abidjan. Grand-Bassam ist mit dem Buschtaxi sowie mit Bussen ab Treichville erreichbar. Geographie. Die Gemeinde Grand-Bassam weist eine Fläche von 11.300 ha und eine Bevölkerung von mehr als 65.000 Einwohnern auf. Sie grenzt im Norden an die Gemeinden Bingerville und Alépé, im Osten an die Gemeinde Bonoua, im Westen an die Gemeinde Port-Bouët und im Süden an den Atlantischen Ozean. Die Grenzen der Gemeinde sind identisch mit jenen der Unterpräfektur. Die Stadt ist ein Touristenort und Sitz des Bischofs von Grand-Bassam, einer der beiden Diözesen des Erzbistums Abidjan. Vegetation. Der Boden ist flach und sandig, von einigen mehr oder weniger sumpfigen Untiefen abgesehen ist die Vegetation der Gemeinde eine mit Bäumen durchsetzte Savanne. Entlang der Küste bestehen Kokospalmenpflanzungen. Hydrographie. Die Unterpräfektur Grand-Bassam wird durch den Atlantischen Ozean und drei weitere Wasserläufe bestimmt: die Ébrié-Lagune, deren Seitenarm, die Ouladine-Lagune, an welcher der Leuchtturm gelegen ist und den Fluss Comoé, der seine Quelle in Banfora in Burkina Faso hat. Geschichte. Junge Mädchen aus dem Gebiet von Grand-Bassam, gezeichnet von der ersten französischen Forschungsreisenden, publiziert 1869. Über den Ursprung des Namens von Bassam gibt es mehrere Theorien. Nach Professor Niangoran Bouah, Ethno-Soziologe, war Bassam keine Ortsbezeichnung. Einerseits könnte es vom N'Zima-Wort "Bazouam" abstammen, was ein Hilferuf ist. Eine N'Zima-Frau hätte ihn einem Europäer zugerufen und dieser gedacht, es sei der Name des Ortes. Die zweite These geht auf die Sprache der Abouré zurück. Aus dem Wort "Alsam" (Abouré für: Abenddämmerung) entwickelte sich durch linguistische Bequemlichkeit "Abassam" und später "Bassam". Niangoran Bouah tendiert dazu, der zweiten These höhere Wahrscheinlichkeit zuzugestehen. Spätmittelalter. Ab 1470 knüpften die Europäer ersten Kontakt mit den Bevölkerungen des Litorals der Elfenbeinküste. 1469 landete Soeiro da Costa, ein portugiesischer Seefahrer, als erster bekannter Europäer im Gebiet von Grand-Bassam, bevor er in Richtung Elmina an der Goldküste (heute Ghana) weiterreiste. Zwischen 1470 und 1471 legten João de Santarém und Pêro Escobar zum ersten Mal an der Elfenbeinküste an. Ivorische Städtenamen wie Sassandra, San-Pédro oder Fresco erinnern noch heute daran. Besiedlung. Die Menschenjagden im Rahmen des Sklavenhandels in der Goldküste führten im 17. Jahrhundert zu einer Migrationsbewegung ins Gebiet der Elfenbeinküste. Abouré siedelten sich in der Umgebung des Flusses Bia und bis zur Aby-Lagune an. Dabei gründeten sie die Dörfer Dibi, Aboisso, Wessebo und Ahakro, die erste Hauptstadt des Königreichs, das König "Aka Ahoba", der Führer der Abouré-Migration, begründet hatte. Die Agni-Brafé, Gründer des Königreichs Sanwi, eroberten im 18. Jahrhundert das Gebiet der Abouré. Diese zogen sich von der Bia zurück in ihren derzeitigen Lebensraum im Südosten des Küstengebietes. Dort teilen sie sich in drei Gruppen auf: die Ehe des Dorfes Moossou, die Ehive der Bonoua-Dörfer und die Odjowo und Ossouen (oder Eblapoue) des Dorfes Ebrah. Gemäß allen Quellen stammen die Abouré, eine Untergruppe der Aschanti, ursprünglich aus der Goldküste. Später, um 1840, stießen, ebenfalls aus dem heutigen Ghana, die N'Zima zu ihnen. Aus der gleichen Ursprungsregion stammen, knüpften sie Eheallianzen. Die N'Zima (oder Appolien) besiedelten die Gebiete der heutigen Stadtquartiere "Petit Paris", "France" und "Azuretti". Auch heute noch besteht die einheimische Bevölkerung Grand-Bassams aus Abouré und N'Zima. Sie hatten als erste Kontakt zu den Europäern. Einige Jahre später siedelten Ehotilé auf der Insel von Vitré und teilten sich in zwei Gruppen, welche die Dörfer "Vitré 1" und "Vitré 2" besiedelten. Frühe Kolonialzeit. Kommandant E. Bouët-Willaumez greift Aufständische bei Grand-Bassam (Westafrika) an, Gravur von 1890 Das Gebiet von Grand-Bassam wurde gemäß einigen Quellen vom französischen Forscher Marcel Treich-Laplène entdeckt. Andere schreiben, Treich-Laplène sei erst 1893 hierher gekommen, als das Fort Nemours bereits seit Jahrzehnten bestanden hat und bereits seit 13 Jahren unter dem Kommando von Arthur Verdier stand. Nachdem am 9. Februar 1842 zwischen einem einflussreichen Abouré namens Attekebele, genannt "König Peter" und Leutnant de Vaisseau Kerhallet ein Vertrag abgeschlossen worden war, konnte durch Admiral Méquet die Stadt Grand-Bassam für die Franzosen gegründet werden. Sie wurde 1893 Hauptstadt der Kolonie Elfenbeinküste mit Louis-Gustave Binger als erstem Gouverneur. Es handelt sich um die erste Präfektur der französischen Kolonie. Als 1896 eine Gelbfieber-Epidemie ausbrach, veranlasste Binger die Verlegung der Kolonialverwaltung weiter westlich ins heutige Bingerville. Seefahrt und Hafen. Die Landungsbrücke zur Jahrhundertwende auf einer 1907 versandten Postkarte zeigt die heftige Brandung, welche ein Anlegen der Schiffe am Ufer unmöglich macht. Die Landungsbrücke ("le wharf") von Grand-Bassam war die erste Hafenanlage der Elfenbeinküste. Mit ihrem Bau wurde 1897 begonnen. Die rund zweihundert Meter lange Brücke überwand die Brandung und erlaubte es den Schiffen, sicher anzulegen. Als 1923 eine zweite Landungsbrücke dem Verkehr übergeben werden konnte, geschah dies gerade zur rechten Zeit, denn die alte versank in einem Sturm in den Wellen. Ein Jahr zuvor waren 76.000 Tonnen Waren umgeladen worden. Auch in den kommenden zehn Jahren blieb dies der einzige Tiefseehafen der Kolonie, welcher seine Kapazitätsgrenze im Jahre 1929 im 172.000 Tonnen Umschlag erreichte. Die Kapazität wurde durch die im gleichen Jahre erbaute, aber erst 1931 in Betrieb genommene Landungsbrücke in Port Bouët schließlich verdoppelt. Grand-Bassam blieb jedoch eine wichtige Hafenstadt, bevor 1950 der Tiefseehafen von Abidjan eröffnet wurde. Überreste der Landungsbrücke von 1923 gelten heute noch als Sehenswürdigkeit. Der Leuchtturm der Stadt wurde 1915 erbaut, andere Quellen nennen ein Jahr früher als Baujahr. Er weist eine Höhe von vierundzwanzig Metern auf und besteht aus mit Kalk verputztem und weiß gestrichenem Blockmauerwerk, das von einer Galerie und der Laterne abgeschlossen wird. Offensichtlich ist der Verputz zwischenzeitlich an den meisten Stellen abgefallen. Letzte Nachweise über den Betrieb stammen aus dem Zweiten Weltkrieg. Danach war das Leuchtfeuer anscheinend von den 1950er-Jahren bis zu den 1970er-Jahren außer Betrieb. Der Turm steht auf einem Landstreifen zwischen dem Atlantischen Ozean und der Ouladine-Lagune. Die Fokalfläche beträgt 32 Meter und das Licht leuchtet alle fünf Sekunden auf. Der Standort des Turmes ist zugänglich, der Turm selbst jedoch nicht. Heute ist die Stadt ein Touristenort und Sitz des Bischofs von Grand-Bassam, einer der beiden Suffragandiözesen des Erzbistums Abidjan. Sehenswürdigkeiten. Das Gericht zur frühen Kolonialzeit. Die historische Kolonialstadt mit ihren von den Kolonialisten errichteten Gebäuden wurde 2012 in das UNESCO-Welterbe aufgenommen. Geschichte Kretas. Die Geschichte Kretas lässt sich in die "vorgeschichtliche" und die "historische Zeit" unterteilen. Die Minoische Kultur (ca. 3000 v. Chr.–ca. 1050 v. Chr.) wird teilweise zur vorgeschichtlichen, teils zur historischen Epoche gerechnet. Vor- und Frühgeschichte. Zu der fossil erhaltenen, ausgestorbenen endemischen Fauna Kretas gehörten Zwergflusspferde, Zwergelefanten, Zwerghirsche "(Praemegaceros cretensis)", außerdem große Nagetiere und Insektenfresser und Raubtiere wie Dachse, Marder und eine landlebende Otterart. Große Fleischfresser fehlten dagegen völlig. Der genaue Zeitpunkt der ersten Besiedlung Kretas ist nicht bekannt. Neueste paläolithische (altsteinzeitliche) Funde von Steinwerkzeugen werden auf ein Alter von mindestens 130.000 Jahren zurückgeführt, sind indes nicht zuverlässig datiert. Die neun Fundstellen liegen an der Südküste bei Plakias (Kotsifou, Schinaria, Timeos Stavros, Gianniou) und am Unterlauf des Megalopotamos (Preveli), alle in der Gemeinde Agios Vasilios. Curtis Runnels, Steinwerkzeug-Fachmann und Expeditionsteilnehmer in Südkreta, hält nach stilistischen Merkmalen der gefundenen Schaber und Faustkeile ein Alter von 130.000 bis 700.000 Jahren für möglich. Damit stammten sie nicht vom modernen Menschen "(Homo sapiens)", sondern einer vorzeitlichen Menschenart, entweder dem Heidelbergmenschen "(Homo heidelbergensis)" oder dem Neandertaler "(Homo neanderthalensis)". Ebenfalls an der Südküste Kretas in der Gemeinde Agios Vasilios wurden an zwanzig Stellen etwa 1600 mesolithische (mittelsteinzeitliche) Steinobjekte entdeckt, beispielsweise Projektilspitzen, Stichel und Schaber. Diese sind bis zu 11.000 Jahre alt. Die Fundstellen befinden sich bei Damnoni, Ammoudi, Schinaria, Timeos Stavros, Preveli und Agios Pavlos. Die archäologische Expedition von 2008/09 unter Leitung von Thomas Strasser hatte das Ziel, Belege für eine vor dem Neolithikum (Jungsteinzeit) erfolgte Besiedlung Kretas zu finden und damit die bis dahin fraglichen mesolithischen Funde aus der Samaria-Schlucht, die hauptsächlich durch Begehung entstanden sein sollten, beweiskräftig zu ersetzen. In den neolithischen Siedlungen wurden bisher keine Knochen der endemischen Inselfauna gefunden, sie starb vor Ankunft der ersten bäuerlichen Siedler aus, wie dies auch von anderen Mittelmeerinseln (Zypern, Sardinien, Mallorca) bekannt ist. Erste eindeutige anthropomorphe Zeugnisse stammen aus dem frühen Neolithikum und werden auf etwa 6000 v. Chr. datiert. Hier sind die akeramischen Schichten von Knossos bedeutsam. In dieser Periode betrieb man bereits Ackerbau. Erst seit etwa 5500 v. Chr. wurde Keramik hergestellt. Minoische Zeit. → "Hauptartikel:" Minoische Kultur Die Minoische Zeit beginnt etwa 3000 v. Chr. und steht einerseits in der Tradition der einheimischen neolithischen Vorgängerkultur, wurde andererseits aber auch durch starke Einflüsse und eventuelle Einwanderung aus Kleinasien befruchtet. Auch die Metallverarbeitung wurde wahrscheinlich aus Kleinasien übernommen. Dies bewirkte einen kulturellen und wirtschaftlichen Aufschwung, der sich im Entstehen der „Minoischen“ Kultur niederschlug. Die Minoische Kultur endete im 13. Jahrhundert v. Chr., als sich auf Kreta die Mykenische Kultur vom griechischen Festland durchsetzte. Archaische und klassische Zeit. Nach dem Untergang der minoischen Kultur wurde Kreta von den mykenischen Griechen beherrscht, ihnen folgten seit dem 11. Jahrhundert v. Chr. weitere Eroberer vom griechischen Festland. Auf der Insel bildeten sich eine Anzahl selbstständiger Poleis heraus. Auf die Geschehnisse des griechischen Festlands nahmen diese keinen Einfluss und umgekehrt versuchten die Hauptmächte des antiken Griechenlands – allen voran Sparta und Athen – niemals, Kreta zu erobern. Gering war das Interesse der griechischen Historiker an den Geschehnissen auf der Insel und es gibt daher eher wenige schriftliche Zeugnisse über die Geschichte Kretas. In der Zeit vom 6. bis zum 4. Jahrhundert währte auf der Insel Kreta eine relative Friedensperiode, durch umfassende herrschaftspolitische Maßnahmen (u. a. Gesetze, vgl. das Stadtrecht von Gortys) war oberflächlich ein Ausgleich zwischen den dominierenden aristokratischen Kräften ersichtlich. Erst in der zweiten Hälfte des 4. Jahrhunderts ging die alte aristokratische Ordnung, die stark an den Machterhalt einiger weniger Familien orientiert war, durch Machtkämpfe zwischen diesen zu Grunde. Die Gesellschaft des archaischen Kretas kann man als recht eigentümlich auffassen. Durch Päderastie und Mahlgemeinschaften mit anderer Ausprägung als z. B. in Sparta betrieb der Adel Herrschaftspolitik. Bürger konnte man nur sein, sofern man an den gemeinsamen Mählern, die überwiegend von den wohlhabenden Kretern finanziert wurden, teilnahm. „Regiert“ wurde Kreta durch Kosmen, deren Anzahl pro Stadt differierte. Jenes Amt wurde nach dem Rotationsprinzip an die einflussreichsten Familien vergeben – freilich um Machtkämpfe zu vermeiden. Wohl einen großen Stellenwert im archaischen Kreta hatte die Familie – ihr Schutz und Erhalt wurde von vielerlei Gesetzen (vgl. das Erbschafts-, Schuld- und Familienrecht der "Großen Inschrift" von Gortys) gewährleistet. Das wirtschaftliche Potential der Insel wurde durch fortwährende Kriege zwischen den verschiedenen Poleis geschwächt. Hellenismus und Kaiserzeit. Personifikation Kretas, Haus des Theseus, Paphos (Zypern), 4.Jhdt.n.Chr. Zwischen 267 und 261 v. Chr. intervenierten die ägyptischen Ptolemäer auf Kreta, aber sie konnten die Insel nicht befrieden. 220 folgte eine Intervention Philipps V. von Makedonien, der mit der kretischen Stadt Gortyn verbündet war. Er konnte die Verhältnisse auf Kreta stabilisieren, zog aber die Kreter in seinen Konflikt mit der römischen Republik hinein. In den Makedonischen Kriegen zwischen 214 und 196 war Kreta mit Philipp verbündet, ohne dass sich die Niederlagen des Königs auf die Insel auswirkten. Der römische Sieg führte nur zur erneuten Unabhängigkeit der kretischen Städte und die alten Rivalitäten zwischen Knossos, Cydonia und Gortyna flammten unverzüglich wieder auf. Der römische Senat schickte mehrfach (184, 180 und 174 v. Chr.) Gesandte als Vermittler, ohne dass diese etwas bewirkten. Die Instabilität Kretas bot den besten Nährboden für Piraten, die auf der Insel leicht Unterschlupf fanden und mit dieser oder jener Stadt paktierten. Die Rhodier, als wichtigste griechische Handelsmacht jener Zeit, versuchten die Situation zu ordnen und unternahmen 154 v. Chr. einen Kriegszug nach Kreta. Sie wurden jedoch vernichtend geschlagen. Nur eine römische Intervention verhinderte die totale Niederlage. Im ersten Jahrhundert v. Chr. begannen die Römer ernsthafter gegen die Piraten in der Ägäis vorzugehen. 74 v. Chr. ordnete der Senat deshalb die Eroberung Kretas an. Der erste Versuch unter dem Befehl des Marcus Antonius war schlecht vorbereitet und es standen zu wenig Schiffe und Truppen zur Verfügung. Antonius erlitt eine herbe Niederlage und viele Römer gerieten in Gefangenschaft. Unterdessen verhinderte der Krieg gegen Mithridates von Pontus und der Aufstand des Spartacus für einige Jahre einen neuen römischen Eroberungsversuch. 69 v. Chr. wurde der Konsul Quintus Caecilius Metellus vom Senat mit der Eroberung Kretas beauftragt. Mit Erfolg nahm er eine kretische Stadt nach der anderen ein, während Pompeius die Piraten zur See bekämpfte. Die geschlagenen Kreter wollten sich nur Pompeius unterwerfen und dieser nahm diese Unterwerfung an, obwohl Quintus Caecilius Metellus der eigentliche Eroberer war. Nicht nur dieser selbst sondern die ganze "gens" der Meteller haben das Pompeius sehr verübelt. 63 v. Chr. kehrte Metellus jedoch nach Kreta zurück und machte die Insel endgültig zur römischen Provinz. In Rom feierte er einen Triumph und nahm das Cognomen "Creticus" an. Einmal befriedet fanden sich die Kreter ohne Widerstand mit der römischen Herrschaft ab. Die Insel war eine der ruhigsten Provinzen des ganzen Imperiums. Unter Kaiser Augustus wurde sie mit Gebieten in Libyen zur Provinz "Creta et Cyrenaica" vereinigt. Kaiser Diocletian trennte beide Gebiete 298 n. Chr. und bildete eine eigene Provinz Kreta. Im 3. und 4. Jahrhundert verbreitete sich das Christentum auf der Insel. Im Jahr 365 wurde Kreta von einem sehr starken Erdbeben erschüttert. Dieses Erdbeben vor Kreta 365 richtete nicht nur in Kreta, sondern in den meisten Anrainerstaaten des östlichen Mittelmeeres Verwüstungen an. Byzantinisches Reich (395–1204) und Sarazenenherrschaft (826–961). In den Zeiten der Völkerwanderung blieb Kreta von Eroberungsversuchen germanischer und slawischer Völkerschaften verschont, sieht man von einem Zug slawischer Seefahrer im Jahr 623 ab, die möglicherweise in der Absicht kamen, dort zu siedeln. 674 erfolgte ein erster arabischer Angriff, 692 ein weiterer. Unter ihrem Führer Abu Hafs al-Balluti (später al-Ikritishi, der Kreter genannt, die Griechen nannten ihn Apohapsis) wurden im Jahr 816 Muladí als Rebellen aus dem islamischen Spanien vertrieben. Diese 10 bis 15.000 Menschen gelangten auf Umwegen nach Ägypten, wo sie Alexandria einnehmen konnten. Nach einer schweren Niederlage gegen die Truppen des Kalifen wandten sich die Andalusier gegen Kreta, das sie möglicherweise bereits zuvor mit Raubzügen heimgesucht hatten. Ob sie es ab etwa 824 tatsächlich ganz eroberten, ist nicht sicher, und auch ihre Rolle beim Niedergang der Städte auf der Insel ist aus den wenigen Quellen nicht ablesbar. Sicher ist nur, dass sie Kreta als Basis für Kaperfahrten gegen Byzanz benutzten, dass sie es Al-Khandaq nannten, und dass das spätere Iraklion ihre Hauptstadt war. → "Siehe auch:" Emirat von Kreta Byzanz versuchte mehrfach, die Insel zurückzuerobern. So scheiterten Versuche in den Jahren 826 und 828 trotz erheblicher Erfolge auch 843-844, dann erneut 865. 961 fiel die Insel wieder an das Byzantinische Reich, dessen Feldherr und späterer Kaiser Nikephoros Phokas die Insel eroberte. Venezianische Herrschaft (1204–1669). → "Siehe auch:" Candia (Kreta) Nach dem Vierten Kreuzzug erwarb die Republik Venedig 1204 Kreta von Bonifaz von Montferrat für den offiziellen Preis von 1.000 Silbermark. Noch wichtiger als das Geld war aber die Garantie des Dogen, dass Bonifatius im Gegenzug Gebiete des gleichen Werts in Griechenland bekam. Damit begann die Periode der venezianischen Herrschaft, auch "Venetokratie" (Βενετοκρατία) genannt. Die Insel wurde zur wichtigsten venezianischen Kolonie. In sechs Provinzen, deren Namen den Stadtsechsteln (sestieri) der Mutterstadt entsprachen, siedelten rund 4000 Venezianer auf die Insel über und nahmen Feudalgüter in Besitz (unter anderen die Familie der Falier, aus welcher der venezianisch-kretische Dichter Marinos Phalieros stammte). Doch die Kreter wehrten sich in etwa zehn Aufständen, die das ganze 13. Jahrhundert durchzogen – letztlich ohne Erfolg. Der größte Aufstand dauerte unter der Führung von Alexios Kalergis von 1283 bis 1299. Zwischen katholischen Venezianern und orthodoxen Griechen herrschte ein strenges Heiratsverbot. Zugleich unternahmen Genua und Byzanz (bzw. Nikaia) mehrere Versuche, die Insel zurückzuerobern. Die Einwohnerzahl wuchs von rund 50.000 auf 200.000 an. Die Hauptstadt Candia wurde zu einem der wichtigsten Handelsrelais im östlichen Mittelmeer. 1363–1366 rebellierten die venezianischen Siedler selbst gegen die harte Fiskal- und Handelspolitik der Mutterstadt – ebenso erfolglos wie zuvor die griechischen Kreter. Nach dem Fall Konstantinopels im Jahr 1453 flohen viele Festlandsgriechen nach Kreta; ab der 71 war Kreta das größte verbliebene griechische Siedlungsgebiet außerhalb des Osmanischen Reiches. Die kulturelle Tradition von Byzanz wurde auf Kreta, gemischt mit italienischen Einflüssen, noch 200 Jahre nach dem Fall Konstantinopels fortgeführt. Man spricht von der "Byzantinischen Renaissance". Eine der bekanntesten Persönlichkeiten dieser Periode war der Maler Domínikos Theotokópoulos, der in Spanien als El Greco (der Grieche) berühmt wurde, jedoch auf Kreta als Ikonenmaler begonnen hatte. Osmanische Herrschaft (1669–1897). Von 1645 bis 1669 eroberte das Osmanische Reich im 6. Venezianischen Türkenkrieg als eine der letzten venezianischen Bastionen auch Kreta und leitete damit die Periode der Osmanischen Herrschaft, auch "Turkokratie" (Τουρκοκρατία) genannt, auf der Insel ein. Zuletzt fiel Candia nach mehr als zwanzigjähriger Belagerung. Unter der Herrschaft der Osmanen konvertierten viele Kreter zum Islam. In den Städten bildeten Moslems bald 70 % der Bevölkerung und die Christen waren in der Minderheit. Auf dem Land waren hingegen nur ein Viertel bis ein Drittel der Bevölkerung Moslems. Widerständler gegen die osmanische Herrschaft zogen sich in unwegsame Gebiete wie die Sfakia zurück. Dort begann der erste kretische Aufstand gegen die türkischen Besatzer unter Daskalogiannis im Jahre 1770, er wurde jedoch blutig niedergeschlagen. Nach dem Ausbruch der griechischen Freiheitskämpfe auf dem Festland 1821 erhoben sich die Kreter erneut, wurden jedoch 1824 von ägyptischen Truppen geschlagen. Weitere Aufstände wie die Einnahme der Festungsinsel Imeri Gramvousa (1825–1828) und die Tragödie vom Arkadi 1866 zeigten den Freiheitswillen der Kreter. 1866 wurden sie durch das italienisch-bulgarische "Garibaldi-Bataillon" unterstützt. Im Jahr 1896 rebellierte die griechisch-orthodoxe Bevölkerung wieder gegen die osmanische Herrschaft. Ein Eingreifen Griechenlands führte zum Türkisch-Griechischen Krieg, der 1897 mit einer Niederlage Griechenlands endete. Im Friedensvertrag vom 4. Dezember 1897 erhielt Kreta auf Druck der europäischen Großmächte den Status eines internationalen Protektorats. De-facto-Unabhängigkeit (1898–1913). Seit 1898 war Kreta de facto ein unabhängiger Staat unter der nominellen Oberhoheit des Sultans. → "Hauptartikel: Kretischer Staat" Wiedervereinigung mit Griechenland (seit 1913). 1913 wurde die Insel infolge des Ersten Balkankriegs mit Griechenland vereinigt. Nach dem griechisch-türkischen Krieg (1919–1922) und dem Vertrag von Lausanne wurde die muslimische Bevölkerung Kretas zwangsumgesiedelt. Auswahlkriterium bei dieser Vertreibung war primär die Religionszugehörigkeit, nicht die ethnische Zugehörigkeit, d.h. auch griechischstämmige muslimische Familien wurden ausgewiesen. abgeräumte türkische Grabsteine in Iraklio Zweiter Weltkrieg. Während des Zweiten Weltkrieges standen 1941 griechische, britische und neuseeländische Truppen auf Kreta. Sie sollten die Insel gegen die Deutschen und Italiener halten, um die britische Schifffahrt im Mittelmeer zu sichern. Das gelang nicht, ab dem 20. Mai 1941 war Kreta Schauplatz des ersten großangelegten Luftlandeangriffs im Zweiten Weltkrieg, mit dem Ergebnis, dass die Insel von deutschen und italienischen Truppen erobert wurde. Der anschließende Partisanenkampf, dem sich große Bevölkerungsteile anschlossen, führte zu eskalierenden Kriegsverbrechen. So wurden auf Befehl von Generaloberst Kurt Student am 2. Juni 1941 die meisten männlichen Bewohner des Ortes Kondomari erschossen und die Stadt Kandanos zerstört. In der Gemeinde Viannos wurden am 14. September 1943 500 Bewohner, zumeist Frauen und Kinder erschossen. Am 20. Mai 1944 umstellten Einheiten unter dem Befehl des deutschen Kommandanten der "„Festung Kreta“" General Bruno Bräuer das jüdische Viertel (278 Mitglieder) der Stadt Chania. Flüchtende Einwohner wurden erschossen, alle anderen per Schiff nach Iraklio gebracht und zwei Wochen später nach Griechenland deportiert. Der ehemals griechische Frachter "Tanais" ("Danae"), der die überlebenden Mitglieder der jüdischen Gemeinde zusammen mit Hunderten griechischer Geiseln und einigen italienischen Kriegsgefangenen nach Athen bringen sollte, wurde am 9. Juni 1944 von dem britischen U-Boot "Vivid" torpediert und sank. Nur vier der jüdischen Einwohner Chanias sollen überlebt haben. Plan des deutschen Überfalls auf Kreta, Denkmal in Iraklio Bis zum Herbst 1944 blieb die gesamte Insel unter deutscher Besatzung. (Ostkreta war bis zum Ausscheiden Italiens aus dem Achsenbündnis 1943 von italienischen Truppen besetzt.) Die letzten Soldaten des deutschen Küstenjägerregiments wurden erst einen Monat nach Kriegsende von den Alliierten in Chania entwaffnet. Während der Besetzung kamen etwa 8.000 Kreter bei Kämpfen oder bei Massakern zu Tode. Bruno Bräuer wurde nach Kriegsende an Griechenland überstellt und zum Tode verurteilt. Mit dem ebenfalls wegen Kriegsverbrechen auf Kreta verurteilten General Friedrich-Wilhelm Müller wurde er am 20. Mai 1947 um 5 Uhr hingerichtet. Als bemerkenswert gilt ferner auch die Entführung des deutschen Generals Heinrich Kreipe am 26. April 1944 von Kreta nach Ägypten durch den britischen Special Operations Executive in Zusammenarbeit mit Kretern. Einzelnachweise. ! Große Seen. Karte der Großen Seen und deren Einzugsgebiet (grün) Die Großen Seen im Querschnitt Die Großen Seen () sind eine Gruppe fünf zusammenhängender Süßwasserseen in Nordamerika. Geographie. Hydrologisch gesehen bilden Huron- und Michigansee zusammen nur einen See mit einer schmalen Stelle, der Mackinacstraße. Der maximale Höhenunterschied zwischen den einzelnen Seen liegt bei circa 150 Meter, den größten Teil davon bilden die Niagarafälle zwischen dem Erie- und dem Ontariosee. Aufgrund ihrer Größe sind auf den Großen Seen die Gezeiten bemerkbar, die Auswirkungen sind allerdings gering und werden von meteorologischen Effekten überdeckt. Der Michigansee liegt als einziger der Großen Seen vollständig in den USA, die anderen vier liegen entlang der kanadisch-US-amerikanischen Grenze. Durch den Sankt-Lorenz-Strom werden sie in den Atlantik entwässert. Über 35.000 Binneninseln beziehungsweise Binnen-Inselgruppen befinden sich im Gebiet der Großen Seen. Im kanadischen Teil des Huronsees liegt beispielsweise Manitoulin Island, die mit 2.766 Quadratkilometern flächenmäßig größte Binnenseeinsel der Erde. Im Winter erzeugt die Wasseroberfläche der Großen Seen den Lake effect snow. Der dadurch entstehende Snow Belt erstreckt sich über fünf Bundesstaaten. Geologie. Die Umgebung der Großen Seen und das Tiefland des Sankt-Lorenz-Stromes sowie seine sich noch weithin im Schelf untermeerisch fortsetzende Trichtermündung stellen geologisch eine Einheit dar. Glaziale Ausräumung, Auflagerung von Moränenschutt und Krustenbewegungen bestimmen die Gestalt des Seengebietes, dessen Hohlformen allerdings schon durch großräumige tektonische Einmuldungen im Tertiär und zu Beginn des Pleistozäns angelegt wurden. Eine mächtige paläozoische Schichtenfolge, die aus verschiedenen widerstandsfähigen Sandsteinen und Kalken bestehende Onondaga-Formation, umrahmt die Seen im Süden. Zwischen Ontario- und Eriesee und nördlich des Michigansees erstreckt sich die aus hartem Dolomitgestein und weichem Schiefer bestehende Niagara-Schichtstufe. Am Nordrand der Großen Seen tritt der Kanadische Schild an die Oberfläche. Wirtschaft und Infrastruktur. Die Großen Seen sind ein wichtiges Reservoir für die Wasserversorgung der USA und Kanadas. Mit etwa 245.000 Quadratkilometern bilden sie die größte Süßwasserfläche der Erde, wobei der Baikalsee aufgrund seiner großen Tiefe die Großen Seen im Süßwasservolumen allerdings noch knapp übertrifft. Durch die starke Besiedlung und Industrialisierung des Gebiets kam es jedoch zu einer immer höheren Schadstoffbelastung und zur Massenvermehrung von eingeschleppten Tier- und Pflanzenarten, wie etwa dem Meerneunauge, der Schwarzmund-Grundel und der Dreikantmuschel. Ein Wasserschutzabkommen wurde 1978 von den USA und Kanada vereinbart. Über den Illinois Waterway besteht eine Schifffahrtsverbindung zum Mississippi River, über den Sankt-Lorenz-Seeweg zum Sankt-Lorenz-Strom und damit dem Atlantik. Aufgrund der besonderen Verhältnisse auf den Seen hat sich eine eigene Sorte Massengutschiff herausgebildet, das Große-Seen-Schiff. Weblinks. ! ! !Grosse Seen Genyornis. "Genyornis" ist eine im Pleistozän ausgestorbene Gattung der Donnervögel (Dromornithidae), die in Australien lebte und vor etwa 40.000 Jahren ausstarb. Die einzig bislang bekannte Art "Genyornis newtoni" wurde nach dem englischen Zoologen und Ornithologen Alfred Newton benannt. "Genyornis" ist die einzige noch im Pleistozän lebende Donnervogelgattung. Fossilien der Gattung wurden in allen australischen Bundesstaaten gefunden. "Genyornis" ist auch die einzige Donnervogelgattung, von der ein im anatomischen Zusammenhang gefundenes Skelett vorhanden ist. Merkmale. "Genyornis" wurde 2,0 bis 2,15 Meter hoch, etwa 290 kg schwer und war damit ein mittelgroßer Donnervogel, kleiner als "Bullockornis planei" und "Dromornis stirtoni" aber größer als "Ilbandornis woodburnei". Der Schädel von "Genyornis" war konisch, der Schnabel war weniger hoch und weniger seitlich abgeflacht als der von "Bullockornis" und "Dromornis". Wahrscheinlich nahm der Vogel Gastrolithen zur Zerkleinerung der vor allem aus Blättern bestehenden Nahrung auf, die mit einigen Skeletten gefunden wurden. Aussterben. Untersuchungen an Eierschalen von "Genyornis", gefunden in der Umgebung des Lake Eyre, zeigen, dass die Population plötzlich vor 50.000 Jahren zusammenbrach, etwa 40.000 bis 35.000 Jahre bevor die Gegend austrocknete. Möglicherweise ist "Genyornis" durch Bejagung der Aborigines ausgestorben. Genua. Genua (, im Ligurischen "Zena") ist die Hauptstadt der italienischen Region Ligurien. Das im Nordwesten des Landes am Ligurischen Meer gelegene ehemalige Zentrum der im Mittelalter bedeutenden Republik Genua ist heute Verwaltungssitz einer gleichnamigen Metropolitanstadt. Genua hat 800.000 Einwohner in der Agglomeration und 1,5 Millionen in der Metropolregion. Die Prachtstraßen "Le Strade Nuove" mit den Renaissance- und Barockbauten der "Palazzi dei Rolli" im Zentrum der Altstadt wurden im Jahre 2006 von der UNESCO zum Weltkulturerbe erklärt. Blick vom Castello d'Albertis in Richtung Meer Lage. In der Bucht von Genua steigt das Gebirge des Apennin landeinwärts steil an und legt damit die gesamte Charakteristik der Stadt fest. Genua ist aufgrund seiner Lage eine fast ausschließlich dem Meer zugewandte Stadt. Deutlich wird dies beispielsweise bei einer Zugfahrt von Mailand aus: Nach minutenlangen Fahrten durch stockdunkle Tunnel erscheinen unvermittelt das Mittelmeer und die Stadt. In Genua wird die Trennung zwischen dem extrem dicht besiedelten, oft planlos verbauten Küstenstreifen und dem dörflich geprägten, von zunehmender Abwanderung betroffenen, strukturarmen Hinterland, die ganz Ligurien prägt, besonders deutlich. Noch heute können aufgrund dieser Gegensätze die Berührungspunkte der Genuesen mit weit entfernten Hafenstädten im gesamten Mittelmeerraum größer sein als mit einem geographisch zwar nur wenige Kilometer entfernten, nach Tradition und Mentalität aber Welten entfernten Bergdörfchen im Apennin. Geographisch gesehen bildet Genua genau die Mitte der italienischen Region Ligurien. Die sich etwa 35 km an der Mittelmeerküste entlangziehende Stadt geht in südöstlicher Richtung in die sogen. Riviera di Levante (bis La Spezia), in südwestlicher Richtung in die sogen. Riviera di Ponente (bis Ventimiglia) über. In Genua ist es üblich, regionale Ortsangaben hauptsächlich mit den Richtungen "Levante" (also südöstlich von Genua) beziehungsweise mit "Ponente" (westlich von Genua) anzugeben. Genua bekam in der italienischen Sprache oft den Zusatz "la superba" oder "la dominante". Klima. Das Klima Genuas ist ein maritim gemäßigtes, mit Übergängen zum mediterranen Klima, und wird oft von den Atlantikwinden der Westwindzone beeinflusst. Ausläufer des Mistralwindes begünstigen in der Region Genuas die Bildung von Tiefdruckwirbeln. Die Tagestemperaturunterschiede sind das Jahr über relativ gering und konstant bei circa 6 °C. Die Jahresdurchschnittstemperatur liegt bei +15,6 °C; mit dem Januar als kältestem Monat mit +8,0 °C und dem Juli als wärmsten mit +23,9 °C im Mittel. Die Luftfeuchtigkeit ist das Jahr über relativ hoch, insbesondere im Sommer und den gemäßigten Jahreszeiten. Der Jahresniederschlag liegt bei 1072 mm, mit Niederschlägen im ganzen Jahr, die jedoch zwischen September und November ihren Höchststand und im Juli ihren niedrigsten Stand erreichen. Der (stets präsente) Wind bläst im Winter zumeist aus nördlicher Richtung und im Frühling und in der ersten Herbsthälfte aus dem Süden. Aufgrund der Besonderheiten des städtischen Territoriums hat jedoch jeder einzelne Stadtteil, innerhalb dieses makroskopischen Klimabildes, sein eigenes Mikroklima, das sich von dem der anderen Stadtteile in Temperatur, Luftfeuchtigkeit, Niederschlag und Sonnenexposition unterscheidet. Stadtgliederung. Die Munizipien setzen sich aus insgesamt 31 Stadtteilen zusammen. Während des Faschismus wurde das Territorium der Stadt Genua um ein Vielfaches vergrößert. Dazu wurden 1926 zahlreiche Gemeinden in die Stadt eingegliedert. Im Westen erreichte die Stadtgrenze dadurch Voltri, im Osten Nervi und im Norden Pontedecimo und Molassana. Diese Stadterweiterung schuf das sogenannte "Groß-Genua". Die ehemals eigenständigen Stadtteile Genuas haben jedoch ihre Struktur als Kleinstadt in der Regel beibehalten, mit eigenen Zentren, Peripherien, eigener Kultur und eigenen Traditionen. Während des ökonomischen Aufschwungs wurden in den 1960er Jahren neue Stadtteile, wie beispielsweise Ca' Nuova und Biscione, gegründet. Demographie. Nach einem mäßigen Wachstum in der zweiten Hälfte des 19. Jahrhunderts, das durch eine hohe Abwanderungsrate nach Amerika bestimmt war, kam es im 20. Jahrhundert zu einer regelrechten Bevölkerungsexplosion, begünstigt durch die positive Entwicklung des Hafens und der Schwerindustrie. In einer ersten Phase zogen hauptsächlich Bewohner des ligurischen Hinterlandes und von Piemont nach Genua. Nach dem Ersten Weltkrieg wurde dieser Zuzug von Venezianern und Friaulern konstant gehalten. In dem Zeitraum der 1960er bis 1970er Jahre zogen hauptsächlich Süditaliener (Sizilianer und Sarden) nach Genua. Der anhaltende Zustrom von Einwanderern brachte auch logistische und urbane Probleme mit sich. So mussten, um genug Siedlungsfläche zu bieten, zwei Hügel abgetragen und ein Flussbett zugeschüttet werden. In den 1980er Jahren kam das Bevölkerungswachstum schließlich ins Stocken, um sich in den folgenden Jahren in eine „Bevölkerungsimplosion“ zu verwandeln. Von 816.000 Einwohnern 1971 sank die Population auf 610.000 im Jahre 2001 (das bedeutet eine Bevölkerungsminderung von 25 % innerhalb von 30 Jahren). Begünstigt wurde diese Entwicklung durch das sehr hohe Durchschnittsalter, das eine höhere Sterberate im Vergleich zur Geburtenrate mit sich brachte (2006: 4680 Geburten bei 8158 Sterbefällen). Das Durchschnittsalter der Genueser liegt bei 47,0 Jahren, mit einem Höchstwert von 48,5 Jahren im Stadtgebiet des "Medio Levante". Der Altenquotient (Verhältnis von den "über 65-Jährigen" zu den "unter 15-Jährigen") liegt bei 242,0. Im März 2007 lebten 288.616 (47 %) Männer und 325.525 (53 %) Frauen in Genua. Bei der Stadtverwaltung von Genua sind 299.165 Familien („nucleo familiare“), bestehend aus durchschnittlich 2,04 Personen, gemeldet (Stand: Dezember 2006). Von den gemeldeten Familien bestehen 41,4 % aus nur einer Person, 28,2 % aus zwei, 18,4 % aus drei, 9,9 % aus vier und 2,1 % aus fünf oder mehr Personen. Die größte nicht-italienische Bevölkerungsgruppe stellten 2006 Ecuadorianer mit 12.734 gemeldeten Einwohnern, gefolgt von Albanern, Marokkanern, Peruanern, Nigerianern, Chinesen und Rumänen. Die Einwanderungsrate liegt seit 2003 über der Auswanderungsrate. Geschichte. Der Name der Stadt ist vom lateinischen ' ‚das Knie‘ abgeleitet. Frühzeit und Antike. Da Genua einen Naturhafen ersten Ranges hat, muss es als Seehafen benutzt worden sein, sobald man begann, im Tyrrhenischen Meer Schifffahrt zu betreiben. Aus antiken Schriftquellen ist nichts über einen Aufenthalt oder eine Besiedelung durch Griechen bekannt, die Entdeckung eines griechischen Friedhofs aus dem 4. Jahrhundert v. Chr. deutet aber darauf hin. Beim Bau der "Via XX. Settembre" wurden 85 Gräber gefunden, von denen der Großteil auf das Ende des 5. und das 4. Jahrhundert v. Chr. datiert. Die Leichen waren in allen Fällen verbrannt und in kleinen Schachtgräbern beerdigt worden, wobei das Grab selbst durch eine Platte aus Kalkstein bedeckt wurde. Die Urnen entsprechen dem letzten rotfigurigen Stil und wurden hauptsächlich aus Griechenland oder "Magna Graecia" importiert, während die Bronzeobjekte aus Etrurien und die Broschen aus Gallien kamen. Dies veranschaulicht die frühe Bedeutung Genuas als Handelshafen und das Eindringen griechischer Sitten, denn die übliche Praxis der Ligurier war die Erdbestattung. Man nimmt an, dass sich der Name Genua aus der Form seiner Küstenlinie ableitet, die an ein Knie (') erinnert. Vom Auftauchen der Römer wird erstmals 216 v. Chr. berichtet, von der Zerstörung durch die Karthager und dem unmittelbaren Wiederaufbau durch die Römer 209 v. Chr. Die Römer machten Genua und Placentia zu ihrem Hauptquartier gegen die Ligurier. Von Rom aus kam man dorthin über die "Via Aurelia" entlang der Nordwestküste und ihre Verlängerung, die später den Namen "Via Aemilia" (Scauri) bekam. Letztere wurde erst 109 v. Chr. gebaut; es muss aber schon lange vorher eine Küstenstraße gegeben haben, mindestens ab 148 v. Chr., als die "Via Postumia" von Genua durch Libarna (heute Serravalle Scrivia, wo Überreste eines Amphitheaters und Inschriften gefunden worden sind), Dertona, Iria, Placentia, Cremona und von da ostwärts gebaut wurde. Es gibt eine Inschrift von 117 v. Chr. (im "Palazzo Municipale" in Genua erhalten) mit der Entscheidung der "patroni" Q. und M. Minucius aus Genua, in Übereinstimmung mit einem Erlass des römischen Senats in einer Kontroverse zwischen dem Volk Genuas und den Langenses (auch Viturii genannt), den Einwohnern einer benachbarten Hügelstadt, die in das Genueser Territorium aufgenommen wurde. Aber keine der anderen in Genua gefundenen Inschriften, die praktisch allesamt Grabesinschriften sind, kann definitiv der antiken Stadt zugeordnet werden; man kann gleichermaßen annehmen, dass sie von anderen Orten über See dorthin gebracht wurden. Nur aus Inschriften an anderen Orten wissen wir, dass Genua Stadtrechte hatte, aber es ist unbekannt, ab welchem Zeitpunkt. Klassische Autoren berichten wenig von der Stadt. Mittelalter. Die Geschichte Genuas während der langobardischen und karolingischen Perioden ist lediglich die Wiederholung der allgemeinen Geschichte der italienischen Kommunen, denen es gelang, von wettstreitenden Fürsten und Baronen die ersten Urkunden ihrer Freiheit zu erlangen. Der patriotische Geist und die Tüchtigkeit der Genuesen auf See, die sie in ihren Verteidigungskriegen gegen die Sarazenen entwickelten, führte zur Gründung einer bürgerlichen Verfassung und zum raschen Wachstum einer wirksamen Marine. Aus der Notwendigkeit eines Bündnisses gegen den gemeinsamen sarazenischen Feind schloss sich Genua Anfang des 11. Jahrhunderts mit Pisa zusammen, um die Muslime von der Insel Sardinien zu vertreiben und zur mittelalterlichen Kolonialmacht aufzusteigen. Bereits 1162 errichteten Genueser in Salé, zwischen Tanger und Casablanca gelegen, einen Stützpunkt an der afrikanischen Atlantikküste, zu dem 1253 das südwestlich von Casablanca gelegene Safi kam. 1277 eröffneten sie die ersten Seeverbindungen von Spanien mit Flandern und England. Ab 1251 genossen sie in Sevilla steuerliche Privilegien. Genueser Kaufleute haben schon vor dem Ende der Reconquista den Handel mit Olivenöl, Wein, Thunfisch, Leder, Seife und Quecksilber auf der iberischen Halbinsel in Cádiz, Granada, Lissabon, Málaga und Sanlucar zu ihrer Domäne gemacht. Die Eroberungen Gran Canarias, Las Palmas und Teneriffas wurden durch genuesisches Handels- und Kreditkapital finanziert unter aktiver Teilnahme spanischer und portugiesischer Unternehmer, wie z. B. der Tuchfabrikanten. Auch in Valencia, Toledo und Cuenca hatten Genueser großen Anteil am kastilischen Handel. Zu den "alberghi ligures", den Genueser Familien, die in Andalusien dauerhaft ansässig wurden, zählen die "Boccanegra", "Cataño", "Centurión", "Espinola", "Grimaldo", "Pinelo", "Rey", "Riberol", "Sopranis", "Zaccaría" u. a. Anders als die Venezianer verfügten die Genueser nicht über eine große Kriegsmarine. Genuesisch-pisanischer Technologietransfer verhalf den iberischen Monarchien Portugal, Kastilien-León und Aragón-Katalonien nach und nach zu eigenen, leistungsfähigen Flotten, die von den eroberten Häfen entlang der Straße von Gibraltar die maurische Seesperre mit der Zeit durchbrachen. Rivalität mit anderen Stadtstaaten. Das so erworbene sardische Gebiet lieferte bald Gelegenheit zu Eifersüchteleien zwischen den Verbündeten Genua und Pisa. Zwischen den beiden Republiken begannen lange Seekriege, die schließlich katastrophal für Pisa ausgingen. Mit nicht weniger Gewandtheit als Venedig nahm Genua all die Gelegenheiten des umfangreichen Speditionsverkehrs zwischen Westeuropa und dem Nahen Osten wahr, die sich durch die Kreuzzüge ergaben. Die den Sarazenen in der gleichen Periode entrissenen Seehäfen entlang der spanischen Küste und die vor Smyrna (Izmir) gelegene ägäische Insel Chios wurden Genueser Kolonien, während in der Levante, an den Küsten des Schwarzen Meeres und entlang den Ufern des Euphrat starke Genueser Festungen errichtet wurden. Es ist nicht verwunderlich, dass diese Eroberungen bei Venezianern und Pisanern erneuten Neid hervorriefen und neue Kriege provozierten. Aber der Kampf zwischen Genua und Pisa fand in der Seeschlacht bei Meloria 1284 sein für Pisa verheerendes Ende. Der Erfolg Genuas in Handel und Seefahrt während des Mittelalters ist umso bemerkenswerter, als es im Gegensatz zu den rivalisierenden Venezianern ständig von inneren Uneinigkeiten geplagt wurde. Das einfache Volk und der Adel kämpften gegeneinander, rivalisierende Parteien unter den Adligen strebten danach, die Vormacht im Staat zu erlangen. Adelige und Volk gleichermaßen wandten sich zur Schlichtung und Herrschaft an ausländische "capitani del popolo", als einziges Mittel, um einen vorübergehenden Waffenstillstand zu erreichen. Aus diesen Kämpfen zwischen rivalisierenden Adligen, in denen die Namen "Spinola" und "Doria" herausragen, wurde Genua bald in den Strudel der guelfischen und ghibellinischen Parteien hineingezogen; aber seine Anerkennung ausländischer Autoritäten – nacheinander Deutsche, Neapolitaner und Mailänder – machte 1339 den Weg zu einem unabhängigeren Staat frei. Die Regierung nahm nun eine bleibendere Form an mit der Ernennung des ersten Dogen (eines Amts auf Lebenszeit) Simone Boccanegra. Abwechselnde Siege und Niederlagen der Venezianer und Genuesen – unter den Niederlagen die schlimmste die Niederlage gegen Venedig bei Chioggia 1380 – endeten in der Feststellung der signifikanten Unterlegenheit der Genueser Herrscher, die mal unter die Macht Frankreichs, mal der Visconti aus Mailand fielen. Vom Beginn der Neuzeit bis zum 21. Jahrhundert. Der "Banco di San Giorgio" mit seinen großen Besitzungen hauptsächlich auf Korsika bildete während dieser Phase das stabilste Element im Staat, bis 1528 der Nationalgeist seine alte Kraft wiedergewann, als Andrea Doria die französische Vorherrschaft abschütteln und die alte Form der Regierung wiederherstellen konnte. In diesem Zeitraum – dem Ende des 15. und Anfang des 16. Jahrhunderts – entdeckte der Genueser Seefahrer Christoph Kolumbus im Auftrage Spaniens die Neue Welt. Die Regierung, wie sie von Andrea Doria wiedereingesetzt worden war, mit bestimmten Änderungen, die ihr einen konservativeren Charakter verliehen, blieb bis zum Ausbruch der Französischen Revolution und der Bildung der Ligurischen Republik unverändert. Während dieses langen Zeitraums von fast drei Jahrhunderten, in dem der dramatischste Vorfall die „Verschwörung der Fieschi“ war, entdeckten die Genueser den Ausgleich für den verlorenen Osthandel in den enormen Gewinnen, die sie als Bankiers der spanischen Krone und Ausrüster der spanischen Armeen und Flotten sowohl in der Alten als auch in der Neuen Welt machten. Anders als viele andere italienische Städte war Genua vergleichsweise immun gegen fremde Vorherrschaft. Gegen Ende des 17. Jahrhunderts wurde die Stadt von den Franzosen beschossen und 1746, nach der Niederlage von Piacenza, an die Österreicher übergeben, die jedoch schnell verjagt wurden. Eine 1729 begonnene Revolte in Korsika wurde mit Hilfe der Franzosen unterdrückt, die 1768 selbst die Insel in Besitz nahmen (siehe Korsika). Die kurzlebige Ligurische Republik, gegründet 1797 und völlig von Frankreich abhängig, wurde schon 1805 vom französischen Kaiserreich einverleibt. 1804 erhob sich Genua gegen die Franzosen, auf die Zusicherung von Lord William Bentinck hin, dass die Alliierten der Republik wieder ihre Unabhängigkeit zurückgeben würden. Durch eine Geheimklausel im Vertrag von Paris war jedoch festgelegt worden, dass Genua mit dem Herrschaftsgebiet des Königs von Sardinien vereinigt werden sollte; diese Vorkehrung wurde vom Wiener Kongress bestätigt. Zweifellos hat die durch diese Klausel hervorgerufene Unzufriedenheit dazu beigetragen, dass in Genua der republikanische Geist am Leben blieb und durch den Einfluss des jungen Genuesen Giuseppe Mazzini nicht nur für die sardische Monarchie, sondern für alle Regierungen der Halbinsel eine ständige Bedrohung blieb. Selbst der materielle Nutzen aus der Vereinigung mit Sardinien und die konstitutionelle Freiheit, die König Karl Albert all seinen Untertanen gewährte, konnten nicht die republikanischen Unruhen von 1848 verhindern. Nach einem kurzen und scharfen Kampf wurde die vorübergehend von den Republikanern besetzte Stadt von General Alfonso La Marmora wieder zurückgewonnen. Im späten 19. und frühen 20. Jahrhundert konnte Genua seine Rolle als bedeutender Seehafen und ein wichtiger Stahl- und Schiffbauzentrum ausbauen. Im Zweiten Weltkrieg kam die Stadt nach dem Kriegseintritt Italiens auf alliierter Seite 1944 unter deutsche Besatzung und wurde zur Festung erklärt. Die Ausführung des Befehls zur Sprengung des Hafens und der Altstadt (heute Weltkulturerbe) nach dem Näherrücken der Front im März 1945 wurde vom deutschen Stadtkommandanten General Günther Meinhold verweigert. Als einzige der von den Deutschen besetzten Städte wurde Genua nicht den Alliierten, sondern am 25. April 1945 kampflos den Partisanen übergeben. Meinhold wurde umgehend von Hitler zum Tode verurteilt. In den Nachkriegsjahren spielte Genua eine entscheidende Rolle im italienischen Wirtschaftswunder ("miracolo economico"). Es bildete das sogenannte "Industrie-Dreieck" in Norditalien, das auch Mailand und Turin mit einschloss. Seit 1962 hat sich die "Genoa International Boat Show" als eine der größten jährlich wiederkehrenden Ereignisse in Genua entwickelt. Mit dem wirtschaftlichen Strukturwandel und der Deindustrialisierung in den 1980er Jahren ergaben sich für Genua große Probleme, Arbeitsplätze gingen verloren und die Einwohnerzahl sank. Die Kriminalität stieg stark an, die Altstadt Genuas war im Niedergang begriffen. Die Explosion des Ölfrachters Haven verschmutzte 1991 die Küste um Genua und in Südfrankreich. Für die Kolumbusfeiern von 1992 zum 500-jährigen Jubiläum der Entdeckung Amerikas wurde der „Alte Hafen“ zur Tourismusattraktion ausgebaut. Im Juli 2001 fand der 27. G8-Gipfel in Genua statt. Überschattet wurde die Konferenz von gewaltsamen Auseinandersetzungen mehrerer hunderttausend Globalisierungskritiker und der italienischen Polizei. Neben hunderten Verletzten wurde der 23-jährige Carlo Giuliani durch einen Schuss eines Polizisten getötet. Im Jahr 2004 hat die Europäische Union Genua – zusammen mit der französischen Stadt Lille – als Kulturhauptstadt Europas ausgezeichnet. Als Teile der Altstadt 2006 von der UNESCO zum Weltkulturerbe erklärt wurden, änderte sich die Situation für Genua in vielen Belangen zum Positiven. Wappen. Beschreibung: in Silber ein rotes durchgehendes gemeines Kreuz, über dem Schild eine goldene siebentürmige Mauerkrone und am Schildfuß ein Spruchband mit der Devise „LIBERTAS“ in silbernen Majuskeln. Zwei goldene schwarzgezungte Greife stehen auf einer Arabeske und halten den Schild. Kultur. Genua verdankt seine kulturelle Wiederbelebung zu einem großen Teil seinen Umweltprojekten im Hinterland (z.B. die Gründung verschiedener Naturparks, wie dem Naturpark Beigua und dem Naturpark Aveto), aber vor allem den strukturellen Maßnahmen im Stadtzentrum selbst. Hier wurde im Zusammenhang mit der Feier zum Kolumbusjahrestag 1992 und der Expo 92 das größte Aquarium Europas errichtet. Der Komplex des Aquariums ("Acquario di Genova") befindet sich auf dem Areal des 1992 komplett umstrukturierten Touristenhafens ("Porto Antico"), der Anlegeplätze für hunderte Boote und Yachten bietet. Architektur. Palazzi in der Via Garibaldi In den 1980er und 1990er Jahren wurden viele, bisher vernachlässigte Bauwerke, hauptsächlich Kirchen und Palazzi restauriert und rekonstruiert. Darunter beispielsweise auch die Renaissance-Basilika "Santa Maria Assunta", die auf Grund ihrer Lage auf dem Stadthügel von Carignano, nahezu von jedem Punkt der Stadt sichtbar ist. Die vollständige Restauration des prächtigen "Palazzo Ducale", einst Machtzentrum der Dogen und Senatoren und heute Austragungsort zahlreicher Kulturveranstaltungen und des Opernhauses "Carlo Felice", das im Zweiten Weltkrieg bis auf die neoklassizistische Vorhalle zerstört worden war, brachten der Stadt eine kulturelle Aufwertung. Beide Gebäude sind an der "Piazza De Ferrari" gelegen, die den Mittelpunkt der Stadt darstellt. Ein weiteres bedeutendes Monument Genuas ist der Friedhof von Staglieno. Hier ruhen die sterblichen Überreste einiger bekannter Persönlichkeiten, unter ihnen Giuseppe Mazzini, Fabrizio de André und die Frau Oscar Wildes. Die Altstadt. Blick über die Altstadt, im Vordergrund die Via Garibaldi Wehrhafte Befestigungsanlagen zeugen von der wechselvollen Geschichte der früheren Seerepublik. Einst war Genua von einer kilometerlangen, durchgehenden Mauer auf den Bergrücken oberhalb der Stadt umgeben. Ganze Abschnitte sowie ein Großteil der Forts sind noch heute zu besichtigen. Genuas Altstadt ist eine der größten Europas. In den Jahren nach dem Zweiten Weltkrieg wurde sie zunehmend dem Verfall preisgegeben. Aufgrund gravierenderer wirtschaftlicher Probleme wie des Niedergangs des Hafens und der Werften, der Arbeitslosigkeit und der Abwanderung fehlte einerseits das Geld zur Erhaltung. Andererseits wollten auch immer weniger Genuesen in dem historischen Viertel wohnen. Erst im Vorfeld des Kulturstadtjahres 2004 tat sich einiges. Der alte Hafen westlich der Altstadt wurde in den 1990er Jahren von Renzo Piano, dem Stararchitekten der Stadt, grundlegend umgestaltet. So wurde ein Übergang von der Altstadt zum alten Hafen geschaffen. Die Hauptachse der Altstadt, die "Via di San Lorenzo", wurde verbreitert. Unzählige Palazzi wurden restauriert. In der Nähe der Porta Soprana, des ehemaligen Stadttores und damit der Grenzmarkierung der Altstadt, liegt das mutmaßliche Geburtshaus des Christoph Kolumbus. Einen kontrastreichen Gegensatz zur mittelalterlichen Altstadt bilden die Patrizierhäuser und prunkvollen Paläste in den beiden "Strade Nuove" aus dem 16. Jahrhundert. In der "Via Garibaldi" und der "Via Balbi" mit ihren Palästen, Innenhöfen und Gärten wird der ganze Reichtum vergangener Zeiten als See- und Finanzmacht Europas deutlich. Allen voran ist der "Palazzo Ducale" aus dem 13. Jahrhundert zu erwähnen, der sich am östlichen Ende der "Via di San Lorenzo" befindet. In der "Via Garibaldi" befinden sich auch die wichtigsten Kunstmuseen der Stadt, der "Palazzo Rosso" und der "Palazzo Bianco", in der "Via Balbi" das Hauptgebäude der Universität von Genua. Rund um den Hafen von Genua wird bis zum heutigen Tag die Tradition des Trallalero, eines mehrstimmigen Gesangs ohne Instrumente, gepflegt. Der Leuchtturm. Neben der "Fontana di Piazza de Ferrari" ist der Leuchtturm, oder "La Lanterna", das Wahrzeichen der Stadt Genua. Er befindet sich auf einem Hügelvorsprung in der Nähe vom Stadtteil Sampierdarena im westlichen Bezirk der Stadt. Das Bauwerk erreicht eine Höhe von 77 m (117 m insgesamt mit Fundament) und besteht aus zwei übereinandergesetzten Türmen mit quadratischen Grundrissen. Der 1128 erbaute Leuchtturm wurde 1514 bei der Belagerung des französischen Forts "Briglia", das um den Turm herum errichtet worden war, durch Kanonenbeschuss schwer beschädigt und erst 1543 wiederaufgebaut. Heute ist der Leuchtturm über einen Spazierweg, der beim Fährenterminal, westlich des "Porto Antico" beginnt, zu erreichen. Sein Leuchtfeuer ist, bei guten Sichtverhältnissen, noch aus einer Entfernung von bis zu 36 Seemeilen (ca. 55 km) auszumachen. Universität und Akademien. In Genua befindet sich die "Università degli Studi di Genova" mit weiteren Lehranstalten in Imperia, Savona, Chiavari und La Spezia. Sie umfasst nahezu alle Fakultäten, mit Schwerpunkt auf Schiffbau. Wichtige Akademien in Genua sind das "Conservatorio „Niccolò Paganini“", die "Accademia Ligustica di Belle Arti" und die "Akademie der Italienischen Handelsschifffahrt". Wirtschaft und Infrastruktur. In den letzten Jahrzehnten hat die Wirtschaft Genuas eine Schwerpunktverschiebung von der Schwerindustrie (vorwiegend an den Hafen angebunden) hin zum Dienstleistungssektor (hauptsächlich Tourismus, Handel, etc.) erfahren. In diesem Zusammenhang wurden viele heruntergekommene Stadtteile ("Val Bisagno", "Valpolcevera" und "Centro storico") saniert. In Genua findet auch die größte Messe Europas im Bereich Yachten und Segelschiffe statt, der "Salone nautico". Nach wie vor ist der Hafen Genuas der wichtigste Italiens und von seiner Umschlagskapazität der zweitwichtigste des Mittelmeers nach Marseille. Behindert in seiner Expansion wird er allein durch seine mangelhafte Anbindung an weiterführende Transportstrukturen (Schienennetz), was allerdings durch die geplante Schienenverbindung Genua-Rotterdam verbessert werden soll. Ein weiterer neuer Wirtschaftsbereich hat in Genua mit der Einrichtung des "Italienischen Instituts für Technologie" (IIT), mit Schwerpunkt in Nanobiotechnologie, Robotik und Neurowissenschaft, einen Aufschwung erfahren. Neben schon vorhandenen Forschungseinrichtungen (pädiatrisches Krankenhaus Giannina Gaslini) ist die Schaffung eines High-Tech-Stadtteils vorgesehen. Der Hafen. Der Hafen von Genua ist hinsichtlich seines Containerumschlags einer der größten am Mittelmeer. Seine Bedeutung erhält er vor allem durch sein großes Hinterland, das die Industriegebiete von Mailand und Turin umfasst und bis in die Schweiz reicht, für das Genua den nächstgelegenen Seehafen darstellt. Der Ölhafen ist Ausgangspunkt der Anfang des Jahres 1997 stillgelegten Central European Line, die über die Alpen bis nach Ingolstadt (Bayern) führt. Im Hafen befindet sich der alte Schwimmkran „Langer Heinrich“ der ehemaligen Kriegsmarinewerft Wilhelmshaven. Verkehr. Blick auf die "Sopraelevata" und den Palazzo del Principe Straßennetz. Die ausschließlich dem Meer zugewandte Stadt erstreckt sich über einen relativ steil abfallenden Küstenstreifen und ist vom Hinterland des Apennin-Gebirges – abgesehen von zwei tief eingeschnittenen, nach Norden verlaufenden Tälern – vollkommen abgetrennt. Bedingt durch diese Topographie ist das Straßennetz der Stadt durch verschiedene fast horizontal den Höhenlinien folgende Hauptstraßenachsen gegliedert. Darüber hinaus werden die Hanglehnen in den tieferen Teilen der Stadt durch innerstädtische Tunnel durchschnitten. Ca. 5 km hinter der Küstenlinie verläuft in etwa 200 m Seehöhe die Autobahn A12, die das hier durch tief eingeschnittene Täler gegliederte Gelände (z. B. bei Staglieno) mit Tunneln durchschneidet und im Val Polcevera auf die Autobahn A7 nach Mailand trifft. Von Sampierdarena schließlich führt eine weitere Autobahn, die A10, in westlicher Richtung über Savona, Imperia, San Remo und Monaco bis ins französische Nizza. Entlang des Hafens zieht sich die Stadtautobahn, die so genannte "Sopraelevata Aldo Moro", auf einem durchgehenden Viadukt, was dem Stadtbild zwar eher abträglich ist, die Altstadt und das Gelände des Porto Antico jedoch von einem Großteil des Ost-West-Verkehrs spürbar entlastet. Bahnhöfe. Im Stadtgebiet von Genua befinden sich zwei größere Bahnhöfe, die beide von der Hauptstrecke Ventimiglia-La Spezia passiert werden. Letztere unterteilt sich in die Bahnstrecke Pisa–La Spezia–Genua in südliche Richtung und in die Bahnstrecke Ventimiglia–Genua in Richtung Westen. Im Besonderen ist der Bahnhof Genova Piazza Principe durch seine räumliche Konzeption beeindruckend, da er zwischen zwei Tunnelausgängen eingeschachtet ist und über einen beeindruckenden gründerzeitlichen Aufgang in die Stadt verfügt. Von hier aus verkehren alle überregionalen Züge, besonders in nördlicher Richtung (Mailand, Turin). Vom zweiten großen Bahnhof, der "Genova Brignole", verkehren vor allem die vielen regionalen Züge entlang der ligurischen Küste und ins Hinterland. Isoliert im östlichen Teil der Altstadt befindet sich in unmittelbarer Nähe des eklektizistischen "Castello Mackenzie" auf ca. 80 Meter Seehöhe der Kopfbahnhof der meterspurigen Lokalbahn nach Casella ("siehe": Bahnstrecke Genua-Casella). Das kleine Örtchen liegt ca. 20 Kilometer nördlich von Genua und ist vor allem für Wochenendausflügler ein beliebter Ausgangspunkt für Wanderungen ins nahezu menschenleere Hinterland der Hafenstadt. Flughafen. An den europäischen Flugverkehr angeschlossen ist Genua seit dem 17. Juli 1985 durch den Flughafen "Cristoforo Colombo", der wegen Platzmangels auf einer künstlich aufgeschütteten Halbinsel im Mittelmeer errichtet wurde. Der Flughafen liegt im Stadtteil Sestri Ponente, 6 km entfernt vom Zentrum Genuas. Er verfügt über eine 2915 m Asphaltpiste. Bedeutung erlangt der Flughafen durch seine Verbindung zum Hafen von Genua. Das Passagieraufkommen im Jahr 2010 belief sich auf 1.272.048 Personen. Öffentlicher Nahverkehr. Der innerstädtische Personennahverkehr wird durch das städtische Verkehrsunternehmen AMT betrieben. Neben einem ausgedehnten Busnetz, einer O-Buslinie und einer U-Bahn befinden sich im Stadtgebiet mehrere Bergbahnen. Die größte davon ist die Standseilbahn auf den Righi, die nun schon seit mehr als 100 Jahren teilweise unterirdisch verlaufend die oberen Stadtviertel erschließt. Daneben existiert noch eine kleinere Standseilbahn sowie eine Zahnradbahn in den Villenort Granarolo. Die U-Bahn verfügt lediglich über eine einzige Linie mit sieben Stationen. Sie verläuft großteils unter dem engen, verwinkelten Altstadtzentrum. Bis zum Jahr 1966 verfügte Genua über ein eigenes Straßenbahn-Netz. Der Straßenbahntunnel nach Brin wird heute wieder genutzt. Schienenverkehr und Aufzüge im Stadtgebiet Genuas Eine Besonderheit stellen die zahlreichen Lifte ("Ascensori") dar, die teilweise in Privathäusern enden bzw. unterwegs mit Schlüsselschalter private Gebäude erschließen, dabei aber vom Verkehrsunternehmen der Stadt betrieben werden. Nahe dem Bahnhof Piazza Principe befindet sich einer der größten, der durch einen etwa 200 Meter langen Fußgängertunnel ins Bergesinnere erreicht werden kann und den man einige Stockwerke höher in einer der höhenlinienparallelen Straßen verlässt. Das schönste Panorama über die Altstadt und den Hafen bietet die Aussichtspromenade Belvedere Luigi Montaldo/Castelletto. Von der Piazza Portello fährt der architektonisch überaus gelungene Aufzug "Ascensore della Spianata Castelletto" nach oben. Wie alle Aufzüge und Lifte von Genua benutzt man ihn mit einfachen Busfahrscheinen vom Kiosk. Daneben gibt es auch noch Kuriositäten, wie z. B. einen Fußgängertunnel, der einen Straßentunnel mit Ampelschaltung kreuzt. Medien. Genua ist Sitz der lokal erscheinenden Tageszeitungen Il Secolo XIX und "Il Corriere Mercantile". Fußball. Genua beheimatet zwei Fußballvereine, die in der Saison 2013/2014 beide in der ersten Liga (Serie A) spielen. Die Heimspiele werden von beiden Vereinen im Stadio Luigi Ferraris ausgetragen, das auch als Marassi bekannt ist. Das „Derby della lanterna“ gehört zu den vier wichtigsten Fußballderbys in Italien und ist vor allem für die farbenfrohen Choreos der Fans bekannt. Der Genoa Cricket and Football Club (auch einfach "Genoa" oder "Genoa CFC") wurde 1893 von Engländern als Cricket- und Leichtathletikverein gegründet und bekam unter James Richardson Spensley 1897 eine eigene Fußballsparte. Damit ist Genoa der älteste, noch aktive Fußballclub Italiens. 2005 wurde der Verein in die dritte Liga ("Serie C1") abgestuft, nachdem sich herausgestellt hatte, dass mindestens ein Spiel manipuliert worden war. In der Folge kam es zu Ausschreitungen, bei denen zwölf Polizisten bei Auseinandersetzungen mit circa 3000 aufgebrachten Fans verletzt wurden. Seit Juni 2007 spielt Genoa wieder in der Serie A. Die U.C. Sampdoria ist der zweite wichtige Fußballverein Genuas. Er entstand 1946 durch eine Fusion von SG Sampierdarenese und SG Andrea Doria, aus deren Namen sich auch der Vereinsname "„Sampdoria“" ableitet, und spielte zeit seines Bestehens hauptsächlich in der Serie A. Der größte Erfolg des Vereins war der Gewinn des Europapokals der Pokalsieger 90. 2010 spielte Sampdoria noch die Champions-League-Qualifikation und verlor gegen Werder Bremen. Das schien der Anfang vom Ende zu sein. 2011 stieg Sampdoria Genua als 18. von 20 Mannschaften in die zweithöchste Spielklasse Serie B ab, im Jahr darauf glückte aber der sofortige Wiederaufstieg. Persönlichkeiten. Bekannte Persönlichkeiten der Stadt sind in der Liste von Persönlichkeiten der Stadt Genua aufgeführt. Sonstiges. Die Stadt Genua hat mit ihrem Namen zum Teil auf Umwegen Pate gestanden, unter anderem für die Bezeichnung Jeans. Deren Ursprung waren Stoffe aus Baumwolle, die aus der Gegend um Genua in die USA kamen. Aus der französischen Form des Städtenamens „Gênes“ machte die amerikanische Umgangssprache den Begriff „Jeans“. Auch die Anhänger des argentinischen Fußballclubs CA Boca Juniors, genannt "Xeneizes", verdanken ihren Namen Genua, da der Club von ausgewanderten Genuesern gegründet wurde. Galvanische Zelle. Versuchsanordnung des Froschschenkel-Experiments, aus dem "De viribus electricitatis in motu musculari" Eine galvanische Zelle, galvanisches Element oder galvanische Kette ist eine Vorrichtung zur spontanen Umwandlung von chemischer in elektrische Energie. Jede Kombination von zwei verschiedenen Elektroden und einem Elektrolyten bezeichnet man als galvanisches Element, und sie dienen als Gleichspannungsquellen. Der charakteristische Wert ist die eingeprägte Spannung. Unter der Kapazität eines galvanischen Elements versteht man das Produkt aus Entladungsstromstärke mal Zeit. Der Name geht auf den italienischen Arzt Luigi Galvani zurück. Er entdeckte, dass ein mit Instrumenten aus verschiedenartigen Metallen berührter Froschschenkel-Nerv Muskelzuckungen auslöst, da das so gebildete Redox-System als galvanisches Element Spannung aufbaut, so dass Strom fließt. Allgemeines. Zeichensymbol einer galvanischen Zelle mit Polbeschriftung Die Funktion der galvanischen Zellen beruht auf einer Redoxreaktion. Reduktion und Oxidation laufen räumlich getrennt in je einer Halbzelle (Halbelement) ab. Durch Verbinden der beiden Halbzellen mit einem Elektronenleiter und einem Ionenleiter wird der Stromkreis geschlossen. Die Spannung des elektrischen Stroms lässt sich durch die Nernst-Gleichung berechnen. Sie hängt von der Art des Metalls (elektrochemische Spannungsreihe), der Konzentration in der Lösung der jeweiligen Halbzelle sowie der Temperatur ab. Im Gegensatz zur Elektrolyse, beispielsweise in der Galvanotechnik, kann in der galvanischen Zelle elektrische Energie gewonnen werden, während die Elektrolyse elektrische Energie benötigt. Beim Entladen von galvanischen Zellen ist der Minuspol immer die Anode (= Pol, an dem die Oxidation stattfindet), der Pluspol immer die Kathode (= Pol, an dem die Reduktion stattfindet). Während des Ladevorgangs von Sekundärzellen sind die chemischen Reaktion an den Polen vertauscht: Die Oxidation findet am Pluspol statt, weswegen er dann abweichend als Anode fungiert - ebenso ist dann der Minuspol der Ort der Reduktion und damit die Kathode. Eine galvanische Zelle liefert so lange eine Spannung, bis das elektrochemische Gleichgewicht erreicht wird. Beispiele. Das Daniell-Element – eine Galvanische Zelle Immer, wenn sich zwei unterschiedliche Metalle in einer Elektrolytlösung befinden, entsteht eine Spannung (galvanische Zelle). Dies ist auf die jeweilige Tendenz der Metalle, in Lösung zu gehen und dabei Ionen zu bilden, die so genannte Lösungstension, zurückzuführen. Neben dem Daniell-Element (Kupfer/Zink) kann so beispielsweise auch aus Kupfer- und Silberelektroden ein galvanisches Element erzeugt werden: Die Kupferelektrode taucht in eine Kupfersulfat-Lösung, die Silberelektrode in Silbernitratlösung, und verbunden werden diese durch einen Draht (Elektronenleiter) mit Voltmeter und einen Ionenleiter. Wenn jedoch beide Elektroden über einen elektrischen Leiter miteinander verbunden werden, sorgt die unterschiedliche Lösungstension der Elektroden dafür, dass die Reaktion weiterlaufen kann. Da das Redoxpotential von Kupfer (Reduktionsmittel) niedriger ist als das von Silber (Oxidationsmittel), gehen an der Kupferelektrode mehr Ionen in Lösung als an der Silberelektrode. Daher ist die negative Ladung in der Kupferelektrode höher als die in der Silberelektrode, es entsteht also eine Spannung, bei der die Elektronen zur Silberelektrode hin „gedrückt“ werden. Das führt dazu, dass die Lösung der Silberatome gestoppt wird, stattdessen reagieren die überschüssigen Elektronen mit den Ag+-Ionen der Silbernitratlösung und sorgen dafür, dass sich diese als normale Silberatome an der Silberelektrode festsetzen. formula_1 Die Silberelektrode ist damit die Kathode (Elektrode, an der die Reduktion stattfindet) und der Pluspol der galvanischen Zelle (da hier ein Elektronenmangel entsteht). formula_2 Die Kupferelektrode ist die Anode (Elektrode, an der die Oxidation stattfindet) und der Minuspol der galvanischen Zelle (da hier ein Elektronenüberschuss entsteht). In der galvanischen Zelle läuft also eine Redoxreaktion ab, deren Reaktionsteile jedoch räumlich voneinander getrennt sind. Werden die zwei Elektroden nun also elektrisch leitend verbunden, so entsteht zwar eine Spannung, aber es fließt noch kein Strom. Der Grund dafür ist, dass in der Kupfersulfatlösung ein Überschuss an Cu2+-Ionen entsteht und die Lösung sich stark positiv auflädt, was verhindert, dass sich weitere Kupferatome lösen können. Ähnliches passiert mit der Silbernitratlösung, welche sich negativ auflädt, da vom neutralen Silbernitrat nur die negativ geladenen Nitrat-Ionen übrig bleiben (während sich die positiven Silberionen an die Silberelektrode anlagern, indem sie dort jeweils ein Elektron aufnehmen). Deswegen sind die Elektrodenräume über eine Ionenbrücke (Salzbrücke) miteinander verbunden, welche notwendig ist, um den Stromkreis zu schließen. Die Ionenbrücke ist häufig ein U-Rohr, das mit einem Elektrolyten gefüllt ist und dessen Enden mit einer Membran oder einem Diaphragma versehen sind. Über die Salzbrücke erfolgt der Ionenaustausch, um so der Aufladung der einzelnen Zellen entgegenzuwirken. Eine andere Möglichkeit, die Elektrodenräume voneinander zu trennen, besteht in einer selektivpermeablen (ausgewählt durchlässigen) Membran, welche ebenfalls einen Ladungsausgleich ermöglicht. Über die Ionenbrücke wandern also die Salzionen (in diesem Fall Nitrationen) von der Kathode zur Anode, also von der Silberhalbzelle zur Kupferhalbzelle. Es gibt auch galvanische Zellen mit zwei gleichen Halbzellen, die sich in ihrer Konzentration unterscheiden, diese nennt man Konzentrationselement. Der Deflagrator ist ebenfalls eine Galvanische Zelle. Verkürzte Schreibweise. Beide Halbzellen werden in einer galvanischen Zelle durch ein Diaphragma, also eine dünne, halbdurchlässige Membran (semipermeable Membran) getrennt. Durch diese Membran werden fast ausschließlich die negativ geladenen Anionen hindurchgelassen. Im Falle des Daniell-Elements sind das SO42−-Ionen (Sulfationen), welche in den Salzlösungen beider Halbzellen vorhanden sind. Dieses Diaphragma wird in der verkürzten Schreibweise durch den doppelten senkrechten Strich || dargestellt. Rechts und links von diesem doppelten Strich werden die beiden Halbzellen der galvanischen Zelle und die darin stattfindenden Reaktionen verkürzt dargestellt. Zudem wird die Konzentration der Metallsalzlösung, also die Konzentration der gelösten Metalle in beiden Halbzellen angegeben. Die Anodenhalbzelle steht üblicherweise links. GmbH & Co. KG. Die Gesellschaft mit beschränkter Haftung & Compagnie Kommanditgesellschaft (GmbH & Co. KG) ist im deutschen und österreichischen Recht eine Sonderform der Kommanditgesellschaft (KG) und somit eine Personengesellschaft. In der Schweiz ist diese Rechtsform bisher nicht möglich. Anders als bei einer typischen Kommanditgesellschaft ist der persönlich und unbegrenzt haftende Gesellschafter (Komplementär) keine natürliche Person, sondern eine Gesellschaft mit beschränkter Haftung (GmbH). Ziel dieser gesellschaftsrechtlichen Konstruktion ist es, Haftungsrisiken für die hinter der Gesellschaft stehenden Personen auszuschließen oder zu begrenzen. Firma. Die Firma ist der Name, unter dem die GmbH & Co. KG ihre Geschäfte betreibt. Sie muss „zur Kennzeichnung des Kaufmanns geeignet sein und Unterscheidungskraft besitzen“ (Abs. 1 HGB). Sie muss gem. Abs. 1 Nr. 3 HGB (neue Fassung) die Bezeichnung „Kommanditgesellschaft“ bzw. eine „allgemein verständliche Abkürzung“ dieses Begriffs (KG) im Namen tragen. Abs. 2 schreibt ferner eine Bezeichnung vor, die die Haftungsbeschränkung kennzeichnet. Hieraus ergibt sich folgende korrekte Firmierung: "Name" GmbH & Co. KG; früher teilweise verwendete Formen wie "Name" GmbH & Comp. oder "Name" GmbH & Cie. sind nicht mehr zulässig. "Nicht korrekte" Firmierung, da irreführend: "Name" KG-GmbH & Cie. oder "Name" & Co. GmbH & Co. KG. Für nach "alter" Fassung des HGB angemeldete Firmen gilt die frühere, dazu ergangene Rechtsprechung weiterhin, z. B. "Name" & Co. oder "Name" & Cie., auch "Name" & Comp. Zweck. Eine Kommanditgesellschaft darf nach zum Zwecke eines Handelsgewerbes oder nach i. V. m. zur Verwaltung eigenen Vermögens errichtet werden. Angehörige der freien Berufe können nicht in der Rechtsform einer KG beruflich tätig sein, es sei denn spezielle Regelungen wie treffen hier eine Ausnahme. Gesellschafter. Die Beziehungen und Rechte der Gesellschafter untereinander regelt der Gesellschaftsvertrag. Die diesbezüglichen Vorgaben für die KG aus dem HGB (ff.) sind weitestgehend dispositiv, d. h. sie können durch vertragliche Vereinbarungen abgeändert werden. So sieht z. B. Abs. 1 i.V.m. Abs. 2 HGB vor, dass Beschlüsse der Gesellschafter einstimmig zu fassen sind. Diese Regelung kann im Gesellschaftsvertrag durch eine Vereinbarung ersetzt werden, die Mehrheitsbeschlüsse ermöglicht. Auch die Berechnung dieser Mehrheit sollte hier definiert werden, andernfalls gilt nach Abs. 2 die Kopfzahl der Gesellschafter. Einlage der Komplementär-GmbH. Die Komplementär-GmbH kann sich mit ihrem gesamten Vermögen oder mit einem Teil ihres Vermögens an der KG beteiligen. Bei Leistung einer Sacheinlage ist zur Errichtung der KG – im Gegensatz zur GmbH – kein Sachgründungsbericht erforderlich. Im Falle einer Umwandlung von einer bestehenden GmbH zu einer GmbH & Co. KG empfiehlt es sich u. U., nur das Umlaufvermögen der GmbH in die KG einzubringen und das Anlagevermögen bei der GmbH zu belassen. Alternativ kann von der Einlage der GmbH auch abgesehen werden. Die „Leistung“ der GmbH für die KG beschränkt sich in diesem Fall auf die Übernahme der Geschäftsführung und auf die persönliche Haftung. Einlage der Kommanditisten. Auf Seite der Kommanditisten bezeichnet die Pflichteinlage den Betrag, den ein Kommanditist in die Gesellschaft einzuzahlen hat. Unabhängig hiervon besagt die im Handelsregister eingetragene Haftsumme (veraltet: „Hafteinlage“), mit welchem Betrag der jeweilige Kommanditist persönlich haftet. Wird im Gesellschaftsvertrag keine Pflichteinlage vereinbart, dann kann unterstellt werden, dass diese mit der Haftsumme identisch ist. Mit Leistung der Pflichteinlage erlischt die persönliche Haftung des Kommanditisten in Höhe des eingezahlten Betrages (Regelung in Deutschland s. § 171 Abs. 1 HGB, in Österreich s. § 171 Abs. 1 Unternehmensgesetzbuch,). Geschäftsführung. Die GmbH & Co. KG wird durch die GmbH (Komplementärin) vertreten, die typischerweise auch die alleinige Geschäftsführungsbefugnis besitzt (HGB). Der Kommanditist ist im Regelfall von der Geschäftsführung ausgeschlossen; er kann lediglich bei außergewöhnlichen Geschäften sein Widerspruchsrecht ausüben (Satz 1 HGB). Somit ist, sofern nichts anderes im Gesellschaftsvertrag vereinbart ist, der Geschäftsführer der GmbH mittelbar auch Geschäftsführer der KG. Im Übrigen sind die Rechtsgrundlagen dieselben wie bei der KG. Gründe für den Wandel der KG zur GmbH & Co. KG. Die GmbH als Komplementär haftet zwar unbeschränkt mit ihrem Vermögen, die Gesellschafter der GmbH allerdings nur mit ihren Stammeinlagen. Durch diese Konstellation hat man die unbeschränkte Haftung ausgeschaltet. Die GmbH & Co. KG kann durch die Aufnahme weiterer Kommanditisten ihre Kapitalbasis erweitern. Anstelle einer natürlichen Person tritt die GmbH als Vollhafter ein. Damit ist die Unternehmensfortführung gesichert, denn die GmbH ist „unsterblich“. Dies ist insbesondere für Familienunternehmen wichtig. Der Einfluss der Arbeitnehmer aufgrund der Mitbestimmungsgesetze ist bei der KG geringer als bei der GmbH. Als Geschäftsführer der Komplementär-GmbH können außenstehende Fachleute angestellt werden. Vermögen der Gesellschaft. Ausgangspunkt für die Einordnung des Vermögens der Gesellschaft sind die Regelungen des BGB über die Gesellschaft bürgerlichen Rechts. Danach unterliegt das Vermögen dinglich einer gesamthänderischen Bindung. Keinem Gesellschafter steht ein Vermögensgegenstand der Gesellschaft oder ein Bruchteil des Vermögens der Gesellschaft zu. Allen Gesellschaftern steht das Vermögen der Gesellschaft gleichzeitig zur gesamten Hand zu. Eine typische Ausgestaltung der Gesellschaft besteht darin, dass der GmbH als Komplementär keine Vermögensbeteiligung eingeräumt wird. Das gesamte Vermögen steht regelmäßig den Kommanditisten zu. Trotzdem ist auch die GmbH dinglich gesamthänderisch am gesamten Vermögen der Gesellschaft beteiligt. Die vereinbarte Beteiligung am Vermögen kommt im Fall des Ausscheidens des Gesellschafters oder der Liquidation der Gesellschaft zum Tragen. Wird auf die erwähnte typische Ausgestaltung zurückgegriffen, erhält die GmbH im Fall des Ausscheidens oder Liquidation keinen Anteil ausbezahlt. Jahresabschluss, Publizität. Wie jede andere KG ist die GmbH & Co. KG "Kaufmann" im Sinne des Handelsgesetzbuches (HGB) und hat deshalb Bücher zu führen und Jahresabschlüsse anzufertigen (HGB). Da in der typischen GmbH & Co. KG jedoch keine natürliche Person Komplementär (Vollhafter) ist, unterliegt sie nach HGB wie Kapitalgesellschaften höheren Anforderungen an die Aufstellung des Jahresabschlusses und hat diesen auch im elektronischen Bundesanzeiger zu veröffentlichen. Gewinnverteilung. Zuerst werden die Komplementärgehälter ausgezahlt. Von dem Rest des Gewinns bekommt jeder Gesellschafter 4 % auf seine Einlage. Das übrig Gebliebene wird nun anteilsmäßig verteilt. Dies geschieht gem. Abs. 2 HGB in einem angemessenen Verhältnis, sofern nichts anderes beschlossen wurde, z. B. entsprechend der Einlage des jeweiligen Gesellschafters. Umstrukturierung/Beendigung. Die Gesellschafter der GmbH & Co. KG können ihre Mitgliedschaft gemäß Abs. 2 i. V. m. HGB formlos zum Ende des jeweiligen Geschäftsjahres, unter Wahrung einer Frist von sechs Monaten, kündigen. Einkommensteuer und Körperschaftsteuer. Als Personengesellschaft ist die GmbH & Co. KG selbst weder körperschaft- noch einkommensteuerpflichtig, da das Einkommensteuergesetz nur auf natürliche Personen abstellt. Der Gewinnanteil der Komplementär-GmbH unterliegt der Körperschaftsteuer. Die Gewinnanteile der Kommanditisten unterliegen – soweit sie natürliche Personen sind – der Einkommensteuer. Gewerbesteuer. In Deutschland unterliegt jeder stehende Gewerbebetrieb gemäß Abs. 1 Satz 1 GewStG der Gewerbesteuer. Als gewerblich tätige Personengesellschaft ist die GmbH & Co. KG grundsätzlich gewerbesteuerpflichtig, allerdings erst ab dem Zeitpunkt der Aufnahme ihrer gewerblichen Tätigkeit. Vorbereitungshandlungen zur Gründung einer GmbH & Co. KG bzw. Abwicklungsmaßnahmen zur Auflösung der Firma werden nicht gewerbesteuerlich erfasst. Für die "gewerblich geprägte" GmbH & Co. KG gilt das Gegenteil: hier beginnt die Gewerbesteuerpflicht schon mit der Aufnahme jeglicher, auf den Erwerb von Einkommen abzielender Tätigkeit. Seit 2002 ist die Veräußerung von Anteilen an Personengesellschaften unter bestimmten Voraussetzungen steuerpflichtig (Satz 2 GewStG). Dies gilt, soweit an der veräußerten Personengesellschaft nicht eine natürliche Person unmittelbar beteiligt ist. Steuerpflichtig ist die Personengesellschaft selbst, nicht deren Gesellschafter. Bei doppelstöckiger Personengesellschaft gilt: die Obergesellschaft ist Gesellschafterin (Mitunternehmerin) der Untergesellschaft. Da sie keine natürliche Person ist, ist der Gewinn aus der Veräußerung der Tochter in voller Höhe steuerpflichtig. Soweit an der Obergesellschaft eine natürliche Person beteiligt ist, wird die Gewerbesteuer aus der Veräußerung nach EStG angerechnet. Durch die zivilrechtliche Abtretung eines Mitunternehmeranteils wird die Steuerpflicht der bisherigen Personengesellschaft nur beendet, wenn sämtliche Gesellschafter dadurch ausscheiden. Bei einem lediglich partiellen Gesellschafterwechsel besteht die Steuerpflicht der Personengesellschaft fort. Grunderwerbsteuer. Wie jede andere Personengesellschaft, handelt auch die GmbH & Co. KG als "selbstständiger Rechtsträger": Immer dann, wenn die KG ein Grundstück erwirbt oder veräußert, fällt Grunderwerbsteuer an, auch wenn das Grundstücksgeschäft mit einem oder mehreren Gesellschaftern abgeschlossen wird. Steuerschuldner ist die KG, jedoch haften die Gesellschafter gesamtschuldnerisch (Abs. 4 AO). Die "steuerliche Transparenz" der Personengesellschaft macht sich auch im Grunderwerbsteuerrecht bemerkbar: Bei Grundbesitzübereignungen zwischen Gesellschaftern und Gesellschaft (und umgekehrt) gewähren die, und GrEstG personenbezogene Vergünstigungen. und GrEStG befreien die Übertragung soweit, wie ein Grundeigentümer mit dem gleichen ideellen Anteil am Grundstück beteiligt bleibt. Eine fünfjährige Sperrfrist soll Missbräuche verhindern: Innerhalb dieser Zeitspanne nach einem steuerlich befreiten Grundstücksgeschäft können sich Änderungen der Gesellschaftsstruktur steuerlich nachteilig auswirken. Die Einbringung eines Grundstücks in eine Familien-KG ist in der Regel in voller Höhe grunderwerbsteuerfrei. Der Wechsel von Gesellschaftern einer KG mit Grundbesitz kann dagegen unter bestimmten Umständen grunderwerbsteuerpflichtig sein. Erbschaftsteuer/Schenkungsteuer. Eine rein vermögensverwaltende, nicht gewerblich tätige und nicht gewerblich geprägte GmbH & Co. KG wird erbschaftsteuerrechtlich wie Privatvermögen behandelt; im Falle einer gewerblich tätigen bzw. gewerblich geprägten GmbH & Co. KG handelt es sich um Betriebsvermögen, das gegenüber Privatvermögen steuerlich begünstigt wird. Bei der Übertragung einer vermögensverwaltenden GmbH & Co. KG wird nicht die Beteiligung an einer gewerblichen Personengesellschaft im Sinne einer Mitgliedschaft vererbt oder verschenkt, sondern lediglich der Anteil an Wirtschaftsgütern. Anteilige Schulden werden nicht saldiert, sondern im Sinne einer „gemischten Schenkung“ behandelt. Bei der Übertragung einer gewerblich tätigen oder gewerblich geprägten GmbH & Co. KG sind die Bilanzwerte steuerlich relevant. Hierbei müssen stille Reserven nicht versteuert werden. Ausgenommen sind Grundstücke (Ansatz des Bedarfswerts) und Beteiligungen (Ansatz nach Kurswert) an Kapitalgesellschaften, deren Wertansatz unabhängig von der Prägung bzw. Tätigkeit der GmbH & Co. KG erfolgt. Typische GmbH & Co. KG. Bei der typischen (auch personengleichen) GmbH & Co. KG sind die Gesellschafter der Komplementär-GmbH zugleich die Kommanditisten der GmbH & Co. KG. Einheitsgesellschaft. Bei der Einheits-GmbH & Co. KG hält die KG alle Anteile der Komplementär-GmbH. Dadurch wird die Unternehmensführung in "einer" Gesellschaft, der KG, vereint. Hierbei muss der Gefahr der "verdeckten Einlagenrückzahlung" durch entsprechende Vereinbarungen im Gesellschaftsvertrag entgegengewirkt werden, um den berechtigten Anspruch der Gläubiger auf Erhalt des haftenden Kapitals zu erfüllen. Einmann-GmbH & Co. KG. In der Einmann-GmbH & Co. KG hält "ein" Eigentümer alle Kommandit- und GmbH-Anteile. Beteiligungsidentische GmbH & Co. KG. In einer beteiligungsidentischen GmbH & Co. KG sind alle Eigentümer gleichmäßig im gleichen Verhältnis untereinander als Kommanditisten an der KG und als Gesellschafter an der Komplementär-GmbH beteiligt. Um die Beteiligungsidentität auch im Falle des Ausscheidens eines Gesellschafters zu wahren, empfiehlt sich die Aufnahme eines Passus im Gesellschaftsvertrag, mit der die Kündigung der Mitgliedschaft der Komplementär-GmbH gleichzeitig die Kündigung der KG fingiert. Publikums-KG. Die Publikumsgesellschaft (auch „Massen-“ oder „Kapitalanlagegesellschaft“) ist auf die Aufnahme eines nahezu unbegrenzten Personenkreises als Kommanditisten ausgelegt. Die Kommanditisten stehen zueinander in keiner persönlichen Beziehung und wirken an der Formulierung des Gesellschaftsvertrags nicht mit, sondern treten der bestehenden Gesellschaft lediglich bei. Klassischer Anwendungsbereich der Publikums-KG sind die sog. geschlossenen Fonds. Diese unterscheiden sich von den sog. offenen Fonds (z. B. klassische Aktien- und Rentenfonds) durch ihre gesellschaftsrechtliche Konstruktion und vor allem dadurch, dass man die Anteile nicht offiziell an zugelassenen Börsen handeln kann, sondern ein Ausstieg (= Kündigungsmöglichkeit) der Kommanditisten prinzipiell während der geplanten Laufzeit der Gesellschaft ausgeschlossen ist. Bei der Publikums-KG ist eine juristische Besonderheit zu beachten: Wegen ihrer wirtschaftlichen Ähnlichkeit zur Aktiengesellschaft sind statt der §§ 161 ff HGB (wie sie eigentlich auf eine Kommanditgesellschaft anzuwenden wären) weitestgehend die Vorschriften des Aktiengesetzes anzuwenden. Doppelstöckige GmbH & Co. KG. An der doppelstöckigen (bzw. „mehrstufigen“) GmbH & Co. KG ist als einziger Komplementär und/oder Kommanditist eine weitere GmbH & Co. KG beteiligt. Für ein derartiges Konstrukt sprechen ggf. mitbestimmungsrechtliche oder umwandlungsrechtliche Gründe; dagegen spricht der hohe administrative Aufwand mit mehrfacher Buchführung und Bilanzierung. Sternförmige Beteiligung. Ist eine GmbH gleichzeitig Vollhafter in mehreren Kommanditgesellschaften, so spricht man von einer „sternförmigen Beteiligung“ der Komplementär-GmbH. Konkurrieren die sternförmig gebundenen KGen in der gleichen Branche, sollte in den Gesellschaftsverträgen das Wettbewerbsverbot aus Abs. 1 HGB abbedungen werden. Weitere Formen. Komplementär kann auch eine Unternehmergesellschaft (haftungsbeschränkt) sein ("UG (haftungsbeschränkt) & Co. KG"). Ebenso sind ausländische Kapitalgesellschaften als Komplementär möglich, z. B. die Limited & Co. KG. Rechtslage in der Schweiz. Da nach schweizerischem Recht nur natürliche Personen Komplementäre einer Kommanditgesellschaft sein können (Abs. 2 OR), ist eine GmbH & Co. KG nicht möglich. Politische Bemühungen, dies zu ändern, waren bis jetzt nicht erfolgreich. Gefangener. Häftlinge in Camp X-Ray in Guantánamo (2002) Gefangener in Sträflingskleidung und mit Fußketten (Tasmanien um 1900) Ein Gefangener bzw. eine Gefangene ist eine Person, die in ihren Freiheitsrechten legal beschränkt oder ihrer illegal beraubt ist, sich also unfreiwillig in Gefangenschaft - hoheitlichem Gewahrsam oder in der Gewalt von Kriminellen - befindet. Man unterscheidet im Rechtswesen als legitime Gefangennahmen Häftlinge, die aus politischen Gründen inhaftiert sind, bezeichnet man als politische Gefangene. Eine weitere Sonderform ist die Verwahrung psychisch kranker Straftäter in (meist geschlossenen) Heil- und Pflegeanstalten, etwa fürsorgerischer Freiheitsentzug in der Schweiz, Unterbringung in Österreich. Weitere Aspekte sind die Kleiderordnung (Tragen der Privatkleidung oder einheitliche Anstaltskleidung), Freizeitgestaltung und anderes. Auch ein Arrestant (Jugendstrafe) ist ein Strafgefangener, jedoch nur für kurze Zeit. Goldene Zahl (Kalender). Die Goldene Zahl (lat.: "Numerus aureus") kennzeichnet die Position eines Kalenderjahres der christlichen Ära innerhalb des 19-jährigen Mondzirkels. Dieser Position, von der das Osterdatum abhängt, sind die Goldenen Zahlen 1 bis 19 fortlaufend zugeordnet (vgl. Tabelle). Das Jahr 2009 hat die Goldene Zahl (2009 + 1) mod 19 = 15. Das Jahr 2013 hat die Goldene Zahl (2013 + 1) mod 19 = 0, also 19. Wegen ihrer Bedeutung bei der Berechnung des Osterfestes (Computus (Osterrechnung)) – des im Christentum wichtigsten Festes – wurde diese Hilfsgröße in spätmittelalterlichen Jahreskalendern oft mit goldener Farbe geschrieben, wodurch die Bezeichnung Goldene Zahl entstanden sein soll. Möglich ist auch, dass sie bereits wegen ihrer hervorragenden Bedeutung zu diesem Namen kam. Größter gemeinsamer Teiler. Der größte gemeinsame Teiler (ggT) ist ein mathematischer Begriff. Sein Pendant ist das "kleinste gemeinsame Vielfache (kgV)". Beide spielen unter anderem in der Bruchrechnung und der Zahlentheorie eine Rolle. Er ist die größte natürliche Zahl, durch die sich zwei ganze Zahlen ohne Rest teilen lassen. Der formula_1 zweier ganzer Zahlen formula_2 und formula_3 ist eine ganze Zahl formula_4 mit der Eigenschaft, dass sie Teiler sowohl von formula_2 als auch von formula_3 ist und dass jede ganze Zahl, die ebenfalls die Zahlen formula_2 und formula_3 teilt, ihrerseits Teiler von formula_4 ist. Beim Ring formula_10 der ganzen Zahlen (der eine Totalordnung > besitzt) normiert man den formula_1 auf die größte ganze solche Zahl formula_12. Der Begriff „groß“ in formula_1 korreliert hochgradig mit der üblichen Ordnungsrelation > der ganzen Zahlen. Es gibt allerdings eine wichtige Ausnahme: Da die formula_14 Vielfaches einer jeden ganzen Zahl formula_4 ist, ist formula_14 in Teilbarkeitsfragen an „Größe“ nicht zu überbieten. Diese Auffassung ist in Einklang mit der Verbandsvorstellung (und der Idealtheorie) und vereinfacht einige der unten aufgeführten Rechenregeln. Die englische Bezeichnung gcd ("greatest common divisor") für formula_1 ist in mathematischen Texten ebenfalls verbreitet. Oft wird auch formula_18 als Kurzschreibweise für formula_19 verwendet. Euklidischer und steinscher Algorithmus. Die Berechnung der Primfaktorzerlegung großer Zahlen und damit auch die Bestimmung des größten gemeinsamen Teilers nach obiger Methode ist sehr aufwändig. Mit dem euklidischen Algorithmus existiert jedoch ein effizientes Verfahren, um den größten gemeinsamen Teiler zweier Zahlen zu berechnen. Dieses Verfahren wurde durch den steinschen Algorithmus noch weiter variiert. Ob dies eine Verbesserung ist, hängt von der jeweiligen Bewertungsfunktion und „Maschinerie“ ab, die den jeweiligen Algorithmus ausführt. formula_24 Somit ist 252 der größte gemeinsame Teiler von 3780 und 3528. Der ggT von mehreren Zahlen. Dies rechtfertigt die Schreibweise formula_32. Rechenregeln. Dabei bezeichnet formula_37 den Betrag von formula_2. Aus der genannten Rechenregel formula_39 ergibt sich speziell formula_40. Dies ergibt sich auch daraus, dass jede ganze Zahl formula_4 (sogar die 0 selbst) wegen formula_42 Teiler der 0 ist, während umgekehrt 0 keine von 0 verschiedene Zahl teilt. Hält man eines der beiden Argumente fest, dann ist ggT eine multiplikative Funktion, denn für teilerfremde Zahlen formula_2 und formula_3 gilt Lemma von Bézout. Die Koeffizienten formula_66 und formula_67 können mit dem erweiterten euklidischen Algorithmus berechnet werden. Bruchrechnung. Beim Kürzen wird ein gemeinsamer Faktor von Zähler und Nenner eines Bruches entfernt, wobei sich der Wert des Bruches nicht ändert, z. B. formula_68. Kürzt man mit dem größten gemeinsamen Teiler von Zähler und Nenner, entsteht ein Bruch, der nicht weiter kürzbar ist. Zum Beispiel ist formula_69, also Zusammenhang zwischen "ggT" und dem "kleinsten gemeinsamen Vielfachen". → "siehe Zusammenhang zwischen kgV und dem größten gemeinsamen Teiler" Weitere algebraische Strukturen mit ggT. Der Begriff des ggT baut auf dem Begriff der Teilbarkeit auf, wie er in Ringen definiert ist. Man beschränkt sich bei der Diskussion des ggT auf nullteilerfreie Ringe, im kommutativen Fall sind das die Integritätsringe. Ein Integritätsring, in dem je zwei Elemente einen ggT besitzen, heißt "ggT-Ring" oder "ggT-Bereich". (In einem ggT-Ring haben je zwei Elemente auch ein kgV.) In Allgemeinen besitzen solche Ringe keine Halbordnung, die antisymmetrisch ist, wie die ganzen oder die natürlichen Zahlen eine haben. Häufig ist die Teilbarkeitsrelation, die eine Quasiordnung ist, die einzige Ordnungsrelation. Deshalb lässt sich der ggT ggfls. nicht mehr eindeutig als nicht-negativ normieren, sondern nur bis auf Assoziiertheit bestimmen. Zwei Elemente formula_2 und formula_3 sind assoziiert, in Zeichen formula_73, wenn es eine Einheit formula_74 mit formula_75 gibt. In Worten: Die Teiler von formula_79 sind genau die Elemente aus formula_77, die alle Elemente aus formula_76 teilen. Polynomringe. Der Polynomring formula_84 in einer Variablen formula_85 ist euklidisch. Dort gibt es zur Berechnung des formula_1 eine Division mit Rest. Gaußscher Zahlenring. Im gaußschen Zahlenring formula_87 ist der größte gemeinsame Teiler von formula_88 und formula_89 gerade formula_90, denn formula_91 und formula_92. Genau genommen ist formula_90 nur "ein" größter gemeinsamer Teiler, da alle zu dieser Zahl assoziierten Zahlen ebenfalls größte gemeinsame Teiler sind. (Die Einheiten sind formula_94.) Integritätsringe. Im Integritätsring formula_95 haben die Elemente keinen ggT: Die Elemente formula_97 und formula_88 sind zwei "maximale gemeinsame Teiler", denn beide haben den gleichen Betrag, aber diese zwei Elemente sind nicht zueinander assoziiert. Also gibt es keinen ggT von formula_2 und formula_3. Die genannten Elemente formula_101 und formula_88 haben aber ihrerseits einen ggT, nämlich formula_103. Dagegen haben sie kein kgV, denn wenn formula_104 ein kgV wäre, dann folgt aus der „ggT-kgV-Gleichung“, dass formula_104 assoziiert zu formula_106 sein muss. Das gemeinsame Vielfache formula_107 ist jedoch kein Vielfaches von formula_108, also ist formula_108 kein kgV und die beiden Elemente haben gar kein kgV. Ist formula_77 ein Integritätsring und haben die Elemente formula_2 und formula_3 ein kgV, dann haben sie auch einen ggT, und es gilt die Gleichung Ein euklidischer Ring ist ein Hauptidealring, der ein faktorieller Ring ist, der schließlich ein ggT-Ring ist. Ebenso ist jeder Hauptidealring ein Bézoutring, der wiederum stets ein ggT-Ring ist. Ein Beispiel für einen nicht-kommutativen ggT-Ring sind die Hurwitzquaternionen. Analytische Zahlentheorie. In der elementaren Zahlentheorie gehört der größte gemeinsame Teiler formula_114 von zwei ganzen Zahlen formula_115 zu den wichtigsten Grundkonzepten. Man schreibt dort regelmäßig formula_116 und meint damit dann den "positiven" ggT, geht also von formula_117 aus. In der analytischen Zahlentheorie kann die ggT-Funktion formula_118 in "einer" Variablen für festes formula_119 analytisch zu einer ganzen Funktion fortgesetzt werden. → Siehe Ramanujansumme. Gebrauchsmuster. Das Gebrauchsmuster ist der „kleine Bruder“ des Patents und Teil des Gewerblichen Rechtsschutzes. Die Unterschiede zum Patent sind mit den letzten Änderungen des Gebrauchsmustergesetzes (GebrMG) geringer geworden. Geschichte. Infolge der zunehmenden Industrialisierung und des gesteigerten Warenverkehrs, vor allem aber im Zuge zunehmender wirtschaftlicher Interessenwahrnehmung auf nationalstaatlicher Ebene, entstand nach der Reichsgründung, ähnlich wie schon ein Gesetz zum Geschmacksmusterschutz (1876) auch die Dekretierung eines Gebrauchsmusterschutzes. Ein Reichsgesetz vom 1. Juni 1891 schuf für Deutschland die rechtlichen Voraussetzungen, sodass das Kaiserliche Patentamt am 1. Oktober 1891 das „Deutsche Reichs-Gebrauchsmuster“ einführte. Zahlreiche Produkte wurden so zwischen 1891 und etwa 1945 mit der Kennzeichnung „D.R.G.M.“ versehen, oft unter Hinzufügung der Musternummer, die es heute erlaubt, die Entstehungszeit mancher materiell überlieferter historischer Geräte auf ein bestimmtes Jahrzehnt einzugrenzen. Auch einige Jahre nach dem Zweiten Weltkrieg war diese Kennzeichnung in Westdeutschland gelegentlich noch üblich, die Abkürzung lautete dann entsprechend "D.B.G.M." (Deutsches Bundes-Gebrauchsmuster). Schutzvoraussetzungen. Die Schutzvoraussetzungen für das Gebrauchsmuster sind denen für das Patent ähnlich. Durch ein Gebrauchsmuster können in Deutschland und Österreich gewerblich anwendbare Erfindungen geschützt werden, die neu sind und auf einem erfinderischen Schritt beruhen (DE: § 1 Abs. 1 GebrMG; AT: § 1 Abs. 1 GMG). Die Schweiz kennt keinen Gebrauchsmusterschutz. In den übrigen europäischen Staaten sind dem Gebrauchsmuster entsprechende Institute vor allem in Spanien von Bedeutung, aber in zahlreichen anderen Ländern vorgesehen, zum Teil mit Anforderungen wie beim Patent (Frankreich, Belgien, Ungarn), zum Teil mehr oder weniger stark abweichend. In den Niederlanden läuft das sog. Sechs-Jahre-Patent aus, weil es für die Antragsteller zu wenig Rechtssicherheit bietet. Neuheit. Eine Erfindung ist neu im Sinne des GebrMG, wenn sie – zum Zeitpunkt der Anmeldung des Gebrauchsmusters – aus dem Stand der Technik noch nicht bekannt ist. Im Gegensatz zum PatG in diesem Sinne ist jedoch nur das bekannt, was "schriftlich" vorbeschrieben ist oder bereits "im Inland" vorbenutzt wurde (DE: § 3 Abs. 1 GebrMG; abweichend AT: § 3 Abs. 1 GMG: auch mündliche Beschreibungen, keine Beschränkung auf das Inland). Darüber hinaus bleiben auch Veröffentlichungen bei der Prüfung der Neuheit unberücksichtigt, die durch den Erfinder oder seinen Rechtsnachfolger bis zu 6 Monaten vor der Anmeldung erfolgt sind (Neuheitsschonfrist; DE: § 3 Abs. 1 Satz 3 GebrMG; AT: § 3 Abs. 4 Nr. 1 GMG). Außerdem kann in Deutschland für eine Anmeldung innerhalb von sechs Monaten nach einer Ausstellung auf einer anerkannten Messe (im Bundesgesetzblatt veröffentlicht) eine „Ausstellungspriorität“ in Anspruch genommen werden, so dass bei der Beurteilung der Schutzfähigkeit des Gebrauchsmusters alle Veröffentlichungen, die am Tag der Ausstellungspriorität oder danach erfolgten, außer Betracht bleiben. Erfinderischer Schritt. Der erfinderische Schritt ist, ähnlich wie die erfinderische Tätigkeit im Patentrecht, jeweils im Einzelfall zu prüfen. Die frühere Ansicht, dass der Maßstab an die Erfindungshöhe, also der erfinderische Schritt beim Gebrauchsmuster, im Allgemeinen geringer sei als die erfinderische Tätigkeit beim Patent, kann in Deutschland durch die Entscheidung „Demonstrationsschrank“ des BGH (veröffentlicht u. a. in BGHZ 168, 142 und in Gewerblicher Rechtsschutz und Urheberrecht (GRUR) 2006, 842) als überholt angesehen werden. Es kann daher nicht generell gesagt werden, dass eine Erfindung, die nicht ganz „patentwürdig“ ist, gebrauchsmusterfähig ist. In Österreich wurde dies zunächst noch anders gesehen (so der Oberste Gerichtshof (OGH) in seinen Entscheidungen „Wurfpfeilautomat“ aus dem Jahr 1996, „Gleitschichtkühler“ aus dem Jahr 2003 und „Holzabdeckung“ vom 12. Juli 2006 (in ÖBl. 2007, 76, 78 f.) sowie der Oberste Patent- und Markensenat in Patentblatt 2007, 88 „Gong“; kritisch hierzu Beets: "Zur Erfindungsqualität im Gebrauchsmusterrecht", ÖBl. 2007, 148). In der Entscheidung „Teleskopausleger“ hat sich der Oberste Patent- und Markensenat der Entscheidung des BGH in „Demonstrationsschrank“ aber angeschlossen, so dass es auch in Österreich keinen Unterschied zwischen dem „erfinderischen Schritt“ und der „erfinderischen Tätigkeit“ gibt. Gewerbliche Anwendbarkeit. Wie auch bei Patenten ist die gewerbliche Anwendbarkeit bei Gebrauchsmustern in der Regel gegeben. Die Voraussetzungen an die gewerbliche Anwendbarkeit sind denen des Patents gleich und in Europa weitestgehend vereinheitlicht. Lediglich bei medizinischen Heilverfahren ist gewerbliche Anwendbarkeit oft nicht gegeben, da das Handeln des Arztes während seiner Berufsausübung als nicht gewerblich angesehen wird. Daneben ist auch die private bzw. höchstpersönliche Anwendung eines Verfahrens nicht gewerblich anwendbar. Das betrifft beispielsweise die Religionsausübung u.ä. Schutzausschlüsse. Im Gegensatz zum Patentrecht können in Deutschland (anders in Österreich) Verfahren nicht durch Gebrauchsmuster geschützt werden. Die Rechtsprechung der letzten Jahre hat den Begriff des Verfahrens aber einengend gesehen. Daneben sind in Deutschland nunmehr biotechnologische Erfindungen ganz vom Schutz ausgeschlossen, in Österreich lediglich der Schutz von Pflanzen, Tieren und biologischem Material sowie Verfahren zu deren Züchtung (§2 GMG). Schutzdauer. Die Schutzdauer von Gebrauchsmustern beträgt zunächst drei Jahre. In den meisten Ländern ist es maximal verlängerbar auf zehn Jahre. Eintragungsverfahren. Das Patent- und Markenamt prüft bei einem Gebrauchsmuster nicht die sachlichen Voraussetzungen. Liegen die formellen Kriterien vor, so wird das Gebrauchsmuster in der Regel in das Gebrauchsmusterregister eingetragen (§ 8 GebrMG). Lediglich bei offensichtlich nicht dem Gebrauchsmusterschutz zugänglichen Gegenständen, z. B. Verfahren, erfolgt keine Eintragung. Dadurch wird ein schnelles Eintragungsverfahren erreicht, so dass der Inhaber aus dem Gebrauchsmuster sehr schnell Rechte geltend machen kann, ohne ein evtl. langwieriges Patenterteilungsverfahren abwarten zu müssen. In Österreich gibt es die Möglichkeit der beschleunigten Registrierung (§ 27 GMG), welche bei Vorliegen der formellen Kriterien für die Erteilung eine sofortige Veröffentlichung im Gebrauchsmusterblatt und eine sofortige Eintragung in das Gebrauchsmusterregister ermöglicht. Daneben wird ein Recherchenbericht erstellt und dem Anmelder die Möglichkeit gegeben, bestimmte Verfahrensschritte freiwillig zu setzen (Teilung, Änderung). Daneben ist auch die einmalige Umwandlung eines Gebrauchsmusters in ein Patent sowie die Umwandlung eines Patents in ein Gebrauchsmuster möglich. Eine professionell, d. h. von einem Patentanwalt eingereichte Gebrauchsmusteranmeldung ist in der Regel innerhalb von etwa drei Monaten in das Gebrauchsmusterregister eingetragen. Im Vergleich dazu erstellt das DPMA bei einer Patentanmeldung nach etwa acht Monaten einen ersten, sachlichen Bescheid, so dass bis zur Erteilung in der Regel mindestens 18 Monate vergehen. Verletzungsverfahren/Löschungsverfahren. Die sachlichen Kriterien werden erst bei einem Verletzungsverfahren durch das Zivilgericht oder im Löschungsverfahren vom Deutschen Patent- und Markenamt bzw. Bundespatentgericht geprüft. Verletzungsverfahren. Das Verletzungsverfahren findet vor den zuständigen Kammern an den Landgerichten (Patentstreitkammern) statt. Im Gegensatz zum Verletzungsprozess in Patentsachen kann die Verletzungsbeklagte hier einwenden, dass das Gebrauchsmuster nicht rechtsbeständig ist, ihm es mithin an Neuheit oder am erfinderischen Schritt fehlt. Das Risiko, dass sich das Gebrauchsmuster im Streitfall mit einem Verletzer als nicht rechtsbeständig erweist, ist (wegen der fehlenden Prüfung durch das Amt vor der Eintragung) höher als beim Patent und muss vom Gebrauchsmusterinhaber getragen werden. Nimmt ein Gebrauchsmusterinhaber einen Verletzer in Anspruch, so kann sich daher auch eine Schadenersatzpflicht des Gebrauchsmusterinhabers ergeben, wenn sich das Gebrauchsmuster als nicht rechtsbeständig erweist. Ein Gebrauchsmusterinhaber sollte daher unbedingt eine professionelle Recherche zur Prüfung der Rechtsbeständigkeit veranlassen, bevor er einen Verletzer in Anspruch nimmt. Löschungsverfahren. Das Löschungsverfahren kann in Deutschland von jedermann durch einen Antrag auf Löschung eines Gebrauchsmusters beim Deutschen Patent- und Markenamt (DPMA) in Gang gesetzt werden. Somit besteht im Gegensatz zum Patent eine zweifache Verteidigungsmöglichkeit gegen ein Gebrauchsmuster (Zivilgerichte einerseits, DPMA und Bundespatentgericht andererseits). In Österreich findet auch gegen Gebrauchsmuster das Nichtigkeitsverfahren vor der Nichtigkeitsabteilung des Österreichischen Patentamts mit Berufung zum Obersten Patent- und Markensenat statt. Schutzwirkung. Die Schutzwirkung ist im Wesentlichen die gleiche wie beim Patent. In einigen Fällen werden bestimmte Schutzwirkungen jedoch versagt, da Gebrauchsmuster im Gegensatz zu Patenten nicht geprüft sind. Im österreichischen Zollverfahren können Waren eines Verletzers nur dann angehalten werden, wenn ein Patent erteilt ist, nicht jedoch, wenn ein Gebrauchsmuster registriert ist. Gebrauchsmuster auf Programmlogik in Österreich. In Österreich ist es seit 1994 möglich, Programmlogik als Gebrauchsmuster anzumelden, wobei für Gebrauchsmuster nur eine formale Prüfung durchgeführt wird. Dadurch soll gemäß den amtlichen Erläuterungen ein Schutz der Lösungsidee möglich sein, die durch die Programmlogik manifestiert wird. Literatur. außerdem die Kommentare zum Patentgesetz von Benkard, 10. Aufl. 2006, Busse, 6. Aufl. 2003 und Mes, 2. Aufl. 2005, mit Kommentierung des Gebrauchsmustergesetzes Zählrohr. Zählrohre dienen zum Nachweis und zur Messung ionisierender Strahlung, gehören also zu den Strahlungs- und Teilchendetektoren. Je nach Bauart und Betriebsspannung arbeitet das Zählrohr Der häufig anzutreffende Begriff Geigerzähler bezeichnet fachsprachlich das Geiger-Müller-Zählrohr. Umgangssprachlich kann damit jedoch auch ein komplettes Strahlungsmessgerät gemeint sein, etwa ein Kontaminationsnachweisgerät oder ein Dosisleistungsmessgerät. Der Detektor in solchen Geräten ist oft, aber nicht immer, ein Geiger-Müller-Zählrohr. Im Prinzip ist mit ein und demselben Zählrohr jede der drei genannten Betriebsarten möglich. Die meisten Zählrohre werden aber für eine bestimmte dieser Anwendungen optimiert gebaut. Aufbau. Prinzipskizze eines Zählrohrs, hier mit dünnem Endfenster für energiearme und Teilchen-Strahlung Die einfachsten Zählrohre bestehen aus einem an beiden Seiten verschlossenen zylindrischen Metallrohr, das die Kathode darstellt. Die Anode, ein Draht von z. B. 0,1 mm Durchmesser, befindet sich in der Achse des Zylinders und wird an einem Ende durch einen Isolator (Glas) aus dem Zählrohr herausgeführt. Der Rohrdurchmesser beträgt einige Zentimeter. Solche Zählrohre sind zur Detektion von Gammastrahlung geeignet, da diese das Metallrohr durchdringt. Wenn auch Alpha- und Betastrahlung detektiert werden sollen, darf das Zählrohr an einem Ende nur mit einer massearmen Folie (z. B. Glimmer oder biaxial orientierter PET-Folie) verschlossen sein ("Fensterzählrohr"). Die Folie muss dem Druckunterschied zur Außenluft standhalten, aber die Teilchen in das Zählrohr gelangen lassen. Das Rohr ist mit einem Gas ("Zählgas") gefüllt, wie unten ausführlicher beschrieben. Funktion. Schematische Charakteristik eines Zählrohrs. Senkrecht aufgetragen ist die beobachtete Impulshöhe bei einfallender Strahlung einheitlicher Teilchenenergie. Zwischen Anode und Kathode wird eine Gleichspannung angelegt. Wenn ionisierende Strahlung einfällt, erzeugt sie in der Gasfüllung freie Elektronen, die im elektrischen Feld zur Anode wandern. Im Fall geladener Teilchenstrahlung ist die Zahl der Elektronen proportional der vom einfallenden Teilchen im Gas abgegebenen Energie. Der weitere Vorgang hängt wesentlich von der Spannung zwischen Anode und Kathode ab, wie die abgebildete Kurve ("Charakteristik") zeigt. Bei geringer Spannung rekombiniert ein Teil der Elektronen auf dem Weg zur Anode wieder mit den Ionen. Der im Stromkreis auftretende Stromimpuls entspricht nur den Elektronen, die die Anode erreicht haben; dieser Anteil ist je nach dem Ort der Ionisation im Rohr verschieden groß und ergibt daher keine Aussage über die vom detektierten Teilchen abgegebene Energie (Rekombinationsbereich). Ionisationskammer. Bei höherer Spannung – Größenordnung 100 Volt – erreichen alle freigesetzten Elektronen die Anode. Der im Stromkreis messbare Impuls ist damit proportional zu der Energie, die die Strahlung im Zählrohr abgegeben hat. Das Zählrohr arbeitet jetzt als Ionisationskammer. Soll die gesamte Energie eines Strahlungsteilchens erfasst werden, muss die Teilchenbahn im Gas enden, die Reichweite der Strahlung im Gas also kürzer als die Abmessung des Zählrohrs in Strahlenrichtung sein. Dementsprechend werden hierfür relativ große Zählrohre (bis zu etwa 1 m lang) und Gasfüllungen bis zu einigen Bar Überdruck verwendet. Proportionalzählrohr. Bei weiterer Erhöhung der Spannung werden die durch die Strahlung freigesetzten Elektronen aufgrund der hohen elektrischen Feldstärke dicht am Anodendraht so stark beschleunigt, dass sie durch Stöße mit den Gasatomen weitere Elektronen auslösen können. Es entstehen Elektronenlawinen mit je "n" Elektronen ("n" kann bis zu 1 Million betragen); dies wird auch "Gasverstärkung" genannt. Da die Lawinen nur in einem sehr kleinen Raumbereich nahe der Anode auftreten, ist die Größe des gemessenen Stromimpulses unabhängig vom Ort der ursprünglichen Ionisierung und nach wie vor proportional der Energie der einfallenden Strahlung (Proportionalbereich). Der Impuls ist aber "n"-mal größer als im Ionisationskammerbetrieb und daher leichter messbar. Für Abmessungen und Gasdruck gilt das Gleiche wie bei Ionisationskammern. Da der Proportionalbereich in einem steilen Teil der Charakteristik liegt, muss die Betriebsspannung sehr genau konstant sein. Während eine Ionisationskammer z. B. auch parallele Plattenelektroden haben kann, ist beim Proportionalzählrohr die Feldgeometrie mit dem dünnen Anodendraht wesentlich. Die Zylinderform der Kathode ist dagegen nicht entscheidend; Proportionalzähler können je nach geometrischen Erfordernissen auch andere Formen haben und auch mehrere parallele Anodendrähte enthalten. Proportionalzählrohre bieten nicht nur die Möglichkeit, Teilchenenergien zu messen, sondern werden z. B. im Strahlenschutz wegen der guten Unterscheidungsmöglichkeit zwischen Alpha- und Betastrahlung verwendet. Auch die Hand-Fuß-Monitore für die Routinekontrolle beim Verlassen von Kontrollbereichen enthalten deshalb Proportionalzähler. Aus der physikalischen Forschung ist z. B. das Homestake-Neutrinoexperiment zu nennen, wo Proportionalzähler eingesetzt wurden, um sehr seltene Beta-Zerfälle einer gasförmigen Probe sicher von anderer Strahlung unterscheiden zu können. In weiterentwickelter Form wird der Proportionalzähler als Vieldraht-Proportionalkammer und als Straw-Detektor auch in der Hochenergiephysik genutzt. Proportionalzählrohre für Neutronen. Auch Neutronenstrahlung kann mit Proportionalzählrohren gemessen werden. Zur Energiemessung an schnellen Neutronen (etwa 0,1 bis 6 MeV) wird als Zählgas Wasserstoff oder Methan von einigen Bar Überdruck verwendet. Aus dem damit gemessenen Energiespektrum der Rückstoßprotonen aus der elastischen Streuung lässt sich auf das Neutronenspektrum schließen. Für langsame, d.h. thermische Neutronen eignet sich das Gas Bortrifluorid (BF3). Die beiden in der exothermen Kernreaktion 10B(n,formula_1)7Li gleichzeitig entstehenden Ionen, das Alphateilchen und der Lithium-Atomkern, führen zur Ionisation. Zwecks höherer Nachweiswahrscheinlichkeit wird oft BF3 mit an B-10 angereichertem Bor benutzt. Statt der BF3-Gasfüllung kann auch eine borhaltige Schicht auf der Innenseite des Zählrohrs verwendet werden. Dies hat den Vorteil, dass als Zählgas z. B. Argon genutzt werden kann, das kürzere Impulse ergibt. Nachteilig ist dagegen, dass die Kernreaktion weniger Ionisationsenergie im Gas hinterlässt, denn aus kinematischen Gründen wird immer nur eines der beiden Ionen ins Rohrinnere emittiert; die Unterscheidung von Gammaimpulsen wird dadurch schwieriger. Das seltene Heliumisotop Helium-3 kann ebenfalls als Neutronen-Zählgas dienen. Die auch hier exotherme Reaktion ist 3He(n,p)3H. He-3 ist teurer als Bortrifluorid, ergibt aber eine höhere Nachweiswahrscheinlichkeit, denn es enthält keine anderen Atomkerne, der Wirkungsquerschnitt der Reaktion ist größer und es kann ein höherer Fülldruck verwendet werden. He-3-Zählrohre können bei höheren Temperaturen betrieben werden, bei denen BF3 sich zersetzen würde. Auch die Bor- und Helium-3-Zählrohre werden im Proportional- und nicht im Geiger-Müller-Bereich (siehe unten) betrieben, um beispielsweise Gammastrahlung von Neutronenstrahlung unterscheiden zu können. Eine wichtige Anwendung (meist mit BF3-Zählrohr) ist der Long Counter. Geiger-Müller-Zählrohr. a>, die zwischen Zählrohr und Gehäuse angebracht werden, um die Empfindlichkeit für Strahlung verschiedener Energie zu verändern; oben das äußere Aluminiumgehäuse, Länge 30 cm. Ab einer bestimmten noch höheren Spannung bewirkt jedes einfallende ionisierende Teilchen eine "selbständige" Gasentladung, das heißt, auch jedes sekundär freigesetzte Elektron löst, bevor es die Anode erreicht, seinerseits mindestens ein neues Elektron aus. Auch wird Ultraviolettstrahlung erzeugt, die an entfernten Stellen ionisiert, sodass die Entladung sich über das ganze Zählrohr ausbreitet. Die einmal eingeleitete ("gezündete") Gasentladung „brennt“ unabhängig von Art und Energie der auslösenden Strahlung (daher die Bezeichnung „Auslösezählrohr“) und erlischt erst, wenn die langsam radial nach außen wandernde Ionenwolke durch Abschirmung die Feldstärke genügend verringert hat. Ein erneutes Zünden der Gasentladung beim Aufprall der Ionen auf die Rohrwand wird durch Zusatz eines "Löschgases" zum Füllgas verhindert (siehe unter Gasfüllung). Die Stromimpulse sind also von einheitlicher Größe und so groß, dass sie u. U. ohne Verstärkung direkt in einem Lautsprecher als Knackgeräusche hörbar gemacht werden können. Zur Auslösung genügt schon ein einziges freigesetztes Elektron, der Detektor hat also die bestmögliche Empfindlichkeit. Dieser Bereich der Arbeitsspannung heißt "Plateau" oder "Geiger-Müller-Bereich". Verglichen mit anderen Detektoren hat das Geiger-Müller-Zählrohr wegen des Gasentladungsvorgangs eine relativ lange Totzeit der Größenordnung 100 Mikrosekunden. Daran schließt sich noch eine ähnlich lange "Erholungszeit" an, während der ein neuer Impuls nicht die volle Höhe erreicht. Noch länger wird die Totzeit, wenn durch einen sehr hohen Widerstand, etwa 100 Kiloohm, in der Hochspannungszuleitung das erneute Zünden nach dem Impuls unterbunden werden soll; deshalb hat sich als besseres Verfahren der Löschgaszusatz allgemein durchgesetzt. Verwendet werden Geiger-Müller-Zählrohre beispielsweise zur Prüfung auf Kontamination und für allgemeine Strahlenschutzzwecke. Information über Strahlenart und -energie lässt sich mit ihnen nur grob gewinnen, indem man Vergleichsmessungen mit verschiedenen zwischen Strahlenquelle und Zählrohr gebrachten Abschirmungen vornimmt. Gasfüllung. Als Zählrohrfüllung können viele verschiedene Gase, sogar Luft, dienen. Edelgase wie z. B. Argon sind vorteilhaft zum Erzielen möglichst kurzer Impulse, weil sie keine negativen Ionen bilden, die viel langsamer als die Elektronen zur Anode wandern. Zur Detektion von Gammastrahlung wird Argon mit mehreren Bar Überdruck oder, wegen seiner hohen Ordnungszahl, Xenon verwendet. Bei Ionisationskammern und Proportionalzählern wird oft ein Anteil einer gasförmigen Verbindung beigemischt, etwa Methan oder Kohlendioxid. Dieser Zusatz verringert durch unelastische Stöße die Temperatur der Elektronen und bewirkt so eine weitere Verkürzung des Stromimpulses, macht also den Detektor „schneller“. Er unterdrückt auch Ultraviolettstrahlung, die zu überzähligen Impulsen führen könnte. Für den Geiger-Müller-Betrieb wird dem Gas Ethanoldampf oder ein Halogengas (Chlor oder Brom) beigemischt. Dieses "Löschgas" sorgt dafür, dass nach dem Erlöschen der Gasentladung keine neue Zündung durch auf die Wand auftreffende Ionen erfolgt, indem seine Moleküle Energie durch Dissoziation statt durch Ionisation aufzehren. Ortsfest betriebene Zählrohre sind in manchen Fällen nicht dicht verschlossen, sondern werden als "Durchflusszähler" mit langsam durchströmendem Gas betrieben. Dies vermeidet Probleme mit Verunreinigungen, chemischen Reaktionen des Gases oder kleinen Undichtigkeiten. Bei Geiger-Müller-Zählern kann so der Ethanolzusatz, der sich im Zählrohrbetrieb sonst verbrauchen würde, konstant gehalten werden. Geschichte. Ein Vorläufer der Zählrohre wurde erstmals 1913 von Hans Geiger beschrieben. Das Geiger-Müller-Zählrohr geht auf Geigers Entwicklungsarbeiten zusammen mit seinem Mitarbeiter Walther Müller zurück, deren Ergebnisse ab 1928 veröffentlicht wurden. Es war der erste bekannte und allgemein genutzte Detektortyp, der auf Teilchen oder Strahlungsquanten mit einem elektrischen Impuls reagierte. Die praktische Nutzung des Proportionalbereiches ist in elektronischer Hinsicht – Verstärkung der Impulse, Stabilität der Hochspannung – anspruchsvoller und wurde erst ab der Mitte des 20. Jahrhunderts zu einer Routinemethode. Da die Impulse des Geiger-Müller-Zählrohrs für alle Teilchen gleich sind, eignet es sich vor allem zum "Zählen" der einfallenden Teilchen/Quanten. Die Bezeichnung „Geigerzähler“ oder „Geiger-Zählrohr“ erscheint daher natürlich. Diese Bezeichnung hat sich auf die später entwickelten Detektoren wie „Proportionalzähler“, „Szintillationszähler“ usw. übertragen, obwohl diese nicht nur zum Zählen, sondern auch zur Energiemessung und zur Unterscheidung von Strahlenarten dienen. Ginkgo. Der Ginkgo oder Ginko ("Ginkgo biloba") ist eine in China heimische, heute weltweit angepflanzte Baumart. Er ist der einzige lebende Vertreter der Ginkgoales, einer ansonsten ausgestorbenen Gruppe von Samenpflanzen. Natürliche Populationen sind nur aus den Provinzen Chongqing und Guizhou im Südwesten Chinas bekannt. In Ostasien wird der Baum wegen seiner essbaren Samen oder als Tempelbaum kultiviert. Er wurde von holländischen Seefahrern aus Japan nach Europa gebracht und wird hier seit etwa 1730 als Zierbaum gepflanzt. Zum Jahrtausendwechsel erklärte das deutsche „Kuratorium Baum des Jahres“ "Ginkgo biloba" zum Mahnmal für Umweltschutz und Frieden und zum Baum des Jahrtausends. Habitus. Der Ginkgo ist ein sommergrüner Baum, das heißt, er wirft im Herbst seine Blätter ab. Er kann 1000 Jahre und älter werden und Wuchshöhen von bis zu 40 Metern und einen Brusthöhendurchmesser (BHD) von 1 bis 4 Meter erreichen. Ein Exemplar aus Korea besitzt eine Höhe von 64 Meter und einen BHD von 4,45 Metern. Der junge Baum wächst meistens schlank und auffallend gerade in die Höhe. Sein Umriss ist pyramidenförmig und er ist nur spärlich beastet. Dies ändert sich zunehmend beim älteren Baum ab 25 Jahren, dessen Äste sich immer mehr in die Waagerechte bewegen und so eine ausladende, mächtige Baumkrone bilden können. Meistens besitzt der Ginkgo zwei Haupttriebe, von denen einer schwächer ausgebildet ist. Bäume, die unter Stress stehen, können in Bodennähe oder darunter Sekundärstämme bilden, die aus wurzelartig wachsenden Trieben entstehen. Holz. Das harzfreie, weiche und leichte Holz des Ginkgos weist eine feine Textur auf und ähnelt dem der entwicklungsgeschichtlich jüngeren Koniferen. Das hellbraune Kernholz lässt sich nur schwer vom hellgelben Splintholz unterscheiden. An Stammkrümmungen oder Ästen entsteht häufig Druckholz, das unabhängig von der Kontrolle des Hauptsprosses wächst. Der Zellulose-Gehalt liegt zwischen 40 und 42 Prozent und der Lignin-Gehalt bei 30 bis 34 Prozent. Die Rohdichte liegt mit 12 bis 15 Prozent Holzfeuchtigkeit bei ca. 430 kg/m³. Im Gegensatz zu Nadelhölzern sind bei dieser Art Tracheiden in verschiedenen Größen vorzufinden. Bei den Radialwänden der Tracheiden können ein bis zwei, manchmal auch drei Reihen von Hoftüpfeln festgestellt werden. Darüber hinaus lagern sich in den Tracheiden viele Calciumoxalat-Kristalle an. Das Holz eignet sich gut für Schnitzerarbeiten und findet als Paneel Verwendung. Es werden kaum Bestände zur reinen Holzgewinnung angebaut. Rinde und Borke. Die Borke von ausgewachsenen Bäumen ist dunkelgrau, rau, tief gefurcht und schwer entflammbar; dies macht die Bäume mäßig feuerresistent. Bei jüngeren Stämmen ist sie graubraun und weist hellbraune Risse auf. Die Rinde einjähriger Zweige ist hellgrau und geht bei zweijährigen Zweigen ins Hellbraune über. Wurzelsystem. Ginkgobaum mit Aereal Chichi an den Ästen und Basal Chichi am Boden Während bei Altbäumen die Seitenwurzeln dominieren, bilden Jungbäume eine bis zu einen Meter lange Pfahlwurzel aus. Anders als in vielen Literaturberichten dargestellt, bildet der Ginkgo keine Wurzelbrut aus. Der Baum hat relativ dicke Feinwurzeln von über 0,5 Millimeter, die von sehr vielen Wurzelhaaren bedeckt sind. Ginkgo besitzt die Fähigkeit, bei schlechten Umweltbedingungen über dem Boden „aereal chichi“ und unter dem Boden „basal chichi“ zu bilden. „Aereal chichi“ sind einem Tropfstein ähnelnde (stalaktitenartige) verholzte, über einen Meter lange Anschwellungen, die bei sehr alten Ginkgobäumen an den Ästen oder am Stamm in Asthöhe aus überwallten Sprossknospen entstehen. Berühren diese verholzten Anschwellungen den Boden, entstehen unter günstigen Bedingungen zahlreiche vegetative Sprosse, die sich zu einer eigenständigen Pflanze entwickeln können. „Basal chichi“ sind verholzte, rhizomähnliche Anschwellungen, aus denen meist Sekundärstämme und Adventivwurzeln hervorgehen. Die Entwicklung der „basal chichi“ ist meistens auf wurzelartige, zur Schwerkraft (positiv geotrop) wachsende Triebe (auch Lignotuber genannt) zurückzuführen. Stimuliert durch traumatische Reize, treibt aus den Knospen in den Achseln der beiden Kotyledonen eine dieser Knospen aus, und die entsprechenden Triebe wachsen vom Spross in Richtung Schwerkraft. Auch hier kann eine eigenständige Pflanze entstehen, die aber meist mit der Mutterpflanze verbunden bleibt. Knospen, Blätter und Triebe. Sehr auffällig sind die Terminalknospen. Sie sind lohfarbig (hellbraun), haben einen Durchmesser von 2 bis 5 mm und sind von kleinen Blättern ohne Achselknospen umgeben, wobei sich die Tegmente schuppenartig anordnen. Eine Besonderheit in der Pflanzenwelt stellen die sehr charakteristischen fächerförmigen, breiten Laubblätter dar. Sie sind in der Mitte mehr oder weniger stark eingekerbt und die Blattform variiert je nach der Stellung am Trieb und der Wuchskraft des Baumes, weshalb kaum ein Ginkgo-Blatt dem anderen gleicht. Blätter von jungen Bäumen sind deutlich anders geformt als die von alten Bäumen (Altersdimorphismus). An Kurztrieben und an der Basis von Langtrieben erreichen die Blätter eine Breite von vier bis acht Zentimeter und sind entweder ungeteilt oder durch Einschnitt zweilappig. Die Blätter an den Spitzen von Langtrieben besitzen deutlich tiefere Ausbuchtungen, welche die Blätter in zwei oder mehr Lappen teilen. An den Langtrieben werden die Blätter zwischen sechs und zehn Zentimeter breit. Der Blattstiel wird zwischen vier und zehn Zentimeter lang. Alle Blätter sind gabelnervig (dichotom), evolutionär betrachtet ein sehr ursprüngliches Merkmal. Sie sind zu Beginn ihres Wachstums im Frühjahr hellgrün und dunkeln über den Sommer nach, im Herbst färben sie sich auffallend hellgelb bis goldgelb und fallen schließlich etwa Anfang November ab. Nach einer weit verbreiteten Meinung haben die Fächerblätter ihre charakteristische Gestalt aus zusammengewachsenen Nadeln während ihrer Entwicklungsgeschichte geerbt. Das ist aber unwissenschaftlich und weder anatomisch, noch entwicklungsbiologisch oder evolutionär belegbar. Die Äste bilden Langtriebe und Kurztriebe aus. Die Langtriebe können je nach Bedingungen zwischen 20 und 100 Zentimeter im Jahr wachsen. Aus den Langtrieben wachsen versetzte (wechselständige) Blätter, aus deren Blattstielansätzen wiederum achselständige Knospen wachsen. Kurztriebe sind sehr langlebig – sie werden bis 60 Jahre alt und wachsen häufig nur ein paar Millimeter im Jahr, weshalb sie kaum eine Länge von 20 Zentimeter erreichen. Kurztriebe können sich ganz unerwartet zu Langtrieben entwickeln. Inhaltsstoffe der Blätter. Die Blätter, die als einzige Teile der Pflanze pharmazeutisch genutzt werden, enthalten rund 0,5 bis 1,8 Prozent Flavonoide: es sind dies Flavon- und Flavonolglykoside, acylierte Flavonolglykoside, Biflavonoide, Flavan-3-ole und Proanthocyanidine. Bei den beiden erstgenannten Gruppen treten als Aglykone vor allem Kaempferol, Quercetin und Isorhamnetin auf, in geringerem Ausmaß Apigenin und Luteolin. Terpene sind zu 0,03 bis 0,25 Prozent vorhanden, vor allem als Terpenlactone. An Diterpenen sind die Ginkgolide A, B, C, J und M zu nennen. Das Sesquiterpen Bilobalid ist ein Abbauprodukt der Ginkgolide. Weitere Terpene sind Polyprenole und Steroide. Des Weiteren kommen langkettige Kohlenwasserstoffe und deren Derivate vor: Alkohole, Aldehyde, Ketone und Säuren. Weitere Inhaltsstoffe sind alicyclische Säuren (Shikimisäure, Chinasäure, Ascorbinsäure, Ginkgolsäure und Hydroxyginkgolsäure), Cyclite = cyclische Polyole (Pinit, Sequoyit), sowie Saccharose. Blüten und Samen. Samen des Ginkgo mit Sarcotesta Der Ginkgo ist ein Windbestäuber und blüht im März, er ist zweihäusig getrenntgeschlechtig (diözisch), es existieren also männliche und weibliche Pflanzen. Gelegentlich treten einhäusig getrenntgeschlechtige (monözische) Bäume auf. Die Bäume unterschiedlichen Geschlechts sind bis zur Geschlechtsreife, die erst im Alter zwischen 20 und 35 Jahren erfolgt, äußerlich kaum voneinander zu unterscheiden. Weibliche und männliche Blüten wachsen an den Achseln von Laub- und Niederblättern aus mehrjährigen Kurztrieben heran. Männliche Blüten haben das Aussehen von 2 bis 3 cm langen Kätzchen. Sie bestehen aus vielen an einer gestreckten Achse schraubig angeordneten Staubblättern (Mikrosporophyllen). Die Mikrosporophylle bestehen aus einem dünnen Stiel (Staubfaden) mit zwei (manchmal bis zu vier) an der Spitze (einer kurzen runden Apikalerweiterung) hängenden Mikrosporangien (Pollensäcken), in denen die Pollen gebildet werden. Die Blüten treiben vor den eigentlichen Blättern aus und fallen nach dem Bestäuben je nach Temperatur von Anfang April bis Ende Mai wieder ab. Der kahnförmige Pollen hat eine Größe von 30 × 10 μm. Die 2 bis 3 mm großen Samenanlagen (weibliche Blüten) stehen zu zweit an einem sich apikal gabelnden 1 bis 1,5 cm langen Stiel. Gelegentlich ist nur eine, in manchen Fällen sind mehr als zwei zusätzliche Samenanlagen pro Stiel vorzufinden, von denen meist nur eine ausreift. Sie bestehen aus einem äußeren Integument mit einer als Mikropyle bezeichneten Öffnung im oberen Bereich. Im Inneren der Samenanlagen befindet sich das vom Integument umhüllte Megasporangium (Nucellus), in dessen Innerem sich wiederum die funktionsfähige Megaspore befindet. Der nach der Befruchtung aus der Samenanlage entstandene Ginkgosamen ähnelt äußerlich den Mirabellen und hat eine Größe von 20 bis 30 × 16 bis 24 mm. Er besteht aus einem inneren Embryo, eingebettet in das Nährgewebe (primäres Endosperm) des weiblichen Gametophyten, das von drei Schichten umgeben ist: der dünnhäutigen Innenschicht (Endotesta), einer harten verholzten Mittelschicht (Sklerotesta) und einer dicken Samenschale (Sarcotesta), die früher einmal das Integument der Samenanlage war. Die sich entwickelnde Samenschale ist bis zur Reife im Herbst grün, bei Kälteeinbruch wird sie gelb, bis der Samen schließlich abfällt. Die Samenschale entwickelt im ausgereiften Zustand einen unangenehmen Geruch nach ranziger Butter. Verantwortlich dafür sind die in der Samenschale enthaltenen Fettsäuren Buttersäure und Capronsäure. Die ebenfalls enthaltenen Phenole können durch Austreten des Saftes zu Hautreizungen und Allergien führen. Der Ginkgosamen ohne Samenschale (der Kern) hat eine Größe von 19 bis 30 × 11 bis 14 mm und ein Tausendkorngewicht von 1500 Gramm. Genetik. Das diploide Genom des Ginkgo umfasst 2n=24 Chromosomen. Weibliche und männliche Bäume weisen in der Art ihrer Chromosomen erkennbare Unterschiede auf. Diese Unterschiede können mikroskopisch durch Wurzelspitzenpräparate nachgewiesen werden. Das kann sehr hilfreich sein, um recht junge Pflanzen meist neuer Zuchtsorten dem weiblichen oder männlichen Geschlecht zuordnen zu können. Weibliche Exemplare weisen ein heteromorphes (griechisch "verschieden geformtes") Chromosomenpaar mit nur einem kleinen Satelliten auf, männliche Bäume dagegen haben nur automorphe Chromosomen. Fortpflanzung. Der Befruchtungszeitpunkt liegt je nach Zeitpunkt der Bestäubung zwischen Ende August und Ende September. Im Generationswechsel entspricht der Ginkgobaum dem Sporophyt der Farne und Moose. Allerdings werden die Sporen der weiblichen Bäume nicht mehr in der Luft freigesetzt, sie sind vielmehr im Sporangium sesshaft geworden und relativ groß (genannt Megasporen; Megasporen gibt es auch bei diversen Algen). Die weiblichen Blüten (Samenanlagen) entwickeln im Inneren der Megaspore (= Embryosackmutterzelle) einen extrem stark reduzierten Megagametophyten (= befruchtungsfähiger Embryosack), der über sein Megagametangium (Synergiden) einen Megagameten (Eizelle) erzeugt. Die Megasporen erhalten so viel Nahrung zugeteilt, dass sie später ohne selbstständige Ernährung Geschlechtszellen (Eizellen) entwickeln können. Der weibliche Gametophyt entsteht zunächst durch freie Kernteilungen, gefolgt von Zellwandbildung. Am Ende besteht der Gametophyt aus mehreren hundert Zellen und bildet meist zwei – selten auch drei – Archegonien. Der Gametophyt ist durch den Besitz von Chlorophyll grün gefärbt. Die Sporen der männlichen Bäume (genannt Mikrosporen oder Pollen) erfahren noch im „Mikrosporangium“ ihre ersten mitotischen Teilungen. In der ersten Zellteilung entstehen durch zwei inäquale Teilungen der Pollenzelle zwei Prothalliumzellen und eine Antheridienzelle. Aus dieser entstehen durch erneute Teilung die Pollenschlauchzelle und die generative Zelle. In diesem Stadium wird das Pollenkorn aus dem Sporangium entlassen und als solches als stark reduzierter Mikrogametophyt (mehrzelliges Pollenkorn) vom Wind zum Megagametophyten geweht. Im empfangsbereiten Stadium sondert das Integument an der Spitze (Mikropyle) eine für die Fortbewegung der männlichen Geschlechtszellen nötige schleimige Flüssigkeit (Pollinationströpfchen) ab. Sie entsteht durch Auflösung der Zellen unter der Mikropyle, wodurch auch eine Pollenkammer entsteht. Wenn das Pollenkorn das Pollinationströpfchen erreicht, absorbiert es Wasser und andere Substanzen aus der Flüssigkeit; auf diese Weise wird es schwerer, wodurch es zum Ende der Empfangsbereitschaft mit der Pollinationsflüssigkeit in der Mikropyle eintrocknet und sich in die Pollenkammer zurückzieht. Durch das Eintrocknen wird auch die Mikropyle verschlossen. In der Pollenkammer keimt das Pollenkorn aus und bildet einen kurzen Pollenschlauch, der an seiner Spitze eine stark verzweigte, interzellular wachsende Struktur entwickelt, die das weibliche Gewebe (Nucellus) über mehrere Monate durchdringt, als eine Art Haftorgan (Haustorium) dient und Nährstoffe aufnimmt, wodurch sich das Nucellusgewebe zwischen Pollenkammer und Archegonienkammer auflöst. Während dessen werden im Pollenschlauch die Spermien gebildet: die generative Zelle teilt sich in eine Stielzelle und in die spermatogene Zelle. Der männliche Gametophyt ist jetzt fünfzellig, bestehend aus zwei Prothalliumzellen, Pollenschlauchzelle, Stielzelle und spermatogener Zelle. Letztere teilt sich und bildet zwei Spermienzellen (Spermatozoide). Der Pollenschlauch ist nichts anderes als das Rudiment eines einstmals selbstständig wachsenden Gametophyten. Vier Monate nach Auskeimen des Pollenkorns schwillt das basale Ende des Pollenschlauches so weit an, bis es die Form eines sackartigen Gebildes annimmt, das in unmittelbarer Nähe zum Archegoniums in der mit Flüssigkeit gefüllten Archegonienkammer zerplatzt und zwei vielgeißlige, schwimmfähige, sich selbstständig bewegende Geschlechtszellen (Spermatozoiden) freisetzt. Der Ginkgo ist neben Palmfarnen die einzige rezente Samenpflanze mit Spermatozoiden. Die Spermien haben eine Größe von etwa 70-90 Mikrometer und wurden erstmals im Jahr 1895 bis 1898 von Sakugoro Hirase beschrieben. Nach Freilassung schwimmen die beiden Spermatozoiden auf die Archegonien zu. Ein Spermatozoid durchdringt die Archegonie und verschmilzt mit der Eizelle. Das ist eine für Pflanzen sehr ursprüngliche Entwicklung. Meistens erfolgt die eigentliche Verschmelzung der Spermatozoiden mit der Eizelle erst Wochen nach dem Abfallen der Samenanlagen. Nach der Befruchtung teilt sich der Kern der Zygote rasch und bildet über 1000 freie Zellkerne. Danach bilden sich die Zellwände und aus dem Gewebe entwickelt sich schrittweise eine Wurzel, eine kleine stammartige Struktur von Zellen und zwei Keimblätter (Kotyledonen), deren Oberseiten nah zueinander platziert sind. Verbreitung und Standort. Als ursprüngliches Verbreitungsgebiet werden die mesophytischen Mischwälder, die einst das Hügelland entlang des Jangtsekiang bedeckten, genannt. In Dokumenten aus dem 11. Jahrhundert wird als Ursprungsgebiet eine Region südlich des Jangtsekiang genannt, die dem heutigen Ningguo-Distrikt in der Provinz Anhui entspricht. Natürliche Populationen sind nur aus dem Südwesten Chinas bekannt. Die Populationen an den Südhängen des Jinfo-Gebirges in der Provinz Chongqing weisen im Vergleich mit anderen Populationen in China eine ausgeprägte genetische Diversität auf und gelten daher als natürlich. In den angrenzenden Gebieten der Provinz Guizhou sind zahlreiche kleine Populationen vorhanden, die ebenfalls als natürliche Vorkommen des Ginkgos angesehen werden. Die lange Zeit als natürliches Vorkommen geltende Population auf dem Westgipfel des Tianmu Shan im Nordwesten der Provinz Zhejiang ist aller Wahrscheinlichkeit nach auf Anpflanzungen durch buddhistische Mönche zurückzuführen. Wie die meisten Bäume geht auch der Ginkgo eine Symbiose mit verschiedenen Mykorrhiza-Pilzen ein, unter anderem mit "Glomus epigaeum". Er ist sehr unempfindlich gegenüber Luftschadstoffen und eignet sich deshalb sehr gut als Straßen- und Parkbaum. Des Weiteren ist er weitgehend resistent gegen Insektenfraß sowie von Pilzen, Bakterien und Viren ausgelöste Krankheiten, erträgt Temperaturen von bis zu −30 °C und wächst sowohl auf sauren wie alkalischen Böden, wobei bei ersteren meist ein schlechteres Wachstum zu erkennen ist. Sehr nasse aber auch übermäßig trockene Böden werden dagegen nicht toleriert. In den USA zeigten angepflanzte Ginkgobäume ein gutes Wachstum bei reichhaltigen, über das ganze Jahr verteilten Niederschlägen. Bei kalten Winden, subtropischen und sehr hohen Temperaturen während der Vegetationsperiode war dagegen schlechtes Wachstum zu erkennen. Herbivore und Krankheiten. Der Ginkgo weist eine hohe Resistenz gegenüber Krankheiten und Herbivoren auf, keine Einzelspezies wird für sich allein als Bedrohung erachtet. Krankheitserreger wie Pilze, Bakterien oder Viren sind nur im Keimlingsstadium oder bei sehr geschwächten Pflanzen zu beobachten. In Bezug auf Insekten ist der Ginkgo einer der am wenigsten anfälligen Bäume überhaupt. Es konnte weder im ursprünglichen Lebensraum (Ostasien) noch in Nordamerika oder Europa eine natürliche Räuberfauna entdeckt werden. Die Resistenz des Ginkgo gegenüber Pilzen lässt sich zum Teil durch einen wachsartigen Stoff in der Kutikula der Blätter erklären, der die Sporenkeimung und das Wachstum des Keimschlauches einiger Pilze verringert und somit ein Eindringen der Pilze in die Kutikula verhindert. Des Weiteren enthalten die Blätter 2-Hexenal, der fungizidische Eigenschaften aufweist. 2-Hexenal ist in niedriger Konzentration vorhanden und vom Wasserdampfdestillat der Blätter getrennt. In seltenen Fällen konnten Fusarium sp. und Macrophomina phaseoli entdeckt werden, bei der es zur Wurzel- und Stammfäule kommt. Die hohe Immunität gegen Bakterien- und Virusattacken wird zum einen durch den Säuregrad der Blätter erklärt, der ihn resistent gegen Bakterien wie Pseudomonas phaseolicola, Escherichia coli, Bacillus pumilus und Xanthomonas phaseoli macht. Zum anderen konnte durch Studien festgestellt werden, dass das Wachstum des Tabakmosaik- und Bohnenmosaikvirus durch Wirkstoffe aus den Wurzeln erheblich inhibiert wird. Blätter, Holz und Wurzeln sind für fast alle Insekten mehr oder weniger toxisch. So werden in Japan und China Blätter des Ginkgobaum als Lesezeichen verwendet, um Bücher vor Silberfischen und Insektenlarven zu schützen. Z. B. sterben Japankäfer eher an Unterernährung als frische Ginkgoblätter zu fressen. Die säurehaltigen Blätter bilden bei Beschädigungen verstärkt 2-Hexenale, die zusammen mit Substanzen wie Ginkgolid A, Bilobalid und Ginkgolsäure als aktivste Bestandteile der Blätter gegenüber Insekten ermittelt wurden. Vereinzelt konnten bei jungen, alten und stark geschädigten Pflanzen einige Schädlinge identifiziert werden. Selten vorkommende Insekten sind Cacoecimorpha pronubana und die Larve des Maiszünslers (Pyrausta mubilalis), die sich von den Blättern ernähren, sowie Brachytrupes portentosus, Agrotis ypsilon und Gulcula panterinaria, die sich in vereinzelten Fällen von den Setzlingen ernähren. Tiere wie Schnecken, Nacktschnecken, Mäuse, Kaninchen, Hasen oder Hirsche gehören bei Jungpflanzen zu den bedeutendsten Fraßfeinden. Sie fressen die Blätter, Wurzeln oder die Rinde im unteren Bereich des Baums ab, was oft zum Absterben der Pflanze führt. Bei Sämlingen besteht zudem die Gefahr der Zerstörung durch Vögel. Etymologie und Nomenklatur. a>s "Amoenitatum Exoticarum" (1712). Die Zeichnung hatte Kaempfer in Japan angefertigt, das Schriftzeichen stammt aus dem Bildwörterbuch "Kinmōzui". Der Name Ginkgo leitet sich vom chinesischen "Yín Xìng" () her, dessen sinojapanische Aussprache "Ginkyō" (jap. phonographisch) ist. Es handelt sich um eine Kombination der Schriftzeichen „gin = Silber“ und „kyō = Aprikose“, ein Hinweis auf die silbrig schimmernden Samenanlagen. Der Name ist für das Jahr 1578 erstmals bezeugt. Nach Europa gelangte er durch den deutschen Arzt und Japanforscher Engelbert Kaempfer, der, angeregt durch Andreas Cleyer und andere Gelehrte, in Batavia während seines zweijährigen Aufenthalts in Japan (1690 bis 1691) umfangreiche Untersuchungen zur Pflanzenwelt des Archipels durchführte. Einen großen Teil seiner Forschungsergebnisse publizierte er unter dem Titel „Flora Japonica“ in seinem Werk "Amoenitatum Exoticarum" (Lemgo, 1712). Nahezu alle Pflanzen hatte er in Japan zeichnerisch festgehalten. Da er Wert auf die Wiedergabe der einheimischen Namen legte, ließ er sich diese von Japanern im bebilderten Wörterbuch "Kinmōzui" () anzeigen. Die chinesischen Schriftzeichen wurden für den Druck aus diesem Buch kopiert, bei der Wiedergabe der Lesung "Ginkyō" in lateinischer Schrift jedoch unterlief Kaempfer ein Schreibfehler. Gewöhnlich notierte er die heute als „kyo“ transliterierte Silbe in der Form „kjo“, doch hier schrieb er aus ungeklärten Gründen in völlig atypischer Weise „kgo“. Diese Form wurde 1771 von Carl von Linné bei der Erstveröffentlichung der Gattung übernommen und ist damit unveränderbarer Bestandteil der Nomenklatur. Das von ihm für die Art gewählte Artepitheton "biloba" weist auf die Zweilappigkeit des Blattes hin. Als Trivialname ist seit der Rechtschreibreform neben „Ginkgo“ auch die Schreibweise „Ginko“ zulässig. Ein Synonym von "Ginkgo biloba" L. ist "Salisburia adiantifolia" Sm. Der englische Botaniker James Edward Smith schlug 1797 den Gattungsnamen "Salisburia" vor und wollte damit den Botaniker Richard A. Salisbury ehren. 1824 kam noch der Name "Salisburia biloba" Hoffmanns hinzu. Der Name konnte sich aber nicht gegen den international anerkannten Namen "Ginkgo biloba" durchsetzen, so dass "Salisburia" ein Synonym blieb. Weitere Synonyme sind: "Pterophyllus ginkgo" K.Koch und "Pterophyllus salisburiensis" (L.) J.Nelson. In der heutigen japanischen Sprache nennt man den Baum gewöhnlich "Ichō", die Samen "Ginnan", ebenfalls geschrieben. Wegen der chaotischen Verhältnisse bei der Übernahme chinesischer Bezeichnungen vor und während der Edo-Periode notieren botanische Texte in Japan den Namen meist nur phonographisch geschrieben. Hier und dort findet man die Lesung jedoch auch für die Schriftzeichen. Dies ist linguistisch eigentlich falsch, denn "Ichō" stammt von dem alternativen chinesischen Namen "Yājiǎo" (), der auf die Form der Blätter anspielt. In chinesischen Texten findet man auch die Bezeichnungen "Bái Guǒ" () und „Großvater-Enkel-Baum“ ("Gōngsūnshù",). Letztere bezieht sich auf die lange Zeit, die verstreicht, bis ein neu gesetzter Baum die ersten Samen trägt. Weitere ins Deutsche übersetzte Namen waren Elefantenohrbaum, Entenfußbaum, Mädchenhaarbaum, Fächerblattbaum (eine Anspielung auf die Blätter), Chinesischer Tempelbaum (wegen der häufigen Pflanzungen in buddhistischen Tempeln) und Beseeltes Ei, Mandelfrucht, Weißnuss, Nuss-Aprikose, was auf das Aussehen oder die Form der Samen zurückgeht. Nutzung als Zierbaum. Der Ginkgo fand ab etwa 1000 n. Chr. in ganz Ostasien als Tempelbaum Verbreitung und gelangte dabei auf die Koreanische Halbinsel sowie nach Japan. Von Japan aus gelangten die ersten Ginkgo-Pflanzen um 1730 nach Europa und wurden im botanischen Garten der Universität Utrecht in den Niederlanden aufgezogen. 1754 gelangten Exemplare von Utrecht nach Kew Gardens in England. In die Vereinigten Staaten (Philadelphia) wurden die ersten Exemplare 1784 gebracht. Heute stellt der Ginkgo in den meisten gemäßigten Zonen eine wichtige und gute Alternative zu anderen Straßen- und Parkbäumen dar und wird auch sehr gern angepflanzt. Der möglicherweise älteste Ginkgo-Baum Deutschlands, der Ginkgo in Rödelheim, wurde angeblich um das Jahr 1750 gepflanzt und steht im Frankfurter Stadtteil Rödelheim. Der Schlosspark Harbke (Sachsen-Anhalt) hat in seinem umfangreichen Baumbestand ebenfalls einen der ältesten deutschen Ginkgos, der um das Jahr 1758 gepflanzt worden sei. Im Bergpark Wilhelmshöhe in Kassel befinden sich weitere alte Ginkgos, die angeblich um das Jahr 1780 gepflanzt wurden. Auch in Mannheim und Dresden gibt es sehr alte Ginkgos ohne weitere Jahresdaten. Im Botanischen Garten Jena wächst am Fürstengraben neben dem Alten Inspektorenhaus ein angeblich Ende des 18. Jahrhunderts angepflanzter Ginkgo, dessen Pflanzung angeblich auf Johann Wolfgang von Goethe zurückgeht. Innerhalb des Gartens steht am sogenannten „Mittelberg“ neben einem männlichen Ginkgo ein weibliches Exemplar. In Leipzig steht ein ohne weitere Jahresdaten von Willmar Schwabe gepflanzter weiblicher Baum. Aufgrund seiner Resistenz gegen Schädlingsbefall und seiner Anspruchslosigkeit wird der Ginkgo inzwischen weltweit als Stadtbaum angepflanzt. In Berlin hat langjährige Kultur als Straßenbaum gezeigt, dass er resistent gegen Autoabgase und Streusalz ist, in jungen Jahren allerdings auch empfindlich gegen Frost. Der unangenehme Geruch der Samen nach Buttersäure führt dazu, dass in Europa vornehmlich männliche Ginkgobäume aus Stecklingen angepflanzt werden, während man in China und Japan – genau umgekehrt – vorwiegend weibliche Bäume (siehe Nutzung als Nahrungsmittel) als Allee- und Straßenbäume pflanzt und dabei, um eine Befruchtung zu erleichtern, männliche und weibliche Bäume nebeneinander setzt. Die Vermehrung des Ginkgo erfordert von einem Gärtner viel Geduld: Ginkgosamen keimen zwar ohne Probleme selbst auf einer Fensterbank, bis zu ihrer Keimung aber können mehr als zwei Jahre vergehen, und auch nur etwa 30 Prozent aller Stecklinge gehen, nach ebenfalls sehr langer Zeit, an, wobei sie außerdem meist schwachwüchsiger sind als Sämlingspflanzen. Hinzu kommt, dass der Ginkgo empfindlich auf Verpflanzungen reagiert. Für die Aussaat bestimmte Samen sammelt man im Spätherbst unter weiblichen Bäumen, die, um die Befruchtung der Samen zu gewährleisten, in weniger als 100 Metern Entfernung von einem männlichen Baum stehen. Anschließend muss zunächst die äußere, fleischige Samenhülle (Sarkotesta) sorgfältig entfernt werden, wobei der Saft der Sarkotesta zu Hautreizungen und Allergien führen kann. Die so gereinigten Samen werden anschließend gegebenenfalls noch einmal durch Stratifikation für die darauffolgende Aussaat vorbereitet. Nutzung von Zuchtsorten. Damit der Ginkgo den Anforderungen als Samenlieferant, der Verwendung in der Medizin und den immer stärker steigenden Anforderungen als Straßen- und Zierbaum gerecht werden kann, werden immer mehr Zuchtsorten (Cultivare) selektiert. In China selektierte man allein 28 Sorten wegen ihrer überlegenen Samengröße, Samenform sowie des überlegenen Samenertrags. Eine weit verbreitete Vermehrungsart der Zuchtsorten stellt die Pfropfung dar, bei der die Pflanzen bereits mit fünf Jahren Samen tragen (Fruktifizieren). Ein häufig verwendeter Cultivar ist ‚Dafushon‘, der bereits mit 15 Jahren Jahreserträge von 5 bis 10 kg und mit 50 Jahren zwischen 50 und 100 kg erzielt. Ein weiterer oft genutzter Cultivar ist ‚King of Dongling‘ mit einem Tausendkorngewicht von etwa 2800 g. Nach den fast nur in Asien angebauten Frucht-Cultivaren werden seit 1980 in den USA und Frankreich im großen Umfang Cultivare zur reinen Blätter-Gewinnung angebaut. Verwendet werden dabei Inhaltsstoffe wie Ginkgolide und Bilobalide, die aus den Blättern gewonnen werden und in der Humanmedizin Verwendung finden (siehe Medizinische Nutzung). Die entsprechenden Bäume werden direkt nach dem Ernten der Blätter kurz über dem Boden zurückgeschnitten, um eine Höhe von über drei Metern zu vermeiden. Im Normalfall erreichen die Bäume dann bis zum nächsten Jahr wieder eine Höhe von einem Meter, die so von Jahr zu Jahr konstant gehalten werden kann. Da der Bedarf an Ginkgoholz relativ gering ist und nur selten Ginkgos zur reinen Holzgewinnung angebaut werden, wurden noch keine Cultivare zur reinen Holzgewinnung selektiert. Neben der Selektierung von neuen Ginkgo-Sorten für medizinische Zwecke und zur reinen Samen-Gewinnung wurden die meisten Cultivare für die Nutzung als Zier- und Straßenbaum selektiert. Nutzung als Nahrungsmittel. In Asien wurden mehrere Zuchtreihen des Ginkgobaumes mit verschiedenen Qualitäten als Nahrungspflanze gezüchtet. Genutzt wird der Kern des Samens, dieser muss jedoch gegart werden. In Japan dienen die geschälten (daher von Sarcotesta und Sklerotesta befreiten) Ginkgosamen (in kleinen Mengen) als Beilage zu verschiedenen Gerichten. Sie werden teilweise im Reis mitgekocht, als Einlage in einem Eierstich-Gericht verwendet oder geröstet und gesalzen als Knabberei verzehrt. Dazu werden die Samen von ihrer harten Schale befreit, nur der gelbe Innenkern wird verwendet. In Europa sind Ginkgosamen meist nur als Konserven erhältlich. Geröstete und gehackte Kerne dienen als Gewürz in der asiatischen Küche. Die Samen enthalten 37,8 % Kohlenhydrate, 4,3 % Proteine und 1,7 % Fett. Ein Übermaß an Ginkgosamen kann zu Vergiftungserscheinungen führen, da diese den Vitamin-B6-Antagonisten 4-Methoxypyridoxin enthalten. Im 11. Jahrhundert n. Chr. sollen diese „Nüsse“ so geschätzt worden sein, dass der Kaiser von China die Samen als Tributzahlung von den südöstlichen Provinzen forderte. Medizinische Nutzung. Verwendung finden Spezialextrakte aus den Ginkgoblättern. Diese sind an den erwünschten Wirkstoffen (Ginkgolide, Terpenlactone) angereichert, an den unerwünschten Stoffen (besonders Ginkgolsäure) abgereichert. Die Kommission E kennzeichnet den Trockenextrakt aus Ginkgoblättern mit einem Droge-Extrakt-Verhältnis von 35:1 bis 67:1; einem Gehalt von 22 bis 27 % Flavonglykosiden und 5 bis 7 % Terpenlactonen; und unter 5 ppm Ginkgolsäure. Die Definition von Ginkgotrockenextrakt "(Ginkgo extractum siccum raffinatum et quantificatum)" nach dem Europäischen Arzneibuch ist sehr ähnlich. Für die Behandlung von Demenz sind in Deutschland nur derartige Extrakte verkehrsfähig. Die meisten pharmakologischen Untersuchungen wurden mit den Extrakten EGb 761 und LI 1370 durchgeführt. Bei Ginkgo-basierten Nahrungsergänzungsmitteln, etwa aus Supermärkten oder aus Drogerien, ist die gewünschte Wirksamkeit unklar, da deren Qualität oft fragwürdig ist und wissenschaftliche Studien fehlen. Anwendungsgebiete. Der Schwerpunkt liegt heute bei der Behandlung der Demenz. Ginkgo-Arzneimittel können ähnlich wie Acetylcholinesterase-Hemmer beziehungsweise Cholinesterasehemmer, die eine Zunahme der Konzentration von Acetylcholin bewirken, für einen gewissen Zeitraum kognitive Parameter verbessern, also die geistige Leistungsfähigkeit steigern und das Zurechtkommen im Alltag erleichtern, wodurch auch die Belastung der Angehörigen reduziert wird. CHE-Hemmer sind von der Arzneimittelkommission der deutschen Ärzteschaft als Mittel erster Wahl definiert. In der aktuellsten internationalen Leitlinie der "World Federation of Societas of Biological Diseases" werden Ginkgo-Arzneimittel als gleichwertig effektiv zu CHE-Hemmern und Memantin und verträglicher beurteilt. Laut einer 2014 publizierten französischen Studie scheinen auch Patienten, welche an der Alzheimer-Krankheit leiden, von der parallelen Einnahme von Ginkgo-Arzneimitteln neben den klassischen Cholinesterase-Hemmern zu profitieren. Insgesamt gilt die medikamentöse Therapie von Demenz-Kranken heute noch als "sehr bescheiden". Eine weitere Indikation sind leichte kognitive Beeinträchtigungen (MCI, "mild cognitive impairment"), die überwiegend auf normalen Alterungsprozessen beruhen und bei einem Teil der Patienten (10 bis 20 Prozent) zu einer Demenz voranschreiten. Insgesamt gibt es über 40 klinische Studien zu Ginkgopräparaten, wobei nur wenige die strengen Richtlinien für hochwertige klinische Prüfungen erfüllen. Einige dieser Studien fanden signifikante Vorteile der Ginkgo-Therapie, andere keinen. Eine Metaanalyse von 2010 etwa ergab, dass ein Ginkgo-Arzneimittel zwar wirksamer sei als ein Schein-Medikament, der Effekt jedoch wie bei allen anderen Demenz-Präparaten moderat ausfalle und die klinische Bedeutung dieses Effektes wie generell bei Antidementiva schwer zu bestimmen sei. Das Institut für Qualität und Wirtschaftlichkeit im Gesundheitswesen untersuchte 2008 im Rahmen einer Arzneimittelbewertung Studien und Unterlagen zum Präparat EGb 761. Auf Grundlage der sieben bewerteten Studien kam es zu dem Schluss, dass es bei der Behandlung der Alzheimer-Krankheit einen "Beleg" für einen Nutzen beim Therapieziel „Aktivitäten des täglichen Lebens“ gebe, sofern 240 mg Extrakt täglich eingenommen werden. Für die Therapieziele „kognitive Fähigkeiten“ und „allgemeine psychopathologische Symptome“ sowie für das angehörigenrelevante Therapieziel „Lebensqualität der (betreuenden) Angehörigen“ (gemessen am emotionalen Stress der Angehörigen) gebe es bei derselben Dosierung dagegen nur einen "Hinweis" auf einen Nutzen. Die Neutralität der untersuchten Studien ist jedoch umstritten. Wirkungen. Neue Arbeiten untersuchen vorwiegend die Wirkung von Ginkgoextrakten auf das Zentralnervensystem. Ältere Arbeiten untersuchten eher die durchblutungsfördernde Wirkung. Wirkmechanismen. Die Ginkgoextrakte haben zum einen Radikalfängereigenschaften, diese Wirkung gegen reaktive Sauerstoffspezies wird vor allem durch die Flavonoide vermittelt; zum anderen hemmen sie den plättchenaktivierenden Faktor (PAF) im Blut, der eine Rolle etwa bei Entzündungen spielt. Mit diesen zwei Mechanismen können jedoch viele der beobachteten Wirkungen nicht erklärt werden. Zudem besitzt die Reinsubstanz mit der stärksten neuroprotektiven Wirkung, das Bilobalid, keine dieser beiden Eigenschaften. Eine wesentliche Rolle dürften daher auch die Effekte der Inhaltsstoffe auf die Genexpression haben. Der Extrakt EGb 761 verändert die Expression von mindestens 155 Genen in Microarray-Studien. Darunter befinden sich Transkriptionsfaktoren, Gene für antioxidative Enzyme, Mitochondrienproteine und Proteine der DNA-Synthese und -Reparatur. Als weiterer Mechanismus wird ein Einfluss der Terpenlactone auf verschiedene Rezeptoren diskutiert. Die Interaktion von Ginkgoextrakten mit dem plättchenaktivierenden Faktor (PAF) wird mit einer Reihe von Effekten auf Erkrankungen des Herz-Kreislaufsystems, der Nieren und des zentralen Nervensystems in Verbindung gebracht. Der Inhaltsstoff Ginkgolid B scheint am stärksten für diese Wirkung verantwortlich zu sein. In Versuchen zeichnen sich Extrakte aus Ginko biloba durch östrogene als auch anti-östrogene Wirkung über eine Interaktion mit dem Östrogenrezeptor aus. Unerwünschte Wirkungen, Gesundheitsrisiken. An unerwünschten Wirkungen werden als sehr selten auftretend Magen-Darm-Beschwerden, Kopfschmerzen und allergische Hautreaktionen beschrieben. Einzelne Blutungen bei Langzeitbehandlungen konnten nicht in ursächlichen Zusammenhang mit Ginkgoextrakten gebracht werden. Ginkgo-Extrakt selbst hat keinen Einfluss auf die Blutgerinnung. Allerdings besteht laut Arzneimittelkommission der Deutschen Ärzteschaft, ausgehend von mehreren Fallberichten ihrer Datenbank, bei Kombination mit Gerinnungshemmern (wie orale Antikoagulanzien oder Thrombozytenfunktionshemmer) eine erhöhte Blutungsgefahr, ebenso bei einer vererbten oder erworbenen Gerinnungsstörung. Die einzelnen Berichte über Blutungen belegen jedoch nicht zweifelsfrei, dass es hier einen kausalen Zusammenhang gab, da meist andere, gerinnungshemmende Medikamente eingenommen wurden. In vielen Ginkgo-haltigen Arzneimitteln und Tees ist in nennbaren Mengen der Störstoff Ginkgolsäure enthalten. Da die Konzentration von Ginkgolsäure in Teeprodukten im Gegensatz zu Arzneimitteln bisher keiner Kontrolle unterliegt, werden Ginkgo-haltige Tees als potentiell gesundheitsgefährdend diskutiert. Ginkgolsäure kann schwere Allergien und Magenschleimhautentzündungen hervorrufen. Auch cytotoxische, neurotoxische und mutagene Wirkungen wurden nachgewiesen. In einer Studie des National Toxicology Programs der National Institutes of Health wurde 2013 im Tierversuch eine erhöhte Rate an Leber- und Schilddrüsenkrebs beobachtet, wobei diese Versuche mit sehr hohen Dosen von bis zu 2000 mg/kg Körpergewicht durchgeführt wurden, die beim Menschen gewöhnlich bei weitem nicht erreicht werden. Traditionelle medizinische Nutzung. Im Gegensatz zur wissenschaftlich-pharmakologischen Nutzung werden in der Traditionellen Chinesischen Medizin nicht nur die Blätter, sondern auch die Samen und Wurzeln des Baumes genutzt. Anwendungsgebiete der Samen. Die Samen werden bei Husten, Blaseninfektionen, Asthma, Tuberkulose, Alkoholvergiftungen, Blähungen, Gonorrhöe sowie bei häufigem und schmerzhaften Wasserlassen angewendet. Eingenommen wird hierbei eine Abkochung der von Sarcotesta und Sklerotesta befreiten Ginkgosamen, die nach dem Kochen ohne Samen eingenommen wird. Gegen starke asthmoide Atemnot, Schleimbildung und Husten können die Samen in gerösteter oder gekochter Form auch pur angewendet werden, wobei bei regelmäßiger Einnahme aufgrund von geringen Anteilen des Vitamin-B6-Antagonisten 4-Methoxypyridoxin 6–10 g/Tag nicht überschritten werden sollten. Anwendungsgebiete der Wurzeln. Die Wurzeln werden bei nächtlichen Samenergüssen und Menstruationsstörungen angewendet. Sie helfen bei Blähungen und stärken den Magen, wirken anregend und zusammenziehend. Eingenommen wird hierbei eine Abkochung, die nach dem Kochen ohne Wurzeln vor dem Essen eingenommen wird. Eine Überdosierung der Wurzel wie bei den Samen ist nicht möglich. Systematik. Die Ginkgogewächse gehören weder zu den Nadel- noch zu den Laubbäumen, sondern bilden eine eigene Gruppe. Obwohl der Ginkgo auf den ersten Blick Ähnlichkeit mit Laubbäumen (Bedecktsamer) hat, ist er mit den Nadelbäumen näher verwandt und wird deshalb wie sie zu den Nacktsamern gezählt. Der Ginkgo wird in eine eigene Klasse eingeordnet, in die Klasse Ginkgoopsida (oder Ginkgophyta). Von der Klasse Coniferopsida unterscheidet er sich durch die abweichenden Strukturen der generativen Organe, insbesondere der begeißelten Spermatozoiden. Von der Klasse der Palmfarne (Cycadopsida) unterscheiden sie sich vor allem durch die Anatomie der vegetativen Organe. Die Ginkgoopsida enthalten wiederum eine einzige Ordnung, die Ginkgoartigen (Ginkgoales), deren einzige Familie die Ginkgogewächse (Ginkgoaceae) mit nur einer lebenden Gattung der Ginkgo sind. In der Literatur. Zum Bekanntheitsgrad und zur Verbreitung des Ginkgos in Deutschland hat das Gedicht mit dem Titel Gingo biloba wesentlich beigetragen, das der 66 Jahre alte Goethe im September 1815 schrieb und 1819 in seiner Sammlung "West-östlicher Diwan" veröffentlichte. Das Gedicht ist Goethes später Liebe, Marianne von Willemer, gewidmet und stellt das Ginkgoblatt aufgrund seiner Form als Sinnbild der Freundschaft dar. Der Brief mit dem Gedicht, dem Goethe zwei Ginkgo-Blätter beilegte, ist heute im Goethe-Museum Düsseldorf zu sehen, in dessen unmittelbarer Umgebung zahlreiche Ginkgobäume stehen. Symbolik. Der Grund für die bis heute große Bedeutung des Ginkgo für Kunst, Kultur und Heilkunde liegt vor allem in der Chinesischen Philosophie und der ansprechenden Morphologie des Baumes und seiner Blätter. Der Ginkgo wird seit langem als kraftspendend und lebensverlängernd verehrt. Die Chinesen und Japaner verehren den Ginkgo seit Jahrhunderten wegen seiner Lebenskraft und Wunderverheißungen als heilig und erbeten unter ihm ihre Wünsche. Frauen erbitten unter ihm Milch zum Stillen ihrer Kinder und Bauern erflehen Regen für eine reichhaltige Ernte, Ginkgos sind auf diese und andere Art und Weise in Mythen, Volkserzählungen und Geschichten wieder zu finden. Der Ginkgo steht in Japan unter Naturschutz. So mancher Baumriese überragt ganze Ortschaften und gilt als Wahrzeichen für seine Anwohner. Aus dem 18. Jahrhundert gibt es in dem Kloster Tanzhe-si eine weit verbreitete Legende. Demzufolge gab es dort ein Ehrentor, das zu einem Ginkgobaum führte. Dieser Baum wurde durch ein kaiserliches Etikett geschützt. Der dortige Glaube der Chinesen besagte, dass bei jedem Thronwechsel innerhalb der Mandschu-Dynastie der Hauptstamm ein neues Reis in den Baum einsetzte, das sich dann zu einem prächtigen Ast entwickeln sollte. Bäume mit einem Alter von 1000 bis 2000 Jahre sind keine Seltenheit. Man findet sie in Tempeln in der Nachbarschaft auf Anhöhen und auch in Friedhöfen neben Gräbern. In Japan werden die geschälten (von Sarcotesta und Sklerotesta befreiten) Ginkgosamen beim Hochzeitsmahl als Glückssymbol verzehrt. Ein 3000 Jahre alter und 26 Meter hoher Ginkgo in der Provinz Shandong hat bei günstiger Witterung Samen von insgesamt einer Tonne geliefert. In vielen Geschichten und Erzählungen wird der Baum als Wohnort von Geistern beschrieben und deshalb hoch geschätzt und gleichermaßen gefürchtet. Zudem wurde das in der Pflanzenwelt einzigartige zweigeteilte Blatt und seine Zweihäusigkeit schon früh eng mit dem Symbol des Yin-Yang in Verbindung gebracht. Zur modernen Mythenbildung hat auch wesentlich die Geschichte des Tempelbaumes in Hiroshima beigetragen, der bei der Atombombenexplosion 1945 in Flammen aufging, aber im selben Jahr wieder austrieb und weiterlebte. Das Ginkgo-Blatt ist das Logo der Tokyo University und der Sungkyunkwan University. Glucagon. Glucagon (auch "Glukagon") ist ein Peptidhormon, dessen Hauptaufgabe die Erhöhung des Blutzuckerspiegels ist. Es wird aus den Präkursoren Präglucagon und Präproglucagon in den Langerhans-Inseln der Bauchspeicheldrüse (α-Inselzellen) gebildet. Bei Blutzuckerabfall, aber auch nach einer proteinreichen Mahlzeit wird Glucagon von der Bauchspeicheldrüse in die Blutbahn abgegeben und dort frei transportiert. Dieses Hormon ist in seiner Wirkung auf den Glucose-, Protein- und Fettsäurestoffwechsel ein Gegenspieler des Insulins. Glucagon wird von der Leber aufgenommen und durch Spaltung inaktiviert. Struktur. Die Primärstruktur des humanen Glucagons besteht aus 29 Aminosäuren mit einer Molekülmasse von 3483 Da. Die Primärstruktur lautet: His-Ser-Gln-Gly-Thr-Phe-Thr-Ser-Asp-Tyr-Ser-Lys-Tyr-Leu-Asp-Ser-Arg-Arg-Ala-Gln-Asp-Phe-Val-Gln-Trp-Leu-Met-Asn-Thr. Glucagonsekretion. Bei normaler Ernährung bleibt die Sekretion von Glucagon im Vergleich zu der von Insulin relativ konstant. Die Stimuli für eine erhöhte Ausschüttung sind hauptsächlich Hypoglykämie (zu niedriger Blutzuckerspiegel), proteinreiche Mahlzeiten, Infusion von Aminosäuren (z. B. Arginin, Alanin), länger dauernde starke körperliche Arbeit und Stress. Bei Hypoglykämie kann die Glucagonsekretion auf das bis zu Vierfache gesteigert werden. Seine Freisetzung wird von Insulin, Somatostatin und GLP-1 gehemmt. Wirkungsmechanismus. Glucagon ist der Gegenspieler zu Insulin. Während Insulin die Glykogensynthese fördert, resultiert die Freisetzung von Glucagon in einem Abbau von Glykogen. Die Wirkung von Glucagon beruht auf der Bindung an einen G-Protein-gekoppelten Rezeptor. Das dadurch aktivierte Gs-Protein stimuliert die Adenylatcyclase (). Durch cAMP werden die Enzyme für den Glucose- und Fettstoffwechsel aktiviert. Als vorrangiger Effekt wird die Glykogenphosphorylase () phosphoryliert, die den Glykogenabbau stimuliert und die Glykogensynthese hemmt. a> (GYS), welche dadurch inaktiviert wird und die Umkehrreaktion nicht mehr katalysieren kann. Glucagon stimuliert nicht nur die Glykogenolyse, sondern auch die Neusynthese von Glucose (Gluconeogenese) aus Aminosäuren. Glucagon hat also eine proteinkatabole Wirkung, was zum Anstieg von Harnstoff im Blut führt. Außerdem werden über cAMP fettverdauende Enzyme (Lipasen) aktiviert, woraus eine Erhöhung der Fettsäuren im Blut resultiert. Anwendung. Glucagon wird zur Ruhigstellung des Darmes eingesetzt und wird in dieser Funktion auch als intravenös zu verabreichendes Medikament verwendet. Als Antidot bei Vergiftungen mit Betablockern und Calciumkanalblockern wird der Wirkstoff ebenfalls angewendet. Es wird auch beim Magenröntgen verwendet, um die Schleimhaut besser beurteilen zu können. Außerdem besitzen viele Typ-1-Diabetiker ein Notfall-Set mit Glucagon und einem Lösungsmittel, das bei einer schweren Hypoglykämie mit Bewusstlosigkeit nach Auflösung der Pulversubstanz von einem eingewiesenen Helfer subkutan oder intramuskulär gespritzt wird und über den oben beschriebenen Wirkungsmechanismus eine Erhöhung des Blutzuckerspiegels erreichen soll. Glucagon wird vom Hersteller Novo Nordisk unter dem Handelsnamen GlucaGen® vertrieben. Für eine im Jahr 2010 durchgeführte Studie wurde eine Insulinpumpe entwickelt, die neben der Insulinampulle eine Glucagonampulle beinhaltete. Durch eine beständige Glucose-Messung in einem Closed-Loop-System (Blutglukosemessung und Dosisabgabe erfolgen automatisch) wurde bei Unterzuckerungsgefahr Glucagon über die Pumpe abgegeben. Dadurch traten weniger und kürzer andauernde Hypoglykämien auf. Glucagon-Test (C-Peptid). Es gibt einen Glucagontest, der im medizinischen Alltag allerdings nur selten verwendet wird. Er dient der Prüfung der Stimulierbarkeit der β-Zellen des Pankreas (Funktionsreserve) zur Unterscheidung von Diabetes Typ I und Typ II. Grafikkarte. Eine Grafikkarte steuert in einem Computer die Grafikausgabe. Bei Ausführung eines Programms berechnet der Prozessor die Daten, leitet diese an die Grafikkarte weiter, und die Grafikkarte wandelt die Daten so um, dass der Monitor oder Projektor ("Beamer") alles als Bild wiedergeben kann. Grafikkarten werden entweder als PC-Erweiterungskarten (über die Bussysteme PCI, AGP oder PCI Express, früher auch ISA oder VLB) mit der Hauptplatine verbunden oder sind im Chipsatz auf der Hauptplatine enthalten. Mittlerweile ist die Integration so weit vorangeschritten, dass bereits in Hauptprozessoren Bestandteile für die Grafikausgabe vorhanden sind (bei Intel seit Core iX-Generation, bei AMD im Fusion-Programm). Die wichtigsten Komponenten moderner Grafikkarten sind: GPU, Video-RAM, RAMDAC sowie die Anschlüsse für externe Geräte (z. B. für den Monitor). Geschichte. VGA-Grafikkarte für den ISA- und EISA-Bus.(ELSA Winner 1000) SVGA-Grafikkarte für den VL-Bus.(ATI Mach64) SVGA-Grafikkarte für den PCI-Bus.(Trident Daytona 64) Das Grafikkarten-Prinzip wurde in Serienproduktion erstmals beim Mikrocomputer Apple II verwendet, dessen auf der Hauptplatine integrierte Grafikfähigkeiten durch zusätzlich zu erwerbende Steckkarten verbessert werden konnten. („PAL-Farbkarte“, „80-Zeichen-Karte“). Dieser kam 1977 auf den Markt. Der erste IBM-PC kam 1981 mit einer Karte auf den Markt, die lediglich die einfarbige Darstellung von Text ermöglichte (MDA = Monochrome Display Adapter). Die Firma Hercules bot 1982 eine sehr viel bessere Karte an, die Hercules Graphics Card. Auch heute noch ist der VGA-Modus (640 × 480 Punkte in 16 Farben) der „Notfall-Modus“ bei allen PCs; nur bis zu diesem Modus kann die Hardware aller heutigen PC-Grafikkarten von der Software auf einheitliche Weise angesprochen werden. VGA war allerdings nicht der letzte Grafikkartenstandard. Die Video Electronics Standards Association (VESA) stellte einen Standard für Videomodi bis zu einer Auflösung von 1280 × 1024 Punkten in 16 Bit Farbtiefe auf, die heute jede PC-Grafikkarte beherrscht. Die weiteren Bezeichnungen SVGA, XGA usw. sind keine Grafikkartenstandards mehr, sondern Kurzbezeichnungen für Bildschirmauflösungen, zum Beispiel XGA mit 1024 × 768 Punkten. Ab 1991 wurden die Grafikkarten zu eigenständigen kleinen Recheneinheiten mit eigener GPU (Graphics Processing Unit) weiterentwickelt, einer sogenannten "Graphics-" oder "Pixel Engine" oder dt. Grafikprozessor, bei dem man nicht nur einzelne Pixel setzen konnte, sondern dem man Befehle zum Zeichnen von Linien und Füllen von Flächen schicken konnte (Windows-Beschleuniger). Diese Funktionen beschleunigten vor allem das Verschieben der Fenster (Windows) der grafischen Benutzeroberfläche. Das Konzept der Zusatzfunktionalität wurde mit der Zeit immer weitergeführt, so wurden z. B. seit 1995 auch Funktionen zur Beschleunigung der Videowiedergabe (z. B. im AVI-Format) und Dekodierung von komprimierten Videodaten (z. B. MPEG) eingeführt ("Videobeschleunigung"). Diese Funktionen wurden vorher auf separaten Steckkarten angeboten. Nachdem Mitte der 1990er Jahre mit Doom der große Boom der 3D-Spiele begonnen hatte, kam bald von 3dfx der erste brauchbare 3D-Beschleuniger, der Voodoo Graphics-Chipsatz. Einem 3D-Beschleuniger kann ein Programm in einem dreidimensionalen Raum die geometrischen Figuren in Form von Polygonen und die Texturen angeben, mit denen die Flächen der Polygone gefüllt werden sollen (Rendern). Diese recht simple, aber rechenintensive Aufgabe hatte in den frühen 3D-Spielen noch die CPU übernehmen müssen; nun konnte sie an die Grafikkarte delegiert werden, was zu einer massiven Leistungssteigerung von 3D-Spielen führte (bessere Bildauflösung, wesentlich realistischere Bilder). Waren die 3D-Beschleuniger der ersten Generation noch auf eigenen Steckkarten verbaut, durch die das Grafiksignal der im System verbauten 2D-Grafikkarte durchgeschleift wurde, setzten sich bald Lösungen durch, die 2D- und 3D-Funktionalität auf derselben Karte vereinten. Um noch mehr 3D-Leistung anzubieten, werden heute mit der Multi-GPU-Technik (siehe auch SLI und AMD CrossFireX) zwei oder mehr 3D-Grafikkarten bzw. -prozessoren parallel geschaltet, um noch mehr Grafikelemente je Zeiteinheit berechnen zu können. Da diese Technik aber recht hohe Kosten und einen erhöhten Energiebedarf mit sich bringt, hat sie bisher nur geringen Einfluss auf den Grafikkartenmarkt. Hardwareschnittstellen zum System. Die bekanntesten Hardwareschnittstellen für Grafikkarten sind PCI, AGP und PCI Express, früher waren auch ISA oder VESA Local Bus gängig. Diese Schnittstellen sind entweder Bussysteme oder Direktverbindungen (AGP, PCI Express), die den Buscontroller mit der Grafikkarte verbinden. Da die Spezifikation der Schnittstellen zumeist durch Interessenverbände vorgenommen wird, in denen sowohl die Controller- als auch die Grafikkarten- bzw. Grafikchiphersteller Mitglied sind, funktionieren (im Idealfall) alle konformen Grafikkarten mit allen konformen Controllern. Es gab in der Vergangenheit aber verschiedene Probleme mit einigen Schnittstellen, die die Interoperabilität einschränkten, beispielsweise „AGP Fast Writes“ bei AGP (auf Intel-Plattformen konnte es die Leistung erhöhen, auf AMD-Plattformen für Instabilität sorgen) oder IRQ-Probleme bei PCI (mögliche Abstürze, Einfrieren oder Leistungseinbrüche, Ursache meist schlechte oder fehlerhafte Implementierung der Schnittstelle). Bei anderen Plattformen als den IBM-kompatiblen Rechnern gab es entsprechend den dort üblichen Stecksystemen Grafikkarten für die Apple-II-Steckplätze, später bei den ersten Macs für nuBus (später PCI und Nachfolger wie bei PC), für Amigas für deren Zorro-Bus und auch Europakarten für Systeme, die auf letzteren aufbauen. Grafikspeicher. Der Grafikspeicher dient zur Ablage der im Grafikprozessor (GPU) verarbeiteten Daten sowie als Bildspeicher („Framebuffer“): Das sind digitale Bilder, die später auf dem Computer-Bildschirm oder mit dem Projektor ausgegeben werden. Die Größe des Grafikspeichers bestimmte die maximale Farbtiefe und Bildauflösung. Dabei ließ sich der benötigte Speicher für eine gewünschte Auflösung und Farbtiefe vom Anwender leicht errechnen: Wenn beispielsweise die Auflösung 1600 × 1200 mit einer Farbtiefe von 24 Bit (True Color) erwünscht ist, berechnet man zunächst die Anzahl der Bildpunkte (Pixel) dieser Auflösung (1600 horizontal × 1200 vertikal = 1.920.000 Pixel insgesamt). Die Farbtiefe „24 Bit“ bedeutet, dass für jedes dieser Pixel 24 Bit Farb-Informationen vorliegen. Somit multipliziert man die Pixelanzahl mit der Farbtiefe (1.920.000 × 24 Bit = 46.080.000 Bit). Nunmehr ist nur noch die Umrechnung in Byte erforderlich. Da ein Byte aus 8 Bit besteht, wird die Zahl durch 8 geteilt (46.080.000 Bit / 8 = 5.760.000 Byte). Da früher Grafikkarten in der Regel mit 4 oder 8 Megabyte Grafikspeicher ausgeliefert wurden, hätte man für die gewünschte Einstellung eine Grafikkarte mit mindestens 8 Megabyte Grafikspeicher benötigt. Heute werden ausschließlich Grafikkarten mit sehr viel mehr Speicher gebaut, als zur reinen Bildspeicherung notwendig wäre. Beim Rendern dreidimensionaler Grafiken werden hier zusätzlich zum Framebuffer die Daten der Objekte, beispielsweise Größe, Form und Position, sowie die Texturen, die auf die Oberfläche der Objekte gelegt werden, gespeichert. Besonders die immer höher auflösenden Texturen haben für einen starken Anstieg der Speichergröße bei aktuellen Grafikkarten gesorgt. So liegt die Speichergröße aktueller Grafikkarten bereits im höheren drei- bis vierstelligen Megabytebereich (256 MB, 512 MB, 1024 MB, 2048 MB, 3072 MB), 128 MB und weniger sind selten geworden. Bei Spielegrafikkarten ist die Obergrenze Anfang 2009 bei 2 GB, wohingegen professionelle Grafikkarten schon mit bis zu 16 GB Grafikspeicher ausgestattet werden können. Bei Onboard-Lösungen wird meist der Hauptspeicher des Systems als Grafikspeicher genutzt, das wird als Shared Memory bezeichnet. Der Zugriff erfolgt über das jeweilige Bussystem und ist deshalb langsamer als direkt angebundener Speicher. Grafikprozessor. Der G92-Grafikchip einer Nvidia GeForce 8800 GT Der Grafikprozessor dient zur Berechnung der Bildschirmausgabe. Mitte der 1990er Jahre kamen die ersten 3D-Beschleuniger auf den Markt. Diese Grafikprozessoren waren in der Lage, einige Effekte und dreiecksbasierte Algorithmen (wie u. a. Z-Puffern, Texture Mapping) und Antialiasing selbstständig durchzuführen. Besonders dem Bereich Computerspiele verhalfen solche, zusätzlich zu installierenden Steckkarten (z. B. 3dfx Voodoo Graphics), zu einem Entwicklungsschub. Heute sind GPUs wegen ihrer Spezialisierung auf Grafikberechnungen den CPUs in ihrer Rechenleistung überlegen. Als Vergleich dienen die Transistoranzahl des Grafikprozessors von Nvidia (Geforce 8800GTS 512, 754 Millionen) mit der eines Modells von Intel (Core 2 Extreme QX9650, 820 Millionen). Der Unterschied wird deutlich, wenn man bedenkt, dass über die Hälfte der CPU-Chipfläche für die 2x6 MB Cache verbraucht werden. Die Entwicklung der Integrationsdichte der Grafikprozessoren hat mit einem jährlichen Faktor von 2,4 sogar das Mooresche Gesetz übertroffen. Wie bei den Hauptprozessoren der Rechner, in die die Grafikkarten eingebaut werden, sind auch die GPUs auf den Grafikkarten oft Gegenstand von Übertaktungsmodifikationen zur Leistungssteigerung. Die Rechenkapazität, die auf solchen Grafikkarten zur Verfügung steht (siehe unter GPGPU), hat schon dazu geführt, dass allein zum Erzielen maximaler Rechenleistung mehrere Grafikkarten in einen Rechner eingebaut werden. Solche Systeme werden teilweise in großen Anzahlen zu Supercomputern zusammengestellt. Kühllösungen. Passiver beidseitiger Kühlkörper (Radeon 9600 XT) Aktiver Luftkühler (PNY Geforce 6600 GT) Besonders die Konstruktionen der Luftkühlungen sind durch die benötigte Oberfläche des Kühlkörpers oft wesentlich größer, als es die Spezifikationen des Steckplatzes zulassen (vgl. Abb. rechts). Aus diesem Grund können auf dem Mainboard oft die angrenzenden Steckplätze nicht verwendet werden. RAMDAC. Der RAMDAC (Random Access Memory Digital/Analog Converter) ist ein Chip, der für die Umwandlung von digitalen (Videospeicher) in analoge Bildsignale (Monitor) verantwortlich ist. Von ihm werden die Signalausgänge angesteuert. Er kann auch im Grafikprozessor integriert sein. Externe Signalausgänge. Zusätzliche Signalausgänge und auch -eingänge sind je nach Karte unterschiedlich realisiert. Teilweise sind entsprechende Buchsen (Cinch, S-Video, LFH60) direkt auf dem Slotblech vorhanden. Vor allem aus Platzgründen sehen Hersteller aber auch einen mittelbaren Anschluss über Adapterkabel oder Kabelpeitschen vor. Dann findet sich direkt auf der Grafikkarte eine Buchse, z. B. aus der Mini-DIN-Familie, deren Beschaltung nicht standardisiert ist und die oft die allgemeine Bezeichnung VIVO (für Video-In-Video-Out) hat. Hier wird eine herstellerspezifische Kabelpeitsche angeschlossen, die dann weitere Anschlussmöglichkeiten zur Verfügung stellt. Lösungen auf der Hauptplatine ("onboard"). Bei diesen Integrated Graphics Processor, kurz IGP genannten Lösungen wird die Funktionalität der Grafikkarte in den Chipsatz der Hauptplatine oder in den Prozessor (z. B. Intel i5) integriert. IGPs bieten alle 2D-Funktionen, aber meistens nur langsame oder veraltete 3D-Funktionalität und werden daher vornehmlich in Bereichen mit geringeren Grafikanforderungen eingesetzt. Mittlerweile sind die Grafiklösungen von AMD und Intel jedoch bereits leistungsfähig genug, um aktuelle Spiele auf zumindest geringen Details zu spielen. Auch bei den unterstützten Features hat sich viel getan. Derzeit unterstützen beide Hersteller DirectX in Version 11 sowie aktuelle Standards wie OpenCL oder OpenGL. Wegen ihres niedrigen Stromverbrauchs werden sie auch häufig in Notebooks eingesetzt. Der niedrige Stromverbrauch ist auch ein Motiv zum Einsatz in Embedded-PCs; bei besonders kritischen Anwendungen wie beispielsweise in der Medizin kommt der Vorteil hinzu, dass die Ausfallquelle der Steckkontakte zwischen Hauptplatine und Grafikkarte entfällt. Bei besonders kompakten oder preiswerten Geräten wird auf einen eigenen Grafikspeicher verzichtet und stattdessen der Hauptspeicher des Rechners mitverwendet (siehe Unified Memory Architecture, Shared Memory), was sich jedoch negativ auf die Leistungsfähigkeit auswirkt. Neueste Notebooks mit PCIe-Schnittstelle können einen austauschbaren Grafikchip besitzen (siehe Mobile PCI Express Module), was sich jedoch (noch) nicht als Standard durchgesetzt hat. Business-Lösungen. Das sind vollwertige Grafikkarten, bei denen wenig Augenmerk auf die 3D-Funktionen gelegt wird, sondern die vor allem ein scharfes und kontrastreiches Bild liefern sollen. Es gibt auch Varianten mit 3D-Zusatzfunktionen, vor allem für CAD-Anwendungen. Spielegrafikkarten. ATI Radeon HD 5870 Spielegrafikkarte Diese Grafikkarten gibt es in verschiedenen Preisklassen von rund 25 € bis zu 3000 €, wobei die teuren Karten das technisch Machbare im Bereich 3D-Darstellung widerspiegeln. Bei Spielekarten konkurrieren hauptsächlich AMD (AMD-Radeon-Serie) und Nvidia (Geforce-Reihe) miteinander, deren Chips von einer Vielzahl von Herstellern auf deren Grafikkarten verwendet werden. Daneben gibt es noch Anbieter wie S3 Graphics, Matrox (gehörte zu den Pionieren der 3D-Spielegrafikkarten, wurde aber von der mächtigen Konkurrenz in den professionellen Markt zurückgedrängt) und XGI Technology, die aber nur eine untergeordnete Rolle spielen und meist in Büro-PCs Verwendung finden. Da die meisten Spiele für Microsofts Direct3D-Schnittstelle (ein Teil der Windows-Systemkomponente DirectX) entwickelt werden, sind Spielegrafikkarten auf Höchstleistung mit diesem System optimiert. Grafikkarten, die volle Hardwareunterstützung für die aktuelle DirectX-Version bieten, können praktisch alle technisch realisierbaren 3D-Rendering-Funktionen in Echtzeit berechnen. Manche Spielehersteller setzen aber auf OpenGL, allen voran id Software. Seit 2006 befindet sich die Version 10 von DirectX auf dem Markt, die allerdings nur in Verbindung mit den Microsoft-Betriebssystemen Windows Vista und Windows 7 funktioniert. DirectX 10 wird seitens Nvidia von der Nvidia-GeForce-8-Serie und aufwärts unterstützt, seitens AMD von den Karten der ATI-Radeon-HD-2000-Serie und aufwärts. Karten ab der ATI-Radeon-HD-3000-Serie unterstützen sogar bereits die Nachfolgerversion DirectX 10.1, die mit dem Service Pack 1 für Windows Vista ausgeliefert wird und nur geringe Neuerungen bringt (Verwendung in nur wenigen Spielen, etwa dem Luftkampfspiel H.A.W.X. oder Bethesdas Skyrim). DirectX 10 erhöht viele Beschränkungen in der Shaderprogrammierung und soll einen geringeren Overhead als DirectX 9 aufweisen, wodurch das Ausführen von Direct3D-Befehlen schneller vonstattengehen soll. Der Nachteil ist, dass seit der Einführung von DirectX 10 nur wenige Spiele für DirectX 10 optimiert werden (prominentestes Beispiel: Crysis), da der kommerzielle Verkauf von Windows Vista erst am 30. Januar 2007 begann und die Nutzung der neuen Effekte von DirectX 10 eine enorme Rechenleistung benötigen und folglich nur auf High-End-Grafikkarten zufriedenstellend funktionieren. Viele neue Spiele unterstützen oftmals immer noch nur DirectX 9 und manchmal parallel DirectX 11, DirectX 10 hat daher nur noch eine geringe Bedeutung. Seit Ende 2009 gibt es DirectX in Version 11. Diese Version wird bei den Karten von ATI (bzw. AMD) ab der „HD5000“-Reihe und ab der „GTX-400“-Serie von Nvidia unterstützt. Der Start von DirectX 11 lief besser als der von DirectX 10, da es bei Einführung von Windows 7 und damit DirectX 11 bereits ein Spiel mit DirectX 11 gab (BattleForge) und weitere schnell folgten. Die Spiele unterstützen jedoch alle noch DirectX 9, was sie auch auf Windows XP lauffähig macht. Neben Direct3D gibt es als weiteres Grafik-API OpenGL in der aktuellen Version 4.2, das mit einem etwas größeren Funktionsumfang als Direct3D 11 aufwartet. Im Jahr 2013 stellte AMD zudem die API AMD Mantle vor, die bislang nur mit AMD-Grafikkarten ab der ATI-Radeon-HD-7000-Serie verwendet werden kann. Mantle bietet sowohl eine bessere Leistungsausnutzung bei Mehrkernprozessoren als auch einen geringeren Entwicklungsaufwand als Direct3D. Die Unterstützung für Mantle beschränkt sich derzeit noch auf wenige Spiele. Die Frostbite-3-Engine (siehe Frostbite-Engine) unterstützt Mantle voll, somit sind Spiele wie Battlefield 4, oder mit Mantle spielbar. In Zukunft ist eine Unterstützung von Nvidia-Grafikkarten und Linux-Betriebssystemen durchaus denkbar, aber noch nicht von AMD angekündigt. Stand der Technik. Die aktuellen Spitzenmodelle stellt mit Stand Juni 2015 Nvidia mit der "GeForce GTX Titan X" und der "Geforce GTX 980 Ti" Grafikkarte. Beide Modelle besitzen dabei den in 28nm gefertigten GM200-310-A1 "Maxwell" Chip. Die Titan X besitzt dabei die Vollausstattung mit 12 Gbyte RAM, die GTX 980 Ti besitzt hingegen nur 6 GB RAM. AMD konkurriert dagegen mit der "Radeon R9 Fury X" mit dem Fiji-XT-Chip, die ebenfalls im 28nm-Fertigungsprozess hergestellt wird. Die Fury X ist dabei nur mit 4 Gbyte VRAM ausgestattet, allerdings nutzt sie im Gegensatz zum GDDR5-VRAM der Nvidia-Karten sogenannten High Bandwith Memory, welcher durch das Stapeln der Speicherbausteine und das Anbinden jedes Stapels über zwei 128-Bit-Kanäle über eine deutlich größere Bandbreite angebunden ist als gewöhnlicher GDDR5-Speicher. In den Spielen mit 4K-Auflösung schnitt die Radeon R9 Fury X in ersten Benchmarks besser als die GeForce-Karten ab. Allerdings produzierte der serienmäßige Wasserkühler der Fury X in der ersten Serie häufig Spulenfiepen, wodurch es zu zahlreichen Reklamationen kam. AMD versprach eine neue Revision der Karte, wie sich diese von den bisherigen laut fiependen im Handel unterscheiden ist derzeit jedoch noch unklar. Professionelle Lösungen. Das sind vor allem Grafikkarten für CAD- und GIS-Anwendungen. Die Karten bieten spezielle für CAD/GIS notwendige Funktionen, die auf „normalen“ Grafikkarten nur emuliert und dadurch sehr viel langsamer genutzt werden können. Seit der letzte Spezialchip-Anbieter 3DLabs 2006 das Geschäft eingestellt hat, bieten nur noch AMD (unter dem Markennamen ATI) und Nvidia Lösungen für das OpenGL-Workstation-Segment an. Die beiden Firmen nutzen dabei Derivate ihrer Spielegrafikkarten-Chips. Diese werden dann mit einem modifizierten ROM und Treiber auf die 2D-Darstellung von OpenGL und nicht mehr auf die 3D-Darstellung von DirectX und OpenGL optimiert. Dabei unterstützen die Treiber dieser Grafikkarten das Zeichnen mehrerer Millionen geglätteter Linien und User-Clip-Planes. Obwohl sich die Hardware zwischen Spiele-3D-Chips und OpenGL-Chips nur minimal unterscheidet, kosten Profi-Karten erheblich mehr. Grund dafür ist das Optimieren der Treiber, der umfangreiche Kundendienst, der Workstation-Kunden geboten werden muss, und das sehr teure SRAM, mit dem manche Grafikkarten ausgestattet sind. Weiterhin sind oft zusätzliche Fähigkeiten vorhanden wie DisplayPort-Anschlüsse zur Nutzung eines höheren Farbumfangs oder die Projektion einer großen Fläche mit mehreren Bildquellen. Die Produktlinien heißen bei AMD ATI FireGL bzw. inzwischen AMD FirePro und bei Nvidia Quadro FX. Sonstiges. Außer den oben beschriebenen DirectX-Grafikkarten gibt es spezielle Karten, die nur OpenGL unterstützen. Diese werden häufig im Animationsbereich eingesetzt und sind heute für Spieler völlig uninteressant, da die meisten PC-Spiele nur noch DirectX unterstützen (anders jedoch auf der Macintosh-Plattform). Standardmäßig beherrscht jede heutige DirectX-Grafikkarte auch OpenGL, umgekehrt ist das jedoch nicht der Fall. Seit den Anfängen der programmierbaren Grafikpipeline im Jahr 2000 besteht die Möglichkeit, die Rechenleistung der Grafikprozessoren zur Berechnung von parallelisierbaren Rechenoperationen, wie sie z. B. bei technischen und wirtschaftlichen Simulationen vorkommen, zu nutzen. Diese Anwendung wird als GPGPU (General Purpose Computation on Graphics Processing Unit) bezeichnet, siehe auch bei CUDA. Software-Grafikschnittstellen. Um Grafikkarten benutzen zu können, ohne Hardware und Software für jede einzeln zu entwickeln, existieren verschiedene Software-Grafikschnittstellen. Vor allem auf grundlegender Funktionsebene interessant ist das BIOS, das wichtige Text- und Grafikausgabefunktionen bereitstellt, die u. a. von Textkonsolen unter DOS oder Linux genutzt werden. Diese Funktionen sind relativ langsam, funktionieren aber zuverlässig auf jeder Grafikkarte. In den meisten heutigen Betriebssystemen liegt eine Abstraktionsschicht zwischen Programmen und Hardware, die sogenannten Gerätetreiber. Ohne diese müssten Programme die Hardware direkt ansprechen, was aber aufgrund der Unterschiede zwischen Grafikkarten zu einer hohen Spezialisierung und damit hohem Programmieraufwand für die Unterstützung vieler Grafikkarten führen würde. Da aber Grafikkartentreiber ebenfalls sehr unterschiedliche Funktionen anbieten können, wurden im Laufe der Zeit verschiedene Grafik-APIs entwickelt, die den Zugang zu diesen Funktionen erleichtern sollen. Die bekanntesten darunter sind OpenGL, DirectX (genauer: DirectDraw, Direct3D) und Quartz, die es dem Programmierer ermöglichen, einfach und unabhängig von der Grafikkarte 2D- und 3D-Grafik anzuzeigen. Für DirectX und Quartz setzen die Schnittstellen nicht unbedingt Hardware-3D-Funktionen der Grafikkarte voraus, nutzen diese aber, falls sie vorhanden sind. Ältere 3D-Anwendungen können im Prinzip auch auf Computern mit integrierter Grafik oder einer einfachen 3D-Karte laufen, jedoch relativ langsam oder optisch weniger ansprechend. Für das Betriebssystem EComstation wurde der universelle Panorama-Treiber entwickelt, der alle gängigen Grafikkarten bedient. Softwareprobleme mit Grafikkarten. Da viele Grafikkarten heutzutage das flüssige Anschauen von Videos mittels des Rechners durch Hardwarebeschleunigung erlauben und ebenfalls viele Grafikkarten einen TV-Out-Anschluss haben, ist es naheliegend, den Rechner an einen Fernseher oder einen Videorekorder anzuschließen. Jedoch unterbinden es einige Hersteller durch den Grafikkartentreiber oder die "Grafikkarte" selbst, beide Fähigkeiten miteinander zu verbinden. So kommt es vor, dass beim Abspielen von Videos zwar die gesamte Benutzeroberfläche sichtbar ist, das Video selbst jedoch nicht. Unter Linux funktioniert dann beispielsweise die XVideo-Implementation nur bei der primären Anzeige (also dem Computer-Monitor), nicht jedoch beim TV-Out-Anschluss. Dieses Problem kann man meist umgehen, indem man die Hardwarebeschleunigung für das Dekodieren von Videos ausschaltet, jedoch ist das Video dann oft nicht mehr flüssig. Es wird vermutet, dass solche Beschränkungen eingebaut werden, um den Nutzer an der Aufzeichnung des Videos durch einen Videorekorder zu hindern. Jedenfalls ist in einigen mitgelieferten Handbüchern nachzulesen, dass Produkte von Macrovision (einer Firma, die für ein Kopierschutzverfahren bekannt ist) in die "Grafikkarte" integriert wurden. Ein konkreter Fall ist der fglrx-Treiber von AMD, der (derzeit) nicht das hardwareunterstützte Abspielen von Videos am TV-Ausgang unterstützt. Ein weiteres Problem war und ist die Verwendung mehrerer VGA-kompatibler Grafikkarten, wie es in PCI-Systemen der Fall sein kann. Dabei unterstützt das Betriebssystem nicht jede freie Kombination, nicht einmal von Grafikkarten desselben Herstellers. Durch eine Aktualisierung des ROMs auf der Karte kann hier jedoch manchmal Abhilfe geschaffen werden. Hersteller. Marktanteile (verkaufte Stückzahl) der GPU-Hersteller (für Desktop-GPUs) 3dfx, 3DLabs, AMD, Alliance Semiconductor, ARK Logic, ArtX, ATI Technologies, Avance Logic, Bitboys Oy, Chips & Technologies, Cirrus Logic, Matrox, NeoMagic, Number Nine, Nvidia, Oak Technology, Rendition, S3 Graphics, S3 Inc., SiS, Trident, Tseng Labs, Western Digital, XGI. ABIT, Albatron, AOpen, Asus, ATI Technologies, AXLE3D, Club 3D, Connect3D, Creative Labs/3DLabs, DFI, Diamond Multimedia, ELSA Technology, EVGA, Elitegroup, Gainward, Galaxy Microsystems Ltd., GeCube, Genoa, Gigabyte, Hercules Graphics, HIS, Inno3D, Leadtek, Matrox, MSI, miro, Number Nine, Orchid Technologies, Paradise Systems, PixelView, PNY, PowerColor, Quantum3D, Sapphire, Sigma, Sparkle, SPEA, STB Systems, TerraTec, VideoLogic, Video Seven, XFX, XpertVision, Zotac. Heute sind nur noch AMD / ATI Technologies, Nvidia, Matrox und S3 Graphics als Grafikchiphersteller auf dem Markt, sowie AMD, Intel, Nvidia, SiS und VIA Technologies als Hersteller von integrierten Grafiklösungen. Gentechnik. a>en mit kräftigen rot, grün oder orange fluoreszierenden Farben. Obwohl sie ursprünglich nicht für kommerzielle Zwecke erzeugt wurden, sind sie die ersten gentechnisch veränderten Tiere, die in einigen Ländern als Haustiere erhältlich sind. Zum Vergleich ein normaler Zebrabärbling Als Gentechnik bezeichnet man Methoden und Verfahren der Biotechnologie, die auf den Kenntnissen der Molekularbiologie und Genetik aufbauen und gezielte Eingriffe in das Erbgut (Genom) und damit in die biochemischen Steuerungsvorgänge von Lebewesen bzw. viraler Genome ermöglichen. Als Produkt entsteht zunächst rekombinante DNA, mit der wiederum gentechnisch veränderte Organismen (GVO) hergestellt werden können. Der Begriff Gentechnik umfasst also die Veränderung und Neuzusammensetzung von DNA-Sequenzen im Reagenzglas oder in lebenden Organismen sowie das gezielte Einbringen von DNA in lebende Organismen. Gentechnik wird zur Herstellung neu kombinierter DNA innerhalb einer Art, vor allem aber auch über Art-Grenzen hinweg verwendet. Dies ist möglich, weil alle Lebewesen denselben genetischen Code benutzen, von dem nur in wenigen Ausnahmefällen leicht abgewichen wird (siehe codon usage). Ziele gentechnischer Anwendungen sind beispielsweise die Veränderung von Kulturpflanzen, die Herstellung von Medikamenten oder die Gentherapie. Nutzpflanzen. Transgene Nutzpflanzen haben seit ihrer Erstzulassung im Jahr 1996 weltweit rapide an Bedeutung gewonnen und wurden 2010 in 29 Ländern auf 148 Millionen Hektar (ca. 10 % der globalen Landwirtschaftsfläche) angebaut. Dabei handelt es sich insbesondere um Pflanzen, die aufgrund von gentechnischen Veränderungen tolerant gegenüber Pflanzenschutzmitteln oder giftig für bestimmte Schadinsekten sind. Während sich durch den Einsatz für Landwirte, insbesondere in Entwicklungsländern, trotz höherer Ausgaben für Saatgut teils deutliche Ertrags-, Einkommens- und Gesundheitsvorteile oder Arbeitserleichterungen sowie geringere Umweltbelastungen ergeben und zugelassenen Sorten von wissenschaftlicher Seite Unbedenklichkeit für Umwelt und Gesundheit attestiert wird, lehnen Umweltverbände, Anbieter ökologisch erzeugter Produkte sowie einige politische Parteien die grüne Gentechnik ab. Tiere. Transgene Tiere werden vor allem in der Forschung als Versuchstiere eingesetzt. Transgene Tiere zum menschlichen Verzehr sowie zur Eindämmung von Infektionskrankheiten sind noch nicht zugelassen. Medizin und Pharmazie. Etliche Produkte, die für den Menschen interessant sind (zum Beispiel Insulin, Vitamine), werden mit Hilfe gentechnisch veränderter Bakterien hergestellt. Auch für die Medizin hat die Gentechnik Bedeutung erlangt, die Zahl der gentechnisch hergestellten Medikamente auf dem Markt nimmt stetig zu. Anfang 2015 waren in Deutschland 175 Arzneimittel mit 133 verschiedenen gentechnisch erzeugten Wirkstoffen zugelassen. Sie werden bei zahlreichen Krankheiten eingesetzt, etwa Zuckerkrankheit, Blutarmut, Herzinfarkt, Wachstumsstörungen bei Kindern, verschiedenen Krebsarten und der Bluterkrankheit. Weltweit befinden sich über 350 Gentech-Substanzen in klinischen Prüfungen mit Patienten. Insulin ist das bekannteste Hormon, das mit Hilfe der Gentechnik gewonnen wurde. Das früher verwendete Insulin stammte von Rindern und Schweinen und war nicht hundertprozentig baugleich mit dem des Menschen. Mittels Gentechnik wurde es nun ersetzt und löste u.a. die Probleme von Diabetikern mit einer Unverträglichkeit gegenüber Tierinsulin. Auch in der Krebstherapie sind gentechnisch hergestellte Medikamente heute etabliert. Nach Meinung einiger Krebsexperten könnten durch den Einsatz von Interferon und blutbildenden Wachstumsfaktoren die Krebstherapien bei bestimmten Tumorarten verbessert, Krankenhausaufenthalte verkürzt oder gar vermieden sowie Lebensqualität gewonnen werden. Ansätze zur gentechnischen Veränderung von Zellen im menschlichen Körper zu Heilzwecken werden im Artikel Gentherapie beschrieben. Geschichte. Vor etwa 8000 Jahren wurde im heutigen Mexiko durch Züchtung das Erbgut von Teosinte-Getreide durch die Kombination von natürlich vorkommenden Mutationen so verändert, dass die Vorläufer der heutigen Mais-Sorten entstanden. Dadurch wurde nicht nur der Ertrag erhöht, sondern auch eine Pilzresistenz erzeugt. Künstliche Mutationen für Züchtungszwecke wurden innerhalb der konventionellen Landwirtschaft erzeugt, indem Keime stark ionisierender Strahlung oder anderen genverändernden Einflüssen (Mutagenen) ausgesetzt wurden, um Mutationen im Erbgut häufiger als unter natürlichen Bedingungen hervorzurufen. Samen wurden ausgesät und jene Pflanzen, die die gewünschten Eigenschaften besaßen, wurden weiter gezüchtet. Ob dabei auch noch andere, unerwünschte, Eigenschaften entstanden, wurde nicht systematisch überprüft. Diese Technik wurde bei fast allen Nutzpflanzen und auch bei einigen Tierarten angewendet, jedoch lag der Erfolg der Mutationszüchtung bei Pflanzen nur zwischen 0,5 bis 1 % an züchterisch brauchbaren Mutanten, bei Tieren ist diese Methode überhaupt nicht zu gebrauchen. Bei diesen Vorläufern der Gentechnik enthielt der veränderte Organismus jedoch keine rekombinante DNA. Die eigentliche Geschichte der Gentechnik begann, als es Ray Wu und Ellen Taylor 1971 gelang, mit Hilfe von 1970 entdeckten Restriktionsenzymen eine Sequenz von 12 Basenpaaren vom Ende des Genoms eines Lambdavirus abzutrennen. Zwei Jahre später erzeugte man das erste genetisch veränderte rekombinante Bakterium, indem ein Plasmid mit vereinter viraler und bakterieller DNA in das Darmbakterium "Escherichia coli" eingeschleust wurde. Angesichts dieser Fortschritte fand im Februar 1975 die Asilomar-Konferenz in Pacific Grove, Kalifornien, statt. Auf der Konferenz diskutierten 140 Molekularbiologen aus 16 Ländern Sicherheitsauflagen, unter denen die Forschung weiter stattfinden sollte. Die Ergebnisse waren Grundlage für staatliche Regelungen in den Vereinigten Staaten und später in vielen anderen Staaten. 1977 gelang erstmals die gentechnische Herstellung eines menschlichen Proteins in einem Bakterium. Im selben Jahr entwickelten Walter Gilbert, Allan Maxam und Frederick Sanger unabhängig voneinander Methoden zur effizienten DNA-Sequenzierung, für die sie 1980 mit dem Nobelpreis für Chemie ausgezeichnet wurden. Ende der 1970er Jahre entdeckten die Belgier Marc Van Montagu und Jeff Schell die Möglichkeit, mittels "Agrobacterium tumefaciens" Gene in Pflanzen einzuschleusen und legten damit den Grundstein für die Grüne Gentechnik. 1980 beantragte Ananda Chakrabarty in den USA das erste Patent auf einen GVO, dessen Zulassungsverfahren bis vor den Supreme Court getragen wurde. Dieser entschied 1981, dass der Fakt, dass Mikro-Organismen lebendig sind, keine gesetzliche Bedeutung für den Zweck des Patent-Rechtes habe und machte damit den Weg für die Patentierung von Lebewesen frei. 1982 kam in den Vereinigten Staaten mit Insulin das erste gentechnisch hergestellte Medikament auf den Markt. 1982 wurde mit dem Bakteriophagen Lambda das erste Virus in seiner vollständigen DNA-Sequenz veröffentlicht. Im Jahr 1983 entwickelte Kary Mullis die Polymerase-Kettenreaktion, mit der DNA-Sequenzen vervielfältigt werden können und erhielt dafür 1993 den Chemie-Nobelpreis. 1985 wurden genetisch manipulierte Pflanzen in den USA patentierbar und es erfolgte die erste Freisetzung genetisch manipulierter Bakterien (ice minus bacteria). 1988 wurde das erste Patent für ein gentechnisch verändertes Säugetier, die sogenannte Krebsmaus, vergeben. Ab Herbst 1990 wurde im Humangenomprojekt damit begonnen, das gesamte Genom des Menschen zu sequenzieren. Am 14. September 1990 wurde die weltweit erste Gentherapie an einem vierjährigen Mädchen durchgeführt. Im Jahr 1994 kamen im Vereinigten Königreich und den Vereinigten Staaten gentechnisch veränderte Flavr-Savr-Tomaten, auf den Markt. Im Jahr 1996 wurden erstmals transgene Sojabohnen in den USA angebaut. Der Import dieser Sojabohnen nach Deutschland führte dort zu ersten öffentlichen Kontroversen über die Verwendung von Gentechnologie in der Landwirtschaft. Greenpeace führte im Herbst 1996 mehrfach illegale Protestaktionen durch, wie Behinderung der Löschung und Beschriften von Frachtern. Die Firma Celera und International Genetics & Health Collaboratory behaupteten 2001, das menschliche Genom, parallel zum Humangenomprojekt, vollständig entschlüsselt zu haben. Jedoch war die Sequenzierung nicht vollständig. Ein Jahr später wurde der erste in seiner Keimbahn gentechnisch veränderte Primat geboren. Grüne Gentechnik (Agrogentechnik). Da die Funktion der meisten Gene in Pflanzen unbekannt ist, muss man, um sie zu erkennen, die Steuerung des Gens modifizieren. Dabei werden Effekte von Genen normalerweise durch einen Vergleich dreier Pflanzenpopulationen aufzuklären versucht (Wildtyp, Überexpressoren und „Knockout“-Population). Hierfür gibt es verschiedene Techniken, wie etwa RNAi. Allen Techniken ist gemein, dass sie doppelsträngige RNA produzieren, die der Pflanze den „Befehl“ gibt, „normale“ Ribonukleinsäure des zu untersuchenden Gens abzubauen. Außerdem gehören auch deskriptive Techniken zur Standardausrüstung der gentechnischen Pflanzenforschung. Dabei werden Gene kloniert, dann bestimmt man die Häufigkeiten von Transkripten (Bauanleitungen für Proteine) oder mittels so genannter DNA-Chips gleich die meisten Gene einer Pflanze in ihrer Ablesehäufigkeit. Der Agrobakterium-vermittelte Gentransfer ist ebenfalls eine wichtige Technik. Bei dieser gentechnischen Methode werden einzelne Erbfaktoren von Zellen eines Organismus in Zellen eines anderen Lebewesens übertragen. Die somatische Hybridisierung wiederum erlaubt es, gewünschte Merkmale verschiedener Elternpflanzen zu kombinieren. Im Vergleich zum Agrobakterium-vermittelten Gentransfer müssen hierbei keine spezifischen Gene identifiziert und isoliert werden. Außerdem wird damit die Einschränkung der Transformation (Gentransfer) überwunden, nur wenige Gene in ein vorgegebenes Erbgut einführen zu können. Auch kann bei der Zellfusion die Chromosomenzahl der Zellen multipliziert werden, also die Anzahl der Chromosomensätze (Ploidiegrad) erhöht werden. Dies kann die Ertragsfähigkeit von Pflanzen steigern (Heterosiseffekt). Molekulare Marker oder biochemische Analysen werden genutzt, um aus der somatischen Hybridisierung hervorgegangene Pflanzen zu charakterisieren und zu selektieren. Rote Gentechnik. Eine gentechnische Methode der roten Biotechnologie ist die Gentherapie. Hier wird versucht, Krankheiten, die durch defekte Gene verursacht werden, durch Austausch dieser Gene zu heilen. Biotechnologische Medikamente werden durch transgene Organismen (Mikroorganismen, Nutztiere oder Pharmapflanzen) hergestellt. Dabei wird iterativ so lange verändert, bis ein Wirkstoff entsteht, der die Krankheit heilen kann. Weiße Gentechnik. Durch gelenkte Evolution werden hier Stämme von Mikroorganismen erzeugt und aufgrund ihrer Erträge der gewünschten Produkte, die durch ein Screening festgestellt wurden, selektiert. Dieser Vorgang wird in iterativen Zyklen wiederholt, bis die angestrebten Veränderungen erreicht sind. Zur Identifizierung von nicht kultivierbaren Organismen untersucht man Metagenome, d. h. die Gesamtheit der Genome eines Lebensraums, Biotops oder einer Lebensgemeinschaft (Biozönose). In Metagenomen können beispielsweise Biokatalysatoren aufgefunden werden, die bisher noch nicht bekannte biochemische Reaktionen katalysieren und neue, interessante Stoffwechselprodukte bilden. Zum Einschleusen von Plasmid-DNA in das Bakterium wird u. a. die Eigenschaft von Calciumchlorid genutzt, Zellmembranen durchlässig zu machen. EU. Seit dem 18. April 2004 besteht innerhalb der EU eine Kennzeichnungspflicht für gentechnisch veränderte Produkte. Sie schließt ein, dass alle Produkte, die eine genetische Veränderung besitzen, gekennzeichnet werden müssen, auch dann, wenn die Veränderung im Endprodukt nicht mehr nachweisbar ist. Ausgenommen von der Kennzeichnungspflicht sind Fleisch, Eier und Milchprodukte von Tieren, die mit gentechnisch veränderten Pflanzen gefüttert wurden sowie Produktzusätze, die mithilfe genetisch veränderter Bakterien hergestellt wurden, ebenso Enzyme, Zusatzstoffe und Aromen, da sie im rechtlichen Sinne nicht als Lebensmittel gelten. Kritiker von gentechnisch veränderten Lebensmitteln verweisen in diesem Zusammenhang darauf, dass derzeit (Stand: 2005) etwa 80 Prozent der angebauten gentechnisch veränderten Pflanzen in die Futtermittelindustrie einfließen. Sie fordern deshalb die Kennzeichnungspflicht auch für diese tierischen Produkte. Auch wenn die Erbsubstanz gentechnisch veränderter Futtermittel im Magen von Tieren aufgelöst wird, kann sie im Endprodukt nachweisbar sein, zumindest als Fragmente. Eine Kennzeichnung muss weiterhin nicht erfolgen, wenn die Verunreinigung mit genetisch verändertem Material unter 0,9 % (Stand: 2008) Gewichtsprozent liegt und zufällig oder technisch unvermeidbar ist. Dabei ist jede Einzelzutat eines Lebens- oder Futtermittels getrennt zu betrachten. 2007 wurde eine neue EU-Öko-Verordnung (Nr. 834/2007) verabschiedet, die ab 2009 Gültigkeit erlangt. Mit ihr wird die Möglichkeit geschaffen, dass Zusatzstoffe für Lebens- oder Futtermittel, die A) grundsätzlich im Ökolandbau zugelassen sind und B) nachweislich nicht in GVO-freier Qualität verfügbar sind, auch dann eingesetzt werden dürfen, wenn sie durch gentechnisch veränderte Mikroorganismen hergestellt wurden. Die Interpretation der neuen Regel steht noch aus. Derzeit ist nach der neuen Regel kein Stoff zugelassen. Deutschland. Bei der Zuordnung wird nach Anhörung einer Kommission im Zweifel die höhere Sicherheitsstufe gewählt. Den genauen Umgang mit gentechnisch veränderten Organismen regelt die Gentechnik-Sicherheitsverordnung. Ein Gesetz zur Neuordnung des Gentechnikrechts wurde im Juni 2004 erlassen, um die EU-Richtlinie zur Freisetzung von GVOs umzusetzen. Österreich. In Österreich wurde im April 1997 das "Gentechnik-Volksbegehren" angenommen. Bei einer Wahlbeteiligung von über 21 % wurden damit ein gesetzlich verankertes Verbot der Produktion, des Imports und des Verkaufs gentechnisch veränderter Lebensmittel, ein ebensolches Verbot der Freisetzungen genetisch veränderter Pflanzen, Tiere und Mikroorganismen sowie ein Verbot der Patentierung von Lebewesen gefordert. Der Beschluss wurde am 16. April 1998 nach 3. Lesung angenommen. Schweiz. Das Schweizer Volk stimmte im Rahmen einer Volksinitiative vom 27. November 2005 bei einer Stimmbeteiligung von über 42 % mehrheitlich für ein Moratorium bezüglich der Nutzung von Gentechnik in der Landwirtschaft. Für zunächst fünf Jahre wurde damit der Anbau von Pflanzen oder die Haltung von Tieren verboten, die gentechnisch verändert wurden. Ausnahmen gibt es nur für der Forschung (vor allem Risikoforschung) dienende kleine Anbauflächen, die den Vorschriften der "Freisetzungs-Verordnung" unterstehen. Importe von gentechnisch veränderten Produkten sind teils – unter strengen Auflagen – zugelassen. Nach intensiver politischer Diskussion wurde das Moratorium von Bundes-, Stände- und Nationalrat bis 2013 verlängert. Danach sollen Ergebnisse eines nationalen Forschungsprogramms, das bis 2012 lief, für eine neue Entscheidungsfindung berücksichtigt werden. Mit denselben Argumenten wurde das Moratorium im Dezember 2012 bis Ende 2017 verlängert. Trotz der Verlängerung will der Bundesrat es den Bauern erlauben, ab 2018 in gewissen Zonen gentechnisch veränderte Pflanzen anzubauen. Diese Pläne stoßen allerdings im Parlament auf heftigen Widerstand. Andere Länder. Die Regulierung der Gentechnik ist außerhalb der deutschsprachigen Länder und der EU allgemein häufig weniger strikt. In den USA und Kanada ist Kennzeichnung z.B. freiwillig. Eingetragenes Design. Ein eingetragenes Design oder Geschmacksmuster ist ein gewerbliches Schutzrecht, das seinem Inhaber die ausschließliche Befugnis zur Benutzung einer ästhetischen Erscheinungsform (Gestalt, Farbe, Form) verleiht. Allgemeines. Ästhetische Gestaltungen sind vom Patent- und Gebrauchsmusterschutz ausgenommen, können aber nach dem Designgesetz durch die Eintragung in das Designregister ebenfalls gegen Nachahmung geschützt werden. Geschützt ist die eingetragene zwei- oder dreidimensionale Erscheinungsform eines ganzen Erzeugnisses oder eines Teils davon. Ein eingetragenes Design ist ein sogenanntes ungeprüftes Recht, das bedeutet, dass die Voraussetzungen der Neuheit und Eigenart im Eintragungsverfahren vom Deutschen Patent- und Markenamt (DPMA) nicht überprüft werden. Das DPMA prüft nur die formalen Voraussetzungen der Eintragung. Führt der Inhaber eines eingetragenen Designs einen Rechtsstreit über Ansprüche aus dem eingetragenen Design, so steht seinem Prozessgegner in diesem Rechtsstreit nicht der Einwand offen, der Schutz sei nicht entstanden, weil dem eingetragenen Design zum Zeitpunkt der Anmeldung bzw. am Prioritätstag die Neuheit bzw. Eigenart fehlte. Der Prozessgegner kann aber beim selben Gericht Widerklage auf Feststellung oder Erklärung der Nichtigkeit erheben oder einen Nichtigkeitsantrag beim DPMA stellen. Der Schutz entsteht mit der Eintragung in das Register. Die Schutzdauer des eingetragenen Designs beträgt 25 Jahre, gerechnet ab dem Anmeldetag. Werden allerdings die ab dem 6. Schutzjahr jeweils für einen Fünf-Jahres-Zeitraum zu zahlenden Aufrechterhaltungsgebühren nicht entrichtet, erlischt der Schutz bereits früher. Seit Inkrafttreten der Verordnung (EG) Nr. 6/2002 des Rates vom 12. Dezember 2001 über das Gemeinschaftsgeschmacksmuster (GGV) am 6. März 2002 gibt es das Gemeinschaftsgeschmacksmuster. Nach der GGV wird neben dem sog. eingetragenen Gemeinschaftsgeschmacksmuster als wesentliche Neuerung das "nicht eingetragene Gemeinschaftsgeschmacksmuster" geschützt. Dieses nichtregistrierte Designrecht bietet zwar lediglich einen reinen Nachahmungsschutz für drei Jahre, entsteht aber automatisch mit der öffentlichen Zugänglichmachung des Musters in der EU (Art. 11 Abs. 2 GGV setzt dem bestimmte Arten der außergemeinschaftlichen Zugänglichmachung gleich). Schutzumfang. Das eingetragene Design gewährt Rechte zum Benutzen und zum Untersagen. Geschützt ist insbesondere das Herstellen, Anbieten, Inverkehrbringen, die Ein- oder Ausfuhr oder der Gebrauch eines Erzeugnisses, welches das Design beinhaltet oder bei dem es verwendet wird. Untersagt werden kann grundsätzlich jede dieser geschützten Handlungen, sofern dies nicht durch den Rechtsinhaber gestattet wurde, Designgesetz (DesignG). Ausnahmen hiervon gewährt DesignG insbesondere für im privaten Bereich zu nichtgewerblichen Zwecken vorgenommene Handlungen, für Handlungen zu Versuchszwecken und für Wiedergaben zum Zwecke der Zitierung oder der Lehre mit Angabe der Quelle und in einem fairen, nicht beeinträchtigenden Umfang. Geschützt werden dabei diejenigen Merkmale der Erscheinungsform eines eingetragenen Designs, die in der Anmeldung sichtbar wiedergegeben sind, Abs. 1 DesignG, und erstreckt sich auf jedes Design, das bei einem "informierten Benutzer" keinen anderen Gesamteindruck hervorruft, Abs. 2 DesignG. Design und Bildrechte. Dem Schutzrechtsinhaber wird ein urheberrechtsähnliches Recht an der gewerblichen Nutzung des Abbilds der geschützten Gegenstände zugesprochen. Nach der älteren Rechtslage war die Aufnahme einzelner Abbildungen in ein Schriftwerk keine verbotene Nachbildung. Die Kommentarliteratur betonte, es könne sich tatsächlich nur um einzelne Abbildungen handeln, ein Musterbuch allein mit Musterabbildungen sei nicht durch die Ausnahme gedeckt. Ergänzend wurde bei der Auslegung der Norm das Urheberrechtsgesetz und insbesondere UrhG zum Beiwerk herangezogen und auch Fernsehaufnahmen bei der Eröffnung einer Ausstellung mit geschmacksmusterrechtlich geschützten Gegenständen als zulässig erachtet. Die sich auf Art. 13 der EU-Geschmacksmusterrichtlinie 98/71 EG stützende Novellierung in GeschmMG formulierte die Begrenzung des Ausschließlichkeitsrechts in Nr. 3: "Wiedergaben zum Zwecke der Zitierung oder der Lehre, vorausgesetzt, solche Wiedergaben sind mit den Gepflogenheiten des redlichen Geschäftsverkehrs vereinbar, beeinträchtigen die normale Verwertung des Geschmacksmusters nicht über Gebühr und geben die Quelle an". Daraus ergibt sich im Umkehrschluss, dass die Wiedergabe von Erzeugnissen dem Rechtsinhaber vorbehalten ist: "Als Benutzungshandlung ist Wiedergabe jede Art und jede Form der Erzeugnisabbildung. Dem VerbietungsR(echt) unterliegt z. B. die Wiedergabe von mustergemäßen Erzeugnissen in Bildbänden". Die Wiedergabe kann etwa durch Lichtbild in einem Verkaufskatalog erfolgen. Abbildungen als Schmuck oder Dekoration fallen nicht unter die Ausnahmebestimmung. Da eine "erläuternde Befassung" nötig ist, kann als sicher gelten, dass etwa der kommerzielle Vertrieb von Postkarten dem Verbotsrecht des Rechtsinhabers unterfällt. Als Quellenangabe kommt nach Eichmann die "Information über die gestalterische und betriebliche Herkunft des Gegenstands der Wiedergabe" in Betracht. Ist der Name des Designers bekannt oder ohne weiteres ermittelbar, muss er angegeben werden. Rechtsprechung zur Frage, welche der Schrankenbestimmungen des Urheberrechts analog gültig sind bzw. wie "Zitierung und Lehre" auszulegen sind, liegt noch nicht vor. Gefordert ist jedenfalls eine Abwägung zwischen den Interessen des Rechtsinhabers und den Interessen desjenigen, der das Muster abbilden möchte. Bei Presseveröffentlichungen im Sinne redaktioneller Berichterstattung ist auf jeden Fall das Grundrecht der Pressefreiheit (GG) in die Waagschale zu werfen. Wer sich forschend mit Produktgestaltungen befasst, darf sicher aufgrund des Grundrechts der Wissenschaftsfreiheit (GG) geschützte Designs in einem Buch über Design abbilden. Dies würde von "Zitierung" abgedeckt werden, während die didaktische Vermittlung etwa an einer Fachhochschule für Gestaltung unter "Lehre" fiele. Ein ICE 3 der Deutschen Bahn AG Die Abbildung eines geschützten Designs wie z. B. des ICE in einem Nachschlagewerk oder einer elektronischen Enzyklopädie dürfte unproblematisch sein, sofern das Bild den entsprechenden Artikel veranschaulicht. Richtet ein freies Projekt aber einen gemeinsamen internationalen Bilderserver ein, auf dem ohne Verklammerung mit entsprechenden Artikeln hochwertige Bilder geschützter Gegenstände kostenfrei und zur beliebigen Verwendung unter einer freien Lizenz zum weltweiten Online-Abruf bereitgehalten werden, so könnte dies eine Verletzung des Schutzrechts darstellen, da man nicht unbedingt von einer "Zitierung" ausgehen kann. Ein deutlicher Unterschied zur Abbildung urheberrechtlich geschützter Gegenstände, soweit diese sich nicht auf die Panoramafreiheit berufen kann, ist nicht auszumachen. Da in der urheberrechtlichen Kommentarliteratur die Ansicht anzutreffen ist, die Abbildung von Fahrzeugen im Straßenverkehr unterliege der Panoramafreiheit, könnte man erwägen, diesen Grundsatz analog anzuwenden. In einem richtungsweisenden Präzedenzfall hat aber 2011 der Bundesgerichtshof entschieden, dass die Abbildung eines Geschmacksmusters nicht „zum Zwecke der Zitierung“ nach Nr. 3 DesignG zulässig ist, wenn sie ausschließlich Werbezwecken dient. Die Fraunhofer-Gesellschaft betreibt eine Forschung, die sich mit Schienenfahrzeugtechnik befasst und die für die Deutsche Bahn eine Radsatzprüfanlage für den Zugtyp ICE 1 entwickelt hat. Im Ausstellerkatalog einer Fachmesse warb die Fraunhofer-Gesellschaft für ihre Leistungen und bildete zu ihrem Produkt den Triebwagen eines ICE 3 ab. Diese Abbildung diene reinen Werbezwecken, weshalb diese Veröffentlichung nicht mehr vom Geschmacksmustergesetz gedeckt sei. Gesellschaftsrecht (Deutschland). In der deutschen Rechtswissenschaft wird mit Gesellschaftsrecht das Rechtsgebiet bezeichnet, das sich mit den privatrechtlichen Personenvereinigungen, die zur Erreichung eines bestimmten Zweckes durch Rechtsgeschäft begründet werden, beschäftigt. Daneben hat das gemeinsame Gesellschaftsrecht der EU-Mitgliedsstaaten in Deutschland Geltung. Geschichte. Die Geschichte des Gesellschaftsrechts behandelt die historische Entwicklung der Normen über privatrechtliche Personenvereinigungen. Erstmals kodifiziert wurden Regelungen zum Gesellschaftsrecht im Preußischen Allgemeinen Landrecht von 1794. Darin enthalten waren Regelungen zur vermögensmäßigen "societas" (der Vorläuferin der GbR), der "moralischen Personen" sowie zur OHG und zur Stillen Gesellschaft. Die weltweit erste gesetzliche Ausgestaltung der Aktiengesellschaft "(société anonyme)" geht auf den französischen "Code de commerce" von 1807 zurück. In Deutschland fand das Gesellschaftsrecht seine erste gesamtdeutsche Regelung durch das Allgemeine Deutsche Handelsgesetzbuch ADHGB von 1861; für die Aktiengesellschaft enthielt dieses noch ein Konzessionssystem, das allerdings schon 1870 wieder aufgehoben wurde. Juristisches Neuland betrat die deutsche Gesetzgebung 1892, als die international unbekannte Form der GmbH im GmbH-Gesetz von 1892 zum Entstehen kam. Die Systematik des deutschen Gesellschaftsrechtes geht in seiner heutigen Form auf das BGB von 1896 (in Kraft seit 1900) und das HGB von 1897 zurück. 1937 wurde aus diesem das Recht der Aktiengesellschaften ausgegliedert. Seit dem letzten Drittel des 20. Jahrhunderts finden wichtige Entwicklungen besonders im Gesellschaftsrecht der Europäischen Union statt. Rechtsquellen. Daneben sind in verfassungsrechtlicher Hinsicht die und Grundgesetz (GG) von besonderer Relevanz. Sachrecht. Durch diese Merkmale wird die "Gesellschaft im weiteren Sinne" definiert. Innerhalb dieser unterscheidet man zwischen "Gesellschaft im engeren Sinne" (Personengesellschaften, beispielsweise die GbR, die OHG und die KG) und Körperschaften (beispielsweise Vereine bürgerlichen Rechts, die Aktiengesellschaft (AG) und die GmbH). Die Personengesellschaft unterscheidet sich vom Verein durch die Abhängigkeit ihres rechtlichen Bestandes von den Gesellschaftern und ihre Organisationsstruktur. Grundform der Personengesellschaften ist nach herrschender Meinung und Systematik des Gesetzes die Gesellschaft bürgerlichen Rechts, Grundform der Vereine der Verein bürgerlichen Rechts. Personengesellschaften. Personengesellschaften sind keine juristischen Personen und besitzen deshalb nach dem Gesetz keine eigene Rechtspersönlichkeit, wenngleich sie in der Praxis – mit Ausnahme der Stillen Gesellschaft – von ihrem Mitgliederbestand unabhängige Träger von Rechten und Pflichten sind. Nichtkapitalistische Körperschaften. Der eingetragene Verein (e. V.) und die rechtsfähige Stiftung sind ebenfalls eigenständige juristische Personen, jedoch keine Kapitalgesellschaften. Der Verein hat Mitglieder, aber nicht notwendigerweise ein Vermögen. Die rechtsfähige Stiftung hat ein dauerhaft dem Stiftungszweck gewidmetes Vermögen, aber keine Mitglieder, Gesellschafter oder Eigentümer. Kapitalgesellschaften. Bei den Kapitalgesellschaften handelt es sich um juristische Personen. Mischformen. Darüber hinaus gibt es Mischformen, die aus mehreren Gesellschaften (Kapital- und Personengesellschaften) zusammengesetzt sind. Dabei tritt eine Kapitalgesellschaft oder Stiftung als persönlich haftende Gesellschafterin einer Personengesellschaft oder KGaA auf. Kollisionsrecht. Das internationale Gesellschaftsrecht (Kollisionsrecht) ist ein Teil des internationalen Privatrechts. Bislang gibt es in Deutschland keine geschriebenen Regelungen dazu. In der deutschen Rechtspraxis war bislang die "Sitztheorie" vorherrschend. Danach ist das Recht des Landes maßgeblich, in dem die Gesellschaft ihren tatsächlichen Verwaltungssitz hat. Das Gegenmodell zur Sitztheorie ist die "Gründungstheorie". Danach ist das Recht des Staates anwendbar, in dem die Gesellschaft gegründet und registriert wurde, und zwar auch dann, wenn die Gesellschaft ihren Verwaltungssitz in ein anderes Land verlegt. Probleme ergeben sich hier allerdings bei den Briefkastengesellschaften; und es ist ein "Race to the bottom" möglich, also ein Zulauf in die Länder, die geringere Anforderungen an die Gründung haben (siehe auch Delaware-Effekt). In der Europäischen Union gilt seit den EuGH-Urteilen "Daily Mail", "Centros", "Überseering" und "Inspire Art" wegen der gebotenen Freizügigkeit auch für juristische Personen die Gründungstheorie – allerdings beschränkt auf Gesellschaften, die in einem Mitgliedsstaat der Europäischen Union oder einem Staat der Europäischen Freihandelsassoziation (mit Ausnahme der Schweiz, die das EWR-Abkommen nicht ratifiziert hat) gegründet wurden. Dies hat in Deutschland auch zu einer starken Zunahme von Limiteds geführt. In jüngerer Zeit gibt es – vor allem im Zuge der neueren höchstrichterlichen Rechtsprechung, wonach in der EU gegründete Gesellschaften aufgrund der europarechtlichen Niederlassungsfreiheit in anderen EU-Mitgliedsstaaten auch dann anerkannt werden müssen, wenn diese Gesellschaften ihren effektiven Verwaltungssitz in ein anderes EU-Land verlegen – zunehmend auch Mischformen mit ausländischen Gesellschaftsformen (z. B. Limited & Co. KG). Gaia (Mythologie). a> Schale entnommen (410–400 v. Chr). Gaia oder Ge (oder, dorisch), deutsch auch "Gäa", ist in der griechischen Mythologie die personifizierte Erde und eine der ersten Götter. Ihr Name ist indogermanischen Ursprungs und bedeutet möglicherweise "die Gebärerin". Ihre Entsprechung in der römischen Mythologie ist Tellus. Abstammung und Entmannung des Uranos. In Hesiods "Theogonie" entsteht Gaia als eine der ersten Gottheiten aus dem Chaos. Ihre Geschwister sind Tartaros, Eros, Erebos und Nyx. Für die Orphiker ist Hydros (Wasser) die Urgottheit, aus der nach ihrer Vorstellung Gaia als einzige Gottheit ohne Befruchtung hervorgegangen ist. Der Mythograph Hyginus nennt als Eltern der Gaia Aither und Hemera. Bei Hesiod gebiert Gaia von Uranos die Titanen, die einäugigen Kyklopen und schließlich die hundertarmigen Hekatoncheiren. Dem Vater sind seine Kinder verhasst, darum hält er sie in Gaia (in der Höhlung der Erde) versteckt und freut sich seiner Tat. Gaia sinnt auf eine List, sie bringt das unzerbrechliche graue Adamant hervor und macht daraus eine gezähnte Sichel. Dann fordert sie ihre Kinder auf, sich gegen den Vater aufzulehnen. Der Titan Kronos folgt ihr als einziger. Als Uranos sich voll Verlangen Gaia nähert, schneidet Kronos ihm mit der Sichel das Geschlechtsteil ab und wirft es fort. Das aus der Wunde des Uranos fließende Blut befruchtet Gaia und sie gebiert die Giganten, die Erinnyen und die melischen Nymphen. In der "Bibliotheke des Apollodor" überredet Gaia aus Ärger darüber, dass Uranus die Hekatoncheiren und die Kyklopen in den Tartaros verbannt hat, die Titanen dazu, über ihren Vater herzufallen. Kronos gibt sie die Sichel, und alle Titanen außer Okeanos wenden sich gegen Uranos. Kronos entmannt ihn, und Gaia gebiert aus seinem Blut die Giganten und die Erinnyen. Die Titanen befreien ihre Geschwister aus dem Tartaros und ernennen Kronos zum höchsten Herrscher. Titanomachie. In der "Theogonie" sagen Uranos und Gaia dem Kronos voraus, dass einer seiner Nachkommen ihn stürzen würde, so wie er seinen Vater entmachtet hat. Kronos verschlingt daraufhin jedes Kind, sobald es von seiner Gemahlin Rhea geboren worden ist. Als Rhea aber den Zeus erwartet, bittet sie Gaia, ihn vor Kronos zu verstecken. Anstatt des Kindes bringt Rhea diesem einen gewindelten Stein, den dieser verschlingt, und Gaia zieht Zeus heimlich in Kreta auf. Als Zeus herangewachsen ist, überredet er die Okeanide Metis, dem Kronos ein Brechmittel in seinen Trank zu geben, sodass er die Kinder mitsamt dem Stein erbricht. Diese geben Zeus zum Dank den Donner, den Zündkeil und den Blitz, die Gaia in sich verborgen hatte. Zeus und seine Geschwister führen daraufhin zehn Jahre Krieg gegen die Titanen, bis Gaia ihnen den Ort zeigt, an dem die Kyklopen und Hekatoncheiren gefangen gehalten werden. Zeus befreit sie und gemeinsam besiegen sie die Titanen und verbannen sie in den Tartaros, wo sie von den Hekatoncheiren bewacht werden. Auf Gaias Rat wird Zeus von den anderen Göttern zu ihrem Obersten gemacht. Auch laut der "Bibliotheke" kann Zeus mit Hilfe der aus dem Tartaros befreiten Hekatoncheiren und Kyklopen die Titanen besiegen. Der Titan Prometheus beklagt sich in "Der gefesselte Prometheus" des Aischylos darüber, dass er vergeblich seine Geschwister gewarnt habe, diese hätten nicht auf die Prophezeiung von Uranos und Gaia hören wollen. Gigantomachie. Die Gigantomachie wird erstmals in der "Bibliotheke" ausführlich beschrieben. Gaia zeugt mit Tartaros aus Ärger über die Gefangennahme ihrer Kinder, der Titanen, die Giganten, die von ihr aufgestachelt werden, den Olymp zu stürmen. Da die Giganten, wie die Olympier vom Orakel erfahren, nicht von der Hand eines Gottes getötet werden können, holen diese Zeus' Sohn Herakles an ihre Seite. Doch Gaia macht sich auf die Suche nach einer Pflanze, die die Giganten dennoch unbesiegbar machen soll. Zeus aber bittet Eos, Selene und Helios darum, kein Licht mehr zu spenden, und findet in der Nacht selbst das Kraut. Die Götter besiegen mit Herakles' Hilfe die Giganten und Gaia zeugt, erzürnt über die Niederlage, mit Tartaros den Typhoeos. In der "Dionysiaka" des Nonnos bittet Hera sie darum, etwas gegen die Taten des Zeus und des Dionysos zu unternehmen, der das erdgeborene Volk der Inder in seinem Feldzug bekämpft hat. Gaia ist darüber so erzürnt, dass sie ihre Kinder, die Titanen und Giganten, aussendet um Dionysos zu bekämpfen und lebend oder tot zu ihr zu bringen. Nachkommen. In der "Theogonie" gebiert Gaia ohne Befruchtung Uranos, Ourea und Pontos. Mit Uranos zeugt sie daraufhin die Titanen Okeanos, Koios, Kreios, Iapetos, Hyperion, Theia, Rhea, Mnemosyne, Themis, Phoibe, Tethys und Kronos, die Kyklopen Brontes, Steropes und Arges sowie die Hekatoncheiren Briareos, Gyges und Kottos. Aus Uranos Blut, das nach der Entmannung von Uranos auf Gaia fällt, wachsen die Giganten, die Erinnyen und die melischen Nymphen, die alle nicht näher benannt werden. Von Pontos bekommt sie die Kinder Nereus, Keto, Phorkys, Thaumas und Eurybia. Als Zeus später den Kronos stürzt und mit den Titanen kämpft, zeugt Gaia mit Tartaros den Typhoeos und sendet diesen gegen die olympischen Götter aus. Sie muss sich aber fügen und die Oberherrschaft des Zeus anerkennen. Nach anderen Hesiod zugeschriebenen Texten zeugt sie mit Poseidon den Laistrygon, und bringt den Skorpios hervor Mit Epaphos ist sie zudem Erzeugerin zahlreicher menschlicher Völker, namentlich der Hemikunoi, Libyes, Aithiopes, Katoudaioi, Pygmaioi, Melanokhrotoi, Skythes, Laistrygones und Hyperboreoi. In Homers "Odyssee" bringt sie den Tityos hervor und in der "Ilias" zeugt sie mit Hephaistos den Erichthonios. Der Epiker Eumelos nennt als Nachkommen der Gaia mit Uranos die Kyklopen und die Hekatoncheiren In den Texten der Orphiker zeugt sie mit Hydros, aus dem sie selbst hervorging, den Kronos und die Ananke. In der archaischen Lyrik werden ebenfalls Nachkommen der Gaia genannt. Bei Alkaios stammen die Phaiaken von ihr ab, bei Simonides der Ätna und bei Bakchylides wird Aristaios genannt. In einem anonymen Fragment werden die Kabiren, Dysaules, Pelasgos, Alalkomeneos und Jarbas genannt. Der Tragödiendichter Aischylos nennt als Nachkommen der Gaia in seinem Stück "Der gefesselte Prometheus" den Riesen Argos, den Titanen Prometheus, sowie die Titanen Okeanos, Kronos und Tethys. Zephir wird in "Agamemnon" genannt und Themis und Phoibe in den "Eumeniden". In dem Stück "Die Schutzflehenden" nennt er noch Palaikhthon. Nach Apollonios gebiert Gaia den Drachen Kholkykos, nach Kallimachos ist sie mit Hephaistos die Mutter des Erichthonios und bei Strabon werden die Korybanten als Kinder genannt. Nach Diodor zeugt sie mit Uranus die Titanen, deren Namen die aus der "Theogonie" sind, sowie die nicht namentlich genannten Kyklopen und Hekatoncheiren und sie gebiert die Korybanten. Vergil nennt in seinem Epos "Aeneis" Enkelados und Koios, sowie Pheme und Tityos als Nachkommen. Nach Ovids "Metamorphosen" gebiert sie den Python und von einem Regenguss befruchtet die Korybanten. Nach den "Fasti" gebiert sie den Ophiotaurus und wird von einem Ochsenfell befruchtet, das mit dem Urin von Zeus, Poseidon und Hermes vollgesogen ist und bringt daraus den Orion hervor. Im "Thebais" von Statius ist Gaia die Mutter des Drachen Nemeios In der "Bibliotheke des Apollodor" zeugt sie mit Uranos die Titanen, Kyklopen und Hekatoncheiren, die auch dieselben Namen tragen, wie bei Hesiod. Als weiterer Titan wird Dione genannt. Wie bei Hesiod wachsen aus ihr die Erinyen und die Giganten aus dem Blut des Uranos hervor, erhalten hier jedoch Namen. Die Erinyen heißen Tisiphone, Megaira und Alekto und die Giganten sind Alkyoneus, Porphyrion, Enkelados, Ephialtes, Eurytos, Klytios, Mimas, Pallas, Polybotes, Hippolytos, Agrios und Thoon. Von Okeanos bekommt sie den Triptolemos, von Tartaros den Typhon und die Echidna, von Poseidon den Antaios und von Hephaistos bekommt sie den Erichthonios. Aus sich selbst bringt sie den Orion und den Argos hervor. Nach Hyginus "Praefatio" zeugt sie mit Aither den Pontos und den Tartaros sowie die Titanen und die Erinnyen. Die Erinnyen heißen bei ihm Briareos, Gyes und Steropes, von den Titanen nennt er Okeanos, Themis, Hyperion, Koios, Kronos, Rhea, Mnemosyne, Dione, Atlas und Polos. Mit Tartaros zeugt sie die Giganten Enkelados, Koios, Astraios, Peloros, Pallas, Emphytos, Rhoikos, Agrios, Ephialtes, Eurytos, Theomises, Theodamas, Otos, Typhon, Polybotes und Iapetos. Als weitere Kinder Gaias mit Aither nennt er Dolor, Dolus, Ira, Luctus, Mendacium, Justiurandum, Ultio, Intermperantia, Altercatio, Oblivio, Socordia, Timor, Superbia, Incestum und Pugna. Nach Hyginus "Fabulae" zeugt sie mit Poseidon den Antaios und gebiert den Kekrops. Zudem wird sie wie bei Ovid von einem Ochsenfell befruchtet und bringt den Orion zur Welt. Nach Hyginus "Astronomica" bringt Gaia den Skorpios zur Welt. In Pausanias "Reisen in Griechenland" wird sie als Mutter des Anax und des Hyllos sowie des Areion genannt. Bei Antoninus Liberalis ist sie die Mutter des Kekrops und bei Flavius Philostratos mit Poseidon die des Antaios. Bei Athenaios ist sie sie Mutter des Sykeus In der "Dionysiaka" des spätantiken Epikers Nonnos werden als Nachkommen Silenos, Tityos und Argos sowie die Korybanten und die Daktylen genannt. Als Mutter der Giganten erscheint sie im Zusammenhang mit den Giganten Alpus und Damasen. Mit Zeus zeugt sie die Zyprischen Kentauren und den Orion, wie bei Ovid und Hyginus befruchtet von einem Ochsenfell. Bedeutung. Gaias Bedeutung in der Mythologie wie im Kult liegt hauptsächlich in der Vorstellung der Griechen über die Erde begründet. Aus dieser Vorstellung leitet sich sowohl Gaias Hauptbedeutung als Muttergottheit ab, die alles Lebende hervorbringt und ernährt, als auch die einer Todesgottheit, die den Menschen nach dessen Tod in ihren Schoß aufnimmt. Sie wurde aber auch als Rachegottheit und Orakelgottheit aufgefasst. Als segenspendende Erdgöttin wird Gaia bereits in einer der Homerischen Hymnen besungen und auch entsprechend kultisch verehrt. In den Mythen und ihren Darstellungen ist dieser Aspekt der bedeutendste. Gaia ist seit Hesiod die Urgöttin in der theogonischen Dichtung. Von ihr stammen die Beherrscher der Welt ab, die Titanen und aus denen die Olympischen Götter, sowie deren Herausforderer die Giganten und Typhon. Dazu ist sie die Mutter des personifizierten Himmels Uranos und des Meeres Pontos und damit die Ahnin eines großen Teils der griechischen Götterwelt. Ihre bereits im Alten Orient angelegte Funktion als Muttergöttin behält sie im Grunde die ganze Antike über bei, wenn auch Abwandlungen stattfanden. So werden ihr und ihrer Göttergeneration in den Theogonien der Orphiker frühere Wesen vorgeschaltet oder seit dem Derveni-Papyrus Nyx stärker betont. Die Darstellung der Gaia ist bei Hesiod ausgeprägt anthropomorph, spätere Dichter stellen sie, besonders bei der Verbindung von ihr mit Uranos, als Naturallegorie dar. Als Todesgöttin ist sie in Attika nachweisbar. In "Die Perser" von Aischylos bittet der Chor die Königin, Spenden in die Erde zu gießen während König Xerxes die chthonischen Götter Gaia, Hermes und Hades anfleht, den Schatten seines Vaters Dareios wieder hinaufzusenden. Im Kult und in Darstellungen zeigt sich diese Bedeutung etwa in Fruchtopfern nach Begräbnissen, in Reliefs auf Sarkophagen oder Idolen in attischen Gräbern. Als rächende Gottheit erscheint sie, wenn Eide auf ihren Namen abgelegt werden, da dies nur bei Göttern geschah, von denen bei Eidbruch Rache zu erwarten war. In der griechischen Religion werden die Schatten der Verstorbenen unter der Erde gerichtet, weshalb Eide besonders auf Gottheiten mit Bezug zur Erde geleistet wurden. In Aischylos' "Choephoren" werden Hermes, alle chthonischen Götter und schließlich Gaia von Elektra angefleht, Rache an Aigisthos für den Tod ihres Vaters zu üben. Nach Pausanias befand sich eine Gaia-Statue am Areopag, an der ihr die Freigesprochenen ein Opfer darbrachten. Als wahrsagende Gottheit erscheint Gaia bereits in Hesiods "Theogonie", als sie dem Kronos sein Schicksal voraussagt. Sie galt als ursprüngliche Inhaberin der meisten chthonischen Orakel, da davon ausgegangen wurde, dass aus der Erde aufsteigende Dämpfe die Priesterinnen erst zu ihren Orakelsprüchen befähigt haben. Darstellung. Die ältesten gesicherten Darstellungen der Gaia finden sich auf attisch-schwarzfigurigen Vasen aus der zweiten Hälfte des 6. Jahrhunderts v. Chr. Sie zeigen sie in voller Figur als flehende Mutter in Darstellungen der Gigantomachie und in Darstellungen des Kampfes zwischen Apollon und Tityos. In Darstellungen der Gigantomachie wird sie nur abgebildet, wenn auch ein Großteil der Olympischen Götter gezeigt wird. Auf Fragmenten schwarzfiguriger Vasen sind Teildarstellungen von ihr erhalten, aus denen sich ihre Gesamtdarstellung erschließen lässt. Auf zwei Fragmenten sind ihre Füße zu sehen, auf einem ihre Arme und Hände und auf dem letzten das Gesicht. Sie trägt einen Peplos und befindet sich in einer zentralen Gruppe olympischer Götter um Zeus, der den Streitwagen besteigt. Die Gruppe bewegt sich nach rechts, Gaia steht links neben dem Wagen, beugt sich zu Zeus vor und berührt von unten dessen Bart. In Darstellungen des Kampfes von Apollon und Tityos gilt sie in drei Fällen als gesichert abgebildet und in fünf weiteren Darstellungen ist ihre Zuschreibung unsicher. Einmal ist sie namentlich genannt, sie steht zwischen Apollon und Artemis auf der einen und Tityos auf der anderen Seite und greift durch Heben ihres Arms in den Kampf ein. In den beiden anderen als gesichert geltenden Abbildungen ist auf Tityos Seite noch Leto zu sehen, Gaia steht zwischen den Kontrahenten. Sie hält ihren Schleier Apollon zugewandt in der Weise, wie eine Braut ihrem Bräutigam gegenübertritt. Der mythologische Hintergrund der Szene ist unklar. Auf den beiden als unsicher geltenden Darstellungen aus dem 6. Jahrhundert kann es sich bei der neben Tityos stehenden Frauengestalt auch um Leto anstatt Gaia handeln. Gegen die Zuordnung Gaias zu den drei rotfigurigen Darstellungen spricht in erster Linie die Darstellung als volle Figur, die nicht der Darstellungskonvention Gaias im 5. Jahrhundert entspricht, auch hier wird die Darstellung Letos vermutet. Gaia steigt aus dem Boden auf und übergibt Erichthonios an Athena. Rechts davon Kekrops. Melisches Relief, um 460 v. Chr. Im 5. Jahrhundert wird Gaia nicht mehr als volle Figur abgebildet, sondern als Torso, der aus dem Boden aufsteigt. Die ersten bekannten derartigen Darstellungen zeigen sie im Zusammenhang mit der für die athenische Aitiologie bedeutenden Geburt des Erichthonios. Gaia steigt aus dem Boden, um Athena den Erichthonios zu übergeben, meist in Gegenwart Kekrops und weiteren Personen, manchmal in Gegenwart von Hephaistos. Auf der ältesten dieser Vasen ist sie ab der Taille abgebildet und reicht der auf sie zuschreitenden Athena das Kind, daneben stehen Kekrops und Hephaistos. Sechs der neun weiteren attischen Vasen sind rotfigurig, die Darstellung wird jeweils nur leicht variiert. Zwei Darstellungen variieren nur die Anwesenden, zwei zeigen sie schon weiter aufgestiegen ab den Knien beziehungsweise der Hüfte und bei einer ist die Übergabe des Kindes bereits vollzogen. Bis auf die letzte Darstellung ist sie immer frontal abgebildet. Von drei schwarzfigurigen Loutrophoroi sind Fragmente mit diesem Motiv erhalten. Die Darstellung auf diesen Kultgefäßen, die zu Hochzeiten und Begräbnissen genutzt wurden, steht wahrscheinlich in Bezug zu Gaias Heiligtum auf der Akropolis, bei dem ihr Voropfer dargebracht wurden. Neben attischen Vasen findet sich das Motiv auf einem Kantharos aus dem Osten Griechenlands, auf drei Steinreliefs und einem melischen Relief sowie auf einem Stater von Kyzikos. Die Steinreliefs stammen aus der römischen Epoche, es wird jedoch angenommen, dass es sich bei ihnen um Reproduktionen des um 420 v. Chr. errichteten Frieses am Fuß der Kultstatuen handelt, die sich im Hephaisteion befanden. Auf dem melischen Relief ist Gaia von den Schultern aufwärts zu sehen und zeigt die Szene gegenüber anderen Darstellungen spiegelverkehrt, woraus geschlossen wird, dass es mithilfe eines Abgusses angefertigt wurde. Gefunden wurde das Relief in einem athenischen Grab. Auf dem Stater ist sie mit Erechthonios von den Hüften an aufwärts zu sehen. Das Motiv der aus dem Boden aufsteigenden Gestalt wurde in der Klassik losgelöst von Gaia im Kontext der Geburten Aphrodites, Pandoras und Persephones verwendet. Das Motiv wird in der Klassik auch zur Darstellungen Gaias in der Gigantomachie übernommen. Auf einer Schale ist sie am Rand einer Schlachtenszene mit leicht erhobenen Armen ab den Oberschenkeln zu sehen und auf einem Krater, auf dem wegen der ausführlichen Darstellung der Schlacht vermutlich die Bemalung des Parthenos-Schildes wiedergegeben ist, erscheint sie am Rand mit voll erhobenen Armen. Die Giganten befinden sich durchgängig auf einer niedereren Ebene als die Götter, die vom Himmel herab kämpfen. Im Hellenismus erscheint Gaia meist in groß angelegten Darstellungen der Gigantomachie. Auf dem Ostfries des Pergamonaltars ist sie als Torso dargestellt, der sich jedoch nicht am Rand des Kampfes befindet, sondern ähnlich wie in den frühesten Darstellungen inmitten einer Kampfszene. Das Gleiche ist für das Fries aus dem Athenaheiligtum in Priene festzustellen. Auf einer etruskischen Relief-Urne steht sie schützend hinter einem am Boden liegenden Giganten. Da der Körper des Giganten ihren unteren Teil bedeckt, ist unklar ob sie als ganze Figur oder als aufsteigender Torso gedacht wurde. In der römischen Kunst erscheint sie auf den oben genannten Reproduktionen des Hephaisteion-Frieses und in wenigen anderen Darstellungen, auf denen sie namentlich genannt wird. In weiteren Darstellungen des Gaia-Motives, bei denen die namentliche Zuordnung nicht möglich ist, wird die Darstellung von Tellus angenommen. Kult. Eine kultische Verehrung der Gaia gab es in erster Linie in Athen, wo sie auch als Kurotrophos verehrt wurde. Ein ständiger Kult ist von Athen abgesehen in der Regel nur an entlegenen Orten oder an Orakelstätten zu finden. Verehrt wurde sie meist in ihrer segenspendenden Bedeutung als Muttergottheit, aber auch als Todesgottheit und als rächende Gottheit. Der vermutlich älteste Kultort ist das Temenos der Ge Olympia in Athen. Es befand sich im Peribolos des Hieron des Zeus Olympios neben einem Tempel des Kronos und der Rhea. In dem Temenos befand sich ein Erdspalt, in den sich die Deukalionische Flut verlaufen haben soll und in diesen wurde jährlich ein Opferbrei aus Honig und Weizenmehl geworfen. Als Kurotrophos hatte sie einen Altar im Pandroseion, dem Heiligtum des Pandrosos auf der Akropolis. Mit Pandrosos und Athena Polias bildete Ge Kurotrophos dort eine Trias, der von den athenischen Amtsträgern geopfert wurde. Wahrscheinlich wurden für sie und Pandrosos dort an den Panathenäen je ein Stuhl aufgestellt, um sie an den Feierlichkeiten teilhaben zu lassen. Einen Tempel hatte sie neben dem Tempel der Demeter Chloe unterhalb des Niketempels. Gaia Kurotrophos wurde in Athen als Ernährerin der Kinder verehrt, von denen sie deshalb durch Tänze gefeiert wurde. König Erichthonios soll eingeführt haben, dass ihr deshalb vor jedem Opfer ein Voropfer gebracht wird, das vermutlich auch aus Getreide und Honig bestand. Weitere Opfer wurden der mütterlichen Gaia zu Hochzeiten und Festen dargebracht. Der rächenden Göttin wurden von Freigesprochenen an ihrer Statue am Areopag geopfert und der Todesgöttin bei Begräbnissen, geopfert wurden ihr hierbei Früchte. Ebenfalls Früchte wurden ihr an dem chthonischen Fest Genesia geopfert und ein Getreideopfer wurde ihr zur Procharisteria dargebracht Zu den Thesmophorien wurde sie als Kurotrophos angerufen. Karte des Heiligtums von Delphi In Delphi galt Gaia als erste Inhaberin des Orakels, bis sie es an Themis, der Inhaberin vor Apollon, abtreten musste. Es wurde davon ausgegangen, dass die Pythia durch aus der Erde aufsteigender Dämpfe inspiriert sei, womit Gaia als erste Inhaberin zu erklären ist. Einen Tempel hatte sie der Nähe des Apollonheiligtums, wo sie den Beinamen Eurusternos trug. Die Priesterin des noch in später Zeit besuchten Orakels bei Aigai sollen, um Gaia um Rat zu fragen, Ochsenblut getrunken und in eine Höhle hinabgestiegen sein. Hier hatte sie einen Tempel, in dem ein altes Xoanon stand. Die Priesterin des Tempels durfte nur mit einem Mann verkehrt haben und musste danach zölibatär leben. In Olympia befand sich ein Aschenaltar neben einem Altar der Themis, der nach Pausanias zuvor ein Orakel gewesen war. Sie soll auch neben Zeus im Orakel von Dodona verehrt worden sein und möglicherweise ist ihr noch der frühere Besitz des Trophoniosorakels von Lebadeia zuzurechnen. In der historischen Zeit ist Gaia als Orakelgottheit außer im Orakel von Aigai von Zeus und Apollon verdrängt worden. Möglich ist auch, dass manche Orakelorte durch ihre Bezugnahme auf Gaia ihren Anspruch auf Alter und Authentizität ausdrücken wollen, ohne dass Gaia dort tatsächlich ein Orakel geweiht gewesen war. Im attischen Demos Phlya, wo sie mit Beinamen Megale als Naturgottheit verehrt wurde, hatte Gaia einen Altar. Auch wurden hier Orgien für sie gefeiert, die älter als die Mysterien von Eleusis gewesen sein sollen. In einem Heiligtum in Patrai wurde sie sitzend dargestellt, während die Fruchtbarkeitsgöttinnen Demeter und Kora neben ihr standen. Ein weiteres Heiligtum befand sich auf der Agora von Lakedaimon und ein weiterer Altar in Tegea neben einem Tempel der Geburtsgöttin Eileithyia. Da sie vor allem in ihrer Bedeutung als Muttergöttin verehrt wurde, bestanden die ihr dargebrachten Opfer in der Regel aus Getreide, Früchten oder Honig und vereinzelt aus Tieropfern. Als Rachegöttin wird ihr allein in der "Ilias" vor dem Kampf zwischen Paris und Menelaos ein schwarzes Lamm geopfert. In Attika wurde ihr zu Hochzeiten und zu Begräbnissen geopfert und bei Trockenheit wurde sie nach einer Inschrift auf der Akropolis anstatt der Vegetationsgöttin Demeter als Gaia Karpophoros als Vermittlerin zu Zeus angerufen. Die Einführung des Opfers bei Begräbnissen wird von Cicero dem Kekrops zugeschrieben. In der attischen Tetrapolis wurden ihr im Monat Poseideon eine trächtige Kuh, im Gamelion ein Schaf und am 10. Elaphebolion ein schwarzer Bock geopfert. Aus Mykonos ist überliefert, dass dort jährlich am 12. des Monats Lenaion (Januar–Februar) Opfer an Dionysos Lenaios, Zeus Chthonios und Ge Chthonia gebracht wurden. Fremde durften an diesem Opfer nicht teilnehmen. Rezeption. Bis zur Moderne haben bildende Künstler sich mit Gaia beschäftigt und versucht, ihr eine Form zu geben. In Anlehnung an die griechische Mythologie nannten die Wissenschaftler Lynn Margulis und James Lovelock ihren Denkansatz, die Erde mit einem Organismus gleichzusetzen, Gaia-Hypothese. Diese Wahl hat sicherlich zur großen Popularität der Hypothese beigetragen, führte jedoch auch zu esoterischen Auslegungen, von denen sich die Autoren distanziert haben. Nordische Mythologie. Als nordische Mythologie bezeichnet man die Gesamtheit der Mythen, die in den Quellen der vorchristlichen Zeit Skandinaviens belegt sind. Allgemeines. Die nordischen Mythen sind zum Teil den kontinentalgermanischen Mythen sehr ähnlich. Man geht heute allgemein davon aus, dass die Göttergesellschaft ursprünglich dieselbe war. Gleichwohl haben sich Kulte, Namen und Mythen in den verschiedenen Räumen im Laufe der Zeit auseinanderentwickelt. Die nordische Mythologie basierte nie auf einer religiösen Gesellschaft oder auf einem zusammenhängenden religiösen System. Sie war also nie so etwas wie eine Religion im modernen Sinn. Es gab auch keine Instanz, die den Glaubensinhalt festlegte. Die Mythen waren eher ein theoretischer Überbau für bestimmte Kultformen und hatten wenig mit Glauben in unserem Sinne zu tun. Gleichwohl finden sich immer wieder Versuche in der Forschung, zu ermitteln, was der “ursprünglichste” und „echteste” Glaubensinhalt gewesen ist. Ein solches Qualitätsurteil lässt sich kaum treffen, zumal eine Religion immer als „echt” von dem erlebt wird, der sie ausübt. Es gibt nur sehr wenige schriftliche Zeugnisse aus der Zeit der mythischen Kulte. Es handelt sich dabei um die in Metall oder Stein geritzten Runen. Die meisten Quellen stammen hingegen aus römischen und christlichen Schriften. Diese sind weder aus erster Hand, noch neutral. Die zusammenhängende Darstellung und der enzyklopädische Charakter der Völuspá werden nicht der vorangegangenen oralen Tradition zugerechnet. Man muss auch berücksichtigen, dass die skandinavischen Dichter Elemente der christlichen Religion verwendet haben, ohne deren Inhalt zu übernehmen. Archäologische Quellen. a> Andeutungen über religiöse Vorstellungen der Vorzeit lassen sich auch aus bronzezeitlichen Artefakten ablesen. Bekannt sind schalenförmige Eintiefungen in Felsen, die mit Opfern in Verbindung gebracht werden. Felsritzungen lassen auf schamanistisch-magische Praktiken schließen. Ob die Mythen inhaltlich irgendetwas mit dem zu tun haben, was auf uns überkommen ist, lässt sich nicht feststellen. Das Rad mit vier Speichen als Felsritzung lässt manche auf einen Sonnenkult in der Bronzezeit schließen, für den eine mythische Grundlage aber nicht überliefert ist. Das Gleiche gilt für Miniaturäxte, die mit dem Blitz in Verbindung gebracht werden. Der Sonnenwagen von Trundholm, ein 1902 auf Sjælland in Dänemark gefundenes 57 cm langes Bronzemodell eines von Pferden gezogenen Wagens, der in die Zeit von 1500 bis 1300 v. Chr. datiert wird, belegt jedenfalls keinen Sonnenkult. Es ist aus religionsphänomenologischer Sicht nicht völlig sicher, dass mit den steinzeitlichen Kulten bereits Götter als lebende Wesen verbunden waren. Es ist auch gut möglich, dass der Blitz, Bäume, Steine, Erde und Wasser selbst als lebendig betrachtet wurden. Götter als Personen sind in der Bronzezeit durch Felszeichnungen und Bronzefiguren belegt. Nun werden in großer Zahl kleine Boote aus Gold und andere Gegenstände angetroffen, die auf Opfer schließen lassen. Opfergefäße auf Wagen lassen auf Fruchtbarkeitskulte schließen, die mythologisch bereits mit der nach Tacitus pangermanischen Gottheit Nerthus in Verbindung gebracht zu werden pflegen. Die Feuerbestattung, die in der zweiten Hälfte des 2. Jahrtausends v. Chr. üblich wurde, wird als Mittel der Befreiung der Seele vom Körper für ein jenseitiges Leben gedeutet. Ab dem 4. Jh. n. Chr. finden sich Schiffsbestattungen verschiedenster Form. Menschen werden in voller Kleidung und mit reichen Beigaben bestattet. Man findet Münzen wohl analog zum Obolus aus der griechischen Mythologie im Mund des Toten, mit dessen Hilfe er die Überfahrt der Seele ins Totenreich bezahlen soll. Dass das gleiche sehr spezielle Motiv zu dieser Zeit unabhängig vom kontinentalen Kulturkreis entstanden sein sollte, darf als unwahrscheinlich gelten, so dass von einer Motivwanderung von Süden nach Norden ausgegangen werden kann. Weitere Quellen sind die skandinavischen Brakteaten mit Götterdarstellungen und Runeninschriften sowie Votivgaben aller Art. Alle diese archäologischen Zeugnisse bedürfen für ihre konkrete Deutung der Schriftquellen. Als Snorri Sturluson sein Skaldenlehrbuch um 1225 schrieb, war der geschilderte mythologische Stoff von Skandinavien bis Bayern bekannt. Er schildert zum Beispiel die Midgardschlange als ein Tier, das um alle Lande herum im Meer liegt und sich selbst in den Schwanz beißt. Dieser Text deutet die Darstellung der sich in den Schwanz beißenden ringförmigen Schlange auf dem Goldmedaillon von Lyngby aus dem 5. Jahrhundert, auf dem englischen Steinkreuzfragment von Brigham aus dem 8. Jahrhundert, auch den Ring in einem Pfeilerdienst der Neuwerkkirche in Goslar aus dem 12. Jahrhundert und auf dem spätromanischen Taufbecken von Fullösa in Schonen. Seine Überlieferung ist der wichtigste Schlüssel zur germanischen Ikonografie der Mythen. Bildliche Darstellungen, die keiner textlichen Überlieferung zugeordnet werden können, wie dies für die Felsritzungen der Bronzezeit gilt, sind über den konkreten Gegenstand der Darstellung hinaus nicht zu interpretieren. Allgemeine Quellen. Die ältesten Quellen über Mythen nördlich der Alpen stammen aus dem 1. Jh. n. Chr. und sind von Tacitus überliefert. Andere Quellen sind Votivsteine germanischer Soldaten in römischen Diensten. Sie sind häufig schwer verständlich, weil sie sehr kurz sind und die Kenntnis über mythische Zusammenhänge bereits voraussetzen. Außerdem bezeichnen sie die germanischen Götter in der Regel mit den lateinischen Namen der entsprechenden römischen Gottheiten. Als weitere Quellen kommen Verfasser wie Prokop, Jordanes, Gregor von Tours, Paulus Diaconus und Beda Venerabilis hinzu und Beschlüsse von Kirchensynoden und Gesetze, insbesondere von Burchard von Worms, päpstliche Rundschreiben und Predigten. Sie lassen Rückschlüsse auf die religiöse Praxis des einfachen Volkes auf dem germanischen Kontinent zu, an die sich dann Nachrichten über spätere Zeiten anschließen. Außerordentlich selten sind Quellen in einer germanischen Sprache, wie die "Merseburger Zaubersprüche", der Text auf der Nordendorfer Spange, die angelsächsischen Stammtafeln, Glossen mit Personen und Ortsnamen und die Andeutungen in den Heldensagen. Alle diese Quellen betreffen aber Mythen und religiöse Praktiken der kontinentalen Germanen, und die Schlüsse daraus lassen sich trotz der Verwandtschaft nicht ohne weiteres auf Skandinavien übertragen. Skandinavien ist mit schriftlichen Quellen reicher gesegnet, in aller Regel in altisländischer Sprache. Allen voran steht die "Lieder-Edda", die "Prosa-Edda" des Skalden Snorri Sturluson, wobei bei seinen Texten immer beachtet werden muss, dass sie in einer bereits christlich geprägten Kultur verfasst worden waren. Aber auch andere Skalden- und Prosatexte sowie lateinische Berichte wie die des Adam von Bremen, des Thietmar von Merseburg, des Saxo Grammaticus, die "Vita Ansgarii" des Rimbert. Sogar in der samischen und in der finno-ugrischen Mythologie finden sich Gestalten, die nordgermanische Entsprechungen haben: Hora-galles entspricht dem Thor, Väralden olmai (isl. veraldar guð, Frey), Biegga-galles (Windgott, Sturmgott, Njörd oder Odin). Der schamanistische Odin und die Art wie er seine besondere Sehergabe erhält, ist höchstwahrscheinlich finno-ugrischen Ursprungs. Es ist umstritten, ob das, was die gelehrten norwegischen und isländischen Quellen über die nordische Mythologie berichten, auf Einflüsse der griechischen Mythologie und des christlichen Gedankengutes zurückzuführen ist. Es hat sicherlich nicht zum Glauben im Volke gehört. Einiges kann auch auf Missverständnissen christlicher Verfasser über mythische Vorstellungen und Zusammenhänge beruhen. Sørensen meint, dass die Lieder–Edda genuin heidnische Tradition wiedergibt: Zum einen enthalte die Darstellung der Götter keinen Bezug zum Christentum, auch nicht zu christlicher Moral. Zum anderen betont Snorri selbst den scharfen Unterschied zwischen dem, was er niederschreibt und dem Christentum: Snorri verstand also seine Überlieferung als echt heidnisch und für Christen nicht ungefährlich. Ein Einfluss lässt sich insbesondere für die Einrichtung von „Tempeln“ vermuten, die in lateinischen Texten erwähnt werden. Denn es gibt kein entsprechendes Wort für das lateinische Wort "templum" in norrön, und es sind auch nicht die leisesten archäologischen Spuren heidnischer Gotteshäuser gefunden worden. Daher lässt sich nicht mit Sicherheit sagen, welchen Gegenstand die Verfasser mit dem Ausdruck "templum" belegt haben. Alles spricht für einen Opferkult unter freiem Himmel mit Gelage im Wohnhaus des Goden. Allerdings sind für das Festgelage auch große Hallen nachgewiesen (z. B. Borg auf den Lofoten mit 74 m Länge, Gudme auf Fünen und Lejre auf Seeland mit 47 m). Auch die Ortsnamen auf -hov deuten auf solche zentralen Kultstätten hin. Nach allem, was man weiß, dürfte der Gebäude-Tempel in Uppåkra eine Ausnahme gewesen sein. Der Glaube im Volk über die Seelen der Verstorbenen und die Naturereignisse entspricht im Wesentlichen dem, was in ganz Europa geglaubt wurde, was auch durch den übereinstimmenden Volksglauben in jüngerer Zeit und auch die ähnliche Nomenklatur für Alben, Zwerge, Nachtmare, Wichtel und Nöck bestätigt wird. Nachrichten über solche Gemeinsamkeiten im Glauben der frühen germanischen Zeit finden sich in dem gemeinsamen Zug, über Bäume und Flüsse hinaus auch die Sonne, den Mond und das Feuer zu verehren. Eine systematische Mythologie, die dem Volksglauben zu Grunde liegt, lässt sich aus den Quellen aber nicht entwickeln. Die Traditionen waren auch nicht einheitlich. So schreibt Snorri z. B. in Gylfaginning über Odin: und kurz darauf: Hier hat Snorri also zwei unterschiedliche Traditionen über die Eltern von Jörð unverbunden nebeneinander gestellt. Auch stehen ein vertikales Weltbild mit Göttern im Himmel und ein horizontales Weltbild mit dem Wohnsitz der Götter im Mittelpunkt der Erdscheibe nebeneinander. Baldur wohnt in Breiðablik, Njörd in Noatún und Freya in Folkwang, alle im Himmel lokalisiert. Andererseits heißt es, dass die Asen eine Burg Asgard mitten in der Welt bauten und dort wohnten. Es wird sowohl vertreten, dass beides unterschiedliche heidnische Traditionen seien, als auch, dass das vertikale Weltbild einen christlichen Einfluss widerspiegle. Die Unbestimmtheit des Mythos wird bei Snorri eindeutig gemacht. Das Wort „á“ in der zweiten Zeile, das auf, neben, nahe bei bedeuten kann, wird bei Snorri zu „uppi“ – oben drauf. Der nicht näher identifizierte „Lærað“ wird als Baum definiert. Gylfaginning sagt nicht, was die Ziege von den Zweigen frisst, Snorri legt es fest: Es sind Blätter. Auch woraus der Met rinnt, klärt erst Snorri. Der Met geht bei Gylfaginning nie aus. Snorri ergänzt, dass die Einherjer volltrunken werden. In Gylfaginning hat alles Wasser seinen Lauf von den Tropfen aus dem Hirschgeweih. Snorri zählt alle Flüsse auf. Nichts bleibt in mythischer Schwebe, alles wird genau festgelegt. Darin sieht Kure und die von ihm zitierte Forschung den Haupteinfluss christlicher Bildung auf die Darstellung der heidnischen Mythen und weist darauf hin, dass auch die gegenwärtige Forschung auf diese Mythen durch die Brille Snorris blickt. Als weitere schriftliche Quellen können Inschriften gesehen werden. Sie sind auf Brakteaten, Weihe-, Votiv- und Bildsteinen zu finden. Quellen für die Götternamen. In Skandinavien wurde bei den Göttern Frey, Freya, Njörd und den Asen, vor allem bei Thor geschworen. So rief Egil Skallagrimsson in der "Egils saga" 934 einen Fluch von Odin, Frey und Njörd herab, und in "Skírnismál" werden Flüche im Namen Odins, Thors und Freys beschworen. Für Trondheim sind für das 10. Jh. Trinksprüche beim Opfer für Odin, Njörd und Frey überliefert. Die "Flateyjarbók" nennt ebenfalls Odin, Frey und die Asen. Auch Adam von Bremen nennt Wodan, Frey und Thor als Götter im Zusammenhang mit dem Opferfest von Uppsala. Thor wird auch im Tempel von Håkon Jarl in Lade erwähnt. Aus der Überführung römischer Wochentage in eine germanische Nomenklatur lässt sich entnehmen, welche germanischen Götter als Entsprechung zu den römischen gesehen wurden. "Dies mercurii" wurde zu "onsdag" (Mittwoch), dem Tag des Wodan/Odin, denn beide führten die Toten zu ihrer neuen Wohnstatt. "Dies Jovis" wurde zu "Thorsdag" (Donnerstag), was eine Entsprechung von Jupiter und Thor beinhaltet. Thor konnte auch mit Herkules identifiziert werden. Was dem einen die Keule war, war dem anderen der Hammer. "Dies Martis" wurde in "Tisdag" (Dienstag) verwandelt, womit Mars und Tyr, ein sehr alter Kriegsgott, in Entsprechung gesetzt wurden. Nach Tacitus verehrten gewisse germanische Völker die Göttin "Nerthus", der im Norden der Gott Njörd entspricht. Es ist denkbar, dass die Göttin der Fruchtbarkeit bei den Sueben in der Nachbarschaft, die Tacitus als "Isis" bezeichnet, mit dieser Nertus identisch ist. Es ist auch unsicher, ob Frey, Freya und Ull in den Quellen überhaupt Eigennamen sind oder nicht vielmehr Bezeichnungen für Götter mit anderem Namen, wie dies bei "des Landes Gott" oder "Ásabraqr" für Thor bekannt ist („Þórr heißt Atli und Àsabragr“ heißt es in der "Prosa-Edda"). Es sieht nämlich so aus, als ob es urgermanisch eine Dreiheit von Hauptgöttern gegeben habe, einen Himmelsgott (erst "Tyr", später "Thor"), einen männlichen/weiblichen für die Erde, zu der auch das Meer gehörte, und der Fruchtbarkeit ("Nertus, Njörd, Frey, Freya") und einen unterirdischen Gott des Totenreiches ("Wodan, Odin"), die man in Krieg und Gefahr anrief. Prokop berichtete im 6. Jh., dass die Einwohner Thules (Norwegen) eine große Zahl von Göttern und Geistern im Himmel, in der Luft, auf der Erde im Meer und in Quellen und Flüssen verehrten. Man opfere ihnen allen, aber dass "Ares" (Mars) – also Tyr – ihr höchster Gott sei, dem sie Menschen opferten. Das "sächsische Taufgelöbnis", das in einer Fuldaer Handschrift des 8. Jahrhunderts überliefert ist, ermöglicht, die Namen der für die Sachsen wohl wichtigsten Götter kennenzulernen. Es lautet: „Ich widersage allen Werken und Worten des Teufels, Thor, Wodan und Saxnot und allen Unholden, die ihre Gefährten sind“. In den Merseburger Zaubersprüchen werden die Götter "Phol" (Balder), "Uuodan" (Wodan), "Sinhtgunt" (umstritten, aber wahrscheinlich der Mond), "Sunna" (Sonne), "Friia" (isl. Frigg auch Freya) und ihre Schwester "Uolla" (isl. Fulla) genannt. Gewisse Götternamen treten oft gemeinsam auf, "Njörd, Tyr" und "Thor", oder "Freya, Ull" und "Thor". Nach der "Völuspá" ist die Welt von "Burrs" Söhnen "Odin, Vile" und "Ve" geschaffen, und die Menschen erhielten ihr Leben von "Oden, Höner" und "Lodur". Auch die Ortsnamenforschung fördert alte Götternamen zu Tage: "Thor", "Njord", "Ull", "Frey", "Odin", "Tyr", "Frigg", "Freya", mit den schwedischen Beinamen "Härn" und "Vrind", möglicherweise auch "Vidar, Balder, Höder" und "Skade". Von den Namen der Göttergeschlechter kommen "gud, as, dis", wahrscheinlich auch "van" vor. Die Mythen. Man kann anhand der Votivtexte von einem ausgeglichenen und zuversichtlichen Verhältnis zu den schicksalbestimmenden Mächten bei der bäuerlichen Bevölkerung ausgehen. Ganz anders ist die von den Skalden überlieferte Mythologie, wie sie in den Edda-Liedern vorgetragen wurde. Hier herrscht ein tiefer Pessimismus vor. Die Götterwelt der Germanen begründet sich auf drei Geschlechter, die alle aus dem Urchaos Ginnungagap und dem Urrind Audhumbla hervorgingen: Das Geschlecht der Riesen und Ungeheuer, zu denen praktisch alle bösen Wesen gehörten, die auch für Naturkatastrophen verantwortlich gemacht wurden, kam als erstes auf die Welt. Dieses Geschlecht hat die Macht, die Welt zu vernichten. Damit dies nicht passiert, wurden Wanen und Asen geschaffen. Sie halten alles im Gleichgewicht, bis sich das Schicksal der Götter in einem finalen Kampf erfüllt, infolgedessen es zu einem Krieg zwischen Riesen und dem Asen-Wanen-Bund kommt, dem sich die gefallenen Menschenkrieger anschließen und in dem die ganze Welt vernichtet wird, um wiedergeboren zu werden. Die Wanen, das zweitälteste Geschlecht, wurden als äußerst geschickt, erdgebunden und weise verehrt und lebten ewig, sofern sie nicht erschlagen wurden. Die Asen, das jüngste Geschlecht, galten als äußerst mutig und stark, aber nicht sehr klug, was man auch in der Edda nachlesen kann. Ihr Ewiges Leben verdanken sie einem Trunk, der sie gewissermaßen abhängig von den Wanen machte. Hauptgott der Asen war Odin, ursprünglich vielleicht Tyr. Hauptgott der Wanen war der Meeresgott Njörd bzw. dessen Zwillingskinder Freyr und Freya. Asen und Wanen fochten einen großen Krieg aus, bei dem die Asen als Sieger hervorgingen, wobei die Wanen weiterhin eine geachtete Stellung innehatten. Beide Geschlechter lebten versöhnt und nebeneinander, bis die Christianisierung der Germanen einsetzte. Daraus ergeben sich auch verschiedene Schöpfungsmythen: so ist sowohl Tyr als auch Odin Schöpfer der ersten Menschen. Odin war ursprünglich der Hauptgott der Westgermanen, wobei er sich nordwärts über ganz Europa verbreitete. Für die Nordgermanen spielte ursprünglich Nerthus eine große Rolle, doch schon früh verschmolz ihr Kriegsgott Wodan mit dem Kriegsgott Odin und wurde so zum Hauptgott. Auch die Ostgermanen übernahmen Odin schließlich als Hauptgott. Daher wird in der Nordgermanischen Religion Odin immer als oberster Gott angesehen. Odin war ein Gott über alle anderen Götter. Odin war zuvorderst Kriegs- und Todesgott, und erst in zweiter Linie ein Weiser. Der Name „Odin“ leitet sich vom altnordischen Wort „óðr“ her, das „wild, rasend“ bedeutet. Daher war er der Gott der Ekstase und des rasenden Kampfes. Er war nicht ein nordischer, sondern ein gemeingermanischer Gott. Er war auch Hauptgott der Angeln, der Sachsen, die ihn Wodan nannten, was Inschriften bekräftigen. Die Sage um Odin reicht auch weit zurück, denn bereits die Römer wussten, dass die Germanen einen Gott verehrten, der ihrem Mercurius ähnelte. Odin hatte nur ein Auge, das andere hatte er dem Jöten Mimir verpfändet, der über den Brunnen der Weisheit am Lebensbaum Yggdrasil gebot, wofür er aus dem Brunnen trinken durfte – er opferte also sein körperliches Auge für ein geistiges, mit dem er Dinge sehen konnte, die anderen verborgen waren. Auch die Magie der Runen hatte er von Mimir gelernt. Nach der Völuspá hatte Odin einst den ersten Krieg verursacht: „In die Feinde schleuderte Odin den Speer. Das war der erste Kampf der Völker.“ Als Ekstatiker und Magier war Odin in der Lage, seine Gestalt zu wechseln. Woher dieser schamanistische Zug in Odin kommt, ist nicht bekannt, möglicherweise aus dem Osten, wo der Schamanismus verbreitet war. Thor war vor allem der Gott der Bauern. Seine wichtigste Eigenschaft war seine gewaltige Kraft. Darüber hinaus hatte Thor seinen Hammer Mjölnir. Thor beschützte sowohl Götter als auch Menschen gegen die Jöten, die feindlichen Mächte in der Welt. Thors Kampf mit der Midgardschlange ist der Mythen liebstes Thema. Diese war ein eiterspeiender Wurm draußen im Ozean, der so lang war, dass er den Erdkreis umfasste. Odin und Thor gehörten zu den Asen. Zu dieser Göttergruppe zählten auch Balder, Heimdall, Bragi und Ullr. Frigg, Odins Frau, Siv, die Frau Thors, und Idun waren Wanen. Daneben gab es noch Nornen, Folgegeister und Walküren. Sie alle hatten ihre Aufgabe und Rolle in der sozialen Weltordnung wie auch bei der Beschreibung von Naturereignissen. Die Nornen Urd, Verdandi und Skuld spinnen den Lebensfaden eines jeden Menschen. Die Folgegeister sind Geister, die die Menschen begleiten, die Walküren Odins Sendboten. Hinzu kommen weitere Wesen in der Natur: Zwerge, Elfen und Geister. Die Jöten waren die Hauptwidersacher der Asen. Sie symbolisierten die unbeherrschbaren Naturkräfte. Ihr Stammvater war der Urriese Ýmir, der der Urgrund der geschaffenen Welt war. Als Odin Ýmir tötete, entstanden aus seinem Blut Bäche, Flüsse und das Meer, aus seinen Knochen wurden die Steine, sein Fleisch die Erde und seine Haare das Gras und der Wald. Sein Schädel ist das Himmelsgewölbe. Die ersten Menschen, Ask und Embla, wurden allerdings von Odin erschaffen. Ein anderes Göttergeschlecht waren die Wanen. Zu ihnen gehörten Freyr und Freya sowie deren Vater Njörðr, der in Vanaheimr aufgewachsen war. Die Wanen waren Fruchtbarkeitsgötter. Zwischen Wanen und Asen gab es Krieg, der aber mit einem Bündnis endete. Es gibt Spekulationen über einen historischen Hintergrund, nämlich dass asengläubige Krieger wanengläubige Bauern unterworfen hätten oder einfach nur der Wanenkult von einem Asenkult abgelöst worden sei oder auch, dass hier verschiedene Lebensentwürfe gegeneinander gestellt werden sollten. Der Kampf der Asen gegen die Jöten, der Kampf Gut gegen Böse, ist ein Gemeingut vieler Religionen. Aber im Unterschied zum Christentum siegt bei den Nordleuten nicht das Gute. Vielmehr sind der Untergang und der Tod der Götter (Ragnarök) vorbestimmt. Dass die Edda nach dem Untergang der Welt eine neue Welt erstehen lässt, ist möglicherweise auf christlichen Einfluss zurückzuführen. Im nordischen Heidentum der gebildeten Oberschicht gab es keine christliche Hoffnung; der Pessimismus dominierte. Das Weltbild. Das Weltbild der Bewohner Skandinaviens war stark von ihren Mythen und Sagen geprägt, wobei unklar ist, wieweit deren Vorstellungen in der Bevölkerung verbreitet war. Die überlieferten Mythen beschreiben, was in der königlichen Hofgesellschaft, einer Kriegerkaste, vorgetragen wurde. Im Knotenpunkt der Welt lag Asgard, hier waren die kriegerischen Götter, die Asen, und die Wanen ansässig. Jeder von Ihnen hatte ein eigenes Domizil und so herrschte: Odin in Hlidskjálf, Balder auf Breiðablik, Freyja in Fólkvangr, Freyr in Álfheimr, Njörd in Nóatún, Thor in Trúdheimr und Heimdall auf der Burg Himinbjörg. Das Reich der Götter und die Welt der Sterblichen wurde durch Bifröst, eine regenbogenartige Brücke, miteinander verbunden. In Midgard waren die Menschen heimisch. Ein riesiges Meer, welches eine gigantische Schlangenbestie, die einfach als Midgardschlange bezeichnet wurde, beherbergte, umgab sie. Weit in der Ferne lag die Außenwelt Utgard. Hier wohnten allerlei Ungeheuer und Riesen, die den Göttern und Menschen feindlich gesinnt waren und nur darauf warteten, am Tag des Ragnarök zuzuschlagen. Tief unter der kalten Erde wurde das Totenreich von der Göttin Hel bewacht. Hel war eine Gottheit, deren eine Körperhälfte eine betörende junge Frau widerspiegelte, während die andere Seite ein altes Skelett zeigte, welches als Symbol für alles Vergängliche stand. In Asgard wuchs auch der Weltenbaum, der als Yggdrasil bezeichnet wurde. Dieser überaus gigantische Baum war durch seine Wurzeln mit Midgard, Utgard und Helheim verbunden und hielt das Gefüge der Welt und ihre Ordnung zusammen. Vor der Weltenesche lag auch die Wasserquelle der Schicksalsgöttin. Der Weltenbaum war immensen Strapazen ausgesetzt: vier Hirsche zerrten an seinen Knospen, eine Schlange nagte an den Wurzeln und an einer Seite fraß sich schon die Fäulnis in den Baum des Lebens. Schicksal der Welt. In der "Snorra-Edda" und in der "Ynglinga saga" hat Snorri Sturluson die in der älteren isländischen Poesie, besonders der "Lieder-Edda" vorgefundenen Mythischen Berichte ausgewertet. Es kann durchaus sein, dass er dabei nicht immer die heidnische Auffassung richtig wiedergegeben hat. Es gibt noch weitere Mythen in der eddischen Dichtung. Genealogische Ursprungsmythen. "Genealogische Ursprungsmythen" sind Geschichtsmythen, die in der Regel die Herrschaft einer Königssippe zu legitimieren hatten. Sæmundur fróði, Vater der isländischen Geschichtsschreibung (1056–1133), hat für die dänischen Könige einen Stammbaum von 30 Generationen konstruiert, die er auf die Skjoldungen und Ragnar Lodbrok zurückführte. Ihm folgte Ari fróði für Harald Schönhaar mit einer Ahnenreihe von 20 Generationen auf die mythischen Könige Schwedens, die von dem Gott Freyr, einem Hauptgott Uppsalas, abstammen sollten. Diese Mythenbildung hielt sich noch lange, indem die späteren Könige sich entweder auf König Harald oder auf König Olav den Heiligen zurückzuführen trachteten, obgleich sie genetisch sicher nicht von ihnen abstammten. Das Gleiche ist in England zu beobachten. Frühe Genealogien gingen auf Wodan (Odin) und Frealaf zurück. Westsächsische Genealogien führen im "Life of King Alfred" (ca. 893/94) die westsächsischen Könige vor Alfred erstmals über Beaw, Scyldwa, Heremod, Itermon, Haðra, Hwala, Bedwig und Sceaf(ing) schließlich auf Adam zurück. Dies steht auch für den westsächsischen König Æthelwulf in der "Angelsächsischen Chronik", die im Jahre 892 begonnen wurde. Durch Angleichung der Genealogie an den "Beowulf" konstruierte die altenglische Geschichtsschreibung einen gemeinsamen Ursprung für Dänen und Angelsachsen. Im 12. Jh. erfolgte dann die mythische Anbindung an Troja und den König Aeneas. Vorher hatten bereits die Franken mit der mythischen Abstammung von den Trojanern ihre Rechtsnachfolge nach den Römern begründet. Ursprungsmythen für Völker. Es gibt eine Gruppe von Geschichtsmythen, deren gesellschaftliche Funktion in der Identitätsstiftung eines Volkes besteht. Diese Mythen sind innerhalb des geschichtlichen Zeithorizonts auf Glaubwürdigkeit angewiesen, weshalb sie historische Personen mit mythischen Ereignissen in Verbindung bringen. Ein typisches Beispiel dafür ist die "Färingersaga". Aber auch das "Landnámabók" wird heute nicht mehr als historisch zutreffender Bericht über die Besiedlung Islands angesehen. Man kann dazu auch die euhemeristische Umwandlung von Göttermythen in Geschichtsmythen für Völker rechnen wie die Ynglinga saga der Heimskringla. Nach dem Prolog der "Heimskringla" von Snorri Sturluson war Odin kein Gott, sondern ein König. Nach ihm hat "König Odin" Saxland seinen drei Söhnen unterstellt: Ost-Saxland erhielt sein Sohn "Vegdeg", Westphalen erhielt "Beldeg" und Franken der Sohn "Sigi". Vegdegs Sohn sei "Vitrgils" gewesen. Dessen beiden Söhne seien "Vitta", der Vater von "Heingest" und "Sigarr", der Vater des "Svebdeg" gewesen. In angelsächsischen Quellen ist der erste Urkönig und Wodan-Nachkomme ebenfalls "Swæfdeg". Dort sind die ersten Glieder der Wodannachfahren mit "Wägdäg, Sigegar, Swæfdäg" und "Sigegat" wiedergegeben. Auch Tacitus geht von der ursprünglichen Aufteilung des nordalpinen Raums unter drei Söhnen des "Mannus" aus. Wenn auch die Namen und Gebiete anders sind, so ist die Grundstruktur doch ähnlich. Aitiologische Mythen. Beim "aitiologischen Mythos" handelt es sich um Mythen, die Naturereignisse oder Kulte begründen sollen. Der bekannteste Mythos ist der von Mjölnir, mit dem Thor den Blitz erzeugt. Aber es gibt auch andere Mythen, die in diese Gruppe einzuordnen sind. So hatte der Name "Helgi" in den drei Heldenliedern der Edda "Helgakviða Hundingsbana I", "Helgakviða Hundingsbana II" und "Helgakviða Hjörvarðssonar" ursprünglich einen sakralen Sinn und bezeichnete einen Geheiligten, Geweihten. "Beowulf" gibt den Namen mit "Hálga" wieder. "Helgi" erhielt seinen Namen nach der "Helgakviða Hjörvarðssonar" von der mythischen Walküre "Sváfa". Helgi wurde von Odins Speer im Fesselhain getötet, wurde aber wiedergeboren. Linguistische Untersuchungen legen nahe, dass es sich dabei um das Opfer im Semnonenhain handelt, ein Kult der Sueben, als diese noch in Brandenburg siedelten und von dem Tacitus berichtet. Der Mythos um "Balder", der durch eine Mistel getötet wurde und wieder aufersteht, gehört zu den Naturmythen, die Frühling und Wachstum unterlegt werden. Zum Odinskult wurde der Odins-Speer verwendet, um das Opfer damit zu töten. Um dieses Ritual gab es mehrere Mythen, nicht nur das "Helgilied". Odin warf seinen Speer Gungnir über die Wanen und löste so die erste Schlacht aus. Der Speer stammte von den Zwergen und war ihm von Loki gegeben worden. Alter der Mythen. Über das Alter lässt sich nicht viel Sicheres sagen. Zunächst ist die Frage zu beantworten, wonach genau man fragt. Je weiter man zurückgeht, desto spärlicher werden die Bausteine sein, die sich in der Schlussfassung der Eddalieder finden. Selbst wenn man die Lieder in ihrer bunten Vielfalt der Phantasie einer höfisch intellektuellen Dichtung zuschreibt, die von den Skalden im Gefolge Olavs des Heiligen ausformuliert wurde, besagt dies nichts über den Entstehungszeitpunkt der Motive, die der Skalde zusammengefügt hat, und seine eigenen Umgestaltungen. Diese müssen als Gedankengut einige hundert Jahre älter sein, um sich in ganz Nordeuropa so verbreiten zu können, dass sie bei jedem Hörer der Skaldendichtung und seiner Kenningar präsent waren. Die wohl älteste bekannte Darstellung der Mitgardschlange auf dem Medaillon von Lyngby aus dem 5. Jahrhundert dürfte bereits eine längere Tradition hinter sich gehabt haben. Andererseits darf sowohl aus sprachlichen Gründen (Synkope) als auch aus soziologischen Gründen ein großer Teil des wesentlichen Gehalts der Götterlieder nicht aus einer Zeit vor dem 9. Jahrhundert angesetzt werden. Denn es handelt sich weithin um die Dichtung eines Kriegerstandes. Die Vorstellung von Walhall als einem Ort, wo die im Kampf gefallenen Krieger sich mit Kampfspielen vergnügen, ist dafür typisch. Frauen haben keine Chance nach Walhall zu kommen. Als Håkon der Gute im Jahre 961 fällt, wird nach seinem Tode Hákonarmál auf ihn gedichtet. Håkon war Christ, gleichwohl lässt ihn der Dichter nach Walhall einziehen, was auf ein hohes Alter der Walhall-Vorstellung schließen lässt. Die Kriegerkaste hat sich aber erst im 9. Jh. so etabliert, dass sie auch einen eigenen Mythos bilden konnte. Keine der kontinentalen und angelsächsischen Quellen lässt auch nur andeutungsweise erkennen, dass die Wikinger einem heldenhaften Tod mit Aussicht auf den Einzug in Walhall gelassen ins Auge sahen. Vielmehr mieden sie die erkannte Gefahr und retteten sich ohne weiteres durch Flucht oder Loskauf. Aber von diesem Mythenbildungsprozess ist die Entstehung der in den Mythen agierenden Gestalten, ihre Wesenszüge und ihre Bedeutung im Pantheon zu unterscheiden. Diese Elemente können ein wesentlich höheres Alter haben und sogar früheisenzeitliches Gemeingut gewesen sein, aus dem sich die Dichter dann bedient haben. Ein anderes Beispiel ist der einäugige Odin, der 9 Tage und 9 Nächte an einem Baum hängt. Dass dieses Element sehr alt ist, zeigt schon die Beschreibung Adams von Bremen von dem Opferfest in Uppsala, wo Tiere und Menschen an Bäumen aufgehängt wurden. Einäugigkeit und Baumheiligtümer sind sehr alte Elemente, die sicher schon zu Zeiten Adams von Bremen viele Generationen hinter sich hatten, und Odin gilt als Hauptgott für Uppsala. Damit wird aber nichts über das Alter der Ätiologie gesagt. Das Streben nach Weisheit als Grund für dieses Bild ist sicherlich nicht so alt wie dieses Bild und gehört in einen gesellschaftlichen Zusammenhang mit ausgeprägten intellektuellen Ansprüchen, sei es in Norwegen, sei es vom Kontinent importiert. Auch der Gewinn der Runen durch Odin einerseits und die These, dass die Runen in Anlehnung an die römische "Capitalis monumentalis" entwickelt worden seien, andererseits führt dazu, dass dieser Teil des Odinsmythos erst nach der Berührung mit der "Capitalis monumentalis" und der darauf folgenden Entwicklung der Runen entstanden sein kann. Ein weiteres Beispiel ist die "Helgakveða Hundingsbana II" (ein Heldenlied aus der älteren Edda), das altertümlichste Helgilied, in welchem ein Fesselhain erwähnt wird, der mit dem semnonisch-suebischen Fesselwald, über den Tacitus berichtet, für identisch gehalten wird. Obgleich Helgi seinen Beinamen von seinem Feind "Hunding" erhielt, spielt Hunding im Helgilied keine Rolle. Das bedeutet, dass im Laufe der Tradition die Geschichte starken Veränderungen unterworfen war. Hier lässt sich im Übrigen der Namenstransport belegen: In der Geschichte von Helgi treten drei Personen mit Namen Helgi auf: "Helgi Hjörvarðsson", "Helgi Hundingsbani" und "Helgi Haddingjaskati". Die walkürisch-dämonische Geliebte des ersten Helgi heißt "Sváva", ein unskandinavischer Name, der aus Süddeutschland kommt, "Sigrún" ist die Geliebte des zweiten Helgi und "Kára" die des dritten. Es handelt sich jeweils um die Wiedergeburt des vorangegangenen Paares. Es zeigt sich hier wie auch sonst, dass sich die Namen über wesentlich längere Zeiträume erhalten, als Motive und Begebenheiten. Bei einem solchen hochkomplexen Entstehungsprozess ist daher bereits die Frage nach dem Alter sehr problematisch, da der Begriff des Alters einen Nullpunkt voraussetzt, der für jedes Motivelement anders anzusetzen ist. Man wird daher einen "vorwikingischen" Zeitraum, einen "wikingischen" Zeitraum und einen "mittelalterlichen" Zeitraum zu unterscheiden haben. Überlagert wird diese Periodisierung von den Einflüssen erst der heidnisch-römischen, dann der römisch-christlichen Kultur. Wenn man beispielsweise davon ausgeht, dass die Runen auf römische Einflüsse zurückgehen, dann kann dies nicht bei dem Mythos über Odin als dem, der das Geheimnis der Runen erwarb, außer Betracht bleiben. Frühe Mythenkritik. Nachdem sehr früh das Unhistorische des Mythos entdeckt war, begann man darüber nachzudenken, wie solche „Fabeleien“ zustande gekommen seien. Diese Art der Sagakritik führte zu einem neuen Typ des Mythos. Wie schon in Griechenland Euhemeros die Göttermythen glaubte dadurch erklären zu können, dass es sich bei den Göttern um Könige der Vorzeit handele, die dann später mythisch vergöttlicht worden seien, so hat auch Snorri Sturluson in seiner "Heimskringla" Odin zu einem Urkönig in Saxland gemacht. So wurde aus dem Weltentstehungsmythos ein Geschichtsmythos, nämlich ein Ursprungsmythos. Ob Snorri von der Erklärung des Euhemeros erfahren hat, lässt sich nicht mehr feststellen. Möglich wäre es, denn die isländischen Antikensagas wurden in diesem Zeitraum (Ende des 12. bis Mitte des 13. Jh.) verfasst, denen die im Mittelalter weit verbreiteten Werke "De exidio Troiae Historia" des Dares Phrygius, die "Historia Regum Britanniae" des Geoffrey von Monmouth und die "Alexandreis" des Walter von Châtillon und andere Überlieferungen zu Grunde lagen. Eine aufklärerische Tendenz war damals schon zu bemerken, indem z. B. Homers "Ilias" als Lügenmärchen recht unbeachtet blieb und stattdessen die Version des Dares Phrygius bevorzugt wurde. Mythologie unter dem Christentum. Man hat in der Vergangenheit den durchschlagenden Erfolg der Christianisierung auf eine Schwäche und den Niedergang der Überzeugungskraft der Mythologie zurückgeführt. Der dänische Kirchenhistoriker Jørgensen sah den Sieg des Christentums in der Barbarei des vorangegangenen heidnischen Glaubens begründet. Mit dem Christentum sei Kultur in das barbarische nordische Volk gekommen. Demgegenüber ist für die Mythologie festzustellen, dass sie im Gegensatz zur religiösen Praxis die Christianisierung fast unbeschadet überstanden hat. Das zeigt sich schon an Snorri Sturluson. Er sah klar, dass die nordische Dichtkunst ohne die Mythologie aufhören würde. Denn sie war auf mythologische Umschreibungen, den Kenningar, angewiesen. Daher musste die Mythologie sowohl den Verfassern als auch den Hörern bekannt sein. Aus diesem Grunde wurde die Mythologie von den skandinavischen Kirchen nicht bekämpft. An den alten Kirchen finden sich Schnitzereien mit Anspielungen auf die heidnische Mythologie. Die heidnischen mythischen Wesen in christlichem Kontext. Die vielen heidnischen Wesen erlitten im christlichen Kontext ein unterschiedliches Schicksal, je nachdem, wie sie in das Christentum integriert werden konnten. Das Gleiche gilt für kultische Handlungen. Mythische Wesen. Die heidnischen Götter wurden unter dem Christentum zu Teufeln umgedeutet. Der heidnische Pantheon stand in krassem Widerspruch zu dem christlichen Monotheismus. Bemerkenswert ist, dass die Existenz der Götter selbst nicht geleugnet wurde. Die mythischen Wesen des vorchristlichen Heidentums wurden in zwei Gruppen eingeteilt: Die eine Gruppe wurde mit dem Heidentum identifiziert und bekämpft. Die andere wurde in das Christentum integriert. Diese Integration ist bei der Behandlung der Fylgja deutlich zu erkennen. Sie hatten als Bindeglied zwischen den Lebenden und Toten eines Geschlechts eine wichtige Funktion. Deshalb musste man sie auf irgendeine Weise in den christlichen Kult integrieren. Ansätze dazu kann man in der "Flateyjarbók" und in der "Gísla saga Súrssonar" erkennen. In der "Flateyjarbók" ist die Þáttr Þiðranda ok Þórhalls überliefert. Dort wird geschildert, wie der Sohn eines Großbauern aus dem Haus tritt, weil er ein Klopfen an der Tür vernommen habe. Am Morgen wird er sterbend gefunden. Er berichtet noch, dass er vor der Tür von neun schwarz gekleideten Frauen, die gegen ihn anritten, angegriffen worden sei. Etwas später seien neun weiß gekleidete Frauen gekommen, die ihm hätten helfen wollen, doch zu spät gekommen seien. Dieser Traum wird so gedeutet, dass die schwarzen Frauen die alten heidnischen Fylgjen seines Geschlechts gewesen seien, die weißen Frauen die neuen christlichen. Diese hätten ihm aber nicht helfen können, weil er kein Christ gewesen sei. In der Gíslasaga hat Gísli zwei Traumfrauen. Die eine sei böse, aber von der guten berichtet Gísli, dass sie ihm geraten habe, in der kurzen Zeit, die ihm noch zu leben bleibe, den alten Glauben abzulegen und sich nicht mehr mit Zauberei abzugeben, sondern gut zu den Tauben, Lahmen und Armen sein solle. Hier ist ein deutlicher Anklang zu dem christlichen Schutzengel zu erkennen. Doch in der Sagaliteratur des 13. Jahrhunderts ist die Fylgja immer noch Fylgja und kein Engel und stellt ein heidnisches Überbleibsel Seite an Seite mit christlichen Vorstellungen dar. Aber der christliche Skald Bjǫrn Arngeirsson hítdœlakappi († um 1024) schreibt in seinem "Lausavisur" Strofe 22 von einem Traum kurz vor seinem Tod, dass eine helmbewehrte Frau ihn heimholen wollte. Die helmbewehrte Frau im Traum ist klar als Walküre erkennbar. „Heim“ war für den Christen aber das Himmelreich. Ob die Strofe echt ist, also von dem Skalden im 11. Jahrhundert gedichtet wurde, ist zwar zweifelhaft. Aber wenn das Gedicht erst im 13. Jahrhundert vom Sagaverfasser gedichtet worden sein sollte, so ist doch bemerkenswert, dass eine Walküre Odins oder Freyas 200–300 Jahre nach der Christianisierung einen Christen heimholen konnte. Die Aufspaltung mythischer Wesen in vom Christentum akzeptierte und vom Christentum verurteilte Wesen lässt sich wahrscheinlich auch bei Snorris Gylfaginning erkennen. Dort teilt er die ursprünglich mythischen Alben in Schwarzalben und Weißalben ein. Die Vorstellung über Zwerge lebte im Christentum weiter, allerdings nicht als mythische Wesen. Sie gingen ohne weiteres in den Volksglauben ein. Sie hatten zwar eine Funktion in der heidnischen Vorstellungswellt, stellten aber keine Bedrohung für den christlichen Glauben dar. Auch die Vorstellungen über die Nornen und das Schicksal lebten ebenfalls weiter, allerdings nicht so unproblematisch. Hallfrøðr vandræðaskáld (um 965 – um 1007) erteilt in der Strofe 10 seines Lausarvisur Odin und den Nornen eine Absage und hält sie für Blendwerk. Allerdings war die Auffassung zu den Nornen in Norwegen und Island unterschiedlich. In Island wurde die Norne nach kurzer Zeit zur Hexe. Als böse Gestalt lebte sie im Volksglauben fort, wurde aber im religiösen Zusammenhang ungefährlich. In Norwegen lebte die Vorstellung weiter, dass die Nornen das Schicksal bestimmten. In der Stabkirche Borgund ist eine Runenschrift mit dem Text zu sehen: „Ich ritt hier vorbei am St. Olavstag. Die Nornen taten mir viel Böses, als ich vorbeiritt.“. Ein weiteres Problem sind die Jöten, zu denen auch die Midgardschlange zu rechnen ist. Sie waren die Gegner der Götter, die im Christentum dämonisiert wurden. Die meisten Religionshistoriker sind der Auffassung, dass die Jöten nicht angebetet wurden und dadurch kultisch von den Göttern unterschieden seien. Aber es wird auch die Auffassung vertreten, dass einige Jöten ebenfalls Gegenstand eines Kultes waren. Jedenfalls werden die Jöten hin und wieder mit „illi Óðinn“ (der böse Odin) bezeichnet, was wiederum eine Bezeichnung des Teufels ist. Aber eine der wichtigsten Eigenschaften der Jöten war ihre Klugheit, so dass sie nicht nur dämonisiert wurden. Vielmehr wurden sie auch teilweise „entmytologisiert“ zu einfachen Trollen im Volks- und Aberglauben. Sigurd durchsticht den Lindwurm. Bildstein von Ramsundsberget. Sigurd durchsticht den Lindwurm. Hylestad Stabkirche, rechte Portalsäule Schlangen und Drachen waren nicht so mit der Midgardsschlange verknüpft, wie der Thorshammer mit Thor. Sie hatten einen unterschiedlichen Symbolgehalt im jeweiligen Kontext. Davon hing auch ihr Schicksal nach der Christianisierung ab. Drachen und Schlangen gibt es auch im Christentum und werden mit dem Teufel gleichgesetzt. Die Schlange tritt in der Bibel als Verführerin auf. In der norrönen Literatur finden sich Beispiele für Schlangen als Symbol des Bösen. Als der Bischof Guðmundur Arason in die Bucht von Hjørungavåg einfahren wollte, versperrte ihm der Legende nach eine gewaltige Seeschlange den Weg. Er bespritzte sie mit Weihwasser. Da musste die Schlange weichen. Am nächsten Tag fand man den Wurm in zwölf Teile zerstückelt am Strand. Der mit Schwert durchbohrte Drache symbolisiert den Sieg des Guten über das Böse. Dass Sigurðr fáfnisbani in "Fáfnismál" den Drachen Fafnir tötet – ein weit verbreitetes Motiv in der Eddadichtung – ist zwar in der heidnischen Zeit angesiedelt, aber erst im 13. Jahrhundert gedichtet und wird als Parallelmotiv zu ähnlichen Motiven des Alten Testaments und vorausweisend auf das Christentum und Sigurðr als Vorläufer christlicher Helden gesehen, denen ähnliches zugeschrieben wurde. Während die rechte Portalsäule der Hyllestad-Kirche Sigurðr zeigt, ist auf der linken Säule Samson abgebildet, der den Löwen erwürgt. Aber in den nordischen Mythen wird die Schlange nicht nur negativ gesehen. Die Midgardschlange, die um das Weltenrund liegt, hält diese zusammen und verhindert so das Auseinanderfallen der Welt in das Chaos. Der Drache hatte einerseits einen aggressiven Symbolgehalt. Auf dem „stál“, dem obersten Stück des Stevens eines Kriegsschiffes, saß bei den Kampfschiffen der Drachenkopf. Nach allen Quellentypen, den literarischen, den archäologischen und dem Bildmaterial zu urteilen waren die Drachenköpfe auf den Schiffen relativ selten. Nach dem Landnámabók war es verboten, mit dem Drachenkopf am Steven den Heimathafen anzusegeln. Die Schutzgeister des Landes könnten aufgebracht oder vertrieben werden. Auf Feindfahrt sollte er die Schutzgeister des Feindes vertreiben. Wer die Schutzgeister des angegriffenen Landes vertrieb und das Land unterwarf, war der neue örtliche Herrscher. Deshalb werden in den Quellen die Schiffe mit Drachenköpfen regelmäßig den Führungspersönlichkeiten der Unternehmungen zugeschrieben. Der Drache konnte andererseits mit Schutz in Verbindung stehen. Der Drache liegt auf dem Schatz oder windet sich um ihn. Das ist seine Wächterfunktion. In der Forschung werden Drachenfiguren oft als reine Dekoration angesehen, insbesondere an Stabkirchen, aber auch an Schmuckstücken und Armreifen. Aber Mundal vermutet in ihnen eine apotropäische Funktion. Bei Kirchen sollten sie das Heidnische fernhalten. Während Drachen neben anderen Fratzen auch Kirchen auf dem Kontinent zierten, ist doch auffällig, welches Übergewicht die Drachenköpfe an den norwegischen Stabkirchen haben, ja sogar an Reliquienschreinen. Das kann daran liegen, dass die Drachen in der profanen Kunst in der vorchristlichen Zeit einen allen bekannten Symbolgehalt hatten, der sie auch in der Kirchenkunst tragbar machte. Sie können gedeutet werden als das Fernhalten des Bösen, aber auch als Allgegenwart des Bösen, sogar innerhalb des Kirchenraums. Kulthandlungen. Im älteren Frostathingslov und im Gulathingslov wird das Blót an heidnische Mächte, an heidnischen Grabhügeln und Altären verboten. Noch in den späteren Christenrechten von 1260, wie dem Neueren Gulathings Christenrecht, und auch in einer Predigt in der Hauksbók aus dem ersten Drittel des 14. Jahrhunderts werden noch die Verwerflichkeit, an die Schutzgeister des Landes zu glauben oder sie zu verehren, erwähnt. Die Sitte dürfte trotzdem noch mehrere hundert Jahre fortbestanden haben. Ein Grund für das lange Fortbestehen der Bräuche für die Schutzgeister des Landes könnte sein, dass sie als weniger gefährlich für das Christentum angesehen wurden, als der Glaube an die Götter. Das Gleiche gilt für den Ahnenkult. Ihm begegnete das Christentum mit Misstrauen. So wird in § 29 des Älteren Gulathingslov verboten, an den Grabhügeln zu opfern. Doch der Ahnenkult lebte unter dem Christentum fort. Das kann daran liegen, dass die Ahnenverehrung in einer Clangesellschaft ein wichtiges religiöses Element darstellt und das Christentum darin immerhin den Glauben an ein Leben nach dem Tode sah. Und man grenzte dann die Ahnenverehrung und die Ahnenanbetung voneinander ab. Einzelnachweise. !Nordische Mythologie Gefäßsporenpflanzen. Die Gefäßsporenpflanzen ("Pteridophyta") oder Farnartigen Pflanzen waren lange Zeit eine systematische Großgruppe der Gefäßpflanzen. Sie umfasste die sporenbildenden Gefäßpflanzen (im Gegensatz zu den samenbildenden): Bärlapppflanzen und Farne. Die beiden Gruppen sind jedoch nicht näher verwandt, die Farne sind mit den Samenpflanzen näher verwandt als mit den Bärlapppflanzen. Daher werden die Gefäßsporenpflanzen heute nicht mehr als taxonomische Gruppe betrachtet. Merkmale. Farnpflanzen sind primär an das Landleben angepasst, und zwar noch wesentlich stärker als die Moose. In ihrem Generationswechsel dominiert der Sporophyt, also die diploide Generation. Gametophyt. Der Gametophyt, die haploide, sexuelle Generation, wird hier Prothallium genannt. Er ist meist kurzlebig und wird nur wenige Wochen alt. Kommt es zu keiner Befruchtung, kann er auch einige Jahre überdauern. Er wird maximal wenige Zentimeter groß, ist thallös und ähnelt einem thallösen Lebermoos. Es gibt mannigfache Abweichungen, der typische Aufbau ist folgender: Das Prothallium ist ein einfacher, grüner Thallus, der an der Unterseite Rhizoide besitzt, mit denen er am Boden befestigt ist. Am Prothallium entstehen zahlreiche Geschlechtsorgane, Antheridien und Archegonien. Die Befruchtung erfolgt ausschließlich im Wasser. Sporophyt. Im Gegensatz zu den Moosen ist der Sporophyt eine selbständige, grüne Pflanze, die nicht auf die Versorgung durch den Gametophyten angewiesen ist. Bei den Bärlapppflanzen, den Schachtelhalmen und den echten Farnen ist der Sporophyt in Achse, Blätter und Wurzel gegliedert. Die ausgestorbenen Urfarne hatten nur blattlose Gabeltriebe, ihnen fehlten auch wie den rezenten Gabelblattgewächsen die Wurzeln. Der Sporopyht ist also ein echter Kormus. Der Embryo bildet bei den rezenten Vertretern kurz nach den ersten Zellteilungen der Zygote ein Haustorium (Fuß) sowie einen Wurzelscheitel, einen Stammscheitel und einen Blattscheitel. Aus diesen entwickelt sich die erste Wurzel, der Stamm und das erste Blatt (Kotyledone). Die Wurzel entwickelt sich nicht wie bei den Samenpflanzen, sondern entsteht endogen aus dem Spross. Die Gefäßsporenpflanzen besitzen also eine primäre Homorhizie. Die drei Grundorgane wachsen bei den meisten Vertretern mit Scheitelzellen, nicht mit Meristemen. Die Verzweigung erfolgt gabelig oder seitlich, nie jedoch aus den Blattachseln. Die Wurzeln besitzen eine Wurzelhaube. Die Seitenwurzeln entstehen nicht wie bei den Samenpflanzen im Perizykel, sondern in der innersten Rindenschicht. Die Blätter ähneln denen der Samenpflanzen: Sie besitzen eine Cuticula und Spaltöffnungen, allerdings besitzen die Epidermiszellen meist Chloroplasten. Die Leitbündel sind wohldifferenziert. Das Xylem besteht aus Tracheiden, selten (etwa bei "Pteridium") sind auch Tracheen vorhanden. Vorherrschend sind konzentrische Leitbündel mit Innenxylem. Die Zellwände sind mit Lignin verstärkt. Sekundäres Dickenwachstum mittels Kambium kommt bei rezenten Gruppen nur selten und schwach ausgeprägt vor. Bei manchen fossilen Gruppen war es verbreitet. Sporangien. Die Sporangien werden meist an Blättern gebildet, nur bei den ursprünglichsten Gruppen direkt an Sprossachsen. Die Sporangien selbst sind sehr vielgestaltig. Die sporangientragenden Blätter heißen Sporophylle und sind oft einfacher gebaut als die rein assimilierenden Blätter (Trophophylle). Die Sporangien umschließen das Archespor (das sporogene Gewebe). Die Zellen des Archespor runden sich ab und werden zu (meist 16) Sporenmutterzellen. Durch Meiose entstehen aus jeder dieser Sporenmutterzellen vier haploide Meiosporen, die häufig tetraedrisch angeordnet sind. Das sporogene Gewebe ist oft von einer Nährschicht umgeben, dem Tapetum. Die Sporen sind meist gelblich bis bräunlich und in der Regel chlorophyllfrei. Die Wand gliedert sich in ein inneres Endospor und ein widerstandfähiges äußeres Exospor, auf dem noch ein Perispor aufgelagert ist. Bei den meisten Gruppen sind die Sporen gleichartig (isospor), aus ihnen entwickeln sich zwittrige Prothallien. Mehrfach haben sich unabhängig zweihäusige Gruppen entwickelt, bei denen die Prothallien rein männlich oder weiblich sind. Bei manchen Gruppen hat dies auch zu zwei Sporenformen geführt (Heterosporie): großen, nährstoffreichen weiblichen Megasporen und kleinen, männlichen Mikrosporen. Diese werden getrennt in Mega- beziehungsweise Mikrosporangien gebildet. Systematik. Die letzten vier Klassen werden heute vielfach als eigene Gruppe Farne (Monilophyten) zusammengefasst, da sie eindeutig monophyletisch sind. Sie sind die Schwestergruppe der Samenpflanzen, mit denen sie in der Gruppe der Euphyllophyten zusammengefasst werden. Deren Schwestergruppe sind die Bärlapppflanzen. Glossar. Ein Glossar (, "glōssarion", Diminutiv zu "glōssa" „Zunge“, „Sprache“) ist eine Liste von Wörtern mit beigefügten Erklärungen oder Übersetzungen. Das lateinische Wort "glossarium" bezeichnet dabei als Objekt ein „Buch“, das (ver)alte(te) oder fremde Wörter erläutert. Glossare wurden in Antike und Mittelalter von Glossographen („Glossenschreibern“) als Sammlungen erklärungsbedürftiger Wörter (Archaismen, Dialektwörter, Fremdwörter, siehe Glosse) für das Grammatikstudium und als Hilfsmittel für die Erklärung von Texten (besonders Homers und der Bibel) erstellt. Seit spätantiker Zeit entstanden außerdem zweisprachige, griechisch-lateinische und lateinisch-griechische Glossare, die der Vermittlung der jeweils fremden Sprache dienten, und im lateinischen Mittelalter dann den Anknüpfungspunkt für die Entstehung lateinisch-volkssprachlicher Glossare bildeten (Abrogans, Affatim-Glossar). Als lexikographisches Genre bilden die ein- und zweisprachigen Glossare eine Vorstufe für die auf vollständige Erfassung eines Wortschatzes angelegten Wörterbücher, von denen noch im 18. Jahrhundert das bis heute grundlegende Lexikon des Vulgär- und Mittellateinischen von Charles Du Cange als "Glossarium ad scriptores mediae et infimae latinitatis" (1. Ausgabe Paris 1678) betitelt wurde. Die Glossare der Antike und Spätantike bedienten sich bereits häufig des Verfahrens der Etymologie, die ein Wort oder dessen Bestandteile aus ähnlich klingenden Wörtern abzuleiten sucht, um derart nicht nur die Herkunft des Wortes, sondern auch die wesentlichen Eigenschaften der bezeichneten Sache aufzudecken. Sie boten darum neben primär sprachlichen vielfach auch einen hohen Anteil an sachlichen Erklärungen, durch den sie zu einer Vorstufe der Enzyklopädien wurden. So ist die für das Mittelalter wirkungsmächtigste Enzyklopädie, die "Etymologiae" von Isidor von Sevilla, unter anderem auch aus spätantiken Glossaren kompiliert. In der Neuzeit ist ein Glossar im Bereich der Philologie und Editionstechnik meist eine Liste von Wörtern mit sprachlichen Erklärungen, die den Wortschatz eines edierten Textes erschließt, und in der Regel im Anhang zu diesem Text abgedruckt wird. Ein fachsprachliches oder technisches Glossar listet die Terminologie einer Fachsprache oder eines technischen Sachgebietes mit begrifflich-sachlichen Definitionen auf, die den richtigen Gebrauch dieser Fachausdrücke und deren eindeutiges Verständnis sichern sollen. Global System for Mobile Communications. Das Global System for Mobile Communications (früher "Groupe Spécial Mobile", GSM) ist ein Standard für volldigitale Mobilfunknetze, der hauptsächlich für Telefonie, aber auch für leitungsvermittelte und paketvermittelte Datenübertragung sowie Kurzmitteilungen (Short Messages) genutzt wird. Es ist der erste Standard der sogenannten zweiten Generation („2G“) als Nachfolger der analogen Systeme der ersten Generation (in Deutschland: A-Netz, B-Netz und C-Netz) und ist der weltweit am meisten verbreitete Mobilfunk-Standard. GSM wurde mit dem Ziel geschaffen, ein mobiles Telefonsystem anzubieten, das Teilnehmern eine europaweite Mobilität erlaubte und mit ISDN oder herkömmlichen analogen Telefonnetzen kompatible Sprachdienste anbot. In Deutschland ist GSM die technische Grundlage der D- und E-Netze. Hier wurde GSM 1992 eingeführt, was zur raschen Verbreitung von Mobiltelefonen in den 1990er-Jahren führte. Der Standard wird heute in 670 GSM-Mobilfunknetzen in rund 200 Ländern und Gebieten der Welt als Mobilfunkstandard genutzt; dies entspricht einem Anteil von etwa 78 Prozent aller Mobilfunkkunden. Es existieren später hinzugekommene Erweiterungen des Standards wie HSCSD, GPRS und EDGE zur schnelleren Datenübertragung. Zum Zutritt in die Netze stehen insgesamt ca. 1700 verschiedene Mobiltelefonmodelle zur Verfügung. Im März 2006 nutzten weltweit 1,7 Milliarden Menschen GSM und täglich kommen eine Million neue Kunden dazu – hauptsächlich aus den Wachstumsmärkten Afrika, Indien, Lateinamerika und Asien. Rechnet man alle Mobilfunkstandards zusammen, so sind weltweit ca. 2 Milliarden Menschen mobiltelefonisch erreichbar. Das gaben die GSM Association und die GSA im Oktober 2005 bekannt. Im Jahr 2003 wurden (nach Angaben der Deutschen Bank) 277 Milliarden US-Dollar mit GSM-Technik umgesetzt. Die Entstehung von GSM. Ende der 1950er Jahre nahmen die ersten analogen Mobilfunknetze in Europa ihren Betrieb auf; in Deutschland war dies das A-Netz. Ihre Bedienung war jedoch kompliziert, und sie verfügten nur über Kapazitäten für wenige tausend Teilnehmer. Zudem gab es innerhalb Europas nebeneinander mehrere verschiedene Systeme, die zwar teilweise auf dem gleichen Standard beruhten, sich aber in gewissen Details unterschieden. Bei der nachfolgenden Generation der digitalen Netze sollte eine ähnliche Situation vermieden werden. Standardisierung. Die Standardisierung von GSM wurde bei CEPT begonnen, von ETSI (Europäisches Institut für Telekommunikationsnormen) weitergeführt und später an 3GPP (3rd Generation Partnership Project) übergeben. Dort wird GSM unter dem Begriff GERAN (GSM EDGE Radio Access Network) weiter standardisiert. 3GPP ist somit für UMTS und GERAN verantwortlich. Reichweite. Die mit GSM erzielbaren Reichweiten schwanken stark, je nach Geländeprofil und Bebauung. Im Freien sind bei Sichtkontakt teilweise bis zu 35 km erreichbar. Bei größeren Entfernungen verhindert die Signallaufzeit der Funksignale eine Kommunikation zwischen Basis- und Mobilstation. Es ist allerdings mit Hilfe spezieller Tricks möglich, die Zellengröße zu vergrößern, teilweise auf Kosten der Kapazität. Anwendung findet dies in Küstenregionen. In Städten beträgt die Reichweite aufgrund von Dämpfungen durch Gebäude und durch die niedrigere Antennenhöhe oft nur wenige hundert Meter, dort stehen die Basisstationen allerdings aus Kapazitätsgründen auch dichter beieinander. Grundsätzlich gilt jedoch, dass mit GSM 900 aufgrund der geringeren Funkfelddämpfung und der größeren Ausgangsleistung der Endgeräte größere Reichweiten erzielbar sind als mit DCS 1800. Entsprechend der Reichweite wird die Zellengröße festgelegt. Dabei wird auch die prognostizierte Nutzung berücksichtigt, um Überlastungen zu vermeiden. Physikalische Übertragung über die Funkschnittstelle. Die digitalen Daten werden mit einer Mischung aus Frequenz- und Zeitmultiplexing übertragen, wobei Sende- und Empfangsrichtung durch Frequenzmultiplexing getrennt werden und die Daten durch Zeitmultiplexing. Das GSM-Frequenzband wird in mehrere Kanäle unterteilt, die einen Abstand von 200 kHz haben. Bei GSM 900 sind im Bereich von 890–915 MHz 124 Kanäle für die Aufwärtsrichtung ("Uplink") zur Basisstation und im Bereich von 935–960 MHz 124 Kanäle für die Abwärtsrichtung ("Downlink") vorgesehen. Die TDMA-Rahmendauer beträgt exakt 120/26 ms (ca. 4,615 ms) und entspricht der Dauer von exakt 1250 Symbolen. Jeder der acht Zeitschlitze pro Rahmen dauert somit ca. 0,577 ms, entsprechend der Dauer von 156,25 Symbolen. In diesen Zeitschlitzen können Bursts verschiedener Typen gesendet und empfangen werden. Die Dauer eines normalen Bursts beträgt ca. 0,546 ms, in denen 148 Symbole übertragen werden. Da die Mobilstation jeweils nur in einem Zeitschlitz des Rahmens sendet, ergibt sich eine Pulsrate von 217 Hz. Das Modulationsverfahren ist "Gaussian Minimum Shift Keying" (GMSK, dt.: Gauß'sche Minimalphasenlagenmodulation), eine digitale Phasenmodulation bei der die Amplitude konstant bleibt. Mit EDGE wurde dann 8-PSK eingeführt. Während bei GMSK pro Symbol nur 1 bit übertragen wird, sind dies bei 8-PSK 3 bit, jedoch wird für die Funkverbindung ein besseres Signal-Rauschleistungsverhältnis benötigt. Da bei einer Entfernung von mehreren Kilometern das Funksignal durch die beschränkte Ausbreitungsgeschwindigkeit (die sogenannte Gruppengeschwindigkeit) soweit verzögert werden kann, dass der Burst des Mobiltelefons nicht mehr innerhalb des vorgegebenen Zeitschlitzes bei der Basisstation ankommt, ermittelt diese die Signallaufzeit und fordert das Mobiltelefon auf, den Burst etwas früher auszusenden. Dazu teilt sie dem mobilen Gerät den Parameter "Timing Advance" (TA) mit, der den Sendevorlauf in 3,7-μs-Schritten vorgibt. Dies entspricht jeweils der Zeitdauer eines Bit, wobei die Bitrate 270,833 kbits/s beträgt (siehe unten). Der "Timing Advance" hat einen Wertebereich von 0 bis 63. Die Dauer eines Bits entspricht bei gegebener Gruppengeschwindigkeit einer Wegstrecke von ca. 1,106 km, und da für die Laufzeit Hin- und Rückrichtung zusammen betrachtet werden müssen, entspricht eine Änderung des "Timing Advance" um eins einer Entfernungsänderung von etwas mehr als 553 m. Somit ergibt sich eine maximale Reichweite von ca. 35,4 km, die jedoch mit technischen Tricks erweitert werden kann. Nach dem Empfangsburst schaltet das Mobiltelefon auf die um 45 MHz versetzte Sendefrequenz, und sendet dort den Burst des Rückkanals an die Basisstation. Da "Downlink" und "Uplink" um drei Zeitschlitze versetzt auftreten, genügt eine Antenne für beide Richtungen. Zur Erhöhung der Störfestigkeit kann auch das Frequenzpaar periodisch gewechselt werden (frequency hopping), so entsteht eine Frequenzsprungrate von 217 Sprüngen pro Sekunde. Bei einer Bruttodatenübertragungsrate von ca. 270,833 kbit/s pro Kanal (156,25 Bits in jedem Burst zu 15/26 ms) bleiben je Zeitschlitz noch 33,85 kbit/s brutto übrig. Von dieser Datenrate sind 9,2 kbit/s für die Synchronisation des Rahmenaufbaus reserviert, so dass 24,7 kbit/s netto für den Nutzkanal übrig bleiben. Durch die Übertragung per Funk liegen in diesem Bitstrom noch viele Bitfehler vor. Die Datenrate pro Zeitschlitz von 24,7 kbit/s wird in 22,8 kbit/s für die kodierten und verschlüsselten Nutzdaten des Verkehrskanals (Traffic Channel) und 1,9 kbit/s für die teilnehmerspezifischen Steuerkanäle (Control Channel) aufgeteilt. Die Kanalkodierung beinhaltet eine Reihe von Fehlerschutzmechanismen, so dass für die eigentlichen Nutzdaten noch 13 kbit/s übrig bleiben (im Fall von Sprachdaten). Eine später eingeführte alternative Kanalkodierung erlaubt die Verringerung des Fehlerschutzes zugunsten der Anwendungsdaten, da bei Datenübertragungsprotokollen im Gegensatz zur Sprachübertragung bei Bitfehlern eine Neuanforderung des Datenblocks möglich ist. Sendeleistung. Die Sendeleistung der Mobilstation bei GSM 900 beträgt max. 2 Watt und 1 Watt bei GSM 1800. Die Sendeleistungen der Basisstationen für GSM 900/1800 betragen 20-50/10-20 Watt. Die Sendeleistungen von Mobil- und Basisstationen werden nach Verbindungsaufbau je auf das notwendige Mindestmaß reduziert. Die Basisstationen sendet, je nach Bedarf, in den einzelnen Zeitschlitzen eines Rahmens mit unterschiedlicher Leistung. Sie sendet nur in aktiven Zeitschlitzen. Die Leistungsregelung erfolgt im Abstand von Sekunden. Daneben kann das Handy, wenn nicht gesprochen wird, die Abstrahlungen unterbrechen. Der technische Grund für beide Maßnahmen ist, den Stromverbrauch zu senken und Funkstörungen in Nachbarzellen gleicher Frequenz zu reduzieren. Hardware. "Die blauen Buchstaben im Bild bezeichnen die Datenübertragungswege zwischen den Komponenten." Adressierung. In einem GSM-Netz werden folgende Nummern zur Adressierung der Teilnehmer verwendet: Die MSISDN (Mobile Subscriber ISDN Number) ist die eigentliche Telefonnummer, unter der ein Teilnehmer weltweit zu erreichen ist. Die IMSI (International Mobile Subscriber Identity) ist dementsprechend die interne Teilnehmerkennung, die auf der SIM gespeichert wird und zur Identifizierung eines Teilnehmers innerhalb eines Funknetzes verwendet wird. Aus Datenschutzgründen wird die IMSI nur bei der initialen Authentifizierung der mobilen Station über das Funknetz gesendet, in weiteren Authentifizierungen wird stattdessen eine temporär gültige TMSI (Temporary Mobile Subscriber Identity) verwendet. Für das Roaming, also das Routing des Telefonats innerhalb des Mobilfunknetzes, wird die MSRN (Mobile Station Roaming Number) verwendet. Handover. Eine der wichtigsten Grundfunktionen in zellularen Mobilfunknetzen ist der vom Netz angestoßene Zellwechsel während eines laufenden Gesprächs. Dieser kann aus verschiedenen Gründen notwendig werden. Ausschlaggebend ist u. a. die Qualität der Funkverbindung, aber auch die Verkehrslast der Zelle. Es kann zum Beispiel ein Gespräch an eine weiter entfernte Zelle übergeben werden, um eine Überlastung zu vermeiden. Hier wird zum Beispiel aufgrund der Kanalqualität der MS ein neuer Kanal innerhalb einer Zelle zugewiesen. Mobility Management. Mehrere Prozeduren im GSM-Netz behandeln die Bewegung (Mobility) der Teilnehmer im Netz. Damit ein mobiler Teilnehmer, der sich irgendwo im Netzgebiet befindet, angerufen oder ihm eine Kurznachricht zugestellt werden kann, muss ständig die Voraussetzung dafür bestehen, dass der Teilnehmer eine Suchanfrage (genannt Paging) empfangen kann. Hierzu muss sein aktueller Aufenthaltsort in gewisser Granularität ständig nachgeführt werden. Zur Verringerung des Aufwands im Kernnetz und zur Verlängerung der Akku-Laufzeit wird zentral nur die Location Area erfasst, in der sich ein eingebuchtes Mobiltelefon befindet. Wo es sich innerhalb dieses Gebietes befindet, ist nicht bekannt. Um Energie und Übertragungskapazität zu sparen, meldet sich das Mobiltelefon im Standby-Betrieb (idle-mode) in vom Netz vorgegebenen Abständen (zwischen 6 Minuten und 25,5 Stunden) oder beim Wechsel der Location Area beim Netz. Sobald das Netz mit dem Mobiltelefon eine Verbindung aufbauen möchte, wird dieses über alle Basisstationen der Location Area gerufen und bei Meldung die Verbindung über die Basisstation, an der das Endgerät sich meldet, aufgebaut. Dem Mobiltelefon dagegen ist genau bekannt, in welcher Funkzelle es sich befindet. Im Standby-Betrieb scannt es die Nachbarzellen, deren Trägerfrequenzen es von der Basisstation auf speziellen Informationskanälen mitgeteilt bekommt. Wird das Signal einer der Nachbarzellen besser als das der aktuellen Zelle, dann wechselt das Mobiltelefon dorthin. Bemerkt es dabei eine Änderung der Location Area, dann muss es dem Netz seinen neuen Aufenthaltsort mitteilen. Für das Mobilitätsmanagement sind das VLR (Visitor Location Register) und das HLR (Home Location Register) von sehr großer Bedeutung. Die beiden sind eigentlich als Datenbanken zu verstehen. Jede MS ist genau einmal in einem HLR registriert. Dort sind alle Teilnehmerdaten gespeichert. Im HLR ist stets das VLR eingetragen, in dessen Bereich sich eine MS zuletzt gemeldet hat. Im VLR sind jeweils alle sich im Einzugsgebiet eines MSC befindlichen MS eingetragen. Roaming. Da viele Mobilfunkbetreiber aus verschiedenen Ländern Roamingabkommen getroffen haben, ist es möglich, das Mobiltelefon auch in anderen Ländern zu nutzen und weiterhin unter der eigenen Nummer erreichbar zu sein und Gespräche zu führen. Sicherheitsfunktionen. In diesem Abschnitt werden die Sicherheitsfunktionen aufgeführt. Defizite dieser Funktionen sind im Abschnitt Sicherheitsdefizite aufgeführt. Authentifizierung. Jedem Teilnehmer wird bei der Aufnahme in das Netz eines Mobilfunkbetreibers ein 128 Bit langer "Subscriber Authentication Key" Ki zugeteilt. Der Schlüssel wird auf Teilnehmerseite in der SIM-Karte, netzseitig entweder im HLR oder im AuC gespeichert. Zur Authentifizierung wird der MS vom Netz eine 128 Bit lange Zufallszahl RAND geschickt. Aus dieser Zufallszahl und Ki wird mit dem A3-Algorithmus der Authentifizierungsschlüssel SRES' (Signed Response, 32 Bit) berechnet. Diese Berechnung findet in der SIM-Karte statt. Der Authentifizierungsschlüssel SRES wird vom Netz im AuC und von der MS getrennt berechnet und das Ergebnis vom VLR verglichen. Stimmen SRES und SRES' überein, ist die MS authentifiziert. Der A3-Algorithmus ist elementarer Bestandteil der Sicherheit im GSM-Netz. Er kann von jedem Netzbetreiber selbst ausgewählt werden, Details der jeweiligen Implementierung werden geheim gehalten. Nutzdatenverschlüsselung. Zur Verschlüsselung wird aus der zur Authentifizierung benötigten Zufallszahl RAND und dem Benutzerschlüssel Ki mit dem Algorithmus A8 ein 64 Bit langer Codeschlüssel (engl.: "Ciphering Key") Kc bestimmt. Dieser Codeschlüssel wird vom Algorithmus A5 zur symmetrischen Verschlüsselung der übertragenen Daten verwendet. Schon angesichts der geringen Schlüssellänge kann davon ausgegangen werden, dass die Verschlüsselung keine nennenswerte Sicherheit gegen ernsthafte Angriffe bietet. Außerdem wurde bereits durch mehrere Angriffe 2009 und 2010 auf den verwendeten Algorithmus A5/1 gezeigt, dass dieser prinzipiell unsicher ist. Allerdings verhindert die Verschlüsselung ein einfaches Abhören, wie es beim analogen Polizeifunk möglich ist. Die Verschlüsselung mit dem unsicheren A5/1-Algorithmus ist in Deutschland normalerweise eingeschaltet. In Ländern wie z.B. Indien darf das Handynetz nicht verschlüsselt werden. Prinzipiell sieht der GSM-Standard vor, dass Mobiltelefone bei unverschlüsselten Verbindungen eine Warnung anzeigen. Anonymisierung. Um eine gewisse Anonymität zu gewährleisten, wird die eindeutige Teilnehmerkennung IMSI, über die ein Teilnehmer weltweit eindeutig zu identifizieren ist, auf der Luftschnittstelle verborgen. Stattdessen wird vom VLR eine temporäre TMSI generiert, die bei jedem Location Update neu vergeben wird und nur verschlüsselt übertragen wird. Benutzerauthentisierung. Der Benutzer muss sich gegenüber der SIM-Karte (und damit gegenüber dem Mobilfunknetz) als berechtigter Nutzer authentisieren. Dies geschieht mittels einer PIN. Es ist auf der SIM-Karte festgelegt, ob die PIN-Abfrage deaktiviert werden kann. Wurde die PIN dreimal in Folge falsch eingegeben, wird die SIM-Karte automatisch gesperrt. Um sie wieder zu entsperren, ist der PUK (Personal Unblocking Key) erforderlich. Der PUK kann zehnmal in Folge falsch eingegeben werden bevor die SIM-Karte endgültig gesperrt wird. Das Mobilfunknetz muss sich nicht gegenüber dem Benutzer authentisieren. Dienste für den Benutzer. Festnetzseitig basiert der GSM-Standard auf dem ISDN-Standard und stellt deshalb ähnliche vermittlungstechnische Leistungsmerkmale bereit. Mit der Möglichkeit, Kurznachrichten (SMS, kurz für Short Message Service) zu senden und zu empfangen, wurde ein neuer Dienst geschaffen, der begeistert angenommen worden ist und mittlerweile eine wichtige Einnahmequelle für die Netzbetreiber geworden ist. Full Rate Codec (FR). Der erste GSM-Sprachcodec war der Full-Rate-Codec (FR). Für ihn steht nur eine Netto-Datenrate von 13 kbit/s zur Verfügung (im Unterschied zu G.711 64 kbit/s bei ISDN). Die Audiosignale müssen deshalb stark komprimiert werden, aber trotzdem eine akzeptable Sprachqualität erreichen. Beim FR-Codec wird eine Mischung aus Langzeit- und Kurzzeit-Prädiktion verwendet, die eine effektive Komprimierung ermöglicht (RPE/LTP-LPC Sprachkompression: "Linear Predictive Coding", "Long Term Prediction", "Regular Pulse Excitation"). Technisch werden jeweils 20 ms Sprache gesampelt und gepuffert, anschließend dem Sprachcodec unterworfen (13 kbit/s). Zur Vorwärtsfehlerkorrektur (Forward Error Correction, FEC) werden die 260 Bits eines solchen Blocks in drei Klassen eingeteilt, dementsprechend, wie stark sich ein Bitfehler auf das Sprachsignal auswirken würde. 50 Bits des Blocks werden in Klasse Ia eingeteilt. Sie sind am stärksten zu schützen und erhalten eine CRC-Prüfsumme von 3 Bits für Fehlererkennung und Fehlerverdeckung ("error concealment"). Zusammen mit 132 Bits der Klasse Ib, die etwas weniger zu schützen sind, werden sie einem Faltungs-Code unterworfen, der aus den 185 Eingangsbits 378 Ausgangsbits generiert. Die restlichen 78 Bits werden ungeschützt übertragen. So werden aus 260 Bits Nutzdaten 456 Bits fehlergeschützte Daten, wodurch die erforderliche Bitrate auf 22,8 kbit/s steigt. Die 456 Bits werden durch Interleaving auf acht Halbbursts zu je 57 Bits aufgeteilt. Nach dem Deinterleaving im Empfänger wirken sich kurzzeitige Störungen (zum Beispiel ein Burst lang) durch die Fehlerspreizung nur noch gering aus. Durch die Kombination der unterschiedlichen Fehlerschutzverfahren im GSM, wird, obwohl der Funkkanal äußerst fehleranfällig ist, oft eine gute Sprachqualität erreicht. Half Rate Codec (HR). Mit der Einführung des Half-Rate-Codecs wurde es möglich, auf einem Zeitschlitz der Luftschnittstelle nicht nur ein, sondern zwei Gespräche gleichzeitig abzuwickeln. Wie der Name sagt, steht für HR nur die halbe Datenrate zur Verfügung wie für den FR-Codec. Um trotzdem eine brauchbare Sprachqualität zu erreichen, wird anstelle der im FR-Codec verwendeten skalaren Quantisierung eine Vektorquantisierung verwendet. Dadurch ist für die Kodierung ungefähr die drei- bis vierfache Rechenleistung erforderlich wie beim FR-Codec. Weil die Sprachqualität trotzdem eher mäßig ist, wird HR von den Mobilfunknetzbetreibern nur dann eingesetzt, wenn eine Funkzelle überlastet ist. Enhanced Full Rate Codec (EFR). EFR arbeitet mit einer ähnlichen Datenrate wie der Full Rate Codec, nämlich 12,2 kbit/s. Durch einen leistungsfähigeren Algorithmus (CELP) wurde, gegenüber dem Full-Rate-Codec, eine bessere Sprachqualität erreicht, welche bei einem guten Funkkanal annähernd dem Niveau von ISDN-Telefongesprächen (G.711a) entspricht. Adaptive Multirate Codec (AMR). Bei AMR handelt es sich um einen parametrierbaren Codec mit unterschiedlichen Datenraten zwischen 4,75 und 12,2 kbit/s. In der 12,2-kbit/s-Einstellung entspricht er vom Algorithmus wie auch in der Audioqualität her weitgehend dem GSM-EFR-Codec. Je geringer die Datenrate der Sprachdaten ist, umso mehr Bits stehen für die Kanalkodierung und damit zur Fehlerkorrektur zur Verfügung. Somit wird der 4,75-kbit/s-Codec als der robusteste bezeichnet, weil trotz hoher Bitfehlerhäufigkeit bei der Funkübertragung noch ein verständliches Gespräch möglich ist. Während eines Gespräches misst das Mobilfunknetz die Bitfehlerhäufigkeit und wählt den dafür geeignetsten Codec aus einer Liste, dem Active Codec Set (ACS) aus. Die verwendete Coderate wird somit fortlaufend an die Kanalqualität adaptiert. Adaptive Multirate Codec bzw. wide Band (AMR-WB). Bei diesem Codec handelt es sich um eine Erweiterung und Optimierung des schon verfügbaren AMR-Codecsets. Wie das „WB“ (wide band) schon vermuten lässt, wird der übertragbare Frequenzbereich von derzeit ca. 3,4 kHz auf etwa 6,4 kHz beziehungsweise 7 kHz angehoben, ohne mehr Funkressourcen zu belegen. Die Entwicklung dieses Codecs ist seit einiger Zeit abgeschlossen, und er wurde von der ITU (G.722.2) und 3GPP (TS 26.171) standardisiert. Der Codec soll durch die größere Bandbreite Sprach- und Umgebungsgeräusche besser gemeinsam übertragen können, was in lauter Umgebung eine bessere Sprachqualität ermöglicht. Ericsson hat im T-Mobile-UMTS-Netz in Deutschland im Sommer 2006 mit ausgewählten Kunden in den Städten Köln und Hamburg einen AMR-WB-Betriebstest durchgeführt. Ende 2008 wurden alle Ericsson-BSC des Telekom-Netzes für AMR-WB vorbereitet. Seit Ende 2011 können alle Endkunden der Telekom AMR-WB nutzen. AMR-WB wird in Deutschland als "HD-Voice" vermarktet. Datenübertragung. Wird ein GSM-Kanal für Datenübertragung genutzt, erhält man nach den Dekodierschritten eine nutzbare Datenrate von 9,6 kbit/s. Diese Übertragungsart wird Circuit Switched Data (CSD) genannt. Eine fortschrittliche Kanalkodierung ermöglicht auch 14,4 kbit/s, bewirkt bei schlechten Funkverhältnissen aber viele Blockfehler, so dass die „Downloadrate“ tatsächlich niedriger ausfallen kann als mit erhöhter Sicherung auf dem Funkweg. Deshalb wird in Abhängigkeit von der Bitfehlerhäufigkeit zwischen 9,6 und 14,4 kbit/s netzgesteuert umgeschaltet (=Automatic Link Adaptation, ALA). Beides ist jedoch für viele Internet- und Multimediaanwendungen zu wenig, so dass Erweiterungen unter dem Namen HSCSD und GPRS geschaffen wurden, die eine höhere Datenrate ermöglichen, indem mehr Bursts pro Zeiteinheit für die Übertragung genutzt werden können. HSCSD nutzt eine feste Zuordnung mehrerer Kanalschlitze, GPRS nutzt Funkschlitze dynamisch für die aufgeschalteten logischen Verbindungen (besser für den Internetzugang). Eine Weiterentwicklung von GPRS ist E-GPRS. Dies ist die Nutzung von EDGE für Paketdatenübertragung. Ortung. Die Position eines Mobiltelefons ist für den Mobilfunkbetreiber durch die permanente Anmeldung am Netz in gewissen Genauigkeitsgrenzen bekannt. Im Standby-Betrieb ist sie zumindest durch die Zuordnung zur aktuell verwendeten Location Area gegeben. Diese Information wird bei Bewegung der Mobilstation regelmäßig aktualisiert. GSM-Ortung stellt je nach Anwendungsfall eine Alternative zum GPS dar und wird für verschiedene Dienste genutzt, unter anderem für Location Based Services, Routenplaner, Flottenmanagement für Transportunternehmen oder eine Hilfe zum Wiederauffinden eines Mobiltelefons. Die Verwendung für Rettungsdienste ermöglicht das schnelle Auffinden von Unfallopfern. Ebenso wird GSM-Ortung in der Strafverfolgung als Hilfsmittel der Polizei eingesetzt. Erweiterungen und Weiterentwicklungen von GSM. GSM wurde ursprünglich hauptsächlich für Telefongespräche, Faxe und Datensendungen mit konstanter Datenrate konzipiert. Burstartige Datensendungen mit stark schwankender Datenrate, wie es beim Internet üblich ist, wurden nicht eingeplant. Mit dem Erfolg des Internet begann daher die sogenannte „Evolution von GSM“, bei der das GSM-Netz komplett abwärtskompatibel mit Möglichkeiten zur paketorientierten Datenübertragung erweitert wurde. Außerdem sollten nur minimale Kosten durch den Austausch von vielfach verwendeten Komponenten entstehen. CSD. Geschwindigkeiten bis zu 14,4 kBit/s werden mit Circuit Switched Data erreicht. HSCSD. Durch die Kopplung von mehreren Kanälen erreicht HSCSD insgesamt eine höhere Datenrate, maximal 115,2 kbit/s. Um HSCSD nutzen zu können, braucht man ein kompatibles Mobiltelefon, auf Seiten des Netzbetreibers sind Hardware- und Softwareänderungen bei Komponenten innerhalb der Basisstationen und des Kernnetzes erforderlich. In Deutschland unterstützen nur Vodafone und E-Plus HSCSD. GPRS. GPRS erlaubte erstmals eine paketvermittelte Datenübertragung. Der tatsächliche Datendurchsatz hängt unter anderem von der Netzlast ab und liegt bei maximal 171,2 kbit/s. Bei geringer Last kann ein Nutzer mehrere Zeitschlitze parallel verwenden, während bei hoher Netzlast jeder GPRS-Zeitschlitz auch von mehreren Benutzern verwendet werden kann. GPRS erfordert beim Netzbetreiber allerdings innerhalb des Kernnetzes zusätzliche Komponenten (den GPRS Packet Core). EDGE. Mit EDGE wurde durch eine neue Modulation (8PSK) eine Erhöhung der Datenrate ermöglicht. Sie beträgt maximal 384 kbit/s. Mit EDGE werden GPRS zu E-GPRS (Enhanced GPRS) und HSCSD zu ECSD (Enhanced Circuit Switched Data) erweitert. Streaming. Streaming services erfordern eine minimale garantierte Datenrate. Dies ist in GPRS ursprünglich nicht vorgesehen. Inzwischen (d. h. ab 3GPP release 99) wurden durch Einführung entsprechender Quality of service-Parameter und einige andere Eigenschaften die Voraussetzungen dafür geschaffen, echtes Streaming über GPRS zu ermöglichen. Generic Access. Seit Mitte 2004 wird in den Standardisierungsgremien an einer Methode gearbeitet, die es Mobilgeräten erlauben soll, GSM-Dienste statt über die GSM-Luftschnittstelle auch über jede Art von anderen (IP-)Übertragungssystemen zu nutzen. Dafür sollen die Sendestationen von WLAN, Bluetooth etc. über sogenannte Generic Access Controller an das GSM core network angeschlossen werden. Die GSM-Nutzdaten sowie die Signalisierungsdaten werden dann durch das IP-Netz hindurchgetunnelt. Cell Broadcast. Cell Broadcast oder Cell Broadcasting (kurz CB) ist ein Mobilfunkdienst zum netzseitigen Versenden von Kurzmitteilungen an alle in einer bestimmten Basisstation eingebuchten MS. BOS-GSM. BOS-GSM (je nach Anbieter auch BOS@GSM, GSM-BOS) ist eine Technik zur digitalen Funkkommunikation von Anwendern mit besonderen Sicherheitsanforderungen wie Behörden und Organisationen mit Sicherheitsaufgaben (BOS: Polizei, Feuerwehr, Rettungsdienste). Trivia. Im französischen Sprachgebrauch wird vor allem in Belgien häufig die Abkürzung „GSM“ für das deutsche Wort „Mobiltelefon“ benutzt. Auch in der bulgarischen Sprache, die seit über 200 Jahren viele Wörter aus dem Französischen entlehnt, wird „GSM“ synonym für „Mobiltelefon“ gebraucht. Man-in-the-middle. Das Protokoll von GSM ist gegen Man-in-the-middle-Angriffe (MITM) nicht gewappnet. Ein Beispiel für den möglichen Einsatz ist ein IMSI-Catcher. Das Gerät erzwingt die Ausschaltung der Verschlüsselung. 2003 präsentierten Elad Barkan, Eli Biham und Nathan Keller einen alternativen Man-in-the-middle-Angriff gegen GSM, der es ermöglicht, den A5/3-Verschlüsselungsalgorithmus zu umgehen. Dieser Angriff ist ein Angriff gegen das GSM-Protokoll und kein Angriff gegen die Chiffre KASUMI selbst. Eine längere Version des Papers wurde im Jahr 2006 veröffentlicht. Der Angreifer positioniert sich mit einer eigenen Basisstation zwischen den mobilen Teilnehmer und der richtigen Basisstation (Betreiber-Netzwerk). Die Challenge RAND wird an den mobilen Teilnehmer weitergereicht. Die Antwort SRES wird jedoch vom Angreifer zwischengespeichert. Das Mobiltelefon wird nun vom Angreifer aufgefordert eine A5/2-Verschlüsselung zu beginnen. Nach Zustandekommen der Verschlüsselung bricht der Angreifer innerhalb einer Sekunde den Geheimtext und extrahiert den Schlüssel Kc. Der Angreifer schickt nun das zwischengespeicherte SRES an das Betreiber-Netzwerk. Der Angreifer ist gegenüber dem Netzwerk authentifiziert. Das Netzwerk fordert den Angreifer nun auf, eine Verschlüsselung A5/1 oder A5/3 zu nutzen. Der Angreifer benutzt den vorher extrahierten Kc und es kommt eine verschlüsselte Kommunikation zustande. Der Angreifer kann anschließend Gespräche abhören, sie in Echtzeit dekodieren oder zwischenspeichern. Das Umleiten und die Übernahme von Gesprächen, das Verändern von SMS und das Führen von Gesprächen auf Kosten Anderer ist ebenfalls möglich. Denial of Service. Im Rahmen des USENIX-Security Symposiums 2013 wurde gezeigt, dass mit Hilfe einer geschwindigkeitsoptimierten OsmocomBB-Firmware – auf wenigen Geräten installiert – ein GSM-Netz zum Denial of Service gebracht werden kann, indem die präparierten Handys alle Paging-Requests beantworten (mit etwa 65 Antworten pro Sekunde), bevor der berechtigte Empfänger reagieren kann. GSM sieht daraufhin von weiteren Anfragen ab, eine Authentifizierung folgt erst im nächsten Schritt. Die Hälfte aller Netze (global) prüft in weniger als einem von zehn Fällen die Legitimation des Endgerätes. Verschlüsselungsalgorithmen. Die Algorithmen A5/1 und A5/2 können in Echtzeit gebrochen werden. Der A5/3-Algorithmus mit einem 64 Bit-Schlüssel basiert auf der KASUMI-Chiffre. Die KASUMI-Chiffre gilt seit 2010 als theoretisch gebrochen. Ein erfolgreicher praktischer Angriff gegen A5/3 ist nicht bekannt. Als sicher gilt der A5/4-Algorithmus mit einem 128 Bit-Schlüssel. Gegenmaßnahmen. Der Sicherheitsforscher Karsten Nohl fordert "kurzfristig" den Einsatz von SIM-Karten mit zusätzlicher Verifikationsfunktion. Ein kleines Java-Programm auf der Karte könnte den Netzbetreiber gegenüber dem Mobilfunkteilnehmer verifizieren. Damit würde die jetzige einseitige durch eine gegenseitige Authentifizierung ersetzt. Dieses Vorgehen verhindert MITM-Angriffe und hilft auch gegen DoS-Paging-Angriffe. Des Weiteren müssen Netzbetreiber und Mobilfunkgeräte den Verschlüsselungsalgorithmus A5/3 benutzen und auf Kombinationen mit A5/1 oder A5/2 verzichten. "Langfristig" fordert der Experte den Einsatz von A5/4 und die Nutzung von USIM-Karten. Im Abschnitt Weblinks findet sich mit der "GSM Security Map" eine visuelle Übersicht der GSM-Sicherheit in verschiedenen Ländern. Beispiel: Abhören von Frau Merkels Parteihandy. Im Oktober 2013 berichteten mehrere Medien über das Abhören von Angela Merkels Parteihandy durch die amerikanische National Security Agency (NSA). Laut FAZ besaß Frau Merkel zu diesem Zeitpunkt einen Mobilfunkvertrag mit Vodafone. Es bestand der Verdacht, dass das GSM-basierte Funknetz des Providers durch die NSA angezapft wurde. Verwendete Frequenzen. Aus Kostengründen erfolgte der Bau von neuen Mobilfunknetze (z.B. Australien/Telstra) oder Mobilfunknetz-Erweiterungen (z.B. Schweiz/Swisscom) nur mit der neueren Mobilfunktechnologie UMTS. Neue Mobilfunkantennen strahlen öfters nur ein UMTS- und LTE-Signal aus. Nur GSM-fähige Mobilfunktelefone sollten durch UMTS-fähige Mobilfunktelefone ersetzt werden. Aktuelle Situation. In Deutschland fand GSM-Mobilfunk bis zum Jahr 2005 nur im P-GSM- und DCS-1800-Bereich statt. Ende 2005 öffnete die Bundesnetzagentur den gesamten E-GSM-Frequenzbereich für den GSM-Mobilfunk. Daraufhin begannen E-Plus und O2 ab April 2006 zum Teil in den E-GSM-Bereich umzuziehen (E-Plus: 880,2 – 885,0 MHz / 925,2 – 930,0 MHz und O2: 885,2 – 890,0 MHz / 930,2 – 935,0 MHz). Diese Bereiche nutzen die beiden Anbieter von nun an zum Ausbau ihrer Netze in dünn besiedelten Regionen. Somit verfügen alle vier deutschen Mobilfunkanbieter über Spektren in beiden Bereichen. Die aktuellen GSM-Lizenzen laufen 2016 aus und werden dann durch die Bundesnetzagentur voraussichtlich wieder neu versteigert. Das obere Bandende des GSM1800-Bereiches (ab ARFCN 864) wurde bis zur Frequenzauktion 2015 freigehalten, um störende Beeinflussungen bei DECT-Schnurlostelephonen zu vermeiden (sog. DECT-Schutzband 1875.5 - 1880.0 MHz). Außerdem wurde dieser Bereich bis Ende 2015 für temporäre und dauerhafte Test- und Versuchsanlagen durch die Bundesnetzagentur an Firmen wie auch Privatpersonen vergeben. R-GSM, E-GSM (GSM 900), E-UTRA Band 8 Die DB betreibt entlang der Eisenbahnstrecken ein nicht öffentliches GSM-R-Mobilfunknetz. DCS 1800 (GSM 1800) E-UTRA Band 3 Sch = Schutzabstand zum benachbarten DECT-Band Ende Juni 2013 hatte die Bundesnetzagentur bekannt gegeben, dass die zum 31. Dezember 2016 ablaufenden Nutzungsrechte an den Mobilfunkfrequenzen erneut in einer Auktion versteigert werden sollen. Neben den Frequenzen im 900-MHz- und 1800-MHz-Bereich, sollen ebenfalls Frequenzblöcke im Bereich von 700 MHz und 1,5 GHz im Rahmen der Auktion vergeben werden. Den bisherigen vier Mobilfunknetzbetreibern soll je ein Frequenzblock im 900-MHz-Bereich außerhalb der Auktion zugeteilt werden, um die Grundversorgung zu sichern. Ab 2017. Die ab 1. Januar 2017 gültigen Bundesnetzagentur-Konzessionen erlauben die Nutzung der Mobilfunkfrequenzen durch die deutschen Mobilfunkanbieter wie nachfolgend abgebildet. Das von der Bundesnetzagentur zugewiesene Frequenzband kann vom Mobilfunkanbieter in Deutschland für GSM, UMTS oder LTE genutzt werden. Üblich ist die Nutzung des zugewiesenen Frequenzband für unterschiedliche Technologien (zum Beispiel: E-UTRA Band 8: GSM und UMTS). R-GSM, E-GSM (GSM 900), E-UTRA Band 8 Die DB betreibt entlang der Eisenbahnstrecken ein nicht öffentliches GSM-R-Mobilfunknetz. Die Angaben für E-UTRA Band 8 entsprechen der Zuteilung ab 2017! DCS 1800 (GSM 1800) E-UTRA Band 3 Die Angaben für E-UTRA Band 3 entsprechen der Zuteilung ab 2017! Situation in Österreich. Die bis Ende 2034 gültigen RTR-Konzessionen erlauben die Nutzung der Mobilfunkfrequenzen durch die Österreicher Mobilfunkanbieter wie nachfolgend abgebildet. Das vom RTR zugewiesene Frequenzband kann vom Mobilfunkanbieter in Österreich für GSM, UMTS oder LTE genutzt werden. Üblich ist die Nutzung des zugewiesenen Frequenzband für unterschiedliche Technologien (zum Beispiel: E-UTRA Band 8: GSM und UMTS). R-GSM, E-GSM (GSM 900), E-UTRA Band 8 Die ÖBB betreibt entlang der Eisenbahnstrecken ein nicht öffentliches GSM-R-Mobilfunknetz. Die Angaben für E-UTRA Band 8 entsprechen der Zuteilung ab 2018! Bis 1. Januar 2018 werden in mehreren Schritten die Mobilfunkfrequenzen auf dem E-UTRA Band 8 neu zugeteilt (Refarming). DCS 1800 (GSM 1800) E-UTRA Band 3 Die Angaben für E-UTRA Band 3 entsprechen der Zuteilung ab 2020! Bis 1. Januar 2020 werden in mehreren Schritten die Mobilfunkfrequenzen auf dem E-UTRA Band 3 neu zugeteilt (Refarming). Situation in der Schweiz. Die bis 2028 gültigen BAKOM-Konzessionen erlauben die Nutzung der Mobilfunkfrequenzen durch die Schweizer Mobilfunkanbieter wie nachfolgend abgebildet. Das vom BAKOM zugewiesene Frequenzband kann vom Schweizer Mobilfunkanbieter für GSM, UMTS oder LTE genutzt werden. Üblich ist die Nutzung des zugewiesenen Frequenzband für unterschiedliche Technologien (zum Beispiel: E-UTRA Band 8: GSM und UMTS). Die Swisscom wird Ende 2020 die Ausstrahlung des Mobilfunksignals der 2. Generation (GSM) einstellen. Alle öffentlichen Schweizer Mobilfunkanbieter haben ähnliche Pläne zur Abschaltung des Mobilfunknetz der 2. Generation (GSM). Die frei werdenden Mobilfunkfrequenzbänder werden für die Ausstrahlung des Mobilfunksignals der 3. (UMTS), 4. (LTE) und 5. Generation verwendet. Deshalb wird sehr wahrscheinlich ab 2021 kein Schweizer Mobilfunkanbieter mehr ein öffentliches GSM-Mobilfunknetz in der Schweiz betreiben. R-GSM, E-GSM (GSM 900), E-UTRA Band 8 Die SBB betreiben entlang der Eisenbahnstrecken ein nicht öffentliches GSM-R-Mobilfunknetz. DCS 1800 (GSM 1800) E-UTRA Band 3 General Packet Radio Service. General Packet Radio Service, abgekürzt "GPRS" (deutsch: „Allgemeiner paketorientierter Funkdienst“) ist die Bezeichnung für den paketorientierten Dienst zur Datenübertragung in GSM-Netzen. Datenübertragung. Im Gegensatz zum leitungsvermittelten (englisch "circuit switched") Datendienst "CSD" ist GPRS paketorientiert. Das heißt, die Daten werden beim Sender in einzelne Pakete umgewandelt, als solche übertragen und beim Empfänger wieder zusammengesetzt. Wenn GPRS aktiviert ist, besteht nur virtuell eine dauerhafte Verbindung zur Gegenstelle (sog. "-Betrieb"). Erst wenn wirklich Daten übertragen werden, wird der Funkraum besetzt, ansonsten ist er für andere Benutzer frei. Deshalb braucht kein Funkkanal dauerhaft (wie bei CSD) für einen Benutzer reserviert zu werden. Deshalb werden die Kosten für GPRS-Verbindungen üblicherweise nach übertragener Datenmenge berechnet, und nicht nach der Verbindungsdauer. Maßgeblich sind natürlich die individuellen Vertragskonditionen. Kanalbündelung. Die GPRS-Technik ermöglicht bei der Bündelung aller acht GSM-Zeitschlitze eines Kanals theoretisch eine Datenübertragungsrate von 171,2 Kilobit pro Sekunde. Im praktischen Betrieb ist die Anzahl der nutzbaren Zeitschlitze innerhalb eines Rahmens jedoch durch die Fähigkeit der Mobilstation (englisch "multislot capability") und der Netze begrenzt. Am Markt befinden sich (Stand 2008) Geräte der Multislot Class 12 mit maximal je vier Zeitschlitzen im Downlink und im Uplink (jedoch gleichzeitig maximal 5 Zeitschlitze). Die damit erreichbare Datenübertragungsrate beträgt – abhängig vom verwendeten Kodierungsschema (hängt ab vom Signal und Rauschverhältnis) und der von der Netzauslastung abhängigen Anzahl der zugeteilten Zeitschlitze (Timeslots) – bis zu 53,6 kbps (bei 4 Zeitschlitzen und CS-2). Das entspricht in etwa der Geschwindigkeit eines V.90-Telefonmodems. GPRS-Endgeräteklassen. GPRS-fähige Mobiltelefone gehören zumeist zur Geräte-Klasse B. (Stand 2008/2009) Einige Nokia-Geräte, wie das N900, unterstützen Klasse A. Anwendung. Ungefähr seit dem Jahr 2000 unterstützen viele Mobiltelefone GPRS, etwa für die Betrachtung von WAP-Seiten. Der Multimedia Messaging Service (MMS) basiert ebenfalls auf GPRS. Oft kann auch ein Computer oder Handheld mit einem GPRS-fähigen Mobiltelefon verbunden werden, um diesem einen vollwertigen, wenn auch schmalbandigen Internetzugang zu gewähren. Das Mobiltelefon fungiert dann als Modem. Bekannt sind auch kleine GPRS-Modems als Steckkarten für Notebooks. Besonders geeignet ist GPRS auch für Fernwirkaufgaben. In der Regel wird hier nur eine geringe Bandbreite benötigt, die Übertragungsgeschwindigkeit spielt eine untergeordnete Rolle. Größte Vorteile von GPRS im Bereich Fernwirken sind die Netzabdeckung und die Verfügbarkeit von GSM, sowie die geringeren Investitionen im Vergleich zu anderen Übertragungstechniken. Ein weiterer Anwendungsfall ist die Ortung von Fahrzeugen und Objekten, bei der GPRS zur Übertragung von Positions- und Telemetriedaten benutzt wird. Weiterhin wird das GPRS-Datennetz für den Mobilfunkdienst Push-to-talk genutzt. Netzarchitektur. Einbindung des GPRS (SGSN, GGSN, MMSC) in das GSM-Mobilfunknetz Der paketvermittelnde Dienst GPRS baut auf dem GSM-Mobilfunknetz auf, benötigt aber zusätzliche Netzelemente: Die PCU, den SGSN und den GGSN. "Siehe Hauptartikel: GPRS Support Node, Packet Control Unit" Schnittstellen der GSN (GPRS Support Node). Die GSM-Richtlinien wie auch WPP3G (der GSM-Nachfolger für UMTS) definieren Schnittstellen zwischen den verschiedenen Netzelementen. Die folgende Liste führt die gebräuchlichsten Schnittstellen (Signalisierung) und Verbindungen (Signalisierung und Nutzdaten) auf. Die weitgehend englischen Begriffe sind dem Regelwerk "GSM Recommendations" entnommen. Eine Übersetzung ist nicht immer sinnstiftend. SGSN (Serving GPRS Support Node). Die BSC koppeln die GPRS-Paketdaten aus und leiten diese über Frame-Relay- oder IP-Verbindungen an den zuständigen Serving GPRS Support Node (SGSN) weiter. Jeder SGSN verwaltet den GPRS-Datenverkehr für eine größere Anzahl von BSCen. Sofern die Gb-Schnittstelle über IP statt Frame Relay geleitet wird, kann eine BSC mit einer Gruppe von SGSN kommunizieren. Man spricht dann von „SGSN in Pool“ oder „Gb flex“. Damit wird das Netz ausfallsicherer, und die Last kann besser zwischen den SGSN verteilt werden. GGSN (Gateway GPRS Support Node). Der Zugang zum GPRS-Netz erfolgt über einen Zugangspunkt, der Access Point Name (APN) genannt wird. Die Zuordnung von APN zu einem Teilnehmer erfolgt über die Teilnehmerdaten, die im HLR gespeichert werden. Ein Teilnehmer kann dabei mehrere APN nutzen. Garantie. Eine Garantie (v. frz.: "garantie", v. altfränk. "weren" gewährleisten, sicherstellen) ist eine Zusicherung eines bestimmten Handelns in einem bestimmten Fall. Garantie in der Umgangssprache. In der Umgangssprache wird unter Garantie vornehmlich die Zusicherung der Funktionsfähigkeit von Gütern – insbesondere technischer Konsumgüter – für eine bestimmte Periode bezeichnet. Bei Funktionsmängeln während dieser Periode verpflichtet sich der Hersteller oder Verkäufer, der die Garantie abgegeben hat, die Funktionsfähigkeit kostenlos wiederherzustellen. Die Bedingungen der Garantie sind in einem Garantieschein festgehalten. Der Sprachgebrauch macht häufig keinen Unterschied zwischen der gesetzlichen Gewährleistungspflicht und einer zusätzlichen freiwillig angebotenen vertraglichen Garantie, während es sich juristisch um unterschiedliche Rechte bzw. Verpflichtungen handelt. Garantie im Zivilrecht. Im Wirtschaftsleben gibt es einerseits Garantien, die eine bereits bestehende eigene Verpflichtung des Garanten (Eigengarantie) verstärken oder begründen (z. B. Beschaffenheits-/Haltbarkeitsgarantie; Garantie der Werthaltigkeit von Aktiven im Rahmen eines Unternehmenskaufs etc.), und andererseits Garantien, die ein Garant für einen Auftraggeber einem Begünstigten gegenüber abgibt, um sicherzustellen, dass die Verpflichtung auch bei Unwillen oder Unvermögen des Auftraggebers erfüllt wird. Banken (Avalkredit) und Versicherungen (Kautionsversicherung) bieten solche Garantien gegen Entgelt an; Muttergesellschaften oder natürliche Personen (Verwandte, Freunde) stehen allenfalls unentgeltlich für Verpflichtungen nahestehender natürlicher oder juristischer Personen ein, wobei in diesem Fall oft die Form der Bürgschaft gewählt wird. Qualitätsgarantie (Beschaffenheits-/Haltbarkeitsgarantie). Im Handel ist die Garantie eine zusätzlich zur gesetzlichen Gewährleistungspflicht übernommene freiwillige und frei gestaltbare Dienstleistung eines Händlers oder Herstellers gegenüber dem Kunden. Wird eine solche Beschaffenheits- oder Haltbarkeitsgarantie abgegeben, so ist Abs. 2 Bürgerliches Gesetzbuch (BGB) anwendbar. Die Garantiezusage bezieht sich häufig auf die Funktionsfähigkeit bestimmter Teile (oder des gesamten Geräts) über einen bestimmten Zeitraum. Bei einer Garantie spielt der Zustand der Ware zum Zeitpunkt der Übergabe an den Kunden keine Rolle, da ja die Funktionsfähigkeit für den Zeitraum „garantiert“ wird. Die Garantie ist jedoch üblicherweise ausgeschlossen, wenn die Ursache des Defekts beim Kunden liegt oder der Kunde versucht hat, selbst eine Reparatur durchzuführen. Für Form und Inhalt der Garantieerklärung gelten beim Verbrauchsgüterkauf besondere Bestimmungen. Abgrenzung der Qualitätsgarantie gegenüber der Gewährleistung. Im juristischen Sinn definiert eine Garantie die vertraglich vereinbarte Verpflichtung eines Garanten, während die Gewährleistung direkt aus dem Gesetz abzuleiten ist. Die gesetzliche Gewährleistung bezieht sich auf die Mangelfreiheit des Kaufgegenstandes zum Zeitpunkt der Übergabe an den Käufer. Genaueres siehe Gewährleistung. Sie beträgt nach BGB allgemein 24 Monate und kann bei Gebrauchtwaren per AGB oder einzelvertraglich auch gegenüber Verbrauchern auf zwölf Monate verkürzt werden. Der Kunde kann daher seine Rechte bei Lieferung eines mangelbehafteten Gegenstandes nunmehr zwei Jahre lang (bzw. ein Jahr bei gebrauchten Waren, sofern kaufvertraglich vereinbart) geltend machen. Zu Gunsten des privaten Käufers gegenüber dem gewerblichen Verkäufer wird beim Verbrauchsgüterkauf in den ersten sechs Monaten nach Übergabe vermutet, dass die Ware schon zum Lieferzeitpunkt defekt war, es sei denn, der Verkäufer kann nachweisen, dass der Mangel zum Zeitpunkt der Lieferung noch nicht bestand (Beweislastumkehr). Reklamiert der Kunde später als sechs Monate nach dem Kauf, so kehrt die Beweislast zum rechtlichen Grundsatz zurück, dass grundsätzlich jede Partei die Beweislast für die tatsächlichen Voraussetzungen der ihr günstigen Rechtsnorm trägt, d.h. er muss beweisen, dass der Gegenstand schon bei der Übergabe einen Mangel aufwies. Für den Kunden ist zu beachten, dass durch eine Garantiezusage die gesetzliche Gewährleistung in keinem Fall ersetzt oder gar – im Umfang oder der Zeitdauer – verringert werden kann, sondern immer nur neben der bzw. zusätzlich zur gesetzlichen Gewährleistung Anwendung findet. Situation in Österreich. Garantien müssen auf Wunsch des Konsumenten schriftlich oder auf dauerhaftem Datenträger übermittelt werden. Sie müssen den Hinweis enthalten, dass daneben und unberührt von der Garantie Gewährleistungsansprüche bestehen können. Garantien müssen immer mehr Rechte, als die gesetzliche Gewährleistung bereits beinhaltet, enthalten. Die Garantie durch einen Dritten. Während bei der Qualitätsgarantie in der Regel der Hersteller oder Händler nur selbst eine Zusicherung für eine eigene Verpflichtung gibt, besteht im Wirtschaftsleben national und insbesondere international das Bedürfnis, dass eine dritte Partei mit unbestrittener Bonität die Verpflichtungen des Hauptschuldners zusätzlich absichert (garantiert). Sie deckt im internationalen Handels- und Wirtschaftsverkehr Erfüllungsrisiken ab. Die Garantie dokumentiert, dass der Begünstigte eine vertraglich vereinbarte Leistung (z.B. Zahlung, Lieferung, Dienstleistung) von einem Dritten erhält. Bei Nichterfüllung ist der festgelegte Betrag der Garantie in Anspruch zu nehmen. Beteiligte. Eine natürliche oder juristische Person, die aus einem Rechtsgeschäft eine Verpflichtung zu erfüllen hat (Auftraggeber), beauftragt eine dritte Partei (Garant) eine Garantie zugunsten eines Dritten (Begünstigter) auszustellen. Garant ist meist eine Bank, es kann jedoch auch eine Versicherungsgesellschaft, eine Muttergesellschaft oder eine staatliche Institution (Bundesgarantie, Landesgarantie) der Garant sein. Bankgarantien (Avale) können direkt durch die Bank des Verpflichteten an den Begünstigten abgegeben werden (direkte Garantie) oder indirekt über eine Korrespondenzbank (indirekte Garantie). Bei dieser Konstruktion spricht man auch von einer Rückgarantie. Garantie im Bankgeschäft. Die Garantie im Bankgeschäft stellt ein wichtiges Sicherungsmittel dar, welches insbesondere im internationalen Geschäft die Bürgschaft ersetzt. Entweder nehmen Kreditinstitute diese Gewährleistung als Kreditsicherheit herein oder stellen Bankgarantien aus, die bestimmte Geschäfte absichern. Dabei verpflichtet sich der Garant einseitig im formfreien Garantievertrag, entweder für einen künftigen Schaden/Verlust ohne Rücksicht auf Verschulden einzustehen oder die Haftung für einen bestimmten wirtschaftlichen Erfolg zu übernehmen. Der garantierte Erfolg kann auch darin bestehen, dass die Bank als Gläubigerin einer Kreditforderung den Kreditbetrag vom Schuldner zurückerhält. Es handelt sich um eine abstrakte Haftung, die selbständig neben der Hauptschuld übernommen wird, selbst wenn letztere aus Rechtsgründen nicht (mehr) besteht. Der Garant hat im Falle der Gewährleistung den Gläubiger so zu stellen, als ob der garantierte Erfolg eingetreten oder der Schaden nicht entstanden wäre. Diese Form der Gewährleistung ist international üblich, aber im BGB nicht geregelt. Die Bestimmungen über die Bürgschaft können nicht analog angewandt werden. Eine Unterform ist die Garantie „"auf erstes Anfordern"“. Sie hat den Zweck, rechtliche oder tatsächliche Streitfragen aus dem Verhältnis Gläubiger-Hauptschuldner (sog. Valutaverhältnis) – deren Beantwortung sich nicht von selbst ergibt („liquide Beweise“) – aus dem Garantieversprechen herauszuhalten und nach vollzogener Inanspruchnahme einem Rückforderungsprozess zwischen Gläubiger und Hauptschuldner vorzubehalten. Das der Stellung der Bankgarantie zugrunde liegende Rechtsverhältnis zwischen dem Garantieauftraggeber und dem Begünstigten hat für die Rechtsbeziehungen des Begünstigten zur Bank daher nur dann Bedeutung, wenn sich dies aus dem Inhalt des Garantievertrages ergibt oder wenn eine missbräuchliche Inanspruchnahme der Garantie offensichtlich oder liquide beweisbar ist. Bei Bankgarantien auf erstes Anfordern wird sich nur in Ausnahmefällen aus dem Garantievertrag ableiten lassen, dass im Falle des Vorliegens der formellen Voraussetzungen für die Inanspruchnahme der Garantie (formeller Garantiefall) der Anspruch des Begünstigten gegen die Bank zusätzlich noch davon abhängig sein soll, dass ihm auch im Valutaverhältnis zum Garantieauftraggeber ein Anspruch zusteht (materieller Garantiefall). Eine "Rück- oder Gegengarantie" auf erstes Anfordern liegt vor, wenn im Rahmen eines mehrstufigen (indirekten) Garantieverhältnisses die vom Garantieauftraggeber eingeschaltete (Erst-)Bank die Garantie gegenüber dem (Letzt-)Begünstigten nicht selbst erteilt, sondern damit eine weitere Bank (Zweitbank) beauftragt und dieser die Erstattung der aus deren Garantieübernahme entstehenden Aufwendungen „auf erstes Anfordern“ verspricht. Im Verhältnis der beteiligten Banken zueinander handelt es sich um eine selbständige direkte Garantie zur Sicherung und Ergänzung des vertraglichen Aufwendungsersatzanspruchs der Zweitbank gegen die Erstbank. Diese für Direktgarantien auf erstes Anfordern entwickelten Regeln gelten grundsätzlich auch für eine Rückgarantie auf erstes Anfordern. Beim Missbrauchseinwand muss jedoch den Besonderheiten der Rückgarantie Rechnung getragen werden. Der zu begleichende Anspruch aus der Rückgarantie ist vom tatsächlichen Eintritt der Zahlungsvoraussetzungen der Garantie der Zweitbank gegenüber dem Letztbegünstigten grundsätzlich unabhängig. Ebenso wenig setzt er voraus, dass die Zweitbank die Zahlung an den Letztbegünstigten für erforderlich (§ 670 BGB) halten durfte; diese Frage ist vielmehr erst in einem Rückforderungsprozess zwischen Erst- und Zweitbank zu klären. Abstraktheit. Die Garantie ist in zweifacher Weise abstrakt. Einerseits begründet sie eine vom Grundgeschäft unabhängige Leistungsverpflichtung des Garanten ("äußere Abstraktheit"), andererseits bleibt die Wirksamkeit einer Verfügung dadurch unbeeinträchtigt, dass die Vereinbarung über ihren Zweck nicht in ihr enthalten ist ("inhaltliche Abstraktheit"). Das der Bankgarantie zugrunde liegende Rechtsverhältnis zwischen dem Hauptschuldner und dem Garantie-Begünstigten (sog. Valutaverhältnis) hat für die Rechtsbeziehungen des Begünstigten zum Garanten daher nur ausnahmsweise Bedeutung. Die auf das Grundgeschäft bezogenen Einreden/Einwendungen des Hauptschuldners gegenüber dem Begünstigten werden daher für den Garanten ausgeschlossen. Im Gegensatz zum abstrakten Sicherungsinstrument Garantie ist das Sicherungsinstrument Bürgschaft akzessorisch, d.h. die auf das Grundgeschäft bezogenen Einreden/Einwendungen des Hauptschuldners gegenüber dem Begünstigten stehen auch dem Bürgen zu. Garantien im internationalen Projektgeschäft. Um die Rechtssicherheit in internationalen Geschäften zu verbessern und zu verhindern, dass Auftraggeber oder Auftragnehmer aufgrund ihrer wirtschaftlichen Stärke einseitige und unbillige Konditionen durchsetzen, haben diverse internationale Finanzierungsinstitute Konditionenwerke erarbeitet, die für Aufträge verbindlich sind, die durch diese Institutionen finanziert werden. So hat z. B. Weltbank ein Regelwerk für die Vergabe von Projektaufträgen herausgegeben, das auch verbindliche Texte für diverse Garantien vorschreibt. Garantie im Völkerrecht. Wenn die Einhaltung von Verträgen zwischen Staaten (international oder bilateral) durch weitere nicht die direkt beteiligte Staaten (meist Großmächte) garantiert wird, so liegt eine völkerrechtliche Garantie vor. Wird eine solche Garantie durch mehrere Garantiemächte abgegeben, so kann es sich um eine Mehrzahl von Einzelgarantien handeln, d.h. jede Schutzmacht kann unabhängig von den anderen Maßnahmen zur Sicherung der Vertragseinhaltung einleiten. Es gibt jedoch auch die Form der Kollektivgarantie, die eine Abstimmung der Garantiemächte untereinander voraussetzt. Neben der Garantie für die Einhaltung von Verträgen gibt es auch Garantien für die Erhaltung eines Zustandes oder die Wahrung von Rechten, z. B. Garantie der territorialen Integrität oder der Neutralität eines Staates. Garantie im Staatsrecht. Im Staatsrecht bezeichnet man die Festschreibung von Grundrechten in den Verfassungen als Garantie der Menschenrechte oder Grundrechte. Neben der Garantie von individuellen Rechten enthalten Verfassungen meist auch konstitutionelle oder institutionelle Garantien (z. B. kommunale Selbstverwaltung aus Abs. 2 GG) Durch die Erhebung eines politischen Organisationsprinzips in den Verfassungsrang, wird es der beliebigen Änderung durch einfache Mehrheiten entzogen und damit besonders geschützt. Gemüse. Gemüse (mhd. "gemüese", ursprüngliche Bedeutung: Mus aus Nutzpflanzen) ist heute ein Sammelbegriff für essbare Pflanzenteile wild wachsender oder in Kultur genommener Pflanzen. Meist handelt es sich um Blätter, Früchte, Knollen, Stängel oder Wurzeln von ein- oder zweijährigen krautigen Pflanzen, die roh, gekocht oder konserviert genossen werden. Im Gegensatz zu Pflanzen oder Pflanzenteilen, die vor allem wegen ihrer Reservestoffe (Kohlenhydrate, Eiweiß und Fette) genutzt werden und deshalb die Grundkost in der Ernährung des Menschen darstellen, wird Gemüse vor allem wegen seines Gehalts an Vitaminen, Mineralstoffen und sekundären Pflanzenstoffen als Beikost verzehrt. Gemüse ist geschmacksgebend und kalorienarm. Zudem hat Gemüse aufgrund seines hohen Gehalts an Ballaststoffen eine wichtige Funktion für die Verdauung. Trockene Samen wie Erbsen oder Linsen und Getreidekörner zählen "nicht" zum Gemüse. Pflanzenteile, die als Gemüse "und" Gewürz verwendet werden, wie Paprika oder Zwiebeln, gelten nur dann als Gemüse, wenn sie eine erkennbare Hauptkomponente der Mahlzeit bilden. Das Gemüse wird nach unterschiedlichen Kriterien unterteilt. Unterscheidung von Obst und Gemüse. Die Unterscheidung von Obst und Gemüse ist nicht eindeutig, sie ist kulturell bedingt. Einteilung. "Feldgemüse" ist ein Sammelbegriff für Gemüse, das unter freiem Himmel angebaut wird. Diese Anbauart steht im Gegensatz zum gärtnerischen Gemüsebau, bei dem in Glashäusern, Folientunneln oder ähnlichen geschützten Bereichen gearbeitet wird. Zum Feldgemüse zählt man: Kohlgewächse, Salate, Zwiebeln, Gurken, Gemüsespargel, Karotten, Petersilie, Rote Rüben u. v. a. Nach den Erntezeiten unterscheidet man "Frühgemüse, Sommergemüse, Herbstgemüse, Wintergemüse" und "Dauergemüse." Früher war diese Einteilung sehr wichtig für Anbauplanung und Ernährung. Durch den Anbau von Gemüsen in Gewächshäusern und den internationalen ganzjährigen Handel hat ihre Bedeutung stark abgenommen. Nach Fruchtreife und dem Verzehr unterscheidet man "Frischgemüse" und "Lagergemüse". Auch diese Unterscheidung hat durch Weiterverarbeitung und Lebensmittelkonservierung an Bedeutung verloren. Zum Beispiel kann verderbliches Gemüse durch Tiefkühlen oder in Konservendosen frisch gehalten werden. Vermarktungs- und Qualitätsnormen. Um eine gleichbleibende Qualität bei Gemüse im Handel zu gewährleisten, unterliegt es bestimmten Vermarktungsnormen und muss entsprechend gekennzeichnet werden. Vermarktung. Gemüse wird als Frischgemüse (nicht behandeltes, nicht verarbeitetes Gemüse), Tiefkühlgemüse, Dosengemüse, Glaswarengemüse, in Öllaken oder Essig oder vergorenes eingelegtes Gemüse und Trockengemüse vermarktet. Es wird mitunter zwischen Frischgemüse und „erntefrischem Gemüse“ unterschieden, wobei die „Frische“ in Deutschland und in der EU nicht definiert ist. Tiefkühlgemüse. Seit 1957 gibt es in Deutschland tiefgekühltes Gemüse zu kaufen. Ermöglicht wurde dies durch die Entwicklung der Kühltechnik. Ohne den Zusatz von Konservierungsstoffen kann seitdem frisches Gemüse über einen langen Zeitraum haltbar gemacht werden. Das erste TK-Gemüse auf Deutschlands Einzelhandelsmarkt war der Spinat. Heute ist das Angebot weitaus vielseitiger und reicht von einfachen Erbsen bis hin zu asiatischen Gemüsemischungen. Der Vorteil ist, dass die Nährstoffe bzw. Vitamine über einen langen Zeitraum hinweg durch die Kälte konserviert werden und nur wenig abnehmen, weitaus weniger als zum Beispiel ein über drei Tage im Gemüsefach des Kühlschranks gelagertes Gemüse. Diese Behauptung überprüften Ökotrophologen der Universität Hamburg in einer Studie. Frischgemüse und Tiefkühl-Gemüse wurden dazu in unterschiedlichen Verarbeitungs-, Lagerungs- und Zubereitungsstufen auf ihren Nährwert und ihre Sensorik hin untersucht. Die Ernährungswissenschaftler fanden heraus, dass viele wichtige Nährstoffe wie Vitamin C durch die Tiefkühlung auch nach vier Monaten in hohem Maße erhalten waren, während sie bei gewissen Gemüsearten bei Lagerung sowohl bei 4 °C als auch bei 20 °C rasch abnahmen. Die Studie wurde u. a. vom Forschungskreis der Ernährungsindustrie e. V. mitfinanziert. GNU-Projekt. Das GNU-Projekt (Aussprache:) wurde von Richard Stallman mit dem Ziel gegründet, ein offenes, unixähnliches Betriebssystem zu schaffen, das sicherstellt, dass die Endbenutzer die Freiheiten haben, es verwenden, untersuchen, verbreiten (kopieren) und ändern zu dürfen. Software, die diese Freiheitsrechte (über ihre Lizenz) garantiert, wird Freie Software (Free Software) genannt; und GNU („GNU’s Not Unix“) fällt somit darunter. Bekannt geworden ist das Projekt vor allem auch durch die von ihm eingeführte GNU General Public License (GPL), unter der viele bekannte Softwareprojekte veröffentlicht werden, sowie zahlreiche GNU-Programme, wie der GNU Compiler Collection, den GNU Debugger sowie Werkzeuge der GNU coreutils, den Editor Emacs usw. Entstehung. Die Entstehung des GNU-Projekts geht auf Richard Stallman zurück, der von 1971 bis 1984 am Massachusetts Institute of Technology (MIT) arbeitete. In der Anfangszeit seiner Arbeit erfuhr er den Umgang mit Software als einen regen und offenen Austausch zwischen Entwicklern und Nutzern. Damals war es üblich, Programme, auch in Form des Quelltextes, zu tauschen und bei Bedarf anzupassen. Die Situation änderte sich Ende der 1970er und Anfang der 1980er, als Unternehmen damit begannen, Software unter stark beschränkenden Lizenzen zu veröffentlichen und den Quelltext geheim zu halten. Stallman stand daraufhin am Scheideweg, sich entweder dem Modell der proprietären Software anzupassen oder aber einen anderen Weg zu gehen. Er entschied für sich, ein Modell von freier Software zu entwickeln, welches die Offenheit der Software und die Möglichkeit des Tauschens gewährleisten sollte. Der erste Schritt sollte ein freies Betriebssystem in der Art von Unix sein. Da es in der Zeit am MIT üblich war, für Programme, die anderen Programmen ähneln, rekursive Akronyme zu nutzen, wählte Stallman GNU, was für „GNU’s not Unix“ steht. Das Projekt rund um das System wurde GNU-Projekt genannt. Die Entscheidung, GNU Unix-kompatibel zu machen, hatte mehrere Gründe. Zum einen war Stallman sicher, dass die meisten Unternehmen ein grundlegend neues Betriebssystem ablehnen würden, wenn die Programme, die sie benutzten, darauf nicht laufen würden. Andererseits ermöglichte die Architektur von Unix eine schnelle, einfache und verteilte Entwicklung, da Unix aus vielen kleinen Programmen besteht, die größtenteils unabhängig voneinander entwickelt werden können. Auch waren viele Bestandteile eines Unix-Systems frei für jeden erhältlich und konnten so direkt in GNU integriert werden, beispielsweise das Textsatzsystem TeX oder das Fenstersystem X Window. Die fehlenden Teile wurden von Grund auf neu geschrieben. Das GNU-Projekt wurde am 27. September 1983 in den Newsgroups net.unix-wizards und net.usoft bekannt gegeben. Die Arbeit an dem Projekt begann am 5. Januar 1984, als Stallman seine Stelle am MIT kündigte. Er tat dies, um sich ganz dem GNU-Projekt widmen zu können und um zu verhindern, dass das MIT als Arbeitgeber die Rechte an dem von ihm geschriebenen Code besitzt. Stallman erklärte wenig später im „GNU Manifest“ und in anderen Essays seine Motive. Ein Hauptzweck des Projekts bestand darin, „den Geist der Kooperation, der in den frühen Jahren der Computergemeinschaft vorgeherrscht hatte, wiederzubeleben“. Damit wurde das GNU-Projekt, obwohl die meisten Ergebnisse eher technischer Natur sind, auch eine soziale und politische Initiative. Das GNU-Projekt hat seit seiner Gründung nicht nur Software hervorgebracht, sondern auch eigene Lizenzen und eine große Zahl theoretischer Schriften, die meist von Stallman verfasst wurden. Das GNU-Projekt steht im engen Zusammenhang mit der Entwicklung von Linux bzw. Linux. Lizenz. Die vom GNU-Projekt veröffentlichte Software wurde damals unter jeweils eigene Lizenzen gestellt, welche die entsprechenden Freiheiten gewährten. Für das Prinzip einer Lizenz, welche die Pflicht zur Offenheit explizit einbaut, nutzte Stallman den Begriff Copyleft, den Don Hopkins Mitte der 1980er ihm gegenüber in einem Brief erwähnte. Später entschloss sich Stallman, eine einheitliche Lizenz zu schaffen, unter der alle Software veröffentlicht werden konnte. Er entwarf daher mit Hilfe von Jerry Cohen die GNU General Public License, welche im Kern vier Freiheiten umfasst: das Programm für jeden Zweck zu nutzen, Kopien weiterzuverteilen, die Arbeitsweise des Programms zu studieren und das Programm eigenen Bedürfnissen anzupassen. Free Software Foundation. Um dem GNU-Projekt einen logistischen, juristischen und finanziellen Rahmen zu geben, gründete Stallman 1985 die gemeinnützige Free Software Foundation (FSF). Die FSF beschäftigt auch Programmierer, um an GNU zu arbeiten, obwohl der wesentliche Teil der Arbeit von Freiwilligen geleistet wird. Als GNU bekannter wurde, begannen Unternehmen daran mitzuarbeiten. Sie entwickelten Programme, die sie unter der GPL veröffentlichten, begannen CDs mit Software zu verkaufen und Dienstleistungen rund um das System anzubieten. Eines der bekanntesten Unternehmen der früheren Zeit des Projekts war Cygnus Solutions. Viele dieser Unternehmen unterstützen die Free Software Foundation mit Geld oder anderen Spenden. Dazu gehören unter anderem IBM, Google Inc. und HP. Logo. Das Logo des GNU-Projekts ist eine Zeichnung eines Gnus, einer afrikanischen Antilope. Es wurde ursprünglich von Etienne Suvasa entworfen und seitdem in verschiedenen abgewandelten Formen wiedergegeben. GNU General Public License. Die GNU General Public License (auch GPL oder GNU GPL) ist die am weitesten verbreitete Software-Lizenz, die einem gewährt, die Software auszuführen, zu studieren, zu ändern und zu verbreiten (kopieren). Software, die diese Freiheitsrechte gewährt, wird Freie Software genannt; und wenn die Software einem Copyleft unterliegt, so müssen diese Rechte bei Weitergabe (mit oder ohne Software-Änderung, -Erweiterung, oder Softwareteile-Wiederverwendung) beibehalten werden. Bei der GPL ist beides der Fall. Ursprünglich hat die Lizenz Richard Stallman der Free Software Foundation (FSF) für das GNU-Projekt geschrieben. Die FSF empfiehlt die aktuelle, 2007 veröffentlichte dritte Version (GNU GPLv3). Nutzung. Die GPL kann von jedem als Lizenz verwendet werden, um mit dieser die Freiheitsrechte der Endnutzer sicherzustellen. Sie ist die erste Copyleft-Lizenz für den allgemeinen Gebrauch. Copyleft bedeutet, dass Änderungen oder Ableitungen von GPL-lizenzierten Werken nur unter den gleichen Lizenzbedingungen (also eben GPL) vertrieben werden dürfen. Damit gewährt die GPL den Empfängern eines Computerprogramms die Freiheitsrechte Freier Software und nutzt Copyleft, um sicherzustellen, dass diese Freiheiten bei Weiterverbreitung erhalten bleiben, auch wenn die Software verändert oder erweitert wird. Freizügige Lizenzen wie die BSD-Lizenz hingegen fordern nicht das Copyleft. Unter GPL lizenzierte Software darf für alle Zwecke ausgeführt werden (auch kommerzielle Zwecke, und GPL-lizenzierte Compiler und Editoren dürfen sogar als Werkzeuge für die Erstellung von proprietärer Software genutzt werden); sie darf bei rein privater (oder interner) Verwendung – ohne Vertrieb, ohne Weitergabe – modifiziert werden, ohne dass der Quellcode offengelegt werden muss (nur bei Vertrieb oder Weitergabe müssen der Quellcode und etwaige Code-Änderungen den Endnutzern zugänglich gemacht werden – dann kommt nämlich Copyleft zur Anwendung, um sicherzustellen, dass die Endnutzer-Freiheiten erhalten bleiben). Jedoch muss Software, welche als Anwendungsprogramm unter einem GPL-lizenzierten Betriebssystem wie Linux läuft, nicht zwangsweise unter GPL oder quelloffen vertrieben werden – die Lizenzierung ist nur von den verwendeten Bibliotheken und Software-Teilen abhängig (nicht von der unterliegenden Plattform): wenn z. B. ein Anwendungsprogramm nur eigene Software enthält, oder mit quelloffenen Software-Teilen kombiniert wird, welche keinem strengen Copyleft unterliegen (also somit auch keine GPL-Teile), dann müssen die eigenentwickelten Software-Teile nicht unter GPL oder quelloffen gelegt werden (selbst wenn das eingesetzte Betriebssystem unter GPL lizenziert ist). Nur bei der Realisierung von Software, welche neue (eigene) Quellcode-Teile mit GPL-Teilen verbindet (und wenn diese Software verbreitet oder vertrieben wird), so muss der Quellcode den Nutzern (unter den gleichen Lizenzbedingungen: GPL) zugänglich gemacht werden. Die GNU "Lesser" General Public License (LGPL) wurde entwickelt, um ein schwächeres Copyleft als GPL zu haben: LGPL erfordert nicht, dass eigene entwickelte Code-Teile (welche LGPL-Teile nutzen, aber von ihnen unabhängig sind: z. B. lediglich Library-Aufruf) unter den gleichen Lizenzbedingungen zur Verfügung gestellt werden müssen. Nutzer und Firmen dürfen für den Vertrieb von GPL-lizenzierten Werken Geld verlangen (kommerzieller Vertrieb), oder sie kostenlos vertreiben. Dies unterscheidet GPL von Software-Lizenzen, welche den kommerziellen Vertrieb verbieten. Die FSF erklärt, dass freiheitsrespektierende Software auch den kommerziellen und gewerblichen Nutzen und Vertrieb (inklusive Weitervertrieb) nicht einschränken darf: die GPL besagt ausdrücklich, dass GPL-Werke (z. B. Freie Software) zu jedem Preis verkauft oder weitervertrieben werden können. Geschichte. Die GNU GPL wurde im Januar 1989 von Richard Stallman, dem Gründer des GNU-Projekts, geschrieben. Sie basierte auf einer Vereinheitlichung gleichartiger Lizenzen, die bei früheren Versionen von GNU Emacs, dem GNU Debugger und der GNU Compiler Collection Anwendung fanden. Diese Lizenzen waren auf jedes Programm speziell zugeschnitten, enthielten aber die gleichen Vorschriften wie die aktuelle GNU GPL. Das Ziel von Stallman war, eine Lizenz zu entwickeln, die man bei jedem Projekt verwenden kann. So entstand die erste Version der GNU General Public License, die im Januar 1989 veröffentlicht wurde. Im Juni 1991 veröffentlichte die Free Software Foundation (FSF) die zweite Version der GNU GPL (GPLv2). Die wichtigste Änderung dabei war die sogenannte „Liberty or Death“-Klausel (übersetzt: „Freiheit oder Tod“) in Paragraph 7. Diese besagt, wenn es nicht möglich ist, einige Bedingungen der GNU GPL einzuhalten – beispielsweise wegen eines Gerichtsurteils – es untersagt ist, diese Lizenz nur bestmöglich zu erfüllen. In diesem Fall ist es also überhaupt nicht mehr möglich, die Software zu verbreiten. Auch kam der Paragraph 8 hinzu: Dieser erlaubt es einem Autor, die Gültigkeit der Lizenz geographisch einzuschränken, um Länder auszuschließen, in denen die Verwertung des Werks durch Patente oder durch urheberrechtlich geschützte Schnittstellen eingeschränkt ist. Des Weiteren ist die zweite Version besser mit nicht-US-amerikanischen Rechtssystemen kompatibel, da sie sich auf die Berner Übereinkunft stützt. Zeitgleich wurde am 2. Juni 1991 eine neue Lizenz mit dem Namen GNU Library General Public License (GNU LGPL) mit der Versionsnummer 2.0 (GNU LGPL v2.0) veröffentlicht, bei der es sich um eine von der GNU GPL abgeleitete, gelockerte Version der GNU GPL handelt. Sie wurde eingeführt, nachdem seit 1990 deutlich wurde, dass die GNU GPL in manchen Fällen (meist für Programmbibliotheken) zu restriktiv (einschränkend) war. Die GNU LGPLv2 (Juni 1991) wurde ursprünglich für einige bestimmte Bibliotheken entworfen. Die Lizenz verwirklicht das Modell eines schwachen Copylefts, wobei zwar darunter stehende Programmbibliotheken nicht mehr zur Folge haben, dass die sie verwendenden Programme ebenfalls unter gleichen Bedingungen lizenziert werden müssen, jedoch unterliegen Weiterentwicklungen der Bibliotheken selbst nach wie vor der GNU LGPL. Mit der im Februar 1999 erschienenen Version 2.1 wurde die Lizenz in "GNU Lesser General Public License" umbenannt, der neue Name war ein Vorschlag von Georg Greve. Seit ihrer Einführung ist die GPL die am weitesten verbreitete freie Softwarelizenz. Die meisten Programme im GNU-Projekt sind unter der GPL und der LGPL lizenziert, darunter auch die Compilersammlung GCC, der Texteditor GNU Emacs und der Gnome Desktop. Auch viele weitere Programme von anderen Autoren, die nicht Bestandteil des GNU-Projekts sind, sind unter der GPL lizenziert. Außerdem sind alle LGPL-lizenzierten Produkte auch unter der GPL lizenziert. Der erste Entwurf der dritten Version der GPL wurde am 16. Januar 2006 der Öffentlichkeit zur Diskussion vorgestellt. Es folgten drei weitere Entwürfe. Am 29. Juni 2007 wurde schließlich die finale Version der GPL 3 publiziert. Die vierte Version der GPL ist noch nicht geplant, Richard Stallman kündigte jedoch bei der Veröffentlichung der GPLv3 an, die GPLv4 innerhalb dieses Jahrzehntes zu veröffentlichen. GPL Version 3. Die FSF als Halter der GPL unter der Leitung von Richard Stallman koordinierte die Überarbeitung, beraten wurde sie dabei von Eben Moglen. Durch die angestrebte Universalität der GPL 3 ergaben sich zwangsläufig konkurrierende Interessenlagen. Am 16. Januar 2006 wurde ein erster vorläufiger Entwurf veröffentlicht und zur Diskussion gestellt, um ein möglichst optimales Ergebnis für die zukünftige Publikation zu erreichen. Die GPLv3 wurde seit der Veröffentlichung des ersten Entwurfs kontrovers diskutiert. Kontrovers diskutiert wurde u. a. in der Entwurfsphase der Aspekt der Tivoisierung, der in der vorherigen Version v2 nicht bedacht worden war. Der FSF-Vorschlag soll Tivoisierung zukünftig verhindern, Linuxkernelinitiator Linus Torvalds kritisierte jedoch dieses Vorgehen und vertrat den Standpunkt, dass Tivoisierung erlaubt bleiben solle. Torvalds kritisierte insbesondere die ersten zwei Entwürfe äußerst scharf und sieht weiterhin keinen Grund, den Linux-Kernel unter diese Version der Lizenz zu stellen. Starke Kritik gab es auch von Seiten der Firmen Linspire, Novell, MySQL und anderen. Einige Firmen – insbesondere MySQL – änderten daraufhin die Lizenzformulierung ihrer Produkte von „GPLv2 or later“ zu „GPLv2 only“. Ein weiterer Diskussionsaspekt war, ob die GPLv3 Affero-artige Anforderungen erlauben sollte, was die sogenannte "ASP-Lücke in der GPL" (engl. Originalterm: "ASP loophole in the GPL") geschlossen hätte. Nachdem jedoch einige Bedenken wegen des zusätzlichen administrativen Aufwandes geäußert worden waren, wurde entschieden, die Affero-Lizenz als eigenständige Lizenz von der GPL getrennt zu behalten. Auch gab es Kontroversen über die Mischbarkeit von GPLv2 Software mit GPLv3 Software, welche nur unter der optionalen "or later" Klausel der GPL möglich ist. Diese Klausel wurde jedoch von einigen Entwicklern als reine Notfalloption (engl. "safeboat clause") betrachtet, nicht jedoch als reguläre Möglichkeit die Lizenz signifikant zu ändern. Auch sind die vorhandenen Projekte, welche ihre Software ohne die optionale "or later" Klausel lizenziert haben, am bekanntesten der Linux-Kernel, damit inkompatibel mit GPLv3-Software und können keinen Quelltext mit dieser austauschen. Ein Beispiel ist die Bibliothek "GNU LibreDWG", die nun nicht mehr von LibreCAD und FreeCAD verwendet werden kann. Nach drei weiteren Entwürfen wurde die endgültige Fassung am 29. Juni 2007 publiziert. Als Nebeneffekt der Überarbeitung sind mehrere zusätzliche Lizenzen GPL-kompatibel geworden. Die signifikant erweiterte GPLv3 wird als essentiell inkompatibel zur GPLv2 bewertet, Kompatibilität zwischen beiden Lizenzen ist nur über die optionale Klausel "this version or later" gegeben, welche jedoch von einigen Projekten nicht verwendet wird, beispielsweise dem Linux-Kernel. 2011, vier Jahre nach der GPLv3 Veröffentlichung, sind laut den Daten von Black Duck Software nur 6,5 % aller Open-Source-Projekte unter GPLv3, während 42,5 % der GPLv2 unterliegen. 2013, sechs Jahre nach der Veröffentlichung der GPLv3, ist laut Black Duck Daten die GPLv2 weiterhin die mit Abstand häufigst verwendete Lizenz. Andere Autoren machten 2011 im Zusammenhang mit dieser Spaltung eine vermehrte Bewegung in Richtung von freizügigen Lizenzen aus, weg von Copyleft-Lizenzen. Einige Journalisten und Entwickler schließen aus der geringen Migration der Projekte von der alten GPLv2 auf die neuere GPLv3, dass eine Spaltung der Gemeinschaft entlang der Grenzen der beiden Lizenzversionen entstehe. Copyleft-Prinzip. Alle abgeleiteten Programme eines unter der GPL stehenden Werkes dürfen von Lizenznehmern nur dann verbreitet werden, wenn sie von diesen ebenfalls zu den Bedingungen der GPL lizenziert werden. Dies betrifft nur Lizenznehmer, nicht die Inhaber der Rechte. (Der Halter des Copyrights – das ist der Autor oder jemand, dem der Autor seine Rechte abgetreten hat – kann das Werk auch unter beliebigen anderen Lizenzen weitergeben.) Dieses Schutzverfahren benannte Richard Stallman „Copyleft“ – als Anspielung auf das Wort Copyright. Ziel ist, die Freiheit eines Programmes auch in der Weiterentwicklung von anderen sicherzustellen. Dieses Prinzip findet sich auch in anderen Lizenzen – unter anderem in den GNU-Lizenzen (LGPL, AGPL und GFDL) sowie als „Share Alike“ bezeichnet in einigen der Creative-Commons-Lizenzen. Kompatibilität von Lizenzen mit der GNU GPL. Da die GPL bestimmte Freiheiten gewährleistet und verlangt, dass selbige Freiheiten für die Software-Empfänger aufrechterhalten werden (auch bei anschließender Weitergabe an weiterefolgende Empfänger, oder bei Code-Änderung oder Codeteile-Wiederverwendung: Copyleft); kann man GPL-lizenzierte Software-Teile nicht mit Code-Teilen kombinieren, dessen Lizenzen verlangen, dass Empfänger auf gewisse Freiheiten verzichten müssen, oder verlangen, dass anschließend-weiterefolgenden Empfängern Freiheiten wieder entzogen werden müssen. Solche Lizenzen sind mit der GNU GPL inkompatibel (da der Grund für die GPL und dessen Copyleft, eben ein gesamtheitliches Schützen dieser Freiheiten für alle Empfänger ist). Das GNU Projekt verwaltet eine Liste von Lizenzen welcher mit der GNU GPL kompatibel sind. Darunter gibt es auch bestimmte freizügige Freie Lizenzen (aber nicht alle), die mit der GNU GPL kompatibel sind. Freizügige Lizenzen erlauben zwar "für sich" genommen, dass Entwickler und Distributoren wahlweise den Empfängern bei Weitergabe bestimmte Freiheiten entziehen könnten (daher "freizügig"); jedenfalls ist solch ein Entziehen aber nicht zwingend erforderlich: bei einer Kombination mit GPL-lizenzierten Software-Code-Teilen ist solch ein Entziehen nicht erlaubt, wenn es die durch die GPL-gewährten Freiheiten einschränken würde: GPL-lizenzierte Software-Code-Teile dürfen nur verändert, erweitert oder mit anderen Software-Teilen zusammengefügt werden, wenn das kombinierte Resultat nach wie vor, allen Empfängern die Freiheiten der GPL gewährt (das Copyleft der GPL muss erhalten bleiben). Die FSF hält Copyleft bei Programmbibliotheken zwar ebenfalls für prinzipiell gerechtfertigt, erteilt jedoch für Programme, für die sie die Rechte besitzt, manchmal aus strategischen Gründen Ausnahmen, beispielsweise um die Akzeptanz einer Bibliothek zu erhöhen. In diesen Fällen wird die Lesser General Public License (LGPL) von der FSF empfohlen, die explizit diese Nutzung erlaubt, ohne Copyleft-Forderungen an das aufrufende Programm zu stellen. Anwendung auf ein neues Programm. Die GPL enthält einen Anhang, der beschreibt, wie man die Lizenz auf ein neues Programm anwenden kann. Der Anhang enthält eine Standardvorlage, in die noch der Name des Programms, eine kurze Beschreibung dessen, was es tut, das Jahr der Erstellung und der Name des Autors einzufügen ist. Die Vorlage enthält einen Haftungshinweis, der warnt, dass das Programm ohne jegliche Garantie kommt. Sie lizenziert das Programm unter der jeweiligen GPL-Version, mit dem Zusatz „or (at your option) any later version“, der das Programm auch für die Bedingungen zukünftig herausgegebener Fassungen der GPL öffnet. Damit steht das Programm automatisch auch unter einer neuen GPL-Version, sobald die Free Software Foundation eine solche herausgibt. Dadurch werden der Lizenzwechsel auf eine neue Version der GPL ermöglicht und Kompatibilitätsprobleme zwischen unterschiedlichen Versionen vermieden. Einige Projekte verwenden die Vorlage auch für die GPL-Version 2 ohne den Zusatz, da sie mit der GPLv3 nicht einverstanden sind. Die Vorlage enthält noch einen Hinweis, wo man eine Kopie der GPL finden kann, wenn dem Programm keine Kopie beiliegt. Eine zentrale Registrierungsstelle für GPL-lizenzierte Programme existiert nicht, die FSF betreibt aber zusammen mit der UNESCO ein Verzeichnis ohne Anspruch auf Vollständigkeit. Deutschland. Mit einer von 2000 bis 2002 erarbeiteten Modernisierung des deutschen Urheberrechts sollte gesetzlich verankert werden, dass ein Urheber auf eine angemessene Vergütung in keinem Fall verzichten kann. Theoretisch hätte das für Händler, die freie Software verkaufen, eine Rechtsunsicherheit zur Folge gehabt, da Programmierer möglicherweise im Nachhinein einen Anteil des Erlöses hätten verlangen können, was Möglichkeiten des Missbrauchs eröffnet hätte. Mit der Ergänzung des Gesetzentwurfs um die sogenannte Linux-Klausel wurde die GPL (und ähnliche Lizenzen, die „unentgeltlich ein einfaches Nutzungsrecht für jedermann einräumen“, vgl. § 32 Abs. 3 Satz 3 UrhG) jedoch auf eine sichere rechtliche Basis gestellt. Das Landgericht München I bestätigte in einer schriftlichen Urteilsbegründung vom 19. Mai 2004 (Az.) eine einstweilige Verfügung, mit der einer Firma untersagt worden war, Netfilter ohne Einhaltung der GPL weiterzuverbreiten. Dies war das erste Mal, dass die GPL eine signifikante Rolle in einem deutschen Gerichtsverfahren spielte. Das Gericht bewertete die Tätigkeiten des Beklagten als Missachtung einiger Bedingungen der GPL und somit als Urheberrechtsverletzung. Dies entsprach genau den Prognosen, die Eben Moglen von der FSF für solche Fälle zuvor gemacht hatte. Grundlage der Entscheidung war die deutsche Übersetzung der GPL, die vom Gericht ansatzweise auf die Gültigkeit als AGB geprüft wurde. Bei manchen Klauseln waren komplizierte rechtliche Konstruktionen bzw. Auslegungen nötig, um die Zulässigkeit nach deutschem Recht zu erreichen. Die gegnerische Partei hatte die Zulässigkeit der Bedingungen der GPL nicht angegriffen, sondern nur bestritten, überhaupt der richtige Beklagte zu sein. Am 6. September 2006 war die GPL am Landgericht Frankfurt am Main erfolgreich Bestandteil eines Verfahrens gegen D-Link (Az.:). Am 4. Oktober 2006 wurde die Gültigkeit der GPL in einem weiteren Urteil bestätigt. Ein Bevollmächtigter, der Programmierer von drei GPL-lizenzierten Hilfsprogrammen zum Start eines Betriebssystemkerns, zog nach einer Abmahnung gegen ein Unternehmen vor Gericht, das die Programme in seiner Firmware verwendet hatte, ohne ihren Quellcode offengelegt und die GPL beigelegt zu haben. Die Ansprüche in der Unterlassungsaufforderung wurden teilweise nicht erfüllt, so dass das Gericht entschied, dass das Unternehmen das Urheberrecht des Klägers verletzt habe und somit Herkunft und die Abnehmer der Firmware nennen sowie die Gerichts- und Abmahnungskosten und die Kosten für den Aufwand zur Feststellung der Rechtsverletzung tragen müsse. Die Beklagten hatten dabei versucht, sich mit einer ganzen Bandbreite von üblichen Argumenten zu wehren, einschließlich Ungültigkeit der GPL wegen Wettbewerbswidrigkeit, Beweisverwertungsverbot wegen Urheberrechtsverletzung bei der Feststellung des Verstoßes (d. h. unerlaubte Dekompilierung der Firmware – der Kläger hatte jedoch nur den Bootvorgang beobachtet), Erschöpfungsgrundsatz und fehlendes Recht zur Klage, da im Rahmen der Open-Source-Entwicklung lediglich von einer Miturheberschaft ausgegangen werden könne und für die Klage die Zustimmung der anderen Urheber nötig sei. Das Gericht lehnte diese Argumente jedoch alle ab. USA. Am 21. März 2006 scheiterte der US-Amerikaner Daniel Wallace mit einer Klage am Bezirksgericht im US-Bundesstaat Indiana gegen die FSF. Er hatte den Standpunkt vertreten, dass die GPL unwirksam sei. Sie erzwinge durch die Verfügbarkeit kostenloser Softwarekopien eine Preisabsprache zwischen den verschiedenen Anbietern, was einen Verstoß gegen den Sherman Antitrust Act darstelle. Der Richter John Daniel Tinder folgte dieser Auffassung nicht und bemerkte, dass eine Kartellrechtsverletzung schwerlich festgestellt werden könne, wenn die Interessen des Klägers von denen der Konsumenten divergieren. Klagen gegen Red Hat, Novell und IBM wurden ebenfalls abgewiesen. Sonstiges zur Rechtslage. Um die Rechte von GPL-Autoren zu schützen und gegen Verstöße vorgehen zu können, gründete Harald Welte im Jahr 2004 das Projekt gpl-violations.org. Gpl-violations.org ist bereits mehrmals im Auftrag von Programmierern erfolgreich vor Gericht gezogen. In etlichen weiteren Fällen konnte eine außergerichtliche Einigung erzielt werden. Copyright. Das Copyright des Lizenztextes selbst liegt bei der Free Software Foundation (FSF). Diese erlaubt im Kopf der Lizenz das Kopieren und Verbreiten der Lizenz, verbietet jedoch die Modifikation des Lizenztextes. Damit wird sichergestellt, dass die Rechte und Pflichten, welche durch die GPL garantiert werden, nicht abgeändert werden können, indem der Lizenztext abgeändert wird. Auch wird dadurch verhindert, dass unterschiedliche inkompatible Versionen der GPL entstehen. Die FSF erlaubt die Schaffung neuer Lizenzen auf Basis der GPL, solange diese einen eigenen neuen Namen haben, die Präambel der GPL nicht enthalten und sich nicht auf das GNU-Projekt beziehen. Dies geschah ursprünglich beispielsweise bei der GNU Affero General Public License, bevor diese von der FSF übernommen wurde. Die GPL bestreitet die Copyright-Gesetze des betroffenen Staates nicht, sondern akzeptiert diese und nutzt sie, um die beschriebenen Rechte und Pflichten durchzusetzen. Ein unter GPL lizenziertes Werk steht nicht in der Public Domain. Der Autor behält – falls nicht ausdrücklich anders festgelegt – das Urheberrecht am Werk und ist im Fall der Nichteinhaltung der Lizenzbedingungen in der Lage, dagegen gerichtlich vorzugehen. Verbreitungsgeschichte. Auf dem Open-Source-Hoster SourceForge waren im Juli 2006 etwa 70 % der Software unter der GPL lizenziert. Im Jahr 2008 standen von den 3489 Projekten auf BerliOS 67 % (2334 Projekte) unter der GPL. Das von Black Duck Software verwaltete "Open Source Resource Center" gab 2012 die Verbreitung der GPLv2 unter Open-Source-Projekten mit 32,65 % und die der GPLv3 mit 11,62 % an. Die Firma Palamida betreibt eine GPL3-Watchlist, laut derer von den 10.086 registrierten Projekten etwa 2946 unter der GPLv3 registriert sind, jedoch ist die Auswahl der Projekte nicht repräsentativ. Die Zahlen des Open Source License Resource Center lassen eher darauf schließen, dass im Juli 2008 etwa drei bis vier Prozent der GPL-Projekte die dritte Version verwendeten. Nicht berücksichtigt ist dabei, dass der Standardtext der Free Software Foundation für die Freigabe eines Programms unter der GPL vorsieht, dass die Nutzung auch unter jeder späteren Version der GPL erlaubt ist. Damit sind unter der GPL 2 lizenzierte Programme, die den Standardtext verwenden, auch unter der GPLv3 und zukünftigen Versionen nutzbar. Kritik. Kritik an der GPL besteht hauptsächlich aus Kritik am starken Copyleft und Kritik am Prinzip der freien Software. Zum Beispiel bezeichnete Microsofts ehemaliger CEO Steve Ballmer 2001 Linux wegen der Auswirkungen der GPL als "Krebsgeschwür". 2001 beschrieb Craig Mundie,Microsoft Senior Vice President, die GPL öffentlich als "viral". Stephen Davidson von der Weltorganisation für geistiges Eigentum verwendete in einem Leitfaden über das Open-Source-Modell (in dem er allgemein eher zurückhaltende Schlüsse zieht) die Bezeichnung "viral" für die Copyleft-Eigenschaften der GPL. Später kritisierten andere die viralen Eigenschaften der GPL ebenfalls. Geschichte der römisch-katholischen Kirche. Die römisch-katholische Kirche versteht sich gemeinsam mit den orthodoxen Kirchen als die Kirche Jesu Christi in ungebrochener geschichtlicher Kontinuität seit dem 50. Tag nach der Auferstehung (Pfingsttag), an dem gemäß dem Neuen Testament der Heilige Geist über die Apostel kam (Apg 2,1ff.). "Du bist Petrus der Fels" - Christus setzt Petrus zum ersten Papst ein. Ihr Bischofsamt führt sie, ebenso wie die orthodoxe, anglikanische und altkatholische Kirche über eine ununterbrochene „Reihe der Handauflegungen“ – Apostolische Sukzession – auf den Apostel Petrus zurück. Dieser wurde nach dem Neuen Testament von Christus selbst zur Leitung der Kirche bestimmt (Mt 16,18: „Du bist Petrus der Fels, und auf diesen Fels werde ich meine Kirche bauen.“) Frühe Kirche. Die frühesten bekannten Gemeinden waren in Jerusalem (Jerusalemer Urgemeinde) und Antiochia sowie diejenigen, an die die Briefe des Apostels Paulus gerichtet waren (z. B. Rom, Korinth, Thessaloniki). In diesen Gemeinden, die jedenfalls teilweise untereinander in brieflicher Verbindung standen, bildeten sich etwa ab dem Ende des 1. Jahrhunderts und der ersten Hälfte des 2. Jahrhunderts Ämter heraus, aus denen sich schließlich im Verlauf des zweiten Jahrhunderts eine Dreigliederung ergab: Bischof ("Episkopos" = Aufseher), Priester ("Presbyter" = Älterer) und Diakon ("Diakonos" = Diener oder Bote). Diese Herausbildung von Anfängen einer Hierarchie kann vor allem durch Spaltungen und Streit innerhalb der frühen Gemeinden erklärt werden, bei denen es sowohl um persönliche Auseinandersetzungen als auch um unterschiedliche Lehrmeinungen ging. Schon der 1. Korintherbrief des Apostels Paulus wusste von vier unterschiedlichen Parteien in der Gemeinde von Korinth. Die Auseinandersetzung mit unterschiedlichen Lehrmeinungen führte zur Notwendigkeit, ein Leitungs- und Lehramt zu schaffen. Allmählich (noch im 2. Jahrhundert wurden "Episkopos" und "Presbyter" synonym verwendet) bildete sich eine ausdifferenzierte kirchliche Hierarchie heraus und der Kanon biblischer Schriften wurde festgelegt, dessen Grundbestand gegen Ende des 2. Jahrhunderts feststand. Vor allem in der Auseinandersetzung mit der religiös-philosophischen Gnosis entstanden gleichzeitig erste Ansätze zu einem Glaubensbekenntnis. Waren die ersten Anhänger Jesu Christi noch Juden, genannt Judenchristen, so bildete sich mit der Mission vor allem des Apostels Paulus unter den Heiden einerseits und der Zerstörung Jerusalems und des Jerusalemer Tempels (70 n. Chr.) andererseits das Heidenchristentum als dominierende Richtung heraus. Ab dem Ende des Bar-Kochba-Aufstands 132/133 n. Chr. verschwand das Judenchristentum nach und nach bzw. ging in heterodoxen jüdischen Gemeinden auf. Das in den ersten drei Jahrhunderten n. Chr. den Mittelmeerraum dominierende Römische Reich war grundsätzlich religiös tolerant. Die bereits ab dem ersten Kaiser Augustus auftauchenden Tendenzen zu einer Vergöttlichung des Kaisers mussten jedoch früher oder später zu einem Konflikt zwischen der staatlichen verordneten Göttlichkeit des Herrschers einerseits und dem strengen, aus dem Judentum übernommenen Monotheismus des Christentums führen. Die erste staatliche Christenverfolgung fand in Rom unter Kaiser Nero nach dem Stadtbrand des Jahres 64 statt. Bei dieser Verfolgung stand noch nicht der religiöse Aspekt im Vordergrund. Den Christen wurde vielmehr Brandstiftung vorgeworfen. Im Verlauf der neronianischen Verfolgung wurden zahlreiche Christen, vielleicht auch die Apostel Petrus und Paulus, hingerichtet. Zur unerlaubten Religion ("religio illicita") wurde das Christentum erst unter Domitian (81–96). Dies führte jedoch keineswegs zu flächendeckenden Christenverfolgungen im Römischen Reich. Das Christentum war zunächst eine Unterschichtreligion von Sklaven und kleinen Leuten. Gelegentliche Nachrichten von Christen aus der Oberschicht waren in den ersten 150 Jahren die Ausnahme, und die religiösen Anschauungen der Unterschicht rückten erst in das Blickfeld der Behörden, wenn sie die öffentliche Ordnung (oder die in der Person des Kaisers verkörperte Reichseinheit) zu bedrohen schienen. Dennoch kam es immer wieder zu zunehmend systematischen staatlichen Verfolgungen (z. B. unter Kaiser Decius um die Mitte des 3. Jahrhunderts und unter Kaiser Diokletian zu Beginn des 4. Jahrhunderts), die aber immer wieder durch längere Perioden relativen Friedens unterbrochen wurden. Die Verfolgungen hatten gravierende Auswirkungen auf die Gemeinden: Zwar gab es einerseits Märtyrer, die freudig in der Erwartung des Paradieses in den Tod gingen, andererseits schworen Gläubige – auch Diakone, Priester und Bischöfe – ihrem Christentum ab, lieferten heilige Bücher oder Gerätschaften aus oder besorgten sich auch nur durch Bestechung eine Bescheinigung, dass sie ihrer Opferpflicht vor dem Altar des Kaisers genügt hätten. Nach dem Abklingen der Verfolgung stellte sich jeweils die Frage, wie mit diesen „Gefallenen“ ("lapsi") zu verfahren sei. Mehrheitlich setzte sich schließlich die pragmatische Linie durch, dass die "lapsi" nach gehöriger und langjähriger Buße wieder in die Kirchengemeinschaft aufzunehmen seien. Allerdings führte dies zu jahrzehntelanger Spaltung in der Kirche. Die nach einem ihrer Exponenten, dem Schriftsteller und zweiten Gegenpapst (der erste war zu Anfang des 3. Jahrhunderts Hippolyt gewesen) Novatian, „Novatianer“ genannte härtere Gruppe verweigerte den Gefallenen die volle Wiederaufnahme in die Kirche und ließ sie nur zu lebenslanger Buße zu. Aus dieser Richtung entwickelte sich im Osten des Reiches die Gruppe der "Katharoi" („die Reinen“), von deren Selbstbezeichnung der Begriff des Ketzers abgeleitet ist. Selbst im Westen verschwand die rigoristische Gruppe erst etwa im 5. Jahrhundert, im Osten hielt sie sich weit länger. "In hoc signo vinces" -Die Vision des Kaiser Konstantin Nach dem Abklingen der Verfolgungen vor allem unter den Kaisern Decius (249–251) und Valerian (253–260) kehrte eine Periode der Duldung des Christentums ein, die erst durch die diokletianische Verfolgung (ab 303) endete. In dieser Zeit bildeten sich Strukturen heraus, die für die weitere Kirchengeschichte grundlegend wurden. So wissen wir von Konzilien, an denen in Afrika bis zu 70 Bischöfe teilnahmen. Liturgie und Taufritus begannen sich zu vereinheitlichen. Auch die ersten Auseinandersetzungen um die Bedeutung des Ehrenvorrangs des Bischofs von Rom fanden sich im späten 2. und im 3. Jahrhundert (Auseinandersetzungen um den Ostertermin zur Zeit Viktors I. (189–199); Unstimmigkeiten zwischen den Päpsten Kalixt I. (217–222) bzw. Stephan I. (254–257) und den afrikanischen Bischöfen, im sogenannten Ketzertaufstreit vertreten vor allem durch Cyprian von Karthago). Ab dem Ende des 2. Jahrhunderts drang das Christentum auch zunehmend in die römische Oberschicht ein: Wir wissen von Konsuln und Beamten des Kaiserhofs, die der Kirche angehörten. David Sloan Wilson sieht die über Jahrhunderte stabilen hohen Wachstumsraten der ersten Gemeinden begründet in – jeweils im Vergleich zum Rest des Römischen Reiches – der besseren Stellung der Frau im frühen Christentum, der besseren Kooperation (z. B. bei der Pflege Kranker) innerhalb der Gemeinden, einer weniger reproduktionsfeindlichen Lebenseinstellung sowie der geschickt umgesetzten Strategie, sich als Gruppe von Außenseitern abzugrenzen, taufwillige Heiden jedoch (beispielsweise im Gegensatz zum Judentum) relativ einfach aufzunehmen. Einen Wendepunkt stellte das Jahr 313 dar, als der weströmische Kaiser Konstantin der Große nach seinem Sieg an der Milvischen Brücke mit der Mailänder Vereinbarung, das Christentum zu einer erlaubten Religion erklärte. Vorausgegangen sein soll der Legende nach das "Wunder an der Milvischen Brücke", wobei dem Kaiser ein am Himmel erschienen Kreuzeszeichen den Sieg über seinen Rivalen Maxentius angekündigt haben soll. Die Toleranzpolitik Konstantins und seine zunehmende Annäherung an das Christentum bis hin zu seiner Taufe kurz vor seinem Tod, leitete den Aufstieg des Christentums zur Staatsreligion im Römischen Reich ein. Offiziell wurde das Christentum im Jahr 380 mit dem sogenannten Dreikaiseredikt zur Staatsreligion erklärt. Mittelalter. Als Beginn des Mittelalters wird in der Kirchengeschichte oft das Jahr 529 angesehen (vgl. Josef Pieper, Scholastik). In diesem Jahr schloss Kaiser Justinian I. die Platonische Akademie, und selbiges Jahr gilt als Gründungsjahr des ersten westlichen Klosters Monte Cassino durch Benedikt von Nursia. Doch auch andere Daten können als Ausdruck der Wendung zum Mittelalter angesehen werden, vom Toleranzedikt Kaiser Konstantins des Großen 313 bis zum Tod des Kaisers Justinian I., dessen Reich kurz darauf zerfiel. Drei Wendepunkte sind an dieser Stelle genannt, die letzten Endes entschieden, wie sich die kommende Zeit entwickeln würde. Das Toleranzedikt ebnete den Weg des Christentums weg von einer Entscheidungsreligion zu einer die gesamte Bevölkerung umfassenden Volksreligion. Die Schließung der Akademie bei gleichzeitiger Gründung von Monte Cassino markierte die Verlagerung der Intellektualität und Bildung auf die Klöster, und der Zerfall des römischen Reiches nach Justinian führte zu einer fast völligen Auflösung bisheriger Gesellschaftsstrukturen und staatlicher Ordnung. Und so ist auch die Zeit vom 6. bis zum 10. Jahrhundert die am schlechtesten dokumentierte Zeit der Kirchengeschichte. Die Alphabetisierung nahm in dieser Zeit rapide ab, damit einher ging das theologische Wissen zurück. In der Folge wurde das Reich der germanischen Franken politische Stütze der Katholischen Kirche nach deren Abwendung vom Arianismus unter Chlodwig. Pippin II. und Fabianus der Große begründeten und sicherten den Kirchenstaat, wodurch der Papst zugleich weltlicher Herrscher wurde. Die zunehmende theologische, politische und kulturelle Entfremdung zwischen der römischen und den östlichen Kirchen führte zu Schismen im 9. und 11. Jahrhundert, woraus dann infolge der Plünderung von Konstantinopel definitiv das morgenländische Schisma wurde. Das Mittelalter war gekennzeichnet vom Streben nach einer religiös-politischen Einheitskultur. Die nach dem Zusammenbruch des Römerreichs neu entstandenen germanischen Staatenbildungen verstanden sich als christliche Reiche. Kreuzzüge gegen den vorgedrungenen Islam und Inquisition gegen abweichende Glaubensrichtungen, von Königen teilweise leidenschaftlicher betrieben als von Bischöfen, galten der Sicherung dieser gesuchten Einheit. Auch die katholischen Herrscher Spaniens waren religiös motiviert, als sie in der Reconquista die Eroberung der iberischen Halbinsel durch die Mauren rückgängig machten. Entscheidend für die Entwicklung des Westens war die Bipolarität von Papst und Kaiser, die das Entstehen von Staatskirchen verhinderte. Beim Investiturstreit des 12. Jahrhunderts zwischen Kaiser und Papst ging es vordergründig um die Vollmacht zur Ernennung von Bischöfen (Investitur), letztlich um den Vorrang und die Grenzen von geistlicher und weltlicher Macht. Die Scholastik holte den verlorenen Geisteshorizont der Antike – teils vermittelt durch islamische Tradenten – unter christlicher Perspektive wieder ein. Die anfangs nur formale und oberflächliche Christianisierung der Bevölkerung wurde vertieft und fand ihren Ausdruck in Architektur, Kunst, Dichtung und Musik, in religiösen Bewegungen und Ordensgründungen, in zahlreichen karitativen Einrichtungen und Initiativen sowie im Fest- und Alltagsleben der Menschen. Neuzeit. Durch die Reformation verlor die Katholische Kirche weite Gebiete Nord- und Mitteleuropas. Parallel dazu vollzog sich die politisch motivierte Abspaltung der Anglikanischen Kirche, die sich in der Folge in moderater Weise der Reformation anschloss. Die frühe Neuzeit ist geprägt durch den Konformismus. Der teilweise religiös motivierte Dreißigjährige Krieg verheerte Deutschland und schwächte seinen politischen Zusammenhalt im Kaisertum. Der Absolutismus in den katholischen Ländern Europas führte zum Staatskirchentum, das eine weitere Schwächung des Papsttums zur Folge hatte. Nach der Entdeckung Amerikas folgten den spanischen und portugiesischen Eroberern katholische Missionare. In Lateinamerika – wie auch in Teilen Afrikas – entstanden starke katholische Ortskirchen, die jedoch bis heute ihre Verflechtung in koloniale Strukturen nicht restlos ablegen konnten. Rom konnte damit seinen Machtverlust in Europa durch geographische Expansion weitgehend kompensieren. Die Ostasien-Mission blieb allerdings weitgehend erfolglos. Die Aufklärung und die Französische Revolution veränderten die geistige Situation und die kirchliche Ordnung Europas grundlegend. Die Zeit der geistlichen Fürstentümer in Deutschland endete. Im 19. Jahrhundert stand die Katholische Kirche auf der Seite der politischen und gesellschaftlichen Restauration sowie des Antimodernismus und Antiliberalismus. Sie kämpfte – vergeblich – um von alters her angestammte Domänen wie Einflussnahme im Bildungswesen. Diese Positionierung gipfelte einerseits im Ersten Vatikanischen Konzil mit der Dogmatisierung der Unfehlbarkeit des Papstes in Glaubensfragen, deren Ablehnung u. a. zur Abspaltung der Altkatholischen Kirche führte. Andererseits führte gerade der Antimodernismus die Katholische Kirche zur Kritik an der menschenverachtenden Ausbeutung der Arbeiterschaft in der beginnenden Industrialisierung und zur Formulierung der katholischen Soziallehre durch Papst Leo XIII. Das 20. Jahrhundert ist gekennzeichnet durch die Auseinandersetzung der Kirche mit den totalitären Herrschaftssystemen des Nationalsozialismus und des Stalinismus sowie mit der „Moderne“ in ihren weltanschaulichen, moralischen, sozialen und politischen Dimensionen. Diese Auseinandersetzung wurde teils mit Kompromissen, teils in strikter Abgrenzung bis zum Martyrium geführt. Im Ersten Weltkrieg versuchte Benedikt XV. neutral zu bleiben. Das Friedensangebot der Mittelmächte vom 12. Dezember 1916 unterstützte er nicht. Dafür sandte er am 1. August 1917 eine eigene Friedensnote an die Staatsoberhäupter der kriegführenden Länder. Die darin enthaltenen Vorschläge waren für Deutschland nicht ungünstig, und scheiterten hauptsächlich an der Ablehnung durch die Entente. Aber auch innerhalb Deutschlands stand man ihnen teilweise misstrauisch gegenüber. Zu den Friedensverhandlungen wurde der Papst nicht hinzugezogen. Er setzte sich später gegen eine Fortsetzung der Hungerblockade gegen die Mittelmächte und für die Heimkehr der Kriegsgefangenen ein. Der deutsche Katholizismus war enttäuscht, dass von Seiten des Vatikans kein Protest gegen den Versailler Vertrag erfolgte. In der päpstlichen Presse erschienen allerdings juristische Gutachten, die sich gegen eine Auslieferung des deutschen Kaisers und der deutschen Heeresführung (Ludendorff, Paul von Hindenburg) aussprachen. Zur Klärung der Kriegsschuldfrage forderte Benedikt die Öffnung aller Archive der beteiligten Staaten. Es ist nicht unbegründet, von einem Versagen des Papsttums im Ersten Weltkrieg zu sprechen. Dabei müssen aber auch die immensen Schwierigkeiten gesehen werden, die einem Eingreifen der Kurie in die Politik der kriegführenden Mächte entgegenstanden. Im Vorfeld des Zweiten Weltkrieges schloss Pius XI. 1933 das Reichskonkordat mit den Nationalsozialisten in Deutschland. Das Zweite Vatikanische Konzil markiert eine Periode der Öffnung und Modernisierung. Das lange Pontifikat Johannes Pauls II. (1978–2005) ist durch das von ihm mitbewirkte Zusammenbrechen des Kommunismus und ein starkes politisches Engagement für Entwicklung und Frieden (z. B. im Irak-Krieg 2003), aber auch durch innerkirchliche Restaurationstendenzen geprägt. 1990 weiht er im Rahmen einer apostolischen Afrika-Reise in Yamoussoukro der Heiligen Gottesmutter Maria das größte Kirchengebäude der Christenheit. In den 1990er und 2000er Jahren wurden in einer Vielzahl von Ländern Fälle von sexuellem Kindesmissbrauch in der römisch-katholischen Kirche publik und riefen ein großes Medienecho hervor. Neben den Taten an sich wurde vor allem die Vertuschung der Fälle innerhalb der kirchlichen Hierarchie kritisiert. Im weiteren Verlauf kam es zur Verschärfung der innerkirchlichen Leitlinien zum Umgang mit Missbrauchsfällen. Siehe auch. romisch-katholische Kirche Godzilla. Godzilla (jap., "Gojira") (ausgesprochen englisch [ɡɒdˈzɪlə], japanisch [ɡoꜜdʑiɽa]) ist ein japanisches Filmmonster. Das 50–108 Meter hohe Monster ist bisher in 28 japanischen Filmen aufgetreten und hat andere Monsterfilmreihen wie Mothra und Gamera inspiriert, die sich bei Fans des Genres ebenfalls großer Beliebtheit erfreuen, welche ihn auch als König der Monster bezeichnen. Herkunft des Namens. Der japanische Name (jap., "Gojira") ist ein Kunstwort bestehend aus den japanischen Wörtern für Gorilla (jap., "Gorira") und Wal (jap., "Kujira"). Der Name wurde gewählt, weil Godzilla in einer Planungsphase als eine Kreuzung zwischen einem Wal und einem Gorilla beschrieben wurde. Dies ist auch eine Anspielung auf seine Größe, Leistung und seinen Lebensraum, das Meer. Diese These der Herkunft des Namens wurde nie offiziell bestätigt, ist aber am wahrscheinlichsten. Es besteht auch die Theorie, dass der Name von einem damaligen übergewichtigen Mitarbeiter von Toho stammt, der 1954 in der Marketing-Abteilung arbeitete. Aufgrund seiner Statur besaß er den Spitznamen "Gojira". Godzilla gilt auch als Namenspatron des Mozilla-Projekts und diverser Nebenprodukte wie Bugzilla, Chatzilla oder auch Jira. Diese Nebenprodukte wurden von Toho, die alle Rechte am Namen und Charakter Godzilla hält, äußerst argwöhnisch betrachtet. Geschichte der Filmreihe. Die Grundidee zum Film stammt vom Produzenten Tomoyuki Tanaka. Als Inspiration gilt hierbei der Vorfall des japanischen Fischerbootes "Glücklicher Drache V" (jap. 第五福竜丸, Dai-go Fukuryū-maru). Dieses Boot geriet am 1. März 1954 in den Einflussbereich von Castle Bravo, einem amerikanischen Nuklearwaffentest, bei dem die US Army am Tag zuvor ihre stärkste nukleare Waffe auf dem Bikini-Atoll zündete. Durch die unerwartete Stärke der Bombe und die ungünstigen Witterungsbedingungen wurden Boot und Mannschaft schwer verstrahlt. Der Funker Aikichi Kuboyama verstarb am 23. September 1954 daran. Die anderen Besatzungsmitglieder überlebten zunächst. Sechs von ihnen erkrankten später an Leberkrebs. Während der Vorfall in den Vereinigten Staaten kaum wahrgenommen wurde, sorgte er für enorme Empörung in der japanischen Bevölkerung und zerstörte beinahe die Versöhnungsanstrengungen beider Staaten, die sich im Zweiten Weltkrieg gegenüber gestanden hatten. Der erste Godzilla-Film von 1954 "(Gojira)" ist in der japanischen Originalversion ein nicht nur tricktechnisch beeindruckendes, sondern auch hinsichtlich der Handlung und Dramatik durchdachtes Werk, das sich als eine Allegorie auf das japanische Trauma der Atombombenabwürfe über Hiroshima und Nagasaki oder aber als direkte Reaktion auf das Atomunglück von Dai-go Fukuryū-maru deuten lässt. Es existiert neben der japanischen Originalversion von Regisseur Ishirō Honda eine umgeschnittene internationale Fassung, für die Terry O. Morse einige zusätzliche Szenen mit Raymond Burr als Reporter drehte. Honda ließ sich bei diesem ersten Film von dem erfolgreichen amerikanischen Monsterfilm "Panik in New York" ("The Beast From 20000 Fathoms," 1953), mit Trickaufnahmen von Ray Harryhausen, inspirieren. Der erste Godzilla-Film kann als Verarbeitung des von Japan verlorenen Zweiten Weltkrieges, der Atombombenabwürfe auf Hiroshima und Nagasaki und der zahlreichen Atomtests der Amerikaner im Pazifik während des Kalten Krieges interpretiert werden. Ist in diesem Film Godzilla als Symbol der Bombe ein böses Monster, änderte sich das im Laufe der Serie. Vor allem versuchte man, Elemente aus ausländischen Produktionen oder dem Weltgeschehen einzubinden. In Filmen wie "Befehl aus dem Dunkel" (1965) wird Godzilla zum Beschützer Japans (bzw. der ganzen Erde, wie in "Final Wars") vor außerirdischen Invasoren. Er wird – so Georg Seeßlen – „vom großen Zerstörer zum großen Freund“. Mit dem Erfolg von TV-Serien wie Raumschiff Enterprise und dem breiteren Interesse für den Wettlauf ins All sowie der Mondlandung der Apollo 11 wurden Science Fiction-Elemente bis 1975 verstärkt eingesetzt. Der Erfolg der Zurück in die Zukunft-Trilogie inspirierte die Macher des 1991 erschienenen Godzilla – Duell der Megasaurier zur Einbindung des Themas "Zeitreisen". In den Serien der 1980er/90er und 2000er Jahre wird Godzilla wieder zu einem bösen Monster, konnte sich aber nie von der Rolle des Anti-Helden distanzieren. Anfang der 1970er Jahre wurde mit Godzilla auch auf die anhaltende Umweltverschmutzung aufmerksam gemacht. Hierbei kämpfte er beispielsweise gegen ein Monster, welches aus der Umweltverschmutzung seine Energie bezieht. Dieses Thema wurde in weiteren späteren Filmen der Reihe erneut aufgefasst und zum zentralen Punkt einzelner Geschichten verwendet. Ähnliche Anspielungen gibt es auch mit der Gentechnologie. In Deutschland kamen die Godzilla-Filme in den 1970er Jahren mit teilweise sinnentstellender Synchronisation ins Kino, die die marktschreierischen Verleihtitel in die Handlung zu integrieren suchten. Dabei wurden oftmals Frankenstein und King Kong in die Verleihtitel integriert, obwohl die entsprechenden Monster in der Regel nicht in den Filmen mitspielten. Während King Kong schlicht das zu dieser Zeit wohl bekannteste Synonym für amoklaufende Riesenmonster war – jedenfalls bekannter als Godzilla -, bezieht sich Frankenstein nur indirekt auf Mary Shelleys Romanfigur. "Frankenstein – Der Schrecken mit dem Affengesicht", in dem ein 50 Meter hohes, atomar verstrahltes Frankenstein-Monster gegen ein weiteres Urzeitungeheuer kämpfen durfte, war im Sommer 1967 so erfolgreich an den deutschen Kinokassen, dass nahezu alle folgenden Filme, die die japanischen Riesenmonster zum Thema hatten, entsprechend eingedeutscht wurden, um an diesen Erfolg anzuknüpfen; sogar unter Verwendung des gleichen „Frankenstein“-Schriftzugs. Doch auch mit Godzilla selbst wurden Filme mit irreführenden Titeln belegt. So ist der koreanische Film "Yongary" in Deutschland unter dem Titel "Godzillas Todespranke" erhältlich. Auch der zweite Film der Gamera-Reihe, der in Deutschland "Dragon Wars" heißt, wurde mit Godzilla auf dem Cover geworben, obwohl dieser gar nicht erst auftaucht. Nur das gegnerische Monster wird Godzilla genannt, während Gamera den leicht abgewandelten Namen seines Gegners (Barugon) erhielt. Tricktechnisch wurde in den Godzilla-Filmen mit Suitmation gearbeitet, was bedeutet, dass ein Schauspieler die Rolle des Monsters in einem oft zentnerschweren Gummikostüm spielt. Die für die Filme charakteristischen Zerstörungsszenen von Städten wurden in detailliert ausgestatteten Modellen gedreht. Da mit der Suitmation eine eigene Ästhetik erreicht wird, die allerdings von westlichen, an amerikanische Tricktechnik gewohnte Zuschauer oft als „billig“ verstanden wird, findet diese auch in den neueren japanischen Godzilla-Produktionen der 1990er Jahre immer noch Anwendung, zusätzlich ergänzt durch zahlreiche Computereffekte. Ursprünglich wollte man wie in den amerikanischen Produktionen, die die Stop-Motion-Technik von Ray Harryhausen nutzten, diese ebenfalls verwenden, doch der Aufwand und die Kosten waren für Toho der Grund zur Suitmation-Entscheidung. Man experimentierte jedoch weiterhin mit Computereffekten. Ab 1984 war Godzillas charakteristischer Hitzestrahl, der vorher nur ins Filmmaterial eingemalt wurde, im Computer erstellt worden. 1999 und 2000, in den Filmen und Godzilla vs. Megaguirus wurde das Monster in Unterwasserszenen ganz im Computer animiert, was die Fans jedoch nicht akzeptierten. Die insgesamt 28 japanischen Godzilla-Filme unterteilen sich in drei lose zusammenhängende Serien mit jeweils weitgehend voneinander unabhängiger Chronologie: die "Showa-Reihe" von 1954 bis 1975 (15 Filme), die "Heisei-Reihe" von 1984 bis 1995 (7 Filme) und die "Millennium-Reihe" von 1999 bis 2004 (6 Filme). Stern auf dem "Hollywood Walk of Fame" 1998 kam ein amerikanischer Godzilla-Film des deutschen Regisseurs Roland Emmerich mit Visual Effects von Volker Engel ins Kino, der eine völlig neue und andere Version der Riesenechse brachte. Die Handlung wurde von Tokio nach New York City verlegt. Der Film war zwar ein kommerzieller Erfolg, wird aber von Fans des japanischen Godzillas nicht als Teil der Reihe akzeptiert. So ist unter Fans für das Emmerich-Monster die Kurzform "GINO" gebräuchlich: “Godzilla In Name Only” "(Godzilla nur dem Namen nach)". Der amerikanische Godzilla wurde unter anderem auch im japanischen Godzilla-Film, ', parodiert. In einem Kampf zwischen dem echten und dem amerikanischen Godzilla, der in diesem Film "Zilla" genannt wird, schleudert der echte Godzilla Zilla mit dem Schwanz in das Opernhaus von Sydney und vernichtet ihn anschließend mit seinem radioaktiven Strahl. Das Ganze wird, wie auch schon der Anfang des Trailers, von "We’re all to blame" (dt. „Wir haben alle [daran] Schuld“) von der Band Sum 41 untermalt. Nach Veröffentlichung dieses Films ließ die verantwortliche Produktionsgesellschaft Toho verlautbaren, dass es für mindestens zehn Jahre keinen weiteren Godzilla-Film geben würde. Im Mai 2014 wurde der zweite amerikanische Godzilla-Film in 2D und 3D veröffentlicht. Produziert und vertrieben wurde der Film neben der Toho Company von Warner Bros., Legendary Pictures und Disruption Entertainment. Regie übernahm hier Gareth Edwards. Obwohl Godzilla-Fans auch in diesem Film Schwächen in Story und Character Design bemängelten, wurde dieser Film im Gegensatz zum Roland Emmerich-Film deutlich wohlwollender aufgenommen. Für Juni 2018 kündigten Warner Bros. und Legendary Pictures eine Fortsetzung an, in welcher ebenfalls Gareth Edwards die Regie übernehmen soll. Am 30. November 2004 bekam die Figur des Godzilla zu ihrem 50. Geburtstag und im Rahmen der Uraufführung von in Los Angeles einen eigenen Stern auf dem Hollywood Walk of Fame. Am 18. Juli 2014, zum 60. Geburtstag Godzillas, wurde eine 24 cm hohe, 15 Kilogramm schwere und umgerechnet 1,09 Millionen Euro teure goldene Godzilla-Statue, die dem Original aus 1954 ähnelt, im Tokioter Midtown Green & Park ausgestellt und war bis Ende August zu bewundern. Musik. Die US-amerikanische Rockband Blue Öyster Cult verarbeitete den Godzilla-Stoff in dem gleichnamigen Song, erschienen 1977 auf dem Album "Spectres". Die spätere Live-Version auf "Extraterrestrial Live" (1982) wurde um ein Intro erweitert, worin die Godzilla-Story hörspielartig nacherzählt wird. Der Song zählt zu den Klassikern der Band. Der Song "Simon Says" von Pharoahe Monch ist ein Hip-Hop Remix eines Godzilla Soundtracks. Die 1984 gegründete brasilianische Metal Band Sepultura, veröffentlichte im September 1993 auf Ihrem Album "Chaos A.D." einen Song namens "Biotech is Godzilla" Die Britische Band Lostprophets veröffentlichte den Song "We Are Godzilla, You Are Japan" in ihrem zweiten Album "Start Something". Die 1996 gegründete französische Band Gojira hieß ursprünglich "Godzilla", benannte sich später aber nach dem japanischen Originalnamen um. Die US-amerikanische Punk Band, Groovie Ghoulies veröffentlichte 2002 einen Song namens "Hats Off To You (Godzilla)" als Reverenz an Godzilla. Der US-amerikanische Künstler Doctor Steel veröffentlichte ebenfalls im Jahr 2002 den Song "Atomic Superstar" über Godzilla in seinem Album "People of Earth". 2003 erschien im Album "Hai" der Band The Creatures ein japanischer Song den sie Godzilla widmeten, der Name des Songs war "Godzilla!" "The Best Of Godzilla Vol.1" (1954–1975), GNP Crescendo Records, GNPD 8055 (1998) "The Best Of Godzilla Vol.2" (1984–1995), GNP Crescendo Records, GNPD 8056 (1998) "The Best of Godzilla – Then" (1954–1975), Silva Screen Records, FILMCD 201 (1998) "The Best of Godzilla – Now" (1984–1995), Silva Screen Records, FILMCD 202 (1998) Gregory Chaitin. Gregory J. Chaitin (* 1947 in Chicago) ist ein US-amerikanischer Mathematiker und Philosoph. Sein Hauptarbeitsgebiet ist die Berechenbarkeitstheorie. Er steht damit in der Tradition von Kurt Gödel und Alan Turing, deren Theoreme (Unvollständigkeitssatz, Turing-Berechenbarkeit) er zur Algorithmischen Informationstheorie verallgemeinerte, die der Kolmogorow-Komplexität ähnlich ist. Leben. Chaitin wurde als Kind argentinischer Einwanderer aus Buenos Aires geboren. Die Familie zog aber schon früh nach New York, wo er bereits in jungen Jahren durch das Buch "Gödel's Proof" von Ernest Nagel und James R. Newman über Gödels Unvollständigkeitssatz zur Berechenbarkeitstheorie hingezogen wurde. (Chaitin geht diese jedoch von Seiten der Informationstheorie Shannons an.) Er besuchte ab 1962 die Bronx High School of Science und ab 1965 die City University of New York (CUNY). 1966 ging er mit der Familie zurück nach Buenos Aires, wo er bei IBM als Programmierer anfing und Kurse in LISP-Programmierung und Metamathematik an der University of Buenos Aires hielt. Anfang der 1970er entstand seine Arbeit "Information theoretic limits of formal systems" (erweitert publiziert im ACM Journal 1974), die ihm eine Einladung ans Thomas J. Watson Research Center der IBM einbrachte, wo er bis heute tätig ist. Von 1976 bis 1985 arbeitete er dort als Software- und Hardwareingenieur an IBM´s RISC Projekt. Zurzeit ist er auch Gastprofessor im Computer Science Department der University of Auckland in Neuseeland. Werk. Seine Ergebnisse betreffen die Struktur mathematischer Theorien. Chaitin sucht Aussagen zur prinzipiellen Berechenbarkeit und zur prinzipiellen Entscheidbarkeit mathematischer Sätze. Er beschäftigte sich mit Beispielen für prinzipiell unentscheidbare Sätze. Bei solchen Sätzen sei es komplett "zufällig", ob sie wahr oder falsch seien. Der englische Begriff "random" kann allerdings auch "wahllos" oder "regellos" heißen; gemeint ist hier, dass diese Sätze nicht "begründet" werden können, sondern "dass es eben so ist". Laut Chaitin hat er bewiesen, dass es bis auf endlich viele Ausnahmen unentscheidbar ist, ob eine Zahl kolmogorow-reduzibel ist, d.h. ob es ein kleineres Programm gibt, das diese Zahl erzeugt. Es existiert also kein allgemeines Verfahren, mit dem die Kolmogorow-Komplexität gemessen werden könnte. Die Interpretation von Chaitins Ergebnissen ist unter einigen Mathematikern umstritten. Von ihm stammt die Chaitinsche Konstante. Chaitin hat auch viel zur Philosophie der Mathematik geschrieben, insbesondere in Zusammenhang mit den Unvollständigkeitssätzen Gödels und Komplexitätsfragen. 1995 wurde er Ehrendoktor der University of Maine und erhielt 2002 eine Ehren-Professur in Buenos Aires. Ganze Zahl. Die ganzen Zahlen (auch "Ganzzahlen", lat. "numeri integri") sind eine Erweiterung der natürlichen Zahlen. Die ganzen Zahlen umfassen alle Zahlen und enthalten damit alle natürlichen Zahlen sowie deren additive Inverse. Die Menge der ganzen Zahlen wird mit dem Symbol formula_1 abgekürzt (das „Z“ steht für das deutsche Wort „Zahlen“). Das alternative Symbol formula_2 ist mittlerweile weniger verbreitet; ein Nachteil dieses Fettdruck-Symbols ist die schwierige handschriftliche Darstellbarkeit. Der Unicode des Zeichens lautet U+2124 und hat die Gestalt ℤ. Die obige Aufzählung der ganzen Zahlen gibt auch gleichzeitig in aufsteigender Folge deren natürliche Anordnung wieder. Die Zahlentheorie ist der Zweig der Mathematik, der sich mit Eigenschaften der ganzen Zahlen beschäftigt. Die Repräsentation ganzer Zahlen im Computer erfolgt üblicherweise durch den Datentyp Integer. Die ganzen Zahlen werden im Mathematikunterricht üblicherweise in der fünften bis siebten Klasse eingeführt. Ring. Die ganzen Zahlen bilden einen Ring bezüglich der Addition und der Multiplikation, d. h. sie können ohne Einschränkung addiert, subtrahiert und multipliziert werden. Dabei gelten Rechenregeln wie das Kommutativgesetz und das Assoziativgesetz für Addition und Multiplikation, außerdem gelten die Distributivgesetze. Durch die Existenz der Subtraktion können lineare Gleichungen der Form mit natürlichen Zahlen formula_4 und formula_5 stets gelöst werden: formula_6. Beschränkt man formula_7 auf die Menge der natürlichen Zahlen, dann ist nicht jede solche Gleichung lösbar. Abstrakt ausgedrückt heißt das, die ganzen Zahlen bilden einen "kommutativen unitären Ring". Das neutrale Element der Addition ist 0, das additiv inverse Element von formula_8 ist formula_9, das neutrale Element der Multiplikation ist 1. Anordnung. Die Menge der ganzen Zahlen ist total geordnet, in der Reihenfolge Wie die Menge der natürlichen Zahlen ist auch die Menge der ganzen Zahlen abzählbar. Die ganzen Zahlen bilden keinen Körper, denn z. B. ist die Gleichung formula_21 nicht in formula_1 lösbar. Der kleinste Körper, der formula_1 enthält, sind die rationalen Zahlen formula_24. Euklidischer Ring. Eine wichtige Eigenschaft der ganzen Zahlen ist die Existenz einer Division mit Rest. Aufgrund dieser Eigenschaft gibt es für zwei ganze Zahlen stets einen größten gemeinsamen Teiler, den man mit dem Euklidischen Algorithmus bestimmen kann. In der Mathematik wird formula_1 als "euklidischer Ring" bezeichnet. Hieraus folgt auch der Satz von der eindeutigen Primfaktorzerlegung in formula_1. Konstruktion aus den natürlichen Zahlen. formula_32 ist nun die Menge aller Äquivalenzklassen. Die Addition und Multiplikation der Paare induzieren nun wohldefinierte Verknüpfungen auf formula_1, mit denen formula_1 zu einem Ring wird. Die übliche Ordnung der ganzen Zahlen ist definiert als Jede Äquivalenzklasse formula_37 hat im Fall formula_38 einen eindeutigen Repräsentanten der Form formula_39, wobei formula_40, und im Fall formula_41 einen eindeutigen Repräsentanten der Form formula_42, wobei formula_43. Die natürlichen Zahlen lassen sich in den Ring der ganzen Zahlen einbetten, indem die natürliche Zahl formula_8 auf die durch formula_39 repräsentierte Äquivalenzklasse abgebildet wird. Üblicherweise werden die natürlichen Zahlen mit ihren Bildern formula_39 identifiziert und die durch formula_42 repräsentierte Äquivalenzklasse wird mit formula_9 bezeichnet. Ist formula_8 eine von formula_50 verschiedene natürliche Zahl, so wird die durch formula_39 repräsentierte Äquivalenzklasse als "positive" ganze Zahl und die durch formula_42 repräsentierte Äquivalenzklasse als "negative" ganze Zahl bezeichnet. Diese Konstruktion der ganzen Zahlen aus den natürlichen Zahlen funktioniert auch dann, wenn formula_53 ohne formula_50 definiert wird. Dann müsste die natürliche Zahl formula_8 mit der durch formula_56 repräsentierten Äquivalenzklasse identifiziert werden. Gestein. Als Gestein bezeichnet man eine feste, natürlich auftretende, in der Regel mikroskopisch heterogene Vereinigung von Mineralen, Gesteinsbruchstücken, Gläsern oder Rückständen von Organismen. Das Mischungsverhältnis dieser Bestandteile zueinander ist weitgehend konstant, sodass ein Gestein trotz seiner detaillierten Zusammensetzung bei freiäugiger Betrachtung einheitlich wirkt. Die Untersuchung der Lithogenese ("lithos" = Stein, Fels, Gestein), Petrogenese ("petros" = Stein) oder Gesteinsbildung ist zentrales Gebiet der Petrologie und Geologie, aber auch der Geophysik und Geochemie. Die meisten Gesteine der Erdkruste (und auch der terrestrischen Planeten) sind Silikatgesteine (Hauptbestandteile Feldspäte und Quarz), nur ein kleiner Prozentsatz sind Karbonate. Ein größeres Volumen eines bestimmten Gesteines, das sich in der Erdkruste befindet oder im Gelände zu Tage tritt, wird gemeinhin als Gesteinsformation bezeichnet (nicht gleichzusetzen mit dem zwar ähnlichen, aber wesentlich exakter definierten Formationsbegriff in der Lithostratigraphie). Begriffsbestimmung. Der geologische Gesteinsbegriff ist weiter gefasst als der umgangssprachliche und bezieht auch natürlich auftretende Metall-Legierungen, vulkanisches Glas, Eis, lockeren Sand oder Kohle ein. Die Lehre von den Gesteinen, die Petrologie, ist ein Teilgebiet der Geowissenschaften. Beispiele für verschiedene Gesteinsarten sind in der Liste der Gesteine zu finden. Die Erde und die inneren Planeten des Sonnensystems bauen sich aus sehr großen, räumlich zusammenhängenden Massen von Gesteinen auf. Jedoch sind diese nur an der Oberfläche der Erdkruste sichtbar und zugänglich, insbesondere in Gebirgen, die durch tektonische Vorgänge der Gebirgsbildung entstehen. Die Lehre von der Be- und Verarbeitung von Gesteinen und Erden, deren Charakter nichtmetallisch ist, nennt man Gesteinshüttenkunde. Zusammensetzung, Gefüge und Struktur. Gesteine bestehen im Wesentlichen aus Mineralen, von denen aber nur etwa dreißig einen bedeutenden Anteil an der Gesteinsbildung haben, die darum ‚gesteinsbildende Minerale‘ genannt werden. Vor allem sind dies Silikate, wie Feldspäte, Quarz, Glimmer, Amphibole oder Olivin, aber auch Karbonate, wie Calcit oder Dolomit sind wichtige Bestandteile von Gesteinen. Neben diesen "Hauptgemengteilen" (die mineralischen Komponenten, die mehr als 10 % der Gesamtmasse ausmachen) enthalten die meisten Gesteine noch so genannte "Nebengemengteile" (Komponenten die zwischen 10 und 1 % ausmachen) oder "Akzessorien" (Komponenten, die nur zu Kristallwasser oder Porenwasser. Als Gefüge eines Gesteins bezeichnet man vor allem seine Textur – die räumliche Lage und Verteilung der Minerale in einem Gestein, die sich aus den Eigenschaften und dem Verhältnis der gesteinsbildenden Minerale zueinander ergibt – und die Struktur, die sich auf die geometrischen Eigenschaften der einzelnen Gesteinsbestandteile bezieht. Dazu gehören relative und absolute Größe, die Form der Kristalle oder Mineralkörner und die Art des Kornverbandes. Gesteinsklassen und Entstehung. Natursteine lassen sich entsprechend ihrer Entstehung (Genese) in drei Gesteinsklassen unterteilen. Anstelle von ‚Gesteinsklasse‘ wird häufig die Bezeichnung ‚Gesteinsart‘ verwendet. In der Geotechnik und zahlreichen verwandten Wissenschaften wie der Bodenkunde unterscheidet man Gesteine grundsätzlich in zwei Gruppen, die Festgesteine und die Lockergesteine. Im technischen Sinne (bei der Verarbeitung) wird in Hartgestein und in Weichgestein unterschieden. Magmatische Gesteine (Magmatite). Magmatische Gesteine (Erstarrungsgesteine) entstehen durch das Erkalten und Auskristallisieren des geschmolzenen Materials aus dem Erdinneren, des so genannten Magmas. Die Nomenklatur von magmatischen Gesteinen nach ihrem Mineralbestand findet sich im Streckeisendiagramm. Findet das Erkalten unterirdisch (tiefer als 5 km) statt, spricht man von Plutoniten oder Intrusivgesteinen (Tiefengestein). Durch die verhältnismäßig gute Wärmeisolation der aufliegenden Gesteine kühlt sich die Magmaschmelze nur langsam ab, so dass große Mineralkristalle entstehen können. Beispiele für plutonische Gesteine sind Granit, Granodiorit, Syenit, Diorit oder Gabbro. Das Magma kann riesige Gesteinsmassen bilden, die so genannten Plutone, die oft mehrere Tausend Kubikkilometer Gestein umfassen. Magma kann jedoch auch in flüssigem Zustand zu Tage treten. An der Erdoberfläche im Kontakt mit Luft erkaltet es schnell und bildet dann die so genannten Vulkanite oder Extrusivgesteine (Ergussgesteine). Durch die rasche Abkühlung kommt es nur zur Bildung sehr kleiner Kristalle wie etwa beim Basalt oder Andesit. Weitere Beispiele sind Rhyolith und Trachyt. Oft existiert sogar überhaupt keine kristalline Ordnung, und es entsteht vulkanisches Glas wie beispielsweise Obsidian. Ganggesteine bilden die Zwischenglieder von Plutoniten und Vulkaniten. Sie dringen in Spalten zwischen Magmakammer und Erdoberfläche ein und erkalten dort als Gänge. Typisch für diese Gesteine ist das so genannte porphyrische Gefüge. Die relativ schnelle Abkühlung im Gang führt zur Herausbildung einer einheitlichen Grundmasse (Matrix). Allerdings haben sich schon auf dem Weg dorthin, in der Magmakammer, genau wie bei den Plutoniten Kristalle herausgebildet. Diese Kristalle sind dann, wie z. B. beim Granitporphyr, als größere Einsprenglinge in der Grundmasse sichtbar. Weitere Beispiele für Ganggesteine sind z. B. Pegmatite, Aplite und Lamprophyre. Metamorphe Gesteine (Metamorphite). Metamorphe Gesteine (Umwandlungsgesteine) entstehen aus älteren Gesteinen beliebigen Typs durch Metamorphose, das heißt durch Umwandlung unter hohem Druck beziehungsweise hoher Temperatur. Bei der Umwandlung ändert sich die Mineralzusammensetzung des Gesteins, weil neue Minerale und Mineralaggregate gebildet werden; der Gesteinschemismus bleibt aber weitgehend gleich. Daneben wird auch das Gesteinsgefüge transformiert. Beispielsweise entsteht aus Quarz­sanden durch Rekristallation und die Ausbildung eines feinen Zements zwischen den Kristallkörnern das metamorphe Gestein Quarzit, aus Kalksteinen entsteht Marmor. Weiträumige Metamorphose von Gesteinen findet meist in großer Tiefe statt, lokale Transformationen können aber auch nahe der Erdoberfläche auftreten, meist in Zusammenhang mit Vulkanismus oder seichten Granitintrusionen. Auch Meteoriteneinschläge führen zu Gesteinsmetamorphosen. Sedimentgesteine (Sedimentite). So werden Sedimentgesteine je nach Art ihrer Genese in "klastische, chemische" und "organogene (biogene) Ablagerungsgesteine" unterschieden. Werden die Ablagerungen durch Sedimentation weiteren Materials bedeckt, verdichten sie sich durch Druck, Bindemittelzufuhr und erhöhte Temperatur unter zunehmendem Wasserverlust immer mehr, bis durch Neukristallisation und Kompaktion aus dem weichen Sediment ein hartes, sprödes Sedimentgestein entstanden ist. Darin werden die einzelnen Minerale und Gesteinsbruchstücke durch eine feinkörnige Grundmasse, die Matrix, zusammengehalten. Diese Veränderungen nach der primären Sedimentation bezeichnet man als Diagenese. Beispiele für Sedimentgesteine sind Sandstein, Kalkstein und Steinsalz. Sedimente lagern sich meist kumulativ in einer Abfolge horizontaler Schichten ab; durch die Reihenfolge der Ablagerung sind von Ausnahmefällen abgesehen höherliegende Schichten jünger als tieferliegende, eine Erkenntnis, die als "Superpositionsprinzip" oder "Lagerungsgesetz" auf den dänischen Arzt und Geologen Nicolaus Steno zurückgeht. Nach ihrer Entstehung können Sedimentgesteine starken Kräften unterliegen, infolge derer die ehemals flachen Schichten gefaltet und gekippt werden, so dass die Lage des Gesteins im Raum so stark verändert sein kann, dass die ursprüngliche Schichtfolge lokal umgekehrt ist. Sedimente lassen sich grob in "terrestrische" Land- und "marine" Meeressedimente unterteilen. Zu terrestrischen zählt man auch Ablagerungen in Süßwasserseen oder Flüssen, die aus Sand oder Schlamm entstanden sind, sowie die organischen Pflanzenreste, aus denen Kohle hervorgegangen ist. Auch Wüsten­sedimente sowie Ablagerungen von Gletschern werden dieser Gruppe zugeteilt. Ein Grenzfall zwischen Vulkaniten und Sedimenten sind vulkanische Aschen und Tuffe. Meeressedimente können durch Ablagerung von Erosionsmaterial anderer Gesteine auf dem Meeresgrund, durch von biochemischen Vorgängen verursachte Ausfällung, zum Beispiel von Karbonaten, und durch Ablagerung anorganischer Skelette von Mikroorganismen wie Foraminiferen, Coccolithophoriden (Haptophyta), Strahlentierchen (Radiolaria) und Kieselalgen (Bacillariophyta) entstehen. Meteoriten. Einen Sonderfall unter den Gesteinen bilden die Meteoriten, Gesteinskörper aus dem Weltraum. Meteoriten sind Zeugnisse der Frühgeschichte des Sonnensystems und enthalten zahlreiche Minerale, die sich nicht in anderen Gesteinen irdischen Ursprungs finden lassen. Sie lassen sich nach ihrem Mineralgehalt einteilen in Steinmeteoriten, die in erster Linie aus Silikaten wie Olivin oder Pyroxen bestehen, Eisenmeteoriten, die sich häufig aus den Eisen-Nickel-Mineralen Kamacit und Taenit zusammensetzen und Stein-Eisen-Meteoriten, die einen Mischtyp darstellen. Die Größe von Meteoriten liegt zwischen der von Mikrometeoriten und riesigen, tonnenschweren Gesteinskörpern. Aus Schweden sind mehrere hundert Millionen Jahre alte fossile Meteoriten bekannt. Irdischen Ursprungs, aber durch Meteoriteneinschläge gebildet sind die Tektite, zentimetergroße Glasobjekte, die durch einschlagbedingtes Schmelzen irdischen Gesteins und darauf folgendes schnelles Abkühlen an der Luft entstehen, und die Impaktite, die durch die starken mechanischen und thermischen Einwirkungen bei einem Meteoriteneinschlag aus den am Einschlagsort vorhandenen Gesteinen entstehen, wie etwa Suevit. Gesteinskreislauf. Magmatische, metamorphe und Sedimentgesteine werden durch geodynamische Prozesse wie Erosion, Gesteinsmetamorphose oder Sedimentation ineinander umgewandelt. So unterliegen durch Erosion des Deckgesteins freigelegte metamorphe und magmatische Intrusivgesteine ebenso wie die an der Oberfläche gebildeten Sediment- und magmatischen Extrusivgesteine der Verwitterung und Erosion. In erster Linie durch wind- oder wasserbedingten Transport lagern sich die Verwitterungsbestandteile als Sedimente ab und bilden durch Verdichtung schließlich Sedimentgesteine. Diese wandeln sich wie auch magmatische Intrusivgesteine in großer Tiefe unter hohem Druck und hoher Temperatur in metamorphe Gesteine um. Der Kreislauf schließt sich, wenn diese entweder wieder an die Oberfläche gelangen oder durch weitere Absenkung ins Erdinnere aufgeschmolzen werden und damit das Rohmaterial für die Entstehung magmatischer Gesteine bilden. Das älteste Gestein. Das älteste bisher sicher datierte Gestein stammt aus der Acasta-Gneis-Formation des Slave-Kratons im Nordwesten Kanadas mit 4,031 ± 0,003 Milliarden Jahren (datiert 1999). Forscher der McGill-Universität in Kanada behaupteten 2008, im Nuvvuagittuq-Grünsteingürtel an der Hudson Bay im nördlichen Kanada ein noch älteres Gestein mit 4,28 Milliarden Jahren gefunden zu haben. Diese Datierung ist umstritten, das Alter dieser Gesteine ist weiterhin Gegenstand der Forschung. Körner aus Mineralen, die besonders widerstandsfähig gegen Verwitterung sind, beispielsweise Quarz, können mehrfach zumindest den exogenen Teil des Gesteinskreislaufs durchlaufen. Körner aus Mineralen, die zudem einen besonders hohen Schmelzpunkt haben, können sogar komplette Zyklen durchlaufen. Ein solches Mineral ist Zirkon, und die ältesten Zeugnisse einer festen Kruste auf der Erde sind Zirkonkörner. Diese entstammen Metasedimenten in den Jack Hills (West-Australien), die vor 3 Milliarden Jahren abgelagert wurden. Einige der Zirkone darin waren jedoch schon vor 4,4 Milliarden Jahren aus einem Magma auskristallisiert. Bedeutung. Gesteine dienten in der Menschheitsgeschichte als erster Werkstoff zur Herstellung von Werkzeug, den Steingeräten, und sind somit auch der Namensgeber für die älteste kulturhistorische Erdepoche, die Steinzeit. Archäologische Funde aus jener Zeit sind meist Steinartefakte. Steine bilden das älteste feste Baumaterial der menschlichen Kultur und die ältesten bekannten überlieferten Schriftträger menschlicher Schrift­kultur. Die Kunst, Steine zu bearbeiten, nennt man Lithurgik. In früheren Zeitepochen wurden aus Gesteinen gesamte Bauwerke erstellt. Heute sind sie ein wesentlicher Bestand im Innenausbau (Bodenbelag, Treppe, Fensterbank, Waschtisch und Küchenarbeitsplatte) und im Außenbau (Fassaden­bekleidung oder Pflasterstein). Des Weiteren sind sie Grundlage bildlicher Darstellungen in der Kunst, besonders in der Lithografie und als Ausgangsmaterial der Bildhauerei. Schmucksteine, Edelsteine und Halbedelsteine sind als Schmuck beliebt. Lesesteinhaufen und Trockensteinmauern dienten früher als Markierung von Äckern und sind heute wertvolle Biotope. Ein Grenzstein wird zur Abgrenzung von Gebieten verwendet. Fossilien in Form von Versteinerungen zeugen von Lebewesen früherer Äonen, Epochen und Perioden und spielen eine große Rolle für das Studium vergangener Lebensformen, der Evolutionsgeschichte sowie für die Datierung von Gesteinsschichten. Gottlob Frege. Friedrich Ludwig Gottlob Frege (* 8. November 1848 in Wismar; † 26. Juli 1925 in Bad Kleinen) war ein deutscher Logiker, Mathematiker und Philosoph. Seine herausragende Leistung auf dem Gebiet der Logik besteht darin, als erster eine formale Sprache und, damit zusammenhängend, formale Beweise entwickelt zu haben. Er schuf dadurch eine wesentliche Grundlage für die heutige Computertechnik und Informatik, sowie für formale Methoden in der linguistischen Semantik. Im Bereich der Philosophie waren seine sprachphilosophischen Betrachtungen außerordentlich einflussreich. Unmittelbar beeinflusst hat er u. a. Rudolf Carnap, der bei Frege studierte, Bertrand Russell und Ludwig Wittgenstein. Er gilt als einer der hauptsächlichen Wegbereiter der analytischen Philosophie, einer der wichtigsten Strömungen der Philosophie des 20. Jahrhunderts. Leben. Gottlob Freges Eltern waren Karl Alexander Frege (geb. 1809 in Hamburg – gest. 1866) und Auguste Bialloblotzky. Freges Vater war Mathematiklehrer und Direktor des Wismarer Lyzeums. Freges Mutter hatte wahrscheinlich polnische Vorfahren. Ein Vorfahre Freges ist Christian Gottlob Frege. Frege besuchte das Gymnasium Große Stadtschule Wismar. Einer seiner Lehrer, Leo Sachse, hatte anscheinend einen großen Einfluss auf ihn. Der Name „Leo Sachse“ wird später in Freges Schriften in Beispielen verwendet. Nachdem im Jahre 1866 sein Vater gestorben war, begann Frege 1869 sein Studium auf Sachses Rat hin an der Universität Jena. Hier lehrten unter anderem Ernst Abbe, der Frege in seiner wissenschaftlichen Karriere unterstützte, und der Philosoph Kuno Fischer, mit dessen Ideen Frege sich intensiv auseinandersetzte. Blick auf das Hauptgebäude der Universität Jena 1871 wechselte Frege an die Universität Göttingen, wo er 1873 seine Doktorarbeit "Über eine geometrische Darstellung der imaginären Gebilde in der Ebene" vorlegte. Frege kehrte nach Jena zurück, wo er sich 1874 bei Abbe über das Thema "Rechnungsmethoden, die sich auf eine Erweiterung des Größenbegriffes gründen" habilitierte. Er lehrte als Privatdozent. 1878 starb seine Mutter; im folgenden Jahr wurde er zum außerordentlichen Professor ernannt. 1887 heiratete Frege Margarete Lieseberg. Die Ehe blieb kinderlos (nach anderen Quellen hatten sie mindestens zwei Kinder, die jung starben), und das Ehepaar Frege adoptierte einen Jungen, Paul Otto Alfred Frege (vormals Paul Otto Alfred Fuchs). Im Jahr 1895 wurde Frege zum Mitglied der Leopoldina gewählt. 1896 wurde Frege in Jena zum ordentlichen Honorarprofessor berufen und lehrte dort – wenig beachtet von Studenten und Kollegen – durchgehend bis zu seiner Emeritierung im Jahre 1917. Freges einziger Student von Bedeutung war Rudolf Carnap, der sein Werk später in mancherlei Hinsicht weiterführte und bekannt machte. Immerhin hatte Frege wissenschaftlichen Kontakt zu den Literaturnobelpreis-Trägern Rudolf Eucken und Bertrand Russell. Freges wissenschaftliche Arbeit wurde durch die Entdeckung der Russellschen Paradoxie im Jahre 1902 in eine schwere Krise gestürzt (siehe auch den Abschnitt "Mathematik"). 1903 gestand Frege im Nachwort seiner "Grundgesetze der Arithmetik" ein, dass durch Russell die „Grundlagen seines Baues erschüttert“ worden seien. In den Folgejahren verfiel Frege in eine Depression, die sich unter anderem darin äußerte, dass er keine größeren Arbeiten mehr publizierte. In seinem 1994 aus dem Nachlass publizierten Tagebuch finden sich anti-demokratische, anti-katholische, anti-französische und antisemitische Bemerkungen; öffentlich ist Frege aber wohl nie politisch in Erscheinung getreten. Erst nach seiner Emeritierung begann Frege wieder zu publizieren, weil er seine Lebenskrise zumindest teilweise überwunden hatte. Im Jahr 1923 rückte Frege vom Logizismus ab, den er sein Leben lang verfolgt hatte, und versuchte nun, die Mathematik auf die Geometrie zu gründen. Bis zu seinem Tod konnte er diese neuen Ideen jedoch nicht mehr ausarbeiten. Seinen Lebensabend verbrachte Frege in Bad Kleinen, in der Nähe seiner Geburtsstadt Wismar. Logik. Nachdem die durch Aristoteles begründete nichtformale Syllogistik mehr als 2.000 Jahre lang als die exakteste Form logischen Schließens gegolten hatte, begann mit Freges revolutionärer „Begriffsschrift“ aus dem Jahre 1879 eine neue Ära in der Geschichte der Logik. In dieser Publikation entwickelte er eine neue Logik in axiomatischer Form, die bereits den Kernbestand der modernen formalen Logik umfasste, nämlich eine Prädikatenlogik zweiter Stufe mit Identitätsbegriff. Frege war neben George Boole und Ernst Schröder einer derjenigen Logiker des 19. Jahrhunderts, die durch die Verbesserung der Logik den Grundstein für die Erforschung der Grundlagen der Mathematik legten. Nach Wilhelm Ackermann und David Hilbert, die in ihren Arbeiten häufig Bezug auf seine Schriften nahmen, ist Freges wichtigster Beitrag die "„Erfüllung des Bedürfnisses der Mathematik nach exakter Grundlegung und strenger axiomatischer Behandlung.“" Mathematik. In der Philosophie der Mathematik trat Frege als scharfer Kritiker vorgefundener Ansätze hervor: In den "Grundlagen der Arithmetik" findet sich eine umfangreiche und einflussreiche Analyse v.a. der Theorien Immanuel Kants, der arithmetische Sätze als synthetische Urteile a priori auffasst, und John Stuart Mills, für den arithmetische Sätze durch Erfahrung bestätigte allgemeine Naturgesetze sind. Daneben war Frege der Begründer eines neuen mathematikphilosophischen Programms, des Logizismus, dem zufolge die Sätze der Arithmetik sich auf logische Wahrheiten zurückführen lassen. Dieses Programm wird in den "Grundlagen der Arithmetik" informell skizziert und in den späteren "Grundgesetzen der Arithmetik" streng formal durchgeführt. Das System des Logizismus enthielt jedoch einen Widerspruch (die sogenannte Russellsche Antinomie), wie Frege in einem berühmt gewordenen Brief von Bertrand Russell aus dem Jahr 1902 erfahren musste. Frege sah sein Lebenswerk gescheitert und zog sich resigniert von der Logik zurück. Nichtsdestoweniger hatte er durch seine Arbeit die wesentlichen Grundlagen geschaffen, auf denen andere, insbesondere Russell, aufbauen und das logizistische Programm vollenden konnten. George Boole. George Boole (* 2. November 1815 in Lincoln, England; † 8. Dezember 1864 in Ballintemple, in der Grafschaft Cork, Irland) war ein englischer Mathematiker (Autodidakt), Logiker und Philosoph. Leben. Boole wurde in Lincolnshire geboren. Er hatte außer der Grundschulbildung keine weiterführenden Schulen besucht. Er brachte sich autodidaktisch Altgriechisch, Französisch und Deutsch bei. Mit 16 Jahren wurde er Hilfslehrer um seine Familie finanziell zu unterstützen. Im Alter von 19 Jahren gründete Boole seine eigene Schule. Auf Grund seiner wissenschaftlichen Arbeiten wurde er 1848 Mathematikprofessor am Queens College in Cork (Irland), obwohl er selbst keine Universität besucht hatte. Dort lernte er seine Frau Mary Everest kennen, nach deren Onkel der höchste Berg der Welt benannt ist, mit der er fünf Töchter hatte. Von der Royal Society wurde er 1844 mit der Royal Medal ausgezeichnet. 1854 veröffentlichte er sein wichtigstes Werk "An Investigation of the Laws of Thought". 1857 wurde er zum Mitglied („Fellow“) der Royal Society gewählt. Booles Grabstein auf dem Friedhof von St Michael’s, Blackrock, Irland George Boole ist der Vater der Schriftstellerin Ethel Lilian Voynich (1864–1960) und von Alicia Boole Stott (1860–1940), der es als Amateur-Mathematikerin ohne formale Vorbildung gelang, die regulären Polyeder in vier Dimensionen zu klassifizieren. Früher Tod. George Boole starb am 8. Dezember 1864 mit nur 49 Jahren an einer fiebrigen Erkältung. Auf seinem Fußweg ging er zwei Meilen weit im strömenden Regen zur Universität, wo er anschließend seine Vorlesung in durchnässten Kleidern hielt. Er erkältete sich, bekam hohes Fieber und erholte sich davon später nicht mehr. Seine Frau war Anhängerin der damaligen Naturheilkunde, die „Gleiches mit Gleichem“ zu behandeln pflegte. Sie soll den an der Fiebererkältung erkrankten Gatten im Bett eimerweise mit kaltem Wasser übergossen haben. Als seine Todesursache wurde Pleuraerguss angegeben. Hauptwerk. Boole schuf in seiner Schrift "The Mathematical Analysis of Logic" von 1847 den ersten algebraischen Logikkalkül und begründete damit die moderne mathematische Logik, die sich von der bis dato üblichen philosophischen Logik durch eine konsequente Formalisierung abhebt. Er formalisierte die klassische Logik und Aussagenlogik und entwickelte ein Entscheidungsverfahren für die wahren Formeln über eine disjunktive Normalform. Boole nahm damit – da aus der Entscheidbarkeit der klassischen Logik ihre Vollständigkeit und Widerspruchsfreiheit folgt – schon gut 70 Jahre vor Hilberts Programm für ein zentrales Logikgebiet die Lösung der von David Hilbert gestellten Probleme vorweg. Als Verallgemeinerungen von Booles Logikkalkül wurden später die sogenannte boolesche Algebra und der boolesche Ring nach ihm benannt. Booles Originalkalkül. Boole benutzte für seinen Logikkalkül die damals bekannte Algebra, die heute als Potenzreihen-Ring über dem Körper der reellen Zahlen präzisiert wird. In diese Algebra bettete er die klassische Logik ein, indem er die Konjunktion „"x" und "y"“ als Multiplikation "xy" und die Negation „nicht "x"“ als 1−"x" formalisierte. Es handelt sich dabei um eine echte Einbettung, in der nicht alle Terme einen logischen Sinn haben; für die logisch bedeutsamen Terme forderte er die Idempotenz "xx" = "x", die in der Algebra nicht allgemein gilt, zum Beispiel nicht für die übliche Addition "x"+"y", weshalb Boole sie uninterpretierbar nannte. Er gebrauchte somit partielle Operationen und sprach bei den logisch bedeutsamen Termen und Operatoren von elective symbols, elective functions, elective equations. Boole entwarf seinen Kalkül primär als Klassenlogik, in dem 1 das Universum (die Allklasse) ist und die Unbestimmten "x", "y", "z"… Klassen repräsentieren. Innerhalb dieses Klassenkalküls stellte er dann die traditionelle Syllogistik dar. Die zwei grundlegenden Syllogistik-Prädikate repräsentierte er durch Gleichungen, nämlich „Alle "x" sind "y"“ durch "x" = "xy" und „Keine "x" sind "y"“ durch "xy" = 0. Diese Gleichungen dienten ihm als Regeln, mit denen er die aristotelisch-scholastischen Syllogismen in Form von Gleichungssystemen auf metalogischer Ebene herleitete. Mit Gleichungen erfasste er die Wahrheit und Falschheit von Aussagen, nämlich „"x" ist wahr“ durch "x" = 1 und „"x" ist falsch“ durch "x" = 0. Er benutzte hier also 0 und 1 als Wahrheitswerte. Sein logisches Entscheidungsverfahren über eine Normalform ergänzte er durch ein gleichwertiges semantisches Entscheidungsverfahren mit Wahrheitswert-Einsetzungen in boolesche Funktionen, die jedem belegten logischen Term einen Wahrheitswert zuordnen. Dieses Verfahren entspricht dem Entscheidungsverfahren mit Wahrheitstafeln, das zur Ermittlung von Tautologien dient. Modifikationen von Booles Kalkül. Booles Originalkalkül lässt sich so modifizieren, dass keine logisch sinnlosen Terme mehr vorkommen, nämlich als Potenzreihenring über dem idempotenten Körper aus den Bits mit Booles Idempotenzgesetz "xx"="x". Dabei entsteht ein sogenannter boolescher Ring, den Iwan Iwanowitsch Schegalkin 1927 einführte und dem Marshall Harvey Stone 1936 den Namen gab. In ihm kann man auf das Minuszeichen verzichten, da er selbstinvers ist und −"x"="x" und "x"+"x"=0 gelten; dies macht die Addition synonym zur ausschließenden Disjunktion „entweder "x" oder "y"“. Boolesche Ringe sind rechnerisch elegant, weil hier die schulbekannten Rechenregeln gelten. Die zur Entscheidbarkeit einer Formel notwendige Normalform entsteht hier einfach durch distributives Ausmultiplizieren und Streichen doppelter Faktoren und Summanden mit "xx"="x" und "x"+"x"=0. Unter der booleschen Algebra wird heute nicht Booles originale Algebra verstanden, sondern der sogenannte boolesche Verband, der gleichwertig zum booleschen Ring ist, aber schon früher von Boole-Nachfolgern entwickelt wurde, besonders von Ernst Schröder 1877 und Giuseppe Peano 1888. Der boolesche Verband ist in der Aussagenlogik und Mengenlehre weit verbreitet und arbeitet mit der Konjunktion, Negation und einschließenden Disjunktion. Granit. Granite (von lat. "granum" „Korn“) sind massige und relativ grobkristalline magmatische Tiefengesteine (Plutonite), die reich an Quarz und Feldspaten sind, aber auch dunkle (mafische) Minerale, vor allem Glimmer, enthalten. Der Merkspruch „Feldspat, Quarz und Glimmer, die drei vergess ich nimmer“ gibt die Zusammensetzung von Granit vereinfacht wieder. Granit entspricht in seiner chemischen und mineralogischen Zusammensetzung dem vulkanischen Rhyolith. Granit tritt gewöhnlich massig auf und kann durch horizontal und vertikal verlaufende Klüfte (dreidimensionales Kluftnetz) in Blöcke zerlegt sein, seltener ist Granit in der Nähe der oberen Grenze der Intrusion plattig ausgebildet. Begrifflichkeit und Abgrenzung . In der Umgangssprache wird das Wort "Granit" häufig als Überbegriff für verschiedene plutonische Gesteine verwendet, die hinsichtlich ihrer Farbe, Textur, Körnung, ihrer chemischen Zusammensetzung und ihrem Mineralbestand den eigentlichen Graniten (einschließlich der Alkalifeldspatgranite) mehr oder weniger ähneln. Dabei handelt es sich um, Granodiorite und Tonalite sowie um Monzonite und Diorite. Diese Gesteine werden, insofern sie einen Quarzanteil von mehr als 20 % besitzen, petrographisch unter den Oberbegriffen Granitoide oder "granitische Gesteine" zusammengefasst. Monzonite und Diorite haben weniger als 20 % Quarz und sollten daher weder als „Granit“ noch als „Granitoid“ bezeichnet werden. Zudem werden des Öfteren dunkle Naturwerksteine magmatischen Ursprunges als „schwarze Granite“ bezeichnet (z. B. der „svart granit“ von Älmhult in Südschweden). Diese Gesteine weisen in aller Regel weniger als 20 % Quarzanteil auf und sind petrographisch meist als Mikrogabbros (Dolerite), Basalte oder Basanite einzuordnen (vgl. → melanokrates Gestein). Granite im petrographischen Sinn sind nie schwarz – sie zählen zu den hellen (leukokraten) Gesteinen. Im Vallemaggia und im gesamten Tessin werden sehr häufig „Granit“ genannte Gesteine für Hausdächer, Pergolen, Straßenbegrenzungen, Tische und Bänke verwendet, die im petrographischen Sinne kein Granit sind. Es handelt sich um plattige Paragneise. Entstehung. a> geformte Granitblöcke im Oberpfälzer Wald Allgemeines. Granite entstehen durch die Erstarrung von Gesteinsschmelzen (Magma) innerhalb der Erdkruste, meistens in einer Tiefe von mehr als zwei Kilometern unter der Erdoberfläche. Im Gegensatz dazu stehen die vulkanischen Gesteine, bei denen das Magma bis an die Erdoberfläche dringt. Granit ist deshalb ein Tiefengestein (Fachausdruck: Plutonit). Gesteine, die sehr nahe der Erdoberfläche (weniger als zwei Kilometer) erstarren, nennt man hingegen Subvulkanite, Übergangsmagmatit oder Ganggestein, werden aber oft auch unter dem Begriff "Vulkanit" subsumiert. Die Schmelztemperatur von granitischen Magmen unter Atmosphärendruck liegt bei 960 °C, bei Fluidreichen Magmen verringert sich die Schmelztemperatur auf bis zu 650 °C. Granite entstehen in den meisten Fällen nicht aus Material des Erdmantels, sondern aus aufgeschmolzenem Material der unteren Erdkruste. Für die Entstehung von Magmakammern muss mit Zeiträumen von 10 bis 15 Millionen Jahren gerechnet werden. Granitgenese. Okrusch und Matthes (2009) fügen noch einen vierten sog. M-Typ-Granit ("mantle source") hinzu. Es handelt sich hierbei um relativ selten vorkommende Restdifferentiate von Mantelschmelzen; diese können sowohl an ozeanischen Inselbögen als auch an Hotspots entstehen. Noch neuere Literatur führt auch noch einen C-Typ-Granit an ("charnockitic source"). Durch Isotopenverhältnisse in erster Linie von Strontium ist heute weitgehend die Herkunft und die Anteile der jeweiligen Stammmagmen aus Kruste und Mantel geklärt. Magmenaufstieg (Intrusion). Tektonische Verwerfungen, die durch Bewegungen der Erdkruste entstehen, dienen den Magmen als leichte Aufstiegswege von der unteren in die obere Kruste. Man bezeichnet den Aufstieg derartiger Magmablasen nach oben als Intrusion. Dabei bilden sich in der Erdkruste große, oft riesige Magmenkörper. Sie erreichen beträchtliche Ausmaße von mehreren Kilometern bis hin zu mehreren 100 Kilometern Länge und einer entsprechenden Breite. Diese Körper nennt man Pluton oder Batholith. Durch tektonische Prozesse kann es zu einer Abschnürung der Magmenaufstiegswege kommen. Es entsteht dann eine isolierte Magmenkammer. Häufig bleiben aber auch die Aufstiegswege in Verbindung mit dem Intrusionskörper. Daneben tritt aber auch der Fall auf, dass Magmen beim Aufstieg aufgehalten werden, da sie ihre Temperatur durch die teilweise Aufschmelzung des umgebenden Gesteins verlieren. Häufig enthalten sie dann Relikte von unaufgeschmolzenem Gestein, sogenannte Xenolithe (Fremdgestein). Erstarrung. Wie alle Plutonite erstarrt auch Granit sehr langsam in größeren Tiefen von mehreren Kilometern. Entsprechend den Schmelztemperaturen beginnen sich die ersten Kristalle zu bilden. Dabei besitzen die dunklen Minerale - die auch meistens eine hohe Dichte haben - den höchsten Schmelzpunkt und erstarren zuerst. Erst danach kristallisieren Feldspäte und Quarz. Die zuerst gebildeten schweren Minerale, wie Hornblende oder Pyroxen, die auf Grund ihres höheren spezifischen Gewichts und ihres höheren Schmelzpunktes bei dem Abkühlungsprozess früher ausgeschieden werden, sinken in der noch flüssigen Restschmelze ab und sammeln sich im unteren Bereich einer erstarrenden Magmakammer. Quarz oder Kalifeldspat hingegen reichern sich auf Grund ihrer geringeren Dichte in der Schmelze an und haben im Dachbereich der Magmenkammer oft deutlich erhöhte Gehalte. Diesen Prozess nennt man magmatische Differentiation. Kontakt zum Nebengestein. a>, ein seltener blauer Granit (ca. 15 ×15 cm) Der Kontakt mit dem Nebengestein führte in den Randbereichen des Magmas zu „Verunreinigungen“ und zu einem rascheren Erkalten des Magmas. Häufig entstehen dabei besonders ausgefallene Gesteinsvarietäten und Minerale. Dieses trifft zum Beispiel auf den bläulichen "Kösseine-Granit" aus dem Fichtelgebirge zu, bei dem es durch Vermischung der Schmelze mit tonigem Nebengestein zur Bildung von feinen Mikroklin­kristallen kam, welche die bläuliche Einfärbung verursachen. Weiterhin wird auch das Nebengestein durch die hohe Temperatur und durch die Materialzufuhr aus dem heißen Magma deutlich verändert und in ein metamorphes Gestein umgewandelt. Bekanntestes Beispiel sind die Hornfelse. Nach der Erstarrung. Durch weitere Bewegungen der Erdkruste und Abtragung des darüber befindlichen Gesteins gelangt dann der erstarrte Granit an die Erdoberfläche. Dabei kann sich der Granit durch tektonische oder hydrothermale Prozesse deutlich verändern. Mit dem Erreichen der Erdoberfläche setzt außerdem die Verwitterung und Abtragung des Granits selbst ein. Bei genügend langer Zeitdauer und warm-feuchtem Klima kann die Verwitterung mehr als 100 m in die Tiefe reichen. Dieser Prozess vollzieht sich in Zeiträumen von Zehntausenden von Jahren. Aussehen. Porphyrischer Granit; in einer mittelkörnigen Matrix befinden sich große, rosa Feldspäte. Größe des Handstückes etwa 13 cm Im Allgemeinen ist Granit mittel- bis grobkörnig. Er besitzt eine homogene Mineralverteilung mit oft richtungsloser Textur und die daraus resultierende relativ gleichmäßige Optik. Die Struktur von Granit ist durch unmittelbaren Kornverband gekennzeichnet, die Größe der Kristalle schwankt meistens zwischen einem und mehreren Zentimetern. Man kann für gewöhnlich alle Kristalle mit bloßem Auge erkennen. Neben gleichkörnigen Graniten, bei denen nahezu alle Kristalle dieselbe Größenklasse besitzen, gibt es auch sehr häufig ungleichkörnige oder porphyrische Granite. Dort sind einzelne Kristalle, meistens handelt es sich um Feldspäte, um ein mehrfaches größer als die Kristalle der Matrix. Ein bekannter porphyrischer Granittyp ist der Rapakiwi. Das Farbspektrum reicht bei Graniten von hellem Grau bis bläulich, rot und gelblich. Dabei spielen die Art der Erstarrung (Kristallisation) und Umwelteinflüsse, denen das Gestein ausgesetzt war, ebenso eine Rolle wie der Mineralgehalt. Die gelbe Farbe angewitterter Granite kommt von Eisenhydroxidverbindungen (Limonit), die infolge von Verwitterungseinflüssen aus primär im Granit enthaltenen Eisen führenden Mineralen entstanden sind. Mineralbestand. a>. Alle Gesteine, die sich im oberen Teil des Diagramms zwischen der 90er (hier fälschlich mit einer „10“ versehen) und 20er Quarz-Linie befinden, werden als "granitische Gesteine" oder "Granitoide" bezeichnet. Zusammensetzung. Granite bestehen hauptsächlich aus Quarz, Feldspäten und dunklen, mafischen Mineralen, die etwa 20–40 % der Masse einnehmen. Meistens handelt es sich dabei um Biotit (Dunkelglimmer), seltener um Amphibole oder andere mafische Minerale. Daneben kommt Muskovit vor, der Hellglimmer. Bei den Feldspäten überwiegt der Alkalifeldspat über die Plagioklase. Als Akzessorien (Nebenbestandteile) führen sie Zirkon, Apatit, Titanit, auch Magnetit, Rutil, Ilmenit oder auch andere Erzmineralien, die zum Teil aus überprägten Zonen stammen können. Granite weisen oft eine natürliche Radioaktivität auf, da sie Spuren von Uran, Rubidium und anderen radioaktiven Elementen enthalten können. Ein weiterer möglicher Träger der Radioaktivität sind die in den Feldspäten und Glimmern vorkommenden radioaktiven Isotope verschiedenster Elemente, vor allem Kalium. Die Stärke der Radioaktivität kann selbst innerhalb eines geologischen Aufschlusses sehr stark schwanken. Verwandte Gesteine. Mit dem Granit eng verwandt und in Plutonen oft mit diesem vergesellschaftet, finden sich andere magmatische Gesteine, die aber eine veränderte chemische Zusammensetzung haben. Dazu gehören der Alkaligranit (Plagioklas fehlt weitgehend), Granodiorit (Plagioklas überwiegt über Kalifeldspat), der Diorit (Kalifeldspat fehlt weitgehend) sowie häufig auch Pegmatite welche sich manchmal nur texturell und chemisch fast nicht vom Granit unterscheiden. Darüber hinaus ist Granit das entsprechende Tiefengestein zu den vulkanischen Gesteinen Rhyolith und Obsidian. Alle drei sind saure Gesteine, das heißt, sie besitzen einen hohen SiO2-Gehalt, und unterscheiden sich nur durch ihre Kristallisationsgeschwindigkeit sowie, damit verbunden, das Gesteinsgefüge bzw. die chemische Struktur. Vorkommen. Granite gehören zu den häufigsten Gesteinen innerhalb der kontinentalen Erdkruste. Sie finden sich auf allen Kontinenten. Sie entstehen im Rahmen der Plattentektonik primär in Gebirgen oder an Subduktions­zonen: Die abtauchende (ozeanische) Platte führt auch sedimentäres Material mit sich, das nicht subduziert werden kann und den sogenannten Akkretionskeil bildet. Hier kann durch den hohen Wassergehalt granitisches Magma entstehen, das bei der Abkühlung im Erdinneren Granit bildet. Granitvorkommen in Mitteleuropa. Granite findet man auch sehr häufig als eiszeitliches Geschiebe in den pleistozänen Tiefländern Mittel-, Nord- und Osteuropas. Bodenbildung und Verwitterung. Auf Grund ihres hohen Quarz- und Feldspatanteils sowie ihrer klimatisch eher ungünstigen Lage in den Mittelgebirgen, entstehen in Mitteleuropa aus Graniten im Allgemeinen nährstoffarme Böden, die außerdem zur Versauerung neigen. Je nach Wasserangebot und Entwicklungstiefe des Bodens findet man meistens Ranker oder Braunerden, seltener Podsole. Meistens werden diese Böden forstwirtschaftlich genutzt. Bei der Verwitterung von Granit entsteht ein sandartiges Material, welches "Granitgrus" (auch "Granitgruß") genannt wird. Dieser eignet sich auch als Wegebaumaterial, Zuschlagsstoff für Kalkmörtel und kann im Erd- und Grundbau auch als Dichtung eingesetzt werden. Granitgrus gewann man beispielsweise lange Zeit aus den Vorkommen des Bergener Massivs im Vogtland und verwendete ihn in der Region als Wege-, Bau- und Scheuersand. Die Vergrusung tritt dort in einer Mächtigkeit von bis zu mehreren Metern auf. Überblick. a> als Fassadenbekleidung am Trinkaus-Gebäude in Düsseldorf Verwendet wird Granit seit altersher auch in der Steinbildhauerei. Da es sich im arbeitstechnischen Sinne um ein Hartgestein handelt und bei der Ausformung händische Techniken verwendet werden, die einen hohen körperlichen und technischen Aufwand fordern, sind Granit-Skulpturen seltener als solche aus Weichgestein. Regeln für die Verwendung im Bauwesen. Grobkörnige Granite haben schlechtere Druck- und Biegezugwerte als die fein- bis mittelkörnigen. Eingelagerte Minerale können zu Verfärbungen führen. In den gelb gefärbten Graniten hat sich Hämatit zu Limonit verwandelt. Dieser Prozess hat sich in der Natur über Zehntausende von Jahren oberflächennah vollzogen und kann sich bei falschem Mörteleinsatz innerhalb kurzer Zeiträume vollziehen. Es kann durchaus sein, dass sich zudem die Gelbfärbung der Granite durch eine Umwandlung des Feldspats und Biotits punktuell vollzogen hat. Natursteinsorten (Auswahl). Granit wird in vielen Natursteinsorten vertrieben, darunter Gesundheitsgefährdung durch Radioaktivität. In Graniten kommen radioaktive Nuklide wie Thorium, Uran oder Kalium-40 in unterschiedlich stark angereicherten Mengen vor. Die Gesundheitsgefährdung durch die Strahlenbelastung, welche von Granitplatten im Haushalt beziehungsweise dem Zerfallsprodukt Radon ausgeht, ist gegenüber der natürlichen Hintergrundstrahlung oder anderen Strahlenquellen, beispielsweise Röntgentechnik, vernachlässigbar. David J. Brenner, Direktor des Zentrum für Radiologie Forschung an der Columbia University in New York, schätzt, dass die Gefahr einer Krebserkrankung aufgrund der Strahlenbelastung durch Granitplatten im Haushalt (selbst wenn diese sehr stark angereichert sind) im Bereich eins zu einer Million liegt. Weitere Besonderheiten. Besonderheiten sind auch die „polsterartige“ Verwitterung (Wollsackverwitterung) und die dabei unter begünstigenden Bedingungen auftretende moosüberwachsene Oberfläche, der beim weiteren Zerfall bodenbildende Grus (kleinkörnige Zerfallsprodukte des Gesteins), die Entstehung von Blockheiden und Hochmooren. Landschaftsformen dieser Art sind mitunter Gegenstand einer touristischen Vermarktung in „mystischen Projekten“ und Seminaren, frühere Hexen­geschichten und viele Wackelsteine, an denen man seine Kräfte messen kann. Aus verwittertem Granit entstehen neben anderen Gesteinen Kaolin und Quarzgrus. Am Monte Kaolino in der Oberpfalz ist der „Restquarz“ zu einem Eventhügel aufgetürmt. Andere Verwitterungsprodukte sind unter anderem Tonminerale. Globalisierungskritik. Globalisierungskritik bezeichnet die kritische Auseinandersetzung mit den ökonomischen, sozialen, kulturellen und ökologischen Auswirkungen der Globalisierung. Ein Schwerpunkt der Kritik richtet sich gegen eine Wirtschaftsordnung, die mit dem mehrdeutigen Ausdruck „neoliberal“ bezeichnet wird und die von Organisationen wie Weltbank und Welthandelsorganisation weltweit gefördert werde. Abgrenzung. Träger der Globalisierungskritik sind eine Vielzahl unterschiedlicher Nichtregierungsorganisationen (NGOs) wie beispielsweise die parteiähnliche Organisation attac, freie Träger aller Art und Einzelpersonen wie Arundhati Roy, Jean Ziegler oder Naomi Klein. Die Positionen, die Globalisierung vollständig ablehnen und die globale Verflechtung reduzieren wollen, werden als Globalisierungsgegner bezeichnet. Davon zu unterscheiden ist eine Globalisierungskritik im engeren Sinn, die sich beispielsweise gegen den Neoliberalismus richtet und für eine "andere Globalisierung" eintritt (daher auch französisch altermondialisation und englisch "alter-globalization" von "alter" = anders). Im allgemeinen Sprachgebrauch und auch in den Medien werden die Globalisierungskritiker teilweise unzutreffend als Globalisierungsgegner bezeichnet. Im Zentrum der Kritik stehen die Deregulierung und der damit verbundene Abbau sozialer Rechte sowie die allumfassende Kommerzialisierung und Vermarktung (Kommodifizierung) durch „Privatisierung öffentlicher Unternehmen, Umbau der Sozialhilfe oder ‚Inwertsetzung’ von menschlicher und außermenschlicher Natur“. Geschichte. Die Globalisierungskritik wurzelt in älteren Strömungen wie Kapitalismuskritik und Befreiungstheologie; sie übernimmt und entwickelt deren Gedankengut weiter; sie ist eine aktuelle Ausprägung von diesen. Gegen Ende der 1990er Jahre hat sich die Globalisierungskritik in verschiedenen Bewegungen entwickelt. In vielen ehemaligen Kolonien betrachten verschiedene soziale Bewegungen die Kämpfe gegen die globalen Abkommen und Institutionen als Fortsetzung der Kämpfe gegen die Kolonialherren (vgl. Neokolonialismus). In Lateinamerika bezog sich der Aufstand der Zapatistas im Januar 1994 direkt auf das Inkrafttreten des Nordamerikanischen Freihandelsabkommens (NAFTA). Die Zapatistas organisierten mit den sogenannten intergalaktischen Encuentros (Zusammenkünften) auch die ersten globalen Vernetzungstreffen. Es kam zu einem Aufstand in Chiapas, der schnell weite Gebiete des Bundesstaats erfasste. Der Versuch, den Kampf gegen den „Neoliberalismus“ zu popularisieren, blieb zu diesem Zeitpunkt weitgehend auf eine kleine Gruppe politischer Weggefährten aus dem europäischen und US-amerikanischen Studentenmilieu beschränkt. Erst mit dem Entwurf des Multilateralen Investitionsschutzabkommens (MAI) im Jahr 1997, das weitgehende Rechte für transnationale Konzerne vorsah, weitete sich der Protest auf eine breitere internationale Öffentlichkeit aus. Nichtregierungsorganisationen in Kanada, den USA, Frankreich und einigen asiatischen Ländern kritisierten den Entwurf heftig. Vor allem die französische Kulturindustrie fühlte sich vom „MAI“ bedroht, da sie der freie Marktzugang der Konkurrenz von Hollywoodproduktionen ausgesetzt hätte. Mit dem Ausstieg der französischen Regierung unter Ministerpräsident Lionel Jospin war dieses Projekt gescheitert. Die OECD-Staaten und führende Vertreter der Wirtschaft kündigten bald nach dem Scheitern an, dass sie einen neuen institutionellen Rahmen für das Investitionsabkommen finden wollten, um für transnationale Konzerne und Auslandsinvestitionen eine größtmögliche Rechtssicherheit garantieren zu können. Diese Ankündigung und die ab Juli 1997 aufkommende Asienkrise schärften die kritische Wahrnehmung der „neoliberalen Weltwirtschaft“ nochmals. So publizierte u. a. der Chefredakteur von "Le Monde diplomatique", Ignacio Ramonet, im Dezember 1997 den Leitartikel „Désarmer les marchés“ – die Märkte entwaffnen, der die Bewegung "Attac" ins Leben rief. Ein einschneidendes Ereignis in der globalisierungskritischen Bewegung stellte der Abbruch der 3. WTO-Konferenz in Seattle im Dezember 1999 dar, nach dem es zu gewalttätigen Auseinandersetzungen zwischen Globalisierungskritikern und der Polizei kam. Nach Seattle entwickelte sich die globalisierungskritische Bewegung auch in den Metropolen und erfuhr eine weltweite Verbreitung. Auf dem Europäischen Kontinent waren die Proteste gegen die Sitzung von Weltbank und internationalem Währungsfonds am 26. September 2000 in Prag wichtig für die weitere Mobilisierung. Die ca. 15.000 Globalisierungskritiker zogen in drei farbig gekennzeichneten Demonstrationen in Richtung Tagungsgebäude: ein gelber Zug (Tute Bianche u. a.), ein blauer Zug (Autonome u. a.), und Pink & Silver (Rhythms of Resistance u. a.). Beim EU-Gipfel in Göteborg 2001 demonstrierten am 14. Juni 2001 mehr als 20.000 Globalisierungskritiker unter dem Motto „Bush not welcome“. Es kam zur Eskalation von Gewalt. Ein Polizist gab mehrere Schüsse auf Demonstranten ab, neben zwei Beintreffern wurde eine Person durch einen Bauchschuss lebensgefährlich verletzt. a>; übersetzt etwa „Das zweite Gesicht eurer Globalisierung“ Wenige Wochen später, beim G8-Gipfel in Genua 2001 kam es zu schweren Auseinandersetzungen zwischen der italienischen Polizei und Demonstranten. Die italienische Regierung hatte für die Zeit des Gipfels das Schengener Abkommen außer Kraft gesetzt und ließ sämtliche Grenzen lückenlos überwachen. In Genua selbst wurden 20.000 Polizisten und Carabinieri zusammengezogen. Medien und einige Politiker warnten vor „"bürgerkriegsähnlichen Zuständen"“. Es kam zu schweren Übergriffen und Menschenrechtsverletzungen der Exekutive gegen Demonstranten. Hunderte Demonstranten wurden verletzt. Als der italienische Aktivist Carlo Giuliani mit anderen ein Polizeifahrzeug attackierte, wurde er von einem der Polizisten erschossen und mit dem Geländewagen zweimal überrollt. Nach Schätzungen nahmen zwischen 70.000 und 250.000 Globalisierungskritiker an den Protesten teil. Gruppierungen. In Europa und Nordamerika lässt sich die globalisierungskritische Bewegung auf verschiedene Teile der Neuen Sozialen Bewegungen, insbesondere der Dritte-Welt-/Eine-Welt-Bewegung, und der Gewerkschaften zurückführen. Aufmerksamkeit erzielten die Proteste durch neue Aktionsformen, die von Gruppen wie Reclaim the Streets in Großbritannien und das Direct Action Network in Seattle inspiriert wurden. In den Niederlanden formte sich Ende der 1960er Jahre eine „Antiglobalisierungsbewegung“ u. a. gegen den Vertrag von Amsterdam. Dazu entstand 1967 das Kollektiv Eurodusnie, das bis heute besteht. Nichtregierungsorganisationen/Freie Träger. NGOs spielen eine tragende Rolle in der globalisierungskritischen Bewegung. Sie organisieren regelmäßig Gegen- und Alternativkongresse und nutzen die modernen Kommunikationstechnologien, um ihre Publikationen einer kritischen Öffentlichkeit zuzuführen. NGOs arbeiten in zahlreichen Netzwerken zu unterschiedlichen Schwerpunkten. Viele NGOs favorisieren die UNO als Institution für ihre Konzepte von „Global Governance“. In Europa setzen sie auf die Europäische Union. Kritiker werfen den NGOs vor, sie konzentrierten sich primär auf Lobbyismus. Je größer die finanzielle Abhängigkeit von supranationalen Institutionen, Regierungen oder Konzernen, so die vielgeäußerte Kritik des radikalen Flügels der Bewegung, umso lauter propagierten die NGOs die Reformierbarkeit der kapitalistischen Weltwirtschaftsordnung. In Gebieten mit indigenen Völkern schließen diese sich häufig den Kampagnen der NGOs an, sofern sie nicht selbst dazu in der Lage sind. Die indigene Kritik an der westlichen Zivilisation, Kolonialisierung und Globalisierung ist seit Jahrhunderten aktuell. Gewerkschaften. Seit den Ereignissen von Seattle mobilisieren zunehmend auch die Gewerkschaften gegen Treffen internationaler Institutionen. In Europa beteiligten sie sich erstmals im großen Stil an den Protesten gegen die EU-Regierungsgipfel in Nizza und Brüssel. Dort organisierten die Gewerkschaften jeweils eigenständige Demonstrationen. In beiden Fällen ging die große Beteiligung auf die Mobilisierungsfähigkeit der französischen "CGT" zurück. International sind es vor allem einige Gewerkschaftsverbände aus Schwellenländern, die sich an die Seite der neuen Bewegung stellen. Dazu gehört die brasilianische "CUT" und die südkoreanische "KCTU", die erst im Jahre 1999 legalisiert worden ist. In Europa waren unabhängige und linksgewerkschaftliche Organisationen die treibenden Kräfte, wie zum Beispiel die italienischen "SinCobas" und die französischen "SUD"-Gewerkschaften, die seit den Europäischen Märschen gegen Erwerbslosigkeit 1997 anlässlich des EU-Gipfels in Amsterdam eine offensive Politik über den nationalstaatlichen Rahmen hinaus praktizieren. Attac. Neben Gewerkschaften und NGOs haben sich innerhalb der globalisierungskritischen Bewegung verschiedene internationale Netzwerke herausgebildet. Das in Europa bekannteste ist Attac. Die von Ignacio Ramonet in seinem Leitartikel in "Le Monde Diplomatique" lancierte Idee war, auf weltweiter Ebene eine NGO ins Leben zu rufen, die Druck auf die Regierungen machen sollte, um eine internationale „Solidaritätssteuer“, genannt „Tobin-Steuer“, einzuführen. Gemeint war damit die durch den US-amerikanischen Ökonomen James Tobin Ende der 70er Jahre vorgeschlagene Steuer in Höhe von 0,1 % auf internationale Kapitalflüsse. Der von Ramonet gleichzeitig vorgeschlagene Name dieser Organisation „Attac“ sollte, aufgrund seiner sprachlichen Nähe zum französischen Wort "attaque", zugleich den Übergang zur „Gegenattacke“ signalisieren, nach Jahren der Anpassung an die Globalisierung. In Frankreich fiel dieser Appell der in fortschrittlichen Kreisen einflussreichen Zeitung auf fruchtbaren Boden. Schon die große Streikwelle Mitte der 1990er Jahre hatte das kritische Bewusstsein vieler Franzosen gegenüber dem Neoliberalismus geschärft, dessen internationale Dimension durch die Asienkrise Ende 1997 nochmals verdeutlicht wurde. Die Aktivitäten von Attac weiteten sich schnell über den Bereich der Tobinsteuer und die „demokratische Kontrolle der Finanzmärkte“ hinaus aus. Mittlerweile umfasst der Tätigkeitsbereich von Attac auch die Handelspolitik der WTO, die Verschuldung der Dritten Welt und die Privatisierung der staatlichen Sozialversicherungen und öffentlichen Dienste. Die Organisation ist inzwischen in einer Reihe von afrikanischen, europäischen und lateinamerikanischen Ländern präsent. In Deutschland hatten im Jahre 2000 mehrere NGOs, darunter Weltwirtschaft, Ökologie und Entwicklung (WEED), die Initiative für "Attac-Deutschland" ergriffen. Andere Netzwerke. Ein zweites weltweites Netzwerk neben Attac ist Peoples Global Action (PGA). Bei PGA arbeiten in Europa vor allem Gruppen mit, die sich am Politikverständnis der mexikanischen Zapatisten orientieren. Das im Februar 1998 in Genf gegründete Netzwerk lehnt jede Art von Lobbyarbeit ab und veranstaltet stattdessen regelmäßig globale „action days“. Die größte ihr zugehörige Organisation ist die indische Bauernorganisation "KRRS", der nach eigenen Angaben etwa zehn Millionen Mitglieder angehören. Das Netzwerk macht v. a. durch originelle Aktionen auf sich aufmerksam. Es setzt auf die Prinzipien der Spontanität, Selbstverwaltung und Konfrontation. Im Gegensatz zu Attac gibt es keine formelle Mitgliedschaft von Einzelpersonen. Jeder Kontinent muss allerdings eine verantwortliche Gruppe stellen, die für die internationale Koordinierung der Aktionstage delegiert ist und die internationalen Konferenzen mit vorbereitet. Der internationale Bauernverband Via Campesina spielt vor allem in den Ländern des Südens eine tragende Rolle. In Europa ist der Franzose José Bové mit seinen Aktionen gegen Freihandel und McDonald’s bekannt geworden. Aus Lateinamerika genießt vor allem die brasilianische Landlosenbewegung MST durch ihre spektakulären Landbesetzungen einen gewissen Bekanntheitsgrad. Via Campesina konzentriert sich auf Agrarpolitik, grüne Gentechnologie und Patentrecht. In seinem Blickfeld steht v. a. die Politik der WTO. Die Bauernorganisation tritt für Ernährungssouveränität ein, also gegen eine Exportorientierung in der Landwirtschaft und für die Ernährungssicherheit der Regionen. Das bedeutet, dass jede Region der Welt in der Lage sein sollte, die dort lebende Bevölkerung mit heimischen Agrarprodukten zu ernähren. In Deutschland sind das Dissent!-Netzwerk, die Interventionistische Linke und die Bundeskoordination Internationalismus (BUKO) zu erwähnen. Sozialforen. Diese unterschiedlichen Netzwerke und Organisationen trafen im Januar 2001 erstmals zum Weltsozialforum in Porto Alegre (Brasilien) zusammen – zeitgleich zu dem seit 1971 stattfindenden Weltwirtschaftsforum von Konzernmanagern und Wirtschaftspolitikern in Davos. Insgesamt waren in Porto Alegre 117 Länder vertreten, mit mehr als 10.000 Teilnehmenden. Neben zahlreichen NGOs und Basisbewegungen waren auch 400 Parlamentarier anwesend. Porto Alegre galt als Modellprojekt für das Motto der Konferenz: „Eine andere Welt ist möglich“, da die brasilianische Arbeiterpartei ("PT") dort den „Beteiligungshaushalt" eingeführt hatte, der für mindestens 20 % des Budgets der Stadt plebiszitäre Elemente vorsah. Als Folge dieses Gegengipfels entstanden weitere Sozialforen, zunächst auf kontinentaler Ebene (Europäisches Sozialforum), später auch auf regionaler und lokaler Ebene. Die Bewegung gilt als inhaltlich vielfältig. Die Schwerpunkte liegen auf einer "sozial gerechten Globalisierung" sowie bei "Menschenrechten" (insbes. 'Frauenrechten') und ökologischen Themen. Eng verknüpft mit den kirchlichen Akteuren in den Sozialforen ist auch der Ökumenische Rat der Kirchen (ÖRK), der auf seinen Vollversammlungen ebenfalls Kapitalismuskritik äußert. Kritik. Kritiker der Globalisierung sehen in der Aufspaltung des Finanzkapitals durch attac in „gutes“ (produktives) und „schlechtes“ (unproduktives) Kapital eine Methode, den Kapitalismus in einer Ausprägung zu kritisieren, ohne ihn an und für sich zu verwerfen. Nicht der Kapitalismus sei der Auswuchs, sondern der Neoliberalismus. Gegen die Fokussierung der Globalisierungskritik auf die ökonomische Dimension spricht sich unter anderem der deutsche Soziologe Ulrich Beck aus, der diese Betrachtungsweise als „Globalismus“ bezeichnet und kritisiert. Marchart kritisiert die Globalisierungskritiker, dass sie nicht weit genug gehen, sondern im ökonomischen Denken stecken bleiben. Er begründet dies damit, dass die Globalisierungskritiker keinen neuen Anfang im Sinne von Hannah Arendt machen. Sie beruft sich dabei auf Augustinus: „Damit ein Anfang sei, wurde der Mensch geschaffen, vor dem es niemand gab.“ (Marchart, S. 31) Wenn Globalisierungskritik in einem Raum der Alternativlosigkeit stattfindet wie die neoliberale Margaret Thatcher es in ihrem Ausspruch – „There is no alternative“ – klar ausdrückt, „dann könnte es nur um Fragen der entweder effizienteren oder etwas gerechteren "Verwaltung" gehen – letztlich um ein besseres Globalisierungsmanagement.“ (S. 95) Damit befindet man sich in einem Diskurs der sich im alten, vergangenen Rahmen bewegt, der jedoch völlig apolitisch im Sinne von Arendt ist. Politik muss nicht nur den vermeintlichen Notwendigkeiten folgen, sondern kreativ im „Reich der Freiheit“ (siehe Ethik Immanuel Kants) denken, das auf einem neuen und damit völlig unbekannten "Anfang" beruht. Granatgruppe. Die Granatgruppe ist eine wichtige Gruppe gesteinsbildender Minerale aus der Mineralklasse der „Silikate und Germanate“ und der Abteilung der Inselsilikate (Nesosilikate). Die Granat-Minerale kristallisieren meist im kubischen Kristallsystem und bilden überwiegend isometrische Kristalle mit den charakteristischen Formen des Rhombendodekaeders (veraltet auch "Granatoeder"), Ikositetraeders sowie deren Kombinationen. Zusätzlich ist bei den so genannten "Hydrogranaten" ein [ZO4]-Baustein noch durch vier [OH]-Bausteine ersetzt. Granate sind im Allgemeinen durchsichtig bis durchscheinend, bei vielen Fremdbeimengungen und in derben Mineral-Aggregaten auch undurchsichtig. Unverletzte bzw. unverwitterte Kristallflächen weisen einen glas- bis fettähnlichen Glanz auf. Die Farbe der Granate ist sehr variabel, auch wenn rötliche Farbvarietäten überwiegen. Die Palette reicht von einem hellen Grün über Gelbgrün bis Dunkelgrün, Hellgelb über Gelborange und Orangerot sowie von einem hellen Rosa bis zu einem fast schwarz wirkenden Dunkelrot. Seltener finden sich farblose und braune Varietäten und sehr selten auch farbwechselnde (Changierende) und blaue Granate. Die Strichfarbe ist allerdings immer weiß. Ihre relativ hohe Dichte (3,5 bis 4,5 g/cm3), Mohshärte (6,5 bis 7,5) und Lichtbrechung (n = 1,61 (Katoit) bis n = 1,96 (Calderit) machen sie sowohl als Schmuckstein als auch für industrielle Anwendungen interessant. Etymologie und Geschichte. im Vergleich zu einer Granatmineralstufe Die Bezeichnung Granat wurde erst im Mittelalter geprägt, hat aber ihren Ursprung im lateinischen Wort "granum" für Korn oder Kern bzw. "granatus" für körnig oder kernreich und bezieht sich einerseits auf das Vorkommen des Minerals in Körnern, welche Ähnlichkeit mit den Kernen des Granatapfels ("Punica granatum") haben, andererseits aber auch auf die orangerote bis rotviolette Farbe von Blüte, Frucht und Kernen des Granatapfels. Schon in der Antike wurden Granate als Schmucksteine genutzt. Im Mittelalter waren sie zusammen mit Rubinen und Spinellen unter der Bezeichnung "Karfunkel" (auch "Karfunkelstein") bekannt – die meisten stammten damals aus Indien. Besonders populär waren sie aber im 19. Jahrhundert, als böhmische Pyrope so begehrt waren, dass sie bis nach Amerika verschifft wurden. Klassifikation. In der mittlerweile veralteten, aber noch gebräuchlichen 8. Auflage der Mineralsystematik nach Strunz gehörte die Granatgruppe zur allgemeinen Abteilung der „Inselsilikate (Nesosilikate)“, trägt die System-Nr. "VIII/A.08" und bestand aus den Mitgliedern Almandin, Andradit, Calderit, Goldmanit, Grossular, Henritermierit, Hibschit, Holtstamit, "Hydrougrandit" (diskreditiert 1967 als unnötiger Gruppenname), Katoit, Kimzeyit, Knorringit, Majorit, Morimotoit, Pyrop, Schorlomit, Spessartin, Uwarowit, Wadalit und "Yamatoit" (diskreditiert, da identisch mit Momoiit). Die seit 2001 gültige und von der International Mineralogical Association (IMA) verwendete 9. Auflage der Strunz’schen Mineralsystematik ordnet die Granatgruppe ebenfalls in die Abteilung der „Inselsilikate“ ein. Diese ist allerdings weiter unterteilt nach der möglichen Anwesenheit weiterer Anionen und der Koordination der beteiligten Kationen, so dass die Granatgruppe mit der System-Nr. "9.AD.25" entsprechend der Zusammensetzung der Mitglieder Almandin, Andradit, Blythit, Calderit, Goldmanit, Grossular, Henritermierit, Hibschit, Holtstamit, Hydroandradit, Katoit, Kimzeyit, Knorringit, Majorit, Momoiit ("IMA 2009-026"), Morimotoit, Pyrop, Schorlomit, Spessartin, Skiagit, Uwarowit und Wadalit in der Unterabteilung „Inselsilikate ohne weitere Anionen; Kationen in oktahedraler [6] und gewöhnlich größerer Koordination“ zu finden ist. Auch die vorwiegend im englischen Sprachraum gebräuchliche Systematik der Minerale nach Dana ordnet die Granatgruppe in die Abteilung der „Inselsilikatminerale“ ein. Hier ist sie allerdings unterteilt in die Untergruppen „Pyralspit-Reihe“ (System-Nr. "51.04.03a"), „Ugrandit-Reihe“ (System-Nr. "51.04.03b"), „Schorlomit-Kimzeyit-Reihe“ (System-Nr. "51.04.03c"), „Hydrogranate“ (System-Nr. "51.04.03d") und „Tetragonale Hydrogranate“ (System-Nr. "51.04.04") innerhalb der Unterabteilung „Systematik der Minerale nach Dana/Silikate#51.04 Inselsilikate: SiO4-Gruppen nur mit Kationen in [6] und >[6]-Koordination|Inselsilikate: SiO4-Gruppen nur mit Kationen in [6] und >6]-Koordination“ zu finden. Untergruppen, Einzelminerale und Varietäten. Ebenfalls zu dieser Gruppe gezählt werden Ebenfalls zu dieser Gruppe gezählt werden Ebenfalls zu dieser Gruppe gezählt wird der Wadalit: Ca6Al5[O8|(SiO4)2Cl3] Bildung und Fundorte. Granate kommen in massiver Form oder körnig, häufig aber auch als makroskopische Kristalle vor, die bis zu 700 kg schwer werden können. Besonders häufig findet man Granate in metamorphen Gesteinen wie Gneis, Glimmerschiefer oder Eklogit; daneben treten sie auch in magmatischen Gesteinen und sedimentär in Schwermineralseifen (Strandsedimente, Flusssedimenten) auf. Die meisten natürlich gefundenen Schmuckstein-Granate stammen heute aus den USA, aus Südafrika und Sri Lanka. Die genaue chemische Zusammensetzung steht immer mit jener des umgebenden Gesteins im Zusammenhang: So kommt beispielsweise der magnesiumreiche Pyrop häufig in Peridotiten und Serpentiniten vor, während grüner Uwarowit vor allem in chromhaltigem Serpentinitgestein auftritt. Metapelite (Glimmerschiefer, Gneis). Bei der Metamorphose von silikatischen Peliten bilden sich almandinreiche Granate ab ca. 450 °C bei der Reaktion von Chloritoid + Biotit + H2O zu Granat + Chlorit. Bei niedrigen Temperaturen sind die Granatmischkristalle reich an Spessartin und werden bei steigenden Temperaturen zunehmend almandinhaltiger. Ab ca. 600 °C bildet sich Granat beim Abbau von Staurolith. Bei weiter steigenden Temperaturen werden die Granate zunehmend reicher an Pyrop und selbst bei beginnender Gesteinsschmelze können Granate noch neu gebildet werden z. B. bei der Reaktion von Biotit + Sillimanit + Plagioklas + Quarz zu Granat + Kalifeldspat + Schmelze. Erst ab Temperaturen von 900 °C baut sich Granat ab zu Spinell + Quarz oder bei hohen Drucken zu Orthopyroxen + Sillimanit. Metabasite (Granulit, Eklogit). In der Suite der Metabasite (z. B. metamorphe Basalte) tritt Granat gesteinsbildend in Eklogiten auf und die Granatmischkristalle sind reich an Pyrop und Grossular. Mit steigenden Druck bildet sich Granat beim Übergang von der Granulit-Fazies zur Eklogit-Fazies ab ca. 10kBar, 900 °C bei der Reaktion von Orthopyroxen und Plagioklas zu Granat, Klinopyroxen und Quarz. In Blauschiefern bilden sich zunächst Fe-reiche Granate, die auf dem Weg zur Eklogit-Fazies zunehmend Pyrop- und Grossular-reicher werden. Zersetzung von Granat (Retrograde Umwandlungen). Granate erleiden unter bestimmten lithofaziellen Umständen innerhalb von metamorphen Gesteinen eine Umwandlung bzw. Zersetzung. Das Ergebnis dieser Prozesse nennt man Kelyphit. Dabei entstehen zahlreiche neue Mineralien. Kristallstruktur. Granate kristallisieren im Allgemeinen mit kubischer Symmetrie in der. Die Elementarzelle enthält 8 Formeleinheiten und hat je nach Zusammensetzung eine Kantenlänge von 1.146 nm (Pyrop) bis 1.256 nm (Katoit). Aufbau der Granatstruktur. Die Sauerstoffionen bilden nicht, wie bei anderen Oxidstrukturen mit hoher Dichte, eine dichteste Kugelpackung. Große 8-fach koordinierte Ionen würden in einer kubisch oder hexagonal dichtesten Sauerstoff-Kugelpackung keinen Platz finden. Aufgrund der komplexen Verknüpfung aller Koordinationspolyeder über gemeinsame Ecken und vor allem viele gemeinsame Kanten erreicht die Granatstruktur dennoch eine hohe Dichte. Die Kationen besetzten je nach Größe und Ladung drei verschiedene, spezielle Gitterpositionen, wo sie von 4, 6 oder 8 Sauerstoffionen umgeben sind. Die T-Kationen (Si4+) sitzen auf der Gitterposition 24d mit der Punktsymmetrie, wo sie von 4 Sauerstoffionen umgeben sind, die an den Ecken eines Tetraeders liegen. Die G-Kationen sitzen auf der Gitterposition 16a mit der Punktsymmetrie, wo sie von 6 Sauerstoffionen umgeben sind, die an den Ecken eines Oktaeders liegen. Die E-Kationen sitzen auf der Gitterposition 24c mit der Punktsymmetrie 222, wo sie von 8 Sauerstoffionen umgeben sind, die an den Ecken eines Dodekaeders (Trigondodekaeder) liegen. Die TO4-Tetraeder und GO6-Oktaeder sind über gemeinsame Sauerstoffatome an ihren Ecken zu einem Gerüst aus alternierenden Tetraedern und Oktaedern verbunden. Granate sind Inselsilikate und ihre TO4-Tetraeder sind untereinander nicht direkt verbunden. Die EO8-Dodekaeder sind über gemeinsame Kanten zu 3er-Ringen verknüpft, deren Ebene senkrecht zur Raumdiagonale der Elementarzelle liegt. Diese EO8-Dodekaederringe sind untereinander so zu einem Gerüst verknüpft, dass jeder Dodekaeder zu zwei solchen Ringen gehört. Über weitere Kannten sind die Dodekaeder mit den Tetraedern und Oktaedern des TO4-GO6-Gerüstes verbunden, dessen Zwischenräume es ausfüllt. Als Schleifmittel. Granat wird wegen seiner Härte auch als Schleifmittel beim Sandstrahlen und Wasserstrahlschneiden eingesetzt. In der Technik. Insbesondere künstlich erzeugte Kristalle mit Granatstruktur werden in feinmechanischen und optischen Instrumenten eingesetzt. Im Gegensatz zu den natürlichen Mineralien werden hier auf dem Tetraeder-Platz statt Silicium oftmals andere Elemente eingebaut. Yttrium-Aluminium-Granat (YAG, Y3Al2[Al O4]3), bei dem etwa ein Prozent der Yttrium3+-Ionen durch Neodym3+-Ionen ersetzt wird, ist ein häufig eingesetzter Laserkristall (). Der gelbe Lumineszenzkonverter der weißen LEDs ist zu Beginn der Entwicklung ein Cer-dotierter YAG gewesen. Yttrium-Eisen-Granat (YIG) und Verwandte werden als Mikrowellenferrit, Resonator oder als YIG-Filter in der Hochfrequenztechnik eingesetzt. Als Schmuckstein. Granate finden in verschiedenen Varianten als Schmucksteine Verwendung. Man unterscheidet unter anderem den dunkelroten Pyrop, der auch Kaprubin genannt wird, den rotschwarzen Almandin, den smaragdgrünen Uwarowit, den gelbgrünen Andradit, den schwarzen Schorlomit und Melanit, den transparent-grünlichen Demantoid und den orangeroten Spessartin. Daneben gibt es noch Grossular. Außerdem gibt es seit einigen Jahren eine neue Variante, den orangefarbenen Mandaringranat. Granate werden auch als Edelsteine des kleinen Mannes bezeichnet. Gammastrahlung. Gammastrahlung – auch ​ɣ-Strahlung geschrieben – im "engeren" Sinne ist eine besonders durchdringende elektromagnetische Strahlung, die bei spontanen Umwandlungen („Zerfall“) der Atomkerne vieler natürlich vorkommender oder künstlich erzeugter radioaktiver Nuklide entsteht. Der Name stammt von der Einteilung der ionisierenden Strahlen aus radioaktivem Zerfall in Alphastrahlung, Betastrahlung und Gammastrahlung mit deren steigender Fähigkeit, Materie zu durchdringen. Alpha- und Betastrahlung bestehen aus geladenen Teilchen und wechselwirken daher deutlich stärker mit Materie als die ungeladenen Photonen oder Quanten der Gammastrahlung. Entsprechend haben letztere ein deutlich höheres Durchdringungsvermögen. Im "weiteren" Sinne wird mit Gammastrahlung jede elektromagnetische Strahlung mit Quantenenergien über etwa 200 keV bezeichnet, unabhängig von der Art ihrer Entstehung. Dies entspricht Wellenlängen kürzer als 0,005 nm (5 pm). In diesem allgemeinen Sinn wird die Bezeichnung insbesondere dann verwendet, wenn der Entstehungsprozess der Strahlung nicht bekannt ist (beispielsweise in der Astronomie) oder für die konkrete Aufgabenstellung gleichgültig ist (beispielsweise im Strahlenschutz), jedoch ausgedrückt werden soll, dass höhere Energien als bei Röntgenstrahlung (rund 100 eV bis 300 keV) vorliegen. Der kleine griechische Buchstabe formula_1 (Gamma) wird allgemein als Formelsymbol für ein Photon beliebiger Energie und Entstehungsart benutzt. Radioaktivität: „Gammazerfall“. Gammastrahlung im ursprünglichen Wortsinn entsteht dann, wenn sich nach einem radioaktiven Alpha- oder Betazerfall der zurückbleibende Kern (Tochterkern) in einem angeregten Zustand befindet; das gilt für viele, aber nicht für alle Alpha- und Beta-Zerfälle. Der angeregte Kern schwingt oder rotiert beispielsweise – anschaulich gesagt – eine geraume Zeit lang. Beim Übergang in einen weniger hoch angeregten Zustand oder den Grundzustand gibt er die frei werdende Energie in Form von Gammastrahlung ab (siehe Zerfallsschema). Diese Zustandsänderung des Kerns wird als Gammaübergang oder auch „Gammazerfall“ bezeichnet, obwohl der Kern dabei keineswegs „in seine Bestandteile zerfällt“, denn die Anzahl seiner Neutronen und Protonen bleibt konstant. Der angeregte Zustand kann auch auf andere Weise, wie Neutroneneinfang oder andere Kernreaktionen oder die vorherige Absorption eines energiereicheren formula_1-Quants, entstanden sein. Spektrum. a>, Linien bei 1173 und 1332 keV Die Wellenlängen oder Energien der Gammastrahlen sind diskret und sind charakteristisch für das jeweilige Radionuklid, vergleichbar etwa dem optischen Linienspektrum chemischer Elemente. Die Messung des Gammaspektrums einer unbekannten Substanz (Gammaspektroskopie) ist daher geeignet, Aufschluss über Arten und Mengenanteile der darin enthaltenen Radionuklide zu geben. Die relativ langen Lebensdauern von mehr als etwa 10−15 Sekunden führen daher zu scharfen Energiewerten. Bezeichnung nach Mutternuklid des Alpha- oder Betazerfalls. Die durchschnittliche Verzögerungs- oder Halbwertszeit zwischen dem Alpha- oder Betazerfall und dem Gammaübergang hängt vom Nuklid und dem jeweiligen angeregten Zustand ab. Sie ist, wenngleich im kernphysikalischen Sinne „lang“, vom praktischen Standpunkt gesehen meist sehr kurz (Sekundenbruchteile). Will man Gammastrahlung für Forschungs-, medizinische oder technische Zwecke nutzen – beispielsweise die vom 2,5-MeV-Zustand des Nuklids 60Ni ausgesandte "Kaskade" zweier Photonen von 1,17 und 1,33 MeV – braucht man daher ein Präparat des Betastrahlers 60Co. Dieses Nuklid zerfällt mit 5,26 Jahren Halbwertszeit zum gewünschten 60Ni-Zustand. Aus diesem praktischen Grund werden Gammastrahlen (nicht nur beim 60Ni, sondern ganz allgemein, auch in wissenschaftlich-technischen Unterlagen, Tabellen, Nuklidkarten usw.) immer dem "Mutter"nuklid des vorangehenden Alpha- oder Betazerfalls, im Beispiel dem 60Co, zugeordnet: man spricht von Cobalt-60-Strahlung, Kobaltkanone usw., auch wenn es nur um die Gammastrahlung geht, die vom Tochterkern 60Ni emittiert wird. Die seltenen Fälle von angeregten Atomkernen, deren Gammaübergänge Halbwertszeiten von Sekunden, Minuten oder noch länger haben, werden als "metastabil" oder als Kernisomere bezeichnet. Nur in diesen Fällen wird als Bezeichnung das eigentliche gammastrahlende Nuklid genannt. Ein Beispiel ist das Technetium-Isotop 99mTc, das in der medizinischen Diagnostik (siehe Szintigrafie) verwendet wird. Paarvernichtung. Bei der Paarvernichtung, der Reaktion eines Teilchens mit dem zugehörigen Antiteilchen, entstehen (allein oder neben anderen möglichen Reaktionsprodukten) auch Photonen, die ebenfalls Gammastrahlung genannt werden. Diese Gammaquanten tragen zusammen die Energie, die der Masse der vernichteten Teilchen entspricht, abzüglich der eventuellen Bindungsenergie, falls die beiden Teilchen bereits aneinander gebunden waren (einander "umkreisten"), und zuzüglich eventuell vorher vorhandener Bewegungsenergie. Gammablitze in der Astronomie. Gammablitze (englisch Gamma Ray Bursts) – auch Gammastrahlen-Explosionen genannt – stellen eines der energiereichsten Phänomene im Weltall dar. Ihr Entstehungsmechanismus ist nur ansatzweise geklärt. Das Spektrum ist kontinuierlich mit Photonenenergien von etwa 1 keV bis in den MeV-Bereich. Es enthält unter anderem Röntgenstrahlung. Es handelt sich nicht um Gammastrahlung im engeren, kernphysikalischen Sinne (siehe Einleitung). Terminologie: Gammastrahlung und Röntgenstrahlung. Die Energiebereiche natürlicher Gamma- und Röntgenstrahlung überlappen sich, was eine gewisse Unschärfe dieser Begriffe zur Folge hat. Mancher Autor verwendet die Begriffe weiterhin im klassischen Sinne, um die Herkunft der Strahlung (Gammastrahlung aus Kernprozessen, Röntgenstrahlung aus hochenergetischen Prozessen mit Elektronen) zu kennzeichnen. Andere Autoren unterscheiden hingegen nach der Quantenenergie, wobei die Trennlinie dann bei ca. 100 bis 250 Kiloelektronenvolt liegt. Eine genaue Festlegung gibt es hierfür aber nicht. Zur Vermeidung von Missverständnissen ist es daher immer sinnvoll, Quantenenergie und Entstehungsprozess explizit anzugeben. Andererseits führen genau diese exakten Angaben in populärwissenschaftlicher Literatur regelmäßig zu Verständnisschwierigkeiten, weil viele Leser mit keV-Angaben oder Begriffen wie Bremsstrahlung oder Synchrotronstrahlung überfordert sind, während die Begriffe Gamma- und Röntgenstrahlung allgemein bekannt sind. Daher müssen Autoren zwischen Verständlichkeit und Unschärfe ihrer Formulierungen abwägen. Wechselwirkung mit Materie. Im Gegensatz zur Bragg-Kurve bei geladenen Teilchenstrahlungen nimmt die Intensität (und damit der Energieeintrag) der Gammastrahlung exponentiell mit der Eindringtiefe ab. Das heißt, die Anzahl der Gammastrahlen wird nach jeweils einer Halbwertsdicke halbiert. Die Halbwertsdicke hängt von der Wellenlänge der Gammastrahlung und von der Ordnungszahl des abschirmenden Materials ab: Blei ist deshalb das gängigste zum Strahlenschutz gegen Gammastrahlung verwendete Material. Seine Halbwertsdicke für Gammastrahlung der Energie 2 MeV beträgt 14 mm. Hieraus wird die im Vergleich zu geladenen Teilchenstrahlungen viel durchdringendere Wirkung gut ersichtlich. Die wichtigsten Wechselwirkungsprozesse beim Durchgang von Gammastrahlung durch Materie sind Photoionisation, Compton-Streuung und Paarbildung. Wird Gammastrahlung in menschlichem, tierischem oder pflanzlichem Gewebe absorbiert, wird ihre Energie in Ionisations- und anderen Vorgängen wirksam. Dabei treten im Gewebe "Sekundärstrahlungen" wie freigesetzte Elektronen und Röntgenstrahlung auf. Insgesamt ergeben sich – für den Organismus meist schädliche – Wirkungen durch das Aufbrechen chemischer Bindungen. Das Ausmaß der Gesamtwirkung wird durch die Äquivalentdosis beschrieben. Die Folgen können am bestrahlten Organismus selbst ("somatische" Schäden) oder, durch Schädigung des Erbguts, an seinen Nachkommen als "genetische" Schäden auftreten. Die Funktionsfähigkeit der Zellen bleibt auch bei hohen Strahlendosen zunächst meist erhalten. Sobald sich die Zelle aber teilt oder Proteine produziert, können Veränderungen am Erbgut und Schäden an Zellorganellen zum Absterben der Zelle führen. Die Strahlenkrankheit wirkt deswegen erst nach einiger Zeit tödlich, wenn bestimmte, lebenswichtige Zelltypen, die auch beim gesunden Menschen regelmäßig absterben und neu gebildet werden, nicht mehr in ausreichender Zahl vorhanden sind. Besonders betroffen sind hiervon Blutzellen. Alternativ kann es dazu kommen, dass durch die Strahlung verursachte Mutationen zu unkontrollierter Zellteilung führen, wobei die sich teilenden Zellen meistens ihre ursprüngliche biologische Funktion verlieren. Es entstehen Tumore, die darüber hinaus Metastasen bilden können (Krebs). Medizin. Gammastrahlung aus radioaktiven Quellen wird in der Strahlentherapie verwendet. Die Strahlenenergie in der Teletherapie muss möglichst hoch sein; verwendet wird z. B. 60Co, das Gammaquanten mit den Energien 1,17 und 1,33 MeV abstrahlt. Aufgrund des Bedarfs an möglichst hochenergetischen Photonen und der mit radioaktiven Strahlern verbundenen Sicherheitsprobleme wird in der Teletherapie jedoch inzwischen meist Bremsstrahlung aus Linearbeschleunigern für Elektronen eingesetzt. Auch in der Brachytherapie mittels kleiner, in den Körper eingeführter Präparate werden Gammastrahlen angewendet (meist 192Ir). In der Szintigrafie und der Single-Photon-Emissionscomputertomographie werden kurzlebige Gammastrahler wie 99mTc, 123I, 131I, 133Xe oder 111In für diagnostische Zwecke verwendet. Sensorik und Materialprüfung. Gammastrahlung kann Materie durchdringen, ohne reflektiert oder gebrochen zu werden. Ein Teil der Strahlung wird beim Durchgang absorbiert, abhängig von der Dichte und der Dicke des Mediums. Bei der Füllstandsmessung mit Gammastrahlung nutzt man diesen Umstand, denn die gemessene Strahlungsintensität hängt davon ab, ob sich in dem betrachteten Gefäß ein Medium befindet oder nicht. Eine weitere Anwendung von Gammastrahlen findet man bei der Durchstrahlungsprüfung, mit deren Hilfe man Ablagerungen, Korrosionsschäden oder Erosionsschäden an der Innenseite von Apparaten und Rohrleitungen nachweisen kann. Im Grenzschutz werden Radionuclide Identifying Devices eingesetzt, die über die Gammastrahlung Rückschlüsse auf die transportierten radioaktiven Stoffe zulassen. In der Technik eingesetzte Gammastrahler sind hauptsächlich 60Co, 75Se, 169Yb und 192Ir. Ein Nachteil von Gammastrahlen ist, dass die Strahlenquellen nicht abgeschaltet werden können. Bei der Verwendung von Gammastrahlung im Betrieb müssen wegen ihrer Gefährlichkeit umfangreiche Strahlenschutzmaßnahmen ergriffen werden. Sterilisation, Keimverminderung, strahlenchemische Vernetzung. Zur Strahlensterilisation und zur Vernetzung von Polymer-Kunststoffen werden "Gammabestrahlungsanlagen" verwendet. Sie arbeiten fast ausschließlich mit 60Co, das aus 59Co in Kernreaktoren durch Neutroneneinfang hergestellt wird. Die Strahlensicherheit bei den Anlagen wird durch die Versenkbarkeit der Strahlenquellen in ein tiefes Wasserbecken oder einen tiefen, schachtförmigen Betonbunker erreicht. Die Gammasterilisation medizinischer Produkte, z. B. eingeschweißter Notfallbestecke, hat vor anderen Verfahren den Vorteil, dass sie in der Verkaufsverpackung erfolgen kann. Auf dem Gebiet der Lebensmittelbestrahlung ist vor allem die Zwiebelbestrahlung zu nennen, die in der Deutschen Demokratischen Republik in der Zeit von 1986 bis 1990 durchgeführt worden ist. Eine hierauf spezialisierte Gammabestrahlungsanlage gab es bei der Landwirtschaftlichen Produktionsgenossenschaft Queis in Spickendorf. In der DDR wurden auch viele andere Lebensmittel bestrahlt (Geflügel, Gewürze, Volleipulver etc.); eine Kennzeichnung der Produkte war nicht vorgesehen. Mit dem Beitritt zur Bundesrepublik Deutschland erloschen alle diese Zulassungen. Großbestrahlungsanlagen gibt es z. B. in den Niederlanden und in Südafrika. Mößbauer-Spektroskopie. Der Rückstoß, den der Atomkern bei der Emission des Gammaquants normalerweise erhält, kann unter Umständen von dem gesamten Kristallgitter übernommen werden, in das dieser eingebettet ist. Dadurch wird der Energieanteil, der dem Photon durch Rückstoß verloren geht, vernachlässigbar klein. Ist zudem die Halbwertszeit des angeregten Zustands hoch, entstehen Gammastrahlen mit einer extrem scharfen Energie. Darauf beruht die in der chemischen Analytik wichtige Mößbauer-Spektroskopie. Nachweis. Gammastrahlung kann durch ihre Wechselwirkung mit Materie nachgewiesen werden, z. B. mit Teilchendetektoren wie der Ionisationskammer oder dem Geiger-Müller-Zählrohr, Szintillationszählern, Halbleiterdetektoren oder Tscherenkow-Zählern. Forschungsgeschichte. 1900 fand Paul Villard eine Komponente in der vier Jahre zuvor von Antoine Henri Becquerel entdeckten radioaktiven Strahlung, die sich nicht durch Magnetfelder ablenken ließ und ein sehr hohes Durchdringungsvermögen von Materie zeigte. Da es die dritte gefundene Strahlkomponente war, prägte Ernest Rutherford den Begriff "Gammastrahlung". Durch Beugung von Gammastrahlung an Kristallen gelang es Rutherford und Edward Andrade 1914, zu zeigen, dass es sich um eine Form von elektromagnetischer Strahlung handelt. Die gefundenen Wellenlängen waren sehr kurz und mit der von Röntgenstrahlung vergleichbar. Gorillas. Geschlechtsdimorphismus des Schädels Die Gorillas ("Gorilla") sind eine Primatengattung aus der Familie der Menschenaffen (Hominidae). Sie sind die größten lebenden Primaten und die ausgeprägtesten Blätterfresser unter den Menschenaffen. Sie sind durch ihr schwarzgraues Fell und den stämmigen Körperbau charakterisiert und leben in den mittleren Teilen Afrikas. Wurden früher alle Tiere zu einer Art zusammengefasst, so unterscheiden jüngere Systematiken zwei Arten mit jeweils zwei Unterarten: der Westliche Gorilla ("G. gorilla"), der in den Westlichen Flachlandgorilla ("G. g. gorilla") und den Cross-River-Gorilla ("G. g. diehli") aufgeteilt wird; und der Östliche Gorilla ("G. beringei"), bei dem zwischen dem Östlichen Flachlandgorilla ("G. b. graueri") und dem Berggorilla ("G. b. beringei") unterschieden wird. Körperbau und Maße. Gorillas weisen einen robusten, stämmigen Körperbau auf. Sie sind stehend etwa 1,25 bis 1,75 Meter hoch, wobei sie meist die Knie etwas gebeugt halten. Wie alle Menschenaffen sind sie schwanzlos. Beim Gewicht weisen sie einen deutlichen Geschlechtsdimorphismus auf: Während Weibchen 70 bis 90 Kilogramm schwer werden, erreichen Männchen bis zu 200 Kilogramm. Trotz anderslautender Berichte (manche Quellen geben bis zu 275 Kilogramm an) gelten Tiere mit über 200 Kilogramm in freier Natur als Seltenheit. Wohlgenährte Tiere in menschlicher Obhut können dagegen deutlich schwerer werden und bis zu 350 Kilogramm wiegen. Östliche Gorillas sind generell etwas größer und schwerer als Westliche Gorillas, sie haben eine breitere Brust und wirken stämmiger. Extremitäten. Wie bei allen Menschenaffen mit Ausnahme des Menschen sind die Arme deutlich länger als die Beine, die Spannweite der ausgestreckten Arme beträgt 2 bis 2,75 Meter. Gorillas haben sehr breite Hände mit großem Daumen. Auch die Füße sind breit, die Großzehe ist wie bei den meisten Primaten opponierbar. Beim Berggorilla – der am stärksten bodenbewohnenden Unterart – allerdings ist diese weniger abgespreizt und mit den übrigen Zehen bindegewebig verbunden. Wie der Mensch (und auch andere Primaten) hat jeder Gorilla einen unverwechselbaren Fingerabdruck. Wissenschaftler identifizieren die Tiere jedoch vornehmlich anhand von Fotos oder Zeichnungen ihres ebenso einzigartigen "Nasenabdrucks", das heißt durch deren Form und die Anordnung der Falten darauf. Fell. Die Fellfarbe der Gorillas ist dunkel. Während die Östlichen Gorillas schwarz gefärbt sind, sind die Westlichen Gorillas eher graubraun; bei dieser Art kann die Oberseite des Kopfes auffallend braun gefärbt sein. Das Gesicht, die Ohren, die Handflächen und Fußsohlen sowie bei älteren Männchen die Brust sind unbehaart. Dafür entwickelt sich bei älteren Männchen ein silbergraues Rückenfell, weswegen sie auch als Silberrücken bezeichnet werden. Während bei den Östlichen Gorillas diese Graufärbung auf den Rücken beschränkt bleibt, kann sie sich bei Westlichen Gorillas auch auf die Hüften und die Oberschenkel erstrecken. Bei Berggorillas ist das Fell länger und seidiger als bei den übrigen Populationen, insbesondere an den Armen. Kopf und Zähne. Der Kopf des Gorillas ist durch die verglichen mit anderen Primaten kurze Schnauze charakterisiert; die Nasenlöcher sind groß, die Augen und Ohren hingegen klein. Auffallend sind die ausgeprägten Überaugenwülste, die Schädel der Männchen sind überdies mit einem Scheitelkamm und einem Nuchalkamm (einer Knochenleiste am Nacken) ausgestattet, die als Muskelansatzstellen dienen. Wie alle Altweltaffen haben Gorillas 32 Zähne, die Zahnformel lautet I2-C1-P2-M3. Die Schneidezähne sind wie bei vielen blätterfressenden Säugetieren relativ klein, die Eckzähne groß und hauerartig und bei Männchen deutlich größer als bei Weibchen. Die Molaren haben höhere Höcker und schärfere Scherkanten als bei den übrigen Menschenaffen, was ebenfalls eine Anpassung an die Blätternahrung darstellt. Die Augenfarbe ist einheitlich braun, die Iris weist an ihrem Rand einen schwarzen Ring auf. Verbreitungsgebiet und Lebensraum. Gorillas leben im mittleren Afrika, die Verbreitungsgebiete der zwei Arten liegen jedoch rund 1000 Kilometer voneinander entfernt. Westliche Gorillas leben nahe dem Golf von Guinea, wobei der Cross-River-Gorilla nur ein kleines Gebiet in der Grenzregion zwischen Nigeria und Kamerun bewohnt. Westliche Flachlandgorillas sind vom südlichen Kamerun und dem Westen der Zentralafrikanischen Republik über Äquatorialguinea, Gabun und die Republik Kongo bis in die angolanische Exklave Cabinda verbreitet. Die Population im äußersten Westen der Demokratischen Republik Kongo dürfte ausgestorben sein. Östliche Gorillas bewohnen die östlichen Regionen der Demokratischen Republik Kongo (Östliche Flachlandgorillas) sowie die Regionen der Virunga-Vulkane und des Bwindi-Waldes im Grenzgebiet zwischen Uganda, Ruanda und der Demokratischen Republik Kongo (Berggorilla). Gorillas sind ausgesprochene Waldbewohner. Westliche Flachlandgorillas bevorzugen tiefergelegene Regenwälder und Sumpfgebiete, Cross-River- und Östliche Flachlandgorillas hingegen sind eher in hügeligem Terrain zu finden. Die Berggorillas sind die ausgeprägtesten Bewohner des Berglandes und kommen in Regionen bis in 4000 Metern Seehöhe vor. Verschiedene Populationen bewohnen verschiedene Waldtypen – auch innerhalb der Unterarten, generell sind Östliche Gorillas häufiger in Sekundärwäldern zu finden. Fortbewegung und Aktivitätszeiten. Gorillas können sowohl auf dem Boden als auch in den Bäumen nach Nahrung suchen. Am Boden bewegen sie sich wie die Schimpansen in einem vierfüßigen Knöchelgang fort, das heißt, sie stützen sich auf die zweiten und dritten Fingerglieder. Selten gehen sie auch allein auf den Beinen, dabei legen sie jedoch nur kurze Distanzen zurück. Gorillas sind aber auch relativ gute Kletterer und erklimmen Bäume bis in 40 Meter Höhe. Im Geäst nehmen sie aber im Gegensatz zu Schimpansen und Orang-Utans sehr selten eine suspensorische (an den Armen hängende) Haltung ein. Die Berggorillas hingegen sind mit Ausnahme des Menschen die ausgeprägtesten Bodenbewohner aller Menschenaffen und klettern nur selten auf Bäume. Obwohl Gorillas nicht schwimmen können, kommen sie im Gamba-Naturschutzgebiet in Gabun häufig an den Strand und wurden auch schon beim Baden im Meer beobachtet. Die sogenannten "Bai-Gorillas" im Kongo waten auf der Suche nach Nahrung gewohnheitsmäßig durch die Sümpfe der von ihnen besuchten Waldlichtungen und zeigen keine besondere Scheu vor Wasser. Jedoch durchqueren Gorillas keine Gewässer, insbesondere Flüsse, in denen sie nicht aufrecht stehen können. Wie alle Menschenaffen sind Gorillas tagaktiv, nahezu ihre gesamte Aktivität ist auf die Zeit zwischen 6:00 und 18:00 Uhr beschränkt. Nach der morgendlichen Nahrungsaufnahme legen sie zwischen 10:00 und 14:00 eine Rast ein, um sich dann erneut auf Nahrungssuche zu begeben und einen Schlafplatz vorzubereiten. Die Schlafplätze bestehen aus selbst angefertigten Nestern aus Ästen und Blättern, die entweder am Boden oder im Geäst liegen können. Die Anfertigung der Nester dauert nicht länger als fünf Minuten, und normalerweise wird ein Nest nur für eine Nacht verwendet. Sozialverhalten. Gorillas leben in Gruppen zusammen, die zwei bis 40 Tiere umfassen können. Die Gruppengröße der Westlichen Gorillas ist mit durchschnittlich vier bis acht Tieren deutlich kleiner als die der Berggorillas mit zehn bis 20 Individuen. Gemeinhin ist in jeder Gruppe nur ein ausgewachsenes Silberrücken-Männchen vorhanden, seltener auch zwei oder drei. In diesem Fall übernimmt ein Männchen die dominante Rolle und ist das einzige, das sich fortpflanzt. Mehrere Weibchen samt ihrem Nachwuchs, und meist auch ein oder mehrere subadulte Männchen („Schwarzrücken“) ergänzen die Gruppe. Manchmal lässt sich ein „Fission-Fusion-Modell“ („Trennen und Zusammengehen“) beobachten, das heißt, dass sich die Gruppe immer wieder in kleinere Untergruppen aufteilt – etwa zur Nahrungssuche – und dann wieder zusammenkommt. Die Beobachtungen zum Gruppenverhalten sind nicht einheitlich, insgesamt dürften aber die Gruppen stabil sein und der Zusammenhalt enger als etwa bei Schimpansen. Im Gegensatz zu vielen anderen Primaten verlassen bei den Gorillas nicht nur die Männchen, sondern auch die Weibchen ihre Geburtsgruppe beim Erwachsenwerden. Dadurch sind die Weibchen einer Gruppe meist nicht miteinander verwandt und interagieren auch nur in sehr geringem Ausmaß untereinander. Eine soziale Organisation um eine „Kerngruppe“ nah verwandter Weibchen, wie sie bei vielen anderen Primaten zu beobachten ist, fehlt bei den Gorillas. Männchen, die ihre Geburtsgruppe verlassen haben, wandern meist einige Jahre allein umher und versuchen dann, entweder eine eigene Gruppe zu gründen, indem sie einige Weibchen um sich scharen, oder versuchen, die Führungsrolle in einer etablierten Gruppe zu übernehmen. Gelingt ihnen das, kommt es oft zum Infantizid, das heißt, das Männchen tötet die von seinem „Vorgänger“ gezeugten Jungtiere. Der Nutzen dieses Verhaltens kann in der Tatsache gesehen werden, dass säugende Weibchen nicht schwanger werden, nach dem Tod des Jungtieres jedoch schnell wieder empfängnisbereit sind. Im Gegensatz zu den Männchen bleiben die Weibchen nach dem Verlassen ihrer Geburtsgruppe nicht lang allein, sondern versuchen sich rasch einer bestehenden Gruppe oder einem jungen Männchen anzuschließen. Es kann aber vorkommen, dass die Weibchen einer etablierten Gruppe sich zusammenschließen, um ein neu hinzugekommenes Weibchen wieder zu vertreiben. Revierverhalten und Umgang mit anderen Gruppen. Die Größe der Streifgebiete ist variabel, bei Flachlandgorillas sind sie jedoch mit 500 bis 3200 Hektar größer als bei den Berggorillas mit 400 bis 800 Hektar. Das Revierverhalten ist wenig entwickelt, die Streifgebiete überlappen sich häufig. Möglicherweise haben die Gruppen aber Kernreviere, die von anderen Gruppen nicht betreten werden. Oft suchen mehrere Gruppen an den gleichen Stellen nach Nahrung, jedoch nicht gleichzeitig. Meist vermeiden die Gruppen den direkten Kontakt miteinander und gehen sich aus dem Weg; anderen Beobachtungen zufolge kann es bei der Begegnung zweier Gruppen auch zum zeitweiligen Zusammenschluss oder zu Feindseligkeit kommen. Diese wird durch Gebrüll, durch Gestik oder durch Kraftdemonstrationen ausgetragen, handgreifliche Auseinandersetzungen vermeiden Gorillas allerdings in der Regel. Kommunikation. Gorillas kommunizieren miteinander durch Laute, Gesichtsausdrücke, Körperhaltungen und Kraftdemonstrationen. Sie kennen eine Reihe von Lauten, die zur Lokation von Gruppenmitgliedern und fremden Gruppen sowie als Ausdruck der Aggression verwendet werden. Dazu zählen Rülpslaute, die der Kontaktaufnahme mit anderen Gruppenmitgliedern dienen, laute, über einen Kilometer weit hörbare „U!“-Rufe („"hoots"“), die die Dominanz des Männchens ausdrücken oder den Kontakt zwischen einzelnen Gruppen ermöglichen, sowie Grunz- und Knurrlaute, die Aggression ausdrücken. Diese Stimmung kann beispielsweise auch mit geöffnetem Mund und gefletschten Zähnen signalisiert werden. Hingegen zeugt ein gedämpftes, langgezogenes Grunzen (einem menschlichen Räuspern nicht unähnlich) von Entspannung und Wohlbehagen, das von Rangern und Touristen zur Signalisierung ihrer friedlichen Absichten gern imitiert wird. Bekanntestes kommunikatives Verhalten der Gorillas ist das Trommeln auf die Brust. Früher hielt man es für ein rein männliches Verhalten, das dem Imponiergehabe dient und andere Männchen einschüchtern sollte. Dieses Verhalten wird aber von Tieren beiderlei Geschlechts und aller Altersklassen praktiziert und dient vermutlich verschiedenen Funktionen, wie etwa der Angabe des Standorts oder als Begrüßungsritual. Verhaltensmuster, die der Einschüchterung dienen, umfassen neben lautem Gebrüll auch das Laufen auf zwei Beinen, das Schütteln von Ästen, das Ausreißen und Wegschleudern von Pflanzen (meist in Richtung des vermeintlichen Gegners) und das Schlagen auf den Boden. Werkzeuggebrauch. Dieses Weibchen benutzt einen Stock, um die Wassertiefe zu prüfen und sich abzustützen Bis vor kurzem war kein Werkzeuggebrauch bei freilebenden Gorillas bekannt. Im Jahr 2005 wurden allerdings erstmals Tiere fotografiert, die mit Hilfe eines Stockes die Tiefe eines Gewässers ausloteten, bevor sie es durchquerten, und die ein Holzstück als Brücke auf sumpfiges Gelände legten, um es leichter passieren zu können. In unmittelbarem Zusammenhang mit dem Nahrungserwerb ist aber weiterhin kein Werkzeuggebrauch bei Gorillas bekannt. Ihre große Kraft, mit der sie auch dicke Äste abbrechen können, und ihre hauptsächlich auf Blättern und Früchten basierende Ernährung dürften solche Methoden, wie sie bei anderen Menschenaffen zu beobachten sind, unnötig machen. Gorillas benutzen ebenso wie Schimpansen stachelige, gerbstoffhaltige Blätter, um sich von lästigen Darmparasiten zu befreien. Sie fressen eine größere Zahl dieser Blätter unzerkaut, so dass diese die Parasiten von den Darmwänden abschaben. Interaktion mit anderen Arten. Erwachsene Gorillas haben keine natürlichen Feinde, Jungtiere fallen gelegentlich Leoparden zum Opfer. In Teilen ihres Verbreitungsgebietes sind Gorillas mit Gemeinen Schimpansen sympatrisch. Ähnliche Lebensweisen und Ernährungsmuster könnten zu einer Nahrungskonkurrenz führen, Beobachtungen dazu gibt es aber nicht. Die größte Bedrohung für die Gorillas geht vom Menschen aufgrund der Lebensraumzerstörung und der Bejagung aus (siehe Bedrohung). Ernährung. Von allen Menschenaffen sind Gorillas die ausgeprägtesten Pflanzenfresser. Ihre Hauptnahrung sind Blätter, je nach Art und Jahreszeit nehmen sie in unterschiedlichem Ausmaß auch Früchte zu sich. Aufgrund ihrer Körpergröße und des geringen Brennwerts ihrer Nahrung müssen Gorillas viel Zeit ihrer aktiven Perioden fressend verbringen. Berggorillas ernähren sich zum Großteil von Blättern und Mark; Früchte werden hingegen kaum verzehrt. Die beiden Flachlandgorilla-Populationen hingegen ergänzen ihren Speiseplan mit Früchten, je nach Jahreszeit können diese bis zu 50 % der Nahrung ausmachen. Aus diesem Grund klettern Flachlandgorillas auch öfter auf Bäume, während Berggorillas ausgeprägte Bodenbewohner sind. Unklar ist, in welchem Ausmaß Insekten und andere Kleintiere verzehrt werden. In freier Natur wurde das Fressen von Fleisch nur selten beobachtet, es gibt aber Berichte, wonach Westliche Flachlandgorillas Termitenhügel aufbrachen und die Insekten verzehrten. Möglicherweise nehmen Gorillas auch unbeabsichtigt Kleintiere zu sich, wenn diese sich auf den von ihnen verzehrten Blättern befinden. Gorillas trinken nur selten Wasser. Sie stillen ihren Bedarf an Flüssigkeit allein durch das Verzehren großer Mengen pflanzlicher Nahrung - bei erwachsenen Männchen durchschnittlich 25 Kilogramm pro Tag. Die täglichen Streifzüge, die die Gorillas bei der Nahrungssuche zurücklegen, sind verglichen mit denen anderer Primaten kurz. Am kürzesten sind diese bei Berggorillas mit durchschnittlich 0,4 Kilometern, was zum einen am meist üppigen Angebot an Blättern und zum anderen am geringen Nährwert dieser Nahrung liegt, was die Tiere mit langen Ruhephasen wettmachen. Die täglichen Streifzüge der Flachlandgorillas sind mit 0,5 bis 1,2 Kilometern aufgrund der abwechslungsreicheren Nahrung deutlich länger. Fortpflanzung und Entwicklung. Das Paarungsverhalten der Gorillas ist vom Ansatz her polygyn, d. h. nur das dominante Männchen pflanzt sich mit den Weibchen der Gruppe fort. Allerdings kommt es aus verschiedenen Gründen immer wieder zu Ausnahmen von dieser Regel (siehe Paarungsverhalten). Die Paarung ist saisonal nicht eingeschränkt, kann also das ganze Jahr über erfolgen. Die Länge des Sexualzyklus des Weibchens beträgt 27 bis 28 Tage. Die Tragzeit beträgt etwa 8½ bis 9 Monate und ist somit zusammen mit der des Menschen die längste aller Primaten. Meist kommt ein einzelnes Jungtier zur Welt, Zwillinge sind selten. Neugeborene wiegen rund 2 Kilogramm, mit drei Monaten können sie krabbeln und reiten danach mehrere Jahre auf dem Rücken der Mutter. Nach drei bis vier Jahren werden sie entwöhnt. Das Geburtsintervall liegt dementsprechend bei 3,5 bis 4,5 Jahren – außer wenn das Jungtier früher stirbt. Beobachtungen zufolge liegt die Sterblichkeitsrate bei Jungtieren bei 42 %, insbesondere im ersten Lebensjahr ist sie hoch. Im Laufe seines Lebens bringt das Weibchen durchschnittlich zwei bis drei überlebende Jungtiere zur Welt. Weibchen erreichen die Geschlechtsreife mit sechs bis acht und Männchen mit zehn Jahren. Aufgrund der Sozialstruktur erfolgt die erste Paarung jedoch meist erst einige Jahre später: bei Weibchen mit neun bis zehn und bei Männchen mit 15 Jahren. Die Lebenserwartung der Tiere liegt bei 35 bis 40 Jahren, in menschlicher Obhut können Gorillas jedoch älter als 50 werden. "Massa" († 1984) im Zoo von Philadelphia war mit 54 Jahren lange der älteste bekannte Gorilla weltweit, danach "Jenny" († 2008) im Zoo von Dallas mit 55 Jahren. Heute gilt "Colo" (* 22. Dezember 1956) im Zoo von Columbus als das älteste noch lebende Tier. Sie ist zudem der erste jemals in Gefangenschaft geborene Gorilla. Entdeckungs- und Forschungsgeschichte. Der karthagische Seefahrer Hanno († 440 v. Chr.) brachte von seiner Afrikareise die Felle von drei „wilden Frauen“ mit, die von den afrikanischen Dolmetschern als ' bezeichnet wurden. Es ist aber unklar, wo Hanno die Wesen genau erlegte und ob es sich dabei wirklich um Gorillas handelte, oder um Schimpansen oder gar Angehörige eines Pygmäenvolks. Abgesehen von einem Bericht des englischen Seefahrers Andrew Battell aus dem 16. Jahrhundert erhielt die westliche Welt erst im 19. Jahrhundert Kenntnis von diesen Tieren. Der Name „Gorilla“ wurde diesen Tieren zuerst von dem US-amerikanischen Missionar, Arzt und Naturforscher Thomas Staughton Savage (1804–1880) in Anlehnung an den Bericht Hannos zugeteilt, unter Mitwirkung des amerikanischen Naturwissenschaftlers und Anatomen Jeffries Wyman (1814–1874). Savage, der in Gabun einige erlegte Exemplare des westlichen Flachlandgorillas erhalten hatte, beschrieb 1847 zusammen mit Wyman diese großen Affen als neue Art; als erste wissenschaftliche Artbezeichnung wurde "Troglodytes gorilla" eingeführt ("Troglodytes" war damals die Gattungsbezeichnung der Schimpansen). Isidore Geoffroy Saint-Hilaire prägte dann 1852 den bis heutige gültigen Gattungsnamen "Gorilla". Der Afrikaforscher Paul Belloni Du Chaillu (1835–1903) bewirkte durch seine Unternehmungen und seine Publikationen, dass gegen Ende des 19. Jahrhunderts das Interesse an Gorillas in den USA und auch in Europa rasant zunahm. Der erste in Europa eingehend wissenschaftlich untersuchte, lebende Gorilla, genannt M'Pungu, wurde 1876/77 im Berliner Aquarium Unter den Linden zur Schau gestellt. Eines der bekanntesten Motive ist die Filmfigur „King Kong“, ein riesenhafter Gorilla, die seit dem ersten Film King Kong und die weiße Frau 1933 in zahlreichen Adaptionen und Remakes in der Film- und Fernsehgeschichte wiederkehrt. Nicht nur von den Ausmaßen, sondern auch vom Verhalten hat diese Figur, wie auch viele andere Gorillafiguren aus Büchern, Comics oder Filmen mit den realen Gorillas allerdings kaum etwas gemein. Das lag daran, dass die Lebensweise und das Sozialverhalten dieser Tiere lange Zeit kaum bekannt war. Zunächst standen – wie bei vielen Säugetieren – morphologische Studien im Vordergrund. Paul Matschie vermutete 1903, dass es sich bei einem auf den Virunga-Vulkanen erlegten Tier um eine eigene Art (Berggorilla) handeln könnte. Er beschrieb aber noch einige weitere Arten, durch die Arbeiten von Ernst Schwarz und Harold Coolidge in den 1930er Jahren wurde die bis zum Ende des 20. Jahrhunderts gültige Systematik mit einer einzigen Art und mehreren Unterarten festgelegt. Erst zu Beginn des 21. Jahrhunderts setzte sich anhand morphologischer und auch molekularer Studien die Ansicht durch, dass es zwei Arten von Gorillas gibt. (Siehe dazu Innere Systematik.) Die Lebensweise der Gorillas rückte erst nach dem Zweiten Weltkrieg in den Blickpunkt der Forschung. Der US-Amerikaner George Schaller (* 1933) war der erste Forscher, der freilebende Gorillas ab 1959 ausführlich untersuchte. 1967 begann die jahrzehntelange Forschungsarbeit von Dian Fossey (1932–1985) – unterstützt durch Louis Leakey – bei den Berggorillas auf den Virunga-Vulkanen. Ihr Leben und ihre Ermordung wurden durch die Verfilmung "Gorillas im Nebel" einer breiteren Öffentlichkeit bekannt. Feldstudien bei Westlichen Flachlandgorillas begannen erst in den 1980er Jahren; bekanntestes Projekt ist die Tätigkeit von Caroline Tutin und Michael Fernandez im Lopé-Nationalpark in Gabun. Wie bei anderen Menschenaffen wird auch bei Gorillas versucht, ihre Kommunikationsfähigkeit und Intelligenz in Laborversuchen zu erforschen. Zu den bekanntesten dieser Untersuchungen zählen die Versuche, dem Weibchen Koko die amerikanische Gebärdensprache beizubringen. Bedrohung. a>s wird auf rund 700 Tiere geschätzt. Beide Gorillaarten sind bedroht, wenn auch in unterschiedlichem Ausmaß. Die Gründe für die Gefährdung liegen zum einen in der Zerstörung ihres Lebensraumes durch die Rodung der Wälder. Hinzu kommen bürgerkriegsähnliche Zustände in Teilen ihres Verbreitungsgebietes, welche die nötigen Schutzmaßnahmen erschweren und eine effiziente Überwachung von Schutzgebieten nahezu unmöglich machen. Ein weiterer Grund stellt die Bejagung wegen ihres Fleisches („Bushmeat“) dar, die immer noch durchgeführt wird. Auch Krankheiten ziehen die bereits angegriffenen Populationen weiter in Mitleidenschaft, insbesondere Ebola. Die Gesamtpopulation der Gorillas wird auf rund 100.000 Tiere geschätzt, die sich allerdings sehr unterschiedlich auf die einzelnen Populationen verteilen. Diese Population des Westlichen Flachlandgorillas bewohnt ein großes, vergleichsweise dünn besiedeltes Gebiet, in welchem auch einige Nationalparks eingerichtet wurden. Darüber hinaus sind nahezu alle in Zoos gehaltenen Gorillas Westliche Flachlandgorillas, wo nach jahrzehntelangen Schwierigkeiten heute auch die Nachzucht regelmäßig gelingt. Gorillas sind seit 1975 im Washingtoner Artenschutzübereinkommen im Anhang I gelistet. Somit ist der internationale kommerzielle Handel mit den Tieren oder ihren Teilen verboten. 2008 trat das Abkommen zur Erhaltung der Gorillas und ihrer Lebensräume in Kraft. Das Abkommen wurde bislang von der Zentralafrikanischen Republik, der Republik Kongo, Nigeria, der Demokratischen Republik Kongo, Ruanda und Gabun unterzeichnet. Äußere Systematik. Gorillas bilden zusammen mit Orang-Utans, Schimpansen (Gemeiner Schimpanse und Bonobo) sowie dem Menschen die Familie der Menschenaffen (Hominidae). Zwar haben Gorillas eine Reihe von morphologischen Gemeinsamkeiten mit den Schimpansen, dabei dürfte es sich aber um Synapomorphien (gemeinsame abgeleitete Merkmale) aller afrikanischen Menschenaffen handeln, die beim Menschen verloren gegangen sind. Genetische Studien deuten darauf hin, dass Schimpansen enger mit den Menschen als mit den Gorillas verwandt sind. Das kommt im Kladogramm rechts zum Ausdruck. Der um das Jahr 2000 von einigen Forschern formulierte Vorschlag, die Gorillas und die Schimpansen aufgrund der nur geringfügigen genetischen Unterschiede zwischen diesen und den Menschen der Gattung "Homo" zuzuordnen, fand in den folgenden Jahren keinen Eingang in die international angesehenen systematischen Werke. Wann die zu den Gorillas führende Entwicklungslinie sich von der zu den Schimpansen und Menschen führenden Linie trennte, ist bislang nicht eindeutig geklärt: Der mutmaßliche Gorilla-Vorfahr "Chororapithecus" wurde zwar auf rund 10 Millionen Jahre datiert, anhand von DNA-Analysen wurde die Auftrennung allerdings in die Zeit vor 6,5 Millionen Jahren datiert. Die Abtrennung von Westlichem Gorilla und Östlichem Gorilla ereignete sich vor rund 1,6 bis 0,9 Millionen Jahren, die Abtrennung des Westlichen Flachlandgorillas vom Cross-River-Gorilla vor rund 17.800 Jahren. Nach der Sequenzierung des Gorilla-Genoms wurde 2012 in der Fachzeitschrift "Nature" ein mittlerer Unterschied („mean nucleotid divergences“) von 1,81 % für Gorilla / Schimpanse und von 1,75 % für Gorilla / Mensch ausgewiesen, der Unterschied für Mensch / Schimpanse ergab 1,37 %. Demnach ist der Mensch näher mit dem Schimpansen verwandt als mit dem Gorilla, doch der Gorilla etwas näher mit dem Menschen als mit dem Schimpansen. Für die Trennung der Entwicklungslinien der Gorillas einerseits von den Schimpansen und Menschen andererseits wurde ein Schätzwert von 6 bis 10 Millionen Jahre vor heute veröffentlicht. Innere Systematik. Traditionell wurden alle Gorillas zu einer Art zusammengefasst und drei Unterarten unterschieden, der Westliche Flachlandgorilla, der Östliche Flachlandgorilla und der Berggorilla. Die Population des Bwindi-Waldes („Bwindigorillas“), die traditionell dem Berggorilla zugerechnet wird, könnte allerdings eine eigene, bislang nicht wissenschaftlich beschriebene Unterart des Östlichen Gorillas darstellen. Genussmittel. Als Genussmittel im engeren Sinne werden Lebensmittel bezeichnet, die nicht in erster Linie wegen ihres Nährwertes und zur Sättigung konsumiert werden, sondern wegen ihrer anregenden Wirkung durch psychotrope Substanzen und ihres Geschmacks. Oft werden darüber hinaus auch psychotrope Substanzen, die nicht wie Lebensmittel verzehrt werden oder mangels Nährwerts keine Lebensmittel sind, wie zum Beispiel Tabakwaren, zu den Genussmitteln gezählt. In der Fachliteratur wird der Begriff darüber hinaus gelegentlich für Zucker und andere Gewürze verwendet. Im Deutschen Wörterbuch der Brüder Grimm werden Genussmittel definiert als Lebensmittel, deren Verzehr weniger der Ernährung als vielmehr dem Genuss dient. Die Unterscheidung zwischen Nahrungs- und Genussmitteln ist wissenschaftlich und insbesondere juristisch nicht definiert. Einzig für den Verkauf von Alkohol und Tabak gibt es gesetzliche Bestimmungen. Die Fachautoren Hengartner/Merki bezeichnen Genussmittel als Lebensmittel, die je nach subjektiver Bewertung und soziokulturellem Kontext sowohl als Nahrungsmittel als auch als Sucht- oder Heilmittel aufgefasst werden. Sozioökonomisch betrachtet gehörten Genussmittel bis in die Neuzeit zu den Luxusgütern und waren Statussymbole. Die französischen Begriffe verweisen auf die pharmakologische Wirkung einiger Genussmittel wie Alkohol, Kaffee und Tee. Die Definition von Begriffen wie Genuss, Genussmittel und Rauschmittel ist laut Hengartner/Merki sowohl kulturell als auch weltanschaulich-religiös beeinflusst und differiert in verschiedenen historischen Epochen ebenso wie zwischen verschiedenen sozialen Gruppen und Vereinigungen. Beispielsweise gilt Tabak seit den 1950er Jahren in Europa vor allem als Suchtmittel, wurde vorher jedoch jahrhundertelang ausschließlich als Genussmittel und sogar als Heilmittel angesehen. Alkohol galt in Europa lange als Medikament. Bier als „flüssiges Brot“ hatte bis in die jüngste Vergangenheit hinein den Status als wichtiges Nahrungsmittel neben dem Brot. Die allermeisten Genussmittel besitzen eine angenommene oder tatsächlich anregende oder beruhigende Wirkung. Diese basiert überwiegend auf Alkaloiden, welche von den Ausgangspflanzen zur Abwehr von Fressfeinden gebildet werden. Einige Genussmittel können zu Abhängigkeiten führen. Sie haben oft eine erhebliche soziale Bedeutung, insbesondere wenn sie gemeinsam mit anderen Menschen konsumiert werden. Getränk. Getränk (Kollektivum zu "Trank"; veraltet Trunk) ist ein Sammelbegriff für zum Trinken zubereitete Flüssigkeiten, allerdings trifft die Definition auch auf Flüssigkeiten zu, die wie Trinkwasser oder Säfte natürlich vorkommen und nicht zubereitet wurden. Getränke werden entweder zum Stillen von Durst und damit zur Wasseraufnahme des Körpers, als Nahrungsmittel oder auch als reine Genussmittel aufgenommen. Die englische Entsprechung Drink wird im deutschen Sprachgebrauch auch als Oberbegriff für Cocktails sowie für Einzelportionen von Spirituosen verwendet. Mit "Mixgetränk" sind ebenfalls oft Cocktails gemeint, "Mischgetränk" deutet auf die Zubereitung aus verschiedenen Einzelflüssigkeiten wie bei Milchshakes oder Biermischgetränken. Die Übergänge zwischen den verschiedenen Gruppen sind fließend; so können einige Getränke sowohl kalt, als auch heiß getrunken werden. Milch wird je nach Definition zu den Getränken gezählt oder auch nicht. Milch gilt als Nährflüssigkeit. Dagegen werden Mischgetränke mit Milch immer zu den Getränken gezählt. Zur Aufbewahrung und Lagerung, sowie zum Transport und Verkauf werden Getränke üblicherweise in Flaschen, Fässer, Getränkekartons, Getränkedosen oder ähnlichem abgefüllt. Konsumiert werden Getränke meist aus Gläsern, Tassen, Bechern, Trinkschalen oder direkt aus der Verpackung (Dosen, Flasche; etc.), teilweise auch unter Benutzung eines Trinkhalms. Alkoholfreie Getränke. Zu den alkoholfreien Getränken, gehört das Wasser selbst, welches bekanntermaßen für alle Lebewesen lebensnotwendig ist, und Milch, aber auch "alkoholfreie Erfrischungsgetränke", die meist aus Wasser oder Milch, Früchten und Gemüsen sowie teilweise sonstigen zugesetzten Geschmacks- und Aromastoffen hergestellt werden. Als "alkoholfrei" bezeichnete Erzeugnisse dürfen maximal 0,5 Volumenprozent Alkoholgehalt aufweisen (Traubensaft bis zu einem Volumenprozent); eine Besonderheit sind "alkoholreduzierte" Getränke, die bis zu vier Volumenprozent Alkohol enthalten dürfen. Alkoholische Getränke. Alkoholische Getränke oder alkoholhaltige Getränke, auch "Alkoholika" oder (vor allem in Bezug auf Spirituosen) "geistige Getränke" genannt, sind Getränke, die Trinkalkohol (Ethanol) enthalten, der in Lebensmitteln meist nur als "Alkohol" bezeichnet wird. Im chemischen Sinn bilden Alkohole indes eine ganze Stoffklasse. Alkoholische Getränke werden aus kohlenhydrathaltigen Flüssigkeiten durch alkoholische Gärung erzeugt. Nach geltendem Lebensmittelrecht kommen als Rohstoffe für den Alkohol nur landwirtschaftliche Produkte in Frage. Alkoholische Getränke dürfen also weder Alkohol synthetischen Ursprungs noch anderen Alkohol nicht landwirtschaftlichen Ursprungs enthalten. Zu den alkoholischen Getränken gehören sowohl Getränke, deren Alkohol lediglich durch alkoholische Gärung entstanden ist, zum Beispiel Bier und Wein, als auch Destillate aus solchen Getränken oder aus vergorenen Maischen sowie deren Mischprodukte. Getränke, deren Alkoholgehalt direkt oder indirekt auf Destillation zurückgeht und mindestens 15 % vol. beträgt, werden in der EU als Spirituose bezeichnet. Aufgrund der toxischen Wirkung des Ethanols auf das zentrale und periphere Nervensystem, die Leber und andere Organe sind alkoholische Getränke ab einer gewissen Dosis gesundheitsschädlich. Regelmäßiger und hoher Alkoholkonsum kann zur Alkoholkrankheit und zu ernsthaften Folgekrankheiten führen; seine Wirkung ist eindeutig negativ. Vor allem bei Männern, aber auch bei Frauen, wird durch regelmäßigen Alkoholkonsum von mehr als 36 Gramm täglich der Gedächtnisverlust um fast sechs Jahre beschleunigt.S. Sabia, A. Elbaz, A. Britton, S. Bell, A. Dugravot, M. Shipley, M. Kivimaki, A. Singh-Manoux: "Alcohol consumption and cognitive decline in early old age." In: "Neurology.". Auch die exekutiven Funktionen des Gehirns leiden unter dem Alkoholkonsum. Da einige alkoholische Getränke wie Rotwein Antioxidantien enthalten, wird durch einige Studien bei einem moderaten Konsum von 0,2 Liter Wein am Tag für einen Erwachsenen eine gefäß- und herzschützende Wirkung prognostiziert. Viele vordergründig positive Wirkungen werden jedoch durch andere aufgehoben, etwa durch die stark erhöhte Krebsgefahr beim regelmäßigen Konsum selbst geringer Mengen, die durch wissenschaftliche Studien bestätigt wurde, z. B. durch eine britische Studie aus dem Jahr 2006. Die meisten positiven Wirkungen gehen auch nicht vom Alkohol selbst aus, sondern von anderen Pflanzenstoffen, die in Getränken wie Rotwein enthalten sind. Mediziner warnen davor, einzelne Wirkungen aus dem Gesamtzusammenhang zu reißen. Viele Studien wurden von der ' der Stiftung ' finanziert, deren Mitglieder die Konzerne Moët & Chandon, Allied Domecq, Brasseries Kronenbourg, Heineken und Diageo sind. In Deutschland wurden viele Studien von der Deutschen Weinakademie (DWA) in Auftrag gegeben, die von den Weinerzeugern finanziert wird. Alleine für die Pressearbeit im Inland wurden 160.000 Euro ausgegeben. Die französische Sopexa gab 800.000 Euro für deutsche Medien aus. Einige der Studien wurden gefälscht. Da Alkohol desinfizierend wirkt, wurde Alkoholkonsum früher mit der Vorbeugung gegen durch unsauberes Wasser übertragene Krankheiten gerechtfertigt. Die desinfizierende Wirkung von Ethanol-Wasser-Mischungen ist jedoch nur bei einem Alkoholgehalt zwischen 50 und 80 % signifikant; bei unter 20 % Ethanolgehalt fehlt sie völlig. Inhaltsstoffe. In alkoholischen Getränken sind neben Ethanol und Wasser auch die bei der Gärung entstehenden Nebenprodukte enthalten, etwa Aldehyde, die Alkohole Glycerin, Methanol und 1-Propanol sowie auch höhere einwertige Alkohole. Zusätzlich finden sich aliphatische Carbonsäuren, Milch- und Bernsteinsäure sowie Carbonsäureester darin. Diese Stoffe beeinflussen das Aroma der Getränke. Beim Brennen alkoholhaltiger Flüssigkeiten oder von Maische entstehen Spirituosen mit einem Alkoholgehalt ab 15 % – mit Ausnahme von Eierlikör, der mindestens 14 Volumenprozent haben muss. Geochronologie. Geochronologie (von altgriechisch: "γῆ (ge)" „Erde“ und "χρὁνος" (chronos) „Zeit, Zeitdauer“ und -logie) ist die Wissenschaftsdisziplin, die Ereignisse der Erdgeschichte und sekundär die Entstehungszeit von Gesteinen und Sedimenten (siehe Chronostratigraphie) absolut-zeitlich datiert. Unter anderem erstellt sie aus den ermittelten Daten die geologische Zeitskala, in der Zeitintervalle identifiziert, als geochronologische Einheiten benannt und zeitlich datiert dargestellt sind. Häufig korrespondieren geochronologische Einheiten mit der Bildungszeit chronostratigraphischer Einheiten, also physisch existenter Gesteinskörper. Die Geochronologie ist ihrem Wesen nach dagegen immateriell und ist daher nicht im eigentlichen Sinne eine stratigraphische (gesteinsdatierende) Disziplin. Die Beziehungen zwischen konkreten geochronologischen Einheiten werden immer in einer älter/jünger-Beziehung ausgedrückt. Die Datierung von Gesteinen kann absolut oder relativ erfolgen. Sedimentierung. Lange gab es keine direkten Methoden zur absoluten Altersbestimmung von Gesteinen. Schätzungen basierten auf Erosionsraten der Gebirge sowie Sedimentationsraten in Seen und Ozeanen. Anfang des 20. Jahrhunderts begründete der schwedische Geologe Gerard Jakob De Geer die Warvenchronologie, also das Auszählen von jährlichen Schichten ("Warven"). Jährliche Schichten sind auch in Eisbohrkernen erkennbar. Die Aufstellung lokaler relativer Schichtfolgen und deren regionale und globale Zuordnung ist Thema der Stratigraphie. Isotopenmessung. Mit der Entdeckung der Radioaktivität wurden verschiedene Messmethoden entwickelt, die auf der Untersuchung des Mengenverhältnisses natürlicher Radioisotope beruht. Die Isotopenverhältnisse ändern sich aufgrund unterschiedlicher Zerfallszeiten (Halbwertszeit) oder natürlicher Bestrahlung (Radioaktivität der Erde oder extraterrestrische Strahlung). Heute werden auch Methoden eingesetzt, die auf der quantitativen Bestimmung künstlich erzeugter Radioisotope beruhen, z. B. die [Tritiummethode] zur Bestimmung des Alters oberflächennaher Grundwässer. Nach einem Eintrag eines solchen Isotops in das Wasser nimmt der Gehalt des Isotops durch Zerfall und ggf. Verdünnung ab. Die erste auf der Uran-Blei-Zerfallsreihe beruhende Altersbestimmung wurde 1913 von Arthur Holmes veröffentlicht und war seinerzeit sehr umstritten. Friedrich Georg Houtermans publizierte 1953, basierend auf von Clair Cameron Patterson durchgeführten Uran-Blei-Isotopenmessungen an Meteoriten, das heute akzeptierte Erdalter von ca. 4,5 Milliarden Jahren. Heute werden unterschiedliche radioaktive Isotope sowie ihre Zerfallsprodukte benutzt, um das Alter von Gesteinen zu bestimmen. Das Alter eines Gesteins ist je nach Untersuchungsmethode unterschiedlich zu interpretieren. Bei magmatischen Gesteinen können sowohl das Alter der Kristallisation (der Platznahme in der Erdkruste) und je nach untersuchtem Mineral auch mehrere Abkühlalter bestimmt werden. Ebenso kann in metamorphen Gesteinen der Zeitraum eines Metamorphose-Ereignisses festgestellt werden. In manchen Sedimenten bilden sich während der Ablagerung bestimmte Minerale (zum Beispiel Glaukonit in vielen marinen (Grün-)Sandsteinen), deren Entstehungsalter durch Messung radioaktiver Isotope bestimmt werden kann. Dieses Alter wird dann als Sedimentationsalter interpretiert. Rubidium-Strontium-Methode. Rubidium 87Rb zerfällt mit einer Halbwertszeit von 47 Mrd. Jahren in 87Sr. Die Radiometrische Datierung eignet sich für sehr alte Gesteine. Da neben 87Sr auch das stabile 86Sr vorkommt, erhält man über die Isochronenmethode recht genaue Daten für beispielsweise Feldspäte, Hornblende oder Glimmer in der Größenordnung von 1000 Mio. Jahren mit einem Fehler von mehreren 10 Mio. Jahren. Uran-Blei-Methode. Das Alter uranhaltiger Minerale kann nun über das Verhältnis der Tochterisotope zum verbliebenen Anteil des Mutterisotops (hier: U) unter Kenntnis der Halbwertszeit des Mutterisotops bestimmt werden. Dabei muss ggf. der vor dem radioaktiven Zerfall bestehende Gehalt an den Bleiisotopen 207Pb und 206Pb berücksichtigt werden; dies geschieht durch die Messung des Gehalts an nicht durch radioaktiven Zerfall entstandenem, das heißt bereits vorhandenem 204Pb: Die unveränderten Verhältnisse 207Pb/204Pb und 206Pb/204Pb sind aus der Messung von Meteoritenmaterial bekannt, daher kann aus dem 204Pb-Gehalt auch der ursprüngliche Gehalt an 207Pb bzw. 206Pb berechnet werden; dieser muss von dem gemessenen Gehalt abgezogen werden – der Rest ist dann durch radioaktiven Zerfall entstanden. Ein großer Vorteil der Uran-Blei-Methode ist, dass man meist beide Zerfallsreihen benutzen und damit sein Ergebnis absichern kann. Wegen der hohen Halbwertszeiten ist die Methode am besten geeignet, Alter ab 1 Millionen Jahre zu bestimmen. Kalium-Argon- und Argon-Argon Methode. Die Kalium-Argon-Methode nutzt die Zerfallsprodukte des Kaliums. Kalium selbst kommt in der Natur in Form von drei Isotopen vor: 39K (93,26 %), 40K (0,012 %), 41K (6,73 %). Das radioaktive 40K zerfällt mit einer Halbwertszeit von 1,277 · 109 Jahren zu 40Ar und 40Ca. Das selten auftretende 40Ar wird für die Altersbestimmung verwendet. 40Ca kommt als Isotop des Calciums sehr häufig vor, so dass die Entstehung von zusätzlichem 40Ca aus dem Zerfall von Kalium kaum messbar ist und sich daher für Altersbestimmungen nicht eignet. Zur Bestimmung des 40Ar-Gehaltes eines Gesteins muss das Gestein geschmolzen werden. In dem dabei austretenden Gas wird das Edelgas 40Ar bestimmt. Wenn auch der 40K-Gehalt des Gesteins bestimmt ist, lässt sich aus der Veränderung des Verhältnisses von 40K zu 40Ar zwischen der Zeit der Gesteinentstehung bzw. –erstarrung und dem Zeitpunkt der Bestimmung des Verhältnisses im Labor das Alter des Gesteins berechnen. Durch die relativ lange Halbwertszeit von 1,28 · 109 Jahren eignet sich diese Methoden für Gesteine, die älter als ca. 100 000 Jahre sind. Die 40Ar/39Ar-Methode nutzt die Entstehung von 39Ar aus 39K durch Neutronenbeschuss einer Gesteinsprobe in einem Reaktor. Nach dem Beschuss wird das Verhältnis der beim folgenden Schmelzen einer Gesteinsprobe austretenden Isotope 40Ar und 39Ar bestimmt. Wie bei der Kalium-Argon-Methode ist 40Ar das Tochterisotop. Da die Isotopenverhältnisse des K bekannt sind, kann 39Ar, das bei dem Zerfall von 39 K durch Neutronenbeschuss entsteht, als Ersatz für das K-Mutterisotop verwendet werden. So ist lediglich das Verhältnis von 40Ar zu 39Ar im austretenden Gas zu bestimmen. Analysen anderer Isotope durch weitere Analysemethoden sind nicht erforderlich. Radiokohlenstoffmethode. Die besonders zur Altersbestimmung organischen Materials erdgeschichtlich jüngeren Materials geeignete Radiokohlenstoffmethode nutzt den Zerfall des durch kosmische Strahlung in der höheren Atmosphäre entstandenen 14C (Halbwertszeit: 5730 Jahre). Sie ist für geologische Zwecke nur dann geeignet, wenn kohlenstoffhaltige Objekte datiert werden sollen, die weniger als ca. 50.000 Jahre alt sind. Damit ist sie auf das Quartär begrenzt. Das Hauptanwendungsgebiet der Radiokarbonmethode ist die Archäologie und die archäologische Stratigraphie. Aluminium-Beryllium-Methode. Entstehung von Radionukliden (z.B. 26Al, 10Be) durch kosmische Strahlung an Gesteinoberflächen Die Altersbestimmung mit Hilfe der Oberflächenexpositionsdatierung über das Aluminiumisotop 26Al und das Berylliumisotop 10Be im Mineral Quarz (SiO2) basiert auf dem (bekannten) Verhältnis von 26Al und 10Be, die beide durch kosmische Strahlung (Neutronen-Spallation, Myonen-Einfang) an der Oberfläche von Steinen/Mineralen entstehen. Das Verhältnis ist abhängig u. a. von der Höhenlage, der geomagnetischen Breite, der Strahlungsgeometrie und einer möglichen Schwächung der Strahlung durch Abschirmungen (Verbringung, Bedeckung). Die spezifischen Strahlungsbedingungen und damit das Verhältnis von 26Al zu 10Be müssen vor der Altersbestimmung festgelegt bzw. abgeschätzt werden können. Ab dem Zeitpunkt, zu dem das in Frage kommende Material vor der kosmischen Strahlung abgeschirmt wurde (z. B. durch Einlagern in eine Höhle), nimmt der Anteil der beiden Radionuklide durch radioaktiven Zerfall unterschiedlich schnell ab, sodass sich aus dem Verhältnis dieser Radionuklide zum Zeitpunkt der Untersuchung und dem angenommenen (bekannten) Gleichgewichtsverhältnis unter Bestrahlung und Kenntnis der jeweiligen Halbwertszeiten (siehe auch Nuklidkarte) das Alter abschätzen lässt. Diese Methode wurde auch zur Bestimmung des Alters von fossilen Hominiden-Knochen genutzt. Allerdings können die Knochen nicht direkt untersucht werden, sondern es werden die sie umgebenden Quarz enthaltenden Sedimente herangezogen. Samarium-Neodym-Methode. Samarium 146 wandelt sich über Alphazerfall in Neodym 142 um. Die lange Halbwertszeit des Samarium erlaubt Altersbestimmungen geologischer Zeiträume. Vor 2012 vermutete man eine Halbwertszeit des Samarium von 103 Mio Jahren. Vermutlich ist sie mit 68 Mio Jahren deutlich kürzer. Aus dem gemessenen Verhältnis zum stabilen Isotop Sm144 von 0,007 und einem Ausgangsverhältnis von 0,0094 folgt ein Alter für die Erde von 4,57 Mrd. Jahren. Tritiummethode. Tritium (3H) ist ein natürliches Isotop des Wasserstoffs und zerfällt mit einer Halbwertzeit 12,32 Jahren. Durch die atmosphärischen Kernwaffentests in den 50er und zu Beginn der 60er Jahres des 20. Jahrhunderts wurden große Mengen Tritium in der Atmosphäre freigesetzt. Durch Niederschlag gelangte dann Tritium in Oberflächengewässer und oberflächennahes Grundwasser. Die Abnahme der Tritiumkonzentration durch Verdünnung und radiologischem Zerfall ermöglicht die Bestimmung des Alters eines Wasser, d. h. dessen Eintrags über den Niederschlag bzw. dessen Verweilzeit im Grundwasserleiter sofern mögliche Verdünnung durch vorhandenes Wasser oder andere Zuströme abgeschätzt werden können. Mit der Tritiummethode ist die Bestimmung der Verweilzeiten des Grundwasser von einigen Jahren bis zu mehreren Jahrzehnten möglich. Voraussetzung ist, dass dieser Eintrag nicht vor den atmosphärischen Kernwaffentests stattfand. Gerhard Schröder (CDU). Gerhard Schröder am Schreibtisch als Bundesinnenminister 1960 Gerhard Schröder (* 11. September 1910 in Saarbrücken; † 31. Dezember 1989 in Kampen auf Sylt) war ein deutscher Politiker (CDU). Der Jurist war von 1953 bis 1961 Bundesminister des Innern, von 1961 bis 1966 Bundesminister des Auswärtigen und von 1966 bis 1969 Bundesminister der Verteidigung. Schröder galt als dynamisch und kompetent, aber distanziert. Als Außenminister prägte er insbesondere die Ostpolitik und die Partnerschaft der Bundesrepublik Deutschland zu den USA und Großbritannien (Westintegration). Bei der Wahl des deutschen Bundespräsidenten 1969 unterlag er mit dem bisher knappsten Ergebnis einer Bundesversammlung dem SPD-Kandidaten Gustav Heinemann. Jugend und Ausbildung. Gerhard Schröder wurde 1910 als ältestes von drei Kindern des aus Ostfriesland stammenden Eisenbahnbeamten Jan Schröder und Antina Schröder, geborene Duit, in Saarbrücken geboren. Er besuchte humanistische Gymnasien (das Ludwigsgymnasium in Saarbrücken, ein Gymnasium in Friedberg, das Landgraf-Ludwigs-Gymnasium Gießen) und absolvierte das Abitur am heutigen Max-Planck-Gymnasium in Trier im Jahr 1929. Schröder nahm nach seinem Abitur das Studium der Rechtswissenschaft an der Albertus-Universität Königsberg auf, da er fern seines Heimatortes neue Erfahrungen sammeln wollte. Später studierte er zwei Semester an der University of Edinburgh, wo ihn die britische Lebensart beeindruckte, der er sich zeitlebens verbunden fühlte. Ab Sommer 1931 war er Student in Berlin, wo er die teilweise blutigen Auseinandersetzungen der politischen Kontrahenten in der Endphase der Weimarer Republik erlebte, und wechselte bald darauf an die Universität Bonn. In dieser Zeit engagierte er sich hochschulpolitisch und war Mitglied der Hochschulgruppe der DVP. Für diese zog er auch in den AStA der Universität ein. In Bonn schloss Schröder das Jurastudium 1932 mit dem ersten und 1936 mit dem zweiten juristischen Staatsexamen ab. Assessorenzeit und Rechtsanwalt in Berlin 1933–1939. 1934 wurde er zum Dr. jur. promoviert. Seine Dissertation mit dem Titel "Die außerordentliche Auflösung von Tarifverträgen" war vor der Machtergreifung der Nationalsozialisten verfasst worden, so dass sie nach der neuen, von den Nationalsozialisten erlassenen Gesetzgebung überholt und nur noch Makulatur war. Die Universität befreite ihn daher von der Verpflichtung, die Doktorarbeit drucken zu lassen. Ab 1933 war er zunächst Assistent an der Juristischen Fakultät der Universität Bonn. Von Oktober 1934 bis 1936 war er Referent am Kaiser-Wilhelm-Institut für ausländisches und internationales Privatrecht in Berlin. 1935 musste er das Referendarlager "Hanns Kerrl" bei Berlin für drei Monate besuchen, wo ihm nach eigenem Bekunden die politische Indoktrinierung missfiel. 1936 dann wurde er Anwaltsassessor in einer großen Kanzlei, deren Mitarbeiter überwiegend Juden waren. Sein Kanzleichef und späterer Partner, Walter Schmidt, bescheinigte ihm im Entnazifizierungsverfahren, dass er damals jüdischen und anderen verfolgten Mandanten zur Seite gestanden habe, so dass er des Öfteren mit dem Nationalsozialistischen Rechtswahrerbund, dem er unter der Mitgliedsnummer 013115 angehörte, Probleme gehabt habe. 1939 wurde er Rechtsanwalt mit der Spezialisierung auf Steuerrecht. Zweiter Weltkrieg 1939–1945. Im September 1939 wurde er zur Wehrmacht eingezogen und in der Nähe von Berlin zum Funker ausgebildet. Von September 1940 bis Mai 1941 erhielt er eine Freistellung von der Wehrmacht und war während dieser Zeit in seiner Kanzlei in Berlin tätig. Daraufhin wurde er ins besetzte Dänemark nach Silkeborg und auf die Insel Fanø kommandiert. Im Russlandfeldzug wurde er im Kessel von Cholm stationiert und dort durch einen Granatsplitter im rechten Unterschenkel verletzt, so dass er bis 1943 kriegsuntauglich war. Daraufhin war er Funklehrer (zuletzt im Dienstgrad Unteroffizier) in der Nähe von Berlin und ergab sich den US-amerikanischen Truppen 1945 bei Calbe. Er wurde in ein britisches Kriegsgefangenenlager bei Bad Segeberg verlegt und war dort Übersetzer. Bereits im Juni 1945 wurde er aus der Gefangenschaft entlassen. Familie. Seine Ehefrau Brigitte Schröder, deren Bruder ein Freund und Studienkollege Schröders war, galt nach den Nürnberger Gesetzen aufgrund ihrer teilweise jüdischen Herkunft als „Mischling“. Die Hochzeit war daher nur mit einer Ausnahmegenehmigung der Wehrmacht möglich. Schröder musste schriftlich auf eine militärische Karriere verzichten, so dass er in der Wehrmacht lediglich den Rang eines Obergefreiten bekleidete. Die Hochzeit fand im Mai 1941 als Ferntrauung statt. Berufliche Tätigkeit 1945–1953. Nach seiner Entlassung aus der Kriegsgefangenschaft traf er seine Frau, die mit den gemeinsamen Kindern vom Rittergut ihrer Eltern in Schlesien vor der Roten Armee geflohen war, in Hamburg wieder. Dort lebten sie zunächst bei seinen Eltern. Sein Vater Jan starb am 24. November 1945. Als Beamter 1945–1947. Noch 1945 bewarb sich Schröder beim Oberpräsidenten der Rheinprovinz, Hans Fuchs, in Düsseldorf und erhielt eine Anstellung als Oberregierungsrat. Diese behielt er auch, nachdem die britische Besatzungsmacht Fuchs durch Robert Lehr ersetzt hatte. In dieser Zeit knüpfte er auch Kontakte zu Konrad Adenauer und Kurt Schumacher. Zum Jahreswechsel 1945 auf 1946 wurde er Leiter des deutschen Wahlrechtsausschusses in der britischen Besatzungszone. Dieser Ausschuss hatte die Aufgabe, der britischen Besatzungsmacht Vorschläge zum Ablauf der ersten Kommunalwahlen zu unterbreiten. Mit der Gründung des Landes Nordrhein-Westfalen wurde er ins Innenministerium versetzt und war dort auch für Wahlfragen auf Landesebene zuständig. Mit dem damaligen SPD-Minister Walter Menzel kam es zu keiner konstruktiven Zusammenarbeit, was maßgeblich an dessen Festhalten am Verhältniswahlrecht lag, während Schröder ein Mehrheitswahlrecht favorisierte. Als ein ehemaliges Mitglied der SS namens Hans-Walter Zech-Nenntwich, der unter seinem neuen Namen "Nansen" als britischer Agent tätig war, Berater des Innenministers wurde, sorgte Schröder für dessen Entlassung, quittierte aber selbst daraufhin den Dienst, da das Vertrauensverhältnis zu seinem Dienstherren nicht mehr gegeben war. Zech-Nenntwich wurde später wegen Kriegsverbrechen rechtskräftig verurteilt. North German Iron and Steel Control 1947–1953. Ab 1947 arbeitete er bis 1953 als Rechtsanwalt und als Abteilungsleiter bei der „North German Iron and Steel Control“ (NGISC). Er war der Berater von Heinrich Dinkelbach, dem Chef der NGISC. Er war in dieser Zeit auch Mitglied der Aufsichtsräte zweier Stahlunternehmen geworden, des Hüttenwerkes Haspe AG in Hagen und der Duisburger Ruhrort-Meiderich AG. Aus dieser Zeit stammte auch seine Ablehnung gegenüber der KPD, die in beiden Aufsichtsräten stark vertreten war. 1948 wurde Elisabeth Nuphans seine engste Mitarbeiterin, die bei ihm bis 1980 tätig gewesen ist. NSDAP 1933–1941. Gerhard Schröder beim 7. CDU-Bundesparteitag in Hamburg im Mai 1957 mit Konrad Adenauer und Ludwig Erhard Schröder beim 7. Bundesparteitag in Hamburg mit Bundeskanzler Adenauer Gerhard Schröder mit Konrad Adenauer und Konrad Kraske beim Bundesparteitag 1960 a> und Kurt Georg Kiesinger beim evangelischen Arbeitskreis der CDU-CSU Am 1. April 1933 trat Schröder unter der Mitgliedsnummer 2177050 in Bonn in die NSDAP ein. Auf Drängen des Präsidenten des Oberlandesgerichts wurde er gemeinsam mit allen anderen Referendaren auch Mitglied der SA. Beim Wechsel nach Berlin 1934 erneuerte er seine Mitgliedschaft jedoch nicht. Am 1. Mai 1941 trat Schröder aus der NSDAP aus. CDU 1945–1989. 1945 gehörte Schröder zu den Mitbegründern der CDU. In der Zeit bis 1949 galt er als führender Wahlrechtsexperte in seiner Partei und leitete daher 1948 den "Arithmetischen Ausschuss", der der CDU das Eintreten für ein Mehrheitswahlrecht empfahl. Von 1950 bis 1979 gehörte er dem geschäftsführenden Vorstand der Rheinischen CDU an. Von 1967 bis 1973 war er Stellvertretender Bundesvorsitzender seiner Partei. Er wurde auf dem Bundesparteitag in Braunschweig mit 405 von 562 Stimmen gewählt, es war das beste Ergebnis der fünf gewählten Stellvertreter Kiesingers. Im November 1970 wurde er in diesem Amt bestätigt, aber mit dem schlechtesten Ergebnis der gewählten Kandidaten. Auf dem Bundesparteitag in Saarbrücken 1971 hatte er mit Helmut Kohl abgesprochen, dass er dessen Kandidatur zum Parteivorsitz aktiv unterstützen wolle und im Gegenzug der Kanzlerkandidat der Union bei der nächsten Bundestagswahl zu werden. Hauptkonkurrent war Rainer Barzel, der gleich nach beiden Posten strebte, um diese mit seinem Fraktionsvorsitz zu vereinigen. Im entscheidenden Augenblick zögerte Schröder mit seiner Unterstützung für Kohl und wurde in der Folge auch nicht der nächste Kanzlerkandidat. Bei der Bundestagswahl 1972 gehörte Schröder neben Franz Josef Strauß und Hans Katzer zur Kernmannschaft des CDU-Kanzlerkandidaten Rainer Barzel und vertrat die Bereiche Außen- und Sicherheitspolitik. Evangelischer Arbeitskreis der CDU. Im Mai 1952 wurde in Siegen der Evangelische Arbeitskreis von CDU und CSU gegründet, um die katholisch dominierte Union interkonfessionell zu öffnen. Nachdem die beiden ersten Sprecher des EAK, Hermann Ehlers und Robert Tillmanns, 1954 respektive 1955 im Amt verstorben waren, wählten am 2. Dezember 1955 die Delegierten einstimmig Gerhard Schröder in Abwesenheit zu ihrem neuen Sprecher. Schröder besaß innerhalb der CDU zuvor keine eigene "Hausmacht", so dass er sich durch dieses Amt weiter im innersten Zirkel der Parteispitze festsetzen konnte. Seit dieser Zeit fiel sein Name auch öfters spekulativ in den Medien als ein möglicher Kanzlerkandidat der Union. Schröder war einer der wichtigsten Repräsentanten des protestantischen Teils der Union und von 1955 bis 1978 durchgehend Sprecher des EAK. Sein Nachfolger wurde der spätere Bundespräsident Roman Herzog. Bundespräsidentenwahl 1959. Da Theodor Heuss für eine dritte Amtszeit als Bundespräsident, die einer Verfassungsänderung bedurft hätte, nicht zur Verfügung stand, musste von der Union ein neuer Kandidat gefunden werden. Schröder wurde im Januar 1959 zu sondierenden Gesprächen zu Ludwig Erhard geschickt, ob dieser nicht für das höchste Staatsamt bereitstehen würde. Erhard winkte aber ab. Daraufhin gehörte Schröder dem 16-köpfigen Auswahlgremium der beiden Unionsparteien an, das am 24. Februar 1959 Erhard als Kandidaten für das Amt des Bundespräsidenten vorschlug. Dieser lehnte jedoch erneut ab. Als Kanzler Adenauer dann sich selbst als Kandidaten für das Bundespräsidentenamt ins Spiel brachte, war Schröder sofort für diese Option. Als sich aber herausstellte, dass sich Ludwig Erhard gestützt auf die Bundestagsfraktion und die öffentliche Meinung als Kanzlerkandidat sah, verwarf Adenauer seine eigene Kandidatur auch zum Leidwesen Schröders wieder. Es deutete sich bereits der aufziehende Kampf zwischen Erhard und Adenauer um Adenauers Nachfolge an, da Letzterer mit allen zur Verfügung stehenden Mitteln Erhard als Bundeskanzler verhindern wollte. Schröder verhielt sich bei aller Sympathie zu Erhard in dieser Zeit immer auch loyal zu Adenauer, der in dieser Parteikrise sehr viel von seiner Reputation einbüßte. Eine Umfrage des Emnid-Meinungsforschungsinstituts ergab zu diesem Zeitpunkt bei der Kanzlerfrage eine Mehrheit für Ludwig Erhard von 51 Prozent zu 32 Prozent für Konrad Adenauer. Da Adenauer nun nach Alternativen zu Erhard suchte, rückte Schröder das erste Mal in seinen Fokus, als er ihn einigen Parteifreunden neben Kai-Uwe von Hassel und Heinrich Krone als möglichen Herausforderer Erhards ankündigte. Abgeordneter 1949–1980. Gerhard Schröder (links) neben dem CDU-Bundeskanzlerkandidaten Rainer Barzel im Bundestagswahlkampf 1972 Gerhard Schröder als Wahlkampfredner 1972 Gerhard Schröder bei der Stimmabgabe mit Gattin zur Bundestagswahl 1972 Vor der Bundesministerzeit im Bundestag 1949–1953. Von 1949 bis 1980 war Schröder Mitglied des Deutschen Bundestages. Durch seine vorherige Arbeit bei der Stahltreuhandverwaltung geprägt, setzte sich Schröder innerhalb der CDU-Bundestagsfraktion für das Betriebsverfassungsgesetz ein, das am 14. November 1952 beschlossen wurde. 1952 gehörte Schröder zu einer Gruppe von 34 Abgeordneten der CDU/CSU-Fraktion, die einen Gesetzentwurf zur Einführung des relativen Mehrheitswahlrechts in den Bundestag einbrachten, womit sie allerdings die Stabilität der Koalition gefährdeten, da die kleineren Parteien ein Mehrheitswahlrecht nicht unterstützten. Schröder brachte daraufhin einen Antrag ein, der eine Sperrklausel bei Bundestagswahlen vorsah. Das heute gültige Wahlrecht zum Bundestag basiert auf seinem Antrag. Vom 24. Juni 1952 bis zum 20. Oktober 1953 war er stellvertretender Fraktionsvorsitzender der CSU-Bundestagsfraktion. Dieses Amt gab er auf, als er Bundesinnenminister wurde. Von März bis Mitte April 1953 folgte er mit einigen jungen Politikern der Regierungskoalition einer Einladung des State Departments in die USA. Diversen Besuchen bei dortigen Regierungsbehörden und auch militärischen Einrichtungen folgte eine kurze Audienz beim damaligen Präsidenten der Vereinigten Staaten, Dwight D. Eisenhower. Nach der Bundesministerzeit im Bundestag 1969–1980. Von 1969 bis 1980 war er Vorsitzender des Auswärtigen Ausschusses. In dieser Eigenschaft war er der erste bundesdeutsche Spitzenpolitiker, der eine Einladung in die Volksrepublik China erhielt. Dort verhandelte er vom 13. bis 29. Juli 1972 mit dem chinesischen Premierminister Zhou Enlai über die später erfolgte Aufnahme von diplomatischen Beziehungen. Ebenso reiste er in dieser Eigenschaft im Januar 1971 das erste Mal in die UdSSR nach Moskau. Trotz des Besuches übte Schröder im Bundestag scharfe Kritik an den Ostverträgen. Ebenso traf er 1971 mit dem neuen US-Präsidenten Richard Nixon zusammen, um über die Entspannungspolitik zu diskutieren. Nixon und Schröder kannten sich noch aus ihrer Zeit als US-Vizepräsident bzw. Bundesinnenminister. Am 27. April 1972, als die CDU/CSU-Fraktion das erste konstruktive Misstrauensvotum in den Deutschen Bundestag einbrachte, antwortete er dem damaligen Bundesaußenminister Walter Scheel auf dessen Rede zur Außenpolitik der sozialliberalen Koalition und begründete damit außenpolitisch den Antrag der CDU/CSU-Fraktion auf Abwahl der Regierung Brandt und Wahl Rainer Barzels. Ein umstrittenes Treffen hatte er Ende 1974 als Vorsitzender des Auswärtigen Ausschusses mit Jassir Arafat, das in der sozialliberalen Regierungskoalition, aber auch innerparteilich umstritten war. Bei der Debatte um die Ostverträge war Schröder ein Warner vor zu großer Euphorie in der Entspannungspolitik; obwohl er sie befürwortete, sah er in ihr nicht den Schlüssel zur Deutschen Einheit. CSU-Fraktionsvorsitzenden am 17. Mai 1973 Nachdem Rainer Barzel den Fraktions- und Parteivorsitz am 9. Mai 1973 niedergelegt hatte, was Schröder sehr bedauerte, kandidierte Schröder am 17. Mai 1973 gegen seinen ehemaligen Staatssekretär Karl Carstens um dieses Amt und wieder gegen Richard von Weizsäcker. Er unterlag aber deutlich mit 28 Stimmen bei 58 Stimmen für Weizsäcker und 131 für Carstens, den Helmut Kohl favorisierte. Diese Niederlage war das Ende seines Spitzenpolitikerdaseins, denn er wurde nie mehr für wichtige Ämter in Erwägung gezogen und rutschte ab in den Status des "Elder statesman". Schröder gehörte neben Ludwig Erhard, Hermann Götz (beide CDU), Richard Jaeger, Franz Josef Strauß, Richard Stücklen (alle CSU), Erich Mende (FDP, später CDU), Erwin Lange, R. Martin Schmidt und Herbert Wehner (alle SPD) zu den zehn Abgeordneten, die seit der Bundestagswahl 1949 dem Parlament 25 Jahre ununterbrochen angehörten. Schröder ist der Vorsitzende des Auswärtigen Ausschusses, der mit elf Jahren die längste Amtszeit innehatte, sein Nachfolger wurde sein ehemaliger Weggefährte Rainer Barzel. Wahlkreiskandidat 1949–1969 und Listenkandidat 1972–1976. Gerhard Schröder ist zuletzt über die Landesliste Nordrhein-Westfalen (1969, 1972 und 1976) und davor stets als direkt gewählter Abgeordneter des Wahlkreises Düsseldorf-Mettmann bzw. Düsseldorf-Mettmann II (1965) in den Bundestag eingezogen. Diesen Wahlkreis sollte ursprünglich der ehemalige Zentrumspolitiker Richard Muckermann erhalten, aber die Delegierten wählten mit großer Mehrheit Schröder, da der katholische Muckermann in dem stark evangelisch geprägten Wahlkreis vermutlich chancenlos gewesen wäre. Bei der ersten Wahl (1949) hatte Schröder noch keine Listenabsicherung. In seinem ersten Bundestagswahlkampf 1949 war sein Wahlkampfslogan "Für Gesundheit-Arbeit-Frieden". Er gewann den Wahlkreis mit 34,1 % der Stimmen und einem Vorsprung von 2,7 Prozentpunkten vor seinem sozialdemokratischen Kontrahenten. Bei der zweiten Wahl zum Deutschen Bundestag erhielt er als Wahlkreiskandidat 52 Prozent der Erststimmen und somit rund vier Prozentpunkte mehr als die CDU an Zweitstimmen, 1957 erreichte er sein bestes Ergebnis an Erststimmen mit 54,2 Prozent und damit auch das beste Ergebnis, das je ein Kandidat in diesem Wahlkreis erzielen konnte. 1961 konnte er mit 44,9 Prozent den Wahlkreis zwar gewinnen, musste aber dem bundespolitischen Negativtrend seiner Partei im Vergleich zur vorherigen Bundestagswahl ebenso Tribut zollen. In diesem Wahlkampf trat er als Vertreter Adenauers in der Fernsehsendung "Unter uns gesagt" von Kurt Wessel auf. Dass nicht Ludwig Erhard als Vizekanzler dazu berufen wurde, erregte Erhards Zorn. Bei der Bundestagswahl 1965 gelang es Schröder ein letztes Mal, seinen Wahlkreis mit 48,6 Prozent der Erststimmen klar zu behaupten. Bei der Bundestagswahl 1969 konnte Schröder, bei deutlichen Stimmengewinnen der SPD, das erste Mal seinen Wahlkreis nicht verteidigen. Er zog trotzdem in den Bundestag ein, da er auf der Landesliste Nordrhein-Westfalens den ersten Platz erhalten hatte. Bei den Bundestagswahlen 1972 und 1976 kandidierte er nur noch auf der Landesliste. 1972 war er auf dem zweiten Listenplatz hinter Kanzlerkandidat Barzel und 1976 lediglich auf dem sechsten Platz. 1980 wollte Schröder erneut über einen Platz auf der Landesliste in den Bundestag einziehen, wurde aber aus drei wichtigen Gründen nicht nominiert: Erstens war durch die verlorene Landtagswahl in Nordrhein-Westfalen ein Kandidatenüberschuss bei der Union vorhanden, zweitens wollte der Kanzlerkandidat der Union, Franz Josef Strauß, seinen unionsinternen Intimfeind nicht mehr im Parlament sehen und drittens war Helmut Kohl als Parteivorsitzender nur noch mäßig an Schröder im Parlament interessiert. So wurde Schröder mit relativ ruppigen Mitteln von der Landesliste getilgt und mit Ablauf der vorherigen Legislaturperiode endete seine Zeit im Bundestag. Bundesinnenminister 1953–1961. Schröder 1960 mit Adenauer und von Brentano beim Empfang des Königs von Thailand Beim 9. Bundesparteitag der CDU in Karlsruhe ist Schröder (rechts) mit Konrad Adenauer und Heinrich Krone zu sehen Schröder mit einem BGS-Offizier in Lübeck 1961 Gerhard Schröder bei der Unterzeichnung des Élysée-Vertrages 1964 empfängt Schröder seinen türkischen Amtskollegen Feridun Cemal Erkin a> Dr. Lansana Beavogui in Bonn a> in Bonn am 8. November 1965 Schröder und Kiesinger ebenfalls am Nürburgring Schröder mit Kurt-Georg Kiesinger im Mai 1973 in der Unionsfraktion Grabstätte auf dem Friedhof in Keitum auf Sylt Staatsakt im Bundestag für Gerhard Schröder Bundeskanzler Helmut Kohl spricht beim Staatsakt für Gerhard Schröder a> bei ihrer Ansprache beim Staatsakt für Gerhard Schröder Amtsübernahme. Am 20. Oktober 1953 wurde Schröder von Bundeskanzler Konrad Adenauer in das Amt des Bundesministers des Innern berufen. Ausschlaggebend dafür waren Schröders erfolgreiches Ergebnis in seinem Wahlkreis bei der zweiten Bundestagswahl, die zunehmenden Alterserscheinungen seines Vorgängers, seine relative Jugend und seine juristische Ausbildung. Zudem war Schröder Protestant und in den ersten Jahren wurde die Position des Bundesinnenministers ausschließlich an protestantische Politiker vergeben, um eine gewisse Parität zwischen den Konfessionen im Kabinett zu wahren. Damit wurde er Nachfolger seines ehemaligen Vorgesetzten Robert Lehr. Der Fall Otto John. Am 17. Juli 1954 trat die zweite Bundesversammlung in West-Berlin zur Wiederwahl von Bundespräsident Theodor Heuss zusammen. Am 20. Juli gab es zum 10. Jahrestag des Attentats auf Adolf Hitler eine Gedenkstunde in Berlin. Schröder war aus terminlichen Gründen schon vorab nach Bonn gereist, um die siegreiche Deutsche Fußballnationalmannschaft nach dem Wunder von Bern als zuständiger Bundesminister für den Sport zu empfangen. Der Präsident des Bundesamts für Verfassungsschutz Otto John war als ehemaliger Widerstandskämpfer anwesend und floh in der Nacht in die DDR. Schröder hielt an der Treue Johns lange fest und vertrat den Standpunkt, dass er entführt sein müsse, so dass er folgerichtig eine Belohnung in Höhe von 500.000 Deutschen Mark für Hinweise dazu auslobte. Die meisten Bonner Politiker folgten jedoch schon früh der Theorie, dass John freiwillig in die damalige SBZ gereist sei. Der Bundestagsausschuss zum Schutz der Verfassung, der von Schröders ehemaligen Vorgesetzten Walter Menzel geleitet wurde, mit dem Schröder eine enge Feindschaft verband, stellt mit der SPD-Bundestagsfraktion einen Missbilligungsantrag gegen Schröder und forderte einen Untersuchungsausschuss. Die FDP war sich zu dieser Zeit nicht sicher, ob sie Schröder stützen wollte. Das zeitgleiche Scheitern der Europäischen Verteidigungsgemeinschaft nötigte sie jedoch dazu, die Koalition zu halten und folglich Schröder zu unterstützen, so dass der Missbilligungsantrag keine Mehrheit fand und der Untersuchungsausschuss zwei Jahre später kein Fehlverhalten Schröder attestieren konnte. Nach Johns Rückkehr in die Bundesrepublik im Dezember 1955 und seiner Verurteilung wegen Landesverrats setzte sich Schröder bei Theodor Heuss für seine Begnadigung ein. 1958 wurde John durch Heuss begnadigt. Durch die Ereignisse um John sensibilisiert, war Sicherheit Schröders oberste Prämisse. Er erwarb sich bald den Ruf eines Law-and-Order-Politikers. Aufstockung des Bundesgrenzschutzes. Zu Beginn von Schröders Amtszeit bestand als einzige bewaffnete Kraft im Staat, die der Bundesregierung unterstand, nur der Bundesgrenzschutz. Durch die Ereignisse des Aufstandes in der DDR wurde der Bundesgrenzschutz von 10.000 Mann auf das Doppelte aufgestockt. Mit Gründung der Bundeswehr wurde der personelle Bestand dieser Truppe von großen Teilen des BGS freiwillig gestellt. Schröder erreichte in den Verhandlungen dazu, dass der BGS nicht vollständig in der Bundeswehr aufging und die Sollstärke der Truppe bald wieder erreicht wurde. Verbot der KPD. Schröder setzte einen Verbotsantrag gegen die KPD durch. Bereits sein Amtsvorgänger hatte schon ein Verbotsverfahren gegen die Sozialistische Reichspartei erfolgreich durchgesetzt und damals zeitgleich einen Antrag zum Verbot der KPD eingebracht, der jedoch erst unter Schröders Ägide positiv entschieden wurde. Ein Amnestiegesetz für KPD-Funktionäre wurde von Schröder erfolgreich parlamentarisch bekämpft, obwohl SPD und FDP diesen Gesetzesentwurf stützten, da Herbert Wehner in der Debatte Schröder mit Andrei Wyschinski, dem sowjetischen Ankläger der stalinistischen Schauprozesse, verglich. Dieser Vorgang wurde von der CDU im Bundestagswahlkampf 1957 erfolgreich ausgeschlachtet. Zivilschutz. Schröder legte besonderen Wert auf den Zivil-, Luft- und Bevölkerungsschutz. In der damaligen Zeit des Kalten Krieges mussten Einrichtungen für die Zivilbevölkerung geschaffen werden, um sie im Kriegsfalle möglichst abzusichern. Schröder unternahm deshalb 1957 eine ausgedehnte USA-Reise, um sich mit den dortigen Sicherheitsmaßnahmen vertraut zu machen. So wurden Katastrophenkrankenhäuser gebaut und in Materiallagern von BGS und Bund sich auf verschiedene Katastrophenzustände vorbereitet, um die Leiden der Zivilbevölkerung möglichst rasch zu lindern. Kampf dem Atomtod. Als Ende der 50er Jahre der Bundestag durch die absolute Mehrheit der CDU- und CSU-Fraktion eine mögliche Bewaffnung der Bundeswehr mit Atomwaffen im Kriegsfall beschloss, formierte sich eine breite Front von SPD, GVP, DGB und FDP, um gegen dieses Gesetz unter dem Motto "Kampf dem Atomtod" mit einer Volksbefragung vorzugehen. Schröder war ein notorischer Gegner von plebeszitären Elementen in der Bundesrepublik, da er sie aus der Weimarer Zeit kannte und wusste, dass extreme Parteien, wie die NSDAP und KPD, dieses verfassungsmäßige Mittel zum Kampf gegen die demokratische Republik genutzt hatten. Am 30. Juli 1958 gab das Bundesverfassungsgericht der Regierung recht und erkannte damit Volksbefragungen als nicht verfassungsmäßig an. Später entschied der NATO-Rat, dass nur die USA im Krisenfall über solch eine Maßnahme zu entscheiden hätten, wodurch das Gesetz bedeutungslos wurde. Notstandsgesetzgebung. Der Deutschlandvertrag zwischen der Bundesrepublik und den drei westalliierten Mächten sah ein Vorbehaltsrecht in Artikel 5 Absatz 2 vor, das den Alliierten die Möglichkeit gab, im Notfall die Kommandogewalt in Deutschland zu übernehmen. Schröders Ministerium erarbeitete auf Weisung von Bundeskanzler Adenauer schon 1958 erste Gesetzentwürfe, die der SPD frühzeitig bekannt gegeben wurden, da man zu dieser Grundgesetzänderung die Stimmen der SPD-Fraktion des Bundestages und die der SPD-geführten Bundesländer brauchte. Durch die Berlin-Krise bedingt wurde die Gesetzesinitiative gehemmt. Schlussendlich kam es nicht zur Abstimmung über die Notstandsgesetze, da die SPD nicht dafür stimmen wollte. Aus einem vertraulichen Brief eines SPD-Funktionärs erfuhr er, dass die Führung der SPD nie ernsthaft vorhatte, seinen Gesetzentwurf zu unterstützen und deswegen hinhaltend verhandelt hatte, um das Ergebnis der Bundestagswahl 1961 mit ihrem frischen und verhältnismäßig jungen Kanzlerkandidaten Willy Brandt abzuwarten. Adenauer-Fernsehen. Bundeskanzler Adenauer sah sich und seine CDU bei der Kontrolle der ARD ins Hintertreffen geraten. Die Kontrolle übten nur die Bundesländer über ihre eigenen Rundfunkanstalten aus. Die Exekutive des Bundes hatte nahezu keine Eingriffsmöglichkeiten. Adenauer ließ daher am 25. Juli 1960 in privatrechtlicher Rechtsform die Deutschland-Fernsehen-GmbH mit Sitz in Köln gründen. Die SPD-geführten Bundesländer Hamburg, Bremen, Niedersachsen und Hessen riefen das Bundesverfassungsgericht an, das mit dem 1. Rundfunk-Urteil vom 28. Februar 1961 Adenauers Pläne blockierte. In der Folge wurde dann das ZDF 1962 gegründet. Schröder galt als Verfechter des Adenauer-Fernsehens, da er als „Zentralist“ die Macht der Bundesländer gerne beschnitten hätte. Gescheiterte Initiativen. Schröder scheiterte vor Gericht mit dem Versuch, die Vereinigung der Verfolgten des Naziregimes zu verbieten. Ebenso scheiterte seine Absicht, eine Bündelung der Landtagswahlen festzusetzen, am Widerstand der Landesregierungen. Schröders Initiative, im Bundestag ein Ein- und Ausreisegesetz zur DDR zu verabschieden, gelang nicht, wobei die DDR 1961 mit dem Mauerbau dafür sorgte, dass der Gesetzentwurf obsolet wurde. Gerhard Schröder ist bis heute immer noch der Bundesinnenminister mit der längsten Amtszeit, sowohl in direkter Folge als auch insgesamt. Der Weg zum Amt. Nach der Bundestagswahl 1961 war die Union nicht mehr in der Lage, die Regierung alleine stellen zu können, und musste sich einen Koalitionspartner suchen. Mit der FDP wurde Bundeskanzler Adenauer schnell einig, wobei der neue Koalitionspartner unbedingten Wert darauf legte, dass Heinrich von Brentano als Bundesaußenminister abzulösen sei. Die FDP favorisierte für dieses Amt den damaligen Baden-Württembergischen Ministerpräsidenten Kiesinger, Adenauer hingegen seinen langjährigen Innenminister Schröder oder auch Walter Hallstein. Gleichzeitig mobilisierte die Berliner CDU alle Kräfte, um Schröder zu verhindern, da dieser in der Berlin-Krise und beim Mauerbau die schlechte strategische Position Berlins gerügt und sich für eine Totalaufgabe der Stadt ausgesprochen hatte, um einen eventuell aufziehenden Krieg zu verhindern, so dass von Berliner Seite wenig bis kein Vertrauen zu Schröder als Person und erst recht im Amt des Bundesaußenministers bestand. Ebenso war Bundespräsident Lübke nicht bereit, Schröder zum Außenminister zu ernennen. Erst der Einwand des damaligen Staatssekretärs im Auswärtigen Amt, Karl Carstens, dass es dem Bundespräsidenten nicht zustehe, einzelne Minister abzulehnen, sorgte für die Aufgabe von Lübkes Widerstand. Lübke war über Schröders Aussagen zur Berlin-Frage und zum Mauerbau gegen ihn eingenommen. Trotzdem versuchte eine kleine katholische Gruppe in der Unionsfraktion um Karl Theodor zu Guttenberg, Bruno Heck und Heinrich Krone Heinrich von Brentano an seinem Rückzug vom Amt zu hindern, den Kanzler umzustimmen und gleichfalls eine große Koalition mit der Sozialdemokratie den Weg zu ebnen. Adenauer blieb bei seinen Entschlüssen und Schröder wurde am 14. November 1961 neuer Bundesaußenminister, wobei Bundespräsident Lübke Schröders Ernennungsurkunde demonstrativ als letzte unterzeichnete. Unter dem Strich galt Schröder als Gewinner der neuen Regierungsbildung, da er das wichtigste Amt neben dem Bundeskanzler erhielt und sich dadurch positiv für seine weitere Karriere in Szene setzen konnte. Amtsantritt. Schröder hatte mit Karl Carstens und Rolf Lahr zwei Staatssekretäre im Amt, mit denen er schnell harmonierte und deren Meinungen bei ihm großes Gewicht hatten. Dass es zu dieser schnellen Harmonie kam, war auch der Tatsache geschuldet, dass alle drei norddeutsche Protestanten waren. Überhaupt änderte sich mit Schröders Amtsübernahme der Führungsstil des Ministerium erheblich. So wurden in die Entscheidungen auch untere Fachkräfte mit Amtsrang eingebunden und die außenpolitischen Entscheidungen von Schröders engstem Stab mitunter auch seinen Sekretärinnen mitgeteilt, damit diese bei Nachfragen anderen Ministerien kompetent antworten konnten. Zudem wurde jeden Tag eine Morgensitzung der Referatsleiter, meist unter dem Vorsitz der Staatssekretäre, abgehalten, um die aktuellen außenpolitischen Ereignisse zu bewerten. Gleichzeitig betrieb Schröder eine offene Personalpolitik, die sich an Leistung und Kompetenz orientierte und nicht am Parteibuch des Bewerbers. So konnten untere Ränge auch kritische Denkschriften an ihn richten und mussten nicht fürchten, ihrer Amtskarriere dadurch zu schaden. Auf der anderen Seite schreckte Schröders kühle Unnahbarkeit viele Beamte ab, die sie oft fälschlicherweise für Arroganz hielten und viele Diskussionen mit ihm endeten bei der Durchsetzung Schröders Meinung, da er die Sachthemen oft besser beherrschte als die Fachbeamten. Um die Flexibilität der Entscheidungen des Auswärtigen Amts zu verbessern führte er auch als erster Minister einen Planungsstab dort ein. Das Verhältnis zu den USA unter Adenauer. Im Zuge der Berlin-Krise und des Mauerbaus führte Schröders erste Dienstreise als Außenminister ihn als Begleiter Adenauers nach Washington. Anders als Adenauer schenkte er der US-amerikanischen Taktik des Verhandelns mit der Sowjetunion und deren Satellitenstaaten mehr Vertrauen als der Bundeskanzler. Mit seinem US-amerikanischen Amtskollegen Dean Rusk verband ihn sehr schnell eine gute Freundschaft, die auf gegenseitigem Respekt beruhte. Diese Tatsache, verbunden mit ersten Verhandlungsangeboten der USA an Moskau, veranlassten den greisen Bundeskanzler Adenauer Gerhard Schröder samt seinen beiden Staatssekretären und Adenauers Intimus Hans Globke nach Cadenabbia zu zitieren, wo der Bundeskanzler auf seinem Sommerurlaub traditionell verweilte. Dort musste Schröder sein erstes diplomatisches Entgegenkommen zur amerikanischen Seite zurücknehmen und sich der Richtlinienkompetenz des damals 85-jährigen Bundeskanzlers beugen. Trotzdem erhoffte sich Schröder weiter im Laufe der damaligen Zeit mehr Mitbestimmung der Bundesrepublik auf die Verteidigungspolitik der NATO, gerade im Hinblick auf die europäischen Alliierten und deren damalige Zwistigkeiten mit den USA. Vor allem hoffte er, dass die Bundesrepublik auch Einfluss auf nukleare Verteidigungsmaßnahmen des Bündnisses bekam, denn Westdeutschland verfügte zwar über keine nuklearen Waffen, war aber das stärkste NATO-Mitglied in Europa von der Sollstärke seines Heeres. Bei den Verhandlungen zum Teststoppabkommen schloss sich Schröder wieder der Meinung der Kennedy-Administration an und setzte auf den Verhandlungsweg. Adenauer brachte fast das ganze Bundeskabinett hinter sich, versuchte eine Ratifizierung des Abkommens auch durch die DDR zu verhindern, lehnte sich eng an Frankreich an, das dieses Abkommen bis heute nicht ratifiziert hat. Am Ende war der Riss zwischen Bundeskanzler und Außenminister kaum noch zu kitten und der Gegensatz zwischen den "Atlantikern" und "Gaullisten" in der CDU nahm besorgniserregende Formen an. Schröder setzte sich auch mit Unterstützung der SPD und FDP daraufhin erfolgreich für den deutschen Abkommensbeitritt ein. Das Verhältnis zu Frankreich unter Adenauer. Mit seinem französischen Amtskollegen Maurice Couve de Murville verband ihn keine Freundschaft und auch zum französischen Staatspräsidenten Charles de Gaulle kam es nie zu einem freundschaftlichen Ton. Schröder hielt die damalige französische Politik für die Bundesrepublik und die EWG für negativ, da er keine Integrationselemente in ihr fand. Schröder verstand die europäische Einigung und auch die deutsch-französische Aussöhnung als eine komplementäre Politik zur Bündnispolitik im Rahmen der NATO und Führung der USA. Aus diesem Grunde plädierte er auch im Bundeskabinett für die Aufnahme Großbritanniens in die EWG, um auch ein Gegengewicht zu Frankreich bereitzuhalten. Diese Politik rief bei Adenauer Protest hervor und er ließ ihm über Globke einen Brief zukommen, der Schröder an die Richtlinienkompetenz des Bundeskanzlers fesseln sollte. Der indirekte Versuch, Schröder damit zu einem Rücktritt zu provozieren, schlug jedoch fehl. Als sich Großbritannien zu dieser Zeit wieder näher auf die USA zubewegte, da man auf US-amerikanische Hilfe für Trägersysteme atomarer Sprengköpfe angewiesen war, nachdem die USA die Herstellung der zugesicherten AGM-48 Skybolt ohne Konsultation Londons eingestellt hatten. Diese Hinwendung Großbritanniens provozierte de Gaulle so sehr, dass er Adenauer einen bilateralen Vertrag vorschlug. Adenauer ergriff diese Möglichkeit, die am 23. Januar 1963 in den Élysée-Vertrag gipfelte, den Schröder auch mit unterzeichnen musste. Nach erfolgter Unterzeichnung erhielt Adenauer eine Umarmung mit Kuss von de Gaulle, beides wurde dem Bundesaußenminister durch den französischen Staatspräsidenten, zwar freundlich, aber verweigert. Die daraus resultierende französische Ablehnung eines Beitritts Großbritanniens zur EWG und damit auch Deutschlands Votum im Sinne Frankreichs, bestürzte die US-amerikanische Administration, die fest mit einem baldigen Beitritts Großbritanniens gerechnet hatte, um zur NATO ebenso durch die EWG ein festes politisches und wirtschaftliches Bündnis in Westeuropa mit Großbritannien zu schaffen und somit der Sowjetunion einen zweiten Machtblock an deren Westgrenze zu präsentieren. Staatssekretär Carstens wurde daraufhin von Schröder als "Troubleshooter" nach Washington geschickt, um die dortigen Gemüter zu beruhigen. Das Verhältnis zum Ostblock unter Adenauer. 1955 hatte die junge Bundesrepublik diplomatische Beziehungen zur UdSSR aufgenommen. In Genf im Jahre 1966 lernte Schröder auch den sowjetischen Außenminister Andrei Andrejewitsch Gromyko kennen, mit dem ihn wenig Menschliches verband. Jedoch gelang es ihm schon beim ersten Treffen Gromyko seine Idee für bessere Handelsbeziehungen aufzuzeigen, obwohl die UdSSR sich zu dieser Zeit durch eine mögliche nukleare Bestückung der Bundeswehr bedroht fühlte. Er betonte dabei aber auch die bundesdeutsche Leitlinie der Außenpolitik, dass das erste Ziel die Verwirklichung der deutschen Einheit in Frieden sei. Kurze Zeit darauf wurde das Außenministerium mit Indiskretionen des deutschen Botschafters in Moskau, Hans Kroll, konfrontiert. Dieser hatte den Globke-Plan gegenüber Pressevertretern ausgeplaudert. Schröder musste bei Adenauer mit seinem eigenen Rücktritt drohen, bis dieser schließlich einer Abberufung aus Moskau zustimmte. Dabei spielte möglicherweise auch eine Rolle, dass Kroll in Bonn über hochrangige Freunde verfügte, wie Heinrich Krone, Franz Josef Strauß, Erich Mende oder Erich Ollenhauer. Schröder war einer der wenigen westdeutschen Politiker, der den Mauerbau emotionslos sah und nur als Ausdruck der Hilflosigkeit der DDR-Führung, ihre Bevölkerung im eigenen Land zu behalten. Schröder versammelte Ende Mai 1962 einen kleinen Kreis von Mitarbeitern zu einer Strategietagung in der Abtei Maria Laach, um mit ihnen neuen Wege in der Ostpolitik zu besprechen. Ohne die DDR anzuerkennen, so war man sich einig, sollten Handelsbeziehungen zu den Staaten des Warschauer Pakts aufgenommen werden. Der Handel sollte zu einer Annäherung und größeren Verständigung führen. Im Juni 1962 stellte er seine Thesen dem 11. Bundesparteitag der CDU in Dortmund vor. In der CDU war sein Programm sehr umstritten, gerade bei seinen stärksten Kritikern um von Guttenberg und Krone; FDP und SPD hingegen begrüßten diese neuen Akzente der bundesdeutschen Außenpolitik. So wurde Schröder, der von der Opposition und dem Koalitionspartner als Innenminister immer gemieden wurde, im Amt des Außenministers vertrauensvoller Kooperationspartner. Die erste Handelsniederlassung wurde in Warschau am 7. März 1963 nach erfolgreichem Vertragsabschluss eröffnet. Ende 1964 hatte man schon in fast allen Ostblockstaaten mit Ausnahme der DDR Handelsvertretungen eröffnen können. Das erste Mal möglicher Kanzlerkandidat 1963. Auf Druck der FDP musste Adenauer den Bundeskanzlerposten im Laufe der Legislaturperiode von 1961 bis 1965 an einen Nachfolger aus den Reihen der Union abgeben. Im Ringen um seine Nachfolge bemühte sich der alternde Bundeskanzler seinen Stellvertreter Ludwig Erhard mit allen Mittel zu verhindern. Es spielten sich dabei sehr unschöne Szenen seitens des Patriarchen ab, die die CDU in zwei Lager spaltete. Aus diesem Grunde kristallisierten sich Anfang der Legislaturperiode mehrere potentielle Gegenkandidaten zu Erhard heraus, darunter Franz Josef Strauß, Eugen Gerstenmeier, Heinrich von Brentano, Heinrich Krone und Gerhard Schröder. Im Verlauf des internen Machtkampfes erklärten Krone und Brentano sich einer Kandidatur gegenüber Erhard nicht mehr bereit, Gerstenmeier war nur als Kanzler einer großen Koalition zu haben, so dass nur noch Strauß und Schröder übrig blieben. Der Gegensatz der beiden Unionspolitiker zueinander verschärfte sich zusehends bis hin zur Spiegel-Affäre, die Strauß’ Anwartschaft auf eine etwaige Kanzlerkandidatur stoppte. Schröder, der mit der Spiegel-Affäre fast nichts zu tun hatte, distanzierte sich schnell vom damaligen Verteidigungsminister und war somit der einzige wirkliche Gegner einer Kanzlerkandidatur Erhards. Der CDU-Abgeordnete Will Rasner versuchte alsbald Schröder in den Reihen der Unionsfraktion als Gegenkandidaten zu Erhard aufzubauen. Am 22. März 1963 tagte die Fraktion und Heinrich von Brentano eröffnete die Sitzung mit einem Referat, dass die Partei an Ludwig Erhard nicht vorbeikommen konnte. Adenauer, der Erhard verhindern wollte, nutzte die Gelegenheit nicht, um Schröder als Kandidaten ins Spiel zu bringen. Vielleicht lag das auch daran, dass Schröder nicht offensiv genug gegen den Vizekanzler und dessen Kanzlerambitionen vorgegangen war, so dass Adenauer zu wenig Vertrauen in Schröder hatte. Erhard wurde schließlich unspektakulär ohne Gegenkandidaten zum neuen Kanzlerkandidaten der Unionsfraktion gekürt. Schröder, aber auch Strauß sahen in Erhard zu diesem Zeitpunkt nur einen Übergangskanzler, der die Bundestagswahl 1965 als "Wahlkampflokomotive" der Union gewinnen sollte und dessen Nachfolger baldmöglichst darauf zu küren sei, so dass beide ihre Ambitionen auf das Bundeskanzleramt vorerst zurücksteckten. Schröder vermied es ebenso wie etwa Heinrich Krone oder Ernst Lemmer seine Sicht auf den Nachfolgestreit und die teilweise unschön geführte innerparteiliche Auseinandersetzung der Nachwelt zu hinterlassen. Das Ende der Kanzlerschaft Adenauers. Adenauer und Schröder gingen in den letzten Monaten Adenauers im Amt stärker denn je getrennte Wege. Die Teststoppdebatte war der Höhepunkt der Entzweiung, denn Schröder nahm es Adenauer übel, dass dieser sich nicht für ihn bei der Kanzlernachfolgedebatte eingesetzt hatte, und Adenauer nahm es Schröder übel, dass dieser weiterhin einen pro-amerikanischen Kurs verfolgte und des Kanzlers Lieblingsbündnis mit Frankreich nicht mit dem Leben erfüllte, wie es sich der alte Mann gewünscht hatte. Schriftliche Ermahnungen Adenauers wurden von Schröder in den letzten Kanzlertagen kurz und teilweise lapidar abgewiesen. Dass sein Verhalten später auch ihm von Schaden sei, konnte Schröder nicht ahnen, denn Adenauer blieb bis 1966 Parteivorsitzender und bis zu seinem Tode die graue Eminenz der Union. Kanzlerwechsel. Mit der Amtsübernahme Ludwig Erhards als Bundeskanzler änderte sich für Schröder erst einmal wenig, da Erhard ihm in keiner Weise böse war, dass er zwischendrin ebenso als Kanzlerkandidat gehandelt worden war. Schröder war es auch, der Erhard zur Mäßigung anhielt, wenn dieser immer stärker den Kanzlerwechsel forderte. Politisch war Erhard ebenso wie Schröder ein Atlantiker und unterstützte die außenpolitischen Bemühungen seines Außenministers in dieser Richtung nach Kräften. Einzig Konrad Adenauer versuchte Heinrich von Brentano wieder als Außenminister zu installieren, fand jedoch in Partei, Fraktion, Koalitionspartner und beim neuen Bundeskanzler kein Gehör. Das Bundeskabinett wurde von Erhard nun fast vollständig übernommen bis auf Rainer Barzel als Bundesminister für gesamtdeutsche Fragen, der seinen Ministersessel für den FDP-Parteivorsitzenden und Vizekanzler Erich Mende hat räumen müssen und dafür in die Unionsfraktionsführung wechselte. Das Verhältnis zu den USA unter Erhard. Kurz nach dem Kanzlerwechsel wurde der US-amerikanische Präsident Kennedy bei einem Attentat in Dallas getötet. Sein Nachfolger wurde Vizepräsident Lyndon B. Johnson. Nach Abschluss der Trauerfeierlichkeiten Kennedys lud Johnson Bundeskanzler Erhard und Außenminister Schröder auf seine Ranch nach Texas ein. Menschlich standen sich die Partner Johnson/Rusk und Erhard/Schröder sofort nahe und beide Seiten bekräftigten, dass sie wieder enger in den politischen Fragen zusammenrücken würden, jedenfalls mehr als es unter Adenauer der Fall war. Nachdem sich aber zeigte, dass der deutscherseits geförderte Plan zu Aufstellung einer Multilateral Force (zu deutsch: Multilaterale (Atom-)Streitmacht) nach dem Wahlsieg der britischen Labour Party 1964 mit ihrem Premierminister Harold Wilson nicht durchzusetzen war, mussten Außenminister Schröder und Kanzler Erhard sich gegen erhöhten Druck in der eigenen Fraktion wappnen, denn die Gaullisten in der CDU-Fraktion warfen ihnen außenpolitisches Versagen vor. Versagt hatte aber vor allem der US-amerikanische Präsident Lyndon B. Johnson, der die eigentlich treibende Kraft hinter der der MLF war und der die Interessen seiner NATO-Partner nicht hatte bündeln können, denn sein Rückzieher vor dem Hintergrund innenpolitischer Probleme ließ die Bemühungen Gerhard Schröders im Sande verlaufen. Es war zu diesem Zeitpunkt nur der kommenden Bundestagswahl 1965 geschuldet und dem Einsatz des Unionsfraktionschefs Rainer Barzel zu verdanken, dass die Fraktion sich hinter der Regierung in dieser Frage sammelte, obwohl die Meinungen stark divergierten. Der Devisenausgleich für die Stationierung US-amerikanischer Truppen in Deutschland lief vertraglich 1967 aus, die Kosten hatten den Bundeshaushalt in Schieflage gebracht, da zwei Milliarden Mark zur Bezahlung fehlten. Bundeskanzler Erhard unternahm daher im September 1966 eine Reise in die USA, um einen Aufschub der Zahlung zu erreichen, begleitet wurde er vom Außen- und Verteidigungsminister. Die Verhandlungen mit US-Präsident Johnson verliefen sehr negativ, da dieser selbst unter innenpolitischem Druck stand, da das US-amerikanische Engagement in Vietnam nicht den gewünschten Erfolg brachte. Johnson verhandelte extrem hart und ließ der deutsche Regierungsdelegation kein Entgegenkommen zu. Das Verhältnis zu Frankreich unter Erhard. Das Verhältnis zu Frankreich erhielt mit dem neuen Kanzler keinen neuen Schwung, wie etwa das zu den USA. Eher im Gegenteil trafen nun französische Interessen auf einen anglophilen Kanzler, der durch seinen Außenminister darin bestärkt wurde. Erhard und Schröder hatten Angst davor, dass Frankreich durch die wirtschaftliche Macht Deutschlands im Hintergrund nach einer politischen Hegemonie in Europa strebte. Das zeigte sich recht schnell bei den Verhandlungen zum EWG-Agrarmarkt und beim GATT-Abkommen, in denen die französische Regierung die deutsche Agrarpreispolitik vollständig zu ihren Gunsten brechen wollte. Als Schröder darin nicht nachgeben wollte, verweigerte Frankreich seinen Beitritt beim wirtschaftlich für Deutschland wichtigen GATT-Vertrag. Beides konnte zwar durch Nachverhandlungen geregelt werden, hinterließ aber bei beiden Regierungen einen üblen Beigeschmack. Zur weiteren Verstimmung führte die Entführung von Antoine Argoud aus München nach Paris. Das Mitglied der OAS wurde höchstwahrscheinlich im Auftrage der französischen Regierung entführt, ohne dass die Bundesrepublik konsultiert oder auch nur informiert wurde. Schröder als ehemaligem Bundesinnenminister ging dieser Eingriff in die Souveränität der Bundesrepublik zu weit und er schrieb eine Protestnote an Frankreich. Gleichzeitig war Frankreich dabei, die Volksrepublik China anzuerkennen, wiederum ohne die die Bundesrepublik zu konsultieren, wie es der Deutsch-Französische-Vertrag eigentlich forderte. Schröders harte Haltung bei diesen Punkten wurde ihm von der Unionsfraktion negativ ausgelegt. Nicht nur der Kreis der "Gaullisten" um Adenauer, Guttenberg, Brentano und Krone versuchte, Schröder in Misskredit zu bringen, sondern auch Franz Josef Strauß nahestehende Kreise in der CSU. Einzig die französische Blockadehaltung der Politik des "leeren Stuhles" bei den EWG-Agrarverhandlungen brachte Schröder und seiner politischen Grundhaltung innerhalb der CDU wieder Auftrieb, da auch Gaullisten über diese Art der fast erpresserischen Politik enttäuscht waren. Persönlich erschwerend kam für Schröder hinzu, dass die Pariser Administration ihn auf seiner Visite am 9. Dezember 1964 überaus herablassend behandelte. Offiziell musste sein Flugzeug eine Parkposition abseits des Empfangshauses auf dem Flughafen Orly einnehmen, da der Luftverkehr zu diesem Zeitpunkt es nicht zuließ, dort zu parken, so dass man vor einem Acker halt macht. Schröders spontane Reaktion darauf war: "„Wir sind doch nicht hierhergekommen, um Kartoffeln auszubuddeln.“" Daraufhin erschien ein klappriger Air France-Bus, woraufhin sich Schröder weigerte, den Flieger zu verlassen. Erst das Eintreffen einer Limousine und das Zureden der Stewardessen überzeugte ihn, das Fahrzeug zu besteigen. Für den Besuch des Außenministers einer eng befreundeten Nation war dieser Vorfall im schlimmsten Grade peinlich. Einen weiteren Dämpfer erhielt das deutsch-französische Verhältnis durch de Gaulles einseitige Ankündigung eines Teilaustritts aus der NATO vom 21. Februar 1966. Frankreich wollte seine Streitkräfte im Ernstfall nicht mehr dem Oberbefehlshaber der NATO für Westeuropa unterstellen. Hintergrund dürfte die französische Angst gewesen sein, in den Vietnamkrieg hineingezogen zu werden. Diese einseitige Aktion wog umso schwerer, da bei ausführlichen Regierungsgesprächen, die Kanzler Erhard und Schröder wenige Wochen zuvor in Paris geführt hatten, die Bundesrepublik vertragswidrig nicht über den politischen Schritt informiert worden war. Schröder nahm daraufhin eine aggressive Verhandlungshaltung ein und stritt mit den Franzosen und dem eigenen Kabinett um den Verbleib der französischen Truppen in Deutschland. Seines Erachtens besaßen diese durch den Teilaustritt aus dem Verteidigungsbündnis mindere Rechte gegenüber den anderen NATO-Truppen auf deutschem Boden. Allerdings blieb Schröder unter dem Druck der eigenen Partei und des Kabinetts nicht lange hart und nahm bald eine versöhnlichere Haltung ein. Das Verhältnis zum Ostblock unter Erhard. Schon früh unter der Kanzlerschaft Erhards nahm der damals regierende Bürgermeister von Berlin, Willy Brandt, über seinen Intimus Egon Bahr Kontakt zur ostdeutschen Führung auf, um ein Passierscheinabkommen für die Weihnachtszeit 1963 für die West-Berliner Bevölkerung auszuhandeln. Solche außenpolitischen Eigenmächtigkeiten, die an eine Anerkennung der DDR grenzten, führten zu ersten Zerwürfnissen mit dem alten und zukünftigen Kanzlerkandidaten der SPD, denn der "Wandel durch Annäherung" wurde von Schröder nicht vertreten, er hoffte durch den Handel langsam die östlichen Diktaturen aufzuweichen. Eine weitere Annäherung an den Ostblock bahnte sich 1964 an, als der Schwiegersohn und engste Berater Nikita Chruschtschows, Alexei Iwanowitsch Adschubei, bei einem inoffiziellen Besuch der Bundesrepublik einen Staatsbesuch Chruschtschows noch im selben Jahr vereinbarte, der allerdings wegen dessen Sturz nicht mehr zu Stande kam. Ironischerweise ist Chruschtschows politischer Niedergang mit der Annäherungspolitik an die Bundesrepublik verknüpft, die er ohne Rücksprache mit seinem Politbüro eigenmächtig eingeleitet hatte. Diese politische Ausrichtung Schröders auf eine Annäherung mit Entspannung, wie sie der US-amerikanischen Linie entsprach, verschärfte den innerparteilichen Gegensatz zwischen Gaullisten und Atlantikern erheblich. Verschärft wurde diese Tatsache erheblich durch die Unterstützung dieser Politik durch die FDP und erst recht durch die SPD. Daher hofften viele CDU-Gaullisten Schröder nach der Bundestagswahl 1965 durch einen der ihren ersetzen zu können. Nach der gewonnenen Bundestagswahl 1965 konnte Schröder im Amt des Außenministers verbleiben. Er ließ bei den bundesdeutschen Diplomaten eine Umfrage zur Ost- und Entspannungspolitik durchführen. Einheitlicher Tenor der Diplomaten war, dass eine Entspannungspolitik zum Osten nur möglich sei durch Aufgabe der Hallstein-Doktrin, denn gerade Länder der Dritten Welt waren mehr als nur bereit, den zweiten deutschen Staat diplomatisch anzuerkennen. Gerade Wilhelm Grewe, der die Hallstein-Doktrin mit entwickelt hatte, setzte sich für eine Lockerung seines eigenen Werks ein. 1966 war es dann soweit, dass die Bundesregierung eine Friedensnote an alle Länder der Welt versendete mit Ausnahme der DDR. Das erste Mal wurde Adenauers „Politik der Stärke“ fallengelassen um den Ostblock-Staaten ein Gesprächsangebot und Friedenssignal zu senden. Diese Annäherung war zwar aus heutiger Sicht zaghaft, im damaligen politischen Geschehen der Bundesrepublik eine Sensation. Sein Amtsnachfolger Brandt ging in seinen Bemühungen der Entspannungspolitik weiter als Schröder, nutzte aber die von Schröder eingeleiteten Maßnahmen als Fundament seiner Ostpolitik. Schröder verfolgte diesen Weg mit erheblicher Verbitterung, da diese Schritte ihm von der eigenen Partei noch verwehrt wurden, jedoch in der großen Koalition sein Nachfolger die Erlaubnis dazu erhielt und Schröders Bemühungen mit der Zeit an Glanz verloren. Das Verhältnis zu Israel unter Erhard. Unter Adenauer begann die bundesdeutsche Diplomatie mit zarten Schritten auf den Staat Israel zuzugehen. Erster Punkt, der aus moralischer Notwendigkeit geboren wurde, war die Wiedergutmachung, die auch dem israelischen Staat pekuniäre Zuwendungen zukommen ließ. Mit weiterer Eingliederung der Bundesrepublik in die NATO und damit über die USA in strategischer Partnerschaft mit Israel wurden deutsche Rüstungsgüter zum Teil unter Herstellungspreis an Israel geliefert. Darunter die vom US-Verteidigungsminister Robert McNamara geforderten 150 Kampfpanzer (statt vorher 15, wie ursprünglich vereinbart) des Typs M48 aus bundesdeutscher Lizenzproduktion. Der Rüstungsdeal sollte unter allen Umständen geheim gehalten werden, um die arabischen Staaten, darunter gerade Ägypten nicht abzuschrecken oder gar zu provozieren. Trotz Schröders Veto, der dem israelischen Rüstungsgeschäft von vornherein sehr kritisch gegenüberstand, wurde das Panzergeschäft abgewickelt und kam über Indiskretionen an die Presse und damit an die Öffentlichkeit. Fast zeitgleich empfing der ägyptische Staatschef Nasser den DDR-Staatschef Walter Ulbricht wie einen Staatsgast in Kairo und Alexandria, was einer faktischen Anerkennung der DDR gleichkam sowie somit einem Bruch der Hallstein-Doktrin. Obwohl Israel im Vergleich zu seinen arabischen Nachbarn wenig wirtschaftlichen Kontakt zur Bundesrepublik unterhielt, entschied Bundeskanzler Erhard sich für Aufnahme von diplomatischen Beziehung zu Israel entgegen dem Ratschlag Schröders und seines Ministeriums. Schröder hatte die Befürchtung, dass dieser Schritt den Abbruch vieler diplomatischer Beziehungen mit der arabischen Welt zur Folge haben würde und somit diese Staaten sich der DDR als deutsche Alternative zuwenden würden; das hätte bedeutet, dass die DDR unweigerlich international an Reputation und Einfluss gewonnen hätte. Schröder hielt daher weiterhin an einer Nichtanerkennung der DDR fest, denn er erwartete von diesem Schritt der Anerkennung das Fallenlassen einer möglichen Wiedervereinigung Deutschlands. Erste gesundheitliche Probleme. Gerhard Schröders Gesundheit war in den Jahren zuvor nie ernstlich bedroht gewesen, jedoch stellte schon seine Schwester Marie-Renate, eine Humanmedizinerin, Anfang der sechziger Jahre eine sich verschlechternde, erhebliche und nicht beeinflussbare Herzarrhythmie bei ihrem Bruder fest. Anfang Oktober 1964 unterzog sich Schröder daher einer Operation zur Einpflanzung eines Herzschrittmachers. Er fiel durch den Genesungsprozess bedingt fünf Wochen aus, ließ sich jedoch weiter über den politischen Verlauf informieren. Diese Zeit verbrachte er zum größten Teil auf der Bühlerhöhe. Im April 1965 musste Schröder sich wieder einer Kur zwecks seiner Herzprobleme unterziehen, er wählte hierfür die Idylle am Tegernsee in Bayern. Die Zeit nutzte er ebenso, um die mit Bundeskanzler Erhard entstandenen Differenzen über die Israelpolitik der Regierung in privaten Gesprächen zu bereinigen, denn Erhard lebte privat am Tegernsee. Die Regierungsbildung 1965. Trotz des überragenden Sieges der Union, die knapp die absolute Parlamentsmehrheit verfehlte, war die Regierungsbildung sehr zäh, denn die FDP hatte bei der Wahl spürbare Verluste hinnehmen müssen, die CSU und ihre Politik war mit über 55 Prozent der bayrischen Wählerstimmen enorm bestätigt worden und gerade das Tauziehen um die Besetzung des Außenministeriums lähmte die Verhandlungen. Schröder wollte unbedingt weiterhin Außenminister der Bundesrepublik bleiben und setzte sich schon im frühen Verhandlungsstadium offensiv in Szene. Nachdem der Bundeskanzler an ihm festhalten wollte, setzten die gaullistischen Kreise um Adenauer, Krone, zu Guttenberg und Strauß alles daran, Schröder in Misskredit zu bringen. Man scheute sich nicht davor, den Bundespräsidenten Lübke mit Fingerzeig auf Schröders Privatleben und seine Affäre in Paris als ungeeignet für die eigene Sache einzuspannen. Letztendlich waren alle diese Versuche vergeblich, da Schröder durch den EAK, das Vertrauen des Bundeskanzlers und sein Erststimmenergebnis im Wahlkreis zu gut abgesichert war. Wiederum musste der Bundespräsident widerwillig einen Außenminister Schröder ernennen. Das Ende der Kanzlerschaft Erhards 1966. Durch den Verhandlungsmisserfolg über die Stationierungskosten der US-amerikanischen Truppen war Bundeskanzler Erhard gezwungen den Bundeshaushalt über Steuererhöhungen zu sanieren. Die Bundesminister der FDP reichten daraufhin ihren Rücktritt ein, so dass Erhard keine Mehrheit mehr im Bundestag hatte. Das rechtlich nicht bindende "Vertrauensfrage-Ersuchen" der SPD-Fraktion vom 8. November 1966, das mit den Stimmen der FDP beschlossen worden war, nötigte den Parteivorstand auf seiner Sitzung am selben Tag, Erhard den Rücktritt nahezulegen. Schröder verhielt sich gegenüber anderen CDU-Kabinettskollegen bis zum Schluss loyal gegenüber Ludwig Erhard. Das zweite Mal möglicher Kanzlerkandidat 1966. Auf der Parteivorstandssitzung vom 8. November 1966 schlug der Ministerpräsident von Rheinland-Pfalz Helmut Kohl mehrere Mitglieder dieses Gremiums zu Kandidaten der fraktionsinternen Abstimmung über den Kanzlerkandidaten vor. Es waren Eugen Gerstenmeier, Kurt Georg Kiesinger, Rainer Barzel und Gerhard Schröder. Alle bis auf Gerstenmeier erklärten ihre Bereitschaft sich der Abstimmung zu stellen, Gerstenmeier wollte nicht gegen Kiesinger kandidieren und empfahl diesen zu wählen. Schröder war in der internen Abstimmung der CDU/CSU-Fraktion über ihren Kanzlerkandidaten im dritten Wahlgang Kiesinger mit 81 zu 137 Stimmen (bei 26 Stimmen für Rainer Barzel) unterlegen. Der Atlantiker-Gaullisten-Streit hatte in der Union starke Spannungen ergeben, die für seine Niederlage in der Kanzlerkandidatenabstimmung der Unionsfraktion mitverantwortlich waren. Franz Josef Strauß versagte dem Protestanten Schröder gegenüber die Unterstützung der entscheidenden Stimmen der CSU in der gemeinsamen Fraktion. Ebenso negativ für ihn war, dass Rainer Barzel auch aus dem nordrhein-westfälischen Landesverband kam und so Schröder auch Stimmen entzog. Trotzdem war Schröder ohne die CSU-Stimmen intern in der CDU-Fraktion der Kandidat mit den meisten Stimmen, so dass Kiesinger bei der Regierungsbildung Schröder einen Ministerposten anbieten musste. Schröder war im Kabinett nun der dienstälteste Minister der amtierenden Bundesregierung. Amtsantritt. Als bei der Bildung der Großen Koalition die SPD das Amt des Außenministers für ihren Vorsitzenden Willy Brandt beanspruchte, wurde Schröder am 1. Dezember 1966 im Kabinett Kiesinger Bundesminister der Verteidigung. Kiesinger hätte gerne auf Schröder am Kabinettstisch verzichtet, musste ihn aber mit einem weiteren Amt bedenken, da Schröders Stellung in der CDU immer noch sehr stark war. Schröder selbst sah dies als einen Abstieg gegenüber dem Außenministerium an. Schröder nahm ins Bundesverteidigungsministerium ein paar loyale Mitarbeiter mit, allen voran seine Sekretärin Frau Naphus und seinen Staatssekretär Carstens. Den Generalinspekteur der Bundeswehr Ulrich de Maizière beließ er im Amt und harmonierte schnell mit ihm. Schwerer wog für ihn der relativ schnelle Abgang von Carstens zu Kiesinger als dessen Kanzleramtschef. Carstens' Nachfolger wurde der ehemalige Bundespressesprecher und aktive Reserveoffizier Karl-Günther von Hase. Amtsführung. In seiner Amtszeit wurden einige wichtige verteidigungspolitische Entscheidungen getroffen, so konnte unter anderem die hohe Absturzquote der Starfighterflotte drastisch herabgesetzt werden, was vor allem Johannes Steinhoff als Inspekteur der Luftwaffe zu verdanken ist. Ferner wurde in Absprache mit dem britischen Amtskollegen Denis Healy von Schröder der Grundstein für ein europäisches Kampfflugzeugprojekt gelegt, aus dem später der Tornado hervorgehen sollte. Ebenso war Schröder als Verteidigungsminister darauf bedacht, dass das Projekt einer gemeinsamen Koordinierung der Atomwaffen des NATO-Bündnisses wieder aufgenommen wurde, nachdem die Multilateral Force gescheitert war. Daher unterstützte er die Gründung der Nuklearen Planungsgruppe. Das gespannte Verhältnis zu Kiesinger. Schröder betrachtete sich in der damaligen Situation als "Reservekanzler" der CDU bei einem Scheitern der großen Koalition, der er wenig Chancen auf Erfolg gab. Kiesingers reservierte Haltung gegenüber Schröder zeigte sich auch daran, dass der Kanzler in seinen Urlaubsort Kressbronn am Bodensee sehr oft die Entscheidungsträger der Koalition einlud, um zwischen den Gruppierungen besser vermitteln zu können, Schröder aber nur einmal eingeladen war und damit weniger als jeder andere Bundesminister. Beim Haushaltsentwurf des neuen Finanzministers Strauß hätte die Bundeswehr die größten pekuniären Einschnitte hinnehmen müssen, wogegen sich Schröder offen wehrte. Kiesinger reagierte durch Konsultationen mit den pensionierten Generälen Speidel und Heusinger, die an Schröder wie an seinem Generalinspekteur Kritik übten und die Kürzungen des Finanzministeriums akzeptierten. Zu einem Eklat kam es, als der Kanzleramtschef zu Guttenberg den Inspekteur des Heeres Josef Moll zum Vortrag beim Kanzler lud, ohne Schröder als Minister zu informieren. Daraufhin drohte Schröder mit seinem Rücktritt. Letztlich wurde beschlossen, dass solche Konsultationen des Regierungschefs nur unter Hinzuziehung des Ministers stattfinden sollten. Bei der Einführung der Notstandsgesetze war Schröder das einzige Kabinettsmitglied, das dagegen votierte, denn die Regierungsentwürfe gingen ihm nicht weit genug, er hielt an seinen Entwürfen als Bundesinnenminister fest. Weitere gesundheitliche Probleme. Am 29. August 1967 stürzte er aufgrund von Herzrhythmusstörungen und Bewusstseinstrübung auf der Treppe seines Ferienhauses "Atterdag" auf Sylt und wurde per Rettungshubschrauber ins Universitätsklinikum Hamburg-Eppendorf geflogen. Schröder erholte sich nie ganz davon, sein Gedächtnis verließ ihn des Öfteren, seine Stimme blieb seitdem schleppend. Ferner wurde sein Gesundheitszustand zusehends zu einem Politikum, wenn er für höhere Ämter vorgeschlagen wurde und seine Gegner auf seine schwache Gesundheit verwiesen. Bundespräsidentschaftskandidat 1969. Im Vorfeld der Bundespräsidentenwahl 1969 wurde Schröder früh als geeigneter Kandidat der Unionsparteien angesehen. In der CDU regte sich allerdings Widerstand von Seiten Kiesingers und weiterer Schröder-Gegner, die auch über Helmut Kohl den damals noch ziemlich unbekannten Richard von Weizsäcker ins Spiel brachten. In der entscheidenden parteiinternen Abstimmung setzte sich Schröder mit 65 zu 20 Stimmen klar gegen seinen Konkurrenten durch. Die SPD nominierte seinen Kabinetts-Kollegen im Justizministerium Gustav Heinemann. Das bewirkte eine gewisse Polarisierung, standen sich doch ein ehemaliges Mitglied der Bekennenden Kirche, somit ein ausgewiesener Gegner der NS-Diktatur, und, was wieder in den Fokus der Öffentlichkeit gerückt wurde, ein früheres Mitglied der NSDAP und der SA einander gegenüber. In den nun folgenden Monaten vor der Wahl versuchten sowohl Heinemann als auch Schröder die damals auf Bundesebene in Opposition stehende FDP, auf deren Stimmen es höchstwahrscheinlich ankommen würde, für sich zu gewinnen. Am Morgen des Wahltages informierte der FDP-Vorsitzende Walter Scheel Schröder darüber, dass die FDP mehrheitlich Heinemann wählen werde. Bei der Wahl selbst unterlag Schröder Heinemann im dritten Wahlgang mit 506 zu 512 Stimmen. Gewählt wurde er wohl auch von 22 Mitgliedern der Bundesversammlung, die von der NPD entsandt worden waren, einige Stimmen für ihn dürften auch von der FDP abgegeben worden sein. Mit diesem Ergebnis zeichneten sich der Machtverlust für die seit 1949 regierenden Unionsparteien und eine neue Mehrheit für eine sozialliberale Koalition bereits ab. Nach der aktiven Politik 1980–1989. Schröder unterhielt in den Jahren nach seiner aktiven politischen Tätigkeit einen privaten Diskussionskreis von ehemaligen Politikern, Diplomaten und Wirtschaftsfunktionären, die über die globalen Probleme der neuen Zeit philosophierten, jedoch politisch nicht mehr ins Tagesgeschäft eingriffen. Er hielt in diesem Kreis die Politik der Reagan-Administration für gut, da seiner Meinung nach im Westen wieder Stärke bewiesen wurde, und befürwortete das SDI-Programm. Sein letzter Auftritt im Bundestag war am 17. Juni 1984, als er die Festrede der Gedenkveranstaltung zum 17. Juni 1953 hielt. Schröder starb am 31. Dezember 1989 in seinem Haus auf Sylt. Nach seinem Tode ehrte ihn der Deutsche Bundestag am 12. Januar 1990 mit einem Staatsakt im Plenarsaal. Dabei sprach der damalige Bundeskanzler und CDU-Vorsitzende Helmut Kohl. Gerhard Schröder wurde auf dem Friedhof der Inselkirche St. Severin in Keitum auf Sylt beigesetzt. Privates. Schröder hatte eine preußische Erziehung und hielt zu den meisten Menschen einen unterkühlten Abstand. Bis zu seinem Ausscheiden aus dem Bundestag 1980 duzte er sich mit keinem Mitglied der CDU/CSU-Bundestagsfraktion. 1960 baute sich Schröder auf der Nordseeinsel Sylt im Ort Kampen in der Südwestheide ein Ferienhaus, das er "Atterdag" nannte. Atterdag ist Dänisch und bedeutet „neuer Tag“, war aber auch der Beiname des dänischen Königs Waldemar IV. Hier unterhielt er zu damals einflussreichen Personen der Gesellschaft und Wirtschaft enge Beziehungen, wie etwa zu Berthold Beitz. Auf Sylt lernte Schröder auch den Maler Albert Aereboe kennen, der dort lebte und arbeitete und von dem er sich porträtieren ließ. Durch Aereboe wurde sein Interesse an moderner Kunst geweckt. Schröder war ehrenamtlicher Präsident der Deutschen Gesellschaft für Photographie. Verhältnis zur Presse. Das anfangs gute Verhältnis zum Verleger Rudolf Augstein wurde durch einen negativen Artikel im Spiegel über Schröder als Innenminister hoffnungslos zerrüttet, obwohl Augstein in den ersten Jahren Schröder als potentiellen Kanzlerkandidaten sah. Zum Chef des Springer-Verlages Axel Springer konnte er nie ein gutes Verhältnis entwickeln, zeitweise wurde er in dessen Bild-Zeitung hart angegriffen, wie etwa am 23. März 1965 mit der Schlagzeile "Minister Schröder - der Versager des Jahres". Man geht heute davon aus, dass Springer ein Gegner von Schröders "Berlin-Politik" war, den gaullistischen Kräften in der CDU/CSU näher stand und ebenso mit Schröders Israelpolitik nicht einverstanden war, denn die Freundschaft zu Israel gehörte zum Kern der Ausrichtung des Springer-Verlages. Trivia. Am 10. Oktober 1987 sollte es auf WDR 2 ein Interview mit dem damaligen SPD-Oppositionsführer des niedersächsischen Landtages Gerhard Schröder über die geplatzte Rot-Grüne Koalition in Hessen geben. Durch einen Fehler hatten die Moderatoren nicht den SPD-Politiker per Telefon zugeschaltet bekommen, sondern Gerhard Schröder von der CDU, der aber ebenso irritiert war wie die Moderatoren. Die Sendung konnte trotzdem gerettet werden, da Gerhard Schröder auch zu diesem Thema seine Sicht der Dinge vortragen konnte. Harmonie. Schwäne, Symbol und Metapher für Harmonie Der Begriff „Harmonie“ wird in der Regel dort verwendet, wo man neben einer bestimmten Regelmäßigkeit in der Anordnung einzelner Objekte bzw. ihrer Teile noch einen Sinn, eine Wertbezogenheit anzumerken glaubt. Begriffsgeschichte. Bei der Herausbildung des Begriffs in der Antike bezog sich „Harmonie“ auf Erscheinungen der Symmetrie. Der Harmoniebegriff wurde zunächst von den Pythagoreern in den Mittelpunkt philosophischer Betrachtungen gestellt. Man sah die Harmonie in der schönen Proportion als Einheit von Maß und Wert. Diese These, zunächst mit mathematischen Erkenntnissen und mit der Harmonie der Töne gestützt, wurde ins Mystische extrapoliert. So wurde behauptet, die Bewegung der Himmelskörper folge bestimmten harmonischen Zahlenverhältnissen und bewirke eine (unhörbare) „Sphärenmusik“. Heraklit versuchte, den Begriff „Harmonie“ dialektisch als Einheit der Gegensätze zu fassen: „Das Widerstrebende vereinige sich, aus den entgegengesetzten (Tönen) entstehe die schönste Harmonie, und alles Geschehen erfolge auf dem Wege des Streites.“ Auch Platon stützte sich auf den Harmoniebegriff als Beleg seiner Ideenlehre. So entwickelte er Gedanken von den „Atomen“, die aus Dreiecken bestehen, von der Harmonie des Kosmos, der Töne u. a. und übertrug sie auch in die Staatslehre. Besonders die antike Medizin knüpfte an diese naturphilosophische Harmonie an. Sie leitete aus dem harmonischen Mischungsverhältnis von Körpersäften Gesundheit und aus einer Unausgewogenheit Krankheit ab. Die galenische Temperamentenlehre übertrug diese Theorie außerdem auf den menschlichen Charakter. Zahlen, die in einer harmonischen Proportion stehen, müssen die Gleichung (a – b): (b – c) = a: c erfüllen. (Siehe auch Goldener Schnitt) Boethius weist der "musica mundana" die dominierende Rolle zu. Der Mensch hat die Pflicht, diese zu erkennen und selbst ein geregeltes Leben zu führen. Die mittelalterliche Astronomie bemühte sich, mit dem Modell von harmonisch aufeinander abgestimmten Sphärenbewegungen eine Erklärung der Himmelsbewegungen zu geben. Zur Anwendung in der Geschichte. In der Lehre des Thomas von Aquin (* um 1225–1274) wird die Seele nach dem Tod vom Leib getrennt und besteht weiter ("Anima forma corporis"). Johannes Kepler (1561–1630) legte seinen astronomischen Forschungen die Vorstellung der Existenz einer „Sphärenharmonie“ zugrunde. Eines seiner Hauptwerke trägt den Titel „"Harmonice mundi"“ (1619). Als überzeugter Kopernicaner geht Kepler der Frage nach, welche Zusammenhänge zwischen den Planetenbewegungen und den harmonischen Verhältnissen bestehen, wie sie aus der Musik und Geometrie geläufig sind. Marin Mersenne gab in seiner Schrift „Harmonie universelle“ (1636) eine physikalische Begründung des musikalischen Tonsystems. Die Harmonie bis Leibniz basierte auf der Forderung der Existenz eines Systems, das aus miteinander nicht wechselwirkenden Elementen besteht. Mit der Entwicklung eines neuen Systembegriffs, vor allem des der Newtonschen Physik, wurde die materielle Wechselwirkung Voraussetzung für die Existenz von Systemen. Damit büßte die Harmonie ihren ursprünglichen bedeutenden Einfluss auf die Naturauffassung ein. In Gestalt der Lehre von den „Wahlverwandtschaften“ als Basis der chemischen Verbindungen blieb sie jedoch noch bis ins 19. Jahrhundert hinein von Einfluss. In Leibniz' (1646–1716) Lehre von der „universellen Harmonie“ kommt die Auffassung von der durchgängigen Gesetzlichkeit der Welt zum Ausdruck. Zur Lösung des spezifischen Problems der Bestimmung des Verhältnisses von Leib und Seele führte Leibniz den Begriff der „prästabilierten Harmonie“ von Leib und Seele ein: Leib und Seele sollen wie zwei voneinander unabhängig gehende Uhren miteinander harmonieren. Georg Wilhelm Friedrich Hegel (1770–1831) bezeichnete mit Harmonie eine bestimmte Phase des dialektischen Widerspruchs, und zwar jene, in dem sich das qualitativ Verschiedene nicht nur als Gegensatz und Widerspruch darstellt, sondern „eine zusammenstimmende Einheit“ bildet. Innerhalb seiner Lehre von den Maßverhältnissen definierte Hegel die in den musikalischen und chemischen Verhältnissen auftretenden Harmonien als „ausschließende Wahlverwandtschaften, deren qualitative Eigentümlichkeit sich aber ebenso sehr wieder in die Äußerlichkeit bloß quantitativen Fortgehens auflöst“ (in: Wissenschaft der Logik). Doch auch hier wird das Harmoniekonzept schließlich von der Analyse der konkreten chemischen Wechselwirkungen verdrängt. Eine große Rolle spielte und spielt der Harmoniebegriff schließlich in den Bemühungen der Biologie bzw. Taxonomie, ein geschlossenes System von Arten, Gattungen u. a. der Lebewesen in der Botanik und Zoologie zu begründen. Besonders für die Verfasser der „Verwandtschaftstafeln“ von Lebewesen sowie für die Anhänger von „natürlichen Systemen“ in der Taxonomie ist der Harmoniegedanke ein Leitprinzip. Methodologie und theoretische Funktion. In den Naturwissenschaften wurde der Begriff durch Begriffe wie Symmetrie, Ganzheit, System, Strukturgesetz u. a. ersetzt. Eine Bedeutung hat der Begriff der Harmonie als heuristisches Prinzip, wenn damit die Aufforderung verstanden wird, in der Vielfalt von objektiven Merkmalen und Beziehungen nach Strukturgesetzen zu suchen. Neben dieser methodologischen Funktion des Begriffs der Harmonie und seiner nahezu theoretischen Unbrauchbarkeit in den Naturwissenschaften kommt ihm jedoch in jenen Wissenschaften eine positive theoretische Funktion zu, in denen die Subjekt-Objekt-Dialektik selbst Gegenstand der Wissenschaft ist, in denen Werte und Normen als Faktoren der vom Menschen gestalteten oder zu gestaltenden Objekte untersucht werden. Harmonie bedeutet dann vor allem, "Gestalt und Funktion aller Teile eines Ganzen so abzustimmen, daß die Funktion der jeweils anderen Teile und vor allem die Funktion des Ganzen maximal befruchtet werden." Heute hat der Begriff der Harmonie seine Relevanz in der Ästhetik, den Kunstwissenschaften (Musik, Baukunst, Malerei), in der Pädagogik ("die allseitig entwickelte Persönlichkeit") u. a. Hilfe. Hilfe im Sinne der "Hilfsbereitschaft" ist ein Teil der Kooperation in den zwischenmenschlichen Beziehungen. Sie dient dazu, einen erkannten Mangel oder eine änderungswürdige Situation oder einer Notlage zu verbessern. Der Hilfe geht entweder eine Bitte des Hilfebedürftigen oder eine von ihm unabhängige Entscheidung durch Hilfsbereite voraus. Die Feststellung über das Ausmaß der Hilfebedürftigkeit und der geeigneten Hilfsmittel kann zwischen den betroffenen Parteien kaum bis stark differieren. Dabei kann die Situation sowohl über- als auch unterschätzt werden. Ursachen sind meistens in der Kompetenz des Helfenden, aber auch in der Urteilskraft des Hilfebedürftigen zu suchen. So kann etwa die Urteilskraft eines schwer kranken Menschen ebenso stark geschwächt sein wie sein Allgemeinzustand. Im Gegenzug kann der Helfende der Situation nicht oder nicht ausreichend gewachsen sein. Hieraus wird deutlich, dass ein „Anspruch auf Hilfe“, wie er in den meisten Gesellschaften als ein selbstredendes „ungeschriebenes Gesetz“ betrachtet wird, nicht gleichbedeutend mit „Anspruch auf Besserung“ ist. Schließlich gibt es zu viele subjektive Störfaktoren, die einer effektiven Hilfe im Wege stehen können. In den traditionellen und erfahrenen helfenden Berufen (Heilberufe, Gesundheitsberufe) hat sich daher die „Hilfe zur Selbsthilfe“ als ein effektives und realistisches Konzept durchgesetzt. Ethische, moralische und religiöse Grundlagen. Viele Menschen betrachten Hilfe nicht nur als natürliche Pflicht, sondern als eine aus ihrem Glauben folgende Aufgabe. Hier folgt das Gewissen eher einer gesellschaftsunabhängigen Instanz. Nicht wenige Hilfsangebote werden von religiösen Institutionen oder besonderen weltanschaulichen Splittergruppen getragen. Einige von ihnen verbieten ihren Anhängern aber gesellschaftlich vereinbarte und tradierte Hilfsangebote. Hilfe als systemerhaltender Faktor. Hilfe ist besonders dann eine gewollte Kooperation, wenn sie das Fortbestehen eines Systems fördert. Diese als Symbiose bekannte Kooperation (Koexistenz) gleicht durch Wechselwirkung einen „allein nicht überwindbaren“ Mangel aus, ohne dabei direkt Bedingungen an dieses Handeln zu knüpfen. Hier besteht eine unmittelbare Abhängigkeit, die man als „Hilfe zum Selbsterhalt“ bezeichnen kann, denn sie entspringt weder einer Konvention noch einem Gewissen. Allerdings ist auch hier die gegenseitige Hilfe keine Garantie zum Fortbestand. Sowohl veränderte äußere Umstände als auch immanente Wandlungen können das System zwingen, sich aufzulösen. Bei mehreren Systemen untereinander wird diese Problematik etwas entschärft. Es liegt in der Natur der Systeme, dass sie benötigte Hilfsmittel (Aktivitäten, Ressourcen, Energie usw.) bereitstellt. Das helfende System transferiert also in das betroffene System. Daraus folgt, dass im Hilfe-System ein Ausgleich geschaffen werden muss für die abgegebenen Leistungen. Sonst würde sich dieses durch weitere derartige Kooperation aufzehren. Damit ist diese besondere (unbalancierte) Situation auch für das Hilfe-System belastend. Unter Umständen bedarf es sogar in der Folge selbst der Hilfe (siehe auch: Helfersyndrom). Je nach dem Grad der Notsituation ist somit eine daran ausgerichtete Vernetzung oder Verkettung von vielen sich jeweils sichernden und ergänzenden Hilfestellen notwendig. Umgekehrt kann man jedes (vernetzte) System auch als sich in gegenseitiger Hilfe befindliche Instanzen sehen, die das Fortbestehen des Ganzen garantieren. Arten und Formen der Hilfe. Mit "Art" ist gemeint, welchen Zweck die Hilfe verfolgt. Die Form (in Klammern) sagt aus, wer oder was die Hilfe leistet, bzw. woraus sie besteht. Die häufigsten Formen sind Geld, Nahrung und Kleidung. Sie werden nicht mehr extra erwähnt. Hybrid. Das Substantiv Hybrid und das Adjektiv hybrid beziehen sich auf etwas Gebündeltes, Gekreuztes oder Vermischtes. Diese griechischstämmigen Begriffe – abgeleitet von ὕβρις "hýbris", "Übermut, Anmaßung" – haben über das Lateinische "hybrida", "Bastard, Mischling, Frevelkind" ihren Weg in u. a. in die englische und deutsche Sprache gefunden. Jüngeren etymologischen Studien zufolge sind die weitläufig mit dem Begriff der Hybridität verbundenen negativen Konnotationen des griechischen Wortstammes ὕβρις nicht den homerischen Epen entlehnbar, sondern erfuhren ihren Bedeutungswandel erst später in der sprachlichen Entwicklung des Altgriechischen: stattdessen legt die dortige Verwendung des Wortes eine wertneutrale Bedeutung im Sinn von "Kraft" nahe, Verwendung. Energiegewinnung für eine Straßenlaterne aus Wind und Lichtenergie Innovationspotenzial im Verbund von Wissenschaft, Wirtschaft und Kultur. Hybridität, verstanden als „Kraft“ und erzeugt durch die Strategie der gezielten Bündelung, wird im internationalen und nationalen Interaktionsfeld von Wissenschaft, Wirtschaft und Kultur zunehmend zu einer zukunftsweisenden Suche nach neuen Methoden und Formen der Ausgestaltung von Kooperation, Interaktion, Kreativität und Produktions- sowie Distributionsprozessen. Reine Auftraggeber-Auftragnehmer-Beziehung überschreitend entstehen neue Interaktionsräume und Innovationspotenziale. „Hybrid Plattform“ – Pilotprojekt zur Förderung transdisziplinärer Forschung. Die "Hybrid Plattform" (Eigenschreibweise mit fehlendem Bindestrich) ist ein gemeinsames Projekt der Universität der Künste Berlin und der Technischen Universität Berlin (TU Berlin) und bietet Wissenschaftlern und Experten verschiedener Fachrichtungen Raum für transdisziplinäre Zusammenarbeit. Seit 2011 unterstützt sie die Realisierung gemeinsamer Projekte mit Partnern aus Lehre, Forschung und Industrie. Sie wird vom Europäischen Fonds für regionale Entwicklung gefördert. Im Verlauf hybrider Kooperationsformen entstehen sowohl Innovations- als auch Konfliktpotenziale. Wie diese für die gemeinsame Zielsetzung nutzbar gemacht werden können, ergründete 2013 bis 2014 eine die Hybrid Plattform evaluierende Begleitforschung, die in der Abteilung "Kulturelle Quellen von Neuheit" am Wissenschaftszentrum Berlin für Sozialforschung (WZB) entstand. Technik. Allgemein versteht man in der Technik unter Hybrid ein System, bei welchem zwei Technologien miteinander kombiniert werden. Die vorangestellte Bezeichnung "Hybrid-" betont ein aus unterschiedlichen Arten oder Prozessen zusammengesetztes Ganzes. Die Besonderheit liegt darin, dass die zusammengebrachten Elemente für sich schon Lösungen darstellen, durch das Zusammenbringen aber neue erwünschte Eigenschaften entstehen können. Auch wenn das Zusammenbringen verschiedener Subsysteme geradezu ein Prinzip von Systemen ist, meiden Systeme eher solche Hybrid-Lösungen. Denn das Hybridartige bedeutet, dass Doppel- oder Mehrfachlösungen für die gleiche Funktion eingesetzt werden, die einen jeweils unterschiedlichen inneren Aufbau besitzen. Systeme sichern ihr Fortbestehen jedoch eher aus 1. der Mehrfachverwendung gleicher Teile für die gleiche Funktion (Redundanz) oder 2. das Zusammenfügen unterschiedlicher Subsysteme zu unterschiedlichen Zwecken. Strukturbauteile. In Kraftfahrzeugen werden Stoßfänger aus einer Kombination von Kunststoff (glasfaserverstärktes Polyamid) und Metallen (Stahl oder Aluminium) hergestellt. Die Hybridbauweise ermöglicht einerseits die rationelle Fertigung komplexer hochbelastbarer geometrischer Strukturen, andererseits eine Gewichtsersparnis, im Fall von Stoßfängern ein besseres Fahrverhalten durch optimierte Gewichtsverteilung des Fahrzeugs. Die unterschiedlichen Werkstoffe werden beispielsweise durch Hybridfügen, der Kombination mehrerer Fügeverfahren (Beispiel: Punktschweißkleben) gefügt. Antriebe und Motoren. Hybride Antriebssysteme bestehen aus einer Kombination von mindestens zwei verschiedenen und getrennten Energiespeicher- und Antriebssystemen. Historische Jahrestage. Diese Liste zeigt eine tabellarische Anordnung der Wikipedia bekannten historischen Jahrestage. Historische Jahrestage. Historische Jahrestage bezeichnen Tage mit historischer Bedeutung,- oder Bezug. Ein historisches Ereignis ist eine Begebenheit, die eine geschichtliche Veränderung verursacht hat. Jeder Tag im Jahr hat den Status eines historischen Jahrestages. Der Kalender der historischen Jahrestage hilft bei der Suche nach bestimmten Gedenktagen, Geburtstagen und historischen Ereignissen. Weblinks. Jahrestage, historische Heidentum. a>, eine heidnische Kultstätte in England Heidentum oder Paganismus (von lat. "paganus" ‚heidnisch‘; lat. "pagus" ‚Ort‘) beschreibt als religionswissenschaftliche Kategorie, innerhalb christlich geprägter Kulturen, den Zustand des Nicht-zum-Christentum-bekehrt-Seins. In der historischen Forschung wird "Heidentum/heidnisch" und "Pagane/pagane Kulte" bezogen auf die Antike und das Mittelalter wertneutral benutzt, um damit Anhänger verschiedener Götterkulte von Christen, Juden, Zoroastriern und Manichäern zu unterscheiden, ohne dass damit eine Abwertung vorgenommen wird. Hintergrund. Zu Zeiten des frühen Christentums, das sich aus einer innerjüdischen Sekte, dem Judenchristentum, in das Heidenchristentum differenzierte, galten die Abweichler und Anhänger der paulinische Theologie und Mission, vergleichbar selbst als eine Art "Heiden". Später, innerhalb des frühmittelalterlichen Christentums, diente der Begriff dann zunächst als einfaches Unterscheidungsmerkmal der aus dem Judentum bekehrten Judenchristen von den nicht-jüdischen Heidenchristen. Seit dem europäischen Mittelalter wurde er vornehmlich aus der Sicht monotheistischer, missionierender Religionen, Christentum und Islam, häufig abwertend für religiöse Gegner außerhalb der eigenen Tradition gebraucht. In der konkreten christlich-missionarischen Auseinandersetzung und Gewalt ist der Begriff vor allem in den nordischen Kulturen bereits sehr früh als abgrenzende Selbstbezeichnung, als zur eigenen heimischen Kultgemeinde gehörend, nachweisbar. Heidentum kann als Selbst- und Fremdbezeichnung auch die Wiederbelebung alter Religionen in der Gegenwart bedeuten. In diesem Fall wird der Begriff synonym zum präziseren Neopaganismus (Neuheidentum) verwendet. Die jüdische Tradition hat vergleichbar den abgrenzenden, nicht abwertenden hebräischen Begriff "ger" (‚aus den Völkern‘), was etwa Nichtjude bzw. Ausländer bedeutet. Die islamische Tradition hat vergleichbar den abgrenzenden arabisch-islamischen Rechtsbegriff Kāfir, der Ungläubige oder „Gottesleugner“ bezeichnet. Etymologie. Es gibt verschiedene Theorien über die Etymologie des Wortes "Heide". Die Bildungen "heiþna, haiþina" werden als sehr alte Bildungen eingestuft. Früher wurde das Wort als Lehnübersetzung zu "paganus" betrachtet. Dieses Wort ist aber erst in der zweiten Hälfte des 4. Jahrhunderts aufgekommen, als das Suffix -ina nicht mehr verwendet wurde. Zur angenommenen Zeit der Entstehung des Wortes "Heiðinn" als „Heide“ wurde im Lateinischen aber das Wort "gentiles" für „Heiden“ verwendet. Der Indogermanist Wilhelm Schulze knüpfte an das armenische Wort "hethanos" (Lehnwort aus dem Griechischen: ἔθνος (éthnos)) an, das über komplizierte Veränderungen im Gotischen ans Germanische weitergegeben worden sei. "Jost Trier" hat die „Heide“ als Allmende identifiziert und etymologisch mit "heimr" ‚Welt, Heimat‘ verbunden. So kommt er zur Bedeutung von „heiðinn“ als „zur eigenen heimischen Kultgemeinde gehörend“. Erst die vordringende christliche Missionierung, auch Zwangsmissionierung, führte zu einer gewissen Abwertung im Sinne von „primitiv“, die bis heute vorsticht. Begriff. In der christlichen Tradition dient der Begriff "Heide" als Sammelbezeichnung für die jeweils anderen, also diejenigen, die außerhalb der eigenen christlich-trinitarischen Traditionen stehen. Der Begriff diente ursprünglich als polemische Kategorie zur Abwertung des "anderen", dem die Zugehörigkeit zu einer Religion abgesprochen wird. Eng verknüpft ist damit die Vorstellung der "falschen Religion". Je nach Kontext kann deshalb "Heide" und "Heidentum" unterschiedliche Bedeutung annehmen. Zeitweise wurden als Heiden alle "anderen" außerhalb des Christentums benannt, im Zuge der Reformation und der Konfessionalisierung auch die jeweils andere Konfession als heidnisch bezeichnet. Der semantische Gehalt des germanischen Wortes "Heide" überlappt sich dabei mit der Bedeutung des lateinischen "paganus", des Landbewohners, der im begrifflichen Gegensatz zum Stadtbewohner steht. Religionen außerhalb der großen Weltreligionen, die früher in christlichem Verständnis und Hochschultradition unter Heidentum gefasst wurden, nennt man heute indigene Religionen (siehe auch Animismus). Geschichte. a>“, Notgeldschein (eine Mark), Sparkasse Verden, 1921. In jüdischen Schriften wird einerseits zwischen dem Volk Israel und den "Gojim" (Einzahl "Goj") unterschieden, was in der Septuaginta mit ΕΘΝΟΣ ("ethnos" = ‚Volk‘), in der Vulgata mit "gentes" (= ‚Stämme, Völker‘) übersetzt wurde, andererseits werden aber beide Ausdrücke auch häufig (z. B. Genesis 35,11) als Selbstbezeichnung verwendet. Diese Ambivalenz in der Verwendung findet sich auch noch im Neuen Testament, mehrheitlich sind aber die Anhänger des griechischen und römischen Polytheismus gemeint, in einigen Fällen auch die zum Christentum bekehrten Nichtjuden. Es wird unterschieden zwischen "Judenchristen" (zum Christentum bekehrten Juden) und "Heidenchristen" (zum Christentum bekehrten Anhängern anderer Religionen). Paulus bezeichnete sich selbst als Apostel der Heiden (Nationen), weil er sich beauftragt sah, Nichtisraeliten zu lehren und zu verkündigen. Traditionell wurden die Paganen (Heiden) von den Anhängern monotheistischer Religionen pauschal als "Ungläubige" betrachtet und behandelt. Die jüdische, christliche und islamische Ablehnung des Heidentums richtete sich zunächst vor allem gegen den griechischen und römischen Polytheismus, im Zuge der Mission unter anderem auch gegen das germanische, keltische, slawische, baltische und indianische Heidentum. Als Ende des klassischen Heidentums kann daher jeweils die Entwicklung beziehungsweise die Einführung des Christentums oder des Islam als Volks- oder Staatsreligion angesehen werden, unbeschadet der in den regionalen Übergangszeiten entstandenen Formen des Synkretismus, also der Mischung von religiös-kultischer Tradition und akkommodierten christlichen Inhalten, Riten und Kulten. Obwohl das Christentum im späten 4. Jahrhundert (also nach der konstantinischen Wende im frühen 4. Jahrhundert) zur Staatsreligion des Römischen Reiches wurde und in der Folgezeit versucht wurde, viele "heidnische" Bräuche zu christianisieren, lassen sich noch die ganze Spätantike hindurch heidnische oder zumindest synkretistische Überzeugungen und Praktiken finden. Um 400 nahm aber die Zahl der Anhänger paganer Kulte spürbar ab, zumal auch Christen die kulturellen Traditionen (so die klassische Bildung) betonten. Später wurde im Christentum das Heidentum außerhalb der eigenen Kultur lokalisiert, häufig als Aberglaube abgetan oder als Aufgabe zur Missionierung gesehen, wenngleich die zwangsweise Christianisierung offiziell und auch von verschiedenen christlichen Gelehrten im Mittelalter abgelehnt wurde. Der Islam unterschied ebenfalls von Beginn an zwischen den Religionen des Buchs (Christentum und Judentum), denen ein „eingeschränktes Wissen“ und eine untergeordnete Toleranz zugestanden wird, und den Ungläubigen, die missioniert werden sollten. Anhänger polytheistischer Religionen besitzen nach der Scharia bis heute keinen Rechtsstatus und genießen keinen Schutz. Dagegen konzentrierte sich innerhalb des Christentums der Begriff "Heide" während der Kreuzzüge fast ausschließlich auf die muslimischen Sarazenen. Erst im Zuge der Mission auf den wieder bzw. neu entdeckten Kontinenten Afrika, Amerika und Asien wurde er im Sinne der "Neuland-, Pionier- bzw. Heidenmission" wieder breiter gefasst. Heute wird der Begriff im Kontext der Evangelisierung und Inkulturation der meisten christlichen Konfessionen kaum mehr verwendet; vielmehr bezeichnen sich heute die Angehörigen der neu aufkeimenden polytheistischen Strömungen selbst als Heiden, ohne darin eine Form der Geringschätzung zu sehen. Literatur. Siehe auch die diversen Aufsätze in Aufstieg und Niedergang der römischen Welt oder der Cambridge Ancient History und der New Cambridge Medieval History. Hollywood. Hollywood (für "Stechpalmenwald") ist ein Stadtteil von Los Angeles im US-Staat Kalifornien mit 210.824 Einwohnern (Volkszählung 2000). Weltbekannt ist Hollywood als Zentrum der US-amerikanischen Filmindustrie, weshalb sein Name oft auch stellvertretend für die gesamte amerikanische Filmbranche steht, deren Mythos zur Entstehung gebräuchlicher Synonyme wie "Traumfabrik" (englisch: "dream factory") oder "Tinseltown" (von engl. "tinsel" für "Glitzerschmuck") führte. Geschichte von Hollywood. Gegend um die heutige Straßenkreuzung Hollywood and Vine im Jahre 1907 1853 stand in dem Gebiet, das heute zu Hollywood gehört, nicht mehr als eine Adobehütte. Um 1870 hatte sich in der Gegend eine blühende Landgemeinde entwickelt, in der unterschiedliche Gewächse einheimischer und exotischer Herkunft angebaut wurden. Ihre Bewohner nannten sie "Cahuenga Valley", nach dem nahegelegen "Cahuenga Pass". Daran erinnert heute noch der Straßenname "Cahuenga Boulevard". Seinen heutigen Namen erhielt Hollywood im Jahr 1886 von der Familie Whitley. Zu jener Zeit begann der aus Oklahoma zugewanderte Harvey J. Whitley, sich hier als Immobilienmakler zu engagieren. Um 1900 hatte die Gemeinde ein Postamt, eine Zeitung, ein Hotel, zwei Märkte sowie 500 Einwohner. Am 14. November 1903 wurde Hollywood nach dem zustimmenden Votum seiner Wähler als eigenständige Gemeinde anerkannt. Nur sieben Jahre später, im Jahr 1910, stimmten die Einwohner Hollywoods in einer Volksabstimmung der Eingemeindung nach Los Angeles zu. Der Grund hierfür war vor allem der Zugang zur Wasserversorgung der benachbarten Großstadt. Im Auftrag der Wasserverwaltung von Los Angeles wurde seit 1908 an dem "Los Angeles Aqueduct" gebaut, der in großen Mengen preiswertes Trinkwasser aus dem "Owens Valley" ins trockene Südkalifornien transportieren sollte. Mit Hilfe dieses Wassers war die Großstadt Los Angeles so in der Lage, eine Vielzahl von Nachbargemeinden einzugemeinden. Andere Gemeinden mit eigener Wasserversorgung wie z. B. Burbank sind aus dem gleichen Grund noch heute unabhängig. Noch in demselben Jahr 1910 besuchte der Filmregisseur D. W. Griffith aus New York mit seiner Schauspielertruppe Hollywood, um dort Filmaufnahmen für den ersten dort gedrehten Film, "In Old California", zu machen. Der Film wurde am 10. März 1910 uraufgeführt. Griffith und seine Mitarbeiter blieben mehrere Monate und stellten eine Reihe von Filmen fertig, bevor sie nach New York zurückkehrten. Der eigentliche Aufstieg Hollywoods begann im Jahr darauf, als David Horsleys Nestor Company hier das erste Filmstudio eröffnete. Noch im gleichen Jahr siedelten 15 weitere, "Independents" (Unabhängige) genannte Unternehmen von New York, dem damaligen Zentrum der Filmindustrie, nach Hollywood über. Zu den Pionieren der ersten Stunde gehörte auch Carl Laemmle aus Laupheim in Württemberg, Gründer der "Independent Moving Pictures Company". In den folgenden Jahren siedelten immer mehr Filmstudios nach Hollywood und einigen umliegenden Orten (z. B. Burbank) um, um dem in New York vorherrschenden Monopol der Motion Picture Patents Company (MPPC) zu entkommen. Um 1915 wurde bereits die Mehrheit aller amerikanischen Filme in der Region von Los Angeles produziert. Es gab viele Gründe für diesen Umzug. Neben ökonomischen waren es das geeignetere Klima und die gleichmäßigere Tageslänge (zu dieser Zeit hatte man noch kein adäquates Kunstlicht, man drehte also entweder im Freien oder in einem Studio mit Glasdach oder ähnlichem). Mitentscheidend war zweifelsohne auch die große Entfernung zu New York, von wo aus die mächtige MPPC alle ihr nicht angeschlossenen Unternehmen mit hohen Strafen und Lizenzgebühren bedrohte. In den 1920er Jahren war Hollywood zur Welthauptstadt der Filmindustrie avanciert. Diese begann sich in dieser Zeit in wachsendem Umfang durch prunkvolle oder exotische Kinopaläste zu feiern, wie z. B. das Grauman’s Chinese Theatre oder das Egyptian. Zur Filmindustrie kamen nach dem Zweiten Weltkrieg das Fernsehen und die Musikindustrie hinzu: Am 22. Januar 1947 begann "KTLA", der erste Fernsehsender der Stadt, mit dem Sendebetrieb. 1952 wurde an der Kreuzung von Beverly Boulevard und Fairfax Avenue die "CBS Television City" eröffnet, zu jener Zeit eines der größten Fernsehstudios. Noch heute werden in den von den Architekten "Pereira & Luckman" errichteten Gebäuden Fernsehsendungen wie z. B. "Dancing with the Stars" oder "The Late Night Show" produziert. Straßenzug in Hollywood mit dem berühmten Schriftzug im Hintergrund Zu den modernen architektonischen Sehenswürdigkeiten Hollywoods kam wenige Jahre später das von "Welton Becket" geplante "Capitol Records Building" (1956) in der "Vine Street" hinzu: Das Gebäude hat deutliche Ähnlichkeit mit einem Stapel 45-Schallplatten mit einer Nadel auf der Spitze, sodass für jeden Passanten die Nutzung als Hauptquartier des Plattenlabels Capitol Records erkennbar ist. Nachdem der architektonische Reichtum Hollywoods jahrzehntelang von Vernachlässigung und Abriss bedroht war, werden die erhaltenen Bauwerke seit den 1980er Jahren immer mehr geachtet. So hat etwa der Hollywood Boulevard seit 1985 einen Eintrag im National Register of Historic Places. Gleichzeitig werden viele Gegenden in Hollywood, insbesondere rund um den Hollywood Boulevard, immer stärker gentrifiziert. Dazu trug auch die 1999 eröffnete "Red Line" bei, eine U-Bahn-Linie der Metro Los Angeles, die seitdem den zentralen Geschäftsbezirk Hollywoods mit Downtown Los Angeles verbindet. Im Jahr 2002 versuchten Bürger aus Hollywood und San Fernando Valley, in einem Volksbegehren die Unabhängigkeit von Los Angeles durchzusetzen. Beide Begehren verfehlten die jeweils erforderlichen Stimmenzahlen jedoch bei Weitem. Seit der Fertigstellung der "Red Line"-U-Bahn der Metro Los Angeles von der Union Station über Downtown nach North Hollywood ist das Viertel für US-Verhältnisse überdurchschnittlich gut an den Öffentlichen Personenverkehr angebunden. In der Folge entschied sich die Stadtplanung, am Sunset Boulevard, am Hollywood Boulevard und an der "Vine Street" eine stark verdichtete Bebauung mit Hochhäusern vorzusehen und so die Transportmöglichkeiten der U-Bahn auszunutzen. Bis 2030 ist gegenüber 2010 dadurch ein Anstieg der Bevölkerung von 25 % im Viertel, konzentriert im Umfeld der U-Bahn-Stationen, geplant. Die Planungen sind umstritten, weil sie den Charakter Hollywoods verändern würden. Hollywood als Filmstadt. In den Hollywood Hills über der Stadt befindet sich das bekannte Hollywood Sign, große Buchstaben, die 1923 als „Hollywoodland“ errichtet wurden, um für den Verkauf von Grundstücken zu werben. Als die Buchstaben mehr und mehr verfielen, wurde 1978 durch die Handelskammer von Hollywood mit Unterstützung einiger Prominenter zum 91. Geburtstag der Stadt ein neuer Schriftzug aufgestellt. Zu den größten Filmstudios in Hollywood zählen derzeit die Universal Studios und Warner Bros. Die Geschichte des „Hollywoodkinos“ lässt sich in mehrere Phasen gliedern, unter anderem die "Klassische Periode" und das New Hollywood von 1967 bis 1976. Zu den weltbekannten Sehenswürdigkeiten in Hollywood gehört der Walk of Fame. Auf dem Gehweg sind über 2.500 Platten mit Sternen für Stars eingelassen, die in fünf Kategorien mit jeweils einem entsprechenden Symbol eingeteilt sind. Mit den Sternen werden lebende wie auch verstorbene Prominente geehrt, die eine wichtige Rolle vor allem in der amerikanischen Unterhaltungsindustrie spielten oder noch spielen. Darüber hinaus wird aber auch an fiktive Personen erinnert oder in Einzelfällen an Organisationen und Einrichtungen wie z. B. das "LAPD (Los Angeles Police Department)". Bezirksgrenzen. Die Stadträte Goldberg und Koretz legten am 16. Februar 2005 einen Gesetzentwurf vor, der die Grenzen für den Bereich Hollywood festlegte. Nach der einmütigen Unterstützung durch die "Chamber of Commerce" und den "LA City Council" wurde der Entwurf vom Gouverneur Arnold Schwarzenegger am 28. August 2006 als "Assembly Bill 588" genehmigt, und seitdem hat Hollywood offizielle Bezirksgrenzen. Das Planungsgebiet Hollywood umfasst nun offiziell den Bereich östlich von Beverly Hills und West Hollywood und südlich von Burbank. Vom restlichen Stadtgebiet LAs wird es abgegrenzt (im Uhrzeigersinn) durch Crescent Drive, Wonderland Avenue, Lookout Mountain Avenue, Laurel Canyon Boulevard, Mulholland Drive, Cahuenga Boulevard, Barham Boulevard, Golden State Freeway, Glendale Boulevard, Rowena Avenue, Hyperion Avenue, Fountain Avenue, Sunset Boulevard, Santa Monica Boulevard, Hoover Street, Melrose Avenue, June Street und Rosewood Avenue. Im Projekt "Mapping L.A." der Los Angeles Times werden die Grenzen deutlich enger gefasst, da bspw. Hollywood Hills, Los Feliz und Griffith Park als eigene Stadtteile gezählt werden. Hamburg. ! class="hintergrundfarbe5" colspan="2" style="font-size:1.3em;" | Freie und Hansestadt HamburgFriee un Hansestadt Hamborg () ! class="hintergrundfarbe5" colspan="2"| Bezirke in Hamburg Die Freie und Hansestadt Hamburg (; regional auch, Abkürzung: "HH", "FHH" oder "FuHH") ist als Stadtstaat zugleich eine Kommune und ein Land der Bundesrepublik Deutschland. Ferner ist Hamburg eine Einheitsgemeinde und eine kreisfreie Stadt. Hamburg ist mit 1,76 Millionen Einwohnern die zweitgrößte Stadt Deutschlands, die drittgrößte im deutschen Sprachraum sowie die achtgrößte in der Europäischen Union und dabei die größte, die nicht Hauptstadt eines Staates ist. Hamburg gliedert sich in sieben Bezirke. Die Stadt bildet das Zentrum der fünf Millionen Einwohner zählenden Metropolregion Hamburg. Der Hamburger Hafen ist der größte Seehafen Deutschlands und gehört zu den zwanzig größten Containerhäfen weltweit. Seit 1996 ist Hamburg Sitz des Internationalen Seegerichtshofs (ISGH). Die Hansestadt ist insgesamt (auch mit ihrem Flughafen) als Verkehrsknotenpunkt einer der bedeutendsten Logistikstandorte in Europa. Sie ist zudem wirtschaftlich und wissenschaftlich im Bereich der Spitzentechnologien wie der Luft- und Raumfahrttechnik (drittgrößter Standort weltweit, u. a. Airbus und seine Zulieferer), den Biowissenschaften und der Informationstechnik, für die Konsumgüterbranche (u. a. DAX-Unternehmen Beiersdorf AG und Unilever), sowie für die Medienlandschaft und die Kreativwirtschaft bedeutend. Der heute gültige offizielle Langname Hamburgs ist Zeugnis der langen Geschichte als Mitglied der Hanse, als Freie Reichsstadt des Heiligen Römischen Reiches ab 1189, als unabhängiger Stadtstaat bis zur Deutschen Reichsgründung 1871 und als eigenständiges Land der Bundesrepublik ab 1946. Zusammen mit Lübeck und weiteren Städten war Hamburg ein Wegbereiter der Hanse, als Mitglied dieses europaweiten Bundes blühte die Stadt durch den Freihandel auf, wovon bis heute wertvolle Kulturdenkmäler zeugen. Im Juli 2015 wurden die Speicherstadt aus der Zeit der Industrialisierung und das angrenzende Kontorhausviertel (vor allem in den Goldenen Zwanzigern entstanden) von der UNESCO zum Weltkulturerbe erklärt. Allgemeines. Die älteste urkundliche Erwähnung datiert aus dem 7. Jahrhundert. Durch seinen Vertrag mit Lübeck im Jahr 1241 wurde Hamburg einer der Gründungsorte der Hanse. Hamburg ist Industrie- und Handelsstandort. Die wirtschaftliche Bedeutung der Stadt zeigt sich in der Metropolregion Hamburg, einer der insgesamt elf europäischen Metropolregionen in Deutschland, der Stellung des Hafens, als der zweitgrößte in Europa und vierzehntgrößte weltweit (Stand 2011) und als einer der wichtigsten Medienstandorte Deutschlands. Mit mehr als 111 Millionen Tagesbesuchern, über 5 Millionen Gästen und über 9,5 Millionen Übernachtungen jährlich (2012) ist Hamburg eines der attraktivsten Tourismusziele in Deutschland. Zu den Zielen der Besucher gehören die Hamburger Innenstadt samt Binnenalster, der Hamburger Hafen mit den St. Pauli-Landungsbrücken und der modernen HafenCity samt der Elbphilharmonie, St. Pauli mit der „sündigen Meile“ Reeperbahn, und weitere bekannte Hamburger Bauwerke wie die historischen Wahrzeichen "Michel" und Rathaus. Darüber hinaus sind Veranstaltungen wie der Hafengeburtstag, der Altonaer Fischmarkt, der Hamburger Dom und die Cruise Days mit der "Parade der Traumschiffe" Anziehungspunkte. Am weltweit bedeutenden Musicalstandort Hamburg werden Musicals wie beispielsweise "Der König der Löwen" und "Das Wunder von Bern" aufgeführt. Hamburg hat über 60 Theater, mehr als 60 Museen und international bekannte Galerien wie die Hamburger Kunsthalle und das Bucerius Kunst Forum. Bedeutende Messen wie die hanseboot oder die Internorga finden regelmäßig statt. Hamburg gilt als Sportstadt, weil neben den Fußballspielen des Hamburger SV und des FC St. Pauli, den Handballspielen des HSV Hamburg, den Radrennen der Vattenfall Cyclassics, den internationalen deutschen Meisterschaften im Tennis auch das deutsche Spring-Derby ausgetragen wird und jährlich der Hamburg-Marathon stattfindet. Geographie. Hamburg liegt in Norddeutschland an den Mündungen der Bille und der Alster in die Unterelbe, die etwa 100 km weiter nordwestlich in die Nordsee mündet. Nahe dieser Mündung befindet sich der aus drei Inseln bestehende Stadtteil Neuwerk. An der Elbe erstreckt sich der Tidehafen etwa von der Veddel bis Finkenwerder, hauptsächlich auf dem Südufer der Norderelbe, gegenüber den Stadtteilen St. Pauli und Altona. Die beiden Ufer sind durch die Elbbrücken im Osten sowie durch den Alten und Neuen Elbtunnel verbunden. Das Land südlich und nördlich des Flusses ist Geest, höher gelegene Flächen, die durch die Sand- und Geröllablagerungen der Gletscher während der Eiszeiten entstanden sind. Die unmittelbar am Fluss liegenden Marschen wurden auf beiden Seiten der Elbe über Jahrhunderte von Nebenarmen der Elbe durchzogen und vom Flutwasser der Nordsee überschwemmt, wobei sich Sand und Schlick abgelagert haben. Inzwischen ist die Elbe beidseitig eingedeicht, Nebenarme wurden trockengelegt, umgeleitet, kanalisiert oder abgedeicht. Alte Deichanlagen erinnern in den Außenorten noch an die Zeit, als bei Hochwasser ganze Viertel unter Wasser standen. Höchste Erhebung ist mit der Hasselbrack in einem Nordausläufer der Harburger Berge. Die Alster wird in der Innenstadt zu einem künstlichen See aufgestaut. Dieser teilt sich in die größere Außenalster und die kleinere, vom historischen Kern der Stadt umschlossene Binnenalster. Die Zuflüsse zur Alster wie die Alster selbst sind im Stadtgebiet zum Teil kanalisiert. Sie sind zumeist von ausgedehnten öffentlichen Parkanlagen gesäumt. Die zahlreichen Fleete, Flüsschen und Kanäle der Stadt werden von mehr als 2500 Brücken überspannt. Weithin unbekannt ist, dass sich auf der größten Flussinsel der Elbe, in Wilhelmsburg, einer der letzten Tideauenwälder Europas befindet. Hamburg grenzt im Norden an Schleswig-Holstein und im Süden an Niedersachsen. Bis auf einige kleinere „Gebietsbereinigungen“, wie den Erwerb der Insel Neuwerk und von Flurstücken beim Stauwerk Geesthacht, bestehen die heutigen Grenzen der Stadt Hamburg seit dem Groß-Hamburg-Gesetz, das am 1. April 1937 in Kraft trat. Die Stadt ist nach Berlin sowohl hinsichtlich ihrer Einwohnerzahl als auch ihrer Fläche die zweitgrößte Stadt Deutschlands. Südlich der Binnenalster liegt das historische Zentrum der Stadt. Der geographische Mittelpunkt von Hamburg in seinen gegenwärtigen politischen Grenzen soll ein Ort am Kuhmühlenteich im Stadtteil Uhlenhorst sein. Der nördlichste Punkt Hamburgs ist die Insel Scharhörn, der östlichste Altengamme, der südlichste der Krauel und der westlichste die Insel Nigehörn. Verwaltungsgliederung. Die Verfassung der Freien und Hansestadt Hamburg legt fest, dass Bezirksämter zu bilden sind. Die Stadt ist verwaltungstechnisch in sieben Bezirke aufgeteilt. Jeder Bezirk gliedert sich in mehrere Stadtteile, von denen es in ganz Hamburg insgesamt 104 gibt; viele Stadtteile sind nochmals in Ortsteile gegliedert, deren Zahl seit 1. Januar 2011 auf 181 festgesetzt wurde. Einige Stadtteile im "Kernbereich" des Bezirks wurden bis 2008 direkt vom betreffenden Bezirksamt verwaltet, für die anderen Stadtteile des Bezirks gab es jeweils ein eigenes Ortsamt. Insgesamt waren 13 Ortsämter eingerichtet. Anfang 2008 wurden durch eine Gebietsreform die Grenzen einzelner Stadtteile und Bezirke neu gezogen. So fiel der Stadtteil Wilhelmsburg vom Bezirk Harburg an Mitte, und die Stadtteile Sternschanze im Bezirk Altona und HafenCity im Bezirk Hamburg-Mitte wurden neu geschaffen. Exklaven. Zu Hamburg gehören die Nordseeinseln Neuwerk, Scharhörn und Nigehörn sowie der Nationalpark Hamburgisches Wattenmeer. Als Stadtteil Hamburg-Neuwerk unterstehen sie administrativ dem Bezirk Hamburg-Mitte, der deshalb nördlichster und westlichster Bezirk Hamburgs ist. Klima. Hamburg liegt in der warmgemäßigten Klimazone und ist durch ein Seeklima geprägt. Aufgrund der durch vorherrschende Westwinde maritimen Einflüsse ist das Klima im Winter milder, im Sommer kühler als im östlichen Hinterland. Der wärmste Monat ist der Juli mit durchschnittlich 17,4 °C, der kälteste der Januar mit 1,3 °C. Temperaturen um die 28 °C sind im Hochsommer keine Seltenheit. An der Wetterstation Hamburg-Fuhlsbüttel wurde ein Maximalwert von 37,3 °C (9. August 1992) gemessen. Das Klima ist ganzjährig feucht. Im Laufe eines Jahres fallen durchschnittlich 773 mm Niederschlag, an durchschnittlich 52 Tagen im Jahr herrscht Nebel. Im Winterhalbjahr kann es sehr stürmisch werden. Sprichwörtlich ist das Hamburger Schmuddelwetter. Geschichte. Die "keiserliche freye Reichs und Ansee Stadt Hamburg" um 1730 Die ältesten festen Behausungen datieren auf das 4. Jahrhundert v. Chr. für die Ortschaft, die von dem antiken Wissenschaftler Claudius Ptolemäus noch als "Treva" bezeichnet wurde. Vom 4. bis ins 6. Jahrhundert siedelten sich Sachsen im nordelbischen Raum an. Im 8. Jahrhundert entstand die Hammaburg, in der Karl der Große im Jahr 810 eine Taufkirche errichten ließ, um den heidnischen Norden zu missionieren. 831 begründete Ludwig der Fromme hier ein Bistum, das kurze Zeit später zum Erzbistum wurde. Doch schon kurz nach der Reichsteilung von Verdun 843 überfielen Wikinger die Region, später die slawischen Abodriten, der Erzbischof verlegte seinen Amtssitz nach Bremen. Graf Adolf III. von Schauenburg und Holstein war im 12. Jahrhundert der Gründer einer Handels- und Marktsiedlung am westlichen Alsterufer. Maßgeblich durch das von Kaiser Friedrich I. Barbarossa 1189 verliehene Hafenrecht an diese Siedlung und die Handelsprivilegien für die ganze Unterelbe entwickelte sich die Stadt im Mittelalter zu einem florierenden Handelszentrum und galt mit ihren zeitweilig 600 Brauereien als „Brauhaus der Hanse“. Im 14. Jahrhundert entwickelte sich Hamburg als eines der ersten Mitglieder des Kaufmannsbundes Hanse zum wichtigsten deutschen Umschlag- und Stapelplatz zwischen Nord- und Ostsee. Ab 1510 galt Hamburg endgültig als Reichsstadt. 1558 wurde die Hamburger Börse als eine der ersten Deutschlands eröffnet, im Jahre 1678 unter dem Namen Opern-Theatrum die erste deutsche Oper am Gänsemarkt. Zur Reformationszeit wurde der Stadtstaat ohne Blutvergießen evangelisch. Die Stadt Hamburg erlebte ihre kulturelle Blüte vor allem im 17. und 18. Jahrhundert unter anderem mit der Gründung des Hamburgischen Nationaltheaters (1767). Auch nach dem Niedergang der Hanse und während der Aufklärung und der Industrialisierung blieb die Stadt neben Berlin das bedeutendste Wirtschaftszentrum Norddeutschlands. Hamburg blieb von den Auswirkungen des Dreißigjährigen Krieges verschont und konnte diesen zum Vorteil nutzen, um seine Vormachtstellung im Handel auszubauen. In ihrer wechselvollen Geschichte unterstand die Stadt der dänischen Königskrone (aber nie von Hamburg formal anerkannt), war Teil des Heiligen Römischen Reiches deutscher Nation und Hauptstadt des Départements Elbmündung (Département des Bouches de l’Elbe) im französischen Kaiserreich (Hamburger Franzosenzeit). 1813–1814 wurde Hamburg vom russischen General Bennigsen belagert. Als Freie Stadt trat es 1815 nach dem Wiener Kongress dem Deutschen Bund bei. 1867 wurde es Mitglied des von Otto von Bismarck initiierten Norddeutschen Bundes und blieb 1871 Gliedstaat des nun in Deutsches Reich umbenannten Bundesstaates. In Hamburg überflutetes Gebiet bei der Sturmflut 1962 Besondere Ereignisse der Neuzeit waren der große Hamburger Brand 1842, die Choleraepidemie 1892, der erhebliche Flächen- und Bevölkerungszuwachs 1937/38 durch das Groß-Hamburg-Gesetz, die Bombardierungen im Zweiten Weltkrieg 1943, die Zerstörung der jüdischen Gemeinde (→ "Geschichte der Juden in Hamburg"), die Errichtung des Konzentrationslagers Neuengamme und seiner zahlreichen Nebenlager im Stadtgebiet, die kampflose Übergabe an die englischen Truppen am 3. Mai 1945, die Sturmflut 1962, die Anbindung an das internationale Straßennetz und den Flugverkehr (Finkenwerder und Fuhlsbüttel), die Veränderung im Hafen und die Auseinandersetzungen um die Hafenstraße in den 1980er-Jahren. Hamburgs Politik war immer auf größtmögliche Freiheit ihres Handels und politische Unabhängigkeit ausgerichtet. Auch heute noch ist Hamburg als Stadtstaat weitgehend selbständig und bietet dem Handel mit dem größten deutschen Seehafen gute Voraussetzungen. Bevölkerungsentwicklung. Bevölkerungsentwicklung der letzten 25 Jahre Bevölkerung Hamburgs im zeitlichen Verlauf Den bislang höchsten Einwohnerstand mit 1,86 Millionen erreichte Hamburg im Jahre 1964. Stadtflucht und Suburbanisierung führten anschließend zu einem Bevölkerungsrückgang bis 1986 auf rund 1,6 Millionen Einwohner. Seitdem ist die Bevölkerungszahl auf 1,76 Millionen (November 2014) angestiegen. Für die kommenden Jahre (bis 2030) wird für Hamburg ein weiterer Bevölkerungsanstieg vorausgesagt, in der mittleren Projektion auf etwa 1,9 Millionen Einwohner. Neuerdings (2013) wird auch ein Wachstum auf über zwei Millionen Einwohner diskutiert. 2010 und 2011 wurden in Hamburg erstmals seit Jahrzehnten wieder Geburtenüberschüsse verzeichnet. 2010 brachten Frauen in Hamburg 17.377 Kinder zur Welt, 2011 waren es 17.125. Dem standen 2010 17.060 und 2011 ebenfalls 17.060 Sterbefälle gegenüber. Daraus ergab sich 2011 ein positiver Saldo von 65 Einwohnern. Außerdem sorgten 93.466 Zuzüge bei nur 81.231 Fortzügen zu einer Bevölkerungszunahme von 12.235 Einwohnern gegenüber 2010. Herkunft. Ende 2013 hatten 550.000 Einwohner einen Migrationshintergrund (melderechtlich registrierte Personen mit deutscher Staatsangehörigkeit und zugleich ausländischer Herkunft), dies sind ca. 31 Prozent aller Einwohner Hamburgs. Die Zahl an Ausländern (melderechtlich registrierte Personen ohne deutsche Staatsangehörigkeit) bezifferte sich Ende 2012 auf 238.000 Einwohner. Ende 2012 wurden 197.000 Personen eingebürgert und 78.000 waren Aussiedler. Der Ausländeranteil betrug Ende 2013 13,2 Prozent. Vertreten waren 183 Staatsangehörigkeiten. Von den Einwohnern ohne deutsche Staatsangehörigkeit kamen Ende 2012 51.799 Personen aus der Türkei, 20.635 aus Polen, 11.732 aus Afghanistan und 11.081 aus dem ehemaligen Serbien und Montenegro. Aus Mitgliedsländern der Europäischen Union kamen mehr als ein Viertel aller in Hamburg gemeldeten Ausländer. Beschäftigung. 2012 waren in Hamburg insgesamt 1.161.100 Menschen erwerbstätig. 328.500 davon waren bei öffentlichen und privaten Dienstleistern, 386.900 im Handel, Verkehr, Gastgewerbe, sowie im Informations- und Kommunikationsbereich, 296.000 im Unternehmensdienstleistungsbereich (Finanzwesen, Unternehmensdienstleistungen, Grundstücks- und Wohnungswesen), 108.900 im produzierenden Gewerbe, 39.100 im Baugewerbe sowie 2.300 in der Land-, Forst- und Fischereiwirtschaft beschäftigt. Einkommen. 2007 betrug das durchschnittliche steuerpflichtige Einkommen 35.887 Euro brutto jährlich. Weibliche Arbeitnehmer verdienten in Hamburg 2010 durchschnittlich rund 20 Prozent weniger als ihre männlichen Kollegen. An den Flüssen und an der waldreichen Peripherie des Nordostens haben sich drei größere Gebiete etabliert, in denen die Einwohner durchschnittlich über ein besonders hohes Einkommen verfügen: in den Elbvororten im Westen, in den im Nordosten gelegenen Stadtteilen samt den Walddörfern und rund um die Außenalster bzw. nördlich von ihr im Bereich der nördlichen Stadtmitte. Hinzu kommt der im Osten liegende Stadtteil Marienthal. Die höchsten durchschnittlichen Einkünfte haben die Einwohner der Elbvororte. Nienstedten liegt mit durchschnittlich 170.408 Euro (2007) weit vorn, gefolgt von Blankenese mit 110.108 Euro. In den Walddörfern erreichen die Einwohner Wohldorf-Ohlstedts mit durchschnittlich 105.305 Euro (2007) die höchsten Einkommen. In den Stadtteilen rund um die Außenalster verfügen die Harvestehuder über 88.746 Euro (2007). Hamburg ist die Stadt mit den meisten Millionären Deutschlands. Der Gürtel der einkommensschwachen Gegenden zieht sich von Billstedt im Osten bis an die östliche Innenstadt; die Elbinsel Wilhelmsburg mit der Veddel und das südlich der Elbe gelegene Harburg; die westlichen Stadtteile Altona-Altstadt, Altona-Nord und St. Pauli. Darüber hinaus sind die östlichen Stadtteile Dulsberg, Barmbek-Nord und Steilshoop und der westliche Stadtteil Lurup betroffen. Das geringste durchschnittliche Einkommen haben die Einwohner der auf der Elbinsel gelegenen Stadtteile Veddel, Kleiner Grasbrook und Steinwerder mit 11.756 bis 15.491 Euro (2007). Danach folgt der Stadtteil Rothenburgsort mit 18.850 Euro. All diesen Stadtteilen ist die Nähe zum Hamburger Hafen und zu den Industrie- und Gewerbegebieten gemein. Der einkommensschwächste Stadtteil im zentralen Stadtgebiet ist Dulsberg mit einem durchschnittlichen Jahreseinkommen von 18.927 Euro. Der Stadtteil weist eine ältere, sehr dichte Bebauung auf. Leistungsempfänger. Die Quote der Leistungsempfänger nach dem Zweiten Buch Sozialgesetzbuch (kurz "SGB II"), die Arbeitslosengeld II (umgangssprachlich Hartz IV) beziehen, lag hamburgweit im März 2013 bei durchschnittlich 10,3 Prozent und damit unter dem Durchschnitt des Stadtstaates Berlin und des Landes Bremen von 14,5 Prozent. In den einkommensstarken Gebieten, in den nördlichen Stadtteilen, südlichen Randgebieten und im größten Teil des Bezirks Bergedorf sind vergleichsweise wenige Leistungsempfänger registriert. Die Quote liegt dabei teilweise bei unter einem Prozent. In den einkommensschwachen dichtbesiedelten Altbau-Stadtteilen Altona und St. Pauli sowie in Stadtteilen mit Hochhaussiedlungen wie Steilshoop, Lurup und Hausbruch liegt der Anteil der Hilfeempfänger höher. Bei über 22 Prozent Hilfeempfänger liegen die Stadtteile, die sich im Osten von Jenfeld bis in den Süden nach Wilhelmsburg ziehen und durch Industrie und/oder Hochhaussiedlungen wie Mümmelmannsberg oder Kirchdorf Süd geprägt sind. Religionen und Weltanschauungen. Hamburg ist seit der Reformation eine evangelisch-lutherisch geprägte Stadt. Der Rat der Stadt Hamburg unterzeichnete die lutherische Konkordienformel von 1577. Heute gehören fast 29 Prozent der Bevölkerung der evangelischen Kirche an, zehn Prozent bekennen sich zum katholischen Glauben. Allerdings ist die Zahl der evangelischen Glaubensanhänger in den letzten Jahren kontinuierlich gesunken, während die Mitgliederzahl der Katholischen Kirche konstant blieb. Durch seine Stellung als wichtige Hafenstadt war es aber schon lange offen für andere Konfessionen. So entstand hier zum Beispiel 1834 die erste deutsche Baptistengemeinde. In Altona wurde bereits 1601 die heute noch bestehende Hamburger Mennonitengemeinde gegründet. Auch für die Apostolischen Gemeinschaften ist die Hansestadt ein wichtiger Ort. Von hier aus erfolgte die Trennung der Allgemeinen Christlichen Apostolischen Mission von den katholisch-apostolischen Gemeinden und die Entwicklung zur Neuapostolischen Kirche. Heute gibt es 16 Neuapostolische Kirchen in Hamburg, ebenso ist in Hamburg der Sitz der Neuapostolischen Kirche Norddeutschland. Hamburg ist außerdem seit 1995 Sitz des römisch-katholischen Erzbistums Hamburg mit seinem Zentrum im Neuen Mariendom. Ende 2004 lag der Anteil der römisch-katholischen Bürger bei 10,1 %. Hamburg ist auch der Geburtsort der Jesus Freaks und der Flussschifferkirche, einem Kirchenschiff im Binnenhafen. Seit 1910 gibt es auch in Hamburg Jehovas Zeugen. Darüber hinaus gibt es seit den 1960er-Jahren einen bedeutenden Anteil an muslimischer Bevölkerung sowie eine jüdische Gemeinde. Am 22. Juni 1957 wurde in Stellingen mit der Fazle-Omar-Moschee die erste Moschee Deutschlands nach dem Zweiten Weltkrieg von der Ahmadiyya Muslim Jamaat eröffnet. Auch asiatische Religionen sind in Hamburg in zunehmendem Maße vertreten. Die Anhängerschaft des Buddhismus besteht sowohl aus asiatischen Einwanderern als auch aus deutschstämmigen Konvertiten. Insbesondere die buddhistischen Richtungen Zen und tibetischer Buddhismus genießen eine gewisse Popularität. Sprache und Mundarten. Bis weit ins 19. Jahrhundert war Niederdeutsch die allgemeine Umgangssprache in der Stadt. Dann wurde es vom Hochdeutschen, das schon seit dem 16. Jahrhundert zunehmend als Schriftsprache Verwendung fand, immer stärker zurückgedrängt und verschwand um die Mitte des 20. Jahrhunderts schließlich weitgehend aus dem öffentlichen Gebrauch. Gegen diesen Trend veröffentlichte die Pressestelle der Bürgerschaft 1980 eine plattdeutsche Fassung der Hamburgischen Verfassung. Der niederdeutsche Einfluss bleibt jedoch auch im Hochdeutschen allgegenwärtig und manifestiert sich besonders im „Missingsch“. Das Hamburger Platt wird aber noch von vielen Hamburgern verstanden und gesprochen sowie in Literatur, Zeitungskolumnen usw. gepflegt. Dokumentiert wird es im Hamburgischen Wörterbuch sowie in einigen dialektologischen Dissertationen. Der bekannteste Ort der Mundartpflege in Hamburg ist das Ohnsorg-Theater, das Aufführungen in niederdeutscher Sprache anbietet. Infolge der starken Einwanderung seit den 1960er-Jahren sind in einigen Stadtteilen neben der deutschen Sprache auch andere Sprachen im öffentlichen Raum gegenwärtig (Portugiesisch im Hafenviertel („Portugiesenviertel“), Türkisch, Persisch, Paschto, Kurdisch und Albanisch in Altona, St. Georg, Harburg, Veddel und Wilhelmsburg) oder vor allem durch Teile der deutschstämmigen Aussiedler bzw. Spätaussiedler auch Russisch und Polnisch. Nach der Studie der Universität Hamburg aus dem Jahr 2015 gehören rund 25.000 Hamburger der dänischen Minderheit an. Persönlichkeiten. Die lange Geschichte Hamburgs weist eine große Anzahl von wichtigen Personen aus allen Bereichen auf. Die Liste von Persönlichkeiten der Stadt Hamburg kann daher nur eine Auswahl ohne Bewertung bieten und steht stellvertretend für die zahllosen ungenannten Menschen, die die Stadt prägten und von ihr geprägt wurden. Staatsrecht. Die Freie und Hansestadt Hamburg ist als Stadtstaat ein Land (Gliedstaat) der Bundesrepublik Deutschland und zugleich als Stadt eine Einheitsgemeinde. Hamburg verfügt über eine lange Tradition als bürgerliche Stadtrepublik und ist heute gemäß der Landesverfassung ein demokratischer und sozialer Rechtsstaat. Eine Trennung von gemeindlichen und staatlichen Aufgaben erfolgt nicht. Die Staatsgewalt geht vom Volk aus, das das Landesparlament, die "Hamburgische Bürgerschaft", wählt, eigene Entscheidungen durch Volksgesetzgebung einbringt und in der Verwaltung, wie in den Deputationen, mitwirkt. Die Regierung des Landes ist der "Senat", dessen Präsident der "Erste Bürgermeister" ist. Der Erste Bürgermeister wird seit Änderung der Verfassung 1996 direkt durch die Bürgerschaft gewählt, hat seitdem die Richtlinienkompetenz in der Politik und beruft seinen Stellvertreter (Zweiter Bürgermeister) und die übrigen Senatoren, die von der Bürgerschaft bestätigt werden müssen. Jeder Senator leitet als "Präses" eine der "Senatsbehörden", vergleichbar einem von einem Minister geleiteten Ministerium in anderen Ländern. Zu Hamburgs Verfassungsorganen zählt neben Bürgerschaft und Senat zudem noch das Hamburgische Verfassungsgericht als Landesverfassungsgericht. Auf der Ebene der jeweiligen Bezirke in Hamburg wird mit den Bezirksversammlungen jeweils eine eigene Volksvertretung gewählt. Diese haben rechtlich allerdings die Stellung von Verwaltungsausschüssen, mit eingeschränkten Kompetenzen. Auf überregionaler Ebene hat Hamburg einen Sitz (drei Stimmen) im Bundesrat und ist mit sechs Direktmandaten der Wahlkreise Mitte, Altona, Eimsbüttel, Nord, Wandsbek und Bergedorf-Harburg sowie weiteren Abgeordneten über die Landesliste im Bundestag vertreten. Hamburg ist Mitglied im Deutschen Städtetag und entsendet einen Vertreter in den Ausschuss der Regionen. Eine Länderfusion – demgemäß ein Zusammenschluss Hamburgs mit anderen norddeutschen Ländern – wird seit Jahrzehnten unter dem Begriff "Nordstaat" gelegentlich ins Gespräch gebracht. Aus dieser Diskussion ist eine stärkere länderübergreifende Zusammenarbeit in verschiedenen Bereichen, wie in der Metropolregion Hamburg oder gemeinsamer Einrichtungen, wie dem Statistikamt Nord, hervorgegangen. Wahl zur Hamburgischen Bürgerschaft 2015. Die letzten Wahlen zur Hamburgischen Bürgerschaft fanden per 15. Februar 2015 statt. Bei diesen Wahlen verlor die SPD die absolute Mehrheit und erhielt 45,6 Prozent. Die CDU verlor – wie bei der Wahl 2011 – weitere Sitze und errang nunmehr 15,9 Prozent. Die Grünen zogen mit 12,3 Prozent, die Linke mit 8,5 Prozent und die FDP mit 7,4 Prozent in die Bürgerschaft ein. Erstmals zog die AfD mit 6,1 Prozent in die Hamburgische Bürgerschaft ein und somit erstmals in ein Landesparlament Westdeutschlands. Somit sind seit der Wahl 2015 sechs Parteien in der Bürgerschaft vertreten. Das aufgrund eines Volksentscheides 2004 zu den Wahlen 2008 eingeführte personalisierte Verhältniswahlsystem wurde nach einem neuerlichen Volksbegehren nochmals verstärkt. Nach diesem Hamburger Wahlsystem hatte jeder Wähler zehn Stimmen. Fünf Wahlkreisstimmen für Kandidaten im Wahlkreis und fünf Landesstimmen für Kandidaten auf den Landeslisten oder für Landeslisten in ihrer Gesamtheit mit der Möglichkeit die fünf Stimmen bei einer Person (oder Partei bei Landesliste) anzuhäufeln oder beliebig zu verteilen. Gleiches galt für parallel stattfindenden Wahlen zu den Bezirksversammlungen, die zukünftig zeitgleich mit der Europawahl stattfinden sollen. Vertretungen und Konsulate. Die wirtschaftliche Bedeutung Hamburgs für den Außenhandel der Bundesrepublik Deutschland („Hamburg, das Tor zur Welt“) sowie die Bedeutung als wichtiges Zentrum von Industrie, Handel und Logistik, als Sitz von ausländischen Unternehmen und mit einer Bevölkerung, in der mehr als 180 verschiedene Staatsangehörigkeiten vertreten sind, hat dazu geführt, dass Hamburg mit 100 Konsulaten (April 2010) nach New York und Hongkong der drittgrößte Konsularstandort überhaupt ist. Über den Hafen bestanden bereits seit der Hansezeit Handelsbeziehungen zu anderen Städten und Ländern. Die ersten Vertretungen wurden von europäischen Staaten eröffnet, bevor im 18. und 19. Jahrhundert auch Staaten aus Nord- und Südamerika hinzukamen. Österreich (seit 1570) und Frankreich (1579) betreiben derzeit die am längsten ansässigen Konsulate. Besonders bekannt ist das Amerikanische Generalkonsulat am Alsterufer 27/28, das ursprünglich von Martin Haller als Doppelvilla erbaut wurde. Es wird oft als das „Weiße Haus an der Alster“ bezeichnet. Hamburg seinerseits hatte ebenfalls bereits früh auswärtige Vertretungen. Dies reichte von den gemeinschaftlichen Handelskontoren der Kaufleute der Hansezeit über gemeinsame konsularische Vertretungen mit den verbliebenen Hansestädten Lübeck und Bremen. Heute besteht die Vertretung der Freien und Hansestadt Hamburg beim Bund als Landesvertretung in Berlin. Als gemeinsame Vertretung von Hamburg und Schleswig-Holstein besteht das Hanse-Office bei der Europäischen Union in Brüssel und in St. Petersburg. Gemeinsam mit der Handelskammer Hamburg und anderen Partnern unterhält der Senat zudem die Hamburg-Vertretungen "Hamburg Liaison Office" in Shanghai und "Hamburg Representative Office" in Dubai. Zudem besteht im Ausland ein Netzwerk von ehrenamtlichen Botschaftern, den "Hamburg Ambassadors", die vom Ersten Bürgermeister ernannt werden und für die Stadt werben sollen. Städtepartnerschaften. Hamburg unterhält Partnerschaften mit neun Städten, vor allem mit anderen Hafenstädten. Der erste – mündliche – Partnerschaftsvertrag wurde 1957 mit Leningrad, dem heutigen Sankt Petersburg, Russland, geschlossen. Der Hamburger Senat war gegen den Willen des Auswärtigen Amtes einer Einladung in die Sowjetunion gefolgt. Die Partnerschaft ist die älteste zwischen einer deutschen und einer damals sowjetischen Stadt. Seit 1981 gibt es „Hamburg-Tage“ in Leningrad. Die Partnerschaft umfasst seit 1990 auch finanzielle Unterstützung in sozialen Angelegenheiten. Im Krisenwinter von 1990/1991 halfen Hamburger Bürger mit 400.000 Hilfspaketen gegen den Hunger in Sankt Petersburg. Es gibt einen Austausch von Schülern, Sportlern, Wissenschaftlern und Künstlern. Die im Rahmen der deutsch-französischen Aussöhnung 1958 geschlossene Partnerschaft mit Marseille ist geprägt durch starken Austausch auf wirtschaftlicher Ebene. Hamburg hat ähnliche Problemstellungen wie die Partnerstadt Marseille beim Hafenausbau, bei der Entwicklung von alten Hafenflächen und Altbauvierteln sowie bei der Integration von Zuwanderern. Die 1986 begonnene Partnerschaft mit Shanghai, Volksrepublik China, wurde 1989 nach den Massaker auf dem Platz am Tor des Himmlischen Friedens eingefroren, der Austausch in kulturellen und wirtschaftlichen Bereichen besteht jedoch weiter. Jeden Sommer findet in Hamburg die Veranstaltungsreihe „China Time“ statt. Am 14. Dezember 1987 wurde die Partnerschaft mit der Elbstadt Dresden, damals Deutsche Demokratische Republik, in Dresden und am 16. Dezember 1987 in Hamburg unterzeichnet. Sie war durch Gespräche zwischen Dohnanyi und Erich Honecker bei der 750-Jahr-Feier in Ostberlin vereinbart worden. Nach der Wiedervereinigung wurde 1990 ein „Beauftragter der Freien und Hansestadt Hamburg in Dresden und Sachsen“ ernannt. Ab 1991 half Hamburg bei der Strukturierung der Dresdener Verwaltung. Im Jahr 2002 half Hamburg der Stadt Dresden bei der Bewältigung der Folgen der Elbflut. Hamburg und Dresden führen beide seit den frühen Nachkriegsjahren eine Partnerschaft mit Sankt Petersburg. Die Partnerschaft mit Ōsaka, Japan, wurde 1989 geschlossen, nachdem der Senat seine bisherige außenpolitische Haltung aufgegeben und eine Orientierung in so genannten Schwerpunktregionen beschlossen hatte. Höhepunkt der Partnerschaft war die Eröffnung des japanischen Gartens in Planten un Blomen. Zu León in Nicaragua besteht seit 1990 eine Partnerschaft, die hauptsächlich von Hamburger Entwicklungshilfe geprägt ist. Am 19. April 1990 wurde in Hamburg im Rahmen der Ost-West-Annäherung eine Partnerschaft mit der damaligen tschechoslowakischen, heute tschechischen Hauptstadt Prag zwischen dem Ersten Bürgermeister von Hamburg Henning Voscherau und Prags Primator Jaroslav Korán geschlossen. Moldau und Elbe verbinden Prag und Hamburg. Die Städtepartnerschaft konzentriert sich auf Verwaltung, Infrastruktur und kulturellen Austausch. Im Dezember 2012 half Hamburg bei der Bewältigung der Folgen des Moldau-Hochwassers. Auf Initiative Chicagos besteht seit 1994 eine weitere Städtepartnerschaft. Gründe waren die große Zahl von in Chicago lebenden Nachfahren deutscher Auswanderer des neunzehnten Jahrhunderts und ein großes Interesse Hamburger Schulen an einer deutsch-amerikanischen Partnerschaft. Im Juni 2010 wurde die Städtepartnerschaft mit Daressalam in Tansania durch die Hamburger Bürgerschaft bestätigt und am 1. Juli durch den Hamburger Bürgermeister und den Bürgermeister Daressalams besiegelt. Der Hamburger Hafen nimmt in Bezug auf Partnerschaften eine Sonderstellung ein. Mit einigen der Häfen zu denen Hamburgs Hafen in Verbindung steht, wurden Hafenpartnerschaften zum regelmäßigen fachlichen Wissensaustausch begründet. Seit 1992 besteht die erste Partnerschaft mit dem Hafen von Yokohama (Japan). Es folgten Hafenpartnerschaften mit Kaohsiung (auf Taiwan), dem Hafen von Shanghai (China; 2004), Montevideo (Uruguay), Dar es Salaam (Tansania), Shenzhen (China) und als jüngste Hafenpartnerschaft der Hafen von Busan (Südkorea; 2010). Zudem existieren unabhängige Bezirkspatenschaften. So unterhält der Bezirk Hamburg-Mitte offizielle Beziehungen zu Shanghais innerem Stadtbezirk Hongkou (seit 2007), der Bezirk Eimsbüttel zur Stadt Warna (Bulgarien; seit 2003) sowie der Bezirk Wandsbek mit Londons Bezirk Waltham Forest (früher Leyton; seit 1949). Bereits aus dem Jahr 1281 stammt ein Beistands- und Partnerschaftsabkommen mit Wöhrden im heutigen Kreis Dithmarschen in Schleswig-Holstein. Dieses wurde vom Hamburger Senat im Juli 2007 offiziell erneuert, zählt aber nicht zu den Städtepartnerschaften im modernen Sinne. Hoheitszeichen. Hamburg hat drei Wappen, drei Flaggen, ein Wappenzeichen, ein Logo und einen Stander. Die Landesflagge und das Wappenzeichen dürfen von den Bürgern frei verwendet werden, die Verwendung der weiteren Hoheitszeichen ist dem Staat vorbehalten. In der Landesverfassung sind die Gestalt von Wappen und Flagge sowie die Landesfarben weiß-rot geregelt. Letztere entsprechen den traditionellen Farben der Hanse. Das kleine Staatswappen zeigt eine weiße (bzw. silberne) Burg in rotem Schild und geht auf die Stadtsiegel des 12. und 13. Jahrhunderts zurück. Der mittlere Turm, auf dem ein Kreuz steht, wird als Hinweis auf den Sitz eines Bischofs und als Darstellung des mittelalterlichen Mariendoms gedeutet, welcher der Schutzpatronin der Stadt geweiht war und von der auch die „Mariensterne“ über den Seitentürmen ihren Namen haben sollen. Die Gestaltung der Burg variierte im Laufe der Zeit erheblich. Das Tor war mal geöffnet, mit Fallgitter versehen oder als Ausdruck einer wehrhaften Stadt und der Unabhängigkeit gegenüber anderen Landesherren geschlossen. Seit 1835 besteht das Wappen mit geringen Änderungen in seiner heutigen Form. Das von Senat und Bürgerschaft verwendete große Staatswappen, mit Helm, Helmzier und Löwen als Schildhalter, entstand im 16. Jahrhundert. Ursprünglich wurde die Burg, entsprechend der Backstein-Bauweise in Hamburg, rot und der Fond weiß dargestellt. Dies wurde beim 1998 vom Designer Peter Schmidt entworfenen "Hamburg-Logo" wieder aufgenommen. Die Welle symbolisiert darin die Dynamik und Bedeutsamkeit des Hafens, während das offene Tor der roten Burg auf Hamburgs Weltoffenheit hindeutet. Mit dem eigens entwickelten "Hamburg-Symbol" erfüllte der Senat den Wunsch der Bürger nach einem von jedem verwendbaren Wappenzeichen, als Ausdruck der Zugehörigkeit oder Verbundenheit zu Hamburg. Die Landesflagge zeigt die Wappen-Burg auf rotem Grund. Mit dem ältesten derartigen Gesetz überhaupt, regelte Hamburg die Flaggenführung auf Schiffen seit 1270. Zunächst ist es eine rote Flagge auf die später das Wappen gesetzt wird. Aufgrund zunehmender Uneinheitlichkeit von Farben und Burg wird die genaue Gestaltung vom Senat 1751 und nochmals 1834 mit durchgreifenderem Erfolg festgelegt. Die Gestaltung der Burg folgt seit 1860 der Wappen-Darstellung. Die Staatsflagge ist dem Senat vorbehalten. Sie zeigt das große Wappen mit weißer Umrahmung auf rotem Grund und wurde 1897 geschaffen. Eine schwarz-rot-golden unterlegte Staatsflagge bildet den Stander, der vom Ersten Bürgermeister und dem Bürgerschaftspräsidenten bei Staatsbesuchen am Fahrzeug geführt wird. Ein Wappen der Admiralität, die Wappen-Burg mit darunter gelegtem Anker, besteht seit 1642 und wird von staatlichen Wasserfahrzeugen geführt. Ebenso tragen diese die Admiralitätsflagge, welche das Wappen auf rotem Grund zeigt, als Bugflagge (Gösch). Sie wird sonst ausschließlich von Behörden verwendet, die der Seeschifffahrt dienen. Hymne, Stadtname, Stadtpatrone, Wahlsprüche. Die bei offiziellen Anlässen verwendete, aber nicht rechtlich festgeschriebene Landeshymne Hamburgs ist "Stadt Hamburg an der Elbe Auen". Das 1828 entstandene Lied wird auch Hammonia genannt, eine neulateinische Form des Stadtnamens (eigentlich "Hamburgum"). 1370 wird in einem Schreiben der Stadtname erstmals fälschlich als Burg bzw. Stadt des Hammon (= römischer Gott Jupiter) bezeichnet. Tatsächlich leitet sich der Name Hamburg – ausgehend von der Hammaburg im 9. Jahrhundert – vom altsächsischen Wort "hamme/ham", für ein in die Marsch vorspringendes erhöhtes (auch bewaldetes) Gelände am Ufer von Fluss oder Sumpf ab. Die Bezeichnung Hammonia, als Name der Schutzgöttin der Stadt, geht auf eine 1710 erschaffene Kantate von Barthold Heinrich Brockes zurück und wird nachfolgend auch häufig als bildliche Allegorie, in Form einer Frauengestalt dargestellt, die die Stadt repräsentiert. Stadtpatronin der Zeit vor der Reformation ist hingegen Maria, der auch der ehemalige Hamburger Mariendom geweiht war. Der lateinische Inschrift über dem Portal des Rathauses: "„Libertatem quam peperere maiores digne studeat servare posteritas“" (sinngemäß: „Die Freiheit, die die Alten erwarben, möge die Nachwelt würdig zu erhalten sich bemühen“) wird auch als Wahlspruch der Stadt angesehen, ist als solcher jedoch nicht verankert. Er war bereits an zwei früheren Stadttoren und im mittelalterlichen alten Rathaus zu lesen und weist auf das Selbstbewusstsein eines Stadtstaates hin, der als reichsunmittelbare Freie Reichsstadt jedwede Fürstenherrschaft abgestreift hat. Am Sitz von Parlament und Landesregierung wird er heute auch im Hinblick auf die errungene freiheitlich Demokratie und die republikanische Tradition der Stadt gedeutet. Seit Beginn des 19. Jahrhunderts trägt die Stadt auch offiziell den Beinamen Freie Stadt, als ehemals völlig souveräner Staat und heutiges Bundesland. In gleicher Zeit wurde der bereits zuvor verwendete Zusatz Hansestadt, wie auch in den beiden anderen gemeinsamen Erben der Hanse, der Schwesterstädte Bremen und Lübeck, Teil des Staatstitels. Der Ausspruch „Hamburg – Das Tor zur Welt“ oder „Deutschlands Tor zur Welt“ besitzt seit langem eine hohe Bekanntheit, im Gegensatz zu anderen kurzfristigen Beinamen oder Sprüchen der Stadtwerbung. Er tauchte erstmals nach dem Beitritt Hamburgs zum deutschen Zollgebiet (1888) auf, einer Zeit, in der sich Hamburg zu einem der führenden Welthäfen entwickelte. In der Präambel der 1952 verabschiedeten Landesverfassung bezeichnet Hamburg sich selbst als „Welthafenstadt“, die „eine ihr durch Geschichte und Lage zugewiesene, besondere Aufgabe gegenüber dem deutschen Volke zu erfüllen [hat]. Sie will im Geiste des Friedens eine Mittlerin zwischen allen Erdteilen und Völkern der Welt sein.“ Auszeichnungen. Zurückgehend auf das Hamburger Stadtrecht des 13. Jahrhunderts dürfen Hanseaten keine Auszeichnungen „fremder Herren“ annehmen. An diese Tradition hält man sich in der Regel bis heute und sie ist insbesondere bei Bediensteten des Staates vorgeschrieben. So lehnte der Hamburger Senator und Bundeskanzler Helmut Schmidt mehrfach die Annahme des Bundesverdienstordens ab. Da Hamburg auch selbst keine Orden vergibt, ehrt der Senat seit 1813 Persönlichkeiten mit der Ehrenbürgerwürde als wichtigster Auszeichnung (siehe: Liste Hamburger Ehrenbürger). Daneben bestehen eine Reihe weiterer Auszeichnungen, Medaillen, Ehrentitel und Kulturpreise der Stadt und die Vergabe der traditionellen Portugaleser-Münzen (weitere Preise: Bürgermeister-Stolten-Medaille, Biermann-Ratjen-Medaille, Lessing-Preis, Bach-Preis, Lichtwark-Preis, Fritz-Schumacher-Preis, Hubert-Fichte-Preis, Edwin-Scharff-Preis, Aby-M.-Warburg-Preis). Darüber hinaus werden von anderen Hamburger Institutionen oder Stiftungen weitere Auszeichnungen und Preise vergeben. Webauftritt. Der Webauftritt der Stadt Hamburg  "hamburg.de" – bietet Bürgern der Hansestadt Hamburg und Touristen mit Hotelangeboten, Veranstaltungsankündigungen, Jobinformationen und weiteren Informationen ein breites Angebot. Die Axel Springer AG ist mit 61,9 Prozent, die Stadt Hamburg selbst mit 25,1 Prozent an dem Portal beteiligt. Weitere Anteile haben die Hamburger Sparkasse und die Sparkasse Harburg-Buxtehude. Der Webauftritt hatte im Mai 2015 knapp 5,2 Millionen Besucher. Neubürger-Service. Der Hamburger Neubürger Service (Hamburg Welcome Center) im Gebäude der Handelskammer am Alten Wall macht Neubürger, auswärtige/ausländische Unternehmen und ihre Mitarbeiter sowie qualifizierte ausländische Fachkräfte und ausländischen Studenten mit der Infrastruktur und den Behörden der Stadt vertraut. Kultur und Sehenswürdigkeiten. Hamburg hat über 60 Theater, über 100 Musikclubs, etwa 60 Museen, rund 280 Musikverlage und 200 Tonträger-Unternehmen. Außerdem leben und arbeiten in Hamburg mehr als 10.000 selbstständige Künstler. Es gibt fast 30 Kinos und Programmkinos. Über 10,3 Millionen Besucher zählte die Hamburger Kulturbehörde alleine für Veranstaltungen, die öffentlich gefördert wurden. 4,2 Millionen Besucher zählten die Theaterbühnen der Stadt in der Saison 2005/2006. Hamburg ist mit 2383 Theaterbesuchern je 1000 Einwohner führend in Deutschland und liegt selbst nach Abzug der Musicalbesucher vor den nachfolgenden Ländern Bremen (921) und Berlin (907). Zudem sind in Hamburg einige Sehenswürdigkeiten von überregionaler Bedeutung beheimatet. In einer weltweiten Umfrage der DZT wurden gleich vier Orte unter die TOP 100 Sehenswürdigkeiten Deutschland gewählt. Auf Platz 22 der Hamburger Hafen und Fischmarkt, auf Platz 26 die Speicherstadt mit Miniatur Wunderland, auf 58 die Reeperbahn und auf 93 die Alster. Musicals. a> – rechts der Bau für das Musical "König der Löwen", links der Neubau für "Das Wunder von Bern". Hamburg ist – mit einigem Abstand – der weltweit drittgrößte Musicalstandort nach New York und London und zählte im Jahr 2007 zwei Millionen Musicalbesucher. Die Stage Entertainment unterhält mit dem TUI Operettenhaus, der Neuen Flora, dem Theater im Hafen und dem Theater an der Elbe vier größere Musicaltheater mit einer Besucherkapazität zwischen 1400 (Operettenhaus) und 2030 (Theater im Hafen) Plätzen sowie in der Speicherstadt das Theater Kehrwieder (bis 320 Plätze) in dem zeitweise unter anderem Musicals, Varieté oder Kabarett dargeboten werden. In dem alten Speicher sind ebenfalls die Stage Entertainment Studios und die Joop van den Ende Academy eingerichtet, die auf die Musicalausbildung spezialisiert ist. Auch die seit 1985 bestehende Stage School bildet Darsteller für diesen Bereich aus. Hinzu kommen zahlreiche kleinere Bühnen, wie beispielsweise das St. Pauli Theater, der Delphi Showpalast oder Schmidts Tivoli und Schmidt Theater, auf denen vornehmlich eigenproduzierte Musicals und Gastaufführungen gespielt werden. Gastspiele sind zudem häufig in zahlreichen anderen Häusern, wie auch den großen Staatstheatern während der sommerlichen Spielzeitpausen, oder in temporären Spielstätten zu sehen. So kehrte Ende 2010 "Cats" vorübergehend nach Hamburg zurück: Zum Auftakt einer Europa-Tournee gastierte das Musical für zwei Monate in einem eigens angefertigten Musical-Zelt auf dem Heiligengeistfeld. Am 13. März 2013 feierte das vierte große Musicaltheater – nach dem Operettenhaus, Neuer Flora und Theater im Hafen – in der Hansestadt Richtfest. Das Stage Theater an der Elbe wurde im Frühjahr 2014 fertiggestellt und bietet 1.850 Sitzplätze. Im Stadtteil Hamburg-Hammerbrook, integriert in die bestehende Hamburger Großmarkthalle, eröffnete im März 2015 ein weiteres Musical-Theater, das Mehr! Theater, betrieben von Mehr! Entertainment. Das Theater zeichnet sich durch eine besonders wandlungsfähige Bühne aus, die neben Musicals für viele unterschiedliche Veranstaltungen genutzt werden soll und bis zu 3.500 Zuschauern Platz bietet. Ein Meilenstein bei der Entwicklung zur Musicalstadt war die Deutschlandpremiere von Andrew Lloyd Webbers "Cats" 1986 im umgebauten Operettenhaus, das durchgehend fünfzehn Jahre (bis 2001) gespielt wurde. In eigens neu erbauten Theatern folgten die Produktionen von "Das Phantom der Oper", das in der Neuen Flora ab 1990 für elf Jahre gespielt wurde und "Buddy", das ab 1994 über sechs Jahre im Theater im Hafen lief. Weitere mehrjährig gespielte Musicals in den gleichen Spielstätten waren "Tanz der Vampire" (Dezember 2003 bis Januar 2006), "Dirty Dancing" (März 2006 bis Juni 2008), "Mamma Mia!" (November 2002 bis September 2007), "Ich war noch niemals in New York" (Dezember 2007 bis September 2010), "Sister Act", Dezember 2010 bis August 2012 im Operettenhaus, und "Tarzan" (Oktober 2008 bis September 2013). Zu den aktuellen Produktionen der Großtheater gehören "Der König der Löwen" – seit 2001 im Theater im Hafen, "Das Phantom der Oper" – seit 2013 in der Neuen Flora, "Rocky" – seit 2012 im Operettenhaus, und "Das Wunder von Bern", seit 2014 im Theater an der Elbe. Oper und Ballett. Die staatseigene Hamburgische Staatsoper wurde am 2. Januar 1678 als erstes öffentliches Opernhaus Deutschlands in Hamburg gegründet. Kunstsinnige Hamburger Bürger setzten sich seinerzeit für eine „Oper für Jedermann“ in Hamburg ein. Ratsherr Gerhard Schott, Jurist Peter Lütjens und Organist Johann Adam Reincken setzen nicht nur die Gründung eines öffentlichen Opernhauses im Senat durch, sondern bilden auch das erste Direktorium des auf privatwirtschaftlicher Basis geführten Opernhauses. Zunächst als schlichter Holzbau des italienischen Architekten Sartorio erbaut, wurde dieser später abgerissen und an seinem heutigen Standort an der Dammtorstraße von dem Architekten Carl L. Wimmel neu erbaut; später dann – wiederum von Martin Haller – prunkvoller umgestaltet. Dieser Bau wurde durch die Luftangriffe des Zweiten Weltkrieges erheblich beschädigt. Heute steht an dieser Stelle ein Fünfziger-Jahre-Kubusbau, dessen Architektur nicht ganz unumstritten ist. Die Hamburgische Staatsoper ist eine Oper von Weltruf: Montserrat Caballé begann hier ihre Weltkarriere, Plácido Domingo startete von hier aus seine Karriere in Europa, ferner gaben hier unter anderem Opernstars wie Luciano Pavarotti, Mirella Freni, Birgit Nilsson und Maria Callas ihr Können zum Besten. Die heutige Theaterleitung übernahm in der Spielzeit 2005/2006 die in Sydney geborene Dirigentin Simone Young, die gleichzeitig musikalische Leiterin des Philharmonie-Orchesters der Staatsoper, den 1828 begründeten Hamburger Philharmonikern ist. Eines der weltbesten Ballett-Ensembles, das Hamburg Ballett unter der Leitung von John Neumeier (seit 1973) hat an der Staatsoper seine Heimat. Unter Neumeier entstand auch ein Ballettzentrum mit seiner Ballettschule. Konzerthäuser. Bisher steht den Hamburgern und Besuchern nur ein Konzerthaus für klassische Musik zur Verfügung: die Laeiszhalle, benannt nach dem Reeder Carl Laeisz und dessen Frau Sophie Christine, die mit einer testamentarischen großzügigen Summe den Bau eines Konzerthauses ermöglichten. Nach den Plänen von Martin Haller und Wilhelm Emil Meerwein wurde das neobarocke Konzerthaus zwischen 1904 und 1908 am heutigen Johannes-Brahms-Platz errichtet. Inzwischen finden dort nicht nur klassische Konzerte statt, sondern auch Konzerte moderner Musikrichtungen, wie beispielsweise Jazz. Neben der Laeiszhalle ist für das Jahr 2017 ein zweites Konzerthaus im Bau: die Elbphilharmonie in der HafenCity. Dieser repräsentative Bau erhält eine Fassade aus Glas, ähnelnd einem Eisberg bzw. einer Meereswoge (je nach Inspiration des Betrachters), auf dem ehemaligen Kaispeicher A am Zipfel des Dalmannkais. 2.150 Sitzplätze soll der große, sowie weitere 550 der kleine Saal bieten. Ebenso soll das Konzerthaus ein 5-Sterne-Hotel mit Hafenblick sowie 45 Wohnungen beherbergen. Theater. Hamburg verfügt über zwei staatseigene Sprechtheater, das Deutsche Schauspielhaus und das Thalia Theater sowie eine große Zahl privat geführter Theater. Zu einem der ältesten und durch die zahlreichen TV-Sendungen bekanntesten Theater in Hamburg zählt das Ohnsorg-Theater in dem Stücke in plattdeutscher Sprache aufgeführt werden. Die größten Bühnen für internationalen zeitgenössischen Tanz und Theater bietet die internationale Kulturfabrik Kampnagel in Winterhude. (Weitere Theater) Besucherorganisationen. Hamburgs größte Besucherorganisation ist die Hamburger Volksbühne e. V. Sie wurde am 4. Januar 1919 als Verein gegründet und hat über 22.000 Mitglieder. Die TheaterGemeinde Hamburg wurde 1984 gegründet und hat 14.000 Mitglieder. Öffentliche Bücherhallen. 2010 existierten in Hamburg 36 Bücherhallen die sich über das gesamte Stadtgebiet verteilen. 1.719.595 Medien (Bücher, Blu-rays, DVDs, Zeitschriften etc.) befanden sich im Medienbestand und wurden von 4.435.045 Besuchern 13.779.243 mal ausgeliehen. Museen und Ausstellungen. In Hamburg sind etwa 60 Museen beheimatet. Darunter sind sieben staatliche Museen mit weiteren Außenstellen sowie zahlreiche private Museen und Sammlungen. Die Kunsthalle und das Museum für Kunst und Gewerbe zählen zu den wichtigen Kunstmuseen und die Deichtorhallen und das Bucerius Kunst Forum präsentieren bedeutende Ausstellungen. Daneben gibt es Museen zur Regionalgeschichte, wie das Museum für Hamburgische Geschichte, zu den Themen Technik und Arbeit, wie das Museum der Arbeit sowie eine Reihe von Sammlungen aus verschiedenen Bereichen der Wissenschaft vom Völkerkundemuseum bis zum modernen Planetarium. Einige Ausstellungen haben eher unterhaltenden Charakter, wie das Miniatur Wunderland mit der größten Modelleisenbahn der Welt oder Deutschlands ältestes Wachsfigurenkabinett, das Panoptikum. Das Internationale Maritime Museum ist eines von mehreren Museen, die auf die Themen Schifffahrt, Hafen und dort umgeschlagene Waren ausgerichtet sind. Darunter sind auch verschiedene, teils noch betriebsfähige Museumsschiffe im Hafen oder die BallinStadt, die über die früher von dort aufgebrochenen Auswanderer informiert. Einige Gedenkorte, wie die KZ-Gedenkstätte Neuengamme, erinnern zudem an die Verfolgungen während der Zeit des Nationalsozialismus und den Zweiten Weltkrieg. Bauwerke. Wie im ganzen norddeutschen Raum ist auch in Hamburg die traditionelle Grundbausubstanz aus Backstein bzw. Klinker oder Ziegelstein. Bei neueren Gebäuden haben allerdings auch hier Fassaden aus Stahl und Glas die traditionellen Mauerwerke abgelöst. Durch schwere Bombardierungen im Zweiten Weltkrieg wurden ganze Stadtteile vollständig zerstört, und städtebauliche Maßnahmen der nachfolgenden Jahrzehnte taten ihr übriges, so dass heute verhältnismäßig wenig zusammenhängende Quartiere aus alten Gebäuden in Hamburg zu finden sind. So sind beispielsweise in Eimsbüttel, im Grindelviertel oder in Eppendorf noch zusammenhängende Viertel aus gründerzeitlichen Etagenhäusern zu finden, in Harvestehude und entlang des Elbufers viele ältere Villen aus den letzten zwei Jahrhunderten. Relikte des „alten Hamburgs“ sind in der Innenstadt in der Deichstraße und dem auf dem anderen Ufer des Nikolaifleets im Cremon zu sehen. Auch das Gängeviertel bietet einen Einblick in typische Hamburger Bebauung vor der großflächigen Umgestaltung der City im 19. und 20. Jahrhundert. Architektonische Sehenswürdigkeiten in Hamburg sind das Chilehaus, das zum Expressionismus zählt und zwischen 1922 und 1924 erbaut wurde, die Kirche St. Michaelis (1648–1673), die Alsterarkaden bei der Binnenalster (1843–1846), die Colonnaden in der Hamburger Innenstadt (um 1880), das moderne Dockland an der Elbe (2002–2005), die Krameramtswohnungen von 1676, die Laeiszhalle (Musikhalle Hamburg) die zwischen 1904–1908 gebaut wurde, das Curiohaus (1908–1911), die künftige Elbphilharmonie in der HafenCity und die Palmaille, eine der ältesten Straßen der Stadt im Stadtteil Hamburg-Altona. Diese Bauwerke werden bei der offiziellen Hamburg Tourismus Tour der Freien und Hansestadt Hamburg vorgestellt. Die Stadtansicht wird geprägt durch die Türme der fünf Hauptkirchen St. Petri, St. Jacobi, St. Katharinen und St. Michaelis („Michel“), dem Wahrzeichen der Stadt, sowie die als Mahnmal für den Zweiten Weltkrieg erhalten gebliebene Turmruine von St. Nikolai. Wenig bekannt ist, dass der Turm das höchste konventionelle Gebäude der Stadt ist und von 1874 bis 1876 das höchste weltweit war. Sechster Turm und weltliches Gegenstück zu den Kirchen ist der Rathausturm. Das 1897 fertiggestellte Rathaus hat mit seinen 647 teils prunkvoll ausgestalteten Sälen und Zimmern schlossartige Dimensionen. Auf seiner Rückseite steht die Handelskammer Hamburg mit der Hamburger Börse. Diese architektonische Silhouette soll gewahrt werden, weshalb sich nur wenige andere hohe Gebäude in der weiteren Innenstadt befinden. Herausstechend sind hier nur das dreiflügelige Emporio-Hochhaus (vormals Unilever-Haus) von 1964, das Hotel am Kongresszentrum von 1973, der Komplex am Berliner Tor von 1962 bzw. 2004 und die drei Mundsburg-Türme. Die höchsten Bauwerke sind der 279,8 Meter hohe Fernsehsender Heinrich-Hertz-Turm („Tele-Michel“) und ein Sendemast des Rundfunksenders Billwerder-Moorfleet mit 304 m. Markantestes Bauwerk im Hafen ist die Köhlbrandbrücke. Der gesamte Hafen ist ein Besuchermagnet, der jährlich über acht Millionen Gäste anzieht und damit zu den meistbesuchten Attraktionen Deutschlands gehört. Zu den Höhepunkten zählen die Stippvisiten großer Kreuzfahrtschiffe wie der Queen Mary 2. In der Nähe des Hafens liegt die bekannte Reeperbahn. Das älteste Gebäude Hamburgs steht nach offizieller Lesart weit außerhalb der eigentlichen Stadtgrenzen auf der Insel Neuwerk in der Elbmündung. Der dortige Leuchtturm wurde 1310 errichtet. Tatsächlich ist das älteste Gebäude auf dem Boden Hamburgs jedoch die Kirche Sinstorf im Stadtteil Sinstorf mit knapp 1000 Jahren, die Kirche ist jedoch nicht originär von Hamburg erbaut worden. Weitere architektonische Besonderheiten in Hamburgs Zentrum sind das Chilehaus, der Hauptbahnhof und der Bahnhof Hamburg-Dammtor. Der Jungfernstieg gilt als Hamburgs Flaniermeile, das Einkaufsviertel südwestlich davon wird durch zahlreiche Einkaufspassagen geprägt. Die Grenze zwischen Altstadt und Neustadt und die südliche Altstadt wird von Fleeten und Kanälen durchzogen, die über die Binnenalster das Zentrum mit dem Hafen verbinden und früher als Transportwege elementarer Bestandteil der Hamburger Wirtschaft waren. Am Hafen und entlang der Elbe gibt es zahlreiche Sehenswürdigkeiten wie die Speicherstadt, die Landungsbrücken, der Alte Elbtunnel, der Hamburger Fischmarkt mit der Fischauktionshalle und das Blankeneser Treppenviertel. Imposant sind die historischen Bauwerke im Zentrum der Hamburger Wallanlagen am Sievekingplatz. Die Hamburger Wallanlagen waren Befestigungen, die von 1616 bis 1625 um Hamburg errichtet wurden. Während der ersten Hälfte des 19. Jahrhunderts wurden sie abgetragen und in Grünanlagen umgewandelt. Sie beginnen an der Elbe nah den Landungsbrücken und verlaufen parallel zum Holstenwall und schließen sich nahtlos an den Park Planten un Blomen an. Am Sievekingplatz befindet sich das Justizforum. Das sind das Hanseatische Oberlandesgericht im Zentrum, das Strafjustizgebäude und das Ziviljustizgebäude. Zusammen mit den Grünflächen rundherum und der benachbarten Laeiszhalle stellt das Justizforum ein Ensemble historischer Architektur dar. Das Altonaer Rathaus am Platz der Republik in Hamburg-Altona-Altstadt ist seit 1898 das (zeitlich dritte) Rathaus der bis 1938 selbständigen Stadt Altona. 2011 kam der Nationalpark Hamburgisches Wattenmeer zum Gebiet des Weltnaturerbes des Wattenmeeres der Nordsee hinzu und 2015 wurden die Speicherstadt als größtes zusammenhängendes Lagerhaus-Ensemble mit ihren Brücken, Wasserwegen und Straßen und das benachbarte Kontorhausviertel mit dem Chilehaus zum UNESCO-Welterbe ernannt. Hamburg war damit das letzte deutsche Bundesland, das eine eigene Kulturerbe-Stätte bekam. Beide verdeutlichen die Entwicklung Hamburgs zu einer weltweiten Handelsmetropole, in der im Gegensatz zum vormaligen alt-hamburgischen Bürgerhaus, eine Trennung von Warenlagerung, Büro- und Wohnnutzung notwendig wurde. Die zwischen 1920 und 1940 überwiegend mit regionaltypischen Klinkerfassaden errichteten Kontorhäuser, bildeten das erste eigene Bürostadtviertel auf dem europäischen Kontinent. Der Bautypus des Kontorhauses, dessen deutsches Zentrum und Ausgangsort in Hamburg lag, erreichte hier den Höhepunkt seiner Entwicklung. So ist die Gestaltung des Chilehauses, mit seiner an einen Schiffsbug erinnernden Spitze, ein herausragendes Beispiel der Architektur der Moderne und Paradebeispiel des Backsteinexpressionismus. Zur Nominierung weiter im Gespräch ist zum einen die Hamburger Sternwarte in Bergedorf, die als Forschungssternwarte der Universität Hamburg betrieben wird und mit ihren zahlreichen historischen Gebäuden und Instrumenten 2008 offiziell zum "Kulturdenkmal von nationalem Rang", einem Kreis von rund 500 herausragenden Denkmälern in Deutschland, ernannt wurde. Zum anderen ist dies der 1611 begründete Jüdische Friedhof in Altona, der auf Grund seines Alters und der Anzahl an wertvollen Grabsteinen mit der Besonderheit, dass hier sowohl von der iberischen Halbinsel eingewanderte Juden (Sepharden) als auch mittel- und osteuropäischen Juden (Aschkenasim) bestattet wurden, zu den bedeutendsten jüdischen Grabstätten der Welt zählt. Die größten städtebaulichen Veränderungen in der Innenstadt nach der Jahrtausendwende sind der Bau der HafenCity mit der Elbphilharmonie, der U-Bahn-Linie U4 und des Kreuzfahrtterminals. Brücken. Mit etwa 2500 Brücken gilt die Stadt als eine der brückenreichsten in Europa. Bedingt ist diese hohe Zahl durch die Lage der Stadt im Binnendelta der Elbe sowie den Niederungen von Alster und Bille nebst zahlreichen Nebenflüssen, Fleeten und Kanälen. Hinzu kommt der Ausbau des Hafens und dessen Anschluss an ein dichtes Straßen- und Eisenbahnnetz, das die vielen Wasserläufe überbrückt. Eine weitere Besonderheit ist die als Hochbahn ausgebaute U-Bahn, die zu großen Teilen oberirdisch und damit über zahlreiche Brücken durch die Stadt verläuft. Die tatsächliche Zahl der Brücken ist nicht bekannt. Die Zählung von Brücken gilt schon allein deswegen als schwierig, weil es unterschiedliche Definitionen gibt, was überhaupt eine Brücke ist. Nach dem Hamburger "Landesbetrieb Straßen, Brücken und Gewässer" (LSBG) gilt als Fahrzeugbrücke, was mindestens eine lichte Weite von zwei Metern, und als Fußgängerbrücke, was eine Stützweite von mindestens fünf Metern hat. Wenn eine Überführung allerdings mehr als 80 Meter Breite hat, so ist sie ein Tunnel. Die Deutsche Bahn hingegen definiert alles, was mehr als zwei Meter Spannweite hat, als Brücke, so dass auch größere Signalausleger über Gleisen dazu gehören. Nach einer offiziellen Statistik hatte die Stadt Hamburg im Jahr 2004 einen Bestand von 2496 Brücken, davon wurden 1256 von dem Landesbetrieb (LSBG) betreut, 354 standen als Hafenbrücken unter der Verwaltung der Hamburg Port Authority (HPA) einschließlich der Brücken der Hafenbahn, 477 Brücken gehören zur Deutschen Bahn, 396 zur Hamburger Hochbahn und 13 zur AKN Eisenbahn. Private Brücken, wie zum Beispiel in Hagenbecks Tierpark oder auf Fabrikgrundstücken wurden nicht einbezogen. Hingegen zählen Rohrbrücken, also die Überbauungen für Fernwärme und Wasserleitungen, oder auch größere Schilderträger über Autobahnen und die Blendschutzbauten über die Flughafenumgehung in Fuhlsbüttel dazu. Stolpersteine. Von den weltweit über 53.000 verlegten Stolpersteinen befinden sich allein 4643 Stolpersteine in Hamburg, davon wiederum die meisten, nämlich 1992, im Bezirk Eimsbüttel. Parks und Grünanlagen. Kleine Alster in Richtung Binnenalster Über das gesamte Stadtgebiet hinweg sind kleinere Parks und Grünanlagen verteilt, die Hamburg zu einer grünen Stadt machen. Zu den größten Anlagen zählen der Altonaer Volkspark und der Stadtpark. Zu den besonders aufwendig gestalteten Anlagen gehört Planten un Blomen mit der größten japanischen Gartenanlage in Deutschland. Bekannt sind weiterhin der Loki-Schmidt-Garten oder der Jenischpark. Südöstlich befinden sich die weitläufigen Obstanbaugebiete der Vier- und Marschlande. Insgesamt größte Grünanlage ist mit 400 Hektar der Friedhof Ohlsdorf, der größte Parkfriedhof der Welt. Der Alsterpark rund um die Außenalster ist Hamburgs beliebteste Joggingstrecke. Der Tierpark Hagenbeck verfügt ebenfalls über eine schöne Parkanlage, wird jedoch vor allem durch seine 210 Tierarten zur Sehenswürdigkeit. Der von der Familie Carl Hagenbecks geführte Tierpark war bereits zu seiner Eröffnung als weltweit erster "gitterloser Zoo" wegweisend für die Gestaltung solcher Anlagen und wird neben den historischen Freigehegen beständig erweitert. Als eigenständige Attraktion entstand so auch 2007 das Tropen-Aquarium Hagenbeck. Sport. Bedeutende Sportstätten Hamburgs sind das traditionsreiche Volksparkstadion, die Multifunktionshalle O2 World Hamburg, die Alsterschwimmhalle, die Sporthalle Hamburg (auch als „Alsterdorfer Sporthalle“ bekannt), das Millerntor-Stadion und die "Jahnkampfbahn" im Hamburger Stadtpark. Der älteste deutsche Sportverein kommt mit der Hamburger Turnerschaft von 1816 aus Hamburg. Seit Anbeginn 1963 spielt der 1887 gegründete Hamburger SV in der Fußball-Bundesliga und ist das einzige Gründungsmitglied der Bundesliga, das bis heute nie abgestiegen ist. Mit dem FC St. Pauli kommt ein weiterer Verein, der schon mehrfach in der ersten Fußball-Bundesliga spielte, aus Hamburg. Im Jubiläumsjahr 2010 feiert der Verein seinen fünften Aufstieg in die erste Liga. Seit 2002 sind die Handballer des HSV Hamburg (Handball-Bundesliga) sowie das Eishockeyteam der Hamburg Freezers (Deutsche Eishockey Liga) in der "O2 World" zu Hause. Der VT Aurubis Hamburg, der in der CU-Arena in Hamburg-Neugraben gehört zur 1.Volleyball-Bundesliga der Frauen. Im Hockey sind Hamburger Vereine wie Der Club an der Alster, der Harvestehuder THC, oder der Uhlenhorster HC sowohl bei den Herren als auch den Damen bundesweit dominierend. Im Unihockey ist der ETV Hamburg seit 2003 in der 1. Bundesliga der Herren. Im Basketball sind seit der Saison 2014/15 die Hamburg Towers in der ProA aktiv. Der Baseball-Bundesligist Hamburg Stealers war 2000 Deutscher Meister. Zu den großen jährlichen Sportereignissen in Hamburg gehören in der zweiten Aprilhälfte der Hamburg-Marathon sowie im Sommer der ITU World Triathlon Hamburg, das Radrennen Vattenfall Cyclassics und der HSH Nordbank Run durch die Hafen-City. Alle Ereignisse ziehen an den Wettkampfstrecken durch die Stadt ein Massenpublikum an. Pferdesport hat in der Hansestadt einen hohen Stellenwert. Ein gesellschaftliches Ereignis sind die Hamburger Derbys im Pferderennen (Juli) sowie im Springreiten (Mai). Ebenso seit 1892 die German Open im Herrentennis. Hamburg gehörte zu den offiziellen Ausrichtungsorten der Fußball-Weltmeisterschaft 1974 und 2006 sowie der Handball-Weltmeisterschaft der Männer 2007 und war im August 2007 Gastgeber der ITU World Championships 2007 im Triathlon. Am 12. Mai 2010 fand in der heutigen "O2 World" das Finale der Europa League statt. Der Snookerverein SC Hamburg spielt in der 1. Bundesliga Snooker. Der Billardverein BC Queue Hamburg spielt in der 2. Bundesliga Pool. Hamburg kandidierte für die Olympischen Sommerspiele 2024. Regelmäßige Veranstaltungen. Hamburg bietet zu jeder Jahreszeit Veranstaltungen für die verschiedensten Geschmäcker, wie den allsonntäglichen Hamburger Fischmarkt und den Hamburger Dom (dreimal im Jahr). Der Hafengeburtstag, der im Mai gefeiert wird, ist neben dem Alstervergnügen, das im August rund um die Binnenalster stattfindet, die größte Veranstaltung, mit mehr als einer Million Besucher. Einige Filmfestivals (Filmfest Hamburg, Lesbisch Schwule Filmtage Hamburg, Fantasy Filmfest); der Christopher Street Day (CSD) sowie die Hamburg Harley-Days, eines der größten deutschen Motorradtreffen finden hier alljährlich statt. Jedes Jahr im Juni/Juli wird in Hamburg der europaweit größte Motorradgottesdienst mit 35.000 bis 40.000 Teilnehmern abgehalten. In der zweiten Hälfte des August findet auf dem Gelände der Theaterfabrik Kampnagel das internationale Sommerfestival statt. Das Internationale Sommerfestival ist das größte Festival für zeitgenössischen Tanz, Performances, Konzerte und Theater in der Hansestadt. Zahlreiche Gastspiele aus dem In- und Ausland bieten ein buntes Programm. Im Bezirk Altona findet seit 1999 im Juni die "altonale" statt, ein zweiwöchiges Kultur- und Straßenfest. Seit 2010 findet jährlich im September das Internationale Straßenkunstfestival STAMP statt. Ende November/Dezember finder der Hamburger Weihnachtsmarkt statt. Kulinarische Spezialitäten. Zu den bekannten Hamburger Gerichten gehören unter anderem "Birnen, Bohnen und Speck", "Scholle Finkenwerder Art", Stint, Grünkohl, "Hamburger Aalsuppe", Labskaus, "Snuten un Poten", "Rundstück warm", Rote Grütze, Schwarzsauer und Franzbrötchen. Wirtschaft und Infrastruktur. Hamburg hat als Handels-, Verkehrs- und Dienstleistungszentrum überregionale Bedeutung und zählt zu den wichtigsten Industriestandorten in Deutschland. Der Hafen zählt zu den weltweit führenden Seehäfen. Wichtigste Wirtschaftszweige sind Logistik, Hafen und maritime Wirtschaft, Luftfahrtindustrie (drittgrößter Standort weltweit), Konsumgüterindustrie (vor allem Lebensmittel), Chemie, Elektrotechnik, Maschinen-, Fahrzeug- und Schiffbau, Mineralölwirtschaft, Banken, Medien und Versicherungen. Neben dem Handels- und Dienstleistungssektor spielen zudem die Bereiche Tourismus, Regenerative Energien und Life Sciences (Medizin und Biotechnologie) eine zunehmend wichtige Rolle. Über 160.000 Unternehmen sind Mitglied in der Handelskammer Hamburg, die als älteste deutsche Handelskammer (1665) ihren Sitz im Gebäude der Hamburger Börse hat. Die Wirtschaftsleistung im Land Hamburg lag, gemessen am Bruttoinlandsprodukt (BIP), bei 94,4 Milliarden Euro im Jahr 2011 (2010: 92,2 Mrd. Euro) und stieg damit im Vergleich zum Vorjahr preisbereinigt um 1,4 Prozent. Die Bruttowertschöpfung im verarbeitenden Gewerbe lag (2010) bei 10,0 Milliarden Euro. Im Vergleich von 272 Regionen der Europäischen Union (ausgehend von Zahlen aus 2011) steht Hamburg nach London, Luxemburg und Brüssel in der Liste der Regionen mit dem höchsten BIP je Einwohner auf dem vierten Platz und hält diesen Platz auch in Bezug auf den Kaufkraftstandard (KKS = 202 im Vergleich zum EU-Durchschnitt: EU-28 = 100). Den Spitzenplatz in Deutschland erreicht Hamburg auch hinsichtlich der Kaufkraft (110,8 Prozent) in den Ländern, gefolgt von Bayern und Baden-Württemberg. Als Region liegt die Kaufkraft Hamburgs bundesweit ebenfalls mit Abstand vorn, gefolgt von Oberbayern und dem hessischen Regierungsbezirk Darmstadt. Nach dem Regierungswechsel 2001 bemühte sich der Senat, mit dem Leitspruch „Metropole Hamburg – Wachsende Stadt“ den Wirtschaftsstandort auszubauen und ein langfristiges Bevölkerungswachstum zu erreichen. Als Ansatzpunkt verfolgte der Senat eine kombinierte Strategie aus der Aktivierung endogener Potenziale und der Stärkung Hamburgs internationaler Ausstrahlung. Hierdurch wurde auch die Entwicklung Hamburgs zum bevorzugten Standort chinesischer Unternehmen in Deutschland gefördert, von denen die Stadt 2013 mehr als 500 beheimatete – so viele wie keine andere deutsche Stadt. Das Leitbild wurde unter dem CDU-Grünen-Senat im Jahre 2010 inhaltlich weiterentwickelt in „Wachsen mit Weitsicht“. Seit dem Regierungswechsel 2011 lautet das Leitbild des derzeitigen SPD-Senats „Wir schaffen das moderne Hamburg“. Auch dieses Leitbild entwickelt die Schwerpunkte der Wirtschafts- und Stadtentwicklung in den Bereichen Wirtschaft und Innovation, Hafen und Schifffahrt, Verkehr und Infrastruktur weiter. Der Schuldenstand des Hamburger Haushalts belief sich im Juni 2013 auf rund 24,913 Milliarden Euro. Die Hansestadt Hamburg hat einen Schuldenstand (Ende 2012) von 13.745 Euro pro Einwohner (zum Vergleich (2012): Bremen 30.246 Euro, Berlin 17.284 Euro). Den öffentlichen Schulden standen Ende Juli 2012 private Vermögen in Höhe von 218 Milliarden Euro gegenüber. Rein statistisch verfügt jeder Hamburger also über ein Vermögen von über 120.000 Euro. Unternehmen. In Hamburg haben 1 von 30 DAX-, 4 von 50 MDAX- und 7 von 50 SDAX-Unternehmen ihren Hauptsitz (DAX: Beiersdorf AG; MDAX: Aurubis AG, Deutsche EuroShop AG, Fielmann AG und TAG Immobilien AG; SDAX: Alstria office REIT AG, Hamburger Hafen und Logistik AG, Hawesko Holding AG, Jungheinrich AG, Tipp24 SE, Tom Tailor Holding AG und VTG AG). Nach Anzahl der Beschäftigten waren im Jahr 2013 die drei größten Arbeitgeber in Hamburg die Stadt selbst (70.000 Mitarbeiter), Airbus (13.300 Mitarbeiter) und die Asklepios Kliniken Hamburg (11.997 Mitarbeiter). Tourismus. 2012 war, wie schon die Vorjahre, ein sehr erfolgreiches für die Hamburger Touristikbranche. Die Gästezahl erreichte mit insgesamt 5.604.000 einen neuen Rekord (+ 10,2 Prozent mehr als 2011). Die Besucher verweilten dabei durchschnittlich 1,9 Tage in der Hansestadt und sorgten so für 10.634.000 Übernachtungen. Die meisten ausländischen Gäste kamen aus Dänemark (131.241), dem Vereinigten Königreich (114.409), der Schweiz (113.206), Österreich (88.048) und den Vereinigten Staaten (74.352). Seit 2013 erhebt Hamburg eine Kultur- und Tourismustaxe, die zu 100 Prozent in touristische, kulturelle und sportliche Projekte investiert wird. Verkehrsmittelverteilung. Der öffentliche Personennahverkehr (ÖPNV) hatte 2008 in Hamburg einen Anteil von 18 % an der Verkehrsmittelwahl (Daten von 2008; motorisierter Individualverkehr 42 %, Fußgänger 28 %, Radfahrer 12 %). Im Vergleich der fünf größten deutschen Städte hatte Hamburg damit den geringsten Anteil des ÖPNV an der Verkehrsmittelwahl (Berlin 26 %, Frankfurt am Main 24 %, München und Köln jeweils 21 %) und, zusammen mit Köln, den höchsten Anteil am Kfz-Verkehr. Beim Fahrradverkehr lag Hamburg knapp über dem deutschen Durchschnitt. Gegenüber 2002 war eine deutliche Steigerung zu verzeichnen; diese war geringer als in Berlin oder München. Kfz-Verkehr. 2012 waren in Hamburg 834.906 Fahrzeuge zugelassen. Jährlich werden in Hamburg ca. 133.000 Neuwagen zugelassen. Hamburg verfügt über gute Straßenverbindungen im Fernverkehr. Mehrere Bundesautobahnen berühren das Stadtgebiet: die A 1 (im Raum Hamburg zudem als E 22), A 7 (im Raum Hamburg zudem als Europastraße E 45), A 23, A 24 (im Raum Hamburg zudem als E 26) und A 25. Ferner existieren südlich der Elbe Autobahnabschnitte mit wenigen Kilometern, die als A 252, A 253 und A 255 bezeichnet sind. Geplant ist eine weiträumige Umfahrung Hamburgs mit der A 20, die von Prenzlau/Rostock kommend derzeit bei Bad Segeberg endet. Sie soll künftig über das nördliche und westliche Umland Hamburgs durch einen neuen, westlich gelegenen Elbtunnel an die A 26 (Hamburg–Stade), von der erst ein Teil gebaut ist, angeschlossen werden. Von dort soll sie durch den Wesertunnel die A 28 und die A 29 anbinden. Diese Planung ist in Schleswig-Holstein umstritten. Auf Hamburgischem Gebiet verlaufen die Bundesstraßen B 4, B 5, B 73, B 75, B 207, B 431, B 432, B 433 und B 447, die größtenteils radial auf den Innenstadtbereich zuführen. Damit wird der Straßenverkehr dort konzentriert, was zu erheblichen Verkehrsproblemen führt. Tangentialverbindungen zur Umleitung des Durchgangsverkehrs und zur großräumigen Erschließung des Stadtgebietes waren in den 1960er-Jahren als Stadtautobahnen geplant. Die Planungen wurden größtenteils, auch durch massive Proteste aus der Bevölkerung insbesondere der betroffenen Stadtteile, aufgegeben. Es bestehen jedoch drei Ringstraßen, die halbkreisförmig um die innere (Ring 1) und äußere Innenstadt (Ring 2) herum und als Viertelkreis durch die nordwestlichen Außenbezirke (Ring 3) verlaufen. Dazu kommen einige weitere vierspurige ausgebaute Hauptstraßen. Das so gebildete "Kernnetz" ist sehr stark durch den Auto- und Schwerlastverkehr belastet, obwohl es häufig als Stadtstraße direkt durch dichtbesiedelte Quartiere führt. So fuhren 2013 durchschnittlich 54.000 Fahrzeuge pro Werktag über die Fruchtallee im Stadtteil Eimsbüttel, davon waren über 3.000 Fahrzeuge des Schwerverkehrs. Insgesamt verfügt Hamburg über fast 4000 Kilometer Straßen (August 2006) mit etwa 7000 Straßennamen. Ein großer Teil dieser Straßen liegt in Tempo-30-Zonen, die in Deutschland in den frühen 1980er-Jahren erstmals in Hamburg ausgewiesen wurden. Hamburgs höchste Hausnummer ist die 792, diese befindet sich in der Fuhlsbüttler Straße. Fahrradverkehr. Eine StadtRAD Leihstation am Alten Wall, unmittelbar neben Rathaus und Börse Hamburg verfügt über etwa 1700 Kilometer Radwege in oft marodem Zustand. Beim ADFC-Fahrradklima-Test 2005, einer Radfahrer-Befragung, hat Hamburg als schlechteste aller 28 beteiligten Städte über 200.000 Einwohner abgeschnitten. Obwohl vom Senat 2008 die Umsetzung einer Radverkehrsstrategie beschlossen wurde, konnte auch 2012 nur Platz 34 von 38 beteiligten Städten dieser Größe erreicht werden. Die Umsetzung des Fahrradverleihsystems StadtRAD wurde von den befragten Radfahrern allerdings mit der besten Note aller deutschen Städte gewürdigt. Bei mehreren anderen Themen, so Falschparker auf Radwegen, deren Breite und Oberflächenbeschaffenheit sowie Ampelschaltungen, hat Hamburg hingegen die schlechtesten oder zweitschlechtesten Bewertungen aller 332 beteiligen Städte überhaupt erhalten. Eine Besonderheit sind die Hamburger Fahrradhäuschen, die seit Anfang der 1990er-Jahre vor allem in den dichtbebauten Wohngebieten der Bezirke Altona, Eimsbüttel und Hamburg-Nord stehen. Darin können Fahrräder abgestellt werden, für die in den gründerzeitlichen Gebäuden und auf den stark genutzten Grundstücken anderweitig kaum diebstahl- und vandalismussichere Abstellplätze bestehen. Auf einigen wenigen bereits ausgebauten Abschnitten von Velorouten sind Straßenabschnitte als Fahrradstraßen ausgewiesen, so dass Radfahrer Vorrang gegenüber dem motorisierten Verkehr genießen. In der Fahrradstraße Uferstraße–Lortzingstraße entlang des Eilbekkanals besteht Vorfahrt gegenüber den Nebenstraßen. Auch am Falkensteiner Ufer im Verlauf des Elberadwegs gibt es seit dem Jahr 2012 eine Fahrradstraße. In Hamburg sind etwa 700 von 900 Einbahnstraßenabschnitte innerhalb von Tempo-30-Straßen für Radfahrer entgegen der Fahrtrichtung frei gegeben. Seit etwa 2010 werden in Hamburg bei Straßenumbauten häufiger Radfahrstreifen und Schutzstreifen eingesetzt, die auch als Ersatz für kaum ausbaubare Radwege eingesetzt werden, zum Beispiel in einem Abschnitt der Alsterkrugchaussee, an Baumwall und Rödingsmarkt. Fernverkehr. Hamburg ist der größte Eisenbahn-Knotenpunkt Nordeuropas. Die Hansestadt kann auf eine lange Eisenbahngeschichte, seit der ersten Strecke 1842, zurückblicken. Im Fernverkehr gibt es die verschiedenen Intercity-Express-Linien, Intercity-Linien bis in das europäische Ausland, beispielsweise nach Kopenhagen oder Basel, einzelne Züge fahren auch nach Breslau, Wien oder Prag. Durch Nachtzüge sind unter anderem München, Zürich, Brüssel, Prag, Wien und Amsterdam direkt von Hamburg aus erreichbar. Die meisten Fernzüge führen über den Hauptbahnhof und beginnen und enden oft im Bahnhof Hamburg-Altona. Daneben existieren die Fernbahnhöfe Hamburg-Dammtor, Hamburg-Harburg und Hamburg-Bergedorf. Neben zahlreichen Regionalbahn-Linien, die das Hamburger Umland erschließen, bestehen Regional-Express-Verbindungen in Richtung Elmshorn – Neumünster – Kiel bzw. Flensburg – Padborg, Lübeck und Schwerin – Rostock. Ähnliche Angebote bilden die Metronom-Züge in Richtung Stade – Cuxhaven, Bremen und Lüneburg – Uelzen (– Hannover – Göttingen) und die Nord-Ostsee-Bahn in Richtung Elmshorn – Westerland (Sylt). Vom Hamburger Zentral-Omnibusbahnhof (ZOB) beim Hauptbahnhof bestehen Fernbuslinien in das In- und Ausland, besonders nach Osteuropa (Baltikum, Polen). Mehrmals täglich verkehren Busse in Richtung Berlin (→ Berlin Linien Bus). Südlich der Stadtgrenze – im niedersächsischen Maschen – ist der größte Rangierbahnhof Europas (→ Maschen Rangierbahnhof). Er hat Bedeutung für den paneuropäischen Schienengüterverkehr. Hier beginnt oder endet etwa zehn Prozent des deutschen Schienengüterverkehrs. Die Hamburger Hafenbahn besitzt und unterhält das Schienennetz im Hamburger Hafen. Stadt- und Regionalverkehr. Der öffentliche Personennahverkehr (ÖPNV) wird u. a. durch ein Schnellbahn-Netz bedient, das vorwiegend aus sechs S-Bahn- und vier U-Bahn-Linien besteht. Das Netz erschließt auch einige Vororte außerhalb des Stadtgebietes. Außerdem verkehren Regionalbahnen und RE-Züge sowie im Norden der Stadt die Schnellbahnzüge der AKN von (Neumünster –) Kaltenkirchen und Henstedt-Ulzburg bis Hamburg-Eidelstedt bzw. -Norderstedt Mitte. Zur Erschließung der HafenCity südlich der früher abgetrennten Speicherstadt wurde eine U-Bahn-Strecke vom Bahnhof Jungfernstieg neu gebaut. Die Linie wird als U4 bezeichnet und führt in östlicher Richtung zur Entlastung der U2 weiter bis Billstedt. Sie wurde am 29. November 2012 eröffnet. Daneben besteht ein flächenmäßig gut ausgebautes, jedoch tendenziell deutlich überlastetes Stadtbusnetz (auch Metrobusse, Eilbusse, zuschlagpflichtige Schnellbusse). Der Hafen wird neben Bus- und Bahnanschlüssen auch von Hafenfähren erschlossen. In den Nächten vor Sonnabenden, Sonn- und Feiertagen werden die wichtigsten Buslinien, U- und S-Bahnen durchgehend betrieben (Nachtverkehrsnetz), wobei Randbereiche durch besondere Nachtbuslinien erschlossen werden. Für die übrigen Nächte gibt es ein Nachtbusnetz mit 19 Linien. Die Straßenbahn Hamburg wurde Strecke für Strecke bis 1978 eingestellt. Die Wiedereinführung als Stadtbahn war bereits mehrere Male Ziel einer Hamburger Regierung. 2001 und 2011 waren die Vorbereitungen bis zum Planfeststellungsverfahren vorangeschritten. Beide Male wurden diese umfangreichen Arbeiten unmittelbar nach einem Regierungswechsel vom Senat wieder eingestellt. Alle Verkehrsmittel des Regional- und Nahverkehrs (alle Regionalzüge, auch von privaten Betreibern, S-, U-, A-Bahn sowie Busse und Hafenfähren) können in und um Hamburg mit Fahrkarten des Hamburger Verkehrsverbundes (HVV), der 1965 als erster Verkehrsverbund der Welt gegründet wurde, benutzt werden. Außerdem sind die Ländertickets "Schleswig-Holstein-Ticket", "Niedersachsen-Ticket" und "Mecklenburg-Vorpommern-Ticket" sowie das "Schönes-Wochenende-Ticket" auch für alle Verkehrsmittel des HVV im „Großbereich Hamburg“ (Schnellbusse mit Zuschlag) gültig. Schifffahrt. Die Niederelbe verbindet Hamburg direkt mit dem offenen Meer, der Nordsee. Seeschiffe können den Hamburger Hafen von dort und von der Ostsee über den elbabwärts gelegenen Nord-Ostsee-Kanal erreichen. Elbaufwärts bestehen weitere Wasserstraßen für die Binnenschiffahrt, die Hamburg über die Elbe (Richtung Magdeburg, Dresden bis Tschechien) und abzweigende Kanäle mit dem weiteren Hinterland und dem Binnenwasserstraßennetz verbinden. So sind über ein kurzes Stück der oberen Unterelbe und der Oberelbe der abzweigende Elbe-Lübeck-Kanal (Verbindung nach Lübeck und zur Ostsee) und der Elbe-Seitenkanal (Verbindung zum Mittellandkanal) zu erreichen. Im Stadtgebiet verkehren auf der Elbe und besonders im Hafengebiet sechs Schiffslinien bzw. Fähren der HADAG zum Verbundtarif des HVV. Die Linien 62 und 64 (Fähre ab Teufelsbrück) dienen zur Anbindung des Stadtteils Finkenwerder. Außerdem gibt es eine Fähre ab Blankenese nach Cranz. Als Touristik- und Ausflugslinie besteht eine Verbindung St. Pauli-Landungsbrücken–Blankenese–Wittenbergen–Schulau–Lühe–Stadersand. Am Jungfernstieg beginnen die Touristik- und Linienverkehre der Alsterschiffahrt. Bis 1984 übernahmen Alsterdampfer als fester Bestandteil des Verkehrsverbundes Aufgaben im ÖPNV. Heute gibt es eine „Kreuzfahrt-Linie“ und Alsterrundfahrten, teilweise kommen Museumsschiffe zum Einsatz. Luftverkehr. Der internationale Flughafen Hamburg (HAM) – eigene Bezeichnung "Hamburg Airport" – ist vom Passagieraufkommen der fünftgrößte und der älteste noch in Betrieb befindliche Flughafen Deutschlands. Er wurde 1912 in Fuhlsbüttel bei Hamburg eröffnet und liegt etwa 8,5 km nordwestlich des Stadtzentrums. Etwa 60 Fluggesellschaften bedienen 125 Zielflughäfen, darunter auch die Langstreckenziele Dubai, New York City und Teheran. Der Flughafen zählt nach einem bis 2008/2009 geführten, umfassenden Ausbauprogramm zu den modernsten in Europa und ist seitdem mit der S-Bahn-Linie S1 an die Innenstadt angeschlossen. Daneben ist er über einige Buslinien des Hamburger Verkehrsverbundes und Fernbuslinien zu erreichen. Zudem wurde die Zahl der PKW-Parkplätze für Besucher auf 12.000 erhöht und die Gastronomie und Einkaufsmöglichkeiten erweitert. Am Flughafen befindet sich auch die Basis der Lufthansa Technik. Wegen der Lärmbelästigung in den relativ dicht besiedelten Einflugschneisen besteht ein Nachtflugverbot. Als Ersatz für den Flughafen Fuhlsbüttel ist seit den 1960er-Jahren der Bau eines neuen Großflughafens in der Nähe von Kaltenkirchen im Gespräch, der jedoch bisher nicht realisiert wurde. Auf dem Gelände der Airbus Operations GmbH (einer Division der Airbus Group, ehemals EADS) – ca. 10 km südwestlich des Hamburger Stadtzentrums – befindet sich der Werksflugplatz Hamburg-Finkenwerder. Dort landen neben den dort endmontierten Maschinen der Airbus-A320-Familie und der zur Lackierung und Innenausrüstung der Kabine aus Toulouse überführten Airbus A380, nur Flugzeuge zur hauseigenen Versorgung, wie der Airbus Beluga sowie Verkehrsflugzeuge, die Werksangehörige von und nach Toulouse bringen. Der Flughafen Lübeck (LBC) ist mit einer Busverbindung von Hamburg aus erreichbar. Obwohl er rund 70 km von Hamburg entfernt liegt, kommen nach Angaben des Flughafens etwa 40 Prozent der Fluggäste aus Hamburg. Von der Billigfluggesellschaft Ryanair, die von 2005 bis 2014 den Flughafen anflog, wurde er als „Hamburg-Lübeck“ bezeichnet. Wasserversorgung. Die Trinkwasserversorgung Hamburgs wird durch die 17 Wasserwerke Baursberg, Bergedorf, Billbrook, Bostelbek, Curslack, Glinde, Großensee, Großhansdorf, Haseldorfer Marsch, Langenhorn, Lohbrügge, Hausbruch, Nordheide, Schnelsen, Stellingen, Süderelbmarsch und Walddörfer sichergestellt, die vom Gleichordnungskonzern Hamburg Wasser betrieben werden. Je nach Jahreszeit werden täglich zwischen 250.000 und 400.000 m³ Trinkwasser bereitgestellt. Energieversorgung. In den 1990er-Jahren wurden die Gas-, Strom- und Fernwärmeversorgung der Stadt Hamburg in Gestalt der HeinGas Hamburger Gaswerke GmbH sowie der Hamburgische Electricitäts-Werke AG privatisiert. Von 1974 bis 2001 wurde im Stadtteil Moorburg ein Kraftwerk betrieben, das für die Verbrennung von Gas und Öl ausgelegt war. Dieses Kraftwerk wurde durch das Kohlekraftwerk Moorburg ersetzt, das 2015 in Betrieb genommen wurde. Industrie. Aurubis AG auf der Peute Hamburg ist mit dem Airbus-Werk im Stadtteil Finkenwerder der größte deutsche, zweitgrößte europäische (nach Toulouse) und weltweit drittgrößte (nach Seattle und Toulouse) Flugzeugbau-Standort. Einige Zulieferer wie Dasell sind ebenfalls in Hamburg aktiv. Der Werft-Standort Hamburg umfasst unter anderem die größeren Firmen Blohm & Voss sowie J. J. Sietas mit den Tochterunternehmen Norderwerft und Neuenfelder Maschinenfabrik, einem der weltweit führenden Hersteller von Schiffskränen. Auch Schiffbau-Zulieferer wie Muehlhan sind in der Hansestadt ansässig. Die Beiersdorf AG hat nicht nur ihren Sitz in Hamburg, sondern produziert dort auch Produkte der Marken Nivea und Tesa. Im Stadtteil Heimfeld produziert die Daimler AG Achsen und Komponenten. Die Deutschland-Tochter des niederländischen Philips-Konzern, Philips Deutschland GmbH befindet sich in Hamburg, wo unter anderem auch Medizin-Geräte hergestellt werden. Das aus dem Philips-Konzern ausgegliederte Unternehmen NXP Semiconductors produziert im Stadtteil Hausbruch Halbleiter. Im Bereich der Rohstoffverarbeitung sind die Aurubis AG auf der Peute, Europas größte Kupferhütte, Trimet Aluminium und zwei Ölraffinerien der Firmen Holborn und Shell tätig. Das Maschinenbauunternehmen Körber AG hat seinen Sitz in Hamburg. Zu dem Konzern gehören unter anderem der Papiermaschinenhersteller E.C.H. Will und Hauni Maschinenbau, Weltmarktführer bei Maschinen und Anlagen für die Tabakindustrie und damit einer von mehreren sogenannten Hidden Champions in der Hansestadt. Zu ihnen gehört auch der Maschinenbauer Harburg-Freudenberger. Die Hamburger Unternehmen Jungheinrich (produziert allerdings im benachbarten Norderstedt und in Lüneburg) und Still stellen (Flur-)Förderfahrzeuge her. Der Klavier- und Flügelhersteller Steinway & Sons fertigt im Stadtteil Bahrenfeld, der Schreibgerätehersteller Montblanc im benachbarten Eidelstedt. Uhren verlassen die Manufaktur des Herstellers Wempe Chronometerwerke. Der Sägen-Hersteller Dolmar produziert in Jenfeld. Der Agrarprodukte-Konzern Archer Daniels Midland besitzt die Ölmühle Hamburg an der Nippoldstraße und der Palmölmühle der früheren Noblee & Thoerl GmbH in Harburg. Die Holsten-Brauerei braut in Altona-Nord Biere. Lediglich mit der Verwaltung, nicht aber mit Produktionsstandorten in Hamburg vertreten sind die Nahrungsmittelhersteller Unilever (Deutschland-Zentrale) und Carl Kühne KG sowie der Windenergieanlagen-Hersteller Senvion. Medien. Unter anderem werden "Der Spiegel", "Stern" und "Die Zeit" in Hamburg produziert. Zahlreiche Verlage, darunter die Großverlage Axel Springer AG ("Bild") und Gruner + Jahr sowie die Bauer Verlagsgruppe, die Verlagsgruppe Milchstrasse (mittlerweile Teil des Burda-Verlags) und der Jahreszeiten-Verlag, haben hier ihren Sitz. Insgesamt wird gut die Hälfte aller überregionalen Presseprodukte Deutschlands in Hamburg produziert. Zwei bedeutende Tiefdruckereien befinden sich im Großraum Hamburg. Dies sind „Gruner Druck“, Itzehoe, und die „Axel Springer Tiefdruckerei“, Ahrensburg, die der prinovis angehören. Außerdem hat die Deutsche Presse-Agentur (dpa) ihren Sitz in der Hansestadt. Die ARD-Redaktion für Nachrichten und Zeitgeschehen ARD-aktuell produziert auf dem NDR-Gelände in Lokstedt unter anderem die Tagesschau, die Tagesthemen, das Nachtmagazin und Tagesschau24, das Informationsprogramm innerhalb der Senderfamilie der ARD. Hamburg ist traditionell Sitz zahlreicher Firmen aus der Musikbranche, allen voran der Deutschlandzentrale von Warner Music sowie Edel Music. Trotzdem verlor die Stadt im Sommer 2002 Universal Music und den Deutschen Phonoverband an Berlin. Der ausschlaggebende Grund, die Subventionierung des Umzugs durch Berlin, zog seitens Hamburg Kritik nach sich, da Berlin seinen Haushalt mit Hilfe des Länderfinanzausgleiches stützt, in den unter anderem Hamburg einzahlte – Hamburg hätte damit in gewisser Hinsicht die Abwanderung selbst bezahlt. Weiterhin ist Hamburg Hauptsitz des Norddeutschen Rundfunks (NDR) und seiner (über die NDR Media GmbH) Enkeltochtergesellschaft Studio Hamburg, die zahlreiche Fernsehsendungen und auch Filme entweder selbst produziert, synchronisiert oder ihre Kapazitäten zur Verfügung stellt. Außerdem ist Hamburg Sitz eines ZDF-, RTL- sowie Sat.1-Landesstudios sowie des regionalen Fernsehsender Hamburg 1. Um die Belange der örtlichen, nationalen, wie auch internationalen Filmwirtschaft kümmert sich von staatlicher Seite die Filmförderung Hamburg Schleswig-Holstein. Die Sitze zahlreicher international renommierter Werbeagenturen wie Scholz & Friends, Jung von Matt, TBWA, Zum goldenen Hirschen, Kolle Rebbe, Grabarz&Partner und Designagenturen, darunter Peter Schmidt Group, Landor Associates und Factor Design, machen Hamburg zu einem überregionalen Standort der Werbe- und Designbranche. IT-Sektor. Der Informations- und Telekommunikationssektor (IT-Sektor) gehört zu den Branchen, die den Wirtschaftsstandort Hamburg prägen. Die Zahl der Unternehmen hat sich seit 1996 auf fast 8000 mehr als verdoppelt, und die Branche beschäftigt ca. 45.000 Mitarbeiter (Stand 2. Halbjahr 2006). Hamburg ist einer der zentralen IT-Standorte Deutschlands. Die Branchenstruktur der Hamburger IT-Unternehmen gliedert sich in die Sektoren Multimedia, Herstellung Geräte, Telekommunikation, Hard- und Softwareberatung und DV-Dienste. Die anteilsmäßig größten Zuwächse der letzten Jahre im IT-Sektor verzeichnet die Multimedia-Branche. Die Zahl der ihr zugehörigen Unternehmen ist seit dem Jahr 2000 um über 50 Prozent auf 2227 Unternehmen angewachsen (Stand 2. Halbjahr 2006). Zu den bekanntesten Internetdienstleistern der Elbmetropole gehören unter anderem SinnerSchrader, Immonet oder Tipp24. Seit der Jahrtausendwende haben sich in Hamburg vermehrt Social-Media-Unternehmen angesiedelt. Unter anderem haben XING, Qype, ElitePartner und Parship ihren Hauptsitz in Hamburg. Unternehmen wie Twitter und Dropbox unterhalten Niederlassungen in Hamburg. Mit der Freenet AG hat auch ein großer deutscher Telekommunikationsdienst- und Internetanbieter in Hamburg seinen Standort. Des Weiteren umfasst die Multimedia-Branche Online-Vermarkter wie beispielsweise Bauer Media KG und Quality Channel GmbH sowie international bekannte Suchmaschinen wie Google Germany GmbH und Yahoo! Marketplace/Kelkoo Deutschland GmbH. Ein weiterer Bereich der Multimedia-Branche ist die Games-Branche. Zahlreiche Publisher haben sich angesiedelt, (zum Beispiel dtp entertainment AG, Codemasters, EIDOS, Bigpoint GmbH, InnoGames, Goodgame Studios. Darüber hinaus haben Anbieter mobiler Entertainment-Inhalte (zum Beispiel Fishlabs Entertainment) ihren Sitz in der Hansestadt. Mit 1900 Unternehmen sind die Software-Unternehmen am zweitstärksten in der Hamburger IT-Wirtschaft vertreten (Stand 2. Halbjahr 2006). In Hamburg sind einige der größten internationalen und deutschen Software-Unternehmen angesiedelt, darunter unter anderem IBM, Lufthansa Systems, Oracle, Adobe Systems, Logica sowie die SAP. Die Rolle Hamburgs als Medienstadt kommt der IT-Branche entgegen und ermöglicht Synergien mit den verschiedenen Mediengattungen. Hamburger Institutionen wie die Behörde für Wirtschaft, Verkehr und Innovation, die Hamburgische Gesellschaft für Wirtschaftsförderung mbH und Unternehmen der IT- und Medien-Branche haben sich in der Initiative Hamburg@work zusammengeschlossen, um die Zusammenarbeit der beiden Sektoren zu unterstützen und Neuankömmlingen einen Branchen-Überblick zu geben. Banken. Hamburg ist der bedeutendste Bankenplatz im norddeutschen Raum. Eine von neun Hauptverwaltungen der Deutschen Bundesbank befindet sich in der Willy-Brandt-Straße (ehemals Ost-West-Straße) in Hamburg. Sie ist für die Bundesländer Hamburg, Mecklenburg-Vorpommern und Schleswig-Holstein zuständig. Außerdem ist die älteste deutsche Münzprägeanstalt, die Hamburgische Münze mit dem Münzzeichen „J“ in Hamburg beheimatet. Zum öffentlichen Bankensektor gehört neben der HSH Nordbank AG (ehemals: Hamburgische Landesbank), die einen ihrer zwei Hauptsitze in der Hansestadt hat, mit der Hamburger Sparkasse (HASPA) auch die größte deutsche Sparkasse. Als weiteres, deutlich kleineres Institut hat die Sparkasse Harburg-Buxtehude ihren Sitz in Hamburg. Auch der Dachverband für Hamburg und Bremen, der Hanseatische Sparkassen- und Giroverband befindet sich in Hamburg. Die genossenschaftliche Bankengruppe ist in Hamburg mit der überregionalen DG HYP – Deutsche Genossenschafts-Hypothekenbank AG sowie den regionalen Instituten Hamburger Volksbank und Sparda-Bank Hamburg vertreten. Weitere Genossenschaftsbanken mit Sitz in Hamburg sind die MKB Mittelstandskreditbank AG, die Edekabank AG und die NetBank AG. Auch Großbanken haben hamburger Wurzeln, die Deutsche Bank mit der Norddeutschen Bank, die Unicredit Bank/Hypovereinsbank mit der Vereins- und Westbank und die UBS mit dem Bankhaus Schröder, Münchmeyer, Hengst & Co. Die Commerzbank hatte in der Anfangszeit als Commerz- und Disconto-Bank sogar ihren Sitz in Hamburg. Traditionell sind bedeutende Privatbanken in Hamburg beheimatet. Mit der M. M. Warburg Bank hat eine der größten Privatbanken Deutschlands ihren Sitz in Hamburg. Weitere hamburger Privatbanken sind Joh. Berenberg, Gossler & Co. KG, Bankhaus Wölbern & Co., Donner & Reuschel (zur Signal-Iduna Gruppe), Bankhaus Marcard, Stein & Co, Otto M. Schröder Bank AG, Goyer & Göppel und Max Heinr. Sutor oHG. Zusätzlich hat die Bank des Otto-Versand, die Hanseatic Bank ihren Sitz in Hamburg. Aufgrund Hamburgs internationaler Bedeutung als Handelsplatz sind auch zahlreiche ausländische Banken mit einer Niederlassung in Hamburg vertreten. Versicherungen. Hamburg ist mit 21.850 Beschäftigten (nach München und Köln) drittgrößter Versicherungsstandort in Deutschland. Der Versicherungsplatz ist mit rund 300 Versicherungsgesellschaften insbesondere von mittelständischen Versicherungsgesellschaften, Versicherungsmaklern und -vermittlern geprägt, wie der Signal Iduna Gruppe inkl. dem Deutscher Ring Krankenversicherungsverein a.G., der HanseMerkur Versicherungsgruppe, der Neue Leben, der Hamburger Pensionskasse von 1905 und dem größten deutschen Versicherungsmakler Aon Jauch & Hübener. Große Versicherungskonzerne sind zwar nicht mit ihrem Konzernsitz, wohl aber mit wichtigen Konzernteilen in Hamburg vertreten. Der Allianz Versicherungskonzern mit dem Kreditversicherer Euler Hermes, die Munich-Re-/Ergo-Gruppe mit der Ergo Lebensversicherung (ehemals Hamburg-Mannheimer), die Generali-Gruppe mit Volksfürsorge und Advocard Rechtsschutzversicherung, die R+V Versicherung mit Condor und KRAVAG und die Bâloise mit der Deutscher Ring Versicherungsgruppe. Auf dem Markt gesetzlicher Krankenversicherungen ist Hamburg mit zwei der größten Krankenkassen Deutschlands, der Techniker Krankenkasse und der DAK-Gesundheit sowie der HEK – Hanseatische Krankenkasse, der Securvita BKK, der Continentale Betriebskrankenkasse, der ESSO Betriebskrankenkasse, der Life, der Betriebskrankenkasse Phoenix, der BKK Beiersdorf AG besonders umfangreich vertreten. Die sehr lange Tradition der Versicherungswirtschaft in Hamburg wird durch das älteste Versicherungsunternehmen der Welt, die 1676 gegründet Hamburger Feuerkasse und eine von nur drei Versicherungsbörsen weltweit, die mit der Vermittlung und dem Abschluss von Versicherungsverträgen seit Gründung der Hamburger Börse 1558 zum Börsengeschäft gehört, unterstrichen. Der Versicherungsstandort Hamburg wird durch den Sitz der GDV Dienstleistungs-GmbH & Co. KG des Gesamtverband der Deutschen Versicherungswirtschaft, dem Verband Deutscher Versicherungsmakler, dem 1982 in Hamburg gegründeten und nun im Umland beheimateten Bund der Versicherten und dem börsenähnlichen Policenhandel (Handel mit bestehenden Lebens- und Rentenversicherungspolicen) der Börsen AG in Hamburg abgerundet. Hafen. Der Hamburger Hafen, auch „Deutschlands Tor zur Welt“ genannt, ist der größte Seehafen in Deutschland und der zweitgrößte in Europa (nach Rotterdam und vor Antwerpen, Stand 2011). Weltweit steht der Hamburger Hafen an 15. Stelle. Für einige Spezialgüter, zum Beispiel Teppiche, ist er der größte Umschlaghafen weltweit. Den größten Umsatz macht der Hafen mit dem Containerumschlag. Es befinden sich mit den Firmen Hamburger Hafen und Logistik AG (HHLA) und der Bremer Firma Eurogate GmbH & Co. KGaA zwei Hauptcontainer-Terminal-Betreiber in Hamburg. Das Hafengebiet umfasst etwa 7399 Hektar (nutzbar 6480 ha), von denen 4331 Hektar (nutzbar 3412 ha) Landflächen sind. Dazu kommen 919 Hektar, die zum Teil seit Jahrzehnten stadtplanerisch für die Hafenerweiterung vorgesehen sind. Auch für den Hamburg-Tourismus hat der Hafen eine große Bedeutung. Angeboten werden Hafenrundfahrten mit unterschiedlichsten Schiffstypen, angefangen bei einfachen Barkassen bis zu großen Schaufelraddampfern mit Gastronomie. Anziehungskraft haben auch Aussichtspunkte rund um die Elbe (u. a. Altonaer Balkon) oder der Alte Elbtunnel. Angesichts von Konstruktionsüberlegungen für Containerschiffsgrößen mit einem maximalen Tiefgang von mehr als 16 m hat Hamburg eine Anpassung des Fahrwassers der Unterelbe beim Bund beantragt. Die Stadt Hamburg fordert eine Vertiefung der Unterelbe um 1,50 m. Dieses Projekt befindet sich in der Prüfung. Aus der Zusammenarbeit mit Niedersachsen und Bremen zum Bau des neuen Containerhafens JadeWeserPort hat sich die Stadt Hamburg nach dem Regierungswechsel 2001 zurückgezogen, weil die im Hamburger Hafen anstehenden Investitionsvorhaben von vordringlicher Bedeutung sind. In direkter Anbindung an die Speicherstadt und den Innenstadtbereich wird der neue Stadtteil HafenCity bebaut. Das Projekt HafenCity soll auf einer Fläche von 155 Hektar Wohnen, Arbeiten und Unterhaltung ermöglichen. Seit dem ersten März 2008 ist die HafenCity formell ein eigener Stadtteil Hamburgs. Unmittelbar zwischen der historischen Speicherstadt und der Elbe entstehen von Norden nach Süden, von Westen nach Osten 13 Teilquartiere, die die Innenstadt Hamburgs um 40 Prozent vergrößern werden. Börse. Die Hamburger Börse wurde 1558 als erste Börse in Deutschland und vierte in Europa gegründet, hat aber heute keine nennenswerte Bedeutung mehr für den Aktienhandel. Sie spezialisierte sich seit Beginn des 21. Jahrhunderts auf den Handel mit Fondsanteilen. Messen und Kongresse. Hamburg wird zu den führenden Kongressorten weltweit gezählt. Das Congress Center Hamburg (CCH) wurde 1973 als Deutschlands erstes Kongress- und Tagungszentrum zusammen mit einem Hotelturm, Hamburgs höchstem Haus, neben dem Dammtorbahnhof eröffnet. Mit einem 2008 beendeten Ausbau auf 23 Säle mit 12.500 Sitzplätzen und einer multifunktionalen Ausstellungshalle mit 7000 Quadratmetern hofft die Stadt unter die weltweit ersten zehn Kongressorte vorzurücken. Jährlich finden dort etwa 400 Kongresse, Veranstaltungen und Konzerte statt. Nahe dem CCH und über einen überdachten Gang durch den Park Planten un Blomen erreichbar, befindet sich das Hamburger Messegelände. Die Hamburg Messe wurde bis zum Jahr 2008 auf elf Messehallen mit einer Fläche von 87.000 Quadratmetern erweitert. Über eine Million Besucher verzeichnen die etwa 45 Messen und anderen Veranstaltungen pro Jahr. Darunter international bedeutende Fachmessen wie die traditionsreiche INTERNORGA (Hotellerie- und Gastronomie-Fachmesse) oder die Weltleitmesse der Schifffahrtsindustrie "SMM" (Shipbuilding, Machinery & Marine technology), die publikumsstarke Bootsausstellung hanseboot, die 2009 zum 50. Mal stattfand, oder die regional beliebte Verbrauchermesse „Du und Deine Welt“. Bei der Auslastung der Messeflächen war die Hamburg Messe im Jahr 2008 in Deutschland führend. Einschließlich der Flächen des CCH stehen insgesamt 107.000 Quadratmeter an Ausstellungsflächen zur Verfügung, die von der städtischen Hamburg Messe und Congress GmbH vermarktet werden. Einzelhandel. Neben dem Außenhandel mit Ein- und Ausfuhr sowie dem Großhandel ist der Einzelhandel von Bedeutung. Die Geschäfte für den Massenkonsum liegen in der Spitalerstraße und der Mönckebergstraße. Ein besonderes Warenangebot findet man in der Straße Neuer Wall. Wegen des nassen Wetters in Hamburg wurde ein Netz von Einkaufspassagen aufgebaut. Sie führen von der Shoppingpassage am Mönckebergbrunnen zur Europa Passage, zum Kaufmannshaus, zum Hanseviertel bis zur Gänsemarktpassage. Mit dem Passantenstrom kommt man oft in weitere hier nicht genannte Passagen. Mehr als in anderen Großstädten ist der Einzelhandel, Fachhandel und Dienstleistung auch dezentral angesiedelt. Fast jeder der Stadtteile hat ein eigenes Geviert mit Kaufhäusern und Einzelhändlern. Daneben säumen die Geschäfte auch die Durchgangsstraßen. Institutionen, öffentliche Einrichtungen und Stiftungen. Die bedeutendste Einrichtung der Vereinten Nationen in Deutschland, der Internationale Seegerichtshof, residiert in Hamburg. Er wurde 1982 eingerichtet. In ihrem Gebäude an der berühmten Elbchaussee amtieren die UN-Richter seit 1996. Ferner sind in Hamburg drei Hauptzollämter (Hamburg-Hafen, Hamburg-Jonas und Hamburg-Stadt), ein Bundespolizeiamt, eine Bundesfinanzdirektion, ein Prüfungsamt des Bundes, ein Wasser- und Schifffahrtsamt und ein Zollfahndungsamt sowie drei von neun Berufsgenossenschaften angesiedelt. Aus alter Hamburger Tradition geben einige der reichen Bürger als Mäzen ihrer Stadt etwas von ihrem Reichtum zurück, so dass es in Hamburg mehr als 1300 Stiftungen gibt, die das Leben in allen Lebensbereichen der Stadt unterstützen – auch dies ist ein Rekord in Deutschland. Bildung. Hamburg bietet neben seinen allgemein- und berufsbildenden Schulen spezielle Sonderschulen wie zum Beispiel die Sprachheilschulen sowie 17 Hochschulen. 2012 waren in Hamburg 222.700 Schüler an 218 Grund- und 297 weiterführenden Schulen gemeldet, hinzu kamen 19.300 Schüler an 95 privaten Schulen. Die Hoch- und Fachschulen besuchten 75.514 Studenten. 2010 wurden 64.044 Schüler an 178 berufsbildenden Schulen unterrichtet. 2012 beschäftigte die Stadt Hamburg 12.256 Lehrkräfte. Das Durchschnittsalter lag 2011 bei 46,02 und wird aufgrund vieler Neueinstellungen in den nächsten Jahren weiter sinken. Hamburg ist das einzige deutsche Land mit einem wachsenden Schulsystem. Im restlichen Bundesgebiet sinken die Schülerzahlen und damit der Bedarf an Lehrkräften. Der Senat stellt deshalb von 2013 bis 2019 zusätzliche zwei Milliarden Euro für Sanierungen, Neu- und Umbauten zur Verfügung. Dennoch wurden 2012 mehr als 10.000 Kinder in über 400 Containern unterrichtet. Forschung. An der Grenze zwischen Hamburg und Schleswig-Holstein entsteht das europäische Röntgenlaserprojekt XFEL. Das Forschungszentrum Deutsches Elektronen-Synchrotron (DESY) baut für den XFEL den auf Supraleiter-Technik ausgelegten 3,3 km langen Teilchenbeschleuniger. Der Freie-Elektronen-Laser für Röntgenlicht (XFEL steht für X-ray free-electron laser) wird Elektronen auf sehr hohe Energien beschleunigen und anschließend zur Aussendung von hochintensiven Röntgenlaserblitzen bringen. Die einzigartigen Röntgenlaserblitze des XFEL eröffnen völlig neue experimentelle Möglichkeiten in der Materialforschung. 2009 wurde mit seinem Bau begonnen, die Inbetriebnahme ist für 2015 geplant. Gesundheit. Ende 2012 waren in Hamburg 11.678 Ärzte, 1.924 Zahnärzte (2011) und 1.425 Apotheker (2011) berufstätig. 2013 standen in 47 Hamburger Krankenhäusern 12.163 Betten zur Verfügung, es wurden ca. 475.000 Patienten stationär behandelt. Die Bettenauslastung betrug 83,7 %. Insgesamt waren 2011 27.175 Personen in den Hamburger Kliniken beschäftigt. Umwelt. Die Umweltsituation ist und war in Hamburg häufig Gegenstand heftiger Auseinandersetzungen. Voraussichtlich bis 2014 läuft ein Gerichtsverfahren zur Elbvertiefung. Regelmäßig ist die für zahlreiche Einwohner gesundheitsgefährdende Belastung durch Lärm durch Straßen-, Bahn- und Luftverkehr ein Thema. Hamburg hat trotz hohem Kfz-Anteil an den Wegen der Einwohner und einem hohen Pendleraufkommen, das ebenfalls zu einem erheblichen Anteil mit Autos erfolgt, keine Umweltzone, anders als die meisten anderen deutschen Ballungsgebiete. Bei der Luftverschmutzung kommen zu den für Großstädte typischen Belastungen aus Heizungen, Stromerzeugung, drei Müllverbrennungsanlagen und Autoverkehr weitere Belastungen durch hafenbezogenen Schiffsverkehr und Industrie, hier auch mit Geruchsbelästigungen, hinzu. Debatten gab es Anfang der 2000er-Jahre um die Erweiterung bei Airbus und im Zusammenhang damit das teilweise Verfüllen des Mühlenberger Lochs und bis 2008 um den Neubau des Kohlekraftwerks Moorburg. Bundesweit bekannt geworden sind Umweltskandale wie die Dioxin-Verseuchung des Boehringer-Geländes in Billbrook und der "Giftberg" mit Dioxin und E 605 in Georgswerder Anfang der 1980er-Jahre sowie die Probleme mit belastetem oder giftigem Elbschlick, unter anderem in Altenwerder. Hamburg hat bereits seit 1978 eine Behörde, die Umwelt in ihrem Namen führt. Sie bewarb sich für die Stadt erfolgreich um den Titel Umwelthauptstadt Europas, den Hamburg 2011 führen durfte, was bei Umweltverbänden kritisch bewertet wurde. Hunde. Im Jahr 2013 lebten in Hamburg 64.250 Hunde. Seit 2007 besteht für Hunde außerhalb von Privatgrundstücken und ungefähr 122 Hundeauslaufzonen Leinenpflicht. Für sogenannte gefährliche Hunde gilt die Anleinpflicht auch innerhalb der Hundeauslaufzonen. Vom Leinenzwang ausgenommen sind Hunde, die erfolgreich eine Gehorsamsprüfung abgelegt haben. Eingezäunte und nicht eingezäunte Auslaufzonen für Hunde finden sich beispielsweise im Alstervorland und Höltigbaum, am Kupferteich oder im Öjendorfer Park. Die Gesamtfläche der unterschiedlich großen Hundeauslaufzonen beträgt mehr als 239 Hektar. Außerhalb von Hundeauslaufzonen gilt in öffentlichen Grün- und Erholungsanlagen stets Leinenzwang; ausgenommen sind freigegebene Wege, Pfade und Rasenflächen für gehorsamsgeprüfte Hunde. In einige Hamburger Parkanlagen dürfen Hunde – ausgenommen Führhunde – grundsätzlich nicht mitgenommen werden. Nicht mitgenommen werden dürfen Hunde darüber hinaus auf alle Hamburger Wochenmärkte und Volksfeste (z. B. den DOM) sowie zum Hafengeburtstag. Gemäß dem Hamburger Hundegesetz des Jahres 2006 gilt in der Hansestadt zudem eine Chip-, Registrier- und Versicherungspflicht. Erstmals 1954 war Hamburg Austragungsort für das "Deutsche Windhund-Derby". Das Rennen findet seit 2001 auf der Hunderennbahn am Höltigbaum statt. Veranstalter ist der "Norddeutsche Windhundrennverein". Pferde. Mindestens 3800 Pferde wurden im Jahr 2013 in Hamburg gehalten. Hamburger Liedgut. Neben der rechtlich inoffiziellen Hymne des Landes („Stadt Hamburg an der Elbe Auen“) gibt es viele Lieder mit Bezug zu Hamburg, die teilweise den Status einer „inoffiziellen“ Hymne haben, wie zum Beispiel „Auf der Reeperbahn nachts um halb eins“ (unter anderem gesungen von Hans Albers) oder „In Hamburg sagt man tschüß“ (unter anderem gesungen von Heidi Kabel) sowie dem Shanty „Ick heff ’mol een Hamborger Veermaster seh’n“. Bis in die 1950er-Jahre wurden Musikstücke mit lokalem Anklang auch gerne von Pankokenkapellen auf der Straße gespielt. Vor dem Zweiten Weltkrieg war „An de Eck steit’n Jung mit’n Tüdelband“ der Gebrüder Wolf sehr beliebt, neuer ist „Hamburg, meine Perle“ von Lotto King Karl. Mit den Bands Blumfeld, Die Sterne und Tocotronic ging ab etwa 1990 der Begriff der Hamburger Schule als eigenständiges Genre deutschsprachiger Musik in die Popkultur ein. Erweitert wird die mit Hamburg verbundende alternative Musik mittlerweile von Kettcar und Tomte. Auch die deutschsprachige Hip-Hop-Band Absolute Beginner beschreibt in „City Blues“ ihr Lebensgefühl zu ihrer Heimatstadt; Samy Deluxe in „Hamburg Anthem“. Als Urgesteine gelten mittlerweile die Hip-Hopper von Fettes Brot, die ursprünglich aus dem Kreis Pinneberg stammen und sich selbst als „Hamburgs Hip-Hop-Dinosaurier“ bezeichnen. 1995 schrieben sie mit „Nordisch by Nature“ ein Loblied über den Norden Deutschlands im Allgemeinen und die Hansestadt im Speziellen. Bekannt ist außerdem Udo Lindenberg, dessen Wurzeln in der Hamburger Szene sind. Graffito im S-Bahnhof Altona während der Umbauphase, Hamburg 2015 „Hamburger Gruß“. Der Hamburger Gruß „Hummel, Hummel“ beantwortet mit „Mors, Mors“ stammt einer Legende zufolge vom Wasserträger Johann Wilhelm Bentz, der den Spitznamen „Hummel“ trug und bis zu seinem Tod 1854 in Hamburg lebte. Wenn er vorbeikam, riefen ihn die Kinder spöttisch „Hummel, Hummel“. Er antwortete darauf wütend mit „Mors, Mors“ (verkürzend für „Klei mi am Mors“, das plattdeutsche Pendant des Götz-Zitates). Thematisiert wird dies am Hummel-Brunnen in der Neustadt (Rademachergang/Breiter Gang), der den Wasserträger darstellt. An den gegenüberliegenden Hausfassaden finden sich Kinderskulpturen, die ihm ihr entblößtes Hinterteil präsentieren. Der Hamburger Gruß wird allerdings eher außerhalb Hamburgs als Erkennungszeichen oder wie beim Fußball als Schlachtruf verwendet. Zur Begrüßung allgemein üblicher ist zum Beispiel das in Teilen Norddeutschlands verbreitete „Moin“, beziehungsweise „Tschüs“ zur Verabschiedung. Hamburger Witze. Es gibt eine Reihe traditioneller Witzgestalten, die in Hamburger Witzen vorkommen, insbesondere die Hafenarbeiter Hein und Fiete sowie die Göre Klein Erna mit ihrer Verwandtschaft und Nachbarschaft (gesammelt von Vera Möller). Die Witze um diese Gestalten besitzen tendenziell recht lakonische und häufig auch recht anzügliche Pointen. Ebenso hat sich die Spielart des "He lücht" in Bezug auf die Hafenrundfahrt herausgebildet. Hamburger Aalsuppe. Überregional bekannt ist die besonders reichhaltige Hamburger Aalsuppe, die Backobst enthält und dadurch eine süßsäuerliche Note erhält. Sie wird als Hauptgericht serviert. Fliegender Hamburger. Der Verbrennungstriebwagen 877 (später DB-Baureihe VT 04.0) war der erste Dieselschnelltriebwagen der Deutschen Reichsbahn und zugleich der erste Stromlinienzug in planmäßigem Einsatz. Mit ihm wurde ab 1933 zwischen Berlin und Hamburg die damals weltweit schnellste Zugverbindung hergestellt. Er war als „Fliegender Hamburger“ bekannt. Briefmarken. Bis 1868 waren die Stadt Hamburg und die zeitweise vom Land Hamburg regierte Stadt Bergedorf, berechtigt, eigene Postwertzeichen herauszugeben. Außerdem gibt es einige Beispiele von Hamburger Motiven auf Briefmarken. Bezirk Hamburg-Nord. Der Bezirk Hamburg-Nord ist einer von sieben Bezirken der Freien und Hansestadt Hamburg. Er grenzt im Norden an das Land Schleswig-Holstein, im Osten an den Bezirk Wandsbek, im Süden an den Bezirk Hamburg-Mitte und im Westen an den Bezirk Eimsbüttel. Verwaltung. Das Bezirksamt Hamburg-Nord () befindet sich in einem Verwaltungsbau von Paul Seitz an der Kümmellstraße 5. Das Gebäude wurde 1953/1959 errichtet und steht unter Denkmalschutz. Im Februar 2014 wurde das Gelände inklusive Bebauung an das Bauunternehmen Richard Ditting GmbH verkauft. Alle drei Regionalbereiche verfügen verwaltungsseitig über einen Regionalbeauftragten, der die Verwaltungstätigkeit für den Regionalbereich im Bezirksamt koordiniert. Außerdem gibt es jeweils einen fünfzehnköpfigen "Regionalausschuss" als örtlichen Fachausschuss der Bezirksversammlung. Politik. Für die Wahl zur Bürgerschaft und der Bezirksversammlung 2011 wurde der Bezirk Hamburg-Nord in die Wahlkreise Eppendorf-Winterhude, Barmbek-Uhlenhorst-Dulsberg und Fuhlsbüttel-Alsterdorf-Langenhorn aufgeteilt. Verkehr. Der Flughafen Hamburg liegt im Stadtteil Hamburg-Fuhlsbüttel. Neben den U-Bahn-Linien 1 und 3 fährt auch die S-Bahn-Linie 1 durch den Bezirk. Einzelnachweise. Nord Holmium. Holmium ist ein chemisches Element mit dem Elementsymbol Ho und der Ordnungszahl 67. Im Periodensystem steht es in der Gruppe der Lanthanoide und zählt damit auch zu den Metallen der Seltenen Erden. Geschichte. 1878 entdeckten die Schweizer Chemiker Marc Delafontaine und Jacques-Louis Soret das Element spektroskopisch durch seine abweichenden Absorptionslinien. Das neue Element nannten sie ›X‹. 1879 entdeckte der schwedische Chemiker Per Teodor Cleve das neue Element unabhängig von den beiden Schweizern und isolierte es als gelbes Oxid aus unreinem Erbium (Erbiumoxid). Cleve wendete eine von Carl Gustav Mosander entwickelte Methode an; er trennte zunächst alle bekannten Verunreinigungen ab, bevor er versuchte, den Rest zu trennen. Er erhielt einen braunen Rest, den er Holmia nannte, sowie einen grünen Rest, der den Namen Thulia erhielt. Erst 1911 gelang dem schwedischen Chemiker Holmberg die Gewinnung von reinem Holmiumoxid. Ob er die Bezeichnung Holmium, vorgeschlagen von Cleve für die schwedische Landeshauptstadt Stockholm, übernahm oder als Ableitung seines eigenen Namens betrachtete, ist nicht bekannt. Metallisch reines Holmium wurde erstmals 1940 hergestellt. Gewinnung und Darstellung. Nach einer aufwändigen Abtrennung der anderen Holmiumbegleiter wird das Oxid mit Fluorwasserstoff zum Holmiumfluorid umgesetzt. Anschließend wird mit Calcium unter Bildung von Calciumfluorid zum metallischen Holmium reduziert. Die verbleibenden Calciumreste und Verunreinigungen werden in einer zusätzlichen Umschmelzung im Vakuum abgetrennt. Eigenschaften. Das silberweiß glänzende Metall der Seltenen Erden ist weich und schmiedbar. Holmium weist besondere magnetische Eigenschaften auf. In seinen ferromagnetischen Eigenschaften ist es dem Eisen weit überlegen. Mit 10,6 μB besitzt es das höchste magnetische Moment eines natürlich vorkommenden chemischen Elements. Mit Yttrium bildet es magnetische Verbindungen. In trockener Luft ist Holmium relativ beständig, in feuchter oder warmer Luft läuft es unter Bildung einer gelblichen Oxidschicht schnell an. Bei Temperaturen oberhalb von 150 °C verbrennt es zum Sesquioxid Ho2O3. Mit Wasser reagiert es unter Wasserstoffentwicklung zum Hydroxid.In Mineralsäuren löst es sich unter Bildung von Wasserstoff auf. In seinen Verbindungen liegt es in der Oxidationszahl +3 vor, die Ho3+-Kationen bilden in Wasser gelbe Lösungen. Unter besonderen reduktiven Bedingungen kann bei den Chloriden auch die Oxidationszahl +2 realisiert werden, z. B. im Holmium(II,III)chlorid Ho5Cl11, allerdings existiert das reine Holmium(II)chlorid nicht. Verwendung. Wegen seiner hervorragenden magnetischen Eigenschaften verwendet man Polschuhe aus Holmium für Hochleistungsmagnete zur Erzeugung stärkster Magnetfelder. Physiologisches. Holmium hat keine bekannte biologische Funktion. Sicherheitshinweise. Holmium und Holmiumverbindungen sind als wenig toxisch zu betrachten. Metallstäube sind feuer- und explosionsgefährlich. Hafnium. Hafnium ist ein chemisches Element mit dem Symbol Hf und der Ordnungszahl 72. Benannt ist es nach dem lateinischen Namen der Stadt Kopenhagen, "Hafnia", in der das Element entdeckt wurde. Es ist ein silbergrau glänzendes, korrosionsbeständiges Übergangsmetall, das im Periodensystem in der 4. Nebengruppe (Gruppe 4) oder Titangruppe steht. Hafnium besitzt sehr ähnliche Eigenschaften wie das im Periodensystem direkt darüber gelegene Zirconium. Biologische Funktionen sind nicht bekannt, es kommt normalerweise nicht im menschlichen Organismus vor und ist nicht toxisch. Geschichte. Hafnium war eines der letzten stabilen Elemente des Periodensystems, das entdeckt wurde. Den ersten Hinweis auf die Existenz eines weiteren Elements zwischen Lutetium und Tantal ergab sich aus dem 1912 gefundenen Moseleyschen Gesetz. Henry Moseley versuchte 1914 erfolglos, das unbekannte, aber nach diesem Gesetz zu erwartende Element mit der Ordnungszahl 72 in Proben von Mineralen der seltenen Erden (heute Lanthanoiden) zu finden. Niels Bohr sagte in seiner 1922 veröffentlichten Arbeit zur Atomtheorie voraus, dass die Lanthanoiden-Reihe mit Lutetium zu Ende sei und dass damit das Element 72 Ähnlichkeit mit Zirconium haben müsse. Schon ein Jahr später konnte Hafnium nachgewiesen werden: 1923 wurde es in Kopenhagen von Dirk Coster und George de Hevesy durch Röntgenspektroskopie in norwegischem Zirkon entdeckt. Weitere Untersuchungen anderer Mineralien zeigten, dass Hafnium immer in zirconiumhaltigen Mineralien enthalten ist. Die Trennung vom Zirconium gelang Jantzen und Hevesy durch wiederholte Kristallisation der Diammonium- und Dikaliumfluoride der beiden Elemente. Elementares Hafnium konnte danach durch Reduktion mit Natrium gewonnen werden. Vorkommen. Hafnium ist mit einem Gehalt von 4,9 ppm an der kontinentalen Erdkruste ein auf der Erde nicht sehr häufiges Element. In der Häufigkeit ist es damit vergleichbar mit den Elementen Brom und Caesium und häufiger als die schon lange bekannten Gold und Quecksilber. Hafnium kommt nicht gediegen vor und bisher ist nur ein Mineral mit dem Hauptbestandteil Hafnium bekannt, das 1974 entdeckt und nach diesem als Hafnon benannt wurde. In Zirconium-Mineralen wie unter anderem Zirkon und Allendeit ist jedoch oft Hafnium als Fremdbeimengung enthalten, wobei die Menge an Hafnium meist 2 % des Zirconiumgehaltes (1–5 Gewichtsprozent Hafnium) beträgt. Eines der wenigen Minerale, die mehr Hafnium als Zirconium enthalten, ist die Zirkon-Varietät "Alvit" [(Hf,Th,Zr)SiO4]. Analog zu Zirconium sind die wichtigsten Lagerstätten an Hafnium die Zirkon-Lagerstätten in Australien und Südafrika. Die Reserven werden auf 1,1 Millionen Tonnen (gerechnet als Hafniumoxid) geschätzt. Gewinnung und Darstellung. Hafnium Crystal Bar, hergestellt nach dem Van-Arkel-de-Boer-Verfahren Um Hafnium zu gewinnen, muss dieses von Zirconium abgetrennt werden. Dieses ist nicht während des Herstellungsprozesses möglich, sondern erfolgt in einem getrennten Verfahren. Für die Trennung werden Extraktionsverfahren angewendet. Dabei wird die unterschiedliche Löslichkeit bestimmter Zirconium- und Hafniumsalze in speziellen Lösungsmitteln ausgenutzt. Beispiele hierfür sind die verschiedenen Löslichkeiten der Nitrate in Tri-n-butylphosphat und die der Thiocyanate in Methylisobutylketon. Andere mögliche Trennungsmöglichkeiten sind Ionenaustauscher und die fraktionierte Destillation von geeigneten Verbindungen. Das abgetrennte Hafnium kann anschließend nach dem Kroll-Prozess zunächst in Hafnium(IV)-chlorid überführt werden und anschließend mit Natrium oder Magnesium zu elementarem Hafnium reduziert werden. Wird noch reineres Hafnium benötigt, kann das Van-Arkel-de-Boer-Verfahren angewendet werden. Dabei reagiert während des Erhitzens unter Vakuum zunächst das Hafnium mit Iod zu Hafnium(IV)-iodid. Dieses wird an einem heißen Draht wieder zu Hafnium und Iod zersetzt. Hafnium wird nur in geringen Mengen im Maßstab von 100 Tonnen produziert. Es wird nicht eigens hergestellt, sondern fällt als Nebenprodukt bei der Gewinnung von Hafnium-freiem Zirconium für die Hüllen der Brennstäbe an. Der USGS gibt als US-Importpreise für Hafnium 453 USD je kg im Jahre 2010 und 578 USD je kg für 2013 an. Physikalische Eigenschaften. Kristallstruktur von α-Hf, "a" = 320 pm, "c" = 505 pm Hafnium ist ein silbrig-glänzendes Schwermetall von hoher Dichte (13,31 g/cm3). Es kristallisiert temperaturabhängig in zwei verschiedenen Modifikationen. Bei Normalbedingungen kristallisiert es in einer hexagonal-dichtesten Kugelpackung (α-Hf) und ist damit isotyp zu α-Zr, oberhalb von 1775 °C geht es in eine kubisch-raumzentrierte Struktur über (β-Hf). Liegt Hafnium in einer hohen Reinheit vor, ist es relativ weich und biegsam. Es ist leicht durch Walzen, Schmieden und Hämmern zu bearbeiten. Sind dagegen Spuren von Sauerstoff, Stickstoff oder Kohlenstoff im Material vorhanden, wird es spröde und schwer zu verarbeiten. Der Schmelz- und der Siedepunkt des Hafniums sind mit 2227 °C beziehungsweise 4450 °C die höchsten in der Gruppe (Schmelzpunkt: Titan: 1667 °C, Zirconium: 1857 °C). In fast allen weiteren Eigenschaften ähnelt das Metall seinem leichteren Homologen Zirconium. Dies wird durch die Lanthanoidenkontraktion verursacht, die ähnliche Atom- und Ionenradien bedingt (Atomradien Zr: 159 pm, Hf: 156 pm). Eine Ausnahme ist die Dichte, bei der Zirconium mit 6,5 g/cm3 einen deutlich kleineren Wert besitzt. Ein technisch wichtiger Unterschied besteht darin, dass Hafnium 600 mal besser Neutronen absorbieren kann. Dies ist der Grund dafür, dass für den Einsatz von Zirconium in Kernkraftwerken das Hafnium abgetrennt werden muss. Hafnium ist unterhalb der Sprungtemperatur von 0,08 K supraleitend. Chemische Eigenschaften. Hafnium ist ein unedles Metall, das beim Erhitzen mit Sauerstoff zu Hafniumdioxid reagiert. Auch andere Nichtmetalle, wie Stickstoff, Kohlenstoff, Bor und Silicium bilden unter diesen Bedingungen Verbindungen. Bei Raumtemperatur bildet sich schnell eine dichte Oxidschicht, die das Metall passiviert und so vor weiterer Oxidation schützt. In den meisten Säuren ist Hafnium wegen der Passivierung unter Normalbedingungen beständig. In Flusssäure korrodiert es schnell, in heißer konzentrierter Schwefel- und Phosphorsäure tritt merkliche Korrosion ein. Salzsäure-Salpetersäure-Gemischen, hierzu zählt auch Königswasser, sollte Hafnium auch bei Raumtemperatur nur kurzfristig ausgesetzt werden, bei 35 °C muss mit Abtragsraten von mehr als 3 mm/Jahr gerechnet werden. In wässrigen Basen ist es bis zu einer Temperatur von ca. 100 °C beständig, der Materialabtrag beträgt in der Regel weniger als 0,1 mm/Jahr. Isotope. Von Hafnium sind insgesamt 35 Isotope und 18 Kernisomere von 153Hf bis 188Hf bekannt. Natürliches Hafnium ist ein Mischelement, das aus insgesamt sechs verschiedenen Isotopen besteht. Das häufigste Isotop ist mit einer Häufigkeit von 35,08 % 180Hf. Es folgen 178Hf mit 27,28 %, 177Hf mit 18,61 %, 179Hf mit 13,62 %, 176Hf mit 5,27 % und 174Hf mit 0,16 %. 174Hf ist schwach radioaktiv, ein Alphastrahler mit einer Halbwertszeit von 2·1015 Jahren. Der Betastrahler 182Hf bildete während der Planetenentstehung mit einer Halbwertszeit von 9 Mio. Jahren das stabile Wolfram-Isotop 182W, was ausgenutzt wurde, um die Bildung des Mondes und des Erdkerns auf einen Zeitraum innerhalb der ersten 50 Mio. Jahre einzuschränken. Die Isotope 177Hf und 179Hf können mit Hilfe der NMR-Spektroskopie nachgewiesen werden. Das Kernisomer 178m2Hf ist mit einer Halbwertszeit von 31 Jahren langlebig und sendet zugleich beim Zerfall eine starke Gammastrahlung von 2,45 MeV aus. Dies ist die höchste Energie, die ein über längere Zeit stabiles Isotop aussendet. Eine mögliche Anwendung besteht darin, dieses Kernisomer als Quelle in starken Lasern zu verwenden. 1999 entdeckte Carl Collins, dass das Isomer bei Bestrahlung mit Röntgenstrahlung seine Energie auf einen Schlag abgeben kann. Allerdings sind mögliche Anwendungen, etwa als Sprengstoff, unwahrscheinlich. Verwendung. Auf Grund seiner schwierigen Gewinnung wird Hafnium nur in geringen Mengen verwendet. Das Haupteinsatzgebiet ist die Kerntechnik, in der Hafnium als Steuerstab zur Regulierung der Kettenreaktion in Kernreaktoren eingesetzt wird. Die Verwendung von Hafnium hat gegenüber anderen möglichen neutronenabsorbierenden Substanzen einige Vorteile. So ist das Element sehr korrosionsbeständig und bei der Kernreaktion mit den Neutronen entstehen Hafniumisotope, die ebenfalls hohe Absorptionsquerschnitte besitzen. Auf Grund des hohen Preises kommt es häufig nur für militärische Anwendungen in Frage, beispielsweise für Reaktoren in Atom-U-Booten. Es existieren noch einige weitere Verwendungsmöglichkeiten. So reagiert Hafnium schnell mit geringen Mengen Sauerstoff und Stickstoff und kann darum als Gettersubstanz eingesetzt werden, um kleinste Mengen dieser Stoffe aus Ultrahochvakuum-Anlagen zu entfernen. Beim Verbrennen sendet das Metall ein sehr helles Licht aus. Deshalb ist es möglich, Hafnium in Blitzlichtlampen mit einer besonders hohen Lichtausbeute einzusetzen. Mehrere sehr stabile und hochschmelzende Verbindungen, insbesondere Hafniumnitrid und Hafniumcarbid, können aus den Elementen hergestellt werden. In Legierungen mit Metallen wie Niob, Tantal, Molybdän und Wolfram wirkt ein Zusatz von 2 % Hafnium festigkeitssteigernd. Es entstehen besonders stabile, hochschmelzende und hitzebeständige Werkstoffe. Sicherheitshinweise. Wie viele andere Metalle ist Hafnium in feinverteiltem Zustand leichtentzündlich und pyrophor. In kompaktem Zustand ist es dagegen nicht brennbar. Das Metall ist nicht toxisch. Aus diesen Gründen sind für den Umgang mit Hafnium keine besonderen Sicherheitsvorschriften zu beachten. Verbindungen. Hafnium bildet eine Reihe von Verbindungen. Diese sind meist Salze oder Mischkristalle und besitzen häufig hohe Schmelzpunkte. Die wichtigste Oxidationsstufe des Hafnium ist +IV, es sind aber auch Verbindungen in geringeren Oxidationsstufen, von 0 bis +III, in Komplexen auch negative Oxidationsstufen bekannt. Hafnium(IV)-oxid. Hafnium(IV)-oxid ist ein sehr stabiler und hochschmelzender Feststoff. Es besitzt eine hohe relative Permittivität von 25 (zum Vergleich: Siliciumdioxid: 3,9). Darum ist ein Einsatz als High-k-Dielektrikum als Isolation des Steueranschlusses (Gate) für Mikroprozessoren möglich. Durch weitere Verkleinerung der Strukturbreiten werden die Leckströme zu einem immer größerem Problem, denn die Miniaturisierung der CMOS-Strukturen erfordert auch dünnere Gate-Isolationen. Unter 2 nm Dicke steigt der unerwünschte Leckstrom durch den Tunneleffekt stark an. Durch den Einsatz eines High-k-Dielektrikums kann zur Leckstromverringerung die Dicke des Dielektrikums wieder vergrößert werden ohne dass es zu Leistungseinbußen (Verringerung der Schaltgeschwindigkeit) des Transistors kommt. Dickere Dielektrika ermöglichen also eine weitere Miniaturisierung. Weitere Hafniumverbindungen. Hafniumcarbid zählt zu den Substanzen mit den höchsten Schmelzpunkten überhaupt. Zusammen mit Hafniumnitrid und Hafniumborid gehört es zu den Hartstoffen. Es sind einige Halogenverbindungen des Hafniums bekannt. In der Oxidationsstufe +IV existieren sowohl das Fluorid (HfF4) als auch Chlorid (HfCl4), Bromid (HfBr4) und Iodid (HfI4). Hafnium(IV)-chlorid und Hafnium(IV)-iodid spielen bei der Gewinnung des Hafniums eine Rolle. In den niederen Oxidationsstufen sind nur Chlor- und Bromverbindungen, sowie Hafnium(III)-iodid bekannt. Das Kaliumhexafluoridohafnat(IV) K2[HfF6] wie auch das Ammoniumhexafluoridohafnat(IV) (NH4)2[HfF6] können zur Abtrennung des Hafniums von Zirconium eingesetzt werden, da beide Salze leichter löslicher sind als die entsprechenden Zirconiumkomplexe. Helium. Helium (' „Sonne“) ist ein chemisches Element und hat die Ordnungszahl 2. Sein Elementsymbol ist He. Im Periodensystem steht es in der 18. IUPAC-Gruppe, der früheren VIII. Hauptgruppe, und zählt damit zu den Edelgasen. Es ist ein farbloses, geruchloses, geschmacksneutrales und ungiftiges Gas. Helium bleibt bis hinab zu sehr tiefen Temperaturen gasförmig, erst nahe dem absoluten Nullpunkt wird es flüssig. Es ist die einzige Substanz, die selbst am absoluten Nullpunkt (0 K bzw. −273,15 °C) unter Normaldruck nicht fest wird. Neben Neon ist Helium das einzige Element, für welches selbst unter Extrembedingungen bis jetzt keine Verbindungen nachgewiesen werden konnten, die nicht sofort nach der Bildung zerfallen sind. Helium kommt nur atomar vor. Das häufigste stabile Isotop ist 4He; ein weiteres stabiles Isotop ist das auf der Erde extrem seltene 3He. Das Verhalten der beiden flüssigen Phasen "Helium I" rsp. "Helium-I" sowie "Helium II" bzw. "Helium-II" (insbesondere das Phänomen der Suprafluidität) von 4He ist Gegenstand aktueller Forschungen auf dem Gebiet der Quantenmechanik. Weiterhin ist flüssiges Helium ein unverzichtbares Hilfsmittel zur Erzielung der tiefsten Temperaturen. Diese sind unter anderem zur Kühlung von Infrarotdetektoren von Weltraumteleskopen und zur Untersuchung von Eigenschaften wie zum Beispiel der Supraleitung von Materie bei Temperaturen nahe dem absoluten Nullpunkt erforderlich. Helium ist, nach Wasserstoff, das zweithäufigste Element im Universum. Nach anerkannter Theorie vereinigten sich 10 Sekunden nach dem Urknall Protonen und Neutronen durch Kernfusion zu ersten Atomkernen. Aus deren gesamter Masse bildeten sich dabei unter anderem 25 % 4He und 0,001 % Deuterium, sowie Spuren von 3He. Somit ist der größte Teil Helium schon beim Urknall entstanden. Das im Inneren von Sternen durch Fusion von Wasserstoff entstandene Helium fusionierte zum größten Teil weiter zu schwereren Elementen. Auf der Erde wird 4He in Form von Alphateilchen bei dem Alphazerfall verschiedener radioaktiver Elemente wie Uran oder Radium gebildet. Helium entsteht daraus, wenn das Alphateilchen anderen Atomen zwei Elektronen entreißt. Der Großteil des auf der Erde vorhandenen Heliums ist daher nichtstellaren Ursprungs. Das so entstandene Helium sammelt sich in natürlichen Erdgas­vorkommen in Konzentrationen bis zu 16 Volumenprozent. Daher kann Helium durch fraktionierte Destillation aus Erdgas gewonnen werden. Erste Hinweise auf Helium wurden 1868 durch den französischen Astronomen Jules Janssen bei Untersuchungen des Lichtspektrums der Chromosphäre der Sonne entdeckt, wobei er die bis dahin unbekannte gelbe Spektrallinie von Helium fand. Helium findet Anwendungen in der Tieftemperaturtechnik, besonders als Kühlmittel für supraleitende Magneten, in Tiefsee-Atemgeräten, bei der Altersbestimmung von Gesteinen, als Füllgas für Luftballons, als Traggas für Luftschiffe und als Schutzgas für verschiedene industrielle Anwendungen (zum Beispiel beim Metallschutzgasschweißen und bei der Herstellung von Silizium-Wafern). Nach dem Einatmen von Helium verändert sich aufgrund der im Vergleich zu Luft höheren Schallgeschwindigkeit kurzzeitig die Stimme („"Micky-Maus-Stimme"“). Geschichte. Die Spektrallinien von Helium. Besonders auffällig ist die gelbe Spektrallinie. Hinweise auf das Element Helium erhielt man zum ersten Mal aufgrund einer hellen gelben Spektrallinie bei einer Wellenlänge von 587,49 Nanometern im Spektrum der Chromosphäre der Sonne. Diese Beobachtung machte der französische Astronom Jules Janssen in Indien während der totalen Sonnenfinsternis vom 18. August 1868. Als er seine Entdeckung bekannt machte, glaubte ihm zunächst niemand, da bislang noch nie ein neues Element im Weltall gefunden wurde, bevor der Nachweis auf der Erde geführt werden konnte. Am 20. Oktober desselben Jahres bestätigte der Engländer Norman Lockyer, dass die gelbe Linie tatsächlich im Sonnenspektrum vorhanden ist und schloss daraus, dass sie von einem bislang unbekannten Element verursacht wurde. Da diese Spektrallinie sehr nahe (0,3 Prozent unterhalb) der Fraunhofer Doppel-D-Linie des Metalls Natrium lag, nannte er die Linie D3, um sie eben von diesen D1- und D2-Linien des Natrium unterscheiden zu können. Er und sein englischer Kollege Edward Frankland schlugen vor, das neue Element Heli"um" zu nennen, was soviel wie Sonnen"metall" heißt. Dass es sich dabei um kein Metall handelte, ahnte man damals noch nicht einmal. 18 Jahre später, im Jahre 1882, gelang es Luigi Palmieri durch die Spektralanalyse von Vesuv-Lava erstmals das Element Helium auch auf der Erde nachzuweisen. Am 23. März 1895 gewann der britische Chemiker William Ramsay Helium, indem er das Uran-Mineral "Cleveit", eine Varietät des Uraninits, mit Mineralsäuren versetzte und das dabei austretende Gas isolierte. Er war auf der Suche nach Argon, konnte jedoch die gelbe D3-Linie beobachten, nachdem er Stickstoff und Sauerstoff von dem isolierten Gas getrennt hatte. Dieselbe Entdeckung machten fast gleichzeitig der britische Physiker William Crookes und die schwedischen Chemiker Per Teodor Cleve und Nicolas Langlet in Uppsala in Schweden. Diese sammelten ausreichende Mengen des Gases, um dessen Atommasse feststellen zu können. Während einer Ölbohrung in Dexter in Kansas wurde eine Erdgasquelle gefunden, deren Erdgas 12 Volumenprozent eines unbekannten Gases enthielt. Die amerikanischen Chemiker Hamilton Cady und David McFarland der Universität von Kansas fanden 1905 heraus, dass es sich dabei um Helium handelte. Sie publizierten eine Meldung, dass Helium aus Erdgas gewonnen werden kann. Im selben Jahr stellten Ernest Rutherford und Thomas Royds fest, dass Alphateilchen Heliumkerne sind. Die erste Verflüssigung von Helium wurde 1908 vom niederländischen Physiker Heike Kamerlingh Onnes durchgeführt, indem er das Gas auf eine Temperatur von unter 1 K kühlte. Festes Helium konnte er auch bei weiterem Abkühlen nicht erhalten, dies gelang erst 1926 Willem Hendrik Keesom, einem Schüler Onnes’, durch Komprimieren des Heliums auf 25 bar bei analoger Temperatur. Onnes beschrieb zuerst das Phänomen suprafluider Flüssigkeiten, das heute als Onnes-Effekt bekannt ist. Im frühen 20. Jahrhundert wurden große Mengen Helium in Erdgasfeldern der amerikanischen Great Plains gefunden und damit wurden die Vereinigten Staaten zum führenden Weltlieferanten für Helium. Nach einem Vorschlag von Sir Richard Threlfall förderte die US-Marine drei kleine experimentelle Heliumproduktionsbetriebe während des Ersten Weltkrieges, um Helium als Füllgas für Sperrballone zu gewinnen. Eine Gesamtmenge von 5.700 Kubikmeter Gas mit einem Heliumanteil von 92 % wurde von diesen Betrieben gewonnen. Dieses Helium wurde 1921 im ersten heliumgefüllten Luftschiff benutzt, dem C-7 der US-Navy. Die Regierung der USA ließ 1925 die National Helium Reserve in Amarillo in Texas errichten, um eine Versorgung von militärischen Luftschiffen in Kriegszeiten und Verkehrsluftschiffen in Friedenszeiten zu sichern. Das Lager befindet sich in einer natürlichen Gesteinsformation 20 km nordwestlich von Amarillo. Obwohl die Nachfrage nach dem Zweiten Weltkrieg sank, wurde die Förderungsanlage in Amarillo erweitert, damit flüssiges Helium als Kühlmittel für Sauerstoff-Wasserstoff-Raketentreibstoff und andere zu kühlende Gegenstände bereitgestellt werden konnte. Der Heliumverbrauch der USA stieg im Jahr 1965 auf das Achtfache des Spitzenverbrauchs in Kriegszeiten. Nachdem in den USA das "Helium Acts Amendments of 1960" (Public Law 86-777) beschlossen wurde, wurden weitere fünf private Heliumförderanlagen errichtet. Das US-Minenministerium ließ dafür eine 685 Kilometer lange Pipeline von Bushton in Kansas nach Amarillo in Texas bauen; dieses Lager enthielt 1995 rund eine Milliarde Kubikmeter Helium und 2004 etwa das Zehnfache des Weltjahresbedarfs an Helium. Bis 2015 soll das Lager leer sein und aufgelöst werden ("Helium Privatization Act"). Die Reinheit des gewonnenen Heliums stieg nach dem Zweiten Weltkrieg rasant an. Wurde 1945 noch eine Mischung von 98 % Helium und 2 % Stickstoff für Luftschiffe benutzt, konnte 1949 bereits Helium mit einer Reinheit von 99,995 % kommerziell vertrieben werden. Um diesen Reinheitsgrad zu erreichen, ist Aktivkohle nötig, um verbliebene Verunreinigungen – meistens bestehend aus Neon – mittels Druckwechsel-Adsorption zu entfernen. Im Weltall. Nach der Urknalltheorie entstand der größte Teil des heute im Weltraum vorhandenen Heliums in den ersten drei Minuten nach dem Urknall. Helium ist nach Wasserstoff das zweithäufigste Element. 23 % der Masse der sichtbaren Materie bestehen aus Helium, obwohl Wasserstoffatome achtmal häufiger sind. Außerdem wird Helium durch Kernfusion in Sternen produziert. Dieses so genannte "Wasserstoffbrennen" liefert die Energie, die die Sterne auf der Hauptreihe, also die Mehrheit aller Sterne, zum Leuchten bringt. Dieser Prozess liefert den Sternen die Energie für den größten Teil ihres Lebens. Wenn der größte Teil des Wasserstoffes am Ende des Lebens eines Sterns im Kern aufgebraucht ist, zieht sich der Kern zusammen und erhöht seine Temperatur. Dadurch kann nun Helium zu Kohlenstoff verbrannt werden (Heliumflash, Heliumbrennen). In einer Schale um diesen Kern findet weiterhin das Wasserstoffbrennen statt. Auch Kohlenstoff kann weiter zu anderen Elementen verbrannt werden. Dieser Prozess wird normalerweise bis zum Eisen fortgesetzt, falls keine Supernovaexplosion auftritt. Bei einer Supernovaexplosion werden auch schwerere Elemente als Eisen synthetisiert, die durch die Explosion im Weltraum verteilt werden. Im Verlauf der Zeit reichert sich die interstellare Materie dadurch mit Helium und schwereren Elementen an, sodass später entstandene Sterne auch einen größeren Anteil an Helium und schwereren Elementen haben. Auf Sternoberflächen und in Nebeln kommt Helium bevorzugt neutral oder einfach ionisiert vor. Anders als in der Physik und Chemie üblich wird in der Astronomie aber nicht die Notation mit hochgestelltem „+“ (He+) verwendet, da andere Elemente so hochionisiert vorkommen können, dass diese Notation unpraktisch wird, zum Beispiel sechzehnfach ionisiertes Eisen in der Sonnenkorona. Daher werden Ionisationsstufen in der Astronomie mit römischen Ziffern bezeichnet, wobei neutrales Helium als He I bezeichnet wird, einfach ionisiertes entsprechend He II und vollständig (= zweifach) ionisiertes als Helium III (Helium-III). Meteoriten und Mond. Helium kann in Meteoriten und oberflächlichem Mondgestein auch durch Wechselwirkung (Spallation) mit Kosmischer Strahlung erzeugt werden. Besonders 3He kann deswegen benutzt werden, um das sogenannte Bestrahlungsalter, welches meist dem Zeitraum vom Losschlagen des Meteoriten vom Mutterkörper bis zu seiner Ankunft auf der Erde entspricht, zu bestimmen. Daneben entsteht 4He in Meteoriten durch Zerfall schwerer radioaktiver Elemente. Auch gibt es in Meteoriten weitere Heliumanteile, welche aus der Zeit der Entstehung des Sonnensystems stammen, zum Teil aber auch aus dem Sonnenwind aufgefangen wurden. Auf der Erde. Die Erde produziert Helium durch radioaktive Vorgänge im Erdinneren. 4He entsteht im Erdkörper beim radioaktiven Zerfall (Alphazerfall) schwerer Elemente wie Uran oder Thorium, wobei Helium-Kerne als Alphateilchen ausgesandt werden und anschließend Elektronen einfangen. Es kann in verschiedenen uran- und thoriumhaltigen Mineralen wie der Pechblende gefunden werden. Aus der Entstehungszeit der Erde stammt ein Anteil von 3He im Erdmantel, der weit über dem atmosphärischen Wert liegt, das sogenannte Mantelhelium; das 4He/3He-Verhältnis liegt im oberen Erdmantel, der weitgehend entgast ist und dessen Heliumbestand daher im Wesentlichen durch 4He aus Alpha-Zerfällen wiederaufgefüllt wird, bei etwa 86.000. Wenn das Konvektionssystem des unteren Erdmantels weitgehend von dem des oberen getrennt und der Massenaustausch zwischen beiden entsprechend gering ist, liegt das Verhältnis im unteren, kaum entgasten Mantel zwischen 2500 und 26.000, das heißt, der Anteil von 3He ist höher. Von besonderem geodynamischen Interesse ist dies im Hinblick auf die Ursachen von Hotspot-Vulkanismus: während für Basalte von mittelozeanischen Rücken, die durch Schmelzprozesse von Material des oberen Mantels entstehen, 4He/3He = 86.000 typisch ist, sind Basalte von einigen Hotspots, zum Beispiel ozeanischen Vulkaninseln wie Hawaii und Island, rund drei- bis viermal 3He-reicher. Dies wird gemeinhin damit erklärt, dass dieser Vulkanismus durch Mantelplumes verursacht wird, deren Ursprung an der Kern-Mantel-Grenze liegt und die daher zumindest teilweise aus Material des unteren Erdmantels bestehen. Helium kommt – durch den gleichen Mechanismus der Ansammlung – in Erdgas (mit bis zu 16 Volumenprozent Anteil) und in geringen Mengen im Erdöl (0,4 %) vor. Europäische Erdgasvorkommen enthalten dabei lediglich Anteile um 0,12 (Nordsee) bis 0,4 Volumenprozent (Polen), während in sibirischen, nordamerikanischen (Kanada, Texas, Kansas und Oklahoma) und algerischen Erdgasvorkommen bis zu 16 Volumenprozent möglich sind. In unteren Schichten der Erdatmosphäre, besonders der vom Wetter durchmischten Troposphäre beträgt der Heliumgehalt etwa 5,2 ppm. In sehr großer Höhe entmischen sich Gase tendenziell entsprechend ihrer unterschiedlichen Dichte auch entgegen der durchmischenden Wirkung der ungerichteten molekularen Wärmebewegung. Oberhalb 100 km Höhe (Homosphäre) liegt die Atmosphäre zunehmend entmischt vor, Helium wird so in Höhen >400 km, (teilchenanzahlmäßig) das vorherrschende Gas. Dabei entweichen Heliumatome in diesen Höhen in den Weltraum – im Gleichgewichtsfall so viel, wie aus der Erdoberfläche durch Diffusion, Förderung und Vulkanismus nachgeliefert wird. Gewinnung. Erdgas mit einem Heliumanteil ab 0,2 % ist der größte und wirtschaftlich wichtigste Heliumlieferant. Da Helium eine sehr niedrige Siedetemperatur besitzt, ist es durch Herunterkühlen des Erdgases möglich, das Helium von den anderen im Erdgas enthaltenen Stoffen, wie Kohlenwasserstoffen und Stickstoffverbindungen, zu trennen. Viele Jahre lang gewannen die USA über 90 % des kommerziell nutzbaren Heliums der Welt. Noch 1995 wurden in den USA insgesamt eine Milliarde Kubikmeter Helium gefördert. Der restliche Anteil wurde von Förderungsanlagen in Kanada, Polen, Russland (wobei große Mengen in den unzugänglichen Gebieten Sibiriens liegen) und anderen Ländern geliefert. Nach der Jahrtausendwende kamen Algerien und Katar dazu. Algerien konnte sich rasch zum zweitwichtigsten Heliumlieferanten entwickeln. 2002 stellte Algerien 16 % des Heliums her, das in der Welt vertrieben wurde. Das Helium wird dort im Zuge der Erdgasverflüssigung gewonnen. Bei Amarillo in Texas lagerte 2004 etwa das Zehnfache des Weltjahresbedarfs an Helium. Diese ehemals strategische Reserve der US-amerikanischen Regierung muss jedoch aufgrund des "Helium Privatization Act" der Clinton-Regierung aus dem Jahr 1996 bis 2015 an die Privatwirtschaft verkauft werden. Dadurch wurde zunächst eine Heliumschwemme mit sehr niedrigen Preisen verursacht, die zu verschwenderischem Umgang führte und lange Zeit keine Maßnahmen zur Sparsamkeit aufkommen ließ. Weil der Verbrauch jedoch ständig steigt, droht Helium knapp zu werden und Anlagen zur Wiedergewinnung des Heliums wurden bei Großverbrauchern zunehmend in Betrieb genommen. Experten warnen sogar vor einem Heliummangel, da Helium nur aus einigen Erdgasen gewonnen werden kann. Das Isotop 3He ist nur zu etwa 1,4 ppm in natürlichem Helium enthalten und daher um ein Vielfaches teurer als das natürliche Isotopengemisch. Erzeugung. Ein weiterer seltener Weg zur Tritiumerzeugung sind ternäre Kernspaltungen in Kernreaktoren. Das Tritium zerfällt durch Betazerfall zu 3He. Physikalische Eigenschaften. Helium ist nach Wasserstoff das chemische Element mit der zweitgeringsten Dichte und besitzt die niedrigsten Schmelz- und Siedepunkte aller Elemente. Daher existiert es nur unter sehr tiefen Temperaturen als Flüssigkeit oder Feststoff. Bei Temperaturen unter 2,17 K liegt 4He in einer suprafluiden Phase vor. Bei Normaldruck wird Helium selbst bei einer Temperatur nahe von 0 K nicht fest. Erst bei einem Druck oberhalb 2,5 MPa (rund 25-facher Atmosphärendruck) geht Helium bei hinreichend tiefen Temperaturen in eine feste Phase über. Im gasförmigen Zustand. Helium ist ein farbloses, geruchloses, geschmacksneutrales und ungiftiges Gas. Unter Standardbedingungen verhält sich Helium nahezu wie ein ideales Gas. Helium ist praktisch unter allen Bedingungen einatomar. Ein Kubikmeter Helium hat bei Standardbedingungen eine Masse von 179 g. Luft hat dagegen die etwa siebenfache Dichte. Helium hat nach dem Verdampfen als Gas das 750fache Volumen wie als Flüssigkeit. Helium weist nach Wasserstoff die größte thermische Leitfähigkeit unter allen Gasen auf und seine spezifische Wärmekapazität ist außergewöhnlich groß. Helium ist ein guter elektrischer Isolator. Die Wasserlöslichkeit von Helium ist geringer als bei jedem anderen Gas. Seine Diffusionsrate durch Festkörper beträgt das Dreifache von Luft und ca. 65 % von Wasserstoff. Helium hat bei Standardbedingungen einen negativen Joule-Thomson-Koeffizienten, das heißt, dieses Gas erwärmt sich bei Ausdehnung. Erst unterhalb der Joule-Thomson-Inversionstemperatur (circa 40 K bei Atmosphärendruck) kühlt es sich bei Expansion ab. Daher muss Helium unter diese Temperatur vorgekühlt werden, ehe es durch Expansionskühlung verflüssigt werden kann. Seine kritischen Daten sind ein Druck von 2,27 bar, eine Temperatur von −267,95 °C (5,2 K) und eine Dichte von 0,0696 g/cm3. Helium I. Bei Normaldruck bildet Helium zwischen dem Lambdapunkt bei 2,1768 K und dem Siedepunkt bei 4,15 K eine farblose Flüssigkeit. Helium II. Flüssiges 4He entwickelt unterhalb seines Lambdapunktes sehr ungewöhnliche Eigenschaften. Helium mit diesen Eigenschaften wird als "Helium II" bezeichnet. Das Sieden von Helium II ist wegen seiner hohen Wärmeleitfähigkeit nicht mehr möglich. Erhitzen bewirkt stattdessen eine direkte Verdampfung der Flüssigkeit in den gasförmigen Zustand, wenn der „Siedepunkt“ erreicht ist. Helium II ist ein suprafluider Stoff. So fließt es etwa durch kleinste Öffnungen in Größenordnungen von 10−7 bis 10−8 m und hat keine messbare Viskosität. Jedoch konnte bei Messungen zwischen zwei sich bewegenden Scheiben eine Viskosität ähnlich der von gasförmigem Helium festgestellt werden. Dieses Phänomen wird mit dem Zwei-Fluid-Model (rsp. Zwei-Flüssigkeiten-Modell) nach László Tisza erklärt. Laut dieser Theorie ist Helium II wie ein Gemisch aus 4He-Teilchen im normal-fluiden sowie im suprafluiden Zustand, demnach verhält sich Helium II so, als gäbe es einen Anteil an Heliumatomen mit und einen ohne messbarer Viskosität. Anhand dieser Theorie können viele Phänomene der Tiefentemperaturphysik wie zum Beispiel der "„Thermomechanische Effekt“" relativ einfach und klar erklärt werden. Allerdings muss man deutlich darauf hinweisen, dass die zwei Flüssigkeiten weder theoretisch noch praktisch trennbar sind. In Helium II konnten die von Lew Landau postulierten Rotonen als kollektive Anregungen nachgewiesen werden. Helium II zeigt den Onnes-Effekt: Wenn eine Oberfläche aus dem Helium hinausragt, bewegt sich das Helium auf dieser Fläche auch gegen die Schwerkraft. Helium II entweicht auf diese Weise aus einem Behälter, der nicht versiegelt ist. Wenn es einen wärmeren Bereich erreicht, verdunstet es. Aufgrund dieses Kriechverhaltens und der Fähigkeit des Heliums II, selbst durch kleinste Öffnungen auszulaufen, ist es sehr schwierig, flüssiges Helium in einem begrenzten Raum zu halten. Es ist ein sehr sorgfältig zu konstruierender Behälter nötig, um Helium II aufzubewahren, ohne dass es entweicht oder verdunstet. Die Wärmeleitfähigkeit von Helium II lässt sich nicht mit der klassischen Wärmeleitung vergleichen, sie weist eher Parallelen zum Wärmetransport mittels Konvektion auf. Dadurch ist ein schneller und effektiver Wärmetransport über weite Distanzen möglich, was bei klassischer Wärmeleitung selbst mit sehr guten Wärmeleitern nicht möglich ist. Helium II bei 1,8 K leitet Wärme als Impuls mit einer Geschwindigkeit von 20 m/s. 1971 gelang David M. Lee, Douglas D. Osheroff und Robert C. Richardson, das Helium-Isotop 3He ebenfalls in einen suprafluiden Zustand zu versetzen, indem sie das Isotop unter die Temperatur von 2,6 Millikelvin abkühlten. Dabei geht man davon aus, dass zwei Atome 3He ein Paar bilden, ähnlich einem Cooper-Paar. Dieses Paar besitzt ein magnetisches Moment und einen Drehimpuls. Die drei Wissenschaftler erhielten für diese Entdeckung 1996 den Nobelpreis für Physik. In festem Zustand. Helium kann als einziger Stoff unter Normaldruck nicht verfestigt werden. Dies gelingt nur unter erhöhtem Druck (etwa 2,5 MPa) und bei sehr niedriger Temperatur (weniger als 1,5 K). Der beim Phasenübergang entstehende, fast vollkommen durchsichtige Feststoff ist sehr stark komprimierbar. Im Labor kann dessen Volumen um bis zu 30 % verringert werden; Helium ist mehr als 50-mal leichter komprimierbar als Wasser. Im festen Zustand bildet es kristalline Strukturen aus. Festes und flüssiges Helium sind optisch kaum voneinander zu unterscheiden, da ihre Brechungsindizes fast gleich sind. In einem anderen Fall kann bei Unterschreiten von etwa 200 mK und gleichzeitigem Zentrifugieren ein Zustand erreicht werden, den man suprasolide oder auch suprafest nennt. Hierbei stoppt ein Teil des Feststoffes die eigene Rotation und durchdringt die restlichen Teile der Materie. Zu diesem teilweise umstrittenen Effekt gibt es noch keine bekannten Thesen oder Theorien. Atomare Eigenschaften. Die zwei Elektronen des Heliumatoms bilden die abgeschlossene, kugelsymmetrische Elektronenschale des 1s-Atomorbitals. Diese Elektronenkonfiguration ist energetisch äußerst stabil, es gibt kein anderes Element mit einer höheren Ionisierungsenergie und einer geringeren Elektronenaffinität. Helium ist trotz seiner größeren Elektronenzahl kleiner als Wasserstoff und damit das kleinste Atom überhaupt. Abhängig von der Spinorientierung der zwei Elektronen des Heliumatoms spricht man vom Parahelium im Falle von zwei einander entgegengerichteten Spins (S = 0) und von Orthohelium bei zwei parallelen Spins (S = 1). Beim Orthohelium befindet sich eines der Elektronen nicht im 1s-Orbital, da dies das Pauli-Verbot verletzen würde. Die Benennung dieser Zustände geht auf einen früheren Irrtum zurück: Da der elektromagnetische Übergang zwischen dem Grundzustand des Orthoheliums und dem Grundzustand des Paraheliums (also dem Helium-Grundzustand) verboten ist, erscheinen die beiden „Varianten“ des Heliums spektroskopisch wie zwei unterschiedliche Atome. Dies führte dazu, dass Carl Runge und Louis Paschen postulierten, Helium bestehe aus zwei getrennten Gasen, Orthohelium („richtiges Helium“) und Parahelium (für das sie den Namen Asterium vorschlugen). Neben der Elektronenkonfiguration des Orthoheliums können die Elektronen – zum Beispiel durch Beschuss mit Elektronen – weitere angeregte Zustände einnehmen. Diese langlebigen angeregten Zustände werden als metastabile Energieniveaus bezeichnet. Chemische Eigenschaften. Helium ist ein Edelgas. Die einzige Elektronenschale ist mit zwei Elektronen voll besetzt. Beide Elektronen sind durch die räumliche Nähe zum Atomkern sehr stark an diesen gebunden. Nicht zuletzt deswegen ist Helium selbst im Vergleich zu anderen Edelgasen ausgesprochen reaktionsträge. Das zeigt sich auch an den hohen Ionisierungsenergien des Heliumatoms. Helium-Dimer. Wie anhand des Molekülorbital-Schemas ersichtlich wird, bilden Helium-Atome untereinander keine chemische Bindung. Beim Helium ist das 1s-Orbital mit einem Elektronenpaar besetzt. Bei der Kombination zweier dieser voll besetzten Atomorbitale (a) und (b) ist sowohl das bindende als auch das antibindende Molekülorbital mit je einem Elektronenpaar besetzt. Bei den sich (hypothetisch) ausbildenden Bindungsorbitalen wird der energetisch günstigere, sog. bindende Zustand durch den ebenfalls besetzten, aber energetisch ungünstigeren Antibindenden kompensiert. Das Gesamtsystem liegt energetisch nicht niedriger und es kommt keine Bindung zustande. Aufgrund der für alle Atome und Moleküle wirksamen Van-der-Waals-Wechselwirkung existiert jedoch auch bei Helium ein Dimer, allerdings mit einer äußerst kleinen Bindungsenergie von circa 1,1 mK (= 9,5 · 10−26 J) und einem entsprechend großen Bindungsabstand von circa 52 Å. Ionische Bindungen. Unter extremen Bedingungen ist es möglich, eine quasichemische Verbindung von Helium mit einem Proton (HeH+) zu erzeugen. Diese Verbindung ist bei Normalbedingungen sehr instabil und kann nicht in Form eines Salzes wie HeH+X− isoliert werden. Eine entsprechende Reaktion kann zwischen zwei Helium-Atomen ablaufen, wenn die zur Ionisierung notwendige Energie zugeführt wird. Diese Verbindungen können aber nicht als wirkliche chemische Verbindungen bezeichnet werden, sondern eher als ionische Agglomerationen, die unter Ausnahmebedingungen kurz entstehen und sofort wieder zerfallen. Isotope. Von den acht bekannten Isotopen des Heliums sind lediglich 3He und 4He stabil. In der Erdatmosphäre existiert pro Million 4He-Atome nur ein 3He-Atom. Jedoch variiert die Proportion der beiden Isotope je nach dem Herkunftsort der untersuchten Heliumprobe. Im interstellaren Medium sind 3He-Atome hundert Mal häufiger. In Gesteinen der Erdkruste und des Erdmantels liegt die Proportion ebenfalls weit über dem atmosphärischen Wert und variiert je nach Herkunft um den Faktor 10. Diese Variationen werden in der Geologie benutzt, um die Herkunft des Gesteines zu klären (siehe auch "Auf der Erde"). 3He und 4He weisen aufgrund der unterschiedlichen Symmetrieeigenschaften (3He-Atome sind Fermionen, 4He-Atome sind Bosonen) einige unterschiedliche physikalische Eigenschaften auf, die sich insbesondere bei tiefen Temperaturen zeigen. So trennen sich gleiche Anteile von flüssigem 3He und 4He unter 0,8 Kelvin aufgrund ihrer unterschiedlichen Quanteneigenschaften in zwei unmischbare Flüssigkeiten, ähnlich Öl und Wasser. Dabei schwimmt eine Phase aus reinem 3He auf einer Phase, die hauptsächlich aus 4He besteht. Weiterhin unterscheiden sich die zwei Isotope deutlich in ihren suprafluiden Phasen (siehe Abschnitt „Helium II“). Kernfusion. In Ankündigungen neuer Raumfahrt-Missionen der USA, Russlands und Chinas, weiterhin auch Europas, Indiens und Japans zum Mond wurden mehrfach die dortigen anteilig größeren Vorkommen von 3He als lohnende Quelle genannt, um Kernfusionsreaktoren auf Basis dieses Isotops auf der Erde zu ermöglichen. Im Gegensatz zur Deuterium-Tritium-Fusionsreaktion liefert die Deuterium-3He-Reaktion bei ähnlich großem Energiegewinn keine freien Neutronen, sondern Protonen. Dies würde die Radioaktivitätsprobleme der Fusionsenergiegewinnung dramatisch verringern. Andererseits ist die Herbeiführung dieser Reaktion wegen der nötigen viel höheren Plasmatemperatur eine noch ungelöste technische Herausforderung. Hypothetisches Diproton. Ein besonderes, fiktives Isotop des Heliums ist 2He, dessen Kern, das Diproton, im Falle seiner Existenz lediglich aus zwei Protonen bestünde. Für ein System aus zwei Protonen gibt es jedoch keinen gebundenen Zustand, da sich diese wegen des Pauli-Prinzips – im Gegensatz zum Proton und Neutron beim Deuteron – nur in einem Singulett-Zustand mit antiparallelen Spins befinden dürfen. Auf Grund der starken Spinabhängigkeit der Nukleon-Nukleon-Wechselwirkung ist dieser aber energetisch angehoben und daher nicht gebunden. Gefahren. Obwohl Helium an sich ungiftig ist und unter Umweltbedingungen keine chemischen Verbindungen eingeht, wird davon abgeraten, das Gas einzuatmen oder in geschlossene Räume ausströmen zu lassen, da Helium die Atemluft verdrängt, was Sauerstoffmangel bewirken kann. Dies kann zu dauerhaften Gesundheitsschäden bis hin zum Tod führen. Symptome können Orientierungsschwierigkeiten und Bewusstseinsverlust sein. Das Gefährliche daran ist, dass das Opfer die Erstickung kaum bis gar nicht bemerkt, bis es zu spät ist. Beim Hantieren mit Flüssig-Helium (UN-Nummer UN 1977) – es ist um 73 K kälter als Flüssig-Stickstoff, der ebenfalls als „tiefkalt“ bezeichnet wird – ist die Verwendung von Schutzkleidung notwendig, um Erfrierungen durch Kontakt zu verhindern. Die Gefahr geht im Wesentlichen von tiefgekühlten Behältern, Apparaturen und Armaturen bzw. durch die Vorkühlung durch LN2 aus, da Flüssig-Helium selbst nur eine extrem geringe Kühlleistung (220 ml LHe hat die Kühlleistung von 1 ml LN2) hat. Eine Brille schützt die Augen oder ein Visier das ganze Gesicht, dichte Handschuhe einer gewissen Dicke und mit Stulpe die Hände. Offene Taschen oder Stiefelschäfte sind Eintrittspforten für Spritzer und daher zu vermeiden. Weitere Gefahren gehen durch Vereisung und damit verbundener Verstopfung und Explodieren von Leitungen und Gefäßen aus. Heliumdruckgasbehälter – meist nahtlose Stahlzylinder für 200 bar Hochdruck oder aber geschweißte (oft: Einweg-)Flaschen – stehen unter hohem Druck. Ihr Erhitzen über den Richtwert von 60 °C oder Kontakt mit Feuer ist strikt zu vermeiden. Denn einerseits steigt der Innendruck mit der Temperatur und andererseits nimmt die Festigkeit der Stahlwandung ab, sodass ein sehr energisches Platzen des Gefässes droht. Auch das Abreissen des Ventils, etwa wenn eine Flasche ohne Schutzkappe fällt, oder das Brechen einer Berstscheibe löst einen Gasstrahl mit gefährlichen Folgen aus. Auch Ballonfüllventile mit integriertem Druckregler liefern ein Vielfaches von dem Druck, den Lunge, Mund oder jede andere Körperhöhle aushält. Sonstiges. Nach dem Einatmen von Helium klingt, solange die Atemwege einen relevant hohen Anteil an Helium enthalten, die menschliche Stimme erheblich höher. (Populär wird dieser Effekt „Micky-Maus-Stimme“ genannt, die allerdings durch schnelleres Abspielen von Tonband, also Erhöhung "aller" Frequenzen (und des Tempos) um einen bestimmten Faktor erzielt wurde.) Die Klangfarbe einer Stimme hängt nämlich von der Lage der Formanten im Mundraum ab, die durch Faktoren wie Zungen- und Lippenstellung beeinflusst werden. (Formanten sind diejenigen Frequenzbereiche, die am stärksten durch Resonanzwirkung verstärkt werden.) Diese Formanten hängen auch von der Schallgeschwindigkeit "c" im entsprechenden Medium ab (cLuft = 350 m/s, cHelium = 1030 m/s). Beträgt zum Beispiel die Lage der ersten drei Formanten in Luft 220, 2270 und 3270 Hz, so ändert sich dies in (reinem) Helium zu 320, 3900 und 5500 Hz. Dadurch ergibt sich ein anderes Stimmbild und die Stimme erscheint insgesamt höher, selbst wenn die Höhe des Stimmtones durch das Edelgas unverändert bliebe. Einen ähnlichen Effekt gibt es, wenn ein (anfangs nur luftgefülltes) Blasinstrument mit Helium angeblasen wird. Halogene. Die Halogene („Salzbildner“, von "halos" „Salz“ und "gennáō" „erzeugen“) bilden die "7. Hauptgruppe" oder nach neuer Gruppierung des Periodensystems die "Gruppe 17" im Periodensystem der Elemente, die aus folgenden sechs Elementen besteht: Fluor, Chlor, Brom, Iod, dem äußerst seltenen radioaktiven Astat und dem 2010 erstmals künstlich erzeugten, sehr instabilen Ununseptium. Die Gruppe der Halogene steht am rechten Rand des Periodensystems zwischen den Chalkogenen (6. Hauptgruppe) und Edelgasen (8. Hauptgruppe). Diese Nichtmetalle sind im elementaren Zustand sehr reaktionsfreudig (Fluor kann unter Feuererscheinung reagieren), farbig und reagieren mit Metallen zu Salzen (Namensherkunft) und mit Wasserstoff unter Normalbedingung zu Halogenwasserstoffen (gasförmige, einprotonige Säuren). Die erstgenannten vier stabilen Elemente spielen wichtige Rollen in Chemie, Biologie und Medizin. Astat dient in organischen Verbindungen in der Nuklearmedizin zur Bestrahlung von bösartigen Tumoren. Vorkommen. Halogene kommen in der Natur vor allem als einfach negativ geladene Anionen in Salzen vor. Das zugehörige Kation ist meist ein Alkali- oder Erdalkalimetall, insbesondere die Natriumsalze der Halogene sind häufig anzutreffen. Aus diesen können dann die Halogene mittels Elektrolyse gewonnen werden. Ein nicht unbeträchtlicher Teil der Halogenide ist im Meerwasser gelöst. Im Gegensatz zu den anderen Halogenen kommt Iod auch in der Natur als Iodat vor. Astat, das seltenste natürlich vorkommende Element, ist Zwischenprodukt der Uran- und Thoriumzerfallsreihe. Die Gesamtmenge in der Erdkruste beträgt lediglich 25 g. Gewinnung der Reinelemente. Fluorgas F2 lässt sich nur durch elektrochemische Vorgänge gewinnen, da es kein Element und keine Verbindung gibt, die ein größeres Redox-Potential als Fluor hat und dieses oxidieren könnte (Oxidation, weil Elektronenabgabe von 2 F− zu F2, andere Halogene analog). Alle anderen Halogene lassen sich neben der elektrochemischen Darstellung (z. B. Chloralkalielektrolyse) auch mit Oxidationsmittel wie MnO2 (Braunstein), KMnO4 (Kaliumpermanganat) herstellen. Physikalische Eigenschaften. Elementare Halogene sind farbige, leicht flüchtige bis gasförmige Substanzen, die in Wasser löslich sind (Fluor reagiert). Ihre Farbintensität, Siedepunkte und Dichte nehmen mit der Ordnungszahl zu. Sie liegen in Form von zweiatomigen Molekülen der Form X2 vor (z. B. F2 und Cl2) und sind daher Nichtleiter (Isolatoren). Chemische Eigenschaften. Halogene sind sehr reaktionsfreudige Nichtmetalle, da ihnen nur noch ein einziges Valenzelektron zur Vollbesetzung der Valenzschale fehlt. Da die Halogen-Halogen-Bindung nicht sehr stabil ist, reagieren auch Halogenmoleküle heftig; die Reaktivität nimmt, wie die Elektronegativität, von Fluor zu Iod ab. Gleichzeitig steigt die 1. Ionisierungsenergie nach oben hin an. Die Eigenschaften von Astat sind jedoch größtenteils unerforscht, wahrscheinlich ist es aber aus chemischer Sicht dem Iod sehr ähnlich. Verwendung. In der organischen Chemie werden sie zur Synthese von Halogenverbindungen verwendet. Das Verfahren wird allgemein als Halogenierung bezeichnet. Durch Zugabe von Halogenen in Glühlampen wird durch den Wolfram-Halogen-Kreisprozess deren Lebensdauer und Lichtausbeute erhöht. Man spricht dann auch von Halogenlampen. Halogenide. Ionische Halogenverbindungen wie z. B. die Fluoride, Chloride, Bromide und Iodide sind salzartige Stoffe. Dementsprechend haben sie hohe Schmelzpunkte, sind spröde und elektrische Nichtleiter außer in Schmelze und Lösung. Die meisten Halogenide sind wasserlöslich (wie z. B. Kochsalz, Natriumchlorid; wasserunlöslich sind Blei-, Quecksilber- und Silberhalogenide (vgl. Salzsäuregruppe) sowie Kupfer(I)-halogenide. Viele Halogenide kommen in der Natur in Form von Mineralien vor (s. u.). Halogensauerstoffsäuren. Die Säurestärke wächst mit steigender Zahl der Sauerstoffatome, ebenso die oxidierende Wirkung. Die meisten Sauerstoffsäuren der Halogene sind sehr instabil und zersetzen sich exotherm. Interhalogenverbindungen. Interhalogenverbindungen sind bei Standardbedingungen instabil oder äußerst reaktiv. Es existieren auch Interhalogenidionen wie beispielsweise BrF6− und IF6−. Auch Sauerstoffsäurehalogenide wie z. B. Perchlorylfluorid ClO3F oder Iodoxipentafluorid IOF5 sind bekannt. Henry Cavendish. Henry Cavendish (* 10. Oktober 1731 in Nizza; † 24. Februar 1810 in London) war ein britischer Naturwissenschaftler. Seine bekanntesten Leistungen sind die Entdeckung des Elements Wasserstoff und die erste experimentelle Bestimmung der mittleren Dichte der Erde („Wiegen der Erde“), die in weiterer Folge die Bestimmung der Gravitationskonstanten ermöglichte. Leben. Henry Cavendish war der Sohn von Lord Charles Cavendish (ein Sohn von William Cavendish, 2nd Duke of Devonshire, 1704–1783), und Lady Anne Grey, Tochter von Henry Grey, 1st Duke of Kent. Die Familie Cavendish gehörte zum alteingesessenen Adel und war mit vielen anderen bedeutenden Adelsfamilien in Großbritannien eng verbunden. Henry wurde in Nizza geboren, wo sich – nach Lord Burlington – seine Mutter aufgrund ihres schlechten Gesundheitszustand aufhielt. Seine Mutter starb 1733 nach der Geburt seines Bruders Frederick (1733–1812). Im Alter von elf Jahren war Cavendish ein Schüler von Newcome’s School in Hackney, einer der größten und anerkanntesten Privatschulen des 18. Jahrhunderts. Am 18. Dezember 1749 wurde er Student im Peterhouse College der University of Cambridge, das er am 23. Februar 1753 ohne Abschluss-Examen verließ. Seine erste wissenschaftliche Arbeit erschien im Jahre 1766 und trug den Titel "Experiments on Factitious Airs" („künstliche Luftarten“, d. h. durch chemische Reaktionen dargestellte Gase). Nach einer Reise mit seinem Bruder Frederick durch Europa lebte er zusammen mit seinem Vater bis zu dessen Tod 1783 in Soho (London). Während dieser Zeit führte er seine elektrischen und die meisten chemischen Forschungen durch. Er begann dabei als Assistent seines Vaters, der selbst wissenschaftliche Experimente durchführte. Mit 40 Jahren erbte Henry Cavendish ein großes Vermögen, das es ihm ermöglichte, seine wissenschaftlichen Studien weiterzuführen. Nach dem Tod seines Vaters zog er in eine Villa nach Clapham Common, wo er ein großes Experimentierlabor einrichtete. Er besaß aber auch ein Stadthaus im Londoner Stadtteil Bloomsbury und ein weiteres Haus für seine Bibliothek in der Dean Street, Soho. Er besuchte die Zusammenkünfte der Royal Society, deren Fellow er 1760 wurde und mit deren Mitgliedern er donnerstags dinierte. Ansonsten mied er gesellschaftliche Ereignisse und sogar Lord George Cavendish, den er später zu seinem Haupterben machte, sah er nur einmal jährlich für wenige Minuten. Abgesehen davon änderte sich durch die Erbschaft kaum etwas an seinem bescheidenen Lebensstil. Cavendish legte ein exzentrisches Verhalten an den Tag. Sein Abendessen bestellte er täglich durch eine Notiz, die er auf dem Flurtisch hinterlegte, und seine weiblichen Angestellten waren angewiesen, außer Sichtweite zu bleiben, wenn sie nicht ihre Entlassung riskieren wollten. Frauen und Fremden gegenüber war er äußerst schüchtern und er vermied es, mit ihnen überhaupt zu sprechen. Er war ein großgewachsener Mann mit einer schrillen, dünnen Stimme und trug als Kleidung einen abgetragenen, verblassten, violetten Samtanzug und einen Dreispitz aus dem vorherigen Jahrhundert. Er war ein wortkarger Einzelgänger. Einer seiner wichtigsten Mitarbeiter war Charles Blagden, der an einer Vielzahl seiner Experimente beteiligt war. Auch existiert eine intensive Korrespondenz zwischen den beiden Wissenschaftlern. Cavendish führte unzählige wissenschaftliche Studien und Experimente durch, von denen allerdings die meisten zu seinen Lebzeiten unveröffentlicht blieben. Während seines ganzen Lebens hat er nur 20 Artikel und kein einziges Buch veröffentlicht. Erst lange nach seinem Tod, gegen Ende des 19. Jahrhunderts, beschäftigte sich James Clerk Maxwell mit den Forschungen Cavendishs und erkannte, dass viele wissenschaftliche Errungenschaften von ihm bereits vorweggenommen worden waren, so zum Beispiel das ohmsche Gesetz, das Dalton-Gesetz, das Gesetz von Gay-Lussac und die Prinzipien der elektrischen Leitfähigkeit. Cavendish starb am 24. Februar 1810 und wurde in der "All Saints Church" in Derby begraben (heute Derby Cathedral). Er hinterließ Lord George Cavendish, dem Großvater des damaligen Duke of Devonshire, ein bedeutendes Vermögen in Höhe von £700.000 mit Einkünften aus Liegenschaften von £8000 pro Jahr sowie £50.000 bei seiner Bank. 1871 stiftete William Cavendish, 7th Duke of Devonshire und Prinzipal der University of Cambridge, das Geld zum Aufbau des "Cavendish-Laboratorium" genannten Physik-Fachbereichs der University of Cambridge. Der Mondkrater Cavendish ist nach ihm benannt. Werk. Cavendishs Apparat zum Erzeugen und Sammeln des Wasserstoffs Entdeckung des Wasserstoffs und Verwerfung der Phlogistontheorie. 1766 entdeckte Cavendish den Wasserstoff. Nachdem er den Knallgasversuchen von Joseph Priestley beigewohnt hatte, zeigte er 1781, dass Wasser nicht elementar ist. Das langgesuchte Oxid der entzündlichen Luft ist eine zusammengesetzte Substanz der Elemente Wasserstoff und Sauerstoff. Die Entdeckung des Sauerstoffs durch Antoine Laurent de Lavoisier führte zur Verwerfung der Phlogistontheorie. Cavendishs Versuchsreihen zur Deutung der Synthese des Wassers aus seinen Bestandteilen zeigten die große Bedeutung quantitativer Messungen in der Chemie auf. Cavendish interpretierte das gewonnene Gas, "inflammable air", als die Darstellung des reinen Phlogistons. Bestimmung der Gravitationskraft und der Masse der Erde. wobei "F"Probe die gemessene Anziehungskraft zwischen den Körpern und "F"Erde das Gewicht des leichten Probekörpers ist, also die Gravitationskraft, mit der die Erde auf ihn einwirkt, "R"12, "R"Erde sind die jeweiligen Abstände. Die Masse "m"2 der kleinen Kugel muss dazu gar nicht bekannt sein, denn sie hebt sich heraus. Nach der Messung von "F"Probe ist "M"Erde die letzte verbleibende Unbekannte und kann einfach bestimmt werden. Der Messapparat – eine Torsionswaage – stammte ursprünglich von dem Geologen John Michell, der ihn kurz vor seinem Tod 1793 fertigstellte, selbst aber keine Messungen mehr durchgeführte. Cavendish betonte, dass Michell die Idee schon vor Coulomb hatte, der 1785 auf die gleiche Weise die elektrostatische Anziehung und Abstoßung untersucht hatte. Für den Nachweis der viel schwächeren Gravitation musste Cavendish die Waage teilweise umbauen, um Störfaktoren auszuschalten, insbesondere den Einfluss geringster Temperaturschwankungen. Er bediente deshalb sein Experiment aus einem anderen Raum und las die Messwerte mit einem Fernrohr ab. Gemessen wurde die Winkel-Auslenkung einer an einem Torsionsfaden aufgehängten Hantel mit zwei Bleikugeln, wenn sie von zwei in unmittelbare Nähe gebrachten größeren Bleikugeln angezogen wurden. Die Rückstellkraft wurde nach dem hookeschen Gesetz proportional zum Auslenkungswinkel angenommen. Cavendish führte während eines ganzen Jahres sein Experiment 17 mal mit 29 Messungen durch und berücksichtigte auch kleinste denkbare Störungen. Seine Endergebnisse für G weichen um 1,2 Prozent und für die Dichte der Erde um 0,6 Prozent vom heutigen Wert ab. Da die Erde einen Mond besitzt und mit Kenntnis der absoluten Erdmasse konnten aus dem Gravitationsgesetz nun auch die Massen anderer Körper des Sonnensystems bestimmt werden, die von beobachtbaren Begleitern umrundet werden. Das Experiment von Cavendish gilt heute als Klassiker in der Geschichte der Physik. Es wird als erste Bestimmung der Gravitationskonstante "G" gewertet, die eine der drei fundamentalen Naturkonstanten ist. Cavendish selbst lag diese Betrachtungsweise noch fern, selbst der Begriff „Gravitationskonstante“ konnte erst in der zweiten Hälfte des 19. Jahrhunderts auftauchen, nachdem 1873 mit der ersten allgemeinen Definition einer Krafteinheit (Dyn) die begriffliche Voraussetzung dafür geschaffen worden war. Hektar. Das oder der Hektar bzw. die Hektare (schweizerisch) ist eine Maßeinheit der Fläche mit dem Einheitenzeichen ha. Sie ist vor allem in der Land- und Forstwirtschaft verbreitet. Geschichte. Das Wort "Hektar" ist aus griechisch "hekt(o)" (für ‚hundert‘) und "Ar" zusammengesetzt und bedeutet daher: 100 Ar. 1879 wurde "der Hektar" vom CIPM (Comité International des Poids et Mesures) in seine Empfehlungen aufgenommen. Bereits davor war "das Hektar" Bestandteil der Maß- und Gewichtsordnung des Norddeutschen Bundes von 1868. Seit dem späten 19. Jahrhundert entsprachen im Deutschen Reich einem Hektar exakt vier Morgen, dieser wurde deswegen zur Abgrenzung von traditionellen Maßen auch Viertelhektar (vha) genannt. Umrechnungen. Ein Hektar entspricht 10.000 Quadratmetern oder auch 100 Ar oder einem Quadrathektometer. Ein Quadrat mit dem Flächeninhalt 1 Hektar hat eine Seitenlänge von 100 Metern (1 Hektometer). Gesetzliche Einheit. Zwar gehört das Flächenmaß "Hektar" nicht zum Internationalen Einheitensystem (SI), es ist jedoch zur Benutzung mit diesem zugelassen. Der Hektar ist in Deutschland und Österreich und als "Hektare" in der Schweiz eine gesetzliche Einheit, jedoch eingeschränkt auf die Angabe der Fläche von Grundstücken und Flurstücken. Nach der EWG ist „Hektar“ lediglich ein besonderer Name für das Hundertfache des Ar, gebildet aus dem Vorsatz "Hekto" für "100" und dem Einheitennamen Ar. Verwendung mit SI-Vorsätzen. Die deutsche Einheitenverordnung sieht Ar (Einheitenzeichen: a) und Hektar (Einheitenzeichen: ha) als eigenständige Einheiten und lässt für beide die Verwendung von SI-Vorsätzen zu. Somit sind in Deutschland auch Bildungen wie Hektoar (ha) und z. B. Zentihektar (cha) legal, aber unüblich. Dem Einheitenzeichen ha ist nicht anzusehen, ob damit "Hektar" oder "Hektoar" gemeint ist, was jedoch keinen Unterschied macht, da in beiden Fällen 10.000 m² beschrieben werden. Hektarertrag. In der Landwirtschaft wird häufig mit dem Begriff Hektarertrag gearbeitet, gemeint ist damit die von der Fläche eines Hektars geerntete Menge des Erntegutes (beispielsweise Getreide oder Wein). Henry (Einheit). Henry ist die SI-Einheit der Induktivität. Die Einheit ist benannt nach Joseph Henry. Sie ist für jede Leiterspule spezifisch und wird meistens auf ihr angegeben. Eine Spule hat eine Induktivität von 1 Henry, wenn bei gleichförmiger Stromänderung von 1 Ampere in 1 Sekunde eine Selbstinduktionsspannung von 1 Volt entsteht. CGS-Einheitensystem. Das Abhenry (abH) ist die veraltete Maßeinheit für Induktivität aus dem elektromagnetischen CGS-Einheitensystem. Es gilt In einer Induktivität von 1 abH erzeugt ein um 1 Abampere pro Sekunde ansteigender Strom eine Spannung von 1 Abvolt. Das Stathenry (statH) ist die veraltete Maßeinheit für Induktivität aus dem elektrostatischen CGS-Einheitensystem. Es gilt In einer Induktivität von 1 statH erzeugt ein um 1 Statampere pro Sekunde ansteigender Strom eine Spannung von 1 Statvolt. Hertz (Einheit). Das Hertz (mit dem Einheitenzeichen Hz) ist die abgeleitete SI-Einheit für die Frequenz. Sie gibt die Anzahl sich wiederholender Vorgänge pro Sekunde in einem periodischen Signal an. Die Einheit wurde 1930 nach dem deutschen Physiker Heinrich Hertz benannt. Geschichte. Die Einheit wurde 1930 vom „technischen Komitee für elektrische und magnetische Größen und Einheiten“ der International Electrotechnical Commission vorgeschlagen und 1935 im Rahmen des „Giorgi-Einheitensystems“ bzw. MKS-Einheitensystems eingeführt, benannt nach Heinrich Hertz. Auf der 11. CGPM (Conférence Générale des Poids et Mesures) 1960 ging das MKS-Einheitensystem im SI-Einheitensystem auf. Seitdem ersetzt die Einheit Hertz die früher in englischsprachiger Literatur übliche Einheit "cycles per second" = "cps" oder "c.p.s." bzw. "c/s" (Zyklen pro Sekunde). Verwendung. a> der Frequenz definiert ist und die Zeitdauer zwischen zwei Lichtblitzen angibt (in Sekunden). Trotz der Definition ist die Verwendung der Einheit nicht auf periodische Schwingungen beschränkt. Auch sich regelmäßig wiederholende Ereignisse, wie die Häufigkeit, mit der ein Computer Sicherungskopien von Dateien anlegt oder Steuerungsbefehle erteilt, lässt sich in der Einheit Hertz angeben (Taktfrequenz). Weiterhin wird sie für die Skalierung einer Koordinatenachse im Frequenzraum verwendet, beispielsweise bei einem Absorptionsspektrum oder einem Wellenpaket in der Quantenmechanik. Die Einheit Hertz soll dagegen nicht für die Angabe von statistisch gemittelter Häufigkeiten zufälliger Prozesse oder für die Angabe einer Winkelgeschwindigkeit oder Kreisfrequenz verwendet werden. Auch wenn diese Größen die gleiche Dimension besitzen und sie daher alle in der Einheit 1/s angegeben werden können, dient der Gebrauch unterschiedlicher Einheiten dazu, die Unterschiede der Größen zu betonen. Eine Frequenz lässt sich durch Multiplikation mit dem Faktor formula_8 in eine Kreisfrequenz umrechnen. Beispiele. Eine Auswahl verschiedener Phänomene unterschiedlicher Frequenzen befindet sich in der Liste Größenordnung (Frequenz). Elektromagnetische Welle. Elektromagnetische Wellen breiten sich im freien Raum mit Lichtgeschwindigkeit aus. Eine Welle mit einer Frequenz von einem Megahertz (Radiowelle) hat zum Beispiel etwa die Wellenlänge von 300 Metern. Grünes Licht mit einer Wellenlänge von etwa 500 nm hat eine Frequenz von 605 THz, was wiederum einer Energie von 2,5 eV (Elektronenvolt) entspricht. Bei elektromagnetischen Wellen mit Frequenzen im Gigahertz-Bereich ist die Wellenlänge größer, zum Beispiel: Wellenlänge im Mikrowellenherd etwa 12 cm, Wellenlänge beim heimischen Satellitenfernsehempfang etwa 2,5 cm. Schallwelle. Bei einer Flöte oder Pfeife schwingt Luft periodisch. Die Ausbreitungsgeschwindigkeit der Schallwelle liegt etwa bei 343 Metern pro Sekunde (Schallgeschwindigkeit bei 20 °C Lufttemperatur). Die hörbaren Tonfrequenzen liegen im Bereich von 20 Hz bis 20 kHz und entsprechen Wellenlängen von einigen Metern bis zu wenigen Zentimetern. Der Kammerton a1 ist auf 440 Hz festgelegt. Stehende Welle. Gegeben sei ein Seil, das an einem Ende befestigt und am anderen auf- und abwärts bewegt wird. Dieses Seil schwingt – mit etwas Geschick – als stehende Welle. Die Länge dieser Welle hängt von zwei Faktoren ab, der Geschwindigkeit der Wellenausbreitung auf dem Seil sowie der Frequenz, mit der das Seil am nicht befestigten Ende bewegt wird. Frequenzspektrum. Eine Welle oder Schwingung beliebiger Form lässt sich als Überlagerung von Sinusfunktionen unterschiedlicher Frequenzen in einem Frequenzspektrum darstellen, bei der die Amplitude in Abhängigkeit von der Frequenz aufgetragen wird. Die Skalierung der Frequenzachse erfolgt dabei meist in Hertz. Hektoliter. __STATICREDIRECT__ Horsepower-hour. Horsepower-hour (Einheitenzeichen: "hph") ist eine im SI nicht zulässige Maßeinheit der Energie. Sie bezeichnet bildhaft gesprochen die Arbeit, die ein Pferd in einer Stunde zu vollbringen fähig ist (die Leistung eines Pferdes über die Zeitdauer von einer Stunde integriert). Aufgrund gewisser Abweichungen in der Definition einer Pferdestärke stimmt die "horsepower-hour" nicht ganz genau mit der früher auch im deutschen Sprachraum verwendeten "Pferdestärkenstunde" (abgekürzt PSh) überein. 1 hph = 1,014 PSh = 0,7457 kWh Hypertext. Ein (engl. Aussprache, deutsch Übertext) ist ein Text, der mit einer netzartigen Struktur von Objekten Informationen durch Querverweise (') zwischen "Hypertext"-Knoten verknüpft. Hypertext wird in Auszeichnungssprachen geschrieben, die neben Format-Anweisungen auch Befehle für Hyperlinks enthalten; die bekannteste ist die ' (HTML) für Internetdokumente. Beschreibung und Nutzen. Hypertexte bieten gegenüber der linearen Informationsdarstellung den Vorteil, komplexe Informationen vergleichsweise redundanzarm vermitteln zu können. Redundanzfreiheit spart erstens Speicher und vereinfacht zweitens die Wartung und Aktualisierung von Inhalten, weil ein zentral hinterlegter Wert nur einmal geändert werden muss, um an allen Stellen angezeigt zu werden, die mit dem Wert verknüpft sind. Die assoziative Struktur eines Hypertextes entspricht dabei besser der Funktionsweise des menschlichen Denkens, als das in rein linearen Texte möglich ist. Unser Denken arbeitet vernetzt, ähnlich wie die Strukturen eines Hypertextes aufgebaut sind. Rolf Schulmeister verwendet dafür in diesem Zusammenhang den Verweis auf die „kognitive Plausibilitätshypothese“. In Hypertext ist die Reihenfolge variabel, in der Wortschaftbestandteile (lexia) präsentiert werden. Marie-Laure Ryan vertritt die Ansicht, dass die Beschreibung von Hypertext als "nicht-linear" nicht ganz zutreffend sei, denn was im Leseprozess ausgewählt wird, behalte dennoch eine lineare Ordnung („sequential order“). Stattdessen schlägt Ryan für diese Eigenart der Hypertexte den Begriff "multilinear" vor. Probleme. Ein Problem beim Arbeiten mit Hypertext ist das gezielte Auffinden von Informationen. Während literate Menschen über Jahrhunderte in der Rezeption von linearen Texten geschult worden sind, begann man erst mit der zunehmenden Verbreitung des World Wide Web seit Mitte der 1990er Jahre den Umgang mit komplexen Hypertexten zu erlernen. Hilfsmittel wie Suchmaschinen und Suchfunktionen auf den Webseiten unterstützen den Nutzer. Ein weiteres Problem ist das Navigieren in Hypertexten, da vor allem in den Anfangsjahren häufig eine vom Autor vorgegebene Lesestruktur (z. B. Guided Tour) fehlte. Heute verfügen Hypertexte in der Regel über eine ausgefeilte Navigation. Als Folge eines Übermaßes an Querverweisen kann ein sogenannter Information Overload, die Überflutung mit ungeordneten Informationen und eine Desorientiertheit im weit verzweigten Netz von Texten (Lost in Hyperspace) entstehen. Die Lesegewohnheiten spielen hierbei eine wichtige Rolle. So haben online-affine Nutzer weniger Schwierigkeiten damit, das Lesen eines Textes zu unterbrechen, um einem Querverweis zu folgen. Problemlösungsansätze bieten virtuelle Mindmaps und Web-Ontologien. Erst in Ansätzen gelöst ist das Problem der Visualisierung von Hypertexten, also die grafisch aufbereitete Darstellung der typischerweise netzwerkförmigen und daher nicht hierarchisch präsentierbaren Struktur eines Hypertextes (siehe auch Hyperbolic Tree). Geschichte und Entwicklung. Hypertextuelle Strukturen sind seit Jahrhunderten bekannt; die im Aufschreibesystem der Neuzeit ausdifferenzierten Erschließungshilfen für lineare Texte wie Inhaltsverzeichnisse, Indizes, Querverweise und Fußnoten sowie jegliche Verweissysteme entsprechen funktional einem Hypertext. Eine fiktionale Erzählung, welche mit und für die Hypertextstruktur geschrieben wird, bezeichnet man als Hyperfiction; wird diese in Printform veröffentlicht, ist sie als Offline-Hyperfiction zu bezeichnen. Der Unterschied besteht darin, dass zum einen die Verweisziele nicht vor Ort präsent sein müssen, und zum anderen, dass das Verfolgen der Verweise nicht mechanisiert bzw. automatisiert ist. Als Vorläufer heutiger digitaler Hypertexte gilt daher beispielsweise Agostino Ramellis Bücherrad aus dem 16. Jahrhundert und Roussels Lesemaschine, eine Art Wechselrad für Notizzettel, siehe Zettels Traum von Arno Schmidt. Literaturgeschichtlich prominent ist James Joyce’ vertracktes Werk Finnegans Wake, das an semantische Netze des Hypertextes erinnert. Die erste bewusst als solche veröffentlichte Offline-Hyperfiction ist „Afternoon – A story“ von Michael Joyce. Das moderne Hypertext-Konzept wurde von Vannevar Bush im Jahr 1945 in einem Artikel "As We May Think" im Journal The Atlantic Monthly erwähnt. Er sprach darin über ein zukünftiges System Memex (für "Memory Extender"), das das Wissen eines bestimmten Gebietes elektronisch aufbereitet leicht zugänglich darstellen kann. Diese Idee lag bereits der 1931 in den USA patentierten „Statistischen Maschine“ von Emanuel Goldberg zugrunde. Die Kernidee des Konzepts ist zum einen, dass das Verfolgen von Verweisen mit elektronischer Hilfe erleichtert wird und zum anderen, dass Bücher und Filme aus einer Bibliothek verfügbar gemacht und angezeigt werden können. Die Idee von Hypertext ist also von Anfang an mit alten Utopien von der „universellen Bibliothek“ verbunden. Daher ist es kein Zufall, dass der Herausgeber der Universalklassifikation Paul Otlet als frühester Pionier des Hypertext gilt und diese Universalsprache völkerverbindend einsetzen wollte. Er gilt nicht von ungefähr als Mitbegründer des Völkerbunds, aus dem die UNO hervorging. Ein Beispiel für ein hypertext-artiges Gedicht sind die Hunderttausend Milliarden Gedichte von Raymond Queneau (1961). Der Gesellschaftswissenschaftler Ted Nelson (Projekt Xanadu) prägte den Begriff „"Hypertext"“ im Jahr 1965. Roberto Busa gilt als Begründer der wissenschaftlichen Anwendung der EDV in den Geisteswissenschaften (Digital Humanities) und Erfinder des Index Thomisticus. Anstatt kalkulierter 40 Jahre konnte mittels IBM-Technik die Aufgabe in sieben Jahren erledigt werden. Es entstand der sogenannte Index Thomisticus, ein 56-bändiges Werk mit 70.000 Seiten. Busa wurde somit zu einem der Pioniere in der Anwendung von Computern in der Lexikographie, Texthermeneutik und Computerlinguistik und späteren Informationstechnologien für die Textanalyse, Lexikographie und Literatur als Vorläufer von Hypertext, Internet und Wikipedia. Eines der ersten Hypertextsysteme, das einer größeren Gruppe zugänglich war, war HyperCard von Apple und wurde als Teil der Softwareausstattung eines Macintosh ausgeliefert. Das heute am weitesten verbreitete Hypertext-System ist der Internetdienst World Wide Web (WWW), obwohl ihm einige wichtige Funktionen früherer Hypertextsysteme fehlen. So ist zum Beispiel das Problem der so genannten toten Links im WWW ungelöst, die nicht oder nicht mehr zum gewünschten Ziel führen. Auch die Einführung der Uniform Resource Identifiers (URIs) ist über die im Web gebräuchlichen URLs nur unvollständig erfüllt. Im Gegenzug erlaubt das WWW aber auch das Einbinden von nichtsprachlichen Datentypen wie Bildern, was als Hypermedia bezeichnet wird. Dadurch ist das WWW, obwohl auf Hypertext beruhend, streng genommen ein Hypermedia-System. Die Sprache, in der die Texte des World Wide Web beschrieben werden, heißt Hypertext Markup Language; Web-Dokumente werden von Webtextern und Webdesignern konzipiert und erstellt. Heiliger Krieg. Als Heiligen Krieg bezeichnet man eine kollektive organisierte Gewaltanwendung (Krieg), die aus einer Religion heraus begründet wird, etwa mit Vorstellungen vom Auftrag eines Gottes und seines Eingreifens in das Kriegsgeschehen. Solche Gründe werden oft in Gesellschaftsordnungen angegeben, in denen politische und religiöse Machthaber identisch oder eng verbunden sind. Sie rechtfertigen dann deren Ordnung, ihre Verteidigung, Stärkung und/oder Expansion als gottgewollt. Der Begriff entstand im Hellenismus und wurde im Christentum seit dem Hochmittelalter für die Kreuzzüge üblich. In der Neuzeit legitimierte er auch von Nationalismus motivierte Kriege, im deutschen Sprachraum besonders die antinapoleonischen Befreiungskriege, und überhöhte sie zu einem Weltanschauungskampf. Ähnliche Konzepte anderer Religionen, etwa der Dschihad im Islam, werden oft mit dem im christianisierten Europa entstandenen Begriff verglichen, aber in der Forschung nicht gleichgesetzt. Auch der an rationale ethische Kriterien gebundene Gerechte Krieg wird vom Heiligen Krieg unterschieden. Alter Orient. Im Alten Orient lassen sich politisch und religiös bedingte oder begründete Kriege kaum voneinander trennen. Die Großreiche Babylonien, Assyrien, Ägypten führten ihre Eroberungsfeldzüge oft unter religiösen Vorzeichen, etwa indem sie ihre Götter im Orakel befragten oder auf göttliche Aufträge an den Herrscher verwiesen. In Urartu wurde in Inschriften durchgehend beschrieben, dass der Gott Ḫaldi dem Heer mit seinem "šuri" voranging. Der König führt den Krieg auf Befehl des Gottes. Ansonsten hatten diese Kriege meist rein politische und ökonomische, keine religiösen Ziele. Auch in der Kriegführung spielten religiöse Elemente keine bestimmende Rolle. Daher redet die Geschichtswissenschaft hier nur eingeschränkt von "Heiligen Kriegen". Antikes Griechenland. Den Ersten Heiligen Krieg führten Athen und der Tyrann Kleisthenes von Sikyon 600–590 v. Chr. gegen Krissa. Den Zweiten führten die Spartaner 448 gegen Phokis, den Dritten (355-346 v. Chr.) veranlassten die Lokrer, unterstützt von den Thebanern. Den Vierten Heiligen Krieg (339–338) führte König Philipp im Auftrag der Amphiktyonen gegen das der Verletzung von Tempelgebiet angeklagte Amphissa, das 338 zerstört wurde. In der Spätantike nahm der Perserkrieg des Herakleios Formen eines Heiligen Krieges an. Da das Römische Reich seine Eroberungsfeldzüge regulär mit religiösen Riten legitimierte und vorbereitete, wird eine Unterteilung in heilige oder säkulare Kriege hier als anachronistisch beurteilt. Hebräische Bibel. Der Begriff „Heiliger Krieg“ erscheint im Tanach nur einmal (Joel 4,9). Der Ausdruck „Krieg JHWHs“ ist jedoch im 4. Buch Mose, im Buch der Richter, im ersten und zweiten Samuelbuch oft anzutreffen. Gerhard von Rad führte die dort geschilderten Einzelschlachten aus der Frühzeit der Israeliten in einem Aufsatz von 1947 auf eine charismatisch gelenkte Kriegführung eines Zwölfstämmebundes zurück und löste damit eine bis heute anhaltende Forschungsdebatte aus. Seine Grundthese einer besonderen vorstaatlichen, von einer israelitischen Amphiktyonie gebildeten sakralen Institution wurde seit 1972 durch Nachweise genauer altorientalischer Parallelen widerlegt. Die literarische Tradition einer von JHWH gelenkten Kriegführung hat sich gleichwohl in der Bibel von frühen Anfängen der Toraverschriftung bis zur späten jüdischen Apokalyptik durchgehalten und zu großen prophetischen Friedensvisionen fortentwickelt. Vorstaatliche Zeit. Dieser nach Salomos Tempelbau vorangestellte Psalm blickt auf die Siege über feindliche Nachbarvölker zurück, durch die König David das Großreich Israel schuf (v. 14–18). Vorausgegangen waren die Wüstenzeit und Landnahme (etwa 1200–1000 v. Chr.), die das 4. Buch Mose („Buch der Kriege JHWHs“, Num 21,14) und das Buch Josua als überwiegend kriegerische Eroberung, Vertreibung und teilweise Ausrottung der Bewohner Kanaans darstellen. Besonders in den Kämpfen mit den Philistern wurde die Bundeslade, eine Art mobiler Gottesthron, mitgeführt, um Siegesgewissheit und Kampfbereitschaft zu erhöhen. Die Eroberung kanaanäischer Städte wie Jericho wurde rückblickend als Ausrottung der Besiegten auf Befehl Gottes dargestellt (z. B. Jos 6,21; Dtn 25,17ff). Israels erster König Saul wurde nach 1Sam 15,2f.9f verworfen, weil er das Banngebot gegenüber den Amalekitern nicht vollständig erfüllt habe. Auf der Mescha-Stele dokumentiert der Moabiter-König Mescha, wie er auf Befehl seines Gottes eine israelitische Stadt einnahm, deren Einwohner und Vieh allesamt tötete und die Beute seinem Gott weihte. Der „Bannfluch“ war also keine Besonderheit Israels (Ri 11,24). Dessen Nachbarvölker wurden nach der deuteronomistischen Redaktion (nach 586) gerade nicht vernichtet, damit spätere Generationen Israels das Kriegführen nicht verlernten (Ri 3,1–3). Königszeit. Saul, der erste König Israels, war vom Propheten Samuel designiert (1Sam 10,1) und nach erfolgreicher Schlacht vom Volk gewählt worden (1Sam 11,15). Er bot letztmals das alte „Volksheer“ auf (1Sam 11,6f), unterstellte es rituellen Geboten (1Sam 14,24) und erkannte JHWH nach erfolgloser Befragung als den wahren „Retter Israels“ an (1Sam 14,39). Die folgenden Herrscher Israels behielten das Orakel bei, sahen sich aber selbst als die Kriegführenden und Siegreichen (2Sam 8,6.14): "JHWH half David in allem, was er tat." Damit war Gott zum Helfer des Königs geworden, während die Richter Helfer Gottes gewesen waren. Indem David die Bundeslade nach Jerusalem überführte, band er den JHWH-Glauben an einen festen Kultort (2Sam 6). Daraufhin gab ihm ein Hofprophet die Zusage ewigen Bestandes seiner Dynastie (2Sam 7,16). Gott wirkte nun durch den bei der Inthronisation gesalbten König, der als Heerführer die charismatischen Retter ersetzte (2Sam 8,14) und ein stehendes Heer unter am Hof angestellten Militäroffizieren einrichtete (2Sam 8,16). Das Militär wurde mit Musterungen und Volkszählungen (2Sam 24), Garnisonen, Streitwagenkontingenten (1Kön 10,26) und Festungsbau (2Chr 11,5ff; 26,9ff) zur festen Institution. Daher wurden die Anführer siegreicher Schlachten in der Bibel anders als in der orientalischen Umwelt nicht zu Kriegshelden überhöht. Die Heroen der Vorzeit galten vielmehr als Mitverursacher der Gewaltausbreitung, auf die die große Sintflut folgt (Gen 6,1–4). Die staatliche Rüstung wird im Königsgesetz als „Rückkehr nach Ägypten“, also gegen Gottes Willen gerichtete erneute Versklavung der Israeliten kritisiert und begrenzt. Der König soll stets eine Kopie der Tora bei sich haben und darin lesen, um Gottes Recht zu bewahren (Dtn 17,16ff; vgl. 1Sam 8,10–18). Schriftprophetie. Die seit dem 8. Jahrhundert v. Chr. auftretenden Einzelpropheten, deren Botschaften aufgezeichnet wurden, konfrontierten Israel im Rückgriff auf vorstaatliche Tradition erneut mit dem Rechtswillen JHWHs. Besonders Jesaja bot dem König Ahas angesichts akuter Bedrohung durch den Aramäerkönig Rezin die archaische Schutzmacht des JHWH-Krieges an: Er solle furchtlos sein und nur Gott vertrauen, nicht seinem Militär (Jes 7,1–9; 30,15). Wechselnde Bündnisse mit den bedrohlichen Großmächten, diplomatische Ränkespiele dagegen würden den Untergang seines Königtums umso sicherer herbeiführen (Jes 18,1ff; 30,1ff; 31,1f). Gott allein werde handeln (31,4) und allem stolzen Hochmut der Tyrannen ein Ende setzen (Jes 13). Bei Amos führt JHWH erstmals Krieg "gegen" Israel (Am 2,13–16), wobei er sich späteren Propheten zufolge fremder Herrscher bedient (Jes 28,21; 29;1ff; Jer 21,4ff u. a.). Amos kündigte auch einen "Tag JHWHs" als unentrinnbare Abrechnung mit seinem abtrünnigen Volk an (Am 5,18ff) und begründete damit den Glauben an ein Endgericht. Nach dem Untergang des Königtums, als Israel keine Kriege im Namen Gottes mehr führen konnte, bezog die exilische und nachexilische Prophetie auch Fremdvölker ein und malte Gottes Gericht mit den Bildern einer endzeitlichen Schlacht gegen alle menschliche Überheblichkeit und Militärmacht aus (Jes 34; Ez 30; Zeph 1,7ff). In Joel 4,9 wird Gottes Endschlacht gegen die hochgerüsteten Völker das einzige Mal im Tanach „heiliger Krieg“ genannt. Diese Vision des Shalom verknüpfte sich mit der Messias-Verheißung (Jes 7,14f; 9,1–6; 11,1–9; Sach 9,9) und der Menschensohn-Erwartung (Dan 7,13ff). Neues Testament. Angesichts seiner Selbsthingabe (Mk 15,24) deuteten die Urchristen seine Kreuzigung durch römische Soldaten als Übernahme des Endgerichts Gottes an allen Völkern (Mk 15,33f). Indem Gott ihn als Ersten von den Toten auferweckt habe, habe er ihn zum Herrn aller irdischen und himmlischen Mächte eingesetzt und diese zu entmachten begonnen (Eph 1,20ff). Sie konnten in der Nachfolge Jesu darum nur noch gegen Feindschaft, Bosheit und Gewalt überhaupt (Eph 2,14ff), nicht mehr gegen Fremdgläubige, Fremdvölker und einzelne Gewaltherrscher kämpfen. Demgemäß lehnten christliche Theologen den Kriegsdienst bis ins 4. Jahrhundert als unvereinbar mit dem Christsein ab. Christliche Antike. Das Christentum der ersten zwei Jahrhunderte verwarf den Kriegsdienst generell. Bis zum Jahr 175 gab es nachweislich keine Christen im römischen Heer. Origenes und Tertullian verwarfen trotz der staatsbejahenden Haltung der Christen den Kriegsdienst. Für Origines stellte der Krieg dabei vorwiegend einen geistigen Kampf dar. Er verbot Christen den Waffengebrauch und erwartete die Abschaffung aller Kriege durch Ausbreitung des christlichen Glaubens (Contra Celsum VIII, 69f). Tertullian ("De corona") lehrte, Christus habe den Christen verboten, ein Schwert zu tragen, und lehnte somit den Soldatendienst für Christen auch wegen des damit verbundenen Kaiserkults als Götzendienst strikt ab. Er toleriert Gewalt und Krieg als letzte Möglichkeit zur Wiedergewinnung von Frieden, Gerechtigkeit und allgemeinem Wohl. Diese müssen dabei von der Motivation her von Liebe zum Feind getragen sein, und dürfen nicht Versklavung, Gefangenschaft oder die Verurteilung des Feindes zum Ziel haben. Dabei bezeichnet Augustinus Gewalt und Krieg niemals direkt als „heilig“. Er anerkannte auch den Krieg als Bestrafungsmittel für schuldhafte Verbrechen. Die Anwendung von Gewalt zur Überzeugung von Häretikern wie Donatisten oder Manichäern rechtfertigt er mit Verweis auf die Geschichte vom Gastmahl (Lk 14, 20–23), bei welchem die Gäste mit Gewalt zu ihrem eigenen Wohl gedrängt werden. Mittelalter. Als Wegbereiter der Kreuzzugsidee gelten Kirchenvertreter des 9. Jahrhunderts wie Bischof Agobard. Dieser sah die Aufgabe der christlichen Kaiser darin, die Barbaren (d. h. Nichtchristen) zu unterwerfen, „auf dass sie den Glauben annehmen und die Grenzen des Königreichs der Gläubigen erweitern.“ Das Kaiserreich wurde damit als Außenbezirk des Kirchenbereichs aufgefasst, der Kaiser als verlängerter Arm kirchlicher Welteroberung und Machtentfaltung. Theologen wie Petrus Damiani und Manegold von Lautenbach forderten von allen christlichen Soldaten die gnadenlose Bekämpfung der Ketzer und Heiden. Später forderte vor allem Bernhard von Clairvaux eine umfassende Kirchenreform, wonach die zentral gelenkte Kirche sowohl geistliche wie weltliche Macht besitzen müsse. Diese Zwei-Schwerter-Lehre wurde 1302 von Papst Bonifaz VIII. übernommen und dogmatisch festgelegt. Die Kreuzzüge des Hochmittelalters hatten verschiedene Ursachen, Anlässe, Ziele und Verläufe. Besonders der 1. Kreuzzug gilt als klassisches Modell eines Heiligen Krieges in der Christentumsgeschichte, weil er Im Hochmittelalter kam es im Zusammenhang mit den Kreuzzügen sogar kurzzeitig zur Verwendung des Begriffes "bellum sacrum" als Synonym für „heiligen Krieg“ bzw. „heiligenden Krieg“, welcher allerdings eventuell eher die Kriegsteilnehmer als den Krieg selber heiligen sollte. Obwohl es zwischen christlichem und muslimischem heiligen Kampf durchaus Parallelen gibt, ist die Frage, ob muslimische Vorstellungen Vorbildfunktion bei der Bildung des entsprechenden christlichen Begriffs hatten nicht geklärt. So war die Inaussichtstellung religiösen Lohns für die Sicherung christlicher Vorposten, wie sie z. B. Papst Urban II. für die Sicherung Tarragonas gegen die Sarazenen 1098 in Form eines einer Pilgerfahrt entsprechenden Ablasses zusicherte, der muslimischen Welt in der Form der Ribat bereits seit dem 7. Jahrhundert bekannt. Ein direkter Einfluss der Ribat auf ähnliche christliche Vorstellungen wird von der Forschung allerdings eher bestritten. Die Deutung der Reconquista, der christlichen Rückeroberung der Iberischen Halbinsel nach der muslimischen Invasion von 711, als Heiliger Krieg ist in den mittelalterlichen Quellen meist nur angedeutet oder vorausgesetzt; nur gelegentlich wird sie ausdrücklich in direkten Worten formuliert. Schon zur Zeit des 711 von den Muslimen vernichteten Westgotenreichs war die Vorstellung verbreitet, dass Gott der eigentliche Kriegsherr sei. So deutete im späten 7. Jahrhundert der Metropolit Julian von Toledo den Kampf des Westgotenkönigs Wamba gegen Aufständische in diesem Sinne. Für ihn war der Sieg des Königs über diese Rebellen, obwohl sie ebenfalls katholische Christen waren, ein „Urteil Gottes“; die Schlacht fasste er als Prüfung ("examen") auf, die Gott seinen Dienern auferlegte, und die einzelnen Phasen der Erstürmung einer belagerten Stadt wurden „durch Gott“ ("per Deum") vollzogen. Im Königreich Asturien verwendete im späten 9. Jahrhundert der Verfasser der Crónica Albeldense die Bezeichnung „heiliger Sieg“ ("sacra victoria") für die militärischen Erfolge König Alfons III. gegen die Muslime; damit wurde erstmals der Begriff „heilig“ unmittelbar für Kampfhandlungen im Rahmen der Reconquista verwendet. Im 11. Jahrhundert herrschte, wie die Chronik des Bischofs Sampiro von Astorga zeigt, nicht nur die Überzeugung, dass Siege Geschenke Gottes seien, sondern es wurde sogar festgestellt, dass Gott als „himmlischer König“ selbst militärisch gegen seine Feinde (die Muslime) vorgehe und sich an ihnen räche, indem er den Christen den Sieg über sie schenke. Frühe Neuzeit. Im Spätmittelalter und im 16. und 17. Jahrhundert wurden die religiös-kirchlichen Strukturen und ihre Verflechtungen mit politischen und gesellschaftlichen Prozessen wieder enger. Der Dualismus des Mittelalters zwischen Staat und Kirche trat in den Hintergrund. Dies führte in Form der zunehmend bürokratisierten Konfessionskirchen und frühmodernen Staaten zur Herausbildung großer universalistischer Gemeinschaften, die mit Ausschließlichkeitscharakter in Totalkonfrontation zueinander als auch zu überkommenen Ordnungsvorstellungen standen. Interessen des Staates, der Kirchen, und sozialer Gruppen instrumentalisierten einander, und führten in Glaubenskriegen zur Aufhebung bisher üblicher Grenzen der Gewaltbereitschaft und Brutalität. Beispiele hierfür sind die Kämpfe zwischen Hugenotten und der katholischen, französischen Krone in den Hugenottenkriegen, zwischen niederländischen Calvinisten und dem katholischen, spanischen Landesherrn im Achtzigjährigen Krieg, als auch innerkonfessionelle Kämpfe zwischen Puritanern und dem anglikanischen König im Englischen Bürgerkrieg. Religiös-politische Gegensätze wurden dabei in Propagandaschriften, Traktaten oder Kirchenliedern teilweise eschatologisch als Kampf zwischen Antichrist und den Vertreten des „wahren Christenvolkes dargestellt“. Einen Höhepunkt erreichte dies im Dreißigjährigen Krieg von 1618 bis 1648, der unter anderem auch ein Religionskrieg zwischen der Katholischen Liga und der Protestantischen Union und den ihnen angeschlossenen Häusern und Staaten Europas war. Beginnend mit dem Westfälischen Frieden wurde das Konzept des gerechten oder gar heiligen Krieges zunehmend verdrängt, und bei innereuropäischen Konflikten durch rational legitimierte und begrenzt geführte, normsymmetrische Kabinettskriege und das Völkerrecht ersetzt. In imperialen und kolonialen Kriegen europäischer Mächte außerhalb des Kontinents lebte die Ideen des aus moralischen Gründen geführten Krieges allerdings weiter fort. 19. Jahrhundert. Der Krieg befand sich im 18. und frühen 19. Jahrhundert noch unter Kontrolle der rational definierten Staaten, und war gegen Instrumentalisierungsversuche von anderer Seite relativ immun. So konnte Hegel ihn in Grundlinien der Philosophie des Rechts 1820 noch als letztmöglichen Modus der Entscheidung im Streit der Staaten begreifen ("„Der Streit der Staaten kann deswegen, insofern die besonderen Willen keine Übereinkunft finden, nur durch Krieg entschieden werden.“") Weitere Belege für eine rein rationale Kriegsauffassung sind die Überlegungen von Militärs wie Carl von Clausewitz in "Vom Kriege", in denen er das Primat der Staatspolitik vor persönlichen und religiösen Interessen betont. Mit der Aufklärung und der Säkularisation infolge der Französischen Revolution wurden primär religiös motivierte Kriege innerhalb Europas zunehmend undenkbar. Heinrich von Kleist und Johann Gottlieb Fichte verherrlichten den „Krieg an sich“ als Katalysator der Nationsbildung. So wendet sich Fichte in "System der Sittenlehre" 1798 einerseits noch gegen die Vorstellung des Krieges als Mittel zur Erreichung begrenzter Herrscherziele; begrüßte andererseits aber im Sinne der Romantik bereits das Risiko der eigenen Existenz für abstrakte Ideale wie die Freiheit. Die Revolutionsjahre 1848/49 trieben diese Gedanken dann europaweit zu größerer Akzeptanz. Die Linie der „Heiligsprechung“ und Intensivierung des Krieges bzw. Terrors zur Erreichung sozialer oder politischer Utopien mittels Revolution reicht trotz aller historischen Unterschiede vereinfachend von Danton und Robespierre, über die 1848-er Revolutionen, Lenin, Mao Zedong und Che Guevara bis weit in das 20. Jahrhundert. Erster Weltkrieg. Bis zum Ende des Ersten Weltkriegs blieb das nationalistisch geprägte Bild des „Heiligen Krieges“ des ausgehenden 19. Jahrhunderts bestimmend. Dieser Krieg wurde von Militärpredigern teilweise enthusiastisch als „heiliger deutscher Krieg” gefeiert, die Zeit des Krieges sei eine „heilige Zeit”, während der von deutschen Soldaten „heiligstes Blut” vergossen werde. Dieser „große, heilige Krieg” solle dem Guten zum Sieg gegen das Böse verhelfen. Er wurde darüber hinaus auch von nichtkirchlicher Seite als kreativer, ethisch positiv wirkender, über-utilitaristischer Faktor auf den Menschen, das Volk und die Geschichte hervorgehoben. So verstand z. B. Max Scheler den Ersten Weltkrieg in "Der Genius des Krieges" von 1915 als "„Aufruf zur geistigen Wiedergeburt des Menschen“" und "„die Kulturschöpfung die eminent positive Bedeutung, auf daß er die vorhandenen Begabungen tief zurücktauchen läßt in die schöpferischen Quellen des nationalen und persönlichen Geistes.“" Ebenso sahen die französischen Theologen und Intellektuellen im Krieg gegen Deutschland einen „Kreuzzug für das Reich Gottes, für christliche Glaubensreinheit und Sittlichkeit”. Obendrein sah das katholische Frankreich sich herausgefordert zum Kampf gegen das sich protestantisch gebende Deutschland. „Die französischen Soldaten fühlen mehr oder weniger ausdrücklich, aber bestimmt, dass sie Soldaten Christi und Mariä sind, Verteidiger des Glaubens, und dass französisch sterben soviel heißt als christlich sterben”. In Analogie zu deutschen Kriegsprediger, welche die „Auserwähltheit des deutschen Volkes” hervorhoben, erklärten französische Militärgeistliche Frankreich zum „auserwählten Volk Gottes, der ältesten Tochter und reuen Dienerin der heiligen Kirche”. In England diente das Bild eines rächenden, geschichtsmächtigen Gottes zum Anwalt englischer Interessen. Auch hier feierte man in Predigten, Presse und Literatur den Krieg mit Deutschland als „heiligen Krieg”. Ein weiteres Anzeichen für die Tendenz zur partiellen „Heiligsprechung“ des Krieges in Verbindung von Kirche und Nationalismus war die auch später noch umstrittene Praxis der "Segnung von Waffen". Zweiter Weltkrieg. Im Zweiten Weltkrieg propagierten führende Nationalsozialisten, Wehrmachtsführung und -soldaten sowie Teile der Bevölkerung besonders den als Vernichtungskrieg geplanten Angriff auf Russland als „weltanschaulichen Kampf“ (Halder) und „Kreuzzug gegen den barbarischen Stalinismus und den jüdischen Bolschewismus“. Auch die Alliierten benutzten das Motiv des Heiligen Krieges. Der britische Außenminister Lord Halifax erkannte im Dritten Reich eine Gefahr für das Christentum und propagierte den Heiligen Krieg („Holy War”) gegen Deutschland. Lord Davidson von den Konservativen erklärte Großbritanniens Kriegseintritt 1939 als „Holy War between the forces of right and the forces of wrong“. In der Sowjetunion dichtete 1941 Alexander W. Alexandrow nach dem Beginn des Deutsch-Sowjetischen Krieges das Lied der Roten Armee "Swjaschtschennaja Woina" „Der heilige Krieg”. Nach 1945. Die Bürgerkriege im Libanon und Nordirland, oder im ehemaligen Jugoslawien sind nicht direkt als „Heilige Kriege“ zu bezeichnen, sondern stellen Konflikte dar, in denen andere Gründe erst später eine religiöse Dimension erhalten haben, welche durch die religiösen Überzeugungen der Beteiligten eine gewaltfreie Konfliktlösung zusätzlich erschwert bzw. unmöglich macht. Helmut Kohl. Helmut Kohl als Bundeskanzler, 1987 a> während der Öffnung des Brandenburger Tores am 22. Dezember 1989 Helmut Josef Michael Kohl (* 3. April 1930 in Ludwigshafen am Rhein) ist ein ehemaliger deutscher Politiker der CDU. Er war von 1969 bis 1976 Ministerpräsident des Landes Rheinland-Pfalz und von 1982 bis 1998 der sechste Bundeskanzler der Bundesrepublik Deutschland. Von 1973 bis 1998 war er Bundesvorsitzender seiner Partei, danach bis 2000 deren Ehrenvorsitzender. Kohl war in den 1970er-Jahren einer der jüngsten CDU-Spitzenpolitiker und reformierte als CDU-Bundesvorsitzender seine Partei, der 1969 erstmals im Bund die Oppositionsrolle zugewiesen worden war. 1976 erzielte Kohl als Spitzenkandidat der Union aus CDU und CSU mit 48,6 Prozent der Stimmen das bis dahin zweitbeste Ergebnis für die Union und überhaupt einer Partei in der Geschichte der Bundestagswahlen, konnte aber die Regierung Schmidt nicht ablösen. Trotz dieser Niederlage gab er sein Amt als rheinland-pfälzischer Ministerpräsident auf und übernahm als Oppositionsführer im Deutschen Bundestag den Vorsitz der CSU-Fraktion. Kohl gestaltete den Prozess der Wiedervereinigung 1989/1990 entscheidend mit. Umstritten blieb er wegen der CDU-Spendenaffäre, nach deren Bekanntwerden er im Jahr 2000 den Ehrenvorsitz seiner Partei verlor. Kohl erhielt eine große Zahl nationaler und internationaler Auszeichnungen. Seit dem Ende seiner politischen Karriere war Kohl als Lobbyist in verschiedenen Positionen in der Wirtschaft tätig, u. a. für die Credit Suisse und KirchMedia. Kohl ist Gründer eines Unternehmens zur Politik- und Strategieberatung. Herkunft, Studium und Beruf. Helmut Kohl wurde 1930 als drittes Kind des Finanzbeamten Hans Kohl (1887–1975) und dessen Frau Cäcilie (1891–1979, geborene Schnur) im Ludwigshafener Stadtteil Friesenheim geboren. Dort steht in der Hohenzollernstraße sein Geburtshaus noch heute; auf dem Friesenheimer Friedhof befindet sich auch das Familiengrab der Kohls. Dort wurde neben Kohls Eltern auch Kohls erste Ehefrau Hannelore nach ihrer Selbsttötung im Jahr 2001 beigesetzt. Kohl wuchs zusammen mit seiner Schwester Hildegard (1922–2003) und seinem Bruder Walter (1926–1944) in einer konservativ-katholisch geprägten Familie auf. Die Geschwister verbrachten ihre Kindheit und Jugendzeit in Friesenheim. Über die Beziehung Kohls zu seiner älteren Schwester ist wenig bekannt; eines der einschneidendsten Ereignisse in der Jugend Kohls war der frühe Tod seines Bruders Walter, den er stets sehr verehrt hatte und der Ende November 1944 als Soldat bei einem Tieffliegerangriff in Haltern (Kreis Recklinghausen) fiel. Kohl besuchte ab dem 1. April 1936 in Ludwigshafen-Friesenheim die Rupprechtschule in der Nietzschestraße (Grundschule) und ab 1940 die dortige Oberrealschule – das heutige Max-Planck-Gymnasium Ludwigshafen-Friesenheim. Im Jahre 1944 wurde Kohl mit 14 Jahren zum Dienst in einem Ludwigshafener Feuerlöschtrupp herangezogen und danach per Kinderlandverschickung nach Erbach im Odenwald und später nach Berchtesgaden gebracht. Dort erhielt er als Mitglied der Hitlerjugend eine vormilitärische Ausbildung. Zum Einsatz als Flakhelfer kam es nicht mehr. Von Berchtesgaden lief er ab Ende April 1945 mit drei Schulkameraden zu Fuß nach Ludwigshafen, wo er im Juni ankam. Da die zuvor besuchte Oberrealschule zunächst geschlossen war, begann Kohl im August 1945 eine landwirtschaftliche Lehre. Im November 1945 konnte er wieder an die Oberrealschule zurückkehren und legte dort im März 1950 sein Abitur ab. Zum Sommersemester 1950 begann er ein Studium der Rechtswissenschaften und Geschichte in Frankfurt am Main, das er ab dem Wintersemester 1951/52 an der Universität Heidelberg fortführte und 1956 beendete. Im selben Jahr wurde Kohl Wissenschaftlicher Mitarbeiter am Alfred-Weber-Institut der Universität; 1958 wurde er mit der 161-seitigen Dissertationsarbeit "Die politische Entwicklung in der Pfalz und das Wiedererstehen der Parteien nach 1945" bei Walther Peter Fuchs zum Dr. phil. promoviert. Anschließend wurde er in seiner Heimatstadt Direktionsassistent bei einer Eisengießerei und 1959 Referent beim Verband der Chemischen Industrie. Politische Karriere. Schon als Schüler trat Kohl 1946 der CDU bei und war anschließend 1947 Mitbegründer der Jungen Union in seiner Heimatstadt Ludwigshafen. Seine politischen Aktivitäten verfolgte er auch während seines Studiums. 1953 wurde er Mitglied des geschäftsführenden Vorstandes der CDU in Rheinland-Pfalz, 1954 stellvertretender Landesvorsitzender der Jungen Union Rheinland-Pfalz, 1955 Mitglied des Landesvorstandes der CDU Rheinland-Pfalz. 1959 wurde er Vorsitzender des CDU-Kreisverbandes Ludwigshafen. Ebenfalls 1959 wurde er als Abgeordneter in den rheinland-pfälzischen Landtag gewählt. 1960–1969 war er Fraktionsführer der Stadtratsfraktion Ludwigshafen, ab 1963 Fraktionsvorsitzender im Landtag von Rheinland-Pfalz, von März 1966 bis September 1974 war er Landesvorsitzender der CDU von Rheinland-Pfalz, 1966 Mitglied des Bundesvorstandes der CDU, ab 1969 Stellvertreter und von 1973 bis 1998 Parteivorsitzender der CDU. Ein wichtiger Förderer Helmut Kohls war der im Dritten Reich vermögend gewordene Industrielle Fritz Ries. Ministerpräsident. Helmut Kohl, 1969 in Ludwigshafen Mit seiner Wahl zum Landesvorsitzenden der CDU Rheinland-Pfalz 1966 galt Kohl auch als designierter Nachfolger Peter Altmeiers im Amt des Ministerpräsidenten. Nach der Landtagswahl am 23. April 1967 wurde Altmeier zwar noch einmal als Ministerpräsident wiedergewählt, Jedoch trat Altmeier zur Mitte der Legislaturperiode zurück. Am 19. Mai 1969 wurde Kohl zu seinem Nachfolger gewählt. Wichtige Entscheidungen in Kohls Amtszeit waren die Gebietsreform und die Gründung der Universität Trier-Kaiserslautern (heute: Universität Trier, Technische Universität Kaiserslautern). Gleichzeitig beschleunigte sich der Strukturwandel im weitgehend noch sehr ländlich geprägten Bundesland. Im Bereich des Schulwesens wurden auf der Ebene der Grundschulen die Konfessionsschulen, an denen die CDU auf Betreiben der katholischen Kirche jahrelang festgehalten hatte, durch Gemeinschaftsschulen ersetzt, an denen Schüler aller Konfessionen gemeinsam unterrichtet werden. Ministerpräsident Helmut Kohl während des CDU-Bundesparteitags 1973, auf dem er zum Vorsitzenden gewählt wurde 1971 kandidierte Kohl für die Nachfolge Kurt Georg Kiesingers als CDU-Bundesvorsitzender. Bei dieser Wahl unterlag er Rainer Barzel, Vorsitzender der CDU/CSU-Bundestagsfraktion und Oppositionsführer im Deutschen Bundestag. Nachdem Rainer Barzel 1972 gleich zweimal mit dem Versuch scheiterte, Bundeskanzler Willy Brandt (SPD) abzulösen (im April im Rahmen eines Misstrauensvotums sowie als Kanzlerkandidat im November 1972), trat Barzel 1973 als CDU-Vorsitzender zurück. Kohl kandidierte daher 1973 erneut und wurde diesmal gewählt. Er blieb über 25 Jahre hinweg bis zum 7. November 1998 Parteivorsitzender. Oppositionsführer. Bei der Bundestagswahl 1976 trat er erstmals als Kanzlerkandidat seiner Partei an. Die CDU/CSU verfehlte die absolute Mehrheit mit 48,6 Prozent der Stimmen nur knapp und die sozialliberale Koalition behauptete sich. Das war das bis dahin zweitbeste Wahlergebnis der CDU/CSU überhaupt. Kohl trat nach der Wahl als Ministerpräsident zurück und wurde als Fraktionsvorsitzender der CDU/CSU-Fraktion im Deutschen Bundestag in Bonn Oppositionsführer. Sein Nachfolger als Ministerpräsident wurde am 2. Dezember 1976 Bernhard Vogel. In den folgenden Jahren kam es zwischen Kohl und dem Vorsitzenden der CSU, dem bayerischen Ministerpräsidenten Franz Josef Strauß, zu heftigen Auseinandersetzungen um die Führungsrolle in der Union. Strauß qualifizierte seinen Rivalen Kohl des Öfteren öffentlich vehement ab und sprach ihm Führungsqualitäten und die Befähigung für das Amt des Bundeskanzlers der Bundesrepublik Deutschland ab. 1980 verzichtete Kohl auf eine erneute eigene Kandidatur als Bundeskanzler und überließ stattdessen Franz Josef Strauß diese Position, wenngleich er für diese offiziell den niedersächsischen Ministerpräsidenten Ernst Albrecht als Kanzlerkandidaten gegen die Kandidatur von Strauß durchzusetzen versuchte, was nicht gelang. Der Verzicht auf eine eigene Kandidatur erwies sich im Nachhinein als kluger politischer Schachzug Kohls, um seinen Widersacher Strauß als Rivalen um das mächtigste Amt im Staat auszuschalten. Kohl war überzeugt, dass Strauß als Bundeskanzler für die Mehrheit der Deutschen nicht wählbar war. Dennoch unterstützte er Strauß im Bundestagswahlkampf 1980 mit großem persönlichen Engagement und demonstrierte Solidarität gegenüber der CSU. Einige Wochen nach der Bundestagswahl 1976 (3. Oktober) hatte die CSU auf Betreiben von Strauß mit den Beschlüssen von Wildbad Kreuth (Kreuther Trennungsbeschluss (19. November 1976)) versucht, die Fraktionsgemeinschaft mit der CDU im Bundestag aufzukündigen. Kohl konnte gegen den CSU-Vorsitzenden Strauß die Fortführung durchsetzen. Bei der Bundestagswahl 1980 musste er diesem dafür den Vortritt bei der Kanzlerkandidatur lassen. Da Strauß jedoch nach der verlorenen Wahl Ministerpräsident in Bayern blieb, war Kohl weiterhin Oppositionsführer. Kohls Kalkül ging auf; Strauß erzielte 1980 das bis dahin schlechteste Wahlergebnis der Union bei einer Bundestagswahl nach 1949. Er konzentrierte sich fortan auf sein Amt als bayerischer Ministerpräsident und konnte ab nun nicht mehr (wie zuvor wirkungsvoll) Störfeuer gegen Kohl nach Bonn senden. Kohl war es damit nach seinem Ultimatum gegen die Beschlüsse von Wildbad Kreuth (er hatte Strauß gedroht, mit seiner CDU in Bayern „einzumarschieren“) nun endgültig gelungen, seinen „Männerfreund“ und Widersacher Strauß als Rivalen um die Kanzlerkandidatur auszuschalten. Strauß profilierte sich danach auf der politischen Rechten; Kohl dagegen versuchte durch einen gemäßigten Kurs die Mitte anzusprechen und die FDP aus der Koalition mit der SPD zu lösen. Dies gelang Kohl 1982, als eine CDU/CSU-FDP-Koalition ihn (per Misstrauensvotum) zum Bundeskanzler wählte. Kohl sprach von einer geistig-moralischen Wende und äußerte, den Leistungsgedanken stärker betonen zu wollen. Neben der europäischen Einigung sah Kohl die Deutsche Wiedervereinigung als wichtiges Ziel an. Daneben war Kohl eher pragmatisch und folgte den politischen Tendenzen in seiner Partei bzw. in der Koalition. Kohl war von 1976 bis 2002 Mitglied des Deutschen Bundestages. Wahl und Auflösung des Bundestages. Am 17. September 1982 zerbrach die von Bundeskanzler Helmut Schmidt geführte sozial-liberale Koalition an Streit über die künftige Wirtschafts- und Sozialpolitik sowie an sicherheitspolitischer Uneinigkeit innerhalb der SPD. Anlass für den Bruch war u. a. ein Konzeptpapier der FDP zur Überwindung der wirtschaftlichen Schwierigkeiten, das von Otto Graf Lambsdorff ausgearbeitet worden war und neoliberale Positionen zur Reform des Arbeitsmarkts enthielt (siehe Wende). Am 20. September nahmen FDP und CDU/CSU Koalitionsgespräche auf. Kohl wurde für das Amt des Bundeskanzlers nominiert und am 1. Oktober 1982 im Rahmen des ersten erfolgreichen konstruktiven Misstrauensvotums in der Geschichte des Bundestages gegen den amtierenden Bundeskanzler Helmut Schmidt zum sechsten Bundeskanzler gewählt. Bundesaußenminister wurde, wie bereits in der sozial-liberalen Koalition, Hans-Dietrich Genscher. Der Koalitionswechsel war innerhalb der FDP sehr umstritten. Helmut Kohl im Bundestagswahlkampf 1983 Da die FDP mit einer Koalitionsaussage zugunsten der SPD in den Wahlkampf 1980 gegangen war und Kohls Kanzlerschaft nicht aus Bundestagswahlen hervorgegangen war, gab es Zweifel an der demokratischen Grundlage des Machtwechsels, obwohl ein derartiger Wechsel ausdrücklich im Grundgesetz vorgesehen ist. Darum stellte Kohl im Bundestag die Vertrauensfrage, über die am 17. Dezember 1982 entschieden wurde. Nachdem die Regierungskoalition am Tag zuvor mit breiter Mehrheit den Bundeshaushalt für 1983 verabschiedet hatte, enthielt sich die Mehrzahl der Abgeordneten der Regierungskoalition vereinbarungsgemäß der Stimme, wodurch das gewünschte Ergebnis zustande kam: Keine Mehrheit für den Bundeskanzler und damit die Möglichkeit, dem Bundespräsidenten die Auflösung des Parlamentes vorzuschlagen. Nach längerem Zögern entschied sich Bundespräsident Karl Carstens im Januar 1983 für die Auflösung des Bundestags und die Ausschreibung von vorgezogenen Neuwahlen für den 6. März 1983. Gegen diese Vorgehensweise klagten einige Abgeordnete vor dem Bundesverfassungsgericht. Dieses entschied aber, dass die Auflösung des Bundestages verfassungsgemäß erfolgt sei. a> und Helmut Kohl im Jahr 1984 Die ersten Jahre der Kanzlerschaft. Bei der Bundestagswahl am 6. März 1983 gewann die Koalition aus CDU/CSU und FDP mit Stimmengewinnen für die CDU/CSU (48,8 Prozent, +4,3 Prozentpunkte) und deutlichen Stimmenverlusten für die FDP (7,0 Prozent, −3,6 Prozentpunkte) die Mehrheit der Sitze im Bundestag. Kohl, der zwischen 1976 und 1998 sechsmal als Kanzlerkandidat antrat, erzielte sein bestes Wahlergebnis und außerdem das zweitbeste der Unionsparteien in der Geschichte der Bundesrepublik. Kanzlerkandidat der Sozialdemokraten war der ehemalige Bundesjustizminister und Münchener Oberbürgermeister Hans-Jochen Vogel. In den ersten Jahren seiner Amtszeit setzte Kohl den noch unter der Regierung Schmidt gefassten NATO-Nachrüstungsbeschluss gegen den Widerstand der Friedensbewegung durch. Dem im Zuge der Flick-Affäre sichergestellten Kassenbuch des Flick-Konzerns zufolge hat Kohl zwischen 1974 und 1980 565.000 DM erhalten. Im Untersuchungsausschuss des Bundestags und des Mainzer Landtags sagte Kohl die Unwahrheit in Bezug auf seine Kenntnis des Zwecks der Staatsbürgerlichen Vereinigung als Spendenbeschaffungsanlage und entging nach einer Anzeige von Otto Schily nur knapp einem Strafverfahren wegen uneidlicher Falschaussage. Kohls Parteifreund Heiner Geißler verteidigte ihn später mit dem berühmt gewordenen Kommentar, er habe wohl einen „Blackout“ gehabt. Im Bereich der Ausländerpolitik plante Kohl zunächst, wie er 1982 in einem Gespräch mit Margaret Thatcher erklärte, die Zahl der Türken in Deutschland um 50 Prozent zu reduzieren. Dies wurde erst 2013 bekannt und löste Empörung aus. Sein Sohn Peter Kohl, der mit einer Türkin verheiratet ist, kritisierte diese Aussage, ordnete sie aber in den historischen Kontext ein. In Israel sprach er am 24. Januar 1984 vor der Knesset über die ihm zuteilgewordene „Gnade der späten Geburt“, der Satz selbst stammte von Günter Gaus. Am 22. September 1984 trafen sich Kohl und der französische Staatspräsident François Mitterrand am Ort der Schlacht um Verdun, um gemeinsam der Toten der beiden Weltkriege zu gedenken. Das Foto ihres minutenlangen Händedrucks wurde ein Symbol der deutsch-französischen Aussöhnung. Kohl und Mitterrand wurde in den folgenden Jahren ein besonders enges Vertrauensverhältnis nachgesagt. Sie brachten gemeinsame Projekte wie das Eurokorps und den Fernsehsender Arte auf den Weg. Auch Fortschritte der europäischen Einigung wie der Vertrag von Maastricht und später die Einführung des Euro wurden wesentlich der engen deutsch-französischen Zusammenarbeit zugeschrieben. Am 5. Mai 1985 legte Kohl gemeinsam mit US-Präsident Ronald Reagan in Bitburg einen Kranz auf dem dortigen Soldatenfriedhof nieder. Dies wurde in Teilen der deutschen und amerikanischen Öffentlichkeit heftig diskutiert, weil dort auch Angehörige der Waffen-SS beerdigt sind. Bei der Bundestagswahl 1987 wurde Kohl im Amt bestätigt. Gegenkandidat der SPD war der nordrhein-westfälische Ministerpräsident Johannes Rau. Im September 1987 besuchte Erich Honecker, Staatsratsvorsitzender und Generalsekretär des ZK der SED, als erster DDR-Staatschef die Bundesrepublik Deutschland und traf dabei am 7. September mit Kohl in Bonn zusammen (siehe Besuch Erich Honeckers in der Bundesrepublik Deutschland 1987). Dabei sprach Honecker eine Einladung zum Besuch der DDR an Kohl aus. Der „Kanzler der Einheit“. a> am 5. März 1997 in Bonn Kohl unternahm als erster deutscher Bundeskanzler eine Privatreise in die DDR. Im Mai 1988 besuchte er spontan und ohne Begleitschutz für drei Tage mit seiner Frau und dem Sohn Peter einige Städte. Später bezeichnete er diese Reise als eine der bewegendsten seines Lebens. Nachdem sich der Zusammenbruch der DDR abzeichnete und die Berliner Mauer am 9. November 1989 gefallen war, legte Kohl ohne vorherige Absprache mit dem Koalitionspartner und den westlichen Bündnispartnern am 28. November 1989 im Deutschen Bundestag ein „Zehn-Punkte-Programm zur Überwindung der Teilung Deutschlands und Europas“ vor. Am 18. Mai 1990 wurde der Staatsvertrag über die Währungs-, Wirtschafts- und Sozialunion mit der DDR unterzeichnet. Gegen den Widerstand des Bundesbankpräsidenten Karl Otto Pöhl hatte Kohl darin einen Umtauschkurs von Mark der DDR in D-Mark von 1:1 bei Löhnen, Gehältern, Mieten und Renten durchgesetzt. Dies erwies sich später als starke Belastung für die Betriebe der neuen Bundesländer. Gemeinsam mit Außenminister Hans-Dietrich Genscher erreichte Kohl zusammen mit dem letzten und einzig demokratisch gewählten DDR-Ministerpräsidenten Lothar de Maizière in den sogenannten Zwei-plus-Vier-Gesprächen mit den vier Siegermächten des Zweiten Weltkriegs deren Zustimmung zur Wiedervereinigung Deutschlands in Form des Zwei-plus-Vier-Vertrags und die Einbindung des wiedervereinigten Deutschlands in die NATO. Die deutsche Einheit stärkte Kohls Position in der CDU. 1989 war es ihm auf dem Parteitag in Bremen nur mühsam gelungen, einen „Putschversuch“ seiner innerparteilichen Widersacher um Heiner Geißler, Rita Süssmuth und Lothar Späth abzuwehren. Kanzler des wiedervereinigten Deutschlands. Am 17. Januar 1991 wählte der Deutsche Bundestag Kohl zum dritten Mal zum Bundeskanzler, nachdem er sich bei der Bundestagswahl 1990 gegen den saarländischen Ministerpräsidenten und damaligen SPD-Kanzlerkandidaten Oskar Lafontaine durchgesetzt hatte. Damit wurde er zum ersten Kanzler des wiedervereinigten Deutschlands. Die sozialen und wirtschaftspolitischen Folgen des Vereinigungprozesses waren gewaltig: die Arbeitslosigkeit stieg von 2,6 Millionen, entsprechend 7,3 % im Jahre 1991 in der gesamtdeutschen Statistik auf Werte von über 3,6 Millionen Betroffen in jedem der Jahre von 1994 bis 2007 an, mit einem ersten Höchstwert von 4,4 Millionen (12,7 %) im Jahr 1997. (Bis 2007 blieben die Werte stets über 10 % und überstiegen dann 2005 und 2006 sogar den Wert von 4,4 Millionen.) Vor diesem Hintergrund sorgte die Anmerkung Helmut Kohls über einen „kollektiven Freizeitpark“ 1993 für einigen Unmut. Nach der knapp gewonnenen Bundestagswahl 1994 wurde Kohl erneut zum Bundeskanzler gewählt; diesmal setzte er sich gegen den rheinland-pfälzischen Ministerpräsidenten Rudolf Scharping von der SPD durch. Die folgenden Jahre waren eher von außenpolitischen Ereignissen geprägt (Beispiele: 26. März 1995 Schengener Abkommen tritt in Kraft; 1998: Frankfurt am Main als Sitz für die neu geschaffene EZB, 1. Januar 1999: Euro-Einführung). Innenpolitisch zeichnete sich auch wegen des SPD-dominierten Bundesrats und der damit eingeschränkten Handlungsfähigkeit der Bundesregierung eine Stagnation ab, die in die Wahlniederlage 1998 mündete. Die SPD trat mit dem damaligen niedersächsischen Ministerpräsidenten Gerhard Schröder als Kanzlerkandidat an und gewann die Wahl. Schröder (* 1944), Joschka Fischer (* 1948) und andere nun in Spitzenämter rückende Politiker der neuen Regierungsparteien SPD und Die Grünen (siehe Kabinett Schröder I) standen für einen Generationswechsel in der Politik: Sie waren kurz vor dem Ende oder erst nach dem Zweiten Weltkrieg geboren, während Kohl (* 1930) und seine Politikergeneration als Jugendlicher oder als Soldat den Weltkrieg erlebten. Die christlich-liberale Koalitionsregierung wurde von einer rot-grünen Koalition abgelöst, und Kohl wurde am 26. Oktober durch Bundespräsident Roman Herzog aus dem Amt entlassen. Kohl führte bis zum 27. Oktober 1998 noch eine geschäftsführende Bundesregierung. Bei der Bundestagswahl 2002 bewarb sich Kohl nicht mehr um ein Bundestagsmandat. Rolle bei der Einführung des Euro. Im November 1989 kam es zum Fall der Mauer; bald darauf zerfielen der Ostblock und die Sowjetunion. Deutschland verhandelte mit den vier Siegermächten (F, GB, USA, Sowjetunion), um deren Zustimmung zur Wiedervereinigung zu erlangen. Am 12. September 1990 wurde in Moskau der Zwei-plus-Vier-Vertrag unterzeichnet. Regierungschefs der vier Staaten waren damals Gorbatschow, Margaret Thatcher, George Bush sen. und François Mitterrand. am 1. Juli 1990 mit der Herstellung des freien Kapitalverkehrs zwischen den EG-Staaten eingeleitet. Nachdem im Vertrag von Maastricht 1992 die rechtlichen Grundlagen für die weitere Umsetzung gelegt worden waren, Am 2. Mai 1998 beschlossen Staats- und Regierungschefs der Europäischen Gemeinschaft (darunter Helmut Kohl) in Brüssel die Einführung des Euro. Kohl war bewusst, dass er gegen den Willen einer breiten Bevölkerungsmehrheit handelte. Er verlor die Bundestagswahl am 27. September 1998. In einem 2013 bekanntgewordenen Interview (vom März 2002) sagte Kohl: "In einem Fall [Einführung des Euro] war ich wie ein Diktator". Ihm sei klar gewesen, dass das Durchsetzen des Euro Wählerstimmen kosten werde. Im Zuge der Eurokrise wurden Kohl schwere, persönlich zu verantwortende Versäumnisse bei der Einführung des Euro vorgeworfen. So sagte 2012 sein langjähriger Parteifreund und frühere sächsische Ministerpräsident Kurt Biedenkopf, Kohl sei der Zeitplan letztlich wichtiger gewesen als die Stabilität. Diese Einschätzung wurde von dem Historiker und Kohl-Biografen Hans-Peter Schwarz bestätigt. Beispielsweise verzichtete Kohl auf dem EU-Gipfel von Dublin im Dezember 1996 – nach massivem französischem Druck – auf die eigentlich vorgesehene Festschreibung "automatischer" Strafen bei Überschreiten der zulässigen Staatsverschuldung. Ehrenwort für Parteispender. In der CDU-Spendenaffäre nach der verlorenen Bundestagswahl 1998 verschwieg Kohl die Herkunft eines Betrags in Höhe von 2,1 Millionen DM, obwohl er gemäß dem Parteiengesetz, das er als Bundeskanzler selbst unterzeichnet hatte, und der darin verankerten Publikationspflicht zur Auskunft verpflichtet war. Bis heute nimmt Kohl keine Stellung zu diesem Thema. Seine Argumentation, er habe das Geld von Spendern erhalten, denen er mit Ehrenwort versprochen habe, ihren Namen zu verschweigen, steht im Gegensatz zur geltenden Rechtslage und stieß seinerzeit auf heftige öffentliche Kritik. Um die der CDU durch die anschließende Sperrung der Wahlkampfkostenerstattung entstandenen finanziellen Einbußen wiedergutzumachen, organisierte er eine Spendensammelaktion, bei der 6 Millionen DM eingesammelt wurden. Die größten Spender waren Leo Kirch mit einer Million DM und Erich Schumann mit 800000 DM. Im August 2015 erklärte Wolfgang Schäuble in einer ARD-Fernsehdokumentation von Stephan Lamby, in Wahrheit habe es gar keine Spender gegeben, denen Kohl sein Ehrenwort hätte geben können. Die 2,1 Millionen DM stammten vielmehr aus Schwarzgeld-Konten der CDU, die bereits zu Zeiten der Flick-Affäre angelegt worden seien. Schäuble relativierte diese Aussage jedoch wieder („Vielleicht gibt’s auch Spender“). Untersuchungsausschuss zur CDU-Spendenaffäre. Ein vom Bundestag eingesetzter Untersuchungsausschuss befasste sich von Dezember 1999 bis Juni 2002 mit der CDU-Spendenaffäre. Die Arbeit des Ausschusses wurde von heftigen parteipolitischen Auseinandersetzungen begleitet. Am 18. Januar 2000 musste Kohl wegen seiner Rolle in der CDU-Finanzaffäre auf den Ehrenvorsitz der CDU verzichten. Wegen des Verdachts der Untreue zum Nachteil seiner Partei eröffnete die Bonner Staatsanwaltschaft 2000 ein Ermittlungsverfahren gegen Kohl, das 2001 gegen Zahlung einer Geldbuße in Höhe von 300.000 DM wegen geringer Schuld gemäß § 153a StPO eingestellt wurde. Umstrittener Kirch-Beratervertrag. Im Rahmen von Presseveröffentlichungen zum Insolvenzverfahren des Medienkonzerns Kirch-Gruppe wurde im Jahr 2003 bekannt, dass Kohl zu den Politikern zählte, die Leo Kirch durch umstrittene Beratungsverträge an sein Unternehmen gebunden hatte. Kohl hatte nach seiner Kanzlerschaft drei Jahre lang jeweils 600.000 DM erhalten. Seine Leistung sollte dabei „Beratung zu aktuellen sowie strategischen politischen Entwicklungen in Deutschland und Europa“ sein. Eine Mindestleistung war laut Medienberichten nicht festgeschrieben worden. Kritiker wie Hans Herbert von Arnim wiesen darauf hin, Kirchs Medien- und Fernsehimperium habe während der Kanzlerschaft Kohls von einer besonders Kirch-freundlichen Medienpolitik profitiert. Hans-Christian Ströbele, damals Obmann der Grünen im Parteispenden-Untersuchungsausschuss des Bundestags, meinte dazu, der Beratervertrag lege einen „dringenden Verdacht der nachträglichen Bezahlung von Regierungshandeln“ beziehungsweise Vorteilsannahme nahe. Kohl hat sich während seiner Amtszeit mehrmals für Leo Kirch eingesetzt. 1995 setzte er sich beim Telekom-Aufsichtsrat für die Verwendung von Kirchs d-box ein und 1997 intervenierte er bei der EU-Kommission für die Erlaubnis der Zusammenarbeit der Kirch-Gruppe und Bertelsmann im Pay-TV-Bereich. Andere CDU-Politiker mit sehr ähnlichen Kirch-Verträgen nach ihrer Amtszeit waren die ehemaligen Post- und Fernmeldeminister Christian Schwarz-Schilling und Wolfgang Bötsch, deren Tätigkeitsgebiete und Entscheidungen als Minister und Rundfunkräte erhebliche Auswirkungen auf die deutsche Medienlandschaft, insbesondere auf das für Kirch wichtige Privatfernsehen gehabt hatten. Das Bekanntwerden dieser Vorgänge führte parteiübergreifend zu erheblichen Irritationen und Verdachtsäußerungen, hatte jedoch für Kohl und die anderen Betroffenen letztendlich keine Konsequenzen. Angebliche „Bundeslöschtage“. Das Verschwinden diverser Akten und einzelner Computerdateien des Kanzleramts zu politisch sensiblen Themen, auch aus dem Bereich der CDU-Spendenaffäre, am Ende seiner Amtszeit wurde zum Gegenstand eines parlamentarischen Untersuchungsausschusses unter Burkhard Hirsch (FDP). Es kam auch zu Ermittlungen der Staatsanwaltschaft. Diese ergaben jedoch keinen hinreichenden Tatverdacht, um die Eröffnung des Hauptverfahrens gegen einzelne Personen zu beschließen, weshalb sie eingestellt wurden. Laut dem zuständigen Staatsanwalt wurden Datenbestände des Kanzleramts gelöscht, und sechs Aktenbände aus dem Komplex der Ölraffinerie Leuna – bei der Korruption vermutet, aber in Deutschland nicht offiziell untersucht worden war – waren ebenso verschwunden wie einzelne Dokumente über Rüstungs- und Flugzeuggeschäfte und den Verkauf von bundeseigenen Eisenbahnerwohnungen. Diese Vorgänge wurden unter der ironischen Bezeichnung „Bundeslöschtage“ bekannt. Später stellte sich heraus, dass die sechs Leuna-Ordner sowie Akten zu weiteren Privatisierungen als Kopien in mehreren Ministerien vorhanden waren. Bei einem Ortstermin im Kanzleramt konnte die Staatsanwaltschaft teilweise Einsicht in die Unterlagen nehmen. Ein Gutachten der Fraunhofer Gesellschaft aus dem Jahr 2002 kam zu dem Ergebnis, dass sich eine systematische Löschung von Daten im Zusammenhang mit dem Regierungswechsel 1998 nicht belegen lasse. Um die beabsichtigte Veröffentlichung von Kohls Stasi-Unterlagen kam es in den Jahren 2000 bis 2004 zu einer umfangreichen verwaltungsgerichtlichen Auseinandersetzung "(Fall Kohl)". Im Ergebnis musste er die Veröffentlichung sensibler Informationen nicht dulden. Politisches Engagement. Im Wahlkampf zu den Parlamentswahlen in Italien 2006 unterstützte Kohl ausdrücklich seinen Freund, den Herausforderer und ehemaligen EU-Kommissionspräsidenten Romano Prodi, für die Kandidatur des Mitte-links-Bündnisses L’Unione. Obwohl mit der in dem damals amtierenden Bündnis Casa delle Libertà vertretenen Forza Italia des damaligen Ministerpräsidenten Silvio Berlusconi ein Mitglied des von der CDU mitgestalteten Zusammenschlusses Europäische Volkspartei (EVP) kandidierte, erklärte Kohl anlässlich eines Besuchs in Rom: „Ich möchte, dass mein Aufenthalt hier als Unterstützung für Prodi verstanden wird, der ein großer Europäer ist“. Seit 1990 war Kohl jedes Jahr für den Friedensnobelpreis nominiert worden, im Frühjahr 2007 etwa wurde Kohl von EU-Kommissionspräsident José Manuel Durão Barroso sowie von Michail Gorbatschow für die Auszeichnung vorgeschlagen. Im Juli 2009 legte Kohl seine Ämter in der von seiner verstorbenen Frau gegründeten Hannelore-Kohl-Stiftung nieder; er begründete dies mit einer Übernahme der Stiftung durch Personen, „die in keiner Beziehung zu seiner verstorbenen Frau standen“. Anlässlich der Feiern zum 20. Jahrestag des Mauerfalls traf sich Kohl am 31. Oktober 2009 im Berliner Friedrichstadt-Palast noch einmal mit seinen damaligen Verhandlungspartnern, dem früheren sowjetischen Staatschef Michail Gorbatschow und dem damaligen US-Präsidenten George Bush senior. Die drei Staatsmänner erinnerten an die dramatischen Tage von damals. Den Festlichkeiten am 9. November 2009 und dem Empfang des Bundespräsidenten für zahlreiche Staatschefs blieb Kohl fern. Am 25. März 2011 schrieb Kohl in einem Gastbeitrag in der Zeitung "Bild" einen Artikel, in dem er vor einem zu schnellen Atomausstieg nach der Nuklearkatastrophe von Fukushima warnt. Sonstiges Engagement. Kohl engagiert sich für die Aufarbeitung der SED-Diktatur. 1996 gehörte er zu den Gründungsmitgliedern und Förderern des Bürgerbüros Berlin, eines Vereins zur Aufarbeitung von Folgeschäden der SED-Diktatur, an dessen Gründung neben Bürgerrechtlern wie Bärbel Bohley und Jürgen Fuchs auch Persönlichkeiten wie Ignatz Bubis beteiligt waren. Seit 2003 ist er zudem Gründungsmitglied des Fördervereins der Gedenkstätte Berlin-Hohenschönhausen. Er ist Mitglied des Vereins „Atlantik-Brücke“. Kohl war in den Jahren von 1999 bis 2000 Mitglied im internationalen Beirat der Credit Suisse Das zeitnahe Ruhen der Mitgliedschaft wurde in den Medien in unmittelbaren Zusammenhang mit der Spendenaffäre gestellt. Im Jahr 1999 gründete Kohl in Ludwigshafen die Politik- und Strategieberatung P&S. Größter Kunde war zunächst KirchMedia. Privatleben. Helmut Kohl mit Familie in Leipzig, 1975 1960 heiratete Kohl die Fremdsprachensekretärin Hannelore Renner (1933–2001), die er seit 1948 kannte. Aus der Ehe gingen die beiden Söhne Walter (* 1963) und Peter Kohl (* 1965) hervor. In den folgenden Jahrzehnten war Kohl stets darauf bedacht, ein heiles Familienleben zu inszenieren. Seit Beginn der 1970er-Jahre verbrachten seine Frau und er ihren vierwöchigen Sommerurlaub stets in St. Gilgen am Wolfgangsee, Österreich, in den ersten Jahren auch mit den beiden Kindern und immer in demselben Haus direkt am See Sommerinterviews aus den Ferien und gestellte Pressebilder einer anscheinend intakten Familie gehörten zum Programm. Kohls Sohn Walter korrigierte in einem Buch später dieses Bild. Hannelore Kohl nahm sich am 5. Juli 2001 im Alter von 68 Jahren das nachdem sie zuvor jahrelang zurückgezogen gelebt hatte; angeblich litt sie unter einer sogenannten Lichtallergie. Rund fünfeinhalb Jahre nach Ende seiner Kanzlerschaft, am 4. März 2004, stellte Kohl den ersten Teil seiner Memoiren unter dem Titel "Erinnerungen, 1930–1982" vor. Der zweite Teil über die Regierungsjahre bis 1990 erschien am 3. November 2005, der dritte Teil über die Jahre bis 1994 am 16. November 2007. Ein abschließender vierter Band ist geplant. Helmut Kohl führte einen Rechtsstreit mit dem Auftragsschreiber an seinen Memoiren, Heribert Schwan. Bei diesem Streit ging es um die Rechte an den Tonbändern, auf denen Arbeitsgespräche aus dem Jahr 2001 festgehalten sind. Die Veröffentlichung der Zitate stellt nach Auffassung des Oberlandesgerichts Köln einen unrechtmäßigen Vertrauensbruch dar. Der Bundesgerichtshof entschied, dass die Tonbänder aufgrund eines mit Schwan bestehenden Auftragsverhältnisses an Kohl herauszugeben seien. Im November 2015 reichten seine Anwälte in diesem Zusammenhang eine Schadensersatzklage in Höhe von 5 Millionen Euro gegen den Autor und den Verlag wegen "entstandenem immateriellen Schaden" ein. Die Zitate hätten nicht nur "partei- und regierungsschädigende Auswirkungen", sondern hätten auch dem politische Lebenswerk Kohls sowie seiner Freundschaft zu langjährigen Weggefährten geschadet. Kohl musste sich ab 2007 mehreren schweren Operationen wegen teils komplizierter Erkrankungen unterziehen. Im Februar 2008 erlitt er bei einem Sturz ein Schädel-Hirn-Trauma. Er kann seitdem kaum noch sprechen und benutzt bei öffentlichen Auftritten einen Rollstuhl. Am 8. Mai 2008 heirateten er und Maike Richter (* 1964) in der Kapelle einer Reha-Klinik in Heidelberg im engsten Freundeskreis. Die beiden Söhne Walter und Peter waren nicht Trauzeugen waren der Medienunternehmer Leo Kirch und Bild-Chefredakteur Kai Diekmann. Maike Richter hatte Kohl im Kanzleramt kennengelernt, wo die promovierte Volkswirtin von 1994 bis 1998 als Beamtin in der Wirtschaftsabteilung arbeitete. Sie lebt seit 2005 mit Helmut Kohl in einer festen Beziehung. Im Juli 2013 waren Helmut Kohl und der damalige Außenminister Guido Westerwelle Trauzeugen bei der Verpartnerung von Kohls Anwalt Stephan Holthoff-Pförtner und dessen Partner Klaus Sälzer, die am Tegernsee stattfand. Kohl lebt im Ludwigshafener Stadtteil Oggersheim und in Berlin. Witz, Satire und Parodie. Helmut Kohl war häufig Gegenstand von politischem und auch unpolitischem Humor. Eine der nachhaltigsten satirischen Darstellungen des Kanzlers entstammt dem deutschen Satiremagazin "Titanic", das den Kopf des Kanzlers birnenförmig inklusive Stängel karikierte – „Birne“ wurde ähnlich wie beim französischen "Bürgerkönig" Ludwig Philipp ein Schmähwort wie ein karikaturistisches Symbol für Helmut Kohl. Parodiert wurden seine als mangelhaft geltenden Fremdsprachenkenntnisse und dabei besonders seine Artikulationsversuche in der englischen Sprache, seine auffällige Adipositas, seine Volkstümlichkeit wie provinzielle Herkunft (siehe auch Pfälzer Saumagen). Kohl-Imitatoren wie der Parodist Stephan Wald nahmen sich seiner Pfälzer Sprachfärbung an, mitsamt der ihm eigenen hyperkorrigierten Aussprache des "sch" („Ge"ch"ichte“). Dieter Hildebrandt persiflierte Kohls Angewohnheit, seine Texte mit wenig sinntragenden Phrasen („… und ich sage dies mit aller Deutlichkeit, meine Damen und Herren“) anzureichern, in einer Version von Matthias Claudius’ Gedicht "Abendlied" („Der Mond ist aufgegangen“). Heinrich Himmler. Heinrich Luitpold Himmler (* 7. Oktober 1900 in München; † 23. Mai 1945 in Lüneburg) war ein deutscher Politiker der NSDAP. Er machte in den 1920er Jahren als Reichsredner und Parteifunktionär Karriere und wurde 1929 von Adolf Hitler an die Spitze der damals noch der Sturmabteilung (SA) unterstellten Schutzstaffel (SS) berufen. Himmler gelang es in der Zeit des Nationalsozialismus, vor allem in den Jahren 1934/36, insbesondere durch den sogenannten Röhm-Putsch, der von ihm geleiteten Organisation und damit auch sich selbst immer mehr Befugnisse innerhalb des NS-Regimes zu schaffen, insbesondere durch das Erlangen der vollständigen Kontrolle über die gesamte Polizei, die Kontrolle über die nationalsozialistischen Konzentrationslager, über den Inlandsgeheimdienst und den Aufbau militärischer, nicht direkt der Wehrmacht unterstehender Verbände (Waffen-SS). Als Reichsführer SS und Chef der Deutschen Polizei, sowie Reichskommissar für die Festigung deutschen Volkstums (ab 1939), später auch Reichsinnenminister (ab 1943) und Befehlshaber des Ersatzheeres (ab 1944), hatte Himmler vor allem während des Zweiten Weltkriegs eine Machtposition, die nur von der Hitlers übertroffen wurde. Mit Hilfe der SS, des Sicherheitsdienstes, der Gestapo und anderer von ihm direkt oder indirekt kontrollierter Organe hatte Himmler ein System der Überwachung, der Willkür und des Terrors etabliert, mit dem die Menschen im Einflussbereich des NS-Regimes eingeschüchtert und kontrolliert, vermeintliche oder tatsächliche politische Gegner verfolgt, inhaftiert, entrechtet und vielfach ermordet wurden. Er ist einer der Hauptverantwortlichen für den Holocaust, den Porajmos, die Ermordung von Millionen von Zivilisten und Kriegsgefangenen im Rahmen seines Generalplans Ost sowie für zahlreiche andere Verbrechen gegen die Menschlichkeit. Himmler sondierte in der Endphase des Krieges auf vielfältige Weise seine persönlichen Optionen für eine Zeit nach Adolf Hitler. Eigenmächtige Verhandlungsversuche mit den westlichen Alliierten, die von diesen abgewiesen und öffentlich gemacht wurden, führten dazu, dass Hitler ihn am 29. April 1945 all seiner Ämter und Titel enthob und Haftbefehl gegen ihn erließ. Nach einem vergeblichen Fluchtversuch geriet Himmler in alliierte Gefangenschaft und beging wenige Tage später Suizid, nachdem seine Identität aufgedeckt worden war. Sein Leichnam wurde an unbekannter Stelle in der Lüneburger Heide begraben. Familie. Gebhard und Anna Himmler (stehend) mit ihren drei Kindern Heinrich (links), Ernst (Mitte) und Gebhard (rechts) in einer Aufnahme von 1906 Gudrun (links) mit Mutter Margarete und Vater Heinrich Himmler Dezember 1936 vor dem Kurhaus Wiesbaden. Heinrich Himmler wurde als zweiter von drei Söhnen des Oberstudiendirektors Joseph Gebhard Himmler (* 17. Mai 1865 in Lindau (Bodensee); † 29. Oktober 1936 in München) und dessen Frau Anna Maria Heyder (* 16. Januar 1866 in Bregenz; † 10. September 1941 in München) geboren. Die Familie kam aus einem bürgerlich-katholischen bayerischen Hintergrund. Heinrichs Brüder, Gebhard Ludwig (* 29. Juli 1898 in München; † 1989 ebenda) und Ernst Hermann (* 23. Dezember 1905; † 2. Mai 1945), schlossen sich später ebenfalls der SS an, spielten jedoch in der späteren Geschichte dieser Organisation keine große Rolle. Der Vater war Rektor des angesehenen humanistischen Wittelsbacher-Gymnasiums in München. Heinrich erhielt seinen Vornamen nach seinem Taufpaten Prinz Heinrich von Bayern, der von Gebhard Himmler erzogen worden war. Himmler wuchs in bürgerlichen geordneten Verhältnissen auf und besuchte das humanistische Wilhelmsgymnasium in München bis zu seinem 13. Lebensjahr, danach zog die Familie nach Landshut, wo er seine Gymnasialzeit auf dem Humanistischen Gymnasium Landshut, dem heutigen Hans-Carossa-Gymnasium, fortsetzte und 1919 mit dem Abitur abschloss. Er galt als überaus fleißiger Schüler. Am Ende des Ersten Weltkrieges durchlief er die Offiziersausbildung, beendete sie jedoch nicht, sondern musste mit Kriegsende 1918 aus der Armee ausscheiden, ohne jemals an der Front eingesetzt gewesen zu sein. Dies erschien ihm als persönlicher Makel. Nachdem die Presse mit der Machterlangung der Nationalsozialisten gleichgeschaltet war, wurde offiziell wahrheitswidrig behauptet, dass Himmler an der Front gewesen sei. Nach dem Scheitern der Münchner Räterepublik, an deren Niederschlagung Himmler sich als Angehöriger des Freikorps Lauterbach beteiligt hatte, studierte er von 1919 bis 1922 an der Technischen Hochschule München Landwirtschaft. Am 22. November 1919 trat er der schlagenden schwarzen Studentenverbindung Apollo München (heute: Burschenschaft Franco-Bavaria München) im Rothenburger Verband Schwarzer Verbindungen (RVSV) bei. Er schloss sein Studium mit der Diplomhauptprüfung für Landwirte ab. Anschließend arbeitete er bis zum Hitlerputsch als Laborant in einer Fabrik für künstliche Düngemittel im Norden Münchens. Himmler war seit dem 3. Juli 1928 mit Margarete Siegroth, geb. Boden, verheiratet und hatte eine leibliche Tochter, Gudrun (* 1929) sowie den Adoptivsohn Gerhard (* 1928). Ende Januar 2014 wurde bekannt, dass aus Privatbesitz in Israel mehr als 700 Briefe Himmlers an seine Ehefrau entdeckt wurden, geschrieben zwischen 1927 und 1945. Die Auswertung dieses frisch entdeckten Materials, das inzwischen bereits publiziert wurde (siehe die Literaturliste unter "Himmler privat"), brachte bisher nichts Neues. Mit seiner Privatsekretärin und späteren Geliebten Hedwig Potthast hatte er einen Sohn (Helge, * 1942) und eine Tochter (Nanette-Dorothea, * 1944). Diese „Zweitehe“ entsprach seinem Familienkonzept seit Ende der 1930er Jahre, das er mit dem Hinweis auf eine Zweit- oder „Friedelehe“ bei den „gutrassigen, freien Germanen“ auch bei anderen SS-Leuten als legitimiert ansah, vorausgesetzt, es waren gemeinsame Kinder geplant. NSDAP. Von 1919 bis 1923 engagierte sich Himmler bei der katholisch orientierten Bayerischen Volkspartei (BVP), aus der er aber wieder austrat. Über seine Mitgliedschaft bei den Artamanen kam Himmler in Kontakt mit der NSDAP, der er am 2. August 1923 beitrat (Mitgliedsnr. 42.404). Am 9. November 1923 beteiligte er sich in seiner Eigenschaft als Mitglied des Röhmschen Freikorps „Reichskriegsflagge“ am gescheiterten Hitler-Ludendorff-Putsch. Anfang 1924 schloss sich Himmler der Nationalsozialistischen Freiheitsbewegung (NSFB) Erich Ludendorffs an. Bereits im Februar 1924 war er deren „Parteiredner“ in Nordbayern. Ferner erneuerte er seine alten Kontakte zu Ernst Röhm und anderen Freikorps-Mitgliedern, als er dem Deutschvölkischen Offiziersbund (DVOB) und der Altreichsflagge beitrat. Diesen Organisationen gehörte Himmler bis 1926 an. Anfang 1925 begann sein Aufstieg in der Partei Adolf Hitlers. 1925 trat er auch in die SA ein. Aber bereits am 8. August 1925 wechselte er in die SS (SS-Nr. 168) über und führte bis 1927 zahlreiche hauptamtliche Partei-Tätigkeiten aus, bis er 1927 zum stellvertretenden Reichsführer SS ernannt wurde. Reichsführer SS. a> ernennt Himmler zum Inspekteur des Preußischen Geheimen Staatspolizeiamtes, 20. April 1934 Hitler und Himmler begutachten im September 1939 in Polen eine erbeutete Regimentsfahne der polnischen Armee. Nach der Absetzung Erhard Heidens als Reichsführer SS wurde Himmler am 6. Januar 1929 durch Adolf Hitler an die Spitze der Schutzstaffel berufen. Der Titel „Reichsführer SS“ war zwischen 1926 und 1934 eine reine Dienststellung innerhalb der SA und anfänglich ohne jede rechtliche Bedeutung. Dieses änderte sich erst im August 1934. 1933, nach der Machtübernahme der Nationalsozialisten, wurde Himmler zum Polizeipräsidenten von München ernannt. Im gleichen Jahr wurde er Kuratoriumsmitglied der Dirksen-Stiftung, die Kontakte zwischen den traditionellen Eliten und den Nationalsozialisten förderte, wobei er zum Ausdruck brachte „für wie ausgezeichnet“ und „äußerst begrüßenswert“ er diese Stiftung halte. Am 20. April 1934 wurde er von Göring zum Leiter des Gestapoamtes in Berlin ernannt. Am 30. Juni und 1. Juli 1934 hatten Himmler und die ihm unterstellte SS den wesentlichen Anteil an der als Röhm-Putsch bezeichneten verdeckten Entmachtung und Ermordung der Führung der SA und anderer Gegner, wie des ehemaligen Reichskanzlers und Generals der Reichswehr Kurt von Schleicher. Himmler, der bis dahin Röhms Untergebener gewesen war, hatte sich deshalb bei der Vorbereitung der Morde nicht exponiert. Dass er die Ermordung Röhms und Strassers, seiner beiden wichtigsten Förderer innerhalb der Partei, mittrug, konnte als Beweis seiner bedingungslosen Loyalität gegenüber Hitler gedeutet werden. Bereits am 23. August 1934 wurde Himmler in „Anerkennung der Loyalität dem Führer gegenüber“ von Adolf Hitler in die Dienststellung eines „Reichsleiters der NSDAP“ (offizielle Bezeichnung: „Reichsleiter SS“) erhoben und die SS aus der übergeordneten SA herausgelöst. „Reichsführer SS“ war mit der Ernennung Himmlers zum Reichsleiter zu dem höchsten offiziellen Dienstgrad innerhalb der SS geworden, und Himmler war nur noch Hitler persönlich verantwortlich. Hitlers "Erlass" vom 17. Juni 1936 war der wichtigste Schritt auf dem Wege der Umwandlung des Polizeiapparates in ein Instrument der absoluten Diktatur. Von nun an war in der Person Himmlers das Parteiamt des "Reichsführers SS" mit dem neu geschaffenen staatlichen Amt eines "Chefs der Deutschen Polizei" im "Reichsministerium des Innern" personell und institutionell miteinander verbunden. Der Erlass markierte das Ende der noch in Teilen bestehenden Polizeihoheit der Länder zugunsten der Zentralgewalt ("Verreichlichung" der Polizei). Zugleich wurde hierdurch der politisch gewünschte Prozess eingeleitet, durch die eingeleitete Verschmelzung mit der SS die zentralisierte Polizei aus dem "Reichsministerium des Innern" herauszulösen, sie dem nur Hitler unterstehenden Parteifunktionär "Reichsführer SS" zu unterstellen und damit zu entstaatlichen. Dadurch, dass Himmler am 24. August 1943 auch zum Reichsinnenminister ernannt wurde, wurden die NS-Innenpolitik und die Polizei allerdings wieder vereint. Himmler unterstand damit der gesamte Polizeiapparat, bestehend aus den Ämtern der Ordnungspolizei, der Geheimen Staatspolizei (Gestapo) und des Reichskriminalpolizeiamts. Als Reichsführer SS unterstand ihm weiterhin der Sicherheitsdienst (SD) als parteiinterner Nachrichtendienst. Himmler wurde in seiner neuen Eigenschaft den Befehlshabern des Heeres und der Marine sowie den Reichsministern im Rang gleichgestellt und erhielt Kabinettsrang. Damit war er zu einem der mächtigsten Männer im nationalsozialistischen Deutschland geworden. Himmler versuchte sich ebenfalls auf dem Gebiet der Außenpolitik, indem er Mohammed al-Husseinis antijüdische Aktivitäten unterstützte und ihm nach seiner Flucht nach Deutschland Raum für Aktivitäten gab. Himmler war auch die treibende Kraft bei der Verfolgung Homosexueller im Nationalsozialismus und gründete 1936 die Reichszentrale zur Bekämpfung der Homosexualität und Abtreibung als Sonderabteilung der Polizei. Er leitete ebenfalls das Programm Lebensborn e. V. zur Erhaltung des „arischen Blutes“ bis in die letzten Jahre des Krieges. Per Geheimerlass wurde Himmler zusätzlich am 7. Oktober 1939 von Hitler zum „Reichskommissar für die Festigung deutschen Volkstums“ ernannt. In dieser Funktion war er für die „Eindeutschung“ der besetzten Gebiete in Polen zuständig. Das führte einerseits zur Vertreibung und Ermordung der eingesessenen polnischen und jüdisch-polnischen Bevölkerung und andererseits zur Ansiedlung von sogenannten Volksdeutschen in den besetzten Gebieten (vor allem im Wartheland). Infolge der Ereignisse des 20. Juli 1944 wurde Himmler Oberbefehlshaber des Ersatzheeres und Chef der Heeresrüstung. Er übte dieses Amt aber nicht selbst aus, sondern beauftragte damit den Leiter des SS-Führungshauptamtes Hans Jüttner. Am 3. August 1944 hielt er vor den Gauleitern eine Rede, in der er ihnen seine Sicht (und die der NSDAP) auf die Ereignisse des 20. Juli 1944 erläuterte. Darin forderte er die „Blutrache“ für alle Mitglieder der Familien der Attentäter. Beitrag zur NS-Germanenideologie. Himmler suchte seit 1933 zusammen mit Richard Walther Darré die SS in Westfalen zu verankern, weil es dort nach Darrés Überzeugung mehr als in anderen Gegenden Deutschlands noch Reste des alten Germanentums gab. 1934 übernahm die SS mit einem Pachtvertrag die Wewelsburg bei Paderborn. Nach Karl Hüser bestand später für die SS-Ideologen „kein Zweifel, sie [d. i. die Entstehungszeit der Burg] in die Zeit der Abwehrkämpfe König Heinrichs I. gegen die Ungarn oder ‚Hunnen‘ zu legen“. Als 1935 die Quedlinburger bei höchsten Reichsstellen um Unterstützung für die Ausrichtung der Feierlichkeiten zum 1000. Todestag Heinrichs I. am 2. Juli 1936 nachsuchten, legte Himmler im Dezember 1935 fest, „dass die SS mit der Stadt Quedlinburg alleinige Trägerin der Feiern am 2. Juli 1936 sein sollte“. Denn Heinrich I. galt seit dem 19. Jahrhundert in der deutschen Nationalgeschichtsschreibung als der am ursprünglichsten germanisch gebliebene mittelalterliche Herrscher und Initiator der Ostkolonisation. Mit der Gründung der „Ahnenerbe“-Stiftung im Jahr 1935 wollte Himmler alles in Erfahrung bringen, was sich über die quellenarme Zeit Heinrichs herausfinden und noch dokumentieren ließ. Mit der Todestagsfeier und der deutschlandweit im Radio übertragenen Himmlerrede machte Himmler die Stiftskirche St. Servatius (Quedlinburg) zu einer „nationalen Pilgerstätte“, in der bis 1944 jährlich am 2. Juli „Heinrichsfeiern“ stattfanden. 1938 gründete Himmler dort die „König-Heinrich-I.-Gedächtnisstiftung“, nach Heinz Höhne die wichtigste unter den Stiftungen Himmlers, in der ausgesuchte „König-Heinrich-Städte“ (Braunschweig, Enger, Fritzlar, Wetzlar, Bad Gandersheim, Erfurt, Goslar, Meißen, Nordhausen, Schleswig, Wallhausen und Quedlinburg) Mitglieder wurden. 1939 überreichte der Quedlinburger Oberbürgermeister Himmler den eigens für ihn komponierten „König-Heinrichs-Marsch“. Im Krieg fanden dann die Heinrichsfeiern ohne Himmler statt. Himmlers auffälliger Bezug auf Heinrich I. (und generell auf dem Namen Heinrich) – seinen seit Kriegsbeginn eingesetzten Sonderzug nannte er „Heinrich“, seine in der Nähe des Führerhauptquartiers befindliche Feldkommandostelle ebenfalls, seine Unternehmungen in Osteuropa liefen für ihn unter der Bezeichnung „Programm Heinrich“ –  führte dazu, dass er in seinem Umfeld „König Heinrich“ genannt wurde  (woraus der politische Witz im Nationalsozialismus den „Reichsheini“ machte). Himmlers Geliebte Hedwig Potthast, die er - nach angeblich altgermanischem Brauchtum - als quasi-offizielle „Nebenfrau“ ansah, sprach auch nach dem Krieg noch von ihrem „König Heinrich“. Sein Freund und Chronist Hanns Johst hätte aus den Kriegstaten die „Heinrich-Saga“ zu dichten gehabt. Das ließ verschiedentlich den Eindruck entstehen, Himmler habe sich für eine Reinkarnation des ersten mittelalterlichen Herrschers aus sächsischem Hause gehalten. Himmler hat sich indessen nie selbst so bezeichnet, außer dass sich seine intensive Beschäftigung mit den Ahnen und der Wiedergeburt nachweisen lässt. Einen weiteren auffälligen Niederschlag fanden Himmlers Vorstellungen vom Germanentum in seinen Siedlungsplänen, so in der Terminologie des „Generalplans Ost“: In Anlehnung an das mittelalterliche Lehnswesen werden die künftigen Siedler „Lehnsnehmer“ genannt. Weitere in diesem Zusammenhang verwendete Begriffe sind „Belehnung“, „Lehensfähige“, „Lehenshöfe und -stellen“, „Zeitlehen“, „Erblehen“, „Lehensgerichte“. Das „Lehen“ als zur Nutzung verliehener Besitz geht als Wort auf das Altgermanische zurück und bestimmte seit dem 8. Jahrhundert die feudale Rechts- und Gesellschaftsordnung des Mittelalters. In den verschiedenen Entwürfen ist außerdem von den zu schaffenden Siedlungsgebieten als „Siedlungsmarken“ oder „Reichsmarken“ „an der vordersten Front des deutschen Volkstums gegenüber dem Russen- und Asiatentum“ (Entwurf vom 28. Mai 1942) die Rede, an deren Spitze jeweils ein „Markhauptmann“ zu stehen kommen sollte. Hinter diesen nach außen gekehrten Anleihen beim Germanentum und dem, was Himmler dafür hielt, ging es ihm um weit mehr, nämlich darum, in Anlehnung an Geschichte, Geschichtsmythos, Germanenkult, Sternbeobachtung, Sterndeutung und Wiederverkörperungstheorie ein Welterklärungsmodell zu schaffen, das „tatsächlich ein Religionsersatz“ in Gestalt einer „germanischen Urreligion“ werden sollte. Mit diesen Vorstellungen, bei denen er sich zeitweise vor allem auf den zwielichtigen Karl Maria Wiligut stützte, trat Himmler allerdings nie in die Öffentlichkeit. Spuren werden heute in der Wewelsburg gezeigt, deren Ausbau unter Ausschluss der Öffentlichkeit bis 1964 abgeschlossen sein sollte. In Anlehnung an Nicholas Goodrick-Clarkes Studie über die okkulten Wurzeln des Nationalsozialismus hält Hans Thomas Hakl dazu fest: „[…] bei Himmler, wie bei Hess, Rosenberg oder Darré (auf dessen okkult-völkische Tendenzen nicht so häufig verwiesen wird) gilt jedenfalls immer eines: Der Primat gehört der Politik!“ Siedlungspläne. Dazu plante Himmler „die eroberten Gebiete einem gigantischen Vertreibungs-, Umsiedlungs- und Ausrottungsprogramm zu unterwerfen. In seiner Perspektive war die Ermordung der Juden nur der erste Schritt auf dem Weg zu einer wesentlich breiter angelegten rassistischen ‚Neuordnung‘.“ Dem sollte vor allem die von ihm in Auftrag gegebene Ausarbeitung des Generalplans Ost dienen, dessen Verwirklichung mit einer grenzkolonisatorischen „Germanisierung“ bis zum Ural auf die Zeit nach dem Krieg und dem ins Auge gefassten Sieg verschoben worden war, nachdem erste Siedlungsversuche unter der Leitung seines „Vorpostens im Osten“ (Peter Black), Odilo Globocnik, im Raum Zamość gescheitert waren. Himmler hätte ihn gern im Osten weiter beschäftigt, anstatt ihn auf vielseitiges Drängen zu versetzen, weil er in ihm jemanden sah, der „wie kein zweiter für die Kolonisation des Ostens geschaffen“ sei, wie er in einem Brief an seinen Schwager Richard Wendler am 4. August 1943 schrieb. (Siehe auch: Hungerplan oder Landwirtschaft im Deutschen Reich.) Im Vorfeld des Krieges gegen die Sowjetunion waren die Aufgaben und Vollmachten Himmlers nochmals erheblich erweitert worden. Im Juni 1941, unmittelbar vor dem Russlandfeldzug, bestimmte Himmler in einer Geheimrede vor den SS-Gruppenführern in der Wewelsburg dessen Zweck als Dezimierung der slawischen Bevölkerung um dreißig Millionen. Daraus ergab sich zunächst, dass Einsatzgruppen der Sicherheitspolizei und des SD unter dem Befehl der SS im ersten Kriegssommer fast eine Million Menschen ermordeten. Neben den Einsatzgruppen tat sich dabei die ihnen zeitweise zugeordnete besonders brutale SS-Sondereinheit Dirlewanger hervor, die Himmler auf Anregung des ihm nahestehenden Gottlob Berger Anfang 1940 aus rechtskräftig verurteilten Wilderern hatte aufstellen lassen. Ab Herbst 1940 war sie zunächst im Generalgouvernement im Raum Lublin eingesetzt, 1942 wurde sie nach Weißrussland zur so genannten Partisanenbekämpfung verlegt und war maßgeblich 1944 an der Niederschlagung des Warschauer Aufstandes beteiligt, für dessen schnellstmögliche Beendigung Himmler in einer Rede am 21. September 1944 meinte, selbst die Bezeichnung „eines furchtbaren Barbaren“ zu verdienen: „Ja, das bin ich, wenn es sein muss.“ Denn auch da ging es ihm immer noch um die Verwirklichung seiner Ostvisionen: „Dann aber ist Warschau, die Hauptstadt, der Kopf, die Intelligenz dieses ehemaligen 16-, 17-Millionenvolkes ausgelöscht, dieses Volkes, das uns seit 700 Jahren den Osten blockiert und uns seit der ersten Schlacht bei Tannenberg im Wege liegt. Dann wird das polnische Problem für unsere Kinder und für alle, die nach uns kommen, ja schon für uns kein großes Problem mehr sein.“ Das in seiner Rede von 1938 angekündigte „großgermanische Reich“ sollte seine Grenzen am Ural haben. Noch im August 1944 schwärmte Himmler in Posen vor Gauleitern von „unseren politischen, wirtschaftlichen, menschlichen, militärischen Aufgaben in dem herrlichen Osten“. Bereits als junger Mann hatte er nach einem Vortrag von Rüdiger von der Goltz am 21. November 1921 in sein Tagebuch geschrieben: „Das weiß ich bestimmter jetzt als je, wenn im Osten wieder ein Feldzug ist, so gehe ich mit. Der Osten ist das Wichtigste für uns. Der Westen stirbt leicht. Im Osten müssen wir kämpfen und siedeln.“ „Siedeln“ ist das deutsche Wort für „kolonisieren“. Zu diesem „Siedeln“ gehörte, wie Himmler es in der Beschreibung Odilo Globocniks als eines Kolonisators verdeutlicht, der Völkermord, wie ihn Globocnik in der Aktion Reinhardt vollzog, als Voraussetzung dazu. Während Himmler von der Ermordung der Juden in seinen Posener Reden bereits in der Vergangenheitsform sprach und sie am 5. Mai 1944 in Sonthofen vor Generälen als Teil der „Auseinandersetzung mit Asien“ darstellte, waren längst alle Siedlungsplanungen im Lebensraum im Osten auf eine Zeit nach einem von Himmler immer noch als möglich fantasierten Sieg aufgeschoben, aber in Wirklichkeit im Vernichtungskrieg längst untergegangen. Sorge um den Nachruhm. Frank-Lothar Kroll stellte 1998 fest, dass dem rastlosen Tätigsein Himmlers kein für seine Mitwelt nachvollziehbares Handlungskonzept entsprach: „Seine Weltanschauung hat […] keinen allgemeingültigen Ausdruck gefunden, der es einem größeren zeitgenössischen Publikum ermöglicht hätte, sich mit ihr vertraut zu machen. Ihre offizielle Breitenwirkung war dementsprechend gering, ihre Reichweite begrenzt […].“ Umso eifriger war Himmler darauf bedacht, sein Tun mit Kriegsbeginn von Historikern absegnen, von Chronisten begleiten und aufzeichnen zu lassen. Noch 1939 hatte Albert Brackmann, „höchstrangiger deutscher Historiker“ (Wolfgang J. Mommsen) und „graue Eminenz der Ostforschung“ (Mathias Beer), auf Bestellung Himmlers innerhalb von drei Wochen auf 61 Seiten eine Propagandaschrift abgefasst: "Krisis und Aufbau in Osteuropa. Ein weltgeschichtliches Bild". Darin wird die Aufgabe der Deutschen in Osteuropa als riesiges Kolonisationsprojekt historisch legitimiert, und zwar hauptsächlich durch Verweis auf die im 10. Jahrhundert wirkenden Heinrich I. und seinen Sohn Otto I. Die Wehrmacht setzte es mit 7000 Exemplaren ab 1940 ebenfalls zu Schulungszwecken der Führungskräfte ein. Vor Kriegsbeginn war schon der Schriftsteller, Arzt, Berliner Lehrstuhlinhaber und SS-Mitglied Werner Jansen, der Himmler seit seiner Jugend als Autor von romanhaften Darstellungen germanischer Sagenstoffe begeisterte, an ihn herangetreten, „mich als Ihren Geschichtsschreiber an dem großen Geschehen teilhaben zu lassen“. 1940 wurde er einem „Totenkopf“-Verband zugeteilt, verstarb aber im Dezember 1943 nach längerer Krankheit. An der einzigen SS-Gruppenführertagung, die je auf der Wewelsburg als künftiger ideologischer Zentrale der SS vom 11. bis 15. Juni 1941, also unmittelbar vor Beginn von „Unternehmen Barbarossa“, stattfand und in deren Verlauf Himmler „die Dezimierung der Bevölkerung der slawischen Nachbarländer um 30 Millionen“ ankündigte, nahm auch Hanns Johst, Präsident der Reichsschrifttumskammer, teil. Als Chronist war Johst, der ab Herbst 1944 auch Mitglied in Himmlers „Persönlichem Stab“ war, von Oktober 1939 bis November 1944 immer wieder in Himmlers Feldkommandostelle anwesend, manchmal bis zu drei Monate. Ein erstes Werk in Vorbereitung der nicht mehr zu schreibenden „Heinrich-Saga“ oder „Saga des Großgermanischen Reichs“ hatte er 1940 vorgelegt, nachdem er Himmler im Sonderzug „Heinrich“ ins „Kolonialland“ Polen begleitet hatte: "Ruf des Reiches – Echo des Volkes! Eine Ostfahrt". Im Juni 1941 bemühte sich Himmler außerdem um einen weiteren Autor, nämlich Edwin Erich Dwinger (1898–1981), der die geplanten SS-Unternehmungen im Osten literarisch begleiten und darstellen sollte. Über ihn als Erfolgsschriftsteller hoffte er, allerdings vergeblich, auf eine massenhafte Verbreitung der Schilderung seiner Kriegstaten in Form historischer Romane. Denn Dwinger hatte über seine Kriegserlebnisse im Ersten Weltkrieg und als Kriegsgefangener in Russland einige Bücher und als weiteren Bestseller 1940 "Der Tod in Polen. Die volksdeutsche Passion" über den Bromberger Blutsonntag veröffentlicht und anders als Johst in osteuropäischen Kriegsangelegenheiten bereits Erfahrungen gesammelt. Diese Absichten Himmlers, seine Taten literarisch verherrlichend darstellen zu lassen, entsprechen der Tradition, die nach der Antike auch im Mittelalter zur Abfassung von Epen geführt hatte, nachdem fremde Länder erobert waren und die Kolonisatoren „sozusagen Gründungsurkunden“ brauchten. So hatte auch Widukind von Corvey als der wichtigste Chronist des 10. Jahrhunderts von den ersten beiden sächsischen Herrschern ein rühmendes Bild von ihren Taten gezeichnet. Himmler stellte seine Sichtweise in einer Rede auf der Tagung der Befehlshaber der Kriegsmarine im Dezember 1943 so dar: „[…] die Saga unseres Volkes ist die Geschichte unseres Volkes aus frühester Zeit. Und diese Form der Sage, der Erzählung […] hört das Herz der Menschen […] in Deutschland viel, viel mehr mit feiner Stimme, als die Wissenschaft mit ihrer Lehrhaftigkeit dem Manne oder der Frau beizubringen vermag.“ Dementsprechend bereiteten die "SS-Leithefte" den historischen Stoff in Form von Heldensagen auf, 1937 und 1939 zum Beispiel in Bezug auf Heinrich I. Für seinen Umgang mit den Ottonen und gleichzeitig seine Sichtweise auf das Mittelalter wollte sich Himmler auch wissenschaftlich absichern lassen. So bemühte sich Josef Otto Plassmann, der seit 1928 mit Veröffentlichungen zu Heinrich I. in Erscheinung getreten war und dem „Persönlichen Stab“ Himmlers noch vor Hanns Johst angehörte, Ende der 1930er Jahre um eine Habilitation, mit der er nach Walther Wüst „das Geschichtsbild der Sachsenkaiser auf altgermanischer Grundlage aufbauen, dieses Geschichtsbild so der römischen Geschichtsklitterung endgültig entreißen und damit die Absichten des Reichsführers SS in einer Weise und Stärke mit verwirklichen helfen [wolle], wie sie eindrucksvoller nicht gedacht werden kann“. Die Schrift wurde schließlich nach einigem Zögern von Hermann Schneider im Oktober 1943 in Tübingen angenommen. Während Hitler auf die Verwirklichung seiner Planungen verschiedentlich mit dem Argument drängte, die ihm verbleibende Zeitspanne sei wegen seines Gesundheitszustandes kurz bemessen (vgl. z. B. Hoßbach-Niederschrift), kalkulierte Himmler seit Anfang der 1940er Jahre mit 20 ihm verbleibenden aktiven Jahren. So veranlasste er seinen Generalplaner Konrad Meyer, die Umsetzung des Generalplans Ost von zunächst 30 veranschlagten Jahren auf 25 und schließlich auf 20 Jahre herabzusetzen. Ganz ähnlich waren die Ausbaupläne für die Wewelsburg bis 1964 ausgelegt, wo er sich das Amt eines „Reichsverwesers“ für einen künftigen großgermanischen Wahlkönig und Weltherrscher ausüben sah, während nach Hitlers Visionen Berlin nach den Plänen von Albert Speer zur Welthauptstadt Germania ausgebaut worden wäre. Verfolgung und Vernichtung der europäischen Juden. Himmler war es, der die Vernichtung der europäischen Juden, den Holocaust, ins Werk setzte. Diesem fielen zwischen 5,6 und 6,3 Millionen Menschen zum Opfer. Aber er war nicht allein: Zum einen handelte er im Auftrag Hitlers, zum anderen stand ihm die SS als williges Werkzeug zur Verfügung, und es drängten auch zahlreiche Gauleiter und andere hochrangige Nationalsozialisten. Für Hitler war die Ausrottung des Judentums ein vorrangiges und erklärtes Ziel, so bereits 1924 in seiner Programmschrift Mein Kampf. In seiner Reichstagsrede vom 30. Januar 1939 verkündete er offen: „Wenn es dem internationalen Finanzjudentum in und außerhalb Europas gelingen sollte, die Völker noch einmal in einen Weltkrieg zu stürzen, dann wird das Ergebnis nicht die Bolschewisierung der Erde und damit der Sieg des Judentums sein, sondern die Vernichtung der jüdischen Rasse in Europa!“ Mehrfach kam er auf diesen Ausspruch zurück und bekräftigte ihn damit. Himmler war zwar seit seiner Jugend auch Antisemit, aber Hitlers äußerste Destruktivität war ihm zunächst fremd. In den dreißiger Jahren redete er zwar von einer bevorstehenden Auseinandersetzung mit Bolschewismus und Judentum, aber erwartete diese offensichtlich in einer ferneren Zukunft. Die zunehmend an den Rand der Gesellschaft gedrängten deutschen Juden hielt er anscheinend für ungefährlich. Allerdings sollten diese Deutschland seiner Ansicht nach verlassen. Dies änderte sich im Herbst 1938 mit der Sudetenkrise. In seiner Rede vor den SS-Gruppenführern am 8. November 1938 beschrieb er eine zukünftige Spirale der Vernichtung: Die Verschärfung der deutschen Judenpolitik würde dazu führen, dass die Juden die Deutschen angreifen und ohne Ausnahme ausrotten würden. – Aber zunächst blieb es bei der offiziellen Politik eines verstärkten Drucks zur Auswanderung. Erst im Mai 1941 wurde diese aufgegeben. Nach dem deutschen Einmarsch in Polen im September 1939 dezimierten Reinhard Heydrichs Einsatzgruppen die polnische Elite und brachten auch zahlreiche Juden um. Im Wesentlichen wurde die jüdische Bevölkerung in Ghettos zusammengetrieben und dort je nach Gutdünken der örtlichen Machthaber dem allmählichen Hungertod preisgegeben oder für die Rüstungswirtschaft ausgebeutet. Auch die Juden Deutschlands und aus dem Protektorat Böhmen und Mähren sollten hier in geschlossenen Siedlungsgebieten untergebracht werden. Nach ersten Transporten im Oktober 1939 wurde diese Aktion abgebrochen. Für Himmler als Reichskommissar für die Festigung deutschen Volkstums war es jetzt wichtiger, die von Stalin freigegebenen Volksdeutschen in den annektierten Gebieten, zumal im Warthegau, anzusiedeln. Hierzu ließ er 87.000 nichtjüdische und eine unbekannte Zahl jüdischer Polen unter teilweise schlimmen Umständen abtransportieren. Dies führte zu massiven Störungen, zumal in der Rüstungsproduktion, weswegen Himmler im Februar 1940 darauf verzichten musste, weitere Juden nach Polen zu verbringen. Ende Mai 1940, nach dem deutschen Sieg über Frankreich, machte er den Vorschlag, die Juden im deutschen Machtbereich nach Afrika zu verbringen. Hitler stimmte zu, denn schon 1938 hatte er Madagaskar als jüdische „Strafkolonie“ auserkoren. Im Herbst 1940 mussten diese Pläne aufgegeben werden, denn da die geplante Invasion Englands (Unternehmen Seelöwe) sich als unmöglich erwies, wurde Madagaskar unerreichbar. Vorübergehend wurde nun doch wieder Polen als Ziel der Deportationen angesehen, später aber sollte dieses in neu zu erobernden Gebieten der Sowjetunion liegen. Himmlers Aktionen in diesen ersten beiden Kriegsjahren erscheinen hektisch und wenig planvoll, aber er sah sich stets von Hitler gedeckt: „Ich tue nichts, was der Führer nicht weiß.“ Bei dem deutschen Einmarsch in die Sowjetunion am 22. Juni 1941 (Deutsch-Sowjetischer Krieg) fiel Himmler die Aufgabe zu, die Exponenten des sowjetischen Systems auszuschalten: die politischen Kommissare der Roten Armee, die kommunistischen Funktionäre und die „jüdisch-bolschewistische Intelligenz“. In kurzer Zeit wurde hieraus die systematische Tötung der gesamten jüdischen Bevölkerung, einschließlich der Frauen und Kinder. Bis Ende 1941 brachten Himmlers Einsatzgruppen etwa eine halbe Million Menschen um. Himmler persönlich kümmerte sich intensiv um diese Mordaktionen, ließ sich täglich Bericht erstatten, besuchte wiederholt die Einsatzorte und sah auch Massenerschießungen zu. Aber er stand auch ständig mit Hitler im Kontakt, im ersten Vierteljahr des Feldzuges sah er diesen etwa 26 Mal. Aufzeichnungen über diese Gespräche gibt es nicht, aber man kann annehmen, dass die zunehmende Radikalisierung der Mordaktionen genau Hitlers Vorstellungen entsprach. Die Erschießungsaktionen sah Himmler als schwere psychische Belastung seiner Einsatzgruppen an. Als ihm im Oktober 1941 vorgeschlagen wurde, in Belzec ein Vernichtungslager mit Gaskammern einzurichten, stimmte er sofort zu und ließ gleich weitere errichten. Schon vorher, im September 1941, hatte Hitler befohlen, die Juden aus dem Reich und dem Protektorat bis Ende des Jahres nach Osten zu deportieren. Zu diesem Zeitpunkt war aber die Aufnahme an den Bestimmungsorten nicht geregelt, so dass die Deportationen nach manchen Anläufen abgebrochen werden mussten. Als nach der Wannsee-Konferenz im Frühjahr 1942 alle Einzelheiten „geklärt“ und die Vernichtungslager bereit waren, begann der systematische Abtransport der europäischen Juden. Himmler war also der Organisator der Endlösung. Aber immer wieder berief er sich auf Befehle Hitlers. Allerdings ist nicht anzunehmen, dass es einen expliziten, schriftlichen oder mündlichen derartigen Befehl gegeben hätte. Vielmehr war es offensichtlich Hitler, der einzelne Maßnahmen anordnete oder genehmigte. Diese stellten sich oft als Irrwege heraus und mussten zunächst wieder abgebrochen werden. Erst als den Nationalsozialisten nach ersten Erfahrungen, die sie mit der Vergasung unerwünschter Personen in den „Euthanasie“-Aktionen von 1941 gesammelt hatten, dezentrale Verfahren der arbeitsteiligen und industriemäßigen Tötung zur Verfügung standen, hätte ein derartiger Befehl erteilt werden können, aber dann war dieser nicht mehr nötig. In seinen Posener Reden vom 4. Oktober 1943 vor den SS-Gruppenleitern und am 6. Oktober vor den Gauleitern gab Himmler einen Rückblick auf die inzwischen weitgehend abgeschlossene Judenvernichtung. Auf der einen Seite war er stolz darauf, dass seine SS diesen Auftrag erfüllt hatte. Sie sei, auch im Angesicht hunderter ermordeter Personen, stets „anständig“ geblieben, womit er meinte, dass seine Männer weder „zu roh“, „herzlos“ oder „weich“ geworden, noch „durch[ge]dreh[t] [seien] bis zu Nervenzusammenbrüchen“. Auf der anderen Seite sei dieser Auftrag das „Allerhärteste und Allerschwerste“ gewesen, „was es gibt“. Für ihn selbst sei dies zur „schwersten Frage“ seines Lebens geworden. Deshalb solle dessen Ausführung für die SS ein „niemals zu schreibendes Ruhmesblatt“ bleiben. Alle sollten „das Geheimnis“ mit ins „Grab“ nehmen. – Anders war es bei Hitler: Kurz vor seinem Ende, am 2. April 1945, sah er hierin seine bleibende Leistung: „So gesehen wird man dem Nationalsozialismus ewig dankbar sein, daß ich die Juden aus Deutschland und Mitteleuropa ausgerottet habe.“ Hitler jedenfalls war stolz auf die Judenvernichtung und suchte nicht, diese vor seinem Umkreis zu verbergen. Duldung des Widerstandes. Himmlers Selbstverständnis und Ziel, seit Oktober 1939 abgesichert durch seine Bestellung als „Reichskommissar für die Festigung deutschen Volkstums“, waren gebunden an die bis 1943 vor allem über Odilo Globocnik laufende „Kolonisation im Osten“ zur Erschließung von „Lebensraum“. Mit dem Scheitern der Siedlungsversuche im Anschluss an den „Generalplan Ost“ 1943 in der „Aktion Zamość“ und um sein Hauptquartier Hegewald in Schytomyr stellten sich verstärkt Zweifel am „Endsieg“ ein, wie auch aus einem Austausch mit Joseph Goebbels hervorgeht. Obwohl er unverändert eine der Stützen des NS-Regimes war, suchte er insgeheim nach einer Rolle für sich und die SS in einem Deutschland nach Hitler. Dieses sollte mit den westlichen Alliierten einen Separatfrieden abschließen, den Krieg gegen die Sowjetunion jedoch weiterführen, um deren Vordringen in Europa einzudämmen. Hitler war zu entmachten. Er selbst wollte mit der SS unverändert die innere Ordnung gewährleisten. Ein derartiges Konzept trugen seine Emissäre verschiedenen alliierten Stellen vor: Einer von diesen war der in den Sudeten begüterte Maximilian Egon, Prinz zu Hohenlohe-Langenburg (1897–1968), ein Staatsangehöriger Liechtensteins und damit ein Neutraler. Seine Verbindung zur SS geht aus einer Bescheinigung des Reichssicherheitshauptamtes vom Dezember 1940 hervor. Je nach Situation trat er als Privatmann oder als Abgesandter Himmlers auf. Seine Gesprächspartner waren britische Diplomaten in der Schweiz in den Jahren 1939 bis 1941, der britische Botschafter in Madrid im März 1941, der dortige britische Militärattaché im Mai 1942. Die britische Seite zeigte sich abweisend. Interesse zeigte jedoch der US-Geheimdienst Office of Strategic Services (OSS) in Bern unter der Leitung von Allen Welsh Dulles, mit dem Hohenlohe 1943 mehrfach verhandelte. Ein weiterer Kontaktmann Himmlers war der Berliner Rechtsanwalt Carl Langbehn. Dieser war zwar Mitglied der NSDAP, vertrat aber auch Verfolgte des NS-Regimes. Mit Himmler war er persönlich bekannt und konnte mit diesem die politische Lage in ungewöhnlicher Offenheit diskutieren. Dass Himmler ihn mit Sonderaufgaben betraute, geht aus einem Erlass Reinhard Heydrichs vom 16. Januar 1942 hervor. Langbehn traf sich Ende 1942 in Stockholm mit Professor Bruce Hopper, der für den OSS arbeitete. Auch sprach er mit einem „offiziellen Engländer in Zürich“. Beide Gespräche schienen auf Verhandlungsmöglichkeiten hinzudeuten. Himmler kannte die Widerstandsbewegung um Carl Friedrich Goerdeler und Generaloberst Ludwig Beck und ließ diese gewähren. Offensichtlich wollte er sich mit dem Odium des Umsturzes nicht belasten; den sollte der Widerstand besorgen. Langbehn war aber auch mit den Widerständlern Ulrich von Hassell und Johannes Popitz befreundet. Diese verfolgten ähnliche Gedanken, wenn auch als „Verzweiflungsschritt“: Himmler und die SS sollten einen Umsturz geschehen lassen, damit so der Krieg beendet werden könnte. Dann würde man sich dieser wieder entledigen. Am 26. August 1943 brachte Langbehn Himmler und Popitz zusammen. Himmler hörte sich ruhig an, dass Popitz die militärische Lage für aussichtslos und Hitler als Feldherrn für überfordert hielt. Himmler hielt sich zwar bedeckt, fragte aber dennoch nach den Aussichten für einen Sonderfrieden mit den westlichen Alliierten und wollte das Gespräch fortgesetzt wissen. Kurz darauf, im September 1943, reiste Langbehn nach Bern, um mit dem OSS unter Leitung von Allen Welsh Dulles Kontakt aufzunehmen. Nach seiner Rückkehr berichtete er Himmler. Wahrscheinlich war dies nicht das erste Gespräch Langbehns mit dem OSS. Bereits unter dem Datum vom 15. August 1943, also vor dem Treffen Popitz–Himmler, berichtet Hassell über ein Treffen Langbehns mit einem Amerikaner in der Schweiz. Die Geheime Staatspolizei konnte einen Bericht der Alliierten über das Treffen in Bern auffangen. Damit sah sich Himmler gezwungen, Langbehn fallen zu lassen und ihn zu verhaften. Erst jetzt ließ er sich sein Gespräch mit Popitz von Hitler nachträglich genehmigen. Aber Himmler verschob den Prozess gegen Langbehn um mehr als ein Jahr. Goerdeler, Popitz und Hassell blieben zunächst unbehelligt. Sie wurden nach dem 20. Juli 1944 verhaftet, Goerdeler und Popitz blieben bis Februar 1945 am Leben. Was Himmler hiermit bezweckte, ist nicht bekannt. Der Prozess gegen Langbehn wurde unauffällig in diejenigen gegen die Attentäter vom 20. Juli 1944 eingereiht, die Öffentlichkeit blieb ausgeschlossen. Am 3. Oktober 1944 wurde Carl Langbehn vom Volksgerichtshof unter dessen Präsidenten Roland Freisler zum Tode verurteilt, gefoltert und hingerichtet. Den Kontakt mit dem OSS in Bern aber führte Hohenlohe weiter, der sich bis zum November 1943 mit Dulles traf. Dieser konnte in Washington jedoch keine Unterstützung für Verhandlungen mit Deutschland gewinnen. Bemühen um die Neutralen. Neutrale Vermittler konnten Himmler bei späteren Friedenskontakten von Nutzen sein. So bemühte er sich um den schweizerischen Geheimdienstchef Roger Masson, den einflussreichen schwedischen Bankier Jakob Wallenberg (senior) (1892–1980) und um den schweizerischen Altbundespräsidenten Jean-Marie Musy. Alle diese suchte er sich mit der Freilassung von Häftlingen, einzelnen oder ganzen Gruppen, geneigt zu machen. Mit der Vereinbarung Himmler–Musy wurde erreicht, dass am 7. Februar 1945 1200 Juden aus Theresienstadt in die Schweiz freigelassen wurden. Das war gegen Hitlers Vorstellungen, der schroff derartige Aktionen untersagte. Juden als Tauschobjekt. Am wichtigsten war es Himmler jedoch, hochrangige Vertreter der westlichen Alliierten als Gesprächspartner zu gewinnen. Diese Kontakte suchten seine Mitarbeiter über das Angebot eines Tauschhandels zu knüpfen: Juden sollten gegen eine materielle Gegenleistung – etwa Lastwagen oder Werkzeugmaschinen – freigelassen werden. Soweit war Himmler durch eine Absprache mit Hitler abgedeckt. Darüber hinaus – und hierfür wäre Hitlers Zustimmung nicht zu haben gewesen – wurde gleichzeitig der Wunsch nach geeigneten Vermittlern geäußert. Zum einen geschah dies, als zwei ungarische Juden, Joel Brand und Bandi Grosz, im Mai 1944 nach Istanbul geschickt wurden. Sie boten an, 1 Million Juden gegen 10.000 Lastwagen sowie Konsumgüter zu tauschen. Gleichzeitig sollte aber ein Kontakt zu hochrangigen Offizieren der Alliierten hergestellt werden. Die englische Seite sah in letzterem das Hauptmotiv und lehnte ein derartiges Ansinnen ab. Einen weiteren Versuch unternahm SS-Obersturmbannführer Kurt Becher, gemeinsam mit dem ungarischen Juden Rudolf Kasztner. Diese trafen sich mehrfach an der deutsch-schweizerischen Grenze mit Saly Mayer, dem Vertreter des American Jewish Joint Distribution Committee. Zwar kam auch hier ein Tauschgeschäft nicht zustande, wohl aber endlich ein Kontakt mit einem amerikanischen Funktionsträger, Roswell D. McClelland, dem Repräsentanten des War Refugee Board. Dieser forderte jedoch die bedingungslose Kapitulation Deutschlands. Scheitern an der Front. Himmler übernahm im Januar 1945 den Oberbefehl über die Heeresgruppe Weichsel mit der Aufgabe, den Vormarsch der Roten Armee zu stoppen. Der in der militärischen Praxis völlig unerfahrene Himmler hatte jedoch zur Bewältigung der äußerst schwierigen Lage wenig mehr beizutragen als das Aufsagen von kriegerischen Parolen und das Beschimpfen seiner Untergebenen. Der Generalstabsoffizier Hans-Georg Eismann etwa erinnerte sich, man habe bei den Lagebesprechungen „unwillkürlich den Eindruck [gehabt], dass ein Blinder von der Farbe sprach“. Nach einer Serie von Misserfolgen wurde Himmler im März 1945 von Hitler aufs Schärfste kritisiert und schließlich abberufen. Laut Eismann habe es sich Himmler jedoch nicht nehmen lassen, sich mit einem selbstbeweihräuchernden, „von keinerlei Sachkenntnis getrübten Schwanengesang“ von der Truppe zu verabschieden, der ein hohes Maß an Realitätsverlust offenbart habe. Letzte Verhandlungsversuche. Am 17. Februar 1945 sprach Himmler mit dem schwedischen Grafen Folke Bernadotte, dem Vizepräsidenten des Schwedischen Roten Kreuzes. Dieser konnte einige Häftlingsfreilassungen erreichen. Vor allem durfte er die skandinavischen Häftlinge im Konzentrationslager Neuengamme bei Hamburg zusammenführen und diese auch versorgen. Am 21. April 1945 war Himmler sogar bereit, mit einem Vertreter des Jüdischen Weltkongresses zu sprechen, dem schwedischen Juden Norbert Masur. Er sagte diesem die Freilassung von 1000 Jüdinnen aus dem Konzentrationslager Ravensbrück zu. Am gleichen Tag sprach auch Bernadotte mit Himmler und erreichte die Ausweitung der Zusage auf die Übergabe sämtlicher transportfähiger weiblicher Häftlinge aus diesem Konzentrationslager. Zwei Tage später, in der Nacht vom 23. zum 24. April, traf sich Himmler ein letztes Mal mit Bernadotte. Er gab alle skandinavischen Häftlinge frei, darüber hinaus so viele, wie Bernadotte würde abtransportieren können. Als Gegenleistung sollte dieser einen Kontakt mit Dwight D. Eisenhower herstellen, dem Oberbefehlshaber der alliierten Streitkräfte in Nordwesteuropa. Himmler bot ihm eine einseitige Kapitulation gegenüber den Westmächten an. Damit handelte er, als sei er bereits der Nachfolger des in Berlin eingeschlossenen Hitler. Die Alliierten gaben Himmlers Gesprächsangebot an die Presse. Hitler reagierte mit einem Wutanfall und schloss Himmler aus der NSDAP aus, sowie von allen Partei- und Staatsämtern. Flucht, Gefangennahme und Suizid. a>s der 2. Britischen Armee in Lüneburg. Nachdem Himmlers Versuch, an der Regierung Dönitz in Flensburg-Mürwik beteiligt zu werden, gescheitert war, floh er am 5. Mai 1945 in der Uniform eines Unterscharführers der Geheimen Feldpolizei (GFP). Mit der bedingungslosen Kapitulation der Wehrmacht endete am 8. Mai 1945 der Zweite Weltkrieg in Europa. Die Regierung Dönitz existierte noch und Himmler war noch nicht gefasst worden. Er hatte sich auch Papiere auf den Namen "Heinrich Hitzinger" beschaffen können, der seiner Verkleidung entsprechend ein Angehöriger der Geheimen Feldpolizei sein sollte. Dennoch wurde er am 20. Mai (nach anderen Quellen 22. Mai) von britischen Einheiten in Meinstedt verhaftet, als britischen Militärpolizisten bei einer Kontrolle der neu erscheinende Ausweis auffiel. Laut Aussagen von C. S. M. Austin, einem der sechs Vernehmer, starb Himmler am 23. Mai 1945 im Verhörzimmer in der Uelzener Straße 31a in Lüneburg durch Suizid mit einer in einer Zahnlücke im Unterkiefer versteckten Zyankalikapsel, die er nach Aussage seiner Frau seit dem ersten Kriegsjahr ständig bei sich trug. Sein Leichnam wurde auf dem Standortübungsplatz Wendisch Evern begraben. Die Stelle wurde nicht gekennzeichnet. Forschung. Im Dezember 1945 schrieb Eugen Kogon das Vorwort zu seinem 1946 erschienenen und seither immer wieder aufgelegten Buch '. Himmler erfährt darin folgende Charakteristik: „Brutalität und Romantik. Er konnte sie wie Tag- und Nachthemden wechseln: – man denke an die mitternächtlichen SS-Fahnenjunker-Weihen im Dom zu Quedlinburg, wo Himmler vor den (übrigens unechten, aber kurzerhand für echt erklärten) Gebeinen Heinrichs I., des Begründers der mittelalterlichen deutschen Ostmacht, die Mystik der ‚verschworenen Gemeinschaft‘ zu entfalten pflegte, um dann, bei strahlendem Tagesgestirn, in irgendeinem Konzentrationslager der reihenweisen Auspeitschung politischer Gefangener beizuwohnen. Von der Symbolik des Sonnenrades führte der Hakenkreuzweg geradlinig zu den glühenden Öfen von Auschwitz.“ Hannah Arendt äußerte sich über Himmler in ihrem zuerst 1951 auf Englisch erschienenen politischem Hauptwerk "Elemente und Ursprünge totaler Herrschaft": „Himmler, der nach 1936 potentiell mächtigste Mann Deutschlands, gehörte weder zu den ‚bewaffneten Bohemiens‘ (K. Heiden) noch eigentlich zum Pöbel. Der Organisator der Vernichtungsfabriken war ‚normaler‘ als irgendeiner der ursprünglichen Führer der Nazibewegung, war ein Spießer und weder ein verkommener Intellektueller wie Goebbels noch ein Scharlatan wie Rosenberg, noch ein Sexualverbrecher wie Streicher, noch ein hysterischer Fanatiker wie Hitler, noch ein Abenteurer wie Göring.“ Joachim C. Fest unterstellte Himmler 1974 zur Erklärung seines politischen Aufstiegs ein Denken, das „von so suggestiver Dürftigkeit und gedanklicher Armut Ausdruck romantischer Verstiegenheit“ war, nämlich „die Verlängerung einer von Indianern und Operngermanen geprägten Kindheitserfahrung in die Politik“. Gleichzeitig sprach er von dessen „paternalische[r] Autorität“, dem „‚König Heinrich‘, wie ihn einige seiner Unterführer in Anspielung auf seinen Reinkarnationsspleen […] mit einigem Respekt nannten“. Peter Longerich kommt 2008 in der ersten, umfangreichen wissenschaftlichen Himmler-Biographie zu dem Ergebnis, dass Himmler sich „eine ganz auf seine Person abgestellte und durch seine spezifischen Vorlieben und Eigenheiten bestimmte Machtposition“ schuf, die sich „als ein extremes Beispiel nahezu totaler Personalisierung politischer Macht“ beschreiben lasse: „Die charismatische Führerherrschaft, die Recht- und Regellosigkeit dieses Herrschaftssystems, der permanente Zwang, Machtstrukturen an veränderte politische Zielsetzungen anzupassen, hatten zur Folge, dass große Teile des Herrschaftsapparates durch dezidiert auf bestimmte Personen zugeschnittene Aufträge zwar unmittelbar an den ‚Führer‘ gebunden waren, diese Vertrauten aber zur Ausführung ihrer Aufträge über extrem große Handlungsspielräume verfügten.“ Karl-Günter Zelle sieht dagegen Himmlers Handeln als von Widersprüchen geprägt: Auf der einen Seite war er Hitlers treuer und hocheffizienter Gefolgsmann, der sich seine Leistungen für das Dritte Reich fast bis zum Schluss mit einer ständig zunehmenden Machtfülle belohnen ließ. Auf der anderen zweifelte er früher als andere an der siegreichen Beendigung des Krieges und suchte für sich persönlich einen Ausweg aus der Niederlage: In einem Deutschland nach Hitler wollte er mit seiner SS unverändert die innere Sicherheit garantieren. Den Widerstand kannte er und gedachte, Hitler durch diesen beseitigen zu lassen. Die westlichen Alliierten sollten in Geheimkontakten für seinen Plan gewonnen werden. Dass diese mit ihm als dem Organisator millionenfacher Vernichtung sprechen würden, war seine größte Illusion. Belletristik. 1944 stellte Curzio Malaparte im 16. Kapitel unter der Überschrift „Nackte Männer“ seines Romans "Kaputt" eine Begegnung mit Himmler 1942 in Finnland dar, und zwar zunächst im Fahrstuhl des Hotels „Pohjanhovi“ in der von deutschen Truppen besetzten lappländischen Hauptstadt Rovaniemi und später in einer Sauna im Hauptquartier des Oberkommandos der Nordfront bei General Eduard Dietl. Er erinnert den Erzähler an Igor Strawinsky, hat „kurzsichtige Fischaugen, die hinter zwei dicken Gläsern weiß schimmerten wie hinter einer Aquariumswand“. In einer Unterhaltung wird darüber gesprochen, ob man ihn sich auf einem Gemälde eher „mit dem Evangelium in der rechten Hand und dem Gebetbuch in der Linken“ oder mit einer Pistole und einer Peitsche vorstellen könnte. In der Sauna scheint es dem Erzähler, „als löse sich dieser Mann vor unseren Augen im Wasser auf, ich fürchtete, dass binnen kurzem von ihm nichts weiter übrigbleiben werde als eine leere und schlaffe Hauthülle“. Bei Alfred Andersch ging es 1980 in seiner Erzählung "Der Vater eines Mörders" um den Charakter von Himmlers Vater, indem er an dessen Wesen den Konflikt Autorität und Humanismus verdeutlicht. Im selben Jahr erschien "Earthly Powers" (dt. "Der Fürst der Phantome") des englischen Romanciers und Satirikers Anthony Burgess. Hier rettet der homosexuelle Protagonist unfreiwillig Himmler das Leben und wird dafür von den Nationalsozialisten als Held gefeiert. Auch in Jonathan Littells Roman "Die Wohlgesinnten" (dt. 2008) begegnet ein Homosexueller, der SS-Offizier Max Aue, Himmler wiederholt persönlich. Dabei werden sowohl ausführliche Original-Zitate von ihm als auch fiktive Ratschläge wiedergegeben, wie etwa der an Aue, er solle möglichst viele Kinder zeugen: „Warum nicht über die Institution Lebensborn, Obersturmbannführer!“ Hermann Weyl. Hermann Klaus Hugo Weyl (* 9. November 1885 in Elmshorn; † 8. Dezember 1955 in Zürich) war ein deutscher Mathematiker, Physiker und Philosoph, der wegen seines breiten Interessensgebiets von der Zahlentheorie bis zur theoretischen Physik und Philosophie als einer der letzten mathematischen Universalisten gilt. Leben. Weyl besuchte das Gymnasium Christianeum in Altona. Auf Empfehlung des Direktors, der ein Cousin David Hilberts war und den die Begabung des Jungen beeindruckte, begann Weyl nach seinem Abitur 1904 in Göttingen bei Hilbert Mathematik und nebenbei auch Physik zu studieren. Er belegte zudem Kurse in Philosophie bei Edmund Husserl, wobei er seine spätere Frau Helene kennenlernte. Bis auf ein Jahr 1905 in München studierte er in Göttingen, wo er 1908 bei David Hilbert mit der Arbeit „Singuläre Integralgleichungen mit besonderer Berücksichtigung des Fourierschen Integraltheorems“ promovierte, sich 1910 habilitierte und bis 1913 als Privatdozent lehrte. 1913 heiratete er Helene Joseph aus Ribnitz, die später viele Werke des spanischen Philosophen José Ortega y Gasset übersetzte. Mit ihr hatte er zwei Söhne. Im gleichen Jahr erhielt er eine Professur für den Lehrstuhl der Geometrie an der Eidgenössisch Technischen Hochschule Zürich, wo er Albert Einstein kennenlernte, der zu jener Zeit (1916–1918) gerade seine Allgemeine Relativitätstheorie entwickelte, was Weyl zur intensiven Beschäftigung mit den mathematischen Grundlagen der Allgemeinen Relativitätstheorie und deren möglichen Erweiterungen (etwa zur Berücksichtigung der Elektrodynamik und eines Eichparameters), insbesondere aber mit der zugrunde liegenden Differentialgeometrie anregte. 1918 veröffentlichte er eines der ersten Lehrbücher der Allgemeinen Relativitätstheorie (neben Lehrbüchern von Max von Laue und Arthur Eddington), "Raum, Zeit, Materie". Einen Ruf nach Göttingen, die Nachfolge von Felix Klein anzutreten, schlug er aus. Erst 1930, nachdem Hilberts Lehrstuhl verwaist war, nahm er an: Hilberts Nachfolger zu werden, war für ihn eine Ehre, die er nicht ablehnen konnte. Jedoch fiel ihm der Wechsel von Zürich nach Göttingen nicht leicht, da er die politische Radikalisierung und den Aufstieg des Nationalsozialismus in der Weimarer Republik mit Besorgnis sah, wie er 1930 in einer Ansprache vor der Göttinger Mathematischen Verbindung zum Ausdruck brachte: „"Nur mit einiger Beklemmung finde ich mich aus ihrer [der traditionell demokratischen Schweiz] freieren und entspannteren Atmosphäre zurück in das gähnende, umdüsterte und verkrampfte Deutschland der Gegenwart."“ Zeit seines Lebens fühlte er sich demokratischen Idealen verpflichtet, und 1933 sah er sich außerstande, im von den Nationalsozialisten beherrschten Deutschland zu lehren, zumal seine Frau Jüdin war. In seinem aus Zürich am 9. Oktober 1933 abgeschickten Entlassungsgesuch an den neuen nationalsozialistischen Unterrichtsminister Bernhard Rust schrieb er: „"Daß ich in Göttingen fehl am Platze bin, ist mir sehr bald aufgegangen, als ich im Herbst 1930 nach 17-jähriger Tätigkeit an der Eidgenössischen Technischen Hochschule Zürich dorthin als Nachfolger von Hilbert übersiedelte."“ Durch Vermittlung von Albert Einstein nahm er eine Stellung am Institute for Advanced Study in Princeton an, wo er bis 1951 wirkte. In Princeton starb 1948 seine Frau Helene, und er heiratete 1950 die Bildhauerin Ellen Bär aus Zürich, von der die Hermann-Weyl-Büste stammt, die in den Universitäten von Princeton, Zürich und Kiel zu seinem Gedenken steht. Seine letzten Lebensjahre verbrachte er vorwiegend in Zürich. 1955 erhielt er die Ehrenbürgerwürde seiner Geburtsstadt Elmshorn, kurz darauf verstarb er unerwartet in Zürich aufgrund eines Herzanfalls, den er beim Versenden von Post an einem Briefkasten erlitt. Weyl hieß bei engen Freunden Peter Weyl, zum Beispiel unter den Schrödingers. In Zürich hatte er ein Verhältnis mit Erwin Schrödingers Frau Anny, was an der Freundschaft mit Schrödinger nichts änderte, da die Schrödingers in offener Beziehung lebten. Weyls Ehefrau Helene (genannt Hella) wiederum hatte in dieser Zeit eine offene Beziehung mit Paul Scherrer. Werk. Weyl hat sich mit vielen Gebieten der Mathematik beschäftigt und schrieb mehrere Bücher und über 200 Zeitschriftenartikel. Er begann als Analytiker, entsprechend den Interessen der Hilbertschule am Anfang des 20. Jahrhunderts (Integralgleichungen, Spektraltheorie), und habilitierte 1910 über singuläre Differentialgleichungen und ihre Entwicklung in Eigenfunktionen, die unter anderem in der mathematischen Physik wichtig sind (später „Spektraltheorie selbstadjungierter Operatoren“ genannt). 1915 (Rendicondi Circolo Mathematico di Palermo) bestimmte er die asymptotische Verteilung der Eigenwerte der Laplacegleichung und zeigte, dass der erste Term proportional dem Volumen ist, was die Physiker (unter anderem Hendrik Antoon Lorentz) bei der Untersuchung der Hohlraumstrahlung, die die ersten Zusammenhänge zwischen Quantenmechanik und klassischer Theorie lieferte, schon vermutet hatten. Andere Parameter außer dem Volumen spielen keine Rolle. Die allgemeine Frage, ob man aus dem Spektrum (den Eigenschwingungen) auf die geometrische Form eines Gebietes schließen kann, popularisierte Mark Kac in seinem Aufsatz „Can one hear the shape of a drum?“ (American Mathematical Monthly 1966). Weniger bekannt ist, dass Weyl seinen Zürcher Kollegen Erwin Schrödinger nicht unwesentlich bei dessen grundlegenden Aufsatz zur quantentheoretischen Wellenmechanik unterstützte, indem er ihm den Weg zur Lösung der Schrödingergleichung beim Wasserstoffatom wies. 1913 veröffentlichte er das Buch "Die Idee der Riemannschen Fläche", in dem die vorher eher heuristisch eingebrachten topologischen Methoden strenger behandelt wurden und das moderne Konzept der Mannigfaltigkeiten erstmals systematisch eingesetzt wurde. Seit seinem Buch über die Allgemeine Relativitätstheorie war Weyl an Verbindungen zur Physik stark interessiert. Er formulierte die zugrundeliegende Differentialgeometrie allgemeiner und flexibler unter Einführung eines affinen Zusammenhangs. In "Raum, Zeit, Materie" und in seinem Aufsatz "Gravitation und Elektrizität" von 1918 führt er erstmals das Konzept einer Eichtheorie ein, jedoch zunächst nicht in der heutigen Form, sondern durch einen lokal veränderlichen Skalenfaktor. Die Idee dahinter war, dass bei Paralleltransport eines Vektors längs einer geschlossenen Kurve nicht nur die Richtung verändert wird (was durch die Krümmung ausgedrückt wird), sondern auch die Länge veränderlich sein konnte. Er hoffte so die Elektrodynamik in die Theorie einzubinden. Als die Elektrodynamik umfassende Erweiterung der Theorie wurde sie schnell von Einstein als den Experimenten widersprechend verworfen. Das Buch "Raum, Zeit, Materie" entwickelt systematisch den Riccischen Tensorkalkül und benutzt die Parallelverschiebung (von Levi-Civita eingeführt) von Vektoren als fundamentalen Begriff. Weyl ist der Begründer der Eichtheorien im heutigen Sinn, in einer Arbeit von 1929, mit Eichtransformationen als Phasenfaktoren der quantenmechanischen Wellenfunktionen. Die Analyse von Riemanns und Helmholtz' Ideen zu den Raumformen, die unter „vernünftigen“ physikalischen Voraussetzungen möglich sind, griff Weyl in seinen spanischen Vorlesungen "Die mathematische Analyse des Raumproblems" 1920 auf. Dies führte ihn zu Anwendungen der Gruppentheorie, aus der sich seine Beschäftigung mit kontinuierlichen Gruppen entwickelte (Lie-Gruppen). Seine wichtigsten Arbeiten (Mathematische Zeitschrift Bd. 23, 24, 1925/1926) sind vielleicht in der Theorie der Lie-Gruppen zu sehen, deren Darstellungstheorie er untersucht, wobei er globale Konzepte wie Mannigfaltigkeiten einbringt, statt der bis dahin überwiegenden lokalen Aspekte der Lie-Algebra. Beispielsweise erklärte er erstmals die Spinoren aus der Topologie der Drehgruppe. Außerdem schlägt er hier eine Verbindung zu den Methoden der von Frobenius und Schur entwickelten Darstellungstheorie endlicher Matrixgruppen vor. Weyl gibt eine allgemeine Formel („Weyl-Charakterformel“) für die Charaktere der irreduziblen Darstellungen halbeinfacher Lie-Gruppen, indem er die schon von Cartan und Wilhelm Killing untersuchten Lie-Algebren mit Spiegelungsgruppen, den Weyl-Gruppen, untersucht. Ein weiteres wichtiges Resultat seiner Arbeit ist der Satz von Peter-Weyl (Mathematische Annalen 1927), den er zusammen mit seinem Studenten Fritz Peter (1899–1949) formulierte. Sind Sinus und Kosinus orthogonale Funktionensysteme in Bezug auf die Translationsgruppe in einer Dimension, so gibt es solche für allgemeine kompakte Lie-Gruppen G (bei denen ein invariantes (Haar-)Maß als Integral über die Gruppenelemente definiert werden kann). In diesem Funktionenraum, einem Hilbertraum, sind nach dem Peter-Weyl-Theorem die Darstellungen der Gruppe G durch irreduzible Darstellungen der unitären Gruppe gegeben. In "Gruppentheorie und Quantenmechanik" gab er 1928 (etwas vor den Büchern von Bartel Leendert van der Waerden und Eugene Wigner) eine Darstellung der gruppentheoretischen Aspekte (und allgemein der mathematischen Aspekte) der Quantenmechanik, speziell der Darstellungstheorie der unitären und orthogonalen Gruppen (die wiederum nach Schur mit denen der symmetrischen Gruppe zusammenhängen). Im Buch "The classical groups" von 1939 erweiterte er dies auf alle klassischen Gruppen und schuf die Verbindung zur klassischen Invariantentheorie, einem wichtigen Teil der Algebra des 19. Jahrhunderts. Zusammen mit seinem Sohn Fritz Joachim Weyl veröffentlichte er 1943 das Buch "Meromorphic functions and analytic curves", in dem die Nevanlinnasche Wertverteilungstheorie meromorpher Funktionen auf analytische Kurven verallgemeinert wird. Seit seinem Studium bei Hilbert war Weyl an Zahlentheorie interessiert (nach eigener Angabe verbrachte er mit dem Studium von Hilberts "Zahlbericht" in den Semesterferien die glücklichsten Monate seines Lebens). Beispielsweise veröffentlichte er in den Mathematischen Annalen 1916 einen Aufsatz über analytische Zahlentheorie „Gleichverteilung der Zahlen mod 1“. Darin zeigte er, dass die Nachkommastellen der Vielfachen einer irrationalen Zahl nicht nur im Intervall [0,1] dicht liegen, wie Kronecker bewies, sondern gleichverteilt sind. Sie lassen sich also gut als Zufallszahlen verwenden. Seine philosophischen Interessen, die sich schon in Büchern wie "Raum, Zeit, Materie" zeigten, ließen ihn in den 1920er Jahren auf Seiten der Intuitionisten auf Seiten Brouwers gegen die Formalisten der Hilbert-Schule Partei ergreifen. Die reinen Intuitionisten erkennen nur konstruktive Schlussweisen in endlich vielen Schritten an (und keine solchen Objekte, deren Existenz unter Verwendung des Auswahlaxioms bewiesen wird), die mit einem Computer ausführbar wären. In späteren Jahren ist Weyl zu einer ausgewogeneren Sichtweise der Mathematik zwischen konstruktiven und axiomatischen Methoden gelangt. Seine ältere Auffassung aus den unruhigen Jahren nach dem Ersten Weltkrieg ist z. B. in "Über die neue Grundlagenkrise der Mathematik" (Math. Zeitschrift 1921) dargestellt, seine reifere Philosophie in dem Buch "Philosophie der Mathematik und der Naturwissenschaften". Im Buch "Symmetrie" gibt er eine populäre Darstellung des Gruppenkonzepts, von Schneekristallen, Ornamenten (Gruppen aus ebenen Translationen und Spiegelungen/Drehungen) bis zur Symmetrie von Gleichungen unter Vertauschung der Wurzeln (Galoistheorie). Hermann August Korff. Hermann August Korff (* 3. April 1882 in Bremen; † 11. Juli 1963 in Leipzig) war ein deutscher Germanist und Literaturhistoriker. Leben. Korff studierte von 1902 bis 1906 Germanistik, Geschichte und Philosophie an der Rheinischen Friedrich-Wilhelms-Universität Bonn und der Ruprecht-Karls-Universität Heidelberg. Im Jahr 1907 wurde er in Heidelberg mit der Dissertation "Scott und Alexis. Eine Studie zur Technik des Romans" zum Dr. phil. promoviert. 1913 folgte seine Habilitation "Voltaire als klassizistischer Autor im literarischen Deutschland des 18. Jahrhunderts" an der Akademie für Sozial- und Handelswissenschaften in Frankfurt am Main. Von 1914 bis 1921 war er Privatdozent für Neuere Deutsche Literatur an der Johann Wolfgang Goethe-Universität Frankfurt am Main. 1921 wurde er außerplanmäßiger Professor in Frankfurt, 1923 ordentlicher Professor an der Justus-Liebig-Universität Gießen und 1925 ordentlicher Professor an der Universität Leipzig. Im Jahr 1954 wurde er emeritiert. Er war Mitglied der Sächsischen Akademie der Wissenschaften zu Leipzig. Sein wichtigstes Werk ist "Geist der Goethezeit". In dem vierbändigen Werk fasst er das Ende des 18. und den Anfang des 19. Jahrhunderts als eine im deutschsprachigen Raum einheitliche Epoche auf, die in Hegel ihre philosophische und in Goethe ihre poetische Ausprägung habe. Korffs Enkel ist der Oboenvirtuose Burkhard Glaetzner (* 1943). Helgoland. Helgoland, auch Deät Lun (Helgoländer Friesisch „Das Land“,) genannt, ist eine Nordseeinsel in der Deutschen Bucht. Die ursprünglich größere Insel zerbrach 1721; seitdem existiert die als "Düne" bezeichnete Nebeninsel. Die Inselgruppe "Helgoland" und "Düne" gehört seit 1890 zum deutschen Staatsgebiet und ist heute als amtsfreie Gemeinde Helgoland in den Kreis Pinneberg (Schleswig-Holstein) integriert. Für das vierzig Kilometer vom Festland entfernte Helgoland gelten Sonderregelungen: Die Gemeinde ist zwar Teil des deutschen Wirtschaftsgebiets, zählt aber weder zum Zollgebiet der Europäischen Union, noch werden deutsche Verbrauchssteuern erhoben. Zur Einwohnerzahl machen verschiedene Quellen unterschiedliche Angaben: Das Statistische Amt für Hamburg und Schleswig-Holstein nennt zwei Zahlen: 1144 (März 2012, Fortschreibung auf Basis der Volkszählung 1987) und 1370 (31. Dezember 2012, Fortschreibung auf Basis des Zensus 2011); laut Gemeindeverwaltung sind es rund 1500. Geographie. Hauptinsel "Helgoland" (vorne) und die "Düne" im Luftbild Wegen seiner Lage auf offener See wird Helgoland häufig als „einzige Hochseeinsel Deutschlands“ bezeichnet. Doch weder im geographischen Sinn noch im rechtlichen Sinn (in Bezug auf das heutige Recht) liegt die Insel im Bereich der hohen See. Trotz einer Entfernung von über 40 km vom Festland und den nächstgelegenen Inseln Scharhörn und Wangerooge zählt die Insel zusammen mit der gesamten Deutschen Bucht zum Bereich des Festlandsockels und damit (im Gegensatz etwa zu Madeira im Atlantik) nicht zum Tiefsee-Bereich auf hoher See. Die seit 1995 gültige 12-Meilen-Zone des Festlands bzw. der vorgelagerten Inseln überschneidet sich mit derjenigen um Helgoland, so dass kein internationales Gewässer die Insel vom Festland trennt. Geographische Lage. Helgoland, dessen Hauptinsel zusammen mit der Nebeninsel Düne eine Gemeinde im Kreis Pinneberg in Schleswig-Holstein bildet, stellt innerhalb der Deutschen Bucht die nordwestliche Begrenzung der Helgoländer Bucht dar. Die Landfläche besteht aus der rund 1 km² großen Hauptinsel sowie der etwa 0,7 km² großen Insel Düne und liegt etwa 67 Kilometer südwestlich der Südspitze der Insel Sylt, 47 Kilometer westlich der Westküste der Halbinsel Eiderstedt, 62 Kilometer nordwestlich der Elbemündung, 57 Kilometer nordwestlich der niedersächsischen Küste bei Cuxhaven, 43 Kilometer nördlich von Wangerooge, 70 Kilometer nordöstlich von Norderney und 95 Kilometer nordöstlich von Borkum. Die Lage von Helgoland im geographischen Koordinatensystem (WGS 84) ist 54° 11' nördliche Breite und 7° 53' östliche Länge. Die Hauptinsel. Blick von der Nordspitze 1826 Die Hauptinsel gliedert sich dem Relief folgend in Oberland, Mittelland und Unterland. Sie besitzt im Süden neben der Landungsbrücke einen kleinen Sand-Badestrand und fällt im Norden, Westen und Südwesten in steilen Klippen gut 50 Meter zum Meer hin ab, das im südwestlich gelegenen "Helgoländer Becken" bis zu 56 m tief ist. Der Strand im Norden ist wegen der starken Strömung nicht zum Baden geeignet. Am Nordwestende der Hauptinsel befindet sich das bekannteste Wahrzeichen Helgolands – die Felsnadel Lange Anna. Die ganze Oberfläche des Oberlands wurde durch die Sprengung der Bunkeranlagen 1947 und die anschließende Bombardierung geformt. Düne. Die Nebeninsel Düne befindet sich jenseits der kleinen Meeresstraße "Reede", die in "Nordreede" und "Südreede" unterteilt wird, knapp einen Kilometer östlich der helgoländischen Hauptinsel. Sie wird als Badeinsel bzw. als eine flache "Strandinsel" bezeichnet und war bis zu einer Sturmflut 1721 mit Helgoland durch einen Naturdamm verbunden. Auf ihr ist auch der kleine Helgoländer Flugplatz neben dem Campingplatz und einem alten sowie neuen Bungalowdorf angelegt. Klima. Auf Helgoland herrscht typisches Seeklima mit ganzjährigen Niederschlägen und nur geringen tageszeitlichen Temperaturschwankungen. Die Luft ist nahezu pollenfrei und damit ideal für Allergiker. Die Insel hat mit durchschnittlich 2 °C das wintermildeste Klima Deutschlands; Wintertiefsttemperaturen unter −5 °C sind selten. Die vom Golfstrom erwärmte Nordsee mit rund 5 °C Wassertemperatur wirkt dabei als Wärmespeicher. Die kalten Nordost- bzw. Ostwinde aus Russland werden abgeschwächt, die Wintertemperaturen können bis zu 10 °C höher als zum Beispiel in Hamburg liegen. Es gibt jedoch häufig Nebel und nur wenig Sonnenschein im Winter; Schnee fällt selten. Der Frühling beginnt erst spät; das heißt, die Temperaturen steigen meist erst ab Mai deutlich an. Im Sommer liegen dann die Temperaturen um 20 °C oder knapp darunter, während es nachts mit 13 bis 14 °C nur kaum kühler ist. Dazu kommen regelmäßige Niederschläge mit abwechselndem Sonnenschein. Die Wassertemperaturen der Nordsee steigen bis zum August auf 16 bis 17 °C. 1962 nahm eine Dauermessstation vor Helgoland den Betrieb auf; sie misst Wassertemperatur, Salzgehalt und andere Parameter. Seit Beginn ihrer Arbeit stieg die durchschnittliche Wassertemperatur um 1,7 Grad. Der Herbst beginnt im September, ist oft noch recht warm und dauert länger; er ist die feuchteste Zeit des Jahres. Das bedeutet, es ist mit Werten um 10 °C mild und regnet an etwa 15 bis 20 Tagen pro Monat. Die Jahresdurchschnittstemperatur liegt bei 9 °C, die jährlichen Niederschläge bei etwa 700 mm. Die Extremwerte liegen bei −11,2 °C im Februar 1956 und +28,7 °C im Juli 1994. Helgoland weist insgesamt mehr Sonnenstunden auf als das deutsche Festland. Schon Anfang des 20. Jahrhunderts standen stattliche regelmäßig fruchtende Feigenbäume auf der Insel. Noch heute steht aus dieser Zeit im Oberland ein sehr alter Maulbeerbaum. Auspflanzversuche mit Hanfpalmen, Honigpalmen und anderen Palmen sowie weiteren auf dem deutschen Festland nicht oder nur bedingt winterharten subtropischen Pflanzen (Lorbeer, Yucca, Cordyline, Steineiche und andere) seit den 1980er Jahren sind teilweise erfolgreich verlaufen. Zechsteinmeer im ausgehenden Erdaltertum. Die geologisch relevante Geschichte der Entstehung Helgolands begann vor etwa 260 Millionen Jahren im geologischen Zeitalter des Perm im ausgehenden Erdaltertum. Im beginnenden Zechstein, der zweiten Abteilung des Perm, kam es auf dem Urkontinent Pangaea zu Meereseinbrüchen in Europa und Amerika und so zum Vordringen des Meeres im Gebiet des heutigen Mitteleuropa. Die Region Helgolands lag in diesem Zechstein-Meer, im so genannten Elbe-Trog. Auf Grund des ariden Klimas verdampfte das Wasser jedoch mit der Zeit wieder und hinterließ Kalke, Dolomite, Anhydrite und Salze als Verdunstungsrückstände, so genannte Evaporite, die im norddeutschen Raum als Zechstein-Sedimente untersucht und bestimmt worden sind. Ein bedeutender paläontologischer Fund war 1910 die 51,5 cm große Kopfplatte eines "Capitosaurus helgolandiae" (Schröder), einer urtümlichen Amphibie aus der Gruppe der Temnospondyli. Das Gewicht des in der mittleren Trias, vor rund 245 Millionen Jahren, lebenden Tieres ist nicht bekannt. Seine Augen waren klein und saßen hoch am Kopf. Sein Lebensraum waren periodisch trockenfallende Flussdeltas und Gewässer, die es in dieser Zeit im Gebiet der heutigen Nordsee gab. Gesteinsbildung im Erdmittelalter. Helgoland auf einer Postkarte, ca. 1890 bis 1900 Im frühen Erdmittelalter fanden die für Helgoland wichtigsten gesteinsbildenden Prozesse statt. Das zu Beginn der Trias herrschende tropische und subtropische Klima dominierte die Verwitterung der variskischen Gebirge im umgebenden Festland. Das Klima begünstigt eine lateritische Verwitterung, die im Endprodukt hohe Eisen- und Aluminium­gehalte vorweist. Die Oxidation dieser Verwitterungsprodukte führt zu einer starken Rotfärbung der typischen Buntsandstein-Sedimente in Mitteleuropa. Die grünen Bänder des Felsens zeigen heute das abgelagerte Kupfer. Im Buntsandstein wurden große Mengen des Verwitterungsmaterials aus den Hochländern abgetragen und in tiefer liegenden Regionen sedimentiert. Im Gebiet Helgolands haben diese Ablagerungen eine Mächtigkeit von mehr als 1000 Metern. Sie bilden den sichtbaren Teil der heutigen Felseninsel. Auch in der folgenden erdgeschichtlichen Abteilung des Muschelkalk war das Gebiet Helgolands Sedimentationsgebiet. Die Ablagerungen aus dieser Zeit haben eine Mächtigkeit von mehr als 300 Metern. Eine große Zahl von Fossilienfunden belegt zudem die günstigen Lebensbedingungen zu dieser Zeit. So fand man verschiedene Fische, Meeressaurier, Muscheln und Schnecken. Auch aus der vor 140 Millionen Jahren beginnenden Kreidezeit sind im Helgoländer Raum Sedimentschichten zu finden. In dieser Zeit war der gesamte Nordseeraum Meeresgebiet. Im marinen Bereich bildete sich unter warmen und feuchten Klimabedingungen eine reichhaltige Flora und Fauna, so dass die Kreideschichten heute äußerst fossilienreich sind. Salz-Aufstieg im Tertiär. Die große Mächtigkeit der Sedimentschichten im Nordseeraum – auch schon im Mesozoikum – ist auch darin begründet, dass der Nordseeraum Senkungsgebiet war. Somit konnten selbst in den flacheren Meeren des Buntsandstein und Tertiär diese Senkungsgebiete immer wieder von dem aus den Gebirgen verfrachteten Verwitterungsmaterial aufgefüllt werden. Unter dem Druck des auflagernden Materials verfestigten sich die darunterliegenden Schichten zunehmend. Im direkten Zusammenhang mit dieser Verfestigung und somit der Zunahme der Dichte sowie des Drucks auf die unteren Schichten ist auch die Heraushebung des Helgoländer Buntsandsteinfelsens zu sehen. Im Laufe der Zeit lagerten sich über den permischen Salzgesteinen im Erdmittelalter die Schichten des Trias, der Kreide sowie des Tertiär ab. Jede neue Sedimentationsschicht hatte auch zur Folge, dass die jeweils unterlagernden Sedimente sich durch die Last der darüberlagernden Sedimente weiter verfestigten und verdichteten. a>)" bei Niedrigwasser nahe der Langen Anna Die untenliegenden Salzgesteine lassen sich jedoch nur bis zu einer Dichte von maximal 2,2 g/cm³ verdichten. Da mit zunehmender Tiefe infolge des zunehmenden Druckes sich die Dichte einer Schicht erhöht, kam es im Bereich der Zechsteinsalze zu einer Dichteanomalie. Das Salzgestein reagierte plastisch auf den immer stärkeren Druck und neigte dazu, bevorzugt an Schwächezonen wie Verwerfungen aufzusteigen, um so zu einer Druckentlastung zu gelangen. Beim Aufstieg werden aber auch die aufliegenden Schichten mitgehoben. Man spricht bei diesem Phänomen von einem Salzkissen, in dessen Scheitelbereich Helgoland sich befindet. Die Aufwölbung des Buntsandsteins sowie der weiteren Schichten durch den Aufstieg des Salzes (Salztektonik) wird auch in der heutigen tektonischen Struktur Helgolands sichtbar. Der Scheitel der Salzstruktur verläuft von Nordnordwest nach Südsüdost. Dies gibt die Streichrichtung der auflagernden Deckschichten an, die an den Abrasions-Plattformen im nördlichen Felswatt zu erkennen sind. Die Schichten sind bei der Aufwölbung gekippt worden, so dass heute eine Neigung der Buntsandsteinfelsen von circa 17 bis 20 Grad zu erkennen ist. Somit finden wir an der Westseite Helgolands nach oben zeigende Schichten, während die Schichten an der Ostseite nach unten zeigen. Überprägung der neuentstandenen Felseninsel im Quartär. Ausgangspunkt der Überprägung im Quartär ist die Abkühlung des Klimas im ausgehenden Tertiär. Drei große Vereisungsperioden haben bis in den nordmitteleuropäischen Raum zu einer starken Veränderung der Landschaft geführt. Bei allen drei Eiszeiten war das Gebiet zwischen England und Dänemark trocken; eine Nordsee existierte aufgrund des niedrigen Meeresspiegels (ca. 120–150 m unter heutigem Meeresniveau) nicht. Während der Elstereiszeit (vor etwa 480.000 bis 300.000 Jahren) und der Saaleeiszeit (vor etwa 280.000 bis 130.000 Jahren) erfasste die Vergletscherung auch Helgoland, wovon abgelagerte Geschiebelehme und Findlinge bis heute zeugen. Das Vordringen des Eises dürfte in dieser Zeit auch zu einer starken Abtragung der gehobenen und gekippten Schichten bis hin zu einer Freilegung der Salzstruktur im Bereich des westlich vorgelagerten "Görtels" geführt haben. Beide Eiszeiten hinterließen alluviale Anlagerungen bzw. Aufschüttungen und Endmoränen. Während der letzten Eiszeit, der Weichsel-Kaltzeit (von vor etwa 115.000 bis 11.700 Jahren), war die Landfläche zwischen England, den Niederlanden, Deutschland und Dänemark weitestgehend eisfrei. Der Eisrand hat Helgoland nicht erreicht. Am Ende des Pleistozäns und Beginn des Holozäns stieg weltweit der Meeresspiegel wieder stark an; die Nordsee bildete sich wieder (Regression). Vor etwa 8000 Jahren gab es kurz nacheinander zwei Großereignisse: die Storegga-Rutschung vor Norwegen, die einen gigantischen Tsunami auslöste, und das Abschmelzen des nordamerikanischen Eisschildes bzw. der plötzliche Durchbruch der Schmelzwassermassen zum Atlantik, der neben einer weltweiten Meeresspiegelerhöhung auch wohl wieder mit einem Tsunami einherging. Beide Ereignisse führten in kürzester Zeit dazu, dass glaziale Ablagerungen auch oberhalb des damaligen Meeresspiegels abgetragen wurden, und die Inselbildungen setzten ein. Die Regression der Nordsee war weitestgehend erfolgt. Helgoland widerstand einer schnellen Abtragung durch das Meer. Es bestand möglicherweise auch noch über eine längere Zeit eine Landbrücke zur heutigen Halbinsel Eiderstedt. Die heutige Tiefenlinie von 12–15 m weist auf eine frühere Verbindung hin. Wann die Inselbildung einsetzte und wie sie ablief, lässt sich nicht präzise sagen. Diese Landbrücke wird heute als teilweise spekulativ gesehen. Auch der weitere Verlauf der Inselveränderung und -verkleinerung in geschichtlicher Zeit bis ins 16. Jahrhundert, als die ersten einigermaßen brauchbaren und zuverlässigen Karten gezeichnet wurden, lässt sich nicht genau nachzeichnen. Die früher unter anderem in einigen Schulatlanten dargestellte rasch abnehmende Fläche seit dem Frühmittelalter gilt heute als möglich, aber nicht gesichert. Die Felsformationen der Insel Helgoland wurden 2006 in die Liste der 77 ausgezeichneten Nationalen Geotope aufgenommen. Natürliche Veränderungen. Die hauptsächlichen gestaltenden natürlichen Kräfte, die auf die Felseninsel einwirken, sind die Verwitterung sowie die Abrasion durch die Meeresbrandung. Insgesamt sind 15 einige Meter tiefe Brandungshöhlen erfasst. Bei der Verwitterung ist besonders das kühle Winterklima von Bedeutung. Die Kälte fördert die physikalische Verwitterung des Gesteins. Die Frosteinwirkung zerklüftet und zersprengt das Gestein und fördert Gesteinsschutt als Verwitterungsrest zu Tage, der am Fuß der Klippen angelagert wird. Hierbei wird das Kliff langsam zurückgedrängt und so die Insel verkleinert. Typisch für Helgoland war hierbei auch die Entstehung von Felsvorsprüngen (Hörner) mit dazwischenliegenden Buchten (Slaps). Im Laufe der Zeit und unter weiterem Meeres- und Wettereinfluss können diese Vorsprünge von Brandungstoren durchbrochen werden, die beim Einsturz der Bogenverbindung einzelne Felstürme („Stacks“) hinterlassen. Der Hengst, heute als Lange Anna bezeichnet, ist mit einer Höhe von gut 48 m ein derartiger Stack und der einzige, der sich bis heute gehalten hat. Veränderungen von Menschenhand. Die ersten menschlichen Eingriffe auf Helgoland bestanden in der Gewinnung von Rohstoffen. Sehr spekulativ ist die Annahme einer Veränderung durch vorgeschichtlichen Kupferabbau, da dieser nicht nachweisbar ist. Von Bedeutung war ab dem Mittelalter der Muschelkalk- und Gips­abbau am damaligen Wittekliff. Dieser Abbau trug zu einer raschen Zerstörung der Steilfelsen bei, die schließlich so instabil waren, dass sie der Neujahrsflut 1721 nicht mehr standhalten konnten. Weitere Rohstoffprospektionen blieben erfolglos, so dass über die Vorkommen fossiler Brennstoffe im Bereich Helgolands bislang keine weiteren Angaben getroffen werden können. Schutzmaßnahmen veränderten die Gestalt der Insel weiter: Bis zum Beginn des 20. Jahrhunderts war die Felseninsel ungeschützt und hatte durch Abrasion und Verwitterung jährlich einen hohen Flächenverlust zu verzeichnen. Zum Ende des 19. Jahrhunderts begannen im Zuge einer zunehmenden Bebauung Planungen für einen wirksamen Brandungs- und Sturmflutschutz. Vorangetrieben wurden diese Planungen durch eine starke militärische Nutzung der Insel. So begann bereits im Jahre 1903 der Bau einer Schutzmauer auf der stärker witterungs- und brandungsgefährdeten Westseite, die 1927 fertig gestellt war. Im weiteren Verlauf (→ Projekt Hummerschere) wurden auch der Norden und der Osten der Hauptinsel sowie die Düne in die Schutz- und Ausbaumaßnahmen einbezogen, die die Grundlage für die Schaffung des Nordost-Geländes und die stete Vergrößerung der Helgoländer Düne waren. Vor der weiter voranschreitenden Verwitterung können jedoch auch die Schutzmauern nicht schützen. Davon zeugt der Verwitterungsschutt am Sockel der Kliffküsten, der stellenweise schon bis an die Schutzmauern angelagert ist. Wurde dieser früher noch von den Sturmfluten fortgetragen, so staut er sich heute an den Ufermauern. Infolge dieser Entwicklung wird Helgoland zwar nicht mehr flächenmäßig kleiner, doch nun droht es auf lange Sicht unter den Schuttkegeln der Verwitterung, die sich langsam begrünen, zu versinken. Der letzte bedeutende und bis heute markante Eingriff in die Gestalt der Insel fand während und nach dem Zweiten Weltkrieg statt: Am 18. April 1945 war der damalige U-Boot-Stützpunkt Ziel eines massiven Luftangriffs der Royal Air Force (RAF). Die Bebauung der Insel wurde vollständig zerstört. Die RAF nutzte die Insel in den Folgejahren als Übungsziel. Von den Bombardierungen zeugen die Bombenkrater im heutigen Oberland. Zwei Jahre später, am 18. April 1947, sollten in einer Sprengung sämtliche militärischen Anlagen auf und unter der Insel sowie alte Munitions­bestände vernichtet werden, um so eine weitere Nutzung Helgolands aus militärischer Sicht unmöglich zu machen. Die Sprengung von rund 6700 Tonnen Munition erschütterte die Insel mit ihrem Sockel bis in eine Tiefe von mehreren Kilometern und führte zu einer dauerhaften Veränderung ihres Aussehens. (Siehe auch: Nach dem Zweiten Weltkrieg) Felswatt und Tangwälder. Das Felswatt des Helgoländer Felssockels (Naturschutzgebiet) ist ein für Deutschland einzigartiger Lebensraum, der von über 300 Algenarten besiedelt wird. In der Spritzwasserzone leben Kleiner Röhrentang und Purpurtange, in der oberen Gezeitenzone folgt Spiraltang, während das Felswatt von Blasentang, Sägetang und Meersalat bedeckt wird. Unterhalb der Niedrigwasserlinie gedeihen Tangwälder aus Fingertang, Zuckertang und Palmentang, welcher bis zu einer Tiefe von 8 m unter der Niedrigwassergrenze vordringt (siehe Liste der Meeresalgen von Helgoland). Vegetation von Insel und Düne. Am Fuße der Klippen befinden sich Spülsäume und Fragmente von Salzwiesen mit typischen Salzpflanzen wie Portulak-Keilmelde, Strand-Melde, Strand-Beifuß, Wilde Rübe und Salz-Schuppenmiere. An der Steilküste wachsen die Wildform des Gemüsekohls (von den Helgoländern Klippenkohl genannt), Strand-Grasnelke, Strand-Wegerich und Dänisches Löffelkraut. Das Oberland ist von Grünland bedeckt. Es gibt dichte Bestände von Pfeilkresse. Wegen des starken Seewinds kommen Gehölze nur in der Mulde des Fanggartens der Vogelwarte sowie gepflanzt im Mittelland vor. Der Großteil der Düne besteht aus Graudünen und Weißdünen sowie Gebüsch aus Sanddorn oder Silber-Ölweide. Auf der Aade im Südosten der Düne wird der Spülsaum von Kali-Salzkraut, Meersenf und Salzmiere besiedelt. Vögel. Auf den Felsbändern des Lummenfelsen brüten dichtgedrängt Trottellumme, Dreizehenmöwe, Silbermöwe, Tordalk, Eissturmvogel und seit 1991 auch der Basstölpel. Während des Vogelzugs im Frühling und Herbst nutzen Scharen von Zugvögeln die Insel als Rastplatz und werden in der Vogelwarte Helgoland beringt und erfasst. Helgoland gehört zu den Orten in Europa, an denen besonders viele Vogelarten nachgewiesen wurden, bis 1985 waren es bereits über 370 Arten. Seitdem sind immer wieder neue Erstnachweise von Vogelarten gelungen. Die Insel ist mit 432 nachgewiesenen Arten nun vermutlich der "„artenreichste Ort“" in Europa. (Stand: Juni 2014) Jährlich werden rund 240 verschiedene Vogelarten registriert. Regelmäßig werden dabei Seltenheiten beobachtet, weswegen die Insel ganzjährig von Vogelbeobachtern besucht wird, vor allem zu den Zugzeiten im Herbst und Frühjahr, wenn vermehrt mit Nachweisen gerechnet werden kann. Neben außergewöhnlichen Seltenheiten wie dem Rubinkehlchen oder dem Kronenlaubsänger lassen sich alljährlich Arten wie die Krähenscharbe oder seltene Laubsänger wie der Gelbbrauen-Laubsänger beobachten. Im Herbst werden – vor allem nach Stürmen aus Nordwest – Hochseevögel gesichtet, die sonst die deutsche Bucht meiden. Zuletzt sind 2014 zwei neue Arten hinzugekommen: Der Wüstengimpel (Heimat: Nordafrika bis Asien) und – besonders von den Medien beachtet – Ende Mai der Schwarzbrauenalbatros (Heimat: u. a. Falklandinseln). Schutzgebiete. Die Meeresgebiete, die direkt nordwestlich über westlich bis südlich der Hauptinsel Helgoland liegen, und jene, die sich unmittelbar nordnordwestlich über östlich bis südlich der Nebeninsel Düne befinden, bilden das Naturschutzgebiet (NSG) Helgoländer Felssockel (CDDA-Nr. 30101; 1981 ausgewiesen; 53,4783 km² groß); beide Inseln gehören, abgesehen von ein paar Felsen der Steilküste der Hauptinsel, nicht zu den durch einen schmalen Meereskorridor voneinander getrennten NSG-Bereichen. Flächenmäßig ähnlich geformt ist das Fauna-Flora-Habitat-Gebiet "Helgoland mit Helgoländer Felssockel" (FFH-Nr. 1813-391; 55,09 km²); es schließt Inselkleinteile – wie einige Felsen der vorgenannten Steilküste – mit ein. Beide Schutzgebiete liegen im Vogelschutzgebiet (VSG) "Seevogelschutzgebiet Helgoland" (VSG-Nr. 1813-491; 1.613,33 km²); beide Inseln zählen, abgesehen von ein paar Felsen dieser Steilküste, nicht zu dem VSG-Bereichen. Im Steilküstenbereich (Hauptinsel) befindet sich das NSG "Lummenfelsen der Insel Helgoland" (CDDA-Nr. 82122; 1964; 0,86 ha). Forschungsgeschichte. Oben Mejers Karte von 1652 mit fünf (Grab-)Hügeln auf dem Oberland, unten Mejers Vorstellung eines alten Helgolands Zur Vorgeschichte Helgolands werden seit vielen Jahrhunderten Thesen aufgestellt. Im Barock wurde zunächst eine frühere Größe der Insel postuliert. Hintergrund dieser Thesen war das Interesse des dänischen Königs, die Zugehörigkeit der Insel zu Schleswig zu beweisen. Johannes Mejer zeichnete 1652 die Karte eines großen Helgolands, die oft widerlegt und oft wieder verteidigt wurde. Die Insel wurde schon 1631 von Johann Isaak Pontanus als Herthainsel, als germanisches Zentralheiligtum, angesehen. Dazu kamen schon in dieser Zeit Überlegungen, Helgoland als die antike Bernsteininsel zu sehen. Zu Grabungen kam es erst in der Zeit des Tourismus. Zwei Grabhügel wurden 1845 und 1893 durch interessierte Laien freigelegt. Die Funde wurden in dieser Zeit nicht in eine Theorie einer großen Bedeutsamkeit der Insel in vorgeschichtlicher Zeit eingeordnet. Sie wurden in den Museen vergessen oder gingen verloren. Emphatisch wurde die Vorgeschichte wieder in der völkischen Bewegung betrachtet, zum Beispiel von Heinrich Pudor. Nach der Sprengung von Bunkeranlagen auf Helgoland wurde in den 1950er Jahren in Aufnahme völkischer Ideen von Jürgen Spanuth die Insel mit Atlantis gleichgesetzt. Grabungen auf der Insel waren nun nicht mehr denkbar. Zu neuen wichtigen Funden ist es nie gekommen. Trotz der nun äußerst prekären Quellenlage werden weiter Theorien gerade von archäologischen Laien mit großer Emphase aufgenommen und entwickelt. Dazu gehört die noch heute diskutierte und nicht durch Funde belegbare Theorie eines bronzezeitlichen Kupferabbaus. Die These eines Handels mit Helgoländer rotem Feuerstein scheint durch Funde auf dem Festland belegbar zu sein, auch sie wird besonders von Laien gerne unterstützt. Alte Theorien, die schon im 19. Jahrhundert oft widerlegt wurden, wurden immer wieder neu aufgenommen, so etwa von Heike Grahn-Hoek (siehe Abschnitt Literatur). Repräsentant einer kritischen Tradition ist heute Albert Panten; im 19. Jahrhundert waren es unter anderen Johann Martin Lappenberg, Friedrich Oetker und Ernst Tittel. Sachlich und nüchterner schrieb der Archäologe Claus Ahrens. Vorgeschichtliche Funde. Auf Helgoland konnten im 19. Jahrhundert vier Hügel identifiziert werden, von denen drei eindeutig Hügelgräber aus der Bronzezeit waren. Im 17. Jahrhundert waren noch acht namentlich bekannt. Claus Ahrens vermutet, dass es in dieser Zeit aber insgesamt noch dreizehn Hügel gab. Auch weitere kann man vermuten, die auf Teilen des Oberlandes standen, die schon in den Jahrhunderten davor durch Felsabbruch verloren gingen. Am Moderberg wurde 1845 durch den Seebadgründer Jacob Andresen Siemens ein Steinkistengrab ergraben; von den Funden gibt es heute keine Spur in den Museen. Ob auf dem Flaggenberg ein Grabhügel war, ist nicht gesichert. Der Kleine Berg (nicht auf der Mejerschen Karte, aber südlich des Bredebergs mit der alten Feuerblüse) wurde von Otto Olshausen ausgegraben. Er fand hier die Steinkiste von Helgoland, die seit 2009 wieder im Museum für Vor- und Frühgeschichte, einem Teil des Neuen Museums, in Berlin ausgestellt ist. Eine Replik befindet sich vor dem Museum Helgoland. Die letzten Hügel sind alle durch die Festungsarbeiten der kaiserlichen Marine verschwunden. Auch durch diese Arbeiten kam es zu einigen Zufallsfunden, die Ahrens in seinem Aufsatz beschreibt. Nach ihm wurden zuletzt noch 1961 im Bauschutt in der Nähe der Vogelwarte vorgeschichtliche Funde gemacht. Für die Diskussion wichtig sind auch die Funde aus Helgoländer Feuerstein auf dem angrenzenden Festland. Bis zu 300 km im heutigen Binnenland von Deutschland, den Niederlanden und Dänemark finden sich Artefakte aus dem roten Feuerstein von Helgoland. Wohn- oder Rastplätze der frühen Kulturen mit Fundstücken auf dem Festland konnten altersmäßig zugeordnet werden. Die Funde von Kupferscheiben hingegen stammen unumstritten aus dem Mittelalter. Ergebnisse. Im Mesolithikum, der Mittelsteinzeit, etwa vor 11.600 Jahren bis 7.500 Jahren, wurde Helgoland langsam durch den Meeresanstieg zur Insel (siehe Doggerland). Genauer ist dies nicht zu formulieren. Dabei könnte in der südlichen Nordsee eine Vielzahl von großen und kleinen Inseln entstanden sein, die untereinander, aber auch vom Festland, erreichbar gewesen sein könnten. Die meisten dieser Inseln wären dann bei weiter steigendem Meeresspiegel untergegangen. Durch die Funde liegt eine vorgeschichtliche Besiedlung der Insel seit dem Neolithikum, der Jungsteinzeit, nahe. Ob die Besiedlung ununterbrochen war, ist allerdings nicht beweisbar. Das Neolithikum ist gekennzeichnet durch den Übergang auf sesshafte Besiedlungsformen. Es wurden Plankenboote entwickelt, die gerudert wurden und bei entsprechender Wetterlage den Verkehr zwischen dem Festland und der Insel ermöglichten. Wenn man der These von der Einmaligkeit des Helgoländer Feuersteins folgt, kann man auch für diese Zeit einen lebhaften Warenaustausch bzw. Handel mit Halbfertig- und Fertigprodukten aus Helgoländer Feuerstein vermuten. Seit der Zeit der Trichterbecherkultur im Mittelneolithikum (dem mittleren Abschnitt der Jungsteinzeit) und „im Laufe der Bronzezeit bis in die mittlere Vorrömische Eisenzeit wurden in großem Umfang Artefakte aus Helgoländer Feuerstein hergestellt und von der Insel exportiert“, berichtet der Archäologe Jaap Beuker. Die These der Einmaligkeit des roten Feuersteins wird aber auch kritisiert. Zusätzlich wird auch heute noch die Insel allein durch das sichtbare Kupfervorkommen als Zentrum für Kupferabbau, auch als Bernsteininsel und zentrales germanisches Heiligtum vorgestellt. In seriösen Aufsätzen wird dabei immer der Konjunktiv benutzt – es gibt wenige Indizien (Funde). Antike. Aus der Antike sind nur wenige Nachrichten über Nordeuropa überliefert worden. Aber in der Naturgeschichte Plinius des Älteren wird mehrfach der heute nicht mehr erhaltene Reisebericht des Pytheas von Massilia (325 v. Chr.) zitiert. Eine Textstelle wird von manchen Autoren auf Helgoland bezogen, was allerdings sehr umstritten ist. Der Naturforscher Ernst Hallier vermutete, dass der nordfriesische Name der Insel Helgoland, "Hall-Lunn", auf die Urform "Hallig"-Land zurückgeht, die sich später zu „Heiligland“ und schließlich zu Helgoland entwickelt hat. Ein wissenschaftlicher Herleitungsversuch geht davon aus, dass im 16. Jahrhundert aufgrund einer Vermutung von Gelehrten, die in Heiligland einen Bezug zum Personnamen Helgi/Helgo zu erkennen glaubten, eine Umbenennung in Helgoland vorgenommen wurde. Mittelalter. a> bei der Überfahrt nach Helgoland; Buchmalerei aus der "Vita secunda Liudgeri" (11. Jh.) Seit dem 7. Jahrhundert ist Helgoland von Friesen bewohnt. 700 gab es einen Bericht über einen Aufenthalt des Friesenherrschers Radbod auf Helgoland in der Heiligenlegende des Bischofs Willibrord von Utrecht, in der er über die friesische Gottheit Fosite berichtet. Willibrord versuchte zwischen 690 und 714 vergeblich, die Helgoländer Friesen zu missionieren. Die Christianisierung gelang erst 100 Jahre später durch Bischof Liudger von Münster, der alle Heiligtümer Fosites vernichten ließ und den Helgoländer Häuptlingssohn Landicius zum Priester weihte. Damit fanden auch die anderen Insulaner zum Christentum. So wurde Helgoland früher als angrenzende Regionen missioniert. Kunde vom frühmittelalterlichen Heiligland gibt auch Adam von Bremen in seinen "res gestae" (Tatenbericht) aus dem Jahre 1076. In den Scholien dazu wird der frühere Name unter Bezug auf Willibrord als „Fosetisland“, der aktuelle Name aber als „Farria“ bezeichnet. Häufig wird Helgoland auch mit der Piraterie in Verbindung gebracht. Es ist anzunehmen, dass Klaus Störtebeker und die Likedeeler die Insel als Stützpunkt nutzten, bis ein Hamburger Flottenverband 1401 in einer Seeschlacht in der Nähe von Helgoland Störtebeker gefangennehmen konnte. Ob dieser die Insel je betreten hat, ist jedoch nicht belegt. Eine schriftliche Quelle aus der Hanse­zeit berichtet von dem Verlust einer Schiffsladung Kupfer bei Helgoland. Kupferscheiben der Ladung wurden noch nach dem Zweiten Weltkrieg in der Nähe der Insel gefunden und in das Mittelalter datiert. Im Rahmen einer Analyse von 1978 wurde vermutet, dass das Kupfer von Helgoland stammt, was zu vielen Theorien (siehe "Vorgeschichte") führte. Eine weitere Analyse von 1999 legte das Gegenteil nahe. Helgoland war im Spätmittelalter als Fanggebiet von Heringen bekannt. Wie das übrige Nordfriesland stand Helgoland im 12. und 13. Jahrhundert unter der dänischen Krone und galt ab dem 14. Jahrhundert als dänisch, wurde aber bei der Landteilung 1544 per Losentscheid dem Herzog von Schleswig-Holstein-Gottorf zugesprochen. Bis 1713/21 gehörte die Insel zu den gottorfschen Anteilen im Herzogtum Schleswig. Es hatte den Status einer Landschaft mit einem hohen Grad an Selbstverwaltung. Frühe Neuzeit. Als das Teilherzogtum Schleswig-Holstein-Gottorf nach dem Großen Nordischen Krieg 1713 und endgültig 1721 auf seine holsteinischen Landesteile reduziert wurde und auf die schleswigschen Besitzungen verzichten musste, wurde Helgoland Bestandteil eines weitgehend einheitlichen Herzogtums Schleswig unter der dänischen Krone. Die Neujahrsflut 1721 zerstörte den Woal, die Landzunge zwischen dem roten Buntsandsteinfelsen der Hauptinsel und dem östlich gelegenen "Witte Kliff", einem Kalkfelsen, dessen Abtragung durch die Nordsee aufgrund des dort bis ins 17. Jahrhundert betriebenen Steinbruchs beschleunigt wurde. Über den verbliebenen Klippen bildete sich die für den heutigen Badebetrieb wichtige Düneninsel. Während der Kontinentalsperre – 1806 von Napoleon gegen das Vereinigte Königreich verfügt – entwickelte sich Helgoland zu einem lebhaften Schmuggel­platz. Kronkolonie Londons. Im Jahre 1806 rief der französische Kaiser Napoleon Bonaparte, unmittelbar nach der Niederlage seiner Flotte gegen Admiral Nelsons britische Armada bei Trafalgar, die Kontinentalsperre aus und blockierte damit den Verkehr zwischen England und dem europäischen Festland. In London befürchtete man, dass sich sie zu dieser Zeit bedeutende Seemacht Dänemark mit Frankreich verbünden könnte, um die Blockade weiter zu intensivieren. Die Dänen herrschten zu dieser Zeit über das Herzogtum Schleswig, und somit auch über Helgoland. 1807 besetzten britische Truppen die Insel und gliederten sie als Kolonie in das Vereinigte Königreich Großbritannien und Irland ein, sie stießen bei den dänischen Verteidigern auf wenig Widerstand. Auch nach der britischen Landnahme sprachen Bewohner Helgolands mach wie vor Deutsch und zahlten mit Mark oder Thalern. Die Insel wurde zu einem Militärgebiet, Kaufläden wurden von Kasernen verdrängt, der Handel mit dem Festland, auch der Krabben- und Fischfang versiegte, die Inselbwohner verarmten und hungerten. Nach dem Ende der mit napoleonischen Herrschaft und der Kontinentalsperre war 1814 die kurze Glanzzeit Helgolands vorbei, damit auch die einträglichen Schmuggeltouren und das süße Leben. Wie andere ostfriesische Inseln galt es nun neue Einnahmequelle zu schaffen, um als Seebad wohlhabende Urlauber anzulocken. Im Kieler Frieden vom 14. Januar 1814 verblieb Helgoland bei den Briten. Charles Hamilton war bis 1817 Gouverneur. Jacob Andresen Siemens gründete 1826 das Seebad Helgoland. Es kamen viele Schriftsteller und Intellektuelle auf die Insel. Der Verleger Julius Campe machte regelmäßig auf der Insel Sommerurlaub. Heinrich Heine rühmte die Insel – ein erotisches Abenteuer mit einer verheirateten Dame führte fast zum Duell. Franz Liszt erlebte mit Fürstin Carolyne zu Sayn-Wittgenstein seine ersten intimen Tage. Ludolf Wienbarg schrieb auf der Insel im Jahre 1838 sein "Tagebuch von Helgoland". Der Dichter Hoffmann von Fallersleben dichtete während eines Ferienaufenthalts auf Helgoland am 26. August 1841 das Lied der Deutschen auf die von Joseph Haydn 1797 komponierte Hymne für den römisch-deutschen Kaiser. In der Helgoländer Urschrift gab es eine Variante zur dritten Strophe: "Stoßet an und ruft einstimmig: Hoch das deutsche Vaterland!", zurückgehend auf ein überliefertes „fröhliches Besäufnis“. Mitte des 19. Jahrhunderts erreichte die Popularität der Insel als Reiseziel einen frühen Höhepunkt. Vor Helgoland kam es trotz der britischen Präsenz zu deutsch-dänischen Seegefechten, 1849 mit Schiffen der Reichsflotte, 1864 durch die Seestreitkräfte Preußens und Österreichs. Die Bedeutung Helgoland wuchs zunehmend mit dem geplanten Bau des Nord-Ostsee-Kanals, der Reichskanzler Otto von Bismarck suchte daher nach Möglichkeiten, die Insel dem Deutschen Reich einzuverleiben. Bereits nach dem Deutsch-Französischen Krieg 1870/71 plante er einen Tausch mit einer Kolonie, die von den besiegten Franzosen zu dem Zweck konfiszieren wollte. Übergang von Großbritannien an Deutschland. Der 1903 neu errichtete Leuchtturm (rechts) neben seinem Vorgänger, der kurze Zeit später abgetragen wurde Helgoland, Treppe zum Oberland, ca. 1932 1890 ging Helgoland durch den Vertrag zwischen Deutschland und England über die Kolonien und Helgoland an Preußen. Es wurde in den Kreis Süderdithmarschen in der Provinz Schleswig-Holstein eingegliedert. Durch den umgangssprachlichen Namen des Vertragswerks („Helgoland-Sansibar-Vertrag“) wurde der falsche Eindruck erweckt, es habe sich um einen "Tausch" von Sansibar gegen Helgoland gehandelt. Kritiker sprachen von einem „Tausch Hose gegen Hosenknopf“ und warfen Reichskanzler Caprivi vor, nach wirtschaftlichen wie kolonialpolitischen Gesichtspunkten gescheitert zu sein. Die Helgoländer selbst wurden nicht nach ihrer Meinung gefragt. Schon bald änderten sich ihre Lebensverhältnisse, da immer größere Teile ihrer Insel zu einer Seefestung ausgebaut wurden. Kaiser Wilhelm II. ließ Helgoland, das nahe der Mündung des damals neuerstellten, wirtschaftlich und strategisch wichtigen Kaiser-Wilhelm-Kanals (heute: Nord-Ostsee-Kanal) liegt, zu einem Marinestützpunkt ausbauen. Zum Ausbau zählten Stollen im Fels für ein Lazarett, Munitionslager und eine Kaserne. Anton Bruckner komponierte im Jahre 1893 "Helgoland" für Männerchor und Orchester auf einen Text von August Silberstein. In den Jahren 1901 und 1902 unternahm die Malerin Elisabeth Reuter aus Lübeck eine Studienreise auf die Insel. Während ihres Aufenthaltes besaß sie dort ein eigenes Atelier. Vor dem Flottenmanöver des Kaisermanövers von 1904 fand die Flottenparade vor der Insel statt. In den Gewässern Helgolands fanden während des Ersten Weltkriegs 1914 das erste Seegefecht bei Helgoland und 1917 das zweite Seegefecht bei Helgoland statt. Die Insel wurde kurz nach Kriegsausbruch evakuiert und die Bevölkerung konnte erst 1918 wieder zurückkehren. Die militärischen Anlagen wurden zurückgebaut, aber nicht zerstört und ab 1935 im Zuge der vom NSDAP-Regime betriebenen Aufrüstung der Wehrmacht erneut ausgebaut. Im Jahr 1925 zählte Helgoland 2576 Einwohner, davon 2380 Evangelische, 148 Katholiken, 4 „sonstige Christen“ und 4 Juden. Zweiter Weltkrieg. Trichter einer 5-Tonnen-Bombe auf dem Oberland Eine militärische Funktion hatte die Seefestung Helgoland auch noch im Zweiten Weltkrieg, obwohl das Projekt Hummerschere, durch welches ab 1938 ein riesiger Marinehafen entstehen sollte, 1941 abgebrochen wurde. Vollendet und einsatzfähig waren der U-Boot-Bunker Nordsee III im Südhafen (ab Januar 1942, jedoch nur bis März 1942 durch U-Boote benutzt), Marineartillerie-Batterien (größtes Kaliber 30,5 cm), ein Luftschutzbunker-System mit umfangreichen Bunkerstollen und der Flugplatz mit der Luftwaffen-Jagdstaffel Helgoland (April–Oktober 1943). Unklar sind Art, Größe und Zweck des Komplexes im Süden der Insel, der den größten Sprengungskrater von mehr als 100 Metern Durchmesser hinterlassen hat. Die endgültige gesamte Länge der Tunnelanlagen wurde auf über 8 Meilen (12,9 km) geschätzt. Beim Bau der militärischen Anlagen wurden auch Zwangsarbeiter eingesetzt, unter anderem aus der Sowjetunion. Am 3. Dezember 1939 erfolgte der erste Bombenangriff der Alliierten, es handelte sich um einen erfolglosen Angriff von 24 Wellington-Bombern der RAF-Squadrons 38, 115 und 149 gegen deutsche Kriegsschiffe, die bei Helgoland lagen. Die britische Marine verlor binnen weniger Tage drei U-Boote bei Helgoland: am 6. Januar 1940 die HMS Undine, am 7. Januar 1940 die HMS Seahorse und am 9. Januar 1940 die HMS Starfish. Die Insel war im Zweiten Weltkrieg zunächst kaum von Bombardierungen betroffen, was die geringe militärische Bedeutung zeigt, die vor allem die Briten ihr noch beimaßen. Durch die Entwicklung der Luftwaffe hatten Inseln ihre strategische Bedeutung weitgehend verloren. Der auf der Düne errichtete Flugplatz war für eine ernsthafte Kriegsnutzung zu klein und verwundbar. Die zur Abwehr alliierter Bombenangriffe zeitweise eingesetzte "Jagdstaffel Helgoland" war mit einer seltenen, ursprünglich für den Einsatz von Flugzeugträgern aus konzipierten Version des Jagdflugzeugs Messerschmitt Bf 109 ausgerüstet. Kurz vor dem Kriegsende 1945, als die Briten schon vor Bremen standen, gelang es dem aus Süddeutschland stammenden Dachdeckermeister Georg E. Braun und dem Helgoländer Erich P. J. Friedrichs, auf der vom Militär kontrollierten Insel eine Widerstandsgruppe zu bilden. Ihnen war klar, dass der Zweite Weltkrieg nicht mehr zu gewinnen war; so wollten sie versuchen, Helgoland vor der völligen Zerstörung durch die Alliierten zu bewahren. Bei Georg Braun auf dem Oberland trafen sich hauptsächlich Offiziere und Soldaten der in der Nähe liegenden Batterien "Falm" und "Jacobsen". Treffpunkt im Unterland war Erich Friedrichs’ Gastwirtschaft "Das Friesenhaus". Dort fanden sich hauptsächlich Helgoländer und Zivilisten vom Festland ein. Nie trafen sie sich in größeren Gruppen, sondern kamen immer wie zufällig vorbei, um Informationen auszutauschen. Während die Militärgruppe um Georg Braun die Pläne für eine kampflose Übergabe der Insel an die Alliierten ausarbeitete, unterhielten Friedrichs, der Funkoffizier an der Signalstation unweit des Hauses von Georg Braun war, und einige seiner Kollegen Funkkontakt zu den Engländern. Kurz vor der Ausführung der Pläne wurde die Aktion jedoch von zwei Mitgliedern der Gruppe verraten. Etwa zwanzig Männer wurden am frühen Morgen des 18. April auf Helgoland verhaftet und vierzehn von ihnen nach Cuxhaven transportiert. Nach einem Schnellverfahren wurden fünf Widerständler drei Tage später, am Abend des 21. April 1945, auf dem Schießplatz Cuxhaven-Sahlenburg hingerichtet. Ihnen zu Ehren ließ das Helgoländer Museum am 17. April 2010 "Stolpersteine" auf Helgolands Straßen verlegen. Ihre Namen sind: Erich P. J. Friedrichs, Georg E. Braun, Karl Fnouka, Kurt A. Pester, Martin O. Wachtel. Ein sechster Stolperstein gilt der Erinnerung an den Friseur Heinrich Prüß, der seine Ablehnung des Nationalsozialismus öffentlich aussprach und 1944 verhaftet und im Zuchthaus Brandenburg hingerichtet wurde. Bei zwei Angriffswellen am 18. und am 19. April 1945 warfen 1000 Flugzeuge der britischen Royal Air Force etwa 7000 Bomben ab. Die Mehrheit der Bewohner überlebte in den Luftschutzbunkern. 285 Menschen kamen ums Leben, darunter viele Flak- und Marinehelfer. Danach war die Insel unbewohnbar und wurde evakuiert. Die Bewohner wurden in etwa 150 verschiedenen Orten Schleswig-Holsteins untergebracht. Einige fanden eine Bleibe auf der Insel Sylt, von wo aus sie weiterhin Fischfang in ihren gewohnten Gewässern betreiben konnten. Nach dem Zweiten Weltkrieg. Am 18. April 1947 zerstörten die Briten mit der bis heute größten nichtnuklearen verteilten Sprengung der Geschichte militärische Bunkeranlagen der Insel. Rund 4.000 Torpedoköpfe, fast 9.000 Wasserbomben und über 91.000 Granaten verschiedensten Kalibers, insgesamt 6.700 Tonnen Sprengstoff, waren im U-Boot-Bunker sowie im Tunnellabyrinth an der Südspitze des Felsens und bei den Küstenbatterien gestapelt; pünktlich um 13 Uhr wurde die riesige Explosion von Bord des Kabellegers "Lasso" ausgelöst. Ein gewaltiger Feuerstrahl und Tonnen Gesteins schossen in den Himmel. Der Rauchpilz sei neun Kilometer in die Höhe gestiegen. Aus dem Material der gesprengten Südspitze entstand das Mittelland, der U-Boot-Bunker im Südhafen wurde zerstört. Zur in Kauf genommenen oder gar geplanten kompletten Zerstörung der Insel kam es nicht. Die Hafenanlagen und Küstenschutzmauern blieben intakt, auch der Zivilschutzbunker blieb verschont und kann heute besichtigt werden. Bis 1952 blieb Helgoland militärisches Sperrgebiet und Bombenabwurfplatz für die britische Luftwaffe. Während dieser Zeit nannten britische Soldaten die Insel zynisch "Hell-go-land" (das Land, das zur Hölle geht). Die umgesiedelten Helgoländer starteten mehrere politische Initiativen zur Wiederbesiedlung der Insel: Im März 1948 wurden die Vereinten Nationen angerufen. Es folgten Appelle an den Papst, das britische Unterhaus und die neu gebildete Bundesregierung. Am 20. Dezember 1950 besetzten die beiden Heidelberger Studenten René Leudesdorff und Georg von Hatzfeld zusammen mit dem damals in Heidelberg Geschichte dozierenden Publizisten Hubertus zu Löwenstein die Insel und hissten die deutsche Flagge, die Flagge der Europäischen Bewegung und die Flagge Helgolands. Nach einem anderen Bericht folgte Löwenstein am 29. Dezember. Am 3. Januar 1951 holten britische Offiziere die Besetzer wieder von der Insel. Der Liedermacher Fredrik Vahle schrieb Anfang der 1980er Jahre die „Helgoland-Ballade“, die von dieser Geschichte handelt. Die Besetzung durch die drei Deutschen löste eine breite Bewegung zur Rettung Helgolands aus. Nachdem der Deutsche Bundestag im Januar 1951 einstimmig die Freigabe der Insel gefordert hatte, gaben die Briten am 1. März 1952 Helgoland wieder an die Bundesrepublik Deutschland zurück. Die Bevölkerung erhielt die Erlaubnis, auf ihre Insel zurückzukehren. Bis heute ist der 1. März auf Helgoland ein Feiertag. Eine Wiederaufbaukommission wurde 1952 ins Leben gerufen. Georg Wellhausen wurde mit der Leitung der Kommission und dem Aufstellen eines Bebauungsplanes beauftragt, und es wurde ein Wettbewerb durchgeführt. Er entwickelte das städtebauliche Konzept, das bewusst von einer Rekonstruktion der Altbebauung abwich, aber die gewachsenen Strukturen mit ihrer Ausrichtung nach der Windbelastung berücksichtigte. Wellhausen hatte sich beim Wiederaufbau Hamburgs einen Namen gemacht. Als typisch für ihn gelten die asymmetrischen Giebelprofile und die farbigen Holzverschalungen, beispielsweise bei den Hummerbuden. Der Kommission gehörte Konstanty Gutschow als Preisrichter an. Weitere Mitglieder waren Godber Nissen und Otto Bartning, der die Oberbauleitung übernahm. Nach dem Wiederaufbau entwickelten sich der Fremdenverkehr und der Kurbetrieb zu wichtigen Wirtschaftszweigen; Näheres im Abschnitt Tourismus. Helgoland erhielt 1962 die staatliche Anerkennung als Nordseeheilbad. Binnenhafen und Südkaje (34.000 Quadratmeter Landflächen) wurden am 23. August 2010 von der Wasser- und Schifffahrtsverwaltung des Bundes an die Gemeinde Helgoland übertragen. Am 26. Juni 2011 wurde über eine Verbindung der Hauptinsel mit der Düne abgestimmt; die Mehrheit votierte dagegen (siehe Abschnitt "Pläne zur Inselerweiterung"). Wappen. Blasonierung: „Zweimal geteilt von Grün, Rot und Silber“. Zur Zeit der britischen Besitzung befand sich auf der Flagge von Helgoland zusätzlich der sogenannte "Union Jack" in der Gösch. Politik. Die Gemeinde Helgoland gehörte vom 18. Februar 1891 bis zum 30. September 1922 zum Kreis Süderdithmarschen in der Provinz Schleswig-Holstein. Am 1. Oktober 1922 wurde sie zur einzigen Gemeinde im neuen Kreis Helgoland. Am 1. Oktober 1932 wurde dieser Kreis aufgelöst. Helgoland kam als amtsfreie Landgemeinde zum Kreis Pinneberg. Bis heute ist sie mit einem direkt gewählten Abgeordneten im Pinneberger Kreistag vertreten. Der Grund für die Zuordnung zum Kreis Pinneberg war, dass Pinneberg von allen schleswig-holsteinischen Kreisstädten aufgrund seiner Nähe zu Hamburg die beste öffentliche Verkehrsverbindung nach Helgoland hatte. Ergebnis der Kommunalwahl vom 26. Mai 2013 Bildung. Die einzige allgemeinbildende Schule der Insel ist die James-Krüss-Schule, eine Gemeinschaftsschule mit integrierter Grundschule. Religion. Kirche St. Nicolai auf Helgoland Helgoland wurde früher als das schleswig-holsteinische Festland von christlichen Missionaren besucht. Von Alkuin kommt ein erster schriftlicher Bericht über einen Inselbesuch des angelsächsischen Missionars Willibrord um 800. 100 Jahre nach dem Besuch schrieb er dessen Leben auf, um ihn als Heiligen zu rühmen. Nicht unumstritten ist, dass die beschriebene Insel auch Helgoland sei. In diesem Bericht wird auch kurz auf die Religion der Insulaner eingegangen und ein Gott Fosite erwähnt, der sonst allerdings nirgends erwähnt wird. Ebenso wird eine Quelle beschrieben, aus der nur schweigend geschöpft werden soll. Dieses Bild hat Alkuin wahrscheinlich aus der antiken Literatur übernommen. Alkuin gibt auch wörtlich die Rede Willibrords wieder, was genauso wenig als historischer Tatsachenbericht zu lesen ist. Welche Religion auf Helgoland damals verbreitet war, ist nur zu vermuten. Um 1900 wurde der Helgoländer Gott Fosite auf der Insel als Personifikation der Insel benutzt, ähnlich wie Germania für Deutschland oder Hammonia für Hamburg" (siehe Abschnitt Sport)". Willibrord war nicht erfolgreich. Etwa 791 wurde angeblich die erste Kapelle durch den Münsteraner Bischof Liudger erbaut. Er ließ alle Fosite-Heiligtümer vernichten. Nach der Reformation gab es bis Ende des 19. Jahrhunderts nur evangelisch-lutherische Bewohner auf der Insel. Der evangelisch-lutherischen Kirchengemeinde gehören etwa 870 Personen und damit die Mehrheit der Inselbevölkerung an. Am 29. November 1959 wurde die evangelische St.-Nicolai-Kirche, welche nach dem Schutzpatron der Seefahrer und Kaufleute, Nikolaus von Myra, benannt ist, eingeweiht. Die römisch-katholische Kirchgemeinde auf Helgoland hat etwa 140 Gemeindemitglieder. Seit der Einweihung am 27. Juni 1971 hat Helgoland mit der St.-Michaels-Kirche eine katholische Kirche anstelle einer früheren Kapelle. Die Kirche wurde nach dem Erzengel Michael benannt. Sprache. Die traditionelle Sprache Helgolands ist das Halunder genannte Helgoländer Friesisch. Dieser inselfriesische Dialekt der nordfriesischen Sprache ist auf der Insel auch zum Amtsgebrauch zugelassen. Allerdings beherrscht nur noch etwa ein Drittel der Helgoländer das Halunder. Die verbreitetste Sprache ist heute das Standarddeutsche. Daneben sprechen viele, vor allem ältere Helgoländer auch noch Plattdeutsch, das auf Helgoland zwar nie Volkssprache geworden ist, aber lange Zeit die Verkehrssprache für den Kontakt mit dem Festland war. 2005 wurde die Gemeinde Helgoland von der "Aktion Sprachenland Nordfriesland" mit der Auszeichnung „Sprachenfreundliche Gemeinde“ bedacht. Sport. Auf Helgoland befindet sich ein Fußballplatz mit Kunstrasen sowie einer Laufbahn und einer Sprunggrube. Die Fußballabteilung des "VfL Fosite Helgoland" ist (wie alle Vereine aus dem Kreis Pinneberg) Mitglied im Hamburger Fußball-Verband. Allerdings nimmt derzeit keine Mannschaft am regulären Spielbetrieb teil. Der Grund hierfür sind die hohen Kosten der Überfahrt aufs Festland. Deswegen bestreitet der Verein ausschließlich Freundschaftsspiele. Jedes Jahr im Mai findet der Helgoland-Marathonlauf auf einem Rundkurs um die Insel statt, welcher viermal durchlaufen wird. Es nehmen bis zu 200 Läufer aus Deutschland teil. Wirtschaft und Infrastruktur. Die Bevölkerung Helgolands lebt heute größtenteils von Einnahmen aus dem Tourismus. Auf Helgoland gibt es nach wie vor Duty-free-Shops. Daneben gibt es Handwerksbetriebe und Forschungseinrichtungen. Die seit 1892 bestehende Biologische Anstalt Helgoland (BAH) erforscht die Grundlagen des Lebens im Meer mit Schwerpunkten in der Nordsee und im Wattenmeer. Sie gehört seit 1998 zum Alfred-Wegener-Institut für Polar- und Meeresforschung (AWI) mit Sitz in Bremerhaven. Eine weitere Forschungseinrichtung ist die aus der BAH hervorgegangene Vogelwarte Helgoland. Infolge der Zerstörungen auf Helgoland nahm sie 1947 ihren Hauptsitz in Wilhelmshaven und heißt jetzt "Institut für Vogelforschung" „Vogelwarte Helgoland“. Die Inselstation Helgoland ist heute eine Außenstelle dieses Institutes. Der ins Helgoländer Netz eingespeiste Strom wurde bis 2009 ausschließlich vor Ort produziert: im nordöstlichen Teil des Unterlands befindet sich ein Kraftwerk mit zwei Generatoren, die mit Dieselmotoren betrieben werden. Die Abwärme sowie die Wärme zweier mit Heizöl betriebener Heizkessel werden zur Fernwärme-Versorgung eines Großteils der Helgoländer Gebäude genutzt. Die Abgase der zentralen Energieerzeugung werden einer Rauchgasreinigung unterzogen. Im Jahr 2009 wurde für 20 Millionen Euro ein knapp 53 km langes 30-kV-Seekabel von St. Peter-Ording nach Helgoland verlegt, das Helgolandkabel. Seit der Inbetriebnahme am 30. November 2009 ist Helgoland als letzte deutsche Gemeinde an das europäische Verbundnetz angeschlossen. Trinkwasser wird auf Helgoland selbst gewonnen. Neben dem Kraftwerk befindet sich eine Meerwasserentsalzungsanlage, mit der durch Umkehrosmose das Helgoländer Trinkwasser gewonnen wird. Das Wasser ist etwa viermal so teuer wie auf dem Festland. Im Südhafen ist der größte Seenotkreuzer der Deutschen Gesellschaft zur Rettung Schiffbrüchiger (DGzRS), die "Hermann Marwede", stationiert. Die Deutsche Marine betreibt auf Helgoland unter anderem einen SAR-Rettungshubschrauberstützpunkt. Ebenfalls am Südhafen befindet sich eine Wetterwarte des Deutschen Wetterdienstes. Zur Überwachung der Umweltradioaktivität installierte das Bundesamt für Strahlenschutz auf Helgoland zwei ODL-Sonden. Eine befindet sich auf dem Oberland, die andere beim Hafen, sie dienen der radioaktiven Frühwarnung. Auf dem im Jahr 2013 von der "Hafenprojektgesellschaft Helgoland mbH" (HGH) erschlossenen Südhafengelände bauen die Unternehmen E.ON, RWE und "WindMW", die am Bau und Betrieb mehrerer Offshore-Windparks in der Deutschen Bucht beteiligt sind, eine Betriebsbasis für Wartung und Service. Vorher musste das Gelände von den hier noch zahlreich vorhanden gewesenen Kampfmitteln aus dem Zweiten Weltkrieg und der Nachkriegszeit geräumt werden. Die Offshore Windparks "Meerwind Süd" und "Meerwind Ost" von WindMW rund 23 km nördlich von Helgoland wurden 2014 fertiggestellt. Der Windpark "Nordsee Ost" von RWE wurde im Mai 2015 eröffnet. Der Park von E.ON befindet sich (Stand September 2015) noch im Bau. Tourismus. Helgoland ist ein staatlich anerkanntes Seeheilbad. Es stehen etwa 2200 Betten in Privatquartieren, Pensionen und Hotels zur Verfügung. Die Zoll- und Steuerbefreiung Helgolands lockt, vor allem in den Sommermonaten, Tagesausflügler auch zum Duty-free-Shopping auf die Insel. Allerdings wird der Preisvorteil aufgrund des Wegfalls der Mehrwertsteuer und der Einfuhrzölle durch die ausschließlich auf Helgoland erhobene Gemeindeeinfuhrsteuer gemindert. Aufgrund der niedrigen Preise für Dieselkraftstoff gilt Helgoland unter Sportbootkapitänen zudem als Geheimtipp für Törns in der Deutschen Bucht. Auch Sportpiloten profitieren von dem Preisvorteil beim Tanken auf dem Helgoländer Flughafen. Seehunde am Oststrand der Insel Düne Die der Hauptinsel vorgelagerte und per Fähre zu erreichende Düne ist bevorzugtes Ziel derjenigen Urlauber, die nicht nur als Tagestouristen auf Helgoland verweilen und sich vor dem täglichen Touristenandrang dorthin zurückziehen. Auf der "Düne" teilen sich die Badegäste an manchen Tagen den Strand mit einigen Seehunden und Kegelrobben, die ihre Scheu gegenüber Menschen weitgehend abgelegt haben. Von Ende der 1960er bis Ende der 1970er Jahre kamen bis zu 800.000 Ausflügler im Jahr, Besucherzahlen, die später nicht mehr erreicht wurden. Helgoland wurde damals mit dem abfälligen Spitznamen „Fuselfelsen“ bedacht, weil Touristen dort alkoholische Getränke zollfrei in großen Mengen kaufen konnten. Um vom reinen Tages- und Einkaufstourismus wegzukommen und weitere Angebote für Besucher zu schaffen, wurde 1999 ein für örtliche Verhältnisse großes Luxushotel und 2007 ein Meerwasserschwimmbad eröffnet, das "Mare Frisicum Spa Helgoland". Die Zahl der Tagestouristen stieg 2011 erstmals nach langer Zeit wieder leicht an. Von 2007 bis 2010 stieg die Zahl der Übernachtungsgäste um rund 30 %. Im Jahr 2012 gab es rund 70.000 Übernachtungsgäste, die Zahl der Helgoland-Ausflügler insgesamt betrug 316.241. 2012 wurde die HelgolandCard eingeführt, die die frühere Kurkarte ersetzt. Pläne zur Inselerweiterung. Im April 2008 wurden erste Pläne des Hamburger Bauunternehmers Arne Weber bekannt, die eine großangelegte Neulandgewinnung auf Helgoland vorsahen. Eine etwa 1000 Meter lange Spundwand sollte als „Neuer Woal“ demnach das Nordostgelände mit dem Westrand der Düne verbinden und damit erstmals seit der Sturmflut 1720/1721 die beiden Inselteile wieder vereinigen. Die Stahlbetonkonstruktion hätte direkt im Felssockel der Insel verankert werden sollen und hätte dadurch festen Halt gehabt. Die eigentliche Landgewinnung sollte über Spülschiffe erfolgen, die den – nur wenige Meter tiefen – Meeresarm zwischen Hauptinsel und Düne mit Sand aus der Nordsee aufgefüllt hätten. Gestützt wurde der Plan durch eine Machbarkeitsstudie der Technischen Universität Hamburg-Harburg und des Alfred-Wegener-Instituts mit der Biologischen Anstalt Helgoland. Die Landgewinnung wäre laut dieser Studie für 80 Millionen Euro innerhalb von zwei Jahren zu bewerkstelligen gewesen. Laut Initiator und zugleich potentiellem Investor hätten die Aufspülungen rund ein Jahr lang gedauert. Nach Ausführung aller Arbeiten hätten mehr als 100 Hektar neues Land zur Verfügung gestanden. Damit hätte die bestehende Landebahn des Flugplatzes verlängert werden können und so größeren Linien- und Charterflugzeugen Platz geboten. Zudem war ein neuer Kreuzfahrtanleger im Hafen geplant. Die Schiffe hätten dann in der neu entstandenen Bucht direkt anlegen können, und das aufwendige Ausbooten wäre entfallen. Durch den Wegfall des Fahrwassers zwischen Hauptinsel und Düne wäre zudem dem Naturschutzgebiet rund fünf Quadratkilometer Wasserfläche zugeschlagen worden. Integriert in die Neulandgewinnung wären außerdem ein Gezeitenkraftwerk, zwei Windkraftanlagen und ein Photovoltaikfeld gewesen. Allerdings hingen die Pläne von einer soliden Finanzierung, die laut dem Initiator als Public Private Partnership angestrebt wurde, und der Akzeptanz in der Bevölkerung der Insel Helgoland selbst ab. Laut einer Umfrage standen zwei Drittel der Helgoländer dem Projekt kritisch bis ablehnend gegenüber. Am 14. Juni 2010 lehnte die zuständige Lenkungsgruppe unter Vorsitz des Pinneberger Landrats das Projekt nach abschließenden Beratungen endgültig ab. Es wurde jedoch weiterhin vom Helgoländer Bürgermeister Jörg Singer verfolgt. Am 26. Juni 2011 waren die wahlberechtigten Helgoländer zu einem Bürgerentscheid über die Inselvergrößerung aufgerufen. Die Wahlbeteiligung lag bei 81,4 %. Von den 1065 gültigen Stimmen sprachen sich 583 (54,74 %) gegen und 482 (45,26 %) für die Landgewinnung und Verbindung der beiden Inselteile Helgolands aus. Verkehr. Die Anreise nach Helgoland kann per Wasser- oder Luftfahrzeug erfolgen. Schiff. a>, links die Landungsbrücke, rechts der Beginn des Südhafens Während der Touristensaison fahren täglich Seebäderschiffe sowie eine schnelle Katamaran­fähre von verschiedenen Häfen auf dem deutschen Festland nach Helgoland. Im Oktober 2015 soll die in der Fassmer-Werft in Berne gebaute neue "Helgoland" mit LNG-Antrieb den Verkehr ab Cuxhaven und Hamburg aufnehmen. Der Verkehr zu den ostfriesischen Nordseeinseln besteht nicht mehr. Wichtigste Häfen für den Helgolandverkehr sind Büsum (Reederei Rahder und Reederei Cassen Eils), Cuxhaven (FRS Förde Reederei Seetouristik) und Bremerhaven (Reederei Cassen Eils). Die Verbindung von Wilhelmshaven (Wilhelmshaven Helgoland Linie GmbH & Co. KG (Kooperation der Reedereien AG Ems und Norden-Frisia)) wird ab 2015 nicht mehr angeboten. Im Gegensatz zur Katamaranfähre dürfen die Seebäderschiffe den Hafen von Helgoland während der Hauptsaison nicht direkt anlaufen, sondern müssen auf Reede gehen. Dort müssen die Passagiere in die kleinen Börteboote umsteigen, die sie dann an Land bringen. In der Wintersaison von Oktober bis März, in der nur wenige Touristen die Insel besuchen, steuert nur noch ein einziges Seebäderschiff von Cuxhaven aus den Südhafen an. Alle übrigen Seebäderschiffe und der Katamaran haben in dieser Zeit den Betrieb eingestellt. Ein Ausbooten wäre in dieser Jahreszeit nicht besonders reizvoll und je nach Witterung auch zu gefährlich. Nach Ablauf der Saison 2008 müssen alle Schiffe die strengen EU-Vorschriften erfüllen, weshalb bei einigen der eingesetzten Seebäderschiffe aufwändige Umbauten erforderlich waren. Die Fahrzeiten der Schiffe von und nach Helgoland vom nächstgelegenen Hafen in Cuxhaven belaufen sich auf 130 Minuten bei einem konventionellen Seebäderschiff und auf 75 Minuten beim Katamaran. Außer für den Personenverkehr wird Helgoland auch, soweit nicht ausnahmsweise die Wetterverhältnisse dies verbieten, täglich von einem Frachtschiff angelaufen, welches die Versorgung der Bevölkerung mit allen notwendigen Dingen von Nahrungsmitteln bis zum Baubedarf sowie der Läden mit Warennachschub sicherstellt. Weitere Schiffe verkehren, allerdings nur bei Bedarf, für Materiallieferungen für die Windparkbauer. Eine in Deutschland einmalige Touristenattraktion ist das Ausbooten der Passagiere der auf Reede liegenden Seebäderschiffe zur Helgoländer Landungsbrücke. Das Ausbooten wird mit offenen, kräftig gebauten Börtebooten bzw. "Ruddern" (Landessprache) durchgeführt. Im Börteboot finden 40–50 Passagiere während der kurzen Fahrt vom Seebäderschiff zur Insel Platz. Die Bootsform der Börteboote stammt noch aus der Zeit, als Helgoland vom Fischfang und später vom Lotsengeschäft in der Deutschen Bucht und den Flussmündungen der Weser und Elbe lebte. Da die Insel bis zum Bau eines Marinehafens kurz vor dem Ersten Weltkrieg über keinen eigenen Hafen verfügte, landeten die Boote im Winter wie im Sommer am Südstrand der Hauptinsel an. Im Zuge der Errichtung des Seebades Helgoland im Jahre 1826 und der Einrichtung einer Versicherung der Börtebootbetreiber auf Gegenseitigkeit wurde das Ausbooten auf der Reede vor dem Strand eingeführt. Seit Inbetriebnahme des heutigen Südhafens sprachen verschiedene Gründe gegen die Nutzung desselben für die Seebäderschifffahrt im Sommer; war es zunächst und bis nach Ende des Zweiten Weltkrieges die ausschließlich militärische Nutzung, welche das Einlaufen von Seebäderschiffen verbot, sprach danach die Praktikabilität für die Beibehaltung des Ausbootens: Für die Abfertigung von oft täglich bis zu fünf Seebäderschiffen ist zu wenig Platz im Hafen. An der für die Abfertigung der zahlreichen Tagestouristen ausgelegten und zentraler gelegenen Landungsbrücke ist nicht die notwendige Wassertiefe für jedes Schiff vorhanden. Zudem ist das Ausbooten ein Markenzeichen der Insel und eine Einnahmequelle für ihre Bewohner: Im Fahrpreis nach Helgoland ist ein „Börtezuschlag“ enthalten. Eine Ausnahme im Sommer bildet die Katamaranfähre, die regelmäßig von Hamburg, Wedel, Cuxhaven und Hörnum (Sylt) aus den Südhafen direkt ansteuert. Im Winter ist ein Anlegen im Südhafen dagegen erlaubt. Luft. Auf der Düne befindet sich der kleine Flugplatz Helgoland-Düne, von dem aus in etwa 20 bis 30 Minuten das deutsche Festland erreicht werden kann. Regelmäßige Flugverbindungen von und nach Helgoland werden derzeit von den Flughäfen Heide/Büsum und Bremerhaven angeboten. Daneben gab bzw. gibt es Charter- und Saisonverkehre. Straße. Auf Helgoland dürfen gemäß der der StVO grundsätzlich keine Kraftfahrzeuge oder Fahrräder geführt werden. Von dem Verbot ausgenommen sind die durch StVO mit Sonderrechten ausgestatteten Organisationen. Dies sind auf Helgoland der Rettungsdienst, die Polizei, die Feuerwehr sowie der Zoll. Die Helgoländer Polizei besitzt seit Januar 2007 ein eigenes Kraftfahrzeug. Außerdem sind einige Baufahrzeuge und ein Taxi zum Flugplatz mit Verbrennungsmotor im Einsatz. Der Personen- und Warenverkehr wird, soweit er nicht zu Fuß möglich ist, mit Elektrofahrzeugen bewältigt. Die auf deren Kennzeichen häufig zu sehende Abkürzung „AG“ steht für „Ausnahmegenehmigung“. Der Bürgermeister der Gemeinde Helgoland kann Ausnahmegenehmigungen vom Verkehrsverbot des § 50 StVO für Fahrräder unter anderem für Dienststellen, Wirtschaftsunternehmen und Personen über 70 Jahren erteilen. Zu bestimmten Jahres- und Tageszeiten außerhalb der am stärksten vom Tourismusverkehr betroffenen Zeiträume dürfen Kinder bis 14 Jahre Fahrrad fahren. Als Fahrradersatz sind auf Helgoland Tretroller beliebt. Das Radfahrverbot wird damit begründet, dass anderenfalls Verkehrsschilder aufgestellt werden müssten, welche das Ortsbild negativ beeinflussen würden. Es gibt zwei Fußgängerampeln; sie stehen auf der Düne und warnen vor landenden Flugzeugen. Eine Besonderheit sind die Hausnummern auf Helgoland. So gibt es jede Hausnummer, unabhängig von der Straße, nur einmal. Die Zählung beginnt im Unterland mit Haus Nr. 1 (Zollamt auf der Frachtmole) und endet bei 299 in der Husumer Straße. Die Häuser im Oberland beginnen mit 301 (Wohnungsanlage Fernsicht) und enden bei 718 (Mehrfamilienwohnhaus Leuchtturmstraße). Gebäude mit Hausnummern über 1000 gehören zum Hafen (beginnend bei der Gepäckhalle). Insgesamt gibt es 108 Straßen, Wege und Gassen auf Helgoland. Eisenbahn. Das "Marinehafenbauamt Helgoland" betrieb während der beiden Weltkriege für den Bau und die Versorgung der Marinestützpunkte auf Helgoland eine meterspurige Heeresfeldbahn. Post. Unter dänischer Verwaltung, bis 1807, gab es auf Helgoland kein geordnetes Postwesen. Die Briten eroberten 1807 die Insel. Während der Kontinentalsperre diente sie als Handelsplatz. In dieser Zeit besorgten britische Schiffe die Post. Nach Auflösung der Sperre ging das Postaufkommen wieder zurück und das Stadtpostamt in Hamburg beförderte die wenigen Briefe. Jeder Schiffer, der von Cuxhaven nach Helgoland kam oder nach dorthin auslief, war verpflichtet, die Post mitzunehmen. Erst als Helgoland als Seebad in Mode kam, entstand wieder ein regelmäßiger Postbetrieb. Die Postschiffer (mail carrier) erhielten aus der britischen Kasse einen Zuschuss. Das Vereinigte Königreich übernahm am 1. Juli 1866 die Postagentur und gab ab März 1867 eigene Briefmarken heraus, und zwar bis 1875 weiterhin in Hamburgischer Kurantwährung (1 Mark = 16 Schilling). Ab 1875 erschienen die Helgoländer Briefmarken mit englischem und deutschem Währungsaufdruck. Insgesamt sind zwanzig verschiedene Helgoland-Marken erschienen, die von Spezialisten in eine Vielzahl von Abarten unterschieden werden. Die Posthoheit endete mit dem Übergang zum Deutschen Reich im August 1890. Ein eigenes Postgebäude gab es bis 2007/08 auf dem Unterland; seitdem sind nur eine Kleinfiliale innerhalb eines Lebensmittelgeschäfts sowie an anderer Stelle die Postfächer verblieben. Literatur. Jährlich erscheinen mehrere Titel über Helgoland, oft kleine Hefte für die Inseltouristen oder Reiseführer, in der Regel ohne eigene Forschungsergebnisse. Hans Bethe. Hans Albrecht Bethe (* 2. Juli 1906 in Straßburg; † 6. März 2005 in Ithaca, New York) war ein deutsch-US-amerikanischer Physiker und Nobelpreisträger für Physik (1967). Leben. Hans Bethe war das erste von drei Kindern des Physiologen Albrecht Bethe, der an der Universität Straßburg arbeitete. Seine Mutter war jüdischer Herkunft und sein Vater protestantisch. Er wuchs in Straßburg und Frankfurt am Main auf, besuchte von 1915 bis 1916 in Frankfurt das Goethe-Gymnasium, von 1918 bis 1921 die Odenwaldschule und dann bis 1924 wieder das Goethe-Gymnasium und studierte Physik in Frankfurt am Main von 1924 bis 1926. Anschließend ging er für zweieinhalb Jahre nach München und arbeitete unter anderem bei Arnold Sommerfeld, bei dem er im Juli 1928 promoviert wurde. Seine Doktorarbeit beschäftigte sich mit der Theorie der Elektronenbeugung, sie hat bleibenden Wert für die Analyse von experimentellen Daten. Mit Sommerfeld veröffentlichte er 1933 auch ein Buch über die Elektronentheorie der Metalle, das heute noch Gültigkeit hat. Bis zum Jahre 1933 erhielt Bethe Lehrpositionen in Frankfurt am Main und Stuttgart jeweils für ein Semester. Vom Herbst des Jahres 1929 an bis Herbst 1933 war er wieder in München, ab Mai 1930 als Privatdozent. In dieser Zeit unternahm er auch Reisen nach Cambridge im Herbst 1930 und nach Rom im Frühjahr 1931 und 1932, wo er mit Enrico Fermi zusammenarbeitete. Im Wintersemester 1932/33 vertrat er das Extraordinariat für Theoretische Physik an der Eberhard Karls Universität Tübingen. Diese Stelle verlor er mit der Machtübernahme der Nationalsozialisten, weil seine Mutter Anna, Tochter des Medizinprofessors Abraham Kuhn, jüdischer Abstammung war. Bethe schrieb an seinen akademischen Lehrer Arnold Sommerfeld am 11. April 1933: "„Sie werden wahrscheinlich nicht wissen, dass meine Mutter Jüdin ist: Ich bin also nach dem Beamtengesetz 'nicht arischer Abstammung' und folglich nicht würdig, Beamter des Deutschen Reiches zu sein. […] Ich muss also wohl oder übel die Konsequenzen ziehen und versuchen irgendwo im Ausland unterzukommen.“" Er emigrierte im Oktober 1933 nach Großbritannien, wo er zeitweise die Position eines Dozenten an der Universität Manchester in den Jahren 1933 und 1934 innehatte. Im Herbst 1934 war Bethe akademischer Lehrer an der Universität Bristol. Im Februar 1935 erhielt Bethe eine Einladung in die USA, wurde Assistenzprofessor an der Cornell-Universität in Ithaca und im Sommer 1937 Professor. Bis zu seinem Lebensende blieb er mit einigen Unterbrechungen dort. Im Zweiten Weltkrieg ging er zuerst an das "Radiation Laboratory" am Massachusetts Institute of Technology, um am Mikrowellenradar zu arbeiten. Ein Sommersemester lang war Bethe an der University of California in Berkeley auf Einladung von Robert Oppenheimer. Anschließend ging Bethe an das Los Alamos Scientific Laboratory, wo er, von Oppenheimer berufen, als Leiter der Theoretischen Abteilung an der Entwicklung der ersten Atombombe mitwirkte. 1941 wurde Bethe Staatsbürger der USA. Im Jahre 1952 kehrte Bethe erneut für ein halbes Jahr nach Los Alamos zurück, um (widerstrebend, wie er im Rückblick sagte) an der Wasserstoffbombe mitzuarbeiten. Er war ein einflussreicher Regierungsberater, der sich ab den 1960er Jahren jedoch zunehmend für Abrüstung einsetzte. Vor dem Oppenheimer-Untersuchungsausschuss 1954 stellte er sich im Gegensatz zu Edward Teller hinter seinen ehemaligen Chef aus Los Alamos. Weitere kurze Abwesenheiten von seiner Universität betrafen die Columbia University, die Universität Cambridge, das CERN und Kopenhagen. 1957 wurde Bethe ausländisches Mitglied der Royal Society of London, sowie Mitglied der National Academy of Sciences in Washington, D. C.. Im Jahre 1975 wurde Bethe emeritiert. In den 1980er und 1990er Jahren führte er eine Kampagne zur friedlichen Nutzung der Kernenergie und machte sich auch allgemein Gedanken über alle Aspekte der Energieversorgung, so dass eine 1988 erschienene Biographie über ihn den Titel "Prophet of Energy" trägt. Mit anderen amerikanischen Physikern wie Sidney Drell äußerte er sich in den 1980er Jahren kritisch zum „star-wars“-Programm, das er für leicht zu umgehen hielt. Im Jahre 1995, im Alter von 88 Jahren, schrieb Bethe einen offenen Brief an seine Kollegen, in dem er sie aufforderte, Arbeiten an Nuklearwaffen einzustellen. 2004 unterschrieb er zusammen mit 47 anderen Nobelpreisträgern einen Brief, der John Kerry für die Wahl zum Präsidenten der USA unterstützte und vor einer Beschränkung der Freiheit der Forschung durch George W. Bush warnte. Bethe starb in seinem Haus in Ithaca im Alter von 98 Jahren. Er war der letzte Überlebende aus einer großen Reihe von Physikern aus der stürmischen Zeit der Physik Anfang des 20. Jahrhunderts. Bethe hinterließ seine Frau Rose, Tochter des Physikers Paul Peter Ewald, seinen Sohn Henry und seine Tochter Monica. Arbeiten. Bethe war ein Pionier der Anwendung der Quantenmechanik auf verschiedensten Gebieten der Physik. Dabei fasste er immer wieder ganze Gebiete der Physik in Handbüchern und großen Übersichtsartikeln zusammen, so 1933 die Quantentheorie von Wasserstoff- und Heliumatomen – also den einfachsten Fällen der Atomphysik – in einem Artikel von Buchlänge im "Handbuch der Physik", neu bearbeitet 1957 mit Edwin Salpeter, und zuletzt die Theorie der Supernovae in den "Reviews of Modern Physics" 1990. In seiner frühen Zeit bei Sommerfeld beschäftigte er sich mit Festkörperphysik. In diese Zeit fallen eine Arbeit über die Aufspaltung der Energieniveaus eines Atoms in Kristallen von 1929 (Kristallfeldtheorie), eine Monographie über die "Elektronentheorie der Metalle", die er 1933 zusammen mit Sommerfeld schrieb und die bis in jüngste Zeit neu aufgelegt wurde, sowie ein Aufsatz von 1931 über Spinwellen in einer Dimension, die er mit dem Bethe-Ansatz löste (ein wichtiges Werkzeug in vielen exakt lösbaren Modellen der statistischen Mechanik). 1935 untersuchte er das zweidimensionale Isingmodell (order-disorder transition). Hans Bethe untersuchte 1930 die Bremsung von Elektronen in Materie, was praktische Anwendungen z. B. für Detektoren hat, und die Bremsstrahlung relativistischer Elektronen (Bethe-Heitler-Formel, 1934), einer der frühen Anwendungen der Quantenelektrodynamik (QED). Ein Unsinns-Artikel, mit dem Bethe und seine Kollegen Beck und Riezler 1931 Arbeiten von Arthur Stanley Eddington parodieren wollten und den sie in einem angesehenen Physik-Journal ("Die Naturwissenschaften") unterbringen konnten, verursachte damals einen kleinen Skandal. Bethe erwarb sich schon in den 1930er Jahren einen Ruf als führender Kernphysiker. Seine Artikelserie in den "Reviews of Modern Physics" (1936/37) galt damals als Standardwerk (daraus entwickelte sich dann sein Buch "Elementary nuclear theory" mit Philip Morrison). Zum Abschluss des Jahrhunderts (1999) fasste er die Entwicklungen auf diesem Gebiet in einem Artikel in den "Reviews of Modern Physics" noch einmal zusammen. Seine Arbeiten auf dem Gebiet der Kernphysik machten ihn während des Zweiten Weltkrieges zu einem der wichtigsten Mitarbeiter im Manhattan-Projekt, dem Bau der ersten Atombombe in Los Alamos. Von 1943 bis 1946 war er dort Direktor der Abteilung für Theoretische Physik. Auch nach dem Krieg behielt er seine führende Position in der Kernphysik. 1949 entwickelte er die Theorie der „effektiven Reichweite“ bei Kernreaktionen. In den 1950er und 1960er Jahren untersuchte er das kernphysikalische Vielteilchenproblem am Modell der Kernmaterie (Brueckner-Bethe-Theorie, Bethe-Goldstone-Gleichung u.a.). In den 1970er Jahren wandte er die gefundenen Zustandsgleichungen für Kernmaterie dann auch in der Untersuchung von Neutronensternen an. 1947 gab Hans Bethe die erste Erklärung der Lamb-Verschiebung der Spektrallinien des Wasserstoffs in einer ersten groben nicht-relativistischen Näherung der Quantenelektrodynamik, die zeigte, dass das Problem angreifbar war, und die bald darauf folgende relativistische Behandlung durch Richard Feynman und Julian Schwinger motivierte. 1951 beschrieb er mit Edwin Salpeter gebundene Zustände in der Quantenfeldtheorie mit der Bethe-Salpeter-Gleichung, wobei er das „Wasserstoffatom“ der QED, das Positronium (Elektron-Positron-Paar), und den einfachsten Kern, das Deuteron (aus Proton und Neutron), im Auge hatte. Seinen Nobelpreis bekam er nicht zuletzt für eine Arbeit zur Energieerzeugung in Sternen aus dem Jahr 1939: Er identifizierte die in Sternen wie der Sonne ablaufenden Kernreaktionsketten, die Wasserstoff zu Helium verschmelzen, wie den in der Sonne ablaufenden Proton-Proton-Zyklus und den in massereicheren Sternen ablaufenden Kohlenstoff-Stickstoff-Zyklus, der in Anerkennung seiner theoretischen Arbeiten Bethe-Weizsäcker-Zyklus genannt wird. Bis zu seinem Lebensende blieb Bethe wissenschaftlich aktiv. Ab den 1970er Jahren wandte er sich verstärkt der Astrophysik zu und nutzte seine umfangreichen physikalischen Kenntnisse z. B. in der Kernphysik und der Theorie der Stoßwellen – die er schon in Los Alamos bei der Untersuchung des Implosionsmechanismus einer Atombombe erworben hatte – zur Untersuchung der Theorie der Supernova-Explosionen (vor der Explosion fällt der Stern in sich zusammen). Sein Interesse verstärkte sich, als die Theorie an der Supernova 1987A überprüft werden konnte. In einem einflussreichen Artikel setzte er die Erklärung des „solar neutrino puzzles“ durch russische Physiker (MSW-Effekt) durch ("Physical Review Letters". 1986). Bei einem so umfangreichen Werk machte Bethe auch einige falsche Vorhersagen, auf die er auch in seinen "Selected works" eingeht. Beispielsweise meinte er 1935 mit Rudolf Peierls bewiesen zu haben, dass Neutrinos nie beobachtbar wären, oder er gab 1937 eine obere Grenze für die Beschleunigung mit Zyklotronen an, die aber durch die Erfindung frequenzmodulierter Ringbeschleuniger (Synchrotron) schon 1945 (Edwin McMillan, Weksler) überholt war. Experimentatoren wie Edward Mills Purcell war das Anlass genug, in der „Star-wars“-Debatte vor „Unmöglichkeitsargumenten“ Bethes zu warnen. Auszeichnungen und Ehrungen. 1947 wurde Bethe in die American Academy of Arts and Sciences gewählt. 1955 wurde ihm die Max-Planck-Medaille verliehen. Er war u. a. Mitglied der National Academy of Sciences (Washington). Im Jahre 1961 erhielt er die Eddington-Medaille der Royal Astronomical Society für seine Arbeiten zur Identifizierung der Energiegewinnung in Sternen. Noch im selben Jahr erhielt er ebenfalls den "U.S. Atomic Energy Commission's Enrico Fermi Award". Im Jahr 1978 wurde er zum Mitglied der Gelehrtenakademie Leopoldina gewählt. Im Jahre 1984 wurde er Mitglied im „Orden Pour le mérite für Wissenschaften und Künste“. 1989 erhielt er die Lomonossow-Goldmedaille der Russischen Akademie der Wissenschaften. 1993 erhielt er die Oersted Medal der American Association of Physics Teachers. Am 5. Oktober 1995 erhielt er die Ehrendoktorwürde der Universität Louis Pasteur Strasbourg. Außerdem war er Ehrendoktor der Technischen Universität München und der Johann-Wolfgang-Goethe-Universität Frankfurt am Main. 2001 gewann Bethe die Bruce Medal. Der Asteroid (30828) Bethe wurde 2002 nach ihm benannt. Die American Philosophical Society zeichnete ihn 2005 mit ihrer Benjamin Franklin Medal aus. Zu seinen Ehren vergibt die American Physical Society seit 1998 den Hans-A.-Bethe-Preis. Des Weiteren wurde das "Bethe Center for Theoretical Physics" der Rheinischen Friedrich-Wilhelms-Universität Bonn nach ihm benannt. Nobelpreis. 1967 erhielt er den Nobelpreis für Physik, als erster Physiker für ein Thema aus der Astrophysik (seine Arbeiten über die Energieumwandlung in Sternen aus dem Jahre 1938). Heroin. Heroin (altgr. Kunstwort: "heroine", siehe Heros) chemisch Diacetylmorphin oder Diamorphin (DAM), ist ein halbsynthetisches, stark analgetisches Opioid mit einem sehr hohen Abhängigkeitspotential bei jeder Konsumform; trotz sechsfach höherer schmerzstillender Wirksamkeit des Heroins im Vergleich zur Stammsubstanz Morphin ist die therapeutische Anwendung von Heroin in den meisten Ländern verboten. Geschichte. Die Geschichte des Konsums von betäubenden oder euphorisierenden, natürlichen Opiaten reicht bis ungefähr 2000 bis 3000 v. Chr. in das alte Ägypten zurück und führt bis in die Neuzeit zu den Opiumhöhlen von China. Die schmerzstillende, beruhigende, manchmal aber auch anregende Wirkung von natürlichen Opioiden wurden von Badern bereits um das Jahr 1400 beschrieben und Chemiker versuchten ab dem 19. Jahrhundert, ein synthetisches Äquivalent zu dem Naturstoffextrakt Opium zu finden und ein Heilmittel zu entwickeln, das schnell herzustellen war und entsprechend auch vermarktet werden konnte. Der englische Chemiker Charles Romley Alder Wright untersuchte 1873 die Reaktionen von Alkaloiden wie Morphin mit Essigsäureanhydrid. Zwanzig Jahre später befasst sich der im Bayer-Stammwerk in Wuppertal-Elberfeld beschäftigte Chemiker und Pharmazeut Felix Hoffmann mit dieser Reaktion, die direkt zu Diacetylmorphin führte. Am 26. Juni 1896 entwickelte Bayer hieraus ein Verfahren zur Synthese von Diacetylmorphin und ließ sich für diesen Pharmawirkstoff den Markennamen "Heroin" schützen. Heroin wurde in einer massiven Werbekampagne in zwölf Sprachen als ein oral einzunehmendes Schmerz- und Hustenmittel vermarktet. Es fand auch Anwendung bei etwa 40 weiteren Indikationen, wie Bluthochdruck, Lungenerkrankungen, Herzerkrankungen, zur Geburts- und Narkoseeinleitung, als „"nicht süchtigmachendes Medikament"“ gegen die Entzugssymptome des Morphins und Opiums. Das „heldenhafte“ Mittel "Heroin" sollte also alle Vorteile von Morphin, aber keine Nachteile haben. Als Nebenwirkungen wurden lediglich Verstopfung und leichte sexuelle Lustlosigkeit beschrieben, weshalb das Opioid von der Ärzteschaft sowie von den Patienten zunächst überaus positiv aufgenommen wurde. Bereits 1904 wurde aber erkannt, dass Heroin, genau wie Morphin und sogar noch stärker als dieses, zur schnellen Gewöhnung und Abhängigkeit führt. Zwar warnten daraufhin einige Ärzte, dass es das gleiche Abhängigkeitspotenzial wie Morphin besitze, diese blieben jedoch zunächst in der Minderheit. Das lag einerseits an der aggressiven Vermarktung des Mittels, andererseits daran, dass die orale Darreichungsform zu einer sehr viel langsameren und geringer dosierten Aufnahme des Stoffes führte, wodurch starke Rauschzustände und Abhängigkeit in der Regel ausblieben. Außerdem gab es damals noch keine Stigmatisierung Opioidabhängiger. Ab etwa 1910 wurde vor allem in den Vereinigten Staaten von Amerika, wo die Morphin- und Opiumsucht häufiger und in breiteren Schichten vorkam als in Europa, die von der Droge Heroin ausgehende Gefahr erkannt. Als in den USA bekannt wurde, dass gerauchtes, geschnupftes und insbesondere intravenös gespritztes Heroin eine weitaus stärkere Wirkung hatte, stiegen viele Opioidabhängige auf die leicht erhältliche Substanz, die außerdem nebenwirkungsärmer als Morphin war (hinsichtlich Histaminreaktion), um. Die Zahl der Abhängigen stieg rasch an. Der Hauptgrund für die Illegalisierung von Heroin ist jedoch bei der damaligen Stigmatisierung chinesischer Einwanderer zu finden, die häufig Opium rauchten und später auch Heroin konsumierten. Dadurch wurden diese Substanzen vermutlich mit den ohnehin unliebsamen Chinesen assoziiert, weswegen zuerst einzelne Bundesstaaten der USA verschiedene Gesetze zwecks Verbot einführten. Später, auf der ersten Opiumkonferenz 1912, wurde zum ersten Mal ein staatenübergreifendes Verbot diskutiert, welches ausschließlich politisch und nicht medizinisch motiviert war. 1931 gab Bayer dem politischen Druck nach, stellte die Produktion ein und entfernte Heroin damit aus seiner Produktpalette. Stattdessen konzentrierte sich die Firma nun auf ihre zweite, bahnbrechende Entdeckung: das Aspirin. Trotz der Verbote stieg insbesondere nach dem Zweiten Weltkrieg und nach dem Vietnamkrieg die Zahl der Heroinsüchtigen weltweit stark an, da viele Soldaten mit Morphin und Heroin in Kontakt kamen. Nach 1945 organisierte vornehmlich die italo-amerikanische Mafia in Zusammenarbeit mit der italienischen Mafia den Schmuggel großer Mengen der Droge in die USA "(siehe Pizza Connection)". In Deutschland wurde Heroin noch bis 1958 verkauft. Das Verbot erfolgte am 6. April 1971. Da der medizinische Einsatz von Heroin heute allerdings in mehreren Staaten – darunter seit 2009 auch wieder Deutschland – unter strengen Auflagen erlaubt ist, gibt es nach wie vor eine legale Heroinproduktion. Herstellung. Heroin wird halbsynthetisch hergestellt, Ausgangssubstanz ist dabei das Morphin. Gewonnen wird Morphin als Extrakt aus Rohopium, dem getrockneten Milchsaft aus den Samenkapseln des Schlafmohns "(Papaver somniferum)". Zur Herstellung von Heroin wird Morphin an den beiden Hydroxy-Gruppen mittels Essigsäureanhydrid (= Acetanhydrid) oder Essigsäurechlorid acetyliert. Als Nebenprodukt kann monoacetyliertes Morphin entstehen (z. B. 6-MAM). Reines Heroin ist sowohl als Base als auch als Hydrochlorid-Salz ein farbloser kristalliner Feststoff. Metabolisierung. Heroin wird im Körper rasch, mit einer Plasmahalbwertszeit von drei Minuten, zu 6-Monoacetylmorphin (6-MAM) deacetyliert. Es gibt daneben noch den inaktiven Metaboliten 3-MAM. Beide werden weiter zu Morphin hydrolysiert (Halbwertszeit ca. 20 Minuten). Etwa 1–10 % des Morphins werden in den ebenfalls aktiven Metaboliten Morphin-6-Glucuronid umgewandelt, welcher eine deutlich höhere HWZ als Morphin selbst aufweist und deswegen bei Patienten mit einer gestörten Nierenfunktion bei langandauernder Verabreichung kumulieren kann. Weitere 55–75 % des Morphins werden zu inaktivem Morphin-3-Glucuronid metabolisiert. Es wird auch zu etwa 5 % zu Normorphin verstoffwechselt. Pharmakokinetik. Die Bioverfügbarkeit ist abhängig von der Konsumform. Heroin ist deutlich stärker lipophil (fettlöslich) als Morphin und gelangt daher rasch ins Gehirn, was zu einer starken Anflutung an den Wirkrezeptoren führt; daher löst eine intravenöse Heroin-Injektion einen initialen „Kick“ (auch Flash genannt) aus. Dieser Effekt ist bei allen anderen Konsumformen als der intravenösen Injektion aufgrund der langsameren Anflutung nach dem heutigen Stand der Wissenschaft zumindest stark abgeschwächt, wenn überhaupt vorhanden. Gründe dafür sind die langsamere Resorption, die vorzeitige Hydrolyse und der First-Pass-Effekt. Pharmakodynamik. Heroin bindet nur schwach an die verschiedenen Opioid-Rezeptoren, wirkt aber als Prodrug, dessen aktive Metaboliten hauptsächlich die Wirkung vermitteln. Erwähnenswert ist die hohe intrinsische Aktivität von 6-MAM am µ-Opioidrezeptor, sie ist höher als die von Morphin und ist daher mitentscheidend für die starke Ausprägung des Rauschgefühls nach intravenöser Heroininjektion. Die Dosen, die ein körperlich von Heroin Abhängiger zu sich nimmt, überschreiten nicht selten das 10- bis 30-fache der ursprünglich therapeutischen Dosis der Substanz. Wenn man den durchschnittlichen Reinheitsgrad von Schwarzmarktheroin mit berücksichtigt, der in Europa – von den Niederlanden abgesehen – für den Endkunden in der Regel zwischen 5 und 15 %, selten über 20 % (Stand: 2006), beträgt – in den USA liegt der Reinheitsgrad inzwischen oft deutlich höher –, kommt ein durchschnittlicher langjähriger intravenöser Heroinkonsument mit einer Menge aus, die 100–200 mg der Reinsubstanz entspricht. Die Rechtsprechung in der Bundesrepublik Deutschland legte bei der Festlegung der nicht geringen Menge Heroin im Sinne von § 29a Betäubungsmittelgesetz zugrunde, dass eine Dosis von 50 mg bei einer nicht drogenabhängigen Person letal wirkt, obwohl diese Zahl höchstwahrscheinlich nicht der Wahrheit entspricht und einige Studien von weitaus höheren humanen LD50 ausgehen. Diese Zahl scheint eher für Mischkonsum zuzutreffen, der sehr häufig anzutreffen ist und in vielen Toxizitätsberichten von Krankenhäusern nach fatalen Überdosen nicht erkannt wird, speziell, wenn die Substanzen mit einem Standard-Drogenscreening nicht erfassbar sind oder es sich um den weitaus verbreitetsten fatalen Mischkonsum, nämlich jenen mit Ethanol, handelt. Die stärkere Wirkung des Heroins im Gegensatz zum Morphin mag sich dadurch erklären, dass das Heroin (und das primäre Stoffwechselprodukt Monoacetylmorphin) aufgrund der besseren Fettlöslichkeit die Blut-Hirn-Schranke leichter durchdringen kann als das Morphin. Die Wirkung von Heroin hält bei Konsumenten ohne Toleranz 6 Stunden bis oftmals über 24 Stunden an, wobei Nachwirkungen nach dem ersten Konsum manchmal mehrere Tage andauern können. Hingegen dauert die Wirkung von Heroin bei einem körperlich Abhängigen, wenn er eine für sich durchschnittlich hohe Dosis konsumiert, nicht länger als 6–8 Stunden, wonach die Entzugserscheinungen langsam wieder einsetzen. Opioide wie das Heroinsubstitut Methadon besitzen eine Halbwertszeit von bis zu 24 Stunden. Die Dosistoleranz von Opioiden steigt bei täglichem Konsum rapide an, deswegen steigern viele Abhängige die Dosis im Rahmen der Verfügbarkeit der Substanz ständig nach, da bei täglichem Konsum diejenige Menge, die am Vortag noch zum erwünschten Effekt geführt hat, auf das 1,5- bis 2-fache gesteigert werden muss, um einen vergleichbaren Effekt zu erzielen. Da jedoch die meisten Abhängigen durch die astronomischen Schwarzmarktpreise schnell ihre finanziellen Möglichkeiten ausgereizt haben, befinden sich die meisten von ihnen zumeist auf der Jagd nach Geld, um eine halbwegs gleichbleibende Dosierung zu erreichen („steady state“) und Entzugserscheinungen zu verhindern. Zusätzliche Probleme ergeben sich daraus, dass beim illegal gehandelten Heroin nicht erkennbar ist, wie hoch der Reinheitsgrad ist (was zu unabsichtlichen Überdosierungen führen kann) und mit welchen Substanzen die Droge gestreckt wurde. Heroin kann nach oraler oder rektaler Verabreichung als 6-MAM im Blut nachgewiesen werden, Heroin selbst lässt sich im Blut nur wenige Stunden nachweisen. Metabolische Rückstände 1–4 Tage im Urin und mehrere Monate in den Haaren (hierzu siehe auch der folgende Abschnitt "Nachweis"). Nachweis. In forensischen Erfassungstests, sogenannten "Screeningtests" (engl. "Screening" ≈ dt. "Überprüfung"), können die metabolischen Rückstände chemischer Substanzen verschiedenster Analgetika (beispielsweise Paracetamol), Barbiturate und Opiate wie Heroin toxikologisch im menschlichen Körper nachgewiesen werden. Hierfür wird in der klinischen Chemie bei Verdacht auf Intoxikation mit Medikamenten und Drogen das "Screening" aus Blutserum, Speichel, Sperma, Heparinplasma oder Urin verwendet. Chemisch standardisiert können halbsynthetische Opiate wie Heroin jedoch nur über Urinausscheidungen nachgewiesen werden, da das Diacetyl-Morphin Heroin vom Organismus relativ schnell zu Morphin metabolisiert wird. Verfälscht werden kann der Urintest überdies durch opiatähnliche Substanzen gleicher Struktur oder Wirkung wie beispielsweise das Codein, welches in handelsüblichen Schmerzmitteln oder in Antitussiva (Hustensäften) vorkommt. Insofern muss ein positives toxikologisches Ergebnis nicht unbedingt auf einen Heroinmissbrauch schließen lassen. Der Urintest erfasst indes nur reine Opiate und Amphetamine; vollsynthetische Opiat-Substitute wie beispielsweise Methadon werden hierbei jedoch nicht erfasst. Der zuverlässige qualitative und quantitative Nachweis in verschiedenen Untersuchungsmaterialien gelingt nach angemessener Probenvorbereitung durch chromatographische Verfahren in Kopplung mit der Massenspektrometrie. Toxikologie. Einige Quellen geben für die in 50 % der Fälle tödliche Dosis (LD50) Dosen von 1 bis 5 mg pro Kilogramm Körpergewicht für Erstkonsumenten an (75 bis 375 mg bei einer Person von 75 kg Körpergewicht). Antidote und Opioidantagonisten. Bei einer opiat- oder heroinbedingten Intoxikation werden Opioidantagonisten eingesetzt. In Deutschland wird häufig Naloxon-Hydrochlorid verwendet, welches die Aufnahme des Opioids an den Opioidrezeptoren blockiert. Problematisch ist hier die weitaus kürzere Halbwertszeit gegenüber dem Opioid. Dieser Antagonist wirkt zu kurzzeitig (etwa eine Stunde) und hebt außerdem die analgetische (schmerzstillende) Wirkung des Heroins auf, was sofort zu heftigsten Entzugssyndromen (Schweißausbrüche, Schmerzen und Krämpfen bis hin zum Kreislaufkollaps) führen kann, wenn der Patient eine auch nur kleine Toleranz gegenüber Opioiden hat. Opioidantagonisten dürfen aufgrund ihrer Nebenwirkungen nur unter ärztlicher Kontrolle verabreicht werden. Vorsicht gilt in besonderem Maße für Substituierte mit dem halbsynthetischen Opioid Buprenorphin (z. B. Subutex), welches eine höhere Rezeptoraffinität als Naloxon besitzt – alle derzeit am Markt verwendeten Opioidrezeptor-Vollagonisten haben eine signifikant niedrigere Affinität als Naloxon und werden daher vom Naloxon schnell verdrängt – hingegen lässt sich aus diesem Grund Buprenorphin nur mit äußerst hohen Dosen Naloxon antagonsieren. Es besitzt außerdem eine interindividuell stark variable Halbwertszeit bis zu 48 Stunden, weshalb zusätzlich Naltrexon gegeben werden muss. Wirkung. Heroin hat ähnlich wie Morphin eine euphorisierende und analgetische Wirkung; normaler Schlaf wird durch seine Verabreichung aber eher gestört. Es wirkt je nach Applikationsform mit einer Halbwertszeit von vier bis sechs Stunden und ist für die Organe des menschlichen Körpers nicht toxisch. Weitere Wirkungen auf den ungewöhnten Körper sind die emetische (gr. "Emesis" = Brechreiz) und atemdepressive Wirkung. Die Nebenwirkung der Obstipation unterliegt keiner Toleranzbildung – der Wirkstoff wurde um die Jahrhundertwende als Mittel gegen Durchfall eingesetzt. Bei einer Überdosierung ist hauptsächlich eine Atemdepression gefährlich, die, insbesondere wenn zusätzlich andere sedierende psychotrope Substanzen wie Alkohol, Benzodiazepine oder Barbiturate im Sinne einer Polytoxikomanie hinzukommen, zum Atemstillstand mit Todesfolge führen kann (der sogenannte „goldene Schuss“). Um die Wirkung im Falle einer Überdosierung aufzuheben, werden Opioidantagonisten (zum Beispiel Naloxon) eingesetzt. Preisentwicklungen. Der Schwarzmarktpreis ist stark vom Reinheitsgehalt und dem Verkaufsort abhängig. Die Reinheit des „braunen Heroins“ liegt in den meisten europäischen Ländern zwischen 15 % und 25 %. In Ländern wie Österreich, Griechenland und Frankreich liegt der Wert unter 10 % und in Großbritannien bei 41 %. Die Reinheit des „weißen Heroins“ liegt höher bei 45 % bis 71 %. Der durchschnittliche Preis des „braunen Heroins“ in den meisten europäischen Ländern liegt zwischen 30 und 45 Euro pro Gramm. In Schweden bei 110 Euro pro Gramm. In der Türkei dagegen nur 7–10 Euro pro Gramm bei einer durchschnittlichen Reinheit zwischen 30 und 50 Prozent. Der Preis des „weißen Heroins“ ist wesentlich differenzierter und wird in wenigen europäischen Ländern zwischen 27 und 110 Euro pro Gramm gemeldet. Die Preise haben eine sinkende Tendenz. Konsumformen. Heroin in Form von Pulver und als Pillen Aufkochen von Heroin mit Ascorbinsäure (Vitamin C) oder Zitronensaft Es gibt verschiedene Konsumformen, die alle mit Risiken verbunden sind. Die Sucht kann bei jeder Konsumform eintreten. Intravenöser Konsum. Der intravenöse Konsum (umgangssprachlich „drücken“, „ballern“ oder „fixen“) ist wohl die bekannteste Konsumform. Da die zumeist in Europa erhältliche Heroinbase nicht in Wasser löslich ist, braucht man einen Hilfsstoff, um sie in Lösung zu bringen. Das Heroin wird (in der Regel auf einem Löffel) mit einer Säure (pulverige Ascorbinsäure (Vitamin C) oder Zitronensaft) und Wasser erhitzt und danach durch einen Filter aufgezogen. Die Säure bewirkt beim Aufkochen die für die intravenöse Injektion notwendige Bildung eines wasserlöslichen Heroinsalzes. Bei intravenösem Konsum von Heroin steigt die körperliche Toleranz gegenüber dem Opioid am schnellsten. Die Infektionsgefahr ist bei subkutanem Gebrauch, also dem Spritzen unter die Haut, geringer. Durch häufige intravenöse Injektionen unter nicht sterilen Bedingungen, wie sie unter Schwarzmarktbedingungen vorherrschen, bilden sich oft Hämatome und Vernarbungen, die eine Thrombose (Venenverschluss) verursachen können. Allerdings kann auch der injizierende Konsum von reinem Heroin, wenn der Konsument unsauber arbeitet, wie jede andere Injektion auch, zu Abszessen führen. Zittern als Entzugserscheinung führt zu einer erhöhten Verletzungsgefahr bei der Selbstinjektion. Es besteht die Gefahr, die Vene zu verfehlen und sich eine „Kammer“ unter die Haut zu spritzen („sich ein Ei schießen“). Die Benutzung derselben Kanüle durch mehrere Personen oder das Aufteilen einer aufgekochten Zubereitung birgt das Risiko einer Infektion mit HIV/AIDS und sonstigen durch das Blut übertragbaren Krankheiten (z. B. Hepatitis B und besonders Hepatitis C). Durch die Strecksubstanzen in Schwarzmarktheroin (Strychnin und viele andere) kann es zu lebensbedrohlichen Vergiftungen kommen. Auf einen intravenösen Heroinkonsum deuten Einstichstellen (nicht nur am Arm) und Vernarbungen hin. Intranasaler Konsum. Zum Schnupfen (Sniefen, Sniffing) durch die Nase wird das Heroin zu feinem Pulver zermahlen. Ähnlich wie bei Kokain wird es anschließend mit einem Schnupfröhrchen durch die Nase eingezogen, wobei es auf die Nasenschleimhaut gelangt. Dort geht es umgehend in die Blutbahn über und entfaltet dann seine Wirkung. Wie auch beim nasalen Konsum von Kokain besteht die Gefahr einer Überdosierung. Wird Heroin über einen längeren Zeitraum immer wieder auf die Nasenschleimhaut aufgebracht, trocknet diese aus und atrophiert, was wiederum Nasenbluten begünstigt. Da die Nasenschleimhaut nach einer toxischen Schädigung nur bedingt regenerationsfähig ist, bildet diese bei anhaltendem, extremem, nasalem Heroinkonsum geschwürige Substanzdefekte aus, und kann – sofern im Bereich der Nasenscheidewand lokalisiert – diese unter Einbeziehung des Nasenscheidewandknorpels schließlich perforieren. Gemeinsamer Gebrauch von Ziehwerkzeugen mit anderen Konsumenten kann zur Übertragung ansteckender Krankheiten führen. Inhalation. Gelegentlich nutzen Konsumenten zum Aufkochen des Heroins keinen Löffel oder Ähnliches, sondern alternative Materialien, wie alte Blechdosen oder genügend tiefe Flaschendeckel aus Metall, was zu gesundheitlichen Nachteilen führen kann Das Rauchen des Heroins (Slangbegriffe: "„Blowen“", "„Chasing the Dragon“", "„den Drachen jagen“", "“eine Folie rauchen“", "„ein Blech rauchen“", "„chineesen“" oder "Schore") ist eine Konsumform, bei der das Heroin auf einem Stück Alufolie verdampft wird. Dieser Dampf wird mithilfe eines Aluröhrchens inhaliert. Da sublimiertes Heroin bei Raumtemperatur sehr schnell wieder kondensiert, setzt sich in dem Inhalationsröhrchen schnell eine Schicht Heroin ab, die von den Konsumenten, wenn sie eine bestimmte Menge erreicht hat, dann gesammelt und konsumiert wird. Die Inhalation von Heroin ist besonders beim oberflächlichen Inhalieren aufgrund des großen Anteils nicht in die Lunge gelangenden Wirkstoffes vergleichsweise ineffektiv. Der Vorteil des Inhalierens von Heroin ist die relativ gut kontrollierbare Dosierung. Aufgrund des sofortigen Wirkungseintritts wird eine drohende Überdosis bemerkt, bevor eine zu große Menge der Droge konsumiert wurde, was beim Injizieren oder „Sniefen“ nicht möglich ist. Bei den letzteren Konsumformen wird jeweils eine bestimmte Menge der Droge zugeführt und befindet sich dann im Körper. Die Wirkung erreicht ihren Höhepunkt also erst, nachdem der Konsument sich die volle Menge zugeführt hat, so dass er keine Chance hat, diese zu korrigieren. Seit 1982 werden unspezifische Veränderungen der weißen Hirnsubstanz mit der Inhalation von Heroin in Verbindung gebracht und als "spongiforme Leukenzephalopathie" bezeichnet. Auch wenn vermutet worden ist, dass beim Erhitzen des Heroins ein Streckstoff oder eine andere Substanz im Heroin in eine für das Gehirn schädliche Form umgewandelt werden könnte, bleiben Ätiologie und Pathogenese bislang ungeklärt. Oraler Konsum. Der orale Konsum von Heroin ist nicht weit verbreitet. Der Grund dafür ist, dass je nach Zustand des Verdauungssystems der Wirkungseintritt nach Konsum stark verzögert ist, die Wirkung langsam und graduell eintritt und sich der Rausch auch noch nach Stunden intensivieren kann. Im Gegensatz zum parenteralen Konsum tritt zudem der First-Pass-Effekt ein, der einen Teil des Wirkstoffes noch vor Erreichen der Rezeptoren eliminiert. Die benötigte Dosis ist dadurch größer, teurer und schwerer zu kontrollieren. Mischkonsum. Der Konsum mehrerer Drogen gleichzeitig kann zu Wechselwirkungen führen, welche die Wirkung von Heroin verstärken. Es gibt sehr wenige Überdosierungen von Heroinabhängigen, die letal enden, wenn nur Heroin allein genommen wurde. Wenn allerdings Mischkonsum mit anderen sedierenden Substanzen wie Alkohol oder Benzodiazepinen wie zum Beispiel Flunitrazepam oder Diazepam betrieben wird, steigt die Gefahr einer lebensgefährlichen Überdosis rapide an. Eine Mischung aus Heroin und Kokain wird umgangssprachlich "„Cocktail“" oder "„Speedball“" genannt. Hierbei ist die Wirkung der beiden Drogen entgegengesetzt, was vor allem für das Kreislaufsystem eine gefährliche Belastung darstellt. Die Gefahr einer Überdosierung ist dabei besonders hoch. Werden mit Heroin auch Benzodiazepine eingenommen, besteht die Gefahr eines Atemstillstandes. Beide Stoffe wirken atemdepressiv, rufen also eine verminderte Aktivität der Atemmuskulatur hervor. Heroin kann über eine zerebrale Vaskulitis – vorwiegend in Zusammenhang mit Alkoholaufnahme – auch zu Blutungen im Gehirn führen. Opiumerzeugung und chemische Umwandlung in Morphin. Heroin wird hauptsächlich in Westeuropa und den USA konsumiert. Der Rohstoff Opium wird vor allem in den Nachbarstaaten Afghanistan, Pakistan und Iran (im Jahr 1979 zusammen 1600 Tonnen), sowie im „goldenen Dreieck” um Thailand (160 Tonnen) und in Mexiko (10 Tonnen, mit zuletzt stark steigender Tendenz) erzeugt. Bis in die 1980er Jahre war auch die Türkei ein wichtiger Opiumproduzent. Von den 1600 Tonnen Opium, die 1979 in den drei größten Erzeugerländern hergestellt wurden, sind 1000 Tonnen im Inland verbraucht worden. Die restlichen 600 Tonnen wurden in chemischen Labors, die sich vor allem in Pakistan, Syrien, im Libanon, Iran und der Türkei befanden, in etwa 55 Tonnen Morphin umgewandelt. Der Mohn, aus dem das Rohopium gewonnen wird, wird von Bauern angebaut. Es handelt sich dabei oft um Kleinbauern, für die diese Geldeinkommensquelle oft die einzige ist, mit der sie ihre Steuern bezahlen und solche Güter kaufen können, die sie nicht selbst herstellen. Einen Teil des Opiums verkaufen sie legal an staatliche Einrichtungen, die auch für die Kontrolle des Opiumanbaus verantwortlich sind. Der Rest wird an lokale Händler verkauft, die oft ein Vielfaches des offiziellen Preises zahlen. Im Grenzgebiet Afghanistan, Iran, Pakistan wird ein großer Teil der Produktion von eigenen Händlergruppen "en gros" aufgekauft, die das Opium oder das bereits umgewandelte Morphin im Mittleren Osten weiterverkaufen. Morphinhandel und -transport, Umwandlung in Heroin und Herointransport. Im Mittleren Osten wird das Morphin weiterverkauft, wobei oft Mitglieder der politischen und militärischen Eliten beteiligt sind. Im nächsten Schritt wird es beispielsweise in Zügen, Autos und auf Mauleseln nach Ankara und Istanbul transportiert, dann weiter über den Balkan nach Westeuropa. Hier wird das Morphin in Heroin umgewandelt, das entweder für den europäischen oder nordamerikanischen Markt bestimmt ist. Heroin kann leicht transportiert und versteckt werden, es hat im Verhältnis zu seinem Wert ein leichtes Gewicht und einen kleinen Umfang. Die Behörden sind daher nur im Stande, einen Bruchteil des im Umlauf befindlichen Heroins zu beschlagnahmen. Vom Großeinkäufer bis zum Konsumenten. Wie auch legale Waren wird Heroin von verschiedenen Händlern gekauft und weiterverkauft, jedoch wesentlich öfter. Je mehr Händler beteiligt sind, desto schwieriger ist es, die Großhändler ausfindig zu machen. Die Information, die kleinere Dealer vom nächsthöheren Dealerring (zum Beispiel über die Identität der Mitglieder) bekommen, beschränken sich meist auf ein Minimum. Um große Lieferungen kaufen zu können, werden von den Dealern oft vermögende Leute beteiligt, die der legalen und anerkannten Welt angehören (Freiberufler, Geschäftsmänner, Kaufleute). Diese haben mit dem Geschäft nichts zu tun, sie strecken lediglich unter der Hand größere Geldbeträge vor, mit dem die Drogen gekauft werden. Nach Geschäftsabschluss und oft kurzer Zeit erhalten sie ein Vielfaches des schwarz investierten Kapitals zurück. Der Großhandel mit Heroin wird zu einem erheblichen Teil von kriminellen Organisationen verschiedenster Nationen durchgeführt (zum Beispiel Mafiafamilien oder -Clans). Diese kaufen große Mengen und verkaufen die Drogen weiter an kleinere unabhängige Gruppen. Diese kleineren Gruppen verkaufen das Heroin weiter an die nichtkriminellen Konsumenten. Um im größeren Stil im Heroingeschäft mitmischen zu können, benötigen die kriminellen Organisationen erstens "Kapital" zum Ankauf der Drogen und zur chemischen Umwandlung in geheimen Labors. Zweitens "Gewalt", um die Konkurrenz zu bekämpfen, Zeugen, Polizisten und Beamte einzuschüchtern und schließlich sicherzustellen, dass eingegangene Abmachungen eingehalten werden. Die zur Gewaltausübung rekrutierten Personen reichen von arbeitslosen Jugendlichen bis hin zu Profimördern. Während sich in den Endphasen des Verteilungsprozess beinahe jeder als kleiner oder mittlerer Dealer am Drogenmarkt betätigen kann, ist der Großhandel umkämpft und nur mit organisierter Gewalt kontrollierbar. Gewinne lassen sich vor allem dadurch erzielen, dass man die Drogen teurer weiterverkauft, als man sie gekauft hat. Der Wert der Droge ist von Ort zu Ort verschieden. Der Schmuggler Eric Chalier berichtete in den 1970ern vor Gericht, dass ein Kilo Morphin in Afghanistan 2.000 Dollar kostete, in der Türkei 3.500, in Griechenland 8.000 und in Mailand 12.000 Dollar. Eine weitere Möglichkeit, hohe Gewinne zu erzielen, ist die Veredelung des Morphins in das weitaus teurere Heroin. Hier lagen die Profite damals zwischen 1.000 und 2.000 Prozent. Während es in Afghanistan noch jedem größeren Bauern möglich ist, mit Opium zu handeln, erfordert Heroinhandel in Europa also schon ein gewisses verfügbares Kapital. Abhängigkeit. Heroin zählt aufgrund der für einen hohen Anteil der Konsumenten überwältigenden psychischen Wirkung zu den Substanzen mit dem höchsten Abhängigkeitspotential überhaupt. Körperliche Entzugserscheinungen können je nach individueller Konstellation bereits nach 2 Wochen täglichen Konsums auftreten. Die Konsumform und -dosis wird in der Regel von dem Grad der körperlichen und psychischen Abhängigkeit beeinflusst. Mit häufigerem Rauchen oder nasalem Konsum und damit steigender Toleranz wird diese Einnahmeform unökonomisch, da bei beiden genannten Konsumformen im Schnitt etwa zwei Drittel des Wirkstoffes bei der Einnahme verloren gehen, ohne dass sie an ihren Wirkort, die Opioidrezeptoren, gelangt sind und Heroin am Schwarzmarkt gekauft extrem teuer ist. So sind Abhängige meist gezwungen, auf intravenöse Injektion überzugehen, was durch die höhere Wirkstoffaufnahme auch die Toleranz noch weiter steigen lässt. Gesundheitliche Risiken. Nicht jeder mit Heroin experimentierende (psychisch stabile und sozial abgesicherte) Konsument wird zwangsläufig abhängig. Nichtsdestoweniger führt die sich in der Regel rasch entwickelnde und ausgeprägte körperliche und psychische Abhängigkeit mit ihren Folgen, das Leben in der Drogenszene (mit Vernachlässigung, sozialer Marginalisierung, Disstress, Delinquenz, Obdachlosigkeit), die indirekten Gesundheitsschäden (u. a. Infektionen, Thrombophlebitiden, Embolien bei intravenösem Konsum ohne entsprechende Maßnahmen zur Sterilität) sowie die häufig nachweisbaren Komorbiditäten zu einer gegenüber der Normalbevölkerung 20–50-fach erhöhten Sterblichkeit. Die Rate an Suiziden ist gegenüber der gleichaltrigen Normalbevölkerung um das 14-fache erhöht. Zunehmend wird erkannt, dass Schadensminimierung ("harm reduction") sich nicht auf die körperlichen und psychischen Probleme des einzelnen Konsumenten beschränken kann, sondern auch soziale (und damit politische) Lösungen für ein soziales Problem erfordert. In Deutschland wurden im Jahr 2010 insgesamt 529 Todesfälle gezählt, die direkt mit dem alleinigen Konsum von Heroin in Verbindung standen. In 326 weiteren Todesfällen war Heroin neben anderen Drogen auch involviert. Heroin spielte somit in rund 70 % aller mit Drogenkonsum in Verbindung gebrachten Todesfälle eine Rolle. Im Jahr 2013 wurden in Deutschland insgesamt 194 Todesfälle im direkten Zusammenhang mit Heroin/Morphin gezählt, in 280 weiteren Fällen war Heroin neben anderen Drogen involviert. Der somit auf etwa 47 % gesunkene Anteil lässt sich durch einen entsprechend gestiegenen Anteil an Todesfällen erklären, der mit Opiat-Substitutionsmitteln in Verbindung gebracht wird. Bezogen auf das Jahr 2014 veröffentlichte die Drogenbeauftragte der Bundesregierung keine konkreten Zahlen, bezeichnete Heroinmissbrauch aber weiterhin als Hauptursache in Bezug auf die Zahl der Drogentoten. Akutes körperliches Symptom einer Intoxikation ist hauptsächlich eine dosisabhängige Atemdepression, die durch gleichzeitig eingenommene Sedativa (meist den Beikonsum von Benzodiazepinen) erheblich verstärkt wird. Eine nachgewiesene Folge des Langzeitkonsums ist die Obstipation, welche allerdings auch kurzfristig auftreten kann, da die µ2-Rezeptoren im GI-Trakt wenig oder gar keiner Toleranzentwicklung unterworfen sind, weswegen dieses Symptom bei Dauerkonsum auch langfristig bestehen bleiben kann. Unregelmäßigkeiten des Menstruationszyklus (Oligomenorrhoe oder Amenorrhoe), Unfruchtbarkeit und Abnahme der Libido auf Heroin (oder Opioide) allein zurückzuführen, ist schon bedeutend schwieriger, wenngleich Auswirkungen der Opioide auf das Hormonsystem vielfach nachgewiesen wurden. So kommt es zu einer Abnahme der Blutspiegel des Luteinisierenden Hormons (LH) und Follikel-stimulierenden Hormons (FSH), im Verlauf einer Substitutionsbehandlung bei vielen Frauen aber auch wieder zu einer Normalisierung, womit die Gefahr unerwünschter Schwangerschaften steigt. Es wird angenommen, dass zumindest ein großer Teil dieser hormonellen Veränderungen, die zur Oligo- oder Amenorrhoe führen, auf die Lebensumstände von Opioidabhängigen unter Prohibitionsbedingungen (unausgewogene/Mangelernährung, reduzierter Allgemeinzustand aufgrund diverser Infektionen, welche durch unsauberen IV-Konsum entstehen, soziale Ausgrenzung usw.) zurückzuführen ist. Neugeborene heroinabhängiger Mütter weisen in der Regel ein Neugeborenen-Entzugssyndrom auf, welches zwar nicht grundsätzlich lebensgefährlich für das Neugeborene ist; jedoch wird angenommen, dass durch den vorgeburtlichen Dauerkontakt mit exogenen Opioiden biochemische/physiologische Veränderungen im ZNS/Neurotransmitterstoffwechsel stattfinden. Welche Auswirkungen das jedoch konkret hat, ist bisher noch nicht genau bekannt. Injektion oder Folienrauchen von Heroin kann die Krampfschwelle über eine Beeinflussung des Hippocampus senken und damit Krampfanfälle auslösen. Diese stellten im "bundesdeutschen Modellprojekt zur heroingestützten Behandlung Opiatabhängiger" bei den insgesamt 156 Teilnehmern eines Beobachtungszeitraums von vier Jahren mit insgesamt zehn Fällen das häufigste schwerwiegende unerwünschte Begleitsymptom dar. Unter Methadon-Substitution dürften epileptische Anfälle seltener auftreten. Nach den CASCADE-Daten war die Übersterblichkeit von HIV-infizierten Drogenkonsumenten 2004/2006 insgesamt 3,7-fach höher als bei HIV-infizierten männlichen Homosexuellen. Soziale Folgen. Verschmutzter Platz in einem Versteck zum Heroinkonsum „Längerdauernde Heroinabhängigkeit führt in einem Teil der Fälle zu schwerwiegenden sozialen Folgen, unter anderem aufgrund der Kriminalisierung durch Beschaffung, Besitz und Handel des illegalen Rauschmittels.“ Diejenigen durch Heroinkonsumenten begangenen Straftaten, die in die Kategorie Beschaffungskriminalität fallen, können nicht auf die Substanz an und für sich zurückgeführt werden, sondern müssen mit der Kriminalisierung der Beschaffung erklärt werden. Einer kontrollierte Legalisierung könnte diesen Teil der kriminellen Belastung beseitigen (siehe erfolgreiche Pilotversuche in Deutschland, Schweiz, Niederlanden, England usw.). Oft versetzen abhängige Konsumenten ihren gesamten Besitz, um die Substanz zu finanzieren, was mit sozialem Abstieg verbunden ist (der per se zu einer vermehrten Gesundheitsbeeinträchtigung führt). Die Betroffenen sind meistens nicht imstande, einer Arbeit nachzugehen, werden häufig obdachlos, auch weil sie es nicht mehr schaffen, ihren Verpflichtungen (Ämtergänge etc.) nachzukommen oder weil das gesamte Bargeld in Drogen investiert wird. Es gibt allerdings eine nicht bekannte Zahl von Heroinabhängigen (über die z.B. in der niedrigschwelligen Drogenhilfe wiederholt berichtet wurde), die ihrer Arbeit geregelt nachgehen, sozial integriert sind und ihrem Umfeld ihre Abhängigkeit verheimlichen können, sodass nicht zwingend ein sozialer Abstieg folgt. Entzug. Wenn stark Heroinabhängige nicht innerhalb von acht bis zwölf Stunden nach dem letzten Konsum eine weitere Dosis zu sich nehmen, kommt es zu Entzugssymptomen. Dieser Entzug ist im Allgemeinen nicht lebensbedrohlich, aber oft sehr gefürchtet und körperlich sehr anstrengend. Sämtliche Entzugsmethoden werden kontrovers diskutiert. So kann beispielsweise ein „Turboentzug“ mit Opioidantagonisten wie Naltrexon (Forcierter Opioidentzug in Narkose) mit schwersten gesundheitlichen Risiken verbunden sein. Nach einem körperlichen Entzug besteht die Gefahr, dass die zuvor gewohnte Dosis wegen einer Toleranzabsenkung zu einer Überdosierung führen kann. Modellversuch zur heroingestützten Behandlung. Das Bundesministerium für Gesundheit initiierte in Kooperation mit den Bundesländern Hamburg, Hessen, Niedersachsen und Nordrhein-Westfalen und den Städten Frankfurt am Main, Hamburg, Köln, Bonn, Hannover, München und Karlsruhe ein Modellprojekt zur heroingestützten Behandlung Opiatabhängiger. Im März 2002 lief das Projekt in Bonn an, die anderen Städte folgten nach und nach. Dabei erhielten Opiatabhängige, bei denen bisherige Drogentherapien nicht erfolgreich waren oder bei denen die Methadonsubstitution nicht befriedigend verlief, pharmakologisch reines Heroin (Diacethylmorphin, Diamorphin) zur intravenösen Einnahme unter Aufsicht; eine Kontrollgruppe erhielt parallel die Ersatzdroge Methadon. Beide Gruppen wurden regelmäßig medizinisch betreut und erhielten eine psychosoziale Begleittherapie. Die Zuweisung zu den beiden Gruppen wurde per Zufall vorgenommen; Teilnehmer der Methadongruppe konnten, als Anreiz, nach dem Jahr zur Heroingruppe wechseln. Die Trennung in Experimentalgruppe (Heroin) und Kontrollgruppe (Methadon) war erforderlich, da es sich bei der Studie um eine klinische Arzneimittelprüfung handelte, was für eine mögliche Zulassung von Heroin als Medikament die Voraussetzung darstellte. Beide Gruppen wurden nochmals unterteilt in Untergruppen, die mit unterschiedlichen Verfahren psychosozial betreut wurden, entweder durch Case-Management oder in Form von Drogenberatung mit Psychoedukation. Die Rekrutierung erstreckte sich bis Ende 2003. Insgesamt nahmen 1032 Patienten an dem Projekt teil. Im Ergebnis traten in der Diamorphingruppe mehr Zwischenfälle auf, die gesundheitliche und soziale Situation der Patienten verbesserte sich aber im Vergleich zu denen der Methadongruppe signifikant. Das Projekt war ursprünglich auf zwei beziehungsweise drei Jahre angelegt (zwei Jahre Studie und ein Jahr Auswertung der Studie), wurde aber im August 2004 bis 2006 verlängert, da man die Behandlung nicht abbrechen wollte, aber erst 2006 über die Zulassung von Heroin als Medikament entschieden werden sollte. Nachdem die CDU eine Aufnahme der heroingestützten Behandlung in die Regelversorgung lange Zeit blockiert hatte, wurde diese im Mai 2009 schließlich mit den Stimmen von SPD, FDP, Linkspartei und Grünen beschlossen. In Großbritannien ist Heroin als Schmerzmittel verschreibungsfähig und wird von einigen Ärzten mit Genehmigung des Home Office auch an Heroinsüchtige verschrieben. Diese Behandlungspraxis existiert schon seit den 1920er-Jahren, wurde in den 1970er-Jahren allerdings stark reduziert. Zurzeit werden in ganz England nur einige hundert Suchtkranke mit Heroin behandelt. In den Niederlanden liefen ebenfalls schon Versuche einer heroingestützten Behandlung, die sehr positive Ergebnisse erzielten, genauso wie in Spanien, Belgien, Kanada und Dänemark. In der Schweiz wurde die Heroinabgabe 2008 per Volksabstimmung dauerhaft eingeführt, nachdem sie seit 1994 mittels Sondergenehmigung durchgeführt worden war. Heute ist Heroin unter dem Handelsnamen Diaphin zu einem wichtigen Instrument der Schadensminderung geworden. Da durch die „Nulltoleranzstrategie“ und Kriminalisierung keine Verringerung der Zahl der Heroinsüchtigen erreicht werden konnte und kann, entstanden dort, wo Heroinsüchtige aufgrund ihrer Anzahl und segregierten Existenz (oft an zentralen Plätzen von Großstädten, etwa am Zürcher Platzspitz) von einer breiteren Öffentlichkeit als Gesundheits- und Sicherheitsproblem wahrgenommen wurden, neue Wege des Umgangs mit Heroinsüchtigen. Insbesondere entstand so die akzeptierende Drogenarbeit, deren wesentliches Merkmal die Einrichtung von Drogenkonsumräumen zur staatlich kontrollierten Drogenabgabe ist. Heroin und Kunst. Heroin spielt, wie auch andere Drogen, im Leben und Werk vieler Musiker und Musikerinnen eine Rolle. Viele bekannte Rockbands thematisierten den Gebrauch und die Folgen von Heroin in ihren Songs. Eine der ersten Künstlerszenen, in denen regelmäßig Heroin gespritzt wurde, war die New Yorker Jazzszene der 1940er und 1950er Jahre. Infolge von Charlie Parkers Heroinkonsum übernahmen auch andere Jazzmusiker die Angewohnheit, zum Teil mit Verweis auf Charlie Parkers außergewöhnliches Improvisationstalent. Namhafte Jazzmusiker, wie etwa Art Blakey, Bud Powell, Thelonious Monk, Elmo Hope, Dexter Gordon, Jackie McLean, John Coltrane, Sonny Rollins, Hank Mobley, Stan Getz und Miles Davis konsumierten jahrelang Heroin und waren zeitweise echte Junkies. Mit Charlie Parker, Fats Navarro, Chet Baker und Billie Holiday gab es auch einige prominente Opfer der Heroinabhängigkeit. Parker setzte seinem Dealer Emry Bird mit der Komposition "Moose the Moocher" sogar ein musikalisches Denkmal. Anita O’Day nannte ihre 1981 erschienene Autobiografie „High Times, Hard Times“. John Lennon schrieb 1969 den Song "Cold Turkey". Darin beschrieb er den Versuch, gemeinsam mit Yoko Ono von der Droge loszukommen. Die Rolling Stones veröffentlichten die Songs "Coming Down Again" und "Before They Make Me Run", welche von Keith Richards geschrieben wurden und von seiner Heroinsucht handeln. Mick Jagger schrieb die Songs "Monkey Man" und zusammen mit Marianne Faithfull "Sister Morphine". Das Album "Sticky Fingers", welches in den britischen und amerikanischen Charts Platz eins erreichte, behandelt in jedem Track Aspekte von Drogenkonsum. Black Sabbath schrieben mit "Hand of Doom" einen Song, der sich mit der oft vernichtenden Wirkung der Droge befasste. Die New Yorker Band The Velvet Underground, besonders Lou Reed, schrieb viele Songs über Heroin. Die Songs "Waiting for the Man" und das eindeutig betitelte "Heroin" gelten mittlerweile als Klassiker des drogeninspirierten Rock. Im Punkrock war Heroin zum Ende der 1970er-Jahre eine häufig anzutreffende Droge. Die Ramones weigerten sich den von Dee Dee Ramone geschriebenen Song "Chinese Rocks" zu spielen, da er zu offensichtlich Drogenmissbrauch thematisierte. Dee Dee vollendete den Song mit Richard Hell von der Band The Heartbreakers. Der Song wurde zu einem der populärsten Stücke der Gruppe. a> starb 2014 an einer Überdosis von verschiedenen Drogen, darunter Heroin Der wohl bekannteste Song der Stranglers, Golden Brown, dreht sich nach Aussage deren damaligen Frontmanns Hugh Cornwell um Heroin, zwecks Wahrung der Zweideutigkeit im Text aber auch um ein Mädchen. Ein ähnliches lyrisches Mittel ließ bereits Lou Reed in seiner Ballade "Perfect Day" aus dem Jahr 1972 durchblicken. Einer der bekanntesten Red Hot Chili Peppers Songs, "Under the Bridge", thematisiert die Heroinerfahrungen des Sängers Anthony Kiedis in den Drogenregionen von Los Angeles. Der Christian-Death-Sänger Rozz Williams beschrieb in seinem letzten Soloalbum vor seinem Suizid, "From the Whorse’s Mouth", seine Suchtprobleme. Kurt Cobain spritzte zur Zeit der Veröffentlichung von Nevermind bereits regelmäßig Heroin. Kevin Russell, Sänger der Band Böhse Onkelz, war jahrelang heroinabhängig. Die Band thematisiert dies sehr deutlich im Song "H". Der niederländische Rockmusiker Herman Brood war jahrzehntelang von Heroin abhängig. In Liedern wie "Rock’n’Roll Junkie" und "Dope Sucks" setzte er sich mit Heroin auseinander. Brood nahm sich im Juli 2001 nach einer Entgiftung das Leben. In seinem Abschiedsbrief stand, dass ihm ein Leben ohne Drogen nicht lebenswert erschiene. Einige bekannte Musiker und Musikerinnen sind an den Folgen ihrer Sucht gestorben, unter anderem Janis Joplin, Dee Dee Ramone, Phil Lynott, Hillel Slovak, John Belushi und Sid Vicious. Die Öffentlichkeitswahrnehmung von Heroinkonsum wird auch von Filmen beeinflusst, in denen die Droge eine dominante Rolle spielt, so beispielsweise in Christiane F. – Wir Kinder vom Bahnhof Zoo oder in Trainspotting – Neue Helden, die jeweils auf Buchvorlagen beruhen. Deutschland. Mit dem Gesetz zur diamorphingestützten Substitutionsbehandlung ("Diamorphin-Gesetz") wurde Diamorphin im Juli 2009 ein verschreibungsfähiges Betäubungsmittel, das unter staatlicher Aufsicht in Einrichtungen, die eine entsprechende Erlaubnis besitzen, an Schwerstabhängige abgegeben werden kann. Der verschreibende Arzt muss suchttherapeutisch qualifiziert sein, die Betroffenen müssen mindestens 23 Jahre alt, seit mindestens fünf Jahren opiatabhängig sein und mindestens zwei erfolglose Therapien nachweisen. Durch das Gesetz wurden das Betäubungsmittelgesetz, die Betäubungsmittelverschreibungsverordnung und das Arzneimittelgesetz entsprechend geändert. Schweiz. In der Schweiz darf Heroin nach dem "Bundesgesetz über die Betäubungsmittel und die psychotropen Stoffe" nicht angebaut, eingeführt, hergestellt oder in Verkehr gebracht werden. Eine ärztlich kontrollierte Abgabe ist unter speziellen Bedingungen jedoch möglich. Andere Staaten. In Kanada und vor allem in Großbritannien wird Diacetylmorphin nach wie vor als Schmerzmittel eingesetzt, insbesondere bei chronischen Schmerzen und in der Palliativmedizin. In Großbritannien darf es von zugelassenen Ärzten auch zur Erhaltungstherapie bei Opiatabhängigen eingesetzt werden. Großbritannien ist das einzige Land weltweit, in dem Abhängige Heroin tatsächlich „auf Rezept“ bekommen können, während entsprechende Behandlungsformen in Deutschland und der Schweiz immer die Einnahme unter Aufsicht voraussetzen. In Dänemark wird der Besitz einer geringfügigen Heroinmenge zur Deckung des persönlichen Bedarfs nicht bestraft und es wird in diesen Fällen auch die Sicherstellung der Substanz unterlassen, da dies kriminelle Handlungen bei der Beschaffung einer neuen Dosis auslösen könnte. Aus diesem Grund ist auch in Tschechien Anfang 2010 eines der liberalsten Drogengesetze, das den Besitz von bis zu 1,5 g Heroin erlaubt, in Kraft getreten. Von dortigen Hilfsorganisationen wie „Sananim“ oder „Drop“ wird die neue Gesetzgebung einerseits wegen der Entkriminalisierung begrüßt, andererseits aber mit dem Argument, der Staat kümmere sich unzureichend um Vorbeugung und Betreuungsangebot für Drogensüchtige, kritisiert. Damit wird eines der wesentlichen Probleme, denen sich die Drogenpolitik zu stellen hat, auf den Punkt gebracht: Eine Teillegalisierung entlastet zwar Abhängige, lässt aber die nicht unbegründete Befürchtung aufkommen, dass der Konsum teil-legaler Drogen damit zunimmt. Hainbuche. Die (Gemeine) Hainbuche ('), auch Weißbuche, Hagebuche oder Hornbaum genannt, gehört zur Gattung der Hainbuchen (') aus der Familie der Birkengewächse (). Sie wächst als mittelgroßer, laubabwerfender Baum oder Strauch in Europa und Westasien. Entgegen dem, was ihre deutschsprachigen Namen suggerieren, ist sie nicht näher mit der ("einzigen" in Mitteleuropa vertretenen Buchenart) Rotbuche (') verwandt. Diese gehört vielmehr zur Gattung der Buchen (') innerhalb der Familie der Buchengewächse (). Lediglich derselben Ordnung (Buchenartige ()) gehören Hainbuche und Rotbuche an. Name. Die Namen "Hainbuche" wie auch "Hagebuche" leiten sich vom althochdeutschen „haganbuoche“ ab, wobei "hag" „Einzäunung“, „Hecke“ bedeutet und sich auf die Schnittfähigkeit der Pflanze bezieht. Ersterer, jüngerer Name steht ab dem Mittelalter zu Hain „kleiner Wald“ als Wortbildung zu "Hag", da Hainbuchen klimatolerant sind und auch auf dem freien Feld gut gedeihen und daher Haine bilden können. Der zweite Namensteil „Buche“ rührt von der äußerlichen Ähnlichkeit mit der Rotbuche (Größe, Form und Nervenmuster der Blätter, glatte Rinde) her; in anderen Merkmalen (Habitus, Früchte) sind Hainbuchen und Buchen jedoch völlig verschieden. Von Hagebuche kommt das Adjektiv "hanebüchen" für derb, grob (hartes, zähes Holz). Der Name "Weißbuche" beruht auf der im Gegensatz zur Rotbuche hellen Holzfarbe der Hainbuche. Merkmale. Die Hainbuche ist ein sommergrüner Laubbaum, der Wuchshöhen bis 25 Meter und Stammdurchmesser von bis zu einem Meter erreicht. Im Kaukasus wird der Baum bis 35 Meter hoch. Das Höchstalter beträgt etwa 150 Jahre. Die Stämme bilden in geschlossenen Beständen acht bis zehn Meter lange Schäfte aus, im Extremfall auch bis 18 Meter lange. Der Stamm hat meist einen unregelmäßigen Querschnitt (spannrückig). Häufig ist der Stamm krumm. Die Äste sind bei jungen Bäumen senkrecht orientiert und biegen im Alter in die Horizontale um. Die Kronen sind dicht und setzen sich aus weit ausladenden Ästen der unteren Bereiche und senkrecht orientierten Ästen der oberen Bereiche zusammen. Freistehende Bäume bilden mächtige, breit-ovale Kronen. Knospen, Blätter, junge Triebe. Doppelt gesägtes Blatt der Hainbuche Die Winterknospen sind spindelförmig und fünf bis acht Millimeter lang. Sie liegen dem Trieb dicht an. Die Knospenschuppen sind braun bis rotbraun und am Rand bewimpert. Die Blütenknospen sind etwas größer und weniger spitz als vegetative Knospen. Die wechselständigen Blätter sind vier bis zehn Zentimeter lang, zwei bis vier Zentimeter breit, eiförmig und am Ende zugespitzt. Der Blattrand ist doppelt gesägt. Es gibt 10 bis 15 parallel stehende Blattadern-Paare. Die Unterseite der Blätter ist anfangs behaart (zumindest in den Winkeln der Blattadern), später jedoch kahl. Die Herbstfärbung ist leuchtend gelb, die Blätter haften teilweise in braunem Zustand bis zum Frühjahr an den Zweigen. Die jungen Triebe sind glänzend braun (bis grünlich braun) und schwach behaart. Später werden sie bräunlich-grau und kahl. Sie besitzen zahlreiche weiße, elliptische Lentizellen. Blüten und Früchte. Hainbuchen sind monözisch, d. h. sie besitzen männliche und weibliche Blüten, die jedoch auf einem Individuum vorkommen. Den Blüten fehlen die Kronblätter. Die Blütenstände sind reduzierte Zymen. Blüten werden an den jungen Trieben angelegt, überwintern als Knospe und erscheinen kurz vor und zeitgleich mit den Blättern. Die Bestäubung erfolgt durch den Wind. Blütezeit ist im April und Mai. Die männlichen Blüten stehen einzeln in den Zymen an vielblütigen Kätzchen. Diese sind hängend, vier bis sechs Zentimeter lang und gelbgrün. Eine Blüte besteht aus acht gespaltenen Staubblättern, eine Blütenhülle fehlt. Jede Blüte steht in der Achsel eines Deckblattes, Vorblätter fehlen. Die weiblichen Blüten stehen zu zweit in Zymen. Jede Zyme steht in der Achsel eines Deckblattes. Alle Zymen zusammen bilden einen vielblütigen, zwei bis vier Zentimeter langen Blütenstand. Jede Blüte hat ein kleines, gewelltes Perianth und ist zudem von einem Deckblatt und zwei Vorblättern umgeben. Die Samenanlagen besitzen zwei Integumente, der Embryosack entwickelt sich nach dem Polygonum-Typ. Die Befruchtung verläuft chalazogam, die Entwicklung des Endosperms nucleär. Keimling mit den beiden typischen linsenförmigen Keimblättern Die Frucht ist eine kleine, einsamige Nuss, die in der Achsel eines dreilappigen, drei bis fünf Zentimeter langen Blattorgans steht, welches aus den Deck- und Vorblättern der Blüte entsteht. Dieses Blattorgan ist zunächst grün und dient der Versorgung der sich entwickelnden Frucht mit Assimilaten. Zur Fruchtreife vertrocknet es und dient als Flügel bei der Windausbreitung der Früchte. Zur Reifezeit (August/September) sind die Fruchtstände bis 17 Zentimeter lang. Die Früchte lösen sich aber erst im Oktober/November ab. Die Chromosomenzahl beträgt 2n = 64. Wurzeln und Mykorrhizen. Hainbuchen bilden in tiefgründigen Böden tiefreichende Herzwurzeln aus. In feuchten Böden konzentrieren sich die Wurzeln in den obersten 35 Zentimetern, weshalb die Bäume solcher Standorte anfällig gegen Windwurf sind. Die Art geht mehrere Formen von Ektomykorrhiza-Symbiosen ein, bevorzugt aber keinen spezifischen Partner. Als Symbionten sind rund 25 Arten von Ständerpilzen bekannt, aber nur wenige Schlauchpilze und Deuteromyceten. Holz und Rinde. Das Holz der Hainbuche ist weiß bis gräulich-weiß, was ihr den Namen Weißbuche im Gegensatz zum rötlichen Holz der Rotbuche einbrachte. Es gibt keine Farbunterschiede zwischen Splint- und Kernholz. Das Holz ist gleichmäßig aufgebaut, Jahresringe sind nur schwer erkennbar. Das Holz der Hainbuche ist sehr hart und schwer, es ist härter als das der Buche und der Eiche (Härte nach Brinell 36 N/mm²). Diese Eigenschaft hat der Hainbuche – wie einigen anderen Baumarten – den Namen "Eisenbaum" eingebracht. Die Rohdichte beträgt im Mittel 0,82 g/cm³. Das Holz hat im Mittel folgende Zusammensetzung: 18 bis 28 Prozent Lignin, 43 bis 49 Prozent Zellulose, 19 bis 27 Prozent Pentosane. Die Rinde ist grau, dünn und glatt. Sie kann bei alten Bäumen in Längsrichtung aufreißen. Auch innerhalb der Rinde bilden sich ca. 0,12 Millimeter breite Jahresringe. Vorkommen. Obwohl die Gattung "Carpinus" fossil bereits aus dem Tertiär bekannt ist, lässt sich die Hainbuche erst in Sedimenten aus dem Quartär nachweisen. Die eiszeitlichen Refugien der Hainbuche lagen in Südeuropa und im Kaukasus. Ab ca. 7000 v. Chr. wanderte sie nach Mitteleuropa ein. 5000 bis 4000 v. Chr. war sie bereits weit verbreitet. Etwa 2000 v. Chr. hatte sie ihre heutige Ausdehnung erreicht. Areal. Das Areal der Hainbuche umschließt Mitteleuropa, Nordanatolien, den Kaukasus und das Elbursgebirge. Die Nordgrenze in Europa verläuft von Südwestengland über Nordbelgien nach Norddänemark, wo die Hainbuche bei 57° 30' nördlicher Breite ihren nördlichsten Punkt erreicht. Weiter führt die Grenze über Südschweden durch Lettland, Litauen, Weißrussland und durch die Ukraine, wo sie den Dnepr nur geringfügig in östlicher Richtung überschreitet. In den Steppenregionen, die nordwestlich ans Schwarze Meer angrenzen, also in der Südukraine und in der Dobrudscha, fehlt die Hainbuche ebenso wie auf der Krim. Sie kommt im gesamten Kaukasus und in Küstennähe des Kaspischen Meeres auch im Elbrusgebirge vor. Südlich der Pyrenäen, auf Korsika, Sardinien und Sizilien kommt die Hainbuche nicht vor, wohl aber auf der Apennin- und der Balkanhalbinsel. Auch in Anatolien kommt sie nur in einem schmalen Streifen entlang der Küste des Schwarzen Meeres vor. Standorte. Die Hainbuche ist im subozeanischen Klima verbreitet. Sie verträgt warme Sommer, an ihrer östlichen und nördlichen Verbreitungsgrenze erträgt sie Temperaturen bis -30° C. Im Süden des Areals wächst sie bevorzugt in feuchten, schattigen Tallagen bzw. in regenreichen Gebieten wie Nordanatolien, Colchis und an den Nordhängen von Kaukasus und Elbrus. Im Norden des Areals ist die Hainbuche relativ wärmebedürftig und meidet exponierte Lagen. Optimale Wuchsleistungen erbringt die Hainbuche auf nährstoffreichen, mesotrophen bis eutrophen Böden, die frisch bis periodisch nass sind. In Mitteleuropa wächst sie meist auf Braunerde und Pseudogley, die aus diluvialen Ton- bzw. Ton-Sand-Ablagerungen hervorgegangen sind. In Südeuropa und in den Gebirgen wächst sie auf Rendzinen, in Südost-Europa auf Lößböden. Nach Heinz Ellenberg hat die Hainbuche folgende Zeigerwerte: Halbschatten bis Schattenpflanze, Mäßigwärme- bis Wärmezeiger, subozeanisch, mit Schwergewicht in Mitteleuropa, nach Osten ausgreifend. Bezüglich Feuchte, Reaktionszahl und Stickstoff ist die Art indifferent. Die Hainbuche ist die Charakterart der Eichen-Hainbuchen-Wälder (Carpinion betuli). Systematik. Innerhalb der Gattung "Carpinus" gehört die Hainbuche zur Sektion Carpinus. Schon 1753 wurde sie von Carl von Linné unter dem heute noch gültigen Namen "Carpinus betulus" beschrieben. Wie die meisten "Carpinus"-Arten besitzt die Hainbuche in ihrem südlichen Verbreitungsgebiet einen diploiden Chromosomensatz von 2n=16. Im Norden kommen jedoch überwiegend oktoploide Individuen vor. Krankheiten und Fraßfeinde. Es sind mehr als 200 Pilzarten bekannt, die die Hainbuche befallen können, darunter etliche Mehltau- und Rostpilze. Von den holzzerstörenden Pilzen sind besonders die Weißfäule-Erreger wichtig, unter denen es jedoch keine Hainbuchen-spezifischen Arten gibt. Unter den über 70 Insekten- und Milbenarten, die die Hainbuche befallen, sind nur wenige auf die Hainbuche spezialisiert, zum Beispiel die Schildlaus "Parthenolecanium rufulum" Cockerell und der Borkenkäfer "Scolytus carpini" Ratz. Junge Pflanzen können durch Rothirsch und Reh verbissen werden, Sämlinge und Früchte werden von verschiedenen Nagetieren gefressen. Nutzung. Bestand mit ehemals geschneitelten Hainbuchen Die wirtschaftliche Bedeutung der Hainbuche ist heute eher gering. Das Holz wird wegen seiner Dichte und Härte zur Herstellung von Parkett und bestimmten Werkzeugen, zum Beispiel Hobelsohlen, für Werkzeughefte und Hackblöcke verwendet. Im Klavierbau verwendet man das Holz für die Hämmer. Die früheren Einsatzbereiche waren weit umfangreicher: Webstühle, Zahnräder, Schuhleisten, Stellmacherei, landwirtschaftliche Geräte und vieles mehr. Die Hainbuche liefert hervorragendes Brennholz, welches sich jedoch in getrocknetem Zustand nur außerordentlich schwer spalten lässt; frisch geschlagenes Hainbuchenholz ist gut spaltbar. In dieser Anwendung lag früher die Hauptnutzung der Hainbuchen. In Mitteleuropa wurde die Hainbuche durch den Menschen früher indirekt stark gefördert, da sie in den der Brennholzgewinnung dienenden Niederwäldern durch ihr hohes Stockausschlagvermögen gegenüber der Rotbuche einen eindeutigen Konkurrenzvorteil hatte. Bereits in römischer Zeit, aber auch noch im Dreißigjährigen Krieg, wurden Wehrhecken (Landwehren) in Mitteleuropa zu einem großen Teil aus Hainbuchen angepflanzt. Die Hagebüsche wurden mit Äxten angehauen und umgeknickt. So wuchsen sie – zusammen mit Brombeeren, Heckenrosen und anderen Dornensträuchern – zu undurchdringlichen Gebilden, die „Knickicht“, „Wehrholz“, „Landheeg“ oder „Gebück“ genannt wurden. Im 11. Jahrhundert etwa legte Kurmainz eine Landwehr, das Rheingauer Gebück, an, das den ganzen Rheingau zwischen Nieder-Walluf und Lorchhausen gegen den Taunus hin abgrenzte. Die Landwehr war 50 bis 100 Schritt breit und nur an wenigen Stellen mit Durchlässen versehen. Für die Instandhaltung sorgte ein eigenes Haingericht. Viele Ortsnamen mit den Endungen -hagen und -hain weisen auf solche Landwehren hin. Hainbuchen wurden früher oft regelmäßig geschneitelt, um Futter für das Vieh zu gewinnen. Es entstanden dadurch bizarre, knorrige und oft hohle Baumgestalten, die man in manchen Wäldern heute noch vorfindet. Als "Heilpflanze" wird die Hainbuche in der Bach-Blütentherapie ("Hornbeam", englische Bezeichnung für die Hainbuche) gegen Übermüdung und Erschöpfung und in der traditionellen Medizin nach Hildegard von Bingen gegen weiße Hautflecken (Vitiligo) eingesetzt. Im letztgenannten Fall werden die erwärmten Hainbuchenspäne auf die betroffenen Hautstellen gedrückt. In Gärten werden Hainbuchen wegen ihres guten Ausschlagvermögens und ihrer dichten Belaubung gern als geschnittene Hecke gepflanzt. Auch als Alleebäume werden sie verwendet, hierfür gibt es schmalkronige Sorten. Die Hainbuche war Baum des Jahres im Jahr 1996 in Deutschland und im Jahr 2007 in Österreich. weitere Trivialnamen. Für die Hainbuche bestehen bzw bestanden, zum Teil auch nur regional, auch die weiteren deutschsprachigen Trivialnamen: Buchäsche, Bucheschern, Flegelholz, Haanböke (Unterweser, Holstein), Haböke (Holstein), Häneböke (Göttingen), Hagabuache (St. Gallen), Hagenbocha (althochdeutsch), Hagenbucha (althochdeutsch), Hagenpuocha (althochdeutsch), Hagenpuoche (althochdeutsch), Hagbeik (Pommern), Hagböhk (Mecklenburg), Hagbuche, Hagbuoch (mittelhochdeutsch), Hageboche (althochdeutsch), Hagebouche (mittelhochdeutsch), Hageböke (Holstein), Hagebuche, Hagenbucha, Hagebuocha (mittelhochdeutsch), Hagenbuocha (mittelhochdeutsch), Hagenbutzbaum (mittelhochdeutsch), Hagenpuch (mittelhochdeutsch), Haginbuocha (althochdeutsch), Hainbucha, Hainbuche (Österreich, Ostpreußen), Hainbuache (mittelhochdeutsch), Haineböcke (Göttingen), Hambuche (Elsass, Schlesien), Hanbuoche (mittelhochdeutsch), Hanbuchen, Haonbok (Altmark), Hartbaum, Hatholz, Hanbuche, Hekebuche, Heginbouch (althochdeutsch), Heimbök (Altmark), Hoanbuchen (Salzburg), Hohnbach (Siebenbürgen), Hombeach (Siebenbürgen), Hornbaum, Hornbuche (Schlesien), Hoster (Mecklenburg), Jochbaum, Leimpaum (mittelhochdeutsch), Rauchbuche (im Sinne von raublättrige, Hohenlohe), Rollholz, Spindelbaum, Steinbuche (Bayern um Eichstätt, Kärnten), Steinriglholz (im Sinne von Felshügelholz, Wien), Tragebuche, Weißbuche (Österreich, Schlesien), Welgebaum, Wieglbaum, Wielholzbaum, Wittboike (Altmark, Göttingen, Weser), Zaunbuche und Zwergbuche. Hypsobarometer. Ein Hypsobarometer ist ein Instrument zur Höhenmessung, das sich die Abhängigkeit des Siedepunktes einer Flüssigkeit vom Luftdruck zunutze macht. Erfunden wurde es von Gabriel Daniel Fahrenheit, der diesen Zusammenhang unabhängig von Robert Boyle entdeckte. Holland. Die Provinzen Nordholland und Südholland im Staatsgebiet der Niederlande Holland ist ein Teil der Niederlande, der im Westen von der Nordsee, im Osten vom IJsselmeer, den Provinzen Utrecht, Gelderland und Nordbrabant sowie im Süden von der Provinz Zeeland begrenzt wird. Holland, das lange als Grafschaft Holland auch eine politische Einheit war, ist seit 1840 auf die Provinzen Nordholland und Südholland verteilt. Die nördliche Grenze liegt bei Den Helder und der Insel Texel, die südliche im Delta von Rhein, Maas und Schelde. In Holland liegen unter anderem die Großstädte Den Haag, Rotterdam und Amsterdam, die Teil des Ballungsraumes Randstad sind. Im Westen, an der Nordsee, befinden sich entlang der Küste überwiegend Dünen, landeinwärts sind flache Polder vorzufinden. Der Großteil Hollands liegt unterhalb des Meeresspiegels. In der deutschen Umgangssprache, wie auch in der Umgangssprache anderer Länder der Erde, aber auch von vielen Niederländern selbst, wird „Holland“ oft pars pro toto für die „Niederlande“ benutzt. Dieser Sprachgebrauch setzte mit Beginn des 17. Jahrhunderts ein, als die Provinz „Grafschaft Holland“ zur einflussreichsten Provinz der "Republik der Sieben Vereinigten Provinzen" aufstieg. Hiermit trat eine Veränderung im internationalen Sprachgebrauch ein, denn bis Ende des 16. Jahrhunderts war das Land bei Handelspartnern im Ausland mehr unter der Bezeichnung „Flandern“ bekannt. Die Provinzen „Grafschaft Flandern“ sowie „Herzogtum Brabant“ waren dem Ausland ein Begriff, da sie bis zum ausgehenden 16. Jahrhundert die aktivsten Provinzen des Landes im internationalen Handel waren. Die Provinz der „Grafschaft Holland“ sowie die „Republik der Sieben Vereinigten Provinzen“ konnten sich erst im internationalen Überseehandel entwickeln und eine internationale Bekanntheit aufbauen, nachdem ein auf dem Land zwischen 1585 und 1608 lastendes Handelsembargo aufgehoben worden war. Geschichte. Das Gebiet war für einige Jahre unter Augustus als "Germania magna" Bestandteil des Römischen Reiches. Nach Jahrhunderten der Unabhängigkeit der Friesen wurde es dann Teil des Frankenreiches und des nachfolgenden Heiligen Römischen Reiches Deutscher Nation. 1384 kam es unter französischen Einfluss (Burgundische Niederlande). 1430 kam die Grafschaft Holland durch Erbschaft endgültig an das Haus Valois-Burgund und nach dem Tod des letzten Burgunderherzogs Karls des Kühnen 1477 an das Haus Habsburg, später an die spanische Linie der Habsburger (Spanische Niederlande). Ab 1581 war die Grafschaft Holland führende Provinz der Republik der Sieben Vereinigten Provinzen. Während der napoleonischen Zeit gab es das Königreich Holland (1806–1810), das die heutigen Niederlande umfasste. Um die Dominanz Hollands zu verringern, welches der kulturelle, politische und gesellschaftliche Hauptteil des Landes war, wurde es 1840 in die heutigen beiden Provinzen Nordholland und Südholland geteilt. Der Name "Holland" wurde erstmals 866 als "Holtland" („Holzland“ oder „Waldland“) für die Gegend um Haarlem erwähnt. Hundertjähriger Krieg. Als Hundertjähriger Krieg (französisch ', englisch ') wird die Zeit von 1337 bis 1453, bezogen auf den zu dieser Zeit herrschenden bewaffneten anglofranzösischen Konflikt sowie den sich daran anschließenden französischen Bürgerkrieg der Armagnacs und Bourguignons, bezeichnet. Den Hintergrund der andauernden Kämpfe bildeten Letzten Endes waren es die Valois’, die siegreich aus der langjährigen Auseinandersetzung hervorgingen. Der Hundertjährige Krieg trug entscheidend zur endgültigen Herausbildung eines eigenen Nationalbewusstseins sowohl bei den Franzosen als auch bei den Engländern bei, wie auch zu einer abschließenden Aufspaltung von Frankreich und England in zwei separate Staatswesen. [Näheres dazu s. u., "Begriffsgeschichte" (letzter Absatz) ff.] Begriffsgeschichte. Historiker John Richard Green (1837–1883) Der Begriff „Hundertjähriger Krieg“ wurde von Historikern rückblickend eingeführt und bezeichnet traditionell die Zeit von 1337 bis 1453, in der englische Könige versuchten, ihre Ansprüche auf den französischen Thron mit Waffengewalt durchzusetzen. Dennoch bestand dieser Konflikt aus mehreren Phasen und einzelnen Kriegen, die erst später als ein einziger Komplex verstanden wurden. Bereits zeitgenössische französische Chronisten datierten die Kriege jener Zeit zurück bis ins Jahr 1328 und deuteten somit die größeren Zusammenhänge an. So schrieb zum Beispiel Eustache Deschamps um das Jahr 1389 in einem Gedicht von gegenwärtigen Kämpfen, die seit "cinquante deux ans" (52 Jahren) andauerten. Auch im 16. Jahrhundert erkannte man einen Zusammenhang zwischen den einzelnen Kampfhandlungen. So bemerkte J. Meyer in seinen "Commentaria sive Annales Rerum Flandicarum", dass der Krieg zwischen England und Frankreich in seinen Intervallen über hundert Jahre dauerte. Doch erst Jean de Montreuil ging in seinem 1643 erschienenen Buch "Histoire de France" explizit von einem einzigen Krieg aus, der von 1337 bis 1497 angedauert habe. Darin folgten ihm später auch britische Historiker wie David Hume in seiner "History of England" (1762) und Henry Hallam in seinem "View of the State of Europe During the Middle Ages" (1818), auch wenn sie in Bezug auf die Dauer des Konfliktes abwichen. In Frankreich machte Professor François Guizot diese Herangehensweise ab 1828 bekannt, auch wenn der konkrete Begriff „guerre de cent ans“ bereits einige Jahre älter war. Zum ersten Mal verwendete ihn C. Desmichels im Jahre 1823 in seinem "Tableau chronologique de l’Histoire du Moyen Age". Das erste Buch, welches diesen Begriff als Titel trug, erschien 1852 von Théodore Bachelet. Kurz darauf, im Jahre 1855, machte der Historiker Henri Martin den Begriff und ein umfassendes Konzept dazu in seiner populären "Histoire de France" bekannt. Begriff und Konzept setzten sich in Frankreich schnell durch. Bereits 1864 verwendete ihn Henri Wallon und später auch François Guizot selbst in seiner "Histoire de France" (1873). Im englischsprachigen Raum setzte sich Edward Freeman seit 1869 für eine Übernahme des französischen Begriffes ein. John Richard Green folgte diesem Rat in seiner "Short History of the English People" (1874) und in den folgenden Jahren erschienen in Großbritannien zahlreiche Monographien unter diesem Titel. Die Encyclopædia Britannica verzeichnete ihn erstmals in ihrer Ausgabe von 1879. Im 20. Jahrhundert wurde der Begriff mehrfach kritisiert. Man wies darauf hin, dass er lediglich die dynastischen Aspekte und eine bestimmte Phase der englisch-französischen Beziehungen hervorhebe, die sich nicht wesentlich von der vorangegangenen Entwicklung seit der normannischen Eroberung Englands (1066) unterscheide. Andere Historiker vertraten die Ansicht, dass die verschiedenen Phasen und Kriege des Konfliktes zu unterschiedlich seien, als dass sie zusammengefasst werden könnten. Auch stelle es einen Kritikpunkt dar und sei ziemlich willkürlich, wenn das Kriegsende auf 1453 festgelegt werde. Dem Fall von Bordeaux folgte in der Tat kein Friedensschluss und auch danach kam es 1474, 1488 und 1492 zu englischen Invasionen, die in der Tradition des vorangegangenen Konfliktes lagen. Weiterhin hielt die englische Krone die Stadt Calais bis zum Jahr 1558, während sie ihre Ansprüche auf den französischen Thron bis zum Jahr 1802 behauptete. So unterschiedlich die Kritik ausfiel, so unterschiedlich sehen bis heute die verschiedenen Konzepte aus, die daraus resultierten. Gemeinsam ist ihnen lediglich eine allgemeine Abkehr von der nationalen Herangehensweise des 19. Jahrhunderts. Wie der Historiker Kenneth Fowler betonte, betrachtet man die Geschichte des Krieges inzwischen als "anglo-französisch" statt "englisch" und "französisch". Dies sei notwendig, weil es ein „England“ oder „Frankreich“ in unserem heutigen Verständnis vor 1337 nicht gab und die beiden vorstaatlichen Gebilde eng ineinander verwoben waren. Ihre Loslösung voneinander ergab sich erst im Laufe des Konfliktes selbst. Das anglo-französische Verhältnis. Die Lehen der englischen Könige (rot) in Frankreich auf dem Höhepunkt ihrer territorialen Ausbreitung (um 1173). 1066 hatte der normannische Herzog Wilhelm I. England erobert und sich dort zum König ausgerufen. In der Folge stellten die mit ihm in das Land gekommenen Adeligen die neue Aristokratie Englands. Sie blieben der französischen Herkunft noch lange kulturell und in ihrem Selbstverständnis eng verbunden, die englische Sprache setzte sich beispielsweise erst ab etwa 1250 nach und nach in der herrschenden Schicht durch. Zudem verfügte die englische Aristokratie bis zu Beginn des 13. Jahrhunderts oftmals noch über teilweise beträchtlichen Grundbesitz in Frankreich. Politisch nahmen die englischen Könige eine Doppelrolle ein. Während sie einerseits England als souveränes Königreich beherrschten und damit dem französischen König gleichgestellt waren, blieben sie zugleich Herzöge und Grafen in Frankreich und waren in dieser Rolle dem französischen König lehensrechtlich untergeordnet. Auf dem Höhepunkt ihrer territorialen Ausdehnung (1173) beherrschte das so genannte Angevinische Reich neben dem Königreich England die französischen Herzogtümer Normandie, Aquitanien, Gascogne und Bretagne sowie die Grafschaften Anjou, Maine und Touraine. Der souveräne englische König war damit zugleich größter Grundbesitzer in Frankreich und mit den dortigen Territorien mächtigster Vasall des französischen Königs. Das französische Königsgeschlecht der Kapetinger war stets bemüht, die Rolle der anglo-französischen Vasallen zu schwächen. In einer ganzen Vielzahl von teils diplomatischen, aber auch bewaffneten Konflikten gelang es ihm nach und nach, den ungeliebten Vasall zurückzudrängen. Um die Wende zum 13. Jahrhundert kam es zum Krieg zwischen dem französischen König Philipp II. und seinem englischen Vasall Johann Ohneland. In der Folge gingen im Jahr 1202 die Grafschaften Touraine und Anjou, 1204 das Herzogtum Normandie sowie 1205 die Grafschaft Maine verloren. Nach einem Streit um die Nachfolge entfernte sich auch die Bretagne 1213 zusehends von England. Alle Versuche des englischen Königshauses, die verlorenen Gebiete zurückzuerobern, scheiterten in den folgenden Jahren (Schlachten von Roche-aux-Moines und Bouvines). 1224 besetzte König Ludwig VIII. den überwiegenden Teil Aquitaniens. Der englische König Heinrich III. erkannte die Verluste schließlich 1259 im Vertrag von Paris an. Die wenigen verbliebenen Gebiete Aquitaniens wurden mit der Gascogne zum neuen Herzogtum Guyenne zusammengefasst. Auch wenn es in den folgenden Jahrzehnten aufgrund der guten persönlichen Beziehungen zwischen Eduard I. und Philipp IV. zunächst zu einer gewissen Beruhigung kam, bestand der grundsätzliche Gegensatz doch fort. Unter Eduard II. auf englischer und Ludwig X., Philipp V. und schließlich Karl IV. auf französischer Seite intensivierten sich die Streitigkeiten ab 1307 erneut. Zentrale Fragen waren hierbei die Huldigung, die der englische König als Herzog der Guyenne seinem Lehnsherrn, dem französischen König, zu leisten hatte und die von ihm als unwürdige Demütigung empfunden wurde. Auch die Zirkulation englischer Münzen mit dem Konterfei des englischen Königs in Frankreich sowie der Streit um gerichtliche Zuständigkeiten belasteten das Verhältnis schwer. Streit um die französische Thronfolge und um Schottland. Als 1328 der letzte männliche Kapetinger und französische König Karl IV. starb und keine direkten Nachkommen hinterließ, war die Frage der Erbfolge zunächst ungeklärt. Nach dem geltend gemachten salischen Erbrecht, welches Thronansprüche über weibliche Nachkommen ausschloss, erhob sein Cousin Philipp von Valois als Philipp VI. aus der nächsten Nebenlinie der Kapetinger, dem Haus Valois, Anspruch auf den Thron. Aufgrund seiner Abstammung – seine Mutter Isabella war die Tochter von Philipp IV. – erhob auch König Eduard III. von England Ansprüche auf die Krone. Dieser Anspruch wurde zunächst wieder verworfen, da der erst 15 Jahre alte englische König unter der Vormundschaft seiner Mutter sowie ihres Geliebten Roger Mortimer stand, die beide einen schlechten Ruf in Frankreich genossen. Eduard konnte somit keine nennenswerte Unterstützung unter den französischen Pairs für seine Thronfolge erlangen und blieb als Kandidat aussichtslos. Nachdem Eduard 1330 die Regentschaft seiner Mutter und Mortimers abgeschüttelt hatte und selbstständig regierte, bemühte er sich zunächst um einen diplomatischen Ausgleich mit Frankreich bezüglich der Streitigkeiten in der Gascogne. Unter anderem gab es auch Überlegungen zu einer englischen Beteiligung an einem in den kommenden Jahren geplanten französischen Kreuzzug nach Outremer zur Rückeroberung Jerusalems. Dieser Kurs der Entspannung wurde 1332 aber jäh unterbrochen, als Edward Balliol mit einer privaten Armee in Schottland landete und die Anhänger des minderjährigen Königs David II. in der Schlacht von Dupplin Moor vernichtend schlug. Balliol krönte sich selbst zum schottischen König, Edward erkannte ihn an und führte in den folgenden vier Jahren mehrere bewaffnete Expeditionen mit wechselndem Erfolg in das widerspenstige Schottland, um die Herrschaft Balliols und eigene Gebietsgewinne dort abzusichern. Der junge David II. konnte mit Hilfe Philipps VI. fliehen und fand Zuflucht in Château Gaillard in Frankreich. Englisches Wappen mit den drei Leoparden (bis 1340). Englisches Wappen, die Leoparden sind nun mit den französischen Lilien kombiniert (ab 1340). Aufgrund der so genannten Auld Alliance, eines militärischen Beistandsabkommens zwischen Frankreich und Schottland, sah sich Philipp VI. in der Pflicht zu intervenieren. Nachdem einige diplomatische Offerten keinen Widerhall bei Edward fanden, rüstete Philipp 1336 eine Flotte und Landungstruppen aus, um direkt in Schottland bewaffnet eingreifen zu können. Wegen Geldmangels konnten die hochtrabenden Pläne nicht verwirklicht werden, und so wurden die bereits angemusterten Schiffe ab 1337 stattdessen für sporadische Überfälle auf englische Handelsschiffe und Küstenstädte genutzt. In England setzte sich zu diesem Zeitpunkt die feste Überzeugung durch, dass Frankreich bald eine Invasion Südenglands plane. Eduard verließ Schottland, begann mit dem Aufbau einer englischen Kriegsflotte und schmiedete erste Pläne für eine Invasion Frankreichs. Neben diesen realpolitischen Auseinandersetzungen gewann eine diplomatische Affäre zunehmende Bedeutung. Robert von Artois, ehemals ein enger Berater des französischen Königs, war über die Tatsache, dass er bei der Erbfolge der Grafschaft Artois übergangen worden war, mit Philipp und dem Haus Burgund in Streit geraten. Er wurde in die Emigration gezwungen und gelangte 1334 schließlich zum englischen Hof, wo er Aufnahme fand. Ab 1336, vor dem Hintergrund der zunehmenden Spannungen zwischen Frankreich und England, forderte Philipp die Auslieferung Roberts. Im Dezember schließlich erging ein Befehl an den Seneschall der Gascogne, Robert an den französischen König zu überstellen. Als Eduard, der in dieser Angelegenheit vom französischen König als sein Vasall angesprochen wurde, der Aufforderung nicht nachkam, erging Befehl, seine französischen Güter mit Waffengewalt einzuziehen, wozu am 30. April 1337 der Arrière-ban, also die Mobilisierung Frankreichs zum Krieg ausgerufen wurde. Etwa ein Jahr später, vermutlich im Mai 1338, überbrachte Bischof Henry Burghersh im Auftrag Eduards dem französischen König ein Schreiben, in dem er seinen Anspruch auf den französischen Thron gegenüber Philipp erklärte. Die öffentliche Proklamation Eduards zum „König von Frankreich“ erfolgte erst am 26. Januar 1340. Damit waren die politischen Leitlinien beider Parteien im aufziehenden Krieg umrissen: Der französische König ging nach seinem Verständnis gegen einen unbotmäßigen Vasallen vor, während der englische König proklamierte, lediglich seinen legitimen Anspruch auf den französischen Thron gegen einen unrechtmäßigen Usurpator durchzusetzen. Beide Auffassungen sollten sich im folgenden Hundertjährigen Krieg scheinbar unversöhnlich gegenüberstehen. Erste Phase 1337–1386. Im Januar 1340 ernannte sich Eduard III. selbst zum französischen König und fiel mit seinen Truppen in Frankreich ein. Sein Heer war den Franzosen zwar zahlenmäßig unterlegen, dennoch schlug er in der Schlacht von Crécy (1346) die Franzosen vernichtend, denn er führte etwa 8000 Langbogenschützen mit sich, die er taktisch geschickt einsetzte, indem er seine Ritter von ihren Pferden absitzen ließ und zwischen die Bogenschützen stellte. Im Jahr darauf konnte Calais nach elfmonatiger Belagerung eingenommen werden. 1355 flammte der Krieg erneut auf, als der älteste Sohn Eduards III., Edward of Woodstock, lang nach seinem Tod der Schwarze Prinz genannt, bei Bordeaux landete. Unter seiner Führung konnten die Engländer im September 1356 in der Schlacht bei Maupertuis in der Nähe von Poitiers ihren zweiten großen Sieg erringen und König Johann II., der 1350 Philipp VI. auf den Thron gefolgt war, gefangen nehmen. 1360 beendete der Friede von Brétigny die erste Phase des Krieges. Eduard III. erklärte seinen Verzicht auf die französischen Thronansprüche gegen ein hohes Lösegeld für Johann und die Abtretung von Guyenne, Gascogne, Poitou und Limousin, die er in voller Souveränität, ohne Lehnsabhängigkeit von der französischen Krone, in Besitz nehmen wollte. Doch ab 1369 begannen unter dem französischen König Karl V. die Kriegshandlungen von neuem. In wenigen Jahren eroberten seine Söldner einen großen Teil der verlorengegangenen Gebiete zurück. Sie besiegten 1372 mit Hilfe der Kastilier die englische Flotte bei La Rochelle, eroberten unter Bertrand du Guesclin große Teile der Gascogne zurück und vertrieben die englischen Besatzungen aus der Normandie und der Bretagne. Der frühe Tod des Thronfolgers Edward of Woodstock 1376 und der seines Vaters Eduard III. im darauffolgenden Jahr brachten die englischen Aktionen vorerst zum Erliegen, da der Sohn des Thronfolgers, der 1377 den englischen Thron als Richard II. bestieg, erst zehn Jahre alt war, und einem Regentschaftsrat unterstand. Nachdem Frankreich die meisten besetzten Gebiete zurückerobert hatte, wurden 1386 die Kampfhandlungen beendet, womit sich beide Seiten eine 28-jährige Pause verschafften; ein offizieller Friedensvertrag wurde jedoch erst 1396 unterzeichnet. Zweite Phase 1415–1435. Nach der Abdankung von König Richard II. im Jahre 1399 folgten in England mit Heinrich IV. (1399–1413) und Heinrich V. (1413–1422) zwei fähige Herrscher aus dem Haus Lancaster - einer jüngeren Linie des Hauses Plantagenet. Nach Konsolidierung der Macht und der Versöhnung zwischen Krone und Parlament rückten die Expansionsgelüste wieder in das zentrale Interesse Englands. Ihr Ziel waren die reichen Städte Flanderns und die weiten Güter Aquitaniens. Frankreichs durch Karl V. kurzzeitig wiedergewonnene Stärke zerrann unter seinem geistesschwachen Nachfolger Karl VI., dem plötzlichen Tod des Dauphins Ludwig und den erbitterten Kämpfen der Hofparteien des Herzogs von Orléans (Armagnacs) und des Herzogs von Burgund (Bourguignons). Die Ermordung beider Parteiführer trieb die Burgunder 1414 in ein Bündnis mit England (→ Bürgerkrieg der Armagnacs und Bourguignons). 1413 folgte Heinrich V., Urenkel Eduards III. aus dem Haus Lancaster, seinem Vater als englischer König und erneuerte den Anspruch auf den französischen Thron. Er nutzte die politische Lage in Frankreich aus, belagerte 1415 mit seinen Truppen Harfleur und wollte die Normandie erobern. Als Charles d’Albret mit französischen Truppen nahte, zog sich Heinrich in Richtung Calais zurück, wurde aber nach geschickter Umgehung aufgehalten und zum Kampf gezwungen. a> (franz. Azincourt) in einer zeitgenössischen Darstellung Nach starkem Regen kam es am Morgen des 25. Oktober 1415 zur Schlacht von Azincourt. Die Engländer waren dabei zahlenmäßig unterlegen (nach dem sich hierzu entwickelnden patriotischen britischen Mythos im Verhältnis 1:4, nach neueren Erkenntnissen nur im Verhältnis 2:3), da Heinrich V. bereits einen Großteil seines Heeres bei der Belagerung durch Seuchen verloren hatte. Aber eine schlechte Schlachtaufstellung der französischen Armbrustschützen und der vom Regen aufgeweichte Boden ließen die übermütigen schweren französischen Ritter und die Artillerie im Schlamm stecken bleiben. So wurde der französische Gegenangriff zurückgeschlagen. Die Franzosen gerieten in Unordnung und Panik und wurden schließlich von den englischen Langbogenschützen niedergestreckt. Um genügend Männer für den letzten halbherzigen Angriff versprengter Franzosen bereitzuhaben, ließ Heinrich den Großteil der in der Zwischenzeit gefangenen Franzosen kurzerhand töten. Die Schlacht endete für Frankreich in einer Katastrophe: 5000 Mann des französischen Adels und der Ritterschaft waren gefallen, weitere 1000 gefangengenommen. Die Engländer hatten nur etwa 100 Mann Verluste zu beklagen. Heinrich V. setzte 1417 seinen Eroberungsfeldzug fort, bei dem er weite Teile Nordfrankreichs unter englische Herrschaft brachte. In Paris fielen die Burgunder ein und übernahmen die Herrschaft über die Stadt. Als König Karl VI. und seine Gattin Isabeau 1418 in die Gewalt der Burgunder gerieten, floh der erst 16 Jahre alte letzte Thronerbe, der spätere Karl VII., aus der Stadt nach Südfrankreich und verbündete sich dort mit den Armagnacs. Im Vertrag von Troyes erklärte 1420 Isabeau für Karl VI. schließlich ihren Sohn, Karl den Dauphin, für illegitim und schloss ihn damit von der Thronfolge aus. Als Erbe wurde Heinrich V. eingesetzt. Dieser starb überraschend im August 1422, Karl VI. knapp zwei Monate später. Die Franzosen erkannten den Vertrag daraufhin nicht mehr an und riefen den Dauphin als Karl VII. zum König von Frankreich aus. Der englische Regent John of Lancaster war bestrebt, die Anerkennung des Vertrages von Troyes im gesamten Königreich für den einjährigen Heinrich VI. durchzusetzen. Die Engländer eroberten Nordfrankreich bis zur Loire-Linie und begannen 1428 mit der Belagerung von Orléans, dem Schlüssel zu Südfrankreich und dem Dauphin in Bourges. In dieser verzweifelten Lage schöpften die Franzosen durch das Auftauchen eines jungen Mädchens wieder neuen Mut – Johanna von Orléans. Von ihren göttlichen Visionen geleitet, überzeugte sie den Dauphin, dass sie die Franzosen zum Sieg führen werde. Ihr Einsatz führte zum Ende der Belagerung von Orléans durch die Engländer. 1429 wurde Karl VII. in Reims zum König von Frankreich gekrönt. Es wurden bald darauf, unter dem Einfluss der Friedenspartei am Hofe, Friedensverträge mit Philipp dem Guten von Burgund geschlossen. Diese nutzte Philipp jedoch dazu, Verstärkung nach Paris zu schaffen. Als der Angriff auf Paris letztendlich erfolgte, wurden die Franzosen unter schweren Verlusten zurückgeschlagen. Karl und seinen Ratgebern wurde klar, dass die englisch-burgundische Allianz zu stark war und gebrochen werden musste. Karl VII. untersagte Johanna von Orléans jede weitere militärische Aktion, um die fortschreitenden Verhandlungen mit den Burgundern nicht weiter zu gefährden. Johanna zog daraufhin auf eigene Faust gegen die Besatzer. Karl entledigte sich ihrer durch Verrat bei Compiègne; sie wurde von den Burgundern gefangengenommen und für stattliche 10.000 Franken an die Engländer verkauft. In dem folgenden Inquisitionsprozess wurde Johanna ein Pakt mit dem Teufel, das Tragen von Männerkleidung und ein kurzer Haarschnitt vorgeworfen. Am Ende wurde sie der Ketzerei für schuldig befunden und am 30. Mai 1431 in Rouen auf dem Scheiterhaufen verbrannt. Schließlich erreichte Karl VII. durch die Vermittlung von Papst Eugen IV. und das Konzil von Basel im Vertrag von Arras (1435) eine Verständigung und die Lösung Burgunds von England. Dritte Phase 1436–1453. Frankreich nach dem Ende des Hundertjährigen Krieges Doch selbst mit dem Tod von Johanna konnten die Engländer die Niederlage im Hundertjährigen Krieg nicht mehr abwenden. Heinrich VI. wurde zwar noch im selben Jahr in Paris zum französischen König gekrönt, doch hatte dies nicht annähernd die gleiche politische Wirkung wie die Krönung Karls in Reims. Nachdem 1435 der Herzog von Burgund das Bündnis mit England aufgegeben hatte, waren die Franzosen auf dem Vormarsch. Der seit 1436 mündige, aber leicht beeinflussbare Heinrich VI. von England vermochte dem nichts entgegenzusetzen. 1436 bis 1441 erfolgte die Rückeroberung der Île-de-France, trotz des französischen Adelsaufstandes der Praguerie unter einem der wichtigsten französischen Feldherrn und Diplomaten, Jean de Dunois. 1437 zog Karl VII. – der Siegreiche – in die Hauptstadt Paris ein. Darauf folgten französische Vorstöße nach Südwestfrankreich (1442) und in die Normandie (1443), die nach dem Waffenstillstand von 1444 in den Jahren 1449/50 endgültig an Frankreich verloren ging. Die Handlungsunfähigkeit der Engländer resultierte aus der Verbannung und Ermordung des wichtigsten Ratgebers des Königs durch das Parlament, den Aufstand 1451 und dem 1452 versuchten Staatsstreich des Herzogs von York. 1453 folgte der gesundheitliche Zusammenbruch des Königs. Die um ihren Brückenkopf Calais besorgten Engländer eröffneten eine Gegenoffensive, die aber mit Niederlage und Tod des englischen Heerführers John Talbot bei Castillon endete. Bordeaux wurde 1453 von den Franzosen erobert. Mit diesem Sieg fielen fast alle von den Engländern beherrschten Territorien auf dem Festland an Frankreich zurück, lediglich Calais verblieb bis 1559 in englischem Besitz. Das Ende des Hundertjährigen Krieges hatte eine große Zahl beschäftigungsloser Söldner nach England zurückgeführt, welches in den folgenden 31 Jahren in den Rosenkriegen zwischen den Häusern Lancaster und York versank. Quellen. Eine ausführliche Auflistung der Quellen (erzählende und Dokumente, Akten etc.) bietet die Bibliographie bei Jonathan Sumption ("The Hundred Years War", Band 1ff., London 1990ff.). Hugenottenkriege. Die Hugenottenkriege 1562 bis 1598 waren eine Reihe von acht Bürgerkriegen in Frankreich. Sie sind durch das Massaker an den französischen Protestanten oder genauer den Calvinisten, den sogenannten Hugenotten, in der Bartholomäusnacht und die "politische" Beendigung durch den populären König Heinrich IV. den Franzosen heute noch bewusst. Ziel einer katholischen Adelspartei war es, die Hugenotten mindestens von den staatlichen und kirchlichen Pfründen auszuschließen und zugleich das Königtum zu kontrollieren. Sie markierten das letzte Aufbäumen regionaler Kräfte gegen die absolutistische Zentralmacht in Frankreich und waren – auf beiden Seiten gleichermaßen – gekennzeichnet von Machtgier, Verrat und Rachsucht. Ähnlich wie der spätere Dreißigjährige Krieg waren die Hugenottenkriege keine reinen Religionskriege; dynastische und machtpolitische Hintergründe spielten eine ebenso große Rolle. In den Hugenottenkriegen die in Frankreich ausgetragen wurden, ging es also nur scheinbar um die Frage der richtigen Glaubenszugehörigkeit. Der französische Adel kämpfte um seine Privilegien und Handlungsfreiräumen gegenüber dem Ausbau einer zentralistischen Monarchie, welcher unter der Herrschaft von Franz I. begann. Auf dem europäischen Schauplatz wiederum war das Bestreben neue Koalitionspartner zu finden, um das als übermächtig eingeschätzte habsburgische Spanien, Philipps II., zu kontrollieren. Dies vor dem Hintergrund des schwelenden Konfliktes zwischen den Königreichen England – Elisabeth I. wurde 1558 inthronisiert, (Elisabethanisches Zeitalter) – und dem habsburgischen Spanien. Dynastische Hintergründe. Frankreich war unter den Valois-Herrschern Franz I. (1515–1547) und seinem Sohn Heinrich II. (1547–1559) der stärkste europäische Staat der Renaissance, doch schon vor dem Vertrag von Cateau-Cambrésis 1559 zeichnete sich ab, dass Frankreich diese Stellung an Spanien verlieren würde. Gleichrangig war nur ihr dauerhafter Rivale Kaiser Karl V.; dieser beherrschte jedoch ein zusammengeerbtes Konglomerat von Staaten, die sich rings um Frankreich gruppierten. Die französische Stabilität beruhte stark auf der religiösen Einheit und den "nationalen" Kriegen gegen Karl V. und seinen Sohn Philipp II., die allerdings den französischen Adel militarisierten. Die vorzeitigen Tode von Heinrich II. und seinem ältesten Sohn ein Jahr später schufen eine gefährliche dynastische Situation, in der die aus Italien stammende Königinwitwe Katharina von Medici die Adelsparteien gegeneinander ausspielte, um ihren minderjährigen Söhnen den Thron zu sichern. Wesentlicher Bestandteil war das Ringen um die Macht in Frankreich zwischen dem Haus Guise (Lothringen) einerseits und dem Haus Bourbon andererseits. Religiöse Hintergründe. König Franz I. stand den Forderungen der Reformation zunächst recht wohlwollend gegenüber. Dies änderte sich grundlegend mit der Affaire des Placards: im Oktober 1534 wurden an öffentlichen Plätzen in größeren Städten Frankreichs Plakate angeschlagen, in denen eine unverhüllte Attacke auf das katholische Konzept der Eucharistie vorgetragen wurde. Da eines dieser Plakate im Inneren des königlichen Schlosses von Amboise angebracht worden war, musste Franz I. von nun an um seine eigene Sicherheit fürchten. Bereits zwei Wochen später wurden protestantische Sympathisanten verhaftet und sogar auf den Scheiterhaufen gebracht. In Frankreich fasste der Protestantismus erst relativ spät in der Variante des Calvinismus Fuß: Das französischsprachige Genf stand seit 1536 unter dem dauerhaften Schutz der Eidgenossen. Dort führte der aus Frankreich geflohene Johannes Calvin die Reformation ein, setzte aber mit der Prädestinationslehre andere religiöse Akzente als das Luthertum in Deutschland und Zwingli in der deutsch-sprachigen Schweiz. Vor allem organisierte Calvin eine systematische Mission, die auf den Adel in Frankreich und den wallonischen Teilen der Spanischen Niederlande abzielte. Einer der wichtigsten Unterschiede zwischen den beiden christlichen Glaubensinterpretationen, also zwischen dem katholischen und protestantischen Glauben, lag in der Auslegung der Eucharistie oder des Abendmahles. Die Katholiken glauben, dass dabei Brot und Wein zum Leib und Blut Christi werden und Jesus so in jeder Messe körperlich anwesend sei, auch darf nur ein geweihter Priester diese konsekrieren. Für den Protestanten sind Brot und Wein beim Abendmahl mehr ein Symbol für Jesu Liebe zu den Menschen. Die Protestanten lehnten ferner die Verehrung Marias und der Heiligen ab, da hierdurch Gottes Ehre geschmälert werden könnte. Hinzu kommt, dass die Calvinisten an die Prädestination glauben. Dies bedeutet, dass bereits vor der Geburt vorherbestimmt ist, wer in den Himmel kommen kann. An dieser Prädestination lässt sich auch durch ein frommes Leben nichts ändern. Im Katholizismus ist es aber prinzipiell möglich, dass ein glaubender Mensch in den Himmel kommt und dies trotz zum Teil erheblicher Verstöße gegen ein frommes und sündenloses Leben. Voraussetzung hierzu besteht aber in der Notwendigkeit Buße zu tun. Staatspolitischer Hintergrund. Etwa um diese Zeit war das Heilige Römische Reich bereits in eine Vielzahl von so genannten Territorien zerfallen, deren Herrscher nach dem Prinzip „Cuius regio, eius religio“ ab 1555 auch die Religion in ihren Territorien bestimmten. Heinrich II. wollte eine religiöse Zersplitterung wie in Deutschland verhindern. Eine Übereinkunft nach dem Prinzip des Augsburger Religionsfriedens hätte möglicherweise die unter Franz I. begonnene Zentralisierung Frankreichs zerstört. Maßnahmen König Heinrichs II.. Bereits im ersten Jahr seiner Herrschaft (1547) errichtete Heinrich II. die "Chambre ardente" in Paris; eine Kammer, die die hugenottischen Mitglieder des Parlements von Paris verfolgte. Im Jahre 1551 wurde dieses Prinzip im "Edikt von Châteaubriant" dann auch auf die Provinzparlemente ausgedehnt. 1557 folgte das "Edikt von Compiègne": "„die Ordnung in irgendeiner Weise störende“" Protestanten wurden der weltlichen Gerichtsbarkeit unterstellt; die Verurteilung wegen Häresie überließ Heinrich noch der Kirche. Dies gipfelte dann 1559 im "Edikt von Écouen": Von nun an durften die Gerichte für Häresie nur noch die Todesstrafe verhängen. Diese Repression war auch außenpolitisch motiviert: Der Thronfolger Franz II. war mit der schottischen Königin Maria Stuart verheiratet, die aus katholischer Sicht rechtmäßige Ansprüche auf den englischen Königsthron erheben konnte. Franz II. behielt deshalb die Repression bei. Im März 1560 schlug der Versuch fehl, Franz II. zu entführen (Verschwörung von Amboise). Mit Ausnahme von Ludwig I. von Bourbon, Prinz de Condé, verloren alle Verschwörer ihr Leben. Doch waren die Hugenotten bereits so stark, dass ihr Anführer, Admiral Gaspard II. de Coligny, in Fontainebleau gegen die Verletzung der Gewissensfreiheit protestieren konnte. Mit Unterstützung des Hauses Bourbon, das das Königreich Navarra beherrschte, brachten protestantische Prediger hinreichend Mittel zusammen, eine ganze Armee einschließlich schlagkräftiger Kavallerie auszurüsten. (Auf dem Höhepunkt ihrer Macht kontrollierten die Hugenotten rund 60 befestigte Städte und wurden zu einer ernsthaften Bedrohung des katholischen Hofes und der Hauptstadt Paris.) Erst nach dem frühen Tod von Franz II. versuchte seine Mutter als Regentin für den minderjährigen Karl IX. (ab 1560) als Gegengewicht zu dem zu mächtigen Herzog von Guise eine vorsichtige Toleranzpolitik. Ein Religionsgespräch zu Poissy 1561 führte nicht zu der angestrebten Einigung. Die Königinmutter erhob den Bourbonen Anton von Navarra zum Generalstatthalter, mit Michel de l'Hôpital ernannte sie einen gemäßigten Kanzler, der 1562 das hugenottenfreundliche Edikt von Saint-Germain formulierte. Darin wurde den Hugenotten freie Religionsausübung außerhalb der festen Städte zugesichert. Abfolge der Kriege. Diese Toleranzpolitik wurde im März desselben Jahres von dem entmachteten Onkel von Maria Stuart, Herzog Franz II. von Guise, im Blutbad von Vassy an unbewaffneten Hugenotten torpediert. Ob die Provokationen nun von Katholiken oder Protestanten ausgingen ist ungeklärt, jedoch machtpolitisch wahrscheinlich von Franz de Guise forciert. (Hinsichtlich der Zahl der Todesopfer gibt es Widersprüche: manche nennen nur 23, andere Quellen Hunderte.) In drei Kriegen sicherten sich danach die Hugenotten bis 1570 eine begrenzte Toleranz, abgesichert durch einige wenige Sicherheitsplätze. Im Ersten Hugenottenkrieg (1562–1563) organisierte der Fürst von Condé eine Art Protektorat zugunsten der hugenottischen Gemeinden. Die Guisen (Anhänger des Herzogs von Guise) entführten den König und seine Mutter nach Paris. In der Schlacht von Dreux wurde de Condé gefangengenommen, auf der anderen Seite Anne de Montmorency, der General der Regierungstruppen. Im Februar 1563 wurde Franz II. von Guise bei der Belagerung von Orléans ermordet; Katharina beeilte sich nun, einen Waffenstillstand abzuschließen, der im März zum Edikt von Amboise führte. Es war ein Religionsfriede, in dem den Hugenotten – ausgenommen Paris – freie Religionsausübung gestattet wurde. Der Zweite Hugenottenkrieg (1567–1568) wurde ausgelöst, weil die Königinmutter die Macht, die den Guisen entglitten war, nicht einfach den Hugenotten zukommen lassen wollte. So wurden 1564 Ausführungsbestimmungen zum Edikt von Amboise erlassen, die dessen Sinn weitgehend verwässerten. Auch befürchteten die Protestanten in Frankreich Gewaltmaßnahmen wie sie Herzog Alba in Flandern eingeleitet hatte; die Hugenottenführer de Condé und Admiral Coligny beschlossen daher, den jungen König Karl in ihre Gewalt zu bringen. Der Plan wurde verraten, de Condé belagerte den Hof sechs Wochen lang in Paris und lieferte dann am 10. November 1567 eine Schlacht bei Saint-Denis. Mit Hilfstruppen unter dem kurpfälzischen Prinzen Johann Kasimir rückte er im Februar 1568 wieder gegen Paris vor, während die Katholischen Unterstützung von Herzog Alba erhielten. Der Frieden von Longjumeau bestätigte den Friedensschluss von Amboise und versprach allgemeine Amnestie. Bereits im Herbst desselben Jahres brach der Dritte Hugenottenkrieg (1568–1570) aus. Beide Seiten waren unzufrieden, es kam zu vielen blutigen Gewalttaten. Die Führer der Hugenotten begaben sich nach La Rochelle, das wegen seiner günstigen Überseeverbindung zu ihrem Hauptquartier wurde. Auch Königin Johanna von Navarra mit ihrem Sohn Heinrich – ein Bourbone – traf dort ein. Wieder kam Hilfe aus dem protestantischen Deutschland (Zweibrücken sowie Oranien) und aus England. Doch in der Schlacht von Jarnac (März 1569) unterlagen die Hugenotten; Fürst von Condé kam ums Leben. Im Oktober 1569 folgte bei Moncontour eine weitere Niederlage, doch konnten die Hugenotten mit ausländischer Unterstützung La Rochelle entlasten und im Juni 1570 bei Luçon die königlichen Truppen schlagen (die ihrerseits Hilfe aus Spanien, dem Kirchenstaat und vom Herzogtum Toskana erhalten hatten). Der Dritte Hugenottenkrieg endete damit, dass gemäßigte Politiker sich Geltung verschafften und den Frieden von St. Germain en Laye schlossen. Nunmehr erhielten die Hugenotten neben Glaubensfreiheit und Amnestie auch – neben La Rochelle – drei befestigte Plätze zugesprochen. Danach gelang es dem hugenottischen Führer Admiral Coligny, den jungen französischen König Karl zu einer antispanischen, pro-protestantischen Politik zu bewegen. Als Maßnahme des guten Willens wurde die Hochzeit der Schwester des jungen Königs, Marguerite (Margot) von Valois, mit dem Hugenottenführer Heinrich von Navarra vereinbart. Der Vermählung am 15. August 1572 folgte eine Woche später die – von der Königinmutter veranlasste – berüchtigte Bartholomäusnacht. Die Metzeleien dauerten mehrere Tage; Raubgier und Eifersucht hatten freien Lauf. Im September feierte der zur Familie der Guises gehörende Kardinal von Lothringen aus diesem Anlass einen Dankgottesdienst, der Papst und Philipp II. applaudierten. Im unausweichlich folgenden Vierten Hugenottenkrieg (1572–1573) verteidigten sich die überlebenden Protestanten von nun an mit dem Mut der Verzweiflung. Die Belagerung von La Rochelle durch Heinrich, Herzog von Anjou, blieb erfolglos. Erst als dieser zum König von Polen-Litauen gewählt werden sollte (und zu diesem Zweck religiöse Toleranz demonstriert werden musste), fand dieser Krieg im Juni 1573 sein Ende. Im Edikt von Boulogne wurde den Hugenotten zwar Amnestie zugesagt, ihnen jedoch sämtliche öffentlichen Gottesdienste untersagt. Nach dem frühen Ableben Karls IX. kehrte Heinrich aus Polen zurück. Unter seiner Herrschaft (als Heinrich III.) begannen bald neue Kämpfe, der Fünfte Hugenottenkrieg (1574–1576). Der König und die Königinmutter Katharina von Medici versuchten verzweifelt, zwischen den rivalisierenden Fraktionen die königliche Autorität aufrechtzuerhalten. Die Hugenotten bekamen Zulauf von bedeutenden Adeligen und Marschällen, ein deutsches Hilfskorps kam hinzu. Angesichts der zahlenmäßigen Übermacht der Protestanten – besonders im Südwesten – riet der Herzog von Mayenne, Charles de Lorraine, dem König und seiner weiterhin aktiven Mutter zum Frieden. Der wurde im Mai 1576 in Beaulieu-lès-Loches geschlossen und war für die Hugenotten vorteilhafter als alle Abmachungen vorher: mit Ausnahme von Paris und dessen Umkreis von zwei Meilen erhielten sie in ganz Frankreich freie Religionsübung, Zutritt zu allen Ämtern und insgesamt acht Sicherheitsplätze zugesichert. Heinrich III. schwankte: Zeitweise versuchte er, die Führung der katholischen Partei persönlich zu übernehmen; zeitweise näherte er sich den Hugenotten, weil er seinen jüngeren Bruder Franz, damals Herzog von Anjou, als Führer der Protestanten in den aufständischen Niederlanden etablieren wollte. Die Friedensbedingungen von Beaulieu stießen bei der katholischen Partei auf so viel Widerstand, dass der Extremist Henri I. von Guise (der Sohn des Herzogs Franz II.) 1576 die „Heilige Liga (1576)“ gründete, einen Adelsverein zur Verteidigung des Glaubens. Tatsächlich sollte dieser Bund nicht nur den wahren Glauben verteidigen, sondern im Interesse des regionalen Adels die Zentralmacht in Frankreich schwächen. Heinrich III. stellte sich an die Spitze der Liga und nahm die Kriegshandlungen wieder auf, doch die Generalstände verweigerten ihm die für eine erfolgreiche Kriegführung nötigen Mittel. Dieser Sechste Hugenottenkrieg (1576–1577) dauerte nicht lange, nach kleinen Erfolgen lenkte Heinrich III. 1577 ein. Denn die Königinmutter Katharina fürchtete allmählich die ehrgeizigen Pläne des Herzogs von Guise, die dieser mit Hilfe der Liga durchzusetzen hoffte, mehr als die Hugenotten. Katharina näherte sich sogar dem Protestantenführer Heinrich von Navarra an. Noch einmal gab es über die Ausführung des Friedens Konflikte, sogar eine kurze Waffenerhebung, im Siebten Hugenottenkrieg (1579–1580), fand statt. Aber der Herzog Franz von Anjou, der jüngste Bruder (und Thronfolger) des Königs, vermittelte bald im November 1580 zu Le Fleix einen neuen Frieden. Die Heilige Liga wurde aufgelöst. Nach dem Tod dieses Herzogs von Anjou im Jahre 1584 war nach salischem Erbrecht der Hugenotte Heinrich I. von Navarra der nächste Thronanwärter. Henri I. von Guise wollte die Krone keinesfalls einem Ketzer zugestehen und aktivierte die Heilige Liga wieder. König Heinrich III. seinerseits trat mit seinem Schwager Heinrich von Navarra in Unterhandlungen ein und sicherte diesem die Thronfolge zu – allerdings unter der Bedingung, dass der (wieder) zum katholischen Glauben konvertiere. Die erneuerte Heilige Liga hatte allerdings einen neuen Charakter: Sie war keine reine Adelspartei mehr, sondern auch eine Bewegung mit Rückhalt bei den Volksmassen – besonders von Paris. Sie schloss Anfang 1585 ein Bündnis mit Spanien, proklamierte den alten Kardinal von Bourbon als Thronfolger und nötigte den König im Juli 1585 zu dem Edikt von Nemours, das alle früheren Zugeständnisse an die Hugenotten zurücknahm und auch Heinrich von Navarra von der Thronfolge ausschloss. Hierauf griffen die Hugenotten im Achten Hugenottenkrieg (1585–1598) von neuem zu den Waffen. Dieser Bürgerkrieg, der eher die Thronfolge als religiöse Inhalte zum Gegenstand hatte, wird nach den drei Häuptern (König Heinrich III. von Frankreich, König Heinrich I. von Navarra und Herzog Heinrich I. von Guise) auch der "„Krieg der drei Heinriche“" genannt. Im Herbst 1587 gab jedoch der Sieg der Hugenotten bei Coutras dem Krieg eine neue Wendung. Herzog Heinrich von Guise versuchte, den geschwächten König durch ein Ultimatum in die Knie zu zwingen. Anstatt den Forderungen der Liga nachzugeben, reagierte dieser jedoch mit überraschender Festigkeit und ließ Truppen in Paris einrücken. Daraufhin löste eine „Liga der Sechzehn“ unter der Führung des Herzogs von Guise in der Stadt einen Volksaufstand aus („Tag der Barrikaden“ am 12. Mai 1588). Im Juli schien König Heinrich III. entmachtet: das Unionsedikt von Rouen erneuerte die Bestimmungen von Nemours und schloss jeden nichtkatholischen Fürsten von der Thronfolge aus. Auf der Versammlung der Generalstände in Blois im Dezember 1588 wurden jedoch auf Veranlassung des Königs seine ärgsten Widersacher, der Herzog von Guise und dessen Bruder, Kardinal Ludwig von Lothringen, ermordet. Den nachfolgenden Aufstand fanatisierter Massen suchte Heinrich III. im Bündnis mit Heinrich von Navarra niederzuwerfen, wurde dabei aber Anfang August 1589 bei der Belagerung von Paris selbst ermordet. Mit seinem Tod erlosch die Dynastie der Valois. Heinrich I. von Navarra aus der Nebenlinie Bourbon wurde als Heinrich IV. König. Er beherrschte mit seinen Truppen den (schon seit Jahrzehnten traditionell hugenottischen) Süden und den Westen Frankreichs, während die Liga unter Charles II. de Lorraine, duc de Mayenne, dem Nachfolger des ermordeten Henri von Guise, den Norden und den Osten hielt, insbesondere Paris. Im September 1589 besiegte Heinrich die Liga bei Arques und gewann schrittweise die Herrschaft über die ganze Normandie. Sechs Monate später brachte sein Sieg bei Ivry eine Vorentscheidung, doch konnte Paris sich mit spanischer Hilfe halten. Er konnte sich die Hauptstadt und den Thron aber erst nach der Konversion zum Katholizismus sichern. Der achte Hugenottenkrieg, als Bürgerkrieg begonnen, verwandelte sich zuletzt in einen "nationalen" Krieg gegen Spanien. Im Jahr 1582 hatte Heinrich III. den damaligen Führer der Heiligen Liga, Philippe Emmanuel, Herzog von Mercœur, zum Gouverneur der Bretagne gemacht, der sich wiederum 1588 zum „Protektor der Katholischen Kirche“ ernannte und – auf Grund alter Erbansprüche seiner Gattin – die Bretagne aus dem Königreich Frankreich lösen wollte. Als „Fürst und Herzog der Bretagne“ verbündete er sich mit Philipp II. von Spanien. Dieser hoffte, sich auf diese Weise in die französische Innenpolitik einmischen zu können und gleichzeitig in seiner Auseinandersetzung mit England in der Bretagne einen wertvollen Stützpunkt zu gewinnen. Heinrich IV. musste zunächst (am 23. Mai 1592 bei Craon) eine Niederlage hinnehmen, konnte aber mit englischer Unterstützung im März 1598 Mercœurs Unterwerfung erreichen. Danach beendete im Jahre 1598 das Edikt von Nantes die Hugenottenkriege. Die Hugenotten erhielten beschränkte religiöse Toleranz, gesichert durch Sicherheitsplätze im südlichen Frankreich, deren hugenottische Besatzung vom König besoldet wurde. Der 1598 gefundene Kompromiss machte die Hugenotten zu einem Fremdkörper im Staat und zu Bürgern zweiter Klasse, da sie de jure von allen katholischen Kirchenpfründen ausgeschlossen waren und de facto auch von den staatlichen Ämtern. Ab 1598 sanken die Hugenotten langsam von etwa 10 % der Bevölkerung zu einer relativ kleinen Minderheit ab. Folgen. Frankreich konnte seine wirkliche Macht erst unter Ludwig XIV. ab 1661 ausspielen, der seine starke persönliche Herrschaft auch wegen der traumatischen Hugenottenkriege etablieren konnte. Im europäischen Machtkonzert konnte das habsburgische Spanien seinen Abstieg bis etwa 1659 hinausschieben. Die kolonialen Rivalen England, Spanien und Portugal gründeten bis 1661 amerikanische Kolonialreiche, die zukunftsträchtiger als die französischen Kolonien in Amerika waren. Hochmittelalter. Als Hochmittelalter wird in der Mediävistik die von der Mitte des 11. Jahrhunderts bis zur Mitte des 13. Jahrhunderts dauernde Epoche im Mittelalter bezeichnet (ca. 1050 bis 1250). Im wissenschaftlichen Sinne wird der Begriff primär auf das christlich-lateinische Europa bezogen (vor allem West- und Mitteleuropa). Auf den benachbarten byzantinischen, den islamischen Bereich und die außereuropäische Geschichte trifft der Begriff nicht oder nur sehr begrenzt zu, wenngleich gerade Byzanz und der islamische Kulturraum in der historischen Forschung durchaus ebenfalls betrachtet werden. Dem Hochmittelalter voran geht das Frühmittelalter. Die auf das Hochmittelalter folgende Epoche wird als das Spätmittelalter bezeichnet. Charakteristika. Die Abgrenzung des Hochmittelalters zum Frühmittelalter wird unterschiedlich vorgenommen. Als Anfangszeitraum ist in der Forschung die Mitte des 11. Jahrhunderts gängig, weil sich ab dieser Zeit ein umfassender Wandel im lateinischen Europa vollzog. Wirtschaftlich und kulturell kam es zu einer neuen Entfaltung. Dieser Wandel wurde durch ein bis in das 14. Jahrhundert anhaltendes Bevölkerungswachstum ausgelöst. Neue Gebiete mussten erschlossen, die Produktionsmethoden zur Erhöhung der Erträge verbessert werden. Dies förderte Handwerk und Handel (einschließlich neuer Handelsrouten) und damit wiederum die Geldwirtschaft. Es kam zur Ausbildung eines Bankensystems, vor allem in Oberitalien. Neue Märkte entstanden, die wiederum die Kassen der Städte füllten. Eine seit der Antike nicht gekannte soziale Mobilität entwickelte sich, sowohl örtlich als auch den sozialen Stand betreffend. Zu dem wirtschaftlichen Aufschwung kamen technische Fortschritte. Die Christianisierung war in Nord- und weiten Teilen Osteuropas weitgehend abgeschlossen. Die Kirche mit dem herausgebildeten Papsttum entwickelte nach innen eine klare Hierarchie, nach außen kämpfte sie mit den weltlichen Herrschern um die Vormacht. Diese Machtkämpfe wurden von vielen Zeitgenossen kritisiert. So entstanden in Deutschland kirchliche Reformbewegungen. Es kam in dieser Zeit allerdings auch zum Investiturstreit sowie in der Folgezeit wiederholt zu Konflikten zwischen römisch-deutschen Kaisern und dem Papsttum. Die Päpste strebten dabei durchaus die Verfügungsgewalt über die weltliche Herrschaft an, was aber nicht ohne Widerspruch blieb (Zwei-Schwerter-Theorie). Das Hochmittelalter war auch eine Blütezeit der geistlichen Orden, wie beispielsweise der Zisterzienser oder Prämonstratenser. Es entstanden neue Dom- und Klosterschulen, vor allem wurden die ersten Universitäten gegründet. Dort wurden in erster Linie Theologie, Medizin (besonders in Frankreich) und Jura (besonders in Italien und speziell in Bologna) gelehrt. Diese Bildungsrevolution wurde durch die Wiederentdeckung antiker Schriften ermöglicht (wie die des Aristoteles), die aus dem arabischen und byzantinischen Raum nach Westeuropa gelangten. Infolge dieses Prozesses bestimmte nun die Scholastik das wissenschaftliche Denken. Lesen und Schreiben waren nicht mehr nur Fertigkeiten des Klerus, wenngleich es bereits im Frühmittelalter einige Laien gab, die über diese Kenntnisse verfügten. Auch einige Beamte (Ministeriale) und Adelige lernten es. Die Literatur bediente die neuen Leser, indem sie nicht nur geistliche und philosophische Themen verarbeitete. Es wurde nicht mehr nur in lateinischer, sondern auch in Landessprache geschrieben. Man malte neben geistlichen Themen nun auch Natur und Alltag. In der Architektur herrschte die Romanik vor. Die Menschen, denen dies finanziell möglich war, konnten sich relativ sicher und frei innerhalb weiter Teile des lateinischen Europas bewegen. Ebenso begannen die Kreuzzüge in den Vorderen Orient, die später auch nach Spanien (gegen den islamischen Süden) und in den baltischen Raum zielten. Das Hochmittelalter war zudem die Blütezeit des Rittertums, das sich infolge eben jener Kreuzzüge neu definierte (siehe Ritterorden). Im staatlichen Bereich fand eine Neuformierung statt. Das römisch-deutsche Reich verlor schließlich seine hegemoniale Stellung. Die Herrschaft der Salier wurde durch den Investiturstreit im späten 11. und frühen 12. Jahrhundert erschüttert. Den Staufern im 12./13. Jahrhundert gelang es nicht, den Verlust der Königsmacht im Reich zu verhindern, wobei durch die Italienpolitik auch starke Kräfte in Reichsitalien gebunden wurden. Währenddessen gewannen Frankreich und England zunehmend an politischem Einfluss. Das englische Haus Plantagenet verfügte zugleich über große Besitzungen in Frankreich, was wiederholt zu Kampfhandlungen mit den französischen Königen führte, die ihre Macht im 12./13. Jahrhundert konsolidierten. Byzanz verlor im 11. Jahrhundert fast ganz Kleinasien an die Seldschuken, gewann Teile davon im 12. Jahrhundert zurück, war aber seit dem fatalen 4. Kreuzzug nur noch eine Regionalmacht. Terminologie. Der französische Begriff "Haut Moyen Âge" bezeichnet das Frühmittelalter, beginnt also mit der Völkerwanderung. Dem deutschen Begriff "Hochmittelalter" entspricht im Französischen "le Moyen Âge classique". Dagegen bezeichnen "Haute Renaissance" und "Hochrenaissance" ein und dieselbe Periode. Hypertext Markup Language. Die Hypertext Markup Language (engl. für "Hypertext-Auszeichnungssprache"), abgekürzt HTML, ist eine textbasierte Auszeichnungssprache zur Strukturierung digitaler Dokumente wie Texte mit Hyperlinks, Bildern und anderen Inhalten. HTML-Dokumente sind die Grundlage des World Wide Web und werden von Webbrowsern dargestellt. Neben den vom Browser angezeigten Inhalten können HTML-Dateien zusätzliche Angaben in Form von Metainformationen enthalten, z. B. über die im Text verwendeten Sprachen, den Autor oder den zusammengefassten Inhalt des Textes. HTML wird vom World Wide Web Consortium (W3C) und der Web Hypertext Application Technology Working Group (WHATWG) weiterentwickelt. Die aktuelle Version ist seit dem 28. Oktober 2014 "HTML5", die bereits von vielen aktuellen Webbrowsern und anderen Layout-Engines unterstützt wird. Auch die "Extensible Hypertext Markup Language" (XHTML) wird durch HTML5 ersetzt. HTML dient als Auszeichnungssprache dazu, einen Text semantisch zu strukturieren, nicht aber zu formatieren. Die visuelle Darstellung ist nicht Teil der HTML-Spezifikationen und wird durch den Webbrowser und Gestaltungsvorlagen wie CSS bestimmt. Ausnahme sind die als veraltet ("deprecated") markierten präsentationsbezogenen Elemente. Entstehung. Vor der Entwicklung des World Wide Web und dessen Bestandteilen, zu denen auch HTML gehört, war es nicht möglich, Informationen auf digitalem Weg einfach, schnell und strukturiert zwischen mehreren Personen auszutauschen. Man benötigte neben Übertragungsprotokollen auch eine einfach zu verstehende Textauszeichnungssprache. Genau hier lag der Ansatzpunkt von HTML. Um Forschungsergebnisse mit anderen Mitarbeitern der Europäischen Organisation für Kernforschung (CERN) zu teilen und von den beiden Standorten in Frankreich und in der Schweiz aus zugänglich zu machen, entstand 1989 am CERN ein Projekt, welches sich mit der Lösung dieser Aufgabe beschäftigte. Am 3. November 1992 erschien die erste Version der HTML-Spezifikation. Syntax. Ein Textabsatz, der ein betontes Wort enthält. Bestimmte Elemente müssen nicht explizit notiert werden. Bei einigen Elementen darf gemäß der SGML-Regel „OMITTAG“ der Endtag fehlen (z. B. codice_8 oder codice_9). Zudem spielt bei Element- und Attributnamen Groß- und Kleinschreibung keine Rolle (z. B. codice_10, codice_11, codice_12). Zum Vergleich: In XHTML sind diese Regeln strenger verfasst. Neben Elementen mit Start- und Endtag gibt es in HTML auch inhaltsleere Elemente, wie etwa Zeilenumbrüche (codice_13) oder Bilder (codice_14). Es geht in HTML um beschreibende (englisch "descriptive"), nicht um verfahrens- (englisch "procedural") und darstellungsorientierte (englisch "presentational") Textauszeichnung, auch wenn sich HTML in früheren Versionen dafür verwenden ließ. HTML-Elemente sind keine Angaben zur Präsentation, die dem Webbrowser mitteilen, wie er den Text visuell zu formatieren hat. Vielmehr sind Elemente eine strukturierende Auszeichnung, mit der sich Textbereichen eine Bedeutung zuordnen lässt, z. B. … für eine Überschrift, … für einen Textabsatz und … für betonten Text. Wie diese Bedeutung letztlich dem Benutzer vermittelt wird (im Falle einer Überschrift z. B. durch vergrößerte, fette Schrift), ist zunächst dem Webbrowser überlassen und hängt von der Ausgabe-Umgebung ab. Denn obwohl HTML-Dokumente in der Regel auf Computerbildschirmen dargestellt werden, können sie auch auf anderen Medien ausgegeben werden, etwa auf Papier oder mittels Sprachausgabe. CSS-Formatvorlagen eignen sich dazu, um auf die Präsentation eines HTML-Dokuments in verschiedenen Medien Einfluss zu nehmen. Daher gelten Elemente und Attribute zur Präsentation wie …, … und codice_15 als „missbilligt“ (englisch "deprecated") und sollten nach allgemeiner Auffassung vermieden werden; in neu entwickelter Software nicht mehr verwendet und bei der Überarbeitung der dokumentengenerienden Software ersetzt werden. Das Einlesen des Quelltextes sowie das Verarbeiten der vorhandenen Informationen wird in der Fachsprache auch als "Parsen" bezeichnet, und die Aufbereitung für das Ausgabemedium als "Rendern". Die Sprache "HTML" beschreibt, wie der Browser (oder ein anderes Programm, wie z. B. ein Text-Editor) die Auszeichnungen des Textes zu „verstehen“ hat, nicht, wie er sie dann in der Darstellung umsetzt. So besagt zwar, dass eine Überschrift folgt, nicht aber, in welcher Schriftgröße oder Schriftschnitt diese darzustellen ist – hier haben sich nur gewisse übliche Standardeinstellungen eingebürgert, die aber nicht Teil der HTML-Spezifikation sind. Sprachtyp. HTML ist eine Auszeichnungssprache und wird als solche auch nicht "programmiert", sondern schlicht "geschrieben". Ein ähnliches Konzept (logische Beschreibung) wie hinter HTML steht hinter dem Satzsystem TeX/LaTeX, das im Unterschied zu HTML jedoch auf die Ausgabe per Drucker auf Papier zielt. Versionen. HTML wurde erstmals am 13. März 1989 von Tim Berners-Lee am CERN in Genf vorgeschlagen. Allgemeine Struktur. HTML-Körper. HTML unterscheidet zwischen Block- und Inline-Elementen. Der wesentliche Unterschied ist, dass erstere in der Ausgabe einen eigenen Block erzeugen, in dem der Inhalt untergebracht wird, während die Inline-Elemente den Textfluss nicht unterbrechen. Vereinfacht gesprochen haben Block-Elemente immer ihren eigenen Absatz. Mithilfe von CSS ist es jedoch möglich, Block-Elemente wie ein Inline-Element darzustellen und umgekehrt. Zudem lassen sich alle Elemente via CSS auch als "inline-block" auszeichnen, mit dem Ergebnis, dass ein solches Element sowohl Eigenschaften eines Block-Elementes als auch eines Inline-Elementes besitzt. codice_3 steht für "Heading 1", zeichnet also eine Überschrift der ersten (und in HTML höchsten) Gliederungsstufe aus. Weiter möglich sind codice_27 bis codice_28, Überschriften zweiter bis sechster Gliederungsstufe. Dies ist ein Verweis auf example.com Hyperlinks sind Verweise auf andere Ressourcen, meistens ebenfalls HTML-Dokumente, die üblicherweise im Browser durch Klick verfolgt werden können. Dieser Link könnte so gerendert werden: Ebenso ist an diesem Beispiel zu sehen, dass das Link-Element ein Inline-Element ist und keine neue Zeile beginnt. Normaler Text wird standardmäßig mit codice_2 (für "Paragraph") angegeben, obwohl ein Text ohne codice_2 problemlos möglich wäre, allerdings ist es sehr zu empfehlen, da dadurch zum einen eine Abtrennung zwischen Quelltext und Ausgabe möglich ist, und zum anderen spätestens bei CSS-Programmierung der Befehl zwingend notwendig ist. Zur Logik stehen zum Beispiel die Elemente codice_31 oder codice_32 bereit, mit denen sich stark hervorgehobener oder betonter Text auszeichnen lässt. Per Voreinstellung (lt. W3C-Empfehlung) werden codice_31- und codice_32-Elemente durch Fettschrift beziehungsweise "kursive Schrift" gerendert. Die Strukturbeschreibung des Textes, wie sie die obigen Beispiele veranschaulichen, vereinfacht es, das Rendern dem Betrachter anzupassen, um etwa Text einem Sehbehinderten vorzulesen oder als Braille auszugeben. Strict. Diese DTD umfasst den Kernbestand an Elementen und Attributen. Es fehlen die meisten Elemente und Attribute zur Beeinflussung der Präsentation, unter anderem die Elemente codice_35, codice_36 und codice_37 sowie Attribute wie codice_38, codice_39 und codice_40. Deren Rolle sollen in "Strict"-Dokumenten Stylesheets übernehmen. Text und nicht-blockbildende Elemente innerhalb der Elemente codice_41, codice_42, codice_43 und codice_44 müssen sich grundsätzlich innerhalb eines Container-Elements befinden, zum Beispiel in einem codice_2-Element. Transitional. Die Transitional-Variante enthält noch ältere Elemente und Attribute, die auch "physische" Textauszeichnung ermöglichen. Durch diese DTD soll Webautoren, die noch nicht logische Strukturierung und Präsentation voneinander trennen, die Möglichkeit gegeben werden, standardkonformes HTML zu schreiben. Gleichzeitig soll sie sicherstellen, dass bestehende Webseiten weiterhin durch aktuelle Webbrowser angezeigt werden können. Frameset. Diese Variante enthält zusätzlich zu allen Elementen der Transitional-Variante noch die Elemente für die Erzeugung von Framesets. Cascading Style Sheets. Im Laufe der Jahre ist HTML um Elemente erweitert worden, die der visuellen Gestaltung der Dokumente dienen. Das lief der ursprünglichen Idee einer Systemunabhängigkeit entgegen. Eine Rückbesinnung auf die Trennung von Struktur und Layout (besser: Präsentation) wurde durch die Definition von Cascading Style Sheets (CSS) vorgenommen. So soll das Aussehen bzw. die Darstellung des Dokuments in einer separaten Datei, dem sogenannten Stylesheet, festgelegt werden. Dies verbessert die Anpassungsfähigkeit des Layouts an das jeweilige Ausgabegerät und an spezielle Bedürfnisse der Benutzer, beispielsweise eine spezielle Darstellung für Sehbehinderte. Heutzutage ist die CSS-Unterstützung der Browser ausreichend, um damit eine anspruchsvolle Gestaltung zu realisieren. In den Anfangsjahren von HTML bis in die 2000er Jahre hinein wurde noch nicht streng zwischen Layout und Seitenphysik unterschieden. So wurde Design mit Hilfe von Layout-Attributen wie codice_46 oder Layout-Tags wie codice_47 umgesetzt oder das Aussehen von Tabellen direkt im codice_48-Bereich grob vorgegeben. Dies gilt heute als veraltet und unprofessionell. Außerdem lässt sich der CSS-Code auch in einer Seite ohne ausgelagerte Datei einbinden. Dynamisches HTML. Schon sehr früh in der Geschichte von HTML wurden Zusatztechniken erfunden, die es ermöglichen, HTML-Dokumente während der Anzeige im Browser dynamisch zu verändern. Die gebräuchlichste ist JavaScript. Man spricht bei solchen interaktiven Dokumenten von dynamischem HTML. Diese Techniken wurden von verschiedenen Browser-Herstellern, allen voran Microsoft und Netscape, unabhängig voneinander entwickelt. Daher gab es erhebliche Probleme bei der Umsetzung der Techniken zwischen den verschiedenen Browsern. Mittlerweile interpretieren alle verbreiteten JavaScript-fähigen Browser das Document Object Model (DOM). Dadurch ist es möglich, in allen Browsern lauffähige Skripte zu schreiben. Es gibt jedoch noch immer Differenzen bei der Unterstützung des DOM-Standards. XML. Version HTML 4.01 der HTML-Empfehlung wurde in der Metasprache XML neu formuliert. Das daraus entstandene XHTML 1.0 genügt den im Vergleich zu SGML strengeren syntaktischen Regeln von XML, ist aber in seinen drei DTD-Varianten semantisch mit der jeweils entsprechenden DTD-Variante von HTML 4.01 identisch. XHTML wird im Rahmen des HTML5-Standards weiter entwickelt. Ajax. Mit der Ajax-Technologie ist es mittels JavaScript möglich, einzelne bereits geladene Webbrowser-Inhalte gezielt zu ändern und nachzuladen, ohne dass die Webseite komplett neu geladen werden muss. Wegen des geringeren Datenaufkommens wird zum einen eine schnellere Webserver-Antwort ermöglicht, und zum anderen lassen sich Reaktionsweisen von Desktop-Anwendungen simulieren. Hypertext Transfer Protocol. Nutzern begegnet das Kürzel häufig z. B. am Anfang einer Web-Adresse in der Adresszeile des Browsers Das Hypertext Transfer Protocol (HTTP, für "Hypertext-Übertragungsprotokoll") ist ein zustandsloses Protokoll zur Übertragung von Daten auf der Anwendungsschicht über ein Rechnernetz. Es wird hauptsächlich eingesetzt, um Webseiten (Hypertext-Dokumente) aus dem World Wide Web (WWW) in einen Webbrowser zu laden. Es ist jedoch nicht prinzipiell darauf beschränkt und auch als allgemeines Dateiübertragungsprotokoll sehr verbreitet. HTTP wurde von der Internet Engineering Task Force (IETF) und dem World Wide Web Consortium (W3C) standardisiert. Aktuelle Version ist HTTP/2, welche als RFC 7540 am 15. Mai 2015 veröffentlicht wurde. Die Weiterentwicklung wird von der HTTP-Arbeitsgruppe der IETF (HTTPbis) organisiert. Es gibt zu HTTP ergänzende – wie HTTPS für die Verschlüsselung übertragener Inhalte – und darauf aufbauende Standards wie das Übertragungsprotokoll WebDAV. Eigenschaften. Nach etablierten Schichtenmodellen zur Einordnung von Netzwerkprotokollen nach ihren grundlegenderen oder abstrakteren Aufgaben wird HTTP der sogenannten Anwendungsschicht zugeordnet. Diese wird von den Anwendungsprogrammen angesprochen, im Fall von HTTP ist das meist ein Webbrowser. Im OSI-Schichtenmodell entspricht die Anwendungsschicht den Schichten 5 bis 7. HTTP ist ein zustandsloses Protokoll. Informationen aus früheren Anforderungen gehen verloren. Ein zuverlässiges Mitführen von Sitzungsdaten kann erst auf der Anwendungsschicht durch eine Sitzung über einen Sitzungsbezeichner implementiert werden. Über Cookies in den Header-Informationen können aber Anwendungen realisiert werden, die Statusinformationen (Benutzereinträge, Warenkörbe) zuordnen können. Dadurch werden Anwendungen möglich, die Status- beziehungsweise Sitzungseigenschaften erfordern. Auch eine Benutzerauthentifizierung ist möglich. Normalerweise kann die Information, die über HTTP übertragen wird, auf allen Rechnern und Routern gelesen werden, die im Netzwerk durchlaufen werden. Über HTTPS kann die Übertragung aber verschlüsselt erfolgen. Durch Erweiterung seiner Anfragemethoden, Header-Informationen und Statuscodes ist HTTP nicht auf Hypertext beschränkt, sondern wird zunehmend zum Austausch beliebiger Daten verwendet, außerdem ist es Grundlage des auf Dateiübertragung spezialisierten Protokolls WebDAV. Zur Kommunikation ist HTTP auf ein zuverlässiges Transportprotokoll angewiesen, wofür in nahezu allen Fällen TCP verwendet wird. Derzeit werden hauptsächlich zwei Protokollversionen, HTTP/1.0 und HTTP/1.1, verwendet. Neuere Versionen wichtiger Webbrowser wie Chromium, Opera, Firefox und Internet Explorer sind darüber hinaus bereits kompatibel zu der neu eingeführten Version 2 des HTTP (HTTP/2) Aufbau. Die Kommunikationseinheiten in HTTP zwischen Client und Server werden als "Nachrichten" bezeichnet, von denen es zwei unterschiedliche Arten gibt: die "Anfrage" (englisch "Request") vom Client an den Server und die "Antwort" (englisch "Response") als Reaktion darauf vom Server zum Client. Jede Nachricht besteht dabei aus zwei Teilen, dem Nachrichtenkopf (englisch "Message Header", kurz: "Header" oder auch HTTP-Header genannt) und dem Nachrichtenrumpf (englisch "Message Body", kurz: "Body"). Der Nachrichtenkopf enthält Informationen über den Nachrichtenrumpf wie etwa verwendete Kodierungen oder den Inhaltstyp, damit dieser vom Empfänger korrekt interpretiert werden kann (→ "Hauptartikel: Liste der HTTP-Headerfelder"). Der Nachrichtenrumpf enthält schließlich die Nutzdaten. Funktionsweise. Beispiel einer Transaktion, ausgeführt mit Telnet Wenn auf einer Webseite der Link zur URL "http://www.example.net/infotext.html" aktiviert wird, so wird an den Rechner mit dem Hostnamen "www.example.net" die Anfrage gerichtet, die Ressource "/infotext.html" zurückzusenden. Der Name "www.example.net" wird dabei zuerst über das DNS-Protokoll in eine IP-Adresse umgesetzt. Zur Übertragung wird über TCP auf den Standard-Port 80 des HTTP-Servers eine HTTP-GET-Anforderung gesendet. codice_1 Enthält der Link Zeichen, die in der Anfrage nicht erlaubt sind, werden diese %-kodiert. Zusätzliche Informationen wie Angaben über den Browser, zur gewünschten Sprache etc. können über den Header (Kopfzeilen) in jeder HTTP-Kommunikation übertragen werden. Mit dem „Host“-Feld lassen sich verschiedene DNS-Namen unter der gleichen IP-Adresse unterscheiden. Unter HTTP/1.0 ist es optional, unter HTTP/1.1 jedoch erforderlich. Sobald der Header mit einer Leerzeile (beziehungsweise zwei aufeinanderfolgenden Zeilenenden) abgeschlossen wird, sendet der Rechner, der einen Web-Server (an Port 80) betreibt, seinerseits eine HTTP-Antwort zurück. Diese besteht aus den Header-Informationen des Servers, einer Leerzeile und dem tatsächlichen Inhalt der Nachricht, also dem Dateiinhalt der "infotext.html"-Datei. Übertragen werden normalerweise Dateien in Seitenbeschreibungssprachen wie (X)HTML und alle ihre Ergänzungen, zum Beispiel Bilder, Stylesheets (CSS), Skripte (JavaScript) usw., die meistens von einem Browser in einer lesbaren Darstellung miteinander verbunden werden. Prinzipiell kann jede Datei in jedem beliebigen Format übertragen werden, wobei die „Datei“ auch dynamisch generiert werden kann und nicht auf dem Server als physische Datei vorhanden zu sein braucht (zum Beispiel bei Anwendung von CGI, SSI, JSP, PHP oder ASP.NET). Jede Zeile im Header wird durch den Zeilenumbruch CR>LF> abgeschlossen. Die Leerzeile nach dem Header darf nur aus , ohne eingeschlossenes Leerzeichen, bestehen. Der Server sendet eine Fehlermeldung sowie einen Fehlercode zurück, wenn die Information aus irgendeinem Grund nicht gesendet werden kann, allerdings werden auch dann Statuscodes verwendet, wenn die Anfrage erfolgreich war, in dem Falle (meistens) codice_8. Der genaue Ablauf dieses Vorgangs (Anfrage und Antwort) ist in der HTTP-Spezifikation festgelegt. Geschichte. Tim Berners-Lee, der als Begründer des Webs gilt, erfand auch das HTTP mit. Ab 1989 entwickelten Roy Fielding, Tim Berners-Lee und andere am CERN, dem europäischen Kernforschungszentrum in der Schweiz, das Hypertext Transfer Protocol, zusammen mit den Konzepten URL und HTML, womit die Grundlagen des World Wide Web geschaffen wurden. Erste Ergebnisse dieser Bemühungen war 1991 die Version HTTP 0.9. HTTP/1.0. Die letztlich im Mai 1996 als RFC 1945 (Request for Comments Nr. 1945) publizierte Anforderung ist als HTTP/1.0 bekannt geworden. Bei HTTP/1.0 wird vor jeder Anfrage eine neue TCP-Verbindung aufgebaut und nach Übertragung der Antwort standardmäßig vom Server wieder geschlossen. Sind in ein HTML-Dokument beispielsweise zehn Bilder eingebettet, so werden insgesamt elf TCP-Verbindungen benötigt, um die Seite auf einem grafikfähigen Browser aufzubauen. HTTP/1.1. 1999 wurde eine zweite Anforderung als RFC 2616 publiziert, die den HTTP/1.1-Standard wiedergibt. Bei HTTP/1.1 kann ein Client durch einen zusätzlichen Headereintrag "(Keepalive)" den Wunsch äußern, keinen Verbindungsabbau durchzuführen, um die Verbindung erneut nutzen zu können (persistent connection). Die Unterstützung auf Serverseite ist jedoch optional und kann in Verbindung mit Proxys Probleme bereiten. Mittels HTTP-Pipelining können in der Version 1.1 mehrere Anfragen und Antworten pro TCP-Verbindung gesendet werden. Für das HTML-Dokument mit zehn Bildern wird so nur eine TCP-Verbindung benötigt. Da die Geschwindigkeit von TCP-Verbindungen zu Beginn durch Verwendung des "Slow-Start"-Algorithmus recht gering ist, wird so die Ladezeit für die gesamte Seite signifikant verkürzt. Zusätzlich können bei HTTP/1.1 abgebrochene Übertragungen fortgesetzt werden. Eine Möglichkeit zum Einsatz von HTTP/1.1 in Chats ist die Verwendung des MIME-Typs "multipart/replace", bei dem der Browser nach Senden eines Boundary-Codes und eines neuerlichen "Content-Length"-Headerfeldes sowie eines neuen "Content-Type"-Headerfeldes den Inhalt des Browserfensters neu aufbaut. Mit HTTP/1.1 ist es neben dem Abholen von Daten auch möglich, Daten zum Server zu übertragen. Mit Hilfe der PUT-Methode können so Webdesigner ihre Seiten direkt über den Webserver per WebDAV publizieren und mit der DELETE-Methode ist es ihnen möglich, Daten vom Server zu löschen. Außerdem bietet HTTP/1.1 eine TRACE-Methode, mit der der Weg zum Webserver verfolgt und überprüft werden kann, ob die Daten korrekt dorthin übertragen werden. Damit ergibt sich die Möglichkeit, den Weg zum Webserver über die verschiedenen Proxys hinweg zu ermitteln, ein traceroute auf Anwendungsebene. HTTP/2. Im Mai 2015 wurde von der IETF HTTP/2 als Nachfolger von HTTP/1.1 verabschiedet. Der Standard ist in den RFC 7540 und 7541 spezifiziert. Die Entwicklung war maßgeblich von Google "(SPDY)" und Microsoft "(HTTP Speed+Mobility)" mit jeweils eigenen Vorschlägen vorangetrieben worden. Ein erster Entwurf, der sich weitgehend an SPDY anlehnte, war im November 2012 publiziert und seither in mehreren Schritten angepasst worden. Mit HTTP/2 soll die Übertragung beschleunigt und optimiert werden. Dabei soll der neue Standard jedoch vollständig abwärtskompatibel zu HTTP/1.1 sein. Eine Beschleunigung ergibt sich hauptsächlich aus der neuen Möglichkeit des Zusammenfassens (Multiplex) mehrerer Anfragen, um sie über eine Verbindung abwickeln zu können. Die Datenkompression kann nun (mittels neuem Spezialalgorithmus namens HPACK) auch Kopfdaten mit einschließen. Inhalte können binär kodiert übertragen werden. Um nicht auf serverseitig vorhersehbare Folgeanforderungen vom Client warten zu müssen, können Datenübertragungen teilweise vom Server initiiert werden (push-Verfahren). Die ursprünglich geplante Option, dass HTTP/2 standardmäßig TLS nutzt, wurde nicht umgesetzt. Allerdings kündigten die Browser-Hersteller Google und Mozilla an, dass ihre Webbrowser HTTP/2 nicht ohne Verschlüsselung unterstützen werden (siehe Application-Layer Protocol Negotiation). Die meist verbreitetsten Browser unterstützen HTTP/2. Darunter Google Chrome (inkl. Chrome unter iOS und Android) ab Version 41, Mozilla Firefox ab Version 36, Internet Explorer 11 unter Windows 10, Opera ab Version 28 (bzw. Opera Mobile ab Version 24) und Safari ab Version 8. HTTP-Anfragemethoden. RFC 5789 definiert zusätzlich eine PATCH-Methode, um Ressourcen zu modifizieren – in Abgrenzung zur PUT-Methode, deren Intention das Hochladen der kompletten Ressource ist. RESTful Web Services verwenden die unterschiedlichen Anfragemethoden zur Realisierung von Webservices. Insbesondere werden dafür die HTTP-Anfragemethoden GET, POST, PUT/PATCH und DELETE verwendet. WebDAV fügt folgende Methoden zu HTTP hinzu: "PROPFIND, PROPPATCH, MKCOL, COPY, MOVE, LOCK, UNLOCK" Argumentübertragung. Die zu übertragenden Daten müssen gegebenenfalls URL-kodiert werden, das heißt reservierte Zeichen müssen mit „%Hex-Wert>“ und Leerzeichen mit „+“ dargestellt werden. HTTP GET. Hier werden die Parameter-Wertepaare durch das Zeichen "?" in der URL eingeleitet. Oft wird diese Vorgehensweise gewählt, um eine Liste von Parametern zu übertragen, die die Gegenstelle bei der Bearbeitung einer Anfrage berücksichtigen soll. Häufig besteht diese Liste aus Wertepaaren, welche durch das "&"-Zeichen voneinander getrennt sind. Die jeweiligen Wertepaare sind in der Form "Parametername=Parameterwert" aufgebaut. Seltener wird das Zeichen ";" zur Trennung von Einträgen der Liste benutzt. codice_9 Diese Wertepaare werden in der Form codice_10 mit vorangestelltem codice_11 an die geforderte Seite angehängt. codice_12 codice_13 codice_14 Der Datenteil ist meist länger, hier soll nur das Protokoll betrachtet werden. HTTP POST. Da sich die Daten nicht in der URL befinden, können per POST große Datenmengen, zum Beispiel Bilder, übertragen werden. codice_16 codice_17 HTTP-Statuscodes. Mit Fehler 404 kommen Web-Nutzer am häufigsten in Berührung Jede HTTP-Anfrage wird vom Server mit einem HTTP-Statuscode beantwortet. Er gibt zum Beispiel Informationen darüber, ob die Anfrage erfolgreich bearbeitet wurde, oder teilt dem Client, also etwa dem Browser, im Fehlerfall mit, wo (zum Beispiel Umleitung) beziehungsweise wie (zum Beispiel mit Authentifizierung) er die gewünschten Informationen (wenn möglich) erhalten kann. codice_18 HTTP-Kompression. Um die übertragene Datenmenge zu verringern, kann ein HTTP-Server seine Antworten komprimieren. Ein Client muss bei einer Anfrage mitteilen, welche Kompressionsverfahren er verarbeiten kann. Dazu dient der Header "Accept-Encoding" (etwa "Accept-Encoding: gzip, deflate"). Der Server kann dann die Antwort mit einem vom Client unterstützten Verfahren komprimieren und gibt im Header "Content-Encoding" das verwendete Kompressionsverfahren an. HTTP-Kompression spart vor allem bei textuellen Daten (HTML, CSS, Javascript) erhebliche Datenmengen, da sich diese gut komprimieren lassen. Bei bereits komprimierten Daten (etwa gängige Formate für Bilder, Audio und Video) ist die (erneute) Kompression nutzlos und wird daher üblicherweise nicht benutzt. In Verbindung mit einer mit TLS verschlüsselten Kommunikation führt die Komprimierung allerdings zur BREACH-Exploit, wodurch die Verschlüsselung gebrochen werden kann. Applikationen über HTTP. HTTP als textbasiertes Protokoll wird nicht nur verwendet zur Übertragung von Webseiten, es kann auch in eigenständigen Applikationen, den Webservices, verwendet werden. Dabei werden die HTTP-eigenen Befehle wie GET und POST weiterverwendet für CRUD-Operationen. Dies hat den Vorteil, dass kein eigenes Protokoll für die Datenübertragung entwickelt werden muss. Beispielhaft wird dies bei JAX-RS eingesetzt. Hauptstadt. Eine Hauptstadt ist ein politisches Zentrum eines Staates und oft Sitz der obersten Staatsgewalten: Parlament, Monarch, Regierung, Oberstes Gericht. Dieser Status ist oftmals per Verfassungsgesetz deklariert. Selten weicht der Regierungssitz ab; so zum Beispiel in den Niederlanden, Bolivien, Tansania und Malaysia sowie von 1990 bis 1999 in Deutschland. Auch gibt es Hauptstädte, die räumlich vom judikativen Verfassungsorgan getrennt sind, so in Deutschland und Tschechien. Vor allem in Bundesstaaten können die obersten Organe der Staatsgewalt auf mehrere Städte verteilt sein. Oft gibt es abweichende Finanz-, Industrie-, Verkehrs-, Wissenschafts- und Kulturzentren. Hauptstadt als wichtigstes Zentrum. Sehr oft entwickelte sich die Hauptstadt über einen langen Zeitraum hinweg zum unangefochtenen Herzstück eines Nationalstaats. Sie ist nicht nur politisches Zentrum "(Residenzstadt)", sondern auch Mittelpunkt der Industrie, Wissenschaft, Kunst und Kultur einer Region "(Hauptort)". Im Städtebau einer Hauptstadt machen sich die Hauptstadt- und Regierungsfunktionen häufig durch monumentale und auf staatliche Selbstdarstellung zielende Gebäude, Straßenzüge, Plätze und Grünanlagen sowie durch die Anlage eines Regierungsviertels bemerkbar. In Frankreich konnte sich die Hauptstadt Paris zur bedeutendsten Stadt des Landes entwickeln. Bereits im Mittelalter wurde der Grundstein für diese Entwicklung gelegt, als die französischen Könige die Stadt zu ihrer Hauptstadt machten, indem sie damit begannen, zentralörtliche, oft höfische, später zunehmend staatliche Funktionen an diesem Ort zu konzentrieren ("Zentralismus"). 1257 entstand etwa mit dem Gymnasium "Collège de Sorbonne" der Vorgänger der ältesten und bekanntesten Universität Frankreichs. Franz I. ließ im 16. Jahrhundert Künstler wie Michelangelo, Tizian oder Raffael nach Paris kommen und legte damit den Grundstock für die königliche Gemäldesammlung, die heute der Louvre beherbergt. In den folgenden Jahrhunderten entstanden weitere für Frankreich bedeutende Einrichtungen wie z. B. die Académie française. Trotz der Verlagerung der Residenz von Paris nach Versailles unter Ludwig XIV. blieb die Stadt weiterhin das politische und wirtschaftliche Zentrum. Die Stadt wurde weiter ausgebaut, sie beherbergte zwischen 1855 und 1937 sechs Weltausstellungen. Während der "Belle Époque" wurde die Stadt erneut zu einem international anerkannten kulturellen und intellektuellen Zentrum. Noch in den letzten Jahrzehnten errichteten französische Präsidenten monumentale Bauwerke wie den Grande Arche, was die Bedeutung der Stadt weiter unterstrich. Paris ist auch heute nicht nur Zentrum der Kultur und Politik, die Stadt ist größter Verkehrsknotenpunkt und größter Wirtschaftsraum in Frankreich. Es fahren auch viele Besucher in die Hauptstadt. Auch London durchlief zunächst für England, später für ganz Großbritannien eine vergleichbare Entwicklung. Weitere Beispiele sind Mexiko-Stadt (Mexiko), Buenos Aires (Argentinien) oder Bangkok (Thailand). Hauptstadt als vorwiegend politisches Zentrum. Von der weit verbreiteten Norm, als Hauptstadt auch das kulturelle und wirtschaftliche Zentrum zu sein, weichen viele Hauptstädte aus verschiedenen historischen oder politischen Gründen ab. So ist die Hauptstadt nicht immer gleichzeitig die größte und bedeutendste Stadt. Ihre Bedeutung beschränkt sich oftmals nur auf die Funktion als Regierungssitz. Oftmals wandeln sich allerdings im Laufe der Jahre anfänglich bedeutungslose, zu Hauptstädten ernannte Städte durch ihren erlangten Status zu wichtigen Zentren über ihre administrative Bedeutung hinaus. Die Hauptstadt der Vereinigten Staaten, Washington, D.C., belegt in der Reihung nach Einwohnerzahlen nur Platz 27 (auf Rang 1 steht New York City). Aufgrund der geographisch zentraleren Lage und als Zeichen der Abgrenzung vom Osmanischen Reich wurde die Hauptstadt der neu gegründeten Türkischen Republik 1923 von der Metropole Istanbul ins viel kleinere und unbedeutendere Ankara verlegt. Die eher unbedeutende kanadische Stadt Ottawa wurde vermutlich deswegen zur Hauptstadt ausgewählt, weil sie an der englisch-französischen Sprachgrenze liegt und somit für beide Bevölkerungsteile als akzeptabel erschien. Man ging auch davon aus, dass im Kriegsfall eine Kleinstadt weniger bedroht wäre. Kasachstan verlegte 1997 seine Hauptstadt von Almaty in das halb so große Astana. Zum einen geschah dies wegen der Erdbebengefahr in Almaty, zum anderen wählte man die Stadt in der Mitte des Landes, um die russischsprachige Minderheit im Norden besser kontrollieren zu können. 1949 wurde in der Bundesrepublik Deutschland die bis dahin wenig bedeutende Stadt Bonn zur (provisorischen) Bundeshauptstadt gewählt. Dies geschah wohl vor allem auf Initiative des Rheinländers und ersten Bundeskanzlers Konrad Adenauer. Ein weiterer Grund, weshalb sich Bonn gegen den Mitbewerber Frankfurt am Main durchsetzen konnte, war vermutlich die Befürchtung, dass sich die Bevölkerung nach einer Wiedervereinigung für die Beibehaltung Frankfurts als Hauptstadt hätte aussprechen können. Bei Bonn handelte es sich bei Weitem nicht um die größte Stadt der alten Bundesrepublik; Bonn hatte zu dieser Zeit etwa 115.000 Einwohner, Hamburg z. B. 1,6 Millionen. Im Laufe der Jahre wurde Bonn für die Aufgaben als Hauptstadt ausgebaut; die anfänglich hämisch als "Bundesdorf" bezeichnete Stadt auch durch Eingemeindungen ihre Einwohnerzahl mehr als verdoppeln. Mit der Wiedervereinigung am 3. Oktober 1990 wurde Bonn durch Berlin als gesamtdeutsche Hauptstadt (wieder) abgelöst. Im Bonn-Gesetz wurde Bonn (nun mit dem Zusatztitel „Bundesstadt“) jedoch der Verbleib zahlreicher Bundesministerien und die Zuordnung mehrerer vormals in Berlin ansässiger Bundesbehörden zugestanden, so dass Berlin keine zentralistische Hauptstadt ist. Für das untergegangene Preußen kann man Berlin jedoch durchaus eine mit London oder Paris vergleichbare Entwicklung und Funktion attestieren. Geplante Hauptstadt. Auf dem Reißbrett entstandene Hauptstadt Brasília Die Gründe für den Entschluss eines Staates, eine Planhauptstadt zu errichten, sind vielfältig. Pakistan entschloss sich für den Bau der neuen Hauptstadt Islamabad, da man Vorbehalte gegenüber der Konzentration von Investitionen in der bisherigen Hauptstadt Karatschi hatte. Der Grund für den Bau der brasilianischen Hauptstadt Brasília lag darin, dass man Bedarf nach einer neutralen und föderalen Hauptstadt hatte. Zudem sollte die nun im geographischen Zentrum liegende Stadt die Entwicklung des Binnenlandes fördern, was mit der an der Küste liegenden vorherigen Hauptstadt Rio de Janeiro so nicht möglich gewesen wäre. In den letzten hundert Jahren entstanden weltweit eine Reihe künstlicher Hauptstädte. Die bekanntesten sind neben den schon genannten wohl Abuja in Nigeria, Canberra in Australien, Neu-Delhi in Indien und 2005 Naypyidaw in Myanmar. Schon in vergangenen Jahrhunderten errichteten Herrscher und Staatsführungen auf dem Reißbrett entstandene Hauptstädte. 1703 ließ Zar Peter I. in den Sümpfen der Newa-Mündung den Grundstein für die neue russische Hauptstadt Sankt Petersburg legen. Von 1712 bis 1918 löste sie Moskau als Hauptstadt ab. Auch Washington, D.C. ist eine geplante Hauptstadt. Knapp 90 Jahre nach Sankt Petersburg wurde 1792 an den Ufern des Potomac River mit dem Bau der Hauptstadt der USA begonnen. Am 11. Juni 1800 wurde Washington offiziell zur Hauptstadt. Auch in Deutschland ließen absolutistische Herrscher des 17. und 18. Jahrhunderts Residenzstädte völlig neu entstehen. Ein Beispiel dafür ist die ehemalige badische Landeshauptstadt Karlsruhe. Markgraf Karl Wilhelm von Baden-Durlach ließ am 17. Juni 1715 den Grundstein für die nach ihm benannte Stadt legen. Die strahlenförmige Anordnung der Straßen und Alleen, in deren Zentrum das Residenzschloss liegt, ist heute noch gut zu erkennen, ihr verdankt die Stadt den Beinamen „Fächerstadt“. Von der Hauptstadt abweichender Regierungssitz. Der Regierungssitz einiger weniger Staaten befindet sich nicht in der Hauptstadt. So ist Amsterdam sowohl die größte Stadt der Niederlande als auch deren nominelle Hauptstadt, offizieller Regierungssitz und königliche Residenz ist jedoch Den Haag. In Südafrika verteilt sich der Regierungssitz sogar auf drei Städte, wobei die größte Stadt (Johannesburg) nicht dazugehört. Das Parlament tagt in Kapstadt, das Verwaltungs- und Regierungszentrum ist Pretoria (Tshwane) und die obersten judikativen Einrichtungen (Gerichtshöfe) befinden sich in Bloemfontein. Hauptstadt von Subentitäten. Auch Teilstaaten (beispielsweise Länder in Deutschland und Österreich oder Bundesstaaten in den USA) haben Landeshauptstädte, die für ihren Landesteil außer den politischen auch die übrigen Hauptstadtfunktionen aufweisen. Im Gegensatz zu den meisten anderen Staaten kennen die Schweizer Kantone keine „Hauptstädte“, sondern nur „Kantonshauptorte“. Das resultiert daraus, dass mehrere dieser Orte (z. B. Stans oder Appenzell) nicht die Größe aufweisen, um statistisch als Stadt zu gelten. Hauptstädte von Staaten. Dabei handelt es sich um eine teils historische, teils aktuelle Aufstellung der Hauptstädte der einzelnen Staaten, ihrer eventuellen Vorgängerstaaten (z. B. Deutscher Bund, Deutsches Reich), der obersten Verwaltungseinheiten (Bundesstaaten, Länder, Bundesländer, Provinzen) und der abhängigen Gebiete. Kleinste und größte Hauptstädte der Welt. "Alle Angaben Berechnungen nach World Gazetteer" Hauptstädte, die nicht größte Städte ihres Landes sind. Staaten, in denen die Hauptstadt nicht die größte Stadt ist Einzelnachweise. !Welt Hardware. Hardware [bzw. (AE)] (Abkürzung: HW) ist der Oberbegriff für die mechanische und elektronische Ausrüstung eines datenverarbeitenden Systems. Wortherkunft. Ursprünglich ist das englische "hardware" ungefähr bedeutungsgleich mit „Eisenwaren” und wird heute im englischsprachigen Raum noch in diesem Sinne verwendet – also nicht nur für "computer hardware". Abgrenzung Hardware und Software. Sehr einfache logische Systeme, z. B. einfach UND- oder ODER-Schaltungen können direkt in unveränderlicher Hardware implementiert werden. Die Funktion dieser Systeme ist dann fest durch die Struktur der Hardware vorgegeben. Komplexere Hardwaresysteme enthalten aber meist auch programmierbare Elemente, z. B. Prozessoren. Diese, in ihrer Struktur ebenfalls festgelegten Bauelemente, führen eine Abfolge von Instruktionen aus, die manipuliert werden kann. Hinzu treten Bauteile, die auch in ihrer Struktur definiert werden können (siehe PLD). Somit kann die Funktion des Gesamtsystems leicht angepasst werden. Die Konfigurations- und Instruktionsdaten werden allgemein als Software bezeichnet - bei weniger komplexen Geräten, wo lediglich Strukturen und einfache Abläufe festgelegt werden, wird sie meist Firmware genannt. Zur Hardware zählen hingegen Baugruppen (Komponenten: Prozessor, Arbeitsspeicher etc.) und Peripheriegeräte. Vereinfacht gesagt gehört alles, was angefasst werden kann, zur Hardware. Computer-Hardware ist ausschließlich mit entsprechender Software benutzbar. "Software" bezeichnet im Gegensatz dazu Programme und Daten, die man nicht anfassen kann. Die Datenträger, auf denen sich die Software befindet, z. B. Diskette, CD/DVD/BR-D/HD-DVD, RAM, Flash-Speicher, Festplatte usw., sind dagegen Hardware. Bei sogenannten embedded Prozessoren (für z. B. PDAs oder Waschmaschinen) findet man im gleichen Gehäuse noch ein Ein-/Ausgabewerk in Form serieller Schnittstellen (z. B. USB), digitalem O (Input/Ouput) z. B. für Lämpchen und analogem I/O für z. B. einen Touch-Screen. Noch stärker integriert sind sogenannte SoC (System on a Chip) für z. B. Smartphones, die weitere Komponenten integrieren, bis hin zu Arbeitsspeicher (RAM) und Flash-Speicher. Alle diese Peripheriegeräte und Baugruppen eines Computers sind großteils mit logischen Schaltungen aufgebaut. Die Hardware eines Computers wird von der Firmware (z. B. BIOS oder EFI) und der Software (u. a. Betriebssystem und den dazugehörigen Gerätetreibern) gesteuert und verwaltet. Häufig ist Hardware mit einer FCC-Nummer versehen, die eine eindeutige Identifizierung des Herstellers erlaubt. Ursprünglich kommt der Begriff "Firmware" aus dem Bereich programmierbarer Logik. In den 1980er Jahren wurden logische Funktionen wie z. B. Adressdekodierung mit einzeln erhältlichen Bausteinen festverdrahtet realisiert. (UND-Gatter, Oder-Gatter, Inverter, Flip-Flops usw.) Mit zunehmender Komplexität wurden programmierbare Bausteine wie z. B. PLDs eingesetzt. Dieses hat den Vorteil, flexibel auf neu gefundene Fehler durch Neuprogrammierung reagieren zu können, anstatt Teile auslöten zu müssen. Trotz der Programmierung der Hardware mit softwareähnlichen Hochsprachen (z. B. Abel, VHDL usw.) spricht man von Firmware, die man meistens der Hardware oder der Mikroelektronik zuordnet. Hölloch. Das Hölloch ist ein Karst-Höhlensystem im Kanton Schwyz in der Schweiz. Es ist mit bislang über 200 km bekannter Länge das zweitlängste Höhlensystem in Europa und das achtlängste der Welt. Der Name hat nichts mit der Hölle zu tun, obwohl es zu dieser Namensgebung eine Sage gibt. In Schweizer Mundart bedeutet»Hähl«rutschig; und als Besucher wird man vom diplomierten Höhlenführer unterrichtet, dass es sich um»e hähls Loch«handelt. Die wahrscheinlichste Herkunft des Namens ist, dass Höll oder Hell ein sackartig abfallendes, schlecht zugängliches Geländestück (Tobel) bezeichnen. Somit bezeichnet Hölloch ein Loch oder eben eine Höhle, die sich in diesem Tobel befindet. Der Eingang des Höllochs befindet sich im Muotathal oberhalb des Weilers Stalden. Geschichte. Das Hölloch wurde im Jahre 1875 von Alois Ulrich aus Stalden im Muotathal entdeckt. Im Jahre 1905 begann man mit dem Ausbau der Höhle: Der vorderste Teil der Höhle wurde mit Strom erschlossen und beleuchtet, was für diese Zeit revolutionär war. Im Sommer 1906 wurde der erste Teil zur touristischen Nutzung eröffnet. Am 14./15. Juni 1910 zerstörte ein Hochwasser die gesamte vorhandene elektrische Lichtanlage. Die touristische Erschliessung wurde dadurch nach wenigen Jahren durch die Natur wieder beendet. Erst nach dem Zweiten Weltkrieg wurde im Hölloch wieder geforscht; 1949 wurde das erste Biwak errichtet. 1993 pachtete und 1995 kaufte die Trekking Team AG die touristischen Nutzungsrechte am Hölloch und organisiert seither Führungen in der Höhle, die damals auf 172 Kilometer erkundet war. Parallel dazu lief die Forschung weiter. Im Mai 2004 kannte man 190,1 Kilometer Gangsystem im Hölloch. Die offiziellen Vermessungswerte der Arbeitsgemeinschaft Höllochforschung (AGH) betrugen im Mai 2011 in der Länge 198,2 km und in der Höhendifferenz 939 Meter, im April 2013 in der Länge 200,881 km bei unveränderter Höhendifferenz. Das Hölloch ist sehr gut erforscht, und es gibt im begehbaren (trockenen) Bereich kaum noch unerforschte Seitenarme. Aufbau der Höhle. Das Hölloch besteht grob gesehen aus drei Ebenen, wobei die unterste Ebene grösstenteils unter dem Grundwasserspiegel liegt und daher mit Wasser gefüllt ist. Bedingt durch die geologischen Gesteinsschichten fallen die Gänge in der Regel gegen Norden ab und es gibt nur wenige Gänge, die waagrecht verlaufen. Mehrfach wurden Höhlenforscher von eindringendem Wasser überrascht und für einige Tage eingeschlossen. Heutzutage stellt das aber kein grosses Problem mehr dar, denn es sind seit 1980 vier weitere Eingänge entdeckt (bzw. geöffnet) worden, über welche das Hölloch nach oben (wenn auch auf anspruchsvollerem Wege) verlassen werden kann. Zudem sind in diversen Biwaks Lebensmittelvorräte vorhanden, mit deren Hilfe sich mehrere Personen ein paar Tage versorgen können, das sogenannte Dom-Biwak für Touristentouren und mehrere Forschungsbiwaks für die Höhlenforscher. Dazu kommt, dass die Wassersituation im Hölloch besser bekannt ist und gerade bei touristischen Führungen jedes Risiko vermieden wird. Wer einen bisher unbekannten Gang oder Raum entdeckt hat, ist berechtigt, diesen zu benennen. Häufig werden Namen verwendet, die spezielle Eigenheiten dieses Ortes wiedergeben. So gibt es etwa den Schlangengang oder den Rittersaal. In der Anfangszeit der Erforschung wurden auch Gänge nach dem Entdecker benannt. Aktuelle Forschung. Das Wasser findet den Weg vom Silberensystem ins Hölloch. Könnten die Höhlenforscher diese Verbindung bestätigen, so würde das Hölloch um einen Schlag um 38 km anwachsen. Im Moment scheint das Finden dieser Verbindung jedoch nicht absehbar. Damit die Höhlen offiziell als verbunden gelten, müsste ein begehbarer Gang entdeckt werden. Auch hydrologisch wird viel geforscht, um das Hölloch und die Wege des Wassers immer besser kennenzulernen. Dank mehrerer Messstationen in der Höhle, auf der Oberfläche und bei der wichtigsten Quelle „Schlichenden Brünnen“ konnte die Wassersituation im Hölloch bis zum grossen Hochwasser vom Sommer 2005 ziemlich gut beurteilt werden. Seither hat sich das Wasserverhalten verändert, und die bis im Sommer 2005 geltenden Erfahrungswerte sind heute nicht mehr vorbehaltlos gültig. Prinzipiell sind Höhlenbefahrungen oder Expeditionen mit den nötigen Vorsichtsmassnahmen nicht gefährlicher geworden, aber man muss das Verhalten des Wassers nun wieder über einen längeren Zeitraum beobachten, um neue Erfahrungswerte zu sammeln. Tierfunde. Häufig werden in grossen Höhlensystemen neue Tierarten gefunden. So wurde 2010 im Hölloch der rund drei Millimeter grosse, braun-weisse Pseudoskorpion "Pseudoblothrus infernus" entdeckt. Das weder den Spinnen noch den Skorpionen zugeordnete Tier ist mit zwei Greifzangen und einer Giftdrüse ausgestattet. Hugo Sinzheimer. Hugo Daniel Sinzheimer (geboren am 12. April 1875 in Worms; gestorben am 16. September 1945 in Bloemendaal-Overveen, Niederlande) war ein deutscher Rechtswissenschaftler und sozialdemokratischer Politiker. Leben und Beruf. Nach seinem Abitur auf dem Großherzoglichen Gymnasium in Worms (heute Rudi-Stephan-Gymnasium) 1894 begann Sinzheimer, der jüdisch war, zunächst eine kaufmännische Lehre, die er aber schon nach einem Jahr abbrach. Anschließend studierte er in München, Berlin, Freiburg im Breisgau, Marburg und Halle (Saale) Rechtswissenschaften und Nationalökonomie. Während des Studiums trat er dem "staatswissenschaftlichen Verein Berlin" bei. Nach seiner Promotion zum Doktor der Rechte an der Ruprecht-Karls-Universität Heidelberg 1902 ließ er sich 1903 als Rechtsanwalt in Frankfurt am Main nieder. Als Rechtsanwalt vertrat er vielfach politische und gewerkschaftliche Mandanten. Wesentliche Rechtsprinzipien waren für ihn die Würde und Freiheit des Menschen; er stand dem Humanismus und der Freirechtsbewegung nahe. Hugo Sinzheimer wird in Deutschland auch als "Vater des Arbeitsrechts" bezeichnet. 1914 wurde er Mitherausgeber der Zeitschrift "Arbeitsrecht". Zudem war er Rechtsberater des Deutschen Metallarbeiterverbandes. Während der Novemberrevolution war er provisorischer Polizeipräsident von Frankfurt am Main. Er erarbeitete den Artikel 165 der Weimarer Reichsverfassung, der die Grundlage für die Verankerung der Räte im Wirtschaftsleben legte. Er war ab 1920 Professor für Arbeitsrecht und Rechtssoziologie an der Universität Frankfurt. Er initiierte 1921 die Gründung der Akademie der Arbeit. 1925 übernahm er bis 1931 gemeinsam mit Gustav Radbruch und Wolfgang Mittermaier die Herausgeberschaft der Zeitschrift "Die Justiz", der Publikation des Republikanischen Richterbundes. In der Weimarer Republik war er mehrfach als Schlichter in Tarifkonflikten eingesetzt und setzte, obwohl eigentlich gewerkschaftsnah, während des Metallarbeiterstreiks von 1930 zwei Lohnkürzungen durch. Im Jahr 1928 berief der ADGB eine hochrangig besetzten Kommission ein, zu der neben Sinzheimer unter anderem Fritz Baade, Rudolf Hilferding, Erik Nölting und Fritz Naphtali gehörten. Aufgabe war die Erarbeitung eines wirtschaftspolitischen Grundsatzprogramms. Die Ergebnisse veröffentlichte Napthali in seinem Buch "Wirtschaftsdemokratie. Ihr Wesen, Weg und Ziel" (1928). Nach der „Machtergreifung“ wurde der bekennende Jude im Februar 1933 in „Schutzhaft“ genommen. Nach seiner Freilassung im April 1933 floh Sinzheimer in die Niederlande, wo er im Juli 1933 (Antrittsrede 6. November 1933) Professor für Rechtssoziologie zunächst in Amsterdam und später in Leiden wurde. Im September 1933 war ihm im Deutschen Reich die Lehrbefugnis entzogen wurden; im April 1937 wurde er ausgebürgert. Im Mai 1937 entzog ihm die Universität Heidelberg die Doktorwürde. Im Mai 1940, dem Monat der deutschen Besetzung der Niederlande, versuchte Sinzheimer erfolglos, nach England zu flüchten. Kurz darauf wurde er verhaftet und zwei Monate lang in Norddeutschland gefangen gehalten. Nach seiner Freilassung kehrte er nach Amsterdam zurück. Im Februar 1941 wurde er als Hochschullehrer in Leiden entlassen. Im August 1942 wurde Sinzheimer zusammen mit seiner Frau erneut verhaftet und zur Sammelstelle in der Amsterdamer Euterpestraat gebracht; nach Fürsprachen jedoch freigelassen. Die folgenden Jahre bis Kriegsende verbrachte Sinzheimer in wechselnden Quartieren im Untergrund. Nach der Befreiung war Sinzheimer „entkräftet und unterernährt“; er starb wenige Monate später an den Folgen des Lebens in der Illegalität. Partei. Während seiner Studienzeit gehörte Sinzheimer linksliberalen Organisationen an. Nach Ausbruch des Ersten Weltkrieges 1914 trat Sinzheimer der SPD bei, wo er sich dem Hofgeismarer Kreis anschloss. Abgeordneter. Sinzheimer war 1919/20 Mitglied in der verfassunggebenden Weimarer Nationalversammlung. Dort begründete er am 16. Juli 1919 den Antrag seiner Fraktion, den Passus „Die Todesstrafe ist abgeschafft“ in die Verfassung aufzunehmen. Bereits im Juni 1919 hatte er versucht, Reichsarbeitsminister zu werden. Er unterlag aber in einer fraktionsinternen Abstimmung mit 35 zu 69 Stimmen gegen Alexander Schlicke. Von 1917 bis 1933 war er Stadtverordneter in Frankfurt am Main. Halifax (Nova Scotia). Halifax (offiziell "Halifax Regional Municipality", "HRM") ist die Hauptstadt der Provinz Nova Scotia in Kanada. Der urbane Teil der HRM setzt sich aus Halifax, Dartmouth, Bedford und Sackville zusammen und bildet ein einheitliches Stadtgebiet, genannt Halifax Metro. Als wirtschaftliches und kulturelles Zentrum der atlantischen Provinzen gehört Halifax seit dem 1. April 1996 zum Gebiet der Halifax Regional Municipality, die neben Halifax, Bedford und Dartmouth auch Sackville, Cole Harbour, Halifax West, Eastern Shore und weitere Regionen vereint. In der HRM leben zurzeit etwa 390.000 Menschen, was 40 % der Bevölkerung von Nova Scotia und 15 % aller Bewohner der atlantischen Provinzen ausmacht. Somit ist Halifax das größte Bevölkerungszentrum östlich von Québec und nördlich von Boston. Zu Halifax gehört auch die abgelegene Insel Sable Island. Geschichte. Am 9. Juli 1749 landete Captain General Edward Cornwallis mit etwa 2500 Siedlern auf der so genannten Chebucto Halbinsel, um eine befestigte Siedlung als Vorposten für das britische Militär zu errichten. Diese kleine Gemeinde wurde nach Lord Halifax (1716–1771) benannt, dem Präsidenten der britischen Handelskammer. Ein Jahr später, im Jahr 1750, wurde „Dartmouth“ gegründet, das nach der Stadt Dartmouth in England sowie zur Ehre von Sir William Legge, dem zweiten Grafen von Dartmouth, benannt wurde. 1752 wurde eine Fährverbindung zwischen Halifax und Dartmouth eingerichtet, die heute als „Dartmouth Ferry“ die älteste permanent in Betrieb befindliche Salzwasserfährverbindung in Nordamerika ist. Trotz vieler Probleme entwickelte sich die Gemeinschaft weiter und wurde zur Geburtsstätte der ersten kanadischen Zeitung, der „Halifax Gazette“ (1752), und des ersten kanadischen Postbüros im Jahre 1755. 1758 fand die erste Abgeordnetenversammlung statt und noch im selben Jahr begann die Geschichte von Halifax als bedeutende Hafenstadt mit dem Bau der ersten Werft. 1759 war Halifax die Basis für britische Operationen gegen das französische Fort in Louisbourg. Kriege und internationale Konflikte verhalfen Halifax durch militärische Einrichtungen zu Reichtum und Wohlstand. Der Siebenjährige Krieg ist ein erstes Beispiel. Kurz darauf, um 1770, war Halifax im amerikanischen Unabhängigkeitskampf wieder Ausgangspunkt und Basis militärischer Operationen zu Land und zu Wasser. Viele Schwarze siedelten in dieser Zeit in Halifax, gefolgt von Jamaikanern, was zu einer starken schwarzen Gemeinschaft führte. Die Machtschwankungen innerhalb Europas und besonders das mächtige Frankreich mit Napoléon Bonaparte hielten Großbritannien und somit auch Halifax als atlantische Bastion in ständiger Alarmbereitschaft. 1812 war Halifax wieder dabei, sich gegen bevorstehende Angriffe, diesmal der südlichen Nachbarn, zu rüsten. a> an der Hafeneinfahrt nach Halifax im Mai 1942Während des Ersten Weltkrieges war Halifax wieder ein Dreh- und Angelpunkt militärischer Operationen und Logistik. Dabei kamen bei der Explosion des französischen Schiffes "Mont Blanc", der Halifax-Explosion, die große Teile der Halbinsel verwüstete, mindestens 1635 Menschen ums Leben. Über 2000 blieben vermisst, 9000 wurden verletzt und 25.000 verloren ihr Obdach. Auch im Zweiten Weltkrieg von 1939 bis 1945 war Halifax ein wichtiger westlicher Anker der transatlantischen Routen für die alliierte Kriegslogistik. Die großen geschützten Gewässer der Bedford Bucht erlaubten der Royal Navy und der Royal Canadian Navy, zahlreiche große Konvois mit Truppen und Material zusammenzustellen. Die wichtigen HX-Geleitzüge hatten hier ihren Ausgangspunkt. Torpedonetze im Hafen von Halifax verhinderten das Eindringen von deutschen U-Booten. Besonders die Zugverbindung und die Lage weit im Osten Kanadas machten Halifax zu einem der wichtigsten nordamerikanischen Häfen in der Atlantikschlacht. 1925 wurde die transatlantische Telegraphenverbindung nach Halifax hergestellt, und „Trans-Canada Airlines“ startete eine Flugverbindung zwischen Halifax und Vancouver im Jahre 1941. Im Jahre 1960 eröffnete der Halifax International Airport für die nächste Generation von Reisenden. Wirtschaft und Infrastruktur. Halifax besitzt als Basis der Atlantikflotte der kanadischen Marine noch immer eine signifikante militärische Bedeutung und stellt den größten Militärkomplex der kanadischen Marine sowie – nach stationiertem Personal – die größte Militäreinrichtung des Landes dar. Halifax ist ebenfalls die Basis der kanadischen Küstenwache. Der Hafen Halifax besitzt zwei große Containerterminals, eine Ölraffinerie sowie weitere Einrichtungen für das Verladen von Autos und anderen Gütern mit direktem Anschluss zur Eisenbahn. Des Weiteren existieren spezialisierte Einrichtungen für die logistische Versorgung von Hochsee-Gas- und Ölförderanlagen nahe Sable Island sowie zur Suche nach Vorkommen von fossilen Brennstoffen vor der Küste Nova Scotias. Von Bedeutung für den Tourismus sind in den letzten Jahren die Passagiere der in der wärmeren Jahreszeit ankommenden Kreuzfahrtschiffe. Im Jahr 2009 lagen erstmals fünf Kreuzfahrtschiffe gleichzeitig in Halifax vor Anker. Vom 15. bis 17. Juni 1995 fand der 21. Gipfel der G7-Staaten in Halifax mit Kanada, den Vereinigten Staaten von Amerika, dem Vereinigten Königreich, Japan, Deutschland, Italien und Frankreich statt. Auch der russische Präsident und der Kommissionspräsident der EU waren vertreten. Neben dem Gewinn an Ansehen brachte der G7-Gipfel circa 5100 Menschen nach Halifax, darunter 2100 Medienmitarbeiter und Journalisten, 2000 Delegierte und 1000 Sicherheitsbeamte. Es wurden 28 Millionen Dollar an staatlichen und fünf Millionen Dollar an Ländermitteln für den Gipfel veranschlagt. Weitere Wirtschaftsbereiche sind der Fischfang und Landwirtschaft sowie Rohstoffgewinnung und Produktion. Daneben Tourismus sowie das Allgemeine Dienstleistungsgewerbe. Größere private Arbeitgeber sind J. D. Irving ein Mischkonzern mit mehreren Standorten in den Atlantikprovinzen. EastLink, ein Telekommunikationsunternehmen sowie General Dynamics. Air Canada Jazz, eine regionale Tochterairline von Air Canada, die ihren Hauptsitz am Flughafen von Halifax hat. Eine weitere größere Airline ist die CanJet Airlines die zur IMP Group gehört. Pratt & Whitney Canada betreibt ein Fertigungswerk für Flugzeugturbinen in Halifax. Bildung. Halifax besitzt sechs Hochschulen: Dalhousie University, Saint Mary’s University, Mount Saint Vincent University, University of King’s College, Atlantic School of Theology und Nova Scotia College of Art and Design. Neben diesen sechs Hochschulen unterhält das Nova Scotia Community College weitere drei Bildungseinrichtungen innerhalb des Stadtgebietes. Neben den Universitäten sind in Halifax auch renommierte Privatschulen wie die Halifax Grammar School angesiedelt. Medien. Eine der wichtigsten und größten Tageszeitungen sowohl in Halifax als auch in der gesamten Provinz ist The Chronicle Herald. Die Zeitung wird an Zeitungsständen, online sowie durch Heimlieferungen vertrieben. Eine weitere Tageszeitung ist die Metro Halifax. The Coast ist eine wöchentlich erscheinende und gratis verteilte Zeitung in der größeren Umgebung von Halifax. Daneben befinden sich mehrere Radiosender wie u. a. The Bounce 101.3FM und CBC Radio sowie regionale Fernsehsender von CTV, CBC und Global TV, die aktuelle regionale Informationen ausstrahlen. Halifax ist an das Digitale Kabelnetz angeschlossen, welches von Bell und Eastlink angeboten wird, und somit können Fernsehsender aus ganz Kanada und teils aus den USA empfangen werden. Öffentliche Einrichtungen. Für die öffentliche Sicherheit sind die 615 Beamten und 321 Zivilangestellten der Halifax Regional Police zuständig. Die Polizei verfügt über acht Dienststellen und ist in drei Bezirke unterteilt. Die Beamten werden zu gegebenen Anlässen von der kanadischen Bundespolizei der Royal Canadian Mounted Police (RCMP) unterstützt. Halifax verfügt über fünf Krankenhäuser, die auch für die umliegenden Vororte zuständig sind. Das "Dartmouth General Hospital" ist das größte Krankenhaus in der Stadt. Weitere Krankenhäuser sind dass "Eastern Shore Memorial Hospital", "IWK Health Centre", "Nova Scotia Hospital" und das "Queen Elizabeth II Health Sciences Centre". Sehenswürdigkeiten. Die wichtigste Sehenswürdigkeit bildet die sternförmige Zitadelle (Fort George) im Zentrum der Stadt auf einer Anhöhe namens "Citadel Hill". In deren unmittelbaren Nähe befindet sich das von 1811 bis 1818 errichtete "Province House", der Uhrturm von Halifax "Old Town Clock", die "Halifax City Hall" und die "Art Gallery of Nova Scotia". Neben dem 75 Hektar umfassenden Point Pleasant Park, der auf der Südspitze der Halifax-Halbinsel liegt und in dem einige militärhistorische Gebäude stehen, ist auch der im viktorianischen Stil angelegte Halifax Public Garden, der bereits seit 1867 als öffentlicher Park in der Innenstadt besteht, sehenswert. Weitere wichtige Gebäude sind Purdy’s Wharf, die St. Mary’s Basilica, St. Paul’s Church und das Halifax Metro Centre. Pier 21 war ein bedeutender Ankunftsort für Einwanderer bis in die 1950er Jahre und ist heute ein Museum und eine nationale historische Stätte. In Halifax sind 121 Opfer der Titanic-Katastrophe von 1912 auf dem Fairview Cemetery bestattet worden. Weitere 29 Opfer liegen auf dem Mount Olivet Cemetery und dem Baron de Hirsch Cemetery in Halifax. Luftverkehr. Der Halifax International Airport (IATA Code: YHZ, ICAO Code: CYHZ) ist das Hauptluftdrehkreuz der atlantischen Provinzen mit etwa 160 täglichen Abflügen zu 38 nordamerikanischen und internationalen Zielen. Der Flughafen befindet sich in Enfield, etwa 35 km von Downtown Halifax und etwa 30 km von Dartmouth entfernt. Das Umsatzaufkommen am Flughafen beläuft sich auf etwa drei Millionen Passagiere sowie etwa 79.000 Flugbewegungen pro Jahr. Neben Linienflügen existieren auch viele saisonale Verbindungen. Eisenbahnverkehr. Für Passagiere existieren Zugverbindungen in den Westen Kanadas und zu US-Amtrak-Zügen. Außer dienstags verlässt jeden Tag um 12:35 Uhr AST ein Zug Richtung Québec-Montreal den Bahnhof im Süden von Halifax. Individualverkehr. Argyle Street in Downtown Halifax Busverkehr. Acadian Lines hat gute Verbindungen innerhalb von Nova Scotia. Acadian Lines (ehemals SMT Eastern) aus New Brunswick, Greyhound Canada (ehemals Voyager) aus Québec und Ontario sowie Greyhound Lines aus den USA stellen Verbindungen zu den anderen Provinzen und den USA her. Ebenso besteht im urbanen Bereich von Halifax ein öffentlicher Busverkehr unter dem Namen Metro Transit. Fährverkehr. 1752 wurde eine Fährverbindung zwischen Halifax und Dartmouth am gegenüberliegenden Ufer eingerichtet, welche heute als „Dartmouth Ferry“ die älteste bis heute sich in Betrieb befindliche Salzwasserfähre Nordamerikas ist. Im Jahr 2002 wurde das 250-jährige Bestehen der Fährverbindung gefeiert. Eingerichtet wurde die Verbindung zwischen Dartmouth und Halifax um die Garnison von Halifax mit Lebensmitteln und Eis für die Eishäuser zu versorgen. Bis 1955, als die Angus L. Macdonald Bridge eröffnet wurde, war die Fähre die einzige Direktverbindung zwischen Halifax und Dartmouth. Heute ist die Fähre in den ÖPNV der HRM eingegliedert. Schiffsverkehr. Es gibt verschiedene Wasserverbindungen nach Halifax bzw. Nova Scotia. Neben den unten gelisteten Linienverbindungen wird Halifax auch von Kreuzfahrtschiffen angelaufen (Queen Mary 2). Hirohito. Hirohito (jap.; * 29. April 1901 in Tokio; † 7. Januar 1989 ebenda) war entsprechend der traditionellen Thronfolge der 124. Tennō Japans und der dritte der modernen Periode. Er regierte von 1926 bis 1989. Seit seinem Tod ist er in Japan offiziell als Shōwa-tennō (; seine Regierung stand unter der Devise des Wegs des Friedens) bekannt, außerhalb Japans wird er weiter als Kaiser Hirohito bezeichnet. Seine Regierungszeit war die längste in der langen Geschichte der japanischen Monarchie und war eine Zeit bedeutender Veränderungen in der japanischen Gesellschaft. Frühes Leben. Hirohito wurde im Aoyama-Palast in Tokio als erster Sohn des damaligen Kronprinzen Yoshihito und der damaligen Kronprinzessin Sadako geboren. Sein Titel in der Kindheit war Prinz Michi (, "Michi no miya"). Er wurde mit dem Tod seines Großvaters, Kaiser Meiji, und der Thronbesteigung seines Vaters am 30. Juli 1912 Thronanwärter. Seine formelle Einsetzung zum Kronprinzen erfolgte am 2. November 1916. Er besuchte von 1908 bis 1914 die Gakushuin-Adelsschule, danach übernahm eine spezielle Institution für den Kronprinzen (Tōgū-gogakumonsho) von 1914 bis 1921 seine weitere Ausbildung. 1921 bereiste Prinzregent Hirohito sechs Monate lang das Vereinigte Königreich, Frankreich, Italien, die Niederlande und Belgien; damit wurde er zum ersten japanischen Kronprinzen, der jemals ins Ausland reiste. Am 29. November 1921 wurde er in Vertretung seines kranken Vaters Regent von Japan. Heirat. Hirohito hob das bis dahin in Japan übliche System der Konkubinen auf, was für Diskussionen um den bis dahin kinderlosen Hirohito sorgte. Diese verstummten jedoch, als sein erster Sohn Akihito geboren wurde. Thronfolge. Hirohito hatte aufgrund der Krankheit seines Vaters, des Taishō-Kaisers Yoshihito, faktisch bereits seit 1921 die Regentschaft innegehabt. Mit dessen Tod am 25. Dezember 1926 wurde Hirohito dann 124. Kaiser. Die neue Ära "Shōwa" ("Erleuchteter Friede") wurde proklamiert. Am 10. November 1928 wurde er im Kaiserpalast Kyōto gekrönt. Der neue Kaiser war der erste japanische Monarch seit mehreren hundert Jahren, dessen leibliche Mutter offizielle Gemahlin seines Vorgängers war. Anfangszeit der Herrschaft. Die ersten Jahre von Hirohitos Herrschaft sind gekennzeichnet durch ein zunehmendes Erstarken des Militärs in der Regierung, das sowohl mit gesetzlichen als auch ungesetzlichen Mitteln betrieben wurde. Die Kaiserlich Japanische Armee und die Kaiserlich Japanische Marine hatten seit 1900 ein Vetorecht bei der Kabinettbildung, und zwischen 1921 und 1944 kam es zu nicht weniger als 64 Fällen rechtsgerichteter politischer Gewalt. Die Ermordung des gemäßigten Premierministers Inukai Tsuyoshi im Jahre 1932 markiert das Ende jeder wirklichen zivilen Kontrolle des Militärs. Es folgte der gescheiterte Putschversuch in Japan vom 26. Februar 1936 durch niederrangige Armeeoffiziere, der Wahlverluste der militaristischen Fraktion im japanischen Parlament zum Anlass hatte. Während des Putsches wurde eine Anzahl hochrangiger Regierungsbeamter und Armeeoffiziere ermordet. Dieser wurde schließlich niedergeschlagen, wobei Hirohito eine wichtige Rolle spielte. Von den 1930ern an hatte das Militär dennoch nahezu die gesamte politische Macht in Japan in seinen Händen und verfolgte eine Politik, die Japan schließlich in den Zweiten Japanisch-Chinesischen Krieg und den Zweiten Weltkrieg führte, der mit der Kapitulation Japans endete. Zweiter Weltkrieg. Während des Zweiten Weltkriegs bildete Japan unter Hirohitos Führung eine Allianz mit Deutschland und Italien und bildete mit ihnen die so genannten Achsenmächte. Unmittelbar nach Kriegsende glaubten viele, dass der Kaiser hauptverantwortlich für Japans Rolle im Krieg sei; andere meinten, dass er nur eine machtlose Marionette war und die wirkliche Macht bei Tōjō Hideki lag. Eine abschließende Bewertung wird letztlich auch durch die Tatsache erschwert, dass die japanische Armeeführung nach Ende des Kriegs versuchte, ihren Kaiser aus dem Fokus des Interesses zu nehmen und konsequent belastende Unterlagen vernichtete bzw. bereitwillig die Verantwortung für das Geschehen während des Kriegs übernahm. Dieses Verhalten stand im Gegensatz zu dem der deutschen Generalität und NS-Führungsebene, die nach dem Ende des Zweiten Weltkriegs sämtliche Verantwortung für die Geschehnisse Adolf Hitler zuzuweisen versuchte und ihre persönliche Verantwortung fast immer generell abstritt. Hinzu kam, dass die amerikanische Militärregierung Hirohito als aus ihrer Sicht stabilisierendes Element der japanischen Nachkriegspolitik benötigte und daher ebenso wenig an einer Aufarbeitung seiner Rolle während des Kriegs interessiert war wie seine Gefolgsleute im Militär. Viele Menschen in der Volksrepublik China, der Republik China, Korea und in Südostasien sehen in Hirohito den Kriegstreiber und Hauptverantwortlichen der Kriegsgräuel, und einige meinen (darunter damals die Sowjetunion), dass er wegen Kriegsverbrechen hätte vor Gericht gestellt werden sollen. Deshalb haben viele Asiaten in den damals japanisch besetzten Gebieten bis heute eine feindliche Einstellung zum japanischen Kaiserhaus. Die zentrale Frage bleibt aber, wie viel Kontrolle Hirohito wirklich über das japanische Militär im Krieg hatte. Die sowohl vom Kaiserpalast und den amerikanischen Okkupationskräften direkt nach dem Zweiten Weltkrieg vertretene Ansicht war, dass sich Hirohito strikt nach Protokoll zu verhalten und Abstand zu den Entscheidungsprozessen zu halten hatte. Auf der anderen Seite haben die jüngeren Forschungen von Herbert P. Bix, Akira Fujiwara, Peter Wetzler und Akira Yamada Hinweise darauf gefunden, dass der Kaiser durch Mittelsmänner einen hohen Grad an Kontrolle über das Militär ausübte und er sogar die Haupttriebkraft hinter den Ereignissen der zwei Kriege gewesen sein könnte. Nach Erkenntnissen der Historiker Yoshiaki Yoshimi und Seiya Matsuno erhielt Yasuji Okamura vom Shōwa-Tennō die Erlaubnis, chemische Waffen während dieser Gefechte einzusetzen. Die zu erreichenden Ziele waren klar definiert: Freie Hand bei der Eroberung von China und Südostasien, keine Verstärkung US-amerikanischer oder britischer Militärkräfte in der Region und Kooperation des Westens „bei dem Erwerb der von unserem Reich benötigten Güter“. Dennoch waren sich alle Sprecher auf der kaiserlichen Konferenz darin einig, dass sie Krieg der Diplomatie vorzogen. Baron Yoshimichi Hara, Präsident des kaiserlichen Rats und Vertreter des Kaisers, befragte sie eingehend und bekam von einigen Antworten, dass Krieg nur als letztes Mittel betrachtet würde, andere schwiegen. An diesem Punkt erstaunte der Kaiser alle Anwesenden, indem er sich direkt an die Konferenz wandte und damit die Tradition des kaiserlichen Schweigens brach. Dies hinterließ seine Berater „starr vor Schreck“ (so Premierminister Konoes Beschreibung des Ereignisses). Kaiser Hirohito betonte die Notwendigkeit einer friedlichen Lösung internationaler Probleme, drückte Bedauern darüber aus, dass seine Minister Baron Haras Befragungen nicht beantworteten und rezitierte ein Gedicht seines Großvaters Kaiser Meiji, das er, so sagte er, „immer wieder gelesen“ habe. Ich denke, dass also alle Menschen der Welt Kinder Gottes sind, warum sind die Wellen und der Wind heutzutage so unruhig? Nachdem sie sich von ihrem Schrecken erholt hatten, beeilten sich die Minister ihren tiefen Wunsch auszudrücken, alle möglichen friedlichen Mittel zu versuchen. Die Kriegsvorbereitungen wurden jedoch ohne die geringste Änderung fortgesetzt und innerhalb von Wochen ersetzte das Kabinett den nicht ausreichend kriegswilligen Konoe durch den Hardliner General Tōjō Hideki, formell durch Hirohito im Rahmen der Verfassung gewählt. Es ist jedoch umstritten, ob er tatsächlich von Hirohito favorisiert wurde. Am 8. Dezember (7. Dezember in Hawaii) 1941 griffen die japanischen Streitkräfte in gleichzeitigen Angriffen die US-Flotte in Pearl Harbor an und begannen die Invasion Südostasiens. Wie auch immer seine Beteiligung an den Ereignissen war, die zu den ersten Feindseligkeiten führten – sobald Japan den Angriffskrieg eröffnete, zeigte Hirohito großes Interesse an militärischen Fortschritten und suchte die Moral zu stärken. Zu Beginn ging der japanische Vormarsch voran. Als sich das Blatt Ende 1942 und Anfang 1943 zu wenden begann, so behaupten einige, habe der Informationsfluss in den Palast immer weniger mit der Realität zu tun gehabt. Andere meinen, dass der Kaiser eng mit Premierminister Tōjō zusammengearbeitet habe, weiterhin gut und zutreffend informiert worden sei und Japans militärische Lage bis zum Zeitpunkt der Kapitulation exakt kannte. In den ersten sechs Monaten des Kriegs waren alle größeren Gefechte Siege. In den nächsten Jahren wurde die Reihe unentschiedener und dann eindeutig verlorener Schlachten der Öffentlichkeit als Serie großer Siege verkauft. Nur langsam wurde es den Menschen auf den japanischen Inseln klar, dass die Entwicklung zuungunsten Japans verlief. Der Beginn von US-Luftangriffen auf japanische Städte ab 1944 machte die propagandistische Behauptung von Siegen endgültig unglaubwürdig. Später in diesem Jahr wurden nach dem Sturz der Regierung Tōjō zwei andere Premierminister ernannt, um den Krieg fortzusetzen, Koiso Kuniaki und Suzuki Kantarō – wiederum mit zumindest formeller Zustimmung von Hirohito. Ob er jedoch mit ihrer Politik übereinstimmte, ist umstritten. Beide waren erfolglos. Japan näherte sich der Niederlage. Kapitulation Japans. Während täglich Tausende Menschen starben und von der japanischen Regierung kein vollständiges Kapitulationsangebot abgegeben wurde, nutzte Stalin protokollarische Ausreden und schob die Weiterleitung der Nachricht von Hirohito bis zum 18. Juli 1945 auf. Allerdings hatte man in Washington den vorausgegangenen Funkspruch des japanischen Außenministeriums bereits zuvor entziffert und wusste von den Bemühungen Hirohitos. Auf der Potsdamer Konferenz am 18. Juli erhielt US-Präsident Truman von Stalin persönlich eine Kopie des Vermittlungsversuchs des Tenno mit der Bemerkung, es sei nicht ernst zu nehmen, da es das Kriegsziel der bedingungslosen Kapitulation nicht beinhaltete. Die strenge Bestrafung aller Kriegsverbrecher der japanischen Seite wurde gleichzeitig angekündigt. Die japanische Regierung nahm dieses Ultimatum nicht an, unter anderem deswegen, weil unklar war, ob dem Tenno nicht auch eine Bestrafung als Kriegsverbrecher drohe. Japan hatte sich schwerster Kriegsverbrechen schuldig gemacht, vor allem Grausamkeiten gegenüber Zivilisten in China (Nanking-Massaker, Einheit 731, Tokioter Prozesse). Während Hirohito stets erklärte, dass sein persönliches Schicksal nichts bedeute und er sich nach der Annahme des Ultimatums freiwillig für den Bestand des japanischen Volks opfern wolle, fürchteten seine Berater nach seinem Verlust eine kommunistische Machtergreifung und hofften immer noch, dass Moskau vermitteln würde. Die Zeit nach dem Krieg. General MacArthur und der Kaiser Er ließ am selben Tage noch seine Regierung wissen, dass eine Anklage gegen Hirohito unmöglich und der Tenno für Japan nicht zu entbehren sei. Die Gegner Hirohitos in der neuen US-Regierung zwangen darauf die japanische Presse, jenes bekannte Foto zu veröffentlichen, welches Hirohito im offiziellen Dress neben dem hemdsärmeligen MacArthur zeigt, der ihn um eine Haupteslänge überragt und schief stehend die Hände in den Hosentaschen verbirgt, während sein gelangweilter Blick der Kamera ausweicht. Gedacht war dieses Foto eigentlich, um das Ansehen des Tenno zu senken, ihn klein und bescheiden darzustellen und MacArthur zum großen Beherrscher der Nation zu erheben. Allerdings fasste es die japanische Bevölkerung genau andersherum auf, und so hängt jenes Foto aus der Zeitung ausgeschnitten und sorgfältig gepflegt noch heute in einigen japanischen Wohnungen an einem Ehrenplatz oder gar in der Tokonoma. Spätere Herrschaft. Für den Rest seines Lebens war Kaiser Hirohito eine aktive Figur des japanischen Lebens und übte zahlreiche Aufgaben eines Staatsoberhaupts aus. Der Kaiser und seine Familie zeigten starke öffentliche Präsenz, waren oft auf öffentlichen Wegen zu sehen und traten auf besonderen Ereignissen und an Feiertagen auf. Hirohito spielte auch eine wichtige Rolle beim Wiederaufbau von Japans diplomatischer Stellung im Ausland. Auf Auslandsreisen traf er sich mit vielen ausländischen Führern einschließlich des US-Präsidenten und Königin Elisabeth II. Tod. Am 22. September 1987 unterzog sich Hirohito einer Operation an der Bauchspeicheldrüse, nachdem er mehrere Monate Verdauungsprobleme gehabt hatte. Die Ärzte entdeckten Krebs im Zwölffingerdarm, aber in Übereinstimmung mit der japanischen Tradition sagten sie ihm dies nicht. Hirohito schien sich nach der Operation gut zu erholen. Etwa ein Jahr später, am 19. September 1988, brach er in seinem Palast zusammen und seine Gesundheit verschlechterte sich in den folgenden Monaten, da er an ständigen inneren Blutungen litt. Am 7. Januar 1989 um 6:33 Uhr starb Hirohito. Um 7:55 Uhr verkündete der Oberste Kammerherr des kaiserlichen Hofamts, Shoichi Fujimori, offiziell den Tod des Kaisers und machte erstmals Details zu seiner Krebserkrankung bekannt. Mit seinem Tod wurde er nach der Ära, in der er regierte, „Kaiser Shōwa“ ("Shōwa Tennō") genannt. Das Begräbnis fand am 24. Februar statt, und in Gegensatz zu allen seinen Vorgängern wurde er nicht strikt nach den Regeln des Shintō bestattet. Viele führende Politiker aus aller Welt nahmen daran teil. Er ist im kaiserlichen Mausoleum in Hachioji westlich von Tokio neben anderen Kaisern begraben. Yasukuni-Schrein. Hirohito hielt sich von den politischen Auseinandersetzungen um den umstrittenen Yasukuni-Schrein, einem Shintō-Schrein für die Soldaten, die für den japanischen Kaiser gestorben sind, fern. Nachdem ihm bekannt wurde, dass der neue Oberpriester 1987 auch Klasse-A-Kriegsverbrecher einschreinen ließ, boykottierte Hirohito den Schrein bis zu seinem Tode. Dieser Boykott wurde von seinem Sohn und Nachfolger, Akihito, weitergeführt, der sich seit 1978 ebenfalls weigerte, den Yasukuni zu besuchen, anders als viele japanische Premierminister. Holzwickede. Die Gemeinde Holzwickede (niederdeutsch: Hol(t)wicker) liegt am östlichen Rand des Ruhrgebiets, Nordrhein-Westfalen, und ist eine kreisangehörige Gemeinde des Kreises Unna im Regierungsbezirk Arnsberg. Räumliche Lage. Das Gemeindegebiet von Holzwickede wird im Norden durch den Dortmunder Rücken an der alten Bundesstraße 1 und dem Flughafen Dortmund und im Süden von der Ruhr begrenzt. Westlich bilden das südöstliche Dortmund und Schwerte die Grenze, und im Osten von Holzwickede befinden sich Unna und die westlichen Ortsteile von Ruhr. Durch das Gemeindegebiet verläuft der Höhenzug des Ardeygebirges. Die Emscher hat ihre Quelle in Holzwickede. Der tiefste Punkt des Gemeindegebietes liegt im Nordosten, wo der Holzwickeder Bach das Gemeindegebiet verlässt. Der höchste Punkt trägt eine Funkanlage der Bundeswehr und liegt auf dem westlichen Teil des Ardeys in Hengsen. Ortsteile. Die Ortsteile Hengsen (8,03 km²) und Opherdicke (gesprochen: Op-Herdicke, 4,62 km²) bilden den südlichen Teil der Gemeinde, der alte Ort Holzwickede (9,76 km²) den nördlichen Teil. Die Ortskerne von Hengsen und Opherdicke liegen auf dem Haarstrang ("Herdicker Haar"). Das Hengser Ortsgebiet reicht im Süden bis zur Ruhr, Opherdicke reicht ebenfalls fast bis an die Ruhr. Ein großer Teil dieser Ortsgebiete wird durch einen Standortübungsplatz der Bundeswehr belegt. Der alte Ort Holzwickede setzt sich aus den Teilen "Altes Dorf" (das ursprüngliche Holzwickede), Dudenroth, Rausingen und Natorp zusammen und liegt zwischen den Höhenzügen des Ardeygebirges und dem Dortmunder Rücken in der Emscherniederung. Bis zum 31. Juli 1929 gehörte ein westlicher Streifen Rausingens zu Sölde, dessen übriges Gemeindegebiet zum gleichen Zeitpunkt nach Dortmund eingemeindet wurde. Neben diesen Ortsteilen gibt es weitere Siedlungsgebietsnamen: Keller, Brauck, Ostendorf, Alte Kolonie, Hohenleuchte. 3 1984: zusätzlich: Einzelbewerber: 2,5 % Bürgermeister. Der letzte Bürgermeister von Hengsen war Heinrich Beining, der letzte Opherdicker Bürgermeister war Josef Wortmann. Wappen. Das Wappen von Holzwickede stellt eine alte Holzwickeder Sehenswürdigkeit, den "Hilgenbaum", dar. Eine neunblättrige grüne Eiche vor goldenem Hintergrund steht auf einem rot/silbernen Schachbrettmuster als Symbol der (ehemaligen) Zugehörigkeit zu den Grafen von der Mark. Städtepartnerschaften. Holzwickede unterhält zwei Städtepartnerschaften. Die ältere besteht seit 1977/78 mit dem französischen Louviers. Seit 1986/87 besteht auch eine Städtepartnerschaft mit dem englischen Seebad Weymouth. Zusätzlich unterhält die Gemeinde seit November 1990 auch eine Städtefreundschaft zur Stadt Colditz in Sachsen. Alle Städtepartnerschaften werden von den lokalen Partnerschaftsvereinen aufrechterhalten. Die deutsch-französische Partnerschaft liegt in den Händen der Deutsch-Französischen Gesellschaft Holzwickede, besser bekannt als "Freundeskreis Holzwickede-Louviers". Er ist mit über 250 Mitgliedern der größte Kulturverein Holzwickedes. Natur. Als Erstes zu nennen ist hier der Wappenbaum der Gemeinde Holzwickede, der "Hilgenbaum". Östlich des alten Ortskernes stand früher eine uralte Eiche, die ihren Namen dadurch bekam, dass dort Nachrichtenzettel (Hilgen) angebracht wurden. Andere Quellen deuten den Namen als heiligen (= hilgen) Baum. Nachdem der historische alte Baum einem Feuer zum Opfer fiel, wurde Anfang des 20. Jahrhunderts an (fast) gleicher Stelle ein neuer Baum gepflanzt. Er befindet sich auf der SO-Seite der Kreuzung Massener Straße/Goethestraße, während der erste Hilgenbaum den Unterlagen nach „auf der Kreuzung“ stand. Als Quellgemeinde der Emscher beherbergt Holzwickede den Emscherquellhof mit der Emscherquelle. Der Hof wurde 2003 von der Emschergenossenschaft gekauft und instand gesetzt. Die "Schöne Flöte" ist ein sehenswert schönes kleines Waldgebiet am Bachlauf des Holzwickeder Baches vom Freibad „Schöne Flöt nordwärts (längs der Trasse der A1) bis zur Quelle des Baches. Bis zur Querung der Holzwickeder Straße führt ein Wanderweg für Fußgänger und Radfahrer durch den Wald. Das Bachtal des Holzwickeder Baches ist auch Teil des ebenfalls sehenswerten Historischen Bergbaurundwegs Holzwickede. Mit der Anlage "Am Oelpfad" verfügt Holzwickede über eine sehenswerte Kleingartenanlage. Seit 1996 wurde die Anlage (mit nur einer Unterbrechung im Jahr 2010) immer wieder als „schönste Anlage im Kreis Unna“ vom Bezirksverband Hamm – Unna der Kleingärtner ausgezeichnet (Stand 2014). Gebäude. Besondere Gebäude sind vor allem im Ortsteil Opherdicke zu sehen. Die evangelische Kirche Opherdicke ist das älteste Gebäude der Gemeinde. Es handelt sich um eine romanische Kleinbasilika mit Entstehungszeitraum zwischen 1220 bis 1250. Der Turm wird auf die Zeit vor der ersten Jahrtausendwende datiert. Etwas weiter östlich ebenfalls in Opherdicke liegt das Wasserschloss Haus Opherdicke, das nach abwechslungsreicher Geschichte im Juli 1980 in die Hände des Kreises Unna kam und nach erfolgreicher Restaurierung heute als Veranstaltungsort dient. Erste geschichtliche Erwähnung findet das Haus als Burg Opherdicke im Jahre 1182. Von 1663 bis 1687 wurde die alte Wasserburg umgebaut und erhielt ihre heutige Gestalt. Im 18. und 19. Jahrhundert entstanden die Wirtschafts- und Nebengebäude, die noch heute (2014) in unveränderter Form den Innenhof begrenzen. Letzter adliger Bewohner des Wasserschlosses war die aus Werl stammende Erbsälzerfamilie von Lilien. Vom Haus Opherdicke offenbart sich dem Wanderer ein schöner Blick ins Tal der Ruhr. Die katholische Liebfrauenkirche in der Ortsmitte wurde 1904 errichtet, 1907 folgte die evangelische "Kirche am Markt". Beide Gebäude stehen seit 1984 unter Denkmalschutz. Denkmäler. Im Südwesten des Gemeindegebiets befindet sich das "130er Denkmal" (auch Kellerkopfdenkmal). Am steilen Abhang des Kellerkopfes zum Ruhrtal hin wurde am 1. September 1929 das Regimentsdenkmal für die im Ersten Weltkrieg Gefallenen des 1. Lothringisches Infanterie-Regiment Nr. 130 ("im Volksmund „130er“") eingeweiht. Gebaut wurde diese Gedenkstätte nach einem Entwurf des Berliner Bildhauers Fritz Richter-Elsner von 1926 bis 1929 im Geiste der damaligen Zeit zu Ehren und zur Erinnerung an die gefallenen Soldaten des Regiments, unter denen sich viele einheimische Soldaten befanden. Initiator und Stifter des Denkmals war der "130er Soldatenverein", gebildet aus den überlebenden Angehörigen des Regiments. Der Kellerkopf war für lange Zeit Ausflugsziel und Naherholungsgebiet. Heute findet lediglich zu Pfingsten eine größere Anzahl an Menschen zum Kellerkopf, denn seit 1979 feiert der "Förderverein zur Erhaltung und Pflege des Kellerkopfdenkmals" jeden Pfingstsonntag dort ein Friedensfest. Das in den 1960er Jahren im Emscherpark errichtete Mahnmal gegen den Krieg, gestaltet vom in Unna lebenden Künstler Josef Baron, sollte ursprünglich nach dem Willen des Gemeinderats an einen anderen Standort innerhalb der Gemeinde versetzt werden. Nachdem sich der Künstler dagegen wandte, das Objekt an einen abgelegenen Ort zu verstecken, wurde 2009 eine Replik des Werks im Forum des Clara-Schumann–Gymnasiums errichtet. Das Original wurde im August 2009 zerlegt und 2012 in Munster in der Lüneburger Heide wieder aufgestellt. Sport. Holzwickede hat viele Sportvereine mit den unterschiedlichsten Aktivitäten. Der größte Erfolg einer Fußballmannschaft ist 1976 der Titel "Deutscher Fußballmeister der Amateure" der 29 (HSV). Größter Sportverein ist die "Turngemeinde Holzwickede" mit etwa 1100 Mitgliedern. Die TGH ist ein Mehrspartensportverein, der die Sportarten Leichtathletik, Badminton, Ballspiele, Gerätturnen, Gymnastik und den Präventions-/Rehabilitationssport unter seinem Dach vereint. Auf dem Haarstrang zwischen Hengsen und Opherdicke ist mit den Holzwickede Joboxers ein ehemaliger Baseball-Bundesligist in Holzwickede ansässig. Der Baseball in Holzwickede hat seinen Ursprung in der Stationierung US-amerikanischer Truppen in der Gemeinde (1960–1985). Auf der Ruhrtalbahn veranstaltete der MSC Holzwickede Motorrad-Grasbahnrennen auf einem Gelände der Bundeswehr. Die Rennstrecke lag zwischen Dortmund und Unna. In Holzwickede sind beim "TTC 1950 Holzwickede" auch Tischtennisaktive heimisch. Die 1. Mannschaft der Herren spielt derzeit in der Oberliga (vierthöchste Liga), in der auch der ehemalige Deutsche Meister im Doppel der Herren und im Einzel bei den Senioren Bernd Sonntag spielt. Holzwickede hat auch einen Kanu-Verein, dessen Bootshaus allerdings in Fröndenberg an der Ruhr liegt. Tennissport wird in Holzwickede intensiv betrieben. Der größte Verein ist der TuS Elch 1963 Holzwickede e. V., der mit 12 Außensandplätzen auf einer im Grünen gelegenen Tennisanlage im Holzwickeder Norden und etwa 300 Mitgliedern einer der größten Vereine in der Region ist. Das Montanhydraulikstadion (früher Emscherstadion) ist die zentrale Wettkampfstätte für Fußballer, Leichtathleten und andere Freiluftsportler in Holzwickede. Mit einem Fassungsvermögen von rund 5000 Zuschauern ist es das größte im Kreis Unna. Es verfügt über eine überdachte Haupttribüne. Bisheriger Höhepunkt seiner Geschichte war die Amateurmeisterschaft des "SV Holzwickede" 1976 sowie die Austragung des A-Länderspiels der Frauen gegen China in den späten 1990er Jahren. Die Amateure des BVB weichen in dieses Stadion aus, wenn ihr eigenes Stadion Rote Erde nicht zur Verfügung steht. Wirtschaft und Infrastruktur. Seit etwa Mitte des 19. Jahrhunderts war Holzwickede vom Bergbau und Eisenbahn geprägt. Die Zeche Caroline war die letzte Zeche, die in Holzwickede noch gefördert hat. Auf dem ehemaligen Zechengelände entsteht seit 2006 ein Wohngebiet. Im Norden der Gemeinde entsteht derzeit in unmittelbarer Nähe zum Flughafen Dortmund ein neues Gewerbegebiet. Die Einwohner Holzwickedes weisen den höchsten Einkommensdurchschnitt im Kreis Unna auf. Verkehr. Holzwickede ist über Straße, Schiene und durch die Luft zu erreichen. Durch den Ort führen die Autobahnen A 44 (Aachen–Düsseldorf-Kassel) und A 1 (Puttgarden–Euskirchen–Saarbrücken). An der A 44 existiert eine eigene Abfahrt für Holzwickede. Der Bahnhof Holzwickede/Dortmund Flughafen liegt an den Bahnstrecken Hamm-Venlo, Rheine-Krefeld und Dortmund-Soest. Nördlich der Gemeinde liegt der Flughafen Dortmund, dieser ist fußläufig erreichbar. Vom Bahnhof Holzwickede aus verkehrt ein Pendelbus zum Flughafen (Stand 2012). Im Süden des Ortsteils Hengsen befindet sich der "Segelflugplatz Hengsen". Dort ist der Luftsportverein Unna-Schwerte e. V. beheimatet. Bildung. Die Gemeinde Holzwickede beherbergt vier Grundschulen. Die katholische "Aloysiusschule", die evangelische "Dudenrothschule", sowie die "Nordschule" und die "Paul-Gerhardt-Schule" als Gemeinschaftsgrundschulen. Im Schulzentrum befinden sich das "Clara-Schumann-Gymnasium" und die "Josef-Reding-Schule". Ferner beherbergt die Gemeinde die "Karl-Brauckmann-Schule", eine Förderschule des Kreises Unna mit dem Förderschwerpunkt geistige Entwicklung. Medizinische Versorgung. Die medizinische Versorgung wird von den Krankenhäusern in Schwerte, Unna und Dortmund übernommen. Hadrian (Kaiser). Publius Aelius Hadrianus (Titulatur als Kaiser: "Imperator Caesar Traianus Hadrianus Augustus"; * 24. Januar 76 in Italica in der Nähe des heutigen Sevilla oder in Rom; † 10. Juli 138 in Baiae) war der vierzehnte römische Kaiser. Er regierte von 117 bis zu seinem Tod. Hadrian war, wie sein weitläufiger Verwandter und kaiserlicher Vorgänger Trajan, in Hispanien beheimatet. Er bemühte sich als Herrscher intensiv um die Festigung der Einheit des Römischen Reiches, das er in weiten Teilen ausgiebig bereiste. Durch Zuwendungen und administrative Maßnahmen auf der Ebene der römischen Provinzen und Städte förderte er den Wohlstand und stärkte die Infrastruktur. Mit der Fixierung des "edictum perpetuum" gab er dem Justizwesen einen wichtigen Impuls. Da er nur wenige Kriege führte, war seine Regierungszeit für den weitaus größten Teil des Reichs eine Epoche des Friedens. Er verzichtete auf Eroberungen und gab die von Trajan im Partherkrieg gewonnenen Gebiete auf, womit er einen scharfen und umstrittenen Kurswechsel vollzog. Auf militärischem Gebiet konzentrierte er seine Bemühungen auf eine effiziente Organisation der Reichsverteidigung. Diesem Zweck dienten insbesondere seine Grenzbefestigungen, darunter der nach ihm benannte Hadrianswall. Überschattet wurde seine Regierungszeit jedoch von seinem gespannten Verhältnis zum Senat, in dem er viele erbitterte Feinde hatte. Hadrian war vielseitig interessiert und bei der Erprobung seiner Talente ehrgeizig. Seine besondere Wertschätzung galt der griechischen Kultur, insbesondere der als klassisches Zentrum griechischer Bildung berühmten Stadt Athen, die er neben vielen anderen Städten durch eine intensive Bautätigkeit förderte. In seiner Regierungszeit entstanden bedeutende Bauwerke wie die Bibliothek in Athen, das Pantheon und die Engelsburg in Rom sowie die Hadriansvilla bei Tivoli. Im Privatleben des Kaisers spielte seine homoerotische Beziehung zu dem früh verstorbenen Jüngling Antinoos eine zentrale Rolle. Nach dem Tod seines Geliebten setzte Hadrian reichsweit dessen kultische Verehrung in Gang, die im Osten, aber auch in Italien viel Anklang fand. Hadrians auf zwei Generationen ausgelegte Nachfolgeregelung, war die Weichenstellung für die erfolgreiche Fortsetzung der von ihm eingeleiteten Reichskonsolidierung unter seinen beiden Nachfolgern Antoninus Pius und Mark Aurel. Iberische Wurzeln und Bindungen. Hadrian entstammte einem römischen Geschlecht, das sich bereits in republikanischer Zeit im Zuge der römischen Expansion in "Italica" in der Provinz "Hispania ulterior" (später "Baetica") im Süden der Iberischen Halbinsel angesiedelt hatte. Der unbekannte Verfasser von Hadrians Lebensbeschreibung in der "Historia Augusta", der Material aus der heute verlorenen Autobiographie Hadrians verwertete, berichtet, die Familie habe ursprünglich aus Hadria oder Hatria (jetzt Atri) im mittelitalischen Picenum gestammt. Auf den Namen dieser Stadt, die auch für die Adria namengebend war, geht demnach der Beiname Hadrianus zurück. "Baetica" war reich an Mineralien; Korn und Wein wurden dort in großen Mengen angebaut und die Provinz exportierte unter anderem auch die für die römische Küche essentielle Speisewürze Garum. Einige in Hispanien zu Reichtum gelangte einflussreiche Familien, darunter die "Ulpii" mit Trajan, die "Aelii" mit Hadrian und die "Annii" mit Mark Aurel, bildeten durch Heiratsallianzen ein Netzwerk und hielten in Rom beim Streben nach einflussreichen Positionen zusammen. Zu Hadrians Kindheit ist nichts überliefert. Mit Blick auf seinen frühzeitig ausgeprägten Philhellenismus wird erwogen, dass ihn sein Vater, der Senator Publius Aelius Hadrianus Afer, als möglicher Prokonsul der Provinz Achaea im Kindesalter nach Griechenland mitgenommen haben könnte. Den Vater, der prätorischen Rang erreicht hatte, verlor er im Alter von zehn Jahren. Hadrian kam danach unter die Vormundschaft Trajans, der ein Cousin seines Vaters war, sowie unter die des ebenfalls in Italica beheimateten Ritters Publius Acilius Attianus. Als Vierzehnjähriger fand sich Hadrian nach dem Anlegen der toga virilis auf den Familienbesitzungen in Italica ein. Er durchlief dort die militärische Grundausbildung und sollte sich wohl mit der Verwaltung der Familiengüter vertraut machen. Dabei entwickelte er aber eine aus Sicht seines Vormunds Trajan übertriebene Begeisterung für die Jagd und wurde von ihm nach Rom zurückbeordert. Aufstieg unter Trajans Anleitung. Der Werdegang Hadrians zwischen seiner Rückkehr aus Hispanien und seinem Herrschaftsantritt als Kaiser 117 beschäftigt die Forschung vor allem unter dem Gesichtspunkt der ungeklärten Frage, ob er tatsächlich von Trajan kurz vor dessen Tod adoptiert und zum Nachfolger bestimmt worden ist, was schon in der Antike bezweifelt wurde. Anhaltspunkte für eine Klärung von Trajans Absichten können aus den vorliegenden Nachrichten über das Verhältnis der beiden Männer ab den neunziger Jahren des ersten Jahrhunderts gewonnen werden. Mit achtzehn Jahren wurde Hadrian als "decemvir stlitibus iudicandis" im Jahr 94 in ein Aufsichtsgremium bei Gericht berufen. Noch in zwei weiteren Funktionen auf dem Weg in eine senatorische Laufbahn ist er inschriftlich bezeugt: Er diente als "Militärtribun" erst bei der Legio II Adiutrix in Aquincum (Budapest), dann bei der Legio V Macedonica in der "Moesia inferior" (Niedermösien). Im Herbst 97 wurde Trajan von dem in Rom unter den Druck der Prätorianergarde geratenen Nerva adoptiert. Hadrian wurde von seiner Legion beauftragt, dem designierten Nachfolger des Kaisers die Glückwünsche zur Adoption zu übermitteln. Er machte sich im Spätherbst auf den Weg an den Rhein, wo sich Trajan aufhielt. Dieser setzte ihn nun für ein drittes Militärtribunat bei der in Mogontiacum (Mainz) stationierten Legio XXII Primigenia ein. Hier ergab sich ein Spannungsverhältnis zu dem für die Provinz Germania superior neu eingesetzten Statthalter Lucius Iulius Ursus Servianus, dem Mann von Hadrians Schwester, der nun sein Vorgesetzter war und mit ihm um die Gunst Trajans rivalisierte. Als Nerva im Januar 98 starb und Trajan ihm als Kaiser nachfolgte, setzte sich die Rivalität zwischen Hadrian und Servianus fort. Hadrians Bindung an das Kaiserhaus wurde durch seine Ehe mit der um zehn Jahre jüngeren Großnichte Trajans Vibia Sabina, die er als Vierundzwanzigjähriger heiratete, noch enger. Im selben Jahr 100 gelangte Hadrian zur Quästur und damit in den Senat, und zwar in der privilegierten Stellung des "quaestor Augusti", dem es unter anderem oblag, die Reden des Kaisers zu verlesen. Beim Feldzug gegen den Daker-König Decebalus war Hadrian 101 als "comes Augusti" im Stab des Kaisers tätig. Für 102 ist sein Volkstribunat anzusetzen, für 105 die Prätur, bei deren volksnaher Ausgestaltung durch die Abhaltung kostenträchtiger Spiele Trajan großzügig aushalf. An Trajans im Juni 105 beginnendem zweiten Dakerkrieg nahm Hadrian ebenfalls teil, nunmehr als Befehlshaber "(legatus legionis)" der Legio I Minervia. Für seine militärischen Leistungen wurde er von Trajan mit einem Diamanten ausgezeichnet, den dieser von Nerva bekommen hatte. In der Folge gelangte er auf den Statthalterposten in Niederpannonien, das gegen die Jazygen gesichert werden musste. Im Alter von 32 Jahren wurde Hadrian im Jahre 108 Suffektkonsul. Ob aus dieser Karriere hervorgeht, dass Hadrian planmäßig auf die Rolle als künftiger Nachfolger Trajans vorbereitet wurde, ist eine nicht eindeutig geklärte Frage. Trajan hatte ihn nicht von vornherein zum Patrizier erhoben, was ihm das Überspringen von Volkstribunat und Ädililität gestattet hätte; dennoch wurde Hadrian ebenso schnell Konsul, wie es bei Patriziern der Fall sein konnte. Er hatte diesen gegenüber den Vorteil einer bedeutenden militärischen Erfahrung, wie sie bei Patriziern in dieser Form nicht üblich war. Trajan verlieh Hadrian bedeutende Vorrechte und Befugnisse, die er aber immer dosierte. Vielseitige Persönlichkeit. Die Palatinsbibliothek in der Villa Adriana Ehrgeiz ließ Hadrian nicht nur beim raschen Aufstieg in der politischen Laufbahn und auf militärischem Gebiet erkennen, sondern auch in diversen anderen Betätigungsfeldern. Seine gute Beherrschung der beiden Sprachen Latein und Griechisch sowie seine durch literarische Quellen und Fragmente überlieferten rhetorischen Qualitäten lassen auf eine intensive Ausbildung in Grammatik und Rhetorik schließen. Den Quellen zufolge verfügte er über Scharfsinn, Wissensdurst, Lerneifer und eine rasche Auffassungsgabe. Diese Angaben werden in der Forschung nicht nur als gängiges Repertoire der Lobpreisung von Herrschern beurteilt, sondern gelten in Anbetracht seines Handelns als plausibel. Von der Vielseitigkeit seiner Interessen zeugen seine überlieferten Betätigungsfelder, darunter das Singen, das Spielen eines Saiteninstruments, Malerei, Bildhauerei und Dichtkunst, aber auch Geometrie und Arithmetik, Heilkunde und Astronomie. Allerdings ist die Einschätzung seiner konkreten Leistungen im Rahmen dieses weiten Betätigungsspektrums umstritten; negativen Bewertungen zufolge war er nur ein profilierungssüchtiger Dilettant, der sich sogar vor den jeweiligen besonderen Könnern eines Faches aufzuspielen suchte. Hadrians Ehe blieb kinderlos. Er soll außereheliche Beziehungen gehabt haben, doch gibt es keine bestätigten Nachkommen. Anscheinend war er in erster Linie homoerotisch orientiert, was sich in Erastes-Eromenos-Verhältnissen niederschlug. So wird etwa behauptet, er habe mit den im Hause Trajans anzutreffenden Lustknaben häufig Umgang gehabt. Von nachhaltiger Bedeutung war seine Beziehung zu Antinoos, einem jungen Bithynier, den Hadrian wohl in Kleinasien kennen gelernt hatte. Antinoos gehörte einige Zeit zum Hofstaat des Kaisers und begleitete ihn auf seinen Reisen, bis er unter nie geklärten Umständen im Nil ertrank. Von Charakter und Wesensart Hadrians wird in den literarischen Quellen ein vielfältiges und teils widersprüchliches Bild gezeichnet. So heißt es in der "Historia Augusta": „Er war zugleich streng und heiter, leutselig und würdevoll, leichtfertig und bedächtig, knauserig und freigebig, in Heuchelei und Verstellung ein Meister, grausam und gütig, kurz, immer und in jeder Hinsicht wandelbar.“ Cassius Dio bescheinigte Hadrian unersättlichen Ehrgeiz, Neugier und ungehemmten Tatendrang. Über Schlagfertigkeit und Witz soll er ebenfalls verfügt haben. Die phänomenalen Gedächtnisleistungen, die Hadrian in der "Historia Augusta" zugeschriebenen werden, hält Jörg Fündling, der führende Fachmann für diese Quelle, allerdings für übertrieben und in dieser Form unglaubhaft. Dazu gehören die Behauptungen, Hadrian habe niemanden gebraucht, der ihm im Alltag mit Namen aushalf, denn er habe jeden ihm Begegnenden namentlich zu begrüßen gewusst und sogar die Namen aller Legionäre, mit denen er je zu tun hatte, im Gedächtnis behalten. Er habe nur einmal verlesene Namenslisten rekapitulieren und im Einzelfall sogar korrigieren können; auch wenig bekannte neue Bücher habe er nach einmaliger Lektüre rezitiert. Skeptisch beurteilt Fündling auch die Angabe der Historia Augusta, Hadrian habe gleichzeitig schreiben, diktieren, zuhören und mit seinen Freunden plaudern können. Nach Fündlings Ansicht wollte Hadrians Biograph die Darstellung Caesars durch Plinius den Älteren überbieten, der zufolge der Iulier, während er schrieb, zugleich entweder diktieren oder zuhören konnte. Die Problematik der angeblichen Adoption durch Trajan. Als Trajans Redenschreiber Sura bald nach Hadrians Suffektkonsulat starb, gelangte Hadrian auch in diese Vertrauensstellung nahe beim Herrscher. Auch bei dem Partherkrieg, zu dem sich Trajan im Herbst 113 entschloss, war Hadrian im Führungsstab vertreten. Als Trajans Offensive gegen das Partherreich in Mesopotamien auf massiven Widerstand stieß und Aufstände innerhalb des Römischen Reiches, vor allem in Nordafrika, ihrerseits erheblichen Aufwand zur Niederschlagung erforderten, trat Trajan den Rückzug an, plante die Rückkehr nach Rom und setzte Hadrian als Statthalter in Syrien ein. Damit wurde diesem auch die Führung des Heeres im Osten übertragen, eine Machtposition, über die kein anderer möglicher Nachfolgekandidat verfügte. Zwei hohe Offiziere, Aulus Cornelius Palma Frontonianus und Tiberius Iulius Celsus Polemaeanus, die möglicherweise eigene Nachfolgeambitionen verfolgten, hatte Trajan noch selbst aus seinem engeren Machtzirkel entfernt. Somit hatte Hadrian keine ernsthaften Rivalen. Hadrian war demnach von Trajan auf vielfältige Weise gefördert worden. Offen bleibt aber die Frage, warum Trajan die Adoption, falls er sie überhaupt vollzogen hat, erst unmittelbar vor seinem Tod vornahm. Als plausibler Grund gilt in der neueren Forschung, dass Trajan angesichts seiner krankheitsbedingt eingeschränkten Handlungsfähigkeit eine vorzeitige Entmachtung befürchtete; die Adoption musste eine Umorientierung der führenden Kreise auf den kommenden Mann zur Folge haben und konnte in ihrer Wirkung faktisch einer Abdankung gleichkommen. Sicher ist, dass Freunde und Verbündete Hadrians in der unmittelbaren Umgebung des sterbenden Kaisers ihren Einfluss nachdrücklich geltend machten. Zu ihnen zählten die Kaiserin Plotina, Trajans Nichte Matidia und vor allem der Prätorianerpräfekt Attianus, Hadrians einstiger Vormund. Eine weitere Möglichkeit ist, dass Trajan, als er die Seereise nach Rom antrat, die Adoption dort durchzuführen gedachte, so wie er selbst einst während seines Militärkommandos am Rhein von Nerva in Abwesenheit adoptiert worden war. Eine öffentliche Adoption in Rom hätte Hadrian eine unbezweifelbare Legitimation verschafft. Die Rückreise musste aber wegen Trajans dramatisch schwindender Gesundheit – Schlaganfall und beginnendes Kreislaufversagen – vor der kilikischen Küste bei Selinus abgebrochen werden. Die Nachricht von der doch noch erfolgten Adoption stützt sich allein auf das Zeugnis der Plotina und des Prätorianerpräfekten Attianus, deren massive Parteinahme für Hadrian unzweifelhaft ist. Der einzige möglicherweise unabhängige Zeuge, der Kammerdiener Trajans, starb unter merkwürdigen Umständen drei Tage nach dem Kaiser. Daher erhob sich früh der Verdacht, die Adoption sei von Hadrians Förderern vorgetäuscht worden. Dieser Verdacht gilt auch in der modernen Forschung nicht als entkräftet. Indem Trajan den richtigen Zeitpunkt und Rahmen zur Bestimmung eines Nachfolgers verpasste, erschwerte er Hadrian den Amtsantritt beträchtlich: Es gab keine für die römische Öffentlichkeit eindeutige Anbahnung des Übergangs und praktisch keine Übergangsfrist, stattdessen in Anbetracht der Umstände des Herrscherwechsels begründbare Zweifel am rechtmäßigen Zustandekommen von Hadrians Prinzipat. Trajan hatte 19 Jahre Zeit gehabt, Hadrian als Nachfolger zu designieren; dass er dies entweder nie oder aber erst in letzter Minute getan hatte, musste Zweifel daran wecken, ob er seinen Großneffen wirklich als neuen Kaiser gewünscht hatte. Machtübernahme und außenpolitische Wende. Das Römische Reich im Jahr 125 Nach offizieller Lesart erfuhr Hadrian am 9. August 117 von seiner Adoption durch Trajan und am 11. August von dessen Ableben. Möglicherweise waren aber beide Meldungen bereits in einem aus Selinus am 7. August abgeschickten Schreiben enthalten; jedenfalls ließ die zeitliche Staffelung der Bekanntgabe an die Soldaten aber Raum für die geordnete Ausrufung des bereits unter Annahme des "Caesar"-Titels adoptierten Hadrian zum Kaiser. Wie der 9. August als Adoptionstag wurde auch der Tag der Kaisererhebung "(dies imperii)", der 11. August, von den syrischen Truppen fortan als Feiertag begangen. Dem bis dahin übergangenen Senat sandte Hadrian umgehend ein Schreiben, in dem er seine Erhebung durch Heeresakklamation ohne Senatsvotum damit erklärte, dass der Staat jederzeit eines Herrschers bedürfe; daher habe man schnell handeln müssen. Mit dieser Begründung sollte eine Brüskierung des Senats möglichst vermieden werden. In der Reaktion des Senats wurde Hadrian nicht nur als neuer Prinzeps bestätigt, sondern es wurden ihm auch gleich eine Anzahl besonderer Ehrungen angetragen, darunter der Titel "pater patriae" („Vater des Vaterlandes“), die er aber zunächst ablehnte. Hadrian begab sich in den zwölf Monaten nach seiner Erhebung nicht nach Rom, sondern blieb mit der militärischen Reorganisation im Osten und an der Donau befasst. Einerseits musste er die Legitimation seiner Herrschaft vor der Öffentlichkeit Roms festigen, andererseits traf er außenpolitische und militärische Entscheidungen, die aus seiner Sicht notwendig waren, aber eine Abkehr von der Expansionspolitik seines sehr populären Vorgängers darstellten, mit territorialen Einbußen verbunden waren und daher der Öffentlichkeit nicht leicht zu vermitteln waren. Ein neuer Herrscher, der zum Rückzug blies, war für Senat und Volk von Rom eine wenig attraktive Erscheinung, zumal der Senat nach den anfänglichen Siegesmeldungen von Trajans Parther-Feldzug im Osten für diesen 116 bereits den Triumph und den Siegernamen "Parthicus" beschlossen hatte. Hadrian gab nun binnen kurzer Zeit sowohl im Osten als auch an der unteren Donau im Bereich der Provinz Dakien weite bisherige Gebietsansprüche Roms preis. Er räumte die von Trajan eroberten und neueingerichteten Provinzen "Mesopotamia", "Assyria" und "Armenia", wodurch der Euphrat wieder Reichsgrenze wurde. Dies war wohl militärisch notwendig, da die Römer in den 24 Monaten zuvor ohnehin weitgehend die Kontrolle über diese Gebiete verloren hatten. Auch nördlich der unteren Donau wurden große Teile der unter Trajan eroberten Gebiete aufgegeben, etwa am unteren Olt und in Mutenien, im östlichen Teil der Karpaten sowie im Süden Moldaviens. Während Hadrian diese deutliche außenpolitische Wende vollzog, betonte er – wohl auch wegen der Zweifel an seiner Adoption – die Kontinuität zu seinem Vorgänger, um dessen zahlreiche Anhänger zu besänftigen. Deshalb förderte er die ausgiebige Ehrung Trajans, übernahm zunächst dessen gesamte Titulatur und ließ unter anderem Münzen prägen, die ihn mit Trajan – die Machtübergabe symbolisierend – einander die Hände reichend zeigten. Merkmale von Hadrians Prinzipat. Mit einer im Allgemeinen respektvollen Behandlung des Senats und seiner Politik äußerer Befriedung konnte Hadrian sich in die Nachfolge des Augustus und auf den Boden einer neuen Pax Augusta stellen. Die eigene Rolle und Aufgabe sah er speziell darin, das Römische Reich in seinem Zusammenhalt zu stabilisieren, auch indem er sich für die je regionalen Besonderheiten interessierte, sie gelten ließ und vielfach förderte. Als ein besonderes Charakteristikum seines Prinzipats werden in der Forschung die mehrjährigen, ausgedehnten Reisen Hadrians herausgestellt, einzigartig in der Römischen Kaiserzeit sowohl in ihrem Ausmaß als auch in ihrer Konzeption. Auf Münzen ließ er sich als „Wiederhersteller“ und „Bereicherer des Erdkreises“ "(restitutor orbis terrarum" und "locupletor orbis terrarum)" feiern. Hadrian verband seine weit ausgreifenden Reisen mit Maßnahmen zur Grenzbefestigung und mit der gründlichen Inspektion und Reorganisation der römischen Heeresverbände, an deren ungeschmälerter Einsatzbereitschaft und Schlagkraft er auch in Zeiten weitgehenden äußeren Friedens energisch festhielt. Als größte militärische Herausforderung seines Prinzipats sollte sich jedoch bereits weit nach Halbzeit seiner Herrschaft eine Erhebung im Innern erweisen: die langwierige und verlustreiche Niederschlagung des jüdischen Aufstands. Hadrians besonderes Augenmerk und Interesse hatte aber schon vordem der griechischen Osthälfte des Römischen Reiches gegolten, deren historische und kulturelle Zusammengehörigkeit er wiederzubeleben suchte. Ein Zentrum seiner reichsweit verteilten, vielfältigen baulichen Initiativen und Ausgestaltungsmaßnahmen war darum Athen, zu dem er sich, wie seine vergleichsweise häufigen längeren Aufenthalte zeigten, persönlich besonders hingezogen fühlte. Ein „Goldenes Zeitalter“ – Programm und politischer Alltag. Vor allem in seinen ersten Regierungsjahren war Hadrian darauf bedacht, als Erbe Trajans erkannt und anerkannt zu werden; mit dessen Erhöhung steigerte er zugleich das eigene Ansehen. Andererseits wollte er aber auch seine eigene Linie zur Geltung bringen, dabei insbesondere seine einschneidende außenpolitische Kursänderung in ein möglichst günstiges Licht rücken und dem Römischen Reich ein dazu passendes neues Leitbild vorgeben. Als geschichtliche Vorbilder für seine auf Frieden und Konsolidierung konzentrierte Politik dienten Hadrian König Numa Pompilius, der friedfertige Nachfolger des Romulus, und vor allem Kaiser Augustus, der Reorganisator des Römischen Reiches nach Beendigung der Bürgerkriege und Begründer des Prinzipats. Ein Kaiser, der die aus dem Gleichgewicht geratene Ordnung des Reichs wiederherstellte, konnte sich damit als Erbe des Augustus präsentieren. Mit der im Allgemeinen respektvollen Behandlung des Senats und seiner Politik äußerer Befriedung konnte sich Hadrian auf den Boden einer neuen Pax Augusta stellen. Die Münzprägungen der Anfangsjahre von Hadrians Prinzipat betonten mit vorherrschenden Losungen wie Eintracht "(concordia)", Gerechtigkeit "(iustitia)" und Frieden "(pax)" das Ziel stabiler und erfreulicher äußerer und innerer Verhältnisse. Beschworen wurden zudem Vorstellungen von langer Dauer "(aeternitas)" und einem Goldenen Zeitalter "(saeculum aureum)"; der Phoenix symbolisierte sowohl den wiedergewonnenen Wohlstand als auch den ewigen Bestand des Reiches. Die Orientierung Hadrians an Augustus zeigte sich auch beim Bau des Pantheons, des ersten Großobjekts, das unter ihm als Kaiser in Rom fertiggestellt wurde. Dort zeigt sich der Bezug zu Augustus nicht nur in der Architravinschrift, die mit Agrippa einen wichtigen Vertrauten dieses Kaisers nennt, sondern auch durch den Vorhof und die Tempelfront der Vorhalle, die deutlich an das Augustusforum erinnern. Besondere Beachtung schenkte Hadrian nicht nur in Rom, sondern auch während seiner Inspektionsreisen der Rechtsprechung. Dabei sorgte er für eine Systematisierung der Rechtsprechungsgrundsätze, indem er den führenden Juristen seiner Zeit, Publius Salvius Iulianus, beauftragte, die prätorische Rechtssetzung, die bis dahin durch ein Edikt nach Amtsantritt der Prätoren jährlich neu gefasst worden war, im "edictum perpetuum" (wahrscheinlich aus dem Jahre 128) auf eine dauerhafte Grundlage zu stellen. Das Edikt bedeutete zwar keine eigentliche Kodifikation, hatte aber großen Einfluss: Der Jurist Ulpian verfasste über 80 Bücher Kommentare dazu, die später Eingang in Justinians "Digesten" fanden. Das "edictum perpetuum" trug dazu bei, dass der Kaiser immer mehr als Quelle des Rechts angesehen wurde. Sehr positiv bewertete Karl Christ Hadrians Bemühungen um die Rechtsprechung. Die einschlägigen Maßnahmen des Herrschers seien nicht von monarchischer Willkür, sondern von Sachlichkeit, Objektivität und auch Humanität gekennzeichnet. Davon hätten insbesondere benachteiligte Gruppen und Unterschichten der römischen Gesellschaft profitiert. Frauen erhielten das Recht, eigenes Vermögen und Erbschaften selbst zu verwalten. Die Verheiratung der Mädchen bedurfte fortan deren ausdrücklicher Einwilligung. Als höchster Richter zeigte sich Hadrian offenbar sachkundig und bewältigte ein beeindruckendes Arbeitspensum. Im Winterquartier des Jahres 129 soll er 130 Gerichtstage abgehalten haben. Nach einer verbreiteten, in verschiedenen Varianten überlieferten Anekdote wurde Hadrian auf einer Reise von einer alten Frau angesprochen und sagte ihr weitereilend, er habe keine Zeit. „Dann höre auf Kaiser zu sein!“, habe ihm die Frau nachgerufen. Da habe Hadrian angehalten und sie angehört. Eine nochmalige Stärkung ihrer gesellschaftlichen Bedeutung erfuhren unter Hadrian die dem Senatorenstand "(ordo senatorius)" nachgeordneten Ritter "(ordo equester)". In ihre Hand legte der Princeps sämtliche vormals von Freigelassenen geführten zentralen Verwaltungsressorts; unter ihnen suchte er auch die beiden Gardepräfekten aus, von denen nun einer Fachjurist sein musste. Auf dezentraler Ebene in den Provinzen förderte Hadrian die städtische Selbstverwaltung. Dies kam unter anderem in der Verleihung von Münzrechten und in der Gewährung bedarfsorientierter Stadtverfassungen zum Ausdruck. Bei der zentralen Finanz- und Steuerverwaltung des Reiches hingegen setzte er wiederum auf Systematisierung der bisherigen Verfahrensweisen und berief Spezialbeauftragte für die fiskalischen Interessen des Staates, die "advocati fisci". Stärker auf die kaiserliche Zentralverwaltung ausgerichtet wurde Italien, das Hadrian in vier Regionen unterteilte, die fortan der Kontrolle je eines kaiserlichen Legaten unterstanden. Dies ging zu Lasten der Senatskompetenzen, da die Legaten zwar aus den Reihen vormaliger Konsuln ausgewählt werden sollten, aber eben nicht vom Senat, sondern vom Kaiser. Verhältnis zu Senat und Volk. Auch im Verhältnis zum Senat stellte sich Hadrian in die Augustus-Nachfolge: Er bezeugte Achtung vor der Institution, indem er die Sitzungen besuchte, wenn er sich in Rom aufhielt; er pflegte den Umgang mit Senatoren und stellte denjenigen Mitgliedern des Senatorenstandes, die finanziell in Bedrängnis geraten waren, die fehlenden Mittel zur Verfügung. In Fragen der politischen Mitgestaltung aber ließ er dem Senat wenig Entscheidungsspielraum und beriet sich stattdessen mit Leuten seines persönlichen Vertrauens. Schwer belastet wurde das Verhältnis des Kaisers zum Senat zu Beginn und dann wieder am Ende seines Prinzipats durch die Hinrichtung von im ersten Fall vier, im zweiten Fall mindestens zwei Konsularen. Bei der ersten Beseitigungsmaßnahme ging es um die Ausschaltung einer Gruppe von vier wichtigen Militärkommandanten Trajans (Avidius Nigrinus, Aulus Cornelius Palma Frontonianus, Lucius Publilius Celsus und Lusius Quietus), die im Verdacht standen, Hadrians Machtübernahme zu missbilligen und gewaltsam dagegen vorgehen zu wollen. Einige von ihnen wären aufgrund ihrer militärischen Verdienste überdies selbst als Kaiser in Frage gekommen und stellten schon allein deshalb eine potentielle Bedrohung für den neuen "princeps" mit seiner fragwürdigen Legitimität dar. Während Hadrian selbst noch nicht wieder in Italien war, organisierte sein Prätorianerpräfekt Attianus daher 117 eine Hinrichtungsaktion an vier unterschiedlichen Orten. Diese Aktion führte zu so starken Spannungen mit dem Senat, dass Hadrian nach seinem Eintreffen in Rom Attianus als Sündenbock demonstrativ seines Amtes enthob, um die Senatoren zu beschwichtigen. Überdies behauptete der Kaiser, nichts von den Hinrichtungen gewusst zu haben; doch wurde ihm dies nicht geglaubt, und sein Verhältnis zum Senat blieb auch dann noch schwierig, als er versprochen hatte, künftig keine Senatoren mehr hinrichten zu lassen. Im anderen Fall, der sich ereignete, als Hadrian gesundheitlich bereits stark beeinträchtigt war und sich mit Dispositionen für seine Nachfolge befasste, gaben wohl das Verhalten und die Ambitionen zweier Verwandter des Kaisers, die sich in der Nachfolgeregelung übergangen sahen, den Anstoß zu ihrer Hinrichtung. Es handelte sich um Hadrians fast neunzigjährigen Schwager Servianus und dessen Enkel Fuscus, Hadrians Großneffen. Den beiden könnte ein Übergang der Kaiserwürde erst auf Servianus und nach dessen Ableben auf Fuscus erreichbar erschienen sein; jedenfalls erschienen sie Hadrian als potentiell bedrohlich, so dass sie sterben mussten. Vor seiner von schwerer Erkrankung geprägten letzten Lebensphase, in der er sich aus der Öffentlichkeit zurückzog, hatte Hadrian versucht, sich als "princeps civilis" sowohl den Senatoren wie auch einfachen Bürgern gegenüber leutselig, entgegenkommend und hilfsbereit zu zeigen. Man konnte ihn, wie es heißt, unter einfachen Bürgern in öffentlichen Bädern antreffen und mit ihm ins Gespräch kommen. Er machte Krankenbesuche nicht nur bei Senatoren, sondern auch bei ihm wichtigen Rittern und bei Freigelassenen, mitunter nicht nur einmal am Tag. Dieses Verhalten machte ihn zwar bei den Rittern und Freigelassenen beliebt, nicht aber beim Senat, der seine Stellung bedroht sah. Hadrians demonstrative Freigebigkeit und Großzügigkeit beeindruckten nachhaltig. So berichtet Cassius Dio, dass man ihn nicht erst um Hilfe bitten musste, sondern dass er von sich aus dem jeweiligen Bedarf entsprechend aushalf. Zu seinen abendlichen Tischgesellschaften lud er Gelehrte, Philosophen und Künstler ein, um mit ihnen zu diskutieren. Hadrians politisches und gesellschaftliches Auftreten wird in manchen Quellen als von "moderatio" (Besonnenheit) und "modestia" (Mäßigung) gekennzeichnet geschildert; dabei ist allerdings mit Übertreibungen, Stilisierungen und Typologisierungen zu rechnen, doch gilt der Tenor manchen Forschern als glaubwürdig. Andererseits kursierten über ihn aber auch Anekdoten, die der Tyrannentopik entlehnt waren; und mindestens einmal kam es beinahe zu einem Skandal, als der Kaiser dem im Circus versammelten Volk befehlen wollte zu schweigen; dies wäre ein schwerer Verstoß gegen die Prinzipatsideologie gewesen, der nur durch den Herold verhindert wurde. Die lange Abwesenheit des Herrschers aus Rom, zunächst aufgrund seiner Reisen, dann durch den Rückzug in seine Villa, wurde zweifellos als Missachtung des Volkes empfunden. Nur gegen Widerstände im Senat konnte Antoninus Pius später die Vergöttlichung seines Vorgängers durchsetzen. Reisetätigkeit, Truppeninspektion und Grenzbefestigung. Die ausgedehnten Reisen Hadrians, die auch der Befriedigung seiner weltoffenen Wissbegierde dienten, sollten den Übergang zu einer Neuordnung des Reichs unterstützen und absichern. Der allgemeinen Bekanntmachung dieses großräumig verteilten Herrscherwirkens dienten unter anderem Münzprägungen: "Adventus"-Münzen, welche die Ankunft des Kaisers in einer Region oder Provinz feierten, "Restitutor"-Prägungen, die seine Tätigkeit als Wiederhersteller von Städten, Regionen und Provinzen rühmten, und "exercitus"-Münzen anlässlich der Inspektionen der Truppenkontingente verschiedener Provinzen. Gerade bei der Organisation des militärischen Bereichs musste Hadrian in der Nachfolge Trajans unter veränderten Bedingungen neue Wege gehen. Hatte Trajan die Truppen bei Expansionsfeldzügen um sich versammelt und sich schon dadurch als Kaiser oft ordnend in ihrem Zentrum befunden, so ergab sich für Hadrian nun die Lage, dass die erste und wichtigste Stütze seiner Herrschaft vorwiegend an den Außengrenzen des Reiches verteilt stationiert war. Das Aufsuchen der von Italien zum Teil weit entfernten Heeresteile, die Ansprachen vor Ort, Inspektionen, Manöverbegleitung und -auswertung konnten dazu dienen, die Bindung der Legionen an den Kaiser lebendig zu erhalten und Verselbständigungstendenzen von Militäreinheiten vorzubeugen, die sonst fern von Rom kaum wirksam zu kontrollieren waren. So aber zeigte der Prinzeps, dass er auch weite Wege nicht scheute und dass man mit seinem Kommen rechnen konnte oder musste. Dabei legten er und sein Gefolge nach neueren Berechnungen ein Tempo vor, das bei entsprechend ausgebauten Straßen und Wegen auf Reisebedingungen schließen lässt, die bei einer Durchschnittsgeschwindigkeit von 20 bis 30 Kilometern pro Tag erst im 19. Jahrhundert wieder erreicht wurden. An den Truppenstandorten angekommen, beschränkte er seine Inspektionen nicht allein auf die militärischen Belange im engeren Sinn, sondern untersuchte laut Cassius Dio auch zum Teil Privatangelegenheiten. Wo das Lagerleben aus seiner Sicht luxuriöse Züge angenommen hatte, traf Hadrian Vorkehrungen dagegen. Dabei teilte er die täglichen Strapazen mit den Soldaten und beeindruckte damit, dass er barhäuptig jedem Klima trotzte: dem Schnee im Norden ebenso wie der sengenden Sonne Ägyptens. Die von ihm zur Schulung der Disziplin angewandten Methoden und militärischen Übungen überdauerten sein Jahrhundert. Bereits im Vorfeld seiner ersten großen Reise von 121 bis 125 ordnete Hadrian Maßnahmen zum Ausbau des Obergermanisch-Rätischen Limes an, der durch Palisaden aus halbierten Eichenstämmen eine deutlich sichtbare, befestigte Außengrenze des Römischen Reiches bilden sollte: sinnfälliger Ausdruck für Hadrians Entscheidung, der Expansionspolitik ein Ende zu setzen. Mit der Inspektion von Truppen und Grenzbefestigungen im Bereich von Donau und Rhein begann 121 eine vierjährige Abwesenheit Hadrians von Rom. Den Rhein abwärts ziehend und nach Britannien übersetzend begab er sich 122 zu den Truppen, die zwischen Solway Firth und Tyne mit der Errichtung des Hadrianswalls beschäftigt waren. Diese Mauer erlaubte die effektive Kontrolle des gesamten Menschen- und Güterverkehrs; ein System von Festungswerken und Vorposten ermöglichte die Kontrolle eines beträchtlichen Gebiets nördlich und südlich des Walls. Noch vor dem Winter verließ Hadrian die Insel wieder und reiste durch Gallien, wo ein Aufenthalt in Nîmes bezeugt ist. Auf der Via Domitia erreichte er Spanien, wo er in Tarragona überwinterte und eine Zusammenkunft von Vertretern aller Regionen und Hauptorte Spaniens organisierte. Im Jahre 123 setzte er nach Nordafrika über und führte Truppeninspektionen durch, bevor er sich wegen einer im Osten drohenden neuen Auseinandersetzung mit den Parthern dorthin auf den Weg machte und in Verhandlungen am Euphrat eine Beruhigung der Lage erreichte. Die weitere Reiseroute führte über Syrien und diverse kleinasiatische Städte nach Ephesos. Von dort aus erreichte Hadrian auf dem Seeweg Griechenland, wo er das ganze Jahr 124 verbrachte, bevor er im Sommer 125 nach Rom zurückkehrte. Nach einem Nordafrika-Besuch 128 begab sich Hadrian über Athen erneut auf eine Reise in die Osthälfte des Reiches. Besuchsorte und Durchgangsstationen waren die kleinasiatischen Regionen Karien, Phrygien, Kappadokien und Kilikien, bevor er in Antiochia den Winter verbrachte. Im Jahre 130 war er in den Provinzen Arabia und Judäa unterwegs. In Ägypten zog er, die alten Städte besuchend, nilaufwärts. Nach dem Tod des Antinoos reiste er von Alexandria aus zu Schiff entlang der syrischen und kleinasiatischen Küste mit Zwischenaufenthalten nach Norden. Im Sommer und Herbst 131 weilte er entweder anhaltend in den Westküstenregionen Kleinasiens oder weiter nördlich in Thrakien, Moesien, Dakien und Makedonien. Den Winter und das Frühjahr 132 verbrachte er letztmals in Athen, bevor er dann, durch den jüdischen Aufstand alarmiert, entweder nach Rom zurückkehrte oder sich in Judäa selbst ein Bild der Lage machte. Auf die Wohlfahrt der Gebiete, die der Kaiser aufsuchte, wirkten sich seine Reisen gesamthaft positiv aus. Er initiierte viele Projekte, nachdem er sich vor Ort von ihrer Notwendigkeit überzeugt hatte. Lokale historische und kulturelle Traditionspflege förderte er, indem er dafür sorgte, dass repräsentative alte Bauten restauriert, örtliche Spiele und Kulte erneuert sowie Grabanlagen bedeutender Persönlichkeiten instand gesetzt wurden. Auch infrastrukturelle Verbesserungen bei Straßennetz, Hafenanlagen und Brückenbauten verbanden sich mit Hadrians Reiseaktivitäten. Andere Fragen, etwa die nach belebenden wirtschaftlichen Auswirkungen der Kaiserreisen, sind in der Forschung ungeklärt. Münzprägungen in zusammenhängenden Emissionen aus Hadrians letzten Regierungsjahren bilanzierten den Ertrag der großen Reisen für die Bevölkerung auf vollkommen neuartige Weise, ein Tatenbericht von eigener Art. Von den sogenannten Provinzmünzen gibt es drei Arten: eine, welche die Personifikation eines Reichsteils zeigt und den Namen des Kaisers nennt, eine andere, die an die Ankunft des Kaisers im jeweiligen Gebiet erinnert, wobei Hadrian und die jeweilige Personifikation einander gegenüberstehen, und eine dritte, die dem Kaiser als dem ‚Erneuerer‘ eines Reichteils gewidmet ist und ihn eine vor ihm kniende Frauengestalt aufrichten lässt. Philhellenismus. Neben Rom als Herrschaftszentrum, das er nicht vernachlässigen durfte, galt Hadrians Freigebigkeit und dauerhafte Zuwendung in außergewöhnlichem Maße Griechenland und insbesondere Athen. Sein vielleicht schon früh ausgeprägter Philhellenismus, der ihm den Beinamen "Graeculus" („Griechlein“) eintrug, bestimmte nicht allein seine ästhetischen Neigungen, sondern zeigte sich auch in seinem Äußeren, in Akzenten seiner Lebens- und Umfeldgestaltung sowie im politischen Wollen und Wirken. Dabei markiert der Ausdruck "Graeculus" auch eine gewisse spöttische Distanz der römischen Oberschicht zum reichhaltigen und anspruchsvollen griechischen Bildungsgut. Schon in republikanischer Zeit hatte eine allzu intensive Beschäftigung etwa mit griechischer Philosophie als für einen jungen Römer schädlich gegolten. Andererseits fand der heranwachsende Hadrian in Rom unter Domitian, der selbst Gedichte geschrieben und als Kaiser in Athen das Amt des Archonten übernommen hatte, ein der griechischen Kultur durchaus aufgeschlossenes Klima vor. Seit 86 veranstaltete Domitian im vierjährigen Turnus einen Wettstreit für Poeten und Musiker, Athleten und Reiter, dem er griechisch gekleidet in einer neu erbauten Arena für 15.000 Zuschauer selbst vorsaß. An Hadrians äußerem Erscheinungsbild auffällig und mit Trajan deutlich kontrastierend waren Frisur und Bart. Hadrians gelockte Stirn – mit aufwendig gekräuselten Haaren im Gegensatz zu Trajans „Gabelfrisur“ – war der eine, sein Bart der andere augenfällige Unterschied. Mit seiner Barttracht veränderte Hadrian die Mode des Reiches für über ein Jahrhundert. Er konnte sich damit Trajan gegenüber als eigene Persönlichkeit zur Geltung bringen und mit dem „Griechenbart“ oder „Bildungsbart“ zugleich Akzente in kultureller Hinsicht setzen. Sobald sich für Hadrian nach vollständiger Absolvierung der Ämterlaufbahn und in einer Pause von Trajans militärischen Großaktionen die Gelegenheit ergab, suchte er 111/112 Athen auf, ließ sich dort das Bürgerrecht verleihen und wurde zum Archonten gewählt, was von seinen Vorgängern nur Domitian und von seinen Nachfolgern erst wieder Gallienus beschieden war, die allerdings im Gegensatz zu ihm zur Zeit ihres Archontats bereits amtierende Kaiser waren. Für die Zeit in der Mitte seines vierten Lebensjahrzehnts war Hadrian von anderweitigen Aufgaben und Verpflichtungen anscheinend weitgehend entbunden und konnte sich mehr als sonst seinen Neigungen zuwenden, Kontakte herstellen und pflegen. So dürfte er in dieser Zeit den stoischen Philosophen Epiktet aufgesucht und gesprochen haben. Durch Vermittlung seines Freundes Quintus Sosius Senecio, der auch mit Plinius dem Jüngeren befreundet war, oder des Favorinus könnte er mit Plutarch zusammengekommen sein und häufiger mit dem Sophisten Polemon von Laodikeia in Kontakt gestanden haben. Auch an den Epikureern hatte Hadrian offenbar Interesse, wie sich spätestens 121 nachweisen lässt, als er an einer Neuregelung bei der Besetzung der Schulleitung beteiligt war. Eine klare Zuordnung Hadrians zu einer bestimmten philosophischen Schule ergibt sich daraus nicht. Als Eklektiker dürfte er eine Auswahl des für ihn Bedeutsamen getroffen haben: Epikureisches vielleicht mit Blick auf den eigenen Freundeskreis, stoische Elemente eher im Hinblick auf die staatlichen Obliegenheiten. Auch in religiöser Hinsicht nahm Hadrian die weit zurückreichende Athener Tradition für sich selbst an. Er war nach Augustus der zweite römische Kaiser, der sich in die Mysterien von Eleusis einweihen ließ. Seine Einweihung auf der ersten Stufe könnte bereits in die Zeit seines Archontats fallen. Eine spätere, wohl auf die zweite Einweihungsstufe "(Epopteia)" bezogene Münzprägung, die auf der Vorderseite Augustus zeigt, trägt auf der Rückseite außer der Abbildung einer Getreidegarbe die Aufschrift "Hadrianus Aug(ustus) p(ater) p(atriae) ren." Dabei steht "ren." für "renatus" („wiedergeboren“); Hadrian firmierte also im Zeichen der eleusinischen Mysterien als Wiedergeborener. Unter die "Epopten" dürfte er demnach anlässlich eines der weiteren Athen-Aufenthalte 124 oder 128 aufgenommen worden sein. Während Griechenland in großen Teilen der römischen Oberschicht damals nur als ein zu Erbauungszwecken besichtigenswertes kulturgeschichtlich-museales Ensemble betrachtet wurde, arbeitete Hadrian darauf hin, die Griechen als östlichen Bevölkerungspol des Römischen Reiches zu neuer Einheit und Stärke und zu mehr Selbstbewusstsein zu führen. Während seiner Inspektionsreisen durch die griechischen Provinzen löste er mit der Abhaltung von Spielen und Wettkämpfen einen Festrausch aus. Kein anderer Kaiser gab so vielen Spielen seinen Namen wie er mit den "Hadrianeen". Mit bedeutenden baulichen Neuerungen und infrastrukturellen Verbesserungsmaßnahmen sorgte er dafür, Athen als Metropole der Griechen wiederzubeleben. Mit dem auf sein Betreiben nach Jahrhunderten endlich vollendeten Bau des Olympieions, das er als kultisches Zentrum eines Panhellenions vorsah, einer repräsentativen Versammlung aller Griechen im Römischen Reich, knüpfte Hadrian an das gut ein halbes Jahrtausend zurückliegende Synhedrion an, dessen Kompetenzen in der Ära der größten Machtentfaltung der Attischen Demokratie unter Perikles nach Athen verlagert worden waren. Die Athener dankten Hadrian seine Zuwendung, indem sie den ersten Aufenthalt des Kaisers als den Beginn einer neuen Stadtära feierten. Dem entsprach offenbar in hohem Maße Hadrians Selbstverständnis und die Art seiner Selbstinszenierung im öffentlichen Raum. Am Übergang der Stadt zum Olympieion-Bezirk wurde zu seinen Ehren 132 das Hadrianstor errichtet. Die an beiden Torseiten angebrachten Inschriften verwiesen einerseits auf Theseus als Athens Gründungsheros, andererseits auf Hadrian als den Gründer der neuen Stadt. Indem Hadrian hier ohne die sonst übliche zusätzliche Titulatur erschien, übte er sich nicht so sehr in Bescheidenheit, sondern stellte sich mit dem kultisch verehrten Stadtgründer Theseus, der ebenfalls ohne besonderen Rang und Titel genannt wurde, erkennbar auf eine Stufe. Die Athener zeigten sich dem Kaiser auch in anderer Hinsicht demonstrativ dankbar, wie die große Zahl der Ehrenstatuen verdeutlicht, die für Hadrian nachgewiesen sind. Es gab allein in Athen mehrere hundert Porträts des Kaisers in Marmor oder Bronze. In Milet erhielt er auf Beschluss des Rats jährlich eine neue, sodass dort am Ende seiner Regierungszeit 22 Statuen oder Büsten Hadrians standen. Der Archäologe Götz Lahusen schätzt, dass es in der Antike 15.000 bis 30.000 Bildnisse von ihm gab; heute sind etwa 250 davon bekannt. Hadrian seinerseits gründete noch 135 in Rom das Athenäum. Eine machtpolitische Komponente von Hadrians Engagement für die Griechen bestand darin, dass die griechischsprachigen Provinzen als Widerlager und ruhender Pol im Hinterland der orientalischen militärischen Brennpunkte und Konfliktzonen wirkten. Dies war die politische und strategische Seite von Hadrians Philhellenentum. Eine Verlagerung des politischen Machtzentrums in den östlichen Reichsteil hat Hadrian aber nicht angestrebt. Die Bedeutung des Panhellenions als politisches Binde- und Stärkungsmittel griechischer Einheit hielt sich ohnehin in Grenzen. Ungewiss sind sowohl Gründungsdatum und Sitz der Versammlung wie auch ihr Ziel. Vielleicht sollten die griechischen Poleis untereinander harmonisiert und zugleich über Athen enger an Rom und den Westen gebunden werden. Außer kulturellen Kontakten scheint nach Hadrians Tod nicht viel geblieben zu sein. Bautätigkeit. Der Prinzipat Hadrians war verbunden mit einem anhaltenden Aufschwung von Baumaßnahmen verschiedenster Art, die nicht nur Rom und Athen galten, sondern den Städten und Regionen überall im Reich. Die Bautätigkeit wurde eine von Hadrians Prioritäten. Dazu trugen sowohl politische und dynastische Erwägungen als auch das tiefe persönliche Interesse des Kaisers an Architektur bei. Einige der in Hadrians Ära entstandenen Bauten stellen einen Wende- und Höhepunkt römischer Architektur dar. Frühe Studien der Malerei und Modellierkunst sowie Hadrians Interesse an Architektur sind bei Cassius Dio bezeugt. Auch zeigte Hadrian anscheinend keine Scheu, mit eigenen Konstruktionsvorstellungen und Entwürfen auch unter Meistern des Faches aufzuwarten. Cassius Dio berichtet von einer herben Abfuhr, die der berühmte Architekt Apollodor von Damaskus dem vielleicht etwas vorwitzigen jungen Mann erteilte. Apollodor soll Hadrian, der ihn in seinen Ausführungen Trajan gegenüber unterbrochen hatte, zurechtgewiesen haben: „Verzieh dich und zeichne deine Kürbisse. Du verstehst nichts von diesen Dingen.“ Mit der Umsetzung eines eigenen Bauprogramms begann Hadrian schon bald nach dem Herrschaftsantritt sowohl in Rom als auch in Athen und auf dem Familienbesitz bei Tibur. Der Betrieb auf diesen wie zahlreichen weiteren Baustellen lief über lange Zeit parallel und teils über Hadrians Tod hinaus, so im Falle des Tempels der Venus und der Roma und beim Hadriansmausoleum. Damit ließ sich speziell in Rom ein dauerndes Engagement des Kaisers für die Metropole auch in den langen Zeiten seiner Abwesenheit vor Augen führen. Auf die Inspektionsreisen in die Provinzen des Reiches begleitete ihn nicht nur die für den Schriftverkehr zuständige kaiserliche Kanzlei, der anfänglich noch Sueton vorstand, sondern auch eine Auswahl von Baufachleuten aller Art. Wie der Archäologe Heiner Knell feststellt, stand in kaum einer anderen Zeitspanne der Antike die aufblühende Baukultur unter einem so günstigen Stern wie unter Hadrian; damals entstanden Bauwerke, „die zu Fixpunkten einer Geschichte der römischen Architektur geworden sind“. Ein markantes erhaltenes Monument dieser architektonischen Blütezeit ist das 110 durch Blitzschlag zerstörte und unter Hadrian neu konzipierte Pantheon, das bereits Mitte der 120er Jahre fertiggestellt war und von Hadrian für Empfänge und Gerichtssitzungen öffentlich genutzt wurde. Die Lage des Pantheons auf einer Achse mit dem gut siebenhundert Meter entfernten Eingang des gegenüberliegenden Augustusmausoleums deutet wiederum auf ein Bekenntnis zum Erbe des Augustus, zumal Agrippa das Pantheon wohl ursprünglich als ein Heiligtum für die Familie des Augustus und die ihr verbundenen Schutzgötter konzipiert hatte. Spektakulär ist der Bau mit seinem Innenraum, der von der größten nicht verstärkten Betonkuppel der Welt überwölbt ist. Voraussetzung dafür war eine „Betonrevolution“, die der römischen Bautechnik Gebäudekonstruktionen ermöglichte, wie sie in der Menschheitsgeschichte bis dahin noch nicht vorgekommen waren. Neben den Ziegeln "(figlinae)" war bzw. wurde Beton "(opus caementicium)" grundlegendes Baumaterial. Die Führungsklasse einschließlich der Kaiserfamilie investierte in dieses Gewerbe, besonders die Ziegelproduktion. Bauplatz und Ruinen des Doppeltempels der Venus und der Roma Auf andere Weise beeindruckend neuartig nahm sich für die Römer die Anlage des Doppeltempels für Venus und Roma auf der Velia, einem der ursprünglichen sieben Hügel Roms, aus. Die Verbindung zweier Göttinnen war unüblich und es gab auch kaum Präzedenzfälle für einen so bedeutenden Kult der Roma in ihrer eigenen Stadt. Mit diesem Bau erschien Hadrian als neuer Romulus (Stadtgründer). Während die Cellae des Doppeltempels jeweils dem italischen Tempeltypus entsprachen, folgte die beide Cellae umschließende Säulenringhalle dem griechischen Tempeltypus. Es handelte sich dabei um die bei weitem größte Tempelanlage in Rom. In ihr konnte die kulturübergreifende Ausdehnung des Römischen Reiches ebenso versinnbildlicht werden wie eine daraus gewonnene kulturelle Einheit und Identität. Als Hadrian die Pläne Apollodor zur Prüfung und Stellungnahme zukommen ließ, soll dieser – wiederum nach dem Bericht Cassius Dios – drastisch Kritik geübt und sich neuerlich Hadrians Zorn zugezogen haben. Die Überlieferung, wonach Hadrian erst für die Verbannung und sodann auch noch für den Tod Apollodors im Exil gesorgt habe, gilt in der neueren Forschung jedoch als äußerst unglaubwürdig. Schon bei der Erschließung des Bauplatzes für den Doppeltempel wurde den Römern ein unvergesslicher Anblick geboten: Der unter Nero angefertigte und dort aufgestellte Koloss, eine 35 Meter hohe Bronzestatue von über 200 Tonnen geschätztem Mindestgewicht, die man mit dem Sonnengott Sol verband, wurde auf technisch ungeklärte Weise unter Einsatz von 24 Elefanten angeblich aufrecht stehend umgesetzt. Annähernd auf freiem Feld konnte Hadrian seinen Ambitionen als Bauherr auf dem Landsitz bei Tibur, dessen allein baulich erschlossene Fläche sich heute über etwa 40 Hektar erstreckt, nachgehen. Das Gelände ist zum großen Teil zerstört, doch ist die Hadriansvilla Teil des UNESCO-Weltkulturerbes und nicht zuletzt aufgrund der eklektischen Zusammenstellung unterschiedlichster Baustile (römisch, griechisch, ägyptisch) einzigartig. Die Villa, ein ausgedehnter Palast und Alternativsitz der Regierung, erschien fast wie eine kleine Stadt. In der Planung und den Konstruktionstechniken wurden neuartige Experimente gewagt. Durch ihren Formenreichtum und die Pracht ihres Dekors wurde die Villa in der Folgezeit zu einer der Saatstätten für die Entwicklung von Kunst und Architektur. Die neuen Möglichkeiten im Betonbau kamen auch hier vielfältig zum Einsatz, so zum Beispiel in Kuppeln und Halbkuppeln, in die man bei der Entwicklung neuartiger Formen der Raumausleuchtung variationsreiche Öffnungen schnitt. In Verbindung mit stark wechselnden Raumgrößen und -gestaltungsformen sowie mit einer vielfältigen Innenausschmückung begleitete den Besucher bei einem Rundgang ein stetes Überraschungsmoment, das sich auch im Perspektivwechsel von den Innenräumen zu Ausblicken auf Gärten und Landschaft Geltung verschaffte. So setzte die Villa für die römische Architektur einen neuen Standard. Bereits in den ersten Jahren seines Prinzipats traf Hadrian Vorsorge für den eigenen Tod und die Grablegung, indem er etwa parallel mit dem Baubeginn des Doppeltempels der Venus und Roma die Errichtung des monumentalen Mausoleums auf der dem Marsfeld gegenüberliegenden Uferseite des Tibers betrieb. Dort bildete es aber schließlich vor allem das optische Gegenstück zu dem ebenfalls zylindrischen Hauptteil des Augustusmausoleums, das wenige hundert Meter nordöstlich auf dem anderen Tiberufer lag. Bei einer Gesamthöhe des Monuments von etwa 50 Metern hatte die allein 31 Meter hohe Trommel an der Basis einen Durchmesser von 74 Metern. Die wohl 123 begonnene und im Kern bis heute erhaltene Konstruktion ruhte auf einer Betonplattform von ungefähr zwei Metern Dicke. Die Rekonstruktion der Aufbauten und figuralen Ausstattung oberhalb des Grundbaus ist nicht mehr möglich. Eine Zusammenschau des von Hadrian realisierten Bauprogramms lässt erkennen, dass er auch darin die charakteristischen Kulturmerkmale unterschiedlicher Teile des Römischen Reiches zu einer Synthese zusammenzuführen suchte – sehr deutlich etwa in der anspielungs- und zitatereichen architektonischen Vielfalt der Hadriansvilla bei Tibur. Doch auch Rom und Athen wurden von Hadrian architektonisch aufeinander verwiesen. Der römische Doppeltempel der Venus und Roma hatte in der Außenansicht griechisches Gepräge, während beispielsweise die für Athen gestiftete Hadriansbibliothek hinsichtlich der Säulengestaltung eine typisch römische Architektur transferierte. Antinoos. Zu den aufsehenerregenden Besonderheiten von Hadrians Prinzipat und zu den das Bild dieses Kaisers nachhaltig bestimmenden Faktoren zählt seine Beziehung zu dem griechischen Jüngling Antinoos. Der Zeitpunkt ihres Zustandekommens ist nicht überliefert. Cassius Dio und der Verfasser der Historia Augusta beschäftigten sich mit Antinoos erst anlässlich der Umstände seines Todes und der Reaktionen Hadrians darauf. Diese fielen bezüglich der Trauer des Kaisers und der damit einhergehenden Schaffung eines Antinoos-Kults so ungewöhnlich aus, dass die Hadrian-Forschung dadurch zu vielerlei Deutungen angeregt bzw. herausgefordert wurde. Da zwischen den beiden unzweifelhaft eine Erastes-Eromenos-Beziehung bestand, hielt sich Antinoos wahrscheinlich etwa von seinem fünfzehnten Lebensjahr bis zu seinem Tode als rund Zwanzigjähriger in der Nähe des Kaisers auf. Diese Annahme wird von bildlichen Darstellungen des Antinoos gestützt. Er stammte aus dem bithynischen Mantineion bei Claudiopolis. Hadrian dürfte ihm während seines Aufenthalts in Kleinasien 123/124 begegnet sein. Für das zeitgenössische Umfeld war nicht so sehr die homoerotische Neigung Hadrians zu dem Heranwachsenden irritierend – solche Verhältnisse gab es auch bei Trajan –, sondern der Umgang des Kaisers mit dem Tod des Geliebten, der ihn anhaltend tief traurig machte und den er nach Frauenart beweinte – anders als den Tod seiner Schwester Paulina, der auch in diese Zeit fiel. Als auffällige Diskrepanz registriert wurde auch das höchst unterschiedliche Ausmaß der postumen Ehrungen, die Hadrian Antinoos und Paulina gewährte. Dies wurde als unschickliche Vernachlässigung der Schwester wahrgenommen. Anstößig war sowohl das Übermaß der Trauer als auch der Umstand, dass der Verstorbene als bloßer Lustknabe und daher nicht betrauernswert galt. So wenig diese Formen der Trauerarbeit des Herrschers zu römischer Denkart passen mochten, so dubios waren die Umstände, unter denen Antinoos zu Tode kam: Neben dem natürlichen Tod durch Sturz in den Nil und anschließendes Ertrinken, wie von Hadrian wohl selbst dargestellt, kamen alternative Deutungen in Betracht, denen zufolge Antinoos entweder sich für Hadrian opferte oder in unhaltbarer Lage den Freitod suchte. Die Annahme des Opfertods gründet in magischen Vorstellungen, wonach das Leben des Kaisers verlängert werden konnte, wenn ein anderer das seine für ihn opferte. Aus eigenem Antrieb könnte Antinoos den Tod gesucht haben, weil er als nun Erwachsener die bisherige Beziehung zu Hadrian nicht fortsetzen konnte, da er die spezifische Attraktivität eines Heranwachsenden verloren hatte und eine Beziehung zwischen zwei erwachsenen Männern – anders als zwischen einem Mann und einem Jugendlichen – in der römischen Gesellschaft als inakzeptabel galt. Ort und Zeitpunkt von Antinoos’ Tod im Nil kamen Hadrians Bestrebungen um Vergöttlichung und kultische Verehrung des toten Geliebten entgegen. In Ägypten bot sich die Angleichung des Antinoos an den Gott Osiris an. Dazu trug der Umstand bei, dass sich sein Tod etwa um den Jahrestag von Osiris’ Ertrinken ereignete. Nach einer ägyptischen Überlieferung, die Antinoos gekannt haben dürfte, erlangten im Nil Ertrunkene göttliche Ehren. Der Gedanke, mit dem eigenen Leben das eines anderen zu retten, war Griechen und Römern vertraut. Nahe der Stelle, wo Antinoos ertrunken war, gründete Hadrian am 30. Oktober 130 die Stadt Antinoupolis, die um den Begräbnisort und Grabtempel des Antinoos herum emporwuchs, und zwar getreu dem Muster von Naukratis, der ältesten griechischen Siedlung in Ägypten. Möglicherweise hatte er für den aktuellen Aufenthalt am Nil ohnehin eine Stadtgründung für griechische Siedler vorgesehen. Das lag auf der Linie seiner Hellenisierungspolitik in den östlichen Provinzen des Reiches. Zudem mochte ein weiterer Hafen auf dem rechten Nilufer wirtschaftliche Impulse mit sich bringen. Antinoupolis reihte sich unter eine Vielzahl von Stadtneugründungen ein, die Hadrian auch teilweise mit dem eigenen Namen ausstattete. Seit Augustus hatte kein Kaiser Städtegründungen in so großer Zahl und über derart viele Provinzen verteilt vorgenommen. Die postume Vergöttlichung ihrer Geliebten hatten bereits einzelne hellenistische Herrscher betrieben. Die Vorlage dafür hatte Alexander der Große gegeben, als er seinen Geliebten Hephaistion nach dessen Tod mit Ehrungen einschließlich eines Heroenkults überhäufte, womit er ebenfalls auf Kritik stieß. Neu an dem von Hadrian für Antinoos errichteten Kult war aber das flächendeckende Ausmaß sowie die Einbeziehung des Katasterismos; Hadrian gab an, den Stern des Antinoos gesehen zu haben. Über die konkrete Ausgestaltung des Antinoos-Kults könnte beraten worden sein, nachdem die kaiserliche Gesellschaft für einen mehrmonatigen Aufenthalt nach Alexandria zurückgekehrt war. Reden und Gedichte zur Tröstung Hadrians mochten dabei mancherlei Anregungen für die spätere Antinoos-Ikonografie geboten haben. Der Antinoos-Kult fand in verschiedenen Spielarten enorme Verbreitung. Der als Statue vielerorts präsente Jüngling wurde demonstrativ eng mit dem Kaiserhaus assoziiert, wie ein Stirnreif unterstreicht, auf dem Nerva und Hadrian erscheinen. Dabei überwog die Verehrung als Heros die göttlichen Ehren im engeren Sinn; meist erscheint Antinoos als Hermes-Äquivalent, als Osiris-Dionysos oder als Schutzherr von Saaten Etwa 100 Marmorbildnisse des Antinoos hat die Archäologie zutage gefördert. Nur von Augustus und Hadrian selbst sind aus der klassischen Antike noch mehr solcher Bildnisse überliefert. Frühere Annahmen, dass der Antinoos-Kult nur im griechischen Ostteil des Römischen Reiches verbreitet war, wurden unterdessen widerlegt: Aus Italien sind mehr Antinoos-Statuen bekannt als aus Griechenland und Kleinasien. Nicht nur dem Kaiserhaus nahestehende, gesellschaftlich führende Kreise förderten den Antinoos-Kult; er hatte auch unter den Massen eine Anhängerschaft, die mit ihm auch die Hoffnung auf ein ewiges Leben verband. Lampen, Bronzegefäße und andere Gegenstände des täglichen Lebens zeugen von der Aufnahme des Antinoos-Kults in der breiten Bevölkerung und ihren Auswirkungen auf die Alltagsikonografie. Auch mit festlichen Spielen, den "Antinóeia", wurde die Antinoos-Verehrung gefördert, nicht nur in Antinoupolis, sondern etwa auch in Athen, wo solche Spiele noch im frühen 3. Jahrhundert abgehalten wurden. Unklar ist, ob die Entwicklung des Kults von Anfang an so geplant war. Jedenfalls ermöglichte die Antinoos-Verehrung der griechischen Bevölkerung des Reiches, ihre eigene Identität zu feiern und zugleich ihre Loyalität zu Rom auszudrücken, was den Zusammenhalt des Reiches stärkte. Jüdischer Aufstand. Hadrian hielt während der gesamten Dauer seiner Herrschaft an seinem Befriedungs- und Stabilisierungskurs im Hinblick auf Außengrenzen und Nachbarn des Römischen Reiches fest. Dennoch kam es schließlich zu schwerwiegenden militärischen Auseinandersetzungen, die sich im Inneren des Reichs abspielten, in der Provinz Judäa. Dort brach 132 der Bar-Kochba-Aufstand aus, dessen Niederschlagung bis 136 dauerte. Nach dem Jüdischen Krieg 66–70 und dem Diasporaaufstand 116/117, mit dessen Ausläufern Hadrian bei seinem Amtsantritt noch zu tun hatte, war dies der dritte und letzte Feldzug römischer Kaiser gegen jüdisches Autonomiestreben und den damit verbundenen bewaffneten Selbstbehauptungswillen. Hadrian folgte in dieser Frage der von seinen Vorgängern eingeschlagenen Linie, die auf Unterordnung der Juden und Christen unter die römischen Gesetze und Normen zielte. Anstelle der traditionellen Abgabe für den Jerusalemer Tempel, den die Römer 71 im Jüdischen Krieg zerstört hatten, war den Juden danach eine entsprechende Abgabe für den Tempel des Jupiter Capitolinus auferlegt worden, ein fortdauernder Stein des Anstoßes für alle, die sich der Anpassung verweigerten. Der 70 n. Chr. zerstörte jüdische Tempel im Modell Gegenstand einer Forschungskontroverse ist die Frage, ob Hadrian zum Ausbruch des Aufstands beigetragen hat, indem er ein Beschneidungsverbot erließ, eine den Juden früher erteilte Erlaubnis, den zerstörten Jerusalemer Tempel wieder aufzubauen, rückgängig machte und beschloss, Jerusalem als römische Kolonie mit dem Namen "Aelia Capitolina" (was den Stadt- an seinen Familiennamen band) neu zu erbauen. Diese drei Gründe für den Ausbruch des Krieges werden in römischen und jüdischen Quellen genannt bzw. sind aus ihnen erschlossen worden. Nach dem aktuellen Forschungsstand ergibt sich aber ein anderes Bild: Die These vom zunächst erlaubten, dann verbotenen Tempelbau gilt heute als widerlegt, das Beschneidungsverbot wurde wahrscheinlich erst nach dem Ausbruch des Aufstands verhängt und die Gründung von Aelia Capitolina war – falls sie tatsächlich schon vor Kriegsausbruch erfolgte – nur einer der Umstände, die den Aufständischen inakzeptabel erschienen. Zu größeren Konflikten zwischen Juden und Römern scheint es vorher nicht gekommen zu sein, denn die Römer wurden vom Aufstand überrascht. Dieser war keine Unternehmung des gesamten jüdischen Volkes, sondern es gab unter den Juden eine römerfreundliche und eine römerfeindliche Richtung. Die Römerfreunde waren mit der Eingliederung des jüdischen Volkes in die römische und griechische Kultur einverstanden, während sich die Gegenseite aus religiösem Grund der von Hadrian gewünschten Assimilation radikal widersetzte. Anfänglich wurde die Rebellion nur von einer möglicherweise relativ kleinen römerfeindlichen, streng religiös gesinnten Gruppe in Gang gesetzt, später weitete sie sich stark aus. Nach dem Bericht Cassius Dios war die Erhebung von langer Hand vorbereitet worden, indem Waffen gesammelt und Waffenlager sowie geheime Rückzugsorte räumlich verteilt angelegt worden waren. Als der Aufstand 132 losbrach, erwiesen sich die beiden vor Ort stationierten römischen Legionen binnen kurzem als unterlegen, sodass Hadrian Heeresteile und militärisches Führungspersonal aus anderen Provinzen nach Judäa beorderte, darunter den als besonders fähig angesehenen Kommandeur Sextus Iulius Severus, der aus Britannien am Schauplatz eintraf. Unklar ist, ob Hadrian bis 134 selbst an der "expeditio Iudaica" teilnahm; einige Indizien sprechen dafür. Zweifellos war die enorme Truppenmobilisierung für die Kämpfe in Judäa eine Reaktion auf hohe römische Verluste. Als Hinweis darauf wird auch der Umstand gedeutet, dass Hadrian in einer Botschaft an den Senat auf die übliche Bekundung verzichtete, dass er selbst und die Legionen wohlauf seien. Der Vergeltungsfeldzug der Römer, als sie schließlich wieder die Oberhand in Judäa gewannen, war gnadenlos. Bei den Kämpfen, in denen nahezu hundert Dörfer und Bergfesten einzeln genommen werden mussten, fanden über 500.000 Juden den Tod, das Land blieb menschenleer und zerstört zurück. Aus "Iudaea" wurde die Provinz Syria Palaestina. Hadrian bewertete den schließlichen Sieg so hoch, dass er im Dezember 135 die zweite imperatorische Akklamation entgegennahm; doch verzichtete er auf einen Triumph. Die Tora und der jüdische Kalender wurden verboten, man ließ jüdische Gelehrte hinrichten und Schriftrollen, die den Juden heilig waren, auf dem Tempelberg verbrennen. Am früheren Tempelheiligtum wurden Statuen Jupiters und des Kaisers errichtet. "Aelia Capitolina" durften die Juden zunächst nicht betreten. Später erhielten sie die Zutrittserlaubnis einmal jährlich am 9. Av, um Niederlage, Tempelzerstörung und Vertreibung zu betrauern. Tod und Nachfolge. Anfang des Jahres 136 erkrankte Hadrian als nun Sechzigjähriger so schwer, dass er den gewohnten Alltag aufgeben musste und fortan weitgehend ans Bett gefesselt blieb. Als Ursache kommt eine bluthochdruckbedingte Arterienverkalkung der Herzkranzgefäße in Betracht, die schließlich den Tod durch Nekrose in den mangeldurchbluteten Gliedmaßen und durch Ersticken herbeigeführt haben könnte. Damit stellte sich dringlich das Problem der Nachfolgeregelung. In der zweiten Jahreshälfte 136 präsentierte Hadrian der Öffentlichkeit Lucius Ceionius Commodus, der zwar amtierender Konsul, aber doch ein Überraschungskandidat war. Er war der Schwiegersohn des Avidius Nigrinus, eines der nach Hadrians Herrschaftsantritt hingerichteten vier Kommandeure Trajans. Ceionius hatte einen fünfjährigen Sohn, der in die voraussichtliche Thronfolge einbezogen war. Hadrians Motive für diese Wahl sind ebenso ungeklärt wie die von ihm dabei für seinen mutmaßlichen Neffen Mark Aurel vorgesehene Rolle. Mark Aurel wurde auf Betreiben des Kaisers 136 mit einer Tochter des Ceionius verlobt und während des Latinerfestes als Fünfzehnjähriger mit dem Amt des temporären Stadtpräfekten "(praefectus urbi feriarum Latinarum causa)" betraut. Die Adoption des Ceionius, der mit dem Caesar-Titel nun offiziell Herrschaftsanwärter war, wurde durch Spiele und Geldzuwendungen an Volk und Soldaten in aller Form öffentlich begangen. Danach begab sich der von Hadrian mit der tribunizischen Gewalt und dem "imperium proconsulare" für Ober- und Niederpannonien ausgestattete, militärisch noch wenig versierte präsumptive Nachfolger zu den an der latent unruhigen Donaugrenze stationierten Heeresteilen. Dort mochte er aus Hadrians Sicht wohl besonders lohnende militärische Erfahrungen sammeln und wichtige Kontakte in die Führungsebene herstellen. Gesundheitlich war der vermutlich bereits länger an Tuberkulose Leidende in dem rauen pannonischen Klima allerdings nicht gut aufgehoben. Nach Rom zurückgekehrt, verstarb Ceionius nach starkem, anhaltendem Blutverlust bereits am 1. Januar 138. Diese erste, nun gescheiterte Nachfolgeregelung fand in Rom wenig Verständnis. Erbitterung erzeugte die damit einhergehende Beseitigung von Hadrians Schwager Servianus und dessen Neffen Fuscus, die eigener Herrschaftsambitionen verdächtigt wurden. Hadrian sah sich angesichts seiner Hinfälligkeit zu einer zügigen Neuregelung seiner Nachfolge gezwungen. Am 24. Januar 138, seinem 62. Geburtstag, gab er vom Krankenbett aus prominenten Senatoren seine Absichten bekannt, die am 25. Februar in den offiziellen Adoptionsakt mündeten: Neuer Caesar wurde der Hadrians Beraterstab bereits länger angehörige Antoninus Pius, Konsul bereits 120, auch er im militärischen Bereich weit weniger erfahren als in Verwaltungsangelegenheiten, doch als 134/35 bewährter Prokonsul in der Provinz Asia ein auch in Senatskreisen angesehener Mann. Die Adoption des Antoninus verband Hadrian mit der Bedingung, dass der neue "Caesar" in einem Gesamtvorgang seinerseits die Doppeladoption Mark Aurels und des Ceionius-Sprösslings Lucius Verus vollzog, was noch am selben Tag geschah. Damit war Mark Aurel als der neun Jahre ältere der beiden Adoptivbrüder zum künftigen Nachfolger des Antoninus ausersehen. Antoninus selbst unterstrich diese Abfolge zusätzlich, indem er nach Hadrians Tod Mark Aurel die Verlobung mit der Ceionius-Tochter lösen ließ und ihm die eigene Tochter zur Frau gab. Die eigene körperliche Verfassung wurde Hadrian zunehmend unerträglich, sodass er das Ende immer dringlicher herbeiwünschte. Mit durch Wassereinlagerung aufgedunsenem Körper und von Atemnot gepeinigt, suchte er nach Möglichkeiten, die Qualen zu beenden. Er bat einzelne in seinem Umfeld mehrfach, ihm Gift zu verschaffen oder einen Dolch, wies einen Sklaven an, ihm an vorbezeichneter Stelle das Schwert in den Leib zu stoßen, und reagierte zornig auf die allseitige Weigerung, seinen Tod vorzeitig herbeizuführen. Antoninus ließ dies jedoch nicht zu, weil er, der Adoptivsohn, anderenfalls als Vatermörder anzusehen gewesen wäre. Es lag aber auch im Legitimationsinteresse seiner eigenen bevorstehenden Herrschaft, dass Hadrian nicht durch Suizid endete, womit er sich unter die „schlechten Kaiser“ wie Otho und Nero eingereiht, die Vergöttlichung verwirkt und damit Antoninus den Status des "divi filius" („Sohn des Vergöttlichten“) vorenthalten hätte. Nach seinem letzten Aufenthalt in Rom ließ sich Hadrian nicht in seine Villa nach Tibur, sondern auf einen Landsitz in Baiae am Golf von Neapel bringen, wo er am 10. Juli 138 verschied. Nach der Darstellung der "Historia Augusta" ließ Antoninus die Asche seines Vorgängers nicht sogleich von Baiae nach Rom überführen, sondern wegen Hadrians Verhasstheit bei Volk und Senat vorläufig unter Ausschluss der Öffentlichkeit auf Ciceros einstigem Landsitz in Puteoli beisetzen. Dies gilt aber in der Forschung als unwahrscheinlich. Auch ein langwieriges Ringen von Antoninus Pius um die Vergöttlichung Hadrians mit einem sich weigernden Senat wirkt kaum glaubhaft; zwar hatte der Verstorbene erbitterte Feinde, doch empfahl es sich für Antoninus, das Programm des Machtwechsels zügig abzuwickeln, und er verfügte über alle dafür erforderlichen Mittel. Quellenlage. Die einzige erzählende Quelle, die der Überlieferung zufolge zu Hadrians Lebzeiten verfasst wurde, war seine Autobiographie, von der aber nur ein an Antoninus Pius gerichteter Brief als Auftakt erhalten ist, in dem Hadrian sein nahes Ende anspricht und dem Nachfolger für dessen Fürsorge dankt. Die anderen überlieferten Originalzeugnisse Hadrians – fragmentarisch auf Stein oder Papyrus erhaltene Reden, Briefe und Reskripte sowie lateinische und griechische Gedichte – stellen jedoch eine beachtliche Materialsammlung dar. Aufschlüsse liefern ferner die aus Hadrians Prinzipat erhaltenen Münzen. Die aus dem 3. Jahrhundert stammende "Römische Geschichte" von Cassius Dio ist in dem Hadrian betreffenden 69. Buch nur in Fragmenten und Exzerpten aus byzantinischer Zeit überliefert. Ebenfalls im 3. Jahrhundert verfasste Marius Maximus eine Sammlung von Kaiserbiographien im Anschluss an diejenige Suetons, der mit Domitian geendet hatte; sie enthielt auch eine Lebensbeschreibung Hadrians. Dieses Werk ist nicht erhalten und nur bruchstückhaft erschließbar. In mehreren spätantiken "Breviarien" (so in den "Caesares" Aurelius Victors) finden sich nur knappe Informationen über Hadrian. Denkmal des Nobelpreisträgers Theodor Mommsen vor der Humboldt-Universität (1909) Die höchst umstrittene Hauptquelle für Leben und Herrschaft Hadrians ist seine Lebensbeschreibung "(Vita Hadriani)" in der "Historia Augusta" (HA), die wahrscheinlich erst Ende des 4. Jahrhunderts entstanden ist. In diese Darstellung sind Informationen aus heute verlorenen Quellen wie dem Werk des Marius Maximus eingeflossen, doch hat der unbekannte spätantike Verfasser Material eingebracht, für das Herkunft aus glaubwürdigen Quellen nicht anzunehmen ist, sondern das vornehmlich dem Gestaltungswillen des Geschichtsschreibers zuzurechnen ist. Theodor Mommsen sah in der HA „eine der elendesten Sudeleien“ unter dem antiken Schrifttum. Der aus diesem Eindruck abgeleiteten Forderung Mommsens nach akribischer Prüfung und Kommentierung jeder einzelnen Aussage durch umfassenden Vergleich sowohl innerhalb der HA-Viten als auch mit dem verfügbaren Quellenmaterial außerhalb der HA ist Jörg Fündling in seinem zweibändigen Kommentar zur "vita Hadriani" der HA nachgekommen. In der Biographie Hadrians, die in der Forschung zu den relativ zuverlässigsten HA-Viten gezählt wird, hat Fündling mindestens ein Viertel des Gesamtumfangs als unzuverlässig ausgewiesen, darunter 18,6 Prozent als mit hoher Sicherheit fiktiv und weitere 11,2 Prozent, deren Quellenwert als sehr zweifelhaft anzusehen ist. Mit diesem Ergebnis tritt Fündling einer neueren Tendenz entgegen, die Vielzahl der in der HA-Forschung kontrovers vertretenen Positionen mit dem „Überspringen sämtlicher Quellenprobleme“ zu beantworten, „als wären diese irrelevant für den Inhalt, weil sowieso unlösbar“. Antike. Hadrians Vielseitigkeit und sein teils widersprüchliches Erscheinungsbild bestimmen auch das Spektrum der über ihn gefällten Urteile. Im zeitgenössischen Umfeld ist auffällig, dass sich Mark Aurel weder im ersten Buch seiner "Selbstbetrachtungen", in dem er seinen wichtigen Lehrern und Förderern umfänglich dankt, noch an anderer Stelle in dieser Gedankensammlung näher mit Hadrian befasst, dem er doch durch das vorgegebene Adoptionsarrangement den eigenen Aufstieg zur Herrschaft verdankte. Cassius Dio bescheinigt Hadrian eine insgesamt menschenfreundliche Herrschaftsausübung und ein umgängliches Naturell, aber auch einen unstillbaren Ehrgeiz, der sich auf die verschiedensten Bereiche erstreckte. Unter seinen Eifersüchteleien hätten viele Fachspezialisten diverser Richtungen zu leiden gehabt. Den Architekten Apollodoros, der seinen Zorn erregt habe, habe er erst in die Verbannung geschickt und später umbringen lassen. Als charakteristische Eigenschaften Hadrians nennt Cassius Dio u. a. Übergenauigkeit und zudringliche Neugier einerseits, Umsicht, Großzügigkeit und vielfältige Geschicklichkeit andererseits. Wegen der Hinrichtungen zu Beginn und am Ende seiner Regierungszeit habe ihn das Volk nach seinem Tode gehasst, trotz seiner beachtlichen Leistungen in den Zeiten dazwischen. Die antiken Christen beurteilten Hadrian vor allem in zweierlei Hinsicht negativ: wegen seiner suizidalen Absichten und Tatvorbereitungen sowie wegen seiner homoerotischen Neigungen, die im Verhältnis zu Antinoos und im Antinoos-Kult unübersehbar hervortraten. Die göttliche Verehrung des als Lustknabe eingestuften Geliebten Hadrians war für die Christen so provokant, dass Antinoos bis ins späte 4. Jahrhundert zu den Hauptzielen christlicher Angriffe auf das „Heidentum“ zählte. An der Beziehung Hadrians zu Antinoos nahmen insbesondere Tertullian, Origenes, Athanasius und Prudentius Anstoß. Jörg Fündling meint, die vielseitigen Interessen und teils widersprüchlichen Züge Hadrians erschwerten eine Urteilsbildung über die Persönlichkeit – sowohl für den Autor der Historia Augusta als auch für die Nachwelt. Die angetroffene „Fülle intellektueller Ansprüche und brennenden Ehrgeizes“ wirke einschüchternd, die Beschäftigung mit Fehlern und Absonderlichkeiten Hadrians für den Betrachter hingegen entlastend, weil auf ein menschliches Maß zurückführend. Letztlich sei die Darstellung des Verfassers der Historia Augusta Ausdruck seiner Dankbarkeit für die Reize exzentrischer Persönlichkeiten. Doch blieb Hadrian auch nach seinem Tod noch vielen verhasst; das überwiegend positive Bild des Kaisers, das bis heute seine Wahrnehmung prägt, scheint erst später entstanden zu sein. Forschungsgeschichte. a>s, heute Sitz der römischen Börse Einen Überblick über die Forschungsgeschichte seit dem Erscheinen der ersten großen Hadrian-Monographie von Ferdinand Gregorovius 1851 gibt Susanne Mortensen. Als wirkungsgeschichtlich ehedem besonders wichtig hebt sie Ernst Kornemann mit seinem negativen Urteil zu Hadrians Außenpolitik sowie Wilhelm Weber hervor. Weber sei in einer umfassenden Auseinandersetzung mit Hadrians Wirken zu einem insgesamt ausgewogeneren Urteil gelangt, dann aber unter dem Einfluss der nationalsozialistischen „Blut- und Rassenlehre“ auch zu „Überzeichnungen und Fehldeutungen“. Weber sah in Hadrian einen typischen „Spanier“ „mit seiner Verachtung des Körpers, seiner Pflege des herrischen Geistes, seinem Willen zu strengster Zucht und seinem Drang, der Macht des Übersinnlichen in der Welt sich hinzugeben, mit ihr sich zu vereinigen, mit seiner Organisationskraft, die sich nie ausgibt, immer Neues ersinnt und mit immer neuen Mitteln das Erdachte zu verwirklichen strebt“. 1923 legte Bernard W. Henderson mit "The Life and principate of the emperor Hadrian A. D. 76–138" für Jahrzehnte die letzte umfangreiche Hadrianmonografie vor. Für die Hadrian-Rezeption nach dem Zweiten Weltkrieg konstatiert Mortensen, es sei zu einer verstärkten Spezialisierung auf lokal oder thematisch eng begrenzte Fragestellungen gekommen. Kennzeichnend sei eine äußerst nüchterne Darstellungsweise mit weitgehendem Verzicht auf Werturteile. Neuerdings seien aber waghalsige Hypothesen und psychologisierende Konstrukte vorgetragen worden; sie erstreckten sich vor allem auf Themen, die bei lückenhafter oder widersprüchlicher Quellenlage eine Rekonstruktion historischer Wirklichkeit unmöglich machten. Für die seriöse Forschung resümiert Mortensen mit Blick vornehmlich auf die Bereiche Außenpolitik, Militärwesen, Förderung des Hellenentums und Reisetätigkeit, infolge des neu gewählten breiteren Blickwinkels entstehe der Eindruck, Hadrian sei für die Probleme seiner Zeit sensibel gewesen und habe angemessen auf Missstände und Notwendigkeiten reagiert. Anthony R. Birley legte 1997 mit "Hadrian. The restless emperor" die seither maßgebliche Darstellung der Ergebnisse der Hadrianforschung vor. Deutlich wird Hadrians Bewunderung für den ersten Princeps Augustus und sein Bestreben, sich als zweiter Augustus zu präsentieren. Seine rastlosen Reisen machten Hadrian zum „sichtbarsten“ Kaiser, den das Römische Reich jemals hatte. Robin Lane Fox hat 2005 seine Darstellung der klassischen Antike, die mit der Zeit Homers einsetzt, mit Hadrian abgeschlossen, weil dieser Herrscher selbst viele Vorlieben klassischer Prägung habe erkennen lassen, sich aber auch als einziger Kaiser auf seinen Reisen ein Gesamtbild der griechisch-römischen Welt aus erster Hand verschafft habe. Lane Fox sieht Hadrian bei seiner panhellenischen Mission ambitionierter noch als ehedem Perikles und findet ihn aus Quellenzeugnissen am deutlichsten fassbar in der Kommunikation mit den Provinzen, aus denen er vielfältige Eingaben ständig zu beantworten hatte. Fast alle Darstellungen sehen Hadrians Prinzipat wegen des außenpolitischen Kurswechsels als Zäsur oder Epochenwende an. Karl Christ hebt hervor, Hadrian habe den militärischen Schutzschild des etwa 60 Millionen Einwohner umfassenden Imperiums geordnet und gestrafft und die Verteidigungsbereitschaft des 30 Legionen und rund 350 Hilfstruppenteile zählenden Heeres systematisch gesteigert. Er bescheinigt Hadrian eine fortschrittliche Gesamtkonzeption. Der Kaiser habe die tiefe Zäsur bewusst herbeigeführt. Dabei habe er keineswegs nur impulsiv auf das Zusammentreffen nicht kalkulierter Katastrophen reagiert, sondern sich für eine kohärente, neue, langfristig angelegte Politik entschieden, die tatsächlich die Entwicklung des Reichs auf Jahrzehnte festgelegt habe. 2008 brachte die Großausstellung "Hadrian: Empire and conflict" in London den bisherigen Höhepunkt der Hadrianforschung. Belletristik. Eine bekannte belletristische Darstellung Hadrians bietet der erstmals 1951 veröffentlichte Roman von Marguerite Yourcenar "Ich zähmte die Wölfin. Die Erinnerungen des Kaisers Hadrian". Yourcenar legte darin nach langjähriger Auseinandersetzung mit den Quellen eine fiktive Autobiographie Hadrians in Ichform als Roman vor. Dieses Buch hat die Wahrnehmung Hadrians in einer breiteren Öffentlichkeit stark geprägt und wurde zu einem wesentlichen Bestandteil von Hadrians moderner Rezeptionsgeschichte. Herat. Herat (, in der Antike "Haraiva[ta]") ist eine Stadt im westlichen Afghanistan im Tal des Hari Rud. Sie ist die Hauptstadt der Provinz Herat und die drittgrößte Stadt des Landes nach Kabul und Kandahar. Ihre Einwohnerzahl beträgt nach einer Berechnung etwa 308.000 für das Jahr 2012, hauptsächlich Tadschiken (Eigenbezeichnung "Farsi"). Geographie. Herat ist eine alte Stadt mit vielen historischen Bauwerken, obwohl diese unter den militärischen Auseinandersetzungen der letzten Jahrzehnte litten. Die meisten Gebäude sind aus Lehmziegeln erbaut. Die kürzlich wiederaufgebaute Zitadelle von Herat, die unter Alexander dem Großen errichtet wurde, beherrscht die Ansicht der Stadt. Im 15. bis 17. Jahrhundert wurde Herat auch als das Florenz Asiens bezeichnet. Die Stadt hat eine günstige Lage an den Handelsrouten zwischen Iran, Indien, der Volksrepublik China und Europa. Die Straßen nach Turkmenistan und in den Iran sind noch immer von strategischer Bedeutung. Im Jahr 2007 haben der Iran und Afghanistan vereinbart eine Eisenbahnlinie aus dem Iran nach Herat zu bauen. Klima. Die Temperaturen schwanken im Winter zwischen 5 und 10 °C und liegen im Sommer um 30 °C. Geschichte. Der iranische Stamm "Aria", altpersisch "Haraiva[ta]", altgriechisch "Artakoana", siedelte um 800 v. Chr. in der Oase Hera. "Artakoana" war die Hauptstadt der Region "Aria" und der gleichnamigen persischen Satrapie. Die unter Alexander erbaute Zitadelle in Herat Alexander der Große eroberte die Stadt 330 v. Chr. und baute sie unter dem Namen "Alexandria in Aria" zu einem militärischen Stützpunkt aus. In dieser Zeit entstand die berühmte Zitadelle der Stadt. Die Region um Herat wurde nach dem Fall der Seleukiden von den einheimischen Parthern erobert – von hier aus begann die Gründung des mächtigen Parther-Imperiums. Mit dem Fall der persischen Sassaniden wurde Herat Teil des muslimischen Kalifats. Die Samaniden erhoben Herat später zu einer Residenzstadt und entwickelten sie zu einem Zentrum der persischen Kunst, Kultur und Literatur. Um 1000 n. Chr. eroberten die türkischen Ghaznawiden die Stadt und circa 1100 die Seldschuken. Ab 1175 herrschten hier die einheimischen Ghuriden, bevor die Stadt 1215 an die Choresm-Schahs fiel. In dieser Zeit war Herat ein wichtiges Zentrum der Herstellung von Metallwaren, besonders Bronze, die oft mit kunstvollen Einlegearbeiten aus wertvollen Metallen verziert wurden. 1221 eroberten die Mongolen unter Dschingis Khan Herat und zerstörten es. Im Jahre 1245 wurde die Stadt an die Kartiden vergeben. Timur Lang zerstörte Herat um 1381. Unter seinem Sohn Schah-Ruch wurde es wieder aufgebaut und zur Hauptstadt Chorasans und des Timuridenreiches erklärt. Schah-Ruchs Frau Gauhar-Schad errichtete hier u. a. den Musallā-Komplex mit seinen zum Teil noch heute stehenden Minaretten. Die Usbeken eroberten Herat 1507; nur wenige Jahre später wurde die Stadt von Ismail Safawi eingenommen. Herat wurde wieder Teil von Persien und blieb bis zur Eroberung durch die Afghanen eine der wichtigsten Städte der Safawiden in Chorasan. Ein Werbeplakat aus dem Jahre 1910 Zwischen 1718 und 1880 gab es viele Schlachten um Herat. 1749 eroberte der Paschtune („Afghane“) Ahmad Schah Durrani Herat von den Persern und vereinigte die Städte Kandahar und Kabul zu seinem neuen afghanischen Reich. Um 1800 begannen Machtkämpfe zwischen den beiden herrschenden Clans der Durranis, die 1819 faktisch ein autonomes Emirat unter der einen Dynastielinie zur Folge hatten. Besitzansprüche der Perser führten im Lauf des 19. Jahrhunderts zu mehreren Schlachten um die Stadt, die 1852 und 1856 von Persern besetzt und zu großen Teilen zerstört wurde. In der ersten Hälfte des 19. Jahrhunderts begann "The Great Game", das politische Schachspiel der beiden europäischen Kolonialmächte Russland und Großbritannien um Zentralasien. Der Konflikt endete 1887, und mit Afghanistan entstand eine Pufferzone zwischen Russland und Britisch-Indien, die gleichzeitig die Unabhängigkeit Persiens und Afghanistans versicherte. Im Jahr 1837 belagerte die persische Armee Mohammed Schah Herat. Der zufällig in Herat anwesende britische Artillerieoffizier Eldred Pottinger bot dem Emir von Herat seine Dienste an. Ihm wurde die Verteidigung übertragen und es gelang, die Stadt zu halten. Der russische Botschafter Graf Simonitsch übernahm das Kommando über die persische Armee. Daraufhin landeten britische Truppen am Persischen Golf. Dies hatte zur Folge, dass sich die persischen Truppen zurückzogen und sowohl Simonitsch, als auch Witkewitsch nach Russland zurückbeordert wurden. Diese Situation führte schließlich zum Ersten Anglo-Afghanischen Krieg. 1863 wurde Herat von Dost Mohammed, dem Begründer der Baraksai-Dynastie eingenommen. 1879 unterstellte sein Enkel Mohammed Yakub Khan, Emir Afghanistans aus Herat, das Land der britischen Kontrolle. Erst mit Abdur Rahman Khan, der von 1880 bis 1901 regierte, kam es zu einer Periode relativer politischer Stabilität und kulturellen Wiederbelebung. Die ausgeprägte Musikszene in Herat war zu dieser Zeit bis Anfang des 20. Jahrhunderts persisch, im Unterschied zu der von Indien beeinflussten Musik Kabuls. Schon vor der sowjetischen Invasion Afghanistans Ende 1979 gab es eine umfangreiche Präsenz von sowjetischen Beratern mit ihren Familien in Herat. Vom 10. bis zum 20. März 1979 meuterte die Armee in der Stadt unter Führung von Ismail Khan und 350 Sowjetbürger wurden getötet. Die Sowjets bombardierten die Stadt, was zu umfangreichen Zerstörungen und zu tausenden Toten führte, und eroberten die Stadt mit Panzern und Fallschirmjägern zurück. Ismail Khan wurde Mudschahidin-Kommandeur und nach dem Abzug der Sowjets Gouverneur von Herat. 1995 eroberten die Taliban Herat. In dieser Zeit entstand das geheime Frauencollege „Goldene-Nadel-Nähschule“. Am 12. November 2001 fiel Herat an die Nordallianz und Ismail Khan kam in der Region wieder an die Macht. Im Jahre 2004 setzte Hamid Karzai Ismail Khan ab und ernannte Said Mohammad Kheir-Khowa zum neuen Gouverneur. Kurz danach rebellierten die Einwohner Herats, da sie mit der Entscheidung Karzais nicht einverstanden waren. Verkehr. Der Flughafen Herat liegt 10 km südöstlich an der Straße nach Farah. Fluglinien wie "Ariana Afghan Airlines", "Kam Air", "Pamir Airways" fliegen ihn an. Seit Juli 2006 ist eine Eisenbahnlinie von Maschad, Iran in Bau. Während die Arbeiten auf iranischer Seite weit fortgeschritten sind steht auf afghanischem Territorium die Konstruktion 2010 offenbar noch aus. Kultur. Illustration zu Dschamis "Haft Awrang" Herat war lange Zeit ein Zentrum der persisch-muslimischen Kulturwelt. Besonders bekannt ist die Stadt für ihre bedeutende Kunst- und Literaturtradition. Einer der bekanntesten Dichter Persiens, Dschami, der gleichzeitig als der letzte bedeutende Sufi-Meister des Mittelalters gilt, war aus Herat. Auch der Halveti- und der Cheschti Sufi-Orden wurden in Herat gegründet. Eine weitere Berühmtheit der Stadt war Ustad Kamal-ud Din Behzad, der bedeutendste Vertreter der persisch-muslimischen Miniaturmalerei. Herat ist zudem für seine handgeknüpften Perserteppiche bekannt. Der (nach der Stadt benannte) "Herat-Stil" gehört zu den teuersten und bekanntesten seiner Art. Bis zum Zerfall des Safawiden-Reichs war Herat, damals auch bekannt als "Perle Persiens", die zweitgrößte Stadt des Königreichs und die wichtigste Metropole im Osten Persiens. Hubschrauber. Ein Hubschrauber oder Helikopter ist ein senkrecht startendes und landendes Luftfahrzeug, das Motor­kraft auf einen oder mehrere Rotoren für Auftrieb und Vortrieb überträgt. Diese arbeiten als sich drehende Tragflächen oder Flügel, weshalb Hubschrauber zu den Drehflüglern zählen. Das Wort Helikopter, kurz auch "Heli", setzt sich zusammen aus "hélix" „Windung, Spirale“ und "pterón" „Flügel“ (Drehflügler). Nicht zu den Hubschraubern gezählt werden Mischformen aus Flugzeug und Drehflügler, beispielsweise Hybride aus Dreh- und Starrflüglern oder Luftfahrzeuge ohne angetriebenen Hauptrotor wie Tragschrauber. Entwicklungsgeschichte. Am 13. November 1907 hob Paul Cornu mit seinem 260 kg schweren "fliegenden Fahrrad" für zwanzig Sekunden senkrecht vom Boden ab – der vermutlich erste freie bemannte Vertikalflug. Er benutzte Tandemrotoren, die von einem 24 PS starken V8-Motor angetrieben wurden. Ab 1910 löste Boris Nikolajewitsch Jurjew einige theoretisch-konstruktive Grundprobleme der Stabilität und des Antriebs und entwickelte die Taumelscheibe. Im Jahre 1913 konstruierte der Dresdner Ingenieur Otto Baumgärtel einen Senkrechtstarter, der durch Verlagerung des Schwerpunktes ohne besonderen Propeller Vorwärtsbewegungen vollführen konnte. Gegen Ende des Ersten Weltkrieges führten die Konstrukteure Stephan Petróczy von Petrócz, Theodor von Kármán und Wilhelm Zurovec im Auftrag der k.u.k. Armee erfolgreiche Flugversuche mit den nach ihnen benannten Schraubenfesselfliegern PKZ-1 und PKZ-2 durch. Durch solche senkrecht aufsteigenden Fluggeräte sollten die bis dahin üblichen Fesselballone zur Feindbeobachtung ersetzt werden. Der PKZ-2 erreichte eine Flughöhe von rund 50 Metern, was zu jener Zeit einen Rekord darstellte. Bei einem Demonstrationsflug am 10. Juni 1918 in Fischamend stürzte das Gerät ab. Der zu Ende gehende Krieg verhinderte eine weitere Entwicklung. Am 11. November 1922 brachte Étienne Oehmichen erstmals sein Oehmichen No. 2 in die Luft, den wohl ersten zuverlässig fliegenden manntragenden Senkrechtstarter, der eine Quadrocopter-Bauweise benutzte. Bei der Entwicklung seines Autogiro gelangen Juan de la Cierva (Spanien) 1923 wesentliche Lösungen zur Stabilisierung des Rotors eines Drehflüglers, so z. B. die Schlaggelenke. Am 18. April 1924 schlug der von Raúl Pateras Pescara entwickelte Pescara No. 3 den vier Tage vorher von Oehmichen aufgestellten Weltrekord für Rotorflugzeuge um das Doppelte und setzte dabei erstmals zyklische Blattverstellung ein, um den Hauptrotor zum Vortrieb zu nutzen. In den frühen 1930er Jahren bauten Louis Charles Breguet und René Dorand mit dem Gyroplane-Laboratoire den ersten längere Zeit stabil fliegenden Hubschrauber. Er hatte Koaxialrotoren und hielt ab Juni 1935 alle internationalen Rekorde für Hubschrauber. Die Focke-Wulf Fw 61, die zwei seitlich angeordnete Rotoren benutzte, konnte beim Jungfernflug im Juni 1936 eine Reihe von bisherigen Weltrekorden bei Hubschraubern brechen. Sie war zudem der erste Hubschrauber, mit dem eine Autorotationslandung gelang. 1941 war die deutsche Focke-Achgelis Fa 223 der erste in Serie gebaute Hubschrauber, ebenfalls mit zwei seitlich angeordneten Rotoren. Es folgten 1943 die Flettner Fl 282, ebenfalls mit Doppelrotor, und 1944 die Sikorsky R-4 „Hoverfly“ in den USA, die wie ihr Vorgänger Sikorsky VS-300 einen Einzelrotor zusammen mit einem Heckrotor verwendete. Am 8. März 1946 erhielt die Bell 47 der Bell Aircraft Corporation, ein leichter zwei- oder dreisitziger Hubschrauber, als erster ziviler Hubschrauber die Flugzulassung in den USA. Seine Varianten waren bis in die 1980er Jahre und darüber hinaus weltweit anzutreffen. 1955 rüstete die französische Firma Sud Aviation ihren Hubschrauber Alouette II mit einer 250-kW-Turboméca-Artouste-Wellenturbine aus und baute damit den ersten Hubschrauber mit Gasturbinenantrieb, der heute von fast allen kommerziellen Herstellern verwendet wird. Lediglich Robinson (Robinson R22 und Robinson R44), Brantly (Brantly B-2 bzw. Brantly 305) und Sikorsky (Schweizer 300C) stellen noch Hubschrauber mit Kolbenmotoren her. Die mit bis heute 16.000 Exemplaren meistgebaute Hubschrauberfamilie, die Bell 204 – militärisch Bell UH-1 genannt – startete am 22. Oktober 1956 zu ihrem Jungfernflug. Die deutsche Bölkow Bo 105 wurde 1967 als erster Hubschrauber mit einem gelenklosen Rotorkopf zusammen mit GFK-Rotorblättern, die erstmals bei der Kamow Ka-26 zum Einsatz gekommen waren, ausgerüstet. Der Eurocopter EC 135 als aktueller Nachfolger benutzt eine weiterentwickelte Form, den sogenannten gelenk- und lagerlosen Rotorkopf. Dort wurden auch die Lager für die Blattwinkelverstellung durch ein aus glasfaserverstärktem Kunststoff bestehendes Drillsteuerelement mit Steuertüte ersetzt. 1968 startete mit der sowjetischen Mil Mi-12 der größte jemals gebaute Hubschrauber. Er verfügt über nebeneinander angeordnete Rotoren, ein maximales Startgewicht von 105 t bei einer maximalen Nutzlast von 40 t und 196 Passagierplätzen. Nach drei Prototypen, die eine Reihe von Rekorden erzielten, wurde die Produktion eingestellt. 1977 fand der Jungfernflug des größten in Serie gebauten Helikopters statt, der Mil Mi-26, die bis heute produziert und eingesetzt wird. Ab 1983 entstand mit der RAH-66 Comanche ein Kampfhubschrauber mit Tarnkappentechnik, dessen Fertigung jedoch kurz vor Erreichen der Einsatzreife 2004 gestoppt wurde. 1984 flog erstmals die Sikorsky X-wing, deren Rotor beim Vorwärtsflug angehalten und festgestellt wird und dann als zusätzliche Tragfläche dient. Wie bei anderen VTOL-Konzepten sollen damit gegenüber reinen Drehflüglern bessere Flugleistungen erreicht werden. Es blieb bei einem Prototyp. Im August 2008 bewies der Sikorsky X2 im Erstflug die Tauglichkeit des mit neuesten Verfahren optimierten Koaxial-Rotors in Kombination mit einem Schubpropeller - dem Prinzip der früheren Tragschrauber. Zwei Jahre später erreichte er mit 250 Knoten True Airspeed (463 km/h) das Entwicklungsziel und überbot damit den bisherigen Geschwindigkeitsrekord um 15 %. Auch andere Hersteller erprobten ähnliche neue Hochgeschwindigkeits-Muster, so Eurocopter den X³ und Kamow den Ka-92. Funktion. Die rotierenden Rotorblätter erzeugen durch die anströmende Luft einen dynamischen Auftrieb. Wie bei den starren Tragflächen eines Flugzeugs ist dieser unter anderem abhängig von ihrem Profil, dem Anstellwinkel und der Anströmgeschwindigkeit der Luft. Beim schwebenden Hubschrauber ist die Anströmgeschwindigkeit gleich der Umlaufgeschwindigkeit. Wenn ein Hubschrauber sich vorwärts bewegt, ändert sich die Anströmgeschwindigkeit, da sich Umlauf- und Fluggeschwindigkeit des nach vorne bewegten Blattes addieren. Beim zurücklaufenden Blatt subtrahieren sie sich, siehe auch die Skizze weiter unten. Durch die Aerodynamik der Rotorblätter entstehen beim Flug asymmetrische Kräfte auf die jeweils nach vorne und nach hinten bewegten Blätter, die bei älteren Modellen durch Schlag- und Schwenkgelenke an der Befestigung, dem Rotorkopf, aufgefangen werden mussten. Neuere Konstruktionen kommen ohne diese Gelenke aus. Rotorkopf und -blätter bestehen bei diesen neueren Modellen aus einem Verbund von Materialien unterschiedlicher Elastizität (Elastomere sowie hochfeste und leichte Metalle wie Titan), welche die in Größe und Richtung sich ständig ändernden dynamischen Kräfte bewältigen können, ohne dass die Bauteile hierdurch Schaden nehmen. Ein solcher "gelenkloser Rotorkopf" wurde erstmals bei der Bo 105 durch Blätter aus glasfaserverstärktem Kunststoff und einem massiven Rotorkopf aus Titan im Verbund mit Elastomeren realisiert. Beim EC 135 wurde dieser zum "lagerlosen Rotorkopf" weiterentwickelt, der sich bei den meisten Modellen durchgesetzt hat. Blattverstellung. Die "zyklische" (auch "rotationsperiodische") "Blattverstellung" – allgemein auch "Blattsteuerung" genannt – dient der Steuerung der Horizontalbewegung des Hubschraubers, die eine Neigung der Haupt-Rotorebene erfordert. Zum Einleiten oder Beenden von Vorwärts-, Rückwärts- oder Seitwärtsflug werden die Einstellwinkel der Blätter während des Umlaufs des Rotors "(zyklisch)" verändert. Das führt zu einer zyklischen Schlagbewegung der Blätter, sodass ihre Blattspitzen auf einer Ebene umlaufen, die sich in der beabsichtigten Richtung neigt. Der Auftrieb bleibt auf dem gesamten Umlauf konstant. Dementsprechend steht der Rotorschub, der den Hubschrauber trägt und vorwärtsbringt, im rechten Winkel zur Blattspitzenebene. Die im Schwebeflug rein senkrecht hebende Kraft erhält durch diese Neigung nun einen nach vorne treibenden Schub. Aufgrund des Rumpfwiderstandes neigt sich der gesamte Hubschrauber und damit auch seine Rotorwelle ebenfalls in Flugrichtung. Wenn der Schwerpunkt des Hubschraubers (bei geeigneter Beladung) in Verlängerung der Rotorwelle liegt, geht der Schub bei jeder gleichbleibenden Fahrt durch den Schwerpunkt. Die Blattspitzenebene ist dann im rechten Winkel zur Rotorwelle, und Schlagbewegungen finden dann nicht statt. Sie gibt es nur bei anderen Schwerpunktlagen oder wenn die Fluggeschwindigkeit geändert werden soll. Mit der "kollektiven Blattverstellung" oder Pitch verändert der Pilot den Anstellwinkel aller Rotorblätter gleichmäßig, was zum Steigen oder Sinken des Hubschraubers führt. Einfache Konstruktionen, etwa bei verschiedenen Elektroantrieben in Modellhubschraubern, ersetzen diese Steuerung durch eine Drehzahländerung. Nachteilig ist dabei die längere Reaktionszeit durch die Massen-Trägheit des Hauptrotors. Die Rotorblätter werden meist mit einer Taumelscheibe angesteuert. Deren unterer, feststehender Teil wird vom Piloten mit Hilfe des „kollektiven“ Verstellhebels nach oben oder unten verschoben. Mit dem „zyklischen“ Steuerknüppel kann dieser wiederum in jede Richtung geneigt werden. Der obere (sich mit dem Rotor drehende) Teil der Taumelscheibe überträgt über Stoßstangen und Hebel an den Blattwurzeln den gewünschten Einstellwinkel auf die Rotorblätter. Rotorvarianten und Giermomentausgleich. Ein System mit zwei Rotoren ist zwar technisch die effizientere Konstruktion, da alle Rotoren zum Auf- und Vortrieb genutzt werden, während der Heckrotor im Schwebeflug etwa 15 % der Gesamtleistung kostet. In der Praxis hat sich aber weitgehend das Einrotorsystem mit einem Heckrotor durchgesetzt. Ökonomisch schlagen hier die niedrigeren Bau- und Wartungskosten bei nur je einem Rotorkopf und Getriebe ins Gewicht, da diese die beiden aufwendigsten und empfindlichsten Baugruppen eines Hubschraubers sind. Heckrotoren gibt es in Ausführungen mit zwei bis fünf Blättern. Um den Lärm zu verringern, werden teils vierblättrige Rotoren in X-Form eingesetzt. Eine besonders leise Variante ist der Fenestron, ein ummantelter Propeller im Heckausleger mit bis zu 18 Blättern. Meist wird der Heckrotor aus dem Hauptgetriebe über Wellen und Umlenkgetriebe angetrieben, sodass seine Drehzahl stets proportional zu der des Hauptrotors ist. Der Schub zur Steuerung um die Gierachse wird dann vom Piloten mit den Pedalen über den Einstellwinkel der Heckrotorblätter geregelt, analog der kollektiven Verstellung des Hauptrotors. Während des Reiseflugs wird bei vielen Konstruktionen der Heckrotor dadurch entlastet, dass ein Seitenleitwerk das Giermoment weitgehend kompensiert. Dies wird meist durch Endscheiben an der horizontalen Dämpfungsfläche realisiert, die zur Rumpflängsachse schräg gestellt sind, bei einer einzelnen Seitenflosse in der Regel zusätzlich durch ein asymmetrisches Profil. Notsteuerung und Autorotation. Sollte der Antrieb ausfallen, können Hubschrauber trotzdem noch landen. Dazu muss der Pilot in einen steilen Sinkflug übergehen, wobei der freilaufende Rotor durch die nun von unten nach oben anströmende Luft in Drehung gehalten bzw. möglichst beschleunigt wird, um den Drehimpuls zu erhalten oder zu erhöhen. Diese daraus resultierende Autorotation wie beim Tragschrauber liefert den die Sinkgeschwindigkeit limitierenden Auftrieb und unterstützt den Helikopter beim Halten in aufrechter Position. Ein Giermomentausgleich ist dabei nicht notwendig, da nur das geringe Moment aus der Lagerreibung (im Hauptrotorkopf, Getriebe und Antrieb) auszugleichen wäre, das aber bis zur Landung nicht zu einem kritischen Anstieg der Gierrate führt. Eine solche Landung ist daher auch beim Ausfall des Heckrotors möglich, zum Beispiel bei Bruch der Antriebswelle für den Heckrotor, des Winkelgetriebes zum Heckrotor oder gar des ganzen Heckauslegers. Kritisch ist schon das Erreichen eines geeigneten Platzes für diese Notlandung. Kurz vor dem Erreichen des Bodens wird nun der kollektive Einstellwinkel (Anstellwinkel) von leicht negativ auf positiv vergrößert, um den Auftrieb deutlich zu erhöhen. Damit wird das Sinken mit dem Ziel eines halbwegs sanften und für Technik und Besatzung sicheren Aufsetzens abgebremst, doch auch die Rotordrehung. Der Drehimpuls des Rotors nimmt dabei ab, seine Energie wird aufgezehrt, es gibt daher nur einen Versuch für dieses heikle Manöver. Der Verlust der Steuerung um die Hochachse und die Notwendigkeit, den richtigen Moment genau zu treffen, da der Drehimpuls des Rotors nur für einen Versuch ausreicht, macht dieses Manöver jedoch stets riskant. Weiterhin bedarf es einer Mindesthöhe über Grund, da beim Ausfall des Hauptantriebes ein Durchsacken unvermeidlich ist und auch Zeit benötigt wird, um in die neue Fluglage überzuleiten. Steuerung. a> L1 „Super Puma“ der deutschen Bundespolizei Ein Hubschrauber ist ein nicht eigenstabiles Luftfahrzeug – er hat vor allem im Schwebeflug und langsamen Flug stets die Tendenz, seine Fluglage zu verlassen und in die eine oder andere Richtung zu schieben, sich zu neigen oder zu drehen. Dies ist u. a. darin begründet, dass der Neutralpunkt über dem Rumpf und damit über dem Schwerpunkt liegt. Der Pilot muss diese Bewegungen durch kontinuierliche, entgegenwirkende Steuereingaben abfangen. Bei einer Fluggeschwindigkeit oberhalb von ca. 100 km/h verhält sich ein Hubschrauber ähnlich wie ein Tragflächenflugzeug und ist entsprechend einfach zu steuern. Besondere Gefahren beinhaltet die Landung, da bei einem Motorausfall in zu geringer Höhe nicht genug Reserven vorhanden sind, in Autorotation überzugehen. Bei der Bodenberührung kann die sogenannte Bodenresonanz auftreten, die sehr schnell zur Zerstörung des Hubschraubers führen kann. Flugleistungen. Geschwindigkeitsüberlagerung am vor- und rücklaufenden Blatt Die Höchstgeschwindigkeit liegt meist zwischen 200 und 300 km/h, einige Kampfhubschrauber erreichen über 360 km/h. Der Geschwindigkeitsrekord liegt bei 472 km/h und wurde am 7. Juni 2013 mit einem Eurocopter X3 erzielt. Die Höchstgeschwindigkeit wird dabei durch die Aerodynamik der Rotorblätter begrenzt: Das jeweils "nach vorne laufende" Blatt hat gegenüber der von vorn anströmenden Luft eine höhere Geschwindigkeit als das nach hinten laufende. Nähert sich nun das vorlaufende Blatt im Außenbereich der Schallgeschwindigkeit, kommt es dort zu einem Abfall des Auftriebs, starker Erhöhung des Widerstands und großer Blattbeanspruchung durch Torsionsmomente. Dies äußert sich etwa in starken Schwingungen und erschwert so dem Piloten die Kontrolle über den Hubschrauber. Für einen typischen Rotordurchmesser von 10 m bedeutet dies, dass der Rotor nicht mehr als ca. 11 Umdrehungen pro Sekunde (das sind 660 Umdrehungen pro Minute) ausführen kann, ohne dass in den Außenbereichen der Rotorblätter die Schallgeschwindigkeit (ca. 343 m/s bei 20 °C) überschritten wird. Typische Drehzahlen des Rotors im Betrieb liegen daher deutlich unter diesem Wert. Häufig wird die Geschwindigkeit eines Hubschraubers jedoch durch das "rücklaufende" Rotorblatt begrenzt: Hier führt die Kombination aus hohem Anstellwinkel (zyklische Verstellung, s. o.) und geringer Strömungsgeschwindigkeit zum Strömungsabriss und damit zum Auftriebsverlust. Viele Hubschrauber kippen daher beim Erreichen der kritischen Geschwindigkeit zuerst auf die Seite, auf der sich die Rotorblätter nach hinten drehen, bevor die nach vorne drehenden Blätter in den Überschallbereich gelangen. Auch die Gipfelhöhe ist begrenzt und liegt typisch etwa bei 5.000 Metern, wobei einzelne Modelle bis zu 9.000 Meter erreichen. Der FAI-Höhenrekord von 12.442 m wurde im Juni 1972 von Jean Boulet mit einer Aérospatiale SA-315 aufgestellt. Erst im März 2002 wurde er durch einen Flug von Fred North mit einem Eurocopter AS 350 überboten (12.954 m), der allerdings bisher (2012) von der FAI nicht als offizieller Rekord anerkannt wurde. Der Kraftstoffverbrauch eines Hubschraubers liegt bei gleicher Zuladung auf die Flugstrecke bezogen meist deutlich über dem eines Tragflächenflugzeugs. Aber ein Vorteil des Hubschraubers liegt in der Fähigkeit, in der Luft stehen zu bleiben (Schwebeflug, auch "Hover" genannt), rückwärts oder seitwärts zu fliegen sowie sich im langsamen Flug um die Hochachse (Gierachse) zu drehen. Weiterhin kann er senkrecht starten und landen (VTOL) und benötigt daher keine Start- und Landebahn. Steht kein regulärer Hubschrauberlandeplatz zur Verfügung, reicht dazu bereits ein ebener und hindernisfreier Platz von ausreichendem Durchmesser. Verwendung. Der Betrieb eines modernen Hubschraubers ist im Vergleich zu einem Flächenflugzeug mit vergleichbarer Zuladung deutlich teurer. Dennoch ergeben sich aufgrund seiner Fähigkeit, auf unvorbereitetem Gelände starten und landen zu können, eine Reihe von zusätzlichen Einsatzgebieten, unterscheidbar in zivile und militärische. Zivile Verwendung. Die häufigste Verwendung in Mitteleuropa ist, gemessen am Flugstundenaufkommen, mit Abstand der Arbeitsflug. Dazu zählen die Überwachung von Strom-, Gas- und Öltransportleitungen, Flüge in der Land- und Forstwirtschaft, Außenlastflüge, Vermessungsflüge, Bildflüge, Waldbrandbekämpfung etc. Das Spannen einer Vorausleine für das Seilziehen einer Seilbahn, Freileitung oder Seilbrücke kann auch mit einem Modellhubschrauber erfolgen. Zum Trimmen von Baumbewuchs an Freileitungstrassen wird ein verdrehfest vom Helikopter hängendes Schwert mit acht großen Kreissägeblättern verwendet. Ein Militärhubschrauber wurde eingesetzt, um per Downwash außerordentlich starken Schneebelag, der Äste zum Brechen bringen könnte, von Bäumen entlang einer gesperrten Bahntrasse zu blasen. Ein weiteres wichtiges Einsatzfeld ist die Luftrettung mit dem Rettungshubschrauber, wofür es allein in Deutschland über 50 Stützpunkte gibt. Weitere Spezialisierungen stellen Intensivtransporthubschrauber, Großraum-Rettungshubschrauber, Notarzteinsatzhubschrauber und Bergrettungsdienst dar. Auch bei der Polizei und bei der Feuerwehr sind Hubschrauber zu einem wichtigen unterstützenden Faktor geworden. Für den zivilen Passagiertransport werden Transporthubschrauber eingesetzt, etwa bei Bohrinseln, wo sie ein wichtiges Element der Logistik darstellen. Eine weitere Anwendung ist der Frachttransport, wenn Güter schnell direkt an einen bestimmten Ort zu bringen sind. Im Hochgebirge ist der Transport von Baumaterial und Bauteilen mangels geeigneter Landwege oft wichtig für die Errichtung und Versorgung von alpinen Einrichtungen. Gleiches gilt für Montagearbeiten an unzugänglichen Stellen; mitunter werden Hubschrauber dort auch als Baukran eingesetzt. Alpine Schutzhütten, die nicht mit Fahrzeugen erreichbar sind und bis in die siebziger Jahre mit Tragtieren oder bei schwierigeren Zugangswegen mit Trägern versorgt wurden, erhalten heute den Lebensmittelnachschub und die Entsorgung überwiegend mit dem Hubschrauber. In nichtmechanisierbaren steilen Weinbergen werden Pflanzenschutzmittel zum Teil von Hubschraubern versprüht. Im Touristikbereich werden Rundflüge und Heliskiing angeboten. Eine weitere Verwendung von Hubschraubern ist der Kunstflug, bei dem die hohe Belastbarkeit moderner Hubschrauberkonzepte, vor allem der Rotoren und deren Steuerung, demonstriert wird. In Deutschland sind 745 Hubschrauber zugelassen (Stand 2014). Sie haben die Kennzeichenklasse H, tragen also ein Luftfahrzeugkennzeichen der Form D-Hxxx. Militärische Verwendung. Neben dem überwiegenden Einsatz als Transporthubschrauber zum Truppentransport findet man als weitere typische militärische Anwendungen Unfälle. Verglichen mit Tragflächenflugzeugen weisen Hubschrauber eine deutlich höhere Unfallhäufigkeit auf: Zwischen 1980 und 1998 verzeichnete die Bundesstelle für Flugunfalluntersuchung (BFU) bei Hubschraubern statistisch pro einer Million Abflüge 54 Unfälle mit sechs Toten, bei Tragflächenflugzeugen lediglich zehn Unfälle mit 1,6 Toten. Die Unfallursachen liegen dabei anteilig mit über 80 % im menschlichen Versagen. Aus Sicht der Technik sind Hubschrauber nicht unsicherer als Tragflächenflugzeuge und werden unter den gleichen Zuverlässigkeitsforderungen ausgelegt und zugelassen. Die höhere Unfallgefahr kann mehr durch die Einsatzbedingungen erklärt werden: Rettungsdienste und Militär können einen Einsatzort nicht vorher bestimmen, Hindernisse wie Antennen oder Stromleitungen sind dem Piloten dann teilweise unbekannt. Einsätze im Hochgebirge, wie Lastentransport und Bergrettung, können wiederum durch die geringere Luftdichte und Abwinde den Antrieb an die Leistungsgrenze bringen. Bei dessen Ausfall sind zudem die Bedingungen für eine Autorotations-Landung häufig schlecht. Optionale Seilschneider oberhalb und unterhalb der Kabine können in bestimmten Situation Seile durchschneiden, um Unfälle zu verhindern. Seile von Stromleitungen, Mastabspannungen und Seilbahnen sind nur teilweise markiert und auf 50.000er-Detailkarten verzeichnet und stellen eine besondere Gefahr bei niedrigen Flügen dar. Wichtige Hersteller. Marinehubschrauber russischer Bauart, Mil Mi-14 der polnischen Marine Heißluftballon. Der Heißluftballon ist ein Luftfahrzeug, das den statischen Auftrieb warmer Luft in seinem Inneren nutzt. In der Ballonhülle wird eine große Luftmenge erwärmt. Dadurch dehnt sich die Luft aus, was ihr spezifisches Gewicht reduziert. Der Ballon hebt ab, wenn der Auftrieb der erwärmten Luftmenge der Gewichtskraft von Hülle, Korb und Nutzlast entspricht. Der Heißluftballon besitzt keine Tragestruktur – der Korb hängt (über Seile) an der Hülle oder diese wird von Seilen umspannt, an denen der Korb hängt. Bemannte Ballone werden üblicherweise mit Propan-Gasbrennern, häufig sogenannten Kuhbrennern betrieben. Geschichte. Nach den viel älteren Fesseldrachen, die teilweise auch bemannt waren, ist der Heißluftballon das älteste Luftfahrzeug. Allerdings gab es schon in China kleine, unbemannte Heißluftballons, die sogenannten Kong-Ming-Laternen. Die Beobachtung, dass Rauch und heiße Luft nach oben steigt, führte immer wieder zu Versuchen mit erwärmter Luft. Der Jesuitenpater Bartolomeu de Gusmão führte zeitgenössischen Berichten zufolge einige Ballon-Modelle am portugiesischen Hof vor und erbat von König Johann V. ein Patent. Den Schritt von eher spielerischen Modellen zum praktisch nutzbaren Luftfahrtzeug leisteten die Brüder Joseph Michel und Jacques Etienne Montgolfier, die deshalb als Erfinder des Heißluftballons gelten. Deren erste Ballonfahrt fand am 4. oder 5. Juni 1783 statt, Menschen waren nicht an Bord. Die zweite Fahrt fand am 19. September in Versailles statt. Weil man der Sache aber noch nicht richtig traute, und auch noch nichts über das „Luftmeer“ wusste, zog man es vor, statt Menschen drei Tiere, nämlich einen Hahn, eine Ente und einen Hammel zu befördern. Heißluftballons wurden nach ihren Erfindern auch Montgolfièren genannt. Die ersten Ballonfahrer in der Menschheitsgeschichte waren Jean-François Pilâtre de Rozier und der Gardeoffizier François d’Arlandes, die am 21. November 1783 aus dem Garten des Schlosses La Muette bei Paris mit einem Heißluftballon aufstiegen. Die erste bekannte Ballonfahrt außerhalb Frankreichs wurde von Don Paolo Andreani und den Brüdern Agostino und Carlo Gerli am 25. Februar 1784 in der Nähe von Mailand unternommen. Zuvor experimentierte Ulrich Schiegg unter dem Eindruck der Versuche der Gebrüder Montgolfier mit Heißluftballons und konnte am 22. Januar 1784 den ersten (unbemannten) Ballonstart Deutschlands durchführen. Eine Fahrt bis in eine Höhe von 69.852 Fuß (über 21 Kilometer) gelang am 26. November 2005 dem indischen Millionär Vijaypat Singhania. Sein Start erfolgte in Mumbai, Landeort war die Stadt Sinnar im Bundesstaat Maharashtra. Physik. Unter Normalbedingungen bei 0 °C auf Meereshöhe besitzt ein Kubikmeter Luft eine Masse von etwa 1,3 kg. Bei konstantem Druck sinkt die Dichte von Gasen mit steigender Temperatur nach dem Gesetz von Gay-Lussac. Durch den Dichteunterschied der kälteren äußeren Luft und der wärmeren Luft im Ballon entsteht so eine Auftriebskraft. Diese wirkt der Schwerkraft (dem Gewicht) des Heißluftballons entgegen. Das Gewicht des Heißluftballons setzt sich zusammen aus dem Gewicht der Ballonhülle plus dem Gewicht der ihm angehängten Nutzlast (Korb mit Brenner, Gasbehältern und Insassen). Für eine erste grobe Abschätzung der Tragkraft eines Ballons kann dieser als Kugel betrachtet werden. Da das Volumen einer Kugel (und damit der Auftrieb des Ballons) mit der dritten, die Oberfläche (und damit das Gewicht der Hülle) aber nur mit der zweiten Potenz des Durchmessers zunimmt, kann ein größerer Ballon eine größere Nutzlast tragen. Verfeinerte Betrachtungen beziehen die Umstände mit ein, dass mit steigendem Ballondurchmesser schwerere Brenner und festere Hüllen benötigt werden. Gängige Größen sind 3.000 bis 10.000 Kubikmeter. Die Temperatur im Innern eines Heißluftballons beträgt während einer Ballonfahrt zwischen 70 und 125 °C, je nach Stoffart, Zuladung und Außentemperatur. Da der Auftrieb mit zunehmendem Dichteunterschied der inneren Luft zur Umgebungsluft wächst, hat ein Heißluftballon in tieferen Luftschichten mit höherem Luftdruck und bei kälteren Außentemperaturen eine größere maximale Tragkraft. Die Hülle gibt Wärme an die deshalb daran langsam hochstreichende Außenluft ab; zusätzlich strahlt sie Wärme rundum ab, während Sonnenstrahlung von einer Seite erwärmen kann. Ballonwetter. Start und Landung eines Heißluftballons werden leicht durch Wind beeinträchtigt. Durch die große Angriffsfläche der Ballonhülle treten potentiell große Kräfte auf. Wenn der Auftrieb schon groß ist, aber noch nicht ausreicht, um den Ballon vollständig abheben zu lassen, wird die Gondel buchstäblich über den Boden geschleift. Dies kann bei Hindernissen die Insassen der Gondel gefährden. Ballonfahrten werden daher grundsätzlich nur bei Windstille oder schwachem Wind am Boden gestartet. Abgesehen von der Windgeschwindigkeit bei Start und Landung ist das Ballonfahren auch davon abhängig, dass sich in der Luft keine starke Thermik aufgebaut hat. Da die Ballonhülle nach unten offen ist, könnten thermische Böen diese zusammendrücken und die Heißluft nach unten heraus pressen. Der Ballon verliert damit einen Teil seines Auftriebs. Dadurch beginnt er schnell zu sinken. Dies erzeugt zusätzlichen Fahrtwind von unten, der die Hülle weiter komprimiert und mehr Heißluft heraus presst. Dies kann zu einem sich selbst beschleunigenden Absturz führen, der auch durch maximale Wärmezufuhr durch den Brenner nicht aufzuhalten ist. Seitliche Böen, wie sie beim Durchgang einer meteorologischen Front auftreten, können ebenfalls den Ballon verformen und Heißluft herausdrücken. Auch weniger starke Thermik geht grundsätzlich mit steigender und sinkenden Luftmassen einher. Dies führt zu der Notwendigkeit, mehr zu heizen, um die gewünschte Höhe zu halten. Mit gleicher Gasmenge kann ein Heißluftballon sich daher ohne Thermik länger in der Luft halten. Haufenwolken sind ein sicheres Anzeichen für Thermik oder den Durchgang einer Kaltfront. Massive Nimbostratus-Wolken treten beim Durchgang einer Warmfront auf. Bei tiefliegenden Schichtwolken ist zwar in der Regel die Luft ruhig, aber es fehlt die Sicht. Hoch liegende Cirrus-Wolken sind dagegen kein Anzeichen für unruhige Luft. Deshalb finden Ballonfahrten bevorzugt bei ruhiger Wetterlage und weitgehend wolkenlosem Himmel statt. Im Sommer heizt die Sonne den Boden im Laufe des Tages auf. Die aufsteigende warme Bodenluft erzeugt Thermik, die sich bis zum frühen Nachmittag verstärkt und dann mit sinkendem Sonnenstand wieder nachlässt. Die Morgen- und Abendstunden sind daher häufig besonders geeignet für einen sicheren Ballonflug. Steuerung. Es ist nicht möglich, einen Ballon direkt zu steuern. Um auf die Fahrtrichtung und -geschwindigkeit Einfluss zu nehmen, werden die sich in unterschiedlichen Höhen voneinander unterscheidenden Windrichtungen und -geschwindigkeiten ausgenutzt. Durch gezieltes Steigen oder Sinken können Winde so ausgenutzt werden, um sich einem gewünschten Ziel zu nähern. Durch Betätigung des Brenners wird die Luft in der Hülle erwärmt, wodurch der Ballon steigt. Durch langsames Abkühlen der Luft beginnt der Ballon wieder zu sinken. Ein rasches Sinken des Ballons kann durch das Öffnen des sogenannten „Parachutes“ erfolgen. Der Parachute ist aus demselben Material wie die Hülle und befindet sich an der Spitze des Ballons. Während des Aufrüstens wird der Parachute durch Klettverschlüsse mit der umgebenden Hülle verbunden und geschlossen. Während der Fahrt bleibt der Parachute durch den Druck der aufsteigenden warmen Luft geschlossen. Durch Ziehen an einem Seil kann der Pilot den Parachute öffnen. Dadurch kann warme Luft schnell aus der Hülle entweichen. Durch Loslassen der Leine wird der Parachute wieder durch die warme Luft geschlossen. Mittels tangentialem Luftaustritt durch Luftschlitze nahe dem Ballonäquator, welche auch „Drehventile“ genannt werden und per Seilzug aus dem Ballonkorb bedient werden, kann ein Ballon um seine Hochachse gedreht werden, etwa um den Korb zur Landung günstig auszurichten oder dem Piloten freie Sicht in die Fahrtrichtung zu gewähren. Ballonsport. Ballonfahren ist nicht nur eine Freizeitaktivität, sondern es gibt auch Wettbewerbe bis hin zur Weltmeisterschaft. Bei den Wettbewerben werden mehrere Ballonfahrten durchgeführt, bei denen je Fahrt meist mehrere Aufgaben bestmöglich gelöst werden müssen. Ein bekannter Ballonwettbewerb ist die Montgolfiade. Bei den meisten Aufgabentypen kommt es darauf an, mit einem kleinen Markierungsbeutel (Beanbag, Marker) ein bestimmtes Ziel zu treffen. Das Ziel ist entweder bereits vor der Fahrt bekannt („Vorgegebenes Ziel“) oder wird vom Piloten vor der Fahrt („Selbstgewähltes Ziel“) oder währenddessen bestimmt und auf den Marker einer vorherigen Aufgabe geschrieben („Fly on“). Weitere Aufgabentypen sind beispielsweise die Weitfahrt innerhalb eines begrenzten Wertungsgebietes („Maximum Distance“) oder aber auch die „Minimum Distance“ mit „Zeitvorgabe“, bei der der Pilot gewinnt, der nach einer vorgegebenen Mindestfahrtzeit die kürzeste Strecke zurückgelegt hat. Bei der „Fuchsjagd“ startet ein Ballon, der in der Regel mit einer Flagge gekennzeichnet wird, mit einem gewissen Zeitvorsprung und legt am Landeort ein Zielkreuz für die nachfolgenden Ballons aus, an dem die nachfolgenden Ballonfahrer möglichst nah zu landen haben. Die Wettbewerbsleitung wird dabei von Observern unterstützt. Jedem Piloten und seinem Team wird pro Fahrt ein Observer zugeteilt. Diese fungieren als Schiedsrichter. Sie messen die Marker ein und beobachten, ob während der Fahrt alles gemäß den Regeln abgelaufen ist. Unfälle. Eine Liste hierzu findet sich im Artikel Ballonfahren. Ägyptische Hieroglyphen. Die ägyptischen Hieroglyphen ("hierós" 'heilig', "glyphḗ" 'Eingeritztes') sind die Zeichen des ältesten bekannten ägyptischen Schriftsystems, das von etwa 3200 v. Chr. bis 300 n. Chr. im Alten Ägypten und in Nubien für die früh-, alt-, mittel- und neuägyptische Sprache sowie für das sogenannte ptolemäische Ägyptisch benutzt wurde. Die ägyptischen Hieroglyphen hatten ursprünglich den Charakter einer reinen Bilderschrift. Im weiteren Verlauf kamen Konsonanten- und Sinnzeichen hinzu, so dass sich die Hieroglyphenschrift aus Lautzeichen (Phonogrammen), Bildzeichen (Ideogrammen) und Deutzeichen (Determinativen) zusammensetzt. Mit ursprünglich etwa 700 und in der griechisch-römischen Zeit etwa 7000 Zeichen gehören die ägyptischen Hieroglyphen zu den umfangreicheren Schriftsystemen. Eine Reihenfolge ähnlich einem Alphabet existierte ursprünglich nicht. Erst in der Spätzeit wurden Einkonsonantenzeichen vermutlich in einer alphabetischen Reihenfolge angeordnet, die große Ähnlichkeiten mit den südsemitischen Alphabeten zeigt. Name. Unvollendete Hieroglyphen zeigen den Entstehungsprozess der Einritzungen mit Vorzeichnung und Ausführung, 5. Dynastie, um 2400 v. Chr. Die Bezeichnung „Hieroglyphen“ ist die eingedeutschte Form des altgriechischen "hieroglyphikà grámmata" „heilige Schriftzeichen“ oder „heilige Einkerbungen“, das aus "hierós" „heilig“ und "glýphō" „(in Stein) gravieren/ritzen“ zusammengesetzt ist. Diese Bezeichnung ist die Übersetzung des ägyptischen. „Schrift der Gottesworte“, das die göttliche Herkunft der Hieroglyphenschrift andeutet. Geschichte. Dieses Bild ist ein gutes Beispiel für die starke Bildhaftigkeit, mit der Hieroglyphen oft geschrieben wurden. Frühzeit und Entstehung. Nach der altägyptischen Überlieferung hat Thot, der Gott der Weisheit, die Hieroglyphen geschaffen. Die Ägypter nannten sie daher „Schrift der Gottesworte“. Die Anfänge dieser Schrift lassen sich bis in die prädynastische Zeit zurückverfolgen. Die früher gewöhnlich zugunsten der Keilschrift entschiedene Frage, ob die sumerische Keilschrift oder die ägyptischen Hieroglyphen die früheste menschliche Schrift darstellen, muss wieder als offen gelten, seit die möglicherweise bislang ältesten bekannten Hieroglyphenfunde aus der Zeit um 3200 v. Chr. (Naqada III) in Abydos aus dem prädynastischen Fürstengrab U‑j zum Vorschein gekommen sind. Die nach Meinung Günter Dreyers voll ausgebildeten Hieroglyphen befanden sich auf kleinen Täfelchen, die – an Gefäßen befestigt – vermutlich deren Herkunft bezeichneten. Einige der frühen Zeichen ähneln sumerischen Schriftzeichen. Daher ist eine Abhängigkeit nicht ganz auszuschließen, aber auch in umgekehrter Richtung möglich. Diese Fragen werden kontrovers diskutiert. Die Hieroglyphenschrift begann offenbar als Notationssystem für Abrechnungen und zur Überlieferung wichtiger Ereignisse. Sie wurde rasch mit den zu kommunizierenden Inhalten weiterentwickelt und tritt bereits in den ältesten Zeugnissen als fertiges System auf. Verbreitung. Die ägyptischen Hieroglyphen wurden zunächst überwiegend in der Verwaltung, später für alle Belange in ganz Ägypten benutzt. Außerhalb Ägyptens wurde diese Schrift regelmäßig nur im nubischen Raum verwendet, zunächst zur Zeit der ägyptischen Herrschaft, später auch, als dieses Gebiet eigenständig war. Um 300 v. Chr. wurden die ägyptischen Hieroglyphen hier von einer eigenen Schrift der Nubier, der meroitischen Schrift abgelöst, deren einzelne Zeichen jedoch ihren Ursprung in den Hieroglyphen haben. Die althebräische Schrift des 9. bis 7. Jahrhunderts v. Chr. benutzte die hieratischen Zahlzeichen, war ansonsten aber ein von der phönizischen Schrift abgeleitetes Konsonantenalphabet. Mit den Staaten des Vorderen Orients wurde vorwiegend in akkadischer Keilschrift kommuniziert. Es ist anzunehmen, dass sich die Hieroglyphen wesentlich schlechter zur Wiedergabe fremder Begriffe oder Sprachen eigneten als die Keilschrift. Wie groß der Anteil der Schriftkundigen an der Bevölkerung Ägyptens war, ist unklar, es dürfte sich nur um wenige Prozent gehandelt haben: Die Bezeichnung „Schreiber“ war lange synonym mit „Beamter“. Außerdem gab es in griechischer Zeit in den Städten nachweislich viele hauptberufliche Schreiber, die Urkunden für Analphabeten ausstellten. Späte Tradition und Untergang. Von 323 bis 30 v. Chr. beherrschten die Ptolemäer (makedonische Griechen) und nach ihnen das römische und byzantinische Reich Ägypten, die Verwaltungssprache war deshalb Altgriechisch. Das Ägyptische wurde nur noch als Umgangssprache der eingesessenen Bevölkerung benutzt. Trotzdem wurde die Hieroglyphenschrift für sakrale Texte und das Demotische im Alltag verwendet. Die Kenntnis der Hieroglyphen wurde auf einen immer enger werdenden Kreis beschränkt, dennoch wurden ptolemäische Dekrete oft in Hieroglyphen geschrieben. So enthalten ptolemäische Dekrete die Bestimmung, dass sie „in Hieroglyphen, der Schrift der Briefe (d. h.: Demotisch) und in griechischer Sprache“ veröffentlicht werden sollten. Gleichzeitig wurden die Zeichen auf mehrere Tausend vervielfacht, ohne dass das Schriftsystem als solches geändert wurde. In dieser Form begegneten interessierte Griechen und Römer dieser Schrift in der Spätantike. Sie übernahmen bruchstückhaft Anekdoten und Erklärungen für Lautwert und Bedeutung dieser geheimen Zeichen und gaben sie an ihre Landsleute weiter. Mit der Einführung des Christentums gerieten die Hieroglyphen endgültig in Vergessenheit. Die letzte datierte Inschrift stammt von 394 n. Chr. Aus dem 5. Jahrhundert n. Chr. stammt die "Hieroglyphica" des Horapollo, die eine Mischung aus richtigen und falschen Informationen zur Bedeutung der Hieroglyphen enthält, indem sie auch phonetische Zeichen als Logogramme auffasst und durch sachliche Übereinstimmungen zwischen Bild und Wort erklärt. Altägyptische Schriftsysteme. Je nach Schreibmaterialien und Verwendungszweck lassen sich verschiedene Schriften unterscheiden: zunächst die Hieroglyphen und eine kursive Variante, das Hieratische. Obwohl die Zeichen unterschiedliche Formen annahmen, blieb das Funktionsprinzip der Hieroglyphenschrift erhalten. Die viel jüngere demotische Schrift stammt wiederum von der hieratischen Schrift ab und hat nur noch wenig Ähnlichkeit mit den Hieroglyphen. Hieroglyphen. Hieroglyphen sind eine auf die Verwendung an Tempel- und Grabwänden ausgerichtete Monumentalschrift. Das Schriftsystem enthält neben orthographischen Aspekten viele Eigenheiten, die sich ausschließlich mit der ornamentalen Wirkung, der Platzausnutzung oder magischen Sichtweisen erklären lassen. Wie einige besonders gut erhaltene Beispiele noch zeigen – so etwa die Inschriften in den Gräbern im Tal der Könige –, wurden die Hieroglyphen ursprünglich vielfach farbig geschrieben. Die Farbe entsprach teils der Naturfarbe des dargestellten Gegenstandes, teils war sie rein konventionell festgelegt. In Einzelfällen konnte allein die Farbe zwei ansonsten formgleiche Schriftzeichen unterscheiden; dies gilt besonders für mehrere Hieroglyphen mit rundem Umriss. Ägyptische Wörter werden auch innerhalb eines Textes durchaus variabel geschrieben. Die Hieroglyphenschrift ist trotz der starken Bildhaftigkeit (derer sich die Ägypter bewusst waren), kaum eine Bilderschrift. Hieratische Schrift. Die hieratische Schrift ist ebenso alt wie die Hieroglyphenschrift. Sie ist eine kursive Variante der Hieroglyphenschrift, die zum Schreiben mit einer Binse auf Papyrus oder ähnlich geeignetem Material (wie Ostraka aus Kalkstein oder Ton) konzipiert war. Zunächst wurde sie auch für allgemeine Texte verwendet, religiöse Texte wurden im Mittleren Reich teilweise auf Papyrus in Hieroglyphen geschrieben; erst mit der Einführung des Demotischen als Alltagsschrift wurde sie auf die Niederschrift religiöser Texte beschränkt. Daher rührt auch ihr von Herodot überlieferter griechischer Name. Kursivhieroglyphen. Am Ende des Alten Reiches spaltete sich aus dem frühen Hieratisch eine Schriftform ab, die auf Särge und Papyri geschrieben wurde und sich im Gegensatz zum Hieratischen zwar an das Schreibmaterial anpasste, aber den hieroglyphischen Formen nahe blieb. Bis zur 20. Dynastie wurden religiöse Texte in dieser Schrift geschrieben, danach wurde sie weitgehend vom Hieratischen abgelöst. Demotische Schrift. Um 650 v. Chr. wurde eine noch flüssigere und stärker von den Hieroglyphen abstrahierende Kursivschrift entwickelt, die demotische Schrift, auch Volksschrift genannt. Sie entstand als Kanzleischrift und wurde zur Gebrauchsschrift in Ägypten, bis sie im 4./5. Jahrhundert n. Chr. von der koptischen Schrift, einer um einige demotische Zeichen ergänzten Form der griechischen Schrift, abgelöst wurde. Auch wenn die demotische Schrift ihre Grundprinzipien mit den Hieroglyphen teilt, kann sie aufgrund größerer Abweichungen kaum noch als Subsystem der Hieroglyphen verstanden werden. Schriftrichtung. Ursprünglich wurden die Hieroglyphen meist in Spalten (Kolumnen) von oben nach unten und von rechts nach links geschrieben, aus graphischen Gründen konnte die Schreibrichtung jedoch variieren. In seltenen Fällen wurden Hieroglyphen als Bustrophedon geschrieben. Die Schriftrichtung ist sehr leicht festzustellen, da die Zeichen immer in Richtung Textanfang gewandt sind, also dem Leser „entgegenblicken“. Am deutlichsten wird dies bei der Darstellung von Tierformen oder Menschen. In einzelnen Fällen wie beispielsweise auf den Innenseiten von Särgen liegt jedoch eine retrograde Schrift vor, in der also die Zeichen gerade dem Textende zugewandt sind; dies gilt etwa für viele Totenbuchmanuskripte und könnte spezielle religiöse Gründe haben (Totenbuch als Texte aus einer „Gegenwelt“ o. Ä.). Die Worttrennung wurde in der Regel nicht angegeben, jedoch lässt sich das Ende eines Wortes häufig an dem das Wort abschließenden Determinativ erkennen. Einkonsonantenzeichen. Ein einfaches hieroglyphisches Alphabet wird in der modernen Wissenschaft mit gut zwei Dutzend Zeichen gebildet, die jeweils einen einzelnen Konsonanten wiedergeben, also eine Art „konsonantisches Alphabet“ darstellen. Obwohl schon mit den Einkonsonantenzeichen die Wiedergabe des Ägyptischen möglich gewesen wäre, waren die Hieroglyphen aber nie eine reine Alphabetschrift. Die Einkonsonantenzeichen werden heute gerne zum Lernen der altägyptischen Sprache und zur Wiedergabe moderner Eigennamen verwendet, wobei hier die moderne wissenschaftliche Behelfsaussprache der Zeichen zugrunde gelegt wird, die in vielen Fällen "nicht" mit der ursprünglichen ägyptischen Lautung identisch ist. Aus wissenschaftshistorischen Gründen werden nämlich in der "ägyptologischen" Behelfsaussprache fünf bzw. sechs Konsonanten als Vokale ausgesprochen, obwohl sie in der klassischen ägyptischen Sprache Konsonanten bezeichnet hatten. Determinative. Da mit Hieroglyphen nur die Konsonanten, nicht die Vokale, bezeichnet wurden, ergaben sich viele Wörter unterschiedlicher Bedeutung, die gleich geschrieben wurden, da sie den gleichen Konsonantenbestand hatten. Das Determinativ verkörperte ursprünglich als ein bildhaft vereinigendes Schriftzeichen die ihm zugrunde liegenden Phonogramme. Erst später sollten die Determinative mit anderen allgemeinen Begriffen verbunden werden. So wurden den meisten Wörtern sogenannte Determinative (auch Klassifikatoren oder Deutzeichen) zugesetzt, die die Bedeutung näher erklären. So bedeutet die Hieroglyphe „Haus“ mit dem Konsonantenbestand "pr" ohne Determinativ das Wort „Haus“ (ägyptisch "pr(w)"), mit zwei laufenden Beinen als Determinativ bedeutet es „herausgehen“ (ägyptisch "pr(j)"). Auch Namen wurden determiniert, ebenso manche Pronomina. Königs- oder Götternamen wurden durch die Kartusche, einer Schleife um das Wort, hervorgehoben. Dazu ist jedoch anzumerken, dass sich das System der Determinative im Verlauf der ägyptischen Sprachgeschichte erst im Mittleren Reich voll stabilisiert hatte, während das Ägyptische des Alten Reiches noch mehr spezielle oder ad hoc gebildete Determinative verwendete. Im Neuen Reich nahm der Gebrauch weniger, besonders generischer Determinative weiter zu; teilweise konnte ein Wort hier mit mehreren Determinativen gleichzeitig geschrieben werden. Anordnung. In hieroglyphischen Inschriften wurden die Zeichen meist nicht einfach aneinandergereiht, sondern zu rechteckigen Gruppen zusammengefasst. So wurde das Wort "stp.n=f" „er stellte zufrieden“ im Mittleren Reich folgendermaßen geschrieben: s-Htp:t*p-A2-n:f Aussprache. Da die Hieroglyphenschrift zu einer Sprache gehört, deren Abkömmling seit spätestens dem 17. Jahrhundert mit Verdrängung des Koptischen als Verkehrssprache durch das Arabische tot ist und in der Hieroglyphenschrift keine Vokale notiert werden, ist die Rekonstruktion der ägyptischen Wörter und die Transkription hieroglyphischer Namen und Wörter in moderne Alphabete nicht eindeutig. So kommen die recht verschiedenen Schreibweisen des gleichen Namens zustande, wie zum Beispiel Nofretete im Deutschen und Nefertiti im Englischen für ägyptisch "Nfr.t-jy.tj". Neben dem Koptischen und den hieroglyphischen Schreibungen selbst geben die strittigen afroasiatischen Lautkorrespondenzen und Nebenüberlieferungen wie griechische und keilschriftliche Umschreibungen Hinweise auf die Aussprache ägyptischer Namen und Wörter. Das aus diesen Überlieferungen resultierende "Urkoptisch", eine Sprache mit hieroglyphischem Konsonantenbestand und rekonstruierten Vokalen, wurde in verschiedenen Filmen (meist mit zweifelhaften Ergebnissen) aufgegriffen, unter anderem für den Film Die Mumie oder die Serie Stargate. Ägyptologen behelfen sich bei der Aussprache des Ägyptischen dadurch, dass im transkribierten Text zwischen vielen Konsonanten ein "e" eingefügt wird und einige Konsonanten als Vokale gesprochen werden ("3" und ' als "a", "w" als "w" oder "u", "j" und "y" als "i"). Das ist die Regel, aber nicht ohne Ausnahme; so werden zum Beispiel Königs- und Gottesnamen auch nach überlieferten griechischen oder koptischen Schreibungen ausgesprochen, wie etwa „Amun“ statt „Imenu“ für ägyptisch "Jmn.w". Im Einzelnen haben sich an den einzelnen Universitäten unterschiedliche Konventionen ausgebildet, wie ägyptologische Transliteration hilfsweise auszusprechen ist. So findet sich das Wort "nfrt" (Femininum von "nfr": „schön“) sowohl als "neferet" ausgesprochen (so vielfach in Deutschland) wie auch als "nefret" (andernorts in Deutschland) oder als "nefert" (so unter anderem an russischen Universitäten). Es gibt auch systematische Differenzen bezüglich der Länge oder Kürze der "e"s und des Wortakzents. Transkription. Neben den phonetischen Umschriftzeichen enthalten die meisten Transkriptionssysteme auch sogenannte Strukturzeichen, die Morpheme voneinander abgrenzen, um die morphologische Struktur der Wörter zu verdeutlichen. So wird von bestimmten Forschern die altägyptische Verbform "jnsbtnsn" „diejenigen, die sie verschlungen haben“ als "j.nsb.t.n=sn" transkribiert, um die verschiedenen Präfixe und Suffixe zu kennzeichnen. Die Verwendung der Strukturzeichen ist noch weniger einheitlich als die phonetischen Transkriptionen – neben völlig strukturzeichenlosen Systemen, wie dem, das unter anderem in Elmar Edels "Altägyptischer Grammatik" (Rom 1955/64) Verwendung fand, gibt es Systeme mit bis zu fünf Strukturzeichen (Wolfgang Schenkel). Auch einzelne Zeichen werden nicht einheitlich benutzt; so dient der einfache Punkt („.“) in der Umschrift der Berliner Schule zur Trennung der Suffixpronomina, in einigen jüngeren Systemen dagegen zur Markierung der nominalen Feminin-Endung. Während James P. Allen ein Präfix "j" bestimmter Verbformen mit einem einfachen Punkt abtrennt, hat Wolfgang Schenkel hierfür den Doppelpunkt („:“) vorgeschlagen. Hieratische Texte werden vor der Transkription in Umschrift häufig erst in Hieroglyphen überführt (Transliteration) und so veröffentlicht, damit die Identifizierung der Schriftzeichen mit entsprechenden Hieroglyphen verdeutlicht werden kann. Die Identifizierung der kursiven Schriftzeichen ist nur durch Spezialisten durchführbar und nicht von allen mit der Hieroglyphenschrift Vertrauten einfach nachzuvollziehen. Demotische Texte hingegen werden, weil der Abstand zu den Hieroglyphen zu groß ist, üblicherweise nicht erst transliteriert, sondern direkt in Umschrift transkribiert. Die Bedeutungen der Bezeichnungen „Transkription“ und „Transliteration“ sind nicht konsistent; in manchen ägyptischen Grammatiken, besonders im englischen Sprachgebrauch, werden die Begriffe Transkription und Transliteration andersherum verwendet. Wiedergabe von Hieroglyphen. Hieroglyphen sind im Unicodeblock Ägyptische Hieroglyphen (U+13000–U+1342F) codiert, der beispielsweise durch den ab Windows 10 mitgelieferten Font Segoe UI Historic abgedeckt wird. a> (seitenverkehrt zu den Beispielen links) i-n:p*w nb:tA:Dsr O10 Hr:tp R19 t:O49 nTr-nTr Hr:Z1 R2 z:n:Z2 Szp:p:D40 z:n:nw*D19:N18 pr:r:t*D54 Um ein naturgetreues Abbild der Anordnung der Hieroglyphen zu erzeugen, müssen komplexe Hieroglyphensatzprogramme neben den überlappungsfreien Anordnungen auch eine Funktion anbieten, Hieroglyphen zu spiegeln, ihre Größe stufenlos zu verändern und einzelne Zeichen teilweise oder ganz übereinander anzuordnen (vgl. die Zeichenfolge unten rechts im Bild, die hier nicht umgesetzt werden konnte). Zur Wiedergabe und zum Satz von Hieroglyphen auf dem Computer wurde eine Reihe von Programmen entwickelt. Zu diesen zählen "SignWriter", "WinGlyph", "MacScribe", "InScribe", "Glyphotext" und "WikiHiero". Wiedergabe von Transkriptionszeichen. Für die Wiedergabe der ägyptologischen Transkription auf dem Computer bedarf es spezieller Fonts, da bestimmte Transkriptionszeichen in Standardfonts fehlen. Mittlerweile sind Alef und Ajin in den Unicodestandard aufgenommen (Unicodeblock Lateinisch, erweitert-D), nicht jedoch das traditionelle Jod (Egyptological Yod). Neben allerlei privaten Fonts sind in der Wissenschaft insbesondere die True-Type-Fonts „“ des und „“ weit verbreitet, in denen das Transkriptionssystem des "Wörterbuchs der Aegyptischen Sprache" von Erman und Grapow und von Alan Gardiners "Egyptian Grammar" weitestgehend genau auf die Tastaturbelegung des "Manuel de Codage" (siehe oben) abgebildet wird. Einen Zeichensatz, mit dem alle gängigen Transkriptionssysteme wiedergegeben werden können, der aber hinsichtlich der Tastaturbelegung vom "Manuel de Codage" abweicht, stellt die Zeitschrift Lingua Aegyptia zur Verfügung (). Schriftmedien. Der längste erhaltene Papyrus misst 40 Meter. Leder wurde vorwiegend für Texte von großer Bedeutung verwendet. Der Beruf des Schreibers. Die Kenntnis des Schreibens war mit Sicherheit eine der Grundvoraussetzungen für alle Arten einer Laufbahn im Staat. Es gab auch keine eigene Bezeichnung für den Beamten – „sesch“ heißt sowohl „Schreiber“ als auch „Beamter“. Über das Schulsystem ist überraschend wenig bekannt. Für das Alte Reich wird das Famulussystem angenommen: Schüler lernten das Schreiben bei den Eltern oder wurden einem anderen Schreibkundigen unterstellt, der die Schüler zunächst für Hilfsarbeiten benutzte und ihnen dabei auch das Schreiben beibrachte. Ab dem Mittleren Reich gibt es vereinzelte Belege für Schulen, die aus dem Neuen Reich gut bezeugt sind. Die Ausbildung zum Schreiber begann mit einer der Kursivschriften (Hieratisch, später Demotisch). Die Hieroglyphen wurden später gelernt und aufgrund ihrer Eigenschaft als Monumentalschrift nicht von jedem Schreiber beherrscht. Die Schrift wurde hauptsächlich durch Diktate und Abschreibübungen, die in einigen Fällen erhalten sind, gelehrt, faule Schüler wurden durch Züchtigungen und Gefängnisstrafen diszipliniert. Aus dem Mittleren Reich stammt das Buch Kemit, das anscheinend speziell für den Schulunterricht geschrieben wurde. Die Lehre des Cheti beschreibt die Vorzüge des Schreiberberufes und zählt die Nachteile anderer, meist handwerklicher und landwirtschaftlicher Berufe auf. Hawaii. Hawaii (hawaiisch "Hawaiʻi" bzw. "Mokupuni o Hawaiʻi") ist eine Inselkette im Pazifischen Ozean und seit 1959 der 50. Bundesstaat der Vereinigten Staaten. Die Inselgruppe gehört zum polynesischen Kulturraum, bildet die nördliche Spitze des sogenannten polynesischen Dreiecks und wird zu den Südseeinseln gezählt. Der Beiname von Hawaii ist "Aloha State" („Aloha-Staat“). Hawaiis vielfältige Landschaften, ein ganzjährig warmes Klima und viele öffentliche Strände machen es zu einem beliebten Zielpunkt von Touristen, Surfern, Biologen und Geologen. Durch seine Lage mitten im Pazifik wirken auf Hawaii mit seiner eigenen polynesischen Kultur sowohl ostasiatische als auch nordamerikanische Einflüsse. Geographie. Satellitenaufnahme der acht größten Inseln Hawaii liegt 3.682 km südwestlich der US-Westküste (Flumeville, Kalifornien). Insgesamt gehören 137 Inseln und Atolle mit einer Gesamtfläche von 16.625 km² zu Hawaii, die meisten davon sind jedoch nicht oder nicht mehr bewohnt. Inseln und Countys. Die acht größten Inseln sind (von West nach Ost): Niʻihau, Kauaʻi, Oʻahu, Molokaʻi, Lānaʻi, Kahoʻolawe, Maui und Hawaii ("Big Island"). Geografisch wird Hawaii nicht dem amerikanischen Kontinent, sondern als Teil Polynesiens der den Kontinenten gleichgestellten Inselwelt Ozeaniens zugeordnet. Die größten Inseln werden fünf "Countys" zugeordnet: "Hawaiʻi (Big Island)" und "Oʻahu" stellen jeweils einen eigenen "County" dar; "Kauaʻi" und "Niʻihau" bilden gemeinsam einen "County"; ebenso zusammengefasst werden "Maui", "Molokaʻi", "Lānaʻi" und "Kahoʻolawe". Eine Besonderheit ist der "Kalawao County", der sich auf die Kalaupapa-Halbinsel auf Molokaʻi beschränkt. Gemessen an der Bevölkerung zählt dieser zu den kleinsten "Countys" der Vereinigten Staaten. Das Midway-Atoll (hawaiisch: "Pihemanu") im nördlichen Hawaiirücken ist das einzige Gebiet, das zwar geographisch zu Hawaii gehört, jedoch nicht dem Staat Hawaii untergeordnet ist. Vulkane. Die Inseln sind abgesehen von den Korallenriffen alle vulkanischen Ursprungs. Die Schildvulkane der Hawaii-Inseln sind die größten Vulkane der Erde. Der Mauna Kea liegt dabei mit 4205 Meter Höhe über dem Meer und einer Basis in 5400 Meter Wassertiefe, also insgesamt über 9000 Meter, an der Spitze. Es ist mit dieser absolut gemessenen Höhe der größte Berg der Erde. Der nur wenig niedrigere Mauna Loa ist nach seinem Volumen der massivste Vulkan der Erde. Sein Gewicht ist so groß, dass er die gesamte pazifische Platte messbar deformiert. Auf der größten Insel, Hawaii, sind der Mauna Loa und der Kīlauea noch tätig, Letzterer ist seit 1983 ununterbrochen aktiv. Immer wieder überflutet die Lava Gebiete auf der Nordostseite des Mauna Loa - teilweise auch Straßen und Häuser. Die in historischer Zeit ausgebrochenen Vulkane Hualālai (Hawaii) und Haleakalā (Maui) werden als noch nicht erloschen angesehen. 28 Kilometer südöstlich des Kīlauea befindet sich der unterseeische Vulkan Lōʻihi. Er ist der jüngste Vulkan der Hawaii-Vulkankette. Flüsse und Seen. Das Trinkwasser auf den Inseln wird unter anderem über artesische Brunnen gewonnen. Der längste Fluss ist der Kaukonahua auf der Insel Oʻahu. Der größte natürliche See ist der Halulu-See auf "Niʻihau" mit einer Fläche von 3,48 km². Besonders die Inseln Maui und Kauaʻi besitzen zahlreiche Wasserfälle. Klima. Hawaii liegt in den äußeren nördlichen Tropen. Das Klima ist durch den vorherrschenden NO-Passat mild und ausgeglichen. Im Gegensatz zu den feuchten Luvseiten mit ihrer tropischen Vegetation bleiben die Leeseiten der Inseln relativ trocken. Ausgeprägte Jahreszeiten gibt es auf den Inseln Hawaiis nicht. In den Monaten Oktober bis März regnet es mehr als im Rest des Jahres. Vor Ankunft der Menschen. Da Hawaii eine abgelegene Inselgruppe ist, gab es dort, abgesehen von der auch in Amerika verbreiteten Weißgrauen Fledermaus ("Lasiurus cinereus"), vor Ankunft der Menschen keine weiteren Landsäugetiere. Ebenso fehlten Landreptilien und Amphibien. Viele Arten haben sich in diverse neue Arten aufgespalten (Adaptive Radiation), weil die Inseln so schwer zu erreichen sind und dadurch viele freie ökologische Nischen existierten. Das führte dazu, dass Hawaii einen hohen Anteil an endemischen Arten hatte. Pflanzen. Dagegen gab es Pflanzen mit ursprünglich kleinen Samen, die durch Wind, Vögel oder Fluginsekten dorthin verschleppt wurden. Interessant ist beispielsweise, dass es dort wegen des Nichtvorhandenseins pflanzenfressender Säugetiere nichtbrennende Brennnesseln und Minze ohne Pfefferminzgeschmack gab. Vögel. Es gibt mehr als 70 Vogelarten. Interessant sind die Kleidervögel (Drepanididae), bei denen eine Gattung sich in mehr als sieben Arten aufgespalten hat. Moa Nalos, Riesen-Hawaiigans ("Geochen rhuax") und die Hawaiigans Nēnē-Nui ("Branta hylobadistes") waren große flugunfähige Vögel, die sich von Gras und Kräutern ernährt haben. Die flugfähige Verwandte der flugunfähigen Hawaiigänse, die Hawaiigans ("Nēnē") ("Branta sandvicensis"), hat bis heute überlebt. Insekten und Spinnen. Es gab Fluginsekten und Insekten, die durch den Wind verschleppt wurden. Auf der Inselgruppe Hawaii sind aus einer Fruchtfliegenart (gemeint sind Taufliegen (Drosophilidae)) rund 1000 Arten entstanden, die sich äußerlich erheblich unterscheiden. Einige sind heute ausgestorben, so etwa Drosophila lanaiensis und Drosophila ochrobasis. Daneben gibt es einige Arten der Riesenkrabbenspinnen (Sparassidae, ehemals Heteropodidae, Eusparassidae) (Cixiidae). Einfluss des Menschen. Durch den Einfluss der ursprünglichen polynesischen Siedler starben mehr als die Hälfte der ursprünglich hier lebenden Vogelarten aus (vgl. Liste der neuzeitlich ausgestorbenen Vögel). Dazu gehören die Moa-Nalos ("Chelychelynechen quassus", "Thambetochen" spp., "Ptaiochen pau"), die die größten Pflanzenfresser Hawaiis waren, und eine ähnliche ökologische Nische wie die Riesenschildkröten von den Maskarenen, den Seychellen, Aldabra und den Galápagosinseln einnahmen. Außerdem brachten sie Nutzpflanzen und -tiere (sowie deren Schädlinge) mit, die sie auf See und nach ihrer Ankunft benötigten. Diese nicht einheimischen Arten trugen erheblich zum Aussterben weiterer einheimischer Arten bei. Besonders viel Schaden richteten verwilderte Hunde und Ratten an, die einheimische Tiere jagen. Die einheimischen Vögel wurden durch die eingeschleppte Vogelmalaria dezimiert, die durch ebenfalls eingeschleppte Mücken übertragen wird. Meerestiere. Meeresschildkröten an der Nordküste Oʻahus a> ist mit ihren Korallen Heimat zahlreicher Meerestiere. Während für Landtiere und -pflanzen das Meer eine schwer überwindbare Hürde ist, können Meereslebewesen viel leichter zu abgelegenen Inseln gelangen. Um die Hawaii-Inseln herum leben viele für Korallenriffe typische Tiere. Bevölkerung. Neben den polynesischen Ureinwohnern – die sich selbst "Kanaka Maoli" nennen – siedelten sich nach der Entdeckung weiße Missionare, Händler und Walfänger in Hawaii an. Für den Zuckerrohranbau und später Ananasanbau wurden chinesische und japanische Arbeitskräfte angeworben, die sich dort ansiedelten und teilweise ihre Kultur mitbrachten. Die berühmten „goldenen Menschen“ von Hawaii entstanden aus der Durchmischung der polynesischen Ureinwohner mit den asiatischen (vor allem japanischen) Einwanderern. Die Hawaii-Inseln zählen etwa 1,2 Millionen Einwohner. Hauptstadt und zugleich größte Stadt des Archipels ist Honolulu mit etwa 390.000 Einwohnern. Die größten Bevölkerungsgruppen bildeten im Jahre 2000 Asiaten mit 41,6 % (einschließlich 16,7 % japanischer, 14,7 % philippinischer und 4,7 % chinesischer Herkunft), 24,3 % Menschen europäischer Herkunft, 7,9 % Polynesier (6,6 % „ursprüngliche“ Hawaiier) und 1,8 % Schwarze (Afroamerikaner). Bereits 1941, am Vorabend des japanischen Angriffs auf Pearl Harbor, machten die hawaiischen Ureinwohner kaum noch 6 % (22.000) der damals insgesamt 370.000 Einwohner aller Inseln aus, gegenüber 42.000 US-Militärangehörigen und etwa 150.000 japanischen Einwanderern allein auf der Insel Oʻahu (40,5 %). Neben Englisch sind auf Hawaii auch Hawaii Creole English und die indigene hawaiische Sprache verbreitete Sprachen. Bildung. Im Jahre 1840 errichtete König Kamehameha III. das erste staatliche Schulsystem. Mehr als 60 Jahre später folgten nach und nach die Gründungen mehrerer Universitäten: 1907 wurde die "University of Hawaiʻi" gegründet, 1955 die "Chaminade University of Honolulu" und 1965 die "Hawaiʻi Pacific University". Die bedeutendste staatliche Hochschule auf Hawaii ist mit rund 14.000 Studenten die "University of Hawaiʻi at Mānoa". Außer dem Standort in Mānoa gehören zu dem "University of Hawaiʻi System" noch zwei andere Hochschulen sowie zahlreiche Community Colleges und Forschungsinstitute. Die Lebenshaltungskosten in Hawaii sind sehr hoch. Studenten können sich bei den üblichen Stipendiengebern um eine finanzielle Förderung bemühen. Besiedlung. Es waren vermutlich Polynesier von den Marquesas-Inseln, die zwischen dem zweiten und sechsten Jahrhundert (nach anderer Ansicht etwa seit 800 n. Chr.) nach Hawaii gelangten. Eine zweite Siedlerwelle von Polynesiern folgte etwa im 11. Jahrhundert von Tahiti aus. Die Seefahrer waren in der Lage, die ungeheure Entfernung von etwa 5500 Kilometern von den Marquesas mit großen Auslegerkanus dank einer ausgefeilten Navigationstechnik zu überwinden. Sie navigierten nach den Sternen, nach Strömungen und der Dünung, nach Wolkenbildung und -zug, aber auch nach Vogelschwärmen, Fischschwärmen, Treibholz und anderen Pflanzenteilen. All diese Informationsquellen und deren kollektive Bewahrung über mehrere Generationen ermöglichten es ihnen, über tausende von Kilometern bekannte Inseln wiederzufinden und gezielt neue Inseln zu suchen. Ihre Doppelrumpfboote bestanden aus ausgehöhlten und mit Harzen abgedichteten Baumstämmen als Schwimmkörpern. Diese wurden durch Balken zusammengehalten, die sich in der Mitte zwischen ihnen kreuzten. Auf dem den Schwimmkörpern entgegengesetzten Ende der Balken saß eine teilweise überdachte, leichtgebaute Plattform mit einer Tragfähigkeit für bis zu 100 Personen. Zusammengehalten wurde die ganze Konstruktion mit Seilen, die aus den Fasern der dicken Außenschale der Kokosnuss geflochten waren und über eine Haltbarkeit von bis zu fünf Jahren im Salzwasser verfügten. Auch das Segel des polynesischen Doppelrumpfbootes war eine Besonderheit. Mast und Segelfläche bildeten eine Einheit, ähnlich einem überdimensionalen Palmblattfächer mit zwei nach oben zeigenden Spitzen, zwischen denen eine halbkreisförmige Aussparung war, deren tiefsten Punkt die (eingebaute) Mastspitze bildete. Am jeweiligen Ende der beiden Schwimmkörper war zwischen ihnen eine Holzkonstruktion befestigt, in die sich, je nach Bedarf, das Segel stecken ließ. Daher besaß das polynesische Reiseboot im „westlichen Sinne“ weder Bug noch Heck, sondern Bug konnte auch Heck sein und umgekehrt, je nach Fahrtrichtung. Die Segelfläche selbst bestand aus geflochtenen Blättern des Schraubenbaumes "(Lauhala)". An der Spitze der neu-hawaiischen Gesellschaft standen die Adligen ("Aliʻi"), die ihre mystische Abstammung auf Götter zurückführten und ihre Macht auf das Prinzip des "Kapu" stützten. Das "Kapu" erlaubt und verbietet bestimmte Handlungen beziehungsweise den Zutritt zu bestimmten Orten (Tabu). Den Adligen folgten gesellschaftlich die Priester und nach diesen kam das gemeine Volk. Zeitweise kam es zu Kriegen zwischen verschiedenen Stämmen; ein Clan wurde jeweils vom "Alii" angeführt, einem von den Göttern abstammenden Häuptling, oft eine Frau. Es wird vermutet, dass der Spanier Juan Gaetano 1527 auf Hawaii landete. James Cook. Am 20. Januar 1778 landete James Cook auf seiner dritten Pazifikreise an der Südwestküste der Insel Kauaʻi, die bereits am 18. Januar gesichtet worden war. Der eigentliche Zweck dieses Unternehmens bestand darin, die Nordwestpassage, einen Seeweg vom Nordostpazifik in den Nordwestatlantik um Nordamerika herum, zu finden. Er nannte die Inseln, auf denen noch immer mehrere Königreiche bestanden, zu Ehren von Lord Sandwich „Sandwich Islands“ (Sandwichinseln). Cook betrieb Tauschgeschäfte mit den Einheimischen und ließ neben Schweinen und Ziegen diverses Saatgut zurück. Allerdings schleppte Cooks Besatzung auch Geschlechtskrankheiten auf der Insel ein, welche die Bevölkerung innerhalb der folgenden 80 Jahre von 300.000 auf 60.000 schrumpfen ließen. Am 17. Januar 1779 ging Cook mit seinen Schiffen in der Kealakekua-Bucht auf der Insel Hawaii vor Anker, wo zu dieser Jahreszeit die einheimische Bevölkerung ein Fest zu Ehren des Gottes "Lono" feierte. Cook wurde sehr gut aufgenommen und wohl sogar als jene Gottheit verehrt. Im Februar 1779 verließ Cook die Inseln, kehrte aber für Reparaturarbeiten an einem seiner durch einen Sturm beschädigten Schiffe wenige Tage später in die Kealakekua-Bucht zurück. Diesmal war der Empfang nicht mehr so freundlich und nach einigen Missverständnissen mit den Einheimischen wurden er und ein Teil seiner Mannschaft am 14. Februar 1779 getötet. Königreich Hawaiʻi. "Kamehameha I." einigte gewaltsam die Inseln Hawaiis. Ab 1810 war er alleiniger Herrscher und damit der erste König von Hawaii. Seine Kamehameha-Dynastie regierte bis 1872, danach folgten noch drei gewählte Könige. Die Unabhängigkeit Hawaiis war immer wieder bedroht. Nachdem 1815–1817 der in russischen Diensten stehende Deutsche Georg Anton Schäffer vergeblich versucht hatte, die Kontrolle über die nördlichen Inseln Kauaʻi und "Niʻihau" zu bekommen, scheiterten auch die fünfmonatige Annexion Hawaiis durch den Briten Lord George Paulet 1843 und die Besetzung Honolulus durch den Franzosen Legoarant de Tromelin 1849. Die Beziehungen Hawaiis zu den Vereinigten Staaten waren anfangs sehr gut. So ließen sich ab 1820 US-amerikanische Missionare (Kongregationalisten) in Honolulu nieder und 1842 erfolgte die Anerkennung der Unabhängigkeit Hawaiis durch die Vereinigten Staaten. Der Einfluss wurde dennoch etwa seit 1850 immer größer, vor allem durch den Vertrag über zollfreien Zuckerexport in die USA von 1875 und seine Ergänzung 1887 mit der Übernahme des Marinestützpunkts Pearl Harbor. Nach dem Sturz der Königin "Liliʻuokalani" durch einen Putsch 1893 wurde 1894 die Republik Hawaii errichtet. Unter dem äußeren Druck und auch zur Absicherung der Herrschaft gab es eine Reihe von wichtigen Reformen, wozu nach dem 1819 erfolgten symbolischen Bruch des Kapu-Systems und der Landverteilung von 1848 vor allem der Erlass von Verfassungen durch die Könige gehörten. Die wirtschaftlichen Beziehungen Hawaiis mit der Außenwelt begannen als Zwischenstation für Handelsschiffe zur Versorgung mit Proviant und Ersatzteilen. Der Export von Sandelholz von Hawaii nach China wurde am Anfang des 19. Jahrhunderts zu einem Handelsschwerpunkt, bevor in den 1820er bis 1860er Jahren Lāhainā und Honolulu zu wichtigen Häfen für die Walfänger im Nordpazifik wurden. Für den Zuckerrohranbau wurde ab Mitte des 19. Jahrhunderts die Einwanderung von Vertragsarbeitern unter anderem aus China, verschiedenen Südseeinseln, Japan und Portugal gefördert, die im 20. Jahrhundert dann auch für den Ananasanbau stattfand. Republik Hawaii. Am 15. Februar 1894 wurde ein Komitee gebildet, das im März offiziell den Auftrag zur Ausarbeitung einer Verfassung für die zu gründende Republik Hawaii erhielt, da die Bemühungen um eine schnelle Annexion durch die USA keinen Erfolg hatten. Diese Verfassung wurde am 3. Juli 1894 durch einen Verfassungskonvent bestätigt und trat am folgenden Tag in Kraft. Die so begründete Republik wurde zwar kurz darauf durch die USA anerkannt, sollte aber vor allem dem Ziel der Annexion dienen. Annexion durch die Vereinigten Staaten. Die Republik war nur von kurzer Dauer. Wegen der großen strategischen Bedeutung wurde Hawaii während des Spanisch-Amerikanischen Krieges durch eine gemeinsame Entschließung "(joint resolution)" des Senates und des Repräsentantenhauses vom 7. Juli 1898 durch die Vereinigten Staaten annektiert. Der formelle Akt fand am 12. August 1898 statt. Das US-Territorium Hawaii erhielt mit dem "Hawaiian Organic Act" vom 30. April 1900 (in Kraft ab 14. Juni 1900) eine entsprechende Verwaltung. Die Machtübernahme stieß bei vielen Einheimischen auf Widerstand, da die hawaiische Sprache, Hula und andere Bereiche hawaiischer Kultur unter dem starken kulturellen Einfluss der USA zurückgedrängt wurden. Nach dem Ersten Weltkrieg wurde Pearl Harbor zum wichtigsten Flottenstützpunkt der USA im Pazifik ausgebaut. Infolge des Angriffs der Japaner auf Pearl Harbor am 7. Dezember 1941 traten die Vereinigten Staaten in den Zweiten Weltkrieg ein. Sie setzten die zivile Regierung ab und verhängten acht Jahre lang das Kriegsrecht über Hawaii, was eine Außerkraftsetzung von Grundrechten bedeutete. Rund 500.000 US-Soldaten waren in dieser Zeit stationiert. Diese Zahl entsprach annähernd der damaligen Einwohnerzahl. 50. Staat der Vereinigten Staaten. Die Einwanderung von Asiaten und US-Amerikanern hatte die Hawaiier zur Minderheit im eigenen Land gemacht. Der sprachliche und kulturelle Identitätsverlust begünstigte die Verbreitung des westlichen Lebensstils. Dies zeigte das Ergebnis eines Volksentscheids, in dem die Mehrheit für einen Beitritt zu den USA stimmte. Am 21. August 1959 wurde Hawaii zum 50. Staat und William F. Quinn zum ersten hawaiischen Gouverneur erklärt. Die USA verabschiedeten 1993 die "Apology Resolution" (formell "United States Public Law 103–150"), mit der sie den Putsch gegen die Monarchie von 1893 für unrechtmäßig erklärten und dafür um Entschuldigung baten. Das Gesetz, das am 23. November 1993 von beiden Häusern des Kongresses verabschiedet und am gleichen Tag von Präsident Bill Clinton unterzeichnet wurde, beendete jedoch nicht die Annexion. Daher fordert die polynesische Urbevölkerung heute wieder mehr Unabhängigkeit, Rechte und Land für die Hawaiier sowie eine Sezession von den Vereinigten Staaten. Derzeit leben lediglich noch 120.000 Nachkommen (meist Mischlinge) der zu Zeiten Cooks 300.000 Ureinwohner auf den Inseln. Die Unabhängigkeitsbewegung und Spannungen zwischen den ethnischen Gruppen abzubauen, sind ein Schwerpunkt des "Matsunaga Institute for Peace", das auf einen gewaltfreien Ausgleich der Konflikte hinarbeitet. Nach Ansicht von David Keanu Sai, Professor für Politikwissenschaft an der "University of Hawaiʻi at Mānoa", ist Hawaii nie Teil der USA geworden, sondern lediglich militärisch besetzt worden. Die Anerkennung dieses Umstands müsse jeder Unabhängigkeitsbestrebung vorausgehen. Präsidentschaftswahlen. Am 8. November 1960 durfte Hawaii erstmals im Rahmen einer US-Präsidentschaftswahl teilnehmen. Hawaii gilt traditionell als sicherer Staat für demokratische Präsidentschaftskandidaten. Nur zweimal, 1972 und zuletzt 1984, gingen die Wahlmännerstimmen Hawaiis an einen Republikaner – in beiden Fällen hatte dieser auch insgesamt mit überwältigender Mehrheit gewonnen. Obwohl der 44. Präsident der Vereinigten Staaten, Barack Obama, im Staat geboren wurde, konnte doch Lyndon B. Johnson 1964 mit rund 79 % der Stimmen ein wesentlich besseres Ergebnis erzielen im Vergleich zu Obama, bei dessen bestem Wahlergebnis, als er 2008 rund 72 % der Stimmen verbuchen konnte. Aus republikanischer Sicht war das Wahlergebnis von 1972 das erfreulichste, als Richard Nixon 62 % Wählerstimmen erhielt. Das beste Wahlergebnis eines „dritten Kandidaten“ erzielte Ross Perot 1992, als er 53.003 Stimmen erhielt, was 14,22 Prozentpunkten entspricht. Unabhängigkeitsbestrebungen der Indigenen. Seit der Annexion durch die USA gibt es nach wie vor eine aktive – wenn auch zersplitterte – Unabhängigkeitsbewegung auf Hawaii, die insbesondere von der Minderheit der Ureinwohner getragen wird. 2005 wehrten sie sich erfolgreich gegen die Vergabe des Status „Native Americans“, der sie mit den Indianern des Festlandes gleichgesetzt hätte, was der Aberkennung freiheitlicher Bestrebungen gleichgekommen wäre. Die Souveränitätsbewegung erhielt besonders 2008 öffentliche Aufmerksamkeit, als eine Gruppe von Aktivisten den ehemaligen Königspalast in Honolulu besetzte und die Unabhängigkeit ausrief. Im gleichen Jahr sprach sich der russische UN-Funktionär Alexei Avotomonow für die Entkolonialisierung von Hawaii aus. 2009 belegte der hawaiianische Politikwissenschaftlers Noenoe K. Silva mit seiner Aufarbeitung der Inselgeschichte ("Aloha Betrayed: Native Hawaiian Resistance to American Colonialism") die völkerrechtliche Brisanz des Themas. US-Präsident Obama (selbst auf Hawaii geboren) zeigte sich den Bestrebungen für mehr Eigenständigkeit gegenüber prinzipiell offen. Am 11. Mai 2015 schlug Pakistan beim UN-Menschenrechtsrat in Genf vor, dem Vorschlag von Alfred de Zayas (UN-Experte zur Förderung einer demokratischen und gerechten Weltordnung) zu folgen, der 2013 vorschlug, Hawaii und Alaska wieder auf die "Liste der nicht-selbst-regierten Territorien" (Non-Self-Governing Territories) zu setzen, von der sie 1959 unrechtmäßig gestrichen wurden. Hawaiis Indigene werden vor dem Rat durch Leon Kaulahao Siu als Gesandter der "Allianz für die Selbstbestimmung von Alaska und Hawai´i" vertreten. Siu ist zudem „Schatten-Außenminister“ des "Hawaiian Kingdom Government", einer Gruppe, die sich als „überlebende Nachfolger des hawaiischen Königreiches“ versteht. Er beruft sich auf die indigene Bevölkerung, die sich 2014 mehrheitlich für die Unabhängigkeitsbestrebungen ausgesprochen hätten. Kultur. Hawaii gehört zum polynesischen Kulturraum. Die hawaiische Sprache "(ʻōlelo Hawaiʻi)" ist neben dem Englischen offizielle Sprache des US-Staates. Da eine Schriftsprache erst im 19. Jahrhundert eingeführt wurde, kommt der Überlieferung in Erzählungen, Gesängen und im Hula eine besondere Bedeutung zu. Auch die Namen von Personen und Orten spielen eine wichtige Rolle für die Bewahrung von Traditionen. Fischfang und Landwirtschaft waren in der hawaiischen Kultur hoch entwickelt. Die Nutzung der natürlichen Ressourcen war durch die Aufteilung der Inseln in einzelne Bereiche "(ahupuaʻa)" geregelt. Dabei ist die Verbindung zum Land "(ʻāina)" und der Respekt gegenüber der gesamten Natur besonders wichtig. Die Grundlage des Zusammenlebens und der verschiedenen kulturellen Aktivitäten war die erweiterte Familie "(ʻOhana)". Hierzu gehört auch die Ehrung der älteren Generation und der Vorfahren "(kupuna", Mehrzahl: kūpuna")" sowie der als "ʻaumākua" (Einzahl: "ʻaumakua") verehrten Familiengottheiten. Religion. Die ethnische Religion der Eingeborenen – die Hawaiische Religion – gehörte zu den relativ einheitlichen traditionellen polynesischen Religionen, die vor allem durch einen Ahnenkult, eine polytheistische Götterwelt mit einer hierarchischen Rangordnung – die die sozio-politischen Strukturen des vorstaatlichen Häuptlingstums widerspiegelte – sowie durch die beiden zentralen und verbundenen Begriffe Mana (durch Leistungen und Taten übertragbare transzendente Macht) und Tapu (unantastbar Heiliges oder Geweihtes, auf Hawaii "Kapu", siehe auch Tabu) gekennzeichnet sind. Die traditionelle Religion hat die Entdeckung des Hawaiʻi-Archipels durch Europäer im Jahre 1778 keine 50 Jahre überstanden. Bereits wenige Jahre nach den ersten Kontakten waren viele Tabus durch den Kontakt mit den Europäern erschüttert. Im Jahre 1819 wurde das wichtige Tabu, dass Frauen und Männer nicht gemeinsam essen dürfen, abgeschafft. Dies schwächte die traditionelle hawaiische Religion entscheidend. 1820 kamen christlich-evangelikale Missionare ins Land, die die Unterstützung eines Teils der Adelsklasse hatten. 1827 folgten katholische Missionare, danach Mormonen und Methodisten. 1862 lud König Kamehameha IV auch die Anglikaner ein, in Hawaii zu missionieren. Während der 1850er Jahre gelangten die drei chinesischen Religionen (Konfuzianismus, Daoismus, Buddhismus) auf die Inseln sowie bis zum Ende des 19. Jahrhunderts der Shintoismus und weitere buddhistische Schulen mit japanischen Einwanderern. In dieser Zeit traten die meisten indigenen Hawaiier zum Christentum über und es wurden Verbote der alten Religion durch die eigene Regierung erlassen. Als Gegenbewegung trat 1868 die sogenannte "Kaoni-Bewegung" auf den Plan, die versuchte, christliche und traditionelle Glaubenselemente synkretistisch zu verschmelzen. Nach den laufenden Erhebungen des evangelikal-fundamentalistisch ausgerichteten Bekehrungsnetzwerkes Joshua Project sind 74 Prozent der indigenen Hawaiier Christen, 16 Prozent sind nicht-religiös und 10 Prozent bekennen sich zum traditionellen Glauben. Dies deckt sich in etwa mit den Angaben des Pew Research Centers (amerikanisches Meinungsforschungsinstitut), die für "Native american religions" auf Hawaii unter 1 Prozent (bezogen auf die Gesamtbevölkerung) ansetzen. Die Web-Informationen der indigenen hawaiischen Unabhängigkeitsbewegung, das Wiedererstarken der spirituellen Ritualkultur Ho'oponopono oder die Tatsache, dass sich Nachfahren der hawaiischen Herrscher- und Priesterklasse wieder öffentlich zu ihrer direkten Abstammung vom Kriegsgott "Ku" bekennen, zeigt, dass heute eine Revitalisierung der traditionellen Religion im Gange ist (Dabei ist allerdings unklar, inwieweit es sich um überlieferte, synkretistische oder esoterisch veränderte Vorstellungen handelt). "Hoʻoponopono". "Hoʻoponopono" ist ein psycho-spirituelles Verfahren der alten Hawaiier zur Aussöhnung und gegenseitigen Vergebung, ein sanfter Weg zur Konfliktlösung einschließlich Lossprechung. Aber auch eine Philosophie und ein Lebensstil. Traditionelles "hoʻoponopono" wurde durch einen oder eine "kahuna lapaʻau" (Heilpriester) zur Heilung körperlicher und geistiger Krankheiten moderiert, vorwiegend mit Familiengruppen. Eine moderne, synkretistische Version wurde erstmals von Morrnah Simeona um 1976 vorgestell, die der Einzelne allein durchführen kann. Hula. Hula ist ein erzählender polynesischer Tanz. Essen. Trotz ihres Namens sind Pizza Hawaii und Toast Hawaii keine hawaiischen Gerichte sondern deutsche Erfindungen. Lediglich die Verfügbarkeit von Ananaskonserven zur Zeit des Wirtschaftswunders und die Verbindung dieser exotischen Frucht mit der Inselgruppe im Pazifik führten zu diesen Bezeichnungen. Wirtschaft und Infrastruktur. Das reale Bruttoinlandprodukt pro Kopf (engl. per capita real GDP) lag im Jahre 2006 bei USD 38.083 (nationaler Durchschnitt der 50 US-Staaten USD 37.714; nationaler Rangplatz: 16). Der Tourismus ist der Hauptwirtschaftszweig des Staates (ca. 6,5 Millionen Besucher in 2009), gefolgt von den wirtschaftlichen Aktivitäten und Einflussfaktoren der militärischen Anlagen und Truppen. Der Anbau und Export von Zuckerrohr und Ananas auf Plantagen war früher der bedeutendste Wirtschaftszweig und leistet noch heute einen wichtigen Beitrag zum Einkommen. Der Walfang wurde bereits von Kamehameha V. (1863–1873) verboten, so dass der Anbau dieser Pflanzen immer wichtiger wurde. Außerdem werden Blumen, Macadamia-Nüsse, Kaffee, Bananen, Tabak, Reis, Baumwolle, Papayas, Guave, Kokosnüsse und andere tropische Früchte geerntet. Außerdem werden Orchideen gezüchtet, Rinderweidewirtschaft und Fischfang (Thunfisch) betrieben. 1901 gründete James Dole in Hawaii die "Hawaiian Pineapple Company". Bekannt ist auch der Anbau von Cannabis. 1990 führte die US Regierung die Operation "Wipeout" aus. Es wurden über 90 % der hawaiischen Cannabispflanzen vernichtet, das entsprach etwa einem Wert von sechs Milliarden US-Dollar. Die Hollywood-Filmindustrie auf Hawaii ist ebenfalls ein wichtiger Zweig der Wirtschaft. Der Hafen Honolulus hat ausgedehnte Verladeanlagen und liegt im Mittelpunkt der transpazifischen Passagier- und Frachtschifffahrtslinien. Der Internationale Flughafen Honolulu ist Flugverkehrsknotenpunkt im Pazifik. Industriezweige sind Lebensmittelverarbeitung meist für den US-amerikanischen Markt (Dosenananas), Zuckerraffinade, Maschinenbau, Metallwaren, Baustoffe und Bekleidungsindustrie. Militäranlagen wie der Flottenstützpunkt Pearl Harbor, die Hickam Air Force Base und das Tripler Army Medical Center sind für die örtliche Wirtschaft von Bedeutung. Einzelne Inseln. Oʻahu ist die drittgrößte Insel Hawaiis, auf der 75 % der 1,2 Millionen Einwohner der Inselkette leben. Die meisten japanischen Einwanderer leben hier. Honolulu, Hawaiis Hauptstadt, erstreckt sich auf einer Länge von über 42 km. Neben dem multikulturellen Stadtzentrum liegen auf Oʻahu der lebendige und weltberühmte Badeort Waikīkī sowie der erloschene Vulkan „Diamond Head“, das Wahrzeichen von Honolulu und Waikīkī. Waikīkī Beach ist ein vier Kilometer langer Strand. Der North Shore Beach ist berühmt für seine bis zu 15 Meter hohen Wellen und gilt als ein Surferparadies. Auf der Militär-Basis Pearl Harbor kann die Gedenkstätte des Schlachtschiffes U.S.S. Arizona besichtigt werden. Beim Angriff auf Pearl Harbor am 7. Dezember 1941 kamen 2346 US-Soldaten ums Leben und acht Schiffe wurden versenkt. Heute ist dieser große geschützte Hafen an der Südküste fast gänzlich militärisches Sperrgebiet. Er dient den USA als strategische Flottenbasis und U-Boot-Stützpunkt für den Pazifikraum. Hawaiis älteste und grünste Insel Kauaʻi wird auch Garteninsel genannt. Die gezackten und üppig bewachsenen Klippen im Norden dieses Tropenparadieses stehen im starken Kontrast zu der trockeneren Westseite, die durch Waimea Canyon geprägt ist. Der Großteil der Küste wird von ursprünglichen, feinen Sandstränden mit Korallenriffen umsäumt. Am eindrucksvollsten ist die entlegene „Nā Pali“ Küste und der dort verlaufende „Nā Pali Trail“ Wanderweg. Der Gipfel des Waiʻaleʻale (1569 m) ist als regenreichster Ort der Erde bekannt. "Jurassic Park" wurde auf dieser Insel verfilmt. Verkehr. Eine Maschine der Hawaiian Airlines am Flughafen von Honolulu Hawaii hat mit der Hawaiian Airlines eine Fluggesellschaft, welche neben Nordamerika auch Ziele in Australien, Asien und im Pazifik anfliegt. Eine direkte Flugverbindung von Hawaii nach Europa gibt es nicht. Ein öffentliches Bussystem gibt es nur auf den Inseln Oʻahu unter der Bezeichnung "TheBus" und Maui unter der Bezeichnung "Maui Bus". "TheBus" bedient 93 Linien mit einer Flotte von 525 Bussen und wurde in den Jahren 1995 und 2001 von der American Public Transportation Association als bestes öffentliches Personennahverkehrssystem Amerikas ausgezeichnet. "Maui Bus" bedient zurzeit zwölf Linien. Auf der Insel Maui gibt es im Westen die Lahaina Kaanapali and Pacific Railroad, auch bekannt als "Sugar Cane Train" (Zuckerrohrbahn). Hierbei handelt es sich um eine circa zehn Kilometer lange, dampfbetriebene Touristenbahn. Literatur. Literarisch wurde die Geschichte Hawaiʻis in dem bekannten Roman von James A. Michener "Hawaii" verarbeitet. Mehrere Episoden aus der Geschichte Hawaiis thematisierte Jack London in seinen Südseegeschichten. Im Werk Mark Twains und Robert Louis Stevensons finden sich ebenfalls Spuren ihrer Aufenthalte auf den Inseln. Die amerikanische Schriftstellerin Ruth Tabrah machte die Inseln häufig zum Schauplatz ihrer Erzählungen und schrieb eine Geschichte Hawaiis. Haar-Wavelet. Das Haar-Wavelet ist das erste in der Literatur bekannt gewordene Wavelet und wurde 1909 von Alfréd Haar vorgeschlagen. Es ist außerdem das einfachste bekannte Wavelet und kann aus der Kombination zweier Rechteckfunktionen gebildet werden. Vorteilhaft am Haar-Wavelet ist die einfache Implementierbarkeit der entsprechenden schnellen Wavelet-Transformation (FWT). Der Nachteil des Haar-Wavelets ist, dass es unstetig und daher auch nicht differenzierbar ist. Skalierungsfunktion. Die Skalierungsfunktion bzw. „Vater-Wavelet“-Funktion der Haar-Wavelet-Basis ist die Indikatorfunktion des Intervalls formula_1. Waveletfunktion. wobei formula_6. Die Schreibweise mit Vorfaktor sorgt dafür, dass die Matrix eine orthogonale Matrix ist. Dies ist Teil der Bedingungen, die orthogonale Wavelets erfordern. Multiskalenanalyse. Mit formula_13 und formula_14 als Funktionen im Hilbertraum formula_15 gilt Schnelle Haar-Wavelet-Transformation. Gegeben sei ein diskretes Signal "f", welches durch eine endliche oder quadratsummierbare Folge dargestellt ist. Ihm ist als kontinuierliches Signal die Treppenfunktion Vorwärtstransformation. Dieser wird nun gliedweise mit der "Haar-Transformationsmatrix" formula_26 multipliziert dabei ist formula_28 und formula_29. Rücktransformation. Ist die Schwankung von Glied zu Glied im Ausgangssignal durch ein kleines "ε>0" beschränkt, so ist die Schwankung in "s" durch "√2⋅ε" beschränkt, also immer noch klein, die Größe der Glieder in "d" jedoch durch "ε/√2". Ein glattes Signal wird also in ein immer noch glattes Signal halber Abtastfrequenz und in ein kleines Differenzsignal zerlegt. Dies ist der Ausgangspunkt für die Wavelet-Kompression. Rekursive Filterbank. Wir können den Vorgang wiederholen, indem wir "s" zum Ausgangssignal erklären und mit obigem Vorgehen zerlegen, wir erhalten eine Folge von Zerlegungen formula_32, formula_33 hat ein formula_34-tel der ursprünglichen Abtastfrequenz und eine durch "2k/2⋅ε" beschränkte Schwankung, formula_35 hat ebenfalls ein formula_34-tel der ursprünglichen Abtastfrequenz und durch "2k/2−1⋅ε" beschränkte Glieder. Interpretation. Als diskretes Signal "f" wird meist eine reelle Folge "(fn)" über Z mit endlicher Energie betrachtet, Unter diesen gibt es einige sehr einfache Folgen "δn", Kronecker- oder Dirac-Delta genannt, eine für jedes "n"formula_38Z. Für deren Folgenglieder gilt, dass das jeweils "n"-te den Wert "1" hat, formula_39, und alle anderen den Wert "0", formula_40 bei k≠n. Jetzt können wir jedes Signal trivial als Reihe im Signalraum schreiben In vielen praktisch relevanten Signalklassen, z. B. bei überabgetasteten bandbeschränkten kontinuierlichen Signalen, sind Werte benachbarter Folgenglieder auch benachbart, d. h. im Allgemeinen liegen "f2n" und "f2n+1" dicht beisammen, relativ zu ihrem Absolutbetrag. Dies wird in der obigen Reihen aber überhaupt nicht berücksichtigt. In Mittelwert und Differenz von "f2n" und "f2n+1" käme deren Ähnlichkeit stärker zum Ausdruck, der Mittelwert ist beiden Werten ähnlich und die Differenz klein. Benutzen wir die Identität Wir erhalten somit die Zerlegung der Haar-Wavelet-Transformation und mittels des unendlichen euklidischen Skalarproduktes können wir schreiben Die letzten drei Identitäten beschreiben eine "„Conjugate Quadrature Filterbank (CQF)“", welche so auch für allgemeinere Basisfolgen "an" und "bn" definiert werden kann. Die Basisfolgen "an" entstehen alle durch Verschiebung um das jeweilige "2n" aus "a0", die "bn" durch Verschiebung aus "b0". Weiteres dazu im Artikel Daubechies-Wavelets. Nun enthält die Folge "s=(sn)" eine geglättete Version des Ausgangssignals bei halber Abtastrate, man kann also auch "s" nach dieser Vorschrift zerlegen und dieses Vorgehen über eine bestimmte Tiefe rekursiv fortsetzen. Aus einem Ausgangssignal "s0:=f" werden also nacheinander die Tupel Ist "f" endlich, also fast überall Null, mit Länge "N", dann haben die Folgen in der Zerlegung im Wesentlichen, d. h. bis auf additive Konstanten, die Längen so dass die Gesamtzahl wesentlicher Koeffizienten erhalten bleibt. Die Folgen in der Zerlegung eignen sich meist besser zur Weiterverarbeitung wie Kompression oder Suche nach bestimmtem Merkmalen als Modifikationen. Die Polyphasenzerlegung des Ausgangssignals kann auch zu einer anderen Blockgröße "s" als 2 erfolgen, von der entsprechenden Haar-Matrix ist zu fordern, dass sie eine orthogonale Matrix ist und ihre erste Zeile nur aus Einträgen "1/√s" besteht. Diese Anforderung erfüllen die Matrizen der diskreten Kosinustransformation und die der Walsh-Hadamard-Transformation. Die Haar-Wavelet-Transformation entspricht einer DCT-Transformation zur Blockgröße "s=2", welche im Bild=Pixelrechteck nacheinander in horizontaler und vertikaler Richtung angewandt wird. Heinrich VII. (HRR). Heinrich VII. (* 1278/79 in Valenciennes; † 24. August 1313 in Buonconvento bei Siena) entstammte dem Haus Limburg-Luxemburg und war Graf von Luxemburg und Laroche sowie Markgraf von Arlon. Er war von 1308 bis 1313 römisch-deutscher König und seit dem 29. Juni 1312 römisch-deutscher Kaiser. Heinrich war der erste der insgesamt drei Kaiser des Heiligen Römischen Reiches aus dem Hause Luxemburg. In der Regierungszeit Heinrichs VII. gelangte das Haus Luxemburg in den Besitz des Königreichs Böhmen, was das Fundament für die später bedeutende Hausmacht der Luxemburger im Reich legte. Im deutschen Reichsteil betrieb Heinrich eine konsensorientierte und erfolgreiche Politik. Im Herbst 1310 unternahm er einen Italienzug, um sich die Kaiserkrone zu sichern. Heinrich VII. war der erste römisch-deutsche König nach dem Staufer Friedrich II., der auch zum Kaiser gekrönt wurde. Seine schon als König begonnene energische Arbeit zur Erneuerung der kaiserlichen Herrschaft führte bald zum Konflikt mit guelfischen Kräften in Italien und mit dem König von Neapel(-Sizilien) Robert von Anjou. In dieser Auseinandersetzung ergriff Papst Clemens V., der zunächst mit Heinrich kooperiert hatte, schließlich Partei für die Guelfen. Heinrichs auf Ausgleich zwischen den verfeindeten Gruppen in Reichsitalien zielende Politik scheiterte vor allem an den Widerständen der Beteiligten, die sich eine Politik jeweils zu ihren Gunsten erhofft hatten. Heinrich hatte bis zu seiner Königswahl gute Beziehungen zum Königshof von Paris unterhalten, doch verschlechterten sich diese aufgrund seiner Politik im westlichen Grenzraum, wo er verlorene Reichsrechte einforderte. Damit geriet Heinrich in Konflikt mit dem mächtigen französischen König Philipp IV. Das Kaisertum hatte in den Jahrzehnten zuvor kontinuierlich an Einfluss verloren. Heinrichs Politik zielte auf die Wiederherstellung kaiserlicher Rechte vor allem in Reichsitalien und im westlichen Grenzraum des Imperiums ab. Er betonte die besondere Rolle des Kaisertums im Sinne der traditionellen mittelalterlichen Reichsidee. Die von Heinrich betriebene Renovatio Imperii sorgte dafür, dass das Kaisertum wieder als europäischer Machtfaktor wahrgenommen wurde. Nach Heinrichs Tod verlor die universale Kaiseridee in der Folgezeit jedoch wieder zunehmend an Bedeutung. Während der Kaiser in der älteren Forschung oft eher als Träumer oder Phantast angesehen wurde, wird in der neueren Forschung seine Anknüpfung an geläufige kaiserlich-universale Vorstellungen sowie sein durchaus von realpolitischen Motiven geleitetes Handeln betont. Heinrichs Grafenzeit. Heinrich VII. wurde in Valenciennes als Sohn des Grafen Heinrich VI. von Luxemburg und der Beatrix von Avesnes geboren. Sein genaues Geburtsjahr ist unbekannt, in der neueren Forschung wird jedoch sehr oft für 1278/79 plädiert. Heinrich VII. hatte zwei jüngere Brüder, Balduin und Walram. Über die frühen Jahre ist wenig bekannt. Graf Heinrich VI. fiel bereits 1288 in der Schlacht von Worringen, so dass sich bis zu Heinrichs Volljährigkeit seine Mutter Beatrix um ihn und die Verwaltung Luxemburgs kümmerte. 1292 heiratete Heinrich Margarete von Brabant, womit die Feindschaft zwischen beiden Häusern, die noch aus der Schlacht von Worringen resultierte, beigelegt wurde. Heinrich und Margarete hatten drei Kinder: den Sohn Johann von Luxemburg (1296–1346) und zwei Töchter, Maria (1304–1324) und Beatrix (1305–1319). Heinrichs Muttersprache war, wie mehrfach in den Quellen belegt, das Französische, und er war nach dem französischen Ritterideal erzogen worden. Zudem unterhielt er als Graf gute Beziehungen zum Hof von Paris, wo er sich wohl auch einige Zeit aufhielt. Seit 1294 regierte Heinrich eigenständig. Im November 1294 leistete er dem französischen König Philipp IV. einen Lehnseid und erhielt zum Ausgleich eine „Lehnsrente“ ausgezahlt. Eine Doppelvasallität zwei Herren gegenüber, wie in diesem Fall gegenüber dem römisch-deutschen König und dem französischen König, war im westlichen Grenzraum des Reiches keineswegs ungewöhnlich. Heinrich betrieb als Graf in der Folgezeit stets eine unabhängige, auf den eigenen Vorteil bedachte Politik und konnte einige Erfolge verbuchen. Aus dem französisch-deutsch/englischen Krieg 1294–1297 hielt er sich, obwohl für Kriegsdienste auf Seiten Frankreichs bezahlt, weitgehend heraus. Er konnte sogar Gewinne erzielen, indem er gegen Heinrich von Bar vorging, einen in englischen Diensten stehenden Gegner der Luxemburger. Im Waffenstillstand von 1297 erscheint Heinrich als erster Verbündeter Frankreichs. Er genoss einiges Ansehen. Seine Grafschaft galt als gut verwaltet und er betrieb eine umsichtige Territorialpolitik. Konflikte mit dem Grafen von Bar und der Stadt Trier konnten schließlich beigelegt werden, die Bürger der Stadt Verdun hatten sich sogar 1293/94 dem Schutz des jungen Grafen von Luxemburg unterstellt. Sein Charakter wurde unter anderem vom eher guelfisch (anti-kaiserlich) gesinnten Chronisten Giovanni Villani sehr gelobt. Wiederholt wird in den Quellen auch die Frömmigkeit Heinrichs und seiner Ehefrau Margarete herausgestellt. Heinrich nahm im November 1305 an der Krönung Papst Clemens V. teil. Dank seinen guten Beziehungen wurde sein Bruder Balduin in jungen Jahren 1307/1308 Erzbischof von Trier. Aufgrund der maroden Finanzlage des Bistums Trier stellte Heinrich zudem einen Kredit in Höhe von 40.000 Turnosen zur Verfügung. Anfang Mai 1308 schloss Heinrich in Nivelles mit mehreren niederrheinischen Fürsten ein gegenseitiges Schutz- und Trutzbündnis. Königswahl von 1308. Aachener Krönung Heinrichs VII. und Margaretes von Brabant am 6. Januar 1309, Bilderchronik des Kurfürsten Balduin von Trier, Trier um 1340, (Landeshauptarchiv Koblenz, Bestand 1C Nr. 1) An der Wahl Ende 1308 nahmen außer Heinrich von Kärnten, der in Böhmen nicht unangefochten herrschte, alle Kurfürsten teil. Zur Wahl standen mehrere Kandidaten. In Frage wären die Söhne Albrechts gekommen, doch das Verhältnis der Habsburger zu den Kurfürsten und speziell den vier rheinischen Kurfürsten war sehr angespannt. Eine dynastische Nachfolge war zudem kaum im Interesse der Wähler, die ein zu starkes Königtum, das ihre Vorrechte beschnitt, möglichst verhindern wollten. Mit Karl von Valois, dem jüngeren Bruder Philipps IV., bot sich sogar ein Thronkandidat aus dem französischen Königshaus an. Der französische Wahlvorstoß war keineswegs aussichtslos, da vor allem Heinrich von Virneburg eng an Frankreich gebunden war. Papst Clemens V. hingegen unterstützte dies nicht bedingungslos; vielmehr scheint er gehofft zu haben, dass ein neuer römisch-deutscher König den Papst in Avignon von der zunehmenden französischen Einflussnahme entlasten könnte. Clemens V. stand aufgrund des Templerprozesses massiv unter Druck. Philipp IV. forderte zudem, dass auch ein Prozess gegen das Andenken von Papst Bonifatius VIII. eröffnet werden sollte, der nur wenige Jahre zuvor einen schweren Konflikt mit Paris ausgetragen hatte. Heinrich VII. hat eventuell schon kurz nach dem Tod Albrechts mit dem Gedanken einer Kandidatur gespielt, doch bleibt dies unsicher. Im Spätherbst 1308 trat er jedenfalls als Bewerber auf und konnte sich schließlich durchsetzen. Der Kölner Erzbischof, der neben seiner eigenen Wahlstimme auch indirekt die Stimmabgabe Sachsens und Brandenburgs bestimmte, wurde durch große Zugeständnisse gewonnen. Die Wahl des Luxemburgers war wohl dem Wunsch der Kurfürsten geschuldet, einen fähigen, nicht allzu starken König zu wählen. Ein französischer Thronkandidat hätte den Kurfürsten wohl mehr Probleme bereiten können, zumal die französische Expansionspolitik im Westen des Reiches dann noch zugenommen hätte. Zuletzt gaben auch die geschickten Wahlverhandlungen und die üblichen begleitenden Wahlversprechen den Ausschlag für Heinrich. Eine große Bedeutung bei der Wahl von 1308 kam neben Peter von Aspelt, einem Unterstützer der Luxemburger, Heinrichs Bruder Balduin zu. Balduin sollte in der weiteren Politik der ersten Hälfte des 14. Jahrhunderts noch eine bedeutende Rolle spielen. Am 27. November 1308 wurde Heinrich in Frankfurt am Main von den sechs anwesenden Kurfürsten gewählt, am 6. Januar 1309 wurde er zusammen mit seiner Frau Margarete in der Kaiserstadt Aachen gekrönt. Die Wahl wurde ohne Bitte um Approbation Papst Clemens V. angezeigt. Heinrich führte als König die Ordnungszahl VII., womit der Staufer Heinrich (VII.) übergangen wurde. Vermutlich wurde der Staufer nicht gezählt, da er nicht völlig selbstständig regiert hatte und im Gedächtnis der Kurfürsten keine Rolle mehr spielte. Politisches Handeln in Deutschland. Heinrich VII. sah sich beim Regierungsantritt mit einigen Problemen im Reich konfrontiert. Das Königtum hatte in der Regierungszeit seiner beiden Vorgänger, Adolf von Nassau und Albrecht I., im Konflikt mit mehreren Fürsten gelegen, denen die Hausmachtpolitik beider Könige speziell in Mitteldeutschland missfiel. Albrecht hatte sich im Gegensatz zu Adolf von Nassau gegenüber den Kurfürsten behaupten können, doch schadeten die anhaltenden Spannungen dem Ansehen des Königs und behinderten außerdem eine effektive Herrschaftsausübung. Heinrich wählte einen Neuanfang und verständigte sich frühzeitig vor allem mit den Habsburgern, die bei der Wahl 1308 unberücksichtigt geblieben waren. Heinrich bestätigte im Juni 1309 die Rechte der neuen Eidgenossenschaft (Uri, Schwyz und Unterwalden), welche ihre Mitglieder als direkte Untertanen des Königs auswiesen, was Heinrich eine gewisse Einflussmöglichkeit in diesem Raum verschaffte. Vergeblich war allerdings Heinrichs Versuch, den Gotthardpass als neues reichsunmittelbares Gebiet zu deklarieren, um die wichtige Südverbindung besser unter Kontrolle zu haben. Er sorgte in dieser Region für ruhige Verhältnisse, griff damit aber in einem Raum ein, in dem auch die Habsburger Interessen verfolgten. Das Verhältnis zwischen dem König und den Habsburgern blieb zunächst offen: Heinrich konnte sich nicht sicher sein, wie sich die Habsburger verhalten würden; umgekehrt fürchteten die Habsburger wohl um die Bestätigung ihrer Herrschaftsrechte durch den neuen König. Während des Hoftags in Speyer im August/September 1309, auf dem auch die Habsburger vertreten waren, ließ Heinrich die Leichname seiner beiden Vorgänger dort mit einigem Aufwand neu bestatten. Die folgenden Verhandlungen mit den Habsburgern verliefen zunächst angespannt, doch wurde recht bald eine Übereinkunft getroffen. Am 17. September 1309 bestätigte Heinrich die Rechte der Habsburger und verurteilte im Anschluss die Mörder Albrechts, denen „Ehre und Recht“ genommen wurde. Die Habsburger gaben ihre noch bestehenden Ansprüche auf das Königreich Böhmen auf und stellten Heinrich Truppen sowie ein Darlehen zur Verfügung; als Gegenleistung erhielten sie die Markgrafschaft Mähren als Pfand. Damit war eine für beide Seiten befriedigende Vereinbarung erzielt. Die Habsburger unterstützten in der folgenden Zeit die Politik Heinrichs, was einen Erfolg für den neuen König darstellte. Heinrich kooperierte auch mit den anderen Großen des Reiches, wie den Wittelsbachern, die sich später mit Truppen am Romzug beteiligten. Die Bedeutung des Konsenses zwischen dem König und den Großen im Rahmen mittelalterlicher Herrschaft wird in der neueren Forschung verstärkt betont; man spricht von „konsensualer Herrschaft“. Das verbliebene Reichsgut, das während des Interregnums reduziert worden war, wurde geordnet. Problematisch blieb die angespannte Finanzlage des Königtums, da die Einnahmen vergleichsweise gering waren. Im Sommer 1310 wurde ein Landfrieden für das Oberrheingebiet verkündet. Heinrichs effektive Königsherrschaft beschränkte sich im Wesentlichen auf den Süden des Reiches; darauf bzw. auf die Oberrheinregion (die sogenannten „königsnahen“ Landschaften) beschränkte er auch den üblichen Königsumritt und seine folgenden Aufenthalte bis in den Herbst 1310. Der norddeutsche Raum hingegen stellte bereits seit der späten Stauferzeit ein Gebiet dar, in dem das Königtum nicht mehr effektiv eingreifen konnte („königsferne“ Gebiete). Heinrich hielt in Speyer (August/September 1309 und Anfang September 1310) und in Frankfurt am Main (im Juli 1310) Hoftage ab. Diese dienten neben der Vorbereitung des schon frühzeitig geplanten Romzugs auch der Ordnung der politischen Verhältnisse im deutschen Reichsteil, wo es zu keinen bedrohlichen Konflikten mehr kam. Heinrich VII. unterstützte den Niederschwäbischen Städtebund in dessen Auseinandersetzung mit dem Grafen Eberhard von Württemberg, der eine aggressive Territorialpolitik betrieb; gegen Eberhard wurde im Spätsommer 1310 der Reichskrieg erklärt, der sich noch bis ins Jahr 1316 hinzog. Ansonsten war die Königsherrschaft Heinrichs VII. unangefochten. Die Leitung der königlichen Kanzlei, in der vor allem während des Italienzugs einige rhetorisch recht beeindruckende Verlautbarungen angefertigt wurden, oblag Heinrich von Villers-Bettnach, Bischof von Trient. In der Kanzlei fungierten als Notare unter anderem Simon von Marville und Heinrich von Geldonia; im Verlauf des Romzugs kamen auch Italiener hinzu, darunter Bernhard von Mercato. Aufgrund der nur kurzen Regierungszeit Heinrichs und der problematischen Überlieferungslage lässt sich das Hofleben nur skizzenhaft rekonstruieren. Es war offenbar von der französischen Hofkultur geprägt, wie auch mehrere Personen aus dem romanischen Westen des Reiches zum engeren Umfeld Heinrichs gehörten, so z. B. Graf Heinrich von Flandern und dessen Bruder Guido von Namur, beide Verwandte des Königs, oder Bischof Theobald von Lüttich, der während der Straßenkämpfe in Rom 1312 getötet wurde. In die Streitigkeiten der Wettiner um Meißen und Thüringen mischte sich Heinrich im Unterschied zu seinen Vorgängern Adolf von Nassau und Albrecht zunächst nicht ein, hielt aber grundsätzlich an der Auffassung fest, dass beide Territorien nun der Verfügungsgewalt der Krone unterstanden. Das Verhältnis zwischen Friedrich dem Freidigen und Heinrich blieb bis Ende 1310 ungeklärt; vor allem gewährte Heinrich dem Wettiner längere Zeit nicht die gewünschten Ansprüche. Erst im Dezember 1310, als er sich bereits in Italien aufhielt, verzichtete der König auf seinen Anspruch hinsichtlich Thüringen und Meißen, mit denen nun Friedrich belehnt wurde. Als Gegenleistung erhielt Heinrich die Unterstützung der Wettiner hinsichtlich der luxemburgischen Ansprüche in Böhmen. In Böhmen herrschten seit dem Aussterben der Přemysliden in männlicher Linie im Jahr 1306 unruhige Verhältnisse. Heinrich von Kärnten, seit 1307 König von Böhmen, hatte sich durch seine Politik recht unbeliebt gemacht, sogar ein Bürgerkrieg schien zu drohen. Einflussreiche oppositionelle böhmische Kreise hatten daher bereits im August 1309 Kontakt zu Heinrich VII. aufgenommen, der sich zu diesem Zeitpunkt in Heilbronn aufhielt. Ob bereits damals ein luxemburgischer Thronkandidat erwogen wurde, bleibt aufgrund der Quellenlage letztendlich zwar offen, doch ist es angesichts der späteren Entwicklung wahrscheinlich. Im Juli 1310 wurden jedenfalls erneut Gespräche aufgenommen, um Heinrich zum Eingreifen zu bewegen. Heinrich ergriff nun diese Gelegenheit, da Böhmen zu den bedeutendsten Reichsterritorien zählte und eine machtpolitische Perspektive für das Haus Luxemburg bot. Zunächst erhoffte sich Heinrich die Krone Böhmens wohl für seinen zweiten Bruder Walram, dies stieß jedoch eher auf Ablehnung. Es kam bald darauf zu einer Einigung zwischen Heinrich und den böhmischen Gegnern Heinrichs von Kärnten; letzterer wurde für abgesetzt erklärt. Am 30. August 1310 belehnte Heinrich VII. seinen 14 Jahre alten Sohn Johann mit Böhmen. Am selben Tag heiratete Johann in Speyer Elisabeth, die Schwester des letzten anerkannten Böhmenkönigs, womit der luxemburgische Anspruch zusätzlich legitimiert wurde. Johann begab sich bald darauf nach Böhmen, wo er sich rasch durchsetzen konnte. Heinrich von Kärnten wurde bereits Ende 1310 aus Prag vertrieben. Er zog sich in seine Erbländer zurück und spielte in der Folgezeit keine entscheidende Rolle mehr, wenngleich er bei der Doppelwahl 1314 noch einmal die böhmische Stimme für sich beanspruchte und für den Habsburger Friedrich stimmte. Der Erwerb Böhmens war der größte Erfolg von Heinrichs Politik im deutschen Reichsteil. Damit waren die Grafen von Luxemburg, Territorialherren eher zweiten Ranges im Linksrheinischen, in den Besitz der erblichen Königskrone eines reichen Territoriums gelangt. Böhmen sollte zum Eckpfeiler der luxemburgischen Hausmacht werden, die in den folgenden Jahren noch erheblich ausgebaut wurde. Heinrich selbst unternahm diesbezüglich nichts, da der Italienzug unmittelbar bevorstand. Das weitere Vorgehen lag nun in der Hand Johanns, der während des Romzugs als königlicher Vikar im deutschen Reichsteil fungieren sollte. Frankreichpolitik. Während Heinrich als Graf gute Beziehungen zum französischen Königshof unterhalten hatte, bemühte er sich als römisch-deutscher König, die bereits seit dem 13. Jahrhundert laufende Expansionspolitik Frankreichs zu stoppen. Heinrichs Vorgänger Albrecht hatte sich noch im Dezember 1299 bei einem Treffen in Quatrevaux mit Philipp IV. verständigt und dabei territoriale Zugeständnisse gemacht. Zu einem ähnlichen Schritt war der Luxemburger nicht bereit. Heinrich ernannte bereits 1309 königliche Vikare, beispielsweise Ende Mai 1309 für die Grafschaft Cambrai, und forderte mehrere geistliche und weltliche Landesherren in diesem Raum auf, die Regalien aus seiner Hand persönlich in Empfang zu nehmen. Insgesamt gelang es wenigstens, den französischen Druck auf die Grenzregionen zu mindern. Die Maßnahmen des Königs lagen auch im Interesse vieler linksrheinischer Territorialherren, die vom französischen König stark unter Druck gesetzt wurden. In Paris zeigte man sich denn auch besorgt über das Engagement des römisch-deutschen Königs. Auf Drängen des Papstes versuchte sich Heinrich dennoch mit Philipp IV. zu einigen. Ende Juni 1310 wurde der sogenannte Vertrag von Paris geschlossen. Strittige Fragen sollten demnach durch Schiedsgerichte entschieden werden. Nachdem jedoch französische Truppen im Juni 1310 überraschend in Lyon einmarschiert waren, das formal zum Imperium gehörte, brach Heinrich den Kontakt mit Philipp zunächst ab. Im April 1311 hatte sich Clemens V. mit Philipp IV. hinsichtlich des Templerprozesses und des Prozesses gegen das Andenken von Bonifatius VIII. weitgehend verständigt. Der Papst ermahnte Heinrich, der sich bereits in Italien befand, sich mit dem französischen König zu einigen. Die Spannungen zwischen Heinrich und Philipp blieben jedoch weiterhin bestehen. Heinrich war offenbar nicht bereit, dem französischen König größere Konzessionen zu machen, nachdem Philipp widerrechtlich Lyon besetzt hatte. Als zukünftiger Kaiser war Heinrich sehr auf sein Ansehen bedacht; dies implizierte unter anderem die Wahrung und Rückforderung von Reichsrechten. Auf der anderen Seite betrachtete Philipp die Kaiserkrönung und den damit verbundenen Ansehensgewinn seines ehemaligen Vasallen offenbar argwöhnisch. Durch die Neuaufnahme der alten kaiserlichen Italienpolitik, die mit dem Ende der Staufer beendet schien, wurden auch französische Interessen tangiert, etwa in Unteritalien, wo mit dem Hause Anjou eine Seitenlinie des französischen Königshauses regierte. Hinzu kamen die ungelösten Probleme im westlichen Grenzgebiet, nicht zuletzt im alten Königreich Arelat, wo Heinrich als Kaiser intervenieren konnte. Bis 1313 war Heinrich vor allem in Italien gebunden; doch schon kurz nach der Kaiserkrönung beklagte er, dass Philipp Länderraub begehe. Anfängliches Verhältnis zum Papsttum und Vorbereitung des Romzugs. Das Heilige Römische Reich etwa zur Zeit Heinrichs VII. Heinrichs Pläne für eine "Romfahrt" und eine aktivere Italienpolitik waren bereits in der Wahlanzeige an den Papst deutlich geworden, in der man dem Wunsch nach einer baldigen Kaiserkrönung Ausdruck verliehen hatte. Im Frühsommer 1309 reiste eine Gesandtschaft Heinrichs zum Papst nach Avignon, wo dieser nun residierte (siehe Avignonesisches Papsttum). Die Verhandlungen, bei denen sich die königlichen Gesandten betont demütig gegenüber dem Papst verhielten, verliefen erfolgreich: Papst Clemens V. erklärte sich bereit, die Kaiserkrönung Heinrichs vornehmen zu lassen. Ursprünglich war dafür der 2. Februar 1312 vorgesehen, der 350. Jahrestag der Kaiserkrönung Ottos des Großen, doch sollte sich dieser Termin später verschieben. Heinrich war auf ein gutes Verhältnis zum Papst angewiesen, da dieser allein zur Kaiserkrönung befugt war. Umgekehrt erhoffte sich Clemens, der in Avignon verstärkt dem Druck Philipps IV. ausgesetzt war, vom zukünftigen Kaiser Unterstützung und wohl auch eine Stabilisierung der italienischen Verhältnisse. Allerdings zeigte sich, dass der Papst dem französischen Druck nicht immer gewachsen war; nach der Einigung mit Philipp IV. hinsichtlich Bonifatius VIII. im Frühjahr 1311 distanzierte er sich zunehmend von Heinrich. Vorläufig jedoch kooperierten Papst und zukünftiger Kaiser, was nach dem Ende der Staufer und den damit verbundenen Spannungen zwischen beiden Universalgewalten nicht selbstverständlich war. Die Wiederaufnahme der alten kaiserlichen Italienpolitik geschah nicht völlig überraschend, denn schon Rudolf von Habsburg hatte sich (allerdings vergeblich) um die Kaiserkrone bemüht. Die Kaiserkrone stellte die höchste weltliche Würde im katholischen Europa dar und ermöglichte die unumstrittene Herrschaftsausübung im Arelat sowie die Wahl eines römisch-deutschen Königs noch zu Lebzeiten des Kaisers. Die Finanzkraft der italienischen Kommunen war ausgesprochen hoch. Die Ausübung von Herrschaftsrechten in Reichsitalien ermöglichte daher ungleich höhere Geldeinnahmen als im deutschen Reichsteil, und auf diese Einnahmen war Heinrich VII. angewiesen. Heinrich VII. beabsichtigte offenbar frühzeitig, eine Erneuerung des Kaisertums zu betreiben und an die alten kaiserlich-universalen Konzeptionen anzuknüpfen. In seiner Umgebung befanden sich bereits in Deutschland einige kaiserlich gesinnte Italiener, die ihn darin bestärkt haben dürften. Heinrich schickte schon im Sommer 1309 Gesandtschaften nach Reichsitalien, um seinen Romzug anzukündigen, weitere Gesandtschaften folgten 1310. Ihre Berichte waren offenbar so positiv, dass Heinrich mit einem problemlosen Ablauf des Italienzugs rechnete. Der Italienzug war nicht nur diplomatisch gut vorbereitet worden. Auf den Hoftagen von Speyer und Frankfurt (siehe oben) stellte Heinrich die Weichen für den reibungslosen Beginn der Romfahrt. Allerdings kam es im Vorfeld des Italienzugs im Sommer/Herbst 1310 noch zu problematischen Verhandlungen mit der Kurie in Avignon. Clemens V. bestand darauf, dass der König auf gewisse Herrschaftsansprüche in Italien zugunsten der Kirche verzichten solle. Heinrich erklärte sich bereit, die üblichen Sicherheitseide römisch-deutscher Könige gegenüber dem Papst zu leisten, gegen die Aufgabe von Reichsrechten protestierte er jedoch. Der Papst hielt aber hartnäckig daran fest. Heinrich erklärte sich schließlich im Oktober 1310 in Lausanne dazu bereit, während er bereits auf dem Weg nach Italien war. Die Zeit drängte und einen Konflikt wollte der König anscheinend vermeiden. Die strittigen Punkte schienen damit geklärt zu sein, doch sollte es später in Italien noch einmal zur Auseinandersetzung kommen. Ausgangslage. Heinrich VII. hatte im deutschen Reichsteil für sichere Verhältnisse gesorgt und damit eine wichtige Voraussetzung für seine weitgespannte Imperialpolitik geschaffen. Gesandtschaften überquerten vor Heinrich die Alpen, um seine Herrschaft diplomatisch zur Anerkennung zu bringen. Selbst gegenüber Venedig, das sich nie als Teil des Reiches angesehen hatte, beanspruchte Heinrich offenbar Herrschaftsrechte und betrachtete die Stadt als Reichsteil; ein Anspruch, der von Venedig nie akzeptiert wurde. Ende Oktober 1310 überschritt Heinrich die Alpen über den Mont Cenis nach Italien, während sein Sohn Johann als Reichsvikar zurückblieb. Das Heer umfasste im Kern 5.000 Mann; die Truppenstärke wurde in der Forschung oft als zu gering erachtet, doch schien sie im Hinblick auf die positiven Gesandtschaftsberichte und das primäre Ziel des Zugs, die Kaiserkrönung, ausreichend zu sein. In Heinrichs Gefolge befanden sich einige weltliche und geistliche Fürsten, die überwiegend aus dem romanischen Westen des Reiches stammten; seine Ehefrau Margarete sowie seine beiden Brüder Balduin und Walram begleiteten ihn ebenfalls. Über den Romzug Heinrichs berichten vor allem verschiedene italienische Quellen ausführlich, waren seit dem letzten Aufenthalt eines römisch-deutschen Königs südlich der Alpen doch mehr als 50 Jahre vergangen. In Reichsitalien erhofften sich weite Kreise, dass der zukünftige Kaiser regulierend in die instabilen politischen Verhältnisse eingriff. Diese waren von Konflikten innerhalb mehrerer Kommunen sowie zwischen verschiedenen Städten gekennzeichnet. Ghibellinen und Guelfen standen sich oft feindlich gegenüber. Allerdings verlief keine scharfe Trennung zwischen beiden Gruppen. In Italien wurde Heinrich VII. sowohl von den (zumindest formal) kaisertreuen Ghibellinen als auch von mehreren Guelfen begrüßt und zunächst freundlich empfangen. Vor allem die Guelfen erhofften sich von Heinrich eine Bestätigung ihrer Rechte, die sie in den letzten Jahrzehnten, in denen kein König einen Fuß nach Italien gesetzt hatte, usurpiert hatten. Die Kaiseranhänger hingegen wollten, dass Heinrich für ihre Seite Partei ergriff. Venedig wiederum lag mit dem Papst im Streit um Ferrara und hoffte auf Heinrichs Unterstützung in Avignon. Im Königreich Sizilien herrschte seit 1266 das Haus Anjou, eine Nebenlinie des französischen Königshauses. Seit der sizilianischen Vesper 1282 war die Herrschaft der Anjous jedoch auf das unteritalienische Festland begrenzt, weshalb ihr Reich für diesen Zeitraum oft als Königreich Neapel bezeichnet wird. Sizilien wurde seit 1296 von Friedrich aus dem Hause Aragon beherrscht, der alle Rückeroberungsversuche der Anjous abwehren konnte. In Neapel regierte seit 1309 Robert von Anjou, ein Lehnsmann sowohl des Papstes (für das Königreich Neapel) als auch des römisch-deutschen Königs (für die Provence und Forcalquier). Während sich Robert oberflächlich um gute Beziehungen zu Heinrich bemühte, unterstützte er teils verdeckt, teils offen dessen Gegner in Oberitalien. Ein von der Kurie angestoßenes Heiratsbündnis zwischen den Häusern Luxemburg und Anjou, wodurch ein Ausgleich erzielt werden sollte, wurde vom Herbst 1310 bis in den Sommer 1312 verhandelt. Das Vorhaben scheiterte jedoch, nicht zuletzt weil Robert seine Forderungen in die Höhe schraubte und an seiner Unterstützung für die Guelfen in Reichsitalien festhielt. Robert hatte sich ohnehin längst mit Florenz arrangiert, das der Italienpolitik Heinrichs feindlich gegenüberstand. Doch nicht nur gemeinsame politische Ziele verbanden Neapel und Florenz, Robert war zudem von der florentinischen Finanzkraft abhängig. Robert schickte wiederholt Söldner nach Norden, die gegen kaiserliche Truppen kämpften. Ganz offen geschah dies im Mai 1312 in Rom. Vom Alpenübergang bis zum Mailänder Aufstand. Zu Beginn des Romzugs war Heinrich ernsthaft um einen Ausgleich mit den Guelfen bemüht und betrieb eine allgemeine Ausgleichs- und Friedenspolitik, wobei er auch eine Rückkehr der aus politischen Gründen Verbannten beider Seiten in ihre Heimatstädte anstrebte. Heinrich äußerte mehrfach seine Absicht, sich von keiner Seite vereinnahmen zu lassen. Er wurde jedoch schließlich zur Parteinahme zugunsten der Ghibellinen und kaisertreuen Guelfen (der sogenannten „weißen Guelfen“) gezwungen. Verantwortlich dafür war vor allem der Widerstand der guelfisch dominierten Kommunen, die der Friedenspolitik Heinrichs misstrauisch gegenüberstanden und an einer Rückkehr der politisch Verbannten nicht interessiert waren, da es sich dabei hauptsächlich um Ghibellinen und weiße Guelfen handelte. Heinrichs Bemühungen sind von manchen Forschern in Anbetracht der verworrenen Lage in Italien als weltfremd beurteilt worden, sie waren jedoch durchaus in seine allgemeinen politischen Zielsetzungen eingebettet. Wiederholt bemühte sich Heinrich, die verfeindeten Gruppen in den Kommunen zusammenzuführen, um so für stabilere Verhältnisse zu sorgen. Diese Vorgehensweise erprobte der König bereits zu Beginn des Romzugs in der Stadt Asti, wo er sich im November/Dezember 1310 aufhielt. Zunächst ließ er sich von der Stadtgemeinde deren Treue öffentlich bestätigen. Anschließend bemühte er sich, die verfeindeten örtlichen Familien Solari und de Castello miteinander zu versöhnen. Faktisch übernahm der König die direkte Regierungsgewalt über die Kommune und übte eine Schiedsrichterfunktion aus. Nach seiner Ankunft in Italien hielt sich Heinrich VII. zunächst im Raum Turin auf. Dort huldigte ihm eine erste Gesandtschaft der lombardischen Städte. Der König griff in Reichsitalien wiederholt in die inneren Verhältnisse der Kommunen ein und ließ sich deren Anerkennung der kaiserlichen Oberherrschaft urkundlich bestätigen, wie das bereits erwähnte Beispiel der Stadt Asti zeigt. Diese Vorgehensweise weist auf die im Spätmittelalter zunehmende Bedeutung schriftlich fixierter Herrschaftsausübung hin. Der König versuchte außerdem mit der Einsetzung königlicher Vikare eine Verwaltung in Oberitalien zu etablieren. Sein Schwager Amadeus V. von Savoyen, der dabei eine wesentliche Rolle spielte, wurde zum Generalstatthalter ernannt. Neuere Forschungen belegen außerdem, dass Heinrich nicht nur die Finanzkraft der Kommunen nutzte, sondern auch über eine relativ „moderne“ Finanzverwaltung verfügte, in der als Schatzmeister Simon Philippi und Gille de la Marcelle fungierten. In diesem Zusammenhang wurde die in Italien bereits verbreitete fortschrittliche Rechnungslegung als Herrschaftsinstrument intensiv genutzt. Durch die Maßnahmen Heinrichs, vor allem die Eingriffe in kommunale Rechte, entstand schließlich ein Konflikt zwischen dem König und den selbstbewussten Kommunen. Heinrichs Maßnahmen zur Wahrung kaiserlicher Rechte in Reichsitalien stießen daher bald auf den Widerstand kaiserfeindlicher Kräfte. Vor allem Guido della Torre, der guelfische Herr von Mailand, fühlte sich davon bedroht. Während einige andere Guelfen abwarten wollten, wie sich der König ihnen gegenüber verhielt, soll Guido dem Chronisten Giovanni da Cermenate zufolge während einer Versammlung der Guelfen zornig ausgerufen haben: „Was will denn dieser deutsche Heinrich von mir?“ Guido lenkte jedoch zunächst ein, als Heinrich Ende Dezember 1310 vor Mailand eintraf und im Rahmen des üblichen festlich inszenierten Herrschereinzugs ("adventus regis") die Stadt betrat. Heinrich ließ sich die Anerkennung seiner Herrschaft zuerst durch einen Treueid der Mailänder bestätigen. Er war außerdem bestrebt, in Mailand im dortigen Konflikt zwischen Guido della Torre und dessen Rivalen Matteo I. Visconti zu vermitteln; zumindest oberflächlich und vorläufig versöhnten sich die verfeindeten Seiten. Am 6. Januar 1311 wurde Heinrich VII. in Mailand als erster römisch-deutscher König nach dem Staufer Heinrich VI. mit der eigens neu angefertigten eisernen Krone der Langobarden gekrönt. Die Stadt Mailand hatte dem König einen hohen Geldbetrag in Aussicht gestellt, den Guido jedoch weiter in die Höhe getrieben hatte, womit er eine plötzliche Spannung erzeugt hatte. Heinrich war nicht bereit, auf die versprochene Zahlung zu verzichten, und forderte außerdem von den Mailändern Geiseln für den weiteren Zug. Im Februar 1311 brach ein Aufstand in Mailand aus, der die Restaurationspolitik Heinrichs in ernste Gefahr brachte und an dem Guido della Torre wohl maßgeblich beteiligt war. In Mailand konnten die Unruhen durch die königlichen Truppen rasch beendet werden, doch in mehreren anderen Kommunen kam es bald darauf ebenfalls zu Aufständen. Nachdem Guido die Flucht ergriffen hatte, setzte Heinrich Matteo Visconti in Mailand ein. In der Folgezeit eröffnete er mehrere Prozesse gegen rebellische Städte und zwang einige auch mit Waffengewalt nieder. Wenngleich Heinrich weiterhin an der Idee eines Ausgleichs festhielt, zwang ihn die politische Lage zu einem anderen Kurs. Wiederholt musste er nun notgedrungen auf vor allem ghibellinische Vikare und Stadtherren zurückgreifen, was die Spannungen zu den Guelfen weiter verstärkte. Die komplexe politische Lage in Reichsitalien zwang Heinrich nun faktisch dazu, sich für ein Lager zu entscheiden; hinzu kam der Widerstand Frankreichs und des Königreichs Neapel(-Sizilien) gegen seine Italienpolitik. Cremona und Brescia. Im Frühjahr/Sommer 1311 kam es zu schweren Kampfhandlungen in Oberitalien. Heinrich ging vor allem gegen die Städte Cremona und Brescia militärisch vor. Cremona unterwarf sich rasch, wurde aber dennoch recht hart bestraft; dabei spielte wohl eine Rolle, dass Heinrich ein Zeichen gegen die Aufständischen setzen wollte. Brescia leistete mehrere Monate erbitterten Widerstand. Im Verlauf der Belagerung starb Heinrichs Bruder Walram, während im Heer eine Seuche ausbrach und die Truppen dezimierte. Erst im September 1311 kapitulierte die Stadt. Heinrich ließ öffentlich verkünden, dass die Rebellen den Tod verdient hätten, er ihnen aber aus Milde das Leben schenke. Es folgten harte Strafmaßnahmen gegen Brescia, neben hohen Geldstrafen wurden die Mauern geschleift. Sowohl im Fall Cremonas als auch im Fall Brescias wurde die Unterwerfung ("deditio") der Kommune in einem öffentlichen Rahmen inszeniert. Die historiographische Überlieferung dazu ist reichhaltig und die unterschiedlichen Berichte erlauben ein relativ klares Bild von diesen Vorgängen. In Cremona erschienen hochrangige Bürger der Kommune, die – Albertino Mussato zufolge demonstrativ Trauerkleidung tragend – den König in die Stadt führen wollten. Ihr Ziel war es, den König so gütig wie möglich zu stimmen, doch scheiterten sie letztendlich mit ihrem Vorhaben. Bemerkenswert ist der Bericht Dino Compagnis zur "deditio" Cremonas. Ihm zufolge warfen sich die Bürger vor dem König hin und beklagten sich bitterlich; sie seien bereit zu gehorchen, falls Heinrich in ihrer Stadt auf die Einsetzung eines Vikars verzichte. Der König ging darauf nicht ein, doch die Bürger wurden angeblich durch Briefe dazu ermuntert, einen neuen Versuch zu unternehmen. Hochrangige Bürger erschienen daraufhin erneut vor Heinrich, diesmal barfüßig und mit einfachen Hemden bekleidet. Sie hatten sich Stricke um den Hals gelegt, um ihre Unterwerfung zu verdeutlichen, und um Milde gebeten. Heinrich akzeptierte aber auch dies nicht. Nach Dinos Bericht zog er sein Schwert und zwang die Delegation, unter diesem hindurch in die Stadt zu gehen; dann ließ er sie festsetzen. Eine Rolle spielte hierbei wohl die Wahrung des königlichen Herrschaftsanspruchs; im Fall Brescias spiegeln die Strafmaßnahmen zusätzlich die Härte der Kämpfe wider. So war im Juni 1311 der in Gefangenschaft geratene Anführer der Guelfen Brescias, Tebaldo Brusati, auf besonders brutale Weise hingerichtet worden; in Brescia waren daraufhin Gefangene in Sichtweite des kaiserlichen Lagers getötet worden. Wenngleich die Aufstände Heinrich kaum eine Wahl ließen und seine Strafmaßnahmen für damalige Verhältnisse keineswegs ungewöhnlich waren, verspielte er damit einige Sympathien. Vor allem aber gab es seinen Gegnern die Gelegenheit, den König als angeblichen „Tyrannen“ zu brandmarken und an die Strafmaßnahmen früherer römisch-deutscher Herrscher zu erinnern. Diese negative Stilisierung des Königs durch die Guelfen und vor allem Florenz, wo man ihm schließlich seine rechtmäßige Titulatur als "rex Romanorum" („König der Römer“) verweigerte, dauerte noch nach dem Tod Heinrichs an. Im Laufe der Zeit wandten sich immer mehr Guelfen seines Gefolges von ihm ab; daher musste er verstärkt auf ghibellinische Unterstützer zurückgreifen. Aufenthalt in Genua und Pisa. Heinrich zog von Brescia weiter nach Genua, wo er seine verbliebenen Kräfte sammelte und auch in die politischen Verhältnisse der Stadt eingriff. Dort verstarb am 14. Dezember 1311 Heinrichs Frau Margarete, die auch dort bestattet wurde. In Genua äußerte sich der König verärgert über die Politik Roberts von Anjou, der für seine Reichslehen Heinrich die Huldigung verweigert hatte. Die abwartende, bald offen feindselige Haltung von Florenz stellte ein weiteres ernsthaftes Problem dar. Florenz und mehrere andere guelfische Städte hatten bereits ein Bündnis geschlossen, das sich eindeutig gegen Heinrich und dessen Politik richtete, alte kaiserliche Herrschaftsrechte in Italien wieder wahrzunehmen. Gegen Florenz eröffnete Heinrich Ende 1311 einen Prozess und klagte den Abfall der Stadt von der imperialen Ordnung wortgewaltig an. Am 24. Dezember 1311 verhängte er den Reichsbann, dessen reale Auswirkung aber eher gering blieb. Aufgrund des Zeitplans der Kaiserkrönung zog Heinrich aber nicht gegen Florenz, sondern begab sich im Februar 1312 mit einem kleinen Heer auf dem Seeweg in das ghibellinische Pisa. Dort wurde er Anfang März 1312 sehr freundlich aufgenommen, zumal die Pisaner hofften, vom Vorgehen gegen Pisas Erzrivalin Florenz profitieren zu können. Die im Oktober 1311 in Pavia und im März/April 1312 in Pisa abgehaltenen Hoftage dienten der Stabilisierung der Reichsherrschaft in Italien. Diese war nach dem Mailänder Aufstand deutlich ins Wanken geraten. Parma, Reggio, Asti, Vercelli und Pavia sollten sich im Verlauf des Romzugs der Guelfenliga unter Führung von Florenz und Bologna anschließen, doch behaupteten sich kaisertreue Kräfte immer noch in größeren Teilen Reichsitaliens; auch die Verbindung nach Norden blieb weiterhin offen. Gescheitert war vorerst nur Heinrichs Ausgleichspolitik, nicht seine Italienpolitik im Ganzen. Ende April 1312 zog er zur geplanten Kaiserkrönung weiter nach Rom. Die Kaiserkrönung und ihre Folgen. Als Heinrich Anfang Mai 1312 Rom erreichte, war der Widerstand gegen ihn längst aufgebaut. Dieser war inszeniert von Robert von Anjou, der Söldner nach Rom geschickt hatte, und ausgeführt von der guelfisch gesinnten Familie der Orsini. Bald darauf kam es zu schweren Kämpfen in der Stadt, da die guelfischen Truppen Heinrich den Zugang nach St. Peter versperrten, wo die römisch-deutschen Kaiser traditionell gekrönt wurden. An den Kämpfen waren auch neapolitanische Truppen unter dem Kommando von Roberts Bruder Johann von Gravina beteiligt. Wiederholt versuchten die kaiserlichen Truppen, den Zugang mit Gewalt zu erkämpfen; besonders verlustreich waren die erbitterten Gefechte am 26. Mai 1312. Ein Durchbruch gelang jedoch nicht. Dennoch fand die Kaiserkrönung Heinrichs durch die vom Papst entsandten Kardinäle am 29. Juni 1312 statt. Die drei in Rom anwesenden Kardinäle, zu denen auch der kaiserfreundlich eingestellte Nikolaus von Prato gehörte, wollten zunächst Nachricht aus Avignon abwarten. Als die Stimmung in der Stadt jedoch zunehmend gereizter wurde und es in der Umgebung der päpstlichen Delegation zu Unruhen kam, sahen sie sich zum Handeln gezwungen. Die Kaiserkrönung wurde statt in St. Peter im Lateran vollzogen. Im Anschluss an die feierliche Krönung erließ Heinrich ein Ketzergesetz. Dies entsprach der normalen zeitgenössischen Erwartungshaltung, der zufolge der Kaiser weltlicher Schutzherr der Christenheit war. Anschließend erließ er eine Krönungsenzyklika und ließ diese mehreren weltlichen und geistlichen Fürsten Europas zukommen. Es ist ein regelrechtes, von Heinrichs gelehrten Beratern anspruchsvoll verfasstes Plädoyer für die kaiserliche Universalgewalt, in der himmlische und irdische Ordnung als wesensähnlich gedeutet werden. In der Arenga wird erklärt, dass so wie Gott über alles im Himmel gebietet, alle Menschen auf Erden dem Kaiser zu gehorchen haben; es sei dessen Aufgabe, die Zersplitterung der weltlichen Herrschaften zu überwinden. Diese Erklärungen, die in dieser Form ganz einmalig sind, wurden in der Forschung teilweise als realitätsferner Versuch gedeutet, die „kaiserliche Weltherrschaft“ zu formulieren, doch sind Heinrichs Aussagen als Ausdruck seiner "Kaiseridee" zu verstehen. Heinrich VII. war offenbar von der Würde des Kaiseramts durchdrungen und versuchte das Kaisertum politisch wieder zur Geltung zu bringen, nachdem es mehrere Jahrzehnte keine Rolle gespielt hatte. Dabei knüpfte er an bekannte kaiserlich-universale Ideen in der Art entsprechender Vorstellungen der Stauferzeit an. Zwar wurde die päpstliche Führungsrolle in geistlichen Fragen betont, doch in weltlichen Fragen beanspruchte der Kaiser den Vorrang. Kaiser und Papst sollten gemeinsam zum Wohle der Christenheit agieren und den Frieden sichern. Diese Zielsetzung legitimierte den keineswegs neuen kaiserlichen „Weltherrschaftsanspruch“. Dieser war in vieler Hinsicht nur formaler Art, wurde aber von kaiserlichen Parteigängern unter den Gelehrten vehement verteidigt, so im frühen 14. Jahrhundert von Engelbert von Admont und Dante Alighieri. Der französische König Philipp IV. zeigte sich jedoch empört und reagierte abschätzig auf die Ausführungen Heinrichs. Offenbar befürchtete Philipp einen kaiserlichen Vorranganspruch, dem der selbstbewusste französische König entgegentreten wollte. Außerdem spielte auch der konkrete Interessengegensatz eine Rolle, der wegen Heinrichs Bemühen um Wahrung von Reichsrechten im Grenzraum zu Frankreich bestand. Aus Neapel kamen später ebenfalls beißende Reaktionen. Ganz anders reagierte der englische König Eduard II., der die Erklärung nur zur Kenntnis nahm und dem Kaiser zur Krönung gratulierte. An der päpstlichen Kurie war man inzwischen von Heinrich abgerückt. Ende März 1312 intervenierten französische und angiovinische Gesandte beim Papst und erhoben schwere Vorwürfe gegen den römisch-deutschen König; man wies auf die Gefahr hin, die von diesem für Robert von Anjou ausgehe. Clemens V., dem die Erneuerungspolitik Heinrichs politisch immer mehr missfiel und der zudem dem Druck des französischen Königs nachgab, ließ sich davon beeinflussen und stellte sich ganz auf die Seite Roberts. Der Papst ordnete nur wenige Tage vor der Kaiserkrönung einen Waffenstillstand zwischen Heinrich und Robert an; außerdem sollte Heinrich nach seiner Kaiserkrönung Rom sofort verlassen. Noch im Sommer 1312 verbot Clemens dann dem Kaiser, das Königreich Neapel anzugreifen. Dagegen protestierte Heinrich vehement, denn die Waffenstillstandsverfügung implizierte einen päpstlichen Anspruch auf weltliche Überordnung über ihn. Einen solchen hatte Heinrich aber nie anerkannt. Er hatte vor seinem Aufbruch nach Italien im Oktober 1310 bloß einen Eid zum Schutz von Papst und Kirche sowie zum Kampf gegen die Ketzer geschworen. Heinrich verwahrte sich nun gegen jede Einmischung des Papstes, wobei er auch Juristen zu seiner Unterstützung heranzog. Hinsichtlich des Konflikts mit Robert wies der Kaiser außerdem darauf hin, dass es Robert gewesen war, der sich stets feindselig verhalten hatte und seine Lehnspflicht gegenüber Heinrich sträflich vernachlässigt hatte. Darauf beabsichtigte Heinrich nun zu reagieren. Es wurden sogar Traktate der kaiserlichen Seite angefertigt, in denen die kaiserliche Universalgewalt in weltlichen Angelegenheiten betont wurde, ganz so wie in staufischer Zeit. Von der Kaiserkrönung bis zum Tod Heinrichs VII.. Heinrich VII. war mit seiner Politik einer Erneuerung der Reichsgewalt endgültig in Konflikt mit Robert von Anjou, dem Papst, den guelfischen Kommunen – insbesondere dem mächtigen Florenz – und dem König von Frankreich geraten. Wenngleich die Lage in Oberitalien für den Kaiser problematisch blieb und ein Teil seines Gefolges nach der Kaiserkrönung wieder nach Deutschland aufgebrochen war, verfügte er weiterhin über einige Verbündete, unter anderem Pisa und König Friedrich von Sizilien („Trinacria“). Heinrich stand mit Friedrich, einem erbitterten Feind Roberts, bereits seit einigen Monaten in Kontakt. Im Juli 1312 schlossen die beiden Herrscher entgegen dem ausdrücklichen Willen des Papstes ein Bündnis, das sich in erster Linie gegen Robert richtete. Friedrich bot nicht nur seine militärische Unterstützung an, sondern sicherte dem Kaiser außerdem hohe Geldzahlungen zu, auf die Heinrich angewiesen war. Das päpstliche Verbot eines Angriffs auf das Königreich Neapel sollte offenbar dazu dienen, Robert als den wichtigsten päpstlichen Verbündeten in Italien vor einem kaiserlich-sizilianischen Angriff zu schützen, doch die Kriegsvorbereitungen liefen weiter. Noch im Juli 1312 ergingen Weisungen Heinrichs an Genua und Pisa, militärische Kräfte bereitzustellen. Sogar Venedig erhielt eine entsprechende Weisung, die folgenlos blieb; Ende Mai/Anfang Juni 1313 kam es noch einmal zu letzten Verhandlungen zwischen kaiserlichen Gesandten und Venedig. Heinrich hatte Ende August 1312 Rom endgültig verlassen und sich auf Reichsterritorium nach Arezzo begeben. Dort leitete er den Prozess gegen Robert von Anjou ein und bereitete den Angriff auf Florenz vor, das Zentrum des guelfischen Widerstands in Reichsitalien. Mitte September besiegte er die Florentiner bei Incisa in offener Schlacht, anschließend begann er die Belagerung der Arnostadt. Das kaiserliche Heer war allerdings zu klein, um die Stadt vollkommen einzuschließen und zur Übergabe zu zwingen. In dieser Zeit erkrankte Heinrich an Malaria. Schließlich brach er die Belagerung von Florenz im Oktober 1312 ab. Er blieb die nächsten Monate jedoch noch in der Toskana und ließ die von den Florentinern zerstörte kaisertreue und strategisch nicht unwichtige Stadt Poggibonsi unter dem bezeichnenden Namen "Monte Imperiale" (Kaiserberg) wiederaufbauen. Der Kaiser begab sich im Anfang März 1313 nach Pisa, wo er Gesetze gegen Majestätsverbrechen ("crimen laesae maiestatis") erließ. Jede Auflehnung gegen den Kaiser wurde als Versündigung gegen die gottgewollte weltliche Ordnung aufgefasst; Robert von Anjou wurde kurz darauf am 26. April 1313 vom Kaiser in Abwesenheit zum Tode verurteilt. Die Gesetze wurden in das spätantike Corpus Iuris Civilis eingefügt und später noch von Bartolus de Saxoferrato kommentiert. Ohnehin hatte der Konflikt zwischen dem Kaiser und dem König von Neapel, hinter dem der König von Frankreich und der Papst standen, Einfluss auf die Rechtsgeschichte. Die Juristen Roberts und des Papstes, dessen Vasall Robert für das Königreich Neapel war, erhoben gegen die Verurteilung vehement Einspruch: Der Kaiser übe keine unbegrenzte Gerichtsbarkeit aus. In päpstlichen Gutachten wurde jede gerichtliche Verfügungsgewalt des Kaisers hinsichtlich Robert bestritten. Während der kaiserliche Universalanspruch mit Berufung auf den Souveränitätsanspruch anderer Herrscher geleugnet wurde, wurde aber am päpstlichen Universalanspruch festgehalten. Dagegen argumentierten kaiserliche Juristen, dass überall dort, wo das römische Recht herrsche, auf das sich Heinrich in weiten Teilen stützte, der Kaiser wenigstens formal ein Weltkaiseramt ausübe. Es folgte von angiovinischer Seite eine wahre Flut antikaiserlicher Traktate, in denen teils polemisch „den Deutschen“ die Schuld für Unruhe in Italien gegeben wurde und sogar die Institution des Kaisertums als obsolet dargestellt wurde. Der Kaiser war entschlossen, Robert von Anjou militärisch auszuschalten. Eine pisanisch-sizilianische Flotte unter dem Kommando Friedrichs, der zum Reichsadmiral ernannt worden war, sollte das Königreich Neapel von See her angreifen, während der Kaiser sich im August 1313 mit rund 4.000 Rittern auf dem Landweg nach Süden aufmachte und Verstärkungen aus Deutschland anforderte. Kurfürst Balduin war bereits im März 1313 nach Deutschland aufgebrochen, um im Sommer zusätzliche Truppen nach Süden zu führen. Der Papst war anscheinend über die bevorstehende Invasion besorgt; er drohte im Juni 1313 jedem, der das Königreich Neapel angreife, mit Exkommunikation. Heinrich zeigte sich davon jedoch unbeeindruckt und setzte die Vorbereitungen fort; dem Papst teilte er mit, der Angriff sei nicht gegen die Interessen der Kirche gerichtet, sondern diene nur der Aburteilung eines Majestätsverbrechers und Reichsfeindes. Vor Beginn der Invasion kam es noch zur Belagerung von Siena, wobei der Kaiser wieder schwer an Malaria erkrankte. Kurz darauf verstarb er am 24. August 1313 in dem kleinen Ort Buonconvento. Es kamen bald falsche Gerüchte auf, der Kaiser sei von seinem Beichtvater vergiftet worden, vielleicht sogar im päpstlichen Auftrag. Sein Tod war eine große Erleichterung für Robert von Neapel, der eine Invasion seines Reiches zu befürchten hatte; daher wurde Robert ebenfalls mit den Mordgerüchten in Verbindung gebracht. Hinzu kam, dass im Königreich Neapel durchaus Sympathien für den Kaiser vorhanden waren. Papst Clemens V. machte bald darauf noch einmal deutlich, dass er Heinrichs Vorgehen gegen Robert von Anjou offen missbilligte. Das kaiserliche Urteil gegen Robert wurde vom Papst für ungültig erklärt und das Verbot eines Angriffs auf das Königreich Neapel bekräftigt. Der Kaiser wurde in päpstlichen Gutachten sogar zu einem Vasallen des Papstes degradiert; bezeichnenderweise geschah dies aber erst nach dem Tod Heinrichs. Heinrichs Leichnam wurde feierlich nach Pisa überführt und dort im Dom in einem später errichteten prächtigen Grabmal beigesetzt, von dem heute aber nur Fragmente erhalten sind; die damit zusammenhängende Rekonstruktion ist in der Forschung umstritten. Das Grabmal Heinrichs in Pisa und das seiner Ehefrau Margarete in Genua, das ebenfalls nicht vollständig erhalten ist, spielen eine wichtige Rolle im Rahmen der "memoria", der herrschaftlichen Erinnerungspflege. Dies war für das Haus Luxemburg von nicht zu unterschätzender Bedeutung, da man im Rahmen der mittelalterlichen Erinnerungskultur nun auf einen Kaiser und eine Königin verweisen konnte. Der damit verbundene Prestigegewinn der Luxemburger, aber auch der betreffenden Städte (vor allem im kaiserfreundlichen Pisa) sollte durch die repräsentativen Grabmäler der Öffentlichkeit dargestellt werden. Auch in der Lebensbeschreibung Balduins von Trier wurde auf die kaiserliche "memoria" hingewiesen. Die Lage in Reichsitalien und in Deutschland nach Heinrichs Tod. Für die Anhänger des Kaisers in Italien war sein unerwarteter Tod eine Katastrophe, wenngleich die Ghibellinen am 29. August 1315 bei Montecatini noch einen großen Sieg über Florenz erringen sollten. Dieser Erfolg zeigt, dass die kaiserlich gesinnten Kräfte immer noch ein militärisch ernstzunehmender Faktor in Reichsitalien waren. Das kaiserliche Heer löste sich jedoch bereits Ende 1313 auf, wenngleich einige der Teilnehmer des Heerzuges als Söldner in Italien verblieben. Die kaiserliche Kanzlei blieb sogar in Italien zurück. Die politische Lage in Reichsitalien blieb verworren und die Kämpfe zwischen den Kommunen gingen weiter; einige betrieben in der Folgezeit weiterhin eine aggressive Expansionspolitik. Die von vielen erhoffte Stabilisierung der Lage in Italien wurde durch den frühen Tod des Kaisers, der den damaligen Geschichtsschreibern als ein menschlich sympathischer Charakter erschien, zunichtegemacht. Stattdessen gewann die Signorie als Herrschaftsform in den Kommunen Reichsitaliens weiter an Auftrieb (siehe etwa Castruccio Castracani), nachdem Heinrich wiederholt auf örtliche Machthaber hatte zurückgreifen müssen. Der Tod Heinrichs bedeutete das faktische Ende der traditionellen kaiserlichen Italienpolitik. Die nachfolgenden Kaiser sollten sich mit deutlich niedriger gesteckten Zielen begnügen und waren damit zufrieden, Gelder in Reichsitalien einzutreiben. Der kaiserliche Herrschaftsanspruch blieb aber bis weit in die Frühe Neuzeit zumindest formal bestehen. In Deutschland herrschte nach dem überraschenden Tod des Kaisers zunächst Verwirrung. Die Großen des Reiches hatten mit der Wahl des Luxemburgers keine schlechten Erfahrungen gemacht, ganz im Gegenteil: Heinrich hatte die Rechte der Fürsten geachtet und im Konsens regiert; umgekehrt hatten die Fürsten die kaiserliche Italienpolitik sowie die Erneuerung des Kaisertums aktiv unterstützt. Nun stellte sich die Frage, welcher Kandidat ähnlich handeln und nicht primär eigene Hausmachtsinteressen verfolgen würde. Die Wahl von Heinrichs Sohn Johann schien nicht ausgeschlossen zu sein, scheiterte aber an den unterschiedlichen Interessen der Kurfürsten. Einige, wie Erzbischof Heinrich von Köln, wollten eine luxemburgische Machtkonzentration verhindern. Ein erneuerter französischer Wahlvorstoß lief ins Leere. Der Habsburger Friedrich der Schöne bot sich aber ebenfalls als Kandidat an. Bald kam es zur Bildung von luxemburgischen und habsburgischen Wählergruppen; zu letzteren stieß Heinrich von Kärnten, der seinen Anspruch auf die böhmische Kurstimme erneuerte. Die Situation war kompliziert und die Verhandlungen verliefen fast ein Jahr ergebnislos. Johann wurde von Balduin von Trier und Erzbischof Peter von Mainz zum Verzicht auf seine Kandidatur überredet. Nun unterstützte die luxemburgische Partei den Wittelsbacher Ludwig, während die habsburgische Wählergruppe Friedrich wählte. Es kam im Oktober 1314 zur Doppelwahl, die in einen offenen Thronkampf mündete, der bis 1322 andauerte. Die unter Heinrich erzielte Einigkeit im Reich war für mehrere Jahre zerbrochen. Ideengeschichtlich hatte Heinrichs Kaiserpolitik bedeutende Auswirkungen, speziell auf die Debatte um die Rolle des Imperiums. Diese sollte noch die Regierungszeit Ludwigs des Bayern prägen. Mittelalterliche Urteile. Der Italienzug Heinrichs VII. fand bei den Zeitgenossen große Beachtung. Die zeitgenössischen Geschichtsschreiber lobten allgemein Heinrichs Persönlichkeit und wiesen ihm alle mittelalterlichen Topoi eines gerechten Herrschers zu. In Italien erhofften sich manche Kreise von seinem Eingreifen vor allem ein Ende der ständigen inneren und äußeren Kämpfe der Kommunen und verbanden daher mit dem Italienzug durchaus positive Erwartungen. Bischof Nikolaus von Butrinto begleitete den Kaiser auf dem Italienzug. Er schrieb als einziger Teilnehmer einen Bericht darüber, den er Papst Clemens V. vorlegte. Darin wird Heinrich sehr positiv beschrieben. Der kaiserfreundliche Florentiner Dino Compagni pries das Erscheinen des zukünftigen Kaisers panegyrisch im dritten und letzten Buch seiner Chronik, die jedoch im Jahr 1312 endet. Compagni setzte hohe Erwartungen in Heinrich, vor allem hinsichtlich der Befriedung Reichsitaliens und einer Eindämmung der guelfischen Politik von Florenz. Albertino Mussato aus Padua verfasste eine ausführliche Geschichte des Romzugs in 16 Büchern ("De gestis Henrici VII Cesaris"). Mussato sympathisierte durchaus mit dem Kaiser und charakterisierte ihn sehr positiv, warf ihm aber sein Vorgehen gegen die Guelfen vor. Auch Giovanni da Cermenate wurde durch das Erscheinen des Kaisers in Italien dazu inspiriert, eine Geschichte des Romzugs zu verfassen, die wichtiges Material enthält. Ferreto de Ferreti aus Vicenza war wie Mussato und da Cermenate ein frühhumanistischer Gelehrter. Er behandelte den Romzug im Rahmen seines 1250 beginnenden Geschichtswerks recht ausführlich und lobte Heinrichs Charakter, wenngleich er der Erneuerung des Kaisertums eher distanziert gegenüberstand. Giovanni Villani schildert Heinrichs Italienzug im 9. Buch seiner bedeutenden Chronik. Wenngleich selbst florentinischer Guelfe, beurteilt er den Kaiser nicht abwertend, sondern ebenfalls wohlwollend und weist auf die Bedrohung hin, die Heinrich für die Guelfen und Robert von Neapel darstellte. Der Notar Giovanni di Lemmo aus Comugnori berücksichtigte in seinem bis 1319 reichenden Tagebuch ("Diario") neben persönlichen Ereignissen auch den Italienzug. Er bietet dazu wertvolle Schilderungen. Heinrichs Erscheinen hat Giovanni offenbar beeindruckt, da er eigens nach Pisa reiste, um den römisch-deutschen König zu sehen. Guglielmo Cortusi aus Padua schrieb ein von 1237 bis 1358 reichendes Geschichtswerk, dessen Schwerpunkt auf den Ereignisse in der Lombardei liegt. Heinrich wird darin nicht ohne Sympathie beschrieben, wenngleich seine Eingriffe in die lokalen Angelegenheiten eher ablehnend vermerkt sind. Die Chronisten aus dem deutschen Reichsteil (mit Ausnahme des Romzugteilnehmers Nikolaus von Butrinto) schildern Heinrichs Regierungszeit wesentlich knapper als die italienischen Geschichtsschreiber, wobei seine Tätigkeit nördlich der Alpen den Schwerpunkt bildet. Erwähnung findet er bei zahlreichen Chronisten, so bei Ottokar aus der Gaal (in dessen Reimchronik), Matthias von Neuenburg, Johann von Viktring, Peter von Zittau und Johannes von Winterthur. Anonym überliefert ist der sogenannte "Imperator Heinricus", ein Tatenbericht zugunsten der Italienpolitik Heinrichs, den ein Mainzer Kleriker zeitnah zum Tod des Kaisers verfasste. Alle Darstellungen beschreiben Heinrich vorteilhaft und beurteilen seine Regierungszeit positiv. Auch in zahlreichen lokalen Werken wurde Heinrichs Regierungszeit rezipiert. Besonders positiv geschah dies in der spätmittelalterlichen maas-moselländischen Literatur, in der er einen recht hohen Stellenwert erhielt. Im Rahmen der Erinnerungspflege ("memoria") des Hauses Luxemburg entstand im Auftrag Balduins von Trier um 1340 die berühmte Bilderchronik der Romfahrt, die das enge Zusammenwirken von Kaiser und Kurfürst betont, wenngleich die Bedeutung des Kaisers deutlich hervorgehoben wird. In dieser von vornherein tendenzgebundenen Darstellung erscheint Heinrich als gerechter Herrscher und guter Krieger. Einen beeindruckenden literarischen Nachhall fand das Wirken Heinrichs in Dantes "De Monarchia" und in der "Göttlichen Komödie". In letzterer tritt Heinrich als "alto Arrigo" in Erscheinung und wird von Dante stark glorifiziert. In päpstlichen und angiovinischen Stellungnahmen und Gutachten, die im Rahmen des Prozesses Heinrichs gegen Robert von Anjou angefertigt wurden, wurde hingegen deutlich gegen die Universalpolitik Heinrichs Stellung bezogen. Besonders heftig polemisierten die Verfasser zweier Memoranden aus Neapel gegen den Kaiser und schließlich sogar gegen „die Deutschen“. Sie charakterisierten das Kaisertum als Faktor der Unruhe. Beurteilung in der Forschung. Die deutsche Mittelaltergeschichtsschreibung des 19. und auch des frühen 20. Jahrhunderts war primär an den „großen Dynastien“ orientiert, den Ottonen, Saliern und Staufern. Unter ihnen habe das „deutsche Reich“ im Mittelalter seinen Höhepunkt erreicht. Der moderne deutsche Nationalstaat war spät geschaffen worden, die sehr oft glorifizierende Betrachtung vor allem der hochmittelalterlichen Kaiserzeit sollte daher der geschichtlichen Sinnstiftung dienen. Dagegen galt das Spätmittelalter als Verfallszeit des Reiches, in der die Macht des Königtums schwand und die der Fürsten zunahm. Anachronistisch wurden moderne Vorstellungen auf das mittelalterliche römisch-deutsche Reich projiziert und die hochmittelalterliche Sinnstiftung auf die Spitze getrieben. Der spätmittelalterliche Niedergang des Kaisertums und die Uneinigkeit im Reich seien auf den Eigennutz der Fürsten zurückzuführen. Die Uneinigkeit habe bis zum Ende des Alten Reiches angedauert; erst durch die „zweite Reichsgründung“ 1871 habe das Reich wieder zu alter Stärke gefunden. Das Spätmittelalter wurde als Verfallszeit aufgefasst, über die selbst angesehene deutsche Mittelalterhistoriker im frühen 20. Jahrhundert kaum etwas Gutes zu berichten hatten. Die neuere Forschung ist zu einer sehr viel differenzierteren und auch positiveren Bewertung des Spätmittelalters gekommen. Dieses stellt heute einen Schwerpunkt der deutschen Mediävistik dar, wenngleich das öffentliche Interesse immer noch vor allem dem Hochmittelalter gilt. Peter Moraw, der großen Anteil an der Neubewertung des deutschen Spätmittelalters hat, prägte dennoch 1985 den Begriff der „kleinen Könige“ für die Zeit von Rudolf von Habsburg bis Heinrich VII. Damit sollte aber nur verdeutlicht werden, dass diese Herrscher im Vergleich zu anderen Monarchen oft über nur geringe Ressourcen verfügten und ihren Aufstieg nicht alten, mächtigen Dynastien verdankten. Leopold von Ranke urteilte am Ende des 19. Jahrhunderts: „Heinrich VII war kein großer Mann, aber gut, standhaft, barmherzig, voll echter und glänzender Ideen.“ Wenngleich Heinrich VII. auch in der älteren Forschung positiv gewürdigt wurde, so z. B. von Robert Davidsohn in dessen monumentaler "Geschichte von Florenz", überwog doch lange Zeit die Einschätzung Heinrichs als naiver Träumer, der anachronistischen Ideen wie dem universalen Kaisertum nachgejagt und die politische Realität nicht genügend beachtet habe. Während Friedrich Schneider den Kaiser in seiner bis heute nicht ersetzten Biographie ahistorisch zu einem „Vertreter höheren Menschentums“ stilisierte, charakterisierte ihn William Bowsky in seiner grundlegenden Darstellung des Italienzugs als eher blauäugigen Schwärmer. Bei der Beurteilung seiner Universalpolitik wurde oft ein angebliches Auseinanderklaffen von Anspruch und Wirklichkeit beklagt. Vor allem warf man ihm Fehler bei der Einschätzung der italienischen Verhältnisse vor. Diese Wertungen werden in der neueren Forschung in Frage gestellt. Bereits Heinz Thomas und Hartmut Boockmann hatten sich in ihren Überblicksdarstellungen zur Geschichte des deutschen Spätmittelalters recht vorteilhaft über Heinrichs Politik geäußert und seine Realpolitik betont. In neuerer Zeit haben Kurt-Ulrich Jäschke und Peter Thorau, die mit der grundlegenden Neubearbeitung der betreffenden Regesta Imperii beschäftigt sind, auf die Bedeutung der Politik Heinrichs VII. hingewiesen. Sie kommen zu einer wesentlich ausgewogeneren und recht positiven Gesamtbeurteilung. Nach dieser Einschätzung ist der Romzug nur durch den unerwartet frühen Tod Heinrichs gescheitert. Ob man allgemein von einem „italienischen Fiasko“ sprechen und dem Kaiser zudem irreale politische Ziele unterstellen kann, ist angesichts der durchaus erzielten Erfolge fraglich; aussichtslos war das Italienunternehmen keineswegs. Das wissenschaftliche Interesse an Heinrich VII. ist in den vergangenen Jahren stark gestiegen. 2006 erschien nach jahrelanger Verzögerung die erste Lieferung der von Kurt-Ulrich Jäschke und Peter Thorau vollständig neu bearbeiteten Regesten Heinrichs. Sie werden zukünftig die Grundlage jeder Beschäftigung mit Heinrichs Regierungszeit darstellen, da mit ihrer Erstellung die Auswertung bislang unerschlossenen Archivmaterials verbunden ist, das ausführlich berücksichtigt und kommentiert wird. Dies betrifft vor allem Material aus italienischen Archiven, zumal das kaiserliche Archiv in Italien verblieb und anderes Material bislang nicht systematisch registriert und bearbeitet wurde. Die sorgfältige Darstellung Malte Heidemanns untersucht die wichtigsten Dokumente und den primär diplomatischen Schriftverkehr Heinrichs sowie die politischen Traktate seiner Zeit, blendet jedoch die historiographischen Quellen fast vollständig aus. Der von Ellen Widder 2008 herausgegebene Sammelband bietet Einblicke in neuere Detailforschungen zu Heinrich. Des Weiteren beschäftigten sich zwei wissenschaftliche Tagungen (2008 in Luxemburg und 2012 in Rom) mit dem Kaiser. Beide Tagungen waren auf Jubiläen bezogen. In der Konferenz in Luxemburg stand zum 700. Jahrestag der Wahl Heinrichs VII. das Thema "Governance" im 14. Jahrhundert im Mittelpunkt, d.h. die Organisation politischer Herrschaft bzw. Regierungstätigkeit. Die Ergebnisse dieser Tagung liegen bereits in gedruckter Form vor. Die internationale Konferenz in Rom wurde zum 700. Jahrestag der Kaiserkrönung Heinrichs VII. veranstaltet. Sie stellte den Aufstieg und die Bedeutung der Luxemburger als Herrscherdynastie in den Blickpunkt. Diese Tagungsergebnisse sollen in naher Zukunft publiziert werden. Eine aktuelle fachwissenschaftliche Biographie des ersten Luxemburgers auf dem römisch-deutschen Königsthron fehlt bislang, wird jedoch von Ellen Widder seit längerer Zeit vorbereitet. Zusammenfassend lässt sich festhalten, dass Heinrichs erfolgreiche Hausmachtpolitik, seine ausgleichende Haltung in Deutschland und sein vehementes Beharren auf Reichsrechten und der traditionellen Reichsidee seine Intelligenz und Tatkraft erkennen lassen. Durch seinen frühen Tod ist seine Politik zwar gescheitert, doch war er keineswegs der naive Träumer, als der er in Teilen der älteren Forschung dargestellt wurde. Als Herrscher erwies sich der erste König aus dem Hause Luxemburg als gute Wahl, was etwa in einer aktuellen deutschen Handbuchdarstellung hervorgehoben wird. Quellen. Zentrale Urkunden sind in den "Constitutiones et acta publica imperatorum et regum" von Jakob Schwalm gesammelt, doch ist das urkundliche Material sehr verstreut; wichtig ist vor allem Material in italienischen Archiven. Eine solide Auswahl der wichtigsten historiographischen Quellen liegt in einer älteren Übersetzung von Walter Friedensburg vor. Nützlich für einen Überblick über die erzählenden Quellen ist das Werk von Maria Elisabeth Franke. Eine einzigartige Quelle ist die Bilderchronik der Romfahrt. Sie ist auch kulturhistorisch bedeutsam; unter anderem werden neben Kämpfen die Herrschereinzüge, Krönungen, Feste, Strafmaßnahmen und Hofaktivitäten plastisch dargestellt. Hugo Chávez. Hugo Rafael Chávez Frías (* 28. Juli 1954 in Sabaneta; † 5. März 2013 in Caracas) war ein venezolanischer Offizier und Politiker. Von 1999 bis zu seinem Tod 2013 war er Staatspräsident von Venezuela. Mit seiner Programmatik berief sich Chávez auf sein Vorbild Simón Bolívar und dessen Einsatz für ein vereintes Südamerika. Der frühere Oberstleutnant gründete Anfang der 1980er Jahre die Untergrundbewegung Movimiento Bolivariano Revolucionario 200. Nach einem misslungenen Putschversuch, der ihn landesweit bekannt machte, verbrachte Chávez zwei Jahre in Haft. Er gründete die Partei Movimiento Quinta República und gewann 1998 die Präsidentschaftswahlen. Bei den Wahlen 2000, 2006 und 2012 wurde er dreimal in Folge wiedergewählt. Chavez’ Bolivarische Revolution bezog sozialistische und marxistische Ideen ein und nutzte nach der Verstaatlichung der Schlüsselindustrien den Ölreichtum Venezuelas zur Umsetzung seiner Vorstellung vom „Sozialismus des 21. Jahrhunderts“ in der Sozialpolitik und auch zur Unterstützung seiner Klientel. Chávez’ Person, seine Politik, sein Führungsstil und seine Medienauftritte haben sowohl international beachtete Kontroversen wie auch bedeutende Aufmerksamkeit und Anerkennung unter linken und globalisierungskritischen Gruppierungen hervorgerufen. Kritiker warfen ihm insbesondere sein autoritäres Vorgehen und eine nicht nachhaltige Wirtschaftspolitik und Entwicklung Venezuelas vor. Umstritten war auch die Zusammenarbeit mit verschiedenen Diktatoren und militanten Bewegungen sowie sein Umgang mit Oppositionellen und Gegnern. Biografie. Chávez wurde als Sohn des ehemaligen Dorfschullehrers Hugo de los Reyes Chávez und seiner Frau Elena Frías de Chávez im westvenezolanischen Bundesstaat Barinas geboren. Chávez wurde katholisch erzogen und war zweimal verheiratet. Mit seiner ersten Frau Nancy Colmenares war er 18 Jahre verheiratet und hatte drei Kinder (Rosa Virginia, María Gabriela, Hugo Rafael) und mittlerweile zwei Enkelkinder. Chávez hatte während dieser Zeit eine über neun Jahre andauernde Affäre mit der Historikerin Herma Marksman. Herma Marksman hat sich mittlerweile auch politisch von ihm distanziert. Die Ehe wie die Liebesaffäre gingen nach dem gescheiterten Putschversuch 1992 in die Brüche. Von seiner zweiten Frau, der Journalistin Marisabel Rodríguez de Chávez, wurde Chávez ebenfalls geschieden. Aus der zweiten Ehe hatte er eine weitere Tochter (Rosainés). Armeezeit. Chávez trat mit 17 Jahren in die venezolanische Armee ein und besuchte die Militärakademie in Caracas, die er 1975 als Unterleutnant abschloss. In der Folge hatte er eine Reihe von Verwendungen: zunächst in einem Infanterie-Bataillon und als Fallschirmjäger, ab 1978 in einer mit AMX-30-Panzern ausgerüsteten Einheit in Maracay. 1980 kehrte er als Lehroffizier an die Militärakademie in Caracas zurück und leitete dort nacheinander mehrere Abteilungen, darunter die für die Sportausbildung und die für kulturelle Aktivitäten. Ein postgraduales Studium der Politikwissenschaften von 1989 bis 1990 an der Universität Simón Bolívar in Caracas schloss er nicht ab. Chávez erreichte in der venezolanischen Armee schließlich den Rang eines Oberstleutnants. 1994 musste er die Armee verlassen. Politisierung. In seiner Zeit an der Militärakademie gründete Chávez zusammen mit anderen Offizieren eine Diskussionsgruppe namens "Ejército Revolucionario Bolivariano (ERB-200)", die sich an den Werken von Simón Rodríguez, Simón Bolívar und Ezequiel Zamora orientierte und sich unter anderem mit der venezolanischen Militärgeschichte und der Entwicklung einer neuen Militärdoktrin für die Armee beschäftigte. Bereits 1986 kam die Gruppe zu der Überzeugung, dass es notwendig sei, politisch zu handeln und eventuell auch militärisch gegen die Regierung vorzugehen. In der zweiten Amtszeit von Carlos Andrés Pérez (1989–1993) kam es 1989 zu Unruhen in den großen Städten des Landes, dem sogenannten Caracazo. Die Regierung Pérez ließ die Plünderungen gewaltsam niederschlagen; 276 Menschen kamen dabei ums Leben, laut unbestätigten Quellen sogar bis zu 3000. Diese Ereignisse sollen zur Wandlung vom EBR-200 zum MBR-200, dem Movimiento Bolivariano Revolucionario 200 (Revolutionäre Bolivarianische Bewegung 200), geführt haben. Der MBR-200 war eine klandestine Organisation, die sich als „zivil-militärische“ Struktur verstand, sich gegen militärischen Fundamentalismus und Sektierertum wandte und sich zivilen Gruppen öffnete. Vom Putschisten zum Parteiführer. Am 4. Februar 1992 führte Chávez einen Putsch des "MBR-200" gegen die Regierung an. Nach nur wenigen Stunden wurde deutlich, dass der Aufstand gescheitert war. Chávez ergab sich mit seinen Truppen in Caracas unter der Bedingung, sich über das Fernsehen an die Bevölkerung wenden zu können. In der nur 72 Sekunden dauernden Ansprache übernahm er die Verantwortung für den Putsch und dessen Scheitern und erklärte, dass sie ihre Ziele vorerst nicht erreicht hätten, es würden sich aber neue Möglichkeiten ergeben. Die Ansprache machte Chávez in der Bevölkerung zu einem Hoffnungsträger; sie wird auch als Eröffnung der Wahlkampagne interpretiert, die ihm 1999 schließlich die Präsidentschaft einbrachte. Der Putsch selbst war von zahlreichen Venezolanern begrüßt worden, vier Monate nach seinem Scheitern lagen die Popularitätswerte von Chávez bei 67,4 % (in Caracas), Mitte 1993 bei rund 55 %. Nach zwei Jahren Haft wurde Chávez zusammen mit den anderen Offizieren des Putsches 1994 von Präsident Rafael Caldera begnadigt. Unmittelbar nach seiner Freilassung gab Chávez bekannt, dass er sich um das Amt des Präsidenten bewerben wolle. In den Jahren bis 1996 gelang es ihm dann, in der Bevölkerung eine stabile Anhängerschaft aufzubauen. Der MBR-200 wandelte sich zu einem offenen Sammelbecken für ehemalige Militärs und linke Kräfte, zahlreiche von Chávez’ frühen Anhängern hatten ein ambivalentes Verhältnis zur Demokratie. Politisches Ziel des MBR-200 war die Einberufung einer Verfassunggebenden Versammlung. Eine Teilnahme an den landesweiten Wahlen 1993 und den Regionalwahlen 1995 lehnte er ab. 1996 beschloss er, an den nationalen Wahlen 1998 teilzunehmen. Zu diesem Zweck gründete Chávez die Partei Movimiento V Quinta Republica (MVR, „Bewegung für eine Fünfte Republik“), welche die linke Koalition "Polo Patriotico" in die Wahl führte. Erster Wahlsieg und neue Verfassung. Chávez gewann die Präsidentschaftswahlen am 6. Dezember 1998 mit einem Stimmenanteil von 56 Prozent. Henrique Salas Römer erhielt 26,82 % der Stimmen. Die beiden etablierten Parteien Comité de Organización Política Electoral Independiente (COPEI) und Acción Democrática (AD) erhielten nur mehr neun Prozent Zustimmung. Zugleich war es ihm gelungen, in die politische Mitte vorzudringen. Chávez erklärte, er wolle den ehemaligen Diktator Marcos Pérez Jiménez zu seiner Amtseinführung einladen, was er dann aber nach Protesten nicht tat. Wie angekündigt, wurde im April 1999 ein Referendum zur Einberufung einer verfassunggebenden Versammlung durchgeführt. Dem folgten im Juli die Wahlen der Delegierten, die unter Chávez’ Führung einen Verfassungsentwurf erarbeiteten, auf dem die neue „Fünfte Republik“ fußen sollte. Im Dezember 1999 stimmte die Bevölkerung Venezuelas per Referendum der neuen Bolivarischen Verfassung zu. Auf ihrer Basis wurden für Juli 2000 Neuwahlen zu allen Wahlämtern, einschließlich des Präsidentenamts, angesetzt, die sogenannte "megaelección". Zweite Präsidentschaft. In den Neuwahlen konnte Chávez mit 60,3 % der Stimmen sein Wahlergebnis noch einmal verbessern. Aus den gleichzeitig stattfindenden Parlamentswahlen ging Chávez’ MVR mit 99 von insgesamt 165 Mandaten als absolut stärkste Kraft hervor, und auch die Gouverneurswahlen erbrachten eine Mehrheit für den MVR. Im Dezember 2000 ließ Chávez ein Referendum über die Neuorganisation der Gewerkschaften durchführen. Zur Entscheidung stand sein Plan, innerhalb eines halben Jahres alle führenden Funktionäre der Gewerkschaften ihrer Ämter zu entheben und die Gewerkschaftsmitglieder ihre Führungspersonen neu wählen zu lassen. In diesem Referendum entfielen etwa zwei Drittel der Stimmen auf Chávez’ Antrag. Daraufhin beantragte die größte Oppositions- und ehemalige Regierungspartei des Landes, die Acción Democrática, ein Amtsenthebungsverfahren, das jedoch abgelehnt wurde. Streik und Putsch gegen Chávez im April 2002. Chávez tauschte im Februar 2002 die Führungsriege des staatlichen Erdölkonzerns PDVSA durch neue, regierungstreue Manager aus. Ein Verbund aus dem CTV-Gewerkschaftsverband, Wirtschaftsverbänden, katholischer Kirche, der vorherigen Regierungspartei und privaten Fernsehsendern Venezuelas rief am 9. April 2002 einen Generalstreik aus. Ziel des Streiks war der Rücktritt von Chávez. Daraufhin wandte dieser sich zwischen dem 8. und 11. April mit insgesamt 31 landesweit übertragenen Ansprachen ("cadenas", siehe Medienpolitik) an die Bevölkerung. Am dritten Streiktag, dem 11. April, bewegte sich eine Oppositionsdemonstration zur Zentrale der Petróleos de Venezuela (PDVSA). Nach Angaben lateinamerikanischer Journalisten nahmen an ihr 50.000 bis 200.000 Personen teil, während die Opposition von bis zu einer Million Teilnehmern ausging. Carlos Ortega, der Vorsitzende der Gewerkschaft CTV, und Pedro Carmona, der Vorsitzende des Unternehmerverbandes "Fedecámaras", lenkten die Demonstration jedoch zum Präsidentenpalast Miraflores um, wo sich Chávez-Anhänger versammelt hatten. Der Generalstab des Militärs erklärte um 14:15 Uhr in einer landesweit übertragenen Ansprache Chávez seine volle Unterstützung. Als die Oppositionsdemonstration in die Nähe des Miraflores-Palastes kam, versuchten Anhänger der Palastgarde, die Unterstützer und Oppositionellen auseinanderzuhalten. Die Situation eskalierte, als Angehörige der Hauptstadtpolizei, die damals dem offen antichávistischen Bürgermeister Alfredo Peña unterstand, in die Menge der Chávez-Anhänger schossen. Insgesamt wurden 19 Personen getötet und über 300 verletzt. Die Opfer waren ungefähr zur Hälfte Anhänger von Chávez und der Opposition. Alle oppositionellen Fernsehsender berichteten, Chávez-Anhänger hätten in die Oppositionsdemonstration geschossen, was die Chávez-Anhänger bestritten. Sie suggerierten dies – den Chávez-Anhängern zufolge – auch durch geschickte Schnitte und eine chronologisch falsche Anordnung der Ereignisse in der Fernsehberichterstattung. Zahlreiche Beweise für die Verwicklung der Stadtpolizei in den Putsch legen laut "Narco News" die Vermutung nahe, dass der rücksichtslose Polizeieinsatz als Vorbereitung zum Staatsstreich diente. Die Opposition machte Hugo Chávez für die Toten der Scharfschützen verantwortlich und rechtfertigte mit ihnen den nachfolgenden Putsch. Am 12. April kam es zum Putsch. Der Generalstab des Militärs, der den Staatsstreich vorbereitet hatte, nahm die Toten zum Anlass, Chávez nicht mehr anzuerkennen, und ordnete am 12. April 2002 seine Verhaftung an. Noch am selben Tag ließ sich Pedro Carmona als Übergangspräsident vereidigen. Dieser löste als seine erste Amtshandlung das Parlament und das Oberste Gericht auf, was national wie international auf scharfe Kritik stieß. Nach dem Putsch kam es zu zahlreichen Feuergefechten, Straßenschlachten und Hausdurchsuchungen, bei denen weitere 50 bis 70 Menschen starben, hauptsächlich Aktivisten der sozialen Bewegungen in den Armenvierteln. Der Staatsstreich löste Massenproteste bei weiten Teilen der Bevölkerung aus, an denen sich im ganzen Land mehrere Millionen Menschen beteiligten. Noch während ihrer Siegesfeier setzte die Garde des Präsidentenpalastes die Putschisten fest. Am 13. April 2002 wurde Chávez aus der Militärhaft befreit und wieder ins Präsidentenamt eingesetzt. Der kommandierende General des Heeres, Efrain Vazquez Velasco, verlangte öffentlich die Wiederherstellung aller verfassungsmäßigen Institutionen und erklärte, das Militär habe keinen Staatsstreich verüben wollen. Über den Putschpräsidenten Pedro Carmona wurde Hausarrest verhängt. Später gelang es ihm, zu fliehen, und er setzte sich über Kolumbien in die USA ab. Eine von Angehörigen der Opfer und der Opposition verlangte Kommission zur Aufklärung der Ereignisse des 11. April stieß nach Angaben der Opposition bei der Regierung auf Desinteresse und sei deshalb nicht gebildet worden. Acht an dem Einsatz beteiligte Polizeioffiziere wurden in Untersuchungshaft gebracht, wo sie seitdem auf eine Anklage warten. Es ist der mittlerweile längste Prozess in der Geschichte Venezuelas mit einer Dauer von über sechs Jahren. Die an der Schießerei beteiligten Chávez-Anhänger wurden freigesprochen. Mindestens fünf der Generäle, denen eine Beteiligung am Staatsstreich zur Last gelegt wurde, wurden vom Obersten Gerichtshof Venezuelas freigesprochen. Staatsanwalt Danilo Anderson, der gegen die Putschisten und Angehörige der Hauptstadtpolizei in Zusammenhang mit den Ereignissen des 11. April 2002 ermittelte, wurde im Jahr 2004 von unbekannten Tätern ermordet. Rolle der USA und Spaniens. Es gibt zahlreiche Hinweise darauf, dass die US-Regierung unter George W. Bush in den Putsch gegen Chávez verwickelt war. Mehrere Zeitungen, darunter die New York Times, berichteten, dass die Putschisten zwei Monate vor den Ereignissen regelmäßig Kontakt mit der US-Botschaft gehabt hätten. Nach Angaben des Observers hatte der hochrangige US-Regierungsbeamte Otto Reich mehrere Monate vor dem Staatsstreich den späteren Putschpräsidenten Pedro Carmona im Weißen Haus empfangen und diesem während des Putsches diplomatische Rückendeckung gegeben. Auch sollen US-Regierungsbeamte wie John Negroponte und Elliot Abrams vorab über die Pläne der Putschisten informiert gewesen sein. Darüber hinaus seien Vizeadmiral Molina und Luftwaffenoberst Pedro Soto, die im Februar öffentlich gegen Chávez aufgetreten waren und auch eine wichtige Rolle im Putsch spielten, als Lohn jeweils 100.000 Dollar von einem Bankkonto in Miami überwiesen worden. Der Guardian zitierte einen Offizier der US Navy, dass Teile der Funkkommunikation der Putschisten über Schiffe der US Navy, die vor der venezolanischen Küste lagen, abgewickelt worden seien. Der frühere US-Präsident Jimmy Carter sagte, dass die US-Regierung zweifellos zumindest vollständig über den Putsch informiert war und sogar selbst darin verwickelt gewesen sein könnte. Offizielle Stellen in den USA bestritten jedwede Verwicklung der US-Regierung. Eine Überprüfung durch das "Office of Inspector General" habe in den Aufzeichnungen des US-Außenministeriums und der US-Botschaft in Caracas keinerlei Hinweise auf eine Unterstützung durch Mitglieder der entsprechenden Behörden gefunden. Diplomaten berichteten jedoch, dass die in jener Zeit häufigen Besuche von Chávez-Gegnern in Washington oder der US-Botschaft in Caracas zumindest eine stillschweigende Duldung signalisiert haben könnten. Hinweise auf eine Verwicklung der spanischen Regierung unter José María Aznar wurden vom spanischen Außenminister Miguel Ángel Moratinos Ende November 2004 bei einem Besuch von Chávez bestätigt. Moratinos bedauerte, dass Spanien unter Aznar den Putschversuch unterstützt habe. Er bezeichnete dies als ein „Vorgehen […], das sich nicht wiederholen dürfe“, und versicherte, dass Spanien „künftig die Demokratie in Lateinamerika unterstützen“ wolle. Generalstreik. Am 2. Dezember 2002 rief der Dachgewerkschaftsverband CTV – der eng an die alten Regierungen gebunden ist – gemeinsam mit Unternehmerverbänden einen Generalstreik aus. In der Ölindustrie nahm dieser den Charakter direkter Sabotage an: Das Unternehmen INTEASA, ein Joint Venture der Petróleos de Venezuela und des US-amerikanischen Rüstungskonzerns SAIC, war für die Informatik und Computersteuerung der Ölförderung zuständig. Insbesondere Angestellten dieses Unternehmens gelang es, die Ölförderung Venezuelas weitgehend zum Erliegen zu bringen, indem sie die Fördereinrichtungen per Softwarebefehl herunterfuhren und anschließend das Steuerungssystem beschädigten. Die volkswirtschaftlichen Schäden, die durch Sabotage an der Ölförderung entstanden, beliefen sich auf acht bis zehn Milliarden Dollar. Das Bruttoinlandsprodukt sank dadurch im Jahr 2002 um 8,9 Prozent und im Jahr 2003 um 9,4 Prozent. Es dauerte noch bis zum April 2003, bis alle wichtigen Ölfördereinrichtungen wieder in Betrieb genommen werden konnten. Die zentrale Forderung der Streikenden war der Rücktritt des Präsidenten. Chávez lehnte jedoch seinen Rücktritt ab. Mehrere zehntausend Menschen verloren in Folge ihre Arbeit. Auf Initiative des neuen brasilianischen Präsidenten Lula da Silva bildete sich eine Gruppe der "Freunde Venezuelas", bestehend aus Brasilien, Chile, Mexiko, den USA, Spanien und Portugal, daneben schaltete sich auch der ehemalige US-Präsident Jimmy Carter in die Vermittlungen zwischen Chávez und der Opposition ein. Carter unterbreitete zwei Vorschläge: eine Verfassungsänderung, die Chávez’ Amtszeit von sechs auf vier Jahre verkürzt hätte, oder eine Volksabstimmung zur Halbzeit von Chávez’ Amtszeit über dessen Verbleib im Präsidentenamt, die am 19. August 2003 hätte stattfinden sollen. Die beiden Parteien konnten sich jedoch nicht auf einen Vorschlag einigen; die Opposition gab schließlich den kaum befolgten Streik am 3. Februar 2003 auf, nachdem Ende Januar nach offiziellen Angaben über zwei Millionen Menschen in Caracas gegen den Streik demonstriert hatten. Nach Angaben der Opposition lag die Teilnehmerzahl bei 108.000. Referendum. Am 3. Juni 2004 gab der Präsident des Nationalen Wahlrats CNE, Francisco Carrasquero, bekannt, dass von 3,4 Millionen von der Opposition für ein Referendum gegen Chávez’ gesammelten Stimmen 2,54 Millionen anerkannt würden und so das Referendum mit 15.738 Stimmen Überschuss zugelassen werde. Diesem musste sich Chávez am 15. August 2004, vier Tage vor Beendigung des vierten Jahres seiner Amtszeit, stellen. Um Chávez des Amtes zu entheben, benötigte die Opposition in einer Volksabstimmung allerdings mehr als die 3,7 Millionen Stimmen, die der Politiker bei seiner Wiederwahl für eine zweite Amtszeit 2000 erhielt. Gemäß den Verlautbarungen der Wahlkommission führte das Referendum, das eine für venezolanische Verhältnisse außerordentlich hohe Wahlbeteiligung von etwa 70 Prozent aufwies (zweimal wurde die Schließung der Wahllokale am Wahltag verschoben), nicht zur Ablösung der Regierung. Es votierten 59,25 Prozent gegen Chávez’ Amtsenthebung und 40,74 Prozent dafür. Die EU entschied sich gegen die Entsendung von Wahlbeobachtern, da zur Endauszählung weder Oppositionsvertreter noch OAS-Beobachter zugelassen wurden. Trotzdem und entgegen bereits vorab geäußerten Befürchtungen der Opposition über einen möglichen Wahlbetrug bescheinigten internationale Wahlbeobachter der Wahl einen einwandfreien Verlauf. Der US-amerikanische Ex-Präsident Jimmy Carter nannte sie „eine Übung in Sachen Demokratie“. Als zentraler Faktor für Chávez’ Erfolg galt die wirtschaftliche Erholung des Landes. Insbesondere durch den Anstieg des Ölpreises war die venezolanische Wirtschaft im ersten Quartal 2004 nominal um 30 Prozent gewachsen, und auch für das zweite Quartal wurde ein Wachstum von 12 bis 14 Prozent erwartet. Ein weiterer Faktor für ihre Niederlage war auch die innere Gespaltenheit der Opposition. Unmittelbar nach der Bekanntgabe des Ergebnisses kam es in Caracas zu teilweise gewaltsamen Demonstrationen von Oppositionellen, die das Ergebnis inakzeptabel fanden und weiterhin von einem Wahlbetrug ausgingen. Die Demonstranten wurden von Chávez-Anhängern mit Waffen angegriffen, wobei eine 62-jährige Frau starb und neun weitere Personen verletzt wurden. Die Täter konnten identifiziert und verurteilt werden, allerdings wurden diese Urteile 2006 annulliert. Vor dem Referendum veröffentlichte Luis Tascón die Unterschriftenliste derjenigen, welche sich für die Abberufung von Chávez einsetzten, auf seiner Website, damit Chávez-Anhänger nachprüfen konnten, ob sie von Angehörigen der Opposition gegen ihren Willen dort eingetragen wurden. Außerdem wurden potenzielle Unterzeichner durch die Regierung Chávez mit Arbeitsplatzverlust bedroht im Fall, dass sie gegen den Präsidenten unterschreiben. So bezeichnete zum Beispiel der Minister für Gesundheit und soziale Entwicklung, Róger Capella, das Unterschreiben als einen Akt des Terrorismus und gab zu verstehen, dass dies einer Verschwörung gegen das Amt des Präsidenten gleichkomme. Die Liste soll später dafür genutzt worden sein, bei Neueinstellungen in den Staatsdienst die politische Einstellung der Bewerber zu überprüfen, und Personen, welche nicht auf dieser Liste stehen, sollen bevorzugt eingestellt worden sein. Allerdings ist laut "Venezuela Analysis" zu berücksichtigen, dass in der Verwaltung Venezuelas viele Anhänger der Opposition saßen, welche die Umsetzungen von Regierungsentscheidungen sabotiert hatten. Damit sich eine solche Veröffentlichung nicht wiederholt, wurde bei den Unterschriftensammlungen zur Abberufung verschiedener Bürgermeister und Gouverneure kein Name mehr gespeichert, sondern ein Fingerabdruck. Zur Parlamentswahl 2005 stand diese Methode, Fingerabdrücke der Wähler zu registrieren, im Zentrum der Kritik mehrerer Oppositionsbündnisse. Nach Ansicht dieser verletzten die Computer das Recht auf geheime Wahl. Obwohl die Wahlkommission ankündigte, die kritisierten Wahlcomputer nicht einzusetzen, erklärten fünf Parteien, die die Mehrheit der oppositionellen Kräfte in Venezuela darstellten, ihren Boykott der Wahlen. Auf Seiten der Regierungsparteien wurde eine gemeinsame Allianz des MVR und der anderen Chávez unterstützenden Parteien gebildet. Die Listenkandidaten wurden unter dem Namen MVP aufgestellt, während die Bewerber auf die Direktmandate unter dem Namen "Unidad de Vencedores Electorales" (UVE) antraten. Durch die Besetzung des Parlamentes ausschließlich mit eigenen Anhängern und damit dem Erreichen der Zweidrittelmehrheit erhielt Chávez die Möglichkeit eines weitreichenden Einflusses auf die Staatsgewalten, wie zum Beispiel die Kontrolle der Wahlbehörde Consejo Nacional Electoral (CNE, in Venezuela im Verfassungsrang einer Staatsgewalt), aber auch über die Judikative, ebenso wie die Möglichkeit des Parlamentes, den Präsidenten zu ermächtigen und per Dekret zu regieren, wozu eine Dreifünftelmehrheit notwendig ist. Präsidentenwahl 2006. Nach dem amtlichen Endergebnis entfielen auf den Kandidaten Hugo Chávez Frías 62,84 Prozent der abgegebenen Stimmen. In absoluten Stimmen entspricht das 7.308.080 Personen. Der führende Oppositionskandidat Manuel Rosales konnte 36,90 Prozent der abgegebenen Stimmen auf sich vereinen. Diese Quote entspricht 4.292.466 Stimmen. Weitere zwölf Kandidaten waren beinahe bedeutungslos. Die von der Europäischen Union entsandten Beobachter sprachen von einer weitgehend reibungslosen Wahl entsprechend den nationalen Gesetzen und internationalen Standards. Die hohe Teilnehmerzahl, die friedliche Atmosphäre sowie die allgemeine Akzeptanz der Ergebnisse stellten einen deutlichen Fortschritt gegenüber den Parlamentswahlen im Jahr 2005 dar. Im offiziellen Bericht zur Beobachtungsmission der EU wurden allerdings unter anderem die starke institutionelle Propaganda hauptsächlich für Präsident und Kandidat Chávez sowie die unausgeglichene Berichterstattung sowohl in den öffentlichen als auch in den privaten Medien kritisiert. Es sei auf Staatsangestellte Druck ausgeübt worden, für Chávez zu stimmen bzw. an Wahlkampagnen für seine Wiederwahl teilzunehmen. Dies könnte als ein Verstoß gegen die internationalen Prinzipien der freien Stimmabgabe gewertet werden, wie sie im Artikel 4 der Deklaration über freie und faire Wahlen der Interparlamentarischen Union festgelegt seien, deren Mitglied die venezolanische Nationalversammlung ist. Die Kommission konnte nur wenige der an sie herangetragenen Fälle auf ihren Wahrheitsgehalt überprüfen, sie erwähnte insbesondere eine Rede des Energieministers Rafael Ramírez vor den Beschäftigten der staatlichen Ölindustrie. Wegen dieser Rede wurde Rafael Ramírez vom CNE im Juli 2007 zu einer Strafe von 18.000.000 Bolívares (knapp 7000 Euro) verurteilt. Dritte Präsidentschaft. Nach seiner Wiederwahl erklärte Hugo Chávez, er wolle die bolivarianische Revolution vertiefen. Sein Ziel sei die Transformation der Gesellschaft in Richtung eines „Sozialismus des 21. Jahrhunderts“. Er ließ sich von dem damals noch befreundeten deutschen Sozialwissenschaftler Heinz Dieterich (Universität Mexiko-Stadt) beraten. Um dies zu erreichen, hatte er eine Fülle von Maßnahmen angekündigt und bei der venezolanischen Nationalversammlung Sondervollmachten beantragt. Gleichzeitig wurde im Eilverfahren maßgeblich durch Chávez persönlich ein neuer Verfassungsentwurf ausgearbeitet, der die „alte“ Verfassung von 1999 in wesentlichen Punkten verändern sollte. Neben einer Erweiterung der Macht des Präsidenten sah der Entwurf der Verfassungsreform die Ersetzung des Zweikammernparlaments durch eine Nationalversammlung vor. Sie wurde von der Nationalversammlung am 2. November 2007 mit großer Mehrheit angenommen, beim Referendum am 3. Dezember 2007 aber von 50,7 Prozent der Abstimmenden abgelehnt. Mentor Dieterich erklärte nach Chávez' Tod, dass die Idee des „Sozialismus des 21. Jahrhunderts“ in Venezuela nie in die Praxis umgesetzt wurde. Neben sozialen Aspekten, wie die Beschränkung der täglichen Arbeitszeit auf sechs, statt bisher acht Stunden, sah der Verfassungsentwurf unter anderem die Schaffung zweier neuer Teilstreitkräfte unter dem Dach der bisherigen Armee vor: die „Bolivarische Territorialgarde“ sowie die „Volksmiliz“. Letztere sollte direkt dem Präsidenten unterstellt sein. Gleichzeitig sollte ein neues Angriffsziel der Streitkräfte in Form des „inneren Feindes“ definiert werden, was die Bekämpfung jeglicher Dissidenz ermöglicht hätte. Die Währungshoheit sollte von der Zentralbank auf den Präsidenten übertragen werden und der Präsident sollte unbegrenzt wiedergewählt werden können. Des Weiteren sollte eine Reform der Eigentumsverhältnisse angestrebt werden. Der Verfassungsentwurf nannte fünf Arten, die staatlicherseits anerkannt sein würden: Öffentliches, direktes gesellschaftliches, indirektes gesellschaftliches, kollektives und gemischtes Eigentum. Das noch in der Verfassung von 1999 garantierte Privateigentum kam nicht mehr vor. Eine weitere der geplanten Verfassungsänderungen, die Aufhebung der Beschränkung auf zwei Amtszeiten bei politischen Ämtern (nochmalige Wiederwahlmöglichkeit), wurde hingegen bei einem getrennten Referendum am 15. Februar 2009 von 54,4 Prozent der Abstimmenden angenommen. Trotz des verlorenen Verfassungsreferendum, und damit ausdrücklich entgegen dem Willen der Mehrheit des Volkes, nutzte Chávez in der Folgezeit seine Dekretvollmacht und die quasi unbeschränkte Mehrheit seiner Partei im Parlament, um zahlreiche abgelehnte Verfassungsartikel nun als Gesetze zu verabschieden. Kritiker warfen Chávez vor, dadurch eine diktatorische Machtfülle erlangt zu haben. Dabei wandten sich auch ehemalige Weggefährten wie Raúl Isaías Baduel von ihm ab. Am 22. Juni 2007 vereidigte Hugo Chávez die neu gegründete zentrale Plankommission. Sie soll eine Bestandsaufnahme der venezolanischen Volkswirtschaft durchführen, die diversen staatlichen Entwicklungspläne zusammenführen und Vorschläge für die zukünftige Wirtschaftsentwicklung ausarbeiten. Hugo Chávez kündigte weiterhin an, den "Consejos Comunales", Zusammenschlüssen von je ungefähr 200 Familien in den Stadtteilen, mehr Kompetenzen zu geben und ihnen mehr Gelder zur Verfügung zu stellen. Sie bilden die Basis für eine neue Verwaltungsstruktur, die weniger korruptionsanfällig sein soll. Auch schlossen sich verschiedene Parteien des Chávez-Lagers in einer Vereinigten Sozialistischen Partei Venezuelas (PSUV) zusammen. Chávez erhofft sich dadurch einen größeren Einfluss der Basis auf die Parteistrukturen. Bis zum 25. Juni 2007 haben sich 5,7 Mio. Menschen für die PSUV eingeschrieben. Bei den Parlamentswahlen 2010 trat die PSUV in einer Allianz mit dem Partido Comunista de Venezuela (PCV) an. Im Gegensatz zur Wahl von 2005 nahmen jetzt auch wieder die oppositionellen Parteien teil. Aus mehreren verschiedenen politischen Lagern kommend, darunter auch die Partei "Por la Democracia Social" (PODEMOS), die bei den vorangegangenen Wahlen noch die Politik von Chávez unterstützt hatte, bildeten sie die Wahlallianz "Mesa de la Unidad Democrática" (MUD). Das Wahlsystem wurde im Vergleich zu den vorangegangenen Parlamentswahlen von einer Verhältnis- zu einer Mehrheitswahl entwickelt, in dem Direktmandate eine stärkere Rolle für die Zusammensetzung des Parlamentes spielen. Bereits im Vorfeld wurde Kritik an dieser Veränderung des Wahlrechtes laut, die den traditionellen Hochburgen von Chávez, bevölkerungsarmen, ländlichen Bundesstaaten, ein höheres Gewicht verleihe, sowie an der Neuordnung der jetzt wichtiger gewordenen Wahlbezirke zugunsten von Kandidaten aus dem Lager des PSUV-PCV. Neben den beiden Allianzen konnte noch Patria Para Todos (PPT) Abgeordnete gewinnen. Bei der Wahl bekamen PSUV-PCV 48,3 %, der MUD 47,2 % und der PPT 3,1 % der Stimmen bei einer Wahlbeteiligung von 66,5 %. Aufgrund des ausgeprägten Mehrheitswahlrechtes ergab sich folgende Sitzverteilung im venezolanischen Parlament: PSUV-PCV 98 Sitze (59,4 %), Mesa 65 Sitze (39,4 %), PPT 2 Sitze (1,2 %). Damit gewannen PSUV-PCV die einfache Mehrheit deutlich, verpasste jedoch die wichtige Zweidrittel- sowie Dreifünftelmehrheit. Anfang März 2011 erklärte Chávez, er sei der Kandidat der PSUV für die Präsidentenwahlen von 2012. Er sagte, er sei sicher, dass es Zeitverschwendung wäre, wenn die PSUV interne Wahlen veranstalten würde, denn er würde auf jeden Fall gewinnen. Präsidentschaftswahlen 2012. Bei den Präsidentschaftswahlen am 7. Oktober 2012 wurde Chávez wiedergewählt. Bei einer Wahlbeteiligung von 81 % erhielt er 55 % der abgegebenen Stimmen, sein Herausforderer Henrique Capriles, dem es zuvor gelungen war, die zerstrittene bürgerliche und rechte Opposition zu einigen, kam auf 44,3 %. Absolut erhielt Chávez damit 1,6 Millionen Stimmen mehr als sein Konkurrent und hätte damit bis 2019 weiterregieren können. Krankheit und Tod. Ende Juni 2011 erklärte Chávez von Kuba aus, er habe Krebs und habe sich deshalb einer Operation unterzogen. Schon vorher gab es Spekulationen über eine mögliche schwere Erkrankung. Die Opposition hatte den langen Aufenthalt in Kuba heftig kritisiert, da sie es für verfassungswidrig hielt, dass der Präsident das Land vom Ausland aus regiert. Chávez rief mit „Wir werden siegen und leben“ einen neuen Slogan aus. Seit 2007 hatte er den Spruch „Sozialismus, Vaterland oder Tod“ benutzt. Chávez sagte dazu, er werde nicht zurücktreten und nur die Macht an seinen Vizepräsidenten, Elías Jaua, abgeben, wenn seine Fähigkeiten eingeschränkt seien. Vor seiner Wiederwahl am 7. Oktober 2012 hatte Chávez erklärt, frei von Krebs zu sein. Am 8. Dezember 2012 gab Chávez bekannt, dass er erneut an Krebs erkrankt sei und sich umgehend in Kuba operieren lassen werde. Er bestimmte seinen Stellvertreter Nicolás Maduro als möglichen Nachfolger, sollte er in irgendeiner Form „arbeitsunfähig“ werden. Chávez rief seine Anhänger dazu auf, für den Vizepräsidenten Nicolás Maduro zu stimmen, falls er – Chávez – sein Amt nicht mehr ausüben könne. Am 3. Januar 2013 wurde bekannt, dass sich Chávez’ Zustand nach einer vierten Operation verschlechtert hatte. Er litt laut Venezuelas Informationsminister Ernesto Villegas infolge einer schweren Lungenentzündung unter Atemnot, die „strengster medizinischer Behandlung“ bedürfe. Aufgrund seiner Erkrankung konnte er am 10. Januar 2013 nicht im Parlament erscheinen, um nach seiner Wiederwahl, wie von der Verfassung vorgesehen, den Amtseid abzulegen. Eine Vereidigung war für die nächsten Wochen oder Monate geplant. Die Verzögerung der Vereidigung führte zu Neuwahlforderungen der Opposition. Mitte Februar 2013 kehrte Chávez von Kuba nach Venezuela zurück, wo er sich weiteren medizinischen Behandlungen unterzog. Er litt immer noch an einer Erkrankung der Atemwege. Nach bei Wikileaks bekanntgewordenen amerikanischen Unterlagen sei sein aus russischen und kubanischen Ärzten bestehendes Ärzteteam zutiefst zerstritten gewesen. Chávez habe darüber hinaus einen nach der traditionellen chinesischen Medizin arbeitenden Heiler bemüht. Die Russen hätten dies als "Pferdemistbehandlung" bezeichnet. Chávez habe zudem mehrmals Behandlungen abgebrochen, darunter seine Chemotherapien, um öffentliche Auftritte zu absolvieren. Chávez erlag nach Angaben des Vizepräsidenten Nicolás Maduro am 5. März 2013 um 16:25 Uhr Ortszeit im Alter von 58 Jahren seinem Krebsleiden, nachdem sich sein Gesundheitszustand in den letzten Wochen vor seinem Tod immer weiter verschlechtert hatte. Posthumes. In mehreren Ländern Lateinamerikas (unter anderem in Argentinien, Bolivien, Ecuador, Brasilien und Kuba), aber auch in Weißrussland, wurde eine mehrtägige Staatstrauer ausgerufen, in Venezuela betrug diese, nach einer Verlängerung, insgesamt zwei Wochen. Die brasilianische Präsidentin Dilma Rousseff würdigte Chávez als „einen großartigen Führer und vor allem Freund Brasiliens“, als „einen großen Lateinamerikaner“ dessen Tod „ein unwiederbringlicher Verlust“ sei. Der Präsident El Salvadors Mauricio Funes bezeichnete Chávez als „einen Patrioten, einen Mann des umgestaltenden Denkens und Handelns, der für sein Volk regierte und die Realität der Ungleichheit und Ausgrenzung, unter der es litt, veränderte“. Der chilenische Präsident Sebastián Piñera würdigte die „Kraft und Verpflichtung, mit der Präsident Chávez für seine Ideen kämpfte“. An der Trauerfeier in Caracas am 8. März nahmen zahlreiche Staatschefs insbesondere lateinamerikanischer Staaten teil. Chávez wurde zunächst in der Militärakademie Fuerte Tiuna aufgebahrt, bevor er einbalsamiert in einem gläsernen Sarg im früheren Museum für Militärgeschichte zu sehen ist, das zum Museum der Bolivarischen Revolution umgestaltet werden soll. Zu Lebzeiten bezeichnete Chávez selbst im Zusammenhang mit der geplanten und später verbotenen Ausstellung „Bodies Revealed“ 2009 die Zurschaustellung von Leichen als „makaber und ein Zeichen des moralischen Verfalls“. Chávez hatte vor seinem Tod ein Mausoleum für Bolívar und etwa 100 Persönlichkeiten der venezolanischen Geschichte bauen lassen. Das Mausoleum ist so hoch wie ein 17stöckiges Haus und soll über 100 Mio. US-Dollar gekostet haben; es könnte nach Fertigstellung seine letzte Ruhestätte werden. Gemäß der Verfassung muss binnen 30 Tagen die Neuwahl eines Präsidenten stattfinden. Politik. Laut dem deutschen Politikwissenschaftler Friedrich Welsch, emeritierter Professor an der Universidad Simón Bolívar in Caracas, besteht das Ziel der von Chávez ins Leben gerufenen Bolivarischen Revolution im Wesentlichen aus der „Zerschlagung der bürgerlich-demokratischen Kultur, den Sieg über den Imperialismus durch eine neue Bündnisstruktur und den Aufbau des Bolivarischen Sozialismus durch Volkskommunen als Ausgangszellen der neuen Gesellschaft und des neuen sozialistischen Staates“. Dabei laufe erstere Absicht auf eine Abschaffung der Gewaltenteilung hinaus. Zwar steht diese ausdrücklich in der 1999 verabschiedeten Bolivarischen Verfassung, jedoch wurde sie nie politische Realität. Das Volk delegiert dabei die von ihm ausgehende Gewalt direkt an den Mandatsträger als „unvermittelter Ausdruck der Beteiligung des Volkes“. In herkömmlichen demokratischen Gesellschaften übliche Kontroll- und Protestmöglichkeiten seien damit unnötig. Schon zuvor bestehende pro-chavistische Basisorganisationen, wie die "Bolivarischen Kreise" spielten fortan keine Rolle mehr und verschwanden in der Versenkung. Die Vereinigte Sozialistische Partei Venezuelas (PSUV) erklärte, „unser Kommandant Hugo Chávez“ und das revolutionäre Volk seien identisch. Laut Welsch gäbe es deutliche Anzeichen, die daraufhindeuten, dass sich Venezuela unter Chávez zu einem militaristischen Führerstaat entwickle. Wahlen seien dabei nur ein notwendiges Übel, um den demokratischen Schein zu wahren, solange noch oppositionelle Organisationen existieren. Tatsächlich sind die Wahlen Welsch zufolge durch unfaire Verfahrensregeln so organisiert, dass dadurch ein Machtwechsel nahezu ausgeschlossen werden kann. In einem 2011 erschienenen Buch beschrieben Javier Corrales und Michael Penfold Chávez’ Politik als eine der durchgreifendsten und überraschendsten neuzeitlichen politischen Umwälzungen im heutigen Lateinamerika. Den Vorgängerregierungen, darunter mit Carlos Andrés Pérez ein prominentes Mitglied der Sozialistischen Internationale als Regierungschef, warfen die Autoren Elitenversagen, einen Mangel an Checks and Balances und eine zunehmend zentralistische Machtverteilung vor, die Chávez für seinen Aufstieg und eine klientilistische Politik genutzt habe. Ihm sei es damit gelungen, eine schwache, aber doch pluralistische Demokratie in ein auf ihn zugeschnittenes quasiautoritäres Regime zu verwandeln. Dieses stütze sich auf die nachmalig wieder zeitweise sprudelnden Öleinnahmen und eine breite öffentliche Zustimmung. Der Politikwissenschaftler Raul Zelik ist der Ansicht, dass Chávez – trotz anderslautender öffentlicher Stellungnahmen der venezolanischen Regierung – das kubanische Modell als Vorbild gewählt habe, und dies, obwohl Kuba auch nach Meinung wohlwollender Beobachter, abgesehen von der Bereitstellung elementarster Grundbedürfnisse, augenscheinlich nicht in der Lage sei, die Wünsche der Bevölkerung zu befriedigen, der Produktionssektor leidlich bis gar nicht funktioniere und sein politisches System komplett autoritär organisiert sei. Verhältnis zur Opposition. Chávez, der seit 1998 Staatspräsident war, hatte mit einer sehr starken Opposition zu kämpfen, die gesellschaftliche Machtgruppen wie Unternehmerverbände, einige Gewerkschaften, linke Parteien wie Causa R und Bandera Roja sowie fast alle Massenmedien und die Kirchen einschloss. Hinter Chávez hingegen standen wesentliche Teile des Militärs sowie der Bevölkerung. Raul Zelik verglich Chávez’ Situation mit der Regierung von Salvador Allende 1972 und zitierte zur damaligen Situation die italienische Publizistin Rossana Rossanda, nach der „ihr größtes Problem sei, dass sie zwar an der Regierung, aber nicht an der Macht sei“. Spätestens seit dem Referendum 2004 aber galt Chávez’ Position als gefestigt. Dazu trug insbesondere die fortgesetzte innere Schwäche der Opposition bei. Chávez’ Parteineugründungen lösten die sozialdemokratische Acción Democrática und das christlich-demokratische Comité de Organización Política Electoral Independiente (COPEI) ab, die über Jahrzehnte die Politik Venezuelas bestimmt hatten. Der Wahlsieg von Chávez’ Bewegung 1998 bedeutete somit ihre Vertreibung aus der Regierung, wobei die Eigentumsverhältnisse aber bisher weitgehend unangetastet blieben. Insbesondere bei den staatlich dominierten Unternehmen und innerhalb der Verwaltung setzte Chávez einen weitgehenden Personalwechsel durch. Die Opposition hatte jedoch breiten Einfluss bei den Medien, was sich besonders im Jahr 2002 zeigte. Chávez nannte seine Oppositionellen seit langem "escuálidos", "die Abgemagerten". Diese Bezeichnung hat sich schon unter den Chávez-Anhängern eingebürgert. Seit Chávez’ Amtsantritt versuchte die oppositionelle Allianz auf verschiedensten Wegen, Chávez zu stürzen, per Amtsenthebungsverfahren 2000, durch einen Putsch 2002, zwei Generalstreiks 2002 und 2003 sowie durch ein Referendum zur Amtsenthebung 2004. Chávez wiederum versuchte im Gegenzug vielfach, die Allianz zu schwächen und schreckte dabei auch nicht vor drastischen Mitteln zurück. So ließ er ein Referendum über eine personelle Reorganisation der Gewerkschaften durchführen oder wehrte sich gegen eine Anti-Chávez-Kampagne der privaten, in konservativer Hand befindlichen Fernsehsender mit einem Gesetz, das Medien zur „Wahrheitsgemäßheit“ verpflichtete. Der Regierung und Basisorganisationen werden zudem Mindestsendezeiten eingeräumt. Chávez nannte den oppositionellen Gouverneur Henrique Capriles „Spielkarte des [US-]Imperiums“ und „Faschist“. Mehrere führende Oppositionelle wurden, vor allem unter dem Vorwurf der Korruption, juristisch verfolgt. Manuel Rosales, Bürgermeister von Maracaibo und Gegenkandidat von Chávez bei den Präsidentschaftswahlen 2006, tauchte nach einem Haftbefehl Ende März 2009 unter und erhielt in Peru politisches Asyl. Raúl Baduel, ein Armeegeneral, der während des Putsches 2002 die Einheiten befehligte, die die Rückkehr Chávez’ ins Präsidentenamt ermöglichte, und späterer Verteidigungsminister wurde am 2. April 2009 von Angehörigen des militärischen Geheimdienstes festgenommen. Baduel war ein scharfer Kritiker der geplanten Verfassungsänderungen, die dann auch 2007 in einem Referendum knapp abgelehnt wurden. Leopoldo López, ebenfalls als Herausforderer für die Präsidentschaftswahlen 2012 gehandelt, ist mehrfach angeklagt. Umgekehrt bekleideten Verwandte des Präsidenten hochrangige Positionen in Staat und Wirtschaft. Adán Chávez war von Januar 2007 bis April 2008 Bildungsminister, und sein Cousin Asdrubal Chávez wurde 2007 zum Vizepräsidenten der Abteilung für Raffinerie, Handel und Vertrieb des staatlichen Ölunternehmens "Petróleos de Venezuela" befördert. Insbesondere in seiner Heimatprovinz Barinas, wo sein Vater Hugo Chávez sr. zum Gouverneur gewählt wurde, wurden weitere Familienmitglieder in Ämter gewählt bzw. in solche berufen. Chávez kam dabei in Konflikt mit Mitgliedern seiner Familie. Allgemein beklagten Menschenrechtsorganisationen wie Amnesty International oder Human Rights Watch, dass Oppositionspolitiker, Journalisten und Menschenrechtsverteidiger unter Hugo Chávez regelmäßig „schikaniert, bedroht, eingeschüchtert und mit fadenscheinigen Begründungen unter Anklage gestellt“ wurden. Chávez und Wahlkampfdebatten. Hugo Chávez weigerte sich seit Amtsantritt, Debatten in Form von Fernsehduellen zu akzeptieren. So lehnte er es ab, eine Debatte mit dem Kandidaten der Opposition im Jahr 2006 zu führen. Er lehnte es auch ab, eine Debatte gegen Henrique Capriles zu führen, denn Capriles sei seiner Meinung nach "ein Nichts". Bildungs- und Sozialpolitik. Nach dem Wahlsieg von Hugo Chávez initiierte die Regierung zahlreiche "Bolivarianische Missionen": Sozialprogramme, die sich insbesondere an die ärmsten Schichten der Bevölkerung richteten. Diese sind meistens im informellen Sektor tätig und machen weit mehr als 50 Prozent der Gesamtbevölkerung aus. Die Sozialprogramme werden in Venezuela als "Misiones" bezeichnet. Nach verschiedenen Vorläufern wurden die "Misiones" in der heutigen Form nach dem zweimonatigen Unternehmerstreik von 2002 bis 2003 ins Leben gerufen. Sie sollten innerhalb von sehr kurzer Zeit einen möglichst großen Effekt erzielen und sich auf eine bestehende soziale Organisierung in den Armutsvierteln stützen. Zu diesem Zweck wurden die damals eher ineffektiven und von Anhängern der Opposition dominierten Ministerien umgangen und die Mittel aus Einnahmen der PDVSA bereitgestellt. In den folgenden Jahren erfolgte die Mittelvergabe stärker über den Staatshaushalt. Nach Auffassung des in Caracas lehrenden Wirtschafts- und Verwaltungswissenschaftler Michael Penfold-Becerra dienten die "Misiones", die mit Budgets zwischen ein und zwei Milliarden Euro das größte Sozialprogramm in der Region darstellen, nur dem Zweck, durch Verteilung der Öleinnahmen an die Bevölkerungsschichten mit den geringsten Einkommen im Sinne einer klassischen Klientelpolitik "Stimmen zu kaufen". Zu einem ähnlichen Urteil kam auch die Neue Zürcher Zeitung in ihrem Nachruf auf Chávez: „In erster Linie hat Chávez die traditionelle Klientelwirtschaft in Venezuela von der Mittelklasse auf die Unterschicht ausgeweitet. Seine Misiones brachten Almosen für die breite Bevölkerung – aber kaum etwas darüber hinaus.“ Wirtschaftspolitik. Die Wirtschaftspolitik ist stark an Vorstellungen der Importsubstitution angelehnt, die in den 1950er und 1960er Jahren auch von der Wirtschaftskommission für Lateinamerika und die Karibik (CEPAL) befürwortet wurden. Diese Strategie bedeutet einen Bruch mit einer neoliberalen Wirtschaftspolitik, die auf Drängen des Internationalen Währungsfonds (IWF) in Venezuela in den 1980er und 1990er Jahren angewandt wurde. Die Regierung Chávez stoppte die vorgesehene Privatisierung des staatlichen Erdölkonzerns "Petróleos de Venezuela". Präsident Chávez setzte sich auch für eine Revitalisierung der OPEC ein. Zahlreiche internationale Kooperationsabkommen, unter anderem im Rahmen der ALBA, aber auch mit Weißrussland, Russland, der Volksrepublik China und Iran, enthalten den Aufbau von Fabriken in Venezuela. Mit Hilfe von Weißrussland soll in Venezuela der Maschinenbau entwickelt werden, China hat in Venezuela Fabriken zur Computerproduktion errichtet, Iran soll Venezuela beim Aufbau einer eigenen Automobilproduktion, von Traktorfabriken und von Fabriken zur Herstellung von Baustoffen unterstützen. Mit Hilfe von Kuba wird ein weiteres Stahlwerk errichtet. Angaben von Industrieverbänden zufolge wurden von 1999 bis 2012 insgesamt 1440 Unternehmen aus einer breiten Reihe von Industrien (Energie, Banken, Handel, Nahrungsmittel, Tourismus usw.) enteignet. Die an die bisherigen Eigentümer der Unternehmen dabei bisher gezahlten Entschädigungen wurden von Beobachtern teilweise als „fair“ bzw. „marktgerecht“ bewertet, wenngleich in einigen Fällen eine Einigung über Entschädigungszahlungen noch aussteht. Die Regierung fördert auch die Gründung von Kooperativen und sonstigen Zusammenschlüssen bei stillgelegten oder Konkurs gegangenen Unternehmen. Diese Kooperativen werden mit Mikrokrediten versorgt, die Regierung kauft ihre Produkte wie Schul- oder Militäruniformen auf oder vertreibt sie über die Misión Mercal. Die Kooperativen sind damit auf staatliche Abnehmer angewiesen. Die Mitglieder von landwirtschaftlichen Kooperativen können im Rahmen der Misión Che Guevara im ökologischen Landbau ausgebildet werden. Im August 2011 kündigte Chávez an, die in verschiedenen Banken in Europa und den USA gelagerten Goldreserven Venezuelas in der Höhe von 11 Milliarden US-$ zurück ins Land zu holen. „Wie können wir das venezolanische Gold in London halten, wenn die Nato jederzeit sagen kann, das Gold sei ihres“, begründete Chávez seinen Entscheid. Es sei zudem derzeit sehr unverlässlich, das Gold in den vom Bankrott bedrohten europäischen und amerikanischen Banken aufzubewahren. Im September des gleichen Jahres verstaatlichte er auch die Goldindustrie des Landes. Das Gesetz schreibt vor, „dass alles Gold, das auf nationalem Territorium als Folge von Bergbautätigkeiten erlangt wird, […] der Republik von Venezuela verkauft und geliefert werden [muss]“. Auswirkungen. Im Jahr 2003 führte die venezolanische Zentralbank feste Wechselkurse und Devisenkontrollen ein, um die nach Chávez’ Antritt erheblich ausgeweitete Kapitalflucht einzudämmen. Der Gini-Koeffizient, der die Verteilung des gesellschaftlichen Reichtums misst, ist von 0,5 im Jahr 2002 auf 0,39 im Jahr 2009 gesunken, was eine gleichmäßigere Verteilung auf alle Bewohner bedeutet. (Zum Vergleich: Die Gini-Koeffizienten der Einkommensverteilung belaufen sich für die meisten lateinamerikanischen Länder auf mehr als 0,5, während sie sich in den westeuropäischen Ländern um 0,3 bewegen.) Die Einbrüche in den Jahren 2002 und 2003 sind auf den Unternehmerstreik sowie die Sabotage der Ölförderanlagen zurückzuführen, von denen sich die venezolanische Wirtschaft im Jahr 2004 erholte. Von 2004 bis 2008 war ein hohes, sich aber abschwächendes Wirtschaftswachstum zu verzeichnen, das einerseits auf den gestiegenen Ölpreis zurückzuführen ist, aber nach Meinung der Regierung auch das Resultat der neuen Wirtschaftspolitik sei. Dafür spricht, dass in den Jahren ab 2004 das Wachstum im privaten Sektor stärker war als im staatlichen Sektor. Dies wird auf hohe Binnennachfrage und die Zunahme öffentlicher Investitionen zurückgeführt. Andere Ökonomen wie Hans-Jürgen Burchardt führen das Wirtschaftswachstum nahezu ausschließlich auf den gestiegenen Ölpreis zurück. 2009 schrumpfte das Bruttosozialprodukt um 2,9 Prozent, 2010 um weitere 1,9 Prozent bei einer Inflationsrate von 27 Prozent. Als Ursache wurde zunächst vor allem der Einbruch des Ölpreises Ende 2008 infolge der Finanzkrise ab 2007 verantwortlich gemacht. Allerdings wurde bereits im dritten Quartal 2010 ein Nullwachstum erreicht, so dass im Jahr 2011 mit einem Wirtschaftswachstum zu rechnen ist. Nach Anfang 2010 wurde auch 2011 die venezolanische Währung, der Bolívar, abgewertet. Zum starken Rückgang der Wirtschaftstätigkeit in der ersten Hälfte des Jahres 2010 trug auch die Elektrizitätskrise bei, die Produktionsunterbrechungen in der Schwerindustrie notwendig machte. Andere verweisen auf Chávez’ Verantwortung für den Niedergang der Infrastruktur. Die Regierung habe die Infrastruktur verkommen lassen. Bei dem Gaskraftwerk Planta Centro im Bundesstaat Carabobo dauerte die Reparatur der Turbinen länger als der Bau des Kraftwerks an sich, das früher vorbildliche Stromnetz sei unter Chávez auf den Stand eines Entwicklungslandes heruntergekommen, regelmäßige Stromausfälle ein gravierendes Problem. Die offiziell investierten 35 Milliarden Euro seien nicht sachgemäß verwendet worden. Trotz der Wirtschaftskrise wurden die Sozialausgaben beibehalten, so dass die Armut und die absolute Armut in Venezuela weiter zurückgingen. Die Arbeitslosigkeit nahm von 6,8 % Ende 2008 auf 8,4 % Mitte 2010 zu. Die Gesamtverschuldung Venezuelas beträgt 18,4 % des BSPs und ist damit weitaus geringer als die von Deutschland (über 60 %) und den USA (über 100 %). Von 1999 (Machtantritt von Chávez) bis 2011 sind die Auslandsverbindlichkeiten um 70 % angestiegen, die Binnenverschuldung um 1000 %. Auch Anhänger von Chávez kritisieren gelegentlich, dass die Maßnahmen im Bereich der Wirtschafts- und Sozialpolitik zu zögerlich seien und im Symbolischen haften blieben. Auch käme es zu Korruption und Vetternwirtschaft. In den Jahren 2007–2009 ist es in Venezuela zeitweise zu Engpässen in der Versorgung mit Nahrungsmitteln gekommen, auch in den staatlichen Mercal-Geschäften. Die Inflation ist wieder gestiegen, und vor allem Nahrungsmittel haben sich vom Mai 2006 bis zum Mai 2007 um etwa 30 Prozent verteuert. Die Opposition, unter anderem der Unternehmerverband Fedecamaras, ist der Ansicht, dass die wirtschaftlichen Probleme durch die Devisenverkehrskontrollen, Preiskontrollen für Lebensmittel und den chavistischen Ausbau des Sozialstaates verursacht worden seien und zudem eine Schattenwirtschaft hervorgerufen hätten. Die Abhängigkeit vom Erdöl konnte bisher nicht beseitigt werden. Chávez’ Politik wird für eine erhebliche Verschlechterung der Produktivität und einen Mangel an Neuinvestitionen und technischen Innovationen der staatlichen Ölgesellschaft PDVSA verantwortlich gemacht. Selbst Chávez-freundliche Ökonomen wie Mark Weisbrot werfen ihm Versagen in der Wirtschaftspolitik und mangelnde Diversifizierung der Wirtschaft vom Ölgeschäft vor. Mediengesetzgebung. Nach dem Mediengesetz von 2005 muss jeder Kanal 70 Minuten Sendezeit wöchentlich (maximal 15 Minuten täglich) zur Verfügung stellen, in welcher der Staat über seine Projekte und Ziele informieren kann. Diese Übertragungen dürfen in keiner Weise verändert werden, weder in der Qualität des Audio/Video-Signals noch in der Nachricht selbst. Neben der Schließung von 34 Medienanstalten am 1. August 2009 geraten Medien durch gleichzeitige Pläne, die eine drastische Verschärfung des Mediengesetzes vorsehen, zusätzlich unter Druck. Generalstaatsanwältin Luisa Ortega Díaz legte der Nationalversammlung einen entsprechenden Gesetzesentwurf vor, durch dessen Umsetzung Journalisten und Verlegern Haftstrafen zwischen zwei und vier Jahren drohen, falls sie „öffentliche Panik“ verbreiten oder „die Sicherheit der Nation“ gefährden. Nach der weltweiten Rangliste der Pressefreiheit der Organisation Reporter ohne Grenzen nimmt Venezuela den 117. von 179 Plätzen ein. Private Medien. In Venezuela sind die meisten Massenmedien nach wie vor in Privathand. Bis zum Jahr 2004 unterstützten die vier Fernsehsender Venevisión, RCTV, Televen und Globovisión, welche zusammen eine Reichweite von über 90 Prozent hatten, ausschließlich die bürgerliche Opposition gegen Präsident Chávez. Von Chávez-Anhängern werden sie daher auch "Golpevision" (Putschfernsehen) genannt. Venevisión gehört dem venezolanischen Multimilliardär Gustavo Cisneros, RCTV Marcel Granier. Beide Unternehmer haben eine entschieden konservative politische Einstellung, die sich auch in ihren jeweiligen Fernsehkanälen ausdrückte. Seit Jahren werden die privaten, regierungskritischen Fernsehsender in Venezuela von der Regierung in ihrer Pressefreiheit beschränkt. Zum einen machte der Präsident, besonders in Zeiten des Wahlkampfes, häufig von den so genannten cadenas Gebrauch, mittels derer er mehrstündige Ansprachen halten konnte, die von allen terrestrischen Rundfunksendern übertragen werden mussten. Zum anderen wurden RCTV, Globovisión und andere private Fernsehsender zum Ziel rigiden politischen und finanziellen Drucks, welcher zur Einschüchterung, beziehungsweise zum Bankrott dieser Sender geführt hat. Venevisión ist daher seit 2004 weniger kritisch geworden, und RCTV ist nicht mehr im terrestrischen VHF-Band erreichbar. Globovisión kann außerhalb von Caracas und Valencia nur per Kabel oder Internet gesehen werden. Weniger als ein Drittel der Bevölkerung hat diese Möglichkeit. Mit Ausnahme der auflagenstärksten Zeitung "Últimas Noticias" sind die meisten größeren Zeitungen des Landes wie "El Impulso", "El Mundo", El Nacional, "El Nuevo Pais", El Universal und "Tal Cual" oppositionell geprägt. Diese Medien übernahmen beim Putsch gegen Chávez im Jahr 2002 eine wichtige Rolle. Wahrheitswidrig behaupteten sie, Regierungsanhänger hätten auf Teilnehmer einer Oppositionsdemonstration geschossen, strahlten den Putschaufruf des oppositionellen Generals Nestor Gonzalez Gonzalez aus und rechtfertigten den Staatsstreich. Die oppositionellen Medien berichteten nicht über die starken Gegendemonstrationen, die den Putsch schließlich zum Scheitern brachten. Dies war umso gravierender, als die wenigen regierungstreuen Medien von den Putschisten geschlossen worden waren. Während des Generalstreiks im Dezember 2002 erweckten die oppositionellen Medien den Eindruck, der Streik werde weitgehend befolgt. Der Sender Globovisión versuchte dies mit Bildern einer leeren Stadtautobahn zu belegen. Diese Bilder waren aber am frühen Morgen aufgenommen worden. Zu anderen Tageszeiten waren die Straßen voll wie üblich. Öffentliche Medien. Die Regierung versuchte zunächst, die teilweise schon vorher entstandenen Basismedien zu fördern. Inzwischen senden mehr als 500 Basisradios und mehr als zwölf lokale Fernsehstationen. Diese waren noch von der Vorgängerregierung als Piratensender bekämpft worden. Inzwischen besteht für sie die Möglichkeit, sich zu registrieren und legal zu senden. Die meisten Inhalte dieser Sender werden von Laien produziert, die in Workshops das Filmemachen und den Schnitt lernten. Sie berichten über den Alltag und die sozialen Kämpfe in den Slums der Großstädte – Themen, die in den Privatsendern nicht vorkommen. Diese Medien unterstützen Präsident Chávez grundsätzlich, wahren allerdings ihre Unabhängigkeit und scheuen sich nicht, bestimmte Maßnahmen oder Funktionsträger der Regierung zu kritisieren. Neben dem schon bestehenden Staatskanal "Venezolana de Televisión" (VTV), der nur eine geringe Reichweite hat und von den Vorgängerregierungen nur sehr spärlich finanziert worden war, investierte die Regierung erhebliche Mittel in den 2003 gegründeten Kulturkanal ViVe und initiierte darüber hinaus die Gründung des multistaatlichen, südamerikanischen Informationssenders teleSUR sowie des in Zusammenarbeit mit zahlreichen sozialen Organisationen Südamerikas entstandenen Senders Alba TV. VTV, ViVe, Globovisión und teleSUR werden seit geraumer Zeit für Südamerika über den Satelliten NSS 806 auf 40,5° West im C-Band verbreitet und können auch in Deutschland mit 180-cm-Schüsseln werden. Seit 1999 (also dem ersten Jahr seiner Präsidentschaft) hatte Chávez eine eigene Fernsehsendung "Aló Presidente". Sie wurde meist sonntags von wechselnden Orten wie z. B. Kooperativen im Landesinnern durch staatliche Sender ausgestrahlt. "Aló Presidente" dauert mehrere Stunden, die Sendedauer variiert stark. Hugo Chávez hielt Reden, machte Ankündigungen und ermunterte die Zuschauer zu Anrufen während der Sendung, um ihm Probleme vorzutragen, die er zur Bearbeitung weitergab oder noch während der Sendung löste. Hugo Chávez wendete sich häufig mit Fernsehansprachen direkt an die venezolanische Öffentlichkeit. Alle Fernsehsender waren dann verpflichtet, eine "Cadena" („Kette“) zu bilden und die Ansprache landesweit gleichzeitig und in voller Länge auszustrahlen. Im Jahr 2001 wurden 7018 Minuten lang "cadenas" mit Ansprachen Chávez’ gesendet, im Jahr 2002 4407 Minuten. Nichtverlängerung der Lizenz von RCTV 2007. Im Dezember 2006 kündigte Präsident Chávez an, die terrestrische Sendelizenz für den Sender RCTV, die am 27. Mai 2007 auslief, nicht zu verlängern. Vertreter der Regierung begründeten diese Entscheidung mit der Verwicklung des Senders in den Putsch gegen Chávez im Jahr 2002 und der Tatsache, dass sich dieser Sender nicht an Gesetze gehalten habe. Am 29. März 2007 sagte Kommunikationsminister Jesse Chacón, dass der neue öffentlich-rechtliche Fernsehkanal TVes die in Frage stehenden terrestrischen Sendefrequenzen übernehmen werde. RCTV beendete am 28. Mai 2007 um 00:03 Uhr mit der Nationalhymne seinen terrestrischen Sendebetrieb, TVes nahm unmittelbar im Anschluss mit der Nationalhymne seinen Betrieb auf. Am 26. April 2007 brachte die interamerikanische Menschenrechtskommission der Organisation Amerikanischer Staaten (OAS) den Fall vor das Menschenrechtsgericht der OAS, da sie die minimalen Arbeitsbedingungen für Arbeiter und Journalisten des Senders durch den venezolanischen Staat nicht gewährleistet sah. Chávez erklärte, aus der OAS austreten zu wollen, falls das Gericht Venezuela in dieser Sache schuldig spricht. In einer gemeinsamen Erklärung unterstützten sämtliche Mitglieder der ALBA, darunter Bolivien, Ecuador, Honduras und Nicaragua, das Vorgehen der venezolanischen Regierung in diesem Fall. Der Geschäftsführer der Menschenrechtsorganisation Human Rights Watch, Miguel Vivanco, verurteilte die Nichtverlängerung der Lizenz als „Fall von Zensur“. "Reporter ohne Grenzen" bezeichnete die Nichtverlängerung der Lizenz von RCTV als Schließung des Senders und die teilweise Enteignung des Sendeequipments als nicht den venezolanischen Gesetzen entsprechend, in einer Stellungnahme im Sender teleSUR wurde dem energisch widersprochen und dem ROG-Bericht in 39 Punkten unlautere Berichterstattung vorgeworfen. Amnesty International sah das Menschenrecht auf freie Meinungsäußerung in Venezuela in Gefahr. Die Vorgänge um RCTV seien nur die bisher letzten einer Reihe von Ereignissen gewesen, die das Recht auf freie Meinungsäußerung unterminieren würden. Schließung von über 30 Sendern 2009. Am 1. August 2009 gab Diosdado Cabello, Chef der nationalen Telekommunikationsbehörde Conatel, die Schließung von 32 privaten Rundfunk- und zwei Fernsehsendern bekannt, da sie im Rahmen einer Überprüfung ihrer Lizenzen einer Aufforderung vom Juni nicht nachgekommen seien, ihre Sendegenehmigung vorzulegen. Daher würden sie als Konsequenz eines fortgesetzt illegalen Betriebs in Form fehlender oder falsch gebrauchter Lizenzen geschlossen. Im Anschluss stellte Cabello die Überprüfung der weiteren 206 Rundfunksender in Aussicht. Nelson Belfort, Präsident der venezolanischen Kammer der Radiosender, beschrieb das Vorgehen als Angriff auf die Meinungsfreiheit. Chávez erklärte dazu: „Wir haben eine Reihe von Stationen zurückgewonnen, die sich außerhalb des Gesetzes bewegten und die jetzt dem Volk gehören und nicht mehr der Bourgeoisie.“ Geistiges Eigentum. Die Regierung Chávez steht der Ausweitung des geistigen Eigentums kritisch gegenüber: Ein vorgeschlagenes neues Urheberrechtsgesetz würde die Rechte der Verwerter deutlich einschränken und die Verbraucherrechte stärken. Die Patentierung von Software, von Lebewesen und von genetischen Strukturen ist in Venezuela nicht möglich. Die von Behörden und Staatsunternehmen genutzten Computer sollen auf Linux umgestellt werden. Die Entwicklung und Anpassung von freier Software wird vom Staat gefördert. Christentum. Chávez hat neben dem Rückgriff auf Bolívar auch Aspekte der katholischen Volksfrömmigkeit wie den María-Lionza-Kult und die Santería für seine politischen Aktivitäten vereinnahmt. Er betonte auch Aspekte der katholischen Soziallehre und hielt sich bei strittigeren Themen betont zurück. So wurde das sehr restriktive venezolanische Abtreibungsrecht bis dato (2011) nicht modifiziert. Auseinandersetzungen gab es mit einigen führenden Amtsträgern des katholischen Klerus und einigen evangelikalen Gruppierungen, die auch in Venezuela Zulauf haben. So sorgte der emeritierte Kurienkardinal Rosalio Lara gemeinsam mit der Bischofskonferenz Venezuelas Anfang 2006 für erhebliche Verstimmungen zwischen der venezolanischen Kirche und der Regierung. Anlässlich einer Wallfahrt kritisierte er, dass man in Venezuela Andersdenkende verfolge und Chávez’ Führungsstil undemokratisch sei. Außerdem beklagte der Kardinal „Anzeichen einer Diktatur“ und eine inakzeptable Situation der Menschenrechte. Chávez sprach darauf von einer „Mitverschwörung“ der Kirche und forderte eine Entschuldigung. Den Kardinal beschimpfte er als „Heuchler, Banditen und Teufel in Soutane“. Für Verstimmung sorgte auch die Parteinahme des Kardinals Antonio Ignacio Velasco García und anderer hoher Würdenträger während des Putsches gegen Chávez 2002. Chávez hat 2005 die evangelikale Missionsgesellschaft New Tribes Mission, welche in den indigenen Gemeinden im Süden des Landes aktiv war, aus dem Land verwiesen. Er warf ihr „Kolonialismus“ und „imperialistische Infiltration“ (Verbindungen zur CIA) vor. Unter anderem in Parlamentsberichten wurden der New Tribes Mission zuvor Spionage und Zwangsbekehrungen vorgeworfen. Zur selben Zeit übergab er 6800 Quadratkilometer Land an die Ureinwohner Venezuelas. Chávez sagte hierzu, er führe eine Revolution für die Armen, und die Verteidigung der Rechte der Ureinwohner des Landes sei eine der Prioritäten hierfür. Judentum. Chávez war dem peronistischen Politikwissenschaftler, Antisemiten und Holocaustleugner Norberto Ceresole eng verbunden, der ihn bereits während der Haft beraten hatte und deswegen 1995 ausgewiesen wurde. Das zeitweise Wiedererscheinen Ceresoles nach der Wahl 1998 und ein zeitgleich erschienenes Buch Ceresoles zu Ehren Chávez’ mit dem Titel "Caudillo, Ejército, Pueblo: la Venezuela del Comandante Chávez" (Führer, Heer, Volk: Das Venezuela des Kommandanten Chávez) stieß bereits 1999 auf großes öffentliches Interesse und Unbehagen in Venezuela. Chávez’ Regierung distanzierte sich darauf von Ceresole, dieser verließ das Land kurz darauf. Die jüdische Gemeinde in Venezuela schrumpfte seit dem Amtsantritt Chávez’ 1998 bis Ende 2007 von 16.000 auf 12.000 und führt dies ganz wesentlich auf die Verschlechterung der Beziehungen im Zusammenhang mit dem gescheiterten Referendum 2007 zurück. Daraufhin kam es zu einem Schlagabtausch zwischen dem Simon-Wiesenthal-Zentrum in Los Angeles, das die Äußerungen als antisemitisch verurteilte und eine Entschuldigung verlangte, Chávez, der darauf entgegnete, er sei antiliberal und antiimperialistisch, aber niemals antisemitisch, und der CAIV, dem Verband der israelitischen Gemeinden Venezuelas. Die CAIV versuchte anfangs noch zu vermitteln und wurde dabei vom American Jewish Committee und dem American Jewish Congress unterstützt. Allerdings hatte die CAIV nach der Inhaftierung Raúl Baduels keinen Ansprechpartner mehr, im Gegenteil kursierten diverse Theorien über eine amerikanisch-zionistische Verschwörung im Lande. Simon Sultan, der Vorstand des Hebraicazentrums in Caracas, sprach 2007 von der ersten antijüdischen Regierung des Landes. Die 2008 erfolgte Ernennung des 38-jährigen Tarek al Aissami, eines ehemaligen linksextremen Studentenführers und Sohns eines Repräsentanten der Baʿth-Partei Iraks in Venezuela, zum Innenminister trug nicht zur Vertrauensbildung bei. Im September 2010 fand ein Treffen einer CAIV-Delegation unter Leitung von Salomón Cohen Botbol mit Präsident Chávez statt. Botbol übergab Chávez ein Dossier mit Beispielen für antisemitische Äußerungen in den staatlichen Medien und gab die möglichen Folgen zu bedenken. Chávez versprach, die Sicherheitsmaßnahmen für jüdische Einrichtungen zu verbessern. Um das Treffen war nach der Plünderung einer Synagoge und der Zündung eines Sprengsatzes am jüdischen Gemeindezentrum in Caracas im Frühjahr 2009 gebeten worden. Unter den in diesem Zusammenhang verhafteten elf Personen waren acht Polizeibeamte. Am 22. Juli 2011 wurden drei ehemalige Beamte der Hauptstadtpolizei (Policia Metropolitana) und drei Zivilisten wegen des Überfalls auf die Synagoge verurteilt. Das Gericht schloss einen politischen Hintergrund aus und stellte fest, dass mindestens ein Wachmann die Einbrecher in das Gotteshaus eingelassen hatte. Die Bande habe durch die Schändung der Synagoge versucht, den Raub als politische Tat zu tarnen. Vereinigte Sozialistische Partei Venezuelas (PSUV). Die Politik war in Venezuela traditionell klientelistisch geprägt. Nach Meinung vieler bolivarianischer Basisaktivisten hat sich daran auch bei den Parteien, die Chávez unterstützen, nicht viel geändert. So wurden die Kandidaten des Chávez-Lagers bei den Regionalwahlen 2004, den Wahlen zur Nationalversammlung und den Kommunalwahlen 2005 nach Verhandlungen zwischen den Parteien aufgestellt und nicht von der Basis, wie dies Chávez versprochen hatte. Viele der Kandidaten genossen wenig Vertrauen bei der Bevölkerung, was dazu führte, dass die Wahlbeteiligung gering war. Mit der Gründung der Vereinigten Sozialistischen Partei Venezuelas (PSUV) soll die Partizipation der Basis erweitert werden. Lateinamerika. Chávez hat seit 2004 verstärkt den Schulterschluss mit gleichgesinnten lateinamerikanischen Führern gesucht. Dem Projekt ALBA als Alternative zur US-dominierten Amerikanischen Freihandelszone gehören im Jahr 2012 Antigua und Barbuda, Bolivien, Dominica, Ecuador, Kuba, Nicaragua, St. Vincent und die Grenadinen und Venezuela an. Chávez’ Einmischung im Wahlkampf Perus im Jahr 2006 – er hatte Alan García als „schamlosen Dieb“ beschimpft und dessen Herausforderer Ollanta Humala unterstützt – führten zu diplomatischen Verstimmungen. Vor den Präsidentschaftswahlen 2006 in Nicaragua unterstützte er öffentlich die Sandinistas und deren Kandidaten Daniel Ortega. Chávez’ Parteinahme für die FARC-EP führte zu diplomatischen Spannungen, sowohl zwischen Venezuela und Peru als auch Venezuela und Kolumbien. Im Jahr 2010 gab es Berichte, wonach für Venezuela bestimmte Raketenwerfer eines schwedischen Waffenherstellers in die Hände von FARC-Kämpfern gelangt seien. Schweden verlangte eine Erklärung für den Verstoß gegen den Kaufvertrag. Venezuelas Innenminister bestritt eine Beteiligung der Regierung. Durch die Finanzkrise ab 2007 und den dadurch ausgelösten zeitweise starken Fall der Ölpreise schlitterte Venezuela in eine schwere Rezession, aus der das Land bis Ende 2010 als einzige große lateinamerikanische Volkswirtschaft nicht herauskam. Das chavistische Politik- und Wirtschaftsmodell hat dadurch bei den lateinamerikanischen Ländern deutlich an Vorbildfunktion verloren. Auch fehlen Chávez nun zunehmend die Ressourcen zur Fortführung seiner Scheckbuchdiplomatie. Europa. Im Februar 2010 wurde die venezolanische Regierung von einem spanischen Richter der Zusammenarbeit mit der baskischen Separatistenorganisation ETA verdächtigt. Chávez wies die Vorwürfe zurück. Chávez hat die Regierung Lukaschenkos mehr als einmal verteidigt. Der venezolanische Präsident zeichnete Lukaschenko selbst mit dem Orden de Libertador aus, der höchsten Auszeichnung Venezuelas. Die venezolanische Regierung beauftragte 2007 die weißrussische Firma Belzarubezhstroi mit dem Bau von 5.000 Wohneinheiten samt der dazugehörigen Infrastruktur in Venezuela. Dafür gab es zunächst eine Abschlagszahlung in Höhe von 90 Millionen Dollar. Venezuela versucht seit einigen Jahren, Erdöl an Weißrussland zu verkaufen. Wegen der Schwierigkeiten eines Transports von Venezuela nach Weißrussland handelt es sich vor allem um Swap-Geschäfte, bei denen eine Firma venezolanisches Erdöl an die USA liefert und Weißrussland Erdöl aus Aserbaidschan bekommt. Chávez hat Lukaschenko versprochen, "200 Jahre Erdöl an Weißrussland zu liefern". USA. Die USA beziehen aktuell rund 15 Prozent ihres Öls aus Venezuela. Chávez hatte wiederholt damit gedroht, dass er im Fall einer Invasion oder Blockade die Öllieferungen an die USA einstellen werde. Einige Beobachter sehen die von Chávez postulierte Bedrohung Venezuelas durch die USA als Instrument der innenpolitischen Meinungsmache. Außerdem hatten Äußerungen wie die durch den rechten Fernsehprediger Pat Robertson, der die Ermordung Chávez’ gefordert hatte, erhebliche diplomatische Verwicklungen zur Folge. Die USA unterstützen die Oppositionsparteien seitdem sowohl materiell als auch organisatorisch, weisen aber weitergehende Unterstellungen deutlich zurück. Allerdings wurden Rüstungslieferungen an Venezuela storniert beziehungsweise unterbunden. Beleidigende Äußerungen mit Bezug auf George W. Bush vor der UNO und die Ausweisung des US-Botschafters 2008 wegen der Media-Luna-Provinzen in Bolivien hatten auf die Öllieferungen keinen Einfluss. Beim Gipfeltreffen der Organisation amerikanischer Staaten im April 2009 ergab sich erstmals ein Treffen von Chávez mit Bushs Nachfolger Barack Obama, bei dem sich beide zu mehreren Anlässen demonstrativ die Hand gaben. Von beiden Seiten wurde betont, dass man eine Verbesserung der Beziehungen anstrebe. Im September 2009 verkündete Chávez hingegen eine Aufrüstung der venezolanischen Streitkräfte in Form von 92 russischen Panzern sowie Raketenabwehrsystemen und Raketenwerfern, das mithilfe eines russischen Darlehens in Höhe von 1,5 Milliarden Euro finanziert wurde. Chávez begründete dies mit der Entscheidung Kolumbiens, US-Truppen Zugang zu sieben Militärbasen zu gewähren. Iran. Die Chávez-Regierung knüpft seit einigen Jahren enge Verbindungen mit dem Iran. Die beiden Länder, die in der Rangliste der Öl exportierenden Länder auf Rang vier und acht stehen und beide Mitglied der OPEC sind, haben nach Aussagen Chávez’ das gemeinsame Ziel, den Preis ihres gemeinsamen, wichtigsten Produktes gegen die Einflussnahme der USA zu schützen, die den Einfluss des Öl-Kartells OPEC untergraben habe. Auch kamen im September 2006 29 Kooperationsabkommen zwischen Venezuela und dem Iran zustande, insbesondere in den Sektoren Wirtschaft und Energie. Chávez äußerte sich 2006 positiv zum umstrittenen iranischen Atomprogramm und betonte das Recht des Irans auf friedliche Nutzung von Kernenergie. Schon im Jahr 2005 hatte sich Venezuela als einziges Land einer Resolution der Internationalen Atomenergie-Organisation IAEA widersetzt, die dem Iran die Verletzung des Abkommens zur Nichtverbreitung von Atomwaffen vorwarf. Chávez erklärte sich mehrfach solidarisch mit dem iranischen Präsidenten Mahmud Ahmadinedschad, den er als „Bruder“, „Revolutionär“ und „Kämpfer für eine gerechte Sache“ bezeichnete. Verschiedene Medien verwiesen in diesem Zusammenhang auf Ahmadinedschads antisemitische Äußerungen und seine Holocaustleugnung. Die umstrittenen iranischen Präsidentschaftswahlen 2009 bezeichnete Chávez als einen Triumph seines iranischen Amtskollegen Mahmud Ahmadinedschad und forderte Respekt für diesen ein. „Ahmadinedschads Triumph war ein Triumph auf ganzer Linie. Sie versuchen, Ahmadinedschads Sieg zu beflecken, und dadurch schwächen sie die Regierung und die Islamische Revolution. Ich bin gewiss, dass sie nicht gewinnen werden.“ Nahostkonflikt. Während des Libanonkriegs im Juli 2006 sagte Hugo Chávez bei einem Besuch im Emirat Katar zu den israelischen Militäroperationen im Süden des Libanon: „Israel verübt an den Libanesen dieselben Handlungen, wie sie Hitler an den Juden verübt hat – die Ermordung von Kindern und Hunderten unschuldigen Zivilisten.“ Gleichzeitig verurteilte er auch die Entführung von zwei israelischen Soldaten durch die Hisbollah, die als Auslöser der Offensive galt. Anlässlich des israelischen Militärangriffs 2008/2009 im Gazastreifen "(„Operation Gegossenes Blei“)" verwies Chávez den israelischen Botschafter des Landes. Die "Operation" bezeichnete er als „Holocaust am palästinensischen Volk“. Auf der anderen Seite bezeichnete er in einer Fernsehansprache im November 2009 den in Frankreich inhaftierten Terroristen Ilich Ramírez Sánchez als revolutionären Kämpfer für die palästinensische Sache. Weitere Staaten. Im Zuge seiner „Allianz gegen den US-amerikanischen Imperialismus“ hat Chávez auch Kontakte zu Vietnam, Syrien und bis zum Jahr 2011 auch zu Libyen geknüpft. Al-Gaddafi verlieh Chávez den Internationalen Gaddafi-Preis für Menschenrechte von 2004. Chávez übergab al-Gaddafi wiederum das Libertador-Schwert als Auszeichnung und erklärte, al-Gaddafi sei der Simón Bolívar Afrikas. Der Venezolaner hatte mehrmals seine Unterstützung für den libyschen Präsidenten geäußert. Am 5. März 2009 eröffnete Mohammed Gaddafi, Sohn von Muammar al-Gaddafi, in Benghazi das „Hugo-Chávez-Stadion“. Im März 2011 wurde es von den Aufständischen umbenannt. Nachdem al-Gaddafi im Oktober 2011 getötet worden war, erklärte Chávez, der libysche Diktator sei wie ein Märtyrer gestorben. Chávez verteidigte auch wiederholt die Regierung Syriens. Er erklärte, die Unruhen in Syrien seien von den USA organisiert worden. Im April 2011 erklärte er, Terroristen seien für die Proteste in der syrischen Stadt Darʿā verantwortlich. Symbolfigur. Chávez war eine stark polarisierende Persönlichkeit. In Lateinamerika galt er vielen als undogmatischer Modernisierer linker Ideen. Er wurde von seinen Gegnern ebenso heftig abgelehnt, wie von seinen Anhängern gefeiert. Chávez wurde unter anderem in Filmen wie South of the Border als politischer Neuerer dargestellt. Auch international fand sich diese gegensätzliche Wahrnehmung: Michael Lingenthal zum Beispiel, Landesbeauftragter der CDU-nahen Konrad-Adenauer-Stiftung in Venezuela, betitelte im Mai 2003 einen Bericht „Ein Land am Abgrund – Venezuela im Würgegriff seines Präsidenten“. Der peruanische Schriftsteller und ehemalige Präsidentschaftskandidat eines Mitte-rechts-Bündnisses Mario Vargas Llosa sagte über Chávez, dass er mit einem Strom von Öldollars antidemokratische, populistische und autoritäre Tendenzen in Lateinamerika fördere. Dagegen erfreut sich Chávez’ Politik bei Teilen der westlichen Linken, als Gegenkonzept zum Neoliberalismus verstanden, einiger Unterstützung. Der Twitteraccount des Präsidenten wurde von 200 Mitarbeitern betreut und von Chávez systematisch zur Interaktion mit seinen Anhängern und Landsleuten benutzt. Einen Erklärungsversuch für das Phänomen Chávez unternahm der Politikwissenschaftler und Schriftsteller Raul Zelik: Als Folge der neoliberalen Politik in den 1980er und 1990er Jahren und des Caracazo kam es zu einem massiven Verlust des Vertrauens in die traditionellen christ- bzw. sozialdemokratisch orientierten Staatsparteien, die weitgehend kollabierten. Hiervon konnten aber weder linke Avantgardeparteien noch reformistisch linke Kräfte oder Nichtregierungsorganisationen profitieren. Stattdessen kam es zu einer Vielzahl von singulären, unverbundenen Revolten gegen die herrschende Ordnung: Militärputsche, Gründung von Selbsthilfegruppen und Piratensender in den Armenvierteln. Sie waren aber nicht in eine Partei oder ein Projekt zur gesellschaftlichen Transformation integriert. Diese vielfältigen gesellschaftlichen Risse ermöglichten dann den Wahlsieg von Hugo Chávez 1998. „Weil parteipolitische Vermittlungsinstanzen bis heute von der Bevölkerung nicht ernst genommen werden, besitzt der Präsident als Symbol und Projektionsfläche, aber auch als Stichwortgeber und politischer Führer eine zentrale Funktion. Auf eigenartige Weise verknüpfen sich damit radikaldemokratische und caudillistische Elemente.“ Personenkult. Straßenkontrolle der paramilitären Polizei Guardia Nacional mit Bildern von Chávez Um Hugo Chávez herrschte schon zu Lebzeiten ein regelrechter Personenkult. So wurde Chávez beispielsweise von seinen Anhängern und von den staatlichen Medien in Venezuela oft als "comandante presidente" bezeichnet. Nach seinem Tod nahm dies fast religiöse Züge an. Zunächst wollte man ihn nach dem Vorbild von Lenin, Mao Tse-tung oder Hồ Chí Minh einbalsamieren und für die Ewigkeit ausstellen, was jedoch aus praktischen Gründen nicht möglich war, da der Leichnam dafür schon zu alt war. Später zeigte der venezolanische Staatssender ViVe ein Video, welches Chávez zeigte, wie er im Himmel ankam und dort unter anderem von Che Guevara, Evita Peron, Simón Bolívar und anderen venezolanischen Volkshelden erwartet wurde. Dem Interimspräsidenten und Wunschnachfolger im Präsidentenamt, Nicolás Maduro sei er während des Wahlkampfes zu den Präsidentschaftswahlen als kleines Vögelchen erschienen. Seit dem 1. September 2014 ist ein dem Vaterunser angelehntes Gebet an Hugo Chávez von der regierenden Sozialistischen Partei offiziell anerkannt. Es wurde auf einem Parteitag in Caracas offiziell bekannt gemacht. Ideologie. Chávez’ ideologische Grundlage sind die Ideen von Simón Bolívar, Simón Rodríguez und Ezequiel Zamora. Zudem war er nach eigenem Bekunden schon in jungen Jahren mit marxistischer Literatur in Kontakt gekommen. Bis zu seinem ersten Bekenntnis zum Marxismus im Dezember 2009 hatte er mehr als ein Jahrzehnt lang über sich ausgesagt, er sei „weder Marxist noch Antimarxist“. Noch im Wahlkampf 1998 hatte er Sympathien für den von Tony Blair und Bill Clinton proklamierten „Dritten Weg“ (siehe auch: Der dritte Weg und Schröder-Blair-Papier) geäußert. Er sei für den Kapitalismus in einer „humanistischen“ Form. Über die kommunistische Ideologie, den „puren Marxismus“, sagte er: „Wir sagen nicht, dass er zu nichts taugt. Aber wir sind davon überzeugt, dass er nicht die Ideologie ist, über die die venezolanische Zukunft gelenkt werden kann.“ Ebenfalls 1998 sagte in einem Fernseh-Interview kurz vor dem Wahltermin, dass Kuba eine Diktatur sei und er weder Wirtschaftsbetriebe noch Medienunternehmen verstaatlichen werde. Erst im Mai 2004 proklamierte er den „antiimperialistischen Charakter der Revolution“ und im Januar 2005 beim Weltsozialforum in Porto Alegre rief er dazu auf, über den Sozialismus zu diskutieren, „einen neuen Sozialismus des 21. Jahrhunderts“. Im Dezember 2007 erklärte Chávez, er sei Trotzkist. Während eines Besuchs in China im folgenden Jahr sagte er, er sei Maoist. Seit Dezember 2009 bezeichnete sich Chávez jedoch als Marxist und bekräftigte diese Positionierung 2010 vor der Nationalversammlung. Über die demokratische Legitimation von Chávez’ Amtszeit wird bis heute kontrovers diskutiert. Nepotismus. Die Opposition beklagte oft, unter Chávez herrsche Nepotismus. Chávez’ Vater war von 1998 bis 2004 Gouverneur des Bundesstaates Barinas. Seit 2008 ist sein ältester Bruder Adán Chávez dort Gouverneur. Der Bruder Argenis ist seit 2011 Vizeminister für Entwicklung im Ministerium für Elektrizität. Der Bruder Aníbal José ist Bürgermeister der Gemeinde Alberto Arvelo Torrealba. Jorge Arriaza, Minister der Volksmacht für Wissenschaft, Technologie und Innovation, ist Chávez’ Schwiegersohn. Als seine kleinste Tochter Rosainés im Jahr 2006 sagte, dass das Pferd im Staatswappen Venezuelas nach links und nicht nach rechts rennen sollte, gab Chávez ihr recht, und kurz danach stimmte die von seiner Partei dominierte Nationalversammlung der Änderung zu. Ende Januar 2012 wurde das Mädchen wieder Ziel vieler Kommentare, als sie im Internetdienst Instagram posierte, während sie ein Bündel Dollarscheine vor sich hielt. In Venezuela gilt eine strenge Währungskontrolle, Dollars sind nicht frei zu kaufen. Ehrungen. Chávez wurden mehrere Ehrendoktorwürden verliehen, unter anderem von der Peking-Universität, der Universidade Federal do Rio de Janeiro, der Universidad Autónoma de Santo Domingo und der südkoreanischen Kyung-Hee-Universität. Daneben war er einer der vier Preisträger des Internationalen José-Martí-Preises der UNESCO, den er 2005 für seine Tätigkeit als „einer der aktivsten Unterstützer der regionalen Integration der lateinamerikanischen Länder“ erhielt. Des Weiteren erhielt er 2004 den Internationalen Gaddafi-Preis für Menschenrechte aus den Händen des ehemaligen algerischen Staatschefs Ben Bella für „seinen Kampf für die Armen und seinen Feldzug gegen Hunger und Elend“ sowie den ausschließlich Staatsoberhäuptern vorbehaltenen höchsten Verdienstorden Irans „für seinen Beitrag zur Verbesserung der bilateralen Beziehungen“ und „seine Bemühungen um einen gerechten Frieden, seine kompromisslose Haltung gegen ein herrschendes System und die Unterstützung aller Anstrengungen um die Freiheit und Unabhängigkeit der venezolanischen Nation“. 2011 wurde er mit dem "Rodolfo-Walsh-Preis" der Fakultät für Journalismus der Universität La Plata (Argentinien) ausgezeichnet. Die Auszeichnung wird an Persönlichkeiten verliehen, die im nationalen und lateinamerikanischen Rahmen „zur Kommunikation des Volkes, zur Demokratie und zur Freiheit der Völker beitragen“. Oppositionelle Gruppen und Medienorganisationen in Venezuela und in Argentinien kritisierten die Verleihung des Preises an Hugo Chávez scharf. Es könne nicht sein, dass jemand, der in seinem Land oppositionelle Radio- und Fernsehsender schließen lässt, einen Preis erhält, der nach einem Journalisten benannt ist, der Opfer der argentinischen Militärdiktatur wurde. Die Ernährungs- und Landwirtschaftsorganisation der Vereinten Nationen (FAO) hat 2014 ihr neues Programm zur Bekämpfung des Hungers nach Hugo Chávez benannt. Hallein. Hallein (betont auf der kurz gesprochenen ersten Silbe) ist eine österreichische Stadt mit Einwohnern (Stand) im Tennengau im Bundesland Salzburg. Sie ist Bezirkshauptstadt des Tennengaus und zugleich ein wichtiger Industriestandort. Geografie. Hallein liegt an der Salzach, circa 15 Kilometer südlich der Landeshauptstadt Salzburg, und ist die zweitgrößte Stadt im Bundesland Salzburg. Die Stadt umfasst heute 9 Stadtteile. Katastralgemeinden sind Adnet II, Au, Burgfried, Dürnberg, Gamp, Gries, Hallein, Oberalm II und Taxach. Namensherkunft. Der Ort ist erstmals 1198 urkundlich nachweisbar, der Salzabbau bereits 1191. Die Stadterhebung erfolgte zwischen 1218 und 1232. Der Name "Hallein" ist seit der 1. Hälfte des 13. Jahrhunderts belegt, ein typischer "Hall"-Name der Salzgewinnung: Bekannt ist Hallein vor allem durch die historische Salzgewinnung ("siehe" Salinenvertrag) und die historischen Funde aus der Zeit der Kelten. Im Unterschied zu anderen Hall-Orten ist die Siedlungskontinuität der Kelten- über Römerzeit bis hin zur bajuwarischen Landnahme gesichert. Salzabbau. Aufgrund besonderer geologischer Verhältnisse reicht auf dem Dürrnberg bei Hallein das salzhaltige Gestein teilweise bis an die Oberfläche empor. Vereinzelt treten salzhaltige Quellen zutage, die schon von steinzeitlichen Jägern um 2500 bis 2000 v. Chr. genutzt wurden. Um 600 v. Chr. begann der Abbau von Kernsalz im Untertagebau. Der Salzhandel verschaffte den Kelten einen heute noch in überaus reichen Grabausstattungen nachweisbaren beachtlichen Wohlstand. Er machte den Dürrnberg zusammen mit der am linken Salzachufer situierten Talsiedlung in prähistorischer Zeit zu einem wirtschaftspolitischen Zentrum ersten Ranges. Mit der Einverleibung des keltischen Königreiches Norikum um 15 v. Chr. in das römische Weltreich wurde die Salzgewinnung auf dem Dürrnberg vermutlich als Folge der Einfuhr von Meersalz eingestellt. Im Jahre 1198 wurde erstmals eine Salzpfanne in „muelpach“, einem Ort im Bereich der aufgegebenen keltischen Talsiedlung urkundlich erwähnt. Diese Bezeichnung wird im Laufe des 13. Jahrhunderts durch die Namen Salina und schließlich Hallein (= kleine Sudpfanne) abgelöst. Die Salzproduktion wurde nach rund 1.000 Jahren Stillstand mit einem Sinkwerk, dem Verfahren des Nassabbaus im Salzbergwerk von den Salzburger Erzbischöfen wieder aufgenommen. Ihre gezielte Wirtschafts- und Preispolitik sicherte dem Dürrnberg und der Salinenstadt Hallein alsbald eine Vormachtstellung im gesamten Ostalpenraum. Aus dem Salzhandel, der vorwiegend über den Transportweg Salzach erfolgte, erwirtschafteten die Erzbischöfe über Jahrhunderte mehr als die Hälfte ihrer gesamten Einkünfte, die auch die Grundlage für den Reichtum und die Schönheit der Residenzstadt Salzburg bildeten. Durch die Gewinnung eines Großteils der Reichenhaller Absatzmärkte stieg Hallein im 16. Jahrhundert zur leistungsfähigsten Saline im Ostalpenraum auf. Von diesem Salzertrag verspürten aber die Bergknappen und Salinenarbeiter ebenso wenig wie die Stadt Hallein insgesamt. Mit dem Verlust der Absatzmärkte in den böhmischen Landen an das habsburgische Österreich und einem verlorenen Salzkrieg gegen Bayern kam es zu starken wirtschaftlichen Einbußen und folglich zur Verarmung der Bergknappen und Salinenarbeiter. Im Verlauf der Protestantenausweisungen in den Jahren 1731/32 verließen auch 780 Dürrnberger Bergknappen mit ihren Familien das Land. Das Erzbistum Salzburg verlor während der Napoleonischen Kriege im frühen 19. Jahrhundert seine Eigenständigkeit an mehrere Landesherren und wurde schließlich 1816 endgültig dem Habsburgerreich zugesprochen. Im Verbund mit dem österreichischen Salinenwesen war die Saline Hallein fortan von untergeordneter Bedeutung. Ansicht von Hallein aus den 1880er Jahren Eine längst überfällige Rationalisierung wurde 1854/62 mit dem Bau einer leistungsfähigen Salinenanlage auf der Pernerinsel eingeleitet. Der einseitig auf das Salzwesen ausgerichteten Ökonomie der Stadt Hallein versuchte man in der 2. Hälfte des 19. Jahrhunderts zunehmend mit neuen Betriebsansiedlungen entgegenzuwirken. Es entstanden z. B. ein Zementwerk, eine Zigarren- und eine Papierfabrik. 1954/55 erhielt der Salinenstandort Hallein mit der Errichtung einer modernen Thermokompressionsanlage einen letzten Innovationsschub. 1989 erlosch mit der Schließung der Saline und der Einstellung der Soleproduktion auf dem Dürrnberg eine über 2.500 Jahre alte Wirtschaftstradition. Kunst und Kultur erfüllen nun die zurückgelassenen Industriestätten mit Leben. Besonders die Pernerinsel als Standort für außergewöhnliche Produktionen der Salzburger Festspiele hat sich als wichtiger Faktor für Wirtschaft, Tourismus und Kultur etabliert. Jüdische Geschichte der Stadt. Hallein wuchs auf Grund seines Salzbergwerkes beginnend in der vorrömischen Zeit zu einem bedeutenden und wichtigen Handelszentrum heran, das erst im Mittelalter als solches von der Stadt Salzburg langsam abgelöst wurde. Die in Hallein lebende Jüdische Gemeinde war bis zu ihrer ersten Auslöschung im Jahr 1349 größer und bedeutender als jene in Salzburg. Als Erzbischof Pilgrim in der zweiten Hälfte des 14. Jahrhunderts wiederum jüdische Händler ermunterte, sich im Erzbistum niederzulassen, kam es zur Wiedergründung einer Jüdischen Gemeinde, deren Mitglieder (auch Frauen und Kinder) allerdings bereits im Jahr 1404 – ebenso wie jene in Salzburg – auf dem Scheiterhaufen verbrannt wurden. Dieser Verbrennung ging ein Einbruchsdiebstahl in der Müllner Kirche voran, der fälschlicherweise Juden angelastet wurde. Danach kam es im 15. Jahrhundert nochmals zur Gründung einer jüdischen Gemeinde in der Salinenstadt, die jedoch mit der Ausweisung der mittlerweile sehr wenigen Juden aus dem Erzbistum Salzburg durch Erzbischof Leonhard von Keutschach im Jahr 1498 ihr Ende fand. 1943 errichtete die SS ein Barackenlager für 1.500 bis 2.000 Menschen als Außenlager des KZ Dachau. Die dort untergebrachten zumeist politischen Gefangenen mussten in einem Steinbruch in der Nähe von Hallein Zwangsarbeit verrichten, wobei viele der Gefangenen an der körperlich schweren Arbeit oder durch Erschießung ums Leben kamen. Der Widerstandskämpferin Agnes Primocic gelang es gegen Ende des Zweiten Weltkrieges, als die amerikanische Armee bereits kurz vor Salzburg stand, 17 noch Inhaftierte vor der bereits angeordneten Erschießung zu bewahren. Nach dem Zweiten Weltkrieg wurde die Stadt Hallein Teil der amerikanischen Besatzungszone im besetzten Nachkriegsösterreich. In Hallein-Puch richtete die amerikanische Militärverwaltung ein Auffanglager für Displaced Persons, wie Flüchtlinge und Überlebende des Holocausts in der Nachkriegszeit genannt wurden, ein. Das Halleiner DP-Lager bekam von den Lagerinsassen, vorwiegend Personen jüdischen Glaubens, den Namen "Beth Israel" (auch: "Bejt Israel, Bejß Jissroel") und blieb bis Mitte der 1950er Jahre bestehen. 1950 kam es zur Gründung des Fußballklubs Hakoah Hallein, dessen Mannschaft sich ausschließlich aus jüdischen Spielern des Lagers "Beth Israel" zusammensetzte. Trainiert wurde die Mannschaft von Heinrich Schönfeld, einem ehemaligen Erstligakicker von Hakoah Wien, der 1926 in die Vereinigten Staaten auswanderte und nach dem Krieg für wenige Jahre wieder nach Österreich zurückkehrte. Brauereigeschichte. Im Jahre 1475 wurde nahe Hallein vom Salzburger Bürgermeister und Stadtrichter Hans Elsenheimer (auch: "Johann Elsenhaimer") das sogenannte "Kalte Bräuhaus" errichtet, das nach dessen Tod 1498 in den Besitz der fürsterzbischöflichen Hofkammer überging. Etwa 300 Jahre später erwarb die bayerische Kurfürstin und österreichische Erzherzogin Maria Leopoldine von Österreich-Este (1776–1848) die Brauerei in Kaltenhausen. Sie hatte einen angeborenen Geschäftssinn und wirtschaftliches Feingefühl und konzentrierte sich im Rahmen ihrer wirtschaftlichen Tätigkeit unter anderem auf die Modernisierung der Brauereien, die sich als rentable Investitionen erwiesen. So wurde die Brauerei Kaltenhausen in einen Brauerei-Großbetrieb umgewandelt. Im Jahre 1898 wurde die Deutsche Bank Besitzer des prosperierenden Brauhauses, 1901 entstand auf Betreiben der Bank die "Aktiengesellschaft Brauerei Kaltenhausen". 1921 gehörte das Hofbräu Kaltenhausen zu den Gründungsbetrieben der ehem. "Österreichischen Brau AG", aus der nach 1945 die Brau Union Österreich AG entstand. Heute gehört Kaltenhausen zur niederländischen Heinekengruppe. 2011 wurde der großtechnische Brauereibetrieb eingestellt. Bevölkerungsentwicklung. Die Bevölkerung von Hallein stieg von 1961 bis 2001 von 13.329 auf 18.399 Einwohner. Damit liegt Hallein über dem wachsenden Durchschnitt des Bezirks. Ein Grund dafür war die Zuwanderung von Arbeitskräften aus der Türkei und dem ehemaligen Jugoslawien in den 1970er Jahren, die überwiegend für die Industrie benötigt wurden. Durch diesen starken Zuzug entwickelte sich Hallein in den letzten Jahrzehnten vermehrt zu einer multikulturellen Kleinstadt. Politik. Bürgermeister ist Gerhard Anzengruber (ÖVP). Im Gemeinderat sind die Parteien ÖVP mit 13 Mandaten, SPÖ mit 6 Mandaten, FPÖ sowie Grünen sowie NEOS mit je 2 Mandaten vertreten. Wappen. Blasonierung: "In Rot innerhalb eines silbernen Bordes ein schwarzhaariger schreitender hersehender silberner Mann mit langärmligem Wams, Kniehosen, Gürtel und Schuhen, auf der linken Schulter mit der linken Hand in einer Holzmulde einen Salzstock haltend, in der Rechten einen schrägrechten silbernen Stock, beidseitig begleitet von je einem silbernen konischen Holzgefäß (Perkufe)." Das aktuelle Wappen hat einen oben dreibergförmigen Schildrand, darauf ein silbernes, von zwei zeltbedachten Türmen mit übereinanderliegenden roten Fenstern flankiertes, mittig abgeknicktes Gebäude mit sieben roten Bogenöffnungen, die mittlere höher. Ältere Darstellungen zeigen die Perkufen in natürlichen Farben. Wappenerklärung: Der Mann stellt einen Salzträger dar, der den Jahrtausende alten Salzabbau der Stadt symbolisiert, nach der diese ihren Namen hat, ebenso die beiden Holzgefäße. Diese "Perkufen" waren unten offene, oben mit einem Ablaufloch versehene, kegelstumpfförmige Holzgefäße aus geraden Holzdauben und Eisenbändern, vom Küfer gefertigt, die wie ein Trichter mit dem feuchten Salzbrei durch die nun oben befindliche große Öffnung auf der Perstatt befüllt, nach Ablauf der Sole und Trocknen des Inhalts gestürzt und abgehoben wurden. Der Salzinhalt blieb als Kegelstumpf zur Weiterverarbeitung stehen. Diese Salzkegel "(Salzstöcke)" waren über Jahrhunderte das allgemein übliche Transportgebinde weitgehend normierter Größe und wurden per Karren, und per Floß auf der Salzach weitertransportiert. Wirtschaft. Mit 53 % landwirtschaftlichen Biobetrieben liegt Hallein an erster Stelle bei der Verteilung der Biobetriebe nach politischen Bezirken (2011). Ansässige Unternehmen. Gesponserter Kreisverkehr mit dem Erdal-Frosch Straße. Hallein liegt im Osten an der Tauernautobahn (A10) und an der Bundesstraße 159 (Salzachtal Straße). Diese Straßen verbinden Hallein mit Salzburg, Villach und Bischofshofen. Bahn. Hallein liegt an der Salzburg-Tiroler-Bahn und verfügt neben dem Bahnhof über eine im Herbst 2005 neu erbaute S-Bahn-Haltestelle im Stadtteil Burgfried. Die Landeshauptstadt Salzburg ist von Hallein aus mit dem Regionalexpress der ÖBB und der Linie S3 (S-Bahn Salzburg) innerhalb von 15 bis 20 Minuten erreichbar. Bildung. Mit 18 Schulen und mit mehr als 6.000 Schülern gilt Hallein in Salzburg allgemein als Schulstadt. Sport. Fußball auf Vereinsebene wird in der Keltenstadt seit den 1920er Jahren gespielt. Begonnen hatte es mit dem "AC Hallein" (Salzburger Landesmeister und Landespokalsieger in den 1930er Jahren) und dem "SK Vorwärts Hallein". Weitergeführt wurde diese Tradition durch den "1. Halleiner Sportklub" (Landesmeister und Landespokalsieger) und dem "SK Olympia 1948 Hallein". Die heutigen Aushängeschilder im Halleiner Fußballgeschehen sind der 2004 gegründete FC Hallein 04 und "Union Hallein". Hyperreelle Zahl. In der Mathematik sind hyperreelle Zahlen ein zentraler Untersuchungsgegenstand der Nichtstandardanalysis. Die Menge der hyperreellen Zahlen wird meist als formula_1 geschrieben; sie erweitert die reellen Zahlen um infinitesimal benachbarte Zahlen sowie um unendlich große (infinite) Zahlen. Als Newton und Leibniz ihre Differentialrechnung mit „Fluxionen“ bzw. „Monaden“ durchführten, benutzten sie infinitesimale Zahlen, und noch Euler und Cauchy fanden sie nützlich. Trotzdem wurden diese Zahlen von Anfang an skeptisch betrachtet, und im 19. Jahrhundert wurde die Analysis durch die Einführung der epsilon-delta-Definition des Grenzwertes durch Cauchy, Weierstraß und andere auf eine strenge Grundlage gestellt. Infinitesimale Zahlen wurden von da an nicht mehr benutzt. Abraham Robinson zeigte dann in den 1960er Jahren, auf welche Weise unendlich große und kleine Zahlen streng formal definiert werden können, und eröffnete so das Gebiet der Nichtstandardanalysis. Die hier gegebene Konstruktion ist eine vereinfachte, aber nicht minder strenge Version, die zuerst von Lindstrom gegeben wurde. Durch die hyperreellen Zahlen ist eine Formulierung der Differential- und Integralrechnung ohne den Grenzwertbegriff möglich. Elementare Eigenschaften. Die hyperreellen Zahlen formula_1 bilden einen geordneten Körper, der formula_3 als Teilkörper enthält. Beide sind reell abgeschlossen. Der Körper formula_1 wird so konstruiert, dass er elementar äquivalent zu formula_3 ist. Das bedeutet, dass jede Aussage, die in formula_3 gilt, auch in formula_1 gilt, falls die Aussage sich in der Prädikatenlogik erster Stufe über der Signatur formula_8 formulieren lässt. Die Signatur bestimmt, welche Symbole man in den Aussagen gebrauchen darf. Die Einschränkung auf die Prädikatenlogik "erster Stufe" bedeutet, dass man nur über Elemente des Körpers quantifizieren kann, nicht jedoch über Teilmengen. Das heißt nun nicht, dass formula_3 und formula_1 sich genau gleich verhalten; sie sind nicht isomorph. Eine solche Zahl gibt es in formula_3 nicht. Eine hyperreelle Zahl wie formula_16 nennt man "infinit" oder unendlich, der Kehrwert einer unendlich großen Zahl ist eine "infinitesimale Zahl". Ein weiterer Unterschied: Die reellen Zahlen sind ordnungsvollständig, d. h. jede nichtleere, nach oben beschränkte Teilmenge von formula_20 besitzt ein Supremum in formula_20. Diese Forderung charakterisiert die reellen Zahlen als geordneten Körper eindeutig, d. h. bis auf eindeutige Isomorphie. formula_1 ist hingegen nicht ordnungsvollständig: Die Menge aller endlichen Zahlen in formula_1 besitzt kein Supremum, ist aber z. B. durch obiges formula_16 beschränkt. Das liegt daran, dass man zur Formulierung der Ordnungsvollständigkeit über alle Teilmengen quantifizieren muss; sie kann daher nicht in der Prädikatenlogik "erster Stufe" formalisiert werden. Konstruktion. Die Menge aller Folgen reeller Zahlen (formula_26) bilden eine Erweiterung der reellen Zahlen, wenn man die reellen Zahlen mit den konstanten Folgen identifiziert. Dadurch wird formula_32 zu einem kommutativen unitären Ring, allerdings besitzt dieser Nullteiler und ist daher kein Körper. obwohl sowohl formula_38 als auch formula_39 ungleich null sind. Es müssen daher noch Folgen über eine Äquivalenzrelation identifiziert werden. Die Idee ist, dass Folgen äquivalent sind, wenn die Menge aller Stellen, wo sich die Folgen unterscheiden, eine "unwesentliche" ist. Was ist nun die Menge aller "unwesentlichen Mengen"? Auf der Menge der Äquivalenzklassen, die mit formula_51 bezeichnet wird, kann nun die Addition und Multiplikation der Äquivalenzklassen über Repräsentanten definiert werden. Dies ist wohldefiniert, da formula_42 ein Filter ist. Da formula_42 sogar ein Ultrafilter ist, hat jedes Element außer 0 in formula_1 ein Inverses. Z. B. ist eine der beiden Folgen formula_38 und formula_39 äquivalent zu null, die andere zu eins. Die Äquivalenzklasse der Folge formula_16 ist größer als jede reelle Zahl, denn für eine reelle Zahl formula_58 gilt Anschließend ist noch zu zeigen, dass der konstruierte Körper tatsächlich elementar äquivalent zu formula_20 ist. Dies geschieht durch einen Induktionsbeweis über den Aufbau der Formeln, wobei von den Ultrafilter-Eigenschaften Gebrauch gemacht wird. Infinitesimale und unendlich große Zahlen. Eine hyperreelle Zahl heißt "infinitesimal", wenn sie kleiner als jede positive reelle Zahl und größer als jede negative reelle Zahl ist. Die Zahl Null ist die einzige infinitesimale reelle Zahl, aber es gibt andere hyperreelle infinitesimale Zahlen, beispielsweise formula_65. Sie ist größer als null, aber kleiner als jede positive reelle Zahl, denn der Ultrafilter enthält alle Komplemente endlicher Mengen. Eine hyperreelle Zahl formula_66 heißt "endlich", wenn es eine natürliche Zahl formula_67 gibt mit formula_68, anderenfalls heißt formula_66 "unendlich". Die Zahl formula_70 ist eine infinite Zahl. Beachte: Die Bezeichnung „unendlich groß“ bezeichnet meist eine Zahl, die größer ist als jede natürliche Zahl, „unendlich“ schließt aber auch Zahlen ein, die kleiner sind als jede ganze Zahl, wie formula_71. Eine von 0 verschiedene Zahl formula_66 ist genau dann unendlich, wenn formula_73 infinitesimal ist. Zum Beispiel ist formula_74. Wobei das insbesondere bedeutet, dass der Term auf der linken Seite definiert ist, dass also z. B. formula_87 endlich ist, falls sowohl formula_66 als auch formula_82 endlich sind. Die Menge der endlichen Zahlen bilden also einen Unterring in den hyperreellen Zahlen. Außerdem ist Die ersten zwei Eigenschaften (und die Folgerung formula_92 aus der dritten Eigenschaft) besagen, dass st ein Ring-Homomorphismus ist. Zum Beispiel ist die hyperreelle Zahl formula_93 gliedweise kleiner als formula_94, also ist formula_95. Sie ist aber größer als jede reelle Zahl kleiner 1. Sie ist daher zur 1 "infinitesimal benachbart" und 1 ist ihr Standardteil. Ihr Nichtstandardteil (die Differenz zu 1) ist Beachte aber, dass die reelle Zahl formula_97 als Grenzwert der Folge formula_98 gleich 1 ist. Weitere Eigenschaften. Die hyperreellen Zahlen sind gleichmächtig zu den reellen Zahlen, denn die Mächtigkeit muss mindestens so groß wie die der reellen Zahlen sein, da sie die reellen Zahlen enthalten, und kann höchstens so groß sein, da die Menge formula_99 gleichmächtig zu den reellen Zahlen ist. Die Ordnungsstruktur der hyperreellen Zahlen hat überabzählbare Konfinalität, d. h. es existiert keine unbeschränkte abzählbare Menge, also keine unbeschränkte Folge von hyperreellen Zahlen: Sei eine Folge von hyperreellen Zahlen durch Repräsentanten formula_100 gegeben. Dann ist die hyperreelle Zahl mit dem Repräsentanten formula_101, eine obere Schranke. Es lassen sich also mit keiner Folge beliebig große hyperreelle Zahlen erreichen. Die Ordnung der hyperreellen Zahlen induziert eine Ordnungstopologie. Mittels dieser lassen sich die üblichen topologischen Begriffe von Grenzwerten und Stetigkeit auf die hyperreellen Zahlen übertragen. Als geordneter Körper weisen sie mit der Addition eine mit der Topologie verträgliche Gruppenstruktur auf, es handelt sich also um eine topologische Gruppe. Diese induziert eine uniforme Struktur, sodass man auf den hyperreellen Zahlen auch von gleichmäßiger Stetigkeit, Cauchyfiltern etc. sprechen kann. Aus der überabzählbaren Konfinalität folgt durch Betrachtung von Kehrwerten, dass es auch keine Folge bestehend aus von 0 (oder entsprechend einer beliebigen anderen hyperreellen Zahl) verschiedenen hyperreellen Zahlen gibt, die beliebig nah an die 0 gelangt. Daher erfüllt die Topologie der hyperreellen Zahlen nicht die beiden Abzählbarkeitsaxiome, sie ist also insbesondere nicht metrisierbar. Aus der überabzählbaren Konfinalität folgt auch, dass sie nicht separabel sind. Aus dem Nichtvorhandensein von Suprema zahlreicher Mengen folgt, dass der Raum total unzusammenhängend und nicht lokalkompakt ist. Hermann Hesse. Hermann Hesse im Jahre 1905 Hermann Karl Hesse (Pseudonym "Emil Sinclair"; * 2. Juli 1877 in Calw, Königreich Württemberg, Deutsches Reich; † 9. August 1962 in Montagnola, Kanton Tessin, Schweiz) war ein deutschsprachiger Schriftsteller, Dichter und Maler. Bekanntheit erlangte er mit Prosawerken wie "Siddhartha" oder "Der Steppenwolf" und mit seinen Gedichten (z. B. "Stufen"). 1946 wurde ihm der Nobelpreis für Literatur und 1954 der Orden Pour le mérite für Wissenschaften und Künste verliehen. Als Sohn eines deutsch-baltischen Missionars war Hesse durch Geburt russischer Staatsangehöriger. Von 1883 bis 1890 und erneut ab 1924 war er schweizerischer Staatsbürger, dazwischen besaß er das württembergische Staatsbürgerrecht. Kindheit und Jugend (1877–1895). Hesses Geburtshaus am Marktplatz von Calw, Aufnahme von 2008.Das Geburtszimmer liegt hinter den ersten zwei links liegenden Fenstern im zweiten Obergeschoss (obere Fünf-Fenster-Reihe). Elternhaus. Hermann Hesse stammte aus einer evangelischen Missionarsfamilie und wuchs in einer behüteten und intellektuellen Familienatmosphäre auf. Beide Eltern waren im Auftrag der Basler Mission in Indien tätig, wo Hesses Mutter Marie Gundert (1842–1902) auch geboren wurde. Sein Vater Johannes Hesse (1847–1916), Enkel eines von Lübeck nach Estland ausgewanderten Kaufmanns, stammte aus Weißenstein im damaligen russischen Zarenreich; damit war auch Hermann von Geburt an russischer Staatsangehöriger. In Calw war Johannes Hesse seit 1873 Mitarbeiter des „Calwer Verlagsvereins“. Dessen Vorstand war sein Schwiegervater Hermann Gundert (1814–1892), dem er in den Jahren 1893 bis 1905 als Vorstand und Verlagsleiter nachfolgte. Die Welt, in der Hermann Hesse seine ersten Lebensjahre verbrachte, war einerseits vom Geist des schwäbischen Pietismus geprägt. Andererseits wurde seine Kindheit und Jugend durch das Baltentum seines Vaters geprägt, was Hermann Hesse als „eine wichtige und wirksame Tatsache“ bezeichnete. So war der Vater sowohl in Württemberg wie in der Schweiz ein unangepasster Fremder, der nirgendwo Wurzeln schlug und „immer wie ein sehr höflicher, sehr fremder und einsamer, wenig verstandener Gast“ wirkte. Hinzu kam, dass die Familie auch mütterlicherseits der weitgehend internationalen Gemeinschaft der Missionsleute angehörte und dass seine aus dieser Linie stammende Großmutter Julie Gundert, geb. Dubois (1809–1885), als französischsprachige Schweizerin ebenfalls zeitlebens eine Fremde in der schwäbisch-kleinbürgerlichen Welt blieb. Erlebnisse und Begebenheiten aus seiner Kindheit und Jugend in Calw, die Atmosphäre und Abenteuer am Fluss, die Brücke, die Kapelle, die eng aneinander liegenden Häuser, versteckte Winkel und Ecken sowie die Bewohner mit all ihren liebenswerten Eigenarten oder Schrulligkeiten hat Hesse in seinen frühen "Gerbersau"-Erzählungen beschrieben und zum Leben erweckt. In Hesses Jugendzeit wurde diese Atmosphäre unter anderem noch stark von der alteingesessenen Zunft der Gerber geprägt. Auf der Nikolausbrücke, seinem Lieblingsort in Calw, hat Hesse sich oft und gern aufgehalten. Daher ist auch dort die unten abgebildete, von Tassotti geschaffene lebensgroße Hesse-Skulptur im Jahr 2002 aufgestellt worden. Ein mehr von innen her wirkendes Gegengewicht zum Pietismus war die immer wieder in den Erzählungen des Vaters Johannes Hesse aufleuchtende Welt Estlands. „Eine überaus heitere, bei aller Christlichkeit sehr lebensfrohe Welt […] nichts wünschten wir sehnlicher, als auch einmal dieses Estland […] zu sehen, wo das Leben so paradiesisch, so bunt und lustig war.“ Zudem stand Hermann Hesse die umfassende Bibliothek seines gelehrten Großvaters Hermann Gundert mit Werken der Weltliteratur zur Verfügung, die er sich intensiv erschloss. All diese Komponenten eines Weltbürgertums „waren die Grundlagen für eine Isolierung und für ein Gefeitsein gegen jeden Nationalismus, die in meinem Leben bestimmend gewesen sind“. Schulische Ausbildung. 1881 zog die Familie für fünf Jahre nach Basel. Der Vater Johannes erwarb 1882 das Basler Bürgerrecht, wodurch die gesamte Familie zu Schweizer Staatsbürgern wurde. Ab 1885 war Hesse Schüler in der Internatsschule der Mission. Im Juli 1886 zog die Familie jedoch wieder nach Calw zurück, wo Hesse zunächst in die zweite Klasse der Calwer Lateinschule eintrat. Er wechselte 1890 auf die Lateinschule in Göppingen zur Vorbereitung auf das württembergische Landexamen, das Württembergern eine kostenlose Ausbildung zum Landesbeamten oder Pfarrer erlaubte. Deshalb erwarb der Vater im November 1890 für ihn als einziges Mitglied der Familie die württembergische Staatsangehörigkeit, wodurch er das Schweizer Bürgerrecht verlor. Nachdem er 1891 in Stuttgart das Landexamen bestanden hatte, besuchte er für die Theologenlaufbahn bestimmt das evangelisch-theologische Seminar in Maulbronn. In Maulbronn zeigte sich im März 1892 der „rebellische“ Charakter des Schülers: Er entwich aus dem Seminar, weil er „entweder Dichter oder gar nichts“ werden wollte und wurde erst einen Tag später auf freiem Feld aufgegriffen. Nun begann, begleitet von heftigen Konflikten mit den Eltern, eine Odyssee durch verschiedene Anstalten und Schulen. Im Alter von nun 15 Jahren befand sich Hermann Hesse in einer depressiven Phase und äußerte in einem Brief vom 20. März 1892 Suizidgedanken („Ich möchte hingehen wie das Abendrot“). Im Mai 1892 versuchte der Jugendliche einen Selbstmord mit einem Revolver in der von dem Theologen und Seelsorger Christoph Friedrich Blumhardt geleiteten "Anstalt Bad Boll". Im Anschluss daran wurde Hesse von seinen Eltern in die Nervenheilanstalt im damaligen Stetten im Remstal (der heutigen Diakonie Stetten e. V. in Kernen im Remstal) bei Stuttgart gebracht, wo er im Garten arbeiten und beim Unterrichten geistig behinderter Kinder helfen musste. Hier kulminierten pubertärer Trotz, Einsamkeit und das Gefühl, von seiner Familie unverstanden verstoßen zu sein. In dem berühmten anklagenden Brief vom 14. September 1892 an seinen Vater titulierte er diesen, nunmehr deutlich Abstand einnehmend, mit „Sehr geehrter Herr!“ – dies im Gegensatz zu früheren, zum Teil offenen, sehr mitteilsamen Briefen. Zudem versah er den Brieftext mit aggressiv-ironisierenden und sarkastischen Formulierungen. So wies er (zusätzlich zur eigenen Person) auch seinem Vater bereits im Vorfeld die Schuld an möglichen zukünftigen „Verbrechen“ zu, welche er, Hermann, in Folge seines Aufenthaltes in Stetten als „Welthasser“ begehen könnte. Schließlich unterzeichnete er als „H. Hesse, Gefangener im Zuchthaus zu Stetten“. Im Nachsatz fügte er hinzu: „Ich beginne mir Gedanken zu machen, wer in dieser Affaire schwachsinnig ist.“ Er fühlte sich von Gott, den Eltern und der Welt verlassen und sah hinter den starren pietistisch-religiösen Traditionen der Familie nur noch Scheinheiligkeit. Ab Ende 1892 konnte er das Gymnasium in Cannstatt besuchen. 1893 bestand er dort zwar das Einjährigen-Examen, brach aber die Schule ab. Lehre. Nachdem er seiner ersten Buchhändlerlehre in Esslingen am Neckar nach drei Tagen entlaufen war, begann Hesse im Frühsommer 1894 eine 14 Monate dauernde Mechanikerlehre in der Turmuhrenfabrik Perrot in Calw. Die monotone Arbeit des Lötens und Feilens bestärkte in Hermann Hesse alsbald den Wunsch, sich wieder der Literatur und geistiger Auseinandersetzung zuzuwenden. Im Oktober 1895 war er bereit, eine neue Buchhändlerlehre in Tübingen zu beginnen und ernsthaft zu betreiben. Die Erfahrungen seiner Jugend hat er später in seinem Roman "Unterm Rad" verarbeitet. Der Weg zum Schriftsteller (1895–1904). Bereits als Zehnjähriger hatte sich Hesse mit einem Märchen versucht: "Die beiden Brüder". Es wurde 1951 publiziert. Tübingen. Buchhandlung Heckenhauer in Tübingen – Hesses Arbeitsplatz 1895–1899. Hesse war dort drei Jahre Lehrling, anschließend noch ein Jahr Sortimentsgehilfe. Hesse arbeitete ab dem 17. Oktober 1895 in der Buchhandlung und dem Antiquariat Heckenhauer in Tübingen. Der Schwerpunkt des Sortiments bestand aus Theologie, Philologie und Rechtswissenschaften. Hesses Aufgaben als Lehrling umfassten das Überprüfen (Kollationieren), Verpacken, Sortieren und Archivieren der Bücher. Nach Ende der jeweils 12-stündigen Arbeitstage bildete Hesse sich noch privat weiter, Bücher kompensierten auch mangelnde soziale Kontakte an den langen, arbeitsfreien Sonntagen. Neben theologischen Schriften las Hesse insbesondere Goethe, später Lessing, Schiller und Texte zur griechischen Mythologie. 1896 wurde sein Gedicht "Madonna" in einer in Wien erschienenen Zeitschrift gedruckt, in späteren Ausgaben des "Deutschen Dichterheims" "(Organ für Dichtkunst und Kritik)" folgten weitere. Der Buchhändlerlehrling Hesse befreundete sich 1897 mit dem damaligen Jurastudenten und späteren Arzt und Schriftsteller Ludwig Finckh aus Reutlingen, der nach seinem Doktorexamen 1905 Hesse nach Gaienhofen folgen sollte. Nach Abschluss seiner Lehrzeit im Oktober 1898 blieb Hesse zunächst als Sortimentsgehilfe in der Buchhandlung Heckenhauer mit einem Einkommen, das ihm finanzielle Unabhängigkeit von den Eltern sicherte. Zu dieser Zeit las er insbesondere Werke der deutschen Romantik, allen voran Novalis, Clemens Brentano, Joseph Freiherr von Eichendorff und Ludwig Tieck. In Briefen an die Eltern bekundete er seine Überzeugung, dass „die Moral für Künstler durch die Ästhetik ersetzt wird“. Noch als Buchhändler veröffentlichte Hesse im Herbst 1898 seinen ersten kleinen Gedichtband "Romantische Lieder" und im Sommer 1899 die Prosasammlung "Eine Stunde hinter Mitternacht". Beide Werke wurden ein geschäftlicher Misserfolg. Von den "Romantischen Liedern" wurden innerhalb von zwei Jahren nur 54 Exemplare der Gesamtauflage von 600 Büchern verkauft, auch "Eine Stunde hinter Mitternacht" wurde nur in einer Auflage von 600 Exemplaren gedruckt und verkaufte sich nur schleppend. Der Leipziger Verleger Eugen Diederichs war jedoch von der literarischen Qualität der Werke überzeugt und sah die Veröffentlichung schon von Anbeginn mehr als Förderung des jungen Autors denn als lohnendes Geschäft. Basel. Ab Herbst 1899 arbeitete Hesse in der Reich’schen Buchhandlung, einem angesehenen Antiquariat in Basel. Da seine Eltern engen Kontakt zu Basler Gelehrtenfamilien pflegten, öffnete sich ihm hier ein geistig-künstlerischer Kosmos mit den reichsten Anregungen. Gleichzeitig bot Basel dem Einzelgänger Hesse auch viel Rückzugsmöglichkeiten in sehr privates Erleben bei größeren Fahrten und Wanderungen, die der künstlerischen Selbsterforschung dienten und auf denen er die Fähigkeit, sinnliches Erleben schriftlich niederzulegen, stets erneut erprobte. Im Jahr 1900 wurde Hesse wegen seiner Sehschwäche vom Militärdienst befreit. Das Augenleiden hielt zeitlebens an, ebenso wie Nerven- und Kopfschmerzen. Im selben Jahr erschien sein Buch "Hermann Lauscher" – zunächst unter Pseudonym. Nachdem Hesse Ende Januar 1901 seine Stellung in der Buchhandlung R. Reich gekündigt hatte, konnte er sich einen großen Traum erfüllen und erstmals nach Italien reisen, wo er sich vom März bis Mai in den Städten Mailand, Genua, Florenz, Bologna, Ravenna, Padua und Venedig aufhielt. Im August desselben Jahres wechselte er zu einem neuen Arbeitgeber, dem Antiquar Wattenwyl in Basel. Zugleich boten sich ihm immer mehr Gelegenheiten, Gedichte und kleine literarische Texte in Zeitschriften zu veröffentlichen. Nun trugen auch Honorare aus diesen Veröffentlichungen zu seinem Einkommen bei. Richard von Schaukal machte 1902 Hesse als Autor des "Lauscher" publik. 1903 lernte Hesse die neun Jahre ältere Basler Fotografin Maria Bernoulli, genannt „Mia“, kennen. Gemeinsam reisten sie nach Italien (zweite Italienreise) und heirateten im darauf folgenden Jahr. Zu den ersten Veröffentlichungen gehören die Romane "Peter Camenzind" (1904) und "Unterm Rad" (1906), in denen Hesse jenen Konflikt von Geist und Natur thematisierte, der später sein gesamtes Werk durchziehen sollte. Der literarische Durchbruch gelang ihm mit dem zivilisationskritischen Entwicklungsroman "Peter Camenzind", der erstmals 1903 als Vorabdruck und 1904 regulär bei dem Verlag S. Fischer erschien. Dessen Erfolg erlaubte es ihm zu heiraten und sich als freier Schriftsteller am Bodensee niederzulassen. Zwischen Bodensee, Indien und Bern (1904–1914). Im August 1904 heiratete Hesse die selbstständige Basler Fotografin Maria Bernoulli, die aus der weitverzweigten Familie der Bernoulli stammte. Aus dieser Ehe gingen die drei Söhne Bruno (1905–1999, Kunstmaler, Grafiker), Hans Heinrich (genannt "Heiner", 1909–2003, Dekorateur) und Martin (1911–1968, Fotograf) hervor. Ganz im Sinne der Lebensreform zogen er und Maria in das damals sehr abgelegene badische Dörfchen Gaienhofen am Bodensee und mieteten ein einfaches Bauernhaus ohne fließendes Wasser und Strom, in dem sie drei Jahre lebten. 1907 ließen sie sich im Ort ein Einfamilienhaus im Reformstil bauen. Dort legten sie einen großen Garten zur Selbstversorgung an. Hesse war häufig auf Reisen, Maria mit den Kindern in dem großen Haus und Garten oft allein. 1906 erschien Hesses zweiter Roman "Unterm Rad", den er noch in Calw geschrieben hatte. Hesse verarbeitete darin seine Erfahrungen aus der Schul- und Ausbildungszeit. Im Frühjahr 1907 lebte er mit dem Dichterpropheten Gusto Gräser zusammen in dessen Felshöhle Pagangrott bei Ascona und im Sanatorium des Monte Verità. In dieser Zeit erschloss sich ihm durch theosophische und andere Schriften die geistige Welt des Ostens. Von seinem Einsiedlerdasein berichten die Erzählungen "In den Felsen", "Freunde" und die "Legenden aus der Thebais". Nach seiner Rückkehr aus Ascona versuchte er sich dem bürgerlichen Leben wieder anzupassen, musste sich aber mehrfach in psychiatrische Behandlung begeben. Sein nächster Roman "Gertrud" von 1910 zeigte Hesse in einer Schaffenskrise – er hatte schwer mit diesem Werk zu kämpfen, in späteren Jahren hat er es als misslungen betrachtet. Auch in seiner Ehe vermehrten sich nun die Dissonanzen. Um Abstand zu gewinnen, brach Hesse mit Hans Sturzenegger 1911 zu einer großen Reise nach Ceylon und Indonesien auf. Die erhoffte spirituell-religiöse Inspiration fand er dort nicht, dennoch beeinflusste die Reise sein weiteres literarisches Werk stark und schlug sich 1913 zunächst in der Veröffentlichung "Aus Indien" nieder. Nach Hesses Rückkehr aus Asien verkaufte er 1912 sein Haus in Gaienhofen. Die Familie zog im Spätsommer in ein altes Landhaus am Stadtrand von Bern um; vor Hesse hatte sein Freund Albert Welti es gemietet. Doch auch dieser Ortswechsel konnte die Eheprobleme nicht lösen, wie Hesse 1914 in seinem Roman "Roßhalde" schilderte. Psychische Krisen bei beiden führten später zu einem endgültigen Auseinanderleben und 1923 zur Scheidung. Die Kinder blieben bei der Mutter. Kriegsgefangenenfürsorge. Beim Ausbruch des Ersten Weltkrieges 1914 meldete Hesse sich als Freiwilliger bei der deutschen Botschaft. Er wurde jedoch für untauglich befunden und der deutschen Botschaft in Bern zugeteilt, wo er die „Bücherzentrale für deutsche Kriegsgefangene“ aufbaute, welche in ausländischen Lagern internierte Soldaten über die deutsche Kriegsgefangenenfürsorge bis 1919 mit Lektüre versorgte. In diesem Rahmen war Hesse fortan damit beschäftigt, für deutsche Kriegsgefangene Bücher zu sammeln und zu verschicken. In dieser Zeit war er Mitherausgeber der "Deutschen Interniertenzeitung" (1916/17), Herausgeber des "Sonntagsboten für die deutschen Kriegsgefangenen" (1916–1919) und zuständig für die „Bücherei für deutsche Kriegsgefangene“. Politische Auseinandersetzungen. Am 3. November 1914 veröffentlichte er in der "Neuen Zürcher Zeitung" den Aufsatz "O Freunde, nicht diese Töne", in dem er an die deutschen Intellektuellen appellierte, nicht in nationalistische Polemik zu verfallen. Was darauf folgte, bezeichnete Hesse später als eine große Wende in seinem Leben: Erstmals fand er sich inmitten einer heftigen politischen Auseinandersetzung wieder, die deutsche Presse attackierte ihn, Hassbriefe gingen bei ihm ein, und alte Freunde sagten sich von ihm los. Zustimmung erhielt er weiterhin von seinem Freund Theodor Heuss, dem späteren ersten Bundespräsidenten der Bundesrepublik Deutschland, aber auch von dem französischen Schriftsteller Romain Rolland, der Hesse im August 1915 besuchte. Familiäre Schicksalsschläge. Diese Konflikte mit der deutschen Öffentlichkeit waren noch nicht abgeklungen, als Hesse durch eine Folge von Schicksalsschlägen in eine noch tiefere Lebenskrise gestürzt wurde: Tod seines Vaters am 8. März 1916, die schwere Erkrankung (Gehirnhautentzündung) seines zu jener Zeit dreijährigen Sohnes Martin und die zerbrechende Ehe mit Maria Bernoulli. Hesse musste seinen Dienst bei der Gefangenenfürsorge unterbrechen und sich in psychiatrische Behandlung begeben. Zuflucht und Halt fand er in Ascona bei dem Kriegsdienstverweigerer Gusto Gräser, der ihm jetzt endgültig zum „Freund und Führer“ wurde. Seine Urlaubszeiten verbrachte er jetzt regelmäßig im Hause der Gräserfreundin Albine Neugeboren in Locarno-Monti. Er erwog ernsthaft, den „Bruch mit Heimat, Stellung, Familie“ zu riskieren und nach Ascona zu ziehen, wo er sich von Gustav Gamper ein Häuschen besorgen ließ. Am Ende wagte er den Absprung doch nicht und schrieb stattdessen den Roman seiner Freundschaft und Jüngerschaft zu Gusto Gräser-Demian. Kriegsgegner und Aussteiger. Durch die Erfahrung des Weltkriegs und seine Wiederbegegnung mit Gusto Gräser war Hesse zum entschiedenen Kriegsgegner und Befürworter der Verweigerung geworden. Im September/Oktober 1917 verfasste Hesse in einem dreiwöchigen Arbeitsrausch seinen Roman "Demian", im zweiten Teil ein Niederschlag seiner Zeit auf dem Monte Verità. Das Buch wurde nach Kriegsende 1919 unter dem Pseudonym Emil Sinclair veröffentlicht, angeblich, „um die Jugend nicht durch den bekannten Namen eines alten Onkels abzuschrecken“. In Wirklichkeit, weil er seine Beziehung zu dem sozial verfemten Wanderpropheten nicht öffentlich machen wollte. Aber auch, wie Hesse in einem Brief an Eduard Korrodi schrieb, weil "der diese Dichtung schrieb, [...] nicht Hesse" war, "der Autor soundsovieler Bücher, sondern ein anderer Mensch, der Neues erlebt hatte und Neuem entgegenging". Als Zeitzeuge äußerte sich Thomas Mann: „Unvergesslich ist die elektrisierende Wirkung“ des Demian, „eine Dichtung die mit unheimlicher Genauigkeit den Nerv der Zeit traf und eine Jugend, die wähnte, aus ihrer Mitte sei ihr ein Künder ihres tiefsten Lebens entstanden (während es schon ein Zweiundvierziger war, der ihnen gab, was sie brauchte), zu dankbarem Entzücken hinriß.“ 1918 wurde Hermann Hesses Vetter, der Pastor Carl Immanuel Philipp Hesse, als ziviles Opfer des Estnischen Freiheitskrieges getötet. Neue Heimat im Tessin (1919–1962). a>. Gartenseite. Rechts der Mitte ist der zentrale Bauteil mit dem Türmchen und der Wetterfahne zu erkennen. Wiederum rechts davon erstreckt sich der Trakt, in dem Hesse seine vier Zimmer bewohnte. Das vorderste öffnete sich zum Garten hin mit dem Balkon, der hier durch einen blühenden Baum verdeckt wird. Casa Camuzzi. Als Hesse 1919 sein ziviles Leben wieder aufnehmen konnte, war seine Ehe zerrüttet. Seine Frau Mia (Maria) war im Herbst 1918 nach Ascona geflüchtet, wo ihre Depression voll zum Ausbruch kam. Aber auch nach ihrer Heilung sah Hesse keine gemeinsame Zukunft mit ihr. Mia zog nach Ascona in die Nachbarschaft ihrer Freundin Elisabeth Streng, der Lebensgefährtin von Gräser, und nahm sie und ihre Kinder zeitweise in ihrem Hause auf. Die Wohnung in Bern wurde aufgelöst, und die drei Jungen wurden zwischenzeitlich bei Freunden untergebracht, der älteste Sohn Bruno bei seinem Malerfreund Cuno Amiet. Die Erfahrung und bedrückende Last, seine Familie verlassen zu haben, verarbeitete Hesse in seiner 1919 erschienenen Erzählung "Klein und Wagner" über den Beamten Klein, der aus Furcht, wahnsinnig zu werden und ebenso wie der Lehrer Wagner seine Familie umzubringen, aus seinem bürgerlichen Leben ausbricht und nach Italien flieht. Hesse siedelte Mitte April 1919 allein ins Tessin um. Er bewohnte zunächst ein kleines Bauernhaus am Ortseingang von Minusio bei Locarno und zog dann am 25. April nach Sorengo oberhalb des Muzzaner Sees in eine einfache Unterkunft weiter, die ihm von seinem Musikerfreund Volkmar Andreae vermittelt worden war. Doch anschließend mietete er am 11. Mai 1919 in Montagnola, einem höher gelegenen Dorf südwestlich und nur unweit von Lugano, vier kleine Räume in einem schlossartigen Gebäude, der „Casa Camuzzi“, die sich im 18. Jahrhundert einer der Tessiner Baumeister in Gestalt eines neobarocken Palazzos errichtet hatte. Von dieser Hanglage aus („Klingsors Balkon“) und oberhalb des dichtbewachsenen Waldgrundstückes überblickte Hesse nach Osten den Luganersee mit den gegenüberliegenden Hängen und Bergen auf italienischer Seite. Die neue Lebenssituation und die Lage des Gebäudes inspirierten Hesse nicht nur zu neuer schriftstellerischer Tätigkeit, sondern als Ausgleich und Ergänzung auch zu weiteren Zeichenskizzen und Aquarellen, was sich in seiner nächsten großen Erzählung "Klingsors letzter Sommer" von 1920 deutlich niederschlug. Im Dezember 1920 lernte Hesse, ebenfalls im Tessin, Hugo Ball und dessen Gattin Emmy Hennings kennen. 1922 erschien Hesses Indien-Roman "Siddhartha". Hierin kam seine Liebe zur indischen Kultur und zu asiatischen Weisheitslehren zum Ausdruck, die er schon in seinem Elternhaus kennengelernt hatte. Hesse gab der Hauptfigur seiner „indischen Dichtung“ den Vornamen des historischen Buddhas, Siddartha. Seine damalige Geliebte Ruth Wenger (1897–1994) inspirierte ihn zu der Romanfigur der Kamala, die in dieser indischen Dichtung den Siddhartha die Liebe lehrt. Henry Miller urteilte: „Ein Buch, dessen Tiefe in der kunstvoll einfachen und klaren Sprache verborgen liegt, einer Klarheit, die vermutlich die geistige Erstarrung jener literarischen Philister aus dem Konzept bringt, die immer so genau wissen, was gute und was schlechte Literatur ist. Einen Buddha zu schaffen, der den allgemein anerkannten Buddha übertrifft, das ist eine unerhörte Tat, gerade für einen Deutschen. Siddhartha ist für mich eine wirksamere Medizin als das Neue Testament.“ Hesse erhielt im Mai 1924 das Bürgerrecht der Stadt Bern und damit zum zweiten Mal die Schweizer Staatsbürgerschaft. Dabei gab er die deutsche Staatsbürgerschaft wieder ab, die er 1890 im Hinblick auf das bevorstehende Landexamen in Göppingen erworben hatte. Nach der Scheidung von seiner ersten Frau Maria heiratete Hesse am 11. Januar 1924 schließlich Ruth Wenger, die Tochter der Schweizer Schriftstellerin Lisa Wenger. Diese zweite Ehe Hesses war jedoch trotz erotischer Anziehung und ähnlicher kultureller Interessen von Anfang an aufgrund vollständig unterschiedlicher Lebensbedürfnisse und Zielrichtungen zum Scheitern verurteilt und wurde auf Wunsch seiner Frau bereits drei Jahre später, am 24. April 1927, geschieden. Seine nächsten größeren Werke, "Kurgast" von 1925 und "Die Nürnberger Reise" von 1927, sind autobiografische Erzählungen mit ironischem Unterton. In ihnen kündigt sich bereits der erfolgreichste Roman Hesses an, "Der Steppenwolf" von 1927, der sich für ihn als „ein angstvoller Warnruf“ vor dem kommenden Weltkrieg darstellte und in der damaligen deutschen Öffentlichkeit entsprechend geschulmeistert oder belächelt wurde. Zu seinem 50. Geburtstag, den er in demselben Jahr feierte, wurde auch die erste Hesse-Biografie von seinem Freund Hugo Ball veröffentlicht. Schon kurz nach dem neuen Erfolgsroman erlebte Hesse eine Wende durch die Beziehung zu Ninon Dolbin geb. Ausländer (1895–1966), seiner späteren – dritten – Ehefrau, die aus Czernowitz in der Bukowina stammte, Kunsthistorikerin war und bereits als 14-jährige Schülerin konstante briefliche Verbindung mit ihm aufgenommen hatte. Mit Dolbin verbrachte er 1928 und 1929 ausgedehnte Winterferien in Arosa, wo er auch Hans Roelli kennenlernte. 1930 erschien die Erzählung "Narziß und Goldmund". Hermann Hesse hat zudem jeder seiner drei Ehefrauen ein Märchen gewidmet: seiner ersten Frau Mia das Märchen "Iris" (1916), "Piktors Verwandlungen" (1922) Ruth Wenger, und kurz nach der Heirat mit Ninon Dolbin entstand im März 1933 sein letztes und sehr autobiografisches Märchen "Vogel", gleichlautend mit dem Namen, mit dem er private Zettel und Briefe an Ninon unterschrieb und mit dem sie ihn oft anredete. Casa Hesse (Casa Rossa). Dieser Briefmarkenentwurf von 1978 aus der Serie "Nobelpreisträger deutschsprachiger Literatur" basiert auf einem Foto Hesses im Alter von ca. 58 Jahren, das sein jüngster Sohn, der Berufsfotograf Martin Hesse, im Sommer 1935 im Garten in Montagnola aufnahm. Zu dieser Zeit arbeitete Hesse am "Glasperlenspiel". a> (Mitte vorn). Tuschzeichnung von Böhmer, 1956. Im Jahre 1931 verließ Hesse die Mietwohnung in der Casa Camuzzi und zog mit seiner neuen Lebensgefährtin, mit der er am 14. November seine dritte Ehe einging, in ein größeres Haus, die Casa Hesse, wegen des rötlichen Außenanstrichs auch "Casa Rossa" genannt. Das Gebäude war nach Hesses Wünschen erbaut worden, finanziert von seinem Freund Hans Conrad Bodmer. Das Grundstück lag oberhalb und am Südende von Montagnola, in Sichtweite der Casa Camuzzi und nur zehn Fußminuten von dieser entfernt. Das Grundstück und das Gebäude wurden Hesse dauerhaft von Bodmer zur Verfügung gestellt, nach seinem Tod auch Ninon auf Lebenszeit. Vom Schulzentrum am zentralen Ortsparkplatz von Montagnola führt der Weg vorbei am hinter der Schule gelegenen Spielplatz zu dem darüber liegenden schmiedeeisernen Gartenportal des Hauses an der "Via Hermann Hesse". Die Zuwegung führt in leichtem Anstieg parallel zum Hang ins Grundstück, auf dessen exponiertester Stelle eine Art Doppelhaus zweigeschossig errichtet wurde. Jeder der beiden Teile verfügt über einen separaten Zugang mit eigenem Treppenhaus; im Erd- und Obergeschoss sind beide Teile sowohl über die Flure als auch über aneinanderliegende Räume miteinander verbunden. Aus Gründen des Tagesrhythmus, aber auch aus arbeitsorganisatorischen Gründen und Gründen der unterschiedlichen Nutzung legten Hesse und seine Frau Wert auf eine gewisse Trennung der Räume: den größeren, südwestlichen Teil mit Küche, Essraum, Bibliothek, Gastraum, Schlafraum (N.), Bad (N.) und Nebenräumen nutzte vorwiegend Ninon; der nordöstliche Abschnitt war Hermann Hesses Wirkungsbereich mit Atelier, Arbeitsraum, Schlafraum (H.), Bad (H.) und Nebenbereichen. Die Bibliothek im Erdgeschoss diente beiden als Empfangsraum für die Vielzahl von Gästen, zugleich als Wohn-, Lesungs- und Musikraum mit weitem Ausblick auf den südöstlich gelegenen Monte Generoso und hatte eine direkte Verbindung zum Atelier. Das nordöstlich an die Bibliothek anschließende Atelier war der Multifunktionsraum des Hauses, in dem Hesse seine umfangreiche Korrespondenz mit Schreibmaschine führte, sodann fungierte es als Lager für Verpackungsmaterial für die Vielzahl an Post- und Büchersendungen, die Hesse selbst versandfertig machte. In diesem Raum ging er aber auch seinem Hobby nach, der Aquarellmalerei, wenn er nicht vor der Natur malte, was meist geschah. Er bewahrte dort Mal- und Kunstutensilien wie auch weitere Buchbestände auf. Seinen Arbeitsbereich im Obergeschoss mit besonderen Büchern hielt Hesse allerdings im Allgemeinen vor Gästen verborgen und wollte dort auch nicht durch Familienangehörige gestört werden. Ähnlich wie in der Casa Camuzzi hatte Hesse auch von hier den nach Nordosten gerichteten, weiten Blick über den Luganersee in das östliche Seetal bis hinein auf italienische Hänge und Gebirgszüge. Viele seiner Aquarelle legen Zeugnis ab von diesem Haus, seinem Garten, der näheren und weiteren Umgebung und den umfassenden Ausblicken in die Tessiner Landschaft. Hesses weitverzweigte Korrespondenz führte seine Verleger Samuel Fischer, Gottfried Bermann Fischer, Peter Suhrkamp und Siegfried Unseld hierher. Nicht nur Thomas Mann, sondern die Familie Mann wurde hier mehrfach empfangen. Freundschaften wie die mit Romain Rolland wurden hier vertieft, und Kollegen wie Bertolt Brecht, Max Brod, Martin Buber, Hans Carossa, André Gide, Annette Kolb, Jakob Wassermann und Stefan Zweig fanden ihren Weg nach Montagnola. Darüber hinaus hatte Hermann Hesse zeitweise einen intensiveren Bezug zu Musikern wie Adolf Busch, Edwin Fischer, Eugen d’Albert und besonders freundschaftlich zu dem von ihm verehrten Komponisten Othmar Schoeck, von dem (als einzigem) Hesse das Gefühl hatte, dass dieser seine Gedichte wirklich adäquat vertonte. Zwei Jahre nachdem Hesse aus der Casa Camuzzi hinüber in die Casa Rossa gezogen war, besuchte im April 1933 der junge Gunter Böhmer Hermann Hesse und richtete sich für den Rest seines Lebens in der Casa Camuzzi ein. Zehn Jahre später, 1943, siedelte der Maler Hans Purrmann, Schüler von Henri Matisse, nach Montagnola über und zog einige Zeit später ebenfalls in die Casa Camuzzi. Mit beiden Malern und Zeichnern verband Hesse eine ihn beglückende Künstlerfreundschaft. Böhmer unterstützte Hesse bei dessen Bemühungen, sich künstlerische Techniken und die Gesetze unterschiedlicher Perspektivdarstellungen anzueignen. Die ehemalige Casa Hesse fiel nach Hesses und Ninons Tod an die Bodmer-Familie zurück. Sie wurde veräußert, farblich und auf der rückwärtigen Terrassenseite durch den neuen Eigner auch baulich umgestaltet, befindet sich heute (Stand: 2006) in Privatbesitz und kann nicht besichtigt werden. Ein Weg in Verlängerung der "Via Hermann Hesse" unterhalb des Grundstückes gestattet einen Blick auf die Südseite des Wohnhauses und des Hanges, der Hesse zu einer Reihe von Schilderungen über seine gärtnerischen Tätigkeiten anregte. Der Glasperlenspieler. a>. Die Casa Rossa war eine der Anlaufstellen für Thomas Mann und etliche andere Emigranten aus Deutschland auf ihrem Weg ins Exil. Die Machtübernahme der Nationalsozialisten in Deutschland beobachtete Hesse mit großer Sorge. Bertolt Brecht und Thomas Mann machten 1933 auf ihren Reisen ins Exil jeweils bei Hesse Station. In der Ablehnung des Nationalsozialismus waren Mann und Hesse geeint und fühlten sich trotz sehr unterschiedlicher Ausprägung ihrer Persönlichkeiten in bestimmten Grundlinien ihrer freundschaftlichen Beziehung bis zum Schluss verbunden. Zwischen Hesse und Brecht, der mit ihm über die Bücherverbrennungen jenes Jahres in Deutschland sprach, bestand diese Art der Verbindung nicht. Hesse versuchte auf seine Weise, der Entwicklung in Deutschland entgegenzusteuern: Er hatte schon seit Jahrzehnten in der deutschen Presse Buchrezensionen publiziert – nun sprach er sich darin verstärkt für jüdische und andere von den Nationalsozialisten verfolgte Autoren aus. Ab Mitte der 1930er Jahre wagte keine deutsche Zeitung mehr, Artikel von Hesse zu veröffentlichen. Hesse trat nicht offen gegen das NS-Regime auf, sein Werk wurde auch nicht offiziell verboten oder „verbrannt“, dennoch war es seit 1936 „unerwünscht“. Trotz Einschränkungen gab es aber immer wieder Neuauflagen. Die Suhrkamp Verlag KG Berlin konnte noch 1943 den "Knulp" nachauflegen. Hesses geistige Zuflucht vor den politischen Auseinandersetzungen und später vor den Schreckensmeldungen des Zweiten Weltkrieges war die Arbeit an seinem Roman "Das Glasperlenspiel", welcher im Jahr 1943 in der Schweiz gedruckt wurde. Nicht zuletzt für dieses Spätwerk wurde ihm 1946 der Nobelpreis für Literatur verliehen: „für seine inspirierten Werke, die mit zunehmender Kühnheit und Tiefe die klassischen Ideale des Humanismus und hohe Stilkunst verkörpern“ (Begründung der Schwedischen Akademie, Stockholm). Korrespondenz. Nach dem Zweiten Weltkrieg ging Hesses literarische Produktivität zurück: Er schrieb noch Erzählungen und Gedichte, aber keinen Roman mehr. Der Schwerpunkt seiner Tätigkeit verlagerte sich zunehmend auf seine immer umfangreicher werdende Korrespondenz. Schon seit den 1920er Jahren pflegte Hesse in seiner Korrespondenz ein immer umfangreicher werdendes Netzwerk aus Freunden, Briefpartnern und Gönnern, die ihn und seine Kriegsgefangenenfürsorge während der schwierigen Kriegsjahre immer wieder durch die Sendung von finanziellen und materiellen Zuwendungen im Tausch gegen handgeschriebene und illustrierte Gedichte, Aquarelle oder Sonderdrucke materiell unterstützen. Dazu kamen außerdem noch die Briefe seiner Bewunderer. Grab von Hermann und Ninon Hesse. Der kleine, flach in den Rasen gebettete Grabstein Ninon Hesses (Bildmitte am rechten Rand) wurde nach ihrem Tod 1966 hinzugefügt. Nach Untersuchungen seiner Söhne Bruno und Heiner Hesse sowie des Hesse-Editionsarchives in Offenbach hat Hesse ca. 35.000 Briefe erhalten. Da er absichtlich ohne Sekretariat arbeitete, beantwortete er einen sehr großen Teil dieser Post persönlich; 17.000 dieser Antwortbriefe sind ermittelt. Als ausgeprägter Individualist empfand er diese Vorgehensweise als moralische Verpflichtung. Diese tägliche Inanspruchnahme durch einen stetigen Strom von Briefen war der Preis dafür, dass er seinen wiedererwachten Ruhm bei einer neuen Generation deutscher Leser miterleben konnte, die sich von dem „weisen Alten“ in Montagnola finanzielle Unterstützung, Lebenshilfe und Orientierung erhofften. Zu ähnlichen Anfragen nach seinem Befinden, seinem Tagesablauf oder seinen Beobachtungen bei Ereignissen, die von allgemeinerem Interesse waren, arbeitete er allerdings längere Betrachtungen aus, die er als "Rundbriefe" versandte (s. u. Literaturübersicht). Tod. Im Dezember 1961 erkrankte Hermann Hesse an einer Grippe, von der er sich nur schwer erholte. Er hatte schon seit längerem, ohne es zu wissen, Leukämie; im Spital von Bellinzona wurde er mit Bluttransfusionen behandelt. Hesse verstarb in der Nacht zum 9. August 1962 im Schlaf an einem Schlaganfall. Seine Frau, die wartete, dass er zum Frühstück käme, alarmierte den Hausarzt. Sie fand Hesse mit dem aufgeschlagenen Buch "Bekenntnisse" des Kirchenvaters Augustinus in seiner linken Hand auf. Schließlich wurde er zwei Tage später im Kreis seiner Familie und Freunde auf dem Friedhof "Sant’Abbondio" in Gentilino beigesetzt, auf dem sich auch die Gräber von Emmy und Hugo Ball befinden. In seinem letzten Gedicht "Knarren eines geknickten Astes", niedergeschrieben in der letzten Lebenswoche in drei Fassungen, schuf er ein Sinnbild für den nahenden Tod. Literarische Bedeutung. Hesses frühe Werke standen noch in der Tradition des 19. Jahrhunderts: Seine Lyrik ist ganz der Romantik verpflichtet, ebenso Sprache und Stil des "Peter Camenzind", eines Buches, das vom Autor als Bildungsroman in der Nachfolge des Kellerschen "Grünen Heinrich" verstanden wurde. Inhaltlich wandte sich Hesse gegen die wachsende Industrialisierung und Verstädterung, womit er eine Tendenz der Lebensreform und der Jugendbewegung aufgriff. Diese neoromantische Haltung in Form und Inhalt wurde von Hesse später aufgegeben. Die antithetische Struktur des "Peter Camenzind", die sich an der Gegenüberstellung von Stadt und Land und an dem Gegensatz männlich–weiblich zeigt, ist hingegen auch in den späteren Hauptwerken Hesses (z. B. im "Demian" und im "Steppenwolf") noch zu finden. Die Bekanntschaft mit der Archetypenlehre des Psychologen Carl Gustav Jung hatte einen entscheidenden Einfluss auf Hesses Werk, der sich zuerst in der Erzählung "Demian" zeigte. Der ältere Freund oder Meister, der einem jungen Menschen den Weg zu sich selbst öffnet, wurde eines seiner zentralen Themen. Die Tradition des Bildungsromans ist auch im "Demian" noch zu finden, aber in diesem Werk (wie auch im "Steppenwolf") spielt sich die Handlung nicht mehr auf der realen Ebene ab, sondern in einer inneren „Seelen-Landschaft“. Ein weiterer wesentlicher Aspekt in Hesses Werk ist die Spiritualität, die sich vor allem (aber nicht nur) in der Erzählung "Siddhartha" finden lässt. Indische Weisheitslehren, der Taoismus und christliche Mystik bilden seinen Hintergrund. Die Haupttendenz, wonach der Weg zur Weisheit über das Individuum führt, ist jedoch ein typisch westlicher Ansatz, der keiner asiatischen Lehre direkt entspricht, auch wenn durchaus Parallelen im Theravada-Buddhismus zu finden sind. Homoerotische Elemente in seinem Werk wurden in der Literaturwissenschaft verschiedentlich thematisiert. Alle Werke Hesses enthalten eine stark autobiografische Komponente. Besonders offensichtlich ist sie im "Demian", in der "Morgenlandfahrt", aber auch in "Klein und Wagner" und nicht zuletzt im "Steppenwolf", der geradezu exemplarisch für den „Roman der Lebenskrise“ stehen kann. Im Spätwerk tritt diese Komponente noch deutlicher hervor – in den zusammengehörigen Werken "Die Morgenlandfahrt" und "Das Glasperlenspiel" verdichtete Hesse in mehrfachen Variationen sein Grundthema: die Beziehung zwischen einem Jüngeren und seinem älteren Freund oder Meister. Vor dem historischen Hintergrund der nationalsozialistischen Diktatur in Deutschland zeichnete Hesse im "Glasperlenspiel" eine Utopie der Humanität und des Geistes, zugleich schrieb er aber auch wieder einen klassischen Bildungsroman. Beide Elemente halten sich in einem dialektischen Wechselspiel die Waage. Nicht zuletzt setzte Hesse mit etwa 3000 Buchrezensionen, die er im Laufe seines Lebens für 60 verschiedene Zeitungen und Zeitschriften verfasste, in jener Zeit Qualitätsmaßstäbe, die ihresgleichen im Bereich der Vermittlung, Förderung und der behutsamen Kritik suchten. Grundsätzlich rezensierte er keine Literatur, die ihm nach seinen Maßstäben als schlecht erschien. Wie Thomas Mann, so hat sich auch Hesse intensiv mit dem Werk Goethes auseinandergesetzt. Die Bandbreite seiner Rezensionen erstreckte sich von kleineren Erzählbänden bislang unbekannter Autoren bis hin zu philosophischen Kernwerken aus dem asiatischen Kulturkreis. Diese asiatischen Zentralwerke haben in der Gegenwart immer noch Bestand, doch wurden sie bereits von Hesse etliche Jahrzehnte früher entdeckt und erschlossen, bevor sie in den 1970er Jahren zum literarisch-philosophischen und geistigen Allgemeingut auch der westlichen Hemisphäre wurden. Rezeption. Relief am Hermann-Hesse Brunnen in Calw a>er Nikolausbrücke aufgestellt und am 8. Juni 2002 enthüllt. Die Figur stellt den 55-jährigen Hesse bei seinem letzten Calw-Besuch Anfang der 1930er-Jahre dar. „Charakteristisch ist auch die etwas steife, sehr aufrechte und meist leicht nach rückwärts oder seitlich geneigte Haltung des Kopfes, in der eine gewisse Distanziertheit sich ausdrückt.“ Hesses Frühwerk wurde von der zeitgenössischen Literaturkritik überwiegend positiv beurteilt. Die Hesse-Rezeption im Deutschland der beiden Weltkriege war stark durch die Pressekampagnen gegen den Autor infolge seiner Antikriegs- und antinationalistischen Äußerungen geprägt. Nach beiden Weltkriegen deckte Hesse bei einem Teil der Bevölkerung, insbesondere der jeweils herangewachsenen jüngeren Generation das Bedürfnis nach geistiger und zum Teil moralischer Neuorientierung ab. Wieder „neu entdeckt“ wurde er zu einem überwiegenden Teil daher erst weit nach 1945. Gut zehn Jahre nachdem Hesse der Nobelpreis für Literatur verliehen worden war, schrieb Karlheinz Deschner 1957 in seiner Streitschrift "Kitsch, Konvention und Kunst": „Daß Hesse so vernichtend viele völlig niveaulose Verse veröffentlicht hat, ist eine bedauerliche Disziplinlosigkeit, eine literarische Barbarei“ und kam auch in Bezug auf die Prosa zu keinem günstigeren Urteil. In den folgenden Jahrzehnten schlossen sich Teile der deutschen Literaturkritik dieser Beurteilung an, Hesse wurde von manchen als Produzent epigonaler und kitschiger Literatur qualifiziert. So ähnelt die Hesse-Rezeption einer Pendelbewegung: Kaum war sie in den 1960er Jahren in Deutschland auf einem Tiefpunkt angelangt, brach unter den Jugendlichen in den USA ein „Hesse-Boom“ ohnegleichen aus, der dann auch wieder nach Deutschland übergriff; insbesondere "Der Steppenwolf" wurde international zum Bestseller (nach dem sich die gleichnamige Rockband benannte) und Hesse zu einem der meistübersetzten und -gelesenen deutschen Autoren. Weltweit wurden über 120 Millionen seiner Bücher verkauft (Stand: Anfang 2007). In den 1970er Jahren veröffentlichte der Suhrkamp-Verlag einige Tonbänder mit dem am Ende seines Lebens aus seinen Werken rezitierenden Hesse auf Sprechplatten. Schon zu Beginn seiner Laufbahn widmete sich Hesse der Autorenlesung und verarbeitete seine eigentümlichen Erlebnisse in diesem Zusammenhang in dem ungewöhnlich heiteren Text „Autorenabend“. Hermann Hesse und die Gegenwart. Calw bezeichnet sich selbst als „die Hermann-Hesse-Stadt“ und nutzt dieses Attribut zugleich als Claim zur Eigenwerbung. In Calw informiert das "Hermann-Hesse-Museum" über Leben und Werk des berühmtesten Sohnes der Stadt. Seit 1977 findet in unregelmäßigen, mehrjährigen Abständen jeweils unter wechselndem Hauptthema das "Internationale Hermann-Hesse-Kolloquium" in Hesses Geburtsstadt Calw im Schwarzwald statt. Hierzu referieren renommierte Hesse-Fachleute aus dem In- und Ausland aus ihrem Fachgebiet über zwei bis drei Tage. Die Tagungsteilnahme steht jedem Bürger nach Anmeldung offen. Das Programm wird meist wechselnd durch Vertonungen von Gedichten Hesses, weitere musikalische Darbietungen, Tanz und Schauspiel mit Themen zu oder aus Hesses Literatur und/oder durch eine geeignete Dokumentar- oder Literaturverfilmung begleitet. Vergleichbar den Calwer Kolloquien finden seit 2000 in Sils-Maria im Schweizer Engadin in jährlichem Rhythmus die "Silser Hesse-Tage" statt, drei bis vier Tage im Sommerhalbjahr. Die Vorträge und Diskussionen stehen jeweils unter einem Schwerpunktthema. Im Gedenken an Hesse wurden zwei Literaturpreise nach ihm benannt: der Calwer Hermann-Hesse-Preis und der Karlsruher Hermann-Hesse-Literaturpreis. Mit Hermann Hesse fühlt sich auch der Rockmusiker Udo Lindenberg verbunden. 2008 veröffentlichte er bei Suhrkamp eine Auswahl von Hesse-Texten unter dem Titel "Mein Hermann Hesse: Ein Lesebuch". Seine 2006 in Calw gegründete Udo-Lindenberg-Stiftung will junge Texter und Musiker mit Wettbewerben fördern und „Hermann Hesses Dichtung mit Musik verbinden“. Alle zwei Jahre werden Preise verliehen, darunter ein Sonderpreis für die beste Hermann-Hesse-Vertonung. Alljährlich findet das "Hermann-Hesse-Festival" in Calw statt, bei dem die Gewinner und Udo Lindenberg auftreten. Nachlass, Archivalien und Editionsarchiv. Das "Hermann-Hesse-Editionsarchiv" in Offenbach am Main wurde von dem Lektor und international renommierten Hesse-Herausgeber Volker Michels über mehrere Jahrzehnte aufgebaut, unter anderem mit Unterstützung des Sohnes Heiner Hesse. Wenngleich die Hesse-Bestände in den Literaturarchiven in Bern und Marbach größer sind, verfügt das Hermann-Hesse-Editionsarchiv über die am weitesten erschlossene und funktionell umfassendste Dokumentation zu Leben und Werk Hermann Hesses. Im Deutschen Literaturarchiv Marbach sind zudem Teile des Hesse Nachlasses im Literaturmuseum der Moderne in der Dauerausstellung zu sehen. Zum Beispiel liegen dort die Manuskripte bzw. Typoskripte zu "Demian", "Der Steppenwolf", "Narziß und Goldmund" und "Gertrud". Auszeichnungen und Ehrungen. Hermann Hesse literarisches Werk wurde mit einer Reihe von literarischen Auszeichnungen, internationalen Preisen und einem Ehrendoktortitel gewürdigt. Die Stadt Calw, in der sich auch das Hermann-Hesse-Museum befindet, benannte einen Platz in der Fußgängerzone nach ihm. Auch die Bahnstrecke nach Weil der Stadt soll nach ihrer geplanten Reaktivierung Hermann-Hesse-Bahn heißen. Zudem gibt es einen Hermann-Hesse-Platz in Bad Mingolsheim sowie viele nach ihm benannte Straßen im ganzen Bundesgebiet. Auch mehrere Schulen wurden nach ihm benannt. Hesse-Museen. Im Museo Hermann Hesse, Montagnola, Schweiz Eingang zum Museo Hermann Hesse Hans Bemmann. Hans Bemmann (* 27. April 1922 in Groitzsch bei Leipzig; † 1. April 2003 in Bonn) war ein deutscher Schriftsteller. Leben. Hans Bemmann wurde am 27. April 1922 in Groitzsch bei Leipzig geboren. Seine Jugend verbrachte der Sohn eines evangelischen Pfarrers in Grimma/Sachsen, Leipzig, Wiesbaden und Wien. Hans Bemmann begann 1940 zuerst mit einem Medizinstudium in Wien, unterbrochen von Arbeitsdienst, Wehrmacht und dem Kriegseinsatz in Russland, wo er als Operationsgehilfe auf Hauptverbandplätzen eingesetzt war. Das Studium setzte er nach Kriegsende bis zum Physikum fort. Unmittelbar danach wechselte er aber zu Germanistik und Musikwissenschaft, dessen Studium er 1949 mit einer musikwissenschaftlichen Doktorarbeit abschloss. Seit 1954 war er Lektor beim Österreichischen Borromäuswerk (Österreichischen Bibliothekswerk) und setzte diese Tätigkeit 1956 in Bonn fort. Bis 1987 war er dort Lektor, bis 1993 Dozent am Bonner Bibliothekar-Lehrinstitut und von 1971 bis 1983 Dozent für das Fach „Deutsch“ an der Pädagogischen Hochschule Bonn. In den 1960er-Jahren hat er unter dem Pseudonym Hans Martinson veröffentlicht. Zum Werk. Sein literarischer Durchbruch gelang ihm 1983 mit dem der Fantasy-Literatur nahestehenden Märchenroman "Stein und Flöte", der die Abenteuer eines jungen Mannes namens Lauscher in einer idyllischen Märchenwelt verfolgt. Ein magischer Stein und eine magische Flöte sollten ihm eigentlich den Weg zum Glück öffnen, doch seine mangelnde Menschenkenntnis und Naivität lassen ihn seine Macht missbrauchen und verhängnisvolle Entscheidungen treffen. Lauschers Lebensgeschichte ist von seiner Liebesgeschichte durchflochten. Der Nachfolgeroman "Erwins Badezimmer", in Form einer Reihe von Briefen geschrieben, führt den Leser in eine Diktatur, welche die Bevölkerung durch eine systematische Vereinfachung der Sprache kontrolliert. Der gutmütige Sprachwissenschaftler Albert S. stolpert zufällig in eine Untergrundbewegung, die Erwin von seiner illegalen Microfiche-Bibliothek aus seinem Badezimmer heraus leitet. Albert findet gleichzeitig die Liebe seines Lebens und lernt, die Welt mittels mehrdeutiger Sprache neu zu sehen. Die Idee der Manipulation durch gezielten Gebrauch der Sprache findet sich auch in George Orwells Dystopie "1984". Der "Stern der Brüder" ist ebenfalls in der modernen Welt angesiedelt, und zeichnet den Lebensweg zweier Brüder in einer Gesellschaft, die sich auf dem Wege zur Diktatur bewegt, nach. Ein Musiker und ein Geologe wählen sich im politischen Spektrum entgegengesetzte Seiten, nur um sich zum Schluss wieder zu begegnen. "Die beschädigte Göttin" führt einen Märchenforscher auf eine Reise aus der Wirklichkeit in die Märchenwelt. Die Begegnung mit einer ihn bezaubernden Frau wirft ihn in eine Märchenwelt, in der er sie sucht, umwirbt und letztendlich auch findet. Der Roman vermischt unsere Welt mit der der Märchen, und lässt den Helden unsere Welt weniger kalt und mechanisch sehen. "Die Gärten der Löwin", obwohl auch als eigenständiger Roman zu lesen, ist eine Fortsetzung der "beschädigten Göttin", in der die Frau ihre Geschichte darstellt. Dieses Buch unterscheidet sich durch die Wortwahl und den Satzbau vom Vorgängerroman, so dass dem Autor damit die Darstellung einer anderen Empfindungswelt eindrucksvoll gelang. Dritter Teil dieser Serie ist "Massimo Battisti". Hier findet sich die Auflösung vieler Unklarheiten in der Person des Magiers Massimo Battisti. Auszeichnungen. Im Jahre 1987 erhielt er den Evangelischen Buchpreis und 2002 den Rheinischen Literaturpreis Siegburg. Hartweizen. Der Hartweizen ("Triticum durum"), auch "Durum", "Durumweizen" oder "Glasweizen" genannt, ist nach "Weichweizen" ("Triticum aestivum") die wirtschaftlich bedeutendste Weizen-Art. Der Anbau erfolgt in der Regel als Sommergetreide. Merkmale. Hartweizen erreicht eine Wuchshöhe von 80 bis 150 cm. Der Halm ist dickwandig und im oberen Bereich mit Mark erfüllt. Die Knoten sind kahl. Der Blütenstand ist eine Ähre. Ohne Grannen misst sie 4 bis 6 cm, bei einer Breite von 12 bis 18 mm. Sie ist seitlich zusammengedrückt und im Querschnitt annähernd ein Quadrat. Die Ährenachse ist zur Reife nicht brüchig, der Hartweizen ist also ein Nacktweizen. An der Ansatzstelle der Ährchen sitzen Haarbüschel. Die Ährchen enthalten vier bis sieben Blüten, von denen zwei bis vier fertil sind. Das Ährchen ist 10 bis 15 mm lang, dabei länger als breit. Die Hüllspelzen sind 9 bis 12 mm lang und damit fast so lang wie das unterste Blütchen. Sie sind häutig und scharf bis flügelig gekielt. Der Kiel läuft in einen aufrechten Zahn aus. Der Nebenkiel läuft in einen seitlichen Zahn aus. Die Deckspelzen haben neun bis 15 Nerven, sind höchstens 12 mm lang und tragen eine bis zu 20 mm lange Granne. Die Karyopse ist länglich-spitz. Sie ist von der Deck- und Vorspelze locker umhüllt und fällt zur Reife aus der Ähre aus. Das Endosperm ist glasig. Der Chromosomensatz ist allopolyploid mit 2n + 2n = 28. Charakteristisch für Hartweizen sind sein hoher Glutengehalt, die gelbe Färbung und eine hohe Kochfestigkeit. Er weist einen höheren Proteingehalt und gleichzeitig niedrigere Stärkegehalte auf als Winterweichweizen. Durchschnittliche Zusammensetzung. Die Zusammensetzung von Hartweizen schwankt naturgemäß, sowohl in Abhängigkeit von den Umweltbedingungen (Boden, Klima) als auch von der Anbautechnik (Düngung, Pflanzenschutz). Der physiologische Brennwert beträgt 1424 kJ (339 kcal) je 100 g essbarem Anteil. Verbreitung. Hartweizen ist nur als Kultur bekannt. Entstanden ist er vermutlich aus dem Emmer (Triticum dicoccon). Er ist wärmeliebend und benötigt weniger als 500 mm Niederschlag pro Jahr. Wichtige Anbaugebiete sind das Mittelmeergebiet und Vorderasien. Hartweizen stellt etwa 10 % der Weltweizenmenge. Die wichtigsten Anbauländer in Europa für Hartweizen waren 2007 Italien (4 Mio. t), Frankreich (1,9 Mio. t), Spanien (1,2 Mio. t) und Griechenland (0,9 Mio. t). In Deutschland wurden im selben Jahr 38.000 t und in Österreich 53.000 t geerntet. Die in Deutschland aktuell (2014) zugelassenen Hartweizensorten (6 Winter- und 10 Sommerhartweizensorten) werden in der "Beschreibenden Sortenliste" des Bundessortenamtes aufgeführt. Nutzung. Der Hartweizengrieß ist besonders proteinreich (Durchschnittsgehalt etwa 16 %), der daraus gewonnene elastische Teig eignet sich besonders zur Herstellung von Teigwaren, insbesondere zur klassischen italienischen Pasta. Auch Couscous und Bulgur werden aus Hartweizen hergestellt. Sonstiges. In der Europäischen Union übersteigt der Verbrauch die Produktion. Um den Preis dennoch niedrig zu halten, besteht auf Hartweizen Ausfuhrzoll – derzeit (Stand Januar 2014) der einzige der EU. Saat-Hafer. Saat-Hafer oder Echter Hafer ("Avena sativa") ist eine Pflanzenart aus der Gattung Hafer ("Avena") innerhalb der Familie der Süßgräser (Poaceae). Sie wird als Getreide genutzt. Pflanzenbeschreibung. Saat-Hafer ist eine einjährige krautige Pflanze, die Wuchshöhen von 0,6 bis 1,5 Meter erreicht. Dieses Rispengras hat eine 15 bis 30 cm lange, allseitswendige Rispe (Blütenstand), die zum Teil wiederum verzweigte Rispen trägt, die sich sanft nach unten neigen. An der Spitze tragen die Rispen Ährchen mit zwei bis drei Blüten, von denen meist nur zwei fruchtbar sind. Hafer ist ein Selbstbestäuber. Die spindelförmigen Körner sind bei der Reife mit der kurzbegrannten Deckspelze und der Vorspelze fest verwachsen. Die Spelzen umgeben das eigentliche Korn. Ökologie. Der Saat-Hafer ist überwiegend einjährig und eine Sommerfrucht. Wie bei allen Getreide-Arten richten sich aufgrund von Sturm usw. niederliegende Halme durch ihr unterseits stärkeres Wachstum wieder auf. Der Wachstumsvorgang wird positiv gravitrop eingeleitet, also durch die Erdanziehung ausgelöst. Blütenbiologisch handelt es sich um den „Langstaubfädigen Typ“ mit Windbestäubung. Die homogamen, selbstfertilen Blüten öffnen sich erst nachmittags, bei Trockenheit in Anpassung an das Steppenklima sogar erst ab 18 Uhr. Bei nasser Witterung bleiben die Blüten geschlossen, also kleistogam und es erfolgt Selbstbestäubung. Beim Saat-Hafer zerfallen die meist zwei- bis dreiblütigen Ährchen zur Reife nicht. Bei den oberen Blüten oder evtl. auch bei allen Blüten fehlen die Grannen. Bei den Wildhafer-Arten ist die Ausbreitungseinheit (Diaspore) die von den haften bleibenden Spelzen umgebene Karyopse. Wegen der Luft zwischen den Spelzen sind diese spindelförmigen Gebilde von geringem spezifischem Gewicht. Es gibt für sie viele Ausbreitungsmöglichkeiten: Die Früchte können durch den Wind (beispielsweise als Bodenroller) ausgebreitet werden, oder als Regenschwemmlinge, oder mittels der hygroskopischen Grannen als Klettfrüchte. Die Haare der Grannen bewirken, dass die Körner sogar hüpfende Bewegungen ausführen können, was eine Selbstausbreitung als Bodenkriecher ermöglicht. Die Früchte können sich außerdem im Tierfell oder im Boden einbohren; solche Bohrfrüchte sind gleichzeitig ausbreitungshemmende Gebilde, wie sie für Trockengebiete typisch sind. Daneben sind eine Bearbeitungsausbreitung und eine solche als Wasserhafter möglich. Fruchtreife ist von August bis Oktober. Geschichte. Der früheste Nachweis für den Haferanbau ist durch die bronzezeitlichen Pfahlbausiedlungen in der Schweiz belegt. Bereits Germanen schätzten den Hafer. Die Bedeutung des Hafers wird auch darin deutlich, dass er in deutschen Familiennamen vorkommt, z.B. Haferkamp (= Hafer-Feld). In den altertümlichen Getreidefunden taucht Hafer nie in Reinform, sondern immer als Beimengung auf. Dies lässt den Schluss zu, dass Hafer zunächst als Beigras auf Gersten- und Weizenfeldern wuchs. Er wird daher zu den sekundären Kulturpflanzen gezählt. Um etwa 5000 v. Chr. sind die ältesten Nutzungsnachweise von Hafer in Polen und der nördlichen Schwarzmeerregion zu finden. Die ersten Nutzungsbelege in Mitteleuropa lassen sich auf 2400 v. Chr. datieren. Bis ins Mittelalter war der Haferanbau auf das Gebiet nördlich des Mains beschränkt. Erst später fand dann auch weiter südlich der Anbau statt. Ab dem Hochmittelalter ist Hafer in Mittelgebirgslagen eine bedeutende Feldfrucht, die erst durch die Einführung der Kartoffel ihre Stellung verlor. Noch 1939 rangierte Hafer in der weltweiten Bedeutung nach Weizen und Mais an dritter Stelle der Getreidearten. In Deutschland war Hafer bis in die erste Hälfte des 20. Jahrhunderts nach Roggen die wichtigste Getreideart. Heute ist der Haferanbau in Deutschland gegenüber den anderen Getreidearten von untergeordneter Bedeutung. Bis in die Neuzeit war in klimatisch wenig günstigen Gegenden Deutschlands der Anbau von Hafer häufig anzutreffen, da der Hafer auch bei ungünstigen Witterungsbedingungen (Staunässe, Trockenheit, mangelnde Bodenqualität) und schlechter Nährstoffversorgung stabilere Erträge liefert als zum Beispiel Sommergerste. Nach dem Zweiten Weltkrieg ist der Anbau zurückgegangen, zum Teil wegen der Motorisierung, die Zugpferde (als Haferkonsumenten) mehr und mehr überflüssig machte und damit die Nachfrage senkte. In den letzten Jahrzehnten nahm die Produktion wieder zu, da der Pferdesport an Popularität gewonnen hat. Anbau. Hafer bevorzugt ein gemäßigtes Klima mit hohen Niederschlägen. Sein Anbau findet in den Mittelgebirgen, im Alpenvorland und in den Küstenregionen statt. Seine Ansprüche an den Boden sind gering. Hafer wird als Sommergetreide angebaut und im Frühjahr ausgesät. Die Ernte findet ab Mitte August statt. Unter den Getreidearten gilt Hafer als „Gesundungsfrucht“, da sich viele Getreideschädlinge in ihm nicht vermehren. Ein Großteil der Ernte in Deutschland wird heute zur Tierfutterherstellung verwendet. Hafer wird aufgrund von veränderten Konsumgewohnheiten auch wieder vermehrt in der menschlichen Ernährung verwendet. Nutzung. Produkte des Hafers sind Stroh, Hafergrütze, Haferflocken, Haferkleie, Getränke auf Haferbasis, Hafermehl, Cerealien mit Hafer, verschiedene Extrakte für die Medizin und Furfural, eine Chemikalie, die aus den Spelzen gewonnen wird. Ursprungs- (rot) und Hauptanbaugebiet (grün) von Hafer Ernährungsphysiologisch ist Hafer die hochwertigste Getreideart, die in Mitteleuropa angebaut wird. Die Haferkörner werden lediglich entspelzt, d. h. die äußere für den Menschen unverdauliche Hülle wird entfernt. Der übrigbleibende sogenannte Haferkern wird jedoch nicht geschält, d. h. die äußeren Randschichten, Frucht- und Samenschale, sowie der Keimling bleiben erhalten. Hierbei handelt es sich dann um Vollkornprodukte. In diesen Bestandteilen des Haferkerns stecken vor allem Vitamine, Mineralstoffe, Ballaststoffe. Es gibt eine Vielfalt an Erzeugnissen aus Hafer für die menschliche Ernährung: von Hafergrütze über Haferflocken und Haferspeisekleie bis hin zu Hafermehl, Cerealien und Getränken. Hafermehl kann infolge des geringen Kleberanteils (Gluten) nur bedingt zur Herstellung von Brot verwendet werden, ist jedoch eben deshalb für die glutenfreie Ernährung bei Zöliakie bedingt geeignet. Ein Haferanteil von 20 bis 30 Prozent im Brot ist jedoch möglich. In einigen Regionen wird aus Hafer Whiskey hergestellt. Im Mittelalter war Haferbier ein beliebtes Getränk. Als Futtermittel wird Hafer an Pferde, Rinder oder Geflügel verfüttert. Der hohe Rohfaseranteil macht die Körner für die Verfütterung an Schweine ungeeignet. Die größten Haferproduzenten. Folgende Tabelle gibt eine Übersicht über die 20 größten Haferproduzenten der Welt, die 2013 zusammen etwa 89 % der Welterntemenge von etwa 23,8 Mio. t erzeugten. Inklusive der Produktionsmengen Österreichs und der Schweiz zum Vergleich. Die gesamte Anbaufläche für Hafer weltweit betrug 2013 etwa 9,8 Mio. Hektar, davon in Deutschland 131.500, in Österreich 23.200 und in der Schweiz 1.673 Hektar. Im Jahre 2013 lag der durchschnittliche Hektar-Ertrag weltweit bei 24,4 dt/ha, in Deutschland bei 47,7 dt/ha, in Österreich bei 37,5 dt/ha und in der Schweiz bei 47,4 dt/ha. Durchschnittliche Zusammensetzung. Die Zusammensetzung von Hafer schwankt naturgemäß, sowohl in Abhängigkeit von der Hafersorte und den Umweltbedingungen (Boden, Klima) als auch von der Anbautechnik (Düngung, Pflanzenschutz). Der physiologische Brennwert beträgt 1409 kJ bzw. 336 Kilokalorien/kcal je 100 g essbarem Anteil. Weiterhin enthalten sind Phytosterine, Alkaloide, Avenanthramide (sekundäre Pflanzenstoffe), Kieselsäure und Linolsäure. Von allen gängigen Getreidearten enthält er den höchsten Mineralstoff- und Fettgehalt. Der hohe Eisengehalt ist vergleichbar mit vielen Fleischsorten. Zu erwähnen ist auch der mit rund 4,5 Prozent hohe Gehalt an β-Glucan, einem löslichen Ballaststoff, mit dem eine Senkung des Cholesterinspiegels erzielt werden kann. Saat-Hafer auf einem Feld im August Verarbeitung. Die Haferkörner sind fest von den Spelzen umschlossen. Durch den Drusch lassen sie sich nicht voneinander trennen. Soll Hafer zur menschlichen Ernährung verwendet werden, so werden nach dem Reinigen und Sieben der Haferkörner zunächst die Spelzen in einer Schälmühle mit einem „Prallschäler“ entfernt und mit einem „Steigsichter“ abgetrennt. Anschließend werden die verbleibenden Haferkerne gedarrt, wodurch die fettspaltenden Enzyme in Hafer deaktiviert werden. Dies verhindert das Ranzigwerden von Haferprodukten aufgrund des relativ hohen Fettgehaltes von etwa sieben Prozent und verlängert so die Haltbarkeit. Während der Darre wird die Haferstärke teilweise aufgeschlossen und die Haferprodukte werden dadurch bekömmlicher und besser verdaubar. In der Darre bildet sich auch ein typisches nussartiges Aroma heraus. Anschließend werden die Haferkerne durch Dämpfen und Trocknen auf die weitere Verarbeitung vorbereitet. Es existieren unterschiedliche Hafererzeugnisse. Haferflocken gibt es in drei Varianten: Die kernigen Haferflocken oder Großblattflocken werden aus den ganzen Kernen gewalzt. Für zarte Haferflocken oder Kleinblattflocken werden die Haferkerne zunächst in kleine Stücke - die sogenannte Grütze – geschnitten. Die kleinen Stücke werden dann zu zarten Flocken gewalzt. Aber auch die Grütze wird als eigenständiges Produkt verkauft. Haferflocken werden in nahezu jeder verzehrfertigen Müslimischung, in Knuspermüslis sowie in Hafermüslis eingesetzt. Darüber hinaus gibt es lösliche Haferflocken, die über ein besonderes Verfahren aus Hafermehl hergestellt werden. Hafermehl entsteht, wenn die Grütze wie bei einer klassischen Getreidemühle fein gemahlen wird. Haferkleie besteht größtenteils aus den Randschichten und dem Keimling des Haferkorns und wird als Grieß oder als lösliche Flocken angeboten. Haferkleie-Grieß sind die gröberen Teile, die bleiben, wenn Randschichten und Keimling des Korns grob gemahlen und gesiebt werden. Lösliche Haferkleie-Flocken werden in einem speziellen Prozess aus gemahlenem Haferkleie-Grieß hergestellt. Hafercerealien sind weiterverarbeitete Produkte aus Hafer, die in unterschiedlichen Herstellungsverfahren entstehen: Für extrudierte Cerealienprodukte wird ein wasserhaltiger Teig aus Hafervollkornmehl und weiteren Zutaten unter Druck in eine Verdichtungsschnecke („Extruder“, vergleichbar mit einem Fleischwolf) gepresst. Beim Pressen kann der Teig durch Einsatz von Matrizen unterschiedlich geformt werden. Beim Austritt verdampft das Wasser, das Produkt verfestigt sich. So erhält man haltbare, knusprige Produkte in verschiedenen Formen. Für gepuffte Cerealienprodukte werden ganze Haferkörner Dampf und Druck ausgesetzt. Durch plötzlichen Druckabfall verdampft das enthaltene Wasser und die Stärke wandelt sich um. Die Körner blähen sich auf und erstarren. Hafermilch wird aus gereinigtem und entspelztem Hafer hergestellt. Da Milchersatz in der EU nicht mit der Bezeichnung "Milch" in Verkehr gebracht werden darf, sind Umschreibungen wie „Hafergetränk“ oder „Haferdrink“ gängig. Bei der Verwendung als Futtergetreide können die Spelzen am Korn bleiben. Neben den bespelzten Hafersorten gibt es auch „Nackthafer“, er verliert beim Dreschen seine Spelzen. Seine Erträge sind jedoch geringer. Verdauung. Beta-Glucane (z. B. Cellulose und Lichenin, spezifische Polysaccharide der Zellwand aller Süßgräser und Getreide,) sind die Schlüsselsubstanzen der ernährungsphysiologischen Wirkungen des Hafers. Diese Ballaststoffe kommen im Haferkorn überwiegend in der äußeren Schicht des Mehlkörpers, der Subaleuronschicht, vor. Beta-Glucane machen knapp die Hälfte des Gesamtballaststoffgehaltes im Hafer aus. 100 Gramm Haferflocken enthalten etwa 4,5 Gramm Beta-Glucane. Aufgrund des höheren Gesamtballaststoffanteils liegt der Beta-Glucan-Gehalt in Haferkleie mit 8,1 Gramm pro 100 Gramm höher. Die chemisch-physikalischen Eigenschaften der Hafer-Beta-Glucane führen zu einer Reihe von physiologischen Wirkungen auf den Verdauungstrakt sowie den Stoffwechsel. Im Vordergrund stehen positive Effekte auf den Cholesterin- und den Blutzuckerspiegel. Die Fähigkeit der Hafer-Beta-Glucane, Gallensäuren zu binden, führt zur Ausscheidung von Cholesterin, was zur Senkung des Gesamt- sowie LDL-Cholesterinspiegels führt. Damit können die Blutgefäße vor schädlichen Ablagerungen geschützt werden. Hafer-Beta-Glucane bilden im Magen und Dünndarm eine zähflüssige Konsistenz, die eine verlangsamte Resorption der Nährstoffe aus der gelartigen Masse zur Folge hat. Dies führt zu einem weniger starken und zeitverzögerten Anstieg des Blutglucosespiegels. Wissenschaftliche Studien lassen den Schluss zu, dass ein hoher Verzehr an Ballaststoffen u. a. das Risiko für Bluthochdruck, Fettstoffwechselstörungen und die koronare Herzkrankheit reduzieren kann. Weitere Wirkungen des Beta-Glucans sind die positiven Effekte auf die Verdauungsfunktion. Die viskose Substanz aus den löslichen Ballaststoffen schützt die Darmwand vor äußeren Reizen und beruhigt den empfindlichen Magen. Die unlöslichen Ballaststoffe wirken regulierend auf die Verdauungstätigkeit. Hafer ist ein beliebtes Lebensmittel in der Säuglings- und Kleinkindernährung. Auch bei gastrointestinalen Beschwerden wird Hafer gern eingesetzt. Die besondere Bekömmlichkeit und leichte Verdaulichkeit von Hafereiweiß und -fett spielen hierbei eine große Rolle. Diabetes. Im Rahmen der Diabetestherapie und Diabetikerernährung spielen der verzögerte Anstieg des Blutzuckerspiegels und die damit geringere Insulinausschüttung eine wichtige Rolle. Daher sollten bei kohlenhydrathaltigen Lebensmitteln Produkte mit einem niedrigen glykämischen Index und vor allem Vollkornprodukte, wie z. B. Haferflocken oder Haferspeisekleie, ausgewählt werden. Mediziner, Diabetologen und Diabetesberater wenden zum Teil die sogenannten „Hafertage“ an. Dabei handelt es sich um eine spezielle haferbetonte Kost, die über zwei bis maximal drei Tage eingenommen wird. Sie stellt eine besondere und sehr intensive Form der diätetischen Intervention in der Behandlung der Insulinresistenz bei Diabetes mellitus Typ 2 dar. Ziel ist es, mit einer einfachen Methode Blutzuckerwerte zu verbessern, die Insulinresistenz zu verringern und somit die Insulinsensitivität zu erhöhen. Dadurch wird weniger Insulin für die Verarbeitung der Glucose benötigt. Wissenschaftliche Studien und Erfahrungen aus der Praxis bestätigen die Reduzierung der Insulinzufuhr nach dieser Anwendung. Allergie und Zöliakie. Für viele Allergiker und Betroffene von Zöliakie sowie chronisch entzündlichen Darmerkrankungen (Morbus Crohn, Colitis ulcerosa, Reizdarmsyndrom, Kurzdarmsyndrom) ist nur Gliadin, nicht aber zugleich auch jedes andere Gluten unverträglich. Die in dieser Weise Betroffenen müssen deshalb zwar die klassischen Getreide (Weizen, Triticale, Roggen und ihre botanischen Vorläufer) meiden, können aber Hafer und Haferprodukte je nach Empfindlichkeit ggf. vertragen. Es muss hier aber sichergestellt sein, dass der Hafer beim lebensmitteltechnologischen Behandlungsprozess nicht mit Weizenmehl usw. vermischt wurde. Im Jahre 2004 wurden Ergebnisse einer klinischen Studie an Kindern, die an Zöliakie litten, veröffentlicht. Diese hatten über ein Jahr entweder eine glutenfreie Diät oder eine glutenfreie Diät mit täglich 25-50 g Hafer erhalten. Hierbei wurde festgestellt, dass kleine Mengen Hafer in der glutenfreien Diät weder die Heilung der Dünndarmschleimhaut noch die Regulation des Abwehrsystems verhindert. Einige Länder (z. B. Kanada, Schweden) haben den Konsum von glutenfreiem Hafer bis zu einer täglichen Menge von 50 g freigegeben. Andere Studien wiederum ergaben, dass eine geringe Zahl an Zöliakiebetroffenen auf glutenfreien Hafer negativ reagiert. Daher rät die Deutsche Zöliakie Gesellschaft Betroffenen vom Verzehr von Hafer ab. Die Verwendung des Haferkrautes und des Haferstrohs in der Naturheilkunde. In der Naturheilkunde wird das grüne Haferkraut (Herba Avenae) und das Haferstroh (Stramentum Avenae) verwendet. Stramentum Avenae wird vor allem zum Bereiten von Haferstrohbädern verwendet. Haferstrohbäder können bei Hautverletzungen helfen und sollen einen juckreizstillenden Effekt haben. Das Haferkraut wird zur innerlichen Anwendung als Tee verwendet. Zu den volkstümlichen Anwendungsgebieten zählen nervöse Einschlafstörungen, Harngrieß und rheumatischen Erkrankungen. Ebenfalls gibt es Medikamente gegen nervöse Unruhe, die Haferextrakte enthalten. Für die in Avena Sativa enthaltenen Avenathramide konnten im Versuch reizmildernde, entzündungshemmende und juckreizstillende Effekte beschrieben werden. Einige Kosmetikartikel enthalten Hafer zur Beruhigung trockener und gereizter Haut, auch Haarpflegeprodukte zur Stärkung der Haarstruktur sind auf dem Markt. Rechtliche Bestimmungen. Die EU-Verordnung zu nährwert- und gesundheitsbezogenen Angaben sieht vor, dass verzehrsfertige Lebensmittel, die mindestens ein Gramm Hafer-Beta-Glucan pro Verzehrportion enthalten, mit dem cholesterinsenkenden Effekt ausgelobt werden dürfen. Dazu müssen sie den Hinweis tragen, dass insgesamt drei Gramm Hafer-Beta-Glucan pro Tag erforderlich sind. Mit vier Esslöffeln Haferkleie (40 Gramm) sind 3,2 Gramm Beta-Glucan erreicht. Mit "Health-Claims-Verordnung" (zu deutsch etwa „Gesundheitsbehauptungen-Verordnung“) wird die "Verordnung (EG) Nr. 1924/2006 des Europäischen Parlaments und des Rates vom 20. Dezember 2006 über nährwert- und gesundheitsbezogene Angaben über Lebensmittel" bezeichnet.. Hierin und in der Liste für nährwert- und gesundheitsbezogene Angaben sind 222 davon in der „Artikel-13-Liste“ festgelegt und veröffentlicht worden. ist festgelegt, welche Gesundheitsbehauptungen in der Werbung und auf Fertigpackungen verwendet werden dürfen. Trivialnamen. Als weitere deutschsprachige Trivialnamen werden bzw wurden, zum Teil nur regional, auch die nachfolgenden Bezeichnungen verwandt. In Kärnten ist für die Unterart "Avena sativa var. orientalis" der Name Fahnenhafer überliefert. Für die Unterart "Avena sativa var. vulgaris" sind die Trivialnamen Biven (Ostfriesland), Biwen (Ostfriesland), Evena (mittelhochdeutsch), Evina (mittelhochdeutsch), Flöder (Graubünden), Habaro (althochdeutsch), Habbern (mittelhochdeutsch), Haber (Schweiz), Haberen (mittelhochdeutsch), Haberr (althochdeutsch), Habir (althochdeutsch), Hafer, Hafern (mittelhochdeutsch), Haffern (mittelhochdeutsch), Haffer (Frankfurt), Haowr´r (Altmark), Havern (mittelniederdeutsch), Hawer (Mecklenburg, Waldeck, Unterweser), Hawerkorn (Mecklenburg, Waldeck, Unterweser), Heberin Brod (mittelhochdeutsch), Hebrein Brod (mittelhochdeutsch), Huever (Siebenbürgen), Hyllmann (Schwaben), Koorn (Münsterland) und Rispenhafer. Hirse. Hirse ist eine Sammelbezeichnung für kleinfrüchtiges Spelzgetreide mit 10–12 Gattungen. Sie gehören zur Familie der Süßgräser (Poaceae). Der Name Hirse stammt aus dem Altgermanischen (ahd. "hirsa" neben "hirsi" und "hirso") und ist von einem indogermanischen Wort für „Sättigung, Nährung, Nahrhaftigkeit“ abgeleitet (vgl. die römische Göttin des Ackerbaus und der Fruchtbarkeit Ceres). Hirse diente bereits vor 8000 Jahren dazu, ungesäuertes Fladenbrot herzustellen. In China wird Rispenhirse seit mindestens 4000 Jahren landwirtschaftlich genutzt. Die Rispenhirse oder Echte Hirse ("Panicum miliaceum") wurde früher auch in Europa als Nahrungsmittel angebaut. Nutzung. Die wirtschaftlich wichtigsten Hirsen sind die Perlhirse, die Mohrenhirse (auch Zuckerhirse), die Fingerhirse, die Rispenhirse, die Kolbenhirse und der Teff, auch Zwerghirse genannt. Nahrungs- und Futtermittel. Die Hirse ist ein sehr mineralstoffreiches Getreide. In Hirse sind Fluor, Schwefel, Phosphor, Magnesium, Kalium und, im Vergleich zu anderen Getreiden, besonders viel Silizium (Kieselsäure), Eisen und Vitamin B6 enthalten. Im Handel üblich ist die von Schalen befreite Goldhirse. Es gibt daneben die ungeschälte Braunhirse, in der die meisten an den Schalen haftenden Mineralstoffe und Spurenelemente erhalten sind. Möglicherweise ist jedoch der Blausäuregehalt besonders bei roher Hirse nicht ganz unbedenklich. Hirse kann zur Herstellung glutenfreier Backwaren verwendet werden. In vielen Gebieten Afrikas und Asiens sind die unterschiedlichen Hirsearten Hauptnahrungsmittel, werden allerdings zunehmend durch Mais verdrängt. Kolbenhirse dient als Nahrung und in Osteuropa als Viehfutter, in Europa und Nordamerika zudem als Vogelfutter für die Ziervogelhaltung. Hirse ist darüber hinaus die Grundlage einiger traditioneller Biere, zum Beispiel "Dolo" in Westafrika, "Pombe" in Ostafrika und "Merisa" im Sudan. In Äthiopien ist die Hirseart "Teff" "(Eragrostis tef)" die wichtigste Nahrungspflanze der Menschen. Industriell wird Hirse von einigen spezialisierten Brauereien zur Herstellung von glutenfreiem Bier für Menschen mit Glutenunverträglichkeit (Zöliakie) genutzt. In China werden aus Hirse eine Reihe von Spirituosen gebrannt, die "Baijiu" genannt werden, der bekannteste chinesische Hirseschnaps ist "Maotai." Industrielle Nutzung. Zuckerhirse ("Sorghum bicolor"), im Feld. Für die industrielle Nutzung ist vor allem die Mohrenhirse von Interesse. Neben den Samen wird bei ihr auch der Halm zur Herstellung von Naturfasern genutzt (Faserhirse). In den USA werden große Hoffnungen in die Rutenhirse als Lieferant von Cellulose-Ethanol gesetzt. Die Mohrenhirse gilt aufgrund der großen und kohlenhydratreichen Biomasse als aussichtsreiche Energiepflanze zur Biogaserzeugung, vor allem in trockenen Lagen. Nutzungsgeschichte. Die beiden ältesten Funde von Rispenhirse in Deutschland (Nähe Leipzig und Kreis Hadersleben) stammen aus der Zeit der Linienbandkeramik (Altneolithikum 5500–4900 v. Chr.). Im Altertum und Mittelalter zählten die unterschiedlichen Hirsearten zum meistangebauten Getreide. Durch Ausgrabungen in Mittel- und Norddeutschland ist ebenso der Hirseanbau in der vorrömischen Eisenzeit (Hallstatt- und Latènezeit) sowie der römischen Zeit (1.–3. Jahrhundert n. Chr.) belegt. In der frühen Neuzeit wurden sie in Europa durch die Einfuhr von Kartoffel und Mais fast völlig verdrängt. Im Himalayagebiet wird aus verschiedenen Sorten ein schwachalkoholisches Bier gebraut. Auf dem Balkan, in der Türkei und in Zentralasien trinkt man ein schwachalkoholisches Getränk namens Boza, welches (ursprünglich) auf Hirsemalz basiert. Gästen des Hunnenkönigs Attila wurde ausschließlich Hirse gereicht. Um die Gesundheit und Kraft zu stärken, empfahl der griechische Philosoph Pythagoras die Hirse. Wirtschaftliche Bedeutung. Weltweit wurden im Jahr 2013 laut FAO insgesamt 91,3 Mio. t Hirse produziert. Davon entfielen 61,4 Mio. t auf Sorghumhirsen und 29,9 Mio. t auf Millethirsen. Die produzierte Hirse wurde hauptsächlich zu Breinahrung und Futtermittel verarbeitet. Der Hektarertrag ist mit durchschnittlich 11,8 dt/ha (Millet: 9,1 dt/ha, Sorghum: 14,6 dt/ha) von allen Getreidearten der geringste. Dies ist einer der Gründe, weshalb der wesentlich ertragreichere Mais in den traditionellen Hirseanbaugebieten immer populärer wird. Allerdings hat Hirse gegenüber Mais den großen Vorteil, dass die Ernte selbst bei sehr schlechtem Wetter fast nie komplett ausfällt. Hansestadt. Hansestädte sind Städte, die sich dem mittelalterlichen Kaufmanns- und Städtebund der Hanse angeschlossen hatten. Der Verbund der Städte in der Hanse war sehr lose und wurde mit keinem Vertrag o. ä. beschlossen. Deswegen ist schwer zu sagen, welche Städte zu welchem Zeitpunkt zur Hanse gehörten. Auch die Hanse selbst wollte Anzahl und Namen ihrer Städte nie festlegen. So weigerte sie sich zum Beispiel gegenüber dem König von England, eine detaillierte Liste mit Städtenamen vorzulegen – vielleicht auch deswegen, weil es eine solche Liste nie gab. Viele kleine Hansestädte waren ihrer größeren Nachbarstadt zugeordnet und gehörten dieser Stadt an, die wiederum in der Hanse war. Insgesamt gab es rund 200 Orte, die zu irgendeinem Zeitpunkt direkt oder indirekt der Hanse angehörten. Der Zeitpunkt der Betrachtung ist entscheidend, denn Aus- und Eintritte, Zusammenschlüsse und Verfeindungen waren an der Tagesordnung. Beim letzten Hansetag 1669 in Lübeck waren nur noch neun Städte vertreten: Lübeck, Hamburg, Bremen, Braunschweig, Danzig, Hildesheim, Köln, Osnabrück und Rostock. Lübeck, Hamburg und Bremen waren bereits auf den Hansetagen 1629 und 1641 damit beauftragt worden, das Beste zum Wohle der Hanse zu wahren; sie wurden 1669 Sachwalter des Erbes der Hanse, einschließlich der Hansekontore. Diese drei reichsunmittelbaren Städte blieben durch vertragliche Beziehungen verbunden. Sie betrieben gemeinsame konsularische Vertretungen und beschlossen schließlich gemeinsam den Verkauf des Stalhofs in London (1853). Neben dem Titel „Freie Stadt“ führten sie den Beinamen „Hansestadt“ – seit Beginn des 18. Jahrhunderts offiziell und seitdem durchgehend als amtlichen Bestandteil des Landes- bzw. Stadtnamens. Da sie ihre Eigenständigkeit bis ins Deutsche Reich bewahren konnten, bekamen sie 1906 bei der Einführung von Autokennzeichen ein H für „Hansestadt“ vor den Anfangsbuchstaben ihres Namens gestellt: HL, HH, HB. 1980 wurde in Zwolle die „Neue Hanse“ als größte internationale Städtepartnerschaft gegründet. Auch der 1983 in Herford ins Leben gerufene "Westfälische Hansebund" gibt an, hansische Traditionen wiederzubeleben. Seit 1990 führen in Deutschland einige Hansestädte diesen Beinamen auch wieder offiziell zum Stadtnamen (Stand Mai 2014: 21 neu hinzugekommene Städte), sofern die Voraussetzungen des jeweiligen Landes hierfür gegeben sind. Die Farben der Hanseflaggen sind weiß/rot. Hansestadt Bremen (Rathaus, Dom und Bürgerschaft) Städtegruppen innerhalb der Hanse. Wie die Zugehörigkeit zur Hanse waren auch die Städtegruppen ständig Änderungen unterworfen. Meist wurden Städte nach Regionen zusammengefasst, wie die "Drittel" bzw. "Quartiere" des Kontors in Brügge verdeutlichen. So wie Lübeck eine Vormachtstellung innerhalb der Hansestädte innehatte, so nahmen die wendischen Städte innerhalb der Städtegruppen häufig eine Vorreiterrolle ein (siehe auch "Wendischer Münzverein)". "Lübeck, ein Kaufhaus; Köln, ein Weinhaus; Braunschweig, ein Zeughaus; Danzig, ein Kornhaus; Hamburg, ein Brauhaus; Magdeburg, ein Backhaus; Rostock, ein Malzhaus; Lüneburg, ein Salzhaus; Stettin, ein Fischhaus; Halberstadt, ein Frauenhaus; Riga, ein Hanf- und Butterhaus; Reval, ein Wachs- und Flachshaus; Krakau, ein Kupferhaus; Visby, ein Pech- und Teerhaus." Lübeck, Bremen und Hamburg. Bis 1990 trugen lediglich die drei 1669 als Erben der Hanse eingesetzten Städte Lübeck, Bremen und Hamburg auch offiziell den Beinamen „Hansestadt“. Er wurde zu Beginn des 19. Jahrhunderts als Teil des Staatstitels dieser ursprünglich reichsunmittelbaren freien Reichsstädte dem Titel der Freien Stadt, Ausdruck für die Souveränität dieser eigenständigen Stadtstaaten, beigestellt. Während der Zeit des Nationalsozialismus wurde der Zusatz „Freie“, einhergehend mit dem Wegfall jeglicher Eigenstaatlichkeit, abgeschafft. Mit der Gründung der Bundesrepublik nahmen Bremen (Freie Hansestadt) und Hamburg (Freie und Hansestadt) wieder beide Titel als Bezeichnung in ihren Landesnamen auf. Lübeck war durch das Großhamburggesetz seit 1937 nur noch kreisfreie Stadt in Schleswig-Holstein und konnte außer dem Titel „Hansestadt“ den Zusatz „Freie“ nach dem Krieg nicht wiedererlangen (Lübeck-Urteil 1956). Weitere Hansestädte seit der Wiedervereinigung Deutschlands. Nach der Wiedervereinigung benannten sich in historischer Rückbesinnung sechs Städte in Mecklenburg-Vorpommern als Hansestädte, und über die Jahre folgten weitere. Damit führen zum 28. April 2014 24 deutsche Städte die Bezeichnung "Hansestadt" offiziell in ihrem Namen (vor 1990 nur drei). Festgelegt ist dies in den Hauptsatzungen der Städte. Für viele andere ehemalige Hansestädte, unabhängig von ihrer Bedeutung für die historische Hanse, gilt das nicht. Kfz-Kennzeichen. Bei den in einigen Hansestädten vergebenen Kfz-Kennzeichen steht das „H“ vor dem Namenskürzel der jeweiligen Stadt für Hansestadt. 1906 wurde erstmals ein einheitliches System von Kennzeichen für die 25 Bundesstaaten und Elsaß-Lothringen im Deutschen Reich beschlossen. Die drei Bundesstaaten der freien Hansestädte Bremen (HB), Hamburg (HH) und Lübeck (HL) erhielten Buchstabenkürzel, die in dieser Form (mit Unterbrechung) als einzige bis heute bestehen geblieben sind. Mit der Änderung der Kennzeichen nach der Wiedervereinigung erhielten 1991 auch Greifswald (HGW), Rostock (HRO), Stralsund (HST) und Wismar (HWI) ein „H“ im Namenskürzel vorangestellt. Liste der historischen Hansestädte. Hier eine regional gegliederte Liste nach Dollinger von Städten, aus denen Kaufleute zwischen dem 14. und 16. Jahrhundert hansische Privilegien in Anspruch nahmen (teilweise nur kurzzeitig). Von den rund 200 hier aufgeführten Städten betrieben etwa 70 aktiv hansische Politik. Die Mehrzahl der Hansestädte ließ sich (etwa bei den Hansetagen) von einer größeren Nachbarstadt vertreten. Halma. Zwei Kinder mit einem Sternhalma-Spiel (1942) Halma ist ein Brettspiel für bis zu sechs Personen. Es wird heute auf zwei verschiedenen Spielfeldern gespielt, einem sternförmigen ("Sternhalma") oder einem quadratischen Spielfeld (das ursprüngliche Halma). Geschichte. Halma wurde 1883 vom amerikanischen Chirurgen George Howard Monks erfunden; der Name "Halma" stammt aus dem altgriechischen „Sprung“ (vgl. Salta); bei den Olympischen Spielen der Antike war Halma der Weitsprung mit Sprunggewichten. Sternhalma ist eine deutsche Weiterentwicklung des Halmas, die 1892 erschien. Sternhalma ist im Englischen auch als "Chinese Checkers" und im Französischen als "Dames chinoises" (beides bedeutet „Chinesisches Damespiel“) bekannt, was auf einen chinesischen Ursprung hindeuten soll, wahrscheinlich aber ist dieser Name der Idee eines amerikanischen Spieleherstellers zu verdanken, der annahm, dass ein exotischer Hintergrund dem Verkauf zuträglich sein könnte. Wegen der vielen im Spielfeld sichtbaren Dreiecke wird es auch als "Trilma" bezeichnet. Regeln. Quadratisches Spielbrett für 2 und 4 Spieler Quadratisches Halma. Das Spielbrett für quadratisches Halma hat 16×16 quadratische Felder und ist für zwei bis vier Spieler gedacht. Bei drei Spielern ergibt sich ein asymmetrisches Spiel (s.u.). In jeder Ecke befindet sich ein "Haus" oder "Hof" genannter, farblich markierter Bereich. Das Haus umfasst bei zwei Spielern 19 und bei drei oder vier Spielern 13 Felder. Spielfeld für 3er oder 6er Sternhalma Sternhalma. Das Spielbrett für Sternhalma kann mit 2 bis 6 Spielern bespielt werden. Bei fünf Spielern ergibt sich aber auch hier ein asymmetrisches Spiel (s.u.). Das Sternhalma hat 121 in einem Dreieckgitter angeordnete Felder, die zusammen die Form eines sechszackigen Sterns bilden. Jedes Feld grenzt an bis zu sechs andere Felder. Die Felder an den Spitzen des Sterns bilden hier ein Haus und umfassen bei zwei oder drei Spielern 15 und bei mehr als drei Spielern zehn Felder. Weil die Felder im Unterschied zum quadratischen Halma rein geometrisch keine Flächen, sondern Punkte auf einem Gitter sind, gibt es 24 Felder, welche den Rand zu einem Haus bilden. Startaufstellung und Spielziel. In der Ausgangsposition stehen die Spielsteine (die sogenannten "Halmakegel" oder Pöppel) einer Partei je in einem „Haus“. Beim quadratischen Halma 19 bzw. 13 Steine und beim sternförmigen Feld 15 (drei Spieler) oder 10 (sechs Spieler), wobei bei 10 Steinen die Felder am Rand zum mittleren Sechseck frei bleiben. Ziel ist es, sämtliche eigenen Spielsteine in das gegenüber liegende „Haus“ zu bringen. Sieger ist, wem dies zuerst gelingt. Daraus ergibt sich, dass bei quadratischem Halma zu zweit und Sternhalma zu dritt das Zielhaus leer ist, während bei vier oder sechs Spielern das Ziel zu Beginn mit den Steinen eines anderen Spielers besetzt ist. Zugregeln. Die Regeln beim quadratischen Spielfeld sind die gleichen wie beim sternförmigen Halma. Bei Halma werden keine Figuren geschlagen. Reihum hat jeder einen Spielzug. Bei jedem Spielzug darf eine Spielfigur bewegt werden. Entweder kann sie auf ein angrenzendes freies Feld gezogen werden oder sie kann eigene oder gegnerische Spielfiguren in gleicher Richtung überspringen, vorausgesetzt, dahinter ist ein leeres Feld. Falls von diesem Feld aus weitere Spielfiguren übersprungen werden können, darf dies ebenfalls ausgeführt werden. Auf diese Weise können lange Sprungfolgen entstehen, mit denen man mit einem einzigen Spielzug unter Umständen das ganze Spielfeld überqueren kann. Beim quadratischen Halma muss vor dem Spiel geklärt werden, ob Züge und/oder Sprünge auch diagonal ausgeführt werden dürfen. Strategie. Halmaspieler versuchen, Bahnen für möglichst lange Sprungfolgen zu erkennen und zu entwickeln. Gleichzeitig verbaut man dem Gegner solche Bahnen. Da solche Bahnen von allen Spielern genutzt werden können, bekommt mit der Errichtung einer Bahn auch der Gegner einen Vorteil. Das gilt besonders für Spiele mit jeweils zwei in Gegenrichtung spielenden Personen. Zusätzliche strategische Betrachtung. Ferner ist darauf zu achten, dass kein Stein nur durch Springen "alle" Felder des Ziel-„Hauses“ erreichen kann, da die Sprung-erreichbaren Felder sich in einem Zweier-Gitter befinden; dadurch hat jeder Spieler Steine verschiedener „Sorten“, die auf verschiedene Felder-„Sorten“ im Ziel-„Haus“ gehören. Dabei sind im Ziel-Haus jeweils die Feldersorten in derselben Anzahl vorhanden wie im gegenüberliegenden Ausgangs-Haus. Wer also einen Stein "zieht", anstatt zu springen, verwandelt ihn in einen Stein einer anderen „Sorte“ und muss ihn (oder einen anderen Stein) mindestens noch einmal "ziehen", damit er seine alte „Sorte“ wieder erhält. Vieles Ziehen (anstatt Springens) hält eine Partei also stärker auf, als nur während dieses einen Spielzugs; auch muss man stets im Auge behalten, wie viele Steine welcher „Sorte“ man im Augenblick hat, obwohl sie alle gleich aussehen. Während beim Sternhalma die Anzahl der Felder je Sorte im Start- und Zielhaus gleich sind, ist das beim quadratischen Halma nicht so. Asymmetrische Spielerzahlen. Will man Halma zu dritt auf dem quadratischen Feld spielen (mit je 13 Steinen), so ergeben sich unterschiedliche Bedingungen zwischen dem Spieler, welcher dem leeren Haus gegenüber anfängt, und den beiden anderen, welche gegeneinander laufen. Dieser Spieler ist bei den meisten Strategien benachteiligt, da die beiden anderen viel häufiger die gleichen Steine für Sprungfolgen nutzen können. Hier empfiehlt sich entweder das Sternhalma zu nutzen oder das Spiel dreimal zu spielen, wobei jeder einmal diese „Mittelposition“ einnimmt. Ähnliches gilt für Sternhalma mit fünf Spielern (mit je 10 Steinen). Fortentwicklungen. Mit einer einzigen Zusatzregel und leicht geändertem Brett (vorgeschlagen von Eric Solomon) entsteht aus dem quadratischen Halma ein ähnlich anspruchsvolles Spiel, Billabong. Weitere Fortentwicklungen sind die Brettspiele Salta und "Überläufer" von Selecta. Literatur. Erwin Glonnegger: "Das Spiele-Buch: Brett- und Legespiele aus aller Welt; Herkunft, Regeln und Geschichte". Drei-Magier-Verlag, Uehlfeld 1999, ISBN 3-9806792-0-9. Heinrich IV. (Schlesien). Heinrich IV. (auch "Heinrich der Gerechte",; * um 1256; † 23. Juni 1290) war ab 1270 Herzog von Breslau. Ab 1288 Herzog in Krakau und somit (als Heinrich III.) Seniorherzog (Princeps) von Polen. Herkunft und Familie. Heinrich entstammte der Linie der Dynastie der schlesischen Piasten. Seine Eltern waren Herzog Heinrich III. von Schlesien († 1266) und Jutta von Masowien († nach 1257). Heinrichs einzige Schwester war Hedwig (* 1252/56; † vor 14. Dezember 1300). Sie heiratete 1271/1272 Heinrich, den ältesten Sohn Markgraf Albrechts des Entarteten, und nach dessen Tod 1283 Otto von Anhalt. Heinrich war in erster Ehe seit 1278 mit Konstanze († 1351), einer Tochter Wladislaus I. von Oppeln verheiratet, die er um 1286 aus nicht bekannten Gründen verstieß. 1287 vermählte er sich mit Mechthild († ~ 1290/98), Tochter des Markgrafen Otto von Brandenburg, der ein Sohn des Otto III. von Brandenburg war. Die Ehe blieb kinderlos. Leben. Denkmal Heinrichs IV. von Breslau Heinrichs Großmutter war Anna von Böhmen. Wohl deshalb wurde er in Prag erzogen, wo er unter dem Einfluss des Königs Ottokar II. Přemysl stand. Sein Herzogtum beschränkte sich auf den östlichen Teil Niederschlesiens mit Breslau. Nach dem Tod seines Vaters 1266 übernahm dessen Bruder Wladislaw von Schlesien die vormundschaftliche Regierung über Heinrich und dessen Herzogtum. Dieser starb 1270 und bestimmte testamentarisch Heinrich zu seinem Alleinerben. Neuer Vormund Heinrichs, der bis 1273 meist am Prager Hof weilte, wurde König Ottokar. 1271 beteiligte sich Heinrich an einem Feldzug Ottokars nach Ungarn. 1272 bestimmte er Breslau zur Hauptstadt Schlesiens und verlieh ihr große Privilegien. Seit 1274 führte er den Titelzusatz „Herr von Breslau“. Nach Erlangung der Volljährigkeit kämpften Heinrichs Hilfstruppen 1276 gegen Rudolf von Habsburg. Die Schwäche Ottokars nach der Niederlage ausnutzend, wurde Heinrich am 18. Februar 1277 von seinem Onkel Boleslaw II. in Jeltsch gefangen genommen, auf die Burg Lähnhaus verschleppt und erst am 22. Juli 1277 nach Abtretung der Gebiete Neumarkt und Striegau frei gelassen. Nach dem Tod des Königs Ottokar 1278 machte sich Heinrich Hoffnungen auf die Regentschaft in Böhmen. 1280 leistete er als erster schlesischer Herzog für sein Land den Lehnseid und erhielt dieses als Reichsfürst von Rudolf von Habsburg als Lehen zurück. Vermutlich aus Dankbarkeit wies ihm Rudolf zudem das Glatzer Land zu lebenslangem Genuss an. Mit dem Breslauer Bischof Thomas II. führte er einen Immunitätsstreit, bei dem es auch um die Zehntzahlungen der deutschsprachigen Dörfer ging. 1274 nahm Heinrich am Konzil von Lyon teil, wo er sich über Bischof Thomas beschwerte. Da der Klerus auf seiner Seite stand, konnte er seine Stellung behaupten, obwohl er zeitweise gebannt war. Auf Anraten des Meißner Propstes und späteren Bischofs Bernhard von Kamenz, der seit 1279 als Heinrichs Kanzler fungierte, verpfändete Heinrich als Wiedergutmachung dem Bischof am 6. September 1281 Zuckmantel und die Burg Edelstein, von der aus Nikolaus I. von Troppau vorher das Neisser Bistumsland verwüstet hatte. Doch schon ein Jahr später führten Heinrich und Thomas einen neuen Streit um den Zehnten, der dazu führte, dass Heinrich aufgrund eines Schiedsspruchs dem Bischof 65 namentlich aufgeführte Dörfer im Grenzwaldgebiet abtreten sollte. 1284 besetzte Heinrich diese Dörfer und beanspruchte deren Steuern und Einkünfte für sich und zog damit den bischöflichen Bann auf sich. Auch die Synode von Łęczyca 1285 sprach über Heinrich das Interdikt aus. Der polnische Episkopat war gegen ihn, weil sich die deutschen Ansiedler gegen die Erhebung des Peterspfennigs wandten. Auch nationale Antipathien gegen die schlesisch-deutschen Minoriten sollen eine Rolle gespielt haben. Nach dem Tode des Krakauer Herzogs Leszek II. 1288 erlangte Heinrich mit dem Einfluss der deutschen Bürgerschaft von Krakau die Krakauer Herzogswürde, die er gegen Władysław I. Ellenlang von Kujawien und Bolesław von Płock verteidigen musste. Nachdem ihm die Burg übergeben worden war, kehrte er nach Breslau zurück. Am 11. Januar 1288 versöhnten sich Heinrich und Bischof Thomas in Breslau. Heinrich stiftete die reich ausgestattete Kollegiatkirche zum Hl. Kreuz auf der Dominsel. Zur Ausstattung gehörten auch 17 Kanonikerstellen. Im selben Jahr beendete er den Streit um das Lebuser Land mit Brandenburg, um für den Erbkrieg um die polnische Seniorwürde gegen seine Verwandten, die Piasten Władysław I. Ellenlang von Kujawien und Przemysław II. von Großpolen frei zu sein. 1289 nahm er das Herzogtum Kleinpolen-Krakau endgültig in Besitz. Dadurch wurde er Senior von Polen und markierte so einen letzten Höhepunkt der Herrschaft der schlesischen Piasten in Polen. Kurz vor seinem Tod erteilte Heinrich der Kirche jenes Privileg, mit dem er dem Bistum dessen Güter und Besitzungen bestätigte und für das Neisser-Ottmachauer Gebiet die Landeshoheit gewährte. Die damit verbundene Machtposition der schlesischen Kirche führte in den folgenden Jahrhunderten immer wieder zu Auseinandersetzungen zwischen den Herzögen und der Kirche. Da Heinrich keine leiblichen Nachkommen hatte, erbte das Herzogtum Breslau testamentarisch Heinrich III. von Glogau. Infolge des Widerstands der Breslauer Bürger fiel es jedoch an Heinrich von Liegnitz. Erbe von Krakau und Sandomir wurde Przemysław II. Die Vermutung, Heinrich sei vergiftet worden, ist nicht belegt. Sein Leichnam wurde in der Kreuzkirche von Breslau beigesetzt. Codex Manesse. Wenige Jahre nach seinem Tod wurde Heinrich in der Heidelberger Liederhandschrift verewigt. Unter seinem Namen "Heinrich von Pressela" wurden dort zwei deutsche Minnelieder und eine Turnierszene überliefert. Heinrich der Seefahrer. Heinrich der Seefahrer (* 4. März 1394 in Porto; † 13. November 1460 in Sagres; portugiesisch Infante Dom Henrique de Avis'") war Initiator, Schirmherr und Auftraggeber der portugiesischen Entdeckungsreisen in der ersten Hälfte des 15. Jahrhunderts. Die von ihm initiierten Entdeckungsfahrten entlang der westafrikanischen Küste begründeten die portugiesische See- und Kolonialmacht und stellen den Beginn der europäischen Expansion dar. Leben. Heinrich war der vierte Sohn des portugiesischen Königs Johann I. und seiner Frau Philippa of Lancaster, Bruder von Ferdinand dem Heiligen und des portugiesischen Königs Eduard I. 1415 eroberte eine Flotte unter seiner Führung die nordafrikanische Stadt und Festung Ceuta. Dafür wurde er zum Herzog von Viseu ernannt. Ab 1420 war er weltlicher Administrator des Christusordens. Königliche Abstammung und seine Ämter verhalfen ihm zu beträchtlichen finanziellen Mitteln, die er zur Förderung der Seefahrt verwendete. 1437 kommandierte er noch einmal einen Kriegszug, um den Mauren Tanger zu entreißen, diesmal allerdings erfolglos. Dass er eine Seefahrtsakademie ("escola náutica") gegründet habe, war eine Erfindung späterer Jahrhunderte, die portugiesische Historiker seit längerem nicht mehr vertreten. Das Wappen Heinrichs des Seefahrers. In den Jahren 1427 bis 1432 wurden von den Schiffen Heinrichs die Azoren entdeckt und besiedelt. Danach machte sich Heinrich daran, die Kanarischen Inseln in portugiesischen Besitz zu bringen. Dazu ging er zunächst den diplomatischen Weg, indem er an Kastilien die Forderung stellte, Portugal das Recht zur Besetzung dieser Inselgruppe einzuräumen. Als dies nicht fruchtete – Kastilien beharrte auf seine Oberhoheit über die Inseln – wandte er sich 1433 direkt an den Papst und dieser entsprach, offensichtlich in Unkenntnis der kastilischen Ansprüche, Heinrichs Ersuchen. Darauf erhielt Heinrich von seinem Bruder Duarte, der als Nachfolger des im August verstorbenen Johann I. den Thron bestiegen hatte, weitgehende Verfügungsrechte über die Kanarischen Inseln. Heinrich selbst unternahm keine Entdeckungsreisen. Seinen Beinamen verdankt er seinem Einsatz als Förderer der Seefahrt. Er war sehr belesen und kannte die Berichte früher Entdeckungsreisender nach Asien wie Marco Polo, Wilhelm von Rubruk oder des arabischen Weltreisenden Ibn Battuta. Das arabische Reisebuch des letzteren wurde allerdings erst im 19. Jahrhundert in Europa bekannt. Die Entdeckungsfahrten. Portugiesische Karavelle des 16. Jahrhunderts Als Gouverneur der Algarve initiierte Heinrich ab 1418 ein ehrgeiziges Programm zur Erschließung eines Seewegs nach Indien. Der Prinz veranlasste zahlreiche Entdeckungsfahrten entlang der afrikanischen Küste, die hauptsächlich mit Schiffen vom Typus der Karavelle erfolgten. Die dabei gewonnenen Kenntnisse in Navigation, Kartografie und Schiffbau waren grundlegend für alle folgenden portugiesischen Entdeckungsfahrten. Von Beginn an waren die portugiesischen Piloten und Kapitäne verpflichtet, alle auf ihren Reisen gesammelten und für die Navigation bedeutsamen Erfahrungen und Erkenntnisse in geheimen Logbüchern, den "Roteiros", festzuhalten. In der zweiten Hälfte des 15. Jahrhunderts verwendeten die Portugiesen bereits den Quadranten: Durch Bestimmung der Höhe des Polarsterns konnte die geografische Breite berechnet werden. Bis zum Tode des Infanten wurden mehr als 2000 Seemeilen westafrikanischer Küstengewässer befahren und kartografiert. Die Beweggründe Heinrichs des Seefahrers waren vielfältiger Natur. Zum einen erhoffte man sich, die Araber im Handel mit Pfeffer, Gold, Elfenbein und Sklaven zu umgehen oder auszuschalten, zum anderen ging es dem Prinzen um die Förderung und Ausbreitung des christlichen Glaubens. Dabei suchte man nach dem sagenhaften christlichen Priesterkönig Johannes, der noch vor der Zeit Heinrich des Seefahrers mal in Asien, mal in Afrika vermutet wurde. Mit dessen Hilfe wollte man den Islam zurückdrängen. Diese Vorstellungen wichen aber schon zu seinen Lebzeiten kommerziellen Gesichtspunkten. 38 Jahre nach Heinrichs Tod führten seine Vorleistungen zur Entdeckung des Seewegs nach Indien durch Vasco da Gama, zur Erschließung des Seeweges um Afrika nach Hinterindien und damit zur Weltmachtstellung Portugals. Casa da Índia. Die Casa da Índia war sowohl die Zentralbehörde für die Verwaltung aller Territorien in Übersee des portugiesischen Königreiches als auch der zentrale Warenumschlagplatz bzw. die Verrechnungsstelle für alle Bereiche des Überseehandels. Als Wirtschaftseinrichtung funktionierte sie dabei wie eine Faktorei bzw. eine Handelsniederlassung. Die Vorläufer der Casa da Índia entstanden im Gefolge der portugiesischen Entdeckungsfahrten entlang der afrikanischen Küsten und den damit verbundenen Handelsmöglichkeiten. Bereits 1434 wurde die "Casa de Ceuta" in Lissabon gegründet. Sie war jedoch wenig erfolgreich, da die Muslime nach der portugiesischen Eroberung von Ceuta im Jahre 1415 die mit der Stadt verbundenen Handelswege und Warenströme in andere Orte verlegten. Um 1445 folgten in Lagos an der Algarve die Gründungen der "Casa de Arguim" beziehungsweise "de Guiné", die beide, auch als "Companhia de Lagos" bezeichnet, der Entwicklung des portugiesischen Handels mit Westafrika dienten. Nach dem Tode Heinrich des Seefahrers wurde in den sechziger Jahren des 15. Jahrhunderts beide Häuser nach Lissabon verlegt und später in der "Casa da Guiné e da Mina" zusammengeführt. Wichtige Entdeckerleistungen unter Heinrich dem Seefahrer. a> zeigt Heinrich als Anführer der portugiesischen Entdecker. Bei Landnahmen auf ihren Entdeckungsreisen waren die Kapitäne verpflichtet, einen an Bord mitgebrachten so genannten Padrão (eine steinerne Säule mit dem Wappen des portugiesischen Königs und Inschriften) aufzustellen. An markanten neuentdeckten Punkten wie Kaps oder Flussmündungen mussten die Kapitäne unter das Christuskreuz und das Wappen von Portugal noch Namen und Datum in den Stein meißeln. Denkmäler. Eine Statue ist im Padrão dos Descobrimentos bei Lissabon zu sehen; dieser wurde 500 Jahre nach seinem Tode gebaut. In der portugiesischen Stadt Lagos steht seit 1960 ein Denkmal für Heinrich auf der Praça da República (Platz der Republik; auch Praça do Infante Henrique genannt). Die Hauptstadt von Osttimor, Dili, ehrt Heinrich mit einem Denkmal vor dem Regierungspalast. Kogge. Die Kogge war ein Segelschiffstyp der Hanse, der vor allem dem Handel diente, in Zeiten militärischer Auseinandersetzungen der Hansestädte mit Piraten u. a. aber auch mit Kanonen ausgestattet werden konnte. Sie hat einen Mast und ein Rahsegel. Knapp unterhalb der Mastspitze war manchmal ein "Krähennest" genannter Ausguck angebracht. Achtern (hinten) besaßen Koggen das "Achterkastell" und im Verlauf des 14. Jahrhunderts kam am Bug (Schiffsspitze) häufig ein "Bugkastell" hinzu. Ursprung und Eigenschaften. Vier Kogge-Nachbauten beim Hamburger Hafengeburtstag 2007 Der Schiffstyp der frühen Kogge ist ein Produkt des Verschmelzens zweier verschiedener frühmittelalterlicher Schiffbautraditionen. Ein Entwicklungszweig lässt sich über die koggetypischen Kalfatklammern, auch Sinteln genannt, in den friesischen Raum zurückverfolgen. Als Bestandteil der Kalfaterung, bei der die Zwischenräume zwischen den hölzernen Bauteilen des Schiffes, vor allem der Planken, mit Pech und Werg verschlossen wurden, dienten sie dem Abdichten des Schiffes. Älteste Funde von Sinteln stammen aus der Zeit um 900 n. Chr. aus dem Niederrheingebiet. Erste historische Quellen über einen Schiffstyp „cog“ finden sich aus dieser Zeit ebenfalls am Niederrhein. Damit dürften flachbodige und kiellose, also wattenmeertaugliche Handelsschiffe gemeint sein, mit denen Waren beispielsweise bis nach Hollingstedt (Treene) und Stade an der Unterelbe transportiert wurden. Auch dort konnten bei Ausgrabungen zahlreiche wikingerzeitliche Sinteln geborgen werden. Von Hollingstedt aus gelangte spätestens Anfang des 12. Jahrhunderts diese friesische Schiffbautradition der wichtigsten Handelsroute Nordeuropas folgend über das nur 16 km östlich gelegene Schleswig in den Ostseeraum. Hier am Ende der Schlei, einst Drehscheibe des nordeuropäischen Handels, baute man traditionell seit Jahrhunderten Hochseeschiffe nach skandinavischer Bautradition. Der dadurch bedingte Raubbau an den umliegenden Wäldern und das stetig steigende Warenaufkommen verlangten nach einem Schiffstyp, der sehr viel merkantilere Züge trug als die traditionellen skandinavischen Handelsschiffe, die zwar hervorragende Segeleigenschaften auch auf hoher See besaßen, aber mit ihren radial aus Eichenstämmen gespaltenen Planken einen enormen Holzbedarf aufwiesen und außerdem durch das Bitensystem (querlaufende Verstrebungen) des Rumpfes zunächst einen vergleichsweise stark eingeschränkten Laderaum besaßen. Die frühen Koggen des 12. Jahrhunderts, wie man sie beispielsweise aus Kollerup (DK) kennt, besaßen bereits Planken, die tangential aus dem Stamm gespalten wurden. Der Rumpf war sehr bauchig mit einem durchgängigen großen Laderaum. Die Planken der Bordwände waren geklinkert (Klinkerbauweise), die des Bodens auf Stoß (Kraweelbauweise) gesetzt. Die Plankenverbindungen wurden koggentypisch mit doppelt umgeschlagenen Nägeln, den so genannten Spiekern geschaffen. Die Kalfaterungsnaht wird mit Hilfe von Sinteln geschlossen. Auch sonst trägt das Schiff mit gerade aufragenden Steven und einem Mast mit Rahsegel andere typische Merkmale einer Kogge. Die im Vergleich zum skandinavischen Frachtschiff geringeren Bauzeiten und Baukosten wie auch die Nutzlast dieses neuen Schifftyps waren ganz den wachsenden wirtschaftlichen Bedürfnissen angepasst. Nach Ansicht führender Schiffsarchäologen zeigt sich bei dieser frühen Kogge erstmals der Entwicklungsschritt vom wattenmeertauglichen Küstenschiff zum hochseetüchtigen Handelsschiff. Es trägt zusätzlich eindeutige skandinavische Züge. Damit wird deutlich, dass dieser neue Schiffstyp in einer Kontaktzone friesischer und skandinavischer Schiffsbautradition, wie es in Schleswig gut belegt der Fall war, entwickelt worden sein muss. Nach den dendrochronologischen Untersuchungen ist das Holz in Südjütland etwa im Gebiet zwischen Schleswig und Hadersleben (DK) geschlagen worden. Da unter anderem auch aus Schleswig die bislang ältesten Funde von Sinteln des gesamten Ostseeraumes vorliegen, verdichten sich die Hinweise, dass der Entwicklungsschritt zur hochseetauglichen „Proto“-Kogge in Schleswig vollzogen worden sein kann. Damit wurde der Grundstein für den bedeutendsten Schiffstyp des Spätmittelalters gelegt, der als Lastesel der Hanse wesentlich zum Erfolg der Handelsmacht beigetragen hat. Die Länge der spätmittelalterlichen Koggen betrug etwa 20–30 m, die Breite 5–8 m. Die Tragfähigkeit lag – je nach Größe – bei 40 bis 100 Lasten, entsprechend 80 bis 200 Tonnen Gewicht. Die Segelfläche lag bei ca. 200 m². Die Geschwindigkeit betrug nach Versuchen mit nachgebauten Koggen etwa 3,5 Knoten bei Windstärke 3 und 6 Knoten bei Windstärke 6. Koggen konnten also auch bei mäßigem Wind schneller fahren als Fuhrwerke auf dem Land. Probleme gab es jedoch bei Gegenwind. Kreuzen war wohl nur bei schwachem Wind möglich, da die Schiffe für ihre Länge relativ breit waren. Dafür konnte eine Kogge mit vergleichsweise kleiner Besatzung große Mengen Fracht transportieren. Koggen waren bis zum Ende des 14. Jahrhunderts der wichtigste größere Schiffstyp der Hanse. Deren Handelsflotte umfasste zu dieser Zeit insgesamt ca. 100.000 Tonnen Tragfähigkeit. Im ausgehenden 14. Jahrhundert wurden die Koggen mehr und mehr vom ähnlichen Holk, danach vom Kraweel abgelöst. Funde von Koggen. 1962 wurde mit der Bremer Kogge eine Kogge in der Weser bei Bremen gefunden. Anhand dieses Fundes konnte erstmals der Riß einer Kogge, insbesondere der Längsschnitt von Kiel (Schiffbau) und Steven authentisch belegt werden. Überreste einer Kogge im Kolding-Fjord an der Ostküste Jütlands (DK) wurden erstmals 1943 entdeckt. Einzelne Teile wurden im selben Jahr geborgen, vermessen und wieder an Ort und Stelle deponiert. Das Wissen um die Position der Wrackstelle und der Teile ging verloren. 1999–2000 konnte die Stelle wiederentdeckt werden. 2001 erfolgte eine Bergung des Schiffes. Die Planken wurden dendrodatiert auf den Winter 1188–1189. Das Schiff dürfte ca. 16 m lang gewesen sein. Zurzeit findet eine Konservierung im Koldinghus Museum statt. 1978 entdeckte man in den Dünen beim dänischen Kollerup an der nordwestjütischen Jammerbucht die gut erhaltenen Überreste einer frühen Kogge. Das verwendete Eichenholz wurde nach dendrochronologischen Untersuchungen um 1150 in Südjütland, etwa im Raum zwischen Schleswig und Hadersleben geschlagen. Dieser Schiffsfund ist der bisher älteste vom Typ einer Kogge. Offensichtlich hatte man eine der frühen Umlandsfahrten um Kap Skagen gewagt und ist hierbei gescheitert. Länge: ca. 20,9 m. Breite: ca. 4,92 m. Tiefgang: ca. 1,35 m. 1983 konnten im Polder beim Niederländischen Ort Nijkerk die Überreste einer Kogge aus dem Jahre 1336 freigelegt werden. Der Boden, in dem sich das Holz erhalten hatte, war der vormalige Grund der an dieser Stelle trockengelegten Zuiderzee. Der Fund diente als Vorlage für den 1997 angefertigten, heute im Niederländischen Kampen liegenden Koggennachbau Kamper Kogge. 2004 hat das Schiff seine Seetauglichkeit bei einer Fahrt bis in die Ostsee unter Beweis gestellt. 1990 wurden am Parnu in Estland Überreste einer kleinen Kogge von etwa 8,5 m Länge und 3,5 m Breite geborgen. Mit Hilfe der C14-Methode wurde das Wrack in den Zeitraum zwischen 1250 und 1330 n. Chr. datiert. Scherben von importierter Keramik aus dem Rheinland als Teil der Ladung stammen aus dem 14. Jahrhundert. 1991/92 wurde in einer Tiefe von 14 Metern unter der Schlachte, dem alten Hafengelände Bremens, ein koggeähnliches Schiff gefunden und teilweise geborgen, das auf Basis eines flach ausgehöhlten Eichenstamms mit vielen Halbspanten errichtet war und ein Heckruder trug. Diese „Proto-Kogge“ ist das weltweit erste Schiff dieses Typs. Die dendrochronologische Untersuchung ergab das Jahr 1100 als Bauzeit, was die Ergebnisse der C14-Datierung bestätigte. Im Jahr 1997 wurde vor der Insel Poel in Mecklenburg das Wrack eines Schiffs entdeckt, das zunächst auf das Jahr 1354 datiert wurde (Poeler Kogge). Nach einer neueren Untersuchung soll dieses wohl in Finnland gebaute Schiff aber wesentlich jünger sein und aus dem Jahr 1773 stammen, somit handelt es sich sehr wahrscheinlich nicht um eine Kogge. Ein Rekonstruktionsversuch auf Grundlage der Koggendeutung ist inzwischen in Wismar fertiggestellt worden und wurde auf den Namen Wissemara getauft. Eine große und gut erhaltene Kogge wurde 2000 in Doel, einem Ortsteil der belgischen Gemeinde Beveren, gefunden: ca. 20 Meter lang und 7 Meter breit. Das für den Bau des Schiffs verwendete Eichenholz wurde nach dendrochronologischen Untersuchungen im Winter 1325–1326 in Westfalen geschlagen. Der Rumpf dieser frühen Kogge ist in Klinkerbauweise ausgeführt. Die Doeler Kogge versank aus unbekannten Gründen um 1404 in einem Scheldearm. Das Wrack kam während der Bauarbeiten am Deurganck-Containerterminal des Antwerpener Hafens ans Tageslicht. Nach Abschluss von Konservierungsarbeiten wird es im Schifffahrtsmuseum in Baasrode, einem Ortsteil der belgischen Stadt Dendermonde, ausgestellt werden. Bedeutung des Wortes Kogge. Die Forschung ist sich über die Herkunft (bzw. Bedeutung) des Wortes Kogge (früher auch "der Koggen") noch nicht einig. Einige Sprachforscher stellen ihn zu lat.-frz. cocca ‚Muschel‘, andere wegen der gedrungenen Form im Hochmittelalter zu dem Wortstamm für Kugel oder rundliches, gewölbtes Gefäß (Kog, Kuggon). Eine weitere Erklärung wird in der Ableitung von einem Wort für einen Pfahl oder Kegel (Kag, Kaak) gesucht, was auf den Einbaum als Ursprung zurückführen würde. Eine ganze Reihe von weiteren Schiffsbezeichnungen ist von Wörtern abzuleiten, die etwas Gespaltenes bezeichnen. Dieses Gespaltene bezeichnet entweder den der Länge nach gespaltenen Einbaum, der mit Planken bzw. Bohlen verbreitert wurde, oder die Bohlen selbst, die auch zur Erhöhung der Bordwand dienten. In dieser Hinsicht erscheint die Herleitung von lateinisch cōdicāria ‚gespaltenes Holz‘ einleuchtend. Trivia. Im Vereinsemblem des Fußballvereins Hansa Rostock ist als zentrales Element eine Kogge abgebildet, woraus sich auch der Spitzname "Hansa-Kogge" des Vereins ableitet. Hanse. Hanse () – auch "Deutsche Hanse" oder "Düdesche Hanse", – ist die Bezeichnung für die zwischen Mitte des 12. Jahrhunderts und Mitte des 17. Jahrhunderts bestehenden Vereinigungen niederdeutscher Kaufleute, deren Ziel die Sicherheit der Überfahrt und die Vertretung gemeinsamer wirtschaftlicher Interessen besonders im Ausland war. Die Hanse war nicht nur auf wirtschaftlichem, sondern auch auf politischem und kulturellem Gebiet ein wichtiger Faktor. Eine Entwicklung von der „Kaufmannshanse“ zu einer „Städtehanse“ lässt sich spätestens Mitte des 14. Jahrhunderts mit erstmaligen nahezu gesamthansischen Tagfahrten (Hansetagen) festmachen, in denen sich die Hansestädte zusammenschlossen und die Interessen der niederdeutschen Kaufleute vertraten. Die genaue Abgrenzung zwischen „Kaufmannshanse“ und „Städtehanse“ ist jedoch umstritten. Die Farben der Hanse (weiß und rot) finden sich heute noch in den Stadtwappen vieler Hansestädte. In den Zeiten ihrer größten Ausdehnung waren beinahe 300 See- und Binnenstädte des nördlichen Europas in der Städtehanse zusammengeschlossen. Eine wichtige Grundlage dieser Verbindungen war die Entwicklung des Transportwesens, insbesondere zur See, weshalb die Kogge zum Symbol für die Hanse wurde. Durch Freihandel gelangten viele Hansestädte zu großem Reichtum, was sich bis heute an zahlreichen bedeutenden Bauwerken ablesen lässt. „Hanse“ oder „Hänse“ nannten sich auch andere Kaufmannsverbünde bis nach Österreich, unabhängig von der „großen“ norddeutschen Hanse. Bei ihnen handelte es sich in der Regel nicht um politische Bünde zwischen Städten und Territorien, sondern um Bruderschaften, denen einzelne Händler beitraten. Oft waren solche Bünde auf einen bestimmten Jahrmarkt ausgerichtet und übernahmen während dessen Dauer wirtschaftliche Kontrollfunktionen, wie sie in größeren Städten von den Zünften durchgeführt wurden. Politische Geschichte. Die Hanse war über lange Zeit eine politische Macht ersten Ranges. Obwohl ihre Mitglieder nicht souverän waren – sie verblieben jeweils unter der Herrschaft unterschiedlicher weltlicher und kirchlicher Gewalten –, war sie wirtschaftlich und militärisch erfolgreich. Anfang und Ende der Hanse sind schwer zu bestimmen. Entstehung der Kaufmannshanse (bis etwa 1250). Die Deutsche Hanse hat sich im 12. Jahrhundert aus den Gemeinschaften der Ost- und Nordseehändler entwickelt. Allgemein wird die Gründung Lübecks, der ersten deutschen Ostseestadt, im Jahr 1143 als entscheidend für die Entwicklung der Hanse angesehen. Der Ostseezugang ermöglichte einen Handel zwischen den rohstoffreichen Gebieten Nordrusslands (z. B. Getreide, Holz, Wachs, Felle, Pelze) und den Ländern Westeuropas mit seinen Fertigprodukten (z. B. Tuche, Wein). Verschiedene Vorschläge für das Gründungsjahr. Es gibt kein Gründungsdatum der Hanse. Sie ist entstanden und gewachsen. Nicht einmal die Zeitgenossen scheinen klare Vorstellungen darüber gehabt zu haben. 1418 wandte sich der Rat der Hansestadt Bremen in einem Streit mit Hamburg an Köln mit der Bitte um eine Abschrift der Gründungsurkunde der Hanse. Die Antwort aus Köln lautete, dass sie vergeblich nach der geforderten Schrift "van der fundatacien der Duytzschen hensze" gesucht hätten, aber weitersuchen und den Bremern die gewünschte Abschrift schicken würden, sobald sie fündig geworden seien. Bei der frühen Hanse handelte es sich um den freien Zusammenschluss von Kaufleuten, die den Schutz der Gruppe für die gefahrvolle Reise suchten und ihre Interessen gemeinsam an den Zielorten besser vertreten konnten. Dazu fanden sich die Kaufleute einer Stadt oder einer Region zusammen, die in einer Fahrgemeinschaft reisten. Die frühesten Belege für solche organisierten deutschen Handelsgruppen liegen für das Auftreten Kölner Kaufleute in London vor. Neben den Deutschen waren bereits flandrische Kaufleutegruppen in London vorhanden. Diese Organisationsform bedeutet unter anderem, dass man zunächst nicht von „der“ Hanse oder von einer „Gründung“ der Hanse sprechen kann, da es lediglich einzelne Gruppen waren, die ihre jeweiligen Partikularinteressen verfolgten (und auch in späterer Zeit verfolgen sollten). In der älteren Forschung wird als Gründungsjahr der Hanse häufig neben der Neugründung 1143 bzw. dem Wiederaufbau Lübecks im Jahre 1159 auch die erste überlieferte Erwähnung eines deutschen Kaufmannsbundes 1157 in einer Londoner Urkunde genannt. Philippe Dollinger argumentiert für 1159 mit der führenden Stellung der Lübecker Kaufleute während der ganzen Hansezeit. Für 1157 spricht die Tatsache, dass die Hanse anfangs eine Schutzgemeinschaft deutscher Kaufleute im Ausland war und der Erwerb eines Grundstücks bei London zur Errichtung des Stalhofes durch Kölner Kaufleute den ersten uns heute bekannten Beleg für die Existenz der Gemeinschaft bildet. 1160 erhielt Lübeck das Soester Stadtrecht. Dieser Zeitpunkt wird heute von Historikern als der Beginn der "Kaufmannshanse" (im Gegensatz zur späteren "Städtehanse") angesehen. Wichtigstes Argument für diese Position stellt dabei das Artlenburger Privileg von 1161 dar, in dem die Lübecker Kaufleute den bisher im Ostseehandel dominierenden gotländischen Kaufleuten rechtlich gleichgestellt werden sollten. Die Genossenschaft der nach Gotland fahrenden deutschen Kaufleute ("universi mercatores Imperii Romani Gotlandiam frequentam"), der nicht nur lübische Kaufleute angehörten, kann nach Dollinger wohl als Keimzelle der Kaufmannshanse angesehen werden. Die Gründung Lübecks 1143 kann deshalb als einschneidender Faktor für die Entwicklung der Hanse gewertet werden, weil sie die erste deutsche Stadt an der Ostsee mit sicheren Verbindungen zum Hinterland war und damit gleichsam zum „Einfallstor“ niederdeutscher Kaufleute für den Osthandel wurde. Hintergrund für die große Bedeutung des Ostseezugangs war, dass Westeuropa auf diese Weise mit Russland und über Dnepr und Wolga Handel bis in den Orient (Kaspisches Meer, Persien) führen konnte. Zur Zeit der Goldenen Horde wurde der Handel mit Mittelasien und China verstärkt. Umgekehrt orientierte sich der nordrussische Handel über die Ostsee nach Westen, was die Entwicklung einer Ost-West-Handelsverbindung zwischen den rohstoffreichen Gebieten Nordrusslands (Getreide, Wachs, Holz, Pelze, vor allem über Nowgorod) und den Fertigprodukten Westeuropas (u. a. Tuche aus Flandern und England) ermöglichte. Nebenbei wird die Christianisierung der Skandinavier, die noch im frühen 12. Jahrhundert den Ostseehandel dominierten, zur Einbindung der Ostsee in den europäischen Handel beigetragen haben. Mit dem Zugang deutscher Kaufleute zur Ostsee konnten diese eine Handelsroute etablieren, welche die wichtigen Handelszentren Nowgorod und Brügge nahezu vollständig unter ihrem Einfluss miteinander verband. Gotländische Genossenschaft. Ab dem 12. Jahrhundert wurde der Ostseeraum im Rahmen der Ostsiedlung zunehmend für den deutschen Handel erschlossen. In Lübeck entstand nach dem Vorbild kaufmännischer Schutzgemeinschaften die "Gemeinschaft der deutschen Gotlandfahrer", auch "Gotländische Genossenschaft" genannt. Sie war ein Zusammenschluss einzelner Kaufleute niederdeutscher Herkunft, niederdeutscher Rechtsgewohnheiten und ähnlicher Handelsinteressen u. a. aus dem Nordwesten Deutschlands, von Lübeckern und aus neuen Stadtgründungen an der Ostsee. Der Handel in der Ostsee wurde zunächst von Skandinaviern dominiert, wobei die Insel Gotland als Zentrum und „Drehscheibe“ fungierte. Mit der gegenseitigen Versicherung von Handelsprivilegien deutscher und gotländischer Kaufleute unter Lothar III. begannen deutsche Kaufleute den Handel mit Gotland (daher „Gotlandfahrer“). Bald folgten die deutschen Händler den gotländischen Kaufleuten auch in deren angestammte Handelsziele an der Ostseeküste und vor allem nach Russland nach, was zu blutigen Auseinandersetzungen in Visby, durch den stetigen deutschen Zuzug mittlerweile mit großer deutscher Gemeinde, zwischen deutschen und gotländischen Händlern führte. Dieser Streit wurde 1161 durch die Vermittlung Heinrichs des Löwen beigelegt und die gegenseitigen Handelsprivilegien im Artlenburger Privileg neu beschworen, was in der älteren Forschung als die „Geburt“ der Gotländischen Genossenschaft angesehen wurde. Hier von einer „Geburt“ zu sprechen, verkennt jedoch die bereits existierenden Strukturen. Visby blieb zunächst die Drehscheibe des Ostseehandels mit einer Hauptverbindung nach Lübeck, geriet aber, die Rolle als Schutzmacht der deutschen Russland-Kaufleute betreffend, mit Lübeck zunehmend in Konflikt. Visby gründete um 1200 in Nowgorod den Peterhof, nachdem die Bedingungen im skandinavischen Gotenhof, in dem die Gotländer zunächst die deutschen Händler aufnahmen, für die Deutschen nicht mehr ausreichten. Der rasante Aufstieg, die Sicherung zahlreicher Privilegien und die Verbreitung der nahezu omnipräsenten Kaufleute der Gotländischen Genossenschaft in der Ostsee, aber auch in der Nordsee, in England und Flandern (dort übrigens in Konkurrenz zu den alten Handelsbeziehungen der rheinischen Hansekaufleute) führte in der historischen Forschung dazu, in dieser Gruppierung den Kern der frühen Hanse zu sehen (Dollinger sieht im Jahr 1161 sogar die eigentliche Geburtsstunde der Hanse überhaupt). Eine Identifizierung der Gotländischen Genossenschaft als „die“ frühe Hanse täte jedoch allen niederdeutschen Handelsbeziehungen unrecht, die nicht unter dem Siegel der Genossenschaft stattfanden. Strukturelle Entwicklungen. Veränderungen in Europa führten für die Hanse zu Entwicklungen, die in der sogenannten Städtehanse mündeten. Dazu gehören die Befriedung der Handelswege, das Ende der traditionellen Fahrgemeinschaften, die „kommerzielle Revolution“, die Entwicklung der Städte und das Ende der kaiserlichen Schutzmacht im Interregnum. Der Stand des Kaufmannes hatte sich verhältnismäßig gut in der europäischen Gesellschaft etabliert und die Handelswege wurden zunehmend sicherer, vor allem im strukturell dicht vernetzten Westeuropa. So verloren die Sicherheit versprechenden Fahrgemeinschaften immer mehr an Bedeutung. Es wurde möglich, auf eigene Faust Handel zu betreiben und darüber hinaus Vertreter zu entsenden. Dies war ein wichtiger Faktor für eine kommerzielle Entwicklung, die bisweilen auch „kommerzielle Revolution“ genannt wird. Zusammen mit der Entwicklung der Städte, in denen ein ständiger Markt möglich war, wurden die erfolgreicheren Kaufleute ansässig. Sie regelten von einer Stadt aus ihr Handelsgeschäft über die Entsendung eines Vertreters und waren somit in der Lage, mehrere Handelsgeschäfte gleichzeitig von einem zentralen Punkt aus zu organisieren. Eine Vervielfachung der Handelstätigkeiten wurde möglich. Die Zahlung über Schuldscheine, Wechsel (im Hanseraum nicht ganz so verbreitet wie z. B. in Oberitalien), oder andere Kreditformen befreite den Kaufmann aus einem reinen Tauschhandel und ermöglichte wiederum eine Ausweitung des Handels. Das Messesystem (also die regelmäßigen Großmärkte in einer Region, wie z. B. in der Champagne oder Schonen) verlor an Bedeutung durch die Entwicklung der Städte zu neuen Handelszentren. Städte hatten demgegenüber auch ganz praktische Vorteile: Die schweren, bauchigen Transportschiffe (v. a. Koggen), mit denen besonders viel Ladung mit nur wenigen Schiffen gehandelt werden konnte, benötigten tiefe Häfen, um anzulegen. Ein Anlanden an seichtem Ufer und An-Land-Ziehen des Schiffes, wie bei den älteren, flachen Handelsbooten zuvor üblich, war nun nicht mehr möglich. Es bleibt jedoch zu bedenken, dass bei diesen Entwicklungen eine Art West-Ost-Gefälle herrschte. Während sich im Westen Handelsvertreter und Kreditwesen rasch ausbreiteten, waren im Osten, besonders im Handel mit Nowgorod und entlang der Düna, noch Fahrgemeinschaften und Tauschhandel üblich. Hier waren die Fahrten noch unsicher und die Neuerungen setzten sich nur langsam durch. Die Sesshaftwerdung der Kaufleute in den Städten führte schnell dazu, dass diese wirtschaftlich potenten Stadtbewohner in den Rat und in die höchsten Positionen der Stadt aufstiegen. Möglicherweise muss auch gar nicht von einem „Aufstieg“ innerhalb der Stadt die Rede sein, da es sich bei vielen Kaufleuten ursprünglich ohnehin um Personen der gesellschaftlichen Oberschicht handelte. Das Ergebnis war, dass die Städte in erster Linie von Kaufleuten beherrscht wurden. Kaufleute standen im Reich traditionell unter königlich-kaiserlichem Schutz, sie waren die "mercatores imperii". Mit dem Ende der staufischen Herrschaft im Reich und den darauf folgenden unsicheren Zeiten des sog. Interregnums ging dieser kaiserliche Schutz faktisch verloren und die fürstlichen Territorialherrschaften konnten (oder wollten) diese Funktion nicht ersetzen. Die Kaufleute fanden eine neue, lokal organisierte Schutzmacht in den Städten. Städte begannen, für die Sicherung der Handelswege zu sorgen und die Einhaltung der Handelsprivilegien ihrer Kaufleute in den Handelszielen zu überwachen. Zu diesem Zweck sprachen sie sich mit anderen Städten ab, schlossen Bündnisse und begannen, ihr Vorgehen in sogenannten Tagfahrten abzusprechen. Zu einer Tagfahrt konnte jede Stadt einladen, die eine bestimmte Angelegenheit zusammen mit anderen Städten regeln wollte. Zu diesem Zweck lud sie die betroffenen Städte zu sich ein, welche Ratssendeboten als Vertreter entsendeten, um eine Übereinkunft zu erzielen. Von einer ersten gesamthansischen Tagfahrt, also einem ersten „Hansetag“ kann man 1356 sprechen, als die Verhältnisse in Flandern eine Tagfahrt erforderten, die letztlich alle Hansestädte betraf. Regionale Bündnisse zwischen Städten entstehen. Die Hanse entwickelte sich von der ursprünglichen Kaufmannshanse zur Städtehanse, bei der Städte einen gegenseitigen Bund bildeten. Als Gründungsjahr wird häufig 1241 angegeben, als Lübeck und Hamburg ihre schon seit elf Jahren bestehende enge Zusammenarbeit auf eine vertragliche Basis stellten, aus der später der Wendische Städtebund hervorging. Fünf Jahre darauf begannen sich Bünde westfälischer und (nieder)sächsischer Städte zu bilden (Beispiel: Ladbergener Städtebund). Etwa 100 Jahre später bildeten sich die Bünde der preußischen und livländischen Städte (zur Zugehörigkeit einzelner Städte zu den Bünden siehe Hansestadt). Mitglied der Hanse konnte eine Stadt auf dreierlei Weise sein oder werden. Bis zur Mitte des 14. Jahrhunderts wuchsen die Städte durch die Teilnahme ihrer Kaufleute am hansischen Handel in die Gemeinschaft hinein. Seit der Mitte des 14. Jahrhunderts stellten die Städte förmliche Aufnahme- oder Wiederaufnahmeanträge. Einen dritten Weg in die Hanse beschritten vielfach die kleineren Städte, indem sie sich ohne besondere Formalitäten von einer der größeren Städte aufnehmen ließen. Ein Sonderfall blieb das rheinische Neuss, das 1475 durch kaiserliches Privileg in den Rang einer Hansestadt erhoben wurde. Die Hanseeigenschaft ging verloren durch Nichtbenutzung der Privilegien, durch freiwilligen Austritt aus der Gemeinschaft oder durch den förmlichen Ausschluss einer Stadt (Verhansung), der bei gravierenden Verstößen gegen die Prinzipien und Interessen der Gemeinschaft von der Städteversammlung vorgenommen werden konnte. Vormachtstellung im Ostseeraum. Zwischen etwa 1350 und 1400 stand die Hanse als nordeuropäische Großmacht da, was u. a. mit der erfolgreichen Durchsetzung hansischer Interessen bei wirtschaftlichen Auseinandersetzungen in Flandern zusammenhing. Zu diesem Zweck trat 1356 der erste Hansetag zusammen (also die erste Tagfahrt, an der nahezu alle Hansestädte teilnahmen). Dies war keine offizielle Gründung der Hanse, aber das erste Mal, dass sich nahezu alle Städte im Interesse ihrer Vorteile und Handelsprivilegien zu einem gemeinsamen Vorgehen koordinierten und als Bund "van der düdeschen hanse" auftraten. Die deutsche Hanse war vor und auch nach diesem „Zusammenrücken“ eher frei organisiert, hatte keine Verfassung und keine Mitgliederlisten, keine dauerhafte eigenständige Finanzgebarung oder Beamte. Die Beschlüsse der Hanse auf den Tagfahrten und ab 1356 auch auf Hansetagen wurden in den Hanserezessen protokolliert. Die Beschlussfindung fand nicht nach Mehrheiten statt, sondern unterlag dem Prinzip der Einigkeit (Konsens). Es wurde diskutiert und verhandelt, bis „man sich einig“ war, wobei Enthaltungen als Zustimmung gewertet wurden. Die entsandten Vertreter der Städte, die Tagfahrer, hatten jedoch nicht die Vollmacht, im Namen ihrer Stadt eine Entscheidung zu treffen, sondern kehrten mit dem Ergebnis des Hansetages in ihre Stadt zurück, wo es beim Rat der Stadt lag, ob der Beschluss angenommen wurde, oder nicht. Dies führte dazu, dass es kaum einen Beschluss eines Hansetages gab, der tatsächlich von allen Städten der Hanse mitgetragen wurde. Vielmehr hing die Zustimmung und die Beteiligung einer Stadt davon ab, ob die Angelegenheit ihren wirtschaftlichen Interessen entsprach, oder nicht. Ein Handelsembargo gegen England konnte z. B. durchaus den Interessen Lübecks entsprechen, jedoch von Köln wegen seiner alten Handelsbeziehungen zu London strikt abgelehnt werden. Gerade diese Freiheit der Städte, Beschlüsse von Hansetagen für sich anzunehmen oder abzulehnen, machte das Prinzip der Einigkeit auf den Hansetagen erforderlich. Um eine Zustimmung möglichst vieler Städte zu erreichen, wurde so lange verhandelt, bis die meisten von ihnen mit dem Ergebnis zufrieden sein konnten. Den Kern der Hanse bildeten etwa 72 Städte, weitere 130 waren locker assoziiert. So dehnte sich der Einflussbereich der Hanse über ein Gebiet aus, das von Flandern bis Reval reichte und dabei den gesamten Ostseeraum bis zum Finnischen Meerbusen umfasste. Einziges nichtstädtisches Mitglied war der Deutsche Orden – ein von Ordensrittern geführter Flächenstaat. Die so erreichte Vormachtstellung der Hanse in Nord- und Ostsee erregte vor allem den Widerstand Dänemarks: 1361 kam es im Ersten Waldemarkrieg zum Kampf gegen den dänischen König Waldemar IV. Atterdag, der die Rechte der Hanse einschränken wollte. Der Bund, der ursprünglich nur wirtschaftlichen Interessen diente, erhielt hohe politische Bedeutung durch die Kölner Konföderation, die gegen die Bedrohung durch den Dänenkönig geschlossen wurde und die Städte zum Kriegsbündnis mit Schweden und Norwegen gegen Dänemark zusammenschloss. Der siegreiche Ausgang dieses Zweiten Waldemarkrieg brachte der Hanse mit dem Frieden von Stralsund 1370 eine ungewöhnliche Machtstellung. Die Königswahl in Dänemark wurde abhängig gemacht von der Zustimmung der Hanse – die Option wurde allerdings von der Hanse nicht wahrgenommen. Die Hanse bewährte sich auch im Kampf gegen den Seeräuberbund der Vitalienbrüder, der 1401 oder 1402 mit der Hinrichtung (durch Enthauptung) ihres Anführers Gödeke Michels in Hamburg endete. Im 14. und 15. Jahrhundert geriet die Stadt Emden in stetige Konflikte mit der Hanse, da von Emden (und anderen Orten in Ostfriesland wie Marienhafe) aus die Seeräuber um Klaus Störtebeker unterstützt wurden. Folge dieses Konfliktes war die mehrfache Besetzung Emdens durch hansische (vor allem hamburgische) Kräfte. Die Hamburger zogen erst 1447 endgültig wieder aus Emden ab. Der Versuch des dänischen Königs Erich VII., Skandinavien aus der Abhängigkeit zu lösen und die Einführung des Sundzolls, führte 1426 bis 1435 zu einem neuen Krieg, in dem Dänemark wieder unterlag und der 1435 mit dem (nach 1365 zweiten) Frieden von Vordingborg beendet wurde. Krisen und Niedergang (etwa 1400 bis 1669). Der Machtverlust der Hanse begann mit dem Erstarken der landesherrlichen Territorialgewalten im Ostseeraum, wodurch sich die Städte in stärkerem Maße den Interessen der regierenden Fürsten unterordnen mussten. Andere Gründe waren die Verlagerung der Ost-West-Handelswege der Nürnberger und Augsburger Kaufleute auf den Landweg (Frankfurt-Leipzig-Krakau) sowie die Entdeckung Amerikas, wodurch der bisher dominierende Ostsee-Westsee- (heute Nordsee)-Handel nun in überseeische Gebiete ausgedehnt wurde. Dabei ging nicht etwa das Handelsvolumen der Hanse im eigentlichen Sinne zurück, es entstanden jedoch mächtige Konkurrenten, die die Bedeutung der Hanse für die einzelnen Städte – und Kaufleute – schwächten. Schon 1441 musste die Hanse im Frieden von Kopenhagen – dem Ende des Hansisch-Niederländischen Kriegs (1438–1441) – die wirtschaftliche Gleichberechtigung der Niederländer anerkennen, nachdem Brügge als wichtigstem Kontor der Hanse mit Antwerpen ein mächtiger Konkurrent erwachsen war und sich die Niederlande zusätzlich mit den Dänen als den „Herren des Sunds“ verbündet hatten. Zudem entstand Uneinigkeit zwischen den Städten über den Umgang mit den Niederländern: Während die wendischen Städte durch das Erstarken des holländischen Handels stärker bedroht waren und zu einer unversöhnlichen Politik drängten, konnten der Deutsche Orden, Köln und die livländischen Städte ihren eigenen Interessen entsprechend mit einer konzilianteren Politik besser leben. Der Frieden von Utrecht (1474) beendete den 1470 begonnenen Hansisch-Englischen Krieg der Städte des Wendischen und Preußischen Viertels gegen England und sicherte die Privilegien des Londoner Stalhofs und den hansischen Tuchhandel. Der endgültige Niedergang der Hanse begann 1494 mit der Schließung des Kontors in Nowgorod: Der Peterhof in Nowgorod wurde bei der Eroberung Nowgorods durch Iwan III. zerstört. Der Russlandhandel verlagerte sich zunehmend auf die Städte an der Küste des Baltikums. Mit der Verlagerung des Außenhandels auf Landwege und nach Übersee verlor die Hanse, die aufgrund ihrer Monopolstellung keine große Notwendigkeit gesehen hatte, sich Neuerungen gegenüber zu öffnen, im 15. und 16. Jahrhundert zunehmend an Bedeutung. Hinzu kamen die zunehmenden Direktkontakte großer Hansestädte wie Hamburg und Danzig zu ausländischen Kaufleuten und dieser untereinander, wodurch die Stapelplätze der Hanse ihre Monopolstellung verloren. Die traditionellen korporatistischen, konkurrenz- und „fremdenfeindlichen“ (so Dollinger insbesondere über Köln) Strukturen und Regulative, die z.B. forderten, dass Hansekaufleute keine Ausländerinnen heiraten durften, waren der internationalen, vor allem der holländischen und englischen Konkurrenz nicht mehr gewachsen. Obwohl die Bedeutung des Schiffsverkehrs in Nordeuropa absolut stieg, ging die Beteiligung der Hansestädte daran relativ zurück. Das gilt ebenso für die Zahl der Mitgliedsstädte. Gleichwohl versuchte die Hanse, sich zu reorganisieren, bestellte 1556 den Kölner Heinrich Sudermann zum Syndikus und gab sich damit erstmals einen eigenen Sprecher und Repräsentanten. Nachfolger Sudermanns wurde in der Zeit von 1605 bis 1618 der in Osnabrück gebürtige Stralsunder Syndikus Johann Domann. Nach einer kurzen Zwischenblüte während des spanisch-niederländischen Krieges war seit Beginn des 17. Jahrhunderts der stolze und mächtige Städtebund der Hanse nur noch dem Namen nach ein Bündnis, das sich allerdings mit einigen Städten des engeren Kerns gegen diese Entwicklung wehrte. So kam es nicht nur zu gemeinsamen Verteidigungsbündnissen dieser Städte, sondern neben der Beschäftigung des Syndikus Domann auch zur Anstellung eines gemeinsamen Militärführers in der Person des Obersten Friedrich zu Solms-Rödelheim, der auch den gemeinsam beschäftigten Festungsbauer Johan van Valckenburgh aus den Niederlanden zu beaufsichtigen hatte. Der Dreißigjährige Krieg brachte die völlige Auflösung. Ein Vorschlag Spaniens, eine „Hanseatisch-Spanische Compagnie“, die den Handel nach den neuen spanischen Kolonien in Mittelamerika betreiben sollte, scheiterte an den politischen Gegensätzen zwischen den „katholischen“ und „protestantischen“ Machtblöcken. Auf den Hansetagen 1629 und 1641 wurden Hamburg, Bremen und Lübeck beauftragt, das Beste zum Wohle der Hanse zu wahren. 1669 hielten die letzten in der Hanse verbliebenen Städte, Lübeck, Hamburg, Bremen, Danzig, Rostock, Braunschweig, Hildesheim, Osnabrück und Köln den letzten Hansetag in Lübeck ab, wobei die drei erstgenannten den Schutz der im Ausland befindlichen Kontore übernahmen. 1684 forderte Kaiser Leopold die Lübecker Hanse zur Geldhilfe für den Krieg gegen die Türken auf. Das Kontor in Bergen wurde 1775, der Stalhof "(Steelyard)" in London 1858 verkauft. Das 1540 nach Antwerpen verlegte Brügger Hansekontor ging 1863 in die Hände der belgischen Regierung über. Die drei Städte Bremen, Hamburg und Lübeck hielten auch später noch weiterhin eng zusammen und hatten schon aus Kostengründen gemeinsame diplomatische Vertretungen an Europas Höfen und gemeinsame Konsulate in wichtigen Häfen. Die Ministerresidenten Vincent Rumpff in Paris und James Colquhoun in London schlossen namens der norddeutschen Stadtrepubliken moderne Handels- und Schifffahrtsverträge, aufbauend auf Reziprozität und Meistbegünstigung ab, die vom Norddeutschen Bund 1867 übernommen und auch vom neuen Kaiserreich noch lange fortgeführt wurden. Organisation. Der Hauptort Lübeck, im Spätmittelalter neben Köln und Magdeburg eine der größten Städte im Reich und neben Rom, Venedig, Pisa und Florenz eine der fünf "Herrlichkeiten des Reiches", gemäß Edikt von Kaiser Karl IV. war Appellationsgericht für alle Hansestädte, die nach eigenem Lübischen Recht zu richten hatten. Hansetag. Der allgemeine Hansetag war das höchste Leitungs- und Beschlussgremium der Hanse. Der erste Hansetag fand 1356, der letzte 1669 statt (siehe auch Hansetage der Neuzeit). Hansetage fanden je nach Bedarf statt, gewöhnlich auf Einladung Lübecks, das 1294 unangefochten als "caput et principium omnium" galt und als "hovestad" der Hanse im 14. und 15. Jh. mehrfach bestätigt wurde. Besondere Rechte gegenüber den anderen Städten der Hanse konnte Lübeck aus dieser Funktion jedoch nicht herleiten. Behandelt wurden auf dem Hansetag alle Fragen, welche das Verhältnis der Kaufleute und Städte untereinander oder die Beziehungen zu den Handelspartnern im Ausland betrafen. Der Idee nach sollten die Beschlüsse für alle Mitglieder verbindlich sein. Aber der Hansetag besaß keine den Städten übergeordnete Zwangsgewalt. Die Verwirklichung der Beschlüsse hing vom guten Willen der Städte ab; allein in ihrem Ermessen lag es, Beschlüsse des Hansetages mitzutragen oder eigene Wege zu gehen. Sie fühlten sich deshalb auch nur gebunden, wenn sich die Beschlüsse mit den eigenen lokalen Interessen deckten, andernfalls verweigerten sie ihre Mitwirkung. Ein Beispiel ist die Weigerung Dortmunds, sich dem 1367 in Köln geschlossenen, für die Geschichte der Hanse so folgenreichen Kriegsbündnis der wendischen, preußischen und einiger niederländischer Städte gegen den dänischen König Waldemar IV. anzuschließen. In einem Schreiben an die in Lübeck versammelten Ratsendboten stellte die Stadt fest, sie habe die Kriege der Seestädte noch nie unterstützt und wolle das auch jetzt nicht tun. Umgekehrt ließen 1388 die übrigen Hansestädte, selbst die westfälischen, Dortmund allein, als dessen Souveränität in der Großen Fehde auf dem Spiel stand und es von den versammelten Heeren des Kölner Erzbischofs und des Grafen von der Mark bedroht war. Ähnliche Beispiele gibt es zuhauf. Wegen Lübecks Vormachtstellung fanden dort auch die meisten Hansetage statt, und zwar 54 von den 72 „Hansetagen“ zwischen 1356 und 1480. Zehn Hansetage fanden in Stralsund, drei in Hamburg, zwei in Bremen und jeweils einer in Köln, Lüneburg, Greifswald und Braunschweig (1427) statt. Zu weiteren Hansetagen siehe Hansetage der Neuzeit. Lübeck ergriff in aller Regel auch die Initiative, wenn es um die Einberufung eines Hansetags ging. Die Tagesordnungspunkte wurden jeweils Monate voraus bekannt gegeben, um den einzelnen Städten bzw. Städtegruppen ausreichend Zeit zur Beratung zu bieten. Lübeck konnte letztlich keine festgelegte Ordnung durchsetzen, welche Städte einzuladen seien, und lud dementsprechend auch unterschiedliche Städte – wohl der jeweiligen Problemstellung folgend – zu den Tagen ein. Die Reise- und Aufenthaltskosten hatten die Städte im Großen und Ganzen selbst zu tragen. Um die Ausgaben zu minimieren, versuchten sie Syndici zu bestimmen, die ihre Interessen vertreten sollten. Auf dem Hansetag des Jahres 1418 wurde allerdings festgelegt, dass alleine die Ratsherren einer Stadt zur Interessenvertretung berechtigt seien. Im Juli 1669 fand der letzte Hansetag in Lübeck statt, nachdem die Wiederbelebung der Hanse durch den Dreißigjährigen Krieg bzw. die Unfähigkeit des Städtebundes, tragfähige Machtstrukturen zu entwickeln, gescheitert war. Es kamen nur noch neun Delegierte, und sie gingen wieder auseinander, ohne irgendwelche Beschlüsse zu fassen. Die Hanse wurde also niemals formell aufgelöst, sondern ist „sanft“ beendet worden. Drittelstag. Drittelstage wurden zur Erörterung besonders von flandrischen Fragen abgehalten und ergänzten die Hansetage. Der Name leitet sich von den "Drittel" genannten Städtegruppen ab. 1347 wurde in den Statuten des Hansekontores in Brügge zum ersten Mal die Existenz der Drittel erwähnt. Das Kontor wurde zu je einem Drittel von den lübisch-sächsischen, westfälisch-preußischen und den gotländisch-livländischen Städten verwaltet. Es wird vermutet, dass diese Aufteilung der damaligen Machtverteilung innerhalb der Hanse entsprach. Jedes Drittel wurde von einer "Vorort" genannten Stadt geführt. Zu Beginn waren dies: Lübeck, Dortmund und Visby. Auch im Londoner Kontor gab es eine solche Verwaltung nach Dritteln, in anderen (weniger bedeutenden) Kontoren hingegen nicht. Offensichtlich war es vorteilhaft, die führende Stadt innerhalb eines Drittels zu sein, denn schon bald gab es inner-hansische Auseinandersetzungen um die Aufteilung und Führung der Drittel. Köln löste Dortmund in der Führung des westfälisch-preußischen Drittels ab. Zwischen Visby und Riga wechselte die Führungsrolle im gotländisch-livländischen Drittel mehrfach. Die damalige Bedeutung Lübecks wird auch daran deutlich, dass die Führungsrolle der Stadt im mächtigsten lübisch-wendischen Drittel niemals angegriffen wurde. Auf dem Hansetag 1554 wurden aus den Dritteln "Quartiere" gemacht. Lübeck führte fortan das "wendische Quartier", Braunschweig und Magdeburg das "sächsische", Danzig das "preußisch-livländische" und Köln das "Kölner Quartier" an. Regionaltag. Neben den Hanse- und Drittelstagen wurden auch sogenannte Regionaltage abgehalten, auf denen sich die Vertreter benachbarter Städte trafen und auch über außerhansische Angelegenheiten berieten. Diese Regionaltage wurden von den Räten der beteiligten Städte organisiert. Sie waren auch für die Umsetzung der Beschlüsse der Versammlungen in den jeweiligen Städten zuständig. Vorteile durch Verbindung von Land- und Seeverkehr. Die Verbindung von Land- und Seeverkehr in einer Organisation war der entscheidende Schritt in die Zukunft, die der Hanse schließlich die monopolartige Vorherrschaft in Handel und Transport auf Nord- und Ostsee bringen sollte. Neue Verkehrswege auf dem Wasser wurden allerdings bis weit ins 14. Jh. von der Hanse nicht erschlossen; man übernahm vielmehr die von Friesen, Sachsen, Engländern und Skandinaviern erschlossenen Verkehrswege. Die Handelspartner und Schiffer wurden verdrängt, oft unter dem Anschein fairer Verträge unter gleichberechtigten Partnern. Beispielhaft dafür ist das Privileg Heinrichs des Löwen an die Gotländer von 1161. Als diese sich weigerten, die Kaufleute aus dem gerade wieder gegründeten Lübeck (1159) als Handelspartner zu akzeptieren, vermittelte Heinrich und gestand den Gotländern in seinem Gebiet die gleichen Rechte zu, wie sie die Gotländer den Deutschen auf ihrer Insel einräumen sollten. Nun konnten die Kaufleute aus Visby, die bis dahin den Zwischenhandel auf der Ostsee beherrschten, ihre Waren allenfalls bis Lübeck bringen, der direkte Weg weiter ins Binnenland blieb ihnen versperrt. Einheitlicher Schiffsbetrieb und einheitliches Seerecht. Ein weiterer Vorteil der Hanseschifffahrt war eine gewisse Rechtssicherheit gegenüber Konkurrenten, ein entwickeltes Seerecht, das Fragen der Befrachtung, der Bemannung, der Verhältnisse an Bord, des Verhaltens im Seenotfall usw. regelte. Die Rechtssicherheit für Hanseschiffe, vor allem im Ausland, war grundlegend für das reibungslose Funktionieren der Verkehrsorganisation. Auch Fragen der technischen Schiffssicherheit und der Seefähigkeit der Schiffe wurden sehr ernst genommen, ebenso wie der Schutz der Handelsschiffe vor Piraterie. Die Schiffe fuhren deshalb meist im Verband in Fahrtgemeinschaften von zwei und drei Schiffen, und ab 1477 mussten größere Hanseschiffe je 20 Bewaffnete an Bord haben. Gegen Kaperungen schützten diese Maßnahmen jedoch nicht immer. In lokalen Legenden erlangten die folgenden Hanseschiffe Berühmtheit: Peter von Danzig (Danzig), Bunte Kuh (Hamburg), Adler von Lübeck, Jesus von Lübeck, Löwe von Lübeck. Verkehrswege und Warenflüsse. In der Hansezeit stieg das Handelsvolumen über die alten Verkehrswege in ganz Europa und neue Handelsrouten entstanden. Von größter Bedeutung für die Hanse waren der Nord-Süd-Weg über Rhein und Weser nach London sowie der West-Ost-Weg von London durch Nord- und Ostsee bis Nowgorod. Eine weitere wichtige Verbindung war der Weg von Magdeburg über Lüneburg, Bremen oder Lübeck nach Bergen. Hamburg und Lübeck arbeiteten eng zusammen: Während Hamburg insbesondere den Nordseeraum und Westeuropa abdeckte, orientierte sich der Seeverkehr Lübecks nach Skandinavien und in den Ostseeraum vom Bergener Kontor Bryggen bis nach Nowgorod (Peterhof). Politisch ist der Einfluss Lübecks auch im Hansekontor in Brügge und im Londoner Stalhof von herausragender Bedeutung für die Entwicklung des hansischen Handels gewesen. Der Handelsverkehr zwischen den beiden Hansestädten wurde vorwiegend über Land, beispielsweise über die Alte Salzstraße, durchgeführt, aber auch per Binnenschiff durch den Stecknitz-Kanal, über den auch das Salz aus Lüneburg, eines der wichtigsten Exportgüter Lübecks in Richtung Norden und Osten, transportiert wurde. Das Salz wurde im Ostseeraum benötigt, um Fisch zu konservieren. Der Hering war im Mittelalter im Binnenland eine beliebte Fastenspeise. Die rheinische Verkehrslinie. Entlang der alten "rheinischen Verkehrslinie" wurde seit der Römerzeit vor allem Wein aus der Kölner Gegend gehandelt und Wolle aus England. In beide Richtungen wurden Metallwaren gehandelt, aber auch Produkte aus Italien und Frankreich gelangten auf diesem Weg in den Nordwesten Europas. Mit der Entstehung der Hanse brachten die deutschen Kaufleute immer öfter ihre Waren auf eigenen Schiffen auf die britische Insel und nahmen immer weniger die Dienste der Friesen dafür in Anspruch. An dieser Verkehrslinie lagen die Städte des rheinischen und westfälischen Städtebundes unter Führung von Köln bzw. Dortmund. Die hansische (Ost-West) Linie. Dieser Handelsweg ging von London und Brügge aus in den Ostseeraum, zunächst vor allem nach Skandinavien. Der Handel wurde belebt durch die Christianisierung Skandinaviens und des südlichen Ostseeraumes und wurde zunächst von den Gotländern dominiert. Diese handelten die "Ostwaren", Pelze und Wachs aus dem nordöstlichen Ostseeraum sowie Lebensmittel aus Nordwesteuropa (Butter, Getreide, Vieh und Fisch) auf dieser Route unter Umfahrung von Jütland. Auch friesische Händler waren aktiv und brachten die Ware häufig über Eider und Schlei aus dem Nord- in den Ostseeraum und umgekehrt. Nach der (Wieder-)gründung Lübecks intensivierten deutsche Händler den Warenaustausch über Elbe, Alster und Trave. In der Ostsee setzte mit dem Gotländer Frieden 1160 die Verdrängung der Gotländer durch Deutsche ein. Die steigende Nachfrage nach Waren durch die im Rahmen der Ostkolonisation neu gegründeten und schnell wachsenden deutschen Städte bzw. Staaten (Preußen und Livland) im Ostseeraum belebte den Handel auf diesem Weg zusätzlich. Neben der starken Ostkolonisation fand im kleineren Rahmen eine deutsche Kolonisation in Skandinavien statt: Deutsche Handwerker und Kaufleute ließen sich z. B. in Visby und Bergen nieder und nahmen später über Jahrzehnte paritätisch an der Stadtverwaltung teil. Anders als im südlichen Ostseeraum wurde die einheimische Bevölkerung dabei aber nicht dominiert. Zusätzliche Bedeutung erhielt dieser Seeweg, weil es entlang der Ostseeküste keine befestigten (Römer-)straßen gab und das Gebiet abseits der Städte nur sehr dünn besiedelt war. Entlang dieser Linie lagen die wendischen, preußischen und livländischen Städte. Die Führung der gleichnamigen Städtebünde hatten Lübeck, Danzig und Riga inne. Der Süd-Nord-Weg von Magdeburg nach Bergen. Dieser Weg war ebenfalls sehr alt und verband die Harzer Bergwerke und die Salinen Lüneburgs mit den Fischvorkommen in Südschweden und Norwegen. Auch von den Gävlefischern in Nordschweden gefangener Hering wurde mit dem Lüneburger Salz haltbar gemacht und an die Hanse verkauft. Die Städte am Süd-Nord-Weg gehörten dem sächsischen Städtebund mit den Vororten Braunschweig und Magdeburg sowie dem wendischen Bund an. Kontore. Kontore der Hanse waren in Nowgorod der Peterhof, in Bergen die Tyske Bryggen, in London der Stalhof und das Hansekontor in Brügge; an ihrer Spitze standen gewählte Oldermänner und Beisitzer. Ihre Aufgabe war es, den Schutz der kaufmännischen Interessen gegenüber den auswärtigen Mächten wahrzunehmen, zugleich aber auch, die Einhaltung der den Kaufleuten zugestandenen Freiheiten durch die Kaufleute selbst zu überwachen, zu deren Befolgung diese sich bei der Aufnahme in die Kontorgemeinschaft eidlich verpflichten mussten. Ferner gab es Statuten, die das Zusammenleben der Kaufleute und Fragen des örtlichen Handels regelten. Sie hatten eine eigene Kasse und führten ein eigenes Siegel, sie galten jedoch nicht als eigenständige Mitglieder der Hanse. Die sogenannte Nowgoroder Schra ist die einzige vollständig erhaltene Sammlung von Vorschriften eines der vier Hansekontore. Hansekaufleute. Der auf sich allein gestellte, das volle Risiko tragende, nur auf eigene Rechnung Handel treibende Kaufmann war in der Hanse des 14. und 15. Jh. der Ausnahmefall. Der typische Hansekaufmann des späten Mittelalters war Mitglied einer oder mehrerer Handelsgesellschaften. Seit dem 12. Jh. sind die einfache "Selschop", eine kurzfristige Gelegenheitsgesellschaft, bei der ein Kaufmann auf die Handelsreise Kapital oder Ware eingibt, Risiko und Gewinn geteilt wurden, und die "Sendeve", das Kommissionsgeschäft, bei dem der Gewinn des beauftragten Kaufmanns durch festen Lohn oder eine Provision ersetzt wurde und der Auftraggeber das alleinige Risiko trug, überliefert. Bei dem am häufigsten vorkommenden Typ der freien Gesellschaft brachten zwei oder mehr Partner Kapital in gleicher oder unterschiedlicher Höhe ein; Gewinnausschüttung und Verlustzuweisung erfolgten je nach Anteil. Es gab neben den aktiven Gesellschaftern häufig auch mehrere stille Teilhaber. Gewöhnlich blieb die Dauer der Gesellschaft auf wenige Jahre befristet. Gerade die größeren Hansekaufleute mit Handelsbeziehungen zwischen Ost und West waren in mehreren solcher Gesellschaften vertreten, um das Risiko besser zu verteilen. Bei der Wahl der Gesellschaftspartner spielten verwandtschaftliche Beziehungen immer eine große Rolle. Philippe Dollinger stellt einige dieser Kaufleute schlaglichthaft heraus: den Hamburger Kaufmann Winand Miles; Johann Wittenborg aus Lübeck ob der Tragik seiner Biographie; den Dortmunder Tidemann Lemberg ob seiner Skrupellosigkeit; den deutschstämmigen Stockholmer Johann Nagel ob seiner Assimilationskraft; die europaweit agierenden Brüder um Hildebrand Veckinchusen für die unterschiedlichen Erfolgsvarianten einer interfamiliären kaufmännischen Zusammenarbeit; den Lübecker Hinrich Castorp als Beispiel für den nahezu klassischen Hansekaufmann seiner Zeit und die Gebrüder Mulich als Beispiel des Einbruchs der Hansekaufleute im oberdeutschen Handel. In der zeitgenössischen Kunstszene stachen die Porträts der Hansekaufleute im Londoner Stalhof hervor, die Hans Holbein der Jüngere abbildete. Jacob van Utrecht porträtierte den erfolgreichen Kaufmann des beginnenden 16. Jahrhunderts in seiner Arbeitsumgebung und mit den notwendigen Utensilien. König Ludwig I. von Bayern nahm den Lübecker Bürgermeister Bruno von Warendorp stellvertretend für die Hansekaufleute und ihre Führungskraft in seine Walhalla auf. Ein Beispiel für den erfolgreichen Hansekaufmann des 17. Jahrhunderts ist sicher der Lübecker Thomas Fredenhagen, der trotz veränderter Handelsströme noch von Lübeck aus sehr erfolgreich weltweit im Wettbewerb mit Bremern und Hamburgern agierte. Treuhänder und Erben. Wo immer die Hanse als Bezugspunkt städtischer Traditionen beschworen wird, gelten die Hanseaten als weltoffen, urban, nüchtern und zuverlässig, aristokratisch-reserviert und steif. Lübeck, Hamburg und Bremen werden mit solchen Klischees gern verbunden. Die Städte nahmen den Begriff Hansestadt allerdings erst im 19. Jh. in ihren Staatstitel auf – über eineinhalb Jahrhunderte, nachdem die Hanse bereits erloschen war. Hansaplatz und Hansaport. Die Hanse wird den positiven Erscheinungen der Geschichte zugerechnet. Wo immer eine Stadt einst der Hanse angehört hat, scheint dies ihr Ansehen zu heben, und es lässt sich damit werben. Plätze, Straßen und Bauten erinnern daran: Hansaplatz, Hansastraße, Hanseatenweg, Hansahof, Hanse-Viertel, Hansaport um nur Beispiele aus Hamburg und Lübeck anzuführen. Zahlreiche öffentliche und private Bauten und Firmen beschwören vermeintliche Hansetradition und führen Bezeichnungen wie Hanse, Hansa, hanseatisch oder hansisch als Bestandteil ihres Namens. Das weist oft auf ihren Sitz oder ihre Zuständigkeit hin, etwa im Fall eines "Hanseatischen Oberlandesgerichts", einer "Hanseatischen Versicherungsanstalt von 1891", der "Deutschen Lufthansa" oder des Fußballvereins "Hansa Rostock". Zumeist dient es jedoch als eine Art Gütesiegel, das markenrechtlich nur sehr eingeschränkt, zumeist nur als Bildmarke, schutzfähig ist. Hansebund der Neuzeit. 1980 wurde in Zwolle die Neue Hanse als "Lebens- und Kulturgemeinschaft der Städte über die Grenzen hinweg" gegründet. Ihr Ziel ist neben der Förderung des Handels auch die Förderung des Tourismus. Seitdem wird in jedem Jahr ein "Hansetag der Neuzeit" in einer ehemaligen Hansestadt abgehalten. Europäisches Hansemuseum. In der Altstadt Lübecks wurde 2015 das Europäische Hansemuseum eröffnet. Während des Abrisses der vorherigen Gebäude am zukünftigen Standort des Museums kam es zu umfangreichen archäologischen Funden. Diese Funde wurden in die Ausstellung des Museums integriert. Neben der Geschichte der Hanse werden auch stadtgeschichtliche Ereignisse und die Geschichte der Verbreitung des Lübischen Rechts gezeigt. Hanseatisches Museum und Schötstuben. In Bergen auf Bryggen, Norwegen, befindet sich das Hanseatisches Museum und die Schötstuben. Linguistische Bedeutung. Die mittelniederdeutsche Sprache der Hanse, die die Lingua franca des Mittelalters in Nordeuropa war, beeinflusste die Entwicklung der skandinavischen Sprachen deutlich. Heino. Heino (* 13. Dezember 1938 in Düsseldorf; eigentlich "Heinz Georg Kramm") ist ein deutscher Musiker. Als Schlagersänger und Interpret deutscher Volkslieder bekannt geworden, wandte er sich im Verlauf seiner Karriere auch anderen Genres zu. Durch sein markantes Auftreten mit blonden Haaren und schwarzer Sonnenbrille sowie wegen seines charakteristischen Baritons wurde Heino zu einer volksmusikalischen Ikone, die im deutschsprachigen Raum einen sehr hohen Bekanntheitsgrad erreicht hat. Heino beim Sommernachtstraum München (2013) Herkunft und Ausbildung. Heino wurde als Sohn des Zahnarztes Heinrich Kramm und dessen Ehefrau Franziska im Düsseldorfer Stadtteil Oberbilk geboren. Sein Vater war katholisch, seine Mutter evangelisch. Sein Großvater war Organist am Kölner Dom. Seine beiden Cousins waren Pfarrer. Heinos Vater, der eine Zahnarztpraxis in Köln-Kalk hatte, fiel am 2. August 1941 im Zweiten Weltkrieg. Bis 1945 lebte Heino mit seiner Mutter und seiner älteren Schwester Hannelore in Pommern. Eingeschult wurde er im Jahr 1945 in Großenhain (Sachsen). Ab August 1952 absolvierte er in Düsseldorf eine Handwerkslehre zum Bäcker und Konditor. Die Ausbildung beendete er mit der Gesellenprüfung vor der Handwerkskammer Düsseldorf im Juni 1955. Als junger Mann spielte er auch beim SC Schwarz-Weiß 06 in Düsseldorf-Oberbilk Fußball. Er hat bis heute Kontakt zum Verein. Seine erste Ehe schloss er im Juni 1959 mit der damals 18-jährigen Henriette Heppner. Aus dieser Ehe ging 1960 der Sohn Uwe hervor, 1962 erfolgte die Scheidung. 1968 wurde er Vater einer unehelichen Tochter, die sich Ende November 2003 das Leben nahm – wie 1988 schon ihre Mutter, Heinos Jugendliebe. 1965 heiratete er seine zweite Ehefrau Lilo, von der er sich 1978 scheiden ließ. Lilo Kramm starb am 28. Januar 2010 an Bauchspeicheldrüsenkrebs. Aufgrund seiner Erkrankung an Morbus Basedow, die seine Augen hervortreten ließ, trägt Heino seit den 1970er Jahren in der Öffentlichkeit immer eine sehr dunkle Sonnenbrille, die als eine Art Markenzeichen seine Erscheinung unverwechselbar macht. Auf früheren Plattenhüllen ist Heino noch ohne Brille mit blauen Augen abgebildet. Von der Stadt Bad Münstereifel wurde ihm ein Personalausweis mit Sonnenbrille auf dem Passbild ausgestellt, das Bundesinnenministerium stellte nach einem Pressebericht darüber aber klar, dass dies nicht gestattet ist, jedoch ist der Personalausweis immer noch in Verwendung und es wurde kein neuer ausgestellt. Im April 1979 heiratete er seine dritte Ehefrau Hannelore Auersperg, die er 1972 bei der Miss-Austria-Wahl in Kitzbühel kennengelernt hatte. Das Paar lebt seit 2009 im Historischen Kurhaus von Bad Münstereifel und betrieb von 1996 bis 2012 "Heinos Rathaus-Café" am Marktplatz. Seit 2012 existiert im Historischen Kurhaus ein fremdbetriebenes Café mit dem Namen "HEINOS Café". Karriere. 1961 trat er erstmals mit dem Trio "OK Singers" auf, mit mäßigem Erfolg. Trotzdem nahmen die OK Singers in den 1960er Jahren eine Schallplatte auf. Der große Durchbruch gelang Heino, nachdem er 1965 bei einem Auftritt mit seiner Gruppe „Comedien Terzett“ in Quakenbrück auf einer Modenschau vom Schlagerstar Karl-Heinz Schwab („Ralf Bendix“) entdeckt wurde, der ihn anschließend 20 Jahre produzierte. Gleich seine erste Platte, "Jenseits des Tales" (eigentlich die B-Seite der Single; die A-Seite hieß "13 Mann und ein Kapitän" – ein alter Titel von Freddy Quinn), wurde mehr als 100.000-mal verkauft. 1967 erschien seine erste Langspielplatte. Es folgten zahlreiche weitere Hits – unter Mitwirkung des Songschreibers Erich Becht und des Texters Wolfgang Neukirchner („Adolf von Kleebsattel“) – und viele Fernsehauftritte, unter anderem in der ZDF-Hitparade und in der Starparade. Den Höhepunkt seiner Karriere erreichte er Mitte der 1970er Jahre mit den Hits "Blau blüht der Enzian", mit dem er auch im Film "Blau blüht der Enzian" zu sehen und zu hören war, und "Die schwarze Barbara". Von 1977 bis 1979 war er auch in der 14-teiligen Serie "Sing mit Heino" im ZDF zu sehen. In den 1980er Jahren wurde es künstlerisch etwas ruhiger um Heino. Im Jahr 1983 sang er das Lied der ARD-Fernsehlotterie "Sonnenschein – Glücklichsein". Kritisiert wurde er, als er 1983 und 1986 eine Tournee durch das damals wegen seines Apartheidsystems international geächtete Südafrika unternahm – trotz des UNO-Embargos und trotz eines Kulturboykotts vieler internationaler Künstler. Auch die Tatsache, dass Heino 1977 auf eine Bitte Hans Filbingers hin auf einer nur für Unterrichtszwecke gedachten Schallplatte alle drei Strophen des Deutschlandliedes sang, brachte ihm teilweise Kritik ein. Anfang der 1990er Jahre erzielte er wieder Erfolge durch eigene Fernsehserien bei dem Privatsender Sat.1 ("Hallo Heino" und "Heino – die Show"). Eine erfolgreiche Wiederkehr brachten ihm auch die Rap-Versionen seiner Hits "Enzian" und "Schwarzbraun ist die Haselnuss" im Jahr 1989, mit denen er auch bei Jugendlichen Anklang finden wollte. Bei seinen Liedern handelt es sich überwiegend um Volkslieder, die im Stil der Schlagermusik interpretiert werden, so ist zum Beispiel "Blau blüht der Enzian", eine Bearbeitung des Volksliedes "Wenn des Sonntags früh um viere die Sonne aufgeht (Das Schweizermadel)". Er hat auch klassische Melodien aufgenommen, wie zum Beispiel das "Ave Maria" von Bach/Gounod oder "Ave verum" von Wolfgang Amadeus Mozart. Heino war in der ganzen Welt (aber vor allem in Deutschland) auf Tourneen. Zu seinem 50-jährigen Bühnenjubiläum und seinem 40-jährigen Schallplattenjubiläum im Jahr 2005 moderierte Heino mit den beiden Co-Moderatoren Stefan Mross und Maxi Arland die Musiksendung "Heino – die Show" in der ARD. 5,8 Millionen Zuschauer sahen die Jubiläumsshow, zu der auch ein Live-Album und eine DVD erschienen. Im August 2006 trat er zum ersten Mal beim chinesischen "Wetten dass..?" "(Xiang tiaozhan ma?)" bei dem Sender CCTV-3 auf. Am 22. Oktober 2005 begann Heino in Trier seine Abschiedstournee durch fünfundzwanzig Städte Deutschlands. 2009 startete zu seinem zweiteiligen Albumprojekt "„Die Himmel rühmen“ – Festliche Lieder mit Heino" eine Tournee mit klassischer Musik durch klassische Gebäude, unter anderem Kirchen. 2011 erschien eine DVD mit Live-Mitschnitten dieser Tournee. Am 1. Februar 2013 veröffentlichte er das Studioalbum "Mit freundlichen Grüßen". Das Album beinhaltet zwölf Coverversionen bekannter deutschsprachiger Pop-, Hip-Hop- und Rocklieder. Begleitet von umfangreichen Werbemaßnahmen, sorgte das Album bereits vor dem Veröffentlichungstermin für Kontroversen. In den ersten Tagen nach Erscheinen wurde das Album so oft aus dem Internet heruntergeladen wie kein Werk eines deutschen Interpreten zuvor und stieg auf Platz 1 in die deutschen Album-Charts ein. Am 1. August trat Heino als Überraschungsgast auf dem Metalfestival Wacken Open Air auf und spielte gemeinsam mit Rammstein den Song "Sonne", den er auf dem Album "Mit freundlichen Grüßen" gecovert hatte. In einem Interview mit der österreichischen Zeitung "Die Presse" bezeichnete Jan Delay im April 2014 Heino, der auf "Mit freundlichen Grüßen" 2013 unter anderem ein Lied seiner Band Beginner gecovert hatte, als „Nazi“. Heino ließ daraufhin über seinen Rechtsanwalt Anzeige gegen Delay stellen. Der Rechtsstreit wurde außergerichtlich beigelegt. Am 12. Dezember 2014 veröffentlichte Heino das Album "Schwarz blüht der Enzian", auf dem er Volkslieder im Metal-Stil neu interpretierte. Die Musik erinnert stilistisch teilweise stark an Rammstein. Für die von Januar bis Mai 2015 bei RTL ausgestrahlte zwölfte Staffel „Deutschland sucht den Superstar“ (DSDS) wurde Heino als Juror eingesetzt. Sonstiges. Aufgrund seiner markanten Erscheinung ist Heino Objekt vieler Parodien, unter anderem von Otto Waalkes in "Otto – Der Film", wo dieser sowohl ihn als auch Michael Jacksons "Thriller" mit einer eigenwilligen Version von "Schwarzbraun ist die Haselnuss" zum Beat von "Thriller" parodierte. Eine Unterlassungsklage im Jahr 1985 gegen Norbert Hähnel (Gastsänger der Gruppe Die Toten Hosen), der als sein Doppelgänger und „Der wahre Heino“ auftrat, hatte vor Gericht Erfolg. Heino ist Pate eines Cafés im Freizeitpark Phantasialand, das den Namen „Heinos Kaffeehaus“ trägt, sowie seit Januar 2010 offizieller Pate des Kinderhospizes Bethel für sterbende Kinder. 2010 verlor Heino einen Prozess gegen eine Versicherung um einen Betrag von dreieinhalb Millionen Euro. Die Kosten für eine abgesagte Konzertreise mussten daraufhin Heino und der Veranstalter tragen. Heino unterstützte 2015 bei der Wahl des Bürgermeisters von Bad Münstereifel den SPD-Kandidaten Werner Esser. Auszeichnungen. Neben Gold- und Platin-Schallplatten erhielt Heino unter anderem mehrfach „Goldene Europa“, „Bambi“ (1990), „Hermann-Löns-Medaille“ „Goldene Eins“, „Goldene Stimmgabel“, „Löwen von Radio Luxemburg“, die „Goldene Liederharfe“, den „Edelweiß“-Preis, „RSH-Gold“. Den „Bambi“ gab Heino aus Protest gegen die umstrittene Auszeichnung des Rappers Bushido mit dem Bambi für „Integration“ im November 2011 zurück. Harappa. Harappa ist ein Dorf in Pakistan. Nach diesem Ort wird eine neben dem Dorf liegende historische Stadt am Oberlauf des Indus benannt. Es handelt sich um den namensgebenden Fundort der Harappa-Kultur oder Indus-Kultur. Die Stadt war zur Bronzezeit von etwa 2600 v. Chr. bis 1800 v. Chr. ein Zentrum der Indus- oder Harappa-Kultur und geriet danach in Vergessenheit, bis Sir Alexander Cunningham 1872/1873 erste Ausgrabungen durchführte. Doch erst seit weiteren Arbeiten nach 1920 sind Alter und Bedeutung Harappas erkannt worden. Weitere Grabungen fanden von 1995 bis 2001 statt. Allerdings wurden die Ziegel der Stadt in der Mitte des 19. Jahrhunderts als Material zum Bau einer Eisenbahnstrecke benutzt. Dadurch wurde ein großer Teil dieser antiken Stadt vollkommen zerstört. Aus den erhaltenen Resten ist ersichtlich, dass die Stadt aus zwei Teilen bestand. Im Osten lag die eigentliche Wohnstadt und im Westen die sogenannte Zitadelle, die von einer stark befestigten Mauer umgeben war. Nördlich davon konnten noch Speicheranlagen und Arbeiterquartiere untersucht werden. Die wenigen erhalten Reste der eigentlichen Stadtbebauung deuten auf einen schachbrettartigen Stadtplan. Luftgetrocknete und gebrannte Lehmziegel der Gebäude wurden als Baumaterial verwendet. Südlich der Stadt konnte ein Friedhof ausgegraben werden. Es handelt sich um einen der wenigen bekannten Friedhöfe der Indus-Kultur. In Sumer gefundene harappische Werkstücke und aus entfernten Gegenden stammende Werkstoffe deuten darauf hin, dass Harappa ein Handelszentrum war. Die Erzeugung von Kupfer, Bronze, Edelmetallen und deren Verarbeitung mit Techniken wie Gießen, Treiben, Schmieden und Zieselieren war bekannt. Die Qualität der gefundenen Schmuckstücke weist auf eine hoch entwickelte Handwerkskunst hin. Hiram Maxim. Sir Hiram Stevens Maxim (* 5. Februar 1840 in Sangerville, Maine, Vereinigte Staaten; † 24. November 1916 in London) war ein britischer Erfinder. Leben. Hiram Maxim begann als Kutschenbauer und Instrumentenbauer im US-Staat Maine und wechselte 1864 zur Werkstatt seines Onkels "Levi Stevens" nach Fitchburg (Massachusetts). Dieser hatte eine Gaslampe erfunden. Maxim wechselte 1868 als Zeichner zur "Novelty Iron Works and Shipbuilding Company" in New York City. In dieser Zeit arbeitete an der Verbesserung der Gasbeleuchtung. Später wurde er Chefingenieur der First Electric Lighting Company. Seit 1877 beschäftigte er sich unter anderem mit der Verbesserung der von Thomas Alva Edison erfundenen elektrischen Glühlampe, die er effizienter und langlebiger machen wollte. In dieser Zeit erhielt er mehrere Patente. 1880 reiste er nach Europa und besuchte 1881 eine Ausstellung zum Thema Elektrizität in Paris. Dort erzählte ihm angeblich jemand, wenn man richtig Geld verdienen möchte, müsse man etwas erfinden, mit dem sich die Europäer gegenseitig einfacher töten könnten. Maxim zog kurz darauf nach London und richtete sich eine Werkstatt in Hatton Garden, einer Straße im Stadtteil Holborn, London Borough of Camden, ein. Er konstruierte das erste wirkliche Maschinengewehr, das 1884 in Hatton Garden erfolgreich getestet und 1885 vorgestellt wurde. Seine Erfindung nutzte den Rückstoß eines Schusses, um die nächste Patrone zu laden. Dazu entwickelte er "Maximite", ein rauchloses Schießpulver aus Trinitrocellulose und Nitroglycerin, für das er 1889 ein Patent erhielt. In den nächsten beiden Jahrzehnten wurden die Streitkräfte von mehr als 20 Nationen mit seinen Maschinengewehren ausgerüstet, obwohl die Generäle den wahren militärischen Wert des Maschinengewehrs oft unterschätzten. Das Maxim-Maschinengewehr konnte rund 500 Schuss pro Minute feuern und hatte die Feuerkraft von 100 normalen Gewehren. Erstmals wurde es 1893 von britischen Truppen bei der Eroberung des Matabelelandes in Rhodesien (heute Simbabwe) eingesetzt. Für die Produktion des Maxim-Maschinengewehrs gründete Maxim die Maxim Gun Company, die sich 1888 mit dem schwedischen Konkurrenten Nordenfelt zusammenschloss (siehe Maxim-Maschinengewehr). 1894 konstruierte Maxim ein von zwei Dampfmaschinen angetriebenes Fluggerät, das sich bei einem Test in Bexley Heath (Kent) sogar kurz in die Luft erheben konnte, allerdings mangels praktikabler Steuerung zur Sicherheit von Führungsschienen gehalten wurde. Es war mit 3,6 Tonnen Gewicht, 31,5 Metern Spannweite und einer Länge von 21 Metern für längere Zeit das größte Fluggerät. 1901 wurde Maxim von Königin Viktoria in den Ritterstand erhoben. Maxim erhielt 271 Patente auf seine Erfindungen. Unter anderem erfand er eine Mausefalle, ein Haarwellen-Eisen und rauchfreies Schießpulver. Sein Sohn Hiram Percy Maxim erfand den Schalldämpfer, zunächst für Waffen, später wurde er auch für Autos angepasst. Havanna. Havanna (), vollständige Bezeichnung Villa San Cristóbal de La Habana'", ist die Hauptstadt der Republik Kuba und zugleich eigenständige Provinz. Mit rund 2,10 Millionen Einwohnern und einer Fläche von 728,26 km² ist sie die größte Metropole der Karibik sowohl nach der Einwohnerzahl als auch der Fläche nach. Die Stadt grenzt im Norden an den Atlantischen Ozean, bzw. die Straße von Florida und erstreckt sich südlich und westlich der Bucht von Havanna („"Bahía de La Habana"“). Der Fluss Río Almendares durchquert die Stadt von Süden nach Norden und mündet schließlich westlich der Bucht in die Floridastraße. Die östlich des Zentrums gelegene Bucht beheimatet die drei großen Häfen der Stadt: Marimelena, Guanabacoa und Atarés. Havanna wurde im Jahr 1519 aufgrund der strategisch günstigen Lage von den Spaniern gegründet. Die Stadt diente als Angelpunkt, von dem aus die weitere Eroberung des Kontinents bis nach Nordamerika durch die Spanier erfolgte. Philipp II. von Spanien erteilte Havanna im Jahr 1592 das Stadtrecht, doch war Havanna bereits seit dem Jahr 1552 die Hauptstadt Kubas. Der Untergang der USS Maine im Hafen von Havanna im Jahr 1898 war der unmittelbare Auslöser des Spanisch-amerikanischen Krieges. Die Stadt ist das politische Zentrum des Landes und Sitz der Regierung, zahlreicher Ministerien und Unternehmen sowie über 90 Botschaften. Die aktuelle Bürgermeisterin Havannas ist Marta Hernández Romero (PCC). Die Stadt ist des Weiteren ein touristisches Zentrum Kubas, im Jahr 2010 besuchten 1,17 Millionen Touristen die Stadt, 46 % aller Besucher des Landes. Seit dem Jahr 1982 ist die Altstadt, La Habana Vieja, UNESCO-Welterbe. Name. Die Stadt "La Villa de San Cristóbal de La Habana" wurde am 16. November 1519 auf Geheiß des spanischen Königs und römisch-deutschen Kaisers Karl V. gegründet. Der Name setzt sich zusammen aus dem Namen des Stadtpatrons, San Cristóbal, und dem Namen, unter dem die Siedlung früher bekannt war: "Habana". Die Einwohner Havannas werden "Habaneros" genannt. Es gibt verschiedene Hypothesen über den Ursprung des Namens "Habana". Die verbreitetste unter ihnen besagt, dass sich der Name auf einen lokalen Taíno-Häuptling namens Habaguanex zurückführen lässt, der die Gebiete der ersten Siedlung an der Südküste der heutigen Provinz Mayabeque kontrollierte. Lage. Havanna liegt an der nordwestlichen Küste Kubas, südlich der Florida Keys, wo der Golf von Mexiko in die Karibik mündet. Die Stadt dehnt sich vor allem südlich und westlich der Bucht aus, welche die Stadt in ihre drei Haupthäfen teilt: Marimelena, Guanabacoa, und Atarés. Der Fluss Almendares fließt von Süden durch die Stadt und mündet einige Kilometer westlich der Bucht in die Floridastraße. Die Stadt liegt auf niedrigen Hügeln, die sich leicht über die Meerenge erheben. Einer der höchsten Punkte ist ein 60 Meter hoher Kalksteinhügel, der sich vom Osten der Stadt bis zu den kolonialen Festungen La Cabaña und El Morro erstreckt. Des Weiteren gibt es im Westteil der Stadt eine leichte Erhebung auf dem Gebiet der Universität von Havanna. Außerhalb des Stadtgebiets wird Havanna von höheren Hügeln im Westen und Osten gesäumt. Stadtgliederung. Havanna ist eine eigenständige kubanische Provinz. Grob lässt sich Havanna in die innerstädtischen Stadtteile Alt-Havanna (Habana Vieja), Centro Habana und Vedado sowie die Bezirke der Vorstadt unterteilen. Havannas Altstadt ist UNESCO-Weltkulturerbe, hier befinden sich auch viele touristische Attraktionen wie der "Plaza Vieja" oder die Uferpromenade "Malecón". Im neueren Stadtteil Vedado, der sich im Nordwesten der Stadt befindet, entstanden vor allem im 20. Jahrhundert zahlreiche Einrichtungen des Nachtlebens sowie Einkaufsmöglichkeiten, die heute mit denen der Altstadt konkurrieren. Klima. In Havanna herrscht, wie auch in den meisten anderen Gebieten Kubas, tropisches Klima das vom Nordostpassat geprägt wird. Der effektiven Klimaklassifikation nach Köppen zufolge herrscht in Havanna tropisches Savannenklima. Bedingt durch den Golfstrom besteht zudem der Einfluss ozeanischen Seeklimas. Die Durchschnittstemperaturen reichen von 22 Grad Celsius im Januar und Februar bis zu 28 Grad Celsius im August. In Havanna wird es selten kälter als 10 Grad Celsius, die tiefste je gemessene Temperatur war 4,5 Grad Celsius in Santiago de Las Vegas am 11. Januar 1970. Die höchste je gemessene Temperatur war 36,6 Grad Celsius in "Casablanca" am 10. September 2009. Zwischen Juni und Oktober herrscht der stärkste Niederschlag, am wenigsten Regentage gibt es von Dezember bis April. Durchschnittlich fallen in Havanna knapp 1.200 mm Niederschlag bei etwa 80 Niederschlagstagen pro Jahr. Obwohl im September in Kuba alljährlich die Hurrikansaison beginnt, wurde die Stadt bisher selten von den Stürmen getroffen, da diese verstärkt im Südosten der Insel auftreten. Die Gründung der Stadt. Havanna auf einer Karte von 1564. Ursprünglich wurde Havanna im Jahr 1515 oder 1514 von dem Konquistador Diego Velázquez de Cuéllar in der Nähe der heutigen Stadt Batabanó, an den Ufern des Flusses Mayabeque an der Südküste der Insel gegründet. Da alle Versuche eine Stadt an der Südküste zu gründen scheiterten, wurde Havanna im Jahr 1519 an den heutigen Standort verlegt. Zwischen 1514 und 1519 gehörten zu der Stadt mindestens zwei verschiedene Gründungen an der Nordküste, eine von ihnen innen in "La Chrorrera", in der heutigen Wohngegend Puentes Grandes im Stadtbezirk Playa. Schließlich wurde Havanna am 16. November 1519 aufgrund der überaus günstigen Lage neben der Bucht "Puerto de Carenas" im Jahr 1519 gegründet, die heute den Hafen Havannas beherbergt. Infolgedessen entwickelte sie sich zu einem wichtigen Handels- und Militärhafen. Havanna war eine von sechs Städten, die von den Spaniern auf der Insel gegründet wurden und wurde von Pánfilo de Narváez "San Cristóbal de la Habana" genannt, einer Kombination des Stadtpatrons San Cristóbal mit der ursprünglichen Bezeichnung der Siedlung nach dem Taíno-Häuptling Habaguanex. Kurz nach ihrer Gründung war Havanna bereits die Ausgangsbasis für weitere Eroberungen der Spanier. Spanische Kolonialherrschaft. Panorama der Stadt im 17. Jahrhundert Die Stadt war ursprünglich ein Handelshafen und litt daher unter regelmäßigen Angriffen von Piraten, Bukanieren und französischen Korsaren die von den wertvoll beladenen spanischen Schiffen angezogen wurden: 1538 wurde sie niedergebrannt und 1553/1555 vom französischen Korsar Jacques de Sores geplündert. Infolgedessen finanzierte das spanische Königshaus die Errichtung der ersten Festungen in der Stadt, die nicht nur die Stadt schützen, sondern auch den durch das spanische Handelsmonopol entstandenen Schwarzmarkt in der Karibik einschränken sollten. Im Jahr 1552 wurde Santiago de Cuba durch Havanna als Hauptstadt abgelöst, dennoch erhielt die Stadt erst am 20. Dezember 1592 durch Philipp II. von Spanien das Stadtrecht. Ab 1561 begannen die Spanier, den Großteil ihrer Flotte in Havanna zu stationieren, um die Stadt besser zu schützen. Schiffe aus aller Welt brachten ihre Fracht nun zuerst nach Havanna, um dann von der spanischen Flotte ins Heimatland transportiert zu werden, darunter: Gold, Silber und Alpakawolle aus den Anden, Smaragde aus Kolumbien und Tropenhölzer sowie Nahrungsmittel aus Kuba. Die tausenden Schiffe die den Hafen der Insel besuchten erzeugten einen großen wirtschaftlichen Aufschwung, welcher zum rasanten Aufstieg der Stadt beitrug. Gleichzeitig wurden Festungsanlagen wie das Castillo de la Real Fuerza (1558–1577) oder das Castillo de los Tres Reyes del Morro (1559–1630) fertiggestellt. Im 17. Jahrhundert erlebte Havanna einen großen Aufschwung, die Spanier gaben ihr den Beinamen „Schlüssel zur Neuen Welt und Bollwerk der westindischen Inseln“. In diese Zeit fällt die Errichtung vieler wichtiger Gebäude wie Festungen und Kirchen, die zumeist mit einheimischen Materialien wie Holz in einer Abwandlung der iberischen Architektur errichtet wurden. Auch Elemente der kanarischen Bauweise wurden großzügig eingesetzt. 1649 starb ein Drittel der Bevölkerung an den Folgen einer aus Cartagena (Kolumbien) eingeschleppten Epidemie. Bis zur Mitte des 18. Jahrhunderts hatte Havanna mehr als 70.000 Einwohner und war damit die drittgrößte Stadt Amerikas, hinter Lima und Mexiko-Stadt, aber noch vor Boston und New York City. Britische Besetzung. Die britische Flotte erreicht Havanna (1762) Großbritannien nahm 1762 während des Siebenjährigen Krieges die Stadt mit mehr als 50 Schiffen und über 14.000 Mann der Royal Navy durch die Belagerung von Havanna ein. Während der Besatzungszeit forcierten sie den Handel mit Nordamerika und ihren karibischen Kolonien, was große Auswirkungen auf die kubanische Gesellschaft hatte. Im Pariser Frieden tauschte Großbritannien auf Vermittlung Frankreichs die Stadt nach weniger als einem Jahr Besetzung gegen Florida ein. Nachdem sie wieder in spanischem Besitz war, wurde sie zur am stärksten befestigten Stadt Amerikas ausgebaut. 1763 begann der elf Jahre andauernde Bau der Fortaleza de San Carlos de la Cabaña, der größten spanische Festungsanlage in Amerika. Im Jahr 1774 wurde die erste offizielle Bevölkerungszählung in Kuba durchgeführt. In Havanna lebten damals 171.670 Menschen, von denen 44.333 Sklaven waren. Am 15. Januar 1796 wurden die sterblichen Überreste von Christoph Kolumbus aus Santo Domingo nach Havanna überführt. Dort blieben sie bis zu ihrer Umbettung in die Kathedrale von Sevilla 1898. 19. Jahrhundert. Durch den stetig wachsenden Handel zwischen der Karibik und Nordamerika im frühen 19. Jahrhundert entwickelte sich Havanna rasch zu einer blühenden und eleganten Stadt, in deren Theatern die besten Schauspieler ihrer Zeit auftraten. Havanna trug zu dieser Zeit auch den Beinamen „Paris der Antillen“. Der Wohlstand der kubanischen Mittelschicht führte zur Errichtung vieler repräsentativer Villen und zur Entstehung eines kubanischen Nationalbewusstseins. 1837 eröffnete die erste Eisenbahn der Stadt und zugleich ganz Lateinamerikas: Eine 51 Kilometer lange Bahnlinie zwischen Havanna und Bejucal, die vor allem zum Transport von Zuckerrohr zum Hafen eingesetzt wurde. Damit war Kuba das weltweit fünfte Land, das eine Eisenbahn hatte. Im 19. Jahrhundert eröffneten in Havanna viele Kultureinrichtungen, z. B. das Gran Teatro de La Habana, eines der luxuriösesten Theater der Welt. Da in Kuba die Sklaverei erst 1886 abgeschafft wurde, ließen sich einige ehemalige Plantagenbesitzer aus dem amerikanischen Süden nach Ende des Bürgerkrieges in Havanna nieder. Der steigende Wohlstand in Kuba ab den 1850er Jahren, bedingt durch die Zuckerrohr- und Tabakexporte, schlug sich architektonisch am deutlichsten in Havanna nieder. Havannas Stadtmauern wurden 1863 abgerissen, um Platz für die weitere Entwicklung der Metropole zu schaffen. Der Untergang der USS Maine 1898 im Hafen der Stadt führte zum Beginn des spanisch-amerikanischen Krieges. US-amerikanischer Einfluss. In Folge dessen begann das 20. Jahrhundert in Havanna unter US-amerikanischer Besetzung. Dies änderte sich am 20. Mai 1902, als mit Tomás Estrada Palma der erste Präsident Kubas sein Amt antrat. Zwischen 1902 und 1959 erlebte die Stadt eine neue Etappe ihrer Entwicklung. In Havanna entstanden neue Appartmentblocks für die immer schneller wachsende Mittelschicht, die drittgrößte der Hemisphäre. 1929 wurde das kubanische Kapitol, errichtet nach amerikanischem Vorbild, in Havanna eröffnet. Während der 1930er Jahre wurden zahllose Luxushotels, Kasinos und Nachtklubs gebaut die dem wachsenden Tourismus vor allem aus Nordamerika Rechnung tragen sollten. Auch zahlreiche Personen der organisierten Kriminalität waren in Havanna aktiv, z. B. der Mafiaboss Santo Trafficante, Jr. oder Meyer Lansky der zu jener Zeit das Hotel "Habana Riviera" führte. Havanna glänzte damals durch seine Extravaganz, von Autorennen bis zu allerlei musikalischen Veranstaltungen war in der Stadt ein breites Vergnügungsangebot vorhanden. Während der 1950er Jahre war Havanna vor allem für seine große Mittelschicht bekannt, die Stadt produzierte damals größere Einnahmen als Las Vegas. Der Stadtteil Vedado erlebte in dieser Zeit seine Blüte. 1958 besuchten mehr als 300.000 US-amerikanische Touristen Havanna. Havanna nach dem Sieg der Revolution. Nach dem Sieg der Revolution 1959 versprach die Regierung die soziale Situation der Bevölkerung zu verbessern sowie öffentlichen Wohnungsbau zu betreiben. Während der 1970er und 1980er Jahre wurden zahlreiche Appartmentblocks in den äußeren Stadtbezirken wie Regla oder Miramar errichtet, der historische Bestand an Altbauten verfiel jedoch zusehends. Im Hafen der Stadt ereignete sich am 4. März 1960 durch zwei Explosionen die Zerstörung des belgischen Frachtschiffs "La Coubre". Das Schiff hatte für Kuba bestimmte Waffen geladen. Gegen 15:15 Uhr erfolgte die erste Detonation. Als sich bereits Rettungskräfte an Bord aufhielten, kam es etwa 30 Minuten später zu einer zweiten Explosion. Insgesamt starben 101 Menschen, weitere etwa 200 wurden durch Trümmerteile und sonstige Auswirkungen der beiden Detonationen verletzt. Es besteht der Verdacht, dass der US-Geheimdienst CIA in die Angelegenheit verstrickt ist, was jedoch bestritten wurde. Seit 1982 ist die Altstadt Havannas UNESCO-Weltkulturerbe. Dadurch wurde eine großangelegte und bis heute andauernde Sanierung durch das Team des Stadthistorikers Eusebio Leal in Angriff genommen, die durch den Tourismus refinanziert wird. Dieser nahm seit den 1990er Jahren rasch an Bedeutung zu und ist heute einer der wichtigsten Wirtschaftszweige der Stadt. Politik. a> auf dem Revolutionsplatz in Havanna (2012). Dimitri Medwedew auf Staatsbesuch in Kuba zusammen mit Raúl Castro am Denkmal José Martís auf dem Revolutionsplatz (2008). Die aktuelle Bürgermeisterin von Havanna ist Marta Hernández Romero (PCC). Romero wurde in Santiago de Cuba geboren, hat einen Hochschulabschluss und begann ihre Karriere als Grundschullehrerin. Sie war zunächst zuständig für das Bildungswesen in Santiago, ab 2003 dann in Havanna. Sie wurde am 5. März 2011 für eine fünfjährige Amtszeit gewählt. Ihr Stellvertreter ist Abel Camejo Peñalver. Die Stadt wird von der Provinzversammlung der Volksmacht ("Asamblea Provincial del Poder Popular") als eigenständige Provinz verwaltet, deren Vorsitzender in Havanna gleichzeitig die Bürgermeisterfunktion übernimmt. Der Provinzrat Havannas ist wiederum untergliedert in 105 Räte auf kommunaler Ebene ("Consejos Populares"). Havanna ist das politische Zentrum Kubas. Zahlreiche Ministerien, Botschaften und Regierungsinstitutionen haben hier ihren Sitz. Ausländische Staatsgäste sind oft Gast des Revolutionsplatzes, der als wichtigste politische Tribüne des Landes fungiert, auf der auch Paraden und Massenkundgebungen abgehalten werden. Direkt neben dem Revolutionsplatz befindet sich das Gebäude des Zentralkomitees der Kommunistischen Partei Kubas (PCC). Das kubanische Parlament tagt ebenfalls in Havanna, im "Palacio de Convenciones", in dem auch die Parteitage der PCC stattfinden. Des Weiteren befinden sich in Havanna das Kapitol sowie die antiimperialistische Tribüne ("Tribuna Antiimperialista José Martí"). Kultur und Sehenswürdigkeiten. Havanna lässt sich als wichtigstes kulturelles Zentrum Kubas beschreiben, das über eine breite Palette an Kultur und Sehenswürdigkeiten verfügt: Von Museen, Palästen, öffentlichen Plätzen im kolonialen Stil, Alleen, Kirchen, Festungen (darunter die größte Befestigungsanlage der Spanier in Amerika), Ballett, Kino, Theater, der historischen Altstadt bis hin zu allerlei internationalen Veranstaltungen und Technologiemessen hat Havanna mehr zu bieten als die meisten anderen kubanischen Städte. Mit der Restaurierung der Altstadt sind viele neue Einrichtungen entstanden, in vielen kolonialen Bauten befinden sich heute Museen. Die kubanische Regierung legt ein besonderes Augenmerk auf guten Zugang zu kulturellen Veranstaltungen, weshalb die Eintrittspreise in den Museen und Festivals meist sehr niedrig sind. La Habana Vieja. Plaza de la Catedral, Kathedrale San Cristóbal. Besonders sehenswert ist die Altstadt Havannas (spanisch: "La Habana Vieja"), sie gehört zu einer der ältesten spanischen Kolonialsiedlungen und glänzt auf einer Fläche von 4,37 km² mit ihren barocken und neoklassischen Monumenten. Aufgrund ihrer wechselvollen Geschichte sind auch viele andere Baustile der Neuen Welt in Havannas Altstadt vertreten, darunter auch Art déco. Sie wurde bereits 1982 unter das UNESCO Weltkulturerbe gestellt, und wird seitdem stückweise restauriert. La Habana Vieja ist das Kernstück der 1519 gegründeten Stadt, in dem sich auch der Hafen befindet von dem aus die Spanier ihren Handel mit Amerika abwickelten. Hier befinden sich über 900 Bauwerke von historischer Relevanz, darunter auch die vier historischen Plätze, um die sich Havanna entwickelt hat: "Plaza Vieja", "Plaza de la Catedral", "Plaza de San Francisco" und der "Plaza de Armas". Den vier Plätzen kamen dabei jeweils unterschiedliche Funktionen zu: Auf dem Plaza Vieja wurde meistens der Markt abgehalten, während der Plaza de la Catedral der religiöse Mittelpunkt der Stadt war. Auf dem Plaza de Armas wurden meist Militärparaden abgehalten, während sich auf dem Plaza de San Francisco die bedeutendste Werft der Spanier befand. Die Plätze sind alle durch Kopfsteinpflaster miteinander verbunden und dienen als Austragungsort verschiedener kultureller Veranstaltungen, auf dem Plaza de Armas befindet sich meist ein Büchermarkt. Die Plätze sind mittlerweile vollständig restauriert. Eines der schönsten Gebäude der Altstadt ist der ’Palacio de los Capitanes Generales’, der ehemalige Gouverneurspalast. Außerdem sehenswert ist das Castillo de la Real Fuerza, die älteste von Europäern gebaute Festung Amerikas. Der "Parque histórico militar Morro-Cabaña" (kurz: "La Cabaña") liegt auf der gegenüberliegenden Uferseite der Bucht und ist die größte Befestigungsanlage der Spanier in Amerika. An ihn schließt sich das "Castillo de los Tres Reyes del Morro" an, das berühmte Fort aus dem 18. Jahrhundert, auf dem sich seit 1844 der markante Leuchtturm Havannas befindet. Die Kathedrale des Erzbistums Havanna, die "Catedral de San Cristóbal de la Habana", befindet sich ebenfalls in der Altstadt. In dem barocken Bau des 18. Jahrhunderts ruhten bis zum Jahr 1898 die Gebeine Christopher Kolumbus. Als ein Paradebeispiel für die Architektur des Art déco in Havanna gilt das 1929 fertiggestellte "Edificio Bacardí", des ehemaligen Besitzers der gleichnamigen Rummarke. In La Habana Vieja befinden sich zahlreiche bedeutende Museen der Stadt, beispielsweise das "Museo de del ron" zur Geschichte der kubanischen Rummherstellen, oder ein Museum über Alexander von Humboldt. Als besonders herausragend ist das Marinemuseum "Museo de Navegacion" sowie das Stadtmuseum "Museo de la Ciudad" zu nennen. Die autofreie Straße "Calle Obispo" ist die Hauptader von Havannas Altstadt und beherbergt zahlreiche Kunstgalerien, Kneipen und touristische Angebote. Centro Habana. Das Zentrum Havannas (spanisch: "Centro Habana") umfasst eine Fläche von 3,42 km² und erstreckt sich westlich des "Prado", am "Malecón" entlang bis nach Vedado. Mit Beginn der Kolonisierung ab dem 16. Jahrhundert gab es bereits einige Ansiedlungen auf dem Gebiet des heutigen Zentrums, größere Bedeutung erlangte es jedoch erst Mitte des 18. Jahrhunderts mit der wirtschaftlichen Liberalisierung während der britischen Besatzung. Zum Ausgang des 19. Jahrhunderts siedelten chinesische Einwanderer in der Gegend um der "Calle Zanja" und "Calle de los Dragones" (Straße der Drachen). Sie gründeten diverse Geschäfte und entwickelten sich zu einer der bedeutendsten chinesischen Exilgemeinden Amerikas. Dort entstand das heute bekannte Chinatown Havannas (spanisch: "Barrio Chino"). Obwohl touristisch von eher geringer Bedeutung, ist "Centro Habana" ein kommerzieller Schwerpunkt Havannas. Entlang der traditionellen Geschäftsstraße "Neptuno" sind in den letzten Jahren verstärkt kleinere Privatbetriebe und Einkaufsmöglichkeiten entstanden, die die Attraktivität des Zentrums aufwerten. Zu den wichtigsten Bauwerken im Zentrum zählen das nach seinem Vorbild in Washington, D.C. gestaltete Capitolio sowie der ehemalige Präsidentenpalast, der heute das Revolutionsmuseum beherbergt und das Gran Teatro de La Habana. Letzteres ist das älteste aktive Theater Lateinamerikas und eines prachtvollsten seiner Art in dieser Hemisphäre. Es ist Sitz des bekannten kubanischen Nationalballetts. Es bietet eine Vielzahl kultureller Veranstaltungen wie z. B. Ballettauftritte des nationalen Ensembles an. Auch das erste Hotel Havannas, das 1856 eröffnete "Hotel Inglaterra" befindet sich im Zentrum. Es ist für seine neoklassizistische Architektur bekannt ist und hier hielt bereits José Martí 1879 eine Rede. Das nationale Kunstmuseum (spanisch: "Museo Nacional de Bellas Artes") gilt als eines der besten Kunstmuseen der Karibik und zeigt auf mehreren Etagen verteilt internationale und kubanische Kunst, darunter auch römische Mosaike oder Werke europäischer Künstler wie Thomas Gainsborough. Die markanteste Straße im Zentrum ist der "Paseo de Martí", auch "Prado" genannt. Der Bau dieses breiten Boulevards wurde Ende des 18. Jahrhunderts begonnen und Mitte der 1830er Jahre abgeschlossen. Hier befindet sich auch Kubas bedeutendste Ballettakademie, die "Escuela Nacional de Ballet" und eine große Statue von Máximo Gómez. Die Bausubstanz im Centro ist schlechter als in der sanierten Altstadt, in letzter Zeit werden allerdings auch verstärkt Gebäude des Zentrums saniert, dessen Gebäude mehrheitlich aus dem 19. Jahrhundert stammen. Vedado. Der Stadtteil Vedado ist das moderne Zentrum Havannas. Er wird heute unter der Verwaltungseinheit "Plaza de la Revolucion" zusammengefasst und schließt eine Fläche von 12,26 km² ein. Es ist jünger als "Centro Habana", die ersten Häuser wurden hier ab 1860 errichtet. Die Blütezeit von Vedado begann in den 1920er Jahren und dauerte bis in die 1950er Jahre an. Der Baustil wird stärker als in anderen Teilen von Art déco-Elementen bestimmt, einige Wolkenkratzer zeugen zudem vom US-amerikanischen Einfluss während der Blütezeit Vedados. Viele Casinos und Nachtclubs jener Jahre, in denen sich Schauspieler und reiche Amerikaner aufhielten, befinden sich in diesem Gebiet. Zu den wichtigsten Gebäuden Vedados gehört das 1930 errichtete "Hotel Nacional", das im neoklassizistischen Stil errichtet wurde. Es ist heute aufgrund seiner wechselvollen Geschichte in der es Persönlichkeiten wie Ernest Hemingway zu Gast hatte als nationales Monument. Ebenfalls berühmt ist das Hotel "Habana libre", das ehemalige Hilton Hotel der Stadt von dem aus Fidel Castro die ersten Monate nach dem Sieg der Revolution regierte. Ein weiterer Anziehungspunkt ist der "Platz der Revolution" (Plaza de la Revolución), der unter der Schirmherrschaft Batistas errichtet wurde. Geprägt ist der Platz durch einen 142 Meter hoher Obelisken, der zusammen mit einer Sitzstatue José Martís an den Dichter und Freiheitshelden erinnert. Um den riesigen Platz herum gruppieren sich Regierungsgebäude, die wie das Monument aus den Jahren vor der kubanischen Revolution stammen. Darunter das Innenministerium mit einem Wandbild Che Guevaras aus Stahl und dem monumentalen Gebäude des Zentralkomitees der Kommunistischen Partei Kubas (PCC). Außerdem ist die Bibliothek Havannas direkt am Platz gelegen. Am Ersten Mai füllt sich der Platz mit Millionen von Menschen, die aus dem ganzen Land anreisen um den Feiertag zu begehen. Unweit des Platzes der Revolution befindet sich der größte Friedhof Lateinamerikas, der Cementerio Cristóbal Colón. Auch die Universität von Havanna hat in Vedado ihren Sitz, sie ist die älteste Universität Kubas und eine der ersten auf dem gesamten Kontinent. Die belebteste Straße in Vedado ist mit Abstand die "Calle 23", auch "La Rampa" genannt. Sie ist ein beliebter Treffpunkt, an dem sich auch wichtige Gebäude wie das Kino "Yara", diverse Parks und eine Filiale der Eisdielenkette "Coppelia" befinden. Auch die Interessenvertretung der Vereinigten Staaten in Kuba befindet sich dort, direkt angrenzend liegt die antiimperialistische Tribüne. Außenbezirke von Havanna. Havannas Zentrum ist sowohl westlich, südlich und östlich von Vororten umgeben, die eine eigene historische Entwicklung vorweisen können und trotz ihrer geringeren touristischen Attraktivität viele interessante Orte bieten. Neben den klassischen Außenbezirken wie Playa, Mariano und Regla sind auch die „Hausstrände“ Havannas, die "Playas del Este" erwähnenswert, die von tausenden Kubanern jedes Jahr im Sommer zur Erholung genutzt werden. Der "Parque Lenin" im Süden der Stadt bietet Platz für Feste und Veranstaltungen und dient vor allem der Naherholung. Playa. Im Stadtteil Playa befindet sich die russische Botschaft sowie das Museum des Innenministeriums, das auf die Geschichte der Institution eingeht. Auch das nationale Aquarium (spanisch: "Acuario Nacional"), das eindrucksvollste in ganz Kuba, lockt mit seinen regelmäßigen Delfinshows Kubaner und Touristen an. Die 1948 errichtete "Iglesia Jusús de Miramar", Kubas zweitgrößte Kirche, befindet sich ebenfalls in Playa. Das 1961 gegründete "Instituto Superior de Arte" gilt als Kubas bedeutendste Kunstakademie, etwa 800 Studenten durchlaufen hier ihre Ausbildung. Der "Palacio de las Convenciones" wurde 1979 in Playa errichtet und ist Kubas bedeutendste Veranstaltungshalle mit Platz für über 2.000 Menschen. Hier werden unter anderem die Sitzungen des Parlaments und die Parteitage der PCC abgehalten, jedoch ist das Gebäude jedes Jahr auch Tagungsort zahlreicher internationaler Konferenzen. Im Municipio Miramar befindet sich das 5.500 Personen fassende Karl-Marx-Theater (spanisch: "Teatro Carlos Marx"), in dem große Events wie Jazz- oder Filmfestivals stattfinden. Wirtschaft. Frachter im Hafen von Havanna. Trotz der Bemühungen der Regierung die Industrialisierung auch in anderen Orten Kubas voranzutreiben, ist Havanna unverändert der bedeutendste Industriestandort in Kuba und verfügt über eine diversifizierte Wirtschaftsstruktur. Historisch profitierte Havanna vor allem von der Zuckerindustrie in der Umgebung, heute sind vor allem die Leichtindustrie, Metallurgie und Hersteller chemischer Erzeugnisse sowie die Nahrungsmittelindustrie in der Stadt vorhanden. Viele wichtige kubanische Unternehmen haben ihren Hauptsitz in Havanna, darunter das größte kubanische Unternehmen, die Handelsgesellschaft CIMEX und der Telekommunikationsanbieter ETECSA. Insgesamt haben 714 staatliche Firmen in Havanna ihren Sitz, das sind 32 % aller Unternehmen des Landes. Zahlreiche Pilotprojekte der aktuellen Wirtschaftsreformen haben ebenfalls ihren Schwerpunkt in der Hauptstadt. Über 60 Prozent der im Jahr 2013 eingeführten Kooperativen außerhalb der Landwirtschaft haben hier ihren Sitz. Von großer Bedeutung ist neben dem Tourismus ebenfalls das Bau- und Kommunikationsgewerbe. Auch die neuen Technologiezweige wie Biotechnologie oder Informationstechnologie sowie Pharmazeutische Unternehmen haben ihren Sitz vor Ort. Andere wichtige Wirtschaftszweige sind der Schiffsbau, Fahrzeugbau, Alkoholherstellung (darunter Rum), Textilienproduktion und Tabakverarbeitung. Zigarren, die in Havanna selbst gedreht werden, heißen nach der Stadt Havannas. Alle anderen Zigarren dürfen diesen Namen nicht verwenden. Havannas Hafen ist auch heute noch von wirtschaftlicher Bedeutung, ein großer Teil der kubanischen Im- und Exporte werden über ihn abgewickelt. Der Hafen ist auch Stütze der lokalen Fischindustrie. Seit 2014 wird er jedoch schrittweise vom Hafen des nahegelegenen Mariel abgelöst, der mittlerweile zum größten Containerhafen der Karibik ausgebaut wurde. Die Uferpromenade samt Hafenviertel soll in den kommenden Jahren für die touristische Nutzung ausgebaut werden. Eine neue Zuglinie verbindet die Hauptstadt mit dem Hafen von Mariel. Darüber hinaus sind in Havanna viele ausländische Firmen vertreten, z. B. der ägyptische Omnibushersteller Manufacturing Commercial Vehicles in einem Joint-Venture mit dem Transportministerium, der auch als lokaler Generalimporteur für die Marken des Mutterkonzerns Daimler tätig ist. Produziert werden allerdings auch Modelle der hauseigenen Marke MCV. Tourismus. Durch die Auflösung der Sowjetunion und der darauffolgenden schweren Wirtschaftskrise, begann 1991 in Kuba die Sonderperiode die von täglichen Stromabschaltungen und Versorgungskrisen auch in Havanna gekennzeichnet war. Um dringend benötigte Devisen zu erhalten, baute Kuba in den 1990er Jahren eine Tourismusindustrie auf, deren Schwerpunkt unter anderem in Havanna liegt. Heute ist der Tourismus der größte Wirtschaftszweig Havannas. Im Jahr 2010 besuchten 1,17 Millionen Touristen die Stadt, 46 % aller Besucher des Landes. Die Stadt bot im Jahr 2011 12.459 Zimmer für Touristen an. Das sind 21 % aller Zimmer der kubanischen Tourismusbranche (mit insgesamt 58.188 Räumen). Der Tourismus brachte Havanna in diesem Jahr Einnahmen von 30,3 Millionen US$. Statistik. Im Jahr 2011 waren in Havanna 907.016 Menschen am Erwerbsleben beteiligt, davon 82,6 % im Staatssektor. 1.180 kleine Privatunternehmen machten bis Mai 2013 von der Möglichkeit gebrauch, leerstehende Immobilien vom Staat zu pachten. 2011 wurden 4.361 neue Wohngebäude in der Stadt errichtet, davon zwei Drittel auf staatlicher Initiative. Verkehr. Die Stadt ist zugleich das wichtigste Verkehrszentrum des Landes. Havanna verfügt über ein ausgebautes Bussystem, das in den letzten Jahren stark erweitert und modernisiert wurde. Dennoch sind die Fahrpreise der öffentlichen Verkehrsmittel wie überall in Kuba extrem niedrig, Touristen zahlen allerdings meist einen höheren Preis in Konvertiblen Pesos (CUC). Am 1. Juli 2013 gab die Regierung bekannt, das Verkehrssystem Havannas künftig reorganisieren und komplett überholen zu wollen. Omnibus Metropolitanos. Ein "Omnibus Metropolitano" in Havanna. Die Busse der "Omnibus Metropolitanos (OM)" verbinden das Stadtzentrum von Havanna mit seinen suburbanen Vororten im Umkreis von 40 km. Sie ist die am häufigsten frequentierte und größte urbane Busflotte des Landes, die meisten Fahrzeuge sind moderne chinesische Busse der Marke Yutong, die seit 2008 in großer Zahl erworben wurden. Astro und Víazul. Die Busgesellschaft "Astro" bietet Überlandfahrten für Kubaner an, seit 2010 werden allerdings keine Tickets mehr an Touristen verkauft. In ganz Kuba existiert jedoch ein spezielles Busnetz für Touristen, "Víazul" genannt. Die Flotte besteht aus modernen chinesischen Bussen und verbindet alle größeren Städte der Insel miteinander. Von Havanna aus gibt es Verbindungen in alle Provinzhauptstädte, die Fahrpreise liegen je nach Entfernung zwischen 10 (Varadero) und 44 CUC (Bayamo). Flugverkehr. Der Flugverkehr der Stadt Havanna und ihres Umlands wird vom Flughafen Havannas „José Martí“ bedient (spanisch: "Aeropuerto Internacional José Martí"). Er befindet sich etwa 11 km südlich des Stadtzentrums, im Municipio Boyeros und ist der Haupthafen der kubanischen Fluggesellschaft Cubana. Der Flughafen ist einer der wichtigsten des Landes, sowohl für nationale als auch für internationale Flüge. Er wurde 1930 errichtet und seitdem mehrmals erweitert. Er verfügt heute über drei Terminals und eine 4.000 Meter lange Landebahn. Die angebotenen Fluglinien verbinden Havanna mit der Karibik, Südamerika, Nordamerika, Europa und Afrika. Des Weiteren existiert ein kleinerer Flughafen namens "Playa Baracoa" westlich von Havanna, der zumeist für Inlandsflüge eingesetzt wird. Bahnverkehr. Havanna ist an das kubanische Netzwerk von regionalen, interregionalen und Fernzügen angeschlossen, welches die Stadt mit allen anderen kubanischen Provinzen verbindet. Der Hauptbahnhof ist die "Estación Central de Ferrocarriles" in La Habana Vieja. Von Havannas Bahnhöfen ab werden jährlich zwischen acht und neun Millionen Passagiere befördert. Alle drei Tage fährt ein Nachtzug nach Santiago de Cuba und Guantánamo, mit Zwischenstopps in Santa Clara und Camagüey. Ein Ticket für die gesamte Strecke kostet 50 CUC. Neben dem Hauptbahnhof existiert in Havanna ein kleiner Bahnhof im Municipio "Casablanca" von dem aus die berühmte Hershey-Bahn nach Matanzas fährt. Diese ist zugleich die einzige elektrifizierte Bahnstrecke der Karibik. Ein Ticket kostet etwa 1,50 CUC. Schifffahrt. Die Bucht von Havanna ist einer der sichersten Häfen der Welt. Der Zugang zum offenen Meer wird durch die Beschaffenheit der Küstenlinie auf einen sehr schmalen Zugang begrenzt. Internationaler Schiffsverkehr findet dort auch in Form von Kreuzfahrtschiffen statt. Eine Fähre verbindet die Altstadt von Havanna mit den Stadtbezirken Regla und Casablanca, die etwa alle 10–15 Minuten von "Muelle Luz" abfährt. Die Fahrt kostet für Touristen etwa 1 CUC. Des Weiteren fährt täglich ein Tragflügelboot zur Isla de la Juventud. Shuttlebusse zum Boot fahren jeden Morgen um 9 Uhr am zentralen Busbahnhof ab. Straßennetz. In Havanna gibt es zahlreiche Taxis, darunter staatliche der Marken "Cubataxi", "Panataxi" und "Taxi OK" in denen ausschließlich mit CUC bezahlt werden kann. Zudem gibt es auch eine vielzahl privater und genossenschaftlicher Taxis, vom Oldtimer bis zum modernen Kleinwagen kommen alle Fahrzeuge zum Einsatz. Eine Besonderheit sind die Kollektivtaxis (spanisch: "Colectivos") die meistens länger entfernte Destinationen mit mehreren Fahrgästen ansteuern. Eine günstige Alternative für kurze Strecken sind die "Bicitaxis" genannten Fahrradtaxis, die überall in der Stadt verkehren. Berühmt ist Havanna zudem für seine alten Autos. Neben US-amerikanischen Oldtimern, überwiegend aus den fünfziger Jahren, prägen Fahrzeuge der russischen Automobilhersteller Lada, GAZ und UAZ das Stadtbild. Bildung. Havanna verfügt über eine breite Bildungslandschaft. Es stehen 416 Kinderkrippen mit 51.543 Plätzen zu Verfügung, von denen aber nur knapp 70 Prozent beansprucht werden. Des Weiteren gibt es in Havanna 518 Grundschulen, 182 weiterführende Schulen sowie 32 "Preuniversitario" genannte Schulen zur Erlangung der Hochschulreife. Für die technische Ausbildung stehen 51 Schulen zu Verfügung, ebenso gibt es 65 spezielle Bildungseinrichtungen z. B. für Autisten. Die Abschlussquote der Grundschule liegt in Havanna bei 100 Prozent, in den weiterführenden Schulen bei 97,5 Prozent. Die Universität von Havanna befindet sich im Stadtteil Vedado und wurde 1728 gegründet. Sie ist eine der ältesten auf dem Kontinent und war während des 18. Jahrhunderts eine der führenden Bildungseinrichtungen Amerikas. Heute studieren hier rund 60.000 Kubaner. Für den Sport stehen in Havanna 647 Einrichtungen zu Verfügung, darunter 352 Sportplätze, 286 Sporthallen und 9 Schwimmbäder. Gesundheit. Alle Kubaner haben Zugang zum landesweit kostenlosen Gesundheitssystem, das auch in Havanna mit zahlreichen lokalen Familienärzten in den einzelnen Municipios sowie zentralen Krankenhäusern, Polikliniken und Spezialeinrichtungen aufwarten kann. 2011 existierten in Havanna 2.775 medizinische Einrichtungen, darunter 40 Krankenhäuser mit über 16.000 Betten. Insgesamt arbeiteten in diesem Jahr 16.224 Krankenschwestern sowie 2.355 Familienärzte in der Stadt. Die Müttersterblichkeit lag 2011 bei 59,2 von 100.000 und damit über dem kubanischen Durchschnitt (40,6). Bei der Kindersterblichkeit liegt Havanna mit 4,3 pro 1.000 unter dem Landesdurchschnitt (4,9). Hormon. Als Hormon (zu "hormān" ‚antreiben, erregen‘) wird ein (unterschiedlich bestimmter) biochemischer Botenstoff bezeichnet, der von besonderen Zellen produziert und abgegeben wird, und an Zellen der Erfolgsorgane spezifische Wirkungen oder Regulationsfunktionen entfaltet. Der durch diesen Signalstoff ausgelöste biologische Prozess stellt einen Spezialfall der Signaltransduktion dar. Chemisch sind Hormone niedermolekulare Verbindungen, gelegentlich auch Peptide (sogenannte Peptidhormone). Definition. Der Begriff "Hormon" wurde 1905 von Ernest Starling geprägt. Aus dieser Zeit stammt der klassische Hormonbegriff, nach dem Hormone körpereigene Stoffe sind, die aus einer Drüse (glandulär) in den Blutkreislauf (endokrin) abgegeben werden, um in anderen Organen eine spezifische Wirkung zu erzielen (Beispiele: Schilddrüse, Nebennieren, Bauchspeicheldrüse). In Analogie dazu werden bei Gliederfüßern und Weichtieren Botenstoffe als Hormone angesehen, die über die Hämolymphe an ihren Wirkort gelangen. Diese klassische Definition findet bis heute Anwendung, wurde aber vielfach modifiziert und erweitert. So wurde der Hormonbegriff um aglanduläre Hormone erweitert, die wie klassische Hormone endokrin, aber nicht aus Drüsen freigesetzt werden. Beispiele hierfür sind Calcitriol, Erythropoietin und das atriale natriuretische Peptid sowie Substanzen, die von Nervenzellen produziert und ins Blut abgegeben werden (Neurohormone). Auch körpereigene Stoffe aus spezialisierten Zellen, die nach Abgabe unter Umgehung des Blutwegs direkt im unmittelbar benachbarten Gewebe (parakrin) ihre Wirkung erzielen (Gewebshormone) werden gelegentlich als Hormone bezeichnet. Anhand ihrer Wirkungsschwerpunkte werden von den Hormonen die Zytokine abgegrenzt, die Wachstum, Proliferation und Differenzierung von Zellen regulieren. Zytokine werden aglandulär von Zellen sekretiert, deren Aufgabe nicht allein in der Sekretion dieses Stoffes besteht, und wirken typischerweise autokrin oder parakrin. Auch Neurotransmitter, die von Nervenzellen über den synaptischen Spalt abgegeben werden um ebenfalls an Nervenzellen ihre Wirkung zu entfalten, werden in der Regel nicht als Hormone bezeichnet. Allgemeine Einführung. Hormone wurden seit den frühen Jahrzehnten des 20. Jahrhunderts entdeckt; der Begriff "Hormon" wurde 1905 von Ernest Starling geprägt. Er entdeckte, dass bei der Stimulation durch Salzsäure aus der Darmwand ein Stoff freigesetzt wurde, der die Pankreas-Sekretion anregte (ein Augenzeugenbericht ). Diesen Stoff nannte er Sekretin. Hormone wirken nur auf bestimmte Zielorgane. Nur dort finden sich spezielle Hormonrezeptoren, an welche die Hormonmoleküle binden. Häufig sind diese Rezeptoren Membranproteine, die auf der Zelloberfläche das Hormon binden und auf der Innenseite der Membran nach Hormonbindung Signale auslösen. Einige Hormone (Schilddrüsenhormon, Vitamin D3 und die Steroid­hormone, s. u.) erreichen ihre Rezeptoren erst, wenn sie die Zellmembran durch Diffusion durchdrungen haben. Ihre Rezeptoren liegen im Zytoplasma vor oder im Zellkern. Nach der Bindung von Hormon und Rezeptor aggregieren die Rezeptor/Hormon-Komplexe zu Rezeptordimeren, dringen in den Zellkern und steuern dort die Genaktivierung. Hormonbildende Zellen. Hormone werden von speziellen hormonproduzierenden Zellen gebildet: Diese befinden sich in Drüsen in der Hirnanhangdrüse (Hypophyse), der Zirbeldrüse, der Schilddrüse, der Nebenniere und in den Langerhans’schen Inselzellen der Bauchspeicheldrüse. Einige Hormone werden auch von Nervenzellen gebildet, diese nennt man Neurohormone oder Neuropeptide. Hormone des Magen/Darm-Traktes finden sich verteilt in den Lieberkühn-Krypten. Zudem werden in der Leber Vorstufen des Angiotensins gebildet. Geschlechtshormone werden von spezialisierten Zellen der weiblichen oder männlichen Geschlechtsorgane gebildet: Theca- und Granulosazellen bei der Frau und Leydig-Zellen beim Mann. Charakteristisch für die hormonproduzierenden Zellen sind Enzyme, die nur in diesen Zellen vorkommen. Die Freisetzung der Hormone ist individuell für jedes Hormon geregelt. Häufig werden Hormone in der Zelle gespeichert und nach Stimulation durch einen Freisetzungsstimulus freigesetzt. Die Freisetzungsstimuli können z. B. Releasing-Hormone sein (Freisetzungshormone, auch Liberine genannt, siehe unten). Hormonfreisetzung. Die Hormonfreisetzung (mit Ausnahme der parakrinen Stimulatoren) erfolgt in der Nähe von Blutgefäßen, die viele kleine Fenster haben, durch die Hormone direkt ins Blut übergehen können. Bei auf die Sekretion von Neuropeptiden spezialisierten Stellen spricht man von Neurohämalorganen. Durch die Bindung eines Stimulus für die Hormonfreisetzung kommt es häufig in der Zelle zu einem Anstieg der intrazellulären Calciumkonzentration. Dieser Calcium-Anstieg erlaubt die Fusion der Zellorganellen, in denen sich die vorgefertigten Hormone befinden, mit der Zellmembran. Sobald die Organellenmembran mit der Zellmembran fusioniert ist, haben die Hormone freien Zugang zum Raum außerhalb der Zelle und können in die dort benachbarten Blutgefäße durch die gefensterte Blutgefäßwand wandern. Endokrinologie. Die Wissenschaft, die sich mit der Erforschung der Hormone befasst, ist die Endokrinologie. Ein Wissenschaftler oder Arzt, der sich mit der Erforschung der Hormone, ihrer Wirkungsweisen und mit Erkrankungen des hormonalen Geschehens beschäftigt, wird als Endokrinologe bezeichnet. Einteilung nach Herkunft. Es gibt spezielle Hormondrüsen, in denen hormonbildende Zellen im engen Verbund zusammenhängen. Viele Hormone werden aber von Zellen gebildet, die nicht ausschließlich mit hormonbildenden Zellen im Verbund stehen. So liegen die "G-Zellen", die Gastrin bilden, vereinzelt im pylorischen Antrum des Magens vor. Ähnlich ist es mit den Zellen für die Hormone Cholezystokinin, Sekretin oder Somatostatin in der Darmwand. Entscheidend für die Hormonproduktion ist nicht die äußere Umgebung einer Zelle, sondern die Ausrüstung innerhalb mit den charakteristischen Enzymen. Hormone in der Umwelt. Besondere Aufmerksamkeit verdient die Tatsache, dass Hormone zunehmend in die Umwelt eingetragen werden und später über die pflanzliche und tierische Nahrungskette in ungünstiger und unkontrollierter Dosierung vom Menschen wieder aufgenommen werden. Ein Beispiel sind die Hormone der Anti-Baby-Pille, die von Kläranlagen nicht abgebaut werden. Sie werden mit dem gereinigten Wasser in die Flüsse eingeleitet. Da die Kläranlagen auf den Medikamenteneintrag nicht ausgelegt sind, gelangen Medikamente und ihre Rückstände fast ungehindert über die Oberflächengewässer auch wieder ins Trinkwasser. Mehr als 180 der 3000 in Deutschland zugelassenen Wirkstoffe lassen sich in deutschen Gewässern nachweisen: Von Hormonen und Lipidsenkern über Schmerzmittel und Antibiotika bis hin zum Röntgenkontrastmittel. Auch bestimmte Schadstoffe wie beispielsweise DDT, PCB, PBDE oder Phthalate wirken wie Hormone und beeinflussen etwa die immer früher einsetzende erste Monatsperiode bei Mädchen. Heidekrautgewächse. Die Heidekrautgewächse (Ericaceae) bilden eine Familie in der Ordnung der Heidekrautartigen (Ericales) innerhalb der Bedecktsamigen Pflanzen (Magnoliopsida). Mit etwa 126 Gattungen und etwa 4000 Arten besitzen sie eine weltweite Verbreitung. Arten aus dieser Familie werden als Zierpflanzen, Nahrung und Arzneimittel verwendet. Beschreibung. In dem heute weit gefassten, auf molekulargenetischen Untersuchungen basierenden Umfang der Familie der Ericaceae s.l. gibt es nur wenige morphologische Merkmale, die allen Unterfamilien gemeinsam sind. Besonders die Monotropoideae weichen von den allgemeineren Kennzeichen der Familie ab. Vegetative Merkmale. Es sind meist verholzende Pflanzen: oft immergrüne oder seltener laubabwerfende, kleine Bäume, (oft heidekrautartige = ericoide) Sträucher, selten Lianen oder Epiphyten. Seltener sind es krautige Pflanzen. Die Arten der Unterfamilie Monotropoideae sind fleischige, chlorophylllose, mykotrophe Pflanzen. Einige Arten bilden Rhizome, Stolonen oder aus dem Hypocotyl verholzende Knollen, die bis zu 1 Meter Durchmesser aufweisen können. Pflanzenteile sind oft behaart mit ein- bis mehrzelligen Trichomen oder Schuppen, die manchmal auch drüsig sein können. Die Sprossachsen sind mehr oder weniger bleistiftförmig oder manchmal deutlich geflügelt. Die Laubblätter sind wechselständig und spiralig oder zweizeilig, selten gegenständig oder wirtelig angeordnet. Blattstiele sind unterschiedlich oder fehlen. Die einfache Blattspreite ist winzig bis sehr groß, ledrig oder krautig. Der Blattrand ist meist glatt oder eingerollt, seltener gezähnt oder gekerbt. Junge Blätter besitzen oft eine rote Färbung. Nebenblätter fehlen. Generative Merkmale. Die Blüten stehen selten einzeln, meist zu mehreren in achsel- oder endständigen, traubigen, ährigen, kopfigen, schirmtraubigen oder rispigen Blütenständen, die oft lang herabhängend sind. Es sind haltbare oder vergängliche Tragblätter und oft zwei Deckblätter je Blüte vorhanden. Es sind nur selten extraflorale Nektarien vorhanden. Es ist meist ein Blütenstiel vorhanden. Die meist duftlosen Blüten sind meist zwittrig oder seltener funktional eingeschlechtig. Nur die Gattung "Epigaea" ist zweihäusig getrenntgeschlechtig (diözisch). Die kleinen bis großen Blüten sind meist fünfzählig (drei- bis siebenzählig) und radiärsymmetrisch oder seltener etwas zygomorph meist mit doppelten Perianth. Beim Tribus Rhodoreae sind die Blüten zygomorph (beispielsweise einige Arten der Gattung "Rhododendron"). Es sind meist fünf (vier bis sieben), freie oder meist verwachsene Kelchblätter vorhanden. Die meist fünf (drei bis sieben) Kronblätter sind meist verwachsen. Oft ist ein prominenter, nektarbildender Diskus vorhanden. Es sind meist zwei Kreise mit je vier bis fünf freie, fertilen Staubblättern vorhanden. Beispielsweise ist bei "Loiseleuria" nur ein Kreis mit fünf obdiplostemonen Staubblättern vorhanden; bei den Styphelioideae sind fünf, vier oder nur zwei Staubblätter vorhanden. Die gleichen bis ungleichen Staubfäden sind meist gerade oder selten S-förmig, untereinander frei oder verwachsen und es können Sporne ausgebildet sein. Die Staubbeutel besitzen Poren. Die Pollenkörner sind meist in tetraedrischen Tetraden zusammengefasst, selten einzeln. Meist vier oder fünf (zwei bis zehn) Fruchtblätter sind zu einem synkarpen, ober- bis unterständigen Fruchtknoten verwachsen. Es sind meist viele, selten nur eine anatrope bis campylotrope Samenanlagen je Fruchtknotenfach vorhanden. Der Griffel endet meist in einer kopfigen, selten schwach gelappten Narbe. Die Bestäubung erfolgt mit wenigen Ausnahmen bei Taxa mit oberständigen Fruchtknoten durch Insekten (oft Bienen, Entomophilie) und bei den Taxa mit unterständigen Fruchtknoten durch Kolibris (Ornithophilie). Es werden lokulizidale oder septizidale Kapselfrüchte, Beeren, Steinfrüchte oder selten Nussfrüchte gebildet. Manchmal sind auf der Frucht noch fleischige Kelchblätter vorhanden. Meist sind in jeder Frucht viele, bei "Gaylussacia" nur einer je Fruchtfach, Samen vorhanden. Die kleinen, etwa 1 bis 1,5 mm langen Samen besitzen Flügel oder bei "Bejaria" Anhängsel. Das Endosperm ist fleischig und der gerade Embryo meist weiß oder manchmal grün. Die Basischromosomenzahlen betragen n = 6, 8, 11, 13, 19, 23. Inhaltsstoffe. Bei vielen Taxa sind Polyphenole: Gerbstoffe (Tannine), Flavonoide und phenolische Heteroside (Phenolglykosiden, Iridoiden), beispielsweise Arbutin, Pyrosid, Rhododendrin vorhanden. Oft kommen giftige Diterpene vor, beispielsweise Acetylandromedol, durch das der „Rhododendronhonig“ giftig ist. Ein ericoider Mykorrhiza-Pilz isoliert von "Woollsia pungens" Ökologie. Man findet Pflanzenarten dieser Familie oft auf mineralstoffarmem, saurem Boden, auf dem sie mit Hilfe von Endomykorrhiza (Symbiose mit Bodenpilzen) notwendige Nährstoffe erhalten. Systematik und Verbreitung. Pflanzenarten dieser Familie kommen fast weltweit vor. Es werden alle Klimazonen und Höhenlagen außer der Dauerfrostzone besiedelt, damit fehlt sie nur auf dem Antarktischen Kontinent. Nur wenige Arten gedeihen im tropischen Tiefland. Die Familie Ericaceae wurde 1789 als „Ericae“ von Antoine Laurent de Jussieu in "Genera Plantarum." S. 159–160 erstveröffentlicht. Typusgattung ist "Erica" Nur noch Synonyme für Ericaceae sind: Vacciniaceae, Monotropaceae, Pyrolaceae, Siphonandraceae. Schon lange werden die Ericaceae in die Ordnung der Ericales gestellt, die im letzten Jahrzehnt um einige Familien erweitert wurde. Innerhalb der Ericales bilden die Ericaceae mit den Clethraceae und Cyrillaceae eine Klade. Man unterteilt die Familie der Ericaceae in acht Unterfamilien und insgesamt 24 Tribus. In der Familie gibt es etwa 126 Gattungen mit etwa 4000 Arten. Nutzung. Viele Arten und ihre Sorten werden als Zierpflanzen in Parks, Gärten und Gebäuden genutzt. Die Früchte einiger Arten werden gegessen. Von vielen Arten wurden die medizinischen Wirkungen untersucht. Es werden beispielsweise Drogen von "Arctostaphylos uva-ursi" (Uvae-ursi folium - Bärentraubenblätter), "Vaccinium myrtillus" (Myrtilli fructus - Heidelbeerenfrüchte) und "Vaccinium vitis-idaea" (Vitis ideae folium - Preiselbeerenblätter) verwendet. Heidekräuter. Die Heidekräuter ("Erica"), auch Heiden oder Erikas genannt, sind eine Pflanzengattung aus der Familie der Heidekrautgewächse (Ericaceae), die rund 860 Arten umfasst. Sie sind mehrheitlich in Südafrika beheimatet, nur wenige Vertreter strahlen aus bis nach Europa und Vorderasien. Umgangssprachlich werden viele Zwergsträucher der Heidelandschaft „Heidekraut“ genannt, ohne dass sie im strengen Sinne zu den Heidekräutern ("Erica") gehören. Dies gilt auch für die eng verwandte Besenheide ("Calluna vulgaris"), die in Europa oft die bestandsprägende Pflanzenart einer Heidelandschaft ist. Beschreibung. Heidekräuter sind immergrüne, niederliegende Sträucher und Bäume, die bis zu 10, selten sogar bis 30 Zentimeter groß werden können. Das Mark ist gleichmäßig, die Knospenschuppen können fehlen. Trag- und Vorblätter sind selten mit dem Achselspross verwachsen (recauleszent). Die Blätter stehen in Wirteln, selten gegenständig oder verstreut. Die Blütenblätter welken, sind aber dauernd, die in der Regel vier, selten ein bis fünf Kelchblätter sind klein und tragblattartig bis groß und farbig, die meist acht, selten vier bis sechs oder zehn Staubblätter weisen gerade bis s-förmige Staubfäden, und im Querschnitt abgeflachte bis zylindrische Sporne entweder am äußersten Ende der Staubfäden oder rückseitig auf den Staubbeuteln auf. Selten bilden die Pollen Monaden. Der leicht bis selten stark verdickte, becherförmige oder zurückgebogene Griffel ist deutlich länger als der Fruchtknoten, selten fehlt er fast ganz oder ist hinfällig. Narbenlappen können ganz fehlen bis gut entwickelt sein Meist haben sie vier, selten ein bis acht Fruchtblätter mit in der Regel mehr als einer Samenanlage. Die Früchte sind Steinfrüchte und öffnen sich längs entlang der Außenwände (loculicidal) oder gar nicht. Die Chromosomenzahl beträgt n=12, selten n=18. Verbreitung. Rund 90 % der Arten der Gattung sind im südlichen Afrika beheimatet, die anderen Arten finden sich im restlichen Afrika, Madagaskar, der südwestlichen arabischen Halbinsel, dem mittleren Osten oder in Europa. Sie finden sich von Meereshöhe bis in die afroalpine Stufe. Systematik. Atlantische Grauheide, "Erica cinerea", in Irland Die bereits 1753 durch Linné erstbeschriebene Gattung umfasst rund 860 Arten. Gemeinsam mit den monotypischen Gattungen "Daboecia" und "Calluna" bildet sie die Tribus Ericeae in der Unterfamilie der Ericoideae, diese Klassifikation wurde durch molekulargenetische Untersuchungen gestützt. Die innere Systematik der Gattung hingegen ist unzureichend erforscht und gilt als offen. Heidelbeeren. Die Heidelbeeren ("Vaccinium") sind eine Pflanzengattung aus der Familie der Heidekrautgewächse (Ericaceae). Sie werden im deutschen Sprachgebrauch allgemein als Heidelbeeren oder Blaubeeren bezeichnet, wobei die Bezeichnung im engeren Sinne nur für die in Europa verbreitetste Art gilt, die Heidel- oder Blaubeere ("Vaccinium myrtillus"). Die 450 bis 500 "Vaccinium"-Arten sind vorwiegend auf der Nordhalbkugel beheimatet. Erscheinungsbild und Laubblätter. Die "Vaccinium"-Arten wachsen als immergrüne oder laubabwerfende, kriechende, ausgebreitete, selbständig aufrechte oder kletternde Zwergsträucher, Sträucher oder Bäume. Meist wachsen sie terrestrisch, seltener auch epiphytisch. Die oberirdischen Pflanzenteile können kahl oder behaart sein; dabei sind die Haare (Trichome) gestielt oder ungestielt, sowie drüsig oder nicht drüsig. Die wechselständig und spiralig oder sehr selten pseudowirtelig angeordneten Laubblätter können gestielt sein. Die häutigen bis ledrigen Laubblätter sind kahl oder behaart. Die einfachen Blattspreiten sind elliptisch, eiförmig, länglich-lanzettlich oder spatelförmig. Der flache oder zurückgebogene Blattrand ist glatt oder gesägt. a>". Gut zu erkennen sind die zurückgebogenen Kronzipfel. Blütenstände und Blüten. Die end- oder achselständigen, traubigen Blütenstände enthalten meist zwei bis zehn Blüten; manchmal stehen die Blüten einzeln oder zu mehreren in den Blattachseln. Es sind haltbare oder bald vergängliche Tragblätter vorhanden. Kleine Deckblätter sind nur in der Sektion "Oxycoccus" vorhanden. Die Blütenstiele können nahe der Blüte verbreitert sein und meist sind sie gegliedert. Die zwittrigen Blüten sind radiärsymmetrisch und selten vier- oder meist fünfzählig mit doppelter Blütenhülle (Perianth). Die selten vier oder meist fünf Kelchblätter sind nur an ihrer Basis verwachsen. Die meist fünf, selten vier oder sechs Kronblätter sind meist auf fast ihrer ganzen Länge kugel-, glocken-, urnen- oder röhrenförmig verwachsen; selten sind sie fast frei. Die Farben der Kronblätter reichen von meist grün, weiß über creme- bis rosa- und bronzefarbe, selten sind sie rot. Die geraden bis zurückgekrümmten Kronzipfel sind meist kürzer als die Kronröhre. Es sind meist zwei, selten ein, Kreise mit je vier oder fünf Staubblättern vorhanden, die die Krone meist nicht überragen. Die kahlen oder behaarten Staubfäden sind gerade und flach. Die Staubbeutel können Hörner besitzen. Der Diskus in ringförmig. Vier oder fünf Fruchtblätter sind zu einem unterständigen, vier- bis fünfkammerigen oder meist acht- bis zehn pseudokammerigen Fruchtknoten verwachsen. Es sind viele Samenanlagen vorhanden. Die Narben sind kopfig, beziehungsweise unauffällig und gestutzt. Früchte und Samen. Kennzeichnend für die Gattung "Vaccinium" sind die eiförmigen bis kugeligen, fleischigen Beeren. Die bei Reife roten oder blauen Beeren enthalten zwei bis vierzig Samen. Die relativ kleinen, eiförmigen bis ellipsoiden besitzen eine netzartige, harte oder schleimige Samenschale (Testa). Chromosomen. Die Chromosomengrundzahl beträgt x = 12. Nutzung. Die Früchte der meisten "Vaccinium"-Arten sind essbar. Es gibt einige Sorten, die als Beerenobst angebaut werden. Von einigen Arten wurden die medizinischen Wirkungen untersucht. In Europa werden traditionell vor allem die Heidelbeere ("Vaccinium myrtillus") und die Preiselbeere ("Vaccinium vitis-idaea"), in manchen Regionen aber auch Moosbeere ("Vaccinium oxycoccos") und Rauschbeere ("Vaccinium uliginosum") in der Natur gesammelt und gegessen. Die nordamerikanischen Wildformen dienten schon früher den nordamerikanischen Ureinwohnern, etwa im Gebiet des heutigen US-Bundesstaates Washington, als Nahrungsmittel. So fanden sich Trockenplätze, die nur durch rechteckige Vertiefungen erkennbar sind. Elf von ihnen konnten in der "Indian Heaven Wilderness" im Gifford Pinchot National Forest nachgewiesen werden. Kulturheidelbeeren (Kultur-Heidelbeeren, Strauch-Heidelbeeren), die heute in Plantagen angebaut werden, sind überwiegend Kreuzungen aus den in Nordamerika beheimateten Arten "Vaccinium angustifolium" und "Vaccinium corymbosum" sowie Kulturformen der Elternarten selbst, weiterer Hybride aus der Amerikanischen Heidelbeere ("Vaccinium corymbosum") und anderen "Vaccinium"-Arten. Seit Beginn des 20. Jahrhunderts wurden 75 bis 100 neue Sorten kultiviert. Vorkommen. Die Gattung "Vaccinium" ist vorwiegend auf der Nordhalbkugel beheimatet. Im tropischen Asien, Zentral- und Südamerika ist sie auf die Hochgebirge beschränkt. Einige Arten finden sich in Afrika und auf Madagaskar. In China kommen 92 Arten vor, 51 davon nur dort. 25 Arten sind in Nordamerika beheimatet. Die "Vaccinium"-Arten wachsen meist auf nährstoffarmen und sauren Böden, vorwiegend in Heide- und Moorlandschaften oder in lichten Wäldern. In den Gebirgen sind sie in der subalpinen und alpinen Höhenstufe anzutreffen. Systematik. Die Erstveröffentlichung der Gattung "Vaccinium" erfolgte 1753 durch Carl von Linné in "Species Plantarum", 1, S. 349–352. Typusart ist "Vaccinium uliginosum" L. Der botanische Gattungsname "Vaccinium" geht möglicherweise auf "baccinium" für Beerenstrauch und "bácca" für Beere zurück. Die Gattung "Vaccinium" gehört zur Tribus Vaccinieae in der Unterfamilie der Vaccinioideae innerhalb der Familie der Ericaceae. Synonyme für "Vaccinium" L. sind: "Hornemannia" Vahl, "Hugeria" Small, "Neojunghuhnia" Koord., "Oxycoccus" Hill, "Rigiolepis" Hook. f. Die Gattung "Vaccinium" umfasst unter anderem Preisel-, Heidel-, Rausch- und Moosbeeren. Blüten und Laubblätter von "Vaccinium ovatum" Heilige Schrift. Als heilige Schriften bezeichnet die vergleichende Religionswissenschaft Texte, die für eine Religion normativ sind. In den unterschiedlichen Religionen gibt es auch ein je unterschiedliches Verständnis, was als normativer Text gilt. Ebenso ist die jeweilige Autorität eines Textes in den Religionen unterschiedlich. Religionen, die sich stark an Texten orientieren, nennt man auch Schrift- oder Buchreligionen. In schriftlosen Kulturen spielen kollektive Überlieferungen von Mythen als orale Texte die gleiche Rolle wie heilige Schriften "(siehe auch: Ethnische Religion)". Heilige Schriften verschiedener Religionen. Der Begriff „Heilige Schrift“ unterscheidet dort die Texte, die als Gottes Selbstmitteilung gelten oder diese enthalten, von ihrer menschlichen, mündlichen und schriftlichen Auslegung. Ebenso gibt es in vielen anderen Religionen oder religiösen Bewegungen Schriften, die als heilig angesehen werden, z. B. bei den Jinas, den Drusen, den Jesiden und den Bahai. Hofheim am Taunus. Hofheim am Taunus ist die Kreisstadt des Main-Taunus-Kreises in Hessen und liegt zentral im Rhein-Main-Gebiet zwischen der Landeshauptstadt Wiesbaden und Frankfurt am Main. Hofheim wies im Jahr 2014 einen weit überdurchschnittlichen Kaufkraftindex von 144 Prozent des Bundesdurchschnitts (100 Prozent) auf. Geografie. Blick über Hofheim mit der St. Peter und Paul Kirche Geografische Lage. Hofheim liegt am Südrand des Taunus zwischen den Städten Wiesbaden und Frankfurt am Main an den Bundesautobahnen A 66 und A 3. Nachbargemeinden. Hofheim grenzt im Norden an die Städte Eppstein und Kelkheim (Taunus), im Osten an die kreisfreie Stadt Frankfurt am Main, die Gemeinde Kriftel und die Stadt Hattersheim am Main, im Süden an die Städte Flörsheim am Main und Hochheim am Main sowie im Westen an die kreisfreie Landeshauptstadt Wiesbaden. Geschichte. Platz am Untertor – Reste der mittelalterlichen Stadtbefestigung Die bislang ältesten Funde aus dem Gebiet um Hofheim stammen aus der Altsteinzeit (75.000 v. Chr.). Aus der Jungsteinzeit (5000 v. Chr.) konnten Siedlungsgebiete an den Ufern des Schwarzbachs, beiderseits des heutigen Schmelzwegs und auf dem Kapellenberg nachgewiesen werden. Um 40 n. Chr. wurde das Gebiet von den Römern besiedelt, die hier auch zwei Kastelle bauten. Die erste urkundliche Erwähnung erfolgte im Jahre 1263 unter dem Namen "Hoveheim". Hofheim gehörte Graf Graf Philipp VI. von Falkenstein als Kaiser Karl IV. am 21. März 1352 Hofheim die Stadtrechte verlieh. Diese Urkunde gab den Herren über Hofheim das Recht Mauern, Tore und Brücken zu bauen, einen Galgen zu errichten, Gericht zu halten, Handwerk zu betreiben und Markt abzuhalten. Im Reichskrieg gegen Philipp den Älteren von Falkenstein wurde es 1366 von Kurmainz erobert, 1429 jedoch an die Herren von Kronberg verkauft. 1460 wurde es zurückgekauft, aber bereits 1465 an die Grafen von Eppstein verpfändet, die nach ihrem Aussterben 1535 von den Grafen zu Stolberg beerbt wurden. Diese führten 1540 die Reformation ein. Dem Mainzer Erzbischof Daniel Brendel von Homburg gelang es 1559, die Pfandschaft wieder einzulösen. Unter der Regierung von Johann Adam von Bicken, Erzbischof und Kurfürst von Mainz, erreichten die Hexenprozesse in Kurmainz ihren Höhepunkt. In der Zeit von 1588 bis 1602 wurden in den beiden Ämtern Höchst und Hofheim 23 Frauen der Hexerei angeklagt und 15 von ihnen hingerichtet. (Die Stadtverordnetenversammlung der Stadt Hofheim am Taunus beschloss am 3. November 2010 eine Rehabilitierung der wegen Hexerei verurteilten Bürgerinnen und Bürger.) 1603 wurde in Hofheim wieder ein katholischer Pfarrer eingesetzt. Im Dreißigjährigen Krieg wurde es durch Spanier, Bayern, Schweden und Franzosen geplündert und verwüstet. Im Reichsdeputationshauptschluss von 1803 fiel Hofheim an die Fürsten von Nassau-Usingen, das 1806 mit dem Fürstentum Nassau-Weilburg zum Herzogtum Nassau vereinigt wurde. 1866 wurde das Herzogtum Nassau von Preußen einverleibt und gehörte zur Provinz Hessen-Nassau. Nachdem es lange Zeit verkehrsmäßig im Abseits lag, wurde Hofheim von 1874 bis 1877 mit dem Bau der Main-Lahn-Bahn zwischen Frankfurt und Limburg an das Eisenbahnnetz angeschlossen. Nach dem Ende des Zweiten Weltkrieges fiel Hofheim an das neu gegründete Land Hessen. Seit 2008 werden auch in Hofheim durch den Künstler Gunter Demnig Stolpersteine für Opfer des Nationalsozialismus verlegt. Bis zum Winter 2014 waren rund 50 Steine in zahlreichen Stadtteilen gesetzt. Eingemeindungen. Am 1. Januar 1938 wurde Marxheim eingemeindet. Auf freiwilliger Basis kamen am 31. Dezember 1971 Langenhain, am 1. April 1972 Diedenbergen und am 1. Juli 1972 Lorsbach hinzu. Per Gesetz folgten am 1. Januar 1977 Wallau und Wildsachsen. Am 1. Januar 1980 wurde Hofheim Kreisstadt des Main-Taunus-Kreises und war 1988 Hessentagsstadt. Bevölkerungsentwicklung. Um 1900 hatte Hofheim etwa 2.800 Einwohner, 1908 schon 4040, 1938 dann 7800. 1972 war die Zahl auf 27.500 angewachsen, 1977 auf 33.000. Ihren Höchststand hatte sie 2002 mit 40.863 Einwohnern. Bürgermeisterin. Die Bürgermeisterin ist Gisela Stang (SPD). Sie setzte sich bei der Wahl 2007 mit 52 % und bei der Wiederwahl 2013 mit 54,5 % der gültigen Stimmen durch. Wappen. Blasonierung: "Geteilt und unten von Blau und rot gespalten; oben in Schwarz der wachsende, golden nimbierte hl. Petrus mit silbernem Ober- und blauen Untergewand, in der Rechten ein goldenes Buch, in der Linken ein goldener Schlüssel; unten vorne ein rot bewehrter goldener Löwe zwischen goldenen Schindeln, hinten ein sechsspeichiges silbernes Rad." Das Wappen ist seit 1907 amtlich gebilligt und wurde 1920 offiziell verliehen. Es entspricht älteren Gerichtssiegeln, deren ältestes nach der Stadtrechtsverleihung von 1352 datiert. Als seinerzeitige zeitweilige Ortsherren werden Mainz mit dem Mainzer Rad und Erzbischof Gerlach als Graf aus dem Haus Nassau mit dem Löwen repräsentiert. Sehenswürdigkeiten. Altes Rathaus in Hofheim am Taunus Europäischer Bahai-Tempel in Hofheim am Taunus im Stadtteil Langenhain Einzelhandel. Aufgrund seiner Lage mitten im Rhein-Main-Gebiet und der hervorragenden Verkehrsanbindung spielt Hofheim selbst keine große Rolle im Einzelhandel. Auf Hofheimer Gemarkung befindet sich in Wallau das Einrichtungshaus IKEA. Seit Herbst 2010 wird die Einzelhandelslandschaft der Hofheimer Innenstadt durch die überdachte Einkaufspassage Chinon Center mit ca. 20 Einzelhandelsgeschäften und einem Kino auf drei Etagen erweitert. Verkehr. Hofheim mit seinen Stadtteilen liegt entlang der Autobahn A 66 (zwischen Wiesbaden und Frankfurt) und ist über fünf Auffahrten erschlossen. Außerdem liegen die Ortsteile Diedenbergen, Wallau und Wildsachsen noch an der A 3 (Köln–Würzburg). Für den öffentlichen Personennahverkehr bestehen an den beiden Bahnhöfen Hofheim (Taunus) und Lorsbach an der Main-Lahn-Bahn eine direkte S-Bahn-Anbindung (Linie S2) in Richtung Niedernhausen sowie über Frankfurt am Main nach Dietzenbach. Ebenfalls hält die Regionalbahn RB 20 und der Regionalexpress RE 20 auf der Linie Limburg an der Lahn–Frankfurt am Main am Hofheimer Bahnhof. Somit sind in den Hauptverkehrszeiten sieben Fahrten pro Stunde und Richtung zwischen Hofheim und Frankfurt möglich. Die Stadtteile von Hofheim sowie die angrenzenden Gemeinden sind durch zahlreiche Omnibusverbindungen und das Anrufsammeltaxi erreichbar. Auch in die Landeshauptstadt Wiesbaden besteht eine direkte, tagsüber halbstündlich verkehrende Omnibusverbindung. Das Gemeindegebiet wird darüber hinaus durch die Tunnel Wandersmann Nord und Wandersmann Süd der Schnellfahrstrecke Köln-Rhein/Main unterquert. Bildung. Neben den oben aufgeführten Bildungseinrichtungen beherbergt die Kreisstadt Hofheim am Taunus eine Volkshochschule, eine Stadtbücherei und ein Stadtmuseum. Sport- und Vereinsleben. Die SG Wallau-Massenheim ist ein Handball-Sportverein, welcher im Hofheimer Ortsteil Wallau ansässig ist. Die Spielvereinigung war lange Zeit in der Handball-Bundesliga vertreten. Im Jahre 2005 erfolgte jedoch der Abstieg in die Handball-Regionalliga-Südwest. Der Schachverein 1920 Hofheim hat eine 25-jährige Bundesligatradition und spielt derzeit mit seiner ersten Mannschaft in der 2. Bundesliga West. Die Frauenmannschaft spielt ebenfalls seit 1999 ununterbrochen in der 2. Bundesliga und ist stärkste hessische Frauenmannschaft. Motorsport wird in Hofheim seit 1958 durch den MSC Diedenbergen betrieben. Die Speedwaymannschaft war mehrmals Deutscher Meister und brachte aus ihren Reihen mehrere Europameister und Weltmeister hervor (zum Beispiel Gerd Riss und Egon Müller). Die Basketball-Damenmannschaft des TV Hofheim spielte bis 2008 in der 2. Bundesliga Süd. Seit der Saison 2008/09 tritt die erste Mannschaft gemeinsam mit dem TV Langen in einer Spielgemeinschaft, den Rhein-Main Baskets, an. Dieser glückte gleich im ersten Spieljahr der Aufstieg in die 1. Damen-Basketball-Bundesliga. Die Tischtennisabteilung der SG Wildsachsen spielt in der Saison 2009/2010 mit drei Herrenmannschaften in der Verbandsliga, Kreisliga und Kreisklasse. Der Blasmusik in traditioneller, moderner und konzertanter Form wird seit 1962 beim Musikzug Wallau gefrönt. Hochheim am Main. Hochheim am Main ist eine Stadt im Main-Taunus-Kreis in Hessen und liegt zentral im Rhein-Main-Gebiet zwischen Frankfurt am Main und Mainz. Geografische Lage. Blick über die Weinlage Stielweg und die Oberrheinische Tiefebene bis zum Odenwald Die Stadt Hochheim liegt etwa 35 Meter über der Untermainebene auf einer Geländestufe am Südrand des Main-Taunus-Vorlandes. Der Südhang dieser sich auf etwa fünf Kilometer Länge erstreckenden Geländestufe besteht, teilweise bis dicht ans Mainufer, aus Weinbergen. Von den Weinbergen und vom südlichen Stadtrand gibt es eine Fernsicht bis Darmstadt, zur Neunkircher Höhe im Odenwald, zu der markanten Spitze des Melibokus an der Bergstraße in 38 Kilometern Entfernung und schließlich bis Oppenheim in Rheinhessen. Die Stadtsilhouette ist aus südlicher Richtung weit sichtbar. In unmittelbarer Nähe befinden sich die Großstädte Frankfurt am Main, Wiesbaden und Mainz. Nachbargemeinden. Hochheim grenzt im Norden an Hofheim am Taunus, im Osten an Flörsheim am Main, im Süden, getrennt durch den Main, an Rüsselsheim am Main, Bischofsheim und Ginsheim-Gustavsburg (alle drei Kreis Groß-Gerau) sowie im Westen an die Ortsbezirke Mainz-Kostheim und Delkenheim der hessischen Landeshauptstadt Wiesbaden. Stadtgliederung. Hochheim besteht aus der Kernstadt Hochheim, der um den Bahnhof am Mainufer angesiedelten Südstadt, die durch Weinberge von der Hochheimer Altstadt getrennt ist, und dem 1977 eingemeindeten Stadtteil Massenheim mit ungefähr 1500 Einwohnern. Seit dieser Zeit gehört auch das Wiesbadener Kreuz zum Hochheimer Stadtgebiet. Geschichte. Denkmalgeschützte Stadtansicht von Süden über die Weinbergslagen Stielweg (unten) und Domdechaney (oben) In Hochheim wurde ein keltisches Fürstengrab gefunden. Zur Römerzeit war das Gebiet bereits dicht besiedelt und der Weinbau wurde eingeführt. Der Name Hochheim geht auf die im 4. und 5. Jahrhundert dort siedelnden Alemannen zurück, auf die die Franken folgten. Hochheim wurde 754 während des Todeszugs von Bonifatius erstmals erwähnt. Massenheim wurde erstmals 819 als Geschenk an das Kloster Fulda erwähnt. 1273 wurde das Dorf Hochheim vom Kölner Domkapitel an das Mainzer Domkapitel verkauft. Im Jahr 1484 verlieh Kaiser Friedrich III. das Recht, jährlich zwei Märkte abzuhalten. Beim Reichsdeputationshauptschluss fiel Hochheim 1803 an das Fürstentum Nassau-Usingen, das 1806 mit dem Fürstentum Nassau-Weilburg zum Herzogtum Nassau vereinigt wurde. Am 9. und 10. November 1813 fand am Hochheimer Kippel die letzte Schlacht der napoleonischen Truppen vor ihrem Rückzug aus Deutschland statt. Es wurden 1800 Opfer auf französischer Seite und mehr als 200 auf der Seite der Alliierten beklagt. Eine Gedenkausstellung war im Rathaus der Stadt Hofheim am Taunus im April und Mai 2014 zu sehen. Ab April 1817 war Hochheim Sitz eines herzoglich-nassauischen Amtes, und seit 1820 wird der Ort als Stadt geführt, ohne dass sich die Verleihung der Stadtrechte urkundlich nachweisen lässt. Nach der Annexion des Herzogtums Nassau durch Preußen im Jahr 1866 kam Hochheim zur preußischen Provinz Hessen-Nassau. Die bisherigen nassauischen Ämter wurden zu Landkreisen zusammengefasst; Hochheim gehörte zunächst zum Mainkreis und später zum Landkreis Wiesbaden. Bei dessen Auflösung im Jahr 1928 wurde die Stadt dem Main-Taunus-Kreis zugeordnet. Nach dem Ende des Zweiten Weltkrieges wurde Hochheim mit der ehemaligen preußischen Provinz Nassau Teil des neu gegründeten Landes Hessen. Am 1. Januar 1977 wurde die bis dahin selbständige Gemeinde Massenheim eingegliedert. Bauwerke und Anlagen. In Hochheim und Massenheim wurden 185 kulturhistorische Objekte unter Denkmalschutz gestellt. Dazu gehören als Gesamtanlagen die Altstadt von Hochheim und der Dorfkern von Massenheim mit vielen restaurierten Fachwerkhäusern. Für den ungestörten Blick auf die Gesamtanlage Hochheim gelten die zum Main nach Süden abfallenden Weinberge als schützenswerter Grünbereich. Seit der Niederlegung der Stadtmauer zu Beginn des 19. Jahrhunderts blieb die Ansicht von Süden unverändert. Die Stadt wuchs seitdem nur nach Norden, Osten und Westen. Blickfang in der südlichen Stadtsilhouette ist die Kirche Sankt Peter und Paul, eine im Stil des Barock gehaltene Kirche mit Fresken des 1725 in Söflingen (Ulm) geborenen deutschen Barockmalers Johann Baptist Enderle. Im Jahr 2005 wurde die 1999 begonnene Restaurierung der Fresken beendet. Regionalpark Rhein-Main. Als Teil des Regionalparks Rhein-Main steht nördlich von Hochheim im Gebiet des Kiesgrubengeländes „Silbersee“ die 2001 eingeweihte hölzerne "Aussichtskanzel Vogelnest". Über 40 Stufen einer stählernen Wendeltreppe gelangt man zur 7,5 m hohen Aussichtsplattform, die einen guten Rundumblick in die Umgebung bietet. Ca. 600 m östlich des 10 m hohen Aussichtsturms befindet sich in Sichtweite der "Spielpark Hochheim" mit einer 15 m hohen „Tunnelrutsche“, dem 13 m hohen „Tarzanschwinger“ sowie weiteren Attraktionen. Bürgermeister. Seit 1. Oktober 2014 ist Dirk Westedt amtierender Bürgermeister. Er wurde am 25. Mai 2014 – obgleich FDP-Mitglied – als unabhängiger Kandidat mit 59,6 % der Stimmen in einer Stichwahl gegen Gerrit Hohmann (Grüne) gewählt. Die Wahlbeteiligung betrug 51,7 %. Im ersten Wahlgang am 11. Mai 2014 konnte Dirk Westedt 42,2 % der Stimmen auf sich vereinigen. Seine Vorgängerin, die vom 1. Oktober 2002 bis zum 30. September 2014 amtierende Angelika Munck (FWG), kandidierte nicht zur Wiederwahl. Städtepartnerschaften. Hochheim unterhält seit 1987 eine Partnerschaft mit der im Département Vaucluse in der Nähe von Avignon gelegenen Stadt Le Pontet. Weiterhin bestehen Städtefreundschaften mit der ungarischen Stadt Bonyhád im Komitat Tolna (seit 1997) und der thüringischen Stadt Kölleda. Wirtschaft. Der Wirtschaftszweig, dem die Stadt ihre Bekanntheit in erster Linie verdankt, ist der Weinbau. Der Name der Stadt ist seit einem Besuch der britischen Königin Viktoria im Jahr 1845 im englischsprachigen Raum als "Hock" zum Synonym für Rheinwein im Allgemeinen und für Wein aus dem Rheingau im Besonderen geworden. Der Überlieferung nach soll sich wegen des guten Geschmacks der Hochheimer Weine und ihrer nahrhaften Eignung am britischen Hof das Sprichwort etabliert haben: "„A good Hock keeps off the doc!“" Sinngemäß: Ein guter Hochheimer ersetzt jeden Arzt, oder hält den Arzt fern. Mit 241 ha Rebfläche gehört Hochheim zu den großen Weinbaugemeinden im Rheingau. Die Hochheimer Gemarkung bildet das Kernstück der Großlage Daubhaus. Die namhaftesten Lagen sind die unterhalb der Altstadt gelegenen Lagen "Domdechaney" und "Kirchenstück" sowie der kleine Königin-Viktoria-Berg, der östlich der Stadt oberhalb der Bahnlinie inmitten der Hölle gelegen ist, dort wo das in neugotischem Stil errichtete Königin-Viktoria-Denkmal an den Besuch der Queen in Hochheim erinnert. Weitere Lagen sind "Berg, Herrnberg, Hofmeister, Reichestal, Stein "und" Stielweg". Hinzu kommt die Lage "Schlossgarten" in der Gemarkung Massenheim. 80 % der Rebfläche sind mit Rieslingreben bestockt, 15 % entfallen auf Spätburgunder und 5 % auf Kerner, Müller-Thurgau und andere Rebsorten. Das Domdechant Werner’sche Weingut erinnert an die Verbindung zum Mainzer Klerus. Hochheim war im 19. Jahrhundert und in der ersten Hälfte des 20. Jahrhunderts auch ein wichtiges Zentrum der Sektproduktion. So wurde 1837 hier die rheinische Sektkellerei Burgeff, bekannt unter der Marke "Mumm", gegründet, die sich heute im Besitz der Rotkäppchen-Mumm Sektkellereien befindet. 1877 kam das Sekthaus Carl Graeger hinzu. Jährlich steht die Stadt Anfang November im Zeichen des Hochheimer Marktes, eines der größten Herbstmärkte in Deutschland. Er wird seit 1484 abgehalten und ist für ein Wochenende von Freitag bis Dienstag mit einer Mischung aus Kram-, Vergnügungs- und Viehmarkt Anziehungspunkt von fast einer halben Million Besucher. Am ersten Juliwochenende findet ein Weinfest in Hochheim statt, das über hunderttausend Besucher anlockt. Die wirtschaftliche Struktur der Stadt Hochheim war seit dem Zweiten Weltkrieg einem steten Wandel unterworfen. Das international bekannteste hier ansässige Unternehmen ist Tetra Pak, das hier seit 1965 den Sitz seiner Deutschland-Zentrale hat. Verkehr. Am westlichen Stadtrand verläuft die Bundesautobahn 671 mit den Anschlussstellen Hochheim Süd und Hochheim Nord. Durch die Stadt führt die Bundesstraße 40 nach Mainz im Westen und Flörsheim im Osten. Nach Flörsheim und Wiesbaden-Delkenheim führt außerdem die Landesstraße 3028. Die Stadt liegt innerhalb des Rhein-Main-Verkehrsverbundes an der Taunus-Eisenbahn. Am Bahnhof Hochheim (Main) halten Züge der Linie S1 der S-Bahn Rhein-Main zwischen Rödermark-Ober-Roden, Frankfurt am Main und Wiesbaden. Der Bahnsteig zu den Gleisen 2 und 3, an dem Züge Richtung Frankfurt am Main beginnen und halten und aus der Richtung von Frankfurt am Main enden, ist nicht barrierefrei. Hochtaunuskreis. Der Hochtaunuskreis ist eine Gebietskörperschaft in der Rechtsform eines Landkreises im Regierungsbezirk Darmstadt in Hessen und liegt in der Rhein-Main. Kreisstadt und zugleich größte Stadt ist Bad Homburg vor der Höhe. Bekannt ist der Hochtaunuskreis für seine Immobilien mit gehobenem Mietniveau sowie für den zweithöchsten Kaufkraftindex aller deutschen Landkreise (hinter dem bayerischen Landkreis Starnberg). 2014 betrug der Kaufkraftindex 146 Prozent bzw. 30.759 Euro je Einwohner bei einem Bundesdurchschnitt von 100 Prozent. Die Städte Königstein (191 Prozent) und Kronberg (180 Prozent) weisen die höchsten Pro-Kopf-Einkommen im Hochtaunuskreis auf. Der benachbarte Main-Taunus-Kreis verfügt bei einem Kaufkraftindex von 138 Prozent über das vierthöchste Pro-Kopf-Einkommen aller Landkreise Deutschlands. Lage. Der Hochtaunuskreis liegt fast vollständig im Taunus, während sein Vorland mit den „Taunusrandstädten“ Bad Homburg, Oberursel (Taunus), Friedrichsdorf, Kronberg und Königstein im Süden, die bereits zur Stadtregion Frankfurt gehören, in die Oberrheinische Tiefebene und im Osten in die Wetterau übergeht. Die höchste Erhebung ist der "Große Feldberg" (), die tiefste Stelle des Kreises befindet sich bei Ober-Erlenbach, einem Stadtteil von Bad Homburg (). Der Hochtaunuskreis wird gerne in Vorder- und östlichen Hintertaunus unterteilt, wobei der Vordertaunus der Frankfurt zugewandten Seite entspricht (vor der Höhe) und der östliche Hintertaunus, welcher gerne als Frankfurter Naherholungsgebiet genutzt wird, sich auf der anderen Seite des Taunushauptkamms befindet. Nachbarkreise. Der Landkreis grenzt im Uhrzeigersinn im Nordwesten beginnend an die Landkreise Limburg-Weilburg, Lahn-Dill-Kreis und Wetteraukreis, an die kreisfreie Stadt Frankfurt am Main sowie an den Main-Taunus-Kreis und den Rheingau-Taunus-Kreis. Geschichte. a> und Landratsamt des Hochtaunuskreises in Bad Homburg vor der Höhe Das heutige Kreisgebiet gehörte im Mittelalter zu verschiedenen Herrschaften, zu Kurmainz, den Herren von Kronberg oder zu Eppstein. Anfang des 19. Jahrhunderts gehörte der südliche Teil zur Landgrafschaft Hessen-Homburg, der nördliche Teil zum Fürstentum, später Herzogtum Nassau. Nach dem Deutschen Krieg von 1866 entstanden aus Hessen-Homburg und den nassauischen Ämtern Königstein und Usingen der Obertaunuskreis mit Sitz in Bad Homburg. Gemäß der Kreisordnung vom 1. April 1886 wurde ein Teil mit 46 Gemeinden nördlich des Gebirgskammes in einem neuen Landkreis Usingen organisiert. Im Obertaunuskreis verblieben 34 Gemeinden mit einer Fläche von 22.454 Hektar. 1919 wurde der französisch besetzte Teil des Obertaunuskreises – das ehemals nassauische „Amt Königstein“ – abgetrennt und als „Hilfskreis Königstein“ eingerichtet. Erst am 1. Oktober 1928 – nach dem Abzug der französischen Besatzungstruppen – kehrte er zum Obertaunuskreis zurück. Aufgrund der preußischen Sparverordnungen wurde am 1. August 1932 der Kreis Usingen aufgelöst. Teile des Kreises fielen an die benachbarten Landkreise Wetzlar, Oberlahn und Untertaunus, der Löwenanteil jedoch an den Obertaunuskreis. Schon ein Jahr später, am 1. Oktober 1933 wurde auf Betreiben der örtlichen Nationalsozialistischen Deutschen Arbeiterpartei (NSDAP) der Landkreis Usingen wiederhergestellt. Im Zuge der Gebietsreform in Hessen wurde am 1. August 1972 der "Hochtaunuskreis" gebildet. Zu dem neuen Kreis traten Gleichzeitig wurde am 1. August 1972 durch eine Reihe von Zusammenschlüssen die bis heute bestehende Gliederung in 13 Gemeinden geschaffen. Als Sitz der Kreisverwaltung und damit als Kreisstadt wurde die Stadt Bad Homburg benannt. Im Jahr 1991 wurde der Hochtaunus bundesweit durch eine Korruptionsaffäre bekannt. Im Februar 2004 thematisierte der damalige Landrat Jürgen Banzer (CDU) eine mögliche Fusion des Hochtaunuskreises mit dem benachbarten und ähnlich strukturierten Main-Taunus-Kreis. Mit einer Zusammenlegung beider Landkreise könnten Einsparungen von 18 bis 20 Millionen Euro jährlich erzielt werden. Partnerschaften. Der Hochtaunuskreis ist im Jahr 1986 eine Partnerschaft mit dem israelischen Distrikt Gilboa eingegangen. Wappen. Der Entwurf stammt von dem Heraldiker Heinz Ritt. Wirtschaft und Infrastruktur. Die Kreisstadt Bad Homburg ist ein international bekannter Kurort. In Bad Homburg haben sich mit Fresenius Medical Care und Fresenius SE & Co. KGaA zwei DAX-Unternehmen angesiedelt. Als weitere bekannte Unternehmen mit Sitz im Hochtaunuskreis sind Milupa, die Alte Leipziger Versicherung, die Avis Autovermietung sowie die Thomas Cook Group zu nennen. Auch haben im Hochtaunuskreis die Gillette Group (mit Braun und Oral-B), Jaguar Deutschland (alle in Kronberg), Fidelity Investments Deutschland, die Canton Elektronik und Accenture Deutschland ihre Hauptsitze. Der Hochtaunuskreis besitzt mit 146 Prozent (Bundesdurchschnitt = 100 Prozent) die zweithöchste Kaufkraft (das durchschnittlich zur freien Verfügung stehende Pro-Kopf-Einkommen beträgt 30.759 Euro im Jahr) der Bundesrepublik, viele Wohlhabende (wie Banker aus dem benachbarten Frankfurt) haben in und um Bad Homburg ihr Heim gefunden. Das gesamte Kreisgebiet weist sehr hohe Bodenpreise auf und zeichnet sich durch ein allgemein sehr hohes Mietniveau aus. Bundesweit auf Platz eins rangiert der bayerische Landkreis Starnberg (31.438 Euro je Einwohner), den dritten Platz belegt der Landkreis München (30.099 Euro) und den vierten Platz der benachbarte Main-Taunus-Kreis (29.178 Euro), in dem vor allem Bad Soden am Taunus als teure Lage gilt. Schiene. Das Gebiet des heutigen Hochtaunuskreises liegt abseits der großen Achsen des Fernbahnnetzes, die von Frankfurt ausgehen. Der Südhang des Taunusgebirges, dessen Städte und Dörfer als Bäder und Kurorte, aber auch als bevorzugte Wohngebiete schon vor einhundert Jahren ebenso beliebt waren wie heute, wurde daher von Frankfurt aus durch mehrere Bahngesellschaften mit oft nur kurzen Stichbahnen erschlossen. Die Homburger Eisenbahn-Gesellschaft eröffnete ihre Strecke am 10. September 1860, die in Frankfurt vom Main-Weser-Bahnhof ausging. Obwohl sie den kurhessischen Ort Bockenheim umfuhr, brauchte sie für ihre Trasse über Rödelheim–Oberursel nach Homburg, der damaligen Residenz einer kleinen Landgrafschaft und heutigen Kreisstadt des Hochtaunuskreises, die Konzession von vier souveränen Staaten. In Rödelheim zweigte ab 1. November 1874 eine Stichstrecke der Cronberger Eisenbahn-Gesellschaft zu dem malerischen Taunusstädtchen Kronberg ab. Dessen Nachbarstadt Königstein wurde ab 24. Februar 1902 durch die Kleinbahn Höchst–Königstein erschlossen, die heute ein Teil der Hessischen Landesbahn (HLB) ist. Inzwischen beginnen die Züge aller drei Bahnen am Hauptbahnhof im Zentrum Frankfurts. Zusätzlich verband ab Mai 1910 die Frankfurter Lokalbahn Bad Homburg und Oberursel-Hohemark durch zwei elektrische Vorortbahnen mit der Großstadt, die heute Teil des Frankfurter U-Bahn-Netzes sind. Schon seit 1899 gab es in Homburg eine elektrische Straßenbahn, die bis 1935 auch eine Linie zum Römerkastell Saalburg betrieb. Das strahlenförmig von Frankfurt ausgehende Schienennetz im Vordertaunus wurde 1895 über den Taunushauptkamm hinaus verlängert durch die Bahnlinie Homburg–Friedrichsdorf–Usingen, die 1909 über Grävenwiesbach mit der Strecke nach Weilburg an der Lahn verbunden wurde. Seit 1912 führte von Grävenwiesbach auch noch eine Zweigbahn durch das Solmstal nach Wetzlar. Diese ist die Grundlage der heutigen kommunalen Taunusbahn, die heute allerdings schon in Brandoberndorf im Lahn-Dill-Kreis endet. Von Friedrichsdorf gibt es seit dem 15. Juli 1901 eine Verbindung zur Main-Weser-Bahn nach Friedberg (Hessen) (Bahnstrecke Friedberg–Friedrichsdorf), die im Zuge der Bäderbahn Berlin–Bad Nauheim–Bad Homburg–Wiesbaden jahrelang auch von Schnellzügen befahren wurde. Dem öffentlichen Personennahverkehr (ÖPNV) auf der Schiene dienen heute die S-Bahn-Linien S4 (Frankfurt–Kronberg) und S5 (Frankfurt–Bad Homburg–Friedrichsdorf), sowie die von der Hessischen Landesbahn GmbH betriebenen Strecken Frankfurt–Königstein (Königsteiner Bahn, RMV-Linie 12) und Bad Homburg–Usingen–Grävenwiesbach–Brandoberndorf (Taunusbahn, RMV-Linie 15). Als RMV-Linie 16 wird die Strecke von Friedrichsdorf nach Friedberg betrieben. An das Frankfurter U-Bahn-Netz angeschlossen sind die Städte Bad Homburg (Linie U2, Endstation Bad Homburg-Gonzenheim) und Oberursel (Linie U3, Oberursel-Hohemark). Als Verkehrsverband Hochtaunus (VHT) wurde 1988 ein Zweckverband vom Hochtaunuskreis und allen seinen Städten und Gemeinden gegründet. Der Verband hat die 28,8 Kilometer lange Bundesbahnstrecke Friedrichsdorf–Usingen–Grävenwiesbach zum Kaufpreis von 2,8 Millionen DM erworben, um sie vor der Stilllegung zu bewahren. Alle Linien des öffentlichen Verkehrs sind seit 1995 in den Rhein-Main-Verkehrsverbund (RMV) eingegliedert. Straßen. Durch das Kreisgebiet führen die Bundesautobahnen 5 (Frankfurt–Hattenbacher Dreieck) und 661 (Darmstadt–Oberursel). Ferner erschließen mehrere Bundesstraßen und Kreisstraßen das Kreisgebiet, darunter die Bundesstraßen 275, 455 und 456. Die Ferienstraße "Hochtaunusstraße" verbindet – zwischen Bad Homburg und Bad Camberg – die Sehenswürdigkeiten des Kreises für die Touristen. Der Taunushauptkamm, der den Kreis teilt, wird durch verschiedene Pässe überwunden, siehe Pässe im Taunus. Kreiseigene Unternehmen. Der Hochtaunuskreis betreibt mit den Hochtaunus-Kliniken Krankenhäuser in Bad Homburg und Usingen. Zusätzlich ist er Eigentümer der Taunus Menü Service GmbH mit Sitz in Neu-Anspach, diese beliefert die Kliniken, die Oberurseler Werkstätten und einen Teil der Schulen des Hochtaunuskreises mit Gerichten, die im Koch-und-Kühl-Verfahren gekocht und schockgefrostet werden. Gemeinsam mit dem Main-Taunus-Kreis ist der Hochtaunuskreis Träger der Taunus Sparkasse und wichtigster Anteilseigner der Rhein-Main Deponie gGmbH (RMD). Wesentliche Anteile hält der Kreis an dem Zweckverband Naturpark Taunus und dem Zweckverband Verkehrsverband Hochtaunus (VHT). Als Eigenbetrieb werden die Oberurseler Werkstätten für behinderte Menschen geführt. An weiteren Unternehmen wie der Nassauischen Sparkasse, der Süwag und der Nassauischen Heimstätte hält der Kreis Anteile. Städte und Gemeinden. Der Hochtaunuskreis umfasst acht Städte und fünf Gemeinden. Kreisstadt und zugleich größte Stadt ist Bad Homburg v. d. Höhe, die zudem Sonderstatusstadt ist. Manche Städte führen amtliche Namenszusätze wie „(Taunus)“, „im Taunus“ bzw. „v. d. Höhe“ und sind offizieller Bestandteil des jeweiligen Stadtnamens. Die Gemeinde Neu-Anspach wurde aufgrund des Erreichen der Einwohnerzahl von 15.000 per 31. Oktober 2007 zur Stadt erhoben. Kfz-Kennzeichen. Am 1. August 1972 wurde dem Landkreis das seit dem 1. Juli 1956 für den Obertaunuskreis gültige Unterscheidungszeichen "HG" zugewiesen. Es wird von der Kreisstadt Bad Homburg vor der Höhe abgeleitet und wird durchgängig bis heute ausgegeben. Seit dem 2. Januar 2013 ist zudem das Unterscheidungszeichen "USI" (Usingen) erhältlich. Sonstiges. Wichtige regionale Zeitungen sind die Taunus-Zeitung (ein Kopfblatt der Frankfurter Neue Presse) sowie der Usinger Anzeiger, welcher vorrangig im Hintertaunus vertreten ist. Die Frankfurter Rundschau erscheint in einer Taunus-Ausgabe, die sich dem Geschehen im Kreis widmet. Hygiene. a> ist eine von zahlreichen hygienischen Maßnahmen im Alltag. Die Hygiene ist nach einer Definition der Deutschen Gesellschaft für Hygiene und Mikrobiologie die „Lehre von der Verhütung der Krankheiten und der Erhaltung, Förderung und Festigung der Gesundheit“. Begriff. Das Wort Hygiene stammt aus dem Griechischen: "hygieiné [téchne]" bedeutet „der Gesundheit dienende [Kunst]“. Es ist von "hygíeia" „Gesundheit“ abgeleitet – dem Wort, mit dem auch die griechische Göttin der Gesundheit bezeichnet wird. Hygiene im engeren Sinn bezeichnet die Maßnahmen zur Vorbeugung gegen Infektionskrankheiten, insbesondere Reinigung, Desinfektion und Sterilisation. In der Alltagssprache wird das Wort Hygiene auch fälschlicherweise an Stelle von Sauberkeit verwendet, doch umfasst sie nur einen kleinen Ausschnitt aus dem Aufgabenkreis der Hygiene. Die Arbeitshygiene befasst sich mit der Verhütung von Berufskrankheiten. Lebenssituation im Mittelalter. Im Mittelalter war es in Europa noch üblich, die Notdurft auch auf der Straße zu verrichten, Nachtgeschirre wurden auf den Straßen ausgeleert, Marktabfälle (Pflanzenreste, Schlachtabfälle, Schlachtblut) blieben auf den Straßen und Plätzen liegen, häuslicher Unrat und Mist aus den Ställen der städtischen Tierhaltung wurde auf den Straßen gelagert, Schweine, Hühner und andere Haustiere liefen auf den Straßen frei darin herum, Niederschlagswasser durchfeuchtete und verteilte alles, all dies führte dazu, dass der Straßenschmutz und damit zusammenhängende Geruchsbelästigungen in den Städten überhandnahmen, wogegen Polizeiverordnungen erlassen wurden. Erst die Einführung der Kanalisation, städtischer Schlachthäuser und von Pflasterungen konnte den Schmutz eindämmen. Hygiene in der Medizin. Die Hygiene in der Medizin betrifft das Verhalten des Fachpersonals im ambulanten Einsatz sowie in der klinischen Hygiene zur Abwehr von Neuerkrankungen. Thomas McKeown hat 1979 den Rückgang der Infektionskrankheiten der letzten 200 Jahre auf Hygiene, bessere Ernährung des Menschen, Immunität und andere unspezifische Maßnahmen zurückgeführt. Abseits der Industriestaaten hat sich das Muster der Erkrankungen nicht wesentlich verändert, trotz teilweiser Einführung von medikamentösen Behandlungsmethoden. So kann angenommen werden, dass ohne finanzielle und materielle Unterstützung der „Dritten Welt“ und ohne bessere Lebensbedingungen für den Großteil der Menschheit der Gefahr von Seuchen Vorschub geleistet wird. Die Hygiene im Römischen Reich war verhältnismäßig weit entwickelt. Der römische Politiker und Universalgelehrte Marcus Terentius Varro ahnte, dass Krankheiten durch „kleine Tiere, welche für das Auge nicht sichtbar sind“ (aus heutiger Sicht Mikroorganismen) hervorgerufen werden. Es war bekannt, dass Quarantäne die Verbreitung von Infektionskrankheiten verhindern konnte. Bis in die erste Hälfte des 19. Jahrhunderts wurde Sauberkeit und Desinfektion in der Medizin nicht als notwendig angesehen. So wurden die Operationsschürzen der Chirurgen praktisch nie gewaschen. Medizinische Instrumente wurden vor dem Gebrauch nicht gereinigt. Auch wurden nicht selten in Krankenhäusern die Wunden von verschiedenen Patienten nacheinander mit demselben Schwamm gereinigt. Ignaz Semmelweis gelang in den 1840er Jahren erstmals der Nachweis, dass Desinfektion die Übertragung von Krankheiten eindämmen kann. Als Assistenzarzt in der Klinik für Geburtshilfe in Wien untersuchte er, warum in der einen Abteilung, in der Medizinstudenten arbeiteten, die Sterberate durch Kindbettfieber wesentlich höher war als in der zweiten Abteilung, in der Hebammenschülerinnen ausgebildet wurden. Er fand die Erklärung, als einer seiner Kollegen während einer Sektion von einem Studenten mit dem Skalpell verletzt wurde und wenige Tage später an Blutvergiftung verstarb, einer Krankheit mit ähnlichem Verlauf wie das Kindbettfieber. Semmelweis stellte fest, dass die an Leichensektionen beteiligten Mediziner Gefahr liefen, die Mütter bei der anschließenden Geburtshilfe zu infizieren. Da Hebammenschülerinnen keine Sektionen durchführen, kam diese Art der Infektion in der zweiten Krankenhausabteilung seltener vor. Das erklärte die dort niedrigere Sterblichkeit. Semmelweis wies seine Studenten daher an, sich vor der Untersuchung der Mütter die Hände mit Chlorkalk zu desinfizieren. Diese wirksame Maßnahme senkte die Sterberate von 12,3 % auf 1,3 %. Das Vorgehen stieß aber bei Ärzten wie Studenten auf Widerstand. Sie wollten nicht wahrhaben, dass sie selbst die Infektionen übertrugen, anstatt sie zu heilen. Sir Joseph Lister, ein schottischer Chirurg, verwendete erfolgreich Karbol zur Desinfektion von Wunden vor der Operation. Er war zunächst der Meinung, dass Infektionen durch Erreger in der Luft verursacht würden. Eine Zeit lang wurde deshalb während der Operation ein feiner Karbolnebel über dem Patienten versprüht, was wieder aufgegeben wurde, als man erkannte, dass Infektionen hauptsächlich von Händen und Gegenständen ausgingen, die in Kontakt mit den Wunden kamen. Max von Pettenkofer hatte ab 1865 den ersten deutschen Lehrstuhl für Hygiene inne und gilt als "Vater der Hygiene." Weitere bekannte Forscher auf dem Gebiet der Hygiene waren Johann Peter Frank, Robert Koch und Louis Pasteur. Ein Pionier der Hygiene im militärischen Bereich war Franz Ballner. Hygienemaßnahmen. Medizinische Maßnahmen sind Sterilisation, Desinfektion und Quarantäne. Insbesondere im wirtschaftlichen Bereich sind Lebensmittel- und Wäschereihygiene gesetzlich geregelt. Zu den lokalen Hygienemaßnahmen gehören die Haushaltshygiene, die Lebensmittelhygiene und die klinische Hygiene. Zu den individuellen somatischen Hygienemaßnahmen zählen heute die Körper-, Mund-, Brust-, Anal- und Sexualhygiene sowie die Psychohygiene. In einer gemeinsamen Presseerklärung von Umweltbundesamt, Bundesinstitut für gesundheitlichen Verbraucherschutz und Veterinärmedizin und Robert-Koch-Institut aus dem Jahr 2000 werden im Haushalt herkömmliche Reinigungsmittel für die Sicherung der Hygiene als ausreichend erachtet und der Einsatz von Produkten mit bakterizider, antibakterieller und antimikrobieller Wirkung abgelehnt. Das gilt nicht für die klinische Hygiene. Kritik an moderner Hygiene. Die moderne Hygiene und Medizin fokussiert auf die Gefahr bzw. Virulenz der Krankheitserreger. Das Fazit der 40-jährigen Forschungsarbeit des französischen Mediziners und Physiologen Claude Bernard lautete: „Le germe n’est rien, le terrain est tout!“ (Der Keim ist nichts, das Milieu ist alles!) Mit "Keim" ("germ") ist hier ein mikrobieller Krankheitserreger gemeint, so wie auch heute noch in der Medizin der Ausdruck "Keim" gebraucht wird. Bernard brachte mit dieser Aussage zum Ausdruck, dass unabhängig von der Virulenz eines Krankheitserregers letztlich stets die jeweils vorhandene Stoffwechsel-, Wund- und Immunsituation des individuellen (menschlichen) Organismus über die vom Krankheitserreger ausgehende Gefahr entscheidet, entweder als Nährboden für die Vermehrung der Krankheitserreger (siehe Infektion) dient, oder aber eine Vermehrung derselben unmöglich macht. Im letzten Fall wären entweder nur die Kriterien einer Kontamination, nicht jedoch einer Infektion erfüllt (Kriterium Erregervermehrung im Organismus), oder aber es würde trotz des Auftretens einer Infektion eine Infektionskrankheit verhindert werden (siehe Stille Feiung). Hierbei spielt sowohl die individuelle Leistungsfähigkeit des Organismus als auch die ihm entgegengebrachte, unter anderem ärztliche, Hilfe (s. z. B. Débridement, Wundreinigung) eine Rolle. Wissenschaftliche Studien weisen auf einen Zusammenhang zwischen übertriebener Sauberkeit im häuslichen Umfeld und dem Auftreten von Allergien hin. Durch den verringerten Kontakt mit Krankheitserregern, besonders während der frühen Kindheit, tendiere das Immunsystem dazu, auf eigentlich harmlose Stoffe wie zum Beispiel Pollen oder Hausstaub zu reagieren. Evolutionsforscher vermuten, dass der menschliche Körper darauf angewiesen ist, dass bestimmte Bakterien und auch Würmer in ihm oder seiner Umgebung leben. Missbräuchliche Verwendung des Begriffs. Der missbräuchliche Begriff „Rassenhygiene“ (Eugenik) legte nahe, dass eine (menschliche) „Rasse“ oder ein „Volkskörper“ durch wie auch immer geartete „hygienische“ Maßnahmen „rein“ gehalten (oder „bereinigt“) werden. Der Begriff bestimmte die Bevölkerungspolitik in der Zeit des Nationalsozialismus (siehe dazu Nationalsozialistische Rassenhygiene). Herbizid. Herbizide (‚Kraut‘, ‚Gras‘ und lat. ‚töten‘) oder Unkrautbekämpfungsmittel sind Substanzen, die störende Pflanzen abtöten sollen. Sie werden vor allem in der Landwirtschaft eingesetzt, aber auch auf Nicht-Kulturland. Kulturpflanzen stehen im Wettbewerb mit Unkräutern um Wasser, Nährstoffe und Licht. Dichter Unkrautbewuchs kann die Ernte sehr erschweren und deutlich vermindern. Unkräuter können manuell, mit Maschinen oder mit Herbiziden dezimiert werden. Man unterscheidet dabei zwischen selektiven Herbiziden, die gegen bestimmte Pflanzen wirken und Breitband- oder "Totalherbiziden", die gegen sehr viele Pflanzen wirken. Während des Vietnamkrieges wurden im Zuge der Operation Ranch Hand Herbizide (insb. Agent Orange) auch zu militärischen Zwecken als Entlaubungsmittel verwendet. Geschichte. Um 1851 verwendete man Eisensulfat, ab 1896 Kupfersulfat und Schwefelsäure zur Bekämpfung von Unkräutern. Später wurden Natriumchlorat (1926) und Dinitrokresol (DNOC) verwendet. Im Jahr 1942 wurde die 2,4-Dichlorphenoxyessigsäure (2,4-D) als erstes hochwirksames Herbizid entwickelt. Zwischen 1945 und 1960 folgten Thiocarbamate und Phenylharnstoffe. Zwischen 1960 und 1980 wurden Triazine (z. B. Atrazin), Diphenylether-Herbizide, Nitrile (z. B. Bromoxynil), Carbamate und Chloracetamide (z. B. Alachlor) als Herbizide verwendet. Zwischen 1980 und 1990 folgten Sulfonylharnstoffe, Aminosäurederivate (z. B. Glyphosat, Glufosinat) und Imidazoline. Neuere Herbizide wie Metazachlor können auch auf die bereits aufgelaufene Kultur (z. B. Winterraps) ausgebracht werden, die durch Züchtung resistent gegen diese Behandlung ist. Anwendung von Herbiziden. Die Aufbringung auf das Feld erfolgt in wässrigen Suspensionen. Hersteller bieten Wirkstoffsuspensionen in Emulgaten und Pulvern an, die mit Wasser verdünnt werden. Setzt man die Herbizide vor oder während der Saat ein, so nennt man sie Vorauflauf-Herbizide. Nachauflauf-Herbizide verwendet man nach der Bildung erster Keimblätter. Mobilität. Systemische Herbizide verteilen sich nach der Aufnahme in der Pflanze. Wenn ein Wirkstoff nur im Xylem mobil ist, kann er nach oben, aber nicht nach unten verlagert werden. Wichtige Gruppen von Herbiziden. In einer Pflanzenzelle sind die Chloroplasten für die Umwandlung von Kohlendioxid und Wasser zu Kohlenhydraten verantwortlich. In diesen Stoffwechsel greift die Mehrzahl der Herbizide ein. Photosynthesehemmer. Diese Wirkstoffgruppe stört die Umwandlung von Licht in chemische Energie im Photosystem I. Zu ihnen gehören Paraquat und Diquat, welche als Kontaktherbizide ausgebracht werden (Wirkstoffaufnahme über die Blätter). Hemmer der Aminosäuresynthese von Pflanzen. Glyphosat (Handelsname u. a. "Roundup") ist ein Beispiel für ein Breitbandherbizid gegen Unkräuter (z. B. Quecken). Glyphosat ist eines der meistverwendeten Herbizide der Welt, der Umsatzanteil betrug im Jahr 2001 etwa 3 Mrd. US$. Dieses Herbizid nimmt eine Pflanze über grüne Pflanzenteile (also nicht über die Wurzel) auf. Glyphosat verhindert die Biosynthese der aromatischen Aminosäuren L-Phenylalanin, L-Tyrosin und L-Tryptophan durch eine Hemmung des Shikimisäureweges. Da der Shikimisäureweg im tierischen Stoffwechsel nicht vorkommt, wirkt das Herbizid nur gegen Pflanzen. Glyphosat wird wegen seiner nicht-spezifischen Wirkung u. a. als Vorauflaufherbizid eingesetzt. Glufosinat (Handelsnamen: Basta, Liberty) wirkt auf die Biosynthese von L-Glutamin in Pflanzen. Auch diese Gruppe wird häufig als Breitbandherbizid eingesetzt. Andere bekannte Breitbandherbizide sind die Sulfonylharnstoffe (Amidosulfuron sowie Sulfometuron-methyl (Handelsnamen: Oust)) und Imidazoline (Imidazolinone) wie beispielsweise Imazapyr (Handelsname: Arsenal). Diese Substanzklassen wirken auf die Biosynthese von verzweigten Aminosäuren wie L-Valin, L-Leucin und L-Isoleucin. Diese Herbizide werden über Wurzeln und Blättern aufgenommen, sie werden bei Ackerflächen für Soja und Getreide häufig angewandt. Wuchsstoffe. Besonders in früheren Jahrzehnten waren die Wuchsstoffe, chemisch Chlorphenoxyessigsäuren wie 2,4-D, 2,4,5-T oder MCPA, eine wichtige Herbizidklasse. Diese regen zum schnellen Wachstum an, aufgrund von Nahrungsmangel sterben die breitblättrigen Unkräuter dann jedoch ab. Das schmalblättrige Getreide hat eine höhere Toleranzschwelle und wird nicht geschädigt. Selektive Herbizide, Nachauflauf-Herbizide. Eine wichtige Gruppe von Nachauflauf-Herbiziden sind die 1,3-Cyclohexandione. Wichtige Vertreter sind Cycloxydim und Sethoxydim. Diese Herbizide hemmen die Fettsäuresynthese in Pflanzen und werden häufig gegen Gräser angewandt. Weitere Gruppen sind die Thymin/Uracil-Herbizide (z. B. Bromacil, Einsatz bei Unkräutern in Sojapflanzungen), die Benzothiadiazole (z. B. Bentazon, Handelsname: Basagran), die Phenylpyridazine (z. B. Pyridat) und die Phenoxypropionsäuren (z. B. 2,4-DB oder Fenoxaprop – sehr gute Wirkung gegen Gräser). Safener. Zur Erhöhung der Selektivität werden Safener zusammen mit den entsprechenden Herbiziden eingesetzt. Sie setzen die schädliche Wirkung für Kulturpflanzen herab. Die phytotoxische Wirkung gegen Unkräuter bleibt hingegen unberührt. Man unterscheidet zwischen Saatgut-, Boden- und Blatt-Safenern. Es handelt sich um eine chemische Alternative zur gentechnischen Saatgutveränderung für die Steigerung von Hektarerträgen bei Herbizidanwendungen. Die Wirkung beruht auf der Induzierung von Enzymreaktionen innerhalb der Pflanze, die eine schnelle Entgiftung ermöglicht. Ein wichtiger Saatgut-Safener ist beispielsweise das Fluxofenim, ein Oximether. In Europa ist eine Bewertung und Zulassung der Substanzen in einer Positivliste durch Verordnung (EG) Nr. 1107/2009 rechtlich vorgesehen. Tendenzen in der Herbizidentwicklung. In den 1950er- und 1960er-Jahren wurde einfach durch Synthese von verschiedenen organischen Molekülen ausprobiert, ob eine Substanz schädlich auf ein Unkraut wirkt. Seit den 1980er-Jahren klärt man zunehmend den biochemischen Stoffwechsel von Pflanzen auf. Es werden wichtige Enzyme der Pflanzenbiosynthese isoliert und mit verschiedenen synthetischen Stoffen wird die Hemmung der Enzyme untersucht (Enzym-Assays). Viele moderne Verfahren, z. B. die Gaschromatographie, erlauben die schnelle Identifizierung von wichtigen biochemischen Stoffwechselprodukten. Eine weitere Tendenz geht in die Richtung, die Wirkstoffmenge zu verringern. Die Forscher möchten auch die Wirkstoffmenge der Herbizide je Hektar gering halten und gleichzeitig die Giftigkeit für Mensch und Tier minimieren. Während man 1950 noch für die Unkrautbekämpfung etwa 12 kg Natriumchlorat oder 7 kg Atrazin auf einen Hektar Ackerfläche anwenden musste, waren es für 1 Hektar im Jahre 1970 nur noch 1 kg bis 2 kg Bentazon. Ab 1980 reichte sogar eine Wirkstoffmenge von nur 20 g Chlorsulfuron für einen Hektar Ackerboden aus. Wirtschaftliche Aspekte. Mit einem Umsatzanteil von 47 % (2001) sind Herbizide die wirtschaftlich wichtigsten Pflanzenschutzmittel. Der Gesamtumsatz für Herbizide betrug auf dem Weltmarkt 12,8 Mrd. US$. Die größten Wirtschaftssektoren für Herbizide liegen im Schutz der Soja- (ca. 10 % des Weltumsatzes an Pflanzenschutzmitteln, Abkürzung: WUAPSM, ungefähre Daten 1985), Getreide- (10 % des WUAPSM), Weizen- (6 % des WUAPSM), Obst- und Gemüse (3,5 % des WUAPSM), Reis (3,7 % des WUAPSM), Baumwolle (2,2 % des WUAPSM), Zuckerrüben (2,2 % des WUAPSM). Etwa 90 % der Sojafelder, 71 % der Getreidefelder, 63 % der Weizenfelder, 69 % der Zuckerrübenfelder, 35 % der Reisfelder, 17 % der Obst- und Gemüseplantagen werden weltweit mit Herbiziden behandelt. Resistenzen. Durch den mehrfachen Einsatz einer einzigen Wirkstoffgruppe über mehrere Jahre hinweg können besonders in Monokulturen resistente Unkräuter selektiert werden. Dieses Phänomen wurde bei fast allen Wirkstoffgruppen beobachtet. Besonders häufig werden dabei Pflanzen mit einer hohen Reproduktionsrate resistent. Ein aktuelles Beispiel stellt der Acker-Fuchsschwanz in Deutschland dar. Das HRAC beschäftigt sich intensiv damit, wie man die Resistenzbildung eindämmen kann. Die Resistenzentwicklung ist bei Unkräutern jedoch geringer als bei Insekten oder Pilzen. Resistenzen lassen sich jedoch auch gezielt züchten, wodurch auf die Kulturen abgestimmte Herbizide auch nach Auflauf der Kulturen (Nachauflauf) eingesetzt werden können. Allerdings besteht dann das Problem darin, die Nutzkultur (z. B. Winterraps) bei Änderung der Fruchtfolge wieder aus dem Bestand zu eliminieren. Mittlerweile kann davon ausgegangen werden, dass Resistenzbildung eher über kurz als lang wieder zurück zu kombinierten Methoden der Unkrautbekämpfung führt. Ökologische Auswirkungen. Die Wirkung von synthetischen Pflanzenschutzmitteln wie Herbiziden auf Mensch und Umwelt ist umstritten. Sie reicht vom Argument durch breiten Herbizideinsatz seien gesunde Nahrungsmittel für die breite Bevölkerung erschwinglich und die Krebserkrankungsraten daher rückläufig und unbedeutend im Vergleich zu epidemisch auftretenden Krebserkrankungen durch Tabakrauch und Übergewicht sowie chronischen Lebensmittelinfektionen (hauptsächlich in Entwicklungsländern) bis hin zu kritischen Stimmen wie der von Rachel Carson, die mit ihrem Buch Der stumme Frühling auf die Auswirkungen von Insektizid- und Herbizideinsätzen bei großflächiger Anwendung in den USA aufmerksam machte. In der europäischen Bevölkerung dominiert eher die Angst vor chemischen Lebensmittelrückständen. Die Mehrheit der Befragten schätzt die Gefahr höher ein als die gesundheitlichen Auswirkungen von bakteriellen Verunreinigungen von Lebensmitteln oder unausgewogene Ernährung. Auswirkungen auf Nahrungsketten und Biodiversität. Bei der großflächigen und dauerhaften Anwendung von Herbiziden kann sich das Pflanzenartenspektrum in der Agrarlandschaft stark verringern. Da von jeder Pflanzenart mehr oder weniger viele Insektenarten abhängig sind und von diesen über die Nahrungsketten wiederum andere Tiere (insbesondere Vögel, Zugvögel), besteht die Gefahr der generellen Artenverarmung in der Feldlandschaft. Der massive Artenrückgang (Verlust der Biodiversität) in den Agrarlandschaften Europas ist vor allem eine Folge dieser Zusammenhänge. Allerdings ist der Anteil des Herbizid- und Insektizideinsatzes in der Landwirtschaft an den Ursachen des Artenrückgangs nicht klar bestimmbar. Es gibt aktuelle Hinweise darauf, dass sich die flächendeckende Anwendung von Breitbandherbiziden in einigen Regionen Deutschlands (z. B. in Sachsen) in den letzten Jahren weiter ausgebreitet hat. Die verstärkte Anwendung erfolgt insbesondere im Zuge des Mulchsaatverfahrens. Dabei wird auf eine mechanische Unkrautbekämpfung verzichtet (sogenannte pfluglose Bodenbearbeitung) und stattdessen intensiv Breitbandherbizide (z. B. Glyphosat / Roundup) verwendet. Der Verzicht auf das Pflügen des Bodens ist eine Abkehr von der Schwarzbrache, welche ein wichtiger Lebensraum für traditionellen Bewohner der Kulturlandschaft wie Feldlerche und Rebhuhn war. Ähnliches erfolgt bei der Umwandlung von blüten- und artenreichen Mähwiesen in ertragreiches, aber artenarmes Intensivgrünland (Abtöten des vorherigen Pflanzenbestandes – umbruchlose Neuaussaat schnell wachsender, eiweißreicher Gräser). Zwar handelt es sich dabei um bodenschonende Verfahren, welche in erosionsgefährdeten Hanglagen durchaus sinnvoll sind, allerdings sind die Folgen bei nahezu flächendeckender Anwendung in der Landwirtschaft auf die Biodiversität noch nicht absehbar. Abdrift – Mittelverfrachtung auch auf weit entfernte Flächen. Der breite Herbizideinsatz führt auch zu einer Nachweisbarkeit der Wirkstoffe im Oberflächen- und Grundwasser. Eine andere Gefahr rührt von Wirkstoffen mit besonders hohem Dampfdruck her, da sie sich über die Gasphase verbreiten können. Ein Beispiel ist Clomazon, welches nach Richtlinien aus dem Jahr 2012 nur bei Aussentemperaturen unter 25 °C ausgebracht werden darf. Das Mittel war zunächst verboten worden, nachdem Anwohner von gesundheitlichen Beschwerden und Verfärbungen der Blätter auf angrenzenden Flächen berichteten. Heinrich Hertz. Heinrich Rudolf Hertz (* 22. Februar 1857 in Hamburg; † 1. Januar 1894 in Bonn) war ein deutscher Physiker. Aufgrund seiner Arbeiten zum experimentellen Nachweis elektromagnetischer Wellen, insbesondere von Radiowellen gilt Hertz als einer der bedeutendsten Physiker des 19. Jahrhunderts. Herkunft. Heinrich Rudolf Hertz entstammte einer angesehenen hanseatischen Familie. Sein Vater Gustav Ferdinand Hertz (ursprünglicher Name: David Gustav Hertz, 1827–1914) entstammte einer jüdischen Familie, konvertierte aber zum Christentum. Er war ein promovierter Rechtsanwalt, seit 1877 Richter und von 1887 bis 1904 Senator und Präses der Hamburger Justizverwaltung. Die Mutter Anna Elisabeth Pfefferkorn war die Tochter eines Garnisonsarztes. Heinrich Hertz hatte vier Geschwister, die Brüder Gustav Theodor (* 1858), Rudolf (* 1861) und Otto (* 1867) sowie die Schwester Melanie (* 1873). Der Bruder Gustav Theodor wurde der Vater des Nobelpreisträgers Gustav Ludwig Hertz. Ausbildung. Sein Abitur machte Hertz am Johanneum in Hamburg und bereitete sich danach in einem Konstruktionsbüro in Frankfurt am Main auf ein Ingenieurstudium vor. Das Studium in Dresden, wo er im April 1876 Mitglied der Burschenschaft Cheruscia wurde, brach er nach dem ersten Semester ab, weil ihn dort lediglich die Mathematikvorlesungen begeistern konnten. Nach einem einjährigen Militärdienst begann er deshalb an der Technischen Hochschule München Mathematik und Physik zu studieren. Kurz darauf wechselte er 1878 an die Friedrich-Wilhelms-Universität in Berlin. Er wurde schon im Alter von 23 Jahren mit einer Arbeit über die Rotation von Metallkugeln in einem Magnetfeld promoviert und blieb für zwei Jahre als Forschungs- und Vorlesungsassistent bei Hermann von Helmholtz in Berlin. Lehrtätigkeit. Grab auf dem Friedhof Ohlsdorf Bereits 1883 wurde Hertz Privatdozent für Theoretische Physik an der Christian-Albrechts-Universität zu Kiel. Von 1885 bis 1889 lehrte er als Professor für Physik an der Technischen Hochschule Karlsruhe. 1886 heiratete er Elisabeth Doll. Aus der Ehe gingen zwei Töchter hervor, Johanna und Mathilde. Ab 1889 war er Professor für Physik an der Rheinischen Friedrich-Wilhelms-Universität Bonn, nachdem er Berufungen nach Berlin, Gießen und Amerika abgelehnt hatte. Hertz starb 1894 nach zweijährigem Leiden an der Wegener-Granulomatose mit nur 36 Jahren. Er ist auf dem Friedhof Ohlsdorf in Hamburg begraben. Zeit des Nationalsozialismus. Heinrich Hertz war sein ganzes Leben lutherisch und hatte sich nie als Jude definiert, da die gesamte Familie seines Vaters zum evangelisch-lutherischen Christentum konvertierte. Auch der unter deutschen Juden häufige Name Hertz führte nicht dazu, dass er als junger Physiker antisemitischen Vorurteilen ausgesetzt war. Erst in der NS-Zeit ging man posthum auf Distanz zu dem erfolgreichen Wissenschaftler. Sein Porträt wurde wegen seiner jüdischen Abstammung von dem Hamburger Rathaus entfernt, sowie nach ihm benannte Institutionen und Straßen zumeist umbenannt. Auch gab es Überlegungen, die nach ihm benannte Einheit Hertz, die 1933 international eingeführt worden war unter Beibehaltung der Abkürzung „Hz“ in „Helmholtz“ umzubenennen. Seine Kinder und die Kinder seiner Geschwister wurden nach dem „Gesetz zur Wiederherstellung des Berufsbeamtentums“ aus dem öffentlichen Dienst und damit aus dem Wissenschaftsbetrieb entfernt. Seine Witwe verließ 1930 zusammen mit seinen Töchtern Deutschland und ließ sich in England nieder. Wirken. Heinrich Hertz gab eine theoretische Lösung der elektromagnetischen Feldtheorie eines oszillierenden punktförmigen elektrischen Dipols an, siehe hertzschen Oszillator. Sein Hauptverdienst lag dabei in der experimentellen Bestätigung von James Clerk Maxwells elektromagnetischer Theorie des Lichts 1886. Heinrich Hertz arbeitete in Karlsruhe und erforschte nicht sichtbare elektromagnetische Wellen (Radiowellen). Er wies nach, dass sie sich auf die gleiche Art und mit der gleichen Geschwindigkeit ausbreiten wie Lichtwellen (siehe: Brechung, Polarisation und Reflexion). Am 13. November 1886 gelang ihm im Experiment die Übertragung elektromagnetischer Wellen von einem Sender zu einem Empfänger. Die Berliner Akademie der Wissenschaften unterrichtete er am 13. Dezember 1888 in seinem Forschungsbericht „Über Strahlen elektrischer Kraft“ über die elektromagnetischen Wellen. Anlässlich des 125. Jahrestags dieser Publikation gab die Deutsche Post AG mit dem Erstausgabetag 2. November 2013 ein Sonderpostwertzeichen im Wert von 58 Eurocent heraus. Heinrich Hertz’ Ergebnisse lieferten die Grundlage für die Entwicklung der drahtlosen Telegrafie und des Radios. Auch der bereits 1839 von Alexandre Edmond Becquerel entdeckte äußere Photoeffekt wurde von Hertz untersucht (1886). Dessen Untersuchung wurde von seinem Assistenten Wilhelm Hallwachs 1887 weitergeführt (Hallwachseffekt). Dieser Effekt spielte eine besondere Rolle bei der Formulierung der Lichtquantenhypothese durch Albert Einstein 1905. Hertz berechnete elastizitätstheoretisch die Spannungen beim Druckkontakt gekrümmter Flächen (Hertzsche Pressung). Schriften (Auswahl). "Ueber die Induction in rotirenden Kugeln" (Berlin, 1880) Herz. Herzen (in Einzahl das Herz, lateinisch-anatomisch das Cor, griechisch-pathologisch die Kardia, "καρδία" oder latinisiert Cardia) sind bei verschiedenen Tiergruppen vorkommende muskuläre Hohlorgane, die mit rhythmischen Kontraktionen Blut oder Hämolymphe durch den Körper pumpen und so die Versorgung aller Organe sichern. Höherentwickelte Herzen, beispielsweise bei den Wirbeltieren, arbeiten wie eine Verdrängerpumpe, indem die Flüssigkeit (Blut) ventilgesteuert aus Blutgefäßen angesaugt wird (bei Säugern Hohl- bzw. Lungenvenen) und durch andere Blutgefäße ausgestoßen wird (bei Säugern Truncus pulmonalis bzw. Aorta). Die Lehre von Struktur, Funktion und Erkrankungen des Herzens ist die Kardiologie. Ein Leben ohne Herz ist für höhere Tiere und den Menschen nicht möglich – wohl aber mit einem künstlichen Herzen. Das Herz gehört zu den ersten während der Embryonalentwicklung angelegten Organen und kann als springender Punkt auffallen. Das neuhochdeutsche "Herz" geht auf ahd. "herza" zurück, das sich aus den lateinischen und griechischen Formen (s. o.) entwickelte, indem sich die beiden Anfangs- und Endkonsonanten des Wortes nach den Regeln der ersten und zweiten Lautverschiebung wandelten. Forschungsgeschichte. Der arabische Arzt Ibn al-Nafis (1213–1288) war der erste, der das Herz anatomisch richtig beschrieb. Der englische Arzt William Harvey (1578–1657) zeigte, dass die Kontraktion des Herzens die Bewegung des Bluts durch den Kreislauf antreibt. Röhrenherzen und Kammerherzen. Die Herzen der verschiedenen Tiergruppen lassen sich bezüglich ihres Aufbaus in röhrenförmige und gekammerte Typen einteilen. Röhrenförmige Herzen setzen das Blut oder die Hämolymphe in Bewegung, indem Kontraktionswellen durch ihre Wände laufen (Peristaltik). So kann ein gerichteter Fluss erzeugt werden, auch wenn keine Ventile vorhanden sind. Gliederfüßer haben röhrenförmige Herzen, die nahe am Rücken liegen. Bei Insekten und manchen Krebsen wie Artemia können sie sich über längere Körperabschnitte erstrecken, bei anderen Krebsen handelt es sich um kurze muskuläre Säcke. Das Blut beziehungsweise die Hämolymphe tritt meistens über seitliche Öffnungen ein, sogenannte Ostien. Diese können recht zahlreich werden, die Fangschreckenkrebse haben 13 Paare. Manchmal geschieht der Zufluss aber auch von hinten über Venen. Bei der Herzkontraktion wird die Flüssigkeit nach vorne in eine mit Klappen versehene Arterie gepresst. Das Herz ist an Bändern oder Muskeln aufgehängt, die durch die Herzkontraktion unter Spannung gesetzt werden. Beim Erschlaffen des Herzens öffnen sich die Ostien und das Herz erweitert sich, so dass Flüssigkeit nachströmen kann. Das Arthropodenherz lässt sich daher mit einer Saugpumpe vergleichen. Röhrenförmige Herzen kommen auch bei den Urochordata und bei Embryonen der Wirbeltiere vor. Beim Manteltier "Ciona" ändert sich die Richtung der Kontraktionswellen rhythmisch, so dass die Flussrichtung des Blutes abwechselt. Bei Herzen mit Kammern zieht sich eine Kammer komplett zusammen. Das Fließen in die falsche Richtung wird durch Klappen verhindert, die sich nur in eine Richtung öffnen. Dieser Herztyp kommt besonders bei Weichtieren und Wirbeltieren vor. Aufgrund der sehr starken Wandmuskulatur wirken diese Herzen zusätzlich als Druckpumpe, die einen hohen Blutdruck erzeugen kann. Bei vielen Weichtieren, speziell bei den Schnecken, aber auch bei niederen Wirbeltieren funktioniert die Füllung des Herzens durch Unterdruck in der Perikardhöhle, die das Herz umgibt. Die Wand dieser Höhle kann sehr fest sein, so dass hier bei der Herzkontraktion ein Unterdruck entsteht, der nach Ende der Kontraktion Blut in das Herz saugt. Bei Haien entstehen so -5 mmWS. Die Kammer (auch: Ventrikel) hat eine dicke, muskuläre Wand. Ihr vorgeschaltet ist der Vorhof (auch: Atrium), der eine schwächere Wandmuskulatur hat und der durch seine Kontraktion die Kammer befüllt. Myogene und neurogene Herzen. Die Herzkontraktion wird durch einen elektrischen Impuls ausgelöst. Bei myogenen Herzen wird dieser Impuls spontan und rhythmisch in spezialisierten Herzmuskelzellen ausgelöst, den Schrittmacherzellen. Dies kommt bei Wirbeltieren, Manteltieren, Weichtieren sowie bei manchen Ringelwürmern und Gliederfüßern (darunter die Insekten) vor. Bei Säugern und Vögeln wurden die verantwortlichen Zellen im Sinusknoten lokalisiert. Die elektrische Gesamtaktivität eines myogenen Herzens lässt sich in einem Elektrokardiogramm (EKG) darstellen. Das EKG ist für jede Tierart typisch. Bei neurogenen Herzen wird der Impuls zur Kontraktion durch Nervenzellen (genauer: Ganglienzellen) ausgelöst, die am Herzen anliegen. Eine solche neurogene Automatie kommt bei manchen Ringelwürmern und manchen Gliederfüßern vor, zum Beispiel bei den Zehnfußkrebsen, zu denen Hummer, Krabben und andere Gruppen gehören. Das verantwortliche Herzganglion kann je nach Art zum Beispiel neun oder 16 Zellen haben. Auch der Pfeilschwanzkrebs "Limulus" und die Vogelspinne "Erypelma californicum" haben ein neurogenes Herz. Während sich bei myogenen Herzen die Erregung von den Schrittmacherzellen über jeweils benachbarte Muskelzellen schließlich im gesamten Herzen ausbreitet, findet eine solche muskuläre Erregungsweiterleitung in neurogenen Herzen soweit bekannt nicht statt. Stattdessen sind die Muskelzellen vielfach innerviert. Bei "Limulus" wird jede Muskelzelle von sechs oder mehr Nervenzellen innerviert, die Ganglien entspringen, die rückenwärts am Herzen anliegen und die Erregung steuern. Auch myogene Herzen sind oft innerviert, etwa bei Weichtieren und Wirbeltieren. So können sowohl myogene als auch neurogene Herzen durch das Nervensystem gesteuert werden. Durch entsprechende Nervenimpulse können beispielsweise die Schrittmacherzellen stimuliert oder inhibiert werden, so dass die Herzfrequenz gesteigert oder herabgesetzt wird, je nach den körperlichen Erfordernissen. Bei den Gliederfüßern sind lange Herzen häufiger neurogen und kurze Herzen eher myogen. Generell schlagen beide Herztypen selbstständig, ohne Signalgeber aus dem zentralen Nervensystem. Dies wird als Autonomie oder Autorhythmie bezeichnet. Nebenherzen. Die meisten Weichtiere haben ein offenes Gefäßsystem mit einem Herzen mit Vorhof und Kammer. Bei den Kopffüßern, die ein weitgehend geschlossenes Gefäßsystem haben, finden sich jedoch neben dem Hauptherzen noch zwei Kiemenherzen, die das Blut durch die Kapillaren der Kiemen pressen. Sie haben also eine ähnliche Funktion wie die rechte Herzhälfte der Säuger, die den Lungenkreislauf antreibt. Bei "Myxine", einer Gattung der Schleimaale, finden sich neben dem Hauptherzen noch Portalherz, Cardinalherzen und Caudalherz. Nebenherzen gibt es auch in den Flügelvenen von Fledermäusen. Im Lymphgefäßsystem von Froschlurchen treten sogenannte Lymphherzen auf. Sie sind paarig in der Nähe des Steißbeins angelegt und haben neurogene Automatie. Ein eigener Schrittmacher ist jedoch nicht vorhanden. Stattdessen werden sie vom Vegetativen Nervensystem gesteuert. Lympherzen kommen auch bei manchen Reptilien und Vögeln vor, etwa beim Strauß, bei den meisten Vögeln und den Säugern aber nicht. Bei vielen Insekten kommen zusätzliche Herzen in Flügeln, Beinen und Antennen vor, die helfen die Hämolymphe durch diese schmalen Körperanhänge zu pressen. Bis zu einigen Dutzend dieser akzessorischen Herzen können auftreten. Andere blutfördernde Organe. Neben Herzen tragen bei manchen Arten auch andere Organe zum Fluss des Blutes bei. In den Beinen der Landwirbeltiere führt die Kontraktion der Muskeln zu einem verbesserten Rückstrom des venösen Blutes zum Herzen. Die Körperbewegung der Gliederfüßer setzt die Hämolymphe in Bewegung. Bei manchen Arten kommen Blutgefäße vor, die sich zusammenziehen können, zum Beispiel beim Perlboot "Nautilus", wo sie das Blut durch die Kiemen zu Herzen pumpen. Herzfrequenz. Generell gilt, dass innerhalb einer Tiergruppe die Herzfrequenz großer Arten niedriger ist als jene von kleineren Arten. Dies wurde beispielsweise für Säuger, Krebstiere oder Spinnentiere gezeigt. Bei Säugern liegen die Werte für ausgewachsene Tiere in Ruhe zwischen 6 Schlägen pro Minute beim Blauwal und 1000 Schlägen pro Minute bei der Etruskerspitzmaus. Eine Ausnahme von der Regel ist die Giraffe, die mit 170 Schlägen pro Minute eine deutlich höhere Frequenz hat als Tiere vergleichbaren Gewichts. wobei formula_4 eine für die Tiergruppe spezifische Konstante ist und formula_5 bei den Vögeln -0,27, bei den Krebsen -0,12 und bei den Lungenschnecken -0,11 beträgt. Grundsätzlich beziehen sich derartige Vergleiche auf erwachsene Tiere. Blutdruck. Der Blutdruck ist der Druck, gegen den das Herz seinen Inhalt auswerfen muss. Er ist damit entscheidend für die Arbeit, die das Herz verrichten muss. Bei Tieren mit einem geschlossenen Blutkreislauf hängt die Höhe des Blutdrucks unmittelbar mit der Auswurfleistung des Herzens zusammen. Dies ist bei Tieren mit offenem Kreislaufsystem nicht der Fall. Da die Hämolymphe auch die Leibeshöhle durchströmt, ist der Blutdruck hier einerseits vergleichsweise niedrig und andererseits abhängig von der Körperbewegung und -haltung und dadurch sehr variabel. Bei den Weichtieren wurde gezeigt, dass der Druck, der vom Ventrikel aufgebaut werden kann, bei den Tiergruppen mit aktiverer Lebensweise größer ist. Bei den Kopffüßern sind bei "Octopus" bis zu 600 mmWS gemessen worden (entspricht 44 mm Hg), bei der Schnecke "Patella" 50 mmWS (3,7 mm Hg) und bei Muscheln in der Regel unter 20 mmWS (1,5 mm Hg). Bei den Wirbeltieren ist der Blutdruck am höchsten im Körperkreislauf der Vögel, dicht gefolgt vom Körperkreislauf der Säuger. Die anderen Wirbeltiergruppen, die keine vollständige Trennung zwischen Lungenkreislauf und Körperkreislauf haben (siehe unten), haben deutlich niedrigeren Blutdruck (siehe Tabelle). Bei Vögeln und Säugern nimmt er mit dem Alter zu und ist bei Männchen etwas höher als bei Weibchen. Bei Säugetieren, die Winterschlaf halten, sinkt der Blutdruck stark. Wenn nicht anders angegeben, beruhen die Zahlenangaben der Tabelle auf. Angegeben werden zuerst der Ruheblutdruck am Ende der Herzkontraktion (systolischer Blutdruck), der dem Druck im (linken) Ventrikel entspricht, und gefolgt von einem Schrägstrich der Druck in der Aorta am Beginn der nächsten Kontraktion, gegen den das Herz das Blut auswerfen muss (diastolischer Blutdruck). Alle Werte in mm Hg. Herzen der Wirbeltiere. Alle Wirbeltierherzen sind myogen, ein Schrittmacher sorgt für eine herzeigene Reizgenerierung. In vielen Fällen schlagen Herzen unter kontrollierten Bedingungen noch weiter, nachdem sie aus einem Tier herauspräpariert wurden. Diese Eigenschaft wird als Autorhythmie oder Autonomie bezeichnet. Wandstruktur. Die Wände der Wirbeltierherzen sind aus mehreren Schichten aufgebaut. Außen liegt der Herzbeutel (Perikard), der nicht zum Herz selbst gehört. Nach innen folgt das Epikard, das äußere Bindegewebe des Herzens. Wenn Koronargefäße (Herzkranzgefäße) vorhanden sind liegen sie hier. Sie erstrecken sich dann von hier in die darunter liegende Muskelschicht, das Myokard. Hier liegen die Herzmuskelzellen, die Cardiomyocyten. Die innerste Schicht ist das Endokard, eine Bindegewebschicht, die zum Herzinnenraum hin von einer Schicht Epithelzellen abgeschlossen wird. Die Muskelschicht kommt in zwei Formen vor, als kompaktes oder spongiöses (schwammiges) Myokard. Der jeweilige Anteil beider Typen ist artspezifisch. Bei Fischen und Amphibien liegt hauptsächlich spongiöses Myokard vor, während Säuger fast nur kompaktes Myokard haben. Im Gegensatz zu kompaktem hat spongiöses Myokard häufig keine Blutgefäße, es wird vom Blut im Herzen versorgt. Das spongiöse Myokard kann in Trabekeln oder Bälkchen in die Herzkammer hineingezogen sein. Fische. Das vierkammerige Herz der Fische. Das Vorderende des Tiers liegt links; rechts sind die Enden einiger zuführender Venen eingezeichnet. Es folgen der "Sinus venosus", der Vorhof, der Ventrikel und je nach Art der "Bulbus arteriosus" oder der "Conus arteriosus". Das Herz der Fische sammelt das Blut aus dem Körper und treibt es mit starkem Druck in die Kiemen. Diese Funktionen lassen sich im Aufbau wiederfinden. Von den vier hintereinander liegenden Kammern sammeln die hinteren beiden, der "Sinus venosus" und der Vorhof (Atrium) das Blut. Aus diesen beiden dünnwandigen Räumen wird das Blut zunächst in den muskulösen Ventrikel geleitet. Bei den Plattenkiemern (Elasmobranchii, Haie und Rochen) folgt der muskulöse "Conus arteriosus" (auch "Bulbus cordis"). Ihr Herzbeutel (Perikard) ist steif, so dass durch das Auspressen des Blutes ein Unterdruck entsteht. Dieser hilft bei der Füllung für den nächsten Zyklus. Bei den Echten Knochenfischen (Teleostei) ist der "Conus arteriosus" weitgehend zurückgebildet. Stattdessen haben sie aus dem Anfang der Aorta den "Bulbus arteriosus" entwickelt, eine Struktur die viele Elastische Fasern sowie Glatte Muskelzellen enthält. Er ruft einen starken Windkesseleffekt zur Aufrechterhaltung des Blutdrucks hervor. Die Kontraktionswelle entsteht myogen im "Sinus venosus" und läuft dann nach vorne. Klappen zwischen den Kammern verhindern das Zurückfließen. Eine Abwandlung dieses Bauplans liegt bei den Lungenfischen (Dipnoi) vor. Der Vorhof ist hier geteilt. Während der rechte Vorhof wie der Vorhof der anderen Fische das sauerstoffarme Blut aus dem Körper aufnimmt, wird der linke Vorhof vom neu entwickelten Lungenkreislauf mit sauerstoffreichem Blut gespeist. Eine lange Spiralfalte im "Bulbus cordis" hilft, das sauerstoffreiche Blut über die Aorta dorsalis in den Körper zu leiten. Wie die Elasmobranchii haben auch die Lungenfische einen steifen Herzbeutel. Amphibien. Das Herz der Amphibien ähnelt dem der Lungenfische: Es besitzt zwei separate Vorhöfe und eine Hauptkammer (Ventrikel). Der Sinus venosus ist bei den Amphibien verkleinert. Sauerstoffreiches Blut aus der Lunge kommt im linken Vorhof an, das Blut des Körperkreislaufs im rechten. Von dort gelangt das Blut in die Kammer und danach durch den Conus arteriosus in den Lungen- und den Körperkreislauf. Trabekel in der Kammer erlauben es, sauerstoffreiches und -armes Blut weitgehend getrennt zu halten. Eine Spiralfalte im Conus arteriosus leitet bevorzugt sauerstoffarmes Blut zur Arteria pulmocutanea, deren weitere Verzweigungen zur Lunge und zur Haut führen. Hautatmung kann bei Amphibien einen wichtigen Anteil der Sauerstoffversorgung stellen. Der Körperkreislauf wird dagegen mit sauerstoffreichem Blut beschickt. Sauerstoffreiches Blut von der Haut kommt im Gegensatz zu dem Blut aus der Lunge im rechten Vorhof an, zusammen mit dem sauerstoffarmen Blut aus dem Körperkreislauf. Taucht ein Frosch in sauerstoffreichem Wasser fließt weniger Blut durch die Lungen, dafür mehr durch die Haut. Der gemeinsame Ventrikel beider Kreisläufe erlaubt es in auch in dieser Situation, dass Sauerstoff in die Gewebe geleitet wird. Reptilien. Bei den Reptilien kommen zwei unterschiedliche Herztypen vor. Der Herztyp der Crocodylia einerseits und der aller anderen Reptilien andererseits. Die anderen Reptilien haben wie die Amphibien ein Herz mit zwei getrennten Vorhöfen (Atrien) und einem gemeinsamen Ventrikel. Der Ventrikel ist aber hier durch Muskelleisten in drei miteinander in Verbindung stehende Räume unterteilt, so dass von insgesamt fünf Kammern gesprochen wird. Der Sinus venosus, bei den Amphibien und Fischen noch dem Vorhof vorgeschaltet, ist weiter reduziert und fehlt manchmal ganz. Entsprechend ist das erregungsbildende Gewebe (Sinusknoten) in die Wand des Atriums verschoben, nahe der Veneneinmündung. Während das Blut aus dem Ventrikel bei den Amphibien noch in einen gemeinsamen Conus arteriosus fließt ist dieser bei den Reptilien dreigeteilt, in die Lungenarterie und in die rechte und linke Aorta. Im Gegensatz zu den Amphibien spielt Hautatmung keine Rolle mehr, so dass eine Sauerstoffanreicherung nur in der Lunge stattfindet. Trotz einer gemeinsamen Kammer bleiben sauerstoffreiches und -armes Blut in der Regel getrennt. Sauerstoffarmes Blut kommt vom Körperkreislauf in den rechten Vorhof, von dort ins Cavum venosum und weiter ins Cavum pulmonale (blaue Pfeile in der rechten Abbildung). Durch den gemeinsamen Ventrikel ist es den Reptilien möglich, mit einem Shunt (deutsch: Abzweig, Nebenanschluss) bei Bedarf den Lungen- oder Körperkreislauf zu umgehen. Die Regulation dieser Vorgänge ist noch nicht völlig verstanden, vermutlich unterscheidet sie sich von Art zu Art. Ein Rechts-links-Shunt bewirkt, dass der Lungenkreislauf umgangen wird und Blut vom Körperkreislauf im Herzen wieder in den Körperkreislauf geleitet wird. Dies geschieht in bei Reptilien häufig vorkommenden Atempausen. Auch bei Reptilien, die unter Wasser ruhen, treten sie auf. Bei den Crocodilia ist der Ventrikel vollständig geteilt, dass wie bei Säugern und Vögeln ein vierkammeriges Herz vorliegt. Im Gegensatz zu diesen ist jedoch der Lungenkreislauf und der Körperkreislauf nicht vollständig getrennt, so dass Blut zwischen den beiden verschoben werden kann. Sauerstoffreiches Blut kommt von der Lunge in den linken Vorhof und in den linken Ventrikel. Hier entspringt die rechte Aorta, die den vorderen Körper mit dem Gehirn versorgt. Sauerstoffarmes Blut kommt über die Körpervene in den rechten Vorhof und weiter in den rechten Ventrikel. Hier entspringt sowohl die linke Aorta, die den Hinterleib versorgt als auch die Lungenarterie. Bei Luftatmung und körperlicher Aktivität ist der Druck im linken Ventrikel höher als im rechten. Dadurch ist auch der Druck in der linken Aorta höher als in der rechten. Durch zwei Verbindungen zwischen und linker und rechter Aorta strömt dadurch sauerstoffreiches Blut auch in die hintere Körperhälfte. Das Sauerstoffarme Blut landet dagegen weitgehend in der Lunge. Jene Reptilien, bei denen die Trennung des Ventrikels in zwei Hälften besonders ausgeprägt ist, erreichen höhere Stoffwechselraten als andere. Bei Waranen mit ihrer zusätzlichen Muskelleiste (siehe Abbildung) kann sie 20 Milliliter Sauerstoff pro Minute pro Kilogramm Körpergewicht betragen, während Schildkröten nur 10 Milliliter erreichen. Daraus wird geschlossen, dass die Entwicklung vollständig getrennter Kammern wichtig für die hohen Stoffwechselraten der Säuger und Vögel war. Säugetiere und Vögel. Bei Säugetieren und Vögeln sind linke und rechte Herzhälfte vollständig voneinander getrennt. Im Gegensatz zu den Crocodilia sind bei ihnen aber auch Lungen- und Körperkreislauf vollständig getrennt, so dass in beiden unterschiedlich hoher Druck aufgebaut werden kann. Auch eine Vermischung von sauerstoffarmen und -reichem Blut ist ausgeschlossen. Beide Herzhälften haben einen dünnwandigen Vorhof und einen dickwandigen Ventrikel, so dass insgesamt vier Kammern vorhanden sind. Diese haben verglichen mit anderen Wirbeltieren recht glatte innere Wände. Die rechte Herzhälfte pumpt das Blut durch den Lungenkreislauf („kleiner Kreislauf“), wonach es sauerstoffreich im linken Vorhof ankommt. Die linke Herzhälfte befördert das Blut durch den Körperkreislauf („großer Kreislauf“), an dessen Ende es wieder im rechten Vorhof landet. Da der Gesamtgefäßwiderstand sowie der Blutdruck im Körperkreislauf erheblich größer ist als der des Lungenkreislaufs, muss die linke Herzkammer eine entsprechend größere Arbeit gegen diesen Widerstand verrichten und weist daher eine deutlich stärkere Wanddicke auf als die rechte. Das Füllungs- und Schlagvolumen beider Herzkammern ist jedoch gleich. Herzklappen zwischen den Vorhöfen und Ventrikeln sowie am Ausgang der Ventrikel verhindern einen Rückfluss von Blut. Das Herz der Säugetiere unterscheidet sich bei den verschiedenen Arten nur wenig, abgesehen von einer Größenanpassung. Dabei haben einzelne Herzmuskelzellen der verschiedenen Arten wiederum kaum Unterschiede in Morphologie und Größe. Die Herzmasse steigt bei den Säugern linear mit der Körpermasse an, sie beträgt in der Regel 0,6 % der Körpermasse. Entsprechend steigt auch das Schlagvolumen linear. Das größte Herz hat der Blauwal, der bei einem Körpergewicht von 100 Tonnen ein Herzgewicht von 600 kg und ein Schlagvolumen von 350 Litern erreicht. Seine Herzfrequenz liegt in Ruhe bei 6 Schlägen pro Minute und kann bei einem Tauchgang auf 2 bis 3 Schläge pro Minute abfallen. Das wohl kleinste Säugerherz hat die Etruskerspitzmaus. Bei einem Körpergewicht von 2 g beträgt das Herzgewicht 12 mg, das Schlagvolumen 1,2 µl. Die Ruheherzfrequenz von 800 bis 1200 Schlägen pro Minute (= 13 bis 20 Schläge pro Sekunde) kann bei körperlicher Anstrengung bis auf 1500 Schläge pro Minute (25 Schläge pro Sekunde) gesteigert werden. Der vom linken Ventrikel aufgebaute Blutdruck im Körperkreislauf ändert sich dagegen nur wenig, er liegt unabhängig von der Körpergröße zwischen 100 und 150 mm Hg systolisch und zwischen 70 und 105 diastolisch (siehe Tabelle). Auch bei den Säugetieren besteht ein allometrischer Zusammenhang zwischen Herzfrequenz und Körpermasse. Der Exponent b beträgt hier -0,25, ähnlich dem der Vögel, die Herzfrequenz nimmt also mit zunehmender Körpermasse ab. Dies wird mit der Stoffwechselrate erklärt, die mit zunehmender Körpermasse ebenfalls allometrisch abnimmt (b= 3/4). Der zeitliche Abstand von der Erregung der Vorhöfe bis zur Erregung der Ventrikel (pq-Intervall, siehe unten) steigt ebenfalls allometrisch mit b=1/4. Eine Ausnahme in mehrerer Hinsicht ist die Giraffe, die auf Grund des Höhenunterschieds von etwa zwei Metern zwischen Herz und Gehirn einen höheren Blutdruck benötigt. Je nach Quelle liegt dieser bei 300/230 oder 280/180 und ist damit der höchste aller Säugetiere. Um den hohen Druck aufzubauen liegt die Herzfrequenz bei für Tiere dieser Größe ebenfalls sehr ungewöhnlichen 170 Schlägen pro Minute. (siehe auch: Herz-Kreislauf-System) Auf Grund der Ähnlichkeit der Herzen der verschiedenen Säugetierarten kann das unten dargestellte menschliche Herz als Modell für alle Säugerherzen gelten. Lage. Seitlich grenzen, getrennt durch parietale und viszerale Pleura (Brustfell), die linke und rechte Lunge an das Herz. Unten sitzt das Herz dem Zwerchfell auf, das mit dem Herzbeutel verwachsen ist. Oberhalb teilt sich die Luftröhre (Trachea) in die beiden Hauptbronchien ("Bifurcatio tracheae"), von denen der linke vom Aortenbogen überquert wird. Unterhalb dieser Aufteilung befindet sich der linke Herzvorhof. Wenn dieser krankhaft vergrößert ist, kann das zu einer Spreizung der Hauptbronchen führen, was sich im Röntgenbild als vergrößerter Winkel zwischen den Bronchien darstellt. Der linke Vorhof steht außerdem nach hinten in direktem Kontakt mit der Speiseröhre. Vor dem Herzen befindet sich das Brustbein (Sternum), im oberen Bereich liegt es vor den abgehenden großen Gefäßen. Zwischen Brustbein und Herz liegt der Thymus. Das Herz liegt also praktisch direkt hinter der vorderen Leibeswand in Höhe der zweiten bis fünften Rippe. Die Herzbasis oben reicht nach rechts etwa zwei Zentimeter über den rechten Brustbeinrand hinaus. Unten kommt die Herzspitze knapp an eine gedachte senkrechte Linie heran, die durch die Mitte des linken Schlüsselbeins verläuft (linke "Medioklavikularlinie"). Anatomie. Die Gestalt des Herzens gleicht einem gut faustgroßen, abgerundeten Kegel, dessen Spitze nach unten und etwas nach links vorne weist. Das Herz sitzt beim Menschen in der Regel leicht nach links versetzt hinter dem Brustbein, in seltenen Fällen nach rechts versetzt (die sogenannte "Dextrokardie" – „Rechtsherzigkeit“), meist bei Situs inversus (spiegelverkehrter Organanordnung). Das gesunde Herz wiegt etwa 0,5 % des Körpergewichts, beim Mann zwischen 280 und 340 Gramm, bei der Frau zwischen 230 und 280 Gramm. Über den größten Teil des Lebens nimmt die Herzmasse kontinuierlich zu, wobei es bei dauerhafter Belastung eher mit der (risikoarmen) Vergrößerung schon bestehender Herzmuskelzellen reagiert: ab etwa 500 g, dem so genannten "kritischen Herzgewicht", erhöht sich das Risiko einer Mangelversorgung des nunmehr vergrößerten Herzens mit Sauerstoff, da die versorgenden Herzkranzgefäße nicht in gleichem Maße mitwachsen. Entgegen früheren Annahmen bildet der Mensch im Lauf seines Lebens neue Herzmuskelzellen, allerdings nur in begrenztem Ausmaß. Im Alter von 25 Jahren beträgt die jährliche Regeneration etwa ein Prozent, bis zum 75. Lebensjahr fällt sie auf unter 0,5 Prozent; während einer durchschnittlichen Lebensspanne werden damit weniger als 50 % der Herzmuskelzellen ersetzt. Wandschichten. Das Herz wird vollständig vom bindegewebigen Herzbeutel ("Perikard, Pericardium fibrosum") umschlossen. Die untere Seite des Herzbeutels ist mit dem Zwerchfell ("Diaphragma") verwachsen, so dass die Bewegungen des Zwerchfells bei der Atmung auf das Herz übertragen werden. Die innerste Schicht des Herzbeutels ("Pericardium serosum") schlägt am Abgang der großen Blutgefäße (s. u.) in das Epikard um, das dem Herzen direkt aufliegt. Zwischen Perikard und Epikard liegt ein mit 10–20 ml Flüssigkeit gefüllter kapillärer Spaltraum, der reibungsarme Verschiebungen des Herzens im Herzbeutel ermöglicht. Diese komplizierten Verhältnisse werden anschaulicher, wenn man sich den Herzbeutel als einen mit Luft gefüllten und verschlossenen Luftballon vorstellt. Die eigene zur Faust geschlossene Hand stellt das Herz dar. Drückt man den Luftballon mit der Faust so weit ein, dass sie vom Ballon vollständig umschlossen wird, so liegt eine Schicht des Luftballons der Faust (dem „Herzen“) direkt an. Diese Schicht, die dem Epikard entspricht, schlägt am Übergang zum Arm in eine äußere Schicht um. Diese äußere Schicht entspricht dem Perikard. Zwischen beiden befindet sich ein mit Luft gefüllter Raum, der dem flüssigkeitsgefüllten Spaltraum des Herzbeutels vergleichbar ist. Unter dem "Epikard" befindet sich eine Fettschicht ("Tela subepicardiaca"), in der die Herzkranzgefäße verlaufen. Nach innen hin folgt die dicke Muskelschicht ("Myokard") aus spezialisiertem Muskelgewebe, das nur im Herzen vorkommt. Die Herzinnenräume werden vom Endokard ausgekleidet, das auch die Herzklappen bildet. Räume und Gefäße. Rechte und linke Herzhälfte bestehen jeweils aus einer Kammer (lat. "Ventriculus cordis", (Herz-)Ventrikel) und einem Vorhof (Atrium). Getrennt werden diese Räume durch die Herzscheidewand (Septum). Diese wird in die Vorhofscheidewand ("Septum interatriale") und die Kammerscheidewand ("Septum interventriculare", Ventrikelseptum) unterteilt. Das Blut kann zwischen den Herzräumen nur in eine Richtung fließen, da sich zwischen den Vorhöfen und Kammern sowie zwischen den Kammern und den sich anschließenden Gefäßen Herzklappen befinden, die wie Rückschlagventile arbeiten. Alle vier Klappen des Herzens befinden sich ungefähr in einer Ebene, der "Ventilebene", und sind gemeinsam an einer Bindegewebsplatte, dem "Herzskelett", aufgehängt. Innerhalb der Kammern und Vorhöfe finden sich Muskelzüge, die in den Hohlraum hervorragen – die Papillarmuskeln und die Musculi pectinati. Arterien transportieren das Blut vom Herzen zu den Organen, Venen von den Organen zum Herzen. Arterien des Körperkreislaufs führen sauerstoffreiches (arterielles) Blut, während Arterien des Lungenkreislaufs sauerstoffarmes (venöses) Blut führen. Umgekehrt ist das Blut in den Venen des Körperkreislaufs sauerstoffarm (venös) und das der Lungenvenen sauerstoffreich (arteriell). In den rechten Vorhof münden die obere und untere Hohlvene ("Vena cava superior et inferior"). Sie führen das sauerstoffarme Blut aus dem großen Kreislauf (Körperkreislauf) dem Herzen zu. Zwischen rechtem Vorhof und rechter Kammer befindet sich die Trikuspidalklappe, die bei der Kammerkontraktion einen Rückstrom des Blutes in den Vorhof verhindert. Von der rechten Herzkammer aus fließt das Blut über einen gemeinsamen Stamm ("Truncus pulmonalis") in die beiden Lungenarterien. Der Rückfluss in die rechte Kammer wird durch die taschenförmige Pulmonalklappe verhindert. Die Lungenarterien führen das sauerstoffarme Blut dem Lungenkreislauf (kleiner Kreislauf) zu. Durch meist vier Lungenvenen fließt das in der Lunge mit Sauerstoff angereicherte Blut in den linken Vorhof. Von hier aus gelangt es über eine weitere Segelklappe, die Mitralklappe, zur linken Kammer. Der Ausstrom erfolgt durch den sogenannten linksventrikulären Ausflusstrakt (LVOT) über eine weitere Taschenklappe (Aortenklappe) und die Hauptschlagader (Aorta) in den Körperkreislauf. Herzkranzgefäße. Aus dem Anfangsteil der Aorta entspringen die rechte und linke Herzkranzarterie ("Koronararterien"). Sie versorgen den Herzmuskel selbst mit Blut. Die Herzkranzarterien sind so genannte „funktionelle Endarterien“. Dies bedeutet, dass eine einzelne Arterie zwar mit anderen Arterien verbunden ist (Anastomosen), dass diese Verbindungen jedoch zu schwach sind, um bei Mangelversorgung eine Durchblutung des Gewebes auf einem anderen Weg zu gewährleisten. Fällt also eine Arterie aufgrund einer Blockade oder einer anderen Störung aus, kommt es in dem von dieser Arterie versorgten Gebiet zu einem Absterben von Gewebe. Die linke Koronararterie ("Arteria coronaria sinistra", "left coronary artery", LCA) versorgt die Herzvorderseite. Sie teilt sich in einen "Ramus interventricularis anterior" (RIVA, "left anterior descending", LAD) und einen "Ramus circumflexus" (RCX). Die rechte Koronararterie ("Arteria coronaria dextra", "right coronary artery", RCA) gibt die "A. marginalis dexter" ab, welche die freie Wand der rechten Herzkammer versorgt. Am „Herzkreuz“ ("Crux cordis") teilt sie sich in den "Ramus interventricularis posterior" und den "Ramus posterolateralis dexter". Die rechte Koronararterie versorgt auch einen wichtigen Teil des Erregungssystems (Sinusknoten, Atrioventrikularknoten). Es gibt drei große Koronarvenen, die in den Sinus coronarius des rechten Vorhofs münden und das sauerstoffarme Blut aus dem Herzmuskel abführen. Die große Herzvene ("V. cordis magna") verläuft auf der Vorderseite, die mittlere Herzvene ("V. cordis media") auf der Hinterseite und die "V. cordis parva" am rechten Herzrand. Ein kleiner Teil des sauerstoffarmen Blutes wird über die Thebesius-Venen direkt in die Ventrikel entleert. Entwicklung. Das Herz beginnt sich beim Menschen schon in der 3. Woche der Embryonalentwicklung zu bilden. Dazu lagern sich Angioblasten (Blutgefäßbildungszellen) vor und seitlich der Prächordalplatte an – der Beginn der Gefäßentwicklung (Vaskulogenese). Sie bilden zunächst mehrere kleinere Hohlräume (Sinus), die schließlich zum hufeisenförmigen Herzschlauch verschmelzen. Die Anlage wandert dann kaudoventral (nach unten und in Richtung Bauch). Um den Herzschlauch herum liegt embryonales Bindegewebe (Mesenchym) aus der Splanchopleura (Seitenplattenmesoderm), welches die Herzmuskulatur (Myokard) bildet. Das Epikard – der dünne Überzug des Herzens – entsteht aus Mesothelzellen. Am 23. bzw. 24. Tag beginnt das Herz mit peristaltischen Kontraktionen und damit mit Pumpbewegungen. Man unterscheidet am fetalen Herzen eine Einstrom- von einer Ausstrombahn. In den Sinus venosus fließen die Dottersackvenen ("Vv. vitellinae"), die das Blut vom Dottersack in den Embryonalkreislauf leiten, die Nabelvene ("V. umbilicalis"), die sauerstoffreiches Blut aus den Chorionzotten führt und die Kardinalvenen ("Vv. cardinales anteriores et posteriores"), welche das Blut aus dem eigentlichen Embryonalkreislauf enthalten und es wieder zurückführen, ein. Die Ausstrombahn erhält erst Anschluss an die Kiemenbogenarterien, später an den Aortenbogen bzw. den Truncus pulmonalis. Wichtige Prozesse im Rahmen der Entwicklung sind die Bildung des Cor sigmoideum (vom Schlauch zur Schleife) und die Trennung in zwei getrennte Kreisläufe (Körper- und Lungenkreislauf). Weiter werden das Atrium primitivum in einen rechten und linken Vorhof (durch Auswachsen von Endokardkissen) und der Ventriculus primitivus in eine rechte und linke Herzkammer (durch Bildung des muskulösen und membranösen Septums) unterteilt. Die Segelklappen (zwischen Vorhöfen und Kammern) bilden sich ebenfalls aus auswachsenden Endokardkissen, die Taschenklappen durch Bildung von Endothelwülsten. Erregungsbildungs- und Erregungsleitungssystem. Erregungsleitung am Herzen mit EKG Damit sich die elektrische Erregung, die für die Herzaktion verantwortlich ist, über das Herz ausbreiten kann, sind die einzelnen Herzmuskelzellen über kleine Poren in ihren Zellmembranen miteinander verbunden. Über diese Gap Junctions fließen Ionen von Zelle zu Zelle. Dabei nimmt die Erregung im Sinusknoten zwischen oberer Hohlvene und rechtem Herzohr ihren Ursprung, breitet sich erst über beide Vorhöfe aus und erreicht dann über den Atrioventrikularknoten (AV-Knoten) in der Ventilebene die Kammern. In den beiden Herzkammern gibt es ein Erregungsleitungssystem zur schnelleren Fortleitung, das aus spezialisierten Herzmuskelzellen besteht. Diese Zellen bilden vom AV-Knoten ausgehend das His-Bündel, das das Herzskelett durchbohrt und sich in einen rechten und einen linken Tawara-Schenkel für die rechte und die linke Kammer aufteilt. Der linke Tawara-Schenkel teilt sich in ein linkes vorderes und ein linkes hinteres Bündel. Die Endstrecke des Erregungsleitungssystems wird durch Purkinje-Fasern gebildet, die bis zur Herzspitze verlaufen, dort umkehren und direkt unter dem Endokard in der Arbeitsmuskulatur enden. Zum Teil können sie auch als „falsche Sehnenfäden“ (Chordae tendineae spuriae) oder innerhalb der Moderatorbänder (Trabeculae septomarginales) durch die Lichtung der Kammer ziehen. Dieses System ermöglicht den Kammern, sich trotz ihrer Größe koordiniert zu kontrahieren. Erreichen den AV-Knoten aus irgendeinem Grunde keine Vorhoferregungen, so geht von ihm selbst eine langsamere Kammererregung aus (ca. 40 /min). Der AV-Knoten bildet auch einen Frequenzfilter, der zu schnelle Vorhoferregungen (z. B. bei Vorhofflattern oder -flimmern) abblockt (→ AV-Block). Mechanik der Herzaktion. a>-Diagramm der Vorgänge im linken Herzteil während zweier Herzzyklen. Das menschliche Herz pumpt in Ruhe etwa das gesamte Blutvolumen des Körpers einmal pro Minute durch den Kreislauf, das sind etwa fünf Liter pro Minute. Bei körperlicher Belastung kann die Pumpleistung etwa auf das Fünffache gesteigert werden, wobei sich der Sauerstoffbedarf entsprechend erhöht. Diese Steigerung wird durch eine Verdoppelung des Schlagvolumens und eine Steigerung der Herzfrequenz um den Faktor 2,5 erreicht. Bei jeder Pumpaktion fördert jede Kammer etwas mehr als die Hälfte ihres Füllungsvolumens, ca. 50–100 ml Blut. Die Herzfrequenz (Schläge/Minute) beträgt in Ruhe 50–80/min (bei Neugeborenen über 120–160) und kann unter Belastung auf über 200/min ansteigen. Liegt ein zu langsamer Herzschlag vor (unter 60/min im Ruhezustand), wird von einer Bradykardie gesprochen; schlägt das Herz zu schnell (über 100/min im Ruhezustand), spricht man von Tachykardie. Während eines Herzzyklus füllen sich zunächst die Vorhöfe, während gleichzeitig die Kammern das Blut in die Arterien auswerfen. Wenn sich die Kammermuskulatur entspannt, öffnen sich die Segelklappen und das Blut fließt, gesaugt durch den Druckabfall in den Kammern, aus den Vorhöfen in die Kammern. Unterstützt wird dies durch ein Zusammenziehen der Vorhöfe (Vorhofsystole). Es folgt die Kammersystole. Hierbei zieht sich die Kammermuskulatur zusammen, der Druck steigt an, die Segelklappen schließen sich und das Blut kann nur durch die nun geöffneten Taschenklappen in die Arterien ausströmen. Ein Rückfluss des Blutes aus den Arterien während der Entspannungsphase (Diastole) wird durch den Schluss der Taschenklappen verhindert. Die Strömungsrichtung wird also allein durch die Klappen bestimmt. Audioaufnahme des Herzschlags eines Menschen Neben der Muskulatur, dem weitaus größten Teil der Gewebemasse des Herzens, besitzt das Herz ein sogenanntes Herzskelett. Es handelt sich hier um eine bindegewebige Struktur, die hauptsächlich aus den „Einfassungen“ der Ventile besteht. Das Herzskelett hat drei wichtige Funktionen: Es dient dem Ansatz für die Muskulatur, als Ansatz für die Herzklappen (daher auch als "Ventilebene" bezeichnet) und der elektrischen Trennung von Vorhof- und Kammermuskulatur, um eine gleichzeitige Kontraktion zu verhindern. Das Herzskelett ist ausschlaggebend für die Mechanik bei der Herzaktion: Aufgrund des Rückstoßes bei der Blutaustreibung ist die Herzspitze im Laufe des gesamten Herzzyklus relativ fixiert und bewegt sich kaum. Somit wird folglich bei einer Kontraktion der Kammermuskulatur (Systole) die Ventilebene nach unten in Richtung der Herzspitze gezogen. In der Erschlaffungsphase der Kammermuskulatur (Diastole) bewegt sich die Ventilebene wieder in Richtung Herzbasis. Bei der Senkung der Ventilebene wird somit zum einen das Blut aus der Kammer in den Kreislauf ausgeworfen und es vergrößert sich auch der Vorhof. Es kommt zu einem Unterdruck, wodurch Blut aus den großen Venen in die Vorhöfe strömt. Bei der Erschlaffung der Kammermuskulatur hebt sich nun die Ventilebene, wodurch die Kammer passiv über die Blutsäule der Vorhöfe ausgedehnt wird und sich dadurch zu etwa 70–80 % füllt. Die anschließende Kontraktion der Vorhöfe pumpt nun das restliche Blut in die Kammern und leitet somit einen neuen Herzzyklus ein. Die Vorhofkontraktion ist daher nicht zwingend für das Funktionieren des Herzens nötig, was sich auch daran zeigt, dass (im Gegensatz zum Kammerflimmern), Patienten mit Vorhofflimmern durchaus lebensfähig sind. Regulation. Bei körperlicher Belastung wird die Herzleistung durch die Einwirkung sympathischer Nervenfasern gesteigert, die an den Zellen der Arbeitsmuskulatur und auch des Erregungsleitungssystems den Transmitter Noradrenalin freisetzen. Zusätzlich erreicht Noradrenalin zusammen mit Adrenalin das Herz als Hormon über die Blutbahn. Die Wirkung von Noradrenalin und Adrenalin wird überwiegend über β1-Adrenozeptoren vermittelt. Dieser ist G-Protein-gekoppelt und aktiviert eine Adenylatcyclase (AC), welche die Synthese von cAMP aus ATP katalysiert. Daraufhin phosphoryliert eine cAMP-abhängige Proteinkinase (PKA) Calciumkanäle und erhöht dadurch den langsamen Einstrom von Calcium. Dies führt zur Ausschüttung von weiterem Calcium aus dem Sarkoplasmatischen Retikulum (SR) und damit zur gesteigerten Muskelkontraktion des Herzens während der Systole (positiv inotroper Effekt). Außerdem phosphoryliert die PKA das Phospholamban des SR, wodurch die Calciumaufnahme ins SR erhöht wird und die Relaxationszeit des Herzens in der Diastole verkürzt wird (positiv lusitroper Effekt). Zudem steigt die Herzfrequenz ("positiv chronotrop") und die Überleitungsgeschwindigkeit im AV-Knoten ("positiv dromotrop"). Der Gegenspieler des Sympathikus ist auch am Herzen der Parasympathikus welcher über den Nervus vagus (X. Hirnnerv) wirkt, der mit dem Transmitter Acetylcholin die Herzfrequenz, die Kontraktionskraft des Herzens, die Überleitungsgeschwindigkeit des AV-Knotens und die Erregbarkeit des Herzens herabsetzt ("negativ chronotrop, inotrop, dromotrop und bathmotrop"), wobei die Wirkung des Parasympathikus auf die Ino- und Bathmotropie eher gering ist. Gleichzeitig passt sich die Kontraktionskraft automatisch den Erfordernissen an: Wird der Herzmuskel durch zusätzliches Blutvolumen stärker gedehnt, so verbessert sich dadurch die Funktion der kontraktilen Elemente in den Muskelzellen (Frank-Starling-Mechanismus). Dieser Mechanismus trägt wesentlich dazu bei, dass sich das Schlagvolumen von rechter und linker Kammer mittelfristig nicht unterscheidet: Erhöht sich aus irgendeinem Grund kurzfristig das Schlagvolumen einer Herzhälfte, so führt dies zu einer Vergrößerung des Füllungsvolumens der anderen Herzhälfte bei der folgenden Herzaktion. Dadurch wird die Wand stärker gedehnt und die Kammer kann mit verbesserter Kontraktionskraft ebenfalls ein größeres Blutvolumen auswerfen. Das Herz produziert in seinen Vorhöfen (vor allem im rechten Vorhof) auch dehnungsabhängig ein harntreibendes Hormon, das atriale natriuretische Peptid (ANP), um Einfluss auf das zirkulierende Blutvolumen zu nehmen. Erkrankungen. In der Medizin beschäftigt sich die Kardiologie als Spezialgebiet der Inneren Medizin mit dem Herzen und der konservativen Behandlung der Herzerkrankungen bei Erwachsenen; Operationen am Herzen werden von Herzchirurgen durchgeführt. Herzerkrankungen von Kindern sind, soweit konservativ therapierbar, Gegenstand der Kinderkardiologie, welche sich als Teilgebiet der Pädiatrie in den letzten 40 Jahren entwickelt hat. Die operative Therapie bei Kindern wird, zumindest in Deutschland, von der als Spezialisierung etablierten Kinderherzchirurgie übernommen. Da seit etwa 20 Jahren zunehmend Kinder mit komplexen angeborenen Herzfehlern das Erwachsenenalter erreichen, stellt sich heute die Frage der medizinischen Versorgung für diesen Patientenkreis, der lebenslang auf kardiologische Kontrolluntersuchungen angewiesen ist und bei dem eventuell auch Re-Operationen anstehen. Erst vereinzelt haben sich bisher Erwachsenenkardiologen intensiv auf dem Gebiet der angeborenen Herzfehler fortgebildet. Kinderkardiologen sind zwar sehr kompetent im Bereich der verschiedenen Krankheitsbilder, jedoch als Pädiater nicht im Bereich der Erwachsenkardiologie ausgebildet. Deshalb werden heute zunehmend interdisziplinäre Sprechstunden in verschiedenen Herzzentren angeboten. Myokardinfarkt. a>) der linken Kranzarterie (LCA), schematische Darstellung Der Myokardinfarkt, auch Herzinfarkt, umgangssprachlich Herzschlag, Herzanfall oder Herzattacke'", ist ein akutes und lebensbedrohliches Ereignis infolge einer Erkrankung des Herzens. Eine in der Humanmedizin gebräuchliche Abkürzung ist HI oder AMI ("acute myocardial infarction"). Es handelt sich um eine anhaltende Durchblutungsstörung ("Ischämie") von Teilen des Herzmuskels ("Myokard") und wird in den meisten Fällen durch Blutgerinnsel in einer arteriosklerotisch veränderten Engstelle eines Herzkranzgefäßes verursacht. Leitsymptom des Herzinfarktes ist ein plötzlich auftretender, anhaltender und meist starker Schmerz im Brustbereich, der vorwiegend linksseitig in die Schultern, Arme, Unterkiefer, Rücken und Oberbauch ausstrahlen kann. Er wird oft von Schweißausbrüchen/Kaltschweißigkeit, Übelkeit und eventuell Erbrechen begleitet. Bei etwa 25 % aller Herzinfarkte treten nur geringe oder keine Beschwerden auf (sog. stummer Infarkt). In der Akutphase eines Herzinfarktes kommen häufig gefährliche Herzrhythmusstörungen vor. Auch kleinere Infarkte führen nicht selten über Kammerflimmern zum plötzlichen Herztod, etwa 30 % aller Todesfälle beim Herzinfarkt ereignen sich vor jeder Laienhilfe oder medizinischen Therapie. Der Artikel behandelt den Myokardinfarkt im Wesentlichen beim Menschen; Myokardinfarkte bei Tieren sind gesondert am Schluss beschrieben. Epidemiologie. Der Herzinfarkt ist eine der Haupttodesursachen in den Industrienationen. Die Inzidenz beträgt in Österreich/Deutschland etwa 300 Infarkte jährlich pro 100.000 Einwohner (in Japan Statistischen Bundesamtes starben in Deutschland im Jahr 2011 über 52.000 Menschen infolge eines akuten Herzinfarktes. Somit lag der akute Herzinfarkt 2011 an zweiter Stelle der Todesursachen in Deutschland. Sowohl die absolute Anzahl der Sterbefälle infolge eines Herzinfarktes als auch die relative Häufigkeit sind in Deutschland seit Jahren stetig rückläufig (siehe Tabelle). Interessant ist hierbei, dass Herzinfarkte deutlich häufiger in sozial benachteiligten und armen Stadtteilen auftreten. Zudem sind die Patienten aus diesen Vierteln im Gegensatz zu Patienten aus sozial privilegierteren Bezirken jünger und haben ein höheres Risiko, innerhalb eines Jahres nach dem Herzinfarkt zu versterben. Terminologie und Pathologie. Das Verständnis vom Herzinfarkt hat sich in den letzten 30 Jahren grundlegend gewandelt. Neue Diagnose- und Therapieverfahren haben wichtige Erkenntnisse zur Pathophysiologie besonders der ersten Stunden nach Beginn der Symptome beigetragen und die Definition und Terminologie des Herzinfarktes verändert. Terminologie. Terminologie des akuten Koronarsyndroms, Erläuterungen im Text Bei länger als 20 Minuten anhaltenden infarkttypischen Brustschmerzen wird zunächst von einem akuten Koronarsyndrom gesprochen, was die Möglichkeit eines Herzinfarktes einschließt. Wenn sich dann in einem möglichst rasch anzufertigenden Elektrokardiogramm (EKG) Hebungen der ST-Strecke (vgl. EKG-Nomenklatur) zeigen, so wird der Begriff ST-Hebungsinfarkt (Abk. "STEMI" für "ST-elevation myocardial infarction") verwendet. Bei Patienten ohne eine solche ST-Hebung kann erst nach drei bis vier Stunden mit Hilfe von Laboruntersuchungen zwischen Nicht-ST-Hebungsinfarkt (Abk. "NSTEMI" für "Non-ST-elevation myocardial infarction") und instabiler Angina pectoris unterschieden werden. Während in den für Deutschland geltenden Leitlinien STEMI und NSTEMI als endgültige Diagnosen angesehen werden, unterscheiden die US-amerikanischen Leitlinien zwischen "Q-wave myocardial infarction" (Qw MI) und "Non-Q-wave myocardial infarction" (NQMI) als abschließender Diagnose. Diese Unterscheidung zwischen transmuralen (die gesamte Dicke der Wandschicht des Herzens betreffend) und nicht-transmuralen Myokardinfarkten ist auch in den deutschsprachigen Ländern gebräuchlich und wird anhand von Veränderungen des QRS-Komplexes im EKG getroffen, die in der Regel erst nach zwölf Stunden, oft auch erst nach einem Tag, erkennbar sind. Pathophysiologie. Die Mehrzahl der Herzinfarkte entsteht im Rahmen einer koronaren Herzkrankheit (KHK). Wie alle akuten Koronarsyndrome beim Menschen werden sie fast immer durch eine plötzliche Minderdurchblutung in einem Herzkranzgefäß hervorgerufen, die auf eine arteriosklerotische Gefäßveränderung mit zusätzlichen Blutgerinnseln („Koronarthrombose“) zurückzuführen ist und von einer krampfartigen Gefäßverengung (Koronarspasmus) begleitet sein kann. Das sich daraus entwickelnde Krankheitsbild hängt von der Lokalisation, der Schwere und der Dauer der Durchblutungsstörung des Herzmuskels ab. Bei ST-Hebungsinfarkten zeigt sich im akuten Stadium bei über 90 % ein durch Blutgerinnsel ("Thromben") verschlossenes Herzkranzgefäß. Bei NSTEMI sind nur in etwa 50 % der Fälle Thromben in den Kranzgefäßen nachweisbar. 65–75 % der ST-Hebungsinfarkte entstehen durch die Ruptur eines „vulnerablen“ Plaques, also den Einriss der dünnen fibrösen Kappe einer entzündlich veränderten lipidreichen Gefäßwandveränderung. Etwa 75 % der Infarkte entstehen an nur leicht oder mittelgradig veränderten Abschnitten der Herzkranzgefäße. Deutlich seltener ist ein Herzinfarkt Folge einer anderen Erkrankung. In Frage kommen Verschlüsse der Herzkranzgefäße durch andere Ursachen, wie langanhaltende „Verkrampfungen“ ("Spasmen") bei Prinzmetal-Angina und Embolien bei einer Endokarditis oder einer disseminierten intravasalen Koagulopathie (DIC). Auch Blutungen oder Tumore am Herzen sowie Einrisse der Gefäßinnenwand ("Intima") bei einer Aortendissektion können zum Verschluss eines Kranzgefäßes und damit zum Herzinfarkt führen. Wenn seine Blutzufuhr komplett unterbrochen ist, beginnt der Herzmuskel nach 15–30 Minuten abzusterben. Dieser Vorgang der Infarzierung beginnt innen, in der den Herzkammern zugewandten Schicht, und setzt sich zeitabhängig nach außen, zum Herzbeutel hin, fort. Infarktlokalisation. Die Herzkranzgefäße sind mit roter Schrift gekennzeichnet. Herzinfarkte ereignen sich in unterschiedlichen Bereichen des Herzmuskels, abhängig davon, welches Gefäß betroffen ist und welcher Abschnitt des Herzmuskels von dem jeweiligen Gefäß mit Blut versorgt wird. Da es eine große Variabilität der Herzarterien gibt, kann man keine strengen Regeln für die Infarktlokalisation aufstellen. Häufig führen Verschlüsse der rechten Koronararterie (RCA - Right Coronary Artery) zu sogenannten Hinterwandinfarkten und krankhafte Veränderungen der linken Herzarterie (LCA - Left Coronary Artery) zu Vorderwandinfarkten. Je näher der Verschluss am Abgang der jeweiligen Arterie von der Aorta liegt (man sagt proximal), desto größer ist das Infarktareal. Je weiter entfernt (man sagt distal) der Verschluss oder die Engstelle des Gefäßes liegt, desto kleiner ist das minderversorgte Muskelgebiet. Im Einzelnen unterscheidet man also proximale Verschlüsse der RCA, die zu einem rechtsventrikulären Infarkt oder einem inferioren (zur Herzspitze gelegenen) Hinterwandinfarkt führen, und Prozesse in einem Ast der RCA, dem Ramus posterolateralis dexter, die zu einem Hinterseitenwandinfarkt führen. Die Einteilung ist komplizierter, wenn die linke Herzarterie (LCA) betroffen ist, da diese mehr Äste besitzt. Der sogenannte Hauptstamm der LCA ist sehr kurz und teilt sich gleich in den Ramus circumflexus (RCX) und den Ramus interventricularis anterior (RIVA). Verschlüsse der RCX führen oft zu einem posterioren (zum Rücken) gelegenen Hinterwandinfarkt. Der posteriore Hinterwandinfarkt heißt in der Nomenklatur der Pathologen Seitenwand- oder Kanteninfarkt. Proximale Verschlüsse der RIVA führen zu einem großen Vorderwandinfarkt, distale RIVA-Verschlüsse führen zu einem anteroseptalen Infarkt; dabei ist die Herzscheidewand betroffen. Ein Verschluss des Diagonalastes der RIVA führt zu einem Lateralinfarkt. Die verschiedenen Infarkttypen verursachen charakteristische EKG-Veränderungen. Sieht man zum Beispiel direkte Infarktzeichen (ST-Hebungen) in allen Brustwandableitungen (V1-V6), handelt es sich (bezogen auf das Gefäßversorgungsgebiet) um einen großen Vorderwandinfarkt. Dann findet sich meistens ein proximaler Verschluss der RIVA. Die entsprechende Zuordnung aufgrund des EKGs ist aber vorläufig und kann nur durch eine Coronarangiographie bewiesen werden. Da die Muskelmasse und damit auch das Versorgungsgebiet des linken Ventrikels größer ist als das des rechten und zu dessen Durchblutung folglich auch mehr Gefäße notwendig sind, die erkranken können, ist bei den Herzinfarkten auch statistisch überwiegend die linke Koronararterie betroffen. Risikofaktoren. Hauptrisikofaktoren für eine Erkrankung der Herzkranzgefäße sind Einige der o. g. Risikofaktoren verstärken sich bei Übergewicht, Fehlernährung und Bewegungsmangel. Für die Berechnung des individuellen Risikos gibt es Software wie den Arriba-Rechner. Trotz tendenzieller Gewichtszunahme bei Rauchstopp verringert dieser das Risiko, an einer Herz-Kreislauf-Erkrankung zu erkranken. Stress und Wut. Auslösende Faktoren für einen Infarkt können plötzliche Belastungen und Stresssituationen mit starken Blutdruckschwankungen sein; 40 % aller Infarkte ereignen sich in den frühen Morgenstunden (zwischen 6 und 10 Uhr). Infarkte treten montags häufiger als an anderen Wochentagen auf, auch bei Rentnern nach dem 60. Lebensjahr. In Japan bezeichnet Karōshi den „Tod durch Überarbeiten“, der meist als Herzinfarkt oder Schlaganfall auftritt. Der Anteil psychosozialer Faktoren wie Depression, Angst, Persönlichkeit, Charakter, sozialer Isolation und chronischem Stress bei der Entstehung einer KHK wird seit Jahrzehnten ohne klares Ergebnis untersucht. Gesundheitsschädliches Verhalten, Stress, Rauchen, zu reichliche Ernährung etc. haben unbezweifelbar Einfluss. Diskutiert wird weiter, inwieweit beispielsweise eine Aktivierung von Blutplättchen oder des neuroendokrinen Systems mit Ausschüttung von Stresshormonen mit den Folgen einer Verengung der Blutgefäße, Verschlechterung der Fließeigenschaften des Blutes sowie Anstieg von Herzfrequenz und Blutdruck zusätzliche auslösende Qualitäten aufweist. Eine Studie aus dem Jahr 2006 zur Zeit der Fußball-Weltmeisterschaft hat gezeigt, dass die mit Fußball verbundenen Emotionen das Risiko für einen Infarkt erheblich steigern und dass dies besonders für Menschen zutrifft, die eine bekannte koronare Herzkrankheit haben. Diese Erkenntnis wird jedoch in der wissenschaftlichen Literatur kontrovers diskutiert: So konnte eine zweite Studie im gleichen Zeitintervall in der gleichen Region (Bayern) keinen Einfluss der Fußballweltmeisterschaft 2006 auf das Risiko eines Myokardinfarkts nachweisen. Auch andere emotionale Faktoren leisten der Krankheit Vorschub. So konnte nachgewiesen werden, dass gewohnheitsmäßige, schlecht gehandhabte Wut ein machtvoller Prädiktor für Herzinfarkte ist. Infarktpatienten, die sich einem "Anger Management Training" unterzogen, erlitten unter Studienbedingungen weniger häufig einen zweiten Infarkt als Personen der Vergleichsgruppe. Alkohol. Bei übermäßigem Alkoholkonsum steigt das Risiko von Herzinfarkten und anderen schweren Erkrankungen. Es gibt jedoch Hinweise darauf, dass der regelmäßige Konsum von "geringen" und mehr noch „mäßigen“ Mengen Alkohol das Herzinfarktrisiko senkt. Weitere Risikofaktoren. Ein erhöhter Blutspiegel von Homocystein ("Hyperhomocysteinämie") ist ebenfalls ein unabhängiger Risikofaktor, die verfügbaren Therapieansätze zur Senkung des Homocysteinspiegels führen allerdings nicht zu einer Senkung des kardiovaskulären Risikos. Auch ein niedriger Blutspiegel des Vitamin D3 (25-Hydroxy-Cholecalciferol) korreliert möglicherweise mit einem erhöhten Infarktrisiko. In einer prospektiven Fall-Kontroll-Studie konnte gezeigt werden, dass Männer mit niedrigeren Vitamin-D3-Spiegeln ein doppelt so hohes Infarktrisiko hatten wie jene mit höheren. Männer mit mittleren Spiegeln an Vitamin D3 (15,0–22,5 ng/ml) waren im Vergleich zu jenen mit höheren offenbar noch vermehrt infarktgefährdet. Ob dies in einer mangelhaften Zufuhr des Vitamin D oder einem verminderten Umbau des 7-Dehydrocholesterol bzw. 25-Hydroxy-Cholecalciferol in der Leber und Haut begründet ist, der auf einer auch für den Herzinfarkt ursächlichen Disposition beruhen könnte, wurde nicht untersucht. Schlechte Compliance ist ein Risikofaktor für ein Fortschreiten der Erkrankung. Eine Analyse der Einnahme fettsenkender Medikamente (Statine), Betablocker und Calciumantagonisten nach Herzinfarkt zeigte, dass eine schlechte Compliance eine Erhöhung der Mortalität innerhalb von 2,4 Jahren für Statine um 25 % und für Betablocker um 13 % hatte. Bei den Kalziumantagonisten ergab sich keine Beziehung zwischen Mortalität und Zusammenarbeit. Träger der Blutgruppe AB sind am stärksten herzinfarktgefährdet, diejenigen der Gruppe 0 dagegen am wenigsten. Ein weiterer Risikofaktor ist das Vorhandensein einer Migräne mit Aura. Dieser Risikofaktor ist laut einer Studie nach der arteriellen Hypertonie der zweitwichtigste Risikofaktor für Herzinfarkt und Schlaganfall. Epidemiologische Studien zur Wirtschaftskrise in Griechenland und zum Tropensturm Katrina in New Orleans zeigen auch, dass es nach Krisen vermehrt zu Herzinfarkten kommt. Dies könnte entweder an fehlenden Medikamenten oder posttraumatischem Stress liegen, dem die Menschen ausgesetzt sind. Auch der Wohnort könnte eine gewisse Rolle spielen. So zeigt eine neue europäische Kohortenstudie, dass eine Feinstaubbelastung bereits unterhalb der EU-Grenzwerte zu einem höheren Risiko für ein koronares Ereignis führt.rot: häufig und starkrosa: selten oder ausstrahlend Die meisten Patienten klagen über Brustschmerzen unterschiedlicher Stärke und Qualität. Typisch ist ein starkes Druckgefühl hinter dem Brustbein ("retrosternal") oder Engegefühl im ganzen Brustkorb (als ob „jemand auf einem sitzen würde“). Auch stechende oder reißende Schmerzen werden beschrieben. Die Schmerzen können in die Arme (häufiger links), den Hals, die Schulter, den Oberbauch und den Rücken ausstrahlen. Oft wird von einem „Vernichtungsschmerz“ gesprochen, der mit Atemnot, Übelkeit und Angstgefühl („Todesangst“) einhergeht. Im Gegensatz zum Angina-pectoris-Anfall bessern sich diese Beschwerden oft nicht durch Anwendung von Nitroglycerin. Frauen sowie ältere Patienten zeigen im Vergleich zu Männern bzw. jüngeren Patienten häufiger atypische, diffusere Symptome; häufig sind es Atemnot, Schwäche, Magenverstimmungen und körperliche Erschöpfungszustände. Erschöpfung, Schlafstörungen und Atemnot wurden als häufig auftretende Symptome genannt, welche bereits bis zu einem Monat vor dem eigentlichen Infarktereignis auftreten können. Schmerzen im Brustkorb können bei Frauen eine geringere Voraussagekraft haben als bei Männern. Manche Herzinfarkte verursachen keine, nur geringe oder untypische Symptome und werden manchmal erst zu einem späteren Zeitpunkt diagnostiziert, z. B. anlässlich einer EKG-Untersuchung. So wurde ein Teil der in den 30 Jahren der Framingham-Studie diagnostizierten Infarkte nur auf Grund der routinemäßig angefertigten EKG festgestellt, fast die Hälfte von ihnen war ohne Symptome verlaufen („stille“ oder „stumme“ Infarkte). Der Anteil unbemerkter Infarkte war bei Frauen (35 %) höher als bei Männern (28 %). Von den mehr als 430.000 Patienten, die bis 1998 in US-amerikanischen Krankenhäusern in das Register "National Registry of Myocardial Infarction 2" aufgenommen wurden, hatten 33 % bei Krankenhausaufnahme keine Brustschmerzen. Bei den Patienten ohne Brustschmerzen fanden sich mehr Frauen, mehr Ältere und mehr Diabetiker. Auch in der EKG-Untersuchung werden zahlreiche stumme Infarkte nicht erkannt, die sich aber im SPECT nachweisen lassen, insbesondere bei Diabetikern. Klinische Zeichen. Die Befunde der körperlichen Untersuchung sind variabel, sie reichen vom Normalbefund eines unbeeinträchtigten Patienten bis hin zum bewusstlosen Patienten mit einem Herz-Kreislauf-Stillstand. Eindeutige klinische Zeichen des Herzinfarktes gibt es zwar nicht, typisch aber ist der Gesamteindruck eines schmerzgeplagten Patienten mit Blässe, ängstlich wirkendem Gesichtsausdruck, Erbrechen und Schweißneigung. Elektrokardiogramm. EKG bei akutem Hinterwandinfarkt. Die Pfeile weisen auf deutliche ST-Strecken-Hebungen in den Ableitungen II, III und aVF. Das wichtigste Untersuchungsverfahren bei Infarktverdacht ist das EKG. Im Akutstadium treten gelegentlich Überhöhungen der T-Wellen (vgl. EKG-Nomenklatur) und häufig Veränderungen der ST-Strecke auf, wobei ST-Strecken-Hebungen auf den kompletten Verschluss eines Herzkranzgefäßes hinweisen. Im weiteren Verlauf kommt es nach etwa einem Tag oft zu einer „Negativierung“ (Ausschlag unterhalb der sogenannten Nulllinie) von T-Wellen. Veränderungen des QRS-Komplexes weisen in dieser Phase auf eine "transmurale Infarzierung" hin, einen Gewebsuntergang, der alle Wandschichten des Herzmuskels betrifft. Diese QRS-Veränderungen bleiben in der Regel lebenslang sichtbar und werden oft als „Infarktnarbe“ bezeichnet. Auch für die Erkennung und Beurteilung von Herzrhythmusstörungen als häufige Komplikationen eines Infarktes ist das EKG von entscheidender Bedeutung. Um Extrasystolen, Kammerflimmern und AV-Blockierungen in der Akutphase so rasch wie möglich erkennen und ggf. behandeln zu können, wird in der Akutphase eine kontinuierliche EKG-Überwachung (EKG-Monitoring) durchgeführt. Im Anschluss an die Akutphase dient ein Belastungs-EKG der Beurteilung der Belastbarkeit und Erkennung fortbestehender Durchblutungsstörungen des Herzmuskels, ein Langzeit-EKG der Aufdeckung anderweitig unbemerkter Herzrhythmusstörungen. Laboruntersuchungen. Typischer Verlauf der Blutkonzentration von kardialem Troponin und CK-MB nach einem ST-Hebungsinfarkt Als sogenannte Biomarker werden Enzyme und andere Eiweiße bezeichnet, die von absterbenden Herzmuskelzellen freigesetzt werden. Sie sind im Blut nach einem Herzinfarkt in erhöhter Konzentration messbar. Die klassischen und bis Anfang der 1990er Jahre einzigen Biomarker sind die Creatin-Kinase (CK), deren Isoenzym CK-MB, die Aspartat-Aminotransferase (AST, meist noch als GOT abgekürzt) und die Lactatdehydrogenase (LDH). Hinzugekommen sind seither das Myoglobin und das Troponin (Troponin T und Troponin I, oft abgekürzt als „Trop“). Der neueste Biomarker ist die Glycogenphosphorylase BB (GPBB). Dieser Biomarker ist herzspezifisch und ein Frühmarker, findet derzeit (2013) klinisch aber keine Anwendung. Die Messung der Blutkonzentrationen dieser Biomarker wird meist in regelmäßigen Abständen wiederholt, da Anstieg, höchster Wert und Abfall der Konzentration Rückschlüsse auf den Zeitpunkt des Infarktbeginns, die Größe des Herzinfarktes und den Erfolg der Therapie erlauben. Bildgebende Verfahren. Die Ultraschalluntersuchung des Herzens (Echokardiografie) zeigt beim Herzinfarkt eine Wandbewegungsstörung im betroffenen Herzmuskelbereich. Da das Ausmaß dieser Wandbewegungsstörung für die Prognose des Patienten sehr wichtig ist, wird die Untersuchung bei fast allen Infarktpatienten durchgeführt. In der Akutphase liefert die Echokardiografie bei diagnostischen Unsicherheiten und Komplikationen wichtige Zusatzinformationen, weil sie hilft, die Pumpfunktion und evtl. Einrisse (Ruptur) des Herzmuskels, Schlussunfähigkeiten der Mitralklappe (Mitralklappeninsuffizienz) und Flüssigkeitsansammlungen im Herzbeutel (Perikarderguss) zuverlässig zu beurteilen. Die Gefäßdarstellung (Angiografie) der Herzkranzgefäße im Rahmen einer Herzkatheteruntersuchung erlaubt den direkten Nachweis von Verschlüssen und Verengungen. Sie wird entweder so früh wie möglich als Notfall-Untersuchung zur Vorbereitung einer PTCA (vgl. Reperfusionstherapie) oder im weiteren Verlauf bei Hinweisen auf fortbestehende Durchblutungsstörungen des Herzmuskels durchgeführt. Nachteilig kann die hohe Strahlenbelastung von bis zu 14,52 mSv sein. Das ist so viel wie bei 725 Röntgen-Thorax-Bildern. Jedes Jahr werden weltweit mehrere Milliarden Bilder mittels der Strahlentechnik angefertigt - ungefähr ein Drittel dieser Aufnahmen bei Patienten mit akutem Myokardinfarkt. Zwischen den Jahren 1980 und 2006 ist die jährliche Dosis um schätzungsweise 700 % angestiegen. Gängige und neuere Diagnoseverfahren. Die Blutkonzentration der Biomarker Troponin und CK-MB steigt allerdings erst nach drei bis sechs Stunden an, so dass eine verlässliche Diagnose bisher erst nach vier bis sechs Stunden möglich war. Neuesten Studien zufolge kann nun eine schnellere und spezifischere Diagnose mittels des neu entdeckten Herzmarkers Glycogenphosphorylase BB (GPBB) zeitnah erfolgen. Bereits ab der ersten Stunde kann durch GPBB ein Herzinfarkt diagnostiziert werden, so dass die Gefahr der irreversiblen Schädigung des Herzgewebes eingedämmt werden kann. In dieser Akutphase ist das wichtigste Untersuchungsverfahren ein so schnell wie möglich angefertigtes EKG. Beim Nachweis von ST-Strecken-Hebungen wird mit einer diagnostischen Sicherheit von über 95 % von einem Infarkt ausgegangen und die entsprechende Behandlung möglichst unverzüglich eingeleitet. Zeigt das EKG hingegen ST-Strecken-Senkungen oder keine Veränderungen, so kann ein Infarkt anhand der Biomarker erst sechs Stunden nach Beginn der Symptome mit Sicherheit ausgeschlossen oder bestätigt werden. Bei diagnostischer Unsicherheit in dieser Phase kann der Nachweis einer Wandbewegungsstörung in der Echokardiografie helfen, die Wahrscheinlichkeit und das Ausmaß eines Infarktes besser einzuschätzen. Differentialdiagnose. Wegen der möglicherweise weitreichenden Konsequenzen wurde die Verdachtsdiagnose Herzinfarkt früher oft gestellt, in der Akutsituation mussten dann die Differentialdiagnosen Pneumothorax, Lungenembolie, Aortendissektion, Lungenödem anderer Ursache, Herpes Zoster, Stress-Kardiomyopathie, Roemheld-Syndrom, Herzneurose oder auch Gallenkolik berücksichtigt werden. Nur bei etwa 32 % der Patienten mit Infarktverdacht fand sich tatsächlich ein Herzinfarkt. Heute wird der Begriff Infarkt bis zu seinem definitiven Nachweis meist vermieden und stattdessen vom akuten Koronarsyndrom gesprochen, um der häufigen diagnostischen Unsicherheit in den ersten Stunden Ausdruck zu verleihen. Auch die Infarktdiagnostik ist mit möglichen Fehlern behaftet: Bei einigen Patienten (in einer Untersuchung 0,8 %), vor allem bei älteren Patienten und solchen mit Diabetes mellitus, wird auch im Krankenhaus der Infarkt nicht richtig erkannt. Eine außergewöhnliche Verwechslung der Symptome wurden bei einem (eher seltenen) Fall des Verzehrs von Honig von der türkischen Schwarzmeerküste beobachtet (siehe dazu Giftstoffe in Honig und giftige Honigsorten). Erste Hilfe. Die ersten Minuten und Stunden eines Herzinfarktes sind für den Patienten von entscheidender Bedeutung. Die Gefahr des Herzstillstandes durch Kammerflimmern ist in der ersten Stunde am größten. Nur durch eine rasch einsetzende Herz-Lungen-Wiederbelebung durch Ersthelfer und Rettungsdienst kann in diesem Fall der Tod oder schwere Schäden durch Sauerstoffunterversorgung des Gehirns verhindert werden. Durch eine Defibrillation durch medizinisches Fachpersonal oder mittels eines öffentlich zugänglichen automatisierten externen Defibrillators, der durch Laien bedient werden kann, besteht die Möglichkeit, dass das Kammerflimmern gestoppt wird und sich wieder ein stabiler Eigenrhythmus einstellt. Medizinische Erstversorgung. Das Rettungsfachpersonal des Rettungsdienstes konzentriert sich zunächst auf eine möglichst rasche Erkennung von Akutgefährdung und Komplikationen. Dazu gehört eine zügige klinische Untersuchung mit Blutdruckmessung und Auskultation von Herz und Lunge. Nur ein schnell angefertigtes Zwölf-Kanal-EKG lässt den ST-Hebungsinfarkt erkennen und erlaubt die Einleitung der dann dringlichen Lysetherapie oder Katheterbehandlung. Um Herzrhythmusstörungen sofort erkennen zu können, wird eine kontinuierliche EKG-Überwachung (Rhythmusmonitoring) begonnen und zur Medikamentengabe eine periphere Verweilkanüle angelegt. Die medikamentöse Therapie zielt in der Akutsituation auf eine möglichst optimale Sauerstoffversorgung des Herzens, die Schmerzbekämpfung und eine Vermeidung weiterer Blutgerinnselbildung. Verabreicht werden in der Regel Nitroglycerin-Spray oder -Kapseln sublingual und Morphinpräparate, Acetylsalicylsäure und Clopidogrel sowie Heparin intravenös. Sauerstoff (O2) wird nach den aktuellen Leitlinien der ERC nur noch bei niedriger Sauerstoffsättigung des Bluts verabreicht. Die generelle Gabe von Sauerstoff wird wegen seiner möglicherweise schädlichen Auswirkungen allerdings nicht mehr empfohlen. In speziellen Situationen und bei Komplikationen können weitere Medikamente erforderlich sein, zur Beruhigung (Sedierung) beispielsweise Benzodiazepine wie Diazepam oder Midazolam, bei vagaler Reaktion Atropin, bei Übelkeit oder Erbrechen Antiemetika (beispielsweise Metoclopramid), bei Tachykardie trotz Schmerzfreiheit und fehlenden Zeichen der Linksherzinsuffizienz Betablocker (beispielsweise Metoprolol) und bei kardiogenem Schock die Gabe von Katecholaminen. Reperfusionstherapie. Vordringliches Therapieziel beim ST-Hebungsinfarkt ist die möglichst rasche Eröffnung des betroffenen und in dieser Situation meist verschlossenen Herzkranzgefäßes. Diese Wiederherstellung der Durchblutung im Infarktgebiet wird Reperfusionstherapie genannt. Je früher diese erfolgt, umso besser kann eine Infarktausdehnung verhindert werden („time is muscle“). Gelingt es, die Reperfusionstherapie bereits in der ersten Stunde nach Infarkteintritt anzuwenden, so können viele dieser Infarkte sogar verhindert werden. Bei gleichzeitiger Verfügbarkeit ist die Primär-PCI in einem erfahrenen Zentrum die bevorzugte Strategie. Da aber weniger als 20 % der deutschen Krankenhäuser über die Möglichkeit zur Primär-PCI verfügen, muss die Entscheidung zur optimalen Therapie im Einzelfall getroffen werden. Viele Notärzte sind mit Zwölf-Kanal-EKG-Geräten und Medikamenten für eine Lysetherapie ausgerüstet, so dass sie heute sofort nach Diagnosestellung in Abhängigkeit von der Infarktdauer, dem Patientenzustand, der Verfügbarkeit eines erfahrenen Herzkatheterteams und der Transportentfernung die bestmögliche Reperfusionstherapie auswählen können. Bei Nicht-ST-Hebungsinfarkten (NSTEMI) ist ein Nutzen der unverzüglichen Reperfusionstherapie nicht belegt, eine Lysetherapie ist kontraindiziert. Ob und zu welchem Zeitpunkt eine Herzkatheteruntersuchung erforderlich ist, ist trotz vieler Studien zu diesem Thema strittig. Die vorherrschende und auch in den Leitlinien der kardiologischen Fachgesellschaften verankerte Empfehlung sieht eine „frühe Intervention“ innerhalb von 48 Stunden vor. Erneute Diskussionen sind durch eine weitere im Herbst 2005 veröffentlichte Studie entstanden, die bei 1200 Patienten mit NSTEMI kein höheres Risiko fand, wenn die Intervention nur bei Patienten mit anhaltenden Beschwerden erfolgte. Weitere Behandlung. Im Krankenhaus werden Infarktpatienten wegen möglicher Herzrhythmusstörungen in der Akutphase auf einer Intensiv- oder Überwachungsstation behandelt, wo eine kontinuierliche EKG-Überwachung ("Monitoring") möglich ist. Bei einem unkomplizierten Verlauf können sie oft bereits am Folgetag Schritt für Schritt mobilisiert und nach fünf bis acht Tagen entlassen werden. Patienten mit großen Infarkten, die zu einer Pumpschwäche (Herzinsuffizienz) des Herzmuskels geführt haben, benötigen manchmal bis zu drei Wochen, um die gewohnten Alltagsaktivitäten wiederaufnehmen zu können. Nach einem Herzinfarkt ist bei den meisten Patienten eine lebenslange medikamentöse Therapie sinnvoll, die Komplikationen wie Herzrhythmusstörungen und Herzmuskelschwäche sowie erneuten Herzinfarkten vorbeugt. Dazu zählt die Therapie mit Betablockern, ASS, Statinen, ACE-Hemmern und bei einigen Patienten Clopidogrel oder Prasugrel. In der Realität zeigt sich allerdings, dass die medikamentöse Therapie oft nicht leitliniengerecht umgesetzt wird und eine deutliche Unterversorgung der betroffenen Patienten besteht. Bei stark eingeschränkter Pumpfunktion des Herzens wird die prophylaktische Anlage eines implantierbaren Defibrillators zum Schutz vor plötzlichem Herztod empfohlen. Nach dem Auftreten von großen Vorderwandinfarkten kann es (Thrombenbildung in der linken Schlagkammer kommen, die die Gefahr eines Hirninfarktes nach sich ziehen können. Sollten sich echokardiografisch Thromben nachweisen lassen, wird meist eine mehrmonatige Antikoagulantientherapie mit Phenprocoumon durchgeführt. Besondere Aufmerksamkeit erfordern die Risikofaktoren, die die Lebenserwartung der Infarktpatienten erheblich beeinträchtigen können. Vorteilhaft sind strikter Nikotinverzicht und eine optimale Einstellung von Blutdruck, Blutzucker und Blutfettwerten. Neben der Normalisierung des Lebenswandels, dem Stressabbau und der Gewichtsnormalisierung spielen eine gesunde Ernährung und regelmäßiges körperliches Ausdauertraining nach ärztlicher Empfehlung dabei eine wesentliche Rolle. Im Anschluss an die Krankenhausbehandlung wird in Deutschland oft eine ambulante oder stationäre Anschlussheilbehandlung empfohlen. Diese meist drei Wochen dauernde Maßnahme soll durch Krankengymnastik (Physiotherapie), dosiertes körperliches Training, Schulungsmaßnahmen und psychosoziale Betreuung eine möglichst gute und vollständige Wiedereingliederung in den Alltag ermöglichen. Zur dauerhaften Lebensstilveränderung kann der Besuch einer Herzschule sinnvoll sein. Weitere Therapie der koronaren Herzerkrankung mit Koronararterien-Bypass oder PTCA. Um weiteren Infarkten vorzubeugen, ist eine definitive Versorgung der (oftmals mehreren) kritischen Stenosen mittels Stentimplantation oder Koronararterien-Bypass notwendig. Die aktuellen Leitlinien der Europäischen kardiologischen Gesellschaft zur Revaskularisierung geben für Patienten mit hohem Operationsrisiko und einer oder zwei betroffenen Koronararterien ohne Beteiligung des linkskoronaren Hauptstamms (oder einer äquivalenten proximalen Stenose des Ramus interventrikularis anterior) die Empfehlung, bevorzugt mittels PTCA zu behandeln. Für alle anderen Patienten gilt eine höhergradige Empfehlung zur operativen Versorgung mit Koronararterien-Bypässen. Es wird ein insbesondere hinsichtlich der Begleiterkrankungen (wie hämodynamisch relevantes Aneurysma, thorakale Re-Operation) ein auf den individuellen Patienten zugeschnittenes Prozedere propagiert. Die Therapieplanung und Beratung des Patienten sollte hierbei durch ein "Heart Team" erfolgen, also eine interdisziplinäre Zusammenkunft von Kardiologen und Herzchirurgen. Dies ist in der täglichen Praxis in Deutschland erfahrungsgemäß jedoch eher die Ausnahme. Experimentelle Ansätze. Seit den 1990er Jahren werden Versuche unternommen, die Pumpfunktion des Herzmuskels nach einem Herzinfarkt durch Stammzellen positiv zu beeinflussen. Dabei werden verschiedene Techniken eingesetzt, unter anderem die Injektion von Stammzellen, die aus Blut oder Knochenmark gewonnen werden, in das betroffene Herzkranzgefäß ("intrakoronar", mittels Herzkatheter). Auch die subkutane Injektion von "granulocyte-colony stimulating factor" (G-CSF), der die Stammzellproduktion fördert, wird untersucht. Mehrere in den Jahren 2004 bis 2006 veröffentlichte Studien weisen darauf hin, dass die intrakoronare Anwendung von Knochenmark-Stammzellen die Pumpfunktion tatsächlich verbessern kann, die alleinige Gabe von G-CSF hingegen keinen Vorteil bringt. Eine Studie aus dem Jahr 2012 hat jedoch keinen positiven Effekt festgestellt. Ein weiterer, in jüngerer Zeit in präklinischen Studien verfolgter Therapieansatz ist der Einsatz von Wachstumsfaktoren wie "Fibroblast-like Growth Factor" (FGF-1), Insuline-like Growth Factors (IGFs) und "Vascular Endothelial Growth Factor" (VEGF), die die Gefäßneubildung (Angiogenese) anregen. Krankheitsverlauf und Prognose. Die ersten beiden Stunden nach Eintritt eines Herzinfarktes sind zumindest bei einem ST-Hebungsinfarkt (STEMI) für den weiteren Verlauf und die Überlebenschance des Patienten von entscheidender Bedeutung, weil Die Akutsterblichkeit jener Patienten, die im Krankenhaus aufgenommen werden, beträgt heute nach verschiedenen Untersuchungen zwischen weniger als zehn und knapp zwölf Prozent. Weiterhin stirbt aber fast ein Drittel aller Patienten vor Aufnahme in eine Klinik, so dass die Einjahressterblichkeit aller Infarktpatienten in den letzten 30 Jahren nahezu unverändert bei etwa 50 % verblieben ist. Die Sterblichkeit im Zusammenhang mit einem Herzinfarkt wird vom Alter des Patienten stark beeinflusst. Aus dem Berliner Herzinfarktregister wurde für die Jahre 1999 bis 2003 bei über 75-Jährigen eine Krankenhaussterblichkeit von 23,9 %, bei jüngeren Patienten von 7,3 % ermittelt. Insgesamt ist die Rate an Sterbefällen nach Herzinfarkten jedoch stark abgesunken, wie eine epidemiologische Studie mit Daten der WHO zeigte. So haben sich die Herzinfarkt-Sterbefälle seit 1980 in Europa halbiert. In Deutschland lag sie 2009 bei 15–17 %, in Österreich bei 19–20 %, in Frankreich bei 6–8 % In den europäischen Ländern betreffen etwa ein Drittel (24 bis 42 %) aller Infarkte Menschen im Alter von über 74 Jahren. Dieser Anteil wird aufgrund der demografischen Entwicklung mit der Zeit zunehmen. Schätzungen zufolge soll der Anteil über 75-Jähriger im Jahr 2050 bereits zwei Drittel betragen. Ältere Infarktpatienten leiden häufiger an bedeutsamen Begleiterkrankungen wie Herzversagen, Niereninsuffizienz und Diabetes mellitus (Zuckerkrankheit). Bei ihnen werden öfter Zeichen eines schweren Infarktes wie Lungenstauung und Linksschenkelblock festgestellt. Die Zeit zwischen Symptombeginn und Aufnahme im Krankenhaus ist bei ihnen länger und gemessen am Einsatz der Reperfusionstherapie sowie der Anwendung von Betablockern und Statinen kommt eine leitliniengerechte Therapie seltener zur Anwendung. Zusätzlich erhöhen kardiale Erkrankungen, wie der Herzinfarkt, auch das Risiko für kognitive Probleme. Vor allem Frauen mit Herzerkrankungen leiden im Alter öfter an einer leichten nicht-amnestischen kognitiven Beeinträchtigung (Wortfindungsstörungen, Aufmerksamkeitsprobleme, Desorientierung usw.). Von den Anfängen bis 1950. Seit dem Beginn des 19. Jahrhunderts ist bekannt, dass eine Thrombose im Herzkranzgefäß zum Tode führen kann. Tierexperimente mit Unterbindung eines Kranzgefäßes und Sektionsbefunde legten nahe, dass die Koronarthrombose ein fatales Ereignis darstellte. Im Mai 1876 diagnostizierte Adam Hammer in Wien als Erster den Herzinfarkt an einem lebenden Menschen. 1901 wies der Deutsche Ludolf von Krehl nach, dass sie nicht immer tödlich ausging, die erste ausführliche Beschreibung nicht-tödlicher Herzinfarkte stammt von den Russen "V. P. Obraztsov" und "N. D. Strazhesko" aus dem Jahr 1910. 1912 bezog sich der US-Amerikaner "James B. Herrick" auf diese Veröffentlichung und führte körperliche Ruhe als Therapieprinzip für Infarktpatienten ein. Sie blieb bis in die frühen 1950er Jahre einzige Behandlungsmöglichkeit und wurde konsequent betrieben: Die Patienten durften sich zwei Wochen nicht bewegen und sollten deshalb auch gefüttert werden. Herrick war es auch, der die 1903 vom Holländer Einthoven entwickelte Elektrokardiografie zur Diagnostik des Herzinfarktes einführte. 1923 veröffentlichte "Wearn" die Beschreibung des Krankheitsverlaufes von 19 Patienten mit Herzinfarkt, denen absolute Bettruhe und eine Beschränkung der Flüssigkeitszufuhr verordnet wurden. Sie erhielten Digitalispräparate gegen eine Lungenstauung sowie Koffein und Campher zur Vorbeugung und Behandlung von erniedrigtem Blutdruck, Synkopen und Herzrhythmusstörungen. 1928 beschrieben Parkinson und Bedford ihre Erfahrungen mit der Schmerzbehandlung durch Morphin bei 100 Infarktpatienten, Nitrate hielten sie wegen der blutdrucksenkenden Wirkung für kontraindiziert. 1929 veröffentlichte Samuel A. Levine das erste ausschließlich der Infarktbehandlung gewidmete Fachbuch, in dem unter anderem auf die Bedeutung der Herzrhythmusstörungen eingegangen und Chinidin gegen ventrikuläre Tachykardien und Adrenalin gegen Blockierungen empfohlen wurde. In den 1950er Jahren wurde der Herzinfarkt bereits als wichtige Todesursache in den Industrieländern angesehen. Wegen der hohen Gefährdung durch Thrombosen und Lungenembolien auf Grund der langen Bettruhe gewann das von Bernard Lown propagierte Konzept einer früheren Mobilisierung ("arm chair treatment") an Bedeutung. Großzügige Flüssigkeitszufuhr und regelmäßige Sauerstoffgabe wurden empfohlen. Die „Thrombolyse-Ära“. Bereits 1948 wurde empfohlen, nach einem überstandenen Herzinfarkt vorbeugend Cumarine als Antikoagulanzien einzunehmen. Hauptsächlich Fletcher und Verstraete wiesen in den 1950er und 1960er Jahren experimentell nach, dass frische Koronarthrombosen medikamentös aufgelöst werden können. 1959 brachten die deutschen Behring-Werke Streptokinase auf den Markt, das unter anderem die Lysetherapie beim akuten Herzinfarkt ermöglichte. In den 1970er Jahren waren es dann zwei Arbeitsgruppen um Jewgeni Tschasow und Klaus Peter Rentrop, die den Nachweis einer erfolgreichen Lysetherapie durch intrakoronare Infusion von Streptokinase führten. Ihre Ergebnisse wurden unterstützt durch Befunde von De Wood, der bei 90 % der Patienten mit ST-Strecken-Hebung okkludierende (das Gefäßlumen verschließende) Koronarthromben nachwies. Anfang der 1980er Jahre wurde deutlich, dass eine intravenöse Infusion der intrakoronaren gleichwertig war, was die Verbreitung der Methode sehr förderte. 1986 wurde die als "GISSI-Studie" bezeichnete erste randomisierte klinische Studie zur Lysetherapie veröffentlicht, die an 11.806 Patienten durchgeführt wurde und eine Senkung der 21-Tage-Sterblichkeit von 13 auf 10,7 % nachwies, was einem geretteten Menschenleben pro 43 Behandlungen entsprach. Weiterentwicklung der Therapie. 1960 veröffentlichte die "American Heart Association" die "Framingham-Studie", die den Zusammenhang zwischen dem Rauchen und dem Auftreten von Herzinfarkten bewies. Mitte der 1990er Jahre wurde die erst 1977 von Andreas Grüntzig eingeführte Ballondilatation der Herzkranzgefäße als Therapieoption auch beim akuten Herzinfarkt in größerem Umfang eingesetzt. Heute ist dies die Behandlung der Wahl und wird in Deutschland bei mehr als 200.000 Patienten jährlich angewandt. Myokardinfarkt bei Tieren. Anders als beim Menschen wird der Herzmuskelinfarkt bei Tieren nur selten beobachtet. Zudem sind bei Haussäugetieren, im Gegensatz zur meist nichtinfektiösen Genese beim Menschen, vor allem infektiös bedingte Endokarditiden der Mitralklappe mit Abschwemmung von Thromben in die Herzkranzgefäße Auslöser eines Myokardinfarkts. Bei Tieren, die auch in menschlicher Obhut ein hohes Alter erreichen, wie etwa Haushunde und Papageien und Zootiere (z. B. Pazifisches Walross), sind auch vereinzelt Myokardinfarkte infolge atherosklerotischer Veränderungen wie beim Menschen beschrieben. Beim Hund wird auch eine verminderte Sauerstoffversorgung des Herzmuskels infolge einer Amyloidose kleiner Herzarterien beobachtet. Diese – in der Regel kleinen – Infarkte bleiben klinisch zumeist unbemerkt und werden als Zufallsbefunde bei pathologischen Untersuchungen relativ häufig als lokale Vernarbungen des Herzmuskels gefunden. Bei Katzen scheinen Infarkte vor allem als Komplikation bereits bestehender Herzmuskelerkrankungen (Hypertrophe Kardiomyopathie) aufzutreten. Die erhöhte Anfälligkeit des Herzmuskels von Schweinen auf Stress ist dagegen nicht auf Infarkte zurückzuführen, sondern beruht auf einer stressbedingten Muskeldegeneration (porcines Stress-Syndrom, PSS). Hydrophilie. Hydrophilie (von altgriechisch "hýdor" „Wasser“ sowie "phílos" „liebend“) bedeutet "wasserliebend", was besagt, dass ein Stoff stark mit Wasser (oder anderen polaren Stoffen) wechselwirkt. Das Gegenteil von Hydrophilie lautet "Hydrophobie". Nach IUPAC-Definition ist die Hydrophilie die Solvatationstendenz eines Moleküls in Wasser. Wenn eine Oberfläche sehr stark wasseranziehend ist, spricht man auch von superhydrophilie. Eigenschaften. Hydrophile Substanzen sind meist wasserlöslich, es gibt aber auch hydrophile Substanzen, die nicht wasserlöslich sind, z. B. manche Hydrogele oder Colestipolhydrochlorid. Aus diesem Grund ist "hydrophil" nicht mit "wasserlöslich" gleichzusetzen. Bei hydrophilen Stoffen handelt es sich in der Regel entweder um Salze (Ionenverbindungen) oder um polare Substanzen, die sich im ebenfalls polaren Wasser entsprechend gut lösen. Hydrophilie bezieht sich nur auf die Wechselwirkung mit Wasser und weder auf die Löslichkeit noch auf die Fähigkeit, Wasser anzuziehen und zu binden. Ein Stoff, der dies kann, wird hygroskopisch genannt. Hydrophile Stoffe sind oft gleichzeitig lipophob, lösen sich also schlecht in Fetten oder Ölen. Substanzen, die hydrophil und lipophil sind, bezeichnet man als amphiphil; hierzu zählen zum Beispiel Tenside. Amphiphilie ist eine spezielle Eigenschaft eines Moleküls, das hydrophobe und hydrophile Gruppen trägt. Auch Oberflächen können hydrophil sein. Diese sind immer von einem meistens nicht sichtbaren Wasserfilm bedeckt. Die meisten Metalle sind hydrophil, ebenso Glasoberflächen. Hydrophile Oberflächen haben gegenüber Wasser Kontaktwinkel nahe 0°. Die Abenteuer des Huckleberry Finn. Buchdeckel der US-amerikanischen Erstausgabe von 1884 Huckleberry Finn, Illustration der Ausgabe von 1884 Huckleberry Finn und Jim auf dem Floß, Illustration der Ausgabe von 1884 Die Abenteuer des Huckleberry Finn (im Original "Adventures of Huckleberry Finn)" ist der erfolgreichste Roman von Mark Twain und gilt als Schlüsselwerk der US-amerikanischen Literatur. Er wurde am 10. Dezember 1884 in Großbritannien und Kanada und am 18. Februar 1885 in den Vereinigten Staaten veröffentlicht. Die erste deutsche Übersetzung verfasste Henny Koch mit dem Titel "Huckleberry Finns Abenteuer und Fahrten" (1890). Erzähler ist Huck Finn selbst. Mark Twain simuliert die Perspektive und die Sprache eines Jungen, der seiner Zeit und seiner Umwelt verhaftet ist, sie aber auch in Frage stellt. Handlung. Das Buch liefert eine detailreiche Beschreibung der Menschen und Orte am Ufer des Mississippi und gibt ernüchternde und bissige Einblicke in die fest verwurzelten Verhaltensweisen dieser Zeit, insbesondere den Rassismus und die Sklaverei. Das Buch wird bisweilen selbst als rassistisch missverstanden, weil Jim durchweg als „Nigger“ bezeichnet wird. Mark Twain übernimmt damit gewollt eine zu der Zeit gebräuchliche Anrede für Dunkelhäutige, so wie er die handelnden Figuren auch in unterschiedlichen regionalen und subkulturellen Dialekten sprechen lässt. Dieser Ansatz wird heute kritisch diskutiert. In der 2011 durch den Verlag NewSouth veröffentlichten englischsprachigen Ausgabe des Buches wurde das Wort „Nigger“ im Text durch „Slave“ ersetzt. In dem Roman gehen ein unbeschulter, individualistischer weißer Außenseiter und ein rechtloser farbiger Sklave zusammen erfolgreich ihren widrigen Weg den Mississippi stromab. Der Roman gilt in der landläufigen Amerikanistik als eine der klassischen Verkörperungen des amerikanischen Traumes; des "Strebens nach Glück", wie es in der Amerikanischen Unabhängigkeitserklärung proklamiert wurde. Er kann dadurch, dass Twain darin ganz selbstverständlich beide gemeinsam dieses „Glück“ (in Form eines zumindest menschenwürdigeren Lebens) „anstreben“ lässt, vor allem als eine eindeutige politische Stellungnahme gegen den Rassismus angesehen werden, der Schwarze zu der beschriebenen Zeit und noch lange danach von diesem – nur theoretisch für „alle“ proklamierten – Recht ausschloss. Das Leben in St. Petersburg. Die Geschichte beginnt in der fiktiven Stadt St. Petersburg in Missouri am Ufer des Mississippi River und spielt irgendwann zwischen 1835 (als das erste Dampfschiff den Mississippi befuhr) und 1845. Zwei junge Burschen, Tom Sawyer und Huckleberry Finn, sind durch frühere Abenteuer zu einer beträchtlichen Geldsumme, jeweils 6000 Dollar, gekommen. Huck stand zu Anfang unter der Vormundschaft der Witwe Douglas, die zusammen mit ihrer Schwester, Miss Watson, versuchte, ihn zu ‚zivilisieren’. Huck freut sich über ihre Bemühungen, findet aber zivilisiertes Leben zu beschränkt. Am Anfang der Geschichte erscheint kurz Tom Sawyer und hilft Huck nachts bei seiner Flucht aus dem Haus, vorbei an Miss Watsons Sklaven Jim, der später eine wichtige Rolle spielen wird. Sie treffen sich in der selbsternannten Bande Tom Sawyers, die sich – nach deutlichem literarischem Vorbild – vornimmt, abenteuerliche Aktionen und Verbrechen durchzuführen. Das Leben von Huck wird allerdings durch das plötzliche Auftauchen seines Vaters massiv verändert. Dieser ist ein chronischer Trunkenbold, der sich nur selten blicken lässt, dann aber das Verprügeln seines Sohnes als berechtigte ‚Erziehung’ ansieht. Hucks Vater hatte erfahren, dass sein Sohn zu Geld gekommen war, und will es ihm abknöpfen. Huck wehrt sich anfangs erfolgreich dagegen, kann aber nicht verhindern, dass er von seinem Vater gekidnappt und gezwungen wird, mit ihm in einer Hütte auf einer einsamen Insel zu leben. Dort hat er seinen Sohn ständig im Auge, oder sperrt ihn ein, wenn er für längere Zeit allein zurückgelassen werden soll. Huck gelingt es schließlich aus seinem Gefängnis zu fliehen. Raffiniert schafft er es auch seine eigene Ermordung vorzutäuschen, um dem Vater zu suggerieren, dass weitere Nachstellungen sinnlos wären. Huck begibt sich mit einem Boot auf den Mississippi und fährt einer ungewissen Zukunft entgegen. Das Hausboot und Huck als Mädchen. Huck lebt zunächst durchaus glücklich auf einer verwilderten unbewohnten Insel namens Jackson's Island im Mississippi. Unerwartet trifft er auf den Sklaven Jim, der von seiner Besitzerin Miss Watson weggelaufen ist, weil sie ihn für 800 Dollar nach New Orleans verkaufen will, wo das Leben für Sklaven noch härter ist. Damit beginnt eine lange gemeinsame Flucht. Jim versucht, einen Weg zur Stadt Cairo in Illinois zu finden, um von dort nach Ohio zu kommen, einem freien Staat, um seiner Familie die Freiheit zu erkaufen. Zunächst überlegt Huck, ob er Jims Flucht melden soll. Aber schließlich reisen sie zusammen und führen ausführliche Gespräche über ihr Leben. Huck erfährt dadurch viel über Jims Vergangenheit und bekommt zunehmend Verständnis für seine Situation. Im Laufe dieses Prozesses ändert er seine Ansichten über die Sklaverei und über das Leben im Allgemeinen. Huck und Jim bleiben zunächst in einer Höhle auf einem Hügel auf Jackson's Island, um einen schweren Sturm zu überdauern. Wenn sie können, schnorren sie rund um den Fluss auf der Suche nach Nahrung, Holz und anderem. Eines Nachts finden sie ein Floß und benutzen es für ihre große Reise auf dem Mississippi. Später stoßen sie auf ein ganzes schwimmendes Haus und sie stehlen daraus alles, was sie greifen können. Jim findet in einem Raum dieses Hauses einen Mann, der tot auf dem Boden liegt, dem offensichtlich in den Rücken geschossen wurde, während man versuchte, das Haus zu plündern. Er verwehrt Huck den Blick auf das Gesicht des Mannes. Huck will sich über die neuesten Nachrichten der Gegend informieren und kommt daher auf die Idee, sich als Mädchen zu verkleiden und sich in irgendeinem Haus mit einer erfundenen Geschichte unter dem Namen Sarah Williams vorzustellen. Er betritt das Haus einer Frau namens Judith Loftus, die neu in der Gegend ist, und glaubt daher, von ihr nicht erkannt zu werden. Während sie reden, erfährt Huck, dass 300 Dollar Belohnung ausgesetzt sind für Jim, dem vorgeworfen wird, Huck ermordet zu haben. Huck verrät sich und seine Lügengeschichte damit, dass er seinen Vornamen bei einer Wiederholung falsch angibt und nachdem sich erweist, dass er eine Nadel nicht einfädeln kann, was zur damaligen Zeit jedes Mädchen konnte. Die Frau geht gnädig mit ihm um und will ihm sogar helfen. Sie weist aber in Unkenntnis seiner wahren Identität darauf hin, dass ihr Mann und einige andere die Insel, auf der die beiden hausen, bereits in Verdacht haben, Jim als Aufenthalt zu dienen, und sie sie bald überprüfen wollen. Huck kehrt sofort auf die Insel zurück, weckt den schlafenden Jim und erklärt ihm, dass sie beide sofort fliehen müssen. In großer Eile packen beide ihre Habseligkeiten auf das Floß und fliehen. Die Grangerfords und die Shepherdsons. Das Floß der beiden wird von einem vorbeifahrenden Dampfer überschwemmt, dadurch werden die beiden getrennt. Huck schwimmt an Land und wird in der wohlhabenden Familie Grangerford aufgenommen. Er freundet sich mit einem der jüngeren Söhne namens Buck an, einem gleichaltrigen Jungen, und erfährt, dass die Grangerfords in einer 30-jährigen Blutrache gegen eine andere Familie, den Shepherdsons, einbezogen sind, von der aber keiner mehr genau weiß, worum es anfänglich ging. Die Grangerfords und die Shepherdsons gehen regelmäßig in die gleiche Kirche. Beide Familien bringen dabei allerdings stets Waffen mit trotz der Predigt in der Kirche, die zur brüderlichen Liebe aufruft. Das Geschehen erreicht einen Höhepunkt, als Bucks Schwester Sophia mit Harney Shepherdson durchbrennt. In einer dadurch ausgelösten Schießerei sterben alle übrigen Männer der Familie Grangerford; beim Anblick der Leiche seines Freundes Buck ist Huck zu verstört, um über das Geschehene zu schreiben. Allerdings beschreibt er, wie er knapp seinem eigenen Tod entkam, und die spätere Wiedervereinigung mit Jim. Beide setzen ihre Flucht nach Süden auf ihrem alten, wider Erwarten unzerstörten Floß fort. Der Herzog und der König. Weiter unten am Fluss retten Jim und Huck zwei berufsmäßige Betrüger, die ebenfalls auf das Floß kommen. Der jüngere der beiden, ein Mann von etwa dreißig Jahren, stellt sich als Sohn eines englischen Herzogs vor, des Herzogs von Bridgewater. Er sei der rechtmäßige Nachfolger seines Vaters. Der ältere, etwa siebzig, behauptet sogar, er sei der Sohn von Ludwig XVI. und damit rechtmäßiger König von Frankreich. Diese beiden, der ‚Herzog’ und der ‚König’, überreden Jim und Huck, auf dem Floß mitreisen zu dürfen. Während der Reise nach Süden begehen sie diverse Betrügereien. Einmal kommen sie in eine Stadt und mieten das Gerichtsgebäude für eine Nacht, um dort Plakate zu drucken, die eine Theateraufführung ankündigen, die sie das „Königliche Unvergleichliche“ nennen. Das Spiel entpuppt sich während der Aufführung als eine rohe Angelegenheit, und dies ärgert die Städter, die dafür gezahlt hatten. Anstatt sich an den Schauspielern zu rächen, kommen sie auf die Idee – um nicht alleine als die Dummen dazustehen –, die anderen Stadtbewohner ebenfalls ins Theater zu kriegen, indem sie ihnen vorlügen, es sei ein ganz wunderbares Stück. In der Zwischenzeit kommt am Tag des Spiels ein Betrunkener namens Boggs in die Stadt und erregt Aufruhr, indem er einen bekannten Südstaatler namens Colonel Sherburn mit dem Tode bedroht. Dieser zeigt sich öffentlich, warnt Boggs und stellt ihm ein Ultimatum bis 1 Uhr. Bis dahin darf er ihn beleidigen, aber nicht später. Boggs behält aber sein Verhalten auch bis nach 1 Uhr bei, woraufhin Colonel Sherburn ihn erschießt. Jemand in der Menge schreit, dass Sherburn gelyncht werden sollte, und alle machen sich auf zu seinem Haus, um ihn zu töten. Dort erwartet sie Colonel Sherburn mit geladenem Gewehr. Er hält eine längere Rede über die allgemeine Gemeinheit und Feigheit der amerikanischen Rechtsprechung. Er wirft der hysterischen Meute vor, sich völlig blind und ohne jede Vernunft einem Anführer untergeordnet zu haben. Er behauptet, dass solches Lynchen meist nur gelingt, wenn es sich um ‚echte Männer’ handelt, die nur nachts mit Masken ihr Tun verrichtet würden (In dieser Rede bringt Mark Twain seine eigenen misanthropischen Ansichten zum Ausdruck: Huck, der Ausgestoßene, flieht aus dem Süden, während Sherburn, der Gentleman, diese Gesellschaft zurechtweist, wenn auch in einer zynischen und brutalen Weise). Als der ‚König’ und der ‚Herzog’ zum dritten Mal versuchen, das Stück aufzuführen, sind die Einwohner entschlossen, sich das nicht bieten zu lassen, und kommen mit diversen Wurfgeschossen ins Theater, was aber von den anderen bemerkt wird. Alle vier fliehen umgehend aus der Stadt und fahren auf dem Floß weiter den Mississippi hinunter. Die Betrügereien des ‚Königs’ und des ‚Herzogs’ erreichen ihren Höhepunkt, als sie versuchen, sich in einer anderen Stadt als Brüder des soeben verstorbenen und sehr vermögenden Peter Wilkes auszugeben. Die notwendigen Detailkenntnisse haben sie sich kurz zuvor von einem weiteren, nichts ahnenden Familienmitglied besorgt. Sie gewöhnen sich einen absurden englischen Akzent an. Der ‚König’ schafft es, die meisten Einwohner der Stadt davon zu überzeugen, dass er und der ‚Herzog’ die beiden Brüder des Verstorbenen sind, die gerade eben aus England gekommen seien. Im Folgenden versuchen sie, sich einen Großteil des Erbes anzueignen. Ein einziger Mann aus dem Freundeskreis des Verstorbenen bezichtigt sie öffentlich des Betruges, allerdings vorerst ohne Erfolg. Trotzdem werden die beiden Betrüger vorsichtig. Der ‚Herzog’ will sofort fliehen, aber der ‚König’ will noch mehr aus dem Erbe an sich reißen und behauptet, es bestünde wenig Gefahr, „weil die meisten Trottel auf ihrer Seite stünden, und das sei schließlich die Mehrheit in jeder Stadt“ (auch in diesem Satz vermutet man ein ‚Glaubensbekenntnis’ von Mark Twain). Huck ist entsetzt über den Plan der beiden, den Töchtern des Verstorbenen ihr Erbe wegzunehmen, und plant seinerseits, diesen Diebstahl rückgängig zu machen. Außerdem wendet er sich gegen den Plan der Betrüger, die Sklaven des Verstorbenen einzeln zu verkaufen und dadurch von ihren Familien zu trennen. Huck stiehlt das bisher geraubte Geld und versteckt es in dem noch offenen Sarg. Er fasst den Plan, von einer anderen Stadt aus einer der Töchter zu schreiben, wo sich das Geld befindet. Aber in dem ganzen Durcheinander weiß er selbst nicht mehr, ob das Geld nun im Sarg ist oder ob es jemand herausgenommen hat. Kurz danach geraten die beiden Betrüger erneut in Schwierigkeiten, weil die angeblich wahren Brüder des verstorbenen Peter Wilkes, jedoch ebenfalls zwei weitere Betrüger, auftauchen. Als das Geld in Wilkes Sarg gefunden wird, gelingt es den beiden Betrügern, in der allgemeinen Konfusion zu fliehen und auf das Floß zu Huck und Jim zurückzukehren. Huck selbst ist sehr enttäuscht, weil er gehofft hatte, die beiden endgültig abgehängt zu haben. Jims Flucht. Während der weiteren Flucht beschließt der ‚König’, Jim zu verkaufen, als Huck gerade in einer nahe gelegenen Stadt unterwegs ist. Huck ist empört über diesen erneuten Verrat und gerät in einen Gewissenskonflikt. Einerseits sagt er sich, dass seine Unterstützung für Jims Flucht gleichzeitig ein Vergehen am ‚Eigentum’ von Jims Besitzerin Miss Watson ist. Aber Huck riskiert es, ‚zur Hölle zu gehen’, und beschließt, Jim weiterhin bei seiner Flucht zu helfen. Huck erfährt, als er das Haus besucht, zu dem Jim verkauft wurde, dass der ‚König’ ihn für 40 Dollar verkauft hatte. Zu einem erstaunlichen Zufall kommt es, als entdeckt wird, dass die neuen Besitzer von Jim, Herr und Frau Phelps, Onkel und Tante von Tom Sawyer sind, der zu einem Besuch erwartet wird, den sie aber schon lange nicht mehr gesehen haben. Nun wird Huck selbst für Tom Sawyer gehalten, und er lässt Toms Verwandte in diesem Irrglauben in der Absicht, damit Jim zur Flucht zu verhelfen. Da erscheint Tom selbst, gibt sich aber, als er Hucks Plan erfährt, nunmehr selbst als sein jüngerer Bruder Sid aus. Jim sorgt dafür, dass die beiden Betrüger ihr gewohntes Täuschungsmanöver mit dem Theaterstück nicht schon wieder durchführen können. Beide werden von den Städtern gefangengenommen, geteert und gefedert und schließlich aus der Stadt gejagt. Anstatt Jim einfach aus dem Schuppen zu befreien, in dem er festgehalten wird, entwickelt Tom einen ausgeklügelten und abenteuerlichen Befreiungsplan. Hier spielen geheime Botschaften, versteckte Tunnel und eine Strickleiter eine Rolle, die in einer Mahlzeit versteckt wird, und andere Elemente aus den populären Romanen. Dazu gehört auch eine Nachricht an die Phelps, die angeblich von einem Indianerstamm handelt, der seinen entflohenen Sklaven sucht. Bei der folgenden Flucht wird Tom ins Bein geschossen. Und Jim besteht darauf, anstatt an seine erfolgreiche Flucht zu denken, dass Huck für einen Doktor sorgt, der Tom ärztlich betreut. Das war das erste Mal, dass Jim etwas forderte für einen weißen Menschen. Huck erklärt sich das folgendermaßen: „Ich wusste immer, dass er innerlich weiß ist, also ist das in Ordnung“. Jim und Tom werden eingefangen und vom Doktor zurückgebracht. Schluss. Nachdem Jim wieder bei seinen neuen ‚Besitzern’ angelangt ist, lösen sich die restlichen Probleme wie von selbst. Toms Tante Polly erscheint und klärt die wahre Identität von Tom und Huck auf. Tom gibt bekannt, dass Jim schon seit Monaten frei ist, denn Miss Watson verstarb vor zwei Monaten und hat Jim in ihrem Testament die Freiheit geschenkt. Aber Tom hat das nicht direkt sagen wollen, damit er seinen abenteuerlichen Befreiungsplan durchführen konnte. Jim erzählt Huck, dass dessen Vater schon seit geraumer Zeit tot ist – er war der Tote, den sie in der schwimmenden Hütte gefunden hatten – und Huck ohne Angst nach Sankt Petersburg zurückkehren kann. Abschließend erklärt Huck, dass er ganz froh sei, diese Geschichte schriftlich erzählt zu haben, und dass er, anstatt sich von Toms Familie adoptieren und ‚sivilisieren’ zu lassen, lieber nach Westen ins Indianerterritorium gehen wolle. Rezeption und literarische Bedeutung. "Die Abenteuer des Huckleberry Finn" war Mark Twains größter Erfolg und gilt als Schlüsselwerk der US-amerikanischen Literatur. Ernest Hemingway stellte den Roman an den Anfang der gesamten neueren amerikanischen Literatur. Der Literaturtheoretiker Wayne C. Booth merkt 2005 an, dass es in literarischen Werken selten eine so durchweg zweifelhafte Stimme („a consistently dubious voice“) gibt wie die von Huck Finn (oder wie die des Butlers in Kazuo Ishiguros "Was vom Tage übrigblieb"). Verfilmungen. Die Geschichten von Tom Sawyer und Huckleberry Finn wurden seit 1917 oft für Kino und später auch fürs Fernsehen bearbeitet. Einordnung der deutschen Verfilmungen. Eine relativ umfängliche Bearbeitung der Abenteuer von Tom Sawyer und Huckleberry Finn fand der Stoff in einem ZDF-Abenteuervierteiler von 1968. Die von Tom Sawyer unabhängigen Abenteuer des Huck Finn werden darin (im 4. Teil) jedoch lediglich bis zum Beginn der Flucht mit dem entlaufenen Sklaven Jim geschildert. Die vollständigen Abenteuer sind in der deutsch/kanadischen Co-Produktion der 26-teiligen Fernsehserie "Die Abenteuer von Tom Sawyer und Huckleberry Finn" ("Huckleberry Finn and His Friends", 1979) enthalten. Die deutsche Verfilmung der Regisseurin Hermine Huntgeburth aus dem Jahr 2012 unter dem Titel "Die Abenteuer des Huck Finn" kam am 20. Dezember 2012 in den Kinos. Die Verfilmung war offensichtlich weniger werkgetreu als die Co-Produktion der 26-teiligen Fernsehserie, sondern entsprach eher einer Neuerzählung. Hörspiel. Das gleichnamige Hörspiel (SWF 2002) wurde 2009 mit dem Radio-Eins-Hörspielkino-Publikumspreis ausgezeichnet. Comic. 2013 erschien im Suhrkamp Verlag eine Adaption von Olivia Vieweg unter dem Titel "Huck Finn". Der Graphische Roman hält sich eng an den ersten Teil der Vorlage, kürzt aber den Handlungsbogen um den „Herzog“ und den „König“ heraus und setzt die Geschichte in einen modernen Kontext. Huck Finn flüchtet hier mit der asiatischen Zwangsprostituierten Jin von Halle aus die Saale hinab Richtung Hamburg. Ausgaben. Das Buch ist in unterschiedlicher Ausstattung bei mehreren Verlagen erhältlich. In manchen Ausgaben sind auch die Abenteuer mit Tom Sawyer in einer Ausgabe zusammengefasst. Sonstiges. Eine der von TT-Line zwischen Deutschland und Schweden eingesetzten Autofähren ist nach "Huckleberry Finn" benannt. Hirntod. Der Hirntod ist eine Todesdefinition, die 1968 im Zusammenhang mit der Entwicklung der Intensiv- und Transplantationsmedizin eingeführt wurde. Der Begriff bezeichnet das irreversible Ende aller Hirnfunktionen aufgrund von weiträumig abgestorbenen Nervenzellen. Der Hirntod wird oft als sicheres inneres Todeszeichen angesehen. Nach abgeschlossener Hirntoddiagnostik und festgestelltem Hirntod wird ein Totenschein für den intensivmedizinisch behandelten Patienten ausgestellt. Als Todeszeit wird die Uhrzeit registriert, zu der die Diagnose und Dokumentation des Hirntodes abgeschlossen sind. Geschichte. Im Menschenbild der alten Ägypter wurde das Herz als Zentralorgan des Körpers gesehen und repräsentierte daher auch die Seele des Toten. Diese Sicht prägte für Jahrtausende das kardiozentrische Menschenbild der meisten nachfolgenden Religionen und Kulturen. Das Ausbleiben von Herzschlag, Atmung und spontanen Bewegungen blieb bis zum Zeitalter der Aufklärung das allgemein gültige, allerdings nirgends normativ festgelegte Todeszeichen. Mitte des 18. Jahrhunderts gab es die ersten erfolgreichen Beatmungs- und Wiederbelebungsversuche an Ertrunkenen; nach Entdeckung der galvanischen Elektrizität gelang 1774 die erste erfolgreiche Wiederbelebung durch elektrische Herzstimulation. Das Dogma des Herzstillstandes als endgültiger Tod des Menschen geriet dadurch, aber auch durch die Ergebnisse der seitdem durchgeführten elektrischen Experimente an Gehirnen und Körpern frisch Verstorbener, ins Wanken. M.-F.-X. Bichat folgerte um 1800 aus seinen ausgedehnten anatomischen, histologischen und physiologischen Untersuchungen, dass die Aufrechterhaltung einer strukturellen zellulären Ordnung ein wesentliches Merkmal des Lebens sei und die Auflösung dieser Ordnung den Tod bedeutet. Er postulierte, dass ein Organismus aus Funktionen auf unterschiedlichen zellulären Ebenen beruhe und dass diese Funktionen nicht zwangsläufig gleichzeitig enden müssen. Er grenzte vegetative Grundfunktionen (Atmung, Kreislauf, Stoffwechsel) als „organisches Leben“ von dem Komplex höherer Gehirnleistungen (Bewusstsein, Sinneswahrnehmungen) ab. In Konsequenz dieser Ergebnisse prägte er den Begriff „Hirntod“. Trotz Bichats Erkenntnissen galt in der Medizin weiterhin ein Mensch dann als tot, wenn seine Atmung und seine Herztätigkeit stillstanden. Durch Fortschritte in der Ersten Hilfe, der Beatmung und anderer intensivmedizinischer Techniken gab es jedoch ab etwa den 1950er Jahren immer mehr Fälle, in denen bei schwer Hirngeschädigten Atmung und Herztätigkeit künstlich stimuliert wurden, ohne dass die Hoffnung bestand, dass diese Funktionen jemals wieder selbständig ohne die künstliche Unterstützung aufrechterhalten werden könnten. Man sprach dann von einem „coma dépassé“, einem irreversiblen Koma. Eine Kommission der Harvard Medical School veröffentlichte im Jahre 1968 eine genaue Definition dieses Begriffs und schlug vor, den entsprechenden Zustand als Hirntod zu bezeichnen und als neues Todeskriterium festzulegen. Begründet wurde dies einerseits damit, den Status der komatösen Patienten zu klären und die künstliche Beatmung einstellen zu können, andererseits damit, Kontroversen bei der Beschaffung von Organen zur Transplantation zu vermeiden. Diese neue Todesdefinition wurde in den folgenden Jahren von vielen Ländern übernommen. Diagnostik und Verfahren. Die Diagnose des Hirntodes kann nur während einer intensivmedizinischen Behandlung mit künstlicher Beatmung, Kreislauftherapie und Hormonersatztherapie im Krankenhaus erfolgen. Durch die maschinellen Unterstützungsmaßnahmen können die Durchblutung und die Sauerstoffversorgung der Organe langfristig aufrechterhalten werden, wenn keine weiteren Komplikationen auftreten. Die zweifelsfreie Feststellung des Hirntodes erfolgt anhand klinischer und optional apparativer Kriterien. Fehlende Hirnperfusion in der Hirnperfusionsszintigrafie Dass es sich um einen "unumkehrbaren Ausfall aller Hirnfunktionen" (also um Hirntod) handelt, wird durch eine erneute Untersuchung der klinischen Kriterien nach festgelegter, adäquater Wartezeit (12, 24 beziehungsweise 72 Stunden je nach Alter und Lokalisation der primären Hirnläsion) nachgewiesen, oder durch eine ergänzende apparative Untersuchung. Durch ein besseres Verständnis der Vorgänge im Sterbeprozess lässt sich seit Anfang der 2000er Jahre die Erfolgsquote bei der Reanimation von Herztoten steigern. Im Gehirn von sterbenden Ratten beobachteten Forscher 2013 während eines kurzen Zeitraums nach einem Herzstillstand ein extrem intensives Aktivitätsmuster, das auf eine ähnliche kurzzeitige neuronale Aktivitätssteigerung beim Menschen vor dem Eintritt des Hirntods schließen lässt. Rechtssichere Todesfeststellung. Um den Hirntod rechtssicher festzustellen, müssen in der Bundesrepublik Deutschland zu verschiedenen Zeitpunkten von verschiedenen Ärzten die klinischen Kriterien zum Nachweis des unumkehrbaren Ausfalls der Hirnfunktion bestätigt werden. Nach den Kriterien der Bundesärztekammer müssen diese Ärzte über „eine mehrjährige Erfahrung in der Intensivbehandlung von Patienten mit schweren Hirnschädigungen“ verfügen. Sollen dem Patienten nach der Feststellung Organe entnommen werden, so muss die Feststellung des Hirntods durch Ärzte erfolgen, die nicht an der Organentnahme oder der Transplantation beteiligt sind. Eine zusätzliche apparative Untersuchung ist nur in den Fällen zwingend erforderlich, in denen die primäre Schädigung im Bereich des Hirnstamms oder des Kleinhirns lag (primär infratentorielle Hirnschädigung). Die apparative Zusatzuntersuchung kann jedoch als Beweis der Irreversibilität der klinischen Ausfallsymptome die Wartezeit verkürzen. Das für die Schweiz gültige Verfahren der Todesfeststellung findet sich in den medizinisch-ethischen Richtlinien zur Feststellung des Todes mit Bezug auf Organtransplantationen der Schweizerischen Akademie der Medizinischen Wissenschaften (SAMW). Bedeutung hinsichtlich Organspende. Spätestens mit der Feststellung des Hirntodes entfällt die Pflicht (und das Recht) des Arztes, therapeutisch ausgerichtete Maßnahmen zu ergreifen. Daher können sich die organprotektive Intensivtherapie und die Vorbereitungen zur Organentnahme und Transplantation nur mit Zustimmung zur Organspende anschließen. Falls einer Organspende nicht zugestimmt wurde, wird die medizinische Therapie in der Regel beendet und das Beatmungsgerät abgestellt. Eine Ausnahme könnte eine bestehende Schwangerschaft sein. Nach des deutschen Transplantationsgesetzes (TPG) ist die Hirntodfeststellung zusätzlich zur Todesfeststellung nach den Regeln, die dem Stand der Erkenntnisse der medizinischen Wissenschaft entsprechen, Voraussetzung zur Organentnahme. Die dem Stand der Erkenntnisse entsprechenden Regeln sind derzeit mit dem Hirntod identisch, so dass dieser juristisch als Todeskriterium z. B. im Erbrecht oder im Personenstandsrecht akzeptiert wird. Der Würdeschutz zu Lebzeiten ende hingegen mit dem Absterben des Menschen als lebender Organismus, also mit dem Herztod. „Erst“ hirntote Menschen seien todgeweihte Personen und noch keine Leichname. Daher wird die Einwilligung in die Entnahme von Organen nach dem Hirntod für die Zulässigkeit gefordert (§ 3 Abs. 1 Nr. 2 TPG). Christliche Kirchen. „Die meisten zu übertragenden Organe werden nicht lebenden, sondern hirntoten Spendern entnommen. Der äußere Unterschied zwischen Herztod und Hirntod kann irrtümlich so gedeutet werden, als ob Gewebe und Organe schon vor und nicht erst nach dem Tod des Spenders entnommen würden. Daher ist für das Vertrauen in die Transplantationsmedizin nicht nur die ärztlich selbstverständliche sichere Feststellung des Todes vor der Organspende entscheidend wichtig, sondern auch die allgemeine Kenntnis des Unterschieds zwischen Herztod und Hirntod.“ „Der Hirntod bedeutet ebenso wie der Herztod den Tod des Menschen. Mit dem Hirntod fehlt dem Menschen die unersetzbare und nicht wieder zu erlangende körperliche Grundlage für sein geistiges Dasein in dieser Welt.“ Aus Sicht der römisch-katholischen Kirche gilt die Hirntod-Definition, nach der das Ausbleiben messbarer Hirnströme über einen Zeitraum von mindestens sechs Stunden den Tod des Menschen anzeigt. Islam. Die Haltung zum Hirntod ist in der islamischen Religion uneinheitlich. Laut Aussage des Zentralrats der Muslime in Deutschland entspricht die Festlegung des Hirntodes als Todeskriterium seiner Empfehlung und decke sich mit der Meinung der meisten islamischen Gelehrten. Das kuwaitische Religionsministerium legte dagegen 1981 fest, dass ein Mensch nicht als tot angesehen werden kann, solange seine Herz- und Kreislaufaktivitäten – wenn auch künstlich – vorhanden sind: „Es ist nicht möglich, diese Person aufgrund des Hirntodes als tot zu betrachten, wenn in seinem Kreislauf- und Atmungsapparat Leben ist, wenn auch apparativ.“ Deutscher Bundestag. Im Rahmen der Gesetzgebung zum Transplantationsgesetz hat sich auch der Deutsche Bundestag wiederholt mit dem Thema auseinandergesetzt. Die derzeit geltenden gesetzlichen Bestimmungen sind 2013 durch eine Kleine Anfrage zum Thema Hirntod und die Antwort der Bundesregierung in erneute Diskussion geraten, da erhebliche Zweifel an den zugrunde liegenden Definitionen bestehen und die Frage, ob Hirntote nicht eher als Sterbende denn als Tote zu bezeichnen wären, nicht abschließend geklärt scheint. Kontroversen. Verschiedene Mediziner und Wissenschaftler üben Kritik an der Hirntod-Definition als endgültigen Tod des Menschen. So meint etwa der Alternativmediziner und Kardiologe Paolo Bavastro, dass der Begriff des „hirntoten Menschen“ eine „arglistige Täuschung“ sei, da ein Mensch mit Hirnversagen zwar „ein Mensch“ sei, dessen „Gehirn einen erheblichen Schaden“ habe und „ein schwerstkranker, sterbender Mensch“ sei, aber eben „noch kein Toter“. Ärzte könnten bei hirntoten Menschen trotzdem einen Herzschlag wahrnehmen, sie würden ihre Körpertemperatur selbst regulieren, Urin und Stuhl ausscheiden, sie könnten schwitzen, auf Schmerzreize reagieren und sogar Antikörper bilden, Männer könnten Erektionen bekommen und Frauen schwanger werden und gesunde Kinder gebären. Die Vorstellung, dass „nur die Hirnaktivität den Menschen zum Menschen“ mache und „der Tod des Hirns auch den Tod des Menschen bedeute“, sei überholt, so Bavastro. Der US-amerikanische Arzt Alan Shewmon, welcher früher ein bekannter Befürworter des Hirntod-Konzeptes war, vertritt die Auffassung, dass „das Gehirn nicht als zentraler Integrator aller menschlichen Körperfunktionen“ wirke. Der Neurologe hatte bis 1998 über 170 dokumentierte Fälle gefunden, in denen zwischen Feststellung des Hirntodes und Eintritt des Herzstillstands viel Zeit vergangen war. Die Spannen reichten dabei von mindestens einer Woche bis zu 14 Jahren. Der US-amerikanische „President’s Council on Bioethics“ (Ethikrat der USA) schloss sich dieser Einschätzung an. Die Vorstellung von der Gleichsetzung von Hirntod und Tod sei nach Auffassung des Rates „nicht mehr aufrechtzuhalten“. Das Gehirn sei „nicht der Integrator der verschiedenen Körperfunktionen“, vielmehr sei „die Integration eine emergente Eigenschaft des ganzen Organismus“. Die neurologische Fachgesellschaft der Vereinigten Staaten mahnt außerdem an, dass „die Kriterien für die Feststellung des Hirntodes nicht wissenschaftlich untermauert“ seien. Beispielsweise seien die (auch in Deutschland) „vorgeschriebenen Wartezeiten zwischen der ersten und zweiten neurologischen Untersuchung“ nur „grobe Erfahrungswerte und nicht zuverlässig“. Kritisiert wird auch, dass „apparative Zusatzuntersuchungen“, wie die „Messungen der elektrischen Aktivität und der Durchblutung des Gehirns“, nicht „zum obligatorischen Standard“ gehören. Unter Umständen könnten „neurologisch unerfahrene Ärzte deshalb einen Komapatienten für tot erklären“, obwohl „seine Hirnrinde noch bei Bewusstsein“ sei. Zudem sei die Feststellung des Hirntods mit einer Reihe von Unsicherheiten behaftet, so Joseph Verheijde, Mohamed Rady und Joan McGregor von der Non-Profit-Organisation Mayo Clinic. Sie bezweifeln, dass die etablierten Richtlinien geeignet seien, einen „irreversiblen Schaden des Gehirns mit hinreichender Sicherheit zu konstatieren“. Gehirne von für hirntot erklärten Patienten wiesen nicht alle die erwarteten schweren Schäden auf. In Deutschland gelten für die Hirntoddiagnostik die Kriterien der Bundesärztekammer. Eine apparative Untersuchung sei nur bei Kindern bis zum vollendeten zweiten Lebensjahr vorgesehen. Die in den übrigen Fällen als ausreichend erachtete klinische Diagnostik „erfasse nur Teilbereiche des Gehirns“. Funktionen des Mittelhirnes, des Kleinhirns und der Großhirnrinde würden gar nicht untersucht werden, gibt die deutsche Physikerin und Philosophin Sabine Müller von der Charité in Berlin zu bedenken. Untersuchungen mit bildgebenden Verfahren wie der Positronenemissionstomographie oder der funktionellen Magnetresonanztomographie an Patienten mit schweren Bewusstseinsstörungen ließen an der Behauptung des irreversiblen Ausfalles aller Hirnfunktionen zweifeln. Gaby Siegel (1991). Gaby Siegel war in der 17. Woche schwanger, als sie am 4. Juli 1991 aus ungeklärter Ursache bewusstlos zusammenbrach. Ein Spaziergänger fand sie. Ihr Herz schlug nicht. Sie wurde erfolgreich reanimiert und in die Klinik gebracht. Dort wurde am 14. Juli der Hirntod festgestellt. Um das Kind zu retten, wurde Gaby Siegel in der anthroposophischen Filderklinik weiter medizinisch mit allem versorgt. Am 26. September 1991 setzten – nach 84 Tagen Versorgung auf der Intensivstation – vorzeitige Wehen ein. Max Siegel wurde lebend geboren. Erlanger Baby (1992). Im Fall des "Erlanger Babys" wurde bei den Vorbereitungen zur Organentnahme einer hirntoten Frau eine Schwangerschaft in der 15. Woche festgestellt. Daraufhin wurde die Organentnahme abgesagt und entschieden, die Schwangerschaft auszutragen. Die Frau wurde intensivmedizinisch mit Beatmung, Kreislauftherapie und Hormonersatz weiterbehandelt, so dass ihr Körper und damit auch der Uterus in seiner Grundfunktion erhalten blieben. Der Fetus wuchs normal, bis es durch eine Infektion in der 20. Schwangerschaftswoche zu einer Frühgeburt kam, die das Kind nicht überlebte. Am Tag der Geburt wurden die lebenserhaltenden Maßnahmen für die hirntote Mutter abgestellt, zu diesem Zeitpunkt war eine Organentnahme nicht mehr möglich. Es stellte sich die Frage, ob es ethisch gerechtfertigt werden kann, die hirntote Mutter solange künstlich zu beatmen und zu ernähren, bis der Fetus per Kaiserschnitt auf die Welt geholt werden kann, und ob es ethisch gerechtfertigt werden kann, einen Fetus in einer hirntoten Mutter bis zur Geburt wachsen zu lassen. Marlies Muñoz (2013). Am 26. November 2013 kollabierte die 33-jährige, in der 14. Woche schwangere Marlies Muñoz, eine Medizintechnikerin, aufgrund einer schweren Lungenembolie. Im "John Peter Smith Hospital" in Fort Worth, Texas, wurde der Hirntod diagnostiziert. Die Familienangehörigen, einschließlich des Ehemanns, sprachen sich für eine Beendigung lebenserhaltender Maßnahmen aus, da sich die Betroffene selbst in früheren Gesprächen mit dem Ehemann dagegen ausgesprochen hatte. Dies wurde jedoch vom behandelnden Krankenhaus mit Hinweis auf texanische Gesetze verweigert. Daraufhin klagte der Ehemann gegen das Krankenhaus. Der Fall löste intensive ethische Diskussionen aus. Nach zwei Monaten wurde dem Kläger Recht gegeben, und die Patientin samt dem ungeborenen Kind verstarb nach dem Abschalten der lebenserhaltenden medizinischen Versorgung. Hudson River. Der Hudson River ist ein 493 Kilometer langer Fluss in den US-Bundesstaaten New York und New Jersey im Nordosten der USA. Flusslauf. Der Hudson entspringt im US-Bundesstaat New York in den Adirondack Mountains am Henderson Lake. Von dort fließt er überwiegend in südlicher Richtung durch diesen Staat und nimmt bei Albany das Wasser des Mohawk River auf. Nur im Unterlauf bildet er teilweise die Grenze zum Nachbarstaat New Jersey und erreicht vor seiner Mündung den New Yorker Hafen. In den Atlantik mündet er zwischen den Inseln Manhattan und Staten Island in die Upper New York Bay. Der Unterlauf des Hudson ist dem Einfluss der Gezeiten unterworfen. Der Tidenhub macht sich noch über 225 Kilometer flussaufwärts, bis zum Wehr in Troy, nördlich von Albany, bemerkbar. Daher kann der Hudson nicht auf ganzer Länge als Fluss bezeichnet werden. Dieser Abschnitt wird als "Estuary" (dt.: Ästuar) bezeichnet. Der Hudson entwässert zusammen mit seinen Nebenflüssen, insbesondere mit dem Mohawk River, ein großes Gebiet im Osten der USA. Wegen der Schönheit des Hudsontals wurde dem Hudson River die Bezeichnung "Der Rhein Amerikas" verliehen. Geschichte. Die ursprünglich in der Gegend lebenden Ureinwohner, die Mahican, nannten den Fluss "Mahicannituck", also „Wasser, das immer fließt“. Die Europäer entdeckten 1524 durch den Italiener Giovanni da Verrazano den Fluss. Benannt wurde er später nach Henry Hudson, einem englischen Seefahrer, der ihn 1609 für die Niederländische Ostindien-Kompanie erkundete, obwohl die niederländischen Siedler den Fluss "Noortrivier" (selten auch "Manhattes rieviere", "Groote Rivier" sowie "de grootte Mouritse reviere") nannten. Am 13. September 1609 befuhr er den entdeckten Fluss. Ins Blickfeld der weltweiten Öffentlichkeit gelangte der Hudson-Fluss am 15. Januar 2009, als der Kapitän Chesley Burnett Sullenberger des US-Airways-Fluges 1549 eine spektakuläre Notwasserung auf dem Hudson-Fluss auf der Höhe von Manhattan Island durchführte. Schifffahrt. Der Strom ist flussaufwärts bis Albany schiffbar. 8 km nördlich von Albany befindet sich der erste Staudamm ("Federal Dam") und die erste Schleuse am Hudson River. Oberhalb davon zweigt der im 19. Jahrhundert gebaute Eriekanal, welcher den Hudson River mit dem Eriesee verbindet, nach Westen ab. Der Mittellauf des Hudson River ist mit mehreren Schleusen als Champlain Canal ausgebaut. Bei Fort Edward zweigt dieser am östlichen Flussufer ab und verläuft in nördlicher Richtung zum Lake Champlain. Wasserkraftanlagen. Am oberen Hudson River liegen mehrere Wasserkraftwerke. Das Wasserkraftwerk "Green Island" 8 km nördlich von Albany liegt am untersten Staudamm des Hudson River. Es ist geplant, die Leistung von 6 MW auf 48 MW zu erhöhen. Hertzsprung-Russell-Diagramm. Das Hertzsprung-Russell-Diagramm, kurz HRD'", zeigt grob die Entwicklungsverteilung der Sterne. Es wurde 1913 von Henry Norris Russell entwickelt und baut auf Arbeiten von Ejnar Hertzsprung auf. Wird dazu der Spektraltyp gegen die absolute Helligkeit aufgetragen, ergeben sich bei einer genügenden Anzahl von Eintragungen charakteristische linienartige Häufungen. Hauptreihe. Das Diagramm zeigt die meisten Sterne in der Gegend der so genannten Hauptreihe ("main sequence" oder Zwergenast), die sich von den O-Sternen mit einer absoluten Helligkeit von circa Magnitude −6 bis zu den M-Sternen mit einer absoluten Helligkeit von Magnitude 9–16 hinzieht. Die Sterne der Hauptreihe bilden die Leuchtkraftklasse V. Die Sonne ist ein Hauptreihenstern der Spektralklasse G2. Weitere Beispiele für Hauptreihensterne sind Wega (A0) und Sirius (A1). Riesenast. Die Sterne eines zweiten deutlichen Astes fallen in die Spektralklassen G0 bis M und haben eine absolute Helligkeit von Magnitude 0. Im Vergleich zu Sternen der Hauptreihe mit gleicher Spektralklasse (und damit gleicher Temperatur und Flächenhelligkeit) besitzen sie eine größere absolute Helligkeit und damit eine größere leuchtende Oberfläche. Sie haben also einen größeren Durchmesser als Hauptreihensterne, werden daher als (normale) Riesensterne ("giants") eingestuft und bilden den sogenannten Riesenast und die Leuchtkraftklasse III. Sonstige Bereiche. Zwischen der Hauptreihe und dem Riesenast finden sich die selteneren Unterriesen mit der Leuchtkraftklasse IV. Ihr Durchmesser liegt zwischen dem der Sterne der Hauptreihe und dem der Riesensterne. Im Bereich der Spektralklassen A5 bis G0, links oberhalb der Hauptreihe, liegt die sogenannte Hertzsprung-Lücke (auf der Illustration nicht eingezeichnet), ein Gebiet mit auffällig wenigen Sternen. Sie erklärt sich dadurch, dass massereiche Sterne lediglich eine sehr kurze Zeit benötigen, um sich zu Riesen zu entwickeln und damit relativ schnell im Riesenast aufgehen. Daher erscheint der Bereich der Hertzsprung-Lücke relativ leer. Neben der dicht besetzten Hauptreihe und dem Riesenast gibt es noch die Bereiche der hellen Riesen ("bright giants") mit der Leuchtkraftklasse II sowie der Überriesen ("supergiants") mit der Leuchtkraftklasse I. Diese Bereiche sind relativ dünn aber gleichmäßig besetzt. Unterhalb der Hauptgruppe finden sich die Bereiche der Unterzwerge mit einer etwa um 1–3 geringeren Magnitude, sowie die isoliert im Bereich der Spektralklassen B bis G liegende Gruppe der weißen Zwerge mit einer um etwa 8–12 geringeren Magnitude als die Sterne der Hauptgruppe und einem sehr geringen Durchmesser. Deutung. Die Konzentration der Sterne auf die verschiedenen Gruppen lässt sich aus der Theorie der Sternentwicklung erklären. Die Entwicklungszustände der Sterne sind voneinander mehr oder weniger klar abgegrenzt und finden sich an ganz bestimmten Stellen des HRD wieder. Im Laufe der Zeit ändern sich die beiden Zustandsgrößen der Effektivtemperatur und der Leuchtkraft eines Sterns in Abhängigkeit von den nuklearen Vorgängen in seinem Inneren, so dass jeder Stern einen gewissen Entwicklungsweg durch das HRD durchläuft. Dies geschieht mit unterschiedlicher Geschwindigkeit. Entwicklungszustände, die lange Zeit anhalten, sind dementsprechend häufiger zu beobachten (z. B. in der Hauptreihe) als schnelle, nur kurz anhaltende Entwicklungsstufen (z. B. im Bereich der Hertzsprung-Lücke). Jenseits von Effektivtemperaturen von etwa 3000–5000 Kelvin finden sich im HRD keine Sterne mehr, weil hier der Bereich der Protosterne liegt, welche eine sehr hohe Entwicklungsgeschwindigkeit haben. Diese nahezu senkrecht verlaufende „Linie“ wird Hayashi-Linie genannt. Da der Spektraltyp grob mit der Temperatur des Sterns zusammenhängt, kann das HRD als Temperatur-Leuchtkraft-Diagramm angesehen werden Statt des Spektraltyps kann man auch den Farbindex der Sterne auftragen, der ebenfalls ein Maß für ihre Temperatur ist. Statt des HRD wird so das Farben-Helligkeits-Diagramm erhalten. Hypertext Transfer Protocol Secure. HyperText Transfer Protocol Secure (HTTPS, für "sicheres Hypertext-Übertragungsprotokoll") ist ein Kommunikationsprotokoll im World Wide Web, um Daten abhörsicher zu übertragen. Technisch definiert es als URI-Schema eine zusätzliche Schicht zwischen HTTP und TCP. HTTPS wurde von Netscape entwickelt und zusammen mit SSL 1.0 erstmals 1994 mit deren Browser veröffentlicht. Nutzen. HTTPS wird zur Herstellung von Vertraulichkeit und Integrität in der Kommunikation zwischen Webserver und Webbrowser (Client) im World Wide Web verwendet. Dies wird u. a. durch Verschlüsselung und Authentifizierung erreicht. Ohne Verschlüsselung sind Daten, die über das Internet übertragen werden, für jeden, der Zugang zum entsprechenden Netz hat, als Klartext lesbar. Mit der zunehmenden Verbreitung von offenen (d. h. unverschlüsselten) WLANs nimmt die Bedeutung von HTTPS zu, da damit die Inhalte unabhängig vom Netz verschlüsselt werden können. Die Authentifizierung dient dazu, dass beide Seiten der Verbindung beim Aufbau der Kommunikation die Identität des Verbindungspartners überprüfen können. Dadurch sollen Man-in-the-Middle-Angriffe und teilweise auch Phishing verhindert werden. Technik. Syntaktisch ist HTTPS identisch mit dem Schema für HTTP, die zusätzliche Verschlüsselung der Daten geschieht mittels TLS: Unter Verwendung des SSL-Handshake-Protokolls findet zunächst eine geschützte Identifikation und Authentifizierung der Kommunikationspartner statt. Anschließend wird mit Hilfe asymmetrischer Verschlüsselung oder des Diffie-Hellman-Schlüsselaustauschs ein gemeinsamer symmetrischer Sitzungsschlüssel ausgetauscht. Dieser wird schließlich zur Verschlüsselung der Nutzdaten verwendet. Der Standard-Port für HTTPS-Verbindungen ist 443. Neben den Server-Zertifikaten können auch signierte Client-Zertifikate nach X.509.3 erstellt werden. Das ermöglicht eine Authentifizierung der Clients gegenüber dem Server, wird jedoch selten eingesetzt. Eine ältere Protokollvariante von HTTPS war S-HTTP. Client-Verarbeitung. Mit der Entwicklung von HTTPS durch Netscape wurde das Protokoll und die anwenderseitige Client-Software schon früh in Webbrowser integriert. Damit ist meist keine weitere Installation gesonderter Software notwendig. Eine HTTPS-Verbindung wird durch eine https-URL angewählt und durch das SSL-Logo angezeigt – beim Internet Explorer 6 ein Schloss-Icon in der Statusleiste, bei Mozilla zusätzlich in der Adresszeile, die bei Firefox, aktuellen Opera- und Internet-Explorer-7-Browsern zusätzlich gelb hinterlegt wird, bei Apple Safari 3.0 durch ein kleines Schloss-Symbol in der obersten rechten Ecke des Browserfensters. Varianten der HTTPS-Anwahl. Nach Anwahl der HTTPS-Adresse soll der Client-Browser dem Anwender zuerst das Zertifikat anzeigen, sofern es nicht automatisch über bereits akzeptierte Zertifikate überprüft werden kann. Dieser entscheidet nun, gegebenenfalls nach Prüfung über die angegebenen Links, ob er dem Zertifikat für diese Sitzung vertraut, ggf. es auch permanent speichert. Andernfalls wird die HTTPS-Verbindung nicht hergestellt („Diese Seite verlassen“ bei Firefox bzw. „Klicken Sie hier um diese Seite zu verlassen.“ beim Internet Explorer). Vorinstallierte Zertifikate. Um diese für Unkundige eventuell irritierende Abfrage zu vermeiden, wurde mit der Zeit eine Reihe von Root-Zertifikaten von den Browserherstellern akzeptiert, die schon bei der Installation eingetragen werden. Webseiten, die entsprechende Zertifikate haben, werden dann, ebenso wie davon abgeleitete Unter-Zertifikate, bei Aufruf ohne Nachfrage akzeptiert. Ob ein Root-Zertifikat dem Browser bekannt ist, hängt von der Browser-Version ab; zudem wird die Liste der Zertifikate teils auch online im Rahmen der Systemaktualisierung auf den neuesten Stand gebracht, so bei Microsoft Windows. Mit dem Internet Explorer 7 hat Microsoft, kurz danach auch Mozilla mit dem Firefox 3, die Warnung bei nicht eingetragenen Zertifikaten verschärft: Erschien vorher nur ein Pop-up „Sicherheitshinweis“, das nach Name, Quelle und Laufzeit des Zertifikats differenzierte, so wird nun der Inhalt der Webseite ausgeblendet und eine Warnung angezeigt, mit der Empfehlung, die Seite nicht zu benutzen. Um diese sehen zu können, muss der Anwender dann explizit eine „Ausnahme hinzufügen“. Ein nicht im Browser eingetragenes Zertifikat wird damit für Massenanwendungen zunehmend untauglich. Die Frage, welche Zertifikate in die Browser aufgenommen werden, hat in der Open-Source-Community fallweise zu längeren Diskussionen geführt, so zwischen CAcert, einem Anbieter kostenloser Zertifikate, und der Mozilla Foundation, siehe CAcert (Vertrauenswürdigkeit). Server-Voraussetzungen. Als Software zum Betrieb eines HTTPS-fähigen Webservers wird eine SSL-Bibliothek wie OpenSSL benötigt. Diese wird häufig bereits mitgeliefert oder kann als Modul installiert werden. Der HTTPS-Service wird üblicherweise auf Port 443 bereitgestellt. Zertifikat. Weiterhin ist ein digitales Zertifikat für SSL notwendig: Ein Binärdokument, das im Allgemeinen von einer – selbst wiederum zertifizierten – Zertifizierungsstelle (CA von) ausgestellt wird, das den Server und die Domain eindeutig identifiziert. Bei der Beantragung werden dazu etwa die Adressdaten und die Firmierung des Antragstellers geprüft. In den registrierten Root-Chains eingetragene Zertifikate werden typischerweise zu Preisen zwischen 39 und 1200 US-$ pro Jahr angeboten, wobei fallweise weitere Dienste, Siegel oder Versicherungen enthalten sind. Eine Reihe von Zertifizierungsstellen gibt kostenlos Zertifikate aus. Die etwa von StartCom ausgestellten Zertifikate werden dabei von fast allen modernen Browsern ohne Fehlermeldung akzeptiert. Ebenfalls kostenlose Zertifikate erstellt CAcert, wo es bisher jedoch nicht gelang, in die Liste der vom Browser automatisch akzeptierten Zertifikate aufgenommen zu werden; siehe oben. Ein solches Zertifikat muss daher bei der Client-Verarbeitung vom Anwender manuell importiert werden; dieses Verhalten kann aber auch erwünscht sein. Auch ist es möglich, selbst-signierte Zertifikate (engl.) zu verwenden, die ohne Beteiligung einer gesonderten Instanz erstellt wurden und ebenfalls manuell bestätigt werden müssen. Ein so erstelltes Zertifikat ist aber nur dann sicher, wenn es vor der Erstverwendung dem Anwender auf einem sicheren Weg zugestellt und von ihm in seine Client-Anwendung importiert wurde. Wurde der beschriebene sichere Erstzustellungsprozess nicht durchgeführt, sind Verbindungen mit dem betroffenen Zertifikat verwundbar durch einen Man-in-the-middle-Angriff. Um veraltete oder unsicher gewordene Zertifikate für ungültig zu erklären, sind Zertifikatsperrlisten (engl., "CRL") vorgesehen. Die Konzeption sieht vor, dass diese Listen regelmäßig etwa von Browsern geprüft und darin gesperrte Zertifikate ab sofort abgewiesen werden. Das Verfahren ist jedoch nicht durchgängig organisiert und wird praktisch nur wenig genutzt. Zu Angriffen auf das Zertifikatsystem, siehe unten. Extended-Validation-Zertifikat. Vor dem Hintergrund zunehmender Phishing-Angriffe auf HTTPS-gesicherte Webanwendungen hat sich 2007 in den USA das CA/Browser Forum gebildet, das aus Vertretern von Zertifizierungsorganisationen und den Browser-Herstellern Google, KDE, Microsoft, Mozilla und Opera besteht. Im Juni 2007 wurde daraufhin eine erste gemeinsame Richtlinie verabschiedet, das Extended-Validation-Zertifikat, kurz EV-SSL in Version 1.0, im April 2008 dann Version 1.1. Ein Domain-Betreiber muss für dieses Zertifikat weitere Prüfungen akzeptieren: Während bisher nur die Erreichbarkeit des Admins (per Telefon und E-Mail) zu prüfen war, wird nun die Postadresse des Antragstellers überprüft und bei Firmen die Prüfung auf zeichnungsberechtigte Personen vorgenommen. Damit sind auch deutlich höhere Kosten verbunden. Für den Anwender macht sich das EV-Zertifikat durch eine zusätzliche weiß auf grün unterlegte Firma in der Adresszeile des neueren Browsers (ab 2007, also etwa Firefox 3 und IE7), rechts vom Site-Logo, bemerkbar. Durch das Ausbleiben der (für diese Site) gewohnten grünen Farbe soll der Anwender dann gefälschte HTTPS-Sites schnell und ggf. auch intuitiv – also ohne spezielle Schulung – erkennen können. IP-Adresse. Zum Betrieb eines HTTPS-Webservers war lange Zeit eine eigene IP-Adresse pro Hostname notwendig. Bei unverschlüsseltem HTTP ist das nicht erforderlich: Seitdem Browser den Hostnamen im HTTP-Header mitsenden, können mehrere virtuelle Webserver mit je eigenem Hostnamen auf einer IP-Adresse bedient werden, zum Beispiel bei Apache über den "NameVirtualHost"-Mechanismus. Dieses Verfahren wird inzwischen bei der weit überwiegenden Zahl der Domains benutzt, da hier der Domain-Eigner selbst keinen Server betreibt. Da bei HTTPS jedoch der Webserver für jeden Hostnamen ein eigenes Zertifikat ausliefern muss, der Hostname aber erst nach erfolgtem SSL-Handshake in der höheren HTTP-Schicht übertragen wird, ist das Deklarieren des Hostnamens im HTTP-Header hier nicht anwendbar. Die Information muss daher bereits beim SSL-Handshake übermittelt werden, was seit TLS 1.2 mithilfe von Server Name Indication (SNI) realisiert wird. Zuvor war eine Unterscheidung nur anhand der Port-Kombination möglich; ein anderer Port als 443 wird wiederum von vielen Proxys nicht akzeptiert. Zuvor nutzten einige Provider einen Workaround um ihren Kunden auch HTTPS ohne eigene IP-Adresse zu ermöglichen, der gelegentlich als „shared SSL“ bezeichnet wird. Einige Provider nutzten hierfür wildcard Zertifikate, die für alle Subdomains einer Domain gültig sind, in Verbindung mit kundenspezifischen Subdomains. Andere Provider nutzten einen „SSL Proxy“, der die Anfragen über eine von mehren Kunden genutzte Domain leitete. Durch die Verbreitung von SNI sind diese Techniken bedeutungslos geworden. Leistung. 2010 verursachte die Verschlüsselung bei Gmail weniger als 1 % der CPUs-Last, weniger als 1 KB Arbeitsspeicherbedarf pro Verbindung und weniger als 2 % des Netzwerk-Datenverkehrs. 10 Jahre vorher belastete der Rechenaufwand der Verschlüsselung die Server noch stark. Auch durch diese geringen Kosten ist die Nutzung von HTTPS in den letzten Jahren stark gestiegen. Die Liste der vom Server unterstützten Verschlüsselungsalgorithmen wird serverseitig konfiguriert. Der Client wählt dann den ersten von ihm unterstützten Algorithmus aus dieser Liste aus. Um Rechenzeit zu sparen, werden auf Servern mit hohem Datenverkehr bevorzugt Strom-Chiffren eingesetzt, da diese weniger rechenintensiv sind als Block-Chiffren wie AES oder Camellia. Viele der dabei lange Zeit genutzten Verfahren wie RC4 gelten als unsicher und werden daher ab 2016 von den großen Webbrowsern nicht mehr unterstützt. Zur Entlastung der Server-CPU werden auch Hardware-SSL-Beschleuniger ("SSL accelerators") angeboten: PCI-Steckkarten mit speziellen, optimierten Prozessoren, die aus der SSL-Bibliothek angesprochen werden. Daneben gibt es auch eigenständige Geräte, meist in Rack-Bauweise, die Teile des HTTP-Datenstroms automatisch verschlüsseln. Weiterhin werden Server mit programmierbaren Recheneinheiten angeboten, die mit entsprechenden SSL-Bibliotheken höhere Leistung als vergleichbar aufwendige Universal-CPUs erreichen, so die MAU ("Modular Arithmetic Unit") von Sun. Diese spezielle Hardware steht aber im engen Wettbewerb mit der stetigen Entwicklung der Multiprozessor- und Multi-Core-Systeme der großen CPU-Hersteller Intel und AMD. Angriffe und Schwachstellen. Mit den allgemein zunehmenden Kenntnissen über die HTTPS-Technik haben sich auch die Angriffe auf SSL-gesicherte Verbindungen gehäuft. Daneben sind durch Recherche und Forschungen Lücken in der Umsetzung bekannt geworden. Dabei ist grundsätzlich zu unterscheiden zwischen Schwachstellen bei der Verschlüsselung selbst und im Zertifikatsystem. Am 5. September 2013 wurde im Zusammenhang mit der globalen Überwachungs- und Spionageaffäre bekannt, dass die NSA sich über beide Angriffskanäle Zugang durch ein Programmsystem namens Bullrun verschafft hat. Verschlüsselung. Die bei SSL eingesetzten Verschlüsselungsverfahren werden unabhängig von ihrem Einsatzzweck regelmäßig überprüft und gelten als mathematisch sicher, d. h. sie lassen sich theoretisch mit den heute bekannten Techniken nicht brechen. Die Zuverlässigkeit der Algorithmen wird regelmäßig etwa durch Wettbewerbe unter Kryptologen überprüft. Regelmäßig werden in den Spezifikationen und den Implementierungen die Unterstützung veralteter Verschlüsselungsverfahren, die nach dem aktuellen Stand der Technik als nicht mehr sicher gelten, gestrichen und neue Verfahren aufgenommen. Probleme entstanden in der Vergangenheit mehrfach durch fehlerhafte Implementierung der Kryptologie. Insbesondere Schwachstellen in der weit verbreiten OpenSSL-Bibliothek wie Heartbleed haben dabei große öffentliche Aufmerksamkeit erfahren. Da in der Regel Benutzer nicht explizit eine verschlüsselte Verbindung durch Spezifizierung des HTTPS-Protokolls ("https://") beim Aufruf einer Webseite anfordern, kann ein Angreifer eine Verschlüsselung der Verbindung bereits vor Initialisierung unterbinden und einen Man in the Middle-Angriff ausführen. Als Schutz vor solchen Angriffen wurde der Standard HTTP Strict Transport Security (HSTS) entwickelt. Zertifikatsystem. SSL-Verbindungen sind grundsätzlich gefährdet durch Man-in-the-middle-Angriffe, bei denen der Angreifer den Datenverkehr zwischen Client und Server abfängt, indem dieser sich beispielsweise als Zwischenstelle ausgibt. Eine Reihe von Angriffsverfahren setzen voraus, dass sich der Angreifer im Netzwerk des Opfers befindet. Beim DNS-Spoofing wiederum bestehen diese Voraussetzungen nicht. Um sich als (anderer) Server auszugeben, muss der Angreifer auch ein Zertifikat vorweisen. Das ist ihm beispielsweise dann möglich, wenn es ihm gelingt, in das System einer Zertifizierungsstelle einzudringen, oder er anderweitig in den Besitz eines Zertifikats kommt, mit dem sich beliebige andere Zertifikate ausstellen lassen. Insbesondere bei einflussreichen Angreifern, wie etwa Regierungsbehörden, können solche Möglichkeiten bestehen, da mitunter auch staatliche Zertifizierungsstellen existieren. HTTP Public Key Pinning soll solche Angriffe erschweren. Phishing und HTTPS. Ein Nachteil der automatischen Bestätigung der Zertifikate besteht darin, dass der Anwender eine HTTPS-Verbindung nicht mehr bewusst wahrnimmt. Das wurde in jüngerer Zeit bei Phishing-Angriffen ausgenutzt, die etwa Online-Banking-Anwendungen simulieren und dem Anwender eine sichere Verbindung vortäuschen, um eingegebene PIN/TAN-Codes „abzufischen“. Als Reaktion wiesen betroffene Unternehmen ihre Kunden darauf hin, keine Links aus E-Mails anzuklicken und https-URLs nur manuell oder per Lesezeichen einzugeben. Wegen der teils oberflächlichen Prüfungen bei der Vergabe von Zertifikaten wurde von den Browserherstellern das "extended-validation-Cert" eingeführt, siehe oben. Gemischte Inhalte. Das Nachladen unverschlüsselter Ressourcen ermöglicht einem Angreifer mittels einer Man in the Middle-Attacke Schadcode in die ursprünglich verschlüsselt übertragene Webseite einzuschleusen. Daher blockieren aktuelle Versionen gängiger Webbrowser das Nachladen unverschlüsselter Ressourcen standardmäßig. Ebenso besteht bei einem sowohl für verschlüsselte als auch unverschlüsselte Verbindungen genutzten HTTP-Cookie das Risiko eines Session Hijacking, auch wenn die Authentifizierung über eine verschlüsselte Verbindung erfolgte. Angriffe auf das Zertifikatsystem. Im Rahmen des 25. Chaos Communication Congress in Berlin wurde im Dezember 2008 ein erfolgreicher Angriff auf das SSL-Zertifikatsystem veröffentlicht. In internationaler Zusammenarbeit von Kryptologen und mit Einsatz speziell programmierter Hardware – einem Cluster aus 200 Playstation-3-Spielkonsolen – war es gelungen, im MD5-Algorithmus eine Kollision zu erzeugen, auf deren Basis ein Angreifer sich selbst beliebige Zertifikate ausstellen könnte. Von der Verwendung des MD5-Algorithmus wurde in Fachkreisen vorher schon abgeraten, bei EV-Zertifikaten kann er ohnehin nicht verwendet werden. Die meisten Webbrowser akzeptieren schon seit 2011 keine MD5-Zertifikate mehr. Um ähnliche Probleme zu vermeiden, kündigten die Browser-Hersteller bereits an, Zertifikate die SHA1 nutzen nur noch eine beschränkte Zeit zu unterstützen. Heiliges Römisches Reich. Heiliges Römisches Reich () war die offizielle Bezeichnung für den Herrschaftsbereich der römisch-deutschen Kaiser vom Spätmittelalter bis 1806. Der Name des Reiches leitet sich vom Anspruch der mittelalterlichen römisch-deutschen Herrscher ab, die Tradition des antiken Römischen Reiches fortzusetzen und die Herrschaft als Gottes heiligen Willen im christlichen Sinne zu legitimieren. Das Reich bildete sich im 10. Jahrhundert unter der Dynastie der Ottonen aus dem ehemals karolingischen Ostfrankenreich heraus. Das Gebiet des Ostfrankenreichs wurde erstmals im 11. Jahrhundert in den Quellen als "Regnum Teutonicum" oder "Regnum Teutonicorum" ("Königreich der Deutschen") bezeichnet; es handelte sich aber nicht um den offiziellen Reichstitel. Der Name "Sacrum Imperium" ist für 1157 und der Titel "Sacrum Romanum Imperium" für 1254 erstmals urkundlich belegt. Der Zusatz Deutscher Nation (lateinisch "Nationis Germanicæ") wurde ab dem späten 15. Jahrhundert gebraucht. Zur Unterscheidung vom 1871 gegründeten Deutschen Reich wird es auch als "römisch-deutsches Reich" oder (ab der Frühen Neuzeit) als das "Alte Reich" bezeichnet. Aufgrund seines vor- und übernationalen Charakters entwickelte sich das Reich nie zu einem Nationalstaat oder Staat moderner Prägung, sondern blieb ein monarchisch geführtes, ständisch geprägtes Gebilde aus Kaiser und Reichsständen mit nur wenigen gemeinsamen Reichsinstitutionen. Die Ausdehnung und die Grenzen des Heiligen Römischen Reiches veränderten sich im Laufe der Jahrhunderte erheblich. In seiner größten Ausdehnung umfasste das Reich fast das gesamte Gebiet des heutigen Mittel- und Teile Südeuropas. Es bestand seit dem frühen 11. Jahrhundert aus drei Reichsteilen: Dem nordalpinen (deutschen) Reichsteil sowie Reichsitalien und – bis zum faktischen Verlust im ausgehenden Spätmittelalter – Burgund (auch als "Arelat" bezeichnet). Seit der Frühen Neuzeit war das Reich strukturell nicht mehr zu offensiver Kriegsführung, Machterweiterung und Expansion fähig. Seither wurden Rechtsschutz und Friedenswahrung als seine wesentlichen Zwecke angesehen. Das Reich sollte für Ruhe, Stabilität und die friedliche Lösung von Konflikten sorgen, indem es die Dynamik der Macht eindämmte: Untertanen sollte es vor der Willkür der Landesherren und kleinere Reichsstände vor Rechtsverletzungen mächtigerer Stände und des Kaisers schützen. Da seit dem Westfälischen Frieden von 1648 auch benachbarte Staaten als Reichsstände in seine Verfassungsordnung integriert waren, erfüllte das Reich zudem eine friedenssichernde Funktion im System der europäischen Mächte. Das Reich konnte seit der Mitte des 18. Jahrhunderts seine Glieder immer weniger gegen die expansive Politik innerer und äußerer Mächte schützen. Dies trug wesentlich zu seinem Untergang bei. Durch die Napoleonischen Kriege und die daraus resultierende Gründung des Rheinbunds war es nahezu handlungsunfähig geworden. Das "Heilige Römische Reich Deutscher Nation" erlosch am 6. August 1806 mit der Niederlegung der Reichskrone durch Kaiser Franz II. Charakter des Reiches. Das "Heilige Römische Reich" ist aus dem Ostfränkischen Reich entstanden. Es war ein vor- und übernationales Gebilde, ein Lehnsreich und Personenverbandsstaat, der sich niemals zu einem Nationalstaat wie etwa Frankreich oder Großbritannien entwickelte und aus ideengeschichtlichen Gründen auch nie als solcher verstanden werden wollte. Der konkurrierende Gegensatz von Bewusstsein in den Stammesherzogtümern bzw. später in den Territorien und dem supranationalen Einheitsbewusstsein wurde im Heiligen Römischen Reich nie ausgetragen oder aufgelöst, ein übergreifendes Nationalgefühl entwickelte sich nicht. Die Geschichte des Reiches war geprägt durch den Streit über seinen Charakter, welcher sich – da die Machtverhältnisse innerhalb des Reiches keineswegs statisch waren – im Verlauf der Jahrhunderte immer wieder veränderte. Ab dem 12. und 13. Jahrhundert ist eine Reflexion über das politische Gemeinwesen zu beobachten, die sich zunehmend an abstrakten Kategorien orientiert. Mit dem Aufkommen von Universitäten und einer steigenden Anzahl ausgebildeter Juristen stehen sich hier über mehrere Jahrhunderte die aus der antiken Staatsformenlehre übernommenen Kategorien "Monarchie" und "Aristokratie" gegenüber. Das Reich ließ sich jedoch nie eindeutig einer der beiden Kategorien zuordnen, da die Regierungsgewalt des Reiches weder allein in der Hand des Kaisers noch allein bei den Kurfürsten oder der Gesamtheit eines Personenverbandes wie dem Reichstag lag. Vielmehr vereinte das Reich Merkmale beider Staatsformen in sich. So kam auch im 17. Jahrhundert Samuel Pufendorf in seiner unter Pseudonym veröffentlichten Schrift "De statu imperii" zu dem Schluss, dass das Reich ein irreguläres „Monstrum“ eigener Art sei. Bereits seit dem 16. Jahrhundert rückte dann immer mehr der Begriff der Souveränität in den Mittelpunkt. Die hierauf aufbauende Unterscheidung zwischen Bundesstaat (bei dem die Souveränität beim Gesamtstaat liegt) und Staatenbund (der ein Bund souveräner Staaten ist) ist jedoch eine ahistorische Betrachtungsweise, da der feste Bedeutungsgehalt dieser Kategorien sich erst später einstellte. Auch ist sie in Bezug auf das Reich nicht aufschlussreich, da sich das Reich wiederum keiner der beiden Kategorien zuordnen ließ: Ebenso wenig wie es dem Kaiser jemals gelang, den regionalen Eigenwillen der Territorien zu brechen, ist es in einen losen Staatenbund zerfallen. Das Reich überwölbte als „Dachverband“ viele Territorien und gab dem Zusammenleben der verschiedenen Landesherren reichsrechtlich vorgegebene Rahmenbedingungen. Diese quasi-selbstständigen, aber nicht souveränen Fürsten- und Herzogtümer erkannten den Kaiser als zumindest ideelles Reichsoberhaupt an und waren den Reichsgesetzen, der Reichsgerichtsbarkeit und den Beschlüssen des Reichstages unterworfen, gleichzeitig aber auch durch Königswahl, Wahlkapitulation, Reichstage und andere ständische Vertretungen an der Reichspolitik beteiligt und konnten diese für sich beeinflussen. Im Gegensatz zu anderen Ländern waren die Bewohner nicht direkt dem Kaiser untertan, sondern dem Landesherrn des jeweiligen reichsunmittelbaren Territoriums. Im Falle der Reichsstädte war dies der Magistrat der Stadt. Voltaire beschrieb die Diskrepanz zwischen dem Namen des Reiches und seiner ethnisch-politischen Realität in seiner späten Phase (seit der Frühen Neuzeit) mit dem Satz: "„Dieser Korpus, der sich immer noch Heiliges Römisches Reich nennt, ist in keiner Weise heilig, noch römisch, noch ein Reich.“" Montesquieu beschrieb das Reich in seinem 1748 erschienenen Werk "Vom Geist der Gesetze" als "„république fédérative d’Allemagne“", als ein föderativ verfasstes Gemeinwesen Deutschlands. Der Name des Reiches. Teil des Krönungsmantels, Zeichnung Schönbrunner, 1857 Durch den Namen wurde der Anspruch auf die Nachfolge des antiken Römischen Reiches und damit gleichsam auf eine Universalherrschaft erhoben. Gleichzeitig fürchtete man das Eintreffen der Prophezeiungen des Propheten Daniel, der vorhergesagt hatte, dass es vier Weltreiche geben und danach der Antichrist auf die Erde kommen würde (Vier-Reiche-Lehre) – die Apokalypse sollte beginnen. Da in der Vier-Reiche-Lehre das (antike) Römische Imperium als viertes Reich gezählt wurde, durfte es nicht untergehen. Die Erhöhung durch den Zusatz „Heilig“ betonte das Gottesgnadentum des Kaisertums und legitimierte die Herrschaft durch göttliches Recht. Mit der Krönung des Frankenkönigs Karl des Großen zum Kaiser durch Papst Leo III. im Jahr 800 stellte dieser sein Reich in die Nachfolge des antiken römischen Imperiums, die so genannte "Translatio Imperii". Geschichtlich und dem eigenen Selbstverständnis nach gab es allerdings schon ein Reich, das aus dem alten römischen Reich entstanden war, nämlich das christlich-orthodoxe byzantinische Reich; nach Ansicht der Byzantiner war das neue westliche „Römische Reich“ ein selbsternanntes und illegitimes. Das Reich trug zum Zeitpunkt seiner Entstehung Mitte des 10. Jahrhunderts noch nicht das Prädikat heilig. Der erste Kaiser Otto I. und seine Nachfolger sahen sich selbst als Stellvertreter Gottes auf Erden und wurden damit als erste Beschützer der Kirche angesehen. Es bestand also keine Notwendigkeit, die "Heiligkeit" des Reiches besonders hervorzuheben. Das Reich hieß weiterhin "Regnum Francorum orientalium" oder kurz "Regnum Francorum." In den Kaisertitulaturen der Ottonen tauchen die später auf das gesamte Reich übertragenen Namensbestandteile aber schon auf. So findet sich in den Urkunden Ottos II. aus dem Jahre 982, die während seines Italienfeldzuges entstanden, die Titulatur "Romanorum imperator augustus," „Kaiser der Römer“. Und Otto III. erhöhte sich in seiner Titulatur über alle geistlichen und weltlichen Mächte, indem er sich, analog zum Papst und sich damit über diesen erhebend, demutsvoll „Knecht Jesu Christi“ ("servus Jesu Christi") und später sogar „Knecht der Apostel“ ("servus apostolorum") nannte. Diese sakrale Ausstrahlung des Kaisertums wurde vom Papsttum im Investiturstreit von 1075 bis 1122 massiv angegriffen und letztlich weitgehend zerstört. Die Heiligsprechung Karls des Großen 1165 und der Begriff des "sacrum imperium", der erstmals 1157 in der Kanzlei Friedrichs I. bezeugt ist, wurden in der Forschung als Versuch gedeutet, „das Reich durch eine eigenständige Heiligkeit von der Kirche abzugrenzen und ihr als gleichwertig gegenüberzustellen“. Die Heiligkeit sei demnach ein „Säkularisierungsvorgang“. Friedrich berief sich jedoch nie auf seinen heiligen Vorgänger Karl und das "sacrum imperium" wurde kein offizieller Sprachgebrauch zu Friedrichs Zeiten. "Regnum Teutonicum" oder "Regnum Teutonicorum" tauchen als Eigenbezeichnung in den Quellen erstmals in den 70er Jahren des 11. Jahrhunderts auf. Die Begriffe wurden bereits zu Beginn des 11. Jahrhunderts in italienischen Quellen gebraucht, allerdings nicht von Autoren in Reichsitalien. Es handelte sich auch um keinen offiziellen Reichstitel, der deshalb in der Kanzlei der mittelalterlichen römisch-deutschen Könige in der Regel nicht verwendet wurde. Der Titel "rex Teutonicus" wurde vom Papsttum gezielt genutzt, um somit indirekt den Universalanspruch des "rex Romanorum" auf Herrschaftsrechte außerhalb des deutschen Reichsteils (wie im Arelat und in Reichsitalien) zu bestreiten bzw. zu relativieren. In der päpstlichen Kanzleisprache wurde deshalb während des Investiturstreits bewusst eine Titulatur benutzt, die die römisch-deutschen Könige selbst nicht verwendeten. Später wurden Bezeichnungen wie "regnum Teutonicum" weiterhin als „Kampfbegriffe“ benutzt, um Herrschaftsansprüche der römisch-deutschen Könige zu bestreiten, wie beispielsweise im 12. Jahrhundert von Johannes von Salisbury. Die römisch-deutschen Könige hingegen bestanden gerade deshalb auf ihre Titulatur "rex Romanorum" und auf die Bezeichnung des Reiches als "Romanum Imperium". Im sogenannten Interregnum von 1250 bis 1273, als es keinem der drei gewählten Könige gelang, sich gegen die anderen durchzusetzen, verband sich der Anspruch, der Nachfolger des Römischen Reiches zu sein, mit dem Prädikat heilig zur Bezeichnung "Sacrum Romanum Imperium" (deutsch "Heiliges Römisches Reich"). Die lateinische Wendung "Sacrum Imperium Romanum" ist erstmals 1254 belegt, in deutschsprachigen Urkunden trat sie rund hundert Jahre später seit der Zeit Kaiser Karls IV. auf. Im Spätmittelalter wurde am Universalanspruch des Reiches weiterhin festgehalten. Dies galt nicht nur für die Zeit des sogenannten Interregnums, sondern auch für das 14. Jahrhundert, als es in der Regierungszeit Heinrichs VII. und Ludwigs IV. wieder zu Spannungen bzw. offenen Konflikten mit der päpstlichen Kurie kam. Die Formulierung "Imperium Sanctum" ist bereits im spätantiken Römerreich vereinzelt belegt. Der Zusatz "Nationis Germanicæ" erschien erst im Spätmittelalter, als sich das Reich im Wesentlichen auf das Gebiet des deutschen Sprachraumes erstreckte. 1486 wurde diese Titulatur im Landfriedensgesetz Kaiser Friedrichs III. verwendet. Erstmals offiziell verwendet wurde dieser Zusatz 1512 in der Präambel des Abschieds des Reichstages in Köln. Kaiser Maximilian I. hatte die Reichsstände unter anderem zwecks "Erhaltung […] des Heiligen Römischen Reiches Teutscher Nation" geladen. Die genaue ursprüngliche Bedeutung des Zusatzes ist nicht ganz klar. Es kann eine territoriale Einschränkung gemeint sein, nachdem der Einfluss des Kaisers in den Reichsteilen Italien und Burgund auf einen faktischen Nullpunkt gesunken war bzw. (in Burgund) weite Teile nun von Frankreich beansprucht wurden. Andererseits klingt auch eine Betonung der Trägerschaft des Reiches durch die deutschen Reichsstände an, die ihren Anspruch auf die Reichsidee verteidigen sollte. Gegen Ende des 16. Jahrhunderts verschwand die Formulierung wieder aus dem offiziellen Gebrauch, wurde aber bis zum Ende des Reiches noch gelegentlich in der Literatur verwendet. Das lateinische Wort "natio" bedeutete bis ins 18. Jahrhundert nicht „Volk“, sondern bezeichnete den „Ort der Geburt“ (im Gegensatz zu "gens" = Sippe, Stamm, Volk). Die Formulierung "nationis Germanicæ" schließt also an die Vorstellung von der "translatio imperii" an. Bis 1806 war "Heiliges Römisches Reich" die offizielle Bezeichnung des Reiches, die oft als "SRI" für "Sacrum Romanum Imperium" auf lateinisch oder "H. Röm. Reich" o. Ä. auf Deutsch abgekürzt wurde. Daneben sind in der Neuzeit auch Bezeichnungen wie "Teutsches Reich" umgangssprachlich und vereinzelt im Schrifttum gebräuchlich. Erst die beiden letzten großen Rechtsakte das Reich betreffend, der Reichsdeputationshauptschluss von 1803 und die Auflösungserklärung Kaiser Franz II., verwenden jedoch dann den Begriff "deutsches Reich" auch in offizieller Funktion für das Heilige Römische Reich. Bereits kurz nach seiner Auflösung wurde in geschichtswissenschaftlichen Abhandlungen das Heilige Römische Reich wieder vermehrt mit dem Zusatz "deutscher Nation" versehen, und so bürgerte sich im 19. und 20. Jahrhundert diese ursprünglich nur zeitweilige Bezeichnung nicht ganz korrekt als allgemeiner Name des Reiches ein. Daneben wird es auch das "Alte Reich" genannt, um es vom späteren deutschen Kaiserreich ab 1871 zu unterscheiden. Entstehung des Reiches. Die Gebietsaufteilung des Fränkischen Reiches im Vertrag von Verdun (Wirten) 843 Das Fränkische Reich hatte nach dem Tode Karls des Großen 814 mehrfach Teilungen und Wiedervereinigungen der Reichsteile unter seinen Kindern und Enkeln durchlaufen. Solche Teilungen unter den Söhnen eines Herrschers waren nach fränkischem Recht normal und bedeuteten nicht, dass die Einheit des Reiches aufhörte zu existieren, da eine gemeinsame Politik der Reichsteile und eine künftige Wiedervereinigung weiterhin möglich waren. Starb einer der Erben kinderlos, so fiel dessen Reichsteil einem seiner Brüder zu oder wurde unter diesen aufgeteilt. Solch eine Teilung wurde auch im Vertrag von Verdun 843 unter den Enkeln Karls beschlossen. Das Reich wurde aufgeteilt zwischen Karl dem Kahlen, der den westlichen Teil mit gallo-romanischer Stammbevölkerung bis etwa zur Maas erhielt, Ludwig dem Deutschen – er erhielt den östlichen, germanisch geprägten Reichsteil – und Lothar I., der den eher fränkisch geprägten mittleren Streifen von der Nordsee bis zum nördlichen Teil Italiens (bis etwa Rom) sowie die Kaiserwürde erhielt. Wenngleich hier, von den Beteiligten nicht beabsichtigt, die zukünftige Landkarte Europas erkennbar ist, kam es im Laufe der nächsten fünfzig Jahre zu weiteren, meist kriegerischen Wiedervereinigungen und Teilungen zwischen den Teilreichen. Erst als Karl der Dicke 887 wegen seines Versagens beim Abwehrkampf gegen die plündernden und raubenden Normannen abgesetzt wurde, wurde kein neues Oberhaupt aller Reichsteile mehr bestimmt, sondern die verbliebenen Teilreiche wählten sich eigene Könige. Diese gehörten teilweise nicht mehr der Dynastie der Karolinger an. Dies war ein deutliches Zeichen für das Auseinanderdriften der Reichsteile und das auf dem Tiefpunkt angekommene Ansehen der Karolingerdynastie, die das Reich durch Thronstreitigkeiten in Bürgerkriege stürzte und nicht mehr in der Lage war, es in seiner Gesamtheit gegen äußere Bedrohungen zu schützen. Infolge der nun fehlenden dynastischen Klammer zerfiel das Reich in zahlreiche kleine Grafschaften, Herzogtümer und andere regionale Herrschaften, die meist nur noch formal die regionalen Könige als Oberhoheit anerkannten. Besonders deutlich zerfiel 888 der mittlere Reichsteil in mehrere unabhängige Kleinkönigreiche, darunter Hoch- und Niederburgund sowie Italien (während Lothringen als Unterkönigreich dem Ostreich angegliedert wurde), deren Könige sich mit der Unterstützung lokaler Adliger gegen karolingische Prätendenten durchgesetzt hatten. Im östlichen Reich wählten die lokalen Adligen auf Stammesebene Herzöge. Nach dem Tod Ludwigs des Kindes, des letzten Karolingers auf dem ostfränkischen Thron, hätte das Ostreich ebenfalls in Kleinreiche zerfallen können, wenn dieser Prozess nicht durch die gemeinsame Wahl Konrads I. zum ostfränkischen König aufgehalten worden wäre. Konrad gehörte zwar nicht der Dynastie der Karolinger an, war aber ein Franke aus dem Geschlecht der Konradiner. Lothringen schloss sich bei dieser Gelegenheit jedoch dem Westfrankenreich an. 919 wurde mit dem Sachsenherzog Heinrich I. in Fritzlar erstmals ein Nicht-Franke zum König des Ostfrankenreiches gewählt. Seit diesem Zeitpunkt trug nicht mehr eine einzige Dynastie das Reich, sondern die regionalen Großen, Adligen und Herzöge entschieden über den Herrscher. Im Jahre 921 erkannte der westfränkische Herrscher im Vertrag von Bonn Heinrich I. als gleichberechtigt an, er durfte den Titel "rex francorum orientalium," König der östlichen Franken, führen. Die Entwicklung des Reiches als eines auf Dauer eigenständigen und überlebensfähigen Staatswesens war damit im Wesentlichen abgeschlossen. 925 gelang es Heinrich, Lothringen wieder dem ostfränkischen Reich anzugliedern. Trotz der Ablösung vom Gesamtreich und der Vereinigung der germanischen Völkerschaften, die im Gegensatz zum gewöhnlichen Volk Westfrankens kein romanisiertes Latein, sondern "theodiscus" oder "diutisk" (von "diot" volksmäßig, volkssprachig) sprachen, war dieses Reich kein früher „deutscher Nationalstaat“. Ein übergeordnetes „nationales“ Zusammengehörigkeitsgefühl existierte in Ostfranken ohnehin nicht, Reichs- und Sprachgemeinschaft waren nicht identisch. Genauso wenig war es bereits das spätere Heilige Römische Reich. Das steigende Selbstbewusstsein des neuen ostfränkischen Königsgeschlechtes zeigte sich bereits in der Thronbesteigung Ottos I., Sohn Heinrichs I., der auf dem vermeintlichen Thron Karls des Großen in Aachen gekrönt wurde. Hier zeigte sich der zunehmend sakrale Charakter seiner Herrschaft dadurch, dass er sich salben ließ und der Kirche seinen Schutz gelobte. Nach einigen Kämpfen gegen Verwandte und lothringische Herzöge gelang ihm mit dem Sieg über die Ungarn 955 auf dem Lechfeld bei Augsburg die Bestätigung und Festigung seiner Herrschaft. Noch auf dem Schlachtfeld soll ihn das Heer laut Widukind von Corvey als "Imperator" gegrüßt haben. Dieser Sieg über die Ungarn veranlasste Papst Johannes XII., Otto nach Rom zu rufen und ihm die Kaiserkrone anzubieten, damit dieser als Beschützer der Kirche auftrete. Johannes stand zu diesem Zeitpunkt unter der Bedrohung regionaler italienischer Könige und erhoffte sich von Otto Hilfe gegen diese. Aber der Hilferuf des Papstes bekundet auch, dass die ehemaligen "Barbaren" sich zu den Trägern der römischen Kultur gewandelt hatten und dass das östliche "regnum" als legitimer Nachfolger des Kaisertums Karls des Großen angesehen wurde. Otto folgte dem Ruf und zog nach Rom. Dort wurde er am 2. Februar 962 zum Kaiser gekrönt. West- und Ostfranken entwickelten sich nun politisch endgültig zu getrennten Reichen. Das Reich unter den Ottonen. Das Reich war im Frühmittelalter ein im Vergleich zum Hoch- und Spätmittelalter ständisch und gesellschaftlich noch wenig ausdifferenziertes Gebilde. Es wurde sichtbar im Heeresaufgebot, in den lokalen Gerichtsversammlungen und in den Grafschaften, den bereits von den Franken installierten lokalen Verwaltungseinheiten. Oberster Repräsentant der politischen Ordnung des Reiches, zuständig für den Schutz des Reiches und den Frieden im Inneren, war der König. Als politische Untereinheiten dienten die Herzogtümer. Wichtig war bis ins Spätmittelalter der Konsens zwischen Herrscher und den Großen des Reiches (konsensuale Herrschaft). Ebenso wird in der neueren Forschung die Rolle von Ritualen und Inszenierung von Herrschaft betont (symbolische Kommunikation). Obwohl in der frühkarolingischen Zeit um 750 die fränkischen Amtsherzöge für die durch die Franken unterworfenen oder durch deren territorialen Zusammenfassung erst entstandenen Völker abgesetzt worden waren, entstanden im ostfränkischen Reich, begünstigt durch die äußere Bedrohung und das erhalten gebliebene Stammesrecht, zwischen 880 und 925 fünf neue Herzogtümer: das der Sachsen, der Baiern, der Alemannen, der Franken und das nach der Reichsteilung neu entstandene Herzogtum Lothringen, zu dem auch die Friesen gehörten. Doch schon im 10. Jahrhundert ergaben sich gravierende Änderungen der Struktur der Herzogtümer: Lothringen wurde 959 in Nieder- und Oberlothringen aufgeteilt und Kärnten wurde 976 ein eigenständiges Herzogtum. Da das Reich als Instrument der selbstbewussten Herzogtümer entstanden war, wurde es nicht mehr zwischen den Söhnen des Herrschers aufgeteilt und blieb zudem eine Wahlmonarchie. Die Nichtaufteilung des „Erbes“ zwischen den Söhnen des Königs widersprach zwar dem überkommenen fränkischen Recht. Andererseits beherrschten die Könige die Stammesherzöge nur als Lehnsherren, dementsprechend gering war die direkte Einwirkungsmöglichkeit des Königtums. Heinrich I. legte 929 in seiner „Hausordnung“ fest, dass nur ein Sohn auf dem Thron nachfolgen solle. Schon hier werden der das Reich bis zum Ende der Salier-Dynastie prägende Erbgedanke und das Prinzip der Wahlmonarchie miteinander verbunden. Otto I. (reg. 936–973) gelang es infolge mehrerer Feldzüge nach Italien, den nördlichen Teil der Halbinsel zu erobern und das Königreich der Langobarden ins Reich einzubinden. Eine vollständige Integration Reichsitaliens mit seiner überlegenen Wirtschaftskraft gelang allerdings auch in der Folgezeit nie wirklich vollständig. Außerdem band die im Süden notwendige Präsenz bisweilen recht erhebliche Kräfte. Die Kaiserkrönung Ottos 962 in Rom verband für das restliche Mittelalter den Anspruch der späteren römisch-deutschen Könige auf die westliche Kaiserwürde. Die Ottonen übten nun eine hegemoniale Machtstellung im lateinischen Europa aus. a>. München, Bayerische Staatsbibliothek, Clm 4452, fol. 2r Unter Otto II. lösten sich auch die letzten verbliebenen Verbindungen zum westfränkisch-französischen Reich, die in Form von Verwandtschaftsbeziehungen noch bestanden, als er seinen Vetter Karl zum Herzog von Niederlotharingien machte. Karl war ein Nachkomme aus dem Geschlecht der Karolinger und gleichzeitig der jüngere Bruder des westfränkischen Königs Lothar. Es wurde aber nicht – wie später in der Forschung behauptet – ein „treuloser Franzose“ ein Lehnsmann eines „deutschen“ Königs. Solche Denkkategorien waren zu jener Zeit noch unbekannt, zumal die führende fränkisch-germanische Schicht des westfränkischen Reiches noch einige Zeit nach der Teilung weiterhin ihren altdeutschen Dialekt sprach. In der neueren Forschung wird die Ottonenzeit auch nicht mehr als Beginn der „deutschen Geschichte“ im engeren Sinne verstanden; dieser Prozess zog sich bis ins 11. Jahrhundert hin. Otto II. spielte jedenfalls den einen Vetter gegen den anderen aus, um für sich einen Vorteil zu erlangen, indem er einen Keil in die karolingische Familie trieb. Die Reaktion Lothars war heftig, und beide Seiten luden den Streit emotional auf. Die Folgen dieses endgültigen Bruches zwischen den Nachfolgern des Fränkischen Reiches zeigten sich aber erst später. Das französische Königtum wurde aufgrund des sich herausbildenden französischen Selbstbewusstseins aber nunmehr als unabhängig vom Kaiser angesehen. Die unter den ersten drei Ottonen begonnene Einbindung der Kirche in das weltliche Herrschaftssystem des Reiches, später von Historikern als „Ottonisch-salisches Reichskirchensystem“ bezeichnet, fand unter Heinrich II. ihren Höhepunkt. Das Reichskirchensystem bildete bis zum Ende des Reiches eines der prägenden Elemente seiner Verfassung; die Einbindung der Kirche in die Politik war aber an sich nicht außergewöhnlich, dasselbe ist in den meisten frühmittelalterlichen Reichen des lateinischen Europas zu beobachten. Heinrich II. verlangte von den Klerikern unbedingten Gehorsam und die unverzügliche Umsetzung seines Willens. Er vollendete die Königshoheit über die Reichskirche und wurde zum „Mönchskönig“ wie kaum ein zweiter Herrscher des Reiches. Doch er regierte nicht nur die Kirche, er regierte das Reich auch durch die Kirche, indem er wichtige Ämter – wie etwa das des Kanzlers – mit Bischöfen besetzte. Weltliche und kirchliche Angelegenheiten wurden im Grunde genommen nicht unterschieden und gleichermaßen auf Synoden verhandelt. Dies resultierte aber nicht nur aus dem Bestreben, dem aus fränkisch-germanischer Tradition herrührenden Drang der Herzogtümer nach größerer Selbstständigkeit ein königstreues Gegengewicht entgegenzusetzen. Vielmehr sah Heinrich das Reich als „Haus Gottes“ an, das er als Verwalter Gottes zu betreuen hatte. Spätestens jetzt war das Reich „heilig“. Hochmittelalter. Als dritter wichtiger Reichsteil kam unter Konrad II. das Königreich Burgund zum Reich, auch wenn diese Entwicklung schon unter Heinrich II. begonnen hatte: Da der burgundische König Rudolf III. keine Nachkommen besaß, benannte er seinen Neffen Heinrich zu seinem Nachfolger und stellte sich unter den Schutz des Reiches. 1018 übergab er sogar seine Krone und das Zepter an Heinrich. Die Herrschaft Konrads war weiterhin durch die sich entwickelnde Vorstellung gekennzeichnet, dass das Reich und dessen Herrschaft unabhängig vom Herrscher existiert und Rechtskraft entwickelt. Belegt ist dies durch die von Wipo überlieferte „Schiffsmetapher“ Konrads (siehe entsprechenden Abschnitt im Artikel über Konrad II.) und durch seinen Anspruch auf Burgund – denn eigentlich sollte ja Heinrich Burgund erben und nicht das Reich. Unter Konrad begann auch die Herausbildung der Ministerialen als eigener Stand des unteren Adels, indem er an die unfreien Dienstmannen des Königs Lehen vergab. Wichtig für die Entwicklung des Rechtes im Reich waren seine Versuche, die so genannten Gottesurteile als Rechtsmittel durch die Anwendung römischen Rechtes, dem diese Urteile unbekannt waren, im nördlichen Reichsteil zurückzudrängen. Konrad setzte zwar die Reichskirchenpolitik seines Vorgängers fort, allerdings nicht mit dessen Vehemenz. Er beurteilte die Kirche eher danach, was diese für das Reich tun konnte. In der Mehrzahl berief er Bischöfe und Äbte mit großer Intelligenz und Spiritualität. Der Papst spielte allerdings auch bei seinen Berufungen keine große Rolle. Insgesamt erscheint seine Herrschaft als große „Erfolgsgeschichte“, was wohl auch daran liegt, dass er in einer Zeit herrschte, in der allgemein eine Art Aufbruchsstimmung herrschte, die Ende des 11. Jahrhunderts in die Cluniazensische Reform mündete. Heinrich III. übernahm 1039 von seinem Vater Konrad ein gefestigtes Reich und musste sich im Gegensatz zu seinen beiden Vorgängern seine Macht nicht erst erkämpfen. Trotz kriegerischer Aktionen in Polen und Ungarn legte er sehr großen Wert auf die Friedenswahrung innerhalb des Reiches. Diese Idee eines allgemeinen Friedens, eines Gottesfriedens, entstand in Südfrankreich und hatte sich seit Mitte des 11. Jahrhunderts über das ganze christliche Abendland verbreitet. Damit sollten das Fehdewesen und die Blutrache eingedämmt werden, die immer mehr zu einer Belastung für das Funktionieren des Reiches geworden waren. Initiator dieser Bewegung war das cluniazensische Mönchstum. Wenigstens an den höchsten christlichen Feiertagen und an den Tagen, die durch die Passion Christi geheiligt waren, also von Mittwochabend bis Montagmorgen, sollten die Waffen schweigen und der „Gottesfrieden“ herrschen. Heinrich musste für die Zustimmung der Großen des Reiches bei der Wahl seines Sohnes, des späteren Heinrich IV., zum König 1053 eine bis dahin völlig unbekannte Bedingung akzeptieren. Die Unterordnung unter den neuen König sollte nur gelten, wenn sich Heinrich IV. als rechter Herrscher erweise. Auch wenn die Macht der Kaiser über die Kirche mit Heinrich III. auf einem ihrer Höhepunkte war – er war es gewesen, der über die Besetzung des heiligen Throns in Rom bestimmte –, so wird die Bilanz seiner Herrschaft in der neueren Forschung meist negativ gesehen. So emanzipierte sich Ungarn vom Reich, das vorher noch Reichslehen war, und mehrere Verschwörungen gegen den Kaiser zeigten den Unwillen der Großen des Reiches, sich einem starken Königtum unterzuordnen. Entscheidend für die zukünftige Stellung der Reichskirche wurde der so genannte Investiturstreit. Für die römisch-deutschen Herrscher war es selbstverständlich, dass sie die vakanten Bischofssitze im Reich neu besetzten. Durch die Schwäche des Königtums während der Regentschaft von Heinrichs Mutter hatten der Papst, aber auch geistliche und weltliche Fürsten versucht, sich königliche Besitzungen und Rechte anzueignen. Die späteren Versuche, der Königsmacht wieder Geltung zu verschaffen, trafen natürlich auf wenig Gegenliebe. Als Heinrich im Juni 1075 versuchte, seinen Kandidaten für den Mailänder Bischofssitz durchzusetzen, reagierte Papst Gregor VII. sofort. Im Dezember 1075 bannte Gregor König Heinrich und entband damit alle Untertanen von ihrem Treueid. Die Fürsten des Reiches forderten von Heinrich, dass er bis Februar 1077 den Bann lösen lassen sollte, ansonsten würde er von ihnen nicht mehr anerkannt. Im anderen Falle würde der Papst eingeladen, den Streit zu entscheiden. Heinrich IV. musste sich beugen und demütigte sich im legendären Gang nach Canossa. Die Machtpositionen hatten sich in ihr Gegenteil verkehrt; 1046 hatte Heinrich III. noch über drei Päpste gerichtet, nun sollte ein Papst über den König richten. Der Sohn Heinrichs IV. empörte sich mit Hilfe des Papstes gegen seinen Vater und erzwang 1105 dessen Abdankung. Der neue König Heinrich V. herrschte bis 1111 im Konsens mit den geistlichen und weltlichen Großen. Das enge Bündnis zwischen Herrscher und Bischöfen konnte auch bei der Investiturfrage gegen den Papst fortgesetzt werden. Die gefundene Lösung des Papstes war einfach und radikal. Um die von den Kirchenreformern geforderte Trennung der geistlichen Aufgaben der Bischöfe von den bisher wahrgenommenen weltlichen Aufgaben zu gewährleisten, sollten die Bischöfe ihre in den letzten Jahrhunderten vom Kaiser beziehungsweise König erhaltenen Rechte und Privilegien zurückgeben. Einerseits entfielen damit die Pflichten der Bischöfe gegenüber dem Reich, andererseits auch das Recht des Königs, bei der Einsetzung der Bischöfe Einfluss nehmen zu können. Da die Bischöfe aber nicht auf ihre weltlichen Regalien verzichten wollten, nahm Heinrich den Papst gefangen und erpresste das Investiturrecht sowie seine Kaiserkrönung. Erst die Fürsten erzwangen 1122 im Wormser Konkordat einen Ausgleich zwischen Heinrich mit dem amtierenden Papst Calixt II. Heinrich musste auf das Investiturrecht mit den geistlichen Symbolen von Ring und Stab ("per anulum et baculum") verzichten. Dem Kaiser wurde die Anwesenheit bei der Wahl der Bischöfe und Äbte gestattet. Die Verleihung der Königsrechte (Regalien) an den Neugewählten durfte der Kaiser nur noch mit dem Zepter vornehmen. Die Fürsten gelten seitdem als „die Häupter des Staatswesens“. Nicht mehr allein der König, sondern auch die Fürsten repräsentierten das Reich. Nach dem Tod Heinrichs V. 1125 wurde Lothar III. zum König gewählt, wobei er sich in der Wahl gegen den schwäbischen Herzog Friedrich II., den nächsten Verwandten des kinderlos verstorbenen Kaisers, durchsetzen konnte. Nicht mehr die erbrechtliche Legitimation bestimmte die Thronfolge im römisch-deutschen Reich, sondern die Wahl der Fürsten war entscheidend. 1138 wurde der Staufer Konrad zum König erhoben. Konrads Wunsch, die Kaiserkrone zu erwerben, sollte sich jedoch nicht erfüllen. Auch seine Teilnahme am Zweiten Kreuzzug hatte keinen Erfolg, er musste noch in Kleinasien umkehren. Dafür gelang ihm ein gegen die Normannen gerichtetes Bündnis mit dem byzantinischen Kaiser Manuel I. Komnenos. 1152 wurde nach dem Tod Konrads dessen Neffe Friedrich, der Herzog von Schwaben, zum König gewählt. Friedrich, genannt „Barbarossa“, betrieb eine zielstrebige Politik, die auf die Rückgewinnung kaiserlicher Rechte in Italien gerichtet war (siehe "honor imperii"), deretwegen Friedrich insgesamt sechs Italienzüge unternahm. 1155 wurde er zum Kaiser gekrönt, doch kam es aufgrund eines nicht erfolgten, aber vertraglich zugesicherten Feldzugs gegen das Normannenreich in Unteritalien zu Spannungen mit dem Papsttum, ebenso verschlechterten sich die Beziehungen zu Byzanz. Auch die oberitalienischen Stadtstaaten, besonders das reiche und mächtige Mailand, leisteten Friedrichs Versuchen Widerstand, die Reichsverwaltung in Italien zu stärken (siehe Reichstag von Roncaglia). Es kam schließlich zur Bildung des sogenannten Lombardenbundes, der sich militärisch gegen den Staufer durchaus behaupten konnte. Gleichzeitig war es zu einer umstrittenen Papstwahl gekommen, wobei der mit der Mehrheit der Stimmen gewählte Papst Alexander III. von Friedrich zunächst nicht anerkannt wurde. Erst nachdem abzusehen war, dass eine militärische Lösung keine Aussicht auf Erfolg hatte (1167 hatte im kaiserlichen Heer vor Rom eine Seuche gewütet, 1176 Niederlage in der Schlacht von Legnano), kam es endlich im Frieden von Venedig 1177 zu einer Einigung zwischen Kaiser und Papst. Auch die oberitalienischen Städte und der Kaiser verständigten sich, wobei Friedrich jedoch längst nicht alle seine Ziele verwirklichen konnte. Im Reich hatte sich der Kaiser mit seinem Cousin Heinrich überworfen, dem Herzog von Sachsen und Bayern aus dem Hause der Welfen, nachdem beide über zwei Jahrzehnte eng zusammengearbeitet hatten. Als Heinrich nun jedoch seine Teilnahme an einem Italienzug an Bedingungen knüpfte, wurde der übermächtige Herzog Heinrich auf Bestreben der Fürsten durch Friedrich gestürzt. 1180 wurde Heinrich der „Prozess“ gemacht und das Herzogtum Sachsen zerschlagen sowie Bayern verkleinert, wovon jedoch weniger der Kaiser als vielmehr die Territorialherren im Reich profitierten. Der Kaiser verstarb im Juni 1190 in Kleinasien während eines Kreuzzugs. Seine Nachfolge trat sein zweitältester Sohn Heinrich VI. an. Dieser war schon 1186 von seinem Vater zum "Caesar" erhoben worden und galt seitdem als designierter Nachfolger Friedrichs. 1191, im Jahr seiner Kaiserkrönung, versuchte Heinrich, das Normannenkönigreich in Unteritalien und Sizilien in Besitz zu nehmen. Da er mit einer Normannenprinzessin verheiratet war und das dort herrschende Haus Hauteville in der Hauptlinie ausgestorben war, konnte er auch Ansprüche geltend machen, die militärisch zunächst aber nicht durchsetzbar waren. Erst 1194 gelang die Eroberung Unteritaliens, wo Heinrich mit teils äußerster Brutalität gegen oppositionelle Kräfte vorging. In Deutschland hatte Heinrich gegen den Widerstand der Welfen zu kämpfen – 1196 scheiterte sein Erbreichsplan. Dafür betrieb er eine ehrgeizige und recht erfolgreiche „Mittelmeerpolitik“, deren Ziel vielleicht die Eroberung des Heiligen Landes oder womöglich sogar eine Offensive gegen Byzanz war. Nach dem frühen Tod Heinrichs VI. 1197 scheiterte der letzte Versuch, im Reich eine starke Zentralgewalt zu schaffen. Nach der Doppelwahl von 1198, bei der Philipp von Schwaben im März in Mühlhausen/Thüringen und Otto IV. im Juni in Köln gewählt wurden, standen sich zwei Könige im Reich gegenüber. Der Sohn Heinrichs, Friedrich II., war zwar schon 1196 im Alter von zwei Jahren zum König gewählt worden, seine Ansprüche wurden aber beiseite gewischt. Philipp hatte sich schon weitgehend durchgesetzt, als er im Juni 1208 ermordet wurde. Otto IV. konnte sich daraufhin für einige Jahre als Herrscher etablieren. Seine geplante Eroberung Siziliens führte zum Bruch mit seinem langjährigen Förderer Papst Innozenz III. Im nordalpinen Reichsteil verlor Otto durch die Exkommunikation bei den Fürsten zunehmend an Zustimmung. Die Schlacht bei Bouvines 1214 beendete seine Herrschaft und brachte die endgültige Anerkennung Friedrichs II. Nach den Thronstreitigkeiten setzte im Reich ein erheblicher Entwicklungsschub ein, Gewohnheiten schriftlich festzuhalten. Als bedeutende Zeugnisse dafür gelten die beiden Rechtsbücher der Sachsen- und der Schwabenspiegel. Viele Argumente und Grundsätze, die für die folgenden Königswahlen gelten sollten, wurden in jener Zeit formuliert. Diese Entwicklung gipfelte Mitte des 14. Jahrhunderts nach den Erfahrungen des Interregnums in den Festlegungen der Goldenen Bulle. Dass sich Friedrich II., der 1212 nach Deutschland gereist war, um dort seine Rechte durchzusetzen, auch nach seiner Anerkennung nur wenige Jahre seines Lebens und damit seiner Regierungszeit im deutschen Reich aufhielt, gab den Fürsten wieder mehr Handlungsspielräume. Friedrich verbriefte 1220 besonders den geistlichen Fürsten in der Confoederatio cum principibus ecclesiasticis weitgehende Rechte, um sich von ihnen die Zustimmung zur Wahl und Anerkennung seines Sohnes Heinrich als römisch-deutscher König zu sichern. Die seit dem 19. Jahrhundert als Confoederatio cum principibus ecclesiasticis und Statutum in favorem principum (1232) genannten Privilegien bildeten für die Fürsten die rechtliche Grundlage, auf der sie ihre Macht zu geschlossenen, eigenständigen Landesherrschaften ausbauen konnten. Es waren jedoch weniger Stationen des Machtverlustes für das Königtum, sondern mit den Privilegien wurde ein Entwicklungsstand verbrieft, den die Fürsten im Ausbau ihrer Territorialherrschaft bereits erreicht hatten. In Italien war der hochgebildete Friedrich II., der die Verwaltung des Königreichs Sizilien nach byzantinischem Vorbild immer stärker zentralisierte, über Jahre in einen Konflikt mit dem Papsttum und den oberitalienischen Städten verwickelt, wobei Friedrich gar als Anti-Christ verunglimpft wurde. Am Ende schien Friedrich militärisch die Oberhand gewonnen zu haben, da verstarb der Kaiser, der vom Papst 1245 für abgesetzt erklärt worden war, am 13. Dezember 1250. Spätmittelalter. Das Reich zur Zeit Kaiser Karls IV. Zu Beginn des Spätmittelalters verfiel im Zuge des Untergangs der Staufer und des darauffolgenden Interregnums bis in die Zeit Rudolfs von Habsburg die königliche Herrschaftsgewalt, die allerdings traditionell ohnehin nur schwach ausgeprägt gewesen war. Gleichzeitig nahm die Macht der Landesherren und Kurfürsten zu. Letztere verfügten seit dem späten 13. Jahrhundert über das ausschließliche Königswahlrecht, sodass die nachfolgenden Könige oft eine übereinstimmende Reichspolitik mit ihnen anstrebten. König Rudolf (1273–1291) gelang es noch einmal, das Königtum zu konsolidieren und das noch vorhandene Reichsgut infolge der sogenannten Revindikationspolitik zu sichern. Rudolfs Plan der Kaiserkrönung scheiterte jedoch ebenso wie sein Versuch, eine dynastische Nachfolge durchzusetzen, wozu die Reichsfürsten nicht bereit waren. Das Haus Habsburg gewann im Südosten des deutschen Reichsteils jedoch bedeutende Besitzungen hinzu. Rudolfs Nachfolger Adolf von Nassau suchte eine Annäherung an das mächtige Königreich Frankreich, doch provozierte er mit seiner Politik in Thüringen den Widerstand der Reichsfürsten, die sich gegen ihn zusammenschlossen. 1298 fiel Adolf von Nassau im Kampf gegen den neuen König Albrecht von Habsburg. Albrecht musste ebenfalls mit dem Widerstand der Kurfürsten kämpfen, denen seine Pläne zur Vergrößerung der habsburgischen Hausmacht missfielen und die befürchteten, er plane eine Erbmonarchie zu errichten. Gegen die Kurfürsten konnte sich Albrecht letztlich zwar noch behaupten, doch unterwarf er sich Papst Bonifatius VIII. in einem Gehorsamseid und gab im Westen Reichsgebiete an Frankreich ab. Am 1. Mai 1308 fiel er einem Verwandtenmord zum Opfer. Die verstärkte französische Expansion im westlichen Grenzgebiet des Imperiums seit dem 13. Jahrhundert hatte zur Folge, dass die Einflussmöglichkeiten des Königtums im ehemaligen Königreich Burgund immer weiter abnahm; eine ähnliche, aber weniger stark ausgeprägte Tendenz zeichnete sich in Reichsitalien (also im Wesentlichen in der Lombardei und der Toskana) ab. Erst mit dem Italienzug Heinrichs VII. (1310–1313) kam es zu einer zaghaften Wiederbelebung der kaiserlichen Italienpolitik. Der 1308 gewählte und 1309 gekrönte König Heinrich VII. erreichte in Deutschland eine weitgehende Einheit der großen Häuser und gewann 1310 für sein Haus das Königreich Böhmen. Das Haus Luxemburg stieg damit zur zweiten bedeutenden spätmittelalterlichen Dynastie neben den Habsburgern auf. 1310 brach Heinrich nach Italien auf. Er war nach Friedrich II. der erste römisch-deutsche König, der auch die Kaiserkrone erlangen konnte (Juni 1312), doch rief seine Politik den Widerstand der Guelfen in Italien, des Papstes in Avignon (siehe Avignonesisches Papsttum) und des französischen Königs hervor, die ein neues, machtbewusstes Kaisertum als Gefahr ansahen. Heinrich starb am 24. August 1313 in Italien, als er zu einem Feldzug gegen das Königreich Neapel aufbrechen wollte. Die Italienpolitik der folgenden spätmittelalterlichen Herrscher verlief in wesentlich engeren Grenzen als die ihrer Vorgänger. 1314 wurden mit dem Wittelsbacher Ludwig IV. und dem Habsburger Friedrich zwei Könige gewählt. 1325 wurde für kurze Zeit ein für das mittelalterliche Reich bislang völlig unbekanntes Doppelkönigtum geschaffen. Nach Friedrichs Tod betrieb Ludwig IV. als Alleinherrscher eine recht selbstbewusste Politik in Italien und vollzog in Rom eine „papstfreie“ Kaiserkrönung. Dadurch geriet er in Konflikt mit dem Papsttum. In dieser intensiven Auseinandersetzung spielte vor allem die Frage des päpstlichen Approbationsanspruches eine große Rolle. Es kam diesbezüglich auch zu polittheoretischen Debatten (siehe Wilhelm von Ockham und Marsilius von Padua) und schließlich zu einer verstärkten Emanzipation der Kurfürsten beziehungsweise des Königs vom Papsttum, was schließlich 1338 im Kurverein von Rhense seinen Ausdruck fand. Ludwig verfolgte seit den 1330er Jahren eine intensive Hausmachtpolitik, indem er zahlreiche Territorien erwarb. Damit missachtete er aber die konsensuale Entscheidungsfindung mit den Fürsten. Dies führte vor allem zu Spannungen mit dem Haus Luxemburg, die ihn 1346 mit der Wahl Karls von Mähren offen heraus forderten. Ludwig starb kurz darauf und Karl bestieg als Karl IV. den Thron. Die spätmittelalterlichen Könige konzentrierten sich wesentlich stärker auf den deutschen Reichsteil, wobei sie sich gleichzeitig stärker als zuvor auf ihre jeweilige Hausmacht stützten. Dies resultierte aus dem zunehmenden Verlust des verbliebenen Reichsguts durch eine ausgiebige Verpfändungspolitik vor allem im 14. Jahrhundert. Karl IV. kann als ein Musterbeispiel eines Hausmachtpolitikers angeführt werden. Es gelang ihm, den luxemburgische Hausmachtkomplex um wichtige Gebiete zu erweitern; er verzichtete dafür aber auf Reichsgüter, die in großem Maßstab verpfändet wurden und schließlich dem Reich verloren gingen, und gab ebenso Gebiete im Westen an Frankreich ab. Karl erzielte dafür einen weitgehenden Ausgleich mit dem Papsttum und ließ sich 1355 zum Kaiser krönen, verzichtete aber auf eine Wiederaufnahme der alten Italienpolitik im staufischen Stil. Er schuf aber vor allem mit der Goldenen Bulle von 1356 eines der wichtigsten „Reichsgrundgesetze“, in dem die Rechte der Kurfürsten endgültig festgelegt wurden und die maßgeblich die künftige Politik des Reiches mitbestimmten. Die Goldene Bulle blieb bis zur Auflösung des Reiches in Kraft. In Karls Regierungszeit fiel auch der Ausbruch des so genannten "Schwarzen Todes" – der Pest –, die zu einer schweren Krisenstimmung beitrug und in deren Verlauf es zu einem deutlichen Rückgang der Bevölkerung und zu Judenpogromen kam. Gleichzeitig stellte diese Zeit aber auch die Blütezeit der Hanse dar, die zu einer Großmacht im nordeuropäischen Raum wurde. Das Heilige Römische Reich um 1400 Mit dem Tod Karls IV. 1378 ging die Machtstellung der Luxemburger im Reich bald verloren, da der von ihm geschaffene Hausmachtskomplex rasch zerfiel. Sein Sohn Wenzel wurde wegen seiner offensichtlichen Unfähigkeit sogar von den vier rheinischen Kurfürsten am 20. August 1400 abgesetzt. Statt seiner wurde der Pfalzgraf bei Rhein, Ruprecht, zum neuen König gewählt. Seine Machtbasis und Ressourcen waren jedoch viel zu gering, um eine wirkungsvolle Regierungstätigkeit entfalten zu können, zumal die Luxemburger sich mit dem Verlust der Königswürde nicht abfanden. Nach Ruprechts Tod 1410 gelangte schließlich mit Sigismund, der bereits seit 1387 König von Ungarn war, der letzte Luxemburger auf den Thron. Sigismund hatte mit erheblichen Problemen zu kämpfen, zumal er im Reich über keine Hausmacht mehr verfügte, erlangte aber 1433 die Kaiserwürde. Der politische Aktionsradius Sigismunds reichte bis weit in den Balkanraum und nach Osteuropa hinein. Hinzu traten in dieser Zeit kirchenpolitische Probleme wie das Abendländische Schisma, das erst unter Sigismund unter Rückgriff auf den Konziliarismus beseitigt werden konnte. Mit dem Tod Sigismunds 1437 erlosch das Haus Luxemburg in direkter Linie. Die Königswürde ging auf Sigismunds Schwiegersohn Albrecht II. und damit auf die Habsburger über, die sie fast durchgehend bis zum Ende des Reiches behaupten konnten. Friedrich III. hielt sich längere Zeit aus den direkten Reichsgeschäften weitgehend heraus und hatte politisch mit einigen Problemen zu kämpfen, wie dem Konflikt mit dem ungarischen König Matthias Corvinus. Friedrich sicherte aber letztlich die habsburgische Machtstellung im Reich, die habsburgischen Ansprüche auf größere Teil des zerfallenen Herrschaftskomplexes des Hauses Burgund und die Königsnachfolge für seinen Sohn Maximilian. Das Reich durchlief in dieser Zeit zudem einen Struktur- und Verfassungswandel, in einem Prozess „gestalteter Verdichtung“ (Peter Moraw) wurden die Beziehungen zwischen den Reichsgliedern und dem Königtum enger. Reichsreform. Von Historikern wird das frühneuzeitliche Kaisertum des Reiches als Neuanfang und Neuaufbau angesehen und keinesfalls als Widerschein der staufischen hochmittelalterlichen Herrschaft. Denn der Widerspruch zwischen der beanspruchten Heiligkeit, dem globalen Machtanspruch des Reiches und den realen Möglichkeiten des Kaisertums war in der zweiten Hälfte des 15. Jahrhunderts zu deutlich geworden. Dies löste eine publizistisch unterstützte Reichsverfassungsbewegung aus, die zwar die alten „heilen Zustände“ wieder aufleben lassen sollte, letztendlich aber zu durchgreifenden Innovationen führte. Unter den Habsburgern Maximilian I. und Karl V. kam das Kaisertum nach seinem Niedergang wieder zu Anerkennung, das Amt des Kaisers wurde fest mit der neu geschaffenen Reichsorganisation verbunden. Der Reformbewegung entsprechend initiierte Maximilian 1495 eine umfassende Reichsreform, die einen Ewigen Landfrieden, eines der wichtigsten Vorhaben der Reformbefürworter, und eine reichsweite Steuer, den Gemeinen Pfennig, vorsah. Zwar gelang es nicht vollständig, diese Reformen umzusetzen, denn von den Institutionen, die aus ihr hervorgingen, hatten nur die neugebildeten Reichskreise und das Reichskammergericht Bestand. Dennoch war die Reform die Grundlage für das neuzeitliche Reich. Es erhielt mit ihr ein wesentlich präziseres Regelsystem und ein institutionelles Gerüst. So förderte etwa die Möglichkeit, vor dem Reichskammergericht einen Untertanenprozess gegen seine Landesherrschaft anzustrengen, friedliche Konfliktlösungen im Reich. Das nunmehr festgelegte Zusammenspiel zwischen Kaiser und Reichsständen sollte prägend für die Zukunft werden. Der Reichstag bildete sich ebenfalls zu jener Zeit heraus und war bis zu seinem Ende das zentrale politische Forum des Reiches. Reformation und Religionsfrieden. "Setzen demnach, ordnen, wöllen und gebieten. daß hinfüro niemands, was Würden, Stands oder Wesen der sey, um keinerley Ursachen willen, wie die Namen, haben möchten, auch in was gesuchtem Schein das geschehe, den andern bevehden, bekriegen, berauben, fahen, überziehen, belägern, auch darzu für sich selbs oder jemands andern von seinetwegen nit dienen, noch einig Schloß, Städt, Marckt, Befestigung, Dörffer, Höffe und Weyler absteigen oder ohn des andern Willen mit gewaltiger That freventlich einnehmen oder gefährlich mit Brand oder in andere Wege beschädigen" §14 (Landfriedensformel) des Augsburger Reichs- und Religionsfriedens Die erste Hälfte des 16. Jahrhunderts war auf der einen Seite geprägt durch eine weitere Verrechtlichung und damit eine weitere Verdichtung des Reiches, so beispielsweise durch Erlasse von Reichspolizeiordnungen 1530 und 1548 und der Constitutio Criminalis Carolina im Jahre 1532. Auf der anderen Seite wirkte die in dieser Zeit durch die Reformation entstandene Glaubensspaltung desintegrierend. Dass sich einzelne Regionen und Territorien von der alten römischen Kirche abwandten, stellte das Reich, nicht zuletzt wegen seines Heiligkeitsanspruches, vor eine Zerreißprobe. Das Wormser Edikt von 1521, in dem die Reichsacht (nach dem päpstlichen Kirchenbann "Decet Romanum Pontificem") über Martin Luther quasi obligatorisch verhängt wurde, bot noch keinerlei Spielräume für eine reformationsfreundliche Politik. Da das Edikt nicht im ganzen Reich beachtet wurde, wichen schon die Entscheidungen der nächsten Reichstage davon ab. Die meist ungenauen und zweideutigen Kompromissformeln der Reichstage waren Anlass für neuen juristischen Streit. So erklärte beispielsweise der Nürnberger Reichstag von 1524, alle sollten das Wormser Edikt, "so vil inen muglich" sei, befolgen. Eine endgültige Friedenslösung konnte allerdings nicht gefunden werden, man hangelte sich von einem meist zeitlich befristeten Kompromiss zum nächsten. Befriedigend war diese Situation für keine der beiden Seiten. Die evangelische Seite besaß keine Rechtssicherheit und lebte mehrere Jahrzehnte in der Angst vor einem Religionskrieg. Die katholische Seite, insbesondere Kaiser Karl V., wollte eine dauerhafte Glaubensspaltung des Reiches nicht hinnehmen. Karl V., der anfangs den Fall Luther nicht richtig ernst nahm und seine Tragweite nicht erkannte, wollte diese Situation nicht akzeptieren, da er sich, wie die mittelalterlichen Herrscher, als Wahrer der einen wahren Kirche ansah. Das universale Kaisertum brauchte die universale Kirche. Nach langem Zögern verhängte Karl im Sommer 1546 über die Anführer des evangelischen Schmalkaldischen Bundes die Reichsacht und leitete die militärische Reichsexekution ein. Diese Auseinandersetzung ging als Schmalkaldischer Krieg von 1547/48 in die Geschichte ein. Nach dem Sieg des Kaisers mussten die protestantischen Fürsten auf dem Geharnischten Augsburger Reichstag von 1548 das so genannte Augsburger Interim annehmen, das ihnen immerhin den Laienkelch und die Priesterehe zugestand. Dieser für die protestantischen Reichsstände recht glimpfliche Ausgang des Krieges war dem Umstand geschuldet, dass Karl neben religionspolitischen Zielen auch verfassungspolitische verfolgte, die zu einem Aushebeln der ständischen Verfassung und einer Quasi-Zentralregierung des Kaisers geführt hätten. Diese zusätzlichen Ziele brachten ihm den Widerstand der katholischen Reichsstände ein, so dass keine für ihn befriedigende Lösung der Religionsfrage möglich wurde. Die religiösen Auseinandersetzungen im Reich waren in die Konzeption Karls V. eines umfassenden habsburgischen Reiches eingebunden, einer "monarchia universalis," die Spanien, die österreichischen Erblande und das Heilige Römische Reich umfassen sollte. Es gelang ihm aber weder, das Kaisertum erblich zu machen, noch die Kaiserkrone zwischen der österreichischen und spanischen Linie der Habsburger hin- und herwechseln zu lassen. Der Fürstenkrieg des sächsischen Kurfürsten Moritz von Sachsen gegen Karl V. und der daraus resultierende Passauer Vertrag von 1552 zwischen den Kriegsfürsten und dem späteren Kaiser Ferdinand I. waren erste Schritte hin zu einem dauerhaften Religionsfrieden im Reich, was 1555 zum Augsburger Reichs- und Religionsfrieden führte. Der damit zumindest vorerst erfolgte Ausgleich wurde auch durch die dezentralisierte Herrschaftsstruktur des Reichs ermöglicht, wo die Interessen der Landesherren und des Kaisertums immer wieder eine Konsensfindung notwendig machten, wohingegen es in Frankreich mit seiner zentralisierten Königsmacht während des 16. Jahrhunderts zu einem blutigen Kampf zwischen dem katholischen Königtum und einzelnen protestantischen Anführern kam. Titelseite des Drucks des Reichsabschieds von Augsburg, Mainz 1555 Der Frieden von Augsburg war aber nicht nur als Religionsfrieden wichtig, er besaß auch eine bedeutsame verfassungspolitische Rolle, indem durch die Schaffung der Reichsexekutionsordnung wichtige verfassungspolitische Weichenstellungen getroffen wurden. Diese Schritte waren durch den im fränkischen Raum von 1552 bis 1554 tobenden Zweiten Markgrafenkrieg des Kulmbacher Markgrafen Albrecht Alcibiades von Brandenburg-Kulmbach notwendig geworden. Albrecht erpresste Geld und sogar Gebiete von verschiedenen fränkischen Reichsgebieten. Kaiser Karl V. verurteilte dies nicht, er nahm Albrecht sogar in seine Dienste und legitimierte damit den Bruch des Ewigen Landfriedens. Da sich die betroffenen Territorien weigerten, den vom Kaiser bestätigten Raub ihrer Gebiete hinzunehmen, verwüstete Albrecht deren Land. Im nördlichen Reich formierten sich derweilen Truppen unter Moritz von Sachsen, um Albrecht zu bekämpfen. Ein Reichsfürst und später König Ferdinand, nicht der Kaiser hatten militärische Gegenmaßnahmen gegen den Friedensbrecher eingeleitet. Am 9. Juli 1553 kam es zur blutigsten Schlacht der Reformationszeit im Reich, der Schlacht bei Sievershausen, bei der Moritz von Sachsen starb. Die auf dem Reichstag zu Augsburg 1555 beschlossene Reichsexekutionsordnung beinhaltete die verfassungsmäßige Schwächung der kaiserlichen Gewalt, die Verankerung des reichsständischen Prinzips und die volle Föderalisierung des Reiches. Die Reichskreise und lokalen Reichsstände erhielten neben ihren bisherigen Aufgaben auch die Zuständigkeit für die Durchsetzung der Urteile und die Besetzung der Beisitzer des Reichskammergerichtes. Außerdem erhielten sie neben dem Münzwesen weitere wichtige, bisher kaiserliche Aufgaben. Da sich der Kaiser als unfähig und zu schwach erwiesen hatte, eine seiner wichtigsten Aufgaben, die Friedenswahrung, wahrzunehmen, wurde dessen Rolle nunmehr durch die in den Reichskreisen verbundenen Reichsstände ausgefüllt. Ebenso wichtig wie die Exekutionsordnung war der am 25. September 1555 verkündete Religionsfrieden, mit dem die Idee eines konfessionell einheitlichen Reiches aufgegeben wurde. Die Landesherren erhielten das Recht, die Konfession ihrer Untertanen zu bestimmen, prägnant zusammengefasst in der Formel "wessen Herrschaft, dessen Religion." In protestantischen Gebieten ging die geistliche Gerichtsbarkeit auf die Landesherren über, wodurch diese zu einer Art geistlichen Oberhauptes ihres Territoriums wurden. Weiterhin wurde festgelegt, dass geistliche Reichsstände, also Erzbischöfe, Bischöfe und Reichsprälaten, katholisch bleiben mussten. Diese und einige weitere Festlegungen führten zwar zu einer friedlichen Lösung des Religionsproblems, manifestierten aber auch die zunehmende Spaltung des Reiches und führten mittelfristig zu einer Blockade der Reichsinstitutionen. Nach dem Reichstag von Augsburg trat Kaiser Karl V. von seinem Amt zurück und übergab die Macht an seinen Bruder, den römisch-deutschen König Ferdinand I. Karls Politik innerhalb und außerhalb des Reiches war endgültig gescheitert. Ferdinand beschränkte die Herrschaft des Kaisers wieder auf Deutschland, und es gelang ihm, die Reichsstände wieder in eine engere Verbindung mit dem Kaisertum zu bringen und dieses damit wieder zu stärken. Deshalb wird Ferdinand vielfach als der Gründer des neuzeitlichen deutschen Kaisertums bezeichnet. Konfessionalisierung und Dreißigjähriger Krieg. Gründungsurkunde der protestantischen Union vom 14. Mai 1608, heute im Bayerischen Hauptstaatsarchiv Bis Anfang der 1580er Jahre gab es im Reich eine Phase ohne größere kriegerische Auseinandersetzungen. Der Religionsfrieden wirkte stabilisierend und auch die Reichsinstitutionen wie Reichskreise und Reichskammergericht entwickelten sich zu wirksamen und anerkannten Instrumenten der Friedenssicherung. In dieser Zeit vollzog sich aber die sogenannte Konfessionalisierung, das heißt die Verfestigung und Abgrenzung der drei Konfessionen Protestantismus, Kalvinismus und Katholizismus zueinander. Die damit einhergehende Herausbildung frühmoderner Staatsformen in den Territorien brachte dem Reich Verfassungsprobleme. Die Spannungen nahmen derart zu, dass das Reich und seine Institutionen ihre über den Konfessionen stehende Schlichterfunktion nicht mehr wahrnehmen konnten und Ende des 16. Jahrhunderts faktisch blockiert waren. Bereits ab 1588 war das Reichskammergericht nicht mehr handlungsfähig. Da die protestantischen Stände am Beginn des 17. Jahrhunderts auch den ausschließlich durch den katholischen Kaiser besetzten Reichshofrat nicht mehr anerkannten, eskalierte die Situation weiter. Gleichzeitig spalteten sich das Kurfürstenkolleg und die Reichskreise in konfessionelle Gruppierungen. Ein Reichsdeputationstag im Jahr 1601 scheiterte an den Gegensätzen zwischen den Parteien und 1608 wurde ein Reichstag in Regensburg ohne Reichsabschied beendet, da die kalvinistische Kurpfalz, deren Bekenntnis vom Kaiser nicht anerkannt wurde, und andere protestantische Stände diesen verlassen hatten. Da das Reichssystem weitestgehend blockiert und der Friedensschutz vermeintlich nicht mehr gegeben war, gründeten sechs protestantische Fürsten am 14. Mai 1608 die Protestantische Union. Weitere Fürsten und Reichsstädte schlossen sich später der Union an, der jedoch Kursachsen und die norddeutschen Fürsten fernblieben. Als Reaktion auf die Union gründeten katholische Fürsten und Städte am 10. Juli 1609 die katholische Liga. Die Liga wollte das bisherige Reichssystem aufrechterhalten und das Übergewicht des Katholizismus im Reich bewahren. Das Reich und seine Institutionen waren damit endgültig blockiert und handlungsunfähig geworden. Der Prager Fenstersturz war dann der Auslöser für den großen Krieg, in dem der Kaiser anfangs große militärische Erfolge erzielte und auch versuchte, diese reichspolitisch für seine Machtstellung gegenüber den Reichsständen auszunutzen. So ächtete Kaiser Ferdinand II. 1621 aus eigenem Machtanspruch den pfälzischen Kurfürsten und böhmischen König Friedrich V. und übertrug die Kurwürde auf Maximilian I. von Bayern. Ferdinand war zuvor von allen, auch den protestantischen, Kurfürsten am 19. August 1619 trotz des beginnenden Krieges zum Kaiser gewählt worden. Der Erlass des Restitutionsediktes am 6. März 1629 war der letzte bedeutende Gesetzesakt eines Kaisers im Reich und entsprang genauso wie die Ächtung Friedrichs V. dem kaiserlichen Machtanspruch. Dieses Edikt verlangte die Umsetzung des Augsburger Reichsfriedens nach katholischer Interpretation. Dementsprechend waren alle seit dem Passauer Vertrag durch die protestantischen Landesherren säkularisierten Erz- und Hochstifte und Bistümer an die Katholiken zurückzugeben. Dies hätte neben der Rekatholisierung großer protestantischer Gebiete eine wesentliche Stärkung der kaiserlichen Machtposition bedeutet, da bisher religionspolitische Fragen vom Kaiser gemeinsam mit den Reichsständen und Kurfürsten entschieden worden waren. Dagegen bildete sich eine konfessionsübergreifende Koalition der Kurfürsten. Sie wollten nicht hinnehmen, dass der Kaiser ohne ihre Zustimmung solch ein einschneidendes Edikt erließ. Die Kurfürsten zwangen den Kaiser auf dem Regensburger Kurfürstentag 1630 unter der Führung des neuen katholischen Kurfürsten Maximilian I. den kaiserlichen Generalissimus Wallenstein zu entlassen und einer Überprüfung des Ediktes zuzustimmen. Ebenfalls 1630 trat Schweden auf Seiten der protestantischen Reichsstände in den Krieg ein. Nachdem die kaiserlichen Truppen Schweden einige Jahre unterlegen gewesen waren, gelang es dem Kaiser durch den Sieg in der Schlacht bei Nördlingen 1634 nochmals die Oberhand zu gewinnen. Im darauffolgenden Prager Frieden zwischen dem Kaiser und Kursachsen von 1635 musste Ferdinand zwar das Restitutionsedikt für vierzig Jahre, vom Stand von 1627 ausgehend, aussetzen. Aber das Reichsoberhaupt ging aus diesem Frieden gestärkt hervor, da bis auf den Kurverein alle reichsständischen Allianzen für aufgelöst erklärt wurden und dem Kaiser der Oberbefehl über die Reichsarmee zugebilligt wurde. Diese Stärkung des Kaisers nahmen aber auch die Protestanten hin. Das religionspolitische Problem des Restitutionsediktes war faktisch um 40 Jahre vertagt worden, da sich der Kaiser und die meisten Reichsstände darin einig waren, dass die politische Einigung des Reiches, die Säuberung des Reichsgebietes von fremden Mächten und die Beendigung des Krieges am vordringlichsten seien. Nach dem offenen Kriegseintritt Frankreichs, der erfolgte, um eine starke kaiserlich-habsburgische Macht in Deutschland zu verhindern, verschoben sich die Gewichte wieder zu Ungunsten des Kaisers. Spätestens hier war aus dem ursprünglichen "teutschen" Konfessionskrieg innerhalb des Reiches ein europäischer Hegemonialkampf geworden. Der Krieg ging also weiter, da die konfessions- und verfassungspolitischen Probleme, die zumindest provisorisch im Prager Frieden geklärt worden waren, für die sich auf Reichsgebiet befindlichen Mächte Schweden und Frankreich nebenrangig waren. Außerdem wies der Frieden von Prag wie bereits angedeutet schwere Mängel auf, so dass auch die reichsinternen Auseinandersetzungen weitergingen. Ab 1641 begannen einzelne Reichsstände Separatfrieden zu schließen, da sich in dem Gestrüpp aus konfessioneller Solidarität, traditioneller Bündnispolitik und aktueller Kriegslage kaum mehr eine breit angelegte Gegenwehr des Reiches organisieren ließ. Den Anfang machte im Mai 1641 als erster größerer Reichsstand der Kurfürst von Brandenburg. Dieser schloss Frieden mit Schweden und entließ seine Armee, was nach den Bestimmungen des Prager Friedens nicht möglich war, da diese nominell zur Reichsarmee gehörte. Andere Reichsstände folgten; so schloss 1645 Kursachsen Frieden mit Schweden und 1647 Kurmainz mit Frankreich. Gegen den Willen des Kaisers, seit 1637 Ferdinand III., der ursprünglich das Reich bei den sich nun anbahnenden Friedensgesprächen in Münster und Osnabrück entsprechend dem Frieden von Prag allein vertreten wollte, wurden die Reichsstände, die von Frankreich unterstützt auf ihre Libertät pochten, zu den Unterredungen zugelassen. Dieser als Admissionsfrage bezeichnete Streit hebelte das System des Prager Friedens mit der starken Stellung des Kaisers endgültig aus. Ferdinand wollte ursprünglich in den westfälischen Verhandlungen nur die europäischen Fragen klären und Frieden mit Frankreich und Schweden schließen und die deutschen Verfassungsprobleme auf einem anschließenden Reichstag behandeln, auf dem er als glorioser Friedensbringer hätte auftreten können. Auf diesem Reichstag wiederum hätten die fremden Mächte nichts zu suchen gehabt. Westfälischer Frieden. "Es möge ein christlicher allgemeiner und immerwährender Friede herrschen […] und es soll dieser aufrichtig und ernstlich eingehalten und beachtet werden, auf daß jeder Teil Nutzen, Ehre und Vorteil des anderen fördere und daß sowohl auf Seiten des gesamten Römischen Reiches mit dem Königreich Schweden als auch auf Seiten des Königreichs Schweden mit dem Römischen Reiche treue Nachbarschaft, wahrer Friede und echte Freundschaft neu erwachsen und erblühen möge." Erster Artikel des Vertrages von Osnabrück Das Heilige Römische Reich 1648 Der Kaiser, Schweden und Frankreich verständigten sich 1641 in Hamburg auf Friedensverhandlungen, währenddessen die Kampfhandlungen weitergingen. Die Verhandlungen begannen 1642/43 parallel in Osnabrück zwischen dem Kaiser, den evangelischen Reichsständen und Schweden und in Münster zwischen dem Kaiser, den katholischen Reichsständen und Frankreich. Dass der Kaiser das Reich nicht allein repräsentierte, war eine symbolisch wichtige Niederlage. Die aus dem Frieden von Prag gestärkt hervorgegangene kaiserliche Macht stand wieder zur Disposition. Die Reichsstände gleich welcher Konfession hielten die Prager Ordnung für so gefährlich, dass sie ihre Rechte besser gewahrt sahen, wenn sie nicht allein dem Kaiser gegenübersaßen, sondern die Verhandlungen über die Reichsverfassung unter den Augen des Auslands stattfanden. Dies kam aber auch Frankreich sehr entgegen, das die Macht der Habsburger unbedingt einschränken wollte und sich deshalb für die Beteiligung der Reichsstände starkmachte. Beide Verhandlungsstädte und die Verbindungswege zwischen ihnen waren vorab für entmilitarisiert erklärt worden (was aber nur für Osnabrück vollzogen wurde) und alle Gesandtschaften erhielten freies Geleit. Zur Vermittlung reisten Delegationen der Republik Venedig, des Papstes und aus Dänemark an und Vertreter weiterer europäischer Mächte strömten nach Westfalen. Am Ende waren alle europäischen Mächte, bis auf das Osmanische Reich, Russland und England, an den Verhandlungen beteiligt. Die Verhandlungen in Osnabrück wurden neben den Verhandlungen zwischen dem Reich und Schweden faktisch zu einem Verfassungskonvent, auf dem die verfassungs- und religionspolitischen Probleme behandelt wurden. In Münster verhandelte man über die europäischen Rahmenbedingungen und die lehnsrechtlichen Veränderungen in Bezug auf die Niederlande und die Schweiz. Weiterhin wurde hier der Friede von Münster zwischen Spanien und der Republik der Niederlande ausgehandelt. Bis zum Ende des 20. Jahrhunderts wurde der Westfälische Frieden als zerstörerisch für das Reich angesehen. Fritz Hartung begründete dies mit dem Argument, der Friedensschluss habe dem Kaiser jegliche Handhabe und den Reichsständen fast unbegrenzte Handlungsfreiheit gewährt, das Reich sei durch diesen „zersplittert“, „zerbröckelt“ – es handle sich mithin um ein „nationales Unglück“. Nur die religionspolitische Frage sei gelöst worden, das Reich aber in eine Erstarrung verfallen, die letztendlich zu dessen Zerfall geführt habe. Allen Reichsständen wurden zwar die vollen landeshoheitlichen Rechte zugesprochen und das im Prager Frieden annullierte Bündnisrecht wieder zuerkannt. Damit war aber nicht die volle Souveränität der Territorien gemeint, was sich auch daran erkennen lässt, dass dieses Recht im Vertragstext inmitten anderer schon länger ausgeübter Rechte aufgeführt wird. Das Bündnisrecht – auch dies widerspricht einer vollen Souveränität der Territorien des Reiches – durfte sich nicht gegen Kaiser und Reich, den Landfrieden oder gegen diesen Vertrag richten und war nach Meinung zeitgenössischer Rechtsgelehrter sowieso ein althergebrachtes Gewohnheitsrecht ("siehe hierzu auch den Abschnitt Herkommen und Gewohnheitsrecht") der Reichsstände, das im Vertrag nur schriftlich fixiert wurde. Im religionspolitischen Teil entzogen sich die Reichsstände praktisch selbst die Befugnis die Konfession ihrer Untertanen zu bestimmen. Zwar wurde der Augsburger Religionsfrieden als Ganzes bestätigt und für unantastbar erklärt, die strittigen Fragen wurden aber neu geregelt und Rechtsverhältnisse auf den Stand des 1. Januar 1624 fixiert beziehungsweise auf den Stand an diesem Stichtag zurückgesetzt. Alle Reichsstände mussten so beispielsweise die beiden anderen Konfessionen dulden, falls diese bereits 1624 auf ihrem Territorium existierten. Jeglicher Besitz musste an den damaligen Besitzer zurückgegeben werden und alle späteren anderslautenden Bestimmungen des Kaisers, der Reichsstände oder der Besatzungsmächte wurden für null und nichtig erklärt. Der zweite Religionsfrieden hat sicherlich keinerlei Fortschritte für den Toleranzgedanken oder für die individuellen Religionsrechte oder sogar die Menschenrechte gebracht. Das war aber auch nicht dessen Ziel. Er sollte durch die weitere Verrechtlichung friedensstiftend wirken. Frieden und nicht Toleranz oder Säkularisierung war das Ziel. Dass dies trotz aller Rückschläge und gelegentlicher Todesopfer bei späteren religiösen Auseinandersetzungen gelang, ist offensichtlich. Die Verträge von Westfalen haben dem Reich nach dreißig Jahren den langersehnten Frieden gebracht. Das Reich verlor einige Gebiete an Frankreich und entließ faktisch die Niederlande und die Alte Eidgenossenschaft aus dem Reichsverband. Ansonsten änderte sich im Reich nicht viel, das Machtsystem zwischen Kaiser und Reichsständen wurde neu austariert, ohne die Gewichte im Vergleich zur Situation vor dem Krieg stark zu verschieben und die Reichspolitik wurde nicht entkonfessionalisiert, sondern nur der Umgang der Konfessionen neu geregelt. Weder wurde Das Reich bis Mitte des 18. Jahrhunderts. Nach dem Westfälischen Frieden drängte eine Gruppe von Fürsten, zusammengeschlossen im Fürstenverein, auf radikale Reformen im Reich, die insbesondere die Vorherrschaft der Kurfürsten beschränken und das Königswahlprivileg auch auf andere Reichsfürsten ausdehnen sollten. Auf dem Reichstag von 1653/54, der nach den Bestimmungen des Friedens viel früher hätte stattfinden sollen, konnte sich diese Minderheit aber nicht durchsetzen. Im Reichsabschied dieses Reichstages, genannt der Jüngste – dieser Reichstag war der letzte vor der Permanenz des Gremiums – wurde beschlossen, dass die Untertanen ihren Herren Steuern zahlen müssten, damit diese Truppen unterhalten könnten. Dies führte oft zur Bildung stehender Heere in verschiedenen größeren Territorien. Diese wurden als Armierte Reichsstände bezeichnet. Auch zerfiel das Reich nicht, da zu viele Stände ein Interesse an einem Reich hatten, das ihren Schutz gewährleisten konnte. Diese Gruppe umfasste besonders die kleineren Stände, die praktisch nie zu einem eigenen Staat werden konnten. Auch die aggressive Politik Frankreichs an der Westgrenze des Reiches und die Türkengefahr im Osten machten nahezu allen Ständen die Notwendigkeit eines hinlänglich geschlossenen Reichsverbandes und einer handlungsfähigen Reichsspitze deutlich. Seit 1658 herrschte Kaiser Leopold I., dessen Wirken erst seit den 1990er Jahren genauer untersucht wird, im Reich. Sein Wirken wird als klug und weitsichtig beschrieben, und gemessen an der Ausgangslage nach dem Krieg und dem Tiefpunkt des kaiserlichen Ansehens war es auch außerordentlich erfolgreich. Leopold gelang es durch die Kombination verschiedener Herrschaftsinstrumente, neben den kleineren auch die größeren Reichsstände wieder an die Reichsverfassung und an das Kaisertum zu binden. Hervorzuheben sind hier insbesondere seine Heiratspolitik, das Mittel der Standeserhöhungen und die Verleihung allerlei wohlklingender Titel. Dennoch verstärkten sich die zentrifugalen Kräfte des Reiches. Hierbei sticht insbesondere die Verleihung der neunten Kurwürde an Ernst August von Hannover 1692 hervor. Ebenso in diese Kategorie fällt das Zugeständnis an den brandenburgischen Kurfürsten Friedrich III., sich 1701 für das nicht zum Reich gehörende Herzogtum Preußen zum "König in Preußen" krönen zu dürfen. Nach 1648 wurde die Position der Reichskreise weiter gestärkt und ihnen eine entscheidende Rolle in der Reichskriegsverfassung zugesprochen. So beschloss der Reichstag 1681 auf Grund der Bedrohung des Reiches durch die Türken eine neue Reichskriegsverfassung, in der die Truppenstärke der Reichsarmee auf 40.000 Mann festgelegt wurde. Für die Aufstellung der Truppen sollten die Reichskreise zuständig sein. Der Immerwährende Reichstag bot dem Kaiser die Möglichkeit die kleineren Reichsstände an sich zu binden und für die eigene Politik zu gewinnen. Auch durch die verbesserten Möglichkeiten der Schlichtung gelang es dem Kaiser seinen Einfluss auf das Reich wieder zu vergrößern. Dass sich Leopold I. der Reunionspolitik des französischen Königs Ludwigs XIV. entgegenstemmte und versuchte, die Reichskreise und -stände zum Widerstand gegen die französischen Annexionen von Reichsgebieten zu bewegen, zeigt, dass die Reichspolitik noch nicht, wie unter seinen Nachfolgern im 18. Jahrhundert, zum reinen Anhängsel der habsburgischen Großmachtpolitik geworden war. Auch gelang in dieser Zeit das Zurückdrängen der Großmacht Schweden aus den nördlichen Gebieten des Reiches im Schwedisch-Brandenburgischen Krieg und im Großen Nordischen Krieg. Der Dualismus zwischen Preußen und Österreich. Ab 1740 begannen die beiden größten Territorialkomplexe des Reiches, das Erzherzogtum Österreich und Brandenburg-Preußen, immer mehr aus dem Reichsverband herauszuwachsen. Das Haus Österreich konnte nach dem Sieg über die Türken im Großen Türkenkrieg nach 1683 große Gebiete außerhalb des Reiches erwerben, wodurch sich der Schwerpunkt der habsburgischen Politik nach Südosten verschob. Dies wurde besonders unter den Nachfolgern Kaiser Leopolds I. deutlich. Ähnlich verhielt es sich mit Brandenburg-Preußen, auch hier befand sich ein Teil des Territoriums außerhalb des Reiches. Zur zunehmenden Rivalität, die das Reichsgefüge stark beanspruchte, traten jedoch noch Änderungen im Denken der Zeit hinzu. War es bis zum Dreißigjährigen Krieg für das Ansehen eines Herrschers sehr wichtig, welche Titel er besaß und an welcher Position in der Hierarchie des Reiches und des europäischen Adels er stand, so traten nun andere Faktoren wie die Größe des Territoriums sowie die wirtschaftliche und militärische Macht stärker in den Vordergrund. Es setzte sich die Ansicht durch, dass nur die Macht, die aus diesen quantifizierbaren Angaben resultierte, tatsächlich zähle. Dies ist nach Ansicht von Historikern eine Spätfolge des großen Krieges, in dem altehrwürdige Titel, Ansprüche und Rechtspositionen insbesondere der kleineren Reichsstände fast keine Rolle mehr spielten und fingierten oder tatsächlichen Sachzwängen des Krieges untergeordnet wurden. Diese Denkkategorien waren jedoch nicht mit dem bisherigen System des Reiches vereinbar, das dem Reich und allen seinen Mitgliedern einen rechtlichen Schutz des Status quo gewährleisten und sie vor dem Übermut der Macht schützen sollte. Dieser Konflikt zeigt sich unter anderem in der Arbeit des Reichstages. Seine Zusammensetzung unterschied zwar zwischen Kurfürsten und Fürsten, Hocharistokratie und städtischen Magistraten, katholisch und protestantisch, aber beispielsweise nicht zwischen Ständen, die ein stehendes Heer unterhielten, und denen, die schutzlos waren. Diese Diskrepanz zwischen tatsächlicher Macht und althergebrachter Hierarchie führte zum Verlangen der großen, mächtigen Stände nach einer Lockerung des Reichsverbandes. Hinzu kam das Denken der Aufklärung, das den konservativen bewahrenden Charakter, die Komplexität, ja sogar die Idee des Reiches an sich hinterfragte und als „unnatürlich“ darstellte. Die Idee der Gleichheit der Menschen war nicht in Übereinstimmung zu bringen mit der Reichsidee, das Vorhandene zu bewahren und jedem Stand seinen zugewiesenen Platz im Gefüge des Reiches zu sichern. Zusammengefasst lässt sich sagen, dass Brandenburg-Preußen und Österreich nicht mehr in den Reichsverband passten, nicht nur auf Grund der schieren Größe, sondern auch wegen der inneren Verfasstheit der beiden zu Staaten gewordenen Territorien. Beide hatten die ursprünglich auch in ihrem Inneren dezentral und ständisch geprägten Länder reformiert und den Einfluss der Landstände gebrochen. Nur so waren die verschiedenen ererbten und eroberten jeweiligen Länder sinnvoll zu verwalten und zu bewahren sowie ein stehendes Heer zu finanzieren. Den kleineren Territorien war dieser Reformweg verschlossen. Ein Landesherr, der Reformen dieses Ausmaßes unternommen hätte, wäre unweigerlich mit den Reichsgerichten in Konflikt geraten, da diese den Landständen beigestanden hätten, gegen deren Privilegien ein Landesherr hätte verstoßen müssen. Der Kaiser in seiner Rolle als österreichischer Landesherr hatte den von ihm besetzten Reichshofrat natürlich nicht so zu fürchten wie andere Landesherrn und in Berlin scherte man sich um die Reichsinstitutionen sowieso kaum. Eine Exekution der Urteile wäre faktisch nicht möglich gewesen. Auch diese andere innere Verfasstheit der beiden großen Mächte trug zur Entfremdung vom Reich bei. Aus der als "Dualismus zwischen Preußen und Österreich" bezeichneten Rivalität erwuchsen im 18. Jahrhundert mehrere Kriege. Die zwei Schlesischen Kriege gewann Preußen und erhielt Schlesien, während der Österreichische Erbfolgekrieg zu Gunsten Österreichs endete. Während des Erbfolgekrieges kam mit Karl VII. ein Wittelsbacher auf den Thron, konnte sich aber ohne die Ressourcen einer Großmacht nicht durchsetzen, so dass nach seinem Tod 1745 mit Franz I. Stephan von Lothringen, dem Ehemann Maria Theresias, wieder ein Habsburger(-Lothringer) gewählt wurde. Diese Auseinandersetzungen waren für das Reich verheerend. Preußen wollte das Reich nicht stärken, sondern für seine Zwecke gebrauchen. Auch die Habsburger, die durch das Bündnis vieler Reichsstände mit Preußen und die Wahl eines Nicht-Habsburgers auf den Kaiserthron verstimmt waren, setzten nun viel eindeutiger als bislang auf eine Politik, die sich allein auf Österreich und dessen Macht bezog. Der Kaisertitel wurde fast nur noch wegen dessen Klang und des höheren Rangs gegenüber allen europäischen Herrschern erstrebt. Die Reichsinstitutionen waren zu Nebenschauplätzen der Machtpolitik verkommen und die Verfassung des Reiches hatte mit der Wirklichkeit nicht mehr viel zu tun. Preußen versuchte durch Instrumentalisierung des Reichstages den Kaiser und Österreich zu treffen. Insbesondere Kaiser Joseph II. zog sich fast gänzlich aus der Reichspolitik zurück. Joseph II. hatte anfangs noch versucht eine Reform der Reichsinstitutionen, besonders des Reichskammergerichtes, durchzuführen, scheiterte aber am Widerstand der Reichsstände, die sich aus dem Reichsverband lösen und sich deshalb vom Gericht nicht mehr in ihre „inneren“ Angelegenheiten hereinreden lassen wollten. Joseph gab frustriert auf. Aber auch sonst agierte Joseph II. unglücklich und unsensibel. Die österreichzentrierte Politik Josephs II. während des Bayerischen Erbfolgekriegs 1778/79 und die vom Ausland vermittelte Friedenslösung von Teschen waren ein Desaster für das Kaisertum. Als die bayerische Linie der Wittelsbacher 1777 ausstarb, erschien dies Joseph als willkommene Möglichkeit, Bayern den habsburgischen Landen einzuverleiben. Deshalb erhob Österreich juristisch fragwürdige Ansprüche auf das Erbe. Unter massivem Druck aus Wien willigte der Erbe aus der pfälzischen Linie der Wittelsbacher, Kurfürst Karl Theodor, in einen Vertrag ein, der Teile Bayerns abtrat. Karl Theodor, der ohnehin nur widerwillig das Erbe angenommen hatte, wurde suggeriert, dass später ein Tausch mit den Österreichischen Niederlanden, die in etwa das Gebiet des heutigen Belgiens umfassten, zustande käme. Joseph II. besetzte aber stattdessen die bayerischen Gebiete, um vollendete Tatsachen zu schaffen, und vergriff sich somit als Kaiser an einem Reichsterritorium. Diese Vorgänge erlaubten es Friedrich II., sich zum Beschützer des Reiches und der kleinen Reichsstände und damit quasi zum „Gegenkaiser“ aufzuschwingen. Preußische und kursächsische Truppen marschierten in Böhmen ein. Im von Russland regelrecht erzwungenen Frieden von Teschen vom 13. Mai 1779 erhielt Österreich zwar das Innviertel zugesprochen. Der Kaiser stand dennoch als Verlierer da. Zum zweiten Mal nach 1648 musste ein innerdeutsches Problem mit Hilfe ausländischer Mächte geregelt werden. Nicht der Kaiser, sondern Russland brachte dem Reich Frieden. Russland wurde neben seiner Rolle als Garantiemacht des Teschener Friedens auch eine Garantiemacht des Westfälischen Friedens und damit einer der „Hüter“ der Reichsverfassung. Das Kaisertum hatte sich selbst demontiert und der preußische König Friedrich stand als Beschützer des Reiches da. Aber nicht Schutz und Konsolidierung des Reiches waren Friedrichs Ziel gewesen, sondern eine weitere Schwächung der Position des Kaisers im Reich und damit des ganzen Reichsverbandes an sich. Dieses Ziel hatte er erreicht. Das Konzept eines "Dritten Deutschlands" hingegen, geboren aus der Befürchtung der kleineren und mittleren Reichsstände zur reinen Verfügungsmasse der Großen zu verkommen, um mit einer Stimme zu sprechen und damit Reformen durchzusetzen, scheiterte an den Vorurteilen und Gegensätzen zwischen den protestantischen und den katholischen Reichsfürsten, sowie den Eigeninteressen der Kurfürsten und der großen Reichsstädte. Eigentliche Träger des Reichsgedankens waren zuletzt praktisch nur noch die Reichsstädte, die Reichsritterschaften und zu einem gewissen Teil die geistlichen Territorien, wobei auch die Letzteren vielfach durch Angehörige von Reichsfürstendynastien regiert wurden und deren Interessen vertraten (z. B. das im Spanischen Erbfolgekrieg unter einem wittelsbacherischen Erzbischof stehende Kurköln). Auch der Kaiser agierte eher wie ein Territorialherr, der auf die Ausweitung seines unmittelbaren Herrschaftsterritoriums zielte und weniger auf die Wahrung eines „Reichsinteresses“. Von vielen Zeitgenossen im Zeitalter der Aufklärung wurde das Reich daher als ein Anachronismus empfunden. Voltaire sprach spöttisch von dem „Reich, das weder römisch noch heilig“ sei. Erste Koalitionskriege gegen Frankreich. Das Heilige Römische Reich am Vorabend der Französischen Revolution 1789 (in lila geistliche Territorien, in rot die Reichsstädte). Gegen die revolutionären Truppen Frankreichs fanden beide deutschen Großmächte (Österreich und Preußen) im Ersten Koalitionskrieg zu einem Zweckbündnis. Dieses als Pillnitzer Beistandspakt bezeichnete Bündnis vom Februar 1792 hatte freilich nicht den Schutz von Reichsrechten zum Ziel, sondern die Eindämmung der Revolution, vor allem deswegen, weil man deren Übergreifen auf das Reichsgebiet fürchtete. Die Chance, die anderen Reichsstände hinter sich zu bringen, verspielte Kaiser Franz II., der am 5. Juli 1792 in ungewohnter Eile und Einmütigkeit zum Kaiser gewählt wurde, durch den Umstand, dass er das österreichische Staatsgebiet unbedingt vergrößern wollte, notfalls auf Kosten anderer Reichsmitglieder. Und auch Preußen wollte sich für seine Kriegskosten durch die Einverleibung geistlicher Reichsgebiete schadlos halten. Dementsprechend gelang es nicht, eine geschlossene Front gegen die französischen Revolutionstruppen aufzubauen und größere militärische Erfolge zu erringen. Aus Enttäuschung über ausbleibende Erfolge und um sich besser um den Widerstand gegen die erneute Teilung Polens kümmern zu können, schloss Preußen 1795 einen Separatfrieden, den Frieden von Basel, mit Frankreich. 1796 schlossen Baden und Württemberg ebenfalls Frieden mit Frankreich. In beiden Vereinbarungen wurden die jeweiligen linksrheinischen Besitzungen an Frankreich abgetreten. Die Besitzer aber sollten auf Kosten rechtsrheinischer geistlicher Gebiete „entschädigt“ werden, diese sollten also säkularisiert werden. Weitere Reichsstände verhandelten über einen Waffenstillstand oder Neutralität. 1797 schloss auch Österreich Frieden und unterschrieb den Frieden von Campo Formio, in dem es verschiedene Besitzungen innerhalb und außerhalb des Reiches abtrat, so insbesondere die österreichischen Niederlande und das Herzogtum Toskana. Als Ausgleich sollte Österreich ebenfalls auf Kosten von zu säkularisierenden geistlichen Gebieten oder anderen Reichsteilen entschädigt werden. Beide Großen des Reiches hielten sich also an anderen kleineren Reichsgliedern schadlos und räumten Frankreich sogar ein Mitspracherecht bei der zukünftigen Gestaltung des Reiches ein. Insbesondere der Kaiser, zwar als König von Ungarn und Böhmen handelnd, aber trotzdem als Kaiser zur Bewahrung der Integrität des Reiches und seiner Mitglieder verpflichtet, hatte zugelassen, dass für die „Entschädigung“ einiger weniger andere Reichsstände geschädigt wurden, und das Kaisertum damit irreparabel demontiert. Die Reichsdeputation von 1797/98 willigte im März 1798 gezwungenermaßen auf dem Friedenskongress von Rastatt in die Abtretung der linksrheinischen Gebiete und die Säkularisation, mit Ausnahme der drei geistlichen Kurfürstentümer, ein. Der Zweite Koalitionskrieg beendete aber das Geschachere und Gefeilsche um die Gebiete, die man zu erhalten hoffte. Der Krieg wurde 1801 durch den Frieden von Lunéville beendet, in dem Franz II. nun auch als Reichsoberhaupt der Abtretung der linksrheinischen Gebiete zustimmte. In diesem Frieden traf man aber keine genauen Festlegungen für die anstehenden „Entschädigungen“. Der anschließend einberufene Reichstag stimmte dem Frieden zu. Reichsdeputationshauptschluss. Die Friedensvereinbarungen von Basel mit Preußen, Campo Formio mit Österreich und Lunéville mit dem Reich verlangten „Entschädigungen“, über die nur ein Reichsgesetz entscheiden konnte. Deshalb wurde eine Reichsdeputation einberufen, die diesen Entschädigungsplan ausarbeiten sollte. Letztendlich nahm die Deputation aber den französisch-russischen Entschädigungsplan vom 3. Juni 1802 mit geringen Änderungen an. Am 24. März 1803 akzeptierte der Reichstag den Reichsdeputationshauptschluss endgültig. Als Entschädigungsmasse für die größeren Reichsstände wurden fast alle Reichsstädte, die kleineren weltlichen Territorien und fast alle geistlichen Hoch- und Erzstifte ausgewählt. Die Zusammensetzung des Reiches veränderte sich schlagartig, die zuvor mehrheitlich katholische Fürstenbank des Reichstages war nunmehr protestantisch geprägt. Zwei von drei geistlichen Kurfürstentümern hatten aufgehört zu existieren, auch der Kurfürst von Mainz verlor sein Hochstift, erhielt aber als neues Kurfürstentum Aschaffenburg-Regensburg. Neben diesem gab es nur noch zwei geistliche Reichsfürsten, den Großprior des Malteserordens und den Hoch- und Deutschmeister des Deutschen Ordens. Insgesamt gab es durch den Reichsdeputationshauptschluss 110 Territorien weniger, und rund drei Millionen Menschen bekamen einen neuen Landesherrn. Aus einer Vielzahl kleiner Gebiete entstand eine überschaubare Anzahl von mittelgroßen Ländern. Dies wurde eine bleibende Veränderung, welche die drei Jahre der Gültigkeit weit überdauerte. Der Reichsdeputationsschluss führte ferner ein neues Normaljahr ein, also den Ausgangspunkt dafür, wie es bei einem Gebiet mit der Konfession steht und wie um die Vermögensverhältnisse. 1803 wurde nach dem Normaljahr 1624 des Westfälischen Friedens das neue Normaljahr. Man sprach von „Entschädigung“, „Säkularisation“ und „Mediatisierung“. Damit verbarg man beschönigenderweise den Vorgang, dass einige wenige Landesherren viel mehr Land und Geld erhielten, als sie abgetreten hatten. Der badische Markgraf erhielt beispielsweise mehr als neunmal soviele Untertanen als er linksrheinisch verlor. Grund hierfür ist, dass Frankreich sich eine Reihe von Satellitenstaaten schuf, die groß genug waren, um dem Kaiser Schwierigkeiten zu machen, aber zu klein, um die Position Frankreichs zu gefährden. Weiterhin hatte die Reichskirche aufgehört zu existieren. Der aufklärerische Zeitgeist hatte dazu längst beigetragen, ebenso die absolutistische Neigung der Landesherren, sich die Macht nicht mit kirchlichen Einrichtungen teilen zu müssen. Das galt für protestantische und katholische Fürsten gleichermaßen, und so sah das auch Frankreich. Außerdem war die Reichskirche eine Stütze des Kaisers gewesen. Im Herbst 1803 wurden auch die Reichsritterschaften im sogenannten Rittersturm von den benachbarten Ländern besetzt. Die Gesetze des Reiches wurden also allseits nicht mehr viel beachtet. Niederlegung der Reichskrone. Am 18. Mai 1804 wurde Napoleon durch eine Verfassungsänderung zum erblichen Kaiser der Franzosen bestimmt. Damit wollte der Emporkömmling sich nicht zuletzt in die Tradition Karls des Großen stellen, der tausend Jahre zuvor die Nachfolge des Römischen Reiches angetreten hatte. Nachdem Napoleon den Kaisertitel angenommen hatte, kam es zu Gesprächen mit Österreich. In einer Geheimnote vom 7. August 1804 forderte Napoleon, dass Österreich den Kaisertitel anerkenne. Im Gegenzug könne der römisch-deutsche Kaiser Franz II. zum Kaiser Österreichs werden. Wenige Tage später wurde aus der Forderung faktisch ein Ultimatum. Dies bedeutete entweder Krieg oder Anerkennung des französischen Kaisertums. Franz lenkte ein und nahm am 11. August 1804 als Konsequenz dieses Schrittes zusätzlich zu seinem Titel als Kaiser des Heiligen Römischen Reiches „für Uns und Unsere Nachfolger […] den Titel und die Würde eines erblichen Kaisers von Österreich“ an. Dies geschah offensichtlich, um die Ranggleichheit mit Napoleon zu wahren. Hierzu schien der Titel des Kaisers des Heiligen Römischen Reiches allein nicht mehr geeignet, auch wenn dies wohl ein Bruch des Reichsrechts war, da er weder die Kurfürsten über diesen Schritt informierte noch den Reichstag um Zustimmung bat. Dieser Schritt war auch vom Rechtsbruch abgesehen umstritten und wurde als übereilt angesehen. Napoleon ließ sich nicht mehr aufhalten. Im Dritten Koalitionskrieg marschierte seine Armee, die durch bayerische, württembergische und badische Truppen verstärkt wurde, auf Wien zu und am 2. Dezember 1805 siegten die napoleonischen Truppen in der Dreikaiserschlacht bei Austerlitz über Russen und Österreicher. Der darauffolgende Frieden von Preßburg, der Franz II. und dem russischen Zaren Alexander I. von Napoleon diktiert wurde, dürfte das Ende des Reiches endgültig besiegelt haben, da Napoleon durchsetzte, dass Bayern, Württemberg und Baden mit voller Souveränität ausgestattet wurden und somit mit Preußen und Österreich gleichgestellt wurden. Diese Länder befanden sich nun faktisch außerhalb der Reichsverfassung. Letzter Anstoß für die Niederlegung der Krone war jedoch eine Handlung von Karl Theodor von Dalberg, dem Erzbischof von Regensburg. Dalberg war Erzkanzler des Reiches und damit Haupt der Reichskanzlei, Aufseher des Reichsgerichtes und Hüter des Reichsarchivs. Er machte den französischen Großalmosenier Joseph Kardinal Fesch 1806 zu seinem Koadjutor mit dem Recht der Nachfolge. Der zu seinem Nachfolger ernannte Kardinal war nicht nur Franzose und sprach kein Wort Deutsch – er war auch der Onkel Napoleons. Wäre also der Kurfürst gestorben oder hätte sonst irgendwie seine Ämter abgegeben, so wäre der Onkel des französischen Kaisers Erzkanzler des Reiches geworden. Am 28. Mai 1806 wurde der Reichstag davon in Kenntnis gesetzt. Der österreichische Außenminister Johann Philipp von Stadion erkannte die möglichen Folgen: entweder die Auflösung des Reiches oder eine Umgestaltung des Reiches unter französischer Herrschaft. Daraufhin entschloss sich Franz am 18. Juni zu einem Protest, der wirkungslos blieb, zumal sich die Ereignisse überschlugen: Am 12. Juli 1806 gründeten Kurmainz, Bayern, Württemberg, Baden, Hessen-Darmstadt, Nassau, Kleve-Berg und weitere Fürstentümer mit Unterzeichnung der Rheinbundakte in Paris den Rheinbund, als dessen Protektor Napoleon fungierte, und erklärten am 1. August den Austritt aus dem Reich. Bereits im Januar hatte der schwedische König die Teilnahme der vorpommerschen Gesandten an den Reichstagssitzungen suspendiert und erklärte als Reaktion auf die Unterzeichnung der Rheinbundakte am 28. Juli, dass in den zum Reich gehörenden Ländern unter schwedischer Herrschaft die Reichsverfassung aufgehoben und die Landstände und Landräte aufgelöst seien. Er führte stattdessen die schwedische Verfassung in Schwedisch-Pommern ein. Damit beendete er auch in diesem Teil des Reiches das Reichsregime. Das Reich hatte faktisch aufgehört zu existieren, denn von ihm blieb nur noch ein Rumpf übrig. Die Entscheidung, ob der Kaiser die Reichskrone niederlegen sollte, wurde durch ein Ultimatum an den österreichischen Gesandten in Paris, General Vincent, praktisch vorweggenommen. Sollte Kaiser Franz bis zum 10. August nicht abdanken, dann würden französische Truppen Österreich angreifen, so wurde diesem am 22. Juli mitgeteilt. In Wien waren jedoch schon seit mehreren Wochen Johann Aloys Josef Freiherr von Hügel und Graf von Stadion mit der Erstellung von Gutachten über die Bewahrung der Kaiserwürde des Reiches befasst. Ihre nüchterne und rationale Analyse kam zu dem Schluss, dass Frankreich versuchen werde, die Reichsverfassung aufzulösen und das Reich in einen von Frankreich beeinflussten föderativen Staat umzuwandeln. Sie folgerten, dass die Bewahrung der "Reichsoberhauptlichen Würde" unvermeidlich zu Schwierigkeiten mit Frankreich führen würde und deshalb der Verzicht auf die Reichskrone unumgänglich sei. Der genaue Zeitpunkt dieses Schrittes sollte nach den politischen Umständen bestimmt werden, um möglichst vorteilhaft für Österreich zu sein. Am 17. Juni 1806 wurde dem Kaiser das Gutachten vorgelegt. Den Ausschlag für eine Entscheidung des Kaisers gab jedoch wohl das erwähnte Ultimatum Napoleons. Am 30. Juli entschied sich Franz, auf die Krone zu verzichten; am 1. August erschien der französische Gesandte La Rochefoucauld in der österreichischen Staatskanzlei. Erst nachdem der französische Gesandte nach heftigen Auseinandersetzungen mit Graf von Stadion formell bestätigte, dass sich Napoleon niemals die Reichskrone aufsetzen werde und die staatliche Unabhängigkeit Österreichs respektiere, willigte der österreichische Außenminister in die Abdankung ein, die am 6. August verkündet wurde. Er löste auch die zu seinem eigenen Herrschaftsbereich gehörenden Länder des Reiches aus diesem heraus und unterstellte sie allein dem österreichischen Kaisertum. Auch wenn die Auflösung des Reiches wohl juristisch nicht haltbar war, fehlte es am politischen Willen und auch an der Macht, das Reich zu bewahren. Wiener Kongress und Deutscher Bund 1815. Grundlage dieser Petition dürfte kaum patriotischer Eifer gewesen sein. Eher kann davon ausgegangen werden, dass diese die Dominanz der durch Napoleon zu voller Souveränität und Königstiteln gelangten Fürsten, beispielsweise der Könige von Württemberg, Bayern und Sachsen, fürchteten. Aber auch darüber hinaus wurde die Frage, ob ein neuer Kaiser gekürt werden solle, diskutiert. So existierte u.a. der Vorschlag, dass die Kaiserwürde zwischen den mächtigsten Fürsten im südlichen Deutschland und dem mächtigsten Fürsten in Norddeutschland alternieren solle. Im Allgemeinen wurde jedoch von den Befürwortern des Kaisertums eine erneute Übernahme der Kaiserwürde durch Österreich, also durch Franz I., favorisiert. Da aber auf Grund der geringen Macht der Befürworter der Wiederherstellung, der kleinen und mittleren deutschen Fürsten, nicht zu erwarten war, dass der Kaiser in Zukunft die Rechte erhielte, die diesen zu einem tatsächlichen Reichsoberhaupt machen würden, lehnte Franz die angebotene Kaiserwürde ab. Dementsprechend betrachteten Franz I. und sein Kanzler Metternich diese in der bisherigen Ausgestaltung nur als eine Bürde. Auf der anderen Seite wollte Österreich aber den Kaisertitel für Preußen oder einen anderen starken Fürsten nicht zulassen. Der Wiener Kongress ging auseinander, ohne das Kaisertum erneuert zu haben. Daraufhin wurde am 8. Juni 1815 der Deutsche Bund als lockere Verbindung der deutschen Staaten gegründet. Österreich führte den Deutschen Bund bis 1866 als Präsidialmacht. Verfassung des Reiches. Der Begriff der Verfassung des Heiligen Römischen Reiches ist nicht im heutigen staatsrechtlichen Sinne als einer festgeschriebenen formell-rechtlichen Gesamturkunde zu verstehen. Sie bestand vielmehr im Wesentlichen aus vielen durch lange Überlieferung und Ausübung gefestigten und praktizierten Rechtsnormen, die erst seit dem Spätmittelalter und verstärkt seit der Frühen Neuzeit durch schriftlich fixierte Grundgesetze ergänzt wurden. Die Tatsache der föderalistischen Ordnung mit vielen Einzelregelungen wurde schon von Zeitgenossen wie Samuel Pufendorf kritisch untersucht, der 1667 in seinem unter dem Pseudonym "Severinus von Monzambano" veröffentlichen Werk "De statu imperii Germanici" das Reich als "systema monstrosum" und unglückliches „Mittelding“ zwischen Monarchie und Staatenbund charakterisierte. Zu seiner berühmt-berüchtigten Einschätzung der Reichsverfassung als „irregulär“ und „monströs“ gelangte er auf Grund der Erkenntnis, dass das Reich in seiner Form weder einer der aristotelischen Staatsformen zugeordnet werden kann noch den Begrifflichkeiten der Souveränitätsthese gerecht wird. Trotzdem war das Reich ein staatliches Gebilde mit einem Oberhaupt, dem Kaiser, und seinen Mitgliedern, den Reichsständen. Wie beschrieben war der ungewöhnliche Charakter des Reiches und seiner Verfassung den Staatsrechtlern des Reiches bewusst, weshalb versucht wurde dessen Charakter in der Theorie der „dualen“ Souveränität darzustellen. Nach dieser Theorie wurde das Reich von zwei Majestäten regiert. Auf der einen Seite war die "Majestas realis," die von den Reichsständen ausgeübt wurde, und auf der anderen Seite die "Majestas personalis," die des Erwählten Kaisers. Dieser verfassungstheoretisch erfasste Dualismus spiegelte sich auch in der häufig anzutreffenden Formulierung "Kaiser und Reich" wider. Im Gegensatz zu vielen anderen Ländern war dessen Oberhaupt eben nicht das Reich. Die „Reichsverfassung“ stellte somit eine Art Mischverfassungssystem dar, bestehend aus dem Kaiser und den Reichsständen. Grundgesetze. Die niedergeschriebenen Gesetze und Texte, die zur Reichsverfassung gezählt wurden, entstanden in verschiedenen Jahrhunderten und ihre Anerkennung als zur Verfassung gehörig war nicht einheitlich. Dennoch lassen sich einige dieser allgemein akzeptierten Grundgesetze benennen. Die erste quasi-verfassungsrechtliche Regelung lässt sich im Wormser Konkordat von 1122 finden, mit dem der Investiturstreit endgültig beendet wurde. Die Festschreibung des zeitlichen Vorrangs der Einsetzung des Bischofs in das weltliche Amt durch den Kaiser vor der Einsetzung in das geistliche Amt durch den Papst eröffnete der weltlichen Macht eine gewisse Unabhängigkeit von der geistlichen Macht und ist damit ein erster Mosaikstein im Rahmen der jahrhundertelang andauernden Emanzipation des Staates, der hier jedoch noch kaum so genannt werden kann, von der Kirche. Reichsintern entstand der erste verfassungsrechtliche Meilenstein gut 100 Jahre später. Die ursprünglich autonomen Stammesfürstentümer hatten sich im 12. Jahrhundert zu abhängigen Reichsfürstentümern gewandelt. Friedrich II. musste auf dem Reichstag in Worms 1231 im Statut zugunsten der Fürsten Münze, Zoll, Markt und Geleit sowie das Recht zum Burgen- und Städtebau an die Reichsfürsten abtreten. Darüber hinaus erkannte Friedrich II. auf selbigem Reichstag auch das Gesetzgebungsrecht der Fürsten an. Als neben dem "Statut zugunsten der Fürsten" wichtigste Verfassungsregelung ist sicherlich die Goldene Bulle von 1356 zu nennen, die die Grundsätze der Königswahl erstmals verbindlich regelte und damit Doppelwahlen, wie bereits mehrfach geschehen, vermied. Daneben wurden aber noch die Gruppe der Fürsten zur Wahl des Königs festgelegt und die Kurfürstentümer für unteilbar erklärt, um ein Anwachsen der Zahl der Kurfürsten zu vermeiden. Außerdem schloss sie päpstliche Rechte bei der Wahl aus und beschränkte das Fehderecht. Als drittes Grundgesetz gelten die Deutschen Konkordate von 1447 zwischen Papst Nikolaus V. und Kaiser Friedrich III., in denen die päpstlichen Rechte und die Freiheiten der Kirche und der Bischöfe im Reich geregelt wurden. Dies betraf unter anderem die Wahl der Bischöfe, Äbte und Pröpste und deren Bestätigung durch den Papst, aber auch die Vergabe von kirchlichen Würden und die Eigentumsfragen nach dem Tod eines kirchlichen Würdenträgers. Die Konkordate bildeten eine wichtige Grundlage für die Rolle und Struktur der Kirche als Reichskirche in den nächsten Jahrhunderten. Der vierte dieser wichtigen Rechtsgrundsätze ist der Ewige Reichsfriede, der am 7. August 1495 auf dem Reichstag zu Worms verkündet wurde und mit der Schaffung des Reichskammergerichts gesichert werden sollte. Damit wurde das bis dahin allgemein übliche adlige Recht auf Fehde verboten und versucht das Gewaltmonopol des Staates durchzusetzen. Bewaffnete Auseinandersetzungen und Selbsthilfe des Adels wurden für rechtswidrig erklärt. Vielmehr sollten nun die Gerichte der Territorien beziehungsweise des Reiches, wenn es Reichsstände betraf, die Streitigkeiten regeln und entscheiden. Der Bruch des Landfriedens sollte hart bestraft werden. So waren für die Brechung des Landfriedens die Reichsacht oder hohe Geldstrafen ausgesetzt. Die Wormser Reichsmatrikel von 1521 kann als fünftes dieser „Reichsgrundgesetze“ betrachtet werden. In diesem wurden alle Reichsstände mit der Anzahl der für das Reichsheer zu stellenden Truppen und der Summe, die für den Unterhalt des Heeres gezahlt werden musste, erfasst. Trotz Anpassungen an die aktuellen Verhältnisse und kleinerer Änderungen war es die Grundlage der Reichsheeresverfassung. Hinzu kommen eine Anzahl weiterer Gesetze und Ordnungen, wie der Augsburger Religionsfrieden vom 25. September 1555 mit der Reichsexekutionsordnung und die Ordnung des Reichshofrates sowie die jeweilige Wahlkapitulation, die in ihrer Gesamtheit die Verfassung des Reiches seit dem Beginn der Frühen Neuzeit prägten. Nach dem Ende des Dreißigjährigen Krieges wurden die Bestimmungen des Westfälischen Friedens nach dem Austausch der Ratifikationsurkunden 1649 zum "Ewigen Grundgesetz" des Reiches erklärt. Neben den territorialen Veränderungen wurde in diesem Vertrag den Reichsterritorien endgültig die Landeshoheit zuerkannt und neben den Katholiken und Protestanten, die bereits im Augsburger Frieden als voll berechtigte Konfessionen anerkannt wurden, den Kalvinisten (Reformierten) ebenfalls dieser Status gewährt. Weiterhin wurden Bestimmungen über den Religionsfrieden und die konfessionell paritätische Besetzung von Reichsinstitutionen vereinbart. Damit war die Herausbildung der Reichsverfassung im Wesentlichen abgeschlossen. Von den Staatsrechtsgelehrten wurden aber auch die verschiedenen Reichsfriedensverträge zur Verfassung des Reiches hinzugerechnet. Beispiele hierfür sind der Frieden von Nimwegen 1678/79 und der Frieden von Rijswijk 1697, in denen die Grenzen einiger Reichsteile geändert wurden. Hinzugerechnet wurden aber auch die verschiedenen Reichsabschiede, insbesondere der Jüngste Reichsabschied von 1654 und die Regelung über den Immerwährenden Reichstag von 1663. Von heutigen Historikern wird gelegentlich der Reichsdeputationshauptschluss als "letztes Grundgesetz" des Reiches bezeichnet, da mit diesem eine vollkommen neue Grundlage der Reichsverfassung geschaffen wurde. Diese Zuordnung des Hauptschlusses wird aber nicht einheitlich verwendet, da dieser häufig als der Anfang vom Ende des Reiches angesehen wird, was eine Einordnung als Reichsgrundgesetz nicht rechtfertige. Trotzdem so Anton Schindling in seiner Analyse der Entwicklungspotentiale des Hauptschlusses, solle die historische Analyse ihn als Chance eines neuen Reichsgrundgesetz für ein erneuertes Reich ernst nehmen. Herkommen und Gewohnheitsrecht. Einerseits handelt es sich um Rechte und Gewohnheiten, die niemals schriftlich festgehalten wurden, und auf der anderen Seite um Rechte und Gewohnheiten, die zu einer Änderung von niedergeschriebenen Gesetzen und Verträgen führten. So wurde die Goldene Bulle beispielsweise dahingehend geändert, dass die Krönung des Königs ab 1562 immer in Frankfurt durchgeführt wurde und nicht wie festgelegt in Aachen. Damit solches Handeln zum Gewohnheitsrecht wurde, musste dieses immer wiederkehrend und vor allem unwidersprochen durchgeführt werden. So waren beispielsweise die Säkularisationen der norddeutschen Bistümer durch die protestantisch gewordenen Landesfürsten in der zweiten Hälfte des 16. Jahrhunderts niemals gültiges Recht, da diesen mehrfach vom Kaiser widersprochen wurde. Aber auch durch Nichtanwendung von Regeln konnte Festgeschriebenes abgeschafft werden. Von den Staatsrechtlern der damaligen Zeit wurde zwischen Herkommen, das die Staatsgeschäfte selbst betraf, dem „Reichsherkommen“, und dem Herkommen, wie man diese durchzuführen hatte, unterschieden. Zur ersten Gruppe gehörte die Vereinbarung, dass seit der Neuzeit nur ein Deutscher zum König gewählt werden konnte und dass der König seit 1519 eine Wahlkapitulation mit den Kurfürsten aushandeln musste. Aus altem Gewohnheitsrecht durften sich die vornehmsten Reichsstände mit dem Titelzusatz „von Gottes Gnaden“ versehen. Ebenso wurden deshalb die geistlichen Reichsstände als höher angesehen als ein weltlicher Reichsstand gleichen Ranges. Zur zweiten Gruppe der Gewohnheitsrechte gehörte unter anderem die Einteilung der Reichsstände in drei Kollegien mit unterschiedlichen Rechten, die Durchführung des Reichstages und die Amtsführung der Erzämter. Kaiser. Kaiserwappen, gut erkennbar sind die Wappen der habsburgischen Erblande, die rund um den doppelköpfigen Reichsadler angeordnet sind, Siebmacher 1605 Die mittelalterlichen Herrscher des Reiches sahen sich – in Anknüpfung an die spätantike "Kaiseridee" und die Idee der "Renovatio imperii," der "Wiederherstellung" des römischen Reichs unter Karl dem Großen – in direkter Nachfolge der römischen Cäsaren und der karolingischen Kaiser. Sie propagierten den Gedanken der Translatio imperii, nach dem die höchste weltliche Macht, das Imperium, von den Römern auf die Deutschen übergegangen sei. Aus diesem Grunde verband sich mit der Wahl zum römisch-deutschen König auch der Anspruch des Königs, durch den Papst in Rom zum Kaiser gekrönt zu werden. Für die reichsrechtliche Stellung des Reichsoberhauptes war dies insofern von Belang, als er damit auch zum Oberhaupt der mit dem Reich verbundenen Gebiete, Reichsitaliens und des Königreichs Burgund, wurde. Die Wahl zum König erfolgte zunächst – theoretisch – durch alle Freien des Reiches, dann durch alle Reichsfürsten, schließlich nur noch durch die wichtigsten Fürsten des Reiches, praktisch diejenigen, die als Rivale auftreten oder (Erzbischöfe) in anderer Weise dem König das Regieren unmöglich machen konnten. Der genaue Personenkreis war jedoch umstritten und mehrmals kam es zu Doppelwahlen, da sich die Fürsten nicht auf einen gemeinsamen Kandidaten einigen konnten. Erst die Goldene Bulle legte 1356 den Kreis der Wahlberechtigten und das Mehrheitsprinzip verbindlich fest. Seit Maximilian I. (1508) nannte sich der neu gewählte König „Erwählter Römischer Kaiser“, auf eine Krönung durch den Papst in Rom wurde fortan verzichtet. Nur Karl V. ließ sich vom Papst krönen, allerdings in Bologna. Umgangssprachlich und in der älteren Literatur wird die Bezeichnung "deutscher Kaiser" für die „Kaiser des Heiligen Römischen Reiches Deutscher Nation“ verwendet. Im 18. Jahrhundert wurden diese Bezeichnungen auch in offizielle Dokumente übernommen. Die neuere historische Literatur bezeichnet die Kaiser des Heiligen Römischen Reiches hingegen als Römisch-deutsche Kaiser, um sie von den römischen Kaisern der Antike einerseits und von den Deutschen Kaisern des 19. und frühen 20. Jahrhunderts andererseits zu unterscheiden. Der Kaiser war das Reichsoberhaupt und oberster Lehnsherr. Wenn in frühneuzeitlichen Akten vom Kaiser die Rede ist, ist immer das Reichsoberhaupt gemeint. Ein eventuell zu Lebzeiten des Kaisers gewählter „Römischer König“ bezeichnete nur den Nachfolger und zukünftigen Kaiser. Solange der Kaiser noch lebte, konnte der König keine eigenen Rechte in Bezug auf das Reich aus seinem Titel ableiten. Gelegentlich wurden dem König, wie es Karl V. im Falle seiner Abwesenheit aus dem Reich bei seinem Bruder und römischen König Ferdinand I. tat, die Statthalterschaft und damit zumindest beschränkte Regierungsrechte übertragen. Der König übernahm nach dem Tode des Kaisers oder, wie im Falle Karls V., der Niederlegung der Krone ohne weitere Formalien die Herrschaft im Reich. Der Titel des Kaisers impliziert spätestens seit der Frühen Neuzeit mehr Machtfülle, als tatsächlich in dessen Händen lag, und ist mit dem der antiken römischen Cäsaren und auch den mittelalterlichen Kaisern nicht vergleichbar. Er konnte tatsächlich nur im Zusammenwirken mit den Reichsständen, darunter insbesondere den Kurfürsten, politisch wirksam werden. Rechtsgelehrte des 18. Jahrhunderts teilten die Befugnisse des Kaisers oft in drei Gruppen ein. Die erste Gruppe umfasste die sogenannten Komitialrechte (lateinisch "iura comitialia"), zu denen der Reichstag seine Zustimmung geben musste. Zu diesen Rechten gehörten alle wesentlichen Regierungshandlungen wie Reichssteuern, Reichsgesetze sowie Kriegserklärungen und Friedensschlüsse, die das ganze Reich betrafen. Die zweite Gruppe umfasste die "iura caesarea reservata limitata," die begrenzten kaiserlichen Reservatrechte, für deren Ausübung die Kurfürsten zustimmen mussten oder zumindest deren Billigung eingeholt werden musste. Zu diesen Rechten gehörte die Einberufung des Reichstags und die Erteilung von Münz- und Zollrechten. Die dritte Gruppe umfasste die als "iura reservata illimitata" oder kurz "iura reservata" bezeichneten Rechte, die der Kaiser ohne Zustimmung der Kurfürsten im gesamten Reich ausüben konnte und deren Wahrnehmung nur an die Grenzen des geltenden Verfassungsrechts, wie der Wahlkapitulationen und der Rechte der Reichsstände, geknüpft war. Die wichtigsten dieser Rechte waren das Recht, Hofräte zu ernennen, dem Reichstag eine Tagesordnung vorzulegen, Standeserhöhungen vorzunehmen. Daneben gab es einige weitere Rechte, die für die Reichspolitik weniger wichtig waren, wie beispielsweise das Recht akademische Grade zu verleihen und uneheliche Kinder zu legitimieren. Die Zusammensetzung der kaiserlichen Rechte veränderte sich im Laufe der Frühen Neuzeit immer mehr in Richtung der zustimmungspflichtigen Rechte. So war das Recht die Reichsacht zu verhängen ursprünglich ein Reservatrecht, war am Ende aber der Zustimmung des Reichstages unterworfen, wurde also zu einem Komitialrecht. Reichsstände. a> mit den Reichsständen als Symbol des Reiches, Holzschnitt von Hans Burgkmair d. Ä., 1510 Als Reichsstände bezeichnet man diejenigen reichsunmittelbaren Personen oder Korporationen, die Sitz und Stimme im Reichstag hatten. Sie waren keinem Landesherrn untertan und entrichteten ihre Steuern an das Reich. Zu Beginn der Frühen Neuzeit hatte sich der Umfang der Reichsstandschaft endgültig herausgebildet. Neben den Unterschieden der Reichsstände entsprechend ihrem Range unterscheidet man außerdem zwischen geistlichen und weltlichen Reichsständen. Diese Unterscheidung ist insofern wichtig, als im Heiligen Römischen Reich geistliche Würdenträger, wie Erzbischöfe und Bischöfe, auch Landesherren sein konnten. Neben der Diözese, in der der Bischof das Oberhaupt der Kirche bildete, regierte er oft auch über einen Teil des Diözesangebietes und war in diesem gleichzeitig der Landesherr. Dieses Gebiet wurde als Hochstift, bei Erzbischöfen als Erzstift, bezeichnet. Hier erließ er Verordnungen, zog Steuern ein, vergab Privilegien wie ein weltlicher Landesherr auch. Um diese Doppelrolle als geistliches und weltliches Oberhaupt zu verdeutlichen, wird solch ein Bischof auch als Fürstbischof bezeichnet. Erst diese weltliche Rolle der Fürstbischöfe begründete deren Zugehörigkeit zu den Reichsständen. Kurfürsten. Die Kurfürsten ("principes electores imperii") waren eine durch das Recht der Wahl des römisch-deutschen Königs hervorgehobene Gruppe von Reichsfürsten. Sie galten als die „Säulen des Reiches“. Das Kurfürstenkolleg vertrat gegenüber dem Kaiser das Reich und handelte als des Reiches Stimme. Das Kurkolleg war das "cardo imperii," das Scharnier zwischen Kaiser und Reichsverband. Die weltlichen Kurfürsten hatten die Reichsämter inne, die sie während der Krönungsfeierlichkeiten eines neuen Königs beziehungsweise Kaisers ausübten. Das Kurkollegium bildete sich im 13. Jahrhundert heraus und ist erstmals bei der Doppelwahl von 1257 als Wahlkollegium fassbar. Im Jahr 1298 wurde es erstmals ausdrücklich als „collegium“, seine Mitglieder erstmals als „kurfursten“ benannt. Das Gremium wurde durch die Goldene Bulle von Karl IV. 1356 auf sieben Fürsten festgeschrieben. Im Spätmittelalter waren dies die drei geistlichen Kurfürsten von Mainz, Köln und Trier und vier weltliche Kurfürsten, der König von Böhmen, der Markgraf von Brandenburg, der Pfalzgraf bei Rhein und der Herzog von Sachsen. Kaiser Ferdinand II. übertrug 1632 die pfälzische Kur auf das Herzogtum Bayern. Im Westfälischen Frieden wurde die pfälzische Kur als achte erneut eingerichtet und 1692 erhielt das Herzogtum Braunschweig-Lüneburg eine neunte Kur, die aber erst 1708 durch den Reichstag bestätigt wurde. Der König von Böhmen spielte eine besondere Rolle, da er sich seit den Hussitenkriegen nur noch an den Königswahlen, aber nicht mehr an den anderen Tätigkeiten des Kurkollegs beteiligte. Erst seit der „Readmission“ von 1708 änderte sich dies wieder. Durch ihr exklusives Wahlrecht, die von ihnen allein ausgehandelte Wahlkapitulation des Kaisers und durch die von ihnen ausgeübte und verteidigte Vorrangstellung gegenüber den anderen Reichsfürsten bestimmten die Kurfürsten die Reichspolitik besonders bis zum Ende des Dreißigjährigen Krieges entscheidend mit. Sie trugen bis in die 1630er Jahre Verantwortung für das Reich als Ganzes. Dies spiegelte sich insbesondere in den Kurfürstentagen wider. Ab da wurde der exklusive Führungsanspruch durch die anderen Reichsstände bestritten und bekämpft. Seit den 1680er Jahren gelang es, den Reichstag als Ganzes aufzuwerten, so dass der Einfluss des Kurfürstenkollegs zwar stark zurückging, aber trotzdem das erste und wichtigste Gremium des Reichstages blieb. Reichsfürsten. Der Stand der Reichsfürsten hatte sich im Hochmittelalter herausgebildet und umfasste alle die Fürsten, die ihr Lehen nur und unmittelbar vom König bzw. Kaiser erhalten hatten. Es bestand also eine lehnsrechtliche Reichsunmittelbarkeit. Hinzu kamen aber auch Fürsten, die durch Standeserhebungen oder schlicht durch Gewohnheitsrecht zu den Reichsfürsten gezählt wurden. Zu den Reichsfürsten zählten Adlige, die über unterschiedlich große Territorien herrschten und unterschiedliche Titel trugen. Die Reichsfürsten gliederten sich genauso wie die Kurfürsten in eine weltliche und eine geistliche Gruppe. Nach der Reichsmatrikel von 1521 zählten zu den geistlichen Reichsfürsten die vier Erzbischöfe von Magdeburg, Salzburg, Besançon und Bremen und 46 Bischöfe. Diese Zahl verringerte sich bis 1792 auf die beiden Erzbischöfe von Salzburg und Besançon und 22 Bischöfe. Entgegen der Anzahl der geistlichen Reichsfürsten, die sich bis zum Ende des Reiches um ein Drittel reduzierte, erhöhte sich die Anzahl der weltlichen Reichsfürsten auf mehr als das Doppelte. Die Wormser Reichsmatrikel von 1521 zählte noch 24 weltliche Reichsfürsten. Ende des 18. Jahrhunderts werden hingegen 61 Reichsfürsten aufgeführt. Auf dem Augsburger Reichstag von 1582 wurde die Erhöhung der Anzahl der Reichsfürsten durch dynastische Zufälle eingeschränkt. Die Reichsstandschaft wurde an das Territorium des Fürsten gebunden. Erlosch eine Dynastie, übernahm der neue Territorialherr die Reichsstandschaft; im Falle von Erbteilungen übernahmen sie die Erben gemeinsam. Die Reichsfürsten bildeten auf dem Reichstag den Reichsfürstenrat, auch Fürstenbank genannt. Diese war entsprechend der Zusammensetzung der Fürstenschaft in eine geistliche und eine weltliche Bank geteilt. Durch die Bindung des Reichsfürstenstandes an die Herrschaft über ein Territorium war die Anzahl der Stimmen nach der Reichsmatrikel bestimmt und bildete die Grundlage für die Stimmberechtigung im Reichstag. War ein weltlicher oder geistlicher Fürst Herr über mehrere Reichsterritorien, so verfügte er auch über die dementsprechende Anzahl von Stimmen. Die größeren der Fürsten waren an Macht und Größe der regierten Territorien zumindest den geistlichen Kurfürsten überlegen und forderten deshalb seit dem zweiten Drittel des 17. Jahrhunderts eine politische und zeremonielle Gleichstellung der Reichsfürsten mit den Kurfürsten. Reichsprälaten. Neben den zu den Reichsfürsten gehörenden Erzbischöfen und Bischöfen bildeten die Vorsteher der reichsunmittelbaren Klöster und Kapitel einen eigenen Stand innerhalb des Reiches. Der Stand der "Reichsprälaten" bestand somit aus den Reichsäbten, Reichspröpsten und Reichsäbtissinnen. Die Reichsmatrikel von 1521 erfasste 83 Reichsprälaten, deren Anzahl sich bis 1792 durch Mediatisierungen, Säkularisationen, Abtretungen an andere europäische Staaten und Erhebungen in den Fürstenstand auf 40 verringerte. Auch der Austritt der Schweizer Eidgenossenschaft trug zur Verringerung der Zahl der Reichsprälaten bei, da unter anderem St. Gallen, Schaffhausen und Einsiedeln und damit deren Klöster nicht mehr zum Reich gehörten. Die Gebiete der Reichsprälaten waren oft sehr klein – manchmal umfassten sie nur wenige Gebäude – und konnten sich nur mit Mühe dem Zugriff der umliegenden Territorien entziehen, was auch nicht immer auf Dauer gelang. Die meisten Reichsprälaturen lagen im Südwesten des Reiches. Durch die geografische Nähe zueinander entwickelte sich ein Zusammenhalt, der sich in der Gründung des "Schwäbischen Reichsprälatenkollegiums" 1575 abbildete und in der Folge noch stärker wurde. Dieses Kollegium bildete auf den Reichstagen eine geschlossene Gruppe und besaß eine Kuriatsstimme, die einer Stimme eines Reichsfürsten gleichgestellt war. Alle anderen Reichprälaten bildeten das "Rheinische Reichsprälatenkollegium," das auch eine eigene Stimme besaß, aber aufgrund der größeren geografischen Verteilung seiner Mitglieder nie den Einfluss des schwäbischen Kollegiums erreichte. Reichsgrafen. Diese Gruppe war die zahlenmäßig größte unter den Reichsständen und vereinigte diejenigen Adligen, denen es nicht gelungen war, ihren Besitz in ein Königslehen umzuwandeln, da die Grafen ursprünglich nur Verwalter von Reichseigentum bzw. Stellvertreter des Königs in bestimmten Gebieten waren. Trotzdem verfolgten die Grafen wie die größeren Fürsten das Ziel, ihren Besitz in einen Territorialstaat umzuwandeln. Faktisch waren sie schon seit dem Hochmittelalter Landesherren und wurden auch gelegentlich in den Reichsfürstenstand erhoben, wie man an dem Beispiel der größten Grafschaft Württemberg sieht, die 1495 zum Herzogtum erhoben wurde. Die zahlreichen, zumeist kleinen reichsunmittelbaren Gebiete der Reichsgrafen – die Reichsmatrikel von 1521 zählt 143 Grafen auf – trugen sehr stark zum Eindruck der Zersplitterung des Reichsgebietes bei. In der Liste von 1792 tauchen immerhin noch fast 100 Reichsgrafen auf, was trotz zahlreicher Mediatisierungen und dem Erlöschen von Adelsgeschlechtern auf den Umstand zurückzuführen ist, dass im Laufe der Frühen Neuzeit zahlreiche Personen in den Reichsgrafenstand erhoben wurden, die aber nicht mehr über reichsunmittelbares Gebiet verfügten. Reichsstädte. Frankfurt am Main war eine der wichtigsten Reichsstädte und Wahl- und Krönungsort der Kaiser seit 1562, Stich aus dem Jahr 1658 Die Reichsstädte bildeten eine politische und rechtliche Ausnahme, da sich in diesem Fall die Reichsstandschaft nicht auf eine Einzelperson bezog, sondern auf die Stadt als Ganzes, die vom Rat vertreten wurde. Von den anderen Städten des Reiches hoben sie sich dadurch ab, dass sie nur den Kaiser als Herrn hatten. Rechtlich waren sie den anderen Reichsterritorien gleichgestellt. Allerdings besaßen nicht alle reichsunmittelbaren Städte Sitz und Stimme im Reichstag und damit die Reichsstandschaft. Von den 1521 in der Reichsmatrikel erwähnten 86 Reichsstädten konnten sich nur drei Viertel die Mitgliedschaft im Reichstag sichern. Bei den anderen war die Reichsstandschaft umstritten beziehungsweise niemals gegeben. So konnte Hamburg beispielsweise seinen Sitz im Reichstag erst 1770 einnehmen, da Dänemark die gesamte Frühe Neuzeit über diesen Status bestritten hatte und dieser erst 1768 im Gottorper Vertrag endgültig festgestellt wurde. Die Wurzeln der frühneuzeitlichen Reichsstädte lagen einerseits in den mittelalterlichen Stadtgründungen der römisch-deutschen Könige und Kaiser, die dann als "des Reichs Städte" angesehen wurden und nur dem Kaiser untertan waren. Auf der anderen Seite gab es Städte, die sich im Spätmittelalter, verstärkt seit dem Investiturstreit, aus der Herrschaft eines meist geistlichen Stadtherren befreien konnten. Diese als „Freie Städte“ bezeichneten Städte hatten im Gegensatz zu den Reichsstädten keine Steuern und Heeresleistungen an den Kaiser zu entrichten. Seit 1489 bildeten die Reichsstädte und die Freien Städte das Reichsstädtekollegium und wurden unter dem Begriff „Freie- und Reichsstädte“ zusammengefasst. Im Sprachgebrauch verschmolz diese Formel im Laufe der Zeit zur „Freien Reichsstadt“. Bis 1792 nahm die Zahl der Reichsstädte auf 51 ab. Nach dem "Reichsdeputationshauptschluss" von 1803 blieben als Reichsstädte sogar nur noch die Städte Hamburg, Lübeck, Bremen, Frankfurt, Augsburg und Nürnberg übrig. Die Rolle und Bedeutung der Städte nahm seit dem Mittelalter ebenfalls immer mehr ab, da viele nur sehr klein waren und sich häufig dem Druck der umliegenden Territorien nur schwer widersetzen konnten. Bei den Beratungen des Reichstages wurde die Meinung der Reichsstädte meist nur pro forma zur Kenntnis genommen, nachdem sich die Kurfürsten und die Reichsfürsten geeinigt hatten. Reichsritter. Der reichsunmittelbare Stand der Reichsritter gehörte nicht den Reichsständen an und fand auch keine Beachtung in der Reichsmatrikel von 1521. Die Reichsritter gehörten dem niederen Adel an und waren zu Beginn der Frühen Neuzeit als eigener Stand erkennbar. Zwar gelang ihnen nicht wie den Reichsgrafen die volle Anerkennung, jedoch konnten sie sich dem Zugriff der diversen Territorialfürsten widersetzen und ihre Reichsunmittelbarkeit bewahren. Sie genossen den besonderen Schutz des Kaisers, blieben aber vom Reichstag ausgeschlossen und wurden auch nicht in die Reichskreisverfassung einbezogen. Ab dem Spätmittelalter schlossen sich die Reichsritter in Ritterbünden zusammen, die es ihnen erlaubten, ihre Rechte und Privilegien zu bewahren und ihre Pflichten gegenüber dem Kaiser zu erfüllen. Deshalb organisierte sich die Reichsritterschaft ab der Mitte des 16. Jahrhunderts in insgesamt 15 Ritterorten, die wiederum, bis auf eine Ausnahme in drei Ritterkreisen zusammengefasst wurden. Die Ritterorte wurden seit dem 17. Jahrhundert nach dem Vorbild der Schweizer Eidgenossenschaft „Kantone“ genannt. Seit 1577 fanden zwar als „Generalkorrespondenztage“ bezeichnete Zusammenkünfte der Reichsritterschaft statt, jedoch blieben die Kreise und besonders die Kantone auf Grund der starken territorialen Verankerung der Ritter wesentlich wichtiger. Die Reichsritter wurden sehr häufig durch den Kaiser zu Kriegsdiensten herangezogen und gewannen dadurch einen sehr großen Einfluss im Militär und der Verwaltung des Reiches, aber auch auf die Territorialfürsten. Reichsdörfer. Die Reichsdörfer wurden im Westfälischen Frieden von 1648 neben den anderen Reichsständen und der Reichsritterschaft anerkannt. Diese Überbleibsel der im 15. Jahrhundert aufgelösten Reichsvogteien waren zahlenmäßig gering und bestanden aus auf ehemaligen Krongütern gelegenen Gemeinden, Reichsflecken oder waren sogenannte Freie Leute. Sie besaßen die Selbstverwaltung und hatten die niedere, teilweise sogar die hohe Gerichtsbarkeit und unterstanden nur dem Kaiser. Von den ursprünglich 120 urkundlich bekannten Reichsdörfern existierten 1803 nur noch fünf, die im Rahmen des Reichsdeputationshauptschlusses mediatisiert, also benachbarten großen Fürstentümern zugeschlagen wurden. Institutionen des Reiches. Institutionen des Reiches seit der Frühen Neuzeit Reichstag. Der Reichstag war das bedeutendste und dauerhafteste Ergebnis der Reichsreformen des späten 15. und frühen 16. Jahrhunderts. Er entwickelte sich seit der Zeit Maximilians I. zur obersten Rechts- und Verfassungsinstitution, ohne dass es einen formellen Einsetzungsakt oder eine gesetzliche Grundlage gab. Im Kampf um eine stärker zentralistische oder stärker föderalistische Prägung des Reiches zwischen dem Kaiser und den Reichsfürsten entwickelte er sich zu einem der Garanten für den Erhalt des Reiches. Bis 1653/54 trat der Reichstag in verschiedenen Reichsstädten zusammen und bestand seit 1663 als Immerwährender Reichstag in Regensburg. Der Reichstag durfte nur vom Kaiser einberufen werden, der aber seit 1519 verpflichtet war, vor Versendung der „Ausschreiben“ genannten Einladungsschreiben die Kurfürsten um Zustimmung zu bitten. Der Kaiser hatte ebenfalls das Recht die Tagesordnung festzulegen, wobei er aber nur einen geringen Einfluss auf die tatsächlich diskutierten Themen hatte. Die Leitung des Reichstages hatte der Kurfürst von Mainz inne. Der Reichstag konnte einige Wochen bis mehrere Monate dauern. Die Beschlüsse des Reichstages wurden in einem beurkundeten Dokument niedergelegt, dem Reichsabschied. Der letzte dieser Reichsabschiede war der Jüngste Reichsabschied "(recessus imperii novissimus)" von 1653/54. Die Permanenz des Immerwährenden Reichstags nach 1663 wurde nie formell beschlossen, sondern entwickelte sich aus den Umständen der Beratungen. Der Immerwährende Reichstag entwickelte sich aufgrund seiner Permanenz recht schnell zu einem reinen Gesandtenkongress, auf dem die Reichsstände nur sehr selten erschienen. Da der Immerwährende Reichstag seit 1663 nicht formell beendet wurde, wurden seine Beschlüsse in Form sogenannter "Reichsschlüsse" niedergelegt. Die Ratifizierung dieser Beschlüsse wurde meist durch den Vertreter des Kaisers beim Reichstag, den Prinzipalkommissar, in Form eines „Kaiserlichen Commissions-Decrets“ durchgeführt. Die Entscheidungen wurden in einem langwierigen und komplizierten Entscheidungs- und Beratungsverfahren getroffen. Wenn durch Mehrheits- oder einstimmigen Beschluss Entscheidungen in den jeweiligen Ständeräten getroffen waren, wurden die Beratungsergebnisse ausgetauscht und versucht, dem Kaiser einen gemeinsamen Beschluss der Reichsstände vorzulegen. Auf Grund der immer schwerer werdenden Entscheidungsprozesse wurde auch versucht, die Entscheidung mittels verschiedener Ausschüsse zu erleichtern. Nach der Reformation und dem Dreißigjährigen Krieg bildeten sich infolge der Glaubensspaltung 1653 das "Corpus Evangelicorum" und später das "Corpus Catholicorum." Diese versammelten die Reichsstände der beiden Konfessionen und berieten getrennt die Reichsangelegenheiten. Der Westfälische Frieden bestimmte nämlich, dass in Religionsangelegenheiten nicht mehr das Mehrheitsprinzip, sondern das Konsensprinzip gelten sollte. Reichskreise. Reichskreiseinteilung seit 1512. Die kreisfreien Territorien sind weiß dargestellt. Die Reichskreise entstanden infolge der Reichsreform am Ende des 15. Jahrhunderts beziehungsweise zu Beginn des 16. Jahrhunderts und der Verkündung des Ewigen Landfriedens in Worms 1495. Sie dienten hauptsächlich der Aufrechterhaltung und Wiederherstellung des Landfriedens durch den geographischen Zusammenhang seiner Mitglieder. Ausbrechende Konflikte sollten bereits auf dieser Ebene gelöst und über Störer des Landfriedens gerichtet werden. Außerdem verkündeten die Kreise die Reichsgesetze und setzten sie notfalls auch durch. Die ersten sechs Reichskreise wurden auf dem Reichstag von Augsburg 1500 im Zusammenhang mit der Bildung des Reichsregiments eingerichtet. Sie wurden lediglich mit Nummern bezeichnet und setzten sich aus Reichsständen aller Gruppen, mit Ausnahme der Kurfürsten, zusammen. Mit der Schaffung vier weiterer Reichskreise 1512 wurden nun auch die österreichischen Erblande und die Kurfürstentümer mit in die Kreisverfassung eingebunden. Außerhalb der Kreiseinteilung blieben bis zum Ende des Reiches das Kurfürstentum und Königreich Böhmen mit den zugehörigen Gebieten Schlesien, Lausitz und Mähren. Ebenso nicht eingebunden wurden die Schweizerische Eidgenossenschaft, die Reichsritterschaft, die Lehnsgebiete in Reichsitalien und einige Reichsgrafschaften und -herrschaften, wie beispielsweise Jever. Reichskammergericht. Audienz am Reichskammergericht, Kupferstich, 1750 Das Reichskammergericht wurde im Zuge der Reichsreform und der Errichtung des Ewigen Landfriedens 1495 unter dem römisch-deutschen König Maximilian I. errichtet und hatte bis zum Ende des Reiches 1806 Bestand. Es war neben dem Reichshofrat das oberste Gericht des Reiches und hatte die Aufgabe ein geregeltes Streitverfahren an die Stelle von Fehden, Gewalt und Krieg zu setzen. Es ermöglichte als Appellationsgericht auch Prozesse von Untertanen gegen ihren jeweiligen Landesherrn. Nach seiner Gründung am 31. Oktober 1495 hatte das Gericht seinen Sitz in Frankfurt am Main. Nach Zwischenstationen in Worms, Augsburg, Nürnberg, Regensburg, Speyer und Esslingen war es ab 1527 in Speyer und nach dessen Zerstörung infolge des Pfälzischen Erbfolgekrieges von 1689 bis 1806 in Wetzlar ansässig. Nach den Beschlüssen des Reichstages von Konstanz 1507 entsandten die Kurfürsten je einen von den insgesamt 16 Assessoren, also den Beisitzern des Gerichtes. Der römisch-deutsche König benannte für Burgund und Böhmen je zwei und jeder der 1500 gebildeten Reichskreise durfte einen Beisitzer zum Reichskammergericht entsenden. Außerdem wurden die letzten beiden Sitze auf Vorschlag der Reichskreise durch den Reichstag gewählt, so dass die Assessoren des Reichskammergerichts zur Hälfte aus Vertretern der Reichskreise bestanden. Auch als 1555 die Anzahl der Beisitzer auf 24 erhöht wurde, blieb die Rolle der Reichskreise entsprechend ihrer Wichtigkeit für den Landfrieden erhalten. Seitdem durfte jeder Reichskreis einen ausgebildeten Juristen und einen Vertreter der Reichsritterschaft entsenden, also jetzt zwei Vertreter. Auch nach dem Westfälischen Frieden, in dem die Anzahl auf 50 erhöht wurde, und dem Jüngsten Reichsabschied wurde die Hälfte der Assessoren mit Vertretern der Reichskreise besetzt. Durch die Einrichtung des Gerichtes wurde die oberste Richterfunktion des Königs und Kaisers aufgehoben und dem Einfluss der Reichsstände zugänglich. Dies war bei dem seit Anfang des 15. Jahrhunderts bestehenden königlichen Kammergericht nicht der Fall gewesen. Die erste Reichskammergerichtsordnung vom 7. August 1495 begründete "Unser" [also des Königs] "und des Hailigen Reichs Cammergericht". Vom selben Tag datieren auch die Urkunden zum "Ewigen Landfrieden", "Handhabung Friedens und Rechts" und die "Ordnung des Gemeinen Pfennigs", die alle zusammen den Erfolg der Reichsstände gegenüber dem Kaiser zeigen, was sich auch bei den Regelungen für das Gericht bezüglich Tagungsort, eine von der Residenz des Kaisers weit entfernte Reichsstadt, Finanzierung und personeller Zusammensetzung zeigte. Die Partizipation der Stände an der Einrichtung und Organisation des Gerichtes hatte aber zur Folge, dass diese sich an der Finanzierung beteiligen mussten, da dessen Gebühren und sonstige Einnahmen dafür nicht ausreichten. Wie wichtig aber das Gericht den Ständen war, zeigt die Tatsache, dass mit dem "Kammerzieler" die einzige ständige Reichssteuer durch diese bewilligt wurde, nachdem der "Gemeine Pfennig" als allgemeine Reichssteuer 1507 im Reichsabschied von Konstanz scheiterte. Trotz festgelegter Höhe und Zahlungstermine kam es aber immer wieder durch Zahlungsverzug beziehungsweise -verweigerung zu finanziellen Schwierigkeiten und auch noch im 18. Jahrhundert zu dadurch verursachten langen Unterbrechungen in der Arbeit des Gerichtes. Reichshofrat. Der Reichshofrat war neben dem Reichskammergericht die oberste gerichtliche Instanz. Seine Mitglieder wurden allein vom Kaiser ernannt und standen diesem, zusätzlich zu den gerichtlichen Aufgaben, auch als Beratungsgremium und Regierungsbehörde zur Verfügung. Neben den Rechtsgebieten, die auch durch das Reichskammergericht behandelt werden konnten, gab es einige Streitfälle, die nur vor dem Reichshofrat verhandelt werden konnten. So war der Reichshofrat ausschließlich zuständig für alle Fälle, die Reichslehnsachen, inklusive Reichsitalien, und die kaiserlichen Reservatrechte betrafen. Da sich der Reichshofrat im Gegensatz zum Reichskammergericht nicht streng an die damalige Gerichtsordnung halten musste und sehr oft auch davon abwich, waren Verfahren vor dem Reichshofrat im Allgemeinen zügiger und unbürokratischer. Außerdem beauftragte der Reichshofrat häufig örtliche, nicht am Konflikt beteiligte Reichsstände mit der Bildung einer „Kommission“, die die Vorgänge vor Ort untersuchen sollte. Auf der anderen Seite überlegten sich protestantische Kläger oft, ob sie tatsächlich vor einem Gericht des Kaisers, der stets katholisch war und auch bis ins 18. Jahrhundert nur Katholiken in den Reichshofrat berief, klagen wollten. Reichsmilitärwesen. Kannte das Reich im Mittelalter vor allem ein Aufgebot von Kaisern, Herzögen bzw. Kurfürsten, entwickelte sich im 16. Jahrhundert ein Reichsmilitärwesen, das aber niemals mit den aufkommenden Stehenden Heeren vergleichbar war. Zum einen gab es ein „Kaiserliches Heer“, das sich privilegiert bis zuletzt aus dem ganzen Reich rekrutierte aber zunehmend den habsburgischen Hausinteressen diente. Zum anderen schuf die Reichsheeresverfassung zusätzlich eine Reichsarmee, die mit der Reichsgeneralität vom Reichstag eingesetzt wurde. Daneben stellten die besonders gefährdeten vorderen Reichskreise in Zeiten der Gefahr als Kreisassoziationen beträchtliche Truppenkontingente auf. Zersplittert in Aufgebote der Reichskreise und darin in Kreisständen leistete sie gemeinsam mit den Kaiserlichen Dienste in den Reichskriegen gegen die Türken und Frankreich, wurde aber spätestens mit der Reichsexekution gegen Preußen bedeutungslos. Reichsgebiet und Bevölkerung. Das Gebiet des Heiligen Römischen Reiches im Zeitraum von 962 bis 1806 Gebiet des Reiches. Zum Zeitpunkt der Entstehung des Reiches umfasste das Reichsgebiet etwa 470.000 Quadratkilometer und wurde nach groben Schätzungen um das Jahr 1000 von zehn und mehr Einwohnern pro Quadratkilometer bewohnt. Dabei ist das in der Antike zum Römischen Reich gehörende Gebiet im Westen dichter besiedelt als die Gebiete im Osten. Vom 11. bis zum 14. Jahrhundert verdreifachte sich die Bevölkerung auf ungefähr 12 Millionen; im Zuge der Pestwellen und der Flucht vieler Juden nach Polen im 14. Jahrhundert verstarb nach vorsichtigen Schätzungen etwa ein Drittel der Bevölkerung in Deutschland. Das Reich bestand seit 1032 aus dem "Regnum Francorum" (Ostfrankenreich), später auch "Regnum Teutonicorum" genannt, dem "Regnum Langobardorum" oder "Regnum Italicum" im heutigen Nord- und Mittelitalien und dem Königreich Burgund. Der Prozess der Nationalstaatsbildung und dessen Institutionalisierung in den anderen europäischen Ländern wie Frankreich und England im Spätmittelalter und der beginnenden Neuzeit umfasste auch die Notwendigkeit, klar umrissene Außengrenzen zu besitzen, innerhalb derer der Staat präsent war. Im Mittelalter handelte es sich trotz der auf modernen Karten vermeintlich erkennbaren präzise definierten Grenzen um mehr oder minder breite Grenzsäume mit Überlappungen und verdünnter Herrschaftspräsenz der einzelnen Reiche. Seit dem 16. Jahrhundert kann man für die Reichsterritorien und die anderen europäischen Staaten im Prinzip eine fest umrissene Staatsfläche erkennen. Das Heilige Römische Reich umfasste hingegen die ganze Frühe Neuzeit hindurch Gebiete mit einer engen Bindung an das Reich, Zonen mit verdünnter Präsenz des Reiches und Randbereiche, die sich gar nicht am politischen System des Reiches beteiligten, obwohl sie im Allgemeinen zum Reich gerechnet wurden. Die Reichszugehörigkeit definierte sich vielmehr aus der aus dem Mittelalter stammenden lehnsrechtlichen Bindung an den König bzw. Kaiser und den daraus folgenden rechtlichen Konsequenzen. Die Mitgliedschaft zum Lehnsverband und der Umfang der lehnsrechtlichen Bindung an den Herrscher waren selten eindeutig. Ziemlich klar fassbar sind die Grenzen des Reiches im Norden auf Grund der Meeresküsten und entlang der Eider, die die Herzogtümer Holstein, das zum Reich gehörte, und Schleswig, das ein Lehen Dänemarks war, voneinander trennte. Im Südosten, wo die österreichischen Erblande der Habsburger mit Österreich unter der Enns, der Steiermark, Krain, Tirol und dem Hochstift Trient die Grenzen des Reiches markierten, sind die Grenzen auch klar erkennbar. Im Nordosten gehörten Pommern und Brandenburg zum Reich. Das Gebiet des Deutschen Ordens wird hingegen von den meisten heutigen Historikern nicht als zum Reich gehörig betrachtet, obwohl es deutsch geprägt war und schon 1226 vor seiner Gründung in der Goldbulle von Rimini als kaiserliches Lehen betrachtet wurde, das er mit Privilegien ausstattet, was natürlich sinnlos gewesen wäre, wenn er das Gebiet nicht als zum Reich zugehörig betrachtet hätte. Auch erklärte der Augsburger Reichstag von 1530 Livland zum Mitglied des Reiches, und die Umwandlung des Ordensgebietes Preußen in ein polnisches Lehensherzogtum wurde vom Reichstag lange nicht akzeptiert. Das Königreich Böhmen wird im Allgemeinen auf Karten als zum Reich zugehörig dargestellt. Dies ist insofern richtig, als Böhmen kaiserliches Lehnsgebiet war und der böhmische König, den es aber erst seit der Stauferzeit gab, den Kurfürsten angehörte. In der überwiegend tschechisch sprechenden Bevölkerung Böhmens war das Zugehörigkeitsgefühl zum Reich jedoch nicht stark ausgeprägt. Im Westen und Südwesten des Reiches lassen sich kaum unstrittige Grenzen angeben. Sehr gut ist dies am Beispiel der Niederlande zu erkennen. Die habsburgischen Niederlande, die etwa das Gebiet des heutigen Belgien und der Niederlande umfassten, wurden durch den Burgundischen Vertrag von 1548 zu einem Gebiet mit verringerter Reichspräsenz gemacht, beispielsweise aus der Gerichtshoheit des Reiches entlassen, was aber keine endgültige Entlassung aus dem Reichsverband bedeutete. Nach dem Ende des Dreißigjährigen Krieges 1648 sahen sich die 13 nördlichen niederländischen Provinzen endgültig als nicht mehr dem Reich zugehörig, und niemand widersprach. Von Frankreich mehr oder minder allmählich aus dem Reichsverband gelöst wurden im 16. Jahrhundert die Hochstifte Metz, Toul und Verdun und im späten 17. Jahrhundert und frühen 18. Jahrhundert durch die „Reunionspolitik“ weitere reichsständische Gebiete. Dazu gehörte die Annexion der Reichsstadt Straßburg 1681. Das bereits aufgestellte Heer mit 40.000 Mann zur Befreiung der Stadt konnte nicht mehr eingreifen, da Truppen zur Türkenabwehr vor Wien gebraucht wurden. Die Schweizer Eidgenossenschaft gehörte "de jure" seit 1648 nicht mehr zum Reich, aber bereits seit dem Frieden zu Basel 1499 hat die Eidgenossenschaft fast nicht mehr an der Reichspolitik teilgenommen. Trotzdem lässt sich die früher vertretene These nicht halten, der Frieden zu Basel habe "de facto" ein Ausscheiden der Eidgenossenschaft aus dem Reich bedeutet, denn die eidgenössischen Orte verstanden sich weiterhin als ein Teil des Reichs. Das südlich der Schweiz gelegene Savoyen gehörte juristisch gesehen sogar bis 1801 zum Reich, seine Zugehörigkeit zum Reich war aber schon längst gelockert. Über die Gebiete Reichsitaliens, also das Großherzogtum Toskana, die Herzogtümer Mailand, Mantua, Modena, Parma und Mirandola, beanspruchte der Kaiser die Lehnshoheit, als "deutsch" empfanden sich diese Gebiete ebenso wenig, wie sie an der Reichspolitik teilnahmen. Sie nahmen nicht die Rechte eines Reichsmitgliedes in Anspruch, genauso unterwarfen sie sich aber auch nicht der Pflicht die entsprechenden Lasten zu tragen. Im Allgemeinen wurden solche als "reichsfern" bezeichneten Gebiete nicht als zum Reich gehörig anerkannt. Bevölkerung. Das Reich wurde bewohnt von einer ethnisch vielfältigen Bevölkerung. Es umschloss neben deutschsprachigen Gebieten auch Bevölkerungsgruppen anderer Sprachen. Im Reich lebten nicht nur Deutsche mit ihren verschiedenartigen nieder-, mittel- und oberdeutschen Dialekten, sondern es wurde auch bevölkert von Menschen mit slawischen Sprachen und den Sprachen, aus denen sich das moderne Französisch und Italienisch entwickelten. Und auch die deutschen Sprachgebiete unterschieden sich aufgrund unterschiedlicher historischer Voraussetzungen erheblich: Nach der Zeit der Völkerwanderungen waren die östlichen Bereiche des später (im ausgehenden Mittelalter) deutschsprachigen Teils des Reichs hauptsächlich slawisch besiedelt, die westlichen überwiegend germanisch. Im germanisch dominierten westlichen Bereich gab es vor allem im Süden auch noch keltische Einflüsse sowie Einflüsse des antiken Römischen Reiches. Diese Einflüsse waren regional sehr unterschiedlich. Im Laufe der Zeit mischten sich die verschiedenen Bevölkerungsgruppen. Besonders vielfältig war die ethnische Mischung im Bereich, der einst zum Gebiet des antiken Römischen Reiches gehörte (südwestlich des Limes), trotz Völkerwanderung waren hier teilweise ethnische Einflüsse aus unterschiedlichen Regionen des Römischen Reichs vorhanden. Die östlichen Bereiche des deutschen Sprachraums wurden erst nach und nach Teil des Reiches, manche auch nie (z. B. Ostpreußen). Diese ehemals nahezu rein baltisch besiedelten Bereiche wurden infolge der Ostsiedlung durch Siedler aus den westlichen Bereichen in unterschiedlichem Ausmaß germanisiert. In den meisten Bereichen vermischten sich baltische, slawische und germanische Bevölkerungsteile im Laufe der Jahrhunderte. Über die Jahrhunderte veränderte sich die Bevölkerungsmischung im Heiligen Römischen Reich nahezu kontinuierlich größtenteils durch Zu- und Abwanderung aus dem/ins Ausland und durch Wanderungsbewegungen innerhalb der Reichsgrenzen. Nach dem Dreißigjährigen Krieg wurde teils eine gezielte Migrationspolitik betrieben, z. B. in Preußen, die zu erheblicher Zuwanderung in die betreffenden Gebiete führte. Quellenausgaben und Übersetzungen. Für das mittelalterliche Reich sind die wichtigsten Quellen in den diversen Ausgaben der "Monumenta Germaniae Historica" ediert. Ausgewählte Quellen zur deutschen Geschichte des Mittelalters sind mit deutscher Übersetzung in der ' gesammelt. Ältere, teils bis heute nicht ersetzte Übersetzungen finden sich in der Reihe "Die Geschichtsschreiber der deutschen Vorzeit". Zur Stadtgeschichte sind "Die Chroniken der deutschen Städte" von Bedeutung. Wichtig sind des Weiteren die "Regesta Imperii", in denen teilweise weit verstreutes Material verarbeitet ist. Einen Quellenüberblick bieten die '. Für das frühneuzeitliche Reich fließen die Quellen (offizielle Dokumente, Tagebücher, Briefe, Geschichtswerke etc.) noch wesentlich reichhaltiger. Wichtig für die Reichsgeschichte sind unter anderem die "Reichstagsakten" (ab dem ausgehenden Spätmittelalter) und die verschiedenen Dokumente in den Archiven (des Reichs, der Städte und der Landesherren). Allgemeine Quellensammlungen in deutscher Übersetzungen bieten z. B. "Deutsche Geschichte in Quellen und Darstellung" (epochenübergreifend) und zur Verfassungsgeschichte Arno Buschmann. Literatur. Eine umfassende und aktuelle bibliographische Onlinedatenbank bieten unter anderem die '. Höckerschwan. Fliegende Höckerschwäne erzeugen ein weithin hörbares singendes Fluggeräusch. Kopf in Imponierhaltung; gut zu erkennen ist der namensgebende Höcker Zur Balz der Höckerschwäne gehört ein rhythmisches Halseintauchen mit gurgelndem Ausatmen. Noch nicht ausgewachsene Jungvögel haben ein dumpf graubraunes Gefieder. Der Höckerschwan ("Cygnus olor") ist eine Vogelart, die innerhalb der Entenvögel (Anatidae) zur Gattung der Schwäne ("Cygnus") und zur Unterfamilie der Gänse (Anserinae) gehört. Als halbdomestizierter Vogel ist er heute in weiten Bereichen Mitteleuropas beheimatet. Er hält sich bevorzugt auf Seen, Park- und Fischteichen, in seichten Meeresbuchten und im Winter auch auf offenen Flussläufen auf. Namensgebend für die Art ist der schwarze Höcker am Schnabelansatz. Schwäne haben in Mitteleuropa nur wenige Fressfeinde. Höckerschwäne gehören in Deutschland zu den jagdbaren Tierarten, und jedes Jahr werden mehrere Tausend geschossen. Zu einer Bestandsregulierung kommt es durch die stark ausgeprägte Territorialität der Schwäne während der Brutzeit sowie durch Verluste in strengen Winterhalbjahren. Ausgewachsene Höckerschwäne. Der Höckerschwan kann eine Körperlänge von bis zu 160 Zentimetern und eine Spannweite von 240 cm erreichen. In der Regel wiegen ausgewachsene Männchen zwischen 10,6 und 13,5 Kilogramm, maximal sind für Männchen 14,3 kg nachgewiesen worden. Das Körpergewicht der Weibchen bleibt erheblich darunter und beträgt in der Regel nicht mehr als 10 Kilogramm. Der Höckerschwan ist damit in Mitteleuropa der größte heimische Wasservogel und gehört zu den schwersten flugfähigen Vögeln weltweit. Höckerschwäne erreichen oft ein Alter von 16 bis zu 20 Jahren. Der älteste jemals entdeckte Schwan wurde Anfang 2009 nahe der dänischen Hafenstadt Korsør gefunden. An ihm wurde ein Ring mit der Kennung „Helgoland 112851“ (angebracht am 21. Februar 1970 in Heikendorf an der Kieler Förde) gefunden, was bedeutet, dass er 40 Jahre alt wurde. Erwachsene Vögel besitzen ein einheitlich weißes Gefieder. Durch den orange-rot gefärbten Schnabel mit schwarzer Schnabelspitze und -wurzel kann er von anderen Schwänen unterschieden werden. Der schwarze Schnabelhöcker ist am stärksten bei Männchen während der Brutzeit ausgebildet. Weibchen haben im Schnitt außerdem eine etwas geringere Körpergröße, ansonsten besteht kein auffälliger Geschlechtsdimorphismus. Die Füße und Beine sind bei beiden Geschlechtern schwarz. Die Augen sind haselnussfarben. Höckerschwäne tragen ihren Hals häufig S-förmig gebogen. Während der Brutzeit ist häufig eine Imponierhaltung zu beobachten, bei der der Hals stark zurückgebogen, der Schnabel nach unten gesenkt und die Schwingen segelartig gelüftet sind. Höckerschwäne mausern einmal im Jahr ihr Gefieder. Sie sind dann für einen Zeitraum von sechs bis acht Wochen flugunfähig. Bei brütenden Weibchen beginnt die Mauser, noch während die Dunenküken klein sind. Die Mauser der Männchen solcher erfolgreicher Brutpaare beginnt, wenn beim Weibchen die Flugfedern wieder nachgewachsen sind. Dunenküken und Jungvögel. Dunenküken haben ein hell silbergraues Gefieder mit einer weißen Unterseite. Der Schnabel ist schwarz, die Füße und Beine dunkelgrau. Noch nicht ausgewachsene Jungvögel haben ein dumpf graubraunes Gefieder, das im Verlauf des ersten Lebensjahres zunehmend heller wird. Der Schnabel ist noch grau bis fleischfarben, wird dabei zunehmend mehr orange. Die braunen Federn werden allmählich verloren. Ein vollständig weißes Gefieder weisen die Jungschwäne nach der Vollmauser im zweiten Lebensjahr auf. Die Farbmorphe "immutabilis". Für den Höckerschwan werden keine Unterarten beschrieben. Es wird allerdings eine Farbmorphe unterschieden, die als "immutabilis" oder auch „"Polnischer Schwan"“ bezeichnet wird. Diese Farbvariante weist kein Melanin auf, so dass die Dunenküken und Jungvögel weiß erscheinen. Sie weisen bis zur Geschlechtsreife pinkfarbene bis gelbe Füße und Beine auf und sind an diesem Merkmal identifizierbar. Ausgewachsene Schwäne dieser Farbvariante haben hellgraue bis fleischfarbene Beine. Das Auftreten dieser Farbvariante ist häufiger bei im Osten Europas brütenden Höckerschwänen sowie bei den in den USA eingeführten Schwänen zu beobachten und tritt bei weiblichen Höckerschwänen häufiger als bei Männchen auf. Es gilt als wahrscheinlich, dass diese Farbmorphe in historischer Zeit gezielt gezüchtet wurde, da eine Zeitlang ein Handel mit Schwanenhäuten stattfand und die Häute der "immutabilis"-Morphe früher verkaufsfähig waren. Ausgewachsene Höckerschwäne reagieren auf die weißen Dunenküken und Jungvögel aggressiver und diese werden früher als graubraune Jungvögel aus dem Territorium vertrieben. Ihre Mortalitätsrate ist im Vergleich zu den normalfarbenen Jungvögeln daher höher. Die Immutabilis-Variante wird jedoch früher geschlechtsreif. Stimme und Instrumentallaute. Höckerschwäne haben ein umfangreiches und variables Stimmrepertoire. Sie sind allerdings weniger laut und ihre Rufe sind weniger wohltönend als bei anderen Schwänen. Erregte Schwäne geben ein hartes, lautes "hueiarr" oder "kiorr" von sich. Zu ihren Lauten zählt auch ein leises "krr-krr-krr" oder "tru-tru-truu". Ein Schwanenweibchen, das Junge führt, lässt bei Annäherung eines fliegenden Fressfeindes mehrsilbige ächzende Laute hören, die lautmalerisch mit "krrr-wip-wip", "chh" oder einem tiefen "chorr" umschrieben werden können. Auch nach der Begattung geben Höckerschwäne gurgelnde, schnarrende und pfeifende Geräusche von sich. Zu den Instrumentallauten der Höckerschwäne gehört das rhythmische Halseintauchen, bei dem sie gurgelnd ausatmen. Dieses Verhalten zeigen sie unmittelbar vor der Begattung. Arttypisch sind ihre metallisch sausenden bis singenden Fluggeräusche, die bei Sing- und Zwergschwänen fehlen. Flugbild. Höckerschwäne benötigen eine lange Anlaufphase, bevor sie sich in die Luft erheben können. Der Start der Höckerschwäne ist voller Kraft und Dynamik. Eine Zeitlang laufen sie über das Wasser und schlagen mit den Flügeln. Sobald sie sich in die Luft erhoben haben, ist ihr Flügelschlag langsam und kraftvoll. Sie gewinnen allerdings nur sehr allmählich an Höhe und der Flug wirkt insgesamt schwerfällig. Das rhythmische Fluggeräusch ist weithin hörbar. Verbreitung. Der Höckerschwan kam ursprünglich im nördlichen Mitteleuropa, im südlichen Skandinavien, im Baltikum und im Bereich des Schwarzen Meeres vor. In Asien reicht sein Vorkommen von Kleinasien bis Nordchina. Die Brutpopulationen in Westeuropa gehen ausschließlich auf ausgesetzte und verwilderte Vögel zurück. Auch in manchen Regionen Mitteleuropas war der Höckerschwan möglicherweise nie heimisch. Der Höckerschwan wurde bis gegen das Ende des 19. Jahrhunderts stark bejagt, so dass er wildlebend fast nur noch im Ostseeraum vorkam. Parallel dazu gab es jedoch immer wieder Aussetzungsaktionen, die in Großbritannien weit vor dem 16. Jahrhundert und in Mitteleuropa etwa ab dem 16. Jahrhundert vorgenommen wurden. Eine intensivierte Ansiedelung erfolgte etwa ab 1920. Erst ab den 1950er Jahren kam es jedoch zu einer starken Zunahme des Bestands in Mitteleuropa. Beteiligt daran war der verbliebene Bestand an Hockerschwänen sowie eine erneute Verwilderung von Parkschwänen und zum Teil auch gezielte Ansiedelungen. Mit Zunahme der Siedlungsdichte erfolgte eine Ausweitung des Verbreitungsgebietes nach Süden und Südosten. Zur Zunahme haben unter anderem neben einer zeitweilig vollständigen Jagdverschonung auch ein Unterlassen der Eierernte, eine zunehmende Fütterung insbesondere im Winter und eine teilweise dadurch bedingte Verminderung der Fluchtdistanz, die auch zur Besiedlung belebter Ufer und Stillgewässer geführt hat, beigetragen. So ist der Höckerschwan heute auf vielen Teichen, Seen und Flüssen auf den Britischen Inseln und im südlichen Mitteleuropa anzutreffen. Einbürgerungen gab es auch in Nordamerika, so beispielsweise in der Region von New York und im Bundesstaat Michigan sowie in Australien und Neuseeland. In Neuseeland, wo er erstmals 1866 eingeführt wurde, kommt er mittlerweile in kleiner Zahl in einigen Feuchtgebieten, an mehreren Flüssen und an der Meeresküste vor. Zu Beginn der 1990er Jahre betrug die Zahl der in Neuseeland vorkommenden Höckerschwäne noch weniger als 200 wildlebende Vögel. Während mitteleuropäische Vögel auch im Winter im Gebiet bleiben, ziehen Höckerschwäne vom Nordrand des europäischen Areals, etwa aus Skandinavien, und solche aus Zentralasien im Winter nach Süden. Zentralasiatische Höckerschwäne überwintern dann beispielsweise im Iran. Bei den mitteleuropäischen Schwänen kommt es jedoch zu Mauserzügen. So finden sich am IJsselmeer tausende von Schwänen ein, die dort ihr Gefieder wechseln. In dieser Zeit sind die Höckerschwäne für einige Wochen flugunfähig. Lebensraum. Lebensräume von Höckerschwänen waren ursprünglich Steppengewässer, Brackwassermarschen und langsam fließende Flüsse. Sie präferieren grundsätzlich eutrophe Flachseen. Eingeführte Populationen sind gleichfalls vor allem an seichten Seen zu finden und besiedeln regelmäßig auch Gewässer in menschlicher Nähe. Sie sind beispielsweise an Klär-, Park- und Fischteichen anzutreffen, die eutroph bis hypertroph sind. Sie halten sich jedoch häufig auch in geschützten Buchten an der Küstenlinie sowie auf Flüssen auf. Ernährung. Der Höckerschwan lebt von Wasserpflanzen und den darin befindlichen Kleintieren (Muscheln, Schnecken, Wasserasseln), die er mit seinem langen Hals unter Wasser durch Gründeln erreicht. Hierbei erreicht er Tiefen von 70 bis 90 Zentimetern. An Land frisst er auch Gras und Getreidepflanzen. Dies kommt vor allem im Spätwinter vor, wenn die Unterwasservegetation nicht mehr ausreichend Nahrung bietet. Sie bevorzugen dabei vor allem Rapsflächen. Grünland wird dagegen von Schwänen nur selten als Nahrungsfläche genutzt. Die Fressphase beginnt im Winter etwa drei Stunden nach Sonnenaufgang und endet erst mit Einbruch der Dunkelheit. Im Frühjahr steigt der Anteil von Wasserpflanzen in der Nahrung wieder. Im Sommer erfolgt die Nahrungssuche ausschließlich auf Gewässern. Höckerschwäne sind nicht fähig, frei schwimmende Tiere zu erbeuten. Der Nahrungsbedarf der Höckerschwäne ist sehr hoch. Während der Mauser fressen ausgewachsene Höckerschwäne bis zu vier Kilogramm an Wasserpflanzen. Besonders hoch ist der Nahrungsbedarf von verpaarten Weibchen. Diese fressen während der Brutphase kaum und müssen daher entsprechende Nahrungsreserven anlegen. Fortpflanzung. Schwan mit Küken im Nest Höckerschwäne binden sich auf Lebenszeit. Sie pflanzen sich, erstmals im dritten oder vierten Lebensjahr, an Land fort. Insbesondere in der Brutzeit, die im März beginnt, sind die männlichen Höckerschwäne sehr aggressiv und verteidigen ihr Territorium nachdrücklich auch gegen näher kommende Menschen und stoßen dabei Fauchlaute aus. Das Nest wird von beiden Elternvögeln nahe dem Wasser, auf kleinen Inseln oder im seichten Wasser im Verlauf von etwa zehn Tagen gebaut. Es ist ein großer Bau, der aus Reisern, Schilf und Rohr besteht. Die eigentliche Nestmulde ist nur sehr schwach mit Daunen ausgepolstert. Der Nestbau wird vom Männchen eingeleitet, dem sich der weibliche Altvogel später anschließt. Ein Gelege besteht in der Regel aus fünf bis acht schmutzig gelbbraunen Eiern, die in einem Legeabstand von etwa 48 Stunden gelegt werden. In sehr seltenen Fällen umfasst ein Gelege auch bis zu zwölf Eier. Die Brutzeit beträgt 35 bis 38 Tage. Es brütet überwiegend das Weibchen. Die Küken sind Nestflüchter. Einen Tag alte Küken wiegen im Schnitt 220 Gramm. Beide Eltern kümmern sich vier bis fünf Monate lang bis zum Flüggewerden um die Jungen. Insbesondere Weibchen tragen die Dunenküken gelegentlich zwischen den Schwingen auf dem Rücken. Dies schützt die Dunenküken unter anderem vor den Nachstellungen durch große Hechte. Zur elterlichen Brutfürsorge gehört ein Herausreißen von Unterwasservegetation, die die Dunenküken ohne die Elternvögel nicht erreichen könnten. Flügge sind die Jungvögel etwa in einem Alter von 120 bis 150 Tagen. Der älteste beringte Wildvogel wies ein Alter von etwa 28 Jahren auf. Die Mortalitätsrate unter Dunenküken und Jungvögeln ist sehr hoch. Studien in Großbritannien haben gezeigt, dass zwischen 29 und 49 Prozent der Gelege verloren gehen, noch bevor die Küken schlüpfen. Häufige Ursache ist menschlicher Vandalismus. Die hohe Mortalität hält auch in den ersten Lebensjahren an, so dass nur etwa elf Prozent der Dunenjungen jemals selber brüten. Bestand. Die Gesamtpopulation des Höckerschwans wird von der IUCN auf 600.000 bis 620.000 Tiere geschätzt. Die Art gilt als ungefährdet. Auf dem europäischen Festland lebt ein geschätzter Bestand von 250.000 Höckerschwänen. Irland und Großbritannien haben eine Population von insgesamt 47.000 Höckerschwänen. Am Schwarzen Meer kommen weitere 45.000 Höckerschwäne vor. In West- und Zentralasien bis zum Kaspischen Meer leben 260.000 bis 275.000 Höckerschwäne. In Ostasien dagegen ist der Bestand sehr klein. Dort leben zwischen 1.000 und 3.000 Höckerschwäne. In Nordamerika werden 14.700 Höckerschwäne gezählt. Bei Höckerschwänen lässt sich ein sehr komplizierter Mechanismus der Bestandsregulierung beobachten. Es handelt sich dabei um eine dichteabhängige Bestandsregulierung. So haben zwar Höckerschwäne nach dem Zweiten Weltkrieg in Mitteleuropa stark zugenommen, ein weiteres Anwachsen findet jedoch mittlerweile nicht mehr statt, obwohl die zunehmende Winterfütterung den Verlust während des Winterhalbjahres reduziert hat. a> führt dazu, dass während des Winterhalbjahres eine geringere Anzahl an Schwänen stirbt. Bestandsregulierend wirkt sich unter anderem der hohe Anteil an zwar ausgewachsenen und damit geschlechtsreifen Höckerschwänen aus, die aber nicht brüten. Der Anteil macht an ausgewachsenen Vögeln in vielen Populationen mehr als 50 Prozent unter den ausgewachsenen Tieren aus. Dies ist teilweise auf erhöhte Nahrungskonkurrenz zurückzuführen. In Regionen mit sehr hoher Schwanendichte sind die einzelnen Schwäne häufig nicht optimal im Futter und weisen nicht die körperliche Kondition auf, die notwendig ist, um zur Brut zu schreiten. Als weiterer Faktor wirkt sich aus, dass viele Höckerschwäne ein großes Brutterritorium benötigen und nicht alle Schwäne sich ein solches erkämpfen können. An einigen Stellen brüten Höckerschwäne davon abweichend auch in Kolonien. Es handelt sich dabei überwiegend um die halbdomestizierten Bestände. Der Bruterfolg dieser kolonienbrütenden Populationen ist jedoch gering. Im mehrjährigen Durchschnitt ziehen einzeln brütende Höckerschwäne 2,6 Junge pro Brut groß. Bei kolonienbrütenden Paaren werden im Schnitt aber nur 0,9 Jungschwäne groß. Die Gelegegröße ist mit 5,6 beziehungsweise 5,2 Eiern dagegen fast identisch. Der geringe Bruterfolg kolonienbrütender Höckerschwäne liegt unter anderem am hohen Eiverlust, zu dem es durch die große Unruhe unter den Höckerschwänen kommt. Durch die ständige Auseinandersetzung mit in der Nachbarschaft brütenden Höckerschwänen werden viele Eier zerbrochen. Gleichzeitig ist die Mortalitätsrate unter den geschlüpften Kolonienbrütern deutlich höher als bei einzeln brütenden Paaren, da sich ihr Neststandort an weniger optimalen Stellen befindet. Das macht sich vor allem in windigen Sommern bemerkbar, wenn die Sterblichkeitsrate von Jungschwänen in Kolonien wetterbedingt besonders hoch ist. Jungschwäne aus Brutkolonien sind häufig in einem schlechteren Ernährungszustand als solche von Einzelbrütern. Deswegen überlebt eine geringere Anzahl von Jungtieren aus Kolonien ihren ersten Winter. Gefährdungen. Neben der Jagd (s. u.) gibt es noch eine Reihe weiterer Gefährdungen für Höckerschwäne. In harten Wintern kommt es zu natürlichen Todesfällen. Es wurden Fälle von Bleivergiftungen durch Bleischrot und Angelblei nachgewiesen. Es kommt zu Unfallopfern an Stromleitungen durch Anflüge. Auch Todesfälle durch Krankheiten, darunter Botulismus, kommen vor. Früher kam es zu Gelegeverlusten durch menschliches Eiersammeln und absichtliche Gelegezerstörung zur Bestandskontrolle. Durch menschliche Störungen kann es zur Gelegeaufgabe kommen. Auch Wasserstandsschwankungen am Brutgewässer können zum Gelegeverlust führen. Jagd. In Deutschland unterliegt der Höckerschwan dem Jagdrecht und darf in der Regel vom 1. November bis zum 20. Februar des folgenden Jahres geschossen werden. Einzelne Bundesländer wie die Stadtstaaten Bremen, Hamburg und Berlin verzichten auf eine Jagdzeit. Auch in Österreich gehören die Höckerschwäne zu den jagdbaren Tierarten. In der Schweiz dürfen hingegen Höckerschwäne nur mit Ausnahmegenehmigungen bejagt werden, falls diese Schäden verursachen. In Deutschland werden jedes Jahr mehrere Tausend Höckerschwäne geschossen. Es liegen anscheinend zurzeit keine bundesweiten Abschusszahlen vor. In Bayern wurden im Jagdjahr 2010/11 657 Höckerschwäne in der Streckenliste geführt. In Schleswig-Holstein waren im Jagdjahr 2010/11 676 Höckerschwäne auf der Streckenliste. In den Jagdjahren 2008/09 und 2009/10 waren 473 bzw. 752 Höckerschwäne in der Jagdstrecke Schleswig-Holsteins aufgeführt. Meist dürfen wie z. B. in Schleswig-Holstein Höckerschwäne nur per Kugelschuss gejagt werden. In der Streckenliste sind jeweils auch das Fallwild (Todfund ohne Jagdeinwirkung) enthalten. Der Anteil des Fallwildes an der Jagdstrecke schwankt sehr stark. Im Jagdjahr 2010/11 enthielt z. B. die Jagdstrecke in Schleswig-Holstein 22 Prozent Fallwild. Der Naturschutz fordert in Mitteleuropa einen Jagdverzicht auf den Höckerschwan wegen Verwechselungsgefahr mit Singschwan und Zwergschwan. Da Mitteleuropa große Bedeutung als Rastgebiet für Singschwan und Zwergschwan hat, soll ein irrtümlicher Abschuss dieser Arten ausgeschlossen werden. Höckerschwan und Mensch. In Großbritannien hatte der Höckerschwan seit spätestens 1186 königlichen Status und 1361 wurde der erste Schwanenmeister ernannt. 1482 wurde durch ein vom Parlament verabschiedetes Gesetz, den "Act of Swans", festgelegt, dass nur Landbesitzer ab einer gewissen Größe Schwäne besitzen können. Von ursprünglich 900 Besitzberechtigten sind nur mehr drei verblieben: die Hochehrwürdige Gesellschaft der Färber, die bei der jährlichen Schwanenzählung, dem "Swan-Upping" im Juli die Schnäbel mit einer Kerbe markieren, die Hochehrwürdige Gesellschaft der Winzer, die ihre Schwäne mit zwei Kerben versieht, und der Monarch, dem alle unmarkierten Tiere gehören. Dies alles ist aber heutzutage nur noch von zeremonieller Bedeutung. Der königliche Besitz von Schwänen kommt nicht auf Orkney und den Shetland Inseln zur Anwendung, wo noch das auf die Wikinger zurückgehende Udal Law Geltung hat, gemäß welchem Schwäne im Volkseigentum stehen. Seit 1971 besitzt der Höckerschwan durch den "Creatures and Forest Law Act" weiteren Schutz. In Hamburg wird der Höckerschwan wie ein Wappentier betrachtet. Er wird immer mit der Alster in Verbindung gebracht und ist im Logo der Alster-Touristik GmbH deutlich zu erkennen. Es gibt sogar extra einen „Schwanenvater“, der sich seit dem 17. Jahrhundert um die Alsterschwäne kümmert. Zu seinen Aufgaben gehört es, die Schwäne der Alster und der umliegenden Kanäle im Herbst einzufangen, zu ihrem Winterquartier, dem Eppendorfer Mühlenteich zu bringen, dort mit Nahrung zu versorgen und im Frühjahr wieder auszusetzen. Seit 1926 unter Schutz gestellt, wurde der Höckerschwan in Dänemark 1984 nach einer Umfrage in den Rang eines Nationalvogels erhoben. Hydrologie. Die Hydrologie (altgr. ὕδωρ "hydōr" ‚Wasser‘ und λόγος "lógos" ‚Lehre‘) ist die Wissenschaft, die sich mit dem Wasser in der Biosphäre der Erde befasst. Dabei betrachtet sie das Wasser sowohl hinsichtlich seiner Erscheinungsformen, Zirkulationen und Verteilungen in Raum und Zeit wie auch bezüglich seiner physikalischen, chemischen und biologischen Eigenschaften sowie seiner Interaktionen mit der Umwelt, einschließlich der Beziehungen zu Lebewesen. Geschichte. Der Begriff Hydrologie war bis in die 1960er Jahre nicht klar definiert. Der Wissenschaftszweig wurde erst ernst genommen, als 1963 ein Impuls aus dem internationalen Bereich kam: Es war die „internationale Hydrologische Dekade“ (IHD) der UNESCO zwischen 1965 und 1974. Zum ersten Mal diskutierten nun Vertreter anderer Fachgebiete im Senat und Hauptausschuss der Deutschen Forschungsgemeinschaft (DFG), dass die Hydrologie im Vergleich zu anderen Ländern in Deutschland völlig rückständig war und eine Mitarbeit in internationalen Rahmen besonderer Förderung und Aufbauarbeit bedurfte. In den späten 1970er Jahren hat der Geograph Reiner Keller den Studiengang Physische Geographie mit Vertiefung und Abschluss in Hydrologie an der Universität Freiburg ins Leben gerufen. In jüngster Zeit ist eine Tendenz zu verzeichnen, auch sozio-ökonomische Aspekte rund um das Wasser in den Fachbereich einzubeziehen. Am 23. September 2011 fand in Koblenz in der Bundesanstalt für Gewässerkunde die Gründungs- und erste Mitgliederversammlung der Deutschen Hydrologischen Gesellschaft (DHydroG) statt. Untergliederung und Einordnung in den Wissenschaftskanon. Die "Gliederung" unterscheidet zwischen Ozeanologie (Hydrologie der Meere), Gewässerkunde (Hydrologie des Festlands), Limnologie (Binnengewässerkunde), darin enthalten die Potamologie (Fließgewässerkunde), sowie Hydrometrie (hydrologisches Messwesen). Im Rahmen der Hydrographie wird die Verteilung und der Fluss des Wassers quantitativ vermessen. Verwandte Fachgebiete sind vor allem die Hydrogeographie (räumliche Verteilung des Wassers sowie Wechselbeziehungen mit dessen Umgebung), die Hydrogeologie, die sich vorrangig mit dem unterirdischen Wasser und den geochemischen Wechselwirkungen mit Gesteinen befasst, die Wasserchemie, die Atmosphärenphysik, die Meteorologie, die Glaziologie als Wissenschaft, die sich der Entstehung, den Formen, der Wirkung und der Verbreitung des Eises auf der festen Erde annimmt, die Sedimentologie mit dem Spezialgebiet der Alluviologie (Geschiebekunde), die Pedologie und die Geologie als einer der Grunddisziplinen der Geowissenschaften, die Geographie sowie die Hydromorphologie. Aufgaben der Hydrologie. Die Hauptarbeitsgebiete der Hydrologie sind das Beobachten und Messen hydrologischer Prozesse, die systematische Analyse der hydrologischen Erscheinungen als Grundlage für die Entwicklung und Erweiterung von Theorien und Verfahren sowie die Anwendung dieser Theorien und Verfahren zur Lösung vielfältiger praktischer Aufgaben. Zu den praktischen Aufgaben der Hydrologie gehören die Wasserwirtschaft, d. h. das Management oberirdischer Gewässer (Flüsse, Seen, Talsperren) im Zusammenhang mit Wasserversorgung, Wasserkraft­gewinnung, Hochwasserschutz und öffentlicher Nutzung der Gewässer, z. B. für Freizeitaktivitäten. Hausstaubmilben. Die Hausstaubmilben ("Dermatophagoides") sind eine Gattung der Milben, die zu den Spinnentieren zählen. Die häufigsten Hausstaubmilbenarten sind "Dermatophagoides pteronyssinus" und "Dermatophagoides farinae". Eine weitere in Europa verbreitete Art, "Dermatophagoides microceras", ist bisher häufig mit "farinae" verwechselt worden. Weltweit sind bisher 49 Arten der Familie Pyroglyphidae nachgewiesen, von denen 13 in Hausstaub leben, nur sechs oder sieben davon häufiger. Es gibt aber weitere Milbenarten, die in Häusern leben können, besonders zahlreich in den Tropen. Ursprünglicher Lebensraum der Hausstaubmilben sind Vogelnester, von dort sind sie auf menschliche Behausungen übergegangen und weltweit verschleppt worden. Merkmale. Hausstaubmilben sind ca. 0,1 bis 0,5 mm groß und weiß gefärbt. Ihr Körper trägt haarförmige Borsten. Von anderen in Mittel- und Nordeuropa in Häusern lebenden Milbenarten sind sie dadurch unterscheidbar. Ihre Körperhülle (Cuticula) ist fein gestreift (bei den Arten der Familie Glycyphagidae ist sie glatt oder mit Papillen besetzt, bei den Tarsonemidae mit sich überlappenden Platten besetzt). Von der ebenfalls in Häusern lebenden Gattung "Euroglyphus" (mit der Art "Euroglyphus maynei") unterscheiden sie sich durch die Länge von zwei Borsten am Rumpf (Idiosoma) und das Fehlen einer sklerotisierten Platte (Tegmen) an dessen Vorderende. Übersicht. Der wissenschaftliche Name "Dermatophagoides" heißt soviel wie „Hautfresser“. Hausstaubmilben ernähren sich von abgefallenen Hautschuppen, von denen der Mensch etwa 0,5 bis 1 Gramm pro Tag verliert. Ältere, durchfeuchtete Hautschuppen werden gegenüber frisch gefallenen bevorzugt. Zur Frage, ob mit Schimmelpilzen der Gattung "Aspergillus" befallene Schuppen bevorzugt werden, gibt es widersprüchliche Aussagen. In einer Studie verminderte der Pilz die Lebensdauer und Fortpflanzung der Milben. Dieser Effekt kehrte sich allerdings langfristig um, Milbenpopulationen ohne Pilzkontakt konnten nicht auf Dauer überleben. Vermutlich werden vom Pilz essenzielle Nährstoffe zur Verfügung gestellt. Lebenszyklus und Vermehrung. Hausstaubmilben sind getrenntgeschlechtlich, wobei die Männchen deutlich kleiner sind als die Weibchen (Weibchen erreichen ein Lebendgewicht von 5,8 Mikrogramm, Männchen nur 3,5). Nach der Kopula legen die Weibchen die Eier ab, allerdings nicht als Gelege, sondern einzeln über einen langen Zeitraum verteilt. Die Lebensdauer der Weibchen ist stark von Temperatur und Luftfeuchte abhängig und auch von Art zu Art etwas verschieden, sie reicht von etwa 30 bis zu 100 Tagen. In dieser Zeit legen sie zwischen 40 und 80 Eier ab. Aus den Eiern schlüpft eine Deutonymphe (auch als Larve bezeichnet). Diese wandelt sich in eine Tritonymphe um, aus der die adulten Tiere hervorgehen (zwei Larvenstadien). Jeder Umwandlungsschritt ist dabei mit einer Ruheperiode unterschiedlicher Länge verbunden, während derer die Tiere erheblich widerstandsfähiger gegen widrige Umweltbedingungen sind. Die gesamte Lebensperiode vom Ei zum Geschlechtstier ist sehr variabel, sie dauert unter günstigen Bedingungen etwa 30 bis 50 Tage, kann aber bei niedrigen Temperaturen bis 120 Tage ausgedehnt sein. Paarungsbereite Tiere finden sich durch Sexuallockstoffe (Pheromone). Außerdem bilden die Tiere Aggregationen, die sich durch ein anderes Pheromon zusammenfinden Lebensweise und Lebensraum. Hausstaubmilben werden beinahe ausschließlich in menschlichen Wohnungen gefunden, im Freien können sie normalerweise nicht überleben. Es gibt hier nur wenige Angaben, z. B. aus Vogelnestern. Wohnungen werden durch in der Kleidung verschleppte Milben neu besiedelt. Der Großteil der Hausstaubmilben befindet sich im Bett. Dort sind zu gleichen Teilen die Matratze und das restliche Oberbett betroffen. Weitere Fundorte sind Polstermöbel, während in Teppichen normalerweise nur wenige Hausstaubmilben zu finden sind. Auch in anderen Substraten wie älteren Büchern können hohe Dichten auftreten. Die höchste Konzentration findet sich in Matratzen und Kopfkissen, weil dort reichlich Hautschüppchen als Futter sowie viel Feuchtigkeit vorhanden sind: Eine schlafende Person scheidet pro Stunde Schlaf etwa 40 g Wasser mit der Atemluft und als Schweiß aus. Abgeschätzte Übergangsraten sind für Haut zu Matratze: 180-220 g/pro Nacht und Person, für Haut zu Kopfkissen 15-20 g/pro Nacht und Person. Ein milbenfreies Kopfkissen gibt es daher nicht. Selbst gereinigte Kissen enthalten einige 10.000 der 0,3 mm großen Milben ("Dermatophagoides pteronyssinus"). Jahrelang ungewaschene Kissen (wenn nur der Bezug gewaschen wird) enthalten bis zu 400.000 Milben. Prinzipiell liegt die Zahl an Hausstaubmilben etwa bei 100 bis 500 Tieren pro Gramm Staub. Wesentliche Faktoren für die Häufigkeit von Milben in Häusern sind Luftfeuchte und Temperatur. Nahrungsmangel kommt wegen des äußerst geringen Bedarfs kaum vor. Dies wurde durch indirekte Methoden (kein erhöhter Milbenbefall bei Patienten mit Schuppenflechte) bestätigt. Auch der Platzbedarf der Winzlinge ist gering: Wenn Hautschüppchen hierher vorgedrungen sind, können die Tiere ohne weiteres im Inneren von Schaumstoffmatratzen leben. Angelockt durch den Sexuallockstoff kann die milbenfressende Milbe "Cheyletus" auftreten. Ein weiterer natürlicher Feind ist der Bücherskorpion. Auch Silberfischchen ernähren sich unter anderem von Hausstaubmilben. Im normalen Lebensraum der Hausstaubmilben spielen alle diese Arten aber keine Rolle, weil sie für eine Populationskontrolle viel zu selten sind. Effekt der Luftfeuchte auf das Überleben. Die Optimalbedingungen der beiden häufigen Arten "Dermatophagoides pteronyssinus" und "Dermatophagoides farinae" sind etwas unterschiedlich. "D. farinae" bevorzugt etwas wärmere Orte und kann etwas höhere Trockenheit ertragen (Optimum bei 25–30 °C und 70–75 % rel. Feuchte, gegenüber 15–20 °C und 75–80 % rel. Feuchte bei D. pteronyssinus). Diese Art ist deshalb an vielen Orten der USA häufiger – deshalb gelegentlich "Amerikanische Hausstaubmilbe" genannt, während ihre Schwesterart z. B. im kühlen und feuchten England dominiert. Allerdings kommen beide Arten regelmäßig zusammen vor, und je nach Lebensraum kann überall die eine oder die andere dominieren. Beide Arten benötigen zum Leben eine relative Luftfeuchte von 73 % oder höher. Sie können dann Kontaktwasser oder Wasserdampf aus der Umgebung aufnehmen. Aufgrund der großen Oberfläche verlieren sie aber auch viel Wasser. Sie können in Bereichen unterhalb 50 % relative Luftfeuchte nicht lange überleben und weisen auch oberhalb davon reduzierte Fortpflanzung und Vitalität auf. Seit langer Zeit erschien es deshalb plausibel, die Milbendichte durch Austrocknung zu vermindern. Allerdings liegen zahlreiche Nachweise dafür vor, dass den Tieren bereits recht kurze Perioden hoher Luftfeuchte von etwa drei Stunden am Tag für ein dauerhaftes Leben vollkommen ausreichen. Legt man wissenschaftlich strenge Maßstäbe an, ist für keine Art der direkten Milbenbekämpfung (weder Austrocknung noch vermeintlich milbensichere Matratzen o.ä.) ein Effekt auf das Leiden von Asthmatikern nachweisbar. In zahlreichen Studien sind aber die Milbendichte und die relative Luftfeuchte eng miteinander korreliert. Die Luftfeuchte der Umgebungsluft ist dabei in jedem Fall für das Überleben der Arten vollkommen ausreichend, eine Bekämpfung durch Lüften ist also nicht möglich. Es gibt Hinweise darauf, dass eine Verminderung der Luftfeuchte durch technische Geräte funktioniert, aber nur dann, wenn sie über sehr lange Zeiträume ohne Pause erfolgt. Entscheidend für die Milbendichte ist vermutlich vor allem die relative Luftfeuchte im Winter. Temperaturen und Luftfeuchte oberhalb des Optimalbereichs bewirken eine Populationssenkung. Erhitzung (einige Minuten auf 50 °C oder längere Zeit auf 40 °C) können die Milbendichte vermindern und wurden als Bekämpfungsmethode vorgeschlagen. In den Wintermonaten sollte die Austrocknung der Luft durch das Heizen die Lebensbedingungen für Hausstaubmilben verschlechtern. Es wird in der Tat beobachtet, dass die Milbendichte im Sommer und Herbst deutlich höher liegt als im Winter. Die Tiere können sich unter den suboptimalen Bedingungen aber häufig noch langsam fortpflanzen und überdauern ansonsten in einem der resistenteren Dauerstadien. Matratzen, die regelmäßig durch den Schläfer angefeuchtet werden, bieten außerdem ein mögliches Refugium. Dabei sind die Bedingungen, während sich der Schläfer noch im Bett befindet, nicht unbedingt optimal, weil durch die Körperwärme die relative Luftfeuchte absinkt. Nach gängiger Meinung haben Milben über 1200 Höhenmetern, nach anderen Aussagen bei über 1700 Höhenmetern, keine günstigen Lebensbedingungen mehr. Hochgebirgsaufenthalte können deshalb Allergikern Linderung verschaffen. Eine Studie der Universität von Amsterdam fand im Jahr 2010 heraus, dass ein Höhenaufenthalt allen Menschen mit asthmatischen Beschwerden hilft, unabhängig davon ob diese durch eine Allergie gegen Milbenallergene induziert sind oder nicht. Allergene Wirkung. Allergieauslösender Faktoren der Milben sind ihr Kot, Eier sowie Milbenreste.), werden eingeatmet und können Allergien, die Hausstauballergien, hervorrufen. Als allergieauslösend sind vier Arten bekannt, insbesondere "D. pteronyssinus", aber auch "D. farinae", "D. microceras" und "D. siboney". Etwa 10 % der Bevölkerung und 90 % der Asthmatiker sind allergisch auf Hausstaubmilben oder im Haushalt vorkommende Vorratsmilben (zusammen als "domestic mites" – Hausmilben – bezeichnet). Neben der engen Assoziation zu Asthma sind Hausstaubmilben auch Auslöser der perennialen allergischen Rhinitis. Die üblichen Therapieoptionen (Entfernung des Allergens) und die Verwendung von spezieller Bettwäsche und Staubschutz hat sich bisher als nicht effektiv erwiesen. Wenngleich die Methoden, die Einfluss auf das Raumklima haben (Temperatur erniedrigen, Luftfeuchtigkeit senken) die Population nur reduziert, kann die verminderte Belastung bereits positive Effekte auf den Erkrankungsverlauf zeigen. Die Immuntherapie (besonders durch subkutane Injektion) gilt mittlerweile als funktionierender Therapieansatz bei Patienten mit schwerer Symptomatik. Eine Hausstaubmilbe produziert ca. 20 Kotkügelchen am Tag. In ihrem ca. sechswöchigen Leben summiert sich das Gewicht der Kotbällchen auf das 200-fache des Eigengewichts der Milbe. Ein Teelöffel voll Schlafzimmerstaub enthält im Schnitt fast 1000 Milben und 250.000 winzigster Kotkügelchen. Diese verbleiben weniger in den Kissen als tote Milben, sondern werden aufgrund ihrer Leichtigkeit und Form überwiegend in die Luft geschüttelt. Zahlreiche allergene Bestandteile des Milbenkots sind inzwischen nachgewiesen worden, die wichtigsten Allergene sind manche Verdauungsenzyme der Milben. Hornmoose. Die Hornmoose (Anthocerotophyta) sind eine der Abteilungen der Moose aus dem Reich der Pflanzen. Die Abteilung gliedert sich in zwei Klassen, von denen eine (Leiosporocerotopsida) jedoch nur eine Art enthält, die andere 100 bis 150 Arten. Gametophyt. Der Gametophyt der Hornmoose ist meist nur wenige Zentimeter groß. Es ist ein flacher, dunkelgrüner, rosettenförmiger Thallus, der mehrschichtig und am Rande gelappt ist. Der Thallus besteht aus dünnwandigen Zellen und ist mit einzelligen, glatten Rhizoiden am Untergrund befestigt. Die Zellen des Thallus enthalten einen großen, schüsselförmigen Chloroplasten mit Pyrenoiden. Diese Form tritt sonst nur noch bei den Grünalgen auf. Das Wachstum des Thallus erfolgt mit einer zweischneidigen Scheitelzelle. Der Gametophyt besitzt auch Spaltöffnungen, ebenfalls ein einzigartiges Merkmal unter den Moosen. Auch die symmetrischen Spermatozoiden mit rechtsschraubigen Geißeln kommen nur bei den Hornmoosen vor. Im Thallus befinden sich zwischen den Zellen (interzellulär) schleimerfüllte Höhlungen. In diesen siedeln mikroskopische Pilze und Stickstoff-assimilierende Cyanobakterien der Gattung "Nostoc" als Symbionten. Die Symbionten dringen durch die an der Unterseite befindlichen Spaltöffnungen in das Moos ein. Die Geschlechtszellenbehälter (Gametangien) sind im Gegensatz zu den übrigen Moosen in den Thallus eingesenkt, entstehen also endogen. Die männlichen Gametangien, die Antheridien, stehen meist zu mehreren in anfangs geschlossenen Höhlungen. Die befruchtete Eizelle (Zygote) teilt sich als erstes längs, während sie sich bei den übrigen Moosen quer teilt. Sporophyt. Der diploide Sporophyt ist meist horn- oder schotenförmig. Er ist ein bis mehrere Zentimeter hoch und öffnet sich mit zwei Längsrissen. Er ist mit einer angeschwollenen Basis (Fuß, Haustorium) im Thallus verankert. Die Verbindung zwischen Gametophyt und Sporophyt ähnelt der beim urtümlichen Farn "Tmesipteris". Das Wachstum des Sporophyten erfolgt durch eine meristematische Zone im Basisbereich ("interkalar"). Das Wachstum ist prinzipiell unbegrenzt, es finden sich in einem Sporangium alle Reifestadien der Sporen. Der Sporophyt besitzt Chloroplasten, ist relativ langlebig und weitgehend autotroph. Im Inneren des Sporophyten befindet sich die "Columella", eine Längsachse aus sterilem Gewebe. Sie ist vom sporogenen Gewebe (Archespor) umgeben. Dieses ist ein lockeres parenchymatisches Gewebe und ist seinerseits von einem epidermalen Gewebe mit Spaltöffnungen nach außen abgeschlossen. Dieser Aufbau entspricht einem Urtelom, wobei die Columella als reduziertes Leitbündel zu deuten wäre. Aus jeder Archesporenzelle bilden sich durch Teilung Sporenmutterzellen, die sich durch Meiose zu vier haploiden Sporen entwickeln, und eine Pseudoelaterenmutterzelle. Aus dieser bilden sich durch mehrere Längs- und Querteilungen mehrere Pseudoelateren. Die Pseudoelateren erfüllen zwar die gleiche Aufgabe wie die Elateren der Lebermoose, da sie anders entstehen, werden sie Pseudoelateren genannt. Die Spore keimt zu einem kurzen Schlauch, der dem Protonema der anderen Moose entspricht, meist aber nicht als solches bezeichnet wird. Aus der Endzelle des Schlauches entwickelt sich wieder ein Thallus. Verbreitung. Die Hornmoose sind in den gemäßigten und tropischen Breiten weit verbreitet. Die Arten in den Tropen sind meist ausdauernd, während sie in den gemäßigten Breiten meist sommerannuell sind, das heißt, sie durchlaufen ihren Lebenszyklus von der Keimung der Spore bis zur sich öffnenden Kapsel innerhalb weniger Monate innerhalb der warmen Jahreszeiten, bei den Hornmoosen hauptsächlich im Sommer und Herbst. Während der Gametophyt der Hornmoose schärfere Fröste nicht übersteht, können die Sporen mehrere Jahre in der Diasporenbank des Bodens überdauern. Äußere Systematik. Die Hornmoose wurden ursprünglich aufgrund ihres thallösen Aufbaus zu den Lebermoosen gestellt. Sie teilen jedoch auch einige Merkmale mit den Laubmoosen: den Besitz von Spaltöffnungen sowie der Columella im Sporophyten. Daher liegen sie bei kladistischen Analysen manchmal zusammen mit den Laubmoosen. Die Chloroplasten-Form ist wieder sehr urtümlich und verbindet die Hornmoose mit den Grünalgen. Die Struktur des Thallus ähnelt wieder dem Prothallium der Farnpflanzen, wie auch das Sporogon dem Sporophyten von "Horneophyton", einem fossilen Urfarn. Da keine fossilen Hornmoose bekannt sind, bleibt die Stammesgeschichte unklar. Heute wird meist angenommen, dass sich die Moose wie auch die Farne aus einem gemeinsamen Vorfahren entwickelt haben, der wiederum von den Grünalgen abstammte. Aufgrund der relativ wenigen gemeinsamen Merkmale, die die Hornmoose mit den anderen Moosen verbindet, wird heute eine polyphyletische Abstammung der Moose angenommen und daher die Hornmoose als eigene Abteilung aufgefasst. Die genauen verwandtschaftlichen Beziehungen sind noch ungeklärt. Innere Systematik. Die Abteilung enthält zwei Klassen, deren eine, die Leiosporocerotopsida, monotypisch ist. Die Anthocerotophyta enthalten 12 bis 14 Gattungen mit rund 100 bis 150 Arten. Hexadezimalsystem. Im Hexadezimalsystem werden Zahlen in einem Stellenwertsystem zur Basis 16 dargestellt. „Hexadezimal“ (von griech. "hexa" „sechs“ und lat. "decem" „zehn“) ist ein lateinisch-griechisches Mischwort; eine andere korrekte, jedoch seltener verwendete Bezeichnung ist sedezimal (von lat. "sedecim" „sechzehn“). Eine weitere alternative Bezeichnung ist hexadekadisch (griechisch). Falsch hingegen ist der Ausdruck hexa"ges"imal, der synonym zu sexa"ges"imal ist und das Zahlensystem zur Basis 60 bezeichnet. In der Datenverarbeitung wird das Hexadezimalsystem sehr oft verwendet, da es sich hierbei letztlich nur um eine komfortablere Verwaltung des Binärsystems handelt. Die Datenwörter bestehen in der Informatik meist aus Oktetten, die statt als achtstellige Binärzahlen auch als nur zweistellige Hexadezimalzahlen dargestellt werden können. Im Gegensatz zum Dezimalsystem eignet sich das Hexadezimalsystem mit seiner Basis als vierte Zweierpotenz (16 = 24) zur einfacheren Notation der Binärzahlen, da stets eine feste Anzahl Zeichen zur Wiedergabe des Datenwortes benötigt wird. Nibbles können exakt mit einer hexadezimalen Ziffer und Bytes mit zwei hexadezimalen Ziffern dargestellt werden. In den 1960er und 1970er Jahren wurde in der Informatik häufig auch das Oktalsystem mit seiner Basis als "dritte" Zweierpotenz (8 = 23) verwendet, da es mit den üblichen Ziffern von 0 bis 7 auskommt. Es findet aber heute nur noch selten Anwendung. Wir sind es gewohnt, im Dezimalsystem zu rechnen. Das bedeutet, unser indo-arabisches Zahlensystem verwendet zehn Symbole zur Notation der Ziffern (0 bis 9). Das Hexadezimalsystem enthält dagegen sechzehn Ziffern. Seit Mitte der 1950er Jahre werden zur Darstellung der sechs zusätzlichen Ziffern die Buchstaben A bis F oder a bis f als Zahlzeichen verwendet. Dies geht auf die damalige Praxis der IBM-Informatiker zurück. Darstellung von Hexadezimalzahlen. Um hexadekadische von dekadischen Zahlen unterscheiden zu können, existieren mehrere Schreibweisen. Üblicherweise werden hexadekadische mit einem Index oder Präfix versehen. Verbreitete Schreibweisen sind: 7216, 72hex, 72h, 72H, 72H, 0x72, $72, "72 und X'72' wobei das Präfix "0x" und das Suffix "h" insbesondere in der Programmierung und technischen Informatik Verwendung finden. Das Anhängen eines "h" an die Hex-Zahl ist auch als Intel-Konvention geläufig. Die Schreibweise mit dem Dollar-Präfix ist in den Assemblersprachen bestimmter Prozessorfamilien üblich, insbesondere bei Motorola, zum Beispiel beim Motorola 68xx und 68xxx, aber auch beim MOS 65xx; die Schreibweise X'72' ist in der Welt der IBM-Großrechner üblich, wie in REXX. Der Übersicht dienende Trennpunkte können bei Hexadezimalzahlen alle vier Stellen gesetzt werden, trennen also Gruppen von jeweils sechzehn Bit. Die Bedeutung der 1.000016 = 65.53610 unter den hexadekadischen Zahlen entspricht also jener der 1.00010 unter den dekadischen. Zum Vergleich ein voller Vierundsechzig-Bit-Bus mit und ohne Trennpunkte: FFFF.FFFF.FFFF.FFFF und FFFFFFFFFFFFFFFF Dezimale Zahlen werden, wo sie nicht der zu erwartende Normalfall sind, indiziert: 11410 Zählen im Hexadezimalsystem. 15 hexadezimal entspricht z. B. 21 dezimal (1*161+5*160) und F5 hexadezimal entspricht z. B. 245 dezimal (F(15)*161+5*160) Für die hexadezimalen Ziffern und Zahlen sind keine eigenständigen Namen gebräuchlich. Hexadezimalzahlen werden daher meist Ziffer für Ziffer gelesen. Hexadezimalbrüche. Da das Hexadezimalsystem ein Stellenwertsystem ist, haben die Stellen nach dem Komma (das auch hier manchmal als Beistrich, manchmal als Punkt geschrieben wird) den Stellenwert formula_1, wobei formula_2 die dezimale Basis 16 und formula_3 die Position der jeweiligen Nachkommastelle ist. Die erste Nachkommastelle (n=1) hat damit den Stellenwert formula_4, die zweite Nachkommastelle (n=2) hat den Stellenwert formula_5, die dritte Nachkommastelle (n=3) hat den Wert formula_6 und so weiter. Negative Zahlen. Negative Zahlen lassen sich ebenfalls darstellen. Dazu wird in den meisten Fällen die Zweierkomplement-Darstellung verwendet. Durch ihre Auslegung braucht an den Mechanismen für Rechnungen in den Grundrechenarten keine Änderung vorgenommen zu werden. Informatik. Der Punkt dient bei dieser Darstellung lediglich der Zifferngruppierung. Software stellt daher Maschinensprache oft auf diese Weise dar. Mathematik. Seit die Bailey-Borwein-Plouffe-Formel zur Berechnung von π im Jahr 1995 entwickelt wurde, ist das Hexadezimalsystem auch jenseits der Informatik von Bedeutung. Diese Summenformel kann jede beliebige Hexadezimalstelle von π berechnen, ohne die vorhergehenden Stellen dafür zu benötigen. Konvertierung in andere Zahlensysteme. Viele Taschenrechner, aber auch die genauso genannten Hilfsprogramme auf Personal Computern, bieten Umrechnungen zum Zahlbasiswechsel an. Insbesondere rechnet das Windows-Programm „Rechner“ (calc.exe) Binär-, Hexadezimal- und Oktalzahlen in Dezimale und zurück, wenn man unter „Ansicht“ den Menüpunkt „Programmierer“ auswählt. In vielen Linux-Distributionen ist ein „Taschenrechner“-Hilfsprogramm vorinstalliert, das eine solche „Programmierer“-Option beinhaltet, oder man kann an der Kommandozeile die Anweisung "printf" (als eingebauten bash-Befehl oder gesondertes Hilfsprogramm) dafür benutzen. Umwandlung von Dezimalzahlen in Hexadezimalzahlen. Eine Möglichkeit, eine Zahl des Dezimalsystems in eine Zahl des Hexadezimalsystems umzurechnen, ist die Betrachtung der Divisionsreste, die entstehen, wenn die Zahl durch die Basis 16 geteilt wird, die Methode wird daher auch Divisionsverfahren oder Restwertverfahren genannt. "1278": 16 = "79" Rest: 14 (= E) (Nr:1278-(79*16)=14) "79": 16 = "4" Rest: 15 (= F) (Nr:79-(4*16)=15) "4": 16 = "0" Rest: 4 (Nr:4-(0*16)=4) Die Hexadezimalzahl wird von unten nach oben gelesen und ergibt somit 4.F.E. Umwandlung von Hexadezimalzahlen in Dezimalzahlen. Um eine Hexadezimalzahl in eine Dezimalzahl umzuwandeln, muss man die einzelnen Ziffern mit der jeweiligen Potenz der Basis multiplizieren. Der Exponent der Basis entspricht der Stelle der Ziffer, wobei der Zahl vor dem Komma eine Null zugeordnet wird. Dazu muss man allerdings noch die Ziffern A, B, C, D, E, F in die entsprechenden Dezimalzahlen 10, 11, 12, 13, 14, 15 umwandeln. formula_23 Umwandlung Hexadezimal nach Oktal. Um Zahlen zwischen dem vor allem früher in der Informatik verbreiteten Oktalsystem und dem heute gebräuchlichen Hexadezimalsystem umzuwandeln, ist es zweckmäßig, den Zwischenschritt über das Binärsystem zu gehen. Dies gelingt recht einfach, da sowohl die Basis 8, als auch die Basis 16 Zweierpotenzen sind. formula_24 Umwandlung Oktal nach Hexadezimal. Genauso einfach erfolgt die Umwandlung von oktal nach hexadezimal, nur dass hier der Weg Mathematische Darstellung des Hexadezimalsystems. formula_25 formula_26 Handwerk. Als Handwerk (von mittelhochdeutsch "hant-werc", eine Lehnübersetzung zu lateinisch "opus manuum" und "cheirurgía" „Handarbeit“) werden zahlreiche gewerbliche Tätigkeiten bezeichnet, die Produkte meist auf Bestellung fertigen oder Dienstleistungen auf Nachfrage erbringen. Der Begriff bezeichnet auch den gesamten Berufsstand. Die handwerkliche Tätigkeit steht der "industriellen Massenproduktion" gegenüber. Das handwerkliche Gewerbe wird in Deutschland verbindlich durch die Handwerksordnung geregelt. Antike. Seine Hauptargumente gegen das Handwerk sind die Tätigkeiten im Inneren einer Werkstatt, was er mit Tätigkeiten einer Frau innerhalb des Hauses gleichsetzt. Das Ausüben eines Handwerks disqualifiziert also den Handwerker für den Kriegsdienst; er kann also seine Polis nicht verteidigen. Außerdem bleibe nach Xenophon bei einem Handwerk keine Freizeit übrig, die man für Freunde oder sonstige Tätigkeiten für die Polis aufbringen könnte. Aufgrund dieser Abhängigkeit kann der Handwerker für Platon nicht im eigentlichen Sinne „frei“ sein, bekommt also einen sklavenähnlichen Status. Mittelalter. Im weitgehend bäuerlich geprägten Frühmittelalter spielten die sich später spezialisierenden Handwerkstätigkeiten wie die Verarbeitung von Nahrungsmitteln, die Herstellung von Textilien oder das Fertigen von Geräten und Bauten aus Holz noch eine verschwindend geringe Rolle gegenüber der häuslichen Eigenproduktion. Spezielle Arbeitstechniken, wie Bronzeguss, Malerei und Bildhauerei waren an Klöster gebunden. Erst im Hochmittelalter und mit der Städtebildung erhielten urbane Zentren ihre antike Bedeutung zurück. Die hergestellten Waren werden auf Märkten feilgeboten oder in Werkstätten und Läden ausgestellt und verkauft. Eine Ausnahmerolle spielen Baumeister und Steinhauer, die, von einer (Kirchen-)Bauhütte zur nächsten ziehend, über territoriale Grenzen hinweg Fertigkeiten, Innovationen und Stilentwicklungen verbreiten. Wichtige handwerkliche Berufe waren Schmied oder Töpfer, deren Tätigkeiten schon damals eine umfangreichere Ausrüstung erforderten. Die kulturelle Entwicklung des städtischen Lebens brachte eine Diversifizierung der Textilherstellung und Lederverarbeitung mit sich, Goldschmiede, Möbeltischler oder Zinngießer brachten kunsthandwerkliche Sonderleistungen hervor. Einzelne Gewerke der städtischen Handwerkerschaft schlossen sich bis gegen Ende des Mittelalters zu selbstverwalteten Zünften zusammen. Neben ihnen gab es nur wenige freie Gewerbe und einzelne, vom Zunftzwang befreite Freimeister, aber zahlreiche heimlich in Vorstädten und auf Dachböden arbeitende Handwerker, die von den entsprechenden Zunftmeistern verfolgt wurden. Die politische Machtteilhabe der Handwerker an den sich entwickelnden städtischen Gremien war im deutschsprachigen Raum sehr unterschiedlich, doch überwogen solche kommunalen Verfassungen, in denen grundbesitzende und handeltreibende Familien das Sagen hatten. Frühe Neuzeit. Vom 16. bis zum 18. Jahrhundert nahmen die berufsständischen Regelungen, zum Beispiel zur Lehrzeit, zum Lehrgeld, dem Gesellenstück, der Walz oder der Meister­prüfung mit dem Ansteigen der Komplexität der Berufskonzepte und der fortschreitenden Spezialisierung weiter zu. Die zeitgenössische Ständeliteratur verzeichnete die wichtigsten Handwerke, Verrichtungen, Arbeitsgegenstände und Arbeitsmittel. Wandernde Gesellen erlernten, überlieferten und verbreiteten unterschiedliche Arbeitstechniken. Zudem erfolgte durch die Walz ein gewisser Arbeitsmarktausgleich. Arbeitszeugnisse der Handwerker waren häufig kalligraphisch kunstvoll ausgestaltete Handwerkskundschaften. Handwerk hatte sprichwörtlich einen goldenen Boden. Berufswahl erfolgte zumeist standesgemäß nach der Ständeordnung. Frauen, Juden, unehelich geborenen Menschen und Nachkömmlingen von sogenannten Ehrlosen (zum Beispiel Henkerskinder) blieb der Zugang zu traditionellen Handwerken häufig verwehrt. Entsprechend der wirtschaftlichen Bedürfnisse, der Entwicklung bestimmter Technologien und dem Zeitgeschmack blühten zusätzlich zu den traditionellen Handwerksberufen wie Fleischer oder Goldschmied neue Berufe wie zum Beispiel Buchdrucker, Kupferstecher, Orgelbauer oder Perücken­macher auf. Handwerksgeschichte in Deutschland seit dem 19. Jahrhundert. Angeregt durch die Französische Revolution und die dann einsetzende Industrialisierung setzt sich im Europa des 19. Jahrhunderts schließlich langsam die Gewerbefreiheit durch, die jedem Bürger das Recht zubilligt, ein Handwerk eigener Wahl ausüben zu dürfen. Am 2. November 1810 wird die Gewerbefreiheit in Preußen eingeführt, später, am 21. Juni 1869, wird die Gewerbefreiheit per Reichsgesetz weiter ausgedehnt. Jeder Bürger ist nun berechtigt, einen Handwerksbetrieb zu gründen. 1897 und 1908 wird die Gewerbeordnung schließlich novelliert. Sie wird heute allgemein als Fundament des dualen Systems der Berufsausbildung betrachtet. Insbesondere seitens der Handwerksmeister sind Bemühungen, die Gewerbefreiheit wieder zu beschränken, ersichtlich. So wird 1897 ein Handwerksgesetz verabschiedet, das eine Handwerkskammer legitimiert und der alle Handwerker beizutreten haben. 1908 wird der „kleine Befähigungsnachweis“ erlassen, der für die Ausbildung von Lehrlingen wieder den Meisterbrief erforderlich macht. Den Abschluss der Bewegung stellt die Handwerksordnung von 1935 mit der Wiedereinführung des großen Befähigungsnachweises dar, mit dem selbst für die Ausübung eines Handwerkes wieder der Meisterbrief verlangt wird. Nach dem Krieg wurde in der amerikanischen Besatzungszone – nun nach US-Vorbild – eine fast schrankenlose Gewerbefreiheit eingeführt. Die vorgeschriebene Mitgliedschaft in den Kammern und Innungen (sogenanntes Institut der fakultativen Zwangsinnung) wurde nun zur freiwilligen Angelegenheit. Ab 10. Januar 1949 genügte eine Postkarte um ein Gewerbe anzumelden – der Meisterzwang entfiel. Wieder einmal setze ein Gründungsboom ein. Allein in München wurden im ersten Jahr der Gewerbefreiheit soviele Gewerbe angemeldet wie vorher insgesamt bestanden hatten. Diese Freiheit wurde jedoch 1953 mit Verabschiedung der Handwerksordnung wieder eingeschränkt. Für 94 handwerkliche Berufe wurde abermals bundesweit die Meisterpflicht eingeführt. Federführend waren dabei die Bundestagsabgeordneten Richard Stücklen (CSU) und Hans Dirscherl (FDP). Diese Notwendigkeit des Meisterbriefes wird unter anderem mit besonderer Gefahrengeneigtheit und hohen Anforderungen an den Verbraucherschutz sowie die dafür nötige fundierte Berufsausbildung gerechtfertigt. Handwerkliche Selbständigkeit ohne Meisterbrief wird somit als ordnungswidrige Schwarzarbeit strafrechtlich verfolgt. 2003/2004 beschließt der Bundestag eine Novellierung dieser Regelung: In der Handwerksrechtsnovelle wird die Gewerbefreiheit in 53 Handwerksberufen (aufgeführt in der Anlage B der Handwerksordnung) wieder eingeführt. Für jene Berufsstände reicht nunmehr der kleine Befähigungsnachweis. Die übrigen 41 Handwerke (enthalten in der Anlage A der Handwerksordnung) behalten den Zwang zum großen Befähigungsnachweis, es sollen aber Alternativen zum Meisterbrief geschaffen werden. Merkmale des Handwerks als spezieller Wirtschaftsbereich. Das Handwerk ist ein heterogener (also vielseitiger) Wirtschaftsbereich. Die Varianten reichen vom Industriezulieferbetrieb bis zum Handwerker im konsumnahen Umfeld, vom mittelständischen Unternehmen mit hunderten Mitarbeitern bis zum Kleinstbetrieb. Handwerksunternehmen sind aufgrund ihrer Größe und ihres Leistungsspektrums sowohl auf dem Absatz- als auch auf dem Arbeitsmarkt weitgehend lokal beziehungsweise regional orientiert. Viele Bereiche der Handwerkswirtschaft stehen in unmittelbarer Konkurrenz zur industriellen Fertigung und zur Schwarzarbeit. Letztere macht mittlerweile, mit steigender Tendenz, über 15 % des Bruttoinlandproduktes in Deutschland aus. Tätigkeitsfelder. Die Handwerksbetriebe sind nach der Handwerksordnung in 41 zulassungspflichtigen, 53 zulassungsfreien und 57 handwerksähnlichen Gewerben tätig. Handwerk definiert sich über die in der Handwerksordnung ausgewiesenen Bereiche (Positivliste). Handwerk beschränkt sich hierdurch überwiegend auf Märkte, deren Expansionschancen in der wissensbasierten Ökonomie teilweise als begrenzt gelten. 43,4 % der Betriebe aus Anlage A sind im Bereich Metall/Elektro, 25,8 % im Bau- und Ausbaugewerbe, 15,6 % im Gesundheits-, Körperpflege oder Reinigungsgewerbe, 7,2 % im Bereich "Holz", 6,7 % in den Nahrungsmittelgewerben, 1 % in der Handwerksgruppe Glas-, Papier-, Keramik- und sonstige Gewerbe und weniger als 1 % in der Bekleidungs-, Textil- und Lederbranche. Ein eigenes Thema bzw. "Tätigkeitsfeld" ist der weit verbreitete Handwerker-Pfusch, womit zum einen die Schwarzarbeit oder das Arbeiten von Personen ohne fachliche Grundlage (die den legal Tätigen also ins Handwerk pfuschen) gemeint sind, zum anderen jede mangelhafte Ausführung eines Handwerks, auch Murks genannt. Laut Gewährleistungspflicht wird dann ein Nachbessern oder ein anderer Leistungsausgleich fällig. Der Streit darum beschäftigt vermehrt Gerichte, sodass eigene Gütestellen zur Regelung so genannter Bagatellfälle eingerichtet wurden; siehe auch Handwerkerehre. Betriebe und Beschäftigte. Durchschnittlicher Bruttostundenverdienst in einigen Handwerksberufen in Deutschland (2003 bis 2005) In rund 887.000 Betrieben arbeiten knapp 5 Millionen Menschen, fast 500.000 Auszubildende werden im Handwerk ausgebildet. Somit sind zurzeit noch 12,8 % aller Erwerbstätigen und rund 31 % aller Auszubildenden in Deutschland im Handwerk tätig. Handwerksunternehmen sind überwiegend Kleinbetriebe. Eine handwerksbezogene Auswertung des IAB-Betriebspanels 2003 belegt, dass 50 % der Betriebe weniger als fünf Mitarbeiter und 94 % weniger als 20 Mitarbeiter haben. Etwa 20 % der Handwerker arbeiteten 2003 in Betrieben mit weniger als fünf Mitarbeitern, 35 % in Betrieben mit mehr als 20 Mitarbeitern. Die größte Gruppe der Handwerker (45 %) war somit in Betrieben mit fünf bis 20 Mitarbeitern tätig. Die durchschnittliche Betriebsgröße war 2003 im Handwerk mit 7,6 Beschäftigten nur halb so groß wie in der Gesamtwirtschaft. Im Jahr 2009 erreichte der Umsatz im Handwerk rund 488 Milliarden Euro. Seit mit der Novellierung der Handwerksordnung 2004 in vielen Gewerken der Meisterbrief als Voraussetzung für die Gründung entfiel, ist die Zahl der Handwerksbetriebe deutlich gestiegen, von 846.588 im Jahre 2003 auf 975.000 im Jahre 2009. Die wirtschaftliche Bedeutung des Handwerks erschließt sich allerdings nicht nur aus der Anzahl der Betriebe, der dort beschäftigten Erwerbspersonen und deren Wertschöpfung. Darüber hinaus hat das Handwerk eine besondere regionalpolitische Bedeutung: Die Handwerksbetriebe sind über die Fläche verteilt und tragen Wachstum und Beschäftigung auch in die ländliche Region. Gerade in strukturschwachen Regionen ist die Verfügbarkeit von Handwerksleistungen wiederum ein wichtiger Standortfaktor: Für Standortentscheidungen von Unternehmen ist nicht selten die ortsnahe Verfügbarkeit von Handwerksleistungen (Zulieferer, Dienstleister, Instandhaltung) ein wichtiger Faktor. Für die privaten Haushalte ist die ortsnahe Versorgung mit Leistungen des Handwerks (z. B. Lebensmittel, Kfz-Werkstätten etc.) ein Faktor, der Lebensqualität und Attraktivität der Region vermittelt. Personalstruktur und -entwicklung. Die persönliche Qualifikation der Mitarbeiter ist der entscheidende Erfolgsfaktor für die Innovations- und Wettbewerbsfähigkeit des Handwerks. Unternehmensgründung. Die Gründungsquote im Handwerk betrug im Jahre 2001 etwa 4,7 % (gegenüber zirka 12 % in der Gesamtwirtschaft). Allerdings weisen deutsche Handwerksunternehmen eine überdurchschnittliche Lebenserwartung auf. Dies ist vor allem auf die gute Vorbereitung der „gründungsbereiten“ Jungunternehmer wegen des Meisterbriefes (großer Befähigungsnachweis) und auf die umfangreiche Gründungsberatung der Handwerkskammern zurückzuführen. Perspektiven. Vor dem Hintergrund dieser Trends – die die verschiedenen Gewerke in unterschiedlichem Maße betreffen – gewinnt die berufliche Aus- und Weiterbildung stärker denn je an Bedeutung. Nur mit hochwertig ausgebildetem Personal kann das Handwerk die Herausforderungen der Zukunft meistern und Zukunftschancen nutzen. Ein attraktives Aus- und Weiterbildungsangebot ist außerdem auch notwendig, um qualifizierte Berufseinsteiger für das Handwerk zu gewinnen. Untersuchungen zur Zukunft des Handwerks haben Chancen und Risiken dieses speziellen Wirtschaftsbereiches mit folgenden Ergebnissen analysiert. In allen Bundesländern, qualifizieren sich Handwerksmeister zugleich mit der Meisterprüfung bzw. der Prüfung zum Gestalter im Handwerk zur Berechtigung, an einer Hochschule ein Fach ihrer Wahl zu studieren. In Bayern haben Handwerksmeister seit dem Wintersemester 2009/2010 die Hochschulzugangsberechtigung; 387 Handwerksmeister haben sich im Wintersemester 2009/2010 an den bayerischen Universitäten eingeschrieben. Handwerksgesellen erwerben die Fachhochschulreife. Daneben besteht eine Möglichkeit zur Weiterbildung für Handwerker zum „Gestalter im Handwerk“, wo unter anderem Kurse in Zeichnen und Darstellungstechniken, Grundlagen der Gestaltung, Farbgestaltung, Entwurf, Gestaltung, Projektentwicklung, Materialkunde, Werktechnik und Modellbau, Typografie und Layout, Fotografie und Dokumentation, Kunst- und Designgeschichte, Präsentation und Designmanagement belegt werden müssen. Die Prüfung findet in Form einer umfangreichen Projektarbeit statt. Die Akademien für Gestaltung in Deutschland sind dem Bildungsangebot ihrer jeweiligen Handwerkskammern angeschlossen und bieten den einjährigen Vollzeitkurs oder den berufsbegleitenden 2-jährigen Kurs an. Diverse Fördermodelle unterstützen Handwerker dabei. Organisationsstruktur. Jeder zulassungspflichtige Handwerksbetrieb, die zulassungsfreien sowie handwerksähnliche Handwerke sind Pflichtmitglied in der regional zuständigen Handwerkskammer (vergleichbar der Industrie- und Handelskammer oder Rechtsanwaltskammer). Die Kammern bilden auf Ebene der Bundesländer regionale Kammertage und auf Bundesebene den Deutschen Handwerkskammertag als Spitzenorganisation der Handwerkskammern in Deutschland. Ferner sind viele Handwerksbetriebe in Innungen freiwillig organisiert. Diese Innungen eines Kreises bilden auf regionaler Ebene die Kreishandwerkerschaften. Innungen desselben oder sich fachlich nahestehender Handwerke eines oder mehrerer Bundesländer können sich zu Landesfach- beziehungsweise Landesinnungsverbänden zusammenschließen. Diese Verbände können sich auf Landesebene zu regionalen handwerkeübergreifenden Regionalvereinigungen als landesweite Arbeitgeberverbände (oft Unternehmer- oder Gesamtverband bezeichnet) zusammenschließen. Auf Bundesebene bilden sie die Bundesinnungsverbände bzw. Zentralfachverbände, welche sich im Unternehmerverband Deutsches Handwerk (UDH) als Spitzenorganisation der Arbeitgeber im Handwerk Deutschlands zusammengeschlossen haben. In den Bundesländern bilden die regionalen Kammertage mit den Unternehmer- bzw. Gesamtverbänden die regionalen Handwerkstage als Vertretung des Handwerks auf Länderebene. Die 53 Handwerkskammern und 36 Zentralfachverbände bilden mit weiteren bedeutenden Einrichtungen des Handwerks den Zentralverband des Deutschen Handwerks (ZDH). Der ZDH ist Mitglied der UEAPME, der Europäischen Union des Handwerks und der Klein- und Mittelbetriebe mit Sitz in Brüssel. Weitere Organisationen des Handwerks sind z. B. die Junioren des Handwerks welche speziell die Interessen junger Handwerksmeister/innen und Führungskräfte vertreten, sowie der Arbeitskreis Unternehmerfrauen im Handwerk als Vertretung der im Handwerk tätigen Unternehmerinnen und in Leitungspositionen im Handwerk arbeitenden Frauen. Zitate. Richard Sennett: „Etwas selbst dann richtig zu tun, wenn man dafür vielleicht gar nichts dafür bekommt, das ist wahrer Handwerksgeist. Und wie ich meine, vermag nur solch ein uneigennütziges Gefühl des Engagements und der Verpflichtung die Menschen emotional zu erheben. Anderenfalls unterliegen sie im Kampf ums Überleben.“ „Eine umfassende Definition [für eine "handwerkliche Einstellung" (im weiteren Sinn)] könnte lauten: etwas um seiner selbst willen gut machen. In allen Bereichen handwerklicher Einstellung spielen Disziplin und Selbstkritik eine wichtige Rolle. Man orientiert sich an gewissen Standards, und im Idealfall wird das Streben nach Qualität zum Selbstzweck.“ Handelsrecht (Deutschland). Handelsrecht ist ein spezielles Privatrecht, das die Gesamtheit aller Rechtsnormen für Kaufleute umfasst. Allgemeines. Kaufleute unterliegen in Deutschland und weltweit einem Sonderrecht, das Teilgebiete ihrer Geschäftstätigkeit regelt. Diese Teilgebiete sind in Spezialgesetzen wie Handelsgesetzbuch (HGB) und dessen Nebengesetzen wie Scheckrecht (SchG) und Wechselrecht (WG) kodifiziert. Im weiten Sinn gehören auch die Normen des Gesellschaftsrechts, Wertpapier-, Bank-, Kapitalmarkt- und Börsenrechts zum Handelsrecht. Die Geltung des Handelsrechts ist nach dem HGB abhängig von der Kaufmannseigenschaft wenigstens eines der beteiligten Rechtssubjekte (so genanntes „subjektives System“; vgl., HGB). Anders als es der Name vermuten lässt, gilt das heutige Handelsrecht nicht nur für Kaufleute, die Handel treiben, sondern auch für Handwerk, Industrie, Urerzeugung und die Gruppe der Dienstleister außerhalb der freien Berufe (etwa Gastronomie, Taxiunternehmen, Kinos). Geschichte. Im Mai 1861 wurde das ADHGB der Staaten des Deutschen Bundes durch Erlass als Reichsgesetz zur Kodifikation des Handelsrechts aller Länder im neu entstandenen Deutschen Reich. Das neue HGB trat gleichzeitig mit dem Bürgerlichen Gesetzbuch (BGB) am 1. Januar 1900 in Kraft. Rechtsquellen. Wichtigste Rechtsquelle ist das Handelsgesetzbuch. Das Handelsrecht steht als „Sonderprivatrecht der Kaufleute“ nicht in sich abgeschlossen neben dem Bürgerlichen Recht, sondern ergänzt und modifiziert dessen Vorschriften, insbesondere die des Bürgerlichen Gesetzbuches. Gegenüber dem Handelsgesetzbuch wird dieses nach Abs. 1 EGHGB daher nur subsidiär angewendet. Weitere handelsrechtliche Vorschriften finden sich in der Zivilprozessordnung (Abs. 2, Abs. 1, ZPO) und im Börsengesetz (BörsG). Eine große Bedeutung haben daneben das Gewohnheitsrecht (etwa die Lehre vom Scheinkaufmann, das kaufmännische Bestätigungsschreiben) und der Handelsbrauch (HGB). Daneben ist in Registersachen das Gesetz über das Verfahren in Familiensachen und in den Angelegenheiten der freiwilligen Gerichtsbarkeit (kurz "FamFG") einschlägig. Begriff des Gewerbes. Nach überkommener Auffassung der höchstgerichtlichen Rechtsprechung und der Rechtslehre ist ein (Handels-)Gewerbe jede erlaubte, selbständige, nach außen erkennbare Tätigkeit, die planmäßig, für eine gewisse Dauer und zum Zwecke der Gewinnerzielung ausgeübt wird und kein „freier Beruf“ ist. In der neueren Literatur wird jedoch das Merkmal der Gewinnerzielung in Frage gestellt und von der nunmehr herrschenden Meinung mit der Begründung verneint, diese sei als reines Internum anzusehen. Dem Unternehmen stehe es frei, ob es Gewinn erzielen wolle oder nicht. Handelsregister. Angaben zu wesentlichen Tatsachen der Kaufleute und der Unternehmen werden im Handelsregister eingetragen. Der Handelsvertreter. Handelsvertreter ist nach Abs. 1 Satz 1 HGB, „wer als selbständiger Gewerbetreibender ständig damit betraut ist, für einen anderen Unternehmer (Unternehmer) Geschäfte zu vermitteln oder in dessen Namen abzuschließen.“ Wirtschaftlich gesehen ist seine Rolle meist als Absatzmittler aufzufassen. Als Gewerbetreibender nach Abs. 1 HGB ist er Kaufmann, soweit die Voraussetzungen des Abs. 2 HGB vorliegen oder er nach HGB ins Handelsregister eingetragen ist. Seine Tätigkeit besteht in der Vermittlung von Geschäften für den Unternehmer und im Abschluss von Geschäften "im Namen" des Unternehmers. Der Handelsvertretervertrag ist ein Geschäftsbesorgungsvertrag mit Dienstleistungscharakter nach Abs. 1 iVm § ff. BGB. Der Vertragshändler. Vertragshändler ist, wer als selbständiger Gewerbetreibender ständig damit betraut ist, die Produkte eines anderen Unternehmers im eigenen Namen und für eigene Rechnung zu vertreiben und deren Absatz in ähnlicher Weise wie ein Handelsvertreter oder Kommissionsagent zu fördern. Ihm steht nach BGH-Ansicht (BGHZ 29, 83, 88 f.) analog HGB ein Ausgleichsanspruch zu, wenn Hypercholesterinämie. Unter Hypercholesterinämie versteht man einen zu hohen Cholesterinspiegel im Blut. In der Literatur wird es auch in manchen Fällen gleichbedeutend mit Hyperlipoproteinämie verwendet. Im Allgemeinen wird ab einem Gesamtcholesterin im Blut von 200 mg/dl, dem zurzeit empfohlenen Grenzwert, von einer Hypercholesterinämie gesprochen. Für die Bestimmung wird das Blut bei Nüchternheit untersucht "(mindestens 14 Stunden nach der letzten Mahlzeit)". Die Hypercholesterinämie wird als relevanter Risikofaktor insb. für Arteriosklerose betrachtet. Eine wesentliche Rolle für den Wert als eigenständiger Risikofaktor kommt dabei der ergänzenden Bestimmung der Unterkategorien HDL und LDL zu. Die Empfehlungen zu den Ober-, aber auch Untergrenzen der Messwerte im Hinblick auf die Risikokonstellation wurden in den vergangenen Jahrzehnten aufgrund neuer Studienergebnisse mehrmals angepasst. Sie sind zudem abhängig von ergänzend vorhandenen Risikofaktoren sowie dem Alter und Vorerkrankungen betroffener Patienten. Ursachen. Es gibt vielerlei Ursachen eines erhöhten Cholesterinspiegels im Blut: erbliche Erkrankungen, aber auch Diabetes, Schilddrüsenunterfunktion, Bauchspeicheldrüsenentzündung, nephrotisches Syndrom, gewisse Lebererkrankungen, Übergewicht, Alkoholismus, Schwangerschaft, die Einnahme bestimmter Medikamente "(zum Beispiel Verhütungsmittel, Kortikosteroide und antiretrovirale Wirkstoffe bei HIV-Therapie)" und Essstörungen. Bedeutung als Risikofaktor. Die Hypercholesterinämie gilt als ein Risikofaktor für kardiovaskuläre Erkrankungen wie Herzinfarkt, Schlaganfall oder periphere arterielle Verschlusskrankheit. Die anzustrebenden Zielwerte sind abhängig vom Vorhandensein weiterer Risikofaktoren und Vorerkrankungen. Allgemein sollte bei einem Gesamtcholesterinspiegel im Blut von über 200 mg/dl eine weitere Aufdifferenzierung in LDL- "(Low Density Lipoprotein)" und HDL- "(High Density Lipoprotein)" Cholesterin erfolgen. Besondere Bedeutung kommt der Hypercholesterinämie als Risikofaktor für kardiovaskuläre Ereignisse "(z.B. Herzinfarkt)" bei Personen unter 55 Jahren zu. Eine medikamentöse Lipidsenkung ist von LDL-Wert und individuellem Risikoprofil abhängig zu machen. Bestehen keine zusätzlichen Risikoindikatoren sollte der LDL-Wert unter 130 mg/dl liegen "(oder therapeutisch unter diesen Wert gebracht werden)". Liegen ein Diabetes mellitus, ein erhöhtes vaskuläres Risiko oder eine KHK vor, sollte er unter 100 mg/dl liegen. Dieser Wert gilt auch als Risikofaktor für eine Subarachnoidalblutung. Eine Hypercholesterinämie wird hier zwar als ursächlich für das Voranschreiten einer Arteriosklerose betrachtet - konkrete, eigenständige Empfehlungen für Zielwerte fehlen jedoch. Die Hypercholesterinämie wird als "minor Risk factor" für die Entstehung von Bauchaorten- und Beckenarterienaneurysmen eingestuft. Die Hypercholesterinämie gilt als Kontraindikation für den Einsatz von Ovulationshemmern. Für die ketogene Diät "(kohlenhydratarme, energie- und proteinbilanzierte sowie extrem fettreiche Diät - imitiert den metabolischen Zustand des Fastens)" gilt die Hypercholesterinämie als Kontraindikation. Behandlung. Vorrangige Maßnahmen sind Gewichtsreduktion und sportliche Aktivität. Hilfreich dafür können eine cholesterinarme, fettreduzierte, kalorienangepasste und ballaststoffreiche Diät sowie viel Bewegung an der frischen Luft sein. Reduziert sich der Cholesterinspiegel trotz dieser Maßnahmen nicht ausreichend, kann eine zusätzliche medikamentöse Behandlung mittels Statinen notwendig werden. Wie stark der Cholesterinspiegel gesenkt werden soll, ist von den oben genannten individuellen Faktoren abhängig. Zur Senkung kommen sogenannte CSE-Hemmer "(Cholesterin-Synthese-Enzym-Hemmer)" vom Typ der HMG-CoA-Reduktase-Inhibitoren in Frage, die zur Verminderung des LDL-Cholesterins führen, indem sie unter anderem dessen Neubildung in der Leber hemmen. Diese Arzneistoffe sind als Statine bekannt. Weitere LDL-senkende Medikamente sind die Austauschharze "(Colestyramin, Colesevelam)". Des Weiteren gibt es die Wirkstoffgruppen der Fibrate und Nikotinsäurederivate sowie einen selektiven Cholesterinresorptionshemmer, das Ezetimib. In therapieresistenten Fällen insbesondere bei einer erblich bedingten Störung des Fettstoffwechsel kann auch die LDL-Apherese eingesetzt werden. Eine Reduktion der Rate kardiovaskulärer Ereignisse durch Verminderung einer bestehenden Hypercholesterinämie konnte bei Personen über 55 Jahren nicht nachgewiesen werden. Das gilt auch für Patienten mit zusätzlich bestehender Zuckerkrankheit "(eine statistische Risikoreduktion durch Gabe von Statinen ist unabhängig von der Höhe des Cholesterinspiegels)". Der Nutzen von Statinen ist für Hochrisikopatienten insbesondere zur Vorbeugung gegen eine Atherothrombose statistisch belegt und wird daher auch nur für diese Gruppe von Patienten empfohlen. Nach einem ischämischen Schlaganfall wird eine Statintherapie auch bei normalem Cholesterinspiegel empfohlen. Haselnussgewächse. Die Haselnussgewächse (Coryloideae) sind eine Unterfamilie der Birkengewächse (Betulaceae). Manchmal werden sie auch als selbständige Familie Corylaceae angesehen. Die Pflanzenarten dieser Unterfamilie kommen in den gemäßigten Zonen der Nordhalbkugel vor. Beschreibung. Es sind laubabwerfende Bäume oder Sträucher. Die wechselständig, spiralig bis zweizeilig angeordneten gestielten Laubblätter sind einfach. Die Blattränder sind (meistens doppelt) gesägt bis gezähnt. Die Nebenblätter fallen früh ab. Sie sind einhäusig getrenntgeschlechtig (monözisch). Die männlichen Blütenstände sind hängende Kätzchen. Die Bestäubung erfolgt über den Wind (Anemophilie). Die weiblichen Blütenstände sind kurz und aufrecht aber je nach Gattung unterschiedlich aufgebaut. Die weiblichen Blütenstände haben laubblattähnliche Hochblätter (Brakteen), dagegen haben die Betuloideae holzige Blütenstände. Die Blütenhülle fehlt bei männlichen Blüten, bei weiblichen Blüten ist sie kelchblattartig. Die männlichen Blüten bestehen nur aus vier bis acht fertilen Staubblättern. Bei den weiblichen Blüten sind zwei Fruchtblätter zu einem unterständigen Fruchtknoten verwachsen, mit zwei Griffeln. Als Früchte werden meist große (Nussfrüchte) gebildet. Hartriegelgewächse. Die Hartriegelgewächse (Cornaceae) sind eine Familie in der Ordnung Hartriegelartigen (Cornales) innerhalb der Bedecktsamigen Pflanzen (Magnoliopsida). Vegetative Merkmale. Die meisten Arten sind Bäume oder Sträucher. Der Kanadische Hartriegel ist jedoch eine immergrüne, ausdauernde krautige Pflanze, in der Gattung "Alangium" kommen auch Lianen vor. Die gegen- oder wechselständig an den Zweigen angeordneten Laubblätter sind einfach. Generative Merkmale. Die Blüten der Hartriegelgewächse sind relativ klein und werden in endständigen, verzweigten Blütenständen gebildet, die manchmal von auffälligen Hochblättern umhüllt sind. Die Arten der Ordnung Hartriegelartigen (Cornales) variieren stark in ihrer Blütenstruktur: Meist jedoch sind die Blüten klein, und vier bis fünf, in ihrer Größe reduzierte Kelchblätter bilden eine mit dem Fruchtknoten verwachsene Röhre. Oft findet sich auf dem oberen Teil des Fruchtknotens eine Nektar produzierende Scheibe. Im Allgemeinen weisen die Blüten vier bis fünf nicht miteinander verwachsene Kronblätter auf, die aber auch vollständig fehlen können. Systematik und Verbreitung. Hartriegelgewächse sind hauptsächlich in den gemäßigten Gebieten der Nordhalbkugel verbreitet. Einige Arten kommen auch im tropischen Südamerika und in Afrika vor. Nutzung. Die wirtschaftliche Bedeutung der Familie betrifft vor allem ihre Nutzung als Ziergehölze: Hartriegelgewächse werden wegen des attraktiven Erscheinungsbildes von Blüten und Früchten sowie wegen des farbenprächtigen Herbstlaubes kultiviert. Das Holz einiger Arten findet außerdem in der Möbelherstellung Verwendung. Die Kornelkirsche ist in Europa vielerorts in Wäldern und Gebüschen anzutreffen, sie ist eine beliebte Heckenpflanze. Ihre roten Früchte sind essbar, in Frankreich werden sie zur Herstellung eines alkoholischen Getränks genutzt, des vin de courneille. Der Rote Hartriegel – sein Laub färbt sich im Herbst rot – bildet schwarze Früchte, die durch Vögel verbreitet werden; er kommt als Unterholz in lichten Wäldern vor. Aus den Früchten gewonnenes Öl wird in Frankreich zur Herstellung von Seife genutzt. Hängende Gärten der Semiramis. Künstlerische Interpretation der Hängenden Gärten der Semiramis (vermutlich 19. Jahrhundert) Die Hängenden Gärten der Semiramis, auch die Hängenden Gärten von Babylon genannt, waren nach den Berichten griechischer Autoren eine aufwendige Gartenanlage in Babylon am Euphrat (im Zweistromland, im heutigen Irak gelegen). Sie zählten zu den sieben Weltwundern der Antike. Die griechische Sagengestalt der Semiramis wird manchmal mit der assyrischen Königin Schammuramat gleichgesetzt. Im Altgriechischen lautete die Bezeichnung "hoi [tês Semirámidos] Kêpoi Kremastoí Babylônioi" („die Hängenden Gärten [der Semiramis] in Babylon“), im Lateinischen "Semiramidis Horti Pensiles" („die Hängenden Gärten der Semiramis“) oder "Horti Pensiles Babylonis" („die Hängenden Gärten Babylons“), im Arabischen. Geschichte. Nach den antiken Schriftstellern lagen die Hängenden Gärten neben oder auf dem Palast und bildeten ein Quadrat mit einer Seitenlänge von 120 Metern. Die Terrassen erreichten eine Höhe von ca. 25 bis 30 Metern. Die dicken Mauern und Pfeiler des Aufbaugerüstes waren überwiegend aus Brandziegeln hergestellt, unter den einzelnen Stufenabsätzen sollen sich Gänge befunden haben. Die Etagenböden bestanden aus drei Lagen, eine Lage aus Rohr mit viel Asphalt, darüber eine doppelte Lage aus gebrannten Ziegeln, die in Gipsmörtel eingebettet waren, und ganz oben dicke Platten aus Blei. So wurde ein Durchdringen von Feuchtigkeit verhindert. Auf diese Konstruktion hätte man Humus aufbringen und verschiedene Baumsorten einpflanzen können. Eine Bewässerung war aus dem nahegelegenen Euphrat möglich. Nach der allgemeinen Überlieferung sollen die Gärten von Königin Semiramis errichtet worden sein, deren Ruhm auch heute noch bis ins entfernte Armenien reicht, wo ein großer Bewässerungskanal für die Stadt Wan am Vansee „Strom der Semiramis“ und der höchste Teil des Kastels der Stadt „Semiramisburg“ genannt wird. Gegen die bereits im Altertum kursierende Meinung, dass die Gärten von Semiramis errichtet wurden, erhob aber schon Diodor Protest (II, 10, I): Vielmehr habe sie ein babylonischer König erbaut. Nach genauerer Mitteilung des Borosos sei es Nebukadnezar II. gewesen: Seine Gemahlin soll sich nach dem Tiefland von Babylonien und den Wäldern und Bergen gesehnt haben, so habe der König ihr die Hängenden Gärten erbaut. Auch andere wichtige antike Autoren, die sich in der Gegend aufhielten oder über die Gegend berichten, benennen die Gärten nicht nach Semiramis, etwa Herodot (Historien I, 181), Xenophon (Kyropaedia) und Plinius (Naturgeschichte VI. 123). In Babylon. Oft wird die von Robert Koldewey im Nordostteil des Südpalastes ausgegrabene Anlage, deren Fundament aus mehreren überwölbten Räumen bestand, als Überrest der hängenden Gärten gedeutet. Dieser Bau bestand aus 14 Kammern. Die Grundmauern bildeten ein Trapez mit Kantenlängen zwischen 23 und 35 Metern. Außerdem verfügte der Bau über eine Brunnenanlage. Auffällig waren vor allem die paternosterähnlichen Bauten, die anscheinend Wasser zwischen mehreren Etagen transportierten. Man fand heraus, dass dieses Wasser mehreren Quellen entsprang. Das ausgegrabene Areal wird Nebukadnezar II. zugewiesen. Wolfram Nagel lokalisiert die Gärten im Westen der Südburg, wohl im Bereich des Außenwerks, und nimmt dann einen Neubau in persischer Zeit durch Atossa, die Mutter Xerxes’ I., an, die damit an ihre „Großtante Amyitas“, für die Nebukadnezar Gärten hatte einrichten lassen, erinnern wollte. Julian Reade lokalisiert die Gärten im Außenwerk des sogenannten Nordpalastes, nach Osten zum Palast hin orientiert. Kai Brodersen nimmt an, dass diese Gärten nie existierten, sondern dass ein unzugänglicher Palastgarten Nebukadnezars II. im Laufe der Jahrhunderte in der Fantasie der Autoren immer wunderbarere Formen annahm. Als Beleg führt er an, dass diese Bauten bis heute nicht zufriedenstellend lokalisiert werden konnten, dass man dem Garten Bewässerungsformen unterstellte, die erst nach Nebukadnezar II. erfunden wurden, und dass weder zeitgenössische babylonische Texte noch Herodot von einem solchen Bau berichten. Auch andere Autoren bezweifeln inzwischen die Deutung Koldeweys, z. B. Michael Jursa. a> kann – oder auch nicht – die Hängenden Gärten zeigen In Ninive. Die Assyriologin und Keilschrift-Expertin Stephanie Dalley von der University of Oxford legte bereits Anfang der 1990er Jahre Argumente für die Deutung vor, die Hängenden Gärten seien der Palastgarten des assyrischen Königs Sanherib gewesen, der rund 100 Jahre vor dem babylonischen König Nebukadnezar II. gelebt hatte. Dieser Palastgarten in Ninive am Tigris sei für Sanheribs Gattin Tāšmetun-Šarrat erbaut und mittels einer archimedischen Schraube bewässert worden. Dalley untermauerte 2013 ihr Plädoyer für Ninive in einem Buch mit weiteren Belegen aus topografischen Untersuchungen und historischen Quellen und erregte damit Aufsehen. Dalley stellt die These auf, dass auf dem "Relief aus Kuyunjik" das Aquädukt von Jerwan dargestellt ist. Das Aquädukt ist Teil des großen Atrush-Kanals, der durch den assyrischen König Sanherib zwischen 703 und 690 vor Chr. erbaut wurde, um in Ninive u. a. die weitläufigen Gärten zu bewässern, mit Wasser aus der Khenis-Schlucht, das 48 km nach Norden umgeleitet wurde.Einige Wissenschaftler vertreten die These, dass die Berichte der "Hängenden Gärten von Babylon" eigentlich die weitläufigen Gartenanlagen des Palastes von Sanherib in Ninive und nicht in Babylon beschreiben. Haithabu. Haithabu (altnordisch "Heiðabýr", aus "heiðr" ‚Heide‘, und "býr" ‚Hof‘; dänisch/schwedisch "Hedeby", lateinisch "Heidiba"; auch "Haiðaby", "Haidaby") war eine bedeutende Siedlung dänischer Wikinger bzw. schwedischer Waräger. Der Ort gilt als frühe mittelalterliche Stadt in Nordeuropa und war ein wichtiger Handelsort und Hauptumschlagsplatz für den Handel zwischen Skandinavien, Westeuropa, dem Nordseeraum und dem Baltikum. Haithabu lag auf der Kimbrischen Halbinsel am Ende der Schlei in der Schleswigschen Enge (Isthmus) zwischen Nordsee und Ostsee in der Nähe des historischen Ochsenwegs (oder Heerweg). Der Ort gehörte wohl zur damaligen Verwaltungseinheit Arensharde. Heute gehört das Gebiet zu Deutschland, das Gelände ist ein Teil der Gemeinde Busdorf bei Schleswig im Kreis Schleswig-Flensburg. Der seit über neun Jahrhunderten verlassene Ort Haithabu ist gemeinsam mit dem Danewerk das bedeutendste archäologische Bodendenkmal in Schleswig-Holstein. Geschichte. Nach der Völkerwanderung, in deren Verlauf die Angeln und viele Sachsen nach England auswanderten, drangen Dänen und Jüten in der ersten Hälfte des 8. Jahrhunderts von Norden bis zur Schlei und zur Eckernförder Bucht vor. Das Gebiet scheint zu diesem Zeitpunkt nur dünn besiedelt gewesen zu sein. Spätestens um 770 wurde Haithabu gegründet und sehr bald der bedeutendste Handelsplatz der Dänen. Im 9. Jahrhundert entstand eine zweite Siedlung weiter nördlich und eine weitere Siedlung am Haithabu-Bach dazwischen. Ende des 9. Jahrhunderts wurden der nördliche und südliche Teil der Siedlung aufgegeben. Der mittlere Teil am Haithabu-Bach wurde weiter benutzt und durch Wälle in die dänischen Grenzanlagen des Danewerks eingebunden. Durch die Zerstörung des konkurrierenden slawischen Handelsortes Reric in der Nähe von Wismar durch den dänischen König Gudfred im Jahr 808 und die anschließende Zwangsumsiedlung der Kaufleute nach Haithabu entwickelte sich die Stadt rasch zur Handelsstadt, noch bevor Dänemark Einheit erlangte. Seit 811 markierte die einige Kilometer südlich fließende Eider die Grenze zum Frankenreich, was die Bedeutung Haithabus noch vergrößerte. Die Lage des Ortes war sehr günstig, denn die Schlei, ein langer Arm der Ostsee, war schiffbar, und zugleich verlief hier die uralte "Nord-Süd-Route", der Ochsenweg. Wahrscheinlich wurden hier zudem Handelsgüter verladen, die über Land nur wenige Kilometer weit bis zur Eider gebracht und von dort weiter zur Nordsee verschifft wurden – und umgekehrt. Vom 9. bis ins 10. Jahrhundert war Haithabu mit seinen mindestens tausend ständigen Einwohnern ein wichtiger, überregional bekannter Handelsplatz. Hier wurden auch eigene Münzen geprägt. Andere Handelszentren in Nord- und Westeuropa, ohne die Haithabu keine solche Bedeutung hätte erlangen können, waren zu dieser Zeit u. a. Västergarn (zuvor Paviken) und Vallhagar auf Gotland, Avaldsnes, Kaupang, Spangereid und Steinkjer (Norwegen), Birka, Löddeköpinge und Sigtuna (Schweden), Domburg, Dorestad und Witla (Niederlande), Quentovic (Frankreich), Nowgorod (Russland), Ribe und Tissø (Dänemark) und an der südlichen Ostseeküste Jomsburg (Vineta), Menzlin, Ralswiek, Truso (bei Danzig) und Wiskiauten (bei Cranz), sowie Seeburg im Baltikum. Um 890 unternahm Wulfstan von Haithabu im Auftrag Alfred des Großen eine Reise nach Truso. Um 800 beherrschten von Dänemark unabhängige schwedische Wikinger (Waräger) die Region. Sie wurden aber nur wenige Jahre später vom dänischen König Gudfred unterworfen, der Haithabu zum Zentrum seines Reiches machte. Um 900 übernahmen schwedische Wikinger erneut die Macht in Haithabu. Im Jahr 934 besiegte der ostfränkisch-sächsische König Heinrich I. die Dänen unter König Knut I. in der „Schlacht von Haithabu“ und eroberte die Stadt anschließend. Damit fiel das Gebiet zwischen der Eider und der Schlei zunächst an das Ostfränkische bzw. Römisch-Deutsche Reich, bis 945 der dänische König Gorm den wichtigen Handelsplatz eroberte. Gorms Sohn Harald verlor Haithabu 974 zunächst wieder an Heinrichs Sohn Otto I., 983 fiel es an den dänischen König. Das lokale skandinavische Herrschergeschlecht blieb bis zu diesem Zeitpunkt im Amt. Haithabu war jetzt wegen seiner Lage an den Handelswegen zwischen dem Fränkischen Reich und Skandinavien sowie zwischen Ostsee und Nordsee endgültig ein Haupthandelsplatz. Adam von Bremen bezeichnet „Heidiba“ als "portus maritimus", von dem aus Schiffe bis nach Schweden und in das Byzantinische Reich geschickt wurden. Besonders die Herstellung und Bearbeitung von Tonwaren (Geschirr), Glas und Werkzeug wurde wichtig für die Bedeutung Haithabus, das auch vom arabisch-jüdischen Reisenden Ibrahim ibn Jaqub um 965 besucht und beschrieben wurde. 948, nach einem Besuch Kaiser Ottos I. wurde Haithabu Bischofssitz. Schon um 850, wahrscheinlich durch Erzbischof Ansgar von Hamburg, war die erste christliche Kirche errichtet worden. Die Existenz dieses Baus ist zwar in den Schriftquellen sicher belegt, konnte aber noch nicht archäologisch nachgewiesen werden. Allerdings wurde eine aus dem frühen 10. Jahrhundert stammende Kirchenglocke geborgen. Im 10. Jahrhundert erreichte Haithabu seine Blütezeit und war mit mindestens 1500 Einwohnern der bedeutendste Handelsplatz für den westlichen Ostseeraum. Im Jahre 983 eroberte der dänische König Harald Blauzahn (auch: Harald I. Gormson; dänisch Harald Blåtand), der seit 948 die Hoheit des Kaiserreiches anerkannte, Haithabu, und in den Jahrzehnten um 1000 gehörte die Siedlung zum Machtbereich des römisch-deutschen Kaisers Otto III., der allerdings aufgrund seines jungen Alters und anderer Auseinandersetzungen (Slawenaufstand von 983) keinen Einfluss nahm. Unter Kaiser Konrad II. wurde die Grenze vermutlich durch eine von Sven Gabelbart unternommene Kriegshandlung von der Schlei wieder an die Eider zurückverlegt (→ Mark Schleswig). Obwohl ein neun Meter hoher Wall mit Palisade die Handelsstadt umgab, wurde sie im Jahr 1050 in einer Schlacht zwischen Harald Hardrada von Norwegen und Sweyn II. zerstört; sie wurde danach nur teilweise wiederaufgebaut und 1066 von den Westslawen geplündert und gebrandschatzt, die damals in den Gebieten östlich der Kieler Förde lebten. Die Einwohner verlegten die Siedlung daraufhin nach Schleswig – auf das andere Ufer der Schlei – und bauten Haithabu nicht wieder auf. Gemeinsam mit der Schlacht von Hastings im selben Jahr markiert die Zerstörung und Aufgabe von Haithabu das Ende der Wikingerzeit. Ausführliche Erwähnung findet Haithabu (Heidiba) in der Chronik des Erzbistums Hamburg, die Adam von Bremen im Jahr 1076 fertigstellte. Die Sachsen und Franken nannten eine neuere Siedlung nahe Haithabu "Sliaswig" und "Sliaswich" (Siedlung oder Bucht an der Schlei), wovon der Name der Stadt "Schleswig" und des Herzogtums Schleswig abgeleitet ist. Heute befindet sich in der Nähe des Halbkreiswalles das Wikinger-Museum Haithabu. Auf dem Gelände Haithabus wurden von 2005 bis 2008 sieben aus Befunden rekonstruierte Wikingerhäuser errichtet. Am 7. Juni 2008 wurden alle sieben Häuser in einem Festakt der Öffentlichkeit präsentiert. Im gleichen Jahr wurde auf der Museumswerft in Flensburg ein rund 6,50 m langes Wikinger-Boot gebaut. Seit Mitte Mai 2009 liegt es in Haithabu an der Landebrücke. Zusammen mit dem Danewerk und weiteren wikingerzeitlichen Stätten in Nordeuropa ist Haithabu im Rahmen des transnationalen Projektes „Wikingerzeitliche Stätten in Nordeuropa“ für das Weltkulturerbe der UNESCO nominiert. Siedlung. Die Hallenhäuser aus Holz- und / oder Flechtwerkwänden waren wahrscheinlich mit Reet oder Stroh gedeckt. Die überbauten Grundflächen variierten zwischen 3,5 × 17 m und 7 × 17,5 m. In der Siedlung wurden unterschiedliche Gräbertypen analysiert: dänische Brandgruben, schwedische Kammergräber, sächsische Urnengräber, christliche Erdgräber und slawische Urnengräber. Daraus lässt sich das Völkergemisch Haithabus erkennen, aber auch der Einfluss der Christianisierung (ab 826). Außerdem wurden unterschiedliche Werkstätten, Befestigungsanlagen, Landestege, Schiffbrücken und Speichergebäude gefunden. Handel. Haithabu lag an der Kreuzung zweier wichtiger Handelsrouten: Wenige Kilometer westlich führte der Ochsenweg (dänisch "Hærvejen", dt. "Heerweg") vorbei, jahrhundertelang die entscheidende Süd-Nord-Verbindung von Hamburg bis Viborg in Jütland. In West-Ost-Richtung gab es eine Seehandelsroute zwischen Nord- und Ostsee: Über die Eider und Treene konnten Schiffe bis nach Hollingstedt kommen. Eine Nutzung der Rheider Au mit kleineren Schiffen war danach möglich. Dann mussten die Schiffe von der Rheider Au zum Selker Noor (südliche Fortsetzung des Haddebyer Noors) über Land gezogen werden, um in die Schlei zu gelangen. Nach anderen Theorien kann der Kograben knapp südlich des Danewerks als Schifffahrtskanal gedient haben. Waren aus der gesamten damals bekannten Welt wurden in Haithabu gehandelt: aus Norwegen, Schweden, Irland, Baltikum, Konstantinopel, Bagdad und dem fränkischen Reich. Aus dem Rheinland wurden Weine (Raum Koblenz) importiert (5-7 Jhd). Gehandelt wurden aus dem skandinavischen Raum vorwiegend Rohstoffe, aus den entfernteren Gebieten eher Luxusgüter. Durch archäologische Funde von eisernen Fuß- und Handfesseln ist ein Handel mit Sklaven belegt. Für das Entstehen einer gewachsenen Stadt ist das Beispiel Haithabu, das ein Warenumschlagsplatz auf grüner Wiese ohne städtische Infrastruktur war, untypisch. Durch die erzwungene Ansiedlung der Kaufleute von Reric und den Zustrom von Handwerkern kam es zu einer Siedlungsverdichtung. Weil die Landbevölkerung ihre Getreideüberschüsse in die Stadt verkaufte und die Stadtbewohner deshalb nicht auf Selbstversorgung angewiesen waren, konnten sich dort differenzierte Tätigkeiten entwickeln. Untergang. Die Siedlung wurde dann 1066 geplündert und gebrandschatzt von den Westslawen, die damals in den Gebieten östlich der Kieler Förde lebten. Die Einwohner verlegten die Siedlung daraufhin nach Schleswig – auf das andere Ufer der Schlei – und bauten Haithabu nicht wieder auf. Gemeinsam mit der Schlacht von Hastings im selben Jahr markiert die Zerstörung und Aufgabe von Haithabu das Ende der Wikingerzeit. Ausgrabungen. Gedenkstein an die Erstnennung von "Sliesthorp" (= Haithabu) im Jahre 804 Die aufgegebene Siedlung Haithabu verfiel am Ende des 11. Jahrhunderts auf Grund des Wasseranstiegs von Ostsee und Schlei. Die Anlagen und Bauten im Siedlungs- und Hafengelände, mit Ausnahme des Walls, vergingen oberirdisch vollständig. Schließlich geriet sogar in Vergessenheit, wo sich der Ort am Haddebyer Noor befunden hatte. 1897 gelangte der dänische Archäologe Sophus Müller zu der Annahme, das Gelände innerhalb des Halbkreiswalles sei der Siedlungsplatz des alten Haithabus gewesen. 1900 wurde dies von Johanna Mestorf bestätigt. Sie ließ erste Ausgrabungen innerhalb des Walles durchführen, und Funde bestätigten die Annahme. Von 1900 bis 1915 fanden alljährlich Ausgrabungen mit dem Ziel statt, die Bedeutung Haithabus für die dänische Geschichte und seine Rolle in der Welt der Wikingerzüge zu klären. In den Jahren von 1930 bis 1939 wurde unter der Leitung von Herbert Jankuhn intensiv gegraben. In der Zeit des Nationalsozialismus standen die Grabungen seit 1934 unter Schirmherrschaft von Heinrich Himmler und wurden anfangs finanziert durch die Forschungsgemeinschaft Deutsches Ahnenerbe. 1938 übernahm die Forschungsgemeinschaft Deutsches Ahnenerbe Haithabu. Für die Nationalsozialisten hatten die Grabungen eine hohe ideologische Bedeutung bei ihrer Suche nach einer vermeintlich „germanischen“ Identität. In Haithabu investierte das SS-Ahnenerbe über die Hälfte seines Ausgrabungsetats. Nach dem Krieg wurden die Arbeiten unter Kurt Schietzel fortgesetzt. Für die Arbeit der Archäologen gab es in Haithabu günstige Voraussetzungen: Der Platz war nie überbaut worden, und infolge der Nässe waren die ufernahen Partien noch sehr gut erhalten, sodass das Grabungsfeld noch viele Details erkennen ließ. Im Sommer 1949 entdeckte der Schleswiger Rechtsanwalt Otto von Wahl bei Tauchgängen die Palisaden der Hafenbefestigung von Haithabu, die Schiffsnieten im Hafengrund liegender Wracks von Wikingerschiffen und diverse Kleinfunde wie z. B. Glasperlen und ein Bronzearmband. Otto von Wahl drängte daher die Archäologen, die Unterwassersuche wieder aufzunehmen. Umfangreiche Untersuchungen des Haddebyer Noores im Hafengebiet vor Hathabu erfolgten dann ab 1953 unter der Leitung von Prof. Karl Kersten und Prof. H. Hingst vom Landesmuseum für Vor- und Frühgeschichte in Schleswig. Seit 1959 hat man die gesamte Südsiedlung vor dem Halbkreiswall sowie einen großen Teil des alten Siedlungskerns im Halbkreiswall ausgegraben. Auch die Untersuchung des 11 ha großen Hafenbeckens wurde vorangetrieben. Erfolgreiche Tauchfahrten fanden 1953 statt. Dabei wurden Reste der Hafenpalisade und das Wrack des Wikingerschiffes Haithabu 1 entdeckt. 1979 konnte es nach der Errichtung eines Bergebauwerkes (Spundkasten) geborgen werden. Die Bergung des Wracks, seine Konservierung und die danach erfolgte Rekonstruierung des Wikingerschiffes wurden von der Film-AG im Studentenwerk Schleswig-Holstein unter Leitung von Kurt Denzer mit 16-mm-Film festgehalten. Als Ergebnis dieser filmischen Dokumentation erschien 1985 der 30-minütige Dokumentarfilm "Das Haithabu-Schiff". Haithabu ist der besterforschte frühmittelalterliche Hafen in Deutschland. Mit Schiffsbergungen und Hafenuntersuchungen bis 1980 fanden die Ausgrabungen ein vorläufiges Ende. Bislang sind fünf Prozent des Siedlungsareals und ein Prozent des Hafens intensiv untersucht worden. Mit Hilfe der Dendrochronologie hat man festgestellt, dass die einzelnen Gebäude auf dem feuchten Boden nur eine kurze Lebenszeit hatten und mehrmals überbaut wurden. Seit 2002 wurde mit Hilfe magnetischer, geophysikalischer Prospektion eine Art Stadtplan von Haithabu erstellt. Dabei macht man sich zunutze, dass die Überreste menschlichen Tuns andere magnetische Strukturen aufweisen als das umgebende Erdreich. Zur Überprüfung und Bestätigung der Ergebnisse wurde ab 2005 bis 2010 erneut in Haithabu gegraben. Dabei wurde u. a. ein auf den Überresten eines abgebrannten Grubenhauses errichteter Kuppelofen gefunden, der zur Herstellung von Glasperlen gedient haben könnte. Im Rahmen einer dreijährigen Förderung durch die Volkswagenstiftung werden die Funde und Befunde aus der Grabung ausgewertet. Die wichtigsten Funde, darunter die Runensteine von Haithabu, sind seit 1985 im Wikinger-Museum Haithabu ausgestellt. Direkt am Danewerk liegt das Danewerkmuseum. Ein Wikingerhaus von Haithabu ist im Museum von Moesgård in Dänemark rekonstruiert worden. Hesiod. Hesiod ('; * vor 700 v. Chr. vermutlich in Askra in Böotien) war ein griechischer Dichter, der als Ackerbauer und Viehhalter lebte. Neben Homers "Ilias" und "Odyssee" sind Hesiods Werke die Hauptquellen für unser heutiges Wissen über die griechische Mythologie und Mythographie sowie das Alltagsleben seiner Zeit. Er gilt als Begründer des didaktischen Epos, des Lehrgedichtes, das nach seiner Heimat Askra später von den Römern, besonders von Vergil, als ' (Verg. georg. 2, 176) bezeichnet wurde. Leben. Einige Informationen über Hesiods Leben sind möglicherweise in seinen Epen enthalten. In seinen Werken "Theogonie" und "Werke und Tage" (Verse 633–640) fügte er an drei Stellen mutmaßlich Biografisches ein. Allerdings gehen einige Forscher davon aus, dass es sich auch dabei um literarische Fiktionen handele. Hesiod wurde – unterstellt man die Authentizität der entsprechenden Textstellen – in Askra auf einer kleinen Burg in Böotien geboren. Sein Vater, dessen Name nicht bekannt ist, stammte aus Kyme, das an der kleinasiatischen Küste in Ionien lag. Der Überlieferung nach wird er den Adligen zugeordnet, was aber auch auf eine falsche Übersetzung einer Wendung in "Erga" 298 zurückgeführt werden kann, die sich auf Hesiods Bruder bezieht: ' () wurde als „Perses, Kind der Adligen“ übersetzt statt, wie es richtig heißen muss, „Perses, das wohlgeborene Kind“. Weiter heißt es, dass Hesiods Vater ein kleines Handelsunternehmen besaß, das Beziehungen zu anderen griechischen Städten unterhielt – wie damals üblich per Küstenschifffahrt. Das Geschäft war jedoch nicht erfolgreich und scheiterte. Daraufhin überquerte er die Ägäis und ließ sich in Askra nieder, wo er ein kleines Stück Land am Fuße des Helikon erwarb. Dort heiratete er Pykimede, mit der er zwei Söhne hatte: Hesiod und Perses. Askra war ein armer Ort. Hesiod beschrieb ihn als „eine verwünschte Burg“. Sein Leben war durch „harte Winter“ geprägt, „ein karges Dasein, das niemals angenehm wurde“. Werk. Hesiods Hauptwerke sind das Lehrgedicht "Werke und Tage" sowie die "Theogonie", ferner die sogenannten "Eoien", ein auch als "Katalog der Frauen" (') bekanntes, nur in Fragmenten erhaltenes Gedicht. Außerdem wird ihm der "Schild des Herakles", ein Epyllion in 460 Versen, zugeschrieben. Sein Epos "Theogonie", in dem er in über tausend Hexametern die Entstehung der Welt und der Götter schildert, ist weitgehend Grundlage des heutigen Wissens über die griechische Mythologie. In seinem als Anleitung für bäuerliche Arbeiten verfassten Lehrgedicht "Werke und Tage" (Erga kai hemerai) verherrlicht er die Arbeit als Hauptaufgabe der Menschen und konzipiert so eine frühe Arbeitsethik. Damit setzt er sich der homerischen Adelsethik entgegen und betont das Selbsterworbene gegenüber dem Angeborenen. "Werke und Tage" enthält auch den Mythos von der Büchse der Pandora. Außerdem wird dort eine Abfolge von Weltzeitaltern geschildert. Auf ein Goldenes Zeitalter folgen ein Silbernes und ein Ehernes (Bronzenes) Zeitalter und darauf das sogenannte „Zeitalter der Heroen“, in dem unter anderem auch Odysseus und Achilleus lebten und der Trojanische Krieg stattfand. Am Ende dieser Chronologie steht das Eiserne Zeitalter, Hesiods eigenes, das durch allgemeine Verfinsterung und Verrohung der Sitten gekennzeichnet ist. In Anbetracht von Willkür und Gewaltherrschaft fordert Hesiod zu redlichem und sittlichem Lebenswandel auf. Aus den geografischen Angaben in der "Theogonie" lässt sich die Welt, wie sie sich seinerzeit den Griechen darstellte, umreißen. Diese umfasst hauptsächlich Gebiete, die sich im östlichen Mittelmeerraum und in Kleinasien befinden. Das westliche Mittelmeer war Hesiod nur sehr schemenhaft bekannt. Weiterhin erwähnt sind das Schwarze Meer ("Pontos"), die Donau ("Istros") sowie die Alpen, die als Rhyphaen-Gebirge bezeichnet werden. Der Teil Europas, der sich nördlich der Alpen befindet, war Hesiod unbekannt. Pausanias berichtet von einem Werk mit dem Titel "Lied auf den Seher Melampus". Von dieser heute auch "Melampodie" genannten Dichtung sind nur Fragmente erhalten. Hera. Hera () ist in der griechischen Mythologie die Gattin und gleichzeitig die Schwester von Zeus und somit die Tochter von Kronos und Rhea. Sie gehört zu den zwölf olympischen Gottheiten, den Olympioi. Der Name "Hera" ist möglicherweise die weibliche Form von "Heros" (Herr). Der Lokalmythos lässt Hera auf Samos unter einem Lygosbaum geboren sein, außerhalb der Insel ist dies nicht überliefert. Einmal im Jahr vereinigte sie sich auf Samos mit ihrem Gatten Zeus unter einem Lygosbaum („Heilige Hochzeit“). Ein Bad im Imbrasos erneuerte danach ihre Jungfräulichkeit. Das diesbezügliche, "Tonaia" genannte Fest auf Samos, bei dem das Kultbild der Göttin mit Lygoszweigen umwunden wurde, erinnerte an dieses Ereignis. Dieser Baum stand am Altar im Heraion von Samos und wurde unter anderem von Pausanias beschrieben. Ihre Kinder – Ares, Hebe, Eileithyia – entstammen alle der Ehe mit ihrem Bruder Zeus. Ihr Sohn Hephaistos ist bei Homer ebenfalls ein Sohn des Zeus, bei Hesiod und anderen wurde er allein von Hera geboren. Zu Heras Attributen zählen der Kuckuck, der Pfau, die Kuh und der Granatapfel. Sie wird gewöhnlich dargestellt mit Krone oder Diadem und einem Zepter. Ihr zu Ehren wurden an verschiedenen Orten "Heraia" genannte, regelmäßig stattfindende Wettkämpfe veranstaltet. Charakterdeutung. Hera beobachtet eifersüchtig die zahlreichen Liebschaften von Zeus und bekundet ihren Ärger durch Schmollen oder Gezänk. Zu tätigem Widerstand fehlt ihr jedoch der Mut; droht er ihr, so lenkt sie schnell ein, weiß sich dann aber der List zu bedienen. Bereits Homer schildert dies nicht ohne Ironie – laut Egon Friedell hat er damit die „unverstandene Frau“ charakterisiert. Sie verfolgt jedoch seine unehelichen Kinder. Dionysos wird in Raserei gestürzt, das gleiche Los trifft Athamas, weil er Erzieher dieses Gottes war, sowie Ino, die ihn von Hermes zur Pflege empfangen hatte. Im Homerischen Hymnos an Apollon, der sie auch zur Mutter des Typhaon macht, setzt sie Python darauf an, Leto zu töten, die von Zeus mit Apollon und Artemis schwanger war. Funktion. Hera ist Wächterin über die eheliche Sexualität. Ihr obliegt der Schutz der Ehe und der Niederkunft. In Argos wurde sie als Eileithyia, als Geburtsgöttin verehrt. In der Theogonie des Hesiod wird Eileithyia (auch: Ilithya) jedoch nicht von Hera selbst verkörpert; sie ist dort die Tochter von Hera und Zeus. Als "Hera Zygia" ist sie Schutzherrin der Hochzeitsnacht. Gleichsetzungen. Im westlichen Mittelmeer wurde die Göttin Astarte in ihrer Eigenschaft als Himmelskönigin oft der Hera gleichgesetzt. Auch die römische Göttin Juno wurde ihr gleichgesetzt. Hera in den bildenden Künsten. Die plastischen Darstellungen der Hera, deren wir aber aus griechischen Zeit nur sehr wenige haben, halten sich vornehmlich an die Schilderung Homers: große, runde, offene Augen ("boopis", wörtlich „kuhäugig“ im Sinne von „großäugig“ als Schönheitsattribut), strenger, majestätischer Gesichtsausdruck, Körperformen einer blühenden Matrone; dazu züchtige Bekleidung: aufgeschürzter Chiton, der nur Hals und Arme unbedeckt lässt, mit weitem, die ganze Gestalt verhüllendem Obergewand, die königliche Kopfbinde ("stephane"), öfters auch ein Schleier. Der Granatapfel in ihrer Hand ist das Symbol der Fruchtbarkeit, die auch jene Äpfel bezeichnen, welche Gaia bei ihrer Hochzeit hatte wachsen lassen. Die gewöhnlichsten Attribute sind außerdem: das Zepter als Zeichen der Herrschaft, die "Patera" oder Opferschale in der Hand, Blumen und Blätter (als Symbole des Natursegens) sowie der Pfau zu ihren Füßen. Der Mythos berichtet, dass Hera die „Augen“ auf den Federn des Pfaus ihrem hundertäugigen Hirten Argos nach dessen Tod entnommen und auf die Federn des Pfaus gefügt haben soll. Auch der Kuckuck ist ihr heilig. Als Zeus sich in seine Schwester Hera verliebt hatte, ließ er ein Unwetter kommen und verwandelte sich in einen Kuckuck, den die mitleidige Hera in ihrem Gewand barg, wo sich Zeus zurückverwandelte und mit ihr schlief. Das berühmteste Bildnis der Hera war die kolossale Goldelfenbeinstatue des Polyklet im Heraion von Argos, von dem römische Münzbilder eine Vorstellung geben. Hera sitzt hier auf einem reich geschmücktem Thron, die Stirn mit einem Diadem geschmückt, worauf die Chariten und Horen im Relief gebildet waren; in der einen Hand hielt sie einen Granatapfel, in der anderen das Zepter, auf dem der Kuckuck saß. Unter den Mythen der Hera ist die heilige Hochzeit mit Zeus am häufigsten behandelt worden. Hornblatt. Hornblatt ("Ceratophyllum"), manchmal auch irreführend als Hornkraut bezeichnet (dies ist bereits der deutsche Name der Gattung "Cerastium"), bildet die einzige Pflanzengattung der Familie der Hornblattgewächse (Ceratophyllaceae) und der Ordnung der Hornblattartigen (Ceratophyllales) innerhalb der Bedecktsamigen Pflanzen (Magnoliopsida). Der Gattungsname "Ceratophyllum" ist aus den griechischen Wörtern "ceratos" für Horn und "phyllon" für Blatt abgeleitet. Diese Wasserpflanzen sind nicht mit den teilweise recht ähnlich aussehenden Armleuchteralgen zu verwechseln. Beschreibung. "Ceratophyllum"-Arten bestehen aus einer zentralen Sprossachse mit einem zugfesten, aber zerbrechlichen Stängel, an dem Blätter und auch Seitenachsen angesetzt sind. Die Hauptachse erreicht eine Länge von etwa 1 Meter. "Ceratophyllum"-Arten besitzen keine Wurzeln zur Verankerung im Boden. Sie flottieren frei im Wasser und nehmen Nährstoffe durch wurzelähnliche Gebilde auf, die aus umgewandelten Sprossen entstanden sind. Die Pflanze wächst am einen Ende weiter, während sie am anderen Ende abstirbt. Die Blätter sind aus Quirlen (Wirteln) aufgebaut und je nach Art ein- bis mehrfach gegabelt. Beim häufig vorkommenden Rauen Hornblatt beispielsweise sind sie ein- bis zweifach gabelig, dunkelgrün und enden in zwei bis vier starren, rauen, linealischen Zipfeln. Beim selteneren Zarten Hornblatt sind sie heller grün, feiner und drei- bis vierfach gegabelt mit fünf bis acht Zipfeln. Männliche Blüten beim Rauen Hornblatt ("Ceratophyllum demersum") Die Hornblattarten sind zweihäusig getrenntgeschlechtig (diözisch). Die sehr unscheinbaren Blüten stehen in den Blattachseln, sind aber kaum zu beobachten. Auch Befruchtung und Samenbildung geschehen unter Wasser. In der Regel vollzieht sich die Ausbreitung der Pflanze jedoch vegetativ, indem die brüchigen Sprossachsen im Frühjahr zerfallen. Aus jedem Bruchstück wächst ein neues Individuum heran. Außerdem werden im Herbst stärkereiche Winterknospen (Turionen) gebildet, die sich ablösen und auf den Grund sinken. Aus ihnen entstehen im Frühjahr ebenfalls neue Pflanzen. Vorkommen. Die Gattung "Ceratophyllum" ist weltweit mit etwa zehn Arten im Süßwasser vertreten. "Ceratophyllum"-Arten wachsen in stehenden oder langsam fließenden, sommerwarmen, nährstoffreichen, nicht selten sogar hypertrophen (verschmutzten) Gewässern. Systematik. Die Arten dieser Familie unterscheiden sich stark von allen anderen Blütenpflanzen. Sie sind wahrscheinlich die Schwestergruppe der Eudikotyledonen, möglicherweise aber auch der Monokotyledonen oder der Chloranthaceae. Die Gattung "Ceratophyllum" wurde 1753 von Carl von Linné in "Species Plantarum" aufgestellt. Aquaristik. In der Aquaristik finden verschiedene Hornblattarten Verwendung. Sie zeichnen sich durch ein starkes Wachstum aus und helfen die Wasserqualität zu verbessern. Ihre Eigenschaft, im Wasser gelöste Nährstoffe aufzunehmen, lässt sie auch zur Algenbekämpfung geeignet erscheinen. Hephaistos. Hephaistos (, latinisiert Hephaestus, eingedeutscht Hephäst) ist in der griechischen Mythologie der Gott des Feuers und der damaligen Metallkünstler – der Schmiede – (heute Kunstschmiede). Hephaistos entspricht dem späteren römischen Vulcanus. Er gehört zu den zwölf olympischen Gottheiten. Hephaistos war für das gesamte künstlerische Spektrum der Metallverarbeitung „zuständig“, einschließlich der Herstellung von Geschmeide, Waffen, sakral-rituellen und profanen Gebrauchsgegenständen. Der ihm geweihte Tempel des Hephaistos im Zentrum Athens gehört zu den besterhaltenen griechischen Tempeln. Mythos. Der Sohn des Zeus und der Hera (oder von Hera in Parthenogenese erzeugt) wurde, da er klein, hässlich und schreiend auf die Welt kam oder bereits lahm war, von seiner Mutter vom Olymp geschleudert und fiel bei der Insel Lemnos in den Okeanos – von manchen antiken Quellen wird die Lahmheit erst durch den Sturz erklärt. Dort wurde er von den Meernymphen Thetis und Eurynome gerettet, gesundgepflegt und aufgezogen. Bei ihnen lernte er die Schmiedekunst und fertigte ihnen Schmuck. Sein Kult war wegen der Vulkantätigkeit dieser Insel von Lemnos ausgegangen, die Römer lokalisierten seine Werkstätte unter dem Ätna. Erwachsen, schickte er seiner Mutter einen goldenen Thron. Als sich Hera darauf setzte, wurde sie gefesselt und niemand konnte sie befreien. Erst nach inständigen Bitten der anderen Götter kehrte Hephaistos auf den Olymp zurück und befreite Hera. Nach einer anderen Darstellung soll Hephaistos bei einem Streit von Zeus und Hera die Mutter unterstützt haben, worauf ihn der Vater am Fuß packte und vom Olymp herabwarf. Ein thrakischer Volksstamm, die Sintoi, der nach Lemnos ausgewandert war (dort fiel Hephaistos ins Meer), pflegte ihn gesund, aber ein Hinken blieb. Zur Versöhnung beschloss Zeus, ihm Aphrodite zur Frau zu geben. Doch Aphrodite betrog ihn unter anderem mit Ares. Hephaistos erfuhr davon und fertigte ein kunstvolles, unzerstörbares Netz, das er am ehelichen Bette befestigte. Als sich – so berichtet es Homer – Aphrodite und Ares in dem Bett vergnügten, wurden sie in diesem Netz gefangen, und Hephaistos rief die anderen Götter herbei, die bei dem Anblick in ein schallendes Gelächter ausbrachen, das sprichwörtliche „Homerische Gelächter“. Daraufhin trennten sich Hephaistos und Aphrodite. Die Werkstätten des Hephaistos befanden sich unter dem Vulkanon auf Lemnos, wo die Zyklopen seine Schmiedegesellen waren. Weitere Gehilfen waren Bia (= Kraft) und Kratos (= Stärke). Als Geburtshelfer erwies er sich, als Athene dem Kopf des Zeus entsprang („Hephaistosschlag"). Als Dank soll ihm Zeus Athene als Braut zugedacht haben. Athene verschwand jedoch, als Hephaistos sich mit ihr vereinigen wollte, und der Samen fiel auf die Erde. So wurde Erichthonios, (aus "eris" – Streit und "chthon" – Erde) der legendäre Held der Athener, von Gaia geboren. Auch die Aglaia, eine der drei Chariten (Töchter des Zeus und der Eurynome) soll der „ruhmreiche Hinkfuß” Hephaistos geschwängert haben. Hesiod verschweigt allerdings den Namen des Kindes ("Theogonie", 64 u. 945f.). Als sein Kind gilt der Bildhauer Ardalos. In den "Metamorphosen" bezeichnet Ovid den keulenschwingenden Räuber Periphetes, den Theseus und Erichthonios erschlugen, als einen Sohn des Hephaistos. Mythologisches. Hephaistos ist der einzige Handarbeiter unter den olympischen Gottheiten. Das könnte auf eine religiöse Bedeutung der Schmiedekunst weisen. Der Topos vom „Schmiedegott" kommt auch in der finnischen Mythologie vor (Ilmarinen), und ein „lahmer Schmied" erscheint in der germanischen Sage (Wieland der Schmied). Dies hat zu der Vermutung geführt, es handle sich hier um ein europäisches Wandermotiv. Die Brüder Grimm fanden eine Ähnlichkeit zum nordischen Loki. Wahrscheinlicher ist jedoch eine Verwandtschaft zu kleinasiatischen und syrischen Schmiedegöttern, wie Pygmalion, Kinyras und Kothar. Kunst. Der schmiedende Hephaistos wird in der bildenden Kunst auch nach der Antike noch oft dargestellt, beispielsweise von Tintoretto, Bassano, Rubens, Tiepolo, Velázquez und van Dyck. Hans. Hans oder Hanns ist ein männlicher Vorname und Familienname. Herkunft und Bedeutung. Hans ist eine Kurzform des männlichen hebräischen Vornamens Johannes, ist aber als eigenständige Form standesamtlich anerkannt. Er kommt auch als Familienname vor. Er tritt auch in Kombination meist vor anderen Vornamen auf, getrennt geschrieben, zusammen geschrieben oder mit Bindestrich. Verbreitung. Hans war ein sehr populärer Jungenvorname in Deutschland: Vom ausgehenden 19. Jahrhundert bis in die 1950er Jahre hinein gehörte er zu den zehn meistvergebenen Vornamen in Deutschland und war dabei nach 1910 oft der am meisten vergebene überhaupt. Hierin sind allerdings auch Doppelnamen wie "Hans-Jürgen" und "Hans-Dieter" eingerechnet, die insbesondere nach 1935 verstärkt vorkamen. Seit Ende der 1950er Jahre hat die Popularität des Namens stark abgenommen. Auf den Färöern ist Hans der häufigste färöische Name. Varianten. Einblattdruck "Diss laß mir eins drey schöner Hansen sein. Allen so mit jhren Tauffnammen Johannes oder Hansen heissen Zu trewherziger Warnung vnd Glückwünschung zusammen getragen vnd verehrt; Auf Johannis deß H. Täuffers tag Im Jahr nach Christi Geburt gezahlt 1623" Vorname. Es gibt eine große Zahl von Persönlichkeiten mit Vornamen Hans. Siehe. Hans in der Punjabisprache. Unabhängig von dieser hebräisch-europäischen Etymologie gibt es das Wort "hans" in der Punjabi-Sprache, wo es "Schwan" bedeutet. Mit dieser Grundbedeutung kommt es auch als Name vor, z.B. für eine Bevölkerungsgruppe im pakistanischen Punja oder den indischen Sänger Hans Raj Hans. Hahnenfußgewächse. Die Hahnenfußgewächse (Ranunculaceae) sind eine Familie in der Ordnung der Hahnenfußartigen (Ranunculales) innerhalb der Bedecktsamigen Pflanzen (Magnoliopsida). Diese Familie umfasst etwa 62 Gattungen mit etwa 2525 Arten und ist weltweit vertreten, hauptsächlich in den gemäßigten Zonen der nördlichen Erdhalbkugel. Alle Hahnenfußgewächse enthalten Protoanemonin und sind daher für Tiere giftig. Beschreibung. Die Vertreter der Familie der Hahnenfußgewächse weisen innerhalb der Bedecktsamer sehr ursprüngliche Merkmale auf. Habitus und Blätter. Meistens handelt es sich um krautige Pflanzen, sehr häufig sind es ausdauernde Pflanzen, seltener einjährige; außerdem gibt es verholzende Pflanzen: Halbsträucher, Sträucher ("Xanthorhiza") und Lianen ("Clematis"). Bei manchen Arten werden Rhizome (Beispiel "Coptis") als Überdauerungsorgane gebildet. Oft sind die wechselständigen Laubblätter geteilt beziehungsweise gegliedert. Es sind meist keine Nebenblätter vorhanden. Gelegentlich ist nur ein Keimblatt, aber meist zwei Keimblätter (Kotyledonen) vorhanden, die oft verwachsen sind. Blütenstände und Blüten. a> wird nur in "Enemion" und "Aquilegia" gefunden. Letztere trägt auch als einzige Gattung der Thalictroideae Nektarsporne. Die Blüten stehen, oft auf einem Blütenstandsschaft, einzeln oder in zymösen, traubigen oder rispigen Blütenständen zusammen. Die Blüten sind meistens zwittrig. Während einige Gattungen wie Akelei und Eisenhut kompliziert zygomorph aufgebaute Blüten haben, weisen die meisten Hahnenfußgewächse nur einfache radiärsymmetrische Blüten auf. Die Blütenhülle besteht, im Gegensatz zu der Überzahl der anderen Taxa der Bedecktsamer, nur aus einem Blütenblattkreis. Die Zahl der Blütenhüllblätter variiert innerhalb der Familie von vier Blütenhüllblättern zum Beispiel bei Waldreben bis zu vielen Blütenhüllblättern zum Beispiel beim Scharbockskraut. Die fünf bis fünfzig freien Blütenhüllblätter stehen in ein oder zwei Kreisen. Bei vielen Taxa sind Nektarblätter vorhanden, das sind Nektar absondernde Blütenorgane, die sich von den Antheren (Staubblättern) ableiten und kein echtes Kronblatt darstellen. Diese Honigblätter besitzen eine Nektartasche am Grund. Die Staubblätter und die Fruchtblätter sind meistens in Vielzahl vorhanden. Von den 15 bis 100 Staubblättern können alle fertil sein, oder die äußeren sind Staminodien. Die 3 bis 100 Fruchtblätter stehen meist frei (= chorikarp) und sind nur bei wenigen Taxa verwachsen. Die Blütenformel lautet: formula_1 Die Bestäubung erfolgt meist durch Insekten (Entomogamie), selten (bei "Thalictrum") auch durch den Wind (Anemogamie). Früchte. Auch die meisten Früchte der Hahnenfußgewächse zeigen relativ ursprüngliche Merkmale, besonders die Balgfrüchte, oft sind es Sammelbalgfrüchte. Daneben gibt es auch Taxa mit Nüsschen. Einige wenige Taxa bilden Kapselfrüchte oder Beeren. Inhaltsstoffe. Wichtige Inhaltsstoffe sind Esteralkaloide, beispielsweise der besonders giftige Stoff Aconitin bei Eisenhut ("Aconitum"). Auch weitere Alkaloide wie Protoanemonin, Diterpen-Alkaloide, Isochinolin-Alkaloide kommen häufig vor. Systematik und Verbreitung. Die Familie Ranunculaceae wurde 1789 durch Antoine Laurent de Jussieu aufgestellt. Synonyme für Ranunculaceae sind: Aconitaceae, Actaeaceae, Anemonaceae, Aquilegiaceae, Cimicifugaceae, Coptaceae nom. inval., Glaucidiaceae, Helleboraceae, Hydrastidaceae, Nigellaceae, Thalictraceae Die Hahnenfußgewächse sind weltweit verbreitet mit Häufigkeitszentren in den gemäßigten, kalt-gemäßigten und borealen Gebieten der Nord- und Südhalbkugel. Die Familie Ranunculaceae wird in fünf Unterfamilien und elf oder zwölf Tribi gegliedert. Nur zwei Unterfamilien enthalten auch Taxa in Mitteleuropa. High Speed Circuit Switched Data. High Speed Circuit Switched Data (HSCSD), deutsch etwa "schnelle leitungsvermittelte Datenübertragung", ist eine Erweiterung des GSM-Mobilfunk-Standards CSD um schnellere Datenübertragung zu erreichen. Durch Bündelung mehrerer Datenkanäle können theoretisch Datenübertragungsraten bis etwa 115,2 kbit/s (= 8 × 14,4 kbit/s) erreicht werden. Technisch handelt es sich um eine Bündelung mehrerer benachbarter Zeitschlitze auf eine logische Verbindung. Im GSM werden je Frequenz acht Zeitschlitze zeitversetzt übertragen. Theoretisch könnten alle acht Funkschlitze einer Verbindung zugeordnet werden. Dies ginge jedoch nur bei Verwendung von zwei Antennen, je einer für Uplink (gesendete Daten) und Downlink (empfangene Daten). Bei der üblichen einen Antenne schaltet das Handy nach dem Sendepuls auf Empfang um und braucht dabei auch eine gewisse Zeit zur Anpassung. Tatsächlich können so nur maximal vier Kanalschlitze genutzt werden, wobei eine Teilung von 2:2, 3:1 oder 4:1 für den Downlink:Uplink zur Wahl steht. Diese wirken dann als Multiplikator der Grunddatenrate je Schlitz von 9,6 kbit/s beziehungsweise 14,4 kbit/s, mit einem praktischen Maximum von 4 × 14,4 zu 57,6 kbit/s. HSCSD ermöglicht transparente und nichttransparente Datenübertragung. Bei der transparenten Übertragung wird die Fehlerkontrolle der Anwendung überlassen. Dies ermöglicht einen gleichmäßigen Datenstrom, was für Echtzeitanwendungen (wie z. B. Video-Übertragungen) notwendig ist. Kleine Fehler im Bild sind dabei nicht so störend, wodurch HSCSD besser für diese Art von Anwendungen geeignet ist als GPRS. Bei der nichttransparenten Datenübertragung übernimmt das Netz die Fehlerkorrektur. Dies wird beim Surfen und Mailen benutzt. Praktische Anwendung. Nicht jeder GSM-Netzbetreiber bot die Kanalbündelung per HSCSD an. In Deutschland ist es nur noch Vodafone (und nur in Vertragstarifen, nicht bei CallYa), denn E-Plus hat HSCSD zum 1. August 2010 abgeschaltet. Vodafone erlaubt je Kanal eine Übertragungsgeschwindigkeit von 14,4 kbit/s. Wird das Gerät bewegt, so kann bei einem HSCSD-Handover das Bündel oft nicht übernommen werden, und die Verbindung fällt auf CSD mit nur einem Kanal zurück. Zukunft. HSCSD ist ein sehr ineffizienter Datendienst. Bei der Nutzung von HSCSD werden mehrere Funkkanäle auch reserviert, wenn keine Daten gesendet oder empfangen werden. Deshalb wird HSCSD von den meisten europäischen Mobilfunkanbietern nur noch an Geschäftskunden für ältere Machine-to-Machine (M2M)-Anwendungen angeboten. Neue Machine-to-Machine (M2M)-Anwendungen sind über den paket-orientierten Datendienst (PSD) zu realisieren. Hare-Niemeyer-Verfahren. Das Hare-Niemeyer-Verfahren (in Österreich nur „Hare’sches Verfahren“, im angelsächsischen Raum „Hamilton-Verfahren“; auch „Quotenverfahren mit Restausgleich nach größten Bruchteilen“) ist ein Sitzzuteilungsverfahren. Es wird beispielsweise bei Wahlen mit dem Verteilungsprinzip Proporz (siehe Verhältniswahl) verwendet, um Wählerstimmen in Abgeordnetenmandate umzurechnen. Geschichte. Das Verfahren wurde von dem US-amerikanischen Politiker Alexander Hamilton vor der ersten US-amerikanischen Volkszählung im Jahre 1790 propagiert, um die Sitze im US-Repräsentantenhaus proportional zur Bevölkerung auf die einzelnen Staaten zu verteilen. Es konnte sich dabei jedoch nicht gegen die Verwendung des D’Hondtschen Verfahrens durchsetzen. Nach der Volkszählung im Jahre 1840 ging man schließlich doch auf das Verfahren Hamiltons über und verwendete es letztmals bei der Volkszählung im Jahre 1890. Das Verfahren wurde seit der Wahl im Jahr 1987 bis zur Wahl 2005 für die Berechnung der Sitzverteilung im Deutschen Bundestag angewandt. Der in Deutschland verwendete Name leitet sich von dem Londoner Rechtsanwalt Thomas Hare und dem deutschen Mathematiker Horst F. Niemeyer ab. Durch Beschluss des Bundestages vom 24. Januar 2008 ist das Hare-Niemeyer-Verfahren seither bei Bundestagswahlen durch das Schepers-Verfahren ersetzt. Berechnungsweise. formula_1 formula_2 Jeder Partei werden zunächst Sitze in Höhe ihrer abgerundeten Quote zugeteilt. Die noch verbleibenden Restsitze werden in der Reihenfolge der höchsten Nachkommareste der Quoten vergeben. Bei gleich hohen Nachkommaresten entscheidet das vom Wahlleiter zu ziehende Los. Berücksichtigt werden gegebenenfalls nur die Stimmen der Parteien, die nicht unter eine Sperrklausel fallen. Ein Beispiel: Zu vergeben sind 100 Sitze, die auf vier Parteien (A, B, C und D) zu verteilen sind. Insgesamt wurden 580 Stimmen abgegeben, die sich wie in der Tabelle angegeben verteilen. Dadurch ergibt sich folgende Sitzverteilung: Im ersten Durchgang erhält Partei A 37, Partei B 53, Partei C 3 und Partei D 5 Sitze. Aufgrund der Nachkommareste werden die übrigen zwei Sitze an C und D vergeben. Eigenschaften. Das Hare-Niemeyer-Verfahren verhält sich neutral in Bezug auf die Größe der Parteien, da der Stimmanteil (Prozentsatz der eigenen Stimmen von der Gesamtstimmenzahl) gleich dem Sitzanteil (Prozentsatz der eigenen Sitze von der Gesamtsitzzahl) ist. Damit gewährleistet es die Einhaltung des Grundsatzes der gleichen Wahl. Im Gegensatz dazu begünstigen andere Verfahren größere Parteien und benachteiligen kleinere (insbesondere D’Hondt-Verfahren, in der Schweiz Hagenbach-Bischoff-Verfahren) oder umgekehrt (insbesondere Adams-Verfahren). Das Hare-Niemeyer-Verfahren zeichnet sich − wie alle Quotenverfahren – durch die Unverletzlichkeit der Quotenbedingung aus: Danach kann keine Partei mehr Sitze erhalten als es ihrer auf die nächste ganze Zahl aufgerundeten Quote entspricht. Gleichzeitig kann keine Partei weniger Sitze erhalten als es ihrer auf die nächste ganze Zahl abgerundeten Quote entspricht. Dieser Vorteil ist bei den Divisorverfahren nicht gegeben. Heilberuf. Heilberuf bezeichnet im weitesten Sinn einen Beruf, der sich mit der Behandlung von Krankheiten und Behinderungen auseinandersetzt. Rechtliche Situation in Deutschland. Gemäß Artikel 74 Absatz 1 Nummer 19 Grundgesetz besitzt der Bund das Recht über die Zulassung zu ärztlichen und anderen Heilberufen und zum Heilgewerbe. Ärzte und Heilpraktiker. Nach geltendem Recht ist in Deutschland die Ausübung der Heilkunde grundsätzlich nur den Angehörigen eines akademischen Heilberufes und Heilpraktikern gestattet. Zu den akademischen Heilberufen zählen (Arzt, Zahnarzt, Psychotherapeut, Tierarzt und Apotheker), deren Angehörige in Berufskammern organisiert sind. Der Beruf des Heilpraktikers (Deutschland, Schweiz) umfasst die Ausübung der Heilkunde unter Einschränkungen, wie etwa bei der Verordnung verschreibungspflichtiger Medikamente oder der Behandlung von einigen Infektionskrankheiten. Die Berufsbezeichnung darf nur führen, wer über eine entsprechende staatliche Zulassung gemäß Heilpraktikergesetz verfügt. Nach Abs. 26b UStG sind „Heilbehandlungen im Bereich der Humanmedizin, die im Rahmen der Ausübung der Tätigkeit als Arzt, Zahnarzt, Heilpraktiker, Physiotherapeut, Hebamme oder einer ähnlichen heilberuflichen Tätigkeit durchgeführt werden“ – mit Ausnahme bestimmter Leistungen im Zusammenhang mit Zahnprothesen oder kieferorthopädischer Apparate – in Deutschland von der Umsatzsteuer befreit. Spezielle Heilberufe. Als „spezielle Heilberufe“ wurden zunächst die Berufe im Bereich Psychologischen Psychotherapie, der Kinder- und Jugendlichenpsychotherapie sowie der Musiktherapie und Kunsttherapie und anderen psychotherapeutischen Heilberufen bezeichnet. Listen von „speziellen Heilberufen“ umfassen heute mehr als 50 verschiedene Berufsbezeichnungen. nichakademische/teilakademische Heilberufe. Die Berufe Ergotherapeut, Gesundheits- und Krankenpfleger, Gesundheits- und Kinderkrankenpfleger, Altenpfleger, Hebamme/Entbindungshelfer, Logopäde, Masseur und Medizinischer Bademeister, medizinisch-technischer Radiologieassistent, Operationstechnischer Assistent, Krankenpflegehilfe, Physiotherapeut, Diätassistent und Rettungsassistent Notfallsanitäter sind nichtakademische bzw. teilweise akademisierte Heilberufe. Die entsprechenden Berufsbezeichnungen sind geschützt. Teilweise sind die Berufe verkammert, z.B. Pflegekammern. Helsinki. Helsinki (,) ist die Hauptstadt Finnlands. Sie liegt in der Landschaft Uusimaa im Süden des Landes an der Küste des Finnischen Meerbusens. Mit Einwohnern (Stand) ist Helsinki mit Abstand die größte Stadt Finnlands. Zusammen mit den Nachbarstädten Espoo, Vantaa und Kauniainen bildet es die sogenannte Hauptstadtregion, einen Ballungsraum mit über einer Million Einwohnern. Helsinki ist das politische, wirtschaftliche, wissenschaftliche und kulturelle Zentrum Finnlands. Rund sechs Prozent der Einwohner Helsinkis sind schwedischsprachig, offiziell ist die Stadt zweisprachig. Die Stadt Helsinki wurde im Jahr 1550 während der Zugehörigkeit Finnlands zu Schweden gegründet, blieb aber lange unbedeutend. Kurz nachdem Finnland unter russische Herrschaft gekommen war, wurde Helsinki 1812 zur Hauptstadt des neugegründeten Großfürstentums Finnland bestimmt und löste so Turku als wichtigste Stadt des Landes ab. Seit 1917 ist Helsinki Hauptstadt des unabhängigen Finnlands. Lage und natürliche Gegebenheiten. Luftbild vom Zentrum Helsinkis (Blick von Norden) Helsinki liegt im Süden des Landes in der Landschaft "(Maakunta)" Uusimaa an der Küste des Finnischen Meerbusens gegenüber der estnischen Hauptstadt Tallinn. Helsinki erstreckt sich auf einer Fläche von 715 km², wovon 213 km² Land sind, über das Festland und etwa 300 vorgelagerte Schären. Die mehr als 100 Kilometer lange Küstenlinie ist mit zahlreichen Buchten und Halbinseln stark gegliedert. Im Laufe der letzten Jahrhunderte wurden zahlreiche Aufschüttungen vorgenommen, die die Küstenlinie teils stark verändert haben. Beispielsweise lag der zentrale Stadtteil Kluuvi noch Anfang des 19. Jahrhunderts unter Wasser. Der Vantaanjoki durchfließt die nördlichen Außenbezirke Helsinkis und mündet im Stadtteil Vanhakaupunki, dem ursprünglichen Gründungsort Helsinkis, ins Meer. Für Finnland eher untypisch, gibt es auf dem Stadtgebiet Helsinkis nur neun kleine Seen oder Teiche. Das Gelände ist, wie auch das sonstige Südfinnland, von Rundhöckern, also flachen, leicht ansteigenden Hügeln aus Granitfelsen bestimmt. Die höchste Stelle im Stadtgebiet ist mit 90 Metern eine Aufschüttung von Bauaushub im Teilgebiet Malminkartano. Die höchste natürliche Erhebung befindet sich im Teilgebiet Kivikko und erreicht 62 Meter über dem Meeresspiegel. Von der Landfläche Helsinkis besteht etwa die Hälfte aus diversen Grüngebieten (Wälder, Parks, landwirtschaftlich genutzte Flächen) (einer anderen Quelle zufolge 36 %, davon 22 % Wald). Große zusammenhängende Grüngebiete finden sich vor allem in den nördlichen und östlichen Außenbezirken. Neben dem für Finnland typischen borealen Nadelwald finden sich auch vereinzelt Haine mit sommergrünem Laubwald. Auf den äußeren Inseln ist die Vegetation teilweise recht karg, andererseits lebt dort eine große Vielfalt von Vogelarten. Es gibt in Helsinki 50 Naturschutzgebiete mit einer Gesamtfläche von 684 ha. Von den etwa 300 Inseln ist mehr als die Hälfte kleiner als 0,5 ha; etwa 50 Inseln sind größer als 3 ha. Zu den bekanntesten Inseln zählen die Ausflugsinseln Korkeasaari (mit einem Zoo), Seurasaari (mit einem Freilichtmuseum) und die Pihlajasaaret. Die historische Seefestung Suomenlinna erstreckt sich über mehrere miteinander verbundene Inseln. Zu den flächenmäßig größten Inseln zählen die Wohngebiete Laajasalo und Lauttasaari und die Garnisonsinsel Santahamina. Siedlungsstruktur. Landnutzung in der Hauptstadtregion (2005, mit den damaligen Gemeindegrenzen) Das Stadtzentrum befindet sich auf einer Halbinsel im Südwesten des Stadtgebietes. Charakteristisch für Helsinki ist der große Unterschied zwischen der historisch gewachsenen, dicht bebauten „Kernstadt“ "(kantakaupunki)" auf der Halbinsel und den wesentlich großzügiger angelegten, seit der Mitte des 20. Jahrhunderts entstandenen Neubaugebieten, die sich nördlich, westlich und östlich anschließen. Letztere reichen bis in das Gebiet der Nachbarstädte Espoo, Kauniainen und Vantaa, mit denen Helsinki zu einer zusammenhängenden Agglomeration zusammengewachsen ist. Die vier politisch eigenständigen Städte bilden die sogenannte „Hauptstadtregion“ "(pääkaupunkiseutu)", faktisch eine einzige Großstadt mit über einer Million Einwohnern. Das vom finnischen Amt für Statistik definierte zusammenhängende Stadtgebiet "(taajama)", das sich nicht an den Gemeindegrenzen, sondern an der tatsächlichen Besiedlung orientiert, hatte zum Jahresende 2011 eine Landfläche von 631,11 km² und eine Einwohnerzahl von 1.159.211. Zum weiteren Einzugsbereich Helsinkis gehört die Region Helsinki "(Helsingin seutu)" mit den Gemeinden Kirkkonummi, Vihti, Nurmijärvi, Tuusula, Kerava, Sipoo, Järvenpää und Hyvinkää. In diesem Großraum leben insgesamt 1,3 Millionen Menschen, was gut ein Viertel der Gesamtbevölkerung Finnlands ausmacht. Die durchschnittliche Bevölkerungsdichte in Helsinki beträgt 2787 Ew./km². In der „Kernstadt“ werden mit bis zu 19.500 Ew./km² (Punavuori) hohe Werte erreicht, während die Außenbezirke mit ihren oft sehr großzügig angelegten und von weitläufigen Grüngebieten durchsetzten Siedlungen "(lähiö)" vergleichsweise dünn besiedelt sind. Gänzlich unbewohnte Gegenden gibt es hauptsächlich im Großbezirk Östersundom, der erst 2009 durch Eingemeindung zu Helsinki kam. Administrative Gliederung. Die Aufteilung in Großbezirke, Stadtbezirke und Teilgebiete Grundlage der amtlichen Gliederung Helsinkis sind die 137 Teilgebiete (finn.) mit den ihnen untergeordneten 369 Kleingebieten "()". Übergeordnet gibt es zwei parallele Systeme: die Teilgebiete werden auf unterschiedliche Weise einerseits zu 59 Stadtteilen "()", andererseits zu 34 Stadtbezirken "()" zusammengefasst. Die Stadtbezirke werden ihrerseits zu acht Großbezirken "()" zusammengefasst. Die praktische Bedeutung dieser Verwaltungseinheiten ist jedoch begrenzt, die im Alltag benutzten Bezeichnungen der verschiedenen Gebiete weichen von den offiziellen oft ab. Weitere Einzelheiten siehe: Liste der Stadtteile von Helsinki 1812 kam Johan Albrecht Ehrenström auf die Idee, den Häuserblocks im Stadtzentrum ebenfalls Namen zu geben. Diese bekamen von 1820 bis 1900 jeweils einen Tier- oder Blumennamen, z. B.: Kortteli 32 Dromedaari (schwedisch: Kvarteret 32 Dromedaren, deutsch: Häuserblock 32 Dromedar). Klima. „Weiße Nacht“ 2005 – Mitternacht in Helsinki Das Klima von Helsinki verbindet Merkmale des Kontinental- und Seeklimas. Die Jahresdurchschnittstemperatur in Helsinki beträgt 5,9 °C, das Jahresmittel des Niederschlages liegt bei 655 mm. Der meiste Niederschlag fällt im August (80 mm im Monatsmittel), der wenigste im April (32 mm). Der kälteste Monat ist der Februar mit einer Durchschnittstemperatur von −4,7 °C, am wärmsten ist es im Juli mit 17,8 °C. Im Sommer können Höchsttemperaturen von bis zu 30 °C erreicht werden. Im Winter sind Temperaturen unter −10 °C keine Seltenheit; die niedrigste je in Helsinki gemessene Temperatur betrug −34,3 °C (10. Januar 1987). Wegen des Meerwindes liegt die gefühlte Temperatur vor allem im Winter oft noch niedriger als die gemessene Temperatur (Windchill). Die Wassertemperatur schwankt von 1 °C im Februar bis zu 17 °C im August. In den zahlreichen geschützten, niedrigen Buchten kann die Wassertemperatur im Sommer auch höhere Werte erreichen. Der erste Schnee fällt meist Mitte November. Eine bleibende Schneedecke gibt es meist ab Ende Dezember bis Ende März. Im Winter friert der Finnische Meerbusen zu, sodass Eisbrecher benötigt werden, um eine Fahrrinne freizuhalten. Helsinki liegt auf demselben Breitengrad wie der Südteil Alaskas und die Südspitze Grönlands. Auch wenn das Klima in Helsinki aufgrund des Nordatlantikstroms wärmer ist, sorgt die nördliche Lage dafür, dass die Helligkeit im Laufe des Jahres stark schwankt. Zur Zeit der Sommersonnenwende dauert der lichte Tag fast 19 Stunden, und auch während der verbleibenden Stunden wird es nicht vollständig dunkel, weil die Sonne nur knapp unter dem Horizont steht (sog. „weiße Nächte“). Zur Zeit der Wintersonnenwende dauert der lichte Tag nicht einmal 6 Stunden, und selbst am Mittag steht die Sonne relativ niedrig am Himmel. Schwedische Herrschaft. Gustav I. Wasa, der Gründer Helsinkis Die an der Südküste Finnlands gelegene Landschaft Uusimaa (schwed. "Nyland") kam im 12. Jahrhundert unter die Herrschaft Schwedens und wurde von schwedischen Neusiedlern in Besitz genommen. Zuvor hatten die Einwohner der Landschaft Häme im Binnenland sowie die Esten von der anderen Seite des Finnischen Meerbusens die Gegend als Jagdgrund genutzt, ohne sich dort dauerhaft niederzulassen. Das Gebiet, in dem später die Stadt Helsinki gegründet werden sollte, wurde als Kirchspiel Helsinki (schwed. "Helsinge") in die Kirchenverwaltung eingegliedert. Der Name leitet sich wahrscheinlich von der schwedischen Landschaft Hälsingland, der Heimatregion der Neusiedler, ab. Die Stadt Helsinki (schwed. "Helsingfors") wurde am 12. Juni 1550 auf Befehl des schwedischen Königs Gustav I. Wasa gegründet. Ursprünglich befand sich die Stadt an der Mündung des Flusses Vantaanjoki. Der schwedische Name "Helsingfors" leitet sich von einer Stromschnelle (schwed. "fors") am Unterlauf des Vantaanjoki ab, der damals noch "Helsinge å" genannt wurde. Das Gebiet des ursprünglichen Helsinki heißt noch heute Vanhakaupunki („Altstadt“), obwohl von der ursprünglichen Stadt nichts mehr erhalten ist. Die Einwohnerschaft Helsinkis bestand aus Bürgern der Städte Porvoo, Ekenäs, Rauma und Ulvila, die sich auf Anweisung des Königs in der neugegründeten Stadt niederlassen mussten. Helsinki wurde gegründet, um einen Konkurrenzhafen zur Hansestadt Tallinn (Reval) auf der anderen Seite des Finnischen Meerbusens zu schaffen. Nur wenig später, im Jahr 1561, eroberte Schweden im Livländischen Krieg aber Tallinn, was Helsinkis weitere Entwicklung hemmte. Zudem war die Lage des Hafens am Ende einer flachen und klippenreichen Bucht für große Segelschiffe ungünstig. Daher wurde Helsinki 1640 unter der Leitung des Generalgouverneurs Per Brahe rund fünf Kilometer näher an das offene Meer an die Stelle des heutigen Stadtzentrums verlegt. Die alte Stadt an der Mündung des Vantaanjoki wurde aufgegeben. Der Rathausplatz in Helsinki im Jahr 1820. Kupferstich von Carl Ludwig Engel Das Erstarken des Russischen Reiches und die Gründung der Stadt Sankt Petersburg im Jahr 1703 hatten maßgeblichen Einfluss auf Helsinki. Der Große Nordische Krieg zwischen Schweden und Russland traf die Stadt schwer. Zunächst fiel ein großer Teil der Bevölkerung 1710 einer Pestepidemie zum Opfer, dann wurde Helsinki 1713 von der eigenen Armee beim Rückzug niedergebrannt. Von 1713 bis 1721 sowie erneut während des Russisch-Schwedischen Krieges 1741–1743 stand Helsinki unter russischer Besatzung. Nachdem Schweden im Frieden von Turku die Festung Hamina an Russland hatte abtreten müssen, wurde 1748 als Schutz für die Ostgrenze Schwedens vor der Küste Helsinkis die Seefestung Sveaborg (heute finn. Suomenlinna) errichtet. Russische Herrschaft. Am 2. März 1808 wurde Helsinki während des Russisch-Schwedischen Krieges von russischen Truppen erobert. Dabei wurde es durch eine Feuersbrunst abermals fast völlig zerstört. Als Resultat des verlorenen Krieges musste Schweden 1809 ganz Finnland an Russland abtreten. Die Hauptstadt des neugegründeten Großfürstentums Finnland war anfangs Turku, die bis dahin größte und bedeutendste Stadt des Landes. Aus Sicht von Zar Alexander I. war Turku aber zu weit von Sankt Petersburg entfernt, weshalb er am 8. April 1812 per Dekret Helsinki zur neuen Hauptstadt bestimmte. Die Stadt war zu diesem Zeitpunkt mit rund 4000 Einwohnern eher unbedeutend. Der deutsche Architekt Carl Ludwig Engel wurde damit beauftragt, das durch den Stadtbrand zerstörte Helsinki als repräsentative Hauptstadt neu aufzubauen. So entstand das klassizistische Zentrum rund um den Senatsplatz. Die umliegenden Stadtviertel bestanden aus meist einstöckigen Holzhäusern, von denen heute nur noch einige vereinzelte erhalten sind. Seit 1819 war Helsinki Sitz des finnischen Senats und damit endgültig Hauptstadt des Großfürstentums. Nach dem großen Stadtbrand von Turku im Jahr 1827 wurde auch die Akademie zu Turku, damals die einzige Universität Finnlands, nach Helsinki verlegt und 1828 in die Universität Helsinki umgewandelt. Im Zuge der Industrialisierung wuchs Helsinki in der zweiten Hälfte des 19. Jahrhunderts stark. Die Eisenbahnverbindungen nach Hämeenlinna und Sankt Petersburg entstanden 1862 und 1870. Kurz nach der Jahrhundertwende überstieg Helsinkis Einwohnerzahl 100.000. In Stadtteilen wie Katajanokka, Kruununhaka und Eira wurden zahlreiche neue Wohnhäuser im Jugendstil erbaut. Seit der Erlangung der Unabhängigkeit. Deutsche Soldaten in Helsinki nach der Eroberung der Stadt Als Finnland am 6. Dezember 1917 die Souveränität erlangte, wurde Helsinki zur Hauptstadt des neuen Staates. Im bald darauf ausgebrochenen finnischen Bürgerkrieg brachten die Roten Garden die Stadt am 28. Januar 1918 unter ihre Kontrolle, die bürgerliche Regierung flüchtete nach Vaasa. Im April griffen deutsche Truppen zur Unterstützung der Weißen in das Kriegsgeschehen ein und eroberten Helsinki nach zweitägigen Kämpfen am 13. April 1918. Anders als in Tampere richtete der Bürgerkrieg in Helsinki relativ wenig Schaden an. Nachdem der Krieg zu Gunsten der bürgerlichen Weißen entschieden worden war, wurden auf der Insel Suomenlinna rund 10.000 Anhänger der Roten interniert, von denen ca. 1.500 verhungerten oder an Krankheiten starben. Im Zweiten Weltkrieg war Helsinki mehreren Großbombardements durch die sowjetische Luftwaffe ausgesetzt. Im Vergleich zu anderen europäischen Städten blieben die Schäden aber relativ gering, was nicht zuletzt einer effizienten Luftabwehr zu verdanken war. Helsinki sollte ursprünglich die Olympischen Sommerspiele 1940 ausrichten. Für die Spiele wurden zahlreiche funktionalistische Bauten wie das Olympiastadion oder das Kulturzentrum "Lasipalatsi" errichtet. Die Spiele mussten aber wegen des Krieges abgesagt werden. Als Ersatz erhielt Helsinki die Olympischen Sommerspiele 1952. 1975 fand in der Finlandia-Halle in Helsinki die erste Konferenz über Sicherheit und Zusammenarbeit in Europa (KSZE) statt, die zu einer Annäherung von Ostblock- und Westblockstaaten führte. Karte von Helsinki Anfang des 20. Jahrhunderts Ausdehnung des Stadtgebietes. Zu Beginn des 20. Jahrhunderts beschränkte sich das Stadtgebiet Helsinkis noch auf die Halbinsel Helsinginniemi. Dieses Gebiet wird heute als Kernstadt "(kantakaupunki)" bezeichnet. Die Stadt war umgeben vom Gebiet der Landgemeinde Helsinki "(Helsingin maalaiskunta)", deren Reste das heutige Vantaa bilden. Im Laufe des Jahrhunderts wurden immer wieder Teile der Landgemeinde in die Stadt Helsinki eingegliedert: 1906 die Stadtteile Meilahti, Käpylä und Kumpula, 1912 Pasila, 1926 Ruskeasuo und Uusipelto. Ihre heutige Form erhielt die Stadt im Wesentlichen im Jahr 1946, als im Zuge einer großen Eingemeindung 14 Stadtteile aus der Landgemeinde der Stadt zugeschlagen wurden. Gleichzeitig wurden die damals selbständigen Gemeinden Haaga, Huopalahti, Kulosaari sowie Oulunkylä eingemeindet. Zuletzt erwarb Helsinki noch im Jahr 1966 den Stadtteil Vuosaari und im Jahr 2009 Teile der Nachbargemeinden Sipoo und Vantaa, aus denen die neuen Stadtteile Östersundom, Salmenkallio, Talosaari, Karhusaari und Ultuna gebildet wurden. Überlegungen, Helsinki mit den anderen Städten der Hauptstadtregion, Vantaa, Espoo und Kauniainen, zu einem Groß-Helsinki zu verbinden, sind über Jahrzehnte immer wieder aufgegriffen worden. Da die Regierung in Finnland heute generell die Schaffung größerer Gemeindeeinheiten anstrebt, wird diese Option derzeit wieder ernsthaft diskutiert. Bevölkerungsstruktur. Die Einwohnerzahl Helsinkis beträgt (Stand). Damit ist Helsinki mit Abstand die größte Stadt Finnlands. In der gesamten Hauptstadtregion (Helsinki, Espoo, Vantaa und Kauniainen) leben über eine Million Menschen, fast ein Fünftel der Gesamtbevölkerung Finnlands. Die Mobilität der Bevölkerung ist in Helsinki höher als im Rest Finnlands. Viele Menschen aus anderen Gemeinden Finnlands ziehen zum Arbeiten oder Studieren in die Hauptstadt. Gleichzeitig verlassen sie vor allem viele Familien wegen der hohen Wohnkosten in Richtung der Vororte. Im Jahr 2005 zogen insgesamt 33.953 Menschen aus anderen Gemeinden Finnlands oder dem Ausland nach Helsinki, während 33.381 Personen die Stadt verließen. Anfang 2010 hatten 7,2 Prozent der Einwohner Helsinkis eine ausländische Staatsbürgerschaft, 10,7 Prozent waren im Ausland geboren. Die wichtigsten einzelnen Herkunftsländer sind Russland, Estland, Schweden und Somalia. Die meisten Migranten wohnen im Osten und Norden der Stadt, am höchsten ist ihr Anteil im Stadtbezirk Jakomäki (14,0 Prozent ausländische Staatsbürger bzw. 20,4 Prozent außerhalb Finnlands geborene Menschen). Im Vergleich mit anderen europäischen Hauptstädten ist der Ausländeranteil in Helsinki zwar niedrig, doch ist die Tendenz seit Anfang der 1990er Jahre deutlich steigend. Im Zeitraum 1985–2009 hat sich die Anzahl der ausländischen Staatsbürger in Helsinki mehr als versiebenfacht. Einwohnerentwicklung. Der starke Anstieg der Bevölkerungszahl Helsinkis begann, als die Stadt 1812 zur Hauptstadt Finnlands wurde, und setzte sich unvermindert bis Ende der 1960er Jahre fort. In den 1970ern verlangsamte sich das Wachstum. Als viele Bewohner in die Nachbargemeinden zogen, sank die Einwohnerzahl sogar zeitweise, bis sie in den 1990ern wieder zu steigen begann. Zuletzt wuchs die Einwohnerzahl um 1,4 Prozent jährlich. Im Jahr 2012 durchbrach Helsinki erstmals die Marke von 600.000 Einwohnern. Sprachen. Von den Einwohnern Helsinkis sprechen 81,9 Prozent Finnisch und 5,9 Prozent Schwedisch als Muttersprache. Die restlichen 12,2 Prozent entfallen auf andere Sprachen (Stand 2013). Offiziell ist Helsinki zweisprachig mit Finnisch als Mehrheits- und Schwedisch als Minderheitssprache. So haben sämtliche Straßen einen finnischen und schwedischen Namen, Ansagen in den öffentlichen Verkehrsmitteln sind zweisprachig etc. Im Alltag dominiert aber das Finnische als Verkehrssprache zwischen den Sprechern verschiedener Sprachen. So sind Finnischkenntnisse de facto eine Voraussetzung für die Teilhabe am Arbeitsmarkt. Die Südküste Finnlands gehört historisch zum Siedlungsgebiet der Finnlandschweden. Daher war auch Helsinki bis Ende des 19. Jahrhunderts mehrheitlich schwedischsprachig: Noch 1850 sprachen fast 90 Prozent der Einwohner Helsinkis Schwedisch als Muttersprache. Durch den Zuzug aus anderen Gebieten des Landes verringerte sich der Anteil der schwedischsprachigen Bevölkerung aber zusehends. 1870 sprachen von den Einwohnern Helsinkis noch 57 Prozent Schwedisch, 26 Prozent Finnisch, 12 Prozent Russisch, 2 Prozent Deutsch und 3 Prozent andere Sprachen als Muttersprache. Im Jahr 1900 stellten die Finnisch-Sprecher mit 50 Prozent gegenüber 42 Prozent Schwedisch-, 5 Prozent Russisch- und 3 Prozent Anderssprachigen bereits die Bevölkerungsmehrheit. Die in Helsinki gesprochene Varietät des Finnischen hat sich als Ausgleichsdialekt unter Sprechern verschiedener finnischer Dialekte in einer ursprünglich schwedischsprachigen Umgebung entwickelt. Heute dient sie als Modell für die allgemeinfinnische Umgangssprache. Ein besonderer Soziolekt ist der sogenannte Helsinki-Slang "(stadin slangi)", der sich Ende des 19. Jahrhunderts unter der mehrsprachigen Arbeiterklasse als Mischsprache mit finnischer Grammatik und überwiegend schwedischem Wortschatz herausbildete. Religionen. Die Uspenski-Kathedrale ist Sitz eines orthodoxen Bischofs Die Mehrheit der Einwohner Helsinkis gehört der Evangelisch-Lutherischen Kirche Finnlands an. Der Anteil der evangelisch-lutherischen Kirchenmitglieder liegt mit 60,4 Prozent aber deutlich niedriger als der Landesdurchschnitt von 76,4 Prozent (Stand 2013). In Helsinki bestehen 24 finnischsprachige, drei schwedischsprachige und eine deutschsprachige evangelisch-lutherische Kirchengemeinde. Die Stadt ist Sitz des Bistums Helsinki, welches die finnischsprachigen Kirchengemeinden in Helsinki, Vantaa und dem östlichen Uusimaa umfasst. Die Kathedrale des Bistums Helsinki ist der Dom von Helsinki. Die schwedisch- und deutschsprachigen Gemeinden Helsinkis gehören dagegen zum Bistum Borgå. Neben der evangelisch-lutherischen Kirche ist auch die zweite Staatskirche Finnlands, die Orthodoxe Kirche in Finnland, in Helsinki präsent. Orthodoxe Christen sind in Helsinki seit der russischen Zeit ansässig. Nach dem Zweiten Weltkrieg zogen viele orthodoxe Flüchtlinge aus Karelien nach Helsinki. Heute hat die orthodoxe Kirchengemeinde Helsinki, die ganz Uusimaa umfasst, rund 20.000 Mitglieder (Stand 2011), was rund ein Drittel aller orthodoxen Gläubigen in Finnland ausmacht. Helsinki ist auch Sitz des orthodoxen Bistums Helsinki, eines von drei Bistümern der Orthodoxen Kirche in Finnland. Hauptkirche der orthodoxen Gemeinde und zugleich Bischofskirche ist die Uspenski-Kathedrale. Die kleine römisch-katholische Minderheit in Finnland hat ihr Zentrum in Helsinki: Die Stadt ist Sitz des römisch-katholischen Bistums Helsinki, das ganz Finnland umfasst. Bischofskirche ist die Henrik-Kathedrale. Die zwei in Helsinki ansässigen römisch-katholischen Kirchengemeinden umfassen neben der Stadt auch den Rest Uusimaas und haben zusammen rund 6600 Mitglieder, mehr als die Hälfte aller Katholiken Finnlands. Daneben bestehen in Helsinki mehrere kleinere freikirchliche Gemeinden. Die Anzahl der Muslime in Helsinki lässt sich nicht genau bestimmen; es wird geschätzt, dass ein großer Teil der 60.000 Muslime Finnlands in der Hauptstadtregion leben. In Helsinki gibt es etwa zehn muslimische Gebetsräume. Der Islam wurde bereits im 19. Jahrhundert von Tataren nach Helsinki gebracht, in jüngerer Zeit hat die Anzahl der Muslime durch Einwanderung aus dem Nahen Osten und Somalia stark zugenommen. Ferner gibt es in Helsinki eine jüdische Gemeinde, eine von zweien in Finnland, mit rund 1200 Mitgliedern. Die Synagoge von Helsinki wurde im Jahr 1906 geweiht. Hauptstadt. Das Reichstagsgebäude (Parlament) in Helsinki Der Marktplatz mit Blick auf das Rathaus am innerstädtischen Südhafen Helsinki ist die Hauptstadt der Republik Finnland. In der Stadt haben das Parlament, der Staatsrat (das Regierungsorgan), sämtliche Ministerien sowie der Präsident ihren Sitz. Daneben befinden sich auch die beiden höchsten Gerichtsinstanzen, der Oberste Gerichtshof und der Oberste Verwaltungsgerichtshof in Helsinki. Wappen. Beschreibung: In Blau schwimmt auf einem weißen Wellenschildfuß unter einer goldenen Krone ein goldenes Boot. Verwaltung. Wie in allen finnischen Städten, ist auch in Helsinki der Stadtrat (finn. "kaupunginvaltuusto") die höchste Entscheidungsinstanz bei lokalen Angelegenheiten. Dazu zählen Stadtplanung, Schulen, Gesundheitswesen und öffentlicher Verkehr. Der aus 85 Mitgliedern bestehende Rat wird auf vier Jahre gewählt. Traditionell stellt die konservative Sammlungspartei die stärkste Fraktion im Stadtrat, gefolgt vom Grünen Bund, der in Helsinki landesweit am stärksten vertreten ist und hier die Sozialdemokraten auf den dritten Platz verdrängt hat. Derzeit fallen knapp zwei Drittel der Sitze auf diese drei Parteien. Das Linksbündnis und die rechtspopulistischen Basisfinnen erreichten bei den Stadtratswahlen 2012 mit jeweils ca. 10 % ihre bisher besten Ergebnisse. Die Schwedische Volkspartei, die politische Vertretung der Finnlandschweden, erreicht mit gut 6 % einen Stimmenanteil, der dem Bevölkerungsanteil der Minderheit in der Hauptstadt entspricht. Obwohl eine der drei größten Parteien des Landes, hat die Zentrumspartei, wie in den meisten anderen Großstädten, nur eine geringe Bedeutung. Weiterhin im Stadtrat vertreten sind die Christdemokraten und die Kommunistische Partei Finnlands. Der Stadtdirektor von Helsinki trägt aus historischen Gründen den Titel Oberbürgermeister (finn. "ylipormestari"). Er ist dem Stadtrat unterstellt und wird von diesem ernannt. Seine Aufgabe ist es, die Verwaltung zu führen und den Haushalt der Stadt zu verwalten. Seit 2005 hat Jussi Pajunen von der Sammlungspartei diesen Posten inne. Städtepartnerschaften. Helsinki unterhält keine Städtepartnerschaften, gehört aber zum METREX-Netzwerk der europäischen Metropolregionen. Die Stadt unterhält Beziehungen zu den Hauptstädten der anderen EU-Mitgliedsstaaten und Nordischen Länder sowie Städten des Ostseeraums. Daneben besteht eine besondere Zusammenarbeit mit Moskau und Peking. Helsinki ist Mitglied im Konvent der Bürgermeister. Architektur. Der Dom von Helsinki ist das weithin sichtbare Wahrzeichen der Stadt Helsinki gilt als Hochburg des Klassizismus. Zudem wird das Stadtbild durch die Jugendstil-Architektur aus den Anfangsjahren des 20. Jahrhunderts geprägt. Unter den modernen Gebäuden sind mehrere Vertreter des Funktionalismus hervorzuheben. Klassizismus. Nachdem Helsinki 1812 zur Hauptstadt erkoren worden war, beauftragte man den Architekten Carl Ludwig Engel (1778–1840) mit der Planung eines repräsentativen Zentrums nach dem Vorbild von Sankt Petersburg. Rund um den zentralen Senatsplatz "(Senaatintori)" liegt ein einzigartiges klassizistisches Ensemble mit dem zwischen 1830 und 1852 erbauten Dom, dem alten Senatsgebäude und dem Hauptgebäude der Universität. Weitere nennenswerte klassizistische Bauten sind u. a. die Nationalbibliothek und der Präsidentenpalast. Engels klassizistisches Zentrum brachte Helsinki später den Beinamen „weiße Stadt des Nordens“ ein. Jugendstil. Der finnische Jugendstil ist stark von der nationalromantischen, vom Nationalepos "Kalevala" inspirierten Kunst jener Epoche beeinflusst. Beispiele für die Jugendstilarchitektur kann man in den Wohnhäusern vor allem von Stadtteilen wie Katajanokka, Kruununhaka oder Eira entdecken. Auch Repräsentationsbauten wie der Hauptbahnhof, das Nationalmuseum oder die Kirche von Kallio entstanden im nationalromantischen Jugendstil. Als bedeutendster Vertreter der finnischen Jugendstilarchitektur gilt Eliel Saarinen (1873–1950). Die Finlandia-Halle, eine der prominentesten Vertreterinnen des Funktionalismus Funktionalismus. Mehrere Bauten in Helsinki entwarf der berühmte finnische Architekt Alvar Aalto (1898–1976), einer der Vorreiter des Funktionalismus. Viele seiner Entwürfe wie die Finlandia-Halle, ein 1971 fertiggestelltes Konzert- und Kongressgebäude, oder das Hauptquartier des Papierkonzerns Stora Enso sind von der Bevölkerung teilweise kontrovers aufgenommen worden. Entlang der Hauptstraße Mannerheimintie befinden sich mit dem Kulturzentrum Lasipalatsi, dem Posthaus und dem Olympiastadion weitere funktionalistische Bauten. Weitere Sehenswürdigkeiten. Die Flaniermeilen Helsinkis sind die Aleksanterinkatu und die Esplanadi. Erstere ist nach Zar Alexander I. benannt und führt vom Senatsplatz zum Mannerheimintie. Die Aleksanterinkatu wird von zahlreichen Geschäften gesäumt, darunter Stockmann, dem größten Warenhaus der nordischen Länder. Die Esplanadi verläuft parallel zur Aleksanterinkatu und besteht aus zwei Straßen "Pohjoisesplanadi" und "Eteläesplanadi" (Nord- und Südesplanade) mit einem dazwischen gelegenen Park. Am östlichen Ende der Esplanadi direkt am Südhafen liegt der Marktplatz "(Kauppatori)". Im Sommer werden auf dem belebten Markt Obst, Gemüse, frisch gefangener Fisch und Souvenirs verkauft. Dort befindet sich auch die Vanha kauppahalli, die älteste Markt- und Kaufhalle von Helsinki. Am Rand des Marktplatzes steht die bekannte Skulptur der Havis Amanda. Vom Marktplatz verkehrt eine Fähre zur Festung Suomenlinna (schwed. "Sveaborg"). Die Festung wurde 1748 auf mehreren vorgelagerten Inseln erbaut und gehört seit 1991 zum UNESCO-Weltkulturerbe. Suomenlinna ist ein beliebtes Ausflugsziel für Einheimische wie Touristen. Die Inseln werden heute noch von etwa 950 Menschen bewohnt. Ein Teil des Geländes wird militärisch genutzt und ist für Zivilisten nicht zugänglich. Die Festung Suomenlinna, auf fünf Inseln vor Helsinki gelegen Auf einem Felsen im Westen der Halbinsel Katajanokka erhebt sich die orthodoxe Uspenski-Kathedrale. Der Bau im russisch-byzantinischen Stil wurde 1868 fertiggestellt und ist die größte orthodoxe Kirche im westlichen Europa. Ein weiteres Kirchengebäude, das viele Besucher anzieht, ist die moderne Temppeliaukio-Kirche im Stadtteil Töölö. Sie wurde 1969 in einen Granitfels hineingebaut. Theater und Musik. Helsinki hat drei größere Theater. Das Finnische Nationaltheater "(Suomen Kansallisteatteri)" wurde ursprünglich in Porvoo gegründet. Es war das erste Theater, das Stücke in finnischer Sprache aufführte. Seit 1902 ist es in einem Jugendstilgebäude am Bahnhofsplatz untergebracht. Das Helsinkier Stadttheater "(Helsingin Kaupunginteatteri)" entstand durch den Zusammenschluss des Arbeitertheaters und des Volkstheaters. Seit 1967 befindet sich das Stadttheater im Stadtteil Kallio. Das Schwedische Theater "(Svenska Teatern)" ist das älteste Theater der Stadt und führt Stücke auf Schwedisch auf. Das wichtigste Opernhaus des Landes ist die Finnische Nationaloper "(Kansallisooppera)" im Helsinkier Stadtteil Töölö. Neben Opern finden hier Konzerte und Ballettaufführungen statt. Im Jahr 2011 wurde das Konzerthaus Musiikkitalo eröffnet. Es ist das neue Musikzentrum der Helsinkier Philharmoniker "(Helsingin kaupunginorkesteri)", des finnischen Radio-Symphonieorchesters und der Sibelius-Akademie, der einzigen Musikhochschule Finnlands. Ende August oder Anfang September ist Helsinki Schauplatz der "Helsingfors Biennale". Konzerte, Ausstellungen, Oper und Ballett von internationalem Rang werden dann veranstaltet. Im Fünfjahreszyklus findet zu Ehren von Jean Sibelius der Internationale Violinwettbewerb statt. Im Sommer finden im Zentrum Helsinki zahlreiche Rock- und Popveranstaltungen unter freiem Himmel statt, darunter mehrere kostenlose Konzerte im Park Kaivopuisto und im Park von Kaisaniemi neben dem Hauptbahnhof. Im letztgenannten Park zieht das jährliche Tuska Open Air Metal Festival jeden Juli rund 30.000 Besucher an und ist damit das größte Metalfestival Finnlands. Museen. Das Kiasma-Museum für moderne Kunst Das Finnische Nationalmuseum "(Suomen kansallismuseo)" beherbergt Exponate über die Geschichte Finnlands von prähistorischen Zeiten bis ins 21. Jahrhundert. Das Museumsgebäude aus dem Jahr 1910 imitiert im nationalromantischen Jugendstil mittelalterliche Burgen und Kirchen. Das Museum der Stadt Helsinki stellt die fünfhundertjährige Geschichte Helsinkis vor. Auch die Universität Helsinki unterhält einige Museen, darunter das Universitätsmuseum und das Museum für Naturgeschichte. Die Finnische Nationalgalerie ist auf drei Museen aufgeteilt. Im 1887 im Stil der Neorenaissance errichteten Ateneum am Bahnhofsplatz sind die wichtigsten finnischen Kunstwerke des 18. bis 20. Jahrhunderts ausgestellt, darunter etwa Gemälde von Akseli Gallen-Kallela, Helene Schjerfbeck und Albert Edelfelt. Das Sinebrychoff-Kunstmuseum "(Sinebrychoffin taidemuseo)" zeigt klassische europäische Kunst. Für zeitgenössische Kunst sind die Kunsthalle Helsinki und das Kiasma-Museum zuständig. Diese Sammlungen enthalten finnische und ausländische, vor allem nordeuropäische Kunst ab den 1960er Jahren. Die Architektur des modernen Baus an der Straße Mannerheimintie führte bei seiner Eröffnung 1998 zu Kontroversen. In Helsinki befindet sich mit dem Finnischen Architekturmuseum eines der ältesten Architekturzentren Europas. Freizeit und Erholung. Der Badestrand Hietaranta ist der größte Strand der Stadt Vom Südhafen aus fahren die meisten Freizeitfähren ab Für eine Stadt ihrer Größenordnung verfügt Helsinki über recht viele Grünanlagen. Ungefähr 30 % des Stadtgebietes bestehen aus Wäldern oder Parks. Der bekannteste Park Helsinkis ist der im Südosten des Stadtzentrums direkt am Meer gelegene Kaivopuisto. Er entstand in den 1830er Jahren als Park eines Kurbades. Seit 1886 ist er ein öffentlicher Park. Von den Felsen des Kaivopuisto eröffnet sich ein Blick über die Schären vor der Küste Helsinkis hinüber nach Suomenlinna. Weitere Parks im Zentrum sind der Park in Kaisaniemi und der sogenannte „Pestpark“ "(Ruttopuisto)" an der Alten Kirche in der Bulevardi-Straße. Letzterer diente bis 1829 als Friedhof und erhielt seinen Namen, weil dort die Toten der Pestepidemie von 1710 bestattet wurden. Allegro-Züge fahren mehrmals täglich nach St. Petersburg An der Hietaniemi-Bucht im Westen des Zentrums befindet sich ein Badestrand und der weitläufige Friedhof von Hietaniemi. Etwas weiter nördlich im Stadtteil Taka-Töölö liegt der Sibelius-Park mit dem Sibelius-Denkmal, das zu Ehren des Komponisten Jean Sibelius aus über 600 Stahlröhren errichtet wurde. Die Insel Seurasaari ist ein beliebtes Ausflugsziel und beherbergt ein Freilichtmuseum. Der größte Park in Helsinki ist der 10 km² große Zentralpark "(Keskuspuisto)" der nördlich von Töölö beginnt und bis zur Nordgrenze Helsinkis reicht. Allerdings handelt es sich eher um ein naturbelassenes Waldgebiet als um einen Park. Sport. Der 72 m hohe Turm des Olympiastadions Die wichtigste internationale Sportveranstaltung, die bisher in Helsinki stattgefunden hat, waren die Olympischen Sommerspiele 1952. Ursprünglich sollte Helsinki bereits die Olympischen Spiele 1940 ausrichten, diese mussten aber wegen des Zweiten Weltkrieges abgesagt werden. Das größte internationale Ereignis, das in Finnland stattgefunden hat, war für das kleine Land, das sich gerade erst von den Kriegsfolgen erholte, eine Möglichkeit, sich der Weltöffentlichkeit zu präsentieren. Die Leichtathletik-Weltmeisterschaften fanden 1983 und 2005 in Helsinki statt. Daneben wurde 1974, 1982, 1991, 1997 und 2003 in Helsinki um die Eishockey-Weltmeisterschaft gespielt. Im Jahr 2009 war Helsinki zentraler Schauplatz der in Finnland ausgetragenen Fußball-Europameisterschaft der Frauen. Der Fußballklub HJK Helsinki ist der Rekordmeister der Veikkausliiga. In der 99 qualifizierte er sich als erster und bislang einziger finnischer Verein für die UEFA Champions League. Er trägt seine Heimspiele im 2000 erbauten Finnair Stadium neben dem Olympiastadion aus. Im Eishockey gehören die beiden Helsinkier Klubs Jokerit und HIFK zu den Spitzenmannschaften der KHL bzw. der SM-liiga. Die Heimarena von HIFK ist die Eishalle Helsinki, ebenfalls in Nachbarschaft des Olympiastadions, während Jokerit in der 1997 eröffneten Multifunktionshalle Hartwall Arena im Stadtteil Pasila spielt. Der SSV Helsinki gewann mehrfach Meisterschaft und den Pokal im Floorball. Die größte regelmäßig in Helsinki stattfindende Sportveranstaltung ist der Helsinki Cup, ein seit 1976 veranstaltetes Fußballturnier für Junioren. 2002 wurde mit 819 Mannschaften ein Teilnehmerrekord aufgestellt. Am Helsinki City Marathon nehmen alljährlich rund 6000 Läufer statt. Die Marathonstrecke beginnt am Marktplatz und führt am Ufer entlang über mehrere Brücken und Inseln in einem großen Bogen zum Olympiastadion. Wirtschaft. Das Hauptgeschäft von Stockmann im Zentrum von Helsinki Die Wirtschaft Finnlands ist untrennbar mit der Region Helsinki verbunden, die ungefähr ein Drittel des Bruttoinlandsproduktes der Volkswirtschaft erwirtschaftet. Mit der Börse Helsinki und zahlreichen Banken ist Helsinki Zentrum des Finanzlebens in Finnland. Als Rückgrat der Wirtschaft von Helsinki können heute die Informationstechnologie und der Finanzsektor gelten. Die Wirtschaft von Helsinki hat sich schrittweise von der Industrie entfernt und beruht heute hauptsächlich auf dem Dienstleistungssektor. Die meisten finnischen Konzerne und die regionalen Abteilungen von internationalen Konzernen haben ihre Hauptquartiere im Großraum Helsinki, hauptsächlich wegen der internationalen Verbindungen, dem Logistik-Netzwerk und der Verfügbarkeit von Arbeitskräften. Allerdings haben sich einige der bedeutendsten Unternehmen, darunter zum Beispiel Nokia, in der Nachbarstadt Espoo angesiedelt. Zu den wichtigsten in Helsinki selbst ansässigen Konzernen gehören der Telekom-Dienstleister Elisa, die Medienkonzerne Otava und Sanoma sowie im Handelswesen die Einzelhändler Kesko, HOK-Elanto sowie die Warenhauskette Stockmann. Während der Mitte des 20. Jahrhunderts konnte Helsinki als wichtigster Industriestandort Finnlands gelten, doch zwischen 1960 und 1980 halbierte sich die Anzahl der Arbeitsplätze im Industriesektor. Übriggeblieben sind aber noch unter anderem die Aker-Finnyards-Werft in Hietalahti, die Arabia-Keramikfabrik und die ABB-Werke in Pitäjänmäki. Flugverkehr. Der internationale Flughafen Helsinki-Vantaa liegt 15 Kilometer nördlich des Stadtzentrums in der Nachbarstadt Vantaa. Er ist der größte Verkehrsflughafen Finnlands und bedient 15 Millionen Fluggäste im Jahr. Bis zu seiner Eröffnung im Jahr 1952 war der Flughafen Malmi im Stadtteil Malmi, 10 Kilometer nordöstlich des Zentrums, der Hauptflughafen der Stadt. Heute dient er der allgemeinen Luftfahrt. Die Stadt Helsinki strebt langfristig eine Schließung des Flughafens Malmi an, um die Fläche für den Wohnungsbau freizumachen. Die geplante Schließung ist aber umstritten. Daneben betrieb die Fluggesellschaft Copterline bis 2008 eine Hubschrauberverbindung vom Hafen Helsinkis nach Tallinn. Schifffahrt. Der Südhafen mit Olympiaterminal, Hauptanlegestelle der Fähren der Silja Line Der Hafen Helsinki ist der größte Hafen für den Fracht- und Personenverkehr in Finnland. Der Personenverkehr konzentriert sich auf den im unmittelbaren Zentrum der Stadt gelegenen Südhafen "(Eteläsatama)" sowie auf den Westhafen "(Länsisatama)" im gleichnamigen Stadtteil. Der Frachtverkehr wird heute komplett im Ende 2008 fertiggestellten Hafen in Vuosaari abgewickelt (abgesehen von Lkws, die auf den Passagierfähren mitfahren, die den Süd- und Westhafen benutzen). Die Flächen des früher für den Frachtverkehr genutzten Teiles des Westhafens und des ehemaligen Containerhafens im Stadtteil Sörnäinen sind dadurch für neue Wohnbauprojekte freigeworden. Im Jahr 2013 legten insgesamt 8126 Schiffe im Hafen von Helsinki an, das entspricht einem Schnitt von etwa 22 Schiffen pro Tag. In der Sommersaison 2013 besuchten 283 Kreuzfahrtschiffe den Hafen und brachten 424.000 Tagesausflügler nach Helsinki. Das Volumen des Linienverkehrs lag bei 10,7 Millionen Reisenden im Jahr. Die Fährgesellschaften Viking Line, Silja Line, Finnlines, Tallink, Linda Line und Stella Naves Russia bieten regelmäßige Fährverbindungen nach Tallinn, Stockholm, Sankt Petersburg, Travemünde, Rostock und Gdynia an. Reisen mit den sogenannten „Schwedenschiffen“ "(ruotsinlaiva)", die an Bord Restaurants, Nachtklubs und Tax-Free-Shops bieten, sind schon seit langem populär. Nach dem Zusammenbruch der Sowjetunion entstanden zur rund 80 Kilometer entfernten estnischen Hauptstadt Tallinn dermaßen rege Verbindungen, dass man schon von einer gemeinsamen Großstadtregion namens Talsinki spricht. Tallinn ist wegen seiner malerischen Altstadt und des niedrigen Preisniveaus für Tagesausflügler aus Helsinki attraktiv. Umgekehrt pendeln etwa 17.500–18.500 Esten zum Arbeiten in die Region Helsinki (Stand 2011). Eisenbahn. Der Hauptbahnhof Helsinki ist der größte Kopfbahnhof des Zugverkehrs in Finnland. Er ist der Heimatbahnhof der finnischen Staatsbahn VR. Fernzüge verkehren in die wichtigsten Städte Finnlands sowie nach Sankt Petersburg und Moskau. Außerdem ist der Hauptbahnhof Endpunkt aller Linien der S-Bahn Helsinki, die das Zentrum mit den nördlichen und westlichen Vororten und Nachbarstädten verbindet. Das Bahnhofsgebäude wurde 1919 nach Plänen des Architekten Eliel Saarinen fertiggestellt und ist ein bekanntes Wahrzeichen der Stadt. Alle vom Hauptbahnhof abfahrenden Züge halten als erstes im Bahnhof Pasila, welcher für die Bewohner der Vororte und umliegenden Gemeinden das größte Umsteigedrehkreuz bildet. Von hier aus teilen sich die Schienen in die Hauptadern des Eisenbahnverkehrs, die Hauptbahn "(päärata)" über Hämeenlinna nach Tampere und die Küstenbahn "(rantarata)" nach Turku. Öffentlicher Personennahverkehr. Ein Metro-Zug überquert die Vuosaari-Brücke Der öffentliche Personennahverkehr wird mit Bussen, Straßenbahnen, U-Bahnen, S-Bahnen und Fähren durchgeführt. Für Planung und Koordination des Verkehrs ist seit 2010 der regionale Verkehrsverbund HSL zuständig. Im Jahr 2010 wurden auf dem gesamten HSL-Gebiet (Helsinki, Espoo, Vantaa, Kauniainen, Kerava, Kirkkonummi, Sipoo) 326,9 Millionen Fahrgäste befördert, davon 166,6 Mio. in Bussen, 57,1 Mio. mit der U-Bahn, 54,5 Mio. mit der Straßenbahn, 47,1 Mio. mit der S-Bahn und 1,6 Mio. mit der Fähre nach Suomenlinna. Der Anteil des ÖPNV am gesamten stadtinternen Verkehrsaufkommen lag im Herbst 2014 bei 32 %. Die 1982 eröffnete Metro Helsinki ist die einzige U-Bahn Finnlands. Sie verfügt über eine Linie mit zwei Armen, die das Zentrum mit dem Osten der Stadt verbindet. Das Netz mit 17 Stationen ist 21,1 km lang, davon verlaufen ca. 30 % unterirdisch. Die Straßenbahn Helsinki ist ebenfalls die einzige des Landes. Derzeit gibt es zwölf Linien, die alle in der Innenstadt verkehren. Auch das S-Bahn-ähnliche System ist das einzige des Landes. Daneben gibt es ein dichtes Busnetz. Im unterirdischen Busbahnhof im 2005 eröffneten Kampin keskus werden der Busverkehr nach Espoo und der Fernverkehr abgewickelt. Die Busterminals werden jeden Tag von insgesamt etwa 170.000 Fahrgästen benutzt. Das Verkehrssystem ist weitgehend radial auf das Zentrum Helsinkis ausgerichtet. Somit sind die Verbindungen von den Außenbezirken ins Zentrum sehr gut, die Querverbindungen innerhalb der Außenbezirke sind aber schlechter ausgebaut. Mit der Eröffnung einer Metrobus-ähnlichen, "Jokeri" („Joker“) genannten Buslinie im Jahr 2003 und mit der 2015 eröffneten Ringbahn sind im 21. Jahrhundert einige Anstrengungen unternommen worden, um diesen Mangel zu beheben. Außerdem wird sich die U-Bahn mit der Eröffnung der sogenannten Westmetro von einer Radial- in eine Durchmesserlinie umwandeln. Autoverkehr. Die Gesamtlänge des Helsinkier Straßennetzes beträgt 1078 km, davon sind 997 km asphaltiert (Stand 2007). Die Stadt wird von zwei Ringstraßen, Ring I und Ring III, umschlossen. Weil Helsinki an der Küste liegt, sind diese halbkreisförmig. Die mittlere Ringstraße (Ring II) ist ein Bruchstück geblieben, ein vollständiger mittlerer Ring ist nicht mehr geplant. Stattdessen wird die Option diskutiert, in einem sogenannten Zentrumstunnel den Ost-West-Durchgangsverkehr unter dem Zentrum hindurchzuführen. Aus Helsinki führen acht große Ausfallstraßen heraus. Die Stadt ist Anfangspunkt der finnischen Staatsstraßen 1, 3, 4 und 7. Die Europastraßen 12, 18 und 75 folgen teilweise dem Verlauf dieser Fernstraßen. Daneben ist Helsinki Endpunkt der E 67 (Via Baltica). Wegen des guten öffentlichen Verkehrs und der kurzen Entfernungen spielt der Autoverkehr in Helsinki, insbesondere in der Innenstadt, eine vergleichsweise geringe Rolle. Im stadtweiten Durchschnitt lag der Anteil des Autoverkehrs im Herbst 2014 bei 22 % des Verkehrsaufkommens. Die Anzahl der zugelassenen Personenkraftwagen pro 1000 Einwohner liegt mit 403 deutlich unter dem Landesdurchschnitt von 548 (Stand: Ende 2011). Die Mehrheit der Helsinkier Haushalte hat kein eigenes Auto. Die Politik versucht besonders den Autoverkehr von Außerhalb in Richtung Innenstadt durch eine Reglementierung der Parkmöglichkeiten zu begrenzen. So gibt es für Ortsfremde in der Innenstadt fast nur kurzfristige und/oder kostenpflichtige Parkplätze. Anwohnerparken wird dagegen gefördert: Dauerparkgenehmigungen sind für Anwohner relativ günstig, und für Neubauten schreibt die Stadt eine vergleichsweise hohe Mindestanzahl von Parkplätzen vor, die auf dem Grundstück zu realisieren sind (oft in einer Tiefgarage). Fuß- und Fahrradverkehr. Die ehemalige Eisenbahntrasse "Baana" im Zentrum Helsinkis ist heute für Radfahrer und Fußgänger reserviert. Im Herbst 2014 lag der Anteil des Fußverkehrs bei 34 % und der des Fahrradverkehrs bei 11 % des gesamten stadtinternen Verkehrsaufkommens. Die Gesamtlänge der Helsinkier Fahrradwege beträgt 1200 km, allerdings handelt es sich zu einem großen Teil um kombinierte Geh- und Radwege. Die Radwege sind auf einer Strecke von 730 km asphaltiert. Etwa 500 km der Radwege befinden sich in Grüngebieten, 90 km folgen dem Ufer. Die Stadt Helsinki strebt bis zum Jahr 2020 eine Anhebung des Anteils der Radverkehrs auf 15 Prozent an. Erreicht werden soll dies insbesondere durch den Ausbau des Fahrradwegnetzes, vor allem in der bislang relativ schlecht abgedeckten Innenstadt. Vorzeigeprojekt ist die 2012 auf einer ehemaligen Eisenbahntrasse eröffnete "Baana", ein 1,3 km langer, kreuzungsfreier Radschnellweg, der von Ruoholahti mitten durchs Zentrum in die Nähe des Hauptbahnhofs führt. Auch die Instandhaltung der Fahrradwege soll verbessert werden, vor allem die Schneeräumung während der Wintermonate. Zu den weiteren Maßnahmen soll die Wiedereinführung eines öffentlichen Fahrradverleihsystems gehören. Ein solches gab es bereits Anfang des 21. Jahrhunderts einige Jahre lang. Energieversorgung. Das Kohlekraftwerk Salmisaari. Im Hintergrund das kleine Ölkraftwerk Kellosaari, das als Reserve für Ausnahmesituationen dient. Die Stadt Helsinki besitzt ein eigenes Energieunternehmen, Helsingin Energia, das Strom, Fernwärme und Fernkälte produziert und Eigentümer der entsprechenden Übertragungsnetze in Helsinki ist. Ein großer Teil der Stromabnehmer in der Stadt bezieht seinen Strom von Helsingin Energia, es gibt aber auch andere Anbieter. Das Fernwärmesystem von Helsingin Energia deckt fast die gesamte Stadt ab und stillt 90 % ihres Wärmebedarfs. Es gibt in Helsinki drei größere Kraftwerke, die alle von Helsingin Energia betrieben werden und im sehr energieeffizienten Kraft-Wärme-Kopplungsverfahren gleichzeitig Strom und Fernwärme produzieren. Dies sind: ein erdgasbetriebenes Gas-und-Dampf-Kombikraftwerk mit zwei Blöcken im Stadtteil Vuosaari und jeweils ein steinkohlebetriebenes Kraftwerk in Salmisaari (Stadtteil Länsisatama) und in Hanasaari (Stadtteil Sörnäinen). Letztere beiden Kraftwerke sollen ab 2014 neben Steinkohle auch Holzpellets (eine erneuerbare Energiequelle) verbrennen. Daneben gibt es eine Reihe kleinerer Anlagen. Helsingin Energia besitzt auch Anteile an anderen Energieunternehmen, über die es auch an Wind- und Atomkraftanlagen außerhalb Helsinkis beteiligt ist. Im Jahr 2011 wurden von Helsingin Energia und den Tochtergesellschaften 7.126 GWh Strom produziert, davon 5.081 GWh innerhalb der Stadt. Der Energiemix der gesamten Stromproduktion war wie folgt: 51 % Erdgas, 21 % Steinkohle, 20 % Atomkraft, 8 % erneuerbare Energien. Fernwärme wurde innerhalb Helsinkis 6.674 GWh produziert. Hier war der Energiemix 51 % Erdgas, 42 % Steinkohle, 4 % Öl, 3 % aus Abwässern zurückgewonnene Wärme (s.u.). Bis zum Jahr 2020 soll der Anteil der erneuerbaren Energien auf 20 % angehoben werden, bis 2050 soll die Produktion klimaneutral sein. Wasserversorgung. a>s gespeist; er dient als Wasserspeicher für die Versorgung der Hauptstadtregion. Für die Wasserversorgung ist seit 2010 der Regionalverband HSY zuständig. Das Leitungswasser kommt aus dem etwa 120 km nördlich gelegenen Päijänne-See und wird durch den Päijänne-Tunnel, einen der längsten Felstunnel der Welt, nach Helsinki geführt. Dort gibt es zwei Wasseraufbereitungsanlagen, in denen das Wasser zu Trinkwasser aufbereitet wird: eine in Pitkäkoski und eine in Vanhakaupunki. Das qualitativ hochwertige Wasser wurde zeitweise sogar in Trinkflaschen abgefüllt ins Ausland exportiert. Nötigenfalls kann statt des Päijänne-Wassers auch das Wasser des Vantaanjoki zu Trinkwasser aufbereitet werden. Die Abwässer werden in zwei Anlagen, in Viikinmäki in Helsinki und in Suomenoja in Espoo, gereinigt, bevor sie ins Meer geleitet werden. Als Nebenprodukt der Reinigung entsteht u.a. Biogas, welches zur Energiegewinnung genutzt wird. Außerdem wird die im Abwasser enthaltene Wärmeenergie zurückgewonnen und ins Helsinkier Fernwärmenetz eingespeist. Bildung und Forschung. Die Region Helsinki ist das wissenschaftliche Zentrum Finnlands. Es gibt dort fünf Hochschulen und Universitäten mit insgesamt ca. 60.000 Studenten. Alle diese Hochschulen haben ihren Hauptsitz in Helsinki selbst, mit Ausnahme der Aalto-Universität, die ihren Hauptsitz in der Nachbarstadt Espoo hat. Dazu kommen sechs Fachhochschulen sowie mehrere unabhängige Forschungseinrichtungen wie z.B. das VTT Technical Research Centre (letzteres in Espoo). Hochschulen und Universitäten. Hauptgebäude der Universität Helsinki am Senatsplatz Die Universität Helsinki ist die älteste und mit ca. 35.000 Studenten (Stand: 2013) auch die größte Universität Finnlands. Sie ist eine Volluniversität und Nachfolgerin der 1640 gegründeten Akademie zu Turku, die nach dem großen Turkuer Stadtbrand von 1828 nach Helsinki verlegt wurde. Das klassizistische Hauptgebäude liegt am Senatsplatz und wurde von Carl Ludwig Engel entworfen. Neben dem Campus im Zentrum gibt es drei weitere Kampen in den Stadtteilen Kumpula (Mathematik und Naturwissenschaften), Viikki (Biologie und Pharmazie) und Meilahti (Medizin). Bei internationalen Hochschulrankings ist die Universität Helsinki regelmäßig die bestplatzierte finnische Universität. Im Shanghai-Ranking 2014 lag sie auf Platz 73. (Zum Vergleich: Nur drei deutsche Universitäten konnten sich besser platzieren, nämlich die LMU München und die Universität Heidelberg auf dem geteilten Platz 49 und die TU München auf Platz 53.) Die nach dem Architekten und Designer Alvar Aalto benannte Aalto-Universität, deren Hauptcampus in der Nachbarstadt Espoo liegt, konzentriert sich auf Technik und Wirtschaft. Sie entstand 2010 durch die Fusion dreier vormals unabhängiger Hochschulen: der Technischen Universität Helsinki (gegründet 1849, Hochschulstatus seit 1908), der Handelshochschule Helsinki (1904/1911) und der Hochschule für Kunst und Design Helsinki (1871/1973). Im Jahr 2015 hatte die Aalto-Universität ca. 20.000 Studenten. Die Universität der Künste Helsinki entstand im Jahr 2013 ebenfalls durch Fusion, und zwar der Sibelius-Akademie (gegründet 1882, Hochschulstatus seit 1980), der Kunstakademie Helsinki (1848/1993) und der Theaterakademie Helsinki (1979). Sie ist die einzige Kunstuniversität Finnlands und hatte im Jahr 2013 ca. 2000 Studenten. Weiterhin gibt es die 1909 gegründete, schwedischsprachige Handelshochschule Hanken mit ca. 2400 Studenten und die 1993 gegründete Verteidigungshochschule der finnischen Armee mit knapp 1000 Studenten. Grundschulen und Gymnasien. Die Stadt Helsinki unterhält 131 Grundschulen "(peruskoulu)" und 17 Gymnasien "(lukio)", ein Teil davon schwedischsprachig (Stand: 2013). Daneben gibt es einige private Schulen, darunter auch englisch-, deutsch-, französisch- und russischsprachige Schulen. Bibliotheken. Die Rikhardinkatu-Bibliothek, eröffnet im Jahr 1881, war das erste von Anfang an als öffentliche Bibliothek konzipierte Gebäude der Nordischen Länder. In den 1920er Jahren wurde das Gebäude um eine Etage aufgestockt. Die Finnische Nationalbibliothek direkt gegenüber vom Dom von Helsinki ist die älteste und bedeutendste wissenschaftliche Bibliothek des Landes. Sie ist der Universität Helsinki unterstellt und führte bis 2006 den Namen "Universitätsbibliothek Helsinki". Die heutige Universitätsbibliothek Helsinki dagegen entstand 2010 durch die Fusion der diversen Fachbibliotheken der Universität und ist in einem modernen, 2012 fertiggestellten Gebäude untergebracht. Die städtischen Bibliotheken der Hauptstadtregion (Helsinki, Espoo, Vantaa und Kauniainen) sind zu einem Verbund namens HelMet (von "Helsinki Metropolitan Area Libraries") zusammengeschlossen. Dieser unterhält ein Netz von 63 eigentlichen Bibliotheken (davon 37 in Helsinki) und einigen anderen Einrichtungen, darunter sechs Fahrbibliotheken (Stand: 2015). Der Bau einer neuen Zentralbibliothek wurde im Januar 2015 vom Stadtrat Helsinkis offiziell beschlossen. Diese Bibliothek soll nordwestlich des Hauptbahnhofs entstehen und 2018 eröffnet werden. Zu den weiteren Bibliotheken zählt auch die Deutsche Bibliothek Helsinki. Persönlichkeiten. Helsinki ist Geburtsort zahlreicher prominenter Persönlichkeiten. Dazu gehören unter anderem die Sopranistin Aino Ackté, die Designerin Aino Aalto, der Nobelpreisträger Ragnar Granit, die frühere finnische Staatspräsidentin Tarja Halonen, die Schriftstellerin und Illustratorin Tove Jansson, der Polarforscher Adolf Erik Nordenskiöld, die Schauspieler Matti Pellonpää und Kati Outinen, der Komponist Einojuhani Rautavaara, die Malerin Helene Schjerfbeck, der Gründer des Linux-Projektes Linus Torvalds, der Schriftsteller Mika Waltari sowie der im Musikgeschäft tätige Ville Valo. Hubble-Weltraumteleskop. Das Hubble-Weltraumteleskop (, kurz "HST") ist ein Weltraumteleskop, das von der NASA und der ESA gemeinsam entwickelt wurde und das nach dem Astronomen Edwin Hubble benannt ist. Es arbeitet im Bereich des elektromagnetischen Spektrums vom Infrarotbereich über das sichtbare Licht bis in den Ultraviolettbereich. Das HST wurde am 24. April 1990 mit der Space-Shuttle-Mission STS-31 gestartet und am nächsten Tag aus dem Frachtraum der Discovery ausgesetzt. Es war das erste von vier Weltraumteleskopen, die von der NASA im Rahmen des "Great Observatory Programms" geplant wurden. Die anderen drei Weltraumteleskope sind Compton Gamma Ray Observatory, Chandra X-Ray Observatory und Spitzer-Weltraumteleskop. Nach dem Aussetzen des Teleskops stellte sich schnell heraus, dass die Bildqualität nicht den Erwartungen entsprach. Ein Fehler des Hauptspiegels führte zu Bildern, die praktisch nicht brauchbar waren. Drei Jahre später wurde 1993 mit Hilfe des COSTAR-Spiegelsystems der Fehler erfolgreich korrigiert. Nach dieser ersten Reparaturmission STS-61 fanden weitere Wartungsmissionen statt: (STS-82, STS-103, STS-109 und STS-125). Mit der letzten Wartungsmission wurde die "COSTAR"-Korrektur überflüssig, da alle Instrumente über ein eigenes System zur Korrektur des Spiegelfehlers verfügen. Im Jahr 2018 könnte das geplante James-Webb-Weltraumteleskop die Nachfolge des Hubble-Weltraumteleskops antreten. Es befindet sich derzeit im Bau und ist ein Gemeinschaftsprojekt der NASA, der ESA und der kanadischen Weltraumagentur (CSA). Vorgeschichte. Das erste ernsthafte Konzept eines wissenschaftlichen Teleskops in der Erdumlaufbahn wurde von Lyman Spitzer, damals Professor an der Yale University, im Jahre 1946 vorgelegt. In der wissenschaftlichen Publikation "Astronomical Advantages of an Extra-Terrestrial Observatory" (dt. etwa: „Astronomische Vorteile eines Weltraum-Observatoriums“) beschrieb er die damals unumgänglichen Störungen durch die Erdatmosphäre, die das Auflösungsvermögen jedes beliebig leistungsfähigen erdgebundenen Teleskops begrenzten. Darüber hinaus absorbiere die Atmosphäre auch die gesamte Röntgenstrahlung, was die Beobachtung von sehr heißen und aktiven kosmischen Ereignissen unmöglich mache. Als Lösung schlug er ein Teleskop in einer Erdumlaufbahn außerhalb der Atmosphäre vor. Einige Zeit später trat die National Academy of Sciences an Spitzer heran, der nun an der Princeton University lehrte, um ihn als Leiter eines Ad-hoc-Komitees zum Entwurf eines "Large Space Telescope" (dt.: „Großes Weltraumteleskop“) zu engagieren. Während des ersten Treffens 1966 wurden umfangreiche Studien für den Einsatz eines solchen Teleskops angefertigt. Drei Jahre später wurde eine Arbeit mit dem Titel "Scientific Uses of the Large Space Telescope" (dt.: „Wissenschaftliche Verwendungen eines großen Weltraumteleskops“) veröffentlicht, in der das Komitee den Bau eines solchen Teleskops forderte, da es einen „wesentlichen Beitrag zu unserem Wissen über die Kosmologie“ leisten könne. Zur Verwirklichung dieses Vorhabens wandte man sich an die NASA, da keine andere Organisation die Mittel und Fähigkeiten besaß, ein solch ambitioniertes Projekt durchzuführen. Diese hatte bereits mehrere interne Studien, unter anderem auch unter der Leitung Wernher von Brauns, zu Weltraumteleskopen angefertigt, die allerdings alle mit kleineren Spiegeln geplant wurden. Durch die Entscheidung zum Bau des Space Shuttles gewann man Mitte der 1960er-Jahre die nötige Flexibilität, die vorhandenen Entwürfe weiterzuentwickeln. Im Jahre 1971 schuf der damalige NASA-Direktor George Low die "Large Space Telescope Science Steering Group" (dt. etwa: „Wissenschaftlicher Lenkungsausschuss für das Große Weltraumteleskop“), die die ersten Machbarkeitsstudien anfertigen sollte. Als Nächstes musste die Finanzierung des Projekts durch die Regierung sichergestellt werden. Aufgrund des hohen Preises von 400 bis 500 Millionen (nach heutigem Wert etwa 2 Milliarden) US-Dollar wurde der erste Antrag im Jahre 1975 vom Haushaltsausschuss des Repräsentantenhauses abgelehnt. Daraufhin begann man mit intensiver Lobbyarbeit unter Führung von Spitzer, John N. Bahcall und eines weiteren führenden Astronomen aus Princeton. Darüber hinaus wandte man sich zur Finanzierung der Solarzellen an die ESRO (eine Vorgängerorganisation der ESA), der man im Gegenzug Beobachtungszeit und wissenschaftliche Mitwirkung anbot. Noch im selben Jahr gab diese ihr Einverständnis bekannt. Durch die zusätzliche Verkleinerung des Hauptspiegels von 3 auf 2,4 Meter konnte so der Preis auf etwa 200 Mio. US-Dollar reduziert werden. Das neue Konzept wurde zwei Jahre später vom Kongress bewilligt, so dass die Arbeiten an dem neuen Teleskop beginnen konnten. Im Jahre 1978 wurden die wichtigsten Aufträge vergeben: PerkinElmer sollte das optische System inklusive des Hauptspiegels konstruieren, Lockheed war für die Struktur und den Satellitenbus zuständig, wobei die Solarzellen und ein Instrument (die Faint Object Camera) aus europäischer Produktion kommen sollte. Aufgrund der Wichtigkeit des Hauptspiegels wurde PerkinElmer außerdem angewiesen, ein Subunternehmen mit der Anfertigung eines Reservespiegels für den Fall von Beschädigungen zu beauftragen. Die Wahl fiel auf Eastman Kodak, wo man sich für einen traditionelleren Fertigungsprozess entschied (Perkin-Elmer nutzte ein neues Laser- und computergestütztes Schleifverfahren). Obwohl beide Spiegel die, wie sich später herausstellte fehlerhafte, Qualitätskontrolle bestanden, war laut einiger Wissenschaftler das Kodak-Fabrikat das bessere. Trotzdem entschied sich PerkinElmer, seinen eigenen Spiegel einzusetzen. Ursprünglich sollte das Teleskop 1983 gestartet werden. Dieser Termin konnte aufgrund von Verzögerungen bei der Konstruktion der Optik nicht gehalten werden, die endgültige Startbereitschaft wurde im Dezember 1985 erreicht. In der Zwischenzeit wurde im Jahre 1983 an der Johns Hopkins University das Space Telescope Science Institute gegründet, das als Teil der Association of Universities for Research in Astronomy den Betrieb des neuen Teleskops übernehmen sollte. Im selben Jahr wurde es nach Edwin Hubble, dem Entdecker der Expansion des Universums, in "Hubble Space Telescope" (kurz: HST) umbenannt. Start. a> der Discovery in den Weltraum ausgesetzt Nachdem die internen Probleme den Start um zwei Jahre verzögert hatten, konnte auch der neue Starttermin zum Oktober 1986 nicht eingehalten werden. Grund hierfür war das Challenger-Unglück am 28. Januar, bei dem alle sieben Astronauten aufgrund von Materialversagen an einem der Feststoff-Booster ums Leben kamen. Da Hubble mit dem Space Shuttle transportiert werden sollte, wurde der Start aufgrund der umfangreichen Verbesserungsmaßnahmen an den anderen Raumfähren um weitere vier Jahre verzögert. Am 24. April 1990 um 12:33 UTC startete schließlich die Raumfähre Discovery mit dem Teleskop an Bord vom Startkomplex 39B des Kennedy Space Centers in Florida. Die Mission mit der Bezeichnung STS-31 verlief trotz der Rekordhöhe von 611 km reibungslos, das Teleskop wurde am nächsten Tag erfolgreich ausgesetzt und konnte planmäßig aktiviert werden. Der Hauptspiegelfehler. a>-Instruments. Der Stern in der Mitte müsste als Punkt ohne Streulicht abgebildet werden. Obwohl nach der Fertigung des Hauptspiegels Maßnahmen zur Qualitätssicherung ergriffen wurden, entdeckte man bereits beim ersten Licht massive Bildfehler (siehe Bild rechts). Gemäß der Spezifikationen sollten bei einem Punktziel (zum Beispiel einem Stern) 70 % des Lichts innerhalb von 0,1 Bogensekunden (arcsec) konzentriert werden. Tatsächlich wurde es über 0,7 arcsec verteilt, was den wissenschaftlichen Wert des Teleskops massiv senkte. Anschließende Messungen mit Hilfe der Planetary Camera, der Faint Object Camera und den Wellenfront-Sensoren der drei Fine Guidance Sensors zeigten mit hoher Sicherheit eine starke sphärische Aberration durch Unebenheiten auf dem Primärspiegel. Als feststand, dass es sich um einen großen und komplexen Fehler handelte, ordnete der NASA-Direktor Richard Harrison Truly die Bildung eines Untersuchungsausschusses "(Hubble Space Telescope Optical Systems Board of Investigation)" an, der den Fehler weiter eingrenzen und beheben sollte. Die Untersuchungen konzentrierten sich auf ein Instrument, das bei der Fertigung zur Qualitätskontrolle eingesetzt wurde und die sphärische Aberration hätte anzeigen müssen: den Null-Korrektor, ein recht einfaches optisches Instrument, das eine spezielle Wellenfront auf den Spiegel projiziert, die, sofern dieser korrekt geschliffen wurde, als exakt kreisförmiges Muster reflektiert wird. Anhand von Abweichungen von diesem Kreismuster kann ein Optiker ablesen, ob und in welchem Ausmaß noch Polier- und Schleifarbeiten nötig sind. Für zuverlässige Ergebnisse müssen die im Null-Korrektor verbauten Linsen jedoch hochgenau ausgerichtet und justiert sein. Bei der Untersuchung des Originalkorrektors, der nach Auslieferung des Hauptspiegels eingelagert worden war, stellte man fest, dass eine Linse 1,3 mm zu weit von einer anderen entfernt war. Anschließend wurden Computersimulationen durchgeführt, die die Auswirkungen dieses Fehlers auf den Hauptspiegel berechneten. Die Ergebnisse passten in Art und Ausmaß sehr genau zu den beobachteten Abbildungsfehlern des Teleskops im Orbit, so dass der falsche Linsenabstand im Korrektor letztlich für den Hauptspiegelfehler verantwortlich war. Da Perkin-Elmer bei der Herstellung des Primärspiegels einige neue und weitgehend ungetestete computerbasierte Techniken einsetzte, hatte die NASA bei Kodak die Herstellung eines mit traditionelleren Mitteln gefertigten Reservespiegels in Auftrag gegeben. Da die sphärische Aberration bei Perkin-Elmer vor dem Start nicht entdeckt wurde, verblieb dieser jedoch auf der Erde. Nach Entdeckung des Fehlers zog man es daher in Erwägung, Hubble wieder mit einem Shuttle einzufangen und den Spiegel gegen das Kodak-Fabrikat auszutauschen. Dies erwies sich jedoch als äußerst aufwendig und teuer, weswegen man ein Korrektursystem entwickelte, das den Hauptspiegelfehler korrigiert, bevor das gesammelte Licht die Instrumente erreicht. Es trägt den Namen "Corrective Optics Space Telescope Axial Replacement" (kurz: COSTAR) und wurde zweieinhalb Jahre nach dem Start bei der ersten Servicemission eingebaut. Erst nach dieser Mission konnte das Teleskop seinen wissenschaftlichen Betrieb ohne nennenswerte Probleme aufnehmen. Allerdings belegte COSTAR eine von fünf Instrumentenbuchten, die eigentlich für wissenschaftliche Systeme vorgesehen war (konkret musste beim Einbau das High Speed Photometer (HSP) entfernt werden). Daher wurden alle folgenden Instrumente mit eigenen internen Korrektursystemen ausgestattet, so dass sie das Licht wieder direkt vom Hauptspiegel ohne Umweg über COSTAR beziehen konnten. Bei der letzten vierten Servicemission konnte das System entfernt und durch ein wissenschaftliches Instrument, den Cosmic Origins Spectrograph (COS), ersetzt werden. Im heutigen Betrieb spielt der Hauptspiegelfehler somit praktisch keine Rolle mehr. Die Servicemissionen. Das Hubble-Teleskop war von Anfang an auf Wartungen im Orbit ausgelegt worden, wodurch insgesamt fünf Space-Shuttle-Missionen zur Reparatur und Aufrüstung möglich waren. Im Folgenden werden diese aufgelistet und beschrieben, die genauen technischen Modifikationen sind in den entsprechend verlinkten Abschnitten zu finden. Servicemission SM 1. Primärziel der ersten Servicemission war die Korrektur des optischen Fehlers des Primärspiegels. Hierzu wurde das High-Speed-Photometer-Instrument entfernt und durch das COSTAR-Linsensystem ersetzt, das alle anderen Instrumente mit einer korrekten und fehlerfreien Abbildung versorgen konnte. Die ebenfalls neue Wide Field and Planetary Camera 2, die ihr Vorgängermodell ersetzte, besaß allerdings bereits ein eigenes Korrektursystem und war daher nicht auf COSTAR angewiesen. Dieses sollte auf lange Sicht wieder entfernt werden, um den Platz wieder wissenschaftlich nutzen zu können, weswegen alle folgenden neu installierten Instrumente mit einer eigenen Konstruktion zur Korrektur des Primärspiegelfehlers ausgerüstet wurden. Darüber hinaus wurden einige andere technische Systeme ausgewechselt, modernisiert und gewartet. So wurden komplett neue Solarflügel installiert, da die alten sich unter den häufigen Temperaturveränderungen zu stark verformten. Im Bereich der Lageregelung wurden zwei Magnetfeldsensoren, zwei Messsysteme für die Gyroskope und deren Sicherungen ausgewechselt. Außerdem erhielt der Hauptcomputer ein zusätzliches Koprozessor-System. Servicemission SM 2. Zwei Astronauten inspizieren die Isolierung von Bucht 10. Primäres Ziel der zweiten Servicemission war der Austausch zweier Sensoren. Zum einen wurde der Goddard High Resolution Spectrograph durch den Space Telescope Imaging Spectrograph ersetzt, zum anderen wurde der Faint Object Spectrograph für den Einbau des Near Infrared Camera and Multi-Object Spectrometer ausgebaut. Hierdurch konnte das Auflösungsvermögen und die spektrale Genauigkeit massiv erhöht werden und es war erstmals möglich, Beobachtungen im infraroten Bereich durchzuführen. Auch an den technischen Systemen wurden umfangreiche Modernisierungs- und Wartungsarbeiten durchgeführt. Im Bereich der Lageregelung wurde ein Fine Guidance Sensor durch ein neu zertifiziertes und kalibriertes Modell ersetzt, das OCE-EK-System zur besseren Bewahrung der Ausrichtungsgenauigkeit nachgerüstet und eine der vier Reaction Wheel Assemblies ausgetauscht. Darüber hinaus wurden zwei der drei Bandspeichersysteme gewartet, das dritte ist durch einen deutlich leistungsfähigeren Solid State Recorder ersetzt worden. Des Weiteren wurde eine Data Interface Unit und das Ausrichtungssystem für einen der beiden Solarflügel ausgewechselt. Schlussendlich reparierte man außerplanmäßig beim letzten Weltraumspaziergang die Isolierung des Teleskops, nachdem man zuvor erhebliche Schäden festgestellt hatte. Hierbei wurde auf Reservematerialien zurückgegriffen, die eigentlich für eine eventuelle Reparatur der Solarflügel vorgesehen waren. Servicemission SM 3A. Zwei am Ende des Shuttle-Arms gesicherte Astronauten wechseln Gyroskope aus. Ursprünglich sollte es nur eine Mission mit der Bezeichnung „SM 3“ geben, bei der wieder verbesserte wissenschaftliche Instrumente installiert werden sollten. Allerdings zeigten sich die RWAs, die zur Ausrichtung nötig sind, als unerwartet unzuverlässig. Nachdem das dritte von insgesamt sechs Gyroskopen ausgefallen war, entschloss sich die NASA, die Mission in zwei Teile zu spalten. Bei der ersten SM-3A-Mission sollten vor allem neue Gyroskope eingebaut werden, bei der zweiten SM-3B-Mission war der Einbau der neuen Instrumente vorgesehen. Am 13. November 1999, gut einen Monat vor dem geplanten Start der ersten Mission, versetzte die Bordelektronik das Teleskop in einen Sicherheitszustand, der nur noch den Betrieb der wichtigsten technischen Systeme garantierte. Grund war der Ausfall eines vierten Gyroskops, womit nur noch zwei Stück funktionsfähig waren. Für den ordnungsgemäßen Betrieb waren jedoch mindestens drei Exemplare notwendig, ein wissenschaftlicher Betrieb des Teleskops war also nicht mehr möglich. Beim ersten Weltraumspaziergang wurden sofort alle drei Reaction Wheel Assemblies und ein Fine Guidance Sensor gegen neue Modelle ausgewechselt, wodurch Hubble wieder einsatzfähig wurde. Zusätzlich wurden später auch andere technische Systeme gewartet oder aufgerüstet. So wurde der alte DF-224-Zentralcomputer durch ein erheblich leistungsfähigeres Modell ersetzt und ein weiteres Bandlaufwerk wurde durch einen fortschrittlichen Solid State Recorder ersetzt. An den Akkumulatoren wurden außerdem "Temperature Improvement Kits" zur Verbesserung des Ladevorgangs installiert. Auch wurde ein defekter S-Band-Transmitter gegen einen neuen ausgetauscht, was eine sehr zeitaufwendige und komplexe Operation darstellte, da ein solcher Austausch nie vorgesehen war und nicht Teil des ORU-Konzeptes war. Abschließend wurde die improvisierte thermische Abschirmung von Mission SM 2 entfernt und durch zwei neu gefertigte Vorrichtungen ersetzt. Servicemission SM 3B. Ein Astronaut arbeitet am Austausch der Power Control Unit. Nachdem bei der Mission SM 3A lediglich Reparatur- und Wartungsarbeiten durchgeführt worden waren, erhielt das Teleskop mit der SM-3B-Mission auch ein neues wissenschaftliches Instrument: die Advanced Camera for Surveys. Sie ersetzte die Faint Object Camera und erweiterte den Spektralbereich von Hubble bis in den fernen Ultraviolett-Bereich. Um die Kapazitäten im Infrarotbereich wiederherzustellen, wurde das NICMOS-Instrument mit einem zusätzlichen Kühlsystem ausgerüstet, das permanent arbeitet und nicht nach einer gewissen Zeit ineffektiv wird. Mit der Installation von neuen, deutlich effizienteren Solarflügeln stand dem Teleskop auch etwa ein Drittel mehr elektrische Energie zur Verfügung, wodurch vier statt zwei wissenschaftliche Instrumente parallel arbeiten konnten. Um dies zu ermöglichen, musste auch die Power Control Unit, die zur zentralen Stromverteilung dient, ausgewechselt werden. Darüber hinaus wurde wieder ein RWA ausgewechselt und noch eine weitere Vorrichtung zur Isolierung des Teleskops angebracht. Servicemission SM 4. Bei dieser letzten Servicemission wurden noch einmal umfangreiche Maßnahmen zur Aufrüstung und Lebensdauerverlängerung ergriffen, um den Betrieb des Teleskops so lange wie möglich sicherzustellen. So wurde die Wide Field Planetary Camera 2 gegen ein modernisiertes Modell mit dem Namen Wide Field Camera 3 ersetzt, womit das COSTAR-System entfernt werden konnte, da nun alle Instrumente über interne Methoden zur Korrektur des Spiegelfehlers verfügten. An dessen Position wurde der Cosmic Origins Spectrograph eingebaut, womit das Teleskop wieder über einen dedizierten Spektrografen verfügt. Darüber hinaus waren Reparaturen an zwei weiteren Instrumenten nötig: an der Advanced Camera for Surveys, die durch einen Ausfall in der internen Elektronik seit Juli 2006 so gut wie unbenutzbar war, sowie am Space Telescope Imaging Spectrograph, dessen Stromversorgungssystem im August 2004 ausfiel. Beide Instrumente hätten zwar als Ganzes einfach ausgebaut werden können, allerdings entschied man sich für einen Reparaturversuch im Weltall, auch wenn dies bei der Konstruktion nicht vorgesehen war. Trotz der komplexen Abläufe – allein bei der ACS mussten 111 Schrauben teils mit eigens angefertigten Werkzeugen gelöst werden – verliefen beide Reparaturen erfolgreich, so dass die Instrumente wieder arbeiten können (wobei einer der drei Sensoren der ACS nicht repariert wurde und weiterhin defekt ist). Neben den Instrumenten wurden viele technische Systeme gewartet. So wurden alle sechs Gyroskope und alle drei Akkumulatormodule durch neue Modelle ersetzt. An der Außenhaut wurden schließlich die letzten drei verbleibenden NOBL-Schutzpaneele sowie ein "Soft Capture Mechanism" installiert. Letzterer befindet sich am Heck des Teleskops und ermöglicht das einfache Andocken eines anderen autonomen Raumfahrzeuges. Auf diese Weise soll nach der Abschaltung des Teleskops am Ende seiner Lebenszeit ein gezielter und sicherer Wiedereintritt in die Erdatmosphäre ermöglicht werden. Zukunft. Als Ablösung für das Hubble Teleskop ist derzeit das James Webb Space Telescope geplant, dessen Start für das Jahr 2018 vorgesehen ist. Es besitzt einen mehr als fünfmal so großen Spiegel und verfügt besonders im Infrarotbereich über erheblich größere Kapazitäten als Hubble, womit Objekte hinter besonders dichten Nebeln oder in extremen Entfernungen besser untersucht werden können. Im Gegenzug wird der sichtbare und ultraviolette Spektralbereich nicht mehr abgedeckt. Um diese Bereiche auch in Zukunft untersuchen zu können, hat das Space Telescope Science Institute, das derzeit für den Betrieb von Hubble zuständig ist, ein Konzept mit dem Namen "Advanced Technology Large-Aperture Space Telescope" (ATLAST) vorgelegt. Hierbei handelt es sich um ein Weltraumteleskop mit einem 8 bis 16 Meter großen Spiegel mit Instrumenten für den sichtbaren und ultravioletten Spektralbereich. Neben kosmologischer Forschung soll es vor allem für die Erforschung von Exoplaneten eingesetzt werden. Als Starttermin wird der Zeitraum von 2025 bis 2035 angepeilt. Unabhängig von der konkreten Nachfolge wird die Mission von Hubble durch seinen stetig sinkenden Orbit begrenzt. Dies wird, sofern die Umlaufbahn nicht durch ein anderes Raumfahrzeug wieder angehoben wird, dazu führen, dass das Teleskop im Jahr 2024 wieder in die Erdatmosphäre eintritt und verglüht. Zurzeit (Stand: Juni 2013) gibt es keine Pläne, dies zu verhindern, da das James-Webb-Teleskop bis dahin bereits voll einsatzbereit sein soll. Technik und Aufbau. Die folgende Explosionszeichnung illustriert den wesentlichen Aufbau des Hubble-Teleskops. Die Grafik ist verweissensitiv, ein Klick auf das jeweilige Bauteil führt zum entsprechenden Abschnitt. Eine kurze Schnellinformation wird eingeblendet, wenn die Maus eine kurze Zeit über dem Objekt ruht. Image:HubbleExploded_german_v1_png.png| rect 18 404 204 434 Lageregelung rect 18 438 228 460 Kommunikation rect 366 410 618 434 Allgemeine Struktur rect 365 436 605 462 Optisches System rect 633 408 983 430 Wissenschaftliche Instrumente rect 637 438 879 462 Energieversorgung rect 55 202 71 222 Antenne mit geringer Datenrate für technische Telemetrie und Notsituationen rect 1 324 127 362 Antenne mit geringer Datenrate für technische Telemetrie und Notsituationen poly 161 228 191 244 215 276 167 298 147 256 157 228 Mit Hilfe von Leitsternen und Beschleunigungsmessern wird die Lage und Bewegung des Teleskops im Raum ermittelt rect 178 324 288 366 Mit Hilfe von Leitsternen und Beschleunigungsmessern wird die Lage und Bewegung des Teleskops im Raum ermittelt poly 142 214 172 232 220 254 228 238 212 230 232 200 208 164 178 122 136 124 114 142 Hier befinden sich die fünf Buchten, in denen die modularen wissenschaftlichen Instrumente eingebaut werden können rect 0 50 160 94 Hier befinden sich die fünf Buchten, in denen die modularen wissenschaftlichen Instrumente eingebaut werden können rect 176 10 298 52 Diese Sensoren sind für die präzise Feinausrichtung und Nachführung des Teleskops zuständig rect 216 118 252 186 Diese Sensoren sind für die präzise Feinausrichtung und Nachführung des Teleskops zuständig poly 216 230 244 226 246 200 224 200 Diese Sensoren sind für die präzise Feinausrichtung und Nachführung des Teleskops zuständig rect 288 54 388 94 Der Hauptspiegel ist das Zentrale Element zur Sammlung des Lichtes für wissenschaftliche Untersuchungen rect 254 160 300 236 Der Hauptspiegel ist das Zentrale Element zur Sammlung des Lichtes für wissenschaftliche Untersuchungen rect 314 102 434 122 Dieser Zylinder schützt den Hauptspiegel gegen Streulicht rect 302 188 326 204 Dieser Zylinder schützt den Hauptspiegel gegen Streulicht rect 314 266 392 350 Elektronische Komponenten zur Kontrolle der optischen Systeme rect 457 322 609 360 Elektronische Komponenten zur Kontrolle der optischen Systeme rect 405 42 543 84 In diesen Ausrüstungsbuchten befindet sich der Großteil der Elektronik für die Kontrolle des Teleskops und seiner Instrumente rect 331 132 427 252 In diesen Ausrüstungsbuchten befindet sich der Großteil der Elektronik für die Kontrolle des Teleskops und seiner Instrumente rect 431 160 555 234 Diese kohlefaserverstärkte Gitterstruktur hält alle Teile des optischen Systems zusammen rect 477 264 575 302 Diese kohlefaserverstärkte Gitterstruktur hält alle Teile des optischen Systems zusammen rect 573 22 691 40 Diese beiden Zylinder unterdrücken unerwünschte Reflexionen innerhalb des optischen Systems rect 568 168 706 222 Diese beiden Zylinder unterdrücken unerwünschte Reflexionen innerhalb des optischen Systems rect 726 18 858 44 Dieser kleine Spiegel erhält sein Licht vom Hauptspiegel und leitet dieses zu den wissenschaftlichen Instrumenten rect 706 180 728 208 Dieser kleine Spiegel erhält sein Licht vom Hauptspiegel und leitet dieses zu den wissenschaftlichen Instrumenten rect 885 40 1012 78 Über diese Antenne werden die umfangreichen wissenschaftlichen Daten mit hoher Geschwindigkeit zur Erde übertragen poly 767 162 811 100 793 62 759 98 731 158 Über diese Antenne werden die umfangreichen wissenschaftlichen Daten mit hoher Geschwindigkeit zur Erde übertragen poly 711 228 655 318 623 298 651 258 685 224 Über diese Antenne werden die umfangreichen wissenschaftlichen Daten mit hoher Geschwindigkeit zur Erde übertragen rect 913 90 1013 138 Mit Hilfe dieser Klappe kann die Teleskopöffnung verschlossen werden, um sie vor übermäßiger Sonneneinstrahlung zu schützen rect 859 142 917 190 Mit Hilfe dieser Klappe kann die Teleskopöffnung verschlossen werden, um sie vor übermäßiger Sonneneinstrahlung zu schützen rect 895 270 1007 312 Dieser Sensor registriert das Erdmagnetfeld, wodurch die Raumlage des Teleskops ermittelt werden kann rect 863 190 881 214 Dieser Sensor registriert das Erdmagnetfeld, wodurch die Raumlage des Teleskops ermittelt werden kann rect 887 320 977 364 Über die Solarsegel wird die gesamte Energie für den Betrieb des Teleskops erzeugt poly 687 376 903 264 853 216 649 306 Über die Solarsegel wird die gesamte Energie für den Betrieb des Teleskops erzeugt poly 567 170 763 104 717 50 525 126 Über die Solarsegel wird die gesamte Energie für den Betrieb des Teleskops erzeugt poly 51 197 131 201 115 145 1 145 3 251 127 245 131 201 73 203 71 223 53 223 Dieser Heck-Zylinder schließt das Teleskop an dessen Ende ab poly 703 181 705 155 789 157 787 229 709 225 709 207 733 205 733 179 711 177 Dieser Zylinder umschließt und schützt große Teile des optischen Systems rect 793 149 857 223 Der Lichtschutz-Zylinder verhindert das unerwünschte seitliche Eintreten von Licht Allgemeine Struktur. Die Komponenten des Support Systems Module Bei dem Hubble-Weltraumteleskop handelt es sich generell um eine zylinderförmige Konstruktion mit einer Länge von 13,2 m, einem Durchmesser von bis zu 4,2 m und einem Gewicht von 11,11 Tonnen. Der größte Teil des Volumens wird vom optischen System eingenommen, an dessen Ende die wissenschaftlichen Instrumente in der "Focal Plane Structure" (FPS) untergebracht sind. Diese beiden Komponenten werden von mehreren miteinander verbundenen Zylindern umschlossen, dem sogenannten „Support Systems Module“ (SSM). Zu diesem gehört auch ein hohler Ring in der Mitte des Teleskops, der den Großteil aller technischen Systeme zu dessen Steuerung beherbergt. Die benötigte elektrische Energie wird von zwei Sonnensegeln erzeugt, die ebenfalls mittig installiert sind. Für die Kommunikation sind außerdem zwei Ausleger mit je einer Hochleistungsantenne am SSM befestigt. Am vorderen Ende von Hubble befindet sich eine Klappe mit einem Durchmesser von drei Metern, mit der bei Bedarf die Öffnung des optischen Systems komplett geschlossen werden kann. Sie ist in der Aluminium-Honeycomb-Bauweise ausgeführt und ist außen mit einer reflektierenden Beschichtung zum Schutz vor Sonnenlicht ausgestattet. Dieses wird von mehreren Sensoren kontinuierlich überwacht, da ein zu hohes Maß an einfallendem Licht die hochempfindlichen wissenschaftlichen Instrumente beschädigen könnte. Sollte die Sonne weniger als 20° von der Ausrichtungsachse des Teleskops entfernt sein, schließt dieses System die Klappe automatisch innerhalb von weniger als 60 Sekunden, sofern es nicht manuell von der Bodenkontrolle abgeschaltet wird. Die Klappe selbst ist an einem 4 m langen Lichtschutz-Zylinder "(Baffle)" befestigt. Dieser besteht aus Magnesium in Wellblechform, das durch eine Isolierungsschicht vor den starken Temperaturwechseln während eines Orbits geschützt wird. An der Außenseite befinden sich neben Haltegriffen für die Astronauten und den Befestigungselementen zur Sicherung in der Ladebucht des Space Shuttle folgende Komponenten: eine Niedriggewinnantenne, zwei Magnetometer und zwei Sonnensensoren. Der nächste Zylinder ist ebenfalls 4 m lang, aus Aluminium gefertigt sowie durch zusätzliche Verstrebungen und Stützringe versteift. Wie beim Lichtschutz-Zylinder sind mehrere Vorrichtungen zur Befestigung des Teleskops vorhanden, wobei hier ein besonders stabiler Mechanismus befestigt ist, an dem der Roboter-Arm des Space Shuttles andocken kann. An der Außenseite befinden sich neben vier Magnettorquerern auch die Halterungen für die beiden Ausleger mit den Hochgewinnantennen. Auch in diesem Abschnitt sind Isolationsmaterialien auf der Oberfläche angebracht, um die thermische Belastung zu verringern. Abgeschlossen wird das Teleskop durch einen letzten 3,5 m langen Zylinder an dessen Heck. Wie bei dem vorherigen Abschnitt ist auch dieser aus Aluminium gefertigt und durch Verstrebungen versteift. Zwischen diesem Zylinder und dem Ausrüstungs-Ring befinden sich darüber hinaus vier Buchten für die Installation der drei FGS und des radialen wissenschaftlichen Instruments (Nr. 5). Die anderen vier Instrumente befinden sich hinter Wartungsklappen innerhalb der Konstruktion in einer axialen Position. Am Ende des Zylinders befindet sich eine abschließende Aluminium-Honeycomb-Platte mit einer Dicke von 2 cm. An ihr ist eine Niedriggewinnantenne befestigt, die Durchbrüche für mehrere Gasventile und elektrische Verbindungsstecker besitzt. Letztere ermöglichen über Ladekabel vom Space Shuttle den Betrieb von internen Systemen bei Servicemissionen, wenn die eigene Stromproduktion durch die Solarzellen deaktiviert werden muss. Energieversorgung. Nahaufnahme eines Sonnensegels nach der Servicemission SM 3B. Man beachte die Leiterbahnen für die Paneele. Die gesamte elektrische Energie für den Betrieb des Teleskops wird von zwei flügelartigen, von der ESA entwickelten und gebauten Solarmodulen erzeugt. Die ursprünglich Silizium-basierten Module lieferten eine Leistung von mindestens 4550 Watt (je nach Ausrichtung zur Sonne), maßen je 12,1 m × 2,5 m und wogen je 7,7 kg. Da das Teleskop selbst wie die Nutzlastbucht des Space Shuttles im Querschnitt rund ist, konnten die beiden Flügel nicht wie üblich einfach eingeklappt werden. Stattdessen wurden die einzelnen Paneele auf einer Oberfläche aus Glasfasern und Kapton aufgebracht, die Verkabelung wurde durch eine darunter liegende Silberfäden-Matrix realisiert, die abschließend durch eine weitere Lage Kapton geschützt wurde. Diese Kombination war nur 0,5 Millimeter dick und konnte so auf eine Trommel aufgerollt werden, die wiederum platzsparend eingeklappt werden konnte. Allerdings zeigten sich schnell Probleme durch hohe Biegekräfte, die durch die intensive thermische Belastung beim Ein- und Austritt aus dem Erdschatten verursacht wurden. Durch den schnellen Wechsel zwischen Licht und Schatten wurden die Paneele in kürzester Zeit von −100 °C auf +100 °C aufgeheizt und auch wieder abgekühlt, was zu unerwünschter Verwindung und Verformung und damit zu Schwingungen des gesamten Teleskops führte. Daher wurden sie bei der Servicemission SM 1 gegen neuere Modelle ausgetauscht, bei denen dieses Problem nicht mehr auftrat. Fortschritte in der Solarzellen-Technik ermöglichten neun Jahre später bei der Servicemission SM 3B den Einbau von besseren, Galliumarsenid-basierten Solarmodulen, die trotz einer um 33 % reduzierten Fläche etwa 20 % mehr Energie bereitstellen. Die geringere Fläche der Flügel sorgt darüber hinaus für einen geringeren atmosphärischen Widerstand, so dass das Teleskop weniger schnell an Höhe verliert. Ein geöffnetes Akku-Modul. Gut zu sehen sind die insgesamt 66 Zellen. Aufgrund des niedrigen Orbits des Teleskops werden die Solarmodule nur etwa zwei Drittel der Zeit beschienen, da der Erdschatten die Sonnenstrahlung blockiert. Um die Systeme und Instrumente auch in dieser Zeit mit Energie zu versorgen, wurden sechs Nickel-Wasserstoff-Akkumulatoren integriert, die geladen werden, sobald Sonnenlicht auf die Solarmodule trifft, wobei der Ladeprozess etwa ein Drittel der erzeugten elektrischen Energie beansprucht. Die Akkumulatoren können jeweils etwa 75 Amperestunden speichern, was insgesamt für einen ununterbrochenen Betrieb für 7,5 Stunden bzw. fünf volle Orbits ausreicht (der Verbrauch des Teleskops liegt bei etwa 2.800 Watt). Diese Überkapazität wird benötigt, da manche zu beobachtenden Objekte so positioniert sind, dass die Sonnensegel keine gute Ausrichtung zur Sonne aufweisen und entsprechend weniger Leistung liefern. Die Akkumulatoren verfügen über eigene Systeme zur Ladungs-, Temperatur- und Drucksteuerung und bestehen aus 22 einzelnen Zellen. Je drei Akkumulatoren sind in einem Modul organisiert, die so gebaut wurden, dass sie gefahrlos von Astronauten im offenen Weltraum ausgewechselt werden können. Ein solches Modul besitzt in etwa die Maße 90 cm × 90 cm × 25 cm und wiegt 214 kg. Um die natürliche Alterung der Akkumulatoren zu kompensieren, wurden sie bei der Servicemission SM 3A mit einem "Voltage/Temperature Improvement Kit" (VIK) ausgerüstet, das durch verbesserte Systeme zur Ladesteuerung insbesondere die thermische Belastung und die Überladungsproblematik reduziert. Bei der Servicemission SM 4 wurden alle sechs Akkumulatoren durch verbesserte Modelle ersetzt. Diese sind durch neue Fertigungsverfahren deutlich robuster und besitzen eine auf 88 Amperestunden erhöhte Kapazität, von der durch thermische Limitierungen allerdings nur 75 Ah genutzt werden können. Diese Überkapazität bietet allerdings größere Verschleißreserven, was für eine nochmals erhöhte Lebensdauer sorgt (die alten Akkumulatoren waren bereits 13 Jahre in Betrieb). Die Energie wird zentral von der "Power Control Unit" (PCU) verteilt, die 55 kg wiegt und in Bucht 4 der Ausrüstungssektion installiert ist. Daran angebunden sind wiederum vier "Power Distribution Units" (PDUs), die je 11 kg wiegen und an welche die Bussysteme der Instrumente angeschlossen sind. Darüber hinaus enthalten sie Überwachungsinstrumente und Überstromschutzeinrichtungen. Bei der Servicemission SM 3B wurde die PCU durch ein neues Modell ersetzt, um die gesteigerte Energieproduktion der ebenfalls neuen Solarzellen voll nutzen zu können. Die Gesamtheit aller Systeme zur Energieversorgung wird als "Electrical Power Subsystem" (EPS) bezeichnet. Elektronik und Datenverarbeitung. Alle Systeme zur Datenverarbeitung und -speicherung sind im "Data Management Subsystem" (DMS) organisiert. Dessen Herzstück war bis zur Servicemission SM 3A ein Zentralcomputer vom Typ DF-224 der für die übergeordnete Steuerung aller technischen und wissenschaftlichen Systeme zuständig war. Dieser enthielt drei identische, mit 1,25 MHz getakteten 8-Bit-Prozessoren, wobei stets nur einer genutzt wurde, die anderen beiden dienten als Reserve im Fall eines Defekts. Der Speicher ist in sechs Modulen organisiert, die eine Kapazität von je 192 kBit aufweisen. Der interne Bus ist dreifach redundant ausgelegt, die Anbindung an die externen Systeme ist doppelt redundant. Der Computer misst 40 cm × 40 cm × 30 cm, wiegt 50 kg und wurde in einer für ihn spezifischen Assemblersprache programmiert. Schon wenige Jahre nach dem Start fielen zwei Speichermodule aus (drei sind zum Betrieb mindestens notwendig), so dass bei der Servicemission SM 1 ein zusätzliches Koprozessor-System installiert wurde. Dieses besteht aus einer doppelt redundanten Kombination aus einer Intel 80386 x86-CPU und einem Intel 80387-Koprozessor, acht gemeinsam verwendeten Speichermodulen mit einer Kapazität von je 192 KiBit und 1 MiB Arbeitsspeicher exklusiv für die 80386er-CPU. Die Programmierung des Koprozessor-Systems erfolgte in C. Bei der Servicemission SM 3A wurde das komplette Computersystem inklusive des Koprozessors entfernt und durch den deutlich leistungsfähigeren "Advanced Computer" ersetzt. Er verfügt über drei 32-Bit Intel 80486-Prozessoren, die einen Takt von 25 MHz aufweisen und etwa 20-mal schneller sind als die des DF-224-Computers. Jede CPU ist auf einer eigenen Platine mit je 2 MiB SRAM und einem 1 MiB großen EPROM untergebracht. Das gesamte System besitzt die Abmessungen 48 cm × 46 cm × 33 cm und wiegt 32 kg. Das zentrale Element zur Verteilung von Daten innerhalb des Computers ist die "Data Management Unit" (DMU). Neben dem Routing ist die ca. 38 kg schwere DMU für die Verteilung der systemweit verwendeten Uhrzeit zuständig, wofür sie mit zwei redundanten, hochpräzisen Oszillatoren verbunden ist. Die meisten Systeme sind direkt mit der DMU verbunden, einige Komponenten sind jedoch nur über vier je 16 kg schwere "Data Interface Units" (DIUs) an sie angebunden. Für die Kontrolle der wissenschaftlichen Instrumente ist die in Bucht 8 installierte "Science Instrument Control and Data Handling Unit" (SI C&DH) verantwortlich. Hierbei handelt es sich um einen Komplex aus mehreren Elektronikkomponenten, welche die Instrumente steuern, ihre Daten auslesen und diese formatieren. Das Kernelement dieses Systems ist der "Control Unit/Science Data Formatter" (CU/SDF). Er formatiert Kommandos und Anfragen der Bodenstation in das jeweils passende Format des Zielsystems oder -instruments. In der Gegenrichtung übersetzt es auch Datenströme aus den angeschlossenen Komponenten in ein für die Bodenstation passendes Format. Für die Interpretation der formatierten Daten und Kommandos ist der "NASA Standard Spacecraft Computer" (NSCC-I) zuständig. Er besitzt acht Speichermodule mit einer Kapazität von je 148 kBit, in denen Befehlsfolgen abgelegt werden können. Hierdurch kann das Teleskop auch dann arbeiten, wenn es keinen Kontakt zur Bodenstation besitzt. Die vom NSCC-I selbst erzeugten oder abgerufenen Kommandos werden anschließend wieder per Direct Memory Access an den CU/SDF übermittelt. Alle Komponenten der SI C&DH sind darüber hinaus redundant ausgelegt, so dass bei einem Ausfall ein baugleiches Reservemodul zur Verfügung steht. Zur Speicherung von Daten, die nicht in Echtzeit zur Erde übertragen werden können, stehen drei "Engineering/Science Data Recorders" (E/SDRs) zur Verfügung. Hierbei handelte es sich beim Start um Bandlaufwerke mit je 1,2 GBit Kapazität, einem Gewicht von je 9 kg und den Abmessungen 30 cm × 23 cm × 18 cm. Da Magnetbänder mittels Elektromotoren zum Lesen und Schreiben bewegt werden müssen, wurde ein Exemplar bereits bei der Servicemission SM 2 durch einen als "Solid State Recorder" (SSR) bezeichneten Flash-basierten Speicher ersetzt. Dieser hat keine mechanischen Bauteile, so dass er wesentlich zuverlässiger ist und eine höhere Lebensdauer aufweist. Darüber hinaus besitzt der SSR mit 12 GBit eine etwa zehnmal so hohe Kapazität und ermöglicht parallele Lese- und Schreibzugriffe. Für die Betriebssicherheit des Teleskops gibt es neben der redundanten Auslegung wichtiger Komponenten ein Software- und Hardwaresicherungssystem. Bei dem Softwaresystem handelt es sich um eine Reihe von Programmen, die auf dem Zentralcomputer ausgeführt werden und diverse Betriebsparameter überwachen. Wird hierbei eine beliebige, aber nicht hochgefährliche Fehlfunktion entdeckt, werden alle wissenschaftlichen Instrumente abgeschaltet, und das Teleskop wird in der gerade aktuellen Ausrichtung gehalten. Dieser Modus kann nur durch das Eingreifen der Bodenkontrolle nach Behebung des Fehlers aufgehoben werden. Sollten jedoch ernsthafte Abweichungen im Energiesystem auftreten, wird das Teleskop so ausgerichtet, dass die Sonnensegel bestmöglich von der Sonne beschienen werden, um so viel Strom wie möglich zu produzieren. Darüber hinaus werden Maßnahmen ergriffen, alle Komponenten auf ihrer Betriebstemperatur zu halten, um eine schnelle Wiederaufnahme der wissenschaftlichen Untersuchungen nach der Aufhebung des Sicherheitsmodus zu gewährleisten. Nach der Aktivierung sorgen die verdrahteten Programme dafür, dass die Sonnensegel bestmöglich auf die Sonne ausgerichtet werden und alle nicht überlebenswichtigen Komponenten abgeschaltet werden. Die Temperaturkontrolle wird hierbei so gesteuert, dass alle Systeme oberhalb ihrer für das Überleben notwendigen Temperatur gehalten werden. Um auch bei schweren Schäden an den Hauptsystemen handlungsfähig zu bleiben, ist der PSEA-Komplex mit eigenen Datenleitungen an die kritischen Teleskopkomponenten angebunden. Um einen Ausfall der RGAs zu kompensieren, sind auch drei Reserve-Gyroskope vorhanden, die allerdings wesentlich ungenauer sind und nur eine grobe Ausrichtung sicherstellen können, was keinen wissenschaftlichen Betrieb erlaubt. Das PSEA-System kann somit vollständig autonom arbeiten, eine Verbindung zur Bodenstation ist nur zur Fehlerbehebung selbst nötig. Kommunikation. Auf dieser Aufnahme sind die beiden HGAs an den Auslegern gut zu erkennen. Zur Kommunikation verfügt Hubble über je zwei Hoch- und Niedriggewinnantennen (bezeichnet als HGA bzw. LGA). Die beiden Hochgewinnantennen sind als Parabolantennen in "Honeycomb"-Bauweise ausgeführt (Aluminium-Waben zwischen zwei CFK-Platten) und an zwei separaten 4,3 m langen Auslegern montiert, die durch ihre kastenförmige Konstruktion auch als Wellenleiter dienen. Sie weisen einen Durchmesser von 1,3 m auf und können in zwei Achsen um bis zu 100 Grad geschwenkt werden, so dass eine Kommunikation mit einem TDRS-Satelliten in jeder beliebigen Lage möglich ist. Da die HGAs aufgrund ihrer starken Richtwirkung eine hohe Datenrate aufweisen, ist diese Eigenschaft wichtig, um die sehr umfangreichen wissenschaftlichen Bild- und Messdaten in akzeptabler Zeit zu übertragen. Die zu sendenden Signale werden hierbei vom "S-Band Single Access Transmitter" (SSAT) generiert. Dieser Transceiver besitzt eine Sendeleistung von 17,5 Watt und erreicht mittels Phasenmodulation eine Datenrate von bis zu 1 MBit/s. Insgesamt werden pro Woche auf diesem Weg etwa 120 GBit Daten an die Bodenstation gesendet, wobei die Frequenzen 2255,5 MHz und 2287,5 MHz genutzt werden. Als Reserve ist ein zweiter, baugleicher SSAT vorhanden, der nach dem Ausfall des Primär-Transceivers im Jahre 1998 in Betrieb genommen werden musste. Im Dezember 1999 wurde dieser bei der Servicemission SM 3A gegen ein funktionsfähiges Modell ersetzt. Für die Übertragung technischer Daten und für Notfälle stehen zwei Niedriggewinnantennen zur Verfügung. Diese sind unbeweglich und weisen ein sehr breites Antennendiagramm auf. In Kombination ist so auch dann eine Kommunikation mit dem Teleskop möglich, wenn dessen HGAs nicht korrekt ausgerichtet sind. Die geringe Richtwirkung limitiert die Datenrate allerdings stark, so dass nur kurze technische Steuerbefehle und Statusdaten übertragen werden können. Die Frequenzen liegen hier bei 2106,4 und 2287,5 MHz. Zur Signalerzeugung kommen zwei redundante Transceiver zum Einsatz, die als "Multiple Access Transmitter" (MAT) bezeichnet werden. Kommandos werden mit 1 kBit/s empfangen, der Datenversand kann mit bis zu 32 kBit/s erfolgen. Lageregelung. Personal übt mit einem neu zertifizierten FGS dessen späteren Einbau im Weltraum. Da Hubble Objekte mit einer sehr hohen Auflösung beobachten soll, muss das gesamte Teleskop extrem präzise ausgerichtet und nachgeführt werden. Das hierfür zuständige System, genannt "Pointing Control Subsystem" (PCS), kann das Teleskop mit einer Genauigkeit von 0,01 Bogensekunden ausrichten und ein Objekt 24 Stunden lang mit einer Genauigkeit von mindestens 0,007 Bogensekunden nachführen. Würde sich Hubble in San Francisco befinden, so könnte es mit einem schmalen Lichtstrahl eine sich bewegende 10-Cent-Münze über dem etwa 600 km entfernten Los Angeles beleuchten. Um eine solch hochpräzise Ausrichtung zu erreichen, werden insgesamt fünf verschiedene Sensorenkomplexe eingesetzt. Insgesamt vier "Coarse Sun Sensors" (CSSs), von denen sich je zwei an Bug und Heck befinden, ermitteln die Ausrichtung zur Sonne, zwei "Magnetic Sensing Systems" (MSSs) an der Teleskopabdeckung ermitteln über Messungen des Erdmagnetfeldes die Ausrichtung relativ zur Erde und drei Sternsensoren, die als "Fixed Head Star Trackers" (FHSTs) bezeichnet werden, erfassen die Ausrichtung gegenüber je einem bestimmten Leitstern. Die Bewegungen in den drei Raumachsen werden von drei "Rate Gyro Assemblies" (RGAs) erfasst. Jede RGA besitzt zwei Gyroskope ("Rate Sensing Unit," RSU), die die Beschleunigung entlang ihrer jeweiligen Achse erfassen und messen können. Hubble stehen somit insgesamt sechs Gyroskope zur Verfügung, wobei mindestens drei zum Betrieb notwendig sind. Da diese relativ schnell nach dem Start ein hohes Maß an Verschleiß zeigten, wurden bei jeder Servicemission zwei bis sechs von ihnen ausgewechselt. Das eigentliche Kernsystem, das die hohe Präzision des Teleskops ermöglicht, ist der Komplex aus den drei "Fine Guidance Sensors" (FGSs). Sie beziehen ihr Licht von den Randbereichen des Ausleuchtungsbereichs der Hauptoptik und arbeiten somit koaxial und zeitlich parallel zu den wissenschaftlichen Instrumenten. Da im Randbereich die optischen Abbildungsfehler am größten sind, besitzt jeder FGS ein großes Gesichtsfeld, so dass die Wahrscheinlichkeit hoch ist, trotzdem einen passenden Leitstern zu finden. Ist ein solcher gefunden, wird er mittels eines komplexen Systems aus kleinen Elektromotoren, Prismen und Spiegeln präzise erfasst und fokussiert, um dessen Licht auf zwei Interferometer zu lenken, die wiederum aus zwei Photomultipliern besteht. Diese Komplexe erfassen die Phase des einfallenden Lichts, die genau gleich ist, wenn sich der Leitstern exakt in der Mitte des Gesichtsfeldes befindet. Sollte dieser durch Bewegungen des Teleskops in Richtung Bildrand wandern, ergibt sich eine Phasenverschiebung zwischen beiden Interferometern, die ein Computersystem erfasst. Dieses errechnet die nötige Ausrichtungskorrektur und sendet die entsprechenden Befehle an das Lagekontrollsystem. Da der Komplex in der Lage ist, Abweichungen bereits ab 0,0028 arcsec zu detektieren, können die Korrekturmanöver bereits vor dem Eintreten von signifikanten Abweichungen (ab 0,005 arcsec) eingeleitet werden. Allerdings kann ein FGS nur die Abweichung in einer Raumdimension erfassen, womit mindestens zwei von ihnen zur korrekten Ausrichtung benötigt werden, das dritte System misst darüber hinaus die Winkelstellung des Sterns. Jeder FGS ist 1,5 m lang, weist einen Durchmesser von 1 m auf und wiegt 220 kg. Während der Servicemissionen SM 2, SM 3A und SM 4 wurde je ein Sensor durch ein neu kalibriertes und zertifiziertes Modell ersetzt. Zusätzlich wurde während der Mission SM 2 ein System mit dem Namen "Optical Control Electronics Enhancement Kit" (OCE-EK) eingebaut. Es erlaubt kleinere Justierungen und Kalibrierungen der FGSs ohne Eingriff von außen, wodurch deren Genauigkeit ohne neue Servicemissionen bis zu einem gewissen Grad erhalten werden kann. Die von den Steuerungssystemen angeforderten Bewegungen werden primär durch vier "Reaction Wheel Assemblies" (RWAs) umgesetzt. Diese enthalten je zwei Trägheitsräder, die bei einer Änderung ihrer Drehgeschwindigkeit einen Drehimpuls auf das Teleskop übertragen und es so neu ausrichten. Jedes Rad weist einen Durchmesser von 59 cm auf, wiegt 45 kg und kann mit einer Geschwindigkeit von bis zu 3000 Umdrehungen pro Minute rotieren. Insgesamt verfügt Hubble über sechs dieser Räder, wobei nur drei für den Betrieb notwendig sind, der Rest wird als Reserve vorgehalten. Darüber hinaus kommen zur Lageregelung vier Magnettorquer zum Einsatz. Hierbei handelt es sich um Elektromagnete, die mit dem Erdmagnetfeld wechselwirken und so mittels Impulsübertragung die Geschwindigkeit der Trägheitsräder steuern können. Für den Fall, dass die RWAs komplett ausfallen, kann das Teleskop mit diesen Torquern eine Lage erreichen, in der es die Solarmodule auf die Sonne ausrichten kann, so dass weiterhin Strom erzeugt wird. Optisches System. Der Primärspiegel während der Politur Bei dem optischen System (bezeichnet als "Optical Telescope Assembly," kurz OTA) handelt es sich um das eigentliche Herzstück von Hubble, da es das benötigte Licht für die wissenschaftlichen Untersuchungen sammelt und an die einzelnen Instrumente verteilt. Es handelt sich um eine Ritchey-Chrétien-Cassegrain-Konstruktion, die aus nur zwei Spiegeln besteht. Bei dem ersten handelt es sich um den Primärspiegel, der für das Auffangen des Lichts zuständig ist. Er besitzt einen Durchmesser von 2,4 m und ist hyperbolisch geformt, wodurch das auftreffende Licht auf den 30 cm großen Sekundärspiegel geworfen wird. Dieser reflektiert es zu den wissenschaftlichen Instrumenten und den drei FGSs. Eine Besonderheit des Hubble-Teleskops ist, dass alle Instrumente einen festen Teil des gesammelten Lichts erhalten und somit zur gleichen Zeit arbeiten können. Üblich ist sonst das „Umschalten“ zwischen verschiedenen Sensoren, so dass zu einem Zeitpunkt nur eine Messung aktiv sein kann. Die insgesamt 6,4 m lange optische Konstruktion erreicht so eine Brennweite von 57,6 m bei einer Blendenzahl von f/22. Der Hauptspiegel von Hubble wurde von der Firma Perkin-Elmer (inzwischen Teil von Raytheon) gefertigt, wobei man auf eine spezielle Glassorte der Firma Corning zurückgriff, die sich bei Temperaturänderungen kaum verformt und so die Abbildungsleistung bewahrt. Aus ihr wurde eine 3,8 cm dicke Frontfläche hergestellt, die durch eine ebenfalls aus diesem Glas bestehende "Honeycomb"-Struktur mit einer Dicke von 25,4 cm zusätzlich stabilisiert wurde. Durch diese Bauweise konnte das Gewicht auf moderate 818 kg gesenkt werden, ein konventioneller, massiver Glaskörper hätte zum Erreichen derselben Leistung etwa 3600 kg gewogen. Um die absolute Spannungsfreiheit des Körpers zu garantieren, wurde er über drei Monate sehr langsam von seiner Gusstemperatur (1180 °C) auf Zimmertemperatur abgekühlt, bevor er zur Endfertigung zu Perkin-Elmer gebracht wurde. Dort wurde die Frontfläche erst mit diamantbesetzten Schleifmaschinen in eine fast hyperbolische Form gebracht, wobei etwa 1,28 cm Material von der Frontfläche abgeschliffen wurden. Anschließend entfernten erfahrene Optiker mit manuellen Werkzeugen weitere 7,6 mm. Zuletzt wurde ein computergestütztes Laser-System eingesetzt, das das gewünschte Oberflächenprofil mit einer Abweichung von weniger als 31,75 Nanometern formte (hätte der Spiegel die Größe der Erde, wäre eine Abweichung im Verhältnis höchstens 15 cm hoch). Trotz der genauen Fertigung und Qualitätskontrolle kam es zu einer erheblichen Abweichung, die erst im Orbit erkannt wurde und das Teleskop praktisch nutzlos machte (Details oben). Erst der Einbau eines speziellen Korrektursystems mit dem Namen COSTAR bei der Servicemission SM 1 drei Jahre später ermöglichte die geplanten wissenschaftlichen Untersuchungen. Die eigentlichen Reflexionseigenschaften des Spiegels bestimmt eine 100 nm dicke Aluminium-Schicht, die durch zusätzliche 25 nm Magnesiumfluorid vor Umwelteinflüssen geschützt wird. Darüber hinaus erhöht diese Schicht den Reflexionsgrad des Spiegels (auf über 70 %) im Bereich der Lyman-Serie, die für viele wissenschaftliche Untersuchungen von großer Bedeutung ist. Im sichtbaren Spektrum liegt die Reflexivität bei mehr als 85 %. Hinter dem Primärspiegel befindet sich eine spezielle Stützstruktur aus Beryllium, die mehrere Heizelemente und 24 kleine Aktoren enthält. Erstere sorgen dafür, dass der Spiegel bei seiner optimalen Temperatur von etwa 21 °C gehalten wird, wobei mit Hilfe der Aktoren die Form des Spiegels minimal per Steuerungsbefehl vom Boden aus nachjustiert werden kann. Die gesamte Konstruktion wird wiederum von einem 546 kg schweren, hohlen Titan-Stützring mit einer Dicke von 38 cm in Position gehalten. Der Primärspiegel ist so geformt, dass alles gesammelte Licht auf den 30-cm-Sekundärspiegel trifft. Dessen reflektierende Beschichtung besteht ebenfalls aus Magnesiumfluorid und Aluminium, jedoch wurde Glas der Sorte Zerodur für den noch stärker hyperbolisch geformten Spiegelkörper verwendet. Dieser wird von einer hochgradig versteiften Konstruktion aus CFK in der Mitte des Teleskops nahe der Öffnung gehalten. Diese ist zusätzlich mit einer Multilayer Insulation ummantelt worden, um Verformungen durch Temperaturunterschiede weiter zu minimieren. Dies ist sehr wichtig für den ordnungsgemäßen Betrieb des Teleskops, da bereits eine Positionsabweichung von mehr als 0,0025 mm ausreicht, um ernsthafte Abbildungsfehler zu erzeugen. Zusätzlich sind wie beim Primärspiegel sechs Aktoren vorhanden, mit denen die Ausrichtung in geringem Maße korrigiert werden kann. Das Licht wird abschließend durch ein 60 cm großes Loch in der Mitte des Primärspiegels zu den Instrumenten geleitet. Zum Schutz vor Streulicht, das im Wesentlichen von der Erde, dem Mond und der Sonne stammt, sind drei "baffles" vorhanden. Es handelt sich um lang gestreckte zylinderförmige Konstrukte, deren innere Wand mit einer tiefschwarzen, fein und grob geriffelten Struktur versehen ist. Diese absorbiert oder zerstreut Licht, das von Objekten stammt, die sich in der Umgebung des anvisierten Zieles befinden und so die Untersuchungen stören könnte. Vom Zweck her ähnelt es einer Streulichtblende, allerdings befindet sich die Struktur, die bei vielen handelsüblichen Kameras auch oft im Bereich um den Sensor sowie seltener am Frontteil des Objektivs zu finden ist, im Inneren des Teleskops. Der größte "primary baffle" ist am Rand des Primärspiegels angebracht, besteht aus Aluminium und reicht bis zur Öffnung des Teleskops, woraus eine Länge von 4,8 m resultiert. Ein weiterer 3 m langer "central baffle" ist im Zentrum des Spiegels befestigt, um das vom Sekundärspiegel reflektierte Licht abzuschirmen, an dem ebenfalls eine solche Konstruktion montiert wurde. Alle Teile der Optik werden durch eine skelettartige Konstruktion aus CFK verbunden und zusammengehalten. Diese ist 5,3 m lang und wiegt 114 kg. Isolation und Temperaturkontrolle. Ein Blick auf die ringförmige Ausrüstungs-Sektion (untere Bildhälfte). Gut zu erkennen ist die alte FOSR-Folie ohne Schutz in der Mitte und die vier neuen NOBL-Paneele rechts und links. Aufgrund des niedrigen Orbits passiert das Teleskop sehr häufig und lang anhaltend den Erdschatten. Hierdurch entstehen sehr hohe thermische Belastungen, wenn es wieder aus dem Schatten austritt und sofort intensiv von der Sonne beschienen wird. Um diese Belastung zu verringern, ist die gesamte Oberfläche von Hubble mit verschiedenen Isolationsmaterialien umgeben. Mit einem Anteil von 80 % ist die Multilayer Insulation (MLI) der wichtigste Bestandteil. Diese besteht aus 15 aluminiumbedampften Kapton-Lagen und einer abschließenden aufgeklebten Lage aus sogenanntem „Flexible Optical Solar Reflector“ (FOSR). Hierbei handelt es sich um eine aufklebbare Teflon-Folie, die entweder mit Silber oder Aluminium bedampft ist, was Hubble sein typisch glänzendes Aussehen verleiht. Sie wurde auch zum Schutz von Oberflächen verwendet, die nicht noch zusätzlich durch eine MLI-Schicht geschützt wurden, die größten Flächen sind hierbei die vordere Abdeckklappe und die seitlichen Flächen des Teleskops (diese werden weniger intensiv von der Sonne beschienen als der obere und untere Teil). Da die wissenschaftlichen Instrumente unterschiedliche optimale Temperaturbereiche aufweisen, sind auch zwischen den vier axialen Instrumenten-Buchten Isolationsmaterialien vorhanden, um individuelle Temperaturzonen zu schaffen. Obwohl Teflon ein sehr dehnbares und robustes Material ist, zeigten sich bereits bei der Inspektion im Rahmen der ersten Servicemission kleinere Risse im FOSR-Material. Bis zur nächsten Mission SM 2 hatten sich diese innerhalb von nur drei Jahren massiv ausgedehnt, man zählte über 100 Risse mit einer Länge von mehr als 12 cm. Bereits bei der Mission selbst wurden daraufhin außerplanmäßig erste improvisierte Reparaturen mittels mitgeführter FOSR-Klebebänder durchgeführt. Um das Erosionsproblem der FOSR-Folie sicher und endgültig zu lösen, wurde eine neue Abdeckung entwickelt: der "New Outer Blanket Layer" (NOBL). Hierbei handelt es sich um eine Konstruktion aus einem speziell beschichteten Edelstahl-Paneel, das in einen Stahlrahmen eingefügt ist. Dieser Rahmen ist individuell an eine spezifische Bucht der Ausrüstungssektion angepasst, wo ein NOBL-Modul über der alten, beschädigten Isolierung installiert wird, um diese vor weiterer Erosion zu schützen. Darüber hinaus sind einige Module auch mit einem Radiator zur verbesserten Kühlung ausgestattet. Dies war nötig, da mit der fortschreitenden Modernisierung des Teleskops immer leistungsfähigere Elektronik installiert wurde, die mehr Wärme produzierte als ihre Vorgängersysteme, was wiederum den Wärmehaushalt von Hubble beeinträchtigte. Während der Weltraumspaziergänge bei den Missionen SM 3A, SM 3B und SM 4 wurden insgesamt sieben dieser Schutzpaneele angebracht. Neben den passiv wirkenden Isolationsmaterialien verfügt das Teleskop über ein System zur aktiven Regelung der Temperatur. Diese wird intern und extern durch über 200 Sensoren erfasst, wodurch zielgerichtet für jede wichtige Komponente eine optimale thermische Umgebung geschaffen werden kann. Dies geschieht durch den Einsatz von individuell platzierten Heizelementen und Radiatoren. Aktuell. Die folgenden fünf Instrumente sind gegenwärtig installiert und werden bis auf das defekte NICMOS für wissenschaftliche Untersuchungen eingesetzt. Da zurzeit (Stand: Dezember 2013) keine weiteren Servicemissionen mehr geplant sind, werden alle Instrumente bis zum Ende der Mission an Bord verbleiben. Advanced Camera for Surveys (ACS). Dieses Instrument ist für die Beobachtung großer Raumgebiete im sichtbaren, ultravioletten und nahem infraroten Spektrum konstruiert worden. Dies ermöglicht generell ein weites Einsatzgebiet. Insbesondere sollen Galaxien untersucht werden, die bereits kurz nach dem Urknall entstanden sind und somit eine hohe Rotverschiebung aufweisen. Das Instrument wurde bei der Servicemission SM 3B installiert, wobei es die Faint Object Camera aus der Instrumentenbucht Nr. 3 verdrängte. Für Untersuchungen stehen drei verschiedene Subsysteme zur Verfügung: ein hochauflösender Kanal für Detailmessungen ("High Resolution Channel," HRC), ein Kanal für Weitwinkelaufnahmen ("Wide Field Channel," WFC) und ein spezieller Kanal für den ultravioletten Spektralbereich ("Solar Blind Channel," SBC). Darüber hinaus sind 38 verschiedene Filter vorhanden, um gezielte Untersuchungen zu ermöglichen sowie eine spezielle Optik um den Hauptspiegelfehler ohne Hilfe von COSTAR zu korrigieren. Durch Elektronikausfälle im Juli 2006 und Januar 2007 waren der HRC- und der WRC-Kanal bis zur Servicemission SM 4 nicht einsatzfähig. Während der Wartung wurde nur der WRC-Kanal repariert, die Schäden am HRC-Kanal waren zu tiefgreifend, weshalb er nicht mehr benutzbar ist. Der WFC-Kanal verfügt über zwei rückwärtig belichtete CCD-Sensoren auf Silizium-Basis. Jeder besitzt 2048 × 4096 Pixel und ist im Bereich von 350–1100 nm empfindlich, wobei die Quantenausbeute bis 800 nm bei etwa 80 % liegt und anschließend gleichmäßig auf unter 5 % bei 1100 nm absinkt. Bei einer Pixelgröße von 225 µm² und einem Blickfeld von 202 × 202  arcsec erreicht der Kanal eine Auflösung von 0,05 arcsec/Pixel. Der hochauflösende HRC-Kanal weist demgegenüber ein wesentlich engeres Blickfeld von 29 × 26 arcsec auf und erreicht trotz eines kleineren CCD-Sensors mit 1024 × 1024 Pixeln eine etwa doppelt so hohe Auflösung von 0,027 arcsec/Pixel. Darüber hinaus weist er bereits ab 170 nm eine Quantenausbeute von etwa 35 % auf, die ab 400 nm auf bis zu 65 % ansteigt und wie beim WFC-Kanal ab etwa 700 nm kontinuierlich bis 1100 nm absinkt. Beide Sensoren sind sonst identisch aufgebaut und arbeiten bei einer Temperatur von −80 °C. Eine Besonderheit des HRC-Kanals ist die Fähigkeit zur Beobachtung von schwach leuchtenden Objekten in der Nähe von starken Lichtquellen. Hierzu wird eine spezielle Maske (Koronograf) in den Strahlengang eingeführt, so dass Licht von der hellen Quelle blockiert wird. Für Beobachtungen im ultravioletten Spektrum steht der SBC-Kanal zur Verfügung, der die optische Konstruktion des HRC-Kanals mitbenutzt. Bei dem Caesiumiodid-basierten Sensor handelt es sich um ein Reserve-Teil für das STIS-Instrument. Er besitzt 1024 × 1024 Pixel mit einer Größe von je 25 µm², die im Bereich von 115–170 nm eine Quantenausbeute von bis zu 20 % erreichen. Bei einem Blickfeld von 35 × 31 arcsec erreicht der Kanal so eine Auflösung von 0,032 arcsec/Pixel. Wide Field Camera 3 (WFC3). Die Wide Field Camera 3 (WFC3) ermöglicht die Beobachtung und Abbildung eines ausgedehnten Raumbereiches bei gleichzeitig hoher Auflösung und großer spektraler Bandbreite (200–1700 nm). Im sichtbaren und infraroten Bereich liegt ihre Leistung nur etwas unter dem Niveau der Advanced Camera for Surveys, so dass bei deren Ausfall die WFC3 als Alternative genutzt werden kann. Im ultravioletten und sichtbaren Bereich hingegen ist sie allen anderen Instrumenten in den Bereichen Blickfeld und Bandbreite deutlich überlegen, was sie für großräumige Untersuchungen in diesem Spektralbereich prädestiniert. Die Beobachtungsziele sind dementsprechend vielfältig und reichen von der Untersuchung nah gelegener Sternentstehungsregionen im ultravioletten Bereich bis hin zu extrem weit entfernten Galaxien mittels Infrarot. Installiert wurde das Instrument während der Servicemission SM 4 in der axialen Instrumentenbucht Nr. 5, wo sich vorher die Planetary Camera 2 befand. Die WFC3 besitzt zwei separate Kanäle für die Abbildung im nahen infraroten (IR) und ultravioletten/sichtbaren (UVIS) Bereich. Bei letzterem werden zwei kombinierte 2051 × 4096 Pixel große Silizium-basierte CCD-Sensoren eingesetzt, die durch eine vierstufige Peltier-Kühlung auf einer Temperatur von −83 °C gehalten werden. Sie erreichen eine Quanteneffizenz von 50 bis 70 %, wobei das Maximum bei etwa 600 nm liegt. Durch die Kombination von 225 µm² großen Pixeln mit einem Sichtfeld von 162 × 162 arcsec erreicht dieser Kanal im Spektralbereich von 200 bis 1000 nm eine Auflösung von etwa 0,04 arcsec/Pixel. Der quadratische HgCdTe-CMOS-Sensor des nah-infraroten Kanals ist demgegenüber nur 1 Megapixel groß und liefert trotz seines kleineren Blickfeldes von 136 × 123 arcsec nur eine Auflösung von 0,13 arcsec/Pixel. Dafür ist seine Quantenausbeute von fast durchgängigen 80 % über das gesamte Spektrum (900–1700 nm) deutlich besser. Da Infrarot-Detektoren besonders ungünstig auf Wärme reagieren, ist dieser außerdem mit einer stärkeren sechsstufigen Kühlung ausgestattet, die eine Betriebstemperatur von −128 °C ermöglicht. Beide Kanäle verfügen darüber hinaus über eine Vielzahl von Filtern (62 Stück für UVIS und 16 für IR), um spezifische Eigenschaften der beobachteten Region untersuchen zu können. Besonders interessant sind hierbei drei Gitterprismen (eines für UVIS, zwei für IR), die es beiden Kanälen ermöglicht klassische Spektren für ein in der Mitte des Bild liegendes Objekt anzufertigen. Diese sind zwar nur gering aufgelöst (70–210), reichen aber kombiniert über das Spektrum von 190–450 nm und 800–1700 nm. Cosmic Origins Spectrograph (COS). COS kurz vor der Verladung in das Space Shuttle Bei dem COS handelt es sich im Wesentlichen um ein Spektrometer, es liefert also gewöhnlich keine Bilder, sondern Messwerte zu einem einzelnen anvisierten Punkt. Auf diesem Wege sollen die Struktur des Universums sowie die Evolution von Galaxien, Sternen und Planeten erforscht werden. Der Messbereich (90 bis 320 nm) überschneidet sich mit dem des STIS-Instruments, wobei es bei Punktzielen um etwa das Zehnfache empfindlicher ist. Für Untersuchungen kann zwischen einem fern-ultravioletten ("far-ultraviolet," FUV) und einem nah-ultravioletten ("near-ultraviolet," NUV) Kanal gewählt werden. Beiden Sensoren wird eines von insgesamt sieben speziellen optischen Gittern vorgeschaltet, das das einfallende Licht aufspaltet und gemäß seiner Wellenlänge unterschiedlich stark ablenkt. Anteile mit einer geringen Wellenlänge treffen den nachgelagerten CCD-Sensor eher mittig, während langwellige Komponenten eher im Randbereich auftreffen. Aus Position und Ladung der Pixel kann so ein Intensitätsspektrum in Abhängigkeit von der Wellenlänge angefertigt werden, das wiederum Rückschlüsse auf den chemischen Aufbau des beobachteten Objekts erlaubt. Das Instrument wurde während der Servicemission SM 4 eingebaut und verdrängte das COSTAR-System, da zu diesem Zeitpunkt alle anderen Instrumente mit internen Korrekturmechanismen ausgestattet waren und es nicht mehr benötigt wurde. Im FUV-Kanal kommen zur Messung zwei nebeneinander liegende CCD-Sensoren auf Caesiumiodid-Basis mit kombinierten 16.384 × 1024 Pixeln zum Einsatz. Es wird eine Quantenausbeute von bis zu 26 % bei 134 nm erreicht, die spektrale Auflösung und Bandbreite des Spektrums wird hauptsächlich durch das verwendete optische Gitter bestimmt. Zwei Stück sind auf eine hohe Auflösung (etwa 11.500 bis 21.000 im Bereich 90 bis 178 nm) optimiert, während das Breitbandgitter zwar auf einem großen Wellenlängenbereich von 90 bis 215 nm arbeiten kann, jedoch nur über eine geringe Auflösung von 1.500 bis 4.000 verfügt. Die Situation ist im NUV-Kanal ähnlich, hier gibt es drei schmalbandige, aber hochauflösende Gitter (16.000 bis 24.000 bei einer Bandbreite von etwa 40 nm) und ein Breitbandgitter, das eine Auflösung von lediglich 2.100 bis 3.900 im Bereich 165 bis 320 nm erreicht. Allerdings wird in diesem Kanal ein anderer CCD-Chip verwendet. Er basiert auf einer Caesium-Tellur Verbindung und besitzt 1024 × 1024 Pixel, die eine Quantenausbeute von bis zu 10 % bei 220 nm erreichen. Der quadratische Aufbau ermöglicht auch einen abbildenden Messmodus für diesen Kanal, mit dem bei einem Blickfeld von 2 arcsec eine Auflösung von 0,0235 arcsec/Pixel erreicht wird. Da es bereits ab einem Blickwinkel von 0,5 arcsec abseits des Bildzentrums zu starker Vignettierung kommt, können nur kleine und kompakte Objekte zuverlässig beobachtet werden. Space Telescope Imaging Spectrograph (STIS). Der CCD-Sensor (~ 9 cm²) des STIS Bei dem STIS-Instrument handelt es sich um einen Spektrografen, der einen weiten Bereich von Ultraviolett- bis zur Infrarotstrahlung (115 bis 1030 nm) abdeckt. Im Gegensatz zum COS-Instrument, das auf Einzelziele spezialisiert ist, können mittels STIS an bis zu 500 Punkten einer Aufnahme Spektren erstellt werden, was die schnelle Untersuchung von ausgedehnten Objekten ermöglicht. Allerdings sind die Messergebnisse weniger genau als beim COS-Instrument, sind aber besonders für die Suche und Analyse von schwarzen Löchern und deren Jets geeignet. Insgesamt stehen für Beobachtungen drei Kanäle zur Verfügung: der CCD-Kanal mit einer großen Bandbreite (ultraviolett bis infrarot) sowie der NUV- und FUV- für das nahe und ferne ultraviolette Spektrum. Die Bildung der Spektren geschieht mittels optischen Gittern analog zum COS-Instrument. Installiert wurde das Instrument während der Servicemission SM 2 in der Instrumentenbucht Nr. 1, wo es den Goddard High Resolution Spectrograph ersetzte. Zwischen August 2004 und Mai 2009 war STIS aufgrund eines Ausfalls in der internen Stromversorgung nicht betriebsbereit. Seit der Installation einer neuen Leiterplatte während der Servicemission SM 4 arbeitet das Instrument wieder ohne Störungen. Zur Bildung von Spektren verfügt das STIS über zwei ähnlich aufgebaute MAMA-Sensoren. Sie verfügen über je 1024 × 1024 Pixel mit einer Größe von 625 µm². Durch ein Gesichtsfeld von 25 × 25 arcsec ergibt sich ein Auflösungsvermögen von je 0,025 arcsec/Pixel. Der Unterschied der beiden Sensoren liegt in ihrer spektralen Bandbreite und Quanteneffizienz. Der CsI-Sensor im fern-ultravioletten (FUV) Kanal ist im Bereich von 115 bis 170 nm empfindlich und weist eine Quanteneffizenz von bis zu 24 % auf, der CsTe-Sensor des fern-ultravioletten (FUV) Kanals arbeitet bei 160 bis 310 nm bei einer Effizienz von nur 10 %. Für die Bildung von Spektren steht eine große Zahl von optischen Gittern zur Verfügung. Diese erreichen ein Auflösungsvermögen von 500 bis 17.400 bei einer Bandbreite von etwa 60 oder 150 nm. Mittels Echellegittern und spezieller Datenverarbeitungstechniken können bei ähnlicher Bandbreite Auflösungswerte von über 200.000 erreicht werden. Neben den beiden MAMA-Sensoren ist ein CCD-Chip für Messungen verfügbar. Dieser ist ebenfalls ein Megapixel groß, sein Spektrum ist allerdings mit 164–1100 nm wesentlich breiter und bietet ein breiteres Blickfeld (52 × 52 arcsec). Die Quanteneffizienz liegt darüber hinaus fast durchgängig bei über 20 %, wobei sie mit 67 % bei 600 nm ihr Maximum erreicht. Die insgesamt sechs optischen Gitter ermöglichen ein Auflösungsvermögen von 530 bis 10630 bei einer Bandbreite von 140 bis 500 nm. Near Infrared Camera and Multi-Object Spectrometer (NICMOS). Aufriss des NICMOS. Das große Dewargefäß ist hier in der Mitte des Instruments gut zu erkennen. Das NICMOS ist ein verhältnismäßig stark spezialisiertes Instrument, was vor allem durch seine Fokussierung auf den nahen infraroten Spektralbereich (800–2500 nm) begründet ist. Im Gegenzug können alle drei vorhandenen Messkanäle (mit leicht unterschiedlichen Blickbereichen) gleichzeitig verwendet werden, ein internes Umschalten für unterschiedliche Untersuchungsmethoden ist somit nicht nötig. Eine weitere einmalige Besonderheit ist das aufwändige Kühlsystem. Für die Beobachtung des nahen Infrarotspektrums ist eine möglichst niedrige Temperatur der Sensoren von entscheidender Bedeutung, da ihr eigenes thermisches Rauschen sonst fast alle vom Hauptspiegel gesammelten Signale überlagern würde. Daher sind diese in einem aufwändig, vierfach isolierten Dewargefäß untergebracht, das gut die Hälfte des verfügbaren Volumens innerhalb des Instruments in Anspruch nimmt. Die Kühlung erfolgte erst mittels eines Vorrates von 109 kg festem Stickstoff, während der Servicemission SM 3B wurde ein geschlossenes Kühlsystem installiert, da der Stickstoff nach beinahe zwei Jahren Betrieb aufgebraucht war. Nach gut sechs Jahren Betrieb konnte dieses nach einem Software-Update nicht mehr zuverlässig gestartet werden, so dass der Betrieb des Instruments aufgrund zu hoher Sensoren-Temperatur seit Ende 2008 ruht. Vor dem Ausfall war das Instrument aufgrund seines sehr weit in das Infrarote reichende Spektrum besonders gut für die Beobachtung von Objekten innerhalb oder hinter dichten Staub- und Gaswolken geeignet, da diese kurzwellige Strahlung im sichtbaren und ultravioletten Bereich im Gegensatz zum Infrarotlicht sehr stark absorbieren. Das NICMOS wurde bereits bei der Servicemission SM 2 in die Instrumentenbucht Nr. 2 eingebaut, wo es den Faint Object Spectrograph ablöste. Querschnitt durch das Dewar. Im Zentrum ist die CFK-Konstruktion mit den Sensoren zu sehen. Insgesamt verfügt NICMOS über 32 Filter, 3 Gitterprismen und 3 Polarisations-Filter, um spezifische Untersuchungen zu ermöglichen. Alle diese Komponenten sind auf einer CFK-Konstruktion im innersten des Dewargefäßes montiert. Dieser Komplex befand sich zusammen mit einem Vorrat gefrorenen Stickstoffs in einer Hülle, die von dessen kalten Gasen auf einer Temperatur von etwa 60 Kelvin gehalten wurde. Um die Isolierung weiter zu verbessern ist dieser Komplex von zwei peltiergekühlten Hüllen umgeben, bevor das Dewar durch einen äußeren Druckbehälter abgeschlossen wird. Der Vorrat des gefrorenen Stickstoffs sollte ursprünglich für etwa viereinhalb Jahre eine ausreichende Kühlung der Sensoren gewährleisten. Jedoch kam es bei dessen Schmelzprozess zu Eiskristallbildung und zu einer unerwartet starken Verformung, so dass die tiefgekühlte CFK-Trägerkonstruktion mit der innersten Hülle des Dewars in Kontakt kam. Dies führte zu einem deutlich erhöhten Wärmefluss, was zum einen zu noch stärkeren Verformungen führte und wiederum einen erhöhten Bedarf an Stickstoffkühlung bewirkte. Das Resultat war die Halbierung der Missionszeit des Instruments sowie eine starke Defokussierung der drei Messkanäle durch die entstandenen Verformungen. Letzteres konnte zumindest für NIC 3 durch ein internes Kompensierungssystem auf ein akzeptables Maß gesenkt werden. Um alle Kanäle des NICMOS wieder einsatzfähig zu machen, wurde bei der Servicemission SM 3B ein geschlossenes Kühlsystem im Heckbereich von Hubble installiert. Dieses verfügt über einen leistungsstarken Klimakompressor, der mit Neon als Kühlmittel arbeitet. Die anfallende Wärme wird über eine Pumpe zu einem Radiator an der Außenstruktur des Teleskops geleitet, wo sie in den offenen Weltraum abgestrahlt wird. Das komprimierte Neon wird hingegen in einem Wärmetauscher entspannt, wodurch es über den Effekt der Verdampfungswärme einen weiteren Neongas-Kreislauf kühlt. Dieser führt über ein spezielles Interface, das ursprünglich zur kontinuierlichen Kühlung des Instruments während Bodentests vorgesehen war, in das innerste des Dewars, wodurch letztendlich die Sensoren gekühlt werden. Der Komplex wird nur periodisch betrieben, da er mit 375 Watt elektrischer Leistung viel Energie benötigt. Da das Dewar trotz Verformung noch sehr gut isoliert ist, hält die Kühlung lange vor, so dass das System nur selten aktiviert werden muss, wobei die Sensoren-Temperatur bei stabilen 77 Kelvin gehalten wird. Nach einer Beobachtungs- und Kühlpause im September 2008 konnte das Kühlsystem überraschenderweise nicht mehr in Betrieb genommen werden. Zwar funktionierte der Kühlkompressor, allerdings bedurfte der geschlossene Neongas-Kreislauf des Dewars einer zusätzlichen Kühlmittelpumpe, die nicht mehr startete. Als Grund nimmt man eine Ansammlung von Wassereis in deren Gehäuse an. Um dieses wieder zu verflüssigen, wurde das Instrument mehrere Wochen lang nicht gekühlt. Am 16. Dezember zeigte diese Maßnahme Erfolg, da man die Pumpe zunächst wieder in Betrieb nehmen konnte. Allerdings fiel sie bereits vier Tage später wieder aus. Weitere Versuche im Jahr 2009 blieben ebenfalls weitgehend erfolglos, weswegen man sich entschied, das Instrument bis auf unbestimmte Zeit komplett stillzulegen. Historisch. Die folgenden Instrumente wurden im Laufe der Servicemissionen ausgebaut und mit Hilfe des Space Shuttles zur Erde zurückgebracht. Die meisten sind heute öffentlich ausgestellt. Corrective Optics Space Telescope Axial Replacement (COSTAR). Aufbau der optischen und mechanischen Systeme von COSTAR Bei COSTAR handelt es sich nicht um ein wissenschaftliches System im eigentlichen Sinne, sondern um ein Korrektursystem zur Neutralisierung des Hauptspiegelfehlers. Hierzu sind kleine Korrekturspiegel entwickelt worden, die ebenfalls nicht perfekt geformt sind und das auftreffende Licht ungleichmäßig reflektieren. Allerdings sind die Abweichungen so berechnet worden, dass sie exakt invers zu denen des Hauptspiegels sind. Somit ist das Licht, nachdem es von zwei ungleichmäßigen Spiegeln reflektiert worden ist, wieder in der korrekten Form und kann für wissenschaftliche Untersuchungen verwendet werden. Vom Prinzip her ähnelt das System einer herkömmlichen Brille, allerdings werden hier Spiegel statt Linsen eingesetzt. Über drei mechanische Ausleger wurden diese nach dem Einbau während der Servicemission SM 1 vor den Eintrittsöffnungen folgender Instrumente in Position gebracht: Faint Object Camera, Faint Object Spectrograph und Goddard High Resolution Spectrograph. Da diese Instrumente über mehr als einen Messkanal verfügen, mussten insgesamt zehn Korrekturspiegel eingesetzt werden, die einen Durchmesser von etwa 1,8 bis 2,4 cm aufweisen. Mit der Servicemission SM 4 wurde COSTAR dann wieder ausgebaut, da inzwischen alle neuen Instrumente über eigene Korrekturmechanismen verfügten. Es ist heute im National Air and Space Museum in Washington öffentlich ausgestellt. Die gesamte Entwicklung, Produktion und Verifizierung von COSTAR dauerte lediglich 26 Monate, wobei man in vielen Bereichen eine einzelne Aufgabe zwei komplett getrennte Teams mit unterschiedlichen Herangehensweisen zuteilte, um weitere Fehler wie bei der Konstruktion des Hauptspiegels auszuschließen. So wurde die Vermessung von dessen Fehler zum einen durch die Untersuchung der noch komplett erhaltenen Produktionsanlage ermittelt, zum anderen durch Berechnungen anhand von verzerrten Bildern, die Hubble übertrug. Beide Gruppen kamen zu praktisch identischen Messergebnissen, womit dieser Schritt mit hoher Sicherheit korrekt ausgeführt wurde. Die anschließend produzierten Korrekturspiegel wurden ebenfalls durch zwei unabhängige Teams auf ihre Fehlerfreiheit kontrolliert. Hierzu wurde COSTAR zuerst in ein spezielles Testsystem mit dem Namen "COSTAR Alignment System" (CAS) eingebaut, das diese Spiegel durch spezielle Tests überprüfte. Um auszuschließen, dass Fehler im CAS zu falschen Ergebnissen führen, wurde der "Hubble Opto-Mechanical Simulator" (HOMS) entwickelt. Dieser simulierte die Abweichungen des Hauptspiegels, so dass die Korrekturspiegel gemäß ihres ausgegebenen Bildes verifiziert werden konnten. Auch das HOMS-System wurde von zwei unabhängigen Gruppen getestet, wobei die ESA sich durch die Bereitstellung des Ingenieurmodells der Faint Object Camera ebenfalls einbrachte. Ein finaler Abgleich der Testsysteme und COSTAR mit Bildern von Hubble zeigten abschließend die Korrektheit der Korrekturspiegel. Faint Object Camera (FOC). Bei dieser Kamera handelte es sich um das Teleobjektiv von Hubble, da es die höchsten Bildauflösungen aller Instrumente erreichte. Dabei deckte es einen Großteil des ultravioletten und sichtbaren Spektrums mit hoher Empfindlichkeit ab. Im Gegenzug musste allerdings das Sichtfeld stark verkleinert werden, so dass eine Aufnahme nur einen kleinen Raumbereich abbilden kann. Dieses Profil macht das Instrument besonders für die Untersuchung kleiner Objekte und feiner Strukturen interessant. Das Sichtfeld und die damit verbundene Auflösung lassen sich über die Wahl zwischen zwei separaten Messkanälen beeinflussen, wobei die Detektoren baugleich sind. Aufgrund der guten Leistungswerte blieb die FOC sehr lange an Bord von Hubble und wurde erst bei der vorletzten Servicemission SM 3B gegen die Advanced Camera for Surveys ausgetauscht. Das Instrument war ein wesentlicher Beitrag der ESA zu dem Projekt und wurde von Dornier gebaut. Nach dem Ausbau und Rücktransport wurde es daher dem Dornier-Museum in Friedrichshafen übergeben, wo es heute öffentlich ausgestellt wird. Beide Messkanäle sind optisch so konstruiert, dass sie das Bild vom Hauptspiegel um das Doppelte beziehungsweise das Vierfache vergrößern. Diese Brennweitenverlängerung sorgt für eine Reduktion der Blendenzahl, die daher als Benennung der beiden Kanäle dient: F/48 für doppelte Vergrößerung und F/96 für vierfache Vergrößerung (Hauptspiegel-Blendenzahl: f/24). Mit der Installation von COSTAR wurde die optische Formel deutlich verändert, die Blendenzahlen belaufen sich daher real auf f/75,5 und f/151. Die Sichtfelder variieren dementsprechend um das Doppelte mit 44 × 44 bzw 22 × 22 arcsec. Die Detektoren hingegen sind in beiden Kanälen baugleich und sind für ein Spektrum von 115–650 nm empfindlich. Um auch schwache Signale registrieren zu können, verfügt die FOC über drei hintereinander geschaltete Bildverstärker, die den ursprünglichen durch das Magnesiumfluorid-Fenster erzeugten Elektronenstrom um etwa das 10.000-fache erhöhen. Anschließend werden die Elektronen durch ein Phosphor-Fenster wieder in Photonen umgewandelt, die durch ein optisches Linsensystem auf eine Platte mit Silizium-Dioden gelenkt werden. Diese werden abschließend durch einen Elektronenstrahl ausgelesen und so interpretiert, dass am Ende ein 512 × 512 Pixel großes Bild gespeichert werden kann. Im F/96-Kanal können so Auflösungen von bis zu 0,014 arcsec/Pixel erreicht werden. Faint Object Spectrograph (FOS). Blick in das Innere des FOS Dieser hochempfindlichen Spektrograf wurde für die chemische Untersuchung von weit entfernten und leuchtschwachen Objekten eingesetzt. Als besonders hilfreich erwies sich das Instrument bei der Erforschung von schwarzen Löchern, da sich mit ihm die Geschwindigkeiten und Bewegungen der umgebenden Gaswolken exakt messen ließen, was Rückschlüsse auf das schwarze Loch selbst ermöglichte. Für Untersuchungen stehen zwei unabhängige Messkanäle zur Verfügung, die sich nur bezüglich ihrer abgedeckten Spektralbereiche unterscheiden. Kombiniert können beide einen Bereich von 160 bis 850 nm erfassen (fernes Ultraviolett bis nahes Infrarot). Das Instrument wurde bei der Servicemission SM2 von NICMOS verdrängt und wird heute öffentlich im National Air and Space Museum in Washington ausgestellt. Die beiden Detektoren werden gemäß ihren Spektralbereichen als blauer und roter Kanal bezeichnet. Beide verfügen über Zeilensensoren mit je 512 Silizium-Photodioden, die von unterschiedlichen Photokathoden mit Elektronen „beschossen“ werden. Im blauen Kanal wird als Kathodenmaterial Na2-K-Sb eingesetzt, im roten wurde noch zusätzlich Caesium zugesetzt (ergibt Na2-K-Sb-Cs). Durch diese Varianz wurde die spektrale Empfindlichkeit deutlich verändert: Der blaue Kanal ist im Bereich 130 bis 400 nm hochempfindlich (Quanteneffizienz 13–18 %) und verliert bei etwa 550 nm Effizienz, während der rote Kanal im Bereich 180 bis 450 nm am besten arbeitet (23–28 % Effizienz) und erst bei 850 nm sein oberes Limit aufweist. Unabhängig davon erreichen beide Detektoren eine Auflösung von bis zu 1300 bei einem Blickfeld von 3,71 x 3,66 arcsec (nach der Installation von COSTAR, davor 4,3 × 4,3 arcsec). Durch den Hauptspiegelfehler und Fehler in der Konstruktion des Instruments (ein Spiegel war verschmutzt und die Abschirmung der Photokathoden war unzureichend) waren erste Beobachtungen nur mit deutlichen Einschränkungen möglich. Erst durch die Installation von COSTAR und einer komplexen Neukalibrierung konnten die Fähigkeiten des Instruments nahezu voll genutzt werden. High Speed Photometer (HSP). Dieses Instrument ist auf die Untersuchung von veränderlichen Sternen, insbesondere Cepheiden, spezialisiert und ist daher verhältnismäßig einfach (keine beweglichen Teile) aufgebaut. Mittels fünf separaten Detektoren kann die Helligkeit und Polarisation bis zu 100.000-mal pro Sekunde gemessen werden, womit auch extrem hochfrequente Schwankungen erfasst werden können. Die infrage kommenden Sterne befinden sich hauptsächlich im fernen UV-Spektrum, es können jedoch bis in den nahen Infrarotbereich Messungen durchgeführt werden. Da das HSP durch seine starke Spezialisierung für viele Forschungsziele der Mission keinen nennenswerten Beitrag liefern konnte, wurde es gleich bei der ersten Servicemission ausgebaut, um Platz für das COSTAR-Korrektursystem zu schaffen. Es ist seit 2007 im "Space Place" der University of Wisconsin–Madison öffentlich ausgestellt. Zur Helligkeitsmessung dienen vier der insgesamt fünf Detektoren von denen zwei aus Cs-Te-basierten Photozellen und Magnesiumfluorid Photokathoden bestehen und weitere zwei aus bikali-Photozellen (ähnlich denen aus dem FOS) mit Quarzglas Kathoden. Erstere decken einen Spektralbereich von 120–300 nm ab, letztere den Bereich 160–700 nm. Drei der Detektoren werden, ebenso wie ein GaAs-Photomultiplier, zur Photometrie eingesetzt, der verbliebene dient der Polarimetrie, wobei die Quanteneffizienz mit nur 0,1–3 % außerordentlich niedrig ausfällt. Die Öffnung des optischen Systems lässt sich auf bis zu einer Winkelsekunde reduzieren um die Messung möglichst genau zu fokussieren, indem der Hintergrund und benachbarte Objekte ausgeblendet werden. Um die zu messende Wellenlänge genau zu begrenzen stehen darüber hinaus 23 Filter zur Verfügung, deren Filterwirkung dem Zweck entsprechend sehr stark ausfällt. Wide Field/Planetary Camera (WFPC). Dieses Kamerasystem wurde zur multispektralen Erfassung von verhältnismäßig großen Raumgebieten entworfen und ist daher für eine Vielzahl von wissenschaftlichen Untersuchungen geeignet. Besonders nützlich ist hierbei das breite abgedeckte Spektrum vom fernen UV- bis in den nahen Infrarotbereich. Darüber hinaus sind auch einige Filter und optische Gitter vorhanden, mit denen im begrenzten Umfang spektrographische Messungen durchgeführt werden können. Das Instrument besitzt zwei Messkanäle: den Weitwinkel-Kanal "(Wide Field)," der auf Kosten des Auflösungsvermögen ein besonders großes Blickfeld besitzt, und den Planeten-Kanal "(Planetary Camera)," der ein kleineres Blickfeld aufweist, dafür aber die Auflösung des Hauptspiegels voll nutzen kann. Die WFPC war zum Start in der einzigen axialen Instrumentenbucht (Nr. 5) untergebracht, wurde jedoch bereits bei der zweiten Servicemission gegen ein verbessertes Modell ausgetauscht (WFPC2). Nach der Rückkehr wurde das Instrument zerlegt, um Strukturteile für die dritte Kamerageneration (WFPC3) wiederverwerten zu können. Beide Kanäle verfügen über je vier rückseitenbelichtete CCD-Sensoren mit jeweils 800 × 800 Pixeln. Diese sind 15 µm groß und verwenden Silizium als Halbleitermaterial, wobei zusätzlich eine vorgelagerte Schicht aus Coronen vorhanden ist, die UV-Licht in sichtbare Photonen umwandelt und so detektierbar macht. Das messbare Spektrum reicht von ca. 130 bis 1400 nm, die Quanteneffizenz liegt nahe dieser Grenzen generell bei 5 bis 10 Prozent, steigt im Bereich 430 bis 800 nm aber konstant und erreicht bei 600 nm das Maximum von 20 Prozent. Um den Dunkelstrom zu reduzieren wurde ein zweistufiges Kühlsystem integriert. Der Sensor wird hierbei mittels einer Silberplatte und einem Peltier-Element gekühlt, der die Wärme anschließend über ein mit Ammoniak gefülltes Wärmerohr an einen außen montierten Radiator weitergibt, wo diese in den Weltraum abgestrahlt wird. Auf diesem Weg kann ein Sensor auf bis zu −115 °C heruntergekühlt werden. Aufgrund der verschiedenen Aufgabenbereiche der Kanäle weisen diese eine unterschiedliche optische Konfiguration auf. Während der Weitwinkel-Kanal ein Blickfeld von 2,6 × 2,5 Bogenminuten und eine Blendenöffnung von f/12,9 aufweist, liegen diese Werte beim Weitwinkel-Kanal bei 66 Bogensekunden × 66 Bogensekunden und f/30. Somit wird eine Auflösung von 0,1 und 0,043 Bogensekunden pro Pixel erreicht. Um besonders helle Objekte ohne Überlastungserscheinungen beobachten zu können, sind mehrere lichtschwächende Filter vorhanden, die auf einem Rad montiert sind. Darüber hinaus können mit Hilfe von insgesamt 40 optischen Gittern und Gitterprismen auch Spektren erzeugt werden. Wide Field/Planetary Camera 2 (WFPC2). Bei der WFPC2 handelt es sich um eine verbesserte Version der WFPC, die sie bei der Servicemission SM 3B in der einzigen radialen Instrumentenbucht Nr. 1 ersetzte. Die Forschungsziele des Instruments blieben unverändert: Die Untersuchung verhältnismäßig großer Raumgebiete mit guter Auflösung und einem breiten Spektrum. Im Gegenzug ist die Kamera im Bereich der extremen UV- und Infrarotstrahlung verhältnismäßig wenig empfindlich und erreicht keine Spitzenwerte bei der Auflösung. Die wichtigste Verbesserung gegenüber der Vorgänger-Kamera ist ein integriertes Korrektursystem zur Kompensierung des Hauptspiegelfehlers. Somit ist die WFPC2 nicht mehr von COSTAR abhängig, womit man dessen Ausbau einen Schritt näher kam. Aufgrund eines knappen Budgets konnte die Konstruktion nicht umfassend verbessert werden, die Detektoren basieren auf dem gleichen Design, wurden aber anders gefertigt. Wesentliche Leistungssteigerungen gab es nur in den Bereichen Dunkelrauschen (acht Mal geringer), Ausleserauschen (etwa zwei Mal geringer) und Dynamikumfang (gut doppelt so groß). Um Kosten zu sparen, wurden nur vier statt vorher acht CCDs hergestellt, was den Aufnahmebereich halbierte. Außerdem sind die Sensoren nicht mehr rückseitig beleuchtet, was das Signal-Rausch-Verhältnis etwas verschlechtert und das Auflösungsvermögen reduzierte. Die sonstigen Parameter sind im Vergleich zur WFPC im Wesentlichen identisch. Goddard High Resolution Spectrograph (GHRS). Der GHRS während des Ausbaus Bei diesem Instrument handelt es sich um den ersten Spektrografen des Teleskops. Es arbeitet ausschließlich im ultravioletten Bereich von 115 bis 320 nm da der Messbereich durch das COSTAR-Korrektursystem deutlich begrenzt worden ist. Die Spektren werden mit optischen (Echelle)Gittern erzeugt und anschließend von zwei Detektoren mit einer Auflösungsleistung von bis zu 80.000 vermessen. Das Instrument kann auch Bilder im UV-Bereich anfertigen, allerdings ist es nicht für diese Aufgabe optimiert, so dass die Leistungswerte eher gering ausfallen. Das GHRS wurde bei der Servicemission 2 ausgebaut und vom STIS ersetzt, das über verbesserte Leistungswerte verfügt. Als Detektoren dienen zwei Digicon-Detektoren mit unterschiedlichen Materialien. Beim ersten als D1 bezeichneten Modell wird eine Caesiumiodid-Photokathode in Kombination mit einem Lithiumfluorid-Fenster verwendet, beim D2-Detektor kommt eine Caesiumfluorid-Kathode und ein Magnesiumfluorid-Fenster zum Einsatz. Hierdurch ergibt sich ein Messbereich von 110–180 nm (D1) und 170–320 nm (D2). Zur Auszählung der an den Fenstern erzeugten und anschließend beschleunigten Elektronen dienen bei beiden Digicons je 500 Messdioden, wobei weitere 12 Dioden zu Kalibrierungszwecken vorhanden sind. Für Bildung von Spektren stehen fünf optische Gitter und zwei Echellegitter zur Verfügung. Erstere besitzen eine Bandbreite von 800 bis 1300 nm und erreichen eine Auflösung von 15.000 bis 38.000. Die Echellegitter decken zwar eine größere Bandbreite (bis zu 1500 nm) mit höherer Auflösung (bis zu 80.000) ab, allerdings ist die Signalstärke sehr gering, so dass nur sehr leuchtstarke Objekte effektiv beobachtet werden können oder sehr lange Belichtungszeiten nötig sind. Mit Hilfe der vier Fokusdioden am Rand der Digicons lassen sich rudimentär auch Bilder erstellen. Diese sind mit 0,103 arcsec/Pixel zwar hochauflösend, allerdings ist das Sichtfeld mit 1,74 × 1,74 arcsec extrem klein, was den wissenschaftlichen Nutzen auf sehr spezielle Untersuchungen und Zielobjekte beschränkt. Aufgaben und Ergebnisse. Mehrere kollidierende Galaxien, aufgenommen vom Hubble-Weltraumteleskop Der Betrieb eines Teleskops außerhalb der Erdatmosphäre hat große Vorteile, da deren Filterwirkung auf bestimmte Wellenlängen im elektromagnetischen Spektrum, zum Beispiel im ultravioletten und im infraroten Bereich, entfällt. Es treten auch keine Störungen durch Luftbewegungen auf (Szintillation), die bei terrestrischen Teleskopen nur mit großem Aufwand ausgeglichen werden können. Sichtbarkeit von der Erde. Wie andere große Erdsatelliten auch, ist das Hubble-Weltraumteleskop auch von der Erde aus mit bloßem Auge als sternartiges Objekt, das von West nach Ost zieht, sichtbar. Wegen der geringen Neigung der Umlaufbahn und der moderaten Bahnhöhe ist dies aber nur in Gebieten, die nicht mehr als etwa 45 Grad nördlich oder südlich des Äquators liegen, möglich. Somit ist es beispielsweise in Deutschland, Österreich und der Schweiz nicht sichtbar, da es nicht über den Horizont steigt. Das Hubble-Weltraumteleskop kann eine maximale Helligkeit von 2 mag erreichen. Hans Eichel. Hans Eichel im Januar 2015 Hans Eichel (* 24. Dezember 1941 in Kassel) ist ein deutscher Politiker (SPD). Er war von 1975 bis 1991 Oberbürgermeister von Kassel, von 1991 bis 1999 Ministerpräsident des Landes Hessen, vom 1. November 1998 bis 23. April 1999 Bundesratspräsident und von 1999 bis 2005 Bundesminister der Finanzen. Leben und Beruf. Nach dem Abitur 1961 am Kasseler Wilhelmsgymnasium begann Eichel ein Studium der Germanistik, Philosophie, Politikwissenschaft, Geschichte und Erziehungswissenschaften an der Universität Marburg und der Freien Universität Berlin, welches er 1968 mit dem ersten und 1970 mit dem zweiten Staatsexamen für das Lehramt an Gymnasien abschloss. Er war dann bis 1975 als Studienrat in Kassel – ebenfalls am Wilhelmsgymnasium – tätig. Eichel leitet den Politischen Club der Evangelischen Akademie Tutzing und ist Aufsichtsratsmitglied bei der WMP Eurocom. Seit dem 27. August 2012 hält Eichel zudem den Vorsitz des Gesellschaftsbeirats der LeihDeinerStadtGeld GmbH inne. Eichel ist seit Juli 2005 in zweiter Ehe mit Gabriela Wolff-Eichel, geb. Wolff, verheiratet. Aus der ersten Ehe (1983–1999) hat er zwei Kinder. Ende Dezember 2013 erlitt Hans Eichel einen Schlaganfall, verursacht durch eine schwere Halsverletzung mit zwei gebrochenen Halswirbeln, die sich Eichel kurz zuvor bei einem Treppensturz zugezogen hatte. Eine Halsoperation schloss sich an mit anschließendem Aufenthalt in einer Reha-Klinik. Partei. Seit 1964 ist Eichel Mitglied der SPD. 1969 wurde er in den Bundesvorstand der Jungsozialisten gewählt und war bis 1972 stellvertretender Bundesvorsitzender. Seit 1984 ist er Mitglied im Hessischen Landesvorstand. Von 1989 bis 2001 war er Landesvorsitzender der SPD Hessen. Von 1991 bis 2005 gehörte er dem SPD-Bundesvorstand an. Von 1999 bis 2005 war er Mitglied im Präsidium der SPD. Abgeordneter. Von 1968 bis 1975 war Eichel Mitglied der Stadtverordnetenversammlung von Kassel und dort ab 1970 Vorsitzender der SPD-Fraktion. Zwischen den Jahren 1991 und 1999 war er Mitglied des Hessischen Landtages und von 2002 bis 2009 Mitglied des Deutschen Bundestages. 2002 zog Eichel über die Landesliste Hessen und 2005 mit 50,6 % der Erststimmen als direkt gewählter Abgeordneter des Wahlkreises Kassel in den Bundestag ein. 1975 bis 1999. Am 6. Oktober 1975 wurde er im Alter von nur 33 Jahren zum Oberbürgermeister von Kassel gewählt. In diesem Amt wurde er 1981 und 1987 bestätigt. In Ausübung dieses Amtes gehörte er auch dreimal dem Aufsichtsrat der documenta an. Bei der Landtagswahl 1991 wurde die SPD mit 40,8 % der Stimmen und einem Vorsprung von 0,6 % der Stimmen vor der CDU knapp die stärkste Partei und bildete daraufhin eine Koalition mit den Grünen. Eichel wurde daher am 5. April 1991 als Nachfolger von Walter Wallmann (CDU) zum Ministerpräsidenten von Hessen gewählt. Die „Dienstvilla-Affäre“ 1993 und die „Lotto-Affäre“ 1994 überstand Eichel trotz heftiger Kritik an angeblicher Vetternwirtschaft. Bei der Landtagswahl 1995 fiel die SPD mit einem Ergebnis von 38,0 % zwar um 1,2 % der Stimmen hinter die CDU unter ihrem Spitzenkandidaten Manfred Kanther zurück; Hans Eichel konnte aber dank der erheblichen Stimmengewinne der Grünen die Koalitionsregierung weiterführen. Die Regierung unter Ministerpräsident Eichel war somit die erste rotgrüne Landesregierung, die im Amt bestätigt wurde und somit zwei volle Legislaturperioden im Amt blieb. Bei der Landtagswahl 1999 schließlich konnte die rot-grüne Landesregierung ihre Mehrheit wegen starker Verluste der Grünen (-4,0 %) nicht halten. Auf der anderen Seite standen erhebliche Zugewinne seitens der CDU (+4,2 %) unter ihrem Spitzenkandidaten Roland Koch. Hans Eichel schied daher am 7. April 1999 aus dem Amt. Finanzminister 1999 bis 2005. Schon fünf Tage später trat Eichel am 12. April 1999 als Nachfolger des im März 1999 zurückgetretenen Oskar Lafontaine als Bundesminister der Finanzen in die von Bundeskanzler Gerhard Schröder geführte Bundesregierung ein. Seine Berufung wurde unter anderem von Finanzunternehmen begrüßt. Er galt ihnen politisch als deutlich nahestehender und es wurden von Eichel „schmerzliche Umstrukturierungen zum freien Markt“, so die Washington Post, erwartet. Im Mai 2000 führte er eine umfassende Steuerreform durch, die unter anderem eine deutliche Senkung der Unternehmenssteuer und Steuerbefreiung für den Verkauf von Aktienpaketen und Tochterunternehmen enthielt. Nach Regierungsaussage sollte dies der Ankurbelung der Wirtschaft dienen. Ebenso erließ Eichel mehrere Sparmaßnahmen für den Staatshaushalt. In der PR wurde Eichel deswegen als „Sparkommissar“ bezeichnet, es wurde ergänzend unter anderem ein Song über Eichel und eine Lifestyle-Geschichte für die Illustrierten entworfen. Der Begriff „Sparkommissar“ wurde bekannt, fand auch in vielen Medien Verwendung und die Beliebtheit Eichels stieg zunächst deutlich an. Nach der Steuerreform kam es zu einem Einbruch der Einnahmen. Im Jahr 2000 nahm der Staat 23,6 Milliarden Euro Körperschaftsteuer von den Kapitalgesellschaften ein. Im Jahr nach der Steuerreform brachen diese Einnahmen vollkommen weg und per saldo mussten die Finanzämter stattdessen fast eine halbe Milliarde Euro an die Firmen auszahlen. Ebenso verschlechterte sich die wirtschaftliche Lage (z. B. steigende Arbeitslosenzahlen) und Staatsschulden stiegen stark an. Eichels Anstieg in der Beliebtheit brach dadurch ab. Als Finanzminister versuchte Eichel ab 2003 außerdem den Finanzplatz Deutschland durch eine Deregulierung der Eigenkapitalvorschriften bei Krediten zu fördern. Am 18. Oktober 2005, dem Tag der Konstituierung des 16. Deutschen Bundestages, wurde er gemeinsam mit den übrigen Bundesministern aus dem Amt entlassen und gleichzeitig von Bundespräsident Horst Köhler mit der Wahrnehmung der Geschäfte bis zur Bildung einer neuen Bundesregierung beauftragt. Nach der Wahl von Angela Merkel zur Bundeskanzlerin schied er am 22. November 2005 endgültig aus dem Amt. Deutsche Gesellschaft für die Vereinten Nationen. Er ist Mitglied im Präsidium der Deutschen Gesellschaft für die Vereinten Nationen. Sonstiges. Eichel klagte bzw. klagt vor Gerichten um eine höhere Pension. Zum Beispiel klagte er vor dem Bundesverwaltungsgericht (BVerwG); er verlangte von der Stadt Kassel für seine Zeit als Beamter und Oberbürgermeister (1975 bis 1991) Ruhegehalt. Zum Zeitpunkt der Klage erhielt er als ehemaliger Bundesfinanzminister 7100 Euro monatlich als Pension. Das BVerwG wies im November 2011 seine Klage zurück: seine derzeitige Ministerpension sei "amtsangemessen": die Stadt Kassel braucht ihm wegen „Vermeidung einer Überversorgung“ keine Pension zu zahlen. Hätte die Klage Erfolg gehabt, so hätte er 6.350 Euro mehr im Monat erhalten, also etwa 14.500 Euro. Der Steuerzahlerbund bezeichnete Eichels Mehrfachansprüche als ein gutes Beispiel dafür, „wie absurd und unübersichtlich das derzeitige Versorgungssystem in Deutschland ist“. Eichel ist Ehrenmitglied des Reichsbanners Schwarz-Rot-Gold, Bund aktiver Demokraten e.V. H. G. Wells. Herbert George Wells (meist abgekürzt H. G. Wells; * 21. September 1866 in Bromley; † 13. August 1946 in London) war ein englischer Schriftsteller und Pionier der Science-Fiction-Literatur. Wells, der auch Historiker und Soziologe war, hatte seine größten Erfolge mit den beiden Science-Fiction-Romanen (von ihm selbst als „scientific romances“ bezeichnet) "Der Krieg der Welten" und "Die Zeitmaschine". Wells ist in Deutschland vor allem für seine Science-Fiction-Bücher bekannt, hat aber auch zahlreiche realistische Romane verfasst, die im englischen Sprachraum nach wie vor populär sind. Jugend. Herbert George Wells wurde am 21. September 1866 in Bromley, seit 1965 ein Stadtbezirk von London, geboren. Sein Vater, Joseph Wells, unterhielt eine kleine Eisenwarenhandlung und war ein begeisterter, berufsmäßiger Cricketspieler. Seine Mutter, deren Geburtsname Neal lautete, war vor ihrer Ehe in der Hauswirtschaft tätig. Das Geschäft in der High Street in Bromley brachte niemals viel ein; es reichte gerade dazu, um die Familie nicht in Armut absinken zu lassen. Von seinem Vater hatte der junge Herbert George, der „Bertie“ gerufen wurde, einen Hang zum Lesen geerbt, dem er sich nach Herzenslust in dem Literarischen Institut und der Leihbücherei von Bromley hingeben konnte. Er wurde am Ort in die Schule geschickt, zunächst in eine Art Vorschule und dann in die Morley’s Academy. Als die Familie 1877 wegen einer Verletzung des Vaters, die ihn für den Rest seines Lebens lahm machte, in große finanzielle Schwierigkeiten geriet, wurde Mrs. Wells eine Stellung als Wirtschafterin bei ihrem früheren Brotherrn in Uppark, Sussex, angeboten, die sie annahm. Wenn Herbert George seine Mutter an ihrem Arbeitsplatz besuchte, hatte er die Gelegenheit, stundenlang in der Bibliothek des Herrenhauses zu lesen. Seine Mutter hatte in diesen früheren Jahren einen starken Einfluss auf ihren Sohn. Sie war tief religiös, verehrte Königin Victoria und hatte strenge Ansichten über die Kontakte zwischen den Klassen. So war es Herbert George verboten, sich mit Mädchen aus der Unterklasse zu treffen. Herbert George trat als Lehrling in eine Tuchhandlung in Windsor ein. Jedoch vermochte er seine Arbeitgeber nicht zufriedenzustellen und musste nach einem Monat gehen. Für kurze Zeit arbeitete er als Hilfslehrer an einer Schule in Somerset, und später war er einen Monat lang (Januar 1881) Apothekergehilfe in Midhurst. Im April desselben Jahres versuchte er es nochmals als Lehrling im Tuchhandel, dieses Mal in Southsea. Nach zwei Jahren in dieser Tätigkeit ertrug er sie nicht länger und ging wieder seiner Wege. Die in dieser Zeit gemachten Erfahrungen und Beobachtungen trugen zu seiner Kritik an der Verteilung des Wohlstandes bei, die beispielsweise in "A Modern Utopia" sichtbar wird. Mit 16 Jahren erhielt er eine Stellung als Hilfslehrer im Progymnasium in Midhurst. 1884 bekam er ein Stipendium von einer Guinee (das waren 21 Schilling, zirka ein Pfund) in der Woche in der Normal School of Science (1890 umbenannt zu The Royal College of Science, jetzt das Imperial College of Science) in South Kensington, London. Für drei Jahre studierte er Physik, Chemie, Geologie, Astronomie und Biologie – letzteres bei Professor Thomas Henry Huxley, einem brillanten, aber polemischen Wissenschaftler, der die darwinsche Theorie der Evolution vertrat. Wells’ Jahre mit Huxley formten in ihm die Ansichten, die er später in seinen Büchern vertrat, nämlich dass das Christentum bzw. dessen Ansichten Unfug und der Mensch ein weiterentwickelter Affe sei, dass der Evolutionsprozess tendenziell unmoralisch sei und stets eher zur eigenen Zerstörung denn zum Fortschritt führe. 1887 kam er über George Bernard Shaw in Kontakt mit der Fabian Society, wurde ihr Mitglied und engagierte sich in der Folge in der neu gegründeten Labour Party. Durch seine dortigen Aktivitäten verpasste er sein Abschlussexamen. Während seiner Studienzeit hatte er beim Fußballspiel einen ernsten Unfall, an dessen Folgen er noch viele Jahre litt. Während dieser Zeit schrieb er die Geschichte "The Chronic Argonauts", deren Erfolg ihn ermutigte, weiter schriftstellerisch tätig zu sein. Im Juli 1888 kehrte er nach London zurück und wurde 1889 Mitglied des Lehrerkollegiums der Henley House School in Kilburn. Im Oktober 1890 bestand er mit Auszeichnung seine akademische Prüfung in Zoologie an der Londoner Universität. Seine nächste Stellung (von 1891 bis 1893) war die eines Tutors für Biologie am College für Fernstudium der Universität. Nach Studienabschluss war er Mitbegründer der „Royal College of Science Association“ und ihr erster Präsident. Ab 1893: Anfänge als Schriftsteller. Im Sommer 1893 zwang ihn eine schwere Lungenblutung zu einer langen Pause, und von da ab durfte er nur noch eine ausschließlich sitzende Tätigkeit ausüben. Bereits 1891/92 hatte er verschiedene Beiträge für Zeitschriften, zum Teil auf dem Gebiet des Erziehungswesens, geschrieben. 1893 begann er dann, als er sich von seiner Krankheit erholte, Kurzgeschichten, Essays und Buchbesprechungen für Zeitschriften zu schreiben, unter anderem für die "The Pall Mall Gazette", die "St. James’s Gazette", "Black and White", "New Review" und "The Sunday Review". 1893 wurde sein erstes bedeutendes Werk veröffentlicht, das Sachbuch "A Textbook of Biology". 1895 erschien ein Band Kurzgeschichten: "The Stolen Bacillus", ein Band gesammelter Essays und zwei Romane: "The Time Machine" (dt.: "Die Zeitmaschine"), die eine Umarbeitung der Geschichte "The Chronic Argonauts" war, und "The Wonderful Visit". Der erstere begründete seinen Ruf als außerordentlich kraftvoller und phantasiereicher Schriftsteller. 1895 heiratete er Amy Catherine Robbins, eine frühere Schülerin von ihm – seine erste Ehe (1891) mit seiner Kusine Isabel war inzwischen gelöst worden. Aus seiner zweiten Ehe gingen zwei Söhne hervor (George Philip, 1901, und Frank, 1903). Nicht zu vergessen ist, dass Rebecca West, eine berühmte Journalistin und Reiseschriftstellerin, kaum zwanzigjährig seine Geliebte wurde. Ihren gemeinsamen Sohn Anthony zog sie alleine groß. 1910–1913 hatte er eine Beziehung mit Elizabeth von Arnim. In den Jahren erschien seine Reihe großer wissenschaftlicher Romane, darunter "The Island of Dr. Moreau" (dt.: "Die Insel des Dr. Moreau", 1896), "The Invisible Man" (dt.: "Der Unsichtbare", 1897), "The War of the Worlds" (dt.: "Der Krieg der Welten", 1898), "The First Men in the Moon" (dt.: "Die ersten Menschen auf dem Mond", 1901) ebenso wie viele Kurzgeschichten, Artikel und realistische Romane, unter ihnen die Fahrrad-Romanze "The Wheels of Chance" (1896) und "Love and Mr. Lewisham" (1901). Ab 1901: Literarischer Erfolg. Um die Jahrhundertwende hatte sich sein Gesundheitszustand erheblich verbessert, und Wells unternahm häufig Reisen auf das europäische Festland. 1900 baute sich Wells in Sandgate in der Nähe von Folkestone ein Haus, in dem er fast ein Jahrzehnt wohnte. Während dieser Zeit gewann er weltweiten literarischen Ruhm. In Sandgate schrieb er einige seiner berühmtesten Werke, zum Beispiel "Anticipations", einen Band von Essays über soziologische Probleme (1901), "The Sea Lady" (1902), "The Food of the Gods" (1904), "Kipps" und "A Modern Utopia" (beide 1905), "In the Days of the Comet" (1906), "The War in the Air" (1908), "Tono-Bungay", "Anne Veronica" (beide 1909) und "The History of Mr Polly" (1910). 1903 trat er auch formell der Fabian Society bei, zu der er lange schon Kontakte gepflegt hatte. Wie viele liberale und sozialistische Intellektuelle seiner Zeit war Wells Anhänger der Eugenik. 1904 besprach er eine Veröffentlichung von Francis Galton und hielt dabei, so wörtlich, die Sterilisierung von Versagern für sinnvoller, als Erfolgreiche stärker zu vermehren. Sozialdarwinistische Ideen waren damals in England populär und wurden im britischen Kolonialreich praktiziert. Auch genozidale Ideen waren Wells nicht fremd. Er schrieb: „Jene Schwärme von schwarzen, braunen sowie von gelben Völkern müßten a> weichen, weil sie den Erfordernissen der Effizienz nicht entsprechen, denn schließlich ist die Welt keine karitative Institution.“ Er folgerte: „Wenn die Minderwertigkeit einer Rasse demonstriert werden kann, dann gibt es nur eines [...] zu tun – und dies ist, sie auszurotten.“ Jedoch verließ er die Fabian Society bereits 1906 wieder und schloss sich der Independent Labour Party an. Ebenfalls 1906 reiste er zum ersten Mal in die Vereinigten Staaten. 1909 zog er nach London und kaufte 1912 ein Haus in Easton Park in der Nähe von Dunmow, Essex. Dort blieb er bis zum Tod seiner Frau im Jahr 1927. Ab 1911: Ideen- und Problemromane. "The New Machiavelli" (1911) bedeutete eine neue Richtung in Wells’ schöpferischem Werk: der Ideen- und Problemroman, in dem die Handlung der soziologischen und ideologischen Botschaft untergeordnet wurde. Die Werke "Marriage" (1912), "The Passionate Friends" (1913), "The Wife of Sir Isaac Harman" (1914) und "The Research Magnificent" (1915) gehören zu dieser Kategorie. Mit dem Roman "The World Set Free" (1914, deutsch "Befreite Welt") nahm Wells die Entwicklung der Atombombe voraus und wurde so später zu ihrem Namensgeber. Er wurde dabei vom Buch "Die Natur des Radiums" (1909) des englischen Chemikers Frederick Soddy inspiriert, das den damaligen Erkenntnisstand zur Radioaktivität zusammenfasste. Wells unterstützte den Ersten Weltkrieg und nannte ihn den „Krieg zur Beendigung aller Kriege“. 1918 wurde er kurze Zeit Propagandaleiter gegen Deutschland unter Lord Northcliffe im Crewe House, einer Abteilung des Ministeriums für Information. Er entwarf hier ein Schema zur Nachkriegsgestaltung Europas. Sein bedeutendstes Werk, während des Krieges geschrieben und veröffentlicht, war "Mr. Britling sees it Through" (1916). Ab 1920: Politisches Schriftstellertum. Kurze Zeit nach dem Krieg (1920) besuchte er Sowjetrussland und nahm 1921 an der Washingtoner Konferenz teil. In den folgenden Jahren war er viel auf Reisen und verbrachte manchen Winter außerhalb des ihm nicht zuträglichen rauen englischen Klimas. Obwohl er weiterhin Romane schrieb – sein wichtigster Roman in der Zeit zwischen dem Ersten und Zweiten Weltkrieg war "The World of William Clissold" (1926) – wandte er sich mehr und mehr der Verbreitung seiner Ideen zu. Seine Haupttheorie, die er während der beiden letzten Jahrzehnte seines Lebens immer wieder vertrat, war die, dass sich die Menschheit den materiellen Gewalten, die sie entfesselt hatte, anpassen müsse – oder untergehen werde. Die vier Werke "The Outline of History" (1920), "The Open Conspiracy" (1928), "Science of Life" (1929) und "The Work Wealth and Happiness of Mankind" (1932) waren alle dazu bestimmt, die Idee der Schaffung eines Weltstaates populär zu machen. Seiner Ansicht nach war dies die einzige Alternative zu einem Rückfall in die Barbarei und der endgültigen Vernichtung. 1933 veröffentlichte er seinen pessimistischen Zukunftsroman "The Shape of Things to Come", der bereits 1936 auch als Verfilmung von William Cameron Menzies herauskam, und 1934 erschien in zwei Bänden seine Autobiografie "Experiment in Autobiography". Wells betrachtete "The Open Conspiracy" in gewisser Weise als eine Zusammenfassung seiner Werke: „Dieses Buch gibt so einfach und klar wie möglich die Leitgedanken meines Lebens wieder, die Perspektive meiner Welt. […] Alle meine übrigen Werke, mit kaum einer Ausnahme, sind nichts als Vorstöße, Untersuchungen, Illustrationen und Kommentare zum Kern aller Dinge – oder sein Produkt –, den ich hier versuche, nackt bis auf den Grund und unzweideutig niederzulegen. Das ist mein Glaubensbekenntnis. Hier wird man Richtlinien und Kriterien für alles, was ich tue, finden.“ 1939 veröffentlichte er "The Right of Man", womit er eine Diskussion um die Menschenrechte in Gang setzte, die "Wells-Debatte". In England setzte er sich für die Abschaffung der Monarchie ein. Auf seiner letzten USA-Reise im Jahre 1940 traf er auf den jungen Orson Welles, der am 30. Oktober 1938 seinen Roman vom "Krieg der Welten" zu einem Hörspiel adaptiert und damit in New York einige Verwirrung wegen der befürchteten Landung Außerirdischer ausgelöst hatte, die oft als „Massenpanik“ überliefert wird. Der Zweite Weltkrieg war für ihn die Bestätigung dafür, dass die Menschheit die Herrschaft über die von ihr selbst entfesselten Kräfte verloren hatte und unaufhaltsam der eigenen Vernichtung entgegentrieb – wozu insbesondere die Atombombenabwürfe auf Hiroshima und Nagasaki im August 1945 beitrugen. Sein letztes Werk: "Mind at the End of its Tether" (1945) gab der ihn nun erfüllenden Verzweiflung Ausdruck. Seit den 1930er Jahren lebte er mit Moura Budberg zusammen, die ihn während seiner letzten Lebensjahre pflegte. Nachdem er längere Zeit an Diabetes mellitus gelitten hatte, starb er am 13. August 1946 in seinem Londoner Heim. Die genaue Todesursache wurde nicht bekanntgegeben. Wells’ Körper wurde kremiert, seine Asche im Meer verstreut. Werk. Wells nannte seine frühen Romane – "Die Zeitmaschine" (1895), "Der Unsichtbare" (1897), "Der Krieg der Welten" (1898) – "scientific romances". Sie entwarfen eine Reihe heute klassisch genannter Themen der Science-Fiction. "Die Zeitmaschine" gilt als Pionierwerk der modernen Science-Fiction. Die Bücher wurden mehrfach erfolgreich verfilmt. Weltberühmt wurde das von Orson Welles inszenierte Hörspiel "Krieg der Welten" von 1938. Die Ausstrahlung führte zu einigen Verwirrungen in den USA, weil Zuhörer die fiktive Reportage für eine wirklichkeitsgetreue Dokumentation hielten. Es wird oft behauptet, dass Wells von Jules Verne beeinflusst gewesen sei. Dies betrifft eher generell den Hang zu Themen der Science-Fiction als direkte literarische Übernahmen aus den Werken des Franzosen. Genaue Beweise hierfür gibt es nicht. Daneben schrieb Wells auch sozial-realistische Romane ("Tono-Bungay", "Kipps"). Wells’ Ziel war es, die Gesellschaft zu verbessern. Seine Vorstellungen brachte er in einer Reihe utopischer Romane zum Ausdruck ("In the Days of the Comet", "The Shape of Things to Come"). Gleichzeitig war er pessimistisch und befürchtete zukünftige militärische Konflikte mit verheerenden Folgen für die Menschheit. Dystopien wie "Wenn der Schläfer erwacht" oder "Die Insel des Dr. Moreau" sind in diesem Sinne zu verstehen. "Die Insel des Dr. Moreau" beleuchtet außerdem die Debatte um erworbene beziehungsweise angeborene Verhaltensweisen. Wells betrachtete sich als Sozialist und stand der Russischen Revolution und dem marxistischen Programm Lenins positiv gegenüber (siehe "Russia in the Shadows"). Später distanzierte er sich von der sowjetischen Politik, insbesondere nach Stalins Regierungsübernahme. Sehr viele Erzählungen Wells' in Englisch sind online zu finden. Hohen Neuendorf. Hohen Neuendorf ist eine Stadt im Landkreis Oberhavel im Land Brandenburg. Die Stadt liegt mit ihren gut 25.000 Einwohnern an der Havel und grenzt unmittelbar an die Berliner Ortsteile Frohnau und Heiligensee im Bezirk Reinickendorf. Geographische Lage. Hohen Neuendorf erstreckt sich von der Havel (ausgebaut als Oder-Havel-Kanal) im Westen (Pinnow, Alt-Borgsdorf und Niederheide; siehe auch Zehdenick-Spandauer Havelniederung) bis zu den Ausläufern des Niederen Barnim im Osten (Stadtteil Bergfelde). Die Stadt liegt an der westlichen Grenze des Naturparks Barnim – Bergfelde liegt im Naturpark, Hohen Neuendorf, Borgsdorf und Stolpe liegen außerhalb. Nachbargemeinden. Der Berliner Ortsteil Frohnau im Bezirk Reinickendorf grenzt direkt an die Stadtgrenze. Die Gemeinde Birkenwerder wird von den Stadtteilen Hohen Neuendorfs fast umschlossen. Von den Anfängen bis zur Industrialisierung. Erste Siedlungsspuren im Gebiet des heutigen Hohen Neuendorf lassen sich gemäß der Liste der Bodendenkmale in Hohen Neuendorf bereits für die Bronzezeit nachweisen. Auch in späteren Phasen gab es hier demnach Siedlungen. Das Dorf Hohen Neuendorf wurde erstmals 1349 als Nygendorf erwähnt und später zur Unterscheidung von dem havelabwärts gelegenen Dorf Neuendorf in Hohen Neuendorf umbenannt. Bis zur Suburbanisierung Berlins Ende des 19. Jh., gefördert durch die Entstehung radialer Eisenbahnstrecken, war Hohen Neuendorf ein unbedeutendes kleines Angerdorf. Eine rasante Entwicklung des Dorfes begann mit dem Bau der „Nordbahn“, der Eisenbahn von Berlin nach Neustrelitz, im letzten Viertel des 19. Jh. Die Einrichtung des Haltepunktes „Stolpe“ im Jahre 1877 – auf Bestreben des damals bedeutenderen gleichnamigen Nachbardorfes – führte in der Folgezeit zur Entstehung einer kleinen Kolonie am heutigen Südrand der Stadt. Auch um den zeitgleich eingerichteten Haltepunkt Hohen Neuendorf entwickelte sich eine Siedlung. Während sich Stolpe durch die Verkehrsanbindung in seiner landwirtschaftlichen Prägung kaum veränderte, entwickelte sich Hohen Neuendorf zur Pendlergemeinde. Die Kolonie wuchs sowohl nach Westen (Stolper Straße) als auch parallel zur Eisenbahn nach Norden (Berliner Straße) und dort mit dem alten Dorf zusammen. Nach dem Ersten Weltkrieg. 1919 begann der Bau der „Colonie am Wasserturm“ als Kriegsbeschädigtensiedlung im Auftrag der damaligen Landgemeinde Hohen Neuendorf. Er wurde durch die staatliche preußische Landgesellschaft "Eigene Scholle Frankfurt/Oder" ausgeführt. Später dehnte sich der Ort nach Osten über den Bereich der Bahnstrecke hinaus aus. Im Zuge des Streckenumbaus für den Betrieb der S-Bahn wurden die beiden Haltepunkte Hohen Neuendorf und Stolpe im Jahre 1924 durch den neuen Bahnhof Hohen Neuendorf ersetzt. Mit der Bildung von Groß-Berlin im Jahre 1920 dehnte sich das Berliner Stadtgebiet im Norden bis nach Frohnau aus, und Hohen Neuendorf wurde direkter Vorort von Berlin. Hohen Neuendorf kaufte 1921 die Niederheide vom Staatsforst und 1933 eine Fläche südlich der Stolper Straße von der Gemeinde Stolpe. Die geplante Besiedlung kam nur teilweise zur Ausführung. Besonders in der Niederheide blieben die meisten Parzellen abseits der Hauptstraße unbebaut. Nach dem Zweiten Weltkrieg. Am 21. April 1945 erreichten polnische und sowjetische Truppenteile Hohen Neuendorf. Bei einem kurzen Schusswechsel wurden am heutigen Kreisverkehr im Süden der Stadt drei Gebäude zerstört. Das blieben die ersten und letzten Zerstörungen im Ort während des Zweiten Weltkrieges. Erster gewählter Bürgermeister nach dem Krieg wurde Walter Pott. 1953 entstand der Berliner Außenring. Die Strecke zwischen den Bahnhöfen Schönfließ und Hennigsdorf Nord führt mitten durch das alte Dorf Hohen Neuendorf. Für den Bau mussten mehrere Wohnhäuser abgerissen werden. Hohen Neuendorf erhielt mit dem Bahnhof Hohen Neuendorf West eine Station am Außenring. Mit dem Bau der Berliner Mauer am 13. August 1961 wurden die Straßen- und Eisenbahnverbindungen zum südlich angrenzenden West-Berlin durch die DDR unterbrochen. Ab November desselben Jahres fuhr die S-Bahn auf einer teilweise neuen Strecke über Blankenburg nach Berlin. Durch die neuen Bahnanlagen wurde die alte Straße vom ehemaligen Bahnhof Stolpe nach Bergfelde unterbrochen. Als Ausgleich wurde über eine Eisenbahnbrücke eine befestigte Straßenverbindung nach Bergfelde geschaffen. Nach dem Fall der Mauer. Der Mauerfall am 9. November 1989 und der Abriss der Grenzanlagen zu Berlin ermöglichte die Wiedereröffnung der Berliner Straße (B 96) nach Frohnau am 17. Februar 1990. Die direkte S-Bahn-Verbindung Hohen Neuendorf – Frohnau wurde am 31. Mai 1992 wieder aufgenommen. Im Jahr 1999 wurde Hohen Neuendorf das Stadtrecht verliehen. Ende 2006 hat sich das Aktionsbündnis „Nordbahngemeinden mit Courage“ gegründet. Das überparteiliche, offene Bürgerforum setzt sich für eine starke Zivilgesellschaft und lebendige Demokratie vor Ort ein, um dem Erstarken rechtsextremen Gedankenguts in der Mitte der Gesellschaft aktiv entgegenzuwirken. Rund 30 Vereine, Parteien, Verwaltungen, Schulen, Kirchen und andere Institutionen sind bisher der Initiative beigetreten. Dem ursprünglich in Hohen Neuendorf und Birkenwerder gegründeten Bündnis haben sich zwischenzeitlich die Kommunen Mühlenbecker Land und Nordbahn angeschlossen. Im Mai 2007 wurde der bis dahin zu Borgsdorf (Ortsteil Pinnow) gehörende "Bernsteinsee" (auch bekannt als "Veltener Autobahnsee", da er in den 1970er Jahren durch Sandabbau im Rahmen des Ausbaus der heutigen Autobahn A 24 entstand) im Tausch gegen Wiesenland der Stadt Velten übergeben. "Siehe auch: Bergfelde, Borgsdorf und Stolpe" Eingemeindungen. Am 6. Dezember 1993 fusionierten die Nachbargemeinden Bergfelde und Borgsdorf mit Hohen Neuendorf. Die Einwohner von Birkenwerder stimmten in einer Volksbefragung gegen eine Fusion. Die Gemeinde Stolpe wurde mit Wirkung vom 26. Oktober 2003 in die Stadt eingemeindet. Ortsbeiräte wurden im Gegensatz zu vielen Gemeinden im Landkreis Oberhavel nicht eingeführt. Bevölkerungsentwicklung. Gebietsstand des jeweiligen Jahres, ab 2011 auf Basis des Zensus 2011 Stadtverordnetenversammlung. Das Rathaus von Hohen Neuendorf Die Stadtverordnetenversammlung besteht gemäß Kommunalverfassung aus 28 Mitgliedern sowie dem Bürgermeister. Die Abgeordneten von BVB/Freie Wähler und FDP bilden eine Fraktion mit dem Namen FDP/FW. Im August 2014 verließ der Stadtverordnete Marian Przybilla die Fraktion der Linken, die damit nur noch 4 Mitglieder hat. Przybilla blieb aber als fraktionsloser Stadtverordneter in der Stadtverordnetenversammlung. Bürgermeister. Bürgermeister der Stadt Hohen Neuendorf ist seit dem 1. März 2008 für eine Amtszeit von acht Jahren Klaus-Dieter Hartung (Die Linke). Er setzte sich bei der Stichwahl am 25. November 2007 gegen Matthias Rink von der CDU mit 56,0 % der gültigen Stimmen bei einer Wahlbeteiligung von 47,0 % durch. Wappen. Das Wappen wurde am 30. Juni 1992 genehmigt. Die Blasonierung lautet: „In Gold auf grünem Berg eine grüne Kiefer mit schwarzem Stamm, beseitet von zwei Schilden; vorn in Rot ein silberner Balken; hinten in Blau ein rot-gold-blauer Regenbogen begleitet von drei goldenen Sternen im Verhältnis 2:1.“ Die Wappendarstellung geht auf das Jahr 1936 zurück. Die Kiefer stellt eine "Märkische Kiefer" dar. Das Wappen vorn ist das Wappen der "Familie von Buch", das Wappen hinten das der "Familie von Wins". Städtepartnerschaften. Schild der Partnerstädte am Eingang von Hohen Neuendorf Bauwerke. Im Zusammenhang mit einer geplanten Neugestaltung eines Stadtzentrums wurden 2003/04 zahlreiche, darunter die ältesten Gebäude von Hohen Neuendorf abgerissen: das Büdnerhaus Karl-Marx-Straße 8 aus dem Jahre 1795 sowie der bekannte „Alte Krug“, der 1799 das erste Mal erwähnt wurde. Auch weitere bekannte Gebäude, wie zum Beispiel die „Villa zum weißen Hirsch“ (das ehemalige Baubüro des Ortes aus den 1920er Jahren) und das Jugendklubhaus, fielen dem Abriss zum Opfer. Die Havelbaude ist ein bekanntes Ausflugsrestaurant in der Niederheide, zu der ein Sportboothafen und eine -werft gehören. Sport. Im Stadtteil Hohen Neuendorf gibt es einen Fußballplatz, einen Sportplatz, einen Tennisplatz und zwei Sporthallen. Daneben wird die Stadthalle von der Waldgrundschule und örtlichen Vereinen als Sporthalle genutzt. Die erste Frauen-Fußballmannschaft von "Blau-Weiß Hohen Neuendorf" spielt in der 2. Bundesliga, die erste Männermannschaft in der Berliner Landesliga (Saison 2015/16). Die 1. Herren-Mannschaft der "Rugbyunion Hohen Neuendorf" spielt seit Anfang der Saison 2014/15 in der 1. Bundesliga Ost. Die 1. Herren-Mannschaft des "HSV Oberhavel" spielt Handball in der Brandenburgliga. In Bergfelde laufen Planungen für den Neubau eines neuen Sportplatzes für die Fußballspiele des "SV Grün-Weiß Bergfelde". Der Sportplatz in Borgsdorf wird von örtlichen Vereinen und der Grundschule genutzt. Der Platz wurde im August 2002 nach einer umfassenden Neugestaltung eröffnet. Die 1. Herren-Fußball-Mannschaft des "FSV Forst Borgsdorf" spielt in der Staffel Nord der Landesliga Brandenburg (Stand Saison 2015/16). Im Stadtteil Stolpe befindet sich der Berliner Golfclub Stolper Heide mit zwei 18-Loch-Golfplätzen. Der ältere Westplatz (Eröffnung 1997) wurde von Bernhard Langer entworfen, der Ostplatz (Eröffnung 2003) von Kurt Roßknecht. Unternehmen. In Bergfelde gibt es eine große Zahl an Unternehmen und Gewerbe, insbesondere im Baugewerbe und Handwerk, für Dienstleistungen sowie Hotels und Restaurants. In der Stadt gibt es verschiedene Einkaufsmöglichkeiten, z.B. das Handels- und Dienstleistungszentrum in Hohen Neuendorf und einen Gartenmarkt in Borgsdorf. Der Gewerbesteuerhebesatz beträgt 310 %, der Grundsteuerhebesatz für land- und forstwirtschaftliche Betriebe liegt bei 300 %, für sonstige Grundstücke bei 360 %. Öffentliche Einrichtungen. Das "Länderinstitut für Bienenkunde" hat seinen Sitz in Hohen Neuendorf. In Borgsdorf gibt es eine Landeswaldoberförsterei des Forstes Brandenburg. Verkehr. Hohen Neuendorf liegt an der Berliner Nordbahn sowie dem Berliner Außenring. Autobahnanschlussstellen sind "Birkenwerder" an der A 10 (Berliner Ring) und "Stolpe" an der A 111. Die B 96 durchquert die Stadt von Süden (Richtung Berlin) nach Norden (Richtung Oranienburg) und weiter bis Sassnitz auf der Insel Rügen. Außerdem verläuft die B 96a durch den Stadtteil Bergfelde. Der Radfernweg Berlin–Kopenhagen und der Havelradweg laufen durch die Stadtteile Hohen Neuendorf und Borgsdorf. Auf der Havel herrscht reger Fracht- und saisonal Ausflugsverkehr; seit den 1970er Jahren wird Hohen Neuendorf von der Berufsschifffahrt nicht mehr angelaufen. Nur die Havelbaude hat ihre Bedeutung für die Sportschifffahrt bewahrt. Humboldt-Universität zu Berlin. Die Humboldt-Universität zu Berlin (HU Berlin) wurde 1809 als "Universität zu Berlin" gegründet und nahm als älteste von heute vier Berliner Universitäten im Herbst 1810 den Lehrbetrieb auf. Sie ist heute hinter der 1948 gegründeten Freien Universität die zweitgrößte Universität in Berlin und hat ihren Hauptsitz an der Straße Unter den Linden in Berlin-Mitte. Die HU Berlin gehört zu den 20 größten Hochschulen in Deutschland und gilt als weltweit renommierte Universität, die unter anderem 29 Nobelpreisträger ausbildete. Die Humboldt-Universität wurde im Rahmen der Exzellenzinitiative von Bund und Ländern in die dritte Förderlinie aufgenommen und zählt damit zu den sogenannten Eliteuniversitäten in Deutschland. Friedrich-Wilhelms-Universität. Die Universität wurde am 16. August 1809 auf Initiative des liberalen preußischen Bildungspolitikers Wilhelm von Humboldt durch König Friedrich Wilhelm III. im Zuge der preußischen Reformen gegründet und nahm 1810 als "Berliner Universität" (Alma Mater Berolinensis) ihren Betrieb auf. Von 1828 bis 1946 trug sie zu Ehren ihres Gründers den Namen "Friedrich-Wilhelms-Universität". 1949 erhielt die Berliner Universität den Namen "Humboldt-Universität zu Berlin". Gründung. Wesentliche Impulse zur Universitätsgründung gingen von bedeutenden Wissenschaftlern dieser Zeit aus, vor allem von dem Philosophen Johann Gottlieb Fichte und dem Theologen Friedrich Schleiermacher. Unter dem Eindruck der Reformideen Schleiermachers entwickelte der Diplomat und Sprachwissenschaftler Wilhelm von Humboldt seine Universitätskonzeption. Humboldt war seit Februar 1809 für ein Jahr Sektionschef für Kultus und Unterricht im Ministerium des Innern. Sein oberstes Ziel war es, ein neues Bildungssystem in Preußen einzuführen. Die Hauptsäulen seines Konzepts waren die enge Verbindung von Forschung und Lehre, freie Wissenschaft um ihrer selbst Willen und Persönlichkeitsformung. Zu den ersten Professoren, deren Berufung auf Wilhelm von Humboldt zurückging, gehörten August Boeckh (Philologie), Albrecht Thaer (Landwirtschaft), Friedrich Carl von Savigny (Jura), Christoph Wilhelm Hufeland (Medizin) und Carl Ritter (Geographie). Sie trugen Humboldts Konzept mit. Der Betrieb der Wissenschaften verlange, so der Gelehrte und Staatsmann, dass Akademien, Universitäten und relativ selbstständige Forschungseinrichtungen zusammengeführt werden. Humboldts Konzepte, wie die erst später berühmt gewordene Denkschrift „Über die innere und äußere Organisation der höheren wissenschaftlichen Anstalten in Berlin“, beeinflussten die Idee der modernen Universität. Alles, was für die Ausbildung der Studierenden geeignet war, wurde der Universität angegliedert oder konnte von den Studenten genutzt werden. So bekam sie das von 1748 bis 1766 in der Dorotheenstadt erbaute und seit 1802 ungenutzte Palais des Prinzen Heinrich übereignet. Mehrfach umgebaut und in den Jahren 1913 bis 1920 durch Anbauten erweitert, ist es in der Straße Unter den Linden bis heute das Hauptgebäude der Universität. Nachdem am 28. September 1810 Theodor von Schmalz zum ersten Rektor berufen worden war und sich am 6. Oktober die ersten Studenten immatrikuliert hatten, konnte am 10. Oktober 1810 der Lehrbetrieb aufgenommen werden. Die Fächer wurden in die Fakultäten Jura, Medizin, Philosophie und Theologie gegliedert. Die Naturwissenschaften waren damals Teil der Philosophischen Fakultät, so dass die Doktoranden zum Dr. phil. (nicht zum Dr. rer. nat.) promoviert wurden. Die Erweiterung. Blick vom Opernplatz auf die Universität (1886) Neben der starken Verankerung traditioneller Fächer, wie der Altertumswissenschaft, der Rechtswissenschaft, Philologie und Geschichte, Medizin und Theologie, entwickelte sich die Berliner Universität zum Wegbereiter für zahlreiche neue naturwissenschaftliche Disziplinen. Das verdankte sie besonders der Förderung des Naturwissenschaftlers Alexander von Humboldt, Bruder des Gründers Wilhelm. So richtete Georg Ludwig Hartig 1821 an der Universität einen Lehrstuhl für Forstwirtschaft ein, aus dem später die Forstliche Hochschule Eberswalde wurde. Mit dem Bau modernster Forschungs- und Lehreinrichtungen für die Naturwissenschaften wurde in der zweiten Hälfte des 19. Jahrhunderts begonnen. Berühmte Forscher, wie der Chemiker August Wilhelm von Hofmann, der Physiker Hermann von Helmholtz, die Mathematiker Ernst Eduard Kummer, Leopold Kronecker, Karl Weierstraß, die Mediziner Johannes Peter Müller, Albrecht von Graefe, Rudolf Virchow und Robert Koch, trugen den wissenschaftlichen Ruhm der Berliner Universität über die nationalen Grenzen. Im Zuge der Erweiterung der Universität wurden andere in der Stadt bereits vorhandene Einrichtungen schrittweise eingegliedert. Ein Beispiel hierfür sind die Charité, die Pépinière und das Collegium medico-chirurgicum. Das Collegium medico-chirurgicum wurde 1809 aufgelöst, die Bücherei von der Pépinière übernommen, und das medizinische und chirurgische Universitätsklinikum entstand 1810 zuerst in zwei Wohnungen der Friedrichstraße 101, bis nach mehreren Umzügen 1818 ein als Bleizucker- und Stärkefabrik gebauter Gebäudekomplex in der Ziegelstraße 5/6 erworben wurde. Die Entbindungsanstalt entstand 1816 in der Oranienburger Straße, wurde später in die Dorotheenstraße verlegt, und war der Vorläufer der 1882 eröffneten I. Universitäts-Frauenklinik in der Artilleriestraße (heute Tucholskystraße). Friedrich I. ließ 1710 ein Quarantäne-Haus für Pestkranke vor den Toren der Stadt errichten. Der ‚Soldatenkönig‘ Friedrich Wilhelm verfügte im Jahre 1727: „Es soll das Haus die Charité (frz. für ‚Barmherzigkeit‘, ‚Mildtätigkeit‘) heißen“. 1829 bezog die Medizinische Fakultät der Universität diesen Standort, und erst 1927 wurde die chirurgische Universitätsklinik als letzte Klinik in die Charité verlagert. Für die seit 1810 zur Universität gehörenden natur-historischen Sammlungen wurde 1889 ein eigenes Gebäude errichtet, das heutige Museum für Naturkunde. Eine bereits seit 1790 bestehende Tierarzneischule bildete 1934 den Grundstock der Veterinärmedizinischen Fakultät, und die 1881 gegründete Landwirtschaftliche Hochschule Berlin wurde als Landwirtschaftliche Fakultät der Universität angegliedert. Frauen in der Wissenschaft. Die liberale Sozialreformerin der deutschen Frauenbewegung Alice Salomon war eine der wenigen Frauen, die am Anfang des 20. Jahrhunderts studieren durften. Jahrzehntelang hatten engagierte Frauen darum gekämpft, dass auch sie am wissenschaftlichen Leben teilnehmen konnten. Jedoch erst im Jahr 1908 wurde Frauen in Preußen das Recht zur Immatrikulation gewährt. Von den vier Fakultäten hatte die Philosophische Fakultät den größten weiblichen Zulauf. Schon vor dem Immatrikulationsrecht hatte es an der Berliner Universität Studentinnen gegeben, allerdings nur als Doktorandinnen mit Ausnahmegenehmigung. Als erste Frau promovierte 1899 die Physikerin Elsa Neumann. Die erste Frau, die in Berlin zur Professorin ernannt wurde, war die Mikrobiologin Lydia Rabinowitsch-Kempner, die 1912 den Titel verliehen bekam. Allerdings erhielt sie keine Anstellung an der Universität. 1926 wurde Lise Meitner als erste Physikerin an einer preußischen Universität zur außerordentlichen Professorin ernannt. Bei anderen begabten Wissenschaftlerinnen, wie der jüdischen Historikerin Hedwig Hintze, endete nach 1933 der akademische Weg mit dem Entzug der Lehrbefugnis und Emigration. Im Jahr 1947 ging dann Liselotte Richter als erste deutsche Professorin für Philosophie und Theologie in die Annalen der Universität ein. Die Berliner Universität war schon zwischen 1919 und 1945 die deutsche Universität mit den meisten Dozentinnen. Die Zeit des Nationalsozialismus. Mit der Machtergreifung der Nationalsozialisten begann auch an der Berliner Universität die Diffamierung jüdischer Wissenschaftler und Studierender. Vorlesungen jüdischer Dozenten wurden boykottiert, Hörer tätlich angegriffen. Auch politisch missliebige Dozenten waren von Verfolgung betroffen. Studierende und Lehrende der Universität betätigten sich an der Bücherverbrennung vom 10. Mai 1933. Nach der „Machtergreifung“ wurden 280 Angehörige des Lehrkörpers von den Nationalsozialisten vertrieben. Das entsprach einer Entlassungsquote von 35 %. Mehr als 90 % der Entlassungen erfolgten aus antisemitischen Gründen. Andere Wissenschaftler zogen es vor, die Berliner Universität freiwillig zu verlassen. Auch viele Studierende, darunter auch einige nichtjüdische, kehrten ihrer ehemaligen Alma mater für immer den Rücken, die einst als Heimstätte des humanistischen Denkens gegolten hatte. Zahlreiche Doktortitel wurden ebenfalls aberkannt. Die Vertreibung und Ermordung jüdischer Gelehrter und Studierender sowie politischer Gegner des Nationalsozialismus haben der Universität und dem geistigen Leben in Deutschland schweren Schaden zugefügt. Widerstand aus der Universität heraus blieb eher selten. Neubeginn. Studentische Versammlung vor Universitätsgebäude mit Kriegsspuren (1947) Zerstörter Arbeitssaal im Chemischen Institut der Universität (1950) Kurz nach dem Ende der Kampfhandlungen, am 20. Mai 1945, kam es bereits zu einem ersten Treffen von Professoren bezüglich der zu einer Wiedereröffnung der Universität notwendigen Schritte, bei der auch der neugebildete Berliner Magistrat und die russische Militärverwaltung beteiligt waren. Die Vorbereitungsgruppe hatte vor allem die Frage der räumlichen Unterbringung zu lösen, da alle Universitätsgebäude schwer beschädigt waren sowie die Frage der Auswahl von Dozenten und Studenten: die Alliierte Militärverwaltung forderte im Rahmen der Entnazifizierung, dass keine Personen mit aktiver Beteiligung an nationalsozialistischen Organisationen an der Universität zugelassen werden dürften. Außerdem musste ein Budget aufgestellt werden, provisorische Lehrpläne, eine neue Universitätsordnung und ein Zeitplan für die Wiedereröffnung. Obwohl die Universität zunächst formell unter Viermächtekontrolle stand, erklärte sich die sowjetische Militärverwaltung "SMAD" im September 1945 einseitig für die Kontrolle der im sowjetischen Sektor liegenden Universität zuständig und unterstellte diese der ostzonalen DVV. Nachdem bereits am 3. September 1945 „Vorkurse für Studienanfänger“ begonnen hatten, konnte die Wiedereröffnung der Universität Anfang 1946 stattfinden. Der Neubeginn der Universität im Januar 1946 geht auf einen "Prikas" (Befehl-Nr. 4) der Sowjetischen Militäradministration zurück. Die SMAD, die die Berliner Universität nach sowjetischem Vorbild umgestalten wollte, bestand darauf, dass diese ‚neueröffnet‘ und nicht ‚wiedereröffnet‘ wurde, da sie bei einer Wiedereröffnung unter Vier-Mächte-Kontrolle gestanden hätte. Der von der SMAD mit der Eröffnung beauftragte Präsident der Deutschen Zentralverwaltung für Volksbildung (DZVV), Paul Wandel, sagte in seiner Rede zum Festakt am 29. Januar 1946: Auch der neue Rektor Stroux sprach von einer „völligen Erneuerung der äußeren und inneren Gestalt“ der Universität, die allerdings, wie im Mythos vom Vogel Phoenix, ihre Neuschöpfung selbst vollziehen werde. Dabei gelte unverändert „das Programm, das Wilhelm von Humboldt entworfen hat [..] als Quelle der Kraft und Wegleitung in unsere Zukunft“. Diese Zukunft werde „eine Zeit freier deutscher Geistesarbeit“ sein, in der die Universität als „Volksuniversität“ sich allen Schichten des Volkes öffnen werde. Der Lehrbetrieb wurde zunächst in sieben Fakultäten in zum Teil kriegszerstörten Gebäuden wiederaufgenommen. Viele Lehrkräfte waren tot, verschollen oder konnten aufgrund ihrer Verstrickung in den Nationalsozialismus nicht übernommen werden. Das erste Nachkriegssemester begann mit 2.800 Studenten. Doch bereits zum Wintersemester 1946 wurde eine Wirtschaftswissenschaftliche und eine Pädagogische Fakultät neu eröffnet. Um politisch oder rassisch verfolgten jungen Menschen, die während der Zeit des Nationalsozialismus keine Möglichkeit hatten, die Hochschulreife zu erwerben, diese Chance zu geben, wurde eine Vorstudienanstalt eingerichtet. Daraus ging die Arbeiter-und-Bauern-Fakultät (ABF) hervor, die bis 1962 existierte. Spaltung. Der Ost-West-Konflikt im Nachkriegsdeutschland führte zu einer immer stärker werdenden kommunistischen Einflussnahme auf die Universität. Dies blieb nicht unumstritten und hatte starke Proteste innerhalb der Studierendenschaft und von Teilen des Lehrkörpers zur Folge. Erste Beschwerden von Studenten wurden bereits am 1. Mai 1946 laut, als am Hauptgebäude der Universität das Emblem der SED angebracht wurde und es mit roten Fahnen beflaggt wurde. Eine Antwort darauf war unter anderem die Verhaftung mehrerer Studenten, darunter Georg Wrazidlo, welche der "CDU" bzw. der "Jungen Union" angehörten, durch die sowjetische Geheimpolizei MWD im März 1947. Die Urteile des sowjetischen Militärtribunals in Berlin-Lichtenberg lauteten jeweils 25 Jahre Zwangsarbeit und wurden mit angeblicher Bildung einer ‚Untergrundbewegung an der Universität Berlin‘, sowie angeblicher Spionage begründet. Daraufhin wurden bereits Ende 1947 Forderungen nach einer freien Universität laut. 18 weitere Studenten und Lehrende wurden zwischen 1945 und 1948 verhaftet oder verschleppt, viele blieben wochenlang verschwunden. Einige brachte man in die Sowjetunion und exekutierte sie dort. In einer Diskussion am 1. April 1947 zwischen Vertretern des Studentenrates und Professor Solotuchin, dem Leiter der Volksbildungsabteilung der SMAD, erklärte dieser, die Personen seien nicht in ihrer Eigenschaft als Studenten sondern als deutsche Staatsbürger verhaftet worden und zwar „wegen erwiesener faschistischer Aktivitäten“, wobei er jedoch keinerlei Beweise vorlegte. Ein besonderer Kritikpunkt an der Berliner Universität war spätestens seit Beginn des Wintersemesters 1946 das Zulassungsverfahren zum Studium: In den Bewerbungsgesprächen wurde nach politischer Einstellung gefragt, Bewerber aus der Arbeiterschicht sowie solche mit Zugehörigkeit zu kommunistischen Organisationen wurden offenbar bevorzugt, bürgerliche und SED-kritische Studenten ausgeschlossen. Auf Kritik stieß auch die Verpflichtung zur Teilnahme an Vorlesungen mit z. B. dem Titel: „Einführung in die politischen und sozialen Probleme der Gegenwart“. Der Universität wurde vorgeworfen, zur „SED-Parteiuniversität“ zu werden. Nachdem im Frühjahr 1948 die Universitätsleitung mehreren Studenten ohne ordentliches Rechtsverfahren die Zulassung zum Studium entzogen hatte, forderten die oppositionellen Studenten eine Freie Universität, die mit Unterstützung vor allem der Amerikaner, der Zeitung "Der Tagesspiegel" und des Regierenden Bürgermeisters Ernst Reuter im amerikanischen Sektor in Dahlem gegründet wurde. Damit bewahrten die Studenten nach ihrem Verständnis das Humboldtsche Ideal der Freiheit von Lehre und Forschung. Der lateinische Wahlspruch des Wappens: „Veritas – Iustitia – Libertas“ (Wahrheit – Gerechtigkeit – Freiheit), mit dem die Fackel des Geistes tragenden Berliner Bär, sollte die ideologische Distanz zur kommunistisch dominierten alten Berliner Universität zum Ausdruck bringen und gleichzeitig an ihre Tradition erinnern. Die jahrzehntelange Teilung der Stadt in Ost-Berlin und West-Berlin zementierte die Spaltung in zwei eigenständige Universitäten. Humboldt-Universität. Frontansicht des Hauptgebäudes der Humboldt-Universität in Berlin DDR-Zeit. 1949 erhielt die alte Berliner Universität Unter den Linden den Namen "Humboldt-Universität zu Berlin", das teils kriegszerstörte Hauptgebäude wurde bis dahin rekonstruiert. Zwischen 1946 und 1949 hieß sie – wie in den Anfangsjahren bis 1828 auch – Berliner Universität oder Universität Berlin. Studieninhalte, Studienablauf und Forschungsbedingungen orientierten sich an den politischen Grundlagen der 1949 gegründeten DDR. Mit der beginnenden Entspannung in Europa Mitte der siebziger Jahre konnte die Humboldt-Universität auf einigen Wissenschaftsgebieten den internationalen Anschluss wiederherstellen und durch weltweite Kooperationen festigen. Hervorzuheben sind die langjährigen und intensiven Forschungs- und Austauschbeziehungen zu Hochschulen in Mittel- und Osteuropa, insbesondere mit Einrichtungen in der Sowjetunion. Es gab in dieser Zeit intensive Kooperationen mit Universitäten in Japan und den USA, sowie mit Entwicklungsländern in Asien, Afrika und Lateinamerika. An der Humboldt-Universität, der größten Universität der DDR, wurden bis 1990 fast 150.000 Studierende ausgebildet. International anerkannte Forscher lehrten an der Universität. Viele konnten auch nach der Wiedervereinigung ihren Platz in der akademischen Welt behaupten. Nach 1990. Die Erneuerung nach der Deutschen Wiedervereinigung hatte einen erheblichen Personalwechsel zur Folge. Von 1989 bis 1994 schieden im Hochschulbereich fast 3000 Wissenschaftler, teils aus Altersgründen, zumeist aus politischen, fachlichen oder strukturellen Gründen, aus. In Eigenverantwortung von Struktur- und Berufungskommissionen sowieso auf Grundlage von zahlreichen Gutachten und Empfehlungen von Expertengruppen gab sich die Humboldt-Universität ein neues wissenschaftliches Gefüge: Forschungs- und Lehrinhalte wurden evaluiert, verändert und neu definiert. Seit der deutschen Wiedervereinigung hat Berlin vier Universitäten, die versuchen, ihre Studienpläne zu koordinieren. Traditionelle Studiengänge wurden im Rahmen der Studienreform umstrukturiert und das Lehrangebot auf eine moderne und international vergleichbare Grundlage gestellt und die Forschung neu ausgerichtet und gestärkt. Durch die Erneuerung gelang es der Humboldt-Universität, in Forschung und Lehre wieder an Ansehen und Attraktivität zu gewinnen. Diese Entwicklung dokumentieren auch die beträchtlichen Fördermittel der Deutschen Forschungsgemeinschaft, die an die Humboldt-Universität fließen und als Indikator für den wissenschaftlichen Erfolg gelten. Enge Kontakte und Kooperationen mit der Wirtschaft stärken die Verankerung der Universität in der Gesellschaft. Studierendenentwicklung. Seit 1994 verfügt die Universität über elf Fakultäten und mehrere interdisziplinäre Zentren und Zentralinstitute. Mit über 300 Liegenschaften in Berlin und Brandenburg zählt sie zu den bedeutendsten Standortfaktoren der Region. Im Wintersemester 2004/2005 waren 40.828 Studierende an der Humboldt-Universität einschließlich "Charité" eingeschrieben. Diese Zahl ist seit 1989 stark angestiegen. Im Wintersemester 1992/1993 studierten noch 20.425 Personen an der Universität, somit hat sich die Zahl seither verdoppelt. Inzwischen unterliegen alle Studiengänge einer Zulassungsbeschränkung. Auch wegen der für junge Menschen attraktiven Hauptstadtlage bewarben sich beispielsweise im Wintersemester 2007/2008 25.750 Abiturienten für nur 3.455 Studienplätze. Sie studieren auf den verschiedenen Standorten in Mitte, Adlershof und im Norden Berlins. 5791 (14,1 Prozent) ausländische Studierende aus mehr als 100 Ländern lernen und forschen derzeit an der Humboldt-Universität. Rankings. Gegenwärtig pflegt die HU Partnerschaften zu über 170 wissenschaftlichen Einrichtungen auf allen Kontinenten. Sie bezeichnet sich als "Reformuniversität im Zeichen der Exzellenz" und verfügt über ein Management mit einem hauptamtlichen Präsidium. Die Förderung des wissenschaftlichen Nachwuchses, ein System der Qualitätssicherung in Forschung und Lehre sowie die Studienreform machen die HU zu einer der führenden deutschen Hochschulen mit breiter nationaler und internationaler Anerkennung, wie zahlreiche Hochschulrankings jedes Jahr zeigen. Dennoch hat die Humboldt-Universität in der Exzellenzinitiative des Bundes und der Länder zur Förderung von Wissenschaft und Forschung an deutschen Hochschulen ihre selbst gesteckten Ziele nicht erreicht. In der ersten Runde im Jahr 2006 wurde ihr Zukunftskonzept nicht zur Antragsstellung aufgefordert. Im Jahr 2007 kam sie zwar in die Vorrunde, wurde jedoch zunächst nicht als sogenannte ‚Eliteuniversität‘ ausgezeichnet. Allerdings bekam sie in der ersten Runde eine Graduiertenschule und in der zweiten Runde zwei weitere Graduiertenschulen sowie ein eigenes Exzellenzcluster (Exzellenzcluster Topoi) bewilligt, an zwei weiteren ist sie gemeinsam mit anderen Berliner Wissenschaftseinrichtungen beteiligt. In der Vorrunde der dritten Exzellenzinitiative 2011 wurde die HU neben sechs weiteren deutschen Universitäten zum Langantrag aufgefordert. Im Rahmen der zweiten Exzellenzinitiative von Bund und Ländern erhielt sie den Exzellenzstatus. Sie erhielt zudem einen neuen Exzellenzcluster und zwei weitere Graduiertenschulen, sodass die Universität nun zwei Exzellenzcluster besitzt und an einem weiteren Cluster gemeinsam mit der TU Berlin beteiligt ist, sowie drei eigene Graduiertenschulen und zwei Beteiligungen an Graduiertenschulen hat. Im "World University Ranking 2014/15" der "Times Higher Education" erreichte die HU Platz 80 und gehört damit zu den besten vier Universitäten Deutschlands. Im "Top Universities by Reputation 2012"-Ranking belegte sie Platz 64 und war damit die zweitbeste deutsche Universität. Präsidium. Das Präsidium der Humboldt-Universität setzt sich zusammen aus dem Präsidenten Jan-Hendrik Olbertz, dem Vizepräsidenten für Studium und Internationales (VPSI), Michael Kämper-van den Boogaart, dem Vizepräsidenten für Forschung (VPF), Peter Frensch, sowie dem Vizepräsidenten für Haushalt, Personal und Technik (VPH), Recardo Manzke (mdWdGb). Dem Präsidenten ist der Präsidialbereich mit zwei Referaten und zwei Stabsstellen unterstellt, dem Vizepräsidenten für Studium und Internationales unterstehen fünf, dem Vizepräsidenten für Forschung vier, dem Vizepräsidenten für Haushalt vier Abteilungen. Fakultäten. Gebäude der Juristischen Fakultät (Campus Mitte) Die Humboldt-Universität gliedert sich seit April 2014 in neun Fakultäten, die jeweils mehrere Institute umfassen. Daneben bestehen verschiedene zentrale und interdisziplinäre Einrichtungen. An-Institute. Die An-Institute sind gegenüber der Universität berichtspflichtig. Der Leiter eines An-Instituts ist zugleich Hochschullehrer an der HU. Die An-Institute werden von der Forschungsabteilung der Universität betreut. Gleichstellung und Gute Wissenschaftliche Praxis. Die Humboldt-Universität verfügt über eine zentrale Frauenbeauftragte, die für Fragen der Chancengleichheit und der Gleichstellung zuständig ist. Die HU hat sich in zwei Runden erfolgreich am Professorinnenprogramm des Bundes und der Länder beteiligt. Zur Sicherung Guter Wissenschaftlicher Praxis existiert eine Satzung, die im Jahr 2000 verabschiedet wurde. Campus Mitte. Erwin Schrödinger-Zentrum mit der "Zentralbibliothek Naturwissenschaften" auf dem Campus Adlershof Die Humboldt-Universität verfügt über kein zusammenhängendes Campusgelände, der Großteil der geisteswissenschaftlichen Fakultäten und Institute befindet sich im Ortsteil Mitte, verteilt um das Hauptgebäude. Es liegt am Boulevard Unter den Linden und wurde ursprünglich von unter anderem Johann Boumann als Palais des Prinzen Heinrich erbaut und später erweitert. Als zentrale Universitätsbibliothek wurde das Jacob-und-Wilhelm-Grimm-Zentrum am 12. Oktober 2009 eröffnet. Der Neubau befindet sich an den Stadtbahnbögen. Die Juristische Fakultät nutzt die ehemalige Königliche Bibliothek (sogenannte ‚Kommode‘), die Theologische Fakultät unterhielt bis 2006 Lehrräume im Berliner Dom. Ab 2016 wird das Hauptgebäude der Humboldt-Universität für 43 Millionen Euro grundinstandgesetzt. Bis auf den bereits ausgebauten Westflügel werden dabei alle Teile des Gebäudes, sowie die Außenfassade, saniert. Die umfangreichen Maßnahmen, die vom Land Berlin finanziert werden, sollen bis 2020 abgeschlossen sein. Campus Nord. Zusammen mit der Charité bilden die Gebäude an der Luisen-, Philipp- und Invalidenstraße den Campus Nord. Hier sind in erster Linie die landwirtschaftlich-gärtnerischen und biologischen Institute sowie die Asien- und Afrikawissenschaften zu finden. Ebenfalls auf dem Campus Nord ist das seit 2009 zur Leibniz-Gemeinschaft gehörende Naturkundemuseum. In den ehemaligen Reußschen Gärten, dem sogenannten "Campus der Lebenswissenschaften", sind das Anatomische Theater und das Bernsteinzentrum für Computational Neuroscience Berlin. Campus Adlershof. Die mathematisch-naturwissenschaftlichen Institute mit Ausnahme der Biologie befinden sich auf dem Wissenschafts- und Wirtschaftsstandort (WISTA) in Berlin-Adlershof im Südosten der Stadt auf dem ehemaligen Flugplatz Johannisthal. Die Gebäude, die von der Humboldt-Universität genutzt werden, sind von 1998 bis 2003 entstanden. Zu den bekanntesten Einrichtungen der seit 1912 von der Deutschen Versuchsanstalt für Luftfahrtforschung errichteten Forschungsanlagen gehört der Große Windkanal. Campus Dahlem. Am Campus Dahlem sind experimentell arbeitende Fachgebiete der 2014 gegründeten Lebenswissenschaftlichen Fakultät untergebracht. Diese Bereiche gehörten nach der Wiedervereinigung bis 2014 zur Landwirtschaftlich-Gärtnerischen Fakultät. Neben Gebäuden, in denen naturwissenschaftlich geforscht wird, stehen hier auch Freiland- und Gewächshausflächen zur Verfügung. Arboretum im Baumschulenweg. In Berlin-Baumschulenweg befindet sich das 1879 begründete Späth-Arboretum der Universität. Das Arboretum ist seit 1995 Teil des „Instituts für Biologie“ und Sitz der „Arbeitsgruppe für Systematische Botanik“. Bibliothek. Die Bibliothek der Universität ist mit rund 6,5 Millionen Büchern und etwa 9.000 laufenden Zeitschriften eine der größten Universitätsbibliotheken Deutschlands. Die Universitätsbibliothek gliedert sich in die Zentralbibliothek – das Grimm-Zentrum auf dem Campus Mitte – mit 12 integrierten Teil- und Zweigbibliotheken, die Zweigbibliothek für Naturwissenschaften auf dem Campus Adlershof, die Zweigbibliothek Campus Nord sowie acht weitere Teil- und Zweigbibliotheken, wie zum Beispiel die des Japanzentrums, der Juristischen oder der Theologischen Fakultät. Studium. Die Humboldt-Universität ist, obwohl sie weder Medizin noch Ingenieurwissenschaften anbietet, eine traditionelle Volluniversität mit 185 Studiengängen. Der Studiengang Medizin an der Charité ist eine gemeinsame Fakultät mit der Freien Universität Berlin, die ingenieurwissenschaftlichen Studiengänge können, historisch bedingt, nur an der Technischen Universität Berlin studiert werden. Das Angebot für Lehramtsstudiengänge umfasst alle vier Laufbahnen des Berliner Modells. Studiengänge und NC. Neben den klassischen Studienfächern bietet die Humboldt-Universität auch kleine Fächer wie Afrika- und Asienwissenschaften, Deaf Studies oder Europäische Ethnologie an. Als einzige Berliner Universität hat die HU Agrarwissenschaft, Evangelische Theologie und Sozialwissenschaft. Es können 12 agrarwissenschaftliche Studiengänge studiert werden. Deutschlandweit einmalig ist der Studiengang Rehabilitationwissenschaften mit dem Schwerpunkt Gebärdensprach- und Audiopädagogik. Im Rahmen der finanziellen Kürzungen der späten 1990er Jahre wurde an den Berliner Universitäten das Angebot neu strukturiert und zusammengelegt. So gab die HU Pharmazie und Veterinärmedizin an die FU ab und konnte dafür Bibliotheks- und Sportwissenschaft behalten. Bis auf einige Ausnahmen wie zum Beispiel Mathematik (Monobachelor), Informatik und Chemie waren im Wintersemester 2013/14 an der Humboldt-Universität die meisten grundständigen Studiengänge zulassungsbeschränkt und hatten einen NC zwischen 1,0 in Psychologie und 2,8 in Bibliotheks- und Informationswissenschaften. Auf ca. 3.200 Studienplätze in Bachelor-Studiengängen erhielt die HU rund 29.250 Bewerbungen. Die Anzahl der Bewerbungen variierte stark nach Fach: Für Psychologie bewarben sich z. B. 4.788 Personen auf 100 Plätze, in Betriebswirtschaftslehre 3.939 auf 160 Plätze. In Evangelische Theologie mit 30 Plätzen gingen 65 Bewerbungen ein. Auch viele Zweitfächer in Kombinationsbachelor-Studiengängen waren zulassungsbeschränkt, der NC lag zwischen 1,3 in Geographie und Medienwissenschaft und 2,5 in Medienwissenschaft; ohne NC waren als Zweitfächer zum Beispiel Latein, Mathematik und Regionalstudien Asien/Afrika. Bei den Masterstudiengängen gab es zum Wintersemester 2013/14 etwa die Hälfte ohne Beschränkung, zum Beispiel Mathematik, Moderne Süd- und Südostasienstudien oder Skandinavistik. Für die übrigen waren Noten zwischen 1,4 in European History und 2,8 in Erwachsenenpädagogik erforderlich. Semesterbeitrag. Der Semesterbeitrag an der HU Berlin beträgt zurzeit 293,17 Euro. Dieser setzt sich aus der Semestergebühr für die Rückmeldung, dem Beitrag für das "Studentenwerk Berlin" und dem Beitrag zur Studierendenschaft zusammen. Außerdem ist in dem Beitrag auch ein "Semesterticket" enthalten, mit dem der Öffentliche Personennahverkehr im Verkehrsverbund Berlin-Brandenburg (Tarifbereich Berlin ABC) für sechs Monate genutzt werden kann. Studiengebühren werden, wie an anderen öffentlichen Hochschulen im Land Berlin, nicht erhoben. Sammlungen der Humboldt-Universität. Die wissenschaftlichen Sammlungen der Universität mit mehreren Millionen Objekten gehören zu den bedeutendsten im deutschsprachigen Raum. Sie gehen zurück bis auf das Jahr 1700, als die Königlich-Preußische Akademie der Wissenschaften gegründet wurde. Nach 1810 wurden Teile dieser und anderer wissenschaftlicher Sammlungen in die Universität eingegliedert. Insgesamt gehören über 100 Sammlungen der Humboldt-Universität an. Bis Ende 2008 war auch die naturwissenschaftliche Sammlung im 1889 gegründeten Museum für Naturkunde darunter. Im Jahr 2009 wurde das Naturkundemuseum mit seinen 30 Millionen Objekten ausgegliedert. Angehörige der Humboldt-Universität. In der Geschichte der Humboldt-Universität gibt es zahlreiche berühmte Wissenschaftler. Als 1901 der Nobelpreis zum ersten Mal verliehen wurde, ging eine der begehrten Auszeichnungen an die Berliner Universität, an den niederländischen Chemiker Jacobus Henricus van ’t Hoff. Ein Jahr später wurde Theodor Mommsen, Professor für Alte Geschichte, gewürdigt – als erster deutscher Nobelpreisträger für Literatur. Den Nobelpreis für Physik erhielten zahlreiche Forscher, die mit der Universität wissenschaftlich verbunden waren. Unter den insgesamt 29 Nobelpreisträgern waren auch Albert Einstein und Max Planck. Für ihre Leistungen in der Chemie wurden Emil Fischer, Walther Nernst und Otto Hahn, in der Medizin Robert Koch und Otto Warburg ausgezeichnet. Zu den politisch profilierten Professoren der Humboldt-Universität gehörte Ernst Niekisch, der Herausgeber der 1934 verbotenen Zeitschrift "Widerstand. Zeitschrift für nationalrevolutionäre Politik", der 1948 Professor der Soziologie wurde. Doch nicht nur die Nobelpreisträger prägten und prägen den Ruf der Berliner Universität; auch ihre Alumni bestimmten die Entwicklung der Gesellschaft im 19. und 20. Jahrhundert mit: Heinrich Heine, Adelbert von Chamisso, Ludwig Feuerbach, Otto von Bismarck, Karl Marx, Franz Mehring, Wilhelm und Karl Liebknecht, Kurt Tucholsky und Alfred Wegener waren einst als Studierende an der Berliner Alma mater eingeschrieben. Nachdem das Frauenstudium in Preußen 1908 erlaubt worden war, konnten auch weibliche Studierende und Lehrende den akademischen Ruf der HU vertreten, unter ihnen Alice Salomon, Liselotte Richter, Lise Meitner und Clara von Simson. Die Erstsynthese des Amphetamins wurde 1887 durch den Chemiker Lazăr Edeleanu an der Humboldt-Universität durchgeführt. Einzelnachweise. Berlin, Humboldtuniversitat Zu Hameln. Blick auf Hameln vom Berg Klüt Hameln ist eine große selbständige Stadt in Niedersachsen. Die Kreisstadt des Landkreises Hameln-Pyrmont liegt an der Weser und ist vor allem bekannt durch die Sage vom Rattenfänger von Hameln, die auf einer Überlieferung aus dem Jahre 1284 beruht. Geografische Lage. Ausflugsschiff auf der Weser vor Hameln Hameln liegt südwestlich von Hannover etwa auf halber Luftlinie zwischen Herford im Westen und Hildesheim im Osten. Die Stadt befindet sich im Zentrum des Naturparks Weserbergland Schaumburg-Hameln und ist jeweils von Teilen des Weserberglands im Westen beziehungsweise Leineberglands im Osten umgeben. Hameln wird von einem Abschnitt der Oberweser durchflossen, in die im Stadtgebiet die Hamel (von Osten) und die Humme (von Westen) einmünden. Direkt westlich der auf 68 m ü. NN gelegenen Stadt erhebt sich der Berg Klüt (258 m ü. NN), auf dem heutzutage der Klütturm (Aussichtsturm) und das "Klüthaus" (Restaurant) stehen. Klima. Hameln, als Teil des mittleren Weserberglandes, unterliegt größtenteils dem subatlantischen Klima, welches durch milde Winter und feuchte Sommer geprägt ist. Gleichzeitig zeigen sich schwache kontinentale Einflüsse mit zeitweilig mäßig kalten Wintern und wärmeren Sommern. Früheste Spuren. Erste Siedlungsspuren im heutigen Stadtgebiet von Hameln gehen bis in die Steinzeit zurück. Ungeklärt ist, ab wann sich auf dem Boden der heutigen Altstadt erste dörfliche Strukturen herausbildeten. Ungefähr um das Jahr 790 wurde der damals etwa 50-jährige Benediktinermönch Erkanbert aus dem Kloster Fulda zum Bischof für den damals neueroberten Missionsbezirk zwischen Oberweser und Leine benannt. Zum Mittelpunkt seines Wirkens wählte er zunächst das Romanuskloster in Hameln, bevor er 803/804 den Bischofssitz nach Minden verlegte. Erkanbert war der Bruder des damaligen Abtes Baugulf von Fulda. Im Jahre 802 oder 812 errichteten der sächsische Graf Bernhard und seine Frau Christina auf ihrem Gut in Hameln eine Eigenkirche im Tilithigau. Im Jahre 826 starben beide kinderlos, die Besitzung gingen an die Reichsabtei Fulda über. Diese gründete im Jahr 851 an dem günstig gelegenen Weserübergang ein Benediktinerkloster. Die ersten Ortsnamen bezeichneten den Ort als „Hamela“ oder „Hameloa“. Klostergründung. Im Laufe der Zeit bildete sich vor dem in ein Kollegiatstift umgewandelten Kloster (urkundliche Nennungen 1054 und 1074) eine Marktsiedlung, die um 1200 als "Stadt" genannt wird. Damit gehört Hameln zu den allerersten Städten im ehemaligen Königreich Hannover. Im Jahr 1209 wird zum ersten Mal eine (Stifts-)Mühle in Hameln erwähnt. Die Stadthoheit über Hameln lag im 12. und 13. Jahrhundert bei der Abtei Fulda bzw. ihren Stiftsvögten in Hameln, den Grafen von Everstein. Die geistliche Oberhoheit lag beim Bischof von Minden. Im Jahr 1259 verkaufte der Abt von Fulda seine Rechte der Stadt Hameln an das Hochstift Minden. Das Hamelner Bürgerheer wollte dies nicht hinnehmen, aber unterlag im Jahre 1260 in der Schlacht bei Sedemünder dem Bischof von Minden. Im Verlauf weiterer Auseinandersetzungen erwarb Herzog Albrecht I. 1268 die Vogtei über Hameln. Im Jahr 1277 bestätigte er der Stadt mit einem Privileg ihre bis dahin vorbehaltenen Rechte. Rattenfänger. Weltweite Bekanntheit erlangte Hameln durch die Rattenfängersage, die auf dem Auszug der „Hämelschen Kinder“ im Jahre 1284 beruht. Als historischer Hintergrund ist anzunehmen, dass es Hamelner Jung–Bürger gewesen sind, die von adligen Territorialherren oder Lokatoren zur Ostkolonisation angeworben wurden. Daraus entwickelte sich später die Rattenfängersage. Die Datierung auf dieses Jahr 1284 geht auf das Spätmittelalter zurück. Der älteste Bericht hierzu stammt aus der Zeit zwischen den Jahren 1430 und 1450. Noch heute bezeichnet sich die Stadt Hameln offiziell als "Rattenfängerstadt Hameln". Mit dem "Rattenfänger" als Symbolfigur ist Hameln auch Teil der Deutschen Märchenstraße. Befestigung, Hanse und Dreißigjähriger Krieg. Wahrscheinlich im 13. Jahrhundert entstand die Hamelner Stadtbefestigung als eine umgebende, etwa 9 Meter hohe Stadtmauer mit Mauertürmen und Stadttoren zum Schutz vor Angriffen. Als äußerer Schutzring diente die im 14. Jahrhundert entstandene Hamelner Landwehr. 1426 wurde Hameln Mitglied der Hanse, welcher es bis 1572 angehörte. 1540 wurde die Reformation eingeführt. Bürgermeister und Rat der Stadt unterzeichneten 1580 die lutherische Konkordienformel von 1577. Im 16. Jahrhundert erfolgte ein wirtschaftlicher Aufstieg, der bis zum Dreißigjährigen Krieg anhielt. Im Wettstreit der reichen Kaufmannschaft mit dem Landadel entstanden in dieser Zeit die prächtigen Bauten der Weserrenaissance, die das Stadtbild noch heute in der Altstadt schmücken. Im Laufe des Dreißigjährigen Krieges besetzte 1625 König Christian IV. von Dänemark als Kriegsoberst des Niedersächsischen Reichskreises die Stadt; ihm folgte 1626 der kaiserliche Feldherr Tilly. Die kaiserliche Besatzung von Hameln währte bis 1633, als Herzog Georg von Braunschweig-Lüneburg und schwedische Truppen die Stadt ab März 1633 belagerten, in der sich die kaiserlichen Besatzungstruppen aufhielten. Nach der Niederlage eines kaiserlichen Entsatzheeres in der Schlacht bei Hessisch-Oldendorf im kapitulierten die Kaiserlichen in Hameln am vor dem Herzog. Festung. Im Jahr 1664 begann der Ausbau der Stadt zur welfischen „Haupt- und Prinzipalfestung“. Der erste Bauabschnitt der Festung Hameln galt 1684 als abgeschlossen. 1664 bis 1668 wurde die Stadt mit sternförmigen Bastionen umgeben. Im Jahr 1690 wurden durch herzogliches Privileg in Hameln Flüchtlinge ("Refugiés") aus Frankreich (Hugenotten) angesiedelt. 1734 wurde auf dem Werder bei Hameln die erste in staatlicher Regie errichtete Weserschleuse in Betrieb genommen, die den Schiffern bei der Überwindung des berüchtigten „Hamelner Loches“ half. Nach dem Tod von König Georg II. von Großbritannien-Hannover 1760 wurde noch während des Siebenjährigen Krieges (1756–1763) unter seinem Nachfolger König Georg III. die Festung Hameln durch die Befestigungsanlagen auf dem Klüt verstärkt. Das Fort I. (Fort George) wurde von 1760 bis 1763 auf dem Berg Klüt errichtet. 1774 bis 1784 wurden auf dem Klüt zwei weitere Forts angelegt: Fort II. (Fort Wilhelm) und Fort III. Damit wurde Hameln zum uneinnehmbaren "Gibraltar des Nordens", der stärksten Festung des damaligen Kurfürstentums Hannover. Während der napoleonischen Zeit und unter wechselnden französischen und preußischen Besatzungen wurde 1806 am Bergfuß des Klüts Fort IV. (Fort Luise) errichtet. Nach der Schlacht bei Jena kapitulierte Hameln am 20. November 1806 unter General Le Coq nahezu kampflos vor den zahlenmäßig unterlegenen Franzosen des Generals Savary. Die von Napoléon 1808 angeordnete Schleifung der Befestigung (bis auf zwei Stadttürme) schuf die Voraussetzung für eine weitere Ausdehnung der Stadt. Aus den Steinen des ehemaligen Fort George entstand 1843 ein, zunächst "Georgsturm" genannter Aussichtsturm (1887 aufgestockt), der heute unter dem Namen Klütturm ein beliebtes Ausflugsziel ist. Kreisfreie Stadt/Kreisstadt. 1866 wurde Hameln nach 700–jähriger Oberhoheit der Welfen preußisch, 1923 kreisfreie Stadt. Mit der Verwaltungs- und Gebietsreform in Niedersachsen 1972/1973 wurde der kreisfreie Status wieder beendet. Hameln ist seit 1885 Sitz der Kreisverwaltung des Landkreises Hameln-Pyrmont. 1872 wurde die Bahnstrecke Hannover–Altenbeken durch die "Hannover-Altenbekener Eisenbahn"-Gesellschaft eröffnet, 1875 kam die Bahnverbindung nach Hildesheim und Löhne (Weserbahn) hinzu. Zwischen 1889 und 1897 wurde die Strecke Hameln–Lage (Begatalbahn) mit der Weserbrücke und dem Klüttunnel gebaut. Am 1. April 1897 wurde das 4. Hannoversche Infanterie-Regiment Nr. 164 in Hameln aufgestellt. Das Regiment nahm ab August 1914 am Ersten Weltkrieg in Belgien und Frankreich teil. 2423 Soldaten des Regiments sind bis 1918 gefallen. Am 23. August 1925 wurde am 164er Ring (Straße) ein Denkmal für die Gefallenen des Regiments eingeweiht. Frühe Automobilindustrie. Denkmal für die Hamelner Autoindustrie in der Zeit 1907–1931 1907 wurden im Industriegebiet südlich des Bahnhofs die Norddeutschen Automobilwerke (N. A. W.) von Hans Hartmann gegründet. 1908 begann das Werk mit der Produktion des Personenkraftwagens der unteren Mittelklasse "Colibri". Ab 1911 kam das Modell "Sperber" dazu, das in zahlreiche Länder exportiert wurde; darunter Russland, baltische und skandinavische Staaten, Österreich, Großbritannien und in Übersee nach Südafrika und Neuseeland. Im Ersten Weltkrieg stagnierte die Produktion und es wurden nur noch Rüstungsgüter wie LKW hergestellt. 1917 übernahm die Firma Selve aus dem Sauerland die N. A. W, stellte aber 1929 die Produktion infolge der Weltwirtschaftskrise ein. Zu Beginn der nationalsozialistischen Zeit wurde das Werk reaktiviert und als "Deutsche Automobilwerke AG" (DAWAG) weitergeführt. Dabei entwarf der Konstrukteur Robert Mederer einen Wagen mit einem neuartigen Motor. Das Fahrzeug sollte 2300 Reichsmark kosten, was der Regierung zu hoch war. Sie vergab den Großauftrag zum Aufbau einer Automobilindustrie nach Wolfsburg, wo zur Herstellung des nur 990 Reichsmark teuren KdF-Wagens der Aufbau der Volkswagen-Werke geplant war. Das beendete die Hamelner Automobilindustrie. Zeit des Nationalsozialismus. In der Zeit des Nationalsozialismus fand von 1933 bis 1937 auf dem Bückeberg bei Hameln regelmäßig das Reichserntedankfest statt. Mit bis zu einer Million Teilnehmern aus ganz Deutschland war es eine der größten Massenveranstaltungen der Nationalsozialisten. Dazu reisten vorwiegend Menschen aus der Bauernschaft sowie führende Nationalsozialisten wie Hitler, Goebbels und andere Funktionsträger an. Zweiter Weltkrieg und Besatzungszeit. Bei den Luftangriffen auf Hameln war die Stadt gegen Ende des Zweiten Weltkriegs am 14. März 1945 Ziel eines schweren alliierten Bombenangriffs. Dabei wurden der Bahnhof und Häuser in der Kreuzstraße, am Hastenbecker Weg und in der Stüvestraße getroffen. 177 Personen wurden getötet, 93 verletzt und über 700 obdachlos. Am 5. April 1945 stand die 2. US-Panzerdivision in Groß-Berkel und bei dem Vormarsch eines Stoßtrupps nach Hameln, sprengten deutsche Soldaten die Weserbrücke. Es sollen bis zu 500 Soldaten in Hameln unter dem Kampfkommandanten Generalmajor Klockenbrink zur Verteidigung bereitgestanden haben. Einsetzendes Artilleriefeuer zerstörte die Marktkirche, die Werdermühle, das Rathaus und mehrere Häuser, auch in der Osterstraße. Das 17. US-Pionierbataillon und Teile der 30. US-Infanteriedivision unter Generalmajor Leland Hobbs bereiteten den Übergang mit Sturmbooten nahe dem Ort Ohr vor, errichteten eine Pontonbrücke und setzten die Panzer in Richtung Tündern über. Eine Einheit Fahnenjunker aus dem Sennelager konnte die US-Truppen im Süden der Stadt stoppen und zwei Panzer abschießen. Der 1st Lieutenant Raymond O. Beaudoin der 119th Infantry, 30th Infantry Division wurde bei seinem Einsatz, eine deutsche MG-Stellung auszuschalten, am 6. April erschossen und erhielt hierfür die höchste Ehrenauszeichnung Medal of Honor. Am 7. April 1945 stieß das 117. Regiment von Tündern aus in die Stadt vor und die verbliebenen deutschen Soldaten gerieten in Kriegsgefangenschaft. Am 4. Juni 1945 setzte die Militärregierung Walter Harm, SPD, als Oberbürgermeister von Hameln ein, der bereits vor 1933 als stellvertretender Bürgermeister ein Amt bekleidete und von den Nationalsozialisten entlassen wurde. Ab 1. Dezember 1945 übernahm Georg Wilke das Amt des Oberstadtdirektors. a> an der Weser um 1900 Im Gefängnis Hameln wurden ab 1933 so genannte Politische, vorwiegend Kommunisten und Sozialdemokraten interniert (aber auch Homosexuelle und Juden). Später kamen politische Gefangene aus Frankreich und Dänemark dazu. 1935 wurde die Strafanstalt in ein Zuchthaus umgewandelt. Während des Zweiten Weltkriegs gab es infolge der unmenschlichen Haftbedingungen etwa 300 Todesfälle. Zum Kriegsende im April 1945 wurde das Gefängnis teilweise geräumt und es kam zu Todesmärschen. In der Nachkriegszeit diente das Gefängnis ab dem 13. Dezember 1945 der britischen Besatzungsmacht bis 1949 als Hinrichtungsstätte. 156 Personen wurden in dieser Zeit als Kriegsverbrecher hingerichtet, unter anderem die im Rahmen des Bergen-Belsen-Prozesses Verurteilten. Darunter waren die KZ-Aufseherinnen Irma Grese, Elisabeth Volkenrath und Johanna Bormann, der Lagerkommandant Josef Kramer, der KZ-Arzt Fritz Klein. Weitere Hinrichtungen aufgrund alliierter Prozesse betrafen KZ-Ärzte, KZ-Kapos, SS-Aufseherinnen und Kommandeure von SS-Einheiten (2. SS-Totenkopfregiment, SS-Panzerdivision). Die letzte Hinrichtung in Hameln erfolgte am 6. Dezember 1949 mit einer Displaced Person wegen Schusswaffengebrauchs mit Todesfolge. Im Juni 1946 fanden die ersten Gemeindewahlen nach Kriegsende statt. Der Rat der Stadt Hameln setzte sich aus 30 Mitgliedern zusammen, davon 18 SPD-Anhänger, neun der Niedersächsischen Landespartei (NLP), zwei der CDU und ein FDP-Mitglied. Oberbürgermeister Heinrich Löffler (SPD) wurde im Amt bestätigt. 1947 waren in Hameln 120 Häuser und 1014 Zimmer von der britischen Besatzungsmacht belegt. Hameln ab 1948. Da die Stadt von kriegerischer Zerstörung bis auf wenige Ausnahmen größtenteils verschont geblieben war, siedelten sich ab Ende der 1940er Jahre größere Betriebe, die ihren ehemaligen Standort verloren hatten, in Hameln an (z. B. 1947 BHW auf dem Gelände der DOMAG). Auch die Bevölkerungszahl wuchs aufgrund der Aufnahme von Flüchtlingen bis zum Jahr 1950 auf über 51.000 Personen an, wobei die meisten Heimatvertriebenen aus Schlesien stammten. Dem kulturellen Aufschwung wurde mit der Eröffnung des Theaters im Jahre 1953 Rechnung getragen. Ende der 1960er Jahre begann in Hameln die Altstadtsanierung, die das Stadtbild maßgeblich verändert und Jahrzehnte in Anspruch genommen hat. Es wurden in der Innenstadt Fußgängerzonen eingerichtet und zur Verbesserung der Verkehrssituation eine zweite Weserbrücke errichtet. In Hameln befand sich während des Kalten Krieges ein großer Stützpunkt der britischen Rheinarmee. Seit 1971 war das 28. britische Pionierregiment mit 846 Soldaten und 500 Zivilangestellten in der 1938 erbauten Linsingenkaserne stationiert, dazu lebten noch etwa 1400 Familienangehörige in der Stadt. Bis 2001 waren zudem britische Einheiten in der 1898 erbauten Scharnhorstkaserne stationiert. Im Zuge der Konvertierung von Militäranlagen in Wohnanlagen entstand dort ein Wohngebiet, teilweise in denkmal- und ensemblegeschützten ehemaligen Militärbauten. Am 1. Januar 1973 wurde Hameln im Zuge der Gebietsreform in den Landkreis Hameln-Pyrmont eingegliedert. Bis zur Auflösung der Regierungsbezirke in Niedersachsen am 31. Dezember 2004 gehörte Hameln dem Regierungsbezirk Hannover an. Eingemeindungen. Rohrsen gehört bereits seit 1923 zu Hameln. Am 1. Januar 1973 wurden die zwölf Umlandgemeinden Afferde, Groß Hilligsfeld, Halvestorf, Hastenbeck, Haverbeck, Holtensen, Klein Berkel, Klein Hilligsfeld, Tündern, Unsen, Wehrbergen und Welliehausen eingegliedert. Einwohnerentwicklung. Stadt Hameln in den damaligen Grenzen Stadt Hameln in den heutigen Grenzen Der Ausländeranteil betrug zum 31. Dezember 2009 8,6 % (2008: 8,7 %). Religionen. Hameln ist eine durch die Reformation geprägte Stadt. 50 % der Einwohner sind evangelisch-lutherisch, 13 % sind römisch-katholisch und 37 % gehören keiner oder einer anderen Religionsgemeinschaft an (Orthodoxe, Muslime, Juden, Konfessionslose) Christliche Gemeinden in der ACK Stadtrat. Der Rat der Stadt Hameln besteht aus 42 Ratsfrauen und Ratsherren. Dies ist die festgelegte Anzahl für eine Stadt mit einer Einwohnerzahl zwischen 50.001 und 75.000 Einwohnern. Die 42 Ratsmitglieder werden durch eine Kommunalwahl für jeweils fünf Jahre gewählt. Die aktuelle Amtszeit begann am 1. November 2011 und endet am 31. Oktober 2016. Stimmberechtigt im Rat der Stadt ist außerdem der hauptamtliche Bürgermeister Claudio Griese (CDU). Im Dezember 2012 schloss sich der Kandidat der Bürgerliste als Parteiloser der CDU-Fraktion an. Oberbürgermeister und Oberbürgermeisterinnen. Hauptamtlicher Oberbürgermeister der Stadt Hameln ist Claudio Griese (CDU). Bei der letzten Bürgermeisterwahl am 25. Mai 2014 wurde er mit 48,1 % der Stimmen gewählt. Die Wahlbeteiligung lag bei 44,0 %. Griese trat sein Amt am 1. November 2014 an und löste die bisherige Amtsinhaberin Susanne Lippmann (parteilos) ab. "Ehrenamtliche Oberbürgermeister und Oberbürgermeisterinnen" (Zweigleisigkeit, Wahl durch Stadtrat) "Hauptamtliche Oberbürgermeister und Oberbürgermeisterinnen" (Direktwahl seit 1999) Wappen. Wegweiser mit den Partnerstädten Hamelns, darüber das Stadtwappen Theater. Rathausplatz in Hameln mit dem Theater Das Theater Hameln (ehemals Weserbergland-Festhalle) bietet rund 700 Besuchern einen umfangreichen Spielplan an. Über 150 Konzerte, Musicals, Opern, Komödien bis hin zur Kleinkunst und dem Kinder- und Jugendtheater. Museum Hameln. Das Museum Hameln befindet sich in den historischen Gebäuden Leisthaus und Stiftsherrenhaus und zeigt die Geschichte und Kultur der Stadt Hameln und des Weserberglands. Ein Schwerpunkt liegt auf der Rattenfängersage, die zusätzlich in einem im Museum installierten Rattenfängertheater durch mechanische Figuren und Sound- und Lichteffekte dargestellt wird. Bauwerke. Hameln bietet an den Hauptstraßen ein nahezu geschlossenes historisches Stadtbild mit einer großen Zahl prachtvoller Fachwerk- und Steinhäuser, viele davon aus der Renaissance. Repräsentativer Mittelpunkt der Altstadt sind die Osterstraße und der Pferdemarkt. Stillgelegte Eisenbahnbrücke über die Weser Parks. Stadtwald und der Bürgergarten nahe der Hamelner Altstadt. Der Bürgergarten im Osten der Altstadt ist eine schöne, zentral gelegene Parkanlage. Er ist sowohl bei den Touristen wie auch den Einwohnern Hamelns sehr beliebt. In der Sommerzeit ist er Spielort für Freiluftkonzerte. Sport. Bekannt ist Hameln als Standort des Ruderverein Weser von 1885 (RVW), der bereits mehrere Olympiateilnehmer und Weltmeister im Rudersport hervorbrachte. Vorsitzender des RVW ist der Unternehmer Helmut Griep, der von 2001 bis 2008 auch Vorsitzender des Deutschen Ruderverbands war. Als Fußball- und Allgemeinstadion dient das Weserberglandstadion. Bis 2010 war hier die Spielvereinigung Preußen Hameln 07 zu Hause. Der Fußballverein spielte viele Jahre in der Amateur-Oberliga, der ehemals dritthöchsten Spielklasse. Im Jahre 2010 musste er Insolvenz anmelden. Der neugegründete FC Preußen Hameln versucht einen sportlichen Neuanfang. Das Weserberglandstadion war Veranstaltungsort mehrerer Freiluftkonzerte, zum Beispiel Michael Jackson und Pur, sowie von Spielen von Jugend-Welt- und Europameisterschaften im Fußball. Während der Fußball-Weltmeisterschaft 2006 trainierte hier mehrfach die Französische Fußballnationalmannschaft, die Vizeweltmeister wurde. Sie logierte vier Wochen im Golf- und Schlosshotel Münchhausen in Aerzen-Königsförde. In Hameln wurde in den 1990er Jahren außerdem Bundesliga-Handball gespielt. Der VfL Hameln ist bekannt für die Abteilungen Basketball (2. Regionalliga), Handball (Oberliga) und Leichtathletik. Der in Hameln-Tündern beheimatete TSV Schwalbe Tündern war von 2005 bis 2007 in der Tischtennis-Bundesliga vertreten. Der Olympia-Dritte und Europameister Dimitrij Ovtcharov entwickelte sich dort zum Spitzenspieler. Nationalspieler Ruwen Filus spielte als Kind und Jugendlicher bei Schwalbe. Der PSV Hameln bietet unter anderem Hockey für Kinder und Jugendliche an; gespielt wird auf dem großen Kunstrasenplatz im Ortsteil Afferde. Die H.I.C., Hamelner Inline Connection, bietet die Möglichkeit, verschiedene Sportarten mit Inline-Skates zu betreiben. Vor allem das dem Eishockey ähnliche Inlinehockey, ausgeübt durch die Mannschaften der "Boomtown Ratz", erfreut sich wachsender Beliebtheit. Rattenfänger-Halle. Direkt an der Weserpromenade liegt die Mehrzweck-Sporthalle der Stadt Hameln, die Rattenfänger-Halle. Mit rund 2155 m² ist sie seit 1988 der größte Veranstaltungsort der Stadt. Die vielfältige Nutzung reicht von sportlichen Wettbewerben über Bälle, Märkte, Messen bis hin zu Konzerten und Tagungen. Sie bietet Sitzplätze für bis zu 2300 Personen. Unter dem gesamten Komplex befindet sich eine öffentliche Tiefgarage mit 538 Stellplätzen. Ein Busparkplatz ist direkt nebenan. Die Halle ist gut per ÖPNV zu erreichen. Direkt neben der Halle befindet sich ein Vier-Sterne-Hotel mit 81 Zimmern und weiteren Seminarräumen. Gastronomie ist vorhanden. Weserbergland-Zentrum. Das 1996 fertiggestellte und nahe der Innenstadt liegende Weserbergland-Zentrum (WB-Z) ist ein dreigeschossiger Veranstaltungsort für Konferenzen, Seminare, Kleinkunst, Messen und Festivitäten. Ein mobiles Wandsystem ermöglicht eine Raumgestaltung von 20 bis 700 Personen. Im Obergeschoss stehen drei weitere Gruppenräume zur Verfügung. Das Untergeschoss wird als Garderobe und Ausstellungsfläche genutzt. Das Weserbergland-Zentrum verfügt über eine Gastronomie und eine öffentliche Tiefgarage mit 228 Stellplätzen. Medien. Von regionaler Bedeutung ist die 1848 gegründete Deister- und Weserzeitung, kurz Dewezet genannt; sie erscheint als Hauptausgabe „Hameln“ und als Nebenausgabe „Bodenwerder“ sowie unter dem Titel „Pyrmonter Nachrichten“ in Bad Pyrmont. Außerdem liefert die Zentralredaktion – seit 2004 teils in Zusammenarbeit mit der „Hannoverschen Allgemeinen Zeitung“ – die überregionalen Seiten für die „Schaumburger Zeitung“ (Rinteln), die „Schaumburg-Lippische Landeszeitung“ (Bückeburg), die „Neue Deister Zeitung“ (Springe) und die „Deister-Leine-Zeitung“ (Barsinghausen). Zunehmend an Bedeutung gewinnt der Onlinedienst „dewezet.de“. Aus Rundfunkgebühren finanziert wird der Sender Radio Aktiv, der weite Teile des Landkreises Hameln-Pyrmont abdeckt und täglich in seinen gläsernen Studios am Hamelner Bürgergarten ein an Wortbeiträgen reiches Programm produziert. Außerdem unterhält der NDR ein Redaktionsstudio in Hameln. Öffentliche Einrichtungen. Hameln ist Standort des Sana Klinikums Hameln-Pyrmont, das sich an dem Standort Weser befindet. Der Standort Wilhelmstraße wurde geschlossen. Danach wurde das Gebäude ausgebaut. Heute residiert das AMEOS-Klinikum Hameln in der Wilhelmstraße. In der Stadt haben das Amtsgericht Hameln und das Arbeitsgericht Hameln ihren Sitz. Die Jugendanstalt Hameln ist die größte Einrichtung für den geschlossenen Jugendvollzug in Deutschland. Jugendanstalt. In Hameln-Tündern befindet sich die Jugendanstalt Hameln mit 793 Haftplätzen, die die einzige Jugendanstalt (JA) Niedersachsens und zugleich die größte Deutschlands ist. Straßenverkehr. Im Innenstadtring von Hameln laufen die Bundesstraßen 1, 83 und 217 sternförmig zusammen. Dabei durchquert die B 1 Hameln in Ost-West-Richtung von Berlin Richtung Ruhrgebiet und die B 83 in Nord-Süd-Richtung von Bückeburg Richtung Kassel. Die B 217 beginnt in Hameln und führt Richtung Nord-Ost nach Hannover. Im Straßenpersonennahverkehr verfügt die Stadt seit 1996 über ein Stadtbussystem, das vom Nahverkehr Hameln-Pyrmont geleitet wird. Schienenverkehr. Der "Bahnhof Hameln" liegt an der zweigleisigen, elektrifizierten Hauptbahn Hannover–Altenbeken, die sich hier mit der zweigleisig trassierten, nunmehr aber nur noch eingleisigen, nicht elektrifizierten Weserbahn Löhne (Westf)–Hildesheim kreuzt. Die ebenfalls nach Hameln führende Bahnstrecke Hameln-Lage-Bielefeld mit dem Klüttunnel wurde 1980 im Personenverkehr stillgelegt und 1985 abgebaut. Der Bahnhof wird im Personennahverkehr von der S-Bahn-Linie 5 Hannover Flughafen–Hannover Hbf – Hameln – Altenbeken – Paderborn bedient. Außerdem verkehrt die Regionalbahn „Weser-Bahn“ Bünde – Löhne – Hameln – Hildesheim. Durchgeführt wird der Schienenpersonennahverkehr für die S-Bahn von der DB Regio Niedersachsen, die Elektro-Triebwagen der DB Baureihen 424 und 425 für Geschwindigkeiten bis zu 140 km/h einsetzt. Für die „Weserbahn“ werden von der NordWestBahn Dieseltriebwagen der Bauart Alstom Coradia LINT (Baureihe 648) eingesetzt. Ehrenbürger. Im Jahr 1979 fasste der Rat der Stadt Hameln zur Distanzierung von der Verleihung der Ehrenbürgerschaft an Adolf Hitler und Margarete Wessel den Beschluss, dass die Ehrenbürgerschaften beider Personen bereits mit dem Tod erloschen seien, und weder rechtlich noch politisch eine Ehrenbürgerschaft von Adolf Hitler und Margarete Wessel bestehe. Nach dem Niedersächsischen Kommunalverfassungsgesetz endet das Ehrenbürgerrecht mit dem Tod. Wegen unwürdigen Verhaltens kann es nur zu Lebzeiten der Person wieder entzogen werden. Informatik. Informatik ist die „Wissenschaft der systematischen Verarbeitung von Informationen, insbesondere der automatischen Verarbeitung mit Hilfe von Digitalrechnern“. Historisch hat sich die Informatik einerseits als Formalwissenschaft aus der Mathematik entwickelt, andererseits als Ingenieursdisziplin aus dem praktischen Bedarf nach der schnellen und insbesondere automatischen Ausführung von Berechnungen. Ursprung. Bereits Leibniz hatte sich mit binären Zahlendarstellungen beschäftigt. Gemeinsam mit der Booleschen Algebra, die zuerst 1847 von George Boole ausgearbeitet wurde, bilden sie die wichtigsten mathematischen Grundlagen späterer Rechensysteme. 1937 veröffentlicht Alan Turing seine Arbeit "On Computable Numbers with an application to the Entscheidungsproblem", in welcher die nach ihm benannte Turingmaschine vorgestellt wird, ein mathematisches Maschinenmodell, das bis heute für die Theoretische Informatik von größter Bedeutung ist. Dem Begriff der Berechenbarkeit liegen bis heute universelle Modelle wie die Turingmaschine zu Grunde, und auch die Komplexitätstheorie, die sich ab den 1960er Jahren zu entwickeln begann, greift bis in die Gegenwart auf Varianten dieser Modelle zurück. Etymologie. Das Wort "Informatik" wird häufig auf die Verschmelzung von "Information" und "Automatik" zurückgeführt, alternativ auch oft auf "Information" und "Mathematik". Geprägt wurde die Bezeichnung "Informatik" von Karl Steinbuch und kann auf seine erste Publikation "Informatik: Automatische Informationsverarbeitung" von 1957 zurückgeführt werden. Nach einem internationalen Kolloquium in Dresden am 26. Februar 1968 setzte sich "Informatik" als Bezeichnung für die Wissenschaft nach französischem und russischem Vorbild auch im deutschen Sprachraum durch. Während im englischen Sprachraum die Bezeichnung "Computer Science" üblich ist, konnte sich die deutsche Entsprechung "Computerwissenschaften" nicht durchsetzen. Jedoch wird der Ausdruck "Informatics" im Englischen für bestimmte Teile der Angewandten Informatik verwendet – etwa im Falle der "Bioinformatics" oder der "Geoinformatics". Bei Übersetzungen ins Englische wird im deutschen Sprachraum teilweise die Bezeichnung "Informatics" gegenüber "Computer Science" bevorzugt. Entwicklung der Informatik zur Wissenschaft. Bereits 1967 bot die TU München den ersten Informatik-Studiengang auf Initiative Friedrich Ludwig Bauers an, damals noch unter dem Namen "Informationsverarbeitung". Am 1. September 1969 begann die Technische Universität Dresden als erste Hochschule der DDR mit der Ausbildung von Dipl.-Ing. für Informationsverarbeitung. Ebenfalls 1969 begann die Ingenieurschule Furtwangen (später Fachhochschule Furtwangen) mit der Ausbildung, hier noch Informatorik genannt. Im Wintersemester 1969/70 begann die Universität Karlsruhe (heute Karlsruher Institut für Technologie) als erste bundesdeutsche Hochschule mit der Ausbildung von „echten“ Diplom-Informatikern. Im Wintersemester 1970/71 folgte die Technische Universität Wien mit der Studienrichtung Informatik und der Ausbildung zum Diplomingenieur. Wenige Jahre darauf gründeten sich die ersten Fakultäten für Informatik, nachdem bereits seit 1962 an der Purdue University ein "Department of Computer Science" bestanden hatte. Heute wird die Informatik weder eindeutig als Ingenieurwissenschaft noch als Strukturwissenschaft klassifiziert, sondern als eine Disziplin, die ingenieurwissenschaftliche und strukturwissenschaftliche Komponenten verbindet. Organisationen. Die Gesellschaft für Informatik (GI) wurde 1969 gegründet und ist die größte Fachvertretung im deutschsprachigen Raum. International bedeutend sind vor allem die beiden großen amerikanischen Vereinigungen Association for Computing Machinery (ACM) seit 1947 und das Institute of Electrical and Electronics Engineers (IEEE) seit 1963. Die bedeutendste deutschsprachige Organisation, die sich mit ethischen und gesellschaftlichen Effekten der Informatik auseinandersetzt ist das Forum InformatikerInnen für Frieden und gesellschaftliche Verantwortung. Rechenmaschinen – Vorläufer des Computers. Als erste Vorläufer der Informatik jenseits der Mathematik können die Bestrebungen angesehen werden, zwei Arten von Maschinen zu entwickeln: solche, mit deren Hilfe mathematische Berechnungen ausgeführt oder vereinfacht werden können („Rechenmaschinen“), und solche, mit denen logische Schlüsse gezogen und Argumente überprüft werden können („Logische Maschinen“). Als einfache Rechengeräte leisteten Abakus und später der Rechenschieber unschätzbare Dienste. 1641 konstruierte Blaise Pascal eine mechanische Rechenmaschine, die Additionen inklusive Überträgen durchführen konnte. Nur wenig später stellte Gottfried Wilhelm Leibniz eine Rechenmaschine vor, die alle vier Grundrechenarten beherrschte. Diese Maschinen basieren auf ineinandergreifenden Zahnrädern. Einen Schritt in Richtung größerer Flexibilität ging ab 1838 Charles Babbage, der eine Steuerung der Rechenoperationen mittels Lochkarten anstrebte. Erst Herman Hollerith war dank dem technischen Fortschritt ab 1886 in der Lage, diese Idee gewinnbringend umzusetzen. Seine auf Lochkarten basierenden Zählmaschinen wurden unter anderem bei der Auswertung einer Volkszählung in den USA eingesetzt. Die Geschichte der logischen Maschinen wird oft bis ins 13. Jahrhundert zurückverfolgt und auf Ramon Llull zurückgeführt. Auch wenn seine rechenscheibenähnlichen Konstruktionen, bei denen mehrere gegeneinander drehbare Scheiben unterschiedliche Begriffskombinationen darstellen konnten, mechanisch noch nicht sehr komplex waren, war er wohl derjenige, der die Idee einer logischen Maschine bekannt gemacht hat. Von diesem sehr frühen Vorläufer abgesehen, verläuft die Geschichte logischer Maschinen eher sogar zeitversetzt zu jener der Rechenmaschinen: Auf 1777 datiert ein rechenschieberähnliches Gerät des dritten Earl Stanhope, dem zugeschrieben wird, die Gültigkeit von Syllogismen (im aristotelischen Sinn) zu prüfen. Eine richtige „Maschine“ ist erstmals in der Gestalt des „Logischen Pianos“ von Jevons für das späte 19. Jahrhundert überliefert. Nur wenig später wurde die Mechanik durch elektromechanische und elektrische Schaltungen abgelöst. Ihren Höhepunkt erlebten die logischen Maschinen in den 1940er und 1950er Jahren, zum Beispiel mit den Maschinen des englischen Herstellers Ferranti. Mit der Entwicklung universeller digitaler Computer nahm – im Gegensatz zu den Rechenmaschinen – die Geschichte selbständiger logischen Maschinen ein jähes Ende, indem die von ihnen bearbeiteten und gelösten Aufgaben zunehmend in Software auf genau jenen Computern realisiert wurden, zu deren hardwaremäßigen Vorläufern sie zu zählen sind. Entwicklung moderner Rechenmaschinen. Eine der ersten größeren Rechenmaschinen ist die von Konrad Zuse erstellte, noch immer rein mechanisch arbeitende Z1 von 1937. Vier Jahre später realisierte Zuse seine Idee mittels elektrischer Relais: Die Z3 von 1941 trennte als weltweit erster funktionsfähiger frei programmierbarer Digitalrechner bereits Befehls- und Datenspeicher und Ein-/Ausgabepult. Etwas später wurden in England die Bemühungen zum Bau von Rechenmaschinen zum Knacken von deutschen Geheimbotschaften unter maßgeblicher Leitung von Alan Turing mit großem Erfolg vorangetrieben. Parallel entwickelte Howard Aiken mit Mark I (1944) den ersten Computer der USA, wo die weitere Entwicklung maßgeblich vorangetrieben wurde. Einer der Hauptakteure ist hier John von Neumann, nach dem die bis heute bedeutende Von-Neumann-Architektur benannt ist. 1946 erfolgte die Entwicklung des Röhrenrechners ENIAC, 1949 wurde der EDSAC gebaut. Ab 1948 stieg IBM in die Entwicklung von Computern ein und wurde innerhalb von zehn Jahren Marktführer. Mit der Entwicklung der Transistortechnik und der Mikroprozessortechnik wurden Computer von dieser Zeit an immer leistungsfähiger und preisgünstiger. Im Jahre 1982 öffnete die Firma Commodore schließlich mit dem C64 den Massenmarkt speziell für Heimanwender, aber auch weit darüber hinaus. Programmiersprachen. 1956 beschrieb Noam Chomsky eine Hierarchie formaler Grammatiken, mit denen formale Sprachen und jeweils spezielle Maschinenmodelle korrespondieren. Diese Formalisierungen erlangten für die Entwicklung der Programmiersprachen große Bedeutung. Wichtige Meilensteine waren die Entwicklung von Fortran (erste höhere Programmiersprache, 1957), ALGOL (strukturiert/imperativ; 1958/1960/1968), Lisp (funktional, 1959), COBOL (Programmiersprache für kaufmännische Anwendungen, 1959), Smalltalk (objektorientiert, 1971), Prolog (logisch, 1972) und SQL (Relationale Datenbanken, 1976). Einige dieser Sprachen stehen für typische Programmierparadigmen ihrer jeweiligen Zeit. Weitere über lange Zeit in der Praxis eingesetzte Programmiersprachen sind BASIC (seit 1960), C (seit 1970), Pascal (seit 1971), Objective-C (objektorientiert, 1984), C++ (objektorientiert, generisch, multi-paradigma, seit 1985), Java (objektorientiert, seit 1995) und (objektorientiert, um 2000). Sprachen und Paradigmenwechsel wurden von der Informatik-Forschung intensiv begleitet oder vorangetrieben. Wie bei anderen Wissenschaften gibt es auch einen zunehmenden Trend zur Spezialisierung. Disziplinen der Informatik. Die Informatik unterteilt sich in die Teilgebiete der Theoretischen Informatik, der Praktischen Informatik und der Technischen Informatik. Die Anwendungen der Informatik in den verschiedenen Bereichen des täglichen Lebens sowie in anderen Fachgebieten, wie beispielsweise der Wirtschaftsinformatik, Geoinformatik, Medizininformatik, werden unter dem Begriff der Angewandten Informatik geführt. Auch die Auswirkungen auf die Gesellschaft werden interdisziplinär untersucht. Die Theoretische Informatik bildet die theoretische Grundlage für die anderen Teilgebiete. Sie liefert fundamentale Erkenntnisse für die Entscheidbarkeit von Problemen, für die Einordnung ihrer Komplexität und für die Modellierung von Automaten und Formalen Sprachen. Auf diese Erkenntnisse stützen sich Disziplinen der Praktischen und der Technischen Informatik. Sie beschäftigen sich mit zentralen Problemen der Informationsverarbeitung und suchen anwendbare Lösungen. Die Resultate finden schließlich Verwendung in der Angewandten Informatik. Diesem Bereich sind Hardware- und Software-Realisierungen zuzurechnen und damit ein Großteil des kommerziellen IT-Marktes. In den interdisziplinären Fächern wird darüber hinaus untersucht, wie die Informationstechnik Probleme in anderen Wissenschaftsgebieten lösen kann, wie beispielsweise die Entwicklung von Geodatenbanken für die Geographie, aber auch die Wirtschafts- oder Bioinformatik. Theoretische Informatik. Als Rückgrat der Informatik befasst sich das Gebiet der Theoretischen Informatik mit den abstrakten und mathematikorientierten Aspekten der Wissenschaft. Das Gebiet ist breit gefächert und beschäftigt sich unter anderem mit Themen aus der theoretischen Linguistik (Theorie formaler Sprachen bzw. Automatentheorie), Berechenbarkeits- und Komplexitätstheorie. Ziel dieser Teilgebiete ist es, fundamentale Fragen wie "Was kann berechnet werden?" und "Wie effektiv/effizient kann man etwas berechnen?" umfassend zu beantworten. Automatentheorie und Formale Sprachen. Automaten sind in der Informatik „gedachte Maschinen“, die sich nach bestimmten Regeln verhalten. Ein endlicher Automat hat eine endliche Menge von inneren Zuständen. Er liest ein „Eingabewort“ zeichenweise ein und führt bei jedem Zeichen einen Zustandsübergang durch. Zusätzlich kann er bei jedem Zustandsübergang ein „Ausgabesymbol“ ausgeben. Nach Ende der Eingabe kann der Automat das Eingabewort akzeptieren oder ablehnen. Der Ansatz der formalen Sprachen hat seinen Ursprung in der Linguistik und eignet sich daher gut zur Beschreibung von Programmiersprachen. Formale Sprachen lassen sich aber auch durch Automatenmodelle beschreiben, da die Menge aller von einem Automaten akzeptierten Wörter als formale Sprache betrachtet werden kann. Kompliziertere Modelle verfügen über einen Speicher, zum Beispiel Kellerautomaten oder die Turingmaschine, welche gemäß der Church-Turing-These alle durch Menschen berechenbaren Funktionen nachbilden kann. Berechenbarkeitstheorie. Im Rahmen der Berechenbarkeitstheorie untersucht die theoretische Informatik, welche Probleme mit welchen Maschinen lösbar sind. Ein Rechnermodell oder eine Programmiersprache heißt turing-vollständig, wenn damit eine universelle Turingmaschine simuliert werden kann. Alle heute eingesetzten Computer und die meisten Programmiersprachen sind turing-vollständig, das heißt man kann damit dieselben Aufgaben lösen. Auch alternative Berechnungsmodelle wie der Lambda-Kalkül, WHILE-Programme, μ-rekursive Funktionen oder Registermaschinen stellten sich als turing-vollständig heraus. Aus diesen Erkenntnissen entwickelte sich die Church-Turing-These, die zwar formal nicht beweisbar ist, jedoch allgemein akzeptiert wird. Den Begriff der Entscheidbarkeit kann man veranschaulichen als die Frage, ob ein bestimmtes Problem algorithmisch lösbar ist. Ein entscheidbares Problem ist zum Beispiel die Eigenschaft eines Texts, ein syntaktisch korrektes Programm zu sein. Ein nicht-entscheidbares Problem ist zum Beispiel die Frage, ob ein gegebenes Programm mit gegebenen Eingabeparametern jemals zu einem Ergebnis kommt, was als Halteproblem bezeichnet wird. Komplexitätstheorie. Die Komplexitätstheorie befasst sich mit dem Ressourcenbedarf von algorithmisch behandelbaren Problemen auf verschiedenen mathematisch definierten formalen Rechnermodellen, sowie der Güte der sie lösenden Algorithmen. Insbesondere werden die Ressourcen „Laufzeit“ und „Speicherplatz“ untersucht und ihr Bedarf wird üblicherweise in der Landau-Notation dargestellt. In erster Linie werden die Laufzeit und der Speicherplatzbedarf in Abhängigkeit von der Länge der Eingabe notiert. Algorithmen, die sich höchstens durch einen konstanten Faktor in ihrer Laufzeit bzw. ihrem Speicherbedarf unterscheiden, werden durch die Landau-Notation derselben Klasse, d.h. einer Menge von Problemen mit äquivalenter vom Algorithmus für die Lösung benötigter Laufzeit, zugeordnet. Ein Algorithmus, dessen Laufzeit von der Eingabelänge unabhängig ist, arbeitet „in konstanter Zeit“, man schreibt formula_1. Beispielsweise wird das Programm „gib das erste Element einer Liste zurück“ in konstanter Zeit arbeiten. Das Programm „prüfe, ob ein bestimmtes Element in einer unsortierten Liste der Länge n enthalten ist“ braucht „lineare Zeit“, also formula_2, denn die Eingabeliste muss schlimmstenfalls genau einmal gelesen werden. Die Komplexitätstheorie liefert bisher fast nur obere Schranken für den Ressourcenbedarf von Problemen, denn Methoden für exakte untere Schranken sind kaum entwickelt und nur von wenigen Problemen bekannt (so zum Beispiel für die Aufgabe, eine Liste von Werten mit Hilfe einer gegebenen Ordnungsrelation durch Vergleiche zu sortieren, die untere Schranke formula_3). Dennoch gibt es Methoden, besonders schwierige Probleme als solche zu klassifizieren, wobei die Theorie der NP-Vollständigkeit eine zentrale Rolle spielt. Demnach ist ein Problem besonders schwierig, wenn man durch dessen Lösung auch automatisch die meisten anderen natürlichen Probleme lösen kann, ohne dafür wesentlich mehr Ressourcen zu verwenden. Die größte offene Frage in der Komplexitätstheorie ist die Frage nach "P = NP?". Das Problem ist eines der Millennium-Probleme, die vom Clay Mathematics Institute mit einer Million US-Dollar ausgeschrieben sind. Wenn P nicht gleich NP ist, können NP-vollständige Probleme nicht effizient gelöst werden. Theorie der Programmiersprachen. Dieser Bereich beschäftigt sich mit der Theorie, Analyse, Charakterisierung und Implementierung von Programmiersprachen und wird sowohl in der praktischen als auch der theoretischen Informatik aktiv erforscht. Das Teilgebiet beeinflusst stark angrenzende Fachbereiche wie Teile der Mathematik und der Linguistik. Theorie der formalen Methoden. Die Theorie der formalen Methoden beschäftigt sich mit einer Vielzahl an Techniken zur formalen Spezifikation und Verifikation von Software- und Hardwaresystemen. Die Motivation für dieses Gebiet entstammt dem ingenieurwissenschaftlichen Denken - eine strenge mathematische Analyse hilft, die Zuverlässigkeit und Robustheit eines Systems zu verbessern. Diese Eigenschaften sind insbesondere bei Systemen, die in sicherheitskritischen Bereichen arbeiten, von großer Bedeutung. Die Erforschung solcher Methoden erfordert unter anderem Kenntnisse aus der mathematischen Logik und der formalen Semantik. Praktische Informatik. Die Praktische Informatik entwickelt grundlegende Konzepte und Methoden zur Lösung konkreter Probleme in der realen Welt, beispielsweise der Verwaltung von Daten in Datenstrukturen oder der Entwicklung von Software. Einen wichtigen Stellenwert hat dabei die Entwicklung von Algorithmen. Beispiele dafür sind Sortier- und Suchalgorithmen. Eines der zentralen Themen der praktischen Informatik ist die Softwaretechnik (auch "Softwareengineering" genannt). Sie beschäftigt sich mit der systematischen Erstellung von Software. Es werden auch Konzepte und Lösungsvorschläge für große Softwareprojekte entwickelt, die einen wiederholbaren Prozess von der Idee bis zur fertigen Software erlauben sollen. Ein wichtiges Thema der Praktischen Informatik ist der Compilerbau, der auch in der Theoretischen Informatik untersucht wird. Ein Compiler ist ein Programm, das andere Programme aus einer Quellsprache (beispielsweise Java oder C++) in eine Zielsprache übersetzt. Ein Compiler ermöglicht es einem Menschen, Software in einer abstrakteren Sprache zu entwickeln als in der von der CPU verwendeten Maschinensprache. Ein Beispiel für den Einsatz von Datenstrukturen ist der B-Baum, der in Datenbanken und Dateisystemen das schnelle Suchen in großen Datenbeständen erlaubt. Technische Informatik. Die Technische Informatik befasst sich mit den hardwareseitigen Grundlagen der Informatik, wie etwa Mikroprozessortechnik, Rechnerarchitektur, eingebetteten und Echtzeitsystemen, Rechnernetzen samt der zugehörigen systemnahen Software, sowie den hierfür entwickelten Modellierungs- und Bewertungsmethoden. Mikroprozessortechnik, Rechnerentwurfsprozess. Die Mikroprozessortechnik wird durch die schnelle Entwicklung der Halbleitertechnik dominiert. Die Strukturbreiten im Nanometerbereich ermöglichen die Miniaturisierung von hochkomplexen Schaltkreisen mit mehreren Milliarden Einzelbauelementen. Diese Komplexität ist nur mit ausgereiften Entwurfswerkzeugen und leistungsfähigen Hardwarebeschreibungssprachen zu beherrschen. Der Weg von der Idee zum fertigen Produkt führt über viele Stufen, die weitgehend rechnergestützt sind und ein hohes Maß an Exaktheit und Fehlerfreiheit sichern. Werden wegen hoher Anforderungen an die Leistungsfähigkeit Hardware und Software gemeinsam entworfen, so spricht man auch von Hardware-Software-Codesign. Architekturen. Die Rechnerarchitektur bzw. Systemarchitektur ist das Fachgebiet, das Konzepte für den Bau von Computern bzw. Systemen erforscht. Bei der Rechnerarchitektur wird z. B. das Zusammenspiel von Prozessoren, Arbeitsspeicher sowie Steuereinheiten (Controller) und Peripherie definiert und verbessert. Das Forschungsgebiet orientiert sich dabei sowohl an den Anforderungen der Software als auch an den Möglichkeiten, die sich über die Weiterentwicklung von Integrierten Schaltkreisen ergeben. Ein Ansatz ist dabei rekonfigurierbare Hardware wie z. B. FPGAs (Field Programmable Gate Arrays), deren Schaltungsstruktur an die jeweiligen Anforderungen angepasst werden kann. Aufbauend auf der Architektur der sequentiell arbeitenden Von-Neumann-Maschine, bestehen heutige Rechner in der Regel aus einem Prozessor, der selbst wieder mehrere Prozessorkerne, Speicher-Controller und eine ganze Hierarchie von Cache-Speichern enthalten kann, einem als Direktzugriffsspeicher (Random-Access Memory, RAM) ausgelegten Arbeitsspeicher(Primärspeicher) und Ein/Ausgabe-Schnittstellen unter anderem zu Sekundärspeichern (z. B. Festplatte oder Solid-State-Drive, SSD-Speicher). Durch die vielen Einsatzgebiete ist heute ein weites Spektrum von Prozessoren im Einsatz, das von einfachen Mikrocontrollern, z. B. in Haushaltsgeräten über besonders energieeffiziente Prozessoren in mobilen Geräten wie Smartphonen oder Tabletcomputern bis hin zu intern parallel arbeitenden Hochleistungsprozessoren in Personal Computern und Servern reicht. Parallelrechner gewinnen an Bedeutung, bei denen Rechenoperationen auf mehreren Prozessoren gleichzeitig ausgeführt werden können. Der Fortschritt der Chiptechnik ermöglicht heute schon die Realisierung einer großen Zahl (gegenwärtige Größenordnung 100…1000) von Prozessorkernen auf einem einzigen Chip (Mehrkernprozessoren, Multi/Manycore-Systeme, „System-on-a-Chip“ (SoCs)). Ist der Rechner in ein technisches System eingebunden und verrichtet dort weitgehend unsichtbar für den Benutzer Aufgaben wie Steuerung, Regelung oder Überwachung, spricht man von einem eingebetteten System. Eingebettete Systeme sind in einer Vielzahl von Geräten des Alltags wie Haushaltsgeräten, Fahrzeugen, Geräten der Unterhaltungselektronik, Mobiltelefonen, aber auch in industriellen Systemen z. B. in der Prozessautomation oder der Medizintechnik im Einsatz. Da eingebettete Computer immerzu und überall verfügbar sind, spricht man auch von allgegenwärtigem oder ubiquitärem Rechnen (Ubiquitous Computing). Immer häufiger sind diese Systeme vernetzt, z. B. mit dem Internet („Internet of Things“). Netzwerke von interagierenden Elementen mit physikalischer Eingabe von und Ausgabe zu ihrer Umwelt werden auch als Cyber-Physical Systems bezeichnet. Ein Beispiel sind drahtlose Sensornetze zur Umweltüberwachung. Echtzeitsysteme sind darauf ausgelegt, dass sie auf bestimmte zeitkritisch ablaufende Prozesse der Außenwelt mit angemessener Reaktionsgeschwindigkeit rechtzeitig antworten können. Dies setzt voraus, dass die Ausführungszeit der Antwortprozesse entsprechende vorgegebene Zeitschranken garantiert nicht überschreitet. Viele eingebettete Systeme sind auch Echtzeitsysteme. Eine zentrale Rolle bei allen Mehrrechnersystemen spielt die Rechnerkommunikation. Diese ermöglicht den elektronischen Datenaustausch zwischen Computern und stellt damit die technische Grundlage des Internets dar. Neben der Entwicklung von Routern, Switches oder Firewalls, gehört hierzu auch die Entwicklung der Softwarekomponenten, die zum Betrieb dieser Geräte nötig ist. Dies schließt insbesondere die Definition und Standardisierung von Netzwerkprotokollen, wie TCP, HTTP oder SOAP, ein. Protokolle sind dabei die Sprachen, in denen Rechner untereinander Information austauschen. Bei Verteilten Systemen arbeitet eine große Zahl von Prozessoren ohne gemeinsamen Speicher zusammen. Üblicherweise regeln Prozesse, die über Nachrichten miteinander kommunizieren, die Zusammenarbeit von einzelnen weitgehend unabhängigen Computern in einem Verbund (Cluster). Schlagworte in diesem Zusammenhang sind beispielsweise Middleware, Grid-Computing und Cloud Computing. Modellierung und Bewertung. Als Basis für die Bewertung der genannten Architekturansätze sind – wegen der generellen Komplexität solcher Systemlösungen – spezielle Modellierungsmethoden entwickelt worden, um Bewertungen bereits vor der eigentlichen Systemrealisierung durchführen zu können. Besonders wichtig ist dabei zum einen die Modellierung und Bewertung der resultierenden Systemleistung, z. B. anhand von Benchmark-Programmen. Als Methoden zur Leistungsmodellierung sind z. B. Warteschlangenmodelle, Petri-Netze und spezielle verkehrstheoretische Modelle entwickelt worden. Vielfach wird insbesondere bei der Prozessorentwicklung auch Computersimulation eingesetzt. Neben der Leistung können auch andere Systemeigenschaften auf der Basis der Modellierung studiert werden; z. B. spielt gegenwärtig auch der Energieverbrauch von Rechnerkomponenten eine immer größere, zu berücksichtigende Rolle. Angesichts des Wachstums der Hardware- und Softwarekomplexität sind außerdem Probleme der Zuverlässigkeit, Fehlerdiagnose und Fehlertoleranz, insbesondere bei sicherheitskritischen Anwendungen, von großer Bedeutung. Hier gibt es entsprechende, meist auf Verwendung redundanter Hardware- bzw. Softwareelemente basierende Lösungsmethoden. Beziehungen zu anderen Informatikgebieten und weiteren Fachdisziplinen. Die Technische Informatik hat enge Beziehungen zu anderen Gebieten der Informatik und den Ingenieurwissenschaften. Sie baut auf der Elektronik und Schaltungstechnik auf, wobei digitale Schaltungen im Vordergrund stehen (Digitaltechnik). Für die höheren Softwareschichten stellt sie die Schnittstellen bereit, auf denen wiederum diese Schichten aufbauen. Insbesondere über eingebettete Systeme und Echtzeitsysteme gibt es enge Beziehungen zu angrenzenden Gebieten der Elektrotechnik und des Maschinenbaus wie Steuerungs-, Regelungs- und Automatisierungstechnik sowie zur Robotik. Ingenieurinformatik, Maschinenbauinformatik. Die "Ingenieurinformatik", englisch auch als "Computational Engineering Science" bezeichnet, ist eine interdisziplinäre Lehre an der Schnittstelle zwischen den Ingenieurwissenschaften, der Mathematik und der Informatik an den Fachbereichen Elektrotechnik, Maschinenbau, Verfahrenstechnik, Systemtechnik. Die "Maschinenbauinformatik" beinhaltet im Kern die virtuelle Produktentwicklung (Produktionsinformatik) mittels Computervisualistik, sowie die Automatisierungstechnik. Wirtschaftsinformatik, Informationsmanagement. Die "Wirtschaftsinformatik" (englisch "(business) information systems", auch "management information systems") ist eine „Schnittstellen-Disziplin“ zwischen der Informatik und den Wirtschaftswissenschaften, besonders der Betriebswirtschaftslehre. Sie hat sich durch ihre Schnittstellen zu einer eigenständigen Wissenschaft entwickelt. Ein Schwerpunkt der Wirtschaftsinformatik liegt auf der Abbildung von Geschäftsprozessen und der Buchhaltung in relationalen Datenbanksystemen und Enterprise-Resource-Planning-Systemen. Das Information Engineering der Informationssysteme und das Informationsmanagement spielen im Rahmen der Wirtschaftsinformatik eine gewichtige Rolle. Entwickelt wurde dies an der Fachhochschule Furtwangen bereits 1971. Ab 1974 richteten die damalige TH Darmstadt, die Johannes-Kepler-Universität Linz und die TU Wien einen Studiengang Wirtschaftsinformatik ein. Sozioinformatik. Die Sozioinformatik befasst sich mit den Auswirkungen von IT-Systemen auf die Gesellschaft, wie sie z. B. Organisationen und Gesellschaft in ihrer Organisation unterstützen, aber auch wie die Gesellschaft auf die Entwicklung von sozial eingebetteten IT-Systemen einwirkt, sei es als Prosumenten auf kollaborativen Plattformen wie der Wikipedia, oder mittels rechtlicher Einschränkungen, um beispielsweise Datensicherheit zu garantieren. Sozialinformatik. Die Sozialinformatik befasst sich zum einen mit dem IT-Betrieb in sozialen Organisationen, zum anderen mit Technik und Informatik als Instrument der Sozialen Arbeit, wie zum Beispiel beim Ambient Assisted Living. Medieninformatik. Die "Medieninformatik" hat die Schnittstelle zwischen Mensch und Maschine als Schwerpunkt und befasst sich mit der Verbindung von Informatik, Psychologie, Arbeitswissenschaft, Medientechnik, Mediengestaltung und Didaktik. Computerlinguistik. In der "Computerlinguistik" wird untersucht, wie natürliche Sprache mit dem Computer verarbeitet werden kann. Sie ist ein Teilbereich der Künstlichen Intelligenz, aber auch gleichzeitig Schnittstelle zwischen Angewandter Linguistik und Angewandter Informatik. Verwandt dazu ist auch der Begriff der Kognitionswissenschaft, die einen eigenen interdisziplinären Wissenschaftszweig darstellt, der u. a. Linguistik, Informatik, Philosophie, Psychologie und Neurologie verbindet. Anwendungsgebiete der Computerlinguistik sind die Spracherkennung und -synthese, automatische Übersetzung in andere Sprachen und Informationsextraktion aus Texten. Umweltinformatik, Geoinformatik. Die "Umweltinformatik" beschäftigt sich interdisziplinär mit der Analyse und Bewertung von Umweltsachverhalten mit Mitteln der Informatik. Schwerpunkte sind die Verwendung von Simulationsprogrammen, Geographische Informationssysteme (GIS) und Datenbanksysteme. Die "Geoinformatik" (englisch "geoinformatics") ist die Lehre des Wesen und der Funktion der Geoinformation und ihrer Bereitstellung in Form von Geodaten und mit den darauf aufbauenden Anwendungen auseinander. Sie bildet die wissenschaftliche Grundlage für Geoinformationssysteme (GIS). Allen Anwendungen der Geoinformatik gemeinsam ist der Raumbezug und fallweise dessen Abbildung in kartesische räumliche oder planare Darstellungen im Bezugssystem. Andere Informatikdisziplinen. Weitere Schnittstellen der Informatik zu anderen Disziplinen gibt es in der Informationswirtschaft, Medizinischen Informatik, Pflegeinformatik und der Rechtsinformatik, Informationsmanagement (Verwaltungsinformatik, Betriebsinformatik), Architekturinformatik (Bauinformatik) sowie der Agrarinformatik, Archäoinformatik, Sportinformatik, sowie neue interdisziplinäre Richtungen wie beispielsweise das Neuromorphic Engineering. Die Zusammenarbeit mit der Mathematik oder der Elektrotechnik wird aufgrund der Verwandtschaft nicht als interdisziplinär bezeichnet. Mit dem Informatikunterricht, besonders an Schulen, befasst sich die Didaktik der Informatik. Künstliche Intelligenz. Die "Künstliche Intelligenz (KI)" ist ein großes Teilgebiet der Informatik mit starken Einflüssen aus Logik, Linguistik, Neurophysiologie und Kognitionspsychologie. Dabei unterscheidet sich die KI in der Methodik zum Teil erheblich von der klassischen Informatik. Statt eine vollständige Lösungsbeschreibung vorzugeben, wird in der Künstlichen Intelligenz die Lösungsfindung dem Computer selbst überlassen. Ihre Verfahren finden Anwendung in Expertensystemen, in der Sensorik und Robotik. Im Verständnis des Begriffs „Künstliche Intelligenz“ spiegelt sich oft die aus der Aufklärung stammende Vorstellung vom Menschen als Maschine wider, dessen Nachahmung sich die so genannte „starke KI“ zum Ziel setzt: eine Intelligenz zu erschaffen, die wie der Mensch nachdenken und Probleme lösen kann und die sich durch eine Form von Bewusstsein beziehungsweise Selbstbewusstsein sowie Emotionen auszeichnet. Die Umsetzung dieses Ansatzes erfolgte durch Expertensysteme, die im Wesentlichen die Erfassung, Verwaltung und Anwendung einer Vielzahl von Regeln zu einem bestimmten Gegenstand (daher „Experten“) leisten. Im Gegensatz zur starken KI geht es der „schwachen KI“ darum, konkrete Anwendungsprobleme zu meistern. Insbesondere sind dabei solche Anwendungen von Interesse, zu deren Lösung nach allgemeinem Verständnis eine Form von „Intelligenz“ notwendig scheint. Letztlich geht es der schwachen KI somit um die Simulation intelligenten Verhaltens mit Mitteln der Mathematik und der Informatik; es geht ihr nicht um Schaffung von Bewusstsein oder um ein tieferes Verständnis der Intelligenz. Ein Beispiel aus der schwachen KI ist die Fuzzylogik. Neuronale Netze gehören ebenfalls in diese Kategorie – seit Anfang der 1980er Jahre analysiert man unter diesem Begriff die Informationsarchitektur des (menschlichen oder tierischen) Gehirns. Die Modellierung in Form künstlicher neuronaler Netze illustriert, wie aus einer sehr einfachen Grundstruktur eine komplexe Mustererkennung geleistet werden kann. Gleichzeitig wird deutlich, dass diese Art von Lernen nicht auf der Herleitung von logisch oder sprachlich formulierbaren Regeln beruht – und somit etwa auch die besonderen Fähigkeiten des menschlichen Gehirns innerhalb des Tierreichs nicht auf einen regel- oder sprachbasierten „Intelligenz“-Begriff reduzierbar sind. Die Auswirkungen dieser Einsichten auf die KI-Forschung, aber auch auf Lerntheorie, Didaktik und andere Gebiete werden noch diskutiert. Während die starke KI an ihrer philosophischen Fragestellung bis heute scheiterte, sind auf der Seite der schwachen KI Fortschritte erzielt worden. Informatik und Gesellschaft. „Informatik und Gesellschaft“ (IuG) ist ein Teilbereich der Wissenschaft Informatik und erforscht die Rolle der Informatik auf dem Weg zur Informationsgesellschaft. Die dabei untersuchten Wechselwirkungen der Informatik umfassen die unterschiedlichsten Aspekte. Ausgehend von historischen, sozialen, kulturellen Fragen betrifft dies ökonomische, politische, ökologische, ethische, didaktische und selbstverständlich technische Aspekte. Die entstehende global vernetzte Informationsgesellschaft wird für die Informatik als zentrale Herausforderung gesehen, in der sie als technische Grundlagenwissenschaft eine definierende Rolle spielt und diese reflektieren muss. IuG ist dadurch gekennzeichnet, dass eine interdisziplinäre Herangehensweise, insbesondere mit den Geisteswissenschaften, aber auch z. B. mit den Rechtswissenschaften notwendig ist. Immanuel Kant. Immanuel Kant (* 22. April 1724 in Königsberg, Preußen; † 12. Februar 1804 ebenda) war ein deutscher Philosoph der Aufklärung. Kant zählt zu den bedeutendsten Vertretern der abendländischen Philosophie. Sein Werk "Kritik der reinen Vernunft" kennzeichnet einen Wendepunkt in der Philosophiegeschichte und den Beginn der modernen Philosophie. Kant schuf eine neue, umfassende Perspektive in der Philosophie, welche die Diskussion bis ins 21. Jahrhundert maßgeblich beeinflusst. Dazu gehört nicht nur sein Einfluss auf die Erkenntnistheorie mit der "Kritik der reinen Vernunft", sondern auch auf die Ethik mit der "Kritik der praktischen Vernunft" und die Ästhetik mit der "Kritik der Urteilskraft". Zudem verfasste Kant bedeutende Schriften zur Religions-, Rechts- und Geschichtsphilosophie sowie Beiträge zu Astronomie und Geowissenschaften. Leben. Immanuel (im Taufregister: Emanuel; Kants Geburtstag war im preußischen Kalender der Tag des heiligen Emanuel) Kant war das vierte Kind des Sattler- und Riemermeisters Johann Georg Kant (* 1683 in Memel; † 1746 in Königsberg) und dessen Frau Anna Regina (* 1697 in Königsberg; † 1737 in Königsberg), geb. Reuter, die am 13. November 1715 geheiratet hatten. Sein Vater war als junger Mann nach Königsberg gezogen, die Mutter stammte aus der Familie eines Riemermeisters, der von Nürnberg nach Königsberg übergesiedelt war. Von Kants insgesamt acht Geschwistern erreichten nur vier das Erwachsenenalter. Väterlicherseits stammte Kant aus einer kurischen Familie, die von Lettland nach Kantwaggen (später Kantweinen) im Memelland übergesiedelt war. Sein Elternhaus war stark pietistisch geprägt, seine Mutter für Bildung sehr aufgeschlossen. 1732 kam Kant an das Collegium Fridericianum (auch Friedrichskollegium genannt), wo er insbesondere im Erlernen der klassischen Sprachen gefördert wurde. Bereits 1740 begann er mit dem Studium an der Albertus-Universität Königsberg. Ob er zunächst für Theologie eingeschrieben war, wie es einer der frühen Biographen darstellte, ist aus den Unterlagen der Universität nicht mehr zu rekonstruieren. In jedem Fall interessierte sich Kant sehr für die Naturwissenschaften und beschäftigte sich u. a. mit Philosophie – seinem eigentlichen Studienfach – sowie mit Naturphilosophie und elementarer Mathematik. Das Wohnhaus Kants in Königsberg. 1746 veröffentlichte er seine Schrift "Gedanken von der wahren Schätzung der lebendigen Kräfte". Wegen des Todes seines Vaters 1746 und weil jenes Werk von seinem Professor, Martin Knutzen nicht als Abschlussarbeit anerkannt wurde, unterbrach Kant sein Studium. Er verließ Königsberg und verdiente sich seinen Lebensunterhalt als Hauslehrer, zunächst bis ca. 1750 bei dem reformierten Prediger Daniel Ernst Andersch (tätig 1728–1771) in Judtschen bei Gumbinnen, einer Schweizer Kolonie meist französisch sprechender Siedler. 1748 wurde er im dortigen Kirchenbuch als Taufpate aufgeführt, wo er als 'studiosus philosophiae' bezeichnet wird. Später war er bis etwa 1753 Hauslehrer auf dem Gut des Majors Bernhard Friedrich von Hülsen auf Groß-Arnsdorf bei Mohrungen. Seine dritte Stelle fand er nahe Königsberg auf dem Schloss Waldburg-Capustigall bei der Familie Keyserlingk, die ihm auch Zugang zur höheren Gesellschaft Königsbergs ermöglichte. Er unterrichtete die beiden Stiefsöhne von Caroline von Keyserling, mit der ihn zeitlebens gegenseitige Verehrung verband. Eine erste Bewerbung auf den Königsberger Lehrstuhl für Logik und Metaphysik im Jahre 1759 schlug fehl. Einen Ruf auf einen Lehrstuhl für Dichtkunst lehnte Kant 1764 ab. In den Jahren von 1766 bis 1772 arbeitete Kant als Unterbibliothekar der königlichen Schlossbibliothek, was seine erste feste Anstellung war. Kant schlug außerdem auch die Gelegenheiten aus, 1769 in Erlangen und 1770 in Jena zu lehren, bevor er im Jahr 1770 im Alter von 46 Jahren den von ihm immer angestrebten Ruf der Universität Königsberg auf die Stelle eines Professors für Logik und Metaphysik erhielt. Im selben Jahr legte er mit der Studie "Formen und Gründe der Sinnes- und Verstandeswelt" eine weitere Dissertation vor. Auch den mit einer deutlich höheren Vergütung verbundenen Ruf an die damals berühmte Universität von Halle lehnte er im Jahre 1778 ab, trotz der besonderen Bitte des Kultusministers von Zedlitz. 1786 und 1788 war Kant Rektor der Universität in Königsberg. 1787 wurde er in die Berliner Akademie der Wissenschaften aufgenommen. 1794 wurde er Ehrenmitglied der Russischen Akademie der Wissenschaften in Sankt Petersburg. Die letzten fünfzehn Jahre seines Lebens waren gekennzeichnet durch den sich stetig zuspitzenden Konflikt mit der Zensurbehörde, deren Leitung der preußische König Friedrich Wilhelm II. dem neuen Kultusminister Johann Christoph von Woellner – Zedlitz’ Nachfolger nach dem Tode König Friedrichs II. – übertragen hatte. In Wöllners Edikt von 1794 wurde Kant die „Herabwürdigung mancher Haupt- und Grundlehren der heiligen Schrift und des Christentums“ zur Last gelegt. Kant lehrte weiter bis 1796, erhielt aber die Weisung, sich religiöser Schriften zu enthalten, da sie deistisches und sozinianisches Gedankengut verbreiteten, das nicht mit der Bibel vereinbar sei. Hierauf beklagte sich sein Freund Johann Erich Biester, der Herausgeber der Berlinischen Monatsschrift in Berlin, beim König, der aber die Beschwerde ablehnte. Grabmal Kants neben dem Königsberger Dom in Kaliningrad Kant wird oft als steifer, an einen regelmäßigen Tagesablauf gebundener professoraler Mensch dargestellt, der von der Pflicht getrieben ganz auf seine Arbeit konzentriert war. Doch dieses Bild ist eine Überzeichnung. Als Student war er ein guter Kartenspieler und verdiente sich sogar mit Billard ein Zubrot zum Studium. Auf Gesellschaften, an denen er gerne teilnahm, galt er als galant, putzte sich mit modischen Kleidern heraus und zeichnete sich aus durch Johann Gottfried Herder wurde von Kant aufgefordert, nicht so viel über den Büchern zu brüten. Und Johann Georg Hamann befürchtete, dass Kant nicht genügend zum Arbeiten käme, weil er durch „einen Strudel gesellschaftlicher Zerstreuungen fortgerißen“ werde (Zitate nach Kühn). Auch seine legendäre Pünktlichkeit, nach der andere Königsberger angeblich sogar ihre Uhren stellten, ist viel eher diejenige seines engen Freundes, des englischen Geschäftsmanns und Bankiers Joseph Green, gewesen. Dessen rigoros durchgeplanter Tagesablauf nötigte Kant bei jedem Besuch, das Haus Greens pünktlich um sieben zu verlassen. Nach eigener Aussage in der Schrift "Der Streit der Fakultäten" richtete Kant erst, als er jenseits der 40 war und er merkte, dass er aus gesundheitlichen Gründen mit seinen Kräften haushalten musste, einen regelmäßigen Tagesablauf ein, der allerdings später mit großer Breitenwirkung von Heinrich Heine in "Zur Geschichte der Religion und Philosophie in Deutschland" als Ausdruck des Rigorismus gedeutet wurde: Morgens um 4:45 Uhr ließ er sich von seinem Hausdiener mit den Worten „Es ist Zeit!“ wecken und ging um 22 Uhr zu Bett. Zum Mittagessen lud er meist Freunde ein und pflegte die Geselligkeit, vermied dabei aber philosophische Themen. Außerdem machte er täglich zur gleichen Zeit einen Spaziergang. Sein langjähriger Hausdiener war der ausgemusterte Soldat Martin Lampe. Kant verbrachte nahezu sein ganzes Leben im damals weltoffenen Königsberg, wo er 1804 fast 80-jährig starb. Seine letzten Worte waren angeblich: „Es ist gut.“ Das Grabmal Immanuel Kants befindet sich an der Außenseite des Königsberger Doms, der sogenannten Stoa Kantiana. Philosophie. Mit seinem kritischen Denkansatz (Sapere aude – Habe Mut, dich deines eigenen Verstandes zu bedienen!) ist Kant der wohl wichtigste Denker der deutschen Aufklärung. Üblicherweise unterscheidet man bei seinem philosophischen Weg zwischen der vorkritischen und der kritischen Phase, weil seine Position sich spätestens mit Veröffentlichung der "Kritik der reinen Vernunft" erheblich verändert hat. Noch bis in die 1760er Jahre kann man Kant dem Rationalismus in der Nachfolge von Leibniz und Wolff zurechnen. Kant selber charakterisierte diese Zeit als "dogmatischen Schlummer". In seiner (zweiten) Dissertation im Jahre 1770 ist bereits ein deutlicher Bruch erkennbar. Neben dem Verstand ist nun auch die Anschauung eine Erkenntnisquelle, deren Eigenart zu beachten ist. Verstandeserkenntnis als anschauliche auszugeben, ist Erschleichung. Die Dissertation und die Berufung an die Universität führen dann zu der berühmten Phase des Schweigens, in der Kant seine neue, als Kritizismus bekannte und heute noch maßgeblich diskutierte Erkenntnistheorie ausarbeitet. Erst nach elf Jahren intensiver Arbeit wird diese dann 1781 in der "Kritik der reinen Vernunft" veröffentlicht. Nachdem er die Frage beantwortet hat, welche Bedingungen der Möglichkeit der Erkenntnis zugrunde liegen, kann Kant sich auf dieser Grundlage schließlich im Alter von 60 Jahren den für ihn eigentlich wichtigen Themen der praktischen Philosophie und der Ästhetik zuwenden. Vorkritische Periode. Bis zu seiner Promotion 1755 arbeitete er als Hauslehrer und verfasste die ersten, naturphilosophischen Schriften, so die 1749 erschienenen "Gedanken von der wahren Schätzung der lebendigen Kräfte" () und 1755 die "Allgemeine Naturgeschichte und Theorie des Himmels" (), in der er eine Theorie zur Entstehung des Planetensystems nach „Newtonischen Grundsätzen“ darstellt (Kant-Laplacesche Theorie der Planetenentstehung). Im gleichen Jahr wurde er mit einer Arbeit über das Feuer („De igne“, "Über das Feuer"), in der er eine Theorie des „Wärmestoffs“ entwickelt, promoviert und habilitierte sich mit einer Abhandlung über die ersten Grundsätze der metaphysischen Erkenntnis („Nova dilucidatio“,), beides in Latein. Kant befasste sich – wie erwähnt – intensiv mit einigen Fragen der damaligen Naturphilosophie, die später in den Hintergrund tritt, die er aber nie ganz aufgibt: Die "Allgemeine Naturgeschichte und Theorie des Himmels" formuliert eine wegweisende Theorie der Planetenentstehung aus einem Urnebel. Da Pierre-Simon Laplace 1799 in seinem "Traité de mécanique céleste" eine ähnliche, wenngleich mathematisch ausgearbeitete Theorie entwickelte, die heute in den Grundzügen bestätigt ist, spricht man seit Hermann von Helmholtz von der Kant-Laplaceschen Theorie der Planetenentstehung. Im Jahr 1762 erschien, nach einigen kleinen Schriften, die Abhandlung "Der einzige mögliche Beweisgrund zu einer Demonstration des Daseins Gottes", in der Kant zu erweisen versucht, dass alle bisherigen Beweise für die Existenz Gottes nicht tragfähig sind, und eine eigene Version des ontologischen Gottesbeweises entwickelt, die diesen Mängeln abhelfen soll. Die folgenden Jahre waren bestimmt von wachsendem Problembewusstsein gegenüber der Methode der traditionellen Metaphysik, das sich vor allem in Kants literarisch wohl unterhaltsamster Schrift, "Träume eines Geistersehers, erläutert durch Träume der Metaphysik" (1766), einer Kritik Emanuel Swedenborgs, äußerte. In der 1770 erschienenen Schrift "De mundi sensibilis atque intelligibilis forma et principiis" unterscheidet er zum ersten Mal scharf zwischen der sinnlichen Erkenntnis der Erscheinungen der Dinge (Phaenomena) und der Erkenntnis der Dinge, wie sie an sich sind, durch den Verstand (Noumena). Raum und Zeit fasst er zudem als dem Subjekt angehörige "„reine Anschauungen“" auf, die notwendig sind, um die Erscheinungen untereinander zu ordnen. Damit sind zwei wesentliche Punkte der späteren kritischen Philosophie antizipiert, auch wenn Kants Methode hier noch dogmatisch ist, und er eine Verstandeserkenntnis der Dinge, wie sie an sich sind, für möglich hält. Wer allerdings Verstandeserkenntnis als anschauliche Erkenntnis ausgibt, begeht das "vitium subreptionis", den Fehler der Erschleichung. In den folgenden zehn Jahren vollzieht sich die Entwicklung der kritischen Philosophie ohne wesentliche Veröffentlichung (die „stummen Jahre“). Allgemeine Darstellung der Kritik der reinen Vernunft. "Kritik der reinen Vernunft", Titelblatt der Erstausgabe von 1781 Als Kant 1781 die "Kritik der reinen Vernunft" veröffentlichte, hatte sich seine Philosophie grundlegend gewandelt. Vor der Behandlung einzelner metaphysischer Fragen will Kant nun die Frage, wie überhaupt eine Metaphysik als Wissenschaft möglich ist, beantworten. Diese Metaphysik muss den Anspruch erfüllen, grundlegende Erkenntnisse zu enthalten, die a priori gelten. Die Kritik behandelt die reinen Bedingungen der Erkenntnis, d. h. diejenigen, die unabhängig von jeder bestimmten empirischen Erfahrung möglich sind, in drei Abschnitten: der "transzendentalen Ästhetik" als Theorie der Möglichkeit der Anschauungen, der "Analytik der Begriffe" und der "Analytik der Grundsätze", die jeweils dasselbe für Begriffe und Urteile leisten. Letztere gehören zur "transzendentalen Logik". Eine Grundlegung der Schlüsse in transzendentaler Hinsicht gibt es jedoch nicht, da die durch sie hergestellte Einheit der Erfahrung zunächst nur subjektiv ist und objektiv nur regulative Funktion hat. An ihrer Stelle enthält die "transzendentale Logik" eine "transzendentale Dialektik", worunter Kant eine Logik unvermeidlicher Irrtümer der Vernunft versteht. In diesem Rahmen findet auch eine Auseinandersetzung mit klassischen metaphysischen Positionen statt, die Kant als Folgen solcher Irrtümer entlarvt. Diese vier Teile machen die "transzendentale Elementarlehre" aus. Schließlich behandelt Kant in der transzendentalen Methodenlehre die didaktischen und argumentativen Verfahren, die an die Stelle der älteren und dogmatischen Metaphysik treten. Das Buch wurde 1827 wegen der darin enthaltenden Widerlegungen der Gottesbeweise vom Vatikan auf das Verzeichnis verbotener Bücher gesetzt. Die "transzendentale Ästhetik" stellt die Formen der Sinnlichkeit a priori vor: die reinen Anschauungen Raum  und Zeit. Indem Kant Raum und Zeit zu Formen des sinnlichen Anteils der Erkenntnis macht, werden sie Grundlagen der Mathematik als apriorische Wissenschaft, aber auch der Naturwissenschaft und der Alltagserkenntnis. Es muss daher nicht - wie im Wolffianismus zwischen einem idealen Raum der Mathematik und einem realen Raum der physischen Wechselwirkung - oder wie bei Newton zwischen einem realen Raum der Physik und einem phänomenalen Raum des Erlebens unterschieden werden. Alle Anschauungen sind Empfindungen in einer räumlichen und zeitlichen Ordnung, die den objektiven Beziehungen zwischen den Gegenständen, so wie wir sie erfahren, zu Grunde liegt. Im ersten Teil der "transzendentalen Logik", der transzendentalen Analytik, postuliert Kant dass zur Erkenntnis aber auch bestimmte reine Begriffe, die Kategorien, notwendig sind. Nur durch sie können aus dem sinnlich Gegebenen Gegenstände der Erfahrung werden. Diese Begriffe findet Kant am Leitfaden der möglichen logischen Verknüpfung von Vorstellungen. Durch Anwendung der Kategorien auf Raum und Zeit ergibt sich ein System von Grundsätzen, die a priori gewiss sind, und allgemeine Bedingungen für erfahrbare Objekte darstellen, wie z. B. die kausale Verknüpfung aller Erscheinungen. Damit ist die Möglichkeit einer reinen Mathematik und einer reinen Naturwissenschaft gegeben. Doch mit dieser Bestimmung der Kategorien als für die Einheit der Erscheinungen notwendige Verknüpfungsregeln, ergibt sich, dass diese Begriffe nicht auf die Dinge, wie sie „an sich“ sind (Noumenon), anwendbar sind, sondern nur, sofern sie die Sinnlichkeit affizieren und somit Vorstellungen in der Ordnung von Raum und Zeit im individuellen Bewusstsein erzeugen. In dem Versuch der menschlichen Vernunft, das Unbedingte zu erkennen und die sinnliche Erkenntnis zu übersteigen, verwickelt sie sich in Widersprüche, die Antinomien, da jenseits der Erfahrung keine Wahrheitskriterien mehr zugänglich sind. Dennoch hat die Vernunft ein notwendiges Bedürfnis, diesen Versuch zu unternehmen, die "Naturanlage zur Metaphysik", da nur ein solcher Versuch zwischen Erfahrungswelt und dem Subjekt eine sinnvolle Verbindung stiftet. Kant analysiert diese notwendigen Irrtümer und Widersprüche im zweiten Teil der "transzendentalen Logik", der "transzendentalen Dialektik". Die metaphysischen Beweise z. B. für die Unsterblichkeit der Seele, die Unendlichkeit der Welt oder das Dasein Gottes führten zu unauflöslichen Antinomien, die Ideen der Vernunft sind nur als regulative, die Erfahrungserkenntnis leitende Begriffe von sinnvollem Gebrauch. Kant kommt zu dem Ergebnis, dass die Existenz Gottes und einer unsterblichen Seele oder die Ewigkeit der Welt keine Gegenstände einer möglichen Erkenntnis sein können. Insbesondere für die Freiheit weist er aber nach, dass diese, insofern sie transzendental verstanden wird, weder durch reine Vernunft, noch durch Erfahrung je widerlegt werden kann. Insofern Zustände auch spontan entstehen können und der Verstand sie aber nur als Fälle von empirischer Regelmäßigkeit (Kausalität) begreifen und erfassen kann, kann für jede Erscheinung auch an eine transzendentale Ursache geglaubt werden, zum Beispiel an einen freien Willen der Menschen oder an Gott. Erkenntnistheorie. "„Was kann ich wissen?“" Kant war in seiner vorkritischen Phase Vertreter eines revisionistischen Rationalismus der Wolffschen Schule. Durch seine Versuche, die Metaphysik der Monadologie mit der Naturphilosophie von Isaac Newton zu vereinbaren und schließlich durch das Studium Humes wird Kant jedoch aus seinem „dogmatischen Schlummer“ geweckt (). Er erkennt die Kritik Humes am Rationalismus als methodisch richtig an, d.h. eine Rückführung der Erkenntnis allein auf den reinen Verstand ohne sinnliche Anschauung ist für ihn nicht mehr möglich. Andererseits führt der Empirismus von David Hume zu der Folgerung, dass eine sichere Erkenntnis überhaupt nicht möglich sei, d.h. in den Skeptizismus. Diesen erachtet Kant jedoch angesichts der Evidenz gewisser synthetischer Urteile a priori – vor allem in der Mathematik (etwa die apriorische Gewissheit der Gleichung 7+5=12) und in der (klassischen) Physik für unhaltbar. Immerhin aber habe der Hume’sche Skeptizismus „einen [methodischen] Funken geschlagen“, an welchem ein erkenntnistheoretisches „Licht“ zu „entzünden“ sei. So kommt Kant zu der Frage, wie Erkenntnis überhaupt und insbesondere Erkenntnis "a priori" möglich sei; denn dass sie möglich sei, stehe angesichts der Leistungen der Mathematik und der Physik außer Frage. Unter welchen Bedingungen ist also Erkenntnis überhaupt möglich? Oder – wie Kant es formuliert –: "Was sind die Bedingungen der Möglichkeit von Erkenntnis?" Die "Kritik der reinen Vernunft (KrV)", in der Kant seine Erkenntnistheorie als Fundament einer wissenschaftlichen Metaphysik formuliert, ist daher eine Auseinandersetzung einerseits mit der rationalistischen, andererseits mit der empiristischen Philosophie des 18. Jahrhunderts, die sich vor Kant gegenüberstanden. Zugleich wird die "KrV" eine Auseinandersetzung mit der traditionellen Metaphysik, soweit diese Konzepte und Modelle zur Erklärung der Welt jenseits unserer Erfahrung vertritt. Gegen den Dogmatismus der Rationalisten (z. B. Christian Wolff, Alexander Gottlieb Baumgarten) steht, dass Erkenntnis ohne sinnliche Anschauung, d. h. ohne Wahrnehmung, nicht möglich ist. Gegen den Empirismus steht, dass sinnliche Wahrnehmung unstrukturiert bleibt, wenn der Verstand nicht Begriffe hinzufügt und durch Urteile und Schlüsse, d.h. durch Regeln mit der Wahrnehmung verbindet. Für Kant erfolgt Erkenntnis in Urteilen. In diesen Urteilen werden die Anschauungen, die aus der Sinnlichkeit stammen, mit den Begriffen des Verstandes verbunden (Synthesis). Sinnlichkeit und Verstand sind die beiden einzigen, gleichberechtigten und voneinander abhängigen Quellen der Erkenntnis. Illustration zur Erkenntnistheorie von Immanuel Kant Wie kommt es nun zur Erfahrung, also zur Erkenntnis der Welt? Kant diskutiert dies in der "Transzendentalen Analytik", dem zweiten Teil seiner Kritik der reinen Vernunft. Zuvor bestimmt er jedoch mit der transzendentalen Ästhetik die sinnlichen Grundlagen der Wahrnehmung. Durch die reinen Anschauungen Raum und Zeit unterscheiden wir laut Kant einen äußeren Sinn, in dem uns Vorstellungen im Raum nebeneinander gegeben sind. Wir haben andererseits einen inneren Sinn, mit dem wir Vorstellungen als zeitliche Abfolge erleben. Die reinen Anschauungen Raum und Zeit sind damit die Formen aller sinnlichen Vorstellungen von Gegenständen überhaupt, weil wir uns diese ohne Raum und Zeit nicht vorstellen können. Die Sinne sind aber rezeptiv, d. h. sie enthalten Vorstellungen nur wenn sie von einer begrifflich nicht fassbaren Außenwelt (dem "Ding an sich selbst") affiziert (≈ angeregt) werden. Kant vertritt aber keine simple Abbildtheorie. Nach Kants berühmter "kopernikanischen Wende" erkennen wir nicht das Ding an sich, sondern nur dessen Erscheinung, was es "für uns" ist. Die Erscheinung ist dasjenige, was das Erkenntnissubjekt als Gegenstand einer durch die Sinnlichkeit gegebenen Anschauungen (vgl.) erkennt. Dabei sind die allgemeinsten Regeln, unter denen die Dinge, wie wir sie erkennen, stehen, die Strukturen der Sinnlichkeit und des Verstandes, und nicht etwa in einem Sein an sich begründete ontologische Prinzipien. Der Mensch erkennt also aufgrund seiner eigenen persönlichen Erkenntnisfähigkeit und weiß nicht, ob diese Erkenntnis tatsächlich eine Entsprechung in der Außenwelt hat. Kant erläutert diese in der Vorrede zur zweiten Auflage der "KrV", indem er sich auf Kopernikus bezieht, der die sichtbare Bewegung der Planeten und Fixsterne durch die Eigenbewegung der Erde um ihre Eigene Achse und um die Sonne erklärt. Der Zuschauer ist derjenige, der sich dreht, nicht der Sternenhimmel. So, wie wir uns die Welt vorstellen, gibt es Gegenstände, deren Wirkung von den Sinnen aufgenommen wird – die Sinnlichkeit wird affiziert. Wir bemerken allerdings nur die Ergebnisse dieser Affektion, die sinnlichen Anschauungen. Die Erscheinungen werden uns nur als räumliche Gegenstände gegeben. Das Räumlich-Sein ist sogar die Bedingung ihrer Existenz. Die Außenwelt, wenn wir sie als die Gesamtheit der Erscheinungen verstehen, ist dabei bereits eine „subjektive“ Vorstellung. Solche aus einzelnen Elementen zusammengesetzten empirischen Anschauungen nennt Kant Empfindungen. Raum und Zeit aber werden als reine Formen der sinnlichen Anschauung den Empfindungen (der Materie) hinzugefügt. Sie sind reine Formen der menschlichen Anschauung und gelten nicht für Gegenstände an sich. Dies bedeutet, dass Erkenntnis immer vom Subjekt abhängig ist. Unsere Realität sind die Erscheinungen, d.h. alles was für uns in Raum und Zeit ist. Dass wir uns keine Gegenstände ohne Raum und Zeit vorstellen können, liegt nach Kant an unserer Beschränktheit und nicht in den Gegenständen an sich. Ob Raum und Zeit in den Dingen an sich existieren, können wir nicht wissen. Erscheinungen allein führen aber noch nicht zu Begriffen, und erst recht nicht zu Urteilen. Sie sind zunächst völlig unbestimmt. Kant führt seine Überlegungen hierzu in dem Abschnitt über die transzendentale Logik aus, die den Anteil des Verstandes an der Erkenntnis behandelt, und die in eine Theorie der Begriffe und der Urteile zerfällt. Die Begriffe kommen aus dem Verstand, der diese spontan durch die "produktive Einbildungskraft" nach Regeln bildet. Hierzu bedarf es des transzendentalen Selbstbewusstseins als Grundlage allen Denkens. Das reine, d. h. von allen sinnlichen Anschauungen abstrahierte Bewusstsein des "„Ich denke“", das man auch als die Selbstzuschreibung des Mentalen bezeichnen kann, ist der Angelpunkt der Kantischen Erkenntnistheorie. Dieses Selbstbewusstsein ist der Ursprung reiner Verstandesbegriffe, der Kategorien. Quantität, Qualität, Relation und Modalität sind die vier Funktionen des Verstandes, nach denen Kategorien gebildet werden. Anhand der Kategorien verknüpft der Verstand mit Hilfe der Urteilskraft (dem Vermögen unter Regeln zu subsumieren) die Empfindungen nach so genannten Schemata. Ein Schema ist das allgemeine Verfahren der Einbildungskraft, einem Begriff sein Bild zu verschaffen; z. B. sehe ich auf der Straße ein vierbeiniges Etwas. Ich erkenne: dies ist ein Dackel. Ich weiß: ein Dackel ist ein Hund, ist ein Säugetier, ist ein Tier, ist ein Lebewesen. Schemata sind also (möglicherweise mehrstufige) strukturierende Allgemeinbegriffe, die nicht aus der empirischen Anschauung gewonnen werden können, sondern dem Verstand entstammen, sich aber auf die Wahrnehmung beziehen. Nachdem beschrieben wurde, wie Erkenntnis überhaupt möglich ist, kommt nun die grundlegende Frage Kants, ob wir die Wissenschaftlichkeit der Metaphysik begründen können. Gibt es aus reinen Verstandesüberlegungen Aussagen, die unsere Erkenntnisse inhaltlich vermehren? Kant formuliert die Frage wie folgt: "Sind synthetische Erkenntnisse a priori möglich?" Kants Antwort ist „Ja“. Wir können durch die Kategorien synthetische Erkenntnisse a priori gewinnen. So sind z. B. unter dem Begriff der Relation die Kategorien der Substanz, der Kausalität und der Wechselwirkung erfasst. Am Beispiel der Kausalität kann man sehen: In unserer sinnlichen Wahrnehmung erkennen wir zwei aufeinander folgende Phänomene. Deren Verknüpfung als Ursache und Wirkung entzieht sich aber unserer Wahrnehmung. Kausalität wird von uns gedacht und zwar mit Allgemeinheit und Notwendigkeit. Wir verstehen Kausalität als Grundprinzip der Natur – dies gilt auch in der heutigen Physik, auch wenn diese in ihren Grundlagen nur mit Wahrscheinlichkeiten und Energiefeldern operiert –, weil wir die Kausalität in die Natur, wie sie uns erscheint, hineindenken. Allerdings schränkt Kant diese Auffassung gegen die Rationalisten klar ein. Kategorien ohne sinnliche Anschauung sind reine Form und damit leer (s.o.), d.h. zu ihrer Wirksamkeit bedarf es der empirischen Empfindungen. Hier liegt die Grenze unserer Erkenntnis. Wie kommt es nun zu den metaphysischen Theorien? Dies ist eine Frage der Vernunft, die den Teil des Verstandes bezeichnet, mit dem wir aus Begriffen und Urteilen Schlüsse ziehen. Es liegt im Wesen der Vernunft, dass diese nach immer weiter gehender Erkenntnis strebt und am Ende versucht, das Unbedingte oder Absolute zu erkennen. Dann aber verlässt die Vernunft den Boden der sinnlich fundierten Erkenntnis und begibt sich in den Bereich der Spekulation. Dabei bringt sie notwendig die drei transzendentalen Ideen Unsterblichkeit (Seele), Freiheit (Kosmos) und Unendlichkeit (Gott) hervor. Kant zeigt nun in der Dialektik als der Wissenschaft vom Schein, dass die Existenz dieser regulativen Prinzipien weder bewiesen noch widerlegt werden kann. Für Kant ist es ein Skandal der Philosophie, dass es der Metaphysik bisher nicht gelungen sei, ihre traditionellen Streitigkeiten zu entscheiden. Sein Ziel ist es, wie in der Mathematik seit Thales oder in den Naturwissenschaften seit Galilei auch der Metaphysik eine Methode zu geben, die es erlaubt, zu haltbaren Aussagen zu gelangen. Der Weg dazu ist die Bestimmung der Grenzen des Erkennbaren und die Abweisung transzendenter, über das Erkennbare hinausgehender Erkenntnisansprüche. Kant fasste dieses Vorgehen mit der - außerhalb ihres Kontextes nicht unmissverständlichen - Formulierung zusammen, man müsse in der Metaphysik. Als Gegenstand des "Glaubens" werden dabei die drei Postulate der praktischen Vernunft verstanden. Von der zögernden Rezeption und erheblichen Missverständnissen in der ersten Rezension der "Kritik der reinen Vernunft" veranlasst, veröffentlicht Kant 1783 die "Prolegomena", die allgemeinverständlich in die kritische Philosophie einführen sollen. Auch die naturphilosophischen Fragen nimmt Kant wieder auf und 1786 erscheinen die "Metaphysischen Anfangsgründe der Naturwissenschaft", die die Grundlagen der Newtonschen Physik durch die kritischen Grundsätze begründen, dabei aber eine Theorie der Kräfte entwickeln, die aus der Newtonschen Naturphilosophie herausführen und den Ausgangspunkt für die Naturphilosophie des deutschen Idealismus bildeten. Grundlegung der Moralphilosophie. Die Frage: „Was soll ich tun?“ ist die grundlegende Frage der kantschen Ethik. Aber eine Antwort auf diese Frage war erst durch erkenntnistheoretische Untersuchungen in der "Kritik der reinen Vernunft" möglich, durch die Kant ein theoretisches Fundament für die praktische Philosophie geschaffen hatte. Die Fragen nach der Grundlegung der Moralphilosophie, die in den Schlusskapiteln der Kritik der reinen Vernunft nur angedeutet sind, führt Kant 1785 in der "Grundlegung zur Metaphysik der Sitten" (GMS) aus. Hier wird der kategorische Imperativ als grundlegendes Prinzip der Ethik entwickelt und die Idee der Freiheit, die in der ersten Kritik für die theoretische Vernunft nicht beweisbar war, wird nun als fundamentales und notwendiges Postulat der praktischen Vernunft gerechtfertigt. Nach der Überarbeitung einzelner Stücke der "Kritik der reinen Vernunft" für die zweite Auflage 1787 erscheint 1788 die "Kritik der praktischen Vernunft" (KpV), die den moralphilosophischen Ansatz der „Grundlegung“ argumentativ teilweise revidiert und handlungstheoretisch weiter ausbaut. Die Bestimmung des vernünftigen Willens allein durch sich selbst gebietet es also, die Maxime des eigenen Handelns am Prinzip der Sittlichkeit auszurichten. Für den Menschen, der kein reines Vernunft- sondern zugleich ein sinnliches Wesen ist, drückt sich dieses Prinzip in der Formel eines kategorischen Imperativs als unbedingte Forderung aus. Kant gibt in der GMS mehrere verschiedene Formulierungen des kategorischen Imperativs; Ohne Freiheit wäre der kategorische Imperativ unmöglich, umgekehrt ist die Freiheit erst aus dem Sittengesetz erweislich, denn rein theoretisch lässt sie sich nicht sichern. Wenn der Mensch nach dem Sittengesetz handelt, so ist er von sinnlichen, auch triebhaften Einflüssen unabhängig und daher nicht fremdbestimmt (heteronom), sondern autonom. Als autonomes Wesen verfügt er nach Kants Auffassung über Menschenwürde. Voraussetzung der Menschenwürde ist für Kant jedoch nicht, dass ein Mensch sittlich handelt, sondern, dass er zu sittlichem Handeln fähig ist. Kant entwickelt sein Freiheitsverständnis in Auseinandersetzung mit den zu seiner Zeit verbreiteten Meinungen zur Willensfreiheit. Hume beispielsweise behauptet, der Mensch sei ganz und gar ein natürliches Wesen, das ausschließlich den Kausalketten unterworfen sei, denen auch die übrige Natur unterliegt. Kant versucht dagegen, den Widerspruch zwischen dem Denken in natürlichen Kausalitätsketten und der Notwendigkeit des freien Willens für die Moral aufzulösen. Dazu betrachtet er den Menschen aus doppelter Perspektive: Zum einen sieht er den Menschen als ein empirisches Wesen, das wie bei Hume den Naturgesetzen unterliegt. Zugleich ist der Mensch jedoch auch ein intelligibles Wesen, das sich an moralischen Prinzipien orientieren und den Gesetzen folgen kann, die sich die Vernunft selbst gibt, und gehört damit zugleich dem "„Reich der Freiheit“" an. Ein freier Wille ist für Kant also nur ein Wille unter sittlichen Gesetzen. In seiner späten Religionsphilosophie entwirft Kant dann aber auch eine Theorie, wie sich die Entscheidung zum bösen Handeln mit seinem Freiheitsverständnis vereinbaren lässt. Wegen der Ausrichtung am Forderungscharakter des moralischen Gebots ist Kants Ethik ihrem Ansatz nach eine Pflichtethik im Gegensatz zu einer Tugendethik, wie sie Aristoteles vertritt. Auch nach Kant strebt jeder Mensch unvermeidlich nach „Glückseligkeit“, doch die Vielfalt der subjektiven Meinungen über das menschliche Glück erlaubt es nicht, objektive Gesetze einer eudaimonistischen Ethik abzuleiten. An die Stelle des Glücks setzt Kant in der Folge die "„Würdigkeit zum Glück“", die aus dem sittlichen Verhalten entsteht. Nur wenn der Mensch seine Pflicht erfüllt, ist er der Glückseligkeit würdig. Das Glücksverlangen wird nicht geleugnet und auch nicht kritisiert, bestritten wird von Kant jedoch, dass es bei der Entscheidung der Frage nach dem moralisch Erforderlichen eine Rolle spielen dürfe. Wo Kant in seinen anderen Schriften zur praktischen Philosophie nicht von den Grundlegungsfragen handelt, sondern von den konkreten ethischen Phänomenen, zeigt sich, dass seine Ethik kein leerer Formalismus und auch keine rigoristische Überforderung des Menschen ist, sondern sich durchweg darum bemüht zeigt, die Vielfalt menschlicher Handlungsweisen zu erfassen. Im menschlichen Leben ist Kants Meinung nach nicht das volle Glück, sondern nur die "„Selbstzufriedenheit“" erreichbar. Darunter versteht er die Zufriedenheit des Menschen damit, dass er sich in seinem Handeln an der Sittlichkeit orientiert. Es gehört für Kant zu den sittlichen Pflichten, das Glück anderer Personen durch Hilfsbereitschaft und uneigennütziges Handeln in Freundschaft, Ehe und Familie zu befördern. Rechtsphilosophie und Ethik. 1793 verkündet Kant im Vorwort zur "Kritik der Urteilskraft", mit dieser Schrift sei sein kritisches Geschäft abgeschlossen. Nunmehr wolle er Geschäft schreiten, also der Ausarbeitung eines Systems der Transzendentalphilosophie. Voraus geht jedoch noch "Die Religion innerhalb der Grenzen der bloßen Vernunft" (1793), worin Kant den Vernunftgehalt der Religion untersucht und den Ansatz einer moralisch-praktischen Vernunftreligion, wie ihn schon die Postulatenlehre der zweiten und dritten Kritik entwickelt, weiter erläutert. Geschichte, Aufklärung und Religion. Kant war optimistisch, dass das freie Denken, das sich insbesondere unter Friedrich dem Großen – wenn auch überwiegend auf die Religion bezogen – stark entwickelt hatte, dazu führt, dass sich die Sinnesart des Volkes allmählich verändert und am Ende die Grundsätze der Regierung beeinflusst, den Menschen. Kant war ein starker Befürworter der französischen Revolution und stand auch zu dieser Haltung, obgleich er nach der Regierungsübernahme durch Friedrich Wilhelm II. durchaus mit Sanktionen rechnen musste. Trotz zunehmender Zensur veröffentlichte Kant in dieser Zeit seine religiösen Schriften. Gott lässt sich diesennach nicht beweisen. Doch konsequentes moralisches Handeln ist nicht möglich ohne den Glauben an Freiheit, Unsterblichkeit und Gott. Daher ist die Moral das Ursprüngliche und die Religion erklärt die moralischen Pflichten als göttliche Gebote. Die Religion folgte also dem bereits vorhandenen Moralgesetz. Um die eigentlichen Pflichten zu finden, muss man nun umgekehrt das Richtige aus den verschiedenen Religionslehren herausfiltern. Rituelle kirchliche Praktiken kritisierte Kant als Pfaffentum. Nach der Veröffentlichung der Religionsschrift "Die Religion innerhalb der Grenzen der bloßen Vernunft" 1793 und 1794 erhielt Kant tatsächlich per Kabinettsorder das Verbot, weiter in diesem Sinne zu veröffentlichen. Kant beugte sich für die Regierungszeit des Königs, nahm die Position nach dessen Tod in dem "Streit der Fakultäten" jedoch unvermindert wieder auf. "Was auf das Leben folgt, deckt tiefe Finsternis. Was uns zu tun gebührt, des sind wir nur gewiß. Dem kann, wie Lilienthal, kein Tod die Hoffnung rauben, der glaubt, um recht zu tun, recht tut, um froh zu glauben." Ästhetik und Zwecke der Natur. Üblicherweise wird die "Kritik der Urteilskraft" (KdU) als drittes Hauptwerk Kants bezeichnet. In dem 1790 veröffentlichten Werk versucht Kant sein System der Philosophie zu vervollständigen und eine Verbindung zwischen dem theoretischen Verstand, der der Naturerkenntnis zugrunde liegt, einerseits, und der praktischen reinen Vernunft, die zur Anerkennung der Freiheit als Idee und zum Sittengesetz führt, andererseits herzustellen. Das Gefühl der Lust und der Unlust ist das Mittelglied zwischen Erkenntnisvermögen und Begehrungsvermögen. Das verbindende Prinzip ist die Zweckmäßigkeit. Diese zeigt sich zum einen im ästhetischen Urteil vom Schönen und Erhabenen (Teil I) und zum anderen im teleologischen Urteil, das das Verhältnis des Menschen zur Natur bestimmt (Teil II). In beiden Fällen ist die Urteilskraft nicht bestimmend, wie bei der Erkenntnis, wo ein bestimmter Begriff unter einen allgemeinen Begriff gefasst wird, sondern reflektierend, was bedeutet, dass aus dem Einzelnen das Allgemeine gewonnen wird. Die Bestimmung des Ästhetischen ist ein subjektiver Urteilsvorgang, in dem einem Gegenstand von der Urteilskraft ein Prädikat wie schön oder erhaben zugesprochen wird. Kriterien für reine Geschmacksurteile sind, dass diese unabhängig von einem Interesse des Urteilenden gefällt werden, dass diese Urteile subjektiv sind, dass weiterhin das Urteil Allgemeingültigkeit beansprucht und dass schließlich das Urteil mit Notwendigkeit erfolgt. Ein ästhetisches Urteil ist, auch wenn es ohne alles Interesse und ohne alle Begriffe im Gegensatz zum Erkenntnisurteil gedacht wird, rein subjektiv; gleichwohl beansprucht es nach Kant Allgemeingültigkeit (KdU, §8/§9). Dies ist nur möglich, wenn eine „quasi-Erkenntnis“ vorliegt, sonst ist eine Allgemeingültigkeit nicht denkbar. Diese Erkenntniskraft entsteht im freien Spiel von Einbildungskraft (für die Zusammensetzung des Mannigfaltigen der Anschauung) und Verstand (für die Vereinigung der Vorstellung zu Begriffen), das beim Betrachter eines Gegenstandes ein Gefühl der Lust (oder Unlust) erzeugt und ein Wohlgefallen auslöst, das wir mit dem Gegenstand verbinden, den wir „schön“ nennen, ohne dass jedoch erst diese Lust das Urteil auslösen würde. Insofern fordert der Betrachter eines Gegenstandes, der ein ästhetisches Urteil durch Wohlgefallen denkt, dass dieses Urteil für jedermann Gültigkeit hat und auch durch keine Diskussion wegzudenken ist, selbst wenn es keine Übereinstimmung in der Meinung gibt (KdU § 7). Wie in der Ethik sucht Kant nach den formalen Kriterien eines Urteils (nach den Bedingungen der Möglichkeit) und klammert die inhaltliche (materiale) Bestimmung des Schönen aus. Wenn der Betrachter einen Gegenstand beurteilt, muss etwas am Gegenstand (an der Oberfläche) vorhanden sein, damit dieses freie Spiel der Erkenntniskraft in Gang kommt und das Gefühl der Lust auslöst, das zum Urteil eines „schönen" Gegenstandes führt. Die Eigentümlichkeit des Geschmacksurteils besteht also darin, dass es, obgleich es nur subjektive Gültigkeit hat, dennoch alle Subjekte so in Anspruch nimmt, als ob es ein objektives Urteil wäre, das auf Erkenntnisgründen beruht. Anthropologie. Mit der Frage "„Was ist der Mensch?“" setzte sich Kant vorwiegend empirisch auseinander. Ab 1773 begann er mit der Vorlesung zur Anthropologie als neuem Fach an der Universität, nachdem er schon Physische Geographie 1755 als Lehrfach eingeführt hatte. Diese Vorlesungen haben im philosophischen Werk keinen unmittelbaren Niederschlag gefunden, bilden aber einen wesentlichen Hintergrund für Kants Denken. Er betrachtete diese Art von Vorlesungen, zu denen auch die über Pädagogik zu rechnen ist, als Propädeutik für den Übergang zur Universität als Vermittlung von Weltweisheit, die mehr die empirischen Phänomene und ihre Gesetze zum Gegenstand hatte als die ersten Gründe. Dabei sollten diese Vorlesungen unterhaltsam und niemals trocken sein. Neben einschlägigen philosophischen Werken (Montesquieu, Hume) verarbeitete Kant vor allem aktuelle Literatur und Reiseberichte, entwickelte also seine Vorstellungen anhand der Berichte Dritter, um verbunden mit eigener Beobachtung und guter Menschenkenntnis ein möglichst umfassendes Menschenbild zu zeichnen. Kants Interesse galt dabei nicht der physiologischen Anthropologie, also dem "„was die Natur aus dem Menschen macht“", sondern der Frage "„was er als freihandelndes Wesen aus sich selber macht, oder machen kann und soll.“" (). Frühe Arbeiten zu diesem Themenkreis waren "Beobachtungen über das Gefühl des Schönen und Erhabenen" (1764), "Über die Krankheit des Kopfes" (1764) und "Über die verschiedenen Rassen der Menschen" (1775). Hinzuzuzählen sind auch die Schrift "Mutmaßlicher Anfang der Menschheitsgeschichte" (1786) sowie Teile der religionsphilosophischen Arbeiten. Die als Spätwerk geltende "Anthropologie in pragmatischer Hinsicht" (1798) kann als eine Zusammenfassung dieser Bemühungen angesehen werden. Das Werk beruht vor allem auf der letzten Anthropologievorlesung im Winter 1795/96. Im Gegensatz zu seinen theoretischen Schriften ist die Anthropologie „pragmatisch“. Während ein kategorischer Imperativ absolute Gültigkeit beansprucht, ist ein pragmatischer Imperativ auf einen Handlungszweck orientiert. Der moralische Imperativ ist eine Frage der reinen praktischen Vernunft; der pragmatische Imperativ fällt hingegen in den Bereich der empirischen Naturlehre (Vgl. MdS, A 12). Betrachtet man den Inhalt von Kants Anthropologie, so handelt es sich nicht um eine Philosophische Anthropologie, wie solche im 20. Jahrhundert ausgearbeitet wurden, sondern fällt nach modernem Verständnis in die Wissenschaftsbereiche von Psychologie, Ethnologie und Volkskunde (oder: Kulturanthropologie und Historische Anthropologie). Der erste Teil des Buches, die "Anthropologische Didaktik", befasst sich mit dem Vermögen der Erkenntnis, des Gefühls und des Begehrens. Dabei behandelte Kant Fragen des Selbstbewusstseins, des Wahrnehmungsapparates, des Vorstellungsvermögens, Fragen der Lust und der Unlust, die Unterscheidung von Verstehen und Urteilen oder die Prinzipien der Assoziation. Im zweiten Teil, der "Anthropologischen Charakteristik", beschrieb Kant Charaktereigenschaften und wie der Mensch diese entwickeln kann. Dabei thematisierte er die einzelne Person, die Geschlechterunterschiede, Völker, Rassen und die Menschheit als Ganzes und versuchte dabei, durch Klassifikationen Strukturen zu erarbeiten. Themen sind beispielsweise die traditionelle Lehre von den Temperamenten, die Frage der Veranlagung von Eigenschaften (Vererbung) und der Denkungsart. Frauen sah Kant als gefühlsbetont und geschmacksorientiert und weniger rational als Männer. Den fünf "„großen europäischen Nationen“" (Franzosen, Engländer, Spanier, Italiener und Deutsche) wies er typische Nationalitätenmerkmale zu. Und schließlich klassifizierte er die Menschen mit dem Begriff "Race" und teilte ähnlich wie kurz zuvor Linné die Menschheit in vier „Racen“. Kant bildete dabei eine Hierarchie, an deren Spitze die Weißen standen, gefolgt von den gelben Indianern (Bewohner von Indien), denen die "„Negers“" untergeordnet waren, während die "„kupferfarbigen“" Amerikaner das Ende bildeten. Entsprechend der Hierarchie sah Kant abnehmende geistige und soziale Fähigkeiten. Als ausschlaggebende Ursache sah er im Anschluss an die aus der Antike stammende und im 18. Jahrhundert stark verbreitete „Klimatheorie“ die geographischen und klimatischen Umweltbedingungen an. Am Schluss der „Anthropologie“ grenzt Kant den Menschen vom Tier ab durch das Vermögen der Vernunft, mit der Mensch in der Lage ist, das Böse zu überwinden und zu einer Humanität zu gelangen, welche die Menschheit als Gemeinschaft von Weltbürgern vereint. Viele der empirischen Aussagen Kants zur Anthropologie sind aus heutiger Sicht unhaltbar und durch Vorurteile geprägt. Da Kant die in seinen Quellen vorfindlichen abwertenden Aussagen, besonders über afrikanische Kulturen und Völker, in seinen eigenen Äußerungen noch verschärfte, hat man sein Werk auch in Rassen- und Kolonialideologien eingeordnet. „Opus postumum“. Unabgeschlossen ist Kants Versuch geblieben, nach der Transzendentalphilosophie auch die Naturphilosophie weiter auszubauen. Ab 1790, noch während der Arbeit an der "Metaphysik der Sitten", beginnt Kant die Arbeit an einem "„Übergang von den metaphysischen Anfangsgründen zur Physik“". Die Arbeit an diesem Werk beschäftigt ihn bis zu seinem Tod 1804. Die Manuskripte aus dieser Zeit wurden in einem "Opus postumum" zusammengefasst und sind erst seit 1935 leicht öffentlich zugänglich. Diese Manuskripte zeigen, dass Kant auch in hohem Alter noch bereit und in der Lage war, die kritische Philosophie umzugestalten. Ausgehend vom Problem, spezifische regulative Forschungsmaximen der Naturwissenschaft - insbesondere Physik, Chemie und Biologie - zu rechtfertigen, sieht sich Kant zuerst gezwungen, die Rolle der Sinne des menschlichen Körpers in der Erkenntnis genauer zu untersuchen. Einen wesentlichen Teil der Entwürfe des "Opus postumum" nimmt der Beweis eines Äthers ein, den Kant - wie bereits rund vier Jahrzehnte davor (1755) in seiner Magisterdissertation mit dem Titel "de igne" - auch Wärmestoff nennt. Die Problematik dieser Untersuchungen - welche Kant in privatem Kreis als sein „Hauptwerk“ oder "„chef d’œuvre“", bezeichnet - verschiebt sich aber im Laufe der Entwürfe auf immer abstraktere Ebenen, sodass Kant um 1800 auf eine systematische Ebene zurückkehrt, die der "Kritik der reinen Vernunft" entspricht, wenn auch nicht unbedingt ihrer (aufgrund des Zustands des Manuskripts nur schwer erkennbaren) Problemstellung. Kant entwickelt eine "„Selbstsetzungslehre“", die er dann schließlich auch auf die praktische Vernunft ausweitet, und endigt mit Entwürfen zu einem neukonzipierten "„System der Transzendentalphilosophie“", das er aber nicht mehr ausarbeiten kann. Rezeption. Immanuel Kant, Schwarzweißabbildung eines Porträts von V. C. Vernet (um 1800) a> an der Universität Königsberg (um 1836). "Kant mit Senftopf", Karikatur von Friedrich Hagermann (1801) Von größerer Bedeutung war die Kritik von Johann Georg Hamann und Johann Gottfried Herder, die Kant vorhielten, die Sprache als originäre Erkenntnisquelle vernachlässigt zu haben. Herder wies zudem darauf hin, dass der Mensch bereits im Zuge der Wahrnehmung "„metaschematisiert“", was bereits Einsichten der Gestaltpsychologie vorwegnahm. Ein weiterer grundlegender Ansatz der Kritik kam von Friedrich Heinrich Jacobi, der sich an der Trennung der zwei Erkenntnisstämme stieß und deshalb "„das Ding an sich“" verwarf. Arthur Schopenhauer betrachtete sich selbst als wichtigsten Schüler Kants. Er verabscheute die Konkurrenz von Hegel und dessen Schule und übernahm Kants Erkenntnis-Theorie in seinem Haupt-Werk Die Welt als Wille und Vorstellung, identifizierte jedoch «das Ding an sich» mit dem «Willen». Max Stirners und Friedrich Nietzsches Reaktionen sind sowohl auf Hegel, dessen Absolutismus sie verwarfen, als auch auf Kant selbst negativ, weil sie einen Ausweg aus der desillusionierenden Erkenntnis der begrenzten Möglichkeiten menschlichen Handeln suchten („Endlichkeit des Menschen“), ohne Halt bei einem fassbaren Gott, ja sogar ohne die Gewissheit der Freiheit. Das Schriftencorpus der weiterführenden philosophischen, kritischen und polemischen Kant-Literatur zwischen 1775 und 1845 wurde in der Publikationsreihe "Aetas Kantiana" zusammengestellt. Kant ist auch in der Gegenwart der am meisten rezipierte Philosoph. Dies zeigt sich an weit mehr als 1000 Monografien und Aufsatzsammlungen, die in seinem 200. Todesjahr 2004 erschienen wie auch an 1100 Teilnehmern am Kongress „Kant und die Berliner Aufklärung“ im Jahr 2000 (IX. Internationaler Kant-Kongress in Berlin). Es gibt die 1896 von Hans Vaihinger begründeten Kant-Studien mit jährlich ca. 25 Abhandlungen als Forum der 1904 im 100. Todesjahr gegründeten Kant-Gesellschaft in Halle/Saale, die Kant-Forschungsstelle an der Universität Mainz, ein Bonner Projekt zur elektronischen Veröffentlichung von Kants Schriften sowie das Marburger Kant-Archiv, das nach wie vor an der Komplettierung der Akademie-Ausgabe arbeitet. Auch in Japan gibt es eine eigene Kant-Gesellschaft. In Tokio im Tempel der Philosophen hängt seit über 100 Jahren ein Bild mit dem Titel "Die vier Weltweisen" mit der Darstellung von Buddha, Konfuzius, Sokrates und Kant. Werke. Schon im 19. Jahrhundert erschienen klassische Werkausgaben, Standardreferenz ist jedoch die so genannte „Akademieausgabe“ der Preußischen Akademie der Wissenschaften, Berlin 1900ff. (29 Bände), die auch den überlieferten Nachlass, Kants erhaltenen Briefwechsel, mehrere Bezugstexte und zahlreiche Vorlesungsmitschriften enthält. Die Betreuung wird mittlerweile von der Berlin-Brandenburgischen Akademie der Wissenschaften fortgeführt. Sein Alterswerk, das sogenannte "Opus postumum" ist aufgrund seiner wechselvollen Editionsgeschichte zwar Teil der Akademieausgabe, man kann aber weder von einer Rekonstruktion der Werksabsicht, noch einer kritischen Ausgabe, aber auch nicht von einer diplomatisch korrekten Wiedergabe der Quellen sprechen. Moderne Studienausgaben sind vor allem die Werkausgabe von Wilhelm Weischedel aus den Jahren 1955 bis 1962 und die in der Philosophischen Bibliothek erscheinenden kritischen Einzelausgaben. Ehrungen. Kants Denkmal in Königsberg, dem heutigen Kaliningrad, an seinem ersten Platz; im Hintergrund die Altstädtische Kirche 5-DM-Gedenkmünze zum 250. Geburtstag Kants Die Original-Tafel ist seit 1945 verschollen. Anlässlich der 700-Jahr-Feier der Stadt Königsberg im Jahr 1955 wurde in der Patenstadt Duisburg eine Replikation der Kant-Tafel im Brunnenhof des Duisburger Rathauses enthüllt. 1994 wurde eine zweisprachige Kant-Tafel in Kaliningrad im nördlichen Auslauf der neuen Brücke über den Pregel Richtung Hotel Kaliningrad angebracht. (Siehe auch Kantgedenktafel). Das Zitat fasst die Kants Denken beherrschenden Fragen zusammen: Die Schönheit der Ordnung der empirisch erklärbaren Natur und die Achtung vor dem Moralischen Gesetz, in der sich die Freiheit des reinen Willens zeigt. I Ging. Das I Ging bzw. Yì Jīng (, „Buch der Wandlungen“ oder „Klassiker der Wandlungen“) ist eine Sammlung von Strichzeichnungen und zugeordneten Sprüchen. Es ist der älteste der klassischen chinesischen Texte. Seine legendäre Entstehungsgeschichte wird traditionell bis in das 3. Jahrtausend v. Chr. zurückgeführt. Name und Aufbau der Sammlung. "Yì Jīng" ist die Schreibweise in Pinyin-Umschrift, die seit 1982 von der Internationalen Organisation für Normung als internationaler Standard anerkannt ist. Die Schreibweise "I Ging" ist die Umschrift nach Lessing-Othmer und wird außerhalb der modernen Sinologie im deutschen Sprachraum verwendet. Sie geht auf die Übersetzung des Sinologen Richard Wilhelm zurück. Weitere Schreibweisen sind: "Yi Ching", "Yi King", "Yijing". Wilhelms für die weltweite Rezeption entscheidende Übersetzung wurde 1950 von Cary F. Baynes ins Englische übertragen, wobei der Titel "I Ching" lautet. Gut erhaltene Erstausgaben dieser Übersetzung mit dem Vorwort von Carl Gustav Jung erzielen bei Auktionen regelmäßig Preise von über 500 Euro. Wegen des großen Erfolgs wurde diese Übersetzung auch in andere europäische Sprachen übertragen. Im Spanischen sind die Schreibweisen "Y Ching" (Südamerika) und "I Ching", und im Französischen "Yi Jing" sowie "Yi King" gebräuchlich. Die älteste Schicht des Buches heißt Zhōu Yì (周易, W.-G. Chou I), „das Yì (Wandel) der Zhōu(-Dynastie)“. Das Zhōu Yì besteht aus 64 Gruppen von je sechs durchgehenden oder unterbrochenen Linien (yáo, 爻). Die Gruppen werden auch Hexagramme genannt. In der konventionellen Anordnung ist das Zhōu Yì in zwei Bücher eingeteilt, deren erstes die ersten dreißig Hexagramme enthält und das zweite die Zeichen 31 bis 64. Jedes Hexagramm wird nach einem einheitlichen Schema dargestellt: Einer Abbildung (guà xiàng 卦象), dem Namen (guà míng 卦名), einem Spruch samt kurzer Erklärung (guà cí 卦辭) sowie einer Erklärung jedes einzelnen Strichs (yáo cí 爻辭). Zusätzlich enthält das Buch seit dem 2. Jhd. v. Chr. eine Reihe von angehängten Texten, die die "Zehn Flügel" (Shí Yì, 十翼) oder auch "Kommentar zum Yì" (Yì Zhùan, 易傳) heißen und aus zehn Dokumenten in sieben Abteilungen bestehen. Sie werden traditionell Konfuzius zugeschrieben. In manchen späteren Ausgaben sind die ersten beiden Kommentare aufgeteilt und direkt den einzelnen Zeichen zugeordnet worden. Ursprünglich stammen die Zeichen aus der chinesischen Orakel-Praxis, näherhin dem Schafgarbenorakel, die Sprüche hingegen aus der Spruchtradition und der Ritualpraxis. In der gelehrten Rezeption seit dem 4. Jhd. v. Chr. existierten zwei Deutungstraditionen: Die erste betrachtete das Werk als ein Handbuch der Divination (z. B. Liu Mu und Shao Yong). Die andere bemühte sich um eine philosophische Deutung (z. B. Zheng Xuan, Wang Bi, Han Kangbo) und betrachtete das Buch als Quelle kosmologischer, philosophischer und politischer Einsichten zum Gegenstand eindringlicher philosophischer Kommentierung. Die volkstümliche Benutzung des Zhōu Yì als Orakelbuch kam aber nie außer Gebrauch und das Verständnis des Textes als "Weisheitsbuch" prägte auch die europäische Rezeption. Entstehungsgeschichte. Die Tradition nimmt an, die Prinzipien des I Ging seien auf den "Berufenen" (sheng ren, 圣人), d. i. die Ahnengottheit, aus dem Klan Fu Xi bzw. den legendären ersten Kaiser Fu Xi (, ca. 3. Jahrtausend v. Chr.), zurückzuführen; dieser habe die acht Grundzeichen entdeckt. König Wen (Zhōu Wén wáng, 周文王, 11. Jhd. v. Chr.) und sein Sohn Zhou (Zhōu Gōngdàn; 周公旦) sollen die zwischenzeitlich auf 64 angewachsene Zahl der Zeichen mit Handlungsanweisungen versehen haben. Vor der Zhou-Dynastie soll es neben dem Zhou Yi noch andere schriftliche Überlieferungen der Hexagramme gegeben haben, das Lian Shan Yi () und das Gui Cang Yi (), die aber verlorengegangen sind. Seit der Entdeckung der Orakelknochen der Shang-Zeit (2. Jahrtausend v. Chr.) geht die Forschung davon aus, dass das I Ging aus dieser Orakelpraxis hervorgegangen ist. Diese Umwertung fand in China schon in den letzten Jahren der Qing-Zeit (Ende 19. Jhd.) statt, wurde in Europa aber erst seit ca. 1980 wahrgenommen. Die heute vorliegende Textredaktion des I Ging ist im siebten Jahrhundert n. Chr. erstellt und unter dem Titel "Zhouyi zhengyi" (周易正義, Zhōuyì zhèngyì) publiziert worden; diese Ausgabe war jahrhundertelang der maßgebliche Text. Textus receptus und ältere Überlieferungen. Für etwa 10 Prozent des Standardtextes sind bereits Zeugnisse seit dem 2. Jhd. v. Chr. erhalten, u. a. die epigraphische Überlieferung auf Steinstelen (siehe Liste der Steinklassiker). 1973 wurde in einem Grab in der Ausgrabungsstätte Mawangdui bei Changsha in der Provinz Hunan ein Seidentext (ca. 2. Jhd. v. Chr.) mit einer von dem Standardtext abweichenden Fassung des I Ging entdeckt, und ist seit der ersten Publikation im Jahr 1993 unter dem Namen "Mawangdui Seidentexte" () bekannt. Nach Edward Shaughnessy unterscheiden sich ungefähr 12 Prozent (560 Zeichen) des gesamten Textes des Mawangdui I Ging von der überlieferten Form des Textes. 1977 wurden bei einer Ausgrabung in Shuanggudui (雙古堆) bei Fuyang (富陽市) in der Provinz Anhui Bambusstreifen entdeckt, die Fragmente des Zhōu Yì enthalten (2. Jhd. v. Chr.). Seither sind durch weitere archäologische Funde noch weitere ältere oder Parallel-Versionen des Zhōu Yì aufgetaucht (die Bambustexte von Chu und die Guodian-Bambustexte). Bestandteile und deren Bedeutung. Das I Ging enthält 64 verschiedene Figuren (Hexagramme). Ein Hexagramm besteht aus sechs Linien, die jeweils in zwei verschiedenen Arten vorkommen können: Als durchgezogene waagerechte Linie (hart) und als in der Mitte unterbrochene waagerechte Linie (weich). Aus diesen beiden Linienarten werden alle 64 Hexagramme gebildet. Die Zeichen werden aus 2 × 3 Linien, also aus zwei „Trigrammen“ hergeleitet. Die durchgehenden Linien gelten als die festen und lichten, die unterbrochenen Linien gelten als die weichen und dunklen. Die Linien haben nach ihrem Platz innerhalb des Hexagramms (von unten nach oben gesehen) unterschiedlichen Rang und Bedeutung. Die betonten Linien des unteren Halbzeichens treten in das Zeichen ein, sind „kommend“, die betonten Linien im oberen Halbzeichen sind „gehend“. Die unterste und die oberste Linie eines Zeichens stehen immer in Verbindung zu anderen Zeichen und gehören nicht zu den Kernzeichen. Die 64 Bilder oder Grundzeichen (identisch mit dem Ausdruck Hexagramm) beschreiben Kräfte (1 + 2), Situationen oder Aufgaben (3 + 5 + 6 + 10 …), Familie (31 + 37 + 54), persönliche Eigenschaften oder Fähigkeiten (4 + 8 + 9 + 14…), konkrete Tätigkeiten (Wanderer, 56), politische Phasen (11 + 12 + 18 + 21…) – meist enthalten sie abstrakte Begriffe mit mehreren Deutungsmöglichkeiten. Alle 64 Bilder können jeweils 6 Zusatzhinweise haben je nachdem, ob bei der Ermittlung des Zeichens (je nach der Form des Orakels) eine Linie als "wandelnd" („dynamisch“) oder nicht („stabil“) identifiziert wurde. Die 64 Bilder beschreiben also schon 384 Situationen oder geben entsprechende Verhaltensratschläge. Da jedes der 64 Zeichen durch Wandel einer oder mehrerer Linien in alle anderen übergehen kann, gibt es 64 × 64 = 4.096 verschiedene implizite Übergänge oder Möglichkeiten des Umschlagens einer Situation. Diese große Anzahl von verschiedenen möglichen Kombinationen veranlasste die Autoren des I Ging anzunehmen, die möglichen Kombinationen von Symbolen könnten alle Möglichkeiten der Veränderungen und Wandlungen in der Welt darstellen. Die beim Erheben der Zahlenwerte notwendigen umfangreichen Rechenoperationen wurden daher Grundlage einer sich auf dem I Ging aufbauenden Zahlensymbolik. Die zwei Linien. Die beiden Linien können als Elemente eines Dualsystems gesehen werden. Bei der (in der unteren Zeile gezeigten) Repräsentierung der Symbole in Unicode entspricht allerdings der durchgezogenen Linie die Binärzahl 0 und der unterbrochenen Linie die Binärzahl 1, komplementär zur eben erwähnten Zuordnung zur Parität. Die vier Bilder. Während die Digramme aus zweimal dem gleichen Strich, die als alt, gereift, groß, hart, stark, stabil bezeichnet werden, eindeutig dem Yang bzw. Yin zugeordnet sind, bieten die Quellen keine einheitlichen Bezeichnungen für die beiden Digramme aus zwei verschiedenen Strichen. Im Gegensatz zu den hier zitierten Ansichten aus dem Buch "I Ging" (Seite 295) von Richard Wilhelm werden sowohl von Unicode, als auch in den Büchern "Das chinesische Denken" (Seite 141) von Marcel Granet und "Zhouyi zhengyi" () von Zhu Xi () die Bezeichnungen konträr zugeordnet. Ebenso sind die Symbolzuordnungen für Feuer und Wasser getauscht. Die acht Trigramme. Das erste oder untere Trigramm eines Hexagramms wird als der "innere Aspekt" der ablaufenden Veränderung angesehen; das zweite oder obere Trigramm heißt der "äußere Aspekt". Der beschriebene Wechsel verbindet somit den inneren Aspekt (Person) mit der äußeren Situation. Jedem Trigramm ist, entsprechend den männlichen (durchgezogenen) bzw. weiblichen (unterbrochenen) Linien, eine Position in der Familie zugeordnet. Der Strich, der nur einmal im Trigramm enthalten ist, ist maßgeblich für die Geschlechtszuordnung, die Zuordnung zum Alter erfolgt von unten nach oben. Himmel (Vater) und Erde (Mutter) haben eine Sonderstellung. Gelesen werden die "Hexagramme" von unten nach oben, wobei jeweils die sog. Ränge 1–4, 2–5, 3–6 der beiden "Trigramme" in Verbindung gesehen werden müssen. Historische Reihenfolgen. Historisch sind mehrere Reihenfolgen der Zeichen aufgetreten. Die älteste Reihenfolge ist die "König Wen-" oder die "konventionelle" Reihenfolge, die auf König Wen zurückgeführt wird. Eine andere Reihenfolge wird nach dem mythischen Helden Fu Xi (伏羲, Fú Xī) benannt, geht aber auf Shao Yong (aus der Zeit der Song-Dynastie) zurück; sie ist so geordnet, dass sich die Zeichen als eine Folge binärer Zahlen ansehen lassen. Darstellung der Hexagramme am Computer. Die 64 Hexagramme sind bereits im Unicode-Zeichensatz enthalten, müssen auf unicodefähigen Betriebssystemen (dies sind praktisch alle nach 2000 erschienen Betriebssysteme) also nicht gezeichnet, sondern können wie normaler Text eingegeben werden. Die Hexagramme besitzen die hexadezimalen Zeichennummern (code points) 4DC0 bis 4DFF. Kommentare zum I Ging. Im 2. Jhd. v. Chr. wurde das I Ging von den Han-Kaisern in den literarischen Kanon aufgenommen und damit Bestandteil des Prüfungssystems für den Staatsdienst. So wurde der Text zum Gegenstand einer verzweigten Kommentartradition, die sich in verschiedene Zweige spaltet. Es sind über sechzig Kommentare zum I Ging bekannt, wenn auch nicht in allen Fällen überliefert. Autoren solcher Kommentare waren u. a. Zheng Xuan (鄭玄, 127–200), Wang Bi (王弼, 226-249), Han Kangbo (韓康伯, 322-380), Kong Yingda (孔穎達, 574-648), Li Dingzuo (李鼎祚, "Zhouyi jijie" 周易集解), Chén Tuán (陈抟, ?-989), Shi Jie (石介, 1005-1045), Liu Mu (劉牧, 1011-1064), Shao Yong (邵雍, 1011–1077), Hu Yuan (胡瑗, 993-1059), Ouyang Xiu (歐陽修, 1007-1072), Zhang Zai (張載, 1020-1077), Wang Anshi (王安石, 1021-1086), Sima Guang (司馬光, 1019-1086), Su Shi (蘇軾, 1037-1101), Cheng Yi (程頤, 1033–1107), Lü Dalin (呂大臨, 1044-1091) und Zhu Xi (朱熹, 1130-1200, maßgeblicher Kommentar bis zum Jahr 1905). Das I Ging hatte sowohl in der (neo-)konfuzianischen wie in der daoistischen Tradition eine bedeutende Stellung. Im heutigen China wird der Text dagegen kaum mehr in breiteren Kreisen gelesen und gilt als weithin unverständlich. Rezeption im Westen. Frontispiz der Erstausgabe des I Ging, übersetzt und erläutert von Richard Wilhelm, Verlag E. Diederichs, 1924 Für die westliche Rezeption außerhalb der modernen Sinologie, welche sich in vielen Punkten der Auffassung des moderneren China über den Daoismus anschließt, ist bis in die neueste Zeit charakteristisch, dass sie nicht nur die jahrhundertelange chinesische Kommentartradition aufgreift, sondern unmittelbare Zugänge zum Text sucht, die oft auf von den modernen Verfassern unterstellte Eigenarten des altchinesischen Denkens rekurrieren. Nach Auffassung des Sinologen Hellmut Wilhelm, welcher Lehrstühle an der Peking-Universität und an der University of Washington innehatte, ist die im I Ging beschriebene Welt ein nach bestimmten Gesetzen ablaufendes Ganzes, dessen Formen aus der permanenten Wandlung der beiden polaren Urkräfte entstehen. Die Grundprinzipien sind das Schöpferische (Bild Nr. 1, = Himmel, Licht, Festes, yang, …) und das Empfangende (Bild Nr. 2, = Erde, Dunkel, Weiches, yin, …). Im I Ging ist „eine Zusammenordnung der Situationen des Lebens in all seinen Schichten, persönlichen sowohl wie kollektiven, und in all seiner Ausbreitung versucht.“. Der Schweizer Komponist Alfons Karl Zwicker komponierte „Secretum“ (2006–2007, 8 Stücke nach den Urzeichen des I Ging für Violoncello und Kontrabass). Nachdem John Cage das I Ging kennengelernt hatte, schuf er „Music of Changes“ (1951) und weitere Werke, welche auf dem Zufallsverfahren, ähnlich dem Orakel, basieren. Auf dem von der britischen Rockgruppe Pink Floyd 1967 veröffentlichten Album The Piper at the Gates of Dawn befindet sich ein Song mit Namen Chapter 24, welcher Textbausteine der Übersetzungen von Richard Wilhelm (ins Englische übersetzt von Cary F. Baynes) und James Legge beinhaltet. Insiderwissen. Über Insiderwissen verfügt eine Person, die innerhalb eines für andere nicht oder schwer zugänglichen Bereichs agiert und dort detaillierte Kenntnisse und Erfahrungen erlangt, die Außenstehende nicht haben. Sie hat möglicherweise auch auf anderem Wege von einer Insiderinformation erfahren. Der Bereich kann ein kaufmännisches, wissenschaftliches oder technisches Fachgebiet sein, eine "Interessengemeinschaft", ein Hobby, aber auch ein bestimmter Bereich oder ein Tätigkeitsfeld in der Wirtschaft, Politik, Kultur, Kunst, im Sport oder sogar im kriminellen Bereich ("Rauschgiftszene, Rotlichtmilieu"). Die Verwertung von Insiderwissen zur eigenen Vermögensmehrung im Rahmen von Insidergeschäften an der Börse ist nach dem deutschen Wertpapierhandelsgesetz mit Strafe bedroht. Insidern im Sinne des Wertpapierhandelsgesetzes ist es ferner untersagt, dritten Personen Insidertatsachen mitzuteilen oder zugänglich zu machen oder Kauf- bzw. Verkaufsempfehlungen auszusprechen. Siehe auch: Insider, Insidertatsache Islam. Eingang der Moschee des Propheten Mohammed in Medina Der Islam ist eine monotheistische Religion, die im frühen 7. Jahrhundert in Arabien durch den Propheten Mohammed gestiftet wurde. Mit 1,6 Milliarden Anhängern ist sie nach dem Christentum (ca. 2,2 Milliarden Anhänger) heute die zweitgrößte Weltreligion. Der arabische Begriff "Islām" () leitet sich als Verbalsubstantiv von dem arabischen Verb "aslama" („übergeben, sich ergeben, sich hingeben“) ab und bedeutet mithin „Unterwerfung (unter Gott)“, „völlige Hingabe (an Gott)“. Die Bezeichnung für denjenigen, der dem Islam angehört, ist Muslim. Grammatisch betrachtet ist das Wort das Partizip Aktiv zu dem Verb "aslama". Die eigentliche Bedeutung von "Muslim" ist also „derjenige, der sich Gott unterwirft“. Im deutschsprachigen Raum wird dieser Begriff auch als "Moslem" wiedergegeben. Die zehn Länder mit dem größten Anteil an der muslimischen Weltbevölkerung sind Indonesien (12,9 %), Pakistan (11,1 %), Indien (10,3 %), Bangladesch (9,3 %), Ägypten und Nigeria (jeweils 5 %), Iran und Türkei (jeweils 4,7 %) sowie Algerien (2,2 %) und Marokko (ca. 2 %). In ihnen zusammengenommen leben mehr als zwei Drittel aller Muslime. Die wichtigste überstaatliche islamische Organisation ist die Organisation für Islamische Zusammenarbeit (OIC) mit Sitz in Dschidda. Ihr gehören 56 Staaten an, in denen der Islam Staatsreligion, Religion der Bevölkerungsmehrheit oder Religion einer großen Minderheit ist. Muslimisch geprägte Länder in Europa sind Albanien, Bosnien und Herzegowina, der Kosovo, Mazedonien und die (geographisch nur teilweise in Europa liegende) Türkei. Viele weitere Länder haben muslimische Minderheiten. Die wichtigste textliche Grundlage des Islams ist der Koran, der als die dem Propheten Mohammed offenbarte Rede Gottes gilt. Die zweite Grundlage bilden die Berichte (Hadithe) über die Verhaltensweise (Sunna) Mohammeds, der als der „Gesandte Gottes“ Vorbildcharakter für alle Muslime hat. Die sich aus diesen Texten ergebenden Normen werden in ihrer Gesamtheit als Scharia bezeichnet. Koranische Aussagen. Der Begriff Islām kommt im Koran acht Mal vor. An mehreren Stellen wird herausgestellt, dass die Annahme des Islams Zeichen göttlicher Erwählung ist. Sie tritt dadurch ein, dass Gott den betreffenden Menschen rechtleiten will und ihm die Brust weitet (Sure 6:125 und 39:22). Menschen, die es sich selbst als Verdienst anrechnen, dass sie den Islam angenommen haben, wird entgegengehalten, dass sie diese Gnade allein Gott zu verdanken haben (Sure 49:17). Wer zum Islam gerufen wird, darf gegen Gott keine Lüge aushecken (Sure 61:7). An drei anderen Stellen wird eine Beziehung zwischen Islām und dem arabischen Begriff Dīn hergestellt, der die Bedeutung von „Religion“ hat, allerdings auch die Konnotation von „Schuld“ besitzt. In Sure 5:3 heißt es: „Ich habe für euch den Islam als Religion erwählt“ und in Sure 3:19. „Als Religion gilt bei Gott der Islam“. Dies zeigt, dass schon der Koran den "Islām" als Religion definiert. Die Geschichte dieser Religion hat nach dem Koran nicht erst mit Mohammed begonnen, sondern schon mit Abraham. Er wird in Sure 3:67 als Muslim beschrieben. Bereits im Koran selbst wird eine wichtige Unterscheidung getroffen, nämlich zwischen der Annahme des Islams ("islām") und der Annahme des Glaubens ("īmān"). So werden in Sure 49:16 die Araber der Wüste aufgefordert, nicht zu sagen, „Wir haben den Glauben angenommen“, sondern „Wir haben den Islam angenommen“, weil der Glaube noch nicht in ihre Herzen eingegangen sei. An derartige Aussagen knüpft sich die Vorstellung, dass derjenige, der den Islam angenommen hat, also ein Muslim ist, nicht unbedingt ein „Gläubiger“, also ein "muʾmin", sein muss. Was „Islām“ ursprünglich bedeutete, wenn damit nicht der Glaube gemeint ist, wird unterschiedlich beurteilt. Meïr Bravmann, der den Sprachgebrauch des Wortes in der altarabischen Literatur untersucht hat, meint, dass er in der frühislamischen Gemeinschaft, die stark auf den Dschihad ausgerichtet war, die Bereitschaft zur Selbstaufopferung im Kampf bezeichnete. Die im Koran getroffene Unterscheidung zwischen Islam und Glaube hat in der islamischen Theologie Anlass zu zahlreichen Debatten gegeben. Es wurde nie völlig geklärt, in welchem Verhältnis sich die beiden Prinzipien zueinander befinden. Die meisten Theologen der vormodernen Zeit haben jedoch darauf gedrungen, Islam und Glauben auseinanderzuhalten. Fünf Säulen. Eine regelrechte Definition für den Islam findet man nicht im Koran, sondern nur in den Berichten über den Propheten, und zwar im sogenannten Gabriel-Hadith, der über ʿUmar ibn al-Chattāb auf den Propheten zurückgeführt wird. Auch hier wird wiederum zwischen Islam und Glauben unterschieden. Als dritte Kategorie wird „gutes Handeln“ ("ihsān") eingeführt. Der Islam besteht nach diesem Hadith daraus, „dass Du bekennst, dass es keinen Gott gibt außer Gott und dass Mohammed der Gesandte Gottes ist; dass Du das Pflichtgebet verrichtest und die Armengabe leistest, dass Du im Ramadan fastest und zum Haus (Gottes) pilgerst, wenn du in der Lage bist, dies zu tun.“ Eine ausführliche Beschreibung der einzelnen fünf Säulen findet sich in den betreffenden Hauptartikeln. Hier werden nur die wichtigsten Punkte zusammengefasst. Glaubensbekenntnis. Die "šahāda" als kalligrafischer Schriftzug Ein weiterer kalligrafischer Schriftzug der "šahāda" Mit dieser aus zwei Teilen bestehenden Formel bekennt sich der Muslim eindeutig zum strengen Monotheismus, zu Mohammeds prophetischer Sendung und zu dessen Offenbarung, dem Koran, und somit zum Islam selbst. Wer das Glaubensbekenntnis bei vollem Bewusstsein vor zwei Zeugen spricht, gilt unumkehrbar als Muslim. Rituelles Gebet. Das rituelle Gebet () soll fünf Mal am Tag verrichtet werden, vor dem Sonnenaufgang, mittags, nachmittags, bei Sonnenuntergang und bei Einbruch der Nacht. Vor jedem dieser Gebete sind eine Ankündigung durch den Gebetsruf und eine rituelle Waschung verpflichtend. Diese Formel wird ebenfalls fünf Mal am Tag vom Muezzin () beim Adhan () vom Minarett () gerufen, um die Muslime zum rituellen Pflichtgebet () zu rufen, in dem die Formel ebenfalls vorkommt. Ebenso soll der Muslim sich vor dem Gebet bewusst machen, dass er das Gebet nicht aus Routine, sondern aus der Absicht, Gott zu dienen, vollzieht. Um in den für das Gebet notwendigen Weihezustand () einzutreten folgt die Formel „Gott ist größer (als alles andere)“ (). Notwendig für die Gültigkeit des Gebetes ist, dass der Betende dabei die Gebetsrichtung zur Kaaba in Mekka einnimmt. Sie gilt im Islam als das Heiligste und als das Haus Gottes. Im Stehen werden eine Reihe weiterer Formeln und die erste Sure des Koran () rezitiert. Es folgen mehrere von verschiedenen Formeln begleitete Niederwerfungen (). Mit einigen weiteren Formeln findet das Gebet seinen Abschluss. An sich kann das Gebet an jedem rituell reinen Ort, eventuell auf einem Gebetsteppich, vollzogen werden, idealerweise jedoch in der Moschee (). Am Freitag wird das Gebet am Mittag durch ein für Männer verpflichtendes und für Frauen empfohlenes Gemeinschaftsgebet () in der Moschee ersetzt, das von einer Predigt () begleitet wird. Almosensteuer. Die Almosensteuer (Zakāt,) ist die verpflichtende, von jedem psychisch gesunden, freien, erwachsenen und finanziell dazu fähigen Muslim zur finanziellen Beihilfe von Armen, Sklaven, Schuldnern und Reisenden sowie für den "Dschihad" zu zahlende Abgabe. Die Höhe variiert je nach Einkunftsart (Handel, Viehzucht, Anbau) zwischen 2,5 und 10 Prozent ebenso wie die Besteuerungsgrundlage (Einkommen oder Gesamtvermögen). Als ein Prozess der Umverteilung von Reichtum wird die Einsammlung und Verteilung der Zakāt als ein wichtiges Mittel zur Linderung von Armut betrachtet. Fasten. Das Fasten ("saum") findet alljährlich im islamischen Monat Ramadan statt. Der islamische Kalender verschiebt sich jedes Jahr im Vergleich zum gregorianischen Kalender um elf Tage nach vorne. Gefastet wird von Beginn der Morgendämmerung – wenn man einen „weißen von einem schwarzen Faden unterscheiden“ kann (Sure 2, Vers 187) – bis zum vollendeten Sonnenuntergang; es wird nichts gegessen, nichts getrunken, nicht geraucht, kein ehelicher Verkehr und Enthaltsamkeit im Verhalten geübt. Muslime brechen das Fasten gerne mit einer Dattel und einem Glas Milch, wie dies der Prophet getan haben soll. Der Fastenmonat wird mit dem Fest des Fastenbrechens ("'Īd al-fitr") beendet. Pilgerfahrt. a>, der Pilgerreise der Muslime nach Mekka Die im letzten Mondmonat Dhū l-Hiddscha stattfindende Pilgerfahrt nach Mekka ("Haddsch",) soll jeder Muslim, sofern möglich, mindestens einmal in seinem Leben antreten, um dort unter anderem die Kaaba siebenmal zu umschreiten. Entscheidend dafür, ob die Pilgerfahrt zur Pflicht wird, sind unter anderem seine finanziellen und gesundheitlichen Lebensumstände. Die Einschränkung der ritualrechtlichen Pflicht der Pilgerfahrt ist im Koran begründet: „… und die Menschen sind Gott gegenüber verpflichtet, die Wallfahrt nach dem Haus zu machen – soweit sie dazu eine Möglichkeit finden …“ (Sure 3, Vers 97). Häufig schließen Muslime an ihre Wallfahrt einen Besuch der Prophetenmoschee in Medina an, wo der Prophet auch begraben ist. Doch ist dies nicht fester Bestandteil des Haddsch. Islam als Kulturraum. Auch in den europäischen Sprachen wird dem Begriff „Islam“ seit dem 19. Jahrhundert eine erheblich weitere Bedeutung gegeben, indem man damit die Gesamtheit der muslimischen Völker, Länder und Staaten mit der ihnen eigenen Kultur bezeichnet. Dies erklärt auch, warum die Encyclopaedia of Islam, das wichtigste Nachschlagewerk der westlichen Islamwissenschaft, nicht allein die islamische Religion behandelt, sondern die gesamte Zivilisation der islamischen Länder, einschließlich der Dinge und Personen, die keinen direkten Bezug zum Islam aufweisen. Auf diese Weise ist der Islam über die Religion hinaus auch zur Bezeichnung für einen Kulturraum geworden. Anfänge in Mekka. Die Geschichte des Islams beginnt nach der arabischen Überlieferung mit einem Berufungserlebnis Mohammeds am Berg Hira in der Nähe von Mekka, bei dem er durch den Engel Gabriel einen Verkündigungsauftrag erhielt. Die neue Religion verbreitete sich zunächst im familiären Umfeld Mohammeds. Zu seinen ersten Anhängern gehörten seine Frau Chadidscha bint Chuwailid, sein noch jugendlicher Cousin ʿAlī ibn Abī Tālib, sein Sklave Zaid ibn Hāritha, sein väterlicher Onkel Hamza ibn ʿAbd al-Muttalib und Dschaʿfar, ein älterer Bruder ʿAlīs. Die traditionellen Berichte sprechen davon, dass Mohammed etwa drei Jahre lang die Offenbarungen, die er empfing, nur seiner Familie und einigen wenigen auserwählten Freunden mitteilte. Erst danach, ungefähr im Jahre 613, begann er, auch öffentlich zu predigen. Dieses Ereignis wird in den arabischen Quellen als der Eintritt in das Haus von al-Arqam ibn Abī ʾl-Arqam bezeichnet. Al-Arqam war ein junger Mann, der zum einflussreichen quraischitischen Clan der Machzūm gehörte. Er stellte sein Haus, das sich in der Mitte Mekkas befand, Mohammed zur Verfügung. Die von Mohammed verkündete Botschaft eines kompromisslosen Monotheismus fand im henotheistisch orientierten Mekka jener Zeit wenige Anhänger, und einige Muslime sahen sich unter dem Druck ihrer Gegner gezwungen, Mekka zu verlassen und in das Aksumitische Reich auszuwandern. So entstand eine erste muslimische Gemeinde außerhalb Arabiens. Durchsetzung in Arabien. Als Mohammed nach dem Tode seines Onkels Abū Tālib ibn ʿAbd al-Muttalib den Schutz seines Clans verlor, verschlechterte sich seine Position in Mekka so sehr, dass er gezwungen war, sich nach externen Verbündeten umzusehen. Im Jahre 620 nahm er Kontakt mit einer Anzahl von Männern aus dem nördlich gelegenen Yathrib (heute Medina) auf. Es kam zu Verhandlungen, die dazu führten, dass sich zwei Jahre später 73 Männer aus Yathrib zum Islam bekannten und ihn zur Umsiedlung in ihre Stadt einluden. Die kurz danach (im Sommer 622) stattfindende Auswanderung von Mohammed und seinen Anhängern ging als Hidschra in die Geschichte ein und wurde später als erstes Jahr der islamischen Zeitrechnung festgelegt. In Yathrib begann zugleich die politische und militärische Karriere des Propheten. Bald nach seiner Ankunft in der Oase schloss Mohammed einen Bündnisvertrag mit der dortigen Bewohnerschaft, die so genannte Gemeindeordnung von Medina. In der Oase von Yathrib wohnten zu jener Zeit noch zahlreiche Juden, insbesondere die drei Stämme Banu Qainuqa, Banu Nadir und Banu Quraiza. Diese wurden innerhalb der nächsten Jahre infolge diverser Konflikte aus Yathrib vertrieben bzw. exekutiert. Damit wurde Yathrib, bzw. Medina, wie die Stadt bald genannt wurde, zu einer fast nur von Muslimen bewohnten Stadt. Außerdem gelang es Mohammed, einige arabische Stämme in der Umgebung von Medina für den Islam zu gewinnen. Die militärische Auseinandersetzung mit den heidnischen Mekkanern war nach dem anfänglichen Erfolg der Schlacht von Badr zunächst von Rückschlägen wie der Schlacht von Uhud geprägt, führte aber nach weiteren Zwischenerfolgen (z. B. dem Friedensvertrag von Hudaibiya 628) schließlich zur Einnahme Mekkas durch die Muslime im Januar 630. Mohammeds Sieg über die mächtigen Quraisch brachte ihm so viel Prestige ein, dass sich in den Jahren bis zu seinem Tod im Juni 632 fast alle Stämme der arabischen Halbinsel seiner Autorität unterwarfen. In vielen Fällen war mit der politischen Unterwerfung auch eine Annahme des Islams verbunden. Nach dem Tode des Propheten setzte bei den arabischen Stämmen allerdings eine breite Absetzbewegung ein, die auch auf dem religiösen Gebiet die Hegemonie des Islams in Frage stellten. In einigen Gegenden Arabiens traten Gegenpropheten auf, die gegen den Staat von Medina mobilisierten, so unter anderem Musailima. Nur durch das militärische Vorgehen des quraischitischen Feldherrn Chālid ibn al-Walīd konnte diese Absetzbewegung niedergeschlagen werden. Frühe Islamische Expansion. Die islamische Expansion unter den Kalifen ʿUmar ibn al-Chattāb und Uthman ibn Affan führte dazu, dass die Muslime bis zur Mitte des 7. Jahrhunderts die Herrschaft über den Irak, Syrien, Palaestina (jeweils bis 636/38), Ägypten (640/42) und außerdem große Teile des Irans (642/51) erlangten. Damit war die Spätantike, in dessen historischen Kontext der Islam entstanden war, im östlichen Mittelmeerraum endgültig beendet. Die Bewohner der von den Muslimen eroberten Territorien traten zum größten Teil nicht direkt zum Islam über, sondern blieben ihren früheren Religionen (Christentum, Judentum und Zoroastrismus) zunächst treu. Dies war deswegen möglich, weil ihnen als Angehörigen einer Buchreligion Schutz ihres Lebens und ihres Eigentums sowie die Erlaubnis, ihre Religion auszuüben, gewährt wurde. Dieses Schutzverhältnis verpflichtete sie jedoch umgekehrt zur Zahlung einer besonderen Steuer, der Dschizya. Christen, Juden und Zoroastrier durften zudem ihren Glauben nicht öffentlich verrichten, keine neuen Kultgebäude errichten und keine Waffen tragen, später kamen noch andere Restriktionen hinzu (wie teils spezielle Kleidungsvorschriften). Somit waren die vom Islam anerkannten andersgläubigen „Schutzbefohlenen“ (vor allem Juden und Christen) den Muslimen rechtlich nicht gleichgestellt und in der Ausübung ihrer Religion eingeschränkt. Sie durften aber nicht mit Zwang bekehrt werden. Seit dem späten 7. Jahrhundert stieg allerdings der soziale Druck auf die christliche Bevölkerung in den eroberten ehemaligen römischen Provinzen (siehe Lage der Christen unter muslimischer Herrschaft). Es kam zu Diskriminierungen, dem Ausschluss von Nichtmuslimen aus der Verwaltung, zur Einmischung in innerchristliche Angelegenheiten und zur Konfiszierung von Kirchengütern sowie einzelnen Übergriffen auf Kirchen. Der insgesamt steigende Druck (so auch nochmals seit der Abbasidenzeit) sollte anscheinend auch den Übertritt der bisherigen Mehrheitsbevölkerung zum Islam forcieren. Die Konversion der einheimischen Bevölkerung zum Islam war ein Prozess, der sich über Jahrhunderte hinzog. Das gilt auch für die anderen Gebiete, die bis zum Anfang des 8. Jahrhunderts unter islamische Herrschaft kamen, wie Nordafrika, Andalusien und Transoxanien. Verbreitung durch Handel. Nach dem Herrschaftsantritt der Abbasiden um die Mitte des 8. Jahrhunderts geriet die militärische Expansionsbewegung des Islams ins Stocken. Die auf diese Weise erreichten territorialen Zugewinne blieben, verglichen mit der vorangehenden Zeit, eher gering: zwischen 827 und 878 erfolgte die Eroberung Siziliens durch die Aghlabiden, 870 die Einnahme der Kabul-Region auf dem Gebiet des heutigen Afghanistan durch die Saffariden, 902 die Eroberung der Balearen durch das Emirat von Cordoba. Dafür kam in dieser Zeit die Verbreitung des Islams verstärkt durch den Handel voran. An den Küsten des Indischen Ozeans heirateten arabische Händler in lokale Familien ein, die selbst dann im Laufe der Zeit zum Islam übertraten. Auf diese Weise entstanden in Südindien und auf Ceylon zahlenstarke muslimische Gemeinschaften. Die heutigen muslimischen Gemeinschaften der malayalam-sprachigen Mappila in Kerala und der tamil-sprachigen Moors in Tamil Nadu und Sri Lanka führen sich auf diese Zeit zurück. Ende des 9. Jahrhunderts gründeten Händler aus dem mekkanischen Clan der Machzūm einen eigenen muslimischen Staat in Zentral-Äthiopien (Shewa). Auch in der osteuropäischen Ebene hat sich der Islam in dieser Zeit durch Händler verbreitet. Als in den 920er Jahren Ibn Fadlān als Gesandter des abbasidischen Kalifen den Staat der Wolgabulgaren an der Mündung der Kama in die Wolga besuchte, war der dortige Herrscher bereits zum Islam konvertiert und hatte mehrere Moscheen errichten lassen. Jedoch blieb der Islam in Westafrika bis weit in das 18. Jahrhundert ein Stadtphänomen, das an den Fernhandel und eine höfische Minderheit in den Städten gebunden war. Um 960 gründeten persische Händler aus Schiras eine Handelskolonie auf der Insel Kilwa vor der Küste des heutigen Tansania. Von dort aus erfolgte im 11. und 12. Jahrhundert sukzessive die Islamisierung der der ostafrikanischen Küste vorgelagerten Inseln (Mafia, Komoren usw.). Durch muslimische Kaufleute aus dem Maghreb, die im Transsaharahandel tätig waren, verbreitete sich der Islam in dieser Zeit außerdem in Westafrika. Einige dieser Kaufleute ließen sich in Orten südlich der Sahara nieder, die sich zu muslimischen Städten entwickelten wie Walata und Timbuktu. Andere wurden an den Höfen heidnischer afrikanischer Herrscher tätig und machten diese mit dem Islam bekannt. Der um 1067 schreibende arabische Geograph Abū ʿUbaid al-Bakrī berichtet davon, dass zu seiner Zeit bereits die Herrscher von Kanem östlich des Tschadsees, von Gao am Nigerbogen und von Takrūr im unteren Senegalgebiet zum Islam übergegangen waren. Neue Expansion durch türkische Ghāzī-Kämpfer. Für die weitere Ausbreitung des Islams waren türkische Ethnien von großer Bedeutung. Um 950 kam es auf dem Gebiet des heutigen Uigurischen Autonomen Gebiets Xinjiang in China sowie im heutigen nördlichen Kirgistan zu einer Massenkonversion türkischer Stämme. Zeitgenössische Quellen nennen 200.000 Zelte, die davon betroffen waren. Auslöser war der Übertritt der herrschenden Familie dieser Stämme, der sogenannten Karachaniden (auch Ilek-Chāne) zum Islam. Diese von den Karachaniden geführte Stammeskonföderation griff bald nach Westen aus. Im Jahre 999 gelang es ihnen, Buchara zu erobern. Auf dem Gebiet Afghanistans konnte Mahmud von Ghazni (reg. 997–1030), der Sohn eines türkischen Militärsklaven, der ursprünglich im Dienst der Samaniden stand, eine eigene Dynastie begründen. In der Zeit bis zu seinem Tod führte er mit seinen Kämpfern zahlreiche Feldzüge nach Nordwestindien durch, womit die islamische Eroberung Indiens eingeleitet wurde. Qutb-ud-Din Aibak, ein türkischer General des Ghuriden-Reichs, begründete 1209 mit dem Sultanat von Delhi den ersten islamischen Staat auf indischem Boden. Zwischen dem späten 13. und dem frühen 14. Jahrhundert brachten die Herrscher dieses Staates den größten Teil Nord- und Zentralindiens unter islamische Herrschaft: 1298 wurde das Gebiet von Gujarat annektiert, 1318 der Dekkan, der südliche Teil des indischen Subkontinents. Weiter westlich taten sich die ebenfalls türkischen Seldschuken als Ghāzī-Kämpfer hervor. Sultan Alp-Arslan (1063–72) vernichtete 1071 bei Manzikert die byzantinische Armee. Damit wurde die Islamisierung Kleinasiens eingeleitet. Der byzantinische Versuch, diese Region zurückzugewinnen, misslang; ab 1143 zogen sich die Byzantiner endgültig daraus zurück. Zum Zentrum des islamischen Anatoliens wurde um die Mitte des 12. Jahrhunderts Konya, das antike Iconium, nun Hauptstadt der Rum-Seldschuken. Islamisierung in den mongolischen Teilreichen. In den Jahren 1251 bis 1259 führte Hülegü, ein Enkel Dschingis Chans, im Auftrag des Großchans von Karakorum eine mongolische Invasion gegen Westasien durch. Zwischen 1256 und 1259 wurden Iran und der Irak vollständig erobert. In Folge dieser Invasion verlor der Islam für mehrere Generationen im Iran seinen Status als Religion der Herrschenden. Auf lange Sicht trugen die Mongolen aber eher zur Islamisierung Asiens bei. Die Nachkommen Hülegüs, die von Täbris aus herrschenden Ilchane, gingen schon Ende des 13. Jahrhunderts wieder zum Islam über. In einem anderen mongolischen Teilreich, dem Reich der Goldenen Horde, das sich über die Gebiete Südrusslands, der Ukraine und Kasachstans bis nach Westsibirien erstreckte, trieb im frühen 14. Jahrhundert Usbek Khan (reg. 1312–41) die Islamisierung voran: Er holte zahlreiche muslimische Gelehrte ins Land, vertrieb die von seinem Vorgänger Tohtu geschätzten schamanischen Priester und forderte die Oberschicht des Reiches dazu auf, zum Islam überzutreten. Zwar lebten weiter viele Nichtmuslime auf dem Gebiet der Goldenen Horde, doch bekam der Staat einen eindeutig islamischen Charakter, und langfristig wurde der Islam auch in der Bevölkerung zur dominierenden Religion. Auch in dem mongolischen Yuan-Reich (1260–1368), das sich über weite Teile Chinas erstreckte, kam es zu einem Islamisierungsprozess. Die Truppen, mit denen Kublai Khan, der Begründer dieses Reiches, Nord- und Südchina überrannt hatte, bestanden zum großen Teil aus muslimischen Kämpfern, die Dschingis Chan von seinen Feldzügen nach Zentral- und Westasien mitgebracht hatte. Da zahlreiche Soldaten Muslime waren, bestimmte der Chan, dass sie nach den Mongolen und vor den Einheimischen den zweiten Rang in China einnehmen sollten. Einer von Qubilai’s muslimischen Generälen, der bucharische Prophetenabkömmling Schams ad-Dīn ʿUmar mit dem Beinamen "Sayyid-i Adschall", begründete in der südwestlichen chinesischen Provinz Yunnan eine eigene Dynastie von muslimischen Statthaltern, die stark zur Verbreitung des Islam in China beitrug. Ein Enkel von Sayyid-i Adschall erwirkte 1335 die kaiserliche Anerkennung des Islams als "Qing Zhenjiao", „reine und wahre Religion“, ein Name, der bis heute in China für den Islam verwendet wird. Entwicklung in Europa. Die Eroberung Siziliens durch die Normannen (1061–91) und die um die gleiche Zeit einsetzende Reconquista führten dazu, dass der Islam aus Südeuropa zurückgedrängt wurde. Die Muslime Siziliens wurden nach Aufständen (1219–22) durch Friedrich II. in die apulische Stadt Lucera umgesiedelt, wo eine Art muslimisches Ghetto entstand. Um 1300 wurde diese muslimische Kolonie von Lucera von den Anjou zerstört, womit die Präsenz von Muslimen im mittelalterlichen Italien endete. Auf der iberischen Halbinsel brachte die Reconquista die meisten Muslime unter die Herrschaft der christlichen Königreiche. Hier wurden sie als Mudéjares zunächst weiter geduldet und durften auch ihre Religion ausüben, nach der Eroberung des letzten islamischen Reiches, dem Nasridenemirat von Granada, verloren die Muslime jedoch ihren Mudejar-Status und wurden vor die Wahl gestellt, das Land zu verlassen oder sich taufen zu lassen. Zwischen 1609 und 1614 wurden die letzten Muslime von der iberischen Halbinsel vertrieben. Während der Islam im Laufe von Spätmittelalter und Früher Neuzeit von der iberischen Halbinsel verdrängt wurde, erlebte in der gleichen Zeit in Südosteuropa ein anderer islamischer Staat seinen militärischen und politischen Aufstieg, das Osmanische Reich, das um die Mitte des 15. Jahrhunderts bereits weite Gebiete des Balkans (Bulgarien, Makedonien, Thrakien, die Dobrudscha und Bosnien) umfasste, aber auch weite Teile Kleinasiens einschloss. Die Expansion dieses Staates nach Europa hinein setzte sich bis zur Mitte des 16. Jahrhunderts fast ungebremst fort. Ausgehend von den osmanischen Verwaltungszentren auf dem Balkan kam es hier nun ebenfalls zu einer Islamisierung der Bevölkerung. Statistiken für das Jahrzehnt 1520–30 zeigen, dass damals bereits mehrere Städte, die als solche Zentren fungierten, muslimische Bevölkerungsmehrheiten hatten. Größere Konversionswellen fanden allerdings erst ab dem späten 16. Jahrhundert statt. Ausbreitung in Südostasien. Parallel zu diesen Entwicklungen setzte sich die Verbreitung des Islams durch den Handel im Indischen Ozean fort. Um die Mitte des 12. Jahrhunderts waren bereits das Herrscherhaus und die Bevölkerung der Malediven zum Islam übergegangen. Über den Seehandel verbreitete sich der Islam auch in Südostasien und fasste dort zunächst in einigen Häfen an den Küsten Fuß. Mit Perlak und Pasai an der Nordspitze Sumatras erschienen in den 1290er Jahren die ersten islamischen Staaten Südostasiens. Weitere islamische Fürstentümer entstanden durch Übertritt der Herrscher zum Islam in Malakka auf der malaiischen Halbinsel (1413) und in Patani im Süden des heutigen Staates Thailand (ab 1457). Einige Jahre später, um 1475, wurde mit Demak das erste islamische Fürstentum auf Java gegründet. 1527 vernichtete der Sultan von Demak mit Majapahit das letzte größere hindu-buddhistische Königreich Javas und machte damit den Weg für die Islamisierung der Insel frei, ein Prozess, der sich über mehrere Jahrhunderte hinzog und innerhalb pesantren-Schulen eine wichtige Rolle spielten. Hierbei handelt es sich um von islamischen Religionsgelehrten in Dörfern errichtete Internatsschulen, in denen die Schüler für längere Zeit mit ihren Lehrern leben, um eine religiöse Ausbildung zu erhalten, wobei sie als Gegenleistung ihren Lehrer beim Erwerb seines Lebensunterhaltes unterstützen. Zu Beginn des 17. Jahrhunderts ging auch das Reich Gowa auf der Insel Sulawesi zum Islam über. Von Sumatra und Java aus gelangten auf friedlichem und militärischem Weg außerdem Lombok sowie Ost- und Südostborneo unter islamischen Einfluss. Allein Bali blieb hindu-buddhistisch. Islamisierung im Fahrwasser des europäischen Kolonialismus. Der Ende des 17. Jahrhunderts beginnende Rückzug des Osmanischen Reiches aus Südosteuropa führte dazu, dass der Islam hier seine Position als Religion der Herrschenden wieder verlor. Nach dem Krimkrieg 1856 und dem Russisch-Türkischen Krieg von 1877–1878 kam es zu Massenauswanderungen von Muslimen aus Ost- und Südosteuropa. Die 1892 errichtete Moschee von Broken Hill in Australien Wenn das 19. Jahrhundert auf globaler Ebene im Ergebnis trotzdem zu einer weiteren Ausbreitung des Islams beigetragen hat, so ist dies zu einem beträchtlichen Teil auch auf die Wirkung des europäischen Kolonialismus zurückzuführen. Schon um die Mitte des 19. Jahres war der Islam durch den Sklavenhandel der Sultane von Oman und Sansibar stärker in das ostafrikanische Binnenland eingedrungen. Die Stadt Nkhotakota am Malawisee, wo der Gouverneur des Sultans residierte, wurde zum wichtigsten Zentrum der Verbreitung des Islams. Anhänger fand die neue Religion vor allem unter den Stämmen der Nyamwezi und Yao im Süden Tansanias und in Malawi. Als Briten und Deutsche Kolonien in Ostafrika errichteten, wurde der Zugang zum Binnenland durch Eisenbahnbau erleichtert. So gelangten nunmehr von der Küste und aus dem Indischen Subkontinent stammende muslimische Händler sowie muslimische Bedienstete der Kolonialbehörden zum Victoria- und Tanganjika-See und trugen den Islam in diese Gebiete. Auf besonderen Zuspruch stieß der Islam im Königreich Buganda (im heutigen Uganda), wo 1888 mit Kalema zum ersten Mal ein muslimischer Kabaka an die Macht kam. Von 1860 an wanderten zahlreiche Muslime aus Vorderindien als Vertragsarbeiter in die britische Kolonie Natal ein, um dort auf den Zuckerrohrplantagen zu arbeiten. Dies führte zu einer Verbreitung des Islams auf dem Gebiet des heutigen Südafrika. In der zweiten Hälfte des 19. Jahrhunderts kam es zudem zur Entstehung erster muslimischer Gemeinden in West- und Mitteleuropa. Die größten dieser Gemeinden wuchsen in den britischen Hafenstädten Cardiff und South Shields heran, wo sich nach der Eröffnung des Suez Kanals 1869 auf britischen Schiffen arbeitende jemenitische und somalische Seeleute ansiedelten. Zwischen 1860 und 1900 wurden von den Briten afghanische Kameltreiber nach Australien gebracht, um dort den Überlandtransport abzuwickeln. Einige von ihnen heirateten einheimische Frauen und siedelten sich in Australien an; auf sie gehen die ersten muslimischen Gemeinden Australiens zurück. In Broken Hill wurde 1892 die erste australische Moschee errichtet. Die europäischen Kolonialmächte standen dem Islam in ihren Kolonien keineswegs überall positiv gegenüber. In Französisch-Westafrika brachten die Kolonialbeamten Maurice Delafosse und Jules Brévié in den 1920er Jahren die Theorie auf, dass der Islam für die meisten Schwarz-Afrikaner eine unnatürliche Religion sei und seine weitere Verbreitung unausweichlich zum Zusammenbruch der afrikanischen Gesellschaften führen würde. Richtungen. Im Laufe der Geschichte haben sich innerhalb des Islams zahlreiche Gruppen herausgebildet, die sich hinsichtlich ihrer religiösen und politischen Lehren unterscheiden. Charidschiten. Die Charidschiten, die „Auszügler“, sind die älteste religiöse Strömung des Islams. Kennzeichnend für ihre Position war die Ablehnung des dritten Kalifen Uthman ibn Affan als auch des vierten Kalifen ʿAlī ibn Abī Tālib. Die Charidschiten lehnten außerdem die Vorherrschaft der Quraisch ab und vertraten die Auffassung, dass der „beste Muslim“ das Kalifenamt erhalten solle, unabhängig von dessen familiärer oder ethnischer Zugehörigkeit. Ihre Bewegung zersplitterte bereits um 685 in mehrere Untergruppen, von denen die der Azraqiten die radikalste und gewalttätigste war. Sie befand sich in permanentem Krieg mit dem Gegenkalifen ʿAbdallāh ibn az-Zubair und den Umayyaden. Nach und nach wurden die einzelnen Gruppierungen jedoch von den regierenden Kalifen zerschlagen oder ins Exil an die Peripherie des arabischen Reichs getrieben. So war der Großteil der Charidschiten unter den ersten Kalifen der Abbasiden bereits vernichtet. Nur die moderate Strömung der Ibaditen hat bis in die Gegenwart überlebt, besitzt aber insgesamt weniger als zwei Millionen Anhänger, die vor allem in Oman, in der algerischen Sahara ("Mzab"), auf der tunesischen Insel Djerba, im libyschen Dschabal Nafusa und in Sansibar leben. Schiiten. Die Schia ist die zweite religiös-politische Strömung, die sich im Islam bildete. Namengebend ist der arabische Begriff "schīʿa" (), der verkürzt für „Partei Alis“ steht. Die Schiiten sind der Auffassung, dass nach dem Tode des Propheten nicht Abū Bakr, sondern Mohammeds Cousin und Schwiegersohn ʿAlī ibn Abī Tālib Kalif hätte werden müssen. Innerhalb der Schia gibt es zahlreiche Untergruppen. Die zahlenmäßig größte Gruppe sind die Zwölferschiiten, die vor allem im Iran, Irak, Aserbaidschan, Bahrain, Indien, Pakistan und dem Libanon weit verbreitet sind. Sie sind der Auffassung, dass sich das Imamat, d. h. der Anspruch auf die islamische Umma, unter zwölf Nachkommen Mohammeds weitervererbt hat. Der zwölfte Imam Muhammad al-Mahdi ist Ende des 9. Jahrhunderts verschwunden und wird erst am Ende der Zeiten wiederkehren. Die zwölf Imame gelten den Zwölfer-Schiiten als heilig, und die Orte, an denen sie begraben sind (u. a. Nadschaf, Karbala, Maschhad, Samarra) sind wichtige zwölfer-schiitische Wallfahrtsorte. Die zweitwichtigste schiitische Gruppe sind die Ismailiten, die überwiegend auf dem indischen Subkontinent (Mumbai, Karatschi und Nordpakistan) sowie in Afghanistan, Tadschikistan, Jemen und Ostafrika leben. Eine Abspaltung von den Ismailiten ist das im frühen 11. Jahrhundert entstandene Drusentum. Weitere schiitische Gruppen sind die Zaiditen, die Nusairier und die Aleviten. Die Zaiditen sind wie die anderen Schiiten zwar der Überzeugung, dass Ali besser war als die ersten beiden Kalif Abu Bakr und Umar ibn al-Chattab, doch erkennen sie deren Kalifat als rechtmäßig an. Das Verhältnis der Aleviten und Drusen zum Islam ist ambivalent. Während sich einige Anhänger dieser Gemeinschaften noch als Muslime betrachten, sehen sich andere als außerhalb des Islam stehend. Auf der Grundlage der Zwölfer-Schia haben sich im 19. Jahrhundert Babismus und Bahaitum entwickelt. Während der Babismus schon im 19. Jahrhundert wieder untergegangen ist, hat sich das Bahaitum zu einer eigenständigen Religion weiterentwickelt. Theologische Schulen. Im Laufe der Jahrhunderte haben sich im Islam auch verschiedene theologische Schulen herausgebildet. Eine der frühesten dieser Schulen war die Qadarīya, die im frühen 8. Jahrhundert entstand und nach dem arabischen Begriff Qadar benannt ist, der allgemein einen Akt der Festlegung bezeichnet; er wird normalerweise mit "Schicksal" oder "Bestimmung" (Vorsehung) übersetzt. Die Qadariten waren der Auffassung, dass nicht nur Gott, sondern auch der Mensch einen eigenen "Qadar" hat und wollten damit die Allmacht Gottes einschränken. Sie erscheinen damit als Vertreter einer Lehre menschlicher Willensfreiheit. Mit dieser Lehre standen sie damals einer anderen Gruppe gegenüber, den Murdschi'a, die sich neben anderen politischen Ansichten durch eine prädestinatianische Lehre hervortat. Nachdem die Abbasiden im späten 8. Jahrhundert begonnen hatten, das theologische Streitgespräch (Kalām) als Mittel zur Bekämpfung nicht-islamischer Lehren zu fördern, entwickelte sich die Muʿtazila, die diese Form des Streitgesprächs kultivierte, zur wichtigsten theologischen Schule. Die muʿtazilitische Dogmatik war streng rationalistisch ausgerichtet und maß dem Prinzip der „Gerechtigkeit“ ("ʿadl") und der Lehre von der Einheit Gottes (tauhīd) grundlegende Bedeutung zu. Mit „Gerechtigkeit“ meinten Muʿtaziliten hierbei nicht soziale Gerechtigkeit, sondern die Gerechtigkeit Gottes in seinem Handeln. Nach der muʿtazilitischer Lehre ist Gott selbst an die ethischen Maßstäbe, die der Mensch mit Hilfe des Verstandes entwickelt, gebunden. Dazu gehört, dass Gott die Guten belohnt und die Bösen bestraft, denn auf diese Weise haben die Menschen mit ihrem freien Willen die Möglichkeit, Verdienste zu erwerben. Die hauptsächlichen Konsequenzen, die sich aus dem zweiten Prinzip, der Lehre von der Einheit Gottes ergaben, waren das Leugnen des hypostatischen Charakters der Wesensattribute Gottes, z. B. Wissen, Macht und Rede, die Leugnung der Ewigkeit bzw. Ungeschaffenheit der Rede Gottes, sowie die Leugnung jeglicher Ähnlichkeit zwischen Gott und seiner Schöpfung. Sogar der Koran selbst als Rede Gottes konnte nach der muʿtazilitischen Lehre keine Ewigkeit beanspruchen, da es neben Gott nichts Ewiges und damit Göttliches geben darf. Die Muʿtazila hat unter den drei abbasidischen Kalifen al-Maʾmūn (813–833), al-Muʿtasim (833–842) und al-Wāthiq (842–847) sowie später unter der Dynastie der Buyiden herrscherliche Unterstützung erhalten. Bis heute wird außerdem die muʿtazilitische Theologie im Bereich der Zwölfer-Schia und der zaiditischen Schia weitergepflegt. Sunnitentum als Mehrheitsislam. Das Sunnitentum hat sich zwischen dem späten 9. und frühen 10. Jahrhundert als Gegenbewegung zur Schia und zur Mu'tazila herausgebildet. Der zugrundeliegende arabische Ausdruck "ahl as-sunna" () betont die Ausrichtung an der "Sunnat an-nabī", der Handlungsweise des Propheten. Die ebenfalls gängige erweiterte Form "ahl as-sunna wa-l-dschamāʿa" () betont die umfassende Gemeinschaft der Muslime. Zu den Gruppierungen, die Ausdrücke wie "ahl as-sunna" oder "ahl as-sunna wa-l-dschamāʿa" am frühesten für sich verwendeten, gehörten die Hanbaliten, die Anhänger des Traditionsgelehrten Aḥmad ibn Ḥanbal. Sie lehrten im Gegensatz zu den Mu'taziliten die Unerschaffenheit des Korans, lehnten die Kontroverstheologie des Kalām ab und sahen allein die Aussagen in Koran und Hadithen sowie die Überlieferungen über die „Altvorderen“ ("ahl as-salaf") als maßgeblich an. Alle darüber hinausgehenden theologischen Aussagen lehnten sie als unzulässige Neuerung ab. Um die Wende zum 10. Jahrhundert versuchten verschiedene Theologen wie al-Qalānisī und Abū l-Ḥasan al-Aschʿarī diese Lehre mit rationalen Argumenten zu begründen. Die von al-Aschʿarī entwickelte Lehre wurde von späteren Gelehrten wie al-Bāqillānī und al-Ghazali weiterentwickelt und ist zur wichtigsten sunnitischen theologischen Schule geworden. Die zweite sunnitische theologische Schule neben dieser Aschʿarīyya ist die Maturidiyya, die sich auf den transoxanischen Gelehrten Abū Mansūr al-Māturīdī zurückbezieht. Heute bilden die Sunniten mit etwa 85 Prozent die zahlenmäßig größte Gruppierung innerhalb des Islams. Kennzeichnend für die Sunniten insgesamt ist, dass sie die vier ersten Nachfolger des Propheten als „rechtgeleitete Kalifen“ ("chulafāʾ rāschidūn") verehren, im Gegensatz zu der von den meisten Schiiten geteilten Auffassung, wonach ʿUṯmān durch seine Handlungsweise zum Ungläubigen geworden ist, und der Auffassung der Charidschiten und Ibaditen, wonach sowohl ʿUṯmān als auch ʿAlī Ungläubige waren und deswegen ihre Tötung legitim war. Daneben knüpft sich das Sunnitentum an eine bestimmte Anzahl von Hadith-Sammlungen, die als kanonisch betrachtet werden, die sogenannten Sechs Bücher. Das wichtigste davon ist der Sahīh al-Buchari. Schließlich ist für das Sunnitentum die Beschränkung der Koranrezitation auf eine bestimmte Anzahl anerkannter Lesarten des Korans charakteristisch. Richtungen der islamischen Normenlehre. Schon wenige Jahrzehnte nach dem Tode des Propheten ergab sich bei den Muslimen das Bedürfnis, Auskunft zu bestimmten Fragen der Lebensführung zu erhalten. Diese betrafen sowohl den gottesdienstlichen Bereich als auch das Zusammenleben und die rechtlichen Beziehungen mit anderen Menschen. Anerkannte Autoritäten wie der Prophetencousin ʿAbdallāh ibn ʿAbbās bedienten dieses Bedürfnis, indem sie zu den fraglichen Punkten Gutachten (Fatwas) erteilten. Diese Gutachten stützten sich anfangs noch zum großen Teil auf eigene subjektive Anschauung (Raʾy). Im Laufe des 8. Jahrhunderts bildeten sich an verschiedenen Orten – neben Mekka vor allem Medina, Kufa und Syrien – lokale Gelehrtenschulen heraus, die Auffassungen früherer Autoritäten zu bestimmten Fragen sammelten und gleichzeitig Prinzipien für die Normenfindung (Fiqh) festlegten. Während die Schule von Medina mit Mālik ibn Anas dem Konsens (Idschmāʿ) eine sehr wichtige Bedeutung zumaß, arbeitete Abū Ḥanīfa in Kufa stärker mit der Methoden des Analogieschlusses (Qiyās) und der eigenen Urteilsbemühung (Idschtihād). Die Schule von Mālik verbreitete sich vor allem in Ägypten, die Schule von Abū Ḥanīfa in Chorasan und Transoxanien. Im frühen 9. Jahrhundert bemühte sich der Gelehrte asch-Schāfiʿī, eine Synthese zwischen der malikitischen und der hanafitischen Richtung herzustellen, und entwickelte in diesem Rahmen eine umfassende Theorie der Normenfindung, die auch bestimmte Prinzipien der Texthermeneutik einschloss, die bei der Auslegung von Koran und Hadithen zur Anwendung kommen sollten. Da sich asch-Schāfiʿī in seinen Werken sehr stark gegen das Prinzip des Taqlid, der unreflektierten Übernahme der Urteile anderer Gelehrter, ausgesprochen hatte, dauerte es bis zum frühen 10. Jahrhundert, dass sich um seine Lehren eine eigene Schule bildete. Das erste Zentrum der Schafiiten war Ägypten. Von dort verbreitete sich die schafiitische Lehrrichtung ("Madhhab") später auch in den Irak und nach Chorasan sowie in den Jemen. Nachdem das Hanbalitentum im 11. Jahrhundert unter der Wirkung des Bagdader Kadi Ibn al-Farrā' (st. 1066) eine eigene Normenlehre entwickelt hatte, wurden im Bereich des sunnitischen Islams vier Lehrrichtungen der Normenlehre als orthodox anerkannt: die Hanafiten, die Malikiten, die Schafiiten und die Hanbaliten. Heute besteht die Tendenz, insgesamt acht Lehrrichtungen als rechtmäßig anzuerkennen. Hierbei werden die Ibadiyya und die schiitische Zaidiyya als eigene Lehrrichtungen gezählt. Die Salafiten lehnen dagegen das Festhalten an einem Madhhab als unrechtmäßige Neuerung ab. Heute wird die islamische Normenlehre in internationalen Gremien weitergebildet, von denen die Internationale Fiqh-Akademie in Dschidda, die zur Organisation für Islamische Zusammenarbeit zugehört, das wichtigste ist. Sufische Strömungen. Der Sufismus () ist eine religiöse Bewegung, die im 9. Jahrhundert unter den Muslimen des Irak entstand. Die Sufis pflegten verschiedene asketische Ideale wie Weltentsagung "(zuhd)" und Armut "(faqr)" und führten den Kampf gegen die Triebseele. Entsprechend koranischer Aufforderungen (vgl. Sure 2:152; 33:41f) widmeten sie dem Gedenken (Dhikr) und Lobpreis (Tasbih) Gottes größte Aufmerksamkeit. Weitere wichtige sufische Prinzipien sind das unbedingte Gottvertrauen "(tawakkul)" und das Streben nach dem Entwerden "(fanāʾ)" in Gott. Der Scharia als äußeres Normensystem des Islams wird in der Sufik die Tariqa als mystischer Weg gegenübergestellt. Gelehrte aus dem ostiranischen Raum wie al-Quschairi arbeiteten die Sufik im 10. und 11. Jahrhundert in Handbüchern zu einem umfassenden spirituellen Lehrsystem aus. Dieses Lehrsystem mit seiner spezifischen Terminologie für Seelenzustände und mystische Erfahrungen verbreitete sich im Laufe des 12. Jahrhunderts auch in den anderen Gebieten der islamischen Welt, fand zunehmenden Zuspruch bei Rechtsgelehrten, Theologen und Literaten und wurde zu einem der wichtigsten Bezugspunkte des religiösen Denkens der Muslime. Innerhalb der Sufik gibt es mit dem Scheich bzw. Pir ein eigenes Autoritätsmodell. Er leitet diejenigen, die den spirituellen Weg beschreiten wollen, an. Derjenige, der sich einem solchen Scheich anschließt und sich seiner Autorität unterwirft, wird umgekehrt als Murid (arab. „der Wollende“) bezeichnet. Menschen, die auf dem spirituellen Weg zur Vollkommenheit gelangt sind, werden als „Gottesfreunde“ Auliyāʾ Allāh betrachtet. In Nord- und Westafrika werden sie auch Marabouts bezeichnet. Die Verehrung für derartige Personen hat dazu geführt, dass sich im Umfeld der Sufik eine starke Heiligenverehrung entwickelt hat. Grabstätten von Gottesfreunden und Marabouts bilden wichtige Ziele von lokalen Wallfahrten. Ab dem späten Mittelalter haben sich zahlreiche sufische Orden herausgebildet. Einige von ihnen wie die Naqschbandīya, die Qadiriyya und die Tidschaniyya haben heute eine weltweite Anhängerschaft. Puritanischen Gruppen wie die Wahhabiten lehnen die Sufis als Ketzer ab. Sie kritisieren einerseits solche Praktiken wie den Dhikr, der etwa in der Tradition Kunta Haddschi Kischijew und anderer mit Musik und Körperbewegungen einhergeht, andererseits aber auch die sufische Heiligenverehrung, weil ihrer Auffassung nach kein Mittler zwischen dem Menschen und Gott stehen darf. Solche Konflikte sind bis in die Gegenwart zu finden, etwa in der tschetschenischen Unabhängigkeitsbewegung. Der Sufi Kunta Haddschi gilt auch als eines der Vorbilder und Beispiele für gewaltlose Traditionen und Strömungen im Islam. Ahmadiyya. Als eine islamische Bewegung mit messianischem Charakter bildete sich Ende des 19. Jahrhunderts in Britisch-Indien die Ahmadiyya heraus. Ihr Gründer Mirza Ghulam Ahmad erhob den Anspruch, der „Mudschaddid (Erneuerer) des 14. islamischen Jahrhunderts“, der „Verheißene Messias“, der von Muslimen erwartete Mahdi der Endzeit und ein „(Muhammad nachgeordneter) Prophet“ zu sein. Vor allem der letztgenannte Punkt führte dazu, dass andere Muslime die Ahmadiyya als häretisch betrachten, denn aufgrund von Sure 33:40 gilt Mohammed als das „Siegel der Propheten“. Seitdem 1976 die Islamische Weltliga die Ahmadiyya als „ungläubige Gruppierung“ aus dem Islam ausgeschlossen hat, ist es in mehreren islamischen Ländern zu Angriffen auf Angehörige dieser Sondergemeinschaft gekommen. Polytheismus. Die Bezeugung der Einheit Gottes und die damit einhergehende Ablehnung des Götzenkults ist der wichtigste Glaubensgrundsatz der islamischen Religion. Polytheismus steht im absoluten Widerspruch zur streng monotheistischen Lehre des Islam, wonach Vielgötterei die größtmögliche Sünde darstellt. Dem Koran zufolge ist die Verehrung anderer Gottheiten neben Allah die einzige Sünde, die unter keinen Umständen vergeben wird. Der Koran kritisiert an zahlreichen weiteren Stellen vehement die Verehrung anderer Wesen an Gottes Stelle. Im Jenseits werden Götzendiener mit dem Eintritt in die Hölle bestraft. Abrahamitische Religionen. Die arabische Halbinsel fand durch den Islam in Abkehr vom bisherigen Steinkult in Mekka Anschluss an jüdische und christliche Glaubensformen. Der Islam beruft sich in seiner Herkunft auf Abraham, zählt also mit dem Judentum und dem Christentum zu den abrahamitischen Religionen. Alle drei sind monotheistische Religionen. Da sie auf den Offenbarungen von Propheten (Moses und Mohammed) beruhen, wobei in islamischer Interpretation auch Jesus Christus als Prophet gesehen wird, sind sie Offenbarungsreligionen und, weil diese Offenbarungen schriftlich fixiert wurden, auch Buchreligionen. Dieser gemeinsame Bezug auf Abraham ist am Anfang seiner Prophetie von Mohammed betont worden. Im Verlauf seines Lebens änderte der Prophet aufgrund seiner Erfahrungen mit den jüdischen und christlichen Religionsgemeinschaften seine Haltung ihnen gegenüber. Die sich ändernde Einstellung Mohammeds zu den Schriftbesitzern ist in der Islamwissenschaft mehrmals behandelt worden. Ursprünglich erwartete er, dass die Schriftbesitzer seine Prophetie anerkennen und seiner Religion beitreten würden; als dies nicht geschah, begann sich Mohammeds Haltung zu den Anhängern der Buchreligionen nach und nach ins Negative zu ändern. Diese Gesinnungsänderung hat auch ihre Spuren im Koran hinterlassen, wo ursprünglich ihre religiösen und moralischen Tugenden hochgeachtet wurden und Mohammed dazu aufgefordert wurde, mit ihnen gute Beziehungen zu pflegen. Nachdem Mohammed mit diesen Religionsgemeinschaften gebrochen hatte, erhob er ihnen gegenüber den Vorwurf der Heuchelei und betonte ihre Weigerung, den Islam anzunehmen; daher seien sie nicht als Verbündete anzusehen, sondern zu bekämpfen. In den Augen Mohammeds waren das Judentum und das Christentum fehlerhafte Weiterentwicklungen der gemeinsamen Urreligion. Während der Islam mit dem Judentum und dem Christentum den Glauben an einen einzigen Gott sowie den Bezug auf Abraham und zahlreiche weitere biblische Propheten grundsätzlich teilt, unterscheidet er sich in seinen Grundlagen vom Christentum durch seine strikte Ablehnung der Trinitätslehre (Sure 112) und der christlichen Vorstellung der Erbsünde, vom Judentum hauptsächlich durch seine Anerkennung Jesu als Prophet, von den anderen abrahamischen Religionen allgemein durch die Anerkennung Mohammeds als Gottes Gesandter und Siegel der Propheten sowie der Lehre vom Koran als den Menschen überbrachtes Wort Gottes. Historisch-politische Interaktion mit anderen Religionsgemeinschaften. Das innerhalb der dem Tod des arabischen Religionsstifters folgenden Jahrhunderte elaborierte klassische islamische Völkerrecht unterschied bei seiner Betrachtung Andersgläubiger zwischen monotheistischen Schriftbesitzern und Anhängern einer polytheistischen Religion, die "de iure" bis zur Annahme des Islam zu bekämpfen waren. Erstere hatten eine Sonderstellung im islamischen Gemeinwesen als Schutzbefohlene. Dieser Status ging mit der Zahlung einer besonderen Steuer, der Dschizya einher; dafür erhielten sie im Gegenzug Schutz ihres Lebens und ihres Eigentums, sowie die Erlaubnis, ihre Religion – unter bestimmten Einschränkungen – frei auszuüben. Dieses Schutzbündnis galt ursprünglich nur Juden und Christen, wurde allerdings auf alle Nichtmuslime schlechthin ausgeweitet, als die muslimischen Eroberer auf andere Glaubensgemeinschaften, wie die Hindus, stießen. Andersgläubige in nicht-islamischen Gebieten, im so genannten "Haus des Krieges", konnten als "musta'min" temporär auf islamischem Gebiet verweilen. Als Bewohner des "Dar al-Harb" galten sie ansonsten als Feinde ("Ḥarbī"), die bei der Eroberung ihres Gebiets im Laufe der islamischen Expansion zuerst zur Annahme des Islam aufgerufen, bei einer Weigerung den Dhimmi-Status – unter Voraussetzung einer Angehörigkeit zu einer Buchreligion – angeboten bekommen und bei einer Weigerung dessen bekämpft werden sollten. Gegenwärtige Situation der Bahai. Die Religion der Bahai erfüllt zwar die Bedingungen einer Buchreligion (schriftlich fixierte Offenbarung) und erkennt sogar Mohammeds Offenbarungsanspruch an. Dennoch wird diese monotheistische Religionsgemeinschaft in der islamischen Welt nicht als ein "ahl al-kitab" („Volk des Buches“) anerkannt. Die Lehre der Bahai, welche die eschatologischen Beschreibungen des Koran nicht auf einen materiellen Untergang der Welt, sondern auf die nachislamischen Offenbarungen des Bab und Baha'ullahs bezieht, wird von vielen muslimischen Gelehrten als Abfall vom Islam (arab.: حروب الردة, ridda) bezeichnet. Neben diversen anderen Vorwürfen bezeichnen sunnitische Fatwas die Bahai-Religion als eine von Nichtmuslimen gestiftete Bewegung von Ungläubigen (kuffār) zur Zersetzung des Islam. Besonders stark ist die Verfolgung im schiitischen Iran. Großajatollah Naser Makarem Schirazi stigmatisierte die Bahai als „kriegerische Ungläubige“ (Kofare Harbi), die getötet werden dürfen. Der iranische Parlamentsabgeordnete Mehdi Kuchaksadeh behauptet, dass Bahai. Dementsprechend werden die Bahai im Iran verfolgt und auch in Deutschland versuchen Schiiten, Bahai auszugrenzen. Andererseits gibt es ein internationales muslimisches Netzwerk, das sich für die Rechte der Bahai einsetzt. Der Zentralrat der Muslime in Deutschland und DITIB begrüßen und fördern den interreligiösen Dialog zwischen Muslimen und Bahai. Italowestern. Der Italowestern (auch Spaghettiwestern oder Eurowestern genannt) ist ein in den 1960ern entstandenes Sub-Genre des Westerns, das sich in europäischen Westernproduktionen der frühen 1960er Jahre bereits anbahnt, und bald durch italienische Produktionen dominiert wird. Besonders 'markenbewusst' forciert der Autor und Regisseur Sergio Leone seinen speziellen Stil und seine Sujets mit einer europäischen und besonders italienischen Sichtweise auf den Wild-West-Mythos. Italowestern feierten über Jahre hinweg große Kassenerfolge. In der Blütezeit des Genres wurde der Markt mit Low-Budget-Filmen geradezu überschwemmt. Im Laufe der ersten Hälfte der 1970er Jahre ebbte die Italo-Western-Welle allmählich ab, beziehungsweise ging in Komödien aber auch ernsten Filmen mit zum Teil 'amerikanischen' Sujets auf. Inhalte. Der amerikanische Westernfilm wurde durch Italowestern zunächst ernsthaft aufgegriffen und sozusagen progressiv und experimentell ins naiv Fantastische hinein modifiziert. Durch Sergio Leone (samt diverser Epigonen) schwenkt das Genre dann in selbstironische Western-Persiflagen hinüber. Das naiv Fantastische, das natürlich nicht an genuin amerikanischer Geschichte interessiert ist, sondern an unterhaltenden Effekten und neuartigen Erzählweisen, bleibt dabei stets ein Stilmerkmal. An die Stelle moralisierender und traditioneller (US-amerikanischer) Western-Motive wie Aufrichtigkeit, Anständigkeit und Altruismus setzte der Italowestern Antihelden, die gegen bürgerliche Konventionen und Verhaltensnormen rebellieren. Auch wurden gesellschaftliche Missstände thematisiert, woran sich das genuin europäische Motiv des Italowesterns zeigt. Im Italowestern ist das Amerikanische etwas exotisches. 'Unbegrenzte Möglichkeiten' stehen hier bisweilen für geradezu abstruse Exzesse der Erfindung, aber all dies mit einer bemerkenswerten und bis dahin ungekannten 'Authentizität', die aber nur einerseits das Äußerliche, vornehmlich die Ausstattung, Bauten, Requisiten, Garderobe betrifft, und andererseits die 'Schlechtigkeit' des Western-Menschen, die hier vermeintlich schonungslos 'dargestellt', viel eher aber ebenso fantasievoll erdichtet wird, wie die übermenschliche 'Anständigkeit' des bis dahin typischen Western-Helden. So ist ein weiteres Motiv bisweilen die Darstellung exzessiver Gewalt zu bloßem Sensationszweck. Der thematisch ähnliche, sich vom moralisch eindeutigeren Western der 1930- bis 1960er Jahre loslösende, vornehmlich US-amerikanische Spätwestern und der Italowestern beeinflussten sich zum Teil gegenseitig. Die einseitige Überzeichnung schüttelt der Italowestern nicht ab, während sich der Spätwestern im Laufe der 1970er Jahre zumindest in manchen Werken differenzierteres Storytelling erlaubt (zum Beispiel die Filme von Clint Eastwood). Der Italowestern ist oft von markigen Anti-Helden vor häufig schmutzig-schäbiger Kulisse bestimmt. Gerechtigkeitssinn und selbstloses Handeln, die die Helden der amerikanischen Western bis dahin oft auszeichneten, sind hier entweder im Heldencharakter gerade nur zu erahnen oder weichen ganz Habgier und Eigennutz. Der Held des Italowestern wird oft durch Rache oder das Streben nach Geld angetrieben und hält sich aus moralisch motivierten Konflikten heraus. Diese Figuren sind im doppelten Sinne ein zeitlicher Abgesang auf die US-Westernhelden, einmal in den Filmhandlungen als späte Protagonisten des Wilden Westens und einmal real als Ausläuter der gesamten Western-Ära. Die Darstellung der Indianer und der problematischen amerikanischen Besiedlungsgeschichte ist im europäischen Western kein relevantes Thema. Indianer mit den rassistischen und entwürdigenden Geschichtsverzerrungen des früheren amerikanischen Westerns treten als solche gar nicht auf. Vielmehr erhalten nicht selten Mexikaner, also eine essentiell indianische Etnie, tragende Rollen. Stilmerkmale. Visuell kennzeichnet den Italowestern unter anderem der Einsatz von extremen Nah- bis Detailaufnahmen. Nahaufnahmen von Gesichtern, die bis zur "italienischen Einstellung" (in der nur noch die Augen einer Person die Leinwand füllen) reichen, intensivierten unter anderem auch die Darstellung des Pistolenduells im Italowestern, das vor allem Sergio Leone in seinen Filmen als unausweichlichen Showdown inszenierte. Es ist der schnelle Schnitt zwischen Gesichtern, Händen und Pistolen, untermalt mit der typischen Musik des Italowestern, der heute als typische Sequenz eines Western gilt, jedoch erst hier begründet wurde. Sergio Leone wurde außerdem von japanischen Samuraifilmen (speziell von Akira Kurosawa) beeinflusst. Sein stilbildender Western Für eine Handvoll Dollar (1964) ist ein Remake des nur drei Jahre älteren Films Yojimbo – Der Leibwächter. Neben Nah- und Detailaufnahmen sind auch Supertotalen genretypische Elemente. In den Filmen von Sergio Leone und Sergio Corbucci dienen diese oft auffallend lange dauernden Einstellungen der Inszenierung des Western-Topos der weiten Prärie. Die Supertotalen können als spannungssteigernde Stillleben auftreten oder durch kaum erkennbare Bewegungen von Kutschen oder Reitern den Gegensatz von Mensch und Natur darstellen. In Leones Für ein paar Dollar mehr besteht die ganze Eröffnungssequenz aus einer einzigen Supertotale. In der Fortsetzung dieses Films, Zwei glorreiche Halunken, besteht die Eröffnungssequenz hingegen aus einem spannenden Wechsel von Supertotalen und Nahaufnahmen. Das zweitwichtigste Stilmittel bei Sergio Leone ist die Musik, die hier eher selten wirklich 'Filmmusik' ist (siehe unten). In vielen Momenten kippt das Verhältnis von Filmmusik zu Musik-Film. Ähnlich wie im amerikanischen Western wurde auch im Italo-Western schnell geschossen, und bis auf die Hauptfiguren hatten die Halunken keine persönliche Beziehung zueinander, wurden „wie Fliegen abgeknallt“ und fielen in den älteren Filmen augenblicklich tot zu Boden. Fast alle Filme zeigen im Handlungsverlauf dutzende Erschießungen. Dabei nahm der Italowestern die internationale Entwicklung ab Mitte der 1960er Jahre auf, den Tod immer realistischer und brutaler darzustellen. Fielen zu Anfang die von Pistolenschüssen Getroffenen noch ohne Einschusslöcher zu Boden, so wurde der Tod rasch immer brutaler gezeigt. Nicht selten fanden mit dem Italowestern eher unübliche Kreuzungen von Filmgenres ihren Weg auf die Leinwand, zum Beispiel mit dem Horrorfilm (Satan der Rache), mit klassischem Schauspiel (Hamlet: Django – Die Totengräber warten schon; Carmen: Mit Django kam der Tod) oder Kriminalfilm (1000 Dollar Kopfgeld). Musik. Es ist nicht übertrieben, die Musik als eines der wichtigsten Stilmittel des Italowesterns zu bezeichnen. Ennio Morricones Musik hat in Sergio Leones Filmen eine sehr tragende, melodramatische Rolle. Sie ist hier nur noch selten unterbewusst unterstützend (siehe Filmmusik), sondern wird oft zum zentralen Inhalt des Films, wo der Rhythmus der Bilder einen Rahmen für sie schafft. Beides ist dort dann gleich wichtig. Morricones Musiken treten dort in das Bewusstsein, sind einprägsam und populär, also genau das Gegenteil von Filmmusik in ihrer bis dahin und auch heute sonst üblichen Rolle. Entsprechend wurde Ennio Morricones Musik mit markanten Themen und experimentellen Arrangements zum Markenzeichen des Italowestern. Morricones Soundtracks stachen zudem durch die Verwendung von exotischen Instrumenten und Geräuschen hervor (zum Beispiel Okarina, E-Gitarre, menschliche Laute wie Pfiffe oder Schreie, Peitschenschläge, Synthesizer, Oboe oder Fagott solo). Mit seinen Soundtracks zu den beiden Klassikern des Italowesterns "Spiel mir das Lied vom Tod" und "Zwei glorreiche Halunken" schuf Ennio Morricone nicht nur für das Sub-Genre, sondern auch für den Westernfilm an sich Erkennungsmelodien, die in Zitaten und Filmparodien auf das Genre gerne verwendet werden und deren Popularität wohl nur Elmer Bernsteins Thema aus dem Film "Die glorreichen Sieben" gleichkommt. Daneben haben auch Bruno Nicolai, Luis Bacalov, Carlo Savina, Angelo Francesco Lavagnino und andere die Filmmusik zu vielen Italowestern geschrieben. Außenaufnahmen und Sets. Die Landschafts- und Außenaufnahmen zu einer Vielzahl von Italowestern wurden in Spanien auf der Halbinsel Cabo de Gata beziehungsweise nördlich von Almería (beides Andalusien) gedreht. Dort ähnelt die Landschaft sehr stark dem Südwesten der USA (Arizona, New Mexico). Drehorte mit eher europäischem Aussehen (Karstlandschaften), auf die regelmäßig zurückgegriffen wurde, befinden sich in der Gegend um Madrid (unter anderen La Pedriza, Manzanares el Real, Hoyo de Manzanares). Fast immer wurden jedoch – meist aus Gründen der Filmförderung – auch italienische Drehorte verwendet, wie zum Beispiel Gran Sasso in den Abruzzen. Schätzungsweise 70 Prozent aller Italowestern wurden in italienischen Studios (zum Beispiel Elios-Studios), Sets (zum Beispiel Villa Mussolini) und oft auch billig wirkenden Landschaften – meist um Rom herum – eher zügig abgedreht als inszeniert. Oftmals dienten Kiesgruben und Baggerseen als Ersatz für richtige Drehorte, was den Trashcharakter der Filme in der heutigen Rezeption förderte. So hat etwa der mit 13 Filmen vertretene Giuliano Carnimeo, mit Ausnahme einer kurzen Sequenz in "Sartana kommt", seinen recht umfangreichen Beitrag zum Subgenre ausschließlich in Italien realisiert. Auch Corbuccis "Django" entstand größtenteils dort. Außenaufnahmen in Western-Städtchen (Straßenzüge etc.) wurden sowohl in Kulissenstädten nahe bei Almería wie auch – vor allem Innenaufnahmen (Saloon, Hotel, Gefängnis etc.) – in den Western-Sets der römischen Filmstudios gedreht (Elios-Studios, Laurentiis-Studios oder Cinecittà). Heute können diese Filmkulissen bei Almería sowie eine Reihe weiterer, dort für Italowestern entstandene Bauten beziehungsweise deren Reste besichtigt werden (etwa die Ranch für "Spiel mir das Lied vom Tod", die sogenannte "Rancho Leone"). Techniscope. Nahezu alle Italo-Western wurden im kostengünstigen Techniscope-Filmformat produziert, dessen Seitenverhältnis annähernd dem von Cinemascope entspricht (1:2,35). Für die Aufnahmen wurden umgebaute 35-mm-Filmkameras eingesetzt (meist Arriflex II, auch Mitchell), deren Perforationsschritt nur zwei statt vier Perforationslöcher beträgt. Viele der typischen, bildgestalterischen Stilmerkmale des Italo-Western – so unter anderem die verzerrungsfreien Großaufnahmen (die sogenannte „Italienische“) oder die hohe Schärfentiefe – sind dem Techniscope-Format geschuldet. Wertschätzung. Nach dem Erfolg vor allem an den europäischen Kinokassen erlangte der Italowestern auch langsam eine Wertschätzung durch Kritiker und Filmhistoriker. Trotz des Fließbandcharakters der Produktion entstanden Filmklassiker, die auch über das Westerngenre hinaus als wichtige künstlerische und die Filmästhetik prägende Filme in die Filmgeschichte eingegangen sind: Leones "Spiel mir das Lied vom Tod" und "Zwei glorreiche Halunken", Corbuccis "Leichen pflastern seinen Weg" und "Django" oder auch Castellaris "Keoma" gehören zu einer Gruppe von Kultfilmen, die aus der Fülle an Italowestern herausragen. Neben der innovativen Inszenierung Leones und der Musik Morricones (Komponist von drei zuvor genannten Filmen) spielen auch erzählungsstrategische Experimente wie in "Leichen pflastern seinen Weg" eine Rolle für die anhaltende Begeisterung sowohl bei Filmfans als auch Filmkritikern. Deutsche Titelgebung. Figuren wie Django, Ringo oder Sabata wurden zu Ikonen des Sub-Genres, die regelmäßig auf der Leinwand (wie auch im Titel) eine Rückkehr erlebten. Dabei entwarfen die wenigsten Filmreihen übergreifend konsistente Erzählungen oder bildeten gar ein verbindliches Personal heraus. Ganz im Gegenteil wurden ganze Reihen erst von deutschen Filmverleihern mittels verfälschender Synchronisation und irreführender Titelgebungen ins Leben gerufen, um durch die Anlehnung an besonders erfolgreiche Schlüsselfilme die Bilanz an der Kasse aufzubessern: Hierdurch kam es vor, dass bei einem Erfolgstitel oft bereits in den nächsten Wochen eine vermeintliche Fortsetzung mit dem populären Titelhelden erschien. Berühmtestes Beispiel ist die "Django-Serie", die nur auf dem deutschen Markt mittels irreführender Titel in den Status einer solchen erhoben wurde (Beispiel hier: Django der Rächer; in der italienischen Version des Films wird der Name "Django" kein einziges Mal ausgesprochen, der Hauptdarsteller Franco Nero heißt stattdessen Burt Sullivan). Offiziell erfuhr Sergio Corbuccis Klassiker mit Franco Nero in der Hauptrolle erst 1987 die bis dato einzige Fortsetzung. Persiflage durch Bud Spencer und Terence Hill. Wie viele andere zeitweilig populäre Genres ereilte auch den Italowestern nach Einüben der Konventionen eine Phase der Ironisierung und Verschiebung ins Komödiantische. Vor allem das Duo Bud Spencer und Terence Hill trat gemeinsam in einer Reihe Westernfilme mit humoristischem Erfolg auf, in denen ausgiebig gefressen und gerauft wurde. Doch soll dies nicht darüber hinwegtäuschen, dass beide auch unabhängig voneinander durchaus ernst angelegte Western in ihren Filmografien aufweisen. Vor allem Terence Hill trat als eine an die großen schweigsamen Anti-Helden des Italowesterns erinnernde Figur auf, wohingegen Bud Spencers Versuche meist von einer erbarmungslos „verwitzelnden“ deutschen Synchronisation mit entsprechendem Ergebnis sabotiert wurden. Terence Hill bleibt vor allem als die Spätwesternfigur "Nobody" in Erinnerung, die in ihrer ersten Inkarnation – unter Co-Regie von Sergio Leone – trotz komödiantischer Ausrichtung einige melancholische Akzente im Genre zu setzen wusste. 1991 versuchte er – wie auch der Italowestern – in einer Real-Adaption des Comics Lucky Luke mit nur geringem Erfolg an seine alten Rollen anzuschließen. Bud Spencer und Terence Hill drehten auch eine ganze Reihe an Nicht-Western zusammen, die jedoch häufiger auf einige Italowestern anspielten. Independent Moving Pictures Company. Plakat der I.M.P. im Museum zur Geschichte von Christen und Juden in Laupheim (2012) Die Independent Moving Pictures Company (I.M.P.) war ein Filmstudio. Die I.M.P. wurde 1909 gegründet und war die erste Firma von Carl Laemmle. Thomas Harper Ince gab hier 1910 sein Regiedebüt. I.M.P. wurde später mit Pat Powers Picture Plays, Bison Life Motion Pictures, der Nestor Company, Champion, Eclair und der Yankee Company zur Universal Motion Picture Manufacturing Company verschmolzen. Indium. Indium ist ein chemisches Element mit dem Symbol In und der Ordnungszahl 49. Im Periodensystem der Elemente steht es in der 5. Periode und ist das vierte Element der 3. Hauptgruppe, der 13. IUPAC-Gruppe, oder Borgruppe. Indium ist ein seltenes, silberweißes und weiches Schwermetall. Seine Häufigkeit in der Erdkruste ist vergleichbar mit der von Silber. Indium ist für den menschlichen Körper nicht essentiell, genauso wenig sind toxische Effekte bekannt. Das Metall wird heute zum größten Teil zu Indiumzinnoxid verarbeitet, das als transparenter Leiter für Flachbildschirme und Touchscreens eingesetzt wird. Seit der Jahrtausendwende hat die damit verbundene gestiegene Nachfrage zu einem deutlichen Anstieg der Indiumpreise und zu Diskussionen über die Reichweite der Vorkommen geführt. Geschichte. Indium wurde 1863 von den deutschen Chemikern Ferdinand Reich und Theodor Richter an der Bergakademie Freiberg entdeckt. Sie untersuchten eine in der Umgebung gefundene Sphalerit-Probe nach Thallium. Dabei fanden sie im Absorptionsspektrum anstatt der erwarteten Thallium-Linien eine bisher unbekannte indigoblaue Spektrallinie und damit ein bisher unbekanntes Element. Nach dieser erhielt das neue Element später seinen Namen. Kurze Zeit später konnten sie zunächst Indiumchlorid und -oxid, durch Reduktion von Indiumoxid mit Wasserstoff auch das Metall darstellen. Eine größere Menge Indium wurde erstmals auf der Weltausstellung 1867 in Paris gezeigt. Nach einer ersten Anwendung ab 1933 als Legierungsbestandteil in Zahngold begann der umfangreiche Einsatz von Indium mit dem Zweiten Weltkrieg. Die Vereinigten Staaten setzten es als Beschichtung in hoch beanspruchten Lagern von Flugzeugen ein. Nach dem Zweiten Weltkrieg wurde Indium vor allem in der Elektronikindustrie, als Lötmaterial und in niedrig schmelzenden Legierungen eingesetzt. Auch die Verwendung in Kontrollstäben von Kernreaktoren wurde mit der zunehmenden Verwendung der Kernenergie wichtig. Dies führte bis 1980 zu einem ersten starken Ansteigen des Indiumpreises. Nach dem Reaktorunfall von Three Mile Island gingen jedoch sowohl Nachfrage als auch Preis deutlich zurück. Ab 1987 wurden zwei neue Indiumverbindungen, der Halbleiter Indiumphosphid und das in dünnen Schichten leitende und durchsichtige Indiumzinnoxid entwickelt. Besonders Indiumzinnoxid wurde mit der Entwicklung von Flüssigkristallbildschirmen technisch interessant. Durch den hohen Bedarf wird seit 1992 der größte Teil des Indiums zu Indiumzinnoxid weiterverarbeitet. Vorkommen. Indium ist ein seltenes Element, sein Anteil an der kontinentalen Erdkruste beträgt nur 0,05 ppm. Es ist damit von ähnlicher Häufigkeit wie Silber und Quecksilber. In gediegener, das heißt elementarer Form konnte Indium bisher (Stand 2014) nur sehr selten entdeckt werden. Als Typlokalität gilt dabei eine Tantalerz-Lagerstätte bei Olowjannaja in der russischen Region Transbaikalien. Daneben fand man gediegen Indium unter anderem noch im Perzhanskoe-Erzfeld in der ukrainischen Oblast Schytomyr und im Tschatkalgebirge in der usbekischen Provinz Taschkent sowie in Gesteinsproben vom Mond. Auch an Mineralen, die Indium enthalten, sind nur wenige bekannt (aktuell 13 anerkannte Minerale, Stand 2014). Dies sind vor allem sulfidische Minerale wie Indit FeIn2S4, Laforêtit AgInS2 und Roquesit CuInS2 sowie die zu den Elementmineralen zählenden, natürlichen Legierungen Damiaoit PtIn2 und Yixunit Pt3In. Diese sind jedoch selten und spielen für die Gewinnung von Indium keine Rolle. Die größten Vorkommen von Indium liegen in Zinkerzen, insbesondere Sphalerit. Die theoretischen Reserven werden auf 16.000 Tonnen geschätzt, wirtschaftlich abbaubar sind davon etwa 11.000 Tonnen. Die größten Vorkommen liegen in Kanada, China und Peru. Indiumhaltige Erze werden aber auch in Australien, Bolivien, Brasilien, Japan, Russland, Südafrika, den USA, Afghanistan und einigen europäischen Ländern gefunden. In Deutschland liegen Vorkommen im Erzgebirge (Freiberg, Marienberg, Geyer) und am Rammelsberg im Harz. Gewinnung und Darstellung. Indium wird fast ausschließlich als Nebenprodukt bei der Produktion von Zink oder Blei gewonnen. Eine wirtschaftliche Gewinnung ist möglich, wenn sich an bestimmten Stellen des Produktionsprozesses Indium anreichert. Dies sind etwa Flugstäube, die während des Röstens von Zinksulfid entstehen, und Rückstände, die bei der Elektrolyse während des nassen Verfahrens der Zinkherstellung zurückbleiben. Diese werden mit Schwefelsäure oder Salzsäure umgesetzt und so in Lösung gebracht. Da die Konzentration an Indium in der Säure zu gering ist, muss sie angereichert werden. Dies geschieht etwa durch Extraktion mit Tributylphosphat oder Fällung als Indiumphosphat. Die eigentliche Indiumgewinnung erfolgt elektrolytisch. Dazu wird eine Lösung von Indium(III)-chlorid in Salzsäure verwendet. Dieses wird mit Hilfe von Quecksilberelektroden zu elementarem Indium umgesetzt. Bei der Elektrolyse ist darauf zu achten, dass die Lösung kein Thallium mehr enthält, da die Standardpotentiale der beiden Elemente sehr ähnlich sind. Durch geeignete Verfahren wie Zonenschmelzverfahren oder mehrmalige Elektrolyse von Indium(I)-chlorid-Salzschmelzen kann das Rohprodukt weiter gereinigt und so über 99,99 % reines Indium gewonnen werden. Produktion. Die Primärproduktion (Raffinerieproduktion) von Indium lag im Jahr 2006 zwischen 500 und 580 Tonnen. Auf Grund der geringen natürlichen Vorräte von 11.000 Tonnen bei gleichzeitig hoher Nachfrage zählt Indium zu den knappsten Rohstoffen auf der Erde. Im Jahr 2008 wuchsen insbesondere für China die Angaben zu den natürlichen Indium-Vorräten von 280 auf 8.000 Tonnen, was die Reichweite von vormals 6 auf 19 Jahre verlängerte. Die Sekundärproduktion, also das Recycling, übertrifft die Primärproduktion und lag im Jahr 2008 bei 800 Tonnen. Die Indiumproduktion in China findet erst seit kurzer Zeit verstärkt statt. Im Jahr 1994 lag die produzierte Menge noch bei 10 Tonnen. Seitdem vergrößerte sich der Anteil Chinas an der Weltproduktion auf 60 % im Jahr 2005. Die Produktion in anderen Ländern wie Japan, Kanada oder Frankreich konnte nur in geringem Umfang gesteigert werden oder verringerte sich durch Erschöpfung der Lagerstätten. So wurde 2006 die japanische Toyoha-Mine geschlossen und damit die dortige Produktion deutlich verringert. Da die Nachfrage nach Indium stärker als die Produktion gestiegen ist, ergab sich ein starker Anstieg des Indiumpreises von 97 Dollar 2002 auf 827 Dollar pro Kilogramm im Jahr 2005. Recycling von Indium erfolgt vor allen durch Wiederverwertung von Rückständen aus dem Sputtern. Das einzige Land, in dem derzeit in größeren Mengen Indium wiedergewonnen wird, ist Japan. In der industriellen Dünnschichttechnologie ist die Wiederverwertung indiumhaltiger Sputtertargets auf Grund ihrer stückigen Natur und dem geringen Demontageaufwand bei hoher Materialwertigkeit gängige betriebliche Praxis. Im Gegensatz zu Wänden und Einbauten der Sputterkammer sowie etwaiger Strukturierungsabfälle. Die Substitution von Indium in der transparent-leitenden Schicht (TCO) mittels Zinkoxid insbesondere bei CIGS-, aber auch bei a-Si- bzw. c-Si-Solarzellen ist ebenso wie die Nutzung von Sekundärmaterial für den Einsatz in Indiumtargets geringer Reinheit aktuelles Thema der öffentlich geförderten Forschung der funktionalen und ressourcen-ökonomischen Materialwissenschaft. Indium kann zwar in den meisten Anwendungen durch andere Stoffe ersetzt werden, dabei verschlechtern sich jedoch häufig die Eigenschaften des Produktes oder die Wirtschaftlichkeit der Produktion. So kann etwa Indiumphosphid durch Galliumarsenid ersetzt werden und auch für Indiumzinnoxid sind einige – wenn auch qualitativ schlechtere – Ersatzstoffe möglich. Physikalische Eigenschaften. Elementarzelle von Indium mit Koordinationsumgebung des zentralen Indiumatoms Indium ist ein silbrig-weißes Metall mit einem niedrigen Schmelzpunkt von 156,60 °C. Einen niedrigeren Schmelzpunkt besitzen unter den reinen (unlegierten) Metallen nur Quecksilber, Gallium und die meisten Alkalimetalle. Über einen sehr großen Bereich von fast 2000 K ist das Metall flüssig. Flüssiges Indium hinterlässt auf Glas dauerhaft einen dünnen Film (Benetzung). Die gleiche Eigenschaft besitzt das ähnliche Gallium. Das Metall besitzt eine hohe Duktilität und sehr geringe Härte (Mohs-Härte: 1,2). Es ist daher möglich, Indium wie Natrium mit dem Messer zu schneiden. Gleichzeitig hinterlässt es auf Papier einen sichtbaren Strich. Unterhalb einer Sprungtemperatur von 3,41 Kelvin ist Indium supraleitend. Eine Besonderheit des Indiums, die es mit dem Zinn gemeinsam hat, sind die charakteristischen Geräusche, die beim Verbiegen von Indium zu hören sind („Zinngeschrei“). Von Indium ist bei Normalbedingungen nur eine kristalline Modifikation bekannt, die im tetragonalen Kristallsystem in der und damit in einem tetragonal-innenzentrierten Gitter mit den Gitterparametern "a" = 325 pm und "c" = 495 pm sowie zwei Formeleinheiten in der Elementarzelle kristallisiert. Ein Indiumatom wird in der Kristallstruktur von zwölf weiteren Atomen umgeben, wobei vier aus den benachbarten Elementarzellen stammen und einen geringeren Abstand (325 pm; rote Bindungen) als die acht auf den Ecken der Elementarzelle befindlichen Atome aufweisen (337 pm; grüne Bindungen). Als Koordinationspolyeder ergibt sich durch die Koordinationszahl 4 + 8 = 12 ein verzerrtes Kuboktaeder. Die Kristallstruktur kann daher als eine tetragonal verzerrte, kubisch-dichteste Kugelpackung beschrieben werden. In Hochdruckexperimenten wurde eine weitere Modifikation entdeckt, die oberhalb von 45 GPa stabil ist und im orthorhombischen Kristallsystem in der Raumgruppe  kristallisiert. Chemische Eigenschaften. Die chemischen Eigenschaften des Indiums ähneln denen der Gruppennachbarn Gallium und Thallium. So ist Indium wie die beiden anderen Elemente ein unedles Element, das bei hohen Temperaturen mit vielen Nichtmetallen reagieren kann. An der Luft ist es bei Raumtemperatur stabil, da sich wie bei Aluminium eine dichte Oxidschicht bildet, die das Material durch Passivierung vor weiterer Oxidation schützt. Erst bei hohen Temperaturen findet die Reaktion zu Indium(III)-oxid statt. Während Indium von Mineralsäuren wie Salpetersäure oder Schwefelsäure angegriffen wird, ist es nicht löslich in heißem Wasser, Basen und den meisten organischen Säuren. Auch Salzwasser greift Indium nicht an. Indium ist bei Raumtemperatur das in Quecksilber am besten lösliche Metall. Isotope. Von Indium sind 38 verschiedene Isotope und weitere 45 Kernisomere von 97In bis 135In bekannt. In der Natur kommen davon nur zwei Isotope vor, 113In (64 Neutronen) mit 4,29 % und 115In (66 Neutronen) mit 95,71 % Anteil an der natürlichen Isotopenverteilung. Das häufige Isotop 115In ist schwach radioaktiv, es ist ein Betastrahler mit einer Halbwertszeit von 4,41 · 1014 Jahren. Somit hat ein Kilogramm Indium eine Aktivität von 250 Becquerel. Beide natürlichen Isotope können mit Hilfe der NMR-Spektroskopie nachgewiesen werden. Die stabilsten künstlichen Isotope 111In und 114mIn haben Halbwertszeiten von einigen Tagen, 113mIn nur etwa eineinhalb Stunden. 111In und 113mIn werden in der medizinischen Diagnostik für bildgebende Verfahren (Szintigrafie und SPECT) verwendet. Metall. Indium ist vielseitig verwendbar, sein Einsatz ist jedoch durch die Seltenheit und den hohen Preis beschränkt. Der größte Teil des produzierten Indiums wird nicht als Metall eingesetzt, sondern zu einer Reihe von Verbindungen weiterverarbeitet. Allein für die Produktion von Indiumzinnoxid wurden im Jahr 2000 65 % der Gesamtproduktion an Indium verwendet. Auch andere Verbindungen, wie Indiumphosphid und Indiumarsenid werden aus dem produzierten Indium gewonnen. Genaueres über die Verwendung von Indiumverbindungen findet sich im Abschnitt "Verbindungen." Metallische Werkstücke können durch galvanisch abgeschiedene Indiumüberzüge geschützt werden. So beschichtete Werkstoffe etwa aus Stahl, Blei oder Cadmium sind danach beständiger gegen Korrosion durch organische Säuren oder Salzlösungen und vor allem Abrieb. Indiumschutzschichten wurden früher oft für Gleitlager in Automobilen oder Flugzeugen verwendet. Seit dem deutlichen Anstieg des Indiumpreises ist dies jedoch nicht mehr wirtschaftlich. Mit Indium beschichtete Flächen besitzen einen hohen und gleichmäßigen Reflexionsgrad über alle Farben hinweg und können daher als Spiegel verwendet werden. Der Schmelzpunkt von Indium liegt relativ niedrig und ist sehr genau bestimmbar. Aus diesem Grund ist er einer der Fixpunkte bei der Aufstellung der Temperaturskala. Diese Eigenschaft wird auch für die Kalibrierung in der dynamischen Differenzkalorimetrie (DSC) genutzt. Wegen des hohen Einfangquerschnittes sowohl für langsame als auch für schnelle Neutronen ist Indium ein geeignetes Material für Steuerstäbe in Kernreaktoren. Auch als Neutronendetektoren können Indiumfolien verwendet werden. Indium ist gasdicht und auch bei tiefen Temperaturen leicht zu verformen und wird daher in sogenannten Indiumdichtungen in Kryostaten eingesetzt. Auch als Lot für viele Materialien spielt Indium auf Grund einiger spezieller Eigenschaften eine Rolle. So verformt es sich beim Abkühlen nur in geringem Maß. Dies ist vor allem beim Löten von Halbleitern für Transistoren wichtig. Ebenso spielt eine Rolle, dass Indium in der Lage ist, auch nichtmetallische Stoffe wie Glas und Keramik zu verlöten. Mit „Indiumpillen“ wurden Germaniumplättchen beiderseits anlegiert, um erste Transistoren herzustellen. Legierungen. Indium kann mit vielen Metallen legiert werden. Viele dieser Legierungen, vor allem mit den Metallen Bismut, Zinn, Cadmium und Blei, besitzen einen niedrigen Schmelzpunkt von 50 bis 100 °C. Dadurch ergeben sich Anwendungsmöglichkeiten beispielsweise in Sprinkleranlagen, Thermostaten und Sicherungen. Da das ebenfalls verwendbare Blei giftig ist, dient Indium als ungefährlicher Ersatzstoff. Der Zweck dieser Legierungen liegt darin, dass sie bei zu hohen Umgebungstemperaturen, die durch Feuer oder hohe Stromstärken verursacht werden, schmelzen. Durch das Schmelzen wird dann der Stromkreis unterbrochen oder die Sprinkleranlage ausgelöst. Indium-Gallium-Legierungen besitzen häufig noch niedrigere Schmelzpunkte und sind in Hochtemperaturthermometern enthalten. Eine spezielle Gallium-Indium-Zinn-Legierung ist Galinstan. Diese ist bei Raumtemperatur flüssig und dient als ungefährlicher Ersatzstoff für Quecksilber oder Natrium-Kalium-Legierungen. Es gibt noch einige weitere indiumhaltige Legierungen, die in unterschiedlichen Gebieten eingesetzt werden. In klinischen Studien wurden Quecksilberlegierungen mit Kupfer und 5 bzw. 10 % Indium als Amalgamfüllung erprobt. In der Speicherschicht einer CD-RW ist unter anderem Indium enthalten. Nachweis. Ein möglicher chemischer Nachweis ist das Ausfällen von Indiumionen mit Hilfe von 8-Hydroxychinolin aus essigsaurer Lösung. Normalerweise wird Indium nicht auf chemische Weise nachgewiesen, sondern über geeignete spektroskopische Verfahren. Leicht ist Indium über die charakteristischen Spektrallinien bei 451,14 nm und 410,18 nm nachzuweisen. Da diese im blauen Spektralbereich liegen, ergibt sich die typische blaue Flammenfärbung. Für eine genauere quantitative Bestimmung bieten sich die Röntgenfluoreszenzanalyse und die Massenspektrometrie als Untersuchungsmethode an. Toxizität und Sicherheit. Während von Indiummetall keine toxischen Effekte bekannt sind, zeigte es sich jedoch, dass Indiumionen im Tierversuch mit Ratten und Kaninchen embryonentoxische und teratogene Effekte besitzen. Bei einer Einmalgabe von 0,4 mg · kg−1 InCl3 an trächtigen Ratten konnten Missbildungen wie beispielsweise Gaumenspalten und Oligodaktylie beobachtet werden. Diese Erscheinungen waren gehäuft festzustellen, wenn das Indium am 10. Schwangerschaftstag appliziert wurde. Bei Mäusen waren dagegen keine Missbildungen zu beobachten. Bei Indiumnitrat wurde eine Toxizität für Wasserorganismen (aquatische Toxizität) festgestellt. Kompaktes Indiummetall ist nicht brennbar. Im feinverteilten Zustand als Pulver oder Staub ist es dagegen wie viele Metalle leichtentzündlich und brennbar. Brennendes Indium darf wegen der Explosionsgefahr durch entstehenden Wasserstoff nicht mit Wasser gelöscht werden, sondern muss mit Metallbrandlöschern (Klasse D) gelöscht werden. Verbindungen. Indium bildet eine Reihe von Verbindungen. In ihnen hat das Metall meist die Oxidationsstufe +III. Die Stufe +I ist seltener und instabiler. Die Oxidationsstufe +II existiert nicht, Verbindungen, in denen formal zweiwertiges Indium vorkommt, sind in Wirklichkeit gemischte Verbindungen aus ein- und dreiwertigem Indium. Indiumoxide. Indium(III)-oxid ist ein gelber, stabiler Halbleiter. Reines Indium(III)-oxid wird wenig verwendet, in der Technik wird der größte Teil zu Indiumzinnoxid weiterverarbeitet. Es handelt sich hierbei um Indium(III)-oxid, das mit einer geringen Menge Zinn(IV)-oxid dotiert ist. Dadurch wird die Verbindung zu einem transparenten und leitfähigem Oxid (TCO-Material). Diese Kombination von Eigenschaften, die nur wenige weitere Materialien besitzen, bedingt eine breite Anwendung. Insbesondere als Stromleiter in Flüssigkristallbildschirmen (LCD), organischen Leuchtdioden (OLED), Touchscreens und Solarzellen wird Indiumzinnoxid verwendet. In weiteren Anwendungen wie beheizbaren Autoscheiben und Solarzellen konnte das teure Indiumzinnoxid durch preiswerteres aluminiumdotiertes Zinkoxid (AZO) ersetzt werden. Verbindungshalbleiter. Viele Indiumverbindungen sind Verbindungshalbleiter mit charakteristischen Bandlücken. Dies betrifft insbesondere Verbindungen mit Elementen der 15. und 16. Hauptgruppe, wie Phosphor, Arsen oder Schwefel. Diejenigen mit Elementen der 15. Hauptgruppe werden zu den III-V-Verbindungshalbleitern gezählt, diejenigen mit Chalkogenen zu den III-VI-Verbindungshalbleitern. Die Zahl richtet sich jeweils nach der Anzahl an Valenzelektronen in den beiden Verbindungsbestandteilen. Indiumnitrid, Indiumphosphid, Indiumarsenid und Indiumantimonid haben unterschiedliche Anwendungen in verschiedenen Dioden, wie Leuchtdioden (LED), Fotodioden oder Laserdioden. Die genaue Anwendung hängt von der benötigten Bandlücke ab. Indium(III)-sulfid (In2S3) ist ein III-VI-Halbleiter mit einer Bandlücke von 2 eV, der anstelle von Cadmiumsulfid in Solarzellen verwendet wird. Einige dieser Verbindungen – vor allem Indiumphosphid und Indiumarsenid – spielen eine Rolle in der Nanotechnologie. Indiumphosphid-Nanodrähte besitzen eine stark anisotrope Photolumineszenz und können eventuell in hochempfindlichen Photodetektoren oder optischen Schaltern eingesetzt werden. Neben den einfachen Verbindungshalbleitern gibt es auch halbleitende Verbindungen, die mehr als ein Metall enthalten. Ein Beispiel ist Indiumgalliumarsenid (InxGa1−xAs) ein ternärer Halbleiter mit einer im Vergleich zu Galliumarsenid verringerten Bandlücke. Kupferindiumdiselenid (CuInSe2) besitzt einen hohen Absorptionsgrad für Licht und wird daher in Dünnschichtsolarzellen eingesetzt (CIGS-Solarzelle). Weitere Indiumverbindungen. Mit den Halogenen Fluor, Chlor, Brom und Iod bildet Indium eine Reihe von Verbindungen. Sie sind Lewis-Säuren und bilden mit geeigneten Donoren Komplexe. Ein wichtiges Indiumhalogenid ist Indium(III)-chlorid. Dieses wird unter anderem als Katalysator für die Reduktion organischer Verbindungen eingesetzt. Es existieren auch organische Indiumverbindungen mit den allgemeinen Formeln InR3 und InR. Sie sind wie viele metallorganische Verbindungen empfindlich gegen Sauerstoff und Wasser. Indiumorganische Verbindungen werden als Dotierungsreagenz bei der Produktion von Halbleitern genutzt. Isaac Newton. Sir Isaac Newton (*  in Woolsthorpe-by-Colsterworth in Lincolnshire; †  in Kensington) war ein englischer Naturforscher und Verwaltungsbeamter. In der Sprache seiner Zeit, die zwischen natürlicher Theologie, Naturwissenschaften, Alchemie und Philosophie noch nicht scharf trennte, wurde Newton als Philosoph bezeichnet. Isaac Newton ist der Verfasser der "Philosophiae Naturalis Principia Mathematica", in denen er mit seinem Gravitationsgesetz die universelle Gravitation beschrieb und die Bewegungsgesetze formulierte, womit er den Grundstein für die klassische Mechanik legte. Fast gleichzeitig mit Gottfried Wilhelm Leibniz entwickelte Newton die Infinitesimalrechnung. Er verallgemeinerte das binomische Theorem mittels unendlicher Reihen auf beliebige reelle Exponenten. Bekannt ist er auch für seine Leistungen auf dem Gebiet der Optik: Die von ihm verfochtene Teilchentheorie des Lichtes und die Erklärung des Lichtspektrums. Aufgrund seiner Leistungen, vor allem auf den Gebieten der Physik und Mathematik (siehe Geschichte der Physik, Geschichte der Mathematik), gilt Sir Isaac Newton als einer der bedeutendsten Wissenschaftler aller Zeiten. Die "Principia Mathematica" werden als eines der wichtigsten wissenschaftlichen Werke eingestuft. Leben und Werk. Newtons Vater, ein erfolgreicher Schafzüchter und Inhaber des Titels "Lord of the Manor", starb vor der Geburt seines Sohnes. 1646 heiratete seine Mutter zum zweiten Mal und Isaac blieb bei seiner Großmutter in Woolsthorpe, um den Titel zu erhalten. Nach dem Tod seines Stiefvaters kehrte seine Mutter nach Woolsthorpe zurück. Die neunjährige Trennung von der Mutter wird als Grund für seine schwierige Psyche genannt. Er besuchte die "Kings School" in Grantham und mit 18 Jahren das Trinity College in Cambridge, das kurz nach dem Abschluss seines Studiums 1665 wegen der Großen Pest geschlossen werden musste. Deshalb kehrte er abermals zurück in sein Elternhaus, wo er in den folgenden beiden Jahren an Problemen der Optik, der Algebra und der Mechanik arbeitete. Damals war in Cambridge die spätscholastische Schule der Cambridger Platoniker tonangebend, das bedeutet qualitative Naturphilosophie anstelle quantitativer Untersuchungen im Sinne von Galilei. Newtons Notizen aus der Studienzeit, die er "Quaestiones quaedam philosophicae" (Verschiedene philosophische Fragen) betitelte, zeigen den Einfluss von Descartes’ mechanistisch-dualistischem Denken, Gassendis atomistischen Vorstellungen und Henry Mores platonisch-hermetischen Ansichten. Obwohl sie radikal unterschiedlich sind, beeinflussten die Anschauungen der Mechanisten bzw. Hermetiker fortan Newtons Denken und bildeten – in ihrer Spannung – das Grundthema seiner Laufbahn als Naturphilosoph. Nach seinem eigenen Bezeugen in den "Quaestiones" hatte er in den Jahren 1665/1666 seine ersten weitreichenden Ahnungen oder wegweisenden Zusammenhangserlebnisse, die ihn auf die Spur seiner drei großen Theorien führten: die Infinitesimalrechnung, die Theorie des Lichts und die Gravitationstheorie. Wie weit er mit seinen theoretischen Ansätzen in dieser frühen Zeit schon war, ist unklar. Nach Aufhebung der Quarantäne im Jahr 1667 wurde Newton Fellow des Trinity College (Cambridge); dies bedeutete nicht nur Zustimmung zu den 39 Artikeln der Church of England, sondern auch das Zölibatsgelübde. Außerdem musste er innerhalb von sieben Jahren die geistlichen Weihen empfangen. 1669 wurde er dort Inhaber des Lucasischen Lehrstuhls für Mathematik. Sein Vorgänger Isaac Barrow (1630–1677), der sich zurückzog, hatte ihn selbst empfohlen. Im selben Jahr erschien "De Analysi per Aequationes Numeri Terminorum Infinitas", Vorläufer der Infinitesimalrechnung als Manuskript. Das war der erste Schritt zu Newtons Ruhm; wenn auch nur wenige Eingeweihte von seinen Leistungen wussten, so war er doch der führende Mathematiker seiner Zeit geworden. Von 1670 bis 1672 lehrte er Optik, wobei er besonders die Lichtbrechung untersuchte. Außerdem konnte er Optiken anfertigen. 1672 baute er ein – später nach ihm benanntes – Spiegelteleskop, das er der Royal Society in London vorführte. Im selben Jahr veröffentlichte er seine Schrift "New Theory about Light and Colours" in den "Philosophical Transactions" der Royal Society. Dieses Papier rief große Diskussionen hervor. Besonders zwischen ihm und Robert Hooke, einer führenden Persönlichkeit der Royal Society, herrschte ein angespanntes Verhältnis, da beide angesehene Wissenschaftler waren, doch grundverschiedene Meinungen hatten und jeder auf sein „Recht“ pochte. Kritik an seinen Veröffentlichungen konnte Newton schwer ertragen, daher zog er sich mehr und mehr aus der wissenschaftlichen Gemeinde zurück und konzentrierte sich auf seine alchimistischen Versuche. Um 1673 begann er, die Texte der Heiligen Schrift und der Kirchenväter intensiv zu studieren – eine Tätigkeit, die ihn bis zu seinem Tod in Anspruch nehmen sollte. Seine Studien führten ihn zu der Überzeugung, dass die Dreifaltigkeitslehre eine Häresie sei, die den Christen im 4. Jahrhundert eingeredet wurde. 1675 erwirkte er einen Dispens von der Verpflichtung, die Weihen zu empfangen – wohl weil dies seinen unorthodoxen Ansichten widersprochen hätte. Ein weiterer Streit – mit englischen Jesuiten in Lüttich – brachte 1678 'das Fass zum Überlaufen': Newton erlitt einen Nervenzusammenbruch; im folgenden Jahr starb seine Mutter. Sechs Jahre lang, bis 1684, befand sich Newton in einer Phase der Isolation und der Selbstzweifel. 1679 kehrte er zu seinen früheren Überlegungen zur Mechanik zurück; seine Schrift "De Motu Corporum" von 1684 enthielt die Grundzüge dessen, was er drei Jahre später in den "Principia" darlegen sollte. In diesem Werk vereinte er die Forschungen Galileo Galileis zur Beschleunigung, Johannes Keplers zu den Planetenbewegungen und Descartes’ zum Trägheitsproblem zu einer dynamischen Theorie der Gravitation und legte die Grundsteine der klassischen Mechanik, indem er die drei Grundgesetze der Bewegung formulierte. Newton wurde nun international anerkannt; junge Wissenschaftler, die seine unorthodoxen naturwissenschaftlichen (und auch theologischen) Ansichten teilten, scharten sich um ihn. Wieder folgte ein Streit mit Hooke – dieses Mal über das Gravitationsgesetz. (Hooke behauptete, Newton habe ihm die Idee, dass die Schwerkraft mit dem Quadrat der Entfernung abnimmt, gestohlen – s. u. „Mechanik“.) 1687 hatte er auch eine wesentliche Rolle in der Protestbewegung, die König James II. hindern wollte, die Universität Cambridge in eine katholische Einrichtung umzuwandeln. Um 1689 begann Newton einen theologischen Briefwechsel mit dem englischen Philosophen John Locke (1632–1704) sowie eine sehr intensive Freundschaft mit dem Schweizer Mathematiker Nicolas Fatio de Duillier. Er wurde als Abgesandter seiner Universität für ein Jahr Mitglied des englischen Parlamentes. Als im Jahr 1693 die Freundschaft mit Fatio zerbrach, erlitt er einen weiteren Nervenzusammenbruch; seine Freunde Locke und Samuel Pepys waren alarmiert und kümmerten sich um ihn. 1696 wurde er durch Vermittlung seines Freundes, des späteren Earl of Halifax, Wardein der Royal Mint in London; 1699 wurde er zu ihrem „Master“ ernannt. Damit war seine Karriere als schöpferischer Wissenschaftler faktisch beendet. Das Amt des Wardein wurde allgemein als lukrative Pfründe angesehen, Newton aber nahm seine Aufgabe ernst. Sein hartes Vorgehen gegen Falschmünzer war berüchtigt. Drei Jahre später (1699) wurde er an der Pariser Akademie zu einem von acht auswärtigen Mitgliedern berufen. 1701 trat er von seinen Pflichten als Professor in Cambridge zurück; im selben Jahr veröffentlichte er (anonym) sein Gesetz über die Abkühlung fester Körper an der Luft. 1703 wurde er Präsident der Royal Society, eine Position die er bis zu seinem Tod innehatte. Ein Jahr danach starb Hooke, und er konnte endlich seine "Opticks" veröffentlichen. 1705 wurde er von Königin Anne – nicht wegen seiner Verdienste um die Wissenschaft, sondern für seine politische Betätigung – zum Ritter geschlagen. Im selben Jahr begannen auch die Prioritätsschwierigkeiten mit Gottfried Wilhelm Leibniz über die Erfindung der Infinitesimalrechnung. Bereits seit 1696 lebte Newton in London. Er bezog ein herrschaftliches Haus, das ein kleines Observatorium beherbergte, und studierte Alte Geschichte, Theologie und Mystik. Ab 1697 (1707?) wurde Newtons Haus von seiner Halbnichte Catherine Barton geführt; Newton war nicht verheiratet (er soll im Alter von 19 Jahren verlobt gewesen sein) und hatte fast durchgängig in häuslicher Gemeinschaft mit anderen Männern gelebt. 1720 verlor er bei der Südsee-Spekulation 20.000 Pfund, für damalige Verhältnisse ein Vermögen, blieb jedoch bis zu seinem Tod ein wohlhabender Mann. In den folgenden Jahren machten ihm Blasensteine zunehmend zu schaffen. Acht Tage nach seinem Tod wurde Newton unter großen Feierlichkeiten in der Westminster Abbey beigesetzt. Newton galt als recht zerstreut und bescheiden, reagierte jedoch häufig mit großer Schärfe auf Kritik. Bekannt ist sein von boshafter Rivalität gekennzeichnetes Verhältnis zu anderen Wissenschaftlern wie Robert Hooke, Christiaan Huygens, John Flamsteed oder auch Gottfried Wilhelm Leibniz, dem er im Streit um die Urheberschaft der Infinitesimalrechnung „das Herz gebrochen“ zu haben sich rühmte. Nachdem Flamsteed ein Verfahren wegen geistigen Diebstahls gewonnen hatte, tilgte Newton in der Ausgabe der "Principia" von 1713 jeden Hinweis auf Flamsteed (obwohl er gerade dessen präzisen Beobachtungen viel verdankte). Optik. Newton hatte seine Antrittsvorlesungen über seine Theorie der Farben gehalten. Als die Royal Society von seinem Spiegelteleskop erfuhr, konnte er es dort vorführen und stieß auf lebhaftes Interesse. In einem Brief an die Royal Society erwähnte er im Zusammenhang mit dem Bau des neuartigen Teleskops gegenüber dem damaligen Sekretär Henry Oldenburg eine neue Theorie des Lichtes. Das Ergebnis war die Veröffentlichung seiner Theorie über das Licht und die Farben, die 1704 die Grundlage für das Hauptwerk "Opticks or a treatise of the reflections, refractions, inflections and colours of light" bildeten („Optik oder eine Abhandlung über die Reflexion, Brechung, Krümmung und die Farben des Lichtes“). Seit Johannes Keplers Schrift "Paralipomena" war die Optik ein zentraler Bestandteil der wissenschaftlichen Revolution des 17. Jahrhunderts. Ähnlich wie die Untersuchungen Galileo Galileis auf dem Gebiet der Mechanik hatte René Descartes’ Entdeckung des Gesetzes der Lichtbrechung die Ansicht untermauert, dass der Kosmos insgesamt nach mathematischen Grundsätzen angelegt sei. Abweichend von der antiken Vorstellung, farbige Erscheinungen beruhten auf einer Veränderung des Lichtes (das von Natur aus weiß sei), kam Newton durch Experimente mit Lichtspalt und Prisma zu dem Ergebnis, dass weißes Licht zusammengesetzt ist und durch das Glas in seine Farben zerlegt wird. (Vorläufer hatten behauptet, das Prisma füge die Farben hinzu.) Auf diese Weise konnte er mühelos die Entstehung des Regenbogens erklären. Als Robert Hooke einige seiner Ideen kritisierte, war Newton so empört, dass er sich aus der öffentlichen Diskussion zurückzog. Die beiden blieben bis zu Hookes Tod erbitterte Kontrahenten. Aus seiner Arbeit schloss Newton, dass jedes mit Linsen aufgebaute Fernrohr unter der Dispersion des Lichtes leiden müsse und schlug ein Spiegelteleskop vor, um die Probleme zu umgehen. 1672 baute er ein erstes Exemplar (siehe Abb.). Der von ihm vorgeschlagene (und später nach ihm benannte) Typ sollte für viele Generationen das Standardgerät für Astronomen werden. Allerdings war Newtons Prototyp den damals gebräuchlichen Linsenteleskopen nicht überlegen, da sein Hauptspiegel nicht parabolisiert war und daher unter sphärischer Aberration litt. Später wurden achromatische Linsenkombinationen aus Gläsern verschiedener Brechungseigenschaften entwickelt. Seine Feststellung, dass einzelne Lichtstrahlen unveränderliche Eigenschaften haben, führte ihn zu der Überzeugung, Licht bestehe aus (unveränderlichen und atomähnlichen) Lichtteilchen. Damit wich er grundlegend von Descartes ab, der Licht als "Bewegung" in Materie beschrieben hatte und weißes Licht als ursprünglich (und sich damit nicht so weit von Aristoteles entfernt hatte). Nach Newton entsteht der Eindruck der Farben durch Korpuskeln unterschiedlicher Größe. In der Schrift "Hypothesis of Light" von 1675 führte Newton das Ätherkonzept ein: Lichtpartikel bewegen sich durch ein materielles Medium – dies war reiner Materialismus. Unter dem Einfluss seines Kollegen Henry More ersetzte er den Lichtäther jedoch bald durch – aus dem hermetischen Gedankengut stammende – okkulte Kräfte, die die Lichtpartikeln anziehen bzw. abstoßen. Mit der Teilchentheorie des Lichtes waren allerdings Phänomene wie die – von Newton selbst beschriebene und genutzte – Interferenz oder die Doppelbrechung (auf Grund von Polarisation, und von Erasmus Bartholin bereits im Jahr 1669 beschrieben) nicht erklärbar. In der "New Theory about Light and Colours" vertrat Newton neben seiner Farb- auch seine Korpuskeltheorie. Dies führte zu einem wiederum erbittert ausgetragenen Disput mit Christiaan Huygens und dessen Wellentheorie des Lichtes, welchen er 1715 durch Desaguliers vor der Royal Society für sich entscheiden ließ. Nachdem Thomas Young im Jahre 1800, lange nach beider Tod, weitere Experimente zur Bestätigung der Wellentheorie durchführte, wurde diese zu herrschenden Lehre. Heute sind beide Theoriekonzepte in der Quantenmechanik mathematisch vereint – wobei allerdings das moderne Photonenkonzept mit Newtons Korpuskeln kaum etwas gemeinsam hat. Mechanik. Auch die Grundsteine der klassischen Mechanik, die drei Grundgesetze der Bewegung und die Konzepte von absoluter Zeit, absolutem Raum und der Fernwirkung (und so auch indirekt das Konzept des Determinismus) wurden von ihm gelegt. Zusammen waren dies die wesentlichen Grundprinzipien der Physik seiner Zeit. Newton lehrte eine dualistische Naturphilosophie – beruhend auf der Wechselwirkung von aktiven immateriellen „Naturkräften“ mit der absolut passiven Materie –, welche zur Basis des naturwissenschaftlichen Weltbildes vieler Generationen wurde. Erst die Relativitätstheorie Albert Einsteins machte deutlich, dass Newtons Mechanik einen Spezialfall behandelt. Vom Jahr 1678 an beschäftigte er sich, in Zusammenarbeit mit Hooke und Flamsteed, wieder intensiv mit Mechanik, insbesondere mit den von Kepler formulierten Gesetzen. Seine vorläufigen Ergebnisse veröffentlichte er 1684 unter dem Titel "De Motu Corporum". In diesem Werk ist allerdings noch nicht die Rede von der universellen Wirkung der Schwerkraft; auch seine drei Gesetze der Bewegung werden hier noch nicht dargelegt. Drei Jahre später erschien, dieses Mal mit Unterstützung von Edmond Halley, die Zusammenfassung "Philosophiae Naturalis Principia Mathematica" (Mathematische Grundlagen der Naturphilosophie). Mit diesem Werk wollte er insbesondere die Naturphilosophie von Descartes ablösen ("Principia philosophiae", 1644), obwohl er von diesem das Konzept der Trägheit übernehmen musste, das ein Zentralpunkt der newtonschen Mechanik werden sollte. Newton war der Erste, der Bewegungsgesetze formulierte, die sowohl auf der Erde wie auch am Himmel gültig waren – ein entscheidender Bruch mit den Ansichten der traditionellen Lehre von Aristoteles – und späterer Peripatetiker –, wonach die Verhältnisse im Himmel grundlegend andere seien als auf der Erde. Darüber hinaus lieferte er die geometrische Argumentation für Keplers drei Gesetze, führte sie auf einheitliche Ursachen (Fernwirkung der Gravitation und Trägheit) zurück und erweiterte sie dahingehend, dass nicht nur Ellipsen, sondern sämtliche Kegelschnitte möglich seien (Georg Samuel Dörffel hatte allerdings bereits 1681 gezeigt, dass Kometen sich auf hyperbolischen Bahnen bewegen). Mit seinen drei Bewegungsgesetzen und der Einführung der allgemein wirkenden Schwerkraft (auch das Wort "Gravitation" geht auf ihn zurück) hatte Newton die Arbeiten von Kopernikus, Kepler und Galilei überzeugend bestätigt. Seine Mechanik galt Generationen von Wissenschaftlern und Historikern als fundamentaler Beitrag im Sinne rationaler Begründung von Naturgesetzen ("hypotheses non fingo" bedeutet sinngemäß: „In der Experimentalphilosophie gibt es keine Unterstellungen“). Dabei wird gerne übersehen, dass Newtons Überlegungen auf einem Konzept beruhten, das durchaus nicht als objektiv wissenschaftlich gilt: der hermetischen Tradition, mit der er sich während der Quarantänezeit 1665–1666 eingehend beschäftigt hatte. Die traditionelle Naturphilosophie erklärte Naturerscheinungen mit der Bewegung materieller Teilchen (so etwa statische Elektrizität) durch ein ätherartiges Medium (so noch Newtons "Hypothesis of Light" von 1675). Eine Fernwirkung (durch „Kräfte“) erschien ihr ebenso unmöglich wie das Vakuum. So findet sich sowohl bei Descartes wie bei Leibniz (1693) die Vorstellung, dass Wirbel in einem „Fluidum“ die Planeten auf ihren Bahnen hielten. Von 1679 an jedoch schrieb Newton gewisse Vorgänge (exotherme Reaktion oder Oberflächenspannung) der Wirkung anziehender bzw. abstoßender Kräfte zu – dies war eine direkte Umsetzung der okkulten „Sympathien“ bzw. „Antipathien“ der hermetischen Naturphilosophie. Wesentlich neu war jedoch, dass Newton diese Kräfte als Quantitäten behandelte, die sich sowohl experimentell als auch mathematisch-geometrisch fassen lassen. 1679 suchte Hooke den Kontakt mit Newton zu erneuern und erwähnte in einem Brief seine Theorie der Planetenbewegung. Darin war die Rede von einer Anziehungskraft, die mit der Entfernung abnimmt; Newtons Antwort ging von konstanter Schwerkraft aus. Dieser Briefwechsel (der sich mit einem Experiment auf der Erde befasste) war Ausgangspunkt des späteren Plagiatsvorwurfs von Hooke an Newton. Newton musste zugeben, dass Hooke ihn auf den richtigen Weg geführt habe: 1. eine Bahnellipse rührt von einer (mit dem Quadrat der Entfernung von einem Brennpunkt) abnehmenden Anziehungskraft her und 2. erklärt dieses Konzept außerirdische, also planetarische Bewegung. Jedoch beruhte Hookes Vorschlag abnehmender Schwerkraft auf Intuition, nicht – wie bei Newton – auf Beobachtung und logischer Ableitung. Außerdem hatte Newton selbst das Konzept quadratisch abnehmender Schwerkraft bereits 1665/66 entwickelt. Andererseits kam Newton auf den Gedanken der universellen (also auch außerirdischen) Wirkung der Schwerkraft erst deutlich nach 1680. Es wird auch die Geschichte erzählt, dass Isaac Newton durch die Betrachtung eines Apfels am Apfelbaum, evtl. auch des Falls des Apfels vom Baum, im Garten von Woolsthorpe Manor auf die Idee kam, die Himmelsmechanik beruhe auf derselben Gravitation wie der Fall von Äpfeln auf die Erde. Dies geht auf die "Memoires of Sir Isaac Newton’s Life" von William Stukeley zurück; mit ähnlichen Worten schilderte Voltaire die legendäre Entdeckung. Ob es sich wirklich so zugetragen hat, bleibt fraglich. Fachleute halten es für möglich, dass Newton selbst in späteren Jahren die Geschichte erfunden hat, um darzulegen, wie er Einsichten aus Alltags-Beobachtungen gewonnen habe. Die geometrisch orientierten Darlegungen Newtons in den "Principia" waren nur Fachleuten verständlich. Daran änderten auch zwei spätere Ausgaben (1713 mit wesentlichen Erweiterungen und 1726) nichts. Der Durchbruch auf dem Kontinent ist Émilie du Châtelet zu verdanken, die von 1745 an das Werk in Französische übersetzte, die geometrische Ausdrucksweise Newtons in die von Leibniz entwickelte Notation der Infinitesimalrechnung übertrug und seinen Text mit zahlreichen eigenen Kommentaren ergänzte. Der newtonsche Zeit- und Raumbegriff. Newton befasste sich über 30 Jahre lang mit den Vorstellungen von Raum und Zeit. Einerseits war sein Hauptwerk "Principia" ein Gegenentwurf zu der Naturphilosophie Descartes’ mit ihren an Aristoteles orientierten Ansichten zu Raum, Zeit und Bewegung. Andererseits kam Newton durch das in seiner Theorie enthaltene Relativitätsprinzip, es schien einen absoluten Raum und eine absolute Zeit nicht zu geben, gegenüber der christlichen Dogmatik in Argumentationsnöte. Als tiefreligiöser Mensch entwickelte er seine Auffassung aus seinen unitarischen Gottesvorstellungen heraus. In seinem Hauptwerk "Principia" führte er aus: „…er [Gott] währt stets fort und ist überall gegenwärtig, er existiert stets und überall, er macht den Raum und die Dauer aus.“ Und in seinem Werk "Opticks" spricht er noch deutlicher von seinem unitarischen Gott: „ … der, da an allen Orten ist, mit seinem Willen die Körper besser bewegen kann … in seinem grenzenlosen, gleichförmigen Sensorium und dadurch die Teile des Universums zu gestalten und umzugestalten vermag wie wir durch unseren Willen die Teile unseres Körpers zu bewegen vermögen.“ Das "Sensorium Gottes", durch das er zu allen Zeiten und an allen Orten zugleich anwesend ist: Die absolute Zeit, die unbeeinflussbar und gleichmäßig fortschreite, und der absolute Raum, der unveränderlich feststehe, seien für den Menschen nicht sinnlich wahrnehmbar, da sie direkte Prädikate Gottes darstellten. Dadurch aber seien erst die relativen Maße der Zeit und des Raumes möglich, mit denen sich der Mensch zur Beschreibung seiner Welt zufriedengeben müsse. Mit dieser Argumentation konnte Newton auch Problemen mit der Bibel-Interpretation aus dem Weg gehen: Wenn in der Heiligen Schrift von einer stillstehenden Erde die Rede sei, so sei dies Stillstand nicht im absoluten, sondern relativen (alltäglichen) Sinn. Außerdem sei die Zeit als die Folge allen Geschehens so feststehend, dass sie von Anbeginn an geplant gewesen sein müsse, also auf einen Schöpfer hinweise. Die Zukunft, die Gegenwart und die Vergangenheit stünden also schon im vornherein fest, was im deterministischen Weltbild Newtons mündete. Dieses erscheint jedoch als nicht konfliktfrei mit dem christlichen Konzept des freien Willens und zudem ein Teilaspekt des Theodizeeproblems. Newtons Auffassung von absolutem Raum und absoluter Zeit dominierte über 200 Jahre lang Philosophie und Naturwissenschaft bis zu Albert Einsteins Relativitätstheorie und der heisenbergschen Unschärferelation. Mathematik. Zusätzlich zu seinen fundamentalen Leistungen zur Physik war Newton neben Gottfried Wilhelm Leibniz einer der Begründer der Infinitesimalrechnung und erbrachte wichtige Beiträge zur Algebra. Zu seinen frühesten Leistungen zählt eine verallgemeinerte Formulierung des Binomischen Theorems mit Hilfe von unendlichen Reihen. Er bewies, dass es für sämtliche reellen Zahlen (also auch negative und Brüche) gültig ist. Anfang des 17. Jahrhunderts hatten Bonaventura Cavalieri und Evangelista Torricelli den Einsatz infinitesimaler Rechengrößen erweitert. Gleichzeitig nutzten René Descartes und Pierre de Fermat die Algebra, um Flächeninhalte und Steigungen von Kurven zu berechnen. Bereits 1660 verallgemeinerte Newton diese Methoden. Fermat und Newtons Lehrer Isaac Barrow hatten erkannt, dass diese beiden Verfahren eng miteinander verknüpft sind: sie sind zueinander invers. Newton gelang es, sie in der „Fluxionsmethode“ tatsächlich zu verbinden; 1666 entwickelte er die Infinitesimalrechnung. Er veröffentlichte seine Ergebnisse allerdings erst in einem Anhang zu "Opticks" im Jahr 1704. Leibniz erarbeitete von 1670 an das gleiche Verfahren; er nannte es „Differentialrechnung“. Während Newton vom physikalischen Prinzip der Momentangeschwindigkeit ausging, versuchte Leibniz eine mathematische Beschreibung des geometrischen Tangentenproblems zu finden. Bis 1699 galt Leibniz als Erfinder; dann veröffentlichte Newtons ehemaliger Freund Fatio eine Schrift, in der er dessen Priorität behauptete und unterstellte, Leibniz habe 1676 bei einem Besuch in London Newtons Idee gestohlen. Das Ergebnis war ein Prioritätsstreit, der bis zum Tod Newtons anhielt. Heute gilt als erwiesen, dass die beiden Wissenschaftler ihre Ergebnisse unabhängig voneinander entwickelten. Ohne die Infinitesimalrechnung hätte Newton seine bahnbrechenden Einsichten in der klassischen Mechanik kaum gewinnen bzw. belegen können. Unter dem Titel "The Mathematical Papers of Isaac Newton" brachte der Mathematikhistoriker und Newton-Experte Derek Thomas Whiteside an der University of Cambridge zwischen 1967 und 1981 zahlreiche mathematische Manuskripte Newtons in acht Bänden heraus. Astronomie. Neben der Anfertigung des ersten funktionierenden Spiegelteleskops und der Entdeckung der Schwerkraft als Ursache der Planetenbewegungen ist eine frühe Theorie zur Entstehung der Fixsterne zu erwähnen. 1712 versuchte er in seiner Eigenschaft als Präsident der Royal Society gemeinsam mit Halley, auf der Basis von Flamsteeds Beobachtungen – und gegen dessen Willen – einen Sternkatalog mit Sternkarte ("Historia coelestis Britannica") herauszubringen. Dies führte zu einem weiteren heftigen Streit über Urheberrechte. Ein Gericht entschied zu Gunsten Flamsteeds. Weitere Arbeiten. Newton entwickelte auch ein Gesetz, das die Abkühlung fester Körper an der Luft beschreibt. Weiter stellte er, hier einer bahnbrechenden Untersuchung von Robert Boyle folgend, in den "Principia" dar, wie sich die gemessene Schallgeschwindigkeit (in Luft) begründen lässt. Im selben Werk definierte er die Viskosität einer idealen ("newtonschen") Flüssigkeit und legte damit den Grundstein zur mathematischen Erfassung des Verhaltens von Fluiden. Eine frühe Formel zur Abschätzung der Durchschlagskraft von Geschossen wurde von ihm entwickelt. Im Jahr 1700 erfand er mit der Newton-Skala eine eigene Temperaturskala. Auch stammt von ihm die erste Skizze eines Gerätes zur Winkelmessung mit Hilfe von Spiegeln und somit die Grundidee für den ein halbes Jahrhundert später erfundenen Sextanten. „Der letzte Magier“. Weniger bekannt als seine wissenschaftlichen Errungenschaften aus heutiger Sicht sind Newtons Arbeiten in der christlich-unitarischen Theologie und in der Alchemie als Vorgänger des modernen Naturwissenschaftsverständnisses. Theologie. In der Theologie lehnte Newton die Trinitätslehre ab, vertrat also eine antitrinitarische (fachsprachlich: unitarische) Ansicht. Diese Haltung war auf seinem Posten als Fellow/Professor in Cambridge nicht ungefährlich (sein Protégé und Nachfolger William Whiston wurde 1710 unter ebendieser Beschuldigung entlassen). Er beschuldigte Athanasius, mit seinem Trinitätsdogma die christliche Lehre verdorben zu haben (“Athanasius’ corruption of doctrine”), worauf bald danach die allgemeine Korruption des Christentums gefolgt sei: “a universal corruption of Christianity had followed the central corruption of doctrine”. Seine diesbezüglichen Schriften (darunter "Observations Upon the Prophecies of Daniel and the Apocalypse of St. John.") konnten nur postum veröffentlicht werden. Erst vor dem Hintergrund seiner unitarischen Auffassung, dass Gott nicht dreifaltig sondern als Einheit die ganze Welt von innen und von außen erfasst und umfasst, konnte Newton seine Vorstellung davon bilden, dass Raum und Zeit das "Sensorium" Gottes sei, durch das er zu allen Zeiten und allen Orten zugleich wirksam ist. 1728 – also gleichfalls postum – erschienen seine chronologischen Berechnungen ("The Chronology of Ancient Kingdoms Amended"), in denen er versuchte, die klassische Chronologie (vgl. Ussher-Lightfoot-Kalender) mit astronomischen Daten in Übereinstimmung zu bringen. Dabei kam er zu dem Ergebnis, dass die Welt 534 Jahre jünger sei als von James Ussher berechnet. Alchemie. Neben seinen physikalischen Arbeiten und dem Studium der Bibel verbrachte er (bis etwa 1696) auch viel Zeit mit der Suche nach dem Stein der Weisen, von dem man sich unter anderem versprach, Quecksilber und andere unedle Metalle in Gold umzuwandeln. Der Wirtschaftswissenschaftler John Maynard Keynes ersteigerte im Jahre 1936 einen Großteil der alchemistischen Handschriften Isaac Newtons für das King’s College in Cambridge. 369 Bücher aus Newtons persönlicher Bibliothek hatten Bezüge zur Mathematik und Physik seiner Zeit, 170 hingegen sind Werke der Rosenkreuzer, der Kabbala und der Alchemie. Keynes bezeichnete Isaac Newton daraufhin als den letzten großen „Renaissance-Magier“. Johannes Wickert charakterisiert den spagyrischen Newton überaus treffend: Und weiter schreibt er: Man kann mit Betty Dobbs zu dem Schluss kommen, dass alles, was Newton nach 1675 unternahm, der Integration der Alchemie in seine Mechanik diente. Isaac Newton hat alles getan, um seine alchemistischen Studien voranzutreiben und hat sie dennoch verborgen gehalten. Einflüsse seiner alchemistischen Studien auf seine Forschungen sind zweifelsohne vorhanden. Newtons Nachlass. Newton vererbte seinen schriftlichen Nachlass seiner Nichte Catherine Barton und ihrem Mann John Conduitt. Deren Tochter heiratete 1740 ein Mitglied der adligen Portsmouth-Familie, auf deren Landsitz in Hurstbourne Park in Hampshire der Nachlass, deshalb auch "Portsmouth Collection" genannt, war. 1872 übergab der Earl of Portsmouth den wissenschaftlichen Teil des Nachlasses an die Cambridge University Library. Der Rest wurde 1888 in Cambridge katalogisiert. Er kam 1936 bei Sotheby’s zur Versteigerung, erbrachte aber nur 9000 Pfund. Einen Großteil der alchemistischen Manuskripte ersteigerte dabei John Maynard Keynes, der sie dem King’s College in Cambridge übergab. Viele der theologischen Manuskripte wurden von Abraham Yahuda ersteigert, über den sie zum großen Teil an die Jewish National and University Library in Jerusalem kamen. Der Rest ist in mehrere Bibliotheken weltweit zerstreut, unter anderem die Dibner-Collection, das Babson College (Massachusetts), die Smithsonian Institution. Weitere Sammlungen von Newton Manuskripten sind in den Archiven der Royal Society, der Bibliothek des Trinity College in Cambridge, der Bodleian Library in Oxford (besonders zu Newtons theologischen und chronologischen Arbeiten), dem Public Record Office (aus Newtons Arbeit bei der Münze). Würdigung. Nach Newton sind das newtonsche Näherungsverfahren und die SI-Einheit der Kraft (Newton), die Newtonschen Axiome, das Newtonsche Fluid, das Newton-Element sowie die Newton-Cotes-Formeln benannt, außerdem der am 30. März 1908 von J. H. Metcalf in Taunton entdeckte Asteroid (662) Newtonia sowie Newton, ein Mondkrater. Sein Porträt zierte von 1978 bis 1984 die englische 1-Pfund-Note. Veröffentlichungen zu Lebzeiten. Außerdem gab Newton die "Geographia generalis" von Varenius heraus (1672) und veröffentlichte 1672 bis 1676 "Letters on Optics", darüber hinaus Aufsätze in weiteren Zeitschriften, zum Beispiel über sein Teleskop in den "Philosophical Transactions of the Royal Society" 1672. Veröffentlichungen nach Newtons Tod. Das von Rob Iliffe hat es sich zur Aufgabe gemacht, die unveröffentlichten Schriften von Newton allgemein zugänglich zu machen, angefangen mit den theologischen und optischen Schriften. Es gibt auch ein Projekt der Indiana University Bloomington zur Veröffentlichung der alchemistischen Schriften. Iod. Iod (standardsprachlich: Jod) ist ein chemisches Element mit dem Elementsymbol I (vor der internationalen Elementsymboleinführung war es J) und der Ordnungszahl 53. Im Periodensystem steht es in der 7. Hauptgruppe, bzw. der 17. IUPAC-Gruppe und gehört somit zu den Halogenen. Der Name leitet sich vom altgriechischen Wort „ioeides“ (ιο-ειδής) für „veilchenfarbig, violett“ ab. Beim Erhitzen entstehende Dämpfe sind charakteristisch violett. Iod ist bei Raumtemperatur ein Feststoff, der schlecht wasserlöslich, aber gut löslich in wässriger Kaliumiodid-Lösung und sehr gut löslich in Ethanol und anderen organischen Lösungsmitteln ist. In der Alltagssprache ist "Jod" die gebräuchliche Schreibweise, auch in der älteren chemischen und überwiegend auch in der aktuellen medizinischen Fachliteratur wird diese Schreibweise benutzt. Die Schreibweise "Iod" wird im Duden mit dem Hinweis auf "Jod" aufgeführt; es wird auf die Fachsprachlichkeit hingewiesen. Auch das Elementsymbol I wird erst in der neueren chemischen Fachliteratur benutzt, in der älteren deutschsprachigen Literatur findet man durchgängig die Elementbezeichnung J'". Iod ist ein unentbehrlicher Bestandteil des tierischen und menschlichen Organismus und wird mit der Nahrung aufgenommen. Am höchsten ist die Konzentration beim Menschen in der Schilddrüse und wird dort in den Hormonen Thyroxin und Triiodthyronin und als Diiodtyrosin genutzt. Jodmangel im Trinkwasser und der Nahrung ist in der Regel für das Auftreten des Kropfs und somit einer Iodunterversorgung verantwortlich. Als Vorbeugung wird der wöchentlich ein- bis mehrmalige Verzehr von Seefisch sowie die Verwendung von sogenanntem Jodsalz (Speisesalz mit Natrium- oder Kaliumiodat versetzt) empfohlen. Durch diese individuelle Jodprophylaxe und die Iodierung von Futtermitteln wird in Deutschland der Mangel an Iod in den Böden teilweise ausgeglichen. Es konnte erreicht werden, dass in der Gesamtiodversorgung der Bevölkerung die Vorgaben der WHO knapp eingehalten werden (Stand 2007). Geschichte. Die physiologische Bedeutung iodhaltiger Zubereitungen war schon im Altertum bekannt. So wurden bereits 1500 Jahre vor unserer Zeitrechnung Kropfkranken die iodhaltigen Schilddrüsen von Schafen oder Aschen von Meeresschwämmen verordnet. Iod wurde erstmals im Jahr 1811 durch den Pariser Salpetersieder Bernard Courtois bei der Herstellung von Schießpulver aus der Asche von Seetang gewonnen. Den elementaren Charakter erforschten jedoch erst ab 1813 die französischen Naturwissenschaftler Nicolas Clément und Joseph Louis Gay-Lussac, der ihm ein Jahr später den heutigen Namen verlieh. Vorkommen. Iod ist abgesehen von Astat wesentlich seltener als die übrigen Halogene. In der Natur ist es weit verbreitet, jedoch nur in Form seiner Verbindungen, zum Beispiel angereichert (0,02–1 %) im Chilesalpeter, hauptsächlich in Form von Natriumiodat (NaIO3), aber auch Natriumperiodat (NaIO4) und Lautarit (Ca(IO3)2). In geringen Spuren ist es in Böden und Gesteinen nachweisbar. Im Durchschnitt enthält 1000 Gramm wasserfreier Feinboden aus dem deutschen Raum etwa 2,5 Milligramm Iod. Der Iodgehalt des Bodens ist wesentlich für die Versorgung der Bevölkerung mit natürlichem Iod. Als Iodwasserstoff kommt es in geringsten Mengen in vulkanischen Gasen vor. Lösliche Iodverbindungen wie Alkali- und Erdalkaliiodide werden während der Verwitterung von Gesteinen durch Regenwasser freigesetzt oder zerfallen bei höheren Temperaturen. So gelangen sie ins Grundwasser und schließlich in die Meere. Einige Mineralwässer enthalten Iod. Die Mineralquelle von Woodhall Spa in Lincolnshire (England) bringt Wasser hervor, das durch Iod braun gefärbt ist. Im Meerwasser liegt die Menge an Iod bei 0,05 Milligramm pro Liter. Es kommt dort in Form von Iodid (I−) und Iodat (IO3−) in einer Konzentration von etwa 500 nmol/L vor. Die Verteilung variiert in Oberflächenwasser im Allgemeinen von 0–200 nmol I−/L. In der Erdatmosphäre ist Iod in Form von organischen Verbindungen oder anorganisch in Form von Iodoxid (IO), Iodnitrat oder höheren Oxiden zu finden. Für die Stratosphäre gibt es wenig Informationen und eine obere Grenze von 0,1 pptv für anorganisches Iod. Über Algenfeldern an Küsten wurden hohe Konzentrationen von mehr als 10 ppt IO nachgewiesen und auch auf dem tropischen Atlantik wurde das Iodoxid-Radikal nachgewiesen. Organische Iodverbindungen kann man aus Meeresalgen (19 Gramm Iod pro Kilogramm Trockenmasse), Tangen und Schwämmen (bis zu 14 Gramm Iod pro Kilogramm Trockenmasse) isolieren. Einen wichtigen Speicher für organisch gebundenes Iod stellt die Schilddrüse dar. Isotope. Vom Iod sind bisher 36 Isotope und 10 Kernisomere bekannt. Von diesen ist nur ein Isotop stabil, so dass natürlich vorkommendes Iod zu 100 % aus dem einzigen stabilen Isotop 127I besteht. Iod ist daher ein Reinelement (anisotop). Von den instabilen Isotopen besitzt der Betastrahler 129I mit 15.700.000 Jahren eine sehr lange Halbwertszeit. Daneben gibt es vier Isotope mit mehr als einem Tag Halbwertszeit: 124I (4,2 Tage), 125I (59 Tage), 126I (13 Tage) und 131I (8,0 Tage). Instabile Iodisotope entstehen z. B. bei der Kernspaltung und stellen bei ihrer Freisetzung in die Luft eine Gesundheitsgefahr dar, weil sie sich in der Schilddrüse anreichern können. Gewinnung und Darstellung. Früher gewann man Iod in Form von Iodiden und Iodaten, indem man die durch die Flut an den Strand angeschwemmten Tange einsammelte und verbrannte. Die erhaltene Asche enthielt etwa 0,1–0,5 % Iod. Diese Iodgewinnung hat heute jedoch nur noch lokale Bedeutung und macht ungefähr 2 % der Weltjahresproduktion aus. Der Iodwasserstoff wird wiederum in einem zweiten Schritt durch die in der Lösung vorhandene Iodsäure zu Iod oxidiert. Man spricht in diesem Fall von einer Komproportionierung, da Iod in zwei verschiedenen Oxidationsstufen (−1 im Iodwasserstoff und +5 in der Iodsäure) zu elementarem Iod mit der Oxidationsstufe 0 wird. Alternativ kann zur Reduktion auch Schwefeldioxid (SO2) den Endlaugen, aus denen der Salpeter bereits auskristallisiert ist, zugesetzt werden. Eine weitere Reinigung des gewonnenen Iods wird dadurch erreicht, dass es mit Luft ausgeblasen, anschließend mit Schwefeldioxid in schwefelsaurer Lösung wieder reduziert und zum Schluss mit gasförmigem Chlor zum Iod zurück oxidiert wird. Chromatographisch kann Iod mittels Adsorption von Polyiodid an Anionenaustauschern angereichert werden. Zur Reinstherstellung setzt man Kaliumiodid und halogenfreies Kupfersulfat ein. Im Labormaßstab lässt sich Iod durch Einwirken von Schwefelsäure und Mangan(IV)-oxid auf Kaliumiodid herstellen. Die Gewinnung gelingt ebenso aus der iodhaltigen Asche von Meerespflanzen durch Behandlung mit Chlor. Physikalische Eigenschaften. Iod ist unter Normalbedingungen ein Feststoff, der grauschwarze, metallisch glänzende Schuppen bildet, deren Dichte 4,93 g·cm−3 beträgt. Iod geht beim Schmelzen (Schmelzpunkt 113,70 °C) in eine braune, elektrisch leitfähige Flüssigkeit über. Es siedet bei 184,2 °C unter Bildung eines violetten Dampfes, der aus I2-Molekülen besteht. Iod sublimiert schon bei Zimmertemperatur, so dass ein Schmelzen nur unter rascher und starker Temperaturerhöhung möglich ist. Kristall- und Molekülstruktur. Iod besitzt die Eigenschaften eines Halbleiters. Diese Eigenschaften sind auf das Vorhandensein eines Schichtgitters zurückzuführen, in dem einzelne Ebenen aus I2-Molekülen (Bindungslänge 271,5 pm) bestehen. Der Abstand der Ebenen in einem orthorhombischen Schichtkristall beträgt 441,2 pm und entspricht damit dem Van-der-Waals-Abstand zwischen zwei Iod-Atomen (430 pm). Das Ergebnis der Messung des kürzesten Abstands zwischen zwei Iod-Molekülen liegt mit 349,6 pm deutlich darunter. Chemische Eigenschaften. Iod reagiert weitaus weniger heftig mit anderen Elementen wie Phosphor, Aluminium, Eisen und Quecksilber als Chlor und Brom. Mit Wasserstoff reagiert Iod zu Iodwasserstoff, welcher beim leichten Erwärmen jedoch schnell wieder in die Elemente zerfällt. Mit Ammoniak findet aufgrund der damit verbundenen Volumenzunahme eine explosionsartige Reaktion statt. Mit Ammoniaklösung bildet Iod Triiodstickstoff (NI3). Eine interessante Eigenschaft des Iods äußert sich darin, Polyiodidverbindungen einzugehen. Dabei verbinden sich gelöste I2-Moleküle jeweils mit einem Iodid-Anion zum einfach negativ geladenen I3−-Anion. Eine Eigenschaft dieser Polyiodidverbindung ist, dass sie sich in Stärke-Helices einlagert. Diese Einlagerungsverbindungen rufen bereits in geringen Konzentrationen eine intensive Blaufärbung hervor (empfindlicher und spezifischer Iod-Stärke-Nachweis). Iod-Kationen. Es gelang jedoch bisher nicht, Verbindungen mit dem unsolvatisierten, das heißt lösungsmittelfreien Monoiod-Kation I+ herzustellen. Selbst in Verbindung mit einer extrem schwachen Lewis-Base wie dem Perchlorat-Anion ClO4− findet man kovalent gebundenes Iod vor. In der Gasphase kann man das I+-Ion bei Abwesenheit eines Gegenions jedoch nachweisen. Lebensmittel. In Deutschland kommen Iodverbindungen in den Böden unverändert in zu geringen Mengen vor. Durch die Jodprophylaxe, die im Wesentlichen aus der Iodierung von Speisesalz („Jodsalz“) und der Iodierung von Futtermitteln in der Landwirtschaft besteht, konnte die Iodversorgung in Deutschland soweit verbessert werden, dass die Iodurie bei Kindern – die als zuverlässigstes Kriterium zur Beurteilung der Iodversorgung gilt – in einer großen Stichprobe zwischen 2003 und 2006 im Median 117 µg/l erreichte. Sie lag damit im unteren Bereich der von der Weltgesundheitsorganisation (WHO) empfohlenen Spanne von 100 bis 200 µg/l. Damit gilt Deutschland nach WHO-Kriterien als ausreichend mit Iod versorgt. Dennoch bestehen in Deutschland bei 36 % der Bevölkerung ein milder und bei 21 % ein moderater bis schwerer Jodmangel. Medizinische Anwendungen. Behandlung einer Wunde mit einer antiseptischen Iod-Lösung. Dieser Mechanismus wird auch für die anderen Halogene diskutiert. Iod wird aus diesem Grund in einzelnen Fällen auch zur Desinfektion von Wasser in Badeanstalten genutzt. Vorteilhaft ist in diesem Zusammenhang, dass Iod weniger aggressiv ist als Chlor. Allerdings vermag diese Wasserbehandlung nicht Algen abzutöten, so dass zusätzlich ein Algizid zugesetzt werden muss. Der intensive Gebrauch von Iod kann aber zu Hautverfärbungen führen. Auch besteht die Gefahr der Allergisierung. Beides ist durch Einsatz von so genannten Iodophoren, Trägermaterialien, die Iod binden können, vermeidbar. Iodate werden in Form von Natriumiodat oder Kaliumiodat in geringen Mengen dem Speisesalz zugesetzt, um Jodmangelerkrankungen vorzubeugen. Es wird im Handel umgangssprachlich als Jodsalz angeboten. Die radioaktiven Iod-Isotope 131I (8,02 Tage Halbwertszeit) und 123I (13,22 Stunden Halbwertszeit) werden als Radiopharmaka in der nuklearmedizinischen Diagnostik und Therapie vorwiegend von Schilddrüsenerkrankungen eingesetzt ("vergleiche" Radiojodtherapie), wobei 131I heute verstärkt zum Einsatz kommt. Zur Bestimmung des Knochenmineralgehalts wird 125I (Gammastrahlung von γ = 35 keV, 59,4 Tage Halbwertszeit) herangezogen. Iod ist ein häufig eingesetzter Katalysator bei chemischen Reaktionen. So verwendet man es bei stereospezifischen Polymerisationen von 1,3-Butadien. Die Sulfurierung aromatischer Verbindungen sowie die Alkylierung und Kondensation aromatischer Amine sind weitere Einsatzfelder. Aromatische Iodverbindungen werden als Röntgenkontrastmittel in der Diagnostik eingesetzt. Natriumiodid wird als Szintillator in Szintillationszählern eingesetzt. Strahlenschutz. Radioaktive Iod-Isotope sind im Fallout von Nuklearexplosionen und im Reaktor von Kernkraftwerken enthalten. Für den Fall eines Atomunfalles mit der Freisetzung radioaktiver Iodisotope bevorraten Bund und Länder in der Umgebung der deutschen Kernkraftwerke insgesamt 137 Millionen Kaliumiodid-Tabletten mit hohem Gehalt des stabilen Iodisotops 127I (meist als „Jod-Tabletten“ bezeichnet), die im Kontaminierungsfall durch eine Iodblockade die Aufnahme der radioaktiven Iodisotope in der Schilddrüse verhindern sollen. Iod gilt als sehr flüchtiges Radionuklid, das als Ergebnis der Kernspaltung in hoher Konzentration im Gap, dem Spalt zwischen den Brennstofftabletten und dem Hüllrohr der KKW-Brennstäbe, vorliegt. Sollte das Containment des KKW im Falle eines Kernschadens oder gar einer Kernschmelze nach Unfalleintritt ein Leck aufweisen, so sorgt es aus Sicht des Strahlenschutzes für großen Schaden, da es praktisch als erstes Nuklid, neben den radioaktiven Isotopen 85Kr und 135Xe der Edelgase Krypton und Xenon, in größerer Konzentration freigesetzt wird und in den biologischen Kreislauf gelangt. Biologische Bedeutung. Nach Aufnahme von größeren, im Milligrammbereich liegenden Dosen von Iodverbindungen treten Reizwirkungen an Haut und Schleimhäuten auf. Dies kann zum „Jodismus“ führen, einhergehend mit den Symptomen Schnupfen („Jodschnupfen“), Konjunktivitis, Bronchitis und Exanthemen. Die Wirkung auf die Bronchialschleimhaut hat dazu geführt, dass Iodsalze früher als Expektorans benutzt wurden. Andererseits kann hochdosiertes Iodid bei Hyperthyreose zur Suppression genutzt werden, da es die Freisetzung und die Synthese von Schilddrüsenhormonen hemmt. Schilddrüsenhormone. Iod spielt im Organismus hauptsächlich eine Rolle für die Produktion der Schilddrüsenhormone Thyroxin (T4) und Triiodthyronin (T3), die vier bzw. drei Iodatome enthalten. Der Iodvorrat im menschlichen Körper wird auf 10 bis 30 Milligramm beziffert. Jodmangel führt zunächst nur zu einer euthyreoten Kropfbildung. Erst ein ausgeprägter Jodmangel hat auch eine Unterfunktion der Schilddrüse (Hypothyreose) zur Folge, die sich durch eine Minderproduktion von T4 und T3 auszeichnet. Da die Schilddrüsenhormone wesentliche Funktionen in der Regulation von Stoffwechselprozessen in beinahe jeder Zelle des Körpers übernehmen, resultieren aus einer Schilddrüsenunterfunktion schwerwiegende Stoffwechsel- und Entwicklungsstörungen. Zur Rolle der Iodversorgung bei Schilddrüsenkrankheiten siehe Jodprophylaxe, Iodunverträglichkeit, Hyperthyreose und Hashimoto-Thyreoiditis. Brust. Es gibt Hinweise, dass Iod und seine Stoffwechselprodukte auch in der Brustdrüse die Entstehung und das Wachstum von Neoplasien beeinflussen. Sicherheitshinweise. Iod ist von der EU als Gefahrstoff klassifiziert, dessen Freisetzung in die Umwelt zu vermeiden ist. Beim Umgang mit dem Element sind entsprechende Schutzmaßnahmen einzuhalten. Reste von Iod sind mit Natriumthiosulfat-Lösung zu behandeln (→ Reduktion zu Iodid). Vor der Entsorgung ins Abwasser muss der pH-Wert des Reaktionsgemisches mit Natriumhydrogencarbonat neutralisiert werden. Iod darf niemals mit Ammoniak in Verbindung gebracht werden, da sich sonst explosiver Iodstickstoff bilden kann. Klassische qualitative Analytik von Iod. Die Iod-Stärke-Reaktion ist die bekannteste Methode, um elementares Iod nachzuweisen. Für den Nachweis gibt man etwas wässrige Stärkelösung in die zu untersuchende Probe. Bei Anwesenheit von Iod bildet sich ein farbiger Komplex aus. Die Redoxreaktion von elementarem Chlor mit Iodid ist die Grundlage einer weiteren qualitativen Nachweisreaktion. Chlorwasser vermag Iodid zu elementarem Iod zu oxidieren, während Chlor zum Chlorid reduziert wird. Das gebildete Iod wird als bräunliche Färbung sichtbar. Es kann mit organischen Lösungsmitteln (z. B. Chloroform oder Tetrachlorkohlenstoff) extrahiert und zur photometrischen quantitativen Analyse herangezogen werden. Atomabsorptionsspektrometrie (AAS). Iod ist mit Hilfe der AAS praktisch nicht routinemäßig nachweisbar, da die Resonanzlinie im Vakuum-UV bei 183,0 nm liegt. Lediglich vereinzelte analytische Arbeitsgruppen berichten von indirekten Verfahren, welche jedoch mit großen Unsicherheiten behaftet sind. Atomemissionsspektrometrie (AES). Iodid kann mit Hilfe der ICP-AES (ICP, induktiv-gekoppeltes Plasma) nachgewiesen werden. Eine Methode ist die oxidative Ioddampferzeugung. Die aus Iodat reduktiv erzeugten Iodidionen werden im Plasma atomisiert und zur Emission bei 178,3 nm angeregt. Die mit dieser Methode erreichte Nachweisgrenze beträgt 0,4 µg/l. Massenspektrometrie (MS). In der Natur kommt nur das Isotop 127I vor. Es ist als einziges stabil. Mit Hilfe der ICP-Quadrupol-MS (ICP, induktiv-gekoppeltes Plasma) kann es in aufgeschlossenen Gesteinsproben mit einer Nachweisgrenze von etwa 0,01 ng/ml bestimmt werden. Ionenchromatographie (IC). Eine gute Methode, um Iodide aus einer Probelösung zu separieren, ist die Anionenaustausch-Chromatographie. Dabei wird Iodid auf einer Ionentauschersäule von anderen Ionen getrennt. Die Detektion erfolgt z. B. mit Hilfe elektrochemischer Detektoren, die entweder die Leitfähigkeit des Eluats messen oder mittels gepulster Amperometrie die geflossene Strommenge bestimmen. Mit Hilfe der gepulsten Amperometrie konnte eine Nachweisgrenze von 0,5 µg/l Iodid im Meerwasser erzielt werden. Seit kurzer Zeit wird die Ionenchromatographie auch mit der Massenspektrometrie gekoppelt. Die IC-Tandem-MS-Technik erreicht eine Nachweisgrenze von 0,33 µg/l Urin. Photometrie. Die bekannteste Methode zur photometrischen Erfassung von Iodid ist die kinetische Methode nach Sandell und Kolthoff. Die katalytische Wirkung von Iodid auf die Reduktion von Cer(IV) durch As(III) ist proportional zur Iodidkonzentration und kann über die Geschwindigkeit der Entfärbung der gelben Cer(III)-Lösung bestimmt werden. Dieses Verfahren wurde von Moxon und Dixon weiterentwickelt und auf die Oxidation von Thiocyanat durch Nitrit angewandt. Die kinetische Messung der Absorbanz wird bei 450 nm durchgeführt. Es wurde eine Nachweisgrenze für den Gesamtiodgehalt in Nahrungsmitteln von 0,01 µg/g erreicht. Voltammetrie. Für die elektrochemische Bestimmung von Iodid eignet sich hervorragend die kathodische Stripping-Voltammetrie. Dabei geht der eigentlichen voltammetrischen Bestimmung eine oxidative Anreicherungsperiode auf einer Kohlenstoffpaste-Elektrode bei 700 mV voraus. Das angereicherte Iod wird beim Scannen eines Potentialfensters von 700 mV bis −400 mV wieder reduziert. Der Reduktionsstrom ist proportional zur Iodidkonzentration. Es wurde eine Nachweisgrenze von 0,25 µmol/l erzielt. Verbindungen. Iod bildet Verbindungen in verschiedenen Oxidationsstufen von −1 bis +7. Die stabilste und häufigste Oxidationsstufe ist dabei −1, die höheren werden nur in Verbindungen mit den elektronegativeren Elementen Sauerstoff, Fluor, Chlor und Brom gebildet. Dabei sind die ungeraden Oxidationsstufen +1, +3, +5 und +7 stabiler als die geraden. Iodwasserstoff und Iodide. Anorganische Verbindungen, in denen das Iod in der Oxidationsstufe −1 und damit als Anion vorliegt, werden Iodide genannt. Diese leiten sich von der gasförmigen Wasserstoffverbindung Iodwasserstoff (HI) ab. Eine wässrige Lösung davon bezeichnet man als Iodwasserstoffsäure. In wässriger Lösung gibt sie sehr leicht das Proton (pKs –10) ab und wirkt daher stärker sauer als Bromwasserstoff (pKs –8,9) oder Chlorwasserstoff (pKs –6,2) in Wasser. Besonders bekannt sind die Iodide der Alkalimetalle, vor allem Natriumiodid und Kaliumiodid. Iodide sind in der Regel gut wasserlöslich, Ausnahmen sind viele Schwermetalliodide wie z. B. Silberiodid, Quecksilber(I)-iodid, Quecksilber(II)-iodid und Blei(II)-iodid. Iodide wirken als starke Reduktionsmittel. Lufteinwirkung bewirkt eine allmähliche Braunverfärbung bei Iodiden, Kupfer(II)-Salzlösungen verursachen das Ausfällen von Cu(I)-Iodid und Freisetzen von Iod. Silberiodid ist nur bei Lichtausschluss stabil, bei Belichtung oxidiert Ag(I) das Iodid zu Iod und Silberkristallkeimen (Schwarzfärbung bei Photonegativen). Iodoxide. Es ist eine größere Anzahl Verbindungen von Iod und Sauerstoff bekannt. Diese sind nach den allgemeinen Formeln IOx (x = 1–4) und I2Ox (x = 1–7) aufgebaut. Von den Iodoxiden wurden die Verbindungen IO, IO2, I2O4, I4O9, I2O5 und I2O6 nachgewiesen, wovon Diiodpentoxid (I2O5) die stabilste Verbindung ist. Iodsauerstoffsäuren. Neben den Iodoxiden bilden Iod und Sauerstoff auch mehrere Sauerstoffsäuren, bei denen ein Iodatom von einem bis vier Sauerstoffatomen umgeben ist, sowie die dazugehörigen Salze: Hypoiodige Säure (HIO) und Hypoiodite, Iodige Säure (HIO2) und die entsprechenden Iodite, Iodsäure (HIO3) und Iodate sowie die Periodsäure (H5IO6) und die dazugehörigen Periodate. Interhalogenverbindungen. Iod geht mit den anderen Halogenen eine Reihe von Interhalogenverbindungen ein. Diese sind Iodfluorid (IF), Iodtrifluorid (IF3), Iodpentafluorid (IF5), Iodheptafluorid (IF7), Iodchlorid (ICl), Ioddichlorid ((ICl2)2), Iodtrichlorid (ICl3) und Iodbromid (IBr). Iod ist in diesen Verbindungen stets das elektropositivere Element. Organische Iodverbindungen. Eine Vielzahl von organischen Iodverbindungen (auch "Organoiodverbindungen") wird synthetisch hergestellt, z. B. Iodalkane und Iodaromaten. Eingesetzt werden sie unter anderem in der Medizin als Kontrastmittel. Auch in der Natur werden Iodverbindungen durch bspw. Makroalgen produziert. Unter Sonneneinstrahlung ist außerdem die Produktion von CH3I und anderen Verbindungen an der Meeresoberfläche möglich. Itzehoe. Itzehoe (plattdeutsch: "Itzhoe") ist eine Mittelstadt im Südwesten Schleswig-Holsteins beiderseits der Stör. Sie ist die Kreisstadt des Kreises Steinburg und zählt zu den ältesten Städten Holsteins. Geographische Lage. Die Stadt liegt direkt an bzw. beiderseits der Stör in einer weitgehend hügeligen und vielbewaldeten Umgebung. Der auf der rechten Störseite gelegene Teil liegt auf einer Stauchendmoräne, die zugleich die Grenze zwischen Geest und Marsch bildet. Der auf der linken Störseite gelegene Teil liegt teils auf der Münsterdorfer Geestinsel. Flussabwärts der Stadt weitet sich die Störmarsch rechtsseitig zur Wilstermarsch und linksseitig zur Krempermarsch. Die Stadt gehört zur Metropolregion Hamburg. Die Größe des Stadtgebietes umfasst insgesamt 2803 ha (bebaute Flächen 757 ha; Straßen, Plätze, Gewässer 371 ha; Parks, Grünanlagen, Sportplätze, Friedhöfe 216 ha; landwirtschaftlich genutzte Flächen 763 ha; Kleingärten 46 ha; forstwirtschaftlich genutzte Flächen 650 ha). Nachbargemeinden und umliegende Städte. Die Stadt grenzt an die Gemeinden Heiligenstedten, Oldendorf, Ottenbüttel, Schlotfeld, Oelixdorf, Münsterdorf, Breitenburg (mit dem Ortsteil Nordoe), Kremperheide und Heiligenstedtenerkamp. Die nächsten Städte sind Wilster, Krempe und Kellinghusen; die nächsten größeren Städte Neumünster, Heide, Elmshorn und Hamburg. Klima. Das Klima ist feuchtgemäßigt und maritim geprägt. Die Temperatur beträgt im Jahresmittel 8,2 °C (Höchsttemperatur 28 °C, Tiefsttemperatur −10 °C), die Niederschlagsmenge 860 mm. Herkunft des Stadtnamens. Itzehoe wurde im 12. Jahrhundert erstmals als „Ekeho“ von Saxo Grammaticus erwähnt. 1196 schrieb eine weitere Nennung „de Ezeho“. Die Bedeutung des Namens ist bis heute umstritten: Eine Möglichkeit wäre „Weideland an der Flussbiegung“ (mittelniederdeutsch „hô“ für einen flach erhobenen Landvorsprung in einer Ebene oder einen Flussmäander, mittelniederdeutsch „ete“ für Weideland). Bei dem heutigen Bach Itze handelt es sich um den Namen eines Bachs, der erst im 20. Jahrhundert nach der Stadt benannt wurde und nicht etwa umgekehrt. Entwicklung einer Provinzstadt zum Sitz der herzoglichen Ständeversammlung. Ehemalige Zementfabrik Alsen um 1895 Zum Schutz gegen die von Norden marodierenden dänischen Wikinger entstand schon 810 n. Chr. unter Karl dem Großen in der Oldenburgskuhle die Esesfeldburg, die aber in keinem direkten Zusammenhang mit der Entwicklung Itzehoes steht. In deren Schutz errichtete Erzbischof Ebo von Reims im Sommer 823 im heutigen Münsterdorf ein kleines Kloster bzw. Bethaus, die „Cella Welana“, als Stützpunkt für die von ihm in die Wege geleitete christliche Mission in Dänemark. Die um 1000 in der nahegelegenen Störschleife errichtete größere Burg Echeho wurde zur Keimzelle einer Siedlung, die sich, begünstigt durch die Verleihung des lübischen Stadtrechts (1238), verbunden mit der Zollfreiheit, die damals im Lande nur Hamburg zugestanden war, und später des Stapelrechts (1260), zu einer Handelsstadt entwickelte. Itzehoe engagierte sich während dieser Zeit im Salz-, Tuch- und Getreidehandel und war zeitweise ein wichtiger Knotenpunkt im europäischen Ost-West-Handel. Auf der anderen Flussseite entstanden weitere Ansiedlungen um den Klosterhof (ca. 1260) und um die Laurentii-Kirche (erste Erwähnung 1196). Unter Gerhard von Holstein-Itzehoe war Itzehoe im 13. Jahrhundert zudem kurzzeitig Residenzstadt der Grafschaft Holstein-Itzehoe. Verursacht durch diese Mischung aus weltlicher und geistlicher Herrschaft in Itzehoe gab es im Stadtgebiet von 1617 bis zum 31. März 1861 vier eigene Gerichtsbezirke (Jurisdiktionen) mit jeweils eigenem Galgenberg. Auf einem alten Burgwall innerhalb der Störschleife wurde von den Schauenburgen Grafen um 1180 eine steinerne Burg errichtet. Es galt das mittelalterliche Recht der Burg. Der zugehörige Galgenberg ist ein bronzezeitlicher Grabhügel zwischen der Struvestraße und der Ringstraße "Galgenberg" im Stadtteil Wellenkamp. Dort fand am 18. Dezember 1856 die letzte öffentliche Hinrichtung des Raubmörders Johann Lau aus Brokdorf statt. In der 1238 durch Adolf IV. von Schauenburg und Holstein gegründeten Kaufmannssiedlung (Neustadt) galt das Lübische Recht. Der Galgenberg der lübschen Stadt war ein bronzezeitlicher Grabhügel am Buchenweg östlich des "Lübschen Brunnens". Weiters galt im 1256 gegründeten Zisterzienserinnenkloster ein eigenes Recht. In der Reformationszeit wurde das Kloster übrigens 1541 in ein adliges evangelisches Damenstift umgewandelt und existiert noch heute. Der noch bestehende Klosterhof neben der St. Laurentii-Kirche ist zudem einer der ältesten erhaltenen Bereiche in Itzehoe. Der Galgenberg des Klosters war das Germanengrab. Ferner gab es im heutigen Stadtgebiet noch die Herrschaft Breitenburg mit eigenem Recht. Der Galgenberg der Herrschaft Breitenburg lag auf einer Anhöhe nordöstlich vom "Kratt". Die mittelalterliche Itzehoe war in Wohnquartiere geteilt. In der Altstadt durften lange Zeit nur Handwerker (Gärtner, Fassmacher) wohnen, Kaufleute und andere Handwerker mussten in der Neustadt siedeln, die in vier Quartiere aufgeteilt war, wobei sich die städtische Oberschicht in den beiden ältesten Quartiere um den Markt herum konzentrierte. Im Dreißigjährigen Krieg wurde die Stadt zwar mehrfach mit Einquartierungen belegt und geplündert, größere Zerstörungen gab es jedoch nicht zu beklagen, da der Rat der Stadt 1627 dem Feldherrn Wallenstein die Stadt kampflos übergab. Hierdurch konnte Itzehoe seinen Status als fünfte unter den achtzehn Städten von Schleswig-Holstein behaupten. Nachdem Itzehoe somit über sehr lange Zeit weitgehend von Kriegen verschont blieb, wurde die Stadt 1657 im Dänisch-Schwedischen Krieg (1657–1658) von schwedischen Soldaten jedoch fast völlig zerstört. Dadurch ist der Kreuzgang der Laurentii-Kirche heute das einzige erhaltene mittelalterliche Gebäude Itzehoes. Im 17. Jahrhundert war Itzehoe Sitz des herzoglichen Regiments zu Fuß Prinz Georg (rund 1500 Mann) und im 18. Jahrhundert von drei Kompanien der Kürassiere bzw. der Dragoner des Leibregiments. Im Jahr 1712 brach in Itzehoe die aus Ostpreußen und Polen eingeschleppte "asiatische Beulenpest" aus und tötete 250 Einwohner (etwa 7 % der damaligen Einwohnerzahl von 3500). Von den Napoleonischen Kriegen war Itzehoe nur indirekt durch Transit und Einquartierungen sowie finanzielle Belastungen betroffen. Ab 1807 wurde Itzehoe jedoch kurzzeitig die Residenz des vor Napoléon ins Exil geflohenen Kurfürsten Wilhelm I. von Hessen-Kassel. Vor der Schleswig-Holsteinischen Erhebung, an der ein großer Teil der Bürgerschaft von Itzehoe für die deutsch-gesinnte Schleswig-Holsteinische-Bewegung Partei nahm, tagte von 1835 bis 1848 und später erneut von 1852 bis 1863 in Itzehoe die Holsteinische Ständeversammlung und begründete hierdurch die Geschichte des Parlamentarismus in Schleswig-Holstein. Nach dem Deutsch-Dänischen Krieg fiel das Herzogtum Holstein zunächst an Österreich, dessen Statthalter Ludwig Karl Wilhelm von Gablenz am 11. Juni 1866 die Holsteinische Ständeversammlung schließlich ein letztes Mal zusammenrief. Eine Tagung wurde jedoch durch die Begleiterscheinungen des Deutsch-Deutschen Krieges verhindert. Nach Ende des Krieges fiel das Herzogtum Holstein einschließlich Itzehoe an Preußen: Es entstand 1867 − gemeinsam mit dem Herzogtum Schleswig − die Provinz Schleswig-Holstein. Durch den Eisenbahnanschluss (1847) und die Anbindung an die neue Chaussee von Hamburg nach Rendsburg (1846) setzte in Itzehoe das industrielle Zeitalter ein, sodass sich im 19. und später im 20. Jahrhundert viele Gewerbe- und Industriebetriebe (unter anderem Zuckerherstellung, Weberei, Chemieindustrie und Werft) in und um Itzehoe ansiedelten, die der Stadt wieder zu größerer wirtschaftlicher Bedeutung verhalfen. Itzehoe als preußische Garnisonsstadt und im Ersten Weltkrieg. Waren die Einwohner Holsteins und damit auch Itzehoes zunächst eher der Augustenburger Partei zuzurechnen, wandelte sich dies nach der Reichsgründung zusehends. Die Begeisterung und Verehrung Preußens nahm in allen Bevölkerungsteilen zu und man widmete Preußen und seinen Persönlichkeiten mehrere Denkmäler in der Stadt. So wurde unter anderem 1890 eine bronzene Statue Kaiser Wilhelms I. im Stadtpark aufgestellt (im Zweiten Weltkrieg eingeschmolzen) und im Oktober 1905 wurde durch die Einweihung der Bismarcksäule im Stadtforst der Reichsgründer Otto von Bismarck besonders geehrt. Dieser Bismarckturm zählt auch heute noch zu den Kulturdenkmälern der Stadt. Nach seiner Stiftung am 29. Juli 1866 wurde Itzehoe Sitz des Feld-Artillerie-Regiments General-Feldmarschall Graf Waldersee (Schleswigsches) Nr. 9. Ferner kam es nach dem gewonnenen Deutsch-Französischen Krieg in der Gründerzeit auch in Itzehoe zu einem wirtschaftlichen Aufschwung. Die Bevölkerung stieg schlagartig an, der Hafen florierte und es entstanden mehrere größere Fabriken in der Nahrungsgüter- und Textilindustrie, der Seifenherstellung und Papierverarbeitung sowie einige kleinere Maschinenbaufabriken und weitere Werften. Während des Ersten Weltkrieges war Itzehoe nicht direkt von den militärischen Auseinandersetzungen betroffen, litt jedoch genau wie viele deutsche Städte unter der Hungersnot durch die Britische Seeblockade in der Nordsee; viele Bürger der Stadt kamen von den Schlachtfeldern Europas nicht wieder und die Einwohnerzahl sank stark. Die Stadt während der Weimarer Republik und im Dritten Reich. Wie im gesamten Deutschen Reich versuchten 1918/19 während der Novemberrevolution die aufständischen Matrosen und Arbeiter die Macht an sich zu reißen. Das Offizierskorps versuchte den Einmarsch der Aufständischen in die Stadt durch die Sperrung der Ausfallstraßen Itzehoes zu verhindern, vernachlässigte jedoch die Bewachung des Bahnhofs. Als Folge gelang es 50 Matrosen auf diesem Wege, in die Stadt zu gelangen, die rote Fahne zu hissen und einen Arbeiter- und Soldatenrat der Stadt zu bilden. Während der Weimarer Republik wuchs die Bevölkerung Itzehoes von knapp 18.000 auf 20.000 Einwohner wieder an. In ihrem Wahlverhalten präferierten diese die Sozialdemokraten, die Nationalliberalen und die Deutschnationalen (als Beispiel das Ergebnis der Reichstagswahl vom 7. Dezember 1924: Wahlberechtigte in Itzehoe 12.713, Stimmen SPD 3515, DVP 2228, DNVP 1935, DDP 1015), KP 933, Zentrum 67 Bei der Reichstagswahl vom 5. März 1933, der letzten Reichstagswahl während des NS-Regimes, bei dem mehrere Parteien zugelassen waren, wählten die 14.788 Wahlberechtigten in Itzehoe mit 6161 Stimmen die NSDAP, mit 3480 die SPD, mit 1979 die KPD und mit 1054 die DNVP, Zentrum 84. Nach der Ausgliederung Altonas durch das Groß-Hamburg-Gesetz verlor die Provinz Schleswig-Holstein eines ihrer vier Landgerichte. Ab dem 1. April 1937 erhielt daraufhin Itzehoe ein eigenes Landgericht als Ersatz. Diesem wurden zunächst 13 Amtsgerichte zugeordnet. Während sich die Anzahl der Amtsgerichte mit der Zeit verringerte, blieb der Gebietsbereich des Landgerichts seitdem im Wesentlichen unverändert. Nach Beginn des Zweiten Weltkrieges rückten viele Einwohner Itzehoes in die Wehrmacht ein und fielen im Laufe des Krieges. Die Stadt selbst hatte im Vergleich zu den meisten norddeutschen Städten kaum unter dem Luftkrieg zu leiden, so wurden nach Oktober 1941 nur neunmal Bomben über Itzehoe abgeworfen. Am 31. Oktober 1941 fielen fünf Bomben am Brunnenstieg und auf ein Haus im Sandberg, wobei ein Bürger getötet und zwei weitere Menschen verletzt wurden. Mitte April 1945 fiel eine Bombe in der Nähe der Poelstraße mitten auf die Lindenstraße und beschädigte einige Häuser beiderseits der Straße. Ebenfalls im April 1945 brannte der 10.000-m³-Gasbehälter des Gaswerkes in der Gasstraße aus, nachdem er von britischen Fliegern bombardiert worden war. Am 2. Mai 1945 trafen Bomben den Südwesten von Sude um eine Mühlenbaufirma, wobei 22 Menschen starben. Ein zweiter Angriff wenige Stunden später traf das Dreieck Brückenstraße/Liethberg. In beiden Fällen kam es zur vollständigen Zerstörung von Gebäuden und großen Schäden im weiteren Umkreis. Aus Kiel und Hamburg wurden ab Juli 1943 Bevölkerungsteile wegen der Bombenangriffe nach Itzehoe evakuiert. Ferner kamen ab dem Jahr 1944 viele Vertriebene aus den deutschen Ostgebieten in die Stadt. Die Einwohnerzahl stieg dadurch von 21.870 auf 33.736. Während des Zweiten Weltkrieges gab es in Itzehoe mehrere Zwangsarbeiterlager: Das Lager Fuchsberg für die Firma Siemen & Hinsch mit 150 Personen, das Lager Schulenburg für die Alsensche Portlandzementfabrik mit 130 Personen, das Lager Leuenkamp für die seit 1937 in Itzehoe ansässige Sauerkohlfabrik Hengstenberg mit 100 Frauen und das Lager der Heeres-Munitionsanstalt mit 135 Personen. Daneben befand sich in der früheren Tapetenfabrik am Feldschmiedekamp ein Lazarett für weißrussische Wehrmachtsangehörige und im Saal des Hotels „Adler“ ein Kriegsgefangenenlager für Franzosen. Am 5. Mai 1945 war der Krieg in Itzehoe mit der Besetzung durch britische Truppen beendet. Stadtgeschichte nach dem Zweiten Weltkrieg. a> für die Opfer des Naziregimes am heutigen Standort Störverlauf im Süden der Stadt Nach dem Zweiten Weltkrieg verdoppelte sich die Einwohnerzahl durch Flüchtlinge und Heimatvertriebene aus Ostpreußen, Pommern und Schlesien, was, wie in den meisten Ortschaften der britischen und amerikanischen Besatzungszonen, zu erheblicher Wohnungsnot führte. Diese konnte erst allmählich durch Neubauten in der Stadt, vor allem im Stadtteil Tegelhörn, verringert werden. In Itzehoe wurde 1946 auf Mitinitiative des Filmproduzenten Gyula Trebitsch, der einige Jahre in Itzehoe gelebt hatte, das deutschlandweit erste Erinnerungsdenkmal an die Opfer des Nationalsozialismus in Norddeutschland erstellt. Der Entwurf stammte von dem Hamburger Architekten Fritz Höger. Die britischen Besatzungstruppen wurden 1949 durch norwegische Truppen abgelöst, die wiederum 1950/51 durch dänische Besatzungstruppen ersetzt wurden. Grundsätzlich verblieb Itzehoe jedoch im Bereich britischer Besatzungsherrschaft. In den 1960er und 1970er Jahren entstanden in drei Stadtteilen Itzehoes die ersten Hochhäuser: Das erste am Marienburger Platz in Tegelhörn, die zweiten an der Lindenstraße in Sude, die dritten beiden stehen direkt im Stadtzentrum. Zwischen diesen beiden Hochhäusern steht das "Holstein Center": 1972 erbaut, ist es das größte Einkaufszentrum im Westen Schleswig-Holsteins und bietet zahlreichen Geschäften auf zwei Verkaufsebenen insgesamt über 14.000 m² Ladenfläche. In unregelmäßigen Abständen finden dort auch verschiedene Veranstaltungen statt. 1997 wurden die Gebäude komplett renoviert und 2002 revitalisiert. Ein Haupteingang zum Holstein-Center befindet sich an der unmittelbar daran grenzenden Fußgängerzone "Feldschmiede". In der Nähe der Feldschmiede befindet sich das neue Theater (erbaut am Ufer der zugeschütteten Störschleife). Es wurde 1992 eingeweiht. Das alte Stadttheater war 1994 bis auf die Grundmauern niedergebrannt. Ein weiteres Großfeuer blieb den Einwohnern lange im Gedächtnis. An den Bahnhof grenzend befand sich das 40.000 m² große Gelände einer Holzgroßhandlung, die 1988 den Flammen zum Opfer fiel. Nur den günstigen Windverhältnissen an diesem Tag war es zu verdanken, dass das Feuer nicht auf die Gebäude der Innenstadt und des Bahnhofs übergriff. Die Löscharbeiten dauerten nahezu einen ganzen Tag. Bis zu ihrer Zuschüttung mit etwa 110.000 m³ Sand 1974 prägte die Störschleife das Bild der Itzehoer Innenstadt entscheidend mit. Die Schleife war der ursprüngliche Flusslauf. Der Stördurchstich (niederdt. „Delf“, woher auch die Namen „Delftor“ und „Delftorbrücke“ des dortigen Stadtausgangs und der Störbrücke herrühren) machte Itzehoes Burganlage zu einer Insel. Es soll in dem Delf Schleusen gegeben haben, die sich bei ablaufendem Wasser schlossen und so eine Durchströmung und Reinigung der Störschleife erzwangen. Nach deren Entfernung versandete die Störschleife zunehmend und entwickelte sich zu einem nahezu stehenden, faulig riechenden Gewässer. Der alte Stadtkern, die „Neustadt“, konnte nur über Brücken erreicht werden. Im Zuge der Sanierung der „Neustadt“, bei der nahezu alle auf dieser ehemaligen Insel befindlichen Häuser abgerissen und durch neue Gebäude ersetzt und neue Straßen angelegt wurden, erlosch dieses stadtprägende Element. Nur einige künstlich angelegte Wasserbecken zwischen dem neuen Theater und der Salzstraße erinnern an den ursprünglichen Verlauf der Schleife. Auf dem ehemals westlichen Teilstück verläuft heute die Adenauerallee, eine der Hauptverkehrsstraßen Itzehoes. Aufgrund dieser Sanierungs- und Überbauungsmaßnahmen „errang“ Itzehoe 1988 in einem von deutschen Städteplanern durchgeführten „Wettbewerb um die konsequenteste Verschandelung eines historischen Stadtbildes“ den zweiten Platz hinter Idar-Oberstein, wo in den 1980er Jahren der durch den städtischen Talraum verlaufende Fluss Nahe auf einer Länge von zwei Kilometern mit einer Straße überbaut worden war. Um das Stadtbild wieder zu verbessern, entstand schließlich im Jahr 2011 eine Initiative mit dem Ziel, die Wiedereröffnung der zugeschütteten Störschleife im Zentrum Itzehoes voranzutreiben. Traurige und bundesweite Bekanntheit erlangte Itzehoe im März 2014, als eine Gasexplosion in der Schützenstraße im Südosten der Stadt den ganzen Straßenzug verwüstete und das Haus mit der Nummer 3 vollständig zerstörte. Vier Menschen kamen bei dem Unglück ums Leben. 15 Menschen wurden teilweise schwer verletzt. Das Unglück geschah bei Baggerarbeiten an der Kanalisation, als eine nicht verzeichnete Gasleitung getroffen wurde. Der Baggerfahrer und der Vorarbeiter werden für das Unglück verantwortlich gemacht und werden sich vor Gericht verantworten müssen. Eingemeindungen. Am 1. Januar 1976 wurde ein Gebiet der Gemeinde Oelixdorf mit damals etwa 30 Einwohnern in die Stadt Itzehoe eingegliedert. Politik. Itzehoe gehört zum Bundestagswahlkreis Steinburg – Dithmarschen Süd und zum Landtagswahlkreis Steinburg-Ost, die beide bei der letzten Wahl von der CDU direkt gewonnen wurden. Die Stadt ist Verwaltungssitz des Kreises Steinburg. Stadtgliederung. Der 1979 aufgestellte Gedenkstein zur Erinnerung an die Eingemeindung des Dorfes Sude 1911; Dorfplatz Sude Itzehoe untergliedert sich historisch in die Stadtteile "Altstadt" und "Neustadt" (die Altstadt ist der Ausgangspunkt der Siedlung; in der Neustadt galt zuerst Stadtrecht; zusammen bilden sie die Innenstadt), das südlich der Stör gelegene "Wellenkamp", "Sude" (eingemeindet 1911), "Kratt" (umgemeindet 1911), "Pünstorf" (ehemals eigenständiges Dorf, dann Gutshof; erst im 20. Jahrhundert wieder besiedelt), "Tegelhörn" (erst im 20. Jahrhundert besiedelt), "Edendorf" (eingemeindet 1963), "Sude-West" (durch Umgemeindung erweitertes, in den 1960/70er Jahren bebautes Gebiet) und "Klosterforst" (Erschließung seit 1995). Wappen. Blasonierung: „In Rot über blauen Wellen auf einer durchgehenden silbernen Mauer zwei spitzbedachte silberne Zinnentürme mit geschlossenem Tor; zwischen den Turmdächern ein silbernes Nesselblatt.“ Bürgermeister. Somit wurde Andreas Koeppen im ersten Wahlgang zum neuen Bürgermeister der Stadt Itzehoe gewählt. Städtepartnerschaften. Städtepartnerschaften bestehen seit 1982 mit Cirencester in Großbritannien, seit 1988 mit der französischen Gemeinde La Couronne im Département Charente und seit 1990 mit Pasłęk (Preußisch Holland) in Polen. Mit Malchin (Mecklenburg-Vorpommern) besteht außerdem seit 1990 eine Städtefreundschaft. Kultur und Sehenswürdigkeiten. Häuserzeile am Markt gegenüber dem alten Rathaus Theater. Seit über hundert Jahren wird in Itzehoe Theater gespielt; seit September 1992 im neuen "theater itzehoe". Entworfen von Gottfried Böhm, erbaut mit einem Kostenaufwand von ca. 20 Mio. Euro, können zwischen 570 bis 1100 Zuschauer – je nach Bestuhlung – die Veranstaltungen besuchen. Die ovale, zirkuszeltartige Bauweise begünstigt die Multifunktionalität des Theaters. Die Palette reicht vom Sprech- und Musiktheater über Ballett, Tanztheater, Kabarett, Pantomime und Show bis hin zu Kammer- und Sinfoniekonzerten. Zusätzlich stattfindendes Kinder- und Jugendtheater sowie die Möglichkeit, auch Kongresse, Tagungen, Seminare, Messen u. ä. abhalten zu können, machen den markanten Bau zum Bürgerhaus. Im August 2009 fungierte das "theater itzehoe" als „Tonstudio“ für den chinesischen Pianisten Lang Lang, der dort seine neue CD einspielte. Wälder. In und um Itzehoe befinden sich verschiedene Wälder. Im Nordosten sind dies der Itzehoer Klosterforst (Waldeigentum des Klosters Itzehoe), das Lübsche Gehölz (Waldeigentum der Stadt Itzehoe) sowie der Kreisforst Schmabek (Waldeigentum des Kreises Steinburg). Von städtischer Bebauung umgeben sind das zum Klosterforst gehörige Vorderholz und der früher mit diesem in Verbindung stehende Lehmwohld sowie der einst ebenso mit den Waldflächen in Verbindung stehende Hackstruck (alle drei ebenfalls Waldeigentum des Klosters). Letzterer soll zugunsten einer erneuten Erweiterung des Klinikums Itzehoe weiter gerodet werden. An der Nordwestgrenze Itzehoes schließt das Heiligenstedtener Holz (Privatwaldeigentum der Familie Wiese) an; an der Ostgrenze der Breitenburger Wald (Privatwaldeigentum der Familie Rantzau). Im Süden auf der links der Stör gelegenen Münsterdorfer Geestinsel grenzt Itzehoe an Wälder an, in denen auch die Nordoer Binnendünen und Erdfälle wie die "Knickenkuhle" liegen. Schutzgebiete. Als Landschaftsschutzgebiet geschützt sind unter anderem die Twiedtberge mit Umgebung, der Stormsteich mit näherer Umgebung, die Waldflächen Vorderholz, Lehmwohld und Hackstruck sowie des teilweise in Itzehoe gelegenen Heiligenstedtener Holzes. Naturschutzgebiete bestehen in Itzehoe bislang nicht. Seit einigen Jahren wird jedoch eine entsprechende Ausweisung des Stormsteiches und seiner Umgebung angedacht. Naturerlebnisraum. Am östlichen Rand des Vorderholzes des Klosterforstes befindet sich der Naturerlebnisraum Itzequelle. Wirtschaft und Infrastruktur. Hauptgebäude des Innovationszentrums Itzehoe (IZET) Hauptgebäude des Fraunhofer-Instituts für Siliziumtechnologie (ISIT) Ehemalige wirtschaftliche Situation. Bis in die ersten Jahrzehnte nach dem Zweiten Weltkrieg war die Wirtschaft von Itzehoe durch die Zementwerke und den Binnenhafen sowie die ehemalige Funktion als Garnisonsstadt geprägt. Bodenschätze wie etwa Ton, Sand und Kies sind weitestgehend ausgebeutet (Große Tonkuhle, Kleine Tonkuhle, Edendorfer Tonkuhle, Kochsche Sand- und Kieskuhlen). Heute kennzeichnen Industrie-Ruinen, zum Beispiel der Planet Alsen, das ehemalige Industriegebiet. Das Gelände wird jedoch derzeit saniert, dort sollen Wohn- und Gewerbegebiete direkt an der Stör entstehen. Heutige wirtschaftliche Struktur. Itzehoe bildet aktuell gemäß einer Studie der Universität Köln das beste Klima für Firmengründungen in ganz Deutschland. Das Fraunhofer-Institut für Siliziumtechnologie (ISIT) und die Gesellschaft für Technologieförderung Itzehoe mbH (IZET Innovationszentrum Itzehoe) bilden einen der wichtigen Wirtschaftsfaktoren der gesamten Region. Hiermit verbunden haben sich mehrere High-Tech-Firmen in und um Itzehoe angesiedelt. Itzehoe entwickelte sich zudem zu einer zentralen Einkaufsstadt an der schleswig-holsteinischen Westküste zwischen Elmshorn und Husum. Eine lange Fußgängerzone erstreckt sich zwischen dem Dithmarscher Platz und der „Langen Brücke“ über ca. einen Kilometer. Viele kleinere und größere Fachhändler, Dienstleister und Gastronomen sind dort ansässig, jedoch liegt die Leerstandsquote mittlerweile bei etwa 20 %. Diese Entwicklung wird teilweise auch auf den Verlust des Hertie-Warenhauses im Jahr 2009 zurückgeführt, welches zusammen mit dem großen Einkaufszentrum „Holstein-Center“ als „Kraftpol“ der Fußgängerzone wirkte. Insgesamt blieb die Anzahl der Betriebe in den letzten Jahren aber in etwa gleich. Bei den Malzmüllerwiesen findet ferner zweimal wöchentlich ein Wochenmarkt statt. Diverse Gewerbegebiete im Stadtrand bieten umfangreiche weitere Sortimente an wie z. B. zwei Baumärkte, ein großer Elektrohändler und mehrere Supermärkte. Die zahlreichen Alten- und Pflegeheime sowie das Klinikum Itzehoe sind inzwischen ebenfalls zu wichtigen Arbeitgebern geworden. Zu den größten Unternehmen der Stadt gehören heute die Itzehoer Versicherungen sowie die Pumpenfabrik Sterling SIHI. Die Alliance Healthcare Deutschland (ehemals "Andreae-Noris Zahn" / "ANZAG"), der Zementhersteller Holcim sowie Werke des Pharmaherstellers Pohl-Boskamp haben Standorte in der Nähe der Stadt. Einer der größten Arbeitgeber, die Tiefdruckerei Prinovis der Medienkonzerne Arvato, Gruner + Jahr und Axel Springer, hat ihren Betrieb zum April 2014 eingestellt. Wasserversorgung. Die Trinkwasserversorgung Itzehoes wird durch die Brunnenanlagen der Wasserwerke Tonkuhle und Twietberge sichergestellt, die beide von der Stadtwerke Itzehoe GmbH betrieben werden. 2004 wurden rund 2.100.000 m³ Wasser abgegeben. Medizinische Versorgung. Itzehoe verfügt über ein Medizinisches Zentrum, 4 Fachkliniken, 42 Pflegeeinrichtungen, 164 Ärzte, 65 Zahnärzte sowie 34 Tierärzte. Straßenverkehr. Itzehoe ist durch die A 23 an das Bundesautobahnnetz angeschlossen, wobei das Teilstück von der Ausfahrt Itzehoe-Süd bis Itzehoe-Nord noch als Bundesstraße gewidmet ist. Die B 5 verbindet zudem Brunsbüttel und Wilster mit Itzehoe und die B 77 führt in Richtung Schleswig und Rendsburg. Außerdem schafft die B 206 Verbindungen Richtung Osten nach Hohenlockstedt, Kellinghusen, Bad Segeberg und Lübeck. Hamburg erreicht man in 50 km/35 Minuten, Kiel in 80 km/60 Minuten und Heide in 48 km/30 Minuten. Schienenverkehr. Der Bahnhof Itzehoe liegt an der Bahnstrecke Hamburg–Westerland (Marschbahn), die bis Itzehoe elektrifiziert ist. Diesen Bahnhof bedienen sowohl die private Bahngesellschaft Nord-Ostsee-Bahn als auch die Regionalbahn Schleswig-Holstein. Darüber hinaus halten auch InterCity-Züge der Deutschen Bahn AG in Itzehoe. Der Verkehr auf dem Itzehoer Streckenabschnitt der Bahnstrecke Itzehoe–Wrist wurde Ende 1994 eingestellt. Siehe auch: Liste der InterCity-Bahnhöfe Seeverkehr. Itzehoe liegt an der Bundeswasserstraße Stör mit direktem Zugang zur Elbe und besitzt einen eigenen Stadthafen mit einer Kailänge von heute 450 m. Früher fuhren von hier u. a. Walfänger nach Grönland. Heute eignet sich der Hafen sowohl für See- als auch für Binnenschiffe. Die moderne Hafenanlage ermöglicht einen schnellen Warenumschlag mit einer Umschlagsleistung von im Mittel 100 Tonnen pro Stunde für Schüttgüter. Justiz. In Itzehoe haben mehrere Justizbehörden ihren Sitz. Hierzu zählen Amtsgericht Itzehoe, Landgericht Itzehoe und die Staatsanwaltschaft beim Landgericht sowie das Sozialgericht Itzehoe. Die Justizvollzugsanstalt Itzehoe ist zudem die älteste und kleinste Justizvollzugsanstalt Schleswig-Holsteins. Schulen. Itzehoe verfügt über alle in Schleswig-Holstein üblichen Formen schulischer Bildung. Neben 14 Kindergärten und fünf Grundschulen, einer Regionalschule, drei Gemeinschaftsschulen und einer Waldorfschule gibt es drei Gymnasien (Kaiser-Karl-Schule, Auguste Viktoria-Schule und das Sophie-Scholl-Gymnasium). Die Grundschule Sude-West unterhält eine Schulfreundschaft zur Deutschen Schule in Brunde (Rothenkrug) in Nordschleswig. Diese geht auf die 50er Jahre zurück, als die städtischen Gymnasien (AVS und KKS) Gelder für die dortige Schule sammelten. Weiters gibt es noch das regionale Berufsbildungszentrum des Kreises Steinburg, mehrere private Bildungseinrichtungen wie den Kulturhof Itzehoe und die Handelslehranstalt Neumann sowie die Volkshochschule im Georg-Löck-Haus. Benannt wurde sie nach Georg Löck (1782–1858), einem politischen Reformer und Liberalen, dem vor dem alten Rathaus ein Denkmal gesetzt wurde. Islamabad. Islamabad () ist die Hauptstadt Pakistans. Die erst in den 1960er Jahren gegründete Stadt hat heute 689.000 Einwohner. Als geplante Stadt wurde sie an einer klimatisch äußerst vorteilhaften Stelle am Rande des Pothohar-Plateaus, unterhalb der Margalla-Hügel auf einem schachbrettartigen Grundriss angelegt. Islamabad gehört historisch zum Punjab, wurde aber 1970 aus der Provinz ausgegliedert und zu einem eigenständigen Hauptstadtterritorium. Lage. Das im Süden direkt angrenzende Rawalpindi wird als Islamabads Schwesterstadt angesehen. Tatsächlich ist Rawalpindi bis heute die (nach Einwohnern) größere Stadt und das lebendige Marktzentrum des westlichen Punjab. Dort ist auch die Mehrzahl der Militärhauptquartiere untergebracht. Islamabad dagegen ist die moderne und weitläufige Stadt, für pakistanische Verhältnisse sehr sauber und ruhig. Die Stadt ist dank der Sektoren effizient unterteilt: In jedem Sektor befinden sich bestimmte Einrichtungen wie eine Moschee und ein Markt. Das kommerzielle Zentrum der Stadt ist bekannt unter dem Namen "Blue Area" und erstreckt sich entlang der Jinnah Avenue, benannt nach Pakistans Gründer Muhammad Ali Jinnah. Das Ostende der Blue Area reicht bis an die Parliament Road, wo sich der Großteil der Regierungsgebäude befindet. Der Norden der Margalla-Hügel am Rande der Stadt wurde in einen Nationalpark umgewandelt. Geschichte. Islamabad und Rawalpindi aus der Luft; die Einteilung in Sektoren ist gut zu erkennen. Nordwest-südöstlich die Stadtmitte durchquerende 7th Avenue Von der Unabhängigkeit Pakistans 1947 an bis zum Jahr 1958 war Karatschi in Sindh im Süden des Landes die Hauptstadt. Vorbehalte gegenüber einer Konzentration von Investitionen in Karatschi führten zu der Idee, eine neue, günstiger gelegene Hauptstadt zu bauen. Als Muhammed Ayub Khan 1958 Präsident von Pakistan wurde, setzte er durch, dass der Bau der neuen Hauptstadt zur obersten Priorität wurde. Man wählte die Gegend unmittelbar nordwestlich von Rawalpindi aus, das als vorläufige Hauptstadt fungierte und erheblich erweitert wurde. Durch Islamabads Lage am Fuße der ersten Ausläufer des Himalaja und zusätzlich drei künstlich geschaffene Seen (Rawal, Simli und Khanpur) sind die Temperaturen hier wesentlich ausgeglichener als im lediglich 15 Kilometer entfernten Rawalpindi. Der griechische Stadtplaner und Architekturtheoretiker Konstantinos A. Doxiadis plante und realisierte die neue Hauptstadt und deren Schwesterstadt Rawalpindi. 1959 erfolgte der Spatenstich und 1960 begannen die Arbeiten. Zuvor hatten Doxiadis und seine Mitarbeiter umfangreiche Untersuchungen der Lebensgewohnheiten Pakistans unternommen. Jede Einheit wurde auf eine Größe von 800 Acres (ca. 3,2 km2) festgelegt und in vier Sub-Sektoren unterteilt. Dieses Verfahren garantierte ein Optimum aus Infrastruktur und persönlicher Nähe. Gleichzeitig wurde hier eine Stadt im Grünen in entsprechenden Dimensionen geplant und realisiert. Durch chronischen Geldmangel wuchs die Stadt nur langsam – tatsächlich machte die Regierung Islamabad erst Anfang der 1980er Jahre endgültig zur Hauptstadt, obwohl sie diesen Titel offiziell seit 1966 trug. Bis dahin lebten erst etwa 250.000 Menschen in der neuen Stadt. Während der 1990er Jahre änderte sich das dramatisch – die Bevölkerung wuchs rapide und neue Sektoren wurden angelegt. Am 20. September 2008 wurde ein Terroranschlag auf das Marriott-Hotel in Islamabad verübt. Stadtbild. a> in Islamabad wurde 1984 fertiggestellt. Sie ist die derzeitig größte geschlossene Moschee der Welt. Islamabads Architektur besteht aus einer Mischung zwischen islamischer Tradition und Moderne. Der Saudi-Pak Tower ist ein Beispiel für die Kombination von mogul-indischem Dekor und moderner Architektur. In der Stadt befindet sich die Faisal-Moschee, bekannt für ihre auffällige Bauweise und enorme Größe. Die Quaid-i-Azam-Universität befindet sich in Islamabad, ebenso die Regierungsgebäude wie das Gebäude der Nationalversammlung, des Obersten Gerichtshofs und das des Präsidenten. Auch die meisten ausländischen Botschaften befinden sich heute in Islamabad. Ein weiteres Wahrzeichen der Stadt ist ein riesiger, silberner Globus, errichtet 2004 im Zuge Pakistans Ausrichtung des SAARC-Gipfels. Wichtigste Sportstätte in Islamabad ist das Jinnah-Stadion. Die Stadt ist heute im Zuge vergangener Anschläge von zahlreichen Sicherheitsmaßnahmen geprägt. Die großen Luxushotels Serena und Marriott, aber auch beispielsweise das Fastfood-Restaurant McDonald’s, gleichen abgeschirmten Festungen. Vor Einfahrt mit einem Fahrzeug wird dieses von privatem Wachpersonal mittels Spiegeln und Unterbodenkamera sowie teils auch mit Bombenspürhunden auf Sprengstoff und Waffen hin kontrolliert. An gefährdeten Gebäuden wurden vielfach meterhohe Bombenschutzmauern errichtet und ganze Straßenzüge für den allgemeinen Verkehr gesperrt. Das Straßenbild zeichnet sich, insbesondere sobald man sich dem Regierungs- und dem Botschaftsviertel nähert, durch bewaffnete Check-Points zur Fahrzeug- und Personenkontrolle sowie durch eine Vielzahl von Fahrbahnhindernissen aus. Istanbul. Die historische Halbinsel und UNESCO-Weltkulturerbe (Luftbild) Luftaufnahme des Goldenen Horns – Halic Istanbul Blick auf Istanbul bei Nacht. Istanbul (), früher "Konstantinopel", ist die bevölkerungsreichste Stadt der Türkei und deren Zentrum für Kultur, Handel, Finanzen und Medien. Mit rund 14,37 Millionen Einwohnern nahm sie 2014 den 23. Platz unter den größten Metropolregionen der Welt ein. Mit jährlich mehr als 11 Millionen Touristen aus dem Ausland zählt Istanbul überdies zu den zehn meistbesuchten Städten der Welt. Die Stadt liegt am Nordufer des Marmarameeres auf beiden Seiten des Bosporus, also sowohl im europäischen Thrakien als auch im asiatischen Anatolien. Aufgrund ihrer weltweit einzigartigen Transitlage zwischen zwei Kontinenten und zwei Meeresgebieten, dem Schwarzen und dem Mittelmeer, verzeichnet sie einen bedeutenden Schiffsverkehr und verfügt über zwei große Flughäfen sowie zwei zentrale Kopf- und zahlreiche Fernbusbahnhöfe. Istanbul ist daher einer der wichtigsten Knotenpunkte für Verkehr und Logistik auf internationaler wie nationaler Ebene. Im Jahr 660 v. Chr. unter dem Namen "Byzantion" gegründet, kann die Stadt auf eine 2600-jährige Geschichte zurückblicken. Fast 1600 Jahre lang diente sie nacheinander dem Römischen, dem Byzantinischen und dem Osmanischen Reich als Hauptstadt. Als Sitz des ökumenischen Patriarchen und - bis 1924 - des osmanischen Kalifats war Istanbul zudem jahrhundertelang ein bedeutendes Zentrum des orthodoxen Christentums und des sunnitischen Islams. Das Stadtbild ist von Bauten der griechisch-römischen Antike, des mittelalterlichen Byzanz sowie der neuzeitlichen und modernen Türkei geprägt. Paläste gehören ebenso dazu wie zahlreiche Moscheen, Cemevleri, Kirchen und Synagogen. Aufgrund ihrer Einzigartigkeit wurde die historische Altstadt von der UNESCO zum Weltkulturerbe erklärt. 2010 war Istanbul "Kulturhauptstadt Europas". Geographie. Istanbul liegt im Westen der Türkei und umschließt den Bosporus. Das Goldene Horn, eine nach Westen verlaufende Bosporusbucht, trennt den europäischen Teil in einen südlichen und nördlichen Bereich. Der südliche Teil ist eine zwischen Marmarameer und Goldenem Horn liegende Halbinsel mit dem historischen Kern der Stadt. Nördlich davon liegen die an das historische Galata und Pera anschließenden Stadtteile. Sowohl nach Westen als auch nach Norden und Osten wächst die Metropole weit über die historischen Stadtteile hinaus. Im Südosten liegen die zu Istanbul gehörenden Prinzeninseln. Das Stadtgebiet besitzt eine Ausdehnung von etwa 50 km in Nord-Süd-Richtung und rund 100 km in Ost-West-Richtung. Das Verwaltungsgebiet der Metropolregion ist mit der Provinz Istanbul identisch und hat eine Fläche von 5.343,02 km², von denen aber nur 1.830,92 (34,2 %) zur eigentlichen Stadt gehören. Der Rest mit 3.512,1 km² (65,8 %) bestand 2009 aus Vorstädten und Gebieten mit ländlicher Siedlungsstruktur. Geologie. Istanbul liegt nördlich der Nordanatolischen Verwerfung, die sich vom nördlichen Anatolien bis zum Marmarameer erstreckt. Die Anatolische Platte schiebt sich hier westwärts an der nördlichen Eurasischen Platte vorbei. Entlang der dadurch entstandenen Transformstörung ereigneten sich allein zwischen 1711 und 1894 66 größere Beben. Bekannt ist das Beben von 447, bei dem 57 Türme der Landmauer einstürzten, und jenes von 559, bei dem Teile der Kuppel der Hagia Sophia wenige Jahre nach der Fertigstellung in die Kirche stürzten. Eines der schwersten Beben, verbunden mit einer gigantischen Flutwelle, die über die Seemauern der Stadt einbrach, ereignete sich 1509. Dabei wurden schätzungsweise 5.000 bis 13.000 Menschen getötet sowie 109 Moscheen und 1.070 Häuser zerstört. Zudem wurde die in Istanbul liegende Flotte vernichtet. Das nächste starke Beben folgte 1557. 1690 und 1719 richteten Beben beträchtliche Schäden an den Land- und Seemauern an. Gedenkinschriften, die an den Stadttoren nach der Wiederherstellung durch Sultan Ahmed III. angebracht wurden, künden davon. Am 22. Mai 1766 wurde das Bethaus der Fatih-Moschee weitgehend zerstört. 1894 stürzten bei einem Beben weite Teile des Gedeckten Basars ein, dessen breiteste Straße erst nach dieser Katastrophe entstanden ist. Diesem Beben fielen auch die meisten Mosaiken der Hagia Sophia zum Opfer. Geologen prognostizieren ein weiteres Beben ab Stärke 7,0 bis 2025. Die verheerenden Beben vom August 1999 bei Kocaeli mit mehr als 17.000 Toten und im Winter 2002 in der Provinz Afyon sollen Vorboten gewesen sein. Stadtgliederung. Das Verwaltungsgebiet der Großstadtkommune ("Büyükşehir Belediyesi") Istanbul gliedert sich in 39 Stadtteile. Davon entfallen 25 auf den europäischen Teil und 14 auf den asiatischen. Das alte, im Süden der europäischen Seite gelegene Stadtzentrum des einstigen Konstantinopel mit den Stadtteilen Eminönü und Fatih wird durch das Goldene Horn von den nördlicher gelegenen, jüngeren Stadtteilen getrennt und im Westen von der Theodosianischen Landmauer begrenzt. Westlich der Mauer liegt der Stadtteil Eyüp und dahinter und entlang des Marmarameeres liegen neue Wohn- und Gewerbegebiete, die inzwischen sogar bis über den Flughafen hinaus weit nach Westen reichen. Alt-Istanbul im Stadtteil Fatih wird vor allem von den Großmoscheen und einer ehemaligen Kirche geprägt. Um die römische Kontinuität zu betonen, kam im 10. Jahrhundert die Vorstellung auf, Konstantinopel würde wie Rom auf sieben Hügeln ruhen. Obwohl diese Vorstellung ein Konstrukt späterer Zeit und topographisch kaum haltbar (Die „Hügel“ sind zwischen 40 und 70 m hoch, zum Vergleich: Das Valens-Aquädukt misst 61 m in der Höhe) ist, findet sich die Sieben-Hügel-Teilung in der Literatur wieder. Auf dem ersten Stadthügel liegt demzufolge die Hagia Sophia und knapp dahinter die Sultan-Ahmed-Moschee, auf dem zweiten die Nuruosmaniye-Moschee, auf dem dritten die Süleymaniye-Moschee, auf dem vierten die Fatih-Moschee Sultan Mehmeds II., auf dem fünften die Sultan-Selim-Moschee, auf dem sechsten die Mihrimah-Sultan-Moschee und auf dem siebenten, nicht vom Goldenen Horn einsehbaren Stadthügel, die Haseki-Hürrem-Sultan-Moschee. Zum Stadtbild von Fatih gehören ebenfalls die in osmanischer Tradition gebauten Holzhäuser. Nördlich des Goldenen Horns befinden sich die europäisch geprägten Stadtteile Beyoğlu und Beşiktaş, wo sich der letzte Sultanspalast, der Çırağan-Palast, befindet, gefolgt von einer Kette ehemaliger Dörfer wie Ortaköy, Bebek und Sarıyer am Ufer des Bosporus. Hier errichteten wohlhabende Istanbuler bis Anfang des 20. Jahrhunderts luxuriöse Holzvillen, Yalı genannt, die als Sommerwohnsitze dienten. Die auf der asiatischen Seite liegenden Stadtteile Kadıköy und Üsküdar waren ursprünglich selbstständige Städte. Heute sind sie vor allem Wohn- und Geschäftsviertel, in denen etwa ein Drittel der Istanbuler Bevölkerung wohnt. Hieran anschließend wurden entlang dem Bosporus und dem Marmarameer sowie ins asiatische Hinterland hinein Dörfer und Stadtteile großflächig ausgebaut und neu erschlossen. In Beykoz liegen wie am gegenüber liegenden Bosporusufer viele osmanische Yalıs. Bedingt durch das starke Bevölkerungswachstum machen den größten Teil der Stadtfläche heute die im Hinterland entstandenen Stadtteile wie Bağcılar, Bahçelievler, Küçükçekmece, Sultangazi im europäischen Teil, Maltepe, Pendik und Sultanbeyli im asiatischen Teil aus. Sie wurden teilweise als Gecekondular (‚über Nacht errichtet‘) errichtet und erst nach Jahren oder Jahrzehnten an die städtische Infrastruktur angeschlossen. Ein Drittel der neu zugezogenen Istanbuler lebt in solchen informellen Siedlungen oder Elendsvierteln. Seit den 1980er Jahren sind unter enormer Anteilnahme der Öffentlichkeit einige der Gecekondus von der Stadt abgerissen worden. Der weitaus größere Teil hat sich dagegen zu infrastrukturell vollwertigen Stadtvierteln entwickeln können. Istanbul ist die einzige Metropole eines Schwellenlandes, die keine flächendeckenden Elendsviertel besitzt. Gehobene Büro- und Wohnviertel entstehen unter anderem im Norden auf Höhe der zweiten Bosporusbrücke oberhalb von Bebek in den Vierteln Levent, Etiler und Maslak. Aber auch im Westen in Bakirköy und Başakşehir und im Osten auf der asiatischen Seite gibt es gehobene Büro- und Wohnviertel. Klima. Die Stadt hat aufgrund ihrer Lage zwischen Mittelmeer und Schwarzem Meer ein mildes, feuchtes Seeklima. Die durchschnittliche Jahrestemperatur liegt bei 14 °C. Die wärmsten Monate sind Juli und August mit durchschnittlich über 22 °C, die kältesten Januar und Februar mit etwas über 5 °C. Die Sommertemperaturen können während der Hitzeperioden, die oft mehrere Tage andauern und von Juni bis August auftreten, bis über 30 °C im Schatten erreichen. Der Winter ist kühl bis kalt und wie die anderen Jahreszeiten wechselhaft. Es gibt frühlingshafte Sonnentage, aber auch Regen und Kälteeinbrüche und häufig Schneefälle. Die durchschnittliche jährliche Niederschlagsmenge liegt bei 850 Millimeter. Die meisten Niederschläge fallen in den Monaten November und Dezember mit durchschnittlich 110 und 124 mm, die geringsten Niederschläge werden für die Monate Mai, Juni und Juli mit je 36, 37 und 39 mm im Mittel verzeichnet. Heftige Niederschläge und Überschwemmungen treten in allen Jahreszeiten auf. Demnach wird in Istanbul am häufigsten der Nordwind Meltem beobachtet, der besonders im Sommer mit höheren Geschwindigkeiten verbunden ist und meist maritime, gut durchmischte und saubere Meeresluft bringt. Das zweite Maximum ist der Südwind Scirocco, der oft kennzeichnend für Hochdruckwetterlagen kontinentaler Luftmassen ist, was je nach Jahreszeit zu sehr heißen beziehungsweise sehr kalten Tagen führen kann. Flora und Fauna. In Istanbul finden sich Pflanzen, die der Flora der Stadt einen vorwiegend mitteleuropäischen und zugleich mediterranen Charakter verleihen, besonders auf den Prinzeninseln. So finden sich auf Çamlıca oder Sarıyer im Norden unter anderem Stieleichen, Buchen und Kastanien, auf den Prinzeninseln im Süden kleine Pinienwälder und Kermes-Eichen. Anzutreffen sind dort und in den südlichen Teilen der Stadt Zedern-Wacholder, Pistazien, Zypressen, Kretische Zistrose, Schlehdorn und Mäusedornarten. Die großen Wälder, die die Stadt im europäischen und asiatischen Teil im Norden umgeben, haben einen mitteleuropäischen Charakter. So kommen im Belgrader Wald ("Belgrad Ormanı") verschiedene Eichenarten vor, darunter die Traubeneiche und die Ungarische Eiche, zudem Hainbuchen, Hänge- und Moor-Birken, Türkenbundlilien, Wald-Bingelkraut, Großes Hexenkraut und Zweiblättriger Blaustern. Mit ungefähr 2.500 verschiedenen natürlich vorkommenden Pflanzenarten stellen Provinz und Stadt Istanbul, deren Gesamtfläche nur 5.343,02 km² beträgt, ganze europäische Länder, wie das Vereinigte Königreich in den Schatten. Istanbul alleine beherbergt etwa ein Viertel von mehr als zehntausend dokumentierten Pflanzenarten, die in der Türkei vorkommen. Einige dieser Pflanzen sind endemisch. Laut der "Generaldirektion für Forstwirtschaft" ("„Orman Genel Müdürlüğü“") sind 44 % der Provinz Istanbul von Wäldern bedeckt. Für eine Großstadt existiert hier eine reiche Tierwelt. Das salzreichere Wasser des Marmarameeres vermischt sich mit dem salzärmeren des Schwarzen Meeres am Südausgang des Bosporus am stärksten, was einen relativen Fischreichtum zur Folge hat. Charakteristisch ist hier die Sardelle, aber auch Delfine lassen sich gelegentlich beobachten, seitdem durch den Bau von Kläranlagen die Wasserqualität von Bosporus und Marmarameer gestiegen ist. Die Wälder beherbergen über 71 Vogel- und 18 Säugetierarten. Es besteht ein Jagdverbot. In den Wäldern sind daher Wildschweine, Wölfe, Goldschakale, Füchse, Rothirsche, Damhirsche und Rehe verbreitet. Die Stadt ist Ziel von Vogelfreunden aus aller Welt, die den alljährlichen Vogelzug beobachten wollen. Etwa 500.000 Weißstörche und damit der Großteil der europäischen Population überfliegen von Ende Juli bis Mitte September den Bosporus in zwei Wellen. Der Höhepunkt der Schwarzstorchwanderung ist Ende September. Auch den Greifvogelzug kann man an günstigen Tagen mit bis zu tausend Vögeln täglich beobachten. Dazu zählen Wespenbussard, Schreiadler, Schelladler, Sperber und weitere Bussardarten. Seltener lassen sich Schmutzgeier, Kaiseradler, Zwergadler, Schlangenadler und Weihen beobachten, obwohl von letzteren alle europäischen Arten durchziehen. Möwen auf einem Dach; im Hintergrund zwei osmanische Großmoscheen Wie in vielen anderen Großstädten ist die Vogelwelt vor allem durch die Stadttaube, die wohl im 19. Jahrhundert aus Algerien oder Tunesien eingeführte Palmtaube und durch Möwen vertreten. Auf manchen Innenstadtplätzen, etwa vor der Beyazıt-Moschee oder vor der Yeni-Moschee, leben große Populationen. Seltener trifft man auf andere Taubenarten sowie auf Haussperling, Graureiher und den Schwarzen Milan. Häufiger hingegen sind Alpensegler, Girlitz, Samtkopf-Grasmücke, Kormoran und Mittelmeer-Sturmtaucher. Streunende Katzen sind im Stadtbild allgegenwärtig. Sie leben teilweise einzeln, teilweise auch in großen Gruppen zusammen. Sie ernähren sich von Abfällen, werden aber auch häufig von Menschen gefüttert. In geringerem Maße sind außerdem halbwilde Hunde anzutreffen. Umweltprobleme. Das Wachstum der Stadt, die hohe Industrie- und Verkehrsdichte führen zu erheblichen Umweltproblemen. Gegen die Luftverschmutzung wurden durch den Einsatz von Erdgas Erfolge erzielt, ähnliches gilt für das Müllproblem. Dennoch werden Luft und Wasser durch die zahlreichen Fabriken, Kraftfahrzeuge und privaten Haushalte weiterhin belastet. Besondere Umweltprobleme ergeben sich zudem aus dem Verkehrslärm sowie aus der oft direkten Nachbarschaft von ärmeren Wohngebieten und Industrieanlagen. Überschwemmungen bringen immer wieder Müll in die Kanalisation und führen dabei zu deren Verstopfung und erhöhen gleichzeitig die Gefahr von Infektionskrankheiten. Die Ursache zahlreicher Probleme liegt in der Infrastruktur, die mit dem enormen Bevölkerungswachstum seit den 1980er Jahren nicht Schritt halten konnte. Den Weltentwicklungsindikatoren der Weltbank für 2012 zufolge ist Istanbul, was die Schwefeldioxid-Luftverschmutzung angeht, die Stadt mit den siebtschlechtesten Werten auf dem Globus. Byzantion. Um 660 v. Chr. gründeten dorische Griechen aus Megara, Argos und Korinth Byzantion, eine Kolonie am europäischen Ufer des Bosporus. Die günstige geographische Lage ermöglichte der Siedlung bald, ein bedeutendes Handelszentrum zu werden. Ende des 6. Jahrhunderts geriet sie in die Auseinandersetzungen zwischen dem Perserreich und den griechischen Poleis, dann in die innergriechischen Konflikte. 513 v. Chr. eroberte der persische König Darius I. die Stadt, 478 wurde sie für zwei Jahre von Sparta besetzt. Danach wählte Byzantion die Demokratie als Regierungsform und schloss sich unter dem Druck Athens dem Attisch-Delischen Seebund an (bis 356). 340/339 widerstand die Stadt der Belagerung durch den makedonischen König Philipp II. Nach dem Zerfall des Makedonenreichs stellte sich die Stadt zunehmend auf die Seite des expandierenden Römerreichs und wurde 196 v. Chr. römischer Bundesgenosse. Diesen Sonderstatus büßte Byzantion erst unter Kaiser Vespasian ein. 196 ließ Septimius Severus die Stadt zur Strafe für die Unterstützung seines Gegners Pescennius Niger zerstören, doch wurde sie wieder aufgebaut. 258 wurde sie von Goten geplündert. 324 vereinigte Konstantin I. beide Teile des Römischen Reiches und am 11. Mai 330 taufte er die neue Hauptstadt auf den Namen "Nova Roma" (Neu-Rom). Sie wurde jedoch bekannter unter dem Namen Konstantinopel. Ihre Fläche verfünffachte sich binnen weniger Jahrzehnte. Westlich der von Konstantin errichteten Stadtmauer ließ Theodosius II. ab 412 eine noch heute erhaltene Mauer errichten, womit die Stadtfläche von sechs auf zwölf Quadratkilometer anwuchs. Aquädukte versorgten die inzwischen größte Stadt des Mittelmeerraums mit Wasser, Getreide wurde an große Teile der Bevölkerung ausgegeben. Byzanz. Konstantinopel im Mittelalter; italienische Darstellung von 1422 Nochmals unter Kaiser Justinian I. (527–565) wurde Konstantinopel prächtig ausgebaut (Hagia Sophia). Die Stadt war die mit Abstand reichste und größte Stadt Europas und des Mittelmeerraums und widerstand den beiden Belagerungen durch Araber in den Jahren 674–678 sowie 18 erfolgreich. Unter dem Druck der Seldschuken, die ab Mitte des 11. Jahrhunderts Kleinasien eroberten, verlor die Stadt zeitweise ihr östliches Hinterland. In dieser Situation erhielten die italienischen Städte, allen voran Venedig und Genua, Handelsprivilegien und ausgedehnte Wohnquartiere am Südufer des Goldenen Horns; die Genuesen ab 1267 in Pera am Nordufer. Zudem war 1054 die kirchliche Einheit zwischen der Römisch-Katholischen Kirche und der Orthodoxen Kirche zerbrochen. 1171 ließ Kaiser Manuel I. die Venezianer verhaften und ihr Eigentum konfiszieren. Venedig nutzte den Vierten Kreuzzug zur Rache, und 1204 eroberten Kreuzritter Konstantinopel. Die Stadt wurde geplündert, zahlreiche Einwohner wurden ermordet und Kunstwerke von unschätzbarem Wert gingen verloren. Auf rund 100.000 Einwohner reduziert, war die Stadt von 1204 bis 1261 die Hauptstadt des Lateinischen Kaiserreichs. 1261 gelang es Kaiser Michael VIII., Konstantinopel zurückzuerobern, doch hatte er sich noch zwei Jahrzehnte abermaligen Eroberungsplänen zu widersetzen. Die Stadt war seit dieser Zeit aber nicht mehr als das Zentrum einer Regionalmacht, deren Hinterland ab 1354 sukzessive von den Osmanen erobert wurde. Um 1400 bestand das Reich nur noch aus Konstantinopel mit seinem direkten Umland und kleinen Restgebieten im Norden (Thessaloniki) und Süden (Morea) Griechenlands. Noch einmal 1422 hielt die Stadt einer Belagerung durch Murad II. stand. Osmanisches Reich. Die Eroberung Konstantinopels aus einer französischen Chronik des 15. Jahrhunderts Am 5. April 1453 begann die letzte Belagerung durch osmanische Streitkräfte unter Sultan Mehmed II. Am Morgen des 29. Mai wurde die „seit langem verfallene Stadt“ besetzt. Konstantinopel – nun offiziell meist "Kostantiniyye" oder manchmal auch "İstanbul" genannt – wurde nach Bursa und Adrianopel (Edirne) zur neuen osmanischen Hauptstadt. Die teilweise zerstörte und entvölkerte Stadt wurde planvoll wieder besiedelt und aufgebaut. Die Macht des Reichs erreichte ihren Höhepunkt unter Sultan Süleyman I. (1520–1566), dessen Architekt Sinan das Stadtbild mit zahlreichen Moscheen, Brücken, Palästen und Brunnen prägte. Mit dem fortschreitenden Verfall des osmanischen Einflusses in der Region und der Verkleinerung des Reiches bis Anfang des 20. Jahrhunderts litt auch die kosmopolitische Bedeutung Konstantinopels. Die Schwäche des Reiches nach dem Balkankrieg 1912/1913 führte den europäischen Mächten und Russland die Gefahr eines Machtvakuums in den strategisch bedeutenden Meerengen vor Augen und warf die "orientalische Frage" nach Kontrolle über die Meerengen und Aufteilung des Reiches in Interessensphären auf. Der Sultan und die Jungtürken suchten die Unterstützung des Deutschen Reiches. Den Zugriff der Entente auf Konstantinopel konnte das Osmanische Reich im Ersten Weltkrieg auf Seiten der Mittelmächte 1915 in der Schlacht von Gallipoli verhindern. Dennoch war der Krieg verloren. Französische und britische Truppen besetzten ab dem 13. November 1918 die Metropole. Im Friedensvertrag von Sèvres vom 10. August 1920 wurde das Osmanische Reich unter den alliierten Siegermächten aufgeteilt und musste darüber hinaus gewaltige Gebietsverluste hinnehmen. Konstantinopel mit den Meerengen Bosporus und Dardanellen blieb fünf Jahre lang von den Alliierten besetzt. Griechenland forderte in Erinnerung an das als griechisch beanspruchte Byzanz die „Rückgabe“ Konstantinopels, das es zu seiner Hauptstadt machen wollte. Unter Mustafa Kemal, genannt "Atatürk", begann 1919 der türkische Befreiungskrieg, an dessen Ende die letzten Einheiten der alliierten Truppen am 23. September 1923 die Stadt verließen. Konstantinopel verlor in diesem Jahr seinen Status als Regierungssitz an Ankara, womit sich die neue Republik von der Tradition der Osmanen abgrenzen wollte. Türkische Republik. Schon während des Ersten Weltkriegs begann die Vertreibung der ersten der beiden großen christlichen Minderheiten, der Armenier. Nichtmuslime hatten bis etwa 1890 die Bevölkerungsmehrheit gestellt, ab diesem Zeitpunkt setzte eine stete Zuwanderung in die Stadt ein, deren Einwohnerzahl wenige Jahre später die Millionengrenze überschritt. Armenier waren seit dem 17. Jahrhundert verstärkt zugezogen, so dass um 1850 über 220.000 in Konstantinopel lebten. Damit stellten sie vielleicht ein Viertel bis ein Drittel der Bevölkerung. Die Alliierten suchten im Ersten Weltkrieg ihre Unterstützung. Am 24. April 1915, zwei Monate nach Beginn der Kämpfe um die Dardanellen, die zwischen dem 19. Februar 1915 und dem 9. Januar 1916 stattfanden, ließ die Regierung erstmals armenische Zivilisten aus Konstantinopel deportieren. Offiziell waren es 235, wahrscheinlich mehr als 400 der zu dieser Zeit noch 77.835 Armenier, die in der Hauptstadt lebten. Der Völkermord an den Armeniern fand überwiegend in Anatolien statt; die Armenier Istanbuls blieben bis 1923 weitestgehend verschont. Die genaue Einwohnerzahl der Stadt ist kaum mehr zu ermitteln. Sie lag um 1920 zwischen 800.000 und 1,5 Millionen, Deutlich ist nur, dass nach vier Jahrzehnten starken Bevölkerungswachstums die Einwohnerzahl geradezu einbrach. 1927 zählte man nur noch 691.000 Einwohner; während die nicht-muslimische Bevölkerung 1914 bei etwa 450.000 gelegen hatte, zählte sie 1927 nur noch 240.000. Damit stellte sie allerdings auch zu dieser Zeit noch fast ein Drittel der Bevölkerung. 84 % der Bevölkerung lebten zu dieser Zeit in Städten mit weniger als 10.000 Einwohnern, was bei der langsam einsetzenden Landflucht ein enormes Potential für die Zuwanderung nach Istanbul barg, das sich ab den 1950er Jahren zu entfalten begann. Während die Griechen, wohl etwa 1,2 Millionen, Anatolien verlassen mussten, durften alle Griechen, die am 30. Oktober 1918 in der Hauptstadt gewohnt hatten, dort bleiben. Doch trotz dieser Sondervereinbarung aus dem Jahr 1926 verließen weitere Griechen die Stadt; ein extremer Mangel an Handwerkern trat ein. 1942 wurden die Nichtmuslime zu einer besonderen Vermögenssteuer herangezogen (Varlık Vergisi), 1955 wurde nahezu die gesamte orthodoxe Bevölkerung beim Pogrom von Istanbul aus der Stadt vertrieben. Von den rund 110.000 Griechen blieben rund 2.500 in Istanbul. Heute leben rund 60.000 Armenier und 2.500 Griechen in der Stadt. Istanbul wuchs ab den 1950er Jahren rapide, sie zog und zieht bis heute zahlreiche Menschen aus Anatolien an. Seit den 90er Jahren kommen zahlreiche Osteuropäer in die Metropole. Es entstanden groß angelegte Bauprojekte; sie konnten mit dem rapiden Bevölkerungswachstum kaum Schritt halten. Zudem nahmen sie auf vorhandene Strukturen wenig Rücksicht. Istanbul dehnte sich weit in das Umland aus; zahlreiche Dörfer und Städte des Umlands zählen inzwischen zur Metropole. 1994 wurde der jetzige Staatspräsident Recep Tayyip Erdoğan als Kandidat der islamistischen Refah Partisi (RP) (Wohlfahrtspartei) Bürgermeister. Der jetzige Bürgermeister Kadir Topbaş ist Mitglied der islamisch-konservativen Adalet ve Kalkınma Partisi (AKP). Im November 2003 wurde die Stadt von einer Serie schwerer Anschläge erschüttert. Der Anschlag in einem Internet-Café am 9. Februar 2006 kostete einen Menschen das Leben, sechs Menschen wurden vier Tage später durch einen Anschlag in einem Supermarkt verletzt. Am 28. Mai 2013 begannen am Taksim-Platz Demonstrationen. Sie begannen als Proteste gegen ein geplantes Einkaufszentrum bzw. gegen das Abholzen des Gezi-Parks; nach einem brutalen Polizeieinsatz am 31. Mai 2013 wandelten sie sich zu Protesten gegen die Regierung Erdogan und Erdogans Regierungsstil (→ Proteste in der Türkei 2013). Entwicklung des Namens. Istanbuls unterschiedliche Namen auf osmanischen Poststempeln von 1880 bis 1925 Der ursprünglich altgriechische Name der Stadt, "Byzantion" (), geht auf den legendären Gründer der Stadt, Byzas, zurück, der aus Megara in Attika stammte. Er war einem Orakelspruch der Pythia gefolgt. Zu Ehren des römischen Kaisers Constantinus, der Byzantion zur Hauptstadt ausbauen ließ, wurde die Stadt im Jahr 324 in "Constantinopolis" (latinisiert; altgr. "Konstantinoupolis" ‚Stadt des Constantin‘) umbenannt. Auf "Constantinopolis" gehen die deutsche Form "Konstantinopel" und zahlreiche weitere Namensformen zurück. Auf Arabisch wurde Konstantinopel genannt, im Armenischen "Gostantnubolis" und im Hebräischen "Kuschta" (). In vielen slawischen Sprachen hieß die Stadt "Cari(n)grad" (‚Stadt des Kaisers‘). Bis 1930 gab es keine fortdauernde und eindeutige offizielle Namensform. In osmanischen Urkunden, Inschriften etc. wurde die Stadt in der Regel mit ihrer vom Arabischen abgeleiteten Namensform bezeichnet. Man findet aber auch "şehir-i azima" (‚die großartige Stadt‘), die französisierten Formen "Constantinople" und "Stamboul" sowie ab dem 19. Jahrhundert vermehrt die Bezeichnung. Weitere Bezeichnungen waren etwa "darü’s-saltanat-ı aliyye", "asitane-i aliyye" und "darü’l-hilafetü ’l aliye" und im Sinne von "Residenz". Datei:Istanbul 1521.png|mini|links|Aus dem Feldzugstagebuch Süleyman I., 1521:"„[…] und fuhr nach der Stadt Istanbul ab …]“" (Hervorhebung ediert 2007) Bei "Istanbul" handelt es sich möglicherweise um die türkische Abwandlung des altgriechischen, eher aber („in die Stadt“), nach altgriechischer Aussprache seit byzantinischer Zeit etwa "istimbólin" bzw. "istambólin". Diese Deutung erscheint sinnfällig, da man in der Spätantike und im frühen Mittelalter im Oströmischen Reich von Konstantinopel sprach, wenn man umgangssprachlich „die Stadt“ sagte, da sie mit ihren fünfhunderttausend Einwohnern und ihren mächtigen Mauern mit keiner anderen Stadt im weiten Umkreis verglichen werden konnte. Wie das antike Rom war sie ein Musterbeispiel einer Stadt, sie war das wirtschaftliche, kulturelle und politische Zentrum. Konstantinopel galt wie vormals Rom als Zentrum der Welt. Reich wie Hauptstadt brauchten daher eigentlich keinen Namen, da sie einzig waren (der Kaiser sah sich nicht als Kaiser von Byzanz oder Konstantinopel, sondern als Kaiser „urbis et orbis“). Am 28. März 1930, in der Frühzeit der Republik, wurde "İstanbul" zum offiziellen Namen der gesamten Stadt. Da die Stadt in osmanischen Schriften und im türkischen Volksmund schon seit langem im engeren Sinn so genannt wurde, war dies eigentlich keine Neubenennung. In den meisten europäischen Ländern (außer zum Beispiel Griechenland und Armenien) verdrängte die Bezeichnung "Istanbul" allmählich die Bezeichnung "Konstantinopel" beziehungsweise deren Varianten aus dem Sprachgebrauch. Meist in Bezug auf das historische, vorosmanische Konstantinopel beziehungsweise Byzanz wird die altgriechisch-römische Namensgebung in der Fachliteratur jedoch auch weiterhin verwendet. Brände . Folgen eines Brandes in der Istanbuler Altstadt Einige Gründe für die verheerende Wirkung der Brände lagen in der dichten, bis weit ins 20. Jahrhundert hinein vorwiegend aus Holzhäusern bestehenden Bebauung der Stadt, den häufig wehenden Winden und der Siedlungsstruktur, die oft aus weitgehend in sich abgeschlossenen Vierteln (Mahalle) mit Sackgassen bestand und eine schnelle Brandbekämpfung erschwerte. Nach Großbränden wurden Dekrete erlassen, dass Häuser in der Nähe von sozialen, wirtschaftlichen und öffentlichen Gebäuden ebenfalls aus Stein oder Ziegeln sein sollten. Diesen Anordnungen wurde jedoch nicht immer Folge geleistet. In osmanischer Zeit waren unter anderem die Wasserträger-Gilde und die Janitscharen für die Brandbekämpfung zuständig, ab 1718 wurden Feuerwehrwagen mit Wasserpumpen sowie neu gegründete Feuerbrigaden eingesetzt. Bevölkerungsentwicklung. Einwohnerentwicklung in den letzten 100 Jahren Die Einwohnerzahl stieg von 680.000 im Jahre 1927 auf 1,3 Millionen 1955, 2,5 Millionen 1975, 9,8 Millionen 2005 und auf über 13 Millionen 2010. Von den 13.120.596 Einwohnern im Jahr 2010 lebten etwa 65 Prozent im europäischen Teil von Istanbul und rund 35 Prozent auf der asiatischen Seite. Die folgende Übersicht zeigt die Einwohnerzahlen nach dem jeweiligen Gebietsstand. Bis 1914 handelt es sich meist um Schätzungen, mit großen Unsicherheiten. Der auffällige Rückgang der Bevölkerungszahl um 1900 bis 1927 ist Ausdruck der Vertreibung der griechischen Bevölkerung. Die Zahlen von 1927 bis 2000 sind Ergebnisse von Volkszählungen. Die Zahlen von 2005 und 2006 beruhen auf Hochrechnungen, die ab 2007 sind Ergebnisse von Volkszählungen. Die Verdoppelung der Bevölkerung zwischen 1980 und 1985 ist auf Zuzug, natürliche Bevölkerungszunahme und auch auf Erweiterungen der Stadtgrenze zurückzuführen. Die Einwohnerzahlen in der folgenden Tabelle beziehen sich auf die Stadt in ihren politischen Grenzen, ohne selbstständige Vororte. Ethnische Minderheiten. Kurden und Zaza bilden zusammen die größte Gruppe ethnischer Minderheiten in Istanbul. Die größte unter den traditionell noch dort lebenden christlichen Bevölkerungsgruppen sind Armenier. Die Zahl der Armenier in Istanbul wird von der Regierung mit 45.000 angegeben, was etwa 0,36 Prozent der Bevölkerung entspricht. Etwa 17.000 Aramäer bilden danach die zweitgrößte christliche Ethnie. Die 22.000 Juden bilden die zweitgrößte religiöse Minderheit. Einige der etwa 25.000 Bosporus-Deutschen stammen aus Familien, die oft schon seit der ersten Hälfte des 19. Jahrhunderts dauerhaft in Konstantinopel beziehungsweise Istanbul lebten. Die rund 1.650 Griechen gehören teilweise zu den seit vielen Generationen ursprünglich Ansässigen. Die Zahl der Russen wird, folgt man der Neuen Zürcher Zeitung, auf etwa 100.000 geschätzt, die der Chinesen soll noch höher liegen. Istanbul war auch ein Zufluchtsort für Russen aufgrund der kommunistischen Oktoberrevolution. Weitere Bevölkerungsgruppen sind Lasen, Araber, Tscherkessen und Roma. Eine kleine polnische Gemeinde existiert in Polonezköy (,), das etwas über 400 Einwohner hat. Religionen. Der weitaus größte Teil der Bevölkerung bekennt sich zum Islam. Noch um die Wende vom 19. zum 20. Jahrhundert war die Mehrheit der Einwohner Nichtmuslime, zu denen die griechisch-orthodoxen Christen, die syrisch-orthodoxen Aramäer, die armenischen Christen und die sephardischen Juden gehörten. Sie bilden heute nur noch eine kleine Minderheit. Neben islamischen Sakralbauten gibt es auch christliche Kirchen unterschiedlicher Bekenntnisse und Synagogen in prominenter Lage, wie zum Beispiel Sankt Stefan (ehemaliger Sitz der bulgarisch-orthodoxen Kirche) am Goldenen Horn oder die Agia Triada am Taksim-Platz. In einigen Stadtteilen, wie zum Beispiel im Viertel Kuzguncuk, sind die Einrichtungen verschiedener Religionen dicht benachbart. Die Stadt ist Sitz des Ökumenischen Patriarchen von Konstantinopel, dem unter anderem die meisten orthodoxen Kirchen in der heutigen Türkei unterstehen und der darüber hinaus den Ehrenvorrang über alle orthodoxen Kirchen genießt. Weiterhin residieren hier ein armenischer Erzbischof und der türkische Oberrabbiner. Muslime. Muslime unterschiedlicher Glaubensrichtungen bilden die größte Religionsgruppe. Die meisten sind Sunniten, 15 bis 30 Prozent zählen sich zu den Aleviten. Insgesamt gibt es 2.562 Moscheen, 215 Kleinmoscheen (türk. "Mescit") und 119 Türben. Am 2. September 1925 wurden unter Kemal Atatürk die zahlreichen Derwisch-Orden (Tariqas) verboten. Die meisten Anhänger des Sufismus, der islamischen Mystik, agierten daraufhin im Geheimen oder gingen ins Ausland (z. B. nach Albanien). Manche von ihnen haben heute eine große Anhängerschaft. Um dem Verbot zu entgehen, treten diese aber meist als „Kulturvereine“ auf. Landesweit bekannt ist die İsmail-Ağa-Gemeinde in Fatih. Christen. Die Stadt ist der Sitz des ökumenischen Patriarchen, der als "primus inter pares" als oberster Repräsentant der orthodoxen Kirchen fungiert. Der griechisch-orthodoxe Ökumenische Patriarch von Konstantinopel mit Sitz in Fener ist seit 1991 Bartholomäus I. Er ist der 270. Nachfolger des Apostels Andreas und somit faktisches (Ehren-)Oberhaupt von etwa 300 Millionen orthodoxen Christen. Auch die Sitze des armenischen Patriarchen, des Erzbischofs der syrisch-orthodoxen (aramäischen) Gemeinde und eines apostolischen Vikars der römisch-katholischen Kirche befinden sich in Istanbul. In Istanbul sind mit knapp 85.000 Christen rund 85 Prozent der gesamten Christen in der Türkei beheimatet, deren Zahl landesweit etwa 100.000 beträgt. Die Zahl der Armenier beläuft sich auf etwa 45.000 (35 Kirchen), die der Aramäer auf 12.000, der Bosporus-Deutschen auf 10.000 und der Griechen auf 1.650 (5 Kirchen). Einige orthodoxe Kirchen unterstehen anderen Patriarchaten wie etwa die bulgarisch-orthodoxe Kirche St. Stefan. Neben den Levantinern und anderen nicht-orthodoxen Gemeinden gibt es auch je eine deutsche evangelische und eine deutsche katholische Kirchengemeinde sowie um das St. Georgs-Kolleg eine österreichische katholische Gemeinde. Juden. Die sephardischen türkischen Juden leben in der Stadt seit über 500 Jahren. Sie flohen 1492 von der iberischen Halbinsel, um der Zwangstaufe infolge des Alhambra-Edikts zu entgehen. Sultan Beyazit II. (1481–1512) schickte eine Flotte nach Spanien, um die sephardischen Juden zu retten. Mehr als 200.000 von ihnen flohen zunächst nach Tanger, Algier, Genua und Marseille, später nach Saloniki und Istanbul. Der Sultan gewährte über 50.000 dieser spanischen Juden Zuflucht. In Istanbul leben heute nur noch etwa 22.000; sie stellen etwa 0,2 Prozent der Bevölkerung. Insgesamt sind 16 Synagogen in der Stadt zu finden, die bedeutendste von ihnen ist die 1951 eingeweihte Neve-Schalom-Synagoge im Stadtteil Beyoğlu, auf die drei terroristische Anschläge verübt wurden (am 6. September 1986, 1. März 1992 und 15. November 2003). Istanbul ist Sitz des Hahambaşı, des türkischen Oberrabbiners. Das einzige jüdische Museum in der Türkei, die "500. Yıl Vakfı Türk Musevileri Müzesi", befindet sich in Beyoğlu. Das Museum wurde am 25. November 2001 fertiggestellt und der derzeitige Kurator ist Naim Güleryüz. Entwicklung der Wohnsituation. Die Stadtteile Bakırköy und Beylikdüzü im europäischen Teil, die zusammen rund 400.000 Einwohner haben, und Maltepe im asiatischen Teil, das eine ähnliche Einwohnerzahl aufweist, sind seit den 1980er Jahren zügig angewachsen und bestehen überwiegend aus Hochhäusern. Insbesondere Etiler im Stadtteil Beşiktaş hat sich seit den 1990er Jahren zu einem der wohlhabendsten Viertel entwickelt. Nachdem die meisten Baulücken im innerstädtischen und innenstadtnahen Bereich geschlossen wurden, bestehen dort kaum noch Möglichkeiten zur Erholung, sieht man vom häufig frequentierten Gülhane und vom Yıldız-Park ab. Die immense Zuwanderung führte dazu, dass an der Peripherie illegale Siedlungen (Gecekondus) entstanden, von denen Istanbul die meisten in der Türkei aufweist. Knapp ein Viertel der Istanbuler lebt in den etwa 750.000 Wohngebäuden solcher Siedlungen. Über 50 Prozent ihrer Bewohner sind arbeitslos oder unversichert beschäftigt. Die Kriminalität ist höher als in anderen Quartieren, sozial an den Rand gedrängte Bevölkerungsgruppen und eine geringe Präsenz staatlicher Organisation kennzeichnen darüber hinaus diese Quartiere. Die größten "Gecekondu"-Viertel liegen auf der europäischen Seite. Dabei kommt es in Fatih, wie etwa in Balat, dem einst von Juden bewohnten Viertel, dem bis 2007 ein Restaurierungsprogramm galt, und Sulukule, wo vor allem Roma wohnen, die sich gegen die Umsiedlung von 3.500 Einwohnern wehren, zu starken Spannungen. Gazi Mahallesi und Habipler im Stadtteil Sultangazi, das rund 450.000 Menschen beherbergt, sowie Seyrantepe im Stadtteil Şişli und Tarlabaşı im Stadtteil Beyoğlu (245.000) kommen hinzu. Auf der asiatischen Seite sind dies Gülsuyu im Stadtteil Maltepe (420.000). Einzelne Gecekondus sind überwiegend in den Stadtteilen Bağcılar, Bahçelievler, das 1950 noch rund 800, 2007 jedoch fast 600.000 Einwohner hatte, Küçükçekmece (670.000), Pendik (540.000) und Sultanbeyli (280.000) anzutreffen. Michael Thumann berichtet über die Gentrifizierung in Tarlabaşı, wo Alteigentümer mit Billigung der AKP-Regierung enteignet werden, um Neubauten zu errichten. Kriminalität. Die Kriminalitätsrate sank in Istanbul von 76.285 registrierten Straftaten im Jahre 2006 um 25 Prozent auf 57.123 registrierte Straftaten im Jahre 2007. Die Istanbuler Großstadtverwaltung hat beschlossen, 800 bis 900 Sicherheitskameras zu installieren. Stadtregierung. Bürgermeister von Istanbul ist seit 2004 der Architekt Kadir Topbaş von der islamisch-konservativen AKP. Er übernahm das Amt von seinem Vorgänger Ali Müfit Gürtuna (RP/FP/AKP), der ab November 1998 Bürgermeister war. Islamische Politiker regieren Istanbul somit seit 1994, als Recep Tayyip Erdoğan (damals ebenfalls RP, dann lange Vorsitzender der AKP und heute Präsident der Türkei) die Kommunalwahlen gewann. Die Stadt Istanbul hat ein Stadtparlament mit 300 gewählten Mitgliedern, darunter auch die 39 Bürgermeister der einzelnen Stadtteile. Europäische Kulturhauptstadt 2010. Am 11. April 2006 wurde die Stadt durch eine EU-Jury neben Essen und Pécs zur europäischen Kulturhauptstadt 2010 gewählt. Istanbul ist ebenso eines der islamischen Kulturzentren. Musik und Theater. Istanbul besitzt zahlreiche Theater, Opernhäuser und Konzerthäuser. Zu den bekanntesten gehört das "Show Center" Türker İnanoğlu Maslak in Maslak, das im November 2005 eröffnet wurde und von der "MEGA Company" betrieben wird. Hier finden Großveranstaltungen statt, die in der ganzen Türkei Beachtung finden. Das Center ist täglich geöffnet. Jährlich kommen etwa 450.000 Besucher allein zu den eigenen Veranstaltungen des Hauses. Der große Theatersaal bietet 1810 Sitzplätze, der kleine 380. In Kadıköy befinden sich das 1924–1927 erbaute und 2005–2007 renovierte Süreyya-Opernhaus und ein nach dem Schriftsteller Haldun Taner benanntes Theater. Zu den bekanntesten Orchestern gehört das Borusan Istanbul Philharmonic Orchestra (BIFO), das 1993 gegründet wurde. Sein erstes Konzert fand am 13. Mai 1999 im Yıldız-Palast statt. Seit 2008 steht das BIFO unter der Leitung des Österreichers Sascha Goetzel. Er wurde nach einem einjährigen Auswahlverfahren in der Saison 2007/2008, an dem Gastdirigenten aus vier Nationen teilnahmen, Musikdirektor des Sinfonieorchesters. Die Staatsoper ("Devlet Operası") mit ihrem bekannten Ballett und das staatliche Sinfonieorchester, die "İstanbul Devlet Senfoni Orkestrası", spielen im Haus am Taksim-Platz. Museen. Die bekanntesten Museen sind der Topkapı-Palast, die Hagia Sophia, die Chora-Kirche, das Archäologische Museum, das Museum für türkische und islamische Kunst, das Museum Istanbul Modern und der Dolmabahçe-Palast, ebenfalls ein früherer Sultanspalast, der im 19. Jahrhundert im neubarocken Stil erbaut wurde. 2014 wurde das Museum der Unschuld von Orhan Pamuk als Europäisches Museum des Jahres ausgezeichnet. Viele Nebengebäude der Moscheen wurden inzwischen in Museen verwandelt, die Einblicke in die Zeit der Osmanen gewähren. Es gibt auch noch weitere Kunstmuseen. Die wertvollsten Gemälde und Miniaturen der Türkei sind in den Museen von Istanbul zu finden. Antikes, byzantinisches und christliches Konstantinopel. Im Stadtbild der Altstadt sind immer noch die antiken Ursprünge zu entdecken. Dazu gehören die Konstantinssäule und Reste des Theodosius-Forums. Aufgrund der zahlreichen Erdbeben, Stadtbrände und der ökonomischen Situation am Ende des Byzantinischen Reiches war schon im 15. Jahrhundert ein Großteil der Gebäude verfallen. Einige Plätze und Bauwerke sind in der Anlage oder als Ruinen bis heute erhalten. Hierzu gehören die mächtige Theodosianische Landmauer und die Seemauern, das Studios-Kloster ("İmrahor Camii"), das Hippodrom mit einem Fassungsvermögen von bis zu 100.000 Zuschauern, das Konstantinsforum mit der Konstantinssäule, die Kaiserpaläste und der Porphyrogennetos-Palast ("Tekfur Sarayı"). Die meisten Gebäude sind umgenutzt und stark verändert worden. Kaum verändert wurde der Valens-Aquädukt, der auch nach 1453 die Wasserversorgung sicherstellte, die spätantike Zisterne Cisterna Basilica aus dem 6. Jahrhundert oder verschiedene Ehrensäulen, zum Beispiel der 20 m hohe Obelisk Thutmosis III. aus Rosengranit, der aus dem ägyptischen Dorf Karnak nach Konstantinopel gebracht und 390 n. Chr. auf der Spina des Hippodroms aufgestellt worden ist. Zu den militärischen Bauten gehört Yedikule („Burg der sieben Türme“) am Südende der Theodosianischen Landmauer, die im 5. Jahrhundert von Theodosius II. errichtet wurde. Der Leanderturm, der auf einer Bosporusinsel vor Üsküdar steht, befindet sich an einer Stelle, an der Alkibiades im 5. Jahrhundert v. Chr. eine Befestigung errichtete. Am Leanderturm soll das eine Ende der großen Kette befestigt worden sein, die bei Angriffen auf Byzanz über den Bosporus gespannt wurde. Fast unversehrt haben einige Kirchen zunächst als Moscheen, dann als Museen überlebt, wie die Hagia Sophia ("Ayasofya Camii", Kirche der Heiligen Weisheit), die 537 geweiht wurde, die Pammakaristos-Kirche ("Fethiye Camii"), die wohl im 11. Jahrhundert gegründet wurde, die spätbyzantinische Chora-Kirche ("Kariye Camii"), die in ihrer jetzigen Erscheinungsform im 14. Jahrhundert entstand und wertvolle Fresken zeigt sowie die Hagia Eirene, die als Arsenal umgenutzt wurde. Ebenfalls bedeutsame Zeugnisse byzantinischer Kunst sind die heutigen Moscheen Küçük-Aya-Sofya-Moschee (Sergios-und Bacchos-Kirche), die als Modell für die Hagia Sophia gedient haben kann, die Zeyrek-Moschee (Pantokrator-Klosterkirche) mit ihrem Opus-Sectile-Boden und die Kalenderhane-Moschee (Maria-Kyriotissa-Kloster). Letztere stammt in ihrer jetzigen Form aus dem 12. Jahrhundert. In ihr wurden die ältesten vorikonoklastischen Mosaiken Istanbuls gefunden. Die dort ab 1227 erstellten Fresken des Franz von Assisi werden heute im Archäologischen Museum ausgestellt. Der Galataturm, der das Nordende und die Hauptbastion der genuesischen Siedlung Galata war, gehört heute zu den bedeutendsten Bauwerken Istanbuls. Schon in vorosmanischer Zeit lebten Muslime innerhalb der Stadt. Die erste Moschee Konstantinopels und somit die erste Moschee in Südosteuropa soll schon im Jahr 718 entstanden sein. Osmanisches Konstantinopel. Die osmanische Architektur zeigt sich vor allem in den Palästen und Residenzen, den Moscheen und den zugehörigen Stiftungsgebäuden (Külliyen), den großen, mehrstöckigen Handelshäusern, Herbergen und Magazinen, den Basaren sowie den Schmuck- und Zweckbauten wie beispielsweise den großen am Bosporus gelegenen Fortifikationen Rumeli Hisarı und Anadolu Hisarı. Bürgerliche Wohnbauten galten hingegen lange Zeit als weniger schutzwürdig. Die osmanischen Sultane und ihre höchsten Würdenträger strebten sofort nach der Eroberung Konstantinopels danach, den Erfordernissen ihres Glaubensritus Genüge zu tun, sowie ihre Macht, ihren Anspruch und ihre Kultiviertheit zu demonstrieren. Dazu wurden Kirchen und Klöster in Moscheen umgewandelt und neue Moscheen errichtet. Beteiligt wurden, wie schon vor der Eroberung Konstantinopels, zahlreiche byzantinische Handwerker und Baumeister. So arbeiteten zum Beispiel beim Bau der Süleymaniye-Moschee im 16. Jahrhundert etwa 50 Prozent christliche Handwerker mit. Das Schema des Kuppelbaus der Hagia Sophia, bestehend aus zwei Halbkuppeln und zwei Schildwänden, die die Hauptkuppel stützen, wurde von zwei Sultansmoscheen übernommen: der Beyazıt-Moschee und der Süleymaniye-Moschee. Dies blieb allerdings die einzige größere Anleihe aus der Hagia Sophia, denn der osmanische Gebetsraum sollte auf die Betenden eine ganz andere Wirkung erzielen, als es der byzantinische Raum sollte. Statt einer mystischen Atmosphäre, deren Strukturen hinter goldenen Mosaiken verkleidet wurden und die eine Längsbetonung zur Apsis hat, wurden in den Moscheen die Strukturen hervorgehoben, die dem Betrachter die Statik und Grundelemente des Raumes vor Augen führten. Der querrechteckige Gebetsraum wird entsprechend dem Gebetsritus häufig betont und eine Kongruenz zwischen Außen- und Innenwirkung unter anderem durch die gänzlich unterschiedliche Lichtführung angestrebt. Bis Mitte des 16. Jahrhunderts bildete sich aus Einflüssen der frühosmanischen Architektur, der byzantinischen, der seldschukischen, der iranischen und gelegentlich der italienischen Renaissance-Architektur der klassische osmanische Baustil mit den so typisch im Stadtbild erscheinenden Kuppelkaskaden heraus. Diese Phase reichte bis ins 17. Jahrhundert. Maßgeblich daran beteiligt war der größte Architekt der Osmanen: Mimar Sinan. Er wirkte nicht nur architektonisch, sondern mit seinen sozialen Baukomplexen (Külliye) auch stadtplanerisch. Da schon vor der Eroberung weite Gebiete der einstmals prächtigen Metropole brach lagen, teilweise schon seit Jahrhunderten eher Gärten und Ansammlungen von Dörfern glichen, konnten die typischen islamischen durch Sackgassen geschlossenen Wohnquartiere entstehen. Dabei fungierte eine solche Külliye oft als Nukleus einer Besiedlung. In anderen Stadtteilen hingegen richteten sich die Bauten weiterhin an dem rechtwinkligen (hippodamischen) Straßennetz aus, wobei Moscheen aus diesem Schema ausbrachen, da sie Richtung Mekka weisen mussten. Dadurch ergeben sich zuweilen reizvolle architektonische Lösungen für die sie umgebenden Bauten. Während beim Bau von Külliyen Stein verwendet wurde, bestanden die Wohnhäuser und auch zahlreiche Paläste und Sommervillen zumeist aus Holz. Im 17. Jahrhundert endete die Zeit der osmanischen Großmoscheen, obwohl hier die Yeni-Moschee nach einer Bauunterbrechung vollendet wurde. Die Verzögerung hatte ihren Grund in wirtschaftlichen Schwierigkeiten, aber auch Palastintrigen und Unruhen, wie die Celali-Aufstände spielten eine Rolle. Der Beyazıtturm (links) und die Süleymaniye-Moschee (rechts) Ab dem 18. Jahrhundert geriet die Architektur immer mehr unter den Einfluss westeuropäischer Stile, wie der Barock der Nuruosmaniye-Moschee, der Beyazıt-Turm oder die barockisierende Laleli-Moschee zeigen. Allerdings gaben sich die Baumeister auf der Suche nach adäquaten Ausdrucksformen den modernen Kunststilen nicht völlig hin. Es wurden weiterhin Moscheen und Universitäten (Medrese) nach klassischem Vorbild gebaut, bereichert um westliche Architekturelemente. Es folgten unter Sultan Mahmud II. Bauten in einer Art Empire-Stil, zum Beispiel seine Türbe. Gleichzeitig wurden weiterhin barockisierende Gebäude errichtet, wie die Nusretiye-Moschee, deren Bauschmuck in einem verspäteten Louis-XV-Stil gehalten ist. Bald begannen Architekten neogotische Elemente zu verwenden, oft in einer eklektizistischen, historistischen Stilmischung, die noch die "Erste Nationale Architekturbewegung" charakterisierte. Im 19. Jahrhundert wurde die osmanische Baukunst fast ausschließlich von der armenischen Architekten-Familie Balyan betrieben. In der gleichzeitigen Anleihe bei verschiedensten westlichen Baustilen ist der Wunsch erkennbar, eine Synthese zu erschaffen, die den Reichsgedanken verkörpern sollte. Eine Besonderheit Istanbuls sind Straßenzüge mit meist mehrstöckigen osmanischen Holzhäusern. Man findet sie vor allem noch in Fatih und in Üsküdar. Charakteristisch sind auch Sommervillen aus Holz (Yalı) an beiden Ufern des Bosporus, die in jüngerer Zeit teilweise renoviert wurden. Die 1699 als Residenz eines Großwesirs erbaute Amcazade-Hüseyin-Pascha-Yalısı im Stadtteil Beykoz ist die älteste Yalı Istanbuls. Im 19. Jahrhundert entstanden nach europäischen Vorbildern Mietshäuser mit Geschäften und Handwerksbetrieben im Untergeschoss. Residenzen. Der Topkapı-Palast war bis 1856 Wohnung der Sultansfamilie (Harem) und Herrschersitz. Dieser immer wieder erweiterte und umgestaltete, vielgliedrige Sultanspalast liegt exponiert an der Spitze der zwischen Goldenem Horn, Bosporus und Marmarameer gelegenen Halbinsel. Er ist nicht nur wegen seiner Bauten von hoher Bedeutung, sondern auch aufgrund seiner umfangreichen Sammlungen eines der großen Schatzhäuser der Welt. Der Ibrahim-Pascha-Palast liegt am alten Hippodrom gegenüber der Sultan-Ahmet-Moschee. Er wurde in der Zeit des Sultans Bayezid II. (1481–1512) errichtet. Nach Reparaturen zwischen 1966 und 1983 ist nun dort das Museum für türkische und islamische Kunst untergebracht. Der Aynalıkavak-Palast wurde zu Beginn des 17. Jahrhunderts von Sultan Ahmed I. als Sommerresidenz errichtet. Der Dolmabahçe-Palast von 1856 auf der europäischen Seite des Bosporus zeigt, dass die Sultane im 19. Jahrhundert auch äußerlich danach strebten, sich dem europäischen Westen anzugleichen. Der Beylerbeyi-Palast wurde zwischen 1861 und 1865 von Sultan Abdülaziz erbaut. 1935 fand hier die erste, von Mustafa Kemal Atatürk veranstaltete Weltfrauenkonferenz statt. Weitere Paläste sind der letzte Sultanspalast, der Çırağan-Palast sowie der Küçüksu-Palast und der Yıldız-Palast. Moscheen. Die Großmoscheen wurden meist von den Sultanen, deren Familienangehörigen, den Wesiren und anderen Würdenträgern gestiftet. Die meisten Moscheen schließen sich der Bauidee der Hagia Sophia an. Zum überkuppelten Gebetsraum gehören zudem ein umgrenzter Vorhof ("avlu") und meist eine Külliye mit Medresen, zum Beispiel genutzt als Grundschule ("mektep"), theologische Schule oder Ärzteschule, mit Wohnzellen der Studenten ("hücre"), Hospital ("dar-üş-şifa"), Hospiz ("tabhane"), Armenküche ("imaret"), Bibliothek ("kütüphane"), Karawanserei ("kervansaray"), Bad ("hamam") und Grabbauten ("türbe"), manchmal auch mit einem Observatorium für Zeit- und Kalenderberechnungen ("muvakkithane"). Sie spielen für das religiöse Jahr, das auf dem Mondjahr basiert, eine große Rolle. Moscheen aus der osmanischen Frühzeit sind die Mahmut-Paşa-Moschee, die älteste erhaltene Großmoschee von 1462, und die Beyazıt-Moschee, die älteste erhaltene Sultans-Moschee. Beispiele der mindestens 22 erhalten gebliebenen von ehemals 49 Istanbuler Freitagsmoscheen des Architekten Mimar Sinan sind die İskele-Moschee in Üsküdar, die erste von Sinan geschaffene Moschee, die Prinzenmoschee, die Süleymaniye-Moschee, die Rüstem-Paşa-Moschee und die Piyale-Paşa-Moschee. Weitere bekannte Moscheen sind die Neue Moschee, die am Goldenen Horn liegt, die Sultan-Ahmed-Moschee, auch „Blaue Moschee“ genannt, die Fatih-Moschee (Eroberermoschee), die nach einem Erdbeben 1766 neu errichtet wurde, und die Eyüp-Sultan-Moschee, die nach Mohammeds Bannerträger Abu Ayyub al-Ansari benannt wurde und ein bedeutendes spirituelles Heiligtum des Islam darstellt. Moscheen, die im osmanischen Barock entstanden, sind die Nuruosmaniye-Moschee, deren Kuppelbau aus ursprünglich weißem Marmor bestand und die einen halbrunden Vorhof hat, die Tulpenmoschee, die 1763 fertiggestellt und nach dem Erdbeben von 1783 erneuert wurde, die Nusretiye-Moschee, die Dolmabahçe-Moschee, die unmittelbar am Ufer des Bosporus liegt, und die Ortaköy-Moschee. Alevitische Tekken und Gebetshäuser (Cemevi). Şahkulu Sultan Dergahi Cemevi, ein Gebetshaus (Kadiköy) Zu den berühmtesten alevitischen Tekken mit ihren Grabmälern und Cemevi gehört die Karaca Ahmet Sultan Dergahi (Tekke) im Bezirk Üsküdar, die Şahkulu Sultan Dergahi (Tekke) im Bezirk Kadiköy, die Erikli Baba Dergahi (Tekke) im Bezirk Zeytinburnu und die Garip Dede Türbesi im Bezirk Küçükçekmece. Die Tekken sind meist einige Jahrhunderte alt und besitzen ein Museum. Sie sind bis heute sehr wichtige Besucher- und Gebetsorte für die Aleviten, Bektaschiten und für alevitische Geistliche. Es befinden sich auch sehr viele andere Grabmäler von alevitischen Geistlichen in oder um diese Tekken. Heute werden diese vor allem von Aleviten und Touristen besucht. Zu den Tekken gehören aktive Vereine und Büchereien etc. Alevitische Gebete sowie Cems oder andere Veranstaltungen werden hier regelmäßig abgehalten. Eines der größten Cemevis ist das Kartal Cemevi im Bezirk Kartal. Insgesamt befinden sich ungefähr 65 Cemevis in Istanbul. Modernes Istanbul im 20. und 21. Jahrhundert. Bis zum Ende der 20er Jahre stand die Architektur der Republik noch ganz im Bann einer bereits nach dem Ersten Weltkrieg begonnenen Phase, die man „Erste Nationale Architekturströmung“ nannte. In dieser Phase führten Architekten wie Kemalettin Bey den Historismus fort, der sich im späten 19. Jahrhundert vor allem mit der ornamentalen Außengestaltung von Gebäuden an seldschukischen und osmanischen Vorbildern orientiert hatte. Dazu gehören die Beşiktaş İskelesi (Schiffsanlegestelle), die im Jahre 1913 errichtet wurde, die Haydarpaşa İskelesi (1915), die Vakıf Hanı in Eminönü (1912–1926) und das Hotel Merit Antique in Lâleli (1912–1922) Verstärkt ab etwa 1930 verpflichtete man ausländische Architekten für die Planung öffentlicher Bauten. Sie entfernten von den Fassaden weitgehend die „türkischen“ Ornamente und pflegten einen internationalen, funktionalen Stil. Als Lehrer gaben sie ihre Auffassungen an türkische Architekten weiter. Als Entwickler der „Zweiten Nationalen Architekturbewegung“ gilt Bruno Taut (1880–1938). Er forderte als Leiter der Architekturabteilung an der Akademie der Schönen Künste in Istanbul und Chef der Bauabteilung im Unterrichtsministerium in Ankara eine genaue Analyse des Baustils der osmanischen Zeit und der älteren Epochen. Auf dieser Grundlage sollte der Modernismus überwunden und ein eigener türkischer Baustil gefunden werden. Die Istanbuler Baukunst der letzten Jahrzehnte ist von einem heterogenen Stilgemisch geprägt, das von der Sinan nachgebildeten Moschee bis zu Hochhäusern mit internationalem Aussehen, von historisierenden Hotels bis zu gesichtslosen Wohnvierteln vielfältigste Aspekte bietet. Die Bauwerke des Architekten Sedad Hakkı Eldem, die im „türkischen“ Stil errichtet wurden, sind etwa Sosyal Sigortalar Külliyesi (1970), Atatürk Kütüphanesi (1976), Koç Holding A.S. Nakkaştepe Tesisleri (1986), das Hotel InterContinental in Beyoğlu (1968), Barbaros Plaza (1987), Yapı ve Kredi Bankası (1995), İşBank Tower 1 (2000), Sapphire of Istanbul (2009) sowie Diamond of Istanbul (2010), die allesamt in Levent stehen und mit Höhen von über 100 m die höchsten Gebäude in Istanbul bilden. Zu den Fernsehtürmen Istanbuls, die nach den 1960er Jahren gebaut wurden, gehören der 166 Meter hohe Fernsehturm Çamlıca im gleichnamigen Viertel Çamlıca im Stadtteil Üsküdar und der 236 Meter hohe Fernsehturm Endem im Stadtteil Büyükçekmece. Brücken. Die europäischen Stadtteile werden über das Goldene Horn durch die Galatabrücke (Neubau von 1992), die Atatürk-Brücke und die Haliç-Brücke (Fatih-Brücke), über die eine Umgehungsautobahn verläuft, miteinander verbunden. Im Stadtteil Büyükçekmece wird eine 1567 fertiggestellte Bogenbrücke, die Kanuni-Sultan-Süleyman-Brücke, nur noch von Fußgängern genutzt. Für den Kraftfahrtverkehr existieren zwei Hängebrücken über den Bosporus, die 1973 eröffnete Bosporus-Brücke mit 1.074 m Länge und die Fatih-Sultan-Mehmet-Brücke mit 1.090 m Länge, die 1988 dem Verkehr übergeben wurde. Straßen und Plätze. Der Taksim-Platz in Beyoğlu ist der verkehrsreichste Platz Istanbuls. Von hier aus führen Straßen in alle Richtungen, darunter die Tarlabaşı Bulvarı nach Fatih, die Cumhuriyet Caddesi zum nördlichen Stadtteil Şişli, die İnönü Caddesi in Richtung Beşiktaş und die İstiklal Caddesi hinab zum Tünel-Platz. Der Taksim-Platz ist regelmäßig Schauplatz für Demonstrationen. Das wohl blutigste Ereignis der jüngeren Geschichte ereignete sich am 1. Mai 1977, als Teilnehmer einer Gewerkschaftskundgebung von Unbekannten von umliegenden Häusern aus beschossen wurden. Dabei starben mindestens 34 Menschen und Hunderte wurden verletzt, sowie 453 festgenommen. Am Taksim-Platz liegt das Denkmal der Republik, das an die Gründung der Republik im Jahre 1923 erinnert. Die İstiklal Caddesi ist die bekannteste Straße. Sie führt vom Tünel-Platz über den Galatasaray-Platz zum Taksim-Platz. Am Galatasaray-Platz liegt eine ehemalige kaiserliche Schule, das Galatasaray-Gymnasium. Die Bankalar Caddesi befindet sich ebenso in Beyoğlu. An dieser „Bankenstraße“ hatten im Osmanischen Reich viele Finanzinstitute und Geschäfte ihren Sitz, so auch die Ottomanische Bank. Denkmalschutz. Das erste systematische Denkmalschutzprojekt in Istanbul wurde gegen Ende des Ersten Weltkrieges von der Stadtverwaltung initiiert, nachdem in den Kriegswirren Brände und Plünderungen zu Zerstörungen bedeutender Denkmäler geführt hatten. Das Projekt wurde 1917–1918 unter anderem vom deutschen Kunsthistoriker und Journalisten Friedrich Schrader geleitet. Seit den sechziger Jahren hat sich besonders Çelik Gülersoy um den Istanbuler Denkmalschutz verdient gemacht. Er hat zahlreiche kunsthistorisch bedeutende Bauwerke der Stadt sichern lassen und mit der „Istanbul Library“ eine bedeutende Sammlung von Schrifttum über die Geschichte Istanbuler Baudenkmäler anlegen lassen. Die gesamte Altstadt (Sultanahmet) von Istanbul gehört seit 1985 zum UNESCO-Weltkulturerbe. Parks. Der Yıldız-Park („Stern-Park“) erstreckt sich hinter dem Çırağan-Palast an den Hängen des europäischen Bosporusufers. Im Park befinden sich Sultansvillen, darunter der Yıldız-Palast. Hinzu kommt ein Opernhaus, eine Moschee und eine Manufaktur. Damit wurde Ende des 19. Jahrhunderts die osmanische Tradition fortgesetzt, locker gruppierte kleinere Gebäude in einer Parklandschaft als Wohnstätten und Zweckbauten zu nutzen. Der etwa 160 Hektar große Park wurde ursprünglich von dem französischen Landschaftsarchitekten G. Le Roy gestaltet. Er ließ seltene und exotische Bäume, Büsche und Blumen pflanzen. Der Park wurde mit der neuen Technik des elektrischen Lichtes erleuchtet und durch Drainagen trocken gehalten. Sorgfältig angelegte Wege boten Zugang zu Aussichtspunkten. Der Park wurde in den 1980er Jahren vom Türkischen Touring- und Automobilclub (TTOK) renoviert. Der Miniatürk in Beyoğlu gehört mit einer Fläche von 6 Hektar zu den größten Miniaturparks der Welt. Auf einem Pfad befinden sich mehr als 105 Miniaturmodelle, die die Bauepochen des Osmanischen Reiches repräsentieren, darunter allein 45 Miniaturmodelle zu Istanbul. Zu ihnen gehören die Hagia Sophia und der Topkapı-Palast, aber auch die zwei Weltwunder der Antike, das Mausoleum von Halikarnassos und der Tempel der Artemis in Ephesos. Auch Miniaturmodelle einiger Sehenswürdigkeiten außerhalb der Türkei wie die Al-Aqsa-Moschee und der Felsendom in Jerusalem, wurden erstellt. Der Gülhane-Park („Rosenhaus-Park“) befindet sich innerhalb der äußeren Mauern des Topkapı-Palasts und nimmt den westlichen Teil der Serailspitze ein. Er war einst Teil des äußeren Gartens des Topkapı-Palasts. Ein Teil des äußeren Gartens wurde 1912 der Öffentlichkeit zugänglich gemacht. War er früher ein Ort für ritterliche Spiele und Bogenschießwettbewerbe, so ist er heute ein bewaldeter Volkspark mit Konzerten, Teegärten und weiteren Angeboten. Geologisch liegt der Park auf dem Hang von Eminönü. Der Gülhane-Park wurde in den letzten Jahren restauriert, die Wanderrouten neu geordnet und der große Pool in einem modernen Stil renoviert. Die natürliche Landschaft der 1950er Jahre wurde durch Bäume aus der Zeit um 1800 ersetzt. Den mit 267 m höchsten Punkt Istanbuls markiert der Büyük Çamlıca-Park. Drei Kaffeehäuser im Stil des 18. Jahrhunderts bekrönen den von Pinien, Eichen und Zypressen bestandenen Park. In der Nähe steht der Fernsehturm Çamlıca. Bis Ende der 1970er Jahre verfielen die Anlagen des Çamlıca-Hügels zusehends; er wurde durch illegale Gebäude entstellt und zum Parkplatz umfunktioniert, bis in den 1980er Jahren die Stadtverwaltung den Hügel touristisch erschloss. Auf Anweisung des Premiers Recep Tayyip Erdoğan wird der Bau einer der größten Moscheen der Welt auf dem Gelände des verbliebenen Parks geplant. Trotz der Wiederaufwertung der Grünanlagen hat Istanbul laut dem Istanbuler CHP-Stadtrat "Mehmet Berke Merter" kaum Grünflächen und keinen einzigen großen Stadtpark. Ihm zufolge steht jedem Bürger weniger als ein Quadratmeter nutzbarer Parkfläche zur Verfügung. Die Direktion für Park und Gartenanlagen der Großgemeinde Istanbul gibt hingegen nur die Summe "aller" Grünflächen pro Kopf mit 6,05 m² an. Kerem Ateş, Generalsekretär der Umweltorganisation "TÜRÇEK" ergänzte, die verschwindenden Grünflächen seien der Grund für Hitzewellen und Sauerstoffarmut in der Stadt und würden aus der Stadt eine „Betonwüste“ machen. Der Zeit zufolge wird sich die Situation verschärfen, da auf den Waldflächen um Istanbul Großprojekte geplant seien, darunter ein neuer Flughafen, eine dritte Brücke über den Bosporus und weitere Autobahnen. Weiter heißt es, der Grünflächenmangel habe dazu geführt, dass die Stadtregierung sogar schmale Grünstreifen an Autobahnen als „Parks“ ausweise. Der "Gezi-Park" („Spazier-Park“), der neben dem Taksim-Platz liegt, geht auf einen Entwurf des Architekten Henri Prost zurück und ist eine der letzten Grünflächen in der Innenstadt. Auch hier wird laut Akif Burak Atlardem, dem Sekretär der Stadtplanungskammer von Istanbul, auf Anweisung Erdoğans eine Bebauung geplant. Bei dem Bauprojekt handelt es sich um den Wiederaufbau der 1940 abgerissenen Topçu-Kaserne, die als Einkaufszentrum mit Luxuswohnungen und Hotel errichtet werden soll. Sport. Wie im Rest der Türkei ist Fußball die beliebteste Sportart in Istanbul. Die Stadt ist die Heimat zahlreicher Fußballvereine, darunter fünf Teams der Süper Lig, der höchsten Spielklasse der Türkei. Zu ihnen zählen die drei erfolgreichsten Mannschaften in der Geschichte des türkischen Ligafußballs, der 19-fache Meister Fenerbahçe Istanbul, der 20-fache Meister, UEFA-Pokal- und Supercup-Sieger Galatasaray Istanbul, der 13-fache Meister Beşiktaş Istanbul, sowie Istanbul Başakşehir FK und Kasımpaşa Istanbul. Fenerbahçe Istanbul trägt seine Heimspiele im Fenerbahçe-Şükrü-Saracoğlu-Stadion in Kadıköy aus. Galatasaray Istanbul spielt in der Türk Telekom Arena in Seyrantepe mit einer Kapazität von 52.650 Plätzen. Das Atatürk-Olympiastadion ist die Heimstätte des Erstligisten Istanbul Başakşehir FK. Es wurde 2004 als Fünfsternestadion ausgezeichnet. Beşiktaş Istanbul ist der älteste Sportverein in Istanbul (Fußballabteilung seit 1911) und trägt seine Heimspiele seit dem Abriss des alten Inönü-Stadions im Stadtteil Beşiktaş und bis zum dortigen Neubau des Stadions ebenfalls im Atatürk-Olympiastadion aus. Auch Basketball und Volleyball sind sehr populär. Es bestehen mehrere professionelle Klubs, unter anderen im Basketball (Efes Pilsen Istanbul und Fenerbahçe Ülker) sowie im Volleyball (Eczacıbaşı Istanbul und Vakıfbank Güneş Sigorta İstanbul), die in ihren eigenen Schulen Spieler ausbilden. Golf, Sportschießen, Reiten und Tennis gewinnen immer mehr an Bedeutung, werden aber überwiegend von Ausländern und wohlhabenden Einheimischen betrieben. Für Aerobic, Bodybuilding und Gerätegymnastik stehen zahlreiche Fitnessstudios zur Verfügung. Paintball ist in zwei großen Klubs in der Nähe von Istanbul vertreten. Fernöstliche Sportarten wie Aikido und auch Yoga sind in den letzten Jahren immer beliebter geworden. Es gibt mehrere Zentren in der Stadt, wo sie ausgeübt werden können. Von 2005 bis 2011 fand in Istanbul der Großer Preis der Türkei statt. Veranstaltungsort war der Istanbul Park Circuit im asiatischen Teil im Viertel Kurtköy, der zum Stadtteil Tuzla gehört. Die Haupttribüne der Rennstrecke bietet 26.250 überdachte Sitzplätze. Zusätzlich zur Haupttribüne an der Start- und Zielgeraden sind neun weitere Tribünen und fünf freie Flächen auf Anhöhen für insgesamt 125.000 Zuschauer vorhanden. Istanbul war Austragungsort der Schacholympiade 2000 und der Schacholympiade 2012. Freizeit und Erholung. Wegen der Verschmutzung des Meeres verschwanden in der Stadt gelegene traditionelle Badeorte allmählich, seit einigen Jahren jedoch eröffnen manche alte Plätze aufgrund der inzwischen verbesserten Badewasserqualität neu. Zu den am häufigsten aufgesuchten Orten innerhalb der Stadt gehören Bakırköy, Küçükçekmece, Sarıyer und der Bosporus, außerhalb der Stadt sind es am Marmarameer die Prinzeninseln, Silivri und Tuzla sowie am Schwarzen Meer Kilyos, Riva und Şile. Die Prinzeninseln sind eine Inselgruppe im Marmarameer vor den Stadtteilen Maltepe und Kartal. Mit ihren Kiefern- und Pinienwäldern, hölzernen, vom Jugendstil geprägten Sommervillen aus der Wende zum 20. Jahrhundert, Pferdekutschen (Motorfahrzeuge sind nicht erlaubt) und Fischrestaurants sind sie ein bedeutendes Ausflugsziel. Von den neun Inseln sind vier bewohnt. Şile ist ein bekannter türkischer Badeort am Schwarzen Meer, 50 Kilometer von Istanbul entfernt. Seit den 1980er Jahren wurden Feriensiedlungen und Hotels ausgebaut. Außerhalb von Şile sind weiße Sandstrände zu finden. Kilyos und Riva sind kleine, ruhige Badeorte unweit des Eingangs des Bosporus zum Schwarzen Meer. Ebenso sind die Dampfbäder in der Istanbuler Altstadt für Erholungen sehr beliebt. Die bekanntesten und meist besuchten Dampfbäder sind der Beyazıt Hamamı, der Çardaklı Hamamı, der Çemberlitaş Hamamı (von Sinan 1584 errichtet) und der keramische Hamam in Fatih, weitere Dampfbäder sind der Galatasaray Hamamı in Beyoğlu und der Alter Hamamı in Üsküdar. Der Hıdiv-Wald liegt direkt am Bosporus im Stadtteil Beykoz auf der asiatischen Seite. Dort befindet sich die Residenz des ägyptischen Gouverneurs Abbas Hilmi Pascha. Es finden sich dort auch einige Brunnen und Wasserbecken, diverse Cafés, Restaurants sowie private Freizeitareale. Ein weiteres Naherholungsgebiet ist der Belgrader Wald ("Belgrad Ormanı") im Norden des Stadtteils Eyüp, etwa 20 Kilometer von der Altstadt entfernt. Der rund 5,5 Hektar große Wald bietet Freizeitanlagen, Picknick-Plätze, Reit- und Wanderwege. Er wurde im 18. Jahrhundert unter Sultan Abdülhamid I. angelegt. In Eyüp befindet sich ein Delfinarium. Regelmäßige Veranstaltungen. Marathonläufer überqueren beim 30. Istanbul-Marathon 2008 die Bosporus-Brücke Am 21. März findet das Nouruz-Fest (türk. "Nevruz Bayramı") statt. Zum Beispiel in Cankurtaran (Sultanahmet) kommt es dabei jedes Jahr zu einer großen Open-Air-Veranstaltung. Ende April wird das International Istanbul Film Festival in Beyoğlu in mehreren Kinos veranstaltet. Dieses älteste und bedeutendste internationale Filmfestival der Türkei fand 1982 zum ersten Mal statt. Am 23. April begeht man den Feiertag der Nationalen Souveränität und des Kindes zum Beispiel mit einer morgendlichen Parade auf der İstiklal Caddesi in Beyoğlu, wo Kinder Folklore zeigen und musizieren. Beim einwöchigen "Internationalen Ülker Puppen Festival Istanbul" Anfang Mai werden Karagöz-Aufführungen in verschiedenen Kulturzentren der Stadt und auch internationale Darbietungen geboten. Ebenfalls im Mai präsentieren Kompanien und Ensembles aus aller Welt ihre Stücke beim "Internationalen Istanbul Theater Festival". Dieses Festival findet im jährlichen Wechsel mit der "Internationalen Istanbul Biennale" statt. Das orthodoxe Osterfest fällt oft in den Monat Mai und wird von den griechisch-orthodoxen Gemeinden als ihr höchstes kirchliches Jahresfest gefeiert. Das "Internationale Istanbuler Musik Festival" widmet sich im Juni vornehmlich Ballett- und Opernaufführungen sowie der Orchester- und Kammermusik, meist in der ehemaligen Kirche Hagia Irene und im Atatürk-Kulturzentrum am Taksim-Platz. An den längsten Tagen des Jahres bietet seit 2001 das "Efes Pilsen One Love Festival" ein breites Spektrum von Pop und Hiphop bis Latin und Punk. Bis zu 15.000 Zuschauer kommen bei diesem zweitägigen Festival im Kunst- und Kulturzentrum "Santralİstanbul" zusammen. Parade am Feiertag der Befreiung (Zafer Bayramı) in Istanbul Alljährlich im Juli organisiert das Nationale Olympische Komitee der Türkei (türk. "Türkiye Milli Olimpiyat Komitesi") den Eurasischen Schwimmwettkampf im Bosporus, bei dem die Meerenge vom europäischen zum asiatischen Teil Istanbuls durchquert wird. Das zweiwöchige "Internationale Istanbul Jazz Festival" bietet internationale und lokale Musik aus so unterschiedlichen Bereichen wie konventionellem Jazz, Electronica, Drum and Bass, World Music und Rock, unter anderem im Cemil Topuzlu Open-Air Theater, Istanbul Modern, in der Cemal Reşit Rey Konzert Halle, dem Istanbuler Jazz Center und dem Nardis Jazz Club. Eine weitere Veranstaltung ist das größte Open-Air-Konzert in der Türkei: Das Rockfestival "Rock’n Coke", das seit 2003 mit bis zu 50.000 Besuchern Mitte des Sommers stattfindet und seit 2009 im Istanbul Park Circuit veranstaltet wird. Dort findet seit 2005 auch der Große Preis der Türkei, ein Formel-1-Rennen statt. Die im Juni oder Juli stattfindende Gay Pride Istanbul ("Istanbul Onur Yürüyüsü") ist mit 100.000 Teilnehmern die größte Schwulenparade in ganz Osteuropa. An drei Tagen im August wechseln sich beim "Electronica Istanbul Festival" auf acht Open-Air-Bühnen internationale DJs und Electronica-Acts ab. Deren Spektrum reicht von House über Trance bis Mashup. Am 30. August findet der Feiertag der Befreiung ("Zafer Bayramı") statt, der an den Sieg des "Başkomutanlık Meydan Savaşı" im türkischen Befreiungskrieg erinnert. Immer am 29. Oktober findet der Feiertag der Republik ("Cumhuriyet Bayramı") statt, der an die Ausrufung der Republik durch Atatürk im Jahr 1923 erinnert. Im Herbst wird seit 1979 der Istanbul-Marathon veranstaltet. Der Start ist in Üsküdar auf der asiatischen Seite Istanbuls und das Ziel im Inönü-Stadion beziehungsweise vor dem Dolmabahçe-Palast, wenn der Fußballclub Beşiktaş Istanbul ein Heimspiel hat. Beim Marathon werden die Bosporus-Brücke und die Galatabrücke überquert. Auch im Herbst findet seit 1987 die Istanbul Biennale statt, die von der "İstanbul Foundation for Culture and Arts" organisiert wird. Kulinarische Spezialitäten. Aufgrund der starken Landflucht aus allen Teilen des Landes nach Istanbul entspricht das kulinarische Angebot einem Spiegel der gesamten Türkei, fast alle regionalen Spezialitäten werden auch in Istanbuler Restaurants angeboten. Zudem gibt es auch immer mehr Lokale, die eine internationale Küche anbieten. Infolge der Küstenlage Istanbuls sind Meeresfrüchte in der Stadt traditionell sehr beliebt. Osmanische Küche wird vor allem in Üsküdar, Kadıköy und Beyoğlu in Restaurants angeboten. Koschere Küche findet man in Beyoğlu und im alten Stambul. Das Istanbuler Lebensmittel, das eine besondere Ausprägung oder Geltung hat, ist Lokum, ein süßes Konfekt aus Zucker (ursprünglich Honig), Stärkemehl (ursprünglich Weizenmehl), Pistazien, Mandeln, Nüssen und anderen Zutaten. Traditionelle Firmen produzieren bis zu 18 Lokumsorten, zum Beispiel angereichert mit Extra-Pistazien (zweimal geröstete Pistazien), mit Rosenaroma, mit Mastix, mit Kaffee, mit Zimt oder mit Ingwer. Eine weitere Istanbuler Spezialität ist Boza, ein leicht alkoholisches Getreidegetränk aus Weizen oder Hirse. Boza wird vor allem im Winter getrunken. Kokoreç sind gegrillte oder gebratene Schafseingeweide, die als Street Food in der ganzen Türkei große Beliebtheit genießen. Man unterscheidet zwischen zwei Kokoreç-Varianten, zwischen der "Istanbul-Variante" und der "İzmir-Variante". Die "Istanbul-Variante" wird mit gehackten Tomaten, Zwiebeln und Gewürzen (hauptsächlich Kreuzkümmel und Chilipulver) gemischt und auf dem Blech oder auf einem Spieß aufgerollt gegrillt. Einzelhandel. Der Große Basar (Kapalı Çarşı) ist an Werktagen geöffnet. Er ist vollständig überdacht und beherbergt viele Hans, Hallen, Straßen und Gassen, in deren Geschäften verschiedene Waren wie Antiquitäten, Teppiche, Schmuck oder Keramik verkauft werden. Ein weiterer großer Markt ist der Ägyptische Basar (Mısır Çarşısı). Er wurde 1660 auf Anweisung der Mutter des Sultans Mehmed IV. (1642–1693) errichtet. Dort wird mit Gewürzen, Obst, Gemüse und Tieren gehandelt. Im Dreieck zwischen Großem Basar, Ägyptischem Basar und der Süleymaniye-Moschee findet man eine große Zahl von Geschäftsstraßen und -gassen mit Verkaufsständen, offenen Läden, Manufakturen, "Hans" und "Pasaj" genannten Kleinkaufhäusern. Diese Straßen tragen wie in den älteren Städten Europas noch die Namen der ehemals hier produzierenden und handelnden Berufsstände. Der "Balık Pazarı" in Beyoğlu ist ein großer Fischmarkt, aber auch Obst und Gemüse sowie Meze und Rakı werden hier angeboten. Straßenhändler sind überall unterwegs; so die Verkäufer von Getränken oder von Sesamkringeln (Simit). Wie in allen größeren Städten der Türkei sind auch in Istanbul in den vergangenen Jahren zahlreiche große Geschäftskomplexe, genannt AVM (türk. Alışveriş Merkezleri für Einkaufszentren), nach amerikanischem Vorbild entstanden. Zu den wichtigsten Einkaufszentren Istanbuls gehört das Forum AVM in Bayrampaşa, welches mit 495.000 Quadratmetern wahrscheinlich das größte Einkaufszentrum Europas ist. Es beinhaltet neben verschiedenen Einzelhändlern auch eine Niederlassung des schwedischen Möbelhauses Ikea, sowie einen Unterwasser-Zoo und eine Eisskulpturen-Galerie. Auch das zweitgrößte Einkaufszentrum Europas, das Şişli Kültür ve Ticaret Merkezi befindet sich in Istanbul, genauer im Stadtteil Şişli. Weitere Einkaufszentren sind im europäischen Teil das "Capacity" und "Carousel" in Bakırköy mit mehreren Kaufhäusern, Boutiquen und Restaurants, das "Akmerkez" in Beşiktaş im Viertel Etiler mit Filialen aller bekannten Marken, Boutiquen, einem Vergnügungszentrum mit Spielhallen, Kinos, Restaurants und Fastfood-Ketten, die Einkaufszentren "Metro City" und "Kanyon" in Levent und im asiatischen Teil das "Capitol" in Kadıköy mit vielen Läden, gastronomischen Einrichtungen und Kinos. Wirtschaft. In der Marmararegion konzentrieren sich 40 bis 50 Prozent der türkischen Wirtschaftsleistung. In deren Zentrum Istanbul werden 28 Prozent des Bruttoinlandsprodukts erwirtschaftet. Die hohe Diversifizierung der Wirtschaft führt dazu, dass 2005 fast die Hälfte aller türkischen Exporte aus Istanbul stammte. Darüber hinaus ist die Stadt Hauptsitz des türkischen Presse- und Verlagswesens. Istanbuls Wirtschaft verzeichnete seit der Liberalisierung der Märkte in den 1980er Jahren, mit Einbrüchen, einen allgemeinen Aufwärtstrend. Dieser Trend wird durch Studien bestätigt, die Istanbul zu den 50 am schnellsten sich entwickelnden Städten der Welt zählen. Die Viertel Levent im Stadtteil Beşiktaş und Maslak im Stadtteil Şişli sind die zwei wichtigsten Finanz- und Wirtschaftszentren. Derzeitig wird das neue Istanbuler Finanzzentrum auf einer Fläche von 3.200.000 Quadratmeter auf der asiatischen Seite in Ataşehir gebaut. Das Bruttoinlandsprodukt stieg seit 1980 um durchschnittlich fünf Prozent pro Jahr. Die Asienkrise zwischen Juli 1997 und Anfang 1998 und die Krise in Russland zwischen August 1998 und Mitte 1999 waren in allen Bereichen, besonders beim Export, zu spüren und zeigten negative Auswirkungen auf die Wirtschaft. Als trotz dieser Belastung etwa Mitte 1999 eine langsame Erholung der Wirtschaft Istanbuls zu beobachten war, verursachte nach der Krise in Russland das Erdbeben vom 17. August 1999, mit Epizentrum bei Kocaeli östlich der Stadt, den zweiten ökonomischen Schock. Neben den durch die Katastrophe verursachten Kapitalausfällen und den menschlichen Verlusten war ein Rückgang des BIP von etwa ein bis zwei Prozent zu verzeichnen. Das von Dienstleistungen beherrschte Wirtschaftsleben dominieren Börse, Großhandel, Verkehrs-, Bank-, Presse- und Verlagswesen. Es gibt mehrere Basare sowie Geschäftsstraßen im westlichen Stil. Die handwerklichen und industriellen Betriebe produzieren vor allem Textilien und Nahrungsmittel. Daneben sind Leder- und Kunstlederwaren sowie keramische Erzeugnisse von Bedeutung. Auch der Bau von Bussen und Traktoren sowie Dieselmotoren ist ein bedeutender Wirtschaftszweig. An Bosporus und Marmarameer sind neue Anlagen für die Industrie entstanden. Ein bedeutender Wirtschaftszweig ist der Tourismus. Das Angebot an Hotels ist der großen Zahl von Besuchern entsprechend. Im Jahr 2000 kamen insgesamt 1.747.606 Touristen nach Istanbul, darunter 208.226 Touristen aus Deutschland, 198.270 aus den Vereinigten Staaten, 114.185 aus dem Vereinigten Königreich, 104.589 aus Frankreich und 83.499 aus Italien. Fernverkehr. Die Stadt ist mit zwei Flughäfen, zwei Busbahnhöfen, zwei Bahnhöfen, dem Hafen und ihrem Autobahnnetz ein bedeutender Knotenpunkt im nationalen und internationalen Personen- und Güterfernverkehr. Straßenverkehr. Von Istanbul aus fahren Busse in alle wichtigen Städte und Regionen des Landes sowie zu einigen Zielen in Europa und dem Nahen Osten. Der Busbahnhof Esenler mit täglich 15.000 Busbewegungen im europäischen Teil der Stadt ist einer der größten Busbahnhöfe Europas und einer der wichtigsten Verkehrsknotenpunkte des Landes und Südosteuropas. Das 242.000 Quadratmeter große Areal, das der Busbahnhof in Anspruch nimmt, liegt im europäischen Teil im Stadtteil Bayrampaşa nahe dem namensgebenden Stadtteil Esenler. Das Autobahnnetz um Istanbul ist trotz umfangreichen Ausbau dem sprunghaft angestiegenen Verkehrsaufkommen oftmals nicht gewachsen. Neben den zwei Ringautobahnen, O-1 mit einer Gesamtlänge von 87 Kilometern und O-2 mit einer Gesamtlänge von 38 Kilometern, führen Autobahnen nach Edirne (O-3) und Ankara (O-4). Laut TomTom hat Istanbul weltweit die zweitgrößte Verkehrsdichte. Schienenverkehr. Der Eisenbahn-Fernverkehr ist für eine Stadt dieser Größe äußerst bescheiden. Es gibt zwei Fernbahnhöfe, von denen jeweils nur wenige Züge pro Tag verkehren. Ein Grund hierfür ist die dominierende Rolle des Busverkehrs in der Türkei. Der Bahnhof Sirkeci, der historische Endpunkt des Orient-Express, ist Endhaltestelle für alle Eisenbahnlinien auf der europäischen Seite. Im Fernverkehr verkehren 2012 Züge der staatlichen türkischen Eisenbahngesellschaft TCDD nach Bukarest, nach Sofia und nach Belgrad sowie zum Grenzbahnhof Uzunköprü. Vom Bahnhof Haydarpaşa am asiatischen Ufer des Bosporus, dem Startpunkt der historischen Bagdadbahn, fahren mehrmals täglich Züge der TCDD nach Ankara, seltener zu anderen Zielen in Anatolien, und einmal wöchentlich nach Teheran und nach Aleppo. Da bis 2013 keine Eisenbahnverbindung zwischen dem europäischen und dem asiatischen Teil Istanbuls bestand, waren die beiden Bahnhöfe per Personenfähre Eminönü–Haydarpaşa verbunden. Über den Bosporus führt nach wie vor keine Eisenbahnstrecke, ein Tunnel ist jedoch im Rahmen des Marmaray-Projekts gebaut und am 29. Oktober 2013 eröffnet worden. Für den Güterverkehr verkehren weiterhin Eisenbahnfähren, da die Zufahrtsstrecken zum Tunnel noch nicht fertiggestellt sind. Seeverkehr. Ein Schiff passiert die Meerenge Der Ambarlı Limanı ist der Hafen Istanbuls im Stadtteil Avcılar. Er ist der größte Hafen des Landes, nach der umgeschlagenen Tonnage von Schüttgut nahm er 2006 den ersten Platz ein. Im Hafen werden etwa 38 Prozent des Im- und Exports der Türkei sowie 63 Prozent der Marmararegion abgewickelt. Er wird von der ALTAŞ Ambarlı Liman Tesisleri Tic. A.Ş. betrieben, die am 9. September 1992 gegründet wurde. Der Haydarpaşa Limanı in Kadıköy ist ebenfalls ein wichtiger Hafen, der mit einer Fläche von 55.000 Quadratmetern der Haupthafen im asiatischen Teil Istanbuls ist. Vom Hafen gibt es eine Zugverbindung zum nächstgelegenen Kopfbahnhof Haydarpaşa. Der alte Hafen am Goldenen Horn dient vornehmlich der Personenschifffahrt. Linienverkehr besteht nach Haifa in Israel und Odessa in der Ukraine. Von Bostancı aus gibt es Fähren nach Bursa und Yalova. Luftverkehr. Istanbul verfügt über zwei internationale Flughäfen: Der größere der beiden ist der Atatürk-Flughafen am Rande des europäischen Teils der Stadt im Stadtteil Bakırköy, 24 Kilometer westlich der Stadtmitte. Der neuere, aber kleinere, ist der Sabiha-Gökçen-Flughafen, 45 Kilometer östlich des Stadtzentrums im Stadtteil Tuzla gelegen. Ein dritter Flughafen, 60 Kilometer nordwestlich der Stadt, ist in Planung. Er soll sechs Start- und Landebahnen haben, umgerechnet 7 Mrd. Euro kosten und eine Kapazität von 90 Millionen Passagieren haben. Stadt- und Nahverkehr. Metro-Netz (einschl. S-Bahn, Stadtbahn und Ausbauprojekten) Der enorme innerstädtische Verkehr passt nicht zum osmanischen Aufbau der Stadt und ihrer in sich geschlossenen Quartiere. Die Gebäude eines solchen Stadtteils ("Mahalle") gruppieren sich fast konzentrisch meist um eine Freitagsmoschee. Wenige öffentliche Zufahrten ("Tarîk-i âmm") und enge Privatstraßen ("Tarîk-i hâss"), oft Sackgassen, bestimmen das labyrinthische Bild. Durchgangsstraßen fehlen. Diese Quartiere sind nur lose miteinander verbunden. Nach dem Zweiten Weltkrieg wurden mit internationaler Beratung im alten Istanbul breite Straßen und weite Plätze für den Auto- und Busverkehr geschaffen. Eine Hauptachse bildete dabei eine heute noch wichtige Durchgangsstraße von Sultan Ahmet bis jenseits der Landmauer, die sich am konstantinischen Straßensystem orientierte. Ähnliche Verhältnisse herrschten in den asiatischen Stadtteilen. Offenere Straßenzüge bestimmten dagegen von jeher das genuesisch geprägte Pera oder Galata im heutigen Beyoğlu. Inzwischen wurden im gesamten Stadtgebiet Binnen- und Durchgangsstraßen sowie Verbindungsstraßen zu den Stadtteilen an der Peripherie gebaut, wobei alte Bausubstanz in großem Umfang zerstört wurde. Straßenbahn und U-Bahn wurden nach und nach ausgebaut; mit der S-Bahnverbindung unter dem Bosporus und der Anbindung der Metrolinien auf der europäischen Seite bei Yenikapı und auf der asiatischen Seite bei Ayrılıkçeşme an die S-Bahnstrecke ist mittlerweile ein zusammenhängendes Schienennahverkehrsnetz entstanden, das in den nächsten Jahren noch sukzessive ausgebaut wird. Viele Linien sind darauf ausgelegt, Pendler von den Vororten ins Zentrum zu bringen. Für ein geschlossenes Nahverkehrssystem müssten die U-Bahn-Strecken auf 505 km ausgebaut werden, was bis 2019 erreicht sein soll. Straßenverkehr. Busse, Sammeltaxis (Dolmuş), Taxis und private PKW spielen eine wichtige Rolle. Die gelben Taxis stellen einen erheblichen Anteil am Gesamtverkehr. Da nur wenige Schienenstrecken existieren, tragen die Stadtbusse die Hauptlast des öffentlichen Nahverkehrs. An wichtigen Knotenpunkten, etwa in Taksim, Eminönü oder Beyazıt, bestehen Busbahnhöfe. Taksim ist außerdem der wichtigste innerstädtische Endpunkt für Dolmuş-Linien. Seit dem 17. September 2007 werden von der Stadtverwaltung auch Metrobusse ("Metrobüs") eingesetzt. Die Metrobusse und Busse werden von der İETT betrieben. Zurzeit (Stand: April 2015) gibt es acht Linien, die alle die Ziffer 34 beinhalten (34, 34A, 34AS, 34BZ, 34C, 34G, 34U, 34Z). Die 34 ist keine zufällige Linienbezeichnung, sondern eine besondere Zahl für Istanbul, da sie die Kreiszahl der Stadt ist (die man bei Autokennzeichen und auch Postleitzahlen nutzt). Den Warentransport übernehmen Lastkraftwagen. Ab und zu sieht man noch einen Lastenträger ("Hamal"), besonders auf den Treppen der Einkaufsstraßen zwischen dem Großen Basar und der Galatabrücke. Schienenverkehr. Der „Tünel“ am Talbahnhof "Karaköy" Die S-Bahn-Stammstrecke (Banliyö tren) der türkischen Staatsbahn (TCDD) verbindet in einem 13,6 km langen Tunnel Europa mit Asien im Marmaray-Eisenbahntunnel im Vier-Minuten-Takt. Westlich und östlich des Tunnels befinden sich die Strecken in einem Modernisierungsprozess, der 2015 abgeschlossen ist, was den Betrieb vollständig unterbricht. Bis 2013 führten die nicht verknüpften S-Bahn-Linien B1 und B2 auf beiden Seiten des Bosporus am Marmarameer entlang und verbanden die dort gelegenen Küstenorte mit den Innenstadtbahnhöfen Sirkeci auf der europäischen (Streckenlänge 30 km) und Haydarpaşa auf der asiatischen Seite (Streckenlänge 44 km). Am 4. Januar 1871 wurde auf europäischer Seite die Strecke von Küçükçekmece nach Yedikule eröffnet. Sie wurde 1872 von Küçükçekmece nach Halkalı und von Yedikule zum Endbahnhof Sirkeci verlängert. Die asiatische Strecke ging am 22. September 1872 auf dem Abschnitt Pendik – Feneryolu in Betrieb. 1873 wurde sie stadtauswärts nach Gebze und stadteinwärts bis zum Endbahnhof Haydarpaşa verlängert. Die Metro mit den Linien M1 bis M4, Hafif Metro (Linie T4), die Straßenbahnlinien T1 und T3, sowie die Standseilbahn Füniküler Kabataş–Taksim (F1) werden von der İstanbul Ulaşım betrieben. Betreiber der Nostaljik Tramvay und des Tünel ist jedoch die İETT. Standseilbahnen. Die Tünel-Bahn zwischen Karaköy und dem Tünel-Platz im auf dem Hügel gelegenen Stadtteil Beyoğlu ist eine 574 Meter lange unterirdische Standseilbahn ohne Linienbezeichnung, die am 12. Januar 1875 eröffnet wurde. Sie ist die drittälteste U-Bahn der Welt. Die Standseilbahnlinie F1 führt vom am Bosporus gelegenen Kabataş zum Taksim-Platz hinauf. Diese unterirdisch verlaufende Standseilbahn wurde am 30. Juni 2006 eröffnet und verbindet die etwa einen halben Kilometer voneinander entfernten Endpunkte in 110 Sekunden. Straßenbahnen. Es existieren drei Straßenbahnlinien im Großraum Istanbul. Davon werden zwei von der İstanbul Ulaşım betrieben. Die Straßenbahnlinie T1 führt quer durch das historische Istanbul (Streckenlänge knapp 20 Kilometer). Die Eröffnung fand am 13. Juni 1992 auf dem Abschnitt Beyazıt – Yusufpaşa statt. In mehreren Abschnitten wurde die Strecke bis in den Stadtteil Zeytinburnu verlängert (31. Januar 1994). Die Verlängerung vom Bahnhof Sirkeci nach Eminönü (20. April 1996) und dann weiter nach Kabataş brachte auch den Anschluss über die neue Galatabrücke an die Stadtteile nördlich des Goldenen Horns. Seit dem 4. Februar 2011 fährt die Linie T1 von Zeytinburnu weiter nach Bağcılar; dadurch wurde die ehemalige Linie T2 von Zeytinburnu nach Bağcılar aufgelöst. Triebwagen 202 ist ein T57, ex Tw 102 aus Jena Die Straßenbahnlinie T3 ist eine Museumsstraßenbahn zwischen Kadıköy und Moda im asiatischen Teil der Stadt. Sie wurde am 1. November 2003 eröffnet. Es handelt sich um eine nur in einer Richtung betriebene, 2,6 Kilometer lange Ringstrecke, die einen eindrucksvollen Parcours durch den hügeligen und mit engen Straßen durchzogenen Stadtteil verfolgt. Die Strecke wird mit verschiedenen Gotha- (T57, T59) und Rekowagen (TZ 70) bedient, die fast durchweg von der Straßenbahn Jena stammen. Auf den Fahrzeugen ist die Linienbezeichnung 20 zu lesen (dies ist jedoch keine gültige Linienbezeichnung). Die Nostaljik Tramvay ist eine 1,6 Kilometer lange, historische Straßenbahn ohne konkrete Linienbezeichnung, die in der ehemaligen Pera-Straße und heutigen İstiklal Caddesi im Stadtteil Beyoğlu zwischen dem Tünel-Platz und dem Taksim-Platz verkehrt. Die mit historischen Fahrzeugen durchgeführte Linie wurde am 12. April 1990 eröffnet und wird seitdem von der İETT betrieben. Schiffsverkehr. Ein reger Schiffsverkehr herrscht zwischen den europäischen und den asiatischen Stadtteilen. Autofähren und Passagierschiffe queren den Bosporus in dichtem Taktverkehr. Die wichtigsten Fähranleger sind in Bakırköy, Eminönü, Karaköy und Besiktaş auf europäischer sowie in Beykoz, Kadıköy, Kartal, Maltepe und Üsküdar auf asiatischer Seite. Täglich verkehren Fähren zwischen den drei Prinzeninseln Büyükada, Heybeliada und Kınalıada und dem Viertel Bostancı im Stadtteil Kadıköy. Die Fähren werden von der Gesellschaft "İstanbul Deniz Otobüsleri A.Ş." betrieben. Medien. In Istanbul erscheinen alle 34 landesweit ausgerichteten Tageszeitungen der national zentrierten Presse: Darüber hinaus sind 14 Stadtteilzeitungen staatlich registriert. Istanbul ist Sitz globaler Fernseh- und Radionetzwerke wie der Nachrichtensender NTV, die Fernsehsender Samanyolu TV und ATV sowie das Radio TRT-Istanbul. Über tausend Film- und Serienproduktionen, darunter die Serie Kurtlar Vadisi und die Fortsetzung der Serie Kurtlar Vadisi Pusu, wurden bisher in der Bosporus-Metropole gedreht. Viele Unterhaltungssendungen und Talkshows werden in der Stadt aufgezeichnet. Öffentliche Einrichtungen. Von den 190 Krankenhäusern in Istanbul gehören 52 zur vierten Versorgungsstufe. Das 1852 gegründete Deutsche Krankenhaus (türk. "Alman Hastanesi") in Hasanpaşa im Stadtteil Kadıköy gehört zu den ältesten Krankenhäusern Istanbuls. Das Polizeipräsidium ("İstanbul Emniyet Müdürlüğü", kurz İEM) besteht seit 1932. Es ist zuständig für die gesamte Provinz Istanbul. Der Hauptsitz der Polizei befindet sich im Stadtteil Fatih. Das Polizeipräsidium Istanbul beschäftigte 2009 rund 26.800 Beamte. Polizeipräsident ist Hüseyin Çapkın. Bildung und Forschung. 2009 beherbergte Istanbul 4.350 Schulen, in die 2.991.320 Schüler gingen. Die bedeutendsten Universitäten sind die im Jahre 1933 gegründete Universität Istanbul, deren Wurzeln bis ins Jahr 1453 reichen, die 1944 begründete Technische Universität Istanbul, die aus einer 1773 gegründeten Ingenieurschule hervorging, die englischsprachige Bosporus-Universität, die Marmara-Universität, die 1911 eröffnete Technische Universität Yıldız und die 1996 neu eröffnete Fatih-Universität. Weitere Hochschulen sind die Bahçeşehir-Universität, die Beykent-Universität, die Marinekriegsschule ("Deniz Harp Okulu"), die Doğuş-Universität, die Galatasaray-Universität, die Haliç-Universität, die Luftwaffenschule ("Hava Harp Okulu"), die Işık-Universität, die Istanbul-Bilgi-Universität, die Istanbul-Kültür-Universität, die Istanbul-Ticaret-Universität, die Kadir-Has-Universität, die Koç-Universität, die Maltepe-Universität, die Mimar-Sinan-Universität für bildende Künste, die Okan-Universität, die Sabancı-Universität und die Yeditepe-Universität. Im Stadtteil Beykoz entsteht derzeit die Deutsch-Türkische Universität. Allgemeinbildende weiterführende Schulen sind die staatliche und private türkischsprachige Schule, das Galatasaray-Gymnasium in Beyoğlu, das fremdsprachige staatliche Gymnasium, die İstanbul Lisesi in Fatih, weitere fremdsprachige private Gymnasien wie das österreichische St. Georgs-Kolleg und die Deutsche Schule Istanbul in Beyoğlu und die "Anadolu Liseleri" (Anatoliengymnasien), die ursprünglich für die aus dem Ausland heimgekehrten türkischen Kinder eingerichtet wurde, wie zum Beispiel die "Üsküdar Anadolu Lisesi" mit Deutsch als erster Fremdsprache und Fachunterricht auf Deutsch. Wichtige Istanbuler Forschungsinstitute sind das Marmara-Forschungszentrum ("TÜBİTAK Marmara Araştırma Merkezi – TÜBİTAK MAM") in Gebze, die mit rund 650 Forscherinnen und Forschern die größte außeruniversitäre Forschungsstätte in der Türkei ist. Es umfasst die Institute für Informationstechnologien, Energie-, Nahrungsmittel-, Chemie- und Umwelt- und Materialforschung, sowie Erd- und Meereswissenschaften. An das Forschungszentrum ist außerdem ein Technologiepark angeschlossen. Söhne und Töchter der Stadt. Istanbul war Geburtsort zahlreicher prominenter Persönlichkeiten. Die bekanntesten sind unter anderem der Politiker und Ministerpräsident der Türkei Recep Tayyip Erdoğan, der Politiker Bülent Ecevit, der Vorstandsvorsitzende der Daimler AG Dieter Zetsche, der Journalist und Chefredakteur Abdi İpekçi, die Fußballspieler Emre Belözoğlu und Nihat Kahveci, der Schriftsteller Orhan Pamuk, die Sänger Serdar Ortaç und Mustafa Sandal, die Schauspieler Mehmet Ali Erbil und Cem Yılmaz und der Gründer von Galatasaray Istanbul, Ali Sami Yen. Internationale Rotkreuz- und Rothalbmond-Bewegung. Die namensgebenden Symbole der Bewegung – das Rote Kreuz und der Rote Halbmond auf weißem Hintergrund Die Internationale Rotkreuz- und Rothalbmond-Bewegung umfasst das "Internationale Komitee vom Roten Kreuz (IKRK)", die "Internationale Föderation der Rotkreuz- und Rothalbmond-Gesellschaften" (Föderation) sowie die nationalen Rotkreuz- und Rothalbmond-Gesellschaften. Alle diese Organisationen sind voneinander rechtlich unabhängig und innerhalb der Bewegung durch gemeinsame Grundsätze, Ziele, Symbole, Statuten und Organe miteinander verbunden. Die weltweit gleichermaßen geltende Mission der Bewegung – unabhängig von staatlichen Institutionen und auf der Basis freiwilliger Hilfe – sind der Schutz des Lebens, der Gesundheit und der Würde sowie die Verminderung des Leids von Menschen in Not ohne Ansehen von Nationalität und Abstammung oder religiösen, weltanschaulichen oder politischen Ansichten der Betroffenen und Hilfeleistenden. Das 1863 gegründete "Internationale Komitee vom Roten Kreuz" besteht aus bis zu 25 Schweizer Staatsbürgern und ist die einzige Organisation, die im humanitären Völkerrecht erfasst und als dessen Kontrollorgan genannt ist. Es ist die älteste Organisation der Bewegung und neben dem Heiligen Stuhl sowie dem Souveränen Malteser-Ritterorden eines der wenigen originären nichtstaatlichen Völkerrechtssubjekte. Seine ausschließlich humanitäre Mission ist, basierend auf den Prinzipien der Unparteilichkeit, Neutralität und Unabhängigkeit, der Schutz des Lebens und der Würde der Opfer von Kriegen und innerstaatlichen Konflikten. Die "Internationale Föderation der Rotkreuz- und Rothalbmond-Gesellschaften", Nachfolgeorganisation der 1919 entstandenen "Liga der Rotkreuz-Gesellschaften", koordiniert innerhalb der Bewegung die Kooperation zwischen den nationalen Rotkreuz- und Rothalbmond-Gesellschaften und leistet Unterstützung beim Aufbau neuer nationaler Gesellschaften. Auf internationaler Ebene leitet und organisiert sie, in Zusammenarbeit mit den nationalen Gesellschaften, Hilfsmissionen nach nicht kriegsbedingten Notsituationen wie zum Beispiel Naturkatastrophen und Epidemien. Die "nationalen Rotkreuz- und Rothalbmond-Gesellschaften" sind Organisationen in fast allen Ländern der Welt, die jeweils in ihrem Heimatland im Sinne des humanitären Völkerrechts sowie der Statuten der Internationalen Bewegung tätig sind und die Arbeit des IKRK sowie der Föderation unterstützen. Ihre wichtigsten Aufgaben in ihren Heimatländern sind die Katastrophenhilfe und die Verbreitung der Genfer Konventionen. Im Rahmen ihrer Möglichkeiten können sie darüber hinaus weitere soziale und humanitäre Aufgaben wahrnehmen, die nicht unmittelbar durch völkerrechtliche Bestimmungen oder die Prinzipien der Bewegung vorgegeben sind. Hierzu zählen in vielen Ländern beispielsweise das Blutspendewesen und der Rettungsdienst sowie die Altenpflege und andere Bereiche der Sozialarbeit. Von der Gründung im Jahr 1928 als Dachorganisation des IKRK und der Föderation bis zur Umbenennung 1986 lautete der offizielle Name der Bewegung "Internationales Rotes Kreuz". Diese bis in die Gegenwart weit verbreitete Bezeichnung und die daraus resultierende Abkürzung "IRK" sollten jedoch nach Möglichkeit nicht mehr verwendet werden, da sie zu Problemen bei der Unterscheidung zwischen dem IKRK und der Föderation in der öffentlichen Wahrnehmung führen können. Solferino, Henry Dunant und die Gründung des IKRK. Bis in die Mitte des 19. Jahrhunderts gab es keine auch nur annähernd systematische Kriegskrankenpflege, keine gesicherten Einrichtungen zur Unterbringung und Behandlung von Verwundeten, geschweige denn eine Vorsorge durch Bereitstellung von Hilfskräften in ausreichender Zahl und mit angemessener Ausrüstung und Ausbildung. Im Jahre 1859 reiste der Schweizer Geschäftsmann Henry Dunant nach Italien, um dort mit dem französischen Kaiser Napoléon III. über seine Probleme beim Erhalt von Landkonzessionen im französisch besetzten Algerien zu sprechen. Dabei wurde er am 24. Juni 1859 in der Nähe des kleinen Ortes Solferino Zeuge der Schlacht von Solferino und San Martino, in deren Verlauf an einem einzigen Tag rund 6.000 Soldaten getötet und etwa 25.000 verwundet wurden. Die völlig unzureichende medizinische Versorgung und Betreuung sowie das Leid der verwundeten Soldaten entsetzten ihn so sehr, dass er den ursprünglichen Zweck seiner Reise völlig vergaß und sich mehrere Tage lang der Versorgung der Verwundeten sowie der Organisation von Hilfsmaßnahmen widmete. Unter dem Eindruck dieser Erlebnisse schrieb er ein Buch, das er 1862 unter dem Titel "Eine Erinnerung an Solferino" auf eigene Kosten veröffentlichte und an führende politische und militärische Persönlichkeiten in ganz Europa verschickte. Neben einer sehr eindringlichen Schilderung dessen, was er 1859 erlebt hatte, regte er in diesem Buch die Bildung von freiwilligen Hilfsorganisationen an, die sich in Friedenszeiten auf Hilfe für Verwundete im Krieg vorbereiten sollten. Des Weiteren forderte er den Abschluss von Verträgen, in denen die Neutralität und der Schutz der Kriegsverwundeten und der sie versorgenden Personen sowie aller für sie getroffenen Einrichtungen gesichert werden sollte. Bereits ein Jahr später kam es auf Einladung der Schweizer Regierung an alle europäischen Länder sowie an die Vereinigten Staaten von Amerika, Brasilien und Mexiko zu einer diplomatischen Konferenz, an der 26 Delegierte aus 16 Staaten teilnahmen. Am 22. August 1864 wurde während dieser Konferenz die erste Genfer Konvention „betreffend die Linderung des Loses der im Felddienst verwundeten Militärpersonen“ durch Vertreter von zwölf Staaten unterzeichnet. In dieser Konvention wurden in zehn Artikeln die Vorschläge zum Schutz und zur Neutralisierung der Verwundeten, des Hilfspersonals und der entsprechenden Einrichtungen verbindlich festgelegt. Zum Ende des Jahres 1863 wurde mit dem Württembergischen Sanitätsverein in Stuttgart die erste nationale Gesellschaft gegründet, kurz danach gefolgt vom Verein zur Pflege verwundeter Krieger im Großherzogtum Oldenburg und weiteren 1864 gegründeten Gesellschaften in Belgien, Preußen, Dänemark, Frankreich und Spanien. 1864 bis 1914. Ihre erste Bewährungsprobe erlebte die Organisation im Deutsch-Dänischen Krieg: Am 16. April 1864 nahmen an den Düppeler Schanzen erstmals Hilfskräfte und, mit Louis Appia und dem holländischen Hauptmann Charles van de Velde, auch offizielle Delegierte unter dem Zeichen des Roten Kreuzes an einem Krieg teil. Bereits gut zwei Monate zuvor war nach der Schlacht von Oeversee das erste Feldlazarett unter dem Banner des Roten Kreuzes aufgeschlagen worden. 1867 fand unter Beteiligung von Vertretern von neun Regierungen, 16 nationalen Rotkreuzgesellschaften und des Internationalen Komitees die erste Internationale Rotkreuzkonferenz statt. Im gleichen Jahr musste Henry Dunant aufgrund des desolaten Verlaufs seiner Geschäfte in Algerien seinen Bankrott erklären und Genf verlassen. Nachdem Gustave Moynier bereits 1864 den Vorsitz des Internationalen Komitees übernommen hatte, wurde Henry Dunant nun auch vollständig aus dem Komitee ausgeschlossen.In den folgenden Jahren kam es in nahezu allen Ländern Europas zur Gründung von nationalen Rotkreuz-Gesellschaften – der Deutsch-Französische Krieg 1870/71 demonstrierte eindrücklich deren Notwendigkeit. Preußen verfügte über eine gut mit Personal und Material ausgestattete Rotkreuz-Gesellschaft, die organisatorisch eng mit dem preußischen Heer zusammenarbeitete. Aufgrund dessen lag die Zahl der preußischen Soldaten, die an Krankheit oder Verwundung starben, unter der Zahl der im Feld Gefallenen. Auf der anderen Seite verfügte Frankreich nur über eine unzureichend vorbereitete Rotkreuz-Gesellschaft, was zur Folge hatte, dass auf französischer Seite die Zahl der durch Krankheit oder Verwundung verstorbenen Soldaten dreimal höher war als die Zahl der gefallenen Soldaten. In diesem Krieg beteiligten sich auch erstmals andere Rotkreuz-Gesellschaften wie die Russlands, der Schweiz, Irlands und Luxemburgs durch die Entsendung von Ärzten und Sanitätern in größerem Umfang an der sanitätsdienstlichen Versorgung. Clara Barton, die spätere Gründerin des Amerikanischen Roten Kreuzes, erhielt für ihren Einsatz in diesem Krieg von Kaiser Wilhelm I. das Eiserne Kreuz verliehen. In der Folge des Krieges fand die für 1873 in Wien geplante Internationale Rotkreuzkonferenz nicht statt, und erst 1888 kam es in Genf wieder zu einer solchen Konferenz. 1876 bekam das Internationale Komitee den noch heute gültigen Namen "Internationales Komitee vom Roten Kreuz" (franz. "Comité international de la Croix-Rouge", CICR – engl. "International Committee of the Red Cross", ICRC). Zwei Jahre später kam es erstmals zu Hilfsaktionen des IKRK und einiger nationaler Rotkreuz-Gesellschaften zugunsten von Zivilisten, als die erst kurz zuvor gegründete Türkische Rothalbmond-Gesellschaft zum Ende der Balkankrise im Jahr 1878 einen Aufruf zur Unterstützung bei der Versorgung von Flüchtlingen an das Komitee richtete. Drei Jahre später wurde in den Vereinigten Staaten von Amerika auf Initiative von Clara Barton das Amerikanische Rote Kreuz gegründet. Während des Spanisch-Amerikanischen Krieges 1898 wurden mit den drei Schiffen "Moynier", "Red Cross" und "State of Texas" erstmals Hospitalschiffe unter der Flagge des Roten Kreuzes in einem bewaffneten Konflikt zur See eingesetzt. Bis zur Jahrhundertwende unterzeichneten immer mehr Staaten die Genfer Konvention und respektierten diese auch weitestgehend in kriegerischen Auseinandersetzungen. Im Jahr 1901 erhielt Henry Dunant, zusammen mit dem französischen Pazifisten Frédéric Passy, den erstmals verliehenen Friedensnobelpreis. Die Glückwünsche, die das Komitee anlässlich der Preisverleihung übermittelte, bedeuteten für ihn nach 34 Jahren die späte Rehabilitierung und ausdrückliche Anerkennung seiner Verdienste für die Entstehung des Roten Kreuzes. Neun Jahre später starb Henry Dunant am 30. Oktober 1910 in Heiden (Schweiz), zwei Monate nach Gustave Moynier. 1906 wurde die Erste Genfer Konvention von 1864 erstmals überarbeitet. Unmittelbar vor dem Beginn des Ersten Weltkriegs im Jahr 1914, fünfzig Jahre nach der Annahme der Ersten Genfer Konvention, gab es 45 nationale Gesellschaften. Neben Gesellschaften in fast allen europäischen Ländern und den USA existierten weitere Gesellschaften unter anderem auch in Mittel- und Südamerika (Argentinien, Brasilien, Chile, Kuba, Mexiko, Peru, El Salvador, Uruguay, Venezuela), Asien (China, Japan, Korea, Siam) und Afrika (Republik Südafrika). Das IKRK während des Ersten Weltkrieges. a> an das Internationale Rotkreuz- und Rothalbmondmuseum in Genf Der Erste Weltkrieg stellte das IKRK vor große Herausforderungen, die es nur in Zusammenarbeit mit den nationalen Rotkreuz-Gesellschaften bewältigen konnte. Selbst aus den USA und Japan waren Rotkreuzschwestern zur Unterstützung der Sanitätsdienste der betroffenen europäischen Länder im Einsatz. Am 15. Oktober 1914, unmittelbar nach Kriegsbeginn, richtete das IKRK seine Internationale Zentralstelle für Kriegsgefangene ein, die Ende 1914 bereits 1.200 vorwiegend freiwillige Mitarbeiter beschäftigte. Von 1916 bis 1919 war die Zentralstelle im Musée Rath untergebracht. Im Verlauf des gesamten Krieges übermittelte die Zentralstelle ca. 20 Millionen Briefe und Mitteilungen, fast 1,9 Millionen Pakete und Geldspenden in Höhe von ca. 18 Millionen Schweizer Franken an Kriegsgefangene aller beteiligten Staaten. Ferner kam es durch Vermittlung der Zentralstelle zum Austausch von ca. 200.000 Gefangenen. Die Kartei der Zentralstelle, die in den Jahren von 1914 bis 1923 entstand, enthält rund sieben Millionen Karteikarten. Sie führte in ca. zwei Millionen Fällen zur Identifizierung von Gefangenen und damit zu einem Kontakt zwischen den Gefangenen und ihren Angehörigen. Die gesamte Kartei kann heutzutage als Leihgabe des IKRK im Internationalen Rotkreuz- und Rothalbmondmuseum in Genf besichtigt werden, wobei eine Einsichtnahme weiterhin dem IKRK vorbehalten bleibt. Das IKRK überwachte während des gesamten Krieges die Einhaltung der Genfer Konvention in der Fassung von 1906 und leitete Beschwerden über Verstöße an die beteiligten Staaten weiter. Des Weiteren protestierte das IKRK gegen die Verwendung von chemischen Kampfstoffen, die im Ersten Weltkrieg erstmals zum Einsatz kamen. Ohne Mandat durch die Genfer Konvention setzte sich das IKRK auch für die vom Krieg betroffene Zivilbevölkerung ein, insbesondere in besetzten Territorien, wo das IKRK auf die Haager Landkriegsordnung als rechtsverbindliche Vereinbarung zurückgreifen konnte. Ebenfalls basierend auf der Haager Landkriegsordnung waren die Aktivitäten des IKRK in Bezug auf Kriegsgefangene, wozu neben dem bereits beschriebenen Suchdienst und Informationsaustausch vor allem der Besuch von Kriegsgefangenenlagern gehörte. Insgesamt wurden im Kriegsverlauf 524 Lager in ganz Europa durch 41 Delegierte des IKRK besichtigt. Zwischen 1916 und 1918 veröffentlichte das IKRK mehrere Ansichtskarten mit Motiven der von seinen Delegierten besuchten Lager. Dafür wurden Bilder ausgewählt, welche die Gefangenen bei alltäglichen Tätigkeiten wie zum Beispiel der Postverteilung zeigten. Ziel der Veröffentlichung dieser Karten war es, den Angehörigen der Gefangenen Hoffnung zu vermitteln und sie zu beruhigen. Nach Kriegsende organisierte das IKRK die Rückführung von ca. 420.000 Kriegsgefangenen in ihre Heimatländer. Für seine Aktivitäten während des Ersten Weltkriegs erhielt das IKRK 1917 den Friedensnobelpreis, den einzigen, der in den Kriegsjahren von 1914 bis 1918 vergeben wurde. Die weitere Repatriierung der Gefangenen wurde ab 1920 vom neu gegründeten Völkerbund unter der Verantwortung seines "Hochkommissars für die Heimschaffung der Kriegsgefangenen" Fridtjof Nansen übernommen. Sein Mandat wurde später ausgeweitet auf die Unterstützung und Versorgung von Kriegsflüchtlingen und Vertriebenen. Zu seiner Unterstützung für diese Tätigkeiten wählte er zwei Delegierte des IKRK als seine Stellvertreter. 1923 entschied sich das Komitee, das seit der Gründung nur Genfer Bürgern die Mitgliedschaft gestattete, diese Festlegung zugunsten einer Einschränkung auf Schweizer Staatsangehörige aufzuheben. Als direkte Folge des Ersten Weltkrieges im Hinblick auf das humanitäre Völkerrecht kam es durch das Genfer Protokoll von 1925 zum Verbot des Einsatzes von erstickenden und giftigen Gasen sowie bakteriellen Kampfstoffen zur Kriegsführung. Des Weiteren wurde 1929 die Erste Genfer Konvention erneut überarbeitet und eine neue Konvention „über die Behandlung von Kriegsgefangenen“ angenommen. Die Ereignisse des Ersten Weltkrieges und die entsprechenden Aktivitäten des IKRK hatten für das Komitee eine deutliche Aufwertung seines Ansehens und seiner Autorität gegenüber der Staatengemeinschaft und eine Ausweitung seiner Kompetenzen zur Folge. Bereits auf der Internationalen Rotkreuzkonferenz 1934 wurde erstmals ein Entwurf für eine Konvention zum Schutz der Zivilbevölkerung während eines Krieges angenommen. Die meisten Regierungen zeigten nicht genug Interesse an einer Umsetzung, so dass es vor dem Beginn des Zweiten Weltkriegs nicht zu einer entsprechenden diplomatischen Konferenz zur Annahme dieser Konvention kam. Das IKRK und der Zweite Weltkrieg. Basis der Tätigkeit des IKRK während des Zweiten Weltkrieges waren die Genfer Konventionen in der Fassung von 1929. Die Aktivitäten des IKRK im Zweiten Weltkrieg konzentrierten sich wie im Ersten Weltkrieg auf die Überwachung der Kriegsgefangenenlager, die Hilfe für die Zivilbevölkerung und den Informationsaustausch über Gefangene und vermisste Personen. Im gesamten Kriegsverlauf kam es zu 12.750 Besuchen von Kriegsgefangenenlagern in 41 Ländern durch 179 Delegierte. In der Zentralauskunftsstelle für Kriegsgefangene waren während dieses Krieges ca. 3.000 Menschen beschäftigt. Ihre Kartei umfasste ca. 45 Millionen Karten, ca. 120 Millionen Nachrichten wurden vermittelt. Ein großes Problem für die Arbeit des IKRK war die Gleichschaltung des Deutschen Roten Kreuzes in der Zeit des Nationalsozialismus und die damit verbundenen massiven Einschränkungen in der Zusammenarbeit mit dem DRK in Bezug auf die Deportation der Juden aus Deutschland und den Massenmord in den Vernichtungs- und Konzentrationslagern. Erschwerend kam auch die Tatsache hinzu, dass mit der Sowjetunion und Japan zwei Hauptmächte des Krieges nicht der Genfer Konvention „über die Behandlung von Kriegsgefangenen“ von 1929 beigetreten waren. Es gelang dem IKRK während des gesamten Krieges nicht, bei den nationalsozialistischen Machthabern die Gleichstellung der in den Konzentrationslagern internierten Menschen mit Kriegsgefangenen zu erreichen. Aufgrund der Befürchtung, durch ein weiteres Beharren auf entsprechenden Forderungen seine Aktivitäten für Kriegsgefangene und damit seine völkerrechtlich legitimierte Mission zu gefährden, unterließ das IKRK weiterführende Bemühungen in dieser Hinsicht. Aus dem gleichen Grund, und wegen einer möglichen Gefährdung seiner Neutralität, unternahm das IKRK nur zögerliche und unzureichende Schritte bei den Alliierten im Hinblick auf seine Kenntnisse über die Existenz der Vernichtungslager und die Deportation der jüdischen Bevölkerung. Ein weiterer Grund war der damals bestehende Einfluss der Schweizer Regierung auf das Komitee und die daraus resultierende Unterordnung des IKRK unter Vorgaben der Regierung, die den Sicherheitsinteressen der Schweiz entsprachen. So war Philipp Etter, Schweizer Bundesrat im Departement des Innern von 1934 bis 1959 und Bundespräsident in den Jahren 1939, 1942, 1947 und 1953, zur damaligen Zeit auch Mitglied im IKRK. Ein wichtiges Ziel der Schweizer Politik während des Krieges war es, unter allen Umständen die Neutralität und Souveränität der Schweiz zu wahren, die zeitweise vollständig von den Achsenmächten umschlossen war. Die daraus resultierende Vermeidung aller Handlungen, die Deutschland oder seine Verbündeten hätte brüskieren können, wirkte sich auch auf die Aktivitäten des IKRK aus und wurde nach dem Ende des Krieges von den Siegermächten als illegitime Kooperation mit den Nazis angesehen. Erst ab November 1943 war es dem IKRK erlaubt, Pakete an diejenigen KZ-Insassen zu schicken, deren Namen und Aufenthaltsort dem Komitee bekannt waren und die keinen verschärften Haftbedingungen unterlagen. Durch die Empfangsbestätigungen, die neben den Empfängern oft auch von mehreren anderen Insassen unterzeichnet waren, gelang es dem IKRK, ca. 105.000 Menschen in den Lagern zu registrieren und insgesamt 1,1 Millionen Pakete zu verschicken, vorwiegend in die Lager Dachau, Buchenwald, Ravensbrück und Oranienburg-Sachsenhausen. Am 12. März 1945 erhielt der damalige IKRK-Präsident Carl Burckhardt von SS-General Ernst Kaltenbrunner die Zusage, dass IKRK-Delegierten Zugang zu den Konzentrationslagern gewährt werden würde. Dies galt allerdings unter der Voraussetzung, dass diese Delegierten bis zum Ende des Krieges in den Lagern verblieben. Zehn Delegierte, unter ihnen Louis Häfliger (Mauthausen), Paul Dunant (Theresienstadt) und Victor Maurer (Dachau) erklärten sich zu einer solchen Mission bereit. Louis Häfliger verhinderte durch seinen persönlichen Einsatz die Sprengung des Lagers Mauthausen und rettete damit tausenden Gefangenen das Leben. Er wurde vom IKRK für sein eigenmächtiges Handeln verurteilt und erst 1990 durch den damaligen Präsidenten Cornelio Sommaruga rehabilitiert. Herausragend aus der Zeit des Zweiten Weltkrieges sind darüber hinaus die Aktivitäten des IKRK-Delegierten Friedrich Born für die jüdische Bevölkerung in Ungarn. Er rettete durch seinen Einsatz ca. 11.000 bis 15.000 Menschen das Leben und wurde am 5. Juni 1987 posthum als "Gerechter unter den Völkern" in die israelische Holocaust-Gedenkstätte Yad Vashem aufgenommen. Ein weiterer bekannter Delegierter des IKRK im Zweiten Weltkrieg war der Genfer Arzt Marcel Junod, dessen Erlebnisse in seinem Buch "Kämpfer beidseits der Front" nachzulesen sind. Im Jahr 1944 erhielt das IKRK erneut den Friedensnobelpreis, der seit Beginn des Krieges nicht vergeben worden war. Nach Ende des Krieges organisierte das IKRK, in Zusammenarbeit mit verschiedenen nationalen Rotkreuz-Gesellschaften, Hilfsmaßnahmen in den vom Krieg betroffenen Ländern. In Deutschland wurde dies vor allem vom Schwedischen Roten Kreuz unter Leitung von Folke Bernadotte übernommen. Weitere umfangreiche Hilfsaktionen nationaler Gesellschaften waren die Operation Shamrock des Irischen Roten Kreuzes sowie die Kinderhilfe des Schweizerischen Roten Kreuzes. Auch die jüdische Fluchthilfe Beriha wurde bei der Rettung von etwa 5000 Juden aus Polen nach Rumänien im Januar 1945 vom IKRK unterstützt. 1948 veröffentlichte das IKRK einen „Bericht des Internationalen Komitees vom Roten Kreuz über sein Wirken während des Zweiten Weltkriegs (1. September 1939 – 30. Juni 1947)“. Seit dem 17. Januar 1996 ist das Archiv des IKRK für die Öffentlichkeit zugänglich. Das IKRK nach dem Zweiten Weltkrieg. Das Hauptquartier des IKRK in Genf Am 12. August 1949 wurden grundlegende Neufassungen der bestehenden zwei Konventionen angenommen, die seitdem als Genfer Abkommen I und III bezeichnet werden. Zwei neue Abkommen, das Genfer Abkommen II „zur Verbesserung des Loses der Verwundeten, Kranken und Schiffbrüchigen der bewaffneten Kräfte zur See“ und als wichtigste Konsequenz aus dem Zweiten Weltkrieg das Genfer Abkommen IV „über den Schutz von Zivilpersonen in Kriegszeiten“, erweiterten darüber hinaus den Schutz des humanitären Völkerrechts auf weitere Personengruppen. Weitere wesentliche Ergänzungen in mehreren Bereichen brachten die zwei Zusatzprotokolle vom 8. Juni 1977. Zum einen integrierten beide Protokolle erstmals auch Regeln für zulässige Mittel und Methoden der Kriegführung und damit Vorschriften für den Umgang mit den an den Kampfhandlungen beteiligten Personen, den sogenannten Kombattanten, in den Kontext der Genfer Konventionen. Zum zweiten verwirklichte das Protokoll II eines der am längsten verfolgten Ziele des IKRK: die Ausdehnung der Anwendbarkeit des humanitären Völkerrechts auch auf Situationen in nichtinternationalen, bewaffneten Konflikten wie beispielsweise Bürgerkriegen. Heute umfassen die vier Genfer Konventionen und ihre zwei Zusatzprotokolle über 600 Artikel. Zum hundertjährigen Jubiläum seiner Gründung erhielt das IKRK, diesmal gemeinsam mit der Liga, im Jahr 1963 zum dritten Mal den Friedensnobelpreis. Trotz dieser Anerkennung und der Erfolge des Internationalen Komitees bei der Weiterentwicklung des humanitären Völkerrechts war seine Tätigkeit während der Konflikte des Kalten Krieges stark eingeschränkt durch eine weitestgehend ablehnende Haltung der kommunistischen Staaten, die auf grundsätzlichen Zweifeln an der Neutralität des Komitees beruhte. So konnte das IKRK weder im Indochinakrieg noch im Vietnamkrieg aktiv werden, da dies von den Regierungen der jeweiligen Länder strikt abgelehnt wurde. Erst die gemeinsame Hilfsmission mit UNICEF in Kambodscha nach dem 1979 verbesserte die Beziehungen zwischen dem IKRK und der kommunistischen Staatengemeinschaft. In den Konflikten zwischen den arabischen Staaten und Israel sowie zwischen Indien und Pakistan war die Tätigkeit des Komitees hingegen nicht von solchen Problemen betroffen. Im Biafra-Krieg von 1967 bis 1970 um die Unabhängigkeit des Gebietes Biafra von Nigeria offenbarten sich Schwierigkeiten innerhalb der Führungsebene des Komitees hinsichtlich der Einsatztätigkeit und der Zusammenarbeit mit den nationalen Rotkreuz-Gesellschaften vor Ort. Französische Ärzte um Bernard Kouchner, die unzufrieden waren mit den Beschränkungen, die sich aus dem Prinzip der Neutralität für die Arbeit des Komitees und des Französischen Roten Kreuzes ergeben hatten, gründeten darüber hinaus 1971 die Hilfsorganisation Médecins Sans Frontières (Ärzte ohne Grenzen). Innerhalb des IKRK führten die Ereignisse während des Konfliktes in Biafra zu einer grundlegenden Neuordnung der Rollenverteilung zwischen den Mitgliedern des Komitees und dem Präsidenten auf der einen und den Angestellten auf der anderen Seite. Insbesondere im Bereich der praktischen Einsatztätigkeit erhielten die Mitarbeiter des Komitees deutlich mehr Kompetenzen und Einfluss. Der Falklandkrieg zwischen Argentinien und Großbritannien im Jahr 1982 war von Seiten beider Konfliktparteien durch eine beispielhafte Kooperation mit dem IKRK sowie eine nahezu vollumfängliche Einhaltung der Bestimmungen des humanitären Völkerrechts gekennzeichnet. Dem Komitee war es dadurch möglich, die rund 11.700 Kriegsgefangenen in diesem Konflikt den Genfer Konventionen entsprechend zu registrieren und angemessen zu betreuen. Hinsichtlich der Versorgung der Verwundeten stellte der Falklandkrieg aufgrund der Seekriegsführung die bei weitem umfangreichste Anwendung des entsprechenden Genfer Abkommens seit dem Abschluss im Jahr 1949 dar. Darüber hinaus gelang es dem Komitee, eine schriftliche Vereinbarung beider Konfliktparteien zur Einrichtung einer neutralen Sanitäts- und Sicherheitszone für Zivilpersonen im Bereich um die Kirche der Falkland-Hauptstadt Stanley zu erreichen. Neun Jahre nach dem Ende des Konflikts kam es durch Vermittlungen des IKRK zu einem vom Komitee organisierten Besuch von Gräbern gefallener argentinischer Soldaten auf den Falklandinseln durch rund 300 Angehörige. Die Generalversammlung der Vereinten Nationen (UN) beschloss am 16. Oktober 1990, das IKRK als Beobachter (engl. "observer") zu ihren Tagungen und den Sitzungen ihrer Komitees einzuladen. Die entsprechende Resolution (A/RES/45/6) wurde von 138 Mitgliedsländern eingebracht und auf der 31. Plenarsitzung ohne Abstimmung angenommen. Aus historischen Gründen – mit Bezug auf die Schlacht von Solferino – wurde die Resolution von Vieri Traxler, dem damaligen UN-Botschafter der Republik Italien, vorgestellt. Mit dieser Entscheidung wurde der Beobachter-Status in der UN-Generalversammlung erstmals einer privaten Organisation zuerkannt. Ein am 19. März 1993 mit dem Schweizerischen Bundesrat geschlossenes Abkommen garantiert dem IKRK bei seinen Aktivitäten in der Schweiz volle Unabhängigkeit und Handlungsfreiheit; die Unverletzlichkeit seiner Räumlichkeiten, Archive und sonstigen Unterlagen; weitgehende rechtliche Immunität für das Komitee und seine Mitglieder, Delegierten und sonstigen Mitarbeiter; die Befreiung von allen direkten und indirekten Steuern sowie sonstigen Gebühren auf Bundes-, Kantons- oder lokaler Ebene; freien Zoll- und Zahlungsverkehr; Begünstigungen hinsichtlich seiner Kommunikation, die mit denen für in der Schweiz ansässigen internationalen Organisationen und ausländischen diplomatischen Vertretungen vergleichbar sind; sowie weitgehende Erleichterungen für seine Mitglieder, Delegierten und Mitarbeiter bei der Ein- und Ausreise. Seit 1993 können auch Personen anderer Nationalität als der Schweizerischen für das IKRK tätig sein, sowohl vor Ort im Hauptquartier in Genf als auch als Delegierte bei Auslandseinsätzen. Der Anteil von Mitarbeitern ohne Schweizer Staatsangehörigkeit ist seitdem kontinuierlich angestiegen und liegt derzeit bei etwa 35 Prozent. Die Zeit seit 1990 war für das IKRK aber auch durch eine Reihe von tragischen Ereignissen gekennzeichnet. So viele Delegierte wie nie zuvor in der Geschichte des Komitees verloren bei ihren Einsätzen ihr Leben. Dieser Trend ist vor allem auf den Anstieg der Zahl lokaler und oft innerstaatlicher Konflikte sowie mangelnden Respekt der beteiligten Konfliktparteien vor den Bestimmungen der Genfer Konventionen und ihrer Schutzzeichen zurückzuführen. Präsidenten des IKRK. Eine ausführliche Gesamtübersicht mit Lebensdaten, biographischen Informationen und wichtigen Ereignissen während der jeweiligen Amtszeit ist in der Liste der Präsidenten des Internationalen Komitees vom Roten Kreuz zu finden. Von der Gründung bis 1945. a>, Gründungsvater der Liga der Rotkreuz-Gesellschaften Am 15. Mai 1919 gründeten die nationalen Rotkreuz-Gesellschaften Großbritanniens, Frankreichs, Italiens, Japans und der USA auf Anregung des damaligen Präsidenten des Amerikanischen Roten Kreuzes, Henry P. Davison, in Paris die "Liga der Rotkreuz-Gesellschaften". Die Ausdehnung der Rotkreuz-Aktivitäten über die strikte Mission des IKRK hinaus auch auf die Hilfe für Opfer von nicht kriegsbedingten Notsituationen (wie nach technischen Unglücken und Naturkatastrophen), die auf internationaler Ebene Aufgabe der Liga werden sollte, geschah ebenfalls auf Initiative des Amerikanischen Roten Kreuzes. Dieses war bereits seit seiner Gründung auch in Friedenszeiten mit Hilfsaktionen aktiv, eine Idee, die auf seine Gründerin Clara Barton zurückging. Die Gründung der Liga, als weitere international tätige Rotkreuz-Organisation neben dem IKRK, war aus mehreren Gründen zunächst umstritten. Zum einen gab es von Seiten des IKRK zum Teil berechtigte Befürchtungen hinsichtlich einer Konkurrenz zwischen beiden Organisationen. Die Gründung der Liga wurde als Versuch angesehen, den Führungsanspruch des Komitees in Frage zu stellen und die meisten seiner Aufgaben und Befugnisse einer multilateralen Institution zu übertragen. Das IKRK war nach Meinung der Führung des Amerikanischen Roten Kreuzes zu zurückhaltend in seinem Vorgehen und nicht einflussreich genug hinsichtlich seiner internationalen Bedeutung. Zum anderen waren an der Gründung der Liga ausschließlich nationale Gesellschaften aus Staaten der Entente beziehungsweise mit ihren alliierten oder assoziierten Ländern beteiligt. Die im Mai 1919 ursprünglich beschlossenen Statuten der Liga gewährten darüber hinaus den fünf an der Gründung beteiligten Gesellschaften einen Sonderstatus sowie, auf Betreiben von Henry P. Davison, das Recht, die nationalen Rotkreuz-Gesellschaften der Mittelmächte Deutschland, Österreich, Ungarn, Bulgarien und der Türkei sowie das Russische Rote Kreuz dauerhaft auszuschließen. Dieser Passus widersprach jedoch den Rotkreuz-Prinzipien der Universalität und der Gleichberechtigung zwischen allen nationalen Gesellschaften. Auch der Aufbau des Völkerbundes spielte eine Rolle bei der Gründung der Liga. So finden sich z. B. in Art. 25 der Völkerbundsatzung von 1919 als eine Verpflichtung der Staaten, "die Errichtung und Zusammenarbeit anerkannter freiwilliger nationaler Organisationen des Roten Kreuzes zur Hebung der Gesundheit, Verhütung von Krankheiten und Milderung der Leiden in der Welt zu fördern und zu begünstigen." Die erste durch die Liga organisierte Hilfsaktion unmittelbar nach ihrer Gründung war die Versorgung der Betroffenen einer Typhus-Epidemie und Hungersnot in Polen. Bereits in den ersten fünf Jahren nach ihrer Gründung erließ die Liga 47 Spendenappelle für Hilfsaktionen in 34 Ländern. Auf diesem Wege gelangten Hilfsgüter im Wert von ca. 685 Millionen Schweizer Franken unter anderem an die Opfer von Hungersnöten in Russland, Deutschland und Albanien, Erdbeben in Chile, Persien, Japan, Kolumbien, Ecuador, Costa Rica und der Türkei und an Flüchtlinge in Griechenland und der Türkei. Ein weiteres wichtiges Anliegen der Liga war die Unterstützung der nationalen Gesellschaften bei der Schaffung von Jugendsektionen. Der erste große Katastropheneinsatz der Liga war das Erdbeben in Japan im Jahr 1923, bei dem ca. 200.000 Menschen ums Leben kamen. Durch Vermittlung der Liga erhielt das Japanische Rote Kreuz Hilfeleistungen von anderen nationalen Gesellschaften im Gesamtwert von ca. 100 Millionen Dollar. a> zur Unterstützung des Roten Halbmondes, 1928 Mit dem Einsatz der Liga zusammen mit dem IKRK im Russischen Bürgerkrieg (1917–1922) wurde die Bewegung erstmals in einem innerstaatlichen Konflikt aktiv. Während die Liga mit Unterstützung von mehr als 25 nationalen Gesellschaften vor allem die Verteilung von Hilfsgütern und die Versorgung der hungernden und von Seuchen betroffenen Zivilbevölkerung übernahm, unterstützte das IKRK durch seine Neutralität das Russische und später das Sowjetische Rote Kreuz bei seinen Aktivitäten gegenüber den Konfliktparteien. Zur Koordinierung der Aktivitäten zwischen dem IKRK und der Liga und zur Beilegung der zwischen beiden Organisationen bestehenden Rivalitäten wurde 1928 das "Internationale Rote Kreuz" als Dachverband beider Organisationen gegründet. Ein "International Council" fungierte dabei als Leitorgan des IRK. Die Aufgaben des Councils wurden später von der Ständigen Kommission (engl. "Standing Commission") übernommen. Im gleichen Jahr wurden erstmals gemeinsame Statuten der Rotkreuz-Bewegung beschlossen, welche die jeweiligen Aufgaben des IKRK und der Liga beschrieben. Dabei setzte sich das IKRK hinsichtlich seines Führungsanspruches innerhalb der Bewegung gegen entsprechende Bestrebungen der Liga durch. Ein Jahr später wurden mit dem Roten Halbmond und dem Roten Löwen mit roter Sonne zwei weitere, mit dem Roten Kreuz gleichberechtigte, Schutzzeichen in die Genfer Konventionen aufgenommen. Während der Iran das einzige Land war, das (bis 1980) den Roten Löwen mit roter Sonne verwendete, entwickelte sich der Rote Halbmond zum Symbol nahezu aller nationalen Gesellschaften in islamischen Ländern. Während des Krieges zwischen Äthiopien und Italien (1935/1936) erbrachte die Liga Hilfeleistungen im Umfang von ca. 1,7 Millionen Schweizer Franken, die aufgrund der Ablehnung jeglicher Zusammenarbeit mit dem Internationalen Roten Kreuz durch Italien ausschließlich der äthiopischen Seite zukamen. Vorwiegend durch Angriffe der Italienischen Armee verloren in diesem Konflikt 29 Menschen, die unter dem Schutz des Roten Kreuzes tätig waren, ihr Leben. Während des Spanischen Bürgerkrieges von 1936 bis 1939 war die Liga erneut zusammen mit dem IKRK aktiv und wurde dabei von 41 nationalen Gesellschaften unterstützt. In den Jahren 1937 und 1939 wurde die Liga vom damaligen IKRK-Präsidenten Max Huber in seiner Funktion als Mitglied des Institut de Droit international (Institut für Völkerrecht) für den Friedensnobelpreis nominiert. 1939 verlegte die Liga aufgrund des Beginns des Zweiten Weltkrieges ihren Hauptsitz von Paris nach Genf, um für ihre Aktivitäten den sich aus der Schweizer Neutralität ergebenden Schutz in Anspruch nehmen zu können. Die Zeit nach dem Zweiten Weltkrieg. Bereits kurz nach dem Ende des Zweiten Weltkrieges forderten sowohl einige Regierungen als auch einzelne Rotkreuz-Gesellschaften die Auflösung des IKRK und die Übertragung seiner Befugnisse an die Liga der Rotkreuz-Gesellschaften. Alternativ dazu schlug der damalige Präsident des Schwedischen Roten Kreuzes Folke Bernadotte vor, die Aufgaben des Komitees und der Liga dadurch zusammenzuführen, dass jede nationale Gesellschaft ein Mitglied des Internationalen Komitees stellen sollte. Das IKRK begegnete diesen Vorschlägen zum einen durch verstärkte Hilfsaktivitäten. Zum anderen bezog es im Rahmen von zwei Konferenzen 1946 die nationalen Gesellschaften und 1947 die Regierungen der Staatengemeinschaft in eine Überarbeitung der Genfer Konventionen ein und betonte auf diese Weise seine besondere Stellung im Bereich des humanitären Völkerrechts. Die Verabschiedung der Neufassungen der Genfer Konventionen im Jahr 1949 stärkte somit die Position des Komitees gegenüber der Liga und den nationalen Gesellschaften. Drei Jahre später wurden die 1928 beschlossenen Statuten der Bewegung erstmals überarbeitet. Von 1960 bis 1970 verzeichnete die Liga einen starken Anstieg in der Zahl der anerkannten nationalen Rotkreuz- und Rothalbmond-Gesellschaften, von denen es zum Ende des Jahrzehnts mehr als 100 gab. Dieser Trend war zum Teil auf die Unabhängigkeit von früheren Kolonien in Afrika und Asien zurückzuführen. Am 10. Dezember 1963 erhielt die Liga, zusammen mit dem IKRK, den Friedensnobelpreis. Am 11. Oktober 1983 wurde die Liga umbenannt in "Liga der Rotkreuz- und Rothalbmond-Gesellschaften". 1986 fanden die 1965 beschlossenen sieben Grundsätze der Bewegung Eingang in die Statuten, die im selben Jahr erneut überarbeitet wurden. Darüber hinaus wurde im Rahmen der Überarbeitung der Statuten die Bezeichnung "Internationales Rotes Kreuz" aufgegeben zugunsten des neuen offiziellen Namens "Internationale Rotkreuz- und Rothalbmond-Bewegung". Am 27. November 1991 erhielt die Liga den heute gültigen Namen "Internationale Föderation der Rotkreuz- und Rothalbmond-Gesellschaften" (engl. "International Federation of Red Cross and Red Crescent Societies", IFRC). Am 19. Oktober 1994 wurde während der 38. Plenartagung der Generalversammlung der Vereinten Nationen auch die Föderation als Beobachter zu den Tagungen der UN und den Sitzungen ihrer Komitees eingeladen (Resolution A/RES/49/2). Das 1997 zwischen der Föderation und dem IKRK geschlossene "Abkommen von Sevilla" definiert die Zuständigkeiten beider Organisationen bei internationalen Einsätzen. Das IKRK gab dabei einige Zuständigkeiten an die Föderation ab, beispielsweise bei der Betreuung von Flüchtlingen in Ländern ohne bewaffnete Konflikte. Die bisher umfangreichste Hilfsaktion unter Leitung der Föderation ist mit Beteiligung von rund 22.000 Helfern von mehr als 40 nationalen Rotkreuz- und Rothalbmond-Gesellschaften der Einsatz nach der Tsunami-Katastrophe im Indischen Ozean am 26. Dezember 2004. Struktur und Organisation. Eingang zum Internationalen Rotkreuz- und Rothalbmondmuseum in Genf Mitglieder der Internationalen Rotkreuz- und Rothalbmond-Bewegung sind das Internationale Komitee vom Roten Kreuz, die Internationale Föderation der Rotkreuz- und Rothalbmond-Gesellschaften sowie die nationalen Rotkreuz- und Rothalbmond-Gesellschaften. Diese Organisationen sind innerhalb der Bewegung durch die Internationale Konferenz des Roten Kreuzes und Roten Halbmondes, den Delegiertenrat der Bewegung sowie die ständige Kommission des Roten Kreuzes und Roten Halbmondes als gemeinsame Organe miteinander verbunden. Die Internationale Konferenz ist das oberste Organ der Bewegung. Hier kommen die Vertreter der nationalen Gesellschaften, des IKRK und der Föderation sowie die Vertreter der Vertragsstaaten der Genfer Abkommen etwa alle vier Jahre zusammen. Sie „trägt zur Einheit der Bewegung sowie zur Weiterentwicklung des humanitären Völkerrechts und anderer internationaler Abkommen von besonderem Interesse für die Bewegung bei“ und verabschiedet ihre Beschlüsse, Empfehlungen und Deklarationen in Form von Resolutionen. Die Teilnehmer der Konferenz wählen darüber hinaus die Mitglieder der Ständigen Kommission und können dem IKRK oder der Föderation im Rahmen der Statuten Mandate übertragen. Die Teilnehmer müssen die Grundsätze der Bewegung achten und sich als Redner jeglicher kontroverser politischer, rassistischer, religiöser oder ideologischer Stellungnahmen enthalten. Die Vertreter der Nationalen Rotkreuz- und Rothalbmond-Gesellschaften, des IKRK und der Föderation bilden den Delegiertenrat. Im Rahmen der Statuten „äußert sich der Rat zu jeder die Bewegung betreffende Frage und fasst, sofern nötig, entsprechende Beschlüsse“ im Konsensverfahren. Der Rat tritt in der Regel vor einer Internationalen Konferenz zusammen. Vertreter neuer nationaler Gesellschaften im Anerkennungsverfahren haben die Möglichkeit, den Sitzungen beizuwohnen. Zwischen den Internationalen Konferenzen ist die Ständige Kommission Sachverwalter der Konferenz. Sie setzt sich dafür ein, dass die Organisationen der Bewegung harmonisch zusammenarbeiten, bemüht sich um die Umsetzung der Resolutionen der Konferenz und behandelt Angelegenheiten, welche die Bewegung in ihrer Gesamtheit betreffen. Ihr gehören neun Mitglieder an, davon fünf Mitglieder der nationalen Gesellschaften, zwei Vertreter des IKRK sowie zwei Vertreter der Föderation. Die Kommission ist zuständig für die Festlegung des Konferenzortes, des Datums, des Programms sowie der vorläufigen Tagesordnung. Darüber hinaus hat sie die Aufgabe, Meinungsverschiedenheiten, die durch Auslegung oder Anwendung der Statuten der Bewegung entstehen, zu entscheiden. Zusammengefasst unter der Bezeichnung „Internationale Rotkreuz- und Rothalbmond-Bewegung“ sind für das IKRK, die Föderation und die nationalen Gesellschaften weltweit gegenwärtig etwa 97 Millionen Mitglieder aktiv, davon ca. 300.000 Menschen hauptberuflich. Grundsätze. Diesen Grundsätzen sind alle Mitglieder und Organisationen des Roten Kreuzes oder Roten Halbmondes verpflichtet. Motto, Gedenktag und Sehenswürdigkeiten. Der erste Wahlspruch des Internationalen Komitees vom Roten Kreuz lautete. Es wurde erstmals 1888 durch Gustave Moynier anlässlich der Feierlichkeiten zum 25-jährigen Bestehen der Rotkreuz-Bewegung verwendet. Er beschrieb dabei ein Bild, das einen Rotkreuz-Helfer inmitten des Kriegsgeschehens darstellte und in der Jubiläumsschrift des IKRK abgebildet war. Das Motto wurde ab 1889 auf den jeweiligen Ausgaben des "Bulletin International" verbreitet. Es wurde 1961 für die gesamte Rotkreuz- und Rothalbmond-Bewegung ergänzt um die Losung. In diesen Losungen kommt somit auch die historisch bedingte Ausrichtung beider Organisationen auf ihre vorrangigen Aufgaben zum Ausdruck. Von 1999 bis 2004 standen deshalb alle Aktivitäten der Internationalen Rotkreuz- und Rothalbmond-Bewegung unter dem Slogan. Während der 28. Internationalen Konferenz in Genf im Dezember 2003 wurde das Konferenzmotto zur neuen Losung für die Aktivitäten der Bewegung gewählt. Auf der 16. Internationalen Rotkreuz-Konferenz in London im Jahr 1938 wurde beschlossen, den Geburtstag von Henry Dunant am 8. Mai alljährlich als Gedenk- und Feiertag der Internationalen Bewegung zu begehen. Seit 1984 trägt dieser Tag den Namen „Weltrotkreuz- und Rothalbmondtag“. In Solferino befindet sich neben einem kleinen Museum, das sich hauptsächlich der Schlacht von Solferino und der Geschichte der Italienischen Befreiungskriege widmet, die Knochenkapelle Ossario di Solferino, in der die Schädel von 1.413 Gefallenen der Schlacht und Knochen von ca. 7.000 weiteren Opfern aufbewahrt sind, sowie das 1959 eingeweihte Denkmal des Roten Kreuzes. Im benachbarten Castiglione delle Stiviere wurde im gleichen Jahr das Internationale Museum des Roten Kreuzes eröffnet. Direkt neben dem Hauptsitz des IKRK in Genf ist das Internationale Rotkreuz- und Rothalbmondmuseum zu finden. Das Henry-Dunant-Museum in Heiden am Bodensee, das sich mit dem Leben und Wirken von Henry Dunant beschäftigt, wurde in dem Spital eingerichtet, in dem er die letzten 18 Jahre seines Lebens verbrachte. Mission und Aufgaben. Im Jahr 2006 besuchten Delegierte des IKRK rund 478.000 Gefangene an etwa 2.600 Orten in 71 Ländern, davon wurden fast 25.400 Gefangene erstmals besucht und registriert. Etwa 300.000 Rotkreuz-Mitteilungen zwischen voneinander getrennten Familienmitgliedern wurden ausgetauscht. Für etwa 11.600 Menschen konnte erstmals der Verbleib ermittelt werden, für fast 1.100 Kinder gelang die Zusammenführung mit ihren Familien. Rund 2,6 Millionen Menschen erhielten durch das IKRK Hilfe in Form von Lebensmitteln, rund vier Millionen in Form von Zelten, Decken, Hygieneartikeln und ähnlichem Material, 15,9 Millionen in Form von Wasser und sanitären Anlagen und rund 2,4 Millionen in Form von Gesundheitsstationen und ähnlichen Einrichtungen. Rund 18.000 Angehörige von Militär-, Sicherheits- und Polizeieinheiten in mehr als 100 Ländern erhielten durch das IKRK in mehr als 300 Kursen Unterweisungen zum humanitären Völkerrecht. Struktur und Organisation. Das IKRK hat seinen Hauptsitz in Genf und Niederlassungen in ca. 80 weiteren Ländern. Für die internationalen Aktivitäten des Komitees waren 2006 rund 12.500 Menschen weltweit im Einsatz, davon ca. 800 im Hauptquartier in Genf, ca. 1.500 sogenannte "Expatriates", je zur Hälfte Delegierte zur Leitung internationaler Missionen sowie Spezialisten wie Ärzte, Ingenieure, Logistiker, Übersetzer und andere, und etwa 10.200 Mitglieder nationaler Gesellschaften vor Ort. Entgegen weit verbreiteter Annahmen ist das IKRK in Bezug auf seine Struktur und Organisationsform weder eine nichtstaatliche Organisation, noch, wie der Name vermuten ließe, eine internationale Organisation. Das Wort „international“ im Namen bezieht sich auf sein durch die weltweite Staatengemeinschaft in den Genfer Abkommen erteiltes Mandat und rührt aus der Begrifflichkeit „inter nationes“ (zwischen den Staaten) her. Die Genfer Abkommen sind damit die völkerrechtliche Grundlage und zusammen mit den Statuten des Komitees die rechtliche Basis für seine Aktivitäten. Es besitzt darüber hinaus durch Verträge mit einzelnen Staaten und internationalen Organisationen sowie durch nationale Gesetze in einzelnen Ländern weitergehende Rechte, Privilegien und Immunitätsschutz zur Durchführung seiner Aufgaben. Hinsichtlich der Rechtsgrundlagen für seine Existenz und Organisation ist das IKRK eine private Vereinigung nach Schweizer Vereinsrecht. Laut seinen Statuten setzt es sich aus 15 bis 25 Schweizer Staatsbürgern zusammen, die durch das Komitee selbst für die Dauer von jeweils vier Jahren kooptiert werden. Eine mehrfache Wiederwahl ist möglich, nach Ablauf von drei Perioden ist für jede zukünftige Wiederwahl eine Dreiviertelmehrheit aller Komitee-Mitglieder notwendig. Die beiden wesentlichen Organe des IKRK sind das Direktorat (engl. "Directorate") und die Versammlung (engl. "Assembly"). Das Direktorat ist das ausführende Organ des Komitees und besteht aus einem Generaldirektor und fünf Direktoren für die Bereiche „Operationen“, „Personal“, „Ressourcen und operative Unterstützung“, „Kommunikation“ sowie „Internationales Recht und Kooperation innerhalb der Bewegung“. Die Mitglieder des Direktorats werden von der Versammlung für vier Jahre ernannt. Die Versammlung, bestehend aus allen Mitgliedern des Komitees, tritt regelmäßig zusammen und ist für die Festlegung von Zielen, Richtlinien und Strategien, die Überwachung der Aktivitäten des Komitees und die Kontrolle des Haushalts zuständig. Ihr Präsident ist der für jeweils vier Jahre gewählte Präsident des Komitees. Ihm zur Seite stehen zwei Vizepräsidenten. Während einer der beiden Vizepräsidenten ebenfalls vier Jahre lang amtiert, ist die Amtszeit des zweiten nicht befristet, sondern endet mit dem Rücktritt vom Amt oder dem Ausscheiden aus dem Komitee. Die Versammlung wählt darüber hinaus einen aus fünf Mitgliedern bestehenden Versammlungsrat (engl. "Assembly Council"). Diesem werden von der Versammlung Entscheidungsbefugnisse in bestimmten Angelegenheiten übertragen. Darüber hinaus bereitet der Versammlungsrat die Zusammenkünfte der Versammlung vor und dient als Verbindungsorgan zwischen der Versammlung und dem Direktorat. Bedingt durch die Lage Genfs im französischsprachigen Teil der Schweiz agiert das IKRK im Regelfall unter seinem französischen Namen "Comité international de la Croix-Rouge" bzw. dem sich daraus ergebenden Kürzel CICR. Als Symbol verwendet das IKRK das Rote Kreuz auf weißem Grund mit der im Kreis umlaufenden Beschriftung „COMITE INTERNATIONAL GENEVE“. Finanzierung. Das Budget des IKRK wird zum größten Teil durch die Schweiz als Depositarstaat der Genfer Abkommen und deren Vertragsstaaten sowie die nationalen Rotkreuz- und Rothalbmond-Gesellschaften, und in kleinerem Umfang durch internationale Organisationen wie die Europäische Union und durch Spenden von Firmen, Vereinen und Privatpersonen aufgebracht. Alle diese Zahlungen erfolgen freiwillig auf der Grundlage von Spendenaufrufen getrennt für die Bereiche interne Betriebskosten und Hilfseinsätze (engl. "Headquarters Appeal" und "Emergency Appeals"). Diese Aufrufe werden vom IKRK jährlich an Repräsentanten möglicher Unterstützer übergeben. Die Finanzplanungen des IKRK gelten in diplomatischen Kreisen aufgrund ihrer Gründlichkeit als Frühwarnsystem für humanitäre Krisen. Das geplante Gesamtbudget für das Jahr 2011 beläuft sich auf etwa 1,23 Milliarden Schweizer Franken, der höchste Stand in der Geschichte des Komitees. Es verteilt sich auf 1,05 Milliarden Schweizer Franken (85,1 Prozent) für Hilfseinsätze und 183,5 Millionen Schweizer Franken (14,9 Prozent) für interne Kosten. Der Anstieg im Vergleich zum Vorjahr beträgt ca. 11,6 Prozent bei den geplanten Ausgaben für Hilfseinsätze und 6,1 Prozent bei den voraussichtlichen internen Kosten. Mit einem prognostizierten Gesamtbedarf von 385,5 Millionen Schweizer Franken, rund 37 Prozent der geplanten Ausgaben für Hilfseinsätze, liegt der Schwerpunkt der Einsatztätigkeit wie in den Jahren zuvor in Afrika. Der Einsatz des IKRK in Afghanistan ist mit voraussichtlichen Kosten von 89,4 Millionen Schweizer Franken dessen umfangreichste Mission, gefolgt von den Einsätzen im Irak (85,8 Millionen Schweizer Franken) und im Sudan (82,8 Millionen Schweizer Franken). Mission und Aufgaben. Die Föderation koordiniert innerhalb der Rotkreuz- und Rothalbmond-Bewegung die Zusammenarbeit zwischen den nationalen Gesellschaften und unterstützt die Gründung und den Aufbau neuer nationaler Gesellschaften in Ländern, in denen noch keine entsprechende Gesellschaft existiert. Auf internationaler Ebene organisiert und leitet die Föderation insbesondere Hilfseinsätze in nichtkriegerischen Notsituationen, wie zum Beispiel nach Naturkatastrophen, technischen Unglücken, Epidemien, bei Massenfluchten und nach dem Ende eines bewaffneten Konflikts. Nach dem "Abkommen von Sevilla" ist die Föderation damit das verantwortliche Organ der Bewegung (engl. "Lead Agency") für entsprechende Einsätze. Sie arbeitet dabei sowohl mit den nationalen Rotkreuz- und Rothalbmond-Gesellschaften der betroffenen Länder (engl. "Operating National Societies", ONS) als auch nationalen Rotkreuz- und Rothalbmond-Gesellschaften anderer Länder (engl. "Participating National Societies", PNS) zusammen. Von den derzeit 187 nationalen Gesellschaften, die entweder als Mitglieder oder als Beobachter (engl. "Observer") der Generalversammlung der Föderation angehören, sind etwa 25 bis 30 regelmäßig als PNS in anderen Ländern im Einsatz. Zu den aktivsten nationalen Gesellschaften auf internationaler Ebene gehören unter anderem das Amerikanische Rote Kreuz, das Britische Rote Kreuz, das Deutsche Rote Kreuz und die nationalen Rotkreuz-Gesellschaften Schwedens und Norwegens. Die Föderation unterstützt außerdem das IKRK bei dessen Missionen. Ein aktueller Schwerpunkt der Arbeit der Föderation ist der Einsatz für ein Verbot von Landminen und die medizinische, psychologische und soziale Betreuung von Minenopfern. Struktur und Organisation. Die Föderation hat ihren Hauptsitz ebenfalls in Genf und darüber hinaus 14 Regionalbüros in verschiedenen Regionen sowie etwa 350 Delegierte in mehr als 60 Ländern. Die verbindliche Rechtsgrundlage der Föderation hinsichtlich ihrer Ziele, ihrer Struktur, ihrer Finanzierung und ihrer Kooperation mit anderen Organisationen inklusive des IKRK ist ihre Verfassung. Ausführendes Organ der Föderation ist das Sekretariat unter Leitung des Generalsekretärs (engl. "Secretary General"). Dem Sekretariat sind vier Abteilungen (engl. "divisions") für „Unterstützende Dienste“ (engl. "Support Services"), „Unterstützung der nationalen Gesellschaften und der Arbeit vor Ort“, (engl. "National Society and Field Support"), „Strategie und Kontakte“ (engl. "Policy and Relations") und „Kooperation innerhalb der Bewegung“ (engl. "Movement Cooperation") unterstellt. Der letztgenannten Abteilung obliegt dabei die Zusammenarbeit mit dem IKRK. Das höchste Organ der Föderation ist die Generalversammlung (engl. "General Assembly"), die alle zwei Jahre zusammentritt und aus Delegierten aller nationalen Gesellschaften besteht. Darüber hinaus ernennt sie den Generalsekretär. Zwischen den Zusammenkünften der Generalversammlung ist der Verwaltungsrat (engl. "Governing Board") das leitende Organ und verfügt als solches auch über Entscheidungsbefugnisse in bestimmten Angelegenheiten. Der Verwaltungsrat besteht aus dem Präsidenten und den Vizepräsidenten der Föderation, dem Vorsitzenden der Finanzkommission und gewählten Repräsentanten nationaler Gesellschaften. Ihm unterstellt sind vier weitere Kommissionen für „Gesundheits- und Gemeinschaftsdienste“, „Jugendarbeit“, „Katastrophenhilfe“ und „Entwicklung“. Die Föderation verwendet für ihre Aktivitäten die Kombination aus Rotem Kreuz (links) und Rotem Halbmond (rechts) auf weißem Grund (in der Regel umgeben von einem roten Rand) und ohne weitere Beschriftung als Kennzeichen. Finanzierung. Die Föderation finanziert die regulären Kosten ihrer Tätigkeit durch Beitragszahlungen der ihr als Mitglieder angehörenden nationalen Gesellschaften sowie durch Erträge aus Investitionen und Finanzgeschäften. Die Höhe der Beitragszahlungen wird durch die Finanzkommission festgelegt und durch die Generalversammlung bestätigt. Weitere Einnahmen, insbesondere für unvorhergesehene Sonderausgaben, ergeben sich vor allem aus freiwilligen Zahlungen durch nationale Gesellschaften, Regierungen, andere Organisationen, Firmen der freien Wirtschaft und Einzelpersonen. Von der Föderation werden dazu je nach konkretem Bedarf, vor allem für sich kurzfristig ergebende Hilfseinsätze, Spendenaufrufe veröffentlicht. Im Jahr 2009 erzielte die Föderation Einnahmen in Höhe von 36,0 Millionen Schweizer Franken aus Beitragszahlungen, 4,6 Millionen Schweizer Franken aus nicht zweckgebundenen Spenden, 14,2 Millionen Schweizer Franken aus Investitionen und Finanzgeschäften sowie rund 17,6 Millionen Schweizer Franken aus anderen Zahlungen. Hinzu kamen zweckgebundene Spenden aufgrund von Aufrufen in Höhe von 282,6 Millionen Schweizer Franken sowie 33,0 Millionen Schweizer Franken in Form von anderen zweckgebundenen Leistungen. Demgegenüber standen Ausgaben von insgesamt 475,6 Millionen Schweizer Franken. Der sich daraus ergebende Fehlbetrag wurde vollständig aus Rücklagen finanziert, deren Höhe im Jahr 2009 bei 442,6 Millionen Schweizer Franken lag, darunter 249,4 Millionen Schweizer Franken in Form von Barmitteln. Mission und Aufgaben. Zu den originären, sich aus den Genfer Konventionen und den Statuten der Bewegung ergebenden Aufgaben einer nationalen Gesellschaft gehört die humanitäre Hilfeleistung im Fall von bewaffneten Konflikten und anderen Notsituationen von großem Ausmaß wie Naturkatastrophen, sowie die Verbreitung der Kenntnisse des humanitären Völkerrechts. Sowohl das IKRK als auch die Föderation kooperieren bei ihren jeweiligen Aktivitäten mit den nationalen Gesellschaften, insbesondere im Hinblick auf die personelle, materielle und finanzielle Ausstattung von Hilfseinsätzen. Im Rahmen ihrer jeweiligen personellen, finanziellen und organisatorischen Möglichkeiten nehmen die meisten nationalen Gesellschaften darüber hinaus weitere humanitäre Aufgaben in ihrem Heimatland wahr. Viele Gesellschaften spielen beispielsweise in ihrem Heimatland eine wichtige Rolle im Blutspendewesen, im zivilen Rettungsdienst oder in den sozialen Diensten wie der Alten- und Krankenpflege. In diesen Ländern wirken die nationalen Rotkreuz- und Rothalbmond-Gesellschaften somit auch als Dienstleister im Gesundheitswesen und als Wohlfahrtsverbände. Struktur und Organisation. Nach der Anerkennung durch das IKRK erfolgt die Aufnahme in die Internationale Föderation der Rotkreuz- und Rothalbmond-Gesellschaften. Mit Stand vom November 2013 sind 189 nationale Gesellschaften als Vollmitglieder der Bewegung anerkannt. Zwei weitere, nämlich die nationalen Gesellschaften Eritreas und Tuvalus, haben derzeit Beobachter-Status in der Generalversammlung der Föderation. Als bisher letzte nationale Gesellschaften wurden während der Generalversammlung im November 2013 die Rotkreuz-Gesellschaften von Zypern und Südsudan in die Föderation aufgenommen. Trotz ihrer formalen Unabhängigkeit ist jede nationale Gesellschaft hinsichtlich ihrer Organisation und Tätigkeit an die Rechtslage in ihrem Heimatland gebunden. In vielen Ländern genießen die nationalen Gesellschaften aufgrund von Abkommen mit ihren Regierungen oder entsprechenden Gesetzen Sonderstatus in bestimmten Punkten, um die von der Bewegung geforderte volle Unabhängigkeit zu gewährleisten. Es hat jedoch im Laufe der Geschichte immer wieder Beispiele gegeben von nationalen Gesellschaften, die von staatlicher Seite institutionalisiert und insbesondere für militärische Zwecke instrumentalisiert wurden. Eine solche Einbindung in staatliche Strukturen und Aktivitäten steht jedoch im Widerspruch zu den Prinzipien der Unabhängigkeit und Neutralität. Finanzierung. Die nationalen Rotkreuz- und Rothalbmond-Gesellschaften finanzieren ihre Tätigkeit vorwiegend durch staatliche Zuschüsse der Regierungen und Behörden ihrer jeweiligen Heimatländer, durch Spenden von Privatpersonen, Firmen und anderen Institutionen sowie durch Einnahmen aus wirtschaftlicher Betätigung, insbesondere der Erbringung von Dienstleistungen im Gesundheitssektor und im sozialen Bereich. Je nach Rechtslage sind sie in der Regel als gemeinnützig tätige Organisation anerkannt. Unterscheidung zwischen Schutzzeichen und Kennzeichen. Die im Folgenden beschriebenen Symbole besitzen eine doppelte Funktion. Zum einen dienen sie in bestimmten Situationen als Schutzzeichen im Sinne der Genfer Abkommen (Rotes Kreuz, Roter Halbmond, Roter Löwe mit roter Sonne, Roter Kristall), zum anderen als Kennzeichen von Organisationen, die zur Rotkreuz- und Rothalbmond-Bewegung gehören. Als Schutzzeichen dienen sie der Markierung von Personen und Objekten (Gebäuden, Fahrzeugen etc.), die im Fall eines bewaffneten Konflikts zur Umsetzung der in den Genfer Abkommen vereinbarten Schutzregelungen und Hilfsmaßnahmen im Einsatz sind. Diese Verwendung wird als „protektiv“ (engl. "protective use") bezeichnet. Als Schutzzeichen dürfen diese Symbole insbesondere auch von entsprechenden Organisationen und Einrichtungen, die nicht Teil der Rotkreuz- und Rothalbmond-Bewegung sind, genutzt werden, wie zum Beispiel den militärischen Sanitätsdiensten oder zivilen Krankenhäusern. Sie sind bei protektiver Verwendung möglichst weithin sichtbar, beispielsweise durch Fahnen, und ohne Zusätze zu verwenden. Bei einer Verwendung als Kennzeichen zeigen diese Symbole an, dass die betreffenden Personen oder Einrichtungen Teil einer bestimmten Rotkreuz- oder Rothalbmond-Organisation wie dem IKRK, der Föderation oder einer nationalen Gesellschaft sind. Eine solche Nutzung wird als „indikativ“ (engl. "indicative use") bezeichnet. Die Symbole sollen in diesem Fall kleiner und mit einem entsprechenden Zusatz wie zum Beispiel „Deutsches Rotes Kreuz“ verwendet werden. Die missbräuchliche Verwendung der Zeichen des Roten Kreuzes ist in vielen Ländern durch nationale Regelungen verboten, so etwa in Deutschland durch des Gesetzes über Ordnungswidrigkeiten und durch das DRK-Gesetz, in der Schweiz durch das Bundesgesetz betreffend den Schutz des Zeichens und des Namens des Roten Kreuzes () oder in Österreich durch das Rotkreuzgesetz. Rotes Kreuz auf weißem Grund. Als ursprüngliches Schutz- und Kennzeichen wurde das Rote Kreuz auf weißem Grund bestimmt. Es handelt sich dabei um die Umkehrung der Schweizer Flagge, eine Festlegung, die zu Ehren des Rotkreuz-Gründers Henry Dunant und seines Heimatlandes angenommen wurde. Die Idee für ein einheitliches Schutzzeichen sowie für seine Gestaltung geht zurück auf die Gründungsmitglieder des Internationalen Komitees Louis Appia und General Guillaume-Henri Dufour. Als Schutzzeichen wird das Rote Kreuz in Artikel 7 der Genfer Konvention von 1864 bzw. Artikel 38 des I. Genfer Abkommens (vom 12. August 1949) „zur Verbesserung des Loses der Verwundeten und Kranken der Streitkräfte im Felde“ beschrieben. Bei der Gestaltung des Kreuzes als Kennzeichen wird in der Regel aus praktischen Gründen ein aus fünf Quadraten zusammengesetztes Kreuz verwendet. Dies ist jedoch nur eine Rotkreuz-interne Vereinbarung, offiziell ist – für die Verwendung als Schutzzeichen – jedes rote Kreuz auf weißem Grund anzuerkennen, unabhängig von Formvorschriften. Von den 189 anerkannten nationalen Gesellschaften verwenden derzeit 152 das rote Kreuz als Kennzeichen, darüber hinaus die nationale Gesellschaft von Tuvalu, die ihre Anerkennung beantragt hat. Roter Halbmond. Im Russisch-Osmanischen Krieg (1876–1878) benutzte das Osmanische Reich anstelle des Roten Kreuzes den Roten Halbmond, da die osmanische Regierung der Meinung war, dass das Rote Kreuz das religiöse Empfinden ihrer Soldaten verletzen würde. 1877 verpflichtete sich Russland auf Anfrage des IKRK, die Unantastbarkeit aller mit dem Roten Halbmond versehenen Personen und Einrichtungen anzuerkennen, woraufhin die osmanische Regierung im gleichen Jahr die volle Anerkennung des Roten Kreuzes bekannt gab. Nach dieser De-facto-Gleichstellung des Roten Halbmondes mit dem Roten Kreuz erklärte das Internationale Komitee im Jahr 1878, dass prinzipiell die Möglichkeit bestände, für nichtchristliche Staaten ein weiteres Schutzzeichen in die Bestimmungen der Genfer Konvention aufzunehmen, da Grundsätze der Menschlichkeit Vorrang haben müssten vor religiösen Überzeugungen. Formal wurde der Rote Halbmond im Jahr 1929 durch eine diplomatische Konferenz der Unterzeichnerstaaten der Genfer Konventionen als gleichberechtigtes Schutzzeichen anerkannt (Artikel 19 der I. Genfer Konvention in der Fassung von 1929) und damals durch Ägypten sowie die neu gegründete Republik Türkei als solches genutzt. Seit der offiziellen Anerkennung nutzen die nationalen Gesellschaften fast aller islamisch geprägten Länder seit ihrer jeweiligen Gründung den Roten Halbmond als Schutz- und Kennzeichen. Die nationalen Gesellschaften einiger Länder, wie zum Beispiel Pakistan (1974), Malaysia (1975) und Bangladesch (1989), wechselten hinsichtlich ihres Namens und des Zeichens vom Roten Kreuz zum Roten Halbmond. Der Rote Halbmond wird derzeit von 33 der 186 anerkannten nationalen Gesellschaften als Kennzeichen verwendet. Roter Löwe mit roter Sonne. Roter Löwe mit roter Sonne Der Iran und seine entsprechende Hilfsgesellschaft, die "iranische Gesellschaft vom Roten Löwen mit Roter Sonne" verwendete von 1924 bis 1980 einen roten Löwen mit roter Sonne in Anlehnung an die alte Flagge und das alte Wappen des Irans unter der Herrschaft des Schahs. Die formale Anerkennung als Schutzzeichen erfolgte 1929 gemeinsam mit dem roten Halbmond durch die Überarbeitung der Genfer Konventionen. Trotz des Wechsels zum roten Halbmond im Jahr 1980 behält sich der Iran weiterhin ausdrücklich das Recht zur Verwendung des Roten Löwen mit roter Sonne vor, der deshalb weiterhin den Status eines offiziell anerkannten Schutzzeichens besitzt. Roter Kristall: das Zeichen des dritten Zusatzprotokolls. Das Zeichen des dritten Zusatzprotokolls, auch „Roter Kristall“ genannt Bereits im Jahr 2000 gab es nach einer über mehrere Jahre geführten Diskussion erstmals einen Versuch, ein weiteres Zeichen neben dem Roten Kreuz und dem Roten Halbmond einzuführen. Hintergrund war die Debatte um die Anerkennung der israelischen Gesellschaft Magen David Adom mit ihrem Roten Davidstern, die zahlreiche islamische Staaten seit Jahrzehnten blockieren. Weitere Versuche zur Einführung neuer Schutzzeichen bzw. gesonderter Regelungen waren beispielsweise Anträge der nationalen Gesellschaften Thailands (1899 und 1906) für eine Kombination aus Rotem Kreuz und einer Roten Flamme (in Anlehnung an buddhistische Symbolik), Afghanistans (1935) nach Anerkennung eines Roten Torbogens "(Mehrab-e-Ahmar)" in Anlehnung an seine damalige Landesflagge, sowie Sri Lankas (1957) und Indiens (1977) nach Verwendung einer roten Swastika. Die nationalen Gesellschaften Kasachstans (derzeit Roter Halbmond) und Eritreas (derzeit Rotes Kreuz) streben darüber hinaus an, eine Kombination aus Rotem Kreuz und Rotem Halbmond verwenden zu dürfen, ähnlich der Kombination aus beiden Symbolen, die von der Allianz der Rotkreuz- und Rothalbmond-Gesellschaften der Sowjetunion bis zu ihrer Auflösung verwendet wurde. Die nationale Gesellschaft Eritreas hat zurzeit nur Beobachter-Status in der Generalversammlung der Föderation. Für Änderungen und Ergänzungen bezüglich der Schutzzeichen und damit der Genfer Konventionen ist eine diplomatische Konferenz unter Teilnahme aller 192 Unterzeichnerstaaten notwendig. Die für das Jahr 2000 geplante Konferenz wurde jedoch aufgrund des Beginns der Zweiten Intifada in den palästinensischen Gebieten abgesagt. Fünf Jahre später lud die Regierung der Schweiz erneut zu einer solchen Konferenz ein. Diese sollte ursprünglich am 5. und 6. Dezember 2005 stattfinden, wurde dann jedoch bis zum 7. Dezember verlängert. Nachdem Magen David Adom im Vorfeld der Konferenz ein Abkommen mit dem Palästinensischen Roten Halbmond geschlossen hatte, das die Zuständigkeiten und die Zusammenarbeit bei Einsätzen in den palästinensischen Gebieten regelte, forderte Syrien ein ähnliches Abkommen für den Zugang seiner Rothalbmond-Gesellschaft zu den Golanhöhen. Entsprechende Verhandlungen mit MDA führten jedoch trotz Kompromissangeboten des IKRK an Syrien zu keinem einvernehmlichen Ergebnis. In der Folge wurde das dritte Zusatzprotokoll zu den Genfer Konventionen, das die Einführung des neuen Schutzzeichens regelt, nicht wie bisher üblich im Konsens beschlossen. In einer Abstimmung stimmten von den anwesenden Staaten 98 dem Protokoll zu, 27 lehnten es ab und zehn enthielten sich ihrer Stimme. Da die notwendige Zweidrittelmehrheit damit erreicht wurde, ist das Protokoll angenommen. Das damit neu eingeführte Symbol ist ein auf einer Spitze stehendes rotes Quadrat, in das bei einer Verwendung als Kennzeichen einer nationalen Gesellschaft zusätzlich eines der anderen Embleme oder eine Kombination aus diesen eingefügt werden kann. Die offizielle Bezeichnung ist „Zeichen des dritten Zusatzprotokolls“. Für den umgangssprachlichen Gebrauch wird vom IKRK und der Föderation im Gegensatz zu früheren Vorschlägen wie „Rote Raute“ (engl. "Red Lozenge") oder „Roter Diamant“ (engl. "Red Diamond") die Bezeichnung „Roter Kristall“ favorisiert, da die Abkürzung „RC“ für dessen englische Übersetzung "Red Crystal" identisch ist mit den Abkürzungen für "Red Cross" (Rotes Kreuz) und "Red Crescent" (Roter Halbmond). Gleiches gilt für die Abkürzung „CR“ der französischen Begriffe "Croix Rouge" (Rotes Kreuz), "Croissant Rouge" (Roter Halbmond) und "Cristal Rouge" (Roter Kristall). Während der 29. Internationalen Rotkreuz- und Rothalbmond-Konferenz in Genf stimmten am 21. Juni 2006 von den anwesenden 178 Delegationen nationaler Gesellschaften und 148 Delegationen von Vertragsparteien der Genfer Konventionen insgesamt 237 einer Änderung der Statuten der Bewegung zur Aufnahme des Roten Kristalls zu. 54 Delegationen votierten dagegen, 18 enthielten sich der Stimme. Die für die Änderung notwendige Zweidrittelmehrheit wurde damit klar erreicht. Das IKRK beschloss auf der Grundlage dieser Entscheidung, Magen David Adom und den Palästinensischen Roten Halbmond als nationale Gesellschaften anzuerkennen. Infolgedessen wurden beide Gesellschaften als Vollmitglieder in die Föderation aufgenommen. Roter Davidstern. Die nationale Gesellschaft Israels, Magen David Adom (MDA), verwendete seit ihrer Gründung 1930 den Roten Davidstern als Emblem. Nach der Gründung des MDA wurden entsprechende Bemühungen von Seiten der Organisation, das Symbol den anerkannten Schutzzeichen der Genfer Konventionen gleichzustellen, vom IKRK aufgrund von Befürchtungen einer unpraktikablen Verbreitung neuer Kennzeichen abgelehnt. Ein Antrag Israels, den Roten Davidstern als zusätzliches Schutzzeichen in die Genfer Konventionen aufnehmen zu lassen, wurde bei der Neufassung der Abkommen im Jahr 1949 mit 21 Gegenstimmen, 10 Ja-Stimmen und 8 Stimmenthaltungen abgelehnt. Konsequenterweise unterzeichnete Israel die vier Genfer Konventionen von 1949 unter gleichzeitiger Anerkennung der bisherigen Schutzzeichen nur unter dem Vorbehalt, "daß es selbst den roten Davidstern als Schutzzeichen gebrauche". Da die Statuten der Internationalen Rotkreuz- und Rothalbmond-Bewegung jedoch die Verwendung eines anerkannten Schutzzeichens als eine Bedingung für die Anerkennung einer nationalen Gesellschaft enthalten, war Magen David Adom bis zur Verabschiedung des dritten Zusatzprotokolls die Vollmitgliedschaft in der Bewegung verwehrt. Die Organisation hat sich bereit erklärt, bei Auslandseinsätzen den Roten Kristall zu verwenden, je nach Situation mit oder ohne Davidstern innerhalb des Kristalls. Die Regeln des dritten Zusatzprotokolls ermöglichen es Magen David Adom, innerhalb der Grenzen Israels weiterhin den Roten Davidstern zu nutzen. Trotz der früher bestehenden Einschränkungen besitzt Magen David Adom bereits seit vielen Jahren ein hohes Ansehen innerhalb der Bewegung und ist im Rahmen von Kooperationen mit dem IKRK und der Internationalen Föderation in vielfältige internationale Aktivitäten eingebunden. Nicht anerkannte Kennzeichen nationaler Gesellschaften. Alle angegebenen Gesellschaften haben sich später den Anerkennungsbedingungen des Roten Kreuzes unterworfen und eines der völkerrechtlich anerkannten Schutzzeichen als Kennzeichen gewählt. Ikosaeder. Symmetrie. Insgesamt hat die Symmetriegruppe des Ikosaeders – die "Ikosaeder-" oder "Dodekaedergruppe" – 120 Elemente (Ikosaedergruppe). Die Untergruppe der Drehungen des Ikosaeders hat die Ordnung 60 und ist die kleinste nichtabelsche einfache Gruppe (A5, Alternierende Gruppe der Ordnung 5). Die Symmetrie des Ikosaeders ist (wegen der bei ihm auftretenden fünfzähligen Symmetrie) mit einer periodischen Raumstruktur nicht verträglich. Es kann daher kein Kristallgitter mit Ikosaedersymmetrie geben (vgl. jedoch Quasikristalle). Kartesische Koordinaten. mit formula_4 (Goldene Zahl). Beziehungen zu anderen Polyedern. Ikosaeder (grün) und sein dualer Körper, das Pentagondodekaeder (gelb). Fußball – Wabenstruktur aus Fünf- und Sechsecken Das Pentagondodekaeder ist das zum Ikosaeder duale Polyeder (und umgekehrt). Mit Hilfe von Ikosaeder und Dodekaeder können zahlreiche Körper konstruiert werden, die ebenfalls die Ikosaedergruppe als Symmetriegruppe haben. So erhält man zum Beispiel Zur Struktur des Ikosaeders. Wie die untenstehende Graphik zeigt, kann man unter den Kanten des Ikosaeders drei Paare gegenüber liegender (also insgesamt sechs) Kanten so auswählen, dass diese Paare drei kongruente zueinander paarweise orthogonale Rechtecke aufspannen. (Die Längen der Seiten dieser Rechtecke entsprechen dem Goldenen Schnitt, weil sie Seiten bzw. Diagonalen regelmäßiger Fünfecke sind.) Das Ikosaeder kann daher so in einen Würfel eingeschrieben werden, dass diese sechs Kanten in den sechs Flächen des Würfels liegen und parallel zu den Kanten des Würfels sind. Die 24 restlichen Kanten begrenzen 8 Dreiecke (unter den 20 Flächen des Ikosaeders), die in den Flächen eines – dem Ikosaeder umschriebenen – Oktaeders liegen, wobei die Ecken des Ikosaeders auf dessen Kanten liegen. Insgesamt gibt es fünf derartige Positionen, wobei jede Kante des Ikosaeders zu genau einer solchen Gruppe von orthogonalen Kantenpaaren gehört, während jede Fläche zweimal in der Fläche eines umschriebenen Oktaeders liegt. Die Symmetriegruppe des Ikosaeders bewirkt alle "5!/2 = 60" geraden Permutationen dieser fünf Positionen. Die Kanten des Ikosaeders enthalten zwölf ebene Fünfecke, wobei jede Kante zu zwei und jede Ecke zu fünf dieser Fünfecke gehört. Man kann diese Eigenschaft zum Bau eines Drahtmodells benutzen. Bedeutung des Ikosaeders in der Clusterphysik. Große Bedeutung hat die Ikosaeder-Form bei Clustern (Ansammlungen von Atomen in der Größenordnung von 3 bis 50.000 Atomen) ab einer Größe von mehr als 7 Atomen. Grund dafür ist die Regel von Friedel, die besagt, dass diejenige Struktur die geringste Energie besitzt, für die die Anzahl der Nächste-Nachbarn-Bindungen maximal ist. Bei vielen freien Clustern tritt dies ab 7 Atomen auf, wobei es allerdings auch Ausnahmen gibt und andere Strukturen bevorzugt werden (etwa Kuben). Des Weiteren gibt es in der Clusterphysik sogenannte magische Zahlen, die eng mit dem sogenannten Mackayschen Ikosaeder zusammenhängen. Hier sorgen Schalenabschlüsse (also perfekte Atom-Ikosaeder) für besonders stabile Cluster. Dies tritt bei Clustern mit den "magischen Atomzahlen" 1, 13, 55, 147, 309, 561, 923 und 1415 auf. Diese recht alten Erkenntnisse von Alan Mackay spielen in der aktuellen Clusterphysik eine bedeutende Rolle. formula_14 C = Gesamtzahl der Atome im Cluster n = Anzahl der Atome pro Kante Internet Relay Chat. Internet Relay Chat, kurz IRC, bezeichnet ein rein textbasiertes Chat-System. Es ermöglicht Gesprächsrunden mit einer beliebigen Anzahl von Teilnehmern in so genannten Channels (Gesprächskanälen), aber auch Gespräche zwischen zwei Teilnehmern (Query). Neue Channels können üblicherweise jederzeit von jedem Teilnehmer frei eröffnet werden, ebenso kann man gleichzeitig an mehreren Channels teilnehmen. Zur Teilnahme wird ein IRC-Client verwendet, wobei es neben IRC-Clients als klassisches eigenständiges Programm (z. B. mIRC, XChat) auch andere IRC-Client-Varianten, etwa webbasierte, gibt. Zur Vermittlung der Gespräche im IRC dient ein IRC-Netzwerk, das aus miteinander verbundenen Servern (den „Relais“-Stationen) besteht. Wesensmerkmal dieser Netzwerke ist seine vom BITNET übernommene Kommunikationstopologie, wonach zwischen zwei beliebigen Teilnehmern immer nur genau ein Kommunikationspfad existiert. Dies stellte historisch eine effiziente Kommunikation sicher, denn in der Anfangszeit des IRC hatten interkontinentale Datenleitungen eine stark begrenzte Kapazität. Die Topologie ermöglichte es, dass eine Nachricht eines Clients auf einem Kontinent nicht für jeden Client auf dem anderen Kontinent einzeln über die Interkontinentalleitung gesendet werden musste, sondern nur einmal an einen dortigen Server, der sie dann an die Clients weiterverteilte. So waren trotz beschränkter Leitungskapazitäten sehr große „Chatlandschaften“ möglich. Nachteil des Prinzips ist die fehlende Redundanz, die sich in Netsplits äußert: Fällt irgendein Server aus, zerfällt das Netzwerk automatisch in voneinander getrennte Teile, bis dazwischen wieder eine neue Verbindung hergestellt wurde. Die größten IRC-Netzwerke bestehen aus mehreren Dutzend IRC-Servern, die gleichzeitig über 100.000 Benutzer verbinden und zehntausende Channels verwalten, an denen jeweils mehrere tausend Personen gleichzeitig teilnehmen können. Trotz dieser enormen Ausmaße ist die Verzögerung eines abgeschickten Textes für gewöhnlich in der Größenordnung von Zehntelsekunden und überschreitet nur in seltenen Fällen die Sekundenmarke. Entwicklung. Die ursprüngliche Idee eines Chat-Netzwerkes entstand im BITNET unter dem Namen "Relay Chat". Dieses System wurde vom finnischen Studenten Jarkko Oikarinen, der an der Fakultät für Informatik der Universität Oulu studierte, im Sommer 1988 auf das Internet übertragen. Mit der Zeit wuchs das Netzwerk zu einer solchen Größe heran, dass es zum einen zu technischen Problemen kam und zum anderen zu unübersichtlich und chaotisch wurde. Daher entstanden ab etwa 1993 weitere unabhängige, kleinere Netzwerke. Im Sommer 1996 wurde dann auch das ursprüngliche Netzwerk aufgrund von Differenzen der Betreiber geteilt. Diese Teile findet man heute im IRCnet (meistens europäische Betreiber) und im EFnet (hauptsächlich Betreiber in den USA) wieder. Heute gibt es tausende voneinander unabhängige Netze. Große Netze mit gleichzeitig mehr als 50.000 verbundenen Clients sind QuakeNet, EFnet, IRCnet, Undernet und Freenode, kleinere etwa DALnet, euIRCnet, FurNet, oder GameSurge. In allen Netzwerken können aufgrund von Netzwerkproblemen oder -überlastung auch Netsplits auftreten. Die Netze unterscheiden sich in regionalen Schwerpunkten, Sprachen, Themen und angebotenen Services. Auch die Akzeptanz oder Toleranz gegenüber Sex und Kanälen für die Verteilung von Schwarzkopien spielt zunehmend eine Rolle. Das Chatsystem ist textbasiert, erlaubt jedoch über weitere Kommandos auch den Austausch von Dateien und sonstigen Informationen über eine Direct-Client-to-Client-Verbindung (DCC) zweier User. Automatisierte DCC-Downloadmöglichkeiten werden auch XDCC genannt. Protokoll. Beim ursprünglichen IRC kommt ein auf IP und TCP basierendes, textorientiertes Protokoll zum Einsatz. Nutzerinduzierte Befehle. Es ist beim IRC üblich, dass Benutzer direkt in die Kommunikation zwischen ihrem Client und dem IRC-Server eingreifen, indem sie eigene Nachrichten/Befehle schicken. Ein Beispiel für einen oft verwendeten Befehl wäre "/whois Nickname", der üblicherweise genau so einfach in einem Textfeld des IRC-Clients eingegeben werden kann. Der vorangestellte Slash ("/") signalisiert dem IRC-Client, dass es sich um eine Nachricht handelt, die er dem IRC-Server in dieser Form übermitteln soll. Der Client schickt dem Server also "whois Nickname", wobei "whois" den Befehl und "Nickname" den Parameter darstellt. Kommunikation. Sämtliche Kommunikation zwischen Client und Server und den Servern untereinander wird über Nachrichten ("messages") in Befehlsform mit einer Maximallänge von 512 Zeichen inklusive befehlsbeendendem Zeilenumbruch abgewickelt. Eine Nachricht besteht aus einem Absender ("prefix"), einem Befehl ("command") und zusätzlichen Befehlsparametern. Die Parameter und ob überhaupt welche nötig sind, hängen vom jeweiligen Befehl ab. Bei Befehlen vom Client zum Server wird der Absender üblicherweise weggelassen, da kein anderer Absender als der Client selbst in Frage kommt. Server tauschen untereinander nur Nachrichten mit Absenderangabe aus, da Server oftmals Nachrichten nur durchrouten, und hierzu Ziel und Quelle einer Nachricht nötige Angaben sind. Als Antwort auf eine Nachricht von einem Client kann ein Server eine Antwort-Nachricht ("reply") schicken, die einen "Reply-Code" hat. Dabei handelt es sich um eine dreistellige Zahl mit fest definierter Bedeutung. Auch hier weicht jedoch mangels Absprache die Bedeutung von Netzwerk zu Netzwerk ab. Das IRC-Protokoll verursacht standardmäßig zwischen den Servern durch die verhältnismäßig langen Namen der Befehle relativ viel Steuerungsaufwand (Overhead), der wiederum unnötig viel Datenverkehr zur Folge hat. Um die Kosten zu verringern, wird in einigen IRC-Netzen ein spezielles Server-zu-Server-Protokoll eingesetzt, das beispielsweise für die Kommunikation zwischen den Servern ein so genanntes Token anstatt des vollständigen Befehls vorsieht (zum Beispiel „P“ anstatt „PRIVMSG“). Erweiterungen. Für IRC gibt es viele eigenständige Protokoll-Erweiterungen. Viele Befehle wurden ergänzt oder deren Syntax erweitert. Oftmals sind auch die so genannten Channelmodes und Usermodes um neue Modi erweitert. Die Entwicklung dieser Erweiterungen ist jedoch weitgehend unabhängig voneinander und unorganisiert in den verschiedenen IRC-Netzwerken abgelaufen und hängt generell von der verwendeten IRC-Serversoftware ab. Es existiert deshalb nur unzureichende Dokumentation und Standardisierung dieser Erweiterungen. RFC 1459 beschreibt das ursprüngliche Protokoll, wovon die meisten Mechanismen und Befehle bis heute gültig sind und die Basis für anderweitige Erweiterungen des Protokoll sind. Dennoch sind diverse beschriebene Details durch die Weiterentwicklungen der Server-Software in den einzelnen IRC-Netzwerken nicht mehr aktuell und auch an keiner Stelle in ihrer neuen Ausformung zentral dokumentiert. Darüber hinaus existieren RFC 2810, RFC 2811, RFC 2812 und RFC 2813. Sie haben jedoch in der Praxis wenig bis keinerlei Bedeutung, da diese im Alleingang von Christophe Kalt, dem Programmierer von IRCnet Version 2.9, geschrieben wurden. Insbesondere im Bereich der Kommunikation zwischen Servern innerhalb eines Netzes werden teilweise auch verkürzte (und dadurch inkompatible) Abwandlungen des Protokolls eingesetzt. Verschlüsselung. IRC kann sowohl in der Grundform unverschlüsselt, aber auf den meisten Netzwerken auch über eine TLS-verschlüsselte Verbindung benutzt werden. Verschlüsselte Datenübertragung ist zum Beispiel auch mit dem Protokoll SILC möglich (SILC unterscheidet sich allerdings grundlegend von IRC und ist mit diesem nicht kompatibel). Clientübergreifend besteht auch die Möglichkeit, Nachrichten clientseitig zu verschlüsseln. Eine Möglichkeit bietet die Verschlüsselung mit FiSH. FiSH verschlüsselt Channels mittels eines Symmetrischen Kryptosystems. Hierfür wird für den zu verschlüsselnden Channel ein Key festgelegt, der allen Teilnehmern mitgeteilt werden muss. Ohne den Key kann der Channel zwar betreten werden (sofern er kein Passwort erfordert oder der Channelmode +i (invite only) gesetzt ist), die darüber stattfindende Kommunikation ist aber unleserlich. Weiterhin bietet FiSH die Möglichkeit, private Gespräche zw. zwei Teilnehmern (Query) abzusichern. Hier kommt ein Asymmetrisches Kryptosystem zum Einsatz. Mittels Diffie-Hellman-Schlüsselaustausch wird ein Key zw. den Teilnehmern ausgehandelt. FiSH-Plugins gibt es für gängige IRC-Clients wie mIRC, XChat oder irssi. Auf Android bietet AndroIRC FiSH-Support. Eine weitere Möglichkeit der Verschlüsselung bietet Off-the-Record Messaging (OTR). Im Gegensatz zu FiSH setzt OTR ausschließlich auf ein Public-Key-Verfahren, ein Asymmetrisches Kryptosystem (siehe Pretty Good Privacy). Auch hier kommt der Diffie-Hellman-Schlüsselaustausch zum Einsatz. Daher kann OTR auch nur das Query verschlüsseln, nicht jedoch die gesamte Kommunikation in einem Channel. OTR gibt es als Plugin für Pidgin, XChat und irssi. Zeichensätze. Da kein Zeichensatz festgelegt ist (wie es z. B. bei XMPP der Fall ist) und es auch keine Möglichkeit gibt, den verwendeten auf Protokollebene anzugeben, kann es immer wieder zu falsch oder nicht dargestellten Zeichen durch verschiedene Zeichensätze kommen. Einige Clients versuchen, den von den Sendern benutzten Zeichensatz zu raten, dies kann aber prinzipbedingt nicht zuverlässig funktionieren, da bestimmte Bytefolgen in verschiedenen Zeichensätzen gültig sind, aber zu unterschiedlichen Interpretationen führen. Einstieg. Um am IRC teilnehmen zu können, wird ein so genannter IRC-Client als Chat-Programm benötigt, welcher die Verbindung zu einem IRC-Server aufbaut. Da IRC zu den etablierteren und älteren Standards im Internet zählt, ist die Auswahl an IRC-Clients heutzutage groß. In den meisten IRC-Clients ist bereits eine Auswahl bekannterer IRC-Netzwerke und deren Server gespeichert, mit denen man sich verbinden kann. Nachdem die Verbindung mit einem Server hergestellt ist, besteht die Möglichkeit, sich die vorhandenen Channels mit dem "LIST"-Befehl auflisten zu lassen. Viele Netzwerke unterstützen dabei auch eine Suche mit Wildcards. Channelmanagement. Wird ein noch nicht vorhandener Channel betreten, legt der IRC-Server diesen üblicherweise an und gibt dem Benutzer die Kontrollrechte (Operator) über den Channel. Sobald der letzte Benutzer einen Channel verlässt, wird der Channel aufgelöst. Viele IRC-Netzwerke bieten allerdings für Channels Bots bzw. Services an, die den Channel in diesem Fall „verwalten“ und den entsprechenden Benutzern ihre Rechte zurückgeben, sobald sie den Channel erneut betreten, sowie auch ein feineres Management des Channels erlauben. Dazu werden Nicknamen und Channelnamen registriert. In Supportchannels, oft ähnlich benannt wie #irchelp, #help, #hilfe oder #helpdesk, können sich Anwender erkundigen, wie die Kommandos hierzu im Einzelnen lauten. Manche Netzwerke bieten solche Services nicht an, da dort kein prinzipielles Besitzrecht für einen Channel oder auch für einen Nickname zugestanden wird. Hier ist der „Gründer“ des Channels selbst dafür verantwortlich, sich seine Rechte zu erhalten. Diese Tatsache sorgt mitunter für virtuelle Kriege, welche mit legalen wie auch illegalen Mitteln ausgetragen werden, um Kontrolle über einen Channel zu erlangen (Takeover). Verhaltensregeln. Auf der Webseite des jeweiligen Netzes oder in der MOTD, die beim Connect angezeigt wird, findet man zumeist Informationen über die zu beachtenden Verhaltensregeln und anderweitige netzwerkspezifische Besonderheiten. Sicherheit. Wie generell im Internet sollten Anwender auch im IRC auf Sicherheit achten, da die Annahme von Dateitransfers von unbekannten Nutzern oder Unachtsamkeit zum Ausspionieren von Passwörtern oder Virenbefall des eigenen Rechners führen können. Man sollte auch beachten, dass bei einer unverschlüsselten Verbindung (ohne TLS) ein Mitlauschen von Konversationen und Passwörtern möglich sein könnte. Internationales Phonetisches Alphabet. Das Internationale Phonetische Alphabet (IPA) ist ein phonetisches Alphabet und somit eine Sammlung von Zeichen, mit deren Hilfe die Laute aller menschlichen Sprachen nahezu genau beschrieben und notiert werden können. Es wurde von der International Phonetic Association entwickelt und ist das heute am weitesten verbreitete Lautschrift­system. Die aktuellen IPA-Zeichen und ihre Aussprachen sind in der Liste der IPA-Zeichen aufgeführt. Praktische Bedeutung. Bei manchen Sprachen, z. B. dem Französischen, gibt es eine allgemein akzeptierte Standardaussprache (Orthophonie), bei anderen nicht. Eine amtlich festgesetzte Aussprache kann allerdings im Alltag ungebräuchlich sein. Die landesübliche Bandbreite eines Lautes kann wesentlich größer sein (z. B. die deutsche Endsilbe "-er") als der Unterschied ähnlicher Lautzeichen. Was in einer Sprache als korrekt oder falsch, als normal oder fremdartig, als verständlich oder unverständlich aufgefasst wird, ist für jemanden, der die Sprache nur selten oder noch nie gehört hat, nicht zu ermessen. In Wörterbüchern wird nicht selten ein vereinfachter Zeichensatz verwandt, um Leser ohne Vorkenntnisse nicht zu verwirren. So unterscheidet ' weder die verschiedenen Aussprachen des deutschen "r", noch die offenere Aussprache eines kurzen "a", "i", "u" und "ü" gegenüber dem jeweiligen langen Vokal. Die Aussprache des englischen "no" wird aus Tradition allgemein als wiedergegeben, obwohl im Britischen tatsächlich gesagt wird. Üblicherweise wird auch nicht berücksichtigt, dass in manchen Sprachen ohne sch-Laut das "s" zumeist eher wie (zwischen "s" und "Ich-Laut") ausgesprochen wird, beispielsweise im europäischen Spanisch und im Griechischen (eine phonetisch genauere Beschreibung ist wahrscheinlich allgemein „zurückgezogen“, also [s̱], wobei der spanische Laut eher apikal ist, also [s̺], der griechische hingegen eher laminal, also [s̻]). Ganz so genau, wie sie erscheint, ist auch die IPA-Notation nicht, beispielsweise ist das in engl. "book" ein nur etwas zentraleres, im norwegischen und schwedischen Wort "sund" ein nur etwas zentraleres. Zeichenzuordnungen der Laute und Lautzeichenerweiterungen. Die IPA-Zeichentabelle nutzt unter anderem Buchstaben des lateinischen Schriftsystems und des griechischen Alphabets, teilweise in abgewandelter Form. Jedes Zeichen bezeichnet dabei einen Laut oder beschreibt einen bereits angegebenen Laut näher, der in einer Sprache der Welt ein Wort von einem anderen unterscheidet. Das Internationale Phonetische Alphabet ist sprachenübergreifend; dies führt dazu, dass die Zuordnung eines Zeichens zu einem Laut in einer bestimmten Sprache nicht zwangsläufig mit der Lautzuordnung desselben Zeichens im IPA identisch ist. So steht beispielsweise das Zeichen im IPA für die Aussprache der Buchstabenfolge "ch" im deutschen Wort „ich“, obwohl es der deutschen Orthographie fremd ist; für die Abbildung der Aussprache des Französischen, dessen Orthografie „ç“ als stimmloses „s“ kennt, wird das Zeichen dagegen nicht benötigt. Die Sonderzeichen des IPA-Alphabets wurden in Unicode im Bereich von U+0250 bis U+02AF aufgenommen. Vokale. "Verweilt der Mauszeiger "neben" einem Zeichen in dessen Tabellenzelle, wird sein Unicode-Wert angezeigt; zeigt man auf das Zeichen, so erhält man eine kurze Beschreibung als Tooltip." Konsonanten. Bei den Konsonanten sind verschiedene Luftstrommechanismen zu unterscheiden. Die pulmonalen Konsonanten werden mit ausströmender Atemluft (d. h. Luft aus der Lunge) erzeugt (pulmonal-egressiv). Zu dieser Gruppe zählen die allermeisten Konsonanten. Bei den Ejektiven und Implosiven wird der Luftstrom dagegen durch Bewegungen des Kehlkopfs erzeugt. Bei den Ejektiven bewegt sich der Kehlkopf nach oben, sodass Luft ausströmt (glottal-egressiv); bei den Implosiven bewegt er sich nach unten, sodass Luft einströmt (glottal-ingressiv). Schnalzlaute (manchmal auch als „Avulsive“ oder im Englischen als „clicks“ bezeichnet) entstehen dadurch, dass Zunge und Gaumensegel einen abgeschlossenen Hohlraum bilden, der durch eine Zurück- und Abwärtsbewegung der Zunge vergrößert wird. Beim Öffnen des Hohlraums findet ein Druckausgleich statt (Luft strömt hinein, daher velar-ingressiv), sodass ein Laut erzeugt wird. Pulmonale Konsonanten. "Verweilt der Mauszeiger "neben" einem Zeichen in dessen Tabellenzelle, wird sein Unicode-Wert angezeigt; zeigt man auf das Zeichen, so erhält man eine kurze Beschreibung als Tooltip." Gegebenenfalls steht jeweils links der stimmlose und rechts der stimmhafte Konsonant. Dunkel hinterlegte Felder bezeichnen physiologisch unmögliche Artikulationen. Beispielsweise ist ein glottaler Nasal unmöglich, weil bei einem Verschluss der Stimmlippen keine Luft durch die Nase ausströmen kann usw. Suprasegmentalia. Von den Suprasegmentalen Zeichen stehen die Betonungszeichen "vor" der Silbe, auf die sie sich beziehen, die Längezeichen danach. Diakritika. Anmerkung: Ob mit Diakritika versehene Zeichen Äquivalente zu dem jeweils anderen Zeichen der Artikulationsart und des Artikulationsortes sind, ist von der IPA nicht vollständig festgelegt worden. Im „Handbuch der International Phonetic Association“ heißt es dazu: „Es ist strittig, ob und phonetisch identische Laute bezeichnen, und dasselbe gilt für und. Möglicherweise werden bei der Unterscheidung zwischen und oder und unterschiedliche Dimensionen einbezogen, die von der Stimmbandvibration unabhängig sind, wie etwa Gespanntheit gegenüber Ungespanntheit in der Artikulation, sodass die Möglichkeit, Stimmhaftigkeit separat zu bezeichnen, wichtig wird. Es kann aber in jedem Fall vorteilhaft sein, wenn man in der Lage ist, die lexikalische Form eines Wortes beizubehalten […].“ Zeichen mit Unterlänge können durch ein übergestelltes Diakritikum ausgezeichnet werden. Standardmäßig sollte jedoch mit untergestellten Diakritika ausgezeichnet werden, wenn beide Möglichkeiten bestehen. Ältere Notationen. Das IPA ist nicht das einzige System zur Notation von Sprachlauten. Im Laufe der Zeit hat es einige Versuche gegeben, Laute exakter darzustellen als in herkömmlicher Rechtschreibung. Schon 1855 veröffentlichte der deutsche Ägyptologe Karl Richard Lepsius sein Standardalphabet „zur Darstellung ungeschriebener Sprachen und fremder Zeichensysteme in einer einheitlichen Orthographie in europäischen Buchstaben“. Überarbeitet erschien das Werk 1863 außer auf Deutsch auch auf Englisch. Zeitgenössische Texte über die Laute der menschlichen Sprache belegen, dass dieses Standardalphabet als Lautschrift aufgefasst wurde. Einige seiner Zeichen sind in das IPA-Alphabet eingegangen. Für deutsche Transliterationen (also Wiedergaben der Schreibung) wurde seine an der tschechischen Orthographie orientierte Unterscheidung verschieden artikulierter Zischlaute übernommen, nicht aber in die IPA-Lautschrift. Alexander Melville Bell stellte demgegenüber 1867 in seinem System der Visible Speech eine "ikonische Notation" vor, bei der einzelne Merkmale eines Lautes (z. B. die Rundung der Lippen und dergleichen) im Zeichen selbst abgebildet werden. Andere Versuche in Richtung einer "analphabetischen Notation" wurden von den Linguisten Otto Jespersen (1889) oder Kenneth L. Pike (1943) unternommen. Dadurch, dass in diesen Systemen die einzelnen Stellungen der Sprechwerkzeuge unabhängig voneinander angegeben werden können, lassen sich Lautnuancen viel feiner kodieren. In der deutschen und romanistischen Dialektologie ist auch heute noch die Teuthonista-Transkription üblich. Die Teuthonista ist 1924/25 von Hermann Teuchert in der dialektologischen Zeitschrift Teuthonista präsentiert worden und baut mit einem Bezug auf Karl Richard Lepsius’ Standardalphabet im Wesentlichen auf dem lateinischen Alphabet auf. Da ähnliche Vorschläge in der Romania von Graziadio Isaia Ascoli und Eduard Böhmer vorgestellt worden sind, sind die Teuthonista- und die Böhmer-Ascoli-Transkription heute weitgehend zusammengefallen. IPA in Sprachtechnologie und Internet: SAMPA, X-SAMPA und Kirshenbaum. Diese Kodierungen wurden nicht für die allgemeine Darstellung des IPA in Veröffentlichungen entworfen, werden aber häufig in technisch-wissenschaftlichen Veröffentlichungen zur Datendarstellung verwendet. Für allgemeine Veröffentlichungszwecke, auch im Internet, sind standardisierte Unicode-Zeichensätze, die eher Text-Ausgabe- als -Eingabe-orientiert sind, besser geeignet. Unabhängig von SAMPA und X-SAMPA wurde von Internetznutzern in den frühen 1990er Jahren das ähnliche Kirshenbaum-Alphabet entwickelt, das sich jedoch nicht durchsetzen konnte. In den USA werden vorwiegend für die englische Sprache häufig das „Klattbet“ oder das „Arpabet“ in der Sprachtechnologie verwendet. Initiation. Initiation bezeichnet die Einführung eines Außenstehenden (eines Anwärters) in eine Gemeinschaft oder seinen Aufstieg in einen anderen persönlichen Seinszustand (Status), beispielsweise vom Kind zum Erwachsenen, von der Novizin zur Nonne oder vom Laien zum Schamanen. Die sozialgeschichtlich wichtigste Initiation ist die Pubertäts- und Stammesinitiation der Stammesgesellschaft und die daraus hervorgegangene Initiation der antiken Mysterienkulte. Sie entstammt also im Wesentlichen der archaischen Vergangenheit. Die Initiation folgt einem traditionellen Ritus. Übergangsriten oder "rites de passages" wurden in den Sozialwissenschaften zuerst von Arnold van Gennep grundlegend untersucht. Auf dem Gebiet der Pubertäts- und Stammesinitiation gilt Mircea Eliade als bahnbrechend. Christentum. Die Taufe, die Erstkommunion, die Konfirmation der evangelischen und Firmung der katholischen und orthodoxen Kirche haben aufgrund ihres Symbolcharakters initiierenden Charakter. Hierbei tritt der spirituelle Charakter in den Mittelpunkt der Zeremonie, im Sinne der Errettung der Seele durch die Aufnahme in den Kreis der christlichen Gläubigen. Judentum. Im Judentum werden die 13-jährigen Jungen durch die Bar Mitzwa, die 12-jährigen Mädchen durch die Bat Mitzwa Mitglied der jüdischen Gemeinde. Sie müssen öffentlich einen Abschnitt aus der Tora vorsingen, nachdem sie die Teamim erlernt haben. Hinduismus. Junge Männer in den höheren Kasten der Hindus werden dem sogenannten "Upanayana" (Initiationsritus für Knaben) unterzogen. Es ist diese kultische Handlung, die einen Menschen nach Auffassung der Hindus zum „Dvijati“ werden lässt, zum „Zweimalgeborenen“. Buddhismus. In westlichen buddhistischen Klöstern wird oftmals eine Bewerbung an das Kloster geschrieben, in der sich der Anwärter auf das Mönchtum kurz vorstellt. Erfüllt er die Voraussetzungen des Klosters, wird er zu einem Gespräch im Kloster eingeladen. In Klöstern in Asien fällt diese Form der Bewerbung häufig weg. Stattdessen geht der Bewerber direkt in das entsprechende Kloster und stellt sich vor. Die Aufnahme beginnt je nach der buddhistischen Schule, der das Kloster angehört, üblicherweise durch ein Gespräch entweder mit einem Mönch, dem Abt, dem obersten Lama (im tibetischen Buddhismus) oder dem Meister des Klosters. Wenn der Bitte des Aspiranten um Aufnahme stattgegeben wird, folgt in vielen Klöstern zunächst eine Probezeit (manchmal als Postulat bezeichnet) von mehreren Wochen, Monaten oder Jahren. Nach dieser Probezeit kann die offizielle Ordination beginnen. Diese wird oftmals in einer vom Orden abhängigen Zeremonie an speziellen buddhistischen Feiertagen oder zu Festen vollzogen (oftmals zum Vesakhfest). Zum Zeichen der Abkehr vom weltlichen Leben wird dem Neuankömmling der Kopf kahl geschoren. Der Hauptbestandteil der Zeremonie ist die sogenannte Dreifache Zuflucht des Neulings zu den Drei Juwelen: Dem Buddha, dem Dharma (die Lehren des Buddha) und dem Sangha (die Gemeinschaft der Mönche und Erwachten). Nach dieser Zeremonie ist der Mönch offiziell in den Orden aufgenommen und legt seine bürgerliche Kleidung ab. Von nun an trägt er ein vom Orden abhängiges Gewand. In manchen buddhistischen Klöstern werden Knaben zunächst fürstlich bewirtet, dürfen sich feierlich kleiden und ausgiebig spielen, bevor sie dann zeremoniell ins Kloster aufgenommen werden. Im tantrischen Buddhismus bestehen Initiationsriten, die in ihrer Struktur den Einweihungen in antiken Mysterienkulten ähneln. Shintoismus. Im Shintō gibt es den Brauch, Neugeborene an einem bestimmten Tag zu ihrem ersten Schreinbesuch, dem Hatsumiyamairi, zu bringen. Das Neugeborene wird dadurch Mitglied der Gemeinde. Neue religiöse Bewegungen. Viele Neue Religiöse Bewegungen kennen ebenfalls Initiationsrituale. Diese haben oft kontemplativen Charakter, so wie z. B. bei Eckankar, die die ersten beiden von bis zu zwölf Initiationen durch die Übergabe eines persönlichen Mantras vollziehen. Die späteren Initiationen werden dann in gemeinsamer Kontemplation mit einem Geistlichen in Stille erteilt. Im Wicca werden neue Mitglieder durch einen mehrstufigen Initiationsprozess in die Gemeinschaft aufgenommen. Dabei werden bestimmte rituelle Handlungen vorgenommen und dem neuen Mitglied auf diese Weise religiöse Geheimnisse anvertraut. Der Mormonismus kennt das sogenannte Endowment, eine ganze Reihe geheim zu haltender heiliger Handlungen, die beim ersten Besuch eines Gläubigen im Tempel von und an diesem durchgeführt wird. Pubertäts- und Stammesinitiation. Die Mythen und Riten der Pubertäts- und Stammesinitiation sind meist geheim, so dass Einzelheiten nur ausnahmsweise bekannt geworden sind. Im Wesentlichen macht der Novize überall eine sogenannte Wiedergeburt durch, er stirbt symbolisch, indem er von einem Ungeheuer verschlungen wird, und taucht neu geboren wieder auf. Ein Beispiel dazu ist das Skarifizierungsritual am Mittelsepik in Papua-Neuguinea. Dabei spielt häufig die Initiationshütte eine wichtige Rolle: „Oft stellt die Initiationshütte den offenen Rachen eines Meeresungeheuers dar … In einigen Gegenden von Ceram (Indonesien) heißt die Öffnung, durch welche die Neophyten eindringen, direkt 'Schlangenrachen' … Vor allem auf Neuguinea ist die Symbolik der Initiationshütte äußerst anschaulich. Für die Beschneidung der Knaben baut man eine Hütte, welche die Form des Ungeheuers Barlun hat, von dem man glaubt, es verschlinge die Novizen“. Das verschlingende Ungeheuer gilt als ein Bild der „gezahnten Vagina“, in die der Novize zum Zweck der Wiedergeburt zurückkehren muss. Der Tiefenpsychologe Carl Gustav Jung, der ein lebhaftes Interesse für die Mythen und Riten der Pubertäts- und Stammesinitiation hatte, veröffentlichte eine ganze Reihe von bildlichen Darstellungen der kinderverschlingenden „furchtbaren Mutter“ aus allen Teilen der Welt. Auf diesem Hintergrund werden die von Leo Frobenius in seinem Buch "Das Zeitalter des Sonnengottes" gesammelten Mythen über den von einem Ungeheuer verschlungenen „Sonnenheros“ einschließlich des Märchens von „Rotkäppchen“ verständlich. Sie gehören offenbar alle zur Pubertäts- und Stammesinitiation, sie illustrieren alle irgendeine mystische Erfahrung der Novizen. Ähnlich wie der Eingeweihte des antiken Mysterienkultes so gilt auch der Wiedergeborene der Pubertäts- und Stammesinitiation als unsterblich, als Gott. Der Stamm ist im Unterschied zum Individuum natürlich zeitlos, und durch Integration in den Stamm nimmt der Jüngling offenbar Teil an dessen Zeitlosigkeit. Da sich die Stammesgesellschaft stets als die Nachkommenschaft eines göttlichen Ahns versteht, so läuft die ganze soziale Integration des Novizen offenbar darauf hinaus, dass er als zeitlich und räumlich begrenztes Individuum vergeht und – wie alle anderen Stammesgenossen – als eine Verkörperung des großen Ahnen neu ersteht. Antike Mysterieninitiation. Die Einweihung in den antiken Mysterienkult geht auf die archaische, ursprünglich weltweit verbreitete Pubertäts- und Stammesinitiation zurück. Der Zusammenhang ist auch hier und da noch zu erkennen. So wurde der Tag, an dem die römischen Knaben im 16. Lebensalter die Toga des Erwachsenen anlegten, als ein Tag des Mysteriengottes Liber oder Dionysos/Bacchus gefeiert. Ovid versucht umständlich, den Zusammenhang zu erklären. Der Unterschied zur Pubertäts- und Stammesinitiation scheint in einer mehr oder weniger weit fortgeschrittenen Entpolitisierung zu liegen. Man kann allerdings keineswegs sagen, dass die Mysterienkulte allgemein eine reine Privatangelegenheit gewesen wären. Das mag am ehesten auf die aus dem Orient importierten Kulte zutreffen, aber die Mysterien von Eleusis waren ein Teil des athenischen Staatskultes und wurden von Königsarchonten organisiert, ähnlich war der Dionysoskult ein Teil des Staatskultes jedenfalls der Thebaner und Kreter, ebenso gehörten die andanischen Mysterien der Demeter zum Staatskult der Messenier. Isis- und Osiriskult. Wie bei der Pubertäts- und Stammesinitiation liegt die Einweihung auch hier eigentlich im Vorgang der sogenannten Wiedergeburt (renatio), und ähnlich wie dort so ist auch hier der Wiedergeburtsritus streng geheim, sodass man nur ausnahmsweise Einzelheiten erfährt. Der Eid, mit dem sich ein ägyptischer Eingeweihter des Isis- und Osiriskultes zu Verschwiegenheit verpflichtet lautete: „Im Namen des Gottes, der die Erde vom Himmel geschieden hat, das Licht von der Finsternis, den Tag von der Nacht, die Welt vom Chaos, das Leben vom Tod, das Werden vom Vergehen, schwöre ich […], die Mysterien geheim zu halten […], und ich schwöre auch, dass mich Strafe treffen möge, wenn ich zum Verräter werde“. Mit dem geheimnisvollen Gott ist zweifellos ein Allgott wie Amun gemeint (vgl. Weltenei). Apuleius beschreibt im 2. Jahrhundert n. Chr. die Einweihung des Romanhelden Lucius in den griechischen Isis- und Osiriskult. Lucius berichtet: „Die Sonne neigte sich herab und führte den Abend herauf […] Vielleicht magst du, wissbegieriger Leser, in einiger Aufregung fragen, was dann gesprochen, was getan wurde. Ich würde es sagen, wenn ich es sagen dürfte […] Indessen will ich dich, weil dich vielleicht fromme Erwartung gespannt macht, nicht ganz in quälender Ungewissheit lassen. Höre also, aber glaube, was wahr ist: Ich kam zur Grenze des Todes und überschritt die Schwelle der Proserpina, und durch alle Elemente fahrend, kehrte ich (zum Anfang der Welt) zurück. Mitten in der Nacht sah ich die Sonne in hellem Glanz erstrahlen. Ich trat zu den Göttern der Tiefe und der Höhe und betete sie aus nächster Nähe an […] Da habe ich dir nun berichtet, was du wohl gehört hast, aber doch nicht verstehen kannst.“ Nimmt man den oben zitierten, an den Allgott gerichteten Eid hinzu, so scheint der ganze Bericht des Lucius auf eine pantheistische Offenbarung hinauszulaufen. Dieser Meinung ist auch G. Willoughby, der im Corpus Hermeticum (ungefähr aus dieser Zeit) eine Stelle fand, die genau erklärt, was Lucius mit seiner „Fahrt durch alle Elemente“ meinte. Hier unterrichtet ein Mystagoge seinen Schüler über das Verhältnis von Geist und Materie, bis dieser plötzlich ausruft: „Unerschütterlich bin ich geworden, Vater, und durch Gott habe ich eine Vision […] Ich bin im Himmel, in der Erde, im Wasser und in der Luft, ich bin in den Pflanzen und Tieren […] (ich bin) überall“. Am Morgen nach seiner nächtlichen Vision feiert Lucius Hochzeit (die Hierogamie) mit Isis: „Es wurde Morgen und nach Abschluss der Feierlichkeiten trat ich hinaus […] Nämlich im Zentrum des Tempels stellte ich mich, wie man mich anwies, auf ein vor dem Bild der Göttin errichtetes Holzpodest […] Aber in der Rechten hielt ich eine (Hochzeits-)Fackel mit entfachter Flamme, und um meinen Kopf schlang sich ein prächtiger Kranz mit strahlenförmig vorstehenden Palmblättern. So ward ich wie der Sonnengott ausstaffiert und einem Götterbild gleich aufgestellt“. Offenbar zum krönenden Abschluss der ganzen Einweihung feierte Lucius seinen „Mystengeburtstag als ein großes Fest mit köstlichem Diner und unterhaltsamen Bankett“. Mithraskult. Eigenart des Mithras-Kultes ist, dass seine kleinen Grottenheiligtümer zwar reich mit Reliefbildern und Plastiken geschmückt waren, es jedoch keine heilige Geschichte des Kultes in schriftlicher Form gibt. Die einzige nennenswerte schriftliche Quelle ist die von Albrecht Dietrich besprochene so genannte Mithrasliturgie. Unter ägyptischen Zauberpapyri aufgefunden und vielleicht selbst ein Zauberpapyrus, hat sie doch den unschätzbaren Wert, dass sie ein in jedem Mithräum vorkommendes Bild erklärt. Das ist die Szene, in der angeblich Mithras mit dem Sonnengott kämpft. Albrecht Dietrich deutet diese Szene sehr überzeugend als das mithräische Initiationsritual, wie es in der Mithrasliturgie geschildert wird. Wie Lucius hat offenbar auch der Novize des Mithraskultes eine Vision vom „alle Elemente“ umfassenden Allgott. Die Mithrasliturgie stellt eine Reise des Novizen zum Mittelpunkt des Universums und schließlich zum Gott Mithras dar. Unterwegs begegnet er dem Sonnengott Helios und wird von ihm „neu gezeugt“. Zum Schluss sieht er „herabkommen Gott, übergewaltig, mit leuchtendem Antlitz, jung, mit goldenem Haupthaar, in weißem Gewand […], haltend in der rechten Hand eines Rindes goldene Schulter, die da ist das Bärengestirn (Großer Bär), das bewegt und zurückwendet den Himmel […]“ Bei seiner Begrüßung des Gottes wird dessen Eigenschaft als Pantheos sehr deutlich: „Herr, sei gegrüßt, Herrscher des Wassers, sei gegrüßt, Begründer der Erde, sei gegrüßt, Gewalthaber des Geistes. Herr, wiedergeboren verscheide ich […]; und da ich erhöht bin, sterbe ich […] und gehe den Weg, wie du gestiftet hast […] und geschaffen hast das Sakrament.“ Entscheidend für den Zusammenhang der Mithrasliturgie mit den Bildwerken der Mithräen ist hier die Erwähnung der Rinderschulter. Sie kommt tatsächlich auf einigen Reliefbildern vor. Albrecht Dietrich verwendete ein solches Bild auf dem Titelblatt seines Buches, um möglichst nachdrücklich auf die Bedeutung der Mithrasliturgie für die Erklärung der Bilder aufmerksam zu machen. Das Initiationsritual des Mithraskultes wird gewöhnlich durch eine Folge von drei kleinen Bildern dargestellt, die sich entweder direkt neben oder direkt unter dem Hauptaltarbild mit der Stieropferszene befinden. Das erste dieser drei Bilder, hier von ziemlich weit unten nach oben betrachtet, zeigt, wie der Novize von Mitras mit einem ähnlichen Objekt wie einer Rinderschulter auf den Kopf geschlagen wird (der Tod). In der zweiten Szene schüttelt offenbar der Novizen, „austaffiert wie ein Sonnengott“, dem Mithras die Hand (die Wiedergeburt). Auf dem dritten Bild schließlich wird der Novize von Mithras im Sonnenwagen gewissermaßen inthronisiert. Im Bild ganz oben feiert der Novize ein heiliges Mahl mit Mithras (der „Mystengeburtstag“). Ähnlich wie im Fall des Isis- und Osiriskultes scheint auch hier der als Sonnengott wiedergeborene Novize Heilige Hochzeit (die Hierogamie) mit der Mondgöttin (links im Bild) zu feiern. Auch die von Lucius erwähnte Fackel ist zu sehen, sie hätte außer als Hochzeitsfackel in dieser Situation gar keinen Sinn. Kybele- und Attiskult. Eine klare Vorstellung vom Initiationsritual hat man sonst nur noch im Fall des Kybele- und Attiskultes. Clemens von Alexandrien hat die Bekenntnisformel des Eingeweihten überliefert: „Aus dem Tympanum aß ich, / aus der Zimbel trank ich, /den Kernos trug ich umher, / ich stieg in das Brautgemach (pastas) hinab.“ Die ersten beiden Zeilen beziehen sich jedenfalls auf ein heiliges Mahl, der „Kernos“ ist wohl ein Behälter mit den Hoden eines geopferten Stieres, und mit dem irgendwie unterirdischen „Brautgemach“ könnte die "fossa sanguinis", eine Taufgrube, gemeint zu sein. Zum Kybele- und Attiskult gehörte jedenfalls das sogenannte Taurobolium. Der christliche Schriftsteller Prudentius (4. Jh.) gibt eine lebhafte Beschreibung des Ritus: Ein Stier wird auf einer Art Gitter über einer Grube geschlachtet. Der Täufling befindet sich in der Grube darunter und lässt sich mit dem Blut des Stieres berieseln. Man kann aber auch bezweifeln, dass dieses Taurobolium wirklich zur Einweihung allgemein gehörte. Ein Stieropfer ist teuer. Es ist auch nur im Fall von Priestern bezeugt, die den Stier zum eigenen und zum Wohl des Staates opferten. Allerdings ist von einer Art Wiedergeburt des Täuflings als Gott, das heißt von einer "renatio in aeterno" die Rede. Kretischer Dionysoskult. Der christliche Schriftsteller Firmicius Maternus (4. Jh.) berichtet von einem eigenartigen Initiationsritual der Kreter. Der Brauch bezieht sich auf die heilige Geschichte, dass Dionysos schon als Knabe von den Titanen zerrissen und verschlungen wurde. Firmicius Maternus berichtet: „Die Einwohner von Kreta […] veranstalten Tage feierlicher Leichenbestattung und setzen eine jährliche (Opfer-)Feier und eine religiöse (Initiations-)Weihe alle drei Jahre fest, wobei sie alles der Reihe nach tun, was der Knabe bei seinem Sterben getan und erlitten hat. Sie zerfleischen mit den Zähnen einen lebenden Stier, wodurch sie das grausame Mahl (der Titanen) in jährlicher Erinnerung darstellen; und durch dunkle Wälder hin in verworrenem Geschrei laut wehklagend ahmen sie das Rasen (der Titanen?) nach.“ Der Brauch bestand offenbar schon 700 Jahre vorher, denn in dem „Kreterfragment“ des Euripides berichtet ein Eingeweihter des kretischen Dionysoskultes: „Ein heilig' Leben führt' ich, / seit ich Myste des idäischen Zeus geworden / und Hirte des nächtens umherschweifenden Zagreus. / (Ich habe) die Mahlzeit von rohem Fleisch verrichtet --- / und heiße nun Bakchos, da ich / geheiligt worden bin.“ Das Kreterfragment scheint zu beweisen, dass es sich bei dem Brauch der Kreter tatsächlich um ein Einweihungsritual handelte. Ritterschlag. Der Ritterschlag ist ein typisches und bekanntes Beispiel für einen weltlichen Initiationsritus, bei dem ein Adeliger feierlich in den Ritterstand erhoben wurde. Jugendweihe. In Deutschland stellt die Jugendweihe einen säkularen Initiationsritus dar. Sie wird heutzutage vor allem in den ostdeutschen Bundesländern praktiziert. Studentenverbindungen. Auch manche Studentenverbindungen kennen Initiationsriten. Neumitglieder werden mittels erster Initiation („Akzeption“/„Acception“) als Mitglieder auf Probe aufgenommen. Nach dieser Probezeit von ein bis vier Semestern werden sie vom Status des „Fux“ oder „Fuchs“ mittels einer „Burschung“ („Rezeption“/„Reception“) genannten Initiation zum Vollmitglied ernannt. Auch Branderungen können bei Studentenverbindungen zur Initiation gehören. Jugendbanden. Initiationsrituale sind auch bei Jugendbanden üblich, wobei der Anwärter gewöhnlich eine „Mutprobe“ (z. B. Diebstahl) bestehen muss. Auch werden Neuankömmlinge vor Ekel- und Gewaltproben gestellt, um ihre Unterwerfung zu erzwingen. In Frankreich heißen diese Erniedrigungsrituale „"Bizutage"“, in Brasilien „"Trote"“. Diskrete Gesellschaften. Freimaurer-Initiation eines „Suchenden“Stich, 1745 in Frankreich Diskrete Gesellschaften wie die Freimaurerei (siehe: Tempelarbeit) und die Rosenkreuzer sind ebenfalls Initiationsgemeinschaften. Moderne Männerinitiation und Männerbewegung. In den westlichen modernen und offenen Gesellschaftskulturen dienen diese Prozesse der Einweihung meist bereits volljähriger und damit erwachsener Männer in ihre persönliche Identität und Rolle als Mann und sind für den jeweiligen „Mann“ eher auf einen tieferen Lebensinn stiftenden Aspekt als auch auf einen Nachreifungsprozess ausgerichtet. Im Gegensatz zu den traditionellen Stammeskulturen orientiert sich die moderne Männerinitiation nicht am gängigen Männerbild der jeweiligen Gesellschaft, sondern meist an den archetypischen Männerbildern des Königs, des Kriegers, des Magiers und des Liebhabers, wie sie auch aufgrund psychologischer Studien anhand von zahlreichen Mythen und Märchen erstmals am C.G. Jung Institute of Chicago und 1990 in dem Buch "King, Warrior, Magician, Lover. Rediscovering the Archetypes of the Mature Masculine" von Robert Moore und Douglas Gillette vorgestellt wurden. Diese männlichen Archetypen gelten heute als grundlegende, psychologische Tiefenstrukturen des Mannes und somit als Schlüssel zum Verständnis der männlichen Psyche. Sie haben der in den USA und heute auch in Europa stattfindenden Männerbewegung starke Impulse gegeben, weshalb diese auch „mythopoetische“ Männerbewegung genannt wird. Dabei versteht sich die mythopoetische Ausrichtung der modernen Männerbewegung nicht als Gegenkonzept zur Frauenemanzipation der 1970er und 1980er Jahre, und will diese und ihre Errungenschaften auch nicht umkehren oder in Frage stellen. Stattdessen stellt sie sowohl das in der westlichen Leistungsgesellschaft alte, traditionelle Männerbild und das des Machos als auch das neue, als Folge der Frauenemanzipation entstandene Männerbild des Softies der 1980er und 1990er Jahre in Frage und entwirft ein eigenes Männerbild und eine eigene Männerkultur auf Basis der vier mythologisch begründeten Archetypen sowie gesicherter Erkenntnisse von wissenschaftlich, christlich als auch buddhistisch orientierten Männerforschern. Der US-Amerikanische Philosoph Ken Wilber stellte dabei fest, dass dieses „Zurück zu den Wurzeln“ durchaus angemessen und förderlich für die Entwicklung eines neuen Männerbildes und der Männergesundheit in der westlichen Gesellschaft sei, und hebt dabei hervor, dass diese Männer ihre neuen Rollenvorbilder vom Raum der Rationalität aus agieren, diese aber gleichzeitig in einem „Als-ob“-Spiel für unsere moderne Kultur transzendierten. Die von dem Amerikaner Robert Bly erstellte tiefenpsychologische Auslegung des Märchens „Der Eisenhans“ der Brüder Grimm, diente wesentlich zum Verständnis der Zusammenhänge zwischen dem Mann-Sein unserer Zeit, den damit verbundenen Aufgaben und seiner Bedeutung für die gelingende und erfüllende Entwicklung des Jungen zum Mann. Isaac Asimov. Isaac Asimov (engl. Aussprache:; * in Petrowitschi, Sowjetrussland (heute Russische Föderation) als Исаáк Ю́дович Ози́мов; † 6. April 1992 in New York, Vereinigte Staaten) war ein russisch-amerikanischer Biochemiker, Sachbuchautor und einer der bekanntesten sowie produktivsten Science-Fiction-Schriftsteller seiner Zeit. Leben. Isaac Asimov wurde am 2. Januar 1920 in Petrowitschi bei Smolensk geboren. Seine jüdischen Eltern wanderten 1923 in die USA aus, und Asimov wuchs in Brooklyn/New York auf. Sein Vater erwarb 1926 die amerikanische Staatsbürgerschaft und kaufte einen Süßwarenladen, in dem Isaac von Anfang an helfen musste. Dadurch hatte er wenig Kontakte zu Gleichaltrigen und wurde früh zum Viel-Leser, brachte sich selbst mit fünf das Lesen bei und besaß mit sieben die Mitgliedskarte einer Leihbücherei. Die Ausgaben des Magazins "Amazing Stories", die im Laden seines Vaters auslagen, waren sein Erstkontakt zur Science-Fiction, wenn er auch erst „offiziell“ Science-Fiction lesen durfte, nachdem "Science Wonder Stories" aufgetaucht waren und er seinen Vater davon überzeugt hatte, dass dies wertvolle Lektüre sei, weil ja Wissenschaft im Titel geführt werde. Seine Eltern wollten, dass er Medizin studierte, doch zunächst studierte er ab 1935 Chemie an der Columbia-Universität. Dort war er 1938 an der Gründung der "Futurian Science Literary Society" beteiligt und lernte dadurch einige Science-Fiction-Autoren kennen, die Futurians. 1939 legte er – neunzehnjährig – den Bachelor of Science in Chemie ab. Im Jahr 1939 wurde auch mit "Marooned Off Vesta" (deutsch: "Havarie vor Vesta") seine erste Kurzgeschichte in der Märzausgabe von "Amazing Stories" publiziert. Danach veröffentlichte er vermehrt in dem von John W. Campbell herausgegebenen "Astounding". Einige der dort erschienenen Geschichten fügte er später zur Trilogie "Foundation" zusammen. Nachdem seine Bewerbung um einen Studienplatz in Medizin von allen fünf in Frage kommenden Universitäten New Yorks abgewiesen worden war, setzte er sein Chemiestudium fort und erreichte 1941 den Master-Abschluss. Während der nächsten vier Jahre unterbrach er kriegsbedingt seine Studien, arbeitete zunächst in der "Philadelphia Navy Yard’s Naval Air Experimental Station" und diente schließlich kurze Zeit als Wehrpflichtiger in der US-Armee. Nach Ende des Krieges promovierte er 1948 mit 28 Jahren zum Doktor der Biochemie. Ein Jahr später wurde Asimov als Dozent für Biochemie an die medizinische Fakultät der Universität Boston berufen. 1951 wurde er dort Assistenz-Professor und bekam 1955 eine Daueranstellung. 1958 gab er seine Lehrtätigkeit auf und machte das Schreiben zu seinem Hauptberuf. Er gehörte zum Kreis der Trap Door Spiders, eines literarischen Männerzirkels, die er in einer Kriminalkurzgeschichtenserie als "Schwarze Witwer" verewigte. In den 1960er Jahren lernte er Eugene W. Roddenberry kennen, der sich ebenso wie Asimov selbst sehr für künstliche Intelligenz interessierte. Von 1973 bis zu seinem Tod war Isaac Asimov in zweiter Ehe mit Janet Asimov verheiratet, und sie verfassten gemeinsam einige Science-Fiction-Bücher für junge Leser, am bedeutendsten die Reihe über den Roboter Norby. 1979 wirkte Asimov als wissenschaftlicher Berater (Special Science Consultant) bei der Entstehung von ' mit. Außerdem war er Ehrenvizepräsident des Hochintelligentenvereins Mensa. 1985 wurde er Präsident der American Humanist Association und blieb in dieser Position bis zu seinem Tod. Isaac Asimov starb am 6. April 1992 an Herz- und Nierenversagen – eine Folge einer HIV-Infektion, die er sich 1983 durch eine Bluttransfusion anlässlich einer Bypass-Operation zugezogen hatte. Werk. Reproduktion eines Gemäldes von Rowena Morrill Die Schwerpunkte verband er in seinem späteren Leben durch weitere Romane, die die Handlungslücken seiner Frühwerke füllen. Der Handlungsbogen spannt sich dabei über 20 Jahrtausende. Daneben schrieb er zahlreiche Kurzgeschichten und einige Romane mit unabhängigem Handlungsrahmen. Seine Robotergeschichten und vor allem die Kurzgeschichte "Und Finsternis wird kommen…" (orig. "Nightfall") werden als besonders hervorragende Werke des Science-Fiction-Genres angesehen. Tatsächlich wurde "Nightfall" 1968 von den "Science Fiction Writers of America" als die beste Science-Fiction-Geschichte vor 1965 gekürt. Neben den Robotergeschichten gründet sich sein Ruhm auf eine Serie von Kurzgeschichten, die später als Foundation-Zyklus veröffentlicht wurden. Darin schildert er, inspiriert von Edward Gibbons "Verfall und Untergang des römischen Imperiums", den Niedergang eines galaktischen Imperiums. Asimov erfand Begriffe, die heute allgemein in die Science-Fiction und in den Sprachgebrauch eingeflossen sind. So zum Beispiel „positronisch“ als Gegensatz zu elektronisch (erstmals erwähnt in "Reason" 1941), „Robotik“ (erstmals in der Kurzgeschichte "Runaround", März 1942 – der Name des Unternehmens U.S. Robotics geht darauf zurück) und „Psychohistorik“ (Foundation-Zyklus). Seine Werke haben viele andere Schriftsteller inspiriert und seine Science-Fiction-Sammlungen zahllose Leser begeistert. Insbesondere die drei Gesetze der Robotik wurden Gemeingut der Science-Fiction. Asimovs Schaffen beschränkte sich aber bei weitem nicht auf Science-Fiction. Vielmehr entwickelte sich der „Gute Doktor“, wie seine Fans ihn nennen, nach Aufgabe seiner Lehrtätigkeit zu einem modernen Universalgelehrten: Er war Mitverfasser eines Lehrbuches der Biochemie, schrieb Bücher über die Bibel und William Shakespeare, Werke über die griechische und römische Geschichte und Sachbücher über naturwissenschaftliche Themen aus fast allen Gebieten – sogar eine Anleitung für die Benutzung von Rechenschiebern. Insgesamt veröffentlichte er über 500 Bücher und mehr als 1600 Essays. Außerdem war er der Herausgeber zahlreicher Science-Fiction-Anthologien und einer eigenen Science-Fiction-Zeitschrift. Im deutschen Sprachraum wenig bekannt ist, dass er auch mehrere Bände mit humoristischen Texten, Anekdoten und Limericks veröffentlichte. Auf 399 Folgen kam seine Wissenschaftskolumne im "Magazine Of Fantasy And Science Fiction", die er 33 Jahre lang schrieb und die in Buchform auszugsweise in 26 Bänden erschien. Ein gutes Beispiel für seine populärwissenschaftlichen Arbeiten ist das zweibändige Werk "Die exakten Geheimnisse unserer Welt" (Isaac Asimov’s New Guide to Science), das dem Laien im Stil eines Opernführers die naturwissenschaftliche Welt nahebringt. Hervorzuheben ist sein Sinn für das Notwendige und die eindeutige Sprache, mit der er komplizierte Sachverhalte zu formulieren versteht. Roboter. In der Kurzgeschichte "Robbie" (1940) beschäftigte sich Asimov erstmals gründlich mit Maschinen mit künstlichen Gehirnen, den Robotern. Vor Asimov war die Mehrheit der Robotergeschichten in der Literatur dem Frankensteinmuster gefolgt, was Asimov als unglaublich langweilig bezeichnete: „Roboter wurden geschaffen und zerstörten ihre Erschaffer“. Asimov geht davon aus, dass Werkzeuge im Allgemeinen so konstruiert sind, dass sie implizit diesen Gesetzen gehorchen müssen. Analog werden in seinen Geschichten Roboter-Gehirne so entworfen, dass die Roboter nicht anders können und nichts anderes dürfen, als den drei Gesetzen der Robotik zu gehorchen. Es sind "Positronengehirne", die nicht die Wahl haben, explizit oder gar eigenmächtig zu entscheiden. Sie reagieren zwangsweise, ähnlich wie heutige Computersysteme nach dem Binärsystem reagieren: 0= Nicht ausführen; 1= Ausführen. Diese Gesetze sind nach Asimov notwendig, damit ein Roboter nicht zu eigenem Bewusstsein gelangt, was ein unüberschaubares Chaos und unkalkulierbare Folgen für Mensch und Maschine bewirken könnte. Diese Auflistung der „Gesetze der Humanistik“ entsprechen ohne zwingenden Vergleich dem Roman "Farm der Tiere" von George Orwell, in dem Tiere sich der Herrschaft des Menschen entledigen und zu eigenen (humanistischen/tierischen) Gesetzen finden, die dann von ihnen selbst wieder verändert beziehungsweise aufgehoben werden und zur gleichen Abhängigkeit ihrer Selbst führen. Genau diesem Revolutionsgedanken zur eigenmächtigen Veränderung bestehender, bindender Implementierungen entsprechen Asimovs Gesetze der Robotik, die unter keinen Umständen gebrochen, aber in seinen Geschichten doch des Öfteren durch Ausnahmesituationen nicht nur durch Roboter, sondern auch durch Menschen in Frage gestellt beziehungsweise umgangen werden können und zu Recht genau diese Fragen einer freien, sich selbst entscheidenden Existenz von Leben aufwerfen – so zum Beispiel in der Erzählung "Der 200-Jährige". In den Erzählungen von "Ich, der Robot" (1950) handelt Asimov viele Teilaspekte dieser Gesetze ab. In den Geschichten geht es größtenteils um zwei Robotikspezialisten (Gregory Powell und Michael Donovan), die verschiedene Problemfälle lösen müssen, zum Beispiel Der Charakter Susan Calvin spielt ebenfalls eine große Rolle in den Geschichten und war eine der Lieblingsfiguren des Autors. Mit Susan Calvin schuf er eine Figur, die von Arthur C. Clarke im Roman "3001 – Die letzte Odyssee" als „Vorbild im geistigen Wettstreit zwischen Robotern und Menschen“ bezeichnet wurde. In Asimovs Geschichten wurde sie als kühle, nahezu emotionslose Robotpsychologin der „US Robots and Mechanical Men, Inc.“ dargestellt, die mit Robotern wesentlich besser umgehen kann als mit Menschen. So sorgt sie sich zum Beispiel in der Geschichte "Lenny" um einen Roboter, der sich durch eine versehentlich veränderte Programmierung benimmt wie ein menschliches Baby. Es gibt in seinen Geschichten auch verstreute Andeutungen, dass sie selbst einem Roboter sehr ähnlich sei. Die Kriminalromane "The Caves of Steel" (1954, dt. "Die Stahlhöhlen"), "The Naked Sun" (1957, dt. "Die nackte Sonne") um den Polizisten Elijah (Lije) Bailey und den Roboter R. Daneel Olivaw (in einigen älteren Übersetzungen auch als Tom Bailey und R. Daniel Oliver) sowie die Nachfolgeromane "The Robots of Dawn" (1983, dt. "Der Aufbruch zu den Sternen") und "Robots and Empire" (1985, dt. "Das Galaktische Imperium") geben eine umfassende Einführung in die Zukunftswelt Asimovs. Das Erste, Zweite und Dritte Gesetz der Robotik werden entsprechend modifiziert: „… es sei denn, dadurch würde das Nullte Gesetz verletzt.“ Bezeichnenderweise ist es kein Mensch, sondern ein Roboter (R. Daneel Olivaw), der dieses Gesetz aufstellt. Der im Juli 2004 erschienene Kinofilm "I, Robot" mit Will Smith bezieht sich auf die gleichnamige Kurzgeschichtensammlung. Der Film verwendet Personen und Motive aus diesen Geschichten, die Handlung des Films ist von den Drehbuchautoren neu entwickelt. Nicht ganz so stark beworben, aber dennoch erfolgreich war der Film "Der 200 Jahre Mann". Der Android Andrew Martin (gespielt von Robin Williams) entdeckt im Laufe des Films künstlerische und menschliche Fähigkeiten. Sein Ziel ist es, als Mensch anerkannt zu werden. Zu Beginn des Films werden die Gesetze präsentiert, deren Auswirkungen sich mehrfach im Film zeigen. Zudem waren die Robotergesetze auch Thema der Folge "Hüter des Gesetzes" der Serie "Raumpatrouille" sowie in der Episode "Erregungsfaktor: Null" der Sitcom "The Big Bang Theory". Der berühmte Titel "I, Robot" dieser Kurzgeschichtensammlung wurde nicht von Asimov, sondern vom Verlag (gegen Asimovs Einwände) gewählt, da der Titel "I, Robot" eine damals sehr bekannte Kurzgeschichte von Eando Binder war und Umsatzsteigerungen erwarten ließ. Asimov selbst schwebte als Titel "Mind and Iron" vor. Die späten Jahre seines Werks waren gekennzeichnet durch das Bemühen, seine Romane chronologisch anzuordnen und Lücken aufzufüllen, um so eine fortlaufende Geschichte der Menschheit, beginnend 1982 mit der Geburt Susan Calvins und Gründung der „U.S. Robots and Mechanical Men, Inc.“ ("I, Robot") und erst Zehntausende von Jahren in der Zukunft endend, zu schaffen. Werke im Auszug. Seine Arbeit umfasst mehr als 500 Werke, von denen eine ebenfalls dreistellige Zahl ins Deutsche übersetzt wurde. Foundation-Zyklus. Die Sammlung wird von Asimov als die erste in der Liste aufgeführt, aber nicht den Roboter-Romanen zugeordnet. Lucky-Starr-Romane. Alle Romane erschienen in Deutschland gesammelt in "Lucky Starr – Sechs Abenteuer in einem Band", Verlag Bastei-Lübbe 1998, ISBN 3-404-23200-3. Auszeichnungen. Hugo Award Nebula Award Locus Award Instant Messaging. a>) ist ein typisches Merkmal von Instant Messengern. Instant Messaging (kurz IM; für "sofortige Nachrichtenübermittlung") oder Nachrichtensofortversand ist eine Kommunikationsmethode, bei der sich zwei oder mehr Teilnehmer per Textnachrichten unterhalten. Dabei geschieht die Übertragung im "Push"-Verfahren, so dass die Nachrichten unmittelbar beim Empfänger ankommen. Damit Nachrichten übertragen werden können, müssen die Teilnehmer mit einem Computerprogramm (genannt "Client") über ein Netz wie das Internet direkt oder über einen Server miteinander verbunden sein. In der Regel können Nachrichten auch abgeschickt werden, wenn der Gesprächspartner gerade nicht online ist; die Nachricht wird dann später an den Empfänger ausgeliefert. Viele Instant-Messenger unterstützen zusätzlich die Übertragung von Dateien und Audio- und Video-Streams. Benutzer können sich gegenseitig in ihrer Kontaktliste führen und sehen dann an der Präsenzinformation, ob der andere zu einem Gespräch bereit ist. Protokolle. Benutzer können nur mit Gesprächspartner kommunizieren, die dasselbe Protokoll benutzen. Die meisten IM-Dienste benutzen eigene, proprietäre Protokolle, wie z. B. WhatsApp und Skype. Zu den offenen Protokollen, für die es verschiedene Clients gibt, gehören IRC, XMPP, WebRTC und Tox. Begriff. Der Ausdruck „Instant Message“ wurde von Paul A. Linebarger geprägt. Er beschrieb damit in seinen Science-Fiction-Geschichten aus den 1960er Jahren Nachrichten, die mit Überlichtgeschwindigkeit über interstellare Distanzen hinweg verschickt werden konnten. Seine „sofortigen Nachrichten“ galten als extrem teuer, und er schrieb einige Episoden, die die Unerschwinglichkeit dieser Nachrichten zum Thema hatten. Weblinks. ! Informationstheorie. Die Informationstheorie ist eine mathematische Theorie aus dem Bereich der Wahrscheinlichkeitstheorie und Statistik, die auf Claude Shannon zurückgeht. Sie beschäftigt sich mit Begriffen wie Information, Entropie, Informationsübertragung, Datenkompression, Kodierung und verwandten Themen. Neben der Mathematik, Informatik und Nachrichtentechnik wird die theoretische Betrachtung von Kommunikation durch die Informationstheorie auch zur Beschreibung von Kommunikationssystemen in anderen Bereichen (Medien in der Publizistik, Nervensystem in der Neurologie, DNA und Proteinsequenzen in der Molekularbiologie, Wissen in der Informationswissenschaft und Dokumentation etc.) eingesetzt. Die Shannonsche Theorie verwendet den Begriff der Entropie, um den Informationsgehalt (auch Informationsdichte genannt) von Nachrichten zu charakterisieren. Je ungleichförmiger eine Nachricht aufgebaut ist, desto höher ist ihre Entropie. Grundlegend für die Informationstheorie ist neben dem Entropiebegriff das Shannon-Hartley-Gesetz, nach Claude Elwood Shannon und Ralph Hartley. Es beschreibt die theoretische Obergrenze der Kanalkapazität, also die maximale Datenübertragungsrate, die ein Übertragungskanal in Abhängigkeit von Bandbreite und Signal-zu-Rausch-Verhältnis ohne Übertragungsfehler erreicht. Geschichte. Vor allem Claude Elwood Shannon lieferte in den 1940er bis 1950er Jahren wesentliche Beiträge zur Theorie der Datenübertragung und der Wahrscheinlichkeitstheorie. Er fragte sich, wie man eine verlustfreie Datenübertragung über elektronische (heute auch optische) Kanäle sicherstellen kann. Dabei geht es insbesondere darum, die Datensignale vom Hintergrundrauschen zu trennen. Außerdem versucht man, während der Übertragung aufgetretene Fehler zu erkennen und zu korrigieren. Dazu ist es notwendig, zusätzliche redundante (d. h. keine zusätzliche Information tragenden) Daten mitzusenden, um dem Datenempfänger eine Datenverifikation oder Datenkorrektur zu ermöglichen. Es ist zweifelhaft und wurde auch von Shannon so nicht beansprucht, dass seine 1948 veröffentlichte Studie "A Mathematical Theory of Communication" („Informationstheorie“) von substantieller Bedeutung für Fragestellungen außerhalb der Nachrichtentechnik ist. Bei dem von ihm benutzten, mit der Thermodynamik verbundenen Entropiebegriff handelt es sich um eine formale Analogie für einen mathematischen Ausdruck. Allgemein lässt sich die Informationstheorie als Ingenieurtheorie auf hohem Abstraktionsniveau definieren. Sie zeigt den Trend zur Verwissenschaftlichung der Technik, der zur Herausbildung der Ingenieurwissenschaften führte. Der Bezugspunkt von Shannons Theorie ist die forcierte Entwicklung der elektrischen Nachrichtentechnik mit ihren Ausprägungen Telegrafie, Telefonie, Funk und Fernsehen in der ersten Hälfte des 20. Jahrhunderts. Vor und neben Shannon trugen auch Harry Nyquist, Ralph Hartley und Karl Küpfmüller mit bedeutenden Beiträgen zur Theoriebildung der Nachrichtentechnik bei. Mathematische Klärungen von Relevanz für die Informationstheorie lieferte Norbert Wiener, der ihr auch im Rahmen seiner Überlegungen zur Kybernetik zu beträchtlicher Publizität verhalf. Eine übergreifende Frage für Nachrichtentechniker war, wie eine wirtschaftlich-effiziente und störungsfreie Nachrichtenübertragung erreicht werden kann. Es wurden die Vorteile der Modulation erkannt, d. h. der Veränderung der Form der Nachricht mit technischen Mitteln. Im technischen Zusammenhang lassen sich zwei Grundformen für Nachrichten – kontinuierlich und diskret – unterscheiden. Diesen können die gebräuchlichen Darstellungsformen von Information/Nachrichten Schrift (diskret), Sprache (kontinuierlich) und Bild (kontinuierlich) zugeordnet werden. Ende der 1930er Jahre kam es zu einem technischen Durchbruch, als es mit Hilfe der Puls-Code-Modulation gelang, eine als Kontinuum vorliegende Nachricht in befriedigender Annäherung diskret darzustellen. Mit dieser Methode wurde es möglich, Sprache zu telegrafieren. Shannon, der für die Bell Telephone Laboratories arbeitete, war mit der technischen Entwicklung vertraut. Die große Bedeutung seiner Theorie für die Technik liegt darin, dass er Information als „physikalische Größe“ mit einer Maß- bzw. Zähleinheit, dem Bit, definierte. Das erlaubte quantitativ exakt, den Aufwand für die technische Übertragung von Informationen in verschiedener Gestalt (Töne, Zeichen, Bilder) zu vergleichen, die Effizienz von Codes sowie die Kapazität von Informationsspeichern und -übertragungskanälen zu bestimmen. Die Definition des Bit ist ein theoretischer Ausdruck der neuen technischen Möglichkeiten, unterschiedliche Darstellungsformen von Nachrichten (Information) in eine gemeinsame, für technische Zwecke vorteilhafte Repräsentation der Information zu transformieren: Eine Folge von elektrischen Impulsen, die durch einen Binärcode ausgedrückt werden kann. Das ist letztendlich die Grundlage für eine Informationstechnik auf digitaler Basis, wie auch für Multimedia. Das war im Prinzip mit der Informationstheorie bekannt. In der Praxis wurde jedoch der digitale Umbruch der Informationstechnik erst später möglich – verbunden mit der stürmischen Entwicklung der Mikroelektronik in der zweiten Hälfte des 20. Jahrhunderts. Shannon selbst bezeichnet sein Werk als eine „mathematische Theorie der Kommunikation“. Er schließt semantische und pragmatische Aspekte der Information, also Aussagen über den „Inhalt“ übertragener Nachrichten sowie deren Bedeutung für den Empfänger ausdrücklich aus. Dies bedeutet, dass eine „sinnvolle“ Botschaft ebenso gewissenhaft übertragen wird wie eine zufällige Folge von Buchstaben. Obwohl die Shannon-Theorie üblicherweise als „Informationstheorie“ bezeichnet wird, macht sie also keine direkte Aussage über den Informationsgehalt von übertragenen Botschaften. In neuerer Zeit wird zunehmend versucht, die Komplexität einer Nachricht nicht mehr nur über statistische Betrachtung der Daten zu bestimmen, sondern vielmehr die Algorithmen zu betrachten, die diese Daten erzeugen können. Solche Ansätze sind insbesondere die Kolmogorow-Komplexität und die algorithmische Tiefe, sowie die algorithmische Informationstheorie von Gregory Chaitin. Klassische Informationskonzepte versagen teilweise in quantenmechanischen Systemen. Dies führt zum Konzept der Quanteninformation. Die Informationstheorie stellt mathematische Methoden zur Messung bestimmter Eigenschaften von Daten zur Verfügung. Der Begriff der Information aus der Informationstheorie hat keinen direkten Bezug zu Semantik, Bedeutung und Wissen, da sich diese Eigenschaften mit informationstheoretischen Verfahren nicht messen lassen. Information. a>“ ist international ein Symbol für Information im Tourismus und verwandten Gebieten Information (von ‚formen‘, ‚bilden‘, ‚gestalten‘, ‚ausbilden‘, ‚unterrichten‘, ‚darstellen‘, ‚sich etwas vorstellen‘) ist in der Informationstheorie eine Teilmenge an Wissen, die ein Sender einem Empfänger mittels Signalen über ein bestimmtes Medium (auch ‚Informationskanal‘ genannt) vermitteln kann. Information kann ein allgemeines oder spezielles Interesse an Wissen befriedigen – gegebenenfalls zur Verwirklichung eines bestimmten Vorhabens (‚aktionsprägend‘) – oder sie regt nur die Phantasie an. Informationen können bewusst als Nachricht über einen Kanal/Datenträger von einem Sender an einen Empfänger übermittelt oder auch unbewusst transportiert werden und durch die Wahrnehmung von Form und Eigenschaft eines Objektes auffallen. Sender und Empfänger können sowohl Menschen und höherentwickelte Tiere als auch andere komplexe Systeme, wie Maschinen oder Computer(programme), sein. Im menschlichen Bereich gibt eine Information Auskunft über mindestens eine der Fragen "wer? was? wo? wann? wie? warum? mit wessen Hilfe?" Information erhält ihren Wert durch die "Interpretation des Gesamtgeschehens" auf verschiedenen Ebenen, die teils bewusst, größtenteils aber unbewusst abläuft. Darin reduzieren wir einerseits die Informationsmenge nach bestimmten Algorithmen, filtern sie, z. B. nach unserem Erkenntnisinteresse, erweitern sie andererseits aber auch durch Verknüpfung mit vorhandener Information. Verwandte Begriffe. Unterschied zu Daten: 'Daten' sind nur Darstellungen/Angaben über Sachverhalte und Vorgänge, die in der Form bestimmter Zeichen/Symbole auf bestimmten Datenträgern existieren. Aus ihnen kann durch kognitive Tätigkeiten des Empfängers 'Information' werden, zweckbezogenes Wissen, das man beim Handeln im Hinblick auf gesetzte Ziele benötigt (nach Schulze 1988, S. 267). Dies geschieht, indem wahrgenommene Daten ‚intraindividuell‘ (vom jeweiligen Individuum) semantisiert und weitere Operationen (wie z. B. Schlussfolgerungen) ausgeführt werden. Anhand gleicher Daten können Menschen unterschiedliche Informationen gewinnen. ‚Information‘ wird zum Beispiel auch synonym für Nachricht, Auskunft, Belehrung, Aufklärung verwendet, zum Teil auch für Medien wie Zeitungsartikel, Internet-Seiten, E-Mails, Telefonate, Berichte (Quartals-, Projekt-, Geschäftsbericht), Prospekte und Broschüren, Fahrpläne, Wetterberichte u. v. a. m. – die aber i. e. S. nur die ‚Träger von Informationen‘, nicht die Information selbst sind. Diese Beispiele zeigen die weite Verbreitung und grundlegende Bedeutung des Begriffs 'Information’ in nahezu allen (Lebens-) Bereichen. Ist der Empfänger ein Benutzer eines (elektronischen) Informationssystems, das gewissermaßen als Sender und Kanal fungiert, so gibt es die Effekte des "Browsing" und der "Serendipity". Unter "Browsing" versteht man das zufällige Aufstöbern von Information während der eigentlichen Suche nach einer bestimmten Information, wobei diese nicht aus den Augen verloren wird. Es können also möglicherweise handlungsrelevante Problemstellungen auch erst durch zufällig gefundene, passende Informationen bewusst werden. "Serendipity" bezeichnet den (zunehmenden) Verlust der Zielorientierung bei der Suche nach bestimmter Information durch Ablenkung, wobei das eigentliche Ziel aus den Augen verloren wird. Der Begriff in verschiedenen Wissenschaften. "Information" ist ein weitläufig verwendeter und schwer abzugrenzender Begriff. Verschiedene Wissenschaften (Struktur- und Geisteswissenschaften) betrachten die Information als ihr Arbeitsgebiet, namentlich die Informatik, die Informationstheorie und die Informationswissenschaft, die Nachrichtentechnik, die Informationsökonomik und die Semiotik, sie kann ein mathematischer, philosophischer oder empirischer (etwa soziologischer) Begriff sein. Erst in jüngster Zeit gibt es Bestrebungen, die einzelnen Ansätze zu verbinden und zu einem allgemeingültigen Informationsbegriff zu kommen. Entsprechende Literatur findet sich derzeit meist unter dem Stichwort Philosophie (etwa im Bereich Erkenntnistheorie). Von einer vereinheitlichten, allgemein akzeptierten Theorie der Information kann vorläufig noch nicht gesprochen werden. Im allgemeinen Sprachgebrauch sowie in einigen Wissenschaften (Semiotik, Informationswissenschaften) wird „Information“ mit „Bedeutung“ oder „übertragenem Wissen“ gleichgesetzt. Eine andere Sichtweise des Begriffes, die heute beispielsweise in der Computertechnik von großer praktischer Bedeutung ist, stammt aus der Nachrichtentechnik. Die wegweisende Theorie dort ist die von Claude Shannon; er betrachtet die statistischen Aspekte der Zeichen in einem Code, der Information repräsentiert. Die Bedeutung der Information geht bei Shannon nur implizit in den Wahrscheinlichkeiten der verwendeten Zeichen ein, die letztlich nur unter Zuhilfenahme eines Menschen bestimmt werden könne, da nur der Mensch in der Lage sei, die Bedeutung eines Codes bewusst zu erfassen und dabei sinnvollen von nicht sinnvollem Code unterscheiden könne. Das unmittelbare Ziel seiner Überlegungen ist die optimale Übertragung von Information in einem Nachrichtenkanal (Telefonie, Funktechnik). Der Begriff Information und andere Begriffe aus der Informationstheorie werden oftmals im alltäglichen Sprachgebrauch und auch in den Naturwissenschaften in einer metaphorischen Weise benutzt. Eine direkte Übernahme des Begriffes Information in naturwissenschaftliche Theorien, so wie er in den Ingenieurwissenschaften benutzt wird, wird jedoch von einigen Wissenschaftstheoretikern als unzulässig abgelehnt. So warnte beispielsweise der Wissenschaftsphilosoph Wolfgang Stegmüller vor einem Wiederaufleben des Neovitalismus durch unangemessenen Gebrauch informationstheoretischer Begriffe in der Biologie. Es kann jedoch nicht ausgeschlossen werden, dass in Zukunft der naturwissenschaftliche Strukturbegriff und der Informationsbegriff aufeinander zurückgeführt werden können. So untersuchen etwa die Neuroinformatik und die Computational Neuroscience die Beziehung neuronaler Strukturen des Gehirns sowie dessen Fähigkeit, Information zu verarbeiten. Eigenschaften. „Energie, Materie und Information stellen die drei wichtigsten Grundbegriffe der Natur- und Ingenieurwissenschaften dar. Für die Informatik, die sich als die Wissenschaft von der systematischen Verarbeitung von Information versteht, ist der Begriff Information von zentraler Bedeutung; trotzdem ist er bisher kaum präzisiert worden. Über sie lässt sich manches aussagen.“(nach und) In erweitertem Sinn zählen auch die Kriterien, die die "Qualität einer Information" bestimmen, zu den Eigenschaften, die eine Information aufweisen kann/soll. Dies sind zum Beispiel: Zweckorientiertheit, Wahrheit/Richtigkeit, Vollständigkeit, Konsistenz (widerspruchsfrei), Glaubwürdigkeit und Prüfbarkeit, Aktualität. Siehe Informationsqualität. Beispiele. Info-Box auf der Staumauer-Krone der Kölnbreinsperre im österreichischen Maltatal. Hier wird Information zur Zerstreuung und Erbauung versprochen. Struktur und Bedeutung. Eine Sichtweise geht vom Informationsträger aus. Die Frage, welche Struktur sich innerhalb dieses Trägers feststellen lässt, wird untersucht. Ein anderer Ansatz bemüht sich zu verstehen, welche Bedeutung dem zukommt, was man dann (irgendwie) diesem Informationsträger entnommen hat. Die erste Sichtweise hat ihre Wurzeln in der Nachrichtentechnik, die zweite in der Kognitionswissenschaft, der Sprachwissenschaft oder allgemein in der Geisteswissenschaft. Eine nachrichtentechnisch erkennbare Struktur (beispielsweise Lichtpulse, die in einer zeitlichen Reihenfolge auf einzelne Zellen in der Netzhaut treffen) muss in einem komplexen Dekodierungsprozess in eine Bedeutung übersetzt werden. Wo hier die reine Strukturinformation aufhört und beginnt, eine Bedeutungsinformation zu werden, wo also in diesem Dekodierungsprozess die Grenze zum Bewusstsein zu ziehen ist, ist eine der spannenden Fragen der Informations- und Kognitionswissenschaften. Aus diesen Betrachtungen ergeben sich vier Ebenen, unter denen der Begriff der Information heute allgemein betrachtet wird. Diese sind Diese Ebenen steigern sich im Hinblick auf den Bedeutungsgehalt der Information. Sie spiegeln dabei auch die oben erwähnten theoretischen Angriffspunkte wider, wobei die Codierungsebene der Sichtweise der Nachrichtentechnik nahekommt, die Syntaxebene die Sichtweise der Linguistik oder die der Theorie der formalen Sprachen wiedergibt, die semantische Ebene Ansätze aus der Semiotik oder Semantik integriert, und die Pragmatik eher auf Konzepte der Kognitionswissenschaften zurückgreift. Code-Ebene. Die Zeichenfolge „ES IST WARM“ ist zu kurz für eine statistische Betrachtung. Bei längeren Texten wird aber klar, dass nicht alle Elemente der Zeichenfolge (Buchstaben) gleich häufig vorkommen. Gewisse Buchstaben wie etwa "e" und "t" – in unserem Beispiel aber "s" – sind häufiger als andere. Diese Tatsache kann bei der Informationsübertragung genutzt werden, um Übertragungszeit zu sparen. Als Beispiel seien die Huffman-Codes erwähnt. Sie stellen ein Verfahren dar, mit dem Information effizient übermittelt und gespeichert werden kann. Viele weitere Verfahren existieren. Syntaktische Ebene der Information. Auf der syntaktischen Ebene wird Information nur als Struktur gesehen, die es zu übermitteln gilt. Der Inhalt der Information ist hierbei im Wesentlichen uninteressant. Beispielsweise könnte das Problem darin bestehen, das Bild einer Kamera auf einen Monitor zu übertragen. Das Übertragungssystem interessiert sich dabei beispielsweise nicht dafür, ob es das Bild überhaupt wert ist, übertragen zu werden (Einbrecher macht sich am Fenster zu schaffen) oder nicht (Katze läuft am Fenstersims entlang), oder ob überhaupt etwas zu erkennen ist (auch das Bild einer komplett unscharf eingestellten Kamera wird vollständig übertragen, obwohl es da eigentlich nichts Erkennbares zu sehen gibt). Der Informationsgehalt ist dabei ein Maß für die maximale Effizienz, mit der die Information verlustfrei übertragen werden kann. Unterscheidbarkeit und Informationsgehalt. Grundprinzip der syntaktischen Information ist die Unterscheidbarkeit: Information enthält, was unterschieden werden kann und unterschieden werden kann, was gemessen werden kann. Eine Unterscheidung setzt jedoch mindestens zwei unterschiedliche Möglichkeiten voraus. Gibt es genau zwei Möglichkeiten, so lässt sich die Unterscheidung mit einer einzigen Ja-/Nein-Frage klären. Beispiel: Angenommen, auf einer Speisekarte gibt es nur zwei Gerichte, Schnitzel und Spaghetti. Wir wissen, eines der beiden Gerichte hat der Gast bestellt. Um herauszufinden, welches er bestellt hat, braucht man ihm nur eine einzige Frage zu stellen: „"Haben Sie Schnitzel bestellt?"„ Lautet die Antwort „"Ja"“, so hat er ein Schnitzel bestellt, lautet die Antwort „"Nein"“, so hat er Spaghetti bestellt. Sind hingegen mehr als zwei Möglichkeiten vorhanden, so kann man dennoch mittels Ja-/Nein-Fragen herausfinden, welche Alternative zutrifft. Eine einfache Möglichkeit wäre, einfach der Reihenfolge nach alle Gerichte abzufragen. Jedoch ist das eine recht ineffiziente Methode: Wenn der Gast noch keine Bestellung aufgegeben hat, braucht man sehr viele Fragen, um es herauszufinden. Effizienter ist es, wenn man beispielsweise erst fragt: „"Haben Sie bereits bestellt?"“, um dann konkreter zu werden, „"War es ein Gericht mit Fleisch?"“, „"War es Schweinefleisch?"“, sodass schließlich nur noch wenige Alternativen übrig bleiben („"War es Schweineschnitzel?"“, "„Schweinebraten?"“, „"Schweinshaxe?"“). Die Reihenfolge der Fragen spiegelt die Wertigkeit der Bits in einer derartig kodierten Nachricht wider. Der Informationsgehalt einer Nachricht entspricht der Anzahl der Ja-/Nein-Fragen, die man bei einer idealen Fragestrategie braucht, um sie zu rekonstruieren. Auch die Wahrscheinlichkeiten spielen bei einer optimalen Fragestrategie eine Rolle: Wenn man beispielsweise weiß, dass die Hälfte aller Gäste Schweineschnitzel bestellt, so ist es sicher sinnvoll, erst einmal nach Schweineschnitzel zu fragen, bevor man den Rest der Karte durchgeht. Interessant ist hierbei, dass zwar vordergründig keinerlei semantische oder pragmatische Informationen verwendet werden, diese jedoch implizit in Form der Wahrscheinlichkeit eingehen. Beispielsweise ist die Tatsache, dass 50 Prozent der Gäste Schweineschnitzel bestellen, nicht aus der Speisekarte zu erkennen; es ist eine pragmatische Information. Und dass man normalerweise nicht nach der Bestellung von „"Wir wünschen Ihnen einen guten Appetit"“ fragt, folgt aus der semantischen Information, dass dies keine Speise ist, und es daher höchst unwahrscheinlich ist, dass jemand dies bestellt. Binarisierung und die Wahrscheinlichkeit von Zeichen. Die Zeichenfolge „ES IST WARM“ enthält nur Großbuchstaben. Wenn wir einmal nur davon ausgehen, dass wir nur Großbuchstaben zur Verfügung hätten (also 27 Buchstaben einschließlich Leerzeichen), so können wir an jeder der elf Stellen der obigen Nachricht eines der 27 Zeichen setzen. Jede Stelle der Nachricht hat also 27 mögliche Zustände. Von großer technischer Bedeutung ist aber der Binärcode. Jeder Code wird durch eine Folge von Bits dargestellt. Ein Bit unterscheidet nur zwischen "zwei" möglichen Zuständen, die man durch eins und null darstellt. Damit wir 27 verschiedene Zustände darstellen können, benötigen wir mehrere Bits – in diesem Fall genau fünf. Damit kann man 2 hoch 5 = 32 Zustände unterscheiden. Unsere Nachricht hieße dann „00101 10011 11100 01001 10011 10100 11100 … 01101“. Nun ist die obige Codierung der Buchstaben in fünf Ja-/Nein-Entscheidungen nicht die allein gültige. Im Rahmen der klassischen Informationstheorie wird nämlich die Informationssequenz aus statistischer Sicht betrachtet. So kann berücksichtigt werden, wie häufig ein bestimmtes Zeichen des Zeichenvorrats verwendet wird, mit anderen Worten, wie "wahrscheinlich" sein Auftreten ist. So ist beispielsweise der Buchstabe „E“ im Deutschen häufiger als der Buchstabe „Y“. Berücksichtigt man diese Auftretenswahrscheinlichkeit der Zeichen im Zeichenvorrat, so kann man die Anzahl der benötigten Ja-/Nein-Entscheidungen, die zum Erkennen eines Zeichens notwendig sind, je nach Zeichen unterschiedlich groß machen. Eine solche Codierung nennt man auch Entropiekodierung. Damit benötigt man, um ein häufig auftretendes Zeichen zu codieren, weniger Bits, als für ein selten auftretendes Zeichen. Ein Zeichen hat also einen umso "höheren" Informationsgehalt (benötigt zur Erkennung eine höhere Anzahl an 'atomaren’ Entscheidungseinheiten, an Bits), je seltener es auftritt. Semantische Ebene der Information. Strukturierte, syntaktische Informationen werden erst verwertbar, indem sie gelesen und interpretiert werden. Das heißt, zur Strukturebene muss die Bedeutungsebene hinzukommen. Dazu muss ein bestimmtes Bezugssystem angelegt werden, um die Strukturen in eine Bedeutung überführen zu können. Dieses Bezugssystem bezeichnet man als Code. Im obigen Beispiel muss man also "wissen", was „warm“ bedeutet. Jedoch ist die Überführung von Syntax in Semantik selten so direkt; in der Regel wird die Information über sehr viele unterschiedliche Codes immer höherer semantischer Ebene verarbeitet: Dabei wird auf den unterschiedlichen semantischen Ebenen wiederum Informationsverarbeitung auf strukturell-syntaktischer Ebene geleistet: Die Lichtpulse, die gerade auf Ihre Netzhaut treffen, werden dort von Nervenzellen registriert ("Bedeutung" für die Nervenzelle), an das Gehirn weitergeleitet, in einen räumlichen Zusammenhang gebracht, als Buchstaben erkannt, zu Worten zusammengefügt. Während dieser ganzen Zeit werden Nervenimpulse (also Strukturinformationen) von einer Gehirnzelle zur nächsten 'geschossen’, bis sich auf diese Weise in ihrem Bewusstsein die durch Worte nur unzureichend wiedergebbaren Begriffe für „warm“, „jetzt“, und „hier“ zu formen beginnen, die dann im Zusammenhang eine Bedeutung haben: Sie wissen jetzt, dass es bei diesen Worten um die Feststellung geht, dass es warm (und nicht etwa kalt) ist. Pragmatische Ebene der Information. Diese kommt dem umgangssprachlichen Informationsbegriff am nächsten. Die Aussage, dass es warm ist (die wir nun semantisch richtig interpretiert haben; wir wissen, was diese Botschaft uns sagen will), hat echten Informationscharakter, wenn wir uns mittags um zwölf nach einer durchzechten Nacht noch halb schlaftrunken überlegen, was wir anziehen sollen, und uns die Freundin mit den Worten „es ist warm“ davon abhält, in den Rollkragenpullover zu schlüpfen. Der pragmatische Informationsgehalt der – semantisch exakt gleichen – Aussage ist aber gleich null, wenn wir bereits im T-Shirt auf dem Balkon sitzen und schwitzen. Diese Mitteilung bietet uns nichts Neues und ist daher nicht informativ. In diesem Zusammenhang bezeichnet der Begriff Granularität (Kommunikationswissenschaft) das qualitative Maß der "„Passgenauigkeit“" einer Information aus der Perspektive des Empfängers. Smalltalk ist eine Art des Informationsaustausches, bei dem die offensichtlich über die Sprache ausgetauschten semantischen Informationen so gut wie keine pragmatische Information darstellen – wichtig sind hier die Körpersignale, deren Semantik (Freundlichkeit, Abneigung) wir erkennen und pragmatisch (mag er/sie mich?) verwerten können. In diesem pragmatischen Sinne ist wesentliches Kriterium von Information, dass sie das Subjekt, das die Information aufnimmt, "verändert", was konkret bedeutet, dass sich die Information, die potentiell dem Subjekt entnommen werden kann, verändert. In diesem pragmatischen Sinne ist „Information“ ein Kernbegriff der Wirtschaftsinformatik und der mit ihr verwandten Betriebswirtschaftslehre (Information als Produktionsfaktor, Information als wirtschaftliches Gut). Kurz gesagt: Information ist Reduktion von Ungewissheit. Bezüge zwischen den Ebenen. Wenn man das Phänomen "Information" betrachtet, sind die vier Ebenen im Zusammenhang zu betrachten. Damit Information stattfindet, sind Vereinbarungen auf allen vier Ebenen notwendig. Auch stellt die semantische Verarbeitung (beispielsweise das Zusammenfassen von Buchstaben zu Wörtern) wiederum syntaktische Information (nämlich eine Abfolge von Wortsymbolen) her. Letztlich definiert sich auch die pragmatische Ebene nicht zuletzt dadurch, dass sie selbst neue Information syntaktischer Natur schaffen muss (sonst hätte die Information keine Wirkung entfaltet). Aufgrund des engen Zusammenspiels zwischen semantischen Dekodierungsprozess und Wirkentfaltung in der Pragmatik, die beide wiederum syntaktische Informationen als End- und Zwischenprodukte generieren, werden manchmal diese beiden Ebenen auch zur "Semantopragmatik" verschmolzen. Modelle. Das Wesentliche an Information ist die Eigenschaft, Veränderungen im empfangenden System hervorzurufen. Da es bislang keine anerkannte einheitliche Theorie der „Information“ gibt, sondern lediglich unterschiedliche Modelle, steht eine eindeutige Definition des Begriffs „Information“ noch nicht zur Verfügung, wenngleich auch eine nicht anerkannte Definition bereits zur formalen Beschreibung des Experimentiervorgangs führen konnte. Erklärungsansätze für den Begriff der Information kommen sowohl aus geistes- und sozialwissenschaftlicher Richtung (Semantik, Semiotik, Philosophie, Kommunikationswissenschaft etc.), als auch aus naturwissenschaftlicher Richtung (Physik, Kybernetik, Nachrichtentechnik, Informatik etc.). Die unterschiedlichen Ansätze decken sich nicht, haben aber Überschneidungen. Einer der wesentlichen Unterschiede zwischen geisteswissenschaftlichen und naturwissenschaftlichen Modellen besteht darin, dass für die Naturwissenschaft bereits in einer Wechselwirkung subatomarer Teilchen ein Informationsaustausch gesehen wird (vgl. z. B. das Einstein-Podolsky-Rosen-Paradoxon, von dem das klassische Zitat Einsteins über eine „spukhafte Fernwirkung“ herrührt, weil hier zwei Teilchen scheinbar instantan Information auszutauschen scheinen, statt mit Lichtgeschwindigkeit, wie Einstein dies vorhersagt.) Der naturwissenschaftliche Begriff von „Information“ ist eng verknüpft mit dem Konzept der Entropie (d. h. dem zweiten Hauptsatz der Thermodynamik). Hieraus ergeben sich zahlreiche Konsequenzen, entsprechend den zahlreichen Konsequenzen, die sich aus dem zweiten Hauptsatz der Thermodynamik ergeben. (Eine der möglichen Konsequenzen lautet: Als Gegenstand der Naturwissenschaften wird unter "Information" ein potenziell oder tatsächlich vorhandenes nutzbares Muster von Materie oder Energieformen verstanden. Information ist hier, was sich aus dem Zustand eines Systems für die Zustände anderer Systeme ableiten lässt.) Dieses naturwissenschaftliche Verständnis steht im Widerspruch zu dem Informationsbegriff, der von den Geisteswissenschaften herrührt, sowie den alltäglichen Sprachgebrauch dominiert. Sowohl die Geisteswissenschaften als auch der Begriff von „Information“ im täglichen Gebrauch tendieren zu einem Verständnis, für das dem Begriff der „Bedeutung“ eine tragende Rolle zukommt. Die „Bedeutung“ ist hier eine intrinsische Eigenschaft von Information, womit außerdem die Existenz eines (potentiellen) Empfängers impliziert wird, für den sich der Bedeutungsinhalt entfaltet. Die gängigen Kommunikationsmodelle basieren auf diesem Konzept. Somit gehen sowohl die meisten geisteswissenschaftlichen Konzepte als auch das weitläufige Verständnis im täglichen Sprachgebrauch davon aus, dass Information immer eine funktionale Bedeutung hat, im Gegensatz zum naturwissenschaftlichen Verständnis, in dem weder Funktion noch Bedeutung zwingend konstitutive Eigenschaften von Information sind. Als Terminus in der mathematischen Informationstheorie bezieht sich "Information" auf die Auftretenswahrscheinlichkeiten von bestimmten Folgen von Elementen (beispielsweise einer Folge von Buchstaben) aus einer festgelegten Menge (beispielsweise dem Alphabet). Durch diese Festlegung wird "Information" zu einem berechenbaren Maß für die Wahrscheinlichkeit zukünftiger Ereignisse in einem technischen System. Claude Elwood Shannon (1948) konzipierte die mathematische Theorie der Information ursprünglich nicht für den Bereich menschlichen Handelns und menschlicher Kommunikation, sondern für die technische Optimierung von Übertragungskapazitäten. Im Bereich des menschlichen Handelns wird unter "Information" ein Wissen (genauer: das Ergebnis eines Erfahrungsprozesses) verstanden, dem in der jeweiligen aktuellen Situation Bedeutung und Geltung beigemessen wird. In diesem Zusammenhang wird die Rede von „Information“ oder „sich informieren“ mit einer Beseitigung oder Verkleinerung von Ungewissheit verbunden, die durch Auskunft, Aufklärung, Mitteilung, Benachrichtigung oder durch Kenntnis über Gegenstände und Phänomene geschieht. Bestandteil des Informationsbegriffs ist dabei häufig Wiedererkennbarkeit sowie ein Neuigkeitsgehalt. Kommunikationsmodell der Information. Das Verständnis der syntaktischen Ebene war lange Zeit gekennzeichnet durch das Sender-Empfänger-Modell: Ein Sender will eine Information dem Empfänger mitteilen. Dazu codiert er seine Information nach bestimmten Prinzipien (beispielsweise als Abfolge von Nullen und Einsen nach dem oben erwähnten Prinzip) in einen Informationsträger, der Empfänger wertet diesen Informationsträger aus, denn auch er kennt den Code, und erhält dadurch die Information (siehe auch: Kommunikation). Nicht immer ist jedoch ein menschlicher Sender vorhanden, der uns etwas mitteilen will. Ein typisches Beispiel ist die Messung: Dem physikalischen System ist es, bildlich gesprochen, völlig egal, was Menschen von ihm denken. Das Ziel der Messung ist eine Informationsübertragung vom gemessenen System zu dem, der die Messung durchführt (man misst, um etwas über das gemessene System zu erfahren). Ein Beispiel ist die Geschwindigkeitsmessung per Radarfalle: Das Auto hat keine Intention, seine Geschwindigkeit zu verraten (und der Autofahrer meist auch nicht). Dennoch gewinnt der Polizist durch die Messung Information über die Geschwindigkeit. Für die Gewinnung der Information wird ein physikalisches Gesetz genutzt (der Dopplereffekt), das von einem Ingenieur aufgegriffen wurde, um das Gerät zu konstruieren. Die Polizei setzt das Gerät ein und veranlasst somit, dass Information erzeugt wird. Die unmittelbare Erzeugung von Information hingegen wird damit an einen Apparat "delegiert". Urheber der Information ist aber auch an dieser Stelle der Mensch. Das Radarmessgerät wurde entwickelt und die gewonnenen Messergebnisse werden dann automatisch, in einem vom Menschen vorgegebenen Code, angezeigt, aufgezeichnet oder übertragen. Auch viele Tiere sind der Kommunikation - sowohl als Sender wie auch als Empfänger - fähig. Diese ist zwar in der Hauptsache zur Kommunikation mit Artgenossen (Gefahrruf etc.) gedacht, kann aber teilweise auch vom Menschen genutzt werden. Informationstransport, Entstehung und Vernichtung. Interessant ist es, dass Information, die an Materie als Informationsträger gebunden ist, auf bzw. durch Elektromagnetische Wellen übertragen werden kann. Diese Information kann, da masselos, dann im Prinzip mit Lichtgeschwindigkeit transportiert werden. Schließlich kann die Information wieder zurück an Materiestrukturen gebunden werden. Ein Beispiel für so einen Übertragungsprozess ist das Telefax. Dabei wird die Information eines bestimmten Schriftstückes mit Lichtgeschwindigkeit über große Entfernungen transportiert und am Ziel auf ein zweites Schriftstück mit exakt demselben Informationsinhalt übertragen. Allgemeiner: Um Informationen zu transportieren, ist ein Informationsträger nötig. Kann Information ohne Verlust weitergegeben werden? Beim Kopieren von Software ist dies der Fall, weil technische Mechanismen (redundante Codes / Prüfsummen) dafür sorgen. Information kann nicht generell weitergegeben werden, ohne dadurch weniger zu werden. Das Ausmaß des Verlustes hängt von den physikalischen Randbedingungen ab. Gemäß Shannon kann bei einer Übertragung nicht mehr Information aus einem Kanal entnommen werden als auf der Senderseite hineingegeben wird. Beim Weitergeben oder Kopieren von Information wird sie aber an sich nicht verdoppelt, sondern sie liegt dann nur redundant vor. In einem thermodynamisch als geschlossen anzusehenden System wird Information letztlich vernichtet, spätestens beim Wärmetod des Universums. In einem thermodynamisch offenen System kann Information weitergegeben werden, informationstragende Strukturen können sogar spontan entstehen. Beispiele sind eine Vielzahl von theoretisch und experimentell untersuchten dissipativen Strukturen. Besonders Spin-Systeme (Spin = Drehimpuls atomarer und subatomarer Teilchen), insbesondere die sogenannten Spin-Gläser bzw. Ising-Modelle, sind sehr oft untersucht worden, nicht zuletzt wegen ihrer Relevanz für die Theorie neuronaler Netze. Viele Experimente zeigen, dass in Ising-Gläsern spontan Strukturen entstehen können, die wegen der gequantelten Natur des Spins sogar schon als in digitalisierter Form vorliegende Information interpretiert werden können, welche z. B. die Entstehungsbedingungen der Struktur in codierter Form enthält. Digitale Information. Digitale Information entsteht durch Digitalisierung beliebiger Information. Das Ergebnis sind Daten. Obwohl für die Messung von digitalen Informationsmengen, für Informationsströme und für die Informationsspeicherung das Bit und das Byte als Basiseinheiten vorliegen, wird die Informationsmenge immer noch gerne anhand des jeweiligen Informationsträgers quantifiziert. So kann man die digitale Informationsmenge, die in einem Buch steht, leicht und anschaulich an der Seitenzahl oder an der Zahl der Wörter ablesen. Definition der Information in verschiedenen Fachrichtungen. Zum Abschluss sollen hier die einzelnen Fach- und Forschungsrichtungen zu Wort kommen, die je ihr eigenes Verständnis der Information haben. Deutlich wird dabei der jeweilige Ansatz auf den unterschiedlichen, oben geschilderten Ebenen zwischen der reinen Syntax bis zur Pragmatik, teilweise auch mit der besonderen Betonung des Transportcharakters von Information. Semiotik. Die Semiotik definiert Daten als "potenzielle Information". In der Semiotik werden Daten heute in die Sigmatik-Ebene eingeordnet. In älterer Literatur sind sie oft noch als zweckorientiertes Wissen definiert, also "zweckorientierte Daten", die das Wissen erweitern. Informationswissenschaft. Die Informationswissenschaft verwendet den Begriff der Information ähnlich zum semiotischen Ansatz. Für sie sind die Begriffe Wissen und Information von zentraler Bedeutung. Information ist dabei Wissenstransfer beziehungsweise „Wissen in Aktion“. Information "entsteht" in diesem Sinne immer nur punktuell, wenn ein Mensch zur Problemlösung Wissen (eine bestimmte Wissenseinheit) benötigt. Diese Wissenseinheit geht als Information aus einem Wissensvorrat in einen anderen über, beispielsweise aus einer Datenbank in den Wissensvorrat eines Menschen. Wissen wird intern "repräsentiert", Information wird – zum besseren Verständnis für den Informationssuchenden – "präsentiert". (Wissensrepräsentation – Informationspräsentation). Information als Wirtschaftsgut. Information kann als wirtschaftliches Gut angesehen werden, da Information im Unternehmen durch Einsatz anderer Produktionsfaktoren (Menschen, Computer, Software, Kommunikation etc.) produziert, oder von außen angekauft werden kann. Information hat somit einen Wert, der handelbar ist. Der Wert ergibt sich aus dem Nutzen der Information und den Kosten zur Produktion, Bereitstellung und Weiterleitung. Problematisch hierbei ist, dass der potenzielle Käufer den Wert der Information nicht immer im Voraus kennt und sie teilweise erst nachdem er sie erworben hat, bewerten kann (sog. Informationsparadoxon). Bereits der angestrebte Handel mit Information ist dabei mit dem Problem asymmetrischer Information behaftet. Weiterhin kann man Information auch als Produktionsfaktor verstehen. Information wird somit nicht nur konsumtiv genutzt, sondern kann auch produktiv verwendet werden. Dokumentations- und Ordnungslehre. Wilhelm Gaus schreibt in seinem Werk "Dokumentations- und Ordnungslehre" (1995), dass Information unter verschiedenen Aspekten betrachtet werden kann. Information als Veränderung. Nach den Arbeiten des Berliner Informatikers Peter Rüdiger: „Information ist eine Veränderung konkreter Quantität und Dauer.“ Eine Definition der Information über Veränderung bedeutet eine Beschreibung der Information über physikalische Auswirkung. Wird eine einfache Veränderung als ein mathematisches Element betrachtet, das einen Zustandswechsel herbeiführt, so lässt sich beweisen, dass eine Menge solcher Elemente, die Zustandswechsel am selben „Objekt“ herbeiführen und Eigenschaften wie Zusammenhang und Wiederholbarkeit aufweisen, eine mathematische Gruppe darstellen, die als Information bzgl. des Objekts deklariert wird. Diese Gruppe erlaubt eine Längenbestimmung, die für Optimierungen verwendet werden kann, denn da Veränderung Folge physikalischer Wirkung ist, gilt auch das Variationsprinzip der geringsten Wirkung. (Quelle: ') Eine weitere mathematische Beschreibung, die auf der Natur der Veränderung beruht, ist die Beschreibung von Jan Kåhre: "The Law of Diminishing Information". (Quelle: ') Bewegung ist auch Veränderung. Eine (weitere) Definition der Information über Veränderung erfolgt deshalb über Bewegungsunterschied (Informationsbewegung) und Unterschiedsbewegung (Ruhepotentialität): „Information existiert nur in der Bewegung, die immer eine komplementäre, relative Bewegung ist“. (Quelle: Jerg Haas: "Die Kybernetik der Natur: Komplementarität", ISBN 3-8311-1019-0) Verwandte Themenkomplexe. Der Begriff der Information ist eng verknüpft mit Fragestellungen im Themenkomplex Wissen. Dazu gehört insbesondere das Problem der Definition von Komplexität, die sich über die algorithmische Tiefe eines informationsverarbeitenden Prozesses beschreiben lässt. Weiterhin zählen hierzu Betrachtungen über den Unterschied zwischen Zufall und Ordnung sowie der Begriff der Unterscheidbarkeit und der Relevanz. In der Algorithmische Informationstheorie wurde ein Maß entwickelt, mit dem man die Komplexität von Strukturen bestimmen kann, z. B. der Komplexität von Zeichenketten. Dies kann unter gewissen Voraussetzungen auch als Maß für die Information angewendet werden, das in einigen Aspekten Vorteile gegenüber dem von Shannon hat. In einem engen Zusammenhang steht auch die (menschliche) Kommunikation: Die Kommunizierbarkeit gilt als eine wesentliche Eigenschaft von Information und jegliche Kommunikation setzt Information voraus. Philosophie. Siehe auch unter Weblinks die Bibliographie von Floridi 2005 Internationale Standardbuchnummer. Die Internationale Standardbuchnummer "()", abgekürzt ISBN, ist eine Nummer zur eindeutigen Kennzeichnung von Büchern und anderen selbstständigen Veröffentlichungen mit redaktionellem Anteil, wie beispielsweise Multimedia-Produkte und Software. ISBN werden überwiegend in Warenwirtschaftssystemen des Buchhandels eingesetzt, doch auch viele Bibliotheken verwenden sie für die Bestellsysteme und die bibliotheksübergreifenden Kataloge. Nationalbibliografien hingegen haben eigene Nummernsysteme. Für Zeitschriften und Schriftenreihen wird eine Internationale Standardnummer für fortlaufende Sammelwerke (ISSN) vergeben. Entstehungsgeschichte. Seit Mitte der 1960er-Jahre machte man sich in Europa, insbesondere in England an der London School of Economics and Political Science und bei der "Publisher Association of Great Britain", Gedanken über eine eindeutige internationale Identifikation von Büchern. 1966 führte das größte Buchhandelshaus WHSmith erstmals eine Standardbuchnummer, abgekürzt „SBN“, ein. Die Internationale Organisation für Normung griff 1968 diese Vorschläge auf, erweiterte die neunstellige SBN um eine weitere Stelle zur Internationalen SBN und veröffentlichte 1972 die Norm ISO 2108. Die nationale Übernahme dieser Norm in Deutschland ist die DIN-Norm DIN ISO 2108. Buchland-EAN und ISBN-10 auf der Rückseite eines Buches Bis zum Jahresende 2006 hatte der Nummernraum einer ISBN zehn Stellen einschließlich einer Prüfziffer. Da es in Osteuropa und im englischen Sprachraum Schwierigkeiten gab, für neue Verlage und Publikationen Nummern zu vergeben, wurde Anfang 2005 ein revidierter ISO-Standard für die neue dreizehnstellige ISBN eingeführt. Alte ISBN im zehnstelligen Format werden nun als ISBN-10 bezeichnet. Der für ISBN zur Verfügung stehende Zahlenraum konnte dadurch von einer Milliarde Kombinationen auf 1,9 Milliarden fast verdoppelt werden. Das Präfix 979-0 wird von der ISMN belegt, für ISBN stehen nun die Präfixe 978, 979-1 bis 979-9 zur Verfügung. Neben der annähernden Verdoppelung des Zahlenraumes war die Kompatibilität mit dem System internationaler Artikelnummern EAN der wichtigste Grund für die Umstellung. Das Format der ISBN-13 wurde so gewählt, dass die Zahlenfolge identisch mit der zugehörigen EAN-13-Artikelnummer ist. Die ISBN-Agentur für Deutschland empfahl 2004 den deutschen Verlagen, im Hinblick auf die Umstellung für die Übergangsperiode bereits beide ISBN auf ihren Produkten anzugeben. Seit 1. Januar 2007 werden nur noch ISBN-13 vergeben. Kopplung an das System internationaler Artikelnummern. Das ISBN-System wurde an das System internationaler Artikelnummern EAN gekoppelt. Damit können Bücher weltweit innerhalb des EAN-Systems in Warenwirtschaftssysteme übernommen werden, ohne dass aufwändige Neuauszeichnungen mit nationalen Strichcodes nötig sind. Da die ersten drei Ziffern einer EAN normalerweise für das Registrierungsland stehen (z. B. „400“ bis „440“ für die deutsche EAN-Verwaltung), wurde für Bücher ein „Buchland“ (engl. „Bookland“) eingeführt (sozusagen für „registriert im Land der Bücher“). Für Bücher sind die EAN-Ländernummern 978 und 979-1 bis 979-9 vorgesehen. ISBN-13 sind identisch mit der zum Buch gehörenden EAN-13 – außer, dass die EAN ohne Bindestriche notiert wird. Auch ISBN-10 können in eine EAN-13 bzw. ins ISBN-13-System überführt werden. Dazu wird der ISBN-10 einfach die EAN-Ziffernfolge 978 vorangestellt und die alte Prüfziffer durch die neu zu berechnende EAN-Prüfziffer ersetzt. Heute wird das System als "GS1-Pressecode" bezeichnet, da er über Bücher hinaus für andere publizierten Medien (Periodika, und etwa CD-ROMs) verwendet wird. Regeln zur ISBN-Vergabe und -Nutzung. Die ISBN soll eine nichtperiodische Veröffentlichung eines Verlags eindeutig identifizieren, eine bereits verwendete ISBN soll nicht noch einmal verwendet werden. Auch neue Editionen oder eine andere Publikationsform (z. B. Taschenbuch statt Hardcover) bedürfen jeweils einer eigenen ISBN. Einzige Ausnahme sind unveränderte Nachdrucke. Nicht jedes Buch hat eine ISBN. In Deutschland vergibt nur die "MVB Marketing- und Verlagsservice des Buchhandels GmbH" ISBN-Verlagsnummern und einzelne ISBN. Weder die ISBN-Verlagsnummern noch die einzelnen ISBN dürfen verkauft oder an einen anderen Verlag gegeben werden. Da es keine rechtliche Verpflichtung zur Verwendung einer ISBN gibt und die Zuteilung mit Kosten und Aufwand verbunden ist, verzichten manche Kleinverlage und Selbstverlage auf die Registrierung einer ISBN. Die Zuteilung einer einzelnen ISBN für (Selbst-)Verleger mit absehbar einmaliger Verlagsproduktion kostet 79,08 Euro. Bei der Erteilung einer Verlagsnummer hat der Verlag eine Grundgebühr für die ISBN-Vergabe von 153,51 Euro plus Versandkosten zu zahlen und eine Liste aller von ihm vergebbaren ISBN zu beziehen. Der Preis dafür liegt zwischen 22,61 Euro (für zehn Nummern) und 3.568,81 Euro (für 100.000 Nummern). Für jedes Buch, welches per elektronischer Titelmeldung in das Verzeichnis lieferbarer Bücher aufgenommen wird, sind 4,05 Euro pro Jahr, mindestens jedoch gesamt 94,01 Euro pro Jahr zu zahlen. Aufbau der ISBN. Die ISBN-13 besteht aus fünf Zahlengruppen. Bestandteile der ISBN. Im Rahmen von elektronischer Datenverarbeitung ist die Verwendung ohne Trennzeichen zulässig. Die Nummer bleibt auch ohne Trennzeichen eindeutig. Ein Tool für die korrekte Formatierung einer ISBN ist in den Weblinks zu finden. ISBN-13. Zur Berechnung der Prüfziffer bei der ISBN-13 werden alle zwölf Ziffern der noch unvollständigen ISBN addiert, wobei die Ziffern mit gerader Position (also die zweite, vierte und so weiter) dreifachen Wert erhalten. Eine 5 an sechster Stelle beispielsweise fließt also als 15 in den Term ein. Von dem Ergebnis dieser Addition wird die letzte Stelle bestimmt, die dann von 10 subtrahiert wird. Also etwa bei einem Additionsergebnis von 124 "10 − 4 = 6". Dieses Endergebnis ist die Prüfziffer. Ist das Endergebnis indessen 10, ist die Prüfziffer 0. Das letzte Modulo dient dem Einhalten der sog. „Null-Regel“, die besagt, dass die Prüfziffer selbst 0 wird, wenn das Ergebnis der Prüfziffernberechnung 10 ist. Als Folge dieser Methode lässt sich die Gültigkeit einer ISBN-13 überprüfen, indem man berechnet: Das Resultat muss 0 sein. Etwas schlichter: Die wie beschrieben mit 1 und 3 abwechselnd gewichtete „Quersumme“ endet auf 0. woraus sich einfach die Implementierung schreiben lässt. Das "(i+1)mod 2" sorgt für die wechselnde Gewichtung von 1 und 3. Erstreckt man die Summierung auch auf die Prüfziffer (formula_4), so erhält man bei einer fehlerfreien ISBN als Ergebnis 0. ISBN-10. Dabei wird wie gewohnt der Laufindex von links nach rechts gezählt. Bei einem Ergebnis von 0 bis 9 wird daraus unmittelbar die Prüfziffer; ergibt die Formel den Wert 10, wird ein X als letztes Zeichen verwendet, welches als römische Zahl 10 interpretiert werden kann. Bei der Prüfung, ob eine eingegebene ISBN korrekt ist, kann nach den Regeln der Modulo-Rechnung folgende Bedingung geprüft werden. Man addiert das 10-Fache der 10. Ziffer (wobei die Ziffer X als Zahl 10 gilt). Da in der Modulo-11-Rechnung 10 dasselbe ist wie −1, ist es das Gleiche, wenn man die 10. Ziffer subtrahiert. Damit muss, modulo 11 gerechnet, insgesamt 0 herauskommen. Identifikationsnummern für andere Publikationen. "Siehe auch:" Uniform Resource Identifier (URI), Digital Object Identifier (DOI) Io (Mond). Io (auch "Jupiter I") ist der innerste der vier großen Monde des Planeten Jupiter und mit einem Durchmesser von 3643 km der drittgrößte Mond Jupiters und der viertgrößte Mond des Sonnensystems. Seine Besonderheit ist ein extremer Vulkanismus, der von keinem anderen Himmelskörper im Sonnensystem überboten wird. Bekannt wurde dieser Mond durch die erste Messung der Lichtgeschwindigkeit durch Ole Rømer im Jahr 1676 anhand beobachteter Verfinsterungszeiten von Io in Abhängigkeit von der Stellung des Jupiters zur Erde. Entdeckung. Ios Entdeckung wird dem italienischen Gelehrten Galileo Galilei zugeschrieben, der im Jahre 1610 sein einfaches Fernrohr auf den Jupiter richtete. Die vier großen Monde Io, Europa, Ganymed und Kallisto werden daher auch als Galileische Monde bezeichnet. Benannt wurde der Mond nach Io, in der griechischen Mythologie eine Geliebte des Zeus (Zeus entspricht dem römischen Jupiter). Obwohl der Name Io bereits kurz nach der Entdeckung von Simon Marius vorgeschlagen wurde, konnte er sich über lange Zeit nicht durchsetzen. Erst in der Mitte des 20. Jahrhunderts kam er wieder in Gebrauch. Vorher wurden die Galileischen Monde üblicherweise mit römischen Ziffern bezeichnet und Io war der "Jupitermond I". Die Galileischen Monde sind so hell, dass man sie bereits mit einem Fernglas beobachten kann. Umlaufbahn und Rotation. a> Schema der Bahnresonanzen von Io mit Europa und Ganymed Io umkreist Jupiter in einem mittleren Abstand von 421.600 Kilometern in 1 Tag 18 Stunden und 27,6 Minuten. Die Bahn weist eine numerische Exzentrizität von 0,004 auf und ist um 0,04 Grad gegenüber der Äquatorebene des Jupiter geneigt. Io rotiert in 1 Tag 18 Stunden und 27,6 Minuten um die eigene Achse und weist damit, wie der Erdmond und die übrigen Galileischen Jupitermonde, eine gebundene Rotation auf. Physikalische Eigenschaften. Io besitzt einen mittleren Durchmesser von 3643,2 Kilometern und hat eine relativ hohe Dichte von 3,56 g/cm3. Sie weist damit eine etwas höhere Dichte und einen etwas größeren Durchmesser als der Erdmond auf. Im Gegensatz zu den anderen Galileischen Monden findet sich auf Io so gut wie kein Wasser. Dies könnte darauf zurückzuführen sein, dass Jupiter in der Frühzeit seiner Entstehung hohe Temperaturen aufwies, die Wasser und andere flüchtige Stoffe auf dem innersten Mond entweichen ließen. Ios Albedo beträgt 0,61, das heißt, 61 % des einfallenden Sonnenlichts werden von der Oberfläche reflektiert. Die Oberflächentemperatur beträgt im Durchschnitt –143 °C. Vor den Missionen der unbemannten Raumsonden war die Wissenschaft davon überzeugt, dass die Galileischen Monde von Kratern übersäte Körper ähnlich dem Erdmond seien. Anhand der Anzahl und Verteilung der Krater sollten Rückschlüsse auf das Alter der Monde gezogen werden. Als die Sonden Voyager 1 und Voyager 2 erstmals detaillierte Aufnahmen zur Erde sandten, war man überrascht, dass die Monde ein gänzlich anderes Aussehen zeigten. Der Grund hierfür ist bei Io der bis dahin unbekannte Vulkanismus. Oberfläche. a>, ein vulkanischer Schlot von 75 km Durchmesser, gefüllt mit flüssigem Schwefel Ios Oberfläche hat ein Alter von nur wenigen Millionen Jahren und ist permanenten Veränderungen unterworfen. Sie ist im Wesentlichen sehr eben mit Höhenunterschieden von weniger als einem Kilometer, aber es gibt auch Berge von bis zu neun Kilometern Höhe, die nicht vulkanischen Ursprungs sind und vermutlich durch tektonische Prozesse entstehen. Vergleiche der Bilder der Voyager-Sonden und der 20 Jahre jüngeren Bilder der Galileo-Sonde deuten auch auf schnelle Verfallsprozesse hin, die bereits in diesem kurzen Zeitraum sichtbar sind. Die markantesten Strukturen der Oberfläche sind jedoch hunderte vulkanischer Calderen, die im Durchmesser bis zu 400 Kilometer groß und teilweise mehrere Kilometer tief sind. Daneben gibt es auch zahlreiche Seen aus geschmolzenem Schwefel. Die Ablagerungen von Schwefel und seinen Verbindungen weisen ein breites Spektrum an Farbtönen auf, die dem Mond ein ungewöhnlich buntes Erscheinungsbild verleihen. Weiterhin erstrecken sich Lavaflüsse einer niedrigviskosen Flüssigkeit über mehrere hundert Kilometer hinweg. Auswertungen der Voyagerdaten ließen vermuten, dass die Lavaflüsse überwiegend aus Schwefel und Schwefelverbindungen zusammengesetzt sind. Dagegen zeigen erdgestützte Infrarotuntersuchungen so genannte "Hot Spots" mit Temperaturen bis zu 2000 K. Dies ist viel zu heiß für geschmolzenen Schwefel. Möglicherweise bestehen die Lavaflüsse aus geschmolzenen Silikaten. Aktuelle Beobachtungen des Hubble-Weltraumteleskops weisen darauf hin, dass das Material reich an Natrium ist. Vulkanismus. Voyager 1 überfliegt einen Vulkan. Auf diesen Aufnahmen der Sonde Galileo sind zwei große vulkanische Eruptionen erkennbar. Die links am Horizont sichtbare hat eine Höhe von 140 km, die andere (vergrößert auf dem unteren Bildausschnitt) von 75 km. Ios Oberfläche weist so gut wie keine Impaktkrater auf, vielmehr ist sie von aktivem Vulkanismus geprägt und ständigen Veränderungen unterworfen. Io ist mit Abstand der vulkanisch aktivste Körper im ganzen Sonnensystem. Bei Eruptionen werden flüssiger Schwefel und Schwefeldioxid mit Geschwindigkeiten bis zu 1 km/s und Temperaturen von 1000 bis 1300 °C ausgestoßen, die aufgrund der geringen Schwerkraft bis in 300 Kilometer Höhe gelangen können. Die Materialien fallen zurück auf die Oberfläche und bilden mächtige Ablagerungen. Der Vulkanismus wurde erstmals 1979 auf fotografischen Aufnahmen der Raumsonde Voyager 1 nachgewiesen, die seinerzeit großes Aufsehen erregten, da dies die erste Entdeckung von aktivem Vulkanismus auf einem anderen Himmelskörper als der Erde war. Die Eruptionen variieren sehr stark. Bereits über einen Zeitraum von nur vier Monaten, die zwischen der Ankunft von Voyager 1 und Voyager 2 vergangen waren, konnte festgestellt werden, dass Eruptionen in bestimmten Bereichen zum Erliegen gekommen waren, während an anderen Stellen neue begonnen hatten. Die Ablagerungen rund um die vulkanischen Krater hatten sich ebenfalls deutlich verändert. Durch den Vergleich mit den 20 Jahre später aufgenommenen Bildern der Galileo-Sonde ist erkennbar, dass die permanenten Vulkanausbrüche die Oberfläche von Io durch Ablagerungen von ausgeworfenem Material ständig verändern. Io weist die planetologisch jüngste Oberfläche im Sonnensystem auf. Ihr Alter wird auf etwa 10 Millionen Jahre geschätzt. Daher sind auch kaum Einschlagskrater zu erkennen, da diese durch die planetologischen Prozesse eingeebnet werden. Die vulkanische Aktivität wird durch Gezeitenkräfte verursacht, die den Mond regelrecht durchkneten und dadurch aufheizen. Allein die Gezeitenkräfte des Jupiter auf Io sind mehr als 6000-mal stärker als die des Erdmondes auf die Erde. Die zusätzlichen Gezeitenkräfte von Europa und Ganymed liegen noch immer in der Größenordnung der des Mondes auf die Erde. Durch die gebundene Rotation von Io ist jedoch nicht die absolute Stärke der Gezeitenkräfte des Jupiter entscheidend, sondern nur ihre Änderung. Io wird durch einen Resonanzeffekt mit den Monden Europa und Ganymed, deren Umlaufzeiten im Verhältnis 1:2:4 zueinander stehen, auf eine leicht elliptische Bahn um Jupiter gezwungen, sodass die Variation der Gezeitenkräfte des Jupiters allein durch die Variation des Abstandes noch 1000-mal so groß ist wie der Einfluss der Gezeitenwirkung des Mondes auf die Erde. Durch die elliptische Umlaufbahn schwankt Jupiter aus der Sicht eines Beobachters auf Io während eines Umlaufs am Himmel zusätzlich leicht hin und her. Aufgrund des geringen Abstandes zu Jupiter führt diese Libration in Länge des Satelliten zu periodisch wandernden Gezeitenbergen von bis zu etwa 300 Metern Höhe. Die entsprechenden Deformationen der Erdkruste betragen lediglich 20 bis 30 Zentimeter. Wenn die Umlaufbahn von Io kreisförmig wäre, dann wären ihre Gezeitenberge unbewegt und es gäbe auf ihr keinen Vulkanismus. Bedeutende Vulkanberge sind der Culann Patera, der Tupan Patera, der Ra Patera und der Loki Patera. Weitere benannte Vulkane sind etwa Marduk Patera, Pele Patera oder Prometheus. Innerer Aufbau. Anders als die Eismonde des äußeren Sonnensystems scheint Io daher eher wie die terrestrischen (erdähnlichen) Planeten überwiegend aus silikatischem Gestein aufgebaut zu sein. Daten der Raumsonde Galileo lassen darauf schließen, dass Io einen Kern aus Eisen, eventuell mit Anteilen an Eisensulfiden, von mindestens 900 Kilometern Durchmesser besitzt. Bei der erneuten Auswertung von Daten der Raumsonde Galileo entdeckten Forscher, dass Io unter der gesamten Oberfläche Magma, das zu 20 % geschmolzen ist, in einer 50 km dicken Schicht besitzt. Atmosphäre. Io besitzt eine äußerst dünne Atmosphäre von 120 Kilometern Höhe, die sich aus Schwefeldioxid und möglicherweise Spuren anderer Gase zusammensetzt. Die 700 Kilometer hoch reichende Ionosphäre besteht aus Schwefel-, Sauerstoff- und Natriumionen. Sie wird durch die vulkanische Aktivität ständig erneuert, so dass der Teilchenverlust durch die Wechselwirkung mit der Magnetosphäre des Jupiter ausgeglichen wird. Magnetfeld und Strahlung. Io bewegt sich auf ihrer Bahn durch das starke Magnetfeld des Jupiters, wodurch elektrische Ströme induziert werden. Dabei werden rund 1000 Gigawatt mit einem Spannungspotential von 400.000 Volt erzeugt. Unter diesen Bedingungen werden Atome in der oberen Atmosphäre ionisiert und in den Weltraum geschleudert. Io erleidet durch diesen Partikelstrom einen Masseverlust von mehreren Tonnen pro Sekunde. Die Ionen bilden längs Ios Bahn einen Torus um Jupiter, der im infraroten Licht intensiv leuchtet. Partikel, die durch den Sonnenwind aus dem Torus fortgerissen werden, könnten mitverantwortlich für Jupiters ungewöhnlich ausgedehnte Magnetosphäre sein. Die Ionen werden in der Jupitermagnetosphäre derart stark beschleunigt, dass die dadurch entstehende Strahlung die derzeit (2011) strahlungssicherste Elektronik einer Raumsonde lahmlegen würde. Außerdem bildet sich nach demselben Mechanismus, durch den auch Polarlichter entstehen, unterhalb von Io in der Jupiteratmosphäre eine Leuchterscheinung, die eine Leuchtspur nach sich zieht. Warum dem Leuchtpunkt weitere, schwächere Leuchtpunkte voraneilen, ist bisher physikalisch nicht erklärt. Die Position von Io beeinflusst sehr stark die Aussendung der vom Jupitersystem abgestrahlten Radiowellen (Jupiter-Bursts). Wenn Io von der Erde aus sichtbar ist, steigt die Intensität der Radiostrahlung deutlich an. Spekulationen über ein eigenes Dipolfeld von Io, wie es der Jupitermond Ganymed besitzt, wurden durch die Raumsonde Galileo widerlegt. Erkundung durch Sondenmissionen. Die Erkundung von Io durch Raumsonden begann in den Jahren 1973 und 1974 mit den Jupiter-Vorbeiflügen von Pioneer 10 und Pioneer 11. 1979 konnten Voyager 1 und Voyager 2 erstmals genauere Beobachtungen des Mondes vornehmen. Der Großteil unseres Wissen über Io stammt jedoch vom Galileo-Orbiter, welcher 1995 das Jupitersystem erreichte und während der darauf folgenden acht Jahre mehrere nahe Vorbeiflüge am Jupitermond vollführte. Auf ihrem Weg zum Zwergplaneten Pluto flog am 28. Februar 2007 die Raumsonde New Horizons am Jupiter und seinen vier großen Monden vorbei. Dabei wurde unter anderem auch Io beobachtet, wo ein Vulkanausbruches mittels Fotoserie dokumentiert werden konnte. Am 5. August 2011 ist die NASA-Sonde Juno gestartet, die Jupiter und seine Magnetosphäre aus einer polaren Bahn erforschen soll. Sie könnte auch Io fotografieren. Für das Jahr 2020 hatten die NASA und die ESA die gemeinsame Europa Jupiter System Mission/Laplace vorgeschlagen, welche mindestens zwei Orbiter vorsah, die jeweils in einen Orbit um Europa und Ganymed eintreten sollen und das gesamte Jupitersystem, einschließlich Io, mit einem revolutionären Tiefgang erforschen sollten. Die NASA strich jedoch ihren Anteil am Projekt. Die ESA wird mit ihrem nun JUICE genannten Orbiter zur Erforschung von Ganymed und Kallisto auch an Europa vorbeifliegen. Vorbeiflüge an Io stehen nicht auf dem Flugplan von JUICE. Ferner existiert eine Studie für eine Io Observer genannte Sonde, die Io bei mehreren dichten Vorbeiflügen erforschen könnte. Ob sie verwirklicht wird, steht jedoch nicht fest. Interlingua. Interlingua ist eine natürliche Plansprache, die von 1924 bis 1951 von europäischen und amerikanischen Sprachwissenschaftlern der International Auxiliary Language Association (IALA) entwickelt und 1951 mit der Herausgabe des "Interlingua-English Dictionary" sowie der "Grammatica complete de interlingua" veröffentlicht wurde. An beiden Werken war der deutsch-amerikanische Philologe und Übersetzer Alexander Gode als Autor maßgeblich beteiligt. Gode bezeichnete Interlingua als „modernes Latein“ oder als „Standard Average European “. Der Wortschatz ist nicht künstlich, sondern basiert auf international bekannten Vokabeln (Internationalismen), die überwiegend greco-latinen Ursprungs sind und die in ihrer Natürlichkeit belassen werden. Die Grammatik ist regelmäßig, aber nicht schematisch. Theoretisch könnten somit mindestens 850 Millionen Sprecher romanischer Sprachen inklusive Zweitsprecher Interlingua grundlegend verstehen, zudem auch die Sprecher, die Latein oder eine romanische Sprache als Fremdsprache erlernt haben. Sprecher nicht-romanischer, europäischer Sprachen, besonders Englischsprachige, verstehen durch die eigenen Fremd- und Lehnwörter auf Anhieb viele Interlingua-Vokabeln. Der Name „Interlingua“ leitet sich von „inter“ (Latein bzw. Interlingua für ‚zwischen, mitten, unter‘) und „lingua“ (Latein bzw. Interlingua für ‚Sprache‘) ab und steht damit für die Idee einer neutralen Brückensprache und nicht für eine alle Sprachen der Welt umfassenden Universalsprache. Historischer Kontext. Als Folge der Zunahme internationaler Beziehungen wurde ab der Mitte des 19. Jahrhunderts das Problem internationaler Verständigung immer brennender. Die Schöpfer der Welthilfssprachen wollten einen Ausweg zeigen und legten daher Wert auf leichte Erlernbarkeit, hohes aktives und passives Sprachvermögen, Internationalität sowie Neutralität im Sinne von keines Volkes Sprache. Die neutrale International Auxiliary Language Association (IALA; deutsch: Internationale Hilfssprachengesellschaft) wurde 1924 in New York u. a. von der Mäzenin und Esperantosprecherin Alice Vanderbilt Morris mit dem Ziel mitgegründet, die wissenschaftliche Basis für die Auswahl einer bestehenden Plansprache bzw. die Fusion bereits bestehender Plansprachen wie Esperanto (1887), Latino sine flexione (1903), Ido (1907), Esperanto II (1910), Occidental (1922) und Novial (1928) zu schaffen. Die Entwicklung einer eigenen Plansprache war anfänglich nicht das Ziel. Nachdem die IALA keine der untersuchten Plansprachen für geeignet hielt bzw. die Vertreter der verschiedenen Plansprachen sich nicht auf eine gemeinsame Plansprache einigen konnten, beschloss die IALA 1934 selbst, eine eigene Plansprache zu entwickeln, die 1951 unter dem Namen Interlingua veröffentlicht wurde. 1953 löste sich die IALA daraufhin auf. Erst nach dem Zweiten Weltkrieg wurde Englisch als Weltverkehrssprache die international bedeutendste Weltsprache. Theorie. Für die Sprachwissenschaftler der International Auxiliary Language Association (IALA) lag die Lösung der Sprachenfrage nicht in der Konstruktion einer Universalsprache. Sie lehnten daher jede Form einer Plansprache ab, deren Vokabular künstlich konstruiert wurde, weil solche Sprachen zu abstrakt und damit schwer zu erlernen und zu beherrschen sind. Auch kam für die IALA eine Mischung von Sprachmaterial verschiedenster Sprachen innerhalb des eigenen Kulturraumes bzw. mit Sprachen anderer Kulturräume zu einer neuen Plansprache wegen der Willkürlichkeit der Auswahl sowie mangelnder Koheränz einer solchen Sprache nicht in Frage. Vielmehr sind die Sprachwissenschaftler der IALA durch Beobachtung zu der Erkenntnis gelangt, dass genügend Sprachmaterial bereits in den europäischen Sprachen latent existiert, das, mit Abweichungen in der Aussprache oder Orthographie, z. B. aus international verwendeten Begriffen wie „Information“, „Politik“, „Bibliothek“, „Philosophie“, „Restaurant“, „Automobil“ aber auch aus Wörtern wie „Kaffee“, „Kakao“ oder „Joghurt“ etc. besteht. In der Sprachwissenschaft wird dieses Phänomen Internationalismen genannt. Erste Schätzungen gingen von bis zu 6000 international verwendeten Vokabeln aus, die größtenteils greco-latinen Ursprungs sind. Die Gruppe der anglo-romanischen Sprachen ist die durch Wissenschaft, Technik, Handel, Diplomatie, Kolonisation, Migration, Bildung, Kultur, christlicher Mission, Sport etc. die global weitestverbreitete europäische Sprachengruppe und damit Quellsprachen für viele Fremd- und Lehnwörter zahlreicher weiterer Sprachen. Daher wird aus den anglo-romanischen Sprachen das internationale Sprachmaterial extrahiert, welches folglich nicht willkürlich, sondern objektiv, kohärent, leicht zu erlernen und leicht zu beherrschen sei. Eine schematisierte Grammatik, die die Objektivität des Vokabulars entstellt, sei kontraproduktiv, so dass nur eine minimale und rationale Grammatik, so die Logik, die Ursprünglichkeit und Natürlichkeit des internationalen Vokabulars unterstütze. Für die IALA sollte die internationale Sprache ein Mittel der Kommunikation zum Ideenaustausch und zur Völkerverständigung sein, nicht aber ein zwingendes Mittel zur Erreichung des Weltfriedens. Wortschatz. Interlingua soll auf dem größtmöglichen internationalen Wortschatz aufbauen (vgl. Internationalismen). Daher werden Wörter in folgenden Sprachen auf Internationalität geprüft: Englisch, Französisch, Italienisch, Spanisch und Portugiesisch. Deutsch und Russisch dienen als Kontrollsprachen. Mit empirischen Methoden werden die Kognaten ermittelt und dann deren Urwort oder Etymon standardisiert und registriert. Damit ergeben sich für Interlingua: patrimonio, patrino, patrono und patriarcha. Dabei wird die gesamte Wortfamilie untersucht, nicht lediglich ein isoliertes Wort. Damit erhält man den genauen Prototyp, der für die Ableitung der Wortfamilie grundlegend ist (hier "patr-"). In wenigen Fällen, bei denen keine der beiden Regeln greift, bezieht sich Interlingua auf das Lateinische, oder aber das Wort der Referenzsprachen, welches die größtmögliche Internationalität bzw. die größtmögliche Übereinstimmung mit der Systematik aufweist, wird registriert. Das Interlingua-English Dictionary wurde 1951 mit fast 27.000 Vokabeln veröffentlicht. Phonetik und Orthographie. Die Schreibweise des Interlingua basiert auf den 26 Buchstaben des lateinischen Alphabets ohne diakritische Zeichen oder Akzentuierungszeichen. Interlingua hat keine phonematische Orthographie. Es gibt einige Digraphen, z. B. in Wörtern alt-griechischer Herkunft wegen der besseren Wiedererkennung (z. B. philosophia). Die Norm der Aussprache ist kontinental und die Akzentuierung liegt als Hauptregel auf dem Vokal vor dem letzten Konsonanten. Textbeispiele. Quelle: Zeitschriftenmagazin PANORAMA, 2012; Herausgeber: "Union Mundial pro Interlingua" Entwicklung als Sprache. Interlingua wird durch den Sprachtod des Lateins als „modernes Latein“ und neutrale, internationale Brückensprache seit 1955 von der Non-Profit-Organisation "Union Mundial pro Interlingua (UMI)" u.a. mit der Ausrichtung von Konferenzen gefördert. 30 medizinische Fachjournale, darunter so renommierte wie Journal of the American Medical Association, Circulation, Circulation Research und American Heart Journal etc., publizierten zu der Zeit von Alexander Gode die Inhaltsangaben ihrer wissenschaftlichen Artikel in Interlingua. Ebenso diente Interlingua bei 10 wissenschaftlichen Konferenzen als Kommunikationsmittel. Das internationale Vokabular wurde in den 1960er Jahren in Schweden im Rahmen des Schulfachs "allmän språkkunskap" (allgemeine Sprachkunde) als Alternative zum Lateinunterricht angeboten. Die Debatten um den Lateinunterricht sind seit Jahrzehnten von ähnlichen Positionen geprägt: die Wertschätzung einer sprachlichen und kulturellen Grundlage für höhere Bildung steht der Skepsis gegenüber, ob dieser Aufwand noch modernen Ansprüchen genügt. Einen Ausweg aus dem Dilemma bietet Interlingua, die das kulturelle Erbe des Lateins mit modernen Kommunikationsanforderungen weiterentwickelt. Interlingua ist nach ISO 639-1 der Internationalen Organisation für Normung gekennzeichnet. Interlingua befindet sich damit in der Liste der entwickeltesten Sprachen weltweit. Seit der Veröffentlichung der grundlegenden Werke 1951 hat sich durch Sprachwandel eine Vielzahl von grammatischen und stilistischen Änderungen ergeben. Daneben gibt es zahlreiche Publikationen als e-books. Das aktuelle Vokabular wird auf über 60.000 Wörter geschätzt. Das Standard-Lehrwerk "Interlingua – Instrumento moderne de communication international" wurde auch ins Chinesische und Japanische übersetzt. Durch das Internet erfährt Interlingua eine allmähliche Verbreitung. Imago (Zoologie). Die Imago (Mehrzahl "Imagines"; lat. ‚Bild‘) ist das aus den Jugendstadien hervorgegangene geschlechtsreife Insekt, die Adultform ("Adultus"). Das erwachsene Tier wird als das „Bild der Art“ gedacht. Gelegentlich finden sich auch die deutschen Bezeichnungen "Vollkerf" und "Vollinsekt". Bei den Insekten mit vollständiger Metamorphose (holometabole Insekten) handelt es sich um das Lebensstadium nach der Larvenzeit und der Puppenruhe. Über die Puppenruhe wird beispielsweise aus einem Engerling ein fertiger Käfer, aus einer Raupe ein Schmetterling. Die Imagines häuten sich nicht mehr und können daher nicht mehr weiter wachsen. Bei Insekten mit unvollständiger Metamorphose (hemimetabole Insekten) wird ebenfalls das letzte Lebensstadium darunter verstanden, in welchem das Insekt nun über vollständig entwickelte Geschlechtsapparate verfügt. Auch finden sich, bei geflügelten Arten, vollständig entwickelte Flügel erst bei der Imago. Im Allgemeinen erfolgt kein weiteres Wachstum mehr, lediglich der Hinterleib von eierproduzierenden Weibchen nimmt häufig noch an Umfang und Größe zu. Die Imago erbringt die Fortpflanzung. Einige Arten verwenden dazu lediglich die zuvor erworbenen Energiereserven und verlieren die Fähigkeit zur Nahrungsaufnahme durch Reduktion der Mundwerkzeuge, andere nehmen weiterhin Nahrung auf. Bei vielen Arten stirbt die Imago bald nach erfolgter Fortpflanzung; nach der Begattung im Falle der Männchen, nach der Eiablage, oft auch erst nach mehrfacher, bei den Weibchen. Injektivität. Injektivität oder Linkseindeutigkeit ist eine Eigenschaft einer mathematischen Relation, also insbesondere auch einer Funktion (wofür man meist gleichwertig auch „Abbildung“ sagt): Eine injektive Funktion, auch als Injektion bezeichnet, ist ein Spezialfall einer linkseindeutigen Relation. Die Zielmenge kann daher nicht kleiner als die Definitionsmenge sein, d. h., sie kann nicht weniger Elemente enthalten. Die Bildmenge formula_7 darf eine "echte" Teilmenge der Zielmenge formula_3 sein, d. h. es kann Elemente formula_9 geben, die keine Bildelemente formula_10 sind, wie es in der abgebildeten Grafik rechts der Fall ist. Dies macht den Unterschied zu einer bijektiven Abbildung aus, von der außer Injektivität noch verlangt wird, dass "jedes" Element der Zielmenge als Bildelement formula_10 auftritt. Dass eine Abbildung formula_1 injektiv ist, wird gelegentlich durch formula_13 ausgedrückt, das sich aus den Zeichen formula_14 und formula_15 zusammensetzt. Es erinnert an die Einbettung einer Menge formula_5 in eine Obermenge formula_3 durch eine Funktion formula_18 die jedes Element von formula_5 auf sich selbst abbildet. Mächtigkeiten von Mengen. Eine wichtige Rolle spielt der Begriff der Injektion in der Mengenlehre bei Definition und Vergleich von Mächtigkeiten, einem Begriff, der die Elementeanzahl von endlichen Mengen auf beliebige Mengen verallgemeinert. Zwei Mengen formula_69 heißen „von gleicher Mächtigkeit“, wenn es sowohl eine Injektion von formula_5 nach formula_3 als auch eine solche von formula_3 nach formula_5 gibt. (In diesem Fall existieren auch Bijektionen von der einen auf die andere Menge.) Dagegen heißt formula_5 von kleinerer Mächtigkeit als formula_3, wenn es zwar eine Injektion von formula_5 nach formula_3, aber keine von formula_3 nach formula_5 gibt. Schubfachschluss. Ein in Beweisen insbesondere der Zahlentheorie häufiges Schlussschema benutzt die Feststellung, dass eine Abbildung formula_47 einer endlichen Menge formula_5 in eine Menge formula_3 mit weniger Elementen nicht injektiv sein kann, dass es also Elemente formula_83 mit formula_33 und gleichem Bild formula_85 gibt. Wegen der Vorstellung von vielen Objekten in weniger Schubfächern heißt das „Schubfachschluss“. Anzahl injektiver Abbildungen. Dies entspricht in der Kombinatorik einer "Variation ohne Wiederholung". Geschichte. Nachdem man generationenlang mit Formulierungen wie „eineindeutig“ ausgekommen war, kam erst in der Mitte des 20. Jahrhunderts mit der durchgehend mengentheoretischen Darstellung aller mathematischen Teilgebiete das Bedürfnis nach einer prägnanteren Bezeichnung auf. Wahrscheinlich wurde das Wort "injektiv" ebenso wie "bijektiv" und "surjektiv" in den 1930er Jahren von N. Bourbaki geprägt. Das Substantiv "Injektion" wurde 1950 von S. MacLane, das Adjektiv "injektiv" 1952 in den "Foundations of algebraic topology" von S. Eilenberg und N. Steenrod eingeführt. Es herrscht stellenweise große Verwirrung bezüglich der Zuordnung zwischen den Begriffen „eineindeutig“ einerseits und „injektiv“ bzw. „bijektiv“ andererseits. Quellen (Lehrbücher) aus der reinen Mathematik favorisieren „injektiv“, fachfremde Quellen favorisieren teilweise eher „bijektiv“. Es sollte daher besser davon abgesehen werden, das Wort „eineindeutig“ in diesem Zusammenhang zu verwenden. ISO 9660. ISO 9660 ist eine Norm der Internationalen Organisation für Normung (ISO), die ein Dateisystem für optische Datenträger (CD-ROM, DVD-ROM, BD etc.) beschreibt. Das Ziel dieser Norm ist die Unterstützung verschiedener Betriebssysteme wie z. B. Microsoft Windows, Mac OS und UNIX-Systeme, so dass Daten ausgetauscht werden können. ISO 9660 soll durch das Universal Disk Format abgelöst werden. Entstehung und Eigenschaften. Der Standard wurde 1987 veröffentlicht, auf Grundlage des "High-Sierra"-Dateisystems zwei Jahre zuvor. Er schreibt vor, dass Dateinamen in der niedrigsten Kompatibilitätsstufe höchstens acht Zeichen und eine dreibuchstabige Dateinamenserweiterung umfassen dürfen und lässt in dieser Kompatibilitätsstufe maximal acht Verzeichnisebenen zu. Multi-Extent-Dateien sind in der niedrigsten Kompatibilitätsstufe nicht gestattet, d.h. eine Datei darf 4 Gigabyte − 1 Sektor nicht überschreiten. Bei einer Sektorgröße von 2 kB ist eine Dateisystemgröße von 8 TB möglich. Als Zeichen für die Dateinamen sind in der niedrigsten Kompatibilitätsstufe nur Großbuchstaben, Ziffern und der Unterstrich erlaubt. Alle Verzeichnisse sind alphabetisch geordnet zu erzeugen. In der niedrigsten Kompatibilitätsstufe dürfen Dateien nicht fragmentiert auf dem Datenträger gespeichert sein. Eine CD-ROM, die sich an derart strikte Vorgaben hält, kann auf nahezu jedem Computersystem gelesen werden. Der ISO-9660-Standard ist identisch zum ECMA-Standard ECMA-119. ISO 9660-Level 2. Der Standard ISO 9660 Level 2 (das ist die nächsthöhere Kompatibilitätsstufe) ist weniger restriktiv und erlaubt Dateinamen bis zu einer Länge von 31 Zeichen. ISO 9660-Level 3. Dateien dürfen fragmentiert werden, d.h. als sogenannte Multi-Extent-Dateien abgelegt werden, hauptsächlich, um Dateien ≥ 4 GB sowie Packet-Writing oder inkrementelles CD-Schreiben zu ermöglichen. Joliet und Rockridge. Das Joliet-Format ist keine Erweiterung des ISO-9660-Standards, denn das durch die Firma Microsoft geschaffene Joliet ist ein separates Dateisystem, das typischerweise als Hybrid angelegt wird, wogegen die Rockridge-Extensions den Standard um Unix-spezifische Dateieigenschaften erweitern, in dem eine im ISO-9660-Standard vorgesehene Erweiterungsmethode zur Ergänzung von Verzeichniseinträgen verwendet wird. Da Joliet einen separaten Dateibaum auf dem Medium anlegt, kann es zusätzlich zu Rockridge angelegt werden. Anders als bei Rockridge besteht bei Joliet kein Zusammenhang zwischen den Dateinamen im ISO-9660-Baum. HFS kombiniert mit ISO 9660. Für ältere Mac OS-Versionen werden eigentlich keine Erweiterungen benötigt, weil der ISO-9660-Standard mit den Associated Files selbst in der niedrigsten Kompatibilitätsstufe schon eine direkte Abbildung des Apple-Resourceforks enthält. ISO 9660 wurde dennoch oft in Kombination mit einem HFS-System erzeugt. Beide Systeme teilen dabei die Dateidaten, haben aber jeweils eigene Metadaten. Da HFS aber eine Begrenzung auf 2 GB Dateigröße hat, ist HFS in letzter Zeit durch andere Erweiterungen verdrängt worden. ISO 9660:1999. Die aktuelle Version des ISO-9660-Standards hebt alle künstlichen (also nicht durch das Format selbst bedingten) Beschränkungen auf. Dateinamen dürfen in ISO 9660:1999 beliebige Zeichen enthalten, die maximale Länge einer Pfadnamenkomponente wird auf 207 Oktette erhöht und ohne XA-Erweiterungen (XA steht hierbei für eXtended Architecture, einem Standard für CD-ROM-Laufwerke) sind sogar 221 Oktette möglich. Weiterhin wird die Beschränkung auf eine maximale Verzeichnistiefe von 8 Directory-Hierarchiestufen aufgehoben. Zusätzlich wird die besondere Bedeutung des Punktes in Dateinamen aufgehoben. Beschränkte Anzahl an Verzeichnissen. Das ISO-Format weist eine Beschränkung hinsichtlich der Anzahl der möglichen Verzeichnisse auf. Jede ISO-Verzeichnisstruktur basiert auf einer so genannten „path table“ (Pfadtabelle). Diese Tabelle liefert eine Identifikationsnummer zu jedem Ordner. Diese Nummer bezieht sich jeweils auf das dem Ordner übergeordnete Stammverzeichnis. Sie weist also jedem Ordner die Identifikationsnummer des übergeordneten Ordners zu. Bei dieser Identifikationsnummer handelt es sich um eine 16-Bit-Nummer, demnach ist die Anzahl der Werte auf 65536 begrenzt. Hierdurch kann die Anzahl der möglichen Verzeichnisse je nach Struktur (Art der Schachtelung) begrenzt werden. Die in der Praxis mögliche Gesamtanzahl von Verzeichnissen lässt sich nicht angeben, da nur die Anzahl der übergeordneten Stammverzeichnisse auf 65536 begrenzt ist. Da die meisten Betriebssysteme die “path table” nicht auswerten, bietet das Programm mkisofs seit Juli 2007 die Option -no-limit-pathtables, um auch bei Überschreiten der Grenze ein Dateisystem erzeugen zu können. Einige Betriebssysteme – wie etwa Windows – greifen auf diese Pfadtabelle zurück, andere – wie etwa Linux – verwenden die Tabelle nicht. Unter Windows kann es daher zu Problemen kommen, wenn eine CD mehr als 65.536 Verzeichnisse enthält. Während dieselbe CD in Linux lesbar ist, werden unter Windows zwar alle Dateien auf der CD angezeigt, jedoch als leer („zero length“) wiedergegeben. Somit scheint zunächst eine fehlerfreie CD entstanden zu sein, die sich erst bei Prüfung einzelner Dateien als fehlerhaft erweist. Viele CD-Schreibprogramme wie etwa Nero Burning ROM oder auch Pinnacle Instant CD/DVD weisen auf diese Problematik nicht hin. Somit kommt es durch den Brennvorgang zu einer scheinbar fehlerfreien CD, die tatsächlich (unter Windows) jedoch nicht brauchbar ist. ISO-Abbild. ISO-9660-Dateisystem-Abbilder (ISO-Abbilder) sind eine verbreitete Methode, um den Inhalt von CD-ROMs elektronisch zu verteilen. Sie haben meist die Dateierweiterung.iso. Induktivität. Das Formelzeichen der Selbstinduktivität ist "L". Es wurde zu Ehren von Emil Lenz gewählt, dessen theoretische Arbeiten zur elektromagnetischen Induktion grundlegend waren. Ihre Maßeinheit im SI-Einheitensystem ist das Henry, benannt nach dem US-amerikanischen Physiker Joseph Henry. Im wichtigen Fall einer Drahtschleife oder Spule kann man die Beziehung zwischen Spannung und zeitlich veränderlichem Strom unmittelbar mit Ampèreschem Gesetz und Induktionsgesetz verstehen: Ein elektrischer Strom erzeugt, wie vom Ampèreschen Gesetz beschrieben, ein Magnetfeld. Die zeitliche Änderung des Magnetfeldes „induziert“, wie vom Induktionsgesetz beschrieben, im selben Stromkreis eine elektrische Spannung. Deshalb ist die Selbstinduktivität einer Spule mit "N" Windungen proportional zu "N2". Stromänderungen in einem Stromkreis "m" induzieren aber auch Spannungen in anderen in der Nähe befindlichen Stromkreisen "n". Diese „wechselseitige Induktion“ oder Gegeninduktion beschreibt man mit Koeffizienten "Lmn" = "Lnm" der wechselseitigen Induktivität. Selbst- und wechselseitige Induktion und die entsprechenden Induktivitäten spielen eine wichtige Rolle in Transformatoren, Elektromotoren und der Elektronik. Gültigkeitsbereich. Die erste Voraussetzung für die Gültigkeit der Gleichung formula_2 ist, dass das Magnetfeld „quasistatisch“ vom elektrischen Strom erzeugt wird. Es darf keine Phasenunterschiede zwischen Magnetfeld und Strom und keine Abstrahlung elektromagnetischer Wellen geben, d. h. die Frequenzen müssen hinreichend klein sein. Ferner muss die Stromverteilung frequenzunabhängig sein. Das ist der Fall bei kleinen Frequenzen, bei denen die Stromdichte über den Leiterquerschnitt konstant ist, sowie bei hohen Frequenzen bei vollständigem Skineffekt, wo der Strom in der Leiteroberfläche fließt (wie bei Supraleitern). Bei Frequenzen mit partiellem Skineffekt ist die Induktivität frequenzabhängig. Im Fall dünner Leiter macht es allerdings wenig Unterschied, ob der Strom im Leiterquerschnitt oder in der Leiteroberfläche fließt – die Frequenzabhängigkeit ist klein. Schließlich wird noch vorausgesetzt, dass magnetisierbare Materialien im Bereich der Magnetfelder konstante Permeabilitätszahl haben. Andernfalls liegt nichtlineare Induktivität vor. In diesem Rahmen jedoch gilt die Beziehung formula_2 für Leiterschleifen mit beliebig ausgedehnten Leitern, und die Induktivitäten sind allein durch die Anordnung und Ausdehnung der elektrischen Leiter und magnetisierbaren Materialien bestimmt. Induktion in der Elektrotechnik, Maßeinheit. Für Leiterschleifen wird die Induktivität in der Elektrotechnik oft definiert durch den von der Leiterschleife umfassten verketteten magnetischen Fluss Ψ gemäß Umfasst der Leiter den gleichen magnetischen Fluss Φ mehrfach, z. B. alle Windungen einer Spule "N" mit gleicher Größe, ergibt sich für den verketteten magnetischen Fluss der Spezialfall "N"Φ und die Selbstinduktivität zu Wenn ausschließlich magnetische Stoffe mit einer konstanten Permeabilitätszahl in der Umgebung des Stromkreises vorhanden sind, dann folgt aus dem Durchflutungsgesetz, dass die magnetische Flussdichte "B" dem Strom "I" in einer Leiterschleife proportional ist. Daher ist auch der insgesamt vom Strom "I" erzeugte magnetische Fluss Φ direkt proportional dem Momentanwert der Stromstärke "i". Der dabei auftretende Proportionalitätsfaktor bei "N" Windungen ist die Selbstinduktivität "L" (wahrscheinlich zu Ehren von Emil Lenz so bezeichnet). Eine Induktivität von 1 H liegt vor, wenn bei gleichförmiger Stromänderung von 1 Ampere je Sekunde eine Selbstinduktionsspannung von 1 Volt entlang des Leiters entsteht. Weisen jedoch die magnetischen Stoffe wie Eisen in der Nähe des elektrischen Leiters keine konstante Permeabilitätszahl μr auf (diese ist beispielsweise von der magnetischen Flussdichte "B" abhängig), dann ist die Induktivität kein konstanter Proportionalitätsfaktor, sondern eine Funktion formula_9 der magnetischen Flussdichte. Es gibt dann eine Sättigungsmagnetisierung. Die sich ergebenden nichtlinearen Induktivitäten sind analytisch wesentlich schwieriger zu behandeln. Wird eine nichtlineare Induktivität um einen Arbeitspunkt herum ausgesteuert, so kann die Änderung des verketteten Flusses formula_10 in Bezug zur Änderung des Stroms vom Wert der statischen Induktivität abweichen. Für infinitesimal kleine Änderungen um den Arbeitspunkt ergibt sich aus dem Anstieg der Tangente an die formula_11-Kurve die dynamische Induktivität Veraltete Einheit. Bis Mitte des 20. Jahrhunderts wurde die Induktivität von Spulen manchmal mit der Einheit ‚cm‘ beschriftet. Diese Angabe in Zentimetern rührt daher, dass die Induktivität im heute praktisch kaum noch gebrauchten elektromagnetischen CGS-Einheitensystem in der Längendimension ausgedrückt wird. Eine Induktivität von 1 cm in elektromagnetischen CGS-Einheiten entspricht 1 nH in SI-Einheiten. Mathematische Herleitung. In den meisten Fällen ändert sich die Induktivität nicht zeitlich und die Strom-Spannungsbeziehung an der Induktivität kann angegeben werden zu Der dabei auftretende magnetische Fluss formula_13 ist jener Fluss, der erst aufgrund des Stroms "i" durch die Leiterschleifen erzeugt wird. Eine Änderung dieses Flusses induziert in jeder der "N" Leiterschleifen eine Spannung formula_20 und wird damit als verketteter magnetischer Fluss formula_10 wirksam. Weitere externe magnetische Flüsse durch die Leiterschleifen sind in diesem Fall als nicht vorhanden angenommen bzw. zeitlich konstant. Die Spannung "u" nennt man die bei Selbstinduktion auftretende "Klemmenspannung". Das Vorzeichen in obiger Gleichung ist abhängig von der Zählrichtung von Strom und Spannung. Man bezeichnet diesen bei Stromänderung entstehenden Spannungsabfall "u" dann als "Selbstinduktionsspannung" oder "induktiven Spannungsabfall". Die obige Differentialgleichung ist die Elementgleichung, mit der sich lineare Induktivitäten, wie beispielsweise Spulen in elektrischen Schaltungen, beschreiben lassen. Netzwerkmodell. Ausgehend vom Induktionsgesetz, erzeugen extern einwirkende, zeitlich veränderliche magnetische Flüsse in zeitlich konstanten Leiterschleifen zeitlich veränderliche elektrische Spannungen. Aber auch der magnetische Fluss, der durch einen Strom durch die Spule selbst entsteht, wirkt auf die Spule ein. Ändert sich die Stromstärke durch die Spule, so ändert sich das von ihr selbst erzeugte Magnetfeld und induziert dadurch in der Spule selbst eine Spannung, die der Stromstärkeänderung entgegengerichtet ist. Dieser Umstand wird allgemein als Selbstinduktion bezeichnet. Je schneller und stärker sich das Magnetfeld ändert, desto höher ist die erzeugte Induktionsspannung. Grundsätzlich kann die Selbstinduktion vollständig durch das Induktionsgesetz beschrieben werden und erfordert keine formalen Ergänzungen oder Anpassungen. Allerdings kommt es bei der in Elektrotechnik üblichen Netzwerktheorie, welche beispielsweise zur Beschreibung von elektrischen Maschinen wie Transformatoren Verwendung findet, unter Umständen zu Verständnisschwierigkeiten, da die Netzwerktheorie keine Feldgrößen wie den magnetischen Fluss kennt. Selbstinduktionseffekt, dargestellt als selbstinduzierte Quellenspannung Selbstinduktionseffekt, dargestellt als Netzwerkmodell mit induktivem Spannungsabfall Stattdessen wird mit zeitlich veränderlichen Spannungen und Strömen in Ersatzschaltbildern mit passiven Bauelementen wie Spulen und elektrischen Widerständen gearbeitet. Die induzierten Spannungen werden als Spannungsquellen modelliert, welche historisch auch als "elektromotorische Kraft" "(EMK)" bezeichnet werden. Da es sich bei induzierten Spannungen aber um keine Kraft im physikalischen Sinn handelt, sollte der Begriff EMK zur Vermeidung von Missverständnissen vermieden werden und als selbstinduzierte Quellenspannung bezeichnet werden. Im Netzwerkmodell, wie sie unter anderem Schaltpläne darstellen, wird mit Zählpfeilen und bestimmten Orientierungen gearbeitet, wie es die nebenstehende Abbildung darstellt. Zur Verdeutlichung ist der von extern auf die Leiterschleife einwirkende magnetische Fluss Φext und die davon verursachten induzierten Spannungen "u"ext mit dem Index "ext" versehen. Bei Belastung der extern geschlossenen Schleife fließende Strom "i" erzeugt einen magnetischen Fluss ΦI, welcher mit dem Index "I" kennzeichnet ist. Die selbstinduzierte Quellenspannung lässt sich als eine Spannungsquelle mit dem Betrag "u"i modellieren, wie in erster Abbildung dargestellt, und ist der den Spulenstrom "i" treibenden Spannung "u"ext entgegengerichtet. Man bezeichnet sie daher auch als "Gegenspannung". Anwendung findet diese Darstellung beispielsweise bei der Beschreibung des so genannten Magnetisierungsstromes bei einem Transformator. Das Modell des "induktiven Spannungsabfalles", wie in zweiter Abbildung dargestellt, kommt ohne weitere Spannungsquelle aus. Die an der eingezeichneten Spule "L" auftretende Spannung weist dabei in die gleiche Richtung wie der Strom "i" welcher durch die von extern treibenden Spannung "u"ext verursacht ist. Diese Darstellung hat den Vorteil, dass die Zusammenhänge im Netzwerkmodell bei harmonischen Vorgängen durch das Ohmsche Gesetz mit Blindwiderständen einfacher beschrieben werden können. Der in der Elektrotechnik wichtige Spezialfall von harmonischen Vorgängen bei den auftretenden Größen reduziert die zeitlichen Ableitungen im Induktionsgesetz auf Multiplikationen mit jω (dΦ/d"t" ≡ jωΦ), was in der komplexen Ebene einer Drehung um 90° entspricht und den Zugang zur komplexen Wechselstromrechnung darstellt. Dabei bezeichnet formula_28 die imaginäre Einheit. Induktiver Blindwiderstand. definieren, der auch als (komplexe) Impedanz bezeichnet wird. Dies gilt jedoch nur für Induktivitäten die eine konstante und nicht von der Aussteuerung abhängige Permeabilitätszahl haben, wie es zum Beispiel bei einer Luftspule der Fall ist. Der Leerlaufstrom von Luftspulen kann um weniger als 90 Grad phasenverschoben zur Spannung sein. Bei der geringen Frequenz von 50 Hz in der Beispielmessung ist der Ohmsche Widerstand dominant. Der Leerlaufstrom von Spulen mit Eisenkern verläuft, bedingt durch dessen Hysteresekurve, gänzlich anders als bei einer Luftspule. Selbstinduktion, Anwendungen. Die Selbstinduktion wird unter anderem genutzt, um die erforderliche hohe Zündspannung bei Leuchtstofflampen oder für Zündkerzen im Ottomotor zu erzeugen. Es lassen sich Spannungen von einigen 1000 V erzeugen. Im Elektrozaun und im Funkeninduktor werden auf diese Weise Hochspannungsimpulse erzeugt. Das Schalten jeder Induktivität stellt für Schalter eine Belastung dar. Die dabei entstehende hohe Spannung ist für Schalter, insbesondere elektronische Schalter wie Transistoren, gefährlich, denn beim Ausschalten ändert sich das Magnetfeld sehr abrupt und erzeugt damit die hohe Selbstinduktionsspannung. Um die Zerstörung des Schalters zu vermeiden oder die Spannung zu begrenzen, wird ein Kondensator oder eine Freilaufdiode antiparallel zur Spule geschaltet. Die Selbstinduktion ist unter anderem auch der Grund für die Induktivität, welche zur Beschreibung des Verhaltens der Spule in Wechselstromkreisen benötigt wird. Die Induktivität führt zu einer Phasenverschiebung zwischen Strom und Spannung, was im Rahmen der komplexen Wechselstromrechnung bei der Berechnung von induktiven Widerständen Anwendung findet. Induktivitätsbestimmung verschiedener Leiteranordnungen. Durch Anwendung der Berechnungsmethoden für magnetische Felder, insbesondere des Biot-Savart-Gesetzes, lassen sich für einige einfache geometrische Leiteranordnungen die äußeren Induktivitäten analytisch bestimmen. Kompliziertere Leiteranordnungen sind in der Feldberechnung meist nur noch mittels numerischer Berechnungsverfahren zugänglich. Die im Folgenden näher dargestellten Leiteranordnungen haben auch technische Bedeutung: bei der Herstellung von Induktivitäten (Bezeichnung für elektrische Bauteile mit einer definierten Induktivität als Haupteigenschaft) wird oft eine solche Standardform angewendet. Solche Bauelemente werden Spulen oder Drosseln genannt. Induktivität einer Ringspule. Eine Ringspule, auch als Toroidspule bezeichnet, besteht aus einem Ring mit dem mittleren Radius "r" und Querschnittsfläche "A", dessen magnetische Eigenschaften maßgeblich sind. Es ist oft magnetisch gut leitfähig und hat eine hohe relative Permeabilitätszahl "µ"r, wie beispielsweise Ferrit. Das dabei auftretende "µ"0 ist die magnetische Feldkonstante, eine Naturkonstante. Dabei wird ein rechteckförmiger Querschnitt des Ringes mit der Höhe "h" angenommen. Der äußere Radius des Kerns ist mit "R" und der Innenradius mit "r" bezeichnet. In allen Fällen gilt, dass diese Gleichungen nur bei hinreichend dünn bewickeltem Ring gute Näherungsergebnisse liefern. Der Vorteil gleichmäßig bewickelter Ringspulen liegt in der Feldfreiheit außerhalb der Wicklung, weshalb sie keine magnetischen Störfelder aussenden und für solche auch kaum empfänglich sind. Induktivität einer Zylinderspule. Ist die Zylinderspule mit einem Material gefüllt, dessen relative Permeabilitätskonstante formula_43 größer als 1 ist, wird der äußere Magnetfeldraum relevant und die obigen einfachen Formeln können nicht angewendet werden. Derartige mit einem magnetischen Material gefüllte Zylinderspulen mit offenem Magnetkreis werden häufig angewendet und haben trotz der um sie herum herrschenden Magnetfelder einige Vorteile: sie geraten aufgrund des Luftanteiles im Magnetkreis kaum in die magnetische Sättigung, sind leicht herzustellen und haben eine geringe Eigenkapazität. Aus der Beziehung zur Induktionsspannung bei Änderung des magnetischen Flusses im Innern einer langen Spule formula_44 Bestimmung der Induktivität mittels AL-Wert. Das gilt nur, wenn das Kernmaterial in einem linearen Bereich seiner Kennlinie aus Induktion "B" und magnetischer Feldstärke "H" betrieben wird beziehungsweise unterhalb der Sättigungsinduktion bleibt. Feldenergie. Induktive Bauelemente wie Spulen speichern Energie in Form ihres Magnetfeldes. Das Magnetfeld einer Spule der Induktivität "L", die vom Momentanwert des Stromes "I" durchflossen wird, enthält die Energie "W:" Bei einer plötzlichen Unterbrechung des Stromkreises muss sich die in der Spule gespeicherte Energie in sehr kurzer Zeit umsetzen und erzeugt an den Anschlussklemmen eine sehr hohe Selbstinduktionsspannung, die zu Beschädigungen an der Isolation oder anderen Schaltungsteilen führen kann. Um das zu vermeiden, werden induktive Bauelemente vor dem Abschalten oft mit einem Lastwiderstand kurzgeschlossen, in dem sich die im Magnetfeld gespeicherte Energie thermisch umsetzt. Diese hohe Spannung kann aber auch zur Versorgung von elektrischen Bauteilen mit hohem Spannungsbedarf, wie etwa einer Zündkerze, verwendet werden. Andere Methoden zur thermischen Umsetzung bei Umschaltvorgängen sind die in Gleichspannungskreisen verwendeten Schutzdioden. Innere und äußere Induktivität. Der Begriff "äußere Induktivität" wird für den Beitrag des im Raum außerhalb des elektrischen Leiters auftretenden magnetischen Flusses zur Induktivität verwendet. In obigen Beispielen zur Bestimmung der Induktivität verschiedener geometrischer Leiteranordnungen wurden die Querschnitte der elektrischen Leiter als vernachlässigbar dünn angenommen. In diesem Fall kann sich die Bestimmung der Induktivität auf die Bestimmung der äußeren Induktivität bzw. einer idealisierten Feldform beschränken. Bemerkenswert daran ist, dass die innere Induktivität nicht von den konkreten geometrischen Abmessungen wie Durchmesser der Querschnittsfläche des Leiters abhängt. Jener Ausdruck gilt nur bei gleichmäßiger Stromverteilung, also nur bei Gleichstrom, und nur wenn die Querschnittsfläche des Leiters keine inneren Begrenzungen aufweist. Ist die Stromverteilung aufgrund des Skineffektes bei höheren Frequenzen nicht mehr gleichmäßig, ergeben sich andere, komplexere Ausdrücke für die frequenzabhängige innere Induktivität. Die inneren Induktivitäten sind wegen der Stromverdrängung im Leiter stark frequenzabhängig und nehmen mit steigender Frequenz ab. Die innere Induktivität ist vor allem bei der Bestimmung der Gesamtinduktivität von elektrischen Kabeln von Bedeutung, da bei diesen bei niedrigen Frequenzen (z. B.: Netzfrequenz) die Leiterquerschnitte oft nicht vernachlässigt werden können. Induktivität einer Koaxialleitung. Bei höheren Frequenzen, ab 10 kHz aufwärts, können die beiden Terme der inneren Induktivität wegen des Skineffektes vernachlässigt werden. Für die Bestimmung der Wellenimpedanz eines Koaxialkabels bei typischen Frequenzen ist daher nur der Summand "L"a der äußeren Induktivität von wesentlicher Bedeutung. Gegeninduktivität. Die Gegeninduktivität kennzeichnet die gegenseitige magnetische Einwirkung zweier oder mehrerer räumlich benachbarter Stromkreise. Sie wird auch als magnetische Kopplung bezeichnet. Die wichtigste technische Anwendung findet die Gegeninduktivität bei einem Transformator. Nichtlineare Induktivität. Die relative Permeabilitätszahl μr hängt als Stoffkonstante nicht nur vom jeweiligen Material ab, sondern bei vielen Materialien auch von der magnetischen Flussdichte. Bei hohen magnetischen Flussdichten kommt es zu einer so genannten magnetischen Sättigung des Materiales und als Folge zu einer Reduktion der relativen Permeabilitätszahl μr bis herunter auf 1. Dadurch ist die Induktivität direkt von der magnetischen Flussdichte abhängig, die ihrerseits meist eine Funktion des durch die Spule fließenden elektrischen Stromes ist. Somit ändert sich die Induktivität einer Spule in Abhängigkeit vom "Momentanwert" des Stromes, der durch die Spule fließt. Die Folge davon ist, dass sich die dynamische Induktivität bei sehr kleinen Aussteuerungen um den Arbeitspunkt von der statischen Induktivität unterscheiden kann. Bei größeren Aussteuerungen über die lineare Arbeitspunktnäherung hinaus, können bei nichtlinearen Induktivitäten in Wechselspannungsanwendungen zusätzliche Oberschwingungen als nichtlineare Verzerrungen auftreten. Auch sind bei Berechnungen mit nichtlinearen Induktivitäten die einfachen Methoden der (linearen) komplexen Wechselstromrechnung nicht mehr direkt anwendbar. Die Nichtlinearität von Induktivitäten kann erwünscht sein, z. B. bei Speicherdrosseln in Schaltreglern, um diese besser an verschiedene Lastfälle anzupassen, oder in den Ablenkschaltungen von Röhrenfernsehern, um dem nichtlinearen Stromverlauf in den Ablenkspulen entgegenzuwirken. Auch bei den so genannten Sättigungsdrosseln zur Entstörung von Thyristorstellern ist Nichtlinearität erwünscht. Messgeräte. Induktivität kann nicht direkt gemessen werden. Lediglich ihre Auswirkung kann festgestellt werden. Durch Aufschalten einer bekannten Wechselspannung und Messung des durch das induktive Bauelement fließenden Wechselstromes (oder umgekehrt) kann über die Reaktanz die Induktivität ermittelt werden. Dazu werden Amplitude und Phasenlage bestimmt. Diese Methode wird in einfachen Labormessgeräten angewandt und liefert den Induktivitätswert, die Güte sowie den Wert eines äquivalenten Serien- oder Parallelwiderstandes. Durch Parallelschalten einer bekannten Kapazität zur Induktivität erhält man einen Schwingkreis. Ermittelt man dessen Resonanzfrequenz, kann man daraus auf die Induktivität schließen. Diese Methode ist auch ohne spezielle Geräte durchführbar und daher unter Bastlern und Amateuren weit verbreitet. Die Genauigkeit ist recht hoch. Für hohe Genauigkeiten wird eine Maxwell-Messbrücke verwendet. Diese Methode ist sehr genau und wird u. a. in der automatisierten Fertigung von Spulen eingesetzt. Beim Bestimmen der Induktivitäten realer Spulen muss beachtet werden, dass je nach Spulenkonstruktion zu sehr hohen Frequenzen hin die kapazitive Kopplung der Windungen und Lagen wirksam wird. Der Impedanzverlauf steigt bis zu einem Maximalwert und bekommt Schwingkreischarakter, um zu noch höheren Frequenzen hin wieder zu sinken – die Spule stellt dann eine Kapazität dar. Induktivität als störende Eigenschaft. Jeder elektrische Strom verursacht ein Magnetfeld (Elektromagnetismus), in dem magnetische Energie gespeichert ist. Somit besitzt jedes Stück eines elektrischen Leiters eine kleine Induktivität. Auf Leiterplatten kann als Überschlagsrechnung mit einer Induktivität von rund 1,2 nH pro Millimeter Leitungslänge gerechnet werden. Zusammengefasst ergeben diese Induktivitäten die parasitäre Aufbauinduktivität einer elektrischen Schaltung. Die Magnetfelder nahe beieinander liegender Leiterstücke beeinflussen sich durch die magnetische Kopplung gegenseitig. Liegen z. B. Hin- und Rückleitung eines Stromkreises sehr eng beieinander, heben sich deren Magnetfelder gegenseitig teilweise auf, was die Gesamtinduktivität dieser Anordnung stark verringert. Daher werden Strompfade oft eng aneinander geführt und Kabel miteinander verdrillt. Häufig zum Schalten von Lasten mit induktivem Verhalten benutzte Schalter und Relais weisen deswegen deutliche Abnutzungsspuren an den Kontakten auf, die deren Funktion stark beeinträchtigen können: beim Abschalten fließt der Strom aufgrund der Induktivität weiter und bildet einen Lichtbogen (siehe Schaltlichtbogen), in den sich die in der Induktivität gespeicherte Energie entlädt. Noch kritischer sind Stromflussänderungen, die durch Halbleiterschalter hervorgerufen werden. Halbleiterbauteile werden von derart hohen Spannungen oft zerstört. Daher muss bei der Konstruktion von Schaltungen mit hohen Stromänderungsgeschwindigkeiten auf einen niederinduktiven Aufbau geachtet werden. Zusätzlich werden häufig Snubber-Netzwerke am Halbleiter angebracht. Falls möglich und nötig, werden auch Freilaufdioden benutzt. Neuere Halbleiterschalter können oft auch ohne Schutzbeschaltung induktive Lasten schalten, indem der Energieabbau in einem kontrollierten Avalanchedurchbruch erfolgt. Ein weiteres Problem parasitärer Induktivitäten ist die Interaktion mit parasitären Kapazitäten. Der dadurch entstandene Schwingkreis kann störende Spannungsschwingungen erzeugen, die Halbleiterbauteilen schaden können und die Elektromagnetische Verträglichkeit und die Signalübertragungseigenschaften verschlechtern. In Computern kann sich der Strombedarf einzelner Integrierter Schaltungen im Nanosekundentakt ändern. Weil das einer Frequenz im Gigahertzbereich entspricht, kann die Induktivität der Stromversorgungsleitungen nicht ignoriert werden, auch wenn sie nur wenige Zentimeter kurz sind. Der induktive Widerstand des Drahtes vergrößert den Innenwiderstand der Spannungsquelle mit steigender Frequenz ganz erheblich. Als Folge kann die Spannung bei Stromänderungen beispielsweise zwischen 2 V und 10 V schwanken und den IC stören, möglicherweise sogar zerstören. Als Gegenmittel werden induktionsarme Kondensatoren unmittelbar an den IC-Anschlüssen angeordnet, die einen sehr geringen dynamischen Innenwiderstand sicherstellen. Berechnungstechniken. Im allgemeinsten Fall sind Stromverteilung und Magnetfeld aus den Maxwellgleichungen zu bestimmen. Im Fall von Leiterschleifen aus dünnen Drähten ist die Stromverteilung dagegen zumindest näherungsweise vorgegeben, Skineffekt und Abschirmströme ergeben jedoch auch hier Komplikationen und Fallunterscheidungen. Wechselseitige Induktivität zweier Leiterschleifen. Die wechselseitige Induktivität zweier „fadenförmiger“ Leiterschleifen "m" und "n" lässt sich mit dem "Neumann-Kurvenintegral" erhalten. Das Symbol μ0 bezeichnet die magnetische Feldkonstante, "Cm" und "Cn" sind die von den Leiterschleifen aufgespannten Kurven. Die Formel ist in guter Näherung auf reale Drahtschleifen anwendbar, wenn die Krümmungsradien der Schleifen und die Abstände zwischen den Drähten größer als der Drahtradius sind. Selbstinduktivität einer Drahtschleife. Die Neumann-Formel ist zur Berechnung von Selbstinduktivitäten nicht verwendbar, da bei "m" = "n" die beiden Kurven zusammenfallen und der Integrand "1/|x-x'|" divergiert. Es ist notwendig, den endlichen Drahtradius "a" und die Stromverteilung im Drahtquerschnitt zu berücksichtigen. Es verbleibt der Beitrag des Integrals über alle Punktpaare mit "|x-x'|" > "a"/2 und ein Korrekturterm, "a" und "l" stehen hier für Radius und Länge des Drahts, "Y" ist eine von der Stromverteilung abhängige Konstante: "Y" = 0, falls der Strom in der Drahtoberfläche fließt (Skineffekt), "Y" = 1/2, falls die Stromdichte im Drahtquerschnitt konstant ist. Der Fehler ist klein, wenn die Drahtschleife groß ist im Verhältnis zum Drahtradius. Methode der Spiegelströme. Das Magnetfeld der beiden Systeme ist (in einem Halbraum) identisch. Magnetische Feldenergie und Induktivität des zweiten Systems sind daher doppelt so groß wie die des ersten. Beziehung zwischen Induktivität und Kapazität. Im Fall eines Leiterpaars bestehend aus zwei parallelen idealen Leitern beliebigen konstanten Querschnitts besteht zwischen Induktivität pro Länge L' und Kapazität pro Länge C' die Beziehung ε und µ stehen hier für die dielektrische Permittivität und die magnetische Permeabilität des umgebenden Mediums. In den Leitern gibt es kein elektrisches und kein magnetisches Feld (vollständiger Skineffekt, hohe Frequenz). Außerhalb der Leiter sind elektrisches und magnetisches Feld überall senkrecht zueinander. Signale breiten sich an den Leitungen entlang mit derselben Geschwindigkeit aus wie freie elektromagnetische Strahlung im umgebenden Medium. Selbstinduktivitäten einfacher Stromkreise. Die Selbstinduktivitäten vieler Typen von Stromkreisen lassen sich exakt oder in guter Näherung angeben. "Y" = 0 falls der Strom gleichmäßig über die Drahtoberfläche verteilt ist (Skineffekt), "Y" = 1/2 falls der Strom gleichförmig über den Drahtquerschnitt verteilt ist. Im Skineffekt-Fall ist auch zu beachten, dass bei geringem Abstand zwischen den Leitern zusätzliche Abschirmströme induziert werden, und die "Y" enthaltenden Ausdrücke dann ungenau werden. Isar. Die 295 km lange Isar ist ein Fluss in Tirol (Österreich) und Bayern (Deutschland). Sie entspringt im Tiroler Teil des Karwendels im Hinterautal, fließt bei der deutschen Grenze durch Scharnitz und Mittenwald, im Isarwinkel durch Lenggries und Gaißach. Im Mittellauf durch die Städte Bad Tölz, Geretsried, München, Freising und Moosburg. Der Unterlauf fließt durch Landshut, Dingolfing, Landau an der Isar sowie Plattling. Gegenüber von Deggendorf mündet die Isar in die Donau. Die frühere Ausprägung als typischer Gebirgs- und Voralpenfluss mit breitem, sich ständig verlagerndem Flussbett, ausgedehnten Schotterbänken und verzweigten Flussarmen weist sie nur noch in einzelnen Bereichen des Oberlaufs auf. Nach der Donau, dem Inn und dem Main ist die Isar der viertgrößte Fluss Bayerns.a> Der wichtigste Nebenfluss ist die in Moosburg zufließende Amper, gefolgt von der in Wolfratshausen mündenden Loisach. Etymologie. Nach derzeitigem Forschungsstand ist der Name des Flusses auf die hypothetische indogermanische Wurzel "*es" oder "*is" mit der Bedeutung „(fließendes) Wasser“ zurückzuführen, die sich in heutigen Sprachen auf den festen Aggregatzustand des Wassers („Eis“) verengt hat. Auch die Bezeichnung "Ister" für den unteren Flussabschnitt der Donau hat vermutlich den gleichen Ursprung. Schließlich muss sich das die gleiche Wurzel enthaltende „Eisach“ („Wasserlauf“) als Name mehrerer Gebirgsbäche im Alpenraum nicht notwendig auf „eiskaltes“ Wasser beziehen. Die Interpretation Hans Bahlows, dass sich das Wort Isar von "es", "as" oder "os" ableiten lasse und damit als „Sumpfwasser“ zu interpretieren sei, ist in Fachkreisen höchst umstritten, da es sich bei den Namensträgern ja um fließende Gewässer handelt. Als veraltet gilt jedenfalls die Deutung, wonach sich der Name "Isar" aus den keltischen Worten "ys" (schnell, reißend) und "ura" (Wasser, Fluss) zusammensetzen soll. Nach einer anderen Interpretation soll "ys" gleichzeitig für "hoch" und "tief" stehen und damit die Vertikale bezeichnen. Geografie. Die Isar entwässert einen großen Teil der Bayerischen Alpen sowie Teile des Karwendels nach Norden zur Donau und damit letztlich zum Schwarzen Meer hin. Insgesamt umfasst das Einzugsgebiet etwa 9000 Quadratkilometer. Da der Niederschlag im Winter vor allem in den Alpen zumeist als Schnee fällt, führt die Isar während der Schneeschmelze im Frühsommer besonders viel Wasser. Mit einem mittleren Abfluss von rund 200 Kubikmetern pro Sekunde ist sie mit mittelgroßen deutschen Flüssen wie der Mosel und dem Main vergleichbar. Verlauf der Ur-Isar. Die Isar ist ein Schmelzwasserausfluss des Isar-Loisach-Gletschers der Würmeiszeit. Sie floss ursprünglich als Urisar ab Gaißach südlich von Bad Tölz nach Nordosten in Richtung Holzkirchen und mündete bei Moosburg nördlich von München in die Loisach. Vor 15.000 Jahren kam es in Bad Tölz zu einem Durchbruch durch einen Molasse-Spiegel, wodurch sich die Isar von dort ihre heutige Fließrichtung nach Norden schuf. Sie floss am Ende der Würmeiszeit in den Wolfratshausener See, den sie zum Verlanden brachte. Quellflüsse. Steinmandl an der Isar im Hinterautal Die offiziell als Isar-Ursprung bezeichneten Quellen bzw. Bäche befinden sich im Hinterautal zwischen den beiden mittleren Karwendelketten, der Gleirsch-Halltal-Kette im Süden und der Hinterautal-Vomper-Kette im Norden, auf. Der Lafatscherbach entspringt als längster Quellbach der Isar etwa fünf Kilometer südöstlich beim Hallerangerhaus im Gemeindegebiet von Absam. Die wird daher ebenfalls als Isarquelle bezeichnet. Verlauf und Nebenflüsse. Innerhalb des Karwendelgebirges fließt die Isar nach Westen. Am Westrand erreicht sie den Ort Scharnitz, wendet sich nach Norden und passiert sogleich die Talenge der "Scharnitzer Klause" und hier auch die österreichisch-deutsche Grenze. Am südlichen Ortsrand von Mittenwald mündet von Westen (Südseite des Wettersteingebirges) die Leutascher Ache, fast ebenso lang wie der Lauf der Isar bis zu dieser Stelle. Zwischen Mittenwald und Krün wird die Isar am Stauwehr Krün erstmals gestaut. Ihr Wasser wird hier größtenteils abgezweigt und durch die Isarüberleitung in den Walchensee zur dortigen Stromerzeugung abgeleitet. Bei Wallgau wendet sich der Flusslauf nach Osten in den Isarwinkel und erhält dort bedeutende Zuflüsse aus dem Karwendel, den 27 km langen Rißbach und die Dürrach, dann noch den Walchen, der als "Ache" natürlicher Abfluss des Achensees ist und zusammen mit diesem die östliche Begrenzung des Karwendelgebietes bildet. Dürrach und Walchen erreichen den Fluss heutzutage im Sylvensteinspeicher, 1955 bis 1959 zum Zweck von Hochwasserschutz und Energiegewinnung angelegt. Von hier fließt die Isar in nördlicher Richtung durch die Bayerischen Voralpen und ab Bad Tölz durch die würmzeitliche Moränenlandschaft des Alpenvorlandes bis in die Münchner Schotterebene. Zwischen Sylvensteinsee und Lenggries erreicht von links die Jachen, in Gaißach von rechts die Große Gaißach die Isar, der natürliche Abfluss des Walchensees, dessen Wasser allerdings heute zu annähernd 100 % durch das Walchenseekraftwerk in den Kochelsee gelangt und damit in die Loisach. Diese fließt von Lermoos in Tirol entlang der Nordseite des Wettersteingebirges nach Garmisch, dann durch den Kochelsee und mündet schließlich bei Wolfratshausen in die Isar. In München wird wieder Wasser von der Isar abgezweigt, in den Mittleren-Isar-Kanal. Er führt rechts der Isar durchs Erdinger Moos und treibt sieben Wasserkraftwerke, bevor er hinter Moosburg wieder in die Isar mündet. Bei Freising erreicht die Isar den Nordrand der Schotterebene und fließt vor diesem nach Osten. Hier führt ihr die Dorfen Wasser aus dem Erdinger Moos zu. Nahe der Nordoststrecke der Ebene mündet vor Moosburg von rechts die Sempt. Hinter Moosburg mündet von links der größte Nebenfluss, die Amper, die als "Ammer" nahe der österreichischen Grenze südwestlich von Schloss Linderhof entspringt und erst nach Durchfließen des Ammersees den Namen "Amper" führt. Von Moosburg fließt die Isar in einem Urstromtal durch das von der Tertiärzeit geprägte Unterbayerische Hügelland nordostwärts zum Donautal. Nach insgesamt 295 Flusskilometern, davon 263 km in Deutschland, mündet sie südöstlich von Deggendorf in der Gemeinde Moos in die Donau. Die Flussmündung liegt auf 312 Metern über Normalnull; damit hat die Isar von ihren Quellen bis zur Mündung in die Donau ein Gesamtgefälle von rund 848 Meter. Inseln. Die meisten kleinen Inseln und Kiesbänke der Isar werden durch die jährlichen Hochwasser immer wieder in Umfang und Form verändert. Einige Inseln im unmittelbaren Bereich von größeren Städten wurden im 19. Jahrhundert verbaut und so gegen Abtrag gesichert: die Museumsinsel und die Praterinsel in München sowie die Hammerinsel, die Mühleninsel und das Mitterwöhr in Landshut. Geschichte. Die Isar wurde vermutlich schon seit vorgeschichtlicher Zeit als Handelsweg genutzt, um Waren aus dem Bereich der Alpen und aus Italien mit Hilfe von Flößen zur Donau zu transportieren. Eine schon bestehende Handelsstraße aus dem Inntal über den Seefelder Sattel ins nördliche Alpenvorland wurde von den Römern ab 195 n. Chr. zur "Via Raetia" ausgebaut. Die Isarstadt Mittenwald konnte sich so von einem römischen Posten zu einem wichtigen Umschlagsplatz für Handelswaren im Werdenfelser Land entwickeln. Brücken über die Isar sind erst seit dem Mittelalter nachgewiesen. Die Städte München und Landshut wurden im Mittelalter im Zusammenhang mit Brückenbauten über die Isar gegründet, dabei ging es immer auch um Lenkung von Handelswegen und damit die Erringung von Macht und wirtschaftlichem Einfluss. Der weitere Ausbau der Städte erzeugte eine stete Nachfrage nach Holz und Kalk, die zu einem Aufschwung der Flößerei vor allem im Oberland führte. Seit dem 17. Jahrhundert wurden auch Waren wie Südfrüchte, Gewürze, Baumwolle und Seide vom "Venezianischen Markt" in Mittenwald über die Isar bis nach Wien und Budapest transportiert. Auf dem Höhepunkt der Flößerei im 19. Jahrhundert landeten in München über 8000 Flöße pro Jahr an. Seit dem Mittelalter wurden unter anderem Wassermühlen durch die Wasserkraft der Isar angetrieben. Sie brauchten einen gleichmäßigen Wasserstand, deshalb wurde in München und in Niederbayern (Klötzlmühlbach und Längenmühlbach) Wasser aus dem Fluss in kleinere Mühlkanäle abgeleitet. Die Kanäle in München dienten als Stadtbäche zugleich der Versorgung der Bevölkerung mit Brauchwasser und speisten die Gräben vor den mittelalterlichen Stadtmauern. Während der jährlichen Hochwasser kam es immer wieder zu Überschwemmungen und Unglücksfällen in den anliegenden Städten und Gemeinden. So stürzte 1813 in München ein Vorgängerbau der heutigen Ludwigsbrücke ein und brachte so über 100 auf der Brücke stehenden Schaulustigen den Tod; beim Hochwasser 1899 stürzten ebenfalls in München die Luitpoldbrücke und die Max-Joseph-Brücke ein. Seit 1806, in Niederbayern seit etwa 1900, begann man, die Ufer zu befestigen und den Fluss zu kanalisieren, damit dieser sich tiefer in sein Bett eingrub und danach seltener übers Ufer trat. Weitere umfangreiche, regulierende Maßnahmen wurden seit den 1920er Jahren durchgeführt, um aus Wasserkraft elektrische Energie zu erzeugen. Zudem wurde in den 1950er Jahren am Oberlauf der Isar der Sylvensteinspeicher gebaut, der außer ein Kraftwerk anzutreiben auch noch gefährliche Hochwasserspitzen zurückhält. Weitere Wasserkraftwerke mit Staustufen entstanden bis in die 1980er Jahre, etwa 1984 das Wasserkraftwerk Landau. In jüngster Zeit erst versucht ḿan, durch verschiedene Maßnahmen der Isar zumindest in Teilbereichen ihren ursprünglichen Wildflusscharakter zurückzugeben, etwa durch den Isar-Plan in München und die Renaturierung der Isarufer bei Landau. Am Unterlauf der Isar zwischen Moosburg und Plattling wurde vor allem im 16. und 17. Jahrhundert Gold aus den Flussablagerungen gewaschen. Davon zeugen noch Ortsnamen wie Golding (Gemeinde Gottfrieding) und Goldern (Gemeinde Niederaichbach). Die so gewonnenen Mengen an Edelmetall waren jedoch gering und wirtschaftlich nicht von großer Bedeutung. Natur- und Umweltschutz. Seit den 1920er Jahren wird das Wasser der Isar zur Erzeugung elektrischer Energie genutzt, mit weitreichenden Folgen nicht nur für die einheimische Tier- und Pflanzenwelt, sondern auch für den Menschen. Um die insgesamt 28 Kraftwerke mit der notwendigen Wasserkraft zu versorgen, wird das Flusswasser mehrfach abgeleitet, kanalisiert und aufgestaut. So wurde beispielsweise nördlich von Mittenwald ab 1923 das gesamte Wasser der Isar dem Walchensee für den Betrieb des Walchenseekraftwerks zugeführt. Erst seit 1990 lässt man einen Restanteil von vier Kubikmetern pro Sekunde im natürlichen Flussbett abfließen, so dass die Isar in diesem Bereich nicht mehr trocken fällt. Auch der Bau des Sylvensteinsees zum Hochwasserschutz und zuvor schon zahlreiche regulierende Maßnahmen, die schon seit dem frühen 19. Jahrhundert vor allem im Bereich der Städte durchgeführt worden waren, veränderten nachhaltig den Wildflusscharakter. In der Mitte der 1980er Jahre dachte man um und wollte nun Hochwasserschutz, Ökologie und den Erholungswert des Flusses für die Anrainer besser in Einklang bringen. Der "Isar-Plan" wurde von 1995 bis 2011 im Rahmen einer offenen Planung unter intensiver Einbindung von Verbänden, politischen Gremien und Bürgern verwirklicht. Seitdem es den Sylvensteinsee gibt, ist die Isar flussabwärts von ihm nur noch selten über die Ufer getreten. Besondere Ausnahmen waren die großen Hochwässer 1999, 2002, 2005 und 2013. Damals fassten selbst das tief eingeschnittene Flussbett den Durchfluss nicht mehr, weshalb an vielen Orten zwischen München und Moosburg die Auwälder zum ersten Mal seit Jahrzehnten wieder überschwemmt und mit Sedimenten angereichert wurden. Die Eintiefung des Flussbetts ist eine Folge der vielen Stauseen wie der seitlichen Uferbefestigungen. Die Stauseen halten das natürliche Geschiebe des Oberlaufs zurück, die Verbauungen hindern die Isar daran, ihre Ufer abzutragen, weshalb auch diese Geschiebequelle versiegt ist. So verstärkt sich die Erosion in der Flusssohle und die Isar schneidet sich immer tiefer in die Landschaft ein. In manchen Bereichen, so etwa auf Höhe von Geretsried, hat die Sohle nun schon die unter den Schotterablagerungen liegende, weichere Obere Süßwassermolasse erreicht („Sohldurchschlag“). Hier droht nun eine schnelle weitere Eintiefung, mit Folgen nicht nur für den Isarlauf, denn mit dem Flussniveau wird auch der Grundwasserspiegel in der Umgebung weiter absinken. In jüngster Zeit wird versucht, durch verschiedene Maßnahmen der Renaturierungsökologie der Isar ihre Ursprünglichkeit wiederzugeben. So wurde zum Beispiel seit Mai 2000 ein acht Kilometer langer Teilbereich der Flusslandschaft im südlichen Stadtgebiet von München renaturiert. Dazu wurde das Flussbett aufgeweitet, die Ufer wurden abgeflacht und Kiesinseln sowie naturnahe Sohlrampen angelegt. Auch die vorhandenen Deiche wurden erhöht, verbreitert und durch den Einbau einer Dichtwand verstärkt. Bei der Verlängerung der Konzession für das Wasserkraftwerk Mühltal wurden mit Bescheid vom 28. Juni 1995 Auflagen erteilt, die eine eigenständige Regeneration der natürlichen Fließgewässerfunktionen begünstigen sollen. So wurde für die Ausleitungsstrecke ein Mindestwasserabfluss von 15 m³/s – nach vorher 5 m³/s – gefordert und die Entfernung von Uferverbauung auf mehr als 7 km Länge. Wegen der Entfernung der Verbauungen haben die Hochwässer in den Jahren 1999, 2002 und 2005 dazu geführt, dass die Isar nun auf mehreren 100 m Länge ihr Flussbett deutlich aufgeweitet hat und wieder Elemente einer alpin geprägten Flusslandschaft zeigt. Trotz besseren Schutzes vor Hochwasser ist die Flusslandschaft der Isar heute deshalb wieder naturnäher und dieses wichtigste Naherholungsgebiet im Großraum München hat an Reiz für die Besucher gewonnen. Durch Aufrüstung verschiedener Klärwerke entlang der Isar hat auch die Wasserqualität zugenommen, das Flusswasser gehört derzeit der Gewässergüteklasse II an, gilt also als mäßig belastet. Hoch ist allerdings nach wie vor die Keimzahl. Gemeinsam mit einer Reihe anderer Städte und Gemeinden entlang der Isar hatte sich die Stadt München 1998 zum Ziel gesetzt, die Wasserqualität so weit zu verbessern, dass die Isar offiziell zum Baden freigegeben werden kann. Das Ziel wurde bisher nur zum Teil erreicht: Am Isaroberlauf wurden Klärwerke in Betrieb genommen, die durch Behandlung des Abwassers mit ultraviolettem Licht die Zahl der Keime drastisch reduzieren, so dass die Stadt München 2005 die Warntafeln, die vor dem Infektionsrisiko mit Keimen beim Baden warnten, entfernen konnte. Somit kann die EG-Richtlinie für Badegewässer während der Betriebszeit der UV-Desinfektionsanlagen zwischen 15. April und 30. September meistens eingehalten werden. Jedoch kann die Isar im Bereich des Stadtgebiets nicht als Badegewässer ausgewiesen werden, da aufgrund der Einträge durch Niederschläge, insbesondere bei Starkregen, die Wasserqualität zu sehr einbrechen kann. Die Farbe der Isar ist grün. Dies lässt sich auf die Mineralien zurückführen, die der Fluss mit sich bringt. Weil der Anteil an Feinstsedimenten sehr gering ist, wie in Schnee oder Gletschereis, wird das Sonnenlicht gefiltert und abgespiegelt, was die Isar nahe der Quelle bläulich erscheinen lässt. Bei Zunahme der aufgelösten Mineralstoffen, bei denen es sich in der Isar häufig um Kalkgesteine handelt, verwandelt sich die Färbung von den Alpen bis zur Mündung ins Grünliche. Entlang der Isar wurden eine Reihe von Natur-, Landschafts- sowie für einzelne Kiesbänke auch Vogelschutzgebiete ausgewiesen, beispielsweise das Naturschutzgebiet „Vogelfreistätte Mittlere Isarstauseen“ nordöstlich von Moosburg. Dieses Naturschutzgebiet ist eine bedeutende Raststätte für durchziehende Wasservögel. Über 260 verschiedene Vogelarten wurden bislang nachgewiesen, darunter auch gefährdete Arten wie die Flussseeschwalbe und das Blaukehlchen. Das Naturschutzgebiet Isarauen zwischen Hangenham und Moosburg befindet sich nordöstlich von Freising, im Mündungsgebiet der Moosach und einiger Bachläufe. Das Landschaftsschutzgebiet „Untere Isar“ und das Naturschutzgebiet „Isarmündung“ umfassen die Auenlandschaft im Isarmündungsgebiet. Um die Schönheit des Isartales zu erhalten, gründete Gabriel von Seidl bereits 1902 den "Isartalverein". Um dieses Ziel zu erreichen, kaufte die erste Münchner Bürgerinitiative über 90 Hektar Land und betreut heute insgesamt über 330 Kilometer Wander- und Radwege. Fauna und Flora. Der Bestand von Fauna und Flora hängt direkt mit der Gestaltung der Flusslandschaft zusammen, auf die der Mensch seit dem 19. Jahrhundert starken Einfluss nimmt. Durch Aufstauungen an zahlreichen Wehren wurde die Fließgeschwindigkeit stark herabgesetzt, was auch zur Erhöhung der Wassertemperatur führte. Fischarten, die sauerstoffreiches und kühleres Wasser als Lebensraum benötigen, wurden durch Arten aus dem Stillwasserbereich verdrängt. Durch die verringerte Fließgeschwindigkeit werden auch die Kiesbänke nur noch selten umgeschichtet, so dass diese zuwachsen. Vogelarten, die offene Kiesflächen als Brutplatz benötigen, finden hier keinen Lebensraum mehr. Durch verschiedene Maßnahmen wie die Ausweisung von Naturschutzgebieten, das Einrichten von verbesserten Fischpässen an Stauwehren oder das Erhöhen der Restwassermenge werden neue Rahmenbedingungen geschaffen, um die Lebensbedingungen für viele zum Teil seltene Tiere und Pflanzen zu verbessern. Neuere Untersuchungen an der Ammer (Amper) belegen allerdings auch, dass der Rückgang des Äschenbestandes mit der ansteigenden Population der Gänsesäger zusammenhängt. Dieser als gefährdet eingestufte Entenvogel hat sich auf die Jagd nach kleinen Fischen spezialisiert. An diesem Beispiel zeigt sich, wie schwierig es ist, ein ursprünglich vorhandenes ökologisches Gleichgewicht wiederherzustellen, wenn dieses erst einmal nachhaltig gestört wurde. Ein vergleichbarer Zusammenhang zwischen den geschützten Kormoranen und den Fischbeständen führt immer wieder zu Diskussionen zwischen Fischereivereinen und Vogelschützern. 1976 wurde der Biber im Isardelta wieder angesiedelt. Von dort aus breiteten die Tiere sich flussaufwärts aus. Ein Exemplar lebte sogar jahrelang mitten in München unmittelbar am Deutschen Museum. Auch nach dem August-Hochwasser 2005 konnte man frische Biberbissspuren an Bäumen in Isarnähe sehen. Ein Teil der typischen Isarfische ist in seinem Bestand bedroht, wie zum Beispiel der Huchen oder der Wels. Neben diesen Arten kommen in der Isar vor allem Forellen und Barsche vor sowie Koppe, Hecht, Nerfling, Rotauge, Rotfeder, Rutte, Schleie, Barbe und Zander. Als einer der bedeutendsten Nebenflüsse der Donau lassen sich im unteren Flussbereich der Isar typische Fischarten der Donau nachweisen, so beispielsweise das Donaubachneunauge oder der Sterlet. Die Verbreitung des Donaubachneunauges in Deutschland ist unter Wissenschaftlern allerdings umstritten; möglicherweise handelt es sich hier um eine Verwechslung mit dem "Ukrainischen Bachneunauge". Insgesamt sind etwa 50 einheimische Fischarten bekannt. Von der Quelle bis zur Mündung lässt sich die Isar in drei Flussregionen aufteilen: die Forellenregion von der Quelle bis Lenggries, die Äschenregion von Lenggries bis Moosburg und die Barbenregion von Moosburg bis zur Mündung. Neben verbreiteten Vögeln wie Möwen, Schwänen oder Stockenten bietet die Isar auch anderen, weniger häufig vorkommenden Arten einen Lebensraum. So lassen sich Wasseramseln, Eisvogel, Graureiher oder auch Flussregenpfeifer beobachten. Selten geworden sind die Fluss-Seeschwalbe und der Flussuferläufer; sie gelten als gefährdet. Ihre Nester liegen sehr gut getarnt inmitten des Gerölls der Kiesbänke und werden von Erholungssuchenden, die trotz Verbots die Kiesflächen (ausgewiesene Vogelschutzgebiete) betreten, meist nicht wahrgenommen. So werden die dort brütenden Vögel besonders während der Brutzeit massiv und nachhaltig gestört. Die als Vogelschutzgebiet gekennzeichneten Bereiche dürfen jeweils in dem Zeitraum vom 15. März bis zum 10. August nicht betreten werden. Vor allem im Ufer- und Böschungsbereich, aber auch auf den Kiesbänken kommen neben Erdkröten und Zauneidechsen auch Blindschleichen vor. Die Schlangen sind durch die Kreuzotter sowie durch die Ringel- und die Schlingnatter vertreten. Besonders im oberen, aber teilweise auch im mittleren Flussabschnitt entstehen durch Erosion und Sedimentation immer wieder neue Flussaufschüttungen. Diese noch offenen Schotterflächen werden zuerst von Pionierpflanzen besiedelt, welche mit den schwierigen Bedingungen dort gut zurechtkommen; dazu gehören das Alpen-Leinkraut, das gelbblütige Habichtskraut und die Deutsche Tamariske. Wird die Kiesbank nicht von Hochwasser wieder abgetragen, siedeln sich nach einigen Jahren auch Weiße Silberwurz, Wacholder und schließlich auch verschiedene Weidenarten an. Bei einer weiteren Entwicklung entstehen so nach und nach lichte Kiefernwälder. Wirtschaft. Die Isar hat keine Bedeutung für die Binnenschifffahrt und somit für den Transportverkehr, da der Fluss über seinen gesamten Verlauf nicht schiffbar ist. Früher wurden auf der Isar Holz und andere Güter in beträchtlichen Mengen von Mittenwald über München bis an die Donau geflößt. Seit dem Aufkommen von Eisenbahn und Kraftfahrzeugen wird dieser Transportweg so gut wie nicht mehr genutzt. Parallel zum Fluss entstand die Isartalbahn. Erhebliche wirtschaftliche Bedeutung erlangt der Fluss durch seine Wasserkraft, die zur Stromerzeugung unter anderem durch die Isar-Amper-Werke genutzt wird. Der Umfang der so erzeugten Energie erreicht allerdings nicht einmal mehr ein Prozent des heutigen Strombedarfes in Bayern. Durch die Kühlung des Kernkraftwerks Isar trägt die Isar jedoch indirekt zur Energieerzeugung im großen Umfang bei; als noch beide Kernkraftwerksblöcke in Betrieb waren, deckten sie etwa 40 Prozent des bayerischen Strombedarfs. Energie. Wasserkraftwerke benötigen einen gleichmäßig hohen Wasserstand, damit die Energieerzeugung in niederschlagsarmen Monaten nicht zum Erliegen kommt. Dies wurde durch den Bau von mehreren Kanälen sichergestellt, die den Verlauf der Isar begleiten und den größeren Anteil des Flusswassers mit sich führen. Südlich von München versorgt der Mühltalkanal das Wasserkraftwerk Mühltal mit Wasser. Im Stadtgebiet von München liegen am Isar-Werkkanal drei zwischen 1900 und 1930 erbaute Kraftwerke ("Isarwerke 1–3") der Stadtwerke München sowie zwei Kraftwerke von E.ON. Aus dem Werkkanal wird bei der Marienklause das Wasser für den Auer Mühlbach ausgeleitet, an dem drei weitere, kleinere Wasserkraftwerke liegen. Am Stauwehr Oberföhring am Nordrand von München zweigt der Mittlere-Isar-Kanal Richtung Erding ab und fließt erst nach über 60 Kilometern wieder zurück ins Flussbett. Ein Kraftwerk am Stauwehr mit einer Leistung von einem Megawatt nutzt das in der Isar verbleibende Wasser. Die Kraftwerke entlang der Isar erzeugen im Durchschnitt etwa 2 Milliarden Kilowattstunden elektrische Energie im Jahr. Auch der Sylvensteinsee, der 1956 als Hochwasserschutz südlich von Bad Tölz fertiggestellt wurde, wird zur Energiegewinnung genutzt. Der Stausee ist in der Lage, maximal 124 Millionen Kubikmeter Wasser zwischenzuspeichern. Das Kernkraftwerk Isar östlich von Landshut nutzt das Wasser der Isar zur Kühlung. Durch die Kühlung des Reaktors von Isar II verdunsten 800 Liter Flusswasser pro Sekunde im Kühlturm; die markante Wasserdampffahne ist oft über 100 km hinweg aus den Bayerischen Alpen zu sehen. Bei der Kühlung des 2011 stillgelegten Siedewasserreaktors von Isar I ging i. d. R. kein Wasser für den Fluss verloren, da es um drei Grad Celsius erwärmt wieder in das Flussbett zurückgeleitet wurde. Aus diesem Grund wurde die vorhandene Zellenkühleranlage erweitert und 2009 in Betrieb genommen. Tourismus. Neben der bayerischen Landeshauptstadt und einer Reihe weiterer sehenswerter Städte entlang der Isar sind zahlreiche Isarlandschaften und Naturschutzgebiete von touristischer Bedeutung, so zum Beispiel der Isarwinkel oder die Pupplinger Au südlich von München. Über weite Strecken wird der Fluss von Radwanderwegen gesäumt, die eine Radwanderung von den Alpen bis zur Donau ermöglichen. Seit einigen Jahrzehnten erlebt auch die Flößerei eine Renaissance im touristischen Sektor. Jährlich fahren in den Sommermonaten bis zu 50.000 Touristen auf großen, bis zu 20 Tonnen schweren Flößen von Wolfratshausen über eine Strecke von 25 Kilometern bis zum Floßkanal in München-Thalkirchen. Die Wehre der Kraftwerke werden dabei durch Schleusenrutschen überwunden. Die Rutsche im Mühltal südlich von Kloster Schäftlarn überwindet auf einer Länge von 360 Metern rund 18 Höhenmeter und gilt damit als die längste Floßgasse der Welt. Die mit Musikkapelle, Tischen und Bänken, Bewirtungsmöglichkeit mit Bier und Brotzeit und auch einer Bordtoilette ausgestatteten Flöße werden nach der Ankunft am Zielort in ihre einzelnen Bestandteile zerlegt, auf Lkw flussaufwärts gebracht und dort für die nächste Fahrt wieder zusammengesetzt. Das Befahren der Isar mit Kanus oder ähnlich kleinen und wendigen Booten ist über Teilstrecken problemlos möglich. Bei hoher Wasserführung kann unter anderem an der Wittelsbacher Brücke in München auch von Wellenreitern oder Kanuten gesurft werden. An einigen Stellen entlang der Isar wird nackt gebadet, so beispielsweise nördlich von Wolfratshausen im Bereich der Pupplinger Au. Im südlichen Stadtgebiet von München sind sogar FKK-Gelände offiziell ausgewiesen. Viele Münchner lassen sich allerdings – unabhängig von offiziellen Ausweisungen – auch im inneren Stadtbereich nackt am Ufer oder auf den Kiesinseln von der Sonne bräunen. Die Isar begleitet der Isar-Radweg, ein relativ einfach zu fahrender Radweg, von Mittenwald über Landshut bis Plattling. Die Isar in Kunst, Literatur und Musik. Die ältesten Darstellungen der Isar entstanden vor religiösem Hintergrund. So stellt ein Altarbild aus dem Jahre 1480 in der Jakobskirche in Lenggries das Martyrium des Apostels Jakobus dar. Der unbekannte Künstler verlegte die Enthauptung, die in Jerusalem stattfand, an das Ufer der Isar. Im 19. Jahrhundert entdeckten Künstler der Münchner Schule – wie Wilhelm Scheuchzer, Joseph Wenglein und Wilhelm von Kobell – die Isar als Motiv für ihre Bilder. Dank der realistischen Darstellung der Motive haben ihre Gemälde auch einen historischen Wert für die Dokumentation der Flussumgebung vor ihrer massiven Verbauung. In seinem Heimatroman "Der Jäger von Fall" setzte Ludwig Ganghofer den Bewohnern des Isarwinkels ein Denkmal für ihre Heimatliebe und machte damit auch die Flusslandschaft der Isar überregional bekannt. Aber auch die neuere Literatur enthält Geschichten und Fakten über den Alpenfluss. Carmen Rohrbach beschreibt in ihrem Buch "Der grüne Fluss" eindrucksvoll ihre Wanderung von den Quellen bis zur Flussmündung. Der Liedermacher und bayrische Bluessänger Willy Michl schildert in seiner Hymne "Isarflimmern" die Schönheit des Alpenflusses: „(…) Sommersonne auf weißem Kies, daneben der smaragdgrüne Fluss, wenn dann noch die Zeit still steht – dann ist das Isarflimmern im Paradies.“ In der Hymne „Isarmärchen“ der Münchner Volkssängerin Bally Prell findet sich eine Liebeserklärung an die Isar, die prägend die bayerische Landeshauptstadt durchzieht. So lautet der Refrain: „… und wenn der blaue Himmel lacht … rauscht die Isar ihr uraltes Liedlein dazu, schön wie ein Märchen, mein München bist Du“. Mit der Buch- und Veranstaltungsreihe „Die neue Isar“ hat Ralf Sartori im Rahmen des „Nymphenspiegel Kulturforums“ ein umfassendes Isar-Kulturprojekt initiiert, das mittels der auf unbegrenzte Dauer angelegten Isarbuchreihe, die Isar ganzheitlich – literarisch und fachlich – durch Beiträge einer Vielzahl hochkarätiger und wechselnder Autoren reflektiert, in Form eines Buchflusses, der jährlich mit einem weiteren Isarband erscheint. Flankiert wird diese Reihe durch eine Vielzahl von Isarführungen, Isarfesten und Kunstprojekten am Fluss. Indigo. Indigo (von griech. "indikón" „das Indische“, nach der Heimat Ostindien) ist ein tiefblauer Farbstoff und namensgebend für seinen Farbton Indigo. Am ehesten lässt er sich als der letzte erkennbare Blauton, bevor es in ein bläuliches Violett übergeht, umschreiben. Indigo ist im Colour Index als C.I. Pigment Blue 66 und C.I. 73000 geführt. Vorkommen und Gewinnung. Aus Färberwaid ("Isatis tinctoria") wurde früher kommerziell Indigo gewonnen. Indigo kann aus der indischen Indigopflanze oder dem bereits in der Antike in Europa eingebürgerten Färberwaid gewonnen werden. Die Gewinnung aus der Indigopflanze lässt sich bis ins Altertum nachweisen. Bereits in vorchristlicher Zeit finden sich "Indigofera-Arten" in Indien, Ostasien und Ägypten. Plinius beschrieb die Herkunft der Farbe aus Indien. In Europa war der Farbstoff aus der Indigo-Pflanze bis zum 12. Jahrhundert selten, er wurde in kleinen Mengen über Syrien und Alexandria aus Indien importiert. Auch der Färberwaid wurde im Mittelmeerraum und Westeuropa bereits in der Antike zum Färben genutzt. Im Mittelalter kannte man in Europa keinen anderen blauen Farbstoff als Indigo. Vom 12. bis zum 17. Jahrhundert wurde Färberwaid in Thüringen angebaut, wobei nach Schätzungen ungefähr 3750 ha mit der Pflanze bestellt waren. Der aus dem Waid gewonnene Brei wurde zu Waidkugeln getrocknet und nach Bedarf, vorwiegend in den Wintermonaten, mit Urin angefeuchtet und nach Zugabe von Pottasche vergoren. 300 kg Pflanzenmaterial lieferten etwa 1 bis 1,5 kg Indigo. Die Indigofera-Pflanze in Indien lieferte die dreißigfache Farbstoffmenge im Vergleich zu Färberwaid, so dass der Anbau in Europa im 17. Jahrhundert unrentabel wurde. Als Ersatz für Indigo wurde von amerikanischen Siedlern der Bastardindigo ("Amorpha fruticosa") für das Blaufärben benutzt. Heute wird Indigo noch in Brasilien und El Salvador kultiviert. Man nutzt die farbstoffreichen Arten "Indigofera arrecta" und "I. sumatrana". Färbevorgang. Die Pflanzen enthalten kein Indigo, sondern Indican, das zunächst durch Gärung in Indoxyl umgewandelt werden muss. Durch anschließende Oxidation an der Luft entsteht aus dem gelben Indoxyl der blaue Indigo, diese Arbeitsgänge entsprechen der Küpenfärberei. 400px Synthese. Indigoproduktion bei der BASF 1890 1870 gelang erstmals die vollsynthetische Herstellung von Indigo aus Isatin durch den deutschen Chemiker Adolf von Baeyer. Von Baeyer entwickelte zwischen 1880 und 1882 weitere Syntheserouten für Indigo über Zimtsäure und o-Nitrobenzaldehyd. Ein Vorprodukt, die o-Nitrophenylpropiolsäure, ließ sich direkt auf der Textilfaser zu Indigo reduzieren. Die BASF errichtete schon 1881 eine kleine Produktion vom „Kleinen Indigo“. Der wirtschaftliche Erfolg blieb jedoch aus, die Produktion wurde eingestellt. Im Jahr 1890 entwickelte der Zürcher Professor Karl Heumann eine neue Syntheseroute über Phenylglycin. Der Chemiekonzern BASF und die Hoechst AG patentierten und entwickelten das Verfahren weiter. Die Versuchsreihe mit Phenylglycin wurde von der BASF im Jahr 1893 wieder eingestellt, da die Indigoausbeute sehr niedrig war. Ein guter Ansatz war jedoch mit Phenylglycin-"o"-carbonsäure möglich. Die BASF konnte Phthalsäure (ein wichtiges Vorprodukt) recht günstig aus Naphthalin herstellen. Ab 1897 wurde synthetischer Indigo kommerziell nach dem genannten Verfahren von der BASF hergestellt. 1901 war es Johannes Pfleger bei der Degussa gelungen, aus "N"-Phenylglycin mittels Natriumamid und einer Alkalischmelze Indigo in hohen Ausbeuten zu erhalten. 1904 schlossen BASF und die Farbwerke Hoechst die "Indigo-Konvention". Ab 1904 wurde bei BASF ein sehr viel einfacheres Verfahren über Anilin und Ethylenchlorhydrin entwickelt, dabei entsteht 2-Anilinoethanol, das sich unter Baseneinfluss und höheren Temperaturen bei befriedigenden Ausbeuten zu Indoxyl umwandelt. Die synthetische Herstellung von Indigo verdrängte völlig die mühsame Gewinnung aus Pflanzenmaterial. Die Vorteile der synthetischen Indigogewinnung sprechen für sich: farbkräftigere Ergebnisse, eine leichtere Dosierung, keine Ernteabhängigkeit und keine wechselnden Farbqualitäten. Ab dem Jahr 1924 basierte die Indigosynthese auf Phenylglycinnitril, das aus Anilin hergestellt wurde. In allen Fällen entsteht Indoxyl, das durch Luftsauerstoff zu Indigo oxidiert. Eigenschaften. Indigo in seiner Leukoform, am Glas hat sich oxidiertes Indigo abgesetzt. Indigo selbst ist fast wasserunlöslich und muss vor dem Färben durch Reduktion in das wasserlösliche "Indigoweiß" ("Leuko-Indigo") umgewandelt werden. Nach dem Färben entsteht durch Oxidation wieder Indigo. Diesen Vorgang, der so auch bei anderen Textilfarbstoffen angewandt wird, bezeichnet man als Küpenfärberei. Früher wurden zur Oxidation des Farbstoffs die Stoffe auf einer Wiese in die Sonne gelegt, wo das Indigo durch eine Rasenbleiche oxidiert wurde. In Verbindung mit der Vorstellung, dass die Färber während dieses Trocknungsvorganges nichts zu tun gehabt hätten, ist die These aufgekommen, dass hieraus der umgangssprachliche Ausdruck "blau machen" für „Nichtstun, seiner Arbeit fernbleiben“ entstanden sei, für den in der sprachwissenschaftlichen Literatur jedoch andere Herkunftserklärungen angeboten werden. Reduktion von Indigo zu Indigoweiß Beim Färben von Textilien mit Indigo kann man auch grüne Farbtöne erzielen. Dies wird durch eine Überfärbung mit Reseda (Färberwau) erreicht. Indigo besitzt einen recht hohen Schmelzpunkt (ca. 300 °C) und ist schlecht löslich. Dies begründet sich darin, dass Indigo im festen Zustand ein Wasserstoffbrücken-Polymer bildet. Röntgenstrukturanalysen haben gezeigt, dass dabei jedes Indigomolekül an vier umgebende Moleküle gebunden ist. Indigoide Farbstoffe. Ein Abbauprodukt des Indigo ist Isatin. Verwendung. Die Maya stellten das rituell verwendete Pigment Maya-Blau aus dem Mineral Palygorskit und Indigo her. Um 1900 gab es für Indigo einen riesigen Markt. Es wurden Waffenröcke, Matrosenuniformen und die blaue Arbeitskleidung der Arbeiter mit diesem Farbstoff gefärbt. Während der natürliche Indigo nur noch einen geringen Marktanteil besitzt, ist der künstliche Indigo ein wichtiger Farbstoff für die von Levi Strauss im Jahre 1873 erfundenen Jeans. In der Textilindustrie ist der synthetisch hergestellte Indigo als Küpenfarbstoff weit verbreitet. Größtenteils wird Indigo zum Färben von Denim-Stoffen benötigt. Für den technischen Einsatzbereich lässt sich Indigo in Form dünner organischer Filme für den Bau von Solarzellen verwenden. Forschungen haben gezeigt, dass Indigo in Feldeffekttransistoren eingesetzt werden kann. Ein dünner Film aus teilkristallinem Indigo ist ein Halbleiter mit einer Bandlücke von 1,7 eV und damit ein potentielles Material für die organische Elektronik. Indigo wurde eher selten und nur bis etwa zum Ende des 17. Jahrhunderts auch in der Ölmalerei verwendet. Eines der berühmtesten Beispiele ist Vermeers Werk "Christus bei Maria und Martha", bei dem sowohl der blaue Mantel Christi als auch der Rock von Maria mit Indigo gemalt sind. Indien. Indien ist ein Staat in Südasien, der den größten Teil des indischen Subkontinents umfasst. Indien ist eine Bundesrepublik, die von 29 Bundesstaaten gebildet wird und außerdem sieben bundesunmittelbare Gebiete umfasst. Der Eigenname der Republik lautet in den beiden landesweit gültigen Amtssprachen Bhārat Gaṇarājya (Hindi) und Republic of India (engl.). Der Himalaya bildet die natürliche Nordgrenze Indiens, im Süden umschließt der Indische Ozean das Staatsgebiet. Indien grenzt an Pakistan, das chinesische Autonome Gebiet Tibet, Nepal, Bhutan, Myanmar (Birma) und Bangladesch. Weitere Nachbarstaaten im Indischen Ozean sind Sri Lanka und die Malediven. Der multiethnische Staat ist mit über 1,292 Milliarden Einwohnern (2015) nach der Volksrepublik China (1,373 Mrd.) das zweitbevölkerungsreichste Land der Erde und somit die bevölkerungsreichste Demokratie der Welt. Bei gleichbleibendem Bevölkerungswachstum könnte Indien in fünf Jahren China überholen. Hinsichtlich der Landesfläche gehört es zu den zehn größten Ländern. Herkunft des Namens. Der Name "Indien" ist vom Strom Indus abgeleitet. Dessen Name geht wiederum über Vermittlung des Altgriechischen "(Indos)" und Altpersischen "(Hinduš)" auf das Sanskrit-Wort ' mit der Bedeutung „Fluss“ zurück. Die europäischen Seefahrer bezeichneten ganz Süd- und Südostasien als Indien. Davon zeugen noch Begriffe wie "Inselindien" („Insulinde“) und der Staatsname Indonesien. In der Kolonialzeit reduzierte sich die Bezeichnung schrittweise bis auf die heutigen Gebiete von Indien, Pakistan und Bangladesch, um schließlich bei der indischen Staatsgründung seine heutige Bedeutung anzunehmen. Von der persisch-islamischen Form "Hind" beziehungsweise "Hindustan" leiten sich auch die Bezeichnung "Hindu" und der Name der Sprache "Hindi" her. Der amtliche Name Indiens in den meisten Landessprachen (z. B. Hindi ') stammt von der Sanskrit-Bezeichnung ' ab, die „(Land) des Bharata“ bedeutet und auf einen mythischen Herrscher verweist. Landschaftsgliederung. a>, mit 8586 m Indiens höchster Berg Indien, mit einer Fläche von 3.287.490 Quadratkilometern der siebtgrößte Staat der Erde, erstreckt sich in West-Ost-Richtung vom 68. bis zum 97. östlichen Längengrad über rund 3000 Kilometer. Von Nord nach Süd, zwischen dem 8. und dem 37. Grad nördlicher Breite, beträgt die Ausdehnung rund 3200 Kilometer. Indien grenzt an sechs Staaten: Pakistan (2912 Kilometer), China (Tibet; 3380 Kilometer), Nepal (1690 Kilometer), Bhutan (605 Kilometer), Myanmar (1463 Kilometer) und Bangladesch (4053 Kilometer). Insgesamt beträgt die Grenzlänge somit 14.103 Kilometer. Da der nördliche Teil des umstrittenen Kaschmir seit 1949 unter pakistanischer Kontrolle steht (Waffenstillstand nach dem Kaschmir-Konflikt), hat Indien keine gemeinsame Grenze mit Afghanistan mehr. Die Küste des Landes ist rund 7000 Kilometer lang. Die natürliche Grenze im Norden und Nordosten bildet der Himalaya, das höchste Gebirge der Welt, das im äußersten Nordwesten durch das Hochtal des Indus vom Karakorum getrennt wird. Südlich an den Himalaya schließen sich die breiten, fruchtbaren Stromebenen der Flüsse Ganges und Brahmaputra an. Im Westen geht das Stromland des Ganges in die Wüste Thar über, die im Osten und Süden vom Aravalligebirge begrenzt wird. Südlich davon liegen die Sümpfe des Rann von Kachchh sowie die Halbinsel Kathiawar. Den Nordosten Indiens, einschließlich der Brahmaputra-Ebene, verbindet nur ein schmaler Korridor zwischen Bangladesch und Nepal bzw. Bhutan mit dem übrigen Land. Die Nordostregion wird durch das bis zu 3800 Meter hohe Patkai- oder Purvachalgebirge von Myanmar sowie das knapp 2000 Meter hohe Khasigebirge von Bangladesch abgeschirmt. Das Hochland von Dekkan nimmt den größten Teil der keilförmig in den Indischen Ozean vorragenden indischen Halbinsel ein. Das Vindhya- und das Satpuragebirge schirmen den Dekkan von der Gangesebene im Norden ab. Im Westen wird er von den bis zu 2700 Meter hohen Westghats, im Osten von den flacheren Ostghats begrenzt. Beide Gebirgszüge treffen im Süden, wo die Halbinsel spitz zum Kap Komorin zuläuft, zusammen. Die Westghats fallen steil zur Konkan- und Malabarküste entlang des Arabischen Meeres ab. Die Ostghats gehen in die breiteren östlichen Küstenebenen am Golf von Bengalen über. Zu Indien gehören außerdem drei dem indischen Subkontinent vorgelagerte Inselgruppen. Rund 300 Kilometer westlich der Malabarküste liegen die Korallenatolle von Lakshadweep, das die Inselgruppen der Lakkadiven und Amindiven sowie die Insel Minicoy umfasst. Südöstlich der Halbinsel, zwischen 1000 und 1600 Kilometer vom indischen Festland entfernt, erstrecken sich die Andamanen und Nikobaren. Höchster Punkt Indiens ist der Berg Kangchendzönga mit 8586 Metern Höhe. Er liegt im äußersten Westen Sikkims; über ihn verläuft die Grenze zu Nepal. Der höchste vollständig auf indischem Gebiet liegende Berg ist die Nanda Devi mit 7822 Metern. Der tiefste Punkt ist die zwei Meter unter dem Meeresspiegel gelegene Kuttanad-Senke an der Malabarküste. Flüsse und Seen. Alle größeren Flüsse Indiens entspringen in einer der drei Hauptwasserscheiden des Subkontinents: im Himalaya, in den zentralindischen Vindhya- und Satpura-Bergen oder in den Westghats. Indiens längster und bedeutendster Fluss ist der Ganges (Ganga), der im Himalaya entspringt. Seine längsten Nebenflüsse sind die Yamuna und der Gomti; der Chambal ist ein Zufluss der Yamuna. Der Brahmaputra, der das Land im Nordosten durchfließt, vereinigt sich mit dem Ganges und bildet vor der Mündung in den Golf von Bengalen ein gewaltiges Delta. An diesem hat Indien im Westen Anteil; der Großteil des Gangesdeltas liegt auf dem Territorium des Nachbarstaates Bangladesch. Fast ein Drittel der Fläche Indiens gehört zum Einzugsgebiet von Ganges und Brahmaputra. Im äußersten Norden durchquert der Indus in Südost-Nordwest-Richtung den Bundesstaat Jammu und Kashmir. Das Hochland von Dekkan wird von mehreren großen Flüssen entwässert. Die Narmada und der Tapti münden ins Arabische Meer, während Godavari, Krishna, Mahanadi und Kaveri zum Golf von Bengalen fließen. Trotz seiner Größe hat Indien nur wenige große natürliche Seen. Zwecks Bewässerung und Stromerzeugung wurden im ganzen Land teils riesige Stauseen angelegt. Die größten sind der Hirakud-Stausee (746 Quadratkilometer) in Odisha, der Gandhi-Stausee (648 Quadratkilometer) in Madhya Pradesh und der Govind-Ballabh-Pant-Stausee (465 Quadratkilometer) an der Grenze zwischen Uttar Pradesh und Chhattisgarh. Geologie. Die Theorie der Kontinentalverschiebung besagt, dass Indien bis gegen Ende des Jura zum Südkontinent Gondwana gehörte. In der Kreidezeit riss es von der Kontinentalscholle der Antarktis ab und driftete in erdgeschichtlich extrem kurzen 50 Millionen Jahren quer durch den gesamten Tethys-Ozean gegen den Süden der Eurasischen Platte. Das Aufeinandertreffen der beiden Erdteile erfolgte vor geschätzt etwa 43 bis 64 Millionen Jahren am Anfang des Paläogens. In der resultierenden gemeinsamen „Knautschzone“ dieser Krustenbewegungen wurden der Himalaya und benachbarte Gebirgssysteme aufgeschoben (Auffaltung der früheren Kontinentalränder) und das Hochland von Tibet angehoben. Obwohl einzelne Krustenteile sich inzwischen miteinander verschweißt haben, bewegt sich die Indische Platte bis heute nach Norden, sodass sich der Himalaya jährlich um einige Millimeter hebt – ebenso wie andere Faltengebirge der Erde, von denen er eines der jüngsten ist. Die ihm vorgelagerten Flussebenen entstanden durch Sedimentablagerungen im Pleistozän. Vielfältiger sind die Gesteinsformationen des Dekkan. Den Großteil nehmen proterozoische Formationen im Süden und Osten, der in der Kreidezeit entstandene vulkanische Dekkan-Trapp im Westen und Nordwesten sowie ungeformte Kratone im Nordosten und Norden ein, die zu den ältesten Teilen der Erdkruste gehören. Naturkatastrophen. Indien wird immer wieder von verschiedenen Naturkatastrophen heimgesucht, besonders Überschwemmungen, die während des Sommermonsuns durch extreme Niederschlagsmengen im ganzen Land auftreten können. Während der trockenen Jahreszeit oder bei Ausbleiben der Monsunregenfälle kommt es dagegen häufig zu Dürren. Auch Zyklone und dadurch bedingte Flutwellen, vor allem an der Ostküste, kosten oft viele Menschenleben und richten verheerende Schäden an. In einigen Gebieten besteht auch erhöhte Erdbebengefahr, namentlich im Himalaya, den Nordoststaaten, Westgujarat und der Region um Mumbai. Am 26. Dezember 2004 verursachte ein Seebeben im Indischen Ozean einen verheerenden Tsunami, der an der Ostküste und auf den Andamanen und Nikobaren 7793 Menschenleben forderte und schwerste Verwüstungen anrichtete. Klima. Mit Ausnahme der Bergregionen herrscht in Nord- und Zentralindien vornehmlich subtropisches Kontinentalklima, im Süden und in den Küstengebieten dagegen ein stärker maritim geprägtes tropisches Klima. So treten im Norden im Jahresverlauf teils erhebliche Temperaturschwankungen auf. In den nördlichen Tiefebenen herrschen im Dezember und Januar 10 bis 15 °C; in der heißesten Zeit zwischen April und Juni sind Höchsttemperaturen von 40 bis über 50 °C möglich. Im Süden ist es dagegen ganzjährig (relativ konstant) heiß. Die Niederschlagsmengen werden im ganzen Land maßgeblich vom Indischen Monsun beeinflusst. Der Südwest- oder Sommermonsun setzt in den meisten Landesteilen im Juni ein und bringt je nach Region bis September oder Oktober ergiebige Niederschläge. Auf Grund der sehr unterschiedlichen Topographie ist die Niederschlagsverteilung höchst ungleichmäßig. Die stärksten Regengüsse gehen an der Westküste, in den Westghats, an den Hängen des Himalayas und in Nordostindien nieder. Am trockensten ist es in der Thar. Die aus Zentralasien kommenden Nordost- oder Wintermonsunwinde zwischen Oktober und Juni bringen kaum Feuchtigkeit, daher gehen in den meisten Gegenden 80 bis über 90 Prozent der jährlichen Gesamtniederschlagsmenge während der Sommermonate nieder. Nur der Südosten erhält auch während des Nordostmonsuns Regen, da die Luftströmungen über dem Golf von Bengalen Feuchtigkeit aufnehmen. Vegetation. Blätter und Früchte des Teakbaumes Der Größe des Landes und der verschiedenen klimatischen Bedingungen in den einzelnen Landesteilen entsprechend weist Indien eine große Landschaftsvielfalt auf. Dabei reicht die Pflanzenwelt Indiens von Hochgebirgsvegetation im Himalaya bis zu tropischen Regenwäldern im Süden. Weite Teile der ursprünglichen Vegetationsdecke sind heute zerstört, stattdessen ist Indien überwiegend durch Kulturlandschaften geprägt. Nur noch etwa ein Fünftel des Landes ist bewaldet, wobei offizielle Angaben hierzu schwanken und auch degradierte Gebiete sowie offene Wälder mit einbeziehen. In den tieferen Lagen des Himalayas erstrecken sich noch ausgedehnte Wälder. Da die Niederschläge an den Hängen des Gebirges von Ost nach West abnehmen, finden sich im Osthimalaya immergrüne Feucht- und Regenwälder, die nach Westen hin lichter und trockener werden. Laubwälder mit Eichen und Kastanien herrschen vor; charakteristisch für den Osthimalaya sind Rhododendren. In höheren Lagen dominieren Nadelbäume, insbesondere Zedern und Kiefern. Die steppen- und wüstenartigen Hochtäler in Ladakh und anderen Teilen des westlichen Innerhimalayas gehen in das trockene Hochland von Tibet über. Die Vegetationsgrenze liegt bei etwa 5000 Metern. Der schwer zugängliche Nordosten ist teils noch dicht bewaldet. Besonders hohe Niederschlagsmengen ermöglichen dort halbimmergrüne Feuchtwälder. Der weitaus größte Teil der Gangesebene, des Dekkans und der angrenzenden Randgebirge war früher von Monsunwäldern bedeckt; heute gibt es davon nur noch Reste, zumeist in Bergregionen. Die landwirtschaftlich intensiv genutzten Ebenen sind dagegen praktisch waldfrei. Monsunwälder werfen während der Trockenperioden Laub ab. Je nach Niederschlagsmenge und Länge der Trockenperiode unterscheidet man zwischen Feucht- und Trockenwäldern. Wälder, die zwischen 1500 und 2000 Millimeter Jahresniederschlag erhalten, werden in der Regel als laubabwerfende Feuchtwälder bezeichnet. Sie herrschen im nordöstlichen Dekkan, Odisha und Westbengalen sowie im Lee der Westghats vor. Bei Niederschlägen zwischen 1000 und 1500 Millimetern im Jahr spricht man von laubabwerfenden Trockenwäldern; diese dominieren in Indien. Wegen der dünneren Baumkronen haben Monsunwälder ein dichtes Unterholz. Die charakteristische Baumart des Nordens ist der Sal "(Shorea robusta)," im zentralen und westlichen Dekkanhochland ist es der Teakbaum "(Tectona grandis)" und den Süden der Halbinsel prägen Sandelholzbäume "(Santalum album)." Bambusarten sind weit verbreitet. In den trockeneren Teilen Indiens, wie Rajasthan, Gujarat, dem Westrand des Gangestieflandes oder dem zentralen Dekkan, wachsen die insbesondere medizinisch genutzten, endemischen Niembäume. Im ariden Klima haben sich offene Dornwälder ausgebildet, die in der Wüste Thar in Halbwüstenvegetation mit vereinzelten Dornbüschen übergehen. In den feuchten Westghats gibt es noch relativ große zusammenhängende Teile der ursprünglichen, immergrünen oder halbimmergrünen Feuchtwälder. Sie sind durch die für tropische Regenwälder typische Stockwerkgliederung geprägt. Einige der hoch wachsenden Baumarten des obersten Stockwerkes werfen jahreszeitbedingt ihr Laub ab, darunter wachsende Arten sind dagegen immergrün. Aufsitzerpflanzen wie Orchideen und Farne kommen in großer Vielfalt vor. Mangroven, salzwasserresistente Gezeitenwälder, sind nur an der Ostküste Indiens verbreitet. Die Sundarbans im Ganges-Brahmaputra-Delta weisen die dichtesten Mangrovenbestände des Landes auf. Weitere Gezeitenwälder befinden sich in den Mündungsdeltas von Mahanadi, Godavari und Krishna. Tierwelt. Dank seiner Landschaftsvielfalt findet man in Indien eine äußerst artenreiche Tierwelt vor. Man schätzt, dass etwa 350 Säugetier-, 1200 Vogel-, 400 Reptilien- und 200 Amphibienarten heimisch sind. Viele Arten kommen allerdings nur noch in Rückzugsgebieten wie Wäldern, Sümpfen, Berg- und Hügelländern vor. In indischen Gewässern leben zudem mehr als 2500 Fischarten. Indiens größte Säugetierart ist der Indische Elefant, der neben dem Königstiger wohl auch am bekanntesten ist. Der Tiger war lange Zeit vom Aussterben bedroht, durch Einrichtung von Tigerschutzgebieten konnten sich die Bestände aber wieder erholen. Dennoch gibt es nur wenige tausend Exemplare in freier Wildbahn. Außer dem Tiger leben noch andere Großkatzen in Indien, darunter Leoparden und Löwen. Letztere sind ausschließlich im Gir-Nationalpark in Gujarat, dem letzten Rückzugsgebiet des Asiatischen Löwen, anzutreffen. Der seltene Schneeleopard bewohnt die hohen Gebirgsregionen des Himalaya. Die bekannteste und weitverbreitetste der kleineren Raubtierarten ist der Mungo. Das Panzernashorn lebt nur noch in Sumpf- und Dschungelgebieten in Assam, vor allem im Kaziranga-Nationalpark. Weit verbreitet sind dagegen Paarhufer. Dazu gehören unter anderem Wildschweine, Muntjaks, Sambars, Axishirsche, Schweinshirsche, Barasinghas, Wasserbüffel, Gaur sowie mehrere Antilopenarten. Auch Affen sind in Indien häufig anzutreffen. Rhesusaffen gelten den Hindus als heilig, dürfen nicht belästigt werden und haben sich daher sogar in Städten ausgebreitet. Die in ganz Indien verbreiteten Hanuman-Languren werden ebenfalls als heilig erachtet. Daneben gibt es weitere Langurenarten sowie Makaken. In den Trockengebieten des Nordwestens leben noch einige indische Halbesel, die sich vor allem im Dhrangadhra-Wildreservat im Kleinen Rann von Kachchh aufhalten. Im feuchten Osten des Landes leben dagegen Arten des tropischen Regenwaldes, wie der Weißbrauengibbon und der Nebelparder. Weiterhin erwähnenswerte Säugetiere sind die Rothunde, Streifenhyänen, Bengalfüchse, die hauptsächlich Graslandschaften bewohnen, und die dichte Wälder bevorzugenden Lippenbären. Im Ganges, Brahmaputra und deren Nebenflüssen findet sich gelegentlich noch der Gangesdelfin. Indiens Vogelwelt ist mit über 1200 einheimischen Arten – mehr als in ganz Europa – überaus vielfältig. Dazu kommen im Winter unzählige Zugvögel aus Nordasien. Der Pfau gilt als Nationalvogel und ist weit verbreitet. Häufig sind auch Tauben, Krähen, Webervögel, Spechte, Pittas, Drongos, Sittiche, Nektarvögel und Pirole. In Feuchtgebieten leben Störche, Reiher, Kraniche, Ibisse und Eisvögel. Unter den Greifvögeln sind Bengal- und Schmutzgeier am verbreitetsten. Etwa die Hälfte aller in Indien heimischen Reptilienarten sind Schlangen wie die Brillenschlange, die Königskobra und der Tigerpython. In Feuchtgebieten findet man aber auch Sumpfkrokodile. Sehr selten ist der scheue, fischfressende Gangesgavial. Umweltschutz. Das wachsende Verkehrsaufkommen trägt zur Luftverschmutzung in den Großstädten bei. Indien verfügt über eine umfangreiche Umweltschutzgesetzgebung, die aber in vielen Fällen nur mangelhaft umgesetzt wird. Knapp fünf Prozent der Landesfläche sind als Naturschutzgebiete ausgewiesen, deren Zahl sich auf fast 600 beläuft, darunter 92 Nationalparks. Zu den größten Umweltproblemen des Landes gehört die Wasserknappheit. Staudämme und künstliche Bewässerungssysteme sollen die Wasserversorgung in trockenen Gebieten sicherstellen. Übermäßige Bewässerung ist jedoch einer der Hauptgründe für die vielerorts sinkenden Grundwasserspiegel; zudem sind schätzungsweise 60 Prozent der landwirtschaftlichen Nutzflächen von Bodenerosion, Versalzung oder Vernässung betroffen. Darüber hinaus wird übermäßig bewässert, gedüngt und abgeholzt. Obwohl sich die Wasserversorgungslage der Haushalte in den ländlichen Gebieten seit Anfang der 1980er Jahre verbessert hat, verfügen nur wenige Haushalte über eine Abwasserentsorgung. Verschmutztes und verseuchtes Wasser trägt wesentlich zur Entstehung und Verbreitung von Infektionskrankheiten bei; nur 16 Prozent der Einwohner Indiens haben Zugang zu sanitären Anlagen. Die Luftverschmutzung ist insbesondere in den indischen Metropolen bedenklich. Der hohe Gehalt an Feinstaub ist das größte Problem. Die Ursachen liegen sowohl in Fabrikanlagen, Kleinindustrie, Kraftwerken und Verkehr als auch in den privaten Haushalten. Kalkutta war 1984 die erste Stadt, die ein U-Bahn-Netz in Betrieb nahm, 2002 folgte Delhi. Mumbai und Chennai verfügen über ein vergleichsweise gut ausgebautes Zugnetz. Die öffentlichen Busse, Autorikshas und privaten PKW tragen jedoch nach wie vor zur Luftverschmutzung der Städte bei, wenngleich die PKW-Nutzung mit 7,61 PKW pro 1000 Einwohner gering erscheint. Der Ausstoß von Kohlendioxid nimmt infolge der fortschreitenden Industrialisierung und eines stetig wachsenden Verkehrsaufkommens und Energiebedarfs schnell zu. Aktuell ist Indien das Land mit dem fünftgrößten Treibhausgas-Ausstoß weltweit, weist jedoch mit 1,1 Tonnen nur ein Siebtel des Pro-Kopf-Ausstoßes der Europäischen Union auf. Die unzureichenden technischen Anlagen in Fabriken führen immer wieder zu Beeinträchtigungen. In Bhopal traten 1984 in der Pestizid-Fabrik der amerikanischen Union Carbide (UCC) hochgiftige Gase aus, die in weiterer Folge zur Katastrophe von Bhopal führten. Innerhalb von Tagen verstarben 7000 Menschen, 15.000 weitere starben im Laufe der Jahre an den Folgen, während Tausende unter chronischen und lähmenden Krankheiten litten. 20 Jahre nach dem Vorfall war das Gelände noch immer nicht bereinigt, die von der UCC zugesagten Schadenersatz-Zahlungen wurden nie vollständig ausgezahlt. Vorgeschichte und klassisches Zeitalter. Die Industal-Zivilisation, größtenteils im heutigen Pakistan gelegen, war eine der frühen Hochkulturen der Welt, mit einer eigenen Schrift, der bisher nicht entzifferten Indus-Schrift. Um etwa 2500 v. Chr. existierten dort geplante Städte wie Harappa, mit einer Kanalisation, Seehäfen und Bädern, während angenommen wird, dass in Südindien noch weniger entwickelte Verhältnisse herrschten. Weiter östlich machen sich andere archäologische Komplexe bemerkbar wie die so genannte Kupfer-Hort-Kultur. Ab 1700 v. Chr. setzte aus bislang unbekannten Gründen der Zerfall der Indus-Kultur ein. Eine für die weitere Entwicklung Indiens sehr wichtige Periode war die vedische Zeit (etwa 1500 bis 500 v. Chr.), in der die Grundlagen der heutigen Kultur geschaffen wurden. Über die politische Entwicklung ist weitaus weniger bekannt als über die religiöse und philosophische Entwicklung. Gegen Ende der vedischen Zeit wurden die Upanishaden geschaffen, die in vielerlei Hinsicht die Basis der in Indien entstandenen Religionen Hinduismus, Buddhismus und Jainismus bilden. In diese Zeit fallen die Urbanisierung in der Gangesebene und der Aufstieg regionaler Königreiche wie Magadha. Ab dem 6. Jahrhundert v. Chr. entfaltete sich der Buddhismus, der rund 500 Jahre lang neben dem Hinduismus die maßgebliche Geistesströmung Indiens darstellte. Im 4. Jahrhundert v. Chr. entstand mit dem Maurya-Reich erstmals ein indisches Großreich, das unter Ashoka fast den gesamten Subkontinent beherrschte. Ashoka wandte sich nach zahlreichen Eroberungszügen dem Buddhismus zu, den er im eigenen Land und bis nach Sri Lanka, Südostasien und im Mittleren Osten zu verbreiten suchte. Im 3. Jahrhundert v. Chr. blühten die Prakrit-Literatur und die tamilische Sangam-Literatur im südlichen Indien auf. Während dieser Zeit herrschten im südlichen Indien die 3 tamilischen Dynastien Chola, Pandya und Chera. Nach dem Tod von Ashoka zerfiel das Maurya-Reich allmählich erneut in zahllose Kleinstaaten, die erst im 4. Jahrhundert n. Chr. von den Gupta wieder zu einem Großreich in Nordindien geeint werden konnten. Mit dem Buddhismus übte Indien einen wesentlichen kulturellen Einfluss auf den gesamten Bereich von Zentral- und Ostasien aus. Die Ausbreitung des Hinduismus und Buddhismus über Indochina bis in das heutige Indonesien prägte Geschichte und Kultur dieser Länder. Als letzter großer Förderer des Buddhismus in Indien gilt Harshavardhana, dessen Herrschaft im Nordindien des 7. Jahrhunderts den Übergang zum indischen Mittelalter markiert. Indisches Mittelalter und Mogulzeit. Arabische Eroberungszüge im 8. Jahrhundert brachten den Islam nach Nordwestindien. Als die Araber versuchten, nach Gujarat und darüber hinaus vorzudringen, wurden sie vom indischen König Vikramaditya II der westlichen Chalukya-Dynastie besiegt. Vom 8. Jahrhundert bis zum 10. Jahrhundert herrschten die drei Dynastien Rashtrakuta, Pala und Pratihara über einen großen Teil Indiens und kämpften untereinander um die Vorherrschaft in Nordindien. Im Süden Indiens herrschten die Chola-Dynastie und die Chalukya-Dynastie vom 10. Jahrhundert bis zum 12. Jahrhundert. Zu einer Dominanz muslimischer Staaten im Norden sowie zur Islamisierung größerer Teile der dortigen Bevölkerung kam es jedoch erst mit den Invasionen zentralasiatischer islamischer Mächte ab dem 12. Jahrhundert. Das Sultanat von Delhi weitete seine Macht sogar kurzzeitig auf den Süden aus, dennoch blieb sein kultureller Einfluss auf den Norden begrenzt. Der Mongoleneinfall des Jahres 1398 schwächte das Sultanat, sodass die hinduistischen Regionalreiche wiedererstarkten. Erholen konnten sich die muslimischen Herrscher erst im 16. Jahrhundert mit der Gründung des Mogulreiches, das für rund 200 Jahre zur bestimmenden Kraft des Nordens wurde und noch bis 1857 Bestand hatte. Herausragende Herrscher wie Akbar, Jahangir, Shah Jahan und Aurangzeb dehnten nicht nur die Grenzen des Reiches bis auf den Dekkan aus, sondern schufen auch ein funktionierendes Verwaltungs- und Staatswesen und förderten die Künste. Auch die philosophische Bildung war hoch und ging von den konkurrierenden Schulen in Delhi und Lucknow aus. Während in Delhi besonders eine Rückkehr zu den frühislamischen Lehren forderte, wurde in Lucknow Logik, Recht und Philosophie, insbesondere der Aristotelismus, gelehrt. Hinduistische Königtümer gab es während ihrer Zeit nur noch in Südindien, etwa in Vijayanagar. Im späten 17. Jahrhundert wurde das hinduistische Maratha-Reich gegründet, das im 18. Jahrhundert das Mogulreich überrannte und einen großen Teil Nordindiens eroberte. Geschwächt von den Angriffen der Marathen, war das Reich nach Aurangzebs Tod erheblich destabilisiert. Aus dem Niedergang der inneren Sicherheit und der schlechten Vernetzung von Zentrum und Provinzen resultierte eine politische Dezentralisierung, welche wiederum einherging mit ökonomischer Umorientierung. Regionale Märkte wurden gestärkt und eine neue soziale Gruppe aus erfolgreichen Händlern entstand. Durch sie wurde Indien auch intellektuell umgeprägt: Der Ruf nach sozialer Gleichheit wurde laut. Sie pflegten engen Kontakt mit Europa und standen in starkem Kontrast zu der hierarchisch-elitären Erbaristokratie des Landes. Somit wurde das 18. Jahrhundert in Indien zu einer Zeit des Umbruchs, in der regionale Herrscher, europäische Handelsmächte und der geschwächte Mogul um die Vorherrschaft über das Land rangen. Europäische Kolonialherrschaft und Unabhängigkeitsbewegung. Nachdem Vasco da Gama 1498 den Seeweg nach Indien entdeckt hatte, begann Portugal ab 1505 kleinere Küstenstützpunkte zu erobern (vgl. Portugiesisch-Indien). Von 1756 an unterwarf die britische Ostindien-Kompanie "(British East India Company)" von ihren Hafenstützpunkten Calcutta (heute: Kolkata), Madras (heute: Chennai) und Bombay (heute: Mumbai) aus weite Teile Indiens. Der vorher bestehende Einfluss der europäischen Kolonialmächte Portugal, Niederlande und Frankreich wurde von ihr weitgehend beseitigt. Loyale Fürsten behielten Staaten mit begrenzter Souveränität wie Hyderabad, Bhopal, Mysore oder Kaschmir. 1857/58 erhoben sich Teile der Bevölkerung Nordindiens im Sepoy-Aufstand gegen die Herrschaft der Ostindien-Kompanie. Nach der Niederwerfung des Aufstandes wurde diese aufgelöst und Indien der direkten Kontrolle durch Großbritannien unterstellt. Die britischen Monarchen trugen ab 1877 (bis 1947) zusätzlich den Titel "Empress of India" bzw. "Emperor of India" (Kaiser(in) von Indien). 1885 wurde in Bombay der "Indian National Congress" (Kongresspartei) gegründet. Er forderte zunächst nicht die Unabhängigkeit Indiens, sondern lediglich mehr politische Mitspracherechte für die einheimische Bevölkerung. Seine Mitglieder waren vorwiegend Hindus und Parsen. Die muslimische Oberschicht blieb auf Abstand, da ihr Wortführer Sayyid Ahmad Khan befürchtete, dass sie durch Einführung des Mehrheitsprinzips aus der Verwaltung gedrängt würden. Stattdessen wurde 1906 die Muslimliga als Interessenvertretung der Muslime gegründet. Die weitestgehende Aufteilung der Politik in religiöse Gruppen lag v. a. darin begründet, dass sich im 19. und 20. Jahrhundert aus unterschiedlichen Glaubensgemeinschaften mit fließenden Übergängen einheitliche Religionen (Hinduismus, Islam, …) mit bestimmten Inhalten und festen Abgrenzungen nach außen entwickelten. Auf der Suche nach einer einenden Idee in einer Kolonie mit vielen verschieden Völkern bot sich der Glaube als verbindende (schon immer existierende) Instanz an. Trotzdem gab es nicht ausschließlich religiösen Nationalismus, und auch dieser konnte in seinem Absolutheitsanspruch sehr unterschiedlich sein. Im Ersten Weltkrieg verhielt sich die große Mehrheit der Bevölkerung loyal. Aus Verärgerung darüber, dass die Briten an der Aufteilung des Osmanischen Reiches beteiligt waren, schlossen sich nun auch viele Muslime der Unabhängigkeitsbewegung an. Am Zweiten Weltkrieg nahm Indien mit einer zunächst 200.000 Mann starken Freiwilligenarmee, die im Laufe des Krieges auf über zwei Millionen Soldaten anwuchs, auf Seiten Großbritanniens teil. Bei Kriegsende waren mehr als 24.000 indische Soldaten gefallen, über 11.000 vermisst und zwei Millionen Menschen verhungert. Auf der anderen Seite gab es aber auch Bestrebungen, vor allem vorangetrieben durch Subhash Chandra Bose, mit einer indischen Freiwilligenarmee im Bündnis mit den Achsenmächten gegen die britische Kolonialmacht die Freiheit Indiens zu erkämpfen. Der gewaltfreie Widerstand gegen die britische Kolonialherrschaft, vor allem unter Mohandas Karamchand Gandhi und Jawaharlal Nehru, führte 1947 zur Unabhängigkeit. Gleichzeitig verfügte die Kolonialmacht die Teilung der fast den gesamten indischen Subkontinent umfassenden Kolonie Britisch-Indien in zwei Staaten, die säkulare Indische Union sowie die kleinere Islamische Republik Pakistan. Die Briten erfüllten damit die seit den 1930er Jahren lauter werdenden Forderungen der Muslimliga und ihres Führers Muhammad Ali Jinnah nach einem eigenen Nationalstaat mit muslimischer Bevölkerungsmehrheit. Entwicklungen seit der Unabhängigkeit. Die Teilung führte zu einer der größten Vertreibungs- und Fluchtbewegungen der Geschichte. Ungefähr 10 Millionen Hindus und Sikhs wurden aus Pakistan vertrieben, etwa 7 Millionen Muslime aus Indien. 750.000 bis eine Million Menschen kamen ums Leben. Die durch Schutzverträge an die Briten gebundenen Fürstenstaaten hatten schon vor der Unabhängigkeit ihren Beitritt zur Indischen Union erklärt. Lediglich zwei standen dem Eingliederungsprozess der Fürstentümer ernsthaft im Weg. Der muslimische Herrscher des fast ausschließlich hinduistischen Hyderabad wurde durch einen Einmarsch indischer Truppen zu Fall gebracht. In Kaschmir verzögerte der Maharadscha, selbst Hindu bei überwiegend muslimischer Bevölkerung, seine Entscheidung. Nachdem muslimische Kämpfer in sein Land eingedrungen waren, entschied er sich schließlich doch zum Beitritt zu Indien, welches daraufhin den größten Teil des ehemaligen Fürstentums besetzte. Pakistan betrachtete den Beitritt als unrechtmäßig, was zum Ersten Indisch-Pakistanischen Krieg um Kaschmir (1947 bis 1949) führte. Seitdem schwelt in der Grenzregion der Kaschmir-Konflikt, der 1965 auch den Zweiten Indisch-Pakistanischen Krieg und 1999 den Kargil-Krieg zur Folge hatte. Am 26. November 1949 trat Indien dem Commonwealth of Nations bei und am 26. Januar 1950 trat die vor allem von Bhimrao Ambedkar ausgearbeitete Verfassung in Kraft, durch die Indien zur Republik wurde. Grenzstreitigkeiten führten 1962 zu einem kurzen Krieg mit der Volksrepublik China, dem sogenannten Indisch-Chinesischen Grenzkrieg. Die indische Unterstützung einer Unabhängigkeitsbewegung im damaligen Ostpakistan führte 1971 zu einem dritten Krieg Indiens gegen Pakistan mit folgender Teilung Pakistans und Gründung des neuen, ebenfalls islamisch geprägten Staates Bangladesch. Innenpolitisch bestimmte unter Jawaharlal Nehru, Premierminister 1947 bis 1964, und danach noch bis Anfang der 1970er Jahre die Kongresspartei überlegen die junge, unabhängige Demokratie. Oppositionsparteien konnten bestenfalls auf Bundesstaaten- oder kommunaler Ebene ihren Einfluss geltend machen. Erst als Nehrus Tochter Indira Gandhi, die 1966 Premierministerin wurde, die Partei zentralisierte und ihre eigene Machtposition auszubauen versuchte, gelang es der Opposition, sich auf Bundesebene zu formieren. Ein Gericht in Allahabad befand Indira 1975 einiger Unregelmäßigkeiten bei den Wahlen des Jahres 1971 für schuldig. Anstatt den Rücktrittsforderungen ihrer politischen Gegner zu folgen, rief sie den Notstand aus und regierte bis 1977 per Dekret. Demokratische Grundrechte wie Presse- und Versammlungsfreiheit waren stark eingeschränkt. Die zunehmende Unzufriedenheit der Bevölkerung mit dem "de facto" diktatorischen Regime äußerte sich 1977 in einer deutlichen Wahlniederlage Indira Gandhis. Zwischen 1977 und 1979 stellte daher erstmals nicht die Kongresspartei, sondern eine Koalition unter Führung der Janata Party die Regierung Indiens. In den Wahlen von 1980 gelang es Indira Gandhi, an die Macht zurückzukehren. In ihre zweite Amtsperiode fällt die Zuspitzung des Konflikts im Punjab, wo sikhistische Separatisten einen eigenen Staat forderten. Als sich militante Sikhs im Goldenen Tempel in Amritsar verschanzten, ordnete Indira Gandhi 1984 die "Operation Blue Star" an. Indische Truppen stürmten den Tempel und beendeten dessen Besetzung. Daraufhin kam es zu blutigen Ausschreitungen, die in der Ermordung Indira Gandhis durch ihre Sikh-Leibwächter gipfelten. Ihr Sohn Rajiv Gandhi übernahm die Regierungsgeschäfte, war aber nicht in der Lage, die von ihm geplanten Reformvorhaben wirkungsvoll umzusetzen. Ein Bestechungsskandal im Zusammenhang mit dem schwedischen Rüstungskonzern Bofors schädigte sein Ansehen schließlich dermaßen, dass die Opposition 1989 einen klaren Sieg über Gandhis Kongresspartei erringen konnte. Nach zweijähriger Unterbrechung gelangte sie von 1991 bis 1996 jedoch erneut an die Macht. Die Regierung von P. V. Narasimha Rao leitete die wirtschaftliche Öffnung und außenpolitische Neuorientierung des seit Nehru sozialistisch ausgerichteten Landes ein. Zum Reformprogramm gehörten unter anderem die Privatisierung von Staatsbetrieben, die Aufhebung von Handelsbeschränkungen, die Beseitigung bürokratischer Investitionshemmnisse und Steuersenkungen. Die Wirtschaftsreformen wurden von späteren Regierungen fortgeführt. Seit den 1980er Jahren verzeichnet der Hindu-Nationalismus einen deutlichen Aufschwung. Die Auseinandersetzung um die anstelle eines bedeutenden Hindutempels errichtete Babri-Moschee in Ayodhya (Uttar Pradesh) entwickelte sich zu einer der bestimmenden innenpolitischen Streitfragen. 1992 zerstörten hinduistische Extremisten das muslimische Gotteshaus, was zu schweren Ausschreitungen in weiten Teilen des Landes führte. Der politische Arm der Hindu-Nationalisten, die Bharatiya Janata Party (BJP), führte zwischen 1998 und 2004 eine Regierungskoalition an und stellte mit Atal Bihari Vajpayee den Regierungschef. 2004 unterlag sie jedoch überraschend der neu aufgestellten Kongresspartei unter Sonia Gandhi. Die Witwe des 1991 während des Wahlkampfes ermordeten Rajiv Gandhi verzichtete nach Protesten der Opposition wegen ihrer italienischen Abstammung auf das Amt als Premierministerin. Stattdessen übernahm Manmohan Singh diese Stellung, der als Finanzminister unter Rao die wirtschaftliche Liberalisierung Indiens wesentlich mitgestaltet hatte. Bei der Wahl 2009 konnte die Kongresspartei ihre Mehrheit noch ausbauen und Singh blieb bis 2014 Premierminister. Bei der Wahl 2014 erreichte die oppositionelle BJP einen erdrutschartigen Sieg und ihr Spitzenkandidat Narendra Modi wurde zum Ministerpräsidenten gewählt. Heute sind die fundamentalen Probleme Indiens trotz des deutlichen wirtschaftlichen Aufschwungs noch immer die ausgedehnte Armut als auch die starke Überbevölkerung, die zunehmende Umweltverschmutzung sowie ethnische und religiöse Konflikte zwischen Hindus und Muslimen. Dazu tritt der fortdauernde Streit mit Pakistan um die Region Kaschmir. Besondere Brisanz erhält der indisch-pakistanische Gegensatz durch die Tatsache, dass beide Staaten Atommächte sind. Indien hatte 1974 erstmals einen Atomtest durchgeführt. Auf weitere Kernwaffenversuche im Jahre 1998 reagierte Pakistan mit eigenen Atomtests. In den letzten Jahren war eine Annäherung zwischen Indien und Pakistan zu bemerken. So fanden Gefangenenaustausche statt und wurden Verbindungen in der Kaschmirregion geöffnet. Terrorismus und ethnische Konflikte. Seit 1986 kämpfen verschiedene Gruppierungen im mehrheitlich muslimischen Kaschmir mit gewaltsamen Mitteln für die Unabhängigkeit ihrer Region oder den Anschluss an Pakistan (Kaschmir-Konflikt). Immer wieder werden in der Region Anschläge auf Einrichtungen des indischen Staates, so im Oktober 2001 auf das Regionalparlament von Jammu und Kashmir in Srinagar, auf die in Kaschmir stationierten Streitkräfte oder gegen hinduistische Dorfbewohner und Pilger verübt. Doch nicht nur in Kaschmir, sondern auch in anderen Teilen Indiens kam es wiederholt zu terroristischen Anschlägen, die kaschmirischen Separatisten oder islamistischen Terrororganisationen wie Laschkar e-Taiba zugeschrieben wurden. Die bisher schlimmste Anschlagsserie fand am 12. März 1993 statt, als zehn Bombenexplosionen auf die Börse und Hotels in Mumbai sowie Züge und Tankstellen 257 Menschen töteten und 713 Personen verletzten. Im Dezember 2001 stürmten Islamisten das Parlament in Neu-Delhi, wobei 14 Menschen ums Leben kamen. 52 Tote gab es im August 2003, als zwei mit Sprengstoff beladene Taxis in Mumbai explodierten. Nach drei Bombenexplosionen auf Märkten in Neu-Delhi waren im Oktober 2005 62 Opfer zu beklagen. Im März 2006 starben bei einem Doppelanschlag auf den Bahnhof und einen Tempel in der Stadt Varanasi 20 Menschen. Bei Bombenanschlägen auf Züge in Mumbai wurden im Juli 2006 rund 200 Menschen getötet und mehr als 700 Personen verletzt. Am 18. Februar 2007 explodierten im „Freundschafts-Express“, der einzigen Zugverbindung zwischen Indien und Pakistan, 100 Kilometer nördlich von Delhi zwei Brandbomben. Dabei kamen mindestens 65 Menschen ums Leben. Am 25. August 2007 kam es in Hyderabad zu zwei Bombenexplosionen, bei denen mindestens 42 Personen starben und viele weitere verletzt wurden. Eine dritte Bombe wurde gefunden und konnte entschärft werden. Welches Ziel der oder die Attentäter mit den Bombenanschlägen in gut besuchten Freizeitorten verfolgten, wurde zunächst nicht bekannt. (Hyderabad hat mit fast 40 Prozent den höchsten muslimischen Bevölkerungsanteil der indischen Metropolen.) Eine Serie von Bombenanschlägen erschüttert Indien 2008. Am 25. Juli explodierten zwei Bomben vor Polizeistationen und sechs weitere Bomben in Bangalore. Innerhalb von 15 Minuten wurden bei den acht Bombenanschlägen zwei Menschen getötet und sechs Menschen verletzt. Eine Explosionsserie von 16 Bomben innerhalb von 90 Minuten in der Millionenmetropole Ahmedabad im westindischen Bundesstaat Gujarat forderte am 26. Juli 2008 mindestens 130 Tote und über 280 Verletzte. Eine mutmaßlich muslimische Terrorgruppe "Indische Mudschaheddin", vermutlich eine Splittergruppe der radikal-islamischen Laschkar e-Taiba, bekannte sich zu den Terroranschlägen in Ahmedabad. Bei den Anschlägen in Mumbai am 26. November 2008 kam es in der indischen Metropole Mumbai innerhalb kurzer Zeit zu 17 Explosionen, Angriffen mit Schnellfeuerwaffen und zu Geiselnahmen an zehn verschiedenen Stellen der Stadt durch eine Gruppe von etwa zehn Angreifern, die sich in mehrere Gruppen aufgeteilt hatten. Nach Angaben der indischen Behörden hat es dabei mindestens 239 Verletzte und 174 Tote gegeben. Demografie. Nach der Volkszählung 2011 beträgt die Einwohnerzahl Indiens 1.210.569.573. Damit ist Indien nach der Volksrepublik China der bevölkerungsreichste Staat der Erde. Die Bevölkerungsdichte beträgt 388 Einwohner je Quadratkilometer (Deutschland: 231 je Quadratkilometer). Gleichwohl sind nicht alle Landesteile derart dicht besiedelt, vielmehr ist die Bevölkerung höchst ungleichmäßig verteilt. Sie ballt sich vor allem in fruchtbaren Landstrichen wie der Gangesebene, Westbengalen und Kerala, während der Himalaya, die Berggegenden des Nordostens sowie trockenere Regionen in Rajasthan und auf dem Dekkan nur eine geringe Besiedlungsdichte aufweisen. So leben in Bihar durchschnittlich 1106 Menschen auf einem Quadratkilometer, während es in Arunachal Pradesh nur 17 sind. Am 11. Mai 2000 überschritt Indiens Bevölkerungszahl offiziell die Milliardengrenze. Während es von 1920 – damals hatte Indien 250 Millionen Einwohner – 47 Jahre bis zu einer Verdoppelung der Bevölkerung dauerte, waren es von 1967 bis 2000 nur noch 33 Jahre. Das Wachstum der Bevölkerung hat sich in den letzten Jahrzehnten nur wenig abgeschwächt und liegt im Moment bei 1,4 % pro Jahr, was einem jährlichen Bevölkerungszuwachs von 15 Millionen Menschen entspricht. Damit verzeichnet Indien im Moment den größten absoluten Zuwachs aller Staaten der Erde. Der relative Zuwachs liegt jedoch nur wenig über dem Weltdurchschnitt. Schätzungen zufolge wird sich das Bevölkerungswachstum in Indien in den nächsten Jahrzehnten kaum abschwächen, und Indien wird die Volksrepublik China bis zum Jahre 2025 als bevölkerungsreichstes Land der Erde abgelöst haben. Das Bevölkerungswachstum erklärt sich nicht aus einer gestiegenen Geburtenrate, sondern aus der in den letzten Jahrzehnten gestiegenen Lebensdauer, das heißt der Reduktion der Sterberate. Dies ist unter anderem auf eine Verbesserung der Gesundheitsfürsorge zurückzuführen. In der Mortalität hatte Indien bereits 1991 mit Deutschland gleichgezogen (10 pro 1000), für 2006 wird sie auf 8,18 pro 1000 geschätzt. Die Geburtenziffer blieb allerdings hoch (1991: 30 pro 1000) und sinkt nur allmählich (2006: 22,01 pro 1000). Die Fruchtbarkeitsrate ging von 5,2 Kindern je Frau (1971) auf 3,6 (1991) zurück, im Jahr 2013 lag sie bei 2,3. Das durchschnittliche Alter der indischen Bevölkerung lag 2006 bei 24,9 Jahren, während die durchschnittliche Lebenserwartung für Männer 63,9 Jahre (1971 waren es nur 44 Jahre) und für Frauen 65,6 Jahre (1971 waren es nur 46 Jahre) betrug. In Deutschland sind es zum Vergleich bei Männern 75 Jahre und bei Frauen 81 Jahre. Indien ist somit eines der wenigen Länder der Erde, in denen die Lebenserwartung bei Männern und Frauen fast identisch ist. Ein Drittel der Bevölkerung ist jünger als 15 Jahre. Indien gehört auch zu den Ländern, in denen es deutlich mehr Männer gibt: Laut der Volkszählung 2011 kommen auf 1000 Männer 943 Frauen. In den letzten dreißig Jahren wurde die Verstädterung Indiens zu 60 Prozent von natürlichem Bevölkerungswachstum (in den Städten) getragen. Zuwanderung (aus ländlichen Gebieten) trug zu einem Fünftel des Wachstums städtischer Bevölkerung bei. Ein weiteres Fünftel des Wachstums verteilt sich gleichmäßig auf die Bildung neuer Städte durch statistische Umklassifizierung und durch die Ausdehnung von Grenzen oder Sprawl. Damit hat Indien heute 46 Städte mit mehr als einer Million Einwohner (Stand: Volkszählung 2011). Allein der Ballungsraum Mumbai hat mittlerweile über 18 Millionen Einwohner und damit eine größere Bevölkerung als ganz Australien. Dennoch stellt die städtische Bevölkerung mit einem Anteil an der Gesamteinwohnerzahl von lediglich 31,2 Prozent (Volkszählung 2011) eine Minderheit dar. Schätzungsweise 25 Millionen indische Staatsbürger und Personen indischer Herkunft ("Non-resident Indians" und "Persons of Indian Origin") leben im Ausland. Während englischsprachige westliche Staaten wie die USA, Großbritannien und Kanada vor allem gut ausgebildete Fachkräfte anziehen, sind in den Golfstaaten (besonders Vereinigte Arabische Emirate, Kuwait und Saudi-Arabien) viele Inder als „Billigarbeitskräfte“ angestellt, seltener auch in höheren Positionen. Während der britischen Kolonialzeit wurden Inder als Arbeiter in anderen Kolonien angeworben, daher leben viele Personen indischer Abstammung in Malaysia, Südafrika, Mauritius, Trinidad und Tobago, Fidschi, Guyana und Singapur. Sie besitzen in der Regel die Staatsbürgerschaft des jeweiligen Landes. Überweisungen von Auslandsindern an ihre Angehörigen in Indien stellen einen bedeutenden Wirtschaftsfaktor dar. Nachfolgend sind Einwohnerzahlen Indiens zwischen 1700 und 2050 aufgeführt. Die Zahlen für 2025 und 2050 sind Prognosen. Bevölkerungsentwicklung Indiens seit 1700 (beachte Gebietsstandänderung) Bei einem Vergleich der Zahlen sind die Gebietsveränderungen im Laufe der Zeit zu beachten. Die Zahlenangaben bis 1875 sind nach dem Gebietsstand von Britisch-Indien, also einschließlich Bangladesch, Myanmar und Pakistan, berechnet, die Angaben ab 1900 in den heutigen Grenzen der Republik Indien. Ethnische Zusammensetzung. Indien ist ein Vielvölkerstaat, dessen ethnische Vielfalt ohne weiteres mit der des gesamten europäischen Kontinents vergleichbar ist. Etwa 72 Prozent der Bevölkerung sind Indoarier. 25 Prozent sind Draviden, die hauptsächlich im Süden Indiens leben. 3 Prozent entfallen auf sonstige Völkergruppen, vor allem tibeto-birmanische, Munda- und Mon-Khmer-Völker im Himalayaraum sowie Nordost- und Ostindien. 8,6 Prozent der Einwohner gehören der indigenen Stammesbevölkerung an, die sich selbst als Adivasi bezeichnet, obwohl sie ethnisch höchst uneinheitlich ist. Die indische Verfassung erkennt mehr als 600 Stämme als sogenannte "scheduled tribes" an. Sie stehen meist außerhalb des hinduistischen Kastensystems und sind trotz bestehender Schutzgesetze sozial stark benachteiligt. Hohe Bevölkerungsanteile haben die Adivasi in der Nordostregion (besonders in Mizoram, Nagaland, Meghalaya, Arunachal Pradesh, Manipur, Tripura, Sikkim) sowie in den ost- und zentralindischen Bundesstaaten Jharkhand, Chhattisgarh, Odisha und Madhya Pradesh. Auf Grund der sozialen Diskriminierung genießen linksradikale Gruppierungen wie die maoistischen Naxaliten bei Teilen der Adivasi starken Rückhalt. Dazu kommen separatistische Bewegungen verschiedener Völker – etwa der mongoliden Naga, Mizo und Bodo, aber auch der indoarischen Assamesen – in Nordostindien, wo Spannungen zwischen der einheimischen Bevölkerung und zugewanderten Bengalen, größtenteils illegale Einwanderer aus Bangladesch, für zusätzliches Konfliktpotenzial sorgen. Die Zahl der illegal eingewanderten Bangladescher in Indien wird auf bis zu 20 Millionen geschätzt. Die rund 100.000 in Indien lebenden Exiltibeter, die seit der chinesischen Besetzung Tibets in den 1950er Jahren aus ihrer Heimat geflohen sind, werden dagegen offiziell als Flüchtlinge anerkannt und besitzen eine Aufenthaltsgenehmigung. Des Weiteren leben etwa 60.000 tamilische Flüchtlinge aus Sri Lanka auf indischem Gebiet. Sprachen und Schriften. In Indien werden weit über 100 verschiedene Sprachen gesprochen, die vier verschiedenen Sprachfamilien angehören. Neben den beiden überregionalen Amtssprachen Hindi und Englisch erkennt die indische Verfassung die folgenden 21 Sprachen an: Asamiya, Bengalisch, Bodo, Dogri, Gujarati, Kannada, Kashmiri, Konkani, Maithili, Malayalam, Marathi, Meitei, Nepali, Oriya, Panjabi, Santali, Sanskrit, Sindhi, Tamil, Telugu und Urdu. Die meisten dieser Sprachen dienen in den Bundesstaaten, in denen sie von einer Bevölkerungsmehrheit gesprochen werden, auch als Amtssprachen. Englisch ist Verwaltungs-, Unterrichts- und Wirtschaftssprache. Von den Verfassungssprachen gehören 15 der indoarischen, vier der dravidischen (Telugu, Tamilisch, Kannada und Malayalam), zwei der tibetobirmanischen bzw. sinotibetischen Sprachfamilie (Bodo, Meitei) und jeweils eine der austroasiatischen (Santali) und der germanischen (Englisch) an. In letzter Zeit gab es Versuche, den Gebrauch des Sanskrit wiederzubeleben. Sanskrit ist eine klassische, heute nicht mehr als Erst- oder Muttersprache verwendete Sprache, die in Indien einen ähnlichen Stellenwert besitzt wie das Lateinische in Europa. Sie gehört ebenfalls zu den offiziell anerkannten Verfassungssprachen, wird aber nirgends als Amtssprache verwendet. Das "Central Board of Secondary Education" (CBSE) hat in den Schulen, die es reguliert, Sanskrit zur dritten der unterrichteten Sprachen gemacht. In diesen Schulen ist der Sanskritunterricht für die fünften bis achten Schulklassen obligatorisch. Über die Beibehaltung des Status des Englischen als Amtssprache wird alle 15 Jahre neu entschieden. Englisch gilt weiterhin als Prestige-Sprache und wird nur von einer privilegierten Minderheit der Bevölkerung fließend gesprochen. Wenn sich Menschen unterschiedlicher Sprachgemeinschaften begegnen, sprechen sie im Norden entweder Hindi oder Englisch miteinander, im Süden eine der dravidischen Sprachen oder Englisch. Neben den Verfassungssprachen sind auch noch Hindustani, der im Norden Indiens weit verbreitete „Vorgänger“ von Hindi und Urdu, Rajasthani als Oberbegriff der Dialekte Rajasthans und Mizo erwähnenswert. Bihari ist der Oberbegriff für die Dialekte in Bihar, wozu auch Maithili, Bhojpuri und Magadhi gehören. Die meisten Sprachen weisen unterschiedliche Schriftsysteme auf. Während für Hindi, Marathi, Nepali, Konkani und Sanskrit eine gemeinsame Schrift verwendet wird (Devanagari), werden Telugu, Tamilisch, Kannada, Malayalam, Gujarati, Oriya, Punjabi und Santali durch eine jeweils eigene Schrift charakterisiert. Für Bengalisch, Asamiya und Meitei wird eine weitere Schrift (Bengalische Schrift) verwendet. Urdu wird in arabischer Schrift geschrieben, Kashmiri und Sindhi werden in arabischer Schrift oder auch in Devanagari geschrieben. Zusammensetzung. In Indien entstanden vier der großen Religionen: Hinduismus, Buddhismus, Jainismus und Sikhismus. Der Islam kam infolge von Handel und Eroberungen durch das Mogulreich, das Christentum durch frühe Missionierungen im ersten Jahrhundert und dann durch den Kolonialismus, der Zoroastrismus (Parsismus) aufgrund von Einwanderungen ins Land. Indien bietet also eine außerordentlich reichhaltige Religionslandschaft. Obwohl der Buddhismus über Jahrhunderte die bevorzugte Religion war, starb der Hinduismus nie aus und konnte seine Stellung als dominierende Religion langfristig behaupten. Im Mittelalter brachten indische Händler und Seefahrer den Hinduismus bis nach Indonesien und Malaysia. Obwohl Indien bis heute ein hinduistisch geprägtes Land ist, hat Indien nach Indonesien und Pakistan die weltweit drittgrößte muslimische Bevölkerung (etwa 140 Millionen), und nach dem Iran die zweitgrößte Anzahl von Schiiten. Die Religionen verteilen sich nach der Volkszählung 2011 wie folgt: 79,8 % Hindus, 14,2 % Muslime, 2,3 % Christen, 1,7 % Sikhs, 0,7 % Buddhisten, 0,4 % Jainas und 0,7 % andere (zum Beispiel traditionelle Adivasi-Religionen, Bahai oder Parsen). Insgesamt 0,2 % der Inder gaben bei der Volkszählung keine Religionszugehörigkeit an bzw. gaben an, ohne Religion zu sein. Die Wurzeln des Hinduismus liegen im Veda (wörtl.: Wissen), religiösen Texten, deren älteste Schicht auf etwa 1200 v. Chr. datiert wird. Die Bezeichnung „Hinduismus“ wurde jedoch erst im 19. Jahrhundert allgemein üblich. Er verbindet viele Strömungen mit ähnlicher Glaubensgrundlage und Geschichte, die besonders bei den Lehren von Karma, dem Kreislauf der Wiedergeburten (Samsara) und dem Streben nach Erlösung übereinstimmen. Er kennt keinen einzelnen Religionsstifter, kein einheitliches Glaubensbekenntnis und keine religiöse Zentralbehörde. Die wichtigsten populären Richtungen sind der Shivaismus, der Vishnuismus und der Shaktismus. Daneben ist die Indische Volksreligion regional und lokal weit verbreitet. Religiöse Lehrer (Gurus) und Priester haben einen großen Stellenwert für den persönlichen Glauben. Die Adivasi (Ureinwohner) widersetzten sich oft den Missionsversuchen der großen Religionen und behielten teilweise ihre eigene Religion. Die indigenen Völker Indiens haben einiges mit dem Hinduismus gemeinsam, so etwa den Glauben an die Reinkarnation, eine äußere Vielfalt von Göttern und eine Art von Kastenwesen. Nicht selten werden lokale Gottheiten oder Stammesgottheiten einfach in das hinduistische Pantheon integriert – eine Herangehensweise, die historisch zur Ausbreitung des Hinduismus beigetragen hat. Besonders heute besteht eine starke Tendenz der „Hinduisierung“ (in der Indologie „Sanskritisierung“), gesellschaftliche Sitten der Hindus und deren Formen der Religionsausübung werden übernommen. Der Buddhismus ist heute vor allem als „Neobuddhismus“ bei den unberührbaren Kasten vor allem in Maharashtra populär („Bauddha“), die auf diese Art und Weise versuchen, den Diskriminierungen des Kastensystems zu entkommen. Ins Leben gerufen wurde diese Bewegung durch den Rechtsanwalt Bhimrao Ramji Ambedkar (1891–1956), der selbst einer unberührbaren Kaste angehörte. Hinzu kommen kleinere Gruppen tibetischer Buddhisten in den Himalaya-Gebieten von Ladakh, Sikkim und Arunachal Pradesh sowie die tibetische Exilgemeinde in Dharamsala, dem Sitz des amtierenden Dalai Lama sowie der tibetischen Exilregierung. Die Parsen, die heute hauptsächlich in Mumbai leben, bilden eine kleine, überwiegend wohlhabende und einflussreiche Gemeinschaft (etwa 70.000 Menschen). Nicht zuletzt auch durch ihr ausgeprägtes soziales Engagement spielen sie trotz geringer Bevölkerungsanzahl in der indischen Gesellschaft eine wichtige Rolle. In Europa sind sie durch ihre Bestattungsgepflogenheiten („Türme des Schweigens“) bekannt. Auch die Jainas sind oft wohlhabend, da sie aufgrund ihres Glaubens, der das Töten von Lebewesen verbietet, überwiegend Kaufleute und Händler sind. Parsen und Jainas gehören meist der Mittel- und Oberschicht an. Die Mehrheit der indischen Muslime gehört der sunnitischen Richtung an, außerdem leben mehr als 20 Millionen Schiiten in Indien. Darüber hinaus existieren kleinere Glaubensrichtungen innerhalb des Islam: Eher fundamentalistisch ist die Dar ul-Ulum in Deoband im nördlichen Bundesstaat Uttar Pradesh, auf die sich unter anderem die afghanischen Taliban berufen, wenn auch in radikal verkürzter Interpretation. Die Situation der Muslime in Indien ist schwierig. Sie sind ärmer und weniger gebildet als der Durchschnitt. In Politik und Staatsdienst sind sie unterrepräsentiert. Zu bemerken ist jedoch, dass der ehemalige Staatspräsident Indiens, A. P. J. Abdul Kalam, ein Muslim war. Die Sikhs sind hauptsächlich im Nordwesten Indiens (Punjab) beheimatet. Ihre Stellung in der Gesellschaft ist geprägt durch den Erfolg vor allem im militärischen Bereich, aber auch im politischen Leben. Der ehemalige indische Premierminister Manmohan Singh ist ein Sikh. 53 n. Chr. soll ein Apostel Jesu, Thomas, nach Indien gekommen sein und dort entlang der südlichen Malabarküste mehrere christliche Gemeinden gegründet haben. Die „Thomaschristen“ in Kerala führen ihren Ursprung auf den Apostel Thomas zurück. Portugiesische Missionare führten im späten 15. Jahrhundert den römischen Katholizismus ein und verbreiteten ihn entlang der Westküste, etwa in Goa, sodass römische Katholiken heute den größten Anteil an der christlichen Bevölkerung Indiens stellen. Die Briten zeigten zwar wenig Interesse an der Missionierung, dennoch konvertierten viele Stammesvölker im Nordosten (Nagaland, Mizoram, Meghalaya, Manipur, Arunachal Pradesh) zur Anglikanischen Kirche oder anderen evangelischen Konfessionen. In jüngerer Zeit traten auch Angehörige unberührbarer Kasten sowie Adivasi zum Christentum über, um der Ungerechtigkeit des Kastensystems zu entkommen. Als Indien seine Unabhängigkeit erlangte, lebten auch noch rund 25.000 Juden in Indien. Nach 1948 verließen jedoch die meisten von ihnen ihre Heimat gen Israel. Heute wird die Zahl der in Indien verbliebenen Juden auf 5000 bis 6000 geschätzt, wovon die Mehrheit in Mumbai lebt. Religiöse Konflikte. Der Laizismus, die Trennung von Staat und Religion, zählt zu den wesentlichsten Grundsätzen des indischen Staates und ist in seiner Verfassung verankert. Seit Jahrhunderten bestehen verschiedene Glaubensrichtungen zumeist friedlich nebeneinander. Dennoch kommt es manchmal zu regional begrenzten, religiös motivierten Auseinandersetzungen. Bei der Teilung Indiens 1947 und beim Bangladesch-Krieg 1971 kam es zwischen Hindus und Muslimen zu massiven Ausschreitungen. Unruhen zwischen Anhängern der beiden Glaubensrichtungen brechen in Indien in gewissen Zeitabständen immer wieder aus. Ein Konfliktpunkt ist nach wie vor Kaschmir, dessen überwiegend muslimische Bevölkerung teilweise gewalttätig für die Unabhängigkeit oder den Anschluss an Pakistan eintritt. Geschürt werden sie seit den späten 1980er Jahren durch den aufkeimenden Hindu-Nationalismus (Hindutva) und islamischen Fundamentalismus. Einer der Höhepunkte der Auseinandersetzungen war die Erstürmung und Zerstörung der Babri-Moschee in Ayodhya (Uttar Pradesh) durch extremistische Hindus im Dezember 1992, da das islamische Gotteshaus einst an der Stelle eines bedeutenden Hindu-Tempels errichtet worden war, der den Geburtsort Ramas markieren sollte. Die letzten Unruhen traten 2002 in Gujarat auf, als 59 Hindu-Aktivisten "(kar sevaks)" in einem Zug verbrannt wurden. Infolge der eskalierenden Gewalt kamen etwa 2000 Menschen um, hauptsächlich Moslems. Die politische Situation in Kaschmir kostete seit 1989 aufgrund der Aktivitäten islamistischer Terroristen über 29.000 Zivilpersonen das Leben. Auch bei anderen Religionen traten Konflikte auf. Die Forderungen sikhistischer Separatisten nach einem unabhängigen Sikhstaat namens „Khalistan“ gipfelten 1984 in der Erstürmung des Goldenen Tempels in Amritsar durch indische Truppen "(Operation Blue Star)" und der Ermordung der damaligen Premierministerin Indira Gandhi durch ihre eigenen Sikh-Leibwächter. Insgesamt kamen bei den Unruhen im Jahre 1984 mehr als 3000 Sikhs ums Leben. In einigen Bundesstaaten ist es zu Pogromen gegen Christen gekommen. So wurden in der zweiten Jahreshälfte 2008 bei religiös motivierten Unruhen in Orissa mindestens 59 Christen getötet. In ihrer Antwort auf eine parlamentarische Anfrage vom 4. Dezember 2008 nennt die deutsche Bundesregierung folgendes Ausmaß der Gewalt gegen Christen in Orissa (Odisha): 81 Christen sind ums Leben gekommen, 20.000 Menschen befinden sich in Flüchtlingslagern, 40.000 weitere haben sich in Wäldern versteckt. 4677 Häuser, 236 Kirchen und 36 weitere kirchliche Einrichtungen wurden zerstört. Soziale Probleme. Nach Angaben der Weltbank haben heute 44 % der Einwohner Indiens weniger als einen US-Dollar pro Tag zur Verfügung. Auch wenn die Ernährungssituation seit den 1970er Jahren entscheidend verbessert werden konnte, ist noch immer mehr als ein Viertel der Bevölkerung zu arm, um sich eine ausreichende Ernährung leisten zu können. Unter- und Fehlernährung wie Vitaminmangel ist vornehmlich in ländlichen Gebieten ein weit verbreitetes Problem, wo der Anteil der Armen besonders hoch ist. Die regionale Aufteilung des Problems lässt sich am Hunger-Index für Indien klar erkennen, der Bundesstaat Madhya Pradesh fällt hier besonders ins Auge. 2007 waren 46 % der Kinder in Indien mangelernährt, nach Angaben von UNICEF sterben in Indien jährlich 2,1 Millionen Kinder vor dem fünften Lebensjahr. Kinderarbeit wird hauptsächlich auf dem Land geleistet, da das Einkommen vieler Bauernfamilien nicht zum Überleben ausreicht. Hoch verschuldete Bauern müssen oft nicht nur ihr Ackerland verkaufen, sondern auch ihre Dienstleistungen an die Grundherren verpfänden. Dieses als Schuldknechtschaft bezeichnete Phänomen stellt bis heute eines der größten Hindernisse in der Armutsbekämpfung dar. 2006 haben schätzungsweise 17.000 Bauern wegen hoher Verschuldung Selbstmord begangen. Die schlechten Lebensbedingungen im ländlichen Raum veranlassen viele Menschen zur Abwanderung in die Städte (Urbanisierung). Dabei sind die wuchernden Metropolen des Landes kaum in der Lage, ausreichend Arbeitsplätze für die Zuwanderer zur Verfügung zu stellen. Das Ergebnis sind hohe Arbeitslosigkeit und Unterbeschäftigung. Fast ein Drittel der Einwohner der Millionenstädte lebt in Elendsvierteln. Dharavi in Mumbai ist mit mehr als einer Million Menschen der größte Slum Asiens. Nach der Volkszählung 2011 werden 16,6 % der indischen Bevölkerung zu den so genannten Unberührbaren "(scheduled castes)" gerechnet, 8,6 % zählen zur indischen Stammesbevölkerung (Adivasi, offiziell "scheduled tribes"). Da beide Gruppen starker sozialer Benachteiligung ausgesetzt sind, sieht die indische Verfassung ihre Förderung in Form von Quoten vor. Über diese „positive Diskriminierung“ werden in Universitäten, berufsbildenden Institutionen und Parlamenten bis zu 50 % der Plätze für die "scheduled castes" (Angehörige der unteren Kasten) reserviert. Die Kastenfrage nimmt in der indischen Innenpolitik eine höchst brisante Stellung ein. Eine Ausweitung der Quoten auf niedere Kasten auf Vorschlag der umstrittenen Mandal-Kommission rief 1990 heftige Proteste von Angehörigen höherer Kasten hervor und führte zum Sturz von Premierminister Vishwanath Pratap Singh. Unzureichende schulische Bildung sowie Beratung in Fragen der reproduktiven Gesundheit hatte zur Folge, dass die Zahl der HIV-Infizierten ab den 1980er und 1990er Jahren rasch angestiegen ist, seit 1986 die ersten Infektionsfälle bekannt wurden. 2008 trugen rund 2,27 Millionen Inder im Alter zwischen 15 und 49 Jahren das Virus. Die Zahl der Infizierten liegt damit weltweit an dritter Stelle hinter Südafrika und Nigeria. In den Jahren nach 2002 ist ein prozentualer Rückgang an Infizierten zu verzeichnen. 2002 waren 0,45 % der erwachsenen indischen Bevölkerung infiziert, 2007 waren es 0,34 % und 2008 0,29 %. Die Übertragungswege des HI-Virus werden für 2009/10 mit 87,1 Prozent zwischen Heterosexuellen angegeben. Hierfür ist hauptsächlich der weitverbreitete ungeschützte Geschlechtsverkehr mit Prostituierten verantwortlich. Die Übertragung von Mutter zu Kind beträgt 5,4 % und zwischen Homosexuellen 1,5 %. Drogenabhängige sind mit 1,5 % an der Gesamtzahl der Übertragungsfälle beteiligt. Stellung der Frau. Frauen sind in der patriarchalisch geprägten indischen Gesellschaft trotz der rechtlichen Gleichstellung von Mann und Frau nach wie vor benachteiligt. Traditionell wurde Frauen zur Hochzeit eine Mitgift zum Aufbau eines eigenen Haushalts mitgegeben. Heute wird eine Aussteuer, obwohl sie seit 1961 gesetzlich untersagt ist, aus rein wirtschaftlichen Erwägungen von den Eltern der Braut verlangt. In manchen Fällen übersteigt sie das Jahreseinkommen der Familie der Braut. Gelegentlich kommt es zu so genannten Mitgiftmorden, wenn die Angehörigen der Braut nicht in der Lage sind, die hohen Forderungen zu erfüllen. Die Mitgiftproblematik trägt in nicht unerheblichem Maße dazu bei, dass Mädchen meist geringer angesehen sind als Jungen oder gar als unerwünscht gelten. Tatsächlich werden weit mehr weibliche Föten abgetrieben als männliche. So kommen nach der Volkszählung 2011 unter den Null- bis Sechsjährigen auf 1000 Jungen nur 919 Mädchen. 2001 hatte die Quote noch 927 betragen. Die Praxis der Mitgiftforderung fördert zudem ausbeuterische Arbeitsverhältnisse wie das Sumangali-Prinzip, da arme Eltern ihre Töchter in der Hoffnung auf eine selbst erwirtschaftete Mitgift bereitwillig den Rekrutierern mitgeben. Politisches System. Gemäß der Verfassung von 1950 ist Indien eine parlamentarische Demokratie. Indien ist, nach der Zahl der Bürger, die größte Demokratie der Erde. Das indische Parlament ist die gesetzgebende Gewalt und besteht aus zwei Kammern: dem Unterhaus (Lok Sabha) und dem Oberhaus (Rajya Sabha). Das Unterhaus wird auf fünf Jahre nach dem Prinzip des Mehrheitswahlrechtes gewählt. Wahlberechtigt ist jeder Staatsbürger, der das 18. Lebensjahr vollendet hat. Das Oberhaus ist die Vertretung der Bundesstaaten auf nationaler Ebene. Seine Mitglieder werden von den Parlamenten der Staaten gewählt. Die Parteienlandschaft des Landes ist äußerst vielfältig (vgl. Liste der politischen Parteien in Indien). Viele Parteien sind zwar auf bestimmte Bundesstaaten beschränkt, dennoch ergibt sich immer wieder die Notwendigkeit, Koalitionen zu bilden. Die „National Democratic Alliance“ (NDA) war eine Koalition, die zu Beginn ihrer Regierungszeit 1998 aus 13 Parteien bestand (unter Führung der BJP). Der Präsident als Staatsoberhaupt wird von einem Gremium der Abgeordneten des Bundes und der Länder auf fünf Jahre gewählt. Seit 2012 hat Pranab Mukherjee das Amt inne. Die Verfassung sieht vor, dass Bundesstaaten unter "President’s rule" gestellt werden können, wenn das Land als „unregierbar“ gilt. Dies war in der Vergangenheit in mehreren Bundesstaaten der Fall. Das Präsidentenamt ist jedoch überwiegend von zeremoniellen oder repräsentativen Aufgaben geprägt, die politische Macht liegt beim Premierminister. Üblicherweise erteilt der Premierminister dem Präsidenten einen entsprechenden „Rat“, der in der Regel befolgt wird. Zuletzt ließ Premierminister P. V. Narasimha Rao nach den Unruhen in Ayodhya 1993 alle vier BJP-Landesregierungen ihres Amtes entheben und die Länder unter "President’s rule" stellen. Der Präsident ist auch oberster Befehlshaber der Streitkräfte. Der Regierungschef in den 28 Bundesstaaten sowie in zwei von sieben Unionsterritorien ist der Chief Minister, der vom Parlament des jeweiligen Gebiets gewählt wird. Rechtssystem. Da in Indien Gewaltenteilung herrscht, ist die Judikative streng von Legislative und Exekutive getrennt. Oberster Gerichtshof des Landes ist der "Supreme Court" in Neu-Delhi mit 26 Richtern, die vom Präsidenten ernannt werden. Den Vorsitz hat der "Chief Justice of India." Streitigkeiten zwischen den Staaten und der Zentralregierung fallen in seine Zuständigkeit. Außerdem stellt er die höchste Berufungsinstanz des Landes dar. Dem "Supreme Court" untergeordnet sind 21 "High Courts" der Bundesstaaten. Ab der dritten Rechtsebene (Distriktebene) wird zwischen Zivil- und Strafgerichten unterschieden. Zivile Rechtsstreitigkeiten fallen in den "Metropolitan Districts" (Stadtdistrikten) in den Zuständigkeitsbereich der "City Civil Courts," welche den "District Courts" der Landdistrikte entsprechen. Für das Strafrecht sind in Stadt- und Landdistrikten die "Sessions Courts" verantwortlich. Außerdem existieren Sondergerichte für spezielle Bereiche wie Familien- und Handelsrecht. Die Rechtsprechung einfach gelagerter Streitfälle der untersten Ebene findet in den "Panchayati Rajs" der Dörfer "(Gram Panchayat)" statt. Infolge der britischen Rechtspraxis der Kolonialzeit findet in Indien heute noch vielfach das "Common Law" Anwendung, das sich nicht auf Gesetze, sondern auf maßgebliche Urteile hoher Gerichte in Präzedenzfällen stützt. Die Gerichtssprache ist Englisch, auf den unteren Ebenen kann aber auch in der jeweiligen regionalen Amtssprache verhandelt werden. Eine Besonderheit im vermeintlich säkularen Indien ist seine Gesetzgebung im Familien- und Erbrecht, die jeweils eigene Regelungen für Hindus (gilt gleichzeitig auch für Sikhs, Jains und Buddhisten) und Muslime aufrechterhält (siehe hierzu Gesetzgebung und Indien). Innenpolitik. Während des Unabhängigkeitskampfes bildete sich der Nationalkongress, der die Kolonialherrschaft der Engländer beenden sollte. Nach der Unabhängigkeit 1947 wurde die Kongresspartei stärkste Partei und bildete unter Jawaharlal Nehru die erste Regierung. Bis Mitte der 1990er Jahre dominierte die Kongresspartei meist unter Führung der Nehru-Gandhi-Familie, mit nur zwei kurzen Unterbrechungen, die Politik des Landes. Erst im Zusammenhang mit der geplanten „Wieder“errichtung des Ram-Janmabhumi-Tempels anstelle der Babri-Moschee in Ayodhya gelang es der Bharatiya Janata Party (BJP, Indische Volkspartei, Symbol: Lotosblüte) mit nationalistischen Parolen Unterstützung auf breiter Ebene zu finden. Dies gipfelte in dem Marsch auf Ayodhya und dem Abriss der Moschee, der im ganzen Land zu Ausschreitungen und Übergriffen, vor allem gegen Muslime, mit vielen Toten führte. Die polarisierende und pro-hinduistisch ausgerichtete Politik der BJP steht ganz im Zeichen der hindunationalistischen Hindutva-Bewegung, die – auch unter Beteiligung von paramilitärischen Gruppen, wie dem Nationalen Freiwilligencorps (Rashtriya Swayamsevak Sangh, kurz RSS) – die Hinduisierung Indiens und in ihren extremen Auswüchsen die Vertreibung der muslimischen und christlichen Bevölkerung zum Ziel hat. Von 1998 bis 2004 stellte die BJP die Regierung unter dem als eher gemäßigt geltenden Atal Bihari Vajpayee als Premierminister. Nach einem Anschlag auf einen Zug mit Pilgern im Jahre 2002 begannen Massaker in Gujarat, die von der dort regierenden BJP nur halbherzig bekämpft wurden. Diese Unruhen haben dann doch wohl viele moderate Hindus zu einem gewissen Umdenken gebracht, zumal die von der Indischen Volkspartei hochgehaltene Vision eines "Shining India" („Strahlendes Indien“) weite Teile der Bevölkerung, die nicht vom Boom der letzten Jahre profitierten, ob der hochgesteckten Ziele eher skeptisch werden ließ. Bei der Parlamentswahl 2004 erzielte die oppositionelle Kongresspartei unter Sonia Gandhi einen unerwarteten Sieg. Überraschend für ihre Parteienkoalition lehnte sie es ab, den Posten des Premierministers zu übernehmen, Manmohan Singh wurde am 22. Mai 2004 als Premierminister vereidigt. Bei der Parlamentswahl 2009 konnte die Parteienkoalition der United Progressive Alliance unter Führung des Indischen Nationalkongress ihren parlamentarischen Rückhalt deutlich ausbauen, so dass Manmohan Singh erneut zum Premierminister gewählt wurde. Bei der Wahl 2014 wurde Narendra Modi zum Premierminister gewählt, seine Bharatiya Janata Party errang mit großem Vorsprung 31 Prozent der Stimmen. Außenpolitik. Vier Jahrzehnte lang war die indische Außenpolitik durch das Engagement in der Bewegung der Blockfreien Staaten und das „besondere Freundschaftsverhältnis“ mit der Sowjetunion geprägt, die besonders Jawaharlal Nehru vorantrieb. Die drei Leitlinien indischer Blockfreiheit bestanden darin, Militärbündnissen mit amerikanischer oder sowjetischer Beteiligung fernzubleiben, außenpolitischen Herausforderungen sachgerecht und vollständig aus indischer Perspektive zu begegnen und freundschaftliche Beziehungen zu allen Ländern zu betreiben. Dabei betrachtete sich Indien nicht als äquidistant, sondern suchte bis zum Krieg gegen China 1962 die Führungsrolle innerhalb der blockfreien Bewegung. Dies drückte sich beispielsweise in der Entsendung von Friedenstruppen in den Gazastreifen 1956 und in den Kongo 1961 aus, sowie in der Verurteilung der franko-britischen Intervention in der Sueskrise. Ebenso verurteilte es das sowjetische Vorgehen zu Beginn des Koreakrieges 1950 und 1956 als inakzeptable Einmischung. Nach dem Ende des Kalten Krieges orientierte Indien sich neu. Die historisch eher schwierigen Beziehungen zu den USA verbesserten sich; im März 2000 besuchte US-Präsident Bill Clinton Indien. Die USA bemühten sich nun stärker um Indien als strategischen Partner. Hinsichtlich des Kaschmir-Konflikts stützten die USA nun stärker die Haltung Indiens. Nach den Terroranschlägen am 11. September 2001 stellte sich Indien ohne Einschränkung auf die Seite der USA. Heute werden die außenpolitischen Ziele Indiens vor allem durch das Bemühen, einen ständigen Sitz im UN-Sicherheitsrat zu erlangen, charakterisiert. Hierbei zieht Indien China als Vergleichsmaßstab heran und strebt eine Statusaufwertung an. Indien beansprucht aufgrund seiner Größe und zivilisatorischen Bedeutung denselben Rang wie China, das als anerkannte Atommacht mit ständigem Sitz im Sicherheitsrat der Vereinten Nationen vertreten ist. Indien führte zwei Kernwaffentests durch, den ersten 1974 unter Indira Gandhi, den zweiten im Mai 1998 unter Atal Bihari Vajpayee. Zwei Wochen später, am 28. Mai, zündete Pakistan zum ersten Mal einen Atomtest. Den Atomwaffensperrvertrag haben weder Indien noch Pakistan unterschrieben. Die Beziehungen zwischen beiden Staaten sind seit dem Ende der Kolonialzeit durch den Kaschmir-Konflikt belastet. Einen letzten Höhepunkt der „Eiszeit“ zwischen Indien und Pakistan bildeten die Gefechte in Kargil 1999. Ein Friedensprozess begann 2004; er geriet aber 2008 nach Anschlägen im indischen Mumbai mit 166 Toten ins Stocken. Indien macht pakistanische Islamisten für die Tat verantwortlich. 2010 und 2011 kamen die beiden Außenminister zu Treffen zusammen. Die Atomtests im Mai 1998 wurden zwar stets mit dem Verweis auf die chinesische Bedrohung gerechtfertigt (Angriff Chinas von 1962), in erster Linie verfolgt Indien mit den Tests jedoch wohl eine internationale Statusaufwertung und versucht, eine Gleichrangigkeit mit China zu untermauern. Indien betreibt eine erhebliche konventionelle Aufrüstung, genauso wie China und andere asiatische Länder wie Pakistan. Tatsächlich stehen sich Indien und China mittlerweile eher freundschaftlich gegenüber. Zunehmende Handelsverflechtungen und die gegenseitige Anerkennung des Status quo in Tibet durch Indien 2003 und Sikkim durch China 2004 haben zu einer spürbaren Entlastung des politischen Verhältnisses beigetragen. Dennoch bestehen noch immer Grenzstreitigkeiten um den chinesisch besetzten Teil Kaschmirs (Aksai Chin) sowie den größten Teil des indischen Bundesstaats Arunachal Pradesh. Mit Bangladesch besteht seit Jahrzehnten Uneinigkeit über Fragen der Wasserverteilung. Auch Grenzverlauf und -verkehr sind teils umstritten. Es bestehen fast 200 Enklaven, darunter ein „Stückchen indischen Landes innerhalb bangalischen Territoriums, das selber vollständig von einer indischen Besitzung umgeben ist, die wiederum innerhalb Bangladeshs liegt“ (Stand Mai 2015). Als belastend gilt zudem die illegale Einwanderung vieler Bangladescher nach Indien. Am 6. Juni 2015 wurde ein Abkommen unterzeichnet, demzufolge Bangladesch 111 indische Enklaven erhält und Indien im Gegenzug 52 bangladeschische auf seinem Gebiet. Damit wird eine „geregelte Grenze“ hergestellt. 53.000 Bewohner der betroffenen Gebiete können entscheiden, welchem der zwei Staaten sie angehören wollen. Indien ist eines der Gründungsmitglieder der Vereinten Nationen sowie Mitglied zahlreicher weiterer internationaler Organisationen, darunter Commonwealth, Internationaler Währungsfonds und Weltbank. In der Welthandelsorganisation (WTO) ist Indien eine der treibenden Kräfte in der Gruppe der Zwanzig, der Gruppe der zwanzig wichtigsten Industrie- und Schwellenländer und der G33. Eine tragende Funktion hat es in der Südasiatischen Vereinigung für regionale Zusammenarbeit (SAARC). Die Beziehungen Indiens zur EU basieren auf einer umfassenden politischen Erklärung und einem Aktionsplan für eine strategische Partnerschaft, die auf dem EU-Indien-Gipfel im Herbst 2005 verabschiedet wurden und seitdem schrittweise umgesetzt werden. Damit sollen die Beziehungen zu Indien formal auf eine Ebene mit denen zu den Vereinigten Staaten, Kanada, Japan, Russland und China gestellt werden. Zukünftig will man das Potenzial für gemeinsame Kooperationen und Austausch noch stärker ausschöpfen. Dies gilt insbesondere auch für die Bereiche Konfliktprävention, Terrorismusbekämpfung und die Stärkung der Menschenrechte. Bildungswesen. Regionale Verteilung der Lese- und Schreibkenntnisse nach der Volkszählung 2011 In Indien besteht allgemeine Schulpflicht von 6 bis 14 Jahren, und das indische Parlament beschloss 2002 einstimmig, das Recht auf Bildung in die Verfassung aufzunehmen. Während dieses Zeitraumes ist der Besuch öffentlicher Schulen kostenlos. Das Schulsystem umfasst vier Hauptstufen: auf die fünfjährige Grundschule folgt die Mittelschule von der sechsten bis achten Klasse, darüber die höheren Schulen und schließlich die Hochschulen sowie Universitäten. Allgemein hat der Staat in der Vergangenheit besonderes Augenmerk auf die Förderung von höheren Bildungseinrichtungen gelegt, was den aus der Kolonialzeit herrührenden elitären Charakter des Bildungswesens eher noch verstärkt hat. Dennoch ziehen viele Angehörige der Mittel- und Oberschicht gerade bei der höheren Bildung private Einrichtungen den staatlichen vor. Heute werden zwar fast alle Kinder – zumindest Jungen – tatsächlich eingeschult, in den höheren Klassenstufen wird die Zahl der Abbrecher aber immer höher. Vor allem im ländlichen Raum erhalten daher viele Kinder nur eine äußerst rudimentäre Grundbildung. Weiterführende Schulen und höhere Bildungseinrichtungen stehen dagegen meist nur in Städten zur Verfügung. Immerhin konnten seit der Unabhängigkeit große Fortschritte bei der Alphabetisierung erzielt werden. 2011 lag die Alphabetisierungsrate im Landesdurchschnitt bei 74,0 % (Männer: 82,1 %, Frauen: 65,5 %). 2001 hatte sie noch 64,8 % betragen, 1951 sogar nur 18,3 %. Da das Bildungswesen größtenteils den Bundesstaaten obliegt, weist es dementsprechend große regionale Unterschiede auf. Dies äußert sich am deutlichsten in der sehr ungleichen Analphabetenrate. Während sie in Kerala, dem Staat mit der höchsten Alphabetisierungsrate, 2011 nur 6,1 % betrug, war sie im finanziell ärmsten Staat Bihar mit 36,2 % fast sechsmal so hoch. Ein weiteres Problem ist die Benachteiligung von Mädchen, deren Einschulungsrate geringer ist als die von Jungen (Durchschnitt 2000 bis 2004: Jungen: 90 %, Mädchen: 85 %). An höheren Bildungseinrichtungen liegt der Frauenanteil in der Regel deutlich unter dem der Männer. Ein großer Schwachpunkt ist auch das bisher wenig entwickelte Berufsschulwesen. Indien verfügt über 380 Universitäten. Gesundheitswesen. Das Gesundheitswesen ist überwiegend staatlich, obwohl es auch viele private Krankenhäuser gibt. Obwohl die Gesundheitsbetreuung auf dem Land bereits erheblich verbessert wurde, insbesondere durch Erste-Hilfe-Stationen in Dörfern, besteht noch ein großes Stadt-Land-Gefälle. In vielen Dörfern gibt es keine medizinischen Einrichtungen. Verschlimmert wird die Lage durch schlechte hygienische Bedingungen, wie fehlender Zugang zu sauberem Trinkwasser und Sanitäranlagen, sowie Unterernährung. Ähnliche Bedingungen herrschen in städtischen Elendsvierteln. Seuchen wie Malaria, Filariose, Tuberkulose und Cholera sind in manchen Regionen noch immer ein großes Problem. Trotz aller Schwierigkeiten und Hemmnisse stieg die Lebenserwartung bei Geburt von 53,3 Jahren 1980 auf 64,4 Jahre (Männer: 63,6 Jahre, Frauen: 65,2 Jahre) 2005. Früher war Indien eines der wenigen Länder der Erde, in denen Männer eine höhere Lebenserwartung aufwiesen als Frauen. In den letzten Jahren hat sich dies umgekehrt. Wegen der geringen Kosten und der guten Qualität der ärztlichen Behandlung in spezialisierten Krankenhäusern gewinnt der Medizintourismus aus nordamerikanischen und europäischen Industrieländern immer mehr an Bedeutung. Streitkräfte und Verteidigung. Indiens Militär besteht ausschließlich aus Freiwilligen, eine Wehrpflicht gibt es nicht. Die offiziellen Streitkräfte sind die drittgrößten der Welt. Sie umfassen 1,3 Millionen Soldaten, wovon 1,1 Millionen im Heer, 150.000 bei der Luftwaffe und 53.000 bei der Marine dienen. Dazu kommen 800.000 Reservisten und 1,1 Millionen Mann in vor allem bei internen Konflikten eingesetzten paramilitärischen Verbänden. Zählt man Letztere hinzu, hat nur Chinas Militär eine größere Truppenstärke. Die indischen Streitkräfte verfügen über 3.264 Kampfpanzer, 733 Kampfflugzeuge, 199 Hubschrauber, 21 Kriegsschiffe und 17 U-Boote (Stand: 2005). Die Verteidigungsausgaben im Jahr 2005 betrugen 18,86 Milliarden US-Dollar, das entsprach 3,0 Prozent des Bruttoinlandsproduktes beziehungsweise 17 US-Dollar je Einwohner. Seit der Unabhängigkeit hat das indische Militär kaum Interesse an einer politischen Einflussnahme gezeigt. Es ist der Zivilverwaltung unterstellt, den militärischen Oberbefehl hat der Präsident. Seit 1974 ist Indien offizielle Atommacht. Es verfügt über selbst entwickelte Kurzstreckenraketen sowie die Mittelstreckenraketen mit Reichweiten von 700 bis 8000 km. 2012 standen 84 Nuklearsprengköpfe zur Verfügung. Bis heute hat Indien den Atomwaffensperrvertrag nicht unterzeichnet, verzichtet jedoch laut seiner Nukleardoktrin auf den nuklearen Erstschlag. Indiens einzige Militärbasis im Ausland ist seit 2004 der Luftstützpunkt Farkhor in Tadschikistan. Zudem besteht mit Mosambik ein Militärabkommen, das Ankerrechte und Versorgung von indischen Kriegsschiffen vorsieht. Mit Mauritius bestehen zudem enge militärische Bindungen. Die indischen Luftstreitkräfte kontrollieren den mauritischen Luftraum und es besteht eine Zusammenarbeit mit der indischen Marine. Verwaltungsgliederung. Indien ist in 29 Bundesstaaten (engl. "States") und sieben Unionsterritorien (engl. "Union Territories") gegliedert, die sich in insgesamt über 600 Distrikte (engl. "Districts") unterteilen. In einigen Bundesstaaten werden mehrere Distrikte zu Divisionen (engl. "Divisions") zusammengefasst. Den Distrikten untergeordnet sind parallel und teils überlappend die "Tehsils" (oder auch "Taluks"), Blöcke und "Subdivisions". Die unterste Verwaltungsebene stellen die Dörfer selbst dar, die mitunter in sogenannten "Hoblis" zusammengefasst sein können. Während die Unionsterritorien von der Zentralregierung in Neu-Delhi verwaltet werden, verfügt jeder Bundesstaat über ein eigenes Parlament und eine eigene Regierung. Der Regierung eines Bundesstaats steht der "Chief Minister" vor, der allerdings formal einem vom indischen Präsidenten ernannten "Gouverneur" mit weitgehend repräsentativen Aufgaben untergeordnet ist. Letzterem werden bei Anwendung der "President’s rule" die Regierungsgeschäfte übertragen. Die Kommunalverwaltung obliegt in größeren Städten mit mehreren hunderttausend Einwohnern den "Municipal Corporations," in kleineren Städten den "Municipalities." Im ländlichen Raum wird der dreistufige "Panchayati Raj" angewandt. Dieses System umfasst gewählte Räte "(Panchayats)" auf Dorf- und Block-, aber auch auf Distriktebene. Die Zuständigkeiten der Kommunalverwaltungen sind je nach Bundesstaat unterschiedlich gestaltet. Vor der Unabhängigkeit umfasste Indien sowohl selbstständige Fürstenstaaten unter britischer Aufsicht als auch britische Provinzen (englisch "Presidencies"), die von britischen Kolonialverwaltern regiert wurden. Nach der Unabhängigkeit wurden die ehemaligen Fürstenstaaten von einem ernannten Gouverneur, die ehemaligen Provinzen jedoch von einem gewählten Parlament und einem gewählten Gouverneur regiert. Im Jahre 1956 beseitigte der "States Reorganisation Act" die Unterschiede zwischen ehemaligen Provinzen und Fürstentümern und schuf einheitliche Bundesstaaten mit einer gewählten Regionalregierung. Bei der Neuordnung der Bundesstaaten wurde die jeweilige Muttersprache der Bewohner als Grundlage der Grenzziehung verwendet. Am 1. Mai 1960 wurde der bisherige Staat Bombay in die neuen ethnischen Staaten Gujarat und Maharashtra aufgeteilt. 2000 entstanden drei neue Bundesstaaten: Jharkhand aus den südlichen Teilen von Bihar, Chhattisgarh aus den östlichen Teilen von Madhya Pradesh und Uttarakhand (bis 2006 Uttaranchal) aus dem nordwestlichen Teil von Uttar Pradesh. Zum 2. Juni 2014 entstand aus Teilen des Bundesstaates Andhra Pradesh als neuer, 29. Bundesstaat Telangana; seine Hauptstadt ist Hyderabad. Städte. Hauptstadt Indiens ist Neu-Delhi innerhalb der Grenzen von Delhi, das mit rund 11 Millionen Einwohnern die zweitgrößte Stadt des Landes darstellt und mit mehr als 16 Millionen Einwohnern die zweitgrößte Agglomeration. Delhi ist kultureller Mittelpunkt der hindisprachigen Gemeinschaft des Nordens. Indiens größte Stadt und wirtschaftliches Zentrum ist jedoch Mumbai (Bombay). Die Metropole an der Westküste zählt mehr als 12,5 Millionen Einwohner, in der Agglomeration rund 18 Millionen. An dritter Stelle folgt Bangalore. In der 8,5-Millionen-Stadt im südlichen Dekkan-Hochland sind zahlreiche Hochtechnologiefirmen angesiedelt, was ihr den Beinamen „Silicon Valley Indiens“ eingebracht hat. Viertgrößte Stadt ist das ebenfalls in Südindien gelegene Hyderabad mit 6,8 Millionen Einwohnern, gefolgt vom westindischen Ahmedabad mit 5,6 Millionen Einwohnern. Chennai (Madras), die mit 4,7 Millionen Einwohnern siebtgrößte Stadt Indiens, ist als kultureller Mittelpunkt Südindiens und insbesondere der Tamilen bekannt. Kalkutta, die wichtigste Metropole des Ostens, liegt mit 4,5 Millionen Menschen an achter Stelle. Sie gilt als intellektuelles Zentrum. Wirtschaft. Indien ist eine gelenkte Volkswirtschaft, die seit 1991 zunehmend dereguliert und privatisiert wurde. Seither hat sich das Wirtschaftswachstum deutlich beschleunigt. 2004 stieg der Wert der gesamtwirtschaftlichen Produktion nach Angaben der Weltbank auf 691 Mrd. US-Dollar. Damit ist Indien in den Kreis der zehn größten Volkswirtschaften der Welt vorgestoßen. Die Leistungsfähigkeit der indischen Wirtschaft hat nach Einschätzung vieler Beobachter in einigen Branchen (Informationstechnologie, Pharmazie) inzwischen internationales Spitzenniveau erreicht. 2005 stieg das Bruttoinlandsprodukt nach vorläufigen Angaben weiter auf rund 760 Mrd. US-Dollar. Bei rund 1,1 Milliarden Einwohner betrug das Einkommen je Einwohner jedoch nur rund 700 US-Dollar. Damit zählt Indien nach wie vor zu den Entwicklungsländern mit niedrigem Pro-Kopf-Einkommen. Trotz eines Anteils von rund 17 Prozent an der Weltbevölkerung trägt Indien nur rund 2 Prozent zur weltweiten Produktion bei. Behindert wird das Wachstum der Produktion der indischen Wirtschaft insbesondere durch Mängel der vielfach veralteten Infrastruktur, vor allem durch Engpässe bei der Energieversorgung wie den häufigen Stromausfällen. Trotz der 1991 begonnenen Liberalisierung der Wirtschaft leiden vor allem die Industrie und der Bankensektor nach wie vor unter häufigen staatlichen Eingriffen und den langsamen politischen Entscheidungsprozessen. Der Schutz ineffizienter Staatsunternehmen vor Wettbewerb bleibt ein Hemmschuh. Ein Belastungsfaktor ist auch die weitverbreitete Korruption. Zudem beeinträchtigen nach wie vor Arbeitsmarktregulierungen, die zum Beispiel Entlassungen von Arbeitskräften stark erschweren, das Investitionsklima. Ausländische Investoren werden so abgeschreckt. Die Integration Indiens in die Weltwirtschaft hat sich in den letzten Jahren verstärkt. Das Land profitiert zunehmend von den Vorteilen der internationalen Arbeitsteilung und der Globalisierung. Die indische Wirtschaft ist aber noch sehr stark binnenwirtschaftlich orientiert. Ihr Anteil an der Weltwirtschaft liegt bei nur einem Prozent, obwohl Ein- und Ausfuhren in den letzten Jahren kräftig gewachsen sind. Die niedrigen Anteile der Aus- und Einfuhren am Bruttoinlandsprodukt signalisieren noch beträchtliches Wachstumspotenzial. 2004 entsprachen die Ausfuhren von Waren und Dienstleistungen nur gut 19 Prozent des Bruttoinlandsprodukts, die Einfuhren 22,5 Prozent. Die mittel- und langfristigen Wachstumsperspektiven Indiens werden vielfach sehr günstig beurteilt. Einige Studien rechnen damit, dass Indien künftig sogar stärker als China wachsen wird. Abgesehen vom großen Nachholbedarf, insbesondere im Bereich der Infrastruktur, spricht vor allem die Altersstruktur der Bevölkerung für ein anhaltend starkes Wirtschaftswachstum. Der derzeitige hohe Anteil junger Menschen an der Bevölkerung wird in den nächsten Jahrzehnten für einen hohen Anteil von Menschen im erwerbsfähigen Alter sorgen. Die in Europa und auch in China zu erwartende „Vergreisung“ der Bevölkerung wird in Indien deutlich später einsetzen. Wachstumsstützen werden auch das schon heute große Angebot an qualifizierten Arbeitskräften und die enger werdende Integration in die Weltwirtschaft sein. Die hohen Währungsreserven und relativ niedrige Auslandsschulden dürften das Vertrauen ausländischer Investoren in die Entwicklung der indischen Wirtschaft stärken. Bisher waren die ausländischen Direktinvestitionen in Indien im internationalen Vergleich, insbesondere mit China, gering. Konfliktpotentiale bergen die derzeit noch große Armut, die ungleiche Einkommensverteilung und die hohe Arbeitslosigkeit. Bisher verzeichnet Indien jedoch eine bemerkenswert große soziale Stabilität. Aktuelle gesamtwirtschaftliche Entwicklung. Von 1999 bis 2004 wuchs das Bruttoinlandsprodukt Indiens inflationsbereinigt um rund sechs Prozent jährlich. 2005 ist es nach vorläufigen Angaben sogar um 8,4 Prozent gestiegen. Der Internationale Währungsfonds rechnet damit, dass sich das Wachstum 2006 und 2007 nur wenig auf rund sieben Prozent abschwächt. Trotz des in den letzten Jahren deutlich beschleunigten Wachstums liegt die offizielle Arbeitslosenquote aber noch bei neun Prozent – wobei mit einer erheblichen Zahl von Arbeitslosen zu rechnen ist, die von der Statistik nicht erfasst werden. Der Verbraucherpreisanstieg hielt sich in den Jahren 2004 und 2005 bei rund vier bis fünf Prozent. Der IWF erwartet auch 2006 und 2007 einen Anstieg um knapp fünf Prozent. Unbefriedigend bleibt auch die Entwicklung der Staatsfinanzen. Das gesamtstaatliche Haushaltsdefizit bewegt sich bei leicht rückläufiger Tendenz zwischen neun und zehn Prozent des Bruttoinlandsprodukts. Davon entfällt rund die Hälfte auf das Defizit der Zentralregierung. Von den führenden Agenturen zur Bewertung von Kreditrisiken wird die Bonität Indiens vor dem Hintergrund der günstigen gesamtwirtschaftlichen Entwicklung aber zunehmend besser eingeschätzt. Nach der Rating-Agentur Moody’s hob Anfang August 2006 auch die Agentur Fitch ihre Bewertung der Kreditaufnahme des indischen Staates auf den niedrigsten sogenannten "investment grade" an. Im Zuge der zunehmenden internationalen wirtschaftlichen Verflechtung Indiens ist das Land seit 2008 ebenfalls von der weltweiten Wirtschaftskrise betroffen. Das stetige jährliche Wirtschaftswachstum brach ein. Als Gründe werden der junge, global agierende indische Kapitalmarkt, hohe private Kreditverschuldung, steigende Arbeitslosenzahlen sowie sinkende Binnennachfrage und Exportzahlen genannt. Zur Bekämpfung der Krise wurden staatliche Konjunkturpakete aufgelegt, unter anderem Infrastrukturprogramme, Steuersenkungen sowie Subventionen für die Exportindustrie. Landwirtschaft. Hauptanbaufrüchte in den Regionen Indiens Der weltweit zu beobachtende Wandel der Wirtschaftsstruktur von der Landwirtschaft zur Industrie und zum Dienstleistungssektor vollzieht sich auch in Indien, das aber im internationalen Vergleich, zum Beispiel mit China, immer noch sehr stark agrarisch geprägt ist. 59,4 Prozent der Bevölkerung sind in der Landwirtschaft erwerbstätig. Die ländliche Bevölkerung bildet gleichzeitig den ärmsten Teil der Bevölkerung. Vom Aufschwung der Wirtschaft profitiert bisher vorwiegend die Bevölkerung der Städte, wo sich eine kaufkräftige Mittelschicht oft hochqualifizierter Fachkräfte bildete. Dies birgt sozialen Konfliktstoff. Die Abwahl der letzten Regierung im Jahr 2004 wird wesentlich mit der Unzufriedenheit der ländlichen Bevölkerung mit der wirtschaftlichen Entwicklung erklärt. Der Anteil der Landwirtschaft am Bruttoinlandsprodukt ist indes stark rückläufig. Trug sie 1956 noch 56 Prozent bei, so waren es 2004 nach Angaben der Weltbank noch rund 21 Prozent. Entsprechend hoch ist die Abhängigkeit des jährlichen Wirtschaftswachstums von den Witterungsbedingungen. Ungünstige Erntebedingungen können es spürbar beeinträchtigen. Seit der Unabhängigkeit wurden große technische Fortschritte gemacht, vor allem im Zuge der sogenannten „Grünen Revolution“ seit Mitte der 1960er Jahre. Die großflächige Einführung von Hochertragssorten, der Einsatz von Dünge- und Schädlingsbekämpfungsmitteln, die teilweise Mechanisierung der Landwirtschaft und die Ausweitung der Bewässerungsflächen haben dazu beigetragen, dass sich das Land heute mit Nahrungsmitteln weitestgehend selbst versorgen kann. Dennoch ist Indiens Landwirtschaft noch vergleichsweise ineffizient. Im ländlichen Raum sind viele Menschen unterbeschäftigt, und eine umfassende Industrialisierung der Landwirtschaft steht weiten Teilen des Landes erst noch bevor. Lediglich im Punjab, der „Kornkammer Indiens“, ist sie bereits weiter fortgeschritten. Am wichtigsten ist der Anbau von Getreide, vor allem Reis. Dessen Hauptanbaugebiete liegen in den fruchtbaren Stromebenen des Nordens sowie entlang der Küsten und im östlichen Dekkan. Indien ist nach China der zweitgrößte Reisproduzent der Erde. Ungefähr ein Fünftel der weltweiten Erträge entfallen auf Indien. Auch beim Weizen, dem zweitwichtigsten Anbauprodukt, liegt Indien weltweit an zweiter Stelle. Weizen wird hauptsächlich in den nördlichen Bundesstaaten Punjab, Haryana und Uttar Pradesh angebaut, aber auch im Norden und Nordwesten des Dekkans sowie Gujarat und Bihar. In trockeneren Landstrichen, wie Rajasthan, Gujarat und großen Teilen des Dekkans, dominiert die Hirse. Mais und Gerste spielen eine geringere Rolle. Zur Nahrungsmittelproduktion trägt zudem der Anbau von Hülsenfrüchten, Kartoffeln, Zwiebeln, Ölsaaten (besonders Erdnüsse, Sojabohnen, Sesam, Raps, Kokosnüsse), Mangos und Bananen bei. Die wichtigsten kommerziellen Anbauprodukte sind Baumwolle, Zuckerrohr, Tee, Tabak, Kaffee, Jute, Kaschunüsse, Gewürze (vor allem Chili, Pfeffer, Kardamom, Ingwer, Koriander, Kurkuma, Zimt, Knoblauch) und Betelnüsse. Wenig effizient ist die indische Viehzucht, trotz des mit 222 Millionen Tieren (Stand: 2002) größten Rinderbestandes der Erde. Da Vegetarismus weit verbreitet ist, spielt die Fleischproduktion ohnehin nur eine untergeordnete Rolle. Dafür werden Milch und Molkereierzeugnisse in großen Mengen hergestellt. Fischerei. Nach der erfolgreichen Ertragssteigerung der Landwirtschaft setzte ab den 1980er Jahren die Förderung der Fischerei ein. Parallel zur „Grünen Revolution“ wurde dafür der Begriff der „Blauen Revolution“ geprägt. Nachdem zunächst Kleinfischer mit Außenbordmotoren versorgt worden waren, begann der Aufbau einer modernen Schleppnetzflotte. Dies führte zwar zu einer wesentlichen Erhöhung der Erträge, aber auch zur Überfischung vieler Küstenabschnitte. Indiens wichtigste Fischgründe liegen an der Westküste, wo rund 70 Prozent der Fangerträge erzielt werden. 2001 lag Indien mit einer Fangmenge von 3,8 Millionen Tonnen weltweit an siebter Stelle. Fisch und Garnelen werden heute in großen Mengen exportiert. Die Garnelenzucht wird besonders gefördert. So stammen mittlerweile etwa die Hälfte der Garnelen aus Aquakulturen, die seit den 1990er Jahren vor allem an der Ostküste angelegt wurden. Die traditionelle Binnenfischerei in Flüssen, Teichen und Seen spielt besonders im Osten und Nordosten Indiens eine Rolle. Im Umland von Delhi etabliert sich nun auch die kommerzielle Zucht von Fischen, vor allem Karpfen. Bergbau und Bodenschätze. Indien hat reichliche Vorkommen an hochwertigen Eisen- und Manganerzen, Steinkohle, Bauxit und Chrom. Die größten Rohstofflagerstätten befinden sich in Ostindien, vor allem Jharkhand, Chhattisgarh und Odisha. Eisenerz, bei dessen Förderung das Land 2003 mit 100 Millionen Tonnen an weltweit vierter Stelle lag, kommt außerdem in Goa, Karnataka und Tamil Nadu vor. Indien ist mit über zehn Millionen Tonnen der fünftgrößte Förderer von Bauxit, dem wichtigsten Rohstoff für Aluminium, der hauptsächlich in küstennahen Gebieten Gujarats und Maharashtras sowie in Madhya Pradesh und Jharkhand abgebaut wird. Bei Kupfer ist Indien trotz gesteigerter Ausbeute weiterhin auf Importe angewiesen. Obwohl Indien der weltweit drittgrößte Produzent von Steinkohle ist, deckt es einen Teil seines Bedarfs mit qualitativ hochwertigerer und billigerer Importkohle. Steinkohle ist der wichtigste Energieträger des Landes. Die Vorkommen an Erdöl und Erdgas reichen bei Weitem nicht aus, um die stetig steigende Nachfrage zu decken. Nennenswerte Ölvorkommen gibt es nur in Assam, Gujarat, im Golf von Khambhat und vor der Küste von Maharashtra. Die eigene Produktion deckt nur ein Drittel des Verbrauchs. Erdgaslagerstätten finden sich im Golf von Khambhat und werden erst seit den 1980er Jahren ausgebeutet. Industrie. Während der Kolonialherrschaft wurde die Entwicklung der Industrie – mit Ausnahme der schon frühzeitig bedeutsamen Textilindustrie – eher gehemmt denn gefördert. Nach der Unabhängigkeit forcierte man daher besonders den Ausbau von kapitalintensiven Schlüsselindustrien. Dazu gehörten Stahl-, Maschinen- und chemische Industrie. Die Konsumgüterherstellung wurde vernachlässigt und sollte durch Kleinindustrie gedeckt werden. Um die ehrgeizigen Ziele zu erreichen, setzte man nach dem Vorbild der Sowjetunion auf den Ausbau der Schlüsselindustrien durch den Staat mittels Fünfjahresplänen. 2001 waren 21,9 Prozent der erwerbstätigen Bevölkerung im Industriebereich tätig. Die Wertschöpfung der Industrie betrug 2004 nach Weltbankangaben 27 Prozent des Bruttoinlandsproduktes. Ein Wachstumsmotor im Industriebereich sind die Deregulierungen auf den Energie-, Chemie- und Rohstoffmärkten. Wachstumsimpulse kommen auch von der rasch steigenden Inlandsnachfrage nach langlebigen Konsumgütern. Die Textilindustrie zählt dank der riesigen Inlandsnachfrage und der Produktion für den Export auch heute noch zu den größten und wichtigsten Wirtschaftszweigen Indiens. Leder wird sowohl industriell als auch handwerklich in großen Mengen hergestellt und verarbeitet. Da Hindus die Berührung und Verwertung von Tierkadavern als unreine Arbeit ansehen, sind die meisten Angestellten der Lederbranche Muslime oder „Unberührbare“. Neben diesen eher traditionellen Industrien dominieren die Eisen- und Stahlerzeugung, Maschinen-, Kraftfahrzeug- und chemische Industrie. Unter ihnen ist der staatliche Anteil besonders hoch. Allerdings nimmt der Anteil privater Betriebe seit der Liberalisierung der Wirtschaft in den 1980er und vor allem frühen 1990er Jahren zu. Die indische Pharmaindustrie gehört zu den größten und fortgeschrittensten unter den Entwicklungsländern. Wegen der indischen Patentschutzgesetzgebung, der Arzneimittel nur bedingt unterlagen, kam es immer wieder zu Streitigkeiten mit den Industriestaaten, allen voran den Vereinigten Staaten. Mittlerweile hat Indien seine Patentgesetze angepasst. Ein wichtiger Träger des wirtschaftlichen Aufschwunges der letzten Jahre ist die Informationstechnologiebranche, die teils dem industriellen, teils dem Dienstleistungssektor zuzurechnen ist. Vor allem der Softwarebereich hat sich zu einem bedeutenden Wirtschaftszweig entwickelt. Viele indische Städte verfügen inzwischen über „Softwareparks“. Auch die Herstellung von Hardware erlebt einen rasanten Aufschwung. Mit zweistelligen jährlichen Wachstumsraten gewinnt auch die Biotechnologie an Bedeutung. Die industrielle Produktion konzentriert sich auf wenige städtische Großräume. Die wichtigsten Industriezonen sind die Ballungsgebiete Mumbai-Pune, Ahmedabad-Vadodara-Surat, Delhi, Kanpur-Lakhnau, Chennai, Kalkutta-Asansol sowie der Punjab und der Osten Jharkhands. Die Spitzentechnologie ist vor allem im Süden des Landes angesiedelt: Das Zentrum der Informationstechnologiebranche ist Bangalore, als neues Wachstumszentrum der Biotechnologie hat sich Hyderabad etabliert, besonders mit der Gründung des Biotechnologiezentrums "Genome Valley." Dienstleistungen. Ungewöhnlich hoch für ein Entwicklungsland ist der Beitrag der Dienstleistungen zur gesamtwirtschaftlichen Produktion Indiens. Rund 52 % des Bruttoinlandsprodukts wurden 2004 bereits durch Dienstleistungen erbracht. Insbesondere bei Dienstleistungen im Bereich der Informationstechnologie, sonstigen Ingenieurleistungen, Forschungs- und Entwicklungsarbeiten sowie Verwaltungsaufgaben hat Indien bedeutende Marktpositionen erreicht. 2005 wurde Indien zum weltweit führenden Exporteur von Software und IT-Services, 2007 kam bereits über ein Drittel aller Computer-Dienstleistungen von hier. Diese Dienstleistungen erfolgen auch zunehmend im Auftrag ausländischer Kunden und werden häufig unter dem Begriff Business Process Outsourcing (BPO) bzw. auch als Knowledge Process Outsourcing (KPO) bezeichnet. Beispiele sind Callcenter und Dienstleistungen im Gesundheitswesen. Außenhandel. Im Verhältnis zu seiner Wirtschaftskraft sind Indiens Außenhandelsverflechtungen eher gering. Dies ist in erheblichem Maße auf die starke Binnenmarktorientierung in den Jahrzehnten nach der Unabhängigkeit zurückzuführen. Seit der wirtschaftlichen Öffnung Anfang der 1990er Jahre, die unter anderem auch die Aufhebung vieler Importbeschränkungen zur Folge hatte, verzeichnet der Außenhandel jedoch einen deutlichen Aufschwung. Zwischen 1991 und 2004 hat sich der Warenaustausch mit dem Ausland mehr als vervierfacht. Indien ist ein wichtiger Exporteur von Rohstoffen und Fertigprodukten, aber auch Arbeitskräften. Aus Indien kommen Softwareprodukte und Softwareentwickler; es verfügt über eine große Zahl gut ausgebildeter Fachkräfte. Die wichtigsten Exportgüter sind Textilien, Bekleidung, geschliffene und verarbeitete Edelsteine, Schmuck, Chemikalien, Erdölerzeugnisse, Lederwaren und Softwareprodukte. Indien importiert vor allem Rohöl, elektronische Erzeugnisse, Edelsteine (z. B.: Diamanten), Maschinen, Edelmetalle, Chemikalien und Düngemittel. Nach ersten Angaben des Statistischen Bundesamtes wuchs der Handel zwischen Indien und Deutschland in den ersten sieben Monaten des Jahres 2006 noch einmal deutlich. Deutschland importierte Waren im Wert von 2,4 Milliarden Euro, 30,5 Prozent mehr als im gleichen Vorjahreszeitraum, und exportierte Waren für 3,3 Milliarden Euro, 39,7 Prozent mehr als in den ersten sieben Monaten 2005. Fremdenverkehr. Der Fremdenverkehr hat sich zu einem der wichtigsten Devisenbringer Indiens entwickelt. 2005 verzeichnete Indien mit 3,9 Millionen ausländischen Besuchern einen größeren Touristenzustrom als je zuvor. Darunter sind allerdings auch viele Ausländer indischer Herkunft, die vor allem in Nordamerika und Großbritannien leben und ihren Verwandten in Indien regelmäßig längere Besuche abstatten. Nichtsdestoweniger erzielte der Fremdenverkehrssektor 2005 Einnahmen von 5,7 Milliarden US-Dollar aus der Ankunft ausländischer Gäste. Die mit Abstand meistbesuchte Touristenattraktion ist das Taj Mahal in Agra. Weitere beliebte Ziele sind Rajasthan, Delhi, Goa und Kerala. Neben dem Kultur-, Strand- und Naturtourismus gewinnen auch Abenteuerurlaub wie Trekking oder Rafting und Gesundheitstourismus (Ayurveda) zunehmend an Bedeutung. Staatshaushalt. Der Staatshaushalt umfasste 2009 Ausgaben von umgerechnet 237,2 Milliarden US-Dollar, dem standen Einnahmen von umgerechnet 129,9 Milliarden US-Dollar gegenüber. Daraus ergab sich ein Haushaltsdefizit in Höhe von 9,8 Prozent des BIP, die Staatsverschuldung betrug 653 Milliarden US-Dollar oder 59,6 Prozent des BIP. Energie. 2001 verfügten 55,8 Prozent der indischen Haushalte über einen Stromanschluss (im ländlichen Bereich 43,5 Prozent, in den Städten 87,6 Prozent). Häufige Stromausfälle beeinträchtigen jedoch immer wieder die Verfügbarkeit von Elektrizität. Der gegenwärtige Energiebedarf von 560 Kilowattstunden pro Einwohner und Jahr ist einer der niedrigsten der Welt. Die Hälfte der Energie liefern Kohle, ein Viertel Erdöl, -gas und Wasserkraft, ein Fünftel wird durch Verbrennung von Viehdung, Feuerholz und anderen Materialien gedeckt. Indien steht hinsichtlich der Entwicklung im Bereich Windenergie weltweit an fünfter Stelle: Im Jahre 2014 stieg die Leistung der installierten Windkraftanlagen um 2,3 GW auf 22,5 GW, womit das Land knapp hinter Spanien mit 23,0 GW lag. Im Vorfeld der UN-Klimakonferenz in Paris 2015 erklärte die Regierung, die Windenergie bis 2022 auf 60 GW auszubauen. Auch die Solarenergie wird seit Anfang der 2010er Jahre nennenswert ausgebaut. Noch im Herbst 2011 waren gerade einmal 45 Megawatt Photovoltaik-Leistung installiert, durch den starken Zubau könnte die installiert Leistung jedoch bis 2016 auf mehr als neun Gigawatt steigen. Landesweites Ziel sind 100 GW installierter Leistung bis zum Jahr 2022. Insgesamt hat sich Indien das Ziel gesetzt die erneuerbaren Energien bis 2022 auf 175 GW auszubauen, was einer Verfünffachung der gegenwärtigen Leistung (Stand 2015) entspricht. Die Kernenergie hatte 2011 einen Anteil von etwa 3,7 % an der elektrischen Stromversorgung. Im August 2012 befanden sich in Indien sechs Kernkraftwerke mit 21 Reaktorblöcken und einer installierten Bruttogesamtleistung von 5780 MW am Netz. Sechs weitere Reaktorblöcke mit einer Bruttogesamtleistung von 4300 MW sind im Bau. Da Indien den Atomwaffensperrvertrag nicht unterzeichnet hat, sind zahlreiche Länder bei der Beteiligung an der Konstruktion sehr zurückhaltend. Bisher hat Indien zur friedlichen Nutzung der Kernenergie eine Zusammenarbeit mit Russland, der Europäischen Union und Kanada vereinbart. (Siehe auch Liste der Kernreaktoren in Indien) Luftverkehr. Auf Grund der riesigen Entfernungen innerhalb Indiens und der vielerorts noch immer unterentwickelten Landinfrastruktur kommt dem Luftverkehr eine immer bedeutendere Rolle zu. Die wichtigsten Drehkreuze für Binnenflüge sind Delhi (Indira Gandhi International Airport), Mumbai (Flughafen Mumbai), Kalkutta (Flughafen Kolkata) und Chennai (Flughafen Chennai) als Kernpunkte ihrer jeweiligen Region. Flugverbindungen zwischen den größten Städten Indiens bestehen mehrmals täglich. Eine große Schwierigkeit stellen die geringe Größe und schlechte Anbindung der zunehmend überlasteten Flughäfen dar. Früher wurde der Luftverkehr von den beiden staatlichen Fluggesellschaften Air India (internationale Flüge) und Indian Airlines (Inlandsflüge) dominiert. Mittlerweile existieren mehrere private Fluggesellschaften, die innerhalb Indiens bereits einen Marktanteil von 40 % erobert haben. Schienenverkehr. Indiens erster Zug verkehrte am 16. April 1853 zwischen Mumbai und Thane. Bereits vier Jahrzehnte später verband die Eisenbahn alle wichtigen Landesteile miteinander. Auch heute noch spielt sie eine wichtige Rolle bei der Güter- und Personenbeförderung. Knapp 30 % des Güter- und 15 % des Personenverkehrs werden über die Schiene abgewickelt. Die indische Staatsbahn (Indian Railways) ist in 16 Regionalgesellschaften aufgeteilt und beschäftigt mit 1,6 Millionen Menschen mehr Angestellte als jedes andere Staatsunternehmen des Landes. Die Superlative können jedoch kaum über den teils desolaten Zustand des Bahnnetzes hinwegtäuschen. Hauptprobleme sind die ungleichmäßige und großmaschige Erschließung des Landes, die zumeist veraltete Technik, und für den heutigen Standard ein geringer Elektrifizierungsgrad: nur 19.000 der insgesamt 64.000 Kilometer Streckenlänge (Stand: 2011) sind elektrifiziert. Das Schienennetz besteht zu 54.257 Kilometer aus Breitspurgleisen mit dem Maß von 1676 Millimeter, die restlichen 10.000 Kilometer verteilen sich auf drei verschiedene Schmalspur-Weiten. Indiens Eisenbahnnetz ist damit zwar knapp hinter China das zweitlängste, aber keineswegs das dichteste Asiens. Im weltweiten Maßstab liegt Indiens Eisenbahnnetz an fünfter Stelle. Der Staat legt sein Hauptaugenmerk vor allem auf die Elektrifizierung und den doppelgleisigen Ausbau der Hauptstrecken, die Umwandlung von Meterspurstrecken in Breitspur und die Modernisierung der technischen Einrichtungen. Tatsächlich kann der Ausbau der Eisenbahn mit den steigenden Anforderungen durch Bevölkerungs- und Industriewachstum kaum Schritt halten, was zur schnellen Entwicklung des Straßenverkehrs beiträgt. Ein Versuch, den Schienenpersonenverkehr attraktiver zu machen, sind die Shatabdi Expresszüge, die die drei Metropolen Chennai, Mumbai und Neu-Delhi mit wichtigen Großstädten und Wirtschaftsregionen verbinden. Seeverkehr. Da Indien durch seine geografische Lage von den Handelspartnern in den Nachbarregionen Ost-, Südost- und Vorderasien abgeschnitten ist, und die unmittelbaren Nachbarn beim gegenseitigen Güteraustausch aus wirtschaftlichen oder politischen Gründen nur eine untergeordnete Stellung einnehmen, wird der Außenhandel fast ausschließlich über Seehäfen abgewickelt. Rund 90 Prozent des Warenumschlags im Überseeverkehr entfallen auf Indiens zwölf größte Häfen. Daneben existieren viele mittlere und kleinere Häfen, die aber nicht für große Schiffe und Containerumschlag geeignet sind und daher fast nur von Küstenschiffen angelaufen werden. Straßenverkehr. Der wichtigste Verkehrsweg in Indien ist heute die Straße. Schon in den 1970er Jahren hat der Straßenverkehr bei der Güter- und Personenbeförderung die Eisenbahn überholt. Heute werden rund 70 % des Gütertransports und sogar 85 % des Personenverkehrs auf der Straße abgewickelt. Indiens Straßennetz umfasst rund 3,3 Millionen Kilometer, wovon nur etwa die Hälfte asphaltiert ist. Am wichtigsten sind die "National Highways," die über 65.000 Kilometer umfassen. Sie verbinden die größten Städte des Landes untereinander. Als Schlagader gilt die "Grand Trunk Road," die von Amritsar an der pakistanischen Grenze über Delhi nach Kalkutta führt. Tatsächlich ist der weitaus größte Teil der "National Highways" aber nur zweispurig und zudem oft in einem katastrophalen Zustand. Problematisch bleiben die mehr als 130.000 Kilometer "State Highways" der Bundesstaaten, die sehr unterschiedlichen Standards genügen und in ärmeren Staaten teilweise nur einspurig sind. In Indien herrscht Linksverkehr. Telekommunikation. In Indien haben bereits mehr Menschen ein Mobiltelefon als einen Festnetzanschluss. Im Juni 2006 hat die Zahl der Handynutzer die 100-Millionen-Marke überschritten. Es gab sechs Millionen Neuanschlüsse im September 2006. Die Verbreitung von Telekommunikation und Computern ist in Indien auch heute noch von einem starken Stadt-Land-Gefälle geprägt. Häufig sieht man in den Straßen ein sogenanntes "Public Call Office" (PCO). Dies sind öffentliche Telefone, die in der Regel an einem kleinen Straßenstand betrieben werden. Dabei handelt es sich meist nicht um einen Münzfernsprecher, sondern um ein normales Telefon, für dessen Benutzung persönlich kassiert wird. Von den üblichen PCO sind nur nationale Gespräche (STD) möglich, weshalb für internationale Gespräche (ISD) besondere, internationale PCOs aufgesucht werden müssen. Ende 2007 nutzten 70 Millionen Menschen das Internet in Indien. Kultur. Die indische Kultur gehört zu den ältesten und mannigfaltigsten Kulturen der Erde. Sie war prägend für ganz Süd- und Südostasien. Der Glaube spielt in Indien, dem Ursprungsland mehrerer Religionen (Hinduismus, Buddhismus, Jainismus, Sikhismus), von jeher eine herausragende Rolle und hat so auch die Kultur des Landes entscheidend geprägt. Die geradezu unüberschaubare Vielfalt an Sprachen und Völkern hat zudem regionale Besonder- und Eigenheiten hervorgebracht. Aber auch fremde Einflüsse wie etwa der Islam oder europäische Kolonialmächte hinterließen ihre Spuren. Verschiedene Kulturwissenschaftler haben sich mit der typisch indischen Mentalität befasst, Selbstbild und Fremdbilder verglichen und daraus sogenannte Kulturstandards des Verhaltens formuliert. "Indische Kleidung und Schmuck:" Bindi, Dhoti, Kurta, Lungi, Mehndi, Salwar Kamiz, Sari Architektur. Großer Stupa von Sanchi (Madhya Pradesh) In der Architektur Indiens spiegeln sich die verschiedenen kulturellen Einflüsse, die das Land prägten, wider. Neben Palast- und Festungsbauten ragt vor allem die Sakralarchitektur heraus. In frühester Zeit wurden Holz, Lehm und gebrannte Ziegel als Baumaterialien verwendet. Die ältesten erhaltenen Überreste indischer Architektur stammen aus der Induskultur, die sich hauptsächlich auf dem Gebiet des heutigen Pakistan, aber auch in Gujarat und dem indischen Teil des Punjab ausbreitete. Die ältesten vollständig erhaltenen Bauwerke sind buddhistische "Stupas." Stupas sind auf einer rechteckigen Plattform stehende kuppelförmige Bauten. Im Inneren wird in der Regel eine Reliquie aufbewahrt. Tatsächlich entwickelte sich der Stupa aus Grabhügeln, wie sie schon in vedischer Zeit üblich waren. Jeder Teil des Stupa hat eine symbolische Bedeutung, als Ganzes stellt er den Weltenberg Meru dar. Als herausragendstes Beispiel gilt der Große Stupa von Sanchi (Madhya Pradesh) aus dem 3. vorchristlichen Jahrhundert. Des Weiteren entstanden buddhistische Klosteranlagen mit Gebetshallen "(Chaitya-Halle)" und Wohnzellen für Mönche "(Vihara)," wie in den Höhlen von Ajanta und Ellora (Maharashtra, 2. Jahrhundert v. Chr. bis 7. Jahrhundert n. Chr.). Mit dem Niedergang des Buddhismus in Indien, mit Ausnahme der Himalayaregion, ab dem 10. Jahrhundert kam die Entwicklung der buddhistischen Architektur zum Ende. Sie wurde in Ost- und Südostasien sowie Sri Lanka und Tibet fortgeführt. Zeitgleich zur buddhistischen Baukunst bildete sich die jainistische Architektur heraus. Jainistische Tempel sind meist nach außen geöffnet, um Licht einzulassen. Außerdem weisen sie besonders kunstvolle, filigrane Steinmetzarbeiten auf. Zu den schönsten Beispielen gehören der Tempel von Ranakpur (15. Jahrhundert) in Rajasthan und die unzähligen Bauten der Pilgerstadt Palitana in Gujarat. In Südindien entwickelten sich eigenständige Stilelemente. Berühmt ist das eindrucksvolle Monolithstandbild eines Asketen in Shravanabelagola (Karnataka) aus dem 10. Jahrhundert. Für hinduistische Tempel wurden bis in die ersten nachchristlichen Jahrhunderte ausschließlich wenig dauerhafte Baustoffe, vor allem Holz und Lehm, verwendet. Die ersten Steintempel griffen jedoch den Stil ihrer Vorgänger auf. Grundsätzlich hat jeder Bestandteil eine symbolische Bedeutung. Alle hinduistischen Tempel versinnbildlichen den Kosmos, während der Tempelturm den mythologischen Berg Meru darstellt. Dennoch entstanden ab dem 7. Jahrhundert zwei verschiedene Hauptstilrichtungen, die sich am deutlichsten in der Form des Turmes unterscheiden. Der nordindische Nagara-Stil zeichnet sich durch den bienenkorbförmigen Turm über dem Allerheiligsten aus, der als "Shikhara" bezeichnet wird. In Südindien dominiert der Dravida-Stil, der durch einen "Vimana" genannten, treppenförmig aufsteigenden Turm gekennzeichnet ist. Später bildete sich als weiteres Merkmal das stilistisch ähnliche "Gopuram" (auch "Gopura") über dem Eingangstor heraus. Herausragende Baudenkmäler im Nagara-Stil sind der im 10. Jahrhundert erbaute Mukteshvara-Tempel in Bhubaneswar (Odisha), der Sonnentempel von Konark (Odisha) aus dem 13. Jahrhundert und der Tempelbezirk von Khajuraho (Madhya Pradesh) aus dem 10. und 11. Jahrhundert. Die berühmtesten Dravida-Tempel stehen in den tamilischen Städten Thanjavur (Brihadishvara-Tempel, 11. Jahrhundert) und Madurai (Minakshi-Tempel, 16. bis 17. Jahrhundert). In Hampi (Karnataka) sind zahlreiche Sakral- und Profanbauten erhalten. Frühe Vorläufer des Dravida-Stils aus dem 7. und 8. Jahrhundert befinden sich in Mamallapuram (Tamil Nadu). Mit dem Vordringen des Islam nach Nordindien ab dem 12. Jahrhundert entstand die indo-islamische Architektur. Frühe Moscheen wurden häufig anstelle hinduistischer Tempel errichtet oder bezogen sogar Teile davon mit ein. Das berühmteste Bauwerk dieser Zeit ist das Minarett Qutb Minar (12. Jahrhundert) in Delhi. Im Laufe der Zeit vermischte sich die islamische Architektur mit hinduistischen Elementen zu einer eigenständigen indisch-islamischen Baukunst, die unter den Moguln zu höchster Blüte gelangte. Die prunkvolle Mogularchitektur hat einige der bedeutendsten Bauwerke Indiens hervorgebracht, etwa das Taj Mahal in Agra (Uttar Pradesh), das Shah Jahan im 17. Jahrhundert als Grabmal für seine Frau errichten ließ, oder die Paläste von Fatehpur Sikri. Auch in anderen muslimischen Staaten Indiens entstanden kunstvolle Bauten, etwa das Mausoleum Gol Gumbaz in Bijapur (Karnataka) aus dem 17. Jahrhundert. Die britische Kolonialzeit gab der indischen Architektur ab dem 19. Jahrhundert neue Anstöße. Aus der Verschmelzung europäischer, islamischer und indischer Elemente ging der indo-sarazenische Stil hervor. Beispiele dafür sind der Chhatrapati Shivaji Terminus in Mumbai, die meisten Gebäude der indischen High Courts und auch unzählige Bauten in der ehemaligen Kolonialhauptstadt Kalkutta. In Goa stehen Kirchen und Klöster aus der portugiesischen Kolonialzeit, die bedeutendsten davon in Velha Goa. Unter europäischem Einfluss standen auch neuere Palastbauten indischer Herrscher, wie der Amba Vilas in Mysore (Karnataka). Bei der modernen Architektur Indiens ragen die Planstadt Chandigarh des Architekten Le Corbusier, der Campus des "Indian Institute of Management" in Ahmedabad (Gujarat) und der lotusförmige Bahai-Tempel in Neu-Delhi heraus. Literatur. Rabindranath Thakur, Literaturnobelpreisträger von 1913 Die indische Literatur ist eine der ältesten der Welt. Allerdings ist zu beachten, dass es zu keiner Zeit nur eine „indische“ Literatur gegeben hat, sondern im Gegenteil viele Literaturen der zahllosen alten und modernen Sprachen Indiens. Die ältesten Werke wurden in Sanskrit, Pali und Tamil verfasst. Zu den herausragendsten Sanskrit-Werken gehören die Veden aus dem 13. bis 5. Jahrhundert v. Chr., die Upanishaden (etwa 700 bis 500 v. Chr.) sowie die beiden großen Epen Mahabharata und Ramayana. Sie haben mythologisch-religiöse Themen des Hinduismus zum Inhalt. Darüber hinaus entstanden viele andere bedeutende Werke auf den verschiedensten Gebieten, etwa Religion, Philosophie, Staatskunst und Wissenschaft. Mit dem Aufstieg des Buddhismus ab dem 5. vorchristlichen Jahrhundert wurde Pali zu einer bedeutenden Literatursprache, die unter anderem die Schriften des Theravada-Buddhismus hervorbrachte. In Südindien entwickelte sich als erstes Tamil zur klassischen Literatursprache. Die ältesten Werke entstanden vor rund 2000 Jahren. Aus der Blütezeit des frühen Tamil stammt die Sangam-Literatur. Sie enthält neben heroischen Werken über Könige und Kriege vor allem Liebeslyrik. Später traten Kannada, Telugu und Malayalam als bedeutende Schriftsprachen hervor. Im Mittelalter trat mit dem Islam eine neue Geistesströmung auf, die großen Einfluss auf die Literatur Indiens ausübte. Gleichzeitig verlor Sanskrit immer mehr an Bedeutung. Aus ihm bzw. den mittelindischen Prakritsprachen gingen neue Sprachen wie Hindustani, Bengalisch, Panjabi und Marathi hervor, die allesamt ihre eigene Literaturtradition entwickelten. Religiöse Dichtungen des Hinduismus wurden nun in den Regionalsprachen verfasst, die auch vom Volk verstanden werden konnten, und widmeten sich zunehmend der Bhakti, der hingebungsvollen Verehrung Gottes. Herausragende Vertreter dieser neuen Literatur sind unter anderem Tulsidas, Kabir und Mirabai im Hindi, Dnyaneshwar im Marathi oder Narasinh Mehta im Gujarati. Bemerkenswert ist die Verschmelzung von islamisch-persischen und indischen Elementen in der Urdu-Dichtung. Einige der schönsten Liebesgedichte wurden in dieser Sprache geschrieben, die schließlich zur Hofsprache der Moguln wurde und ab dem 17. Jahrhundert zur Blüte kam. Höchsten Ruhm erlangten die Ghaseln des Dichters Mirza Ghalib und die Werke des heute vor allem in Pakistan verehrten Muhammad Iqbal. Im 19. Jahrhundert verstärkte sich der westliche Einfluss auf die indische Literatur. Unter diesen Umständen erlebte vor allem die bengalische Literatur einen Aufschwung. Ihr bekanntester Vertreter ist sicher Rabindranath Thakur, der heute als Nationaldichter verehrt wird und bisher als einziger Inder den Nobelpreis für Literatur erhielt. Zwei seiner Gedichte wurden später die Nationalhymnen von Indien und Bangladesch. Seit dem frühen 20. Jahrhundert verwenden viele indische Schriftsteller auch das Englische für ihre Werke. Die zeitgenössische Literatur Indiens umfasst nicht nur alle großen Schriftsprachen des Landes, sondern hat auch eine breite Palette von Themen zum Gegenstand. Berühmte moderne Autoren sind Salman Rushdie, Arundhati Roy, R. K. Narayan, Mulk Raj Anand, Rohinton Mistry, Ruskin Bond, Amrita Pritam, Mahasweta Devi, Vikram Seth, Amitav Ghosh, Anita Desai und Dom Moraes. Musik. Die klassische indische Musik spaltet sich in zwei Hauptrichtungen: die hindustanische und die karnatische Musik. Die hindustanische Musik stammt aus Nordindien und ist stark vom persischen Kulturraum beeinflusst. Die karnatische Musik ist der vorherrschende klassische Stil Südindiens. Beiden liegen aber als wesentliche Konzepte Raga und Tala zugrunde. Der Raga stellt die melodische Grundstruktur dar. Jeder Raga beruht auf einer gewissen Tonfolge, die eine Gefühlsstimmung vermittelt. Gespielt wird er zu einem bestimmten Tala, einer Art Taktsystem, welches den Rhythmus des Musikstückes angibt. Typische Instrumente umfassen Saiteninstrumente wie Sitar, Vina, Sarod, Tanpura und Sarangi sowie Blasinstrumente (Flöte, Shehnai). Als Rhythmusinstrumente dienen beispielsweise die Tabla oder – in Südindien – der Mridangam. Der Sitarspieler und Komponist Ravi Shankar gilt als berühmtester Interpret der klassischen indischen Musik. Neben der klassischen Musik verfügt Indien über reiche Volksmusiktraditionen in den verschiedenen Landesteilen. Bekannt sind die Bhangra-Musik aus dem Punjab oder die bengalischen Baul-Musiker. Heute ist die traditionelle Volksmusik eher auf ländliche Gebiete beschränkt. Größter Beliebtheit unter der gesamten Bevölkerung erfreut sich hingegen die indische Popmusik, die Merkmale sowohl westlicher als auch volkstümlicher und klassischer indischer Musik aufweist. Eingängige Ohrwürmer aus populären Kinofilmen finden besonderen Anklang. Zu den erfolgreichsten und bekanntesten Sängern indischer Filmmusik zählen Lata Mangeshkar, Kishore Kumar, Mohammed Rafi, Manna De und Asha Bhosle. Tanz. Im Hinduismus haben Tänze von jeher eine wichtige Rolle gespielt, einerseits als getanzte Version des Gebetes, andererseits um mythologische Themen darzustellen. So ist es nicht verwunderlich, dass sich in Indien eine ungeheure Vielfalt von klassischen Tänzen, die meist Züge des Schauspiels tragen, herausgebildet hat. Der Tanz ist eine der am höchsten entwickelten Kunstformen Indiens. Oft haben selbst kleinste Bewegungen und Gesichtsausdrücke eine sinnbildliche Bedeutung. Klassische Tänze beruhen in der Regel auf literarischen Grundlagen. Unter den klassischen Stilen ragt der Bharatanatyam hervor, ein im Ursprung tamilischer, heute aber in ganz Indien geschätzter Einzeltanz. Ihm ähnlich ist der aus Andhra Pradesh stammende Kuchipudi-Tanz, der jedoch mehr schauspielerische Bestandteile hat. Eine der ausdrucksstärksten Formen des Tanztheaters entstand in Kerala mit dem von Männern ausgeübten Kathakali. Mohiniyattam, ein Fraueneinzeltanz, stammt ebenfalls aus Kerala. Odissi ist der klassische Tempeltanz Odishas. Auch der nordindische Kathak war ursprünglich ein Tempeltanz, der aber unter den Mogulherrschern islamischen Einflüssen ausgesetzt war und sich zum höfischen Tanz entwickelte. Der Manipuri aus dem nordostindischen Manipur weist dagegen Einflüsse aus dem birmanischen Kulturkreis und regionale Besonderheiten auf. Er wird in der Gruppe dargeboten. Darüber hinaus besteht in Indien eine Vielzahl von regionalen Volkstänzen. Diese werden zu den unterschiedlichsten Anlässen dargeboten, etwa zu Hochzeiten, regionalen Festen, bei der Ernte oder zu Beginn des Monsuns. Sehr bekannt sind etwa der Bhangra aus dem Punjab und der Garba aus Gujarat. Malerei. Obwohl die Bildhauerei in Indien lange Zeit als die höhere Kunstform galt, gab es schon früh eine hoch entwickelte Tradition der Malerei. Abgesehen von vorgeschichtlichen Malereien und verzierten Keramiken aus der Induskultur stammen die frühesten Beispiele aus der Guptazeit. Die buddhistischen Felsmalereien in den Höhlen von Ajanta gelten als Meisterwerke dieser Epoche. Spätere Werke in Ajanta sowie hinduistische, jainistische und buddhistische Darstellungen in den Höhlen von Ellora setzten den Guptastil fort. "Rāgā Srī, König der Liebe, mit Pagen." Dekkanstil, um 1595 Mit dem Auftreten des Islam ab dem 12. Jahrhundert gewann die Malerei als höfische Kunst in persischer Tradition allmählich an Bedeutung. Den Höhepunkt ihrer Entwicklung erreichte sie mit dem Mogulstil des 16. bis 18. Jahrhunderts. Vor allem die Miniaturmalerei erlebte eine Blüte. Abgebildet wurden fast ausschließlich weltliche Dinge, daher überwiegen Porträts wichtiger Persönlichkeiten des Reiches sowie Darstellungen des höfischen Lebens und bedeutender geschichtlicher Ereignisse. Auch in anderen islamisch geprägten Teilen Indiens blühte die Miniaturmalerei. So entwickelte sich an den Höfen der Dekkan-Sultanate eine eigenständige Stilrichtung. Der Mogulstil nahm auch Einfluss auf die Entstehung der rajputischen Malerei an den Höfen der vielen Fürstenstaaten Rajasthans. Diese widmete sich allerdings vorwiegend hinduistischen Themen, etwa der Illustration der großen Hindu-Epen Mahabharata und Ramayana. Besonders beliebt waren Darstellungen aus dem Leben Krishnas. Auf Grund der Vielzahl der rajputischen Fürstenhöfe entstanden verschiedene Malschulen. Jede Schule entwickelte zwar eigene Besonderheiten, allen sind aber die großflächige Zeichnung und die leuchtenden Farben gemein. Figuren wurden oft ohne Schatten dargestellt. Im westlichen Himalaya entwickelte sich im 18. Jahrhundert die Pahari-Schule. Auch sie wird von hinduistischen Motiven beherrscht. Kennzeichnend sind Landschaftsdarstellungen mit nur wenigen Figuren. Westliche Einflüsse während der britischen Kolonialzeit brachten umwälzende Veränderungen mit sich. Gegen Ende des 19. Jahrhunderts befand sich die traditionelle indische Malerei im Niedergang. Stattdessen versuchten Maler wie Raja Ravi Varma europäische Stile, allen voran den Realismus, nachzuahmen. Erst nach der Jahrhundertwende fanden althergebrachte Stilelemente wieder Eingang in die Werke indischer Künstler, darunter der Bengalischen Schule um Abanindranath Tagore. Die moderne Malerei Indiens greift westliche Kunstrichtungen auf, führt aber auch indische Traditionen fort und entwickelt sie weiter. Der bekannteste moderne Künstler ist Maqbul Fida Husain. Außerdem hat es in Indien schon immer eine starke Tradition der volkstümlichen Malerei gegeben. Auf dem Land werden oft Häuser aufwändig bemalt. Besonders bekannt ist die Madhubani-Malerei aus Bihar. Zunehmend findet auch die Kunst der indischen Stammesbevölkerung Anerkennung. Film. Der Film ist zweifellos einer der wichtigsten Bestandteile der modernen Alltagskultur Indiens. Mit mehr als 1000 Produktionen jährlich ist die indische Filmindustrie die größte der Welt. Die kulturelle, vor allem sprachliche, Vielfalt spiegelt sich daher auch in diesem Genre wider. So hat jede der großen Regionalsprachen ihre eigene Filmindustrie. Der Hindi-Film bringt die meisten Produktionen hervor. Er wird in Mumbai produziert und ist bezüglich seines Kommerzkinos unter dem Namen „Bollywood“ bekannt. Shah Rukh Khan, Amitabh Bachchan und Rani Mukerji sind beliebte und berühmte Bollywood-Schauspieler. Auch das bengalische, Kannada-, tamilische, Telugu- und Malayalam-Kino sind sehr beliebt und haben große Massenwirksamkeit. Die wesentlichsten Merkmale der Unterhaltungsfilme ähneln einander in allen regionalen Produktionen. Die oft mehr als drei Stunden langen Filme enthalten viele Musik- und Tanzszenen, ohne die kein kommerzieller Film vollständig wäre. Bisweilen wird die Filmmusik schon im Voraus veröffentlicht. Ist sie ein Erfolg, wird auch der Film mit hoher Wahrscheinlichkeit zum Kassenschlager. Von den Schauspielern wird erwartet, dass sie tanzen können, während die Gesangseinlagen von professionellen Sängern übernommen werden. Auffällig ist auch die Mischung aus komischen, romantischen, dramatischen und Actionelementen. Darüber hinaus findet auch das Autorenkino viel Anerkennung. International bekannt sind etwa die beiden bengalischen Regisseure Satyajit Ray und Mrinal Sen. Sport. Viele der in Indien ausgeübten Sportarten haben ihren Ursprung in England und haben sich während der britischen Kolonialherrschaft verbreitet. Das englische Cricket ist die mit Abstand beliebteste Sportart, es wird in Indien sogar mittlerweile besser gespielt als im Ursprungsland, die zweitbeliebteste Sportart ist Hockey. In einigen Landesteilen, wie Goa, Kerala und Westbengalen, ist auch Fußball äußerst populär. Die Nationalmannschaft belegt derzeit Platz 154 der FIFA-Weltrangliste (Stand: Dezember 2013). Narain Karthikeyan aus Chennai war Indiens erster Formel-1-Pilot. Seit 2011 wird der Große Preis von Indien auf dem Buddh International Circuit ausgetragen. Vorher, nämlich 2007, entstand mit Force India ein eigenes indisches Formel-1-Team. Außerdem hat Indien einige der besten Schachspieler der Welt hervorgebracht, darunter den ehemaligen Schachweltmeister Viswanathan Anand. Bei Olympischen Spielen errangen indische Sportler insgesamt 20 Medaillen. Indien war mit seiner Hockey-Nationalmannschaft von 1928 bis 1964 unangefochten dominierend; bei diesen 8 Spielen gewann man 7-mal Gold und einmal Silber. Als einziger Einzelsportler errang Abhinav Bindra eine weitere Goldmedaille für das Land. Norman Pritchard, Khashaba Jadhav, Leander Paes, Karnam Malleswari, Rajyavardhan Singh Rathore, Sushil Kumar und Vijender Kumar gewannen ebenfalls Medaillen (3x Silber, 5x Bronze) für Indien. Im Jahre 2010 wurden die Commonwealth Games in Neu-Delhi ausgetragen. Yoga. Die Körperstellungen (Asanas) des etwa 2000 Jahre alten Yoga sind der im Westen bekannteste Teil des Yoga (vgl. Hatha Yoga). Autogenes Training und andere verwandte Übungsarten sind daraus abgeleitet. Yoga bereitet Meditation vor und ergänzt Religionen, obwohl es selbst keine ist. Beispiel: Der Sonnengruß (auch Sonnengebet), ist eine dynamische Abfolge von Bewegungen, die auch der symbolischen indischen Sonnenanbetung (Surya) entspricht. Asanas und Ayurveda sind ein Bestandteil alter indischer Praktiken, die weitaus mehr als westliche die ganzheitliche Gesundheit und spirituelle Erfahrung einschließen. Küche. Die indische Küche spiegelt sowohl die regionale Vielfalt als auch die unterschiedlichen historischen und religiösen Prägungen des Landes wider. Von einer einheitlichen Kochkultur kann daher nicht die Rede sein. Vielmehr unterscheiden sich Zutaten und Essgewohnheiten ähnlich stark voneinander wie in Europa. Allgemein nimmt Fleisch einen geringeren Stellenwert als in den westlichen Küchen ein. Die meistverzehrte Fleischsorte ist Huhn. Am beliebtesten sind Fleischgerichte noch bei Muslimen, die aber kein Schweinefleisch zu sich nehmen, während viele Hindus ganz vegetarisch leben. Rindfleisch lehnen die meisten von ihnen – ebenso wie die Sikhs – strikt ab. Jainas ist sogar der Genuss jeglicher tierischer Nahrungsmittel strengstens untersagt. Als Bratfette sind Pflanzenöle weitaus üblicher als tierische Fette. Als Grundnahrungsmittel dienen in Nord- und Westindien neben Reis verschiedene Weißbrotsorten (Roti), deren verbreitetste Variante Chapati, ein ungesäuertes Fladenbrot aus Weizenvollkornmehl, ist. Im Gegensatz dazu wird das im Nordwesten verbreitete Naanbrot mit Hefe gebacken. In Süd- und Ostindien ist Reis das wichtigste Nahrungsmittel schlechthin. Als Beilagen sind Hülsenfrüchte wie Linsen, Kichererbsen, Straucherbsen, Urdbohnen und Mungbohnen üblich. Das in der westlichen Welt als Gewürzmischung bekannte und als Sinnbild der indischen Küche angesehene Wort „Curry“ ist in Indien ein Begriff für die Zubereitungsart einer Vielzahl vegetarischer oder fleischhaltiger Gerichte in einer oft stark gewürzten Soße. Tatsächlich sind die Masala genannten Gewürzmischungen in der indischen Küche unentbehrlich, ihre Rezeptur und Verwendung variiert jedoch je nach Region beträchtlich. Zu Currys werden häufig gewürzte süß-saure Chutneys aus Gemüse und Obst gereicht. Milchprodukte, beispielsweise Ghee (Butterschmalz) und Joghurt, sind ebenfalls gängige Zutaten vieler Speisen und Soßen. Beliebte Getränke sind Kaffee, Tee, Masala chai (Milchtee mit Gewürzen), Fruchtsäfte und Getränke auf Milchgrundlage wie Lassi (ein Joghurtgetränk). Alkoholische Getränke werden von vielen Indern aus religiösen Gründen abgelehnt. In einigen Bundesstaaten ist Alkohol sogar generell nicht erhältlich. Feiertage und Feste. Als Nationalfeiertage werden der "Republic Day" (Tag der Republik) am 26. Januar, dem Tag des Inkrafttretens der Verfassung im Jahre 1950, und der "Independence Day" (Tag der Unabhängigkeit) am 15. August, der an das Ende der britischen Kolonialherrschaft 1947 erinnert, begangen. Letzterer wird jedoch nicht so aufwändig zelebriert wie der Tag der Republik, an dem in Delhi eine große Parade stattfindet, die vom Staatspräsidenten abgenommen wird. Auch der Geburtstag des Führers der Unabhängigkeitsbewegung Mohandas Karamchand („Mahatma“) Gandhi am 2. Oktober (Gandhi Jayanti) sowie mehrere religiöse Feste sind landesweite gesetzliche Feiertage. Religiöse Festtage nehmen in Indien einen außerordentlich hohen Stellenwert ein. Zu den wichtigsten hinduistischen Feierlichkeiten gehören das Lichterfest Diwali, Dashahara (der Tag des Sieges von Rama über den Dämonen Ravana), die Frühlingsfeste Holi und Vasant Panchami, Ganesh Chaturthi zu Ehren Ganeshas, Raksha Bandhan (Fest der „Schützenden Verbindung“ zwischen Geschwistern) sowie viele weitere Pujas zu Ehren einzelner Gottheiten. Muslime feiern etwa das Opferfest "(Id al-Adha)" zum Höhepunkt der Pilgerfahrt (Haddsch) nach Mekka und "Id al-Fitr" zum Ende des Fastenmonats Ramadan. Der wichtigste Feiertag der Sikhs, Buddhisten und Jainas ist der Geburtstag ihres jeweiligen Glaubensstifters (Nanak Dev bzw. Buddha bzw. Mahavira). Christen feiern vor allem Ostern und Weihnachten. Daneben existiert eine unüberschaubare Vielzahl regionaler Feste. In der Erntezeit feiert man in ländlichen Gegenden Erntedankfeste wie das tamilische Pongal oder Lohri im Punjab, während die Menschen in anderen Landesteilen am selben Tag Makar Sankranti feiern. Medien. Gemäß der Verfassung von 1950 gelten in Indien Meinungs- und Pressefreiheit, auch wenn diese in Krisengebieten wie Kaschmir und Teilen der Nordostregion eingeschränkt sind. Auf Grund seiner pluralistischen Gesellschaft besitzt Indien jedoch eine überaus breit gefächerte Medienlandschaft. Printmedien. Indiens erste Zeitung, die englischsprachige "Bengal Gazette," erschien 1780 in Kalkutta. Heute weist Indien eine äußerst vielfältige Presselandschaft auf. Die indische Presse gilt als kritisch, auch die thematische Bandbreite ist außerordentlich groß. Im Land erscheinen etwa 55.000 Zeitungen und Zeitschriften – mehr als in jedem anderen Land der Welt – mit einer Gesamtauflage von über 140 Millionen. Darunter sind mehr als 5000 Tageszeitungen. Die meisten Printmedien werden auf Hindi verlegt, das 45 % des gesamten Pressemarktes ausmacht. Englischsprachige Zeitungen haben einen Anteil von 17 %. Der Rest verteilt sich auf über 100 Sprachen und Dialekte. Dem "Indian Readership Survey (IRS) 2013" zufolge waren die zehn meistgelesenen Tageszeitungen "Dainik Jagran" (Hindi; 15,527 Mio. Leser), "Hindustan" (Hindi; 14,246 Mio. Leser), "Dainik Bhaskar" (Hindi; 12,857 Mio. Leser), "Malayala Manorama" (Malayalam; 8,565 Mio. Leser), "Daily Thanthi" (Tamil; 8,156 Mio. Leser), "Rajasthan Patrika" (Hindi; 7,665 Mio. Leser), "The Times of India" (englisch; 7,254 Mio. Leser und somit die größte englischsprachige Zeitung), "Amar Ujala" (Hindi; 7,071 Mio. Leser), "Mathrubhumi" (Malayalam; 6,136 Mio. Leser) und "Lokmat" (Marathi; 5,601 Mio. Leser). Weitere Tageszeitungen in englischer Sprache mit mehr als einer Million Leser sind "The Hindustan Times" (English; 4,335 Mio. Leser), "The Hindu" (English; 1,473 Mio. Leser) und "Mumbai Mirror" (English; 1,084 Mio. Leser). Auch auf dem Zeitschriftenmarkt dominieren hindisprachige Ausgaben. Indiens meistgelesene Zeitschrift war 2013 "Vanitha" (Malayalam; 2,762 Mio. Leser), gefolgt von "India Today (English)" (English; 1,532 Mio. Leser), "Pratiyogita Darpan" (Hindi; 1,457 Mio. Leser), das Frauenmagazin "Saras Salil" (Hindi; 1,174 Mio. Leser), "India Today (Hindi)" (Hindi; 1,151 Mio. Leser), "Samanya Gyan Darpan" (Hindi; 1,094 Mio. Leser) und "Manorama Thozil Veedhi" (Malayalam; 1,012 Mio. Leser). Die wichtigsten Nachrichten- und Presseagenturen sind "Press Trust of India" (PTI) und "United News of India" (UNI). Hörfunk. Bis in die frühen 1990er Jahre war der Hörfunk das dominierende elektronische Medium. Mit knapp 200 Millionen Zuhörern erreicht er jedoch inzwischen nur noch halb so viele Menschen wie das Fernsehen. Auch die Monopolstellung des staatlichen "All India Radio," das in 24 Sprachen sendet und im ganzen Land empfangen werden kann, ist durch die steigende Zahl privater UKW-Sender längst gebrochen. In den großen Städten haben private Hörfunksender das Staatsradio bereits überholt. Fernsehen. Das Fernsehen wurde erstmals am 15. September 1959 im Raum Delhi eingeführt. Ein regelmäßiges Programm besteht jedoch erst seit 1965. Aus Anlass der Asienspiele im Jahre 1982 in Neu-Delhi wurde das Farbfernsehen eingeführt. Im selben Jahr begann die Ausstrahlung von Fernsehprogrammen über Satellit. Zunächst blieb das Fernsehen einer kleinen, wohlhabenden Minderheit vorbehalten, erlebte aber in den 1980er Jahren einen rasanten Zuschauerzuwachs und ist heute das mit Abstand beliebteste Massenmedium in Indien. Dem Staatsfernsehen "Doordarshan," das bis 1991 eine Monopolstellung innehatte, stehen mittlerweile zahlreiche private Satelliten- und Kabelsender gegenüber. Letztere finden ihr Publikum vor allem unter der jüngeren Stadtbevölkerung. Inzwischen verfügt etwa die Hälfte der rund 100 Millionen Fernsehhaushalte über einen Kabelanschluss. Die zuschauerstärksten Privatsender sind "STAR Plus," "Sony TV" und "Zee TV." Internet. Das Internet ist bisher nur einer kleinen Minderheit zugänglich, vor allem der wohlhabenden Bevölkerung. Lediglich 2 % der Bevölkerung nutzen es. Die Zahl der Benutzer steigt allerdings rapide an, nicht zuletzt dank der Internetcafés, die sich zusehends verbreiten. Die größeren der indischen Tageszeitungen sind mit einer Online-Version im Internet präsent. Verlagswesen und Buchmarkt. In 12.000 Verlagen erscheinen jährlich rund 90.000 Titel in über 18 Sprachen. Indien ist der drittgrößte Markt für englischsprachige Publikationen, der stark vom Wegfall eines investitionsbeschränkenden Gesetzes profitiert. Zunehmend wird Verlagsarbeit vor allem aus den Abteilungen Herstellung, Englisch und Online aus Industrieländern nach Indien verlagert (gemäß ValueNotes mit 122 Milliarden INR Umsatz) besonders im Bereich wissenschaftlicher, technischer und medizinischer Fachliteratur. Alle zwei Jahre findet in Neu-Delhi eine der weltgrößten (weitere siehe: Buchmessen) statt, die "New Delhi World Book Fair," zuletzt im Februar 2010. Indus-Kultur. Ausdehnung und wichtigste Stätten der Indus-Kultur. Die bronzezeitliche Indus-Kultur oder Indus-Zivilisation war eine der frühesten städtischen Zivilisationen, die sich etwa in den Jahren 2800–1800 v. Chr. entlang des Indus im Nordwesten des indischen Subkontinents entwickelte. Sie erstreckte sich über fast das gesamte heutige Pakistan sowie Teile Indiens und Afghanistans, insgesamt umfasste sie 1.250.000 km² und damit eine größere Landfläche als das antike Ägypten und Mesopotamien zusammen. Sie war neben diesen eine der drei frühesten Zivilisationen der Welt. Sie wird teilweise auch "Harappa" oder "Harappa-Kultur" genannt, nach Harappa, einem der Hauptausgrabungsplätze am Ravi. Eine weitere alternative Benennung dieser Kultur lautet "Sindhu-Sarasvati-Zivilisation"; hinter dieser Bezeichnung steht die Theorie, dass sie eine in der vedischen Literatur erwähnte Zivilisation sei. Möglicherweise ist sie auch mit dem Sumerischen "Meluha" zu identifizieren. Bis heute sind über 1050 Fundorte identifiziert, hauptsächlich entlang des Indus. Zusätzlich gibt es Hinweise auf einen anderen großen Fluss östlich des Indus, der heute ausgetrocknet ist und der antike Ghaggra-Hakra oder Sarasvati gewesen sein könnte. Über 140 antike Städte und Siedlungen wurden an seinem Lauf gefunden. Die beiden größten urbanen Zentren der Harappakultur waren wohl Harappa und Mohenjo-Daro, daneben gab es noch große Städte bei Dholavira, Ganweriwala, Lothal und Rakhigarhi. Zu ihrer Blütezeit zählte die Indus-Kultur vermutlich über fünf Millionen Menschen. Diese frühe indische Kultur kannte bereits Architektur und eine regelmäßige Städteplanung einschließlich gepflasterter Straßen mit Straßenablauf (Gullys). Sie entwickelte zum ersten Mal in der Geschichte der Menschheit den gebrannten Ziegel mit den perfekten, noch heute gebräuchlichen Proportionen 1:2:4, der als Einhandziegel in allen Richtungen beliebig addierbar ist. Möglicherweise besaß sie auch eine Schrift; ob aber die sogenannte Indus-Schrift tatsächlich eine Schrift ist, wird in Fachkreisen bisher kontrovers diskutiert. Entdeckung und Erforschung der Indus-Kultur. Die Quellen zur Harappa-Kultur sind anders als die zu den anderen beiden Hochkulturen in Ägypten und Mesopotamien sehr spärlich. Erst etwa zehn Prozent ihrer Siedlungen wurden ausgegraben. Weder wurde bislang ihre Schrift entschlüsselt, noch ihr Verschwinden ab etwa 1900 v. Chr. geklärt. Selbst Texte des Sanskrit aus dem 1. vorchristlichen Jahrtausend erwähnen diese frühe Kultur nicht direkt. Ebenfalls nicht sicher ist, welche Sprache die Menschen damals sprachen oder wie sie sich selbst nannten. Obwohl die Ruinenstätte in Harappa schon länger bekannt war und erstmals 1844 von Charles Masson in seinem Buch "Narrative of Various Journeys in Balochistan, Afghanistan and The Panjab" als „eine aus Ziegeln errichtete, zerstörte Befestigung“ beschrieben wurde, ist ihre Bedeutung erst sehr viel später erkannt worden. Im Jahr 1857 verwendeten die Briten beim Bau der Ostindischen Eisenbahn von Karatschi nach Lahore zur Befestigung der Trasse gebrannte Ziegel, die sie auf dem nahe gelegenen Ruinenfeld in Harappa fanden. Die Fundlage in Harappa ist daher im Vergleich zu Mohenjo-Daro recht schlecht. Auch Mohenjo-Daro war schon längere Zeit bekannt, hier interessierte man sich jedoch eher für die Reste eines späteren buddhistischen Klosters aus dem 2. Jahrhundert n. Chr., das auf den Ruinen errichtet worden war. Im Jahre 1912 fand J. Fleet im damaligen Britisch-Indien Siegel mit unbekannten Schriftzeichen, was in Europa das Interesse der wissenschaftlichen Öffentlichkeit weckte. Daraufhin wurden in den Jahren 1921/22 unter anderem in Harappa und Mohenjo-Daro unter der Leitung von John Marshall, dem damaligen Direktor des britischen Antikendienstes, Grabungen durchgeführt. Die Ähnlichkeit der beiden ausgegrabenen Städte machte schnell deutlich, dass hier eine bisher unbekannte Hochkultur entdeckt worden war. Bis 1931 wurden von der Stadt Mohenjo-Daro mehr als 10 Hektar freigelegt, danach jedoch fanden nur noch kleinere Grabungen statt, unter anderem im Jahr 1950 durch den Briten Mortimer Wheeler. 1935/36 wurde mit Chanhu Daro ein weiterer Fundort der Indus-Kultur ausgegraben. Seit der Teilung Britisch-Indiens im Jahr 1947 befindet ist das Siedlungsgebiet der Harappa-Kultur zwischen Pakistan und Indien geteilt. In Pakistan übernahmen Amerikaner, Franzosen, Briten und Deutsche zusammen mit pakistanischen Archäologen die weitere Forschungsarbeit, während in Indien der indische Antikendienst die Arbeit weiterführte. Großen Einfluss auf die Indus-Forschung hatten und haben, neben den bereits erwähnten Archäologen, der Brite Aurel Stein, der Inder Nani Gopal Majumdar und der Deutsche Michael Jansen. Entwicklung. Die frühesten bekannten Hinweise auf menschliche Aktivität auf dem Gebiet des heutigen Pakistans stammen aus der Altsteinzeit und sind etwa 500.000 Jahre alt. Um etwa 8000 v. Chr. vollzog sich hier der Übergang vom Jäger und Sammler hin zum Bauern und Viehzüchter und damit verbunden eine Sesshaftwerdung. Es entwickelten sich frühe Ackerbau-Kulturen, die auch in den Hügeln von Belutschistan im heutigen Pakistan auftauchten. Die am besten erforschte Stätte dieser Zeit ist Mehrgarh, die um 6500 v. Chr. entstand. Diese Bauern domestizierten Weizen und Rinder und benutzten ab 5500 v. Chr. auch Töpferwaren. Ab etwa 4000 v. Chr. wurden zudem Erbsen, Sesam, Datteln und Baumwolle angebaut, und auch der Wasserbüffel, bis heute essentiell für die Landwirtschaft in Süd-Asien, wurde domestiziert. Die Besiedlung des Industals geschah wohl von den Rändern zum Zentrum hin. Ab dem vierten vorchristlichen Jahrtausend ist die Amri-Kultur im Industal bezeugt. Sie geht an vielen Orten wie etwa Amri direkt der Indus-Kultur voraus. 2600 v. Chr. wandelten sich die kleinen Dörfer zu Städten mit mehreren tausend Einwohnern, die nicht mehr primär in der Landwirtschaft tätig waren. Es entstand eine Kultur, die im Umkreis von 1000 Kilometern einheitlich konstruierte Städte hervorbrachte. Das plötzliche Auftreten scheint die Folge einer geplanten und bewussten Anstrengung gewesen zu sein. So wurden einige Städte komplett umgebaut, um einem wohldurchdachten Plan zu entsprechen, oder auch von Grund auf neu angelegt, was sich auch in Mohenjo Daro erkennen lässt, wo keinerlei Spuren vorheriger Siedlungen gefunden wurden. Der Aufbau vieler der größeren Städte im Industal ist frappant ähnlich, so dass die Harappa-Zivilisation wohl die erste war, die Städteplanung entwickelte. Frühere Gelehrte konnten dieses plötzliche Auftreten nur durch externe Faktoren wie Eroberung oder Zuwanderung erklären. Neuere Erkenntnisse beweisen aber, dass die Harappa-Kultur tatsächlich aus den Ackerbau-Kulturen in diesem Gebiet hervorging. Landwirtschaft. Die Techniken der damaligen Landwirte sind heute aufgrund der nur spärlichen Überlieferung weitestgehend unbekannt. Anscheinend wurde bereits vor der Indus-Kultur der Pflug erfunden, der von Wasserbüffeln gezogen wurde. In der folgenden Harappa-Zivilisation muss die Landwirtschaft außerordentlich produktiv gewesen sein, sonst hätten die vielen tausend Stadtbewohner, die nicht primär in der Landwirtschaft tätig waren, nicht ernährt werden können. Zweifellos machten die damaligen Bauern vom fruchtbaren Schlamm des Indus Gebrauch, ähnlich wie die alten Ägypter vom Nilschlamm. Hinweise auf Dämme oder Bewässerungskanäle wurden bis heute nicht gefunden; falls es Bauwerke dieser Art gab, sind sie vermutlich bei den zahlreichen Überflutungen in der Gegend zerstört worden. Aus einer kürzlich in Indien entdeckten Stadt weiß man jedoch, dass damals Regenwasser in massiven, aus dem Fels gehauenen Reservoirs gesammelt wurde, welche die Städte während Trockenperioden versorgen konnten. Die Landwirte der Harappa-Kultur bauten Weizen, Gerste, Linsen, Kichererbsen, Erbsen, Baumwolle und Flachs an. Gujarat gehörte zum Einflussbereich der Harappa-Kultur (Sorath-Harappa), war aber wegen des Fehlens größerer Flüsse auf Regenfeldbau angewiesen und zeigt daher deutliche Unterschiede in der Wirtschaftsweise. In Fundstellen der späten Harappa-Kultur wie Rojdi und Kuntasi überwiegt bei den Pflanzenresten die Kutkihirse, außerdem wurden Reste der quirligen und roten Borstenhirse gefunden. Weizen und Gerste sind nur spärlich belegt. Aus Rangpur und Lothal stammen Topfscherben, die angeblich mit Reisstroh gemagert waren. Das ist bisher der einzige und unsichere Nachweis für die Domestikation von Reis in der Harappa-Kultur. Sichere Reste von Reis stammen erst aus dem späten 2. Jahrtausend. Ob der Wasserbüffel domestiziert war oder nur gejagt wurde, ist bislang unklar. Wegen zahlreicher Knochenfunde nimmt man an, dass das Huhn seit der späten Harappa-Kultur als Haustier gehalten wurde. Aus Kalibangan stammen Spuren des Ackerbaus mit dem einfachen Hakenpflug (Arl) aus der frühen Harappa-Kultur. Kinderspielzeug von Mohenjo-Daro, Nationalmuseum Neu-Delhi Handwerk, Kunsthandwerk und Gewerbe. Es gab eine sehr weitgehende gewerbliche Arbeitsteilung, auch räumlich. Ausgrabungen entlang dem Ghaggra, einem heute ausgetrockneten Flusses östlich des Indus, legen nahe, dass sich die Siedlungen auf jeweils eine oder mehrere Produktionstechniken spezialisierten. So wurde beispielsweise in einigen Städten eher Metall verarbeitet, während andere bevorzugt Baumwolle produzierten. Binnenhandel. Anders als in den 1950er Jahren vermutet und aus den Kulturen in Mesopotamien bekannt, herrschte im Industal vermutlich keine zentrale Tempelwirtschaft, die über Tribute die Überschüsse einsammelte und – nach Abzug eines mehr oder weniger großen Anteils für die Elite – an die verschiedenen Spezialistengruppen nach Bedarf verteilte. Vielmehr basierte der Austausch innerhalb der schon recht arbeitsteiligen Wirtschaft vorwiegend auf dem Handel. Dieser wurde durch bedeutende Fortschritte in der Transporttechnologie begünstigt. Man kannte sowohl Karren, die denen im heutigen Südasien benutzten sehr ähnlich waren, als auch Boote und Schiffe. Die meisten dieser Schiffe waren vermutlich kleine Flachbodenboote, wie sie auch heute noch am Indus anzutreffen sind. Ob die Karren, von denen meistens nur Terrakotta−, aber auch Bronzemodelle existieren, im profanen Gebrauch waren, bleibt allerdings angesichts der über mesopotamische Wagenmodelle gewonnenen Erkenntnisse offen. Die wichtigsten Güter des Binnenhandels waren vermutlich Baumwolle, Holz, Getreide, Vieh und weitere Lebensmittel. Ein hochstandardisiertes und sehr feines System von Maßeinheiten wurde verwendet, um den Handel zu organisieren – und vermutlich auch, um Steuern einzutreiben. Außenhandel. Nach der Verteilung der Artefakte der Indus-Zivilisation zu urteilen, umspannte das Handelsnetz ein großes geographisches Areal, das sich über Teile Afghanistans, die Küstenregionen im heutigen Iran, Nord- und Zentralindien und Mesopotamien erstreckte. In vielen dieser Länder fanden sich Orte der Induskultur, die offensichtlich Handelsenklaven waren. Bei Shortugai konnten Teile einer Siedlung der Indus-Kultur ausgegraben werden, die vielleicht im Lapislazulihandel Bedeutung hatte. Am Persischen Golf fanden sich bei Ra's al-Dschunaiz Reste einer Siedlung, die wahrscheinlich ein Stützpunkt im Seehandel war. Vor allem mit Sumer ist durch Funde und Dokumente in Sumer ein reger Warenaustausch belegt, sowohl über Land durch den heutigen Iran als auch über See via Dilmun (heute: Bahrain). So wurde zum Beispiel im Grab der Königin Puabi, die um 2500 v. Chr. in Ur in Mesopotamien lebte, Karneol-Schmuck aus der Indusregion gefunden. Zudem benutzt eine sumerische Inschrift, die sich vermutlich auf die Indus-Kultur bezieht, den Namen "Meluha", was der einzige Hinweis darauf ist, wie sich die Menschen im Industal damals genannt haben könnten. Zentrum des Handels scheint Mohenjo Daro gewesen zu sein, wo Verwaltungs- und Handelsstrukturen identifiziert werden konnten. Wasserstraßen bildeten das Rückgrat der damaligen Transportinfrastruktur. Neben den schon genannten Binnenschiffen gab es auch größere, meerestaugliche Schiffe. Archäologen haben bei Lothal an der Küste des Arabischen Meeres Reste eines großen ausgebaggerten Kanals und Hafendocks entdeckt, dazu möglicherweise das älteste künstliche Hafenbecken der Welt; für die damalige Zeit war das sehr fortschrittlich. Für den Außenhandel wurden mehrere Handelsstationen weit außerhalb des Industals angelegt, außer dem oben genannten Lothal im Süden auch welche im Westen. Städtebau. Fast alle größeren Siedlungen der Indus-Kultur hatten eine zueinander ähnliche, streng geometrische städtebauliche Struktur. Eine zitadellenartige Oberstadt im Westen überragt die räumlich getrennte und annähernd parallelogrammförmige, rechteckige oder quadratische Unter- bzw. Wohnstadt im Osten. Die größte bisher gefundene antike Stadt im Industal ist Mohenjo-Daro („Hügel der Toten“), die im heutigen Pakistan in der Provinz Sindh direkt am Indus liegt. Gemeinsam mit anderen wichtigen archäologischen Stätten wie Kot Diji, Lothal, Harappa und Kalibangan zeichnet sie sich durch die einheitlich hohe Qualität des Städtebaus, insbesondere ihrer Wasserversorgung und Kanalisation, aus. Der britische Archäologe Stuart Piggott formulierte 1950, dass die Städte der Indus-Kultur schachbrettartig angelegt seien, ähnlich wie heute New York. Tatsächlich verlaufen jedoch nur die Nord-Süd-Achsen durchgehend, während die Ost-West-Straßen knickachsig sind. Gleichwohl zeugt die einheitliche Stadtarchitektur von fortgeschrittenen Kenntnissen in der Städteplanung und Hygiene sowie von einer effizienten Verwaltung. Monumentalbauten sakraler oder kultischer Natur waren der Indus-Kultur unbekannt. Da es in der Indusebene selbst keine nennenswerten Natursteinvorkommen gibt, bestehen alle erhaltenen Baustrukturen überwiegend aus luftgetrockneten Lehmziegeln. Nur in den Fundamenten größerer Bauanlagen wurde gelegentlich auch Naturstein eingesetzt. Holz kam vermutlich nur in Deckenkonstruktionen zum Einsatz. Bautechnisch bevorzugten die Architekten der Indus-Kultur rechtwinkliges Mauerwerk im Blockverband. Runde Brunneneinfassungen, die weder aus den vorharappanischen Kulturen noch den parallel in Mesopotamien und Ägypten existierenden Hochkulturen erhalten sind und daher wahrscheinlich eine Neuerung in der gesamten Baugeschichte darstellten, wurden aus keilförmigen Ziegeln gemauert. Gewölbe waren dagegen mit Ausnahme des Kraggewölbes unbekannt. Typischer Aufbau am Beispiel von Mohenjo Daro. Mohenjo-Daro ist die wohl am besten erforschte Stadt der Indus-Zivilisation. In den 1920er und 1930er Jahren führte der britische Antikendienst hier umfangreiche Grabungen durch und legte große Teile der Stadt frei, die in den letzten 4500 Jahren vom Schlamm des Indus vollständig begraben worden war. Wohl zum Schutz gegen Überschwemmungen wurde die Stadt auf einer künstlichen Plattform aus gebrannten Ziegeln und Erde errichtet. An einen höher gelegenen Bereich, der etwa 200 m breit und 400 m lang war und als Zitadelle bezeichnet wird, schloss sich ein als Unter- oder Wohnstadt bezeichneter Bereich an, wo sich die Wohnhäuser befanden. Zwischen der Zitadelle und der Unterstadt lag ein Freiraum von etwa 200 m. Hauptstraßen von zehn Meter Breite durchzogen die Unterstadt in Nord-Süd-Richtung, und kleinere Nebenstraßen zweigten rechtwinklig von ihnen in Ost-West-Richtung ab. So entstanden Häuserblöcke, in denen wohl die Einwohner der Stadt lebten. Die Zitadelle – deren Zweck unbekannt ist, es wird jedoch eine defensive Funktion vermutet – weist einen weitaus weniger schematisierten Grundriss als die blockartige Unterstadt auf. Hier wurde 1925 ein großes, aus speziellen gebrannten Ziegeln erbautes Becken entdeckt, das etwa 7 m × 12 m maß und über zwei Treppen bestiegen werden konnte. Es war von einem Laubengang umgeben und wurde von einem eigenen Brunnen, der sich in einem Nebenraum befand, mit Wasser versorgt. Ob es sich hierbei um ein Badebecken zur rituellen Waschung oder eine öffentliche Badeanstalt handelte, ist nicht bekannt. Ebenfalls auf der Plattform befand sich ein großes Gebäude, aus Backsteinen errichtet, das als Kornspeicher bezeichnet wird; diese Funktion ist jedoch nicht bewiesen. Häuser. Die in Straßenblöcken angelegten, rechteckigen Wohnhäuser in der Unterstadt waren aus gebrannten Ziegeln sehr zweckmäßig konstruiert. Etwa die Hälfte der Häuser waren 50–100 m² groß, fast ebenso viele zwischen 100–150 m², einige wenige hatten sogar 210–270 m² Wohnfläche. Nach außen geschlossen und schmucklos, bestanden sie typischerweise aus einem mit der Straße durch einen Vorraum verbundenen Innenhof, um den herum die eigentlichen Wohnräume angeordnet waren. In diesen Innenhöfen, die häufig teilweise überdacht waren, spielte sich das tägliche Leben ab. Über den Räumen lagen oft Dachterrassen, die über Treppen erreichbar waren. Das typische Haus verfügte über eine eigene Toilette, die zur Straße hin lag und über Tonröhren eine öffentliche Kanalisation speiste. Wasser lieferte der eigene Brunnen. Der Standard der Wasserver- und -entsorgung war sehr hoch und ist in manchen Teilen Pakistans und Indiens bis heute nicht wieder erreicht worden. Wissenschaft. Die detailliert geplanten und ingenieurmäßig errichteten Städte zeugen vom fortgeschrittenen Stand der damaligen Wissenschaft. Die Menschen der Indus-Kultur erreichten eine erstaunliche Präzision beim Messen von Längen, Massen und der Zeit. Sie waren vermutlich die ersten, die einheitliche Gewichte und Maße entwickelten und benutzten. Ihre Messungen waren sehr präzise. Ihr kleinstes Längenmaß, das auf einer Skale aus Elfenbein in Lothal gefunden wurde, entsprach etwa 1,704 mm, die kleinste Einheit, die jemals auf einer Skale der Bronzezeit entdeckt wurde. Gewichte basierten auf dem 0,05-, 0,1-, 1-, 2-, 5-, 10-, 20-, 50-, 100-, 200- und 500-fachen einer Grundeinheit, die etwa 28 Gramm schwer war. Auch dieses Dezimalsystem war bereits bekannt und im Einsatz. Als Baumaterial kamen erstmals in der Geschichte der Menschheit gebrannte Ziegel mit dem idealen und noch heute gebräuchlichen Kantenlängenverhältnis 1:2:4 zum Einsatz. Auch in der Metallurgie wurden neue Techniken entwickelt, mit denen die Handwerker der Harappa-Kultur Kupfer, Bronze, Blei und Zinn verarbeiteten. Funde aus dem Jahr 2001 aus Mehrgarh legen nahe, dass auch Grundlagen der Medizin und Zahnheilkunde beherrscht wurden. Kunst. Verglichen mit den Hochkulturen in Ägypten und Mesopotamien wurden am Indus recht wenige Steinplastiken gefunden. Entdeckt wurden unter anderem Köpfe sowie auf Podesten thronende Widder, was auf eine sakrale Bedeutung hinweist. Dagegen stellten die Menschen der Indus-Kultur Schmuck in vielen Variationen her. Ausgangsmaterial waren sowohl diverse Edelsteine wie Karneol, Achat, Jaspis und Lapislazuli als auch Gold (seltener), Kristalle und anderes Steingut. Mit hoher handwerklicher Fertigkeit, unter anderem beim Schleifen und Polieren, wurden daraus Armringe, Ketten und Kopfschmuck hergestellt. Daneben wurden viele kleinere Skulpturen aus Ton entdeckt, oft schlanke weibliche Figuren, die vermutlich Fruchtbarkeitssymbole darstellten, und Tierfiguren, die sehr detailliert gearbeitet waren. Kleine Ton- und Bronzefiguren, die entsprechende Szenen darstellen, beweisen, dass auch der Tanz, die Malerei und die Musik großgeschrieben wurden. Auf einem Siegel entdeckten Archäologen die Darstellung eines harfenähnlichen Instruments, und auch zwei Objekte aus Lothal konnten als Saiteninstrumente identifiziert werden. Sprache und Schrift. Trotz vielfältiger Versuche ist die Indus-Schrift, die mit keiner bekannten Schrift verwandt ist, bis heute nicht sicher entschlüsselt. Typische Inschriften sind nicht länger als vier oder fünf Zeichen, die längste bekannte Inschrift umfasst 26 Zeichen. In der Induskultur wurden Siegel (zum Beispiel in Form eines Löwen) als persönliche Unterschrift verwendet. Religion. Als erster versuchte John Marshall, der Ausgräber von Mohenjo-Daro und Harappa, die Indusreligion zu erklären, und kam dabei zum Schluss, dass viele Erscheinungen des späteren Hinduismus in der Indusreligion bereits vorhanden waren. Seine Thesen werden kontrovers diskutiert. Die akademische Forschung steht seinen Thesen kritisch gegenüber und versucht andere Annäherungen an die Indusreligion. Dagegen werden, besonders in hinduismus- und yogafreundlichen Kreisen, Marshalls Thesen tendenziell unkritisch übernommen. Die Erforschung wird durch die Tatsache, dass keine Texte bekannt sind, sehr behindert. Zudem ist es schwer, vorhandenes Material gesichert dem religiösen oder kultischen Bereich zuzuordnen. So können die Figurinen grundsätzlich als Spielzeuge, Ritualobjekte oder Götterdarstellungen interpretiert sein. Zudem weiß man nicht, ob die Industalkultur und somit auch deren religiösen Vorstellungen einheitlich waren. Siegel. Im Hinblick auf die gleichzeitigen mesopotamischen und iranischen Siegel ist auf den Indus-Siegeln mit religiös-mythischen Inhalten zu rechnen. Anthropomorphe Darstellungen könnten Menschen, Helden oder Gottheiten abbilden, theriomorphe können Tiere, aber auch mythische Wesen zeigen. So soll das Einhorn – eines der am häufigsten abgebildeten Tiere – vielleicht ein mythisches Wesen oder ein Symbol darstellen. Mehrköpfige Tiere und Mischwesen gehören der übernatürlichen Sphäre an, während einfache naturalistische Tierdarstellungen allenfalls einen Hintergrund in Zoolatrie haben könnten. Die Siegel zeigen auch Bäume; dabei scheinen die Pipalfeige ("Ficus religiosa") und Akazie ("Acacia sp.") eine besondere Rolle in der Induskultur gespielt zu haben. Eindeutiger der religiösen Sphäre gehören die narrativen Siegel an. Sie zeigen Prozessionen, bei denen einige Personen Tierstandarten tragen – ein möglicher Hinweis auf Zoolatrie. Darstellungen von Adoranten in kniender Position zeugen von Götterverehrung. Andere narrative Siegel stellen offensichtlich Szenen aus Heldensage oder Mythos dar. So zeigt ein Siegel eine Person zwischen zwei Tigern, ein verbreitetes Motiv in verschiedenen Kulturen. Auch die Darstellung einer Person, die in einem Baum sitzt, dürfte in diese Richtung zu deuten sein. Eine besondere Rolle spielen die in der Literatur häufig diskutierten Siegel mit Personen in außergewöhnlicher Sitzhaltung, wie das bekannte Mohenjo-Daro Siegel 420. Während allgemein eine kultisch-religiöse Bedeutung dieser Darstellungen angenommen wird, bleibt ein Zusammenhang mit dem späteren Yoga umstritten. Figurinen. Die vielen anthropomorphen Figurinen, oft nur grob ausgearbeitet, könnten als Spielzeug gedient haben, hatten aber offensichtlich zum Teil religiösen Charakter und scheinen dann eine Verwendung im Hauskult gehabt zu haben; dies wird daraus geschlossen, dass diese oft in kleineren Hinterräumen gefunden wurden. Dass einige dieser Figurinen beim Brennen mit Knochenasche eingefärbt wurden, was bei anderen Objekten nicht beobachtet wurde, ist ein wichtiges Indiz für den kultischen Charakter. Vielleicht sollten die Figurinen dadurch „belebt“ werden, ein Bezug zu Magie oder Schamanismus liegt nahe. Bauten. Bis anhin konnte kein Bauwerk eindeutig als Sakralbau identifiziert werden, auch das „Große Bad“ von Mohenjo-Daro zeigt keine deutlichen Anzeichen einer kultischen Benutzung. Niedergang und Kollaps. Über 700 Jahre lebten die Menschen der Indus-Zivilisation in Wohlstand, und ihre Handwerker fertigten Produkte von großer Schönheit und Qualität. Ab etwa 2000 v. Chr. kamen anscheinend größere Probleme auf, deren Art nicht bekannt ist, die aber zeitlich ungefähr mit Übergangsperioden in Ägypten bzw. Mesopotamien zusammenfielen (Übergang zum Mittleren Reich in Ägypten, bzw. Ende des Reiches von Ur-III in Mesopotamien). Die großen Städte wurden verlassen, und diejenigen Einwohner, die blieben, waren unterernährt. Um 1800 v. Chr. waren die meisten Städte aufgegeben. In den folgenden Jahrhunderten gingen die Erinnerungen und Errungenschaften der Indus-Kultur – im Gegensatz zu den Kulturen in Ägypten und Mesopotamien – komplett verloren. Die Harappa-Kultur hinterließ keine Monumentalbauten wie die Pyramiden in Ägypten oder die zahlreichen Zikkurat-Tempel in Mesopotamien, die ihre frühere Existenz bewiesen und ihre Erinnerung lebendig erhalten hätten. Man kann vermuten, dass dies nicht möglich war, da es im Industal wenig geeignete Steine gibt; doch gilt das gleiche auch für Mesopotamien. Eventuell war den Menschen der Indus-Kultur auch das Konzept von großen Monumentalbauten fremd. Es wurden weder Königsgräber noch irgendwelche wertvollen Grabbeigaben gefunden. Männer und Frauen wurden auf gleiche Weise beerdigt. Diese Indikatoren deuten auf eine wenig hierarchische Gesellschaft hin. Man spricht heute nicht mehr von einem relativ plötzlichen Untergang der Indus-Kultur, sondern von einem allmählichen Niedergang. In dessen Verlauf ist ein Auflösungsprozess zu erkennen: Die einheitliche Kultur mit dichtem Handelsnetz zerbrach in verschiedene regionale Kulturen, die unterschiedlich stark von der Indus-Zivilisation beeinflusst waren. Offensichtlich kam es auch zu Migrationen: Einige Menschen der Indus-Kultur scheinen in Richtung Osten gewandert zu sein, in die Gangesebene, andere wanderten zur fruchtbaren Ebene von Gujarat im Süden (West-Indien). Auch die Keramiktradition überlebte noch einige Zeit. Im Wesentlichen verschwanden also nicht die Menschen, sondern ihre Zivilisation: die Städte, die Schrift und die Handelsnetzwerke. Dieser Niedergang war jedoch nie vollständig, da viele Zivilisationsmerkmale überlebten und in spätere Hochkulturen eingingen: handwerkliches Wissen, Kunst, Landwirtschaft und möglicherweise Elemente der Sozialstruktur. Indus. Der Indus (Sanskrit, "Sindhu", "Sindh") ist mit 3180 km der längste Fluss auf dem indischen Subkontinent und wichtigster Strom Pakistans. Flussverlauf. Der Oberlauf des Indus entsteht im chinesischen Transhimalaya in Tibet aus dem Zusammenfluss von Gletscherbächen bei Sênggêkanbab und trägt in der Volksrepublik China den amtlichen Namen Sênggê Zangbo, den auch eine von ihm durchflossene Großgemeinde trägt. Der Fluss durchbricht den Himalaya und durchfließt anschließend den Tarbela-Stausee (254 km²; 13,69 km³) und die Provinzen Punjab sowie Sindh in Pakistan. Dort bildet er unterhalb von Hyderabad ein Delta von 7800 km² und mündet anschließend in das Arabische Meer. In seinem Mittellauf ist der Fluss Grundlage für umfangreiche Bewässerungsanlagen für die Landwirtschaft. Dort wird das größte landwirtschaftliche Bewässerungsgebiet der Erde durch eine Vielzahl von Staudämmen und Kanälen versorgt. Im Mittel- und Unterlauf mäandert der Fluss sehr stark. Ein Vertrag zwischen Indien und Pakistan (Indus-Wasservertrag 1960) regelt die Wasserversorgung. Die Menge des geführten Wassers schwankt stark wegen des Monsunregens. Das obere Indus-Tal in der Nähe von Leh Etymologie. Der Name „Indus“ geht über Vermittlung des Altgriechischen, genauer: des Ionischen Dialekts, der den Laut „h“ nicht kannte ("Indos") und Altpersischen ("Hinduš") auf das Sanskrit-Wort सिन्धु "sindhu" mit der Bedeutung „Fluss“ zurück. Vom Namen des Flusses ist auch die Bezeichnung „Indien“ abgeleitet. Der Name des Indus in den südasiatischen Sprachen (z. B. Urdu "Sindh") leitet sich hingegen direkt aus der Sanskrit-Form her. Auch die am Unterlauf des Indus gelegene Provinz Sindh hat ihren Namen nach dem Fluss erhalten. Geschichte. Die frühe Indus-Kultur im Tal des Indusflusses, eine der ältesten Zivilisationen der Welt, wird auch Indus-Zivilisation genannt. Der Indus markiert die äußerste östliche Grenze des Reiches von Alexander dem Großen. Mit seinem Heer zog er den Indus hinab. 2010 kam es im Zuge der Überschwemmungskatastrophe in Pakistan am gesamten Flussverlauf zu Überschwemmungen. Irische Euromünzen. Die irischen Euromünzen sind die in Irland in Umlauf gebrachten Euromünzen der gemeinsamen europäischen Währung Euro. Am 1. Januar 1999 trat Irland der Eurozone bei, womit die Einführung des Euros als zukünftiges Zahlungsmittel gültig wurde. Umlaufmünzen. Die irischen Euromünzen haben alle dasselbe von Jarlath Hayes entworfene Design. Dargestellt ist eine keltische Harfe, ein traditionelles Symbol für Irland. Rechts davon findet sich das Prägejahr, links die Landesbezeichnung "ÉIRE", am Rand sind die zwölf Sterne der EU. Geprägt werden die irischen Münzen im "Currency Centre" der irischen Zentralbank in Sandyford. Begonnen wurde mit der Prägung im September 1999, jedoch wurden die von 1999 bis 2002 geprägten Münzen mit dem Erstausgabejahr 2002 versehen, somit tragen sie erst ab 2003 ihr tatsächliches Prägejahr. Eine Teilauflage der 1- und 5-Cent-Stücke des ersten Jahrgangs wurden von der Royal Mint hergestellt. Ebenso wurden 2007 1-Cent-Stücke von der Monnaie de Paris geprägt. Die Münzen tragen keine Münzzeichen, so dass es keine Unterscheidungsmöglichkeit gibt. Die Kursmünzen in der Qualität Polierte Platte wurden 2006 und 2007 von der Suomen Rahapaja, sowie 2009 und 2012 bei der Königliche Niederländische Münze hergestellt; ebenso wie 2007 die 2-Euro-Gedenkmünzen gleicher Prägequalität in Finnland, bzw. 2009 und 2012 in den Niederlanden. Mit der Prägung der Sammlermünzen wurden bisher B.H. Mayer's Kunstprägeanstalt, die Monnaie de Paris, die Königliche Niederländische Münze sowie die kroatische Münze in Zagreb beauftragt. Wie die meisten Euroländer prägt Irland bereits seit 2007 seine Euromünzen mit der neu gestalteten Vorderseite (neue Europakarte). Italienische Euromünzen. Die italienischen Euromünzen sind die in Italien in Umlauf gebrachten Euromünzen der gemeinsamen europäischen Währung Euro. Am 1. Januar 1999 trat Italien der Eurozone bei, womit die Einführung des Euros als zukünftiges Zahlungsmittel gültig wurde. Umlaufmünzen. Geprägt werden die italienischen Münzen im „Istituto Poligrafico e Zecca dello Stato“ in Rom. Bereits im September 1999 wurde mit der Prägung begonnen, jedoch wurden die von 1999 bis 2002 geprägten Münzen mit dem Erstausgabejahr 2002 versehen, somit tragen sie erst ab 2003 ihr tatsächliches Prägejahr. Alle italienischen Euromünzen haben ein unterschiedliches Motiv, zeigen aber alle als Thema ein berühmtes Bau- oder Kunstwerk. Alle Designs enthalten die zwölf Sterne der EU, das Prägejahr und die sich überlappenden Buchstaben "RI" für "Repubblica Italiana" (Italienische Republik). Jede Münze wurde von einem anderen Künstler entworfen. Die ab 2007 neu gestaltete Vorderseite der Euromünzen (neue Europakarte) wurde in Italien erst 2008 eingeführt. 5 Euro. Material: 925er Silber – Münzdurchmesser: 32 mm – Gewicht: 18 g 10 Euro. Material: 925er Silber – Münzdurchmesser: 34 mm – Gewicht: 22 g 20 Euro. Material: 900er Gold – Münzdurchmesser: 21 mm – Gewicht: 6,451 g 50 Euro. Material: 900er Gold – Münzdurchmesser: 28 mm – Gewicht: 16,129 g Isländische Sprache. Isländisch (isländisch "íslenska") ist eine Sprache aus dem germanischen Zweig der indogermanischen Sprachfamilie. Sie ist die Amtssprache in Island. Derzeit wird Isländisch von circa 300.000 Menschen gesprochen. Geschichte. Das Isländische (zusammen mit dem Färöischen) hat sich in den letzten tausend Jahren im Bereich der Formenlehre (Morphologie) kaum verändert und ähnelt somit dem Altnordischen noch am ehesten. Grammatikalische Eigenheiten, die sich in anderen Sprachen im Laufe ihrer Entwicklung abgeschliffen haben, blieben im Isländischen weitestgehend erhalten, während das Lautsystem – besonders der Vokalismus – sich erheblich geändert hat. Entscheidender Grund für diese auffällige Sprachkonstanz dürfte jedoch kaum die vielzitierte Funktion Islands als „germanischer Eisschrank“ sein. Vielmehr war es im Laufe der Abhängigkeit von Dänemark auch zu einer erheblichen Danisierung der isländischen Sprache gekommen, wie man sie auch auf den Färöern beobachten konnte. Im Rahmen zunehmender Loslösungsbestrebungen kamen auch sprachpflegerische Ideen auf. Um die eigene Sprache von Einflüssen der dänischen Herrscher zu reinigen, wurde das Isländische anhand alter Schriftquellen rekonstruiert. Darüber hinaus weist das Isländische wenig dialektale Vielfalt auf. Im Gegensatz dazu besitzt das Färöische eine Vielzahl an unterschiedlichen Dialekten. Unterschiede lassen sich im Färöischen in allen linguistischen Subsystemen ausmachen, vor allem auch in der Morphologie, während sich die Unterschiede im Isländischen nahezu ausschließlich auf die phonetisch-phonologische Ebene beschränken und nur in einem geringfügigen Ausmaß in der Morphologie, Syntax und Lexik auftreten. Allerdings ähneln sich die Bedingungen für beide Sprachen im Hinblick auf die äußeren Umstände wie Einwohnerzahl und geographische und politische Lage, die für die Sprachentwicklung auf Island und den Färöer-Inseln von Bedeutung sind, auf den ersten Blick. Jedoch können Faktoren wie der unterschiedliche Einfluss des Dänischen auf Island und auf den Färöer-Inseln, die frühe Etablierung einer isländischen Orthographie im Gegensatz zur verspäteten Entwicklung einer färöischen Orthographie und unterschiedliche gesellschaftliche Bedingungen, die auf Island und den Färöer-Inseln vorherrschten, als mögliche Ursachen einer unterschiedlichen dialektalen Ausprägung gelten. Das älteste im Original erhaltene Dokument in isländischer Sprache ist der Reykjaholtsmáldagi. Schon vor der Niederschrift der Edda und anderer dichterischer Werke (vermutlich ab dem 12. Jh.) gab es in Island und anderen Teilen der nordischen Welt eine besondere Dichtersprache, in der nach bestimmten Regeln oft hochformalisierte Gedichte verfasst wurden. Die Dichter, die diese Gedichte in altwestnordischer (altisländischer) Sprache verfassten und vortrugen, nannte man „Skalden“. Sie benutzten poetische Umschreibungen ("Kenninge" und "Heiti"), die auf Figuren und deren Taten aus (nord-)germanischen Heldensagen und der (nord-)germanischen Mythologie anspielten. Reiche Differenzierungen. Das Isländische bietet in vielen Bereichen reiche Differenzierungen. So lautet etwa die Übersetzung des Wortes „gefleckt“ – je nachdem, auf welches Tier sich das Wort bezieht – "skjöldóttur" (Kuh), "flekkóttur" (Schaf) oder "skjóttur" (Pferd). Das Isländische unterscheidet des Weiteren zwischen Seehundmännchen ("brimill") und -weibchen ("urta"), männlichem Lamm ("gimbill") und weiblichem Lamm ("gimbur") usw. Fremdwörter. Man achtet konsequent darauf, die Übernahme von Fremdwörtern so gering wie möglich zu halten. Neue Bezeichnungen erschafft man in der Regel aus dem vorhandenen Wortschatz. So entstand das Wort für „Computer“, "tölva", aus den Worten "tala", „Zahl“, und "völva", „Wahrsagerin, Seherin“. Der Begriff für „Aids“, "alnæmi", wurde aus "al-", „all-“, und "næmi", „Empfindlichkeit“, gebildet. Ein ähnliches Wort ist "skrifstofa" („Schreibstube“) für Büro. Dennoch gibt es eine beträchtliche Anzahl älterer Lehnwörter wie "hótel" („Hotel“) oder "prestur" („Priester“); ein Anschwellen von Anglizismen, ähnlich wie im Deutschen, ist seit den 1950er Jahren auch auf Island zu bemerken. Seit 1964 besteht darum in Island ein eigenes Komitee, das für neue Begriffe rein isländische Ausdrücke findet. Alphabet == . Das isländische Alphabet (erste Tabelle) umfasst 32 Buchstaben, die größtenteils den lateinischen entsprechen. Alle Vokal­zeichen einschließlich "y" gibt es in einer zweiten Form mit Akzent. Die Buchstaben C, W, Q und Z kommen in isländischen Wörtern nicht vor. Im Fall des Buchstaben Z ist dies Folge einer nicht von jedem Schreiber befolgten Rechtschreibreform im 20. Jahrhundert. Zusätzlich zu den lateinischen gibt es die Buchstaben ð (stimmhaft, wie „weiches“ englisches th, wie z. B. in englisch „this“ – aber mit heruntergebogener Zungenspitze, desgleichen der folgende), þ (dieser stammt aus dem Runen-Alphabet und wird stimmlos wie ein „hartes“ englisches th ausgesprochen wie in „thing“), æ (wie deutsches ei) und ö (wie deutsches ö). Zu beachten ist, dass die Buchstaben þ, æ und ö erst am Ende des Alphabets nach dem ý eingereiht sind. Die zweite Tabelle zeigt die Unicode-Nummern und die Tastenkombinationen unter Windows und X11 für die spezifisch isländischen Buchstaben. Phonologie. "Siehe auch: Isländische Aussprache" Konsonanten. Bei den Plosiven hat das isländische Lautsystem eher einen Aspirations-Kontrast als einen Kontrast der Stimmhaftigkeit. Präaspirierte stimmlose Plosive sind ebenfalls anzutreffen. Die isländischen Frikative und Sonoranten zeigen regelmäßige Kontraste in der Stimmhaftigkeit. Das gilt auch für die Nasale, was in den Sprachen der Welt ein seltenes Phänomen ist. Darüber hinaus ist Länge kontrastiv für alle Phoneme mit Ausnahme der stimmlosen Sonoranten. Die Tabelle der Konsonantenphoneme und ihrer Allophone folgt der Darstellung bei Scholten (2000, S. 22). Die stimmhaften Frikative, und erscheinen oft weiter geöffnet als Approximanten. Der Status von und als Phoneme oder als Allophone von und ist Gegenstand der Diskussion. Auf der anderen Seite impliziert das Vorhandensein von Minimalpaaren wie "gjóla" „leichter Wind“ versus "góla" „Schrei“ und "kjóla" „Kleider“ versus "kóla" „Cola“, dass die palatalen Plosive Phonemstatus besitzen. Nur die palatalen, nicht die velaren Plosive, können aber vor vorderen Vokalen erscheinen, und einige Linguisten (vgl. Rögnvaldsson 1993) plädieren daher für die zugrundeliegenden Formen und für und sowie für einen phonologischen Prozess, der in überführt. Ob dieser Ansatz, der mit der Orthographie und Sprachgeschichte konformgeht, eine synchrone Realität darstellt, ist umstritten, da die zugrundeliegenden Formen in der Linguistik spekulativ und nicht meßbar sind. Die dentalen Frikative und sind Allophone eines Phonems. erscheint wortinitial, wie zum Beispiel in "þak" „Dach“, und vor stimmlosem Konsonanten, wie in "maðkur" „Wurm“. steht intervokalisch, wie beispielsweise in "iða" „Strudel“, und final wie in "bað" „Bad“, kann aber am Phrasenende auch zu entstimmt werden. Von den stimmlosen Nasalen erscheint nur in wortinitialer Position, wie zum Beispiel in "hné" „Knie“. In letzter Zeit gibt es eine Tendenz, vor allem unter jungen Leuten, die Stimmlosigkeit hier aufzuheben (Beispiel "hnífur" „Messer“ statt). Der palatale Nasal steht vor palatalem Plosiv, die velaren vor velaren Plosiven. steht auch vor und, wegen des Ausfalls von in den Konsonantenverbindungen und. Die präaspirierten (zum Beispiel "löpp" „Fuß“) erscheinen nicht wortinitial. Die Geminaten sind in der Regel nicht länger als die einfachen Konsonanten; sie bewirken aber eine Verkürzung des vorangehenden Vokals. Sie können aber situativ lang gesprochen werden, so unter anderem beim Sprechen mit kleinen Kindern. Vokale. Das Isländische hat 13 Vokalphoneme, 8 Monophthonge und 5 Diphthonge. Alle Vokale, auch die Diphthonge, können sowohl lang als auch kurz auftreten. Die Vokallänge ist aber kontextabhängig und damit nicht distinktiv. Die i-Vokale. Wer die Aussprache der ersten drei Silben in dem deutschen Ausdruck „ihn in Ehren halten“ genau analysiert, wird bemerken, dass der zweite i-Laut nicht nur kürzer ist als der erste, sondern auch anders klingt – das kurze i wird weniger gespannt („laxer“) ausgesprochen und nimmt klanglich eine Mittelstellung zwischen dem langen i und dem e („Ehren“) ein. Im Deutschen sind alle langen i gespannt, alle kurzen i nicht; im Isländischen existieren hier alle vier Möglichkeiten. Die Schrift unterscheidet das gespannte i durch das Akzentzeichen. Morphologie (Formenlehre). Das Isländische verfügt über eine reichhaltige Vielfalt an Formen bei den flektierbaren Wortarten Pronomen, Substantiv, Verb, Adjektiv und Zahlwort, die eine ziemliche Schwierigkeit beim Erlernen der Sprache darstellen. Im Folgenden sind Flexionsbeispiele für alle relevanten Wortklassen aufgeführt. Personalpronomen. Anders als im Deutschen findet eine Unterscheidung nach Geschlechtern auch im Plural der 3. Person statt. Dabei kommt die maskuline Form "þeir" nur bei rein männlichen Gruppen zur Anwendung, die feminine Form "þær" nur bei rein weiblichen Gruppen, während die Neutrumform "þau" für gemischte Personengruppen (und damit am häufigsten) benutzt wird. Zur Anrede einer Person dient im Isländischen stets das Pronomen "þú", es wird also – wie heute in skandinavischen Ländern üblich – grundsätzlich geduzt (und jeder mit dem Vornamen angesprochen). Nur den Präsidenten oder Bischof des Landes würde man bei festlichen Anlässen mit dem ansonsten veralteten Höflichkeitspronomen "þér" (gen.: "yðar", dat. und akk.: "yður") bezeichnen. Des Weiteren existiert in Gedichten oder auch in der Nationalhymne noch die Form "vér" „wir“ (gen.: "vor", dat. und akk.: "oss") statt "við" (bedeutete im Altnordischen noch „wir beide“). Fragepronomina und -adverbien. Weitere wichtige Frageadverbien sind überdies: "hvar" „wo“, "hvenær" „wann“, "hve" „wie“, "hvernig" „wie, auf welche Weise“, "af hverju" „warum“, "hvert" „wohin“, "hvaðan" „woher“. Zahlwörter. Beim Abzählen usw. verwenden Isländer üblicherweise die maskulinen Formen der Numeralia. Hausnummern werden jedoch im Neutrum angegeben. Eine vertiefende Übersicht der Zahlen ist im Wikiwörterbuch einzusehen (isländisch, deutsch). Substantive. Isländische Substantive werden ebenso wie deutsche in drei Genera unterteilt, nämlich Maskulina, Feminina und Neutra. Diese drei Genera werden im Unterschied zum Deutschen auch im Plural unterschieden. Dabei wird jedes Wort seinem Genus entsprechend flektiert; außerdem gibt es innerhalb der Genera verschiedene Flexionsklassen. Innerhalb des Paradigmas eines Substantivs gibt es jeweils vier Fälle (Kasus), die den vier deutschen Fällen Nominativ, Genitiv, Dativ und Akkusativ entsprechen; diese werden durch Anfügen einer Flexionsendung an den Wortstamm gebildet. Im Plural gibt es für Dativ ("-um") (fast immer) und Genitiv ("-a") (ausnahmslos) einheitliche Flexionsendungen, gleich welchem Genus sie angehören. In der linken Hälfte der Tabelle wird das Wort ohne Artikel flektiert, in der rechten dagegen mit bestimmtem Artikel, der dem deutschen „das Pferd, des Pferdes etc.“ entspricht. Einen unbestimmten Artikel gibt es im Isländischen nicht. u-Umlaut. Der Umlaut "a > ö" tritt ein Da u-Umlaut bei Feminina im Nominativ Singular auftritt und diese Form auch im Wörterbuch das Lemma bildet, ist dies bei der Flexion besonders zu beachten. Verben. "Hjálpa" (Altisländisch "hjalpa") war übrigens ursprünglich ein starkes Verb wie im Deutschen. Ein Rest davon befindet sich in dem Adjektiv (ursprünglich das Präteritum Perfekt) "hólpinn", "gerettet", "geborgen". In der linken Hälfte der Spalte finden sich die Indikativformen des Präsens, in der rechten die des Präteritums, welches bei Verben der Klasse W4 mit dem Suffix -að- (Singular) bzw. -uð- (Plural) gebildet wird. Noch nicht aufgeführt sind die Konjunktivformen der einzelnen Verbklassen. Eine detailliertere Übersicht der schwachen und starken Verben ist im isländischen Wiktionary zu finden. Adjektive. Im Isländischen existieren starke und schwache Adjektivdeklinationen, deren Wahl von der Determination des Substantives resp. der prädikativen Stellung des Adjektivs abhängt. Kasus, Numerus und Genus des Adjektivs sind mit denen des Substantives kongruent. Die einheitliche Pluralendung aller Genera lautet in der schwachen Adjektivflexion "u". Vertiefend hierzu kann der Anhang zu Adjektiven im isländischen Wörterbuch genannt werden. Wortstellung. Isländisch ist wie alle skandinavischen Sprachen eine Verb-Zweit-Sprache auf der Basis einer Subjekt-Verb-Objekt-Abfolge. Im Unterschied zu den festlandskandinavischen Sprachen trifft man die Verbzweitform auch in den meisten Nebensätzen an (außer eingebetteten Fragesätzen). Verwendung der Kasus. Der „quirky case“ gilt vielfach als Besonderheit der isländischen Sprache: So können Sätze gebildet werden, in denen kein Nominativ vorkommt (sondern mehrere Akkusativ- bzw. Dativergänzungen) oder in denen eine Dativ- bzw. Akkusativergänzung Subjekteigenschaften aufweist, während der Nominativ das rangniedrigere Argument ist, wie sonst das direkte Objekt. Die isländische Bezeichnung ist ópersónuleg sögn, das heißt unpersönliches Verb. Inuktitut. Die Sprachen der Eskimos bilden ein Dialektkontinuum vom östlichsten Sibirien bis nach Grönland. Sie werden oft zusammenfassend als Inuktitut ("Sprache des Menschen") oder als Eskimo bezeichnet. "Inuktitut" andererseits ist aber auch eine einzelne dieser Sprachen, und zwar die Sprache des kanadischen Territoriums Nunavut. Die Sprachen der Eskimos gehören zur Gruppe der eskimo-aleutischen Sprachen und zum Sprachtyp der polysynthetischen Sprachen. Sie werden von ca. 80.000 Menschen in Grönland, Kanada, Alaska (USA) und Russland sowie in Dänemark gesprochen. Die in Grönland und Dänemark gesprochene Varietät heißt Kalaallisut oder Grönländisch. In Kanada unterscheidet man die Dialekte West- und Ost-Inuktitut. Im kanadischen Territorium Nunavut verabschiedete das Parlament am 19. September 2008 den "Inuit Language Protection Act", welcher festschreibt, dass die Bürger ihre Angelegenheiten bei Behörden, in Krankenhäusern usw. auf Inuktitut regeln können. Formenlehre und Satzbau. Wie andere Eskimo-Aleutische Sprachen haben die Inuit-Sprachen ein sehr reiches morphologisches System, in dem eine Folge verschiedener gebundener Morpheme an Lexeme angehängt werden (siehe auch Inkorporation und Polysynthetischer Sprachbau). Alle Wörter der Inuitsprachen beginnen mit einem Lexem, an das gebundene Morpheme angehängt werden. Die Sprachen haben Hunderte verschiedener Affixe, in manchen Dialekten bis zu 700. Ihre Formenlehre ist sehr regelmäßig. Obwohl die Regeln manchmal sehr kompliziert sind, gibt es keine Ausnahmen wie im Deutschen oder anderen indoeuropäischen Sprachen. "Ich kann nicht sehr gut hören." Solche Wortbildungen kommen in Inuitsprachen überall vor. In einem großen Werk aus Kanada, dem Nunavut Hansard, einer Sammlung von Parlamentsprotokollen, kommen 92 % aller Wörter nur einmal vor, ganz anders als in den meisten englischen Hansards. Auch kann man die Idee von Wortarten nicht einfach auf Inuitsprachen anwenden, denn voll gebeugte Verben können auch als Substantive interpretiert werden. Das Wort ilisaijuq kann man als voll gebeugtes Verb verstehen: "er studiert" oder als Substantiv: "Student". Die Bedeutung ist erst im Satzzusammenhang zu ermitteln. Formenlehre und Satzbau der Inuitsprachen sind von Dialekt zu Dialekt leicht verschieden, aber die Grundprinzipien lassen sich auf sie alle anwenden und zu einem gewissen Grad auch auf Yupik. Schrift. In Nordost-Kanada, vor allem im Territorium Nunavut und in Nunavik (Nord-Québec), wird das Inuktitut außer mit lateinischen Buchstaben mit einer Silbenschrift geschrieben, die eine Variante der Kanadischen Silbenschrift ist (siehe auch Cree-Schrift). Ideales Gas. Als ideales Gas bezeichnet man in der Physik und Physikalischen Chemie eine bestimmte idealisierte Modellvorstellung eines realen Gases. Darin geht man von einer Vielzahl von Teilchen in ungeordneter Bewegung aus und zieht als Wechselwirkungen der Teilchen nur Stöße untereinander und mit den Wänden in Betracht. Obwohl dieses Modell eine starke Vereinfachung darstellt, lassen sich mit ihm viele thermodynamische Prozesse von Gasen verstehen und mathematisch beschreiben. In der Quantenmechanik unterscheidet man das ideale Bosegas und das ideale Fermigas. Modell des idealen Gases. Im Modell des idealen Gases der klassischen Physik werden alle Gasteilchen als ausdehnungslose Massepunkte angenommen, welche sich frei durch das ihnen zur Verfügung stehende Volumen bewegen können. Mit "frei" ist gemeint, dass die Teilchen keinerlei Kräfte verspüren. Allerdings dürfen (und müssen) sich die Teilchen untereinander und an der Wand des Volumens stoßen. Ein Gasteilchen bewegt sich also geradlinig mit einer konstanten Geschwindigkeit, bis ein Stoß es in eine andere Richtung lenken und dabei beschleunigen oder abbremsen kann. Die Annahme von Stößen ist für das Modell notwendig. Ließe man keine Stöße zu, so könnte man das Gas zum einen nicht in ein Volumen einsperren, da es die Wand nicht bemerkte, und zum anderen behielte jedes Gasteilchen für alle Zeiten seine Anfangsgeschwindigkeit. Letzteres würde verhindern, dass sich die Energie des Gases im Mittel gleichmäßig auf alle Freiheitsgrade verteilen könnte. Ein solches System kann sich aber nicht im thermodynamischen Gleichgewicht befinden, welches eine zwingende Voraussetzung für Anwendbarkeit der thermodynamischen Hauptsätze ist. Durch die Stöße bewegen sich die Teilchen nur eine kurze Weglänge frei. Damit es zu Stößen kommt, muss ein Stoßquerschnitt angenommen werden. Genauere Modelle zeigen, dass der (durchschnittliche) Stoßquerschnitt temperaturabhängig anzusetzen ist (Sutherlandkonstante), was durch die Abhängigkeit des Stoßprozesses von der Energie der beiden Teilchen zu verstehen ist. Zustandsgleichungen. Die thermische Zustandsgleichung zur Beschreibung eines idealen Gases heißt "allgemeine Gasgleichung". Sie wurde zuerst aus verschiedenen einzelnen empirischen Gasgesetzen hergeleitet. Später erlaubte die Boltzmann-Statistik eine direkte Begründung ausgehend von der mikroskopischen Beschreibung des Systems aus einzelnen Gaspartikeln. wobei formula_14 die universelle Gaskonstante bezeichnet und formula_15 die spezifische Gaskonstante darstellt. Mithilfe dieser Gleichung und den Hauptsätzen der Thermodynamik lassen sich die thermodynamischen Prozesse von idealen Gasen mathematisch beschreiben. Allerdings sind thermische und kalorische Zustandsgleichung voneinander abhängig, was der zweite Hauptsatz der Thermodynamik nennt. Eigenschaften idealer Gase. Die Stoffmenge formula_5 als Maß für die Anzahl der Teilchen (Atome oder Moleküle) wird in der internationalen Einheit Mol gemessen. Das Mol ist also ein Vielfaches der Einheit. Das Volumen eines idealen Gases mit einer Stoffmenge formula_19 bei Normbedingungen (nach DIN 1343) Die molare Masse formula_23 (Masse von 1 mol) entspricht also der Masse einer Gasmenge, die bei 0 °C und formula_24 in einem Volumen von 22,414 Litern enthalten ist (messbar aus der Gewichtsdifferenz eines gasgefüllten und dann evakuierten Kolbens). Dieses Gesetz ist die Grundlage für das Gasthermometer von Jolly. Molares Volumen eines idealen Gases. Es errechnet sich über die universelle Gaskonstante "R" nach Ideales Gasgemisch. Nebenstehend die Zeitrafferdarstellung der reversiblen Entmischung eines idealen Gasgemischs mittels teildurchlässigen (semipermeablen) Membranen. Die linke (rote) Membran ist durchlässig für Komponente formula_39 (grün) und undurchlässig für Komponente formula_40 (braun), während umgekehrt die rechte (blaue) Membran für Komponente formula_39 undurchlässig und für Komponente formula_40 durchlässig ist. Die Kolben haben gleiche Abmessungen und bewegen sich gleich schnell. Die gesamte von den äußeren Kräften (rote Pfeile auf den Zylindern) geleistete Arbeit beträgt Null. Erfahrungsgemäß tritt bei der Mischung von idealen Gasen keine Mischungswärme auf und dasselbe gilt für die reversible Entmischung. Es wird weder Arbeit noch Wärme mit der Umgebung ausgetauscht. Da der Vorgang reversibel ist, bleibt die Entropie konstant. wenn formula_62 die Entropie des Gemischs und formula_63 die Entropie der separaten formula_64ten Komponente bei der Temperatur formula_4 und dem Volumen formula_2 bezeichnet. Ideale Gase gleicher Temperatur überlagern sich in einem gemeinsamen Volumen ohne gegenseitige Beeinflussung, wobei sich der Druck (Daltonsches Gesetz), die thermodynamischen Potentiale (Entropie, innere Energie, Enthalpie) sowie die Wärmekapazitäten der einzelnen Bestandteile zu den entsprechenden Größen des Gemischs addieren. Mischungsentropie eines idealen Gasgemischs. wobei formula_77 und formula_78 die Molzahlen der getrennten Gase bezeichnen. Diese Formel gilt, wenn die getrennten Gase keine identischen Bestandteile enthalten, und zwar auch für chemisch sehr ähnliche Gase wie Ortho- und Parawasserstoff. Sie gilt näherungsweise auch für die Mischungsentropie von realen Gasen und zwar umso genauer, je besser diese die ideale Gasgleichung erfüllen. Wenn die beiden Teilvolumina formula_69 und formula_70 jedoch identische Gase enthalten, so findet beim Zusammenbringen keine Diffusion statt und es entsteht auch keine Mischungsentropie. Es ist also unzulässig, quasi in einem kontinuierlichen Grenzübergang die Gase immer ähnlicher und schließlich identisch werden zu lassen – siehe Gibbssches Paradoxon. Statistische Beschreibung. Während in der Thermodynamik die Zustandsgleichungen als reine empirische Gleichungen eingeführt werden, können diese mit den Mitteln der statistischen Physik direkt aus der mikroskopischen Beschreibung des Systems als Ansammlung einzelner Gaspartikel gewonnen werden. Außer den oben beschriebenen Annahmen des Modells selber wird dabei keine weitere Näherung benötigt. Die Möglichkeit der exakten mathematischen Beschreibung ist mit der Hauptgrund warum das ideale Gas als einfachstes Gasmodell eine breite Anwendung findet und als Ausgangspunkt für bessere Modelle dient. Zustandssumme des idealen einatomigen Gases. Anstatt die Zustandssumme direkt auszuwerten, kann sie einfacher durch ein Integral über den Phasenraum berechnet werden. Letztlich erhält man für die kanonische Zustandssumme des idealen Gases wobei im letzten Schritt die thermische Wellenlänge Diese Besonderheit ist jedem idealen System in der statistischen Physik zu eigen und ist Ausdruck des Fehlens von Wechselwirkungen zwischen den Gasteilchen. Ein besseres Gasmodell, welches diese Wechselwirkungen berücksichtigen will, muss demnach zusätzlich abhängig von mindestens der 2-Teilchen-Zustandssumme sein. Ableitung thermodynamischer Relationen für das einatomige ideale Gas. Das der kanonischen Zustandssumme zugeordnete thermodynamische Potential ist die freie Energie Für große Teilchenzahlen lässt sich die Fakultät mit der Stirling-Formel entwickeln, formula_106. Außerdem ist die Innere Energie formula_7 mit der freien Energie formula_8 verknüpft über formula_110. Thermische Zustandsgleichung. Die thermische Zustandsgleichung ergibt sich aus was durch Umstellen in die bekannte Form der idealen Gasgleichung gebracht werden kann Chemisches Potential. Das chemische Potential des idealen Gases ist für große Teilchenzahlen gegeben durch Kalorische Zustandsgleichung. Die kalorische Zustandsgleichung (die innere Energie in Abhängigkeit von Temperatur, Volumen und Teilchenzahl) kann aus den Gleichungen formula_115 und formula_116 bestimmt werden. Das Bemerkenswerte an dieser Gleichung ist, dass die innere Energie vom Volumen unabhängig ist. Daraus folgt z. B., dass bei der isothermen Expansion eines idealen Gases die zugeführte Wärme vollständig in Arbeit umgesetzt wird. Gültigkeitsbereich. Unter den realen Gasen kommen die leichten Edelgase und Wasserstoff diesem Zustand am nächsten, insbesondere bei niedrigem Druck und hoher Temperatur, da sie im Vergleich zu ihrer mittleren freien Weglänge eine verschwindend kleine Ausdehnung besitzen. Die Geschwindigkeitsverteilung der Teilchen in einem idealen Gas wird durch die Maxwell-Boltzmann-Verteilung beschrieben. Je niedriger der Druck und je höher die Temperatur ist, desto stärker verhält sich ein reales Gas wie ein ideales. Ein praktisches Maß dafür ist der „normierte“ Abstand der aktuellen Temperatur vom Siedepunkt: Zum Beispiel liegt der Siedepunkt von Wasserstoff bei 20 K; bei Zimmertemperatur ist das etwa das 15-fache, was ein nahezu ideales Verhalten bedeutet. Dagegen beträgt bei Wasserdampf von 300 °C (573 K) der Abstand vom Siedepunkt (373 K) nur etwa das Anderthalbfache – weit ab von idealem Verhalten. Als quantitative Vergleichsgröße muss hier der kritische Punkt herangezogen werden: Ein reales Gas verhält sich dann wie ein ideales, wenn sein Druck klein gegenüber dem kritischen Druck oder seine Temperatur groß gegenüber der kritischen Temperatur ist. Ideale Gase unterliegen nicht dem Joule-Thomson-Effekt, woraus man folgern kann, dass ihre innere Energie und ihre Enthalpie unabhängig von Druck und Volumen sind. Der Joule-Thomson-Koeffizient beträgt daher bei idealen Gasen immer Null, und die Inversionstemperatur ("T"iγ = 1) hat keinen diskreten Wert, erstreckt sich also über den gesamten Temperaturbereich. Ideales mehratomiges Gas. Möchte man mit dem idealen Gasmodell mehratomige Gaspartikel, also Moleküle, beschreiben, so kann das durch eine Erweiterung der kalorischen Zustandsgleichung geschehen Dabei gibt formula_120 die Anzahl der Freiheitsgrade pro Teilchen an. Moleküle haben neben den drei Translationsfreiheitsgraden weitere Freiheitsgrade für Rotationen und Schwingungen. Jede Schwingung hat dabei zwei Freiheitsgrade, weil der potentielle und der kinetische Freiheitsgrad einer Schwingung separate Freiheitsgrade sind. Beispielsweise besitzt ein zweiatomiges Gas insgesamt 7 Freiheitsgrade, nämlich Da in der Natur die Rotations- und Schwingungsfrequenzen von Molekülen gequantelt sind, wird eine gewisse Mindestenergie benötigt, um diese anzuregen. Oft reicht unter Normalbedingungen die thermische Energie nur, um in einem zweiatomigen Molekül Rotationen anzuregen. In diesem Fall sind die Schwingungsfreiheitsgrade eingefroren und das zweiatomige Gase hat effektiv nur fünf Freiheitsgrade. Bei noch tieferen Temperaturen frieren auch die Rotationsfreiheitsgrade ein, so dass nur die 3 Translationsfreiheitsgrade verbleiben. Aus dem gleichen Grund tritt der theoretisch vorhandene dritte Rotationsfreiheitsgrad für Rotationen um die Verbindungslinie in der Praxis nicht auf, da die dazu nötigen Energien ausreichten, um das Molekül zu dissoziieren. Hier lägen dann wieder einatomige Gaspartikel vor. Bei nicht stabförmigen Molekülen aus mehr als zwei Atomen tritt der dritte Rotationsfreiheitsgrad nebst weiteren Schwingungsfreiheitsgraden aber in der Regel auf. Relativistisches ideales Gas. Wenn die Temperaturen so groß werden, dass die mittleren Geschwindigkeiten der Gaspartikel mit der Lichtgeschwindigkeit vergleichbar werden, so muss die relativistische Massenzunahme der Teilchen berücksichtigt werden. Dieses Modell lässt sich ebenfalls gut theoretisch beschreiben, allerdings ist ein reales Gas im Regelfall bei sehr hohen Temperaturen bereits ein Plasma, d. h. die vorher elektrisch neutralen Gaspartikel liegen getrennt als Elektronen und Ionen vor. Da die Wechselwirkung zwischen Elektronen und Ionen aber wesentlich stärker als zwischen neutralen Teilchen ist, kann die Modellvorstellung eines idealen Gases nur begrenzten Aufschluss über die Physik von heißen Plasmen liefern. Ideales Quantengas. Jede Art von Materie besteht letztendlich aus Elementarteilchen, die entweder Fermionen oder Bosonen sind. Bei Fermionen und Bosonen muss immer die sogenannte Austauschsymmetrie berücksichtigt werden, was die statistische Beschreibung des Systems ändert. Ein reines ideales Gas ist im Grunde genommen also "immer" entweder ein ideales Fermigas oder ein ideales Bosegas. Die Quantennatur eines Gases wird jedoch erst spürbar, wenn die mittlere freie Weglänge der Gaspartikel vergleichbar oder kleiner als ihre thermische Wellenlänge wird. Dieser Fall gewinnt folglich bei tiefen Temperaturen oder sehr hohen Drücken an Bedeutung. Ideale Quantengase haben ein sehr breites Anwendungsspektrum gefunden. Beispielsweise können die Leitungselektronen in Metallen hervorragend durch das ideale Fermigas beschrieben werden. Die Hohlraumstrahlung und das Plancksche Strahlungsgesetz eines schwarzen Körpers können durch das ideale Photonengas – welches ein besonderes (masseloses) ideales Bosegas ist – ausgezeichnet erklärt werden. Ideale Bosegase können zudem bei sehr tiefer Temperatur einen Phasenübergang zu Bose-Einstein-Kondensaten zeigen. Van-der-Waals-Gas. Reale Gase werden besser durch das sogenannte Van-der-Waals-Gas beschrieben, welches die immer vorhandenen Van-der-Waals-Kräfte zwischen den Gaspartikeln und zusätzlich deren Eigenvolumen berücksichtigt. Die Van-der-Waals-Gleichung modifiziert die ideale Gasgleichung um zwei entsprechende Zusatzterme. In der statistischen Beschreibung kann diese Gleichung durch die sogenannte Virialentwicklung gewonnen werden. Perfektes Gas. Als perfektes Gas werden ideale Gase bezeichnet, welche eine konstante Wärmekapazität haben, die nicht von Druck und Temperatur abhängig ist. Insulin. Insulin (andere Namen: "Insulinum", "Insulinhormon", "Inselhormon") ist ein für alle Wirbeltiere lebenswichtiges Proteohormon, das in den β-Zellen der Bauchspeicheldrüse gebildet wird. Diese spezialisierten Zellen befinden sich nur in den Langerhans-Inseln. Von diesen Inseln leitet sich auch der Name „Insulin“ ab (). Insulin senkt den Blutzuckerspiegel, indem es andere Körperzellen dazu anregt, Glukose aus dem Blut aufzunehmen. Funktion und Wirkung. Die Regulation der Konzentration von Glukose im Blut erfolgt durch einen Regelkreis aus zwei Hormonen, die abhängig von der Blutzuckerkonzentration ausgeschüttet werden. Insulin ist das einzige Hormon, das den Blutzuckerspiegel senken kann. Sein Gegenspieler ist das Glucagon, dessen Hauptaufgabe es ist, den Blutzuckerspiegel zu erhöhen. Auch Adrenalin, Kortisol und Schilddrüsenhormone haben blutzuckersteigernde Wirkungen. Der Blutzuckerspiegel steigt vor allem nach der Aufnahme von kohlenhydratreicher Nahrung. Als Reaktion darauf wird von den β-Zellen Insulin ins Blut ausgeschüttet. Insulin senkt den Blutzuckerspiegel dadurch, dass es mittels seiner „Schlüsselfunktion“ der Glukose aus dem Blutplasma und der Gewebsflüssigkeit den Durchtritt durch die Zellmembran in das Zellinnere ermöglicht. Vor allem die Leber- und Muskelzellen können in kurzer Zeit große Mengen Glukose aufnehmen und sie in Form von Glykogen speichern oder in Energie umwandeln (siehe Glykolyse). Auch auf andere Zellen wirkt Insulin, so hat es Einfluss auf den Fett- und Aminosäurestoffwechsel sowie auf den Kaliumhaushalt. Animation der Tertiärstruktur von Insulin Das im Blut zirkulierende Insulin entfaltet seine Wirkung durch Bindung an Insulinrezeptoren. Insulinrezeptor. Letztlich löst die Bindung von Insulin an seinen Rezeptor eine Reihe von Kinase-Kaskaden (Kaskade von Phosphorylierungsreaktionen) aus, die durch Signalwege beschrieben werden können. Diese Signalwege bewirken ein Sinken des Blutglucosespiegels durch Dieses Signal wird durch die Aktivierung glucoseverbrauchender Wege unterstützt. Weitere unterstützende Maßnahmen bestehen in der Unterdrückung glucoseliefernder Wege, so zum Beispiel durch Abbau des second messenger cAMP über eine Phosphodiesterase. Glukoseaufnahme im Muskelgewebe. Insulin erhöht in der Muskulatur und im Fettgewebe die Permeabilität (Durchlässigkeit) der Zellmembran für Glucose. Dabei ist zu beachten, dass nicht die Membran selbst permeabler wird, sondern dass vermehrt Carrier-Proteine für Glucose aktiviert werden. Dieses Carrier-Protein ist GLUT4, ein hochaffiner, insulinabhängiger Glucose-Transporter, welcher die Glucose durch erleichterte Diffusion (passiver Transport) in die Zelle transportiert. Folgende physikalische Eigenschaften sind für GLUT4 relevant: sättigbar, nicht aktivierbar oder inaktivierbar, also Regulation nur durch insulinabhängigen Einbau oder Ausbau. Glukoseaufnahme und Stoffwechsel im Gehirn. Nervenzellen (und Erythrozyten) nehmen Glucose insulinunabhängig auf. Deshalb nehmen die insulinabhängigen Zellen bei einem erhöhten Insulinspiegel mehr Glucose auf, und für die insulinunabhängigen bleibt weniger übrig. Im Allgemeinen besteht bei Hypoglykämie die Gefahr, dass das auf Glucose angewiesene Nervensystem geschädigt wird. Beachtenswert ist der Effekt, dass Insulin, verabreicht als Nasenspray in direktem Kontakt mit dem ZNS, die Alzheimer-Krankheit positiv beeinflusst. Auf- und Abbau von Fettgewebe. Insulin hemmt die Lipolyse im Fettgewebe und somit den Abbau von Fett. Ein Insulinmangel führt daher zu einer gesteigerten Lipolyse mit Bildung von Ketokörpern und einer daraus resultierenden Ketose. Förderung des Zellwachstums. Eine weitere zentrale Funktion des Peptidhormons Insulin besteht in der Regulation von Zellwachstum und Proliferation durch die Aktivierung der Transkription von Genen, die für Kontrolle und Ablauf des Zellzyklus von großer Bedeutung sind. Diese Insulinwirkung ist bei Diskursen über Insulinpräparate ein Thema. Tryptophan-Aufnahme im Gehirn. Höhere Insulinspiegel haben einen leicht steigernden Einfluss auf die Aufnahme von Tryptophan ins Gehirn. Insulin und die Regelung des Blutzuckerspiegels === . Vereinfachte Darstellung der Signalkaskade für Insulin zum Aufbau von Glykogen (Einzelheiten im Text) Die metabolischen und mitogenen Effekte von Insulin werden über die Bindung an dessen Rezeptor auf der Zelloberfläche der Zielgewebe Leber, Muskel und Fett initiiert. Gegenspieler. Fällt der Blutzuckerspiegel im Körper unter einen Wert von 80 mg/dl ab, wird die Insulinproduktion bereits stark reduziert. Die Spiegel dieser gegenregulierenden Hormone steigen bereits deutlich an, wenn der Blutzucker unter 60 mg/dl absinkt. Beim Typ 1 Diabetes ist oft auch der Gegenregulationmechanismus gestört, was zu zusätzlichen Problemen mit Hypoglykämien führt. Somatostatin hat einen hemmenden Einfluss auf die Sekretion von Insulin und Glucagon, da er als allgemeiner Hemmer im Körper fungiert. Vorkommen. Insulinsequenzen von mehr als 100 verschiedenen Spezies sind bekannt. Die Proteinsequenzen der jeweiligen Insuline sind sich ähnlich – sie zeigen Sequenzhomologie –, sind aber nicht identisch. Über die Unterschiede im chemischen Aufbau von Humaninsulin gegenüber den Insulinen einiger Säugetiere sowie Informationen zu künstlich hergestelltem Insulin siehe Insulinpräparat. Insulin und Evolution: Genotypen, die in Jäger- und Sammlergesellschaften einen raschen Abbau von Energiereserven bei Nahrungsmangel verhinderten, prädisponieren beim heutigen Lebensstil mit Bewegungsmangel und Nahrungsüberangebot zu Adipositas und Typ-2-Diabetes. Inwieweit Gene den Glukosestoffwechsel und die damit verbundene Wirkung von Insulin beeinflussen, ist noch nicht zur Gänze geklärt. Biosynthese. Die Synthese des Insulins erfolgt in den β-Zellen der Langerhansschen Inseln der Bauchspeicheldrüse. Die genetische Information wird von nur einem Genlocus im kurzen Arm des Chromosom 11 codiert. Das Gen besteht aus ungefähr 300 Nukleotiden. Die mRNA wird zunächst an Ribosomen, welche sich auf dem rauen endoplasmatischen Retikulum (ER) befinden, in das Präproinsulin translatiert, das aus 107 Aminosäuren besteht. Die weitere Prozessierung erfolgt in zwei Schritten, nach der Faltung des Moleküls durch Bildung von Disulfidbrücken entsteht durch Abspaltung von Signalpeptid und C-Peptid das Insulinmolekül. Speicherung. Die Insulinmoleküle werden in den Vesikeln des Golgi-Apparats, der an der Zellmembran der β-Zelle liegt, durch Zink-Ionen zu Hexameren gebunden und so stabilisiert gespeichert (Zink-Insulin-Komplex). Die hohe Bindungsfreudigkeit von Insulinmolekülen an Zink hat mehrere wichtige Auswirkungen. Insulin ist in der Form von Hexameren und nach dem Zerfall in Dimere noch nicht wirksam, sondern nur als Einzelmolekül. Diese Eigenschaft spielt bei den Insulinpräparaten eine wichtige Rolle. Bei schnellwirkenden Insulinpräparaten ist der zu langsame Zerfall der Molekülverbände unerwünscht und es wird nach Möglichkeiten gesucht den Zerfall zu beschleunigen. Bei langwirkenden Insulinpräparaten wird die Zinkbindung zur Verlängerung der Wirkdauer durch hohe Zinkkonzentrationen gezielt verstärkt. Bei der Entwicklung von oralen Insulinpräparaten wird die Zinkbindung zur Kopplung von Insulin an Transportmoleküle genutzt. Ausschüttung. a>. Der Blutzuckerverlauf entspricht etwa der Kurve von GLP-1. Der direkte Reiz zur Ausschüttung des Insulins aus der β-Zelle ist ein steigender Blutzuckerspiegel (ab 5 mmol Glucose/l Blut). Daneben wirkt die Anwesenheit verschiedener Aminosäuren, freier Fettsäuren und einiger Hormone stimulierend auf die Insulinfreisetzung. Durch die Hormone Gastrin, Sekretin, GIP und GLP-1 wird die β-Zelle ebenfalls angeregt Insulin auszuschütten. Sie sind für den Großteil der Insulinausschüttung nach Nahrungsaufnahme verantwortlich. Siehe Inkretin-Effekt. Der erste „Insulinpeak“ hat seine Spitze nach drei bis fünf Minuten und dauert zehn Minuten. Danach schließt sich eine zweite Phase an, die so lange anhält, wie eine Hyperglykämie besteht. Die erste Phase besteht aus den gespeicherten Insulinmolekülen, die zweite Phase vor allem aus neu gebildetem Insulin. Das C-Peptid wird erst bei Anstieg des Blutzuckerspiegels aus dem Proinsulin durch Peptidasen herausgeschnitten und gemeinsam mit dem aktiven Insulin und Zink ausgeschüttet. Durch den Nachweis von C-Peptid im Serum kann die endogene Insulinproduktion gemessen werden. So kann bei Diabetikern eine Aussage darüber getroffen werden, wie viel Insulin noch vom Körper selbst hergestellt wird, da das synthetische Produkt keine C-Sequenz enthält. Glukosegesteuerter Freisetzungsmechanismus. Das Eindringen eines Glukose-Moleküls in die β-Zelle setzt eine Wirkungskette in Gang. Nachdem die Glukose durch den GLUT1-Transporter in die Zelle gelangt ist, wird sie durch Glykolyse verstoffwechselt. Das dabei entstehende ATP hemmt den Ausstrom von Kalium-Ionen (ATP-sensitive Kaliumkanäle). So kommt es durch den stark verminderten Kaliumausstrom zur Depolarisation, weil die Stabilität des Membranpotentials nicht weiter durch Kaliumausstrom erhalten wird. Das depolarisierte Membranpotential bewirkt eine Öffnung spannungsabhängiger Kalzium-Kanäle. Der Einstrom der Kalziumionen ist der entscheidende Reiz für die Verschmelzung der insulinhaltigen Vesikel mit der Zellmembran (Für Details siehe Blutzucker-Sensorsystem). Die gespeicherten Insulinmoleküle werden durch Verschmelzen der Membranen (Exozytose) aus den β-Zellen in den Extrazellularraum und weiter in den Blutkreislauf freigesetzt. Dabei werden die Speicher-Hexamere aufgetrennt. Der Insulinspiegel im Blut steigt an. Halbwertszeit und Abbau. Die "biologische Halbwertszeit" einzelner Insulinmoleküle im Blutkreislauf liegt bei circa fünf Minuten. Das Insulin wird über manche Insulinrezeptoren in die Zellen aufgenommen, dort abgebaut und somit verbraucht. In der Leber und in der Niere wird Insulin durch Insulinase inaktiviert, die Insulinase oder genauer Glutathion-Insulin-Transhydrogenase spaltet die Disulfidbrücken zwischen der A- und der B-Kette auf, wodurch das Insulin in zwei Teile zerfällt und wirkungslos wird. Die Abbauprodukte werden durch die Niere ausgeschieden, ebenso 1,5 % des noch intakten Insulins. Die kurze Zeitspanne der Aktivität des Insulins zeigt, dass die physiologische Steuerung des Zuckerstoffwechsels im gesunden Körper sehr schnell funktioniert; diese Geschwindigkeit kann bei der Behandlung des Diabetes mellitus praktisch nicht erreicht werden. Insulin als Arzneistoff. In der Insulintherapie werden verschiedene Insulinpräparate verwendet. Die häufigste und älteste Verabreichungsart ist die subkutane Injektion. Für diesen Zweck steht eine Reihe von kurz-, mittel- und langwirkenden Humaninsulinen und Insulinanaloga zur Verfügung. Werden diese zur Therapie kombiniert, so ist auf die unterschiedliche Halbwertzeit besonders zu achten. Peroral ist Insulin unwirksam, da die Eiweißketten im Magen-Darm-Trakt von körpereigenen Enzymen abgebaut werden, bevor sie ihre Wirkung entfalten können. Untersucht wird, inwieweit sich Insuline in Nanopartikel verkapseln lassen, um auf diesem Wege „unverdaut“ in den Blutkreislauf eingeschleust werden zu können. Jüngere Entwicklungen wie Präparate zur Inhalation, die das Insulin über die Atemwege zuführen, haben sich auf dem Markt bisher nicht durchsetzen können. In der Vergangenheit wurde Insulin im Rahmen der Insulinschocktherapie zur Behandlung von Menschen mit psychischen Krankheiten eingesetzt. Diese Methode der Behandlung wurde zum Beispiel im biografischen Film A Beautiful Mind an John Nash praktiziert. Dieses Verfahren wird nicht mehr praktiziert. Missbrauch von Insulin. Insulin steht auf der Liste der verbotenen Doping-Substanzen, da es zu mehreren Zwecken missbraucht werden kann. Da Insulin der durch Somatropin verringerten Glukoseaufnahme in die Muskelzellen entgegenwirkt, wird es oft zur Kompensation dessen unerwünschter Nebenwirkung verwendet (siehe Anabolikum). Andere Anwendungen sind die Förderung der Füllung der Glykogenspeicher bei Ausdauersportlern und die Unterstützung des Aufbaus von Muskelmasse. Die missbräuchliche Selbstverabreichung von Insulin, um den Blutzuckerspiegel übermäßig abzusenken, führt zum Krankheitsbild der Hypoglycaemia factitia. Im März 2008 wurde der Krankenpfleger Colin Norris in Newcastle zu einer Haftstrafe von 30 Jahren verurteilt, weil er vier seiner Patientinnen durch Injektion hoher Insulindosen ermordet hatte. Isotop. Wie alle Isotope unterscheiden sich die Isotope von Wasserstoff nur in ihrer Neutronenzahl und somit auch in ihrer Masse, nicht jedoch in ihrer Ladung und chemischen Eigenschaften Als Isotope bezeichnet man Arten von Atomen, deren Atomkerne gleich viele Protonen (gleiche Ordnungszahl), aber verschieden viele Neutronen enthalten. Sie haben dann verschiedene Massenzahlen, stellen aber das gleiche Element dar; es gibt also die Sauerstoffisotope, die Eisenisotope usw. Die Isotope eines Elements verhalten sich chemisch fast identisch. Die Bezeichnung Isotop ist älter als der Begriff Nuklid, der ganz allgemein „Atomart“ bedeutet. „Isotop“ wird daher nach wie vor oft auch im Sinne von Nuklid benutzt, d. h. auch dann, wenn nicht nur von Atomen eines und desselben Elements die Rede ist. Von jedem bekannten Element, mit Ausnahme des erst 2006 entdeckten Ununoctium, sind mehrere Isotope nachgewiesen (s. Liste der Isotope). Insgesamt gibt es rund 3300 Nuklide. Etwa 250 davon sind stabil. Alle anderen sind instabil, d. h. durch radioaktiven Zerfall wandeln sie sich nach mehr oder weniger langer Zeit in andere Atome um. Von den 91 natürlich vorkommenden Elementen werden 69 als Gemische mehrerer Isotope (Mischelemente) vorgefunden. Die übrigen 22 heißen Reinelemente. Das chemische Atomgewicht von Mischelementen ist der Durchschnittswert der verschiedenen Atommassen der beteiligten Isotope. Der Name (von "ísos" „gleich“ und "tópos" „Ort, Stelle“) kommt daher, dass die Isotope eines Elements im Periodensystem am gleichen Ort stehen. Getrennt voneinander dargestellt werden sie in einer Nuklidkarte. Der Begriff Isotop wurde von Frederick Soddy geprägt, der für seine Arbeiten und Erkenntnisse im Bereich der Isotope und Radionuklide 1921 den Nobelpreis für Chemie erhielt. Bezeichnung und Formelschreibweise. Die Bezeichnungsweise ist in Nuklid ausführlich beschrieben. Im Text wird ein Isotop mit dem Elementnamen oder -symbol mit der angehängten Massenzahl bezeichnet, beispielsweise Sauerstoff-16 oder O-16, Eisen-56 oder Fe-56. Ausnahmen bilden manchmal die Wasserstoffisotope (siehe folgenden Abschnitt). Als Formelzeichen wird die Massenzahl dem Elementsymbol links oben hinzugefügt. Die Kernladungszahl ist schon durch den Namen (das Elementsymbol) gegeben, kann aber zusätzlich links unten an das Elementsymbol geschrieben werden, sofern sie – z.  B. bei Kernreaktionen – von Interesse ist, wie in Tritt in der Bezeichnung noch ein m auf (z. B. 16m1N), so ist damit ein Kernisomer gemeint. Wenn hinter dem m eine Zahl steht, ist dies eine Nummerierung, falls mehrere Isomere existieren. Chemische Reaktionen von Isotopen. Isotope eines Elements haben die gleiche Elektronenhülle. Dadurch unterscheiden sie sich nicht in der Art der möglichen Reaktionen, sondern nur in ihrer Reaktionsgeschwindigkeit, weil diese etwas masseabhängig ist. Das unterschiedliche chemische Verhalten von H und D tritt bei der Elektrolyse von Wasser auf, bei der bevorzugt Wasser mit dem normalen 1H reagiert und in Wasserstoff und Sauerstoff zerlegt wird, während sich Wassermoleküle, die D (2H Deuterium, Schwerer Wasserstoff) enthalten, im Restwasser anreichern (gegenüber dem natürlichen Mengenverhältnis von etwa 1:7.000). Stabile und instabile Isotope. Isotope eines Elements werden als stabil oder nicht radioaktiv bezeichnet, wenn ein Zerfall bisher nicht beobachtet wurde. Der Rekord der beobachteten Halbwertszeiten liegt derzeit bei 7·1024 Jahren beim Isotop 128Te. So gut wie alle auf der Erde natürlich vorkommenden Isotope sind entweder stabil oder haben eine Halbwertszeit, die nicht wesentlich kleiner als das Erdalter ist. Diese bezeichnet man als primordiale Nuklide. In der Nuklidkarte findet man stabile Nuklide zwischen Beta-Plus-Strahlern mit Neutronenmangel und Beta-Minus-Strahlern mit Neutronenüberschuss im Kern. Durch verbesserte Nachweismethoden für Kernzerfälle sind viele ehemals als stabil angesehene Isotope mittlerweile als radioaktiv klassifiziert worden. Seit dem Nachweis der Radioaktivität von Bismut-209 im Jahr 2003 ist Blei-208 das schwerste stabile Isotop und Blei das schwerste Element mit stabilen Isotopen. In der Natur vorkommende Elemente sind meistens Mischelemente, d. h. Isotopengemische. Die meisten natürlichen Isotope hat Zinn mit 10 Isotopen, gefolgt von Xenon mit 9 natürlichen Isotopen, von denen 8 stabil sind. Elemente, die dagegen nur aus einem natürlichen Isotop bestehen, nennt man Reinelement. Ein Reinelement hat also genau ein primordiales Isotop. Diese Eigenschaft haben 19 stabile und 3 langlebige instabile Elemente. Eine Besonderheit ist das radioaktive 180Ta. Ein Zerfall seines Kernisomers 180m1Ta wurde noch nicht beobachtet, d. h. es wird bisher als stabil angesehen. Wasserstoff. Wasserstoff ist das Element mit dem stärksten chemischen Isotopeneffekt. Schwerer Wasserstoff (2H oder Deuterium) dient im Schwerwasserreaktor als Moderator. Überschwerer Wasserstoff (3H oder Tritium) ist radioaktiv. Er entsteht in der Atmosphäre durch die kosmische Strahlung sowie in Kernreaktoren. Tritium wurde zwischen etwa 1960 und 1998 in Leuchtfarben für Uhr-Zifferblätter usw. verwendet. In größeren Mengen sollen Deuterium und Tritium in Zukunft als Brennstoff für Kernfusionsreaktoren gebraucht werden. Helium. Helium ist das Element mit dem stärksten physikalischen Isotopeneffekt. Insbesondere im Tieftemperaturbereich verhalten die beiden Heliumisotope sich sehr verschieden, da 3He ein Fermion und 4He ein Boson ist. Kohlenstoff. Ein bekanntes Isotop ist das radioaktive 14C, das zur Altersbestimmung von organischen Materialien (Archäologie) benutzt wird (Radiokohlenstoffmethode). Natürlicher Kohlenstoff liegt hauptsächlich in den stabilen Isotopen 12C und 13C vor. Sauerstoff. Das Verhältnis der beiden stabilen Sauerstoffisotope 18O und 16O wird zur Untersuchung von Paläo-Temperaturen herangezogen. Die stabilen Sauerstoffisotope eignen sich auch als natürliche Tracer in aquatischen Systemen. Uran. Das Isotop 235U dient als Brennstoff in Kernkraftwerken. Für die meisten Reaktortypen muss das Natururan dazu an 235U angereichert werden. Fast reines 235U wird in manchen Kernwaffen verwendet. Plutonium. 239Pu hat die gleichen Verwendungen wie 235U. 238Pu wird wegen seiner radioaktiven Zerfallswärme in der Raumfahrt zur Stromerzeugung in Radioisotopengeneratoren verwendet, wenn Solarzellen wegen zu großer Sonnenentfernung nicht mehr einsetzbar sind. Isotope in der Analytik. In Messungen des optischen Spektrums mit genügender Auflösung können Isotope eines Elements an ihren Spektrallinien unterschieden werden (Isotopieverschiebung). Die Isotopenzusammensetzung in einer Probe wird in der Regel mit einem Massenspektrometer bestimmt, im Fall von Spurenisotopen mittels Beschleuniger-Massenspektrometrie. Radioaktive Isotope können oft anhand ihrer Zerfallsprodukte oder der abgegebenen ionisierenden Strahlung identifiziert werden. Isotope spielen ferner eine Rolle in der NMR-Spektroskopie. So wird beispielsweise in der NMR-Spektroskopie organischer Verbindungen die Konzentration von 13C gemessen, da dieses Isotop im Gegensatz zum viel häufigeren 12C einen von null verschiedenen Kernspin und damit ein magnetisches Moment hat. Isotope werden auch in der Aufklärung von Reaktionsmechanismen oder Metabolismen mit Hilfe der sogenannten Isotopenmarkierung verwendet. Die Isotopenzusammensetzung des Wassers ist an verschiedenen Orten der Welt verschieden und charakteristisch. Diese Unterschiede erlauben es etwa bei Lebensmitteln wie Wein oder Käse, die Deklaration des Ursprungsortes zu überprüfen. Die Untersuchung von bestimmten Isotopen-Mustern (insbesondere 13C-Isotopen-Mustern) in organischen Molekülen wird als Isotopomeren-Analyse bezeichnet. Sie erlaubt unter anderem die Bestimmung intrazellulärer Stoffflüsse in lebenden Zellen. Darüber hinaus ist die Analyse von 13C/12C-, 15N/14N- sowie 34S/32S-Verhältnissen in der Ökologie heute weit verbreitet. Anhand der Fraktionierung lassen sich Stoffflüsse in Nahrungsnetzen nachverfolgen oder die Trophieebenen einzelner Arten bestimmen. In der Hydrologie werden aus den Konzentrationsverhältnissen von Isotopen Rückschlüsse auf hydrologische Prozesse gezogen. Der Wasserkreislauf begleitet die meisten Stoffflüsse ober- und unterhalb der Erde. Das Vienna Standard Mean Ocean Water (VSMOV) dient oft als Referenz. Die Geochemie befasst sich mit deren Isotopen in Mineralen, Gesteinen, Boden, Wasser und Erdatmosphäre. Stabile Isotope dienen in der Medizin als natürliche Tracer. Ignaz Semmelweis. Ignaz Philipp Semmelweis (; * 1. Juli 1818 in Ofen, Teilbezirk Tabán; † 13. August 1865 in Oberdöbling bei Wien) war ein ungarischer Arzt im damaligen Kaisertum Österreich. Er studierte an den Universitäten Pest und Wien Medizin und erhielt 1844 seinen Doktorgrad an der Universität Wien. Semmelweis führte unterschiedlich häufiges Auftreten von Kindbettfieber auf mangelnde Hygiene bei Ärzten und Krankenhauspersonal zurück und bemühte sich, Hygienevorschriften einzuführen. Seine Studie von 1847/48 gilt heute als erster praktischer Fall von evidenzbasierter Medizin in Österreich und als Musterbeispiel für eine methodisch korrekte Überprüfung wissenschaftlicher Hypothesen. Zu seinen Lebzeiten wurden seine Erkenntnisse nicht anerkannt und von Kollegen als „spekulativer Unfug“ abgelehnt. Nur wenige Ärzte unterstützten ihn, da Hygiene als Zeitverschwendung und unvereinbar mit den damals geltenden Theorien über Krankheitsursachen angesehen wurde. Semmelweis praktizierte zeitweise in Pest im heutigen Ungarn. Er starb in Wien unter nicht näher geklärten Umständen während eines 2-wöchigen Aufenthalts mit 47 Jahren in der Psychiatrie („Landesirrenanstalt Döbling“ bei Wien). Zahlreiche Widersprüche und Ungereimtheiten deuten neben dem Exhumierungsbericht aus dem Jahr 1963 und Motiven für seine Beseitigung auf willkürliche Psychiatrisierung und ein darauf folgendes Tötungsdelikt. Leben. Ignaz Semmelweis als Zwölfjähriger Theresia Müller und Josef Semmelweis, die Eltern von Ignaz Semmelweis Jugend. Ignaz Semmelweis, später „Retter der Mütter“ genannt, wurde 1818 als Sohn eines Kaufmanns in Buda geboren. Er besuchte das Piaristen-Gymnasium am St.-Niklas-Turm, danach studierte er 1835 bis 1837 an der Universität Pest. 1837 kam er nach Wien, um Rechtswissenschaft zu studieren, wechselte jedoch 1838 zur Medizin. 1844 wurde er promoviert und begann, an der Brustambulanz und in der Ausschlagabteilung des von Kaiser Joseph II. gegründeten k.k. allgemeinen Krankenhauses zu arbeiten. In Carl von Rokitanskys Institut für pathologische Anatomie erstellte er Befunde an Frauenleichen. Assistenzarzt in Wien. 1846 wurde Semmelweis Assistenzarzt in der geburtshilflichen Abteilung des Allgemeinen Krankenhauses. Gefördert von namhaften Ärzten, wurde er Assistent von Professor Klein, Leiter der 1. geburtshilflichen Klinik, unter dessen Leitung die Letalitätsrate zwischen fünf und 15 Prozent betrug, teilweise lag sie in Kliniken bei bis zu 30 Prozent. Es war bekannt, dass in der Abteilung, in der Ärzte und Medizinstudenten arbeiteten, die durch das Kindbettfieber bedingte Sterblichkeit wesentlich höher lag als in der zweiten Abteilung, in der Hebammenschülerinnen ausgebildet wurden. Semmelweis wollte den Grund dafür herausfinden und untersuchte die Mütter daher noch gründlicher. Doch gerade durch diese Bemühungen stieg die Zahl der Todesfälle in seiner Abteilung noch weiter an, so dass werdende Mütter sich schließlich weigerten, in seine Abteilung verlegt zu werden. Nach seinen Tagebuchaufzeichnungen starben in der gesamten Klinik 36 von 208 Müttern an Kindbettfieber. Ein Kind auf die Welt zu bringen, war demnach also ebenso gefährlich wie an einer Lungenentzündung zu erkranken. Die Mediziner und die Studenten führten täglich klinische Sektionen an den Leichen der Patientinnen durch, die zuvor am Kindbettfieber verstorben waren. Anschließend wuschen sie sich die Hände mit Seife (oder in einzelnen Fällen überhaupt nicht), desinfizierten sie jedoch nicht. Mit diesen Händen untersuchten sie zwischendurch Frauen während der Entbindung und übertrugen dabei infektiöses Material. Die eigentliche Ursache der Infektion – die Übertragung von Bakterien, die normalerweise massenhaft auf den Händen vorhanden sind – war damals noch nicht bekannt (vgl. Leichengift). Die Hebammenschülerinnen an der zweiten Abteilung hingegen kamen nicht mit Leichen in Berührung und führten auch keine vaginalen Untersuchungen durch. Ignaz Semmelweis wies seine Studenten daher an, nach Leichensektionen die Hände und Instrumente mit Chlorlösung, später mit dem billigeren Chlorkalk zu desinfizieren – wie sich herausstellte, eine wirkungsvolle Maßnahme, da die Sterblichkeitsrate von 12,3 auf zwei bis drei Prozent sank. Als trotzdem noch einmal zwölf Wöchnerinnen auf einen Schlag am Kindbettfieber erkrankten, als dessen Ursache zunächst das infizierte, jauchige Uteruskarzinom einer Mitpatientin vermutet worden war, erkannte er, dass die Ansteckung nicht nur von Leichen, sondern auch von lebenden Personen ausgehen konnte. So verschärfte er die Vorschriften dahingehend, dass die Hände "vor jeder Untersuchung" zu desinfizieren seien. Dadurch gelang es ihm, 1848 die Sterblichkeitsrate auf 1,3 Prozent zu senken, ein Wert, der sogar geringfügig unter dem der zweiten Krankenhausabteilung mit Hebammen lag. Trotz dieses Erfolgs wurden die Arbeiten von Semmelweis lange Zeit nicht anerkannt. Seine Studenten hielten Sauberkeit für unnötig, und viele Ärzte wollten noch immer nicht wahrhaben, dass sie selbst die Verursacher jener Krankheit waren, die sie eigentlich heilen wollten. Einige Ärzte, wie Gustav Adolf Michaelis, veranlasste dies dazu, sich das Leben zu nehmen, da sie diese Schuld nicht ertrugen. Andere Mediziner feindeten Semmelweis stark an. Eine Verlängerung seiner Assistenzarzttätigkeit wurde ihm verwehrt, im März 1849 schied er aus dem Dienst. Im Juni desselben Jahres wurde er zum Mitglied der k. k. Gesellschaft der Ärzte gewählt. Die angeregte Bildung einer Kommission zur Prüfung der Semmelweisschen Thesen wurde mit Mehrheitsbeschluss angenommen, allerdings auf Betreiben seines ehemaligen Chefs in Wien, Professor Klein, ministeriell abgelehnt. Professor in Pest. a>, er blickt auf die alte Kinderklinik Auf Grund von Anfeindungen und Intrigen von Kollegen, wie Johann Klein oder Anton von Rosas, wurde Ignaz Semmelweis 1850 nur zum Privatdozenten für theoretische Geburtshilfe mit Übungen am Phantom ernannt. Über diese Einschränkung reagierte er dermaßen erbost, dass er nur fünf Tage nach seiner Ernennung Wien verließ und nach Pest übersiedelte. Ab 1851 war Semmelweis Leiter der Geburtshilfeabteilung in Pest, ab 1855 dann Professor für Geburtshilfe an der dortigen Universität, heute die nach ihm benannte Semmelweis-Universität. Seine Ergebnisse und Erfahrungen fasste er in dem Buch "Die Ätiologie, der Begriff und die Prophylaxe des Kindbettfiebers" zusammen, das 1861 erschien. Dem 500 Seiten starken, aber sprachlich schwachen Band blieb der Erfolg versagt. Nur wenige Ärzte unterstützten ihn (Semmelweis selbst nennt die Professoren Michaelis aus Kiel und Wilhelm Lange aus Heidelberg, aber auch Hebra, Škoda und von Rokitansky machten sich für ihn stark), da Hygiene als Zeitverschwendung und unvereinbar mit den damals geltenden Theorien über Krankheitsursachen angesehen wurde. Vielmehr wurde von vielen das Kindbettfieber beispielsweise auf schlechte Luft, das Ausbleiben der Menstruation oder einen Milchstau zurückgeführt. Umstände und mögliche Motive, die zu seinem Tod führten. Schließlich war Semmelweis nach mehrfachen anderweitigen erfolglosen Versuchen zur Strategie des offenen Briefes übergegangen und hatte sämtlichen hochrangigen Verantwortlichen in der geburtshelfenden Ärzteschaft gedroht, sie öffentlich „schonungslos zu entlarven“, wenn sie seine Hygieneerkenntnisse weiterhin nicht anwenden würden – eine offene Kampfansage an die damaligen Titelträger und Koryphäen der Gynäkologie. Lobenswert erwähnt hatte Semmelweis diesbezüglich nur die Professoren Michaelis in Kiel und Lange in Heidelberg, aus seiner Konversation in Briefen sind einzelne weitere bekannt, die ihm zumindest zugeneigt waren. Am 13. August 1865, zwei Wochen nach seiner Einweisung in Döbling, starb Ignaz Semmelweis – den damaligen Obduktionsberichten zufolge – mit 47 Jahren infolge einer kleinen Verletzung, die er sich durch eine eigene Schnittverletzung bei seinen Sezierungen zugezogen habe, an einer Blutvergiftung. Anderen Berichten zufolge sei dies stattdessen bei einem Kampf mit dem Anstaltspersonal bzw. zumindest innerhalb des Klinikaufenthalts erfolgt. So habe der Kinderarzt Janós Bókai, der 1865 einen Bericht über Semmelweis’ vorherigen Zustand verfasste, laut dem Gynäkologen und Medizinhistoriker Georg Silló-Seidl, welcher die ursprünglichen Klinikunterlagen im Archiv der Wiener Gesundheitsbehörde recherchierte, von einer vorherigen Verletzung nichts erwähnt, obwohl diese, wie behauptet, bereits zuvor entzündet gewesen sei. Laut Silló-Seidl gab es diverse weitere Ungereimtheiten. Da 1963 bei einer Exhumierung der sterblichen Überreste Semmelweis’ multiple Frakturen an Händen, Armen und am linken Brustkorb festgestellt wurden, erscheint die Aktennotiz der Klinik, in der stattdessen Gehirnlähmung als sein Sterbegrund genannt wurde, umso dubioser. Überlegungen von u.a. dem amerikanischen Semmelweis-Biografen Sherwin Nuland zufolge soll Semmelweis auf dem Anstaltshof von Pflegern geschlagen und auf ihm herumgetrampelt worden sein. Begraben ist Semmelweis in Budapest am Kerepesi temető in einem Prominentengrab. Im Hauptgebäude der Anstalt in Wien-Döbling ist seit 1991 das Bezirksgericht Döbling untergebracht. Auf dem ehemaligen Gelände der Anstalt befindet sich der Neubau eines Seniorenheimes. Semmelweis hinterließ Frau und drei Kinder. Nachrufe waren kärglich und knapp. Eine Würdigung seines Lebenswerks fand sich lediglich in der Fachzeitschrift "Orvosi Hetilap", in der Semmelweis (noch bevor er sein Buch verfasste) einige seiner Vorträge veröffentlicht hatte – allerdings in ungarischer Sprache. Semmelweis’ Bedeutung wurde lange Zeit nicht wahrgenommen oder verkannt. Erst 1882 erhielt er durch die Biografie von Alfred Hegar die erste öffentliche Anerkennung. Seine Biografen, deren Bücher meist zu Ende des 19. oder Anfang des 20. Jahrhunderts erschienen, setzten sich häufig mit drastischen, sehr klaren Worten für ihn ein. Nachwirkung. Nach seinem Tod wurde das vom schottischen Chirurgen Joseph Baron Lister (1827–1912) im Jahr 1867 demonstrierte Besprühen des Operationsfeldes mit desinfizierendem Karbol in die Chirurgie eingeführt und damit ein drastischer Rückgang der Operationsmortalität erreicht. Oft wird die Asepsis ihm zugeschrieben, obwohl er seine Erkenntnisse aus denen von Semmelweis gezogen hatte. Eine Ärztegeneration später setzte sich die Umsetzung von Hygienemaßnahmen bei Frauen im Kindbett durch, und die wissenschaftliche Welt wurde der Bedeutung von Semmelweis’ Erkenntnissen gewahr. Im englischen Sprachraum gibt es den nach dem ungarischen Arzt benannten Begriff des „Semmelweis-Reflexes“. Der Begriff beschreibt die „unmittelbare Ablehnung einer Information oder wissenschaftlichen Entdeckung ohne weitere Überlegung oder Überprüfung des Sachverhaltes“. In vielen Fällen habe die wissenschaftliche Leistung dann eher eine Bestrafung als eine entsprechende Honorierung zur Folge. Die Begriffsbildung wird dem amerikanischen Autor Robert Anton Wilson zugeschrieben. 1993 wurde der Asteroid (4170) Semmelweis nach ihm benannt. Rezeption von Semmelweis’ Thesen. Bei den Biografen steht der Widerstand der leitenden Professoren im Vordergrund. Vorherrschend in der allgemeinen Rezeption ist die Meinung, Semmelweis habe durch sein ungeschicktes und besessenes Verhalten der Durchsetzung seiner Lehre selbst geschadet. Die Klientel. Die Geburtshilfe genoss als medizinisches Fachgebiet ein geringes Ansehen. Geburtshilfliche Abteilungen lagen häufig in alten, desolaten Kliniktrakten, mit Blick zum Hof oder zum Leichenhaus. Die Einrichtungen und hygienischen Verhältnisse waren extrem primitiv, teilweise auch, weil die Verbindung zwischen Hygiene und Infektionsgefahren nicht bekannt war. Leider fehlen demographische Daten der Patientinnen zu Status, Herkunft, Familienstand usw. in den Statistiken. Aus den vorliegenden Schriften geht lediglich hervor, dass ein Großteil der Patientinnen aus ärmlichen Verhältnissen stammte und keine Lobby hatte. Persönlichkeit. Einflussreiche Ärzte sprachen für ihn, ihnen unterliefen aber kleine Fehler, die Semmelweis nicht korrigierte und die ihn angreifbar machten. Sein erster kollegialer Unterstützer war Gustav Adolf Michaelis, der als erster Geburtshelfer die Entdeckung erprobte und Semmelweis Recht gab. Außer einigen Briefen, die Semmelweis mit der Bitte um Prüfung an den Professor der Geburtshilfe in Kiel sandte, nahm Semmelweis trotz vieler Ersuchen und Möglichkeiten weder schriftlich noch mündlich Stellung. Öffentlich trat er erst ab Mitte 1850 in Wien auf. Seine Biografen erklären dies mit mangelhafter Schulbildung und der damit verbundenen Angst vor dem Sprechen und Schreiben. Semmelweis machte grammatikalische und orthographische Fehler und sprach Dialekt. Semmelweis wird als bescheiden und anspruchslos, als guter Gesellschafter, von kindlich-naiver Denkungsart und vertrauensvoll beschrieben, der aber sehr entschieden auf Gemeinheiten reagierte (Alfred Hegar, 1882). Seine spätere Verbitterung und zunehmende psychische Veränderung – Aggressivität, Verwirrtheit, Vergesslichkeit, Unbeherrschtheit – werden häufig als Grund für das Scheitern seiner Ideen angenommen. Stand der Forschung. Die Resonanz auf seine These war anfänglich relativ groß, die Revolution von 1848 lenkte das Interesse auf andere Bereiche. Ihr Scheitern stärkte dann die Reaktion und damit die althergebrachte Ordnung. Die deutschen und österreichischen Lehrbücher der Geburtshilfe ignorierten Semmelweis und vertraten weiterhin alte Lehren. Vereinzelt wurden Chlorwaschungen eingeführt, ohne dass die zuständigen Professoren sich wissenschaftlich zur Desinfizierung bekannten. Ein größeres Hindernis für die Verbreitung und Annahme seiner Theorie war aber nicht die Ignoranz, sondern die nachlässige Durchführung der Chlorwaschungen, deren mangelhafter Erfolg als Widerlegung der Semmelweisschen These angesehen wurde. Im In- und Ausland wurden Semmelweis’ Erkenntnisse abschlägig beurteilt. Führende Ärzte standen ihm kritisch und ablehnend gegenüber. Der Stand der Forschung war ein anderer, die Theorie der Wundkrankheiten hatte durch Rudolf Virchow eine andere Erklärungsbasis gefunden. Für das Kindbettfieber machte dieser vor allem Witterungsverhältnisse und Erkrankungen verantwortlich. IA-32. Als IA-32 („“) bezeichnet Intel die 32-Bit-x86-Architektur. x86 ist die Bezeichnung für die Architektur und den Befehlssatz der Intel-80386-kompatiblen Mikroprozessoren. Oft wird auch die Bezeichnung i386 verwendet. Der Befehlssatz ist auch in den nachfolgenden Intel-CPUs implementiert (486, Pentium, Celeron, Xeon, Core) mit Ausnahme des Itanium-Prozessors, mit dem die neuartige IA-64-Architektur eingeführt wurde. Der 80386-Befehlssatz wurde durch viele Hersteller implementiert. Auch die Prozessoren der AMD64-Architektur implementieren diesen Befehlssatz. x86 ist heute (2007) die weltweit am weitesten verbreitete Prozessorarchitektur für Personal Computer. Architekturmerkmale. Die IA-32-Architektur ist eine Weiterentwicklung der 16-Bit-Architekturen von Intels 8086- und 80286-Prozessoren. Alle Register, einschließlich der Adressregister, wurden in dieser Architektur auf 32 Bits erweitert, die Anzahl der Register blieb gleich. Die 32-Bit Register wurden als Erweiterung der 16-Bit Register der 80286 Architektur realisiert um Abwärtskompatibilität zu erzielen. Die Mnemonic der erweiterten Register wurden mit einem vorangestellten "E", für extended (deutsch: erweitert), gekennzeichnet (auf beispielsweise "EAX" (32-Bit Register) von zuvor "AX" (16-Bit Register)). Unter der Bezeichnungen für die 16-Bit Register der 80286 Architektur kann auf die unteren 16-Bit der 32-Bit Register weiterhin zugegriffen werden (beispielsweise mit "AX" Zugriff auf die unteren 16-Bit des 32-Bit "EAX" Register). Der Adressbus ist 32 Bits breit und demzufolge ist die Adressierbarkeit auf 4 GB (physikalischer Adressraum) begrenzt. Ausnahmen sind der 80386SX, welcher nur einen 24-Bit-Adressbus besaß, sowie der Pentium Pro, welcher mittels PAE eine Adresserweiterung auf 36 Bits besitzt. Betriebsarten. Als Option des Protected Mode existiert außerdem der, der im einen oder mehrere -Programme ausführen kann – dies wird zur Ausführung von MS-DOS-kompatiblen Programmen unter modernen Betriebssystemen benötigt und war wichtig für eine schonende Migration von DOS zu moderneren Betriebssystemen. Heute spielt der ' keine sehr große Rolle mehr, da MS-DOS-kompatible Programme nur noch relativ wenig genutzt werden. Virtuelle Speicherverwaltung. Die neue Virtuelle Speicherverwaltung ist primär für den Multitasking-Betrieb ausgelegt (). Mittels (MMU) können mehrere Programme im Speicher konfliktfrei quasi-gleichzeitig ausgeführt werden. Hierzu wird jedes Programm in einem (virtuellen) Speicherraum ausgeführt in dem es alleine existiert und damit nicht mit anderen Programmen in Speicherzugriffskonflikte kommen kann, so dass Speicherschutz erzielt wird (z.B. "Programm A überschreibt irrtümlich bei Programm B eine Variable im Speicher" kann nicht mehr auftreten). Dies erreicht die MMU über eine Tabelle (TLB) in der für jede virtuelle Adresse aller Programme die echte physikalische Adresse eines Speicherblocks vermerkt ist. Bei jedem Zugriff (Speicher anfordernd, schreibend oder lesend) wird, transparent für Programme und Programmierer, auf eine eindeutige physikalische Adresse umgelenkt. Ein weiterer positiver Effekt ist, dass eine Speicherfragmentierung des physikalischen Speichers nicht mehr auftreten kann. Durch die Adressumsetzung kann die MMU fast beliebig zerstückelten physikalischen Speicher als durchgängig zugreifbaren Block virtuellen Speichers dem Programm präsentieren. Dies ist ein effektiver Mechanismus, so lange die Größe des physikalischen Speichers deutlich kleiner ist als die des virtuellen Adressraums (4 GByte). Durch die kontinuierlich fallenden RAM-Speicherpreise ist dies inzwischen nicht mehr gegeben; der virtuelle Speicherraum kann die Fragmentierung des physikalischen Speichers nicht mehr immer kaschieren, da er nun selbst zu stark fragmentiert sein kann. Schutzfunktionen durch die Virtuelle Speicherverwaltung. Die MMU enthält vier zentrale Systemregister GDTR ('), IDTR ('), LDTR (') und TR ('). Damit werden die Schutzmechanismen realisiert. Diese Schutzfunktionen werden mit verschiedenen Hardware-Mechanismen realisiert. Weitere Funktionen. Der erstaunliche kommerzielle Erfolg der IA-32-Architektur beruht auf der Philosophie der Aufwärtskompatibilität, neben einem guten Marketing und Zusammenarbeit mit Microsoft, welche dem Anwender erlaubte, bisherige Programmentwicklungen weiter nutzen zu können. Inflation. 50-Millionen-Mark-Stück, Notgeld der Provinz Westfalen Briefmarke von 1923 ohne Wertangabe, vorgesehen zum Eindruck wechselnder Werte, hier 20 Milliarden Mark Jährliche Preisveränderungsraten in Deutschland seit 1965 Inflation (von lat. inflatio „Schwellung“, „Anschwellen“) bezeichnet in der Volkswirtschaftslehre eine allgemeine und anhaltende Erhöhung des Güterpreisniveaus, gleichbedeutend mit einer Minderung der Kaufkraft des Geldes. Gemessen wird die Inflation entweder durch jährliche Preisänderungen von Gütern bestimmter Warenkörbe oder durch den BIP-Deflator, der die Preisänderungen "aller" Güter einer Volkswirtschaft abbildet. Die Inflation ist Forschungsgegenstand der Volkswirtschaftslehre, speziell der Makroökonomie. Bei vielen Zentralbanken wie etwa der Europäischen Zentralbank gehört die Wahrung der Preisniveaustabilität zum ausdrücklichen Auftrag. Messung. Am häufigsten wird zur Messung der Inflation der Verbraucherpreisindex herangezogen. Der Index wird mit Hilfe eines Warenkorbs berechnet, der in einem bestimmten Jahr (Basisjahr) repräsentativ für einen durchschnittlichen Haushalt (in Deutschland 2,3 Personen) festgesetzt wird. Seit Juli 2002 wendet das Statistische Bundesamt die sogenannte „Hedonische Preisbereinigung“ zur Berechnung der Inflation für manche Warengruppen an. Dabei soll die Qualitätssteigerung von Produkten bei ihrer Bewertung mit einberechnet werden. Diese Methode wird überwiegend für IT-Produkte verwendet, die einem raschen Wandel unterliegen und die nicht über einen längeren Zeitraum in identischer Form beobachtet werden können. Die Einführung der hedonischen Preisbereinigung führt zu deutlich geringeren Inflationsraten. Kritiker bemängeln, dass die hedonische Preisbereinigung nicht Produktverschlechterungen (zum Beispiel billigere Bauweise, kürzere Lebensdauer) berücksichtige. Neben dieser rein statistischen Methode hat sich in den Wirtschaftswissenschaften der Lebenshaltungskosten-Index (= COLI = "cost of living index") etabliert. Dabei werden die Ausgaben gemessen, die Wirtschaftssubjekte zum Erreichen eines bestimmten Nutzenniveaus tätigen müssen. Bedeutung des Warenkorbes für die Inflationsmessung. Auf Grundlage dieses Warenkorbs und des damit festgelegten Basisjahres werden für jedes Jahr die Lebenshaltungskosten und daraus die prozentuale Steigerung zum Vergleichs- oder Vorjahr ermittelt. Für jeden Monat ermittelt in Deutschland das Statistische Bundesamt, in Österreich Statistik Austria die Preissteigerungen und veröffentlicht sie. Probleme bei der Messung dieser Zahlen resultieren vor allem daraus, dass mit zunehmendem Abstand zum Basisjahr der Warenkorb immer weniger repräsentativ ist, da das Konsumentenverhalten sich permanent ändert. So finden zum Beispiel Innovationen im Warenkorb nur teilweise Berücksichtigung. Außerdem wird nicht berücksichtigt, dass sich verteuernde Produkte im Konsumverhalten schnell durch ähnliche Güter ersetzt werden (siehe auch Preiselastizität der Nachfrage). Der Wert ist auch über alle Einkommensgruppen aggregiert, sagt also nichts darüber aus, inwieweit einzelne Einkommensgruppen betroffen sind. Seit Juli 2002 wird die Inflation wie in den USA und Großbritannien nach der hedonischen Methode berechnet. Dieses qualitative Verfahren führt zu deutlich niedrigeren Inflationszahlen. Kernrate. Die Kernrate der Inflation schließt die Preise für Lebensmittel und den Energiesektor aus der Berechnung aus, da diese in stärkerem Maße Schwankungen unterworfen sind, deren Ursachen nicht innerhalb der betrachteten Volkswirtschaft zu finden sind. Gefühlte Inflation. Die Höhe der Inflation wird von den Konsumenten unterschiedlich wahrgenommen. Ein Grund für die Abweichungen der „gefühlten Inflation“ zur gemessenen Inflation ist die Tatsache, dass im Warenkorb, der zur Inflationsmessung herangezogen wird, sowohl Produkte des täglichen Bedarfs (wie Lebensmittel) als auch langlebige Konsumgüter (wie Autos) enthalten sind und die Produkte in Auswahl oder Gewichtung nicht mit jedem individuellen Konsumenten bzw. jeder individuellen Konsumentengruppe übereinstimmen. Die Wahrnehmung von Preisveränderungen ist für die Waren des täglichen Bedarfs höher als diejenige für langlebige Konsumgüter. Damit liegt die gefühlte Inflation höher als die gemessene, wenn die Preise für Waren des täglichen Bedarfs stärker steigen als die langlebiger Konsumgüter (und umgekehrt). Auch Preissteigerungen von meist automatisch abgebuchten Zahlungen für Miete, Versicherung, Energie und Wasser werden geringer wahrgenommen als bei anderen Gütern. Das Phänomen der „gefühlten Inflation“ wurde insbesondere nach der Einführung des Euro breit diskutiert. 2002 kam es in einigen Ländern der Europäischen Gemeinschaft zu einem Auseinanderklaffen zwischen den Inflationsraten, wie sie von der Bevölkerung laut Umfragen wahrgenommen wurden, und denjenigen, wie sie die statistischen Ämter, in Deutschland das Statistische Bundesamt, ermittelten. Aus diesem Grund hat Hans Wolfgang Brachinger in einem gemeinsamen Projekt mit dem Statistischen Bundesamt den Index der wahrgenommenen Inflation für Deutschland berechnet. Es konnte dabei gezeigt werden, dass die wahrgenommene Inflation (gemessen mit Hilfe des Indexes der wahrgenommenen Inflation) bei der Euro-Bargeldeinführung deutlich höher lag als die amtliche Inflationsrate. Dies ist darauf zurückzuführen, dass alltägliche Ausgaben für Lebensmittel, Benzin oder Verkehr einen höheren Preisanstieg hatten als teurere, superiore Güter wie Computer, Autos oder Pauschalreisen. Auswirkungen. Preisindex des privaten Konsums in Deutschland, den USA, Japan und weiteren Ländern Binnenwert und Kaufkraft. Inflation und Kaufkraft (Konsum) sind zu unterscheiden. Wenn sich die Inflation gleichmäßig bei Löhnen und Preisen bemerkbar macht, bleiben Reallöhne, reale Preise und die Konsum-Kaufkraft unverändert. In der Realität wirkt sich die Inflation aber häufig auf die Kaufkraft aus. Wenn die Preise stärker steigen als die Löhne, dann kommt es zu sinkenden Reallöhnen und sinkender Konsum-Kaufkraft. Steigen die Löhne stärker als die Preise, dann kommt es zu steigenden Reallöhnen und steigender Kaufkraft. Bei zeitlich "vor" der Inflation abgeschlossenen Verträgen verschiebt sich das wirtschaftliche Gleichgewicht. So wird generell der Schuldner besser gestellt, während sich die Position des Gläubigers verschlechtert. Das gilt zum Beispiel für Mieten, Unterhaltszahlungen, Renten- und Pensionsansprüche und Honorarforderungen aufgrund gesetzlich geregelter Honorarordnung wie bei Rechtsanwälten und Ärzten. So wurden die Immobilienbesitzer beispielsweise in der Deutschen Inflation 1914 bis 1923 faktisch vollständig entschuldet, während die Immobilien den Wert beibehielten. Der Gesetzgeber versuchte, diese Inflationsgewinne über die Hauszinssteuer abzuschöpfen. Einer der kurzfristig großen Nutznießer der Inflation ist der Staat als institutioneller Großschuldner. Der Realwert seiner Verschuldung nimmt wegen der Inflation deutlich ab. Durch kalte Progression steigen zudem die realen Steuereinnahmen. Die größten Verlierer sind Inhaber von Geldvermögen und festverzinslichen Wertpapieren wie Staats- oder Unternehmensanleihen. Bei schwerer Inflation steigt auch die Umlaufgeschwindigkeit des Geldes, denn da das Geld ständig entwertet wird, will niemand es lange behalten. Kann nicht genug werthaltiges Sachkapital produziert werden, wird versucht, Wert in Devisen anzulegen. Die Entwertung des Geldes wird so beschleunigt. Versucht der Staat, die freie Preisbildung zu regulieren, entsteht statt offener "verdeckte" oder "zurückgestaute Inflation". Sie äußert sich unter anderem in Käuferschlangen oder in der Bildung eines Schwarzmarktes, dessen Preissteigerungen in keiner Statistik auftauchen. Außenwert der Währung. Im Falle flexibler Wechselkurse erfolgt eine Anpassung durch Abwertung des Wechselkurses der inländischen Währung gegenüber ausländischen Währungen. Hierdurch werden unerwünschte Außenhandelseffekte verhindert (siehe Wechselkurs und Außenhandel). Bei festen Wechselkursen erfolgt keine automatische Korrektur. Ist die Inflationsrate höher als in anderen Ländern, verbilligen sich die Importe, die Exporte verteuern sich. Dies führt zu Handelsbilanzdefiziten. Ausprägungen. Je nach Stärke und Tempo der Preissteigerung unterscheidet man zwischen schleichender Inflation, trabender Inflation, galoppierender Inflation und Hyperinflation. Die Inflation kann man in Phasen einordnen: akzelerierte Phase (steigende, beschleunigte) – stabilisierte (gleichbleibende) Phase – dezelerierte (abnehmende) Phase. Die dezelerierte Phase wird auch als Disinflation bezeichnet. Der Begriff „Inflation“ bezeichnete ursprünglich die Inflationen der frühen 1920er Jahre, die heute als schwere oder Hyperinflationen gelten. Heute wird er losgelöst von der tatsächlichen Geschwindigkeit der Erhöhung des Preisniveaus in einem Land gebraucht. "Leichte Inflation" (bis etwa 5 % Wertverlust im Jahr) hat nachfragefördernde Wirkung, da Leute ihr Geld ausgeben oder investieren wollen. Freilich verlangen sie für Investitionen immer noch eine Liquiditätsprämie, das heißt die Renditen müssen deutlich über der Inflationsrate liegen. Bei "schwerer Inflation" (ab rund 5 % Wertverlust im Jahr) verliert das Tauschmittel Geld seinen Wert schneller als andere Güter (zum Beispiel Immobilien, Aktien, Sachkapital allgemein) und büßt daher die Wertmaßstabsfunktion und Wertaufbewahrungsfunktion ein, stattdessen wird eine Ersatzwährung verwendet, so zum Beispiel Zigaretten in Deutschland nach dem Zweiten Weltkrieg, der US-Dollar in der Türkei (früher) oder Argentinien. Es kommt zur Flucht in wertstabile Sachwerte und zu Kapitalflucht. Auf den Kapitalmärkten nimmt das Kapitalangebot ab, da die Anbieter wegen der Inflation mit einem Werteverzehr rechnen, der Kapitalzins steigt. Aus gleichem Grund werden langfristige Kredite kaum noch angeboten, schon gar nicht mit festem Zins. So besteht auch für Kreditnehmer keine Planungssicherheit mehr. Bisher knapp lohnende Investitionen werden durch Zinssteigerung unrentabel; Unternehmen, deren Rendite nicht mehr ausreicht, gehen bankrott. Deutsches Inflationsgeld von 1923 (Aluminium, Durchmesser 27 mm) Besonders schwere Inflationen mit "monatlichen" Wertverlusten von über 50 % werden auch als Hyperinflationen bezeichnet. Hyperinflationen kamen in der Geschichte schon mehrmals auch deshalb zum Stillstand, weil selbst der Realwert des Papiers zum Drucken der Banknoten höher war als der Wert einer Banknote. Häufig gibt es nach einer Hyperinflation eine Währungsreform. Neoklassik und Monetarismus. In einem (unregulierten) Markt ergibt sich der Preis eines normalen Gutes aus dem Schnittpunkt von Angebots- und Nachfragekurve. Preisänderungen für ein einzelnes Gut lassen sich zunächst einfach auf nachfrage- und/oder angebotsseitige Ursachen zurückführen. Kommt es zu einem Anstieg der Nachfrage nach einem Gut (die Nachfragekurve verschiebt sich nach rechts) oder einem Rückgang des Angebots (die Angebotskurve verschiebt sich nach links) dieses Gutes, steigt der Preis. bzw. an der Darstellung mit Änderungsraten kann man erkennen, dass das Preisniveau immer dann steigt, wenn (bei Konstanz der jeweiligen beiden anderen Größen) Betrachtet man alle vier Größen gleichzeitig, entsteht nach der Quantitätsgleichung Inflation (formula_4) dann, wenn das Geldmengenwachstum (formula_5) größer ist als die Differenz aus der Änderung des Handelsvolumens und der Änderung der Umlaufgeschwindigkeit (formula_6). Die mikroökonomisch mit Nachfrage- und Angebotsänderungen begründete Inflation bedarf also einer Änderung der makroökonomischen Größen formula_7. Empirisch ist die Quantitätsgleichung sehr gut belegt. Diese Untersuchungen zeigen, dass Inflation entsteht, wenn die Zentralbank die Geldmenge zu stark ausweitet. Im Umkehrschluss bedeutet dies, dass Inflation durch eine restriktive Geldpolitik verhindert werden kann. Siehe auch Quantitätstheorie. Österreichische Schule / Wiener Schule. Ludwig von Mises, ein Vertreter der Österreichischen Schule, verstand unter Inflation die "Ausweitung (lat. "inflare") der ungedeckten Geldmenge". Durch zyklisches und unkontrolliertes Geldwachstum entstünden Kredite "ex nihilo" mit künstlich niedrigen Zinsraten. Durch die Inflation und die Kreditexpansion würde das gesamte Preissystem verzerrt, der Preis verliere seine Funktion der Information über Knappheit, unproduktive Produktionsweisen würden dadurch künstlich am Leben gehalten. Neu geschaffenes Geld gelangt von den Zentral- und Geschäftsbanken zu Marktteilnehmern, die mit diesem neuen Geld Güter nachfragen. Diese zusätzliche Nachfrage wird in steigenden Preisen sichtbar. Die Ursache für Inflation ist damit in der Schöpfung von ungedecktem Geld so wie in gesetzlich privilegierten Institutionen des Bank- und Finanzwesens zu finden (Annahmezwang von Gesetzlichen Zahlungsmitteln, Zentralbankwesen, Teilreservebanken, Währungsmonopol usw.). Aus dieser Sicht geht auch hervor, dass die Inflation sich nicht gleichmäßig in allen Preisen widerspiegelt, sondern durch Cantillon-Effekte beeinflusst wird. Nichtmonetäre Inflationstheorien. Grundsätzlich wird hierbei zwischen einer Nachfragesoginflation und einer Angebotsdruckinflation unterschieden. Nachfrageseitig. Kommt es zur "Nachfragesoginflation", sind die Ursachen, wie aus dem Wort zu entnehmen, auf der Nachfrageseite zu suchen. In diesem Fall steigt die Nachfrage nach Gütern derart schnell, dass die Angebotsseite nicht durch Anheben des mengenmäßigen Angebots reagieren kann und stattdessen die Preise nach den Marktgesetzen anhebt. Betrifft dies alle Güter, ist jedoch ceteris paribus aggregiert ein Preisanstieg nicht möglich. Erfolgt eine monetäre Alimentierung, entsteht Inflation. Kurzfristig kann diese Alimentierung durch eine Erhöhung der Umlaufgeschwindigkeit des Geldes erfolgen. Längerfristig kann Inflation aber nur bestehen, wenn sie durch eine entsprechende Ausweitung der Geldmenge alimentiert wird. Man unterscheidet zusätzlich zwischen „hausgemachter“ und „importierter“ Nachfragesoginflation, je nachdem, ob die Nachfrage aus dem In- oder Ausland herrührt. Angebotsseitig. Auf der anderen Seite steht die "Angebotsdruckinflation" (auch: „Kosteninflation“), deren Ursprünge bei den Produktionskosten zu suchen sind. Dies sind primär Steigerungen der Lohn- bzw. Lohnnebenkosten, der Energiepreise oder Zinserhöhungen. Die Kosteninflation tritt allerdings nur dann als Erhöhung des Preisniveaus in Erscheinung, wenn die teurer produzierten Güter auch auf dem Markt zu den geforderten höheren Preisen Käufer finden und es keine Substitution aus anderen Märkten gibt (Verkäufermarkt). Auch diese Inflationsart kann nur bei einer entsprechenden Ausweitung der Geldmenge längerfristig bestehen. „Cost-push-Inflation“ besteht, wenn ein Unternehmen zum Beispiel durch höhere Rohstoffpreise („importierte“ Inflation) oder höhere Löhne, Steuern etc. („hausgemachte“ Inflation) höhere Produktionskosten hat. „Profit-push-Inflation“ wird hingegen dadurch verursacht, dass ein Unternehmen höheren Gewinn einstreichen will. a> (1923), mit Wertüberdruck „10 Milliarden Mark“ Keynesianische Erklärung. Eines der Grundprinzipien des Keynesianismus ist die negative Korrelation zwischen Inflation und Arbeitslosigkeit. Grundlage für diese Annahme bildeten empirische Untersuchungen auf der Basis historischer Daten, die mit sinkender Arbeitslosigkeit ein höheres Preisniveau verbanden (Phillips-Kurve/Phillips-Theorem). Theoretisch erklärt wurde dieses Prinzip damit, dass mit sinkender Arbeitslosigkeit das Volkseinkommen steigt und hierdurch die Konsumgüternachfrage stärker ansteigt als Produktionskapazitäten geschaffen werden können. Dazu kommt, dass bei Vollauslastung die Preise ansteigen und die Gewerkschaften bei geringerer Arbeitslosigkeit höhere Lohnforderungen durchsetzen können, was sich auf die Preise auswirkt (siehe auch Grundlohnsummenveränderungsrate). Entgegen dieser Theorie trat in den 1970er Jahren die Stagflation auf (hohes Arbeitslosenniveau "und" hohe Inflationsraten). Somit war die Phillips-Kurve insoweit widerlegt, als dass sie nur gilt, wenn die Einflüsse von außen (die siebziger Jahre waren durch steigende Rohstoffpreise geprägt) stabil gehalten werden sowie bei einer Unterauslastung der Produktionskapazitäten, was vor allem in einer Deflation zutrifft. Schöpft eine Volkswirtschaft ihre Produktionsmöglichkeiten zur Gänze aus – man spricht in diesem Zusammenhang von der PMK (= ProduktionsMöglichkeitenKurve), Synonym Transformationskurve – so führt ein Anstieg der Nachfrage im Keynesianismus voll zu einer Preissteigerung. Die Unternehmen können die erhöhte Nachfrage nach Produkten nicht ausgleichen, daher werden diese Produkte einfach teurer (vgl. Nachfrage-Sog-Inflation oben). Fraglich ist, ob nicht schon vor Erreichen einer allgemeinen Vollauslastung der Kapazitäten schon in einzelnen Wirtschaftszweigen Engpässe auftreten, so dass die Preise bereits zu klettern anfangen, bevor Vollbeschäftigung und allgemein Vollauslastung der Kapazitäten erreicht worden ist. In den 1970er Jahren stand die Bauwirtschaft als besondere Nutznießerin keynesianischer Konjunkturprogramme im Verdacht, nur noch die höhere staatliche Nachfrage in Form von höheren Preisen einzuheimsen (anstatt mehr zu investieren) – ein Fall von Moral Hazard. Weitere Ursachen/Gründe. Steuererhöhungen, staatlich administrierte Preissteigerungen und Lohnerhöhungen können unabhängig von der wirtschaftlichen Situation zu einer höheren Inflationsrate führen. Ein weiterer wichtiger Begriff ist die "importierte Inflation"; damit ist die Übertragung einer Inflation im Ausland auf das Inland gemeint. Gegen importierte Inflation ist eine Volkswirtschaft bei flexiblen Wechselkursen gut abgesichert, bei festen Wechselkursen kann sich eine Volkswirtschaft hingegen nicht gegen den Import der Inflation absichern. Produktionskostentheorie des Geldes. Inflation, das Tapezieren mit Geldscheinen während einer Hyperinflation ist kostengünstiger als mit gewöhnlicher Tapete Die klassischen Ökonomen wie Adam Smith, David Ricardo bis hin zu Karl Marx vertraten eine Produktionskostentheorie des Geldes. Für sie waren der Wert des Geldes und damit die Preise durch die Arbeitswertlehre bestimmt. Adam Smith drückte dies so aus: „Das Verhältnis zwischen dem Werte des Goldes und Silbers und dem irgendwelcher anderer Güter hängt … von dem Verhältnis zwischen der Menge Arbeit ab, die nötig ist, um eine bestimmte Menge Gold und Silber, und der Menge Arbeit, die nötig ist, um eine bestimmte Menge irgendeiner andern Art auf den Markt zu bringen.“ Die Warenpreise konnten nach der Arbeitswertlehre also nur dann dauerhaft steigen, wenn die Arbeitsproduktivität bei der Gold- oder Silbergewinnung dauerhaft rascher gesteigert werden konnte, als diejenige bei der Produktion der anderen Waren. Nach der Produktionskostentheorie des Geldes (oder nach der Arbeitswerttheorie) führten die großen Gold- und Silberimporte aus Südamerika nach der Entdeckung Amerikas nicht deshalb zu einer Inflation in Europa, weil das viele Gold eine vergleichsweise kleine Menge an Waren „jagte“ – das sagt die Quantitätstheorie des Geldes –, sondern weil plötzlich weniger Arbeitszeit erforderlich war, um eine bestimmte Menge an Gold oder Silber zu gewinnen. Die Ausdehnung der Geldmenge (Menge an umlaufenden Gold- und Silbermengen) war nur Symptom des plötzlich geringer gewordenen Arbeitswertes der Edelmetalle. Die Klassiker nahmen an, dass zum Umschlag der Waren einer Volkswirtschaft, die insgesamt einen bestimmten Wert hatten, eine Goldmenge von insgesamt einem bestimmten Wert benötigt wurde, abhängig von der Umlaufsgeschwindigkeit der Goldmünzen. Die Umlaufgeschwindigkeit wurde dabei als stabil angenommen. Sank der Wert der einzelnen Goldmünzen wegen Erhöhung der Arbeitsproduktivität bei der Goldgewinnung, wurden zum Ausgleich entsprechend mehr Goldmünzen für den Geldumlauf benötigt. Die Erhöhung der Geldmenge war also nur Symptom der Verminderung des Wertes der einzelnen Goldmünze. Wurde mehr Gold, als für den Warenumschlag benötigt, in Umlauf gebracht, führte dies nicht zu Preissteigerungen, sondern das überschüssige Gold wurde als Wertaufbewahrungsmittel gehortet. Die Wirtschaftssubjekte wollten Gold nicht unter Wert gegen Waren tauschen, so die Annahme der Klassiker. Anders sah es beim Papiergeld aus. Für das Papiergeld galten keine anderen Gesetze als für Goldmünzen, solange der Staat oder die Banken das Papiergeld nur in solchen Mengen ausgaben, dass es jederzeit zu einem bestimmten Verhältnis in Gold eingetauscht werden konnte. Aber beispielsweise während der Koalitionskriege floss aus Großbritannien sehr viel Gold ins Ausland ab oder wurde gehortet. Schließlich wurde die Goldeinlösungspflicht für Papierbanknoten durch den englischen Staat aufgehoben. Nach einiger Zeit gab es dann zwei Preise. Die stabilen Preise der Waren in Gold ausgedrückt und die steigenden Preise der Waren in Papiergeld ausgedrückt. Marx stellte den Sachverhalt so dar: Solange die für den Warenumschlag benötigte Goldmenge durch Papiergeld ersetzt wird, sind Gold und das es repräsentierende Papiergeld gleich viel wert. Wird aber in Notzeiten von den Banken der Papiergeldumlauf über den notwendigen Goldumlauf gesteigert, dann steigen genau in dem Maße die Preise in Papiergeld ausgedrückt. Während also zu viel Gold die Preise nicht anhebt, sondern als Wertaufbewahrungsmittel gehortet wird, trauen die Wirtschaftssubjekte dem Papiergeld diese Fähigkeit zur Wertbewahrung nicht zu, es wird verausgabt. Dann „jagen“ aber zu viele Banknoten zu wenige Waren. Die Preise in Papiergeld ausgedrückt steigen. Für das Papiergeld gilt insoweit die Quantitätstheorie des Geldes. Bekämpfung. Grafische Darstellung der weltweiten Inflationsraten (2013) Staatliche Preisregulierung. Eine Möglichkeit, Inflation zu stoppen, besteht darin, Preise und Gehälter staatlich zu binden. Ein Versuch dazu scheiterte in den 1970er Jahren in den USA unter Präsident Richard Nixon, da sich die Inflation, wie oben genannt, andere Wege suchte, zum Beispiel Schwarzmärkte. Viele Wissenschaftler halten Preisbindungen für sinnlos, sogar schädlich für eine Volkswirtschaft und den Grundsätzen einer Marktwirtschaft widersprechend. Ein früher Versuch, Preise am Klettern zu hindern, ist das Höchstpreisedikt des römischen Kaisers Diokletian. Monetarismus. Monetaristen versuchen, mit Hilfe der Geldmenge die Inflation zu steuern. Eine Senkung der umlaufenden Geldmenge (in Deutschland auch kurz M1 genannt) würde etwa bedeuten, dass mit weniger verfügbarem Geld die gleiche Anzahl von Produkten gekauft werden muss. Europäische Zentralbank. Die Europäische Zentralbank verfolgt heute eine Geldpolitik, die Zinssteuerung und Geldmengensteuerung kombiniert. Österreichische Schule. Für die Vertreter der heterodoxen Österreichischen Schule ist der Anstieg des allgemeinen Preisniveaus eine "Folge" der Inflationierung. Ursache ist die Ausweitung („Inflation“) der ungedeckten Geldmenge durch die Zentral- und Geschäftsbanken. Folgen der Inflationierung sind vermeidbar, wenn die Ursachen selbst nicht politisch begünstigt werden. Zu den begünstigenden und vermeidbaren Ursachen zählen insbesondere der gesetzliche Schutz und die gesetzliche Privilegierung jener Finanzinstitutionen, die ungedecktes Scheingeld herstellen. Abgrenzung Inflation gegen andere Erscheinungen. Im allgemeinen Sinne und politischen Sprachgebrauch werden verschiedene Erscheinungen mit Inflation in Verbindung gebracht oder gleichgesetzt, die unter Umständen keine Inflation sind. Kassenhaltungs-Inflation. Kassenhaltungs-Inflation bezeichnet einen Zustand, in dem die Wirtschaftssubjekte höhere Geldbestände horten, als sie eigentlich wollen. Nach ökonomischer Theorie tritt diese Situation in freien Märkten nicht auf, da die höheren Geldbestände zu Inflation führen müssen. Werden die Preise jedoch (staatlich) administriert und erfolgt die Messung des Preisniveaus anhand der administrierten Preise, so liegt keine Inflation vor. Hilfsweise kann Inflation allerdings auf nicht-administrierten Märkten (Schwarzmarkt) gemessen werden. Ob Inflation vorliegt, ist also eine Frage der Anerkennung einer Definitions-Autorität. Gegen diese These ist einzuwenden, dass gehortete Geldbestände nicht per se ein Geldangebot darstellen. Nur der Teil der Geldbestände, den die Wirtschaftssubjekte planen, in der betrachteten Periode gegen Waren und Dienstleistungen einzutauschen, stellt ein Geldangebot dar. Externer Preisschock. Dieser Ausdruck wurde im Zuge der sogenannten Ölkrisen häufig verwendet. Der Preisanstieg eines Gutes führt allerdings nicht zwangsläufig zu einem Anstieg des Preisniveaus. Sinken gleichzeitig die Preise anderer Güter, kann das Preisniveau konstant bleiben. Es liegt dann keine Inflation vor. Alimentiert die Notenbank jedoch die Preiserhöhungen, kann ein Effekt analog der sogenannten Kostendruck-Inflation ausgelöst werden. Inflationssteuer. Eine Inflationssteuer gibt und gab es nicht. "Inflationssteuer" ist ein Schlagwort, das den wirtschaftlichen Nachteil von Inflation pejorativ mit dem wirtschaftlichen Nachteil einer Steuer gleichsetzt. Bei gleichbleibendem Nominaleinkommen bleibt auch die Einkommensteuer unverändert, jedoch verringert sich das Realeinkommen aufgrund der Inflation. Gleichzeitig verlieren die Staatsschulden real an Wert (dies gilt nur bei nicht inflations-indexierten Anleihen und einer unerwartet hohen Inflation, denn wenn eine bestimmte Inflationsrate erwartet wird, wird diese Inflationsrate in den verlangten Zins mit eingepreist). Der Staat entschuldet sich bei unerwartet hoher Inflation also ohne eigene Leistung. Dies gilt zwar auch für alle anderen Schuldner. Der Staat ist jedoch als einziger in der Lage, durch seine Politik Inflation wirksam zu erhöhen. Als letzten Effekt kann der Staat Inflationsgewinne der Steuerbürger besteuern. So waren nach der Hyperinflation der 20er Jahre die Immobilienbesitzer faktisch entschuldet. Diesen Inflationsgewinn besteuerte der Staat mit der Hauszinssteuer. IP-Adresse. Eine IP-Adresse ist eine Adresse in Computernetzen, die – wie das Internet – auf dem Internetprotokoll (IP) basiert. Sie wird Geräten zugewiesen, die an das Netz angebunden sind, und macht die Geräte so adressierbar und damit erreichbar. Die IP-Adresse kann einen einzelnen Empfänger oder eine Gruppe von Empfängern bezeichnen (Multicast, Broadcast). Umgekehrt können einem Computer mehrere IP-Adressen zugeordnet sein. Die IP-Adresse wird verwendet, um Daten von ihrem Absender zum vorgesehenen Empfänger transportieren zu können. Ähnlich der Postanschrift auf einem Briefumschlag werden Datenpakete mit einer IP-Adresse versehen, die den Empfänger eindeutig identifiziert. Aufgrund dieser Adresse können die „Poststellen“, die Router, entscheiden, in welche Richtung das Paket weitertransportiert werden soll. Im Gegensatz zu Postadressen sind IP-Adressen nicht an einen bestimmten Ort gebunden. Die bekannteste Notation der heute geläufigen "IPv4-Adressen" besteht aus vier Zahlen, die Werte von 0 bis 255 annehmen können und mit einem Punkt getrennt werden, beispielsweise codice_1. Technisch gesehen ist die Adresse eine 32-stellige (IPv4) oder 128-stellige (IPv6) Binärzahl. Grundlagen. Um eine Kommunikation zwischen zwei technischen Geräten aufzubauen, muss jedes der Geräte in der Lage sein, dem anderen Gerät Daten zu senden. Damit diese Daten bei der richtigen Gegenstelle ankommen, muss diese eindeutig benannt (adressiert) werden. Dies geschieht in IP-Netzen mit einer IP-Adresse. So wird zum Beispiel ein Webserver von einem Webbrowser direkt über seine IP-Adresse angesprochen. Der Browser fragt dazu bei einem Nameserver die IP-Adresse ab, die einer Domain (zum Beispiel „www.example.com“) zugeordnet ist. Anschließend nutzt er diese IP-Adresse, um Daten an den Webserver zu senden. IP-Adresse in IP-Datenpaketen. Jedes IP-Datenpaket beginnt mit einem Informationsbereich für die Beförderung durch die IP-Schicht, dem IP-Header. Dieser Header enthält auch zwei Felder, in welche die IP-Adressen sowohl des Senders als auch des Empfängers eingetragen werden, bevor das Datenpaket verschickt wird. Die Vermittlung geschieht auf der Schicht 3 im OSI-Modell, der "Vermittlungsschicht". frühere Versionen. Das Internet wurde anfangs als Netz konzipiert, um mehrere bestehende Datennetze miteinander zu verbinden. Eine Organisation wie die IANA, die Institutionen IP-Bereiche nach Bedarf zuweist, gab es noch nicht. In den Headern der früheren Varianten des Internetprotokolls gab es getrennte Felder, in denen eine Netzwerk-Adresse und eine Host-Adresse unabhängig voneinander definiert waren. Die Netzwerk-Adresse war eine Netzwerk-Kennziffer in Form eines 8 Bit-Wertes, die Quell- und Zielnetz des jeweiligen Datenpaketes kennzeichnet. Die für Arpanet, Cyclades und weitere Netze verwendeten Kennziffern waren festgelegt. Die Host-Adresse hatte in der ersten Version des Internetprotokolls von 1974 eine Länge von 16 Bit, wurde aber bereits in der ersten Überarbeitung des Internetprotokolls auf 24 Bit erweitert. So war es theoretisch bereits seit 1975 möglich, im Internet die gleiche Anzahl an Hosts zu adressieren, wie es heute noch auf Basis von IPv4 möglich ist. Die Trennung von Netzwerk- und Host-Adresse entfiel, als im Jahre 1981 das IPv4-Protokoll eingeführt wurde und die IANA durch Einführung der Netzklassen dann IP-Adressbereiche in unterschiedlichen Größen vergab. Durch komplexere Routing-Methoden und die Tatsache, dass es IP-Netze in unterschiedlichen Größen gab, wurde die Trennung von Netz- und Hostadresse obsolet, sodass die Adressen schlichtweg als IP-Adressen bezeichnet wurden, die lediglich abhängig von den jeweiligen Netzwerkgrößen einen individuellen Netz- und Host-Teil haben. IPv4. Die seit der Einführung der Version 4 des Internet Protocol überwiegend verwendeten IPv4-Adressen bestehen aus 32 Bits, also 4 Oktetten (Bytes). Damit sind 232, also 4.294.967.296 Adressen darstellbar. In der "dotted decimal notation" werden die 4 Oktetts als vier durch Punkte voneinander getrennte ganze Zahlen in Dezimaldarstellung im Bereich von 0 bis 255 geschrieben. Beispiel: codice_2 IPv6. Durch den rasch steigenden Bedarf an IP-Adressen ist absehbar, dass der nutzbare Adressraum von IPv4 früher oder später erschöpft sein wird. Vor allem aus diesem Grund wurde IPv6 entwickelt. Es verwendet 128 Bit zur Speicherung von Adressen, damit sind 2128 = 25616 (= 340.282.366.920.938.463.463.374.607.431.768.211.456 ≈ 3,4 · 1038) Adressen darstellbar. Diese Anzahl reicht aus, um für jeden Quadratmillimeter der Erdoberfläche mindestens 665.570.793.348.866.944 (= 6,65 · 1017) IP-Adressen bereitzustellen. Da die Dezimaldarstellung codice_3 unübersichtlich und schlecht handhabbar wäre, stellt man IPv6-Adressen hexadezimal dar. Um diese Darstellung weiter zu vereinfachen, werden jeweils zwei Oktetts der Adresse zusammengefasst und in Gruppen durch Doppelpunkt getrennt dargestellt. codice_4. Beispiel: codice_5 Zur weiteren Verkürzung können Nullen am Beginn eines Blocks weggelassen werden. Ein oder mehrere aufeinanderfolgende Blöcke, die nur aus Nullen bestehen, können durch codice_6 ersetzt werden – jedoch höchstens einmal in der Adresse, so dass eindeutig auf acht Blöcke aufgefüllt werden kann. Beispiel: codice_7 Netzwerkteil und Geräteteil. Jede IPv4-Adresse wird durch eine Netzmaske, jede IPv6-Adresse durch die Angabe der Präfixlänge, in einen Netzwerk- und einen Geräteteil („Hostteil“) getrennt. Die Netzmaske, also die Präfixlänge, gibt an, an welchem Bit die Adresse geteilt werden muss. Die von der Netzmaske maskierten oder von der Präfixlänge genannten Bits (Netzwerkteil) sind bei allen Hosts (Rechnern) eines Subnetzwerks identisch. Die Information, ob ein Gerät im selben Subnetz liegt (d. h. gleicher Netzwerkteil in der IP-Adresse), wird von einem Host benötigt, um Routing-Entscheidungen treffen zu können (siehe folgenden Abschnitt). Beispiel: (klassenlose) IPv4-Adresse codice_8 IP-Adresse 203.000.113.195 11001011 00000000 01110001 11000011 "ip-adresse" Netzmaske 255.255.255.224 11111111 11111111 11111111 11100000 AND "netzmaske" Netzwerkadr. 203.000.113.192 11001011 00000000 01110001 11000000 = netzwerkteil IP-Adresse 203.000.113.195 11001011 00000000 01110001 11000011 "ip-adresse" Netzmaske 255.255.255.224 11111111 11111111 11111111 11100000 00000000 00000000 00000000 00011111 AND (NOT "netzmaske") Geräteteil 3 00000000 00000000 00000000 00000011 = "geräteteil" Bei einer Netzmaske mit 27 gesetzten Bits ergibt sich eine Netzadresse von codice_9. Es verbleiben 5 Bits und damit 25 = 32 Adressen für den Geräteteil. Hiervon werden noch je eine Adresse für das Netz selbst und für den Broadcast benötigt, so dass 30 Adressen für Geräte zur Verfügung stehen. Routing. Will ein Gerät ein IP-Paket versenden, werden die Netzwerkteile der Quell-IP-Adresse und Ziel-IP-Adresse verglichen. Stimmen sie überein, befindet sich der Ziel-Host im selben Netz, und das Paket wird direkt an den Empfänger gesendet. Im Falle von Ethernet-Netzen dient das ARP (Address Resolution Protocol) zum Auffinden der Hardwareadresse. Das ARP arbeitet auf der zweiten Schicht des OSI-Modells und stellt die Verbindung zur ersten Schicht her. Stimmen die Netzwerkteile dagegen nicht überein, so wird über eine Routingtabelle die IP-Adresse eines Routers (next hop) gesucht und das Paket an diesen Router gesendet. Dieser hat über eine oder mehrere Schnittstellen Kontakt zu anderen Netzen und "routet" das Paket mit demselben Verfahren weiter – er konsultiert dazu seinerseits seine eigene Routingtabelle und sendet das Paket gegebenenfalls an den nächsten Router oder an das Ziel. Bis zum Endgerät kann das Paket viele Netze und Router durchlaufen. Das Durchlaufen eines Routers wird auch "Hop" (Sprung) genannt, das Routingverfahren "Next Hop Routing". Routing eines HTTP Pakets über drei Netze Ein Router hat dabei für jede seiner Schnittstellen eine eigene IP-Adresse und Netzmaske, die zum jeweiligen Netz gehört. Jedes IP-Paket wird einzeln geroutet. Die Quell- und Zieladresse im IP-Header werden vom Sender gesetzt und bleiben während des gesamten Weges unverändert. Besondere IP-Adressen. Nach dieser Liste erfüllen 622.199.809 von rund 4,3 Milliarden IPv4-Adressen bzw. 14,5 % aller möglichen IPv4-Adressen einen besonderen Zweck. Nicht mehr reservierte IP-Adressen. Mit dem RFC 5735 wurden ca. 50 Millionen IP-Adressen freigegeben. Die Reservierung der folgenden Adressbereiche wurde aufgehoben und zur Verteilung freigegeben. DNS – Übersetzung von Rechnernamen in IP-Adressen. Über das weltweit verfügbare Domain Name System (DNS) können Namen in IP-Adressen (und umgekehrt) aufgelöst werden. Der Name "www.example.com" wird zum Beispiel in die IPv4-Adresse codice_10 und die IPv6-Adresse codice_11 übersetzt. IANA – Internet Assigned Numbers Authority. Die Vergabe von IP-Netzen im Internet wird von der IANA geregelt. In den Anfangsjahren des Internets wurden IPv4-Adressen bzw. -Netze in großen Blöcken direkt von der IANA an Organisationen, Firmen oder Universitäten vergeben. Beispielsweise wurde der Bereich codice_12 und damit 16.777.216 Adressen der Xerox Corporation zugeteilt. Merck & Co. erhielt von der IANA ebenfalls einen Bereich von 16.777.216 Adressen (codice_13), ebenso wie IBM (codice_14). Die einzige deutsche Firma, die einen /8 Bereich zugeteilt bekommen hat, ist die debis AG (codice_15). Heute vergibt die IANA Blöcke an regionale Vergabestellen. RIR – Regional Internet Registry. Unter anderem für Deutschland, Liechtenstein, Österreich und die Schweiz ist also das RIPE NCC zuständig. Die "Regional Internet Registries" vergeben die ihnen von der IANA zugeteilten Netze an lokale Vergabestellen. LIR – Local Internet Registry. Die Local Internet Registries (LIR) genannten lokalen Vergabestellen geben die ihnen von den RIRs zugeteilten Adressen an ihre Kunden weiter. Die Aufgabe der LIR erfüllen in der Regel Internet Service Provider. Kunden der LIR können entweder Endkunden oder weitere (Sub-)Provider sein. Die Adressen können dem Kunden entweder permanent zugewiesen werden ("static IP address, feste IP-Adresse") oder beim Aufbau der Internetverbindung dynamisch zugeteilt werden ("dynamic IP address, dynamische IP-Adresse"). Fest zugewiesene Adressen werden vor allem bei Standleitungen verwendet oder wenn Server auf der IP-Adresse betrieben werden sollen. Welchem Endkunden oder welcher "Local Internet Registry" eine IP-Adresse bzw. ein Netz zugewiesen wurde, lässt sich über die Whois-Datenbanken der RIRs ermitteln. Private Netze. In privaten, lokalen Netzen (LAN) können selbst IP-Adressen vergeben werden. Dafür sollten für IPv4-Adressen aus den in RFC 1918 genannten privaten Netzen verwendet werden (zum Beispiel codice_16). Diese Adressen werden von der IANA nicht weiter vergeben und im Internet nicht geroutet. Um trotzdem eine Internet-Verbindung zu ermöglichen, werden in einem Router mittels Network Address Translation die LAN-internen Adressen in öffentliche, im Internet gültige IPv4-Adressen übersetzt. Bei Paketen, die an die öffentliche Adresse gerichtet ankommen, wird die öffentliche Adresse wiederum in die privaten Adressen zurückübersetzt. Zusätzlich ermöglicht NAT, dass alle Computer des lokalen Netzes nach außen unter derselben (also nur einer) im Internet gültigen IPv4-Adresse erscheinen, was „Adressen spart“. Die Zuordnung einer Kommunikation zwischen einem lokalen Computer mit privater Adresse und dem Server im Internet geschieht dann über die Portnummer. Netzklassen. Ursprünglich wurden IPv4-Adressen in Netzklassen von A bis C mit verschiedenen Netzmasken eingeteilt. Klassen D und E waren für spezielle Aufgaben vorgesehen. Aufgrund der immer größer werdenden Routing-Tabellen wurde 1993 das klassenlose Routing CIDR ("Classless Interdomain Routing") eingeführt. Damit spielt es keine Rolle mehr, welcher Netzklasse eine IPv4-Adresse angehört. Manuelle Konfiguration. Für Administratoren gibt es Konfigurationsprogramme. Unter Linux ist dies ip, unter Windows netsh, und andere unixoide Betriebssysteme verwenden ifconfig. Zur Anzeige können selbige verwendet werden, wobei unter Windows auch noch ipconfig oder winipcfg (je nach Version) zur Verfügung stehen. Beispiel: Der Netzschnittstelle eth0/LAN-Verbindung 1 wird die IPv6-Adresse 2a01:db8::123 in einem /64-Subnetz zugewiesen. Die Angabe der Teile „broadcast 192.168.0.255“ bzw. „brd +“ sind optional. („brd +“ steht hier für die automatische Berechnung der Broadcast-Adresse, es kann auch eine spezifische Adresse angegeben werden. ifconfig berechnet die Broadcast-Adresse in neueren Versionen automatisch). Automatische Konfiguration. Über Protokolle wie BOOTP oder DHCP können IP-Adressen beim Hochfahren des Rechners durch einen entsprechenden Server zugewiesen werden. Auf dem Server wird dazu vom Administrator ein Bereich von IP-Adressen definiert, aus dem sich weitere Rechner beim Hochfahren eine Adresse entnehmen können. Diese Adresse wird an den Rechner "geleast". Rechner, die feste Adressen benötigen, können im Ethernet-Netz über ihre MAC-Adresse identifiziert werden und eine dauerhafte Adresse erhalten. Vorteil hierbei ist die zentrale Verwaltung der Adressen. Ist nach der Installation des Betriebssystems die automatische Konfiguration vorgesehen, müssen keine weiteren Einstellungen für den Netzzugriff mehr vorgenommen werden. Mobilgeräte wie Laptops können sich Adressen teilen, wenn nicht alle Geräte gleichzeitig ans Netz angeschlossen werden. Daneben können sie ohne Änderung der Konfiguration bei Bedarf in verschiedene Netze (zum Beispiel Firma, Kundennetz, Heimnetz) integriert werden. Für IPv6 gibt es zusätzlich noch die Möglichkeit der Autokonfiguration, die ohne Server auskommt. Dynamische Adressierung. Wenn einem Host bei jeder neuen Verbindung mit einem Netz eine neue IP-Adresse zugewiesen wird, spricht man von "dynamischer" oder "wechselnder Adressierung". Im LAN-Bereich ist die dynamische Adressierung per DHCP verbreitet, im Internetzugangsbereich wird dynamische Adressierung vor allem von Internet-Service-Providern (ISP) eingesetzt, die Internet-Zugänge über Wählleitungen anbieten. Sie nutzen die dynamische Adressierung via PPP oder PPPoE. Vorteil der dynamischen Adressierung ist, dass im Durchschnitt deutlich weniger als eine IP-Adresse pro Kunde benötigt wird, da nie alle Kunden gleichzeitig online sind. Ein Verhältnis zwischen 1:10 und 1:20 ist üblich. Das RIPE NCC verlangt von seinen LIRs einen Nachweis über die Verwendung der ihnen zugewiesenen IP-Adressen. Eine feste Zuordnung von Adressen wird nur in begründeten Fällen akzeptiert, zum Beispiel für den Betrieb von Servern oder für Abrechnungszwecke. Bei DSL-Anbindung des Kunden verwenden die Provider meist ebenfalls dynamisch vergebene IPs. Statische Adressierung. Statische Adressierung wird prinzipiell überall dort verwendet, wo eine dynamische Adressierung technisch nicht möglich oder nicht sinnvoll ist. So erhalten in LANs zum Beispiel Gateways, Server oder Netzwerk-Drucker in der Regel feste IP-Adressen. Im Internet-Zugangsbereich wird statische Adressierung vor allem für Router an Standleitungen verwendet. Auch für Machine-to-Machine-Kommunikation wird insbesondere im Mobilfunkbereich (GPRS) zunehmend statische Adressierung verwendet. Statische Adressen werden meist manuell konfiguriert, können aber auch über automatische Adressierung (siehe oben) zugewiesen werden. Mehrere Adressen auf einer Netzwerkkarte. Meist wird jeder Netzwerk-Schnittstelle (zum Beispiel Netzwerkkarte) eines Hosts genau eine IPv4-Adresse zugewiesen. In einigen Fällen (siehe unten) ist es allerdings notwendig, einer Schnittstelle mehrere IPv4-Adressen zuzuweisen. Dies wird auch als "IP-Aliasing" bezeichnet. Mehrere IPv4-Adressen auf einer Netzwerkkarte werden unter anderem verwendet, um mehrere gleiche Services dort parallel zu betreiben, um einen Host aus verschiedenen Subnetzen erreichbar zu machen oder um einen Service logisch vom Host zu trennen, sodass er – mit seiner IPv4-Adresse und transparent für die Clients – auf eine andere Hardware verschoben werden kann. Bei IPv6 ist die Bindung mehrerer Adressen an eine Netzwerk-Schnittstelle die Regel, um beispielsweise eine link-lokale neben einer globalen Adresse und dynamisch vergebene Präfixe neben festen zu betreiben, oder um IPv6-Adressen mehrerer Internetprovider auf demselben Host zur Verfügung zu haben. Außerdem gelten die oben genannten Gründe wie für IPv4. Unterschiedliche Netze auf einem physischen Netz. Auf einem physischen Netz (zum Beispiel Ethernet-Netz) können unterschiedliche Netze (mit unterschiedlichem Netzwerk-Adressteil) aufgesetzt und gleichzeitig verwendet werden. Dies wird unter anderem eingesetzt, wenn später das Netz aufgeteilt werden soll oder wenn früher getrennte Netze zusammengefasst werden. Speicherung von IP-Adressen. Eine abschließende rechtliche Bewertung der Speicherung von IP-Adressen in Deutschland ist bislang nicht zustande gekommen. Das deutsche Bundesverfassungsgericht urteilte am 2. März 2010, dass die Speicherung von IPs in Deutschland in ihrer bisherigen Umsetzung verfassungswidrig sei, da das Gesetz zur anlasslosen Speicherung umfangreicher Daten sämtlicher Nutzer elektronischer Kommunikationsdienste keine konkreten Maßnahmen zur Datensicherheit vorsehe, und hat zudem die Hürden für den Abruf dieser Daten als zu niedrig bewertet. Das Urteil verpflichtete deutsche Telekommunikationsanbieter zur sofortigen Löschung der bis dahin gesammelten Daten. Es stellte jedoch fest, dass die Vorratsdatenspeicherung unter schärferen Sicherheits- und Transparenzvorkehrungen sowie begrenzten Abrufmöglichkeiten für die Sicherheitsbehörden grundsätzlich zulässig sei. Einem Auskunftsgesuch der Staatsanwaltschaft ist dann nachzukommen, wenn dieses im Rahmen eines Ermittlungsverfahrens über eine schwere Straftat im Sinne von § 100a Abs. 2 StPO erfolgt. Die Speicherung von IP-Adressen zu anderen Zwecken (beispielsweise beim Besuch einer Internetseite, etwa in einer Logdatei) ist jedoch rechtlich völlig ungeklärt. Das Amtsgericht Mitte (Berlin) erklärte im März 2007 IP-Adressen zu personenbezogenen Daten im Sinne von § 3 BDSG, somit sei ihre Speicherung nicht zulässig. Das Amtsgericht München entschied Ende September 2008, dass IP-Adressen nicht als personenbezogene Daten zu werten sind, somit sei ihre Speicherung grundsätzlich zulässig. Das Gericht knüpfte dies jedoch an einige Vorgaben. So hängt die Zulässigkeit der Speicherung von den Möglichkeiten desjenigen ab, der die Daten speichert. Hat er prinzipiell die Möglichkeit, eine Person anhand ihrer IP-Adresse zu identifizieren (etwa anhand eines personalisierten Benutzerkontos), so ist die automatische Speicherung nicht zulässig. In diesem Fall ist dies nur erlaubt, wenn der Benutzer seine ausdrückliche Zustimmung erteilt hat. Es ist festzuhalten, dass beide Urteile bzgl. IPv4-Adressen ergingen, aufgrund des größeren Adressbereiches von IPv6-Adressen sind letztere unter Umständen rechtlich anders einzuordnen. Indogermanen. Indogermanen (oder Indoeuropäer'") sind dem linguistischen Verständnis gemäß die vorauszusetzenden Sprecher der heutzutage präzise rekonstruierbaren indogermanischen Ursprache. Die Verbindung der urindogermanischen Sprache mit prähistorischen Kulturgruppen wird dadurch gefordert, dass nur durch eine zugehörige Sprechergruppe und nicht etwa allein durch einen Sprachbund die enge, sprachhistorisch bis zur genauen Identität reichende lexikalische und vor allem grammatische Verwandtschaft der zugehörigen Sprachen zwischen Island (Germanisch) und – ausgestorben – West-China (Tocharisch) bzw. Nord- und Mittelindien (Singhalesisch auch in Sri Lanka) erklärbar ist. Ethnologische Aussagen lassen sich daraus nicht ableiten. Im Gegenteil wird überwiegend davon ausgegangen, dass die heutigen Sprecher die Sprache von einwandernden Gruppen übernommen haben und ihre Altsprache nur in Bruchstücken als Substrat erhalten blieb. Viele Wissenschaftler nehmen für das Urindogermanische etwa den Zeitraum zwischen 4000 und 3000 v. Chr. an. Eine Begründung ergibt sich aus den Techniken, beispielsweise des Wagenbaues, die im gemeinsamen Wortschatz gefunden werden. Indogermanisch und indoeuropäisch. Durch vergleichende Sprachforschung entdeckte der britische Jurist und Indologe William Jones Ende des 18. Jahrhunderts, dass viele Sprachen in Europa und im Vorderen Orient von einer gemeinsamen Ursprache abstammen müssen ("siehe:" Indogermanische Sprachen und Indogermanische Ursprache). Der dänisch-französische Forscher Conrad Malte-Brun verwendete 1810 hierfür den Namen "„langues indo-germaniques“". „Indogermanisch“ ist ein sprachwissenschaftlicher Klammerbegriff für die aus damaliger Sicht bekannten und am weitesten westlich (auf Island) und am weitesten östlich (auf Ceylon) gesprochenen Sprachen dieser Sprachfamilie, nämlich Isländisch und Singhalesisch. Die keltischen Sprachen waren damals noch nicht als zur Sprachfamilie zugehörig eingestuft; die anatolischen und die beiden tocharischen Sprachen konnten erst im 20. Jahrhundert nach ihrer Entdeckung und Entzifferung als zugehörig erkannt werden. Die deutschsprachige Philologie verwendet traditionell den Begriff "indogermanis"ch ('indo-' steht dabei für die indische und '-germanisch' für die germanische Sprachfamilie), während außerhalb des deutschen Sprachraums "indoeuropäisch" (englisch "Indo-European", französisch "indo-européen") gebräuchlich ist. Beide Begriffe sind inhaltlich deckungsgleich und damit synonym. Vorstellungen zu Herkunft und Ausbreitung der indogermanischen Sprache. Die Gemeinsamkeiten der bekannten indogermanischen Sprachen setzen letztlich gemeinsame linguistische Vorstufen und eine geographisch enger oder weiter begrenzte „Urheimat“ bzw. ein bestimmtes Ausprägungsgebiet voraus, in dem die ursprüngliche Sprache vielleicht entstanden ist oder zumindest zu einem gewissen historischen Zeitpunkt real gesprochen wurde. Nach all unserem Wissen konnte sich diese wie auch andere Sprachen nur durch stetigen Einfluss von Menschen mit entsprechender Macht, Prestige und innerem Zusammenhalt ausgebreitet haben. Jede wie auch immer geartete Ursprungshypothese muss sich also auf Zeiten und Räume beziehen, von denen wir mehr oder weniger Kenntnisse nur durch die Archäologie und neuerdings durch die Gentechnik besitzen. Keine dieser Ursprungshypothesen konnte sich bisher völlig durchsetzen. Daher werden sie im Folgenden einzeln vorgestellt. Kurgan-Hypothese. Die schon Anfang des 20. Jahrhunderts von vielen Linguisten geäußerte Vermutung, die Urheimat der indogermanischen Sprachen befinde sich in den Steppen nördlich und nordöstlich des Schwarzen Meers, wird auch heute noch von der Mehrheit der Sprachwissenschaftler favorisiert und gilt seit der Widerlegung der Hypothesen Renfrews (s. u.) auch in der Ethnologie zunehmend wieder als Standard. Die Urindogermanen könnten demnach auf Grund vorhandener Wörter als eine patriarchal organisierte halbnomadische Gesellschaft angesehen werden, die den Pflug kannte, das Pferd nutzte und mit einiger Sicherheit nicht am Meer beheimatet war. Archäologen versuchten, dies mit Hilfe archäologischer Indizien zu bestätigen. Die während des Neolithikums und der frühen Bronzezeit in Südrussland, der Ukraine und Moldawien existierenden Kulturen nördlich und östlich des Schwarzen Meeres und an der Wolga wurden von der litauisch-amerikanischen Archäologin Marija Gimbutas in 1956 nach der charakteristischen Bestattungsweise in Grabhügeln ("Kurgan") zur sogenannten Kurgankultur zusammengefasst. Dieser Kurgan-Hypothese zufolge lebten die Indogermanen im 5. vorchristlichen Jahrtausend als kriegerisches Hirtenvolk in Südrussland. Sie domestizierten das Pferd (Sredny-Stog-Kultur um 4000 v. Chr.), gegen 3500 v. Chr. erfanden oder übernahmen sie das Fuhrwerk (Wörter für "Rad, Achse, Deichsel, Geschirr, Nabe" stehen dafür), und betrieben Vieh- und Weidewirtschaft mit Schafen und Rindern. Gemäß dieser Hypothese sind sie zwischen 4400 und 2200 v. Chr. in mehreren Wellen west-, süd- und ostwärts gezogen. Die Träger der Schnurkeramik bildeten demnach eine dieser Auswanderungswellen des Kurganvolkes, die sich z.B. bis ins westliche Mitteleuropa ausbreiteten und sich mit der dort ansässigen Bevölkerung vermischten. Schon lange vor Marija Gimbutas galt vielen Archäologen die Ende des 4. Jahrtausends verbreitete Streitaxt als Kennzeichen einer indoeuropäischen Invasion. Mit ihrer Kurgan-Hypothese erklärt Marija Gimbutas gesellschaftliche Umbrüche, die nach ihrer Meinung im 3. Jahrtausend die neolithische Gesellschaft Mittel- und Südeuropas erschütterten: im Norden wich die Kollektivbestattung in Megalithgräbern der Einzelbestattung, beim Grabinventar tauchen andere Beigaben auf (Waffen, Schmuck usw.), Schmuckformen und Verzierungen bei der Keramik wandeln sich. In Griechenland findet sich um 2200 v. Chr. ein ausgedehnter Brandhorizont, der mit dem Einbruch von indoeuropäischen Protogriechen in Verbindung gebracht wird, die sich bis etwa 1600 v. Chr. mit der mittelmeerischen Vorbevölkerung vermischen - ein Prozess, aus dem die frühen Griechen bzw. Achäer und die mykenische Kultur hervorgehen, die um 1600 v. Chr. einsetzt. Auch Troja erlebt um 2200 v. Chr. eine Brandkatastrophe, wenig später werden im mittleren Kleinasien die Hethiter fassbar. Fazit: Die Kurgan-Hypothese postuliert einen raschen gesellschaftlichen Umbruch, dem die älteren, seit dem 7. Jahrtausend fassbaren neolithischen Kulturen in weiten Teilen Europas zum Opfer fallen. Die sozial nicht geschichteten und vermutlich matrilinearen Bauernkulturen werden von einer patriarchalischen und feudal gegliederten indogermanischen Erobererschicht überlagert, die aufgrund ihrer kriegerischen und technologischen Überlegenheit und trotz beträchtlicher zahlenmäßiger Unterlegenheit ihre Sprache und Gesellschaftsstruktur durchsetzt. Aus der Vermischung von Indogermanen und nichtindogermanischer Urbevölkerung sowie durch isolationsbedingte Differenzierung entwickelten sich die verschiedenen indogermanischen Volks- und Sprachgruppen, wie z. B. die Anatolier, Tocharer, Indoarier, Iranier, Griechen, Armenier, Phryger, Italiker, Kelten, Germanen, Slawen, Balten, Thraker, Illyrer, Albaner und andere. Diese Hypothese von Marija Gimbutas, die wegen der Gleichsetzung der südrussischen Kurgankultur mit den Indoeuropäern und der von ihr postulierten sozialen Struktur der nichtindoeuropäischen Vorbevölkerung ("Alteuropa") zeitweise stark in die Kritik geraten war, passt im Gegensatz zu Renfrews Annahme am besten zum sprachlichen Befund, wonach die Indoeuropäer nicht zu Beginn des Neolithikums nach Europa kamen, sondern erst in relativ später Zeit im 3. Jahrtausend v. Chr. nach Westen vorstießen. Mit diesen vermuteten Wanderungen breitet sich auch das Pferd wieder nach Westen aus. Allerdings stehen Beweise für frühe "Reit"pferde im Westen noch aus: Die Fuhrwerke wurden noch lange von Ochsen gezogen. Eine 2015 veröffentlichte genetische Studie von Forschern der Harvard Medical School in Boston stützt Gimbutas Theorie. Die Forscher wiesen zwei Einwanderungswellen nach Europa nach. Zuerst kamen zwischen 5000 bis 6000 v. Chr. die ersten Ackerbauern aus dem Nahen Osten. Dabei erwiesen sich Funde aus Spanien, Deutschland und Ungarn als sehr eng verwandt. Nach 4000 v. Chr. muss es dann eine massive Einwanderung aus den südrussischen Steppen gegeben haben. Denn die Forscher stellten fest, dass die DNA der untersuchten, zentraleuropäischen Schnurkeramiker zu 75 Prozent mit der von Angehörigen der Jamnaja-Kultur übereinstimmt, einer Nachfolge-Kultur des Kurganvolkes. Welche Sprachen die vorindoeuropäischen Populationen sprachen, bleibt uns leider verborgen. Hinweise geben vereinzelt die Hydronomie und in Südosteuropa Ortsnamen bzw. deren Endungen (z. B. -assos). Ähnlich stellen sich heutige Sprachforscher den Übergang zu den indoeuropäischen Sprachen vor. Die vermutlich waffentechnisch überlegenen halbnomadischen Indoeuropäer verbreiteten sich über Europa und überschichteten die alten neolithischen Kulturen. So entstanden neue Kulturen, die nunmehr mit der Aunjetitzer- und der Hügelgrabkultur den Beginn der Bronzezeit etwa um 2000 v. Chr. markieren. Wildpferde kamen vor der Indogermanisierung in Europa nur regional vor, während sie in Steppengebieten große Herden bildeten. Dort hat der Archäologe David Anthony an Pferdezähnen aus Dereivka in der Ukraine Abnutzungsspuren entdeckt, die auf die Benutzung einer Trense zum Reiten schließen lassen. Das ist ein eindeutiger Beleg, dass dieses Pferd zum Reiten genutzt wurde. Letztlich wurde dieser Pferdezahn jedoch auf die Jahre von 410 bis 200 v.u.Z. datiert. Anthony hat jedoch zahlreiche weitere Belege zusammengetragen, die darauf schließen lassen, dass die Indoeuropäer ab c.a. 4700 v.u.Z. das Reiten entwickelten, ohne dass allerdings ein sicherer Beweis dafür gefunden wurde. Tatsächlich enthält die indogermanische Grundsprache einen reichen Wortschatz aus der Milch- und Viehwirtschaft (Milch, Butter, Wolle, Webtechnik), während Bezeichnungen für Kulturpflanzen, darunter nur eine unbekannte Getreidesorte, entweder nicht vorhanden waren oder nicht erhalten blieben. Ähnlich muss der Prozess in Mittelasien, im Iran und Nordindien verlaufen sein. So erklärt sich, dass die durch den Kaukasus abgegrenzte hethitische Sprache Anatoliens, nach Renfrew das Ursprungsgebiet der Indogermanen, am weitesten vom Urindogermanischen abweicht, hingegen das Finno-Ugrische, wahrscheinlich eine angrenzende Sprachfamilie, Ähnlichkeiten mit dem Urindogermanischen aufweist, und baltische Sprachen wie das Litauische besonders altertümliche Bestandteile der urindogermanischen Grundsprache bewahrten. Diese Völker und Stämme lebten wahrscheinlich im 5. Jahrtausend v. Chr. noch in unmittelbarer Nähe, nördlich der vermuteten Urheimat der Indogermanen und waren in den folgenden Jahrtausenden, insbesondere im vierten, als die Wanderbewegungen begannen, Verdrängungen unterworfen; sie lebten sozusagen in einem Rückzugsgebiet, aus dem sie viel später von Slawen und Goten – die Finno-Ugrier von den Balten – an den Rand der Ostsee und in den Norden abgedrängt wurden. Auf diese differenziert betrachtete Weise erhält die Hypothese von Marija Gimbutas erhöhte Glaubwürdigkeit. Die Anatolien-Hypothese. Der britische Archäologe Colin Renfrew setzt die Indogermanen mit den neolithischen (jungsteinzeitlichen) Bauern gleich, welche die Landwirtschaft ab 7000 v. Chr. sowohl über den Balkan, als auch den Westmediterranen Raum nach Mittel- und Nordeuropa brachten. Die These erscheint zunächst dadurch überzeugend, dass diese Wirtschaftsweise auch eine ökonomische Überlegenheit darstellte. Renfrews Theorie geht von einem zu frühen Auftreten des Urindogermanischen in Europa aus, da die rekonstruierte Grundsprache in ihrer sprachlichen Tiefenschicht Wörter für Dinge enthält, die erst seit dem 3.–4. Jh. v. Chr. in Europa gefunden wurden, wie z. B. "Joch", "Rad" und "Wagen". Ferner spricht die Gesellschaftsstruktur gegen Renfrews Hypothese. Der indogermanische Wortschatz deutet auf eine eher feudale, patriarchalisch geschichtete Gesellschaft, während die neolithischen Gesellschaften mit großer Wahrscheinlichkeit eine egalitäre Sozialordnung hatten, die vermutlich einen Dorfältesten, nicht aber kriegerische Fürsten oder Häuptlinge kannte. Zudem waren die neolithischen Gesellschaften im Gegensatz zu den Indoeuropäern vielleicht matrilinear strukturiert, worauf eine große Zahl weiblicher Figuren hinweist, die als Fruchtbarkeitsgöttinnen oder Stammesmütter gedeutet werden. Renfrews Hypothese erfuhr vermeintliche Unterstützung durch Stammbaumberechnungen zweier neuseeländischer Forscher (R. Gray und Q. Atkinson 2003, 2012) auf der Grundlage extrem fehlerhafter Swadesh-Listen von 103 indogermanischen Sprachen, mit Methoden der Bioinformatik unter glottochronologischen Annahmen. Die dort "berechnete" extrem frühe, jedoch mittlerweile widerrufene Ausgliederung der anatolischen und tocharischen Sprachen beruhte ausschließlich auf der Fehlinterpretation von auf unserer geringen Kenntnis beruhenden Lücken und nicht erkannten Entlehnungen als natürliche und berechenbare Wandel in der Zeit. Auch ist die berechnete Ausgliederung der Anatolischen Sprachen ca. 6500 v. Chr. in Anatolien aus einem dort angeblich noch 2000 Jahre verbleibenden (!) Rest-Indogermanisch nicht nachvollziehbar. Weitere Argumente finden sich unter Indogermanische Sprachen. Die Süd-Kaukasus-Hypothese. Die ehemals sowjetischen Forscher Gamqrelidse und Iwanow sehen den Raum südlich des Kaukasus als Ausgangsgebiet der indogermanischen Sprache an. Die linguistische Uminterpretation der Entwicklung der indogermanischen Sprachen und die auf weitgehenden semantischen Uminterpretationen beruhende Süd-Kaukasus-Hypothese wird von Indogermanisten weitestgehend abgelehnt. Alteuropa-Hypothese. Die von Hans Krahe begründete und von Wolfgang P. Schmid weiterentwickelte „Alteuropa-Theorie“ (die außer dem Namen nichts mit Gimbutas’ Alteuropa-Konzeption einer nichtindogermanischen Vorbevölkerung gemeinsam hat) stützt sich auf die Untersuchung alter Gewässernamen. Sie geht davon aus, dass sich Gewässernamen gegenüber Umbenennungen als besonders resistent erwiesen haben und damit eine sehr alte Sprachschicht repräsentieren. Dabei bedienen sich die Forscher einer Unterdisziplin der Sprachforschung, der sogenannten Onomastik (Namenforschung). Die Göttinger Schule der Gewässernamenkunde (Hydronymie, letzter Vertreter: Jürgen Udolph) nimmt ein sogenanntes „alteuropäisches“ sprachliches Kontinuum an. Mitteleuropa-Hypothesen. Anhänger dieser Richtung gehen, im Gefolge Gustaf Kossinnas davon aus, dass die Indogermanen auf die mesolithische Bevölkerung Mitteleuropas zurückgehen und somit die Urbevölkerung bilden. Nach ihrer Auffassung erstreckte sich der dafür infrage kommende Raum zwischen Weser, Ostsee, Ostpolen und Karpaten. Etwa um 4000 v. Chr. hätten diese Frühindogermanen die Trichterbecherkultur ausgebildet und ca. 2500 v. Chr. ihre Wanderungen auf den Balkan, nach Vorderasien und Indien angetreten. Eine Invasion aus dem asiatischen oder südrussischen Raum hätte es danach nicht gegeben. Ab dem späten 19. Jahrhundert vertraten zahlreiche mitteleuropäische Wissenschaftler diese Ansicht, vor allem solche, die als Nationalisten und Pangermanisten eine indogermanische Zuwanderung aus den Steppengebieten Südrusslands aus ideologischen Gründen ablehnten. Neben solchen Wissenschaftlern, die der protonazistischen Ideologie vom „nordischen Herrenmenschen“ nahestanden, gab es Indogermanisten und Prähistoriker, die die Mitteleuropa-Hypothese aus rein wissenschaftlichen Erwägungen favorisierten (z. B. Julius Pokorny, N. S. Trubetzkoy, Ernst Meyer u. a.). Ihre größte Blütezeit erlebten die Mitteleuropatheorien jedoch in den dreißiger und vierziger Jahren des 20. Jahrhunderts im Zusammenhang mit der nationalsozialistischen Rassenlehre. Nach 1945 wurden und werden jegliche Mitteleuropatheorien zur Herkunft der Indogermanen aufgrund ihrer vormaligen prominenten nationalistischen und rassistischen Instrumentalisierung bzw. Inspiration mehrheitlich abgelehnt. Gleichzeitig geriet jedoch die gesamte Indogermanistikforschung im deutschen Sprachraum in der Folge in Verruf, da bis zum Ende des Zweiten Weltkriegs der hiesige popularistische öffentliche Diskurs ein halbes Jahrhundert lang die Indogermanistik durch Verortung der Urheimat in Mitteleuropa zur Grundlage einer nordischen Herrenmenschenideologie gemacht hatte. Der Archäologe Alexander Häusler zählt die indoeuropäischen Sprachträger zur autochthonen Bevölkerung Europas, die dort ohne größere Invasionen oder Migrationen von außerhalb seit dem Mesolithikum ansässig waren. Die weite Verbreitung der indoeuropäischen Sprachen wird lediglich durch die Weitergabe von Kulturkontakten erklärt. Methodik. Die historisch-vergleichende Sprachwissenschaft und die Sprachtypologie erschließen durch Vergleich verwandter Sprachen so genannte Protosprachen. Für archäologische Kulturen gilt ähnliches wie für Protosprachen: Zahlreiche Indogermanisten versuchten, durch Analyse der manchen indogermanischen Sprachen gemeinsamen Pflanzen- und Tierbezeichnungen, die demnach Bestandteil der indogermanischen Ursprache sind, die Urheimat ihrer Träger zu ermitteln. Diese Ansätze stehen wegen der häufigen Bedeutungswechsel in der Kritik. Allerdings weisen die gemeinsamen Pflanzen- und Tiernamen auf mittlere bzw. gemäßigte Breiten und aufgrund von Lehnwörtern auf frühe Kontakte mit Sprechern uralischer und altaischer Sprachen hin. Diese Überlegungen und Sprachanalysen weisen in der heute mehrheitlich vertretenen Kurgan-Theorie als Ausbreitungszentrum auf ein Gebiet in Südrussland, auf Viehhirten, die nicht mehr Jäger und Sammler waren und – analog zu entsprechenden Begriffen in der indoeuropäischen Grundsprache – vermutlich einen rudimentären Ackerbau betrieben. Gemeinsame indogermanische Bezeichnungen des Ackerbaus, wie z. B. "Pflug", als auch des Transports wie "Rad, Wagen" und "Joch" legen nahe, dass die indogermanischen Stämme sich erst nach Übernahme des Wagentransports (zunächst von Ochsen gezogen) ausbreiteten. Danach können sie nicht die Träger der ersten Ackerbaukulturen gewesen sein, die im Alt-Neolithikum von Kleinasien nach Europa wanderten, sondern erst relativ späte (ca. 3600–2600 v. Chr.) Migranten. Diese frühmetallzeitliche Periode brachte, wie bereits vorher die Landwirtschaft, eine größere Umwälzung mit sich. Archäologen ordnen die Funde zu Fund-Horizonten. Horizonte mit ausreichend umfangreicher Datenlage werden Kulturen genannt. Eine so genannte „Kultur“ wird durch typische Funde, zumeist der Keramik, definiert (Leitfunde). Eine Gleichsetzung archäologischer Kulturen mit ethnischen Einheiten, Sippen oder Völkern ist jedoch in der Regel unmöglich, auch wenn das im 19. und frühen 20. Jahrhundert, in Deutschland besonders von Gustaf Kossinna, versucht wurde. Sprachwissenschaftler, die eine Protosprache beschreiben, versuchen oft, archäologische Evidenzen für diese Protosprache zu finden, und mitunter (aber seltener) versuchen Archäologen, die eine Kultur beschreiben, in Ermangelung historischer Daten sprachwissenschaftliche Evidenzen zu finden. Dies ändert nichts daran, dass ein Zusammenhang zwischen Protosprachen und Kulturen prinzipiell hypothetisch ist, so dass zwar allgemein von Gesellschaften gesprochen werden kann und die Sprechergemeinschaft der linguistisch rekonstruierten Protosprache ganz oder teilweise Träger der betreffenden archäologischen Kultur gewesen sein könnte, wohingegen jedoch nicht mit Bestimmtheit behauptet werden kann, diese Gesellschaften seien ein Volk gewesen oder ihre Sprache wäre auf die Kulturebene begrenzt gewesen. Die oben beschriebenen Hypothesen beruhen - jede für sich - auf völlig verschiedenen Annahmen. Manche Hypothesen schließen sich, obwohl sie sich zu widersprechen scheinen, nicht unbedingt gegenseitig aus. Cavalli-Sforza fand durch Studien Parallelen zwischen dem genetischen Verwandtschaftsgrad verschiedener Völker und dem der von ihnen gesprochenen Sprachen. Zeitlicher Rahmen. Die verschiedenen Hypothesen unterscheiden sich bereits beim Versuch, die Proto-Indogermanen zeitlich zu fassen. Beim Jungpaläolithikum (Otte) angefangen, lägen die Ursprünge in Nordafrika. Späteste Annahmen datieren die Ausbreitung der Indogermanen nach Europa in das Neolithikum oder in die regional unterschiedlich beginnende Bronzezeit (in Mitteleuropa ca. 2500 v. Chr.). Internationale Fernmeldeunion. a> zum Weltfernmeldetag. Kanalumsetzerschrank VKM mit mechanischen Filtern; Emblem der Internationalen Fernmeldeunion (UIT) Die Internationale Fernmeldeunion (, "ITU"; spanische und französische Abkürzung "UIT") mit Sitz in Genf ist eine Sonderorganisation der Vereinten Nationen und die einzige Organisation, die sich offiziell und weltweit mit technischen Aspekten der Telekommunikation beschäftigt. Sie ist Veranstalter der Weltfunkkonferenz (engl., "WRC"), die die Vollzugsordnung für den Funkdienst (engl., "RR") fortschreibt, sowie der Weltweiten Konferenz für internationale Fernmeldedienste ("World Conference on International Telecommunications", "WCIT"), die die Vollzugsordnung für internationale Fernmeldedienste (engl. International Telecommunication Regulations, ITR) fortschreibt. Überblick. Die ITU geht zurück auf den am 17. Mai 1865 gegründeten "Internationalen Telegraphenverein" und ist damit, nach dem 1863 gegründeten Internationalen Komitee vom Roten Kreuz, die zweitälteste internationale Organisation. Heute hat sie als UN-Sonderorganisation 191 Mitgliedstaaten. Ihr Gründungstag wurde von 1969 bis 2006 jährlich als Weltfernmeldetag oder Weltkommunikationstag (engl.) begangen. Nachdem die Generalversammlung der Vereinten Nationen im März 2006 beschlossen hatte, den 17. Mai ebenfalls als Welttag der Informationsgesellschaft (engl.) zu begehen, beschloss im November 2006 die Konferenz der Regierungsbevollmächtigten bei der ITU, fortan den 17. Mai als Welttag der Kommunikation und der Informationsgesellschaft (engl., "WTISD") zu feiern. In ihrem Rahmen arbeiten Staatsregierungen, Unternehmen des privaten Sektors, sowie weitere regionale und nationale Organisationen zusammen. Grundlage der ITU ist die Konstitution und Konvention der Internationalen Fernmeldeunion (Genf 1992), die Aufgaben, Rechte und Pflichten der ITU-Organe festlegt. Die Amts- und Arbeitssprachen der ITU sind arabisch, chinesisch, englisch, französisch, russisch und spanisch, wobei in Streit- oder Zweifelsfällen der französische Wortlaut maßgebend ist. Entsprechend hat die Union auch sechs verschiedene Namen, unter denen sie Dokumente veröffentlicht. Die übergeordneten Gremien der ITU, die "Plenipotentiary Conference" und die "World Conference" bearbeiten allgemeine Prinzipien und generelle Konventionen. Die Studiengruppen der ITU hingegen leisten die eigentliche Arbeit: Sie bearbeiten technische Fragestellungen, die sie in regelmäßigen Sitzungen diskutieren. Die Ergebnisse werden als Empfehlungen (Recommendations) veröffentlicht und haben erst durch die Übernahme durch normative Organisationen wie der ISO, ANSI oder ETSI oder durch nationale Regulierungsbehörden wie der Bundesnetzagentur in Deutschland den Charakter von Normen. Die Zusammenarbeit der ITU-T mit Foren und Konsortien wird insbesondere in den Empfehlungen A.4, A.5, A.6 und A.23 (zusammen mit A.23, Annex A) geregelt. Die ITU organisiert die Fachmessen ITU Telecom, mit seit 1971 Weltmessen und seit 1985 Regionalmessen in Asien, Afrika und Lateinamerika. Struktur der ITU. Die ITU teilt sich auf in ITU-R. Eine der wesentlichen Aufgaben des Radiocommunication Sector ist die internationale Festlegung der Zuweisung von Frequenzbereichen an Funkdienste durch die Vollzugsordnung für den Funkdienst. Etliche Funkdienste sind darauf angewiesen, dass die Zuweisung eines genutzten Frequenzbereichs weltweit gültig ist, um einen sicheren Betrieb zu gewährleisten, da Funkwellen an den Grenzen der Nationalstaaten nicht haltmachen. ITU-T. Die meisten Standards (streng genommen „Empfehlungen“, englisch „recommendations“) werden innerhalb der ITU von der ITU-T (Telecommunication Standardization Sector) verabschiedet. Diese "Empfehlungen" werden im Gegensatz zu nationalen Normen wie DIN, RS oder ANSI weltweit anerkannt. Empfehlungen sind mit einem Buchstaben für den Bereich, einem Punkt und einer Nummer gekennzeichnet. Ähnliche Versionen werden z. B. durch ein nachgestelltes „bis“ oder „ter“ gekennzeichnet. Bekannte Beispiele für ITU-T-Empfehlungen sind V.24 (Schnittstellenleitungen für die Datenübertragung), JPEG (Bildkompression), H.264 (Videokompression) oder E.164 (internationales Telefonnummernschema). Diese Empfehlungen wurden ursprünglich jeweils nach Ende einer Studienperiode (im Rhythmus von vier Jahren) in einzelnen Bänden geordnet nach Themen und Zuordnung zu Studiengruppen veröffentlicht; alle Bände hatten jeweils die gleiche Farbe. Der inoffizielle Sprachgebrauch benutzt deshalb die Begriffe „Yellow Book“ (1972–1976), „Orange Book“ (1976–1980), „Red Book“ (1981–1984) und „Blue Book“ (1985–1988). Danach wurden die Empfehlungen jeweils einzeln veröffentlicht und zwar frühestens nach zwei aufeinanderfolgenden Plenarsitzungen der zuständigen Studiengruppe (in der Regel neun Monate). Derzeit werden die Empfehlungen entweder nach dem TAP- (Traditional Approval Process) oder dem AAP-Verfahren (Alternative Approval Process) veröffentlicht. Das TAP-Verfahren (nach zwei aufeinanderfolgenden Plenarsitzungen) wird benutzt, wenn neben technischen zusätzlich regulatorische Aspekte berührt werden. Das AAP-Verfahren wird bei rein technischen Empfehlungen benutzt; eine Veröffentlichung ist dann schon nach vier Wochen (nach der Plenarsitzung der zuständigen Studiengruppe) möglich. Einzelnachweise. ! IBM. Die International Business Machines Corporation (IBM) ist ein US-amerikanisches IT- und Beratungsunternehmen mit Sitz in Armonk im US-Bundesstaat New York. IBM ist eines der weltweit führenden Unternehmen für Hardware, Software und Dienstleistungen im IT-Bereich sowie eines der größten Beratungsunternehmen. Gemessen am Umsatz ist das Unternehmen der weltweit drittgrößte Softwarehersteller. Aktuell beschäftigt IBM weltweit knapp 380.000 Mitarbeiter, in Deutschland schätzte die Amerikanische Handelskammer in Deutschland (amcham) die Anzahl 2013 auf 22.000. Geschichte. IBM geht zurück auf das von Herman Hollerith am 3. Dezember 1896 gegründete Vorgängerunternehmen "Tabulating Machine Company". Dieses Unternehmen stellte damals die von Herman Hollerith entwickelten Maschinen zur Auszählung und Erfassung per Lochkarten eingegebener Daten her. Dazu zählten auch Maschinen zum Auszählen der Stimmzettel bei Wahlen in den USA. Die Produktion derartiger Maschinen stellte IBM jedoch ein, nachdem die Hersteller für durch ihre Maschinen nicht gezählte Stimmen haftbar gemacht worden waren. Am 16. Juni 1911 wurden unter dem Namen „Computing-Tabulating-Recording Company“ (C-T-R) Incorporated in Endicott, NY, USA, die Unternehmen „International Time Recording Company“ und „Computing Scale Corporation“ mit der „Tabulating Machine Company“ verschmolzen. Das neue Unternehmen, das 1.300 Mitarbeiter beschäftigte, spezialisierte sich auf Lochkarten, kommerzielle Waagen und Uhren. Thomas J. Watson wurde 1914 Chef der „Computing-Tabulating-Recording Company“ und leitete IBM bis 1955. Er prägte eine spezielle Unternehmenskultur mit einer starken Vertriebsorientierung. Großer Wert wurde auf unbedingte Loyalität der Mitarbeiter gelegt. 1924 erfolgte dann die Umbenennung des Unternehmens in „International Business Machines Corporation“, kurz IBM, da ein Großteil der Produktpalette nun aus Maschinen für den Gebrauch in Unternehmen bestand, wie Locher, Prüfer, Lochkartensortierer, -mischer und diversen Tabelliermaschinen. Diese wurden im Regelfall nicht verkauft, sondern vermietet. IBM hatte auf dem Gebiet der standardisierten Lochkarten und deren Auswertung weltweit eine monopolartige Stellung. In Deutschland war IBM bis 1949 durch die ertragreiche Tochtergesellschaft DEHOMAG vertreten. Im Jahr 1943 soll Watson folgenden denkwürdigen Satz gesagt haben: („Ich denke, es gibt weltweit einen Markt für vielleicht fünf Computer.“) Der Autor Kevin Maney hat versucht, den Ursprung dieses Zitats zu ergründen, konnte aber weder in den Reden Watsons noch in anderen Dokumenten einen Hinweis darauf finden. Auch während der NS-Zeit lieferte das Unternehmen Milliarden von Lochkarten an seine deutsche Tochtergesellschaft DEHOMAG, die unter anderem dazu genutzt wurden, im Auftrag des NS-Regimes die Erfassung der jüdischen Bürger und den Holocaust effizienter zu organisieren. In den 1950er und frühen 1960er Jahren wurden mit den Modellen 701 und 1401 die ersten Computer und die zugehörige Peripherie in Form von Magnetplatten- und Trommelspeicher wie zum Beispiel der IBM 305 RAMAC und Bandstationen sowie Drucker entwickelt. Im Juni 1960 kam mit der 7070-Serie der erste transistorbasierte speicherprogrammierbare Rechner der Firma IBM. Im Jahr 1964/65 kam eine neue Großrechnergeneration, die 360, auf den Markt. Die zugrunde liegende Architektur wurde bis heute evolutionär in den Modellen 370, 390, System z und System z9 weiterentwickelt. Parallel dazu wurde das Betriebssystem 360 über VS1, 370, XA, ESA und 390 zum aktuellen OS weiterentwickelt. Für mittlere bis große Rechnermodelle gab/gibt es das DOS für S/360, das ab S/370 über VS, VSE Das 3 wurde 1969 als Low-End-Rechner eingeführt und bis 1985 vertrieben. Neu war hier mit einem Drittel der Größe von herkömmlichen Lochkarten das kleinere Lochkartenformat, das jedoch mit 96 statt bisher 80 Zeichen mehr Daten speichern konnte. Im Jahr 1975 kam der erste „tragbare“ Computer IBM 5100 mit 25 Kilogramm Gewicht, 16 KByte RAM, BASIC, 16×64-Zeichen-Display und Bandspeicher, auf den Markt. Der Rechner hatte auch wegen seines hohen Preises von über 9000 US-Dollar keinen Erfolg. Als Antwort auf den sehr erfolgreichen Apple II brachte IBM im Jahr 1981 dann den ersten IBM-PC auf den Markt. Der Rechner war aus am Markt frei erhältlichen Standardkomponenten zusammengebaut worden. Der hohe Preis des PCs (umgerechnet fast 5000 €) rief schnell Konkurrenten mit günstigeren Angeboten auf den Markt. In den 1990er Jahren hat IBM seine Marktführerschaft an seine Mitbewerber verloren. Aus der Arbeit am Zürcher IBM-Forschungslabor gingen zwei Nobelpreise für Physik hervor. Die Preisträger waren 1986 Gerd Binnig und Heinrich Rohrer für die Erfindung des Rastertunnelmikroskops sowie 1987 Johannes Georg Bednorz und Karl Alexander Müller für die Entdeckung der Hochtemperatursupraleitung. Mit Leo Esaki arbeitete zeitweise ein weiterer Nobelpreisträger für die IBM-Forschung. 1990 beschäftigte IBM weltweit 373.820 Mitarbeiter. Seit Ende der 1990er Jahre unterstützt IBM Open-Source-Projekte. So wird beispielsweise Linux auf IBM-Servern eingesetzt. Diese Anstrengungen waren allerdings nicht immer unproblematisch: Im Jahr 2003 verklagte die SCO Group IBM wegen angeblicher Urheberrechtsverletzung in den Programmcodes, die IBM zu Linux beigetragen hat. Ein Open-Source-Projekt, das IBM gestartet hat, ist die Entwicklungsumgebung Eclipse. Mit IBM Lotus Symphony ist seit 2008 ein kostenfreies Office-Paket erhältlich, welches auf dem Programm OpenOffice.org basiert. Als Reaktion auf veränderte Kundenbedürfnisse insbesondere bei Großrechnern wurde das Unternehmen seit den 1990er Jahren deutlich umgestaltet: Der Anteil an Beratung und Dienstleistungen wurde stark erhöht, organisatorisch zusammengefasst und zuletzt durch den Zukauf von PwC Consulting mit circa 30.000 Mitarbeitern weltweit im Oktober 2002 inhaltlich und personell weiter ausgebaut. Mit der Übernahme von PwC Consulting wurden alle Beratungsbereiche in der IBM organisatorisch zusammengefasst. Diese Geschäftseinheit heißt heute IBM Global Business Services. IBM versteht sich als global integrierter Geschäfts- und Technologiepartner. Neben Hard- und Softwarelösungen wird ein breites Spektrum von Beratungs- und Implementierungsleistungen sowie Finanzierung angeboten. Von 1992 bis 2004 wurden von IBM auch Notebooks verkauft, die ThinkPads. Im Februar 2001 veröffentlichte der amerikanische Autor Edwin Black das Buch "IBM und der Holocaust". In diesem wirft er IBM vor, über seine Tochtergesellschaft DEHOMAG von 1933 bis 1945 mit dem nationalsozialistischen Regime zusammengearbeitet zu haben, wodurch mit Lieferungen der Hollerith-Rechner und der Lochkartentechnik der Holocaust logistisch möglich wurde. Davor war IBM Deutschland GmbH bereits dem Entschädigungsfonds für NS-Zwangsarbeiter beigetreten. Klagen der GIRCA, der "Gypsy International Recognition and Compensation Action", gegen IBM sind von Schweizer Gerichten wegen Nichtzuständigkeit – Genf sei in den Jahren 1933 bis 1945 nicht Sitz der IBM gewesen – und Verjährung abgewiesen worden. Von März 2002 bis Dezember 2011 war Samuel J. Palmisano CEO von IBM. Sam Palmisano war der Nachfolger von Louis Gerstner Jr., der von 1993 bis 2002 CEO war. Mit Louis Gerstner Jr. wurde der Posten des CEO erstmals nicht durch einen eigenen Mitarbeiter besetzt. Palmisanos Nachfolge als CEO und Präsidentin trat zum 1. Januar 2012 Virginia Rometty an. Im Dezember 2004 entschied sich IBM zum Ausstieg aus dem Geschäft mit PCs und verkaufte die PC-Sparte, somit auch die ThinkPads zum 1. Mai 2005 für 1,75 Milliarden US-Dollar an den chinesischen Computerhersteller Lenovo. IBM äußerte sich in einer Pressemitteilung zur strategischen Bedeutung des Verkaufs der PC-Sparte an Lenovo: IBM wolle sich in Zukunft vor allem auf mobilere Endgeräte konzentrieren. Die PC-Ära neige sich dem Ende zu, der Unternehmensfokus verschiebe sich damit auf den Bereich der mobile web services. Davor wurde bereits die Festplattensparte an Hitachi verkauft. Im Jahr 2006 erreichte IBM mit weltweit 355.766 Mitarbeitern in 170 Ländern einen Umsatz von 91,4 Milliarden US-Dollar und einen Nettogewinn von 9,4 Milliarden US-Dollar. Am 20. Januar 2009 gab IBM einen Gewinn von 4,4 Milliarden US-Dollar im vierten Quartal 2008 bekannt. Für das Gesamtjahr 2008 liegt der Gewinn bei 12,3 Milliarden US-Dollar und übertrifft das Vorjahr um 18 Prozent. Nach einem Bericht des "Wall Street Journals" im März 2009 plante IBM, Sun Microsystems für 6,5 Milliarden US-Dollar zu übernehmen. Das Geschäft kam nicht zustande, stattdessen wurde Sun von Oracle gekauft. 2010 war IBM das achtzehnte Jahr in Folge das Unternehmen mit den meisten Patentanmeldungen weltweit und konnte den eigenen Rekord mit 5896 Patenten nochmals steigern. Zum Jahreswechsel 2011/12 übernahm mit Virginia Rometty erstmals eine Frau die Führung von IBM. Unternehmensbereiche. IBM System z9 Typ 2094 Mit Beratern in über 170 Ländern ist IBM Global Business Services, GBS, die größte Unternehmensberatung der Welt. Sie bildet einen Bereich innerhalb der IBM Global Services (s. u.). Rund 80.000 Berater unterstützen Unternehmen aus fast 20 Branchen inklusive Mittelstand. Die Beratungsthemen reichen von Strategieberatung über Supply-Chain-Management, Finanzmanagement, Kundenbeziehungsmanagement bis hin zum Personalmanagement und Anwendungsmanagement. Das Dienste- und Beratungsgeschäft macht mit 48,3 Milliarden US-Dollar (2006) die Hälfte des Gesamtumsatzes von IBM aus. Die IBM STG ist für die Entwicklung und den Vertrieb von IT-Infrastrukturlösungen mit IBM System Servern, System Storage und Kassensystemen verantwortlich. Auf allen Systemen stehen neben den jeweils hardwareoptimierten Betriebssystemen weiterhin unterschiedliche Linux-Distributionen zur Verfügung. Zu den IBM System Storage-Lösungen gehören u. a. die Plattensubsysteme DS300/DS400 (Low-End, alte Modelle), sowie N3/6/7000 (low-end/mid-range/high-end NAS) und DS3000 Einstiegsplattenspeicher, DS5000 (Midrange, Nachfolger der DS4000 Reihe), Storwize V7000, DS6000 (abgekündigt), DS8000 und XIV (beides High-End) sowie die Bandsysteme 3590, TS1120 oder VTS, und SAN-Infrastruktur- und Virtualisierungskomponenten (SAN Volume Controller, SVC), darüber hinaus auch Deduplikationslösungen rund um Diligent (ProtecTIER) und weitere Software- und Servicebestandteile. Retail Store Solutions umfassen Point-of-Sale- und Kiosksysteme sowie die dazugehörige Peripherie. Die IBM Software Group gliedert sich seit 2010 in 2 Bereiche: Middleware und Solutions. Zur Middleware Group gehören die Brands Mit Geschäftstätigkeit in über 40 Ländern stellt Global Finance weltweit den größten IT-Finanzdienstleister dar. Eines der Betätigungsfelder ist das Leihgeschäft für Software, Hardware und Dienste des Konzerns. Mit einem Jahresumsatz von 47,357 Milliarden US-Dollar (2005) hat sich Global Technology Services in den letzten Jahren als wichtiger Bestandteil des Unternehmens etabliert, in dem zusätzlich weit mehr als die Hälfte der Mitarbeiter ihr Tätigkeitsfeld finden. Neben dem Beratungszweig finden hauptsächlich in diesem Bereich die zahlreichen Dienstangebote ihr Zuhause. Ein Beispiel für mögliche Leistungen stellt der Bereich Strategic Outsourcing dar, der die teilweise oder komplette Übernahme von IT-Abteilungen anbietet. Mitbewerb. IBM misst sich mit vielen großen Unternehmen der IT-Branche. Zu den wichtigsten Mitbewerbern gehören Accenture, Hewlett-Packard (HP) und Microsoft, aber auch T-Systems SAS Institute und SAP. Zuletzt versuchten IBM und SAP ihre Bekanntheit durch den Einsatz ihrer Analysesoftware im Sport zu steigern. SAP analysiert hierfür die Spiele aus der aktuellen Bundesliga, während IBM schon seit Jahren im Tennis mitmischt. "Der IT-Konzern [...] beliefert seit 25 Jahren das Tennisturnier Wimbledon mit IT - inzwischen auch mit Programmen, die Daten von Spielern auswerten. Dazu kommen Echtzeitanalysen, die Zuschauern helfen sollen, die Spiele zu verfolgen. Dadurch sind etwa Vergleiche bis in die Anfänge von Wimbledon im Jahr 1877 möglich". Der Einsatz der Software in Alltagssituationen soll ein breiteres Verständnis und Interesse in den Zuschauern erwecken. IBM Deutschland. Mit der DEHOMAG war IBM seit dem 30. November 1910 in Deutschland vertreten. 1949 erfolgte die Umbenennung in „Internationale Büro-Maschinen Gesellschaft mbH”, später offiziell in „IBM Deutschland GmbH”. Die Zentrale befand sich bis 1972 in Sindelfingen, bis 2009 in Stuttgart-Vaihingen. Am 12. November 2009 wurde die neue Zentrale in Ehningen offiziell eingeweiht. Auf 12.000 m² arbeiten dort rund 3.000 Mitarbeiter. Der "IBM Campus" in Ehningen fasst auch noch andere Bereiche der IBM Deutschland GmbH zusammen und ist auch Standort des Haupt-Rechenzentrums. Weitere Standorte im Großraum Stuttgart sind Böblingen mit dem Forschungs- und Entwicklungszentrum (seit 1953) und Herrenberg mit dem Schulungszentrum. 2003 wurden circa 800 Mitarbeiter der Deutschen Bank – das entsprach einem großen Teil ihrer IT-Mannschaft – von IBM übernommen und die "IBM Business Services GmbH" gegründet, in der sämtliche Outsourcing-Bestrebungen der IBM zusammengefasst wurden. Dazu gehören unter anderem die ehemaligen Töchter DVO und IBB. Die DVO in Oberhausen wurde 2003 aufgelöst und die Mitarbeiter entlassen. Eines der ersten Outsourcing-Projekte der IBM in Deutschland war die Übernahme der EDV-Abteilung von FAG Kugelfischer. Die daraus entstandene Niederlassung in Schweinfurt wurde 2005 von IBM geschlossen, die Mitarbeiter entlassen und die Arbeit ins Ausland verlagert. Die Art und Weise der Standortschließung hat viele IBM-Mitarbeiter verunsichert. Das Gleiche gilt auch für die von der Continental AG übernommenen Mitarbeiter in Hannover, Salzgitter und Aachen, die vorübergehend in den Gemeinschaftsunternehmen „ICA“ und „ICG“ beschäftigt wurden. Nach den Restrukturierungsmaßnahmen 2005 waren im Jahr 2006 etwa 22.000 Mitarbeiter in Deutschland beschäftigt, zuvor waren es noch etwa 25.000 gewesen. Die IBM hat in Deutschland 40 Standorte. Im Juli 2008 erfolgte die Einführung einer neuen Aufbau- und Ablauforganisation. Im Rahmen dieser Reorganisation wurde die deutsche IBM in vier Kernkompetenzfelder entlang der Wertschöpfungskette partitioniert und diese wiederum in neue stark spezialisierte und global integrierte Gesellschaften gegliedert. Fast alle bis dahin existierenden Tochtergesellschaften und -marken sind in den neuen Gesellschaften aufgegangen. Diese Maßnahme war u. a. mit Betriebsübergängen für circa 8.000 Mitarbeiter verbunden. 2013 eröffnete in Magdeburg das deutschlandweit erste IT-Service-Center mit rund 300 Mitarbeitern. Neben Software-Beratung und Entwicklung, soll es auch Teil des weltweiten Netzwerkes von insgesamt 32 IBM-Centern werden. Die Geschäftsführung setzte sich bis Mai 2011 aus dem Vorsitzenden Martin Jetter, Reinhard Reschke für "Finanzen", Dieter Scholz für "Personal", Michael Diemer für "Global Technology Services", Gregor Pillen für den Bereich "Global Business Services" und Martina Koederitz für den Bereich "Mittelstand und Partnergeschäft" zusammen. Am 4. Mai 2011 wurde Martina Koederitz Nachfolgerin von Jetter im Vorsitz der Geschäftsführung. Den Vorsitz des Aufsichtsrats führt Martin Jetter. Konzernstruktur IBM Deutschland. Luftbild des Geländes von IBM Deutschland Research & Development in Böblingen IBM Slowakei. In der Slowakei gibt es zwei Niederlassungen von IBM: eine heißt IBM Slovensko, mit Hauptsitz im Apollo Business Centre II in Bratislava und Geschäftsstellen in Banská Bystrica und Košice. Die zweite Niederlassung namens IBM International Services Centre besteht seit 2003 und unterstützt die Aktivitäten von IBM vor allem in Bereichen Finance, IT und Sales. Die IBM ISC hat neben dem Apollo Business Centre II weitere zwei Standorte in Bratislava und zwar im Millennium Tower II sowie im Tower 115. IBM Österreich. Der Sitz der IBM Österreich befindet sich in Wien. Geschäftsstellen sind in fast jedem Bundesland vorhanden. Tatjana Oppitz ist seit dem 5. Januar 2011 Vorsitzende der Geschäftsführung. IBM Schweiz. Der Sitz der IBM Schweiz befindet sich in Zürich. In der Schweiz werden rund 3.300 Mitarbeiter beschäftigt. Die IBM Schweiz AG wurde 1927 als Internationale Geschäftsmaschinen -Gesellschaft AG gegründet. 1937 wurde der Name in Watson Business Machines AG abgeändert, 1943 in IBM Extension Suisse. 1970 erfolgte die definitive Namensgebung IBM Schweiz. Produkte. IBM hat im Verlauf der Firmengeschichte Produkte für diverse Bereiche der Datenverarbeitung entwickelt, hergestellt und vertrieben. Die ersten Produkte der Firma gehen auf Lochkartengeräte zurück die bereits in den 1880er Jahren zur Volkszählung in den USA verwendet wurden. Betriebssysteme. IBM begann zusammen mit Microsoft 2 als Desktop-Betriebssystem für IBM-kompatible PCs zu entwickeln. Als Microsoft aus diesem Geschäft ausstieg, um sich ganz auf Windows als Betriebssystem für IBM-kompatible Rechner zu konzentrieren, entwickelte IBM das Betriebssystem alleine weiter. Trotz technischer Überlegenheit konnte sich OS/2 gegenüber MS Windows nicht bei den Kunden durchsetzen, was zur Einstellung der Weiterentwicklung führte. Hauptsächlich bei Banken, aber auch bei Versicherungen, Fluggesellschaften und in der Fertigungsindustrie ist OS/2 auch heutzutage noch anzutreffen. Bei Großrechnern dominieren IBM-Betriebssysteme (OS) den Markt. Eine regionale Ausnahme bildet dabei Deutschland, wo auch das Betriebssystem OSD von Fujitsu häufig verwendet wird. IBM kündigte im Februar 1999 zum ersten Mal offiziell an, Linux als Betriebssystemplattform zu unterstützen, und gehörte schon bald zu dessen größten Förderern. 2000 investierte der Konzern etwa eine Milliarde US-Dollar in die Entwicklung dieses freien Betriebssystems. Unter anderem wurde eine Möglichkeit geschaffen, Linux auf z/Series-Rechnern zu betreiben; wahlweise direkt oder als Gastsystem unter dem Betriebssystem VM. Dadurch werden Serverkonsolidierungen auf dem Großrechner möglich. Die meisten Linux-Distributionen sind heute auch für z/Series erhältlich. Auf den Power-Prozessor-basierten Workstations und Enterpriseservern wie zum Beispiel 6000 oder pSeries von IBM läuft AIX, ein von IBM entwickeltes Unix-Derivat. IBM stellt für AIX eine Auswahl, meist durch Linux bekannte, freier Software zur Verfügung. Dazu gibt es auf den Internetseiten von IBM die sogenannte AIX Toolbox. Auch ein reines 64-Bit-Linux kann auf allen modernen pSeries-Servern eingesetzt werden. Weiterhin werden die PowerPC-Prozessoren in den i5-Servern verwendet, die neben dem IBM-eigenen Betriebssystem OS auch Linux, AIX sowie über spezielle Steckkarten wie Integrated PC-Server (IPCS) auch Windows als Betriebssystem in einer Maschine integriert ausführen können. Die i5-Server-Reihe der IBM ist derzeit das System mit dem – aus technischer Sicht korrekt – höchsten Integrationsfaktor, daher kommt auch die Namensvergabe „I“ von Integration. Mainframes. IBM hat eine Reihe von Großrechnern entwickelt und z. T. in Serie vertrieben. In den 1950er und 1960er Jahren wurde IBM durch die 7000 series bekannt. Personalcomputer. IBM Notebook 5140 mit Drucker, 1985 Aufbauend auf der Modellplattform des IBM-PCs und ihren Nachfolgern wird das Marktsegment der Personalcomputer von IBM selbst und von Drittherstellern mit IBM-PC-kompatiblen Modellen bis heute geprägt. Ein-/Ausgabegeräte. Tastatur IBM Model M von 1989 Unter dem Markennamen IBM wurden auch Mäuse, Tastaturen (z. B. IBM Model M), Terminals (z. B. IBM 3270), Drucker, Lochstreifenleser etc. vertrieben. Dienstleistungen. Wie im Abschnitt Geschichte dargestellt, hat sich IBM seit den 1990er Jahren mehr und mehr zum Dienstleister entwickelt. Im Jahre 2014 wurde die Strategie erneut angepasst und man fokussiert nun auf die Geschäftsfelder: Cloud, Analytics, Mobile, Social und Security. Damit erfolgt ein Wandel weg von standardisierten Produkten hin zu spezifischen Grosskundenlösungen. Hierfür kommen die vorhandenen Software- und Hardwareprodukte zum Einsatz. Seitens der Softwaresparte wurde seit 2010 durch dutzende strategische Firmenzukäufe das Angebot erweitert um so den Richtungswechsel zu ermöglichen. INTERCAL. Don Woods, Coautor von INTERCAL, 2010 Jim Lyon, Coautor von INTERCAL, 2005 INTERCAL "(Compiler Language With No Pronouncable Acronym)" ist eine esoterische Programmiersprache, die am 26. Mai 1972 von Donald R. Woods und James M. Lyon entwickelt wurde. Diese Implementation verwendete Lochkarten und EBCDIC. Bei der Umsetzung für ASCII mussten daher der Operator ¢ durch $ und ⊻ durch ? ersetzt werden. Erst 1990 wurde eine erste UNIX-Implementierung von Eric S. Raymond programmiert. Heute ist INTERCAL auch auf DOS verfügbar. Aktuell stehen zwei Versionen zur Verfügung: C-INTERCAL und CLC-INTERCAL. Daneben gibt es auch Threaded Intercal. INTERCAL wurde mit dem Ziel entwickelt, Programmiersprachen zu parodieren sowie das Programmieren schwierig zu gestalten und die entstehenden Programme effektiv unlesbar zu machen. Insofern ähnelt INTERCAL keiner der bekannten Programmiersprachen, hat sehr wenige Sprachkonstrukte und ist schwierig zu erlernen. INTERCAL wird von einer kleinen Fan-Gemeinde gepflegt und kann dem interessierten Programmierer zur Erheiterung oder Rätsellösung dienen. Auf einer SUN SPARCStation-1 benötigte ein INTERCAL-Programm über 17 Stunden, um mittels des Sieb des Eratosthenes sämtliche Primzahlen kleiner als 65536 zu berechnen (in anderen Programmiersprachen weniger als eine Sekunde). Auf einer 91 dauerte es 30 Sekunden, um einen 16-bit Integer (d. h. eine Zahl kleiner als 65536) zu dividieren. Besonderheiten. Besonders bekannt ist INTERCAL für den Befehl codice_1, der mit C-INTERCAL eingeführt wurde. Dieser parodiert das GOTO, das in einigen anderen Programmiersprachen, wie etwa BASIC, vorkommt. So gut wie alle Programmiersprachen erlauben Kommentare im Programm, die vom Compiler ignoriert werden – wie zum Beispiel codice_2 in C++. INTERCAL besitzt zwar die Möglichkeit, den Code zu kommentieren – gleichzeitig aber wird alles, was keinem gültigen Befehl entspricht, vom Compiler "ick" ignoriert, was eine interessante Möglichkeit, Kommentare zu setzen, eröffnet. Aus demselben Grund gestaltet sich die Fehlersuche in einem INTERCAL-Programm als extrem schwierig. Das Programm kompiliert nicht, wenn der Programmierer nicht freundlich genug ist und zu selten codice_3 schreibt (Fehler E079 PROGRAMMER IS INSUFFICIENTLY POLITE). Auf der anderen Seite wird der Compiler selbstverliebt und verweigert seine Tätigkeit, wenn dieses Wort zu oft vorkommt (E099 PROGRAMMER IS OVERLY POLITE). Woods erklärte in einem Interview, dass Donald Knuth ihm sagte, dass die Divisions-Routine von INTERCAL einen "tollen Hack" enthalte, den er in The Art of Computer Programming aufnehmen wolle. ICQ. ICQ (Homophon für "I seek you" „Ich suche dich”) ist ein Instant-Messaging-Dienst, der seit 1998 dem US-amerikanischen Unternehmen AOL gehörte und im April 2010 nach Russland verkauft wurde. Besitzer ist nunmehr das russische Investment-Unternehmen Mail.ru Group (ehemals Digital Sky Technologies). Benutzer können damit über das Internet miteinander chatten oder zeitverschoben Nachrichten versenden. Das verwendete proprietäre, aber von AOL offengelegte Netzwerkprotokoll heißt OSCAR. Die Adware stand in der Kritik, weil sie unter anderem gegen den Willen der Benutzer Browserstartseite und Suchmaschine manipuliert hat. Geschichte. Die erste ICQ-Software wurde im November 1996 vom israelischen Startup-Unternehmen Mirabilis veröffentlicht. Es wurde von den vier israelischen Studenten Yair Goldfinger, Arik Vardi, Sefi Vigiser und Amnon Amir entwickelt. ICQ, das als erster Internet-weiter Instant-Messaging-Dienst im heutigen Sinne gilt, breitete sich rasch aus, weil es damals keine vergleichbare, nur einen Internetzugang voraussetzende Software auf dem Markt gab und das Programm kostenlos erhältlich war. America Online (AOL) kaufte Mirabilis im Juni 1998 für 407 Millionen US-Dollar. Zu Beginn des Jahrtausends hatte ICQ eine Nutzerschaft von weit mehr als 100 Millionen und war damit Marktführer im Bereich Instant-Messaging. Am 19. Dezember 2005 gab AOL Time Warner bekannt, dass ICQ ein Patent für Instant Messaging zugesprochen bekommen hat. Die aktuelle Version der Software läuft unter Windows XP und höher sowie unter Mac OS. Die letzte unter Windows 98 lauffähige Version ist ICQ 5.1, die nicht mehr unterstützt wird. Version 7.2 erschien am 9. Januar 2010. Ende April 2010 wurde bekannt, dass AOL ICQ für 187,5 Millionen US-Dollar an das russische Investmentunternehmen Digital Sky Technologies verkauft hat. Im September 2010 benannte sich das Unternehmen von Digital Sky Technologies in "Mail.ru Group" um. In diesem Jahr hatte ICQ noch 42 Millionen Nutzer. Version 7M erschien am 2. Mai 2012. Ab Januar 2009 stellte ICQ erstmals eine App des Messengers für eine mobile Benutzung auf dem iPhone von Apple zur Verfügung. Im Juli 2010 folgte eine App-Version auch für Android und im März 2012 für das Windows Phone, im April 2012 wurden die Versionen für iOS und Android aktualisiert, sodass Fotos sowie der eigene Standort mit anderen Nutzern geteilt werden und Nachrichten auch im Offline-Modus gelesen und verfasst werden können. Durch die Etablierung sozialer Netzwerke wie Facebook oder Twitter sowie des zur Facebook Inc. gehörenden Messengers Whatsapp ist die Zahl der aktiven ICQ Nutzer heute jedoch stark rückläufig. Im Jahr 2013 zählte ICQ noch 11 Millionen Nutzer. ICQ-Nummern. Ein Nutzer wird anhand seiner ICQ-Nummer oder auch ICQ-UIN identifiziert. Dabei ist UIN eine Abkürzung für "Unique Identification Number", zu deutsch: "Eindeutige Identifizierungsnummer". Eine UIN wird bei der Registrierung vergeben und passwortgeschützt. 2009 waren über 470 Millionen Nutzer bei ICQ registriert. Das ist jedoch nicht die tatsächlich aktive Nutzerzahl, da Nutzer mehrere Nummern besitzen können und die Registrierung nichts über die tatsächliche, aktive Nutzung aussagt. Die Nummernfolge der ICQ-UINs beginnt bei 10.000, erhöht sich fortlaufend und ist momentan (Stand: 22. Juni 2010) neunstellig. Sechsstellige ICQ-Nummern sind heute eine Seltenheit und werden im Internet für Beträge bis 250 Euro verkauft. Fünfstellige ICQ-Nummern besitzen nur noch Entwickler der ICQ-Software, sie werden aber gelegentlich bei Onlineauktionen für mehrere Hundert Euro angeboten. Aufgrund des zunehmenden Diebstahls von kurzen oder besonders attraktiven ICQ-UINs mittels Phishing- oder Brute-Force-Attacken reagierte Mirabilis 1999 mit einer Verbesserung des "ICQ Password Retrieval Systems", das das Passwort einer UIN an die im Profil eingetragene primäre E-Mail-Adresse verschickt. Seither werden ebenfalls zurückliegende E-Mail-Adressen gespeichert, die beispielsweise von Hackern verändert wurden. Somit ist es möglich, eine gestohlene ICQ-UIN mit verfälschter primärer E-Mail-Adresse nach einem Diebstahl (oder nach Erwerb über zum Beispiel ein Online-Auktionshaus) zurückzuerlangen. Lediglich ICQ-UINs, die niemals zuvor oder lediglich vor 1999 mit einer E-Mail-Adresse assoziiert waren, sind von dieser Möglichkeit ausgeschlossen. Dieser Trick wird gelegentlich auf ahnungslose Käufer von ICQ-UINs angewendet. Nutzern, die eine ICQ-Nummer besitzen, bietet AOL den Service, kostenlos eine E-Mail-Adresse mit der Endung „@icqmail.com“ zu registrieren. Seit einer Weile wurden der E-Mail-Dienst von ICQmail und AIM zusammengelegt. Hierbei wurden alte E-Mails nicht übernommen, jedoch wurde die Speicherbegrenzung aufgehoben. Besondere ICQ-Nummern. AOL betreibt unter der ICQ-Nummer 12111 mit dem Nickname "ICQ System" einen Bot. Alle Benutzer mit ICQ 6 oder ICQ 5.1 hatten diesen Bot automatisch in ihrer Kontaktliste. Bei alternativen Clients wurde in der Regel nachgefragt, ob man den Benutzer hinzufügen möchte. Weitere besondere Nummern sind: 10000 und 10111. Beide identifizieren sich als „ICQ System“. Versionen. Versionen älter als "ICQ 6" können nicht mehr verwendet werden, da der Verbindungsaufbau durch die Server abgewiesen wird. Skins. Während das Erscheinungsbild von ICQ bereits in frühen Programmversionen mittels Zusatzsoftware verändert werden konnte, implementierte AOL erstmals in der Fünfer-Version eine echte Unterstützung für sogenannte Skins. Zwar ist das Angebot der offiziellen Skins sehr gering, jedoch haben ICQ-Nutzer die Möglichkeit entdeckt und begonnen, mit der Software "SkinBuilder" eigene, kompatible Skins zu erstellen. Diese.skn-Dateien werden dazu in den "Skins"-Ordner der ICQ-Installation kopiert und anschließend in den Programmeinstellungen aktiviert. Außerdem enthalten verschiedene ICQ-Editionen, zum Beispiel die ProSieben-Edition oder die Sat.1-Edition, eigene Skins. Seit Version 6 basiert die Software auf einer neuen Umgebungsstruktur (Boxely), die es Benutzern ermöglicht, eigene Skins zu erstellen. Diese kommen als sogenannte Pakete in einen Ordner namens "Packages", der sich im Installationsverzeichnis von "ICQ 6" befindet. Seit Version 7 kann der Nutzer ICQ in beliebiger Farbe darstellen lassen. Dazu müssen keine Packages oder Zusatzsoftware geladen werden. „Xtraz“. In der Lite-Version von ICQ sind zusätzliche Funktionalitäten enthalten, sogenannte "Xtraz". Damit folgt ICQ dem Trend, den Microsoft mit dem Windows Live Messenger und Yahoo mit dem Yahoo Messenger (eigentlich "Yahoo! Instant Messenger") eingeläutet haben, mehr als nur Instant Messaging zu bieten. „Open Xtraz“. Open Xtraz sind kleine Anwendungen, die von ICQ-Benutzern selbst entwickelt werden können. Zu den ersten verfügbaren Open Xtraz gehören zum Beispiel „See Too“ zum gemeinsamen ansehen von Videos, das Fotoalbum „pazAlbum“ oder die Bookmarkverwaltung „ICQ Favorites“. Protokoll. Das ICQ-Protokoll namens OSCAR baut auf TCP auf. Nachdem Mirabilis von AOL aufgekauft worden war, wurde das ICQ-Protokoll stark an das Protokoll des AOL Instant Messengers angepasst. So werden die ICQ-Nummern intern mittlerweile als Screennamen gespeichert. Durch diese Maßnahme ist es möglich, mit beiden Messengern jeweils auch Nutzer des anderen Messengers zu kontaktieren. Seit Version 4 ist es auch möglich, über ICQ ins IRC zu gelangen. Dabei verbindet sich ICQ mit dem hauseigenen IrcQnet.icq.com-Server. Das ICQ-Übertragungsprotokoll wird hin und wieder verändert, woraufhin Clients von Drittherstellern meist Verbindungsschwierigkeiten bekommen. Eine Änderung wurde beispielsweise im Februar 2006 durchgeführt, wodurch unter anderem Trillian und Miranda IM Probleme beim Empfang von Nachrichten bekamen. Aktualisierungen für die beiden Clients, die das Problem behoben, wurden jedoch einige Tage später bereitgestellt. Die Originalsoftware und andere alternative Clients blieben von dieser Änderung unbehelligt. Ein weiteres Problem ist, dass über den offiziellen Server mitunter Versionsnummern von älteren Clients gebannt werden. Das betrifft aber auch alternative Clients, da diese sich als eine bestimmte Version des originalen ICQ-Clients ausgeben müssen. In besonderer Härte wurde das am 11. Juli 2006 durchgeführt, worauf ein Großteil alternativer Clients sich nicht mehr verbinden konnte. Durch eine minimale Programmänderung (Aktualisierung der übertragenen Clientinformationen) können solche Probleme aber in kürzester Zeit behoben werden. Auch am 28. Mai 2008 wurde eine tiefgreifende Änderung am Loginvorgang durchgeführt, wodurch ab diesem Zeitpunkt der Login nur zusammen mit einer MD5-Checksumme möglich war. Deshalb konnten sich viele alternative Clients, aber auch alle ICQ-Versionen niedriger als sechs, nicht mehr mit dem ICQ-Netzwerk verbinden. Durch Aktivierung des „sicheren Logins“ lässt sich das Problem bei alternativen Clients beheben, Nutzer früherer ICQ-Versionen (vor ICQ 6) konnten sich nach wenigen Stunden wieder mit ihren Daten einloggen. ICQ startete einen Test mit dem offenen Protokoll XMPP, stellte aber den Testbetrieb Anfang 2008 nach Bekanntwerden wieder ein. Datenschutz in den Nutzungsbedingungen. Bei den vom Betreiber ICQ Inc. am 7. Juni 2000 festgelegten Nutzungsregeln verzichtet der Benutzer auf alle seine geistigen Eigentumsrechte an den über den ICQ-Service zugänglich gemachten Daten, was z. B. beim Senden von Informationen und Dateien durch Instant Messaging der Fall ist. Dieser Absatz bezieht sich also nur auf die Informationen, die der Nutzer über sich selbst angibt bzw. die ICQ über den Nutzer sammelt. Er bezieht sich allerdings nicht auf den Inhalt von Instant-Messaging-Nachrichten. Es ist demnach unklar, wie es um die Vertraulichkeit des Inhalts von IM-Nachrichten steht. Dabei behält sich ICQ vor, diese Daten Strafverfolgungsbehörden zur Verfügung zu stellen. Nutzung alternativer Clients. Die Rückentwicklung und Reimplementierung ist entgegen den obigen Abschnitten des Endbenutzer-Lizenzvertrages im Rahmen des deutschen Urheberrechts § 69e erlaubt. Die Nutzung der entstandenen Software im Zusammenhang mit den Diensten von America Online/ICQ Inc. widerspricht aber weiterhin dem Endbenutzer-Lizenzvertrag, wenn diese nicht explizit von ICQ Inc./AOL lizenziert wurden. Momentan sind nur AIM, ABV-ICQ, Atlas-ICQ, Bigmir-ICQ, ICQ, ICQ2GO, ProSieben-ICQ, Rambler-ICQ und Sat1-ICQ offiziell lizenzierte bzw. offiziell modifizierte Clients. Andere dürfen laut Lizenzvertrag nicht mit den ICQ-Diensten genutzt werden. Sicherheitslücken. Im Februar 2008 wurde eine Sicherheitslücke in ICQ 6 Build 6043 bekannt, die versierte Nutzer ausnutzen konnten, um beliebigen Schadcode auszuführen. Sie wurde Mitte März mit einem Zwangsupdate von ICQ6 geschlossen. Der Spam-Schutz von ICQ6 blockiert nun potenziellen Schadcode, der diese Sicherheitslücke ausnutzte. Mangelnde Transparenz. Die Nichteinsehbarkeit des Quelltextes von ICQ wird als problematisch und als Risiko für Sicherheit, Anonymität und Privatsphäre der Benutzer angesehen. Dieses Problem teilt ICQ mit fast allen anderen Instant-Messaging-Netzwerken. In Verbindung mit den in Bezug auf alternative Clients restriktiven Nutzungsbedingungen, der zentralisierten Architektur und dem nichtoffenen Protokoll bedeutet das auch eine unbedingte Abhängigkeit der ICQ-Teilnehmer von Mirabilis. Fehlende Verschlüsselung. ICQ bietet nur ein Scrambling der übertragenen Daten, der Inhalt der Kommunikation ist also für jeden Mittelsmann einsehbar. Manche alternativen Clients (siehe oben) bieten – meist über Plug-ins – Verschlüsselungsmethoden an. Eine Verschlüsselung ist häufig nur möglich, wenn beide Kommunikationspartner denselben Client mit demselben Plug-in verwenden. Ausnahmen bilden Off-the-Record Messaging, das mittlerweile für verschiedene Clients verfügbar ist, und SSL-Verschlüsselung zwischen climm und Licq. Datenspeicherung. Aus einem internen Dokument, veröffentlicht auf „cryptome.org“, geht hervor, dass AOL die ICQ-Login-Daten bis zu 90 Tage speicherte. Alternativen zum ICQ-Client. Neben dem offiziellen ICQ-Client gibt es auch kompatible Clients von Drittherstellern. Die meisten von ihnen sind Open-Source-Software und unterstützen neben dem ICQ-Protokoll noch andere Protokolle wie z. B. AIM, IRC, XMPP, MSN. Allerdings verbieten die Nutzungsbestimmungen von ICQ Inc. explizit die Erstellung und Nutzung alternativer Clients zur Interaktion mit dem ICQ-Dienst. Isabel Allende. Isabel Allende Llona (* 2. August 1942 in Lima, Peru) ist eine chilenisch-US-amerikanische Schriftstellerin und Journalistin. Ihre Werke wurden bislang in 27 verschiedene Sprachen übersetzt und sie konnte über 51 Millionen Exemplare verkaufen. Familie. Der Vater von Isabel Allende, Tomás Allende, war chilenischer Diplomat in Lima. Ihre Mutter Francisca Llona, genannt „Doña Panchita“, ist die Tochter von Agustín Llona Cuevas und Isabel Barros Moreira. Sie heiratete einen zweiten Mann, als ihre Tochter elf Jahre alt war: Ramón Huidobro, für Isabel „Tío Ramón“ (Onkel Ramon). Allendes Vater ist der Cousin von Salvador Allende (1908–1973), der seit 1970 chilenischer Präsident war, bis er beim blutigen Putsch 1973 ums Leben kam, der den Diktator Pinochet an die Macht brachte. Isabel Allende ist also Nichte 2. Grades von Salvador Allende und die Großcousine von dessen Tochter, der gleichnamigen Politikerin Isabel Allende. Leben. 1945 trennten sich ihre Eltern, und die Mutter kehrte mit den mittlerweile drei Kindern nach Santiago de Chile zurück. So verbrachte Isabel Allende den größten Teil ihrer Kindheit mit ihren Geschwistern bei der Mutter und dem Großvater. Allendes Mutter heiratete 1953 wieder einen chilenischen Diplomaten, Ramón Huidobro, sodass ihre Tochter in lateinamerikanischen, europäischen und arabischen Hauptstädten zur Schule ging und schon in jungen Jahren die Welt kennenlernte. Zunächst zogen sie in die bolivianische Hauptstadt La Paz, wo Allende eine amerikanische Privatschule besuchte. Von 1956 bis 1958 wohnten sie in Beirut im Libanon, Allende besuchte dort eine englische Privatschule. Dann kehrte sie nach Santiago de Chile zurück, wo sie auf einer weiteren Privatschule ihre Schulzeit beendete und ihren ersten Ehemann, den Bauingenieur Miguel Frías, kennenlernte, den sie 1962 heiratete. Von 1959 bis 1965 arbeitete sie als bekannte Fernsehjournalistin für den Informationsdienst der Ernährungs- und Landwirtschaftsorganisation der Vereinten Nationen (FAO). Sie moderierte eine wöchentliche Fernsehsendung über die Weltkampagne gegen den Hunger. Nachdem Allendes erstes Kind Paula 1963 geboren wurde, bereiste die Familie ganz Europa und lebte zeitweise in Brüssel und Genf. 1966 kehrte die Familie erneut nach Chile zurück, wo Allende ihren Sohn Nicolás zur Welt brachte. Inzwischen entwickelte sich Allende zu einer engagierten Journalistin und Frauenrechtlerin; sie gründete mit anderen Frauenrechtlerinnen die Zeitschrift "Paula", welche die bis dahin einzige feministische Zeitschrift Chiles war. Darin schrieb sie für die Volksfront-Regierung. Außerdem war sie verantwortlich für die humoristische Kolumne "The Impertinence", Herausgeberin der Kinderzeitschrift "Mampato" in Santiago de Chile und schrieb 1973 für die Filmzeitschrift "Maga-Cine-Ellas". Des Weiteren war sie für Kanal 7 und 13 des chilenischen Fernsehens tätig und moderierte Sendungen, die sich großer Beliebtheit erfreuten, unter anderem "Conversando con Isabel Allende" (Gespräch mit Isabel Allende) sowie Interviews, Reportagen und Diskussionsrunden. Sie veröffentlichte zwei Kindergeschichten "La abuela Panchita" und "Lauchas y Lauchones", gleichfalls eine Sammlung von Kurzgeschichten, "Civilice a su troglodita". 1973 wurde ihr Stück "El embajador" in Santiago uraufgeführt. 1975, zwei Jahre nach dem Putsch, ging sie ins Exil nach Venezuela. Dort arbeitete sie für die Zeitung "El Nacional" in Caracas und als Lehrerin an einer Schule. 1981 starb ihr Großvater im Alter von 99 Jahren. Sie begann, ihm einen Brief zu schreiben. Daraus entwickelte sich das Manuskript für ihren ersten Roman "Das Geisterhaus". Dieses Buch wurde ein Welterfolg. Der dänische Regisseur Bille August hat es 1993 unter dem gleichen Titel verfilmt. 1988 während eines Besuches in Kalifornien traf sie ihren zweiten Ehemann Willie C. Gordon, ehemaliger Rechtsanwalt in San Francisco und Romancier, der drei drogensüchtige Kinder in die Ehe brachte. Seither lebt Isabel Allende in San Rafael. 2003 erhielt sie die US-amerikanische Staatsbürgerschaft. 2015 trennt sie sich von Willie. Allendes Roman "Paula" aus dem Jahr 1994 ist ein Gedenken an ihre Kindheit in Santiago und ihre Jahre im Exil. Sie schrieb ihn in Form eines Briefs an ihre Tochter, die im Koma im Krankenhaus lag und 1992 an Porphyrie starb. Wirken. Außer an Romanen arbeitete Isabel Allende als Journalistin, schrieb Theaterstücke und lehrte Literatur an verschiedenen Universitäten. Durch ihre journalistische Tätigkeit setzte sie sich vor allem für die Frauenemanzipation und die Gleichberechtigung der Geschlechter ein und wurde als sozialkritische und auch feministische Autorin bekannt. Allende weiß in ihren Romanen Kultur, Geschichte und Leid ihrer Heimat auf eindrucksvolle Weise zu vermitteln. Ihre eigene Biografie – vor allem die ihrer Familie – spielt in vielen Werken eine große Rolle. Dabei beansprucht sie, stellvertretend für jene die Stimme zu erheben, die etwa unter dem Pinochet-Regime in Chile zum Schweigen verurteilt waren. Kritik. Literaturkritiker hatten "Das Geisterhaus" gefeiert, zeigten sich jedoch von ihren letzten Romanen gar nicht angetan. Elena Poniatowska bezeichnete Allende als „kommerzielles Phänomen“. Der einflussreiche chilenische Kritiker Camilo Marks bemängelte in seiner Rezension von "Mayas Tagebuch" zwar „Unstimmigkeiten“, „Übertreibungen“, „Vereinfachungen“, „Klischees“ und „Allgemeinplätze“, stimmte jedoch am Ende einem Satz der Protagonistin Maya zu: „Man kann auf das Melodram nicht verzichten, denn unterm Strich ist es interessanter als das Normale.“ Die Frankfurter Allgemeine Zeitung sah "Mayas Tagebuch" „in den Untiefen des Arztromans“, voll „versatzstückhafter Imitation“ mit einer „bemühten Drastik“ und empfand „muffig moralinsauren Geruch“. Die Süddeutsche Zeitung nannte Allende „die Königin des Kitsches“. Die Frankfurter Allgemeine Zeitung gesteht zwar zu, dass die ersten „hausbackenen“ Romane „immerhin zur gehobenen Unterhaltung gezählt werden konnten“, hält Allende inzwischen jedoch für „zusehends verpilchert“, sieht im Roman "Der japanische Liebhaber" „nur Groschenromanödnis“ und rechnet diesen „zum Genre der Schmalzliteratur“ – und das, obwohl Allende selbst ihrem Titelhelden eine „erlesene innere Beschaffenheit“ bescheinigt hat. Einzelnachweise. Isabel Allende Irak. Die Republik Irak (,) ist ein Staat in Vorderasien. Den Norden des Landes bildet die Autonome Region Kurdistan, die ein eigenes Parlament und eine eigene Amtssprache, Kurdisch, führt. Der Irak grenzt an Kuwait, Saudi-Arabien, Jordanien, Syrien, die Türkei, den Iran und den Persischen Golf und umfasst den größten Teil des zwischen Euphrat und Tigris gelegenen „Zweistromlandes“ Mesopotamien, in dem die frühesten Hochkulturen Vorderasiens entstanden sind, sowie Teile der angrenzenden Wüsten- und Bergregionen. Er wird zu den Maschrek-Staaten gezählt. Der heutige Irak entstand 1920 aus den drei osmanischen Provinzen Bagdad, Mossul und Basra. Von 1921 bis 1958 bestand das Königreich Irak, 1958 wurde der König durch einen Militärputsch abgesetzt und die Republik ausgerufen. Von 1979 bis 2003 wurde das Land von Saddam Hussein diktatorisch regiert, das Land führte Kriege gegen die Nachbarstaaten Iran und Kuwait. Der Irankrieg wurde von den USA unterstützt. Eine multinationale Invasionstruppe („Koalition der Willigen“) unter Führung der Vereinigten Staaten stürzte 2003 das Regime Saddam Husseins, doch gelang es ihr nicht, stabile Strukturen für die Nachkriegsära aufzubauen. Die Infrastruktur des Landes wurde weitgehend zerstört; Hunderttausende Zivilisten wurden getötet. Es folgte ein mehrjähriger blutiger Aufstand gegen die Besatzungstruppen. 2010 wurde der größte Teil der ausländischen Truppen abgezogen, der Abzug am 18. Dezember 2011 abgeschlossen. Heute ist der Irak de facto in ethnische Zonen geteilt. Im Juni 2014 eroberten militante Islamisten der ISIS als Teil der Irakkrise 2014 Teile des Staatsgebietes. Nach Angaben des Pentagon befanden sich im Januar 2015 ca. 55.000 Quadratkilometer unter Kontrolle des IS, dies entspricht etwa 13 % des Staatsgebiets. Der Irak steht auf der Weltrangliste der Länder mit den meisten Bodenschätzen auf Platz 4. Geographie. Landschaft im Nordirak am Großen Zab Der Irak gehört zum Orient. Zum Kulturraum des Orients werden gewöhnlich Länder Nordafrikas und Südwestasiens gezählt. Sie liegen überwiegend im Bereich des subtropischen Trockengürtels der „Alten Welt“. Im Nordosten befindet sich eine etwa 3000 m hohe Bergkette aus den Ausläufern des Taurusgebirges und des Zagros'. Diese Kette gehört zum alpinen Gebirgszug, der sich vom Balkangebirge aus ostwärts in die Türkei, den nördlichen Irak und Iran und dann weiter nach Afghanistan erstreckt. Der höchste Berg ist der Cheekha Dar mit 3611 m Höhe. Landesgrenzen. Der Irak grenzt an den Iran (1458 km gemeinsame Grenze), Kuwait (240 km), Saudi-Arabien (814 km), Jordanien (181 km), Syrien (605 km) und die Türkei (352 km). Mit Ausnahme der Grenze zum Iran, die bis 1918 die Ostgrenze des Osmanischen Reiches bildete, wurde der Grenzverlauf des Iraks von den Kolonialmächten bestimmt. Die Neutrale Zone zwischen Saudi-Arabien und dem Irak wurde 1975–1983 zwischen beiden Ländern aufgeteilt. Zudem besitzt der Irak einen 58,3 km langen Küstenstreifen. Den Norden des Landes bildet die Autonome Region Kurdistan, die eine de facto Grenze innerhalb des Landes führt. Klima. Der Norden des Iraks, bis etwa auf die geographische Breite von Bagdad, liegt im Winter im Bereich der sog. Westwindzone der gemäßigten Breiten und im Sommer unter Hochdruckeinfluss bei Temperaturen zwischen −6 °C im Winter und 51 °C im Hochsommer (Jahresmittel 22 °C). Der Raum südlich Bagdads dagegen gehört ganzjährig zum subtropischen Hochdruckgürtel. Die Sommer sind im gesamten Land niederschlagslos und mit Ausnahme der Gebirgsregionen recht warm bei Durchschnittstemperaturen um 33 bis 34 °C. Mitunter starke, ganzjährige Winde aus nordwestlicher Richtung führen dazu, dass beispielsweise die Städte Bagdad und Basra an ungefähr 20 respektive 15 Tagen im Jahr von Staubstürmen heimgesucht werden. Die Temperaturen schwanken zwischen 50 °C im Sommer und etwa dem Nullpunkt im Januar. Frost ist möglich, insbesondere im Bergland. Regen fällt etwa 10 bis 18 cm im Jahr, Hauptregenmonate sind Dezember bis April. Die an den Golf angrenzenden Gebiete sind etwas feuchter. Flüsse und Seen. Der Irak wird von zwei wichtigen Flüssen durchzogen, dem Euphrat und dem Tigris. Dies schlug sich in der geographischen Bezeichnung "Mesopotamien" nieder, was übersetzt das „(Land) zwischen den zwei Flüssen“ bedeutet. Euphrat und Tigris kommen von Nordwesten aus Syrien bzw. der Türkei und durchqueren das Land bis in den Südosten. Bei al-Qurna im Süden des Iraks fließen Tigris und Euphrat zusammen. Sie bilden dort den 193 Kilometer langen Schatt al-Arab/Arvandrud, dieser mündet in den Persischen Golf. Euphrat und Tigris waren und sind die Lebensadern des Landes, da sie die Wasserversorgung eines Großteils der irakischen Landwirtschaft und der Bevölkerung sicherstellen. Im Südosten des Landes ragt die Halbinsel Faw zwischen dem Iran und Kuwait in den Persischen Golf und stellt damit den einzigen Zugang des Iraks zum Meer dar. Westlich von Bagdad gibt es drei Senken, in die bei Hochwasser Wasser aus Euphrat und Tigris geleitet werden können: Wadi Tharthar, al-Habbania-See und Razzaza-See. Die Sumpfgebiete im südlichen Irak, die sog. "Ahwar", wurden während der Anfal-Operation in den 1980er und 1990er Jahren systematisch trockengelegt. Mit internationaler Hilfe versucht die irakische Regierung seit 2003, diese Gebiete wieder zu bewässern. Flora und Fauna. Da im Irak unterschiedliche Niederschlagsverhältnisse herrschen, gibt es ebenfalls unterschiedliche Vegetationsarten. Im Nordirak gibt es Strauchvegetation und vereinzelte Waldbestände. An den Uferbereichen von Euphrat und Tigris gibt es Dattelpalmen und Schilfgürtel. Der Süden hingegen ist nur spärlich bewachsen. Projekte der Regierung, aus den Wüstengegenden fruchtbare Böden zu machen, wurden in den 1980er Jahren aufgegeben. Diverse Vogelarten wie Geier, Bussarde, Raben und Eulen sind im Irak beheimatet, ebenso leben Säugetiere wie Leoparden, Hyänen, Schakale, Gazellen und Antilopen im Irak. An Tigris, Euphrat und Schatt al-Arab herrscht außerdem ein großer Fischreichtum. Bis Anfang des 19. Jahrhunderts gab es im Irak Löwen und Strauße. Bevölkerung. Der Irak hat eine Bevölkerung von etwa 29,6 Millionen Einwohnern (Schätzung für 2010), dies entspricht einer Bevölkerungsdichte von 70,3 Einwohnern/km². Etwa 67 % der Bevölkerung leben in Städten, wovon allein 6,2 Millionen Menschen auf die Agglomeration Bagdad entfallen. Die Hauptstadtregion hat eine Bevölkerungsdichte von 25.751 Einwohnern/km². Die Stadt und das gesamte Governorat Bagdad zusammen haben 7,1 Millionen Menschen. Weitere bevölkerungsreiche Governorate sind Niniveh (2,8 Millionen), Basra (1,9 Millionen) und al-Suleymaniah (1,8 Millionen). Weite Teile des Landes sind dagegen sehr dünn besiedelt, vor allem im trockenen Süden. Die Bevölkerung des Landes hat sich in den letzten 50 Jahren fast verfünffacht. Eine Volkszählung war für das Jahr 2007 angesetzt worden, und sollte auch erstmals seit 1987 wieder die drei kurdischen Provinzen berücksichtigen. Das Vorhaben wurde allerdings immer wieder verschoben. Hauptursache für die Verzögerung sind nach Angaben des irakischen Planungsministeriums vor allem die ethnischen Spannungen im Norden des Landes. Die durchschnittliche Lebenserwartung der Iraker beträgt 69,94 Jahre (Frauen 71,34 Jahre, Männer 68,6 Jahre). Das Durchschnittsalter beträgt bei Frauen 19,8 Jahre, bei Männern 19,6 Jahre Die Bevölkerung wuchs 2008 um etwa 2,5 %. Der Alphabetisierungsgrad der Bevölkerung liegt mit insgesamt 74,1 % weit unter dem Weltdurchschnitt. Lediglich 84,1 % aller Männer können lesen und schreiben, bei den Frauen sind es nur 64,2 %. Die Situation hat sich in den letzten 20 Jahren stark verschlechtert – Ende der 1980er-Jahre betrug der Anteil der Analphabeten nur 10 bis 12 %. Ethnische Gruppen. Von Kurden bewohnte Gebiete (1992) Etwa 75–80 % der heute im Irak lebenden Bevölkerung sind Araber, 15–20 % sind Kurden und 5 % sind Turkomanen, Assyrer/Aramäer oder Angehörige anderer ethnischer Gruppen. Von turkomanischen Quellen wird der Anteil der eigenen ethnischen Gruppe auf etwa 10 % geschätzt. Weiterhin sollen im Südosten 20.000 bis 50.000 Marsch-Araber leben. Flüchtlinge und Vertriebene. Bereits zur Zeit Saddam Husseins verließen viele Iraker das Land, Ende 2002 waren bereits ca. 400.000 Flüchtlinge weltweit registriert. Aufgrund der instabilen Lage im Land haben seit 2003 weitere 1,8 Millionen Menschen den Irak verlassen. Auf dem Höhepunkt der Gewalt in den Jahren 2006 und 2007 überquerten täglich bis zu 3000 Menschen die Grenzen zu Syrien, dem Iran und Jordanien. Dazu gibt es über 1,6 Millionen Binnenflüchtlinge. Die Bundesregierung Deutschlands ist wegen eines Beschlusses der EU-Innenminister im November 2008 dazu verpflichtet, 2.500 Irakische Flüchtlinge aus Syrien und Jordanien aufzunehmen. Religion. Etwa 97 % der Bevölkerung sind muslimisch. Über 60 % sind Schiiten und zwischen 32 und 37 % Sunniten. Die große Mehrheit der muslimischen Kurden ist sunnitisch. Christen, Jesiden und andere Religionen bilden mit ca. 3 % eine Minderheit gegenüber etwa 25 % vor 100 Jahren. In den letzten Jahren sind fast 2 Millionen Christen geflohen. Die Christen zählen überwiegend zu den orientalisch-christlichen Gemeinschaften: Chaldäisch-katholische Kirche, Assyrische Kirche des Ostens, Alte Kirche des Ostens, Armenische Apostolische Kirche, Römisch-katholische Kirche, Syrisch-katholische Kirche, Syrisch-Orthodoxe Kirche von Antiochien, Assyrisch-evangelische Kirche und andere. Bis 1948 lebten noch 150.000 Juden im Irak. Aufgrund von Flucht und Vertreibung in den 1940er Jahren und in der Folge der Staatsgründung Israels verringerte sich die Zahl der im Irak lebenden Juden sehr stark und wird gegenwärtig auf unter 10 Personen geschätzt. Des Weiteren gibt es noch kurdische Jesiden, Schabak und einige Tausend Mandäer. Unter dem Regime von Saddam Hussein hatte die Religionsfreiheit der verschiedenen Bevölkerungsgruppen einen verhältnismäßig hohen Stand; der Regierung des Diktators gehörten z. B. als Minister der christliche Assyrer/Aramäer Tariq Aziz oder auch für kurze Zeit der kurdische General Mustafa Aziz Mahmoud an. Seit dem Beginn des Krieges im März 2003 hat allerdings schätzungsweise die Hälfte der irakischen Christen das Land verlassen. Antike bis Neuzeit: Von Mesopotamien zum Osmanischen Reich. Der Irak liegt auf dem Gebiet des alten Mesopotamien (DMG "Bayn an-Nahrayn" = arab. „zwischen den beiden Flüssen“); hier sind ab dem 4. Jahrtausend v. Chr. einige der frühesten Hochkulturen der Menschheit entstanden (Sumer, Akkad, Assyrien, Babylonien, Mittani, Medien), weshalb die Region heute von vielen als Wiege der Zivilisation gesehen wird. Nach der Schlacht von Kadesia 636 bemächtigten sich die arabischen Muslime des Gebietes. Der Irak wurde zu einem wichtigen kulturellen Zentrum des sich ausbreitenden Islams. 762 wurde Bagdad von al-Mansur als Hauptstadt des Abbasidenkalifats gegründet und entwickelte sich bald zur bedeutendsten Stadt der islamischen Welt. Die folgende Periode wird auch als Blütezeit des Islams bezeichnet, in der besonders Wissenschaft und Künste ein deutlich höheres Niveau entwickelten als etwa in Europa. 1401 wurde Bagdad durch Tamerlan verwüstet, 1534 fiel das Land an das Osmanische Reich. Der Irak blieb lange ein unbedeutender Nebenschauplatz; seine geostrategische Position an den Schnittrouten zwischen Europa, Britisch-Indien, Zentralasien, dem Kaukasus und Südarabien machten ihn aber vom Ersten Weltkrieg an zum Gegenstand weltpolitischer Interessen. Während des Ersten Weltkrieges (am 6. November 1914, einen Tag nach der Kriegserklärung an das Osmanische Reich) marschierten britische Truppen und arabische Aufständische gemeinsam ein und besetzten 1917 Bagdad. Moderner Irak ab 1920. 1920 löste Großbritannien aus dem ehemaligen Osmanischen Reich die Vilâyets Bagdad, Mossul und Basra heraus und verschmolz sie zum heutigen Irak. Der Völkerbund übertrug Großbritannien das Mandat über den Irak. So wurde das Britische Mandat Mesopotamien eingerichtet. Am 23. August 1921 wurde Faisal, Sohn des Scherifen Hussein von Mekka, zum König proklamiert. Die Aufnahme des Königreichs Irak in den Völkerbund erfolgte am 3. Oktober 1932. Die wesentlichen Ölaktivitäten im Land waren in der 1929 aus der Turkish Petroleum Company hervorgegangenen Iraq Petroleum Company zusammengefasst, die nur geringe Konzessionsgebühren zahlte und vollständig ausländischen Unternehmen gehörte. Zweiter Weltkrieg und vereitelter Putsch. Bei Ausbruch des Zweiten Weltkriegs brach die irakische Regierung unter Nuri as-Said die diplomatischen Beziehungen zu Deutschland ab und nahm in der Außenpolitik eine probritische Haltung ein, die in Armeekreisen und breiten Bevölkerungsschichten keinen Rückhalt hatte. Am 1. April 1941 putschte die Armee und brachte den antibritischen Politiker Raschid Ali al-Gailani an die Regierungsspitze, der die Neutralität des Irak verkündete und den Abzug aller britischen Soldaten forderte. Am 2. Mai 1941 begannen militärische Auseinandersetzungen zwischen britischen und irakischen Truppen, die einen Monat andauerten und mit der irakischen Niederlage endeten. Mit britischer Unterstützung übernahm im Oktober 1941 wieder Nuri as-Said die Regierung. Die vertraglich abgesicherte politische, ökonomische und militärische Einflussnahme Großbritanniens als ehemalige Mandatsmacht im Irak war auf Dauer bis hin zum Bagdadpakt Mitte der 1950er Jahre wiederhergestellt. Am 16. Januar 1943 erklärte Irak den faschistischen Achsenmächten den Krieg. Unabhängigkeit 1958. Als Reaktion auf die Gründung der Vereinigten Arabischen Republik erklärten am 14. Februar 1958 die beiden haschemitischen Königreiche Irak und Jordanien ihre Vereinigung zu einer von Großbritannien unterstützten Arabischen Föderation. Unter General Abdel Karim Qasim schlossen sich die so genannten „Freien Offiziere“ zusammen, um die britische Kontrolle abzuschütteln. Sie stürzten am 14. Juli 1958 mit Hilfe des Volkes die pro-britische Monarchie (Faisal II. 1935–1958). Am 15. Juli wurde die Föderation mit Jordanien aufgelöst und die Republik Irak proklamiert. Es strömten hunderttausende Iraker auf die Straßen, um "ath-Thawra" (die Revolution) zu feiern. Mit Ausrufung der Republik wurden neue politische Verhältnisse geschaffen. Die Monarchie wurde abgeschafft und der Irak trat aus dem mit der Türkei, Pakistan und dem Iran geschlossenen CENTO (Bagdad)-Pakt aus. Die letzten britischen Soldaten verließen das Land am 24. März 1959. Putsch der Baath-Partei 1963. Die kleine irakische Baath-Partei putschte mit Hilfe von Verschwörern in der irakischen Armee am 8. Februar 1963 gegen Qasim. Durch interne Flügelkämpfe geschwächt, wurde die Baath-Partei wenige Monate später mit dem Militärputsch vom 18. November 1963 durch den Präsidenten Abd as-Sallam Arif gestürzt. Unter seinem Bruder Abd ar-Rahman brach der Irak 1967 die diplomatischen Beziehungen zu den USA ab. Nach einem zweiten Putsch am 17. Juli 1968 eroberte die Baath-Partei wieder die Macht, Ahmad Hasan al-Bakr wurde Staatspräsident und Vorsitzender des Revolutionären Kommandorates (RKR), Saddam Hussein Vizepräsident und stellvertretender Vorsitzender des RKR. Im Frühjahr 1969 brachen erneut Kämpfe zwischen den Regierungstruppen und den seit 1961 gegen die Zentralregierung kämpfenden Kurden aus. Zwar unterzeichneten Saddam Hussein und der Kurdenführer Molla Mustafa Barzani im März 1970 einen Friedensvertrag, der den Kurden politische Autonomie gewährleistete. Die Kämpfe dauerten allerdings bis April 1975 an, als der Irak mit dem Nachbarland Iran das Abkommen von Algier über die Neuregelung der Grenze am Schatt al-Arab unterzeichnete. Der Iran beendete daraufhin seine Hilfe für die Kurden, was zu deren Kapitulation führte. Zeit seit dem zweiten Putsch der Baath-Partei; Machtübernahme Husseins 1979; Kriege 1980–1991. Als die Baath-Partei an der Macht war, folgten Massenhinrichtungen und willkürliche Verhaftungen, vor allem von kommunistischen und anderen linksgerichteten Intellektuellen. Besonders nachdem Saddam Hussein nach dem Rücktritt al-Bakrs am 16. Juli 1979 an die Macht gelangt war, kam es zu massiven Menschenrechtsverletzungen, denen auch viele Baathisten zum Opfer fielen. Nach monatelangen Auseinandersetzungen mit dem Iran befahl Hussein der irakischen Armee am 22. September 1980, das Nachbarland mit insgesamt neun von zwölf Divisionen anzugreifen. Nach anfänglichen Erfolgen musste sich die irakische Armee ab 1982 immer weiter zurückziehen und schließlich ab 1984 den Krieg im eigenen Land führen. Dieser "Erste Golfkrieg" dauerte bis 1988 an und kostete schätzungsweise 250.000 Iraker das Leben. In diesem Krieg setzte der Staat auch mehrmals chemische Kampfstoffe sowohl gegen die Iraner als auch gegen die eigene Bevölkerung ein. Nach einem gescheiterten Attentat auf Saddam Hussein wurden am 17. Juli 1982 600 Einwohner der Kleinstadt Dudschail verhaftet und 148 von ihnen hingerichtet. 1988 startete das Regime die sogenannte "Anfal-Operation", bei der nach Schätzungen bis zu 180.000 irakische Kurden ermordet wurden. Am 2. August 1990 marschierte die irakische Armee in Kuwait ein und besetzte das Land. Erst durch die Intervention internationaler Truppen unter der Führung der Vereinigten Staaten wurde das Land im Februar 1991 im "Zweiten Golfkrieg" befreit. Als Folge der Besetzung verhängten die Vereinten Nationen Sanktionen über das Land, die zu internationaler Isolierung und durch die Misswirtschaft mit den erlaubten Handelsgütern zur Verarmung weiter Teile der Bevölkerung führten. 1991 Niederschlagung des Schiitenaufstandes, Genozid: 60.000-100.000 Tote (laut anderen Schätzungen bis zu 300.000 Tote). 1991 hatten die Schiiten erst im Südirak und dann auch in anderen Regionen eine Revolte gegen das Regime gewagt, nachdem eine internationale Koalition unter Führung der USA die irakischen Truppen aus Kuwait vertrieben hatte. Die Regierungstruppen beendeten den Aufstand damals nicht nur mit militärischen Mitteln. Sie verbreiteten auch Terror, indem sie in den Schiiten-Städten willkürlich Zivilisten zusammentrieben und hinrichteten. Die Massengräber aus dieser Zeit wurden erst nach dem Sturz des Regimes 2003 entdeckt. Irakkrieg 2003, Absetzung Husseins und Besatzungszeit. Am 20. März 2003 begann der Irakkrieg mit Luftangriffen auf die Hauptstadt Bagdad. Im Mai 2003 erklärte US-Präsident Bush die größeren Kampfhandlungen für beendet und der Irak wurde in Besatzungszonen aufgeteilt. Besatzungszonen des Irak durch die USA (türkis und blau), Großbritannien (grün) und Polen (hellrot) im September 2003 Nach Bildung eines Übergangsrates Ende 2003 wurde der bis dahin von der Koalitions-Übergangsverwaltung ausgeübte Verwaltungsauftrag am 28. Juni 2004 einer repräsentativen irakischen Übergangsregierung übertragen. Der Irak befindet sich politisch seitdem in einem Übergangszustand: Nach diesem Dritten Golfkrieg sind die früheren Machtstrukturen, insbesondere der "Revolutionäre Kommandorat", nicht mehr vorhanden, aber die neuen Verhältnisse, damals noch zwischen der westlichen Besatzung, der Zivilverwaltung und dem Irakischen Regierungsrat, waren nicht endgültig etabliert. Am 15. Oktober 2006 rief al-Qaida im Irak einen islamischen Staat aus, der insgesamt sechs Provinzen umfassen solle. Al-Qaida im Irak verfolgte anscheinend die Strategie, einen Bürgerkrieg zwischen Schiiten und Sunniten zu provozieren, um so zu verhindern, dass der Irak eine staatliche Ordnung findet. Todesschwadronen griffen gezielt Anhänger der gegnerischen Religionsgruppe an. Als wichtigster Kopf der irakischen Organisation Ansar al-Islam wurde seit 2003 der Jordanier Abu Musab az-Zarqawi angesehen (von US-amerikanischen Einheiten getötet am 7. Juni 2006). Die USA warfen dem Iran und Syrien vor, nichts gegen das Eindringen ausländischer Kämpfer zu tun. Von Sunniten und Schiiten gegeneinander geführte Terrorangriffe, aber vor allem die direkten und indirekten Folgen der amerikanischen Besatzung forderten bis 2008 je nach Studie zwischen 100.000 und 1.000.000 Tote. Abzug der US-Truppen. Am 30. Juni 2009 verließen die amerikanischen Kampftruppen die Städte und übergaben ihre Stützpunkte und andere Einrichtungen an die irakischen Streitkräfte. Im August 2010 verließen die letzten US-Kampftruppen das Land, seitdem befanden sich noch 50.000 Ausbilder und Militärberater im Land. Deren Abzug wurde am 18. Dezember 2011 abgeschlossen. Die zweiten Parlamentswahlen seit Inkrafttreten der neuen Verfassung fanden am 7. März 2010 statt. Stärkste Kraft wurde die von Iyad Allawi geführte "Irakija" mit 91 Sitzen vor der Rechtsstaat-Koalition des amtierenden Premierministers Nuri al-Maliki, das 89 Sitze gewann. Die Nationale Irakische Allianz wurde mit 70 Sitzen drittstärkste Kraft im Parlament. Ab 2014 wurden Teile des Iraks, wie die Stadt Mossul, von der Terrororganisation Islamischer Staat im Irak und der Levante besetzt. In dieser Zeit wurde ebenfalls das Massaker von Tikrit von dieser Terrorzelle ausgeführt. Politik. Einigend wirkte u. a. der langjährige Widerstand gegen den britischen Einfluss, der bis zum Sturz von König Faisal II. (1958) und der Verstaatlichung der Ölunternehmen bestand. Die Demokratie wurde jedoch durch heftige Machtkämpfe unterminiert, die bis heute unter Panarabisten, Schiiten und Kurden nachwirken und in denen sich 1968 die nationalistische Baath-Partei durchsetzte. Ihre Macht ging 1979 in die Alleinherrschaft von Saddam Hussein über, die durch zwei „Golfkriege“ gegen den Iran (1980–1988) und gegen Kuwait und dessen Verbündete (1990/91) noch gefestigt wurde. Nationenbildung. Seit der Gründung 1920 kam keine gemeinsame nationale Identifikation der drei Volksgruppen, Schiiten, Kurden und Sunniten zustande. Diese mangelnde nationale Einigkeit ließ Platz für radikalislamische Machtbestrebungen. Vor dem Sturz Saddams regierten die Sunniten, nach Abzug der Amerikaner die Schiiten, die das vormals herrschende Regierungsgefüge unter „fadenscheinigen“ Argumenten „sprengten“ (Baath-Partei). Die ethno‑religiösen Auseinandersetzungen verstärkten sich weiter und stellen akut eine Bedrohung für die irakische Einheit dar. Übergangsverfassung. In der Zwischenzeit geht die Diskussion um eine neue Verfassung weiter. Als erster Schritt wurde am 8. März 2004 von den 25 Mitgliedern des Regierungsrates eine Übergangsverfassung feierlich unterzeichnet. Nach anfänglichen Einwänden und einer Verschiebung des Termins wurde dann aber das Werk ohne Änderungen gegenüber dem ursprünglichen Entwurf verabschiedet. Die Übergangsverfassung regelt die Geschicke des Staates seit der Machtübergabe am 28. Juni 2004. Der Irak ist laut Verfassungstext eine multi-ethnische und multi-religiöse parlamentarische Republik, die sich zur Demokratie, zum Pluralismus und zum Föderalismus bekennt. Im Text verankert sind die Menschen-, Freiheits- und Bürgerrechte, das Recht auf freie Meinungsäußerung und Versammlungsfreiheit sowie die Rechte ethnischer und religiöser Minderheiten. Es besteht Religionsfreiheit, wobei der Islam als Staatsreligion festgeschrieben ist. Amtssprachen sind arabisch, kurdisch und syrisch-aramäisch. Sprachen von anerkannten Minderheiten, wie z. B. Turkmenen, Chaldäern/Assyrern werden in den entsprechenden Regionen ebenfalls als offizielle Amtssprachen akzeptiert. Politische Macht geht im Rahmen von freien, gleichen und unmittelbaren Wahlen ausschließlich vom Volk aus. Der vom Volk alle vier Jahre gewählte Repräsentantenrat ist das höchste gesetzgebende Organ des Staates. Der vom Repräsentantenrat gewählte Präsident und Ministerpräsident nehmen gemeinsam die höchste Exekutivgewalt wahr. Die Gesetzgebung basiert auf den Regeln des Islams (Scharia) aber auch auf den Prinzipien der Demokratie bzw. der Verfassung. Alle Iraker sind vor dem Gesetz gleich. Die Judikative ist von den anderen Gewalten unabhängig und das höchste Rechtsorgan ist der Bundesgerichtshof, der eine noch nicht bestimmte Anzahl islamischer Rechtsgelehrte umfasst (Schariarichter). Er überwacht u. a. die Verfassungskonformität der Legislative. Die zentralstaatlichen Kompetenzen sind die Außen-, Verteidigungs-, Handels-, Einwanderungspolitik, die Währung, das Zoll- und das Messwesen. Die Regionen und Provinzen genießen eine weitreichende Autonomie. So haben die Provinzen bei Angelegenheiten, über die mit dem Bund gemeinsam entschieden wird, das letzte Wort. Provinzen sind berechtigt, gemeinsame Verwaltungsbezirke mit weitreichenden Kompetenzen zu bilden, sofern dies im Rahmen eines Referendums durch das Volk bestätigt wurde. Auch sind die Provinzen berechtigt, eigene Sicherheitskräfte zu unterhalten. Die Gleichberechtigung der Frau ist explizit in der Verfassung garantiert. So müssen mindestens 25 % der Abgeordneten des Repräsentantenrats weiblichen Geschlechts sein. Der umstrittene Artikel 39 sieht jedoch vor, dass irakische Bürger sich der Zivilgerichtsbarkeit ihrer eigenen Religionsgemeinschaft unterwerfen können, was ggf. zu einer entsprechenden Benachteiligung bei Erbschafts- und Scheidungsangelegenheiten führen kann. Bodenschätze, wie beispielsweise Erdgas und Erdöl, sind als gemeinschaftliches Eigentum aller Iraker festgeschrieben. Ihre gemeinschaftliche Nutzung wird von der Zentralregierung und den Provinzen gemeinsam bestimmt. Am 30. Januar 2005 fanden die Wahlen für ein Übergangsparlament (Nationalversammlung) statt, in dem die Vereinigte Irakische Allianz ("United Iraqi Alliance [UIA]"), welche von Großajatollah Ali as-Sistani unterstützt wurde, mit 48,2 % der abgegebenen Stimmen fast die absolute Mehrheit der Sitze im Parlament erreichte. Eine von diesem Übergangsparlament ernannte 55-köpfige Kommission musste bis 15. August 2005 die endgültige Verfassung erarbeiten, über die per Volksentscheid abgestimmt wurde. 28 der Mitglieder der Kommission gehören der UIA an, die weiteren Sitze teilen größtenteils die Kurden und das Parteienbündnis des früheren Ministerpräsidenten Iyad Allawi, Irakische Liste, unter sich auf. Die Kommission wird von dem moderaten schiitischen Kleriker Hummam Hammudi geleitet, seine Stellvertreter sind der Sunnit Adnan al-Dschanabi und der Kurde Fu'ad Massum. Wegen der Unterrepräsentierung der Sunniten übte US-Außenministerin Condoleezza Rice Kritik an der Zusammensetzung der Kommission, worauf der irakische Ministerpräsident Ibrahim al-Dschafari versprach, die Sunniten mehr in den politischen Prozess mit einzubeziehen. Daraufhin wurde den Sunniten eine stärkere Beteiligung an der Ausarbeitung der Verfassung angeboten. Neue Verfassung. Am 15. Oktober 2005 wurde die neue Verfassung zu Abstimmung freigegeben. Wenn in drei Provinzen zwei Drittel der Wähler mit Nein gestimmt hätten, wäre die Verfassung nicht angenommen worden. Laut Ergebnis lag die Wahlbeteiligung bei über 60 %. Die Verfassung wurde mit 78,59 % der Stimmen angenommen. Nur in den Provinzen al-Anbar und Salah ad-Din stimmten mehr als zwei Drittel der Wähler dagegen, in einer dritten Provinz (Ninawa) soll die Zweidrittelmehrheit an Gegenstimmen nur knapp verfehlt worden sein. Staatsoberhaupt. Die Ernennung einer Regierung ist laut Verfassung nur im Einvernehmen zwischen dem kurdischen, dem schiitischen und dem sunnitischen Vertreter im Präsidialrat möglich. Laut der aktuellen Verfassung von 2005 ist das Staatsoberhaupt der Präsident der Republik Irak. Am 24. Juli 2014 wurde der Kurde Fuad Masum (PUK) vom irakischen Parlament mit 211 zu 17 Stimmen zum neuen Präsidenten gewählt. Seine Stellvertreter sind der frühere Ministerpräsident Nuri al-Maliki, Iyad Allawi und Osama al-Nudschaifi. Regierung. Nachdem Haider al-Abadi am 11. August 2014 von Staatspräsident Fuad Masum mit der Bildung einer neuen Regierung beauftragt worden war, trat der bisherige Ministerpräsident Nuri al-Maliki am 14. August zurück. Es dauerte noch bis zum 8. September bis al-Abadi und sein Kabinett die Zustimmung der Mehrheit des irakischen Parlaments erlangte und es vereidigt wurde. Parlament. Die Wahlen 2014 waren die ersten nach dem Abzug der US-Armee. Trotz starker Sicherheitsvorkehrungen durch Militär und Polizei kam es zu mehreren Anschlägen auf Wahllokale. Wahlen. Laut Übergangsverfassung mussten auf jeder Wählerliste ein Drittel Frauen stehen. Ebenfalls stehen rund ein Viertel aller Sitze der neu gewählten Nationalversammlung Frauen zu. Bei den Kommunalwahlen 2009 wurden in 14 der 18 Provinzen die Abgeordneten der Kommunalparlamente gewählt. In der Provinz Kirkuk wurde der Urnengang abgesagt, da die politischen Fraktionen sich nicht auf die Rahmenbedingungen einigen konnten. In den restlichen drei Provinzen, die autonom regierten kurdischen Nordprovinzen, wird die Wahl zu einem späteren Zeitpunkt durchgeführt. 15 Millionen von insgesamt 28 Millionen Wahlberechtigten haben sich zuvor für die Wahl registrieren lassen, um ihre Stimme abgeben zu können. Die Wahllokale wurden von tausenden irakischen Polizisten und Soldaten abgesichert, weitgehend ohne Beteiligung der US-Armee. Nach Berichten von Reuters verliefen die Wahlen im Gegensatz zu 2005 weitgehend friedlich. Menschenrechte. Im Irak wird immer noch die Todesstrafe vollstreckt. Amnesty International dokumentierte zahlreiche Fälle von Folter und Misshandlungen in Gefängnissen. Darunter zählen unter anderem: das Aufhängen an Armen oder Beinen über längere Zeiträume, das Schlagen mit Kabeln und Schläuchen, Elektroschocks, das Brechen von Armen und Beinen, beinahe Erstickung durch Plastiktüten oder Vergewaltigung. Nonkonformisten und Homosexuelle werden eingeschüchtert. Die Behörden der Autonomen Region Kurdistan gingen gegen Personen vor, welche die Korruption der Regierung kritisierten. Auch dort wurden Fälle von Folter und Misshandlungen dokumentiert. Verwaltungsgliederung. Die Schiiten im Süden wollen nach dem Vorbild der Kurden ebenfalls eine autonome Region errichten, die Basra und andere Provinzen umfassen und den Namen Sumer tragen soll. Peter W. Galbraith, einer der besten Irakkenner, hält die Einheit des Irak langfristig für unrealistisch − aufgrund der Feindschaft zwischen Sunniten, Schiiten und Kurden. Boot auf dem Schatt al-Arab in Basra Die Hauptstadt Bagdad ist sowohl geographisches als auch politisches und kulturelles Zentrum des Landes und mit 5,7 Millionen Einwohnern die mit Abstand größte städtische Agglomeration. Bagdad (persisch=Gottgegeben-im Sinne von: Gottesgeschenk-) wurde im Jahr 762 von dem abbasidischen Kalifen al-Mansur als neue Hauptstadt des islamischen Reichs gegründet und 1920 zur Hauptstadt des neu gegründeten Staates Irak erklärt. Besonders während des Wirtschaftsbooms der 1970er Jahre wurde die Stadt ausgebaut. Im Ersten Golfkrieg war die Stadt kaum betroffen, im zweiten und Dritten Golfkrieg wurde Bagdad allerdings mehrmals Ziel von Luftangriffen. In Bagdad befinden sich 3 der 6 Universitäten des Landes und der größte internationale Flughafen des Iraks. Das im Norden gelegene Mossul steht mit etwa 2,9 Millionen Einwohnern an zweiter Stelle. Es ist Zentrum der ostchristlichen und assyrischen Kultur im Irak. Mossul war seit dem 8. Jahrhundert ein wichtiges Wirtschaftszentrum, die gesamte Provinz Nineve wurde erst 1926 völkerrechtlich an den Irak angegliedert. Die Hafenstadt Basra am persischen Golf ist mit ihren rund 2 Mio. Einwohnern die drittgrößte Stadt des Landes und Zentrum des schiitischen Südens. Basra wurde 636 von Kalif Umar ibn al-Chattab als arabischer Militärstützpunkt und Handelsplatz gegründet und im 16. Jahrhundert von den Osmanen erobert. 1914 marschierten britische Truppen in die Stadt ein. Während des Ersten Golfkrieges wurde die Stadt aufgrund ihrer exponierten Lage und wirtschaftlichen Bedeutung stark in Mitleidenschaft gezogen. Basra besitzt den größten Umschlaghafen des Landes, über den große Teile des geförderten Erdöls exportiert werden, sowie die 1964 gegründete Universität und einen internationalen Flughafen. Erbil (kurdisch: Hewlêr) ist die Hauptstadt der Autonomen Region Kurdistan und mit geschätzten 7000 Jahren eine der ältesten noch besiedelten Städte der Welt. Sie beherbergt etwa 1,3 Millionen Einwohner. Die Stadt wurde in den ersten beiden Golfkriegen nur leicht beschädigt. Erbil besitzt einen internationalen Flughafen. Sulaimaniyya (kurdisch: Silêmanî) mit circa 800.000 Einwohnern fünftgrößte Stadt des Landes. Die Stadt besitzt einen internationalen Flughafen und eine Universität. Militär. a> in Al Shurta, August 2006 Am 23. Mai 2003 wurden die Streitkräfte des ehemaligen Regimes unter Saddam Hussein durch die Übergangsverwaltung aufgelöst. Eine große Anzahl der militärischen Hinterlassenschaften wurden zerstört. Die neuen irakischen Streitkräfte wurden mit Unterstützung der USA, Großbritanniens, Australiens und Jordaniens aufgestellt. Im Irak waren die „Koalitionsstreitkräfte“, weiterhin vorrangig die USA und Großbritannien, als Hauptteil der Multi-National Force Iraq bis 2009 für die innere und äußere Sicherheit im Land zuständig und arbeiteten eng mit der neuen irakischen Armee zusammen. Die "United States Forces Iraq" (USF-I) verließen den Irak 2011. Oberbefehlshaber (Chief Joint Forces) der neuen irakischen Streitkräfte ist 2007: General Babakir Zebari. Den privaten Militärdienstleistern kommt im Irak eine Sonderstellung zu, da nicht geklärt ist, an welches Recht diese Unternehmen gebunden sind, und diese auch keine Auskunft über Mitarbeiterzahlen oder Opferzahlen abgeben müssen. Verkehr. Karte der Verkehrsinfrastruktur des Iraks 2008 Straßenverkehr. Highway 2 zwischen Erbil und Mossul Das irakische Straßennetz umfasst 45.550 km, von denen 38.400 asphaltiert sind. Teilabschnitte von Überlandstraßen und Straßen in Ballungszentren (in denen bis auf private Buslinien/Sammeltaxis kein öffentlicher Verkehr existiert) sind mehrspurig, sonst sind selbst bedeutende Überlandstraßen zweispurig. Ausnahmen bilden die gerade in Bau befindlichen und zum Teil fertiggestellten Autobahnen im kurdischen Norden sowie die Straße Basra-Bagdad-Jordanien, die auf weiten Strecken autobahnähnlich ausgebaut ist. Momentan explodiert die Zahl der zugelassenen Autos, hauptsächlich wegen der sprunghaft angestiegenen Einkommen und der weggefallenen Einfuhrzölle, was vor allem in den arabischen Ballungszentren zu Problemen führt, da dort aufgrund der prekären Sicherheitslage nicht ausreichend in den Ausbau des Straßennetzes investiert werden kann. Schienenverkehr. Das irakische Schienennetz besteht aus drei in Bagdad zusammenlaufenden Hauptlinien und umfasst 2.339 km. Ein Großteil des sich in einem katastrophalen Zustand befindlichen Schienennetzes (von der Strecke Bagdad-Erbil ist zum Beispiel oft nur noch die Trasse zu sehen, die Schwellen wurden zu Feuerholz verarbeitet und die Schienen verkauft) ist im Moment aber außer Betrieb, de facto ist nur die Strecke Bagdad-Basra in Betrieb. Benutzt wird die Bahn aber nur von Einkommensschwachen, da die Verlässlichkeit derart niedrig ist, dass Ankunftszeiten gar nicht erst angegeben werden. Eine Reisedauer von über einem Tag in die etwa 550 km entfernte südirakische Metropole ist nicht unüblich. Die neue irakische Regierung investiert jedoch viel in den Wiederaufbau, und man hofft, in einiger Zeit wieder einen regulären Bahnbetrieb aufnehmen zu können. Mitte Februar 2010 wurde die Strecke Mossul-Gaziantep (Türkei) eröffnet. Die 18-stündige Fahrt führt über Syrien und findet einmal wöchentlich statt. Der Betrieb wurde allerdings bereits nach kurzer Zeit wieder eingestellt. Flughäfen. Im Irak gibt es über 100 Flughäfen und Landepisten, weiterhin verfügt das Land über sechs internationale Flughäfen (Bagdad, Erbil, Basra, Mossul, Nadschaf und Sulaimaniyya), zudem befindet sich der Flughafen Kerbela gerade in Bau. Ein weiterer Flughafen in Tikrit ist in Planung. Die größte Luftfahrtsgesellschaft ist die staatliche Iraqi Airways. Wasserstraßen. Die einst bedeutende Binnenschifffahrt ist auf 1.015 km Kanälen und Flüssen möglich, spielt heute jedoch nur noch eine untergeordnete Rolle. Telekommunikation. Im ganzen Land wird die Anzahl der Festnetzanschlüsse auf ca. 1,2 Millionen geschätzt, davon sollen sich allein 40 % in der Hauptstadt Bagdad befinden. Durch die maroden Netzwerke und die schlechte Infrastruktur sind ein Drittel davon nicht funktionsfähig. Die bis dahin verbotene Mobilfunknutzung stieg von 300.000 Teilnehmern im Jahr 2003 auf über 23 Millionen im Jahr 2011 an, somit war im März 2011 gut 78 % des Landes erfasst. Den Markt beherrschen die drei Unternehmen Zain Iraq, Asiacell und Korek. Ein UMTS-Netzwerk besteht allerdings noch nicht. Zu Zeiten Saddam Husseins war das Internet nur den Zuverlässigen und Reichen zugänglich. Um einen Zugang zu erhalten, musste man einen Antrag ans Kommunikationsministerium stellen und eine Gebühr von ca. 4000 Dollar bezahlen. Seit dem Sturz des Regimes hat sich die Nutzung rasant erhöht, wenngleich lediglich 1,1 % der Bevölkerung über einen privaten Anschluss verfügt. Auch viele politische Parteien verfügen über eigene Websites. Momentan üben Internetveröffentlichungen aber noch keinen Einfluss auf die Masse aus, das Medium wird fast ausschließlich zur Kommunikation genutzt. Die Jugendlichen benutzen häufig die in den diversen Jugendzentren zur Verfügung gestellten PCs. In den Ballungszentren sind auch Breitbandanschlüsse sowie Drahtlosverbindungen verfügbar. Elektrizität. Die Elektrizitätsproduktion des Landes konnte auch in den Jahren nach 2003 nicht mit der steigenden Nachfrage mithalten, weshalb es immer noch zu häufigen Stromausfällen kommt. Im Sommer 2012 konnte bei einem Verbrauch von 15.000 Megawatt lediglich 7200 Megawatt produziert werden. Die Versorgung lag deshalb bei durchschnittlich 8-9 Stunden. Die meisten Iraker sind deshalb weiterhin auf Notstromaggregate angewiesen. Im Juni 2010 kam es aufgrund der schlechten Versorgungslage zu Protesten in Nassirija und Basra, bei denen ein Mensch getötet wurde. Der irakische Elektrizitätsminister trat daraufhin am 22. Juni 2010 von seinem Amt zurück. Bildung. Die Vorschule (im Irak meist staatlich, in den letzten Jahren wurden aber immer mehr kostenpflichtige Privatvorschulen gegründet) kann in der Altersklasse zwischen vier und fünf Jahren besucht werden. Seit 1970 gilt im Irak eine allgemeine neunjährige Schulpflicht, die Schul- und auch Hochschulausbildung wird vom Staat übernommen. Staatlich anerkannte Privatschulen wurden erst Anfang der 1990er Jahre zugelassen. Die Grundschulausbildung dauert sechs Jahre, wobei die ersten vier Klassen als Unterstufe und die Klassen 5 und 6 als Oberstufe gelten. Unterrichtet wird lediglich eine Fremdsprache (Englisch ab der 5. Klasse). Dem Besuch der Grundschule folgt ein Besuch der Sekundarschule für weitere drei Jahre. Die Sekundarschule wird nach einer einheitlichen Abschlussprüfung und dem Erwerb der Mittleren Reife abgeschlossen. Zu Erlangung des Abiturs ist ein Besuch der Mittelschule notwendig; diese erneut dreijährige Schulform schließt mit einer zentralen Abitur-Prüfung in sechs Schulfächern (Arabisch, Englisch, Mathematik, Physik, Chemie und Biologie) ab und berechtigt zu einem Studium. Die drei größten Universitäten des Landes (Universität Bagdad, al-Mustansiriyya-Universität und die Technische Universität Bagdad, auch al-Hikma genannt) sind in der Hauptstadt Bagdad vertreten. Weitere Universitäten befinden sich in Basra (Universität Basra), Mossul (Universität Mosul), Erbil (Salahaddin-Universität, University of Kurdistan Hewlêr), Sulaimaniyya (University of Sulaimani) und Dohuk (University of Duhok). Wirtschaft. a> mit importierten Gewürzsorten aus Indien, 2007 Der Irak ist im Wesentlichen ein Agrarstaat, dessen Wirtschaft sich allerdings seit den ersten Ölfunden im Jahr 1927 fast ausschließlich auf den Export von Erdöl ausrichtet. Nachdem 1972 alle ausländischen Erdölgesellschaften verstaatlicht wurden und die Ölkrise zu einem rasanten Anstieg der Erdölpreise führte, gab es ab Mitte der 1970er Jahre einen Wirtschaftsboom im Land, das Bruttoinlandsprodukt des Landes wuchs zwischen 1970 und 1980 um durchschnittlich 11,7 % Von dieser rasanten Entwicklung mochte auch ein Großteil der Irakischen Bevölkerung profitieren. 1979 besaß der Irak Geldreserven im Wert von 35 Milliarden US-Dollar, 1980 betrugen die Erdöleinnahmen 26 Milliarden Dollar. Der Erste Golfkrieg bremste allerdings diese Entwicklung, so schrumpfte das BIP des Landes zwischen 1980 und 1985 um 8,1 % und von 1985 bis 1989 erneut um 1,7 % Durch das UN-Embargo (1991–2003) wurde die Wirtschaft fast lahmgelegt. Mit 100 Milliarden US-Dollar Schulden zählt der Irak zu den am höchsten verschuldeten Ländern der Welt. Die Wirtschaft des Landes leidet immer noch an den Folgen der Golfkriege, des UN-Embargos und an der derzeitigen instabilen Lage des Iraks. Das Bruttoinlandsprodukt belief sich im Jahr 2013 auf ca. 229,3 Milliarden US-Dollar, die Wirtschaftswachstumsrate betrug 4,2 %. Die Inflationsrate beträgt 1,9 %, die Arbeitslosenquote wird mit ca. 13 % angegeben. 2012 exportierte der Irak Waren im Wert von 93,9 Mrd. Dollar. Hauptabnehmer waren die USA, Indien und Südkorea. Die Importe beliefen sich auf 56,9 Mrd. Dollar und stammen meist aus Syrien, Jordanien, der Türkei und den USA. Haupteinfuhrgüter waren Maschinen, verschiedene verarbeitete Erzeugnisse, chemische Erzeugnisse und Lebensmittel. Die geringe weltwirtschaftliche Verflechtung des Landes und die damit verbundene relativ große Unabhängigkeit des Iraks von globalen Märkten verschonte das Land bisher von der aktuellen wirtschaftlichen Krise. Einzelne Bereiche profitieren sogar direkt von der globalen Rezession. Der Nationalen Investitionskommission des Iraks (INIC) zufolge ist seit dem Beginn der Weltwirtschaftskrise vor allem die Zahl der internationalen Bau- und Vertragsunternehmen im Irak sprunghaft angestiegen. Andere Investoren sollen folgen und weiteres Auslandskapital ins Land spülen. Dazu wurde im vergangenen Jahr zwischen Deutschland und dem Irak ein Investitionsschutzabkommen aufgesetzt, das in diesem Jahr noch ratifiziert werden soll. Der kurdische Investitionsminister Herish Muharam Muhamad ließ sich jüngst sogar zu dem Vergleich hinreißen, Investitionen im Irak seien „sicherer als die Wall Street“. Laut einer staatlichen Studie leben ungefähr 23 % der Iraker unter der Armutsgrenze und damit von weniger als 2,50 Dollar am Tag. Ein weiteres Problem stellt die Korruption im Land dar, laut dem Transparency International veröffentlichten Korruptionswahrnehmungsindex gehörte der Irak zu den korruptesten Staaten der Welt. Im Jahr 2011 rangierte das Land auf dem 175. Platz von insgesamt 183. Währung. Die Währung des Landes ist der 1932 eingeführte Irakische Dinar zu 1000 Fils. Zwischen 1991 und 2003 gab es im Irak zwei Währungen, den sog. Schweizer Dinar, der im kurdischen Norden verwendet wurde (Wert: 1 US-Dollar = 0,33 Dinar), und den Print-Dinar mit dem Bild Saddam Husseins, welcher nach 1991 den Schweizer Dinar ersetzte (Wert: 1 US-Dollar = etwa 3500 Dinar). Am 15. Oktober 2003 wurde der Neue Irakische Dinar eingeführt, der beide Währungen ersetzte (Wert: 1 US-Dollar = etwa 1150 Dinar). Bodenschätze/Bergbau. Wichtigster Wirtschaftszweig des Landes ist die Erdölförderung. Der Irak ist Gründungsmitglied der am 14. September 1960 gegründeten OPEC und hat nach Saudi-Arabien und Kanada (das größtenteils über sog. unkonventionelles, teuer herzustellendes Erdöl, z. B. Teersande verfügt) die größten erkundeten Erdölvorräte (113 Milliarden Barrel). Man schätzt, dass sich die gesamten Vorräte auf bis zu 250 Milliarden Barrel Öl und Gas belaufen könnten. Bis zu 45 Milliarden Barrel davon liegen im Norden in der Autonomen Region Kurdistan, darunter ein großer Teil im Kirkuk-Feld. Der Irak ist eines der Länder, die in der so genannten strategischen Ellipse liegen. 1902 begann die Suche nach Öl mit der ersten Bohrung im Zagros Basin (Nordost-Irak). Der erste Ölfund kam aber erst 20 Jahre später zustande. 1927 wurde dann mit der "Baba Gurgur 1" genannten Bohrung ein gigantisches Ölvorkommen entdeckt – das Kirkuk-Feld. Es flossen zunächst 1 Million Barrel Öl in die Umwelt, bevor man das ausströmende Öl unter Kontrolle bekam. Das Feld erstreckt sich über 150–200 km und hat eine 610 m dicke ölführende Schicht. Die ursprüngliche Menge Öl im Feld wird mit 17 Milliarden Barrel angegeben. Damit hatte es etwa 1/5 der Ölmenge des größten Ölfelds der Welt (Ghawar in Saudi-Arabien) und zählt zu den so genannten „Supergiganten“. Bis 1972 wurde die gesamte irakische Ölindustrie unter dem Dach der Iraq National Oil Company (INOC) verstaatlicht. Die Erdölförderung stieg seit 1969 kontinuierlich und erreichte 1979 ihren Höhepunkt mit 3,5 Millionen Barrel pro Tag (bopd). Der Krieg mit dem Iran und der Erste Golfkrieg führten dazu, dass die Ölproduktion zusammenbrach. 1981 wurden 900.000 bopd und 1991 dann nur noch 300.000 bopd gefördert. Die Vereinten Nationen haben am 22. März 2003 die Sanktionen gegen den Irak aufgehoben. Die USA und Großbritannien behielten sich als Besatzungsmächte bis zur Einsetzung einer Regierung die finanzielle Verwaltung der irakischen Erdölförderung vor. Bis 2003 wurden 75 große Öl- und Gasfelder entdeckt. Neun davon sind „Supergiganten“ (u. a. Kirkuk, Rumalia South, Rumalia North und Majnoon) und 22 „Giganten“. Die enormen Ölvorkommen im kurdischen Teil des Iraks sind auch Grund für den jahrelangen Streit zwischen der kurdischen Regionalregierung und der Zentralregierung in Bagdad. Die kurdische Regierung hat seit 2003 mit etwa 30 westlichen Firmen Verträge zur Erforschung und Ausbeutung von Ölfeldern abgeschlossen. Am 8. Mai 2009 erteilte die Regierung in Bagdad aber diese Genehmigung zum Export von kurdischen Öl. Ab dem 1. Juni 2009 flossen 60.000 bopd vom Tawke Feld über Pipelines zum am Mittelmeer gelegenen Ölverladehafen nach Ceyhan in der Türkei. Ende Juni 2009 begann dann auch der Export vom Taq Taq Feld mit 40.000 bopd. Im September 2009 stellte Kurdistan den Export jedoch wieder ein, da mit Bagdad keine Einigung über die Bezahlung der Exporte erzielt werden konnte. Weder Kurdistan noch die Ölproduzenten erhielten Geld. Nach den irakischen Wahlen Anfang 2010 und der Regierungsbildung Ende 2010 wurden neue Verhandlungen zur Beilegung dieses Konflikts aufgenommen. Mit dem Ergebnis, dass am 3. Februar 2011 der Export mit 10.500 bopd aufgenommen wurde. Bereits 3 Tage später sollten 50.000 bopd erreicht werden und eine weitere Erhöhung auf 100.000 bopd folgen. Den Verkauf nimmt die staatseigene „State Oil Marketing Organization“ (SOMO) in Bagdad vor. Das Tawke Feld wird von der DNO entwickelt. Genel Enerji (Türkei) und Sinopec (China) betreiben das Taq Taq Feld. Am 17. Mai 2009 erwarben die österreichische OMV und die ungarische MOL Anteile an den Gasfeldern Khor Mor und Chemchemal. Ab 2014-15 sollen aus diesen Feldern täglich eine Mrd. Kubikmeter Gas nach Europa strömen. OMV und MOL sind Anteilseigner an der in Planung und Bau befindlichen Nabucco-Gaspipeline. Im Juni und Dezember 2010 wurden an den unten aufgeführten irakischen Feldern Beteiligungen an westliche Ölkonzerne vergeben. Die Beteiligungen sehen feste Zahlungen pro Barrel vor. Sollten die Planungen eingehalten werden, steigt die Förderung des Iraks von 2,5 Millionen bopd im Jahr 2009 auf 12 Millionen bopd im Jahr 2016. Damit wäre der Irak größter Ölproduzent der Welt. Dieser drastische Ausbau der Förderung wird hunderte Milliarden Dollar verschlingen. Hinzu kommt ein erheblicher Bedarf an Fachkräften, Ölbohrausrüstungen, Pipelines und allem was dazugehört. Experten bezweifeln daher, dass der Irak seine Ziele erreichen kann. Der Irak verfügt neben dem Erdöl auch über Schwefel, Phosphat, Meersalz und Gips sowie über kleinere Mengen an Gold und Silber. Landwirtschaft. Verglichen mit anderen Nahost-Staaten verfügt der Irak über reichlich Wasser; so ist auch die Landwirtschaft ein bedeutender Wirtschaftszweig, in dem rund 40 Prozent aller irakischen Arbeitnehmer beschäftigt sind. Im Norden gibt es dank Niederschlägen und mildem Wetter Regenfeldbau; im Süden gibt es überwiegend Bewässerungsfeldbau. Angebaut werden Weizen, Reis, Mais, Gerste sowie Obst und Gemüse (vorwiegend zur Selbstversorgung). Bis in die 1980er Jahre war das Land Selbstversorger bei den meisten Lebensmitteln, heutzutage muss der Irak das meiste an seinem Grundbedarf importieren. Die wichtigsten Agrarerzeugnisse sind Datteln. In den 1970er Jahren stellte der Irak 75 % der Datteln auf dem Weltmarkt, aufgrund der Massenabholzungen und Trockenlegungen während des Ersten Golfkrieges und der Zweiten Anfal-Operation 1991 ging dieser Anteil stark zurück. Im Jahr 2008 wurde mit 281.000 Tonnen lediglich die Hälfte der Produktion der 1980er Jahre erreicht. Zudem ist der Bestand von über 30 Millionen Palmen auf unter neun Millionen gesunken. Industrie. Industriell ist das Land kaum entwickelt. Vorrangige Industriezweige sind Lebensmittelverarbeitung, Textilindustrie, Herstellung von Baustoffen und die petrochemische Industrie. Die meisten Industriebetriebe sind in Bagdad und im Norden angesiedelt. Staatshaushalt. Der Staatshaushalt umfasste 2008 Ausgaben von umgerechnet 49,9 Mrd. US-Dollar, dem standen Einnahmen von umgerechnet 42,4 Mrd. US-Dollar gegenüber. Daraus ergibt sich ein Haushaltsdefizit in Höhe von 8,3 % des BIP. Die Staatsverschuldung betrug 2004 120,2 Mrd. US-Dollar. Medien. Im Irak herrscht seit dem Sturz Saddam Husseins eine große Vielfalt an Medien. Die neue irakische Verfassung garantiert offiziell die Pressefreiheit. Auf der von Reporter ohne Grenzen veröffentlichten "Rangliste zur Pressefreiheit" konnte sich der Irak zwar im Jahr 2009 auf den 145. Rang verbessern (2008: 158, 2007: 157.), jedoch stellte die Organisation fest, dass die irakischen Journalisten immer häufiger Repressalien durch staatliche Behörden ausgesetzt sind. Generell ist zu sagen, dass man im Irak zwischen zwei Arten von Medien unterscheiden muss: den parteienkontrollierten und den unabhängigen. Jede größere Partei im Irak hat ihr Zentralorgan, nicht wenige unterhalten auch Fernsehsender. Die kurdischen Parteien unterhalten Zentralorgane sowohl in kurdischer als auch in arabischer Sprache. Zeitungen. Die ersten irakischen Zeitungen erschienen zur Zeit der osmanischen Besetzung des Irak. Am 15. Juni 1869 erschien mit al-Zawraa die erste Zeitung des Landes, sie sollte bis zum 11. März 1917 in Bagdad herausgegeben werden. Am 25. Juni 1889 erschien die erste Zeitung in Mossul, am 31. Dezember 1889 folgte die erste Zeitung in Basra. Die erste irakische Verfassung von 1921 garantierte Pressefreiheit. Die irakische Presse galt bis 1958 als die freieste im ganzen Nahen Osten. Nach dem Sturz der Monarchie wurden 1959 alle regierungskritischen Zeitungen geschlossen und die Vorzensur eingeführt. 1969 wurden private Zeitungen verboten. Die irakischen Kommunisten durften von 1973 bis 1979 eine eigene Tageszeitung betreiben; diese wurde aber nach der Machtübernahme Saddam Husseins ebenfalls verboten. Zwischen 1979 und 2003 befand sich die Presse vollständig in der Hand der Husseins. Die 2003 herausgegeben Tageszeitungen waren al-Dschumhuriya, al-Thawra, al-Qadissiya, al-Iraq, Babil sowie die Sportzeitung al-Baath al-Riyadi und der englischsprachige Baghdad Observer. Aufgrund des Papiermangels bedingt durch die Sanktionen mussten die Zeitungen die Anzahl ihrer Seiten kürzen und die Größe ihrer Ausgaben auf ein Viertel des Vorkriegsniveaus reduzieren, ab 1999 erschienen sie zweimal in der Woche in ihrer normalen Größe. Fernsehen. Das irakische Fernsehen nahm 1956 seinen Sendebetrieb auf und war somit eine der ältesten Fernsehanstalten im Nahen Osten. Neben dem regulären staatlichen Sender gründete Udai Hussein 1994 "al-Shabab TV", welcher ausländische Filme und Sendungen ausstrahlte. In den späten 1990ern ging "Iraq Satellite Channel" auf Sendung. Während der Amtszeit Saddam Husseins war die Installation von Satellitenschüsseln strengstens verboten. 2003 wurde "al-Iraqia" Nachfolger von "Iraq Television", daneben entstanden mehrere private Fernsehsender. Die wichtigsten sind "al-Sharqiya", "al-Baghdadiya", "al-Fayhaa", "al-Sumaria", "al-Furat" und der US-Koalitionssender "al-Hurra". Im kurdischen Norden hatte bereits 1999 "Kurdistan TV" mit der Ausstrahlung begonnen. Auch ausländische Fernsehsender wie "al-Dschasira" und "al-Arabiya" werden gesehen. Kultur. Der Irak kann in fünf geographische Kulturräume kategorisiert werden: die kurdische und turkmenische Kultur mit ihren Zentren in Erbil und Sulaimaniyya, die sunnitische Kultur mit ihrem Zentrum um Bagdad, die schiitische Kultur mit ihrem kulturellen Zentrum Basra, die assyrische Kultur, in mehreren Städten des Nordens präsent und die Kultur der nomadischen Marsch-Araber, die in den Sümpfen zwischen Bagdad und Basra leben. Film. Filme wurden seit 1909 in Bagdad vorgeführt, diese waren meist für das britische Publikum bestimmt. Erst in den 1940er Jahren unter der Herrschaft König Faisals II. begann sich eine Filmindustrie zu entwickeln, als französische und britische Filmkonzerne sich in Bagdad niederließen. Im Jahre 1955 kam der Film "Haidar Al-Omar’s Fitna wa Hassan", eine Verfilmung der Romeo und Julia Geschichte, in die Kinos, der Film wurde auch im Ausland registriert. Nach dem Putsch von 1958 wurde die "Cinema and Theater General Organization" gegründet, sie koordinierte und plante zukünftige Filme im Staatsinteresse. So wurden hauptsächlich Dokumentationen gedreht. Nach 1979 geriet die irakische Filmindustrie in ihre größte Krise, aufgrund der Ressourcenknappheit ausgelöst durch den Irakisch-Iranischen Krieg. Trotzdem wurde im Jahre 1980 der 6 Stunden Epos über das Leben Saddam Husseins fertiggestellt. Einen weiteren Schlag erlitt die Filmindustrie nach dem Kuwaitkrieg, als ein Embargo gegen das Land verhängt wurde. Seit der US-Invasion des Landes im Jahre 2003 versucht sich die Industrie langsam zu regenerieren und es gibt vereinzelte Filmprojekte wie zum Beispiel Kilomètre zéro. Daneben gibt es zahlreiche ausländische Filme, die den Irak als Thema haben so zum Beispiel Retour à Babylone des irakischen Regisseurs Abbas Fahdel oder Tal der Wölfe – Irak. Theater. Seit 1880 reisten Theatertruppen aus Europa in den Irak, um vor vornehmlich britischem Publikum in Schulen und Gemeindesälen zu spielen. Im 20. Jahrhundert begannen irakische Schriftsteller Theaterstücke zu schreiben. Die großen Theaterhäuser sind das Rasheed, das Mansour und das Volkstheater. Aufgeführt werden Theaterstücke irakischer, indischer und türkischer Autoren ebenso wie die großen Dramen der Weltliteratur. Musik. Dalli bei einem Konzert in Amman Die "Oud" (Kurzhalslaute) und die "Rebab" (Streichinstrument) dominieren die irakische Musik. Bekannte Musiker auf diesen Instrumenten sind unter anderem Munir Baschir (1928–1997), Ahmed Mukhtar (* 1967) und Nasir Schamma (* 1963). Erfolgreichster Popsänger des Landes ist Kaẓim al-Saher (* 1961), der in seiner Karriere bisher mehr als 30 Millionen Tonträger verkauft hat. Weiterhin sind die Sängerinnen Shada Hassoun – die in der vierten Staffel der bekanntesten arabischen Musik-Casting-Show „Star Academy“ teilgenommen und gewonnen hat – und Dalli sowie der Sänger Maǧid al-Muhandes bekannt. Sport. Beliebteste Sportart des Landes ist Fußball. Die nationale Fußballliga erfreut sich großer Beliebtheit. Wichtige Fußballvereine sind al-Zawraa, al-Talaba, al-Shorta, al-Quwa al-Dschawiya (alle aus Bagdad), al-Minaa (Basra) und Erbil SC. Größtes Fußballstadion des Landes ist das 1966 erbaut al-Shaab-Stadion in Bagdad mit einem Fassungsvermögen von 66.000 Zuschauern. In Basra soll demnächst ein großer Sportkomplex gebaut werden. Darunter ist ein Stadion mit einem Fassungsvermögen von über 100.000 Zuschauern zu verstehen. Laut der IFA (Iraq Football Association) wird das Stadion im Jahr 2013 für den Gulf Cup zur Verfügung stehen. Die Irakische Nationalmannschaft konnte mehrere regionale Titel gewinnen. Ihre größten Erfolge waren die Qualifikation zur Fußball-Weltmeisterschaft 1986 in Mexiko sowie der Titelgewinn bei der Fußball-Asienmeisterschaft 2007. Ein weiterer Erfolg war der vierte Platz bei den Olympischen Spielen 2004. Nebenbei sind auch andere Sportarten wie Gewichtheben, Kampfsport, Futsal, Basketball oder Schwimmen beliebt. Bei den Olympischen Sommerspielen 1960 in Rom holte der Gewichtheber Abdu l-Wahid Aziz im Leichtgewicht die Bronzemedaille, bis heute die einzige olympische Medaille des Landes. Internierungslager. Als Internierungslager wurden bisher verschiedene Haftorte in verschiedenen Ländern zu verschiedenen Zeiten bezeichnet. Die internierten Personen waren oft Zivilisten, Kriegsgefangene oder Soldaten "neutraler" Mächte. Vereinigtes Königreich. Großbritannien richtete während des Burenkrieges ein Internierungslager zur Internierung Gefangener Buren in Ahmednagar in der Präsidentschaft Bombay in Indien ein. Im Ersten Weltkrieg diente es als Internierungslager für Zivilisten. Im Frühjahr 1915 wurden über 2000 deutsche und österreichische Zivilisten dorthin gebracht. Hauptsächlich waren es deutsche Zivilisten aus der ehemaligen deutschen Kolonie Deutsch-Ostafrika aber auch aus anderen Ländern. Das Lager bestand auch noch im Zweiten Weltkrieg. Frankreich. In Frankreich wurden Deutsche und Österreicher im Internierungslager Le Vernet in den Pyrenäen festgehalten. Österreich-Ungarn. In der Österreichisch-Ungarischen Monarchie ließ das Abwehramt vor allem in Nieder- und Oberösterreich mehrere Internierungslager einrichten. Darunter Enzersdorf im Thale, Göllersdorf, Hainburg, Katzenau, Mittergrabern, Raschala, Sitzendorf an der Schmida, Steinklamm (Rabenstein an der Pielach) oder Weyerburg. Im Waldviertel waren dies namentlich Drosendorf, Grossau, Illmau, Karlstein an der Thaya, Kirchberg an der Wild, Markl sowie Sittmannshof. Deutschland. Internierte in Deutschland bei der Essensausgabe kurz nach Kriegsbeginn In Deutschland sind bis zum Ende des Ersten Weltkrieges etwa 2,5 Millionen ausländische Soldaten in etwa 320 verschiedenen Lagern interniert worden. Zwischenkriegszeit. Internierungslager in Südfrankreich nach dem Ende des Spanischen Bürgerkrieges, 1939 Frankreich. Gegen Ende des Spanischen Bürgerkrieges flohen mehr als eine halbe Million Flüchtlinge aus Katalonien zur französischen Grenze, die einzige Möglichkeit der Flucht vor den heranrückenden Truppen Francos. Wegen des internationalen Drucks erlaubte die Französische Regierung den Flüchtigen ab dem 5. Februar die Einreise nach Frankreich. Daraufhin strömten hunderttausende Zivilisten sowie die Reste der republikanischen Volksarmee nach Frankreich. Bis zum 15. Februar 1939 flohen nach offiziellen Angaben 353.107 Menschen in das französische Departement Pyrénées-Orientales, in dem damals etwa 230.000 Einwohner wohnten. Laut einem Bericht der französischen Regierung (Informe Valière) vom 9. März 1939 erreichte die Zahl der Flüchtlinge 440.000. Unter den Flüchtigen waren 170.000 Frauen, Kinder und ältere Menschen, 220.000 Soldaten und Milizionäre, 40.000 Invalide sowie 10.000 Verletzte. Für die Flüchtenden wurden verschiedene Internierungslager eingerichtet, wie zum Beispiel das Internierungslager Argelès-sur-Mer am Mittelmeer. Vereinigte Staaten. So wurden Kriegsgefangene oder politisch nicht erwünschte bzw. für gefährlich gehaltene Bürger interniert, in den USA während des Zweiten Weltkrieges beispielsweise 120.000 Japaner und Landsleute japanischer Abstammung (Internierung japanischstämmiger Amerikaner) und in kleinerer Anzahl Deutsch-Amerikaner, Mexikaner und Italiener. Die letzte Freilassung von Deutsch-Amerikanern aus den Internierungslagern, erfolgte im Sommer 1948. Es gab bis heute, seitens der US-Regierung, keine offizielle Anerkennung über Zwangsinternierung und Deportationen von Deutsch-Amerikanern. Vereinigtes Königreich. Die britische Regierung beschloss 1940, alle männlichen deutschen Emigranten als „feindliche Ausländer“ zu internieren. So wurden dort in den Internierungslagern während des Zweiten Weltkrieges auch nach Großbritannien geflüchtete Juden aus Deutschland, wie etwa Gerhard Leibholz, sowie deutsche Gegner des NS-Regimes interniert. Es bestanden unter anderem Internierungslager für Zivilisten in Huyton, auf der Isle of Man, in Kanada, Australien sowie mehrere Internierungslager in Indien, unter anderem in Ahmednagar und in Dehra Dun, wo auch der bekannte österreichische Tibetreisende Heinrich Harrer festgehalten wurde. Am 28. Mai 1940 wurden auch alle in Großbritannien lebenden deutschen Frauen im Alter von 16 bis 60 Jahren auf die Insel Man interniert. Nach Kriegsende wurden von August 1946 bis November 1949 jüdische Flüchtlinge, die nach britischem Recht illegal nach Palästina bzw. Israel einreisen wollten, in Internierungslagern auf Zypern festgehalten. Schweiz. In der Schweiz wurden erstmals im Deutsch-Französischen Krieg 1870/71 Einheiten der französischen Armée de l’Est interniert. Während im Ersten Weltkrieg nur wenige Soldaten interniert wurden, waren es im Zweiten Weltkrieg über 29.000 Franzosen des 45. französischen Armeekorps, die in Absprache mit den Nationalsozialisten 1941 nach Frankreich zurück verbracht wurden. Die 12.000 polnischen Soldaten des 45. französischen Armeekorps wurden nach der Überschreitung der Schweizer Grenze nach einigen Monaten mit 2.000 Zivilpersonen in zentralen Lagern interniert. Das größte für polnischen Angehörigen des 45. Armeekorps war das Internierungslager Büren an der Aare. Das zweitgrößte war das Internierungslager Adliswil. Des Weiteren befanden sich weitere Internierungslager in der Moorebene Wauwilermoos und in der Gemeinde Hinwil mit dem Internierungslager Girenbad. Nach 1943 kamen ca. 20.000 Italiener und zum Ende des Krieges viele deutsche Einheiten hinzu. Insgesamt wurden mehr als 100.000 Personen interniert. Angehörige der SS und Rotarmisten, die auf deutscher Seite kämpften, wurden abgewiesen. Offiziere durften sich frei bewegen, wenn sie ihr Ehrenwort gaben, nicht zu fliehen. Auch ausländische Juden und deutsche politische Emigranten wurden als illegale Flüchtlinge interniert, wie Emanuel Treu oder der Opernsänger Joseph Schmidt, der in einem Internierungslager starb. Frankreich. Die im Vorfeld des Zweiten Weltkrieges errichteten Internierungslager dienten während des Krieges der Aufnahme ausländischer Flüchtlinge, der Inhaftierung staatsfeindlicher Personen oder der Sammlung von Juden zur Deportation ins Deutsche Reich. Während des Kriegs gab es insgesamt 219 Lager. Nach dem Rückzug der deutschen Besatzungsmacht wurden in Frankreich ab Oktober 1944 (im Zusammenhang mit „Säuberungen“ ("épuration") und etwa 10.000–15.000 Hinrichtungen ohne Gerichtsverfahren) 170 Lager mit 60.000 Internierten, die der Kollaboration verdächtigt wurden, eingerichtet. Westzonen. Im Zuge der Entnazifizierung und der "Reeducation" wurden im Nachkriegsdeutschland viele Funktionäre nationalsozialistischer Organisationen, KZ-Personal und mutmaßliche Kriegsverbrecher in Internierungslagern unter Arrest gestellt. Der größte Teil der Internierten war aufgrund der Bestimmungen des Automatischen Arrests festgesetzt worden. Zur Unterbringung der Internierten wurden ehemalige Konzentrationslager, Außenlager von Konzentrationslagern und ehemalige Kriegsgefangenenlager benutzt. Es existierten US-amerikanische, französische und britische Lager. Nach der Befreiung des KZ Dachau wurde das KZ Dachau von der amerikanischen Besatzung als Internierungslager Dachau genutzt. Hier fanden die Dachauer Prozesse statt, darunter auch der Buchenwald-Hauptprozess. Im Internierungslager Bad Nenndorf saßen vor allem Personen ein, die von den Briten als höchste Sicherheitsgefahr angesehen wurden, Offiziere der deutschen Abwehr, höchste Wehrmachtsfunktionäre und Diplomaten. Ferner existierte bei Hamburg das Internierungslager Neuengamme. Die Internierungslager der Amerikaner wurden im Sommer 1946 in deutsche Regie überführt und die Einrichtung von Spruchkammern angeordnet. Die deutschen Spruchkammern lösten die „Security Review Boards“ der amerikanischen Armee ab, die zuvor die Entlassungsanträge bearbeitet hatten. Bis Internierte vor die Spruchkammern der Lager gestellt wurden, vergingen viele Monate, teilweise sogar bis zu drei Jahre. Mit Lagerhaft von dieser Dauer wurde die Strafe teilweise schon vorweggenommen. Ostzone bzw. DDR. Nach dem Ende des Zweiten Weltkrieges 1945 wurden von der sowjetischen Militäradministration in der Sowjetischen Besatzungszone (SBZ) Speziallager eingerichtet, welche bis 1950 in der DDR bestanden. In der DDR wurde vom Ministerium für Staatssicherheit eine solche Einrichtung („Vorbeugekomplex“) geplant, aber nie umgesetzt. Jugoslawien. Bestätigung des Todes eines Häftlings aus dem Lager Sremska Mitrovica von Oktober 1947 Bis Frühling 1945 wurden ca. 90 % (ca. 119.000 Personen) der verbliebenen jugoslawiendeutschen Bevölkerung interniert, so in Zentralarbeitslager für arbeitsfähige Männer, in Ortslager für die Bevölkerung ganzer Ortschaften und in Internierungslager für Arbeitsunfähige, Frauen, Kinder und Ältere. Der Historiker Michael Portmann spricht in ganz Jugoslawien von anfänglich rund 80 Lagern für die deutsche Bevölkerung. Georg Wildmann listet 84 Internierungslager namentlich auf dem Gebiet des ehemaligen Jugoslawien auf. a> ("Rudolfsgnad"), errichtet von Mitgliedern der "Gesellschaft für Deutsch-Serbische Zusammenarbeit". Nach dem Rechtsgutachten von Dieter Blumenwitz (2002) belief sich die Gesamtzahl der donauschwäbischen Menschenverluste in den Lagern auf 59.335 Opfer, darunter 5.582 Kinder. Diese Zahl enthält die in den vorübergehenden Lagern zu Tode gekommen und die auf der Flucht erschossenen Donauschwaben. Michael Portmann (2004) nannte etwa 46.000 Deutsche allein aus der Vojvodina, die nach statistischen Schätzungen zwischen dem Herbst 1944 und dem Frühjahr 1948 in den Lagern starben. Im Januar 1946 beantragte die jugoslawische Regierung bei den Westalliierten die Ausweisung der, nach jugoslawischen Angaben, etwa 110.000 im Land verbliebenen Jugoslawiendeutschen nach Deutschland. Dies wurde jedoch abgelehnt. 1947 durften vereinzelt Gruppen Deutscher ausreisen oder konnten aus den Lagern über die Grenzen zu Rumänien oder Ungarn flüchten. 1948 wurden die Lager aufgelöst; die noch rund 80.000 überlebenden Deutschen wurden zwar entlassen, dann aber zu meist dreijährigen Arbeitsverträgen bei vorgeschrieben Arbeitgebern zwangsverpflichtet. Während dieser Zeit erhielten sie keine Personalausweise und es war ihnen nicht erlaubt ihren Wohnsitz zu verlassen. Erst nach der Ableistung und vielfach erst nach Zahlung eines Kopfgeldes erhielten sie den Status vollberechtigter Staatsbürger. Deutschland. "amerikanische Besatzungszone" (Civilian Internment Enclosures. Abk.: C.I.E.) "sowjetische Besatzungszone: siehe Hauptartikel Speziallager". Indiktion. Die Indiktion () ist ein 15-jähriger Zyklus zur Jahreszählung, der seit der Spätantike bis zum Ende des Mittelalters häufig verwendet wurde. Andere Bezeichnungen sind „Kaiserliche Zahl“, „Römerzinszahl“, „Gedingzeichen“ oder „Zeichen“. In der Neuzeit ging ihr Gebrauch zurück, aber Kalender pflegten sie weiterhin anzugeben und das Reichskammergericht verwendete die Indiktion bis zu seiner Auflösung im Jahre 1806. Entstehung. Das Wort "indictiō" bezeichnete im Römischen Reich ein kaiserliches Edikt zur Steuerfestsetzung der Naturalabgaben der Landgüter. Die seit dem frühen 4. Jahrhundert jährlich erhobene Abgabe wurde alle 15 Jahre (nach jedem dritten Zensus) neu festgesetzt. Unter Konstantin I. war man 312 zum 15-Jahre-Rhythmus übergegangen. Kaiser Justinian I. schrieb 537 in der "Novella 47" den Gebrauch der Indiktion für alle Datierungen gesetzlich vor. Die Indiktion war im gesamten Abendland bis auf Spanien für Kalenderberechnungen üblich. Der Indiktionszyklus hat allerdings keine Beziehung zur Astronomie. Um ein nur durch die Indiktion datiertes spätantikes oder mittelalterliches Dokument zeitlich einzuordnen, braucht man weitere Anhaltspunkte. Indiktionsstile. Die Jahre eines Indiktionszyklus werden durchnummeriert als "erste Indiktion", "zweite Indiktion"... bzw. es wird für jedes Jahr die entsprechende "Römerzinszahl" festgelegt. Diese wächst immer von 1 bis 15, um dann wieder von vorne anzufangen. Auf die fünfzehnte Indiktion folgt also wieder die erste. Es gibt verschiedene Indiktionsstile, die sich durch den Beginn des Epochenjahres unterscheiden. Argumentum I. J = 15 * Z + 12 + I Argumentum II. I = (J + 3) mod 15 Dabei ist jeweils I die Indiktion, die mit ihrem größten Teil in das gegebene Jahr fällt, J das Jahr der christlichen Zählung und Z die Zahl der vollendeten Indiktionszyklen. Das Jahr 525 der christlichen Zählung hat bei Dionysius Exiguus die Indiktion 3 (des 35. Zyklus, nach 34 vollendeten Zyklen). So ergibt sich zu einer Jahreszahl nach unserem heutigen Kalender die Indiktion, indem man zur Jahreszahl 3 addiert und anschließend durch 15 dividiert. Für das Jahr 2013 ergibt sich zum Beispiel (2013 + 3): 15 = 2016: 15 = 134 Rest 6. So liegt das Jahr 2013 größtenteils in der Indiktion 6 (des 135. Zyklus, nach 134 vollendeten Zyklen). Intravenös. Intravenöser Zugang an eine Vene am Handrücken mit Dreiwegehahn Der Begriff intravenös (Abk. i.v., von lat. "intra" „hinein“, „innen“, „innerhalb“ und "vena" „Vene“, „Blutader“; selten auch endovenös, von griech. ἔνδον „innen“) bedeutet „in einer Vene“ oder „in eine Vene hinein“. Man versteht darunter z. B. die direkte Verabreichung eines Medikaments oder einer Flüssigkeit oder Suspension in ein venöses Blutgefäß. Sie ist eine Form der parenteralen Gabe von Medikamenten, also eine Applikationsform. Die gegebene Flüssigkeit wird mit dem Blutstrom zum Herzen geführt und von dort aus über die Arterien im gesamten Organismus verteilt. Praktisch geschieht dies durch eine Injektion, Infusion oder Transfusion. Auch für die Blutentnahme aus einer Vene wird zunächst eine Nadel intravenös platziert. Geschichte. Im 17. Jahrhundert wurde die intravenöse Injektion als neues Verfahren für die Verabreichung von Arzneimitteln zum ersten Mal beschrieben. Erste Berichte über die Injektion von Substanzen in Venen, durchgeführt zu experimentellen und nicht-therapeutischen Zwecken, sind vom berühmten Architekten Christopher Wren (1632–1723) überliefert. Er injizierte im Jahre 1656 Wein und Bier in die Venen eines Hundes. Diese Experimente wurden von Robert Boyle und Robert Hooke, die ebenfalls Hunden Opium und Safran injizierten und die Ergebnisse beobachteten, fortgeführt. Die Einführung der intravenösen Injektion beim Menschen und ihrer späteren Anwendung zur medizinischen Behandlung ist in erster Linie den Ärzten Johann Daniel Major (1634–1693), der 1664 in seinem Chirurgia Infusorien auf die Methode hinwies, und Johann Sigismund Elsholtz (1623–1688), der in seiner Schrift Clysmatica Nova (1665 in deutscher Sprache) über seine entsprechenden Experimente an Leichen und Lebewesen berichtete, zu verdanken. Mit diesen Arbeiten konnte die Effektivität der neuen Technik gezeigt werden, und sie breitete sich rasch weiter aus. Weiterentwicklung der Technik. Im Jahre 1843 gelang es George Bernard, Tieren Zuckerlösungen zu verabreichen. Aber erst im späten 19. Jahrhundert und beginnenden 20. Jahrhundert konnte die intravenöse Therapie auf der Grundlage der Erkenntnisse in Mikrobiologie und Hygiene entscheidend weiterentwickelt werden. 1853 verwendete Alexander Wood als erster eine Subkutannadel zur intravenösen Verabreichung von Medikamenten. Wirklich populär wurde die Methode allerdings erst durch den französischen Arzt Charles Gabriel Pravaz (1791–1855), der einen Vorläufer der Injektionsspritze entwickelte. Im Jahre 1870 beschrieb Pierre Cyprien Ore die Verwendung von Chloralhydrat zur intravenösen Analgesie während Operationen und begründete damit die Technik der intravenösen Verabreichung von Medikamenten. Verfeinerung und allgemeine Anwendung. Die Einführung von Thiopental im Jahre 1930 ermöglichte durch dessen intravenöse Verabreichung eine sehr effektive neue Methode der Narkoseeinleitung. Die gute Handhabbarkeit des kurzwirksamen Barbiturats Thiopental führte schnell zu der Überlegung, dass es genauso gut zur Einleitung als auch zur Aufrechterhaltung der Narkose verwendet werden könnte. 1944 zeigte Pico, wie intravenöses Thiopental in 1-%-Lösung mittels kontinuierlicher intravenöser Infusion verwendet werden konnte. Während des Zweiten Weltkrieges erkannte man die Unzulänglichkeit der für die parenterale Ernährung entwickelten Glukose-/Aminosäuren-Lösungen zur Behandlung von Verletzten. Dieses Problem konnte nur dann gelöst werden, wenn entweder das Volumen oder die Konzentration der Infusion erhöht würden. Dies war jedoch nicht möglich, da die verwendeten Venen nur kleinen Kalibers waren. Im Jahre 1952 wurde die Punktion großkalibriger Venen beschrieben. Diese Technik, von Aubaniac zur Behandlung Kriegsverletzter entwickelt, erlaubte die Verwendung von Lösungen mit höheren Konzentrationen an Glukose und Aminosäuren. Im Jahre 1959 beschrieb Francis Daniels Moore die Verwendung der oberen Hohlvene zur Infusion von hochkonzentrierter Glukose. Häufig genutzte Venen. Man unterscheidet "periphervenöse" Zugänge und "zentralvenöse" Zugänge (ZVK). Als Venen zur intravenösen Behandlung werden beim Menschen meist die Armvenen ("Vena mediana cubiti" oder "Vena cephalica") oder größere Venen am Hals ("Vena jugularis interna") oder in der Leiste benutzt. Beim Säugling haben sich oberflächliche Schädelvenen bewährt. Bei größeren Tieren (ab etwa Größe Schaf) wird zumeist die Drosselvene ("Vena jugularis externa") genutzt. Bei Hunden und Katzen verwendet man meist eine Vorderbeinvene ("Vena cephalica") oder Hinterbeinvene ("Vena saphena lateralis"). Beim Schwein und Kaninchen wird zumeist eine der Ohrvenen ("Venae auriculares") genutzt. Bei sehr kleinen Heimtieren ist eine intravenöse Injektion fast unmöglich, hier wird bei Tierversuchen (in Narkose) die Drosselvene freipräpariert. Eine andere Methode, die in Tierkliniken bei kleinen Heimtieren, Vögeln, aber auch Hunde- und Katzenwelpen eingesetzt wird, ist die intraossäre Applikation (in einen Knochen), bei der aber ein absolut steriles Vorgehen essentiell ist, um Infektionen zu vermeiden. Praktische Vorgehensweise. Bei der intravenösen Punktion wird meist zum Herzen hin eingestochen. Die Stichrichtung ist aus praktischer Sicht unbedeutsam und ergibt sich nur aus der anatomischen Lage. Eine Verletzung der Venenklappen durch eine Nadel hat keine merkbaren Folgen. Das intravenös verabreichte Volumen sollte den Flüssigkeitsbedarf des Patienten nicht übersteigen. Die Wirkung eines intravenös verabreichten Medikamentes tritt meistens innerhalb von Sekunden und ohne Resorptionsverlust ein. Ein Nachteil ist, dass das Aufsuchen einer Vene nicht immer ganz einfach ist. Auch der schnelle Eintritt der Wirkung ist nicht immer erwünscht. Vorteile. Der große Vorteil einer intravenösen Medikamentengabe ist, dass sich das Medikament sofort und im vollen Umfang im Blutkreislauf befindet. Bei geschluckten Medikamenten hingegen muss das Arzneimittel in chemischer Hinsicht so gestaltet sein, dass es nicht von der Salzsäure im Magen sowie von der Leber abgebaut wird (Stoffe aus dem Magen-Darm-Trakt passieren via Pfortader zuerst die Leber ("first-pass effect"); dazu passiert ein Teil des Medikaments gar nicht die Darmwand). Intravenös dargebotene Mittel können daher niedriger dosiert werden, um die gleiche Wirkung zu erzielen – und verursachen deshalb weniger Nebenwirkungen. Risiken. Bei der intravenösen Punktion können Keime in die Blutbahn eingebracht werden, so dass nur mit sterilen Nadeln gearbeitet werden darf. Bei der längeren intravenösen Therapie über einen Venenverweilkatheter kommt es meist innerhalb einiger Tage zu einer Keimbesiedlung, so dass eine Thrombophlebitis, eine Bakteriämie und/oder eine Sepsis auftreten können. Um dies zu verhindern, wird der Verweilkatheter bei Beschwerden des Patienten umgehend entfernt. Bei einem Durchstechen der Vene kann das Medikament "paravenös", also in das umliegende Gewebe gelangen (Paravasat). Bei gewebsreizenden Medikamenten kann das zu einem örtlichen Absterben des Gewebes (Nekrose) oder zu Abszessen führen. Des Weiteren besteht die Gefahr der Bildung von Hämatomen, der sekundären Perforation der Vene, der Venenschädigung und Venenreizung und der arteriellen Punktion und Injektion. Indikation. Der medizinische Begriff Indikation (von „anzeigen“), Synonym: Heilanzeige, steht grundsätzlich dafür, welche medizinische Maßnahme bei einem bestimmten Krankheitsbild angebracht ist und zum Einsatz kommen soll: Bei Krankheitsbild „X“ ist das Heilverfahren „Y“ indiziert, also angebracht. („Krankheitsbild“ ist nicht synonym mit Diagnose zu verwenden, sondern umfasst den Gesamtzustand eines Patienten. Verwaltungstechnische, weltanschauliche, finanzielle, juristische oder andere nicht-medizinische Gründe bildet der Begriff Indikation in seiner grundlegenden Bedeutung nicht ab.) Der Begriff findet sich häufig in Zusammenhang mit Operationen, man spricht dann von Operationsindikation. Internationaler Währungsfonds. Der Internationale Währungsfonds (IWF;, "IMF"; auch bekannt als "Weltwährungsfonds") ist eine Sonderorganisation der Vereinten Nationen und hat seinen Sitz in Washington, D.C., USA. Eine seiner Hauptaufgaben ist die Vergabe von Krediten an Länder ohne ausreichende Währungsreserven, die in Zahlungsbilanzschwierigkeiten geraten sind. Förderung der internationalen Zusammenarbeit in der Währungspolitik, Ausweitung des Welthandels, Stabilisierung von Wechselkursen, Überwachung der Geldpolitik sowie technische Hilfe sind dementsprechend seine Tätigkeitsfelder. Der IWF und seine Schwesterorganisation Weltbank sind Institutionen, die ihren Ursprung im 1944 geschaffenen Bretton-Woods-System fester Wechselkurse haben, das auf der damals mit Gold gedeckten Leitwährung des US-Dollars beruhte. Sie waren als internationale Steuerungsinstrumente geplant, mit denen eine Wiederholung der Währungsturbulenzen der Zwischenkriegszeit und der Fehler des Goldstandards aus den 1920er Jahren verhindert werden sollte. Beide Organisationen werden daher als "Bretton-Woods-Institution" bezeichnet. Im Gegensatz zum IWF vergibt die Weltbank auch Kredite für spezielle Projekte. Die Kreditvergabe des IWF ist generell an wirtschaftspolitische Auflagen geknüpft, die die Rückzahlung der Kredite sichern sollen. Der IWF hat zurzeit 188 Mitgliedstaaten, deren Stimmrecht sich an ihrem Kapitalanteil orientiert. Die Mitgliedstaaten mit den größten Stimmanteilen sind: USA 16,75 %, Japan 6,23 %, Deutschland 5,81 %, Frankreich 4,29 %, Vereinigtes Königreich 4,29 % und China 3,81 %. Von den deutschsprachigen Ländern haben Luxemburg 0,20 %, Österreich 0,87 % und die Schweiz 1,40 % Stimmenanteil. Da die Beschlüsse im IWF mit einer Mehrheit von 85 % getroffen werden müssen, verfügen jeweils die USA allein und die EU-Staaten gemeinsam de facto über eine Sperrminorität. Organisation. Der IWF hat etwa 2600 Mitarbeiter aus 142 Staaten. Geschäftsführende Direktoren. Gemäß einer informellen Vereinbarung zwischen den USA und einigen westeuropäischen Ländern ist der Direktor des IWF immer ein Europäer, während die einflussreiche Position des ersten stellvertretenden Direktors ("First Deputy Managing Director") von einem US-Amerikaner besetzt wird. Im Jahre 2000 gelangte mit Horst Köhler zum ersten Mal ein Deutscher an die Spitze des IWF. Im März 2004 trat Köhler vorzeitig zurück, nachdem er von CDU, CSU und FDP als Kandidat für die Wahl des deutschen Bundespräsidenten 2004 nominiert wurde. Nachfolger an der Spitze des IWF wurde der ehemalige spanische Wirtschaftsminister Rodrigo Rato. Er konnte sich damit gegen eine Reihe weiterer Kandidaten (darunter der Spanier José Manuel González-Páramo, der Belgier Peter Praet und der Ire Michael Tutty) durchsetzen. Am 28. Juni 2007 kündigte Rodrigo Rato überraschend an, dass er sein Amt nach der Jahrestagung im Oktober 2007 aus privaten Gründen vorzeitig niederlegen werde. Zu seinem Nachfolger wurde der ehemalige französische Finanzminister Dominique Strauss-Kahn gewählt. Am 18. Mai 2011 trat Strauss-Kahn infolge eines Vergewaltigungsvorwurfs zurück; der stellvertretende geschäftsführende Direktor John Lipsky übernahm vorübergehend das Amt. Ende Juni 2011 wählte der IWF Christine Lagarde als Nachfolgerin. Sie trat ihren Posten am 5. Juli 2011 an. Stellvertretende geschäftsführende Direktoren. Von 1949 bis 1994 gab es einen stellvertretenden geschäftsführenden Direktor (engl. "Deputy Managing Director"), 1994 wurden drei stellvertretende geschäftsführende Direktoren eingeführt und zurzeit gibt es vier stellvertretende geschäftsführende Direktoren. Anteile und Stimmrechte der Mitgliedstaaten. Im Oktober 2010 haben die G20-Finanzminister beschlossen, dass die Stimmanteile der 188 Mitgliedstaaten zugunsten der aufstrebenden Schwellenländer umverteilt werden sollen. Das wäre „eine der tiefstgreifenden Reformen in der Geschichte des IWF“. „An Einfluss gewinnen die stark wachsenden Volkswirtschaften wie China und Asien.“ Die Europäische Kommission hat vorgeschlagen, dass die Euro-Staaten ihre Stimmen zusammenfassen. Laut der Satzung des IWF muss dessen Sitz im Land mit den meisten Stimmrechten unterhalten werden. Der Stimmenanteil der 18 Euro-Staaten beträgt 22,53 Prozent. Geschichte. Vor dem Hintergrund der negativen währungspolitischen Erfahrungen in den 1930er Jahren verhandelten insbesondere Großbritannien (Keynes-Plan) und die USA (White-Plan) über ein neues internationales Währungssystem, das schließlich mit der Konferenz in Bretton Woods, einer Kleinstadt im US-Bundesstaat New Hampshire, erfolgreich abgeschlossen wurde. Diese für den Wiederaufbau des Weltwirtschaftssystems entscheidenden Verhandlungen dauerten vom 1. Juli 1944 bis zum 22. Juli 1944, wo sich John Maynard Keynes mit dem von ihm entwickelten Keynes-Plan gegen den von den USA bevorzugten White-Plan nicht durchsetzen konnte. Als institutionelles Zentrum des neuen Systems wurde der IWF im Dezember 1945 durch eine internationale Übereinkunft gegründet. Einige zuvor exklusiv nationale Entscheidungsrechte wurden auf ihn übertragen. Er nahm im Mai 1946 erste Arbeiten auf. Seine eigentliche operative Tätigkeit begann ab dem 1. März 1947. Nach einem Beschluss des Bundestages vom 28. Juli 1952 trat die Bundesrepublik Deutschland dem IWF am 14. August 1952 bei. Mitgliedstaaten. 188 Staaten sind Mitglied im IWF. Alle Mitgliedstaaten der Vereinten Nationen, mit Ausnahme von Kuba, Andorra, Liechtenstein, Monaco, Nauru und Nordkorea, sind auch Mitglieder des IWF. Kosovo, welches kein Mitglied der UN ist, trat 2009 dem IWF bei. Aufgaben und Ziele. Wenn ein Mitglied in Zahlungsschwierigkeiten gerät, kann es beim IWF Hilfe beanspruchen (lender of last resort). Die Rechnungslegungseinheit des IWF ist das Sonderziehungsrecht (SZR). Der IWF vergibt unter bestimmten Auflagen befristete Kredite an Staaten, die unter wirtschaftlichen Problemen leiden, z. B. Rumänien (2008), Argentinien, Griechenland und Irland (2010). Bedingungen für die Gewährung von Krediten sind zum Beispiel: Kürzung der Staatsausgaben, niedrige Inflation, Steigerung des Exports sowie Liberalisierung des Bankenwesens. Die den Staaten auferlegten Bedingungen in Form von Strukturanpassungsprogrammen (SAP) können zum Beispiel Privatisierung von öffentlichen Einrichtungen wie Sparkassen, Elektrizitäts- und Wasserversorgung, Telekommunikation usw. sowie Entlassung von bestimmten Gruppen von Mitarbeitern vorsehen. Darüber hinaus unterstützt der IWF Entwicklungsländer in Afrika, Asien und Südamerika bei der Erarbeitung von Wachstums- und Wohlstandkonzepten und fördert diese durch direkte Geldhilfen der gebenden Mitgliedstaaten. Ebenso wie die Kreditvergabe ist auch die Entwicklungszusammenarbeit oft an Bedingungen der Good Governance (Korruptionsabbau, Demokratie, …) und der Liberalisierung gekoppelt. Mittel zur Zielerreichung. Jeder Mitgliedstaat bekommt eine so genannte Quote zugewiesen. Wenn ein Land in Zahlungsschwierigkeiten kommt, kann es finanzielle Hilfe vom IWF beanspruchen (Inanspruchnahme eines Kredites). Es kann auf Antrag beim IWF die Währung eines anderen Landes gegen Gold oder Landeswährung kaufen. Die Inanspruchnahme eines Kredites ist an bestimmte Bedingungen gekoppelt, die das jeweilige Land zu erfüllen hat. Diese werden als Strukturanpassungsprogramme (SAP) bezeichnet. Es gibt seit 1969 sogenannte "Sonderziehungsrechte (SZR)". Ein Mitgliedsstaat hat das Recht, sich unter Einschaltung des IWF Devisen zu kaufen. Für die Devisen darf der Mitgliedstaat mit SZR zahlen. Bei den SZR handelt es sich um eine Art Weltgeld im Zahlungsverkehr der Zentralbanken. "Beispiel: Wenn z. B. die Türkei (Schwellenland) sich an den IWF wendet, weil sie zum Ausgleich der passiven Leistungsbilanz Devisen benötigt, dann bestimmt der IWF ein Land – beispielsweise die USA – mit hohen Devisenreserven. Die USA verkauft daraufhin der Türkei Devisen gegen SZR." Konditionalität. Ursprünglich war der IWF so ausgelegt, dass die Mitgliedstaaten bei Vorhandensein entsprechender Voraussetzungen (z. B. Zahlungsbilanzprobleme) automatisch das Recht hatten, IWF-Kredite zu erhalten. Nach dem Koreakrieg kollabierten die Preise für Rohstoffe jedoch, was Zahlungsbilanzkrisen in einzelnen Mitgliedstaaten auslöste. Zu dieser Zeit wurde die "Konditionalität" eingeführt, d. h. die entsprechenden Staaten hatten nicht mehr das Recht auf IWF-Kredite, vielmehr wurden die Kredite abhängig gemacht von der Erfüllung bestimmter Bedingungen, damals z. B. die Elimination von Devisenkontrollen und die Liberalisierung von Handelsbeschränkungen. Auch die Unterteilung des Kreditbezugs in einzelne Phasen wurde erstmals eingeführt, mit Krediten an Chile im Jahre 1956 und an Haiti im Jahre 1958. Jede einzelne Phase wurde von der Erfüllung von Bedingungen abhängig gemacht, die während der vorherigen Phase erfüllt werden mussten. Solche Bedingungen wurden in der jeweiligen Absichtserklärung („letter of intent“), die praktisch Vertragsnatur hatten, vorher festgelegt. "Konditionalität" war eine Initiative der USA, die zunächst von anderen Staaten abgelehnt wurde. Diese Staaten standen auf der Position, dass das Recht auf IWF-Kredite automatisch den betroffenen Regierungen zustehe, ganz in dem Geiste der „Articles of Agreement“, dem Gründungsdokument des IWF. Der Exekutivdirektor der USA legte sein Veto ein, wenn IWF-Kredit-Anträge nicht dieser Idee der Konditionalität entsprachen. Dies führte dazu, dass sich IWF-Kredit-Antragsteller nicht mehr an den IWF, sondern zuerst an die USA wandten. Damit war die Konditionalität in die IWF-Praxis eingeführt. Kreditnehmer. In der „Sterlingkrise“, einer Währungskrise von März bis November 1976, fiel das Britische Pfund trotz hoher Standby-Kredite der anderen Zentralbanken an die Bank of England von über 2 bis auf 1,56 US-Dollar. Trotz großer Bemühungen des Premierministers James Callaghan musste Großbritannien Hilfe des IWF in Anspruch nehmen und zusagen, dessen Auflagen zu erfüllen. Bis zum Jahr 1977 waren Entwicklungsländer wie Industrieländer relativ gleichermaßen Kreditnehmer des IWF, beispielsweise war Großbritannien einer der größten Kreditnehmer. Bis dahin wurde die "Konditionalität" gegenüber Großbritannien nicht angewandt (Großbritannien war einer der Gründungsstaaten des IWF). Das änderte sich jedoch nach der mehrfachen Abwertung des Sterlings, zum ersten Mal sollte der IWF dem Staat Großbritannien wesentliche Bedingungen wie Verringerung von Sozialleistungen und Abschaffung von Importkontrollen auferlegen, als er 1977 einen Antrag wegen eines Stand-by-Kredites stellte. Das führte dazu, dass ab diesem Zeitpunkt der IWF als die „letzte Instanz, an die man sich wegen Krediten wenden sollte“ angesehen wurde, da diese Einmischung in nationale (Wirtschafts-)Politik durch andere Regierungen (insbesondere der USA, deren Finanzminister William Simon meinte, dass Länder wie Großbritannien einen „internationalen Verhaltenskodex“ mit ihrer Wirtschaftspolitik brechen würden) als sehr unpopulär angesehen wird. Seit diesem Zeitpunkt stellte kein Industrieland mehr einen Antrag auf IWF-Kredite. Erst 2010 beantragten Griechenland und Irland einen IWF-Kredit. Nach Ansicht des Geographie-Professors Richard Peet wandelte sich der IWF erst damit von einer Form der Zusammenarbeit in Hinblick auf Wechselkurse und internationale Zahlungen, die hauptsächlich zwischen den Industrieländern stattfand, zu einer Form der Kontrolle der Wirtschaftspolitik der „Dritten Welt“ durch die „Erste Welt“. Dieser Ansicht widersprechen viele Fachleute (zum Teil massiv), denn der IWF sei ein Spiegelbild seiner Mitglieder und ihrer wirtschaftlichen Verhältnisse. Bewertung. Dem IWF wird vorgeworfen, durch die an die Kreditvergabe geknüpften Bedingungen in vielen Ländern die bestehenden Sozialsysteme zu zerstören. Für Kritiker gelten „die geforderten Sparprogramme und Einschnitte in Sozialprogramme […] für die Menschen in Entwicklungsländern [als] unzumutbar und [seien zudem] für das Wachstum schädlich.“ Der Träger des Alfred-Nobel-Gedächtnispreises für Wirtschaftswissenschaften und ehemalige Chefökonom der Weltbank Joseph E. Stiglitz kritisiert in seinem Buch "Die Schatten der Globalisierung" den IWF für die seiner Meinung nach „blinde“ Verfolgung des Washington Consensus und das Vorgehen der Organisation während der Überführung der osteuropäischen Zentralverwaltungswirtschaften in marktwirtschaftliche Systeme. Der damalige Chefökonom des IWF, Kenneth S. Rogoff, antwortete in einem offenen Brief auf Stiglitz’ Kritik. William Easterly wirft dem IWF fehlende Legitimation und Rechenschaftspflichten vor. Ursächlich sei der durch das Bretton-Woods-Abkommen nicht abgesicherte Aufgabenzuwachs im Zeitablauf. Easterly vertritt zudem die These, dass die Strukturanpassungs- und Transformationspolitik des Internationalen Währungsfonds den betroffenen Volkswirtschaften eher geschadet als genutzt habe. Insbesondere von globalisierungskritischen Bewegungen wird dem IWF ein Demokratiedefizit attestiert. Der IWF sei letztlich ein Machtinstrument der reichen Industrienationen, Entwicklungsländer hätten hingegen im IWF zu wenig Einfluss. Im Zusammenhang mit der sich seit 2008 verschärfenden Staatsschuldenkrise in Griechenland ist der IWF unter Druck geraten. Der IWF berichtet selbst über Fehler bei der Rettung Griechenlands. So habe man auch eigene Kriterien gebeugt, um Hilfe zu ermöglichen. Die IWF-Ökonomen Olivier Blanchard und Daniel Leigh stellten in einem "Working Paper" fest, dass eine wissenschaftliche Fehlannahme in einigen hoch verschuldeten Staaten der EU dazu beigetragen hat, die Schuldenkrise noch zu verschärfen. „Konkret wurde konstatiert, dass ein durch Ausgabensenkungen gesparter Euro das Bruttoinlandsprodukt kaum beeinträchtigen würde - tatsächlich reduzierte es sich aber um 1,5 Euro pro gesparten Euro.“ Der IWF soll Privilegierten geholfen haben, sich auf Kosten der Allgemeinheit zu bereichern. So gab es eine Liste der 2600 Schwarzgeldkonten von Griechen bei der Schweizer Filiale der Großbank HSBC. „Doch an diesem Punkt“, so berichtet die Anwältin und heutige Parlamentspräsidentin Zoi Konstantopoulou, machte die Troika keinen Druck. „Im Gegenteil, der IWF-Vertreter im Finanzministerium hat den Beamten sogar abgeraten, diese Fälle zu untersuchen“, erfuhr sie von Zeugen in einem Untersuchungsausschuss zum Thema. Publikationen. Seit März 2002 publiziert der IWF den vierteljährlich erscheinenden "Global Financial Stability Report", der die vorherigen Publikationen "International Capital Markets" (jährlich seit 1980) und "Emerging Market Financing" (vierteljährlich seit 2000) ablöste. Im Vorwort der ersten Ausgabe des "Global Financial Stability Report" im März 2002 schrieb der damalige geschäftsführende Direktor Horst Köhler: "„Die Erfahrungen mit der schnellen Ausdehnung der Finanzmärkte während des vergangenen Jahrzehnts haben die Bedeutung einer laufenden Bewertung der privaten Kapitalflüsse unterstrichen, die zugleich Motor des weltweiten wirtschaftlichen Wachstums und manchmal das Zentrum von krisenhaften Entwicklungen sind.“" Seit März 1996 veröffentlicht der IWF vierteljährlich die Zeitschrift "Finance and Development". Ingwergewächse. Die Ingwergewächse (Zingiberaceae) sind eine Familie in Ordnung der Ingwerartigen (Zingiberales) innerhalb der Einkeimblättrigen Pflanzen (Monokotyledonen). Die Familie enthält je nach Quelle 52 oder 53 Gattungen und ist mit 1200 bzw. über 1300 Arten die größte Familie der Zingiberales. Einige Arten werden als Gewürz- und Heilpflanzen vom Menschen genutzt, zum Beispiel Ingwer, Curcuma und Zitwerwurzel. Viele Arten sind tropische Zierpflanzen. Erscheinungsbild und Laubblätter. Es sind immergrüne, ausdauernde krautige Pflanzen. Sie bilden fleischige Rhizomen, die knollig verdickt sein können; bei vielen Arten bilden sie Wurzeln. Sie wachsen meist terrestrisch, selten epiphytisch. Es werden nur kurze Stängel gebildet, die bei vielen Arten durch Scheinstämme, die von den Blattscheiden der Laubblätter gebildet werden, ersetzt sind. Die wechselständig und zweizeilig (distich) angeordneten Laubblätter sind nie zu grundständigen Rosetten vereinigt. Auch die Stellung der Blätter unterscheidet die beiden Familien Costaceae und Zingiberaceae. Die gestielten bis sitzenden Laubblätter besitzen eine einfache Blattscheide. Die ungeteilten Blattspreiten sind krautig bis ledrig, mit oder ohne Haare. Im knospigen Stadium ist die Blattspreite der Länge nach eingerollt. Es ist eine erhabene Mittelrippe und Parallelnervatur vorhanden. Der Blattrand ist glatt. Es sind meist Ligulae vorhanden. Die untersten Blätter sind oft stark reduziert, so dass nur noch die Blattscheide ausgebildet ist. Blütenstände und Blüten. Endständig an den Scheinstämmen oder auf eigenen kurzen von Blattscheiden bedeckten Stängeln, die direkt aus den Rhizomen hervorgehen, werden die Blütenstände gebildet. Die Blütenstände sind dickkopfige bis schmal ährige Thyrsen, oder es sind aus zwei- bis siebenblütigen Zymen zusammengesetzte traubige Blütenstände. Die Blütenstände enthalten oft auffällig, leuchtend gefärbte Hochblättern (Brakteen) und wenige bis viele Blüten. Die zwittrigen Blüten sind dreizählig und zygomorph. Das Perianth ist doppelt. Die drei Kelchblätter sind zu einer relativ schmalen Röhre verwachsen, die auf einer Seite offen ist, manchmal spathaähnlich wirkt oder oben dreizähnig oder -lappig ist. Die drei Kronblätter sind an ihrer Basis untereinander verwachsen; die drei Kronlappen unterscheiden sich je nach Taxon sehr in Länge und Form. Es sind zwei Kreise mit ursprünglich je drei Staubblättern vorhanden. Nur das mittlere Staubblatt des inneren Kreises ist fertil; es besitzt einen langen oder kurzen Staubfaden. Alle anderen Staubblätter sind zu Staminodien reduziert und mindestens eines oder drei fehlen. Die beiden seitlichen Staminodien des äußeren Kreises sind kronblattähnlich oder bilden schmale Zähne an der Basis des Labellum, mit dem sie verwachsen sein können, oder sie fehlen. Das mittlere Staminodium des äußeren Kreises fehlt immer. Die beiden seitlichen Staminodien des inneren Kreises sind zu einem sogenannten Labellum verwachsen; es stellt den auffälligsten Teil der Blüte dar. Drei Fruchtblätter sind zu einem unterständigen (synkarpen) Fruchtknoten verwachsen, der ein- oder dreikammerig sein kann, mit mehr oder weniger vielen Samenanlagen je Fruchtknotenkammer. In einer Furche des Staubfadens befindet sich der sehr dünne Griffel und die Narbe befindet sich oberhalb des Staubbeutels. Die Blüten scheiden relativ viel Nektar ab aus zwei Nektarien, die sich an der Basis des Fruchtknotens befinden. Die einzelnen Blüten verwelken schnell, meist sind sie weniger als einen Tag geöffnet. Die Bestäubung erfolgt durch Insekten (Entomophilie) oder Vögel (Ornithophilie). Früchte und Samen. Sie bilden trockene bis fleischige Kapselfrüchte bis manchmal beerenartige Früchte, die wenige bis viele Samen enthalten. Die Samen enthalten Stärke. Der gerade Embryo besitzt ein Keimblatt (Kotyledon). Die Samen besitzen einen Arillus, der oft gelappt bis gefranst ist. Inhaltsstoffe und Chromosomenzahl. Alle Arten besitzen Exkretzellen im Grundgewebe, die essentielle oder ätherische Öle enthalten. Es wird Kieselsäure in kleinen kugel- oder scheibenförmigen Körpern in Deckzellen oder als Kieselsand in Parenchymzellen akkumuliert. Die Chromosomenzahl beträgt meist n = 12 (9–26). Systematik und Verbreitung. Die meist tropischen Arten sind meist in der Paläotropis beheimatet und kommen schwerpunktmäßig in Südostasien und auf dem indonesischen Archipel vor. Nur von der Gattung "Renealmia" sind Arten in der Neotropis beheimatet. Vier Gattungen kommen in Afrika vor: "Aframomum", "Aulotandra", "Siphonochilus" und "Renealmia". Der Familienname Zingiberaceae wurde 1820 von Iwan Iwanowitsch Martynow in "Tekhno-Botanicheskīĭ Slovar': na latinskom i rossīĭskom iazykakh. Sanktpeterburgie", S. 682 und im September 1835 von John Lindley in "Key Bot.", 69 veröffentlicht. Typusgattung ist "Zingiber" Der Gattungsname "Zingiber" leitet sich aus einem Wort des Sanskrit "sringavera" ab und bedeutet hornförmig, dies bezieht sich auf die Rhizome. Synonyme für Zingiberaceae sind Alpiniaceae, Amomaceae, nom. illeg., Curcumaceae Früher gehörten auch die Taxa der heutigen Familie Costaceae in die Familie der Zingiberaceae, aber beispielsweise das Fehlen von ätherischen Ölen und die Stellung der Laubblätter grenzt sie gut ab. Nutzung. In der Familie der Zingiberaceae gibt es eine große Anzahl von Arten aus 47 Gattungen mit medizinisch nutzbarem Potenzial. Einige Arten werden, besonders in den asiatischen Küchen, als Gewürz verwendet, dabei besonders die Rhizome. Wenige Arten werden als Gemüse oder Salat gegessen. Mehrere Arten liefern Ausgangsstoffe für die Parfümindustrie. Von vielen Arten werden Sorten als Zierpflanzen verwendet. Immunsystem. Als Immunsystem (lat. ' ‚unberührt‘, ‚frei‘, ‚rein‘) wird das biologische Abwehrsystem höherer Lebewesen bezeichnet, das Gewebeschädigungen durch Krankheitserreger verhindert. Es entfernt in den Körper eingedrungene Mikroorganismen, fremde Substanzen und ist außerdem in der Lage, fehlerhaft gewordene körpereigene Zellen zu zerstören. Das Immunsystem ist ein komplexes Netzwerk aus verschiedenen Organen, Zelltypen und Molekülen und der zentrale Forschungsgegenstand der Immunologie. Das Immunsystem hat eine große Bedeutung für die körperliche Unversehrtheit von Lebewesen, denn praktisch alle Organismen sind ständig den Einflüssen der belebten Umwelt ausgesetzt; manche dieser Einflüsse stellen eine Bedrohung dar: Wenn schädliche Mikroorganismen in den Körper eindringen, kann dies zu Funktionsstörungen und Krankheiten führen. Typische Krankheitserreger sind Bakterien, Viren und Pilze, sowie einzellige (z. B. Protozoen wie Plasmodien) beziehungsweise mehrzellige Parasiten (z. B. Bandwürmer). Auch Veränderungen im Inneren des Körpers können die Existenz eines Lebewesens bedrohen: Wenn normale Körperzellen im Laufe der Zeit ihre gesunde Funktion verlieren, dann sterben sie meist ab und müssen abgebaut werden (Nekrose) oder bauen sich dabei selbst ab (Apoptose). In seltenen Fällen können sie auch krankhaft entarten und zur Entstehung von Krebs führen. Alle Lebewesen verfügen daher über Schutzfunktionen. Schon einfache Organismen besitzen einen solchen Abwehrmechanismus, die so genannte "Angeborene Immunantwort". Sie entstand bereits sehr früh in der Stammesgeschichte der Lebewesen und wurde seitdem weitgehend unverändert beibehalten. Die Wirbeltiere entwickelten zusätzlich eine komplexe, anpassungsfähige, so genannte "adaptive Immunabwehr", die sie noch effektiver vor Krankheitserregern schützt. Die pflanzliche Immunantwort hat Ähnlichkeiten mit der angeborenen Immunantwort bei Tieren. Pflanzen besitzen keine adaptive Immunantwort, also auch keine T-Zellen oder Antikörper. Einteilung. Es gibt zwei grundlegend verschiedene Mechanismen der Immunabwehr, je nachdem, ob diese angeboren und daher in gewisser Weise (vgl. aber unten: "bow-tie-architecture") erregerunspezifisch, oder ob diese erworben und daher erregerspezifisch ist. Angeborene oder unspezifische Immunabwehr. Schon sehr früh in der Stammesgeschichte der Lebewesen entwickelte sich die "unspezifische" oder "angeborene Immunabwehr" (engl. "„innate immunity“"). Dazu zählen anatomische und physiologische Barrieren wie Epithelien, aber auch zellvermittelte Gegenwehr durch Phagozytose, sowie allgemein entzündliche Reaktionen und das Komplementsystem. Die angeborene Immunantwort findet innerhalb von Minuten statt, ist aber durch die Erbinformation lebenslang festgelegt. Adaptive oder spezifische Immunabwehr. Die "spezifische" oder "adaptive Immunabwehr", früher auch „erworbenes Immunsystem“ genannt, entwickelte sich im Laufe der Phylogenese der Wirbeltiere aus der angeborenen Immunabwehr. Sie zeichnet sich durch die Anpassungsfähigkeit gegenüber neuen oder veränderten Krankheitserregern aus. Im Rahmen dieser Anpassung sind die Zellen der adaptiven Immunabwehr in der Lage, spezifische Strukturen (Antigene) der Angreifer zu erkennen und gezielt zelluläre Abwehrmechanismen und molekulare Antikörper zu bilden. Neben Antigenpräsentierenden Zellen (APC) wie Dendritischen Zellen, stellen zwei Gruppen von Zellen die wesentlichen Elemente der adaptiven Immunität dar. Die T-Lymphozyten, welche zum einen die zellvermittelte Immunantwort gewährleisten und zum anderen die B-Lymphozyten unterstützen, sowie die B-Lymphozyten selbst, die für die humorale Immunität verantwortlich sind, also für jene Abwehrmaßnahmen, die sich über sezernierte Antikörper gegen Eindringlinge in den Körperflüssigkeiten (Humores) richten. Nach der Infektion bleiben spezifische Antikörper und Gedächtniszellen erhalten, um bei erneutem Kontakt mit dem Krankheitserreger binnen kurzer Zeit eine angemessene Abwehrreaktion zu ermöglichen. Das adaptive Immunsystem ersetzt aber nicht das angeborene, sondern arbeitet mit diesem zusammen. Die verschiedenen Bestandteile des Immunsystems bedingen sich gegenseitig. Erst durch ein gut koordiniertes Zusammenspiel der angeborenen und adaptiven Immunabwehr wird die komplexe Immunreaktion des Körpers ermöglicht. Erst in den Jahren 2005–2007 wurde das CRISPR-Cas-System in vielen Bakterien und Archaeen entdeckt, welches ein vollständiges adaptives Immunsystem gegen Viren und mobile DNA darstellt. Zelluläre Bestandteile. neutrophiler Granulozyt wandert aus dem Blutgefäß in das Gewebe ein, sezerniert proteolytische Enzyme, um interzelluläre Verbindungen zu lösen (zur Verbesserung seiner Beweglichkeit) und phagozytiert Bakterien Die Zellen des Immunsystems zirkulieren in den Blutgefäßen und Lymphbahnen und kommen in den Geweben des Körpers vor. Dringt ein Krankheitserreger in den Körper ein, so können die Abwehrzellen ihn bekämpfen. Neutrophile Granulozyten, Monozyten/Makrophagen und dendritische Zellen können beispielsweise durch Aufnahme und Verdauung (Phagozytose) den Erreger selbst vernichten oder durch die Produktion von Immunmodulatoren und Zytokinen die Immunreaktion des Organismus steuern und andere Abwehrzellen zum Ort der Entzündung locken. Granulozyten. Granulozyten (von lat. "Granulum": Körnchen) machen den Großteil der weißen Blutkörperchen (Leukozyten) aus. Sie können die Blutbahn verlassen und ins Gewebe einwandern. Granulozyten haben in ihrem Zytoplasma zahlreiche Bläschen (Vesikel oder Granula genannt), die aggressive Stoffe enthalten, mit denen Krankheitserreger unschädlich gemacht werden können. Andere Stoffe (beispielsweise Histamin) spielen bei der Entzündungsreaktion und bei Allergien eine Rolle. Die unterschiedlichen Gruppen von Granulozyten werden nach ihrer Färbereaktion in der Giemsa-Färbung eingeteilt. Die Neutrophilen Granulozyten machen 40 bis 50 Prozent der zirkulierenden Leukozyten aus. Aktiviert durch Zytokine, die vom Ort der Infektion ausgesondert werden, wandern sie aus den Blutgefäßen in das betroffene Gewebe ein. Die Granula der Neutrophilen enthalten unter anderem saure Hydrolasen, Defensine (30 % des Inhalts), Myeloperoxidase und Proteasen, wie Elastase, Kollagenase, Neuramidase und Cathepsin G. Dieser „Cocktail“ ermöglicht es den Neutrophilen, sich einen Weg durch das Gewebe zu bahnen und zu den Bakterien vorzudringen. Dort sind sie in der Lage, Krankheitserreger (beispielsweise Bakterien) unter anderem durch Phagozytose zu vernichten. Eosinophile Granulozyten machen etwa 3-5 Prozent der Zellen im Differentialblutbild aus. Ihren Namen beziehen sie vom Farbstoff Eosin, mit dem sie angefärbt werden können. Auch Eosinophile sind zur Chemotaxis befähigt, d. h. sie können sich in Richtung eines Entzündungsortes fortbewegen. Eosinophile enthalten in ihren Granula basische Proteine, zum Beispiel das "Major Basic Protein", die sie nach Stimulation durch Antikörper der IgE-Klasse freisetzen. Eosinophile spielen eine wichtige Rolle bei der Parasitenabwehr; bei einem Befall mit Parasiten kommt es daher zu einer starken Vermehrung der Eosinophilen im Blut. Auch bei Allergien ist die Anzahl der Eosinophile im Blut erhöht, was darauf hinweist, dass die Eosinophilen auch bei dieser Erkrankung eine – wenig zuträgliche – Rolle spielen. Basophile Granulozyten besitzen zahlreiche grobe unregelmäßige Granula, die unter anderem Histamin und Heparin enthalten. Im Differentialblutbild machen sie nur einen geringen Anteil aus (Plättchenaktivierenden Faktor (PAF) aus. Über die physiologische Bedeutung der Basophilen besteht aber weitgehend Unklarheit. Makrophagen. Ein Makrophage nimmt ein Antigen auf, um es über seinen MHC-II-Komplex einer T-Helferzelle zu präsentieren. Diese initiiert daraufhin die adaptive Immunantwort. Makrophagen (Riesenfresszellen) stellen ebenfalls einen Teil der Patrouille des Immunsystems dar. Makrophagen reifen aus Monozyten (einkernige weiße Blutkörperchen = mononukleäre Leukozyten) heran, welche die Blutbahn verlassen. Makrophagen halten sich im Gewebe auf, dort erkennen und fressen (phagozytieren) sie eingedrungene Erreger. Können die Erreger nicht durch die Makrophagen allein bekämpft werden, so können Makrophagen die adaptive Immunabwehr aktivieren. Dazu werden die aufgenommenen Teile der Erreger im Inneren der Makrophagen in einzelne Peptide (Epitope) zerlegt und durch MHC-II-Moleküle auf der Oberfläche präsentiert. Der Makrophage wird also zu einer Antigen-präsentierenden Zelle. Die Antigene können erst dadurch von T-Helferzellen erkannt werden, die daraufhin eine adaptive Immunantwort initiieren, die letztendlich zur Vernichtung des Erregers führt. Makrophagen spielen außerdem bei der Bekämpfung und Beseitigung von schädlichen Substanzen und Abfallprodukten (beispielsweise Teer aus Zigarettenrauch in der Lunge) eine entscheidende Rolle, weshalb sie gelegentlich auch als „Müllabfuhr des Körpers“ bezeichnet werden. Natürliche Killerzellen. Die 1975 entdeckten Natürlichen Killerzellen (NK-Zellen) sind Teil der angeborenen Immunabwehr. Obwohl NK-Zellen keine antigenspezifischen Rezeptoren auf ihrer Oberfläche tragen, werden sie zu den Lymphozyten gezählt, da sie eine gemeinsame Vorläuferzelle im Knochenmark haben. NK-Zellen sind eine der ersten Verteidigungslinien im Kampf gegen Infektionen und Krebs, weil sie infizierte Zellen vernichten können, ohne vorher mit dem Krankheitserreger selbst in Kontakt gewesen zu sein. Sie verwenden dazu einen Mechanismus, der in den 1980er Jahren von dem schwedischen Immunologen Klas Kärre entdeckt wurde und als „Fehlendes Selbst“ (engl. „missing self“) bezeichnet wird. NK-Zellen erkennen unter anderem den MHC-I-Komplex, der auf nahezu allen gesunden Körperzellen vorkommt. Wird eine Zelle durch Viren infiziert oder wandelt sie sich in eine Tumorzelle um, so geht unter Umständen der MHC-I-Komplex auf der Oberfläche verloren. Das fein ausbalancierte Gleichgewicht von inhibierenden und aktivierenden Rezeptorsignalen wird dadurch zugunsten der NK-Zell-Aktivierung verschoben und die erkrankte Zelle fällt einer durch NK-Zellen ausgelösten Immunreaktion anheim. Dendritische Zellen. Dendritische Zellen sind Zellen des Immunsystems, die sich je nach Typ aus Monozyten oder Vorläufern der T-Zellen entwickeln. Sie nehmen als Fresszellen (Phagozyten) Krankheitserreger auf, wandern in den nächsten Lymphknoten, und stimulieren die adaptive Immunabwehr indem sie die Antigene des zerlegten Erregers an ihrer Oberfläche den T-Lymphozyten präsentieren. Es genügt eine dendritische Zelle, um 100 bis 3.000 Antigen-spezifische T-Zellen zu aktivieren. Dies macht sie effizienter als z. B. Monozyten. Dendritische Zellen sorgen auch für immunologische Toleranz gegenüber Selbstantigenen. Sie kommen vor allem in der Haut und in den Schleimhäuten vor. Neue Forschungen zeigen, dass dendritische Zellen auch mit B-Zellen und NK-Zellen interagieren. T-Lymphozyten. Die zytotoxische T-Zelle erkennt das Antigen, das durch den MHC-I-Komplex der infizierten Zelle präsentiert wird. Aktivierung der NK-Zelle durch Fehlen des MHC-I-Komplexes (Überwiegen der aktivierenden Stimuli) auf der infizierten Zelle. T-Lymphozyten, auch T-Zellen genannt, entstehen im Knochenmark aus den Lymphoblasten und wandern in den Thymus, wo sie ausreifen (daher das T, von Thymus-abhängig). T-Zellen tragen an ihrer Oberfläche einen T-Zell-Rezeptor (TCR), mit dem jede T-Zelle jeweils ein spezifisches Antigen erkennen kann (Schlüssel-Schloss-Prinzip). Im Gegensatz zu den B-Lymphozyten, die auch freie Antigene erkennen, erkennen T-Zellen nur Antigene, die im Komplex mit MHC-Molekülen auf den Oberflächen von körpereigenen Zellen präsentiert werden. Die unterschiedlichen Typen von T-Zellen werden eingeteilt nach den Proteinen auf ihrer Zellmembran, die gleichzeitig für die Funktionen der Zellen wichtig sind: T-Helferzellen tragen beispielsweise das CD4-Protein (die Abkürzung CD steht für engl. Cluster of differentiation), die zytotoxischen T-Zellen haben das CD8-Protein auf ihrer Oberfläche. T-Helferzellen. Die T-Helferzellen koordinieren die Immunreaktion. Sie erkennen über ihren spezifischen T-Zell-Rezeptor Antigene, die ihnen von den antigenpräsentierenden Zellen (dendritische Zellen, Makrophagen, B-Lymphozyten) auf MHC-II-Komplexen dargeboten werden. Diese Aktivierung veranlasst die T-Helferzelle sich zu teilen und ihre Botenstoffe freizusetzen: die Lymphokine der Zellen vom Subtyp TH1 führen dabei eher zur Verstärkung der zellulären Immunantwort, während TH2-Zellen mehr die Produktion von Antikörpern stimulieren. Regulatorische T-Zellen. Die Mitte der 1990er erstmals beschriebenen regulatorischen T-Zellen tragen neben dem CD4-Rezeptor noch andere Proteine an ihrer Oberfläche (CD25, FoxP3). Ihre Aufgabe ist die Modulation der Immunreaktion. Des Weiteren sind regulatorische T-Zellen vermutlich für die Unterdrückung einer überschießenden Immunantwort auf ansonsten 'harmlose' Antigene und Toleranzentwicklung gegen körpereigene Strukturen zuständig. Zytotoxische T-Zellen. Die zytotoxischen T-Zellen können Antigene erkennen, die ihnen mithilfe der MHC-I-Komplexe präsentiert werden – körpereigene Zellen, die durch Krankheitserreger (zum Beispiel Viren) befallen sind, melden so ihren Zustand an das Immunsystem. Die zytotoxischen T-Zellen heften sich dann mit ihren T-Zell-Rezeptoren an diese Körperzellen; bei diesem Vorgang spielt ihr CD8-Rezeptor eine entscheidende Rolle. Wenn sich noch weitere Rezeptoren, zum Beispiel der CD28-Rezeptor der zytotoxischen T-Zellen, an das fremde Eiweiß geheftet haben, beginnen sich die T-Zellen schnell zu vermehren, und schütten Substanzen aus, welche die infizierte oder krankhaft veränderte Zelle absterben lassen (sogenannte Apoptose, programmierter Zelltod). B-Lymphozyten. B-Lymphozyten, oder kurz B-Zellen, gehören ebenfalls zu den Leukozyten (weiße Blutkörperchen). Die Bezeichnung „B-Zellen“ stammte ursprünglich von ihrem Bildungsort in der "Bursa Fabricii" bei Vögeln. Bei Säugetieren entstehen die B-Zellen, wie alle anderen Abwehrzellen auch, im Knochenmark, daher erhielt der Buchstabe B hier nachträglich die Bedeutung "bone marrow" (engl. für Knochenmark). Bindet eine B-Zelle an den Stoff (Antigen), der zu ihrem Rezeptor passt, kann sie durch Lymphokine aktiviert werden, die von aktivierten T-Helferzellen ausgeschüttet werden. Die derart aktivierten B-Zellen können sich daraufhin zu antikörperproduzierenden Plasmazellen oder zu Gedächtniszellen entwickeln. B-Zellen sind im Gegensatz zu T-Zellen in der Lage, auch freie Antigene zu erkennen und sie einer Immunreaktion zuzuführen. Humorale Bestandteile. Die humoralen Bestandteile des Immunsystems (von lat. "humor" „Flüssigkeit“) bezeichnen verschiedene Plasmaproteine, die passiv im Blut, bzw. der Lymph- und Gewebsflüssigkeit zirkulieren. Sie sind im Gegensatz zu den Abwehrzellen nicht in der Lage, aktiv an den Ort einer Infektion zu wandern. Antikörper. Die einfachsten Antikörper, die der so genannten IgG-Klasse, bestehen aus zwei identischen schweren Ketten und zwei identischen leichten Ketten. Die "schweren Ketten" sind unter anderem für die Verankerung des Antikörpers auf der Oberfläche von Granulozyten zuständig; die "leichten Ketten" bilden zusammen mit den schweren Ketten die für die Erkennung eines spezifischen Antigens verantwortliche Antigendeterminante im Fab-Fragment. Durch somatische Rekombination, somatische Hypermutation und Kombination verschiedener leichter und schwerer Ketten können Antikörper mehr als 100 Millionen verschiedene "Fab"-Fragmente bilden und damit eine Unzahl verschiedener Antigene erkennen. Komplementsystem. Das Komplementsystem ist Teil der angeborenen Immunantwort, es besteht aus einer Gruppe von über 30 Plasmaproteinen mit ganz unterschiedlichen Eigenschaften. Ein Teil der zum Komplementsystem gehörenden Proteine sind zum Beispiel Proteasen, die sich an Mikroorganismen binden können und die Zellwände des Eindringlings schädigen, wodurch der Eindringling zerstört wird. Andere Proteine des Komplementsystems, die Anaphylatoxine, haben gefäßerweiternde Wirkung und fördern die Entzündungsreaktion. Viele Komplementfaktoren können außerdem Abwehrzellen zum Ort der Infektion locken und sind in der Lage, Fresszellen zu aktivieren, die die Eindringlinge dann verschlingen. Interleukine. Die zu den Zytokinen gehörenden Interleukine sind körpereigene Botenstoffe, die von den Zellen des Immunsystems gebildet werden. Man kennt heutzutage bereits eine große Zahl von Interleukinen (IL-1 bis IL-35; Stand November 2009), die jeweils auf ganz unterschiedliche Abwehrzellen wirken – manche regen beispielsweise Leukozyten zu Wachstum, Reifung und Teilung an oder sorgen für deren Aktivierung. Ablauf einer Immunreaktion. Falls Erreger die mechanischen Barrieren überwinden, mit denen sich der Körper vor einer Infektion schützt, so hängt der Ablauf der Immunreaktion davon ab, ob das Immunsystem bereits zuvor einmal einen Kontakt mit diesem bestimmten Erreger hatte. Bei einer Erstinfektion beginnt die Immunreaktion meist mit den antigenpräsentierenden Zellen, hierzu gehören z. B. Makrophagen oder dendritische Zellen; diese Zellen sind als Teil der angeborenen Immunabwehr in der Lage, typische Merkmale von Krankheitserregern zu erkennen, ohne zuvor mit diesem Erreger Kontakt gehabt zu haben. Sie können die Krankheitserreger aufnehmen (phagozytieren) und in ihrem Inneren einschließen – förmlich „fressen“, daher werden sie auch als Fresszellen bezeichnet. Anschließend präsentieren sie Bruchstücke der Erreger an ihrer Oberfläche den Zellen der adaptiven Immunabwehr (B- und T-Lymphozyten), die daraufhin in einen aktivierten Zustand übergehen. Einige Abwehrzellen können daraufhin die Erreger durch Phagozytose oder die Ausschüttung aggressiver Substanzen direkt abtöten, andere beginnen mit der Produktion von Antikörpern, die an die Erreger binden und diese einerseits bewegungsunfähig und damit unschädlich machen, andererseits sie für die Vernichtung durch weitere Abwehrzellen markieren. Nach der ersten Infektion mit einem Erreger bleiben die Antikörper und so genannte Gedächtniszellen erhalten, um bei einer erneuten Infektion wesentlich schneller und effizienter auf den Eindringling reagieren zu können. Ob nach einer Infektion tatsächlich auch eine Erkrankung auftritt, hängt von einem komplexen Wechselspiel des Immunsystems mit dem (ungebetenen) Gast ab. Eine Rolle spielen etwa die Menge der eingebrachten Erreger und deren krankmachenden Eigenschaften (Virulenz), sowie der Zustand des Immunsystems der betroffenen Person. So kann durch vorherigen Kontakt mit diesem Erreger bereits eine Immunität bestehen, die Erregerdosis oder -virulenz für einen Krankheitsausbruch zu gering sein oder das Immunsystem in der Lage sein, trotz Infektion Krankheitssymptome zu verhindern [inapparente Infektion oder stille Feiung (Immunisierung ohne Impfung oder Erkrankung)]. Bei intaktem Immunsystem und geringer Erregerdosis kann also eine Erkrankung wie beispielsweise eine Erkältung entweder überhaupt nicht ausbrechen oder einen weniger schweren Verlauf nehmen. Solange sich keine eindeutigen Symptome zeigen, kann der Verlauf einer Infektion kaum oder gar nicht vorhergesagt werden. Wenn ein Krankheitserreger oder eine Tumorzelle keine Immunantwort erzeugt, dem Immunsystem also entkommt, wird dies als Immunescape bezeichnet. Reifung und Alterung des Immunsystems. Das Immunsystem ist im Mutterleib und kurz nach der Geburt noch nicht in der Lage, effektiv Krankheitserreger zu bekämpfen. Der Fötus und Säugling ist daher auf die Schutzfunktion durch mütterliche Antikörper angewiesen (sog. Nestschutz), die er über die Plazenta, bzw. die Muttermilch aufnimmt. Bei vielen Säugetieren können Antikörper die Plazenta gar nicht passieren, die Aufnahme erfolgt dann über das Antikörper-reiche Kolostrum. Da die transplacentalen Antikörper im Blut des Babys mit einer Halbwertszeit von ungefähr 4 Wochen abgebaut werden, schützt diese passive Immunisierung lediglich 3 bis 4 Monate vor Infektion durch die meisten Keime. Stillen kann durch unspezifische IgAs, die sich den Schleimhäuten anlagern, noch etwas länger vor Infektionen der oberen Atemwege und Magen/Darmkeimen schützen. In den ersten Lebensmonaten beginnt das Immunsystem, sich auf die Abwehr von Krankheitszellen vorzubereiten. Dies geschieht durch einen Vorgang der negativen Selektion; das heißt, der Körper bildet zunächst durch zufällige genetische Rekombination viele Millionen unterschiedlicher Abwehrzellen, von denen eine jede ein anderes Antigen erkennen kann. Im Anschluss werden solche Zellen eliminiert, die eine Immunreaktion auf körpereigene Strukturen veranlassen würden (Diesen Vorgang fasst man unter dem Begriff Selbsttoleranz zusammen). Bei den T-Zellen geschieht dies im Thymus, der Reifungsstätte der T-Zellen. Hier differenzieren sich die T-Zellen in die verschiedenen Typen (wie CD4+ und CD8+ Zellen) und werden anschließend mit körpereigenen Substanzen konfrontiert. Wenn eine T-Zelle einen dazu passenden Rezeptor trägt und an die körpereigene Struktur bindet, stirbt die T-Zelle ab. Das Immunsystem lernt so „fremd“ von „eigen“ zu unterscheiden. Mit fortschreitendem Lebensalter steigert sich die Anfälligkeit des Menschen gegenüber Krankheiten und anderen Störungen wieder. Dies liegt vor allem daran, dass sich im Alter die Bildung von B- und T-Lymphozyten verringert. Des Weiteren sind die Abwehrzellen insgesamt weniger aktiv, was zu einer Schwächung der Immunabwehr führt, einhergehend mit erhöhtem Infekt- und Krebsrisiko. (→ "siehe Hauptartikel Immunoseneszenz") Störungen und Erkrankungen des Immunsystems. Wie bei allen biologischen Systemen können sich auch beim Immunsystem Fehler einschleichen. So kann das Immunsystem seine Fähigkeit verlieren, auf Erreger oder körpereigene Zellen angemessen zu reagieren: je nach Ursache der Störung kommt es entweder zu einer zu schwachen oder gar fehlenden Immunantwort oder zu einer zu starken, überschießenden Immunreaktion. Auch die Zellen des Immunsystems können maligne entarten und eine Krebserkrankung auslösen. Ebenso wird ein Einfluss von depressiven Störungen, Stress und anderen psychischen Erkrankungen auf das Immunsystem vermutet. Krebserkrankungen des Immunsystems. Auch die Zellen des Immunsystems können bösartig entarten und so zu Krebserkrankungen führen, die meist den gesamten Körper befallen und sich vor allem in den Organen des Immunsystems abspielen und zur Abnahme der Immunabwehr und Verdrängung der normalen Blutbildung im Knochenmark führen. Durch die große Zahl unterschiedlicher Zellen und deren Vorläufer gibt es eine Vielzahl von verschiedenen Krebserkrankungen mit ganz unterschiedlichen Symptomen und Krankheitsverläufen, die aber grob in zwei Gruppen eingeteilt werden können: Geht der Krebs von den Vorläuferzellen im Knochenmark aus, so spricht man von Leukämien, die akut oder chronisch verlaufen können. Bösartige Tumoren der Lymphknoten nennt man Lymphknotenkrebs oder malignes Lymphom. Andererseits ist ein therapeutischer Ansatz bei Krebserkrankungen, die Krebsimmuntherapie, die Aktivierung des Immunsystems gegen Tumorzellen. Allgemeine Stärkung des Immunsystems. Die Redewendungen "Stärkung des Immunsystems" und "Stärkung der Abwehrkräfte" werden häufig als Claim in der Werbung für Nahrungsergänzungsmittel, Functional Food und alternativmedizinische Heilmittel verwendet. So nimmt auch das Heilfasten für sich in Anspruch, das Immunsystem zu stärken. Problematisch sind hierbei fehlende medizinische Definitionen dafür, was unter "Stärkung" zu verstehen ist. Solche Verweise auf allgemeine, nichtspezifische Vorteile eines Produkts sind nach EU-Recht laut Artikel 10 Absatz 3 der Health-Claims Verordnung verboten, sofern ihnen nicht eine durch die Europäische Behörde für Lebensmittelsicherheit genehmigte spezielle gesundheitsbezogene Angabe beigefügt ist. Für eine Aufnahme in die entsprechende Positivliste genehmigter Angaben muss die Art und Weise, in der das Produkt auf das Immunsystem wirkt, angegeben und die Wirksamkeit wissenschaftlich belegt werden. Ein gesundes und kräftiges Immunsystem kann Menschen dabei helfen, diverse Krankheitserreger zu bekämpfen und manchmal damit auch einen Krankheitsausbruch zu verhindern oder Krankheitssymptome zu mildern, beziehungsweise den Krankheitsverlauf zu verkürzen. Als Grundlage für ein gesundes Immunsystem gelten eine ausgewogene Ernährung des Menschen, die alle für den Organismus notwendigen Stoffe wie beispielsweise Mineralstoffe (besonders Eisen, Zink und Selen) und Vitamine enthält, und ausreichend Schlaf; des Weiteren sollte lange andauernder (chronischer) Stress vermieden werden. Auch Methoden aus dem Fitness- und Wellnessbereich werden als Maßnahmen zur "Steigerung der Immunfunktion" beworben, was dann in Einzelfällen mit Studien zu speziellen Funktionen des Immunsytems belegt werden soll. Beispiele hierfür sind: sportliches Ausdauertraining, sowie regelmäßige Abhärtung, zum Beispiel durch Saunieren und Anwendung von Kneippschen Güssen. Psychotherapeutische Verfahren, insbesondere Methoden zur Stressbewältigung können die Immunabwehr stärken. Die klinische Hypnotherapie hat suggestive Methoden zur "Unterstützung des allgemeinen Immunsystems" sowie zur Behandlung einzelner Immunerkrankungen entwickelt. Sonnenlicht und Immunsystem. Sonnenlicht kann das Immunsystem stärken. Bereits vor mehr als 100 Jahren war das tägliche Sonnenbad ein fester Bestandteil der Tuberkulosetherapie (allerdings in Ermangelung von Antibiotika, die erst um 1930 entdeckt und nach 1940 am Menschen erprobt wurden). Die Forschung konnte den zugrundeliegenden Mechanismus darstellen: Bestimmte Abwehrzellen besitzen auf ihrer Oberfläche einen so genannten Toll-like Receptor; dieser wird bei einer Bakterieninfektion aktiviert und veranlasst die Abwehrzelle, eine Vorstufe von Vitamin D (25-hydroxyvitamin D) zu produzieren. Gleichzeitig bildet dieselbe Zelle verstärkt einen weiteren Rezeptortyp aus, der auf die Erkennung von Vitamin D spezialisiert ist. Das Sonnenlicht wandelt die Vitamin-D-Vorstufe in das aktive Vitamin D um, welches sich nun an den Rezeptor heftet. Dadurch wird die Abwehrzelle dazu angeregt, das antibakteriell wirkende Cathelizidin zu bilden. Der Zusammenhang erklärt auch, warum Menschen mit dunkler Haut für Infektionen wie beispielsweise die Hauttuberkulose besonders empfänglich sind: In ihrem Blut finden sich in der Regel deutlich geringere Mengen der Vitamin-D-Vorstufe, wobei zusätzliche Einnahme von Vitamin-D-Präparaten zur Stärkung des Immunsystems den Mangel leicht ausgleichen kann. Eine Schwächung des Immunsystems kann eine Folge der immunsuppressiven Wirkung der UV-B-Strahlen sein, die die T-Zell-abhängige Immunantwort stört. Eine übermäßige UVB-Belastung der Haut fördert die Entwicklung von bösartigen Hauttumoren wie Basalzellkarzinomen und Plattenepithelkarzinomen und mindert die Abwehr von Krankheitserregern wie Bakterien, Pilzen oder Viren deutlich. Auch durch Parasiten hervorgerufene Erkrankungen wie die Leishmaniose, Bilharziose oder Malaria verlaufen schwerer und länger nach UV-Exposition. Impfung. Die Impfung ist eine Methode zur Stärkung des Immunsystems und eine vorbeugende Maßnahme gegen bestimmte Infektionskrankheiten. Bei der aktiven Immunisierung, der häufigsten Form der Impfung, wird das Immunsystem zur Bildung einer Immunkompetenz angeregt, ohne die Erkrankung selbst auszulösen. Hierzu werden abgeschwächte Erreger, tote Erreger oder bestimmte typische Eiweißstoffe (Proteine) und Zuckermoleküle, also Bruchstücke des Erregers, als Impfstoffe in den Körper eingebracht. Die Reaktion des Organismus auf diese Antigene führt zur Bildung spezifischer Antikörper und Gedächtniszellen, die weiterhin im Blut und den Lymphbahnen zirkulieren, wodurch der Schutz gegen diese Antigene lange erhalten bleibt. Falls der Körper erneut mit dem Erreger in Kontakt kommt, hat er durch die Gedächtniszellen eine sehr viel effizientere und schnellere Immunantwort zur Verfügung, die die Erreger bekämpft, bevor es zu einer Erkrankung kommt. Immunsuppression. In manchen Situationen ist eine Immunsuppression, also eine medikamentöse Hemmung oder sogar komplette Unterdrückung der Immunantwort notwendig. Dies ist zum Beispiel der Fall bei Patienten, die ein fremdes Organ als Transplantat erhalten haben. Auch bei Autoimmunerkrankungen (inklusive Erkrankungen des rheumatischen Formenkreises) und Allergien ist manchmal eine Immunsuppression notwendig. Das am längsten bekannte immunsuppressive Medikament ist Cortison, die Vorstufe des körpereigenen Hormons Cortisol. Neuere Wirkstoffe wie Tacrolimus oder Cyclosporin A sind jedoch teilweise deutlich wirksamer und/oder haben geringere Nebenwirkungen. Das Immunsystem schädigende Faktoren. Abgesehen vom Altern gibt es weitere Faktoren, die die Funktion des Immunsystems schädigen und herabsetzen können. Dazu zählen unter anderem eine starke gesundheitliche Beeinträchtigung durch Vorschädigung wie beispielsweise bei chronischen Erkrankungen, eine medikamentöse Immunsuppression wie beispielsweise nach Organtransplantationen, Drogenmissbrauch (auch Nikotin und Alkohol), eine Mangelernährung und damit verbundene Unterversorgung auch mit Vitaminen und Spurenelementen, eine ungesunde oder unausgeglichene Ernährung, die Aufnahme von Umweltgiften aus der Umgebung, die Einwirkung von ionisierender Strahlung, andauernder Stress, zu wenig Schlaf, Bewegungsmangel und auch eine übermäßige Kälteeinwirkung im Sinne von längerer Auskühlung oder gar Unterkühlung (Hypothermie). Im Sport kommt es nach erschöpfenden Belastungen zur vorübergehenden Beeinträchtigung der Abwehrfunktion, die als Open-Window-Phänomen bekannt ist. Eine Kombination von mehreren Faktoren kann natürlich eine verstärkte Belastung für das Immunsystem darstellen. Auch psychologische Faktoren wie Stress beeinträchtigen das Immunsystem. Stress führt dazu, dass allgemein physiologische Prozesse heruntergefahren werden, welche in hohem Maße Energie erfordern, jedoch nicht für das kurzfristige Überleben notwendig sind. Dazu zählt auch das Immunsystem. Die immunsuppressive Wirkung von Stress wird über die Ausschüttung von Glucocorticoiden (beim Menschen insbesondere Cortisol) aus der Nebennierenrinde bedingt, welche wiederum durch Adrenocorticotropin aus dem Vorderlappen der Hypophyse angestoßen wird, welches wiederum die Produktion von Zytokinen hemmt. Im Falle von chronischem Stress kommt es zu einer Einschränkung des Adaptiven Immunsystems, das seine beschützende Funktion via T- und B-Zellen ausübt. Evolution. Die komplexe Wechselbeziehung zwischen dem Wirtsorganismus und den Erregern kann unter evolutionären Gesichtspunkten als ein „Angreifer-Verteidiger-System“ angesehen werden. Durch die Abwehrmaßnahmen des Immunsystems kommt es zu einem starken Selektionsdruck, unter dessen Einfluss sich die Erreger immer besser an den (menschlichen) Organismus anpassen müssen, um weiter fortzubestehen. Gleichzeitig üben Krankheitserreger oder Parasiten einen Selektionsdruck auf das Immunsystem des Wirts aus, so kann es zu einer Koevolution von Parasit und Wirt kommen, die zu einer Symbiose führen kann. Dann können die ehemaligen Erreger den Wirt für ihre Vermehrung nutzen, ohne ihn zu schädigen. Ein Beispiel für eine solche erfolgreiche Koevolution sind die Mitochondrien, welche ehemals als körperfremder Schädling in die Zellen von Eukaryoten eindrangen und die sich im Laufe der Jahrmillionen zu einer wichtigen Zellorganelle entwickelten. Bei Infektionen mit Krankheitserregern, welche an den Menschen als ihren Reservoirwirt angepasst sind, kann eine Erkrankung – bei intaktem Immunsystem und geringer Erregerdosis – entweder überhaupt nicht ausbrechen oder einen weniger schweren Verlauf nehmen. Bei Infektionen mit an den Menschen nicht oder nur wenig angepassten Erregern hängt es von vielen Faktoren (Zustand des Immunsystems, Aggressivität der Erreger) ab, wie schwer eine Erkrankung verläuft und wie lange sie dauert oder ob der Erkrankte an den Folgen der Infektion sogar verstirbt. Die Höhe der durchschnittlichen Letalität einer Erkrankung lässt nach dieser Theorie beispielsweise Rückschlüsse zu, wie gut oder schlecht Krankheitserreger an den Menschen angepasst sind. Durch diese evolutionäre Betrachtungsweise lassen sich viele Vorgänge der Immunologie besser verstehen und interessante Erkenntnisse zur Stammesgeschichte der Erreger gewinnen. In vielen wissenschaftlichen Studien wurden Hinweise für die Richtigkeit dieser Betrachtungsweise gefunden, es gibt jedoch auch noch genauso viele widersprüchliche Ergebnisse, so dass diese evolutionäre Theorie der Immunologie noch nicht abschließend bewertet werden kann. Einfluss auf die Partnerwahl. Untersuchungen mit Tieren am Max-Planck-Institut für Immunbiologie erbrachten unter anderem Hinweise auf einen Zusammenhang zwischen dem individuellen Immunsystem eines Lebewesens und der Partnerwahl. Über den Geruchssinn kann die genetische Individualität und Verschiedenheit erfasst und bewertet werden. Die Untersuchungen ergaben: MHC-Peptide erlauben dem Immunsystem, durch die Analyse der MHC-Peptidkomplexe an der Zelloberfläche durch die T-Zellrezeptoren Information über den Status von einzelnen Zellen zu erlangen. Und die Analyse der Struktur dieser Peptide ermöglicht über olfaktorische Neuronen Informationen über den genetischen Status eines Gegenübers zu gewinnen. Dies ist möglich, weil die Struktur der Ankerreste von Peptiden Rückschlüsse auf die Struktur von MHC-Molekülen und damit Rückschlüsse auf die Kodierungskapazität von Organismen erlauben. Italienische Küche. Als italienische Küche wird die Gesamtheit der spezifisch italienischen Gerichte bezeichnet. Die italienische Küche besteht aus einer Vielzahl von regionalen Küchen, und bedingt durch die geografische Lage und lange Kochtradition kann sie auf eine Vielzahl von Zutaten und Spezialitäten zurückgreifen. Historisch unterscheidet man vor allem zwischen der ' (womit die exklusive Kochtradition der höheren Stände seit der Renaissance bezeichnet wird) sowie der ' (der regionalen bäuerlichen und städtischen Küche). International bekannte Produkte sind zum Beispiel italienisches Olivenöl, diverse Käsesorten (zum Beispiel Parmesan, Mozzarella, Gorgonzola), Wurst und Fleischerzeugnisse (wie Mortadella, Salami, San-Daniele-Schinken, Parmaschinken) und natürlich Pasta und Pizza. Dazu kommt das reichhaltige einheimische Weinangebot (zum Beispiel Chianti und Barolo). In Italien ist üblicherweise das Abendessen die Hauptmahlzeit, die aus einer Vorspeise (Antipasto), zwei Hauptgängen und der Nachspeise besteht. Regionalküchen. Italien ist ein großes Land mit unterschiedlichen klimatischen und geografischen Verhältnissen und mit verschiedenen Volksgruppen. Die einzelnen Regionen hatten eine oft voneinander unabhängige historische Entwicklung. Diese Umstände bringen es mit sich, dass die einzelnen Regionen – oft sogar einzelne Städte und Orte – verschiedenste kulinarische Spezialitäten hervorgebracht haben und sich die regionalen Küchen so sehr unterscheiden, so vielfältig sind, dass eigentlich von einer „italienischen Küche“ gar nicht gesprochen werden kann. Friaul ("siehe: Friaulische Küche"), Venetien, Trentino-Südtirol ("siehe: Trentino-Südtirols Küche"), die Lombardei, Aostatal, Piemont, Ligurien ("siehe: Ligurische Küche"), Emilia-Romagna, die Toskana ("siehe: Toskanische Küche"), Umbrien, Marken, Latium mit der Hauptstadt Rom, die Abruzzen mit Molise, Kampanien, Apulien, die Basilicata, Kalabrien und die Regionalküchen der beiden Inseln Sizilien ("siehe: Sizilianische Küche") und Sardinien. Italienische Menüfolge. Auch im privaten Alltag werden in allen italienischen Regionen die Speisen zum Mittag- und Abendessen in der Regel in zwei Gänge aufgeteilt, den kohlenhydratbetonten ' ‚Erster Gang‘ und den eiweißreichen ' ‚Zweiter Gang‘. Dazu werden oft kalte oder warme ' ‚Vorspeisen‘ und meist ' ‚Desserts‘ gereicht. Die Essensfolge wird meist mit einem Espresso abgeschlossen. Bei festlichen Anlässen werden zu den vier Gängen oft verschiedene Gerichte zur Auswahl oder nacheinander gereicht. Vor den Hauptgängen ist es in Italien üblich, verschiedene kleine, meist leichte Gerichte zu servieren. Im größeren Rahmen beginnt man mit kalten Antipasti, worauf warme Antipasti folgen. Dabei gibt es eine große und regional unterschiedliche Vielfalt an Gerichten. In Küstengebieten werden oft Antipasti auf Basis von Meeresfrüchten gereicht, während ansonsten Wurst- und Schinkenaufschnitt üblich sind. Anders als in anderen Ländern zählt auch Käse zu den Antipasti. Zusätzlich gibt es zahlreiche Vorspeisengerichte, die auf Gemüse basieren. Der erste Hauptgang besteht zumeist aus einem Pasta- oder Gnocchi-Gericht. Vor allem im Norden Italiens wird oft ein Risotto serviert. Auch verschiedene Suppen – ', ' oder ' – können als erster Gang serviert werden. Zu den "primi piatti" werden ebenfalls Salate aus Pasta oder Reis gezählt. Der zweite Hauptgang ist entweder ein Fleisch-Gericht oder eines mit Fisch oder anderen Meerestieren. Auch Frittiertes, z. B. gebratene Steinpilze ('), Käse- oder Eigerichte können als "secondo piatto" gereicht werden. Pizza. Die Pizza wird meist als alleiniger Gang verzehrt ('). Pastagerichte. Ragù alla bolognese isst man in Italien seit jeher mit Bandnudeln. Reisgerichte. Reisgerichte ("Risotti") sind vor allem in Norditalien sehr beliebt, vor allem in der Lombardei und der Region um Venedig. Fischgerichte. Orata al Cartoccio (Goldbrasse in der Folie zubereitet) Salumi. ' ist das italienische Wort für Wurstwaren (vergl. "Salumeria"), aber einschließlich anderer Pökelwaren Käse. Italien gilt als eines der Länder mit den meisten Käsesorten und langer Tradition in Herstellung und Verarbeitung, siehe Käse aus Italien. Backwaren. Focaccia mit Kräutern und Oliven Weine. Brunello di Montalcino, sortenrein, basierend auf einer Sangiovese-Unterart Der Weinbau in Italien hat eine lange Tradition und jede Region ihre eigenen Weine. Es gibt über 350 Rebsortenvarietäten. Aufgrund der verschiedenen klimatischen Bedingungen bestehen große geschmackliche Unterschiede zwischen den Weinen, die dementsprechend den regionalen Charakter der unterschiedlichen Küchen bereichern. Qualitativ wird zwischen Qualitätswein und Landwein unterschieden und ausgezeichnet. Mehr als ein Fünftel aller in Italien angebauten Rebsorten sind autochthon. Zu den berühmtesten gehören Sangiovese sowie Nebbiolo. Der Charakter des Weins entscheidet, zu welchem Gang er serviert wird. Der toskanische Vin Santo ist zum Beispiel ein Dessertwein. In Italien werden neben Stillweinen (') auch Perl- (') und Schaumweine (') gekeltert. Aperitifs. Zu den bekanntesten Getränken, die in Aperitifs wie dem Spritz gemischt werden, gehören Campari, Cinzano und Aperol. Kaffee. Im 16. Jahrhundert war der Kaffee auf italienischsprachigem Territorium ein Getränk der Avantgarde bspw. auf dem Campus der Universität Padua. Im Jahr 1600 verfügte Papst Clemens VIII., dass der Kaffee ein für Christen geeignetes Getränk sei. Daraufhin hatten ihn die Straßenhändler, die auch Limonade führten, im Angebot. Das erste nachzuweisende Kaffeehaus italienischer Art wurde 1683 in Venedig eröffnet. Typische italienische Kaffeespezialitäten sind: Caffè Corretto, Caffè Latte, Latte Macchiato, Espresso, Cappuccino. Accademia Italiana della Cucina. 1953 wurde in Mailand auf Initiative Orio Verganis die ' gegründet. Diese möchte das Wissen um die italienische Küche und Tischkultur bewahren und an die folgenden Generationen weitergeben. Hierzu organisiert sie Versammlungen und Tagungen, hat das Studienzentrum "Franco Marenghi" eingerichtet und verleiht Preise sowie Auszeichnungen. Die Akademie gibt die monatlich erscheinende Zeitschrift ' heraus. Associazione Slow Food. Ein weiteres Projekt um zunächst u. a. die italienische Kochkunst zu erhalten, die "Associazione Slow Food", wurde 1986 in Bra von Carlo Petrini gegründet. Mittelmeerküche. Gemeinsam mit den Regierungen Spaniens, Griechenlands und Marokkos hat die italienische Regierung bei der UNESCO den Antrag gestellt, die Mittelmeerküche in das immaterielle Kulturerbe aufzunehmen. Im November 2010 wurde dieser Antrag positiv beschieden. Darmverschluss. Der Ileus (latinisierte Form des griechischen ', von altgriechisch εἰλέιν ' „einschließen, zusammendrängen“), deutsche Bezeichnungen Darmverschluss oder Darmlähmung ist eine Unterbrechung der Darmpassage. Als lebensbedrohliches Krankheitsbild bedarf er im Allgemeinen einer sofortigen Krankenhauseinweisung und eventuell einer chirurgischen Intervention. Im Englischen wird oft der mechanische Ileus (Darmverschluss) als ' und nur der paralytische Ileus (Darmlähmung) als ' bezeichnet. Einteilung nach dem Darmabschnitt. Nach dem "Darmabschnitt", in dem der Verschluss auftritt, kann man in Dünndarmileus und Dickdarmileus unterteilen. Einteilung nach den Symptomen. Die Unterscheidung in Ileus und Subileus (Vorstufe des Ileus) richtet sich nach der Schwere des Aufstaus und der Symptomatik. Die Grenze zwischen den beiden Formen ist unscharf und nicht klar definiert, aber sie trennt aus pragmatischen Gründen beim mechanischen Ileus die Gruppe mit Indikation zur Operation von einer Gruppe mit konservativem Behandlungsversuch. Mechanischer Ileus. Torsionsileus, die Schnürfurche am Ileum ist gut zu sehen. Symptome. Die Symptome eines Darmverschlusses sind krampfartige Bauchschmerzen, ein aufgeblähter Bauch (Meteorismus), Erbrechen von Magen- und Darminhalt bis hin zum Koterbrechen (Miserere), Wind- und Stuhlverhalt. Im späten Stadium treten die Symptome der Peritonitis hinzu, weil Keime die Darmwand durchwandern. Gleichzeitig kommt es zu einer massiven Elektrolyt- und Wasserverschiebung in und um den Darm. Bakteriengiftstoffe und die Flüssigkeitsverschiebungen können zum Kreislauf- und Multiorganversagen führen. In seinen Auswirkungen auf den ganzen Körper spricht man von der "Ileuskrankheit". Diagnose. Die Körperliche Untersuchung einschließlich rektaler Untersuchung ergibt mit lokalen Schmerzen, Abwehrspannung, Hernien (Eingeweidebrüche) und Überblähung wichtige Hinweise. Zusätzlich erfolgen Blutentnahme zur Bestimmung von Laborwerten sowie Bildgebung mit Sonographie und eventuell Röntgen des Abdomens. Eine Unterscheidung zwischen mechanischem und paralytischem Ileus lässt sich in vielen Fällen sehr schnell durch Abhorchen des Abdomens herbeiführen. Während ein mechanischer Ileus sich durch Hyperperistaltik (verstärkte Darmtätigkeit und metallisch klingende Geräusche) bemerkbar macht, äußert sich der paralytische Ileus durch „Totenstille“ im Abdomen. Bild eines postoperativen (Sub-)Ileus im Ultraschall Bei Ileusverdacht liefert die Sonographie schnelle Hinweise: Man sieht eine typische "Pendelperistaltik", d. h. der Darminhalt pendelt hin und her. Auch findet man verbreiterte, übermäßig mit Luft oder Flüssigkeit gefüllte Darmschlingen. Man kann oft den Ort des Verschlusses eingrenzen. Darmabschnitte hinter einem mechanischen Hindernis sind kollabiert "(Hungerdarm)". Die Röntgenleeraufnahme des Bauchs im Stehen oder in Linksseitenlage zeigt beim typischen Ileus überblähte Darmschlingen mit Flüssigkeitsspiegeln als Hinweis auf den Ort eines Verschlusses. Je nach Befinden können durch einen Einlauf und/oder eine Passage mit Kontrastmittel Ort und Ursache eingegrenzt werden. Zusätzlich kann eine CT des Bauchs durchgeführt werden. Damit kann häufig die Ursache des Darmverschlusses gefunden werden. Differentialdiagnose. Von der langen Liste der Ileus-Ursachen müssen andere Krankheiten wie die "Pseudoobstruktion" Ogilvie-Syndrom, das Colon spasticum und Stoffwechselstörungen wie Porphyrie, Toxisches Megacolon oder Morbus Crohn abgegrenzt werden. Mitunter kann die Ursache eines Ileus nicht erkannt werden, sodass eine Bauchspiegelung erforderlich wird. Behandlung. Die Therapie richtet sich nach der zugrundeliegenden Ursache. Das gilt auch bei eventueller Operation für das anzuwendende Verfahren. Begleitende Maßnahmen dienen der Entlastung des Darmes wie Magensonde, eventuell parenterale Ernährung oder Einlauf. Implikation. Eine Implikation oder ein "Konditional" (von lat. "implicare" „ver-, einwickeln“) bezeichnet in der Logik Als Varianten vielleicht hervorzuheben sind die folgenden "deduktionsmäßigen" formalen Implikationen: die "intuitionistische Implikation" bzw. "Subjunktion" innerhalb der dialogischen Logik, sowie die "strenge Implikation" von Ackermann und die "strikte Implikation". Von Bruno von Freytag-Löringhoff und Albert Menne wurde die Implikation als hypothetisches Urteil formalisiert. Diese spezifischeren Deutungen können auch als "objektsprachliche" Implikationen bezeichnet werden, von diesen sind dann jeweils die "metasprachlichen" Implikationen zu unterscheiden, die "über" die logische Struktur dieser Sprachen sprechen. Dementsprechend kann ihnen eine noch engere Verbindung zum Ableitbarkeitsbegriff und dem Begriff der Schlussfolgerung zugesprochen werden. Unterschied zwischen objektsprachlicher und metasprachlicher Implikation. Die objektsprachliche Implikation (materiale Implikation, Konditional, Subjunktion) ist ein Aussagesatz, der mittels des Junktors „(schon) wenn …, dann …“ aus zwei kürzeren Aussagesätzen zusammengesetzt ist. Zum Beispiel ist „Wenn es regnet, dann ist die Straße nass“ eine materiale Implikation; diese Implikation sagt etwas über den logischen Zusammenhang der Sätze: Nämlich dass die Wahrheit des ersten Teilsatzes (Antezedens, auch "Antecedens") eine hinreichende Bedingung für die Wahrheit des zweiten Teilsatzes (Konsequenz) ist. Die metasprachliche Implikation ist hingegen eine Aussage "über Aussagen", eben eine "Metaaussage". Eine metasprachliche Implikation wäre die Aussage „Aus dem Satz ‚Es regnet‘ folgt der Satz ‚Die Straße ist nass‘“. Hier wird nichts über Regen, von Nässe oder von deren Zusammenhang ausgesagt, sondern hier wird über zwei Sätze der Objektsprache und ihr logisches Verhältnis gesprochen. Dabei kann auf ihre Bedeutung Bezug genommen werden (etwa: ob das, was der eine Satz aussagt, vorliegt, wenn das vorliegt, was der andere aussagt), oder nicht, so können zwei Sätze allein durch ihre logische Form miteinander verbunden sein (So kann man zum Beispiel sagen: Wenn formula_3, dann formula_4). Objektsprachliche Implikationen. Die objektsprachliche Implikation, ein Aussagesatz, der mittels des Junktors „(schon) wenn …, dann …“ aus zwei kürzeren Aussagesätzen zusammengesetzt ist, wird als "materiale Implikation", "Subjunktion" und "Konditional" bezeichnet. Wahrheitsfunktionale Implikation. In der klassischen Logik werden nur wahrheitsfunktionale Aussageverbindungen verwendet, das heißt nur solche, bei denen der Wahrheitswert der Aussagenverknüpfung allein von dem Wahrheitswert der Teilaussagen abhängt. Innerhalb eines Konditionals formula_1 wird die erste Aussage formula_4 unter anderem als Vordersatz, Antezedens oder Vorderglied bezeichnet, die zweite Aussage formula_10 unter anderem als Nachsatz, Hintersatz, Konsequenz, selten auch Sukzedens. Diese wahrheitsfunktionale objektsprachliche Implikation wird unter anderem "materiale Implikation", "Subjunktion" oder (zunehmend) "Konditional" genannt. Sie drückt die hinreichende Bedingung aus, das heißt, sie behauptet keinerlei kausalen oder sonstigen inhaltlichen Zusammenhang zwischen formula_14 und formula_15. Schon im Altertum wurde diskutiert, inwieweit und unter welchen Voraussetzungen das natürlichsprachliche „wenn …, dann …“ eine hinreichende Bedingung ausdrückt und damit der materialen Implikation entspricht; vor allem aber, ob und wie sich die anderen Bedeutungen des natürlichsprachlichen „wenn …, dann …“, zum Beispiel die kausale („A verursacht B“), analysieren lassen. Versuche, andere Bedeutung als die rein wahrheitsfunktionale („materiale“) Bedeutung des natürlichsprachlichen „wenn …, dann …“ zu analysieren, führen zu nichtklassischen Implikationen, zum Beispiel der "strikten Implikation" und der "intuitionistischen Implikation". Als "Symbol" für den Junktor wird in der formalen Sprache der Logik ein einfacher Pfeil formula_16, insbesondere im angelsächsischen Bereich in Anlehnung an die Peano-Russellsche Schreibweise auch die Kurve formula_17 („Hufeisen“, "„horseshoe“", „Bogenzeichen“ (Reichenbach)) verwendet, gelegentlich auch der Pfeil mit zwei Querstrichen formula_18. In der polnischen Notation wird für die materiale Implikation der Großbuchstabe "C" verwendet, sodass die Aussage „Wenn a, dann b“ als "Cab" geschrieben würde. Gottlob Frege drückt in seiner Begriffsschrift, der ersten Formalisierung der klassischen Prädikatenlogik, das Konditional „Wenn A, dann B“ durch aus. natürliche Sprache und materiale Implikation. Im Fall der materialen Implikation sagt man oft kurz: „Wenn a, dann b.“ Dieser Sprachgebrauch ist etwas unglücklich, weil die Formulierung „wenn …, dann …“ im Deutschen ein weites Bedeutungsfeld hat und mehrheitlich nicht für materiale, das heißt hier wahrheitsfunktionale, sondern für inhaltliche Zusammenhänge (Kausalität oder zeitliche Abfolge) verwendet wird. Solche Zusammenhänge lassen sich mit der materialen Implikation nicht ausdrücken. Zwischen der materialen Implikation und dem natürlichsprachlichen „wenn …, dann ...“ muss daher sehr genau unterschieden werden. Manchmal versucht man, durch Formulierungen wie „"Schon" wenn a, dann b …“ oder „a ist eine hinreichende Bedingung für b“ Missverständnisse zu vermeiden, die aus den vielen Bedeutungen des deutschen „wenn …, dann …“ resultieren können. Die Implikation zu (a) „Es regnet“ und (b) „Die Straße wird nass“ wäre damit die Aussage Alternative Formulierungen, die den materialen Charakter besser betonen, wären Die materiale Implikation ist genau dann "falsch", wenn das Antezedens "wahr" ist und das Sukzedens "falsch" ist. In jedem anderen Fall ist die Implikation "wahr". Das Konditional „Wenn es regnet, wird die Straße nass“ ist also nur dann falsch, wenn es regnet, die Straße aber nicht nass wird. Diese "Paradoxien der materialen Implikation" unterstreichen den extensionalen Charakter ("siehe" Junktor) der materialen Implikation: Sie behauptet keinerlei inhaltlichen Zusammenhang zwischen Antezedens (Wenn-Teil) und Sukzedens (es gibt auch tatsächlich keinen Zusammenhang zwischen der geographischen Lage von London und der Farbe von Schnee), vielmehr wird ihr Wahrheitswert rein extensional auf die Wahrheitswerte ihrer Teilsätze zurückgeführt: „Schon wenn das Antezedens wahr ist, ist das Sukzedens auch wahr.“ Zusammenhang mit der notwendigen Bedingung. Wie bereits erwähnt, drückt die materiale Implikation die hinreichende Bedingung aus. Von ihr zu unterscheiden ist die "notwendige Bedingung", die besagt, dass ein Sachverhalt erforderlich, aber eben nicht ausreichend dafür ist, dass ein anderer Sachverhalt eintritt. Die hinreichende und die notwendige Bedingung stehen in engem Zusammenhang. Wenn ein Sachverhalt A eine hinreichende Bedingung für einen Sachverhalt B ist, dann ist B zugleich eine notwendige Bedingung für A. Das Beispiel „Nur wenn eine Person volljährig ist, darf sie wählen“ ist logisch äquivalent mit „Schon wenn eine Person wählen darf, ist sie volljährig.“ Verdeutlichen kann man sich diesen zunächst oft als kontraintuitiv empfundenen Zusammenhang, indem man sich die Situation in einem Wahllokal vor Augen führt. Wenn man dort eine Person wählen sieht, dann kann man – auch wenn sie vielleicht sehr jung aussieht – daraus eindeutig schließen, dass sie volljährig sein muss; denn es dürfen ja nur Volljährige wählen. wird zwar gewöhnlich gelesen als „A ist eine hinreichende Bedingung für B“ bzw. „Schon wenn A, dann B“; da das aber äquivalent ist zu „"B" ist eine "notwendige" Bedingung für "A"“, kann man es ebenso gut auf diese Weise lesen. Eigenschaften und logische Gesetze. Außerdem ist die Aussage a äquivalent mit formula_28 und die Aussage formula_29 (lies: „nicht a“) ist äquivalent mit formula_30, wobei formula_31 eine beliebige Tautologie und formula_32 eine beliebige Kontradiktion ist. Ferner sind formula_33 und formula_34 äquivalent mit formula_31. Mit Hilfe der Implikation und der Negation lassen sich alle aussagenlogischen Junktoren darstellen. Intuitionistische Implikation. Im Intuitionismus bedeutet der Ausdruck formula_1, dass sich ein Beweis von formula_4 (über dessen Existenz nichts ausgesagt wird) zu einem Beweis von formula_10 ergänzen lässt. Diese Beziehung kann nicht anhand der Wahrheitswerte von Antezedens und Sukzedens definiert werden, sie ist also nicht extensional oder wahrheitsfunktional. Stattdessen werden intensionale Semantiken verwendet, deren bekannteste und erste formalisierte die von Saul Aaron Kripke zunächst für die Modallogik entwickelte "Kripke-Semantik" ist. Anders als die materiale Implikation kann also die intuitionistische Implikation nicht über Negation und Konjunktion oder Disjunktion definiert werden. Es gilt jedoch weiterhin, dass a äquivalent ist mit formula_28 und formula_29 mit formula_30, sowie dass formula_33 und formula_34 äquivalent sind mit formula_31. Wie die materiale Implikation ist auch die intuitionistische transitiv und reflexiv. Strikte Implikation. Bei der strikten Implikation handelt es sich um die Kombination des modallogischen Notwendigkeits-Operators mit der materialen Implikation. Die strikte Implikation wurde von Diodoros Kronos und in der Scholastik als Umgehungsversuch der Paradoxien der materialen Implikation entwickelt und 1918 von Clarence Irving Lewis neu aufgestellt. Damit soll eine Annäherung an das natürlichsprachliche „wenn …, dann …“ erreicht werden. Die strikte Implikation ist nämlich nicht schon dann bereits wahr, wenn das Antezedens falsch oder das Sukzedens wahr ist. Von der strikten Implikation gibt es zahlreiche Varianten, je nachdem welcher Modalkalkül zugrunde gelegt wird (siehe auch Modallogik). Die strikte Implikation ist, ebenso wie die materiale und die intuitionistische, transitiv und reflexiv. Auch das Konzept der strikten Implikation unterliegt der Kritik, weil sie zwar die Paradoxie der materialen Implikation vermeidet, aber zu der analogen Schwierigkeit führt, dass jede logisch unmögliche Aussage jede beliebige Aussage und dass jede Aussage jede logisch notwendige Aussage strikt impliziert. Lewis' eigener Verwendung der strikten Implikation wurde zudem vorgeworfen, Objekt- und Metasprache durcheinanderzubringen. Metasprachliche Implikation. Die metasprachliche Implikation ist eine Aussage "über Aussagen". Eine Aussage A impliziert genau dann eine Aussage B, wenn mit dem Zutreffen von A auch das Zutreffen von B gewährleistet ist. Analog implizieren mehrere Aussagen A1 bis An genau dann eine Aussage B, wenn mit dem gemeinsamen Zutreffen der Aussagen A1 bis An auch das Zutreffen von B gewährleistet ist. Zum Beispiel implizieren die Aussagen „Alle Schweine grunzen“ und „Babe ist ein Schwein“ die Aussage „Babe grunzt“. Eine Folgerung ist genau dann semantisch gültig, geschrieben: formula_58, wenn die Wahrheit der Aussagen A1 bis An die Wahrheit der Aussage B gewährleistet. In einer Interpretationssemantik ist das genau dann der Fall, wenn bei jeder Interpretation, bei der jede der Aussagen A1 bis An wahr ist, auch die Aussage B wahr ist. Zum anderen gibt es grundsätzlich unterschiedliche Fassungen des Folgerungsbegriffs und damit der metasprachlichen Implikation, etwa den der klassischen Logik oder den der Logik. Diese unterschiedlichen Definitionen von Folgerung beziehungsweise metasprachlicher Implikation führen zu grundsätzlich unterschiedlichen Kalkülen und semantischen Modellen. Wenn aus dem Zusammenhang nicht klar hervorgeht, welche Art von metasprachlicher Implikation beziehungsweise Folgerung gemeint ist, ist es daher notwendig, diese Information mitzuliefern. Man kann daher zum Beispiel auf Formulierungen treffen wie „A impliziert (semantisch, syntaktisch) klassisch B“ oder „C impliziert intuitionistisch (semantisch, syntaktisch) D“. In der formalen Schreibweise wird die Art der Folgerung meist durch ein Subskript beim Folgerungszeichen angezeigt. So könnte zum Beispiel „K“ für klassische, „I“ für intuitionistische Folgerung stehen, also formula_62 (semantisch, klassisch), formula_63 (syntaktisch, klassisch), formula_64 (semantisch, intuitionistisch) und formula_65 (syntaktisch, intuitionistisch). Das Deduktionstheorem gilt sowohl für die klassische, die intuitionistische als auch die strikte Implikation. Es handelt sich jedoch um keinen selbstverständlichen Zusammenhang, sondern erfordert einen (in den meisten Fällen nicht-trivialen) Beweis. Internationale Telefonvorwahl. Internationale Telefonvorwahl bezeichnet umgangssprachlich die Landeskennzahl (Ländercode,) bei internationalen Telefonnummern. Die Landeskennzahlen werden von der Internationalen Fernmeldeunion (ITU) in der Empfehlung E.164 festgelegt. Internationale Verkehrsausscheidungsziffern. Die Verkehrsausscheidungsziffer (VAZ) hängt von dem Land ab, in dem man sich befindet. Die ITU empfiehlt die „00“, wie sie in den meisten europäischen Ländern schon üblich ist. Beispiele. Andere Verkehrsausscheidungsziffer(n) (als „00“) AUS anderen (als obigen „zahlreichen Ländern“) Mobilfunk. In allen gängigen Mobilfunknetzen mit dem derzeit aktuellen (GSM-)Standard kann weltweit statt der Nummernkette auch „+“ direkt eingegeben werden. Beispiel. Die Wahl der vollständigen Rufnummer +49 xxx xxxxxx ist bei Mobiltelefonen immer möglich, auch wenn man sich innerhalb Deutschlands aufhält. Vollständige Induktion. Die vollständige Induktion ist eine mathematische Beweismethode, nach der eine Aussage für alle natürlichen Zahlen bewiesen wird. Da es sich um unendlich viele Zahlen handelt, kann solch ein Beweis nicht für alle Einzelfälle durchgeführt werden. Er wird daher in zwei Etappen durchgeführt: als "Induktionsanfang" für eine kleinste Zahl, für die man die Aussage zeigen will, (meist 1 oder 0) und als "Induktionsschritt", der aus der Aussage für eine variable Zahl die entsprechende Aussage für die nächste Zahl logisch ableitet. Dieses Beweisverfahren ist von grundlegender Bedeutung für die Arithmetik und Mengenlehre und damit für alle Gebiete der Mathematik. Veranschaulichung. Die vollständige Induktion erfasst durch den variablen Induktionsschritt beliebig viele Schritte, die man von 1 aus konkret durchführen kann. Das verdeutlicht die Grafik links. Diese Methode ist mit dem Dominoeffekt vergleichbar: Wenn der erste Dominostein fällt und durch jeden fallenden Dominostein der nächste umgestoßen wird, so wird schließlich jeder Dominostein irgendwann umfallen. Im Unterschied zum Domino, bei dem zwar beliebig viele, aber immer endlich viele Steine vorliegen, gibt es aber unendlich viele natürliche Zahlen, so dass keine beliebig lange konkrete Induktion alle Zahlen erreicht. Nur über den variablen Induktionsschritt wird die Induktion "vollständig" und erreicht tatsächlich alle Zahlen. Etymologie und Geschichte. Die Bezeichnung "Induktion" leitet sich ab von lat. "inductio", wörtlich „Hineinführung“. Der Zusatz "vollständig" signalisiert, dass es sich hier im Gegensatz zur philosophischen Induktion, die aus Spezialfällen ein allgemeines Gesetz erschließt und kein exaktes Schlussverfahren ist, um ein anerkanntes deduktives Beweisverfahren handelt. Das Induktionsprinzip steckt latent bereits in der von Euklid überlieferten pythagoreischen Zahlendefinition: „Zahl ist die aus Einheiten zusammengesetzte Menge.“ Euklid führte aber noch keine Induktionsbeweise, sondern begnügte sich mit intuitiven, exemplarischen Induktionen, die sich aber vervollständigen lassen. Auch andere bedeutende Mathematiker der Antike und des Mittelalters hatten noch kein Bedürfnis nach präzisen Induktionsbeweisen. Vereinzelte Ausnahmen im hebräischen und arabischen Sprachraum blieben ohne Nachfolge. Lange galt ein Beweis von Franciscus Maurolicus von 1575 als älteste explizite vollständige Induktion (unten ausgeführt). Er erörterte aber das allgemeine Beweisverfahren noch nicht. Erst Blaise Pascal thematisierte das Induktionsprizip mit Induktionsanfang und Induktionsschritt in seinem "Traité du triangle arithmétique" von 1654. Zur Verbreitung von Induktionsbeweisen trug ab 1686 Jakob Bernoulli wesentlich bei. Das Beweisverfahren wurde dann 1838 von Augustus De Morgan erstmals als "Induktion" oder "sukzessive Induktion" bezeichnet. 1888 prägte schließlich Richard Dedekind in seiner Schrift "Was sind und was sollen die Zahlen?" den Begriff "vollständige Induktion". Über dieses Werk aus der Gründerzeit der Mengenlehre wurde sie zum allgemein bekannten, etablierten Beweisprinzip, auf das seither kein Zweig der Mathematik mehr verzichten kann. Ein Jahr später, 1889, formulierte Giuseppe Peano den ersten formalisierten Kalkül für die natürlichen Zahlen mit einem Induktionsaxiom, aus dem das Beweisschema der vollständigen Induktion herleitbar ist. Er zeigte mit formaler Strenge, dass aus seinen Zahlaxiomen, zu denen das Induktionsaxiom gehört, die ganze Arithmetik bis hin zu den reellen Zahlen ableitbar ist. Dadurch machte er die fundamentale Bedeutung und die Leistungskraft der Induktion voll bewusst. Definition. Meist ist "m" = 0 oder "m" = 1. "m" > 1 ist jedoch möglich. Herleitung. Die vollständige Induktion kann aus Axiomen für die natürlichen Zahlen hergeleitet werden. Am bekanntesten ist die Ableitung aus dem fünften Peano-Axiom, dem sogenannten "Induktionsaxiom", das folgendermaßen lautet: Ist formula_6 ein Element von formula_7 und ist mit formula_8 aus formula_9 stets auch formula_10 aus formula_9, dann ist formula_12 eine Teilmenge von formula_7. Wählt man in diesem Axiom für formula_7 die Menge aller natürlicher Zahlen formula_15, die die Aussage formula_16 erfüllen, so ergibt sich die vollständige Induktion mit Induktionsanfang formula_17. Auch in anderen Konzepten der natürlichen Zahlen sind die Peano-Axiome und damit auch das Beweisverfahren der vollständigen Induktion herleitbar, zum Beispiel bei der Definition der natürlichen Zahlen Beispiele. Peano bewies 1889 mit vollständiger Induktion die grundlegenden Rechenregeln für die Addition und Multiplikation: das Assoziativgesetz, Kommutativgesetz und Distributivgesetz. Summe ungerader Zahlen (Maurolicus 1575). Der Induktionsanfang gilt wegen formula_23. Gaußsche Summenformel. Die Gaußsche Summenformel lautet: Für alle natürliche Zahlen formula_27 gilt Auch sie kann durch vollständige Induktion bewiesen werden. Bernoullische Ungleichung. Die Bernoullische Ungleichung lautet für reelle Zahlen formula_31 mit formula_32 und natürliche Zahlen formula_33 Induktion mit beliebigem Anfang. Die endlich vielen Fälle, die solch ein allgemeinerer Induktionsbeweis nicht abdeckt, können einzeln untersucht werden. Im Beispiel ist die Ungleichung für formula_44 offenbar falsch. Induktionsvarianten. Ein Induktionsbeweis ist auch für Aussagen über alle ganzen Zahlen (positiv und negativ) möglich. Man beginnt dazu mit einem beliebigen Induktionsanfang, beweist den positiven Induktionsschritt von "n" nach "n"+1 und anschließend den Induktionsschritt in negativer Richtung von "n" nach "n"−1. Beim Induktionsanfang 0 kann man den zweiten Induktionsschritt auch von "n" nach −"n" zeigen. Augustin-Louis Cauchy führte 1821 eine Induktionsvariante ein, bei der der vorwärts gerichtete Induktionsschritt Sprünge macht (etwa von "n" nach 2"n") und die entstehenden Lücken anschließend durch einen rückwärts gerichteten Induktionsschritt von "n" nach "n"−1 gefüllt werden. Die vollständige Induktion ist von natürlichen Zahlen verallgemeinerbar auf Ordinalzahlen. Bei Ordinalzahlen, die größer als die natürlichen Zahlen sind, spricht man dann von transfiniter Induktion. Die Induktion ist auch übertragbar auf sogenannte fundierte Mengen, die eine der Zahlenordnung vergleichbare Ordnungsstruktur aufweisen; hier spricht man zuweilen von struktureller Induktion. Rekursive oder induktive Definition. Die rekursive Definition – früher auch "induktive Definition" genannt – ist ein der vollständigen Induktion analoges Verfahren, bei der ein Term durch einen Rekursionsanfang und einen Rekursionsschritt definiert wird. Ein konstruktiver Beweis mit vollständiger Induktion kann eine rekursive Berechnung ersparen. Zum Beispiel erspart die Gaußsche Summenformel eine rekursive Berechnung der Summe formula_59 über den Rekursionsanfang formula_60 und den Rekursionsschritt formula_61. Die rekursive Definition hat wie die Induktion allerlei differenzierte Varianten. Internationaler Gerichtshof. Der Internationale Gerichtshof (kurz IGH;, "CIJ";, "ICJ") ist das Hauptrechtsprechungsorgan der Vereinten Nationen und hat seinen Sitz im Friedenspalast in Den Haag (Niederlande). Seine Funktionsweise und Zuständigkeit sind in der Charta der Vereinten Nationen geregelt, deren Bestandteil das Statut des Internationalen Gerichtshofs ist (). Zuständigkeit. Parteien vor dem Internationalen Gerichtshof können nur Staaten sein, jedoch keine internationalen Organisationen und andere Völkerrechtssubjekte. Zugang zum Gericht haben nur Vertragsstaaten des IGH-Statuts. Dies sind zum einen gemäß Artikel 93 Absatz 1 der Charta der Vereinten Nationen alle UN-Mitglieder und zum anderen solche Staaten, die kein Mitglied der UN sind, aber das Statut ratifiziert haben. Das Gericht ist nur dann für die Entscheidung eines Falles zuständig, wenn alle beteiligten Parteien die Zuständigkeit anerkannt haben. Eine solche Anerkennung kann durch Erklärung für das jeweilige Verfahren, durch Verweis in einem völkerrechtlichen Vertrag oder in abstrakter Form durch eine Unterwerfungserklärung erfolgen. Solche Erklärungen unterliegen allerdings häufig weitgehenden Vorbehalten, wie beispielsweise der im sogenannten Connally-Vorbehalt formulierten Einschränkung der von 1946 bis 1986 geltenden Unterwerfungserklärung der Vereinigten Staaten, dass die Anerkennung der Gerichtsbarkeit des IGH durch die USA nicht gelten sollte für Angelegenheiten, die nach Auffassung der USA der Zuständigkeit ihrer nationalen Gerichte unterliegen würden. Die Entscheidungen des IGH sind für die jeweiligen Parteien inter partes bindend. Unterorganisationen der Vereinten Nationen können mit jeweiliger Ermächtigung durch die Generalversammlung beim IGH Rechtsgutachten zu relevanten Themen anfordern. Die Generalversammlung oder der Sicherheitsrat der UNO können über jede Rechtsfrage ein Gutachten anfordern. Zwar kam es bis 2003 nur zu 76 Urteilen und 24 Rechtsgutachten, doch war der IGH wesentlich an der Fortentwicklung des Völkerrechts beteiligt. Deutschland hat 2008 wie bisher 70 andere Staaten eine Unterwerfungserklärung abgegeben und kann seitdem in allen völkerrechtlichen Streitfragen einen anderen Staat, der ebenfalls eine solche Erklärung abgegeben hat, verklagen oder selbst von diesem verklagt werden. Vorher war das nur möglich, wenn eine vertragliche Vereinbarung zwischen beiden Parteien bestand, in der der Internationale Gerichtshof ausdrücklich benannt wurde, oder wenn zumindest Einigkeit bestand, den Streit vor ihm auszutragen. Von der Unterwerfungserklärung hat Deutschland Streitkräfteeinsätze im Ausland und die Nutzung deutscher Hoheitsgebiete für militärische Zwecke ausgenommen. Luxemburg hatte bereits 1930 die Gerichtsbarkeit des StIGH als obligatorisch anerkannt. Hinsichtlich des IGH folgten die Schweiz 1948, Liechtenstein 1950, Österreich 1971. Geschichte. Erste Sitzung des Gerichtshofs nach dem Krieg, niederländische Kinonachrichten von 1946 Der Internationale Gerichtshof wurde 1945 gegründet. Er arbeitet unter der Charta der Vereinten Nationen als „Hauptrechtsprechungsorgan der Vereinten Nationen“ (Art. 92). Der Gerichtshof ging aus dem von 1922 bis 1946 bestehenden Ständigen Internationalen Gerichtshof hervor. Am 15. Oktober 1946 ermöglichte der Sicherheitsrat mit der Resolution 9 auch Nichtmitgliedsstaaten des Statuts eine Anrufung des Gerichtshofs. Der 1949 abgeschlossene Korfu-Kanal-Fall, eine Klage Großbritanniens gegen Albanien, war der erste Fall, in dem der Gerichtshof ein Urteil fällte. Neuere Untersuchungen zeigen, dass die meisten Urteile des Gerichtshofs befolgt werden, auch wenn der Gerichtshof für die Durchsetzung seiner Entscheidungen auf den Sicherheitsrat der Vereinten Nationen angewiesen ist (Art. 94 Abs. 2 der Charta der Vereinten Nationen). Unter Beteiligung deutschsprachiger Staaten. Deutschland rief den IGH bisher viermal an. Im ersten Verfahren (1967–69 unter Beteiligung Dänemarks und der Niederlande) ging es um Schürfrechte im Festlandsockel unter der Nordsee. Im zweiten Fall (1972–74; Gegner war hier Island) wurde über das Fischereiwesen geurteilt. Das dritte Verfahren war der „Fall LaGrand“ gegen die Vereinigten Staaten (1999–2001). Im vierten Verfahren reichte Deutschland 2008 Klage gegen Italien ein, weil Deutschland von italienischen Gerichten zu Entschädigungsleistungen wegen NS-Verbrechen verurteilt worden war. Griechenland war dem Verfahren 2011 beigetreten, da auch griechische Gerichte Deutschland wegen NS-Verbrechen zu Entschädigungen verurteilt hatten, die Vollstreckung dieser Urteile aber nicht in Griechenland, sondern nur in Italien zulässig war. Der Gerichtshof erkannte 2012 auf eine Verletzung der Immunität Deutschlands durch Italien – auch wegen der Vollstreckung der griechischen Forderungen. Italien wurde darüber hinaus vom IGH dazu verurteilt, die Gerichtsentscheidungen, die gegen Deutschland ergangen waren, außer Kraft zu setzen. Als beklagte Partei war Deutschland bisher zweimal an Verfahren beteiligt. 1999–2004 ging es um den Kosovo-Konflikt. Gegenstand der 2001 vom Fürstentum Liechtenstein eingereichten Klage war der Umgang mit liechtensteinischem Vermögen auf dem Territorium der früheren Tschechoslowakei, das im Zusammenhang mit dem Zweiten Weltkrieg als deutsches Auslandsvermögen behandelt und zur Begleichung deutscher Kriegsschulden genutzt worden sei. Das Verfahren endete 2005 mit der Entscheidung, dass die Ansprüche Liechtensteins nicht gegen Deutschland zu richten seien. Der während des Verfahrens am Gerichtshof amtierende deutsche Richter Bruno Simma nahm wegen persönlicher Befangenheit nicht an der Entscheidung teil, da er zuvor als Rechtsberater der deutschen Regierung in diesem Fall tätig war. Anstelle von Simma war Carl-August Fleischhauer, der bis 2003 am Gericht gewirkt hatte, in diesem Verfahren Ad-hoc-Mitglied des Gerichts. Liechtenstein war bisher an zwei und die Schweiz an drei Verfahren beteiligt. Österreich und Luxemburg sind vor dem IGH noch nicht in Erscheinung getreten. Mitglieder. Die 15 Richter des Gerichts, die alle unterschiedlicher Nationalität sein müssen, werden gemeinsam von der UN-Generalversammlung und dem UN-Sicherheitsrat für eine Amtszeit von neun Jahren gewählt, wobei eine spätere Wiederwahl möglich ist. Die Amtszeit der Richter endet am 5. Februar des angegebenen Jahres. Bei der Wahl achten die Staaten auf eine vorher in Form von Verständigungen festgelegte geografische Repräsentation der fünf Weltregionen. Das bedeutet, dass nach einer bestimmten Rotation freie Richterstellen durch Kandidaten aus einer Region besetzt werden. Alle drei Jahre wird ein Drittel der Richter neu gewählt. Bei ihrer Rechtsprechung vertreten die Richter nicht ihr Land, sondern müssen völlig unabhängig urteilen. Maßstab ist das Völkerrecht. Wenn bei einem Rechtsstreit kein Staatsangehöriger eines beteiligten Staates Mitglied des Gerichts ist, kann auf Antrag ein von diesem Staat vorgeschlagener Richter "ad hoc" am Verfahren teilnehmen. Dann erhöht sich die Anzahl der Mitglieder auf bis zu 17. Jean-Jacques Annaud. Jean-Jacques Annaud (* 1. Oktober 1943 in Draveil, Frankreich) ist ein französischer Regisseur. Er begann seine Karriere mit der Regie von TV-Werbespots in den späten 1960er bis frühen 1970er-Jahren. In seinem ersten Spielfilm, "Sehnsucht nach Afrika" aus dem Jahr 1976, verarbeitete er Erfahrungen, die er während seiner Zeit als Entwicklungshelfer Anfang der 1960er Jahre in Kamerun gemacht hatte. Der Film wurde mit einem Oscar als "Bester ausländischer Film" ausgezeichnet. Der übernächste Film, "Am Anfang war das Feuer", erhielt zwei Césars, für den besten Film und die beste Regie. Mit diesem Film etablierte sich Annaud als Regisseur schwer zu kategorisierender Filme. Mit weiteren Werken festigte er seinen Ruf eines unkonventionellen Regisseurs noch weiter: Dazu gehören die Literaturverfilmung "Der Name der Rose" mit Sean Connery und Christian Slater nach dem Buch von Umberto Eco, der auf Marguerite Duras’ Roman "Der Liebhaber" basierende, gleichnamige Film mit Jane March sowie "Der Bär" mit zwei Bären und Tchéky Karyo. Für seinen 1997 veröffentlichten Film "Sieben Jahre in Tibet", eine Verfilmung des Lebens von Heinrich Harrer, erhielt er – wie die Hauptdarsteller auch – zunächst ein lebenslanges Einreiseverbot nach China; den 2015 veröffentlichten Film "Der Zorn der Wölfe" konnte er jedoch in der inneren Mongolei ohne weitere Auflagen der chinesischen Zensurbehörden drehen. Jacques Rivette. Jacques Rivette (* 1. März 1928 in Rouen) ist ein französischer Filmregisseur, Drehbuchautor und Filmkritiker. Er gilt als einer der führenden Köpfe der Nouvelle Vague. Leben und Werk. Wie die meisten späteren Regisseure der Nouvelle Vague nähert sich Rivette dem Kino über die Cinephilie und die Filmkritik. In der Cinémathèque française begegnet er regelmäßig François Truffaut, Jean-Luc Godard und Éric Rohmer. 1950 gründet er mit Rohmer "La Gazette du cinéma". Vom Kritiker bei der Zeitschrift "Cahiers du cinéma" wurde er ab 1963 bis 1965 zu deren Chefredakteur. 1958 dreht er seinen ersten abendfüllenden Spielfilm "Paris nous appartient". Bei der Arbeit mit seinen Schauspielern verwendet Rivette eine Methode, die er während seiner gesamten Laufbahn beibehalten hat: Es gibt kein Drehbuch, sondern nur ein paar Seiten, die grob die Handlung umreißen. Der Text wird erst einen Tag vor dem Drehen, oder sogar erst am Drehtag selbst, verteilt. Rivettes zweiter langer Film "Suzanne Simonin, la Religieuse de Diderot" (Rivette bevorzugt diesen Titel gegenüber der Kurzfassung "La Religieuse"), den er 1966 nach dem Roman von Denis Diderot drehte, wird zeitweise von der französischen Zensur verboten. Anna Karina spielte darin Suzanne, ein junges Mädchen, das man in ein Kloster gesteckt hat, und das sich weigert, Nonne zu werden. Mit "L’Amour fou" und ' radikalisierte Rivette seine Experimente mit der Improvisation und schafft einen Film mit einer einzigartigen Atmosphäre. "Out 1: Noli me tangere" dauert 773 Minuten (12 Stunden und 53 Minuten) und ist damit der bisher längste Spielfilm der Kinogeschichte. Die Kurzfassung (mit dem Titel ') dauert 4 Stunden. Mit "Le Pont du Nord" (1980) fand Rivette zu einem gewissen Realismus, ehe er mit "L’Amour par terre" (1984) und "La Bande des quatre" (1988) zu seinen bevorzugten Themen (Komplott, Geheimnis, Theater) zurückkehrte. 1991 verkörperte Emmanuelle Béart an der Seite von Michel Piccoli und Jane Birkin" La Belle Noiseuse". Der Film gewann den Großen Preis der Jury bei den Internationalen Filmfestspielen von Cannes 1991. Sandrine Bonnaire spielte Jeanne d’Arc in dem zweiteiligen Werk "Jeanne la Pucelle" (1994), das aus "Batailles" und "Prisons" besteht. 2000 drehte Rivette "Va Savoir", eine Komödie, die von "Carrosse d’or" von Jean Renoir inspiriert ist. Über Renoir hatte Rivette 1966 den Dokumentarfilm "Jean Renoir, le patron" gedreht. Ähnlich den Mitgliedern einer Theatergruppe spielen zahlreiche Schauspielerinnen und Schauspieler in mehreren Filmen Rivettes mit, insbesondere Bulle Ogier, mit der er über einen Zeitraum von fast 40 Jahren bei acht Filmen zusammenarbeitet hat und Juliet Berto, die unter anderem entscheidend an zwei seiner wichtigsten Filme ("Céline et Julie vont en bateau" und "Out 1") beteiligt war. Auch Jane Birkin, Anna Karina, Michel Piccoli, Laurence Cote, Nathalie Richard, Geraldine Chaplin, Nicole Garcia, Sandrine Bonnaire, Emmanuelle Béart, Jeanne Balibar, Marianne Denicout und Jerzy Radziwiłowicz haben in mehreren Filmen mitgespielt. 2009 erhielt Rivette für seinen Spielfilm "36 vues du Pic Saint-Loup" eine Einladung in den Wettbewerb der 66. Filmfestspiele von Venedig. Obwohl "Suzanne Simonin, la Religieuse de Diderot" einen Skandal auslöste, ist Rivette kein Regisseur, der die Provokation sucht. Seine Filme gründen in der Idee, dass das Kino eine besondere Form der Erfahrung ist, eine Erforschung. Er erkundet die üblichen Normen, sprengt sie manchmal, wobei er immer eine gewisse Leichtigkeit bewahrt. Dabei kommt der Dauer der Filme eine besondere Bedeutung zu. "Out 1" bleibt in dieser Hinsicht einzigartig, aber auch die meisten anderen Filme Rivettes dauern mehr als 2,5 Stunden. Die Langsamkeit seiner Filme stößt manche vom Mainstreamkino konditionierten Zuschauer ab, aber sie gewährt eine Erfahrung besonderer Art. Der Zuschauer wird nicht überwältigt, sondern kann sich frei in den Filmen bewegen und so bei jedem Sehen des Films an dessen Schöpfung mitwirken. Dies gilt besonders für den sehr spielerischen Film "Céline et Julie vont en bateau" (1974), in dem Rivette das Phantastische mit dem Alltäglichen mischt. Diese improvisierte Phantasie zeugt zugleich von einer beeindruckenden Meisterschaft, wobei Rivette die Gespenster Jean Cocteaus und Lewis Carrolls herbei zitiert. Ein wichtiges Element in Rivettes Filmen ist der geschlossene Raum. Oft spielt sich die Handlung zum größten Teil in einem alten Haus ab. Wie für den Zuschauer im Film Gewissheiten des Alltagslebens außer Kraft treten, so begeben sich die Filmfiguren in eine andere, magische Welt, wenn sie diese verwunschenen Häuser betreten. Eine ähnliche Funktion erfüllt die Theateraufführung im Film, wie sie bei Rivette verschiedentlich vorkommt ("L’amour par terre", "Va savoir"). Bei seinen frühen Filmen schrieb Rivette regelmäßig am Drehbuch mit; seit Mitte der 1980er Jahre sind Christine Laurent und Pascal Bonitzer seine ständigen Drehbuchautoren. John Cassavetes. John Cassavetes (griechisch Γιάννης Νικόλαος Κασσαβέτης; * 9. Dezember 1929 in New York; † 3. Februar 1989 in Los Angeles) war ein US-amerikanischer Regisseur, Drehbuchautor, Produzent und Schauspieler. Leben. John Cassavetes (eigentl. Ioannis Kassavetes) wuchs als Sohn griechischer Einwanderer (Mutter: Schauspielerin Katherine Cassavetes, Vater: Geschäftsmann) in Manhattan auf und studierte an der Colgate University und an der New York Academy of Dramatic Arts, die er 1953 abschloss. Er arbeitete als Filmkomparse und Hilfsinspizient am Broadway und verschiedenen New Yorker Theatern, bevor er seine erste bedeutende Rolle als Schauspieler in Budd Schulbergs Fernsehfilm "Paso Doble" erhielt. Es folgten eine TV-Karriere (über 80 Rollen in zwei Jahren) und erste Einsätze als Schauspieler im Kino. Hollywood entdeckte den jungen Schauspieler 1953. Größere Rollen in "Ein Mann besiegt die Angst" (1956), "Das dreckige Dutzend" (1967), "Rosemaries Baby" (1968) und die in den USA lange laufende Fernsehserie "Johnny Staccato" brachten neben einem erheblichen Bekanntheitsgrad das nötige Geld für eigene Regieprojekte. 1956 eröffnete Cassavetes einen Workshop für arbeitslose Schauspieler, in dem nach der Stanislawski-Methode gearbeitet wurde, um Produzenten und Regisseure für die eigene Arbeit zu interessieren, nachdem er vergeblich versucht hatte, seine Freunde in TV- und Filmproduktionen unterzubringen. Aus diesem Workshop entwickelte sich seine Hinwendung zu Gruppenarbeit und Improvisation, woraus zwischen 1957 und 1959 der Film "Shadows" entstand. Das später viel beachtete Werk wurde mit kleinstem Budget auf 16-mm-Film gedreht und erst später auf 35-mm-Film überspielt („aufgeblasen“). In dieser kinotauglichen Version erhielt der Film 1960 den Kritikerpreis der Mostra in Venedig. Zwei Filme inszenierte Cassavetes danach für Hollywood-Studios. Arbeitsbedingungen und die Ergebnisse der Filme "Too Late Blues" (1961) und "A Child Is Waiting" (1962) waren für den Regisseur deprimierend. Der darauf folgende, unabhängig produzierte Film "Faces" (1968) wird heute filmhistorisch als Cassavetes' Befreiung aus den Zwängen Hollywoods interpretiert. Für "A Woman Under The Influence" (1974) gründete er die Produktionsgesellschaft „Faces International“, der später „Faces Distribution Corp." folgte. Von 1954 bis zu seinem Tod war John Cassavetes mit der Schauspielerin Gena Rowlands verheiratet, die durch ihre Rollen in seinen Filmen sein Schaffen maßgeblich beeinflusste. Aus der Ehe entsprangen ein Sohn und zwei Töchter, die ebenfalls in der Filmbranche als Schauspieler und Filmemacher tätig sind: Nick Cassavetes, Alexandra Katherine Cassavetes und Zoe R. Cassavetes. John Cassavetes verstarb am 3. Februar 1989 an den Folgen einer Leberzirrhose. Wirken. Bereits Cassavetes’ Rollen als Schauspieler loteten häufig die menschlichen Grenzen aus, wie etwa der egomanische Ehemann in "Rosemaries Baby", der einen Pakt mit dem Satan schließt, um seine Karriere voranzutreiben, oder der selbstsüchtige Bruder eines ehemaligen Revolverhelden, der sich in "Vom Teufel geritten" um jeden Preis von seinem Bruder emanzipieren will und dabei einige Menschen umbringt. Später hauptsächlich durch seine Arbeit als Drehbuchautor und Regisseur bekannt geworden, gilt John Cassavetes heute als einer der geistigen Väter und Wegbereiter des amerikanischen Independentfilms. Sein 1957 bis 1959 entstandener Film "Schatten" (Shadows) wird heute als Ausgangspunkt einer einmaligen Erneuerung des amerikanischen Kinos gesehen. Was später in den sechziger Jahren als "New American Cinema", "Direct Cinema", "Independent Cinema" oder "New Hollywood" neue filmische Ausdrucksformen verfolgte und damit das klassische Hollywood hinter sich ließ, ist ohne Cassavetes’ Vorarbeit kaum denkbar. Seine Filme handeln häufig von Menschen aus Mittelstand und Kleinbürgertum. Seine Figuren bewegen sich meist außerhalb der von Hollywood etablierten Kategorien wie Gut und Böse, fernab von den damals filmisch populären Idealen wie Schönheit, Heldentum, Reinheit und Tugend. Mit Independent-Dramen wie "Schatten", "Gesichter" und "Ehemänner" prägte er als Regisseur und Drehbuchautor eine neue Form der Filmkunst, die erstmals außerhalb der großen Hollywood-Studios entstand. Stilmittel sind eine für damalige Verhältnisse ungewohnte, bewegte Handkameraführung, gelegentliche Unschärfen, ein zurückhaltender Umgang mit Kunstlicht, Bevorzugung von Originalschauplätzen gegenüber Studiosets und plötzlich abbrechende Filmszenen. Sie waren das Resultat oft niedriger Produktionsbudgets und zugleich Ausdruck seiner Vernachlässingung der Technik zugunsten der Darsteller. Cassavetes konnte der Machart der Filme aus den großen Hollywood-Studios wenig abgewinnen. Wegen seiner unkonventionellen Arbeitsweise ist er wiederholt mit den Geldgebern der großen Studios aneinandergeraten. Er setzte in seinen Produktionen gern Laiendarsteller und junge, unerfahrene Filmtechniker ein, um seine Methoden mit einem noch nicht von Hollywood geprägten Team zu erarbeiten. In seinen Filmen stand das Spiel mit den Schauspielern immer im Vordergrund, die Kamera war immer nah an ihren Gesichtern. Er gilt neben bekannten Hollywood-Größen wie Marilyn Monroe und Marlon Brando als einer der damals frühen Verfechter des sogenannten Method Acting, einer Schauspiel- und Lehrmethode, die von Lee Strasberg in den 1920er Jahren aufgegriffen und in den frühen 1950er Jahren bekannt gemacht, aber eigentlich aus den Theorien und protokollierten Beobachtungen des Regisseurs und Theaterreformers Stanislawski entwickelt worden ist. In Cassavetes’ Filmen spielen häufig dieselben Schauspieler, da er gern Schauspielern, die er kannte, eine Rolle "auf den Leib" schrieb. Die meisten seiner Darsteller waren Freunde, frühere Kollegen von der Schauspielschule, Laien und Familienangehörige wie Peter Falk, Seymour Cassel, Ben Gazzara und Gena Rowlands. Jahreskalender. __NOEDITSECTION__ Siehe auch. Kategorien: Jahrtausende | Jahrhunderte | Jahrzehnte | Jahre Jahreskalender Jim Jarmusch. Jim Jarmusch, gebürtig: "James R. Jarmusch", (* 22. Januar 1953 in Cuyahoga Falls, Ohio) ist ein US-amerikanischer Autorenfilmer, Schauspieler und Filmproduzent. Er zählt zu den bekanntesten Vertretern des amerikanischen Independentfilms. Leben. Jim Jarmusch wuchs als zweites Kind mit seinen Geschwistern Ann und Tom in einer wenig abwechslungsreichen Mittelschicht-Vorstadt von Akron, Ohio, auf. Sein Vater war leitender Angestellter der Reifenfirma B. F. Goodrich Company, laut Jarmusch ein hart arbeitender Geschäftsmann. Seine Familie hat europäische Vorfahren; der Vater entstammte einer Familie von böhmisch-deutschen Einwanderern und seine Mutter hatte irisch-deutsche Eltern. Seine Mutter schrieb vor ihrer Heirat Filmkritiken und war Reporterin von Unterhaltungsveranstaltungen und anderem mehr bei der heimischen Tageszeitung "Akron Beacon Journal". Um ihre Ruhe zu haben, schickte sie Jim als Kind häufig ins Kino, wo er sich mit wachsender Begeisterung B-Movies ansah. Mit 14 Jahren interessierte er sich für die Gegenkultur, dies waren etwa Bücher der Beatniks Burroughs und Kerouac oder Schallplatten der Mothers of Invention, die er zusammen mit Freunden von deren älteren Geschwistern entwendete. Mit gefälschten Ausweisen besuchte er mit Freunden am Wochenende ein Kino, das Untergrundfilme wie etwa Andy Warhols "The Chelsea Girls" und Robert Downeys "Putney Swope" zeigte. Eine seiner Großmütter soll ihn zur Lektüre von anspruchsvoller Literatur ermuntert und ihm zu seinem 16. Geburtstag Prousts Romanzyklus "Auf der Suche nach der verlorenen Zeit" geschenkt haben. Jarmusch veröffentlichte später dann selbst Lyrik. Nach dem Abschluss der High School 1972 ging er mit 19 Jahren nach Chicago und schrieb sich an der "School of Journalism" der Northwestern University ein. Im Jahr darauf wechselte er zur Columbia University in New York, wo er Englische und Amerikanische Literatur studierte. Dort besuchte er vor allem Vorlesungen zur modernen amerikanischen Dichtkunst wie etwa den Beatniks und den Dichtern der subversiven New York School. Daneben schrieb er für das universitäre Literaturmagazin "The Columbia Review". 1975, in seinem Abschlusssemester, ging er zunächst für zehn Monate nach Paris. Er jobbte als Auslieferungsfahrer für eine Kunstgalerie und verbrachte viel Zeit im Kino und in den Archiven der Cinémathèque Française. Dort entdeckte er unter anderem das europäische und japanische Kino. Nach seiner Rückkehr nach New York 1976 machte er seinen Abschluss als Bachelor of Arts. Seine Literatur wurde zu dieser Zeit cineastischer, das heißt bildhaft beschreibend (). Anschließend studierte er Filmwissenschaften an der angesehenen Tisch School of the Arts in der New York University. Er lernte dort unter anderem bei Nicholas Ray Regie. Ende der 1970er Jahre schloss er sich der Post-Punk-Szene im East Village an und versuchte sich als Keyboarder, Sänger und Lyriker der No-Wave-Gruppe The Del-Byzanteens. 1980 drehte er seinen Abschluss- und gleichzeitig ersten Film "Permanent Vacation", der auf der Mannheimer Filmwoche (heute Internationales Filmfestival Mannheim-Heidelberg) Uraufführung hatte und prämiert wurde. Dann wurde er Produktionsassistent von Wim Wenders, der ihm übriggebliebene Filmrollen schenkte. Mit diesen und 7000 $ drehte er 1982 den 30-minütigen Kurzfilm "The New World", den Vorläufer von "Stranger than Paradise". Der deutsche Produzent Otto Grokenberger sah den Film auf dem Filmfestival von Salsomaggiore in Italien und stellte Jarmusch daraufhin 110.000 $ zur Verfügung, damit er eine Langfassung erstellen konnte. Als ihn die Regisseure Sam Fuller und John Boorman auf seine Ähnlichkeit mit dem Schauspieler Lee Marvin hinwiesen, gründete er den exklusiven und selbstironischen Zirkel „Sons of Lee Marvin“, dessen einziges Aufnahmekriterium eine gewisse Ähnlichkeit zu Marvin war. Mitglieder sind unter anderem seine Freunde Nick Cave, Tom Waits und John Lurie. Jarmusch ist seit Anfang der 1980er Jahre mit der Filmemacherin und Schauspielerin Sara Driver liiert. Werk. Jarmuschs Werk dreht sich immer wieder um das Fremdsein, das Aufeinandertreffen unterschiedlicher Kulturen und die Bindungskraft familiärer Beziehungen. Während man hinter diesen konfliktreichen Konstellationen oft einen pessimistischen, zuweilen antiamerikanischen Unterton vermuten könnte, verwehren sich seine Filme konsequent einer solchen Wertung. Jarmusch zählt zu den wenigen wirklichen Independent-Regisseuren oder Autorenfilmern, das heißt, er behält die Kontrolle über die gesamte Filmproduktion und die Rechte an den Negativen seiner Filme. Eine weitere Besonderheit liegt in seinen unorthodoxen Arbeitsgewohnheiten. Er schreibe seine Plots für ganz bestimmte Schauspieler und baue dann um diese Figur(en) herum eine Geschichte auf. Er verzichte damit ganz bewusst auf die üblichen Mittel von Drehplan oder Storyboards. Wie einige seiner Zeitgenossen (Paul Thomas Anderson, Quentin Tarantino, John Cassavetes) verteilt Jarmusch einen Teil der Rollen auf die Mitglieder eines Stammensembles, mit denen er auch befreundet ist, wie etwa Iggy Pop, Tom Waits, John Lurie, Roberto Benigni, Isaach de Bankolé, Bill Murray oder Tilda Swinton. Er arbeitet gern und oft mit Musikern zusammen - so z.B. Waits, Lurie, Iggy Pop, RZA von Wu-Tang Clan, Neil Young (über dessen Europatournee er den Film "Year of the Horse" drehte) oder Mulatu Astatke. Jarmuschs Filme sind getragen von Langsamkeit und lakonischem Humor. Beliebte Stilmittel sind darüber hinaus die Verwendung von Schwarzweißfilm, schwarzen Momenten, gezieltem und gewollt grotesk anmutendem Einsatz von Musikelementen und die szenische Auflösung in Plansequenzen, zumeist Mastershots. Musik in Jarmuschs Werk. Neben seinen Kinofilmen drehte er Musikvideos, unter anderen für Talking Heads, Tom Waits, Neil Young und Jack White. Musik ist für Jarmusch „die höchste und schönste Form des Ausdrucks. Ohne Musik hätte das Leben keinen Sinn.“ Die Soundtracks sind ein wichtiger Bestandteil sämtlicher seiner Filme, er arbeitete dafür mit Waits "(Night on Earth)", John Lurie "(Stranger than Paradise" und "Down by Law)" und Young "(Dead Man)", nutzte aber auch die Musik von u.a. Sunn O))), Boris, RZA, Mulatu Astatke, Jozef Van Wissem. Bereits in seiner Studienzeit in New York war Jarmusch Mitglied der No-Wave-Band The Del-Byzanteenes, mit der er das Album "Lies to Live By" aufnahm. Für "The Limits of Control" nahm er einige Lieder mit seiner Band Bad Rabbit auf. 2011 und 2012 veröffentlichte er zwei Alben im Duo mit dem niederländischen Laute-Spieler Jozef Van Wissem "(Concerning the Entrance into Eternity" und "The Mystery of Heaven)". Letzterer spielte auch den Großteil des Soundtracks für "Only Lovers Left Alive" ein, an dem auch Jarmuschs Band SQÜRL, eine Fortsetzung von Bad Rabbit, beteiligt war. Joe D’Amato. Joe D’Amato (eigentlich "Aristide Massaccesi"; * 15. Dezember 1936 in Rom; † 23. Januar 1999 ebenda) war ein italienischer Filmregisseur und -produzent, Kameramann und Drehbuchautor. Er drehte an die 170 Hardcore- und Softerotikfilme und etwa 30 Action-, Fantasy-,Kriegs-, Western-, Piraten-, Horror- und Splatterfilme und gilt somit als wesentlicher Vertreter des europäischen Exploitation-Films. Jugend und erste Arbeiten als Kameramann und Regisseur (1967–1975). Eigenen Aussagen zufolge begann Aristide Massaccesi bereits mit 14 Jahren am Nachmittag nach der Schule als Assistent seines Vaters, der "A. C. M." gründete, eine Firma für den Vertrieb und die Produktion von Filmkameras. So half Massaccesi etwa bereits 1952 beim Warten der Kamera, dem Einspannen des Films und ähnlichen Arbeiten für Die goldene Karosse (Regie: Jean Renoir). Seine eigentliche Karriere begann Massaccesi an der Kamera: Ab 1961 war er als Kameraassistent tätig (so auch 1963 in Jean-Luc Godards "Die Verachtung" und 1967 in Franco Zeffirellis "Der Widerspenstigen Zähmung"), ab 1967 dann auch als Kameramann. Durch seine Fähigkeiten und handwerkliche Verlässlichkeit in diesem Bereich wurde er äußerst häufig und regelmäßig eingesetzt, vor allem in Low-Budget Produktionen. Als Regisseur wirkte Massaccesi erstmals 1972: Es handelt sich um den in nur sechs Tagen gedrehten Pokerface auf krummen Touren, für den der Produzent Diego Spataro unter dem Pseudonym "Dick Spitfire" in den Credits aufschien. Der Film wurde vom Verleih jedoch erst 1975 in die Kinos gebracht und stellte sich (dadurch?) als kommerzieller Misserfolg heraus. Seinen zweiten Western "Kopfgeld für einen Killer" (1972) drehte Massaccesi in Zusammenarbeit mit Oscar Santaniello (aka Oscar Faradine). Die Wende zum Erotikfilm zeichnete sich in den Jahren 1972–1975 schon deutlich ab, wenn auch Massaccesi zwischendurch auch den offenbar noch nie deutsch synchronisierten Kriegsfilm "Eroi all'inferno" (1973, mit Klaus Kinski in einer Nebenrolle), den Gruselfilm "Die Mörderbestien" (1973, ebenfalls mit Kinski) und den ungewöhnlichen, in Kanada spielenden Western "Die Rotröcke" (1974, mit Fabio Testi in der Hauptrolle) drehte, den Massaccesi für den besten Film dieser Schaffensperiode hielt. Hauptsächlich widmete sich Massaccesi jedoch dem sogenannten "Decamerotico" – episodenhaft angelegten erotische Komödien im historischen Gewand der Renaissance im Fahrwasser des Kinoerfolgs "Decameron" (1970) von Pier Paolo Pasolini; Massaccesis Genrebeiträge liegen hier bis auf "Hemmungslos der Lust verfallen" (1972) bisher offenbar nicht in deutscher Synchronisation vor. Während Massaccesi für seine Kameraarbeit und auch für die Arbeit am Drehbuch stets mit seinem echten Namen erschien, gab er als Regisseur in der Regel ein Pseudonym an, was häufig zur Folge hat, dass er bei ein und demselben Film in den Credits sowohl unter seinem echten Namen als auch unter einem Pseudonym aufscheint; als Grund dafür nennt Massaccesi, dass es seinem professionellen Ruf als Kameramann geschadet hätte, wenn bekannt geworden wäre, dass er gleichzeitig auch als Regisseur arbeitete. Zugleich hätten ihm die Pseudonyme dabei geholfen, die unterschiedlichen Genres, in denen er arbeitete, klar auseinanderzuhalten. Die Ausnahme blieb "Die Mörderbestien", zu dem er sich auch als Regisseur mit seinem eigenen Namen bekannte. Er hatte für den Film in Alleinarbeit und offensichtlich inspiriert von Edgar Allan Poes Erzählung "The Black Cat" das Drehbuch verfasst. Der Grund für den Schritt, nun erstmals persönlich als Regisseur hervorzutreten, lag, so Massaccesi selbst, im relativ hohen Budget von 140 Millionen Lire und dem Mitwirken namhafter Schauspieler. Als Regisseur an der Öffentlichkeit. Seit 1973 spezialisierte sich Massaccesi zunehmend auf das Genre des Erotikfilms, zunächst noch Softcore. Seiner eigenen Aussage zufolge vollzog er diesen Schritt schlicht, weil der Erotikfilm damals am einträglichsten war und die meisten Angebote für ihn aus dieser Richtung kamen. In "Foltergarten der Sinnlichkeit" (1975) brachte d'Amato erstmals das Motiv des Kannibalismus ein, das er wiederholt in seinen Filmen aufnahm. In den Jahren 1976–1978 drehte er dann die Serie der um die wunderschöne, hochintelligente und sexuell aufgeschlossene Reporterin "Black Emanuelle" (Laura Gemser in der Hauptrolle) kreisenden Erotikfilme, die durch ihre exotischen Locations, die bestechende Filmmusik von Nico Fidenco und durch die lebendige und professionelle Kameraführung von Massaccesi selbst überzeugen konnten. Die Atmosphäre der Filme vermittelt ein sorgloses und genussbetontes Lebensgefühl, in dem aber auch Härten – vor allem in den ungekürzten Versionen – nicht fehlen; der jeweils zugrundegelegten Thematik (etwa Mädchenhandel, Kannibalismus, Pressefreiheit) versuchen die Filme geradezu demonstrativ in keiner Weise gerecht zu werden, vielmehr wird sie zumeist für weitere einschlägige Szenen genutzt (Sexploitation), die angesichts des leichtgängigen Grundtons dieser Filme umso eher als irritierend beziehungsweise abstoßend empfunden werden können. Besonders berüchtigt ist der Film "Black Emanuelle – Stunden wilder Lust" (1977) mit einer Szene, in der eine unbekleidete Blondine einen Handjob an einem Pferd vollzieht (die Ejakulation wird nicht gezeigt), und einer weiteren, in der sich die Hauptdarstellerin, zwischen Lust und Abscheu hin und her gerissen, einen Teil eines äußerst real wirkenden Snuff-Film ansehen muss; der Großteil der Laufzeit ist freilich mehr oder weniger konventionellen Hardcore-Szenarien gewidmet. Von den beiden Filmen, in denen Massaccesis Wunsch, seine Lieblingsgenres Horror und Erotik zu mischen, am deutlichsten zutage tritt, namentlich "Nackt unter Kannibalen" (1977) und "In der Gewalt der Zombies" (1980), war ersterer wie die anderen Teile der "Black Emanuelle"-Reihe (vor allem im Ausland) ein kommerzieller Erfolg, letzterer ein Fiasko. Massaccesi führte den Misserfolg von In der Gewalt der Zombies auf den Widerwillen des Publikums allgemein zurück, die Kontamination der beiden Genres zu akzeptieren, vor allem im Fall des Zombiefilms, in dem wieder ein Großteil der überlangen Hardcore-Szenen gewidmet war. Ähnlich versuchte er diese spezifische Genremischung bei "Porno Holocaust" (1981) und anderen Hardcore-Filmen, die Massaccesi damals mit einem im Kern gleichbleibenden Team von Darstellern (darunter um das Jahr 1980 in Santo Domingo und Umgebung) drehte. Dem Gore wandte er sich aus der Überzeugung zu, dass dieser wie auch die Softcore-Erotik ein zeitloses Genre darstelle, das immer sein Publikum fände. Zudem sei er nicht so geschickt im Erzeugen von Spannung (von ihm selbst gewähltes Beispiel ist sein „am wenigsten gelungener Horrorfilm“ "Man-Eater – Der Menschenfresser" (1980) – viele Fans werden hier wohl heftigst widersprechen wollen), sodass er dafür im Gore-Bereich zulege. "Man-Eater – Der Menschenfresser" (basierend auf einer Idee seines Freundes Luigi Montefiori) fällt für Massaccesi zeitlich zusammen mit der Gründung seiner eigenen Filmgesellschaft Filmirage, die unter anderem Filme von Umberto Lenzi, Michele Soavi, Claudio Fragasso und Lucio Fulci ermöglichte. Die für d'Amato im Ausland am einträglichsten Filme waren laut eigener Aussage "Sklavin für einen Sommer" (Originaltitel "L'alcova"; 1984, mit Laura Gemser) und "Elf Tage, elf Nächte" (1986, mit Jessica Moore). In Italien selbst seien alle seine Filme gut gelaufen. Später befasste sich Massaccesi überwiegend mit der Produktion von Erotik- und Pornofilmen. In Deutschland wurden diese von der Filmproduktionsgesellschaft Tabu & Love Film veröffentlicht. Für den Dokumentarfilm "Heidi im Pornoland" über die Pornodarstellerin Laetitia, der 1996 mit großem Erfolg im Schweizer Fernsehen lief, wurde unter anderem an einem Porno-Set von d'Amato gedreht, der auch zu Wort kommt. Arbeitsweise und Einstellung zur Arbeit. Auf die Frage, wo seine Begabung am ehesten liege: als Regisseur, Produzent oder Kameramann, antwortete Massaccesi: "„Vielleicht als Kameramann, insofern als Filmemachen mit Bildern beginnt, was mich dazu verpflichtet, große Sorgfalt auf die Qualität der Kameraarbeit zu legen.“" Massaccesis Methoden (er nutzte Aufnahmen aus anderen Filmen und baute sie in seine eigenen ein), der schockierende Inhalt einiger seiner Filme (einer seiner Erotikfilme aus der "Emmanuelle"-Reihe drehte sich um Kannibalismus) und seine Vorliebe, in der Öffentlichkeit zu stehen, (in "Man-Eater – Der Menschenfresser" wird ein Fötus von einem Kannibalen verspeist, was für viele Diskussionen sorgte), führten dazu, dass er als Regisseur von Exploitation-Filmen berühmt wurde. Massaccesi trat unter vielen Pseudonymen auf, um seine Drehbücher besser zu verkaufen. Aufgrund seiner vielen Pseudonyme wird davon ausgegangen, dass es noch viele Filme von Massaccesi gibt, die bis heute nicht als seine erkannt wurden. Massaccesi war einerseits – so klingt es wiederholt in Interviews durch – ein echter Filmbegeisterter, vor allem was den handwerklichen Aspekt des Filmemachens angeht. Da er jedoch ab den späten 1970ern seine Filme fast ausschließlich auch selbst produzierte, musste er darauf achten, auch finanziell erfolgreich zu arbeiten, was ihn letztlich dazu brachte, sich ab 1994 bis zu seinem Tod 1999 fast ausschließlich der Produktion von Hardcorepornographie zu widmen, bei der der finanzielle Erfolg gesichert war. Seine große Liebe galt freilich nach wie vor dem Abenteuerfilm – so zählte etwa Steven Spielbergs "Indiana Jones" Trilogie zu seinen Lieblingsfilmen – und dem Softerotik-Genre; doch schienen ihm diese Genres im Vergleich zur Hardcoreproduktion finanziell zu riskant, als dass er sich ihnen nochmals gewidmet hätte – mit einer einzigen Ausnahme, dem ein Jahr vor seinem Tod gedrehten Piratenabenteuerfilm "I Predatori delle Antille" "(Tortuga)". Joe Dante. Joe Dante (* 28. November 1946 in Morristown, New Jersey) ist ein US-amerikanischer Filmregisseur. Leben. Joe Dante begann seine Karriere bei Roger Cormans Firma "New World Pictures", zunächst 1973 als Dialogeditor für Produktionen wie Cirio H. Santiagos "Fly Me" und die US-Fassung "Tidal Wave" von Shirō Moritanis "Nippon chinbotsu", dann als Filmeditor bei Steve Carvers "The Arena" (1974) und Ron Howards "Grand Theft Auto" (1977). Für Corman drehte Dante 1978 auch seinen ersten eigenen Spielfilm Piranhas. Diese B-Film-Variante von "Der weiße Hai" gefiel dessen Regisseur Steven Spielberg so gut, dass er Dante im Folgenden mit Projekten betraute. Auf diese Weise kam dieser zu "Gremlins – Kleine Monster", einer der erfolgreichsten Komödien der 1980er Jahre. Auch "Die Reise ins Ich" und "Gremlins 2 – Die Rückkehr der kleinen Monster" weisen Spielberg als Produzenten aus. Was Joe Dante auszeichnet, ist zum einen, dass er sich immer treu geblieben ist und man stets seine Handschrift erkennen kann. Er verleugnet nie die Einflüsse, die das Kino der 1950er- und 1960er-Jahre auf ihn hatte. In dieser Zeit, als Dante aufwuchs, erlebte das phantastische Kino seinen größten Boom. Zugleich erlebten Paranoia und Angst vor dem Unbekannten ihre Höhepunkte. Dieses zieht sich wie ein roter Faden durch das gesamte Werk Dantes. Menschen verändern sich ("Das Tier") und stellen scheinbar eine Gefahr für die Umgebung dar ("Meine teuflischen Nachbarn", einer Parodie auf das Leben in der Vorstadt). Scheinbar Ungefährliches erweist sich als Bedrohung ("Piranhas", "Die Reise ins Ich", "Small Soldiers"). Nicht zu unterschätzen sind auch die Filme, die die Auswirkungen von Fernsehen und Kino auf die Wahrnehmung der Realität darstellen ("Explorers – Ein phantastisches Abenteuer", "Meine teuflischen Nachbarn", "Matinee", "Small Soldiers" und "Looney Tunes: Back in Action"). Dante war außerdem an der Serie "Eerie, Indiana" beteiligt, einer Kinderserie der 1990er Jahre. 2009 wurde er in die Wettbewerbsjury der 66. Filmfestspiele von Venedig berufen. Auf dem Festival zeigt er außerdem seinen 3D-Horrorfilm "The Hole" und eine neue Schnittfassung seiner 1968 entstandenen Dokumentation "The Movie Orgy". Auszeichnungen (Auswahl). Joe Dante wurde u. a. zweimal mit dem Saturn Award ausgezeichnet. 1979 wurde er zusammen mit Mark Goldblatt für den "Besten Schnitt" ausgezeichnet, 1984 erhielt er den Preis als "Bester Regisseur" für "Gremlins – Kleine Monster". Im Oktober 2013 wurde Joe Dante auf dem Cinestrange-Filmfestival in Dresden der Cinestrange Award für sein Lebenswerk verliehen. Jules Dassin. Jules Dassin, eigentlich "Julius Dassin" (* 18. Dezember 1911 in Middletown, Connecticut; † 31. März 2008 in Athen) war ein US-amerikanischer Filmregisseur, Drehbuchautor, Produzent und Schauspieler. Nach ersten Erfolgen in Hollywood ging er während der McCarthy-Ära ins europäische Exil, wo er seine Karriere fortsetzte. Zu seinen bekanntesten Filmen zählen "Rififi" und "Sonntags… nie!" Leben. Jules Dassin war der Sohn von Samuel Dassin, einem russisch-jüdischen Immigranten, und Berthe Vogel. Nach dem Umzug der Familie nach New York wuchs er mit sieben Geschwistern im Stadtteil Harlem auf. Er schloss sich der politisch linken, jiddischen Theatergruppe „ARTEF“ (Arbeter Theatre Farband) an, in der er sich erst als Darsteller, später als Regisseur betätigte, und dem „Group Theater“. In den 1930er Jahren wurde er Mitglied der Kommunistischen Partei der USA, aus der er 1939, enttäuscht über den Hitler-Stalin-Pakt, wieder austrat. 1940 führte Dassin erstmals Regie am Broadway und schrieb Beiträge für Radiosendungen. 1941 gab Dassin sein Debüt als Filmregisseur bei dem Filmstudio Metro-Goldwyn-Mayer. Nach seinem Zerwürfnis mit MGM-Chef Louis B. Mayer drehte er für den Produzenten Mark Hellinger und Universal Pictures die Film noirs "Zelle R 17" und "Stadt ohne Maske". Nach Hellingers frühzeitigem Tod wechselte Dassin zu 20th Century Fox und führte bei einem weiteren Film noir Regie, "Gefahr in Frisco". Der beginnende McCarthyismus setzte seiner Karriere in den USA ein Ende. Bereits 1949 geriet Dassin wegen seiner politischen Vergangenheit ins Visier antikommunistischer Ermittlungen, weshalb Fox-Produktionschef Darryl F. Zanuck Dassin seinen nächsten Film, "Die Ratte von Soho", in London drehen ließ. Dassin konnte den Film nicht mehr selbst schneiden, weil ihm der Zutritt auf das Studiogelände in Hollywood verwehrt wurde. Der Regisseur gab die Schnittanweisungen per Telefon oder Memo weiter. Beim Kinostart gingen die Kritiker mit "Die Ratte von Soho" hart ins Gericht, heute gilt er als eine von Dassins stärksten Arbeiten. 1951 denunzierten Elia Kazan und Edward Dmytryk Dassin vor dem Komitee für unamerikanische Umtriebe (HUAC). Ohne Aussicht auf eine Beschäftigung im amerikanischen Filmgeschäft ging Dassin mit seiner Familie nach Europa. Auch dort konnte er erst nach fünf Jahren wieder einen Film drehen, da von amerikanischer Seite Druck auf die europäischen Produzenten ausgeübt wurde, die befürchten mussten, dass seine Filme in den USA nicht vertrieben würden. 1955 übernahm er die Arbeit an seinem ersten europäischen Film nur aus Geldnot. Der in Frankreich gedrehte Gangsterfilm "Rififi" wurde ein großer Kritiker- und Publikumserfolg. Dassin schrieb nicht nur das Drehbuch und führte Regie, sondern spielte unter dem Pseudonym Perlo Vita auch eine der vier Hauptrollen, da der vorgesehene Schauspieler nicht zu den Dreharbeiten erschien. Für "Rififi" erhielt Dassin auf dem Filmfestival in Cannes 1955 den Preis für die beste Regie. Die berühmte, in der Vorlage nicht vorhandene Einbruchsszene wurde mehrfach in anderen Filmen zitiert, imitiert und parodiert, unter anderem von Dassin selbst in "Topkapi". 1955 lernte er in Cannes die griechische Schauspielerin Melina Mercouri kennen. Im folgenden Jahr spielte sie in seinem Film "Der Mann, der sterben muss" nach Nikos Kazantzakis’ Roman "Griechische Passion" "(Ο Χριστός ξανασταυρώνεται)". Mit Mercouri drehte Dassin auch die großen internationalen Erfolge "Sonntags… nie!" (1960) und "Topkapi" (1964). Dassin und Mercouri heirateten im Jahr 1966. Nach dem Militärputsch und der Machtübernahme des Obristen-Regimes in Griechenland gingen beide ins Exil nach Paris. Dassins späteren Filmen war weder kommerzieller noch künstlerischer Erfolg beschieden. 1968 kehrte er für den Film "Black Power" in die USA zurück. Im selben Jahr arbeitete Dassin auch am Broadway und wurde als Regisseur und Drehbuchautor der Musicalversion von "Sonntags… nie!" für zwei Tony Awards nominiert. Ab 1974, nach Ende der Militärdiktatur, lebten Dassin und Mercouri wieder in seiner Wahlheimat Griechenland. 1992 bekam er die Ehrenstaatsbürgerschaft verliehen. Nach dem Tod seiner Frau 1994 gründete er die „Melina-Mercouri-Stiftung“ und setzte sich für die Rückkehr des Parthenon-Frieses aus London nach Athen ein. Das von ihm mit initiierte neue Akropolismuseum wurde 2009 eröffnet. Die Eröffnung erlebte Dassin nicht mehr: Er starb 96-jährig im Athener Hygeia-Krankenhaus. Er wurde, seinem Wunsch entsprechend, in Athen neben dem Grab Melina Mercouris beigesetzt. Familie. Aus der ersten, 1962 geschiedenen Ehe mit der ungarischen Violinistin Béatrice Launer stammen der populäre französische Chanson-Sänger Joe Dassin (1938–1980) sowie die Töchter Richelle (* 1940) und Julie (* 1944). Jump Cut. Ob die Bezeichnung Jump Cut nur für die intentionale Verletzung der Schnittkonventionen reserviert ist oder auch für versehentliche Anschlussfehler gilt, darüber gehen die Meinungen in der Literatur auseinander: In seinem Sachlexikon Film behauptet Rainer Rother, dass versehentliche Anschlussfehler damit nicht gemeint seien, Ira Konigsberg hingegen meint, der Begriff bezeichne sowohl gewollte als auch unbeabsichtigte Bildsprünge. Jean-Luc Godard erfand den Jump Cut, da die erste Fassung seines Erfolgsfilms "Außer Atem" (Frankreich 1960) viel zu lang war. Der Jump Cut ist heute ein gängiges filmisches Mittel, z. B. bei Lars von Trier oder Steven Soderbergh. Auch Gollums Selbstgespräch mit seiner Spiegelung auf dem Wasser in der Verfilmung von "Der Herr der Ringe" ist beispielsweise als Jump Cut inszeniert. Im Continuity Editing des klassischen Hollywoodkinos wurde diese Technik selten angewandt. Eine ähnliche Technik wie den „Jump Cut“ entwickelte in den 1960er Jahren der amerikanische Multimediakünstler Andy Warhol in seinen Experimentalfilmen mit dem Strobe cut. Mit dem „Jump Cut“ verwandt ist der Zeitraffer, auch „Stoptrick“ genannt. Beispiel: Eine Person wird in einem Kaufhaus gezeigt, wie sie viele verschiedene Kleider anprobiert. Die Einstellung bleibt immer die gleiche, nur die Kleider der Person ändern sich von Schnitt zu Schnitt. Durch diese Methode merkt der Zuschauer, dass Zeit vergeht. Besonders beliebt ist diese Schnitttechnik in Musikvideos, um Bewegungen passend zum Takt der Musik zu schneiden. Die Technik wird ebenfalls von vielen Vloggern, beispielsweise auf der Video-Plattform YouTube eingesetzt. Eine weitere spezielle Schnittvariante ist der Match Cut. James Cameron. James Francis Cameron (* 16. August 1954 in Kapuskasing, Ontario) ist ein kanadischer, in den Vereinigten Staaten lebender Regisseur, Produzent, Drehbuchautor, Cutter und Oscar-Preisträger, der sich besonders auf Action- und Science-Fiction-Filme spezialisiert hat. Unter seiner Regie sind mit "Titanic" und "Avatar" die zwei nach Beträgen kommerziell erfolgreichsten Filme der Filmgeschichte entstanden, er ist somit einer der erfolgreichsten Regisseure der heutigen Zeit. Lebenslauf. James Cameron wuchs im kanadischen Niagara Falls auf, an der Grenze zu den USA. Sein Vater war Elektroingenieur, seine Mutter Malerin. 1969 sah Cameron den Film ' von Stanley Kubrick. Der Film beeindruckte ihn stark und lenkte seine Berufswahl. Cameron las über Filmgeschichte und Spezialeffekte. 1971 zog die Familie nach Orange County, Kalifornien. Weil sich seine Familie eine Ausbildung an einer Filmschule nicht leisten konnte, begann er ein Physik-Studium am Fullerton College. Als er feststellte, dass seine Mathematik-Fähigkeiten dafür nicht ausreichten, studierte er englische Literatur. Nachdem er das College abgeschlossen hatte, heiratete er Sharon Williams und arbeitete als Lastkraftwagenfahrer. 1977 entfachte der Film "Krieg der Sterne" seine Leidenschaft für das Filmemachen erneut. Enttäuscht darüber, dass das ein Film war, den er immer machen wollte, eignete er sich viel Wissen über Drehbuchschreiben und Filmemachen an und lernte, mit Film-Ausrüstung umzugehen. Bei seinem ersten Film "Xenogenesis", ein 35-mm-Kurzfilm, den er 1979 zusammen mit seinem Freund William Wisher drehte und der von einem Konsortium aus Zahnärzten finanziert wurde, fungierte Cameron gleichzeitig als Regisseur, Produzent, Autor, Kameramann, Cutter, Modellbauer und Spezialeffekt-Verantwortlicher. Während der Produktion des Films gab Cameron seinen Job als Lkw-Fahrer auf. Der Film kam jedoch nie auf eine Leinwand. Cameron entschied, seine komplette Zeit ins Filmemachen zu investieren, und bewarb sich deshalb bei „New World Pictures“, der Produktionsfirma von Roger Corman. Nachdem er bei einigen Filmen hinter den Kulissen gearbeitet und sich aufgrund seines Ehrgeizes bei der Belegschaft unbeliebt gemacht hatte, konnte er beim Dreh des Films Planet des Schreckens "(Galaxy of Terror)" als Production Designer und Second Unit Director derart überzeugen, dass er sein erstes Regieangebot erhielt. Der Film "Piranha 2 – Fliegende Killer" war jedoch eine riesige Enttäuschung, für Cameron aber auch eine wichtige Erfahrung als Regisseur. Der Produzent des Films, Ovidio G. Assonitis, mischte sich in die Dreharbeiten ein und feuerte schließlich Cameron in der Mitte der Dreharbeiten. Später brach Cameron nachts in das Schneidewerk des Produzenten in Rom ein, um den Film so zu vollenden, wie er es gerne hätte (was der Produzent aber nach seinen eigenen Vorstellungen wieder rückgängig machte). Sein Debüt-Film wurde sowohl in künstlerischer Hinsicht wie auch kommerziell ein Fiasko. 1982 und zurück in Amerika schrieb er ein Drehbuch für den Film "Terminator", der ihn schließlich zum Star machte. Das Drehbuch basierte auf einem Albtraum von Cameron. Er verkaufte es an die Produzentin Gale Anne Hurd für 1 Dollar gegen die Zusage, dass er Regie bei dem Film führen durfte. Da sich die Finanzierung des Films hinzog, kam er erst 1984 in die Kinos. In der Zeit bis zu den Terminator-Dreharbeiten schrieb Cameron zwei weitere Drehbücher – für "Aliens – Die Rückkehr" und "Rambo 2 – Der Auftrag". Die Drehbuchänderungen von Sylvester Stallone und die Umsetzung von "Rambo 2" verärgerten Cameron völlig, vor allem aufgrund der Aussparung der antimilitaristischen Botschaft seines Originaldrehbuchs. In einem Interview mit dem deutschen Filmkritiker Milan Pavlovic antwortete Cameron auf die Frage, ob er in dem Drehbuch eigene Vietnam-Erfahrungen verarbeitet hätte, dass er als Kanadier mit dem Vietnamkrieg nichts zu tun gehabt habe. Nachdem die Produzenten von "Aliens", Walter Hill, David Giler und Gordon Carroll das Drehbuch von Cameron gelesen (ihre einzige Vorbedingung über den Inhalt des Films hatte darin bestanden, dass die Protagonistin aus dem ersten "Alien-Film" Ripley sowie Soldaten mitspielen sollten) und den Erfolg von Terminator erlebt hatten, boten sie ihm die Regie für "Aliens – Die Rückkehr" an. Cameron nahm das Angebot unter der Bedingung an, dass Hurd produzierte. Für nur 18 Millionen Dollar drehte er die Fortsetzung von Ridley Scotts Alien, die mit sieben Oscar-Nominierungen und fast universell positiven Filmkritiken zu den besten Science-Fiction-Filmen aller Zeiten gezählt wird. Als Nächstes drehte er "Abyss – Abgrund des Todes", dessen Handlung auf einer Geschichte basierte, die er im Alter von 17 Jahren in einer Biologie-Stunde geschrieben hatte. Später an der Universität wurde bei einer Vorlesung ein Mann vorgeführt, der in einem Taucheranzug statt Luft eine mit Sauerstoff gesättigte Flüssigkeit atmete, um so in große Tiefen tauchen zu können. Der Film kam 1989 in die Kinos. Bei 48 Millionen Dollar Produktionskosten kam der Film nur knapp in die Gewinnzone. "The Abyss" gehört zu den größten Meilensteinen der Filmgeschichte, da er die Tricktechnik revolutionierte. Völlig neue Techniken wie Morphing, photorealistische Computeranimationen und Unterwasser-BlueScreen wurden teilweise eigens für diesen Film entwickelt. Allerdings gilt der Film bis heute auch als Musterbeispiel für schlechtes Marketing, da man in der Werbung über die bahnbrechenden Effekte kein Wort verlor. Um diesen Fehler nicht zu wiederholen, wurden die Spezialeffekte beim nächsten Film "(Terminator 2)" in der Werbung überbetont. Die Qualitäten des Films begründeten eine größere Fangemeinde für Cameron, The Abyss lief noch jahrelang in Programmkinos. 1990 gründete James Cameron zusammen mit Larry Kasanoff die Produktionsfirma Lightstorm Entertainment, mit welcher er fortan seine Filme produzierte. Ferner gründete er 1993 zusammen mit dem Effekt-Spezialisten Stan Winston das Spezialeffekt-Unternehmen Digital Domain, das sowohl für Camerons als auch für fremde Filme digitale Effekte produziert. Im Jahr 2000 gründete Cameron zusätzlich für die Produktion von Fernseh-Serien die "Cameron/Eagle Productions", welche aber nach kurzer Dauer wieder aufgelöst wurde. "Terminator 2 – Tag der Abrechnung" war 1991 der bis dahin teuerste Film aller Zeiten. Das Drehbuch des 94 Millionen Dollar teuren Streifens schrieb Cameron zusammen mit William Wisher. Anfang der 1990er Jahre unterschrieb Cameron einen Rahmenvertrag über 20 Filme, der ihm eine Gage von insgesamt 500 Millionen Dollar garantiert. "True Lies", die erste Action-Komödie Camerons kam 1994 ins Kino. Die Idee hatte Arnold Schwarzenegger geliefert. Bei einer der gemeinsamen Motorradtouren mit Cameron hatte er ihm von einer französischen Komödie mit dem Titel „La Totale“ erzählt. Am 19. Dezember 1997 kam schließlich "Titanic" in die amerikanischen Kinos (Erstaufführung in Deutschland: 8. Januar 1998). Der nach Aussagen Camerons knapp über 200 Millionen Dollar teure Film erhielt 11 Oscars. Nach "Titanic" zog sich Cameron aus dem Regiegeschäft weitestgehend zurück, unternahm als Hobbyforscher mehrere Tiefseetauchgänge und arbeitete zusammen mit seinem Bruder Mike an der Entwicklung neuer Filmtechniken. Im Jahr 2000 produzierte Cameron mit "Dark Angel" seine erste Fernsehserie. Die Serie war nur außerhalb der USA ein Erfolg und wurde nach zwei Staffeln wieder eingestellt. Zusammen mit Bill Paxton und seinem Bruder Mike realisierte Cameron 2001 mit "Ghosts of the Abyss" einen IMAX-3D-Film über die Titanic, der 2003 in die Kinos kam. 2002 produzierte Cameron eine Fernsehdokumentation über das deutsche Schlachtschiff "Bismarck", die auf Discovery Channel gesendet wurde. Im deutschen Fernsehen wurde die Dokumentation erstmals 2006 von RTL gezeigt. 2005 kam eine 3D-Dokumentation mit dem Titel "Aliens der Meere" in die IMAX-Kinos, in der Cameron zusammen mit NASA-Wissenschaftlern Gebirgsketten auf dem Meeresgrund und Tiefseelebewesen untersucht. Für den Science-Fiction-3D-Film "Avatar – Aufbruch nach Pandora", der am 16. Dezember 2009 in die Kinos kam, entwickelte Cameron digitale und stereoskope 3D-Techniken nebst den CGI-Techniken weiter. Die Dreharbeiten zu dem 237 Millionen Dollar teuren Film fanden von April bis November 2007 in Neuseeland und Hollywood statt. Er hat mit 2,721 Milliarden US-Dollar (rund 2,14 Milliarden Euro) das Einspielergebnis von "Titanic" (1,843 Milliarden Dollar) übertroffen. "Avatar – Aufbruch nach Pandora" gilt damit ohne Berücksichtigung inflationärer Effekte als erfolgreichster Film der Welt. Der Rekord wurde nach 39 Tagen aufgestellt, bei "Titanic" hatte es 41 Wochen gedauert. Cameron bereitete zwischenzeitlich die Produktion der Verfilmung des Mangas Battle Angel Alita vor, die ebenfalls in 3D erscheinen soll, ist momentan jedoch vorrangig mit der Arbeit an den drei Avatar-Sequels beschäftigt. Filmstil und Arbeitsweise. Die Filme von James Cameron haben viele Gemeinsamkeiten. Dazu gehören die intensive Nutzung aufwendiger Spezialeffekte nach dem aktuellen Stand der Technik und das üblicherweise hohe Budget: Mehrere Filme waren zum Zeitpunkt ihrer Fertigstellung der teuerste Film der Welt. In fast allen Filmen Camerons spielen starke und selbstbewusste Frauen eine tragende Rolle, eine Seltenheit im Actionfilmgenre. Stilistisch auffallend ist der häufige Einsatz von blauen Farbfiltern und einige Szenen aus Dutch Angles. Häufig wiederkehrende Themen der Filme Camerons sind Charaktere, die mit dramatischen Krisensituationen umgehen müssen, der Konflikt zwischen Technologie und Menschlichkeit und das Auftreten außerirdischer Lebensformen. Obwohl der Großteil seines Schaffens aus Science Fiction- und Actionfilmen besteht, gilt der romantische Kern seiner Filme als wichtigstes Merkmal seines persönlichen Filmstils. Cameron ist für seine diktatorische Art und sein hohes Temperament am Filmset bekannt. Der Autor Orson Scott Card bezeichnete ihn als „grausam“ und „selbstsüchtig“. Die Schauspielerin Kate Winslet (Titanic) gab an, nicht mehr mit Cameron arbeiten zu wollen, sofern man ihr nicht „eine Menge Geld“ dafür geben würde. Laut Sam Worthington (Avatar) nagelte Cameron am Filmset klingelnde Mobiltelefone von Mitarbeitern mit einer Nagelpistole an die Studiowand. Sigourney Weaver verteidigte Camerons Führungsstil und versicherte, dass Cameron dem Film zuliebe seinen Mitarbeitern zwar das Äußerste abverlange, mit sich selbst jedoch ähnlich hart sei. In der South Park-Folge "Eine hohle Bar" wird seine diktatorische und exzentrische Art persifliert, aber auch sein kultureller und umweltpolitischer Beitrag gewürdigt. Umweltpolitische Aktivitäten und Filme. Anfang April 2010 reiste Cameron nach Brasilien, wo er sich gegen den Bau des Belo-Monte-Stausees einsetzte, der indianische Stämme am Rio Xingu bedroht. Dazu besuchte er Juruna, Xipaia und Xikrin Kayapó, die sich gegen die Umsiedlung von 12.000 Bewohnern und die Zerstörung ihrer Kultur zur Wehr setzen. Ende April 2010 äußerte Cameron in einer Podiumsdiskussion (gemeinsam mit Thomas L. Friedman und Sigourney Weaver), dass der Klimawandel die größte Bedrohung für die Vereinigten Staaten seit dem Zweiten Weltkrieg darstelle. Im Gegensatz zu jetzt habe es sich jedoch damals nur um ein umgrenztes Problem gehandelt. Er wies darauf hin, dass am Ende seines Films Avatar der Planet Erde als „sterbende Welt“ bezeichnet werde. Avatar sei keine Vorhersage, sondern solle davor warnen, was gerade passiert. Im Oktober 2010 wurde bekannt, dass Cameron eine Million US-Dollar zur Unterstützung des von Arnold Schwarzenegger initiierten kalifornischen Klimaschutzgesetzes gespendet hatte. Cameron wurde daraufhin von Klimaskeptikern in einem politischen Werbefilm als „Heuchler“ bezeichnet. Seine Warnungen vor dem Klimawandel stünden im Widerspruch dazu, dass sich auf seinen großen Anwesen beheizte Swimming-Pools, eine Vielzahl von Autos, Motorrädern etc., aber keine Solarpaneele oder Windräder befänden. Die Tageszeitung The Independent wies darauf hin, dass der Film ignoriere, dass Cameron Ausgleichszahlungen für seine persönlichen CO2-Emissionen leiste. Cameron ernährt sich nach eigenen Angaben seit dem Frühjahr 2012 aus ethischen Gründen vegan. Im Juli 2012 gab er bekannt, dass er die kurz zuvor in Neuseeland erworbene Farm auf pflanzliche Produkte umstellen wolle. Auf einer Preisverleihung der National Geographic Society im Juni 2013, auf der er die Auszeichnung „Explorer of the Year“ erhielt, warb er erneut für die vegane Ernährung aus Gründen des Umweltschutzes. Im April 2014 wurde die erste Folge der von Cameron mitproduzierten neunteiligen Fernseh-Dokumentarreihe Years of Living Dangerously ausgestrahlt, die sich mit den Ursachen und Folgen des Klimawandels befasst. Unter anderem wirken darin Arnold Schwarzenegger, Harrison Ford, Matt Damon, Don Cheadle, Jessica Alba, und Thomas L. Friedman mit. Ölpest im Golf von Mexiko 2010. Nach der Ölpest im Golf von Mexiko 2010 hat sich James Cameron aufgrund seiner Erfahrung mit Technik, Unterwasserkameras sowie Unterwasserrobotern und U-Booten als Experte angeboten. Welche Aufgaben er dabei tatsächlich übernehmen könnte, war damals unklar. Tauchfahrt zum Challengertief. Seit 2005 betrieb Cameron zusammen mit National Geographic die Entwicklung eines bemannten Unterseebootes mit dem Ziel, damit das Challengertief im Marianengraben, den mutmaßlich tiefsten Punkt der Weltmeere, zu erreichen. Da sich gleichzeitig auch drei andere Gruppen darum bemühten (unter anderem finanziert vom damaligen Chief Executive Officer von Google, Eric Schmidt und dem Vorsitzenden der Virgin Group, Richard Branson), hielt er sein Unterfangen bis zum Februar 2012 geheim. Am 26. März 2012 erreichte er dann mit seinem Boot Deepsea Challenger alleine und als dritter Mensch insgesamt den Grund des Tiefs. Das Boot ist mit zahlreichen Kameras ausgestattet, deren Aufnahmen Grundlage eines 3D-Dokumentarfilmes über die Tiefsee und die Expedition werden sollen. Jonathan Demme. Robert Jonathan Demme (* 22. Februar 1944 in Baldwin, New York) ist ein US-amerikanischer Filmregisseur und Oscar-Preisträger. Als sein wohl bekanntestes Werk gilt der Thriller "Das Schweigen der Lämmer". Leben. Johnathan Demme wuchs in Long Island auf. Im Alter von 15 Jahren zog er mit seiner Familie nach Miami, wo er die High School und das College besuchte. Nach eigenen Aussagen war Demme zum damaligen Zeitpunkt bereits ein „Movie Junkie“, beschränkte sich aber noch auf den US-amerikanischen Film. Der erste Nouvelle-Vague-Film, den er dann sah, Truffauts "Schießen Sie auf den Pianisten" (1960), beeindruckte ihn sehr, und Demme konnte die Redaktion der Collegezeitung überzeugen, ihn als Filmkritiker aufzunehmen. Nach dem Collegeabschluss studierte Demme zunächst Veterinärmedizin, scheiterte aber schon nach kurzer Zeit wegen mangelnder Chemiekenntnisse. Zusätzlich schrieb er für kleinere Zeitungen als Kritiker, bis sein Vater den Produzenten Joseph E. Levine kennenlernte, durch den Demme einen Job als Presseagent bekam. In den nächsten Jahren arbeitete er bei verschiedenen Produktionsfirmen, unter anderem United Artists und Avco Embassy, schrieb aber auch weiterhin Kritiken. Anfang der 1970er Jahre drehte er Werbespots in London. Dort traf er dann den B-Movie-Regisseur Roger Corman und arbeitete mit ihm zwischen 1971 und 1976 zusammen. Von Corman stammte auch die Idee zum Bikerfilm "Angels Hard as They Come" (1971), für den Demme zusammen mit dem Regisseur Joe Viola das Drehbuch verfasste. Als Vorlage diente ihnen Akira Kurosawas "Rashomon". Demme produzierte den Film auch, Viola selbst führte Regie. Als Regisseur trat Demme dann zum ersten Mal bei "Das Zuchthaus der verlorenen Mädchen" (1974) in Erscheinung. 1977 drehte er "Handle with Care", der ihm positive Kritiken einbrachte. Internationale Anerkennung erlangte Demme jedoch erst 1980 durch "Melvin und Howard". Dass er auch für ein größeres Publikum drehen konnte, bewies er 1984 mit "Swing Shift", bei dem er erstmals mit Stars wie Goldie Hawn und Kurt Russell zusammenarbeitete. Ebenfalls im Jahr 1984 entstand "Stop Making Sense", die Dokumentation eines Konzertes der New-Wave-Band Talking Heads, die ein Meilenstein der Konzert- und Musikfilme wurde. Demme arbeitete noch weitere Male für die Musikbranche, so drehte er zum Beispiel Videoclips für New Order, Suzanne Vega, Bruce Springsteen, The Neville Brothers, Artists United Against Apartheid und andere. Im Jahr 1988 entstand "Die Mafiosi-Braut" mit Michelle Pfeiffer und Matthew Modine in den Hauptrollen, eine Komödie, die einige Auszeichnungen für die Leistungen ihrer Darsteller erhielt, und bei der David Byrne von den Talking Heads für die Filmmusik verantwortlich zeichnete. 1989 erhielt Demme dann von Orion Films das Angebot, Thomas Harris Erfolgsroman Das Schweigen der Lämmer zu verfilmen. Im Vorfeld der Dreharbeiten lehnten zahlreiche Weltstars wie Gene Hackman und Michelle Pfeiffer die ihnen angebotenen Rollen ab, "Das Schweigen der Lämmer" wurde dennoch sowohl in kommerzieller als auch in künstlerischer Hinsicht ein Welterfolg. Er gehört zu den wenigen Filmen, die einen Oscar in den fünf wichtigsten Kategorien erhielten. Der Film wurde 2011 in die National Film Registry for preservation aufgenommen. Demme drehte 1993 "Philadelphia", der ebenfalls ein kommerzieller Erfolg wurde. Danach jedoch verließ ihn das Glück und er konnte mit dem Spielfilm "Menschenkind" von 1998, der Verfilmung eines Romanes der Nobelpreisträgerin Toni Morrison, und den Remakes "Die Wahrheit über Charlie" und "The Manchurian Candidate" nicht mehr an seine Erfolge anknüpfen. Im Jahr 2008 wurde sein Drama "Rachels Hochzeit" bei den 65. Filmfestspielen von Venedig als Wettbewerbsbeitrag uraufgeführt. Weitere biografische Einzelheiten. Politisch engagierte sich Demme mit Filmen für die Demokratie in Haiti. Er war Gründungsmitglied der Organisation Artists United for Democracy in Haiti und arbeitete an weiteren Haiti-Projekten. Anfang der 80er Jahre gründete er mit Garry Goetzman die Produktionsfirma Clinica Estetico. Demme arbeitet gerne mit einem eingespielten Team von langjährigen Mitarbeitern. Da das Thema der weiblichen Selbstbestimmung und -findung in patriarchalen Gesellschaftsstrukturen in mehreren seiner Filme vorkommt (z. B. "Swing Shift", "Das Schweigen der Lämmer"), galt er vielen als „feministischer“ Regisseur. Jonathan Demmes im Jahr 2002 verstorbener Neffe Ted Demme war ebenfalls Regisseur. James L. Brooks. James L. Brooks (* 9. Mai 1940 in North Bergen, New Jersey) ist ein US-amerikanischer Drehbuchautor, Filmproduzent, Filmregisseur und Schauspieler. Der Filmregisseur hat in fast 30 Jahren lediglich sechs Filme gedreht. Er kann auf acht Oscar-Nominierungen für "Zeit der Zärtlichkeit", "Nachrichtenfieber – Broadcast News", "Jerry Maguire – Spiel des Lebens" (Produzent) und "Besser geht’s nicht" zurückschauen. Für den erstgenannten Film erhielt er die Trophäe gleich drei Mal: als Produzent, als Regisseur und für das Drehbuch. Brooks ist seit den frühen 1960ern beim Fernsehen tätig. So war er als Entwickler und Produzent an mittlerweile klassischen Serien wie "Mary Tyler Moore", "Taxi" und "Lou Grant" beteiligt. Außerdem ist er einer der Väter der "Simpsons". John Ford. John Ford (* 1. Februar 1894 in Cape Elizabeth, Maine als "John Martin Feeney"; † 31. August 1973 in Palm Desert, Kalifornien) war ein US-amerikanischer Filmregisseur und Filmproduzent, der über Jahrzehnte zu den erfolgreichsten und renommiertesten Regisseuren Hollywoods gehörte und filmhistorische Bedeutung erlangte. Ford gewann vier Oscars in der Kategorie "Beste Regie" und ist damit Rekordpreisträger unter den Regisseuren der Oscar-Geschichte. Er wurde insbesondere als führender Regisseur des amerikanischen Westerns berühmt und drehte wegweisende Filme des Genres wie "Ringo", "Der Schwarze Falke", "Der Mann, der Liberty Valance erschoß" und die Kavallerie-Trilogie. Außerhalb des Westerngenres war er mit weiteren Klassikern wie "Früchte des Zorns", "Schlagende Wetter" und "Der Sieger" erfolgreich. Insgesamt umspannte Fords Filmkarriere über 140 Filme in fast 50 Jahren. Frühes Leben und erste Erfahrungen als Schauspieler. John Ford wurde unter dem Namen John Martin Feeney als zehntes Kind einer katholisch-irischen Einwandererfamilie in Maine geboren. Sein Vater stammte aus Spiddal, die Mutter von den Aran-Inseln. Insgesamt hatte das Ehepaar elf Kinder, von denen sechs das Erwachsenenalter erreichten. Feeney besuchte die Portland High School in Maine, wo er sich erfolgreich als Sportler unter Beweis stellte. Nach Ende seiner Schulausbildung kam Feeney nach Hollywood, wo sein älterer Bruder bereits unter dem Pseudonym Francis Ford ein erfolgreicher Schauspieler und Regisseur geworden war. Wie sein Bruder arbeitete auch Feeney zunächst als Schauspieler und wählte ebenfalls das Pseudonym "Ford". Zunächst wählte er allerdings das Pseudonym "Jack" Ford, erst 1923 erfolgte die Umbenennung in "John" Ford. Bereits 1913 soll Ford einen ersten Auftritt im Film "The Honor of the Regiment" gehabt haben. Im folgenden Jahr spielte er dann die Rolle des Dr. Watson in "A Study in Scarlet". 1915 hatte er dann eine kleine Rolle als Mitglied des Ku-Klux-Klans in David Wark Griffiths wegweisendem Stummfilm-Epos "Die Geburt einer Nation". Er trat ebenfalls in mindestens 15 Filmen seines Bruders Francis Ford auf, dem er auch als Regieassistent aushalf. Francis sollte später – als seine eigene Regiekarriere beendet war – noch häufig Nebenrollen in den Filmen seines kleinen Bruders übernehmen. Regiearbeit in Stummfilmen. John Ford machte seine erste Regiearbeit für den 20-minütigen Western "The Tornado" im Jahre 1917 für das Filmstudio Universal Studios. Er spielte ebenfalls selbst die Hauptrolle (seine kurze Laufbahn als Filmschauspieler beendete er noch Ende 1917). Laut Fords Aussage hatte Universal-Chef Carl Laemmle dem 23-jährigen den Job gegeben, weil er so gut schreien könnte. Zu diesem frühen Zeitpunkt der Filmgeschichte war es zudem noch recht leicht, verschiedene Aufgaben beim Film einfach auszuprobieren. In den ersten Jahren seiner Karriere drehte Ford viele eher kleinere Filme herunter: Zehn Filme im Jahre 1917, acht Filme im Jahre 1918 und fünfzehn Filme im Jahre 1919. Er erhielt jedoch zunächst nur selten eine Erwähnung als Regisseur im Vorspann. Sein erster Film in Spielfilmlänge war der Western "Straight Shooting" mit Harry Carey in der Hauptrolle. Zwischen Ford und Westernfilm-Star Carey, der ebenfalls ein Vorbild für John Wayne war, entspannte sich eine lebenslange Freundschaft. Sie drehten zusammen rund 25 Filme, ausschließlich Western. Nachdem Ford sich bei Universal einen guten Ruf erarbeitet hatte, wechselte er 1920 zu den Fox Studios des Produzenten William Fox. Sein erster Film hier war "Just Pals" mit Buck Jones und Helen Ferguson in den Hauptrollen. Er führte bei Fox auch erstmals außerhalb des Westerngenres Regie, etwa bei den Dramen "Little Miss Smiles" mit Shirley Mason sowie "Cameo Kirby" mit John Gilbert. 1924 inszenierte Ford dann das Westernepos "Das eiserne Pferd", der vom Bau der First Transcontinental Railroad und mit 150 Minuten Laufzeit ungewöhnlich lang und aufwendig war. Gedreht wurde der Film mit rund 5000 Statisten und zehntausenden Tieren in der Wüste Sierra Nevada. Die schwierigen Bedingungen verzögerten die Dreharbeiten und machten den Film noch teurer als geplant, doch am Ende standen gute Kritiken und ein deutlicher Gewinn an den Kinokassen. Dieser Film machte Ford sehr bekannt. Seine gewonnen Reputation wurde auch dadurch deutlich, dass er in den 1920er-Jahren Präsident der Motion Picture Directors Association wurde, einer Vororganisation der Directors Guild of America. In der Folge inszenierte Ford weitere erfolgreiche Stummfilme, so den Western "Drei rauhe Gesellen" (1926), wo drei Pferdediebe sich bekehren und einem jungen Paar helfen. In "Drei rauhe Gesellen" spielte wie auch schon in "Das eiserne Pferd" George O’Brien die Hauptrolle, der später auch in mehreren Tonfilmen Fords Nebenrollen übernahm. Der Westernfilm im Allgemeinen verlor jedoch zunehmend an Zuschauern, weshalb Ford auf Weisung der Produzenten bereits Ende der 1920er-Jahre auf andere Filmgenres ausweichen musste. 1928 inszenierte er beispielsweise das Drama "Four Sons" über die Tragödie einer bayrischen Familie, deren Familienmitglieder im Ersten Weltkrieg auf verschiedenen Seiten kämpfen. Der Film war ein Kassenschlager und gewann den Photoplay Award als Bester Film. Für diesen Film ließ sich Ford auch stark vom deutschen Regisseur Friedrich Wilhelm Murnau beeinflussen, der ebenfalls bei Fox Studios unter Vertrag stand. In "Four Sons" hatte ein junger und noch unbekannter John Wayne erstmals eine kleine Rolle in einem Film von Ford, der Anfang einer jahrzehntelangen Freundschaft und Partnerschaft. Anschließend folgten "Riley the Cop" (1928) mit J. Farrell McDonald und "Strong Boy" (1929) mit Victor McLaglen in der Hauptrolle, letzterer Film war Fords letzte Stummfilmarbeit. Rund 85 % der Stummfilme von John Ford gelten als verschollen, darunter fast alle Frühwerke. Frühe Tonfilmkarriere. John Ford war im Gegensatz zu anderen Stummfilmregisseuren positiv gegenüber dem Tonfilm eingestellt. Bereits 1928 drehte er mit dem dreißigminütigen Kurzfilm "Napoleon's Barber" seinen ersten Tonfilm. John Ford probierte sich jetzt in allen Genres aus, vom Abenteuerfilm "The Black Watch" (1929) über das U-Boot-Drama "U 13" (1930) bis zur Krimikomödie "Born Reckless" (1930). In Fords Komödie "Up the River" machten Spencer Tracy und Humphrey Bogart im Jahre 1930 jeweils ihr Filmdebüt. Im folgenden Jahre inszenierte Ford insgesamt drei Filme, wobei insbesondere die Literaturverfilmung "Arrowsmith" nach dem Roman von Sinclair Lewis sich als erfolgreich erwies und vier Oscar-Nominierungen einbrachte. 1932 inszenierte Ford den Fliegerfilm "Air Mail" mit Ralph Bellamy sowie das Drama "Flesh" mit Wallace Beery. Beide Filme drehte er bei anderen Filmstudios, doch schon 1933 kehrte er wieder zu Fox Studios zurück. Bei Fox machte Ford noch 1933 die Komödie "Doctor Bull", den ersten von drei Ford-Filmen mit Komikerstar Will Rogers in der Hauptrolle. 1934 verkörperte Rogers ebenfalls die Titelfigur in Fords "Judge Priest", wo Rogers sich als Kleinstadtrichter mit einer Reihe von amüsanten Fällen herumschlagen muss. "Judge Priest" wurde zu einem der Kassenschlager des Jahres. Ebenfalls 1934 erschien der Kriegsfilm "Die letzte Patrouille" mit Victor McLaglen und Boris Karloff, wo sich eine amerikanische Truppe im Ersten Weltkrieg durch die Wüste schlagen muss. Außerdem drehte Ford noch das Drama "The World Moves On", dass sich über 100 Jahre entspannt und von einer Familie von Baumwollhändlern handelt. Im folgenden Jahr entstand die Verwechslungskomödie "Stadtgespräch" mit Edward G. Robinson und Jean Arthur, die ebenfalls gute Kritiken einfuhr. Außerdem inszenierte Ford mit "Steamboat Round the Bend" seine dritte und letzte Komödie mit Will Rogers in der Hauptrolle. Der Komiker verstarb kurz darauf bei einem Flugabsturz. Mitte der 1930er-Jahre zählte Ford zu den bekanntesten Regisseuren in Hollywood. Den Höhepunkt seiner bisherigen Karriere erreichte er 1935 mit dem Drama "Der Verräter", wo Victor McLaglen einen irischen Arbeiter spielte, der seinen Freund an die Polizei verrät, damit er ein wenig Geld für einen Neuanfang bekommt. Dieses Werk wurde hochgelobt und mit insgesamt vier Oscars bedacht, darunter auch für John Ford in der Kategorie "Beste Regie". Im folgenden Jahr veröffentlichte Ford das Gefangenendrama "Der Gefangene der Haifischinsel" mit Warner Baxter sowie das aufwendige Historiendrama "Maria von Schottland", letzterer Film geriet allerdings zum Flop. 1937 folgten der Südsee-Abenteuerfilm "… dann kam der Orkan" sowie der in Indien spielende "Rekrut Willie Winkie" mit Kinderstar Shirley Temple in der Hauptrolle. Beide Werke von 1937 waren an den Kinokassen höchst erfolgreich. Die folgenden beiden Filme aus dem Jahre 1938 wurden dagegen eher mittelmäßig aufgenommen. Spätere Karriere. 1939 drehte John Ford mit dem Western "Ringo" einen seiner größten Erfolge. Mit diesem extrem einflussreichen Kinoklassiker machte er sowohl seinen langjährigen Freund John Wayne zum Star als auch das Monument Valley als Kulisse bekannt. Zudem zeichnete sich das Werk auch durch atemberaubende Stunts von Yakima Canutt aus. Das Tal mit seinen Felstürmen sollte auch in zahlreichen späteren Ford-Filmen als eindrucksvoller Schauplatz dienen. Ford revitalisierte mit "Ringo" das Westerngenre, denn zuvor hatten die Filmstudios seit Anfang der 1930er-Jahre meist nur unbedeutendere und anspruchslose B-Western produziert. Er zeigte den Filmstudios, dass Western auch „intelligent, kunstvoll, große Unterhaltung - und profitabel“ sein konnten. Im selben Jahr erschien ebenfalls die fiktionalisierte Filmbiografie "Der junge Mr. Lincoln" mit Henry Fonda in der Hauptrolle, die zwar nicht ganz so erfolgreich wie "Ringo" war, aber dennoch als kleinerer Klassiker gilt. So urteilte etwa das Lexikon des Internationalen Films, es sei „ein bis in Einzelheiten originell, durchdacht und menschlich echt wirkender Film“. Ford gewann insgesamt vier Oscars als „Bester Regisseur“: 1936 für "Der Verräter", 1941 für "Früchte des Zorns", 1942 für "Schlagende Wetter" und 1953 für "Der Sieger". Dazu kamen zwei Preise für den besten Dokumentarfilm. Diese erhielt er für Dokumentationen, die er während des Zweiten Weltkriegs drehte: "The Battle of Midway" (1942) und "Der 7. Dezember" (1943). Im Krieg leitete Ford die „Field Photo Unit“, eine Einheit, die der OSS, der Vorgängerin der CIA, untergeordnet war. Im Rahmen der Fotoaufklärung für die Armee war Ford an fast allen Fronten des Krieges im Einsatz: Im Pazifik wie auch bei der Landung der Alliierten in der Normandie. Eine weitere Angewohnheit von Ford war, dass er in vielen Filmen mit denselben Schauspielern zusammenarbeitete. Fords Filme blieben, zumindest bis etwa 1939 relativ unpolitisch, romantisch und an der Legende des Wilden Westens orientiert. Mit zunehmendem Alter wurden Fords Filme jedoch pessimistischer, das Bild des moralisch ungebrochenen Pioniers, welcher eine Nation aufzubauen hat (das Credo des „Manifest Destiny der USA“) verlor zusehends an Bedeutung für ihn. Mit dem Protagonisten „Ethan Edwards“ in „The Searchers/Der schwarze Falke“ schuf er einen zeitlosen Archetypen des amerikanischen Kinos, den moralisch ambigen, gehetzten, gewalttätigen Helden. Über die politischen Ansichten John Fords wurde lange weithin angenommen, dass er ein konservativer Republikaner war, auch da er Freundschaften zu bekannten Republikanern wie John Wayne oder Ward Bond pflegte. Tatsächlich zählten zu seinen Lieblingspräsidenten neben dem Republikaner Abraham Lincoln auch Franklin D. Roosevelt und John F. Kennedy. Der McCarthy-Ära stand er eher kritisch gegenüber, so verteidigte er seinen Kollegen Joseph L. Mankiewicz vor Vorwürfen, dass er ein Kommunist sei. Während er die meiste Zeit seines Lebens politisch eher links eingestellt war, wandte er sich gegen Ende seines Lebens mehr den Republikanern zu und unterstützte Richard Nixon im Wahlkampf 1968. Seine Verfilmung von John Steinbecks sozialkritischem Klassiker "Früchte des Zorns" ist eines der ersten Roadmovies. Er drehte zudem Dokumentationen an Kriegsschauplätzen. Privatleben. 1956 wollte er sich den Grauen Star entfernen lassen. Nach der Operation war er zu ungeduldig und entfernte die Verbände zu früh von seinen Augen. Die Folge war die völlige Erblindung seines linken Auges. Seitdem trug er seine berühmte Augenklappe. 1964 erkrankte er an Krebs, woran er schließlich 1973 starb. Er wurde auf dem Friedhof „Holy Cross Cemetery“ in Culver City, Kalifornien begraben. Von 1920 bis zu seinem Tod war er mit Mary Frances McBride verheiratet, sie hatten zwei Kinder. Auszeichnungen. American Film Institute Directors Guild of America Golden Globe Sindacato Nazionale Giornalisti Cinematografici Italiani Internationales Filmfestival von Locarno National Board of Review New York Film Critics Circle Award Venedig Film Festival gemeinsam mit Willis Goldbeck (Produzent); James Warner Bellah (Buch); Lee Marvin, Edmond O’Brien, James Stewart, Vera Miles, John Wayne (Schauspieler) gemeinsam mit Henry Hathaway, George Marshall (Regisseure); James R. Webb (Buch) gemeinsam mit Bernard Smith (Produzent); James R. Webb (Buch) Walk of Fame Jean-Luc Godard. Jean-Luc Godard in Berkeley, 1968 Jean-Luc Godard (* 3. Dezember 1930 in Paris) ist ein französisch-schweizerischer Regisseur und Drehbuchautor. Er zählt zu den einflussreichsten Filmregisseuren der 1960er Jahre. Leben und Werk. Jean-Luc Godard entstammt einer großbürgerlichen französisch-schweizerischen Familie. Sein Vater war Arzt und Besitzer einer Schweizer Privatklinik, seine Mutter kam aus einer angesehenen Schweizer Bankiersfamilie. Die Großeltern kollaborierten während der deutschen Besatzung mit dem Vichy-Regime. Godard, der ursprünglich nur die französische Staatsbürgerschaft besaß, wurde 1953 Bürger von Gland im Kanton Waadt. Etwa seit 1980 lebt er in der Kleinstadt Rolle am Nordufer des Genfersees. Godard besuchte zunächst die Schule im waadtländischen Nyon. Nach der Scheidung seiner Eltern übersiedelte er 1948 nach Paris, besuchte dort das Lycée Buffon und begann ein Jahr später an der Sorbonne ein Studium der Ethnologie. In seiner Studienzeit kam er mit einem Pariser Filmclub in Kontakt und fand Zugang zu einer Gruppe, der auch François Truffaut, Jacques Rivette und Éric Rohmer angehörten. Als André Bazin 1951 das kritische Magazin Cahiers du cinéma begründete, gehörte Godard neben Rivette und Rohmer zu dessen ersten Autoren. Filmkritiker. 1950 gründete Godard mit Rohmer und Rivette eine eigene Filmzeitschrift, die jedoch nach fünf Ausgaben eingestellt wurde. Ab 1952 schrieb er als Filmkritiker für die Filmzeitschrift Cahiers du cinéma, gelegentlich unter dem Pseudonym Hans Lucas. Er bezeichnete diese Phase seines Lebens als äußerst wichtig für sein späteres filmisches Schaffen. Wie Truffaut gehört er zu den Regisseuren der Nouvelle Vague, die ihre Filme immer mit umfangreichen Schriften begleitet haben. Darin beruft er sich unter anderem auf die Regisseure Dreyer und Murnau sowie auf den Schriftsteller Dostojewski. "(„Zwischen Schreiben und Drehen gibt es nur einen quantitativen, nicht einen qualitativen Unterschied.“)" Kurzfilme. Nach einem fehlgeschlagenen Versuch drehte er 1954 seinen ersten eigenen Film, "Opération Beton", der über den Bau der Staumauer Grande Dixence in der Schweiz berichtete. Godard selbst arbeitete dort als Bauarbeiter, um seine Finanzen aufzubessern. Der Film wurde jedoch von der Kritik – verglichen mit den Aufsätzen – als uninspiriert und oberflächlich bezeichnet. Zwischen 1955 und 1958 drehte er vier weitere Kurzfilme, von denen einige Vorgriffe auf seinen ersten Kinofilm "Außer Atem" enthielten. Zeitgleich arbeitete er als Cutter an Dokumentarfilmen – eine Arbeit, bei der er sich stark der Montage-Ästhetik des klassischen Spielfilms bediente. Nouvelle Vague. Mit dem 1960 erschienenen Spielfilm "Außer Atem" "(À bout de souffle)" etablierte sich Godard als Regisseur. Auch seinem Hauptdarsteller Jean-Paul Belmondo verhalf der Film zum Durchbruch. François Truffaut hatte das Drehbuch nach einer gleichnamigen Geschichte geschrieben, jedoch einige Änderungen vorgenommen. Während der Dreharbeiten, die vier Wochen dauerten, ging Godard häufig intuitiv vor und nahm sich auch tagelange Pausen. Der ganze Film ist mit einer Handkamera gedreht. Zudem wurde nur minimal beleuchtet und der Kameramann Raoul Coutard verwendete Stilmittel, die für jene Zeit unkonventionell waren, etwa Jump Cuts, Achsensprünge und Achsenverschiebungen. Godard selbst spielt in einer kleinen Nebenrolle einen Passanten. Später bezeichnete er den Film zeitweise als „faschistisch“. Sein zweiter Film sorgte nicht nur künstlerisch, sondern vor allem politisch für Aufsehen. "Der kleine Soldat" "(Le petit soldat)" spiegelt die Brutalität des Algerienkriegs wider, mit der die französische Armee die dortige Unabhängigkeitsbewegung bekämpfte. Der Film wurde von der Zensur verboten und durfte in Frankreich zwei Jahre lang nicht aufgeführt werden mit der Begründung, dass die Jugend davon abgehalten werden könnte, in Algerien zu dienen. Erst nachdem Godard in den Radionachrichten dieses Films alle Namen und die Zeitungsnachrichten gelöscht hatte, erhielt der Film die Freigabe für Frankreich. Bis zum Ende der 1960er Jahre war Godard sehr produktiv, wobei Filme wie "Weekend", "La chinoise" oder "Zwei oder drei Dinge, die ich von ihr weiß" chronologisch schwer einzuordnen sind, da sie teilweise parallel gedreht wurden. Er bewegte sich in diesen Werken immer weiter weg vom realistischen Erzählkino im Stil von Truffaut hin zu einem experimentellen Umgang mit Musik, Schrifttafeln und zum Beispiel Beiträgen zum Vietnamkrieg, der in fast allen Filmen dieser Zeit Erwähnung fand. "Weekend" beispielsweise enthält eine der längsten Kamerafahrten der Filmgeschichte, die viermal durch Schrifttafeln unterbrochen wird. Der Hauptdarsteller des Films kämpft sich rücksichtslos durch einen Stau auf einer französischen Landstraße, an dessen Ende Godard ein Blutbad inszeniert. Der Film ist Godards Reflexion seiner Zeit; er zeigt Hippies, die sich als Kannibalen entpuppen, brennende Fiktionsfiguren (entlehnt von Lewis Carroll) und zwei Afroamerikaner, die Malcolm X zitierend den Untergang der Konsumgesellschaft prophezeien. Am Ende erscheint der Schlusstitel "Fin du cinéma", der den Betrachter mit dem Abbild einer Welt ohne Perspektive zurücklässt. Radikale Gesellschaftskritik. Auch später, besonders nach 1968, provozierte Godard in seinen Filmen immer wieder mit radikaler Gesellschaftskritik. Das Jahr ist kulturgeschichtlich gesehen von einschneidender Bedeutung, denn es kam zu den so genannten „Ereignissen“ "(„événements“)" des Pariser Mai, die Godard aus der Reserve lockten. Nachdem er den Produzenten seines Films "One plus One" (auch: "Sympathy for the Devil)" geohrfeigt hatte, wurden seine Werke dem Kinopublikum nicht mehr über den Filmverleih zugänglich gemacht, was in beiderseitigem Einvernehmen geschah. Daher werden die danach entstandenen Werke oft als die "unsichtbaren Filme" bezeichnet. Gemeinsam mit dem sozialistischen Theoretiker und Althusser-Schüler Jean-Pierre Gorin gründete er die "Groupe Dziga Vertov" (benannt nach dem sowjetischen Filmemacher und Filmtheoretiker Dsiga Wertow), die dem kommerziellen Kino eine Absage erteilte und ihre Filme in den Dienst der Revolution stellte, insbesondere auch der „antizionistischen“ der Palästinenser. Aus Sicht dieser Gruppe konnte man das "imperialistische Kino" jener Zeit nicht mit dessen eigenen Waffen bekämpfen. Und da seit Griffith keine revolutionären Filme mehr hergestellt worden waren, musste man auch die Grammatik und die Formen der Darstellung neu erfinden. In den Jahren 1972 und 1973 übernahm Godard die Firma "Sonimage", die ihn von größeren Produktionsfirmen unabhängig machte und die Selbstverwaltung der Produktionsmittel ermöglichte. Sechs Jahre später kam es dann zu einem Vertrag zwischen "Sonimage" und dem unabhängig gewordenen Staat Mosambik, der sich mit der Bitte an Godard wandte, für das Land eine Infrastruktur der bewegten Bilder zu schaffen. Der Neuanfang mit dieser Firma hatte mit den provozierenden und ungezügelten Werken davor wenig zu tun. Godard arbeitete nun vorwiegend mit Videokameras und näherte sich einem dokumentarischen Stil. Spätwerk. Er beschäftigte sich unter anderem auch in einer Art Selbstreflexion mit seinen eigenen Werken: Der Film "Nouvelle Vague" von 1989 thematisierte die gleichnamige filmische Strömung. Auch die Deutsche Wiedervereinigung machte er in seinem Film "Deutschland Neu(n) Null („Allemagne 90 neuf zéro“)" zum Thema. Godard ist heute noch filmisch tätig. Seine avantgardistischen Werke haben es in der zunehmend von kommerziellen Multiplex-Kinos geprägten Kinolandschaft jedoch schwer, in ein Programm aufgenommen zu werden. Auf Filmfestivals sind aber regelmäßig neue Arbeiten von ihm zu sehen. Godard und sein Stil. Godard ist einer der führenden Vertreter der Nouvelle Vague und der Auteur-Theorie. Seine Filme gelten als richtungsweisend. Sie sind unter anderem gekennzeichnet durch ihre freie und experimentelle Form. Er widersetzte sich von Anfang an dem Stil des klassischen Hollywood-Kinos, indem er beispielsweise Dialoge nicht auf die herkömmliche Weise (Schuss und Gegenschuss) filmte, sondern mit Kamerabewegungen und Positionen experimentierte. Seine Filme sind oft collagenhafte Abbilder der Realität. Godard verwendet häufig den Jump-Cut und experimentierte damit – als erster Regisseur überhaupt – in "Außer Atem". Die damaligen „Verstöße“ gegen das bis dahin Übliche sind heute kaum mehr wahrnehmbar, da sie mittlerweile selbst in den einfachsten Fernsehinterviews genutzt werden. Er durchbricht zum Teil die Filmrealität, indem er einerseits die Aufnahmemechanismen des Mediums offenbart, andererseits aber dokumentarische Aspekte einarbeitet. So lässt er beispielsweise seine Figuren um ein Interview herum zu Wort kommen "(Zwei oder drei Dinge, die ich von ihr weiß)" oder aber er verweigert durch Aneinanderreihen nicht zusammen gehörender Bilder eine Kontinuität, die in kommerziellen Filmen eine realistische Umgebung suggeriert. Die Handlung wird, vor allem in seinen früheren Filmen, häufig unterbrochen von zum Beispiel plötzlich auftretenden Musikeinlagen "(Pierrot le Fou)" oder abrupten, nicht weiter erklärten Schießereien "()", entsprechend seinem Faible für amerikanische Genre-Filme, wobei er diesen selten mehr als einige Grundsituationen entnommen hat. Sein erklärtes Ziel war es, die durch Gewöhnung als natürlich angesehene Wahrnehmung des Films aufzulösen, um eine Analyse der eigenen, subjektiven Betrachtungsweise in den Mittelpunkt zu stellen. Häufig verwendet er in seinen Filmen Schrift, um sie auf bildhafte Qualitäten hin zu untersuchen "(Une femme est une femme", „Eine Frau ist eine Frau“). Er setzte sich in vielen seiner Filme auch mit dem Problem auseinander, in welcher Beziehung Sprache und Bild zueinander stehen und suggeriert damit einerseits, dass die Sprache zwar niemals akkurat eine bildliche Handlung wiedergeben könne, andererseits traut er der Poesie der Bilder nicht "(„Wir versuchen, immer weniger Bilder zu zeigen und mehr Töne zu machen“)." Er versucht die Kontrolle über die Bilder mit Hilfe der Sprache zu gewinnen. Nach 1967 spricht Godard nicht mehr vom Film an sich, sondern nur noch von Bildern und Tönen. Interessant ist für ihn auch die Frage, warum gerade jene Worte oder Bilder benutzt werden, die benutzt werden und nicht irgendwelche anderen. Er befindet sich folgerichtig auf der Suche nach den „richtigen“ Wörtern und Bildern und bietet dem Zuschauer diesbezüglich in manchen seiner Filme verschiedene Möglichkeiten an. Ständig stellt er die Wahrnehmung infrage und verweist auf ihren subjektiven und unsicheren Charakter. Er zeigt, wie begrenzt das sichere Wissen der Menschen über Gegenstände oder Personen jedweder Form ist. In seinem Film "Zwei oder drei Dinge, die ich von ihr weiß" beruft er sich auf Ludwig Wittgenstein. Dort lässt er seine Darstellerin sagen: "„Die Grenzen der Sprache sind die Grenzen der Welt – meiner Sprache, meiner Welt.“" Das Kino Godards lässt sich nicht auf eine Stilrichtung reduzieren, denn gerade seine qualitativ unterschiedlichen und zum Teil sich widersprechenden Haltungen machen sein Gesamtwerk mitunter schwer fassbar. Wie ein Wissenschaftler war Godard immer auf der Suche nach der Wahrheit, die seiner Meinung nach mit den klassischen Mitteln der Filmerzählung höchstens vorübergehender Natur sein kann. Er bezog die Experimentalanordnung seiner Filme mit in die Bewertung des Ergebnisses ein "(„Ich ziehe es vor, etwas zu suchen, was ich nicht kenne, statt etwas, was ich kenne, besser zu machen.“)" Ähnlich wie für Friedrich Schlegel "(„Nur das Unvollendete kann begriffen werden.“)" waren für Godard neue Ziele wichtiger als der zurückgelegte Weg. Immer wieder stellte er sich die Frage, wie das Wissen über die Technik des Filmes zu erlangen sei und in welcher Weise diese Technik die Realität darstellen könne. Filmografie als Regisseur (Auswahl). Plakatwerbung für "Eine Frau ist eine Frau" (1962) Auszeichnungen (Auswahl). Internationale Filmfestspiele Berlin Europäischer Filmpreis Internationales Filmfestival von Locarno National Society of Film Critics Award New York Film Critics Circle Award Stadt Frankfurt am Main Montréal World Film Festival Festival Internacional de Cine de Donostia-San Sebastián Stockholm International Film Festival Internationale Filmfestspiele von Venedig Internationale Filmfestspiele von Cannes Schweizer Filmpreis Jack Nicholson. John Joseph „Jack“ Nicholson (* 22. April 1937 in Manhattan, New York City) ist ein US-amerikanischer Schauspieler, Drehbuchautor, Regisseur und Produzent. Er zählt zu den bekanntesten und vielseitigsten Darstellern der Gegenwart. Mit drei Oscars (zwei als Bester Hauptdarsteller für "Einer flog übers Kuckucksnest" 1975 und für "Besser geht’s nicht" 1997 – und einem als Bester Nebendarsteller für "Zeit der Zärtlichkeit" 1984) sowie insgesamt zwölf Oscar-Nominierungen ist er auch einer der erfolgreichsten Schauspieler Hollywoods. 1937–1955. John Joseph Nicholson, später Jack genannt, wurde am 22. April 1937 als unehelicher Sohn der 17-jährigen June Frances Nicholson im Stadtteil Manhattan in New York City geboren. Nicholsons Großmutter Ethel May gab sich als seine Mutter aus, um dem Ansehen ihrer minderjährigen Tochter nicht zu schaden. Sein Großvater John, der offiziell als sein Vater galt, war Alkoholiker und verließ die Familie bereits, als Nicholson ein Baby war. Er starb 1958. Nicholson entstammt mütterlicherseits einer Familie mit irischen, englischen und deutschen Wurzeln, wobei sich die Familie selber stets als irischstämmig bezeichnete. Jack Nicholson wuchs in dem Glauben auf, seine Mutter June sei seine ältere Schwester. Er erfuhr die Wahrheit über seine unübersichtlichen Familienverhältnisse erst 1974, als ein Reporter des Time Magazines entsprechende Recherchen anstellte. Sein biologischer Vater war demnach der italienische Immigrant Donald Furcillo-Rose, der, damals 42, 1936 häufiger mit Nicholsons Mutter June, damals 16, ausgegangen war. Forcillo-Rose’ Behauptung, er sei kurzzeitig mit June Nicholson verheiratet gewesen, ließ sich nie belegen. Als möglicher Vater von Nicholson wurde außerdem ein Mann namens Edgar A. Kirschfeld genannt. Anscheinend hat Nicholson darauf verzichtet, weitergehende Recherchen anzustellen, um seine Abstammung zu klären. Den Entschluss, Schauspieler zu werden, fasste Jack Nicholson schon als kleiner Junge. Er engagierte sich in der Theatergruppe seiner Schule und galt als Klassen-Clown. Nicholson war bereits in jungen Jahren mit Danny DeVito bekannt, da Verwandte von ihm und Verwandte von DeVito gemeinsam einen Friseursalon betrieben. (Die beiden Schauspieler arbeiteten später häufig in Hollywood zusammen – siehe unten.) Nach dem Abschluss der "Manasquan High School" verließ Jack Nicholson 1954 seinen Heimatort Neptune, New Jersey, und folgte seiner Mutter bzw. „Schwester“ June nach Los Angeles, wo sie als Sekretärin und Modeeinkäuferin arbeitete. June Nicholson starb 1965 an Krebs. Der 17-jährige Jack Nicholson arbeitete zunächst in einem Spielzeuggeschäft und fand dann eine Anstellung als Botenjunge in der Trickfilmabteilung der Filmgesellschaft "MGM". Er betreute bei MGM außerdem die Fanpost, die die beiden populären Cartoonfiguren "Tom und Jerry" erhielten. 1955–1965. Nicholson wollte weiterhin Schauspieler werden und überredete den bekannten MGM-Produzenten Joe Pasternak, Probeaufnahmen mit ihm zu machen. Pasternak bescheinigte ihm zwar Talent, gab ihm aber den Rat, zunächst Schauspielunterricht zu nehmen, um sein Handwerk zu lernen. Nicholson besuchte deshalb die Schauspielklasse von Jeff Corey und traf dort auf Kommilitonen wie Richard Chamberlain und James Coburn. 1956 gab er in der TV-Serie "Matineee Theatre" in einer unbedeutenden Nebenrolle sein Schauspieldebüt. 1958 traf Jack Nicholson den 32-jährigen Roger Corman, der seit einigen Jahren mit großem Erfolg "B-Movies" produzierte und inszenierte und in dieser Funktion jahrzehntelang die Karrieren späterer Hollywood-Größen förderte (darunter Robert De Niro, Martin Scorsese, Sylvester Stallone, James Cameron oder Francis Ford Coppola). Corman besetzte den 21-jährigen Nicholson in dem in Deutschland nicht aufgeführten Spielfilm "The Cry Baby Killer" als hitzköpfigen Jugendlichen, der schließlich zum Kriminellen wird. Das von Jus Adiss inszenierte Kriminaldrama orientierte sich an den damals populären Jugendfilmen wie "… denn sie wissen nicht, was sie tun", fand aber weder bei Kritik noch Publikum eine große Resonanz. Auch in den folgenden Jahren war Nicholson hauptsächlich für Corman tätig und übernahm kleinere Rollen in dessen B-Movies. 1960 spielte er in der von Corman inszenierten Horrorkomödie "Kleiner Laden voller Schrecken" den masochistischen Patienten eines sadistischen Zahnarztes. Dieser Film wurde innerhalb weniger Tage mit einem Minimalbudget von ca. 30.000 US-Dollar realisiert und entwickelte sich im Lauf der Jahre zu einem Kultstreifen. Die groteske Geschichte um die fleischfressende Riesenpflanze Audrey wurde 1982 zu einem Broadway-Musical verarbeitet, das 1986 verfilmt wurde. In den frühen 1960er Jahren produzierte und inszenierte Roger Corman eine Reihe kostengünstiger "Gothic Horror"-Filme, die beim Publikum gut ankamen und zu Klassikern ihres Genres wurden. Jack Nicholson war in zwei dieser Filme zu sehen. In "Der Rabe – Duell der Zauberer", einer Horrorkomödie, war er 1963 neben den profilierten Genre-Stars Boris Karloff, Vincent Price und Peter Lorre zu sehen. Im selben Jahr spielte er neben Karloff die zweite Hauptrolle in "The Terror – Schloß des Schreckens". Bei diesem Film, der in denselben Kulissen wie "Der Rabe" entstand, war er zusammen mit Francis Ford Coppola und anderen auch als ungenannter Co-Regisseur tätig. Die weibliche Hauptrolle in "The Terror" spielte die 23-jährige Sandra Knight, die Nicholson 1962 geheiratet hatte. 1963 kam seine erste Tochter Jennifer zur Welt. Die Ehe mit Knight wurde 1968 geschieden. Nicholson war seither nicht wieder verheiratet, hat jedoch insgesamt fünf Kinder mit vier verschiedenen Frauen. In den frühen 1960er Jahren spielte Nicholson auch in Filmen wie "Die wilde Jagd" (1960), "Das gebrochene Land" (1962), "Donner auf der Insel" (1963) oder "Hintertür zur Hölle" (1964), die jedoch nur wenig Publikum fanden und seine Karriere nicht voranbrachten. 1966–1969. Ab Mitte der 1960er Jahre geriet die etablierte Filmindustrie zunehmend unter Druck. Hollywood produzierte weiterhin nach den gängigen Rezepten leichte Unterhaltungsfilme (Liebeskomödien, Musicals, Monumentalfilme, Western), die von den jungen Kinogängern der Hippie-Ära ignoriert wurden. Ab 1966 machten sich jedoch im aktuellen Kino verstärkt die Einflüsse der Sub- und Gegenkultur bemerkbar und brachten das sogenannte "New Hollywood"-Kino hervor. Roger Corman hatte stets ein waches Gespür für die aktuellen Trends und inszenierte 1966 den "Rocker"-Film "Die wilden Engel", der für nur 360.000 US-Dollar produziert wurde, in den Vereinigten Staaten fast das 20fache dieser Summe einspielte und eine kurzlebige Motorradfilm-Welle auslöste. Jack Nicholson war an "Die wilden Engel" zwar nicht beteiligt, erhielt 1967 aber Rollen in den Motorradfilmen "Die wilden Schläger von San Francisco" und "Rebel Riders" (der erst 1970 ins Kino kam). In Filmen wie diesen formte sich nach und nach das Image Nicholsons als unrasierter, rebellischer Antiheld des "New Hollywood", der die gesellschaftlichen Konventionen verachtet. Privat bewegte sich der Schauspieler zu dieser Zeit im Umfeld junger Darsteller wie Peter Fonda, Dennis Hopper oder Bruce Dern, die auf der Leinwand ebenfalls das Image des Antihelden pflegten (alle drei traten ebenfalls in Motorrad-Filmen auf). Mitte der 1960er Jahre versuchte sich Jack Nicholson als Drehbuchautor und schrieb unter anderem die Vorlage für den Film "The Trip" (1967), der erneut von Roger Corman inszeniert wurde. Dieser Film, in dem Nicholson nicht als Schauspieler zu sehen war, schilderte in teils surrealen Bildern die LSD-Erfahrungen und amourösen Abenteuer eines Drehbuchautors (Peter Fonda) und gilt als einer der ersten Filme, die sich mit dem Thema Drogen auseinandersetzten. Nicholson hat freimütig eingeräumt, dass er seit Mitte der 1960er Jahre ebenfalls LSD konsumierte. 1966 entstanden unter der Regie von Monte Hellman die beiden von Roger Corman produzierten Western "Das Schießen" und "Ritt im Wirbelwind", an denen Jack Nicholson als Darsteller bzw. Koautor beteiligt war. Die unkonventionellen Filme, die die gängigen Genre-Regeln eher auf den Kopf stellten, wurden als „Acid-Western“ und als „kafkaesk“ bezeichnet und fanden kein Publikum ("Das Schießen" wurde nie im Kino gezeigt). 1968 war Nicholson als Koautor an dem Film "Head" beteiligt, der die überdrehten Abenteuer der Pop-Gruppe "The Monkees" schilderte und sich offensichtlich an den stilprägenden Filmen orientierte, die Richard Lester einige Jahre zuvor mit den Beatles gedreht hatte. Der Film wurde jedoch zu einem Flop und von der Kritik als zusammenhanglos und misslungen bezeichnet. 1967 und 1968 bemühte sich Jack Nicholson vergeblich um die Hauptrollen in den späteren Erfolgsfilmen "Die Reifeprüfung" und "Rosemaries Baby". Obwohl er als Darsteller, Autor oder Koregisseur an zahlreichen Filmen mitgewirkt hatte, war seine Karriere bis 1968 letzten Endes erfolglos verlaufen. Dennis Hopper als Regisseur und Peter Fonda als Ideengeber und Drehbuchautor waren die treibenden Kräfte hinter dem Roadmovie "Easy Rider" (1969). Dieser Film schilderte die Abenteuer der beiden Hippies und Drogenschmuggler Wyatt (Fonda) und Billy (Hopper), die mit ihren Harley-Davidson-Motorrädern von Mexiko in die amerikanischen Südstaaten fahren und dort schließlich auf einer Landstraße von „Rednecks“ erschossen werden. Eine Zeitlang wird das Duo von dem permanent betrunkenen Anwalt George Hanson begleitet, der aber von Rednecks erschlagen wird. Bei der Umsetzung dieses Films war Nicholson zunächst nur als ausführender Produzent beteiligt – auf Bitten Hoppers hatte er den Kontakt mit der neu gegründeten Produktionsfirma BBS hergestellt, die ein Produktionsbudget von 375.000 US-Dollar bereitstellte. Als Rip Torn, der ursprünglich den betrunkenen Anwalt Hanson spielen sollte, die Produktion noch vor Beginn der Dreharbeiten verließ, erklärte sich Nicholson bereit, die Rolle zu übernehmen. "Easy Rider" wurde mit einem Einspielergebnis von rund 100 Millionen US-Dollar zu einem sagenhaften Kassenerfolg, zum wichtigsten Kultfilm der Hippie-Generation und zu einem Klassiker des New Hollywood-Kinos. Jack Nicholson gelang es, nach mehr als zehn Jahren im Filmgeschäft erstmals ein großes Publikum auf sich aufmerksam zu machen – er wurde für seine komödiantisch angelegte Darstellung des betrunkenen Anwalts von der Kritik und den Zuschauern einhellig gefeiert. Die Rolle brachte ihm 1970 außerdem die erste von zwölf Oscar-Nominierungen ein. Die zweite folgte dann nur ein Jahr später für "Five Easy Pieces – Ein Mann sucht sich selbst". 1970–1975. Bis weit in die 1960er Jahre hinein waren Hollywood-Stars in der Regel der Tradition des gutaussehenden romantischen Helden verpflichtet oder traten betont maskulin auf. Der Erfolg des "New Hollywood"-Kinos ebnete jedoch einer neuen Generation von Schauspielern den Weg, die auf realitätsbezogene, psychologisch fundierte Rollengestaltungen Wert legten – darunter Dustin Hoffman, Al Pacino, Gene Hackman, Donald Sutherland oder Robert De Niro. Mit Beginn der 1970er Jahre avancierte Jack Nicholson zu einem der führenden Stars dieser jungen Schauspielergeneration. Der 1,74 m große Darsteller mit dem schütteren Haar entsprach schon rein äußerlich nicht dem traditionellen Bild eines Hollywood-Stars und personifizierte durch seinen speziellen Habitus wie kaum ein anderer Darsteller den Zeitgeist der damaligen Ära, in der etablierte Wertordnungen in Frage gestellt wurde. Zum speziellen Markenzeichen des Schauspielers wurde sein unverwechselbares „Killergrinsen“. Nachdem ihm mit "Easy Rider" der Durchbruch gelungen war, baute Jack Nicholson sein schauspielerisches Renommee weiter aus und trat zwischen 1970 und 1975 in elf Filmen auf. Während er als Nebendarsteller in dem Barbra Streisand-Musical "Einst kommt der Tag" (1970) kaum zur Geltung kam, konnte er mit "Five Easy Pieces – Ein Mann sucht sich selbst" (1970) sein Image als rebellischer Antiheld festigen. Unter der Regie von Bob Rafelson war er als Sohn aus „gutem Hause“ zu sehen, der sich einer Karriere als Pianist verweigert und stattdessen als Gelegenheitsarbeiter auf einem Ölfeld tätig ist. Der Film und Nicholsons Darstellung wurden allgemein sehr positiv bewertet. Auch in Filmen wie "Die Kunst zu lieben" (1971) oder "Der König von Marvin Gardens" (1972) stellte Jack Nicholson Figuren dar, die auf die bürgerlichen Wertvorstellungen keinen Wert legen. 1971 gestaltete er als Regisseur und Drehbuchautor den Film "Drive He Said", der die Probleme einiger junger Basketballspieler thematisierte. "Drive He Said" fand wenig Beachtung, wurde aber wegen seiner expliziten Sexszenen kritisiert. Nicholson lehnte zu dieser Zeit trotz hoher Gagenangebote unter anderem Rollen in Filmen wie "Der Pate", "Der Clou" oder "Der große Gatsby" ab. Stattdessen trat er 1973 in Hal Ashbys "Das letzte Kommando" als Navymatrose in Erscheinung, der den Auftrag erhält, einen abgeurteilten Kameraden in ein weit entferntes Militärgefängnis zu überführen. Diese Milieu- und Charakterstudie kam bei der Kritik sehr gut an und festigte Nicholsons Reputation als vielseitiger Charakterdarsteller. Als noch erfolgreicher erwies sich 1974 Roman Polańskis "Chinatown", ein moderner, komplexer Film noir, der im Los Angeles der 1930er Jahre angesiedelt ist. Privatdetektiv Jake Gittes (Nicholson) wird von einer mysteriösen Klientin beauftragt, ihren untreuen Ehemann zu beschatten. Während der Detektiv diesen vermeintlichen Routineauftrag ausführt, wird er in eine immer komplexere Affäre verstrickt, die ihn zwingt, sich mit Mord, Korruption und Inzest auseinanderzusetzen. War Nicholson in früheren Filmen häufig unrasiert und in ungepflegter Garderobe zu sehen, tritt er in "Chinatown" in teuren Maßanzügen in Erscheinung und bemüht sich als Jake Gittes um ein besonders kultiviertes Erscheinungsbild. Dem Privatdetektiv wird von einem sadistischen Kriminellen (Roman Polanski in einem Cameo-Auftritt) nach knapp 40 Minuten mit einem Messer die Nase aufgeschlitzt, weshalb Gittes dazu gezwungen ist, mitten im Gesicht eine entsprechende Bandage zu tragen. "Chinatown" wurde bei Kritik und Publikum zu einem großen Erfolg und gilt allgemein als einer der wichtigsten Filmklassiker der 1970er Jahre. Autor Robert Towne, der die Rolle des Detektivs genau auf seinen langjährigen Freund Nicholson zugeschnitten hatte, wurde mit einem Oscar ausgezeichnet. 1975 engagierte der renommierte italienische Regisseur Michelangelo Antonioni Jack Nicholson für sein Psychodrama ', in dem sich ein frustrierter Reporter dazu entschließt, die Identität eines anderen Mannes anzunehmen. Im selben Jahr trat der Darsteller in Ken Russells Rock-Musical "Tommy" als singender Arzt in Erscheinung. Die Komödie "Mitgiftjäger" blieb 1975 weit hinter den Erwartungen zurück, obwohl neben Nicholson ein weiterer Top-Star – Warren Beatty – zu sehen war. Nicholson und der gleichaltrige Beatty sind eng befreundet und genossen lange Zeit ein Image als Hollywoods führende Casanovas. Allerdings führte Nicholson seit 1973 eine langjährige Beziehung mit der Schauspielerin Anjelica Huston. Zum vielleicht bekanntesten und populärsten Film mit Jack Nicholson wurde "Einer flog über das Kuckucksnest", 1975 vom tschechischen Regisseur Miloš Forman inszeniert. Nicholson war in der Rolle des Randle P. McMurphy zu sehen, der sich in eine psychiatrische Anstalt einliefern lässt, um so einer Gefängnisstrafe wegen Verführung einer Minderjährigen zu entgehen. In der Klinik stachelt er die apathischen Insassen – die mit Medikamenten und Elektroschocks ruhiggestellt werden – zur Rebellion gegen die Anstaltsleitung auf. Nicholsons Image des unrasierten, cleveren „Underdogs“, mit dem die Zuschauer sympathisieren, kam in der Rolle des rebellischen McMurphy besonders publikumswirksam zur Geltung. Nach dem gleichnamigen Bestseller von Ken Kesey inszeniert, wurde "Einer flog über das Kuckucksnest" zu einem der größten Kassenerfolge der 1970er Jahre und spielte allein in den Vereinigten Staaten 112 Millionen US-Dollar ein. Von Michael Douglas produziert, war der Streifen einer der spektakulärsten – und letzten – Kassenhits des "New Hollywood"-Kinos und katapultierte Nicholson endgültig an die Spitze von Hollywood. Bei den Dreharbeiten traf er seinen Jugendfreund Danny DeVito wieder, der einen der Insassen der Nervenheilanstalt spielte und mit dieser Rolle eine erfolgreiche Filmkarriere begründete. Jack Nicholson erhielt für "Kuckucksnest" erstmals eine Million US-Dollar Gage und war außerdem mit 15 % an den weltweiten Einnahmen beteiligt, was ihn endgültig zum wohlhabenden Mann machte. Seit den frühen 1970er Jahren bewohnte er eine Villa am noblen Mulholland Drive und hatte dort Marlon Brando zum Nachbarn. "Einer flog über das Kuckucksnest" avancierte zum Klassiker und Kultfilm und gewann 1976 alle fünf Haupt-Oscars – für die beste Regie, den besten Film, das beste Drehbuch, die beste weibliche Hauptrolle (Louise Fletcher als tyrannische Anstaltsleiterin) und die beste männliche Hauptrolle. Jack Nicholson wurde also erstmals mit dem weltweit begehrtesten Filmpreis ausgezeichnet – nachdem er seit 1970 fünfmal in sieben Jahren nominiert worden war. 1976–1980. Nachdem die erste Hälfte der 1970er Jahre für Jack Nicholson äußerst erfolgreich verlaufen war, gelang es ihm zunächst nicht, seine Karriere auf einem ähnlichen Niveau weiterzuführen. 1976 war er, zehn Jahre nach den „kafkaesken“ B-Western "Das Schießen" und "Ritt im Wirbelwind", wieder als Westernheld zu sehen und spielte neben seinem Nachbarn und Jugendidol Marlon Brando in "Duell am Missouri" einen Pferdedieb, der einen reichen Pferdezüchter ruinieren will. Brando trat neben Nicholson – teils in Frauenkleidern – als exzentrischer „Regulator“ (= ‚Killer‘) in Erscheinung. Trotz prominenter Besetzung floppte dieser von Arthur Penn inszenierte Spätwestern an den Kinokassen und wurde auch von der Kritik überwiegend als misslungen bezeichnet. Ähnlich schnell in Vergessenheit geriet Elia Kazans "Der letzte Tycoon" (1976), der die kurze Karriere eines jungen Filmproduzenten (Robert De Niro) im Hollywood der 1930er Jahre nachzeichnete. Nicholson war in dem hoch besetzten Film lediglich in einer Nebenrolle zu sehen. Im Frühjahr 1977 wurde Jack Nicholson indirekt in einen Sexskandal verwickelt, nachdem sein Freund Roman Polanski, 44, wegen „außerehelichen Geschlechtsverkehrs mit einer Minderjährigen“ angeklagt und in Untersuchungshaft genommen worden war. Polanski soll das 13-jährige Mädchen im Whirlpool von Nicholsons Villa mit Betäubungsmitteln gefügig gemacht haben. Nicholson selbst hielt sich zu dieser Zeit in Aspen, Colorado, auf, wo er gern dem Wintersport frönte, und musste hinnehmen, dass die Polizei im April 1977 seine Villa durchsuchte. Polanski floh schließlich aus dem Land, um einer langjährigen Haftstrafe zu entgehen. 2009 wurde Polanski wegen dieses Delikts in der Schweiz verhaftet und entging nur knapp einer Auslieferung an die Vereinigten Staaten. 1978 war Jack Nicholson ein weiteres – und letztes – Mal als Westerndarsteller zu sehen: In "Der Galgenstrick" spielte er unter eigener Regie einen Viehdieb, der knapp dem Galgen entkommt und sich mit einer jungfräulichen Minenbesitzerin verehelicht. Der komödiantisch angelegte Spätwestern, in dem unter anderen John Belushi, Christopher Lloyd und Danny DeVito zu sehen waren, blieb bei Kritik und Publikum erfolglos. Nach eineinhalbjährigen Dreharbeiten kam 1980 Stanley Kubricks Horrorfilm "Shining" in die Kinos. Unter Aufsicht von Kubrick waren in einem Londoner Studio die riesigen Kulissenbauten des unheimlichen Overlook-Hotels entstanden, dessen Hausmeister, der erfolglose Schriftsteller Jack Torrance (Nicholson), langsam in den Wahnsinn abdriftet. Nach dem gleichnamigen Romanbestseller von Stephen King hatte der perfektionistische Kubrick mit hohem Budget und in zeitaufwändiger Inszenierung (er ließ viele Szenen 50 bis 60 Mal wiederholen) einen modernen "Gothic Horror"-Film inszeniert, der nicht mit grausigen Szenen geizte. Die drei Protagonisten des Films – Torrance sowie seine Frau und sein kleiner Sohn – werden in dem leeren, eingeschneiten Hotel so lange von Horror-Visionen terrorisiert, bis es zum alptraumhaften Showdown kommt. Für Nicholson und für Kubrick – beide hatten in den Jahren davor Misserfolge hinnehmen müssen – wurde "Shining" zu einem großen Erfolg. Der Film avancierte zu einem Klassiker seines Genres sowie zu einem vielzitierten und -parodierten Werk der Popkultur. Von der zeitgenössischen Kritik wurde teilweise bemängelt, Nicholson habe bei seiner Darstellung des wahnsinnigen Schriftstellers schauspielerisch überzogen. ab 1981. 1981 inszenierte Bob Rafelson mit "Wenn der Postmann zweimal klingelt" ein Remake des entsprechenden Film-Noir-Klassikers aus dem Jahr 1946. Nicholson ist hier als zwielichtiger Herumtreiber zu sehen, der sich auf eine Affäre mit der schönen Frau (Jessica Lange) eines Tankstellenbetreibers einläßt. Das Liebespaar „entsorgt“ den lästigen Ehemann, indem es ihn in einem Auto eine Klippe hinabstürzt. "Wenn der Postmann zweimal klingelt" sorgte für einen Skandal, als kolportiert wurde, Nicholson und Lange hätten eine leidenschaftliche Liebesszene auf dem Küchentisch nicht nur simuliert. Für weniger Aufsehen sorgten Nicholsons Auftritte in den Filmen "Reds" und "Grenzpatrouille". 1981 wurde Nicholsons zweite Tochter Honey geboren. Die Mutter war das dänische Model Winnie Hollman. Der Schauspieler war allerdings auch seit mehreren Jahren mit der Schauspielerin Anjelica Huston zusammen. 1983 trat Jack Nicholson in dem komödiantischen Melodram "Zeit der Zärtlichkeit", das auf die Hauptdarstellerinnen Shirley MacLaine und Debra Winger zugeschnitten war, als alkoholisierter Ex-Astronaut in Erscheinung. Hier traf er auch wieder auf seinen Jugendfreund Danny DeVito. Dieser Film wurde zu einem weltweiten Kassenerfolg und brachte Jack Nicholson seinen zweiten Oscar ein. Als weniger erfolgreich erwiesen sich Mitte der 1980er Jahre Filme wie "Die Ehre der Prizzis", "Sodbrennen" oder "Wolfsmilch". In dem Kassenhit "Die Hexen von Eastwick" war Nicholson 1987 als "teuflischer" Verführer Daryl Van Horne zu sehen, der die Damenwelt einer Kleinstadt in Aufruhr versetzt. In der Comic-Verfilmung "Batman" (1989) übernahm Jack Nicholson den dominanten Part des grinsenden Superschurken „Joker“, der in einer Zukunftsmetropole von dem fledermaushaften Titelhelden bekämpft wird. Mit einem weltweiten Einspielergebnis von über 400 Millionen US-Dollar wurde "Batman" zu Jack Nicholsons größtem Kinohit. Dank spezieller Vertragsklauseln erzielte der Darsteller eine Rekordgage von rund 60 Millionen US-Dollar und avancierte dadurch zum bestbezahlten Darsteller der Filmgeschichte. (Erst Jahrzehnte später wurden in Hollywood wieder ähnliche Gagen-Dimensionen erreicht.) 1990 realisierte Jack Nicholson als Regisseur und Hauptdarsteller die "Chinatown"-Fortsetzung "Die Spur führt zurück – The Two Jakes", die an den Kinokassen floppte und nach allgemeinem Tenor weit hinter der künstlerischen Qualität des Vorgängerfilms zurückblieb. Nicholson beendete mit diesem Film seine Karriere als Regisseur. 1990 trennte sich Anjelica Huston von Nicholson, als sie erfuhr, dass die Kellnerin Rebecca Broussard eine Tochter von ihm erwartete. Er gab ihr den Namen seiner Tante Lorraine. 1992 kam sein Sohn Raymond zur Welt. Von 1999 bis 2001 lebte Nicholson mit der Schauspielerin Lara Flynn Boyle zusammen. Als Flops erwiesen sich in den 1990er Jahren Nicholson-Filme wie "Man Trouble – Auf den Hund gekommen" (1992), "Jimmy Hoffa" (1992), "Crossing Guard – Es geschah auf offener Straße" (1995), "Jahre der Zärtlichkeit – Die Geschichte geht weiter" (1996) oder "Blood and Wine" (1996). Erfolge verbuchen konnte Jack Nicholson dagegen mit dem Militär-Drama "Eine Frage der Ehre" (1992), in dem er neben Tom Cruise als Colonel zu sehen war, und mit dem Thriller "Wolf – Das Tier im Manne" (1994), in dem er als Werwolf in Erscheinung trat. In der Komödie "Besser geht’s nicht" war Nicholson 1997 als miesepetriger Schriftsteller zu sehen, der sich durch rassistische und homophobe Äußerungen hervortut. Diese Rolle brachte dem Darsteller seinen dritten Oscar ein, den er dem 1998 verstorbenen Schauspieler J. T. Walsh widmete. Jack Nicholson 2002 bei den Internationalen Filmfestspielen von Cannes Nachdem "Das Versprechen" 2001 gefloppt hatte, konnte Jack Nicholson 2002 mit der Tragikomödie "About Schmidt" wieder einen Filmerfolg verbuchen. Der Darsteller trat hier als Rentner in Erscheinung, der gezwungen ist, sein Leben neu zu ordnen. Nicholson war außerdem in den erfolgreichen Komödien "Die Wutprobe" (2003 – als Aggressionstherapeut) und "Was das Herz begehrt" (2003 – als alternder Casanova) zu sehen. Martin Scorsese besetzte ihn 2006 in dem Kassenhit "Departed – Unter Feinden" als irischen Mafia-Paten. Er war hier neben Leonardo DiCaprio, Matt Damon und Mark Wahlberg zu sehen. In Rob Reiners 2007 veröffentlichtem Film "Das Beste kommt zum Schluss" spielten er und Morgan Freeman zwei todkranke Patienten, die sich in der ihnen noch verbleibenden Zeit ihre letzten Wünsche erfüllen. Auch dieser Film wurde zu einem Kassenerfolg. In "Woher weißt du, dass es Liebe ist" trat der 73-jährige Jack Nicholson zum bislang letzten Mal als Filmschauspieler in Erscheinung. Weitere Projekte mit ihm sind nicht angekündigt (Stand 2014). Deutsche Synchronstimmen. Am Anfang seiner Karriere wurde Jack Nicholson, genau wie sein Schauspielkollege Dustin Hoffman, auf deutsch primär von Manfred Schott (z. B. in "Easy Rider", "Five Easy Pieces – Ein Mann sucht sich selbst", "Einer flog über das Kuckucksnest", "Der letzte Tycoon", "Der Galgenstrick", "Wenn der Postmann zweimal klingelt", "Reds") gesprochen. Nach Schotts Unfalltod 1982 übernahm im Laufe der 80er Jahre Joachim Kerzel beide Rollen. In der Übergangszeit wurde Nicholson auch von Erik Schumann (z. B. in "Die Ehre der Prizzis", "Wolfsmilch") gesprochen. Abweichungen von dieser Regel finden sich unter den wichtigeren Stationen von Nicholsons Karriere bei den Filmen "Chinatown" (Hansjörg Felmy) und "Shining" (Jörg Pleva), letzteres auf ausdrücklichen Wunsch des Regisseurs Stanley Kubrick, der bei der deutschen Fassung des Films "Uhrwerk Orange" (1971) von Plevas Stimme für Malcolm McDowell als der jugendliche Straftäter Alex DeLarge so beeindruckt war, daß er durchsetzte, daß Pleva auch bei den deutschen Fassungen seiner folgenden Filmen als Sprecher für die männliche Hauptrolle besetzt wurde. Auszeichnungen. Jack Nicholson wurde in den 1970er Jahren fünfmal, in den 1980er Jahren viermal, in den 1990er Jahren zweimal und 2003 ein bislang letztes Mal für einen Oscar nominiert. Mit insgesamt zwölf Oscar-Nominierungen ist er damit der meistnominierte männliche Filmschauspieler (übertroffen lediglich von Meryl Streep mit 19 Nominierungen). (Stand 2015) Er ist neben Michael Caine außerdem der einzige Schauspieler, der in jedem Jahrzehnt zwischen den 1960er und den 2000er Jahren mindestens einen Film gedreht hat, für den er nominiert wurde (beginnend mit "Easy Rider", 1969). Caine und Nicholson sind die einzigen männlichen Darsteller, die in fünf aufeinanderfolgenden Jahrzehnten Filme drehten, für die sie eine Oscar-Nominierung erhielten (hier wiederum von Meryl Streep eingeholt, der dies zwischen den 1970er und 2010er Jahren gelang). Insgesamt wurde Nicholson bislang (Stand 2014) mit 100 wichtigen Filmpreisen ausgezeichnet und war für 72 weitere nominiert. Er ist neben Walter Brennan und Daniel Day-Lewis der einzige männliche Schauspieler, der drei Oscars in den regulären Schauspielkategorien gewinnen konnte (Ehrenoscars nicht mitgezählt; bei den Damen gelang dies Ingrid Bergman und Meryl Streep; Katharine Hepburn gewann den Preis viermal). 1997 erhielt Nicholson einen Stern auf dem Hollywood Walk of Fame. John G. Avildsen. John Guilbert Avildsen (* 21. Dezember 1935 in Oak Park, Illinois) ist ein US-amerikanischer Filmregisseur, Cutter und Filmproduzent. Avildsen wird bis heute am meisten mit der Box-Reihe "Rocky" und der Karate-Reihe "Karate Kid" verbunden, von denen er zwei bzw. drei Folgen drehte. Dabei galt er zu Beginn seiner Karriere als Regisseur, der Schauspielern zu Charakterrollen verhalf. So wurde Jack Lemmon für "Save the Tiger" mit dem Oscar ausgezeichnet, während Sylvester Stallone für "Rocky" als bester Hauptdarsteller nominiert wurde. Auszeichnungen. Für den Film "Rocky" erhielt Avildsen 1977 den Oscar für die beste Regie. 1983 war er für den Kurzdokumentarfilm "Travelling Hopefully" nominiert. Joachim Gauck. Joachim Gauck (* 24. Januar 1940 in Rostock) ist der elfte Bundespräsident der Bundesrepublik Deutschland. Zuvor war er als evangelisch-lutherischer Pastor und Kirchenfunktionär, Volkskammerabgeordneter für Bündnis 90, Bundesbeauftragter für die Stasi-Unterlagen sowie als Publizist tätig. Am 18. März 2012 wählte ihn die Bundesversammlung mit großer Mehrheit zum Bundespräsidenten; am 23. März wurde er vereidigt. Gauck gehört keiner Partei an. In der DDR leitete Gauck die Vorbereitung und Durchführung der beiden evangelischen Kirchentage 1983 und 1988 in Rostock. Während der friedlichen Revolution in der DDR wurde Gauck ein führendes Mitglied des Neuen Forums in Rostock. Am 18. März 1990 wurde er in die Volkskammer der DDR und von dieser am 21. Juni 1990 zum Vorsitzenden des Sonderausschusses zur Kontrolle der Auflösung des ehemaligen AfNS gewählt. Gauck stand vom 3. Oktober 1990 bis Oktober 2000 als "Bundesbeauftragter für die Unterlagen des Staatssicherheitsdienstes der ehemaligen Deutschen Demokratischen Republik" (BStU) an der Spitze der oft nach ihm benannten „Gauck-Behörde“, die die schriftliche Hinterlassenschaft des MfS verwaltet und zugänglich macht. Nachdem ihn Marianne Birthler abgelöst hatte, engagierte sich Gauck gesellschaftspolitisch mit Vorträgen und Medienaktivitäten, so etwa von 2003 bis 2012 als Vorsitzender der Vereinigung „Gegen Vergessen – Für Demokratie“. Er ist einer der Initiatoren der Prager Erklärung und der Erklärung über die Verbrechen des Kommunismus. Gauck wurde mehrfach für Verdienste und Publikationen geehrt und ausgezeichnet. Herkunft und Kindheit (1940–1945). Gauck wurde 1940 in Rostock geboren. Seine ersten fünf Lebensjahre verbrachte er meist an der Ostsee in Wustrow auf dem Fischland – zusammen mit seiner Mutter und den Geschwistern im Haus seiner Großmutter väterlicherseits. Sein Vater Wilhelm Joachim Gauck, der in Dresden geboren wurde, war Kapitän der Handelsmarine und Oberleutnant zur See der Reserve, die Mutter Olga, geb. Warremann, gelernte Bürofachfrau. Sie arbeitete als Bürovorsteherin in einem Anwaltsbüro. Die Eltern hatten 1938 geheiratet. Gaucks Vater absolvierte 1940 sein Kapitänsexamen mit Auszeichnung. Er war im Zweiten Weltkrieg u. a. für das Aufspüren von Minen zuständig und verbrachte die Kriegszeit überwiegend in Kasernen z. B. in Stralsund. Ein halbes Jahr lebte die Familie gemeinsam mit dem Vater in Gdynia (deutsch Gdingen bzw. damals „Gotenhafen“), wo dieser stationiert war. Bei Kriegsende unterrichtete er an der Marinekriegsschule in Flensburg-Mürwik den Offiziernachwuchs in Navigation und Gesetzeskunde. Die Eltern waren NSDAP-Mitglieder, die Mutter ab 1932, der Vater ab 1934. Sie hatten drei weitere Kinder: Marianne, Sabine und Eckart († 23. August 2013). Vom Bombenkrieg war der bei Kriegsende fünfjährige Gauck in Wustrow kaum betroffen. Nachdem Mecklenburg zur sowjetischen Besatzungszone gehörte, wurde das unmittelbar an der Ostsee gelegene Haus von Gaucks Großmutter aber von der Roten Armee zu militärischen Zwecken requiriert und musste später zu einem sehr niedrigen Mietzins an einen Großbetrieb verpachtet werden, der dort urlaubende Mitarbeiter unterbrachte. Ende 1945 zog die Mutter mit ihren damals noch drei Kindern zu den eigenen Eltern nach Rostock. Schulzeit (1946–1958). Ab 1946 besuchte Gauck in Rostock eine Grundschule, dann die Oberschule bis zum Abitur 1958. Der Vater kehrte im Sommer 1946 kurz vor Gaucks Einschulung aus britischer Kriegsgefangenschaft zurück und arbeitete dann als Arbeitsschutzinspektor für Schifffahrt auf der Rostocker Neptun-Werft. Bei einem Verwandtenbesuch in Wustrow wurde er am 27. Juni 1951 von zwei Männern aufgesucht und unter dem Vorwand, es habe auf der Werft einen schweren Unfall gegeben, bei dem er helfen müsse, mit einem Auto abgeholt. Für die nächsten Jahre war er für die Familie spurlos verschwunden. Alle Nachforschungen bei der Volkspolizei, der Kriminalpolizei und der Staatssicherheit blieben ergebnislos. Eingaben an staatliche Stellen und Gesuche an Wilhelm Pieck seien erfolglos geblieben. Erst in der beginnenden Tauwetter-Periode nach Stalins Tod erfuhr die Familie im September 1953, dass der Vater sich in einem sibirischen Arbeitslager befand. Es war möglich, Briefkontakt mit ihm aufzunehmen. Den Volksaufstand vom 17. Juni 1953 beschrieb Gauck in seinen autobiographischen Aufzeichnungen als „elektrisierendes Erlebnis“. Auch auf der nahen Neptun-Werft streikten 5000 Arbeiter und forderten den Rücktritt der Regierung. Trotz der Niederschlagung des Aufstands erinnerte sich Gauck an eine vorübergehende Lockerung des streng „klassenkämpferischen“ Kurses im Schulalltag. Der Vater kam im Oktober 1955 (nach über vier Jahren Arbeitslager) extrem geschwächt aus dem Gulag zurück. Es dauerte ein ganzes Jahr, bis er wieder als Lotse arbeiten konnte. Ihn hatte nach seinem Verschwinden ein geheim tagendes sowjetisches Militärtribunal in Schwerin zu zweimal 25 Jahre Freiheitsentzug verurteilt: „Die ersten 25 Jahre wegen Spionage für einen Brief, den er von Fritz Löbau erhalten hatte, seinem ehemaligen Vorgesetzten auf der Rosslauer Werft, mit dem er 1947 Schnellboote für die Sowjets erprobt hatte. Löbau hatte sich in den Westen abgesetzt und meinen Vater zu einem Besuch nach West-Berlin eingeladen, fünfzig Mark Reisegeld lagen dem Brief bei. Obwohl mein Vater nicht reagiert hatte, wurde ihm die Einladung beziehungsweise diese Bekanntschaft zum Verhängnis; Löbau soll mit dem französischen Geheimdienst zusammengearbeitet haben.“ Als Beweisstück für die Verurteilung zu weiteren 25 Jahren wegen „antisowjetischer Hetze“ soll eine bei Gaucks Vater gefundene nautische Fachzeitschrift westlicher Herkunft gedient haben, die aber ganz legal mit der Post bezogen worden war. Der Vater war in ein sibirisches Arbeitslager gekommen. Bereits nach einem Jahr habe er als „invalidisiert“ eingestuft werden müssen und musste nur noch relativ leichte Arbeiten verrichten. Die Rückkehr des Vaters war eine Folge der Moskauer Verhandlungen von Bundeskanzler Konrad Adenauer; sie änderte nichts an der ablehnenden Haltung der ganzen Familie gegenüber der SED-Regierung. Gauck resümierte später, er sei „mit einem gut begründeten Antikommunismus aufgewachsen“. Studium und Pastorenamt (1958–1989). Die bis zur Errichtung der Berliner Mauer vorhandene Reisefreiheit benutzte Gauck zu Reisen in den „Westen“, sah als Fünfzehnjähriger Paris, war auf Fahrradtour in Schleswig-Holstein unterwegs und besuchte häufig West-Berlin. Nach eigenen Angaben habe er jedoch nicht ernsthaft an ein „Rübermachen“ gedacht. Ein Jahr nach dem Abitur heirateten Joachim Gauck und seine Schulfreundin Gerhild „Hansi“ Radtke. Die kirchliche Trauung vollzog 1959 sein Onkel, der Güstrower Domprediger Gerhard Schmitt. Gaucks Berufschancen waren in der DDR beschränkt. Sein Wunschberuf Journalist schied unter DDR-Bedingungen für ihn von vornherein aus. Gauck entschied sich, von seinem Onkel bestärkt, gegen eine Lehre und für ein Theologiestudium, das er von 1958 bis 1965 in Rostock absolvierte. Dabei ging es ihm nach eigenem Bekunden anfänglich nicht um die Qualifizierung für eine Pfarrstelle, sondern vornehmlich um philosophischen Erkenntniszuwachs und Argumente gegen den obrigkeitlich verordneten Marxismus-Leninismus. Dafür boten die theologischen Fakultäten in der DDR einen Freiraum. Nachdem die DDR im Jahr 1962 die Wehrpflicht eingeführt hatte, entging Gauck, dessen Jahrgang ohnehin überwiegend nicht eingezogen wurde, als immatrikulierter Student der Einberufung. Nach seiner Heirat und den Geburten seiner Söhne 1960 und 1962, aber auch aufgrund von Schwierigkeiten im Studium, geriet er in eine Orientierungskrise. Eine Studienverlängerung wurde ihm 1964 erst nach nervenärztlicher Begutachtung bewilligt. Auch nach Abschluss des Studiums hatte sich Gauck noch nicht für den Pfarrberuf entschieden. Erst während seines Vikariats in Laage stellte sich bei Gauck nach eigenen Angaben im Kontakt mit den Gemeindemitgliedern das Zutrauen ein, dem Pastorenamt als Person und im Glauben gewachsen zu sein. Nach seiner Ordination arbeitete er ab 1967 in der Evangelisch-Lutherischen Landeskirche Mecklenburgs als Pastor im ländlichen und vergleichsweise religiös geprägten Lüssow und ab 1971 in Rostock-Evershagen, wo Gauck nach eigenen Angaben erfolgreich in der Missionsarbeit und als Kreis- und Stadtjugendpfarrer tätig war. Seit 1974 beobachteten Mitarbeiter des Ministeriums für Staatssicherheit (MfS) die Aktivitäten Gaucks. Demnach hatte er einem Inoffiziellen Mitarbeiter (IM) gegenüber zum Beispiel im Mai 1974 die Regierung der DDR als „Clique“ bezeichnet, „die gemeinsam mit dem MfS und der NVA das Volk unterjocht“. Über einen Friedensgottesdienst 1982 heißt es: „G. zog in seiner Predigt zum Thema Wahrheit, Wahrhaftigkeit, Frieden Vergleiche zum Faschismus in Deutschland und unserer sozialistischen Entwicklung in der DDR.“ Die Stasi-Offiziere empfahlen die „Einleitung von gezielten Zersetzungsmaßnahmen“. Über die tatsächliche Durchführung von Zersetzungsmaßnahmen gegen Gauck ist nichts bekannt. Zu dem guten Dutzend fundamentaloppositioneller Gruppen, die sich seit Mitte der 1980er Jahre in Mecklenburg und Vorpommern zusammenfanden, hatte er keinen Kontakt. Kirchentag 1988. Zwischen 1982 und 1990 war Gauck Leiter der Kirchentagsarbeit in Mecklenburg. Der Kirchentag 1988 (Motto: „Brücken bauen“) stand bereits unter dem Eindruck der Reformen des sowjetischen Parteichefs Michail Gorbatschow. Man wollte nach Gaucks Angaben die SED mit der Forderung zu einem Dialog ohne Beschränkung zwingen, die Parteispitze sollte sich zu den in Kirchenkreisen intensiv diskutierten Umwelt-, Friedens- und Menschenrechtsthemen äußern. Ein Höhepunkt auf diesem Kirchentag war nach hürdenreicher Einladung eine Ansprache des Altbundeskanzlers Helmut Schmidt von der Kanzel der Rostocker Marienkirche. Stasi-Hauptmann Terpe suchte nach dem Kirchentag Gauck zu einem längeren Gespräch auf, worüber der sich angeblich „angenehm überrascht“ zeigte. Terpe notierte anschließend, dieses Gespräch werde Gauck dazu veranlassen, „seine Haltung zum MfS zu überdenken“, konstatierte aber auch, dass Gauck „zu einem ständigen regelmäßigen Kontakt nicht bereit ist, da es seiner Grundauffassung widerspreche und es zu viele Dinge gibt, die zwischen uns stehen“. Im November 1988 beschloss die Stasi die Einstellung des gegen Gauck gerichteten Operativen Vorgangs "Larve:" „Im Rahmen der Vorgangsbearbeitung wurde ein maßgeblicher Beitrag zur Disziplinierung von Larve erreicht. Aufgrund des Bearbeitungsstandes kann eingeschätzt werden, dass von ihm derzeit keine Aktivitäten ausgehen werden, die eine weitere Bearbeitung im OV erforderlich machen.“ a> und Gauck in der Volkskammer (1990) Gaucks eigene Aussagen zu seinem damaligen Verhältnis zu den staatlichen Organen der DDR und speziell zum MfS wurden im Jahr 2000 von Peter-Michael Diestel, dem letzten DDR-Innenminister im Kabinett de Maizière, in Frage gestellt. Diestel brachte in die Debatte eidesstattliche Erklärungen ehemaliger MfS- und SED-Funktionäre ein, wonach Gauck ein Begünstigter des DDR-Regimes gewesen sei. In der Folge kam es zu juristischen Auseinandersetzungen; diese wurden mit einer gütlichen Einigung vor dem Oberlandesgericht Rostock beendet. Nach dem Wortlaut des Urteils war allerdings juristisch gesehen Diestel der Gewinner. Über Gauck darf rechtskräftig behauptet werden, er sei "Begünstigter der Stasi" entsprechend der Verhandlung vom 22. September 2000 vor dem Landgericht Rostock (AZ 3 O 245/00). Vgl. "Der Verfügungskläger (Gauck) hat gegen den Verfügungsbeklagten (Diestel) auch keinen Anspruch auf Unterlassung der Äußerung, er sei 'Begünstigter' i.S.d. Stasi-Unterlagengesetzes." Dagegen bestritt der DDR-Bürgerrechtler und "der Freitag"-Mitherausgeber Wolfgang Ullmann (1929–2004) jegliche Form der Zusammenarbeit Gaucks mit der Stasi; er schrieb: „Gauck hat sich an die in der Landeskirche Mecklenburg geltende Regelung gehalten, Gespräche mit dem MfS der Kirchenleitung mitzuteilen und damit jede Konspiration zu unterbinden. Wenn Diestel das bestreiten will, trägt er dafür die Beweislast, nicht etwa Gauck.“ Auch die Bestimmungen des Stasiunterlagengesetzes über Begünstigte des MfS träfen auf Gauck nicht zu. Laut Akten des Staatssicherheitsdienstes soll Gauck gesagt haben, dass er für Rostock keinen oppositionellen „Kirchentag von unten“ wolle, wie er 1987 von ca. 600 Teilnehmern am Rande des offiziellen Kirchentages der Evangelischen Kirche Berlin-Brandenburg veranstaltet wurde: „Der gesamte Kirchentag ist ein Kirchentag von unten, aber Missbrauchshandlungen läßt er nicht zu … Rostock ist nicht Berlin – Gäste haben sich zu fügen und einzuordnen.“ Der teilnehmende oppositionelle Theologe Heiko Lietz sagte, er sei während des Kirchentages in seinen Entfaltungsmöglichkeiten „massiv eingeschränkt“ worden. Laut einem Zwischenbericht des MfS vom 26. August 1987 sei Gauck „an keinen Themen interessiert […], die sich offen gegen die staatlichen Verhältnisse in der DDR richten. Aus diesem Grund hat er den Lietz, Heiko … anfangs nicht mit in den Vorbereitungskurs für den Kirchentag 1988 einbezogen. Erst auf Drängen von Lietz wurde dieser nachträglich in eine Themengruppe integriert und als Themenleiter eingesetzt.“ Lietz erklärte, er sei als Vorsitzender der landeskirchlichen Arbeitsgruppe für konziliare Prozesse nicht in den Vorbereitungskurs eingeladen und wenige Tage vor Kirchentagsbeginn als Vorsitzender abberufen worden. Bürgerrechtler beim Mauerfall (1989). Als der Bürgerprotest gegen die DDR-Obrigkeit in der zweiten Oktoberhälfte 1989 auch im Norden des Landes zur Massenbewegung wurde, hielt Gauck am 19. Oktober in Rostock eine Predigt zum Propheten Amos, in der er „tötende Selbstgerechtigkeit“ der „rettenden Gerechtigkeit“ gegenüberstellte. Im Ergebnis plädierte er auch für ein Bleiben in der DDR: „Die, die uns verlassen, hoffen nicht mehr.“ Gauck sah in der Revolution von 1989 ein ihn prägendes Erlebnis und bezeichnete die Losung „Wir sind das Volk!“ als Übersetzung der in der Französischen Revolution angelegten Ideale von "Freiheit, Gleichheit, Brüderlichkeit" in den Protest gegen das SED-Regime. Die Parole habe Bürgersinn geweckt. Sie habe bewusst gemacht, dass Menschen nicht die Verfügungsmasse einer scheinbar ewig sicheren Macht seien, „sondern dass wir es sind, die das Sagen haben“. Man habe sich gefragt: „Bin ich das? Sind wir das? Sind wir tatsächlich so mutig, wir landläufigen Feiglinge?“ Der DDR-Oppositionelle Hans-Jochen Tschiche kritisierte die Betitelung als „Bürgerrechtler“ in den Medien und sagte in einem Gastbeitrag der "Süddeutschen Zeitung", dass Gauck nicht zu den Gründervätern gehöre und in der Opposition nicht aufgefallen sei: „Er sprang erst später auf den fahrenden Zug auf. Wenn ich heute die veröffentlichte Meinung wahrnehme, wird er immer als Lokomotivführer der Oppositionsbewegung beschrieben.“ Heiko Lietz, ebenso Mitbegründer des Neuen Forums, sagte, er sei zur Kunstfigur aufgebaut worden, wofür man ihn nicht verantwortlich machen könne. Gauck „lehnte diesen Staat ab. Er war verlässlich“, aber als sich landesweit die Opposition vernetzte, illegal, mit Risiken, da sei Gauck nie dabei gewesen. Er führte weiter aus: „Er war in der Friedensbewegung nicht verwurzelt, es war wohl nicht sein Thema.“ Auch sei Gauck nicht unter den Aktivisten, die das Neue Forum gründeten, vorne dabei gewesen. Er sei dort spät aufgetaucht und habe sich nach Berlin wählen lassen, „als der Zug schon längst abgefahren und das Tor weit auf war“. Die ehemalige Dissidentin Vera Lengsfeld erwiderte dagegen, dass auf alle, die im Herbst 1989 Widerstand gegen das SED-Regime leisteten, der Begriff „Bürgerrechtler“ angewandt worden sei, und widersprach insbesondere Tschiche deutlich. Insofern trage „Gauck ihn mit Recht“. Die "Times" beschrieb ihn als ehemaligen Dissidenten: "„a former east German dissident priest, regarded by many as a moral authority.“" Abgeordneter in der Volkskammer der DDR (1990). Gauck trat bei der Volkskammerwahl am 18. März 1990 im Bezirk Rostock für die Listenverbindung Bündnis 90 an, zu der das Neue Forum (NF) gehörte, und wurde knapp gewählt. Als Abgeordneter beschäftigte er sich vorrangig mit der Rolle der Stasi in der DDR. Innerhalb des NF setzte sich der seit Oktober 1989 vom täglichen Kirchendienst freigestellte Gauck für eine staatliche Einheit Deutschlands ein. Am 31. Mai 1990 begründete Gauck in der Volkskammer den Antrag „zur Einsetzung des Sonderausschusses zur Kontrolle der Auflösung des MfS/AfNS“. Vertreter der Bürgerkomitees wurden mit beratender Stimme in die Ausschussarbeit einbezogen. In der konstituierenden Sitzung des Sonderausschusses wurde Gauck am 21. Juni 1990 zum Vorsitzenden gewählt. Eines der zentralen Probleme in der Zuständigkeit des Ausschusses war nach Gaucks Darstellung die personelle Zusammensetzung des seit Februar 1990 bestehenden staatlichen Komitees zur Auflösung des MfS/AfNS. Er habe sich bemüht, ehemaligen MfS-Angehörigen als Kennern der Materie vertrauenswürdige Vertreter aus den Bürgerkomitees an die Seite zu stellen und sich gegen westdeutsche Forderungen nach Überführung des Stasi-Aktenmaterials ins Koblenzer Bundesarchiv gestellt, auch die erwogene Vernichtung dieser Unterlagen unterband er. Gauck sah die Akten als wichtiges Gut für die künftige Gestaltung der Demokratie wie auch als unverzichtbare Grundlage für den Rechtsanspruch der geschädigten Bürger auf Rehabilitation und die Nachweismöglichkeit von erlittenem Unrecht. Er wurde so zu einem der Initiatoren des "Gesetzes über die Sicherung und Nutzung der personenbezogenen Daten des ehemaligen Ministeriums für Staatssicherheit/Amtes für Nationale Sicherheit", das am 24. August 1990 von der Volkskammer beschlossen wurde. Am 28. September wurde Gauck in der letzten Arbeitssitzung der Volkskammer zum "Sonderbeauftragten für die personenbezogenen Unterlagen des ehemaligen Staatssicherheitsdienstes der DDR" gewählt und am 3. Oktober 1990, dem Tag des Beitritts der DDR zur Bundesrepublik Deutschland, von Bundespräsident Richard von Weizsäcker und Bundeskanzler Helmut Kohl als "Sonderbeauftragter der Bundesregierung für die personenbezogenen Unterlagen des ehemaligen Staatssicherheitsdienstes" in dieser Funktion bestätigt. Beauftragter für die Stasi-Unterlagen (1990–2000). Joachim Gauck im Dezember 1990 Sein Mandat als einer der 144 Abgeordneten, die die Volkskammer gemäß des Einigungsvertrages zur Entsendung in den 11. Deutschen Bundestag gewählt hatte, legte Gauck daraufhin am 4. Oktober 1990 nieder. Aus dem Dienst als Pastor in der mecklenburgischen Landeskirche wurde er im November 1990 auf seinen eigenen Antrag hin entlassen. Als Sonderbeauftragter residierte Gauck zunächst mit nur drei Mitarbeitern im frei gewordenen Komplex des SED-Zentralkomitees in der Behrenstraße, bevor die Behörde in einen vor 1989 vom Innenministerium der DDR genutzten Gebäudekomplex in der Glinkastraße umzog. Bei der Übernahme der Stasi-Angestellten, auf die sich bereits das staatliche Auflösungskomitee gestützt hatte, verfolgte man laut Gauck einen pragmatischen Kurs: „Auf einige konnte man aufgrund ihrer Spezialkenntnisse nicht verzichten, andere hatten sich in der Übergangszeit nicht arrogant und gehässig, sondern kooperativ und freundlich gegen die Bürgerrechtler verhalten. Ich bat also meine Vertrauenspersonen in Berlin und in den Bezirken, mir die Namen derjenigen zu nennen, die für eine Übernahme in Frage kämen, und zwar Archivfachleute und Techniker. Diese Bitte sollte später wiederholt Gegenstand heftiger Polemiken werden.“ Mit Inkrafttreten des Stasi-Unterlagengesetzes am 2. Januar 1992 wechselte die Bezeichnung dieses Amtes noch einmal: Gauck war jetzt "Bundesbeauftragter für die Unterlagen des Staatssicherheitsdienstes der ehemaligen DDR". Am gleichen Tag wurde interessierten Betroffenen auf Antrag erstmals Akteneinsicht durch die Gauck-Behörde gewährt. In den ersten hundert Tagen wurden nach seinen Angaben 420.000 Anträge auf private Akteneinsicht und 130.000 Anträge auf Überprüfung von Personen im öffentlichen Dienst gestellt. In seiner Amtszeit kam es zu einem Rechtsstreit zwischen der von Gauck geführten Behörde und dem Ministerpräsidenten von Brandenburg, Manfred Stolpe. Das Verwaltungsgericht Berlin entschied am 3. Juni 1993, dass Gauck nicht länger behaupten darf, Stolpe sei ein wichtiger inoffizieller Mitarbeiter der Staatssicherheit gewesen. Die Forderung Stolpes, Gauck alle bisher wertenden Äußerungen zu verbieten, lehnte das Gericht ab. Erfolglos wandte sich Gauck dagegen, die am 31. Dezember 1997 auslaufende Verjährungsfrist für mittelschwere Straftaten aus DDR-Zeiten zu verlängern. Die bisherige Verlängerung hatte aus seiner Sicht keinen hinreichenden Erfolg gehabt. Ein Jahr später sprach er sich aber auch dagegen aus, die Aufarbeitung der DDR-Vergangenheit zu beenden, da noch immer eine große Zahl von Anträgen auf Akteneinsicht in seiner Behörde unbearbeitet geblieben waren. Gaucks erste Amtszeit dauerte bis 1995. Am 21. September wurde er vom Deutschen Bundestag mit großer Mehrheit für weitere fünf Jahre als Bundesbeauftragter bestätigt. Da für diese Funktion per Gesetz nur zwei Amtszeiten vorgesehen sind, räumte Gauck seinen Platz als Behördenchef am 10. Oktober 2000 für seine Nachfolgerin Marianne Birthler. Die Kurzform „Gauck-Behörde“, hernach auch „Birthler-Behörde“, bürgerte sich aufgrund des sperrigen offiziellen Titels ein. Kritisiert wurde Gauck für die Beschäftigung von Stasi-Mitarbeitern in seiner Behörde. Damit setzt sich ein vertrauliches „Gutachten über die Beschäftigung ehemaliger MfS-Angehöriger bei der BStU“ auseinander, das von Hans H. Klein und Klaus Schroeder 2007 im Auftrag des Kulturstaatsministers Bernd Neumann erstellt und durch WikiLeaks publiziert wurde. Für 1991 rechneten sie mit mindestens 79 ehemaligen Stasimitarbeitern, darunter fünf ehemaligen sogenannten Inoffiziellen Mitarbeitern: Aussagen Gaucks und des damaligen Direktors Busse gegenüber der Bundesregierung, wiesen die Gutachter Klein und Schroeder als „falsch“ zurück, da zu dieser Zeit mindestens 46 solche Personen beschäftigt gewesen seien, darunter ehemalige Wach- und Personenschützer des MfS, drei frühere Mitglieder des MfS-Wachregiments sowie weitere 16 ehemalige Hauptamtliche, die unerwähnt blieben. Die Behördenleitung wies den Vorwurf mit Blick auf die damalige Praxis anderer Behörden zurück. Roland Jahn, der zweite Nachfolger Gaucks als Behördenchef, betrieb die Trennung von solchen Mitarbeitern und nannte die Beschäftigung ehemaliger Stasi-Angehöriger einen „Schlag ins Gesicht der Opfer“. Im Wintersemester 1999/2000 gab Gauck im Rahmen einer Gastprofessur Vorlesungen zum Thema „1989 – Vom Untertan zum Bürger“ an der Medizinischen Universität zu Lübeck. Journalistische Tätigkeit und politisches Engagement. Rede am Vorabend des Nationalfeiertages in der Paulskirche in Frankfurt am Main im Jahre 2009 Gauck trat in den zehn Jahren bis zu seiner Kandidatur für das Amt des Bundespräsidenten als Redner und Diskussionsteilnehmer bei verschiedenen Veranstaltungen und Talkshows auf. Von Januar bis November 2001 moderierte er in der ARD die 14-täglich ausgestrahlte WDR-Sendung "Joachim Gauck". Gauck war von 2003 bis zu seiner Wahl zum Bundespräsidenten Vorsitzender des Vereins "Gegen Vergessen – Für Demokratie", der sich für die Auseinandersetzung mit dem Nationalsozialismus und der SED-Diktatur einsetzt. Nach seiner Wahl trat er von diesem Ehrenamt zurück. Er plädiert für die Errichtung eines Zentrums gegen Vertreibungen in Berlin. Er ist einer der Erstunterzeichner der Prager Erklärung von 2008 und der Erklärung über die Verbrechen des Kommunismus von 2010. Gauck ist Mitglied des Vereins Atlantik-Brücke und Mitglied im Senat der Deutschen Nationalstiftung. Von 2001 bis 2004 war Gauck als Vertreter Deutschlands ehrenamtliches Mitglied des Verwaltungsrates der Europäischen Stelle zur Beobachtung von Rassismus und Fremdenfeindlichkeit in Wien. Er gehört zu den Referenten des Studienzentrums Weikersheim sowie des Veldensteiner Kreises. Seit 2007 war er ehrenamtlich als Vorsitzender des Unabhängigen Gremiums zur Klärung von Stasi-Fragen des Deutschen Olympischen Sportbundes tätig. Mit dem Amtsantritt als Bundespräsident ist er aus dieser Tätigkeit ausgeschieden. Kandidatur für das Amt des Bundespräsidenten 2010. Gauck wurde auf Vorschlag der Vorsitzenden von SPD und Die Grünen für die Bundespräsidentenwahl am 30. Juni 2010 nominiert. Bereits zur Wahl des deutschen Bundespräsidenten 1999 war er als Kandidat diskutiert worden, damals allerdings nur innerhalb der CSU und auch nicht über das Stadium von „Vorüberlegungen“ hinaus. Die Kandidatur 2010 stieß bei einigen früheren Mitstreitern Gaucks auf Kritik. Gleichzeitig warb eine "Initiative für die Wahl von Joachim Gauck": Von den Medien wurde Gauck, der in Umfragen viel Zustimmung erfuhr, öfters als „Kandidat des Volkes“ porträtiert. Es wurde herausgestellt, dass er mit seiner Vita und seiner politischen Einstellung ebenso gut Kandidat des konservativ-liberalen Lagers hätte sein können. Tatsächlich äußerten sich auch CDU- und FDP-Politiker wie Jörg Schönbohm und Holger Zastrow positiv zum Kandidaten Gauck. Dennoch wurden ihm, da CDU/CSU und FDP mit ihrem Kandidaten Christian Wulff 644 von den 1244 Mitgliedern der Bundesversammlung stellten, nur geringe Erfolgschancen eingeräumt. Allerdings erreichte Wulff erst im dritten Wahlgang mit 625 Stimmen knapp die absolute Mehrheit, während Gauck jeweils mehr als 30 Stimmen über die 462 Sitze von SPD und Grünen hinaus erhielt. Privatleben und Familie. Joachim Gauck ist seit 1959 mit Gerhild „Hansi“ Gauck (geb. "Radtke") verheiratet und hat mit ihr vier Kinder. Diese waren in der DDR Repressionen ausgesetzt. Seinen beiden Söhnen wurde das Abitur in der Erweiterten Oberschule bzw. ein Studium versagt. Sie reisten Ende 1987 mit ihren Ehefrauen und Kindern aus der DDR in die Bundesrepublik aus. Christian Gauck studierte in Hamburg Medizin und ist dort als Arzt tätig. Die älteste Tochter reiste im Sommer 1989 nach Bremen aus. Seit 1991 lebt Gauck von seiner Frau getrennt; die Ehe wurde bisher nicht geschieden. Gerhild Gauck betreibt in Rostock gemeinsam mit anderen die Begegnungsstätte "Drehscheibe Marientreff". Joachim Gaucks Lebensgefährtin war von 1990 bis 1998 die ZEIT-Journalistin Helga Hirsch. Diese ist auch jetzt noch seine Vertraute und Beraterin. Seit 2000 lebt er mit der Journalistin Daniela Schadt zusammen. Ursprünglich beabsichtigte Joachim Gauck, auch als Bundespräsident in seiner Wohnung in Berlin-Schöneberg wohnen zu bleiben. Um Unannehmlichkeiten für seine Nachbarn durch die Sicherheitsanforderungen zu vermeiden, zogen er und Schadt im Juli 2012 in die Dienstvilla für Bundespräsidenten, die ehemalige "Villa Wurmbach" in der Pücklerstraße in Berlin-Dahlem. Am 8. August 2012 wurde Gauck in der St.-Marien-Kirche durch die Verleihung des Ehrenbriefes der Stadt Rostock zum Ehrenbürger der Hansestadt. Politische Positionen. Gauck nennt sich selbst einen „linken, liberalen Konservativen“, bezeichnet sich als „aufgeklärter Patriot“ und als „Liebhaber der Freiheit“. Seinen Freiheitsbegriff orientiert er unter anderen an dem Dichter und Politiker Václav Havel sowie am Werk "Die Furcht vor der Freiheit" des Sozialpsychologen Erich Fromm. Die besondere Rolle des Freiheitsmotivs im eigenen politischen Denken erklärt Gauck mit den Erfahrungen in der DDR. Das gemeinsame Unterdrücktsein habe zu intensiven Erfahrungen und zu einer Gegenkultur im Glauben, in der Musik und in Gedichten geführt, die versteckte Botschaften enthielten und das Bewusstsein stärkten: „Wir behaupten einen Freiraum gegen "sie". […] Zu begreifen, dass das Leben in Freiheit auf eine einfache Weise Zugang zu den wesentlichen Dingen verschafft, hat auch etwas Entzauberndes. Freiheit, normal geworden, scheint dann ganz banal.“ Als die rot-rote Koalition in Berlin 2005 „Lebenskunde, Ethik, Religion“ (LER) als Pflichtfach zusätzlich zum fakultativen Religionsunterricht an Berliner Schulen einführen wollte, unterzeichnete Gauck eine Liste, in der zum Erhalt des Religionsunterrichts als Wahlpflichtfach alternativ zu LER aufgefordert wurde. In einem 2010 veröffentlichten Interview in der "Süddeutschen Zeitung" nahm Gauck unter anderem Stellung zu den Themen Patriotismus und Kapitalismus, zur Integrationspolitik sowie zur Rolle der Medien in der Demokratie. Fürsprecher parlamentarisch-demokratischer Strukturen. Anlässlich der 25. Wiederkehr des Jahrestages der Volkskammerwahl vom 18. März 1990 bekräftigte Gauck als Bundespräsident in einem Artikel in Die Zeit sein Eintreten für Parlamentarismus und Parteiendemokratie. Zwar sei die Wahlbeteiligung von seinerzeit 93,4 Prozent der Wahlbeteiligten bei dieser ersten freien und geheimen Wahl in der DDR einzigartigen Umständen geschuldet, doch ließen sich daraus allgemeingültige Schlussfolgerungen ableiten: „Druck zur Veränderung“ führe zu erhöhter Wahlbeteiligung, wie auch die Bundestagswahl 1972 mit 91,1 Prozent Beteiligung der Wahlberechtigten gezeigt habe, als es um die neue Ostpolitik gegangen sei. Unterdessen sei die Wahlbeteiligung im Osten Deutschlands oft geringer als im Westen, vielleicht aus Gründen der Ernüchterung und Enttäuschung über die wirtschaftlichen und sozialen Folgen der Wiedervereinigung. Dies bedeute eine Bewährungsprobe für die repräsentative Demokratie, in der es die Kommunikation zwischen Regierenden und Regierten zu stärken gelte. „Genauso, wie man Personal und andere Ressourcen einsetzt, um Sachthemen zu erforschen und in politische Projekte zu verwandeln, muss die Politik mehr Ressourcen einsetzen, um verständlich zu erklären, was sie zum Wohle der Bevölkerung im Gesamtinteresse tut.“ Von plebiszitären Elementen, erklärt Gauck, habe er sich vor 25 Jahren mehr versprochen als heute. Die partiellen Interessen einer regionalen, zahlenmäßig begrenzten Bevölkerungsgruppe könnten durch einen Volksentscheid leicht überproportionalen politischen Einfluss erlangen und müssten keineswegs automatisch mehr Legitimation aufweisen als die Entscheidungen gewählter Körperschaften. Es bedürfe der Parteien, „um Einzelphänomene mit dem großen Ganzen in Beziehung zu setzen und widerstreitende Interessen in Politik zu überführen.“ Jede demokratische Wahl habe Größe. „Denn sie verleiht eine doppelte Würde: Die Wählenden macht sie zum Souverän; und den Gewählten verleiht sie die Würde der Legitimität.“ Bürgerbeteiligung und -proteste. Im Rückblick auf die politischen Entwicklungen des Jahres 2010 betonte Gauck in einem Gespräch mit dem "Tagesspiegel" die Notwendigkeit eines stärkeren politischen Engagements der Bürger. Er befürwortete Debatten über mehr plebiszitäre Elemente auf Bundesebene und über die Direktwahl des Bundespräsidenten. Im Rahmen einer Rede vor Stipendiaten des Deutschen Akademischen Austauschdiensts beklagte er eine in Deutschland herrschende „Unkultur des Verdrusses“. Die Bürgerproteste gegen das Bahnprojekt "Stuttgart 21" bewertete er zunächst positiv: „Egal, wie man die Proteste über Stuttgart 21 inhaltlich bewertet, muss man sich darüber freuen, dass sich Bürger von ihren Sofas erheben und an der demokratischen Willensbildung teilnehmen.“ Im weiteren Verlauf warnte er allerdings auch vor einer Protestkultur, die lediglich „aufflammt, wenn es um den eigenen Vorgarten geht“. Zur Totalitarismusdebatte. Gaucks Auffassungen sind auf Kritik gestoßen. So bekräftigte der Erziehungswissenschaftler Micha Brumlik zwar, dass Nationalsozialismus und Stalinismus moralisch gleichzusetzen seien. Gaucks politische Urteilskraft sei jedoch „durch persönliche Betroffenheit verständlicherweise beeinträchtigt“, wenn er sämtliche Regime des Ostblocks vor 1989 zu Fällen von Totalitarismus erkläre. Brumlik verwies darauf, dass die politische Theoretikerin Hanna Arendt, auf die sich auch Gauck berufen hatte, ausschließlich den Stalinismus in der Sowjetunion und in deren Satellitenstaaten nach 1945, nicht aber die Nach-Stalin-Ära nach 1953 als totalitär bezeichnet habe. In einem Interview der Wochenzeitung "Die Zeit" betont Gauck seinen Generalverdacht als Heranwachsender in Bezug auf die NS-Vergangenheit der Elterngeneration, sein bohrendes Interesse auch an der Rolle seines Vaters in der NS-Zeit und seine nur psychologisch erklärbare Wut darüber, „dass er so wenig verstrickt war.“ Der antifaschistischen Ausrichtung der frühen DDR spricht Gauck die Konsequenz ab und urteilt: „es war stalinistischer Terror mit nur selektivem Antifaschismus.“ Einstellung zu einzelnen Parteien. Zur Vereinigung von Bündnis 90, dessen aktives Mitglied er war, mit den Grünen im Jahre 1993 äußerte sich Gauck im "Tagesspiegel" 2003 kritisch. Eine 2007 zum Tag der Deutschen Einheit im Sächsischen Landtag von Gauck gehaltene Rede wurde durch die Fraktion der Partei "Die Linke" boykottiert. Im Zuge seiner Kandidatur als Bundespräsident 2010 sprach sich Gauck für die Beobachtung der Partei durch den Verfassungsschutz aus und betonte, er könne „noch immer keine Bindung der Linkspartei an das europäische Demokratieprojekt erkennen“. Gauck begrüßte die Distanzierung der SPD von der Linken im Anschluss an seine Präsidentschaftskandidatur von 2010; er erkenne bei den Radikalen der Partei "Die Linke" – Gauck nannte hierzu Ulla Jelpke und Sahra Wagenknecht – „viele Bezüge zu altem, bolschewistischem Gedankengut. Das sind teilweise nicht nur marxistische, sondern auch leninistische Anklänge“. Die Erfolge der Piraten im bundesdeutschen Parteiensystem bis 2012 betrachtete Gauck als ein „sehr interessantes Phänomen“: Aus einer Befindlichkeit werde dort politisch relevante Aktion. Da wollten Leute mitmachen, indem sie sich in Parlamente wählen lassen. Das freue ihn. „Wir werden sehen, wann sie welche Antworten in den politischen Diskurs einbringen.“ Anhänger der NPD bezeichnete Gauck 2013 als „Spinner“. Nach einer Klage der NPD stellte das Bundesverfassungsgericht fest, dass das Wort bei isolierter Betrachtung zwar diffamierend sein könne, es im konkreten Fall jedoch als Sammelbegriff für Menschen benutzt worden sei, „die die Geschichte nicht verstanden haben und, unbeeindruckt von den verheerenden Folgen des Nationalsozialismus, rechtsradikale Überzeugungen vertreten“. Daher hatte die Klage der NPD gegen Gaucks Äußerung keinen Erfolg. Anfang November 2014 kritisierte Gauck in einem Interview mit der ARD die mögliche Bildung einer rot-rot-grünen Koalition in Thüringen unter Führung von Bodo Ramelow. „Menschen, die die DDR erlebt haben und in meinem Alter sind, die müssen sich schon ganz schön anstrengen, um dies zu akzeptieren“, sagte er im Bericht aus Berlin. Politiker der Linken und der SPD warfen ihm daraufhin vor, sich in die Regierungsbildung in Thüringen einzumischen, während er von Politikern aus CDU, Grünen und FDP verteidigt wurde. Sozialpolitik, Agenda 2010. Joachim Gauck am 29. November 2010 in München Gauck umriss 1990 den mehrheitlichen Wunsch im Neuen Forum nach einer sozial gestalteten Marktwirtschaft gemäß der Grundaussage: „Wir wollen soziale Sicherheit und der Markt soll gelten, aber er soll nicht alles bestimmen.“ 2010 sagte er mit Bezug zur Sozialpolitik: „Wir stellen uns nicht gern die Frage, ob Solidarität und Fürsorglichkeit nicht auch dazu beitragen, uns erschlaffen zu lassen.“ Es würde „immer noch der Traum von der Obrigkeit geträumt, die es gut mit uns meint und in deren Obhut wir uns gefahrlos begeben können“. Gauck gilt als Unterstützer der Reformpolitik Gerhard Schröders (Agenda 2010), die er in einem Interview mit der "Welt" lobend erwähnte: „Als Bundeskanzler Schröder einst die Frage aufwarf, wie viel Fürsorge sich das Land noch leisten kann, da ist er ein Risiko eingegangen. […] Solche Versuche mit Mut brauchen wir heute wieder.“ In der "Berliner Zeitung" nannte er den Begriff "Montagsdemonstration" im Zeichen von Sozialprotesten gegen Hartz IV „töricht und geschichtsvergessen“. Dabei unterstützte er ausdrücklich die Wahrnehmung des Demonstrationsrechts; doch wer mit guten Gründen demonstriere, brauche dafür kein falsches Etikett. Im Juni 2010 erklärte Gauck zur Rente mit 67: „Wenn die Bevölkerung immer älter wird, müssen wir uns Gedanken über eine Beteiligung der Generationen machen.“ Für die Rente mit 67 sprächen viele gute Gründe. Nach seiner Wahl zum Bundespräsidenten sagte Gauck, dass er nicht möchte, „dass der Sozialstaat beschädigt wird.“ Er schätze eine Sozialpolitik, die mit den gesellschaftlich Abgehängten trainiere, wieder in Arbeitsprozesse zu kommen, und „nicht nur Beruhigungsmittel“ abgebe. Zum Solidarpakt für die neuen Bundesländer äußerte er, dass Geld verstärkt an bedürftige Regionen verteilt werden sollte und nicht nur nach geografischen Kriterien. Bei seinen Reisen etwa nach Nordrhein-Westfalen habe er „Zustände gesehen, die ich aus Ostdeutschland nicht mehr kenne“. Vorratsdatenspeicherung, Wikileaks, Whistleblower. Hinsichtlich der Vorratsdatenspeicherung äußerte Gauck im Dezember 2010 im Wiener Burgtheater, er teile die Sorgen über die anlasslose Speicherung der elektronischen Kommunikationsdaten aller Bürger, sehe aber die Bundesrepublik nicht in der Gefahr, zu einem Spitzelstaat zu werden. Während Gaucks Äußerungen zur Vorratsdatenspeicherung insbesondere den Arbeitskreis (AK) Vorratsdatenspeicherung beunruhigten, kam von anderer Seite dafür Unterstützung. So lobte ihn etwa der Sicherheitsforscher Dr. Sandro Gaycken von der Freien Universität Berlin für seine „recht beruhigte und vernünftige Haltung“. Die Veröffentlichung von „gestohlenem Material“ auf der Online-Whistleblower-Plattform Wikileaks wurde von Gauck kritisiert: „Das kann ich nicht akzeptieren, dass das gefeiert wird, das ist ein elementarer Verlust von Recht.“ Wikileaks hatte 2007 unter anderem einen vertraulichen Bericht über Stasi-Mitarbeiter in der Behörde des Bundesbeauftragten für die Stasi-Unterlagen veröffentlicht. PRISM. Auf die Frage, ob er Verständnis oder gar Sympathie für den Prism-Enthüller Edward Snowden habe, antwortete er, er brauche dazu noch mehr Informationen. Für Snowden würde er dann Sympathie und Respekt haben, wogegen er für „puren Verrat“ oder für die Überschreitung von selbsteingegangenen Verpflichtungen kein Verständnis habe. Bundeswehr und deutscher Afghanistan-Einsatz. 2010 vertrat Gauck die Ansicht, die in Afghanistan eingesetzten deutschen Soldaten kämpften dort im Auftrag der Vereinten Nationen gegen Terroristen und leisteten zudem Gutes für die afghanische Bevölkerung. Auf Kritik aus der Partei Die Linke hin stellte er klar, dass er den Einsatz „nicht gut, aber erträglich und gerechtfertigt“ finde und warf Gegnern des Afghanistan-Einsatzes wegen der früheren Unterstützung von Befreiungskämpfen seitens der politischen Linken vor, einen taktischen, aber keinen ethischen Pazifismus zu pflegen. Energiepolitik. Im Oktober 2011 kritisierte Gauck die Novelle des Atomgesetzes, mit der als Reaktion auf die Reaktorkatastrophe von Fukushima eine Stilllegung aller Kraftwerke bis spätestens 2022 beschlossen – und die von der christlich-liberalen Regierungskoalition zuvor 2010 angesetzte Laufzeitverlängerung zurückgenommen wurde: Man könne derart wichtige politische Entscheidungen nicht von der Gefühlslage der Nation abhängig machen. Genau dies aber habe die Regierung unter Angela Merkel getan, weil die Angst vor der nächsten Wahlniederlage das politische Handeln geleitet habe. Am 5. Juni 2012 warnte Gauck, dass die Energiewende nicht allein mit „planwirtschaftlichen Verordnungen“ gelingen werde, noch mit einem „Übermaß an Subventionen“; stattdessen forderte er „überzeugende Innovationen“ im Rahmen eines fairen Wettbewerbs. Dies bezog sich auf die geplante Kürzung der Solarförderung angesichts stark gefallener Modulpreise, die vom Bundesrat zunächst gestoppt und an den Vermittlungsausschuss verwiesen worden war. Zugleich sprach er sich angesichts der Globalen Erwärmung sowie anderer Umweltschäden deutlich für die Energiewende aus, für die ein verlässlicher politischer Rahmen gebraucht werde, um Schädliches zu vermeiden und Gewünschtes erreichen zu können. Marktwirtschaftliche, wachstumsfreundliche Umweltpolitik heiße für ihn, die Kosten für Umweltbelastungen und Umweltrisiken den Verursachern in Rechnung zu stellen, nicht den Steuerzahlern. Dagegen solle sich umweltfreundliche Produktion für Unternehmen im Wettbewerb auszahlen. Gauck warnte davor, die Kosten für die Umweltpolitik nachfolgenden Generationen aufzubürden, da eine solche Haltung wäre. Jedes Leben auf der Erde könne sich nur entfalten; deshalb sei langfristig nur das ökologisch Vernünftige ökonomisch sinnvoll. Anlässlich der Ernennung Peter Altmaiers zum neuen Bundesumweltminister forderte Gauck ein verbindliches, globales Klimaabkommen. Kapitalismusdebatte, Occupy Wall Street. In der DDR stand Gauck dem Sozialismus zeitweise wohlwollend gegenüber, aufgrund der Nähe zu christlichen Ideen und des Versuches, eine emanzipatorische Gesellschaft zu entwickeln. Während der Wendezeit bemängelte er dagegen, die DDR hafte an „marxistischen Dogmen“ und es gebe keine „Weiterentwicklung einer effektiven Ökonomie“. Im Namen einer Mehrheit des Neuen Forums ging Gauck davon aus, „dass es nicht eine sozialistische und eine kapitalistische Wirtschaft gibt, sondern dass es Wirtschaftsgesetze gibt, die gelten“. Seitdem gilt Gauck als ein Befürworter der Marktwirtschaft: Wer wolle, „dass es allen gut geht, dass es eine Streuung des Eigentums gibt, Vermögensbildung in Arbeitnehmerhand“ und „ein soziales Netzwerk, was diesen Namen verdient“, muss sich nach Gaucks Überzeugung „einen sehr gut funktionierenden Kapitalismus wünschen“. „Wer die Freiheit liebt, wird sich dahin bequemen müssen, Freiheit auch in den Wirtschaftsprozessen zu wollen“, fordert er. Die Neoliberalen und andere hätten gespürt, „dass zu dieser Freiheit in der Wirtschaft Gestaltungswille und Gestaltungselemente aus dem politischen Raum hinzutreten können, ohne aber dieses Prinzip zu vernichten.“ Einen „dumpfen unaufgeklärten Antikapitalismus“ lehnt Gauck ab, weil dessen Konzepte nicht wirkten. Gleichwohl müssten kapitalistische Wirtschaftssysteme ebenso kritisch beurteilt werden wie die verschiedenen politischen Richtungen: „Es soll und muss debattiert werden, ob konservative, liberale oder linke Vorstellungen einer sozialen Marktwirtschaft eher gerecht werden oder bessere Lösungen für künftige Krisen anbieten.“ Das System sei lernfähig und habe Vorbildcharakter, selbst die Ostdeutschen und die linken Professoren seien „darauf gekommen, dass wir keinen neuen, dritten Weg ersinnen konnten“. Mit Skepsis begegnete er der Bewegung "Occupy Wall Street". Ebenfalls am 16. Oktober 2011 in den Hamburger Kammerspielen übte er Kritik an der Anti-Banken-Bewegung. Unter anderem äußerte er, die Antikapitalismusdebatte sei „unsäglich albern“. Gauck zweifelte an den Erfolgschancen und der Dauerhaftigkeit der Proteste gegen das Finanzsystem. Er fügte hinzu: Mit Bezug zu den Occupy-Protesten bezeichnete Gauck es als eine „romantische Vorstellung“, für eine Welt einzutreten. Wissenschaftler wie Hubertus Buchstein und Dieter Rucht äußerten Kritik an Gaucks Einschätzung. Islam in Deutschland. In einem Interview mit der "ZEIT" im Mai 2012 distanzierte sich Gauck von der Äußerung seines Vorgängers Wulff, der Islam gehöre zu Deutschland. Diesen Satz könne er so nicht übernehmen, Wulffs Äußerungen hatte 2010 eine lange Debatte in Deutschland ausgelöst. Gaucks Position fand in Medien und Öffentlichkeit viel Zustimmung. Sarrazin-Debatte. Gauck äußerte sich im Rahmen einer kontroversen Debatte um das Buch "Deutschland schafft sich ab" des ehemaligen Berliner Finanzsenators Thilo Sarrazin. Er attestierte Sarrazin „Mut“ und äußerte sich zu dessen Aussagen: Er urteilte über Sarrazin: „Er hat über ein Problem, das in der Gesellschaft besteht, offener gesprochen als die Politik.“ Die politische Klasse könne aus dem Bucherfolg Sarrazins lernen, dass „ihre Sprache der politischen Korrektheit bei den Menschen das Gefühl weckt, dass die wirklichen Probleme verschleiert werden sollen“. In einem Interview mit der "Süddeutschen Zeitung" führte er bezugnehmend auf das Buch aus, dass das Integrationsproblem nicht darin bestehe, „dass es Ausländer oder Muslime gibt – sondern es betrifft die Abgehängten dieser Gesellschaft. Darum erscheint es notwendig, und das ist meine Kritik an Sarrazin, genauer zu differenzieren und nicht mit einem einzigen biologischen Schlüssel alles erklären zu wollen. Und plötzlich wird aus einem Hype eine nüchterne Debatte.“ „Zu solchen Debatten“ gehöre „auch die populistische Übertreibung“. Unternehmertum. Gauck wirbt für einen verantwortungsvollen Kapitalismus (Rede vom 15. November 2012). Man dürfe nicht der Wirtschaft nur aus Angst die Freiheit nehmen. Gerade im Finanzsektor sieht Gauck weiterhin Bedarf für Veränderungen. Dafür brauche es nicht nur neue Regeln – die Menschen müssten ihre Haltung überdenken. In der aktuellen Wirtschaft seien zwei Dinge getrennt worden, die zusammengehörten: Gerade Verantwortung dürfe aber kein Geschäft zu Lasten Dritter sein. Gauck sagte, er habe lange zu denen gehört, die beim Stichwort Regulierung vor allem glaubten, dass weniger mehr sei. Nun aber sage er: „Freies Unternehmertum braucht Grenzen.“ Denn er habe erkannt, dass ohne Grenzen Freiheit und Verantwortung nicht überall gleichermaßen berücksichtigt würden. Verantwortlich handeln, das hieße für ihn jetzt „aus Freiheit ein Freund von Grenzen zu sein“, denn die Wenigen, die sich die Freiheit nähmen, für nichts Verantwortung zu tragen, „zerstören die Voraussetzungen der Freiheit“. Zwar könne Grenzenlosigkeit „unerhörte Höhenflüge“ schaffen. „Aber für viele andere schafft Grenzenlosigkeit keinen Lebensraum, sondern eine Wüste.“ „Neue Macht – Neue Verantwortung“. Am 31. Januar 2014 eröffnete Gauck mit einer Grundsatzrede zu Deutschlands Rolle in der Welt die 51. Münchner Sicherheitskonferenz (MSC); es war das erste Mal, dass ein deutsches Staatsoberhaupt diese Aufgabe wahrnahm. Die MSC gilt als zentraler Ort des transatlantischen Meinungsaustausches. Gauck formulierte ein Plädoyer für eine fundamentale Neuausrichtung der deutschen Außen- und Sicherheitspolitik, Deutschland müsse sich international stärker engagieren - und zwar auch mit militärischen Mitteln. Die Bundesverteidigungsministerin Ursula von der Leyen und der deutsche Außenminister Frank-Walter Steinmeier schlossen sich dem an. Dieser Paradigmenwechsel von einer „Kultur der militärischen Zurückhaltung“ der Bundesrepublik bis 1990 hin zu einer „Kultur der Kriegsfähigkeit“ wurde über ein Jahr lang vorbereitet. Ende 2012 versammelten zwei Denkfabriken, die Stiftung Wissenschaft und Politik (SWP) und der German Marshall Fund (GMF), eine Gruppe von über 50 Politikern, Professoren, Vertretern des Auswärtigen Amts und anderen Ministerien sowie des Kanzleramtes, sowie zwei Redakteure der Zeit und der FAZ, um über Außenpolitik nachzudenken. Das Projekt wurde durch den Planungsstab des Auswärtigen Amtes finanziert. „Neue Macht, neue Verantwortung“ hieß im Herbst 2013 der Projektbericht (Liste der Mitwirkenden am Projekt Neue Macht – Neue Verantwortung). Die Projektleiterin Constanze Stelzenmüller stellte fest: „Wir haben das bewusst nicht im Wahlkampf, sondern zu den Koalitionsverhandlungen hin veröffentlicht“. Einer breiteren Öffentlichkeit präsentierte die Gauck-Rede vom Januar 2014 die wesentlichen Elemente des Projektberichtes, der faktisch als Blaupause fungierte, wobei teils sogar wortgleich Kernaussagen aus „Neue Macht - Neue Verantwortung“ übernommen wurden. Eine eigens für den „Munich Security Report 2015“ erhobene Umfrage (in Auftrag gegeben von der Hamburger Körber-Stiftung) zeigte, dass die Bundesbürger eine „aktivere Rolle“ deutscher Außenpolitik in internationalen Krisen zunehmend ablehnten - 2014 lehnten 60 % (2015: 62 %) der Bundesbürger eine „aktivere Rolle“ ab. Nur 34 % (2014: 37 %) befürworten ein stärkeres Engagement. Flüchtlingszustrom 2015. In einer Rede zur 40. Interkulturellen Woche am 27. September 2015 äußerte Gauck sich zutiefst beeindruckt von Hilfsbereitschaft und Engagement der „vielen tausend freiwilligen und hauptamtlichen Helferinnen und Helfer“ bei der humanitären Bewältigung des aktuellen Flüchtlingszustroms in Deutschland. Zugleich thematisierte er verbreitete Sorgen hinsichtlich einer möglichen Überforderung in Zukunft: „Wir wollen helfen. Unser Herz ist weit. Doch unsere Möglichkeiten sind endlich.“ Neben der vorgeschriebenen Ordnung würden gegenwärtig auch Flexibilität und Fantasie gebraucht, eine kreative Haltung, „die nicht sagt, warum etwas unmöglich ist, sondern fragt, wie es möglich wird.“ Schnelles Handeln sei gefordert, um Spannungen zwischen Hinzukommenden und ansässiger Bevölkerung zu vermeiden. Die für anderweitige Nutzungen gebrauchten Turnhallen, Schwimmbäder und Grünanlagen kämen nicht auf Dauer für die Einrichtung von Notunterkünften in Frage. Die Integration der Bleibeberechtigten müsse beschleunigt werden, speziell im sprachlichen Bereich, im Arbeitsleben und im Vereinswesen. Unter dem Eindruck der geschichtliche Erfahrungen sei gerade Deutschland ein Land, das Zuflucht vor Krieg und Verfolgung bieten müsse. Um das unter Aufrechterhaltung der inneren Ordnung leisten zu können, sei es aber auch nötig, dass „Staaten und ein Staatenverbund wie die Europäische Union ihre äußeren Grenzen schützen.“ An die Aufgenommenen appellierte Gauck, sich einzulassen auf die deutsche Sprache, auf Nachbarn und neue Umgebung, auf ein Land des Rechts und der Freiheit, der Menschenrechte und der Gleichheit der Geschlechter. Die Mitbürger forderte er auf: „Wenn wir Probleme benennen und Schwierigkeiten aufzählen, so soll das nicht unser Mitgefühl – unser Herz – schwächen. Es soll vielmehr unseren Verstand, unsere politische Ratio aktivieren […] So werden wir bleiben, was wir geworden sind: Ein Land der Zuversicht.“ Im Rahmen seiner Rede zum 25. Jahrestag der Deutschen Einheit am 3. Oktober 2015 betonte Gauck, die Aufgabe der inneren Einheit Deutschlands stelle sich angesichts der vielen Flüchtlinge neu, „die angesichts von Kriegen, von autoritären Regimen und zerfallenden Staaten nach Europa, nach Deutschland getrieben werden.“ Dabei handle es sich um eine Herausforderung, die Generationen beschäftigen werde. Im Vergleich zu 1990 gehe es um ein komplizierteres Zusammenwachsen mit Menschen verschiedener Herkunftsländer, Religionen, Hautfarben und Kulturen. Gauck sprach die unterschiedlichen Haltungen in einzelnen Mitgliedstaaten der Europäischen Union gegenüber dem Flüchtlingszustrom an und warb um Verständnis dafür: Auch im wiedervereinigten Deutschland zeigten sich in der Haltung gegenüber Flüchtlingen zum Teil zeitgeschichtlich bedingte Besonderheiten, die darauf zurückzuführen seien, dass die Westdeutschen sich über Jahrzehnte hätten daran gewöhnen können, zum Einwanderungsland zu werden, während die Ostdeutschen bis 1990 kaum in Kontakt mit Zuwanderern gekommen seien. Die Wahl zum Bundespräsidenten und deren Vorgeschichte. Nach dem Rücktritt des Bundespräsidenten Christian Wulff am 17. Februar 2012 infolge der Wulff-Affäre kündigte Bundeskanzlerin Merkel einen Vorschlag für dessen Nachfolge an, der auch die Zustimmung der Oppositionsparteien SPD und Grünen finden sollte; Gespräche mit der Partei "Die Linke" schloss sie aus. Joachim Gauck wurde zuerst wieder von der SPD und Bündnis 90/Grüne als Kandidat ins Gespräch gebracht. Am 19. Februar bekam Gauck zunächst die Unterstützung der FDP, später auf ihren Druck hin auch die der Union. Am Abend trafen sich die Parteispitzen von CDU/CSU, FDP, SPD und den Grünen im Kanzleramt und präsentierten Joachim Gauck als gemeinsamen Kandidaten. Am 20. Februar 2012 ergab eine Umfrage bei 1122 Befragten eine Zustimmung von 69 % für Gauck als Bundespräsidenten (16 % Ablehnung, Rest: keine Meinung). Gaucks Stellungnahmen zu Sarrazin, Occupy Wall Street, Stuttgart 21, Hartz IV und Vorratsdatenspeicherung führten zu einer kurzen Kontroverse über seine Eignung für das Amt. Diese Debatte wurde insbesondere in sozialen Netzwerken im Internet geführt. Einzelne Politiker der Grünen kündigten daraufhin an, sich eine Ablehnung von Gauck vorzubehalten. Es wurde in einigen Medien die These geäußert, die Kritik reiße Gaucks Aussagen aus dem Kontext und dichte ihm Positionen an, die er nicht vertreten habe. Am 18. März 2012 wurde Gauck von der 15. Bundesversammlung zum 11. Bundespräsidenten Deutschlands gewählt. Er erhielt 991 von 1228 gültigen Stimmen. Seine Amtszeit begann gemäß BPräsWahlG, als er nach der Verkündung des Wahlergebnisses in der Bundesversammlung dem Präsidenten des Bundestages Norbert Lammert die Annahme der Wahl erklärte. Im Juli 2012 wurde bekannt, dass die Journalistin und Autorin Ferdos Forudastan neue Sprecherin von Bundespräsident Gauck wird. Forudastan gilt als Expertin für Migrations- und Integrationsfragen. Am 8. September 2015 überholte Gauck als ältester amtierender Bundespräsident seinen Amtsvorgänger Theodor Heuss, den ersten Bundespräsidenten. 2014. Am 8. Dezember 2013 meldete Der Spiegel, Gauck habe der russischen Regierung in der vergangenen Woche mitteilen lassen, dass er im Februar 2014 nicht zu den Olympischen Winterspielen in Sotschi reisen werde. Die Absage sei „nach Informationen des Spiegel als Kritik an den Menschenrechtsverletzungen und der Drangsalierung der Opposition in Russland zu verstehen“. Demgegenüber erklärte eine Sprecherin Gaucks, seine Entscheidung, die Spiele nicht besuchen, sei nicht als Boykott zu verstehen. So habe auch 2010 der damalige Bundespräsident Horst Köhler auf die Reise zu den Winterspielen in Vancouver verzichtet. Rezeption und Kontroversen. Anlässlich des 60-jährigen Jubiläums des Walter Eucken Instituts hielt Joachim Gauck am 16. Januar 2014 in Freiburg im Breisgau eine Ansprache und würdigte den neoliberalen Ökonomen Walter Eucken. Der Vorsitzende der Linkspartei, Bernd Riexinger, kritisierte daraufhin Gaucks Plädoyer für mehr marktwirtschaftliche Freiheit als „eine sehr parteiliche Einmischung“. Der Neoliberalismus sei in Deutschland keine Staatsräson, so Riexinger. „Das Grundgesetz schützt den Sozialstaat und nicht den Alle-gegen-Alle-Kapitalismus.“ Gaucks Rede vom 1. September 2014 in Danzig wurde von den Historikern Norbert Frei, Jochen Hellbeck und Andreas Wirsching wegen unzulässiger historischer Vergleiche kritisiert. Ulrich Herbert beurteilt die Rede darüber hinaus als „Eskalation der Worte“. Der Moskauer Historiker Michail Boizow befand hingegen: „Die Lehren, die der Bundespräsident aus der Geschichte gezogen hat, finde ich durchaus überzeugend“. Der Historiker Karl Schlögel und der Politikwissenschaftler Herfried Münkler nahmen Gauck vor seinen Kritikern in Schutz. Auch der Historiker Heinrich August Winkler bezeichnete die Kritik als ungerechtfertigt, da Gauck seine Rede nicht aus Anlass des Angriffs auf die Sowjetunion im Juni 1941, sondern des 75. Jahrestages des Überfalls auf Polen im September 1939 gehalten habe. Der Hinweis auf „wiederkehrende Muster von Aggression“ sei historisch wohlbegründet gewesen. Der Parteivorsitzende der Partei "Die Linke", Bernd Riexinger, nannte Teile der Rede einen „präsidialen Fehlgriff ersten Ranges“, „der Austausch einseitiger Schuldzuweisungen sei Sprengstoff“. Am 23. April 2015 bezeichnete Gauck den Völkermord an den Armeniern in einer Rede als einen „Völkermord“. Das türkische Außenministerium kritisierte daraufhin die Wortwahl des Bundespräsidenten. Gauck habe „kein Recht, die türkische Nation eines Verbrechens zu beschuldigen, das sie nicht begangen hat“. Das türkische Volk werde Gaucks Äußerungen „nicht vergessen und nicht vergeben“. Preise und Ehrungen. Gauck bei der Verleihung des Geschwister-Scholl-Preises (2010) Ehrendoktorwürden wurden ihm unter anderem 1999 von der Theologischen Fakultät der Universität Rostock, 2001 von der Philosophischen Fakultät der Universität Jena, 2005 von der Philosophisch-Sozialwissenschaftlichen Fakultät der Universität Augsburg sowie 2015 von der National University of Ireland in Galway und der Hebräischen Universität Jerusalem verliehen. Joule. Joule ist die abgeleitete SI-Einheit der Energie. Benannt nach James Prescott Joule, wird diese Einheit heute für alle Energieformen verwendet, also auch für die Arbeit und Wärmemenge. Veranschaulichung. In Nährwertkennzeichnungen werden Kilojoule (kJ) – bezogen auf 100 g, 100 ml oder 1 Portion – für die Angabe des physiologischen Brennwerts verwendet. Aussprache. Die Aussprache des Wortes „Joule“ ist uneinheitlich: Im deutschen Sprachraum ist die Aussprache gebräuchlich, wahrscheinlich sprach auch James Prescott Joule seinen Namen so aus. Geschichte. Auf dem ersten Internationalen Elektrizitätskongress am 20. und 21. September 1881 in Paris war nicht nur das CGS-System für verbindlich erklärt worden, sondern zusätzlich zu diesem „absoluten System“ auch ein „praxisnahes System“, bestehend aus Ohm, Ampere, Volt, Coulomb und Farad, das für den praktischen Gebrauch in der Elektrotechnik handlichere Größenordnungen liefert als direkt aus dem CGS-System abgeleitete Einheiten. Beide Systeme unterscheiden sich aber nur durch Faktoren aus Zehnerpotenzen. In seiner Antrittsrede als Präsident der British Association for the Advancement of Science hat Wilhelm Siemens am 23. August 1882 zur Ergänzung des praxisnahen Systems neben Weber, Watt und Gauß auch das Joule als Einheit für die Wärme vorgeschlagen. Es sollte abgeleitet von den anderen elektromagnetischen Einheiten als die Wärmemenge, die ein Strom von 1 Ampere an einem Widerstand von 1 Ohm innerhalb von 1 Sekunde produziert, definiert sein und damit äquivalent zu 107 erg, der Einheit der Energie im CGS-System. Der zweite Internationale Elektrizitätskongress in Paris hat das Joule schließlich am 31. August 1889 als Einheit in der vorgeschlagenen Form beschlossen, neben dem Watt und dem Henry (damals noch "Quadrant" genannt). Das Joule war also sowohl über die CGS-Basiseinheiten als auch über Ohm und Ampere definiert, die zwar ihrerseits von den CGS-Basiseinheiten abgeleitet werden können, aber trotzdem auch mit direkten Messvorschriften spezifiziert waren. Der vierte Internationale Elektrizitätskongress im August 1893 in Chicago hat deshalb zusätzlich das "internationale Joule" eingeführt, das von den Spezifikationen für das "internationale Ohm" und das "internationale Ampere" abgeleitet ist, die zudem gegenüber dem alten Ohm und Ampere leicht verändert worden waren. Im Gegensatz dazu hat das "absolute Joule" oder "theoretische Joule" den wahren Wert auf Grundlage des CGS-Systems bezeichnet. Im Juni 1935 hat die Internationale elektrotechnische Kommission, die Nachfolgerin der Internationalen Elektrizitätskongresse, die Übernahme des Giorgi-Systems beschlossen, einem MKS-System, in dem die bestehenden „praxisnahen Einheiten“ ohne die Zehnerpotenzen als Umrechnungsfaktoren einen natürlichen Platz finden, indem die magnetische Feldkonstante passend definiert wird. Auch das Joule hat hier weiter seinen Platz gehabt. Im Zug der Meterkonvention hat das Internationale Komitee für Maß und Gewicht im Jahr 1946 das Joule als die Arbeit definiert, die dadurch verrichtet wird, dass der Punkt, an dem 1 MKS-Einheit der Kraft (damals noch nicht offiziell als Newton benannt) ansetzt, um 1 Meter in deren Richtung bewegt wird. Ausdrücklich war das Joule auch als Einheit der Energie und für die Verwendung im elektromagnetischen Kontext vorgesehen. Die Generalkonferenz für Maß und Gewicht hat diese Definition auf ihrer 9. Konferenz im Jahr 1948 ratifiziert und insbesondere auch verlangt, dass das Joule in der Kalorimetrie nach Möglichkeit anstelle der Kalorie verwendet wird. Seit 1960 ist das Joule schließlich Teil des internationalen Einheitensystems (SI). In der EU hat die EG-Richtlinie 71/354/EWG Bei Lebensmitteln schreibt die Lebensmittel-Informationsverordnung (LMIV) seit 13. Dezember 2014 im Warenverkehr der EU die Angabe des physiologischen Brennwerts in der Einheit kJ pro 100 g vor. Neben der Angabe in kJ kann der Brennwert zusätzlich auch in der veralteten Einheit kcal pro 100 g angegeben werden. Verwandte Einheiten. Eine Umrechnungstabelle für verbreitete Energieeinheiten findet sich im Artikel Energie. James Maxwell. * James Maxwell (Offizier), britischer Kolonialoffizier John Irving. John Winslow Irving (* 2. März 1942 in Exeter, New Hampshire) ist ein US-amerikanischer Romanautor. Werdegang. John Irving wurde als "John Wallace Blunt, Jr." geboren. Benannt war er nach seinem Vater, einem Kampfpiloten. Seine Mutter, Helen Frances Winslow, eine Krankenschwester, ließ sich jedoch schon vor der Geburt des Sohnes scheiden. Im Alter von sechs Jahren wurde der Name geändert, nachdem sein Stiefvater, Colin Franklin Newell Irving, ein Professor für russische Geschichte, ihn adoptiert hatte. Mit 14 Jahren begann John zu ringen und zu schreiben, hatte aber wegen seiner Legasthenie in der Schule große Schwierigkeiten. Im Alter von 19 Jahren wusste er, was er wollte: Ringen und Romane schreiben. (Zitat: "„Schreiben ist wie Ringen. Man braucht Disziplin und Technik. Man muss auf eine Geschichte zugehen wie auf einen Gegner.“") Irving studierte ab 1961 an der Universität von Pittsburgh englische Literatur, dann, 1962/1963, zwei Semester in Wien, wo er die Idee zu seinem ersten Roman hatte: Er verbrachte seine Zeit im Tiergarten und in Kaffeehäusern (da es in seinem Zimmer zu kalt war), fuhr Motorrad, las "Die Blechtrommel" von Günter Grass und schrieb, davon inspiriert, sein erstes Buch "Laßt die Bären los!", das 1968 erschien. Nach der Zeit in Wien ging Irving auf die Universität von New Hampshire, wo er 1965 mit dem Bachelor abschloss. Seinen Master of Fine Arts schloss er 1967 an der University of Iowa ab und trat anschließend eine Dozentenstelle an einem College in Vermont an. Da er nach seinem dritten Roman der Meinung war, sein bisheriger Verlag würde ihn nur unzureichend unterstützen, brachte er sein viertes Buch "Garp und wie er die Welt sah" bei einem anderen Verlag heraus und schaffte damit seinen Durchbruch. Der Roman erzählt die Lebensgeschichte des Schriftstellers T. S. Garp und seiner feministischen Mutter. Der Erfolg war so überwältigend, dass Irving sich fortan vollständig der Schriftstellerei widmen konnte und seine Dozententätigkeit aufgab. Die deutschsprachigen Ausgaben seiner Werke erscheinen im Diogenes Verlag, mit Ausnahme von "Garp und wie er die Welt sah", das im Rowohlt Verlag erschienen ist. 2012 wurde jedoch auch dieser Roman als Hardcover bei Diogenes veröffentlicht. 1999 verfasste er das Drehbuch zu seinem Roman "Gottes Werk und Teufels Beitrag" selbst, nachdem er sich im Jahr zuvor von dem Film zu seinem Roman "Owen Meany" distanziert und eine Änderung des Titels in "Simon Birch" erreicht hatte. Für sein Drehbuch wurde Irving mehrfach ausgezeichnet, unter anderem mit einem Oscar. Als Auskopplung aus dem Roman "Witwe für ein Jahr" (1998) erschien im Jahre 2003 sein erstes Kinderbuch "Ein Geräusch, wie wenn einer versucht, kein Geräusch zu machen" mit Zeichnungen von Tatjana Hauptmann. John Irving hat aus seiner ersten Ehe zwei Söhne und ist in zweiter Ehe seit 1987 mit seiner Agentin verheiratet, mit der er einen weiteren Sohn hat. Er lebt abwechselnd in Vermont und Toronto. Themen und Motive. Die unwahrscheinlichsten, oftmals äußerst skurrilen und makabren Begebenheiten, die gleichzeitig wiederum ins Urkomische übergehen, zeichnen John Irvings Romane aus. Der Ton ist tragikomisch; gesellschaftliche Tabus werden gebrochen. Diese vielfachen Überzeichnungen und Verzerrungen führen zu grotesken Satiren auf die amerikanische Gesellschaft. Ein weiteres Hauptthema sind die Höhen und Tiefen zwischenmenschlicher Beziehungen, die er meistens überdeutlich und krass darstellt: „… ich habe schon immer über Menschen geschrieben, die mit irgendeinem Verlust leben müssen – ganz egal, ob sie ein Körperteil verloren haben, einen geliebten Menschen oder Kinder. Wenn es Themen gibt, die sich ständig wiederholen in fast all meinen Büchern, dann sind es die Themen Verlust und Gewalt, die bizarr und völlig unerwartet passieren. Ich sehe jeden verdammten Tag Dinge in meiner Fantasie, die schrecklicher sind als der 11. September.“ Einige Motive sind in Irvings Romanen häufig zu finden: Körperbetonte Sportarten (Ringen, Football); wiederkehrende Regionalbezüge bzw. Schauplätze (Maine, New Hampshire, Staten Island, auch Europa, v. a. Wien und Amsterdam); Charakteristika von Figuren (schüchterne Männer, starke Frauenfiguren, vaterlos aufwachsende Söhne, Prostituierte); Beziehungen (sexuelle Beziehungen zwischen älteren Frauen und jüngeren Männern, Inzest, häufig homoerotische Beziehungen) und Milieus (Rotlichtmilieus, Internatsschulen, Hotels/Pensionen, Zirkus) sowie die Schriftstellerei, Motorräder, Religion und immer wieder Bären. Manche Kritiker werfen Irving vor, sehr autobiographisch zu schreiben und sich ständig zu wiederholen; ein Problem, mit dem er sich auch in "Witwe für ein Jahr" auseinandersetzt. Irvings größte literarische Vorbilder sind Charles Dickens und Günter Grass. Rezeption. Am Tag vor seinem 70. Geburtstag kam 2012 unter dem Titel "John Irving und wie er die Welt sieht" ein von André Schäfer gestalteter deutscher Dokumentarfilm über Irvings Leben in die Kinos. Verfilmungen. In der Verfilmung von "Garp und wie er die Welt sah" spielte Irving in einer Nebenrolle einen Kampfrichter, der einen Schulkampf leitet, in "Gottes Werk und Teufels Beitrag" einen Bahnhofsvorsteher. James Joyce. James Joyce (* 2. Februar 1882 in Rathgar (heute ein Stadtteil von Dublin); † 13. Januar 1941 in Zürich) war ein irischer Schriftsteller. Besonders seine wegweisenden Werke "Dubliner", "Ulysses" und "Finnegans Wake" verhalfen ihm zu großer Bekanntheit. Er gilt als einer der wichtigsten Vertreter der literarischen Moderne. Dublin 1882–1904. James Augustine Aloysius Joyce wurde am 2. Februar 1882 als erstes Kind von John Stanislaus Joyce und Mary Jane Murray im Dubliner Vorort Rathgar geboren. Von seinen zwölf Geschwistern starben zwei an Typhus. Sein ursprünglich aus dem in County Cork gelegenen Fermoy stammender Vater besaß vormals eine kleine Saline und ein Kalkwerk. Sowohl sein Vater als auch der Großvater väterlicherseits hatten in eine wohlhabende Familie eingeheiratet. 1887 wurde sein Vater bei der Dublin Corporation als Steuereintreiber eingestellt. Die Familie konnte in die zwölf Kilometer von Dublin entfernt gelegene aufstrebende Stadt Bray ziehen. Zur selben Zeit wurde Joyce von einem Hund gebissen, worauf er eine Furcht vor Hunden entwickelte, die sein Leben lang anhielt. Joyce litt zusätzlich an einer Furcht vor Gewittern, die ihm von einer tiefreligiösen Tante als Zeichen des Zornes Gottes beschrieben worden waren. James Joyce als Kind, 1888 1891 verfasste Joyce das Gedicht "Et Tu Healy", das den Tod Charles Stewart Parnells behandelt. Sein Vater kritisierte die Behandlung Parnells durch die katholische Kirche und die Fehler in Bezug auf die irische Home Rule. In seinen späteren Jahren ließ Joyce das Gedicht drucken und sandte eine Kopie an die Vatikanische Bibliothek. Im November desselben Jahres wurde John Joyce in die "Stubs Gazette", ein offizielles Konkursverzeichnis, eingetragen und vom Dienst suspendiert. Obwohl John Joyce 1893 eine Pension erhielt, rutschte die Familie in den folgenden Jahren vor allem aufgrund des starken Alkoholkonsums und der finanziellen Fehlplanung John Joyces in die Armut ab. Ab 1888 besuchte James Joyce das von den Jesuiten betriebene Clongowes Wood College, ein Internat im Ort Clane, County Kildare. 1892 musste er die Schule verlassen, nachdem sein Vater das Schulgeld nicht mehr hatte bezahlen können. Joyce lernte daraufhin zu Hause und besuchte kurzzeitig die von den Christian Brothers betriebene O’Connel School in Dublin. 1893 erhielt Joyce einen Platz an dem von den Jesuiten betrieben Belvedere College in Dublin. Seitens der Jesuiten bestand die Erwartung, dass Joyce sich dem Orden anschließen würde. Joyce lehnte ab seinem 16. Lebensjahr den Katholizismus ab, wenngleich ihn die Philosophie Thomas von Aquins lebenslang beeinflusste. 1898 trat Joyce in das kurz zuvor eingerichtete University College Dublin ein, wo er moderne Sprachen, insbesondere Englisch, Französisch und Italienisch studierte. Erstmals wurde er in literarischen und Theaterkreisen aktiv. Als erstes veröffentlichtes Werk erschien 1900 der Artikel "Ibsen’s New Drama". Henrik Ibsen schickte Joyce in Folge ein Dankesschreiben. Während seiner Universitätszeit verfasste Joyce mehrere Artikel und mindestens zwei nicht erhaltene Theaterstücke. Viele seiner Freunde an der Universität wurden zu Vorbildern für die Charaktere seiner Werke. Joyce war aktives Mitglied der "Literary and Historical Society" der Universität Dublin und legte ihr 1900 sein Magazin "Drama and Life" vor. James Joyce im Jahr 1904 Nach seiner Graduation zog Joyce unter dem Vorwand, Medizin studieren zu wollen, nach Paris, wo er den von seiner Familie unter großen Bemühungen aufgebrachten Unterhalt für einen hedonistischen Lebensstil aufwandte. Joyce kehrte nach Dublin zurück, nachdem sich im April 1903 eine vermeintliche Leberzirrhose seiner Mutter als Krebserkrankung herausgestellt hatte. Da sie die Gottlosigkeit ihres Sohnes fürchtete, bat sie ihn erfolglos, die Kommunion zu nehmen und die Beichte abzulegen. Sie fiel in die Bewusstlosigkeit und starb am 13. August. James Joyce hatte sich zuvor geweigert, mit dem Rest der Familie am Totenbett zu beten. Nach ihrem Tod setzte Joyce seinen hohen Alkoholkonsum fort, während sich die Situation der Familie verschlechterte. 1904 gewann Joyce die Bronzemedaille im Wettbewerb der Tenöre beim Musik-Festival Feis Ceoil. Am 7. Januar 1904 versuchte Joyce eine essayhafte Erzählung unter dem Titel "Portrait of the Artist as a Young Man" zu veröffentlichen, die vom freidenkerischen Magazin "Dana" abgewiesen wurde. An seinem zweiundzwanzigsten Geburtstag beschloss Joyce, die Erzählung zu überarbeiten und unter dem Titel "Stephen Hero" zu veröffentlichen. Nach einer weiteren Überarbeitung erschien das Buch unter dem Titel "Portrait of the Artist as a Young Man" ("Bildnis des Künstlers als junger Mann"). Am 16. Juni 1904 traf Joyce seine spätere Lebensgefährtin Nora Barnacle zum ersten Mal, Joyce ließ später die Handlung seines Romans "Ulysses" an diesem Datum spielen. Nach einem Trinkgelage wurde Joyce wegen eines Missverständnisses in ein Handgemenge verwickelt, woraufhin ihn Alfred H. Hunter, ein Bekannter seines Vaters, nach Hause brachte. Hunter wurde nachgesagt, Jude zu sein, jedoch eine ungläubige Frau zu haben. Hunter ist eines der Modelle für Leopold Bloom, den Protagonisten von "Ulysses". Joyce freundete sich mit Oliver St. John Gogarty an, der die Basis für den Charakter des Buck Mulligan in "Ulysses" bildete. Nachdem Joyce sechs Nächte in Gogartys Martello Tower übernachtet hatte, kam es zu einem Streit zwischen den beiden Männern, in dessen Verlauf Gogarty mit einer Pistole auf mehrere Pfannen schoss, die über Joyces Bett hingen. Joyce ging nachts zu Fuß nach Dublin, wo er bei Verwandten übernachtete. Ein Freund holte am folgenden Tag Joyces Habe aus dem Martello Tower. Kurz darauf zog er mit Nora Barnacle auf das europäische Festland. Triest und Pola 1904–1915. "Scala James Joyce. Scrittore Irlandese." Triest, 2008 Joyce und Barnacle gingen in ein selbstgewähltes Exil. Zuerst versuchten sie, in Zürich Fuß zu fassen, wo Joyce über einen Agenten in England einen Lehrerposten an der Berlitz-Sprachschule arrangiert zu haben glaubte. Es stellte sich heraus, dass der Agent getäuscht worden war, der Direktor der Schule sandte ihn jedoch mit dem Versprechen eines Postens nach Triest. Nachdem sich herausgestellt hatte, dass wiederum kein freier Posten existierte, vermittelte ihn Almidano Artifonti, Direktor der Triester Berlitz-Sprachschule, nach Pola, einem in Istrien gelegenen österreichisch-ungarischen Flottenstützpunkt, wo Joyce von 1904 bis 1905 hauptsächlich Marineoffiziere unterrichtete. Nachdem 1905 ein Spionagering entdeckt worden war, wurden alle Ausländer aus der Stadt ausgewiesen. Mit Artifonis Unterstützung zog er für die nächsten zehn Jahre wieder nach Triest und begann dort, Englisch zu unterrichten. James Joyce, der freiwillige Exilant, tat in Triest hauptsächlich das, was man heute jedem Touristen ans Herz legen möchte: Er wanderte durch die Stadt, saugte bei seinen Erkundigungen und Spaziergängen die Atmosphäre auf, saß in den Kaffeehäusern und trank mit Arbeitern in den Spelunken. Der düster-goldene Eindruck der griechisch-orthodoxen Kirche San Nicolo faszinierte Joyce so sehr, dass er ihn in die Dubliner Erzählungen einfließen ließ. Genauso suchte er aber in den Freudenhäusern in der Via della Pescheria Inspirationen. Es gibt Literaturwissenschaftler die meinen, Joyce hätte im "Ulysses" Triest und nicht Dublin ein Denkmal gesetzt. Von 1905 bis 1906 wohnte er in Triest in der Via San Nicolo 30 im 2. Stock, und Barnacle gebar dort am 2. Juli 1905 als erstes Kind den Sohn Giorgio. Zu seinen Schülern in Triest zählte unter anderen der als Italo Svevo bekannte Ettore Schmitz, den Joyce erstmals 1907 traf. Mit Schmitz verband ihn eine langjährige Freundschaft, die beiden Autoren beurteilten sich auch gegenseitig. Schmitz, ein Katholik aus einer jüdischen Familie, gilt als Hauptmodell für Leopold Bloom. Schmitz beriet Joyce in vielen Details über den jüdischen Glauben, die Joyce in "Ulysses" verwendete. Joyce überredete nach der Geburt Giorgios seinen Bruder Stanislaus, nach Triest zu ziehen, um ebenfalls an der Sprachschule zu unterrichten. Als Begründung seines Ersuchens gab Joyce an, in seiner Gesellschaft ließe sich in Triest ein interessanteres Leben führen als das eines Sekretärs in Dublin. Tatsächlich hatte Joyce auf finanzielle Unterstützung durch seinen Bruder gehofft. Stanislaus erlaubte James Joyce, sein Gehalt in Empfang zu nehmen, um „die Dinge zu vereinfachen“. Das Verhältnis zwischen Stanislaus und James Joyce war während des gesamten Aufenthalts in Triest gespannt. Ursache der Konflikte waren James Joyces nachlässiger Umgang mit Geld und sein hoher Alkoholkonsum. Die Konflikte erreichten im Juli 1910 ihren Höhepunkt. Ebenfalls 1906 vollendete Joyce die Arbeit an "Dubliners". In den folgenden Jahren befasste er sich mit "Ulysses", das in Vorformen als Teil von "Dubliners" geplant war. Nachdem er sich an das Leben in Triest gewöhnt hatte, zog Joyce im späteren Verlauf des Jahres 1906 nach Rom, wo er bei einer Bank angestellt war. Als ihm im früheren Jahresverlauf 1907 Rom missfiel, zog er nach Triest zurück. Seine Tochter Lucia Joyce wurde im Sommer 1907 geboren. Im Sommer 1909 besuchte er mit seinem Sohn Giorgio seinen Vater in Dublin und bereitete die Veröffentlichung von "Dubliners" vor. In Galway besuchte er erstmals die Eltern seiner Lebensgefährtin Nora Barnacle. Während der Vorbereitung seiner Rückkehr gelang es ihm, seine Schwester Eva zur Übersiedelung nach Triest zu bewegen, wo sie Barnacle im Haushalt unterstützen sollte. Nach einem Monat in Triest reiste er wieder nach Dublin, wo er als Vertreter eines Kinoeigentümers versuchte, ebenfalls ein Kino zu eröffnen. Die Unternehmung war erfolgreich, löste sich jedoch nach seiner Abreise auf. Mit ihm reiste seine Schwester Eileen nach Triest. Während Eva Joyce nach einigen Jahren nach Dublin zurückkehrte, verbrachte Eileen den Rest ihres Lebens auf dem europäischen Festland, wo sie den tschechischen Bankkassier František Schaurek heiratete. Im Sommer 1912 hielt sich Joyce für kurze Zeit in Dublin auf, um die durch einen jahrelangen Konflikt mit seinem Verleger George Roberts beeinträchtigte Veröffentlichung von Dubliners voranzutreiben. Nachdem er keinen Erfolg hatte erzielen können, verfasste er auf der Rückreise das Gedicht "Gas from a Burner", einen offenen Angriff gegen Roberts. Joyce kehrte nicht mehr nach Irland zurück, obwohl ihn sein Vater mehrmals darum bat und er von verschiedenen befreundeten irischen Schriftstellern, unter anderen von William Butler Yeats, eingeladen wurde. Joyce versuchte mehrmals, sich selbstständig zu machen, unter anderem durch die Eröffnung eines Kinos in Dublin oder durch den letztendlich nicht verwirklichten Plan, irischen Tweedstoff nach Triest zu importieren. Sein Einkommen lag deutlich unter dem, das er als Lehrer an der Berlitz-Sprachschule und durch Privatunterricht erzielt hatte. Während seines Aufenthalts in Triest erkrankte Joyce erstmals an einem Augenleiden, das zahlreiche Behandlungen und Kuren notwendig machte. Zürich und Triest 1915–1920. 1915 zog Joyce nach Zürich, da ihm als britischem Staatsbürger in Österreich-Ungarn während des Ersten Weltkrieges die Inhaftierung als feindlicher Ausländer drohte. Bei der Ausreise war er vielfach auf Unterstützung durch seine Privatschüler angewiesen. In Zürich kam er mit August Suter, Siegfried Lang und Frank Budgen in Kontakt, der ihn beim Schreiben von "Ulysses" und "Finnegans Wake" beriet und unterstützte. Ebenfalls in Zürich kam er durch Vermittlung von Ezra Pound mit der englischen Feministin und Verlegerin Harriet Shaw Weaver in Kontakt, die ihn in den nächsten 25 Jahren finanziell unterstützte, wodurch er nicht mehr auf die Lehrtätigkeit angewiesen war. Nach Kriegsende kehrte Joyce nach Triest zurück, fand die Stadt jedoch verändert vor. 1916 wurde "Portrait of the Artist as a Young Man" veröffentlicht. Die Beziehung zu seinem Bruder Stanislaus, der wegen seiner pro-italienischen politischen Haltung in einem österreichisch-ungarischen Kriegsgefangenenlager interniert worden war, war sehr gespannt. 1918 veröffentlichte Joyce sein einziges erhaltenes Theaterstück Exiles. Mehrere Gedichtbände folgten in den nächsten Jahren. Paris und Zürich 1920–1941. 1920 reiste Joyce nach einer Einladung durch Ezra Pound für zunächst eine Woche nach Paris, wo er die nächsten 20 Jahre lebte. Am 2. Februar 1922, seinem 40. Geburtstag, beendete Joyce einer selbstgesetzten Frist gemäß die Arbeit an "Ulysses". Die Arbeit an "Ulysses" hatte ihn dermaßen erschöpft, dass er für mehr als ein Jahr lang nicht schrieb. Am 10. März 1923 schrieb er in einem Brief an Harriet Shaw Weaver, dass er am 9. März als ersten Text nach "Ulysses" den Roman "Finnegans Wake" begonnen habe. 1926 hatte er die ersten beiden Teile des Buchs vollendet. In den folgenden Jahren setzte er die Arbeit an diesem zunächst als "Work in Progress" bezeichneten Werk fort, in den 1930er Jahren ließ seine Arbeitskraft jedoch nach. Maria und Eugene Jolas unterstützten James Joyce, während er "Finnegans Wake" schrieb. In ihrem Literaturmagazin "Transitions" veröffentlichten sie verschiedene Teile von "Finnegans Wake" unter der Überschrift "Work in Progress". Es wird angenommen, dass Joyce ohne die konstante Unterstützung durch das Ehepaar Jolas viele seiner Werke nicht vollendet oder veröffentlicht hätte. 1931 heiratete Joyce Barnacle in London. Im selben Jahr starb sein Vater. Während dieser Zeit reiste Joyce häufig in die Schweiz, wo er sein Augenleiden behandeln ließ und wo seine Tochter Lucia, die laut Joyce an Schizophrenie erkrankt war, behandelt wurde. Lucia wurde unter anderen von Carl Gustav Jung untersucht, der nach der Lektüre von "Ulysses" zu dem Schluss gekommen war, dass auch James Joyce an Schizophrenie leide. Details der Beziehung zwischen James Joyce und seiner Tochter sind nicht bekannt, da der Enkel Stephen Joyce mehrere tausend Briefe zwischen Lucia und James Joyce verbrannte, die ihm nach Lucias Tod 1982 zufielen. Stephen Joyce gab an, dass er nur Briefe seiner Tante Lucia vernichtet habe, die an ihn und seine Frau gerichtet waren und erst nach dem Tod seiner Großeltern verfasst worden seien. James Joyces Grab in Zürich Nach dem Einmarsch der Wehrmacht in Frankreich und der Besetzung von Paris im Juni 1940 wollte Joyce zurück nach Zürich. Die Schweizer Behörde zierte sich aber, den berühmten Mann aufzunehmen. Nach monatelangen zähen Verhandlungen zwischen Fremdenpolizei und einem kleinen Kreis seiner Verehrer wurde im Dezember die Einreisebewilligung erteilt. Am 11. Januar 1941 unterzog er sich nach einem Darmdurchbruch im Rotkreuzspital Zürich (Betriebseinstellung 1997) einer Operation. Nachdem sich sein Zustand zunächst gebessert hatte, verschlechterte er sich am folgenden Tag. Trotz mehrerer Transfusionen fiel Joyce in Bewusstlosigkeit. Am 13. Januar 1941 wachte er gegen 2 Uhr morgens auf und bat eine Krankenschwester, seine Frau und seinen Sohn herbeizuholen. Joyce starb 15 Minuten später. Er wurde auf dem Friedhof Fluntern in Zürich in einem einfachen Grab begraben. Obwohl sich zum Zeitpunkt des Begräbnisses zwei hochrangige irische Diplomaten in der Schweiz aufhielten, war kein irischer Offizieller beim Begräbnis anwesend. Die irische Regierung lehnte Nora Barnacles Ersuchen um die Überführung der Gebeine ab. Während der Vorbereitungen zu James Joyces Begräbnis versuchte ein katholischer Priester, Barnacle von der Notwendigkeit einer Begräbnismesse zu überzeugen. Sie lehnte eine Messe ab, da sie Joyce „dies nicht antun“ könne. Der Schweizer Tenor Max Meili sang bei der Bestattung „Addio terra, addio cielo“ aus Claudio Monteverdis Oper "L’Orfeo". Nora Barnacle lebte bis zu ihrem Tod 1951 unter bescheidenen Verhältnissen in Zürich. Auch sie wurde auf Fluntern begraben. 1966 wurden die beiden Gräber in einem durch die Stadt Zürich errichteten Ehrengrab zusammengelegt. Auch ihr gemeinsamer Sohn Giorgio Joyce († 1976) und dessen Ehefrau Asta Jahnke-Osterwalder Joyce († 1993) wurden im Ehrengrab bestattet. "Kammermusik". James Joyces Statue in Dublin Sein erstes veröffentlichtes Buch ist der Gedichtband "Chamber Music" (1907) (dt. "Kammermusik"), dessen Gedichte oft vertont und aufgenommen worden sind. Von allen Joyce bekannt gewordenen Vertonungen haben ihm selbst jene von Geoffrey Molyneux Palmers am besten gefallen, weshalb Joyce um 1927/28 deren Veröffentlichung mit dem Komponisten Palmer und dem Verleger Jan Slivinski vereinbart hat. Die Publikation kam zu Joyces Bedauern nicht zustande, weshalb Palmers Vertonungen erst 1993 aus dem Nachlass veröffentlicht wurden. "Dubliner". Erst 1914 folgte der Erzählungsband "Dubliners" (dt. "Dubliner"), eine Sammlung von fünfzehn Erzählungen, die im Dublin der Jahrhundertwende spielen. Sprachlich bleibt das Buch weitgehend konventionell, dennoch wurde die Erstveröffentlichung in der Zeitung "The Irish Homestead" nach wenigen Erzählungen eingestellt. Das um 1907 abgeschlossene Buch fand erst 1914 einen Verleger. Die Erzählung "The Dead" (dt. "Die Toten") gilt als eine der brillantesten Erzählungen in englischer Sprache. "Dubliner" gibt kritische Einblicke in das Dublin und die städtische Gesellschaft Irlands jener Zeit. Joyce zeigt ein Land zwischen nationalem Aufbruch und kolonialer Mutlosigkeit, aufstrebendem Bürgertum und Emigration, der Beengtheit Dubliner Häuser und Familien und der Sehnsucht nach der „weiten Welt“. Viele der handelnden Personen stehen am Ende der Erzählung wieder am Ausgangspunkt. "Verbannte". Im Jahre 1918 erschien das Drama "Exiles" (dt. "Verbannte"), ein zu großen Teilen autobiographisch gefärbtes Bühnenstück um Themen wie Eifersucht und Vertrauen. "Ein Porträt des Künstlers als junger Mann". Zwei Jahre später erschien der erste Roman "Ein Porträt des Künstlers als junger Mann" (engl. "A Portrait of the Artist as a Young Man", in der ersten Übersetzung durch Georg Goyert: "Jugendbildnis"). Dabei handelt es sich um eine neue Bearbeitung der Themen seines früheren, aber nur fragmentarisch erhaltenen und erst posthum veröffentlichten Werks "Stephen Hero" (dt. "Stephen der Held"). In den fünf Kapiteln des Romans beschreibt James Joyce Kindheit, Jugend und Adoleszenz von Stephen Dedalus, der in Konflikten mit der Familie und geistlichen wie weltlichen Autoritäten im Irland der Jahrhundertwende zu einer künstlerischen Identität findet. Parallelen der Biografie der literarischen Figur Stephen Dedalus zu Joyces Jugend sind offensichtlich, doch gelegentlich irreführend. In diesem "Portrait" wird exemplarisch eine katholische Jugend in Dublin beschrieben, die im freiwilligen Exil endet. Deutlicher als in "Dubliner" tritt in diesem Werk Joyces charakteristische Schreibweise hervor, die neue Wörter erfindet und Geräusche lautmalerisch in Worte fasst. Dies bestimmt den Gesamteindruck jedoch weit weniger als in den späteren Werken. Stephen Dedalus erscheint in "Ulysses" wieder als eine der Hauptfiguren. "Ulysses". Joyces berühmtestes Werk ist der Roman "Ulysses", der auszugsweise in der Zeitschrift "The Little Review" 1918–1920 vorabgedruckt wurde, und 1922 im Verlag der Pariser Buchhandlung „Shakespeare and Company“ als Buch erschien. Es entstand in den Jahren 1914 bis 1921. Die ersten Kapitel legte Harriet Weaver im April 1918 der Hogarth Press vor, doch das Verleger- und Schriftstellerehepaar Virginia und Leonard Woolf konnte sich zu einer Veröffentlichung nicht entschließen, da sie wegen des zum Teil obszönen Inhalts keinen Drucker fanden, der das Risiko auf sich nehmen wollte. Joyce beeinflusste mit seinem "Ulysses" die Geschichte des modernen Romans ebenso maßgeblich wie etwa Marcel Proust mit "A la recherche du temps perdu" (deutsch: "Auf der Suche nach der verlorenen Zeit") (1913–1927). Joyce’ bedeutendster Beitrag zur modernen Literatur bestand im Einsatz des "stream of consciousness" (Bewusstseinsstrom) bzw. des inneren Monologs. Joyce hatte diese literarische Technik zwar nicht erfunden, jedoch erstmals konsequent angewandt und bedeutend weiterentwickelt. Beispielsweise besteht das letzte Kapitel des Romans ausschließlich aus den Gedanken Marion („Molly“) Blooms, der Frau der Hauptfigur Leopold Bloom, geschrieben in acht Sätzen ohne Interpunktionszeichen. Nach dem Protagonisten des Romans wird der 16. Juni (der Roman spielt nur innerhalb dieses einen Tages und in den Morgenstunden des folgenden im Jahr 1904) in literarischen Kreisen – auch vermehrt aus touristischen Gründen – inzwischen Bloomsday genannt. "Finnegans Wake". Der Roman "Finnegans Wake" (1939) gilt, mehr noch als "Ulysses", als eines der kompliziertesten literarischen Werke des 20. Jahrhunderts, beide gelten als unübersetzbar. Der "Ulysses" wurde aber dennoch in über dreißig Sprachen übersetzt, zum Teil sogar mehrmals. "Finnegans Wake" wurde erst 1993 vollständig in einer deutschen Komplettübersetzung vorgelegt, nachdem deutsche Teilfassungen schon zuvor existierten. Es erschienen außerdem vollständige Übersetzungen in den Sprachen Französisch (1982), Italienisch (1982), Japanisch (1993 und eine weitere 2004), Spanisch (1997), Koreanisch (1998) und Niederländisch (2002). Einer Stelle des Buches verdanken die sogenannten Quarks, subatomare Teilchen, aus denen ein Teil der Materie aufgebaut ist, ihren Namen. Der extrem vernetzte Text von "Finnegans Wake" gilt als literarische Analogie zum semantischen Web des Internets. Ein deutsches Pendant hierzu bietet in gewissem Sinne Arno Schmidts Werk "Zettels Traum". Fehlerhafte Werkzuschreibungen. Joyces Werkkanon wurde mit dem Artikel „Politics and Cattle Disease“ (1912) und den „Fluviana“ (1928) genannten Schwarzweiß-Fotografien lange Zeit zwei Werke zugerechnet, die erst in jüngster Zeit als irrtümliche Zuschreibungen erkannt und nachgewiesen wurden. „Fluviana“. Seit 1974 haben der Kunsthistoriker Werner Spies, der Germanist Harald Weinrich und die Kunsthistorikerin Christa-Maria Lerm Hayes die 1929 in der Pariser Avantgardezeitschrift "transition" veröffentlichten vier „Fluviana“-Fotografien irrtümlich James Joyce und seinem Werk zugeschrieben. Diese Bilder wurden zum Anlass genommen, Joyce zum Konzept- bzw. Objektkünstler zu stilisieren, der er nicht ist, da die Fotos der Schwemmgut-Exponate vom Salzburger Maler, Schriftsteller und Kunstsammler Adolph Johannes Fischer angefertigt wurden und die fotografierten Schaustücke sowie deren Bezeichnungen von Johann Baptist Pinzinger stammen, der die kuriosen Strandgut-Exponate in seinem „Salzach-Museum“ in Raitenhaslach ausgestellt hat, das Joyce im Sommer 1928 gemeinsam mit Fischer besucht hat. Der Joyce-Forscher Andreas Weigel hat umfassend dokumentiert, dass weder Joyce selbst noch die Herausgeber von "transition" die „Fluviana“ je als Joyces Werk reklamiert haben. „Politics and Cattle Disease“. Eine weitere Fehlzuschreibung erfolgte durch den bekannten James-Joyce-Biographen Richard Ellmann, der in seine Edition von "James Joyce: Critical Writings" irrtümlich den Zeitungsartikel „Politics and Cattle Disease“ aufgenommen hat, der anschließend jahrzehntelang als Werk von Joyce betrachtet wurde und auch in Kevin Barrys Edition "James Joyce: Occasional, Critical and Political Writing" zu finden ist. Der amerikanische Joyce-Forscher Terence Matthews konnte 2007 schlüssig nachweisen, dass der genannte Text nicht von Joyce stammt und aus dessen Werkkanon gestrichen gehört. Nachwirken in der Literatur, Musik und Physik. Joyces Werk wurde zum Objekt geisteswissenschaftlicher Beschäftigung aller Bereiche. Sein Werk beeinflusste viele Autoren, darunter Hugh MacDiarmid, Samuel Beckett, Jorge Luis Borges, Flann O’Brien, Máirtín Ó Cadhain, Eimear McBride Salman Rushdie, Robert Anton Wilson und Joseph Campbell. Ein bekennender Joyceaner war Anthony Burgess, Autor von "A Clockwork Orange", der 1962 eine Einführung zu Joyce Werk "Here comes everybody" (dt. "Joyce für Jedermann") veröffentlicht, sowie 1982 im Auftrag der BBC ein Broadway-Musical des Ulysses "The Blooms of Dublin" komponiert und gedichtet hat. Auch in der Musik hat Joyce Spuren hinterlassen. Sein Leben und Werk hat nicht nur Musiker, wie Samuel Barber, Luciano Berio, Pierre Boulez, John Cage, Luigi Dallapiccola und Jan Steele zu Kompositionen inspiriert, sondern auch zahlreiche Folk-, Jazz-, Pop- und Rockmusiker unter anderem Susanne Abbuehl, Joan Baez, Syd Barrett, Black 47, Kate Bush, Jefferson Airplane, Norma Winstone, Andy White und Robin Williamson (von der Incredible String Band) zu Vertonungen und zur musikalischen Auseinandersetzung angeregt. Viele Literaturwissenschafter beurteilen Joyces Werk gemischt. Die Wortfolge "Three Quarks for Muster mark" wird oftmals als Ursprung des physikalischen Begriffs Quark bezeichnet, der eine vom Physiker Murray Gell-Mann entdeckte Hauptgattung der Elementarteilchen beschreibt. Der Psychoanalytiker Jacques Lacan verwendete Joyces Werk als Erklärung für sein Konzept des Sinthoms. Joyce wird alljährlich am 16. Juni weltweit am Bloomsday gefeiert. Die James Joyce Society wurde im Februar 1947 im "Gotham Book Mart" in Manhattan gegründet. Ihr erstes Mitglied war T. S. Eliot, Joyces Bibliograph John Slocum wurde der Präsident und Frances Steloff, Eigentümer und Gründer des "Gotham Book Mart" Kassier. Joyces Nachlass wird zu Teilen vom Harry Ransom Center an der University of Texas verwaltet. Das Harry Ransom Center ist im Besitz von mehreren tausend Manuskripten, Korrespondenzstücken, Entwürfen, Nachweisen, Notizen, Fragmenten, Gedichten, Liedtexten, Partituren, Limericks und Übersetzungen von Joyce. Die größte Einzelsammlung besitzt die University of Buffalo mit über zehntausend Seiten Manuskripte, Notizbücher, Korrespondenzstücke und ähnliches und verfügt weiterhin über Joyces Privatbibliothek, seinen Pass, seine Brille und seinen Spazierstock. Die Hauptbibliothek an Joyces Universität, dem University College Dublin sowie die Bibliothek des Clongowes Wood College sind nach Joyce benannt. Englischsprachige Literatur. A Portrait of the Artist as a Young Man Deutschsprachige Weblinks. E-Texte einiger Werke von James Joyce Jean Paul. Jean Paul (fr. und dt.; * 21. März 1763 in Wunsiedel; † 14. November 1825 in Bayreuth; eigentlich Johann Paul Friedrich Richter) war ein deutscher Schriftsteller. Sein Werk steht literaturgeschichtlich zwischen den Epochen der Klassik und Romantik. Die von ihm gewählte Namensänderung geht auf Jean Pauls große Bewunderung für Jean-Jacques Rousseau zurück. Kindheit und Jugend. Johann Paul Friedrich Richter, der sich später Jean Paul nannte, kam als Sohn des Lehrers und Organisten Johann Christian Christoph Richter und seiner Ehefrau, der Tuchmachertochter Sophia Rosina, geborene Kuhn, in Wunsiedel zur Welt. 1765 wurde sein Vater Pastor in Joditz (seit 1978 Ortsteil der Gemeinde Köditz), 1776 erhielt er eine bessere Stelle in Schwarzenbach an der Saale. Die Atmosphäre des protestantischen Landpfarrhauses prägte Jean Pauls Kindheit. Weniger durch seinen konservativen Vater als durch einen verehrten Lehrer und den Pfarrer des Nachbarortes Rehau, Erhard Friedrich Vogel, wurde er mit dem Gedankengut der Aufklärung vertraut gemacht. Abseits der politisch-literarischen Zentren seiner Zeit bildete sich Jean Paul autodidaktisch und verfügte im Alter von fünfzehn Jahren über ein umfangreiches Bücherwissen, das er in Exzerptheften zusammentrug. 1779 wechselte Jean Paul an das Gymnasium in Hof, wo er seinen engen Jugendfreund Johann Bernhard Hermann kennenlernte, das Vorbild vieler seiner Romanfiguren, etwa des "Leibgeber" im "Siebenkäs". Wenige Monate später starb sein Vater, wodurch die Familie in schwere materielle Not stürzte. Studienjahre. Im Mai 1781 immatrikulierte Jean Paul sich an der Universität Leipzig, betrieb sein Studium der Theologie jedoch nur sehr lustlos. Stattdessen begann er nun, sich als Schriftsteller zu verstehen: Er schrieb nach ersten literarischen Experimenten vor allem Satiren im Stile Jonathan Swifts und Christian Ludwig Liscows, die in gesammelter Form 1783 als "Grönländische Prozesse" gedruckt wurden. Nach dieser ersten Publikation blieben jedoch weitere Erfolge aus. 1784 musste Jean Paul vor seinen Gläubigern fliehen und kehrte als „gescheiterte Existenz“ nach Hof in das Haus seiner Mutter zurück. Wie er sich dort fühlte, ist in seinem späteren Roman "Siebenkäs" nachzulesen. Neben der drückenden Armut dieser Jahre belasteten Jean Paul auch der Tod eines Freundes im Jahr 1786 und der Selbstmord seines Bruders Heinrich 1789. Erst als Jean Paul ab 1787 ein Auskommen als Privatlehrer fand, linderte sich seine Notlage allmählich. Beginnender Ruhm. Die Reihe seiner schriftstellerischen Erfolge begann 1793 mit dem Roman "Die unsichtbare Loge". Jean Paul hatte dem Schriftsteller Karl Philipp Moritz das Manuskript geschickt, und Moritz zeigte sich begeistert: „Ach nein, das ist noch über Goethe, das ist was ganz Neues!“, soll er gesagt haben, und durch seine Vermittlung fand das Buch rasch einen Verlag in Berlin. In "Die unsichtbare Loge" verwendete Jean Paul, der seine Arbeiten zuvor unter dem Pseudonym J. P. F. Hasus geschrieben hatte, aus Bewunderung für Jean-Jacques Rousseau erstmals den Namen Jean Paul. Doch "Die unsichtbare Loge" blieb ein Fragment, denn Jean Paul widmete sich mit dem "Hesperus oder 45 Hundposttage" einem neuen Roman, der 1795 erschien. Das Buch, das zum größten literarischen Erfolg seit Goethes "Die Leiden des jungen Werthers" wurde, machte Jean Paul schlagartig berühmt. Johann Gottfried von Herder, Christoph Martin Wieland und Johann Wilhelm Ludwig Gleim äußerten sich enthusiastisch über den "Hesperus" – Johann Wolfgang von Goethe und Friedrich Schiller fanden an dem Roman allerdings keinen Gefallen. Blütezeit. Auf Einladung seiner Verehrerin Charlotte von Kalb besuchte Jean Paul 1796 Weimar. Im literarischen Zentrum seiner Zeit wurde er respektvoll aufgenommen, doch blieb das Verhältnis zu Klassikern wie Goethe und Schiller eher kühl und distanziert. Zwei Jahre später zog Jean Paul nach Weimar; inzwischen hatte er eine stattliche Anzahl literarischer Werke vorzuweisen: "Siebenkäs" (1796/97), "Das Leben des Quintus Fixlein" (1796), "Der Jubelsenior" (1797), "Das Kampaner Tal" (1797). Besonders in Weimar häuften sich die erotischen Verwicklungen, die Jean Paul zeitlebens begleiteten: Er verlobte sich mit Karoline von Feuchtersleben, was wegen des Standesunterschiedes einige Schwierigkeiten mit sich brachte – und als diese endlich ausgeräumt waren, entlobte Jean Paul sich wieder. Auch gegenüber Charlotte von Kalb musste er immer wieder neue Strategien der Ehe-Vermeidung austüfteln. Doch auch der ehescheue Jean Paul konnte sich schließlich „seinem Schicksal nicht entziehen“: Im Frühjahr 1800 lernte er auf einer Reise nach Berlin Karoline Mayer kennen, die er ein Jahr später heiratete. Die Berlin-Reise stellte den Höhepunkt seines literarischen Ruhmes dar: Die preußische Königin Luise, die ihn am „Kleinen Musenhof“ ihrer Schwester Charlotte in Hildburghausen kennengelernt hatte, zeigte sich ihm als begeisterte Leserin seiner Werke. Dies brachte Jean Paul dazu, im Oktober 1800 ganz nach Berlin zu ziehen, wo er sich unter anderem mit den Brüdern August Wilhelm und Friedrich Schlegel sowie mit Johann Ludwig Tieck, Friedrich Daniel Ernst Schleiermacher und Johann Gottlieb Fichte anfreundete. Die späten Jahre. Die Wirkungsstätte Jean Pauls in Coburg 1803–1804 Wohnhaus in Bayreuth 1808–1811 (Friedrichstraße 10) a> mit erhaltener Dichterstube in Bayreuth Wohn- und Sterbehaus in Bayreuth (Friedrichstraße 5) Tafel am Haus Friedrichstraße 5 Doch vom Gipfel des Erfolges ging es allmählich bergab: Jean Pauls nächste Romane "Titan" (1800–1803) und "Flegeljahre" (1804/1805) erzeugten nicht mehr den früheren Enthusiasmus bei den Lesern, obwohl sie heute als seine wichtigsten Werke gelten. 1804 siedelte er mit seiner Frau und seinen zwei Kindern nach Bayreuth um, nachdem er von 1801 bis 1803 in Meiningen und anschließend in Coburg gewohnt hatte. In Bayreuth führte er fortan ein zurückgezogenes Leben, unterbrochen nur von einigen Reisen, zum Beispiel nach Bamberg, wo er E. T. A. Hoffmann besuchte, und nach Heidelberg, wo ihm 1817 nach einem ausgiebigen Punschgelage auf Vorschlag Hegels der Ehrendoktortitel verliehen wurde. Seine politischen Stellungnahmen (etwa in Cottas "Morgenblatt") fanden besonders bei patriotisch gesinnten Studenten lebhaften Widerhall. Jean Paul wurde zu einer Leitfigur der deutschen Burschenschaften. Bei Besuchen in Heidelberg (1817) und Stuttgart (1819) wurde er gar zum „Lieblingsdichter der Deutschen“ erhoben. Jean Pauls literarische Werke aus diesen Jahren, wie "Levana oder Erziehlehre" (1807) oder "Dr. Katzenbergers Badereise" (1809), erhielten bei weitem nicht mehr die Beachtung, die der "Hesperus" erlangt hatte. 1813 begann Jean Paul mit seinem letzten großen Roman, "Der Komet", doch der Tod seines Sohnes Max 1821 war ein Schicksalsschlag, den der Autor nicht verwinden konnte: "Der Komet" wurde aufgegeben und blieb Fragment. Die letzten Lebensjahre waren von Krankheiten gezeichnet: 1823 erkrankte Jean Paul am Grauen Star und erblindete allmählich. 1825 kam Brustwassersucht hinzu, an der er am 14. November verstarb. Er ist auf dem Stadtfriedhof in Bayreuth beerdigt. 1820 hatte ihn die Bayerische Akademie der Wissenschaften noch zu ihrem auswärtigen Mitglied ernannt. Rollwenzelei. Die "Rollwenzelei", ein ehemaliges Gasthaus in Bayreuth an der Straße nach Weiden nahe der Eremitage war einer seiner Lieblingsorte, wo er auch dichtete. Die ehemalige Dichterstube wurde 2009/2010 grundlegend saniert. Sie ist ein kleines Museum mit originalem Inventar. Literarische Bedeutung. Jean Paul nimmt in der deutschen Literatur eine Sonderstellung ein und hat das Lesepublikum schon immer gespalten. Bei den einen erntete er höchste Verehrung, bei anderen Kopfschütteln und Desinteresse. Er trieb die zerfließende Formlosigkeit des Romans der Romantiker auf die Spitze; August Wilhelm Schlegel nannte seine Romane „Selbstgespräche“, an denen er den Leser teilnehmen lasse (insofern eine Übersteigerung dessen, was Laurence Sterne im "Tristram Shandy" begonnen hatte). Jean Paul spielte ständig mit einer Vielzahl witziger und skurriler Einfälle; seine Werke sind geprägt von wilder Metaphorik sowie abschweifenden, teilweise labyrinthischen Handlungen. In ihnen mischte Jean Paul Reflexionen mit poetologischen Kommentaren; neben geistreicher Ironie stehen unvermittelt bittere Satire und milder Humor, neben nüchternem Realismus finden sich verklärende, oft ironisch gebrochene Idyllen, auch Gesellschaftskritik und politische Stellungnahmen sind enthalten. Besonders weibliche Leser schätzten seine Romane. Dies lag vor allem an der Empathie, mit der Jean Paul die Frauenfiguren in seinen Werken gestalten konnte: Nie zuvor waren in der deutschen Literatur weibliche Charaktere mit einer solchen psychologischen Tiefe dargestellt worden. Allerdings finden sich auch nirgends sonst derart vergnüglich-misogyne Sticheleien wie bei Jean Paul. "Gedanken vor dem Frühstück und vor dem Nachtstück in Löbigau", 1819 Ähnlich vielgestaltig und verwirrend wie viele seiner Romane muss auch Jean Pauls Charakter gewesen sein: Er war wohl sehr gesellig und geistreich, gleichzeitig extrem sentimental, von fast kindlichem Gemüt und schnell zu Tränen gerührt. Seine Werke lassen immer wieder erkennen, wie sehr er sich nicht nur für Literatur, sondern auch für Astronomie und andere Wissenschaften interessierte. Bei einem so kapriziösen Autor ist es kaum verwunderlich, dass sein Verhältnis zu den Weimarer Klassikern Goethe und Schiller immer zwiespältig war (so sagte Schiller, Jean Paul sei ihm „fremd wie einer, der aus dem Mond gefallen ist“). Herder und Wieland allerdings haben ihn geschätzt und unterstützt. Obwohl er immer auf Distanz zu den die Kunst verabsolutieren wollenden Klassikern blieb und obwohl in seinem theoretischen Ansatz – etwa in seiner "Vorschule der Ästhetik" – deutliche Einflüsse der Romantik festzustellen sind, ist er nicht zu den Romantikern zu rechnen. Er hielt auch hier kritischen Abstand; denn bei allem Subjektivismus verabsolutierte er das Ich des Autors nicht: Jean Paul besaß − was zwischen klassischem Ernst und romantischer Ironie selten geworden war − Humor. Mit dem Wesen des Humors setzte er sich auch als Erster eingehend auseinander. Sowohl die Aufklärung als auch die Metaphysik waren für ihn gescheitert, gleichwohl hatten sie ihren Platz in seinem Weltbild. So gelangte er zu einer Weltanschauung ohne Illusionen, verbunden mit humorvoller Resignation. Dazu passt, dass Jean Paul einer der ersten Fürsprecher der Philosophie Arthur Schopenhauers war. Er versuchte nicht zu indoktrinieren, sondern das Glück des Menschen darzustellen, auch und gerade in einer sich zunehmend entfremdenden Umwelt – in Rokoko-Schlössern und kargen Dörfern Oberfrankens. In seinen Schriften nennt Jean Paul das literarische Motiv des „Doppel(t)gängers“ nicht nur als erster beim Namen und prägt es somit, sondern gestaltet es auch in unzähligen Variationen aus (vgl. unter anderem Siebenkäs und Leibgeber bzw. Schoppe, Liane und Idoine, Roquairol und Albano). So definiert er in seinem "Siebenkäs": "„Doppeltgänger (So heißen Leute, die sich selber sehen).“" Nachleben. Denkmal in Meiningen, Jean Pauls Wohnort von 1801 bis 1803 Würdigung. Jean Pauls Werk spiegelt das gesamte weltanschauliche Spektrum seiner Zeit wider. Obwohl E. T. A. Hoffmanns Werk in seiner grotesken Komik dem von Jean Paul nahestand – Nachfolger im eigentlichen Sinne hatte er nicht. Jedoch stand etwa der frühe Adalbert Stifter unter seinem Einfluss und im Werk Wilhelm Raabes sind zahlreiche Anleihen an Jean Paul zu finden. Allenfalls können auch Autoren des 20. Jahrhunderts wie Georg Heym, Hermann Burger, Albert Vigoleis Thelen und Arno Schmidt aufgrund ihrer Sprachartistik und Digressionskunst als Erben der Jean Paulschen Prosa angesehen werden. Jean Paul genoss in diesen späteren Dichtergenerationen immer wieder höchstes Ansehen. Von Arno Schmidt stammt das Zitat, dass Jean Paul „einer unserer Großen (…), einer von den Zwanzig, für die ich mich mit der ganzen Welt prügeln würde“ gewesen sei. Literarische Rezeption. In seiner Erzählung Tina oder über die Unsterblichkeit thematisiert und parodiert Arno Schmidt Jean Pauls (s. „Selina oder über die Unsterblichkeit“) Vorstellung eines Elysiums und greift in diesem Zusammenhang auf Argumente einzelner Romanfiguren zurück. In noch stärkerem Maße bezieht sich Walter Kappacher in seinem Roman Selina oder Das andere Leben durch die Titelvariation und das vorangestellte Motto „Ein ewiges Wesen zusehend einem Wesen, das über seine Vernichtung nachsinnt.“ auf Jean Pauls "Das Kampaner Tal" und die nicht fertiggestellte Fortsetzung "Selina oder über die Unsterblichkeit". Die Protagonisten Stefan und Heinrich Seiffert diskutieren Jean Pauls Gedanken über ein Weiterleben nach dem irdischen Tod. 19. Jahrhundert. a> in Hof, das Jean Paul 1779–1781 besuchte. Werke. Titelblatt des Erstdrucksvon "Dr. Katzenbergers Badereise". Japanologie. Die akademische Disziplin und das Fach Japanologie (in ihrer sprachwissenschaftlich-philologischen Ausrichtung auch „Japanistik“; im umfassendsten Sinne früher auch Japankunde, heute Japanstudien von engl. "Japanese Studies") beschäftigen sich mit der Erforschung und Lehre der Sprache und Kultur Japans in der geschichtlichen Entwicklung. Ziel der von verschiedenen methodisch-theoretisch fundierten Disziplinen, vor allem der Geistes- und Gesellschaftswissenschaften, getragenen Forschungsdisziplin Japanologie und des auf ihr basierenden Lehrfachs, ist ein differenziertes und zugleich ganzheitliches Verständnis der japanischen Sprache und Kultur. Seit der Öffnung des Landes für den Westen im Jahr 1854, insbesondere nach dem Russisch-japanischen Krieg (1904/05) und vor allem nach 1945 ist Japan immer stärker ins Blickfeld Europas, Amerikas und schließlich der gesamten Welt gerückt. Unter „Japanologie“ bzw. „Japanistik“ oder „Japanstudien“ wird von Fall zu Fall sehr Verschiedenes verstanden. Schwerpunkte können zum Beispiel vormoderne Kultur und Geschichte, moderne Kultur und Geschichte oder Politik und Wirtschaft sein. Da Japan überwiegend durch seine sprachlichen Zeugnisse erforscht wird, spielt die praktische Ausbildung in der modernen Sprache des Alltags und der Medien eine wichtige Rolle. An manchen Instituten findet sich darüber hinaus noch eine klassische sprachwissenschaftlich-philologische Sprachausbildung einschließlich der vormodernen Sprachstufen und diversen Sprach- und Schriftstile seit dem 8. Jahrhundert einschließlich des ostasiatischen „Lateins“, der klassischen chinesischen Schriftsprache. Geschichte der deutschsprachigen Japanologie. Einer der Begründer der Japanforschung war gegen Ende des 17. Jahrhunderts der deutsche Forschungsreisende Engelbert Kaempfer. Ein weiterer „Vorreiter“ der Japanologie war Philipp Franz von Siebold, der wie Kaempfer in holländischen Diensten (Niederländische Ostindien-Kompanie) in Japan tätig war. Hervorgegangen aus der Orientalistik, etablierte sich die akademische Japanologie als eigenständige wissenschaftliche Disziplin gegen Ende des 19. Jahrhunderts, im deutschen Sprachgebiet zuerst in Wien (August Pfizmaier) und Berlin (Seminar für Orientalische Sprachen). Den ersten Lehrstuhl für Japanologie nahm Karl Florenz 1914 am Kolonialinstitut der späteren Universität Hamburg ein. Im Ersten Weltkrieg standen sich Japan und Deutschland als Kriegsgegner gegenüber. So erklärt sich, dass die Außenbeziehungen – auch die kulturellen – der beiden Länder zueinander in den 1920er Jahren kaum eine Rolle spielten. Erst im Nationalsozialismus fand wieder eine Annäherung statt. In den 1930er Jahren traten vergleichsweise viele Japanologen in eine enge Beziehung zum nationalsozialistischen System, was auch in der Thematik und der Sprache japanologischer Werke aus dieser Zeit abzulesen ist: Vielfach ging es darum, die „Achse Berlin-Tokyo“ zu stärken und die Gemeinsamkeiten von japanischem und deutschem Rassismus und Nationalismus positiv hervorzuheben. So war z.B. der Shintō, der zu dieser Zeit in Japan als nationalistische Ideologie umgedeutet wurde, auch in der deutschsprachigen Japanologie ein wichtiges Thema. Nach dem Zweiten Weltkrieg konzentrierte sich die deutsche Japanforschung wieder auf politisch unverfängliche Themen, insbesondere auf die Erforschung der traditionellen Kunst und Kultur Japans. Man sprach deshalb gelegentlich auch von einer „Teehäuschen-Japanologie“. Noch heute sind einige der deutschen Japanologien diesem traditionsbewussten Zweig zuzurechnen. Das Verdienst der klassischen Japan-Wissenschaft ist es unter anderem, Quellen erschlossen und insbesondere die vormoderne Kultur Japans erforscht zu haben. Mit der Verbreitung der Japanstudien an den Universitäten des In- und Auslands, insbesondere in den Vereinigten Staaten von Amerika, entwickelten sich in den vergangenen Jahrzehnten geistes- und gesellschaftswissenschaftliche Teildisziplinen der Japanologie, deren Spektrum heute alle wichtigen Bereiche des kulturellen, religiösen, gesellschaftlich-politischen und wirtschaftlichen Lebens in Japan in Vergangenheit und Gegenwart umfasst. Beim Übergang von der klassischen Japanologie zur modernen Japanforschung fand ein Paradigmenwechsel statt. Dieser begann an amerikanischen Universitäten, als praktische Erkenntnisse über den Kriegsgegner benötigt wurden. Die philologische Analyse der vormodernen japanischen Kultur trat zum Teil in den Hintergrund. Auch begann man, stärker als zuvor die Methodik diverser theoretisch-komparatistischer Disziplinen (Literaturwissenschaft, Sprachwissenschaft, Geschichtswissenschaft, Religionswissenschaft, Philosophie, Wirtschaftswissenschaften, Politikwissenschaft, Soziologie usw.) auf Japan anzuwenden. Das Bild des Japanologen änderte sich: Vom Generalisten und interessierten Laien, der im positiven Fall viele Jahre persönliche Erfahrung im Land gesammelt hatte, und ein breites Themenspektrum abdeckte, zum Spezialisten, der eine fundierte Kenntnis eines kleinen Teilgebiets der Japanforschung erwarb. In der Bundesrepublik Deutschland ist dieser Übergang teilweise mit den politisch-klimatischen Veränderungen der späten 1960er Jahre verbunden. Zeitgleich fand auch der wirtschaftliche Aufschwung Japans statt, der die Fragestellungen zu den Entstehungsbedingungen und Problemfeldern der Moderne in den Vordergrund rückte. Japanstudien im deutschen Sprachgebiet heute. S.a. Japanologie im deutschsprachigen Raum. Etwa 40 Professoren unterrichten das Fach an 20 Universitäten im deutschen Sprachgebiet (Berlin FU & HU, Bochum, Bonn, Duisburg, Düsseldorf, Erlangen, Frankfurt, Halle, Hamburg, Heidelberg, Köln, Leipzig, München, Trier, Tübingen, Wien, Würzburg, Zürich). Die Regelstudienzeit liegt im Falle eines Magisterstudiums bei neun Semestern. In Deutschland studieren gegenwärtig etwa 5000 Studenten das Fach Japanologie. Etwa 600 nehmen das Studium jährlich auf und um die 90 Studenten (Frauenanteil etwa 75 Prozent) schließen das Studium mit dem Magister oder Doktortitel ab, neuerdings auch mit dem Grad eines Bachelor (B.A.) oder Master (M.A.). Wie für andere Philologien, so gilt auch hier, dass die Absolventen nach dem Abschlussexamen bzw. nach der Promotion allerdings noch nicht für einen bestimmten Beruf qualifiziert sind. Einen guten Übergang ins Berufsleben ermöglicht die Teilnahme an einer innerbetrieblichen Ausbildung in Unternehmen, einer Ausbildung im diplomatischen Dienst, Bibliotheksdienst usw. Unter solcher Voraussetzung sind die beruflichen Möglichkeiten hier wie in den anderen „regionalwissenschaftlichen“ Fächern des außereuropäischen Bereichs (Arabistik, Sinologie usw.) gut, sofern während des Studiums Erfahrungen in Japan erworben wurden (mindestens 1 Jahr). Es sollte jedoch immer auch die Möglichkeit geprüft werden, ein Studium der Rechtswissenschaft, Ökonomie oder eines anderen konventionellen „praktischen“ Faches mit einem Studium der Japanologie als Nebenschwerpunkt zu verbinden. Ein erfolgreiches Studium der Japanologie setzt neben einer starken sprachlichen Begabung Fleiß und Ausdauer voraus, da der Zugang zu den Gegenständen der Wissenschaft in der Regel über eine völlig fremde Sprache mit einem komplexen Schriftsystem erfolgt. Jacqueline Bisset. Jacqueline Bisset (* 13. September 1944 in Weybridge; eigentlich "Winifred Jacqueline Fraser Bisset") ist eine britische Schauspielerin. Leben. Bisset arbeitete zunächst als Model, bevor sie 1964 zum Film wechselte. Ihre zweite Rolle hatte sie 1966 in Roman Polańskis Film "Wenn Katelbach kommt...", der in Berlin mit dem Goldenen Bären ausgezeichnet wurde. Spätestens mit ihrer Hauptrolle in François Truffauts "Die amerikanische Nacht" (1973) etablierte sie sich in Europa als Kinostar. Sie spielte an der Seite bekannter Darsteller wie Dean Martin, Steve McQueen, Burt Lancaster, Joseph Cotten, Paul Newman, Jon Voight, Marcello Mastroianni, Robert Shaw, Nick Nolte, Anthony Quinn, George Segal, Charles Bronson, Frank Sinatra, Albert Finney und arbeitete mit Regisseuren wie Sidney Lumet, George Cukor, John Huston und Claude Chabrol. Neben Kinofilmen spielte Bisset auch in Fernsehmehrteilern und Fernsehserien mit, unter anderem in "Napoleon und Josephine". Im Jahr 2005 bekleidete sie zwar eine Nebenrolle in "Mr. & Mrs. Smith", wurde jedoch in der endgültigen Fassung herausgeschnitten. Für ihre Rolle in der Fernsehserie "Dancing on the Edge" wurde sie 2014 mit dem Golden Globe als beste Nebendarstellerin in einer Miniserie ausgezeichnet. Bisset ist Taufpatin von Angelina Jolie. James Gandolfini. James Joseph Gandolfini Jr. (* 18. September 1961 in Westwood, New Jersey; † 19. Juni 2013 in Rom, Italien) war ein US-amerikanischer Schauspieler italienischer Abstammung, der durch die Hauptrolle in der Serie "Die Sopranos" weltweit bekannt wurde. Leben. Gandolfini wurde 1961 als Sohn der italienischen Einwanderer Santa und James Gandolfini Sr in Westwood, New Jersey geboren. Er wuchs in Park Ridge, New Jersey auf und besuchte bis 1979 die dortige High School. An der Rutgers University machte er den Bachelor of Arts in Kommunikation. Vor seiner Arbeit als Schauspieler arbeitete er als Barkeeper und Clubmanager. Er begann seine Karriere am New Yorker Broadway mit dem Theaterstück "A Streetcar Named Desire" von Tennessee Williams, in dem auch Alec Baldwin mitspielte. Danach spielte er häufig zwielichtige, gewalttätige Charaktere. Tony Scott gab Gandolfini 1993 die Nebenrolle eines sadistischen Mafiakillers in "True Romance". 1995 und 1996 spielte er in "Schnappt Shorty" und "Nicht schuldig" an der Seite namhafter Kollegen erneut Mafia-Enforcer. Für seine Leistung in "Nicht schuldig" lobte ihn der Kritiker Roger Ebert. Mit der Fernsehserie "Die Sopranos", in der er als Familienoberhaupt einer Mafia-Familie die Hauptrolle spielte, gelang ihm der Durchbruch. Er bekam als Hauptdarsteller gegen Ende pro Episode 1.000.000 US-Dollar und gewann damit etliche Fernsehpreise. Privatleben. Gandolfini und seine erste Frau waren von 1999 bis Dezember 2002 verheiratet. Sie haben einen gemeinsamen Sohn. Am 30. August 2008 heiratete er das ehemalige Model Deborah Lin in ihrem Heimatstaat Hawaii. Am 10. Oktober 2012 wurde ihre gemeinsame Tochter in Los Angeles geboren. Tod. Gandolfini starb am 19. Juni 2013 im Alter von 51 Jahren während eines Kurzurlaubs in Rom. Er hatte geplant, am 22. Juni 2013 nach Sizilien zu reisen, um dort eine Auszeichnung beim "Taormina Film Fest" entgegenzunehmen. Nach einer Sightseeingtour bei sehr starker Hitze fand ihn sein 13-jähriger Sohn um ca. 22:00 Uhr Ortszeit bewusstlos im Badezimmer. Er informierte die Hotelrezeption, die einen Rettungswagen rief. Gandolfini, der um 22:40 Uhr Ortszeit im Krankenhaus angekommen war, wurde um 23:00 Uhr für tot erklärt. Eine Autopsie bestätigte, dass er an einem Herzinfarkt starb. Seine Beerdigung fand am 27. Juni in New York statt. Gemäß seinem Testament erben seine Tochter, seine Witwe und seine beiden Schwestern sein auf rund 70 Millionen Dollar geschätztes Vermögen. Sein einziger Sohn, Michael, war im Testament nicht berücksichtigt worden, da zu seinen Gunsten eine separate Lebensversicherung bestand. Julia Roberts. Julia Fiona Roberts (* 28. Oktober 1967 in Atlanta, Georgia) ist eine US-amerikanische Schauspielerin. Durch die Filmromanze "Pretty Woman" (1990) wurde sie weltberühmt, sie erhielt dafür den Golden Globe und eine Oscar-Nominierung. Mit Filmen wie "Die Akte" (1993), "Die Hochzeit meines besten Freundes" (1997), "Notting Hill" (1999) und "Die Braut, die sich nicht traut" (1999) etablierte sie sich als eine der erfolgreichsten Schauspielerinnen Hollywoods. Für ihre Rolle in "Erin Brockovich" (2000) gewann sie den Golden Globe und den Oscar als beste Hauptdarstellerin. Weitere Kinohits hatte sie mit "Ocean’s Eleven" (2001) und der Fortsetzung "Ocean’s 12" (2004). Kindheit und Jugend. Roberts wurde am 28. Oktober 1967 um 0:16 Uhr im Crawford Long Hospital in Atlanta geboren. Ihre Eltern, Walter Grady Roberts (1933–1977) und Betty Lou Bredemus (1934–2015), leiteten eine Schauspielschule für Kinder in der Juniper Street 849 in der Innenstadt von Atlanta, die auch von Julias beiden älteren Geschwistern Eric Roberts (* 1956) und Lisa Roberts Gillan (* 1965) besucht wurde. Entgegen den damaligen Gepflogenheiten gab es in der Schule keine Rassentrennung; zu den Schülern zählten unter anderem die Kinder des afroamerikanischen Bürgerrechtlers Martin Luther King. Die Eltern trennten sich, als Julia Roberts vier Jahre alt war. Während ihr Bruder beim Vater blieb, zog die Mutter mit den Töchtern nach Smyrna, Georgia, wo Julia Roberts die Fitzhugh Lee Elementary School, die Griffin Middle School und anschließend die Campbell High School besuchte. 1972 heiratete Roberts’ Mutter den Theaterkritiker Michael Motes. Aus dieser Ehe, die 1983 wieder geschieden wurde, ging Roberts’ Halbschwester Nancy Motes (1976–2014) hervor. Während ihrer Schulzeit spielte Roberts in Amateurtheatervorstellungen mit, da sie die schauspielerischen Erfolge ihres Bruders beeindruckten, der an der Royal Academy of Dramatic Art in London und an der American Academy of Dramatic Arts in New York Schauspiel studiert hatte und für seine Rolle in "König der Zigeuner" (1978) für einen Golden Globe Award nominiert worden war. Karrierebeginn. Nach ihrem Highschoolabschluss im Juni 1985 zog Roberts zu ihrer Schwester Lisa nach New York, wo sie gelegentlich als Model arbeitete und in einem Schuhladen sowie einer Eisdiele jobbte. Ihr eigentliches Ziel war jedoch, Schauspielerin zu werden. Sie wurde in die Kartei der Agentur von Bob McGowan aufgenommen und nahm Sprachunterricht, um ihren Südstaatenakzent loszuwerden. Den Besuch eines Schauspielkurses brach sie ab, weil sie den Unterricht als nutzlos empfand. Nach zahlreichen Vorsprechterminen erhielt sie 1986 eine Gastrolle in der Fernsehserie "Crime Story" und wurde für eine kleine Rolle in der Komödie "Firehouse" engagiert. Der Film wurde von den Kritikern oft als „viertklassig“ bezeichnet und Roberts’ Auftritt dauerte nur etwa fünfzehn Sekunden. Mit Unterstützung ihres Bruders Eric, der 1986 für einen Oscar als bester Nebendarsteller in dem Film "Expreß in die Hölle" nominiert worden war, erhielt sie eine Rolle an seiner Seite in dem Film "Blood Red – Stirb für dein Land". Die Dreharbeiten fanden im November und Dezember 1986 statt, der Film kam jedoch erst 1989 ins Kino und war nicht erfolgreich. Ihre erste größere Rolle spielte Roberts in "Satisfaction" (1988). Für die Rollen der jugendlichen Mitglieder einer Band wurden Schauspieler gesucht, die Musikinstrumente spielen konnten. Roberts fing daraufhin an, Schlagzeugunterricht zu nehmen, allerdings wurde die entsprechende Rolle in der Zwischenzeit mit Trini Alvarado besetzt. Stattdessen bekam Roberts die Rolle eines Mädchens, das Bassgitarre spielt, so dass sie erneut Unterricht nehmen musste. Die Dreharbeiten fanden im Mai und Juni 1987 in Charleston statt. Durchbruch. Mit der Komödie "Pizza Pizza – Ein Stück vom Himmel", gedreht im Herbst 1987, konnte Roberts ihren ersten Kinoerfolg verbuchen. Sie glaubte zunächst nicht, die richtige Besetzung für die erotisch wirkende Daisy Arujo, eine junge Frau portugiesischer Abstammung, zu sein. Außerdem fand die Produktionsassistentin Jane Jenkins Roberts’ Haare zu hell, so dass sie sie rot färbte. Insbesondere diese Eigeninitiative überzeugte den Regisseur Donald Petrie davon, sie zu engagieren. Ihre Gage betrug 50.000 US-Dollar. Für ihre Rolle wurde Roberts für die Filmpreise Independent Spirit Award und Young Artist Award nominiert. 1988 hatte Roberts einen Gastauftritt in der Fernsehserie "Miami Vice". 1989 spielte sie an der Seite ihrer namhaften Schauspielkolleginnen Sally Field, Dolly Parton, Shirley McLaine und Daryl Hannah eine Nebenrolle in dem Drama "Magnolien aus Stahl", das in der Kleinstadt Natchitoches in Louisiana gedreht wurde. Die US-Premiere des Films fand am 15. November 1989 statt und Roberts erhielt für ihre Rolle, die zuvor von Meg Ryan abgelehnt worden war, einen Golden Globe sowie eine Oscar-Nominierung als beste Nebendarstellerin. Während der Dreharbeiten zu "Magnolien aus Stahl" waren Roberts und ihr Filmpartner Dylan McDermott ein Paar geworden. Nach einer kurzen Verlobungszeit trennte sich das Paar 1990. Karrierehöhepunkt mit "Pretty Woman". Roberts’ nächstes Filmprojekt machte sie zu einem internationalen Superstar: Unter der Regie von Garry Marshall verkörperte sie in der Filmromanze "Pretty Woman" die Prostituierte Vivian, die sich in einen schwerreichen Geschäftsmann (gespielt von Richard Gere) verliebt. Die Dreharbeiten begannen im Juli 1989 unter dem Arbeitstitel "3.000" – in Anlehnung an die Geldsumme, die Vivian für ihre Liebesdienste erhalten sollte – und wurden im Oktober 1989 in Los Angeles abgeschlossen. Ein Happy End war zunächst nicht vorgesehen gewesen, während des Schnitts von "3.000" entfielen aber fast alle düsteren Szenen, so dass die Handlung schließlich doch eine positive Wendung nahm. Marshall entschied schließlich auch, den Film nach dem gleichnamigen Lied von Roy Orbison, das in einer Szene des Films zu hören ist, umzubenennen. Die US-Premiere fand am 23. März 1990 statt. Obwohl die Kritiken nicht besonders gut waren, entwickelte sich die moderne Aschenputtel-Geschichte zu einem erfolgreichen Kinohit: Weltweit spielte der Film 463,4 Mio. US-Dollar ein und verzeichnete allein in Deutschland über zehn Millionen Kinobesucher. Roberts, die für die Rolle eine Gage von 300.000 US-Dollar erhalten hatte, wurde zur damals gefragtesten Schauspielerin Hollywoods und erhielt für die Rolle ihren zweiten Golden Globe und ihre zweite Oscar-Nominierung in der Kategorie „Beste Hauptdarstellerin“. Als nächstes spielte sie für eine Gage von 550.000 US-Dollar in dem Thriller "Flatliners – Heute ist ein schöner Tag zum Sterben" (1990) an der Seite von Kiefer Sutherland, Kevin Bacon und William Baldwin eine Medizinstudentin, die mit Nahtoderfahrungen experimentiert. Um sich auf die Rolle vorzubereiten, studierte sie das tibetische Totenbuch. Während der Dreharbeiten, die von Oktober 1989 bis Januar 1990 dauerten, wurden Roberts und Sutherland ein Paar. Roberts beendete die Beziehung kurz vor der geplanten Hochzeit im Juni 1991. In dem Psychothriller "Der Feind in meinem Bett" von 1991 verkörperte Roberts eine junge Frau, die ihren eigenen Tod inszeniert, um ihrem sadistischen Ehemann, gespielt von Patrick Bergin, zu entkommen. Der Spielfilm erzielte allein in den Vereinigten Staaten ein Einspielergebnis von 101,5 Mio. US-Dollar und Roberts erhielt eine Gage von einer Million US-Dollar. Im selben Jahr war Roberts in der tragischen Liebesgeschichte "Entscheidung aus Liebe" zu sehen. Der Film blieb mit Einnahmen von 33,6 Mio. US-Dollar an den US-Kinokassen deutlich hinter den Erwartungen des Filmstudios 20th Century Fox zurück und die Kritiken fielen überwiegend negativ aus. Nach den Dreharbeiten zu Steven Spielbergs Fantasyfilm "Hook" (1991), in dem sie die Rolle der Fee Tinkerbell spielte, nahm Roberts eine fast zweijährige berufliche Auszeit, nachdem sie in den Jahren zuvor einen Film nach dem anderen gedreht hatte. Lediglich in Robert Altmans "The Player" hatte sie 1992 einen kurzen Cameo-Auftritt. Über die Gründe für ihre Abkehr von der Filmindustrie wurde in den Medien viel spekuliert und Anfang 1993 fragte das "People Magazine" auf seiner Titelseite “What happened to Julia Roberts?” (zu dt.: „Was ist mit Julia Roberts passiert?“). Später begründete Roberts ihre Auszeit damit, dass sie zu sich selbst finden wollte, da der plötzliche Ruhm und Erfolg vollkommen neu für sie gewesen seien. Sie habe in dieser Zeit viele Drehbücher gelesen, aber kein Projekt angenommen. Zu den von ihr damals abgelehnten Rollen gehörten die weibliche Hauptrolle in dem Erotikthriller "Basic Instinct", durch die Sharon Stone 1992 weltberühmt wurde, und Meg Ryans Part in "Schlaflos in Seattle" (1993). Karriere von 1993 bis 1999. An der Seite von Denzel Washington und unter der Regie von Alan J. Pakula gelang Roberts mit der John Grisham-Verfilmung "Die Akte" 1993 ein erfolgreiches Comeback. Obwohl die Kritiker ihre schauspielerische Leistung in dem Thriller gemischt aufnahmen, spielte der Film weltweit knapp 200 Mio. US-Dollar ein. Der folgende Film, die Komödie "I Love Trouble – Nichts als Ärger" (1994) mit Nick Nolte, erwies sich dagegen als finanzieller Flop und wurde mehrfach für die fehlende Leinwand-Chemie seiner beiden Hauptdarsteller kritisiert. In "Prêt-à-Porter", eine Komödie aus dem Jahr 1994 über die Pariser Modewelt, spielte Roberts an der Seite ihres damaligen Ehemannes Lyle Lovett, den sie am Filmset von "The Player" kennengelernt und am 27. Juni 1993 geheiratet hatte. Die Ehe wurde 1995 nach knapp zwei Jahren geschieden. "Power of Love" war der einzige Film, den Roberts 1995 drehte. Im folgenden Jahr hatte sie einen Gastauftritt in der 13. Folge der zweiten Staffel der US-Sitcom "Friends" und erhielt für ihre Titelrolle im erfolglosen Horrorfilm "Mary Reilly" eine Nominierung für den Negativpreis Goldene Himbeere als schlechteste Hauptdarstellerin. Die Verfilmung des Lebens von "Michael Collins" (1996) mit Liam Neeson, in dem Roberts eine Nebenrolle spielte, war ebenfalls kein finanzieller Erfolg. Der Woody Allen-Film ', in dem Roberts auch ihre Fähigkeiten als Sängerin unter Beweis stellte, erhielt hingegen gute Kritiken. 1997 landete Roberts mit der romantischen Komödie "Die Hochzeit meines besten Freundes" einen weltweiten Kinohit. Die romantische Komödie, in der Roberts’ Filmcharakter mit allen Mitteln versucht, eine Eheschließung zu verhindern, spielte knapp 300 Mio. US-Dollar ein und bescherte ihr die dritte Golden-Globe-Nominierung. Die folgenden Filme, der Thriller "Fletcher’s Visionen" (1997) mit Mel Gibson und das Drama "Seite an Seite" (1998) mit Roberts’ langjähriger Freundin Susan Sarandon, waren ebenfalls erfolgreich an den Kinokassen. Für "Notting Hill" (1999) mit Hugh Grant konnte Roberts die Rekordgage von 15 Mio. US-Dollar verlangen, für "Die Braut, die sich nicht traut" (1999) mit ihrem "Pretty Woman"-Filmpartner Richard Gere sogar 17 Millionen. Beide Filme – romantische Komödien – gehören mit Einspielergebnissen von 363,8 Mio. US-Dollar ("Notting Hill") und 309,4 Mio. US-Dollar ("Die Braut, die sich nicht traut") zu den erfolgreichsten Filmen in Roberts’ Karriere. Für "Notting Hill" bekam sie ihre vierte Golden-Globe-Nominierung. Oscar-Gewinn und die 2000er Jahre. 2000 bekam Roberts für die Hauptrolle im Film "Erin Brockovich" 20 Mio. US-Dollar und war damit die erste Schauspielerin, die diese Summe für eine Filmrolle aushandeln konnte. Die wahre Geschichte von Erin Brockovich, die als Mitarbeiterin einer Anwaltskanzlei einen Umweltskandal aufdeckte und im anschließenden Gerichtsverfahren eine Rekordsumme als Entschädigungszahlung aushandeln konnte, wurde für Roberts zum Höhepunkt ihrer Karriere: Sie erhielt für ihre Darstellung zahlreiche Kritikerpreise, darunter ihren dritten Golden Globe, den British Academy Film Award, den Critics’ Choice Award, den Screen Actors Guild Award und im dritten Anlauf auch den Oscar. 2001 spielte Roberts erfolgreich an der Seite von Brad Pitt im Road-Movie "The Mexican", es folgte die Komödie "America’s Sweethearts" mit Catherine Zeta-Jones. "Ocean’s Eleven" (2001), eine Neuverfilmung von "Frankie und seine Spießgesellen" aus dem Jahr 1960, brachte Roberts wieder mit Brad Pitt zusammen vor die Kamera. Der prominent besetzte Film (George Clooney, Matt Damon, Andy García) wurde mit einem Einspielergebnis von 450,7 Mio. US-Dollar zu Roberts’ finanziell erfolgreichstem Film nach "Pretty Woman". Mit George Clooney drehte sie auch ihren nächsten Film "Geständnisse – Confessions of a Dangerous Mind" (2002). 2003 drehte Roberts "Mona Lisas Lächeln", 2004 "Hautnah" und ihre erste Filmfortsetzung, "Ocean’s 12", wieder mit Brad Pitt und George Clooney und wieder äußerst erfolgreich (362,7 Mio. weltweites Einspielergebnis). In "Ocean’s Twelve" spielte Roberts wieder die Rolle der "Tess Ocean", die sich hier ihre Ähnlichkeit mit der Schauspielerin Julia Roberts zunutze macht, um einen Raub in einem Museum durchzuführen. Nach der Geburt ihrer Zwillinge 2004 nahm Roberts erneut eine Auszeit von der Schauspielerei, und seit der Geburt ihres dritten Kindes 2007 nimmt Roberts nur noch sporadisch Filmrollen an: In "Der Krieg des Charlie Wilson" (2007) spielte sie an der Seite von Tom Hanks und erhielt dafür ihre sechste Golden-Globe-Nominierung. Sie war zu sehen in "Zurück im Sommer" (2008) und in "Duplicity – Gemeinsame Geheimsache" (2009), für den sie ihre siebte Golden Globe-Nominierung bekam. Seit 2010. 2010 spielte sie in der Komödie "Valentinstag" an der Seite von Jessica Alba, Kathy Bates, Bradley Cooper, Jamie Foxx, Jessica Biel, Jennifer Garner und Anne Hathaway. Im Jahr 2009 beendete sie die Dreharbeiten zu der Dramakomödie "Eat Pray Love", in der sie die Rolle der "Elizabeth Gilbert" spielt. Das Drehbuch beruht auf einer tatsächlichen Begebenheit, die Elizabeth Gilbert in ihrem gleichnamigen Bestseller niederschrieb. Der Kinostart erfolgte am 23. August 2010. Das weltweite Einspielergebnis betrug 204,5 Mio. US-Dollar und ist damit einer von Roberts’ höchsten Karrierepunkten. Im Jahr 2010 drehte sie den Liebesfilm "Larry Crowne", der von Tom Hanks produziert wurde. Hanks spielt auch den männlichen Gegenpart zu Roberts und führte Regie. Zuletzt drehte sie an der Seite von Lily Collins den Film "Spieglein Spieglein", eine neue Version des Märchen-Klassikers Schneewittchen, in dem sie den Part der bösen Königin übernahm. Außerdem hat sie für eine Rolle in der Theater-Verfilmung ' zugesagt, in dem sie die Rolle der "Barbara Fordham" spielt. Sonstiges. Für das deutsche Kino wird Roberts seit dem Film "Pretty Woman" von Daniela Hoffmann synchronisiert. Roberts’ eigene Produktionsfirma heißt "Red Om" – der Nachname ihres Ehemannes Danny Moder in umgekehrter Schreibweise. 1990, 1991, 2000, 2002, 2005 und 2010 wurde Roberts vom US-Magazin People unter die "50 schönsten Menschen der Welt" gewählt. Das britische Magazin Empire wählte die im Oktober 1997 auf Platz 66 der "100 größten Filmstars aller Zeiten". Als Brad Pitt und George Clooney herausgefunden hatten, dass Roberts zusammen mit ihnen für "Ocean’s Eleven" (2001) vor der Kamera stehen würde, schickten sie ihr eine Karte, in der stand „Wir haben gehört, dass du 20 pro Film bekommst“ zusammen mit einem 20-Dollar-Schein. Roberts hatte zuvor für "Erin Brockovich" (2000) eine Gage von 20 Millionen Dollar erhalten. Im November 2005 führte Roberts, ungeachtet ihrer damaligen Karriereunterbrechung, laut dem "Hollywood-Reporter" mit einer Gage von 20 Mio. US-Dollar die Riege der bestbezahlten Hollywood-Schauspielerinnen an. Ein Jahr später verlor sie diese Spitzenposition jedoch an Nicole Kidman. 2007 wurde sie mit einer Gagenhöhe von geschätzten 10 bis 15 Millionen US-Dollar pro Film auf Platz 7 der bestbezahlten Hollywood-Aktricen ausgewiesen. 2006 erhielt Roberts fünf Millionen US-Dollar dafür, dass sie für acht Werbeanzeigen des Modedesigners Gianfranco Ferré vor der Kamera stand. Die Aufnahmen wurden innerhalb von einem Tag gemacht. Mit dem Chilenen Miljenko Parserisas Bukovic hat Julia Roberts einen großen Fan. Nachdem er "Erin Brockovich" gesehen hatte, war er so begeistert von ihrer Leistung, dass er sich insgesamt 82 Tattoos mit ihrem Porträt stechen ließ. Er hat die Absicht, noch mehr Tattoos anfertigen zu lassen. Privatleben. Roberts ist die Tante der Schauspielerin Emma Roberts. 1989 war Roberts kurzzeitig mit ihrem Filmpartner in "Magnolien aus Stahl," Dylan McDermott, verlobt. 1990 verliebte sie sich auf dem Set von "Flatliners" in Kiefer Sutherland; Roberts beendete die Beziehung im folgenden Jahr, nur wenige Tage vor der geplanten Hochzeit, am 14. Juni 1991. Am 27. Juni 1993 heiratete sie den Country-Musiker Lyle Lovett, kurz darauf spielten beide in dem Film "Prêt-à-Porter". Im März 1995 gab das Paar die Trennung bekannt und ließ sich scheiden. Von 1998 bis 2001 war Roberts mit dem "Law & Order"-Star Benjamin Bratt liiert. 2000 lernte sie am Set von "The Mexican" den Kameramann Daniel Moder kennen. Zu diesem Zeitpunkt war Moder noch verheiratet, ein Jahr später folgte die Scheidung von seiner Frau. Er und Roberts heirateten am 4. Juli 2002. Am 28. November 2004 wurden sie Eltern von zweieiigen Zwillingen. Ihr drittes Kind, ein zweiter Sohn, wurde am 18. Juni 2007 geboren. Am 9. Februar 2014 wurde ihre Halbschwester Nancy Motes tot aufgefunden. Am 19. Februar 2015 verstarb ihre Mutter Betty Lou Bredemus nach langer Krankheit an Lungenkrebs. Auszeichnungen und Nominierungen (Auswahl). Negativpreise Roberts erhielt außerdem zahlreiche Beliebtheits- und Publikumspreise in aller Welt (u. a. elf „Bravo-Ottos“ in Deutschland). Zuletzt erhielt sie im Oktober 2007 den Preis der American Cinematheque. Jassir Arafat. Jassir Arafat (* 24. August 1929 in Kairo, Ägypten; † 11. November 2004 in Clamart, Département Hauts-de-Seine, Frankreich), ursprünglich, Kunya:, war ein palästinensischer Freiheitskämpfer, Terrorist, Guerillakämpfer, Politiker, Friedensnobelpreisträger und vom 12. Februar 1996 bis zu seinem Tod am 11. November 2004 Präsident der palästinensischen Autonomiegebiete. 1957 war er Mitbegründer und später Anführer der palästinensischen Fatah, die jahrzehntelang terroristische Anschläge und Bombenattentate auf israelische, jordanische und libanesische Ziele verübte. Arafats Unterstützung der irakischen Invasion Kuwaits hatte die Vertreibung der Palästinenser aus Kuwait 1991 zur Folge. Binnen weniger Tage mussten etwa 450.000 Palästinenser Kuwait verlassen. Dies und der Verlust wesentlicher Unterstützer in der arabischen Welt brachte Arafat 1993 dazu, im Namen der PLO Friedensverhandlungen mit Israel zu unternehmen, die zur gegenseitigen Anerkennung führten. 1994 erhielt er dafür gemeinsam mit Shimon Peres und Jitzchak Rabin den Friedensnobelpreis. Im Jahr 2000 verhandelte Arafat mit Israels damaligem Regierungschef Ehud Barak und dem damaligen Präsidenten der USA, Bill Clinton, erfolglos über die Gründung eines unabhängigen, palästinensischen Staates. Nach dem Scheitern von Camp David II unterstützte Arafat die Zweite Intifada, wodurch er in seinen letzten Lebensjahren vor allem außenpolitisch an Einfluss verlor. Erst nach dem Tod Arafats waren führende palästinensische Vertreter bereit, sich für Arafats Unterstützung Saddam Husseins und der Invasion in Kuwait zu entschuldigen. Leben. Jassir Arafat wurde übereinstimmenden Erkenntnissen verschiedener Biographen zufolge in der ägyptischen Hauptstadt Kairo geboren. Arafat hingegen behauptete häufig, in Palästina geboren worden zu sein, wobei er im Laufe der Zeit widersprüchliche Angaben machte. Mal behauptete er, in der Altstadt Jerusalems geboren worden zu sein, mal im Gazastreifen. Sicher ist, dass sein Vater aus Gaza und seine Mutter aus einer angesehenen Jerusalemer Familie stammten. Sie hatten in den 1920er Jahren geheiratet und waren nach Kairo ausgewandert. Jassir war das sechste von sieben Kindern. Als er etwa vier Jahre alt war, starb seine Mutter. Um den Vater mit den sechs Kindern zu entlasten, nahm der Bruder der Mutter, Salim Abu Saud, Jassir und seinen jüngeren Bruder zu sich nach Jerusalem, das damals zum britischen Mandatsgebiet Palästina gehörte. Er lebte dort vier Jahre. Frühe Jahre. Als er nach der erneuten Heirat seines Vaters nach Kairo zurückkehrte, besuchte er die Schule und später die Universität, an der er Elektrotechnik studierte. Eine Zeit lang beschäftigte er sich mit der jüdischen Kultur, hatte jüdische Bekannte und las zionistische Werke z. B. von Theodor Herzl. 1946 soll Arafat intensiven Kontakt mit Mohammed Amin al-Husseini, dem mit den deutschen Nationalsozialisten kollaborierenden Mufti von Jerusalem, gehabt haben, der in Ägypten Asyl gefunden hatte. Al-Husseini war ein entfernter Verwandter Arafats. Dass er jedoch der Onkel Arafats gewesen sei, ist eine Legende. Arafat engagierte sich nun aktiv in der arabischen Nationalbewegung in Palästina. Zu dieser Zeit war er ein Befürworter der militärischen Konfrontation und beschaffte Waffen, die ins Mandatsgebiet geschmuggelt wurden. In Kairo hatte sich Jassir Arafat mit Abd al-Qadir al-Husseini angefreundet, der die Einheiten palästinensischer Araber in der Region Jerusalem anführte. Als Arafat von Abdel Khader al-Husseinis Tod im Kampf am Kastel-Berg im April 1948 hörte, brach er sein Studium in Kairo ab und nahm aktiv am Krieg in Palästina teil. Arafat trat der Moslem-Bruderschaft bei, die im Gazastreifen und in der Schlacht bei Kfar Darom kämpfte. Als die ägyptische Armee am 15. Mai 1948 in den Palästinakrieg eingriff, wurde Arafat und seiner Einheit befohlen, abzuziehen. Dies war für ihn ein prägendes Erlebnis. Er beschuldigte später die arabischen Staaten des Verrates, weil sie den Palästinensern nicht geholfen hätten, die Schlacht zu gewinnen, und ihnen nicht erlaubt hätten, zu kämpfen. Die palästinensischen Araber erlitten eine militärische Niederlage gegen Israel. Etwa 750.000 Palästinenser wurden staatenlos und der bis heute andauernde Konflikt um die Selbstbestimmung der Palästinenser wurde zementiert. In den 1950er Jahren studierte Arafat an der Universität Kairo. 1952 gründete er die Generalunion Palästinensischer Studenten (GUPS), der er bis 1957 vorstand. Ende 1952 wurde er kurzzeitig nach einem gescheiterten Attentat auf den ägyptischen Präsidenten Gamal Abdel Nasser verhaftet. 1956 absolvierte er die Universität als Ingenieur und gründete die "Union der Palästinensischen Hochschulabsolventen". Danach meldete er sich freiwillig zur ägyptischen Armee und kämpfte im Sueskrieg 1956 gegen Frankreich, Großbritannien und Israel. Er galt als Sprengstoffexperte und war Leutnant in der ägyptischen Armee. Danach ging er im selben Jahr nach Kuwait, wo er als Ingenieur arbeitete und ein erfolgreicher Bauunternehmer wurde. Gründung der Fatah. 1957 gründete er in Kuwait zusammen mit Chalil al-Wazir (Abu Dschihad) die erste Zelle der "Bewegung zur Befreiung Palästinas" (al-Fatah), aus der 1959 die gleichnamige politische Partei hervorging. Ab 1958 war Arafat Vorstandsmitglied und ab 1968 Vorsitzender der Fatah. Durch seine aktive Teilnahme an der Schlacht von Karame 1968 begründete er seinen Heldenmythos und war ab 1969 Vorsitzender der PLO, die 1964 durch die Arabische Liga ins Leben gerufen worden war. Ende der 1960er Jahre wuchsen die Spannungen zwischen der PLO und der jordanischen Regierung; palästinensische Milizen ("Fedayin") hatten faktisch einen Staat im Staate Jordanien etabliert und kontrollierten strategische Positionen wie die Öl-Raffinerien bei Zarqa. Jordanien betrachtete diese Umstände als eine wachsende Bedrohung seiner Souveränität und seiner Sicherheit und versuchte, die palästinensischen Milizen zu entwaffnen. Im Juni 1970 brachen nach einem fehlgeschlagenen palästinensischen Attentat auf den jordanischen König offene Kämpfe aus, die mit der Flucht der PLO aus Jordanien in den Libanon endeten. Wurde die Schlacht von Karame als erster historischer Sieg der PLO angesehen, so erlitt sie unter Arafats Führung 1970 mit dem Schwarzen September eine schwere Niederlage. Dieser musste zunächst nach Kairo, dann in den Libanon fliehen. Jassir Arafat 1977 in einem palästinensischen Flüchtlingslager im Südlibanon Aufsehen erregte der historische Auftritt Arafats vor der UN-Vollversammlung am 13. November 1974, bei dem er in Uniform, mit der Kufiya und umgeschnalltem Pistolenholster eine Rede hielt, die von arabischen und kommunistischen Staaten mit Begeisterung aufgenommen wurde. In der Rede reklamierte Arafat den alleinigen Machtanspruch über Palästina für die PLO. Er sprach davon, eine Welt ohne Kolonialismus, Imperialismus, Neokolonialismus und ohne „"Rassismus in all seinen Ausformungen, einschließlich des Zionismus"“ schaffen zu wollen. Arafat vermied es, von "Israel" zu sprechen, um dem Staat jegliche Legitimität abzusprechen, und verwendete stattdessen den Begriff "zionistische Entität". Den Zionismus stellte er in dieser Rede als eine "imperialistische, kolonialistische und rassistische Ideologie" dar, die – "dezidiert reaktionär und diskriminierend" – mit dem Antisemitismus gleichzusetzen sei. Ferner wiederholte er ein altes antisemitisches Stereotyp, indem er behauptete, der Zionismus wolle, dass die Juden ihren Heimatländern keine Treue entgegenbrächten und auf einer anderen (höheren) Ebene als ihre Mitbürger leben sollten. Er sprach der UNO das Recht ab, das unteilbare "Heimatland der Palästinenser" zu teilen, und wies damit den Teilungsbeschluss von 1947 zurück. Auch behauptete er, der Palästinakrieg von 1948 sei von Israel und nicht von den arabischen Staaten begonnen worden. Die PLO erhielt als legitime politische Vertretung der Palästinenser Beobachterstatus bei der UNO. Das Palästinensertuch – drapiert wie die Konturen Palästinas – gehörte ebenso wie das Holster auch später zu seinen Markenzeichen, ohne die er selten auftrat. Eine weitere bedeutende Rede hielt er am 13. Dezember 1988. Ein Novum war hier, dass die PLO die UN-Resolution anerkannte und Willen zum Kompromiss zeigte. Die gewaltsamen Aktionen der PLO wollte Arafat allerdings als legitimen Widerstand verstanden wissen. In dieser Rede wird auch jene Interpretation der Resolution 194 der UN-Vollversammlung bekräftigt, nach der diese das Rückkehrrecht der palästinensischen Flüchtlinge garantiere, womit er eine Doktrin festlegte, die auch heute noch, zumindest in offiziellen Verlautbarungen der PLO, Bestand hat. In der Rede gestand Arafat den Juden nicht explizit ein Recht auf nationale Selbstbestimmung zu und akzeptierte nicht ausdrücklich, dass Israel ein "jüdischer Staat" sein könnte. Als Konsequenz des israelischen Libanonfeldzugs gegen das Hauptquartier der PLO in Beirut im Juli/August 1982 musste Arafat nach Tunesien fliehen. Er verließ mit seinen Gefolgsleuten das von Israel besetzte Beirut und errichtete einen neuen PLO-Sitz im Exil in Tunis. Der Weg zur internationalen Anerkennung. 1988 erkannte Arafat Israel indirekt an und erklärte 1989 die PLO-Charta von 1964, in der zur Zerstörung des Staates Israel aufgerufen wurde, für hinfällig. Im Jahre 1990 begrüßte Arafat den irakischen Einmarsch in Kuwait und solidarisierte sich mit Saddam Hussein. Die reichen arabischen Ölstaaten an der Seite des Kriegsgegners USA froren daraufhin ihre finanzielle Unterstützung der PLO ein. Eine weitere Folge war die Vertreibung der Palästinenser aus Kuwait 1991. Binnen weniger Tage mussten etwa 450.000 Palästinenser Kuwait verlassen. Dies und der Verlust wesentlicher Unterstützer in der arabischen Welt brachten Arafat 1993 dazu, im Namen der PLO Friedensverhandlungen mit Israel zu unternehmen, die zur gegenseitigen Anerkennung führten. Statt das Ende abzuwarten, sympathisierte Arafat 1991 noch während des laufenden Augustputsches gegen Michael Gorbatschow mit den Putschisten, womit er einen langjährigen Unterstützer verärgerte. Am 7. April 1992 überlebte Arafat einen Absturz einer Passagiermaschine der Air Bissau aufgrund eines Sandsturms in der libyschen Wüste. Arafat wurde in einem Krankenhaus in Misrata aufgrund eines Blutgerinnsels von dem Chirurgen Meftah Shwedy mehrmals am Gehirn operiert und am rechten Auge behandelt. Am 13. September 1993 kam es bei der Unterzeichnung der "Prinzipienerklärung über die vorübergehende (palästinensische) Selbstverwaltung" zwischen dem Staat Israel und der PLO in Washington zu einem historischen Handschlag zwischen Arafat und dem israelischen Ministerpräsidenten Jizhak Rabin. Friedensnobelpreisträger Rabin bezahlte später für dieses Entgegenkommen im Israelisch-Palästinensischen Konflikt durch einen Terroranschlag eines jüdischen Ultra-Nationalisten mit seinem Leben. Nach 27 Jahren Exil kehrte Arafat infolge des Autonomieabkommens am 1. Juli 1994 nach Palästina zurück und bildete in Gaza eine autonome Regierung, die Palästinensische Autonomiebehörde. 1993 wählte das TIME Magazin "Die Friedensstifter" (Nelson Mandela, Frederik Willem de Klerk, Jassir Arafat und Jitzchak Rabin) zu den Personen des Jahres. Im Dezember 1994 erhielt Arafat gemeinsam mit Shimon Peres und Jitzchak Rabin den Friedensnobelpreis. Während der Trauerwoche für Jitzchak Rabin nach dessen Ermordung im November 1995 besuchte Arafat Lea Rabin und ihre Familie in ihrer Wohnung in Tel Aviv, um seine Anteilnahme zum Ausdruck zu bringen. Es war das erste Mal, dass er israelischen Boden betrat. Aus Sicherheitsgründen hatte er nicht an den Beisetzungsfeierlichkeiten teilnehmen können. Er schilderte, wie sehr ihn der Mord bestürzt habe und wie verzweifelt er darüber sei, seinen Partner im Friedensprozess verloren zu haben. 1995 erhielt Arafat den Deutschen Medienpreis in Baden-Baden. a> in Oslo 2000 verhandelte Arafat mit dem israelischen Ministerpräsidenten Ehud Barak und US-Präsident Clinton in Camp David über die Schaffung eines palästinensischen Staates. Die Verhandlungen scheiterten jedoch. Der abtretende Präsident Clinton und Barak, der kurz darauf in allgemeinen Wahlen von seinem politischen Gegner Ariel Scharon abgelöst wurde, gaben Arafat die alleinige Schuld am Scheitern dieser Verhandlungen. Arafat hingegen gab Barak und Clinton die Schuld am Scheitern. Zweite Intifada und politischer Niedergang. Arafat wurde schon vor der Zweiten Intifada vorgeworfen, ein doppeltes Spiel zu treiben. Während er sich auf internationalem Parkett für Frieden und Diplomatie starkmachte, soll er vor seinen Anhängern in Gaza mit teilweise antisemitischen Reden Stimmung gegen Israel gemacht haben. Auch wurde ihm mehrfach vorgeworfen, sich aktiv am Waffenschmuggel für paramilitärische und terroristische Zwecke zu beteiligen (siehe Karine-A-Affäre) und die allein von ihm befehligten Sicherheitskräfte der Autonomiebehörde für Übergriffe auf Israel zur Verfügung zu stellen. Außerdem gab es Berichte britischer Medien wie der BBC, dass Terror-Organisationen wie die Fatah-nahen Al-Aqsa-Märtyrer-Brigaden über den Umweg der von Arafat regierten Autonomiebehörde indirekt von EU-Geldern finanziert würden. Schließlich duldete oder unterstützte er den erneuten Palästinenseraufstand, was ihn vor allem außenpolitisch isolierte. Weitgehend zerstörter Amtssitz Arafats (März 2003) Als Reaktion auf die Zweite Intifada besetzte Israel weite Teile der autonomen Palästinensergebiete und betrieb dort eine Politik der gezielten Tötung von Protagonisten radikaler Palästinenserorganisationen wie Fatah, Hamas oder Islamischer Dschihad, die für Selbstmordattentate verantwortlich gemacht wurden. Die israelische Regierung machte auch Arafat selbst für diese gewaltsamen Übergriffe verantwortlich. Ab 2001 wurde der in Ramallah lebende Arafat von Israel mehrfach unter Hausarrest gestellt. Seine Hubschrauber wurden im Dezember 2001 zerstört, sodass er nicht mehr zwischen Gaza und Ramallah reisen konnte. Im Jahr 2002 zerstörte die israelische Armee einen Großteil von Arafats Hauptquartier, der "Muqāta'a". Am 11. September 2003 fasste die israelische Regierung den Beschluss, Arafat auszuweisen. Mit einem Hubschrauber sollte er ins Exil nach Nordafrika gebracht werden. Nach dem Ausweisungsbeschluss gingen zehntausende Palästinenser protestierend auf die Straße. Arafat appellierte an die Bevölkerung, Widerstand gegen den Beschluss zu leisten. Er wolle „"lieber sterben, als sich zu ergeben"“. Am 14. September 2003 stellte der stellvertretende israelische Ministerpräsident Ehud Olmert auch ein Attentat auf Arafat als eine „legitime Möglichkeit“ seiner Entfernung dar. Am 16. September 2003 ließen die USA eine Resolution des Weltsicherheitsrates gegen die Ausweisung Arafats an ihrem Veto scheitern. Deutschland enthielt sich der Stimme. Korruption. Im Mai 2002 stellte der BND fest, dass die Verwendung von EU-Geldern für den Terrorismus „nicht auszuschließen“ sei, da Arafat offensichtlich nicht zwischen der Struktur des Autonomie-Regimes und seiner Fatah-Bewegung trenne. Das Gutachten spricht weiterhin von „bekanntem Missmanagement“ und „weit verbreiteter Korruption“ (Aktenzeichen 39C-04/2/02). Die USA und Israel hatten die Europäische Union in Brüssel zu dem Zeitpunkt bereits mehrfach aufgefordert, die Verwendung der Subventionen für die Palästinensische Autonomiebehörde genauer zu überprüfen. Brüssel erklärte, für Transparenz und Kontrolle der Fördermittel sorge der Internationale Währungsfonds. Der IWF legte im Jahr 2003 jedoch einen verheerenden Bericht zu „Ökonomischen Leistungen und Reformen unter Konfliktbedingungen“ vor, aus dem hervorging, dass zwischen 1995 und 2000 über 900 Millionen Dollar an Fördergeldern für die Palästinensische Autonomiebehörde „verschwanden“. Weisungsbefugt für die Verwendung des Geldes seien allein Arafat und „enge Vertraute“ gewesen. Arafat kontrollierte dem Bericht zufolge bis zu seinem Tod allein 8 % des palästinensischen Gesamtbudgets. Familie. Arafat war seit dem 17. Juli 1990 mit Suha at-Tawil, mit der er eine Tochter Zahwa (* 24. Juli 1995 in Neuilly-sur-Seine) hat, verheiratet. Ab dem Beginn der zweiten Intifada, also ab 2001, lebten Frau und Tochter in Paris und Tunis. 2007 zog Suha nach Malta. Sein Neffe Musa Arafat war Leiter des palästinensischen Militärgeheimdienstes, sein Bruder Fathi Arafat Mediziner. Tod. Jassir Arafats Gesundheitszustand verschlechterte sich in der Nacht zum 28. Oktober 2004 akut. Er hatte bereits über eine Woche wegen einer Entzündung seines Verdauungstraktes nichts gegessen. Die israelische Regierung hob aufgrund seiner schweren Krankheit das Reiseverbot auf und sicherte ihm eine Rückkehr ins Westjordanland zu. Am folgenden Tag wurde Arafat nach Paris geflogen und zur Behandlung ins Militärkrankenhaus Percy gebracht, welches auch Spezialabteilungen für die Behandlung von Brandopfern und radioaktiv kontaminierten Patienten unterhält. Am 4. November verschlechterte sich sein Zustand noch einmal; es wurde von einem „"tiefen Koma“" berichtet. Am 10. November versagten Nieren und Leber. Ein Abschalten der lebenserhaltenden Geräte wurde aus religiösen Gründen abgelehnt. Infolge der Leberschädigung und der daraus resultierenden Störung der Synthese der Blutgerinnungsfaktoren kam es zu einer Gehirnblutung. Am 11. November 2004 um 3.30 Uhr (MEZ) starb Jassir Arafat. Nach Verabschiedung mit militärischen Ehren wurde der Leichnam Arafats in Begleitung seiner Witwe mit einer französischen Militärmaschine nach Kairo geflogen. Die zentrale Trauerfeier fand am 12. November am Flughafen Kairo statt, wozu hochrangige Politiker aus aller Welt eingeladen waren. Direkt im Anschluss an die militärische Zeremonie in Kairo wurde der Sarg nach Ramallah geflogen, wo die Beisetzungszeremonie am frühen Nachmittag stattfand. Arafats Wunsch, in Ost-Jerusalem am Tempelberg auf dem Gelände der Al-Aqsa-Moschee begraben zu werden, wurde von der israelischen Regierung nicht entsprochen. Der israelische Justizminister Yosef Lapid kommentierte dies mit den Worten "„In Jerusalem liegen jüdische Könige begraben, keine arabischen Terroristen“". Arafat wurde in einem Steinsarg auf dem Gelände seines ehemaligen Amtssitzes in Ramallah unter größter Anteilnahme der palästinensischen Bevölkerung beigesetzt. Sein Sarg wurde mit Erde vom Jerusalemer Tempelberg umgeben. Reaktionen. Nur wenige Stunden, nachdem der Tod Arafats bekannt gegeben wurde, griffen militante Palästinenser die jüdische Siedlung Netsarim im Gaza-Streifen an. In Ramallah warnten Extremisten die neue palästinensische Führung unter Mahmud Abbas vor einem „"Ausverkauf der palästinensischen Sache"“ und drohten den Nachfolgern Arafats mit dem Tod, sollte es irgendwelche Zugeständnisse an Israel geben. Als weitere Reaktion benannte sich die radikale Fatah-Splittergruppe Al-Aqsa-Brigaden in "Märtyrer-Jassir-Arafat-Brigaden" um. Die israelische Armee hatte das Westjordanland nach Arafats Tod aus Angst vor Anschlägen vollständig abgeriegelt. Auch Palästinenser mit gültiger Arbeitserlaubnis durften nicht mehr nach Israel reisen. Jedoch transportierten mehrere hundert Busse Palästinenser aus dem Gazastreifen zur Trauerfeier nach Ramallah. Befürchtungen, dass der Tod von Jassir Arafat einen Rückschlag für den Nahost-Friedensprozess bedeutete, bewahrheiteten sich nicht. Es kam in den Monaten nach seinem Tod sogar zu deeskalierenden Schritten zwischen der israelischen Regierung und der Palästinensischen Autonomiebehörde. Diese setzte antiisraelische Fernsehspots ab und unternahm Anstrengungen zur Reform der Sicherheitskräfte. Die israelische Regierung ließ ca. 150 palästinensische Gefangene frei, sicherte Unterstützung bei den palästinensischen Wahlen zu und kündigte eine Rückkehr zur Roadmap an. Die Palästinenserführung ernannte den Parlamentspräsidenten Rauhi Fattuh verfassungsgemäß zum vorläufigen Nachfolger und rief eine 40-tägige Trauer aus. Die nordkoreanische Regierung ordnete dreitägige Staatstrauer an. Zu Ehren des „engen Freundes des nordkoreanischen Volkes“ wurden die Flaggen landesweit auf halbmast gesetzt. Die Staatsagentur erinnerte daran, dass Arafat seit 1981 sechsmal in Nordkorea gewesen sei und den Ehrentitel eines „Helden der Demokratischen Volksrepublik Korea“ trug. Der Chef des Politbüros, Faruq al-Qadumi, wurde zum neuen Führer von Arafats Fatah-Bewegung bestimmt. Mahmud Abbas, bis dato PLO-Vize, wurde zum Nachfolger Arafats als Chef der Organisation und in den folgenden Präsidentschaftswahlen vom 9. Januar 2005 – ebenfalls als Arafats Nachfolger – zum Vorsitzenden der palästinensischen Autonomiebehörde gewählt. Nach dem Tode Jassir Arafats wurde dieser von 200 Rabbis aus "Pikuach Nefesh" als „Amalek unserer Generation“ bezeichnet und der Vorschlag gemacht, dessen Todestag als „Freudentag“ zu feiern. Spekulationen und Ermittlungen zur Todesursache und Exhumierung. Die al-Aqsa-Märtyrer-Brigaden machten ebenso wie die radikale Palästinenserorganisation Islamischer Dschihad Israel für den Tod Arafats verantwortlich und drohten mit Rache. So äußerte sich Dschihad-Anführer Chalid al-Batesch, Israels Ministerpräsident Ariel Scharon habe „bei der Tötung Arafats seine Hand im Spiel“ gehabt. Ärzte im Militärkrankenhaus Percy in Clamart bei Paris, in dem Arafat zuletzt behandelt wurde, und Vertraute Arafats schlossen jedoch seinerzeit aus, dass der Palästinenserchef vergiftet worden sei. Eine Autopsie fand nach dem Willen der Witwe nicht statt. Da weder Arafats Ärzte noch dessen Witwe die genaue Todesursache bekannt gaben, kam es in der Folge zu weiteren öffentlichen Spekulationen. Dabei wurden von Spezialisten besonders Vergiftung und AIDS nahegelegt. Ahmad Dschibril, der Generalsekretär der palästinensischen Volksfront zur Befreiung Palästinas – Generalkommando (PFLP-GC), erklärte im Juli 2007, er habe Einblick in den französischen Bericht über den Tod Arafats gehabt. Der Bericht gebe an, dass Arafat an AIDS erkrankt gewesen sei. Aschraf al-Kurdi, seit 1986 persönlicher Leibarzt von Jassir Arafat, erklärte am 12. August 2007 gegenüber der jordanischen Nachrichten-Webseite "Amman", dass der Palästinenserführer unter dem HI-Virus litt, aber nicht an der Immunschwächekrankheit AIDS verstarb. Das Virus soll Arafat erst kurz vor seinem Tod in dessen Blut injiziert worden sein, so al-Kurdi, der aber angab, dass die tatsächliche Todesursache eine Vergiftung gewesen sei. Im August 2011 beschuldigte die Fatah den zuvor aus der Partei ausgeschlossenen Mohammed Dahlan, hinter der Vergiftung Arafats zu stecken und sogar selbst das Gift aus Paris besorgt zu haben. Haaretz veröffentlichte 2005 eine Analyse israelischer Experten, wonach eine eventuelle Vergiftung am ehesten bei einem Abendessen am 12. Oktober 2004 stattgefunden haben müsste. Verdacht auf Vergiftung mit Polonium 210. Im Dezember 2011 und Januar 2012 kontaktierte der Reporter Clayton Swisher Arafats Witwe in Malta und Paris und erhielt von ihr Akten und eine Tasche mit persönlichen Gegenständen (Zahnbürste, Kleidung, Kufiya), die Arafat in seinen letzten Tagen benutzt hatte. Am 3. Juli 2012 veröffentlichte der Fernsehsender al-Dschasira den Befund des Schweizer "Institut de Radiophysique" der Universität Lausanne, dem die Gegenstände zur Untersuchung gegeben worden waren. Festgestellt wurden gegenüber den natürlichen Vorkommen erhöhte Konzentrationen von radioaktivem Polonium 210. Aufgrund dessen geringer Halbwertszeit von nur 138,38 Tagen hätte die Konzentration zum Todeszeitpunkt eine Million mal höher sein müssen. Das Schweizer Institut betonte, die Ergebnisse seien kein Beweis für eine Vergiftung, aber zumindest ein Hinweis darauf. Die in den französischen Krankenakten Arafats beschriebenen Symptome, die zu seinem Tod führten, stimmten nicht mit den bekannten Symptomen einer radioaktiven Vergiftung überein. Bezüglich der Theorie über einen Gifttod Arafats durch Polonium wurden auch von verschiedenen anderen Experten Zweifel geäußert. Die vom radiologischen Institut bekannt gegebenen Poloniumkonzentrationen auf den persönlichen Gegenständen Arafats könnten nach einem von der Jerusalem Post zitierten Experten wegen der Halbwertszeit des Polonium 210 nicht auf eine acht Jahre zurückliegende Vergiftung zurückgeführt werden, sondern müssten zu einem späteren Zeitpunkt aufgetragen worden sein. Am 31. Juli 2012 erstattete Suha Arafat im französischen Nanterre Anzeige gegen Unbekannt wegen „Ermordung“. Die französische Justiz leitete Ende August 2012 Ermittlungen zur Todesursache ein. Die Palästinenserführung und auch die Witwe befürworteten eine im Islam normalerweise verbotene Exhumierung. Anfang November wurden die ersten Vorbereitungen dafür getroffen, da dafür viel Beton im Mausoleum abgetragen werden musste. Am 27. November 2012 wurde Arafats Leichnam exhumiert und ein ausländisches Expertenteam nahm Proben. Mitte Oktober 2013 wurde ein Zwischenergebnis von Schweizer Toxikologen bekannt, wonach eine Vergiftung möglich, aber nicht sicher sei. Am 6. November 2013 gab die Universität Lausanne bekannt, einen gegenüber natürlichen Konzentrationen stark erhöhten Wert von Polonium 210 in den Proben nachgewiesen zu haben. Zugleich stellten sie eine über das natürliche Vorkommen hinaus deutlich erhöhte Menge von Blei 210 fest. Blei 210 kann eine Poloniumvergiftung maskieren, weil Polonium 210 ein Folgeprodukt des Blei 210 in der radioaktiven Zerfallskette ist und nach einiger Zeit mit dem Blei im radioaktiven Gleichgewicht steht. Da Blei 210 eine wesentlich längere Halbwertszeit hat, sind aufgrund der Neuentstehung von Polonium 210 die Reste einer möglicherweise vorangegangenen Poloniumvergiftung nicht mehr nachweisbar. Die Anwesenheit des Blei 210 wurde als mögliche Verunreinigung des hypothetisch als Gift verwendeten Poloniums erklärt. Es wurde vorgerechnet, dass von einer angenommenen Giftdosis von 1 GBq zum Todeszeitpunkt noch 4–5 % im Körper verblieben wären, die bis zur Exhumierung auf ca. 15 Bq Gesamtdosis abgeklungen wären. Die Forscher konnten Polonium nicht als Todesursache ausschließen, bezeichneten es aber auch nicht als sicher, dass Polonium den Tod verursachte. Die Ergebnisse würden letztere These „mäßig stützen“ („moderately support the proposition“: „moderately“ ist sicherer als „slightly“ und unsicherer als „strongly“). Unabhängige Forscher kommentierten die Studie dahingehend, dass sie ein Hinweis, aber kein Beweis für eine Vergiftung sei. Am 3. Dezember 2013 wurde berichtet, dass das ebenfalls beauftragte französische Untersuchungsteam zu dem Ergebnis gekommen sei, eine Vergiftung sei auszuschließen, vielmehr weise es auf eine natürliche Todesursache hin. Die Forschungsberichte eines russischen Untersuchungsteams, das ebenfalls Zugang zu Arafats sterblichen Überresten hatte, schließen eine Vergiftung ebenfalls aus. Nachdem die Staatsanwaltschaft von Nanterre im März 2015 mitgeteilt hatte, dass die Polonium-Spuren aus Arafats Grab natürlichen Ursprungs seien, beantragte sie Mitte Juli 2015 das Verfahren einzustellen. Die Ermittlungsrichter in Nanterre folgten dem Antrag und stellen das Verfahren Anfang September 2015 ein. Joschka Fischer. Joschka Fischer (eigentlich Joseph Martin Fischer; * 12. April 1948 in Gerabronn) ist ein ehemaliger deutscher Politiker (Die Grünen) und Lobbyist. Er war von 1998 bis 2005 Bundesminister des Auswärtigen und Stellvertreter des Bundeskanzlers der Bundesrepublik Deutschland und vom 1. Januar 1999 bis zum 30. Juni 1999 Präsident des Rats der Europäischen Union. Ein knappes Jahr nach der Bundestagswahl 2005 zog sich Fischer aus der aktiven Politik zurück. Seit dem Ende seiner politischen Karriere ist er als journalistischer Kommentator und Unternehmensberater sowie in verschiedenen Positionen in der Wirtschaft tätig, u. a. als Lobbyist für Siemens, den Autokonzern BMW sowie die Energieversorger RWE und OMV (Nabucco-Pipeline). Ausbildung. Fischer wurde als drittes Kind eines Metzgers geboren. Die Eltern hatten als Ungarndeutsche 1946 ihren Wohnort "Wudigeß" (, eine im Jahr 2000 zur Stadt erhobene Gemeinde nahe der ungarischen Hauptstadt Budapest) verlassen müssen. Die Familie siedelte nach Langenburg im Hohenlohischen über. Der von Joschka Fischer geführte Vorname leitet sich von "Jóska" ab, einer Diminutivform des ungarischen Vornamens "József" (). In der frühen Jugendzeit war Fischer Ministrant in seiner katholischen Heimatkirchengemeinde Oeffingen. Noch vor Beendigung der Untersekunda (10. Klasse) verließ er 1965 das Gottlieb-Daimler-Gymnasium in Stuttgart-Bad Cannstatt ohne Abschluss und begann in Fellbach eine Lehre als Fotograf, die er 1966 abbrach. Studentenbewegung. Ab 1967 engagierte sich Fischer in der Studentenbewegung und in der Außerparlamentarischen Opposition (APO). Er lebte ab 1968 in Frankfurt am Main. Später jobbte er im SDS-Verlag Neue Kritik und in der Buchhandlung "Libresso" am Opernplatz, die vorwiegend linke Literatur anbot. Gleichzeitig besuchte er eigenem Bekunden nach als Gasthörer die zeitweise völlig überfüllten Vorlesungen von Theodor W. Adorno, Jürgen Habermas und Oskar Negt. 1969 nahm Fischer in Algier an einer Konferenz der PLO teil. 1970 gründete er die Karl-Marx-Buchhandlung in Frankfurt am Main. 1971 begann er eine Tätigkeit bei der Adam Opel AG in Rüsselsheim mit dem Ziel, über die Gründung einer Betriebsgruppe die Arbeiter zu politisieren und letztlich für die „Revolution“ zu gewinnen. Diese Form der „Basisarbeit“ brachte aber nicht den erhofften Erfolg und Fischer wurde wegen seiner Aktivitäten nach einem halben Jahr fristlos entlassen. Nach weiteren Gelegenheitsarbeiten – unter anderem als Übersetzer von Romanen für Jörg Schröders Olympia Press – arbeitete Fischer in Frankfurt bis 1981 als Taxifahrer und bis 1982 als Aushilfe in einem Buchladen. Schauspielerische Kurzeinsätze hatte er zudem 1983 in dem Fernsehfilm "Der Fliegende Robert" und 1986 in dem Film "Va Banque", in dem er einen Frankfurter Taxifahrer namens "Phudy" spielt. Politische Militanz. Bis 1975 war Fischer Mitglied der linksradikalen und militanten Gruppe "Revolutionärer Kampf". Er beteiligte sich an mehreren Straßenschlachten mit der Polizei („Putzgruppe“), in denen Dutzende von Polizisten zum Teil schwer verletzt wurden. Ein Foto vom 7. April 1973 zeigt den mit einem schwarzen Motorradhelm vermummten Fischer und Hans-Joachim Klein, später Mitglied der Revolutionären Zellen (RZ), wie sie gemeinsam auf einen Polizisten einschlagen. Als Außenminister gestand Fischer seine damalige Gewalttätigkeit ein, wollte sich aber nicht von ihr distanzieren. Er beteuerte allerdings, niemals Molotowcocktails geworfen zu haben. Hintergrund war eine vorläufige Festnahme Fischers 1976, bei einer Demonstration für die RAF-Terroristin Ulrike Meinhof, unter dem Verdacht, einen solchen Brandsatz während einer Demonstration aus Anlass des Todes Ulrike Meinhofs am 10. Mai 1976 auf ein Polizeifahrzeug geworfen zu haben, wobei der Polizeiobermeister Jürgen Weber lebensgefährlich verletzt und dauerhaft entstellt worden war. Gegen Fischer wurde wegen Landfriedensbruchs, versuchten Mordes und der Bildung einer kriminellen Vereinigung ermittelt. Fischer wurde aus der Haft entlassen, weil sich der Verdacht gegen ihn nicht erhärten ließ. Bei der Planung der Demonstration war unter Beteiligung Fischers der Einsatz von Molotowcocktails diskutiert worden. Nachermittlungen der Frankfurter Staatsanwaltschaft zu diesem Vorfall wurden 2001 durch den Umstand behindert, dass die Hessische Staatskanzlei unter SPD-Ministerpräsident Holger Börner von der Staatsschutzabteilung des Polizeipräsidiums Frankfurt alle Unterlagen über Fischer angefordert hatte, als dieser 1985 in Wiesbaden Umweltminister wurde, und seitdem über den Verbleib der Akten nichts bekannt war. Aus der Frankfurter Zeit stammt auch seine Freundschaft mit dem deutsch-französischen Studentenführer Daniel Cohn-Bendit, mit dem er zeitweilig in einer Wohngemeinschaft wohnte. Im September 2015 tauchte die, seit 1985, 30 Jahre verschollene Polizeiakte Fischer in einen herrenlosen Koffer am Frankfurter Flughafen wieder auf. Das Schriftstück enthält Fotos, Fingerabdrücke und Daten und dokumentiert die Verstrickung Fischers in die linksradikale Szene. Dennoch kommentierte er noch 1978 die Ermordung von Hanns-Martin Schleyer, Siegfried Buback und Jürgen Ponto durch die RAF mit dem Satz: „Bei den drei hohen Herren mag mir keine rechte Trauer aufkommen, das sage ich ganz offen für mich.“ Am 11. Mai 1981 wurde der hessische Wirtschaftsminister Heinz-Herbert Karry ermordet, anschließend bekannten sich die Revolutionären Zellen zu der Tat. Später stellte sich heraus, dass die Tatwaffe, zusammen mit anderen aus einer amerikanischen Kaserne gestohlenen Waffen, im Jahre 1973 in Joschka Fischers Auto transportiert worden war. Fischer gab dazu an, er habe dem damaligen Autoschlosser Hans-Joachim Klein (1973 noch nicht Mitglied der RZ, aber bereits im Dunstkreis linksradikaler militanter Gruppen) den Wagen lediglich gegeben, um von ihm einen neuen Motor einbauen zu lassen. Erst später habe er erfahren, dass mit dem Auto gestohlene Waffen transportiert worden seien. Parteilaufbahn. Joschka Fischer bei einer Wahlkampfrede (2005) Noch vor seinem Parteibeitritt im Jahr 1982 gründete Fischer 1981 mit Daniel Cohn-Bendit und anderen den "Arbeitskreis Realpolitik" in Frankfurt, der für die Partei "Die Grünen" sogenannte „realpolitische“ Positionen formulierte. Die inhaltliche Auseinandersetzung mit diesen neuen Positionen führte im Kreisverband Frankfurt zur Polarisierung zwischen Realos und Vertretern eines „öko-fundamentalistisch“ genannten Standpunktes (Fundis), in deren Verlauf sich Fischer 1982 für die Bundestagswahl 1983 als Kandidat für "Die Grünen" durchsetzen konnte. 1983 wurde er in den Deutschen Bundestag gewählt und gehörte damit der ersten Bundestagsfraktion der Grünen an. Für diese war er als Parlamentarischer Geschäftsführer tätig. Er machte sich auch als Redner einen zum Teil umstrittenen Namen, z. B. im Zusammenhang der Kießling-Affäre oder der Flick-Affäre, während der er mit Beschimpfung des Bundestagsvizepräsidenten Richard Stücklen („Mit Verlaub, Herr Präsident, Sie sind ein Arschloch.“) auf seinen Ausschluss von einer Bundestagssitzung reagierte. Wegen des damals bei den Grünen noch geltenden Rotationsprinzips schied er 1985 wieder aus dem Bundestag aus. Während seiner Zeit als Bundestagsabgeordneter nahm er auch am 24. Oktober 1983 an der Blockade der US-Militärbasis in Frankfurt am Main teil, um gegen den NATO-Doppelbeschluss zu demonstrieren. Nach eigenen Angaben hatte Fischer vor seinem Parteieintritt bei den Grünen aus Überzeugung nie gewählt, was ihn heute aber ärgere. Staatsminister für Umwelt und Energie. Im Jahr 1985 kam es in Hessen zur Bildung der ersten rot-grünen Landesregierung unter Ministerpräsident Holger Börner. In diesem Kabinett wurde Fischer Staatsminister für Umwelt und Energie. Bereits seine Vereidigung sorgte für Aufsehen, da er in grobem Jackett und Turnschuhen erschien. Dieser Auftritt prägte den Begriff des „Turnschuh-Ministers“. Im Februar 1987 wurde Fischer von Ministerpräsident Börner aus seinem Amt entlassen, da die Grünen in einem Ultimatum den Fortbestand der Koalition von der Rücknahme der Genehmigung für das Hanauer Nuklearunternehmen Nukem abhängig gemacht hatten. Die darauf folgenden Neuwahlen im April 1987 endeten mit einem Sieg von CDU und FDP. Walter Wallmann (CDU) wurde Ministerpräsident und Wolfgang Gerhardt (FDP) sein Stellvertreter. Fischer wurde bei dieser Wahl in den Hessischen Landtag gewählt und übernahm den Vorsitz der Landtagsfraktion der Grünen. Bei den Landtagswahlen 1991 verlor die Regierungskoalition ihre Mehrheit. Es kam zu einer Wiederauflage der rot-grünen Koalition, diesmal unter Ministerpräsident Hans Eichel (SPD). Fischer wurde wieder Umweltminister. Zugleich war er Stellvertreter des Ministerpräsidenten und Staatsminister für Bundesangelegenheiten. Im Oktober 1994 legte er alle Ämter in Hessen nieder und wurde, nachdem die Grünen bei der Bundestagswahl am 16. Oktober 1994 den Wiedereinzug in den Bundestag schafften, neben Kerstin Müller zum Sprecher der Bundestagsfraktion von Die Grünen. Neben Fischers Einsatz für einen Einsatz der Bundeswehr in Bosnien und Herzegowina ließ in diesen Jahren auch die wirtschaftspolitische Hinwendung der Grünen zur Marktwirtschaft diese immer mehr zu einer „realpolitischen“ Partei werden. Außenminister und Vizekanzler. Bei der Bundestagswahl im Herbst 1998 verlor die Schwarz-Gelbe Koalition unter Bundeskanzler Helmut Kohl nach 16 Jahren ihre Mehrheit. Es kam zur Bildung der ersten rot-grünen Koalition auf Bundesebene. Der neue Bundeskanzler Gerhard Schröder berief Fischer als Außenminister und Vizekanzler in sein Kabinett. Im Jahre 2001 konnte die bereits angekündigte Fischer-Biografie „Sag mir, wo Du stehst“ der Journalistin Bettina Röhl nicht erscheinen, weil der Verlag Kiepenheuer & Witsch in Köln vom Vertrag zurücktrat. Als Begründung wurde Röhls Kampagne gegen Fischer, einen langjährigen Autor des Verlags, genannt. Im Januar 2001 hatte Bettina Röhl mit der Veröffentlichung der so genannten Fischer-Prügel-Fotos eine weit über deutsche Grenzen hinausreichende Mediendiskussion über Fischers militante Vergangenheit ausgelöst, in deren Verlauf der damalige Bundeskanzler Gerhard Schröder der Opposition vorwarf, mit ihrer Kritik an Fischer den politischen Aufbruch einer ganzen Generation zu diffamieren, während die damalige Oppositionsführerin Angela Merkel Fischer aufforderte, sich von der 68er-Revolte insgesamt zu distanzieren. Fischer galt als aussichtsreicher Kandidat auf den nach dem Entwurf für eine Europäische Verfassung für 2006 geplanten Posten des Außenministers der Europäischen Union. Den Grundstein hierzu legte seine Rede „Vom Staatenverbund zur Föderation“, mit dem er eine mögliche Finalität des europäischen Einigungsprozesses heraufbeschwor und eindeutig für den europäischen Föderalismus Stellung bezog. Am 1. September 2003 verkündete er allerdings gemeinsam mit Bundeskanzler Schröder, dass beide bei der nächsten Bundestagswahl wieder zusammen antreten wollten. Joschka Fischer nach einem Besuch der Universitätsklinik von Banda Aceh in Indonesien im Februar 2005 Kriegsbeteiligungen. Die rot-grüne Bundesregierung mit Fischer als Bundesaußenminister führte deutsche Bodentruppen mit der Beteiligung am Einsatz der NATO im Kosovokrieg erstmals nach dem Zweiten Weltkrieg in einen Kriegseinsatz. Fischer legitimierte diesen Einsatz auf dem Kosovo-Sonderparteitag in Bielefeld 1999 mit den Worten: „Ich stehe auf zwei Grundsätzen, nie wieder Krieg, nie wieder Auschwitz, nie wieder Völkermord, nie wieder Faschismus. Beides gehört bei mir zusammen“. Ab 2001/2002 beteiligte sich die Bundeswehr am Krieg in Afghanistan. 2003 weigerte sich hingegen die rot-grüne Bundesregierung, den Irakkrieg der USA zu unterstützen. Visa-Affäre. Anfang 2005 stand Fischer als verantwortlicher Minister im Mittelpunkt der sogenannten Visa-Affäre. Am 25. April 2005 trat er als Zeuge vor dem Visa-Untersuchungsausschuss auf, wo er eigene Versäumnisse einräumte und die komplette politische Verantwortung übernahm. Nachrufdebatte. Im Frühjahr 2005 setzte sich Fischer im Rahmen der Nachrufdebatte dafür ein, dass Nachrufe für einstige NSDAP-Mitglieder aus der Hauszeitung "internAA" des Auswärtigen Amts gestrichen werden. In der Folge wurde eine Historikerkommission eingesetzt, welche die Übernahme von NSDAP-Mitgliedern in das AA nach dem Krieg aufarbeiten sollte. Das Ergebnis von deren Arbeit wurde als Buch "Das Amt und die Vergangenheit" veröffentlicht und hat weitere Debatten ausgelöst. Ausscheiden. Nach der Bundestagswahl 2005 erklärte Fischer, dass er im Oppositionsfall im Sinne eines Generationswechsels für das Amt des Fraktionsvorsitzenden im Deutschen Bundestag und andere führende Ämter in der Partei nicht mehr zur Verfügung stehe. Seine Amtszeit als Außenminister und Vizekanzler endete am 18. Oktober 2005, er übte diese Ämter aber noch bis zum 22. November des Jahres geschäftsführend aus. Am 27. Juni 2006 nahm Fischer zum letzten Mal an einer Fraktionssitzung der Grünen Bundestagsfraktion teil. Am 1. September 2006 legte er sein Bundestagsmandat nieder. Sein Mandat übernahm der Nachrücker Omid Nouripour. Nach der politischen Karriere. Anfang 2006 hielt Fischer zahlreiche Vorträge für Investmentbanken wie Barclays Capital und Goldman Sachs. Noch im selben Jahr übernahm er eine einjährige Gastprofessur für internationale Wirtschaftspolitik an der "Woodrow Wilson School" der amerikanischen Princeton University. Seine Vorlesungen behandelten die „Internationale Krisendiplomatie“. Daneben war Fischer als Senior Fellow am Liechtenstein Institute der "Woodrow Wilson School" tätig und engagierte sich als Mitglied des EU-Programms der "Princeton University". 2007 gründete er eine Beraterfirma mit dem Namen "Joschka Fischer Consulting". Er ist Gründungsmitglied und Vorstand des European Council on Foreign Relations, das von dem Milliardär und Mäzen George Soros finanziert wird. Im September 2008 nahm er einen Beratervertrag (Senior Strategic Counsel) bei der Madeleine Albright gehörenden Firma "The Albright Group LLC" an. Die Firma ging 2009 in der Joschka Fischer & Company GmbH auf. Am 19. Mai 2009 scheiterte Fischer vor dem Bundesgerichtshof (BGH) letztinstanzlich mit einer Klage gegen die Illustrierte Bunte, die ein Foto seiner Privatvilla in Berlin-Grunewald abgedruckt hatte. Der Informationsanspruch der Öffentlichkeit sei gewichtiger als Fischers Persönlichkeitsrecht. 2009 schloss Fischer einen Vertrag mit den Energieversorgern RWE und OMV als politischer Berater für den geplanten Bau der 3300 km langen Nabucco-Pipeline, die Erdgas vom Kaspischen Meer über die Türkei in die EU transportieren soll. Fischer ist damit Lobbykonkurrent zum früheren Bundeskanzler Gerhard Schröder, der wiederum für das Projekt der Nord-Stream-Pipeline wirbt. Ebenfalls 2009 wurde Fischer Berater für den Autokonzern BMW und, gemeinsam mit Madeleine Albright, Berater der Siemens AG in außenpolitischen und unternehmensstrategischen Fragen. Seit September 2010 berät Fischer auch den Handelskonzern Rewe. Fischer schreibt gelegentlich für Die Zeit eine Montagskolumne sowie gelegentlich eine Außenansicht (Seite 2) in der Süddeutschen Zeitung und ist beratend für den World Jewish Congress tätig. Seit August 2010 hat Fischer den Vorsitz der aus neun Personen bestehenden „Gruppe herausragender Persönlichkeiten“ im Europarat inne. Die auf Initiative der Türkei ins Leben gerufenen Gruppe soll sich und vorschlagen. Der erste Bericht der Gruppe erschien im Frühjahr 2011. Im September 2010 war er an der Gründung der Spinelli-Gruppe beteiligt, die sich für den europäischen Föderalismus einsetzt. Agenturen vermitteln Fischer als Vortragsredner zu Preisen von bis zu 29.000 Euro Vortragshonorar. 2013 machte Fischer Werbung für das Elektroauto i3. Im Oktober 2014 stellte Fischer in Berlin sein Buch "Scheitert Europa?" vor, das ursprünglich „Die Vereinigten Staaten von Europa“ heißen sollte und aufgrund der gegenwärtigen Entwicklung den skeptischeren Titel erhielt. In dem Buch beschreibt Fischer u. a. die (wirtschaftlichen) Probleme und Dynamiken Europas mit Beginn der Weltfinanzkrise 2007, eine neue Spaltung und Desolidarisierung zwischen den nördlichen (reicheren) und den südlichen europäischen Staaten sowie den Aufstieg radikaler antieuropäischer und fremdenfeindlicher Parteien in demokratischen Wahlen. Er ist Mitglied im Präsidium der Deutschen Gesellschaft für die Vereinten Nationen. Privates. Fischer ist zum fünften Mal verheiratet. Seit 2006 lebt Joschka Fischer in Berlin-Grunewald. Militäreinsätze in Bosnien und Herzegowina. 1995 löste Fischer eine innerparteiliche Kontroverse aus, als er mit der strikt pazifistischen Ausrichtung der Partei brach und militärische Maßnahmen zur Aufrechterhaltung der UN-Schutzzonen in Bosnien und Herzegowina befürwortete. Kosovokrieg. 1999 unterstützte Fischer maßgeblich die deutsche Beteiligung am völkerrechtlich umstrittenen Kosovokrieg, wodurch erstmals seit dem Zweiten Weltkrieg wieder deutsche Soldaten an einem Krieg beteiligt waren. Er begründete diesen Krieg unter anderem auch mit dem Verweis auf den Holocaust. Am 7. April 1999 sagt er: „Ich habe nicht nur gelernt: Nie wieder Krieg. Ich habe auch gelernt: Nie wieder Auschwitz.“ Dem Nachrichtenmagazin "Newsweek" sagte Fischer auf die Frage, ob er zwischen den Ereignissen im Kosovo und der Nazi-Ära eine direkte Parallele sehe: „Ich sehe eine Parallele zu jenem primitiven Faschismus. Offensichtlich sind die 1930er Jahre zurückgekehrt, und das können wir nicht hinnehmen.“ Kritiker warfen Fischer vor, als Außenminister Positionen vertreten zu haben, die er vor der rot-grünen Regierungsübernahme abgelehnt hatte. Wegen seines Werbens als deutscher Außenminister für den Einsatz der NATO im Kosovo-Krieg wurde er unter anderem in Internet-Foren, aber auch von Angehörigen der Friedensbewegung als Kriegsverbrecher bezeichnet. Das Oberverwaltungsgericht Berlin entschied im Zusammenhang mit einem von der Polizei übermalten Transparent, dass diese Bezeichnung als schwerer Angriff auf die persönliche Ehre rechtswidrig sei. Im Mai 1999 wurde er aus Protest gegen den NATO-Einsatz auf dem Grünen-Parteitag in Bielefeld von dem linksautonomen Samir F. mit einem roten Farbbeutel beworfen und erlitt dabei einen Trommelfell-Riss am rechten Ohr. Tschetschenienkriege. Heftige Kritik an Joschka Fischer wurde wegen seiner Haltung bezüglich der Tschetschenienkriege geäußert. Während der Bundestagsabgeordnete Joschka Fischer im Januar 1995 noch die Untätigkeit der Bundesregierung während des ersten Tschetschenienkriegs angesichts des „grausamen Mordens einer nuklearen Supermacht gegen ein kleines Volk im Norden des Kaukasus“ verurteilte, erklärte er 2000 als Außenminister in Bezug auf den zweiten Tschetschenienkrieg, dass Russland nicht isoliert werden dürfe und es legitim sei, gegen Terror vorzugehen. Ehrungen und Auszeichnungen. Im Mai 2002 wurde Fischer mit der Ehrendoktorwürde der Universität Haifa ausgezeichnet. Am 4. Mai 2004 erhielt er den renommierten Gottlieb-Duttweiler-Preis in Rüschlikon. Im Mai 2005 erhielt Fischer in seiner Funktion als Außenminister die höchste Auszeichnung des Zentralrates der Juden in Deutschland, den Leo-Baeck-Preis, für seine Verdienste im Nahost-Konflikt als Vermittlungspartner zwischen Palästinensern und Israelis. Am 20. Mai 2006 wurde Joschka Fischer mit der Ehrendoktorwürde der Universität Tel Aviv ausgezeichnet. Als Dank für seinen Einsatz als hessischer Umweltminister gegen die Nutzung der Grube Messel als Mülldeponie und für deren Bewahrung als Fossilienfundstätte wurde nach ihm im Jahr 2005 eine fossile Schlange als "Palaeopython fischeri" benannt. Er ist Ehrenbürger von Budakeszi. Im Jahr 2009 erhielt Joschka Fischer den Ehrenpreis des Deutschen Nachhaltigkeitspreises für seine herausragende Rolle bei der Umsetzung grüner Visionen in Realpolitik. 2010 wurde er mit der Heinrich-Heine-Gastprofessur der Heinrich-Heine-Universität Düsseldorf geehrt. Jim Carrey. James Eugene „Jim“ Carrey (* 17. Januar 1962 in Newmarket, Ontario) ist ein kanadisch-US-amerikanischer Komiker und Filmschauspieler. Seit der Filmkomödie "Ace Ventura – Ein tierischer Detektiv" von 1994 ist Carrey einer der erfolgreichsten Comedians in Hollywood. Für seine schauspielerischen Leistungen in "Die Truman-Show" (1998) und "Der Mondmann" (1999) gewann er jeweils einen "Golden Globe Award". Karriere. Jim Carrey wuchs in ärmlichen Verhältnissen auf. Der Klassenclown Carrey, dessen Vorbild der US-Komiker Jerry Lewis ist, brachte bereits in der Schulzeit seine Mitschüler mit regelmäßigen Auftritten zum Lachen. Im Alter von zehn Jahren bewarb er sich bei der "Carol-Burnett-Show". Mit 15 Jahren stand Carrey als Stand-Up-Komiker auf den Bühnen verschiedener Comedy-Clubs in Toronto. 1978 brach er aus finanziellen Gründen seine Schulausbildung ab und zog nach Los Angeles, um Schauspieler zu werden. Schon kurz darauf war er ein festes Ensemble-Mitglied in "Mitzi Shore's Comedy Store" und übernahm auch kleinere Nebenrollen in Filmen. Seinen Durchbruch als Komiker hatte Carrey 1982, als er bei einer Tournee des Entertainers Rodney Dangerfield im Vorprogramm auftrat. Im gleichen Jahr bekam er seine eigene TV-Show "The Duck Factory". 1985 gab er in "Einmal beißen bitte" sein Leinwanddebüt und wirkte 1986 in Francis Ford Coppolas "Peggy Sue hat geheiratet" mit. 1987 spielte Carrey seine erste Hauptrolle als sexhungriger Außerirdischer in der Komödie "Zebo, der Dritte aus der Sternenmitte", die 1989 in die Kinos kam. Ab 1990 war er in der Sitcom "In Living Color" zu sehen. Weltweit bekannt wurde Carrey 1994 durch die Titelrolle in der Slapstick-Komödie "Ace Ventura – Ein tierischer Detektiv". Der Film fiel bei den Kritikern durch und brachte Carrey eine Nominierung für die Goldene Himbeere als schlechtester Neu-Star ein, kam beim Publikum jedoch gut an und spielte mehr als 72 Millionen Dollar ein. Carrey wurde nach diesem Erfolg noch im gleichen Jahr in zwei weiteren Hauptrollen besetzt: Sowohl "Die Maske" als auch "Dumm und Dümmer" wurden zu Erfolgen, ebenso die Fortsetzung "Ace Ventura – Jetzt wird’s wild" im Folgejahr. Die drei Filme spielten in den Vereinigten Staaten jeweils über 100 Millionen Dollar ein und bescherten Carrey zahlreiche Auszeichnungen (unter anderem "Komödienstar des Jahres 1995", "People’s Choice Award"), was ihm den Ruf eines „neuen Jerry Lewis“ einbrachte. Carreys ausgeprägte Gestik und Mimik sowie seine Stimmenimitationen wurden zu seinen Markenzeichen. In der erfolgreichen Comic-Verfilmung "Batman Forever" wirkte Carrey in der Rolle des Schurken Riddler mit. Er konnte nun höhere Gagen als bisher fordern. 1996 erhielt er für "Cable Guy" 20 Millionen Dollar, allerdings blieb der Film finanziell hinter den Erwartungen zurück. 1997 verbuchte Carrey wieder einen großen Erfolg mit "Der Dummschwätzer", welcher über 300 Millionen Dollar einspielte und ihm eine Nominierung für den Golden Globe als bester Komödiant einbrachte. In Peter Weirs Drama "Die Truman Show" spielte Carrey seine erste tragikomische Rolle. Der Film handelt von einem Mann, der seit seiner Geburt ohne sein Wissen die Hauptrolle in einer Fernsehserie spielt. Dieser Film war nicht nur an den Kinokassen erfolgreich, sondern brachte Carrey Kritikerlob ein. Auch in seinem nächsten Projekt "Der Mondmann" zeigte er sich 1999 von seiner ernsthaften Seite und stellte Andy Kaufman dar, einen in den USA sowohl verehrten als auch umstrittenen Komiker. Für "Die Truman Show" und "Der Mondmann" wurde Carrey jeweils mit dem Golden Globe für die beste Darstellung in einem Drama beziehungsweise einer Komödie ausgezeichnet, womit er sich als ernstzunehmender Schauspieler etabliert hatte. Carrey spielte ab dem Jahr 2000 in mehreren finanziell erfolgreichen Slapstick-Komödien wie "Ich, beide & sie" (2000), "Der Grinch" (2000), "Bruce Allmächtig" (2003), "Lemony Snicket – Rätselhafte Ereignisse" (2004) und "Dick und Jane" (2005) die Hauptrolle. Daneben wirkte er aber auch in Filmen wie "The Majestic" (2001), "Vergiss mein nicht!" (2004) und "Number 23" (2007) mit, die von seiner gängigen Rollenbesetzung abwichen. Allerdings wurde "Vergiss mein nicht!" von den Kritikern gelobt und gewann den Europäischen Filmpreis als bester nicht-europäischer Film sowie den "Oscar" für das beste Drehbuch. Ursprünglich war er auch für die Rolle des Captain Jack Sparrow in der Pirates of the Caribbean-Reihe vorgesehen, welche letztlich aber an Johnny Depp vergeben wurde. 2008 lieh Jim Carrey der Titelfigur im Animationsfilm "Horton hört ein Hu!" seine Stimme und spielte die Hauptrolle in "Der Ja-Sager". Ende des Jahres 2009 kam eine Neuinterpretation des Klassikers "Eine Weihnachtsgeschichte" durch Regisseur Robert Zemeckis, "Disneys Eine Weihnachtsgeschichte", in die Kinos. Bei diesem Film lieh Carrey seine Stimme dem mürrischen Scrooge. Im Jahr 2011 spielte Carrey gemeinsam mit 6 Eselspinguinen die Hauptrolle in Mr. Poppers Pinguine. Im November 2014 erschien "Dumm und Dümmehr", die Fortsetzung von Dumm und Dümmer. Auf George Martins 1998 erschienenen Beatles-Tribute Album "In My Life" sang er den Titel "I Am The Walrus". Sein deutscher Synchronsprecher ist zumeist Stefan Fredrich. Privatleben. Jim Carrey war von 1987 bis 1995 mit Melissa Womer verheiratet, aus dieser Ehe stammt eine 1987 geborene Tochter, Jane Carrey. Von 1996 bis 1997 war er mit der Schauspielerin Lauren Holly, seinem Co-Star aus "Dumm und Dümmer", verheiratet. Während der Dreharbeiten zu "Ich, beide & sie" (1999) war Carrey mit seiner Filmpartnerin Renée Zellweger liiert. 2004 bekam er zusätzlich die amerikanische Staatsbürgerschaft. Von 2005 bis März 2010 lebte Jim Carrey mit dem Model Jenny McCarthy zusammen. Anfang April 2010 gab Carrey auf Twitter bekannt, dass man sich nach fünf Jahren in aller Freundschaft getrennt habe. Am 24. August 2011 sorgte Carrey mit einer Videobotschaft an die Schauspielerin Emma Stone für Aufsehen, in der er ihr seine Liebe gesteht. Zu Spekulationen, ob dies ernst gemeint sei oder bloß kalkulierte Satire, äußerte sich Carrey selbst nicht. Johann Gottlieb Fichte. Johann Gottlieb Fichte (* 19. Mai 1762 in Rammenau, Kurfürstentum Sachsen; † 29. Januar 1814 in Berlin, Königreich Preußen) war ein deutscher Erzieher und Philosoph. Er gilt neben Friedrich Wilhelm Joseph Schelling und Georg Wilhelm Friedrich Hegel als wichtigster Vertreter des Deutschen Idealismus. Jugendzeit. Fichte war das erste von acht Kindern des Bandwebers Christian Fichte und seiner Frau Dorothea (geb. Schurich) in Rammenau in der Oberlausitz. Er wuchs ärmlich in einem von Frondiensten geprägten dörflichen Milieu auf. Seine Auffassungsgabe und sein gutes Gedächtnis fielen einem Verwandten der örtlichen Gutsherrschaft, dem Gutsherrn Freiherr Haubold von Miltitz, bei einem Besuch in Rammenau auf: Er hatte eines Sonntags die kirchliche Predigt verpasst, woraufhin der zehnjährige Fichte gerufen wurde, von dem man versicherte, er könne die Predigt wiederholen. Daraufhin imitierte dieser den Pfarrer so perfekt, dass der Freiherr in seiner Entzückung dem Kind nach einer Vorbereitungszeit im Pfarrhaus zu Niederau den Besuch der Stadtschule in Meißen ermöglichte. Danach finanzierte ihm sein Förderer 1774 eine Ausbildung an der Landesschule Pforta bei Naumburg, verstarb jedoch im selben Jahr. Nach seiner Schulzeit zog Fichte 1780 nach Jena, wo er an der Universität ein Theologie-Studium begann, wechselte jedoch bereits ein Jahr später den Studienort nach Leipzig. Die Familie von Miltitz unterstützte ihn nun nicht mehr finanziell, er war gezwungen, sich durch Nachhilfeunterricht und Hauslehrerstellen zu finanzieren und brachte das Studium zu keinem Abschluss. In dieser aussichtslosen Lage bekam er 1788 in Zürich eine Stelle als Hauslehrer, die er aber nur zwei Jahre innehatte, da er der Auffassung war, dass man, bevor man Kinder erzieht, zuallererst die Eltern erziehen müsse. Dort verlobte er sich mit Johanna Marie Rahn (1755−1819), Tochter des Kaufmanns und Wagmeisters Johann Hartmut Rahn und Nichte des Dichters Klopstock. Anschließend ging er wieder nach Leipzig. Fichtes Plan, Prinzenlehrer zu werden, scheiterte. Seine zweite Idee, eine „Zeitschrift für weibliche Bildung“, lehnten mehrere Verleger ab. Trauerspiele und Novellen brachten ihm ebenfalls keine finanzielle Sicherheit. Übergang zur Philosophie. In Leipzig lernte Fichte 1790 die Philosophie Immanuel Kants kennen, die ihn stark beeindruckte. Kant inspirierte ihn zu seiner am Begriff des Ich ausgerichteten "Wissenschaftslehre". Fichte sah eine rigorose und systematische Einteilung zwischen den „Dingen, wie sie sind“ und „wie die Dinge erscheinen“ (Phänomene) als eine Einladung zum Skeptizismus, den er verwarf. Ein Jahr später besuchte er, nach einem kurzen Intermezzo auf einer Hauslehrerstelle in Warschau, Kant in Königsberg, wo dieser ihm einen Verleger für seine Schrift "Versuch einer Critik aller Offenbarung" (1792) verschaffte, die anonym veröffentlicht wurde. Das Buch galt zunächst als ein lange erwartetes religionsphilosophisches Werk von Kant selbst. Als Kant den Irrtum klarstellte, war Fichte berühmt und erhielt einen Lehrstuhl für Philosophie an der Universität Jena, den er 1794 antrat. Zuvor hatte er nach längerer Überlegung, ob eine Eheschließung ihm nicht die „Flügel abschneide“, 1793 Johanna Rahn geheiratet. Während seiner Jenaer Professur (1794–1799) wurde er zur Zielscheibe im so genannten „Atheismusstreit“. 1799 hatte eine zunächst anonyme Streitschrift Fichtes den Streit ausgelöst: Fichte wurde wegen Verbreitung atheistischer Ideen und Gottlosigkeit verklagt und zum Rücktritt gezwungen. 1805 bekam er den Lehrstuhl für Philosophie in Erlangen, 1807 war er Zensor der Hartungschen Zeitung in Königsberg, wurde aber auf Befehl des preußischen Generals Ernst von Rüchel entlassen. Wenige Jahre darauf, 1810, bekam er die Position des Dekans der philosophischen Fakultät und für kurze Zeit war er der erste gewählte Rektor der Berliner Friedrich-Wilhelms-Universität. 1789 wurde Fichte in Zürich in den Freimaurerbund "Modestia cum Libertate" aufgenommen, in dieselbe Loge, in der auch Johann Wolfgang von Goethe freundschaftlich verkehrte. Später ließ er sich am 6. November 1794 als Mitglied der Freimaurerloge "Günther zum stehenden Löwen" in Rudolstadt annehmen und war auch nach seinem Umzug nach Berlin mit den dortigen Freimaurerkreisen verbunden. 1799 traf er auf Ignaz Aurelius Feßler und arbeitete nach seiner Annahme am 17. April 1800 mit ihm an der Reform der Großloge "Royal York zur Freundschaft". Am 14. Oktober 1799 hielt er einen Vortrag über „den wahren und richtigen Zweck der Maurerei“. Am 13. und 27. April 1800 hielt er mehrere Vorlesungen, die später unter dem Titel "Philosophie der Freimaurerei. Briefe an Constant" erneuert und veröffentlicht wurden. Schon bald kam es zum Streit und Fichte trat am 7. Juli 1800 aus der Freimaurerei aus. Auch bei der Entstehung der Gesellschaft der freien Männer hatte er einen bedeutenden Anteil. In Berlin wurde er Mitglied der Deutschen Tischgesellschaft, ab Sommer 1811 deren „Sprecher“ (Vorsitzender). Hatte sich Fichte zuvor als Anhänger der Französischen Revolution bezeichnet, so profilierte er sich nun insbesondere durch die flammend patriotischen "Reden an die deutsche Nation" (als Text veröffentlicht bis 1808) als Gegner Napoleons. Ein utopisches Gesellschaftsmodell – eine Art sozialistische Gesellschaft auf nationalstaatlicher Grundlage – findet sich in dem Werk "Der geschlossene Handelsstaat" (1800). Vermutlich Ende 1813 erkrankte seine Frau Johanna am sogenannten Lazarettfieber, welches sie sich bei der Pflege von verwundeten Soldaten zugezogen hatte. Auch Fichte sollte an dieser vom Kot von Kleiderläusen übertragenen Seuche erkranken, die vornehmlich unter der Bezeichnung Fleckfieber berüchtigte Bekanntheit erlangte und insbesondere im 14 in Mitteleuropa (unter anderem in Berlin, Dresden, Leipzig, Hamburg, Frankfurt am Main, Wiesbaden und Mainz) katastrophale Ausmaße annahm. Im Gegensatz zu seiner Frau konnte er sich von diesem Fieber nicht erholen. Er starb am 29. Januar 1814 in Berlin und wurde auf dem Dorotheenstädtischen Friedhof beerdigt. Die Ehrengrabstelle in der Abt. CH, G2 trägt ein Porträtmedaillon (Kopie) von Ludwig Wilhelm Wichmann. Sein Grabstein trägt einen Vers aus dem Buch Daniel (): „Die Lehrer aber werden leuchten wie des Himmels Glanz, und die, so viele zur Gerechtigkeit weisen, wie die Sterne immer und ewiglich.“ Fichtes „Grundlage der gesamten Wissenschaftslehre“. Fichte ging es um die praktische Umsetzung seiner Philosophie, weshalb er die Errichtung eines lückenlosen philosophischen Systems als zweitrangig erachtete. Im Vordergrund stand für ihn die Verständlichkeit seiner Lehre. Er vertrat ein positives Menschenbild und ging davon aus, dass in jedem Menschen – und nicht nur im Gelehrten – der Grund echter Selbsterkenntnis (und damit auch Gotteserkenntnis) gelegt ist und der Philosoph lediglich auf diese verweisen muss. In seiner populären, z. T. polemischen Darstellungsweise schuf sich Fichte unter den Fachgelehrten viele Freunde, aber auch Feinde. In erbitterter Feindschaft stand er zu Friedrich Nicolai. Goethe urteilte skeptisch über Fichte, „daß doch einem sonst so vorzüglichen Menschen immer etwas fratzenhaftes in seinem Betragen ankleben muß“. Trotz späterer Ablehnung übte Fichte großen Einfluss auf Schelling und Hegel aus. Auch Hölderlin bekannte, Fichtes Vorlesungen aus seiner Jenaer Zeit viel zu verdanken. Einige Ideen Fichtes knüpfen an die Thesen des etwa 20 Jahre älteren Johann Gottfried Herder an. Fichtes Kantrezeption. Fichte reagierte auf die Frage, wie theoretische und praktische Vernunft zusammenhängen, indem er antwortete, dass die beiden Teile der Vernunft in einem hierarchischen Verhältnis zueinander stehen. Hierbei ist die praktische Vernunft der theoretischen übergeordnet. Letztere benötigt demnach die praktische Vernunft; diese aber ist autonom. Auch für Kant war die praktische Vernunft ein Vermögen des Willens – und damit autonom. Laut Fichte mündet diese Tatsache aber in seiner Theorie zur „Selbstsetzung“. Der Wille bringt, indem er sich ein Gesetz gibt, zugleich sein Wesen als „Vernunftwille“ hervor. Dieser Vernunftwille macht das aus, was wir sind – nämlich unser Ich. „Das absolute Ich ist, indem es sich setzt, und setzt sich, indem es ist.“ Aus diesem Grund kommt der praktischen Vernunft absolute Freiheit zu. Fichtes Idealismus ist daher eine Konsequenz aus dem Primat der praktischen Vernunft. Der Kritik am transzendentalen Argument bei Kant entzieht sich Fichte, indem er die praktische Vernunft zur Bedingung für die theoretische Vernunft erklärt. Hierbei geht er von der „Handlung“ des Urteilens aus und schließt mithilfe einer transzendentalen Begründung auf das sich setzende Ich als Bedingung hierfür. Alles Urteilen ist Handeln des menschlichen Geistes. Diesem liegt der Satz „Ich bin“ zugrunde. Das „schlechthin gesezte und auf sich selbst gegründete“ ist der Grund des Handelns. Um dem Vorwurf zu entgehen, dass wir eventuell gar nicht urteilen, sondern nur glauben zu urteilen, führte Fichte die „intellektuelle Anschauung“ ein. Sie ist auch praktisch zu verstehen als „Anschauen seiner selbst im Vollziehen eines Acts“. Wenn wir urteilen, beobachten wir uns nicht, sondern stellen handlungsorientierte Fragen. Diese Fragen gehen von der Annahme aus, dass der Mensch ein Vernunftwesen ist. Würde das nicht zutreffen, könnte er nicht urteilen, was nicht vorstellbar ist. Gleichwohl vertrat Fichte die Auffassung, auch wenn der Mensch nicht an den Bedingungen vernünftigen Urteilens zweifeln könne, folge daraus nicht, dass er diese Bedingungen tatsächlich erfüllt. Die schärfste Abgrenzung zu Kant vollzog Fichte mit seiner Ablehnung der Konzeption eines „Dinges an sich“. Nur so kann in seinen Augen die absolute Freiheit des Ichs bewahrt werden. Das „Ding an sich“ wird bei Fichte lediglich zu einem „Anstoß“, einem irrationalen Faktum innerhalb des Ich, welches das Ich zu bewältigen versucht. Die Folge ist der Ausschluss aus dem Ich, gleichsam hinaus in die Welt als „Nicht-Ich“. Ist das absolute Ich demzufolge also ein „Ding an sich“ auf der Seite des Subjekts? Fichtes Antwort: Nur wenn es „erscheint“. Das absolute Ich existiert nur im Handeln. In seiner philosophischen Reflexion wird das absolute Ich zu etwas Objektivem, eine andere Entität der realen Welt gibt es nicht. Jenaer Philosophie. Da Fichte die Grundlage der gesamten Wissenschaftslehre schnell als unzureichend und ergänzungsbedürftig ansieht, macht er sich auf dem Höhepunkt seiner Jenaer Periode nahezu zeitgleich an eine neue Ausarbeitung der Wissenschaftslehre (unter dem Namen Wissenschaftslehre nova methodo) und an eine erste Ausarbeitung der praktischen Philosophie (in der "Grundlage des Naturrecht" und der "Sittenlehre"). Inhaltlich stellt sich seit der Grundlage der gesamten Wissenschaftlehre die Frage, warum das absolute Ich, welches autonom ist, auf einen „Anstoß“ reagiert. Fichte macht deutlich, dass das absolute Ich nur ist, wenn es sich seiner selbst bewusst wird. Dies kann nur geschehen, wenn es mit Material konfrontiert wird, auf das es zu reagieren hat. Würde es zu keinem Kontakt kommen, würde das Ich „ganz in seiner Tätigkeit aufgehen“. Um aber zu sein – und damit auch ein Selbstbewusstsein zu entwickeln –, muss es sich für den „Anstoß“ öffnen und dafür Sorge tragen, dass der „Stein des Anstoßes“ erhalten bleibt. Nach Fichte kann das Ich demnach als ein unendliches Streben nach Autonomie verstanden werden. Der „Anstoß“ ist hierbei gleichsam nur notwendige Bedingung des Selbstbewusstseins, keine hinreichende. Die weiteren Bedingungen für das Selbstbewusstsein finden sich in den jeweiligen Teildisziplinen der Wissenschaftslehre, die Fichte unterscheidet: Naturlehre, Rechtslehre, Sittenlehre und Religionslehre. Erstere hat Fichte, aufgrund des von ihm entwickelten Primats der praktischen Vernunft, nie ausgearbeitet. Die Wissenschaftslehre nova methodo. Nachdem Fichte durch seine Vorlesungen über die Grundlage der gesamten Wissenschaftslehre in kürzester Zeit bekannt geworden ist, sieht er seine Philosophie bald mit verschiedenen Einwänden und Nachfragen seiner Zeitgenossen konfrontiert. Zunehmend wird er unzufrieden mit seinem ersten Entwurf der Wissenschaftslehre. Statt den Text der Grundlage der gesamten Wissenschaftslehre zu revidieren, entschließt er sich, die Wissenschaftslehre vollkommen neu auszuarbeiten. Das Ergebnis trägt er unter dem Namen Wissenschaftslehre nova methodo ab 1796 in Vorlesungen vor, die heute jedoch nur noch als Mitschriften überliefert sind. Dennoch wird die Wissenschaftslehre nova methodo in der neueren Fichteliteratur zunehmend als beste und verständlichste Fassung der fichteschen Wissenschaftslehre angesehen. Inhaltlich bemüht sich Fichte darum, von seinen Zeitgenossen formulierte Einwände zu widerlegen und die Wissenschaftslehre stringenter und nachvollziehbarer vorzutragen. Verschiedene Themenbereiche – etwa die Behandlung der Frage, wie es vom einheitlichen absoluten Ich zur Pluralität individuellen Bewusstseins kommen kann – kommen gegenüber der ersten Behandlung der Wissenschaftslehre neu hinzu. Fichtes Rechtslehre. In seinen „Grundlagen des Naturrechts nach Prinzipien der Wissenschaftslehre“ von 1796/1797 (§ 8) bestimmte Fichte die Funktion des Rechts ähnlich wie Kant: Das Beisammenstehen der Freiheit mehrerer sei "nur dadurch möglich, daß jedes freie Wesen es sich zum Gesetz mache, seine Freiheit durch den Begriff der Freiheit aller übrigen einzuschränken." Doch schloß für ihn eine vernünftige Ordnung der Freiheit auch eine angemessene Verteilung gemeinschaftsbedingter Chancen und Güter ein. Für Fichte wird die Beziehung zwischen dem Selbstbewusstsein und – sozusagen – der Welt präzisiert. Das Bewusstsein kann sich nur als frei handelndes Wesen begreifen, wenn es „den Begriff eines frei handelnden Wesens auf sich anwenden kann.“ Das kann es nur, wenn andere das Selbstbewusstsein auffordern etwas zu tun und gleichzeitig(!) die Freiheit eingestehen, dieser Aufforderung nicht nachzukommen. Da dieser Vorgang reziprok ist, folgt, dass das Sein des Selbstbewusstseins von der Anerkennung der Freiheit anderer abhängt. Es wird deutlich, dass sich Fichte nicht auf das Moralgesetz als die bindende Kraft des Rechts versteht, sondern das Eigeninteresse des selbstbewussten Ichs. Ein Rechtsverhältnis entsteht demnach aufgrund der bloßen Existenz eines Nicht-Ichs. Auch Fichte definiert, wie so mancher Philosoph vor ihm, den Staat als Ausdruck des absoluten Willens, dessen Absicht es ist, die Freiheit und Rechte seiner Bürger zu garantieren. Kollektives Handeln und individuelles Handeln werden mit dem Ausdruck „sittliches Handeln“ in Eins gesetzt. Freiheit in der Geschichte sei nach Fichte die mehr oder weniger sittliche Gestaltung gesellschaftlicher Verhältnisse der verschiedenen Völker. Fichtes Philosophie lässt sich als ethischer Idealismus bezeichnen, wenn man voraussetzt, dass nur der Staat Rechtsverhältnisse zwischen sich und den Bürgern bzw. unter den Bürgern schafft und dabei Beschränkungen seiner Bürger zugunsten eigener materieller Zwecke vornimmt. Fichtes Sittenlehre. Im „System der Sittenlehre nach den Prinzipien der Wissenschaftslehre“ von 1798 geht Fichte davon aus, dass das Selbstbewusstsein des absoluten Ichs nur sein kann unter der Bedingung des Bewusstseins des Sittengesetzes. Hierbei ist sich das Ich des Sittengesetzes niemals in abstracto bekannt, sondern „immer in Form konkreter Aufgaben und Pflichten der Welt“. Das Ich kann sich nur eine Tätigkeit zuschreiben, wenn diese mit der kausalen Wirklichkeit einer ihm unabhängigen Welt verbunden ist. Dies wiederum ist nur möglich, wenn es sich einen Körper zuschreibt. Da dieser Körper Teil der Welt ist, unterliegt er auch den Naturtrieben. Das Sittengesetz untersucht nun die Bedingungen der Manifestation eines zugleich verkörperten und von Naturtrieben beherrschten Ich. Fichtes Religionslehre. Fichte hinterließ keine systematisch ausgearbeitete Religionsphilosophie. Im Atheismusstreit, den Friedrich Karl Forberg mit einem Artikel im "Philosophischen Journal" mit einem zustimmenden Nachwort von Fichte 1798 ausgelöst hatte, postulierte Fichte mit Forberg, die Existenz Gottes sei nicht notwendig für die Errichtung einer moralischen Wertordnung, allerdings sei der Glaube an Gott, verbunden mit einer göttlichen Moral, unumgänglich. Während Kant von der Existenz Gottes ausging und seine These untermauerte, die Existenz Gottes sei notwendig im Hinblick auf die Bedingungen der Möglichkeit sittlichen Handelns, sah Fichte nur die Notwendigkeit zu einer „moralischen Weltordnung“. Diese müsse nicht zwingend auf eine höhere Instanz – also Gott – zurückgeführt werden. Die aktive Weltordnung selbst („ordo ordinans“) könne man als Gott bezeichnen. Wer dies aber tut, der „verkennt die unmittelbare Beziehung des Gottesbegriffs zum moralischen Bewusstsein“ und ist, so Fichte, der wahre Götzendiener und Atheist.“ Beitrag zur Französischen Revolution (1793). Johann G. Fichte als Freiwilliger im Kampf gegen NapoleonZeitgenössische Karikatur Deutlich wie wenige Denker und Politiker des damaligen Deutschland begrüßt Fichte die Französische Revolution. Er sieht in ihr nicht nur moralische Gründe, sondern auch einen rechtmäßigen Fortschritt zu mehr Gleichheit und Freiheit. Seine beiden Revolutionsschriften von 1793 („Zurückforderung der Denkfreiheit von den Fürsten Europens, die sie bisher unterdrückten“ und „Beiträge zur Berichtigung der Urteile des Publikums über die Französische Revolution“) griffen in die öffentlichen Debatten ein. Er begründet die Rechtmäßigkeit der Revolution in Anlehnung an Jean-Jacques Rousseaus „Contrat social“ mit dem Argument, dass es ein „unveräußerliches Recht des Menschen“ sei, einen Gesellschaftszustand „aufzuheben“, der zu einem System der Unterdrückung verkommen ist. Denn dieser behindere den geistigen Fortschritt des Menschengeschlechts, welcher zum wahren Endzweck des Menschen hinzuführen habe, zu seiner Autonomie: „völlige Unabhängigkeit von allem, was nicht Wir selbst, unser reines Selbst ist“. Aus dem Kontrast zwischen dem wahren Endzweck des Menschen und der realen Verfasstheit der zeitgenössischen Staaten, welche diesem Endzweck vollkommen entgegengesetzt sind, entwickelt Fichte die tiefere, philosophische Legitimität der Veränderung der Staatsverfassung. Fichtes judenfeindliche Äußerungen. In seiner 1794 erschienen Streitschrift "Eisenmenger der Zweite" polemisierte Saul Ascher gegen die judenfeindlichen Äußerungen Fichtes, dem er den Namen des seinerzeit bekannten Judenfeindes Johann Andreas Eisenmenger, des Autors des Pamphlets "Entdecktes Judentum" beilegte. Mit Fichte sei eine neue Dimension des säkularen Judenhasses zu verzeichnen. Mit David Veit lernte Fichte einen Vertreter der jüdischen Aufklärung Haskala kennen und schätzen. Als Rektor der Berliner Universität trat er kompromisslos und gegen allgemeinen Widerstand für einen zu Unrecht vom Senat der Universität bestraften und mit Relegation bedrohten jüdischen Studenten ein. Während vielfach eine „liberal-progressive“ Rezeption Fichtes – auch unter jüdischen Intellektuellen – vorherrschte, entwickelte sich später, insbesondere im Gefolge des Ersten Weltkrieges, auch eine „völkisch-nationalistische“ Rezeption. Dabei gewannen sowohl die "Grundzüge" als auch die "Reden" Fichtes erneut an Bedeutung, indem sie in den Dienst des nationalistischen Pathos und der Judenhetze gestellt wurden. Die Nationalsozialisten nahmen dabei Fichte zur Begründung ihrer Ideologie in Anspruch. Die Grundzüge des gegenwärtigen Zeitalters (1806). Fichte in späteren Jahren (Skizze) In den "Grundzügen des gegenwärtigen Zeitalters" entwickelt Fichte Ansichten zu einer Geschichtsphilosophie. Tragender Gedanke dieser Geschichtsphilosophie ist die Entwicklung der Menschheit von der Unfreiheit zur Freiheit. Parallel zu jener inneren Entwicklung der Individuen, gehe die äußere Entwicklung ihrer Position und Bestimmung im Staate. Von der Rolle des Untertan hin zum freien Bürger. Im Vordergrund steht ein Entwicklungsmodell, das die Geschichte in fünf Epochen unterteilt, wobei Fichte seine eigene Epoche als das „Zeitalter der vollendeten Sündhaftigkeit“ verstand, während die "Grundzüge" die künftigen Epochen einleiten sollten. Diese Epochenentwicklung vollziehe sich in folgenden Stufen: 1. Instinktive Vernunft: Stand der Unschuld des Menschengeschlechts; 2. Äußerlich erzwungene, jedoch nicht durch Gründe überzeugende Autorität: Stand der anhebenden Sünde; 3. Emanzipation von jeder äußeren Autorität, Herrschaft des nackten Erfahrungsbegriffs: Stand der vollendeten Sündhaftigkeit; 4. Rückkehr der freien, innerlichen Vernunft, wo die Wahrheit als das höchste erkannt und geliebt wird: Stand der anhebenden Rechtfertigung; 5. Verwirklichung der freien, innerlichen Vernunft in allen äußeren Lebensbereichen, wo die Menschheit sich selber als Abdruck der Vernunft aufbaut: Stand der vollendeten Rechtfertigung und Heiligung. Reden an die deutsche Nation (1808). Die "Reden an die deutsche Nation" verstehen sich als Fortsetzung der "Grundzüge des gegenwärtigen Zeitalters". Drei Jahre nach diesen Vorträgen erklärt Fichte das Ende der dort beschriebenen dritten Epoche, die er in den "Reden …" als die Epoche der Selbstsucht bezeichnet. Durch die Besetzung Deutschlands durch die napoleonischen Truppen sei diesem mit der Selbständigkeit gleichzeitig der Gehalt der Selbstsucht verloren gegangen. Es müsse ein neues Selbst gesucht werden, welches über die Nation hinausgehe. Dieses sei die Vernunft. In den "Reden" ruft Fichte im Bereich der Bildung zu einer Nationalerziehung nach dem Vorbild von Johann Heinrich Pestalozzi auf, die das menschliche Verhältnis zur Freiheit in der Vernunft- und Werterziehung verankern soll. Auch hier geht es wieder um die sittliche Bildung zur Freiheit, zur Selbständigkeit, zur Veredelung. In dieser Erhebung zur Vernunft, zum wahren Selbst, welches in der allgemeinen Vernunft zu finden ist, die jede Nation übersteigt, entfällt für Fichte auch die mögliche Feindschaft zu anderen freien Individuen und Nationen, denn der so gebildete Mensch strebe danach, seine Mitmenschen zu achten, und liebe ihre Freiheit und Größe, während ihn ihre Knechtschaft schmerze: „Aber es ist schlechthin unmöglich, dass ein solches Gemüt nicht auch außer sich an Völkern und einzelnen ehre, was in seinem Innern seine eigne Größe ausmacht: die Selbständigkeit, die Festigkeit, die Eigentümlichkeit des Daseins.“ In den "Reden" finden sich mit einer klar konturierten Ausdifferenzierung der Menschheit in nicht gleichwertige Sprach- und Kulturgemeinschaften sowie dem grundsätzlichen Streben nach deren Reinheit Ansätze einer rassistischen Theoriebildung. Johann-Gottlieb-Fichte-Stiftung. 1996 wurde die der rechtskonservativen Partei Die Republikaner nahestehende "Johann-Gottlieb-Fichte-Stiftung e.V." gegründet, die sich nach eigenen Angaben der Vermittlung von traditionellen Werten im Sinne des Philosophen widmet. John Coltrane. John William „Trane“ Coltrane (* 23. September 1926 in Hamlet, North Carolina; † 17. Juli 1967 in New York City) war ein bedeutender US-amerikanischer Jazz-Saxophonist. Anfangs spielte er Altsaxophon, seit den frühen 1950er Jahren fast ausschließlich Tenor- und ab 1960 auch Sopransaxophon. Sein Stil. Coltranes eigener Stil entwickelte sich in der Ära des Modern Jazz vom Hard Bop bis zum Modalen Jazz und geht schließlich sogar zum Free Jazz über. In der zweiten Hälfte der 1950er Jahre entfaltete er, unter anderem von Dexter Gordon beeinflusst und über Charlie Parker hinausgehend, seine eigene Spielweise, die einen sehr durchdringenden, hellen Klang auf seinem Tenorsaxophon mit extremer rhythmischer Verdichtung der Notenwerte verband, bei gleichzeitiger Erweiterung und Verfeinerung des Bebop-Vokabulars im harmonisch-melodischen Bereich. Diese Spielweise wurde von dem amerikanischen Jazzkritiker Ira Gitler mit dem Begriff „sheets of sounds“ (Übersetzung: „Klangflächen“) bezeichnet. Nachdem Coltrane durch seine Zusammenarbeit mit Miles Davis die modale Spielweise kennengelernt hatte, vertiefte er sich in zunehmendem Maße in Experimente mit Skalen und deren Möglichkeiten. Darin auch von der indischen Musik (Ravi Shankar) beeinflusst, fiel die Wahl des Vornamens für einen seiner Söhne auf Ravi, Ausdruck seiner Bewunderung für den Sitar-Virtuosen. Ab Mitte der 1960er-Jahre öffnete er sich auch freien Spielformen, wie auf dem Album "Ascension" (1965) und erforschte in seinem Spiel die sich ihm dadurch bietenden Möglichkeiten konsequent. All diese Erkundungen und Erkenntnisse fanden Eingang in Coltranes letzte Platteneinspielung "Expression", die von vielen als sein Vermächtnis angesehen wird. 1926–1945 – High Point und Philadelphia. John Coltranes Mutter, Alice Gertrude Blair (1898–1977), stammte aus einer bekannten und ehrwürdigen Familie in Hamlet (North Carolina); ihr Vater war Reverend William Wilson Blair, der die methodistische Episcopal Zion Church in High Point leitete. Nach ihrer Graduierung zog Alice Blair nach Hamlet und lernte die Familie des Predigers William H. Coltrane kennen. Dessen Sohn war John Robert Coltrane (1901–1939); Anfang 1925 heirateten die beiden. "Coltrane" war der Name weißer schottischstämmiger Familien, die den Nachnamen an ihre damaligen Sklaven weitergegeben hatten. Ein erstes Kind starb schon bald nach der Geburt; am 23. September 1926 kam John William zur Welt, dessen zweiter Vorname nach den beiden Großvätern gewählt wurde. Schon wenige Monate nach Johns Geburt zog die Familie nach High Point zu Alice Geschwistern. Johns Tante Bettie und seine Cousine Mary (* 1927) wurden nun zu wichtigen Bezugspersonen Johns; später sollte er Mary seine Komposition „Cousin Mary“ widmen. John wuchs in einem geordneten Umfeld auf, das stark durch die Blair-Verwandtschaft und das religiöse Milieu der Methodisten-Gemeinde bestimmt war, während die Familie Coltrane eine weniger bedeutsame Rolle spielte. Über den Großvater kam Coltrane schon als kleines Kind mit geistlicher Musik in Berührung. Seine Familie war musikalisch, sein Vater spielte mehrere Instrumente. Mit zwölf Jahren bekam er von den Eltern seine erste Klarinette geschenkt und nahm klassischen Musikunterricht. Bis zu seinem zwölften Lebensjahr soll seine Kindheit sehr glücklich gewesen sein; eine Reihe von Todesfällen überschattete schließlich das Jahr 1939; so starben kurz hintereinander erst seine Tante, im Januar sein Vater an Magenkrebs; im April seine Großmutter. In dieser Zeit wurde die Musik zu einem wichtigen Bestandteil des jungen Coltrane. Ab September 1939 besuchte er die Highschool. Nach dem Tod des Vaters, der in einer Wäscherei gearbeitet hatte, geriet die Familie in eine schwierige finanzielle Lage; während John sein letztes Jahr auf der Highschool verbrachte, zog Alice 1942 nach Philadelphia, wo sie Arbeit als Dienstmädchen fand; die Mutter konnte gerade das Geld für die Musikschule aufbringen. a>. Ihr Sohn, beschrieben als ruhiger und eher stiller Schüler, spielte schon bald im Schulorchester und war als Fußballer aktiv. In der Highschool-Zeit lernte er Altsaxophon und machte erste Gehversuche im Jazz, beeinflusst durch schwarze Swing-Bands, die im Radio gesendet wurden, vor allem aber durch Lester Young, der als einer der ersten gängige Swingklischees vermied. Nach seiner Graduierung im Mai 1943 zog auch John mit zwei Freunden nach Philadelphia; Alice und John Coltrane lebten in der 1450 North Street. John fand bis zu seiner Einberufung zum Militärdienst Arbeit in einer Zuckerraffinerie; daneben nahm er Unterricht an der "Ornstein School of Music" bei Mike Guerra, der ursprünglich Klarinettist war. John Coltrane kehrte in den folgenden Jahren nur noch selten in seinen Heimatstaat zurück; er bevorzugte den Norden auch wegen der weniger starken Rassendiskriminierung. Dennoch wirkte sich die Bindung an North Carolina weiterhin aus; seine erste Frau Naima stammte von dort und Coltrane arbeitete fortan mit einer Reihe von Musikern mit familiären Bindungen nach North Carolina, wie mit Dizzy Gillespie, Thelonious Monk, Jimmy Heath und McCoy Tyner. 1958 schrieb Coltrane den Titel „Goldsboro Express“, benannt nach einer Stadt in North Carolina; seine späte Komposition „Welcome“ nimmt auch Bezug auf eine Kleinstadt nahe seines Heimatortes High Point. 1945–1950 – Beginn der Karriere. John Coltrane bei der Kriegsmarine(1945) 1945 bekam er einen ersten Job in einer Tanz-Band, bevor er in die Navy eingezogen wurde. Dort spielte er in einer Jazzband, als er auf Hawaii stationiert war. 1946 wurde er aus dem Dienst entlassen und studierte bei dem Gitarristen und Komponisten Dennis Sandole Jazz-Theorie, was er bis in die 1950er Jahre fortsetzte. Zunächst begann er auf dem Altsaxophon zu spielen, war Mitglied der Joe Webb-Bluesband, die die Sängerin Big Maybelle begleitete, und wechselte dann bei Eddie „Cleanhead“ Vinson zum Tenorsaxophon, da dieser keinen weiteren Altsaxophonisten neben sich duldete. Coltrane äußerte sich später zu diesem Punkt: "„a wider area of listening opened up for me. There were many things that people like Hawk, and Ben, and Tab Smith were doing in the ’40s that I didn’t understand, but that I felt emotionally.“" Ein weiterer wichtiger Punkt seiner musikalischen Entwicklung war das erste Erlebnis eines Charlie Parker-Konzerts am 5. Juni 1945. In einem Down Beat Artikel schrieb er 1960: "„the first time I heard Bird play, it hit me right between the eyes.“" Parker wurde darauf zu seinem frühen Vorbild; die beiden spielten auch Ende der 1940er-Jahre gelegentlich miteinander. Hierbei kam es auch 1947 zur ersten Session im New Yorker "Audubon Ballroom" mit Miles Davis, der für den weiteren Verlauf seiner Karriere immens wichtig werden sollte. In dieser Zeit entstand auch sein Spitzname „Trane“, wie man anhand von zeitgenössischen Briefwechseln feststellte. Coltranes Ausflüge nach New York blieben aber die Ausnahme; sein Hauptbetätigungsfeld blieb die lokale Szene in Philadelphia. Anfang des Jahres 1945 entstanden dort die ersten Aufnahmen, an denen Coltrane mitwirkte; er spielte dabei in der "Jimmy Johnson Big Band", die ein inzwischen vergessener Schlagzeuger leitete, in der aber auch Benny Golson, Ray Bryant und Tommy Bryant spielten. In der Musikerszene kam er mit Heroin in Berührung, das damals eine Modedroge war, und wurde schließlich abhängig. Dennoch behielt er auch in dieser Zeit ein tägliches Übungspensum von mehreren Stunden bei. Nachdem er noch in Philadelphia eine kurzlebige Formation mit Jimmy Heath, Benny Golson und Cal Massey gegründet hatte, spielte er in New York mit Howard McGhee im Apollo Theater; Anfang 1949 tritt er im Audubon Ballroom mit Bud Powell, Art Blakey und Sonny Rollins auf. Dann wurde er durch Vermittlung von Jimmy Heath 1949 Mitglied der "Dizzy Gillespie Big Band", allerdings schnell wieder entlassen, weil Dizzy Gillespie Coltranes Drogensucht nicht akzeptierte. Zuvor entstanden im November 1949 Aufnahmen für Capitol. In der Musikerszene gab man ihm den Spitznamen "Country Boy", weil er oft barfuß durch die Gegend lief. Nach seinem Rauswurf fand er Arbeit in der Rhythm and Blues-Band von Earl Bostic, mit dem auch einige Aufnahmen entstanden. Nach einem Gastspiel in einer Showband kehrte er nach Philadelphia zurück und hatte kurze Engagements in lokalen R&B-Bands. 1954 lernte er Naima, seine erste Frau kennen und fand Arbeit im Orchester seines früheren Idols, dem Altsaxophonisten Johnny Hodges, dessen lyrische Spielweise und Klangfarbe zu Coltranes wichtigsten Erfahrungen zählen. Er blieb bis 1955 in der Hodges-Band, dem kurze Engagements bei Shirley Scott und Jimmy Smith folgten, bevor ihn Miles Davis auf Vorschlag von Philly Joe Jones anfragte. In Baltimore fanden erste Probenaufnahmen statt; dort heiratete Coltrane am 3. Oktober 1955 Naima. 1955–1960 – Miles Davis Quintet. Der Eintritt in das legendäre (erste) Miles Davis-Quintett bedeutete für Coltrane den Durchbruch; Davis war zu diesem Zeitpunkt bereits ein Star. Coltrane spielte Tenorsaxophon, behielt dabei aber die Intonation des Alt bei und entwickelte seinen charakteristischen Klang. Erste Aufnahmen („Budo“ und „Little Melonae“) entstanden Ende Oktober für Columbia, obwohl Davis noch bei Prestige unter Vertrag stand, als "Miles Davis All-Stars". Doch bereits im Herbst des folgenden Jahres warf Davis Coltrane wegen dessen Drogensucht erneut aus der Band. Coltrane zog sich zurück und konnte mit Hilfe Naimas vom Heroin loskommen. Daneben entstanden 1956 Prestige-Sessions mit Elmo Hope, Sonny Rollins („Tenor Madness“), Tadd Dameron ("Mating Call"), Idrees Sulieman und Paul Chambers. Ein Jahr nach seinem Drogenentzug kehrte er auf die Bühne zurück und stürzte sich mit neuer Energie in die Arbeit. Er arbeitete unter anderem mit Thelonious Monk, mit dem er im Oktober 1957 das Album "Monk’s Music" aufnahm. Aus dem Zusammenspiel mit Monk brachte er die an den Kirchentonarten orientierten Skalen ein. Diese „modale“ Spielweise überwindet die herkömmliche, an Harmoniefolgen gebundene Improvisation. In der Folge wurden Coltranes Soli immer länger und ekstatischer. In den Jahren 1957 und 1958 entstanden eine große Reihe hastig eingespielter Coltrane-Alben für Prestige im Stile von "Blowing Sessions"; aus dieser Menge heraus ragte sein einziges Album für Blue Note Records, "Blue Train", das er im September 1957 mit einer Bläsergruppe aus Curtis Fuller und Lee Morgan einspielte. In jenen Jahren von etwa 1957 bis 1960 perfektionierte er eine neue Spielweise, welcher der Jazz-Kritiker Ira Gitler den Namen „sheets of sound“ gab, zu deutsch Klangflächen. Dabei verdichtete er ungewöhnlich akzentuierte Arpeggios zu verflochtenen Soundmustern hoher Virtuosität. Das Spiel verlief so schnell, dass neben dem aktuellen Ton noch die vorherigen Töne in der Luft lagen. Hierbei wurden die horizontalen Linien mehr gewichtet und die althergebrachten schemenartigen Akkordmuster und -Verbindungen bewusst vernachlässigt, der Takt wurde aufgelöst. In Augenblicken höchster Intensität nahm sein Spiel die Qualität von Urlauten an. Der besondere Reiz dieser Technik besteht darin, dass die Musik vielsagend wird, weil oft nicht klar ist, in welcher Tonart Coltrane genau spielt. Wichtig ist, dass der Pianist eingewiesen ist. Monk beispielsweise spielte statt eines C-Dur-Dreiklanges nur das c, womit er die Tonart nicht eindeutig vorgab. In dieser Zeit trat Coltrane – mehr oder weniger notgedrungen, denn er benötigte Material für seine neue Spielweise – als Komponist hervor. Anfang 1958 hatte er ein gemeinsames Quintett mit dem Flügelhornisten Wilbur Harden ("Mainstream 1958"). Von 1958 bis 1960 spielte er dann auch wieder im Davis-Quintett. Die beiden herausragenden Alben "Milestones" und "Kind of Blue" entstanden. Die 1960er Jahre. Im Jahr 1959 entstanden erste Aufnahmen für das Label Atlantic Records, zunächst mit Milt Jackson ("Bags & Trane"). 1960 erschien sein Album "Giant Steps" – ein Titel, der durchaus wörtlich zu nehmen ist. 1961 wurde dann "My Favorite Things" veröffentlicht. Das Titelstück dieses Albums (im Drei-Viertel-Takt) stammt aus dem Rodgers-und-Hammerstein-Musical The Sound of Music. Coltrane spielte Sopransaxophon und verhalf diesem im Jazz seit längerer Zeit relativ selten gespielten Instrument damit zu einer Renaissance. Dieser Erfolg machte das "John Coltrane Quartet" neben Miles Davis’ Quintett zu einer der einflussreichsten Jazz-Gruppen der 1960er-Jahre. Neben Coltrane bestand die klassische Besetzung aus McCoy Tyner (Piano) sowie Elvin Jones (Schlagzeug). Jimmy Garrison löste im Herbst 1961 seine Vorgänger am Bass, Steve Davis und Reggie Workman, ab und vervollständigte das Quartett. Diese Besetzung sollte sich nun für die nächsten Jahre nicht verändern. Bei einigen Live-Aufnahmen im "Village Vanguard" wirkte auch der Avantgarde-Saxophonist Eric Dolphy mit, der zuvor bereits mit Ornette Coleman und Charles Mingus zusammengespielt hatte. Die Mitschnitte aus dem "Village Vanguard" verstörten zahlreiche Jazzkritiker, führten zu einer Kontroverse im Down Beat und zum Ausscheiden Dolphys im März 1962. Danach entstanden zwei eher konservative Alben, "Coltrane" und "Ballads". Seine Auftritte auf dem Newport Jazz Festival in den Jahren 1963 (mit Roy Haynes) und 1965 sind auf der 2007 erschienenen Edition ' dokumentiert. Musikalisch sprengte Coltrane die Fesseln des herkömmlichen Jazz und nahm in sein Spiel beispielsweise afrikanische und orientalische Einflüsse auf. Eine der wichtigsten Platten mit dem klassischen Quartett ist die Suite "A Love Supreme" aus dem Jahre 1964 (Impulse!), bei welcher Coltranes spirituelle Ausrichtung deutlich wird, die sich im vorangegangenen melancholischen Album Crescent andeutete. Coltrane, der auch den psalmenartigen Text schrieb und sang, schuf das Werk nach Lektüre des Buches "The Greatest Thing In The World" von Henry Drummond, einem evangelikalen Autor des 19. Jahrhunderts. In der zweiten Hälfte der 1960er-Jahre orientierte sich John Coltrane immer stärker am offenen Spiel des Free Jazz. Elvin Jones wurde durch den Schlagzeuger Rashied Ali erst ergänzt, später dann ersetzt, der auch ungebundene Metren spielte; für McCoy Tyner kam Coltranes zweite Frau Alice Coltrane (sie spielte Piano und Harfe, ein im Jazz selten vertretenes Instrument). Zumeist verstärkte der Saxophonist Pharoah Sanders die Intensität der Saxophonklänge, wie in seinem letzten aufgezeichneten Konzert im April 1967 ("The Olatunji Concert"). Musikalisch war Coltrane auf der Suche nach neuen Klängen. Seine künstlerische Existenz erläuterte er dahingehend, dass er die Menschen mit all seiner Kraft seelisch habe aufrichten wollen. Er verstand sich mithin als Anregung, dass jedermann seine Energiequellen vollkommen freisetzt, um ein sinnvolles Leben gestalten zu können. Dabei blieb sein Stil immer eigenständig und in seiner Geschwindigkeit und Komplexität auch unvergleichlich. Er veröffentlichte innerhalb von zwölf Jahren etwa 50 Aufnahmen mit seiner eigenen Band und ein Dutzend mit anderen Bands. John Coltrane starb 1967 an Leberkrebs. John und Alice Coltrane hatten drei gemeinsame Kinder, den Schlagzeuger John Coltrane Jr. (1982 bei einem Autounfall tödlich verunglückt) und die Saxophonisten Oran und Ravi. Seine Tochter, die Sängerin Miki Coltrane, stammt aus Johns Ehe mit Naima. Ehrungen. Seine Aufnahme "Lush Life" mit Johnny Hartman, aus dem Album John Coltrane and Johnny Hartman (1963) sowie die Alben "Blue Train" (1957), "Giant Steps" (1960), "A Love Supreme" (1964), "My Favorite Things" (1961) und "Thelonious Monk with John Coltrane" (1961) wurden in die "Grammy Hall of Fame" aufgenommen Die 1971 in San Francisco gegründete Saint John Coltrane African Orthodox Church verehrt den Musiker als einen Heiligen. Nach ihm wurde der Asteroid Coltrane benannt. Entwicklung des John Coltrane Quartet. Zur Bandgeschichte siehe "John Coltrane Quartet". Johann Wolfgang von Goethe. Johann Wolfgang von Goethe (* 28. August 1749 in Frankfurt am Main als Johann Wolfgang Goethe; † 22. März 1832 in Weimar, geadelt 1782) gilt als einer der bedeutendsten Repräsentanten deutschsprachiger Dichtung. Goethe stammte aus einer angesehenen bürgerlichen Familie; sein Großvater mütterlicherseits war als Stadtschultheiß höchster Justizbeamter der Stadt Frankfurt, sein Vater Doktor der Rechte und kaiserlicher Rat. Er und seine Schwester Cornelia erfuhren eine aufwendige Ausbildung durch Hauslehrer. Dem Wunsch seines Vaters folgend studierte Goethe in Straßburg und Leipzig Rechtswissenschaft und war danach als Advokat in Wetzlar und Frankfurt tätig. Gleichzeitig folgte er seiner Neigung zur Dichtkunst, mit dem Drama "Götz von Berlichingen" erzielte er einen frühen Erfolg und Anerkennung in der literarischen Welt. Als Sechsundzwanzigjähriger wurde er an den Hof von Weimar eingeladen, wo er sich schließlich für den Rest seines Lebens niederließ. Er bekleidete dort als Freund und Minister des Herzogs Carl August politische und administrative Ämter und leitete ein Vierteljahrhundert das Hoftheater. Die amtliche Tätigkeit mit der Vernachlässigung seiner schöpferischen Fähigkeiten löste nach dem ersten Weimarer Jahrzehnt eine persönliche Krise aus, der sich Goethe durch die Flucht nach Italien entzog. Die zweijährige Italienreise empfand er wie eine „Wiedergeburt“. Ihr verdankte er die Vollendung wichtiger Werke "(Tasso, Iphigenie, Egmont)." Nach seiner Rückkehr wurden seine Amtspflichten weitgehend auf repräsentative Aufgaben beschränkt. Der in Italien erlebte Reichtum an kulturellem Erbe stimulierte seine dichterische Produktion und die erotischen Erlebnisse mit einer jungen Römerin ließen ihn unmittelbar nach seiner Rückkehr eine dauerhafte, „unstandesgemäße“ Liebesbeziehung zu Christiane Vulpius aufnehmen, die er erst achtzehn Jahre später mit einer Eheschließung amtlich legalisierte. Goethes literarische Produktion umfasst Lyrik, Dramen, Epik, autobiografische, kunst- und literaturtheoretische sowie naturwissenschaftliche Schriften. Daneben ist sein umfangreicher Briefwechsel von literarischer Bedeutung. Goethe war Vorbereiter und wichtigster Vertreter des Sturm und Drang. Sein Roman "Die Leiden des jungen Werthers" machte ihn in Europa berühmt. Selbst Napoleon bat ihn zu einer Audienz anlässlich des Erfurter Fürstenkongresses. Im Bunde mit Schiller und gemeinsam mit Herder und Wieland verkörperte er die Weimarer Klassik. Die "Wilhelm-Meister"-Romane wurden zu beispielgebenden Vorläufern deutschsprachiger Künstler- und Bildungsromane. Sein "Faust" errang den Ruf als das bedeutendste Werk der deutschsprachigen Literatur. Im Alter wurde er auch im Ausland als Repräsentant des geistigen Deutschland angesehen. Im Deutschen Kaiserreich wurde er zum deutschen Nationaldichter und Künder des „deutschen Wesens“ verklärt und als solcher für den deutschen Nationalismus vereinnahmt. Es setzte damit eine Verehrung nicht nur des Werks, sondern auch der Persönlichkeit des Dichters ein, dessen Lebensführung als vorbildlich empfunden wurde. Bis heute zählen Gedichte, Dramen und Romane von ihm zu den Meisterwerken der Weltliteratur. Herkunft und Jugend. Johann Wolfgang von Goethe wurde am 28. August 1749 im heutigen Goethe-Haus am Frankfurter Großen Hirschgraben geboren und wurde evangelisch getauft. Sein aus Thüringen stammender Großvater Friedrich Georg Göthe (1657 bis 1730) hatte sich 1687 als Schneidermeister in Frankfurt niedergelassen und die Schreibweise des Familiennamens geändert. Später war er als Gastwirt und Weinhändler zu Vermögen gekommen. Sein Sohn und Goethes Vater Johann Caspar Goethe (1710–1782) war promovierter Jurist, übte diesen Beruf jedoch nicht aus, sondern lebte von den Erträgen seines ererbten Vermögens, das später auch dem Sohn Leben und Studium ohne finanzielle Zwänge ermöglichen sollte. Er war vielseitig interessiert und gebildet, jedoch auch streng und pedantisch, was wiederholt zu Konflikten in der Familie führte. Goethes Mutter, Catharina Elisabeth Goethe, geb. Textor (1731–1808), entstammte einer wohlhabenden und angesehenen Frankfurter Familie; ihr Vater war als Stadtschultheiß der ranghöchste Justizbeamte der Stadt. Die lebenslustige und kontaktfreudige Frau hatte mit 17 Jahren den damals 38-jährigen Rat Goethe geheiratet. Nach Johann Wolfgang wurden noch fünf weitere Kinder geboren, von denen jedoch nur die wenig jüngere Schwester Cornelia das Kindesalter überlebte. Mit ihr stand der Bruder in einem engen Vertrauensverhältnis, das nach Ansicht des Biographen Nicholas Boyle und des Psychoanalytikers Kurt R. Eissler inzestuöse Gefühle einschloss. Ihren Sohn nannte die Mutter ihren „Hätschelhans“. Die Geschwister erhielten eine aufwendige Ausbildung. Von 1756 bis 1758 besuchte Johann Wolfgang eine öffentliche Schule. Danach wurde er gemeinsam mit der Schwester vom Vater sowie von insgesamt acht Hauslehrern unterrichtet. Goethe erlernte Latein und Griechisch sowie Französisch, Italienisch, Englisch, Hebräisch und das „Judendeutsch“, das „in der Frankfurter Judengasse lebendige Gegenwart war“. Letzteres und auch die lebendigen Sprachen wurden von muttersprachlichen Lehrern unterrichtet. Auf dem Stundenplan standen außerdem naturwissenschaftliche Fächer, Religion und Zeichnen. Überdies lernte er Klavier- und Cellospielen, Reiten, Fechten und Tanzen. Schon früh kam der Junge in Kontakt mit Literatur. Das begann mit den Gutenachtgeschichten der Mutter und mit der Bibellektüre in der frommen, lutherisch-protestantischen Familie. Zu Weihnachten 1753 bekam er von der Großmutter ein Puppentheater geschenkt. Das für diese Bühne vorgesehene Theaterstück lernte er auswendig und führte es immer wieder mit Begeisterung gemeinsam mit Freunden auf. Erste Ansätze seiner literarischen Phantasie bewies der kleine Goethe auch mit seinen (nach eigener Aussage) „aufschneiderischen Anfängen“, wunderliche Märchen zu erfinden und seinen staunenden Freunden in der Ich-Form zur spannenden Unterhaltung aufzutischen. Gelesen wurde viel im Hause Goethe; der Vater besaß eine Bibliothek von rund 2000 Bänden. So lernte Goethe schon als Kind unter anderem das Volksbuch vom Dr. Faust kennen. Im Zuge des Siebenjährigen Krieges war von 1759 bis 1761 der französische Stadtkommandant Graf Thoranc im Elternhaus einquartiert. Ihm und der mitgereisten Schauspieltruppe verdankte Goethe seine erste Begegnung mit der französischen Dramenliteratur. Angeregt durch die vielen erlernten Sprachen, begann er als Zwölfjähriger einen mehrsprachigen Roman, in dem in buntem Durcheinander alle Sprachen zur Geltung kamen. Seinen Biographen Nicholas Boyle und Rüdiger Safranski zufolge war Goethe zwar ein hochbegabtes Kind, aber kein Wunderkind wie etwa Mozart. Er lernte schnell Sprachen und besaß eine „ganz unkindliche Gewandheit im Verfassen von Versen“. Er war „lebhaft, von überschäumendem Temperament und eigensinnig, aber ohne Tiefgang“. Leipzig (1765–1768). Goethe kurz vor seiner Studentenzeit in Leipzig, Ölgemälde von Anton Johann Kern a>“ – Goethes Studentenwohnung in Leipzig Auf Weisung des Vaters begann Goethe im Herbst 1765 ein Jurastudium in Leipzig. Im Gegensatz zum eher altfränkischen Frankfurt war Leipzig eine elegante, weltoffene Stadt, die den Spitznamen "Klein-Paris" trug. Goethe wurde wie jemand behandelt, der aus der Provinz kam, und musste sich zunächst in Kleidung und Umgangsformen anpassen, um von seinen neuen Mitbürgern akzeptiert zu werden. Von seinem Vater mit einem monatlichen Wechsel von 100 Gulden versorgt, verfügte er über doppelt so viel Geld wie ein Student selbst an den teuersten Universitäten damals benötigte. Goethe wohnte in Leipzig in einem Hofgebäude des Hauses Große Feuerkugel am Neumarkt. Da während der Messe die Studenten ihre Unterkunft für die Händler frei machten, zog Goethe zur Messezeit auf ein Bauerngut in Reudnitz, einem Dorf östlich von Leipzig. Obwohl ihn sein Vater der Obhut des Professors für Geschichte und Staatsrecht, Johann Gottlob Böhme, anvertraut hatte und dieser Goethe den gewünschten Wechsel des Studienfachs untersagte, begann er das Pflichtstudium schon bald zu vernachlässigen. Er gab dem Besuch der Poetikvorlesungen von Christian Fürchtegott Gellert den Vorzug, dem die Studenten ihre schriftstellerischen Versuche vorlegen konnten. Da Gellert Verse ungern annahm, reichte er Goethes poetische Versuche (u.a. ein Hochzeitsgedicht auf den Onkel Textor) gleich an seinen Stellvertreter weiter, der davon wenig hielt. Der Maler Adam Friedrich Oeser, bei dem Goethe den Frankfurter Zeichenunterricht fortsetzte, machte ihn mit dem an der Antike orientierten Kunstideal seines Schülers Johann Joachim Winckelmann bekannt. Oeser förderte Goethes Kunstverständnis und künstlerisches Urteilsvermögen. In einem Dankesbrief aus Frankfurt schrieb er ihm, er habe bei ihm mehr gelernt als in all den Jahren an der Universität. Auf Oesers Empfehlung besuchte er im März 1768 Dresden und die Gemäldegalerie. Goethe schloss mit Oesers Tochter Friederike Elisabeth (1748–1829) im Jahre 1765 eine Freundschaft, die sich auch nach seinen Leipziger Jahren noch eine Weile im Briefwechsel erhielt. Oeser blieb auch selbst mit Goethe bis zu dessen Aufbruch nach Straßburg durch Briefe in engerem Kontakt. Ihre Verbindung hat bis zum Tode von Oeser angehalten. Beim Kupferstecher Johann Michael Stock erlernte Goethe in seiner Leipziger Studentenzeit die Techniken des Holzschnitts und der Radierung. Fern dem Elternhaus genoss der 16- und 17-Jährige in Leipzig größere Freiheiten: Er besuchte Theateraufführungen, verbrachte die Abende mit Freunden, oder es wurden Ausflüge in die Umgebung unternommen. In die Leipziger Zeit fiel Goethes „erstes ernsthaftes Liebesverhältnis“. Die Romanze mit der Handwerker- und Gastwirtstochter Käthchen Schönkopf wurde nach zwei Jahren im gegenseitigen Einvernehmen wieder gelöst. Die Gefühlsaufwallungen dieser Jahre beeinflussten Goethes Schreibstil; hatte er zuvor schon Gedichte im regelgerechten Stil des Rokoko verfasst, so wurde ihr Tonfall nun freier und stürmischer. Eine Sammlung von 19 anakreontischen Gedichten, abgeschrieben und illustriert von seinem Freund Ernst Wolfgang Behrisch, ergab das Buch "Annette". Eine weitere kleine Gedichtsammlung wurde 1769 unter dem Titel "Neue Lieder" als erstes von Goethes Werken gedruckt. In ihren jugendlichen Anfängen ist Goethes Dichtung, Nicholas Boyle zufolge, „kompromißlos erotisch“ und befasst sich „ganz direkt mit der machtvollsten Quelle des individuellen Wollens und Fühlens“. Im Juli 1768 erlitt Goethe einen schweren Blutsturz als Folge einer tuberkulösen Erkrankung. Wieder halbwegs reisefähig, kehrte er im August – zur Enttäuschung seines Vaters ohne akademischen Abschluss – ins Frankfurter Elternhaus zurück. Frankfurt und Straßburg (1768–1771). Goethes Wohnhaus in Straßburg, ehemals am "Fischmarkt," jetzt "Rue du Vieux Marché aux Poissons" Die lebensbedrohliche Erkrankung erforderte eine lange Rekonvaleszenz und machte ihn empfänglich für die Vorstellungen des Pietismus, die eine Freundin der Mutter, die Herrnhuterin Susanne von Klettenberg, ihm nahebrachte. In dieser Zeit fand er in seinem Erwachsenenleben vorübergehend den engsten Kontakt zum Christentum. Er beschäftigte sich außerdem mit mystischen und alchemistischen Schriften, eine Lektüre, auf die er später im "Faust" zurückgreifen sollte. Unabhängig davon verfasste er in dieser Zeit sein erstes Lustspiel "Die Mitschuldigen." Im April 1770 setzte Goethe sein Studium an der Universität Straßburg fort. Straßburg war mit 43.000 Einwohnern größer als Frankfurt und im Westfälischen Frieden dem französischen Königreich zugesprochen worden. Der Unterricht an der Universität erfolgte großenteils noch in deutscher Sprache. Diesmal widmete sich Goethe zielstrebiger den juristischen Studien, fand aber auch Zeit, eine ganze Reihe persönlicher Bekanntschaften anzuknüpfen. Die wichtigste davon war die mit dem Theologen, Kunst- und Literaturtheoretiker Johann Gottfried Herder. Goethe nennt es das „bedeutendste Ereignis“ der Straßburger Zeit. Der Ältere öffnete ihm bei den fast täglichen Besuchen die Augen für die ursprüngliche Sprachgewalt von Autoren wie Homer, Shakespeare und Ossian sowie der Volkspoesie und gab so entscheidende Impulse für Goethes dichterische Entwicklung. Später sollte er auf Goethes Fürsprache hin in weimarische Dienste berufen werden. Zu seinem Freundes- und Bekanntenkreis, der sich meist beim gemeinsamen Mittagstisch traf, gehörten auch der spätere Augenarzt und Schriftsteller Jung-Stilling und der Theologe und Schriftsteller Jakob Michael Reinhold Lenz. Obwohl von religiös orientierten Freunden umgeben, wandte er sich in Straßburg endgültig vom Pietismus ab. Durch einen Studienfreund wurde er in die Familie des Pfarrers Brion in Sessenheim (Goethe schreibt Sesenheim) eingeführt. Er lernte dabei die Pfarrerstochter Friederike Brion kennen und lieben. Mit dem Abgang von der Straßburger Universität beendete der bindungsscheue junge Goethe die Beziehung, was für Friederike freilich erst durch einen Brief Goethes aus Frankfurt ersichtlich wurde. Wie Nicholas Boyle diese Episode deutet, musste sich Friederike schwerwiegend kompromittiert fühlen, da Goethe durch sein Verhalten ihr gegenüber als ihr Verlobter gelten konnte. Erschüttert und schuldbewusst nahm Goethe die Nachricht über ihren gesundheitlichen Zusammenbruch auf, die er ihrem späteren Antwortbrief entnahm. Die an Friederike gerichteten Gedichte, die später als "Sesenheimer Lieder" bekannt wurden (u. a. "Willkommen und Abschied, Mailied, Heidenröslein"), sind nach Karl Otto Conrady mit dem Etikett „Erlebnislyrik“ falsch benannt. Die äußere Form der Lyrik biete nichts Neues und auch der sprachliche Ausdruck gehe allenfalls in Nuancen über die gewohnte Gedichtsprache hinaus. Gleichwohl trage das Ich in ihnen individuelle Züge und lehne sich nicht an „vorgegebene Muster schäferlicher Typen“ an, vielmehr erschienen „sprechendes Ich, Geliebte, Liebe und Natur in einer bisher nicht gekannten sprachlichen Intensität“. Im Sommer 1771 reichte Goethe seine (nicht erhaltene) juristische Dissertation ein, die das Verhältnis zwischen Staat und Kirche zum Thema hatte. Die Straßburger Theologen empfanden sie als skandalös; einer von ihnen bezeichnete Goethe als „wahnsinnigen Religionsverächter“. Der Dekan der Fakultät empfahl Goethe, die Dissertation zurückzuziehen. Die Universität bot ihm jedoch die Möglichkeit, das Lizenziat zu erwerben. Für diesen niedrigeren Abschluss brauchte er nur einige Thesen aufzustellen und zu verteidigen. Grundlage der Disputation am 6. August 1771, die er „cum applausu“ bestand, waren 56 Thesen in lateinischer Sprache unter dem Titel "Positiones Juris". In der vorletzten These sprach er die Streitfrage an, ob eine Kindsmörderin der Todesstrafe zu unterwerfen sei. Das Thema griff er später in künstlerischer Form in der Gretchentragödie auf. Advokat und Dichter in Frankfurt und Wetzlar (1771–1775). Zurück in Frankfurt, eröffnete Goethe eine kleine Anwaltskanzlei, die vornehmlich seinem Vater als „bloße Durchgangsstation“ zu höheren Ämtern (etwa Schultheiß wie der Großvater) galt. Die Advokatur betrieb er mit bald nachlassendem Interesse und geringem Arbeitseifer vier Jahre lang bis zur Abreise nach Weimar. Wichtiger als der Anwaltsberuf war Goethe die Dichtung. Ende 1771 brachte er – innerhalb von sechs Wochen – die "Geschichte Gottfriedens von Berlichingen mit der eisernen Hand" zu Papier. Nach einer Überarbeitung wurde das Drama 1773 als "Götz von Berlichingen" im Selbstverlag veröffentlicht. Das mit allen überlieferten dramatischen Regeln brechende Werk fand begeisterte Aufnahme und gilt als ein Gründungsdokument des Sturm und Drang. Im Januar 1772 erlebte Goethe in Frankfurt die „düstere Zeremonie“ der öffentlichen Hinrichtung der Kindsmörderin Susanna Margaretha Brandt durch das Schwert. Sie bildete nach Rüdiger Safranski den persönlichen Hintergrund für die „Gretchen-Tragödie“ im "Faust," an dem Goethe Anfang der 1770er Jahre zu arbeiten begonnen hatte. Seine Schwester Cornelia heiratete 1773 den Advokaten Johann Georg Schlosser, Goethes zehn Jahre älteren Freund, der als Anwalt an dem Prozess gegen die Kindsmörderin mitgewirkt hatte. Häufige Besuche stattete er in diesen Jahren dem Darmstädter Kreis der Empfindsamen um Johann Heinrich Merck ab, wobei er 25 Kilometer lange Wanderungen von Frankfurt nach Darmstadt auf sich nahm. Auf Mercks Urteil legte Goethe großen Wert; in seiner Autobiographie bescheinigte er ihm, dass er „den größten Einfluß“ auf sein Leben gehabt habe. Seiner Einladung folgend, schrieb Goethe Rezensionen für die von Merck und Schlosser geleitete Zeitschrift "Frankfurter Gelehrte Anzeigen". Wieder schenkte Goethe den juristischen Studien wenig Aufmerksamkeit. Stattdessen befasste er sich mit den antiken Autoren. Auf einem ländlichen Tanzvergnügen lernte er Kestners Verlobte, Charlotte Buff, kennen, in die er sich verliebte. Goethe wurde regelmäßiger und willkommener Gast im Haus der Familie Buff. Nachdem ihm Charlotte erklärt hatte, dass er auf nichts als ihre Freundschaft hoffen dürfe und Goethe die Hoffnungslosigkeit seiner Lage erkannt hatte, flüchtete er aus Wetzlar. Anderthalb Jahre später verarbeitete er diese Erfahrung sowie weitere eigene und fremde Erlebnisse in dem Briefroman "Die Leiden des jungen Werthers," den er Anfang 1774 innerhalb von nur vier Wochen niederschrieb. Das hochemotionale Werk, das sowohl dem „Sturm und Drang“ wie der gleichzeitigen literarischen Strömung der „Empfindsamkeit“ zugerechnet wird, machte seinen Autor binnen kurzem in ganz Europa berühmt. Goethe selbst erklärte den ungeheuren Erfolg des Buches und das von ihm ausgelöste „Wertherfieber“ später damit, dass es genau die Bedürfnisse der damaligen Zeit getroffen habe. Der Dichter selbst rettete sich mit der schöpferischen Arbeit am "Werther" aus einer eigenen krisenhaften Lebenssituation: „Ich fühlte mich, wie nach einer Generalbeichte, wieder froh und frei, und zu einem neuen Leben berechtigt.“ Gleichwohl hielt er danach ein herzliches Verhältnis zu Kestner und Lotte durch Briefwechsel aufrecht. Bei der Rückkehr aus Wetzlar empfing ihn der Vater mit Vorwürfen, weil der dortige Aufenthalt dem beruflichen Fortkommen des Sohnes nicht dienlich war. Die folgenden Frankfurter Jahre bis zur Abreise nach Weimar zählten zu den produktivsten in Goethes Leben. Außer dem "Werther" entstanden die großen Hymnen (u. a. "Wandrers Sturmlied, Ganymed, Prometheus" und "Mahomets Gesang"), mehrere Kurzdramen (u. a. das "Jahrmarktsfest zu Plundersweilern" und "Götter, Helden und Wieland") sowie die Dramen "Clavigo" und "Stella. Ein Schauspiel für Liebende". Auch griff Goethe in dieser Zeit zum ersten Mal den "Fauststoff" auf. Zu Ostern 1775 verlobte Goethe sich mit der Frankfurter Bankierstochter Lili Schönemann. Gegenüber Eckermann äußerte er sich gegen Ende seines Lebens, sie sei die erste gewesen, die er „tief und wahrhaft liebte“. Zum ersten Mal bot ihm Lili, wie Nicholas Boyle schreibt, „die ganz reale Möglichkeit der Ehe“, aber vor einer solchen Bindung schreckte der junge Dichter zurück. Eine Ehe war mit seinen Lebensplänen nicht vereinbar. Als weitere Hemmnisse kamen die unterschiedlichen Milieus und Konfessionen der Eltern hinzu. Um Abstand zu gewinnen, folgte er einer Einladung der Brüder Christian und Friedrich Leopold zu Stolberg-Stolberg zu einer mehrmonatigen Reise durch die Schweiz. Im Oktober wurde die Verlobung durch Lilis Mutter mit der Erklärung aufgelöst, dass sich eine Heirat wegen der Verschiedenheit der Religionen nicht schicke. Goethe, der unter der Trennung sehr litt, nahm in dieser Situation eine Einladung des 18-jährigen Herzogs Karl August zu einer Reise nach Weimar an. Minister in Weimar (ab 1775). Stadtplan von Weimar zur Zeit Goethes (1784); unten links ist Goethes Garten eingetragen Im November 1775 erreichte Goethe Weimar. Die Hauptstadt des Herzogtums Sachsen-Weimar-Eisenach zählte nur rund 6000 Einwohner (das Herzogtum rund 100.000), durch die Anstrengungen der Herzoginmutter Anna Amalia entwickelte es sich dennoch zu einem kulturellen Zentrum. Zu der Zeit, als Goethe ohne Zweckbestimmung nach Weimar eingeladen wurde, war er bereits ein europaweit berühmter Autor. Er gewann schnell das Vertrauen des acht Jahre jüngeren, im aufgeklärten Geist erzogenen Herzogs Karl August, der seinen Großonkel Friedrich II. wegen seiner Freundschaft mit Voltaire bewunderte. Wie dieser wollte er sich „einen großen Geist zur Seite stellen“. Der Herzog tat alles, um Goethe in Weimar zu halten; er machte ihm großzügige Geschenke u. a. das Gartenhaus im Park an der Ilm. Als der Herzog ihm vorschlug, bei der Leitung des Staates mitzuwirken, nahm Goethe nach einigem Zögern an. Dabei bestimmte ihn das Bedürfnis nach praktisch-wirksamer Tätigkeit. Einer Freundin aus Frankfurt schrieb er: „Ich werd […] wohl dableiben […]. Wär’s auch nur auf ein paar Jahre, ist doch immer besser als das untätige Leben zu Hause wo ich mit der grössten Lust nichts thun kann. Hier hab ich doch ein paar Herzogthümer vor mir.“ Im Staatsdienst. Goethe wurde am 11. Juni 1776 Geheimer Legationsrat und Mitglied des "Geheimen Consiliums," des dreiköpfigen Beratergremiums des Herzogs, mit einem Jahresgehalt von 1200 Talern. Nominell gehörte Goethe dem "Geheimen Consilium" bis zu dessen Auflösung im Jahr 1815 an. Er schrieb am 14. Mai 1780 an Kestner über sein literarisches Schaffen während des Staatsdienstes, dass er seine Schriftstellerei zurückstelle, sich aber „doch erlaube […] nach dem Beispiel des großen Königs, der täglich einige Stunden auf die Flöte wandte, auch manchmal eine Übung in dem Talente, das mir eigen ist.“ Von ehemaligen Freunden aus der "Sturm und Drang"-Periode – wie Lenz und Klinger –, die ihn 1776 in Weimar besuchten, sich längere Zeit dort aufhielten und von Goethe finanziell unterstützt wurden, wandte er sich schließlich schroff ab. Lenz lässt er, nach einer bis heute ungeklärten Beleidigung, gar aus dem Herzogtum ausweisen. Goethes Beamtentätigkeit erstreckte sich ab dem Jahre 1777 auf die Erneuerung des Ilmenauer Bergbaus und ab 1779 auf den Vorsitz zweier ständiger Kommissionen, der Wegebaukommission und der Kriegskommission, mit der Zuständigkeit für die Aushebung der Rekruten für die Weimarer Armee. Sein Hauptanliegen war es, durch Einschränkung der öffentlichen Ausgaben bei gleichzeitiger Förderung der Wirtschaft den völlig verschuldeten Staatshaushalt zu sanieren. Dies gelang zumindest teilweise, z. B. führte die Halbierung der „Streitkräfte“ zu Einsparungen. Schwierigkeiten und die Erfolglosigkeit seiner Bemühungen im Staatsdienst bei gleichzeitiger Arbeitsüberlastung führten in die Resignation. Goethe notierte 1779 im Tagebuch: „Es weis kein Mensch was ich thue und mit wieviel Feinden ich kämpfe um das wenige hervorzubringen.“ Durch Reisen mit dem Herzog machte sich Goethe mit Land und Leuten vertraut. Seine Tätigkeiten führten ihn unter anderem nach Apolda, dessen Not er beschreibt, wie auch in andere Gebiete des Herzogtums. Zumeist im Rahmen dienstlicher Pflichten unternahm Goethe in seinem ersten Weimarer Jahrzehnt mehrere Reisen über die Landesgrenzen hinaus, darunter im Frühjahr 1778 eine Reise nach Dessau und Berlin, von September 1779 bis Januar 1780 in die Schweiz sowie mehrmals in den Harz (1777, 1783 und 1784). Danksagung von Goethe an die Weimarer Loge „Amalia“ zu seinem 50-jährigen Maurerjubiläum (1830) Hofrat Johann Joachim Christoph Bode, der nach Weimar gekommen war, weckte Goethes Interesse an der Weimarer Freimaurerloge „Amalia“. Während seiner Schweizreise unternahm Goethe erste Bemühungen, aufgenommen zu werden, am 23. Juni 1780 trat er der Loge bei. Rasch absolvierte er die üblichen Grade und wurde 1781 zum Gesellen befördert und 1782, zugleich mit Carl August, zum Meister erhoben. Goethe reiste am 7. Oktober 1781 nach Gotha, um Friedrich Melchior Grimm, den deutsch-französischen Autor, Diplomaten und Freund von Denis Diderot und anderen Enzyklopädisten, persönlich zu treffen. Dies war aber nicht das erste Treffen der beiden; bereits am 8. Oktober 1777 hatten sie auf der Wartburg bei Eisenach zusammengefunden. Goethes Tätigkeiten in Ilmenau und seine Bekämpfung der Korruption dort veranlassten den Herzog, ihn 1782 zum Finanzminister zu ernennen. Im selben Jahre noch wurde er zur Aufsichtsperson der Universität Jena ernannt. Auf Antrag des Herzogs erhielt er am 3. Juni 1782 vom Kaiser das Adelsdiplom, das ihm sein Wirken am Hof und in Staatsgeschäften erleichtern sollte. Die Immediatkommissionen zwischen 1776 und 1783 waren Goethes Hauptinstrument zur Durchsetzung von Reformvorhaben, da das „erstarrte“ Behördensystem dazu nicht in der Lage war. Die Reformbemühungen Goethes wurden in den achtziger Jahren durch die Aristokratie im Herzogtum behindert. Der auf Goethes Initiative sanierte Kupfer- und Silberbergbau in Ilmenau erwies sich als wenig erfolgreich, weshalb er 1812 schließlich ganz eingestellt wurde. Mit knapp 33 Jahren hatte Goethe den Gipfel des Erfolgs erklommen. Nach dem Herzog war er der mächtigste Mann in Weimar. Wegen seiner Arbeit für den Herzog wurde er als „Fürstendiener“ und „Despotendichter“ kritisiert. Goethes Wirken im "Consilium" wird in der Literatur unterschiedlich beurteilt. Einigen Autoren gilt er als aufklärerischer Reformpolitiker, der sich unter anderem um die Befreiung der Bauern von drückenden Fron- und Abgabenlasten bemühte; andere stellen heraus, dass er in amtlicher Funktion sowohl die Zwangsrekrutierung von Landeskindern für die preußische Armee als auch Maßnahmen zur Einschränkung der Redefreiheit befürwortete. In einem anderen Fall votierte er für die Hinrichtung der ledigen Mutter "Johanna Catharina Höhn," die ihr Neugeborenes aus Verzweiflung getötet hatte – im Gegensatz zu der verständnis- und mitleidsvollen Haltung, die er später in der Gretchentragödie zum Ausdruck brachte. Dichtung und Naturstudium. In seinem ersten Weimarer Jahrzehnt veröffentlichte Goethe außer einigen in Zeitschriften verstreuten Gedichten nichts. Die tägliche Arbeit ließ ihm zu ernsthafter dichterischer Tätigkeit wenig Zeit, zumal er auch für die Gestaltung von Hoffesten und die Belieferung des höfischen Liebhabertheaters mit Singspielen und Theaterstücken zuständig war. Zu diesen Gelegenheitsproduktionen, die er oft als eine lästige Pflicht ansah, gehört eine Neufassung des "Jahrmarktsfests zu Plundersweilern". Von anspruchsvollen Arbeiten dieser Zeit wurde nur eine erste Prosafassung der "Iphigenie auf Tauris" fertig, begonnen außerdem "Egmont, Tasso" und "Wilhelm Meister". Ferner entstanden einige der bekanntesten Gedichte Goethes; neben den Liebesgedichten für Charlotte von Stein (z. B. "Warum gabst du uns die tiefen Blicke") waren dies unter anderem der "Erlkönig, Wandrers Nachtlied, Grenzen der Menschheit" und "Das Göttliche". Um 1780 begann Goethe, sich systematisch mit naturwissenschaftlichen Fragen auseinanderzusetzen. Er führte dies später auf seine amtliche Beschäftigung mit Fragen des Berg- und Ackerbaus, der Holzwirtschaft usw. zurück. Sein Hauptinteresse galt zunächst der Geologie und der Mineralogie, der Botanik und der Osteologie. Auf diesem Gebiet gelang ihm 1784 die vermeintliche Entdeckung (in Wirklichkeit Wiederentdeckung) des Zwischenkieferknochens beim Menschen. Im gleichen Jahr schrieb er seinen Aufsatz "Über den Granit" und plante ein Buch mit dem Titel "Roman der Erde". Beziehung zu Charlotte von Stein. Die wichtigste und prägendste Beziehung Goethes während dieses Weimarer Jahrzehnts war die zu der Hofdame Charlotte von Stein (1742–1827). Die sieben Jahre Ältere war mit dem Landedelmann Baron Josias von Stein verheiratet, dem Oberstallmeister am Hofe. Sie hatte sieben Kinder mit ihm, von denen noch drei lebten, als Goethe sie kennenlernte. Die 1770 Briefe, Billette, „Zettelgen“ und die zahlreichen Gedichte, die Goethe an sie richtete, sind die Dokumente einer außergewöhnlich innigen Beziehung (Frau von Steins Briefe sind nicht erhalten). Es wird darin deutlich, dass die Geliebte den Dichter als „Erzieherin“ förderte. Sie brachte ihm höfische Umgangsformen bei, besänftigte seine innere Unruhe, stärkte seine Selbstdisziplin. Die Frage, ob es sich auch um ein sexuelles Verhältnis oder um eine reine „Seelenfreundschaft“ handelte, lässt sich nicht mit Sicherheit beantworten. Die Mehrzahl der Autoren geht davon aus, dass Charlotte von Stein sich dem körperlichen Verlangen des Geliebten verweigerte. In einem Brief aus Rom schrieb er, dass der „Gedanke, dich nicht zu besitzen mich […] aufreibt und aufzehrt“. Häufig wird die These des Psychoanalytikers Kurt Eissler vertreten, wonach Goethe seinen ersten Geschlechtsverkehr als 39-jähriger in Rom hatte. Auch sein Biograph Nicholas Boyle sieht in der römischen Episode mit „Faustina“ den ersten sexuellen Kontakt, der dokumentarisch belegt ist. Goethes heimliche Abreise nach Italien 1786 erschütterte das Verhältnis, und nach der Rückkehr kam es zum endgültigen Bruch wegen der von Goethe aufgenommenen festen Liebesbeziehung mit Christiane Vulpius, seiner späteren Ehefrau, die ihm die tief verletzte Frau von Stein nicht verzieh. Sie, deren ganzes Leben und Selbstverständnis auf der Verleugnung der Sinnlichkeit gründete, sah in der Verbindung einen Treuebruch Goethes. Sie forderte ihre Briefe an ihn zurück. Christiane nannte sie nur „das Kreatürchen“ und meinte, Goethe habe zwei Naturen, eine sinnliche und eine geistige. Erst im Alter fanden beide erneut zu einer freundschaftlichen Beziehung, ohne dass sich der herzliche Umgang von einst wiederherstellte. Goethes kleiner Sohn August, der manche Botengänge zwischen dem Goetheschen und dem von Steinschen Haus erledigte und den Charlotte ins Herz geschlossen hatte, gab den Anstoß für eine stockende Wiederaufnahme ihres Briefwechsels ab 1794, der allerdings fortan per „Sie“ geführt wurde. Reise nach Italien (1786–1788). a>," lavierte Tuschzeichnung von Johann Wolfgang von Goethe, 1787 Mitte der 1780er Jahre, auf dem Gipfel seiner Amtskarriere, geriet Goethe in eine Krise. Seine amtlichen Tätigkeiten blieben ohne Erfolgserlebnisse, die Belastungen seiner Ämter und die Zwänge des Hoflebens wurden ihm lästig, die Beziehung zu Charlotte von Stein gestaltete sich zunehmend unbefriedigend. Als ihm der Verleger Göschen 1786 das Angebot einer Gesamtausgabe machte, wurde ihm schockartig klar, dass von ihm in den letzten zehn Jahren nichts Neues erschienen war. Im Blick auf seine dichterischen Fragmente "(Faust, Egmont, Wilhelm Meister, Tasso)" verstärkten sich die Selbstzweifel an seiner Doppelexistenz als Künstler und Amtsmensch. Im Schauspiel "Torquato Tasso" fand Goethe den adäquaten Stoff, um seine widersprüchliche Existenz am Hofe zu gestalten. Er legte sie in zwei Figuren auseinander, Tasso und Antonio, zwischen denen es keine Versöhnung gibt. Während er dem poetischen Ausgleich misstraute, versuchte er noch in der Realität beide Aspekte im Gleichgewicht zu halten. Aber nach der ernüchternden Erfahrung seiner dichterischen Stagnation im ersten Weimarer Jahrzehnt entzog er sich dem Hof durch eine für seine Umgebung unerwartete Bildungsreise nach Italien. Am 3. September 1786 brach er ohne Abschied von einer Kur in Karlsbad auf. Nur sein Sekretär und vertrauter Diener Philipp Seidel war eingeweiht. Den Herzog hatte er nach dem letzten persönlichen Zusammensein in Karlsbad schriftlich um unbefristeten Urlaub gebeten. Am Vortag seiner Abreise kündigte er ihm seine bevorstehende Abwesenheit an, ohne sein Reiseziel zu verraten. Die geheime Abreise mit unbekanntem Ziel war wohl Teil einer Strategie, die es Goethe ermöglichen sollte, seine Ämter niederzulegen, das Gehalt jedoch weiter zu beziehen. Der europaweit berühmte Autor des "Werther" reiste inkognito unter dem Namen Johann Philipp Möller, um sich ungezwungen in der Öffentlichkeit bewegen zu können. Nach Zwischenaufenthalten in Verona, Vicenza und Venedig erreichte Goethe im November Rom. Dort hielt er sich zunächst bis Februar 1787 auf (erster Romaufenthalt). Nach einer viermonatigen Reise nach Neapel und Sizilien kehrte er im Juni 1787 nach Rom zurück, wo er bis Ende April 1788 verweilte (zweiter Romaufenthalt). Auf der Rückreise machte er Zwischenstationen u. a. in Siena, Florenz, Parma und Mailand. Zwei Monate später, am 18. Juni 1788, war er wieder in Weimar. In Rom wohnte Goethe bei dem deutschen Maler Wilhelm Tischbein, der das wohl bekannteste Porträt des Dichters (Goethe in der Campagna) malte. In regem Austausch stand er auch mit anderen Mitgliedern der deutschen Künstlerkolonie in Rom, darunter Angelika Kauffmann, die ihn ebenfalls porträtierte, mit Philipp Hackert, Friedrich Bury, und mit dem Schweizer Maler Johann Heinrich Meyer, der ihm später nach Weimar folgen und dort unter anderem sein künstlerischer Berater werden sollte. In freundschaftlicher Verbindung stand er auch mit dem Schriftsteller Karl Philipp Moritz; im Gespräch mit ihm bildeten sich die kunsttheoretischen Anschauungen aus, die für Goethes „klassische“ Auffassung von der Kunst grundlegend werden sollten und von Moritz in seiner Schrift "Über die bildende Nachahmung des Schönen" niedergelegt wurden. Goethe lernte in Italien die Bau- und Kunstwerke der Antike und der Renaissance kennen und bewundern; seine besondere Verehrung galt Raffael und dem Architekten Andrea Palladio. An dessen Bauten hatte er in Vicenza mit Begeisterung wahrgenommen, dass sie die Formen der Antike zu neuem Leben erweckten. Unter Anleitung seiner Künstlerfreunde übte er sich mit großem Ehrgeiz im Zeichnen; etwa 850 Zeichnungen Goethes sind aus der italienischen Zeit erhalten. Er erkannte aber auch, dass er nicht zum bildenden Künstler, sondern zum Dichter geboren sei. Intensiv beschäftigte er sich mit der Fertigstellung literarischer Arbeiten: Er brachte die bereits in Prosa vorliegende "Iphigenie" in Versform, vollendete den zwölf Jahre zuvor begonnenen "Egmont" und schrieb weiter am "Tasso". Daneben beschäftigte er sich mit botanischen Studien. Vor allem aber „lebte“ er: „Im Schutze des Inkognitos (den deutschen Freunden war seine wahre Identität jedoch bekannt) konnte er sich in einfachen Gesellschaftsschichten bewegen, seiner Freude an Spielen und Späßen freien Lauf lassen und erotische Erfahrungen machen.“ Die Reise wurde für Goethe zu einem einschneidenden Erlebnis; er selbst sprach in Briefen nach Hause wiederholt von einer „Wiedergeburt“, einer „neuen Jugend“, die er in Italien erfahren habe. Er habe sich selbst als Künstler wiedergefunden, schrieb er dem Herzog. Über seine zukünftige Tätigkeit in Weimar ließ er ihn wissen, er wolle von den bisherigen Pflichten befreit werden und das tun, „was niemand als ich tun kann und das übrige anderen auftragen“. Der Herzog gewährte Goethe die erbetene Verlängerung seines bezahlten Urlaubs, so dass er bis Ostern 1788 in Rom bleiben konnte. Ein Ergebnis seiner Reise war, dass er nach seiner Rückkehr nach Weimar die dichterische von der politischen Existenz trennte. Basierend auf seinen Tagebüchern verfasste er zwischen 1813 und 1817 die "Italienische Reise". Beziehung zu Christiane Vulpius (1788–1816). "Christiane Vulpius," Zeichnung von Johann Wolfgang von Goethe Wenige Wochen nach seiner Rückkehr machte Goethe am 12. Juli 1788 Bekanntschaft mit der 23-jährigen Putzmacherin Christiane Vulpius, die ihm gegenüber als Bittstellerin für ihren nach dem Jurastudium in Not geratenen Bruder auftrat. Sie wurde seine Geliebte und bald darauf seine Lebensgefährtin. Goethes Mutter nannte sie den „Bettschatz“. Nicht nur aus den erotischen Anspielungen in den "Römischen Elegien," die Goethe zu jener Zeit verfasste und in denen die Gestalt seiner römischen Geliebten Faustina mit der Christianes verschmolz, folgert Sigrid Damm, dass die beiden „ein sinnesfrohes, in der Liebe mit Phantasie begabtes Paar“ gewesen seien. Als Christiane hochschwanger war, wollte Goethe sie im Haus am Frauenplan aufnehmen, aber auf Wunsch des Herzogs und mit Rücksicht auf die Weimarer Gesellschaft bezog er mit ihr Wohnung vor den Toren der Stadt. Am 25. Dezember 1789 gebar sie den Sohn August Walter. Anlässlich der Taufe bekannte sich Goethe zwar nicht formal zu seiner Vaterschaft, doch wurde das Kind nicht als unehelich geführt. Vier weitere gemeinsame Kinder überlebten die Geburt nur wenige Tage. 1792 stimmte der Herzog dem Umzug ins Haus am Frauenplan zu, welches Goethe mit Christiane mietfrei bewohnen konnte, bevor es 1794 durch eine Schenkung des Herzogs, aus Dankbarkeit für die Begleitung auf den Feldzügen 1792 und 1793, in Goethes Besitz überging. Wenig bekannt ist über Goethes „flüchtige, sentimentale Bindung an eine adelige Dame“, die 21-jährige Henriette von Lüttwitz, die er nach der Geburt Augusts auf seiner Schlesienreise 1790 in Breslau kennengelernt und der er einen Heiratsantrag gemacht hatte, den ihr adeliger Vater ablehnte. Der wenig gebildeten, aus einer in finanzielle Not geratenen Familie stammenden Christiane blieb der Zugang zur Weimarer Gesellschaft, in der Goethe sich bewegte, verschlossen. Sie galt dort als ordinär und vergnügungssüchtig; erschwerend kam die Illegitimität des „unstandesgemäßen Verhältnisses“ hinzu. Goethe schätzte ihr natürliches, fröhliches Wesen und hielt an der Verbindung mit seinem „kleinen Eroticon“ bis an Christianes Lebensende 1816 fest. Erst 1806 erleichterte er ihre gesellschaftliche Stellung durch die Heirat, die ihr den Weg in die gute Gesellschaft bahnte. Zur Heirat hatte sich Goethe kurzfristig entschlossen, nachdem ihn Christiane durch ihr beherztes Eingreifen aus Lebensgefahr gerettet hatte, als er am Abend der Schlacht bei Jena in seinem Haus in Weimar von plündernden französischen Soldaten bedroht wurde. Nur fünf Tage danach wurde die Ehe geschlossen. Als Gravur für die Ringe wählte Goethe das Datum der Schlacht und seiner Rettung in der Schreckensnacht: 14. Oktober 1806. Metamorphose der Pflanzen und Römische Elegien. In den Jahren nach seiner Italienreise beschäftigte Goethe sich vor allem mit der Naturforschung. In seinem Verhältnis zur Natur unterschied er nur zwei Zeitperioden: das Jahrzehnt vor 1780, das vor allem in den Straßburger Jahren stark vom Naturerlebnis geprägt war, und die folgenden fünfzig Jahre systematischen Naturstudiums in Weimar. 1790 veröffentlichte er seinen "Versuch die Metamorphose der Pflanzen zu erklären", eine 86-seitige Monographie, die ihn zu einen Mitbegründer der vergleichenden Morphologie machte. Mit dem 1798 geschriebenen großen Lehrgedicht "Die Metamorphose der Pflanzen" gelang ihm die Verbindung von Poesie und Naturforschung. Das im Versmaß des elegischen Distichons verfasste Naturgedicht ist an eine „Geliebte“ (Christiane Vulpius) gerichtet und präsentiert seine morphologische Lehre in konzentrierter Form. In den 1790er Jahren begann er auch mit seinen Untersuchungen zur Farbenlehre, welche ihn bis ans Lebensende beschäftigen sollte. Zu den Werken der frühen 1790er Jahre gehören die bald nach seiner Rückkehr entstandenen "Römischen Elegien", eine Sammlung freizügig erotischer Gedichte. In den Formen antiker Dichtung verarbeitete Goethe nicht nur die Erinnerung an kulturelle und amouröse Rom-Erlebnisse seiner ersten Italienreise, sondern auch seine sinnlich-glückliche Liebe zu Christiane Vulpius. Zwanzig der vierundzwanzig Gedichte erschienen 1795 in Schillers "Horen". Die Weimarer Gesellschaft nahm Anstoß an Goethes Erotica, obwohl er vier der freizügigsten Gedichte zurückbehalten hatte. Amtliche Aufgaben, Feldzüge und Politik. Nach seiner Rückkehr aus Italien hatte Goethe sich vom Herzog von den meisten seiner amtlichen Pflichten entbinden lassen. Den Sitz im "Consilium" und damit die Möglichkeit politischer Einflussnahme behielt er jedoch bei. Als „Minister ohne Portefeuille“ übernahm er eine Reihe von kulturellen und wissenschaftlichen Aufgaben, darunter die Leitung der Zeichenschule und die Aufsicht über das öffentliche Bauwesen. Zudem wurde er mit der Leitung des Weimarer Hoftheaters betraut – einer Aufgabe, die viel Zeit in Anspruch nahm, da er für sämtliche Belange zuständig war. Daneben war Goethe in Angelegenheiten der zum Herzogtum gehörenden Universität Jena beratend tätig. Seiner Fürsprache ist die Berufung einer Reihe namhafter Professoren zu verdanken, darunter Johann Gottlieb Fichte, Georg Wilhelm Friedrich Hegel, Friedrich Wilhelm Joseph Schelling und Friedrich Schiller. Nachdem ihm 1807 die Aufsicht über die Universität übertragen worden war, setzte sich Goethe vor allem für den Ausbau der naturwissenschaftlichen Fakultät ein. Nach Abschluss der achtbändigen Göschen-Werkausgabe zu seinem 40. Geburtstag plante Goethe, erneut nach Italien zu reisen. Er verbrachte mehrere Monate in Venedig, wo er die Herzoginmutter auf ihrer Rückreise von einer zweijährigen Italienreise erwartete. Er begleitete sie zurück nach Weimar, mit Aufenthalten in Padua, Vicenza, Verona und Mantua. Allerdings stellte sich die Hochstimmung der ersten Italienreise nicht wieder ein. Produkt dieser zweiten (unfreiwilligen) Italienreise sind die "Venetianischen Epigramme", eine Sammlung von Spottgedichten auf die europäischen Zustände, die „die ästhetisch-moralische Toleranzgrenze der Zeit überschritten“. Im vierten Epigramm fühlt er sich von den Gastwirten „geprellt“ und vermisst „deutsche Redlichkeit“, klagt: „Schön ist das Land; doch ach! Faustinen find' ich nicht wieder.“ Stattdessen sehnte er sich zurück nach Christiane, seinem „Liebchen“, das er verließ. 1789 wurde das europäische Herrschafts- und Staatensystem durch die Französische Revolution erschüttert und in Frage gestellt. Die meisten von Goethes intellektuellen Zeitgenossen (z. B. Wieland, Herder, Hölderlin, Hegel, Georg Forster, Beethoven) begeisterten sich für die Freiheits- und Brüderlichkeitsideale, die von ihr ausgingen, etwa durch die Verkündigung der Menschenrechte. Klopstock feierte in seiner Ode "Kennet euch selbst" die Revolution als „des Jahrhunderts edelste Tat“. Goethe stand der Revolution von vornherein ablehnend gegenüber; für ihn war sie „das schrecklichste aller Ereignisse“ und stellte auch seine Weimarer Existenz als „Fürstendiener“ in Frage. Er war ein Befürworter allmählicher Reformen im Sinne der Aufklärung und fühlte sich insbesondere durch die Gewaltexzesse im Gefolge der Revolution abgestoßen; andererseits sah er deren Ursache in den sozialen Verhältnissen des Ancien Régime. Rückblickend sagte er später im Gespräch mit Eckermann, „daß die revolutionären Aufstände der unteren Klassen eine Folge der Ungerechtigkeiten der Großen sind“. Gleichzeitig verwahrte er sich dagegen, weil er Revolutionen hasste, als ein „Freund des Bestehenden“ angesehen zu werden: „Das ist […] ein sehr zweideutiger Titel, den ich mir verbitten möchte. Wenn das Bestehende alles vortrefflich, gut und gerecht wäre, so hätte ich gar nichts dawider. Da aber neben vielem Guten zugleich viel Schlechtes, Ungerechtes und Unvollkommenes besteht, so heißt ein Freund des Bestehenden oft nicht viel weniger als ein Freund des Veralteten und Schlechten.“ 1792 begleitete Goethe den Herzog auf dessen Wunsch in den ersten Koalitionskrieg gegen das revolutionäre Frankreich. Drei Monate lang erlebte er als Beobachter das Elend und die Gewalttaten dieses Krieges, der mit einem französischen Sieg endete. Seine Erfahrungen legte er in der autobiografischen Schrift "Campagne in Frankreich" nieder. Nach kurzem Aufenthalt in Weimar zog er mit dem Herzog erneut an die Front. Im Sommer 1793 begleitete er ihn, um an der Belagerung von Mainz teilzunehmen. Das von den Franzosen besetzte und von deutschen Jakobinern regierte Mainz wurde durch die preußisch-österreichischen Koalitionstruppen nach dreimonatiger Belagerung und Bombardierung zurückerobert. 1796 trat das Herzogtum dem preußisch-französischen Sonderfrieden von Basel bei. Die nun folgende zehnjährige Friedenszeit ermöglichte mitten im vom Kriegsgeschehen erschütterten Europa die Blüte der Weimarer Klassik. Dichterische Verarbeitung der Revolution. Im Rückblick notierte Goethe, dass die Französische Revolution, als „das schrecklichste aller Ereignisse“, ihn viele Jahre grenzenlosen Bemühens gekostet habe, „dieses in seinen Ursachen und Folgen dichterisch zu gewältigen“. Rüdiger Safranski zufolge erlebte Goethe die Revolution als ein Elementarereignis wie einen Vulkanausbruch des Sozialen und Politischen, und nicht zufällig habe er sich in den Monaten nach der Revolution mit dem Naturphänomen des Vulkanismus beschäftigt. Unter dem Eindruck der Revolution entstand eine Reihe satirischer, antirevolutionärer, aber auch antiabsolutistischer Komödien: "Der Groß-Cophta" (1791), "Der Bürgergeneral" (1793) und das Fragment "Die Aufgeregten" (1793). Der Einakter "Der Bürgergeneral" war Goethes erstes Stück, das sich mit den Folgen der Revolution beschäftigte. Obwohl es zu seinen erfolgreichsten Stücken zählte – auf der Weimarer Bühne wurde es häufiger als "Iphigenie" und "Tasso" gespielt –, wollte er das später nicht mehr wahrhaben. Er nahm es auch nicht in die vom Berliner Verleger Johann Friedrich Unger von 1792 bis 1800 in unregelmäßigem Abstand veröffentlichte siebenbändige Ausgabe seiner "Neuen Schriften" auf. Auch der Reineke Fuchs, das 1792/93 in Hexametern verfasste Tierepos aus dem späten Mittelalter, welches die Grausamkeiten, Falschheit und Bosheit der Menschen im Tierreich widerspiegelt, verweist auf die Goetheschen Erfahrungen jener Jahre. Noch im Heerlager vor Mainz 1793 feilte er das Epos nach und nach durch. Das revolutionäre Zeitgeschehen bildete auch den Hintergrund der von Goethe 1795 verfassten "Unterhaltungen deutscher Ausgewanderter" und des Versepos "Hermann und Dorothea" (1797). Die "Unterhaltungen" sind eine Novellensammlung, in der die Revolution nur in der Rahmenhandlung thematisiert wird. Um den politischen Tagesstreit zu vergessen, erzählen sich adelige Flüchtlinge, die vor den französischen Revolutionstruppen von ihren linksrheinischen Gütern ins Rechtsrheinische geflohen sind, Geschichten in der Tradition romanischer Novellestik (Giovanni Boccaccio). Diese Erzähldichtung leitete den ersten Band von Schillers Zeitschrift "Die Horen" ein. Direkt mit den revolutionären Folgen befasste sich "Hermann und Dorothea." in dem Goethe die Schilderung des Schicksals der linksrheinischen Deutschen in das Gewand des klassischen Hexameters kleidete. Das Werk erreichte neben Schillers "Glocke" eine „beispiellose Popularität“. Leiter des Weimarer Theaters (1776–1817). Goethe war 1776 die Leitung des Liebhabertheaters am Weimarer Hof übertragen worden, zu einer Zeit, als die Höfe französisches Drama und italienische Oper bevorzugten. Als Schauspieler agierten am Weimarer Theater adlige und bürgerliche Laien, Angehörige des Hofes einschließlich des Herzogs Carl August und Goethes. Die Spielstätten wechselten. Die auf Goethes Vorschlag für Weimar engagierte Sängerin und Schauspielerin Corona Schröter aus Leipzig war zunächst die einzige ausgebildete Schauspielerin. Sie wurde die erste Darstellerin der Iphigenie in der Erstaufführung der Prosafassung von Goethes Iphigenie auf Tauris 1779, in der Goethe den Orest und Carl August den Pylades spielte. 1779 wurde auch erstmals unter Goethes Leitung eine Schauspielergesellschaft unter Vertrag genommen. Nachdem 1791 Herzog Carl August die Gründung des Weimarer Hoftheaters beschlossen hatte, übernahm Goethe dessen Direktion. Eröffnet wurde das Hoftheater am 7. Mai 1791 mit Ifflands Schauspiel "Die Jäger". Goethes Wunsch, den talentreichen Schauspieler und Dramatiker Iffland an das Weimarer Theater zu binden, zerschlug sich, da dieser die attraktivere Stelle als Direktor des Berliner Nationaltheaters vorzog. Im Verlauf seiner 26-jährigen Direktion machte Goethe das Weimarer Hoftheater zu einer der führenden deutschen Bühnen, auf der nicht nur viele seiner eigenen Dramen, sondern auch die späteren Dramen von Schiller (wie die "Wallensteintrilogie, Maria Stuart, Die Braut von Messina" und "Wilhelm Tell") zur Erstaufführung kamen. Auch Goethes "Egmont" bearbeitete Schiller für die Weimarer Bühne. Der Herzog hatte Goethe freie Hand in seiner Theaterleitung gelassen, die er freilich mit einem ziemlich patriarchalischen Umgang mit den Schauspielern und Schauspielerinnen ausübte. Als sich die 1797 verpflichtete, voll ausgebildete und selbstbewusste Schauspielerin und Sängerin Karoline Jagemann Goethes autoritärem Führungsstil widersetzte, zog er sich 1817 vom Theater zurück. Ein Grund war, dass diese Künstlerin nicht nur die unbestrittene Primadonna war, die Weimars Bühne zum Leuchten brachte, sondern auch die offizielle Mätresse des Herzogs, dessen Unterstützung sie im Streit mit Goethe fand. Im Bund mit Schiller (1789–1805). Bevor Goethe mit Schiller erstmals im Herbst 1788 im thüringischen Rudolstadt persönlich zusammentraf, waren sich beide nicht fremd geblieben. Sie kannten jeweils die frühen Werke des anderen. Bereits als Schüler der Karlsschule hatte Schiller mit Begeisterung Goethes "Götz" und "Werther" gelesen und den von ihm Bewunderten bei der Abschlussfeier seines Jahrgangs 1780 als Besucher gemeinsam mit dem Weimarer Herzog neben Karl Eugen stehen sehen. Goethe, der Schillers "Räuber" mit ihrer Gewalttätigkeit ablehnte, hatte nach seiner Rückkehr aus Italien mit Erstaunen Schillers gewachsenen Ruhm wahrgenommen, später auch die Gedankenlyrik Schillers und seine historische Schriften schätzen gelernt. Schillers Urteile und Gefühle gegenüber Goethe waren zunächst schnell wechselnd und darauf angelegt, sogleich wieder revidiert zu werden. Mehrfach nennt er Goethe einen „gefühlskalten Egoisten“. Safranski spricht von einer „Haß-Liebe“ und zitiert aus einem Brief Schillers an Körner: „Mir ist er […] verhaßt, ob ich gleich seinen Geist von ganzem Herzen liebe“. Für die Befreiung von Ressentiment und Rivalität hat Schiller später die „wunderbare Formel" (Rüdiger Safranski) gefunden: „daß es, dem Vortrefflichen gegenüber keine Freyheit gibt als die Liebe“ (Brief an Goethe vom 2. Juli 1796). Die erste persönliche Begegnung in Rudolstadt, arrangiert von Charlotte von Lengefeld, der späteren Ehefrau Schillers, verlief relativ emotionslos. In einem Bericht an Körner zweifelte Schiller „ob wir einander je sehr nahe rücken werden“. Nach dieser „misslungenen Begegnung“ hatte Goethe Schillers Berufung auf eine Jenaer Professur betrieben, die dieser aber zunächst unbesoldet antrat. Seit 1789 als Geschichtsprofessor im nahen Jena lebend, hatte Schiller Goethe im Juni 1794 gebeten, dem Herausgeberkreis einer von ihm geplanten Zeitschrift für Kultur und Kunst, "Horen," beizutreten. Nach Goethes Zusage trafen sich die beiden im Juli des gleichen Jahres in Jena, für Goethe „ein glückliches Ereignis“ und der Beginn der Freundschaft mit Schiller. Im September 1794 lud er Schiller zu einem längeren Besuch in Weimar ein, der sich auf zwei Wochen ausdehnte und einem intensiven Ideenaustausch zwischen ihnen diente. Diesem Treffen schlossen sich häufige wechselseitige Besuche an. Die beiden Dichter stimmten in der Ablehnung der Revolution ebenso überein wie in der Hinwendung zur Antike als höchstem künstlerischen Ideal; dies war der Beginn eines intensiven Arbeitsbündnisses, aus dem zwar alles Persönlichere ausgeklammert war, das jedoch geprägt war von tiefem Verständnis für das Wesen und die Arbeitsweise des anderen. In der gemeinsamen Erörterung ästhetischer Grundsatzfragen entwickelten beide eine Literatur- und Kunstauffassung, die als „Weimarer Klassik“ zur literarhistorischen Epochenbezeichnung werden sollte. Goethe, dessen literarisches Schaffen, ebenso wie dasjenige Schillers, zuvor ins Stocken gekommen war, betonte die anregende Wirkung der Zusammenarbeit mit dem zehn Jahre Jüngeren: „Sie haben mir eine zweite Jugend verschafft und mich wieder zum Dichter gemacht, welches zu sein ich so gut als aufgehört hatte.“ Im ersten Jahrgang der "Horen" erschienen die "Römischen Elegien" erstmals unter dem Titel "Elegien" und ohne Angabe des Verfassers. Darüber empörten sich offensichtlich „alle ehrbaren Frauen“ Weimars. Herder veranlasste die Veröffentlichung zu dem ironischen Vorschlag, die "Horen" müssten nun mit einem „u“ geschrieben werden. In den "Horen" veröffentlichte Schiller 1795/96 in drei Folgen sein Traktat "Über naive und sentimentalische Dichtung", eine poetische Typologie, die wesentlich zu ihrer beider Selbstverständnis beitrug: Goethe der „naive“, Schiller der „sentimentalische“ Dichter. Beide Dichter nahmen lebhaften theoretischen und praktischen Anteil an den Werken des anderen. So beeinflusste Goethe Schillers "Wallenstein," während dieser die Arbeit an Goethes Roman "Wilhelm Meisters Lehrjahre" kritisch begleitete und ihn zur Fortführung des "Faust" ermunterte. Goethe hatte Schiller gebeten, ihm bei der Fertigstellung des "Wilhelm Meister"-Romans behilflich zu sein, und Schiller enttäuschte ihn nicht. Er kommentierte die ihm zugesandten Manuskripte und war höchst erstaunt, dass Goethe nicht genau wusste, wie der Roman enden sollte. An Goethe schrieb er, er rechne es. Für Nicholas Boyle bildete der Briefwechsel über den "Wilhelm Meister" in den Jahren 1795/96 den Höhepunkt in der geistigen Beziehung zwischen Goethe und Schiller. Sie betrieben auch gemeinsame publizistische Projekte. Zwar beteiligte sich Schiller kaum an Goethes kurzlebiger Kunstzeitschrift "Propyläen;" dieser jedoch veröffentlichte zahlreiche Werke in den "Horen" und dem ebenfalls von Schiller herausgegebenen "Musen-Almanach". Der "Musen-Almanach für das Jahr 1797" brachte eine Sammlung gemeinschaftlich verfasster Spottverse, die "Xenien". Im "Musen-Almanach" des Folgejahres erschienen die berühmtesten Balladen beider Autoren, wie Goethes "Der Zauberlehrling, Der Schatzgräber, Die Braut von Korinth, Der Gott und die Bajadere" sowie Schillers "Der Taucher, Die Kraniche des Ibykus, Der Ring des Polykrates, Der Handschuh" und "Ritter Toggenburg". Im Dezember 1799 zog Schiller mit seiner vierköpfigen Familie nach Weimar um, zunächst in eine Mietwohnung, die zuvor Charlotte von Kalb bewohnt hatte; 1802 erwarb er ein eigenes Haus auf der Esplanade. In Weimar bildeten sich Parteien, die zum Vergleich der beiden „Dioskuren“ herausforderten. So versuchte der erfolgreiche Theaterautor August von Kotzebue, der sich in Weimar niedergelassen hatte, mit einer prunkvollen Feier zu Ehren Schillers einen Keil zwischen die beiden zu treiben. Trotz einiger zeitweiliger Irritationen zwischen ihnen blieb ihre Freundschaft bis zum Tode Schillers jedoch intakt. Die Nachricht von Schillers Tod am 9. Mai 1805 stürzte Goethe in einen Zustand der Betäubung. Er blieb der Beerdigung fern. An den befreundeten Musiker Carl Friedrich Zelter schrieb er, er habe einen Freund und mit ihm „die Hälfte meines Daseins“ verloren. Der Tod Schillers markierte für Rüdiger Safranski eine Zäsur in Goethes Leben, einen „Abschied von jenem goldenen Zeitalter, als für eine kurze Zeit die Kunst nicht nur zu den schönsten, sondern zu den wichtigsten Dingen des Lebens gehörte“. Mit ihm endete Dieter Borchmeyer zufolge die prägende Periode der Weimarer Klassik. Der späte Goethe (1805–1832). a>, dessen 14. Mitglied er war) Den Tod Schillers im Jahr 1805 empfand Goethe als einschneidenden Verlust. In dieser Zeit litt er zudem an verschiedenen Krankheiten (Gesichtsrose, Nierenkoliken, Herzattacken). Beunruhigend empfand er auch die politische Lage mit dem sich abzeichnenden Krieg mit Napoleon Bonaparte. Im Geiste sah Goethe sich mit seinem Herzog bereits bettelnd und asylsuchend durch Deutschland ziehen. Seine letzten Jahrzehnte waren gleichwohl von erheblicher Produktivität und starken Liebeserlebnissen geprägt. Als Sekretär wurde ihm Friedrich Riemer (seit 1805 Erzieher seines Sohnes) bald unentbehrlich. Späte Werke und Farbenlehre. Als unmittelbare Nachwirkung von Schillers Tod wertet Safranski, dass Goethe die Arbeit am "Faust" wiederaufnahm; hinzu kam der äußere Druck vonseiten des Verlegers Cotta. Die neue achtbändige Gesamtausgabe von 1808 sollte die erste vollständige Fassung des "ersten Teils des Faust " enthalten. Die Eheschließung mit Christiane hinderte Goethe nicht, bereits 1807 zu Minna Herzlieb, der achtzehnjährigen Pflegetochter des Buchhändlers Frommann in Jena, eine amouröse Neigung zu zeigen. Von einer „kleinen Verliebtheit“, die Goethe als „Ersatz“ für den „schmerzlich empfundenen Verlust Schillers“ erklärte, spricht Safranski. Ein Nachklang der inneren Erlebnisse dieser Zeit findet sich in seinem letzten Roman, "Die Wahlverwandtschaften" (1809). Charakteristisch für Goethe ist, wie er in diesem Werk Poesie und Naturforschung verknüpft. In der zeitgenössischen Chemie gebrauchte man den Begriff der „Wahlverwandtschaft“ der Elemente, den Goethe übernahm, um die „Naturhaftigkeit durch Vernunft nicht endgültig beherrschbarer Anziehungskräfte“ zwischen zwei Paaren zu thematisieren. 1810 veröffentlichte Goethe die aufwendig ausgestattete "Farbenlehre" in zwei Bänden und einem Band mit Bildtafeln. Mit ihr hatte er sich seit annähernd zwanzig Jahren befasst. Safranski zufolge dienten die immer wieder aufgenommenen Farbenstudien (in Form von Versuchen, Beobachtungen, Überlegungen und Literaturstudien) Goethe, um vor äußeren Turbulenzen und innerer Unruhe zu flüchten; so hatte er auch während des Feldzuges in Frankreich und bei der Belagerung von Mainz seine einschlägigen Beobachtungen notiert. Die Resonanz auf die Veröffentlichung war gering und erfüllte Goethe mit Unmut. Zwar bezeugten Freunde Respekt, doch die wissenschaftliche Welt nahm sie kaum zur Kenntnis. Die literarische Welt nahm sie als überflüssige Abschweifung in einer Zeit heftiger politischer Umwälzungen auf. Im Januar 1811 begann Goethe mit der Abfassung einer großen Autobiographie, die später den Titel "Aus meinem Leben. Dichtung und Wahrheit" erhielt. Dabei war ihm Bettina Brentano behilflich, die Aufzeichnungen über Erzählungen seiner Mutter über Goethes Kindheit und Jugend besaß. Bettina besuchte Goethe 1811 in Weimar. Nach einem Streit zwischen ihr und Christiane brach Goethe mit ihr. Die ersten drei Teile der Autobiographie erschienen zwischen 1811 und 1814. Der vierte Teil erschien erst nach seinem Tod 1833. Die ursprüngliche Konzeption war eine als Metamorphose stilisierte Bildungsgeschichte des Dichters mit der Betonung der „Naturhaftigkeit der ästhetischen und dichterischen Fähigkeiten und Anlagen“. Eine Krise während der Arbeit am dritten Teil ließ sie ihm als unangemessen erscheinen. An ihre Stelle setzte er das Dämonische als „Chiffre […] des übermächtig gewordenen Natur- wie Geschichtszusammenhangs“. Begegnungen mit Napoleon und Beethoven. a> für Goethe, Wieland, Starke und Vogel Ritterkreuz der Französischen Ehrenlegion, 1808 von Kaiser Napoleon an Goethe verliehen Napoleon hat auf Goethe bis an sein Lebensende eine persönliche Faszination ausgeübt. Für ihn war Napoleon „einer der produktivsten Menschen […], die je gelebt haben“. „Sein Leben war das Schreiten eines Halbgottes von Schlacht zu Schlacht und von Sieg zu Sieg.“ 1808 traf Goethe zweimal mit Napoleon zusammen. Das erste Mal empfing der Kaiser ihn und Christoph Martin Wieland am 2. Oktober auf dem Erfurter Fürstenkongress zu einer Privataudienz, auf der Napoleon ihn anerkennend auf seinen "Werther" ansprach. Zu einer zweiten Begegnung (wiederum gemeinsam mit Wieland) kam es in Weimar anlässlich eines Hofballs am 6. Oktober. Danach wurden er und Wieland zu Rittern der Ehrenlegion ernannt. Der ebenfalls beim Fürstenkongress anwesende Zar Alexander I. verlieh beiden den Annenorden. Goethe hat zum Ärger seiner Zeitgenossen und auch des Herzogs Carl August das Legionskreuz stolz getragen, sogar noch in der Zeit des patriotischen Aufbruchs gegen die napoleonische Herrschaft in deutschen Landen. 1813 äußerte er in einem Gespräch: „Schüttelt nur an Euren Ketten; der Mann ist Euch zu groß, Ihr werdet sie nicht zerbrechen.“ Unmittelbar nach der Nachricht vom Tod Napoleons am 5. Mai 1821 auf Sankt Helena verfasste der italienische Dichter Alessandro Manzoni die Ode "Il Cinque Maggio" ("Der fünfte Mai") mit 18 sechszeiligen Strophen. Als Goethe die Ode in Händen hielt, war er von ihr so beeindruckt, dass er sich unverzüglich an die Übersetzung machte, unter Wahrung ihres hohen, feierlichen Tons. Mit Beethoven war Goethe 1812 im böhmischen Kurbad Teplitz zusammengetroffen. Zu dieser Zeit hatte Beethoven bereits verschiedene Verse und Lieder Goethes vertont und im Auftrag des Wiener Hoftheaters 1809/10 die Ouvertüre zum Trauerspiel "Egmont" komponiert. Sie gilt als eine Hommage an Goethes Dramenfigur als Inbegriff des heroischen Menschen. Mit großer Respektbezeugung hatte Beethoven die Partitur Goethe zukommen lassen. Von der neuen Bekanntschaft zeigte sich Goethe angetan; es kam in Teplitz zu mehreren Begegnungen, wo Beethoven ihm auch auf dem Klavier vorspielte. An Zelter schrieb er: „Sein Talent hat mich in Erstaunen gesetzt; allein er ist leider eine ganz ungebändigte Persönlichkeit, die zwar gar nicht unrecht hat, wenn sie die Welt detestabel findet, aber sie dadurch freilich weder für sich noch für andere genußreicher macht.“ Zwischen beiden wurden zwar noch einige Briefe gewechselt, doch es blieb beim höflichen Umgang. Freundschaften mit Zelter und Boisserée. Goethe pflegte während seines langen Lebens viele Freundschaften. Als wichtigstes Kommunikationsmedium der Freundschaft diente der private Brief. In seinen letzten Lebensjahrzehnten schloss er zwei besondere Freundschaften mit Carl Friedrich Zelter und Sulpiz Boisserée. Der Musiker und Komponist Carl Friedrich Zelter hatte Goethe 1796 über seine Verlegerin einige Vertonungen von Texten aus "Wilhelm Meisters Lehrjahren" zukommen lassen. Goethe bedankte sich mit den Worten, „daß ich der Musik kaum solche herzliche Töne zugetraut hätte“. Sie begegneten sich erstmals im Februar 1802, aber bereits 1799 hatten sie brieflichen Kontakt aufgenommen. Der ausgedehnte Briefwechsel mit fast 900 Briefen dauerte bis zu Goethes Tod an. Goethe fühlte sich in dieser Altersfreundschaft von Zelter, dessen Musik seinen Ohren angenehmer klang als das „Getöse“ Ludwig van Beethovens, nicht nur in Fragen der Musik aufs beste verstanden. Was ihm die Freundschaft mit Zelter für sein Musikverständnis bedeutete, verdankte er Sulpiz Boisserée für seine Erfahrungen mit der bildenden Kunst. Der Heidelberger Kunstsammler Boisserée, ein Jünger Friedrich Schlegels, hatte ihn erstmals 1811 in Weimar besucht. Daraus entstand ein dauerhafter Briefwechsel und eine lebenslange Freundschaft, die ihn in den nächsten Jahren um neue Kunsterfahrungen bereicherten. Sie schlugen sich, nach einer Reise in die Rhein- und Maingegend mit einem Besuch der Boisséereschen Gemäldesammlung in Heidelberg, in dem Reisebericht "Ueber Kunst und Altertum in den Rhein und Mayn Gegenden" von 1816 nieder. West-östlicher Divan. Zur patriotischen Erhebung gegen die französische Fremdherrschaft hielt Goethe Distanz. Er flüchtete sich geistig in den Orient mit dem Studium des Arabischen und Persischen, er las im Koran und rezipierte mit Begeisterung die Verse des persischen Dichters Hafis in der von Cotta verlegten Neuübersetzung des "Divans" aus dem 14. Jahrhundert. Sie versetzten ihn in eine „schöpferische Hochstimmung“, die er später Eckermann gegenüber als „eine wiederholte Pubertät“ bezeichnete: Er verfasste in dem leichten und verspielten Ton des Hafis binnen kurzer Zeit zahlreiche Gedichte. Von einer „eruptiven Produktivität“ spricht Hendrik Birus, der Herausgeber der Gedichtsammlung in der Frankfurter Ausgabe. Im Sommer 1814 reiste Goethe in die Rhein- und Maingegend. In Wiesbaden traf er mit dem – ihm seit den Jugendtagen bekannten – Frankfurter Bankier und Förderer des Theaters Johann Jakob von Willemer und dessen Pflegetochter Marianne Jung zusammen. Er besuchte sie danach auf der Gerbermühle bei Frankfurt, wo er auch eine Zeitlang Quartier bezog. Der verwitwete Bankier hatte Marianne als junges Mädchen aufgenommen und lebte mit ihr im Konkubinat. Noch während Goethes Anwesenheit, und möglicherweise auf seinen Rat hin, heirateten die beiden förmlich in aller Eile. Der fünfundsechzigjährige Goethe verliebte sich in Marianne. Sie wurde ihm zur Muse und Partnerin bei der Dichtung des "West-östlichen Divan". Zwischen ihnen entspann sich ein „lyrischer Wechselgesang“ und ein „literarisches Rollenspiel der Liebe“, das sie im folgenden Jahr bei einem erneuten mehrwöchigen Besuch fortsetzten. Die in den Frankfurter Wochen entstandenen Gedichte fanden vornehmlich im "Buch Suleika" Aufnahme. Im Jahre 1850 enthüllte Marianne gegenüber Herman Grimm, dass einige der in diese Sammlung aufgenommenen Liebesgedichte von ihr stammten. Heinrich Heine fand in seiner Schrift "Die romantische Schule" für die Gedichtsammlung die rühmenden Worte: „den berauschendsten Lebensgenuß hat hier Goethe in Verse gebracht, und diese sind so leicht, so glücklich, so hingehaucht, so ätherisch, daß man sich wundert, wie dergleichen in deutscher Sprache möglich war“. Auf seiner Reise 1815 sah Goethe das letzte Mal seine Heimat wieder. Als er im Juli 1816 zur geplanten Kur nach Baden-Baden aufbrach und dabei den Willemers einen weiteren Besuch abstatten wollte, brach die Kutsche hinter Weimar zusammen, worauf Goethe die Reise abbrach. Fortan verzichtete er auf Besuche bei Marianne und schrieb ihr auch eine Weile nicht. Den "West-östlichen Divan" ließ er einige Zeit unvollendet liegen, erst 1818 schloss er ihn ab. Tod Christianes, Werkaufarbeitung, Schriften zur Natur. Goethes Frau Christiane starb im Juni 1816 nach langer Krankheit. Wie er auch in anderen Fällen von Tod und Krankheit in seiner Nähe Ablenkung in der Arbeit suchte oder sich mit einer eigenen Erkrankung beschäftigte, zog er sich auch beim Sterben Christianes zurück. Weder an ihrem Sterbebett noch bei ihrer Beerdigung war er anwesend. Konsequent vermied Goethe den Anblick von sterbenden oder gestorbenen Menschen, die ihm nahestanden. Johanna Schopenhauer berichtete einer Freundin, es sei seine Art, „jeden Schmerz ganz in der Stille austoben zu lassen, und sich seinen Freunden erst wieder in völliger Fassung zu zeigen“. Nach Christianes Tod wurde es im großen Haus am Frauenplan einsamer um ihn. Auch der Besuch von Charlotte Buff, verwitwete Kestner, im September 1816 in Weimar trug nicht zur Aufhellung seiner Stimmung bei. Sein Sohn heiratete 1817 Ottilie von Pogwisch, die sich als Schwiegertochter fortan um Goethe kümmerte. 1817 wurde Goethe von der Leitung des Hoftheaters entbunden. Das kleine Herzogtum war – entgegen Goethes Befürchtungen – unbeschadet aus den Wirren der napoleonischen Kriege hervorgegangen, Carl August durfte sich „Königliche Hoheit“ nennen, Goethe brachten die neuen Verhältnisse den Titel eines Staatsministers ein. Goethe ordnete seine Schriften und Manuskripte. Die Tagebücher und lange liegen gebliebenen Notizen dienten ihm zur Aufarbeitung der "Italienischen Reise". Zeitweise vertiefte er sich in altgriechische Mythen und orphische Dichtung. Ihren Niederschlag fand dies in fünf Stanzen, die erstmals 1817 in der Zeitschrift "Zur Morphologie" erschienen, zusammengefasst unter der Überschrift "Urworte. Orphisch". Sie standen im Zusammenhang mit seinem Bemühen, die Lebensgesetze in Gestalt von Urpflanze und Urphänomenen zu erkennen. 1821 folgte die einbändige Erstfassung von "Wilhelm Meisters Wanderjahre," die im Wesentlichen aus einer Sammlung teilweise schon zuvor veröffentlichter Novellen bestand. In diesen Jahren entstand "Geschichte meines botanischen Studiums" (1817), bis 1824 folgten in der Schriftenreihe "Zur Naturwissenschaft überhaupt" Gedanken unter anderem zu Morphologie, Geologie und Mineralogie. Hier findet sich auch die Darstellung der "Morphologie der Pflanzen" in Form einer Elegie, die er bereits um 1790 für seine Geliebte verfasst hatte. In dieser Zeit stand er auch in Kontakt mit dem Forstwissenschaftler Heinrich Cotta, den er bereits 1813 erstmals in Tharandt aufgesucht hatte. 1818 war Goethe Mitglied der Leopoldina, einer der renommiertesten naturwissenschaftlichen Gesellschaften, geworden. Im Februar 1823 erkrankte Goethe lebensbedrohlich, wahrscheinlich an einem Herzinfarkt. Nach seiner Genesung erschien er manchen geistig noch reger als zuvor. Marienbader Elegie. Im Sommer brach er mit großer Erwartung auf ein Wiedersehen mit Ulrike von Levetzow nach Marienbad auf. Er hatte die damals Siebzehnjährige mit ihrer Mutter 1821 während eines Kuraufenthaltes in Marienbad kennengelernt und sich in sie verliebt. Im darauffolgenden Jahr waren sie wieder in Marienbad zusammengetroffen und hatten gemeinsame gesellige Stunden verbracht. Beim dritten Zusammentreffen hielt der Vierundsiebzigjährige ernsthaft um die Hand der neunzehnjährigen Ulrike an. Zum Brautwerber hatte er seinen Freund, den Großherzog Carl August, gebeten. Ulrike lehnte höflich ab. Noch in der Kutsche, die ihn über mehrere Stationen (Karlsbad, Eger) nach Weimar zurückbrachte, schrieb er die "Marienbader Elegie," ein lyrisches Meisterwerk und „das bedeutendste, das persönlich intimste und darum von ihm auch geliebteste Gedicht seines Alters“ im Urteil Stefan Zweigs, der seiner Entstehungsgeschichte ein Kapitel seiner historischen Miniaturen "Sternstunden der Menschheit" widmete. Die letzten Jahre. Danach gehörte sein Leben „allein noch der Arbeit“. Er nahm die Arbeit am zweiten Teil des "Faust" wieder auf. Er schrieb kaum noch selbst, sondern diktierte. So konnte er nicht nur einen umfangreichen Briefwechsel bewältigen, sondern auch seine Erkenntnisse und Lebensweisheiten in weit ausholenden Gesprächen dem ihm ergebenen jungen Dichter Johann Peter Eckermann anvertrauen. Für die Sammlung, Sichtung und Ordnung der schriftstellerischen Ergebnisse seines ganzen Lebens bei der Vorbereitung der Cotta-Ausgabe letzter Hand konnte Goethe sich auf einen Stab von Mitarbeitern stützen: neben dem Schreiber und Kopisten Johann August Friedrich John waren das der Jurist Johann Christian Schuchard, der Goethes Papiere archivierte und umfangreiche Register erstellte, sowie Johann Heinrich Meyer, zuständig für die Textrevision von Goethes kunsthistorischen Schriften, und der Prinzenerzieher Frédéric Soret, der sich der Herausgabe der naturwissenschaftlichen Schriften widmete. Auch der Bibliothekar und Schriftsteller Friedrich Wilhelm Riemer war, nach einem kurzzeitigen Zerwürfnis wegen der Erziehung von Goethes Sohn, wieder zum Mitarbeiterstab gestoßen. An dessen Spitze stand seit 1824 Eckermann, den Goethe ins Vertrauen zog und mit Anerkennung und Lob bedachte. Obwohl er Goethe seine ganze Arbeitskraft widmete, wurde er von ihm schlecht honoriert. Seinen Lebensunterhalt musste er zusätzlich durch Sprachunterricht für englische Bildungsreisende bestreiten. Goethe bestimmte ihn testamentarisch zum Herausgeber seiner nachgelassenen Werke. 1828 starb Goethes Freund und Förderer Carl August, 1830 sein Sohn August. In demselben Jahr schloss er die Arbeit am zweiten Teil des "Faust" ab. Es war ein Werk, an dem ihm das jahrelange Werden das Wichtigste war, formal ein Bühnenstück, tatsächlich kaum auf der Bühne spielbar, eher ein phantastischer Bilderbogen, vieldeutig wie viele seiner Dichtungen. Schließlich schaltete er sich noch in die Kontroverse der beiden Paläontologen Georges Cuvier und Étienne Geoffroy Saint-Hilaire (Katastrophismus vs. kontinuierliche Entwicklung der Arten) ein. Geologie und Entwicklungslehre beschäftigten ihn ebenso wie der Regenbogen, den er mittels seiner Farbenlehre nie hatte erklären können. Auch die Frage, wie Pflanzen wachsen, ließ ihn nicht los. Im August 1831 zog es Goethe nochmals in den Thüringer Wald, dahin, wo er einst seine ersten naturwissenschaftlichen Anregungen bekommen hatte, und er begab sich nach Ilmenau. 51 Jahre nachdem er 1780 an eine Bretterwand in der Jagdhütte „Goethehäuschen“ auf dem Kickelhahn bei Ilmenau sein bekanntestes Gedicht "Wandrers Nachtlied" („Über allen Gipfeln ist Ruh …“) geschrieben hatte, besuchte er diese Stätte 1831 kurz vor seinem letzten Geburtstag erneut. Am 22. März 1832 starb Goethe, vermutlich an einem Herzinfarkt. Ob seine überlieferten letzten Worte „Mehr Licht!“ authentisch sind, ist umstritten. Sie wurden von seinem Arzt Carl Vogel mitgeteilt, der sich jedoch im betreffenden Moment nicht im Sterbezimmer aufhielt. Goethe wurde am 26. März in der Weimarer Fürstengruft bestattet. Sowohl Goethes Weimarer Wohnhaus "Am Frauenplan" als auch sein Gartenhaus, in denen nicht wenige seiner Werke entstanden, zählen heute zum UNESCO-Weltkulturerbe. Goethes „gegenständliches Denken“. Ein zusammenhängendes Weltbild bei Goethe zu vermuten wäre falsch; angemessener ist es von seinem Weltverständnis zu sprechen. Er hat sich aus den Bereichen Philosophie, Theologie und Naturwissenschaft Wissensbestände in einem Umfang und einer Breite angeeignet wie kein Dichter seiner Zeit, aber dieses Wissen nicht zu einem System vereinigt. Gleichwohl ging er von der Einheit des menschlichen Wissens und der Erfahrungen aus, vom Zusammenhang von Kunst und Natur, Wissenschaft und Poesie, Religion und Dichtung. „Für Philosophie im eigentlichen Sinne hatte ich kein Organ“, bekannte er in seinem Aufsatz "Einwirkung der neueren Philosophie" (1820). Damit bezeugte er seine Abneigung gegen begriffliche Abstraktionen, in deren Sphäre er sich nicht wohlfühlte. Die aus den verschiedensten Wissensbereichen übernommenen Befunde und Erkenntnisse befruchteten und bereicherten jedoch fast alles, was er schrieb. Für das Verständnis seines philosophischen, naturwissenschaftlichen und künstlerischen Denkens sind „Anschauung“ und „gegenständliches Denken“ aufschlussreiche Schlüsselbegriffe. Goethe bestand darauf, durch Anschauung und Nachdenken Erkenntnisse zu gewinnen, auch über „Urphänomene“ wie die „Urpflanze“. „Anschauung“ hieß für ihn der empirische Bezug auf die Phänomene durch Beobachtung und Experiment; darin folgte er der induktionistischen Methode von Francis Bacon. „Gegenständliches Denken“ ist die auf Goethe gemünzte Formulierung des Leipziger Psychiatrieprofessors Heinroth, die Goethe in seinem Aufsatz "Bedeutende Fördernis durch ein einziges geistreiches Wort" dankbar aufgriff. „Lernbegier an den Dingen“ nannte es Andreas Bruno Wachsmuth, der langjährige Präsident der Goethe-Gesellschaft. Goethe stimmte Heinroth auch darin zu, „daß mein Anschauen selbst ein Denken, mein Denken ein Anschauen sei“. Im weiteren Gedankengang seines Aufsatzes bezog er dieses Denken sowohl auf seine naturwissenschaftlichen Forschungen als auch auf seine „gegenständliche Dichtung“. Naturverständnis. Der Goetheforscher Dieter Borchmeyer ist der Ansicht, dass Goethe die meiste Zeit seines Lebens der Naturwissenschaft gewidmet hat. Jedenfalls war Goethes gesamtes Leben von einem intensiven Umgang mit der Natur gekennzeichnet, wobei sein Zugang ein doppelter war: fühlend und erlebend als Künstler, anschauend und analysierend als Gelehrter und Naturforscher. Für Goethe war die Natur in ihren unendlichen Facetten unmöglich als Ganzes zu erfassen: Sie „hat kein System, sie hat, sie ist Leben und Folge aus einem unbekannten Zentrum zu einer nicht erkennbaren Grenze. Naturbetrachtung ist daher endlos“. Sein „Naturdenken“ liefert den Schlüssel zum Verständnis seiner intellektuellen Biographie wie seines literarischen Werkes. Andreas Wachsmuth zufolge erhob Goethe „die Natur als Erlebnis- und Erkenntnisbereich zur höchsten Bildungsangelegenheit des Menschen“. Seit den Straßburger Jahren und angestoßen von Herder wies Goethe der Natur in seinem Leben einen zentralen Stellenwert zu. Waren es zuerst unter dem Einfluss von Rousseau, Klopstock und Ossian das Naturerleben und das Naturgefühl, die ihn berührten, entwickelte sich ab 1780 in Weimar ein zunehmendes Interesse an Naturforschung und Naturwissenschaften. Der Philosoph Alfred Schmidt nennt es den vollzogenen „Schritt vom Naturgefühl zum Naturwissen“. Als naturbeobachtender Gelehrter forschte Goethe in vielen Disziplinen: Morphologie, Geologie, Mineralogie, Optik, Botanik, Zoologie, Anatomie, Meteorologie. Dabei beschäftigten ihn, wie er sich rückblickend gegenüber Eckermann äußerte, „solche Gegenstände, die mich irdisch umgaben und die unmittelbar durch die Sinne wahrgenommen werden konnten“. Zu seinen Schlüsselbegriffen zählten Metamorphose und Typus einerseits, Polarität und Steigerung andererseits. Die Metamorphose verstand er als einen allmählichen Formwandel innerhalb der Grenzen, die der jeweilige Typus („Urpflanze‘‘, „Urtier“) setzt. Der Wandel erfolgt in einem kontinuierlichen Prozess des Anziehens und Abstoßens (Polarität), der eine Steigerung zu Höherem herbeiführt. Im pantheistischen Gedanken, Natur und Gott identisch zu denken, verknüpften sich Natur- und Religionsverständnis Goethes. Religionsverständnis. Abgesehen von einer kurzen Phase der Annäherung an pietistische Glaubensvorstellungen, die ihren Höhepunkt während Goethes Rekonvaleszenz von einer schweren Erkrankung in den Jahren 1768–1770 fand, blieb er gegenüber der christlichen Religion kritisch eingestellt. Schon früh hatte er dem mit ihm befreundeten Theologen Johann Caspar Lavater in einem Antwortbrief 1782 beschieden, er sei „zwar kein Widerkrist, kein Unkrist aber ein dezidirter Nichtkrist“. Der Goetheforscher Werner Keller fasst Goethes Vorbehalte gegen das Christentum in drei Punkten zusammen: „Die Kreuzessymbolik war für Goethe ein Ärgernis, die Lehre von der Erbsünde eine Entwürdigung der Schöpfung, Jesu Vergottung in der Trinität eine Blasphemie des "einen" Gottes.“ Laut Heinrich Heine nannte man Goethe „den großen Heiden […] allgemein in Deutschland“. In seiner durchweg optimistischen Sicht auf die menschliche Natur konnte er die Dogmen von Erbsünde und ewiger Verdammnis nicht akzeptieren. Seine „Weltfrömmigkeit“ (ein Begriff von Goethe aus "Wilhelm Meisters Wanderjahre") brachte ihn in Gegensatz zu allen weltverachtenden Religionen; alles Übernatürliche lehnte er ab. In seiner großen "Sturm- und Drang"-Ode "Prometheus" fand Goethes religiöse Rebellion ihren stärksten dichterischen Ausdruck. Nicholas Boyle sieht in ihr Goethes „explizite und wütende Absage an den Gott der Pietisten und den verlogenen Trost ihres Erlösers“. Heißt es in der zweiten Strophe des Rollengedichts „Ich kenne nichts Ärmer’s / Unter der Sonn’ als euch Götter“, dann steigert sich die prometheische Revolte am Ende der siebenstrophigen Ode zur trotzigen Herausforderung von Zeus, dem Prometheus entgegenschleudert: „Hier sitz ich, forme Menschen / Nach meinem Bilde, / Ein Geschlecht, das mir gleich sei, / Zu leiden, weinen, / Genießen und zu freuen sich, / Und dein nicht zu achten, / Wie ich.“ Zwar beschäftigte Goethe sich intensiv mit Christentum, Judentum und Islam und deren maßgeblichen Texten, doch wandte er sich gegen jede Offenbarungsreligion und gegen die Vorstellung eines persönlichen Schöpfer-Gottes. Der Einzelne müsse das Göttliche in sich selber finden und nicht einer äußeren Offenbarung aufs Wort folgen. Der Offenbarung setzte er die Anschauung entgegen. Navid Kermani spricht von einer „Religiosität der unmittelbaren Anschauung und allmenschlichen Erfahrung“, die „ohne Spekulation und fast ohne Glauben“ auskomme. „Natur hat weder Kern noch Schale / Alles ist sie mit einem Male“, heißt es in Goethes Gedicht "Allerdings. Dem Physiker." von 1820, womit er betonte, dass die Natur in der Gestalt zugleich ihr Wesen zeige. Auf Friedrich Heinrich Jacobis Schrift gegen Spinoza hatte er 1785 geantwortet, ein göttliches Wesen könne er nur in und aus den Einzeldingen erkennen, Spinoza „beweist nicht das Dasein Gottes, das Dasein ist Gott“. In einem weiteren Schreiben verteidigte er Spinoza mit den Worten: „Ich halte mich fest und fester an die Gottesverehrung des Atheisten […] und überlasse euch alles was ihr Religion heisst“. In seinen Naturstudien fand Goethe die Grundfesten der Wahrheit. Immer wieder bekannte er sich als Pantheist in der philosophischen Tradition Spinozas und als Polytheist in der Tradition der klassischen Antike. Einem Reisenden gegenüber, berichtet Dorothea Schlegel, habe Goethe erklärt, er sei „in der Naturkunde und Philosophie ein Atheist, in der Kunst ein Heide und dem Gefühl nach ein Christ“. Die Bibel und der Koran, mit dem er sich zur Zeit der Dichtung am "West-östlichen Divan" beschäftigt hatte, waren ihm „poetische Geschichtsbücher, da und dort mit Weisheiten durchsetzt, doch auch mit zeitgebundenen Torheiten“. Religionslehrer und Dichter sah er als „natürliche Gegner“ und Rivalen an: „die religiösen Lehrer möchten die Werke der Dichter ‚unterdrücken‘, ‚bei Seite schaffen‘, ‚unschädlich machen‘.“ Abgelöst von den Dogmen fand er in der Ikonographie und der erzählerischen Tradition aller bedeutenden Religionen, einschließlich des Islam und des Hinduismus, reiche Quellen für seine poetischen Symbole und Allusionen; die stärksten Zeugnisse davon liefern der "Faust" und der "West-östliche Divan". Goethe liebte die plastische Darstellung der antiken Götter und Halbgötter, der Tempel und Heiligtümer, während ihm das Kreuz und die Darstellung gemarterter Leiber geradezu verhasst waren. Dem Islam begegnete Goethe mit Respekt, aber nicht kritiklos. In den "Noten und Abhandlungen um besseren Verständnis des West-östlichen Divans." kritisierte er, Mohammed habe seinem Stamme „eine düstere Religionshülle übergeworfen“; dazu zählte er das negative Frauenbild, das Wein- und Rauschverbot und die Abneigung gegen die Poesie. Kirchliche Zeremonien und Prozessionen waren ihm „seelenloses Gepräge“ und „Mummereien“. Die Kirche wolle herrschen und brauche dazu „eine bornierte Masse, die sich duckt und die geneigt ist, sich beherrschen zu lassen“. Die ganze Kirchengeschichte sei ein „Mischmasch von Irrtum und von Gewalt“. Gleichwohl sah er im Christentum „eine Ordnungsmacht, die er respektierte und die er respektiert sehen wollte“. Das Christentum sollte zwar den gesellschaftlichen Zusammenhang im Volk fördern, doch für die geistige Elite war es aus Goethes Sicht überflüssig, denn: „Wer Wissenschaft und Kunst besitzt, / hat auch Religion; / wer jene beiden nicht besitzt, / der habe Religion.“ Andererseits war ihm die Vorstellung der Wiedergeburt nicht fremd. Sein Unsterblichkeitsglaube basierte jedoch nicht auf religiösen, sondern philosophischen Prämissen, etwa auf der Leibnizschen Konzeption der unzerstörbaren Monade oder der Aristotelischen Entelechie. Aus dem Gedanken der Tätigkeit entwickelte er im Gespräch mit Eckermann die These, dass die Natur verpflichtet sei, „wenn ich bis an mein Ende rastlos wirke, […] mir eine andere Form des Daseins anzuweisen, wenn die jetzige meinem Geist nicht ferner auszuhalten vermag“. Ästhetisches Selbstverständnis. Als Rezensent der von seinem Darmstädter Freund Johann Heinrich Merck geleiteten "Frankfurter Gelehrten Anzeigen" setzte sich Goethe in seiner "Sturm und Drang"-Periode mit der Ästhetik des damals einflussreichen Johann Georg Sulzer auseinander. Dem traditionellen ästhetischen Prinzip, dass Kunst Nachahmung der Natur sei, stellte Goethe in seiner frühen Ästhetik das Genie gegenüber, das in seinem schöpferischen Ausdruck selbst "wie" die Natur schaffe. Dichterisches Schaffen sei Ausdruck ungezügelter Natur und Shakespeare deren personifizierte Schöpferkraft. Nach seiner Rückkehr aus Italien gewannen für Goethe die Gedanken der Autonomieästhetik, die Karl Philipp Moritz in der Schrift "Über die bildende Nachahmung des Schönen" (1788) niedergelegt hatte, große Bedeutung. Diese Schrift war Goethe zufolge aus Gesprächen zwischen ihm und Moritz in Rom hervorgegangen. Sie postulierte, dass das Kunstwerk keinem Fremdzweck diene und der Künstler keinem dienstbar sei, sondern als "Schöpfer" mit dem Erzeuger des Universums auf einer Stufe stehe. In diesem Anspruch fand Goethe auch die Lösung seines Dilemmas zwischen höfischer und künstlerischer Existenz: Als Schöpfer literarischer Schönheit lässt sich der Künstler durch einen Mäzen versorgen, ohne damit dessen Zwecken zu dienen. Im Gegensatz zu Schiller lehnte er es ab, poetische Werke als Gestaltung von Ideen zu begreifen. Mit Blick auf den "Faust" fragte er rhetorisch, was wohl das Ergebnis gewesen wäre, „wenn ich ein so reiches, buntes und höchst mannigfaltiges Leben, wie ich es im ‚Faust‘ zur Anschauung gebracht, auf die magere Schnur einer einzigen durchgehenden Idee hätte reihen wollen!“ Dem fügt sich die im gleichen Gespräch von Eckermann festgehaltene Äußerung Goethes: „je inkommensurabeler und für den Verstand unfaßlicher eine poetische Produktion, desto besser“. Auch Denis Diderots Ansicht, dass die Kunst eine getreue Nachbildung der Natur vermitteln solle, lehnte er ab. Er bestand auf der Unterscheidung von Natur und Kunst. Ihm zufolge organisiert die Natur „ein lebendiges gleichgültiges Wesen, der Künstler ein totes, aber ein bedeutendes, die Natur ein wirkliches, der Künstler ein scheinbares. Zu den Werken der Natur muß der Beschauer erst Bedeutsamkeit, Gefühl, Gedanken, Effekt, Wirkung auf das Gemüt selbst hinbringen, im Kunstwerk will und muß er alles schon finden.“ Der Kunst, so resümiert Karl Otto Conrady, ist ein entscheidendes Mehr vorbehalten, das sie von der Natur abhebt. Der Künstler fügt der Natur etwas hinzu, was ihr nicht zu eigen ist. Schiller hatte in seiner Schrift "Über naive und sentimentalische Dichtung" – einer für die „Selbstdefinition der Weimarer Klassik“ sehr wichtigen „dichtungstypologischen Abhandlung“ – Goethe als naiven Dichter charakterisiert und ihn in eine Ahnenreihe mit Homer und Shakespeare gestellt. In den naiven Dichtern sah Schiller ein Streben zur „Nachahmung des Wirklichen“, ihr Objekt sei die vom Dichter durch Kunst geschaffene Welt. Demgegenüber sei das Schaffen des sentimentalischen Dichters selbstreflexiv auf die „Darstellung des Ideals“ der verlorenen Natur gerichtet. Goethe, der Realist und Optimist, versagte es sich auch, seine Dramen und Romane mit Tod und Katastrophe enden zu lassen. In einem Brief an Schiller vom 9. Dezember 1797 bezweifelte er, dass er „eine wahre Trägödie schreiben könnte“. Seine Dramen und Romane enden meist untragisch mit Entsagung, so der Roman "Wilhelm Meisters Wanderjahre" mit dem bezeichnenden Untertitel "Die Entsagenden". In den "Wahlverwandtschaften" gestaltete er (in der Person Ottilie) das Thema der Entsagung ins Asketische und Heilige; diesen Roman führte er zu einem tragischen Ende. Mit seiner Wortprägung von der „Weltliteratur“ setzte der späte Goethe den partikulären Nationalliteraturen eine „allgemeine Weltliteratur“ entgegen, die „weder dem Volke noch dem Adel, weder dem König noch dem Bauer“ gehöre, sondern „Gemeingut der Menschheit“ sei. In seiner literarischen Produktion samt Übersetzungen aus den wichtigsten europäischen Sprachen demonstrierte Goethe die Spannweite seines ästhetischen Zugriffs auf Literaturen Europas, des Nahen und Fernen Ostens und der Klassischen Antike in eindrucksvoller Weise. Von der Rezeption persischer und chinesischer Lyrik geben die Gedichtzyklen "West-östlicher Divan" und "Chinesisch-deutsche Tages- und Jahreszeiten" Zeugnis. Goethe stand in brieflichem Kontakt mit europäischen Schriftstellern, so mit dem schottischen Essayisten und Verfasser von "The Life von Schiller" (1825), Thomas Carlyle, mit Lord Byron und dem Italiener Alessandro Manzoni. Er übersetzte die Memoiren des Renaissance-Goldschmieds Benvenuto Cellini und Diderots satirisch-philosophischen Dialog "Rameaus Neffe". Regelmäßig las er ausländische Journale wie die französische Literaturzeitschrift "Le Globe", die kulturgeschichtliche italienische Zeitschrift "L'Eco" und die "Edinburgh Review". Gerhard R. Kaiser vermutet, dass in Goethes Äußerungen über Weltliteratur die Verfasserin von "De l’Allemagne." ("Über Deutschland." 1813), Madame de Staël, die 1803 Weimar einen Besuch abgestattet hatte, unausgesprochen präsent sei, weil ihr Werk den sich zu Goethes Zeiten vollziehenden weltliterarischen Prozess beschleunigt habe. Im Gespräch mit Eckermann postulierte er: Während er in seinen letzten Jahren die neuere deutsche Literatur kaum einer Erwähnung für würdig befand, las er „aus Frankreich Balzac, Stendhal, Hugo, aus England Scott und Byron,und aus Italien Manzoni“. Werk. Das künstlerische Werk Goethes ist vielfältig. Den bedeutendsten Platz nimmt das schriftstellerische Werk ein. Daneben stehen das zeichnerische Werk mit über 3.000 hinterlassenen Arbeiten, die 26-jährige Theaterdirektion in Weimar und nicht zuletzt die Planung des „Römischen Hauses“ im Park an der Ilm. Sein Werk übergreifen und durchdringen seine Ansichten zur Natur und zur Religion und sein ästhetisches Verständnis. Lyrik. Von seiner Jugend bis ins hohe Alter war Goethe Lyriker. Mit seinen Gedichten prägte er die literarischen Epochen des Sturm und Drangs und der Weimarer Klassik. Ein großer Teil seiner Lyrik erlangte Weltgeltung und gehört zum bedeutendsten Teil des lyrischen Kanons der deutschsprachigen Literatur. Im Laufe von etwa 65 Jahren schrieb er mehr als 3000 Gedichte, die teils eigenständig, teils in Zyklen wie den Römischen Elegien, dem "Sonettenzyklus," dem "West-östlichen Divan" oder der "Trilogie der Leidenschaft" erschienen. Das lyrische Werk zeigt eine erstaunliche Formen- und Ausdrucksvielfalt und entspricht der Weite des inneren Erlebens. Neben langen, mehrere hundert Verse umfassenden Gedichten stehen kurze Zweizeiler, neben Versen mit hoher sprachlicher und metaphorischer Komplexität einfache Sprüche, neben strengen und antikisierenden Metren liedhafte oder spöttische Strophen sowie reimlose Gedichte in freien Rhythmen. Mit seinem lyrischen Gesamtwerk hat Goethe das deutschsprachige Gedicht „erst eigentlich geschaffen“ und Vorbilder hinterlassen, an denen sich nahezu alle nachfolgenden Dichter gemessen haben. In seiner lyrischen Produktion hat Goethe sich alle aus der (alten und neuen) Weltliteratur bekannten Formen dieser literarischen Gattung mit metrischer Virtuosität zu eigen gemacht. Sein poetisches Ausdrucksvermögen wurde ihm so selbstverständlich „wie Essen und Atmen“. Bei der Zusammenstellung seiner Gedichte ist er selten chronologisch vorgegangen, sondern nach Kriterien der thematischen Kohärenz, wobei sich die einzelnen Gedichte gegenseitig ergänzen, aber auch widersprechen konnten. Das stellt die Goetheforschung bei der Publikation seines lyrischen Werks in kritischen Gesamtausgaben vor große Probleme. Eine Gliederung, die sich als einflussreich erwiesen hat und leicht zugänglich ist, ist die von Erich Trunz in der "Hamburger Ausgabe". Die beiden von Trunz herausgegebenen Bände sind im ersten Band, "Gedichte und Epen I", in leicht chronologischer Ordnung gegliedert: "Frühe Gedichte", "Sturm und Drang", "Gedichte der ersten Mannesjahre." "Die Zeit der Klassik." "Alterswerke". Der zweite Band, "Gedichte und Epen II." enthält den "West-östlichen Divan" und die Versepen "Reineke Fuchs." "Hermann und Dorothea" und "Achilleis". Epik. Das epische Werk Goethes umfasst, wie das dramatische, fast alle Formen der epischen Literatur: die Tierfabel (Reineke Fuchs), das Versepos (Hermann und Dorothea), die Novelle (Novelle), den Roman (Die Wahlverwandtschaften, Wilhelm Meisters Lehr- und Wanderjahre) und Briefroman (Die Leiden des jungen Werthers), den Reisebericht (Italienische Reise) und autobiographische Schriften (Dichtung und Wahrheit, Campagne in Frankreich). Goethes erster Roman, "Die Leiden des jungen Werthers," wurde zu einem der größten Erfolge der deutschen Literaturgeschichte. Der Verfasser bediente sich einer für das 18. Jahrhundert typischen Erzählform, des Briefromans. Aber er radikalisierte dieses Genre, indem er keinen Briefwechsel zwischen Romanfiguren darstellte, sondern einen monologischen Briefroman schrieb. In "Dichtung und Wahrheit" bekennt er, dass er mit dem Roman zum ersten Mal von seinem Leben dichterischen Gebrauch gemacht habe. Mit der empfindsamen Gestaltung seiner unerfüllten Liebesgeschichte mit Charlotte Buff in Wetzlar löste er eine regelrechte „Werther-Mode“ aus. Man kleidete sich wie er (blauer Gehrock, gelbe Hosen, braune Stiefel), redete und schrieb wie er. Auch gab es zahlreiche suizidale Nachahmer, denen Werthers Freitod als Vorbild diente (siehe Werther-Effekt). Seinen frühen europäischen Ruf verdankte er diesem Roman, der 1800 in den meisten europäischen Sprachen greifbar war. Selbst Napoleon kam bei der historischen Begegnung mit Goethe am 2. Oktober 1808 in Erfurt auf dieses Buch zu sprechen. Eine zentrale Stellung in Goethes epischem Werk nehmen die "Wilhelm Meister"-Romane ein. Der Roman "Wilhelm Meisters Lehrjahre" galt den Romantikern als epochales Ereignis und „Paradigma des romantischen Romans“ (Novalis), den realistischen Erzählern als „Auftakt zur Geschichte des Bildungs- und Entwicklungsromans“ im deutschsprachigen Bereich. Insbesondere den realistischen Erzählern wie Karl Immermann, Gottfried Keller und Adalbert Stifter, später auch Wilhelm Raabe und Theodor Fontane diente er als Paradigma für die poetische Reproduktion der realen Wirklichkeit. Hingegen erscheint das Spätwerk "Wilhelm Meisters Wanderjahre" durch seine offene Form, mit dem tendenziellen Verzicht auf die inhaltliche Instanz eines zentralen Helden und allwissenden Erzählers, als ein „hochmodernes Kunstwerk“, welches dem Leser „eine Vielzahl von Rezeptionsangeboten macht“. Der erst posthum (1911) veröffentlichte Vorläufer "Wilhelm Meisters theatralische Sendung" – ein fragmentarischer „Urmeister“ – steht inhaltlich noch dem "Sturm und Drang" näher und wird formal dem Genre des Theater- und Künstlerromans zugeordnet. Unter diesem Genre hatten die Romantiker schon "Wilhelm Meisters Lehrjahre" rezipiert. Die "Wahlverwandtschaften" hat Goethe in einer Konversation als sein „bestes Buch“ bezeichnet. In einer Art experimenteller Anordnung bringt er darin zwei Paare zusammen, deren naturgebundenes Schicksal er nach dem Modell chemischer Anziehungs- und Abstoßungskräfte gestaltet, indem er deren Gesetzmäßigkeit den Beziehungen zwischen den beiden Paaren unterlegt. Eine Ambivalenz von sittlichen Lebensformen und rätselhaften Leidenschaften bestimmt das Romangeschehen. Der Roman erinnert an Goethes ersten Roman, den "Werther", vornehmlich durch den „unbedingten, ja rücksichtslosen Liebesanspruch“ einer der Hauptpersonen (Eduard), „im Kontrast mit dem selbstbeherrschten Verzicht“ der anderen. Thomas Mann sah in ihm „Goethe’s "ideellstes" Werk“, das einzige Produkt größeren Umfangs, das Goethe, seinem Selbstzeugnis zufolge, „nach Darstellung einer durchgreifenden Idee gearbeitet“ habe. Das Werk eröffnete die Reihe europäischer Ehe(bruch)romane: Flauberts "Madame Bovary", Tolstois "Anna Karenina", Fontanes "Effi Briest". Es wurde als unmoralisch kritisiert, obwohl der Autor den Ehebruch nur gedanklich vollziehen lässt. Die "Italienische Reise" veröffentlichte Goethe Jahrzehnte nach seiner Reise. Sie ist kein Reisebuch im üblichen Sinne, sondern eine Selbstdarstellung in der Begegnung mit dem Süden, ein Stück Autobiographie. Im Erstdruck erschien sie 1816–1817 als „Zweite Abteilung“ seiner Autobiographie "Aus meinem Leben," deren „Erste Abteilung“ "Dichtung und Wahrheit" enthielt. Als Grundlage dienten Goethe sein an Charlotte von Stein in losen Folgen geschicktes italienisches Reisejournal und die damaligen Briefe an sie und Herder. Erst 1829 erschien das Werk unter dem Titel "Italienische Reise" mit einem zweiten Teil: „Zweiter Römischer Aufenthalt“. Darin wechseln redigierte Originalbriefe mit später geschriebenen Berichten. Mit "Dichtung und Wahrheit" nahm Goethe im ersten Jahrzehnt des 19. Jahrhunderts die Abfassung einer großen Autobiographie in Angriff. Deren ursprüngliche Konzeption war eine zur Metamorphose stilisierte Bildungsgeschichte des Dichters. Bei der Arbeit am dritten Teil geriet er mit diesem Interpretationsmodell in die Krise; er ersetzte es durch die Kategorie des „Dämonischen“, mit der er das Unkontrollierbare eines übermächtigen Natur- wie Geschichtszusammenhangs zu erfassen suchte. Die Darstellung kam nicht über die Schilderung von Kindheit, Jugend, Studium und ersten literarischen Erfolgen hinaus. Dramatik. Goethe hat seit seiner Jugendzeit bis in seine letzten Lebensjahre mehr als zwanzig Dramen verfasst, von denen "Götz von Berlichingen", "Clavigo", "Egmont", "Stella", "Iphigenie auf Tauris", "Torquato Tasso" und vornehmlich die beiden Teile des "Faust" noch heute zum klassischen Repertoire der deutschen Theater gehören. Obgleich seine Theaterstücke die gesamte Spannweite der Theaterformen – Schäferspiel, Farce, Schwank, Komödie, heroisches Drama, Trauerspiel – umfassen, bilden doch die klassischen Dramen und Tragödien den Schwerpunkt seiner dramatischen Produktion. Drei seiner Theaterstücke wurden zu Meilensteinen der deutschen Dramenliteratur. Mit dem Sturm-und-Drang-Drama "Götz von Berlichingen mit der eisernen Hand" gelang Goethe der Durchbruch als Dramatiker; es machte ihn über Nacht berühmt. Zeitgenossen sahen in ihm „etwas von Shakespeares Geist“, ja in Goethe den „deutschen Shakespeare“. Neben dem „Götz-Zitat“ schlug sich auch der auf die Hauptperson gemünzte Ausruf „Es ist eine Wollust, einen großen Mann zu sehn“ im sprichwörtlichen Sprachschatz der Deutschen nieder. Ein weiteres historisches Drama, der "Egmont," ist gleichfalls um einen einzelnen dominanten Charakter organisiert, auch er in stellvertretender Funktion für den Autor, der seine Werke als „Bruchstücke einer großen Konfession“ verstand. Das Drama "Iphigenie auf Tauris" gilt als vorbildlich für Goethes Klassizismus. Goethe selbst bezeichnete es gegenüber Schiller als „ganz verteufelt human“. Friedrich Gundolf sah in ihm sogar das „Evangelium der deutschen Humanität schlechthin“. Die ursprüngliche Prosaversion wurde in der endgültigen Fassung (1787) wie der zur gleichen Zeit vollendete "Torquato Tasso", das „erste reine Künstlerdrama der Weltliteratur“, in Blankversen verfasst. Die "Faust"-Tragödie, an der Goethe mehr als sechzig Jahre lang arbeitete, bezeichnet der "Faust"-Experte und Herausgeber des Bandes mit den "Faust"-Dichtungen in der Frankfurter Ausgabe, Albrecht Schöne, als die „Summe seiner Dichtkunst“. Mit dem "Faust" griff Goethe einen Renaissance-Stoff über die Hybris des Menschen auf und spitzte ihn auf die Frage zu, ob sich das Streben nach Erkenntnis mit dem Verlangen nach Glück vereinbaren lässt. Heinrich Heine nannte das "Faust"-Drama „die weltliche Bibel der Deutschen“. Der Philosoph Hegel würdigte das Drama als die „absolute philosophische Tragödie“, in welcher „einerseits die Befriedigungslosigkeit in der Wissenschaft, andererseits die Lebendigkeit des Weltlebens und irdischen Genusses […] eine Weite des Inhalts gibt, wie sie in ein und demselben Werke […] zuvor kein anderer dramatischer Dichter gewagt hat“. Nach der Reichsgründung wurde Faust zum „nationalen Mythos“, zur „Inkarnation deutschen Wesens und deutschen Sendungsbewußtseins“ verklärt. Neuere Interpretationen drängen den überkommenen Deutungsoptimismus des „Faustischen“ mit seiner Vorbildfigur für rastlosen Drang nach Vervollkommnung zurück und verweisen stattdessen auf das „Ruheverbot“ und den „Bewegungszwang“ im modernen Charakter des „Global Player Faust“ hin. Die auf das französische Drama (vornehmlich das von Pierre Corneille und Jean Baptiste Racine) fixierte Theatertheorie Johann Christoph Gottscheds hat Goethe abgelehnt, wie schon vor ihm Gotthold Ephraim Lessing. Nachdem Herder ihn in Straßburg mit Shakespeares Dramen bekannt gemacht hatte, erschien ihm als Stürmer und Dränger die von Gottsched gemäß Aristoteles geforderte Einheit von Ort, Handlung und Zeit „kerkermäßig ängstlich“ und „lästige Fesseln unserer Einbildungskraft“. Mit Götz von Berlichingens Bericht von seinem Leben fiel ihm ein Stoff in die Hände, der als „deutschnationale[r] Stoff […] dem englischnationalen Stoff Shakespeares entsprach“. Die im "Götz" gewählte offene dramatische Form wagte Goethe gleichwohl nur noch im "Faust". Albrecht Schöne zufolge ging das Stück schon im ersten Teil „aus den gewohnten dramatischen Fugen“ der „traditionell-aristotelischen Einheitsregeln“; im zweiten Teil seien die „Auflösungserscheinungen unübersehbar“. Die späteren Dramen nach dem "Götz" näherten sich – unter Lessings Einfluss – dem bürgerlichen Drama ("Stella, Clavigo") und klassischen Formen an, letzteres am deutlichsten in der "Iphigenie," in der die Einheit des Orts (Hain vor Dianas Tempel) und der Zeit gewahrt wird. Briefe. Goethe war nach dem Urteil Nicholas Boyles „einer der größten Briefeschreiber der Welt“, der Brief sei für ihn die „natürlichste literarische Form“ gewesen. Etwa 12.000 Briefe von ihm und 20.000 an ihn sind erhalten. Allein der bedeutsame Briefwechsel zwischen Goethe und Schiller umfasst 1015 überlieferte Briefe. Ungefähr anderthalbtausend Briefe richtete er an Charlotte von Stein. Zeichnungen. Zeit seines Lebens hat Goethe gezeichnet, „vorzugsweise mit Bleistift, Kohle, Kreide und kolorierter Tinte“, außerdem sind einige frühe Radierungen überliefert. Seine bevorzugten Sujets waren Porträts von Köpfen, Theaterszenen und Landschaften. Hunderte Zeichnungen entstanden während seiner ersten Reise in die Schweiz mit den Stolberg-Brüdern 1775 und auf seiner Italienreise 1786–1788. In Rom lehrten ihn seine Künstlerkollegen das perspektivische Malen und Zeichnen und motivierten ihn zum Studium der menschlichen Anatomie. Er erkannte dabei aber auch seine Grenzen in diesem Metier. Naturwissenschaftliche Schriften. "Farbenkreis zur Symbolisierung des menschlichen Geistes- und Seelenlebens," aquarellierte Federzeichnung Goethes, 1809 Er war bestrebt, die Natur in ihrem Gesamtzusammenhang mit Einschluss des Menschen zu erkennen. Die Abstraktion, deren sich die Wissenschaft damals zu bedienen begann, betrachtete Goethe wegen der damit verbundenen Isolierung der Objekte vom Betrachter mit Misstrauen. Sein Verfahren ist mit der modernen exakten Naturwissenschaft jedoch nicht zu vereinbaren: stellte der Physiker Hermann von Helmholtz 1853 fest. Goethes Beschäftigung mit der Naturwissenschaft fand vielfach Eingang in seine Dichtung, so in den "Faust" und in die Gedichte "Die Metamorphose der Pflanzen" und "Gingo biloba". Der Goethe zeitlebens beschäftigende "Faust" registriert für den Philosophen Alfred Schmidt, wie „die Abfolge von Gesteinsschichten, die Stadien seiner Naturerkenntnis“. Die belebte Natur stellte Goethe sich als in ständigem Wandel begriffen vor. So versuchte er in der Botanik zunächst, die unterschiedlichen Pflanzenarten auf eine gemeinsame Grundform, die „Urpflanze“, zurückzuführen, aus der sich sämtliche Arten entwickelt haben sollten. Später richtete er seine Aufmerksamkeit auf die einzelne Pflanze und glaubte zu erkennen, dass die Teile der Blüte und die Frucht letztlich umgebildete Blätter darstellen. Die Ergebnisse seiner Beobachtungen veröffentlichte er in der Schrift "Versuch die Metamorphose der Pflanzen zu erklären" (1790). In der Anatomie gelang Goethe 1784, gemeinsam mit dem Anatomieprofessor Justus Christian Loder, zu seiner großen Freude die (vermeintliche) Entdeckung des Zwischenkieferknochens beim menschlichen Embryo (ihm war entgangen, dass der Knochen in der Vergangenheit schon mehrmals beschrieben worden war). Der Zwischenkieferknochen, bis dahin nur bei anderen Säugetieren bekannt, verwächst beim Menschen vor der Geburt mit den umgebenden Oberkieferknochen. Sein Nachweis beim Menschen galt damals als wichtiges Indiz für dessen – von vielen Wissenschaftlern bestrittene – Verwandtschaft mit den Tieren. Seine "Farbenlehre" (erschienen 1810) hielt Goethe für sein naturwissenschaftliches Hauptwerk und verteidigte die darin vertretenen Thesen hartnäckig gegen zahlreiche Kritiker. Im Alter äußerte er, dass er den Wert dieses Werks höher einschätze als den seiner Dichtung. Mit der "Farbenlehre" stellte Goethe sich gegen diejenige Isaac Newtons, der nachgewiesen hatte, dass das weiße Licht sich aus Lichtern der unterschiedlichen Farben zusammensetzt. Goethe glaubte dagegen aus eigenen Beobachtungen schließen zu können, „daß das Licht eine unteilbare Einheit sei und die Farben aus dem Zusammenwirken von Hellem und Dunklem, Licht und Finsternis entstünden, und zwar durch die Vermittlung eines ‚trüben‘ Mediums“. So erscheine beispielsweise die Sonne rötlich, wenn sich eine trübe Dunstschicht vor ihr ausbreitet und sie abdunkelt. Schon zu Goethes Zeiten erkannte man allerdings, dass diese Phänomene sich auch mit der Theorie Newtons erklären lassen. Die "Farbenlehre" wurde in ihrem Kern von der Fachwelt schon bald zurückgewiesen, übte aber auf die zeitgenössischen und nachfolgenden Maler, vor allem Philipp Otto Runge, großen Einfluss aus. Zudem erwies sich Goethe damit als „Pionier der naturwissenschaftlichen Farbpsychologie“. Heute wird „sowohl Newton wie auch Goethe teilweise Recht und teilweise Unrecht“ zugebilligt; beide Forscher seien „Beispiele für unterschiedliche Typen experimentellen Arbeitens innerhalb des Systems der modernen Naturwissenschaft“. In der Geologie befasste Goethe sich vor allem mit dem Aufbau einer Mineralien-Sammlung, die bei seinem Tode auf 17.800 Steine angewachsen war. Über die Einzelerkenntnis der Gesteinsarten wollte er generelle Einsichten in die materielle Beschaffenheit der Erde und die Erdgeschichte erlangen. Die neuen Erkenntnisse der chemischen Forschung verfolgte er mit großem Interesse. Im Rahmen seiner Zuständigkeit für die Universität Jena begründete er den ersten Lehrstuhl für Chemie an einer deutschen Hochschule. Niederschriften von Gesprächen. Für die Goetheforschung sind die umfangreichen Niederschriften von Johann Peter Eckermanns "Gespräche mit Goethe in den letzten Jahren seines Lebens", die von "Goethes Unterhaltungen mit dem Kanzler Friedrich von Müller" und die "Mittheilungen über Goethe" von Friedrich Wilhelm Riemer von erheblicher Bedeutung für das Verständnis von Goethes Werk und Persönlichkeit. Die von Eckermann nach Goethes Tod in zwei Teilen 1836 und einem dritten Teil 1848 veröffentlichten Niederschriften umfassen den Zeitraum 1823 bis 1832. Der mit Goethe befreundete und als sein Testamentsvollstrecker von ihm bestimmte Kanzler von Müller schrieb erstmals 1808 eine "Unterhaltung mit Goethe" nieder. In den nachfolgenden Jahren folgten weitere Gesprächsberichte, zunächst in seinem Tagebuch, dann auf gesonderten Blättern ausgearbeitet. Zwei noch zu seinen Lebzeiten 1832 veröffentlichte Gedächtnisreden auf Goethe ließen den Reichtum seiner Goethe-Aufzeichnungen erkennen, die aber erst 1870 gesammelt aus dem Nachlass veröffentlicht wurden. Friedrich Wilhelm Riemer, ein Sprachuniversalist und Bibliothekar in Weimar, war Goethe während dreier Jahrzehnte, zunächst als Hauslehrer seines Sohnes August, sodann als Schreiber und Sekretär zu Diensten. Er gab unmittelbar nach Goethes Tod dessen Briefwechsel mit Zelter heraus und wirkte an den großen Werkausgaben mit. Seine "Mittheilungen" erschienen erstmals 1841 in zwei Bänden. Übersetzungen. Goethe war ein beflissener und vielseitiger Übersetzer. Er übertrug Werke aus dem Französischen (Voltaire, Corneille, Jean Racine, Diderot, de Staël), dem Englischen (Shakespeare, Macpherson, Lord Byron), dem Italienischen (Benvenuto Cellini, Manzoni), dem Spanischen (Calderón) und dem Altgriechischen (Pindar, Homer, Sophokles, Euripides). Auch aus der Bibel übersetzte er neu das Hohe Lied Salomons. Orden und Ehrenzeichen. Goethe erhielt diverse Orden und Auszeichnungen. Am 2. Oktober 1808 empfing Napoléon Bonaparte Goethe auf dem Erfurter Fürstenkongress. Er diskutierte mit ihm "Werthers Leiden". Am 14. Oktober 1808 überreichte er ihm das Ritterkreuz der französischen Ehrenlegion ("Chevalier de la Légion d’Honneur"). Napoleon kommentierte die Begegnung mit dem legendären Ausspruch: "„Voilà un homme!“" (sinngemäß: "Was für ein Mann!"). Goethe schätzte diesen Orden außerordentlich, da er ein Verehrer des französischen Kaisers war. Am 15. Oktober 1808 erhielt Goethe durch den Zaren Alexander I. den Russischen Orden der Heiligen Anna 1. Klasse. Goethe war der 406. Inhaber dieses Ordens. Er trug den dazugehörigen Bruststern statutengemäß auf der linken Seite. Am 28. Juni 1815 (oder am 1. August 1815) zeichnete Franz I. Kaiser von Österreich Goethe mit dem österreichisch-kaiserlichen Leopold-Orden aus. Goethe war der 143 Träger dieses 1808 gestifteten Ordens, der am roten Band um den Hals getragen wurde. Der Orden war Voraussetzung dafür in den Adelsstand eines Freiherrn aufzusteigen, wovon Goethe allerdings keinen Gebrauch machte. Am 30. Januar 1816 erhielt Goethe den vom Großherzog Carl August von Sachsen-Weimar-Eisenach neu belebten Hausorden vom Weißen Falken (auch Hausorden der Wachsamkeit). Er war der 14. Inhaber dieses Ordens, der auf der linken Brust beziehungsweise an einer Schärpe zu tragen war. Die Auszeichnung erhielt er für seine amtliche Tätigkeit als "Wirklicher Geheimer Rat" beziehungsweise für seine politischen Aktivitäten. 1818 erhielt Goethe per Post das Offizierskreuz des Ordens der französischen Ehrenlegion, verliehen vom französische König Ludwig XVIII. Unter dem 27. September 1818 steht in seinem Tagebuch „Sendung von Paris angekommen“. Nachdem er 1808 bereits das Ritterkreuz der Ehrenlegion durch Napoleon erhalten hatte, besaß er diesen Orden jetzt gleich zweimal. An seinem 78. Geburtstag, am 28. August 1827, bekam Goethe seinen letzten Orden, das Großkreuz des Verdienstorden der Bayerischen Krone (ursprünglich "Civil-Verdienst-Orden der Bayerischen Krone"). König Ludwig I. von Bayern war zur Verleihung extra persönlich angereist. Goethe war der 55. Träger diese Ordens außerhalb Bayerns. Der Orden hätte ihn berechtigt den Titel "Ritter von Goethe" zu tragen. Goethe hatte ein pragmatisches Verhältnis zu Orden. Gegenüber dem Porträtmaler Moritz Daniel Oppenheim soll er gesagt haben:„"Ein Titel und ein Orden hält im Gedränge manchen Puff ab..."“ Nachkommen. Johann Wolfgang von Goethe und seine Frau Christiane hatten fünf Kinder. Nur August, der zuerst geborene, (* 25. Dezember 1789; † 27. Oktober 1830) erreichte das Erwachsenenalter. Ein Kind wurde bereits tot geboren, die anderen starben alle sehr früh, was in der damaligen Zeit nicht ungewöhnlich war. August hatte drei Kinder: Walther Wolfgang (* 9. April 1818; † 15. April 1885), Wolfgang Maximilian (* 18. September 1820; † 20. Januar 1883) und Alma Sedina (* 29. Oktober 1827; † 29. September 1844). August starb zwei Jahre vor seinem Vater in Rom. Seine Frau Ottilie von Goethe gebar nach seinem Tod ein weiteres (nicht von August stammendes) Kind namens Anna Sibylle, das nach einem Jahr starb. Ihre Kinder blieben unverheiratet, so dass die direkte Nachkommenslinie von Johann Wolfgang von Goethe 1885 ausstarb. Seine Schwester Cornelia hatte zwei Kinder (Nichten Goethes), deren Nachkommen (Linie Nicolovius) noch heute leben. Siehe Goethe (Familie). Rezeption. Die Rezeption Goethes als eines Autors, „der wie kaum ein anderer weltweit in alle Lebensbereiche hinein gewirkt und seine prägenden Spuren hinterlassen hat“, ist außerordentlich vielfältig und geht weit über die literarisch-künstlerische Bedeutung seines Werks hinaus. Rezeption zu Lebzeiten im In- und Ausland. Mit dem "Götz von Berlichingen" (Erstdruck 1773, Uraufführung 1774) erzielte Goethe einen durchschlagenden Erfolg beim literarisch gebildeten Publikum noch vor der Uraufführung im Berliner Comödienhaus. Für Nicholas Boyle war er „von nun an und für den Rest seines langen Lebens eine öffentliche Gestalt, und sehr bald schon sah man in ihm den prominentesten Vertreter einer Bewegung“, die im 19. Jahrhundert als "Sturm und Drang" bezeichnet wurde. Den Höhepunkt seiner Popularität erreichte Goethe als Fünfundzwanzigjähriger mit dem "Werther"-Roman. Das Werk fand Zugang zu allen Leserschichten und löste eine breite Auseinandersetzung aus, behandelte es doch „zentrale religiöse, weltanschauliche und gesellschaftspolitische Probleme“, die die „Prinzipien bürgerlicher Lebensordnung“ in Frage stellten. Deutsche Literaturhistoriker unterteilen Goethes Dichtung gewöhnlich in drei Perioden: "Sturm und Drang", "Weimarer Klassik" und Alterswerk, während von außerhalb Deutschlands das „Zeitalter Goethes“ als eine Einheit und als Teil des „Zeitalters der europäischen Romantik“ gesehen wird. Als ein Opponent der romantischen Dichtung galt und gilt Goethe der deutschen Literaturkritik – sein Wort „Klassisch ist das Gesunde, romantisch das Kranke“ gehört zu den häufig zitierten. In der verallgemeinernden Sicht von außen verschwinden diese Differenzen zum Bild einer klassisch-romantischen Periode, die von Klopstock bis Heinrich Heine sich erstreckt und in der Goethe die bedeutende Rolle zukam, die klassischen – von französischer Literatur geprägten – Konventionen mit romantischen Ideen und innovativen poetischen Praktiken durchbrochen zu haben. Die Wahrnehmung der zeitgenössischen deutschen Romantiker von Goethe war ambivalent. Er war einerseits der „intellektuelle Fokus“ der Jenaer Romantiker, die ihn als „wahren Statthalter des poetischen Geistes auf Erden“ (Novalis) und seine Dichtung als „Morgenröte echter Kunst und reiner Schönheit“ (Friedrich Schlegel) glorifizierten. Mit ihrem Konzept der "Universalpoesie" antizipierten sie Goethes Begriff der "Weltliteratur". Andererseits kritisierten sie nach ihrer Hinwendung zum Katholizismus den zuvor gepriesenen "Wilhelm Meister"-Roman als „künstlerischen Atheismus“ (Novalis) und Goethe als „deutschen Voltaire“ (Friedrich Schlegel). Ebenfalls ambivalent, wenn auch in anderer Weise, würdigte Heinrich Heine in seiner Schrift "Die romantische Schule" Goethes Persönlichkeit und Dichtung: Er feierte ihn einerseits als Olympier und „absoluten Dichter“, dem alles, was er schrieb, zum „abgerundeten Kunstwerk“ gelang, vergleichbar nur mit Homer und Shakespeare, kritisierte aber andererseits seine politische Indifferenz im Hinblick auf die Entwicklung des deutschen Volkes. Mit ihrem 1813 erschienenen Buch "De l'Allemagne" ("Über Deutschland") machte Madame de Staël Frankreich und im Gefolge auch England und Italien mit deutscher Kultur und Literatur bekannt. In dem europaweit rezipierten Buch charakterisierte sie die zeitgenössische deutsche Literatur als romantische Kunst mit dem Zentrum Weimar und Goethe als exemplarischer Figur, ja als „größten deutschen Dichter“. Erst danach wurde Weimar auch jenseits der deutschen Grenzen zum Inbegriff deutscher Literatur und „erst danach setzten die Pilgerreisen von Intellektuellen aus ganz Europa an den Frauenplan ein, erst danach kam es zu den internationalen Austauschprozessen, die mit Namen wie Manzoni, Carlyle oder Walter Scott verbunden sind“. Gegen Ende seines Lebens fühlte Goethe sich weniger von seinen deutschen als von ausländischen Zeitgenossen akzeptiert, mit denen er in Austausch getreten war und die über seine Werke Artikel publizierten. Wandel des Goethebildes. Nach des Dichters Tod bis zur Reichsgründung sprach die akademische Goethephilologie von „einer Epoche der Goetheferne und der Goethefeindschaft“ und bezeichnete dessen 100. Geburtstag als den „tiefsten Stand seines Ansehens in der Nation“. Tatsächlich erschien in der Zeitspanne zwischen 1832 und 1871 „keine einzige Goethebiographie von bleibendem Wert“. Aber, wie Mandelkow zu berichten weiß, bildete dieser Abschnitt der Wirkungsgeschichte Goethes ein „Spannungsfeld zwischen Negation und Apotheose“. Die Weimarer Kunstfreunde und Mitarbeiter Goethes – die drei testamentarischen Verwalter von Goethes Nachlass (Eckermann, Riemer, Kanzler Friedrich Müller) und andere aus dem engeren Umkreis – gründeten gleich nach Goethes Tod den ersten „Goethe-Verein“ und legten mit ihren Nachlass-Editionen und -Dokumentationen „das erste Fundament einer Goethephilologie“. Gegen deren Goetheverehrung standen Heinrich Heines und Ludwig Börnes kritische Aneignung Goethes. Beide kritisierten zwar seine auf Ruhe und Ordnung bedachte „Kunstbehaglichkeit“ in einer Zeit politischer Restauration, aber in fundamentalem Gegensatz zu dem erbitterten „Goethehasser“ Börne schätzte Heine Goethes Dichtung als das Höchste. Für das "Junge Deutschland" stand Goethe im Schatten Schillers, dessen revolutionäre Tendenzen besser in die Zeit des Vormärz passten als die politisch konservative Haltung Goethes. Auch eine christliche Opposition, sowohl von katholischer als auch von protestantischer Seite, bildete sich gegen Goethes Leben und Werk, wobei insbesondere die "Wahlverwandtschaften" und der "Faust" ins Fadenkreuz der Kritik gerieten. Mit „unverhohlener Schärfe“ richteten sich verschiedene Kampfschriften kirchlicher Parteigänger gegen den im letzten Drittel des 19. Jahrhunderts sich abzeichnenden Klassiker- und Goethekult. Der Jesuit Alexander Baumgartner schrieb eine umfangreiche Goethedarstellung, in der er allerdings Goethe als einen „glänzend begabten“ Dichter charakterisierte, aber dessen „unsittliche“ Lebensführung, „unbekümmerte Lebenslust und Genußsucht“ geißelte: „Mitten in einer christlichen Gesellschaft hat er sich offen zum Heidentum bekannt und ebenso offen nach dessen Grundsätzen sein Leben eingerichtet.“ Nachdem Goethe schon seit den 1860er Jahren zum Lektürekanon an deutschen Schulen gehörte, wurde er nach der Reichsgründung 1871 allmählich zum Genius des neuen Reiches erklärt. Beispielhaft dafür standen die Goethe-Vorlesungen Herman Grimms von 1874/75. Ihm zufolge habe Goethe „auf die geistige Atmosphäre Deutschlands gewirkt […] wie ein tellurisches Ereigniß, das unsere klimatische Wärme um so und soviele Grade im Durchschnitte erhöhte“. – „Goethe’s Prosa ist nach und nach für alle Fächer des geistigen Lebens zur mustergültigen Ausdrucksweise geworden. Durch Schelling ist sie in die Philosophie, durch Savigny in die Jurisprudenz, durch Alexander von Humboldt in die Naturwissenschaften, durch Wilhelm von Humboldt in die philologische Gelehrsamkeit eingedrungen.“ Eine Flut von Goethe-Ausgaben und Goethe-Sekundärliteratur erschien. Seit 1885 widmet sich die Goethe-Gesellschaft der Erforschung und Verbreitung des Goetheschen Werkes; zu ihren Mitgliedern gehörten die Spitzen der Gesellschaft im In- und Ausland, darunter das deutsche Kaiserpaar. Charakteristisch für den Goethekult des Kaiserreiches war die Verlagerung des Interesses von Goethes Werk auf „das Kunstwerk seines wohlgeführten, bewegten und reichen, und doch durchaus in harmonischer Einheit zusammengehaltenen Lebens“, hinter dem im Allgemeinbewusstsein die dichterische Produktion zu verschwinden drohte. So schrieb der Schriftsteller Wilhelm Raabe 1880: „Goethe ist der deutschen Nation gar nicht der Dichterei usw. wegen gegeben, sondern daß sie aus seinem Leben einen ganzen vollen Menschen vom Anfang bis zum Ende kennenlernen.“ Aus dem Studium von Goethes als beispielhaft empfundenem Leben erhoffte man sich Rat und Nutzen für die eigene Lebensführung. Es gab jedoch auch Stimmen, die die Inhaltsleere des Goethekults in Teilen der Bevölkerung herausstellten. Gottfried Keller bemerkte 1884: „Jedes Gespräch wird durch den geweihten Namen beherrscht, jede neue Publikation über Goethe beklatscht – er selbst aber nicht mehr gelesen, weshalb man auch die Werke nicht mehr kennt, die Kenntnis nicht mehr fortbildet.“ Und Friedrich Nietzsche schrieb 1878: „Goethe ist in der Geschichte der Deutschen ein Zwischenfall ohne Folgen: wer wäre im Stande, in der deutschen Politik der letzten siebenzig Jahre zum Beispiel ein Stück Goethe aufzuzeigen!“ In der Weimarer Republik wurde Goethe als geistige Grundlage des neuen Staates beschworen. 1919 verkündete der spätere Reichspräsident Friedrich Ebert, jetzt gelte es, die Wandlung zu vollziehen, „vom Imperialismus zum Idealismus, von der Weltmacht zur geistigen Größe. […] Wir müssen die großen Gesellschaftsprobleme in dem Geiste behandeln, in dem Goethe sie im zweiten Teil des Faust und in Wilhelm Meisters Wanderjahren erfaßt hat“. Der „Geist von Weimar“ wurde als Kontrapunkt zum überwunden geglaubten „Geist von Potsdam“ gesetzt. Praktische Wirkung hatte dieses Bekenntnis jedoch nicht. Die politische Linke kritisierte den Geniekult um Goethe mit dem „Naturschutzpark“ Weimar (Egon Erwin Kisch). Bertolt Brecht erwiderte in einem Rundfunkgespräch: Die Klassiker sind im Krieg gestorben. Es gab jedoch auch bedeutende Schriftsteller, wie Hermann Hesse, Thomas Mann und Hugo von Hofmannsthal, die der linken Klassikerschelte ein positives Goethebild entgegensetzten. Hermann Hesse fragte 1932: „War er am Ende wirklich, wie die ihn nicht gelesen habenden, naiven Marxisten meinen, eben nur ein Heros des Bürgertums, der Mitschöpfer einer subalternen, kurzfristigen, heute längst schon wieder abgeblühten Ideologie?“ Anders als mit Schiller, Kleist und Hölderlin, tat sich die nationalsozialistische Kulturpolitik schwer, Goethe für ihre Ziele zu vereinnahmen. Alfred Rosenberg hatte 1930 in seinem Buch "Der Mythus des 20. Jahrhunderts" erklärt, dass Goethe für die kommenden „Zeiten erbitterter Kämpfe“ nicht brauchbar sei, „weil ihm die Gewalt einer typenbildenden Idee verhaßt war und er sowohl im Leben wie im Dichten keine Diktatur eines Gedankens anerkennen wollte“. Gleichwohl hat es nicht an Versuchen gefehlt, auch Goethe für die Ideologie des NS-Regimes in Anspruch zu nehmen, zum Beispiel in Schriften wie "Goethes Sendung im Dritten Reich" (August Raabe, 1934) oder "Goethe im Lichte des neuen Werdens" (Wilhelm Fehse, 1935). Diese Schriften waren die vornehmlichen Quellen, auf die sich die Parteioffiziellen bezogen, so auch Baldur von Schirach in seiner Rede zur Eröffnung der Weimarer Festspiele der Jugend von 1937. Als vielbenutztes Zitatreservoir wurde die "Faust"-Dichtung missbraucht (besonders Mephistos Ausspruch: „Blut ist ein ganz besonderer Saft“) und Faust als eine „Leitfigur des neuen nationalsozialistischen Menschentypus“ hochstilisiert. In den beiden deutschen Staaten nach 1945 erfuhr Goethe eine Renaissance. Er erschien nun als Repräsentant eines besseren, humanistischen Deutschlands, der über die zurückliegenden Jahre der Barbarei hinwegzutragen schien. Jedoch stand die Goethe-Aneignung in Ost und West unter unterschiedlichen Vorzeichen. In der Deutschen Demokratischen Republik etablierte sich, inspiriert vor allem durch Georg Lukács, eine marxistisch-leninistische Interpretation. Der Dichter wurde nun zum Verbündeten der Französischen Revolution und Wegbereiter der 1849 erklärt, sein "Faust" zur „Produktivkraft für die Errichtung einer sozialistischen Gesellschaft“. Dagegen knüpfte man in der Bundesrepublik Deutschland zunächst an das traditionelle Goethebild an, das heißt an eine zum Mythos erhobene Gestalt eines Dichters, „der aus der Barbarei der vergangenen zwölf Jahre der Naziherrschaft scheinbar unbeschädigt und unberührbar hervorgegangen war“. Ab dem Ende der 1960er Jahre kam es jedoch zu einer Neubewertung von Aufklärung, Französischer Revolution und Weimarer Klassik. Mandelkow spricht von einer „Klassikschelte“ der Neue Linken, die Friedrich Hölderlin, den „gescheiterten Revolutionär“, als Kontrastfigur zu Goethe entwarf. Gegen Ende der 1970er Jahre zeichnete sich eine Entpolitisierung der Goetherezeption ab durch objektivere Betrachtungsweisen und eine sozialgeschichtliche Analyseperspektive. Mit seinem positiven Goethe- und Klassikbild stellte Peter Hacks innerhalb der DDR-Literatur während der 1970er Jahre eine Ausnahme dar. Einfluss auf Literatur und Musik. Goethes Einfluss auf die nachgeborenen deutschsprachigen Dichter und Schriftsteller ist allgegenwärtig, so dass hier nur einige Autoren genannt werden können, die sich mit ihm und seinem Werk in besonderem Maße auseinandersetzten. Die Dichter und Schriftsteller der Romantik knüpften an den Gefühlsüberschwang des "Sturm und Drang" an. Franz Grillparzer bezeichnete Goethe als sein Vorbild und teilte mit diesem neben bestimmten stilistischen Gepflogenheiten die Abneigung gegen politischen Radikalismus jeglicher Art. Friedrich Nietzsche verehrte Goethe sein Leben lang und fühlte sich besonders in seiner skeptischen Haltung zu Deutschland und zum Christentum als dessen Nachfolger. Hugo von Hofmannsthal befand: „Goethe kann als Grundlage der Bildung eine ganze Kultur ersetzen“ und „Von Goethes Sprüchen in Prosa geht heute vielleicht mehr Lehrkraft aus als von sämtlichen deutschen Universitäten“. Er verfasste zahlreiche Aufsätze zu Goethes Werk. Thomas Mann empfand für Goethe tiefe Sympathie. Er fühlte sich ihm wesensverwandt nicht nur in seiner Rolle als Dichter, sondern auch in einer ganzen Reihe von Charakterzügen und Gewohnheiten. Thomas Mann verfasste zahlreiche Essays und Aufsätze zu Goethe und hielt die zentralen Reden zu den Goethe-Jubiläumsfeiern 1932 und 1949. In seinem Roman "Lotte in Weimar" lässt er den Dichter lebendig werden, mit dem Roman "Doktor Faustus" griff er den Fauststoff erneut auf. Hermann Hesse, der sich immer wieder mit Goethe auseinandersetzte und sich in einer Szene seines "Steppenwolfs" gegen eine Verfälschung des Goethebildes wandte, bekannte: „Unter allen deutschen Dichtern ist Goethe derjenige, dem ich am meisten verdanke, der mich am meisten beschäftigt, bedrängt, ermuntert, zu Nachfolge oder Widerspruch gezwungen hat.“ Ulrich Plenzdorf übertrug in seinem Roman "Die neuen Leiden des jungen W." das "Werther"-Geschehen in die DDR der 1970er Jahre. Peter Hacks machte die Beziehung Goethes zur Hofdame Charlotte von Stein zum Thema seines Monodramas "Ein Gespräch im Hause Stein über den abwesenden Herrn von Goethe". In dem Dramolett "In Goethes Hand. Szenen aus dem 19. Jahrhundert" machte Martin Walser Johann Peter Eckermann zur Hauptfigur und stellte ihn in seinem heiklen Verhältnis zu Goethe dar. Goethes letzte Liebe zu Ulrike von Levetzow in Marienbad diente Walser als Stoff für seinen Roman "Ein liebender Mann". In Thomas Bernhards Erzählung "Goethe schtirbt" nennt sich die Figur Goethe einen „Lähmer der deutschen Literatur“, der darüber hinaus den Werdegang zahlreicher Dichter (Kleist, Hölderlin) ruiniert habe. Dem Theologen, Philosophen und Arzt Albert Schweitzer schließlich wurde Goethe „zum Vorbild eines Menschen, der Sorge um andere nicht auf sich beruhen, sondern durch Hilfeleistung fruchtbar werden ließ“. Für Schweitzer war Goethe Mentor und Tröster in schwierigen Zeiten. Zahlreiche Gedichte Goethes wurden – von Komponisten und Komponistinnen vor allem des 19. Jahrhunderts – vertont, wodurch der Dichter die Entwicklung des Kunstliedes förderte, allerdings das sog. durchkomponierte Lied von Franz Schubert kategorisch ablehnte. Dennoch war Schubert mit rund 80 Goethe-Vertonungen der produktivste unter den musikalischen Goethe-Interpreten. Zu seinen Vertonungen zählen die populär gewordenen "Heidenröslein, Gretchen am Spinnrade" und der "Erlkönig". Felix Mendelssohn Bartholdy, mit Goethe persönlich bekannt, vertonte die Ballade "Die erste Walpurgisnacht". 1822 lernte auch Fanny Hensel Goethe kennen, nachdem sie sich beklagt hatte, dass es zu wenig gut vertonbare Gedichte gebe. Daraufhin widmete Goethe, der eine hohe Meinung von ihr als Pianistin und Komponistin hatte, ihr sein Gedicht "Wenn ich mir in stiller Seele". Sie setzte das Gedicht dann auch in Töne. Neben Robert und Clara Schumann hinterließ auch Hugo Wolf Goethe-Vertonungen. Robert Schumann vertonte nicht nur "Szenen aus Goethes Faust", sondern auch Gedichttexte aus "Wilhelm Meisters Lehrjahre" sowie ein "Requiem für Mignon". Hugo Wolf vertonte unter anderem Gedichte aus dem "Wilhelm Meister" und dem "West-östlichen Divan". Rezeption als Naturwissenschaftler. Goethes naturwissenschaftliche Arbeit wurde von den zeitgenössischen Fachkollegen anerkannt und ernst genommen; er stand in Kontakt mit angesehenen Forschern wie dem Naturforscher Alexander von Humboldt, dem Arzt Christoph Wilhelm Hufeland und dem Chemiker Johann Wolfgang Döbereiner. In der Fachliteratur wurden seine Schriften, allen voran die "Farbenlehre," von Beginn an kontrovers diskutiert; mit der Fortentwicklung der Naturwissenschaften wurden Goethes Theorien in weiten Teilen als überholt betrachtet. Eine vorübergehende Renaissance erfuhr er ab 1859, dem Erscheinungsjahr von Charles Darwins Werk "Über die Entstehung der Arten". Goethes Annahme eines ständigen Wandels der belebten Welt und der Zurückführbarkeit der organischen Formen auf eine gemeinsame Urform führte nun dazu, dass er als ein Vordenker der Evolutionstheorien galt. Von 1883 bis 1897 gab Rudolf Steiner Goethes naturwissenschaftliche Schriften heraus. Er erkannte in dem ganzheitlichen Erkenntnisverfahren Goethes eine Alternative zur zeitgenössischen materialistisch-mechanischen Naturauffassung, Gedanken, die er als Goetheanismus in die später von ihm begründete Anthroposophie einfließen ließ. Seither gewann Goethes ganzheitliche, den Menschen einschließende Methode der Naturerkenntnis – obwohl deren Ergebnisse im engeren Sinne dem Stand der Wissenschaft nicht mehr entsprachen – immer dann an Aktualität, wenn im öffentlichen Diskurs nach Alternativen zu dem mechanistischen Weltbild der modernen Naturwissenschaft und ihrer auf Entseelung gerichteten Technisierung gesucht wurde. So zu Beginn des 20. Jahrhunderts durch den Schriftsteller Houston Stewart Chamberlain und wiederum seit den 1980er-Jahren im Rahmen der New-Age-Bewegung. Nach Carl Friedrich von Weizsäcker ist es Goethe nicht gelungen „die Naturwissenschaft zu einem besseren Verständnis ihres eigenen Wesens zu bekehren […]. Wir heutigen Physiker sind […] Schüler Newtons und nicht Goethes. Aber wir wissen, daß diese Wissenschaft nicht absolute Wahrheit, sondern ein bestimmtes methodisches Verfahren ist.“ Exemplarische Monographien und Biographien. Über Goethes Leben und Werk sind ganze Bibliotheken geschrieben worden. Die ihm gewidmeten Lexika und Kompendien, Jahrbücher und Leitfäden sind kaum noch zu zählen. Nachfolgend werden einige exemplarische Werke vorgestellt, die das Phänomen Goethe in einer Gesamtschau analysieren und interpretieren. Für die gegenwärtige Literaturwissenschaft bieten die drei Monographien keine direkten Anknüpfungspunkte. Goethe als Namensstifter. Die eminente Bedeutung Goethes für die deutsche Kultur und deutschsprachige Literatur spiegelt sich wider in der Namensgebung zahlreicher Preise, Denkmäler, Gedenkstätten, Institutionen, Museen und Gesellschaften, wie sie kaum ein anderer Deutscher im Kulturleben seines Landes erreicht hat. So trägt das Institut, dem die Verbreitung der deutschen Kultur und Sprache im Ausland übertragen wurde, seinen Namen: Goethe-Institut, das mit Niederlassungen in aller Welt großes Ansehen erworben hat. Der Geburtsort des Dichters, Frankfurt, und seine Hauptwirkungsstätte, Weimar, ehren ihn mit dem Goethe-Nationalmuseum (Weimar), der Johann Wolfgang Goethe-Universität (Frankfurt) und dem Goethepreis der Stadt Frankfurt am Main. Die seit 1885 existierende Goethe-Gesellschaft mit Hauptsitz in Weimar vereinigt mehrere Tausend Leser und Wissenschaftler im In- und Ausland. Schließlich hat der Dichter einer ganzen literarischen Epoche, die Klassik und Romantik umfasst, seinen Namen gegeben: Goethezeit. Werke (Auswahl). Verzeichnis der Erstausgaben bei Wikisource Es war eine der besonderen Eigenarten Goethes, begonnene Dichtungen oft jahrelang, manchmal jahrzehntelang liegen zu lassen, bereits gedruckte Werke erheblichen Umarbeitungen zu unterwerfen und manches Fertiggestellte erst nach langer Zeit in den Druck zu geben. Eine Datierung der Werke nach Entstehungszeit ist deshalb manchmal sehr schwierig. Die Liste orientiert sich am (vermuteten) Zeitpunkt der Entstehung. Johann Wolfgang von Goethe im 62. Lebensjahr (nach dem Gemälde von Luise Seidler, Weimar 1811) Joe Zawinul. Josef Erich „Joe“ Zawinul (* 7. Juli 1932 in Wien; † 11. September 2007 ebenda) war ein österreichischer Musiker und einer der einflussreichsten Jazz-Musiker des 20. Jahrhunderts. Zunächst als Pianist und Keyboarder, dann auch als Komponist, Bandleader und Arrangeur prägte er mehrere Jahrzehnte lang die internationale Musikszene. 1966 schrieb er für Julian „Cannonball“ Adderley den Hit "Mercy, Mercy, Mercy", der zu einer Referenzaufnahme des Soul Jazz wurde. 1969 komponierte er für Miles Davis das Titelstück dessen LP "In a Silent Way", eines der ersten Fusion Jazz-Alben, an dem er ebenso entscheidend beteiligt war wie an dessen 1970 veröffentlichter LP "Bitches Brew". Für die von ihm und Wayne Shorter 1970 gegründete Gruppe Weather Report, die Josef Woodard in der Fachzeitschrift Down Beat rückblickend als „beste Jazzband der letzten 30 Jahre des 20. Jahrhunderts“ bezeichnete, komponierte er den Welthit "Birdland". Neben seinen Verdiensten als Komponist, Arrangeur und Bandleader gilt Zawinul auch als Pionier beim Einsatz elektronischer Instrumente und als einer der wenigen Musiker überhaupt, denen es gelang, auf einem Synthesizer einen unverwechselbar eigenen Ton zu entwickeln. Ein wichtiges Kennzeichen seiner späteren Kompositionen ist die Integration ethnischer Musizierstile und Elemente in den Jazzkontext. Er entwickelte diese Klangwelt mit "Weather Report" und der nachfolgenden Gruppe The Zawinul Syndicate zur Meisterschaft und erhielt dazu auf seinen Welttourneen weitere Anregungen. Jugend. Josef Erich Zawinul war der Sohn des Arbeiters Josef Zawinul, dessen Mutter eine ungarische Sintiza war, und dessen Vater aus Südmähren stammte. Er kam aus bescheidenen Verhältnissen, doch zeit seines Lebens war Zawinul stolz auf seine multikulturell beeinflusste Familie und Verwandten; er sah sie als eine Gemeinschaft hart arbeitender, einfacher und liebenswerter Menschen. Zawinuls Vater arbeitete als Schlosser im städtischen Gaswerk in Wien; in seiner Freizeit spielte er Mundharmonika, stemmte Gewichte und boxte. Das Boxen sollte auch für seinen Sohn zur lebenslangen Passion werden. Die Mutter Maria, geb. Hameder, war eine Amateursängerin, sie spielte etwas Klavier und verfügte über das absolute Gehör. Sie arbeitete zunächst als Köchin bei dem großbürgerlichen, jüdischen Ehepaar Jocklich, von dem sie bis zu seiner Emigration nach Palästina stets in die Oper mitgenommen wurde. Diese musikalischen Erlebnisse weckten in ihr den Wunsch, dass auch ihr Sohn ein Musiker werden sollte. Danach war sie als Postbedienstete tätig. Josef („Pepe“) wuchs im Arbeiterviertel Erdberg des Wiener Gemeindebezirks Landstraße auf. Daneben hielt er sich oft in Oberkirchbach auf, dem kleinen Heimatdorf seiner Mutter mitten im Wienerwald, die aus einer Familie mit elf Kindern stammte. Sein Zwillingsbruder Erich starb als Vierjähriger an einer Lungenentzündung. Mit sechs Jahren bekam er ein kleines Akkordeon geschenkt und erhielt Unterricht bei einem Musiklehrer. In seiner Familie und bei Verwandten hörte und sang er von früh an tschechische und slowenische Weisen, ungarische Sinti-Lieder, Polkas und Ländler; nun konnte er sie auch instrumental begleiten und ihnen den Takt vorgeben. Nach einem Dreivierteljahr erklärte sein Musiklehrer Zawinuls Mutter: "„Frau Zawinul, ich kann dem Bub nichts mehr beibringen, der hat so viel Talent für Musik, der sollte eigentlich ins Konservatorium gehen.“" Als sich dabei herausstellte, dass auch er über das absolute Gehör verfügte, erhielt er einen Freiplatz (kostenlosen Unterricht) am damaligen Konservatorium der Stadt Wien, wo er Unterricht in Klavier, Violine und Klarinette nahm. Damit bereitete er sich anfangs auf eine Karriere als klassischer Pianist vor, dem er jedoch zunehmend nur mehr aus Pflichterfüllung nachkam. Ab 1945 besuchte er das Realgymnasium in der Hagenmüllergasse (3. Bezirk); sein Klassenkamerad und enger Freund wurde Thomas Klestil, der spätere Bundespräsident. Freimütig erzählten später beide über gemeinsame Streiche wie etwa kostenlose Besuche im Freibad und im Kino. Einen tiefen Eindruck auf den jungen Zawinul hatte der Musical-Film "Stormy Weather" (1943) hinterlassen, in dem die Spitzenstars des schwarzen Entertainments auftraten: Der Tänzer Bill „Bojangles“ Robinson, das Orchester von Cab Calloway, der Pianist Fats Waller, Dooley Wilson (bekannt als "Sam" aus Casablanca, 1942) und die Schauspielerin Lena Horne. Zawinul sah sich den Film 24 mal an und verliebte sich in die Hauptdarstellerin Lena Horne, die er auch heiraten wollte. Die Qualität des Films war nicht nur eine von Zawinul subjektiv erlebte, denn im Jahr 2001 würdigte die Library of Congress den Film als „kulturell wertvoll“ und hielt ihn einer besonderen Aufbewahrung in der National Film Registry wert. 1977 nannte Zawinul eine Weather Report-LP "Heavy Weather". Modern Jazz. Mit zwölf Jahren hörte er zum ersten Mal Jazzmusik und war auf der Stelle davon gefangengenommen; ein Mitschüler seines Internats im Sudetenland spielte am Klavier "Honeysuckle Rose". "„Des war guad. Und i hab mir denkt, wow, des is was, des g’fallt mir.“" Als Siebzehnjähriger brach er die intensiven Vorbereitungen zu dem Genfer Klavierwettbewerb 1949 unvermittelt ab und wandte sich dem Jazz zu. Ein Studienfreund aus jenen Tagen war der gleichaltrige Friedrich Gulda, den er 1951 kennenlernte. Ab 1952 arbeitet er als Jazzmusiker mit anderen österreichischen Musikern zusammen. Nach ersten Erfahrungen unter anderem in der Combo von Vera Auer und bei Hans Koller wurde er 1954 mit Hans Salomon Mitbegründer der "Austrian All Stars". Deren Plattenaufnahmen erfuhren auch durch Guldas Förderung eine internationale Anerkennung. 1955/56 wechselte er mit der gesamten Besetzung der "Austrian All Stars" in die Johannes Fehring Big Band. 1956 ging er zur damals erfolgreichsten österreichischen Jazzband, der "Two Sound Band" von Fatty George. Nachdem er sich erfolgreich um ein Stipendium an der Berklee School in Boston beworben hatte, reiste er per Bahn und Schiff im Januar 1959 für zunächst nur vier Monate und mit 800 Dollar in die USA. Er ging mit dem festen Vorsatz in die USA, nicht mehr (dauerhaft) nach Europa zurückzukehren. Tatsächlich konnte er mit einer nahezu nahtlosen Serie von Engagements anschließen und sich weiterentwickeln. Noch am Abend seiner Ankunft in New York City ging er in einen Club und traf dort auf Wilbur Ware, Louis Hayes und jammte mit Charlie Mariano. Zwei Tage später rief der Impresario George Wein an, der für Ella Fitzgerald einen Pianisten als Liedbegleiter suchte. Zawinul nahm dankbar an und bewährte sich. Wenige Tage danach (die Angaben schwanken von einer bis zu drei Wochen) wurde er als Pianist der Maynard Ferguson Band engagiert. Er brach die Ausbildung in Boston ab, zog um nach New York und spielte für acht Monate im Maynard-Ferguson-Orchestra. Ferguson beschaffte ihm die Aufenthaltserlaubnis (Greencard), die nach vier Monaten erforderlich geworden war, und die Arbeitserlaubnis bei der Gewerkschaft. Zawinul fand sich erstaunlich schnell in der schwarzen Musiker-Community zurecht. Seine Offenheit beschränkte sich nicht nur auf das Zusammenspiel, sondern umfasste auch das gemeinsame Reisen und Wohnen mit seinen schwarzen Kollegen unter den Zumutungen der damaligen Rassentrennung in den USA. Dinah Washington engagierte ihn als Pianist, die ihn ihrem Publikum als „Joe Vienna“ vorstellte; Zawinul blieb bei ihr zwei Jahre lang. Miles Davis wurde auf ihn aufmerksam und lud ihn als Mitspieler in seine Band ein. Doch Zawinul lehnte ab, es sei noch nicht die richtige Zeit dafür – und setzte hinzu, wenn es einmal so weit sei, dann würden sie beide Musikgeschichte schreiben. Davis war von seiner Absage nicht aufgebracht und respektierte seinen Standpunkt. 1962 heiratete Zawinul Maxine, die er im berühmten New Yorker Jazzclub Birdland kennengelernt hatte und die das erste schwarze Playboy-Bunny gewesen war; ihr Trauzeuge war Cannonball Adderley. Von 1961 bis 1970 spielte er im Quintett von Cannonball Adderley, Zawinul sprach nur in größter Verehrung über seinen Mentor, er sei der am meisten unterschätzte Musiker des 20. Jahrhunderts gewesen. Nie hätte er ihn einen Fehler spielen hören. Immer, wenn manchmal Kritik von Schwarzen aufkam, dass ein Weißer in seiner Gruppe spielte, konterte dieser: "„Bringt mir einen, der so spielen kann wie Joe, dann engagiere ich ihn sofort!“" Für dessen Band komponierte er nahezu sechzig Stücke. 1966 hatte er seinen ersten großen Hit „Mercy, Mercy, Mercy“, entwickelt aus einer Begleitfigur eines Songs für Dinah Washington. Er spielte erstmals für eine Aufnahme auf einem elektrischen Piano, einem Wurlitzer Electric Piano, in der LP-Version ist es ein Fender Rhodes. Über eine Million Singles wurden davon verkauft und es ist bis heute die meistverkaufte Jazzaufnahme. Miles Davis war so sehr von dem warmen Klang angetan, dass er eine Woche nach der Veröffentlichung seinem Bandmitglied Herbie Hancock auch ein E-Piano kaufte. Weitere Hits waren „Country Preacher“ und „Walk Tall“ (1969), die er anlässlich eines Wohltätigkeitsgottesdienstes von Reverend Jesse Jackson für das von Martin Luther King gegründete Stipendiatenprogramm "Operation Breadbasket" komponiert hatte. Ende der 1960er Jahre trat das Cannonball Adderley Quintet mehrfach als Vorgruppe von englischen Supergroups des Rock ’n’ Roll wie The Who auf. Das System des sogenannten "double billing"s wurde wegbereitend für die sich anbahnende Fusion von Jazzmusik und Rock. Electric Jazz: Weather Report. Jazzhistoriker bezeichnen als eine entscheidende Phase in der Entwicklung des Fusion-Stils die Zusammenarbeit Zawinuls mit Miles Davis 1969/70. Die bahnbrechende LP war „In a Silent Way“ (1969). Zawinul komponierte das Titelstück, Davis änderte nur ein paar Akkorde und führte es unter eigenem Namen auf. Das Album „Bitches Brew“ (1970) knüpfte an seinen Vorgänger an und erweiterte den Raum für freie Improvisation. Im November 1970 in New York gründete Zawinul dann zusammen mit dem Saxophonisten Wayne Shorter die legendäre Jazz-Rock-Formation Weather Report. Der Einsatz von Percussion zusätzlich zum Schlagzeug förderte die Dynamik und das Spielen komplexer Polyrhythmen. Zawinul löste sich vom alten 32-Takte-System, brach mit dem Thema–Solo–Thema–Schema und führte neue Formen ein. Von 1976 bis 1982 übernahm Jaco Pastorius den Bass, ein Zeitabschnitt, der als die Hochphase der Gruppe gilt. Bis 1985 feierte die Band "Weather Report" ihre größten kommerziellen Erfolge, unter anderem 1977 mit dem von Zawinul komponierten Welthit „Birdland“. Die Komposition wurde in drei Versionen von Weather Report, Manhattan Transfer („Extensions“, 1980) und Quincy Jones („Back on the Block“, 1989) mit je einem Grammy ausgezeichnet. Zawinuls Musik mit "Weather Report" war tatsächlich ein Erfolg auf der ganzen Welt; besonders afrikanische Zuhörer liebten diesen Sound. Sein Intro zu dem Stück „Black Market“ war mehr als 20 Jahre lang die Erkennungsmelodie von "Radio Dakar" im Senegal. Weather Report-Platten machten als raubkopierte Kassetten die Runde und beeinflussten eine ganze Generation von afrikanischen Musikern. Seine späteren afrikanischen Bandmitglieder im "Zawinul Syndicate" baten ihn darum, mitspielen zu können – wegen ihrer Wertschätzung der Musik von Weather Report. World Jazz: Zawinul Syndicate. Von 1986 bis 1989 gab er gemeinsam mit Friedrich Gulda mehrere Konzerte, für die er zwar die höchsten Gagen in seinem Musikerleben erhielt, die er jedoch nur ungern absolvierte. Seit 1988 entwickelte Zawinul mit seinem Ensemble, dem "Zawinul Syndicate" einen unverkennbaren Stil, der die Grenzen zwischen Jazz, Welt- und Tanzmusik auflöste. Nach eigenen Angaben hat er den Hip-Hop-Beat kreiert (nicht zu verwechseln mit Hip-Hop an sich); die Stücke „125th Street Congress“ und „Boogie Woogie Waltz“ auf dem Weather-Report-Album „Sweetnighter“ (1973) wurden von "„50 oder 60 verschiedene[n] Rap-Gruppen“" als Grundlage für ihren Rap übernommen. 1991 produzierte, arrangierte und spielte er die Aufnahmen des Konzeptalbums "Amen" für den malischen Sänger Salif Keïta. Begleiter waren unter anderem Carlos Santana und Wayne Shorter. Miles Davis, der auch in Malibu wohnte, sagte Zawinul zunächst zu, bestand dann jedoch auf einer höheren Gage. In Frankreich wählte man das Album zur besten Weltmusikplatte aller Zeiten. Zwischen 1992 und 1996 nahm er mit 35 Musikern aus der ganzen Welt das Album „My People“ auf. Musikalische Einflüsse aus Afrika, der Karibik, Südamerika, Europa, dem Nahen Osten und den USA verbindet darin Zawinul zu einer universellen Musiksprache wie noch nie zuvor gehört. Projekte. Immer auf der Suche nach neuen Herausforderungen stellte sich Zawinul in seinen beiden letzten Jahrzehnten sehr unterschiedlichen Aufgaben. 1993 führte er anlässlich des Brucknerfestes in Linz bei der alljährlichen Open-Air-Veranstaltung Linzer Klangwolke mit einer Licht- und Laserschau seine erste Sinfonie "Stories of the Danube – Donaugeschichten" vor 80.000 Zuschauern auf. 1998 bat er seinen Schulfreund und damaligen Bundespräsidenten Thomas Klestil um eine offizielle Unterstützung für ein ehrenamtliches Engagement in Afrika. Klestil ernannte ihn daraufhin zum österreichischen Kulturbotschafter (Good Will Ambassador For The Southern African Countries). Das österreichische KZ Mauthausen wurde zum Thema einer Klangcollage mit O-Tönen, verbunden mit einer eigenen Komposition, die mit dem Rezitator und Burgschauspieler Frank Hoffmann am 8. August 1998 im dortigen Steinbruch vor 9000 Menschen uraufgeführt wurde. Beim letzten Stück der Aufführung nahm das Publikum brennende Kerzen in die Hand, schwieg und applaudierte nicht, als der letzte Ton verklungen war. 2004 eröffnete Zawinul in seinem Wiener Heimatbezirk den Jazz- und Musikclub "Birdland" im Souterrain des Hilton Hotels. Er benannte ihn nach dem berühmten New Yorker Birdland, der von 1949 bis 1965 einer der beliebtesten Jazzclubs war und den er als den wichtigsten Ort seines Lebens bezeichnete. Die Suche nach einer geeigneten Lokalität für das Spielen von Jazzmusik zog sich bereits zehn Jahre hin. Wegen des unrealistischen Konzepts geriet der Club schnell in finanzielle Schwierigkeiten. Mit einem verbesserten Angebot und Unterstützung durch die Kulturabteilung der Stadt Wien konnte dem Club über diese erste Hürde hinweggeholfen werden. 2005 gründete er sein eigenes Label "BirdJAM" (BHM Music). Am 11. August 2008 wurde das Konkursverfahren für das Birdland eröffnet. Da die Gespräche mit möglichen Investoren ergebnislos blieben, wurde der Jazzclub geschlossen. Tod. Grab von Joe Zawinul auf dem Wiener Zentralfriedhof, Gruppe 33G Nr. 39 (Dez. 2014) Am 7. August 2007, eine Woche nach seiner sechswöchigen Europatournee, wurde Zawinul ins Wiener Wilhelminenspital wegen einer seltenen Hautkrebserkrankung, dem Merkelzellkarzinom, eingeliefert. Am 11. September 2007 um 4:55 Uhr verstarb der Musiker im Alter von 75 Jahren. Seine Ehefrau Maxine war nur wenige Wochen vor ihm am 26. Juli 2007 gestorben. Wiens Bürgermeister Michael Häupl veranlasste, dass ihm ein "Ehrengrab der Stadt Wien" auf dem Zentralfriedhof zugewiesen wurde. In einer Trauerfeier, die von seinen Weggefährten musikalisch begleitet wurde, konnte die Öffentlichkeit am 25. September 2007 Abschied nehmen. Die Einäscherung und Beisetzung erfolgte wenige Tage später im engsten Familienkreis. Die Urnen mit der Asche Joe Zawinuls und seiner Frau Maxine ruhen im Grab Nr. 39 der Gruppe 33G. In einem Gespräch mit Gunther Baumann (2002) schlug der Künstler die folgende Inschrift für seinen Grabstein vor: "Joe Zawinul. Er war ein ehrlicher Mensch. A decent human being." Familie. Zawinul hatte drei Söhne: Erich, Ivan und Anthony. Seit Ende der 1960er Jahre flog Zawinul fünf- bis sechsmal pro Jahr nach Wien zu seinen Eltern und Freunden. Seine Familie wohnte seit 1972 in Pasadena und später in Malibu, einem Haus mit Tonstudio und Blick auf den Pazifik. Ein Buschbrand hatte hier im Herbst 1993 beinahe sein Haus mit seinen Aufnahmen vernichtet. Sein Sohn Ivan (* 1969) arbeitete mit ihm in seinen letzten 15 Jahren als Tontechniker und Koproduzent seiner Aufnahmen zusammen. Zawinuls Klangwelt. Die Kommentare zu Zawinuls Musik und seine Bemerkungen dazu kommen immer wieder darauf zurück, dass es Zawinuls erste musikalische Eindrücke waren, die seinen eigenen Sound geprägt haben. Häufig genannt werden die Melodik der mitteleuropäischen Volksmusik, der Rhythmus der menschlichen Stimme und der kompakte, flächige Klang des Akkordeons. Von seinen Eltern stets dazu ermuntert, wollte Zawinul jeden Tag etwas mehr hinzulernen und tat dies neben dem Boxen vor allem in der Jazzmusik. Bis 1965 durchlief sein Lernpensum das gesamte Spektrum der tonangebenden Stile und Spieltechniken des Jazz. Zunächst beeindruckte ihn am meisten die raffinierte und elegante Unterhaltungsmusik der Big Band von Duke Ellington. Gute Musik war für ihn immer eine gekonnte Mischung aus Einfachheit und Raffinesse. Dieses Qualitätsmerkmal erfüllte und demonstrierte auf ideale Weise für ihn das Klavierspiel seines Idols George Shearing und Miles Davis’ Cool Jazz-Einspielung Birth of the Cool. Bald merkte er, dass er dank seines Talents nichts mehr in der österreichischen Jazzszene lernen konnte. Der Weggang in die USA, hin zu den Quellen des Jazz, verdankte sich neben seinem sehr starken Willen („stubbornness“) auch seiner radikalen Neugierde und Konsequenz zum Weiterlernen. 1965 wurde ihm plötzlich bewusst, dass er „ausgelernt“ hatte, denn einer der vorherigen Pianisten von Cannonball Adderleys Quintett, Barry Harris, gratulierte ihm, dass er nun genauso klinge wie er selbst. Zawinul wusste, dass dieser wiederum genau wie Bud Powell spielte. "„Ich kopierte perfekt denjenigen, der am perfektesten Bud Powell kopierte!“" "„I realized I was the third copier on the list. I went home, put all my records together and they’re still the same way. That was 1965.“" Von diesem Tag an legte er seine Platten weg und hörte sich keine andere Musik mehr an (mit Ausnahme von Demokassetten von Bewerbern für seine Bands und Projekte). Zawinul wurde nachdenklich, er hatte noch keinen eigenen Sound und forschte von da an nur noch in sich selbst nach neuen Klangideen. Als er merkte, dass er im Komponieren schneller war als im Notieren, nahm er zunächst seine Improvisationen auf und notierte sie erst danach. Bis zu 20 Stücke fielen ihm am Tag ein und in einem seiner letzten Interviews äußerte er, mittlerweile Material für zwanzig Jahre oder 13 Platten komponiert zu haben. Zunächst wechselten seine Kompositionen vom Hard Bop zum Soul Jazz, das bekannteste Zeugnis dieser Neuorientierung war das Stück „Mercy, Mercy, Mercy“ (1966), das zu einer Referenzaufnahme des Soul Jazz wurde. Er artikulierte damit seine Suche nach eingängigen, singbaren Melodien, die gleichwohl nicht einfach zu spielen sind. Zawinuls Kompositionen orientierten sich nun in der Melodik strikt am Liedgesang. Zuvor schon wurde er für den Rhythmus seiner Basslinien gelobt, die intuitiv dem Sprechrhythmus der menschlichen Stimme nachgebildet waren: "„Unser Wiener Dialekt ist ja sehr nah bei einer walking bass line. Miles sagte auch: Nobody can write bass lines like you.“" Später erklärte er: "„Den Spirit fremder Länder kriege ich vom Zuhören, vom Reden, von den Dialekten.“" Auch in der Tongebung verschiedener E-Pianos und Synthesizer und in der Phrasierung der melodischen Läufe oder Riffs bevorzugte er einen natürlichen, menschlichen Klang. „Spiele elektrisch, klinge akustisch“ war eine der Umschreibungen dieser Klangvorstellung. Trotz der Elektrifizierung seiner Instrumente wurde seine Musik menschlicher und zugleich multikultureller: "„Ich wollte eine Musik, die ich für meine Eltern spielen kann, aber möglicherweise auch in Harlem. Durch dieses Forschen habe ich das Menschliche in mir selbst gefunden.“" Die Vielzahl seiner Keyboards diente ihm dazu, stets mehrere Register dafür parat zu haben. Die Hinwendung zur ethnischen Musik bei Weather Report und besonders beim Zawinul Syndicate war auch eine Erweiterung des volksmusikalischen Melodienrepertoires. Hinzu kamen eine stetig zunehmende Komplexität in der Rhythmisierung und Raffinesse in den Klangfarben und -texturen. Zawinuls „Global Music“ wurde daher als eine intelligente Erweiterung und Synthese von Volksmusik und Rhythmen der ganzen Welt auf höchstem Niveau gewürdigt. In einem ›Der Boxer‹ überschriebenen Nachruf der österreichischen Zeitschrift "Jazzzeit" bezeichnete der Autor und Musikkritiker Robert Fischer Zawinul als „musikalisches Schwergewicht“ und schloss mit den Worten: „Was bleibt, ist ein staunenswertes, in allen seinen unterschiedlichen Facetten unglaublich inspirierendes Werk, das immer neue Entdeckungen lohnt.“ Jelly Roll Morton. Jelly Roll Morton (* 20. September 1885 in Mississippi als "Ferdinand Joseph La Menthe"; † 10. Juli 1941 in Los Angeles) war ein US-amerikanischer Pianist, Komponist und Bandleader. Er gilt als einer der einflussreichen Jazzmusiker seiner Zeit. Werdegang. Jelly Roll Morton wurde in Gulfport (Mississippi) geboren und wuchs in New Orleans (Louisiana) auf. Seine Mutter Laura La Menthe, geborene Monette, verließ ihren Ehemann F. P. „Ed“ La Menthe, den Vater Jelly Rolls, zu einer Zeit, als dieser noch ein Kind war. Sie heiratete daraufhin Willie Morton. Neben den Eltern spielten seine Großmutter Laura „Mimi“ Monette, geborene Baudoin, seine jüngeren Halbschwestern, von denen eine den Vornamen Amède trug, sein Cousin Dink Johnson sowie seine Patin Laura Hunter, von der in der Regel als Eulalie Echo berichtet wird, eine prägende Rolle im Leben von Jelly Roll Morton. Sein Spitzname „Jelly Roll“ hatte einen sexuellen Hintersinn, der (zumindest) damals allgemein verstanden wurde, nach der herrschenden puritanischen Sprachnorm aber als unsittlich galt, und diente ursprünglich als Anspielung auf Mortons zahlreiche Affairen. Aus demselben Grunde gilt seine Interpretation des „Winin' Boy Blues“ als eine Art Erkennungsmelodie. Diese Komposition mit alternativem Text ist auch als „I’m Alabama Bound“ veröffentlicht. Er interessierte sich seit frühester Kindheit für Musik, was vermutlich darauf zurückzuführen ist, dass in seiner Familie große Begeisterung für amerikanische Volksmusik sowie für Opern und Operetten geherrscht hat. Vor diesem Hintergrund ist dann auch seine musikalische Anspielung auf die Verdi-Oper „Der Troubadour“ während der „Library of Congress Recordings“ („The Miserere“) zu sehen und zu verstehen. Als aktiver Musiker (Posaune) war bislang aber einzig Mortons Vater F. P. La Menthe in Erscheinung getreten. Darüber hinaus ist zu berücksichtigen, dass die kulturelle Vielfalt in New Orleans dem jungen Ferdinand Morton den Einblick in ein sehr breites Spektrum an musikalischen Strömungen ermöglicht haben dürfte. Als er im Alter von etwa zehn Jahren einen Pianisten in der französischen Oper in New Orleans spielen hörte, war er so fasziniert, dass er begann, Klavierunterricht zu nehmen. Belegt ist, dass er ab 1895 von dem angesehenen Lehrer Professor Nickerson in New Orleans unterrichtet wurde. Karriere und Weggefährten. Zunächst fiel Morton als talentierter Gitarrist, Sänger und Harmonikaspieler auf. In seinen Erinnerungen nannte er Lieder wie „Hot Time in the Old Town Tonight“, „Wearing My Heart for You“, „Old Oaden Bucket“, „Bird in a Gilded Cage“, „Mr Johnson Turn Me Loose“ als Beispiele aus seinem Repertoire dieser Zeit. Als Beleg für seine Qualitäten sowohl auf der Gitarre als auch als Sänger dienen vor allem jene späten Aufnahmen, die Morton gemeinsam mit seinem Biographen Alan Lomax im Jahre 1938 in der Library of Congress in Washington D.C. getätigt hat. 1902 begann Morton, in der Öffentlichkeit, insbesondere im Vergnügungs- und Rotlichtviertel rund um die Basin Street in New Orleans, auf Paraden sowie auf Volksfesten in den vornehmen Vororten dieser Stadt (beispielhaft dafür die Aufnahmen „Milenberg Joys“ und „New Orleans Blues“), zeitgenössische Ragtimes, Lieder und Tänze zu spielen. Als seine streng gläubige Großmutter, bei der er nach dem Tod der Mutter gemeinsam mit seinen jüngeren Schwestern lebte, von der „unseriösen“ Tätigkeit ihres Enkels erfuhr, zwang sie ihn, auszuziehen. Nachdem er übergangsweise bei seiner Patin Laura Hunter / Eulalie Echo unterkommen konnte, reiste er durch viele Städte der Südstaaten der USA (Mississippi, Alabama, Tennessee, Missouri, Kansas) sowie durch Kalifornien und nach Illinois. Überall dort trat er als Pianist auf. 1917 kehrte er zunächst nach Chicago zurück, um anschließend für einen vergleichsweise langen Zeitraum nach Kalifornien überzusiedeln. Dort kam es 1918 zu ersten Aufnahmen mit Reb Spikes, Mutt Carey, Wade Waley und Kid Ory. Diese Aufnahmen gelten heute als unauffindbar. Zwischen 1923 und 1928 lebte und arbeitete Morton schließlich wieder in Chicago, das mittlerweile als das neue Jazz-Zentrum galt. Es kam zu zahlreichen Aufnahmen für die Plattenfirmen Paramount Records, Gennett Records, Vocalion Records, Victor Records und Columbia Records. Am 17. Juli 1923 entstand als Mortons überhaupt zweite Studioaufnahme der von ihm komponierte Jazzstandard King Porter Stomp, später häufig in der Bigband-Ära gecovert. Im September 1926 gründet er die legendären „Red Hot Peppers“. In ihrer ursprünglichen Besetzung bestand diese Formation aus George Mitchell, Kid Ory, Omer Simeon, Johnny St. Cyr, John Lindsay, Andrew Hilaire und Jelly Roll Morton. Mit Beginn der Swing-Ära ging das Interesse an Mortons zu diesem Zeitpunkt bereits als eher traditionell geltendem Jazz-Stil zurück. Die Jahre 1929 und 1930 verbrachte er in New York City. Sieben Jahre später kam es in der Bar „Jungle Inn“ in Washington D. C. zu einem ersten Kontakt mit dem Musik-Journalisten Alan Lomax. In den Monaten Mai und Juli 1938 trafen sich Morton und Lomax dann regelmäßig in der Library of Congress in Washington D. C., wobei es zu den Aufnahmen der sogenannten „Library of Congress Recordings“ kam. Ab 1939 erarbeitete Morton zahlreiche neue Aufnahmen - unter anderem mit Sidney Bechet. Darauf aufbauend kam es zu einem späten Comeback des Musikers. Im November 1940 zog er nach Los Angeles. Nachdem er Opfer einer Messer-Attacke geworden war, litt er an gesundheitlichen Problemen und starb am 10. Juli 1941 in Los Angeles an Herzversagen. Neben seiner Hauptbeschäftigung als Pianist, Komponist und Bandleader betätigte sich Morton als Manager verschiedener Bars. Zwischenzeitlich versuchte er sich auch als Theaterschauspieler, wobei er in diesem Bereich nie auch nur annähernd an seine Erfolge als Musiker anknüpfen konnte. Darüber hinaus kannte man ihn als exzellenten Poolbillard-Spieler. Wirken. Er wurde auch als Pianist für kommerzielle Produktionen engagiert. So z. B. für den Showman und Klarinettisten Wilton Crawley, der zu den Protagonisten der „gas-pipe“-Klarinettenspielweise zählte, einer Spielweise, die sich am Duktus menschlicher Stimmen orientierte und Blastechniken der Klezmermusik mit anderen zum Teil skurrilen Blastechniken kombinierte. Einige diese Techniken wurden von Klarinettisten des Avantgarde Jazz in den 1980ern wieder neu aufgegriffen. „Jelly Roll“ Morton war dafür bekannt, dass er am liebsten eigene Kompositionen spielte. Fremdkompositionen versuchte er nach Möglichkeit in seinem Sinne zu interpretieren. Bei einer Produktion mit Wilton Crawley kam es zwischen Morton und Crawley zu einer Konfrontation, die von Crawley beendet wurde, indem er folgendes zu Morton sagte: “"Look, Jelly this is my date and we are going to use my arrangements and my way of doing things, not yours! That sort of took him (Morton) down a peg and he didn't have much to say after that for the rest of the day."” Morton setzte sich als einer der ersten Jazzmusiker mit den theoretischen Grundlagen dieser Musikrichtung auseinander. Bedauerlicherweise gibt es kaum Dokumente, auf die sich diese Behauptung stützen ließe. Angesichts seiner Vorgehensweise beim Komponieren und Arrangieren sowie des hohen Schwierigkeitsgrades seiner Werke liegt aber die Vermutung nahe, dass Morton nicht nur intuitiv komponierte und spielte, sondern auf der Grundlage spezifischer Kenntnisse über die Merkmale der Jazzmusik arbeitete. Diese Auffassung lässt sich mit umso mehr Nachdruck vertreten, wenn man bedenkt, dass Morton viele seiner Werke bereits komponiert und notiert hatte, noch bevor sie von dem jeweiligen Orchester gespielt und aufgenommen wurden. Es war in Musikerkreisen bekannt, dass Morton sich immer intensiv mit der zu spielenden Musik auseinandersetzte. “"Morton, who rarely played tunes other than his own, sat down at the piano to familiarize himself with the music and get the session under way."” Mit dieser planenden und manchmal aufwendigen Arbeitsweise ragte er aus der Riege der vielen Jazzband-Leader, die spontan arbeiteten und weitenteils improvisierend ihr Repertoire fanden, weit hervor. Als Beispiel nannte Morton als erster den sogenannten „spanish tinge“ (spanische Färbung), der unter anderem in den Begleittexten zu dem Album „Sketches of Spain“ von Miles Davis Erwähnung findet und sich anschaulich in „The Crave“, „Mamanita“ und „The Pearls“ findet. Schließlich darf nicht in Vergessenheit geraten, dass es wiederholt zur Zusammenarbeit mit anderen bekannten Musikern, insbesondere Sidney Bechet kam. Morton und Bechet spielten unter anderem den bereits erwähnten „Windin' Boy Blues“ zusammen ein. Mit Louis Armstrong spielte er den „Wild Man Blues“. Zu den weniger bekannten, aber erstklassigen Musikern, mit denen Morton oft zusammenarbeitete, gehörten unter anderem Bunk Johnson, Johnny St. Cyr, Buddy Bertrand sowie Sidney de Paris und Albert Nicholas. Die Zusammenarbeit Mortons mit Johnny Dodds und dessen Bruder Baby Dodds wird eindrucksvoll in der Einspielung des „Wolverine Blues“ dokumentiert. Künstlerische Rezeption. Morton stammte aus einer frankophonen, aufstiegsorientierten Mittelklasse-Familie mit kreolischem Selbstverständnis. Er mochte es nicht, eine untergeordnete Rolle zu spielen und lehnte den teils offenen, teils latenten Rassismus in den USA ab. Er hatte ausweislich seines geschriebenen Oeuvres ein hohes Arbeitsethos und stellte ebenso hohe Anforderungen an seine Kollegen, was diese nicht immer sämtlich akzeptierten. Die Geschichte der „Red Hot Peppers“ in ihren wechselnden Besetzungen und Mortons streckenweise Zurückgezogenheit zeugen von einem intelligenten und tatkräftigen, aber auch schwierigen und zwiespältigen Menschen. Ohne Zweifel handelte es sich bei Jelly Roll Morton um eine oft sensible, weil exzentrische, ich-bezogene und stolze Persönlichkeit, die bei fast jeder Gelegenheit ihre eigenen Leistungen hervorhob und Fehlleistungen anderer lauthals benannte. Aber er wurde auch nicht müde, an die Verdienste anderer großer Komponisten und Interpreten zu erinnern, die selbst nie die Popularität eines Jelly Roll Morton, eines Sidney Bechet oder eines Louis Armstrong erreichten. Zu ihnen gehört insbesondere sein früher Wegbegleiter und von ihm als sein Vorbild bezeichnete Pianist Tony Jackson. Daher war aus vielen Gründen die Person Mortons der Kritik ausgesetzt. Allerdings erscheint es mehr als fragwürdig auch seine musikalischen Leistungen in Frage zu stellen. In diesem Punkt lässt die einschlägige Literatur häufig die gewünschte Sachlichkeit und Objektivität vermissen. Bei Morton handelte es sich um einen der wenigen Menschen, die nicht nur Zeuge der ersten Schritte der Jazzmusik wurden, sondern die selbst an diesem originären Schöpfungsakt beteiligt waren. Selbst seine schärfsten Kritiker können ihm nicht ein Mindestmaß an Glaubwürdigkeit absprechen, da ein erheblicher Teil seiner Erzählungen von Zeitzeugen bestätigt wurde oder auf anderem Wege bewiesen werden kann. Auch sind seine Erzählungen eine der wichtigsten Quellen über die frühe Entwicklung der Jazzmusik. Die Behauptung hingegen, Morton sei rückblickend nicht nur als ein hervorragender Musiker, sondern darüber hinaus auch als der erste Jazz-Historiker anzusehen, geht jedoch zu weit. Rückblickend kann man dem Musiker Art Hodes daher nur zustimmen, wenn er sagt: „Für die kleine Band war Morton das, was Ellington für die Big Band war.“ Kompositionen (Auswahl). Durch veröffentlichte Aufnahmen dokumentierte Sessions zwischen 1923 und 1940 JavaScript. JavaScript (kurz JS) ist eine Skriptsprache, die ursprünglich für dynamisches HTML in Webbrowsern entwickelt wurde, um Benutzerinteraktionen auszuwerten, Inhalte zu verändern, nachzuladen oder zu generieren und so die Möglichkeiten von HTML und CSS zu erweitern. Heute findet JavaScript auch außerhalb von Browsern Anwendung, so etwa auf Servern und in Microcontrollern. Der als ECMAScript (ECMA 262) standardisierte Sprachkern von JavaScript beschreibt eine dynamisch typisierte, objektorientierte, aber klassenlose Skriptsprache. Sie wird allen objektorientierten Programmierparadigmen unter anderem auf der Basis von Prototypen gerecht. In JavaScript lässt sich objektorientiert und sowohl prozedural als auch funktional programmieren. Entwicklung. Die Syntax von JavaScript ähnelt jener der C-Abkömmlinge, wozu auch Java gehört. Trotz der Namens- und syntaktischen Ähnlichkeit hat JavaScript nur geringe Gemeinsamkeiten mit Java, beispielsweise wird Vererbung in JavaScript, anders als in Java, nicht durch Klassen, sondern durch Prototypen unterstützt. JavaScript wurde früher hauptsächlich clientseitig eingesetzt. JavaScript bzw. die ECMAScript-Implementierungen finden jedoch beispielsweise auf Node-Servern und als JScript bzw. JScript.NET in einer ASP- bzw. ASP.NET-Umgebung auf Microsoft Internet Information Services auch serverseitig Anwendung. Weitere Beispiele für serverseitige Javascript-Programmierung sind POW und Jaxer, die auf der Mozilla-Javascript-Engine Spidermonkey aufsetzen, sowie V8CGI, welches auf der JavaScript-Implementierung V8 aufbaut und in den Apache HTTP Server integriert wird. Die Sprache wird auch als Skriptsprache für Spiele und Anwendungsprogramme eingesetzt, da der Sprachkern nur wenige Objekte enthält und dadurch der zur Ausführung von in JavaScript formulierten Skripten erforderliche Interpreter relativ klein gehalten werden kann. Außerdem wird JavaScript als Verkehrssprache in der Datenbank MongoDB sowie in Microcontrollern eingesetzt. Missbrauch. Einige Anwendungen, die mit JavaScript möglich sind, agieren teilweise gegen den Wunsch des Benutzers oder widersprechen dem Prinzip der geringsten Verwunderung. Einige Browser bieten daher Funktionen an, die derartige JavaScript-Funktionen unterdrücken. Hinweis im Firefox-Browser bei vielen Dialogfenstern Geschichte. Am 18. September 1995 veröffentlichte Netscape mit der Vorversion des Navigator 2.0 einen Browser mit einer eingebetteten Skriptsprache, die zu diesem Zeitpunkt "LiveScript" hieß und von Brendan Eich entwickelt worden war. Die Sprache konnte u. a. Formulareingaben des Benutzers vor dem Absenden überprüfen. Am 4. Dezember 1995 verkündeten Netscape und Sun Microsystems eine Kooperation, die die Interaktion von LiveScript direkt mit Java-Applets zum Ziel hatte. Sun entwickelte die nötigen Java-Klassen, Netscape die Schnittstelle LiveConnect und benannte die Sprache in "JavaScript" um (JavaScript 1.0). "JavaScript" ist seit der Übernahme von Sun Microsystems eine Marke des Unternehmens Oracle. Mit der ersten Beta-Version des Navigator 3.0 führte Netscape am 29. April 1996 JavaScript 1.1 ein. In selbiger Version gab es die Neuerungen, auf Bilder zugreifen und so genannte "Rollover-Grafiken" erstellen zu können. LiveConnect war jetzt fester Bestandteil des Browsers. Mit der Beta-Version des Internet Explorer 3 stellte Microsoft im Mai 1996 seinen ersten JScript-fähigen Browser vor. Dies war der Beginn des Browserkriegs. Mit der Ankündigung des Netscape Communicators wurde JavaScript 1.2 am 15. Oktober 1996 veröffentlicht, der Netscape Communicator 4.0 mit JavaScript 1.2 erschien jedoch erst am 4. Juni 1997. Ebenfalls im Juni 1997 veröffentlichte die European Computer Manufacturers Association ihren Standard ECMA-262 ("ECMAScript"), der zusammen mit Netscape entwickelt worden war und die Grundelemente einer Skriptsprache standardisieren sollte. Diese wurde im April 1998 zur ISO-Norm "ISO/IEC 16262:1998 Information technology – ECMAScript language specification". Am 1. Oktober 1997 kam der Internet Explorer 4 heraus, der den Sprachumfang von JavaScript 1.1 abdeckte. Darüber hinaus wurden eigene Erweiterungen veröffentlicht, die zu Kompatibilitätsunterschieden zwischen Navigator und Internet Explorer führten und eine DOM-ähnliche Syntax zur Verfügung stellten, die es ermöglichte, auf alle Elemente der Webseite zuzugreifen und diese beliebig verändern zu können. Der in Java implementierte JavaScript-Interpreter Rhino wurde ab Version 6.0 als Teil der Java-Laufzeitumgebung standardmäßig mitgeliefert. Im Juli 1998 wurde mit der Beta-Version des Netscape Communicators 4.5 JavaScript 1.3, welche schon in der Version 4.06 des Netscape Communicators vorhanden war, veröffentlicht. Im Oktober 1998 stellte Netscape JavaScript 1.4 vor. Diese Version war vollständig kompatibel mit ECMA-262. Ein Browser mit der Unterstützung dieser Version erschien jedoch nicht. Im April 2000 kam mit der Preview Release 1 des Navigator 6 JavaScript 1.5 und DOM Level 1. Am 5. Juni 2002 erschien Mozilla 1.0 mit JavaScript 1.5 (JavaScript in der Version 1.5 entspricht ECMA-262 Version 3), am 29. November 2005 Mozilla Firefox 1.5 mit JavaScript 1.6, am 12. Juli 2006 Mozilla Firefox 2.0b1 mit JavaScript 1.7 und am 18. Dezember 2007 Mozilla Firefox 3.0b2 mit JavaScript 1.8. Versionsgeschichte von ECMAScript (ECMA-262). Die aktuelle Version ist die Version 2015, die unter dem Codenamen „Harmony“ entwickelt und im Juni 2015 als „ECMAScript 2015“ veröffentlicht wurde. Dieser sollen jährliche Updates folgen. Sandbox-Prinzip. JavaScript wird im Browser in einer so genannten Sandbox ausgeführt. Dies bewirkt, dass man in JavaScript im Allgemeinen nur Zugriff auf die Objekte des Browsers hat und somit nicht auf das Dateisystem zugreifen und dadurch keine Dateien lesen oder schreiben kann. Eine Ausnahme stellt der Lesezugriff auf eine Datei dar, die mittels eines mit dem HTML-Element codice_3 gestarteten Dateiauswahl-Dialogs vom Benutzer ausgewählt wurde. Ebenfalls kann diese Beschränkung in JScript bei entsprechenden Sicherheitseinstellungen durch die Nutzung von ActiveX umgangen werden. Um Sicherheitsprobleme, wie das so genannte Cross-Site-Scripting zu verhindern, wird jede Website oder Webanwendung innerhalb des Browsers isoliert ausgeführt und ein Datenaustausch unterbunden. Ohne diesen Schutz wäre es möglich, über eine Seite Schadcode auszuführen, der beispielsweise Bank- oder Logindaten in anderen parallel geöffneten Browserfenstern ausliest oder manipuliert. Auch bestimmte sicherheitsrelevante Browserfunktionen, wie das Schließen des Browserfensters, das Aus- und Einblenden von Symbolleisten, das Ändern der Browserstartseite, der Zugriff auf die Zwischenablage oder das Auslesen der zuletzt besuchten Webseiten des Anwenders, werden durch obligatorische Nutzereingaben geschützt. Standardmäßig wird ein Skript innerhalb eines Browsers in Form eines einzigen Threads ausgeführt. Warteschleifen oder lange Berechnungen sind daher in JavaScript-Programmen zu vermeiden. Mit codice_4-Objekten ist es möglich, weitere Threads zu erzeugen. Deaktivieren von JavaScript. In vielen JavaScript-fähigen Browsern lässt sich JavaScript abschalten oder lassen sich einzelne Aktionen, wie die Änderung des Textes in der Statusleiste oder die Manipulation von Browserfenstern, deaktivieren. Dies kann bei einigen Browsern mittels Erweiterungen, die JavaScript anhand von White- und Blacklists gezielt auf Seiten ein- und ausschalten, auch automatisiert werden. Datentypen. Der Datentyp eines Wertes lässt sich mit dem Operator codice_5 ermitteln. Zeichenketten haben den Typ "String" (codice_5 liefert codice_7), numerische Werte den Typ "Number" (codice_5 liefert codice_9), boolesche Werte den Typ "Boolean" (codice_5 liefert codice_11). Funktionen sind kein primitiver Typ; codice_5 liefert codice_13. Ein Sonderfall ist der Typ "Undefined" mit codice_14 als einzigem Wert. Für alle anderen Werte – reguläre Ausdrücke, Arrays und den Wert codice_15 inbegriffen – liefert codice_5 den Zeichenketten-Wert codice_17 zurück. Im Gegensatz zu anderen Programmiersprachen gibt es in JavaScript keine echten assoziativen Arrays. alert(typeof variable); // ergibt "string" (die Funktion "alert" gibt den ihr übergebenen Parameter in einem Fenster aus) JavaScript ist dynamisch typisiert, das heißt die Zuweisung von Werten an Variablen unterliegt keinen typbasierten Einschränkungen. Es gibt diverse Erweiterungen von JavaScript, welche eine statische Typisierung auf Wunsch ermöglichen beziehungsweise zwingend erfordern, zum Beispiel TypeScript von Microsoft. Kontrollstrukturen. JavaScript kennt die üblichen Kontrollstrukturen. Sollen diese mehr als eine Anweisung enthalten, so muss ein in geschweifte Klammern eingeschlossener Block eingesetzt werden. Anweisungen werden mit einem Semikolon abgeschlossen, dies ist aber in den meisten Fällen optional, durch die "automatic semicolon insertion" wird es meist automatisch ergänzt. for … in-Schleife. Mit dieser Anweisung werden alle eigenen und ererbten Eigenschaften eines Objektes durchlaufen, die das interne Attribut Enumerable aufweisen. Dieses Attribut wurde in ECMA Script 5 eingeführt und ist für bestimmte eingebaute Eigenschaften (wie z. B. die Funktion toString des Prototyps Object) nicht gesetzt, es kann allerdings im Regelfall vom Benutzer gesetzt (und entfernt) werden. Bei jedem Schleifendurchgang wird einer angegebenen Variable der Eigenschaftsname zugewiesen. Variablen. Variablen sollten in JavaScript mit codice_23 deklariert werden und sind dann innerhalb des Scopes gültig, in dem sie deklariert wurden. Verwendet man Variablen ohne sie vorher explizit zu deklarieren, werden diese implizit als Eigenschaften des globalen Objekts (im Browser codice_24) deklariert; dieses Verhalten kann man durch die Anweisung codice_25 unterbinden. Eine Besonderheit von JavaScript ist das Hoisting von Variablen, das dafür sorgt, dass sämtlich in einem Codeabschnitt deklarierten Variablen und Funktionen bei der Abarbeitung automatisch direkt am Anfang ausgeführt werden. Geltungsbereich von Variablen. Innerhalb von Funktionen oder als Funktionsparameter deklarierte Variablen haben eine lokale Gültigkeit; außerhalb von Funktionen deklarierte Variablen sind global gültig. "Global" bedeutet bei JavaScript in Browsern, dass derart deklarierte Variablen auf der ganzen Webseite und bei allen aktiven JavaScripts gültig sind. Da dies zu ungewollten Seiteneffekten mit anderen in der Seite eingebunden Scripts (wie Drittanbieter-Plugins, Web Analytics oder Werbebannern) führen kann, sollten globale Variablen so weit wie möglich vermieden werden. var a,b; // explizite Deklaration einer globalen Variable a = 1; // Definition einer Variable c = 2; // implizite Deklaration ohne var - es entsteht keine Variable, sondern... document.write(window.c); //... dem globalen Objekt (Window) wurde eine Eigenschaft zugewiesen document.write(e); // Fehler, da der Funktionsparameter e nur innerhalb der Funktion gültig ist document.write(f); // Fehler, da die Variable f nur innerhalb der Funktion gültig ist document.write(h); // ergibt 7 - (s.o.) document.write(window.h); // ergibt 7 - die globale Variable ist eine Eigenschaft von window Funktionen. Funktionen sind in JavaScript vollwertige Objekte. Sie haben Methoden und Eigenschaften, können erstellt und überschrieben, als Argumente an Funktionen übergeben und von ihnen erzeugt und zurückgegeben werden. var geheimnisträger = temp(); //geheimnisträger ist die von temp() zurückgegebene Funktion Nicht jedes Argument einer Funktion muss beim Aufruf angegeben werden; für fehlende Argumente wird der Wert "undefined" gesetzt. Außerdem kann innerhalb der Funktion auch über das codice_26-Objekt auf die Argumente zugegriffen werden. Erzeugung. // 1: Funktionsdeklaration, a ist eine Funktion mit dem Namen a. // 2.1: Normalfall, b ist eine anonyme Funktion // 2.2: benannter Funktionsausdruck ('named function expression') // c ist hier eine Funktion mit dem Namen d. Außerhalb der // Funktion ist sie mit c ansprechbar, innerhalb mit c und d. var c = function d (...) var e = new Function('arg1', 'arg2', 'return arg1 + arg2'); // 4: 'expression closure' aus JavaScript 1.8, ähnlich dem Lambda-Kalkül // kommt ohne geschweifte Klammern und return aus, gibt das Ergebnis von Ausdruck zurück // Version, die beliebig viele Argumente annimmt, // Zeigt die Rückgabe von Funktionen, hier etwas künstlich und komplizierter als nötig // (1) Erzeuge ein Array aus den Argumenten von ggT // (2) Wenn ggT kein zweites Argument hat, gib eine Funktion zurück, welche // das erste Argument zurückgibt bzw. 0 wenn dieses nicht definiert ist // (3) sonst gib eine Funktion zurück, welche euklid aufruft mit dem ersten Argument // (4) und dem Ergebnis des Ergebnisses von ggT mit den Argumenten 2 bis n ggT(4,6); // ergibt eine Funktion, die 2 zurückgibt Objekte. Objekte in JavaScript bestehen aus Eigenschaften, die als Name/Wert-Paar realisiert werden. Dabei wird nicht zwischen Attributen und Methoden des Objektes unterschieden (eine Eigenschaft, deren Wert den Typ "Function" besitzt, fungiert als Methode). Jedes Objekt – auch durch Literale erzeugte Objekte – erbt vom Prototyp des globalen Object-Konstruktors. Vordefinierte Objekte. JavaScript kennt mehrere eingebaute Objekte, die von ECMAScript definiert werden. Abgesehen vom globalen Objekt sowie den beiden Objekten codice_33 und codice_36 sind die vorstehend angeführten Objekte zu gleich Konstruktor­funktionen, die zur Erzeugung weiterer Objekte des entsprechenden Typs verwendet werden. Die restlichen Objekte, die beim clientseitigen JavaScript verwendet werden, entstanden historisch vor allem durch die Netscape-Spezifikationen (codice_24, codice_40 usw.). Das codice_24-Objekt selbst ist dabei de facto das globale Objekt, indem einfach einer Variablen codice_24 das globale Objekt zugewiesen wurde. Zahlreiche Unterobjekte von codice_40 wurden mittlerweile durch DOM HTML standardisiert (codice_44, codice_45, codice_46, codice_47 usw.). Aktuelle Browser unterstützen zudem DOM Core und andere W3C-DOM-Standards sowie Erweiterungen von Microsoft JScript. Konstruktor-Funktionen. Eine Funktion kann dazu genutzt werden, um ein mit codice_49 erstelltes Objekt zu initialisieren. In diesem Fall spricht man von einem Konstruktor oder einer Konstruktor-Funktion. Innerhalb dieser Funktion kann das neue Objekt über die Variable codice_50 angesprochen werden. var objekt = new MeinObjekt(3); // Instanz erzeugen alert(objekt.zahl); // per Meldefenster ausgeben (3) „Private“ Eigenschaften. Private Eigenschaften und Methoden sind nicht explizit Teil der Sprache. var neue_katze = function (); var otto = neue_katze(); Lediglich die codice_51-Methode von codice_52 kennt die Variable codice_53. Der Effekt gleicht dem einer privaten Eigenschaft, wenn alle Methoden der Katze in der erzeugenden Funktion codice_54 definiert werden. codice_53 ist dann für alle Methoden (privilegierte Methoden, im Beispiel codice_51) und inneren Funktionen der erzeugenden Funktion (private Methoden, im Beispiel codice_57) sichtbar, nicht jedoch von außen oder von nachträglich an das Objekt gehängten Methoden. Vererbung über Prototypen. Vererbung kann in JavaScript durch Prototypen realisiert werden. Dies erfordert, dass der prototype-Eigenschaft einer Konstruktor-Funktion ein als Prototyp dienendes Objekt zugewiesen wird. Wenn mit der Konstruktor-Funktion nun ein Objekt erzeugt wird, wird beim Zugriff auf eine nicht-existierende Eigenschaft des neuen Objekts die entsprechende Eigenschaft des Prototyps (wenn vorhanden) zurückgegeben. alert(blinky.augen); // 3 - eigene Eigenschaft von blinky delete blinky.augen; // blinkys eigene Eigenschaft wird gelöscht alert(blinky.augen); // 2 - blinky hat die Eigenschaft selbst nicht mehr, es schimmert die Eigenschaft des Prototyps durch Fixierung von Objektstruktur und −inhalten. Die in JavaScript im Regelfall völlig dynamische Struktur eines Objekts codice_58 kann in verschiedener Hinsicht fixiert werden: Nach dem Methodenaufruf codice_59 können keine weiteren Attribute und Methoden mehr ergänzt werden. codice_60 verhindert sowohl die Erweiterung wie die Streichung von Attributen und Methoden. Der Aufruf codice_61 fixiert sowohl die Objektstruktur wie auch die Attributwerte inklusive der Methoden gegen nachfolgende Veränderungen. Die betreffenden Status eines Objekts codice_58können mit codice_63, codice_64 und codice_65 ermittelt werden. Es ist auch möglich, nur ein einzelnes Attribut eines Objekts codice_58 zu fixieren. Beispielsweise wird mit dem Aufruf codice_67 das Attribut codice_68 schreibgeschützt. Delegationsprinzipien. JavaScript ist eine Delegationssprache mit sowohl selbstausführendem als auch direktem Delegationsmechanismus. Fehlerbehandlung. throw "sample exception"; // wenn verfügbar, besser: Error-Objekt (siehe unten) Zu Beginn werden die Anweisungen im codice_76-Block ausgeführt. Falls eine Ausnahme auftritt, wird der Kontrollfluss sofort zum codice_77-Block mit dem Ausnahmeobjekt als Parameter umgeleitet. Im Normalfall wird der Ausnahmeblock übersprungen. Nach der Ausführung des codice_76-Blocks (auch teilweise) und gegebenenfalls des codice_77-Blocks werden in jedem Fall die Anweisungen im codice_80-Block ausgeführt. Der codice_80-Teil kann weggelassen werden, alternativ der codice_77-Teil. Einige Laufzeitumgebungen wie V8 (und somit Node.js) und auch viele Webbrowser stellen gesonderte Error-Objekte zur Verfügung, die neben der Fehlermeldung auch einen Stacktrace und weitere Zusatzinformationen transportieren können. Um diese Vorteile zu nutzen, ändert man im einfachsten Anwendungsfall den codice_75-Befehl von throw "Meldungstext"; zu throw new Error("Meldungstext");. Klammern um den Parameter des codice_75-Befehls sind im Allgemeinen nicht notwendig. Sollten sie in Ausnahmefällen benötigt werden, um beispielsweise einen auf mehrere Zeilen verteilten Parameter zusammenzufassen, kann die mögliche Verwechslung mit einem Funktionsaufruf dennoch vermieden werden, indem man ein Leerzeichen zwischen codice_75 und die öffnende Klammer einfügt. JavaScript-Bibliotheken. Für die Erstellung von browserübergreifenden Webanwendungen mit Hilfe von JavaScript stehen JavaScript-Bibliotheken, sogenannte Toolkits bereit. Es handelt sich dabei um eine Sammlung von JavaScript-Funktionen, die den JavaScript-Programmierer in seiner Arbeit unterstützen sollen. Toolkits, die nicht nur häufig benutzte Standardfunktionen zur Verfügung stellen, sondern durch ein besonderes Maß an Abstraktion eine grundlegend andere Programmierung nach sich ziehen, werden auch Frameworks genannt. Ausgelöst von neuen Konzepten wie Ajax entstand seit 2004 ein neues Interesse für JavaScript. JavaScript wird zunehmend für Rich-Client-Anwendungen benutzt, die das Aussehen und die Bedienung von herkömmlichen Desktop-Programmen auf Web-gestützte Anwendungen übertragen. JavaScript spielt dabei eine Schlüsselrolle, wenn es darum geht, Statusinformationen ohne Laden einer vollständigen Seite zwischen Browser und HTTP-Server zu übertragen. Im Zuge dieser neuen Anforderungen entstanden verschiedene Bibliotheken, die die Entwicklung solcher Anwendungen vereinfachen wollen. Neben Ajax-Funktionalitäten bieten die meisten dieser Bibliotheken eine eigene Basis für objektorientierte Programmierung, eine Abstraktionsschicht für das komfortable Arbeiten mit dem DOM sowie grafische Effekte wie Animationen. Aber auch schon vor dem breiten Einsatz von Ajax existierten Funktionssammlungen zur Unterstützung der browserübergreifenden Programmierung. Zu den bekannten JavaScript-Bibliotheken und Frameworks zählen AngularJS, Dojo Toolkit, Ext JS, jQuery, MooTools, Prototype, Qooxdoo und die Yahoo User Interface Library. Speziell mit grafischen Effekten beschäftigen sich Moo.fx und Script.aculo.us. Für die serverseitige Programmierung mittels Node.js stehen eigene Bibliotheken und Frameworks bereit. Einige Bibliotheken und insbesondere Frameworks erweitern die Sprache um zusätzliche Funktionen, die häufig in spätere Versionen der Spezifikation einfließen oder rüsten bei Bedarf ältere Implementierung per Polyfill nach. Jahr. Aus Sicht des physikalischen Messwesens stellt ein „Jahr“ (ohne Präzisierung der Bemessungsgrundlage) keine Maßeinheit dar, im Internationalen Einheitensystem wird ein Einheitenzeichen "a" (für lateinisch "annum" „Jahr“) in gewissen Zusammenhängen toleriert. Eine verbindliche Norm für die Länge eines Jahres gibt es dabei nicht, die obengenannten Werte kommen aber als speziellere normative Grundlagen vor. Bürgerliches Jahr. In der Kalenderrechnung ist "Kalenderjahr" oder "bürgerliches Jahr" allgemein die Bezeichnung für die durchschnittliche Jahreslänge des Kalendersystems, unabhängig davon, wie Gemein- und Schaltjahre berechnet werden. Das Jahr (in dem Konzept 1. 1. bis 31. 12.) ist ein "Kalenderjahr eines Solarkalenders" in Unterscheidung zum "Lunarjahr" und dem "Lunisolarjahr", die deutlich andere Längen haben. Der Ausdruck ‚bürgerliche Zeitrechnung‘ bezieht sich auf die Unterscheidung zu ‚physikalisch‘, ‚technisch‘ bzw. ‚astronomisch‘. Die DIN 1355-1 Norm trifft eine Aussage zu den Zeitpunkten von Beginn und Ende des bürgerlichen Jahres, nicht aber zu der dazwischen verstrichenen Zeitspanne, z. B.: [00:00 Uhr] [24:00 Uhr] Neben dem normalen Gemeinjahr zu 365 Tagen kennt der bürgerliche Kalender Schaltjahre zu 366 Tagen. Gelegentlich wird die kalendarische Jahreslänge auch durch das Einfügen von koordinierten Schaltsekunden verändert. Die Schaltsekunden werden am 30. Juni oder 31. Dezember, wenn nötig auch 31. März oder 30. September eingefügt, wodurch diese Kalendertage eine Sekunde länger sein können. Durch die Schalttage wird das durchschnittliche Kalenderjahr an das tropische Jahr angepasst. Die Schaltsekunden dienen hingegen der Anpassung des durchschnittlichen Kalendertags an den mittleren Sonnentag, durch sie wird also die Koordinierte Weltzeit UTC "(coordinated universal time)" mit der Universalzeit UT "(universal time)" und der Atomzeit TAI koordiniert. Das Jahr wird in 12 Monate eingeteilt. Diese schwanken im bürgerlichen Kalender in der Länge. Ein Bürgerliches Jahr dauert 52 Wochen (zu 7 Tagen) und einen oder zwei Tage. Eine Kalenderwoche dauert von Montag bis Sonntag und wird unabhängig vom Jahr gezählt, so dass 52 oder 53 Kalenderwochen in ein Jahr fallen können. Erste Kalenderwoche des Jahres ist die Woche, d.h., der 4. Januar befindet sich immer in der ersten Kalenderwoche. Jahreszahl. Die Kalenderjahre werden nach der ISO 8601 vom Jahr Null ausgehend fortlaufend mit der Jahreszahl nummeriert. Damit ist ein einzelnes Kalenderjahr eindeutig beschrieben, und wird zur Grundgröße der Zeitrechnung und Teil des Kalenderdatums. Je nach Datumsformat wird sie zwei- oder vierstellig aufgeführt. Jahresbeginn. Als Neujahrstag, an dem die Jahreszahl wechselt, wurde im Jahr 1691 durch Papst Innozenz XII. der 1. Januar festgesetzt. In verschiedenen Kalendern. Andere Kalendersysteme verwenden sowohl andere Definition der Länge und des Beginns eines Jahres, als auch andere Bezugsdaten, also andere Jahreszahlen. Mitte 2006 ist zum Beispiel nach der islamischen Zeitrechnung das Jahr 1427, im jüdischen Kalender 5766, im traditionellen chinesischen Kalender 丙戌 „Feuer-Hund“. Aus historischen Gründen ist der derzeit weltweit verbreitete und – insbesondere in Europa – gesetzlich gültige Kalender, der gregorianische Kalender. Das gregorianische Kalenderjahr ist ein Solarkalender und orientiert sich am tropischen Jahr (Sonnenjahr). Im Alltag meint das „gregorianische Jahr“ die Zeit von Neujahr bis Silvester. Die Länge errechnet sich daraus, dass nach den Schaltregeln des gregorianischen Kalenders innerhalb von 400 Jahren jeweils 97 Schalttage eingefügt werden. Diese Regeln versuchen, wie bei allen Sonnenkalendern, das bürgerliche Jahr der wahren Umlaufdauer der Erde um die Sonne – dem tropischen Jahr – möglichst einfach und doch hinreichend genau anzunähern ("siehe" →In der Astronomie). Zu weiteren speziellen kalendarischen Jahren "siehe" die Liste der Kalendersysteme. Als "verworrenes Jahr" bezeichnet man das längste Kalenderjahr der Geschichte, das bei der Einführung des julianischen Kalenders (46 v. Chr.) auftrat, es war 445 Tage lang; "siehe hierzu auch" Jahr Null. Das kürzeste Jahr war 1582, als durch die Einführung des gregorianischen Kalenders 10 Tage übersprungen wurden. Das bisher längste Jahr im bürgerlichen Kalender war 1972, als Schaltjahr um einen Tag und zwei koordinierte Schaltsekunden länger als üblich. Mehr als eine Schaltsekunde in einem einzigen Jahr war seither nie mehr nötig und scheint daher absehbar nicht vorgesehen werden zu müssen. In den Geowissenschaften. Für erdgeschichtliche Datierungen ist der Nullpunkt des Kalenders irrelevant, hier gibt man Jahre im Allgemeinen in ‚Jahrmillionen vor heute‘ an: "(mya)", daneben ist auch "bya" für ', ‚Jahrmilliarden vor heute‘ möglich. Zeitspannen werden dann in "Ma" (Megajahren) angegeben, in englischen Sprachraum auch mit "yr" anstelle von "a". In der Astronomie. „Umlauf“ ist eine Frage der Bezugspunkte, die sich aber aufgrund der komplexen Kräfte- und Bewegungsverhältnisse im Sonnensystem laufend verschieben, daher gibt es einige ganz spezielle Definitionen. Die genauen Längen sind kurz- und mittelfristigen periodischen Schwankungen unterworfen, deshalb werden im Folgenden Mittelwerte angegeben. Auch diese sind langfristigen („säkularen“) Änderungen unterworfen, deshalb muss für große Genauigkeit ein Bezugsdatum angegeben werden. Im Folgenden ist dies die Standardepoche J2000.0. Das "Besselsche Sonnenjahr" war die Grundgröße der veralteten Bessel-Epoche. Es entspricht in der Länge dem "Tropischen Jahr". Im Prinzip wird allgemein die Zeitspanne zwischen zwei Wiederholungen eines Ereignisses, das mit dem Orbit eines beliebigen Astronomischen Objektes um seinen Zentralobjekt zusammenhängt, also jeder vollständige Umlauf, als "Jahr" bezeichnet. Ein Umlauf der Erde um die Sonne ist in diesem Sinn ein "Erdjahr". Unabhängig davon wird in der Astronomie die Bezeichnung „Jahr“ auch als Zeitmaß gebraucht. In diesem Fall ist damit eine Zeitspanne von 365,25 Tagen zu 86400 Sekunden gemeint, die durchschnittliche Dauer eines Jahrs im julianischen Kalender. Der Grund dafür ist, dass diese Einheit einerseits recht genau mit der Dauer eines Sonnenjahrs übereinstimmt und man andererseits einfach damit rechnen kann. Für langfristige Berechnungen werden auch die Einheiten "Julianisches Jahrhundert" (36525 Tage) und "Julianisches Jahrtausend" benutzt. Das bedeutet jedoch nicht, dass Astronomen den julianischen Kalender benutzen würden. Für Datumsangaben verwenden sie den üblichen bürgerlichen (d. h. gregorianischen) Kalender oder das julianische Datum. Persönliche Jahre. In Unterscheidung zu den anderen Definitionen beziehen sich manche Angaben über Jahre auf individuelle chronologische Eckdaten, also bestimmte, persönliche Ereignisse. Diese orientieren sich nicht an der zyklischen Zeitrechnung des Kalenders, sondern an der linearen Zeitrechnung eines Menschenlebens. Memorialjahre. Jahre, die dem Gedenken an einen Menschen oder der Erinnerung an ein Ereignis dienen. Hierzu zählen die Bezugsdaten der Jahrrechnung mancher Kalendersysteme (dynastische Kalender) nach dem Regierungsantritt eines Herrschers, im weiteren Sinne das Jahr Eins der meisten Kalendersysteme. Julianisches Jahr. Das julianische Jahr ist eine vom Jahresbegriff hergeleitete Maßeinheit der Zeit und entspricht einer Zeit von exakt 365,25 Tagen. Sie entspricht dem Mittelwert der Jahreslängen im julianischen Kalender und ist im Unterschied zum julianischen "Kalender"jahr eine exakte, gleichbleibende Maßeinheit. Verwendung findet sie im Bereich der Astronomie, wenn dort allgemein von einem „Jahr“ gesprochen wird. Jean Paul Marat. Jean Paul Marat (* 24. Mai 1743 in Boudry, Fürstentum Neuenburg, heute Kanton Neuenburg, Schweiz; † 13. Juli 1793 in Paris) war Arzt, Naturwissenschaftler und Verfasser naturwissenschaftlicher und politischer Schriften. Während der Französischen Revolution verlegte und schrieb er den "Ami du Peuple", eine Zeitung, die mit scharfer Polemik die Vorgehensweisen der Gegenrevolution verfolgte. Er war auf Seiten der Bergpartei Abgeordneter im Nationalkonvent sowie für eine Periode Präsident des Klubs der Jakobiner. Er wurde insbesondere von der Propaganda seiner politischen Gegner für die Septembermassaker verantwortlich gemacht, wovon heute aber die meisten Historiker abgerückt sind. Durch seine Ermordung wurde er zum „Märtyrer der Revolution“, somit wurden seine sterblichen Überreste ein paar Monate lang im Panthéon aufbewahrt. Kindheit und seine frühen Jahre. Marat wurde am 24. Mai 1743 als zweites von acht Kindern in Boudry im Fürstentum Neuenburg geboren, das als Zugewandter Ort mit der Schweizerischen Eidgenossenschaft assoziiert war und zu dieser Zeit von der preußischen Königsfamilie der Hohenzollern regiert wurde. Sein Vater wurde bei der Registrierung seines Sohnes als „Jean Mara“ eingetragen, in den Bibliographien wird er auch „Jean-Baptiste Mara“ genannt. 1753 zog die Familie nach Yverdon, wo der Vater in einer Tuchfabrik als Zeichner arbeitete. 1755 zog man nach Neuchâtel weiter, wo der Vater nunmehr als Fremdsprachenlehrer tätig wurde. Hier fügte er seinem Namen das Schluss-“t“ an. Den dadurch französisch klingenden Nachnamen „Marat“ übernahm nun auch der Sohn Jean Paul. In der Literatur wird der Vater je nach Sprache Giovanni Mara, Juan Salvador Mara oder Jean Marat genannt. Er war in Cagliari auf Sardinien geboren; seine Mutter, Louise Cabrol, stammte aus der ebenfalls mit der Eidgenossenschaft verbundenen Stadtrepublik Genf. Durch eine Hautkrankheit (Skrofulose, mit einem heftigen Juckreiz verbunden) bedingt, litt Marat unter Entstellungen. Als er sechzehn Jahre alt wurde, verließ er die Schweiz und wanderte allein nach Bordeaux nahe der französischen Atlantikküste aus, wo er Medizin studierte. Um sein Auskommen zu sichern, arbeitete er für den vornehmen Reeder Jean-Paul Nairac. 1762 zog er nach Paris, wo er drei Jahre blieb und an der Universität Vorlesungen in Medizin, Physik und Philosophie besuchte. Wegen seiner Erfolge bei der Heilung von Gonorrhoe konnte er sich als Arzt einen Namen machen. Danach zog es ihn nach England. Zehn Jahre lang praktizierte er als Arzt in London, Newcastle und Dublin. In England wurde er Freimaurer; am 15. Juli 1774 stellte man ihm ein Großlogen-Zertifikat aus, das von James Heseltine, dem Großsekretär, unterzeichnet war. Später wurde er Mitglied der Loge "La Bien Aimee" in Amsterdam. Etwa im Jahr 1762 schrieb Jean Paul Marat sein erstes Buch "Lettres Polonaises" („Polnische Briefe“), das aber nicht veröffentlicht wurde. Auch der 1771 in London fertiggestellte Roman "Les Aventures du jeune Comte Potowski – un Roman de Cœur" („Die Abenteuer des jungen Grafen Potowski – ein Herzensroman“) blieb zu seinen Lebzeiten unveröffentlicht. Der Roman enthält auch Gedanken zum Strafrecht, die Marat später in seinem "Plan de législation criminelle" („Plan einer Strafgesetzgebung“) wieder aufgriff. Wissenschaftler und Physiker. Marats erstes veröffentlichtes Werk erschien 1772 als "An Essay on the human soul" („Eine Untersuchung über die menschliche Seele“). Es wurde 1773 erneut publiziert als Teil seiner Abhandlung "A philosophical essay on man" („Eine Philosophische Studie über den Menschen“). Ein Jahr später veröffentlichte Marat in England eines seiner berühmtesten Werke: "Chains of slavery" („Ketten der Sklaverei“). Am 30. Juni 1775 erhielt Marat einen akademischen Titel in Medizin an der St. Andrews University in Schottland. Im Juni 1777 kehrte er wieder nach Frankreich zurück und wurde Arzt bei der Leibgarde des Grafen von Artois, des jüngsten Bruders Ludwigs XVI. Dort führte er einige Experimente mit Feuer, Licht und Elektrizität durch. Er schrieb Bücher über die Elektrizität, das Feuer, das Licht, die Optik, wobei er mit seinem hitzköpfigen Stil so heftige Gegenkritiken auf sich zog, dass Johann Wolfgang von Goethe sich veranlasst sah, ihn in Schutz zu nehmen. 1779 veröffentlichte er ein Buch über seine neuen Erkenntnisse im Bereich der Physik. Weitere Bücher über Physik, Theorie der Politik, Recht und Physiologie folgten in den folgenden Jahren. Im Jahre 1783 beendete Marat seine medizinische Laufbahn und widmete sich voll den Naturwissenschaften. Eintritt in die Politik. Gleichzeitig mit seinen naturwissenschaftlichen Studien befasste er sich mit Politik und Recht und beteiligte sich an einem 1777 von der "Société économique de Berne" veranstalteten Wettbewerb zur Reform des Strafrechts mit einem 1780 herausgegebenen "Plan einer Kriminalgesetzgebung". Die erste Auflage wurde vermutlich durch die Zensurbehörde beschlagnahmt, die weiteren Auflagen blieben unbeachtet. Im Juli 1788 fühlte sich Marat sterbenskrank und schrieb deshalb sein Testament. Er bat einen Freund, den Uhrmacher Abraham Louis Breguet, ihn am Totenbett seelisch zu unterstützen und alle seine Manuskripte an eine Akademie für Wissenschaften zu schicken. Angeblich erzählte ihm Abraham am Totenbett von den revolutionären Ereignissen. Dies soll bei ihm einen so großen Eindruck hinterlassen haben, so der Mythos, dass sich sein Gesundheitszustand besserte und er fortan die Revolution mit voller Kraft und allen Mitteln unterstützte. Im Februar 1789 veröffentlichte er eine "Offrande à la Patrie" („Opfergabe an das Volk“), in der er sich an den Dritten Stand richtet, um dessen Position gegenüber „unseren Feinden“ (den beiden übrigen Ständen) mit einer neuen Verfassung zu stärken. Die Schrift blieb unbeachtet, eine Ergänzung wurde beschlagnahmt. Im Juli oder August 1789 versuchte er es erfolglos mit einer ersten Zeitung, dem "Moniteur patriote" („Patriotischer Anzeiger“). Mehr Erfolg hatte er mit der ab 12. September 1789 herausgegebenen Zeitung "Publiciste Parisien" („Pariser Blatt“), die er von der 6. Nummer an in "Ami du Peuple" („Freund des Volkes“) umbenannte. Diese Zeitung war eine stark beachtete Zeitung Frankreichs, die manchmal zweimal am Tag erschien, und sich als die Stimme des revolutionären Volkes verstand. Marat griff darin mit scharfen Worten alle gemäßigten Girondisten in der Nationalversammlung an. Er bezeichnete alle wirklichen oder angeblichen Gegner der Revolution als Verräter und Volksfeinde, veröffentlichte deren Namen in seiner Zeitung und lieferte sie damit der Rache des Volkes aus. Dies führte dazu, dass am 6. Oktober 1789 ein Haftbefehl des Châtelet-Gerichts gegen ihn erlassen wurde. Man versuchte, ihn zu verhaften, was am 12. Dezember 1789 auch gelang; jedoch wurde er nach einem Verhör wieder freigelassen. Als man im Januar 1790 zweimal erneut – teils unter Aufbietung hunderter von Soldaten – versuchte, ihn zu verhaften, floh er nach England, kehrte aber im Mai 1790 wieder nach Frankreich zurück. Nun befürwortete er die Enthauptung von 500 bis 600 Gegnern. Im September 1790 forderte er 10.000 Opfer, im Januar 1791 sogar 100.000. Er wurde von den Behörden gesucht, schaffte es aber, seine Zeitung – wenn auch mit Unterbrechungen – weiter herauszugeben und sich trotzdem in Paris verborgen zu halten. Erst im Dezember 1791 nahm er „endgültig“ Abschied von seinen Lesern, um nach London abzureisen, wurde aber schon im Februar 1792 wieder in Paris gesehen. Nach dem Sturz der Monarchie im August 1792 schloss sich Marat den Jakobinern an und wurde, mit großer Unterstützung des Volkes, ein einflussreicher Delegierter im Nationalkonvent wie auch für eine Wahlperiode der Präsident des Klubs der Jakobiner. Die Septembermassaker 1792 an Unabhängigen und Royalisten hat er in seinem "Ami du Peuple" zwar publizistisch gefördert, aber als sie ausbrachen, war er selbst davon überrascht. Die Historiker konnten jedoch keinen konkreten Beweis für Marats Verantwortlichkeit finden. Seine Beteiligung scheint sich in der Abfassung einer Resolution zu erschöpfen sowie dem vergeblichen Bemühen, Unschuldige vor den Ausschreitungen zu retten. Charlotte Corday und das Attentat. Nachdem die jakobinische Bergpartei die gemäßigten Girondisten verdrängt hatte, beschloss Charlotte Corday, eine Anhängerin der Girondisten, Marat zu ermorden. Sie fuhr in einer Postkutsche nach Paris, wo sie ein Küchenmesser mit einer 20 cm langen Klinge erstand. Eigentlich wollte sie Marat am 14. Juli, dem Jahrestag des Sturms auf die Bastille, in aller Öffentlichkeit erstechen. Doch Marat war wegen seiner Skrofulose an das Haus gebunden. Unter dem Vorwand, dass sie einige Girondisten aus ihrer Heimatstadt Caen, einer Hochburg der Konterrevolution, denunzieren wolle, suchte sie Marat am 13. Juli 1793 auf. Marats Lebensgefährtin Simone Évrard ließ sie jedoch nicht ein. Sie fuhr zurück in ihr Hotel, kündigte ihren Besuch schriftlich an und kehrte noch am selben Tag zurück zu Marats Wohnung, ohne Antwort erhalten zu haben. Im Badezimmer stach sie ihm nach einem kurzen Gespräch heftig in Hals und Brust (in der Nähe des Schlüsselbeins), wobei sie so stark zustieß, dass die Aorta riss und Marat sofort tot war. Ein herbeieilender Redakteur des "Ami du Peuple" soll Corday niedergeschlagen haben, woraufhin sie festgenommen wurde. Zu keinem Zeitpunkt leistete sie Widerstand. Am 17. Juli 1793 wurde sie guillotiniert. Durch ihre Tat wurde Marat zunächst zu einem noch größeren Helden und Märtyrer. Seine Mörderin erlangte durch ihre Hinrichtung den Status einer Märtyrerin der Konterrevolution. Jean Paul Marat wurde am 16. Juli 1793 unter den Bäumen des Kreuzganges des ehemaligen Couvent des Cordeliers beigesetzt, Ende September 1794 exhumiert und im Panthéon bestattet. Von dort wurde der Sarg im Jahr 1795 auf den Friedhof der Pfarrkirche Saint-Étienne-du-Mont überführt. Das Attentat bildet den Stoff des Dramas Die Verfolgung und Ermordung Jean Paul Marats dargestellt durch die Schauspielgruppe des Hospizes zu Charenton unter Anleitung des Herrn de Sade (uraufgeführt 1964) von Peter Weiss. Politische Schriften. Im Mai 1774 erschien anonym in London ein Werk mit dem Titel: "The Chains of Slavery". Es war zuvor im "London Magazine", im "Gentleman’s Magazine", im "Public Advertiser" und im "Scot’s Magazine" angekündigt worden. Es wurde hernach im "Critical Review" und im "London Magazine" positiv besprochen; mit ein paar Zeilen im Juni ebenfalls im "Monthly Review". Im Mai 1774 schrieb Marat an John Wilkes, damals Symbolfigur der Opposition, um sich und sein Werk in die Tagespolitik Englands einzubringen. Ebenso widmete der Autor sein Werk verschiedenen „patriotischen“ Gesellschaften. Aber erst in einem Adressschreiben an Camille Desmoulins vom 4. Mai 1791 hat sich Marat als Autor zu erkennen gegeben. Der Wunsch, sein in England erschienenes Werk den Franzosen bekannt zu machen, gibt Marat zum ersten Male im berühmten Plakat "Marat, l’Ami du Peuple, à Louis-Philippe-Joseph d’Orléans, prince français" am 10. August 1792 bekannt. Mitte Oktober 1792 kündigt er dann die französische Ausgabe in einem Prospekt an. Absicht ist, durch die Publikation seiner politischen Schriften dem französischen Leser die theoretischen Grundlagen seiner Tagespolitik mitzuteilen. Zwischen der englischen und der französischen Ausgabe des Werkes existieren sowohl Kontinuität wie auch Brüche. Marats philosophischer Ausgangspunkt ist ein politischer Defätismus: Der Mensch ist frei geboren, aber überall ist er in Fesseln, wird er von Despoten unterdrückt. Die Fesseln abzuwerfen, ist möglich, bedarf aber äußerster Anstrengungen und Misstrauen gegen die Intrigen der Despoten, denn der Rückfall in die Barbarei ist stets eine reale Möglichkeit; die Freiheit kann nur im Kampf gegen die geschichtlich dominante Tendenz zur Unfreiheit errungen werden. Das gilt ebenfalls für jede Phase der Französischen Revolution, die sich für Marat eher als eine Geschichte der Gegenrevolution erweist, denn diejenigen, die zu einem jeweiligen Zeitpunkt die Herrschaft erlangt haben, geben dem Volk die Freiheit nur dem äußeren Scheine nach; tatsächlich aber versuchen sie, das Volk einzulullen oder den Parteienhader so weit zu treiben, dass es die Lust an der Freiheit verliert und sich nach einem Despoten zurücksehnt. Das Kunstwerk von Jacques-Louis David. Jacques-Louis David überreichte vier Monate nach dem Mord an Marat dem Konvent sein Gemälde und ließ es an der Stirnseite des Saales aufhängen. Dazu hielt er eine Rede, in der er seine Gefolgsleute zur Rache aufrief. Das Bild wurde auf Beschluss des Konvents als Stich vervielfältigt. Nach dem Sturz der Jakobiner erging die Regelung, dass Bildnisse der Revolutionshelden nur noch ausgestellt werden dürften, wenn mehr als 10 Jahre seit ihrem Ableben vergangen seien. In der nachnapoleonischen Restaurationszeit musste David das Gemälde mit Bleiweiß übertünchen, um es vor Verfolgungen zu schützen. Nach dem Tod des Künstlers lehnte die französische Regierung 1826 den Erwerb des Bildes ab, und auch 11 Jahre später scheiterte der Versuch der Erben, das Bild dem französischen Nationalmuseum anzubieten. 1893 vermachte der Neffe Jacques-Louis Davids, vermutlich aus Dankbarkeit über die freundliche Aufnahme seines Onkels in Brüssel, das Bild dem dortigen Königlichen Museum. Jean-Pierre Jeunet. Jean-Pierre Jeunet (* 3. September 1953 in Roanne, Département Loire Frankreich) ist ein französischer Regisseur. Zu seiner künstlerischen Handschrift gehören skurrile Charaktere und eine außergewöhnlich ausgeprägte inszenatorische Gestaltungskraft. Leben und Werk. Sein Spielfilmdebüt gab Jeunet 1991 mit dem Film "Delicatessen", bei dem er gemeinsam mit Marc Caro Regie führte. Bereits in den 1980er Jahren hatten Jeunet und Caro eine Anzahl von teils hochgelobten Kurzfilmen, Musikvideos und Werbespots gedreht, darunter "The Escape" und "The Merry-Go-Round", für den sie 1981 einen César erhielten. Nach den beiden düster-skurrilen Märchen "Delicatessen" und "Die Stadt der verlorenen Kinder" (1995) wurde Jeunet für die Fortsetzung von "Alien", "Alien – Die Wiedergeburt" (1997) gewonnen, der von der Kritik sehr kontrovers aufgenommen wurde. Zum kommerziellen Erfolg gibt es unterschiedliche Interpretationen. Das Kino-Fanzine ‚Film-Zeit.de‘ spricht vom erfolgreichsten Film der ursprünglichen Alien-Reihe. Wie eigentlich üblich, wurde aber offenbar nicht berücksichtigt, dass zwischen den Produktionen von "Alien und Alien – Die Wiedergeburt" fast 20 Jahre liegen. Laut einer inflationsbereinigten Liste auf "Box Office Mojo", liegt Alien – Die Wiedergeburt auf dem letzten Platz im US-Vergleich, der vom ersten Teil mit großem Abstand angeführt wird. Nach vier Jahren drehte er "Die fabelhafte Welt der Amélie", seinen bislang größten Erfolg. 2004 folgte "Mathilde – Eine große Liebe". Jeunet bekam das Angebot, bei der Blockbuster-Produktion "Harry Potter und der Orden des Phönix" Regie zu führen, was er jedoch ablehnte. Jeunet sollte auch die Regie des Films ' übernehmen. Nachdem er jedoch „zwei Jahre seines Lebens mit diesem Projekt verschwendet hatte“, wurde die Regie an Ang Lee übergeben. Fox Studios war das von Jeunet veranschlagte Budget (85 Millionen US-Dollar) zu hoch. Ang Lees Version kostete letztendlich aber 120 Millionen Dollar. Jeunet gilt als ein eher langsam arbeitender Regisseur, der viel Zeit auf Details und die originelle Gestaltung aufwendet. Die Produktion seiner Filme benötigt daher in der Regel mehrere Jahre. Eine Reihe von Darstellern arbeiten immer wieder gerne mit ihm zusammen, darunter Jean-Claude Dreyfus, Dominique Pinon und zuletzt Audrey Tautou. 2009 drehte er für das Parfüm Chanel Nº 5 einen Werbespot, in dem auch Audrey Tautou mitspielte. Auch dieser, knapp zweieinhalb minütige, Kurzfilm entspricht seinem typisch cineastischen Stil. Sein letzter Spielfilm, Die Karte meiner Träume, ist eine Adaption des gleichnamigen Romans von Reif Larsen. Premiere hatte er im Oktober 2013 und lief am 10. Juli 2014 in Deutschland an. Jupiter (Planet). Der Jupiter ist mit einem Äquatordurchmesser von rund 143.000 Kilometern der größte Planet des Sonnensystems. Er ist mit einer durchschnittlichen Entfernung von 778 Millionen Kilometern von der Sonne aus gesehen der fünfte Planet. Aufgrund seiner chemischen Zusammensetzung zählt er zu den Gasplaneten („Gasriesen“) und hat keine sichtbare feste Oberfläche. Diese Gasriesen werden nach ihm auch als jupiterähnliche (jovianische) Planeten bezeichnet, die im Sonnensystem die Gruppe der äußeren Planeten bilden. In dieser Gruppe ist er der innerste und läuft in äußerer Nachbarschaft des Asteroidengürtels um die Sonne. Jupiter ist das dritt- bis vierthellste Objekt des Nachthimmels (nach Mond und Venus, abhängig von der Bahnkonstellation ist bisweilen auch der Mars heller). Er ist nach dem römischen Hauptgott Jupiter benannt. In Babylonien galt er wegen seines goldgelben Lichts als Königsstern (siehe auch Stern von Betlehem). Sein astronomisches Symbol ist. Umlaufbahn. Jupiter läuft auf einer annähernd kreisförmigen Umlaufbahn mit einer Exzentrizität von 0,0489 um die Sonne. Sein sonnennächster Punkt, das Perihel, liegt bei 4,95 AE und sein sonnenfernster Punkt, das Aphel, bei 5,46 AE. Seine Umlaufbahn ist mit 1,305° leicht gegen die Ekliptik geneigt. Für einen Umlauf um die Sonne benötigt Jupiter 11 Jahre, 315 Tage und 3 Stunden. Wegen seiner geringen Bahnneigung (1,3°) bewegt sich Jupiter immer nahe der Ekliptik. Die fast genau 12-jährige Umlaufzeit bedeutet, dass er sich jedes Jahr im Tierkreis um 1 Sternbild weiterbewegt und seine beste Sichtbarkeit (Opposition) jährlich um 1 Monat später eintritt. Jupiter hat eine wichtige Funktion im Sonnensystem. Da er schwerer ist als alle anderen Planeten zusammen, bildet er eine wesentliche Komponente des Massengleichgewichtes im Sonnensystem. Er stabilisiert durch seine Masse den Asteroidengürtel. Ohne Jupiter würde statistisch gesehen alle 100.000 Jahre ein Asteroid aus dem Asteroidengürtel die Erde treffen und Leben dadurch vermutlich unmöglich machen. Die Existenz eines jupiterähnlichen Planeten in einem Sonnensystem könnte darum Voraussetzung für Leben auf einem dem Stern näheren Planeten sein; jedoch teilen nicht alle Astronomen diese Ansicht. Des Weiteren befinden sich auf der Bahn des Jupiters Trojaner, die Jupiter auf den Lagrange-Punkten L4 und L5 begleiten. Rotation. Jupiter ist im Sonnensystem der Planet, der sich am schnellsten um seine Achse dreht. Seine Rotationsperiode beträgt knapp zehn Stunden, was aufgrund der Fliehkräfte zu einer Abflachung des Jupiters an den Polen führt. Außerdem rotiert Jupiter als Gasplanet nicht wie ein starrer Körper, sondern seine (visuell beobachtbare) Oberfläche befindet sich in differentieller Rotation. Die Äquatorregionen benötigen 9 h 50 min 30 s und die Polregionen 9 h 55 min 41 s. Die Äquatorregionen werden als "System I" und die Polregionen als "System II" bezeichnet. Seine Rotationsachse ist dabei nur sehr gering um 3,13° gegen die Normale seiner Umlaufbahn um die Sonne geneigt. Jupiter hat somit im Gegensatz zu anderen Planeten keine ausgeprägten Jahreszeiten. Die Präzessionsperiode der Rotationsachse liegt Modellrechnungen zufolge in einer Größenordnung von 500.000 Jahren. Physikalische Eigenschaften. Jupiter ist der massereichste Planet im Sonnensystem. Er ist etwa 2,5-mal so massereich wie alle anderen sieben Planeten zusammen. Als einziger Planet des Sonnensystems liegt der gemeinsame Schwerpunkt mit der Sonne mit etwa 1,068 Sonnenradien leicht außerhalb der Sonne. Jupiters Masse entspricht 318 Erdmassen beziehungsweise dem 1048. Teil der Sonnenmasse. Jupiter ist nicht nur der schwerste, sondern mit einem Durchmesser von etwa 143.000 Kilometern auch der größte Planet des Sonnensystems. Sein Durchmesser entspricht rund elfmal dem der Erde beziehungsweise einem Zehntel des Sonnendurchmessers. Wie alle Gasriesen hat er mit 1,326 g/cm³ eine geringere mittlere Dichte als erdähnliche Planeten. Er weist eine relativ starke Abplattung auf. Der scheinbare Winkeldurchmesser beträgt je nach Erdentfernung 32 bis 48″. In einer Wolkenschicht südlich des Äquators befindet sich der größte Wirbelsturm des Sonnensystems, der "Große Rote Fleck" (GRF), der schon vor 300 Jahren beobachtet werden konnte. Außerdem besitzt Jupiter ein kleines Ringsystem und 67 bekannte Monde, von denen die vier größten, die "Galileischen Monde" Ganymed, Kallisto, Europa und Io, auch mit kleinen Fernrohren wahrgenommen werden können. Auch die bis zu fünf Äquatorstreifen können mit einfachen Fernrohren beobachtet werden. Jupiter besitzt fast die Maximalausdehnung eines „kalten“, aus Wasserstoff bestehenden Körpers. „Kalt“ bedeutet in diesem Zusammenhang, dass in dem Himmelskörper kein Wasserstoff zu Helium fusioniert und ihn zu einem Stern aufheizt. Jupiter müsste mindestens etwa 70 mal schwerer sein, um den kleinstmöglichen Stern mit Kernfusion, einen roten Zwerg, zu bilden. Körper aus Wasserstoff mit einer größeren Masse als Jupiter besitzen aufgrund ihrer stärkeren Gravitation ein kleineres Volumen. Solche Objekte nennt man ab etwa 13 Jupitermassen Braune Zwerge. Die Übergänge zwischen Sternen, Braunen Zwergen und Planeten sind fließend. Insgesamt gleicht Jupiters Zusammensetzung sehr der Gasscheibe, aus der sich vor etwa 4,5 Milliarden Jahren die Sonne entwickelt hat. Es lassen sich Ähnlichkeiten im Aufbau zu Saturn erkennen, wobei Saturn einen geringeren Anteil an Helium hat. Die Temperatur beträgt bei einem Druck der Gasschicht von 100 kPa (1 bar, dies wird bei Gasplaneten allgemein als Nullniveau, d. h. „Oberfläche“, definiert) 165 K (−108 °C) und bei 10 kPa (0,1 bar) Druck 112 K (−161 °C). Aufbau. Jupiter hat keine feste Oberfläche und keine klar begrenzte Atmosphäre. Fast der ganze Planet besteht aus Gasen, und die Gashülle geht ohne Phasenübergang mit zunehmender Tiefe in einen flüssigen Zustand über. In seinem Innersten könnte es jedoch einen festen Kern geben. Jupiters Atmosphäre. Zonen, Gürtel und Wirbelstürme in Jupiters Atmosphäre Von außen zeigt sich Jupiter in verschiedenfarbigen Bändern und Wirbeln von Wolken, in Weiß-, Rot-, Orange-, Braun-, Gelb- und teilweise auch Blautönen. Die Wolken (Aerosole) enthalten Kristalle aus gefrorenem Ammoniak sowie möglicherweise Ammoniumhydrogensulfid und befinden sich in der Tropopause des Gasriesen. Die Bänder verlaufen auf verschiedenen Breitengraden in Ost-West-Richtung um den Planeten. Die helleren Bänder werden "Zonen" genannt, die dunkleren "Gürtel". Die Zonen sind kühler als die Gürtel, dichter, und enthalten aufsteigende Gase. Man nimmt an, dass ihre helle Farbe von Ammoniakeis stammt. Die Ursache für die dunkle Färbung der Gürtel ist bislang unsicher, man nimmt aber an, dass sie Phosphor, Schwefel und möglicherweise Kohlenwasserstoffe enthalten. Die Zonen und Gürtel bewegen sich, bezogen auf das Jupiterinnere, dessen Rotation man anhand seines Magnetfelds kennt, mit verschiedenen relativen Strömungsgeschwindigkeiten („zonaler Fluss“) in Ost- und in Westrichtung. Sie werden von Streifen mit hoher Windgeschwindigkeit begrenzt, die "Jets" genannt werden. In Ostrichtung strömende Jets befinden sich an den Übergängen von Zonen zu Gürteln (vom Äquator aus betrachtet), während westwärts gerichtete Jets an den Übergängen von Gürteln zu Zonen zu finden sind. An den Jets entstehen Turbulenzen und Wirbelstürme. In der Nähe der Pole Jupiters verschwindet der „zonale Fluss“ und hier gibt es auch keine ausgeprägten Bandstrukturen. Die Wolkendecke Jupiters ist nur etwa 50 km dick und besteht aus mindestens zwei Schichten, einer dichten unteren Schicht und einer dünneren oberen. Es könnte auch eine dünne Schicht von Wasserwolken unter der Ammoniakwolkenschicht geben, da man Blitze in der Atmosphäre beobachtet. Die Blitze werden durch die Polarität des Wassers verursacht, durch die sich elektrische Ladungen trennen können. Diese elektrischen Entladungen auf dem Jupiter können tausend Mal stärker sein als Blitze auf der Erde. Jupiters Außenbereich enthält auch Schwefelwasserstoff sowie weitere Oxide und Sulfide. Der Ammoniak kann in tiefer liegenden Schichten mit Schwefelwasserstoff auch zu Rauchwolken aus Ammoniumsulfid reagieren. Obere Schichten. Hauptbestandteile (in Stoffmenge bzw. Anzahl der Atome) des Außenbereichs sind Wasserstoff (89,8 ± 2 Vol.-%) und Helium (10,2 ± 2 Vol.-%) sowie in geringerer Menge Methan (0,3 ± 0,2 Vol.-%) und Ammoniak (260 ± 40 Vol-ppm). Die Massenverteilung entspricht damit etwa 75 % Wasserstoff, 24 % Helium und 1 % andere Elemente. Da ein Heliumatom etwa die vierfache Masse eines Wasserstoffatoms besitzt, ist der Massenanteil des Heliums entsprechend höher. Des Weiteren wurden Spuren von chemischen Verbindungen der Elemente Sauerstoff, Kohlenstoff, Schwefel, Neon und vielen anderen Elementen gefunden, aber auch von Edelgasen wie z. B. vom Gas Neon. Innerer Aufbau. Schematischer Schnitt zur Darstellung des inneren Aufbaus Wegen des hohen Drucks geht mit zunehmender Tiefe der Wasserstoff vom gasförmigen in den flüssigen Aggregatzustand über. Es gibt dabei keinen Phasenübergang zwischen den Aggregatzuständen, da die Temperatur oberhalb der kritischen Temperatur liegt. Daher kann auch keine Oberfläche als Grenzfläche definiert werden. Unterhalb etwa 78 % des Jupiterradius geht der Wasserstoff bei einem Druck jenseits von 300 Millionen Erdatmosphären in eine elektrisch leitfähige Phase über, die wegen der Leitfähigkeit metallisch genannt wird. Es wird vermutet, dass Jupiter unterhalb etwa eines Viertels seines Radius einen Gestein-Eis-Kern hat, der aus schweren Elementen besteht mit bis zu etwa 20 Erdmassen. Die Massenverteilung im Inneren des Planeten entspricht etwa 71 % Wasserstoff, 24 % Helium und 5 % andere Elemente. Vergleich Jupiter- und Saturnkern. Interessant ist der Vergleich zum (dem Radius nach) 10 % kleineren Saturn, der statt 318 nur 95 Erdmassen hat. Modellrechnungen zufolge beginnt im Innern des Ringplaneten die metallische Schicht erst bei 0,47 Saturnradien. Auch darunter liegt ein Eis-Silikat-Kern, dessen Masse etwa 16 Erdmassen betragen dürfte – was bei einer um 70 % kleineren Planetenmasse erstaunlich ist. Der Saturnkern hat somit einen Masseanteil von 25 %, Jupiter lediglich 4 %. Die Kerntemperatur beträgt 12.000 bzw. rund 20.000 Kelvin. Großer Roter Fleck. Der Große Rote Fleck umkreist als größter Wirbelsturm des Sonnensystems ständig den Jupiter. Er wurde bereits vor 300 Jahren auf Zeichnungen festgehalten. Damals wurde er durch einfache Ferngläser beobachtet. Außer den hellen und dunklen äquatorparallelen Wolkenbändern fällt an Jupiter vor allem der "Große Rote Fleck" auf "(GRF," oder englisch "GRS" für "Great Red Spot)". Der Große Rote Fleck ist ein riesiger ovaler Antizyklon, der in seiner Länge in Richtung der Rotation zwei Erddurchmesser groß ist. Er ist mit keiner festen Oberfläche verbunden, liegt aber sehr stabil zwischen zwei Wolkenbändern um etwa 22° südlicher Breite. Erstmals wurde der Große Rote Fleck 1664 von dem englischen Naturforscher Robert Hooke beschrieben. Seitdem unterlag er nur leichten Veränderungen. Zum Vergleich: Auf der Erde lösen sich Windwirbel in der Atmosphäre üblicherweise innerhalb einiger Wochen wieder auf. Aufgrund seiner Größe ist der Große Rote Fleck bereits in Amateurteleskopen sichtbar. Seine markante Farbe ist zwar deutlich röter als die Umgebung, jedoch ist es kein tiefes, leuchtendes Rot, sondern schwankt im Lauf der Jahre um ein eher helles Orange. Für ein erfolgreiches Auffinden können sich Beobachter an der durch ihn bedingten Einbuchtung am Südrand des dunklen "südlichen äquatorialen Gürtels" orientieren; diese wird als "Bucht des Großen Roten Flecks" "(Red Spot Hollow)" bezeichnet. Welche chemischen Elemente für die rote Färbung verantwortlich sind, ist unbekannt. Jedoch ist Ende 2009 der „südliche äquatoriale Gürtel“ verschwunden, sodass der Große Rote Fleck jetzt noch besser sichtbar auf einem sehr breiten, weißen Band liegt. Seit 1930 und insbesondere zwischen 2012 und 2014 ist der Sturm kleiner und kreisförmiger geworden. Beobachtungen mit dem Hubble-Weltraumteleskop im Mai 2014 zeigten die kleinste jemals gemessene Ausdehnung mit etwa 16.500 Kilometern in Richtung der längeren Achse. Als Ursache werden von der NASA Wechselwirkungen mit anderen kleineren Stürmen vermutet. Wirbelstürme. Der Große Rote Fleck, „red spot junior“ und der im Mai 2008 aufgetauchte dritte rote Fleck, aufgenommen vom Hubble-Teleskop. Jupiter unterliegt nach neuen Forschungsergebnissen einem 70-jährigen Klimazyklus. In diesem Zeitraum kommt es zur Ausbildung etlicher Wirbelstürme – Zyklone und Antizyklone, die nach gewisser Zeit wieder zerfallen. Zudem verursacht das Abflauen der großen Stürme Temperaturunterschiede zwischen den Polen und dem Äquator von bis zu zehn Kelvin, die sonst wegen der ständigen Gasvermischung durch die Stürme verhindert werden. Neben dem auffälligen roten Fleck ist seit längerem auch eine Struktur mit der Bezeichnung "weißes Oval" (englisch oval BA) bekannt, deren Ausdehnung mit etwa einem Erddurchmesser geringer als die des roten Flecks ist. Das weiße Oval hatte sich ab 1998 aus drei seit den 1930er Jahren bekannten Stürmen entwickelt. Im Jahre 2006 wurde durch Aufnahmen des Hubble-Weltraumteleskops ein Farbwechsel hin zu Rot beobachtet, sodass möglicherweise in Zukunft dieser Struktur der Name "Zweiter Roter Fleck" oder "Kleiner Roter Fleck" gegeben wird, auf Englisch "red spot junior". Neuere Messungen ermittelten in seinem Inneren Windgeschwindigkeiten bis zu 600 km/h. Im Mai 2008 wurde ein dritter roter Fleck entdeckt, von dem zuerst angenommen wurde, dass er etwa im August mit dem Großen Roten Fleck zusammentreffen würde. Der neue rote Fleck ging aus einem bisher weißlichen, ovalen Sturmgebiet hervor. Die Änderung der Farbe deutet darauf hin, dass die Wolken in größere Höhen steigen. In solch einer Höhe befindet sich auch die Wolkenobergrenze des Großen Roten Flecks. Mitte Juli 2008 hat der größte Wirbelsturm des Jupiters, der Große Rote Fleck, den dritten roten Fleck verschlungen, wie Beobachtungen mit dem Weltraumteleskop Hubble zeigen. Energiebilanz. Jupiter strahlt 335 (± 26) Milliarden Megawatt mehr an Wärme ab als die 501 (± 25) Milliarden Megawatt, die er von der Sonne erhält. Beiträge zur Energiebilanz sind eine langsame Abkühlung des festen Kerns um 1 K pro Jahrmillion und gravitative Bindungsenergie durch Kontraktion der Hülle um etwa 3 cm pro Jahr. Letzteres ist der sogenannte Kelvin-Helmholtz-Mechanismus. Womöglich trägt auch die Entmischung von Wasserstoff und Helium bei. Magnetfeld. Magnetosphäre des Jupiters. Um die Umlaufbahnen von Io (grün) und Europa (blau) existiert je ein Torus aus Plasma. Mit ENA ist die Abstrahlung von hochenergetischen neutralen Atomen (engl. "energetic neutral atoms") angedeutet. Jupiter besitzt das größte Magnetfeld aller Planeten des Sonnensystems. An der Oberfläche beträgt die Stärke des Feldes äquatorial circa 400 Mikrotesla und an den Polen zwischen 1040 und 1400 Mikrotesla. Es ist somit 10- bis 20-mal so stark wie das Erdmagnetfeld (ca. 30 µT am Äquator und ca. 60 µT an den Polen) und wesentlich größer. Der magnetische Nordpol des Jupiters liegt in der Nähe seines geographischen Südpols. Die Achse des magnetischen Nordpols ist um circa 10° gegen die Rotationsachse geneigt. Die fiktive Achse zwischen dem magnetischen Nordpol und dem magnetischen Südpol geht nicht direkt durch das Zentrum des Planeten, sondern leicht daran vorbei, ähnlich wie es bei der Erde der Fall ist. Die genaue Entstehung des Magnetfeldes ist bei Jupiter noch ungeklärt, jedoch gilt als gesichert, dass der metallische Wasserstoff sowie die schnelle Rotationsperiode Jupiters eine entscheidende Rolle spielen. Auf der sonnenzugewandten Seite erstreckt sich das Magnetfeld etwa 5 bis 7 Mio. Kilometer weit in das Weltall. Auf der sonnenabgewandten Seite ragt es gut 700 Mio. Kilometer ins Weltall und reicht damit fast bis in die Saturnbahn. Der Grund für diese Asymmetrie ist der Sonnenwind, der eine Stoßfront bildet. Dadurch wird von der Sonne aus gesehen das Magnetfeld vor dem Planeten gestaucht und dahinter gedehnt. Die ständige Wechselwirkung mit dem Sonnenwind führt dazu, dass die genauen Ausmaße des Magnetfeldes stark schwanken können. Besonders stark können etwaige Fluktuationen auf der sonnenzugewandten Seite sein. Bei schwachem Sonnenwind kann das Magnetfeld dort bis zu 16 Mio. Kilometer weit ins All reichen. Die Fluktuationen des Magnetfeldes wurden unter anderem von den beiden Sonden Voyager 1 und 2 untersucht. Den vom Magnetfeld eingenommenen Raum nennt man Magnetosphäre. Die Magnetosphäre Jupiters ist so groß, dass sie (könnte man sie von der Erde aus sehen), die fünffache Fläche des Vollmondes einnehmen würde. Abgesehen von der Magnetosphäre der Sonne, ist sie mit Abstand das größte Objekt im Sonnensystem. Das starke Magnetfeld fängt beständig geladene Teilchen ein, sodass sich Ringe und Scheiben aus geladenen Teilchen um Jupiter bilden. Diese geladenen Teilchen stammen zum einen aus dem Sonnenwind – ein vergleichbarer Effekt findet sich auf der Erde in Form des Van-Allen-Gürtels –, zum anderen – in größerer Menge – von den Monden des Jupiters, besonders Io. So findet man beispielsweise einen Torus aus geladenen Schwefel- und Sauerstoffatomen um die Umlaufbahn von Io herum sowie um die Umlaufbahn von Europa, wobei die Herkunft der geladenen Teilchen des Plasmas dieses Torus noch nicht geklärt ist. Durch Fluktuationen im Magnetfeld entsteht ständig Strahlung, die von Jupiter ausgeht. Diese so genannte Synchrotronstrahlung kann als Jupiter-Bursts auf Kurzwelle (beispielsweise im Rahmen des Projekts Radio JOVE) oder im Dezimeterwellenbereich gemessen werden und führt auch zur Wasserverdampfung auf Europas Oberfläche. Das Magnetfeld lässt sich grob in drei Teile einteilen: Der innere Bereich ist ringförmig und erstreckt sich etwa 10 Jupiterradien weit. Innerhalb dieses Teiles lassen sich unterschiedliche Regionen unterscheiden, die durch verschiedene Elektronen- und Protonenkonzentrationen definiert sind. Der mittlere Teil des Magnetfeldes erstreckt sich von 10 bis etwa 40 Jupiterradien. Dieser Teil ist scheibenförmig abgeplattet. Die äußere Region des Magnetfeldes ist vor allem durch die Wechselwirkung des Magnetfeldes mit dem Sonnenwind geprägt, und ihre Form damit abhängig von dessen Stärke. Ringsystem. Jupiter hat ein sehr schwach ausgeprägtes Ringsystem, das schon seit der Pioneer-11-Mission 1974 vermutet wurde und 1979 von Voyager 1 erstmals fotografiert werden konnte. Als die Sonde am 5. März 1979 in den Jupiterschatten eintauchte, waren die Ringe im Gegenlicht zu erkennen. Lange Zeit blieb die Herkunft der Ringe unbekannt, und eine erdgebundene Beobachtung erwies sich als außerordentlich schwierig, da die Ringe aus Staubkörnchen bestehen, die zum Großteil nicht größer sind als die Partikel des Rauches einer Zigarette. Hinzu kommt, dass die Staubteilchen nahezu schwarz und daher kaum sichtbar sind: Sie haben eine Albedo von lediglich 5 %, verschlucken also 95 % des auftreffenden, dort ohnehin schon schwachen Sonnenlichts. Ein weiterer Grund für die geringen Ausmaße der Ringe ist die Tatsache, dass sich die Ringe langsam spiralförmig auf Jupiter zu bewegen und in ferner Zukunft schließlich von ihm aufgesaugt werden. Die spiralförmige Rotation hat unterschiedliche Ursachen. Zum einen bewirkt das starke Magnetfeld Jupiters ein elektrisches Aufladen der Staubteilchen. Diese stoßen mit anderen geladenen Teilchen zusammen, die Jupiter zum Beispiel aus dem Sonnenwind einfängt, was schließlich zu einer Abbremsung der Teilchen führt. Ein zweiter Effekt, der ebenfalls eine Abbremsung der Staubpartikel bewirkt, ist die Absorption und anschließende Remission von Licht. Dabei verlieren die Staubpartikel Bahndrehimpuls. Diesen Effekt nennt man Poynting-Robertson-Effekt. Beide Effekte zusammen bewirken, dass der Staub innerhalb eines Zeitraumes von etwa 100.000 Jahren aus den Ringen verschwindet. Der Ursprung der Ringe konnte erst durch die Galileo-Mission geklärt werden. Der feine Staub stammt wahrscheinlich von den kleinen felsigen Monden Jupiters. Die Monde werden ständig von kleinen Meteoriten bombardiert. Durch die geringe Schwerkraft der Monde wird ein Großteil des Auswurfs in die Jupiterumlaufbahn geschleudert und füllt damit die Ringe ständig wieder auf. Der Hauptring "(Main Ring)" zum Beispiel besteht aus dem Staub der Monde Adrastea und Metis. Zwei weitere schwächere Ringe (Gossamer-Ringe) schließen sich nach außen hin an. Das Material für diese Ringe stammt hauptsächlich von Thebe und Amalthea. Außerdem konnte noch ein extrem dünner Ring in einer äußeren Umlaufbahn entdeckt werden, der einen Durchmesser von über 640.000 km hat und dessen Teilchen sich bis zu 20° außerhalb der Äquatorebene des Jupiters bewegen. Dieser Ring umkreist Jupiter in gegenläufiger Richtung. Der Ursprung dieses Ringes ist noch nicht geklärt. Es wird jedoch vermutet, dass er sich aus interplanetarem Staub zusammensetzt. Innerhalb des Hauptringes befindet sich ein Halo aus Staubkörnern, der sich in einem Gebiet von 92.000 bis 122.500 km, gemessen vom Zentrum Jupiters, erstreckt. Der Hauptring reicht von oberhalb der Halogrenze ab 130.000 km bis etwa an die Umlaufbahn von Adrastea heran. Oberhalb der Umlaufbahn von Metis nimmt die Stärke des Hauptrings merklich ab. Die Dicke des Hauptrings ist geringer als 30 km. Der von Amalthea gespeiste innere Gossamer-Ring reicht von der äußeren Grenze des Hauptrings bis zu Amaltheas Umlaufbahn bei etwa 181.000 km vom Jupiterzentrum. Der äußere Gossamer-Ring reicht von 181.000 km bis etwa 221.000 km und liegt damit zwischen den Umlaufbahnen von Amalthea und Thebe. Monde. Die Galileischen Monde Io, Europa, Ganymed und Kallisto mit Durchmessern zwischen 3122 und 5262 km (Erddurchmesser 12.740 km) wurden 1610 unabhängig voneinander durch Galileo Galilei und Simon Marius entdeckt. Alle anderen Monde, mit Ausnahme der 1892 entdeckten Amalthea, wurden erst im 20. oder 21. Jahrhundert gefunden. Die Galileischen Monde sind die größten Jupitermonde und haben planetennahe, nur wenig geneigte Bahnen. Die erste mathematische Berechnung der Bahnen der Jupitermonde wurde 1945 von Pedro Elias Zadunaisky in seiner Dissertationsschrift bei Beppo Levi durchgeführt. Neben den Galileischen Monden gibt es vier weitere Monde auf planetennahen und nur wenig geneigten Bahnen: Metis, Adrastea, Amalthea und Thebe. Diese sind aber mit Durchmessern von 20 bis 131 km wesentlich kleiner als die Galileischen Monde. Man vermutet, dass diese acht inneren Monde gleichzeitig mit dem Jupiter entstanden sind. Die restlichen Monde sind kleine bis kleinste Objekte mit Radien zwischen 1 und 85 km und wurden vermutlich von Jupiter eingefangen. Sie tragen teilweise noch Zahlencodes als vorläufige Namen, bis sie von der Internationalen Astronomischen Union (IAU) endgültig benannt sind. Vermutlich während der 1960er-Jahre geriet der Komet Shoemaker-Levy 9 unter die Gravitationskräfte des Planeten und wurde in eine stark elliptische Umlaufbahn (Exzentrizität > 0,99, Apojovium bis zu 0,33 AE) gezwungen. Im Juli 1992 passierte der Quasisatellit Jupiter innerhalb der Roche-Grenze und zerbrach in 21 Fragmente, die zwei Jahre später auf den Planeten stürzten. Beobachtung. Jupiter ist nachts von der Erde aus mit bloßem Auge zu erkennen. An seiner maximalen Helligkeit gemessen ist Jupiter – nach Sonne, Mond und Venus – das vierthellste Objekt am Himmel, das bei entsprechender Planetenkonstellation sogar heller leuchten kann als die Venus. Daher war er bereits in der Antike bekannt. Eine der ersten Personen, die Jupiter mit einem Fernrohr beobachteten, war 1610 Galileo Galilei. Dabei entdeckte er die vier größten Jupitermonde Ganymed, Kallisto, Io und Europa. Diese vier Monde werden daher heute noch als Galileische Monde bezeichnet. Erforschung mit Raumsonden. Jupiter wurde bereits von mehreren Raumsonden besucht, wobei einige Missionen den Planeten als eine Art Sprungbrett nutzten, um mit Hilfe eines Swing-by-Manövers am Jupiter zu ihren eigentlichen Zielen zu gelangen. Pioneer 10 und 11. Jupiter, aufgenommen von einer der Pioneer-Sonden Pioneer 10 war die erste Raumsonde, die am 3. Dezember 1973 in einer Entfernung von etwa 130.000 km am Jupiter vorbeiflog. Exakt ein Jahr später, am 3. Dezember 1974, folgte Pioneer 11, die bis auf etwa 43.000 km an die Wolkenobergrenze des Planeten herankam. Die beiden Pioneer-Raumsonden lieferten wichtige Daten über die Magnetosphäre des Jupiters und fertigten die ersten, noch relativ niedrig aufgelösten Nahaufnahmen des Planeten an. Voyager 1 und 2. Voyager 1 flog im März 1979 durch das Jupiter-System, gefolgt von Voyager 2 im Juli 1979. Die Voyager-Raumsonden lieferten neue Erkenntnisse über die Galileischen Monde, konnten erstmals vulkanische Aktivitäten auf Io nachweisen und entdeckten die Ringe des Jupiters. Auch fertigten sie die ersten Nahaufnahmen der Planetenatmosphäre an. Ulysses. Im Februar 1992 flog die Sonnensonde Ulysses in einer Entfernung von etwa 450.000 km (6,3 Jupiterradien) am Jupiter vorbei. Dabei wurde die Sonde aus der Ekliptikebene geschleudert und trat in eine polare Sonnenumlaufbahn ein. Ulysses untersuchte die Magnetosphäre des Jupiters, konnte jedoch keine Bilder des Planeten liefern, da keine Kamera an Bord war. Galileo. Galileo wird für den Start vorbereitet Die einzige Raumsonde, die bisher Jupiter umkreiste, war die NASA-Sonde Galileo, die am 7. Dezember 1995 nach etwas mehr als sechs Jahren Flugzeit in einen Orbit um den Planeten einschwenkte. Bereits auf dem Weg zum Jupiter konnte Galileo 1994 beobachten, wie der Komet Shoemaker-Levy 9 auf dem von der Sonde noch 238 Mio. Kilometer entfernten Jupiter einschlug und Explosionen von der Größe der Erde in der Atmosphäre des Planeten auslöste. Trotz der Distanz konnte Galileo Bilder von den direkten Einschlägen aufnehmen, die auf der erdabgewandten Seite stattfanden. Galileo umkreiste Jupiter über sieben Jahre lang und führte mehrfach Vorbeiflüge an den Galileischen Monden aus. Unter anderem beobachtete Galileo Vulkanausbrüche auf Io, lieferte Hinweise auf einen verborgenen Ozean auf Europa und untersuchte die Wolkenbewegungen in Jupiters Atmosphäre. Allerdings konnte aufgrund des Ausfalls der primären Antenne der Raumsonde nur ein Bruchteil der ursprünglich geplanten Menge wissenschaftlicher Daten zur Erde übertragen werden. Künstlerische Darstellung des Eintritts der Atmosphärenkapsel Neben dem Orbiter umfasste die Mission von Galileo auch das Aussetzen einer Eintrittskapsel, die in Jupiters Atmosphäre eindringen und verschiedene Daten über Temperatur, Druck, Windgeschwindigkeit und chemische Zusammensetzung liefern sollte. In 82 Mio. Kilometern Entfernung zum Jupiter trennte sich im Juli 1995 die Kapsel von der Muttersonde. Am 7. Dezember 1995 tauchte die Kapsel mit einer Geschwindigkeit von 170.000 km/h in einem Winkel von ca. 9° in die Atmosphäre des Jupiters ein, wurde mit Hilfe eines Hitzeschildes abgebremst und entfaltete einige Minuten später einen Fallschirm. Anschließend lieferte die Kapsel 57,6 Minuten lang Daten, während sie sich am Fallschirm hängend etwa 160 km tief in die Atmosphäre fortbewegte, bevor sie vom Außendruck zerstört wurde. In den letzten Sekunden registrierte die Sonde einen Druck von 22 bar und eine Temperatur von +152 °C. Die primäre Mission bei Jupiter war ursprünglich nur für 23 Monate bis Dezember 1997 geplant, wurde aber dann insgesamt dreimal verlängert, da Geräte und Antrieb noch funktionsfähig waren und gute Ergebnisse erwarten ließen. Am 21. September 2003 wurde Galileo schließlich in die Jupiteratmosphäre gelenkt, da die Sonde wegen Treibstoffmangels und Ausfällen der Elektronik, bedingt durch die von der Sonde während der letzten Jahre erhaltene hohe Strahlungsdosis, später nicht mehr lenkbar gewesen wäre. Es bestand die Gefahr, dass Galileo auf den Jupitermond Europa stürzen und ihn mit terrestrischen Bakterien verunreinigen könnte. Dies hätte künftige Missionen zur Erforschung von Lebensspuren auf den Jupitermonden erschwert. Cassini. Projektion der Südhalbkugel des Jupiters mit Hilfe von Cassini Die Raumsonde Cassini-Huygens, die sich auf dem Weg zum Saturn befand, passierte Ende 2000/Anfang 2001 das Jupiter-System und machte dabei zahlreiche Messungen und Aufnahmen. Zeitgleich operierte Galileo im Jupiter-System, sodass es zum ersten Mal möglich war, den Planeten und seine Magnetosphäre gleichzeitig mit zwei Raumsonden zu untersuchen. Cassini flog am 30. Dezember 2000 in einer Entfernung von etwa 10 Mio. Kilometern am Jupiter vorbei und lieferte unter anderem einige der höchstaufgelösten Globalaufnahmen des Planeten. Aktuelle und künftige Missionen. Die am 19. Januar 2006 gestartete Raumsonde New Horizons, die zum Pluto unterwegs ist, sammelte bei ihrem Vorbeiflug am Jupiter im Februar und März 2007 Daten über den Riesenplaneten. Die Raumsonde sollte Wolkenbewegungen auf Jupiter beobachten, die Magnetosphäre des Planeten untersuchen sowie nach Polarlichtern und Blitzen in Jupiters Atmosphäre Ausschau halten. Über die vier großen Galileischen Monde konnten allerdings nur wenige wissenschaftliche Daten gewonnen werden, da die Sonde diese in großer Entfernung passierte. New Horizons erreichte die größte Annäherung an Jupiter am 28. Februar 2007 bei etwa 32 Jupiterradien Entfernung. Dies ist ungefähr ein Drittel des Abstands, in dem Cassini-Huygens den Jupiter passierte. Computersimulation der Raumsonde "Juno" vor dem Jupiter Am 5. August 2011 startete die NASA-Sonde Juno zum Jupiter. Sie soll etwa fünf Jahre nach dem Start in einen polaren Orbit um Jupiter einschwenken, der sie bis 5000 Kilometer an die Wolkenobergrenze führt, bei einer Umlaufzeit von elf Tagen pro Orbit. Die Primärmission der Sonde soll etwa ein Jahr lang dauern und 33 solcher Orbits beinhalten. Juno soll der Erforschung des Magnetfelds sowie der Atmosphäre dienen, die Galileischen Monde wird die Sonde höchstens aus einer größeren Entfernung beobachten können. Eine Besonderheit der Sonde ist ihre Energieversorgung: Als erste Mission zu einem der äußeren Planeten wird sie vollständig durch Solarenergie betrieben werden. Nach der Entdeckung eines Wasserozeans auf dem Mond Europa stieg das Interesse der Planetenforscher am detaillierten Studium der Eismonde des Jupiters. Für diesen Zweck wurde bei der NASA die Mission Jupiter Icy Moons Orbiter (JIMO) entworfen. Geplant war eine 2017 startende große Raumsonde, die einen Atomreaktor als Energiequelle für ihre Ionentriebwerke und Instrumente nutzen sollte. JIMO sollte die drei großen Eismonde des Jupiters – Kallisto, Ganymed und Europa – nacheinander umkreisen und mit Hilfe eines starken Radars und vieler anderer Instrumente untersuchen. Im Jahr 2005 wurde die Finanzierung von JIMO aufgrund seiner Komplexität und vieler technischer Schwierigkeiten gestoppt. Für das Jahr 2020 haben NASA und ESA die gemeinsame Europa Jupiter System Mission/Laplace vorgeschlagen, welche mindestens zwei Orbiter vorsieht, die jeweils in einen Orbit um Europa und Ganymed eintreten sollen und das gesamte Jupitersystem mit einem revolutionären Tiefgang erforschen sollen. Nachdem die Verwirklichung des Projekts durch Budgetkürzungen bei der NASA infrage gestellt wurde, entschied sich die ESA zur Durchführung einer selbstständig durchgeführten Mission. Der JUpiter ICy moon Explorer soll im Juni 2022 mit einer Ariane-5-ECA-Rakete starten, den Jupiter im Januar 2030 erreichen, in eine Jupiterumlaufbahn und nach zwei Jahren und mehreren Vorbeiflügen an Europa und Kallisto 2032 in eine Umlaufbahn um Ganymed eintreten. Kulturgeschichte. Durch seine große Helligkeit war der Planet Jupiter schon im Altertum in der ersten Hälfte des dritten Jahrtausends v. Chr. im Alten Ägypten unter "Hor-wepesch-taui" bekannt; in Mesopotamien als "Sag-me-gar"; von den Babyloniern später als "mulbab-bar" („Weißer Stern“) mit dem Gott Marduk identifiziert. Jupiters Name, lateinisch "Iū(p)piter", rührt von der urindogermanischen Anrufeform (Vokativ) "*d(i)i̯éu̯ ph₂tér" (sprich: 'djé-u-pechtér') „Himmel, Oberster!“ her, die die eigentliche lateinische Grundform (Nominativ) "Diēspiter" (aus "*d(i)i̯ḗu̯s ph₂tḗr") verdrängt hat. Die Übersetzung „Gottvater“ ist anachronistisch. Der Ausdruck der Jovialität ist nicht lateinischen Ursprungs, sondern entspringt italienisch "gioviale" „unter dem Einfluss von Jupiter“ (im astrologischen Sinne, das heißt glücklich und frei) unter Mitwirkung von "gioia" „Freude, Vergnügen“ und gelangte wohl über das Französische (jovial) ins Deutsche. In der Astrologie steht Jupiter unter anderem für Expansion, Glück, Religion und Philosophie. Jupiter wird dem Element Feuer, dem Tierkreiszeichen Schütze (vor der Entdeckung Neptuns auch Fische) und dem 9. Haus zugeordnet. Johann Gottfried Galle. Johann Gottfried Galle (* 9. Juni 1812 in Radis; † 10. Juli 1910 in Potsdam) war ein deutscher Astronom und Hochschullehrer. Er war an der Entdeckung des Planeten "Neptun" beteiligt. Leben. Galle kam im Pabsthaus unweit der Gemeinde Radis (Pabst ist ein dortiges Waldstück) in der Nähe von Gräfenhainichen als erster Sohn des gleichnamigen Teerofenpächters "Johann Gottfried Galle" (1790–1853) und seiner Ehefrau "Maria Henriette geb. Pannier" (1790–1839) zur Welt. Er besuchte das Gymnasium in Wittenberg und studierte von 1830 bis 1833 an der Friedrich-Wilhelms-Universität Berlin. Anschließend übernahm er am Gymnasium von Guben eine Stelle im höheren Lehramt als Oberlehrer für Mathematik und Physik. Später wechselte er an das Friedrichswerdersche Gymnasium in Berlin. 1835 berief ihn sein ehemaliger Lehrer, der Astronomieprofessor Johann Franz Encke, als Gehilfen an die am Stadtrand neu errichtete Berliner Sternwarte. Dort arbeitete Galle die nächsten 16 Jahre, wobei er insbesondere einen Fraunhofer-Refraktor mit 9 Zoll (22,5 cm) Öffnung benutzte. 1838 entdeckte er einen inneren, dunklen Ring des Saturn. Von 1839 bis 1840 entdeckte er drei neue Kometen. 1845 wurde Galle zum Dr. phil. promoviert. In der Doktorarbeit hatte er sich mit den Aufzeichnungen des Dänen Ole Rømer zu Sternpositionen befasst. Am Morgen des 23. September 1846 erhielt er einen Brief des Franzosen Urbain Le Verrier, der die Bahnstörungen des Planeten Uranus untersucht hatte. Le Verrier leitete daraus die Position eines noch unentdeckten Planeten ab und bat Galle, den entsprechenden Himmelsabschnitt abzusuchen. In derselben Nacht entdeckte Galle unter Mitwirkung seines Assistenten Heinrich Louis d’Arrest, nur 1° von der errechneten Position entfernt, einen Stern 8. Größe, der in der "Berliner Akademischen Sternkarte" nicht verzeichnet war. In der darauf folgenden Nacht konnte eine Eigenbewegung des Himmelskörpers von 4 Bogensekunden gemessen werden, womit die Planeteneigenschaft einwandfrei feststand. Galle lehnte es allerdings stets ab, als Entdecker des später "Neptun" genannten Planeten zu gelten; er sprach die Entdeckung Le Verrier zu. 1847 wurde Galle von Encke zum Nachfolger Friedrich Wilhelm Bessels als Direktor der Sternwarte Königsberg ausersehen. Bevor die von Friedrich Wilhelm IV. bereits verfügte Ernennung wirksam werden konnte, trat Galle Anfang 1848 nach einer von Carl Gustav Jacob Jacobi gegen ihn geführten Intrige von der Bewerbung zurück. Jacobi protegierte den langjährigen Assistenten von Bessel August Ludwig Busch, der dort dann auch dessen Nachfolger wurde. 1851 ging Galle nach Breslau, wo er zunächst die Leitung der dortigen Sternwarte und ab 1856 eine Professur für Astronomie an der Schlesischen Friedrich-Wilhelms-Universität Breslau übernahm. Dort war er über 45 Jahre lang tätig. Für das akademische Jahr 1875/76 wurde er zum Rektor gewählt. In dieser Zeit setzte er sich mit der genauen Bahnbestimmung von Planeten auseinander und entwickelte Methoden zur Bestimmung der Höhe des Polarlichtes sowie der Bahn von Meteoren und fasste die Daten aller bis 1894 beobachteten Kometen in einem Werk zusammen. Darüber hinaus befasste er sich mit dem Magnetismus der Erde und der Klimatologie. Insgesamt veröffentlichte er über 200 Werke. 1897 zog Galle nach Potsdam, wo er im Alter von 98 Jahren starb. Er hinterließ seine Frau und die beiden Söhne Andreas Galle und "Georg Galle" (1860–1946). Beerdigt wurde Galle auf dem evangelischen "Maria-Magdalenen-Friedhof" an der Steinstraße (poln.: "ul. Kamienna") in Breslau, der 1967 aufgelassen wurde. Ehrungen. Für die Entdeckung des Neptun erhielt er vom preußischen König den Roten Adlerorden und vom König von Frankreich die Ernennung zum Ritter der Ehrenlegion. Er war Mitglied der Königlich Bayerischen Akademie der Wissenschaften und der britischen Royal Astronomical Society. Die Naturforschende Gesellschaft zu Emden nahm Galle im Jahr 1859 als korrespondierendes Ehrenmitglied in ihrer Gesellschaft auf. Die Stadt Gräfenhainichen errichtete ihm 1977 ein Denkmal. Nach ihm benannt sind Galle (Mondkrater), Galle (Marskrater), ein Planetenring des Neptun sowie der Asteroid (2097) Galle. Jan Hendrik Oort. Jan Oort im Jahr 1961 Gedenktafel an Oorts Geburtshaus in Franeker Jan Hendrik Oort (* 28. April 1900 in Franeker; † 5. November 1992 in Leiden) war ein niederländischer Astronom. Leben. Oort studierte an der Universität Groningen. Dort war er Schüler von Jacobus C. Kapteyn. Seit 1924 arbeitete er am Observatorium Leiden. Von 1945 bis 1970 war er Professor an der Universität Leiden. Zur gleichen Zeit war er auch Direktor der Sternwarte Leiden. Im Jahre 1927 bestätigten Oort und seine Kollegen mit den Oortschen Rotationsformeln die Hypothese von Bertil Lindblad über die Rotation unserer Galaxis (Milchstraße), die zuerst Immanuel Kant 1755 vorgeschlagen hatte. Oort lokalisierte das Milchstraßenzentrum 30.000 Lichtjahre von der Erde entfernt im Sternbild "Sagittarius" (Schütze). Er zeigte, dass die Milchstraße eine Masse von 100 Milliarden Sonnenmassen hat. In den 1950er-Jahren postulierte Oort einen als Oortsche Wolke bekannt gewordenen Bereich am Rande des Sonnensystems, aus dem die Kometen stammen. Oorts Theorien dazu sind nie bestätigt worden, werden aber allgemein anerkannt. Oort zeigte die Polarisierung der Strahlung vom Krebsnebel und erkannte sie als Synchrotronstrahlung. Von 1958 bis 1961 war Oort Präsident der Internationalen Astronomischen Union. Mitgliedschaften. 1946 wurde Oort in die American Academy of Arts and Sciences gewählt. Im Jahr 1973 wurde Oort zum Mitglied der Leopoldina gewählt. Jacques Chirac. Jacques René Chirac (* 29. November 1932 in Paris) ist ein französischer Politiker. Vom 17. Mai 1995 bis 16. Mai 2007 war er Staatspräsident Frankreichs; dann übernahm sein ehemaliger Innenminister Nicolas Sarkozy sein Amt. Jacques Chirac gehört der konservativen, von ihm unter dem Namen Rassemblement pour la République (RPR) gegründeten, gaullistischen Partei Union pour un mouvement populaire (UMP) an. Im Jahr 2011 wurde er wegen Veruntreuung öffentlicher Mittel und illegaler Parteienfinanzierung zu zwei Jahren Haft auf Bewährung verurteilt. Leben. Jacques René Chirac wurde 1932 in Paris geboren. Sein Vater Abel François Chirac (1893–1968) schaffte es vom Buchhalter zum Vermögensberater und Vertrauten der einflussreichen Industriellenfamilie Dassault. Seine Mutter Marie-Louise Valette (1902–1973) war Hausfrau. Die Eltern stammten aus Sainte-Féréole im zentralfranzösischen, ländlichen Département Corrèze (Limousin). Chirac ist seit 1956 mit Bernadette Chirac, geborene Chodron de Courcel, verheiratet und hat mit ihr zwei Töchter, Laurence und Claude Chirac. Zusammen mit seiner Frau hat er die Vietnamesin Anh Dao Traxel (* 1958) bei ihrer Ankunft in Frankreich (sie war Bootsflüchtling) 1979 ohne gerichtlichen Adoptionsbeschluss als Tochter behandelt. Anh Dao Traxel veröffentlichte im Jahr 2006 eine Autobiografie, in der sie Chirac sehr positiv schildert. Ausbildung. Chirac besuchte das Lycée Carnot und das Lycée Louis-le-Grand in Paris, wo er 1950 sein Baccalauréat machte. Dann studierte er bis 1953 Politikwissenschaften an der Hochschule Institut d’études politiques de Paris (IEP). 1959 absolvierte er die Ausbildung für Beamte an der "École nationale d’administration (ENA)". Militärdienst. Seinen 18-monatigen Wehrdienst leistete er von 1956 bis 1957 u.a. auf der geschichtsträchtigen Kavallerieschule in Saumur ab. Er meldete sich auch zum freiwilligen Einsatz im Algerienkrieg, wo er als Leutnant an der marokkanischen Grenze eingesetzt war. Der Weg in die Politik. In den 1960er Jahren war Chirac Mitarbeiter von Staatspräsident (Juni 1969 bis April 1974) Georges Pompidou. Valéry Giscard d’Estaing wurde nach Pompidous plötzlichem Tod Staatspräsident und berief Chirac zum Premierminister. Dies war er bis zum 26. August 1976; dann berief Giscard Raymond Barre zu Chiracs Nachfolger. Von 1977 bis 1995 war Chirac Bürgermeister von Paris. Aus dieser Zeit stammen schwerwiegende Korruptionsvorwürfe gegen ihn, die aber wegen seiner Immunität als Staatspräsident damals noch nicht aufgeklärt werden konnten. In den Jahren 1979 und 1980 war Chirac kurzzeitig Mitglied des Europäischen Parlaments. Während der Cohabitation war er von 1986 bis 1988 in Personalunion mit seinem Bürgermeisteramt erneut Premierminister; Staatspräsident war damals der Sozialist François Mitterrand. Präsident im dritten Anlauf. 1981 und 1988 versuchte Chirac sich erfolglos als Präsidentschaftskandidat, ehe er sich bei der Präsidentschaftswahl 1995 (April / Mai 1995) gegen seine beiden Hauptkonkurrenten Lionel Jospin und Édouard Balladur durchsetzen konnte. Kurz nach seinem Amtsantritt sorgte seine Entscheidung, die umstrittenen französischen Atomtests auf Mururoa nach einem dreijährigen, unter seinem Vorgänger Mitterrand verwirklichten Moratorium wieder aufzunehmen, für heftige internationale Proteste. Am 16. Juli 1995 erkannte Chirac in einer Rede, die er aus Anlass des Jahrestages der Razzia vom Vélodrome d’Hiver hielt, erstmals für den von ihm repräsentierten Staat an, dass Frankreich sich zur Zeit der Occupation an der Deportation und Vernichtung der im Lande lebenden Juden aktiv beteiligt hatte (Näheres hier) und mit in dieser moralischen und politischen Verantwortung steht. Als Staatspräsident sprach Chirac offiziell von „gemeinsamer“ und „unauslöschlicher Schuld“ seines Landes: "Diese Stunden der Finsternis besudeln für immer unsere Geschichte. Sie sind eine Schande für unsere Vergangenheit und für unsere Überlieferungen. Der kriminelle Wahn der Besatzer wurde von Franzosen unterstützt, vom französischen Staat." Als Konsequenz erkannten die Gerichte Forderungen auf Schadensersatz an den Staat an, zum Beispiel in den Prozessen gegen die Staatsbahn SNCF wegen Deportationen. a> mit Jacques Chirac am 21. Juli 2001 1997 löste Chirac das Parlament auf, da er sich während umstrittener wirtschaftlicher Reformen eine stabile konservative Mehrheit bei den dann fälligen Neuwahlen zu verschaffen hoffte. Sein Plan schlug jedoch fehl, da der Sozialist Lionel Jospin Premierminister wurde und Chirac die nächsten fünf Jahre erneut in einer Cohabitation verbringen musste, diesmal als Präsident. Wiederwahl zum Staatspräsidenten im Jahr 2002. Der erste Wahlgang der Staatspräsidentenwahl am 21. April 2002, mit den beiden Favoriten, Amtsinhaber Chirac und Ministerpräsident Jospin, mündete in ein politisches Erdbeben: Jean-Marie Le Pen, Kandidat der rechtsextremen Front National (FN) erreichte mit 16,86 Prozent der Stimmen den zweiten Platz nach Chirac, der mit 19,88 Prozent der Stimmen das schlechteste Ergebnis eines zur Wiederwahl angetretenen Staatspräsidenten hinnehmen musste. Lionel Jospin erhielt nur 16,18 Prozent der Stimmen und war damit als Drittplatzierter 'aus dem Rennen'. Jospin war Opfer der zersplitterten Linken geworden, deren Stimmen sich auf mehrere Kandidaten verteilt hatten. Noch am Wahlabend erklärte Jospin seinen Rücktritt von allen politischen Ämtern. Als Reaktion auf sein schlechtes Abschneiden rief Chirac nach dieser ersten Wahlrunde zusammen mit dem früheren Ministerpräsidenten Alain Juppé das rechtsbürgerliche Wahlbündnis Union pour la Majorité Présidentielle (UMP; später in Union pour un mouvement populaire umbenannt) ins Leben (wohl mit dem Ziel, so seinen Konkurrenten für den zweiten Wahlgang der Staatspräsidentenwahl – Jean-Marie Le Pen – schlagen zu können). Dank UMP und der Unterstützung fast aller linken und bürgerlichen Kräfte, die die Wahl zu einem „Anti-Le-Pen-Referendum“ werden ließen, wurde Chirac – mit 82,21 Prozent der abgegebenen Stimmen – gewählt. Es war das beste Ergebnis, das jemals ein Präsidentschaftskandidat in Frankreich erreichte. Sein Gegenkandidat Le Pen erhielt 17,79 Prozent der Stimmen. Zweite Amtszeit und Ende der Ära Chirac 2007. Nach seiner Wiederwahl, dem Rückzug Jospins aus der Politik und dem Wahlsieg der UMP bei der Parlamentswahl 2002 konnte sich Chirac für seine zweite Amtszeit wieder auf eine rechte Mehrheit in der Nationalversammlung stützen. Premierminister wurde Jean-Pierre Raffarin. Chirac sprach sich vehement gegen die Pläne der USA für den Krieg gegen den Irak aus, Frankreich legte im Sicherheitsrat der Vereinten Nationen ein Veto gegen die geplanten Resolutionen für den Krieg ein. Das Verhältnis zu den USA und auch zu Großbritannien verschlechterte sich dadurch massiv. Chirac führte außerdem ein Referendum über den Europäischen Verfassungsvertrag herbei. Im Wahlkampf um das Referendum wurde auch die Frage des Beitritts der Türkei zur Europäischen Union thematisiert (den Chirac befürwortete), außerdem gab es eine Debatte um die wirtschafts- und sozialpolitische Ausrichtung der EU. Zusätzlich überlagert von einer Debatte um innenpolitische Reformen der Regierung Raffarin vor allem in der Sozialpolitik, wurde der Verfassungsvertrag schließlich am 29. Mai 2005 mit knapp 55 Prozent der Stimmen abgelehnt. Diese Ablehnung wurde auch als persönliche Niederlage des Präsidenten interpretiert, der sich im Wahlkampf stark engagiert hatte. Raffarin übernahm die politische Verantwortung für die Niederlage und trat als Premierminister zurück. Chirac ernannte seinen Vertrauten Dominique de Villepin zum neuen Premierminister (→ Kabinett de Villepin). Damit überging er den Vorsitzenden der UMP, Nicolas Sarkozy, der Staatsminister und erneut Innenminister wurde. Das Verhältnis zwischen Chirac und Sarkozy galt als zerrüttet: zum einen, weil Sarkozy 1995 enger Mitarbeiter von Chiracs Konkurrenten Édouard Balladur war; zum anderen, weil Sarkozy sehr offen auf eine eigene Präsidentschaftskandidatur 2007 hinarbeitete. Die immer schärfer ausgetragene Rivalität zwischen de Villepin und Sarkozy um die Nachfolge Chiracs prägte dessen verbleibende Amtszeit, unter anderem mit der Clearstream-Affäre. Nachdem der von Chirac favorisierte de Villepin nach der Clearstream-Affäre nicht mehr als Präsidentschaftskandidat zur Verfügung stand, hielt sich Chirac eine eigene erneute Kandidatur lange offen, auch noch nach der Nominierung Sarkozys zum Präsidentschaftskandidaten der UMP. Erst am Abend des 11. März 2007 erklärte Chirac in einer Fernsehansprache offiziell, dass er an den diesjährigen Präsidentschaftswahlen nicht teilnehmen werde. Für seine Nachfolge an der Spitze Frankreichs machte er keine Wahlempfehlung. Am 6. Mai 2007 wurde Sarkozy zum neuen Staatspräsidenten gewählt. Am 16. Mai übergab Chirac das Amt des Staatspräsidenten an ihn. Nach der Amtszeit als Staatspräsident. Chirac wohnt seit seinem Ausscheiden aus dem Amt des Staatspräsidenten in Paris am Quai Voltaire (7. Arrondissement) und in seinem Schloss in der französischen Provinz. Er ist als ehemaliger Staatspräsident Mitglied des "Conseil constitutionnel". Mit dem Ausscheiden als Staatspräsident endete auch die Immunität Chiracs, womit die juristische Verfolgung einiger Affären, die teils noch auf die Tätigkeit Chiracs als Pariser Bürgermeister zurückgehen, möglich wurde (siehe unten). Im Juni 2011 erklärte Chirac öffentlich, er würde bei der Präsidentschaftswahl 2012 den Sozialisten François Hollande wählen, „weil Alain Juppé nicht kandidieren wird.“ Diese Äußerung wurde teilweise als scherzhafte Bemerkung gegenüber dem wie Chirac aus dem Département Corrèze stammenden Hollande aufgefasst; Chirac soll sie aber nichtöffentlich kurz vor der Wahl 2012 nochmals wiederholt haben. Affäre Clearstream II. Die Affäre Clearstream II, eine Untersuchung zu angeblichen geheimen Konten der luxemburgischen Clearinggesellschaft Clearstream beim Verkauf französischer Fregatten an Taiwan in den frühen 1990er Jahren, zog weite Kreise in der französischen Politik und Wirtschaft, nachdem im Jahr 2004 einem französischen Untersuchungsrichter anonym eine CD-ROM mit 16000 Konten zugespielt wurde. Chirac, dessen Immunität im Juni 2007 endete, wurde von den mit den Ermittlungen befassten Richtern als Zeuge in Erwägung gezogen, wogegen sich sein Anwalt Jean Veil verwahrte. Verurteilung wegen Veruntreuung und Vertrauensbruch. Ende Oktober 2009 entschied ein Pariser Untersuchungsgericht, ein Strafverfahren wegen "„Veruntreuung öffentlicher Gelder“" und "„Vertrauensmissbrauch“" gegen Chirac einzuleiten. Ihm wurde vorgeworfen, in seinen Amtszeiten als Bürgermeister von Paris (1977–1995) und als Vorsitzender der Rassemblement pour la République (1976–1994) ein System "„verschränkter Kostenübernahme“" geduldet und Parteifunktionäre und Nahestehende mit Gefälligkeitsjobs versorgt zu haben. In mehreren Fällen sahen es die Ermittler als erwiesen an, dass Scheinarbeitsverträge geschlossen wurden. Der Stadt Paris sei so ein Schaden von fünf Millionen Euro entstanden. Am 7. März 2011 wurde der Prozess gegen ihn eröffnet; wenige Stunden später wegen einer Verfahrensfrage vertagt. Die Stadt Paris, die durch die mutmaßlichen Scheinarbeitsverträge Geschädigte, hatte darauf verzichtet, als Nebenklägerin aufzutreten. Zuvor hatten Chirac und die Partei UMP der Stadtkasse mehr als zwei Millionen Euro erstattet. Wegen Chiracs Gesundheitszustand fand die Verhandlung am 5. September 2011 ohne ihn statt. Obwohl die Staatsanwaltschaft einen Freispruch gefordert hatte, wurde Chirac am 15. Dezember 2011 wegen Veruntreuung öffentlicher Mittel und illegaler Parteienfinanzierung zu zwei Jahren Haft auf Bewährung verurteilt. Chirac widersprach dem Urteil, er werde aber keine Berufung einlegen, da er nicht die nötigen Kräfte besitze, um vor neuen Richtern einen Kampf um die Wahrheit zu führen. Nuklear-Doktrin. Frankreich hatte 1958 offiziell beschlossen, Atommacht zu werden. Mit vier oberirdischen Kernwaffentests 1960 und 1961 hatte es seine Fähigkeit zum Bau von Atombomben belegt. 1966 zog es sich aus der militärischen Struktur der NATO zurück; 2009 wurde es wieder Vollmitglied der NATO. Äußerungen von Jacques Chirac (Staatspräsident 1995–2007) anlässlich eines Truppenbesuchs am 19. Januar 2006 fanden international – insbesondere wegen des sich zuspitzenden Atomstreits mit dem Iran – große Beachtung; viele Beobachter deuteten sie als eine „Kehrtwende“ in der bisherigen Nuklear-Doktrin Frankreichs. Chirac drohte den Terrorismus unterstützenden Staaten mit Atomschlägen, sollten diese Frankreich angreifen. Ohne den Iran direkt anzusprechen, kündigte er auf dem Militärstützpunkt Île Longue „Anführern“ solcher Staaten Vergeltung in „nicht konventioneller“ Weise an. Ausdrücklich spielte Chirac jedoch auf „die Versuchung gewisser Staaten“ an, „sich unter Bruch der Verträge mit Atomwaffen auszustatten“. Weitgehend unbeachtet blieb, dass Chirac in derselben Rede auch den Einsatz von Atomwaffen zur Sicherung „lebenswichtiger Interessen“ einschließlich der „strategischen Versorgung“ Frankreichs ausdrücklich rechtfertigte, d. h. sich atomare Angriffe selbst zur Sicherung der Rohstoffversorgung vorbehielt. Neu daran waren allerdings weder der Vorbehalt noch die Terminologie; neu war die berechnend auf den Termin – und den offenkundigen Adressaten – gesetzte Ausdrucksweise. Chiracs Äußerungen wurden auch in Deutschland teils scharf kritisiert. Unter anderem wurde er des Verstoßes gegen das Völkerrecht bezichtigt. Oppositionsparteien im Deutschen Bundestag forderten Bundeskanzlerin Angela Merkel (Kabinett Merkel I) auf, sich klar von Chirac zu distanzieren. Jiddisch. Jiddisch (oder, wörtlich "jüdisch," kurz für "jiddisch-daitsch, jüdisch-deutsch") ist eine rund tausend Jahre alte Sprache, die von den aschkenasischen Juden in weiten Teilen Europas gesprochen und geschrieben wurde und von einigen ihrer Nachfahren bis heute gesprochen und geschrieben wird. Es ist nach allgemeiner Meinung eine aus dem Mittelhochdeutschen hervorgegangene westgermanische, mit hebräischen, aramäischen, romanischen, slawischen und weiteren Sprachelementen angereicherte Sprache. Sie teilt sich in West- und Ostjiddisch. Letzteres besteht aus den Dialekten Südost-, Mittelost- und Nordostjiddisch; siehe den Artikel Ostjiddische Dialekte. Die jiddische Sprache hat sich im Mittelalter im Zuge der meist durch christliche Verfolgungen bedingten Migrationen der Juden vom deutschsprachigen Gebiet aus in Europa verbreitet, besonders ostwärts nach Osteuropa, wo das Ostjiddisch entstand. Mit den Auswanderungswellen von Millionen osteuropäischer Juden im späten 19. und frühen 20. Jahrhundert breitete sie sich dann westwärts aus und gelangte in die neuen jüdischen Zentren in Amerika und Westeuropa, später auch nach Israel. Jiddisch war eine der drei jüdischen Sprachen der aschkenasischen Juden, neben dem weitestgehend der Schriftlichkeit vorbehaltenen Hebräisch und Aramäisch. Es wurde nicht nur als gesprochene, sondern auch als mit hebräischen Schriftzeichen geschriebene und gedruckte Alltagssprache verwendet. Eine ähnliche Rolle wie das Jiddische spielt für die sephardischen Juden die Sprache Judenspanisch, welche u. a. auch als "Ladino" bekannt ist. Während Westjiddisch bereits ab dem 18. Jahrhundert auszusterben begann, blieb Ostjiddisch die Alltagssprache der Mehrheit der Juden in Osteuropa, bis der durch die Nationalsozialisten verübte Holocaust die jüdischen Zentren in Kontinentaleuropa vernichtete. Heute wird Jiddisch als Muttersprache noch von betagten Juden aus Osteuropa, von einer kleinen, aber regen Anzahl sogenannter Jiddischisten und ganz besonders von ultraorthodoxen aschkenasischen Juden gesprochen. Ihre Zahl wird auf über eine Million weltweit geschätzt. Weil das Sprechen, Schreiben und kulturelle Schaffen auf Jiddisch seit dem ausgehenden 18. Jahrhundert fast ausschließlich auf ostjiddischer Grundlage geschieht, versteht man heute unter "Jiddisch" faktisch "Ostjiddisch," solange nicht ausdrücklich von "Westjiddisch" die Rede ist. In diesem Artikel steht folglich das Ostjiddische im Zentrum der Beschreibung. Geschichte. Jiddische Dialekte nach einer anderen Einteilung (französisch), Westjiddisch hier in Nordwest-, Mittelwest- und Südwestjiddisch unterteilt und Übergangsjiddisch schraffiert. Ob die Elbe oder die Oder die Grenze zu den Übergangsvarietäten war, ist ebenso umstritten, wie die Zugehörigkeit des schlesischen Jiddisch. Unterdialekte nicht eingezeichnet. In der mittelhochdeutschen Periode entwickelten sich im deutschen Sprachgebiet spezifisch jüdische Ausprägungen des Deutschen, die von Juden untereinander gesprochen und in der Regel mit einem dafür angepassten hebräischen Alphabet geschrieben wurden. Charakteristisch sind eine Vielzahl von Entlehnungen aus dem meist nachbiblischen Hebräischen und dem Aramäischen sowie in geringem Maße auch einige Entlehnungen aus dem Romanischen (Französisch, Italienisch und Spanisch). Bedingt durch Judenfeindlichkeit und die Judenverfolgungen ab dem 11. Jahrhundert und besonders infolge der Judenverfolgungen zur Zeit des Schwarzen Todes um 1348 kam es zur massenhaften Migration von Juden aus dem deutschen Sprachgebiet nach Osteuropa, besonders ins Königreich Polen und ins Großfürstentum Litauen, und in der Folge zu einer sprachlich getrennten Entwicklung: Das Jiddische im Westen entwickelte sich im Kontakt mit dem Deutschen weiter und glich sich ihm besonders im Zuge der Säkularisierung und Assimilation deutscher Juden seit dem 18. Jahrhundert weitgehend an, während das Jiddische im Osten den mittelalterlichen Stand des jüdischen Deutschen stärker bewahrte und sich hauptsächlich im Kontakt mit slawischen Sprachen durch Entlehnungen und durch Übernahme morphologischer und syntaktischer Elemente aus dem Slawischen weiterentwickelte. Man unterteilt das Jiddische deshalb in "Westjiddisch" und "Ostjiddisch". Bis ins frühe 18. Jahrhundert war es das Westjiddische, das für den jiddischen Buchdruck maßgeblich war. Im späten 18. Jahrhundert hatten jedoch die ostmitteleuropäischen Druckorte die westmitteleuropäischen abgelöst, und infolgedessen sowie wegen der fortgeschrittenen Assimilation der Juden Deutschlands setzte sich das Ostjiddische als neuer Standard der jiddischen Sprache durch. Im 19. Jahrhundert werden auch nicht-religiöse Publikationen immer zahlreicher. Es folgt eine bis zum Zweiten Weltkrieg andauernde Epoche, die oft als goldenes Zeitalter der jiddischen Literatur gewertet wird. Diese Periode trifft mit der Wiederbelebung des Hebräischen als gesprochene Sprache und der Wiedergeburt der hebräischen Literatur zusammen. Jüdische Auswanderer an der deutsch-polnischen Grenze Mit der Massenauswanderung nach Nordamerika und England im späten 19. Jahrhundert expandierte das Jiddische verstärkt in den englischen Sprachraum und wurde dementsprechend zunehmend durch Englisch als Kontaktsprache beeinflusst. Infolge der großen Anzahl jiddischsprachiger Einwanderer haben zahlreiche jiddische Wörter Eingang in den umgangssprachlichen Wortschatz des US-amerikanischen Englisch gefunden. Mit der jiddischen Ausgabe des Jewish Daily Forward existiert in New York bis heute eine jiddisch geschriebene Zeitung, die auf diese Einwanderungswelle zurückgeht; weitere jiddische Blätter richten sich an das erst nach dem Zweiten Weltkrieg nach Amerika gekommene ultraorthodoxe Bevölkerungssegment. Jiddisch war eine der offiziellen Sprachen in der unabhängigen Ukrainischen Volksrepublik (1917–1920). Die Geschichte der Juden in der Sowjetunion war widersprüchlich. In den 1920ern und 1930ern war Jiddisch einige Jahre lang neben dem Russischen, Weißrussischen und Polnischen im sowjetischen Weißrussland Staatssprache. Einerseits betrieb die Sowjetunion zu Stalins Zeiten eine aktiv judenfeindliche Politik und verfolgte die jüdische Religion, das Bibelstudium, die zionistische Bewegung und die hebräische Sprache. Andererseits wurden jiddische Sprache und Literatur zumindest bis zum Zweiten Weltkrieg offiziell gefördert. Zwischen 1918 und 1923 wurden unter der Führung des Kriegsveteranen Simon Dimantstein innerhalb der KPdSU jüdische Sektionen („Jewsekzija“) errichtet. Ihre Aufgabe war der Aufbau einer „jüdischen proletarischen Kultur“, die nach den Worten von Stalin „national in der Form und sozialistisch im Inhalt“ sein sollte. Es gab drei bedeutende jiddische Zeitungen: "Emes" („Wahrheit“, 1920–1939 in Moskau), "Schtern" (1925–1941 in der Ukraine) und "Oktjabr" („Oktober“, 1925–1941 in Weißrussland). Auch der Aufbau eines jiddischen Schulsystems wurde gefördert. 1932 besuchten 160.000 jüdische Kinder in der Sowjetunion eine jiddischsprachige Schule. Doch wegen des Mangels an höheren Ausbildungsmöglichkeiten in Jiddisch und der zunehmend minderheitenfeindlichen Politik Stalins wurden in den folgenden Jahren im ganzen Land diese Schulen geschlossen. 1925 wurde im damals polnischen Wilno das YIVO "(Jidischer wißnschaftlecher inßtitut)" als akademische Einrichtung zum Studium jiddischer und ostjüdischer Kultur eröffnet. Seit 1940 ist der Hauptsitz in New York; 1941 plünderten die Nazis den Sitz in Wilna. Auch in Kiew und Minsk wurden wissenschaftliche Institute zur Erforschung der jiddischen Sprache, Literatur und Kultur eingerichtet, welche ihre Arbeiten auf Jiddisch publizierten. 1928 wurde die Jüdische Autonome Oblast (Birobidschan) in der östlichen Sowjetunion gegründet. Hier sollte Jiddisch als Amtssprache eingeführt werden, jedoch erreichte die jiddischsprachige Bevölkerung nie die Mehrheit. Seit dem Zerfall der Sowjetunion sind die meisten Juden der Jüdischen Autonomen Oblast nach Israel, Deutschland und in die USA ausgewandert; Jiddisch ist, abgesehen von der Beschriftung einzelner öffentlicher Gebäude, Straßen und Denkmäler, kaum mehr präsent. Heute gibt es in einigen traditionellen, ultraorthodoxen jüdischen Gemeinden wie besonders in New York (im Stadtteil Brooklyn) sowie in den New Yorker Vororten Kiryas Joel, New Square und Monsey, in Montreal sowie in dessen Vorort in Kiryas Tosh, in London, in Antwerpen und in Jerusalem (etwa im Stadtteil Me’a Sche’arim) und Umgebung größere Sprechergruppen, die Jiddisch als Alltagssprache verwenden und an die nächste Generation weitergeben. Neben diesen Sprechern gibt es auch eine kleine säkulare Sprechergemeinschaft, die das Jiddische weiter pflegt. Bezeichnungen. a> (v. r. n. l.), Postkarte Jiddischsprecher bezeichnen das Jiddische als "mamme loschn" (, deutsch Muttersprache). Das deutsche Wort "Jiddisch" ist ein verhältnismäßig neues Kunstwort. Es ist eine Entlehnung aus dem englischen "Yiddish," das seinerseits auf das von ostjüdischen Emigranten nach England mitgebrachte jiddische Wort "jidisch" zurückgeht. "Jidisch" (oder "idisch") bedeutet im Jiddischen sowohl „jüdisch“ als auch „jiddisch“. Das sog. "Judendeutsch" ist eine dem Deutschen sehr ähnliche Variante des Westjiddischen, war die Umgangs- und Korrespondenzsprache der Mehrheit der deutschen Juden bis etwa zur Mitte des 19. Jahrhunderts. Im Englischen ist das Wort "Yiddish" seit 1886 belegt, so zuerst in dem Roman "Children of Gibeon" von Walter Besant mit der Erklärung, dass es sich um eine aus Polnisch, Deutsch und Hebräisch gemischte Sprache handele, bald darauf dann aber auch durch gelegentliche Verwendung in sprachwissenschaftlichen Publikationen wie Alexander Harkavys "Dictionary of the Yiddish Language" (New York 1898) und Leo Wieners "History of Yiddish Literature in the Nineteenth Century" (London & New York 1899), wobei auch in solchen Fachpublikationen bis ins 20. Jahrhundert ältere Bezeichnungen wie "Judaeo-German" zunächst noch vorherrschend blieben. Bei der Anglisierung des jiddischen Wortes "jidisch" wurde der Konsonant „d“ verdoppelt, um den Monophthong "-i-" zu erhalten und der sonst im Englischen naheliegenden Aussprache "-ei-" vorzubeugen. Von hier aus wurde das Wort in der Form „jiddisch“ auch ins Deutsche übernommen, wo es zuerst in Gustav Karpeles’ "Geschichte der jüdischen Literatur" (Berlin 1909, dort neben „jüdisch-deutsch“) und dann in Solomon Birnbaums Aufsatz "Jiddische Dichtung" (1913) erscheint. Dabei stand der Anglizismus "jiddisch" in Konkurrenz nicht nur zu den älteren Bezeichnungen, sondern auch zu der zuweilen aus dem Ostjiddischen direkt ins Hochdeutsche übernommenen Bezeichnung "jidisch," wie sie z. B. im Untertitel „Übertragungen jidischer Volksdichtung“ zu der Sammlung "Ostjüdische Liebeslieder" (Berlin 1920) von Ludwig Strauss erscheint. Es ist maßgeblich der Initiative Birnbaums und dem Einfluss seiner "Praktischen Grammatik der Jiddischen Sprache" (1918) sowie seiner zahlreichen Fachpublikationen und Lexikonartikel zuzuschreiben, dass sich "Jiddisch" (und auch im Englischen "Yiddish") in der Folgezeit als fachsprachlicher Terminus etablierte, als Bezeichnung zunächst vorwiegend für das neuostjiddische, und dann umfassend für sämtliche Sprachperioden unter Einbeziehung des westlichen Jiddisch. Schrift. Jiddisch wird mit dem hebräischen Alphabet geschrieben (Aljamiado-Schreibweise), das für die besonderen Zwecke dieser nicht-semitisch basierten Sprache angepasst worden ist. So stehen gewisse Zeichen, die im Hebräischen für Konsonanten gebraucht werden, im Jiddischen auch für Vokale. Umschriften in lateinischer Schrift gibt es mehrere, die dann gleichwertig sind, wenn sie zwischen Zeichen und Laut eine Eins-zu-Eins-Entsprechung gewähren und damit problemlos ineinander übergeführt werden können. International verbreitet ist in YIVO-affinen Kreisen die vom YIVO in New York entwickelte Transkription, die teilweise auf der englischen Schreibweise gründet. Im deutschen Sprachraum wird diese englische Basierung gerne durch eine deutsche ersetzt; an die Stelle von "y, z, s, v, ts, kh, sh, zh, ay, ey, oy" treten dann "j, s, ß, w, z, ch, sch, sh, aj, ej, oj". In der Sprachwissenschaft schließlich benutzt man statt einer Transkriptionen häufig eine Transliteration; für "y, ts, kh, sh, zh, tsh, ay, ey, oy" des YIVO verwendet man "j, c, x, š, ž, č, aj, ej, oj". Umschriften im Vergleichstext. YIVO-Transkription: "Ot di tsavoe hot mir ibergelozn mit yorn tsurik in mayn lebediker heymshtot an alter bokher, a tsedrumshketer poet, mit a langn tsop ahinter, vi a frisher beryozever bezem. S’hot keyner nit gevust, fun vanen er shtamt." Deutsch basierte Transkription: "Ot di zawoe hot mir ibergelosn mit jorn zurik in majn lebediker hejmschtot an alter bocher, a zedrumschketer poet, mit a langn zop ahinter, wi a frischer berjosewer besem. ß'hot kejner nit gewußt, fun wanen er schtamt." Transliteration: "Ot di cavoe hot mir ibergelozn mit jorn curik in majn lebediker hejmštot an alter boxer, a cedrumšketer poet, mit a langn cop ahinter, vi a frišer berjozever bezem. S’hot kejner nit gevust zajn nomen, fun vanen er štamt." (Der betonte und unbetonte /e/-Laut kann überdies nach ‹e› und ‹ɘ› unterschieden werden.) Übersetzung: Eben dieses Vermächtnis hinterließ mir vor Jahren in meiner lebendigen Heimatstadt ein alter Junggeselle, ein verwirrter Dichter mit einem langen Zopf hinten, ähnlich einem Besen aus frischem Birkenreisig. Niemand kannte seinen Namen, seine Herkunft. Vokale. Jiddisch hat mit vielen ober- und besonders mitteldeutschen Dialekten zahlreiche Lautveränderungen gemeinsam: Entrundung der Hochzungenvokale mhd. ö > e, ü > i (bspw. mhd. "jüde" > jidd. "jid"), die Diphthongierung von mhd. bzw. regional-frühnhd. langem ê > ej, ô > ou bzw. im Ostjiddischen weiter > /oi/, œ (> ê) > ej (bspw. mhd. "gên" > jidd. "gejn," mhd. "brôt" > jidd. "brojt," mhd. "schœne" > jidd. "schejn") oder die Verdumpfung des langen Zentralvokals mhd. â > ô/û (bspw. mhd. "schlâfen" > nordostjidd. "schlofn," südjidd. "schlufn"). Die Entwicklung von ahd. /ei/, /ø:/ und /iu/ verlief allerdings nicht immer direkt zu den neujiddischen Lauten, sondern teilweise über die Zwischenstufen /ei/ > /e:/ > /ej/ (z. B. "bein" > "bēn" > "bejn"); /ø:/ > /e:/ > /ej/ ("schoni" > "schœne" > "schēn" > "schejn);" /iu/ > /y:/ > /i:/ > /aj/ (z. B. "niuwi" > "nü(we)" > "nĩ" > "naj"). Konsonanten. Das Jiddische reflektiert die hochdeutsche Lautverschiebung fast vollständig. Germanisches /p/ ist im Jiddischen in Wörtern wie "schlafen, laufen, helfen, hoffen" wie im Standarddeutschen zu /f/ verschoben: "schlofn, lojfn, helfn, hofn". Wie im Ostmitteldeutschen ist auslautendes germanisches /p/ etwa in "Kopf, Zopf, Topf" jedoch unverschoben geblieben, es heißt hierfür jiddisch "kop, zop, top" und damit auch "kepl, tepl" (Köpfchen, Töpfchen). Anlautendes /pf/ wie in "Pfanne, Pfeffer, pfeifen, Pfeil, Pferd, Pflanze" hat jiddisch jedoch zu /f/ verschoben: "fan, fefer, fajfn, fajl, ferd, flanzn" – anders als das Ostmitteldeutsche, das hier /p/ bewahrt, und anders als das Oberdeutsche, das hier zu /pf/ verschoben hat. Inlautendes westgermanisches /pp/ schließlich bleibt im Jiddischen als /p/ erhalten, etwa in "epl, schepn" (deutsch hingegen "Apfel, schöpfen"). (ch) wird wie in vielen bairischen und alemannischen Dialekten auch nach hellen Vokalen wie (i), (ej), (aj) und nach (r) als ausgesprochen: "licht". Grammatik. Die jiddische Grammatik ist grundsätzlich deutschbasiert, weist aber auch zahlreiche Eigenentwicklungen auf und zeigt verschiedene slawische und gewisse hebräische Einflüsse. Kasusflexion. Das Jiddische zeigt nur Reste von Kasusflexion beim Substantiv. Pluralbildung. Die Flexion der Substantiva weicht von derjenigen der deutschen Standardsprache stark ab. So sind Beugung mittels Umlautung sowie mittels viel verbreiteter als im Standarddeutschen (ersteres entspricht aber teilweise den Verhältnissen in den deutschen Mundarten); umgekehrt ist die deutsche Endung im Jiddischen unbekannt. Sodann kennt Jiddisch mit den Endungen bzw. und Morpheme, die dem Hebräischen entlehnt sind. kommt fast nur bei hebräischstämmigen Substantiven vor, erstere beide sowohl bei hebräisch- wie auch bei deutsch- und slawischstämmigen Wörtern. Die Schreibung von erfolgt bei hebräischstämmigen Wörtern nach der hebräischen, bei deutsch- und slawischstämmigen Wörtern nach der phonologischen Orthographie. Die Pluralbildung mittels ist sodann in der Regel mit Vokaländerung, manchmal mit konsonantischer Veränderung sowie oft mit Betonungsverschiebung von der ersten auf die mittlere Silbe verbunden. Diminutivum I (Verkleinerung). Hier wird im Singular "-l" angehängt; der Plural wird mit "-lech" gebildet: "bet" (Bett) – Dim. I "betl," Plural "betlech". Wenn möglich, ist Diminuierung mit Umlautung verbunden: "hant" (Hand) – Dim. I "hentl". Diminutivum II (Imminutiv). Das Diminutiv II ist eine affektivere Variante des Diminutivs I. Im Singular wird "-ele" angehängt; der Plural mit "-elech" gebildet: "bet" (Bett) – Dim. II "betele," Plural "betelech". Wenn möglich, ist Diminuierung mit Umlautung verbunden: "hant" (Hand) – Dim. II "hentele". Artikel. "der" = dt. der (Nom.), z. B. "der man" der Mann "dem" = dt. des (Gen.), dem (Dat.), den (Akk.), z. B. "dem manß" des Mannes, "dem man" dem Mann, den Mann "di" = dt. die (Nom. und Akk.), z. B. "di froj" die Frau "der" = dt. der (Gen. und Dat.), z. B. "der frojß" der Frau (Gen.), "der froj" der Frau (Dat.) "doß" = dt. das (Nom. und Akk.), z. B. "doß kind" das Kind "dem" = dt. des (Gen.), dem (Dat.), z. B. "dem kindß" des Kindes, "dem kind" dem Kind "di" für alle Genera und alle Kasus, z. B. "di mener/frojen/kinder singen" die Männer/Frauen/Kinder singen, "ich gib doß buch di mener/frojen/kinder" ich gebe das Buch den Männern/Frauen/Kindern Der unbestimmte Artikel, der nur im Singular vorkommt, lautet vor Konsonanten "a," vor Vokalen "an" und wird nicht flektiert: "a man, a froj, a kind" (dt. ein/einem/einen Mann, eine/einer Frau, ein/einem Kind) Adjektiva. Die Flexion der Adjektiva unterscheidet sich von den deutschen Regeln grundlegend, indem sie (mit ganz wenigen Ausnahmen) nicht zwischen starker und schwacher Flexion unterscheidet. Es existieren drei Genera (m, f, n) und 4 Kasus (Nominativ, Genitiv, Dativ, Akkusativ), ferner im Neutrum teilweise je nach unbestimmten bzw. bestimmten Artikel Unterscheidung zwischen starker und schwacher Flexion. Im Gegensatz zum Deutschen hat überdies ein relativ weitgehender Zusammenfall der verschiedenen Kasusendungen stattgefunden, so dass die Anzahl verschiedener Endungen bedeutend geringer ist. In den Dialekten kommen im Bereich Genus und Kasus sodann bedeutende Abweichungen von der standardjiddischen Regelung vor. Adverbia. Das Jiddische verfügt wie das Deutsche über eine große Zahl unflektierter Adverbia. Verb. Das Jiddische kennt wie das Deutsche starke und schwache sowie eine kleine Zahl ganz unregelmäßiger Verben. Dazu tritt bei hebräischstämmigen Verben eine periphrastische Konjugation, die dem Deutschen unbekannt ist. Anders als das Deutsche kennt das Jiddische weder ein Präteritum noch einen Konjunktiv. "schrajbn" (dt. schreiben) – "schrajbt" – "geschribn" "singen" (dt. singen) – "singt" – "gesungen" "schlofn" (dt. schlafen) – "schloft" – "geschlofn" "machn" (dt. machen) – "macht" – "gemacht" "redn" (dt. reden) – "redt" – "geredt" "ßtraschen" (dt. drohen) – "ßtraschet" – "geßtraschet" "hobn" (dt. haben) – "hot" – "gehat" "weln" (dt. wollen) – "wil" (Vollverb) / "wel" (Hilfsverb) – "gewolt" "mojde sajn" (dt. zugeben) – "is mojde" – "mojde gewen" Sehr ausgeprägt ist im Jiddischen sodann ein slawisch inspiriertes System von Aktionsarten. Diese Unterscheidungen sind vor allem im Jiddischen, das in slawischer Umgebung gesprochen wird, lebendig; im amerikanischen Jiddisch geht sie rasch verloren. Das Perfekt wird standardjiddisch mit "sajn" (dt. sein) oder "hobn" (dt. haben) gebildet: "er is gegangen, er hot gemacht," wobei die Verteilung der Hilfsverben vom (Nord- und Ost-)Deutschen abweichen kann: "er is geschtanen, si is geschlofn" (dt.: er hat gestanden, sie hat geschlafen). Das Nordostjiddische (ursprünglich Litauen und Weißrussland) kennt nur "hobn" als Hilfsverb. Der jiddische Konditional wird mit "wolt" (ursprünglich zu "weln", dt. wollen gehörig) plus Partizip Perfekt gebildet: "er wolt geholfn" (dt. er würde helfen / er hülfe). Numeralia. ab 13 "drajzn" läuft es analog zum Deutschen "-zn"; beachte aber: 14 "ferzn;" 15 "fufzn" Nach 30 "drajßik" kommt "-zik;" beachte aber: 40 "ferzik;" 50 "fufzik;" 70 "sibezik" 100 "hundert;" 1000 "tojsnt;" 1000000 "miljon" 928.834 "najn hundert acht un zwanzik tojsnt acht hundert fir un drajßik" Konjunktionen. Es gibt im Jiddischen nur eine sehr überschaubare Anzahl an Konjunktionen, die wie im Deutschen beiordnend oder unterordnend sein können. Hiervon sind einige slawischen oder hebräischen Ursprungs. Die Konjunktionen haben keinen Einfluss auf den Modus oder die Stellung des Verbs. Jiddische Kultur. „Jiddischer arbeiter“, „l'Ouvrier juif“, Paris. Die Zeitung wurde 1911 gegründet, 1914 stellte sie ihr Erscheinen ein. Poster in Jiddisch und Polnisch für „Tewje der Milchiker“ (Tewje der Milchmann) von Scholem Alejchem, Wilna Jiddische Literatur. Frühe überlieferte jiddischsprachige Zeugnisse sind religiöse Texte, das älteste vollständig erhaltene nicht religiöse jiddische Buch wurde zu Beginn des 16. Jahrhunderts verfasst. Die Anfänge der jiddischen Literatur lassen sich bis ins 13. Jahrhundert zurückverfolgen. Epen über Gestalten der Bibel, Heldenlieder aus germanischen Sagenkreisen, Fabeln, Volksbücher, religiöse Lern- und Gebrauchsliteratur oder die von den Abenteuererzählungen der italienischen Renaissance inspirierten Versromane des Elia Levita (1469–1549) zeigen die Vielfalt der älteren jiddischen Literatur. Eine weitere Blüte erlebte die jiddische Literatur seit dem 19. Jahrhundert. Die moderne jiddische Literatur entstand vor allem in Osteuropa. Als ihre Klassiker gelten Scholem-Jankew Abramowitsch, bekannt als „Mendele Mojcher-Sforim“ (1836–1917), Scholem Aleichem (1859–1916) und I. L. Peretz (1852–1915). In der Zeit zwischen den Weltkriegen konnte die literarische Produktion im Jiddischen mit der jeder anderen Weltsprache mühelos Schritt halten. Bedeutende literarische und künstlerische Zentren waren in jener Zeit Warschau, Wilna (heute: Vilnius) und New York. Zu den bedeutendsten jiddischen Autoren der Nachkriegszeit gehören der Dichter Avrom Sutzkever (1913–2010) und der Erzähler und Schriftsteller Isaac Bashevis Singer (1902–1991), dem 1978 der Nobelpreis für Literatur verliehen wurde. Jiddische Presse. Weltweit gibt es rund 100 größere und kleinere jiddischsprachige Zeitungen, Zeitschriften und Radioprogramme. Zu den Publikationen gehören beispielsweise "Dos Jidisze Wort" (Polen), "Forwerts" (USA), "Der Algemeiner Journal" (USA), der "Birobidshaner Schtern" (Russland) oder die Kulturzeitschriften "Lebnsfragn" (Israel) und "Di Zukunft" (USA). In jüngster Zeit sind in den Vereinigten Staaten zahlreiche neue charedische Publikationen (teils als Print-, teils als Onlinemedium) auf den Markt gekommen, etwa "Der Jid," "Der Blat," "Di Zajtung" und "Di charejdische Welt," sodann auch die säkulare Online-Zeitung "Der jidischer Moment". Zur Geschichte der jiddischen Presse siehe den Artikel in der "Yivo Encyclopedia of Jews in Eastern Europe". Verschwunden sind dagegen neben der 1896 gegründeten Zeitschrift Der yidisher arbeyter viele andere. Jiddischer Film. Aus dem jiddischen Theater entwickelte sich in Europa und den USA der jiddische Film. Seine Blütezeit erlebte er in den 1920er- und 1930er Jahren in Europa und anschließend in den USA bis etwa in die 1950er-Jahre. Insgesamt entstanden so etwa 100 bis 200 Spielfilme. Zu den bekanntesten Regisseuren jiddischer Filme zählen Sidney M. Goldin und Joseph Seiden. Die Darsteller kamen häufig von bekannten jiddischen Theatergruppen. Mitunter waren auch Filmschaffende am jiddischen Film beteiligt, die auch in der regulären Filmindustrie Hollywoods bekannt waren. So etwa die Schauspielerin Molly Picon und der Regisseur Edgar G. Ulmer. In Wien existierte in den 1920er Jahren eine unabhängige jiddische Filmszene. Der einzige in Deutschland produzierte Film in jiddischer Sprache ist Herbert B. Fredersdorfs von Holocaust-Überlebenden handelnder Spielfilm "Lang ist der Weg" (1948). Aus den neueren Hollywood-Filmen ist z. B. der Film der Gebrüder Coen "A Serious Man" zu nennen, der einen etwa fünfminütigen jiddischen Dialog enthält. 2013 drehte die Regisseurin Naomi Jaye "Di Shpilke/The Pin," den ersten jiddischen Film Kanadas. Die "Internet Movie Database" nennt Anfang 2006 174 internationale Filme mit jiddischem Dialog. Darin eingeschlossen sind allerdings auch solche Filme, die nur kurze Dialogszenen auf Jiddisch haben. Jiddische Musik. Jiddische Lieder gibt es auf vielen Tonträgern. Zahlreiche Lieder, die heute als Volksliedern gelten, wurden in der zweiten Hälfte des 19. und der ersten Hälfte des 20. Jahrhunderts für das jiddische Theater geschrieben. Zu den Liedarten und bekannten Interpreten siehe auch unter Klezmer. In den letzten Jahrzehnten erlebten Klezmer-Musik und andere traditionelle jüdische oder jiddische Musik eine Renaissance. In jüngerer Zeit erlangte der Klezmer, beeinflusst von Jazz und anderen Musikrichtungen, mit Bands wie The Klezmatics auch eine moderne Spielart. Auch abseits des Klezmer brachte der spielerische Umgang mit dem umfangreichen Erbe jüdischer (und jiddischer) Musik- und Gesangstradition mitunter kuriose Ergebnisse hervor, wie etwa die Veröffentlichungen des kanadischen Produzenten und DJs socalled zeigen, der unter anderem Hip Hop-Versionen traditioneller Lieder mit bekannten jüdischen Musikern der Gegenwart, darunter der Sänger Theodore Bikel, neu eingespielt hat. Die Berliner Schauspielerin und Sängerin Sharon Brauner und der Berliner Bassist und Produzent Daniel Zenke (Lounge Jewels: Yiddish Evergreens) hüllten jiddische Evergreens in ein modernes musikalisches Gewand und würzten die Lieder mit Swing, Jazz und Pop sowie mit Balkan-Polka, Arabesken, südamerikanischen Rhythmen, mit Reggae, Walzer-, Tango- und sogar Countryelementen. Im israelischen Tel Aviv gibt es sogar jiddischen Hip Hop und Punk. Sprachkurse. Jiddische Sprachkurse finden an vielen Universitäten und sonstigen Institutionen statt, so etwa in New York, Paris, Vilnius, Warschau, Wien, Tel Aviv, Jerusalem und Birobidschan. James Tobin. James Tobin (* 5. März 1918 in Champaign, Illinois; † 11. März 2002 in New Haven, Connecticut) war ein US-amerikanischer Wirtschaftswissenschaftler. Leben. Tobin studierte von 1935 bis 1941 an der Harvard University in Cambridge, Massachusetts Wirtschaftswissenschaften. Im Jahr darauf trat er in den Dienst der amerikanischen Kriegsmarine, wo er bis 1946 blieb. Ein Jahr später promovierte er über das Thema Konsumfunktion. Von 1950 bis 1988 war er Wirtschaftsprofessor an der Yale University in New Haven, Connecticut. Während dieser Zeit war er zunächst von 1955 bis 1961 und nochmals von 1964 bis 1965 Direktor der Cowles Foundation. In der Zwischenzeit gehörte er von 1961 bis 1962 dem wirtschaftlichen Beraterstab (Council of Economic Advisers) von US-Präsident John F. Kennedy an. Tobin war zudem von 1966 bis 1970 Vorsitzender der "New Haven City Plan Commission". Im darauffolgenden Jahr er der American Economic Association als gewählter Präsident vor. 1958 wurde Tobin in die American Academy of Arts and Sciences gewählt. Werk. Bekannt wurde Tobin durch seine 1972 vorgeschlagene weltweit einheitliche (Lenkungs-)Abgabe auf spekulative internationale Devisentransaktionen, die sogenannte Tobin-Steuer. Er entwickelte zudem ein bekanntes ökonometrisches Modell für zensierte (auch als gestutzt oder trunkiert bezeichnete) Variablen, dem Tobit-Modell. Vielfach wird behauptet, dass Tobin dafür war, die Erlöse aus der Erhebung der Tobin-Steuer über die Weltbank Entwicklungsländern zugutekommen zu lassen. In Wahrheit sprach er sich aber lediglich nicht explizit ‚dagegen‘ aus und wies darauf hin, dass dieser Punkt nicht der entscheidende an seinem Steuerkonzept ist. Seine Idee der Tobin-Steuer wurde von der Bewegung der Globalisierungskritiker in veränderter Form aufgegriffen. Tobin stand dieser Veränderung äußerst kritisch gegenüber. Im Interview mit dem Nachrichtenmagazin Der Spiegel sagte er am 3. September 2001, er sei „ein Anhänger des Freihandels. Ich befürworte außerdem den Internationalen Währungsfonds, die Weltbank, die Welthandelsorganisation – all das, wogegen diese Bewegung anrennt. Die missbrauchen meinen Namen.“ Den Namen von Tobin tragen im Bereich der Kapitalmarkttheorie die Tobin-Separation sowie Tobin’s Q. 1981 erhielt Tobin den Nobelpreis für Wirtschaftswissenschaften für seine Arbeiten auf dem Gebiet der Portfoliotheorie. Jura. Jura bzw. JURA bezeichnet als Abkürzung Jean-François Champollion. Jean-François Champollion (* 23. Dezember 1790 in Figeac im Département Lot; † 4. März 1832 in Paris) war ein französischer Sprachwissenschaftler. Mit der Entzifferung der ersten Hieroglyphen auf dem Stein von Rosetta legte er den Grundstein für die wissenschaftliche Erforschung des dynastischen Ägyptens. Ausbildung in acht Fremdsprachen. Jean-François Champollion wurde als Sohn des Buchhändlers Jacques Champollion geboren. Die Unruhen der Französischen Revolution verhinderten eine reguläre Ausbildung. Mit 13 begann er verschiedene orientalische Sprachen zu lernen, und mit 17 hielt er erfolgreich einen Vortrag über die Ähnlichkeiten zwischen dem Koptischen und den Hieroglyphen. Im Selbststudium und mit Hilfe eines privaten Lehrers erwarb er weitere hervorragende Sprachkenntnisse und beherrschte bereits mit 18 Jahren acht alte Sprachen. Abgesehen von wenigen Reisen nach Italien und der großen Ägypten-Expedition wohnte der Forscher abwechselnd in Grenoble und Paris. Im März 1801 zog er zu seinem Bruder Jacques-Joseph, einem späteren Professor für Altgriechisch, nach Grenoble, wo er weiterhin vor allem privat unterrichtet wurde und eine Leidenschaft für Ägypten entwickelte. Mit ihm war damals ganz Frankreich durch die zurückkehrende ägyptische Expedition Napoleon Bonapartes daran interessiert. 1802 traf er den aus Ägypten zurückgekehrten und zum Präfekten der Isère ernannten Mathematiker Joseph Fourier. Dieser zeigte ihm Teile seiner ägyptischen Sammlung und weckte mit der Erklärung, dass niemand diese Schriftzeichen lesen könne, in Champollion das lebenslange Streben nach der Entzifferung der Hieroglyphen. Vom November 1804 bis August 1807 besuchte Champollion das neu eröffnete Lyzeum und verfolgte dort trotz des strikt vorgeschriebenen Lehrplans seine eigenen Sprachstudien weiter. Gesundheitlich war er wenig robust. Schon in jungen Jahren plagten ihn heftige Kopfschmerzen, Reizhusten und Atemnot. Er litt unter nervöser Erschöpfung und brach oft ohnmächtig zusammen. Ständiges Lesen bei schummeriger Beleuchtung griff sein Augenlicht an. Später kamen Tuberkulose, Gicht, Diabetes, Nieren- und Leberschäden hinzu. Dennoch bewältigte der besessene Gelehrte ein ungeheures Arbeitspensum und gönnte sich kaum je eine Ruhepause. Er präsentierte nach Schulabschluss im August 1807 seinen "Aufsatz der geographischen Beschreibung Ägyptens vor den Eroberungen durch Kambyses" und wurde dafür zum Mitglied der Akademie von Grenoble ernannt. Von 1807 bis 1809 studierte er in Paris, wo er seine bereits umfangreichen Sprachkenntnisse um Arabisch, Persisch und Koptisch erweiterte. Stein von Rosetta. In Paris arbeitete er auch erstmals mit dem Stein von Rosetta und leitete von diesem ein Alphabet des Demotischen ab. Das so gewonnene Alphabet half ihm, auch nicht-hieratische Papyri zu entschlüsseln, obwohl er sich der tatsächlich bestehenden Unterschiede damals noch nicht bewusst war. 1810 wurde Champollion in Grenoble Professor für alte Geschichte auf einer geteilten Stelle an der neu eröffneten Universität. Seine Arbeit an den Hieroglyphen wurde in den folgenden Jahren vor allem durch Mangel an Materialien, die Wirren der Rückübernahme Frankreichs durch die Royalisten und das dadurch verursachte Exil in Figeac von März 1816 bis Oktober 1817 behindert. Zurück in Grenoble übernahm er zwei Schulen und heiratete im Dezember 1818 Rosine Blanc. Durch politische Intrigen ermüdet und seiner Ämter beraubt, reiste er im Juli 1821 wieder nach Paris. Dort konzentrierte er sich vor allem auf Übersetzungen zwischen Demotisch, Hieratisch und den Hieroglyphen. Lange Zeit musste Champollion Ungerechtigkeiten und den Neid seiner Kollegen ertragen, doch sein starker Charakter ließ ihn nie das Ziel aus den Augen verlieren, als Erster die altägyptischen Schriftzeichen zu entschlüsseln. Anhand einer quantitativen Symbolanalyse des Steins von Rosetta erkannte er, dass Hieroglyphen nicht nur für Worte allein stehen konnten. Mithilfe der Namenskartuschen für Ptolemaios VIII., Kleopatra II. und III. auf einem Obelisken von William John Bankes, dem Stein von Rosetta, Abbildungen aus einem Tempel in Abu Simbel und anderen Papyri entdeckte er, dass einzelne Hieroglyphen für Buchstaben standen, andere für ganze Wörter, oder dass sie gar kontextbestimmend waren. Im September 1822 gelang es ihm, ein vollständiges System zur Entzifferung der Hieroglyphen aufzustellen. Am 27. September 1822 stellte der Franzose den Mitgliedern der Akademie der Inschriften und der schönen Literatur in Paris einen Teil seiner Forschungsergebnisse zu den Hieroglyphen vor. Doch kaum hatte der Referent an jenem Tag ausgeredet, fielen die meisten zuhörenden Wissenschaftler über ihn her. Sie beschuldigten ihn des Plagiats oder zweifelten seine Übersetzungen schlichtweg an. Er veröffentlichte Teile der Arbeit im Oktober 1822 ("Brief an M. Dacier, den Ständigen Sekretär des ehrwürdigen Instituts, betreffend das Alphabet der phonetischen Hieroglyphen") und eine ausführliche Erklärung im April 1824 ("Zusammenfassung des Systems der Hieroglyphen im Alten Ägypten"). Heute feiert die Nachwelt den sogenannten "„Brief an Monsieur Dacier“" als Meilenstein in der Entwicklung der Ägyptologie. Reisen. Champollions Grab auf dem Friedhof Père Lachaise Auf der Suche nach weiteren ägyptischen Schriften verbrachte er die Zeit von Juni 1824 bis März 1826 in Italien, speziell in Turin. Dort fand und übersetzte er den „Königspapyrus Turin“ – eine sehr ausführliche Auflistung der ägyptischen Pharaonen-Dynastien. Er hielt diese Übersetzung eine Weile geheim, da sie die Zeitrechnung der Kirche insgesamt in Frage stellte. Von August 1828 bis Dezember 1829 leitete Champollion eine französisch-toskanische Expedition nach Ägypten den Nil entlang bis Wadi Halfa. Viele dabei entdeckte Materialien sind die einzigen Zeugnisse der zu der Zeit oft als Steinbruch verwendeten Tempel. Am 4. März 1832 starb Jean-François Champollion nur 41-jährig an einem Schlaganfall. Er ruht auf dem Friedhof Père Lachaise in Paris. J. R. R. Tolkien. John Ronald Reuel Tolkien, CBE (* 3. Januar 1892 in Bloemfontein, Oranje-Freistaat; † 2. September 1973 in Bournemouth, England) war ein britischer Schriftsteller und Philologe. Sein Roman "Der Herr der Ringe" ("The Lord of the Rings", 1954/55, auf Deutsch erschienen 1969/70) ist eines der erfolgreichsten Bücher des 20. Jahrhunderts und begründete die moderne Fantasy-Literatur. Tolkien, später Professor für englische Sprache an der Universität Oxford, hatte seit seiner Jugend an einer eigenen Mythologie gearbeitet, die auf eigens konstruierten Sprachen basierte und erst postum unter dem Titel "Das Silmarillion" erschien. Sowohl "Der Herr der Ringe" als auch das erfolgreiche Kinderbuch "Der Hobbit" (1937) spielen in dieser von Tolkien erfundenen Welt. Auch einige seiner sprach- und literaturwissenschaftlichen Beiträge wie der Essay ' (1936) gelten als wegweisend. Leben. Weihnachtskarte Mabel Tolkiens vom 15. November 1892 mit einem Foto der Familie; rechts J. R. R. Tolkien John Ronald Reuel Tolkien wurde im Jahre 1892 als Sohn englischer Eltern, des Bankmanagers Arthur Reuel Tolkien (1857–1896) und dessen Frau Mabel Suffield (1870–1904), in Bloemfontein im Oranje-Freistaat geboren, wo sich sein Vater aus beruflichen Gründen aufhielt. Seine Familie väterlicherseits stammte ursprünglich aus Niedersachsen, lebte aber schon seit mehreren Generationen in England. Die meisten Vorfahren Tolkiens waren Handwerker. 1894 kam sein Bruder Hilary Arthur Reuel Tolkien zur Welt. Kindheit. Tolkiens frühe Kindheit verlief weitgehend ruhig und ereignislos bis auf einen Tarantelbiss, der als möglicher Auslöser für das wiederholte Auftreten von giftigen Riesenspinnen in seinen Werken gelten kann. 1895 kam er mit seiner Mutter, die das afrikanische Klima nicht gut vertrug, und seinem Bruder Hilary zu einem Urlaub ins englische Birmingham. Dort erreichte seine Mutter im darauffolgenden Jahr die Nachricht vom Tode ihres Mannes, der an schweren inneren Blutungen verstorben war. Die Familie zog daraufhin nach Sarehole Mill, einem Vorort von Birmingham, der zu diesem Zeitpunkt noch weitgehend von der Industrialisierung unberührt geblieben war. Die folgenden vier Jahre seiner Kindheit verbrachte Tolkien in dieser ländlichen Idylle, die später zur literarischen Vorlage für das Auenland, einem Teil seiner mythologischen Welt, wurde. Hier wurde er auch zuerst mit dem Dialektwort "Gamgee" für Baumwolle vertraut, das später zum Namen eines der Hobbit-Protagonisten in seinem Hauptwerk Der Herr der Ringe werden sollte. Seine Mutter, die im Jahre 1900 gegen den Willen ihrer Eltern und Schwiegereltern zur römisch-katholischen Kirche konvertiert war, erzog ihre Kinder in ihrem Glauben. Diese weltanschauliche Grundprägung sollte sich durch Tolkiens gesamtes Leben ziehen und weitreichende Auswirkungen auf sein Werk haben. Da er sich früh an Sprachen interessiert zeigte, brachte ihm seine Mutter Grundzüge des Lateinischen, Französischen und Deutschen bei. Durch sie wurde er mit den Geschichten von Lewis Carrolls "Alice im Wunderland", der "Artus-Sage" und den Märchenbüchern von Andrew Lang vertraut gemacht, in denen er auch zum ersten Mal von den nordischen Sagen um Siegfried und den Drachen Fafnir hörte. Zwischen 1900 und 1902 zog Tolkien mit seiner Mutter mehrfach innerhalb von Birmingham um, zunächst in den Stadtteil Moseley, dann nach King’s Heath, wo er durch die ungewohnten Namen auf den hinter dem Haus vorbeifahrenden Kohlewaggons zum ersten Mal auf das ihn ästhetisch berührende Walisisch stieß, schließlich nach Edgbaston. Da all diese Orte städtischen Charakter hatten, waren seine vom Landleben geprägten Kindertage vorbei. Hinzu kam eine Odyssee durch verschiedene Schulen: Zunächst auf der King Edward’s School angenommen, wechselte er 1902 an die St. Philips Grammar School, um dann 1903 mit einem Stipendium wieder an die King Edward’s School zurückzukehren. Dort lernte er neben den klassischen Sprachen Latein und Griechisch durch einen engagierten Lehrer auch das Mittelenglische kennen. Am 14. November 1904 starb seine Mutter, für den Zwölfjährigen völlig überraschend, nach einem sechstägigen diabetischen Koma. Dieser frühe Tod bewirkte, dass er sich als Waise dem Glauben und der katholischen Kirche noch enger verbunden fühlte. Ebenso stärkte dieses Ereignis seine pessimistische Grundhaltung. Er sah, ganz im Sinne der Bibel (: „Wir wissen: Wir sind aus Gott, aber die ganze Welt steht unter der Macht des Bösen.“ zit. nach Einheitsübersetzung), die Welt in den Händen des Bösen. Nur in den Siegen des Guten, so seine Vorstellung, konnte dabei das Schlechte vorübergehend zurückgedrängt werden. Erlösung konnte für ihn der Mensch nur durch den Glauben an Jesus Christus und das Ewige Leben finden. Diese Einstellung sollte zum grundlegenden Tenor seines literarischen Schaffens werden. Jugend. Die beiden Brüder kamen in die Obhut Pater Francis Morgans, eines mit ihrer Mutter befreundeten Priesters, der sie zunächst bei ihrer Tante Beatrice Bartlett, später bei einer befreundeten Pensionswirtin unterbrachte. Dort lernte Tolkien 1908 seine spätere Frau, die drei Jahre ältere Edith Bratt, kennen. Als sein Vormund davon erfuhr, verbot er Tolkien bis zum Erreichen seiner Volljährigkeit mit einundzwanzig Jahren jeden Kontakt mit Edith. In der Schule wurde Tolkien unterdessen durch seinen Schulrektor nicht nur auf die Philologie, die Wissenschaft von den Gesetzmäßigkeiten der Sprache, aufmerksam, sondern durch einen befreundeten Lehrer auch mit dem Altenglischen in Berührung gebracht. Zu dieser Zeit las er zum ersten Mal ein Herzstück der altenglischen Literatur, das Gedicht "Beowulf", und war sofort begeistert. Im Mittelenglischen machte er sich selbst mit den Dichtungen "Sir Gawain and the Green Knight" und "Pearl" aus der Handschriftensammlung "Cotton Nero A.x." vertraut. Über alle drei Werke sollte er später bedeutsame akademische Arbeiten vorlegen. Schließlich wandte er sich auch dem Altnordischen zu, um die Geschichte um Siegfried und den Drachen Fafnir, die ihn als Kind so fasziniert hatte, im Original lesen zu können. Von den neu erworbenen philologischen Kenntnissen angespornt, begann Tolkien bald damit, eigene Sprachen zu erfinden, die auf seinem schon zu diesem Zeitpunkt gut ausgebildeten Wissen um linguistische Entwicklungsprinzipien beruhen. Frühe Versuche basierten auf dem Spanischen, doch als er durch einen Schulfreund auf das Gotische aufmerksam wurde, begann er nicht nur damit, die in dieser toten Sprache enthaltenen Lücken selbsttätig aufzufüllen, sondern versuchte auch das Gotische zu einer hypothetischen Ursprache zurückzuführen. Diese enge Beschäftigung mit Sprachen zeigte sich bald auch in der Schule, wo Tolkien seine Zuhörer bei (damals meist in Latein gehaltenen) Debatten bald mit fließenden Vorträgen in Griechisch, Gotisch oder Altenglisch überraschte. Im Sommer des Jahres 1911 bildete Tolkien mit einigen Freunden, darunter Christopher Wiseman, Robert Quilter Gilson und Geoffrey Bache Smith, den T.C.B.S. (Tea Club – Barrovian Society), eine informelle Gemeinschaft von Freunden, die sich zunächst in der Schulbibliothek, später dann in Barrow’s Stores regelmäßig traf, um miteinander über Literatur zu diskutieren. Zu dieser Zeit und möglicherweise durch den T.C.B.S. inspiriert, begann Tolkien ernsthaft damit, Gedichte zu schreiben, in denen erstmals im Waldland tanzende Feenwesen ("fairies") auftraten. Ein möglicher Anstoß dazu könnte von dem katholischen Dichter mystischer Gedichte, Francis Thompson, gekommen sein, mit dessen dichterischem Werk Tolkien sich zu dieser Zeit nachweislich auseinandersetzte. Nach einem fehlgeschlagenen Versuch im Jahre 1909 gelang es ihm im Dezember 1910, ein Stipendium des Exeter College in Oxford zu erhalten. Mit dem Wissen, dass seine unmittelbare Zukunft damit gesichert war, ging Tolkien in den Rest seiner Schulzeit. Trotz seiner späteren Abneigung gegen das Theater nahm Tolkien bereitwillig in der Rolle des Hermes an einer Aufführung von Aristophanes' Theaterstück "Der Frieden" teil und kehrte auch im Dezember 1911 für eine Aufführung von R. B. Sheridans "The Rivals" durch Mitglieder des T.C.B.S., in der er die Rolle der Mrs. Malaprop übernahm, noch einmal an seine alte Schule zurück. In der Zeit zwischen Schulende und Studienbeginn in Oxford verbrachte Tolkien zusammen mit seinem Bruder und weiteren Freunden einen Wanderurlaub in der Schweiz. Eine Postkarte mit dem Namen "Der Berggeist", auf der ein unter einer Kiefer auf einem Felsen sitzender alter Mann dargestellt ist (das Bild stammt von dem mystisch-esoterisch orientierten deutschen Maler Josef Madlener aus Memmingen), wurde nach seinen späteren Angaben zur Inspiration für die Figur des Zauberers Gandalf in seiner selbsterschaffenen Welt Mittelerde. Studienzeit. Im Oktober 1911 begann Tolkien sein Studium am Exeter College in Oxford, zunächst in "Classics", dem Studium der klassischen Sprachen Latein und Griechisch und ihrer Literatur, langweilte sich aber schon bald. Einzig die Vergleichende Sprachwissenschaft konnte sein Interesse auf sich ziehen. Sein Professor in diesem Fach wies ihn auf das Walisische hin, dem sich Tolkien daraufhin begeistert zuwandte. Nach seinem zweiwöchigen Sommerurlaub 1912, den er bei King Edward’s Horse, einem Kavallerieregiment, hauptsächlich im Pferdesattel verbrachte (was ein wenig Licht auf das Auftreten der Reiterkultur von Rohan im "Herrn der Ringe" werfen könnte), kehrt er nach Oxford zurück. Hier begann er bald, sich mit dem Finnischen auseinanderzusetzen. Dieser Einfluss zeigte sich auch darin, dass er sein Projekt einer auf dem Gotischen aufgebauten Kunstsprache aufgab und sich stattdessen an seiner neuen Lieblingssprache orientierte. Das Ergebnis sollte Jahre später als Quenya, Hochsprache der Elben, Eingang in seine mythologische Welt Mittelerde finden. Weihnachten 1912 verbrachte Tolkien bei Verwandten, wo er nach einem verbreiteten englischen Weihnachtsbrauch als Regisseur und Hauptdarsteller ein selbst geschriebenes Theaterstück zur Aufführung brachte – eine in Anbetracht seiner späteren Abneigung gegen das Drama bemerkenswerte Tatsache. Am 3. Januar 1913, dem Tage seiner Volljährigkeit, schrieb er das erste Mal wieder an seine Jugendliebe Edith, musste aber erfahren, dass sie sich in der Zwischenzeit mit dem Bruder einer Schulfreundin, George Field, verlobt hatte. Nicht geneigt, seine große Liebe aufzugeben, suchte Tolkien sie daraufhin persönlich an ihrem neuen Wohnort auf, wo es ihm gelang, sie umzustimmen. Ein Jahr später, nach der Aufnahme Ediths in die katholische Kirche, fand die offizielle Verlobung statt, nach weiteren zwei Jahren, am 22. Januar 1916, die Hochzeit. Unterdessen verlief auch sein akademischer Weg nicht geradlinig. Durch seine Vernachlässigung des eigentlichen Lehrstoffs zugunsten seiner zahlreichen Sprachinteressen schloss er eine Zwischenprüfung nach zwei Jahren Studium für ihn enttäuschend nur mit einem „Second“ (vergleichbar der deutschen Note „Gut“) ab. Auf Anregung seines Colleges, wo sein Interesse an germanischen Sprachen aufgefallen war, wechselte er daraufhin an das Institut für englische Sprache und Literatur. Dort las er im Rahmen des anspruchsvollen altenglischen Literaturkanons das Werk "Crist" des angelsächsischen Dichters Cynewulf (frühes 9. Jahrhundert), eine Sammlung religiöser Dichtung. Dieser Zeitpunkt kann vorsichtig als Geburtsstunde seiner Mythologie angesetzt werden, denn schon ein Jahr später schrieb er das Gedicht "The Voyage of Earendel the Evening Star", das mit den oben zitierten Zeilen beginnt und den Keim seiner Mittelerde-Mythologie bildet. Seine weitere Studienzeit verlief ruhig; er traf sich weiterhin mit seinen Freunden vom T.C.B.S., die ihn in seinen dichterischen Bemühungen unterstützen. Eine Anekdote aus dieser Zeit wirft ein bezeichnendes Licht auf die auch später noch für Tolkien charakteristische Arbeitsweise: Auf die Frage seines Freundes G. B. Smith nach dem Hintergrund seines Earendel-Gedichtes antwortet Tolkien: „I don’t know. I’ll try to find out.“ – „Ich weiß es nicht. Ich werde versuchen, es herauszufinden.“ Diese Sicht des Schreibens nicht als Neuschöpfung, sondern als Entdeckungsreise blieb für ihn sein Leben lang bestimmend. Im Jahr nach Ausbruch des Ersten Weltkrieges, in der zweiten Juniwoche 1915, schloss er sein Studium ab – diesmal mit Auszeichnung "(First Class Honours)". Erster Weltkrieg. Tolkien wurde als Offizier für Fernmeldewesen in das 11. Bataillon des Regiments der "Lancashire Fusiliers" berufen und nahm ab Sommer 1916 durch aktiven Frontdienst an der Schlacht an der Somme teil, der blutigsten Schlacht des Ersten Weltkrieges. Die unmittelbare Erfahrung der Grausamkeiten des Stellungskrieges traf ihn tief und ließ den Einbruch des Bösen in eine friedvolle Welt zu einem Grundthema seines Lebens und seiner Literatur werden. Am 27. Oktober 1916 zeigte er die Symptome des durch Läuse übertragenen und in den Schützengräben grassierenden Fleckfiebers und wurde am 8. November zur Behandlung nach England verschifft. Während seines Genesungsurlaubes, zunächst in Birmingham und dann in Great Haywood, erfuhr er vom Tod seines T.C.B.S.-Kameraden G. B. Smith, nachdem er noch in Frankreich den Verlust seines Schulfreundes Rob Gilson hatte erfahren müssen. Der letzte Brief von Smith schließt mit den bewegenden Zeilen: „May God bless you, my dear John Ronald, and may you say the things I have tried to say long after I am not there to say them, if such be my lot.“ – „Möge Gott Dich segnen, mein lieber John Ronald, und mögest Du die Dinge sagen, die ich zu sagen versucht habe, lange nachdem ich selbst nicht mehr da sein werde, um sie zu sagen, sollte dies mein Schicksal sein.“ Für Tolkien wurden sie zum Vermächtnis. Er begann mit einem Projekt, das in der Literaturgeschichte ohne große Vorbilder dasteht, der Erschaffung eines vollständigen und mit einer Schöpfung der Welt beginnenden Sagenzyklus. Mit der Niederschrift von "The Book of Lost Tales", das in dieser Form erst postum durch seinen Sohn Christopher veröffentlicht wurde, existierten erstmals größere Teile seiner später in "The Silmarillion" ausgearbeiteten Mythologie. Hier benutzte er auch erstmals konsequent seine erfundenen Sprachen, insbesondere Quenya, das auf dem Finnischen basiert und Sindarin, das auf das Walisische zurückgeht. Beide setzte er nun als Sprache der Elben in "Mittelerde" ein. Unterdessen schwankte sein Gesundheitszustand, und die Gefahr, an die Front zurückgeschickt zu werden, schwebte ständig über ihm. Vorübergehend nach Yorkshire versetzt, erkrankte er bald wieder und wurde in das Sanatorium Harrogate verlegt. Wieder genesen zu einer Fernmeldeschule im Nordosten geschickt, erkrankte er nach Abschluss erneut und kam diesmal in das Offizierskrankenhaus nach Kingston upon Hull. Während dieser Zeit, am 16. November 1917, gebar Edith ihren ersten gemeinsamen Sohn, der zu Ehren von Pater Francis auf den Namen John Francis Reuel getauft wurde. Ihm folgten am 22. Oktober 1920 Michael Hilary Reuel, am 21. November 1924 Christopher John Reuel und schließlich am 22. Dezember 1929 die Tochter Priscilla Anne Reuel. Die Zeit nach der Geburt des ersten Sohnes war durch glückliche Momente geprägt: Bei Landausflügen in die Wälder der Umgebung sang und tanzte Edith für ihn – daraus entstand schließlich die Geschichte der großen Liebe zwischen dem sterblichen Helden Beren und der wunderschönen, aber unsterblichen Elbin Lúthien, die als ein Mittelpunkt des Silmarillions gelten kann. Nach weiteren Versetzungen im Frühjahr 1918, nach Penkridge in der Grafschaft Staffordshire und wieder zurück nach Hull, erkrankte Tolkien erneut und musste wiederum ins Offizierskrankenhaus eingewiesen werden. Er nutzte die Zeit diesmal, um sich neben der Arbeit an seiner Mythologie etwas Russisch beizubringen. Nach seiner Entlassung im Oktober stand schließlich fest, dass das Ende des Krieges kurz bevorstand. Auf der Suche nach Arbeit wandte er sich daraufhin an einen seiner ehemaligen Oxforder Dozenten, William A. Craigie, der ihm eine Anstellung beim "New English Dictionary" verschaffte, so dass Tolkien im November 1918 mit Frau und Kind nach Oxford umziehen konnte. Bis 1930 lebten die Tolkiens in der Northmoor Road 22 in Oxford. Dann zogen sie ein Haus weiter in die Northmoor Road 20 Frühe Berufsjahre. Auch wenn sich in seiner Satire "Farmer Giles of Ham" einige ironische Anspielungen auf seine Zeit beim "New English Dictionary" finden, war dies doch insgesamt eine glückliche Zeit. Zum ersten Mal dauerhaft mit Edith vereint und im eigenen Haus lebend, fand er seine Tätigkeit auch intellektuell anregend. Später sollte er über die beiden Jahre, in denen er an der Produktion des Wörterbuchs beteiligt war, sagen, er habe zu keiner Zeit seines Lebens mehr gelernt. Tagfüllend waren die gestellten Aufgaben für ihn jedoch nicht, so dass er nebenbei noch Zeit fand, als Privatlehrer Studenten zu unterrichten – eine Tätigkeit, die sich als lukrativ genug herausstellte, um im Jahre 1920 die Mitarbeit am "New English Dictionary" beenden zu können. Doch wenn auch die finanzielle Situation akzeptabel war, hatte Tolkien seinen Wunsch, eine akademische Laufbahn anzutreten, nicht aufgegeben. Da ergab sich überraschend im Sommer des Jahres 1920 eine Möglichkeit: In Leeds war die Stelle eines»Reader«(vergleichbar dem deutschen Professor der Besoldungsstufe C3/W2) am Institut für englische Sprache freigeworden. Obwohl er anfänglich skeptisch hinsichtlich seiner Chancen war, erhielt er die Stelle. Dies bedeutete allerdings auch eine weitere Trennung von Edith, die mit den beiden Söhnen in Oxford zurückblieb, bis sie 1921 nachziehen konnte. Von seinem Vorgesetzten wurde er zunächst mit der Organisation des Studienplans für Alt- und Mittelenglisch betraut. 1922 kam der Kanadier Eric Valentine Gordon als Dozent nach Leeds. Mit ihm erarbeitete Tolkien eine Neuedition des mittelenglischen Gedichts "Sir Gawain and the Green Knight", die nach ihrer Veröffentlichung 1925 bald als herausragender Beitrag zur mittelenglischen Philologie galt. Auch privat kamen sich die beiden Kollegen näher und formten zusammen mit Studenten den Viking-Club, in dem außer reichlichem Biergenuss altnordische Trinklieder und teilweise recht derbe Gesänge in altenglischer Sprache im Mittelpunkt standen, ein Umstand, der vermutlich nicht unwesentlich zur Beliebtheit Tolkiens bei seinen Studenten beitrug. Nach vier Jahren in Leeds, im Jahr 1924, wurde für Tolkien schließlich eine Professur für englische Sprache eingerichtet. In Gedichten aus dieser Zeit finden sich die ersten Hinweise auf Kreaturen, die später in seiner Mittelerde-Mythologie ihren Platz finden sollten: Das Gedicht "Glib" zum Beispiel beschreibt ein schleimiges Wesen mit schwach-leuchtenden Augen, das tief in einer Höhle lebt, und erinnert damit an die Figur des Gollum. Seine»seriöse«Mythologie, die Anfang der 1980er Jahre im "Buch der verschollenen Geschichten" veröffentlicht wurde, war unterdessen fast fertiggestellt. Zwei der Sagen, die Geschichte von Túrin Turambar und die Erzählung von Lúthien und Beren, wählte er aus, um sie in eine ausführlichere Gedichtform zu übersetzen. 1925 wurde plötzlich der Rawlinson-und-Bosworth-Lehrstuhl für Angelsächsisch in Oxford vakant. Tolkien bewarb sich und erhielt, wohl unter anderem durch die Reputation seiner "Sir Gawain"-Übersetzung, den Posten zugesprochen. 1926 gründete Tolkien im Kollegenkreis die "Kolbitar" (isländisch für „Kohlenbeißer“), eine informelle Runde, die sich regelmäßig traf, um die isländischen Sagas in der altnordischen Originalsprache zu lesen. Seit 1927 gehörte dieser Gruppe auch Clive Staples Lewis "(Die Chroniken von Narnia)" an, seit 1926 ein Kollege Tolkiens, der bald zu seinem engsten Freund wurde. Lewis unterstützte ihn auch bei einer Lehrplanreform, die stärkeres Gewicht auf die Verbindung von Sprach- und Literaturwissenschaft legte und die, von Tolkien initiiert, 1931 von der Fakultät angenommen wurde. Es sollten jedoch nicht diese beruflichen Errungenschaften sein, auf denen Tolkiens späterer Ruhm gründet. Seine beiden Hauptwerke, der "Hobbit" und der "Herr der Ringe", haben beide ihre Wurzel im heimischen Familienkreis, in der Vaterrolle, die Tolkien gegenüber seinen Kindern vorbildlich ausfüllte. Zweites Wohnhaus Tolkiens in Oxford "Der Hobbit" und "Der Herr der Ringe". In den frühen 1920er und 1930er Jahren begann Tolkien, seinen Kindern regelmäßig fantasievolle Geschichten zu erzählen, die allerdings meist außerhalb der Mythenwelt spielen, an der er zu dieser Zeit bereits ernsthaft arbeitete. Aus dieser Zeit stammt unter anderem die Erzählung "Roverandom", die auf das Verschwinden eines Spielzeughundes seines zweiten Sohnes Michael zurückgeht. Während sich in dieser Erzählung nur ein oder zwei kryptische, damals nur für ihn selbst verständliche Bezugnahmen auf die größere Mythologie finden, verweist die 1930 begonnene Geschichte "Der Hobbit" schon mehrfach auf Ereignisse aus seiner ernsthaften Mythologie, so in den Verweisen auf die Elbenstadt Gondolin, die zu dieser Zeit bereits Teil seiner später im Ersten Zeitalter von Mittelerde angesiedelten Sagenwelt ist, und die Gestalt des Nekromanten. Durch Vermittlung einer ehemaligen Studentin wurde der Verlag "Allen & Unwin" auf seine Erzählung aufmerksam, die nach positiver Rezension durch den Sohn des Verlegers, Rayner Unwin, im Jahre 1937 veröffentlicht wurde. Auf dringenden Wunsch des Verlages begann Tolkien mit der Arbeit an einer Nachfolgeerzählung, die zunächst wie "The Hobbit" als Kinderbuch angelegt war. Gegen Ende der 1930er Jahre und nach Inspiration durch C. S. Lewis, der mit ihm nun in dem literarischen Zirkel der "Inklings" verbunden war, einer Gruppe, zu der neben Lewis und Tolkien auch Charles Williams, Owen Barfield, Hugo Dyson und Adam Fox gehörten, hielt er den vielbeachteten Vortrag "On Fairy-Stories", in dem er die Grundsätze des später entstehenden Fantasy-Genres beschrieb und energisch gegen Vorwürfe des Eskapismus (Realitätsflucht) verteidigte. Während des Zweiten Weltkrieges zog sich die Arbeit an seinem Nachfolgeprojekt für den "Hobbit" hin, das jetzt den Namen "The Lord of the Rings" trug. Durch andere Aufgaben wurde diese Arbeit immer wieder unterbrochen. Tolkiens drittes Haus in Oxford 1945 wechselte er, immer noch in Oxford, auf die Professur für Anglistik. Erst im Jahre 1954 wurde "The Lord of the Rings" veröffentlicht. Die Verzögerung hatte zum einen mit Tolkiens Perfektionismus, zum anderen aber auch mit Tolkiens Wunsch nach einem Verlagswechsel zu tun, der durch die vermeintliche Ablehnung seines ernsthaften Mythenwerkes "The Silmarillion" motiviert war. Als sein alter Verleger Allen&Unwin ein Ultimatum zur Veröffentlichung seiner Gesamtmythologie "(The Lord of the Rings" und "The Silmarillion)" ohne Möglichkeit zur Ansicht des Manuskripts ablehnte, trug Tolkien sein Werk dem Verlagshaus Collins an. Nach anfänglichem Enthusiasmus bestand man dort jedoch auf weitreichenden Kürzungen, zu denen Tolkien nicht bereit war, so dass er sich reumütig wieder an seinen alten Verlag wandte. Rayner Unwin, der als Kind den "Hobbit" begutachtet hatte, war mittlerweile zum Juniorverleger aufgestiegen und nahm das Buch ohne weitere Korrekturen an. Auf Grund der infolge des Krieges exorbitanten Papierpreise in England wurde das Werk in drei Bänden "(The Fellowship of the Ring", "The Two Towers" und "The Return of the King)" veröffentlicht, so dass jeder Einzelband zu erschwinglichen Preisen angeboten werden konnte. Daher stammt die fälschlicherweise gebrauchte Kategorisierung des Gesamtwerks als Trilogie, welche Tolkien Zeit seines Lebens ablehnte. Ursprünglich hatte er das Werk in sechs Bücher unterteilt. 1964 fragte der amerikanische Verleger Donald A. Wollheim von Ace Books nach der Erlaubnis, "The Lord of the Rings" als Taschenbuch in den Staaten zu veröffentlichen. Tolkien lehnte mit der Begründung ab, dass er keine Ausgabe seines Werkes in derart degenerierter Form wünsche. Diese Zurückweisung ärgerte Wollheim – Pionier des Taschenbuchs in den USA – derart, dass er nach einem Schlupfloch in den Urheberrechten daran suchte. Tatsächlich waren die Taschenbuchrechte für die Vereinigten Staaten nicht eindeutig geregelt. Wollheim schloss daraus, die Rechte für die Staaten seien frei, und legte mit dem, was später als Raubdruck bezeichnet wurde, die Grundlage für den immensen Erfolg des Buches in den Vereinigten Staaten (der resultierende Rechtsstreit wurde später zuungunsten von Ace Books entschieden). Wollheims unautorisierte Kopie von "The Lord of the Rings" löste eine Kultbewegung unter den Studenten aus, was Tolkien schnell zu einer Berühmtheit machte. Durch enge Anbindung an seine immer zahlreicher werdenden Fans, die zu seinen Gunsten erheblichen Druck auf den Verleger der Piratenausgabe ausübten, erreichte es Tolkien jedoch entgegen der für ihn ungünstigen Rechtslage, dass die Piratenedition eingestellt wurde, so dass bald nur noch die durch ihn autorisierte Fassung auf dem US-amerikanischen Markt erhältlich war. Letzte Jahre. Sein weiteres Leben verbrachte Tolkien mit dem Ausarbeiten des "Silmarillion", das er jedoch bis zu seinem Lebensende nicht mehr fertigstellte und das erst nach seinem Tod von seinem Sohn Christopher Tolkien herausgegeben wurde. Für ein paar Jahre zogen er und seine Frau Edith in das englische Seebad Bournemouth. Dort starb Edith 1971, woraufhin Tolkien zurück nach Oxford zog. 1972 wurde ihm von Königin Elisabeth II. der Rang eines Commander des Order of the British Empire verliehen. Somit hatte er das Recht, die entsprechende Abkürzung seinem Namen hinzuzufügen (John Ronald Reuel Tolkien, CBE). Er war jedoch kein Ritter und hatte auch keinen Adelstitel. In einem Interview, das Tolkien kurz vor seinem Tode gab, betonte er noch einmal seine enge Verbundenheit mit der Kirche: „Ich bin ein überzeugter römisch-katholischer Christ.“ Für die 1966 erschienene englischsprachige Ausgabe der Jerusalemer Bibel, die wichtigste internationale evangelisch-katholische Bibeledition der Gegenwart, hatte er das Buch Jona übersetzt. Tolkien arbeitete auch an einer Fortsetzung des "Herrn der Ringe". Darin sollte erzählt werden, wie einige Jahre nach dem Tod der Protagonisten der Trilogie ein Geheimbund aus Jugendlichen versucht, Sauron seine alte Stärke zurückzugeben. Das Romanfragment, das die Anfang der 1970er verbreiteten Ängste vor Jugendreligionen reflektiert, wurde 1996 posthum unter dem Titel "The New Shadow" veröffentlicht. Tod. Das Grab von Edith und J. R. R. Tolkien in Oxford Am 2. September 1973 starb Tolkien im Alter von 81 Jahren nach kurzer Krankheit in einem privaten Krankenhaus in Bournemouth, wohin er für einen kurzen Urlaub zurückgekehrt war. Sein ältester Sohn, John Francis Reuel (1917–2003), der am 10. Februar 1946 zum katholischen Priester geweiht worden war, las bei der Beerdigung seines Vaters die Messe. Das Grabmal von J. R. R. Tolkien und seiner Frau befindet sich auf dem katholischen Teil des "Wolvercote Cemetery" auf dem Jordan Hill in Oxford; auf den Grabsteinen stehen neben ihren Namen auch die Namen Beren und Lúthien – Zeichen für eine den Tod überdauernde Liebe. Postum erhielt Tolkien noch einige Ehrungen, unter anderem mehrere britische Preise von Channel 4, Waterstone’s, der Folio Society und der Zeitschrift „SFX“, die ihn als herausragendsten und prägendsten Schriftsteller des Jahrhunderts auszeichneten. Christopher Tolkien, der bereits zu Lebzeiten seines Vaters dessen Schriftstücke bearbeitet hatte, veröffentlichte ab 1977 unter anderem das "Silmarillion" und von 1983 bis 1996 auch die "History of Middle-earth". Dem Leben und Werk J. R. R. Tolkiens widmet sich in Deutschland seit 1997 die Deutsche Tolkien Gesellschaft (DTG). Große Teile des Nachlasses (Manuskripte, Korrespondenz, Korrekturfahnen und andere Materialien in Verbindung u. a. mit Roverandom und Sigelwara Land) befinden sich in der Bodleian Library in Oxford. Werkverzeichnis. Im Folgenden sind sowohl Tolkiens akademische Veröffentlichungen wie auch seine literarischen Werke aufgeführt. Juri Alexejewitsch Gagarin. Juri Alexejewitsch Gagarin (; wiss. Transliteration '; * 9. März 1934 in Kluschino bei Gschatsk, Russische SFSR; † 27. März 1968 bei Nowosjolowo, Oblast Wladimir, Russische SFSR) war ein sowjetischer Kosmonaut. Er war der erste Mensch im Weltraum, Held der Sowjetunion und Oberst der sowjetischen Luftstreitkräfte. Leben. Er wurde am 9. März 1934 als Sohn einer russischen Bauernfamilie im Dorf Kluschino geboren, sein Vater Alexei Iwanowitsch Gagarin (1902–1973) war im dortigen Kolchos Zimmermann, die Mutter Anna Timofejewna Gagarina, geb. Matwejewa (1903–1984) war Melkerin. Er hatte drei Geschwister: die Brüder Walentin (1924–2006) und Boris (1936–1977) und die Schwester Soja (* 1927). Am 1. September 1941 wurde er in die Dorfschule von Kluschino eingeschult, der Schulbesuch wurde aber durch den Zweiten Weltkrieg und die Besetzung des Dorfes am 12. Oktober 1941 durch deutsche Soldaten unterbrochen. Walentin und Soja wurden im Februar 1943 zur Zwangsarbeit nach Deutschland verschleppt. Sie kehrten nach dem Krieg zurück. Erst nach der Befreiung des Dorfes durch die Rote Armee am 9. April 1943 konnte der Schulunterricht fortgesetzt werden. In die Zeit des Krieges fällt auch ein prägendes Erlebnis: Gagarin sah, wie ein sowjetischer Jagdflieger in seiner Nähe landete, um einen anderen notgelandeten Flieger mitzunehmen und so vor deutscher Gefangenschaft zu retten. Nach einem Umzug in die Stadt Gschatsk (heute Gagarin) im Sommer 1945 besuchte Gagarin für sechs Klassen die Mittelschule. Als 1946 eine Bewerbung Sojas um eine Stelle als Krankenschwester fehlschlug, nachdem sie wahrheitsgemäß in einem Fragebogen angegeben hatte, Okkupation und Gefangenschaft erlebt zu haben, fasste er dies späteren Berichten seiner Mutter zufolge als Warnung auf. Er zog 1949 aus Gschatsk nach Luberzy, einen Vorort Moskaus, wo ihn keiner kannte, und machte dort eine zweijährige Ausbildung an einer Handwerkerschule in Luberzy, die er 1951 mit der Facharbeiterprüfung als Gießer abschloss. Anschließend, nachdem er in seinem Antrag auf einen Studienplatz in einer Notlüge seinen Vater als Kriegsinvaliden ausgegeben und zwei seiner Geschwister verschwiegen hatte, studierte er am Industrietechnikum in Saratow und erhielt dort 1955 ein Diplom als Gießereitechniker. Pilot. Während des Studiums wurde er Mitglied des Aeroklubs in Saratow und bestand seine erste Flugprüfung am 3. Juni 1955. Im gleichen Jahr trat er in die sowjetischen Streitkräfte ein und wurde in die Fliegerschule in Orenburg aufgenommen. Am 7. November 1957 wurde Gagarin zum Leutnant befördert. Ebenfalls im Jahr 1957 heiratete er am 7. November die Ärztin Walentina Iwanowna Gorjatschowa. Von 1957 bis 1959 diente Gagarin bei einem Jagdfliegerregiment der Nordflotte. Er war in der Oblast Murmansk am Polarkreis stationiert. Hier wurde Gagarin Mitglied der KPdSU. Am 10. April 1959 wurde seine Tochter Jelena geboren, am 12. März 1961, genau einen Monat vor seinem Raumflug, seine zweite Tochter Galina, genannt Galja. Erster Kosmonaut. 1960 wurde Gagarin als potenzieller Kosmonaut ausgewählt. Am 3. März kam er auf Befehl des Oberkommandierenden der Luftstreitkräfte Konstantin Andrejewitsch Werschinin in die Gruppe der Kosmonautenkandidaten und erhielt vom 11. März 1960 bis Januar 1961 eine entsprechende Ausbildung. Er wurde vor allem wegen seines ruhigen Temperaments aus den 20 möglichen Kandidaten ausgewählt. Am 12. April 1961 absolvierte der 1,57 m große Pilot mit dem Raumschiff Wostok 1 seinen spektakulären Raumflug und umrundete dabei nach offiziellen Angaben in 108 Minuten (eigentlich 106) einmal die Erde. Er landete im Wolga-Gebiet, in der Nähe der Städte Saratow und Engels. Auf dem Landeplatz steht heute ein Denkmal, und der Jahrestag seines Raumfluges wird dort heute noch jährlich mit einer kleinen Feier begangen. Gagarin war bis 1963 Kommandeur der sowjetischen Kosmonautengruppe und studierte danach an der Militärakademie für Ingenieure der Luftstreitkräfte „Prof. N. J. Schukowski“. Er war als Ersatzpilot des 1967 beim Flug von Sojus 1 tödlich verunglückten Kosmonauten Wladimir Michailowitsch Komarow vorgesehen. Tod. Am 27. März 1968 verunglückte Gagarin bei einem Übungsflug mit einer MiG-15UTI und starb. Gagarin war im Februar 1968 zum Ausbilder der Kosmonauten ernannt worden, doch bevor er diesen Posten antrat, wollte er noch seine Ausbildung zum Kampfpiloten zu Ende bringen. Diese war wegen seines Kosmonautenprogramms abgebrochen worden. Der Flugzeugtyp MiG-15UTI galt aufgrund seiner geringen Absturzquote als das sicherste Kampfflugzeug der UdSSR. Gagarins Flugausbilder und Copilot war der Regimentskommandeur und Held der Sowjetunion Oberst Wladimir Serjogin, ein routinierter MiG-15-Pilot mit rund 4000 Flugstunden und Kriegserfahrung. Die Umstände des Absturzes sind bis heute nicht genau geklärt. Die Regierung ließ damals lediglich „eine unglückliche Verkettung verhängnisvoller Umstände“ als Ursache verlautbaren; der Untersuchungsbericht wurde erst zum 50. Jubiläum des ersten bemannten Raumfluges veröffentlicht (fast 43 Jahre später), die damalige Erklärung jedoch nie offiziell korrigiert. Dies bot unweigerlich Stoff für eine Vielzahl von Spekulationen, Legenden und Verschwörungstheorien zur Absturzursache. Im Zuge der Perestroika-Politik von Gorbatschow konnte 1985 Gagarins Kosmonautenkollege Alexei Leonow (der ein Mitglied der Regierungskommission war) eine Einsichtnahme des Untersuchungsberichts der Umstände von Gagarins Absturz erfolgreich durchsetzen. Dabei stellte sich heraus, dass eine Reihe von Sicherheitsstandards verletzt worden waren, die schließlich zu seinem Absturz führten. Neben Gagarins MiG-15 befanden sich am Unglückstag vier weitere Abfangjäger vom Typ Suchoi in der Luft, einer davon (welchen er als Suchoi Su-15 identifizierte) kam Gagarins Flugzeug bis auf wenige Meter nahe. Nach seiner Meinung geriet die MiG durch die Turbulenzen, die von der doppelt so schnellen und großen Suchoi verursacht wurden, ins Trudeln und in den freien Fall. Leonow, der am Tag des Absturzes ein Fallschirmtraining mit Kosmonauten machte, hörte „zwei laute Knalle in der Ferne“ im Abstand von nur ein bis zwei Sekunden, doch musste er zu seiner Überraschung im Abschlussbericht entdecken, dass seine Aussage auf 15 bis 20 Sekunden Abstand geändert worden war. Nach dem Beinahezusammenstoß zeigte der Höhenmesser der MiG-15 nur verzögert die wirkliche Höhe an und auch das Höhenradar der Leitwarte war an diesem Tag ausgefallen, daher gingen Gagarin und sein erfahrener Copilot von mehr Spielraum aus, als sie in Wirklichkeit hatten. Leonow glaubt, dass der erste Knall vom Jet beim Durchbrechen der Schallmauer war, und der zweite von Gagarins Flugzeugabsturz. Berechnungen ergaben, dass er nur zwei zusätzliche Sekunden zur Stabilisierung des Sturzfluges gebraucht hätte. Andere Experten wie Stepan Mikojan (ebenfalls Mitglied der Regierungskommission) hingegen äußerten Zweifel daran, dass das Flugzeug Gagarins und Serjogins wegen eines anderen Flugzeuges ins „Trudeln“ geraten sei. Als wahrscheinlichste Ursache, die zu der Katastrophe geführt hat, nennt Mikojan in seinen Memoiren, Ausweichen und/oder Kollision mit einem Wetterballon. Noch im März 2008 behauptete ein Mitglied der Untersuchungskommission, General Eduard Scherscher, dass grobe Fahrlässigkeiten der Piloten ursächlich waren, dies aber nicht zugegeben werden sollte, um deren Heldenstatus nicht zu gefährden. Im April 2011, zum 50. Jahrestag des „Ersten bemannten Raumfluges“, gab Russland den vollständigen Kommissionsbericht vom 4. September 1968 über den Tod des Kosmonauten frei: „Er war ein höchst unerfahrener Pilot.“ Die Dokumente zeigen, dass die Kommission ursprünglich zum Schluss kam, dass entweder Gagarin oder Serjogin scharf manövriert hatte, um wahrscheinlich einem Wetterballon auszuweichen, was den Jet in einen "„super-kritischen Flugzustand brachte und unter schwierigen Wetterbedingungen zum Abwürgen führte.“" Der Bericht schlägt auch vor, der Jet könnte scharf manövriert haben, um "„einen Eintritt in die unterste Wolkendecke“" zu vermeiden. In der Sowjetunion wurde Nationaltrauer ausgerufen. Dies war das erste Mal in der sowjetischen Geschichte, dass ein Tag der Trauer bei einem Verstorbenen erklärt wurde, bei dem es sich nicht um ein Staatsoberhaupt handelte. Gagarins Urne befindet sich in der Kremlmauer auf dem Roten Platz in Moskau. Würdigungen. Noch während des Raumfluges wurde Gagarin vom Oberleutnant zum Major befördert. Nach seiner erfolgreichen Landung bei Saratow wurde Gagarin nun in der ganzen Welt bekannt, insbesondere in den Ländern des Ostblocks wurde er zum Idol. Dazu trug nicht zuletzt eine ganze Reihe in der Sowjetunion erschienener, den Prinzipien der Vorbildliteratur gehorchender Gagarin-Biographien bei, darunter auch seine Autobiographie "Der Weg in den Kosmos". Seit 1962 wurde der 12. April in Erinnerung an Gagarins Raumflug sowohl in der Sowjetunion als auch im heutigen Russland als offizieller Feiertag begangen, der Tag der Kosmonauten. Die erste Erdumkreisung war ein wichtiger Prestigeerfolg der sowjetischen Raumfahrt in der Zeit des Kalten Kriegs; das amerikanische Programm Man In Space Soonest war nicht erfolgreich. Nach dem Sputnik-Schock war dies bereits der zweite Erfolg, und die UdSSR konnte eine technologische Überlegenheit zur Schau stellen. Gagarin erhielt den Leninorden, und ihm wurde am 14. April 1961 der Titel "Held der Sowjetunion" verliehen. Er unternahm in der Zeit nach seiner Landung als Sympathieträger zahlreiche Promotionsreisen in der ganzen Welt, während derer er sowohl für die Erforschung des Weltraums als auch für das politische System der Sowjetunion warb. Reisen führten Gagarin unter anderem nach Österreich, England, Indien zu Jawaharlal Nehru und nach Kuba, wo er mit Fidel Castro zusammentraf. Gagarin wurde auch auf mehreren russischen Münzen verewigt. Für seine Verdienste um die Raumfahrt wurde er mit der Ziolkowski-Medaille ausgezeichnet. Ein Krater auf der abgewandten Seite des Mondes wurde nach ihm benannt, ebenso der Asteroid (1772) Gagarin. Die Militärakademie der Luftstreitkräfte „J. A. Gagarin“ in Monino trägt seinen Namen. In Belgrad trägt ein Boulevard den Namen „Bulevar Jurija Gagarina“. Am 8. Mai 1961 wurde die Zschopauer Straße in Karl-Marx-Stadt in Juri-Gagarin-Straße umbenannt, nach der Wende aber wieder zurückbenannt. 1964 wurde eine Ringstraße in der Innenstadt Erfurts zu Ehren Gagarins, der die Stadt 1963 besuchte, in Juri-Gagarin-Ring umgetauft. Zudem steht in Erfurt ein Gagarin-Denkmal, und die 2013 frisch sanierte Fassade eines Wohngebäudes zeigt ein riesiges Porträt Gagarins. Auch in anderen Städten der ehemaligen DDR gibt es bis heute nach dem Kosmonauten benannte Straßen, so beispielsweise in Pirna, Radeberg, Neubrandenburg, Wismar, Fürstenwalde, Gera, Potsdam, Schwerin, Schkeuditz, Bad Frankenhausen oder in Cottbus. Viele Schulen und Kindergärten in der DDR wurden ebenfalls nach Juri Gagarin benannt. Davon tragen heute noch einige seinen Namen. So z. B. Kindergärten in Strausberg und Greiz, und Schulen in Bautzen, Zwickau, Stendal, Rostock, Stralsund und Spree. 1968 wurde die Stadt Gschatsk in "Gagarin" umbenannt, und das Ausbildungszentrum für Kosmonauten, im Sternenstädtchen bei Moskau, erhielt den Namen Juri-Gagarin-Kosmonautentrainingszentrum. Zu Ehren Gagarins wurde im Juli 1980 auf dem Gagarin-Platz am Lenin-Prospekt in Moskau das futuristische Gagarin-Monument aufgestellt. Das 13 Meter hohe Denkmal des Bildhauers Pawel Bondarenko besteht aus Titan und steht auf einer 38 Meter hohen, ebenfalls mit Titan verkleideten Säule. Außerdem wurde das Forschungsschiff "Kosmonawt Juri Gagarin", welches zur Satelliten- und Raketensteuerung genutzt wurde, nach ihm benannt. Der französische Musiker Jean Michel Jarre veröffentlichte im Jahre 2000 den Titel "Hey Gagarin". Das Esbjörn Svensson Trio veröffentlichte im Jahr 1999 ein Album mit dem Titel "From Gagarin’s Point of View". Die 2008 gegründete Kontinentale Hockey-Liga, die höchste Spielklasse im russischen Eishockey, benannte die erstmals am Ende der 09 vergebene Meisterschaftstrophäe nach Juri Gagarin. Trivia. Vor seinem Raumflug im Jahr 1961 musste Gagarin noch rasch auf die Toilette. Diese „Pinkelpause“ wird seitdem auf dem Weg zur Startrampe aus Tradition von allen Kosmonauten eingehalten. Januar. __KEIN_INHALTSVERZEICHNIS__ Der Januar, regional auch Jänner genannt, lateinisch "(mensis) Ianuarius," veraltet auch "Hartung, Hartmonat, Schneemonat, Eismond, Wintermonat" oder "Wolfsmonat," ist der erste Monat des Jahres im gregorianischen und julianischen Kalender. Er hat 31 Tage. Benannt ist er nach dem römischen Gott Janus, der mit zwei Gesichtern dargestellt wird. Er gilt als Gott des Anfangs und des Endes, der Ein- und Ausgänge, der Türen und der Tore. Im Amtsjahr des römischen Kalenders war der Ianuarius ursprünglich der elfte Monat und hatte 29 Tage. Mit der Umstellung des Jahresbeginns vom 1. März auf den 1. Januar im Jahre 153 v. Chr. wurde der Ianuarius zum ersten Monat des Kalenders. Nach Cäsars Kalenderreform erfolgte im julianischen Kalender ab dem Jahr 45 v. Chr. durch Einschub von zwei Zusatztagen eine Verlängerung des Monats auf 31 Tage. Der Januar beginnt seither immer mit demselben Wochentag wie der Mai des Vorjahres. In Schaltjahren außerdem mit demselben Wochentag wie der April und der Juli desselben Jahres, sonst wie der Oktober (siehe Doomsday-Methode). Welche Woche als erste Kalenderwoche des neuen Jahres gilt, hängt vom Wochentag des 1. Januars ab. Wenn er auf Montag bis Donnerstag fällt, gehört er zur ersten Kalenderwoche des neuen Jahres (ISO 8601), da diese Woche dann mindestens vier Tage im neuen Jahr hat. Jänner. Die Form "jennare > Jänner" wurde schon in mittelhochdeutscher Zeit aus der spätlateinischen Variante übernommen, auf welche etwa auch oder und zurückgehen, während "Januar" eine gelehrte Entlehnung aus dem 18. Jahrhundert aus klassisch lateinisch ist. Das Wort Januar verdrängte in der Folge "Jänner" zuerst im Norden des deutschen Sprachraums und hat sich schließlich fast überall durchgesetzt. Selbst im Süden, in Bayern und in der Schweiz, wird "Jänner" schriftsprachlich nur noch selten gebraucht. In anderen Teilen des oberdeutschen Sprachraums, so in Österreich und Südtirol, ist hingegen der "Jänner" nach wie vor die allgemein umgangssprachlich und in der Schriftsprache verwendete übliche Bezeichnung für den ersten Monat des Jahres – anders als beim zweiten Monat "Feber," dessen Gebrauch seltener wird. So mancher Lektor ersetzt den „Jänner“ durch den „Januar“, wohl weil er den überregionalen deutschen Sprachraum bzw. Buchmarkt sieht. Vielleicht als Gegenbewegung dazu wird in Österreich das Wort Januar immer weniger genutzt. Feiertage. Gesetzlicher Feiertag in allen deutschsprachigen Ländern ist der Neujahrtag am 1. Januar. In Baden-Württemberg, Bayern, Sachsen-Anhalt, ganz Österreich und einigen Schweizer Kantonen ist auch der Tag der Heiligen Drei Könige am 6. Januar gesetzlich als Feier- beziehungsweise Ruhetag anerkannt. In anderen Teilen der Schweiz ist der Berchtoldstag am 2. Januar ein arbeitsfreier Tag. Weitere Feier- und Gedenktage siehe und Liste von Gedenk- und Aktionstagen. Klima. Der Januar ist nördlich des nördlichen Wendekreises, also in Europa, Nordamerika und dem größten Teil Asiens, der kälteste Monat des Jahres und des Nordwinters. Varia. Für den Januar gibt es zahlreiche Bauernregeln, die vom Januarwetter auf das restliche Jahr und die entsprechende Ernte schließen, siehe Liste von Bauernregeln. Juni. Der Juni ist der sechste Monat des Jahres im gregorianischen Kalender. Er hat 30 Tage und enthält den Tag der Sonnenwende (21. Juni, abhängig von der Himmelsmechanik auch am 20. oder 22. Juni möglich), der auf der Nordhalbkugel der längste Tag mit der kürzesten Nacht des Jahres ist. Benannt ist er nach der römischen Göttin Juno, der Gattin des Göttervaters Jupiter, Göttin der Ehe und Beschützerin von Rom. Zur Regierungszeit Kaiser Neros wurde der Monat in "Germanicus" umbenannt, einer der Namen des Kaisers, das sich allerdings nicht durchsetze. Unter Kaiser Commodus hieß der Monat dann "Aelius", wiederum einer seiner Namen, auch diese Umbenennung wurde nach dem Tod des Kaiser wieder rückgängig gemacht. Der alte deutsche Monatsname ist "Brachet" oder "Brachmond", da in der Dreifelderwirtschaft des Mittelalters in diesem Monat die Bearbeitung der Brache begann. In Gärtnerkreisen spricht man auch vom "Rosenmonat", da die Rosenblüte im Juni ihren Höhepunkt erreicht; aus diesem Grund wurde der Juni früher auch "Rosenmond" genannt. Im römischen Kalender war der Iunius ursprünglich der vierte Monat und hatte 29 Tage. Zur deutlichen akustischen Unterscheidung des "Juni", der sich nur in einem Konsonanten vom Monatsnamen "Juli" unterscheidet, wird er umgangssprachlich manchmal auch als "Juno" oder ausgesprochen, während der "Juli" sich mit der ebenfalls manchmal umgangssprachlich verwendeten Aussprache "Julei" oder deutlich abgrenzt. Kein anderer Monat des laufenden Kalenderjahres beginnt mit demselben Wochentag wie der Juni. Der Februar des Folgejahres hingegen beginnt mit dem gleichen Wochentag wie der Juni des laufenden Jahres. Feier- und Gedenktage. Der Juni enthält in den deutschsprachigen Ländern keine festen Feiertage. Von den beweglichen fällt in seltenen Fällen Christi Himmelfahrt, häufiger jedoch Pfingsten und Fronleichnam in den Juni. In vielen Gegenden wird die Sommersonnenwende und der Johannistag gefeiert. Weitere Feier- und Gedenktage siehe und Juni. Juli. Der Juli ist der siebte Monat des Jahres im gregorianischen Kalender. Er hat 31 Tage und ist nach dem römischen Staatsmann Julius Caesar benannt, auf den die Kalenderreform des Jahres 46 v. Chr. zurückgeht (siehe römischer Kalender, julianischer Kalender). Unter Kaiser Commodus wurde der Name des Monats in "Aurelius" geändert, einer seiner Namen, nach dem Tod des Kaiser erhielt der Monat seinen alten Namen zurück. Der alte deutsche Name ist "Heuet" oder "Heuert" oder auch "Heumonat" genannt, da im Juli die erste Heu-Mahd eingebracht wird. Andere alte Namen für den Juli sind "Bären-" oder "Honigmonat", wobei Letzteres, besonders in der Form "Honigmond", auch den Monat nach der Hochzeit, die Flitterwochen bezeichnet. Im römischen Kalender, dessen Jahr mit dem März begann, war der Iulius ursprünglich der fünfte Monat und hatte vor seiner Umbenennung im Jahre 44 v. Chr. (vom Konsul Marcus Antonius eingebrachte "Lex Antonia de mense Quintili" „über den Monat Quintilis“) den Namen "Quintilis" zu lat. "quintus" „der fünfte“. Im Jahr 153 v. Chr. wurde der Jahresbeginn allerdings um zwei Monate vorverlegt, so dass die Beziehung zwischen Namen und Zählung entfiel. Bei der Übertragung früher verwendeter lateinischer Datumsangaben („7ber“) wird dies manchmal übersehen. Kommt es auf deutlich hörbare Unterscheidbarkeit zum Monatsnamen "Juni" an, wird der "Juli" umgangssprachlich manchmal als "Julei" ausgesprochen (und der "Juni" als "Juno"). Der Juli beginnt mit demselben Wochentag wie der April und in Schaltjahren auch wie der Januar (Jänner). Feiertage und Sommerferien. Juli und August bilden durch die langen Sommerferien die Hauptferienzeit und in vielen Urlaubsgebieten die Hochsaison. Der Juli ist jedoch in allen deutschsprachigen Ländern frei von Feiertagen. Weltweit gibt es mehrere Nationalfeiertage, beispielsweise der US-amerikanische Unabhängigkeitstag am 4. Juli und der französische Nationalfeiertag zum Sturm auf die Bastille am 14. Weitere Feier- und Gedenktage siehe und Juli. Klima. Der Juli ist nördlich des nördlichen Wendekreises, also in Europa, Nordamerika und dem größten Teil Asiens, der wärmste Monat des Jahres. Das Juliwetter hat wesentlichen Einfluss auf die Menge und die Güte der Ernte. Dies spiegelt sich in zahlreichen Bauernregeln, siehe dazu Wetter- und Bauernregeln für den Juli. Gaius Iulius Caesar. Gaius Iulius Caesar (deutsch: Gaius Julius Cäsar; * 13. Juli 100 v. Chr. in Rom; † 15. März 44 v. Chr. in Rom) war ein römischer Staatsmann, Feldherr und Autor, der maßgeblich zum Ende der Römischen Republik beitrug und dadurch an ihrer späteren Umwandlung in ein Kaiserreich beteiligt war. Der patrizischen Familie der Julier entstammend, absolvierte er die Ämterlaufbahn und gelangte durch ein Bündnis mit dem reichen Marcus Licinius Crassus und dem erfolgreichen Militär Gnaeus Pompeius Magnus im Jahr 59 v. Chr. zum Konsulat. In den folgenden Jahren ging Caesar als Prokonsul in die nördlichen Provinzen Illyrien und Gallia Cis- und Transalpina, von wo aus er in den Jahren 58 bis 51 v. Chr. ganz Gallien bis zum Rhein eroberte. Im anschließenden Römischen Bürgerkrieg von 49 bis 45 v. Chr. setzte er sich gegen seinen ehemaligen Verbündeten Pompeius und dessen Anhänger durch und errang die Alleinherrschaft. Nach seiner Ernennung zum Diktator auf Lebenszeit fiel er einem Attentat zum Opfer. Sein Großneffe und Haupterbe Gaius Octavius (später Kaiser Augustus) setzte das Prinzipat als neue Staatsform des Römischen Reiches endgültig durch. Der Name Caesars wurde zum Bestandteil des Titels aller nachfolgenden Herrscher des römischen Kaiserreichs. In der römischen Spätantike und im Byzantinischen Reich bezeichnete der Titel „Caesar“ einen Mitherrscher oder Thronfolger. In den entlehnten Formen Kaiser und Zar wurde der Name später auch zum Titel der Herrscher des Heiligen Römischen, des Österreichischen, des Deutschen, des Bulgarischen, des Serbischen und des Russischen Reiches. Herkunft. Gaius Iulius Caesar entstammte dem angesehenen altrömischen Patriziergeschlecht der Julier (lateinisch "gens Iulia"), das seine Wurzeln auf Iulus, den Sohn des trojanischen Adligen Aeneas, zurückführte, welcher der Sage nach Sohn der Göttin Venus war. Auf dem Gipfel seiner Macht, im Jahre 45 v. Chr., ließ Caesar zu Ehren der Venus einen Tempel errichten, um seine Verbindung zu dieser Göttin hervorzuheben. Caesars Familie war, gemessen am Standard des römischen Adels, nicht reich. Nur wenige Mitglieder der Familie hatten sich politisch hervorgetan: In der Frühzeit der römischen Republik im 5. Jahrhundert v. Chr. findet sich in den Konsularlisten, deren Authentizität in der Forschung umstritten ist, häufiger der Name „Iulius“. 451 v. Chr. war ein Gaius Iulius Iullus Mitglied der Decemviri, die den Staat grundlegend umgestalten sollten. Für die folgenden Jahrhunderte sind nur zwei iulische Konsuln, für die Jahre 267 und 157 v. Chr., nachgewiesen. Caesars gleichnamiger Vater war 92 v. Chr. Prätor, doch verstarb er 85 v. Chr. Einige Verwandte waren Konsuln und Censoren. Caesars Herkunft und Verwandtschaftsverhältnisse waren vorbestimmend für seine Parteinahme in der Zeit der Bürgerkriege. So war Caesars Tante Iulia mit dem Feldherrn Gaius Marius verheiratet, der die Kimbern und Teutonen besiegte und als mehrmaliger Konsul die politische Gruppe der "populares" (Popularen) im römischen Senat anführte. Caesars Mutter war Aurelia. Seine Schwestern Iulia maior und Iulia minor heirateten Senatoren, die jedoch politisch nicht in Erscheinung traten. Iulia Minor wurde die Großmutter von Gaius Octavius, des späteren Kaisers Augustus. Erste Schritte in die Politik. Caesar heiratete 84 v. Chr. Cornelia, die Tochter des Konsuls Lucius Cornelius Cinna, der ebenfalls zu der politischen Gruppe der "populares" gehörte. Im selben Jahr wurde er auch zum "flamen Dialis" bestimmt, dem Oberpriester des Jupiter. Die Familienverbindung zu Cinna und seine Verwandtschaft mit Marius brachten Caesar in Opposition zur Diktatur Sullas, der die konservative Gruppe der "optimates" vertrat. Sulla befahl Caesar die Scheidung von Cornelia, doch dieser widersetzte sich und verließ Rom. Auf die Bitte einflussreicher Freunde hin wurde er zwar bald begnadigt, kehrte aber nicht nach Rom zurück. Stattdessen wurde er mit 19 Jahren Offizier im Stab des Marcus Minucius Thermus, der Proprätor und Statthalter der Provinz Asia war. Um die Belagerung der Stadt Mytilene auf der Insel Lesbos zu beschleunigen, wurde Caesar an den Hof von König Nikomedes IV. von Bithynien entsandt, den er um eine Flotte bitten sollte. Später wurde Caesar nachgesagt, er habe eine homosexuelle Beziehung zu Nikomedes gehabt. Bei der anschließenden Erstürmung Mytilenes wurde Caesar mit der "Corona civica" („Bürgerkrone“) ausgezeichnet, die demjenigen verliehen wurde, der einem römischen Mitbürger in der Schlacht das Leben gerettet hatte. Im Jahr 78 v. Chr. ging Caesar als Offizier in den Stab von Publius Servilius Vatia Isauricus, der als Prokonsul in Kilikien die Piraten bekämpfte. Dort blieb Caesar aber nicht lange, da Sullas Tod ihm die Rückkehr nach Rom ermöglichte, wo er seine politische Karriere weiterverfolgte. Er begann, wie damals üblich, als öffentlicher Ankläger und Mitglied der "vigintisexviri," der untergeordneten Magistratsbeamten der Republik. Als Ankläger erregte Caesar durch einen Prozess wegen Erpressung gegen Gnaeus Cornelius Dolabella, einen Anhänger Sullas, große Aufmerksamkeit und bewies damit erneut seine Opposition zum Lager der Sullaner. Trotz seiner Niederlage in diesem Fall war Caesars Ruf nicht geschädigt. Um Anfeindungen der Sullaner aus dem Weg zu gehen, entschloss sich Caesar, Rom erneut zu verlassen. Ungewöhnlich war, dass er sich nicht zu einer militärischen Mission meldete, um sich als Offizier einen Namen zu machen, sondern eine Studienreise nach Rhodos unternahm, wo er bei dem Rhetor Molon seine Redekunst verbessern wollte. Auf dem Weg nach Rhodos geriet Caesar 75/74 v. Chr. bei der Insel Pharmakussa in die Gefangenschaft von Piraten. Angeblich habe er sie aufgefordert, ein höheres Lösegeld für ihn zu fordern, da er weitaus mehr wert sei als der geforderte Preis. Nach seiner Freilassung organisierte er aber eine private Seestreitmacht, fing die Piraten und ließ sie kreuzigen, wie er es ihnen angekündigt hatte, als er noch ihr Gefangener war. Caesars Aufstieg. Anfang des Jahres 73 v. Chr. wurde Caesar anstelle des verstorbenen Vetters seiner Mutter, Gaius Aurelius Cotta, in das Priesterkollegium der "pontifices" gewählt. 69 oder 68 v. Chr. bekleidete er schließlich die Quästur, die unterste Stufe der politisch bedeutenden Ämter der Römischen Republik. Nach Bekleidung dieses Amtes wurde er in den Senat aufgenommen. Als Quästor diente Caesar in Spanien unter dem Proprätor Antistius Vetus. Doch bevor er nach Spanien abreisen konnte, gab es zwei Todesfälle in seiner Familie. Seine Tante Iulia und seine Frau Cornelia verstarben in einem kurzen Zeitraum nacheinander. Nach seiner Rückkehr aus Spanien heiratete Caesar Pompeia, eine sehr wohlhabende Enkelin Sullas, deren Reichtum er umgehend für seinen politischen Aufstieg nutzte: 65 v. Chr. war er kurulischer Ädil und errang durch prachtvolle Spiele, durch die er sich hoch verschuldete, große Beliebtheit. 63 v. Chr. wurde Caesar in das bedeutende Amt des "Pontifex Maximus", des Oberpriesters, gewählt. Diese Wahl ist als erster außergewöhnlicher Karrieresprung Caesars anzusehen, da das Amt des Oberpriesters traditionell verdienten "Consulares" (ehemaligen Konsuln) vorbehalten war. Er wurde dabei wie schon bei seinen Spielen als Ädil von Marcus Licinius Crassus, der zu der Zeit als reichster Mann Roms galt, finanziell unterstützt, obwohl nicht klar ist, wie gut das Verhältnis Caesars zu Crassus zu diesem Zeitpunkt war. Immer wieder gab es Gerüchte, Caesar wäre in die Catilinarische Verschwörung des Jahres 63 v. Chr. verwickelt gewesen. Obwohl er früher Kontakt zu Catilina gehabt hatte, konnte ihm keine Beteiligung an dessen Verschwörung nachgewiesen werden. In einer großen Rede vor dem Senat, die von Sallust in "De coniuratione Catilinae" wiedergegeben wird, sprach sich Caesar ganz in popularer Tradition gegen die Hinrichtung der verhafteten Verschwörer aus, die gegen das Provokationsrecht verstieß. Der Konsul Cicero und die Optimaten, vor allem Cato der Jüngere, setzten sich aber mit Hinweis auf das senatus consultum ultimum, den Staatsnotstand, der einige Wochen zuvor erklärt worden war, gegen ihn durch. Im Jahr 62 v. Chr. wurde Caesar zum Prätor gewählt. Im selben Jahr führte der „Bona-Dea-Skandal“ zur Scheidung von Pompeia. Das erste wichtige Amt Caesars außerhalb Roms war die Statthalterschaft (Proprätur) in Spanien "(Hispania Ulterior)". Seine Gläubiger drohten, die Abreise zu verhindern; erst als Marcus Crassus mit 830 Talenten für Caesar bürgte, konnte dieser seinen Auftrag wahrnehmen. Caesars aggressive Kriegsführung gegen die Iberer im Norden des heutigen Portugals festigte seinen Ruf als fähiger Stratege und diente ihm zur Sanierung seiner Finanzen. Damit besaß er die notwendige Voraussetzung für die Bewerbung um das höchste Staatsamt, das Konsulat. Um rechtzeitig zu den Wahlen nach Rom zu gelangen, brach er kurz vor dem Ablauf seiner Amtszeit als Proprätor nach Rom auf. Mit dem Betreten der Stadt legte er laut römischem Recht seine Amtsgewalt nieder und verzichtete somit auf einen prestigeträchtigen Triumphzug. Triumvir und Konsul. Viele Senatoren widersetzten sich jedoch Caesars Ambitionen. Daher ging er mit Marcus Licinius Crassus und Gnaeus Pompeius Magnus eine strategische Partnerschaft ein. Alle drei wollten ihre jeweiligen Einflussmöglichkeiten koordinieren: Die von den römischen Geschichtsschreibern als erstes Triumvirat („Drei-Männer-Bündnis“), von dem Gelehrten Varro dagegen als „dreiköpfiges Monster“, von dem Historiker Titus Livius als „Verschwörung“ bezeichnete Allianz brachte Geld (Crassus galt als reichster Mann Roms), Militär (Pompeius galt als erfolgreichster Feldherr) und politischen Einfluss (Caesars politische Bekanntheit und Energie) zusammen. Zur Bekräftigung des Bündnisses heiratete Pompeius Caesars Tochter Iulia. Aufgrund widersprüchlicher Quellenaussagen und unklarer Chronologie ist umstritten, ob Caesar bereits als gewählter Konsul das informelle Machtbündnis schuf, weil seine Feinde im Senat ihm eine unattraktive "provincia" zuweisen wollten, oder ob ihm erst Crassus und Pompeius die Wahl zum Konsul für 59 v. Chr. ermöglichten, wie heute die meisten Forscher annehmen. Einem Brief Ciceros aus dem Jahr 60 ist zu entnehmen, dass ihn Caesar als vierten Mann für den damals noch nicht geschlossenen Bund gewinnen wollte, er dies aber abgelehnt habe. Caesar war beim Amtsantritt 40 Jahre alt, unterschritt das in Sullas "Lex de magistratibus" aus dem Jahr 81 festgelegte Mindestalter für das Konsulat, 43 Jahre, also deutlich. Weil er auch bei Antritt seiner Prätur zu jung gewesen war, hat der Althistoriker Theodor Mommsen vermutet, Caesar sei gar nicht im Jahr 100 geboren, sondern bereits 102: Dann hätte er beide Ämter jeweils "suo anno" erreicht. Caesars Amtsführung als Konsul war im Senat sehr umstritten, vor allem bei dem einflussreichen Optimaten Cato, der Caesar als Feind der Freiheit betrachtete. Caesar brachte in seinem Jahr als Konsul einige Gesetze mit entscheidenden Neuregelungen durch: So ein Gesetz zur Landfrage, das die Ansiedlung von Pompeius’ Veteranen klärte; die Ratifizierung von Pompeius’ Verfügungen in den östlichen Provinzen und den Klientelkönigreichen, die Pompeius vor seiner Rückkehr aus dem Osten geschaffen hatte; die Lösung von Crassus’ Problem bezüglich der Nachlässe für Steuerpächter in "Asia" und die Reform der Gesetze, die eigentlich den erpresserischen Umtrieben der Statthalter in den Provinzen Einhalt gebieten sollten. Es waren weniger diese Gesetze, die Caesars Gegner vor den Kopf stießen, als vielmehr ihr Zustandekommen: Weil Caesar sich wiederholt mit offenen Rechtsbrüchen über Widerspruch und Obstruktionen eines großen Teils der Senatoren, insbesondere aber über das Veto seines Amtskollegen Marcus Calpurnius Bibulus hinweggesetzt hatte, musste er mit einer Anklage rechnen, sobald er wieder Privatmann wäre - und angesichts der Rechtslage auch mit einer Verurteilung. Dies verhinderte er vorerst durch die mit fünf Jahren ungewöhnlich lange Amtszeit als Prokonsul in Illyrien und in Gallien (Cis- und Transalpina), die er sich dank Pompeius und Crassus verschaffen konnte. Vor seinem Amtsantritt heiratete er Calpurnia. Kurz vor seiner Abreise nach Gallien versuchten mehrere hochrangige Senatoren, die Triumvirn mit den Optimaten zu versöhnen, indem alle widerrechtlich zustande gekommenen Gesetze aus Caesars Konsulat nun nachträglich legalisiert werden sollten. Caesar lehnte dies aber ab, da er fürchtete, in diesem Fall die so wichtige Unterstützung durch Pompeius und Crassus zu verlieren, die seiner dann nicht mehr bedurft hätten. Er wäre der Rache seiner Feinde dann schutzlos ausgeliefert gewesen. Einiges spricht dafür, dass mit Caesars Konsulat 59 v. Chr. und seinen zahllosen Rechtsbrüchen (einmal ließen er und Pompeius die Gegner einfach vom Versammlungsplatz prügeln) bereits der Weg in den 10 Jahre später ausbrechenden Bürgerkrieg beschritten wurde: Seither wusste Caesar, dass die Optimaten und auch viele andere Senatoren ihn um jeden Preis vor Gericht stellen und ruinieren wollten, um ihn für seine Verfassungsbrüche zu bestrafen und so die "res publica" zu bewahren. Caesar hingegen wollte sich ebendiesem Schicksal um jeden Preis entziehen. Sein Versuch, in Gallien so viel militärischen Ruhm zu erlangen, dass der Senat gezwungen sein würde, ihm zu verzeihen, war aber letztlich zum Scheitern verurteilt. Prokonsul in Gallien. Caesars Feldzüge während des gallischen Krieges Caesar hatte sich in der Erwartung, dort sei eher mit einem prestigeträchtigen Krieg zu rechnen, zunächst Illyrien als "provincia" übertragen lassen; die Statthalterschaft in Gallien kam erst dazu, als der hierfür ursprünglich vorgesehene Promagistrat starb. Das Prokonsulat in Gallien bedeutete zunächst einen wichtigen Machtgewinn für Caesar. Als Prokonsul konnte er legal Truppen aufstellen, die in dem System der Heeresclientel auf ihn persönlich eingeschworen waren. Um seine Macht und seinen Reichtum auszubauen und seine Rechtsbrüche als Konsul vergessen zu machen, brauchte er einen großen Krieg außerhalb der Grenzen des Imperiums, den er nun bei den zerstrittenen Stämmen Galliens fand, unter denen es seit einigen Jahren größere Unruhen gab. Als die Helvetier, ein Stamm aus der heutigen Schweiz, die Nordgrenze des Römischen Reichs gefährdeten, sah Caesar einen Anlass, militärisch einzuschreiten. Sofort hob er weitere Legionen aus seinen Provinzen aus und schlug die Helvetier bei Bibracte zurück, wobei er die Überlebenden der Schlacht zurück in ihr voriges Heimatland sandte, um dort eine Pufferzone zu den eindringenden Germanen zu bilden. Danach zog er gegen die Germanen, die schon seit einiger Zeit unter Ariovist in Gallien eingefallen waren, und schlug sie über den Rhein zurück. Im zweiten Jahr konnte Caesar die Belger, die als das tapferste Volk unter den Stämmen Galliens galten, im Norden Galliens erst nach heftigen Kämpfen unterwerfen. Das Triumvirat erneuerte er während der Winterpause durch Verhandlungen mit Pompeius und Crassus in Ravenna und Luca. Die drei verabredeten ein gemeinsames Konsulat von Crassus und Pompeius für das Jahr 55 v. Chr. sowie die Verlängerung von Caesars Prokonsulat um weitere fünf Jahre. So konnte er insgesamt zehn Jahre (58–49 v. Chr.) in Gallien bleiben und die Eroberung des ganzen freien Keltenlandes bis zum Rhein abschließen. Viele Stämme riefen ihn sogar gegen andere Stämme zu Hilfe, wobei sie als Resultat häufig selbst vom ambitionierten Prokonsul erobert wurden. Im Jahr 56 v. Chr. besiegte sein Offizier Decimus Iunius Brutus Albinus die aufständischen Veneter in der Bretagne, womit Caesar den größten Teil Galliens unter seine Kontrolle bringen konnte. Ein Feldzug gegen die Stämme der Menapier und Morini dagegen scheiterte, da sich diese ständig in die Wälder zurückzogen. Im Jahre 55 v. Chr. fielen zwei germanische Stämme in Gallien ein, die Usipeter und die Tenkterer. Caesar begann Verhandlungen mit ihnen, um sie als romfreundlichen Brückenkopf auf dem rechtsrheinischen Gebiet der Ubier anzusiedeln. Während eines Waffenstillstands kam es zu einem militärischen Zwischenfall zwischen den Germanen und Caesars gallischen Hilfstruppen. Caesar nahm dies als Vorwand, die germanischen Häuptlinge, die mit der Bitte um Entschuldigung in sein Lager gekommen waren, festzunehmen und die führerlosen Germanen größtenteils niedermetzeln zu lassen. Die Reste der Usipeter und Tenkterer wurden über den Rhein zurückgedrängt. Nach Cäsars eigenen Angaben kamen dabei 430.000 Menschen ums Leben, wobei die Römer keinen einzigen Toten zu beklagen gehabt hätten. Der Althistoriker Luciano Canfora bezeichnet dieses Massaker als „unmenschliches Verbrechen“ in der modernen Genozid-Forschung wird es als frühes Beispiel eines Völkermordes gewertet. Auch in Rom war man entsetzt: Cato beantragte im Senat, Caesar an die Germanen auszuliefern und konnte die Einsetzung einer Untersuchungskommission durchsetzen. Nach dem Ende der Usipeter und Tencterer sah sich Caesar genötigt, den Rhein nach Germanien zu überschreiten, um eine Strafexpedition gegen die Germanen zu führen. Im selben Jahr brach er auch nach Britannien auf, wo er aber nicht lange blieb, da seine Flotte durch einen Sturm zerstört wurde und der Winter begann. Im darauffolgenden Jahr führte Caesar einen weiteren Feldzug nach Britannien, in dem er bis an die Themse vordringen konnte, sich dann aber wieder zurückzog. Im Jahr 53 v. Chr. führte er eine weitere Rheinüberquerung nach Germanien durch. Diese Unternehmen sorgten in Rom, vor allem im Senat, für Aufsehen: Als erster römischer Feldherr führte Caesar Militärexpeditionen in diese den Römern weitgehend unbekannten Regionen durch, verzichtete jedoch auf eine dauerhafte Eroberung Germaniens und Britanniens. Nach ersten Unruhen bei den linksrheinischen Eburonen unter ihrem König Ambiorix im Spätherbst 54 v. Chr. und der schweren Niederlage in der Schlacht von Aduatuca durch Caesars Legaten Quintus Titurius Sabinus wurde es Anfang des Jahres 53 v. Chr. in Gallien unruhig. Stämme wie die Treverer und Nervier erhoben sich gegen Caesar, wobei sie anfangs einige Erfolge verbuchen konnten, schließlich aber endgültig niedergeworfen wurden. Im Jahr 52 v. Chr. erhob sich Vercingetorix, der Fürst der Arverner, gegen die römische Fremdherrschaft. In ihm erwuchs Caesar ein gefährlicher und ihm militärisch ebenbürtiger Gegner. Seine Taktik der verbrannten Erde brachte Caesar in ernste Schwierigkeiten. Vercingetorix schnitt die Nachschubwege Caesars ab und konnte ihn erstmals bei Gergovia schlagen. Jeder siebte Centurio fiel. Nach seinem Sieg gab Vercingetorix seine erfolgreiche Defensivtaktik auf und griff die Truppen Caesars an, doch musste seine schlecht organisierte Reiterei eine Niederlage gegen jene Caesars hinnehmen, worauf er sich nach Alesia zurückzog. Caesar begann sofort, die Stadt mit einem etwa 35 km langen Wall zu belagern, doch war ein gallisches Entsatzheer auf dem Weg, um Vercingetorix zu befreien. In der darauffolgenden Schlacht, in der Caesar den Ausbruchsversuch des Vercingetorix abzuwehren und gleichzeitige Entlastungsangriffe zurückzuschlagen hatte, blieb Caesar gegen die zahlenmäßig weit überlegenen gallischen Heerscharen siegreich. Der gallische Widerstand war endgültig gebrochen, und Caesar konnte mit diesem Sieg über die gallische Koalition die Herrschaft Roms über Gallien für Jahrhunderte sichern. Vercingetorix, der sich nach der verlorenen Schlacht Caesar vor den Mauern von Alesia ergeben hatte, wurde die erbetene Gnade nicht gewährt: Er wurde sechs Jahre später, nach Caesars Triumphzug 46 v. Chr., in Rom hingerichtet. Noch im folgenden Jahr musste Caesar einige Aufstände in Gallien niederwerfen, wobei er mit großer Brutalität vorging, vor allem bei der Eroberung der Stadt Uxellodunum. Dort wurden allen Gefangenen die Hände abgeschnitten und damit eines der grausamsten Exempel des gesamten Krieges statuiert. Die gewaltige Kriegsbeute und die Tribute der Unterworfenen nutzte er zur Finanzierung seiner Armee und für den politischen Machtkampf in Rom. Plutarch gibt an, dass im Gallischen Krieg Caesars eine Million Gallier ihr Leben verloren und eine weitere Million Menschen versklavt wurden. Caesar berichtete in den "Commentarii de bello Gallico" selbst über seine Zeit in Gallien. Die Schrift schildert viele Details aus dem besetzten Land, diente aber vor allem der Rechtfertigung seiner Feldzüge. Zudem stellte Caesar erstmals Gallier und Germanen als zwei verschiedene Völkerschaften heraus und charakterisierte sie einzeln, wobei er als Grenze zwischen beiden Völkerschaften im Wesentlichen den Rhein ansah. Zuvor galten die Germanen noch als ein keltischer Teilstamm. Auch führt er die Stämme der Helvetier und der Bataver an, deren Namen in den späteren lateinischen Gebietsbezeichnungen der Schweiz und der Niederlande fortleben. Bürgerkrieg. Im Jahr 53 v. Chr. war Crassus auf einem Feldzug gegen die Parther ums Leben gekommen; mit ihm war auch der Großteil seines Heeres von über 40.000 Mann untergegangen. Gleichzeitig hatte sich Pompeius dem Senat angenähert, da ihm sein einstiger Juniorpartner Caesar zu mächtig geworden war. Das erste Triumvirat existierte nicht mehr. Das Jahr 50 v. Chr. war von hektischer politischer Aktivität und Verhandlungen geprägt. Caesar war der Ansicht gewesen, man könne erst für 48 einen neuen Prokonsul nach Gallien schicken, um ihn abzulösen, und wollte sich vermittels seiner gewaltigen Beliebtheit im Volk rechtzeitig für 48 zum Konsul wählen lassen, um weiterhin gegen Anklagen immun zu sein. Die Optimaten im Senat wollten ein zweites Konsulat Caesars hingegen unbedingt verhindern, um ihn, nunmehr ohne die Immunität eines Amtsträgers, endlich vor Gericht stellen zu können. Es gelang, Caesar durch politische Winkelzüge auszumanövrieren, so dass er das Kommando über die gallischen Legionen früher als geplant verlieren sollte. Nun forderte der Senat von Caesar, dass dieser seine insgesamt zehn Legionen auflösen solle. Caesar weigerte sich, dies zu tun, wenn nicht gleichzeitig auch Pompeius sein Heer auflöse. Die Senatsmehrheit lehnte dies strikt ab, da Pompeius im Besitz eines rechtmäßigen Kommandos sei, Caesar ab dem Januar 49 v. Chr. hingegen nicht mehr. Am Ende der langen Verhandlungen und seines Prokonsulats hatte Caesar keine politische Basis in Rom mehr und musste fürchten, von seinen Feinden im Senat, die auf die militärischen Fähigkeiten des Pompeius setzten, nun für seine in den Jahren zuvor begangenen Verfassungsbrüche zur Rechenschaft gezogen zu werden. Vor die Wahl gestellt, sich entweder einem Prozess zu stellen, der zweifellos seine politische Karriere beendet und ihn persönlich ruiniert hätte, oder sich gewaltsam gegen die Republik zu wenden, entschied sich Caesar für den Bürgerkrieg. Wie Caesar selbst angab, schritt er, allein um seine persönliche "dignitas", seine Würde, zu wahren, zum Staatsstreich: Um nicht vor Gericht gestellt zu werden, müsse er sich an seine Soldaten um Hilfe wenden. Trotz des Verbots, gegen den Willen des Senats Militär nach Italien zu bringen, überquerte er daher am 10. Januar 49 v. Chr. mit der etwa 5.000 Mann starken dreizehnten Legion (Legio XIII Gemina) den Grenzfluss Rubikon, der Italien von der Provinz Gallia cisalpina trennte. Bei dieser Gelegenheit soll Caesar den berühmten Ausspruch "alea iacta est" („der Würfel ist geworfen“) von sich gegeben haben (allerdings in griechischer Sprache). Pompeius, der erst vor kurzem vom Senat zum Verteidiger der Republik ausgerufen worden war, hatte sich gerühmt, dass er nur mit den Füßen auf den Boden zu stampfen brauche, und schon würden sich Truppen aus dem Boden erheben: Er bezog sich damit auf seine treuen Veteranen aus den Ostfeldzügen. Doch dies entsprach angesichts des schnellen und entschlossenen Handelns Caesars keineswegs der Realität. Sehr schnell musste Pompeius einsehen, dass er in der Kürze der Zeit nicht genügend Truppen in Italien aufstellen konnte. So entschloss er sich, Rom zu räumen und nach Griechenland auszuweichen, um dort den Krieg gegen Caesar zu organisieren. Dieses sachlich fraglos richtige Vorhaben stieß bei einigen Senatoren, allen voran bei Cato, auf heftigen Widerstand. Doch auch Cato musste bald einsehen, dass die Lage aussichtslos war. Caesar dagegen brachte in Eilmärschen, ohne auf nennenswerten Widerstand zu stoßen, die wichtigsten Städte Norditaliens unter seine Kontrolle und erreichte Rom; Pompeius aber hatte Rom schon mit den meisten caesarfeindlichen Senatoren geräumt und war nach Brindisi geflohen. Bevor Caesar ihn erreichen konnte, setzte er nach Griechenland über. Caesar beschloss, weil er keine Flotte besaß, um Pompeius zu folgen, zuerst die pompeianischen Legionen in Spanien zu besiegen, um sich danach dem Kampf gegen Pompeius widmen zu können. Über Südgallien, wo er die Stadt Massilia belagerte, fiel er in Spanien ein und schlug die sieben Legionen des Pompeius unter dessen Legaten Lucius Afranius, Marcus Petreius und Marcus Terentius Varro in kürzester Zeit. Als Caesar aus Spanien zurückkehrte, erreichten ihn schlechte wie gute Nachrichten. Der größte Teil seiner Offiziere hatte in ihnen zugewiesenen Aufgaben versagt. Nur Decimus Brutus konnte in der Adria einige Erfolge gegen die Flotte des Pompeius erringen. Pompeius und die Republikaner hatten die Zeit unterdessen genutzt, um eine große Armee aufzustellen. Im Jahre 48 v. Chr. wurde Caesar erneut zum Konsul gewählt. Er überquerte mit etwa 15.000 Mann die Adria und zog gegen Pompeius, musste aber eine Niederlage bei Dyrrhachium hinnehmen, woraufhin er sich nach Thessalien zurückzog. Auf dem Weg dorthin plünderte er einige Städte und verband sich mit dem Rest seines Heers, das mit Marcus Antonius über die Adria gekommen war. Pompeius wurde anschließend, trotz seiner angeblich doppelt so starken Armee, am 9. August desselben Jahres in der Schlacht bei Pharsalos entscheidend geschlagen, nachdem er von den ihn begleitenden Senatoren zum Kampf gedrängt worden war; er selbst entkam nur mit knapper Not. Nach diesem entscheidenden Sieg kontrollierte Caesar den größten Teil des östlichen Mittelmeers und war de facto Alleinherrscher im Römischen Reich. Viele der caesarfeindlichen Senatoren flohen in andere Teile der römischen Welt, um dort den weiteren Aufstand gegen Caesar zu organisieren, andere wurden von Caesar begnadigt. Pompeius aber floh nach seiner Niederlage nach Ägypten, wo er auf Befehl der Ratgeber des Königs Ptolemaios XIII. ermordet wurde. Caesar folgte Pompeius nach Alexandria, wo man ihm den Kopf seines Rivalen und ehemaligen Verbündeten überreichte. Caesar ließ jedoch, wieder als Zeichen seiner "clementia", der Milde gegenüber dem Gegner, die sterblichen Überreste in allen Ehren überführen, was aber nicht zuletzt auch politischen Zweckmäßigkeiten geschuldet war. In Alexandria wurde er in die dortigen politischen Streitigkeiten hineingezogen. So machte er die Bekanntschaft der jungen Königin Kleopatra, Ptolemaios’ Schwester und Mitregentin. Dies war der Beginn einer leidenschaftlichen Liebesbeziehung, die in der Folgezeit noch für viel Unruhe sorgte. Mit Kleopatra hatte Caesar ein Kind mit dem Namen Ptolemaios Kaisarion. Caesar ergriff Partei für Kleopatra, die von ihrem Bruder aus Ägypten vertrieben worden war, und musste den sogenannten „Alexandrinischen Krieg“ "(bellum Alexandrinum)" gegen Ptolemaios bzw. dessen General Achillas austragen. Caesar wurde in Alexandria eingeschlossen und in die Defensive gedrängt. Während der Belagerung soll auch die berühmte Bibliothek von Alexandria abgebrannt sein. Nachdem Caesar sich mit dem durch Mithridates von Pergamon herangeführten Entsatzheer hatte vereinen können, wurden die Truppen des Achillas in die Flucht geschlagen. Ptolemaios ertrank während seiner Flucht im Nil. Kleopatras Machtposition wurde danach bestätigt. Anschließend wandte sich Caesar gegen Pharnakes II. von Pontus, der die römischen Provinzen in Kleinasien plünderte. Nach einem nur fünftägigen Feldzug wurde Pharnakes geschlagen und aus Kleinasien vertrieben. Caesars berühmter Ausspruch: "„Ich kam, ich sah, ich siegte“" "(„veni vidi vici“)" war auf den kurzen Feldzug gegen Pharnakes gemünzt. Nach dem Sieg über Pharnakes II. zog Caesar in zwei Feldzügen gegen die restlichen Pompeianer: Im Afrikanischen Krieg schlug Caesar am 6. April 46 v. Chr. in der Schlacht bei Thapsus in der Provinz Africa die republikanischen Senatstruppen unter Metellus Scipio und Cato dem Jüngeren. Cato beging nach der militärischen Katastrophe in seiner Festung Utica Selbstmord, und Caesar löste das Königreich Numidien auf, das die Pompeianer unterstützt hatte. Nach einem kurzen Aufenthalt in Rom zog er nach Hispanien und schlug dort 45 v. Chr. in der Schlacht bei Munda die Söhne des Pompeius, von denen nur der jüngere Sextus Pompeius entkam, der in den Augen Caesars jedoch keine Bedrohung mehr darstellte. Somit waren die letzten Pompeianer bzw. Republikaner ausgeschaltet und die Republik faktisch am Ende. Diktatur. Caesar war der Erste, den man zu Lebzeiten auf römischen Münzen abbildete. Bereits vor dem endgültigen Erlangen der Alleinherrschaft in Rom entfaltete Caesar eine umfangreiche Gesetzestätigkeit "(Leges Iuliae)", um das römische Staatswesen grundlegend zu reformieren. Er plante eine Kodifizierung und Überarbeitung der Gesetze, die Anlage einer umfangreichen Bibliothek, den Bau eines neuen Senatsgebäudes und große Bauvorhaben auf dem Campus Martius sowie die Trockenlegung der Pontinischen Sümpfe. Zudem führte er mit dem nach ihm benannten julianischen Kalender einen verbesserten Kalender ein und hatte durch seine Kolonien die Städte Karthago und Korinth wiederbelebt, die ein Jahrhundert zuvor von den Römern zerstört worden waren. Schon nach seiner Rückkehr aus Ägypten im Jahre 46 v. Chr. hatte Caesar sich zum Diktator auf zehn Jahre ernennen lassen. Nach seinem letzten militärischen Erfolg in Spanien wurde er vom Senat schließlich Anfang 44 zum "dictator perpetuus" (Diktator auf Lebenszeit) ernannt. Insbesondere dieser letzte, nicht verfassungskonforme Titel sowie der Auftritt als "dictator perpetuus" in der alten Königstracht am Lupercalienfest am 15. Februar 44 erweckten den Verdacht, dass Caesar eine Monarchie errichten wolle. Verstärkt wurde dieser Eindruck durch die Art, wie er sich über die „res publica“ äußerte und mit ihren Institutionen umsprang: Der Staat sei nichts als ein blutloser Schatten, Sulla sei ein politischer Analphabet gewesen, weil er die Diktatur niedergelegt habe. Die Leute müssten allmählich erst nachdenken, wenn sie mit ihm redeten, und seine Worte als Gesetz betrachten. Die Frage, ob Caesar wirklich den Titel eines Königs anstrebte oder sich mit der Diktatur begnügen wollte, beschäftigt die Historiker bis heute (auch im Zusammenhang mit seiner Alexander-Imitatio). Ebenso ist es strittig, ob dem „Staat Caesars“, der auf Personen, jedoch nicht auf Institutionen beruhte, überhaupt eine Konzeption zugrunde lag; vieles deutet eher darauf hin, dass dies nicht der Fall war. Christian Meier hat in seiner einflussreichen Caesar-Biografie daher auch pointiert behauptet, dass Caesar nur Macht innerhalb der Verhältnisse der "res publica" hatte, nicht aber über die Verhältnisse hinaus. Sicher ist, dass Caesars Stellung königsgleich war, er aber keinen Weg fand, mit Zustimmung der Römer die Monarchie einzuführen. Wie um den toten Punkt zu überwinden (und auch, um sich zusätzlich Legitimation zu verschaffen), mutet seine Entscheidung zu einem großen Feldzug nach Osten an, auf dem die Parther unterworfen werden sollten. Inzwischen hatte sich im Senat unter den Anführern Marcus Iunius Brutus und Gaius Cassius Longinus heimlich eine recht große Gruppe gebildet, die entschlossen war, Caesar zu töten. Viele dieser Senatoren, auch Brutus, hatten in den Jahren zuvor zu den Anhängern und Günstlingen Caesars gezählt. Sie glaubten jedoch seit seiner Ernennung zum "dictaor perpetuus" nicht mehr daran, dass er, wie einst Sulla, plante, die Republik lediglich umzugestalten: Da Caesar sich nun unbestreitbar als Tyrann entpuppt habe, müsse er sterben, um Rom die Freiheit zurückzugeben. Dass dies zugleich bedeutete, gegen römische Grundwerte wie "pietas" und "amicitia" zu verstoßen, nahmen die Attentäter, die vielfach persönlich in Caesars Schuld standen, in Kauf. Obwohl über 80 Senatoren in den Anschlagsplan eingeweiht waren, gab es keinen Verräter. Tod. a>, in dem Caesar erdolcht wurde. Caesar wurde am 15. März 44 v. Chr. von einer Gruppe Senatoren um die gerade genannten Marcus Iunius Brutus und Gaius Cassius Longinus während einer Senatssitzung im Theater des Pompeius mit 23 Dolchstichen ermordet. An der Verschwörung waren ca. 60 Personen beteiligt. Noch am Morgen des Tages erwog Caesar, der Senatssitzung fernzubleiben, denn seine Frau Calpurnia ahnte aufgrund von Alpträumen die Katastrophe voraus. Ihre Furcht veranlasste ihn, den Augur Spurinna aufzusuchen, der nach Plutarch Zeichen unglücklicher Vorbedeutung sah und ihn warnte: "Cave Idus Martias" (dt. „Hüte dich vor den Iden des März“). Decimus Brutus wurde deshalb entsandt, um das Scheitern des lange geplanten Vorhabens zu verhindern und den Diktator umzustimmen. Durch geschickten Spott über den vermeintlichen Einfluss von Aberglauben auf Caesars Handeln gelang dies auch. Vor dem Senatsgebäude traf Caesar auf seinen Freund und Mitkonsul Marcus Antonius, der von Gaius Trebonius abgelenkt wurde. Auch eine unterwegs erhaltene Schriftrolle des griechischen Philosophielehrers Artemidoros, die Details zur Verschwörung enthielt, vermochte Caesar nicht zu warnen, denn er überreichte sie einem Mitglied des Stabs, um sie später zu lesen. Vor dem Senatsgebäude stieß Caesar nochmals auf den Seher Spurinna und stellte laut Sueton abschätzig fest „Die Iden des März sind da!“, worauf dieser entgegnete: „Da sind sie, aber noch nicht vorbei.“ Bei seiner Ermordung soll Caesar auf Griechisch seine berühmten letzten Worte an Marcus Brutus gerichtet haben, dem er trotz aller politischen Unterschiede eine Art väterlicher Freund gewesen war: ("kaì sy téknon," „Auch du, mein Sohn“). Vermutlich waren aber seine Verletzungen durch die zahlreichen Dolchstiche zu schwer, um noch ein Sprechen zu ermöglichen. Marcus Tullius Cicero, politisch ein Gegner Caesars, aber an der Verschwörung nicht beteiligt, war Zeuge der Tat und schrieb später in einem Brief an seinen Freund Titus Pomponius Atticus, dies sei das gerechte Ende eines Tyrannen gewesen. Den Mord an Caesar bezeichnet man deshalb auch als Tyrannenmord. Bestattung. Caesars Bestattung verlief am 20. März 44 v. Chr. unter tumultartigen Umständen. Marcus Antonius, der Konsul des Jahres 44 v. Chr., hatte durch verschiedene Maßnahmen die stadtrömische Plebs auf seine Seite gebracht: So berichtet Sueton, dass vor der Rednertribüne auf dem Forum Romanum ein verkleinertes Modell des von Caesar errichteten Tempels der "Venus Genetrix" aufgestellt wurde, von der Caesar angeblich abstammte; darin wurde die blutgetränkte Kleidung des Diktators gezeigt; die Errichtung des Scheiterhaufens auf dem Marsfeld habe mehrere Tage in Anspruch genommen, da allzu viele Menschen noch Totengaben darauf legen wollten; es wurden aufwendige Leichenspiele veranstaltet, die auch emotional aufrüttelnde Inszenierungen von Tragödien umfassten; Antonius ließ Caesars Testament, wonach jeder Bürger 300 Sesterzen erhalten sollte, und zusätzlich einen Senatsbeschluss verlesen, der Caesar, wie Sueton schreibt, "„alle göttlichen und menschlichen Ehren“" zuerkannte; die folgende Totenrede des Konsuls tat ein übriges, die Atmosphäre aufzuheizen – Plutarch zufolge wurde die blutige Toga des Diktators erst hierbei dem Volk gezeigt. Zweihundert Jahre nach den Ereignissen wurde daraus schließlich die von Appian kolportierte Version, man habe dem Volk ein realistisches Wachsbild des Ermordeten auf einem schwenkbaren Gerüst präsentiert. Die Bevölkerung riss nun die aufgebahrte Leiche an sich, errichtete spontan einen neuen Scheiterhaufen aus Möbeln, Kleidern und den Waffen von Caesars Soldaten und äscherte den geliebten Diktator auf dem Forum ein. Im Anschluss versuchte der Mob die Häuser der Caesarmörder zu stürmen, um sie zu lynchen. Der Volkstribun und neoterische Dichter Gaius Helvius Cinna wurde vom Pöbel auf offener Straße totgeschlagen, weil man ihn aufgrund seines Namens mit L. Cornelius Cinna verwechselte, der sich kurz zuvor abfällig über den Toten geäußert hatte. Brutus, Cassius und die anderen Verschwörer, die eigentlich damit gerechnet hatten, als Befreier und Wiederhersteller der Republik gefeiert zu werden, zogen sich daher Anfang April aus Rom zurück. Weitere Entwicklung. Dem Tod Caesars folgten weitere innere Wirren und Bürgerkriege, die bis zum Jahr 30 v. Chr. dauern sollten. Marcus Antonius (Caesars Mitkonsul 44 v. Chr.), Caesars Großneffe und (durch Testament) Adoptivsohn Octavian sowie Marcus Aemilius Lepidus bildeten das zweite Triumvirat, dessen Proskriptionslisten viele republikanische Senatoren und Würdenträger, wie etwa Cicero, als Feinde Caesars zum Opfer fielen; ihr Vermögen wurde eingezogen. In der Schlacht bei Philippi in Griechenland besiegten Antonius und Octavian die Verschwörer um Brutus und Cassius. Anschließend schaltete Octavian seine Mitstreiter als Konkurrenten aus. Seinen ehemaligen Partner Marcus Antonius, der in Ägypten mit Kleopatra eine Romanze führte, konnte Octavian in der Schlacht von Actium besiegen. Er wurde ab 31 v. Chr. Alleinherrscher. Octavian vermied jeden Anschein, eine Monarchie errichten zu wollen, sprach sogar von der „Wiederherstellung der Republik“ und nannte sich bescheiden "princeps", „erster Bürger“. Er folgte der politischen Konzeption des Pompeius (wie die Übertragung weitreichender Befugnisse durch den Senat) und bezeichnenderweise nicht der seines Adoptivvaters Caesar, behielt dabei aber alle wichtigen Schalthebel der Macht in seiner Hand. Unter dem Ehrennamen Augustus "(der Erhabene)", der ihm vom Senat verliehen wurde, begründete er das Römische Kaiserreich (Prinzipat) und trug die Römische Republik endgültig zu Grabe. Unter seiner Regierung, die als Goldenes oder augusteisches Zeitalter bezeichnet wird, erlebte das römische Reich eine Blüte. Bereits zu Beginn des zweiten Triumvirats wurde Caesar als "Divus Iulius" zum offiziellen Gott erhoben und die Triumvirn gelobten einen Tempel am Ort von Caesars Ustrinum auf dem Forum zu errichten. Octavian bezeichnete sich seitdem als "Divi filius" („Sohn des Göttlichen“) und weihte am 18. August 29 v. Chr. den Tempel des Divus Iulius auf dem Forum Romanum ein. Caesar als Schriftsteller. "Commentarii de Bello Gallico et Civili". Gemeinsame Ausgabe Caesars wichtigster Schriften von 1783. Sueton gibt einen interessanten literaturhistorischen Abriss über Caesars schriftstellerisches Werk. Caesar verfügte über eine umfangreiche literarische und rhetorische Schulung und zeichnete sich sowohl als großer Redner wie als Schriftsteller aus. In seiner Jugend wurde er von seiner hochgebildeten Mutter Aurelia und seinem Großonkel Gaius Iulius Caesar Strabo Vopiscus literarisch vorgeprägt. In dieser frühen Lebensphase war Marcus Antonius Gnipho sein Grammatiklehrer Auf Rhodos empfing er später Unterricht zur Verbesserung seiner Redekunst beim Rhetor Molon, der den asianischen Stil ablehnte. Nahezu vollständig erhalten sind Caesars historische Abhandlungen über seine ab 58 v. Chr. geführten Kriege. Er verfasste über seinen Feldzug in Gallien in sieben Büchern die "Commentarii de bello Gallico" („Kommentare über den Gallischen Krieg“), denen die jährlich abgefassten Dienstberichte an den Senat zugrunde lagen. Die "Commentarii" sind bis heute wegen ihrer einfachen und klaren Sprache (der Wortschatz beschränkt sich auf etwa 1300 Wörter) ein Standardwerk für die Anfangslektüre im schulischen Lateinunterricht. Caesar beschreibt in dem Werk anschaulich die Schlachten und Intrigen während der ersten sieben der neun Jahre, in denen er die gallischen Stämme vernichtete, die Widerstand leisteten. Von Interesse sind zudem die zahlreichen Bemerkungen zu den Lebensverhältnissen der Gallier, Germanen und Britannier. Ein achtes Buch über die letzten beiden Kriegsjahre stammt nicht mehr von Caesar, sondern von seinem Offizier Aulus Hirtius. Die "Commentarii", die wohl als einheitlich verfasstes Gesamtwerk nach Ende seiner Amtszeit in Gallien herausgegeben wurden, dienten vornehmlich der Rechtfertigung von Caesars Feldzügen und damit der Verteidigung seiner Maßnahmen während seiner Amtszeit gegenüber seinen zahlreichen Kritikern im römischen Senat. Gaius Asinius Pollio, der selbst auf der Seite Caesars gekämpft hatte, übte denn auch in seinen (heute verlorenen, aber von mehreren späteren Autoren benutzten) "Historien" teils scharfe Kritik an Caesars Darstellung. Außerdem verfasste Caesar noch ein Werk über die erste Phase des Bürgerkrieges, die "Commentarii de bello civili". Einige kleinere historische Schriften, die spätere Phasen des Bürgerkriegs behandeln und im Zusammenhang mit dem "Bellum civile" überliefert sind, stammen nicht von Caesar; die Verfasser dieser sogenannten „kleinen "bella"“ sind unbekannt. Die übrigen Schriften Caesars sind lediglich fragmentarisch erhalten. In seiner Jugend verfasste er mehrere Gedichte, so ein "Lob des Hercules" "(Laudes Herculis)" und eine Tragödie "Oedipus". Er stellte auch eine Sammlung von "Apophthegmata" zusammen. Alle diese Werke durften auf Anordnung von Caesars Adoptivsohn und Nachfolger Octavian nicht publiziert werden, so dass sie heute gänzlich verloren sind. Während des Bürgerkrieges schrieb Caesar Ende 46 v. Chr. das Gedicht "Iter" („Die Reise“) und schilderte darin seinen 24tägigen Marsch von Rom nach Spanien, wo er seine letzten Kämpfe gegen die Pompeianer zu bestehen hatte. Laut Plinius dem Jüngeren reimte Caesar auch Liebesgedichte. Entweder 55 oder 54 v. Chr., als Caesar von Norditalien aus die Alpen überschritt und zu seinem Heer nach Gallien zurückkehrte, schrieb er zwei Cicero gewidmete Bücher "De analogia", in denen er sich über die grammatische Sprachrichtigkeit als Basis der Rhetorik theoretisch äußerte. Einige Fragmente daraus, die etwa Angaben zur Rechtschreibung, Flexion oder der richtigen Wortwahl enthalten, haben Aulus Gellius und spätere Grammatiker bewahrt. Ein im Zuge der Kalenderreform (46 v. Chr.) entstandenes astronomisches Werk, das u. a. Eingang in das 18. Buch der "Naturalis historia" des älteren Plinius fand, dürfte kaum von Caesar selbst stammen, sondern nur unter seinem Namen ediert worden sein; der eigentliche Autor war wohl der alexandrinische Astronom Sosigenes. Als Antwort auf Ciceros und Marcus Brutus’ Enkomien auf Cato, die nach dessen Selbstmord (April 46 v. Chr.) entstanden waren, verfasste Caesar 45 v. Chr. etwa zur Zeit der Schlacht bei Munda zwei Bücher "Anticatones", eine gegen seinen ehemaligen scharfen politischen Gegner gerichtete Invektive. In einem deutlichen Understatement seiner Redekunst bat der Diktator darin, seine grobe, soldatische Ausdrucksweise nicht kritisch mit der bezaubernden Sprache eines begnadeten Redners zu vergleichen. Sueton kannte Schreiben Caesars an den Senat, ebenso Sammlungen privater (bisweilen verschlüsselter) Briefe Caesars an seine engeren Bekannten und an Cicero. Sechs solcher Briefe sind in der Korrespondenz Ciceros mit dessen Freund Atticus erhalten. Aus diesen ist ersichtlich, dass Caesars Briefstil knapp und bündig war. Er betonte in ihnen auch seine Nachsicht mit politischen Opponenten und bemühte sich liebenswürdig, sich Cicero freundschaftlich zu verbinden. Um die Bewahrung eines Corpus seiner "Reden" kümmerte Caesar sich nicht und gab nur wenige von ihnen schriftlich ausgearbeitet selbst heraus. Cicero gab ein schmeichlerisches Lob über Caesars rhetorische Fähigkeiten ab. Schon 77 v. Chr. war Caesar als Gerichtsredner durch seine Anklage von Sullas ehemaligem Parteigänger Gnaeus Cornelius Dolabella wegen Erpressung aufgefallen. In seiner 68 v. Chr. gehaltenen "laudatio funebris" auf seine verstorbene Tante Iulia, aus der Sueton ein größeres Bruchstück erhalten hat, strich Caesar die angeblich königliche und göttliche Abkunft seines Geschlechts heraus. Es zirkulierten auch unechte Reden Caesars; Augustus hielt etwa eine seinem Adoptivvater zugeschriebene Ansprache "An die Soldaten in Spanien" für nicht authentisch. Die Caesar von antiken Geschichtsschreibern in den Mund gelegte Worte sind freilich nicht echten Reden entnommen, geben aber doch mitunter inhaltlich seine Haltung richtig wieder. Porträt. Das einzige inschriftlich gesicherte Porträt Caesars, das zu Lebzeiten entstand, ist auf Münzen überliefert, die in seinem letzten Lebensjahr geprägt wurden. Sie zeigen eine hagere Person mit hoher Stirn und langem, faltigem Hals. Auf der Grundlage der Münzabbildungen wurde ein in Tusculum gefundener, jetzt in Turin befindlicher Kopf aus Kalkstein als zeitgenössisches Porträt Caesars identifiziert. Postume Darstellungen finden sich wiederum auf Münzen des Jahres 42 v. Chr., denen ein Kopf im Vatikan entspricht. Das Porträt ist deutlich idealisierter als die zu Lebzeiten entstandenen. Die Idealisierung der Darstellung des "divus Iulius" setzte sich in augusteischer Zeit fort. Eigenständig ist ein wohl in Ägypten entstandener Porträtkopf aus Grünschiefer (Diabas) in der Antikensammlung Berlin. Im Oktober 2007 wurde auf dem Grund der Rhone in der Nähe des 46 v. Chr. von Caesar gegründeten Arles eine Büste gefunden, die laut Meinung französischer Archäologen, die den Fund im Mai 2008 bekanntgaben, ein noch zu seinen Lebzeiten entstandenes Porträt Caesars sein soll. Die Identifizierung wird von anderen Fachleuten bestritten. Sueton beschrieb Caesar als hochgewachsen, seine Hautfarbe war weiß, er hatte kräftige Glieder, ein etwas zu volles Gesicht und schwarze, lebhafte Augen. Er bekam früh eine Glatze, Körperhaare ließ er ausrupfen. Außerdem litt Caesar an Epilepsie. Caesars Kahlköpfigkeit war auch Thema von zeitgenössischen Spottliedern (vgl. Spottlieder während des Triumphzuges). Der Name „Caesar“. Nach dem römischen Schriftsteller Plinius leitet sich der Name „Caesar“ vom Partizip Perfekt des lateinischen Wortes "caedere" („ausschneiden“), "caesus" („geschnitten“), ab. Im Kontext des römischen Gesetzes "lex regia" oder "lex caesarea," nach dem schwangeren Frauen, die während der Geburt verstarben, das Kind aus dem Leib geschnitten werden sollte, wird der Name als „der aus dem Mutterleib Geschnittene“ interpretiert. Dies hat allerdings nichts mit einem heutigen Kaiserschnitt zu tun, denn dieser Eingriff hatte weniger das Ziel, das Kind zu retten, als vielmehr es getrennt von der Mutter begraben zu können. Es wäre dann anzunehmen, dass ein früher Vorfahre Gaius Iulius Caesars mit einem solchen Eingriff in Verbindung stand und sich daraus der Name ableitet. Eine andere These geht davon aus, dass der Name "Caesar" mit dem verlorengegangenen karthagischen Wort für Elefanten in Zusammenhang steht. Einer von Caesars Vorfahren hat sich demnach in den punischen Kriegen diesen Beinamen verdient. Dafür spricht, dass Caesars Wappentier der Elefant ist, der auch auf den Rückseiten der mit seinem Gesicht geprägten Münzen abgebildet ist. Das Suffix "-ar" ist im lateinischen Namenskontext ansonsten völlig unbekannt. Es ist zudem möglich, dass das gesamte Cognomen „Caesar“ überhaupt nicht lateinischen Ursprunges ist. Das „C“ wurde im Lateinischen zu Caesars Zeit als unbehauchtes „K“ ausgesprochen, das „ae“ als, nicht als „ä“. Daraus ergibt sich die folgende lateinische Aussprache des Wortes Caesar: // „Kaisar“. Erst durch Lautwandlungen in der Spätantike ergab sich die Aussprache // „Zäsar“, die sich im deutschen Sprachgebrauch eingebürgert hat. Zur Schreibung des Vornamens als "Caius" siehe den Artikel Gaius. Der Titel Caesar. Der Titel "Caesar" war seit Augustus Teil des Namens und der Titulatur der römischen Herrscher. Seit der Zeit Kaiser Hadrians war "Caesar" der Titel des Zweiten in der Hierarchie, des designierten Nachfolgers des "„Augustus“" titulierten Kaisers. Leicht variiert wurde er in vielen Sprachen ein Titel des Herrschers. Das deutsche Wort "Kaiser" und das slawische "Zar" sind von „Caesar“ abgeleitet. Caesarchiffre. Die Caesarchiffre ist ein einfaches Text-Verschlüsselungsverfahren, welches von Caesar benutzt worden sein soll. Dabei werden Buchstaben aus dem Klartext durch einen Buchstaben ersetzt, der eine bestimmte Anzahl, zum Beispiel 3, Stellen später im Alphabet steht. Kalenderreform. Im Jahre 46 v. Chr. führte Caesar anstelle des alten römischen Mondkalenders den aus Ägypten stammenden Sonnenkalender ein. Dabei stützte er sich wahrscheinlich auf Berechnungen des Astronomen Sosigenes aus Alexandria. Nach Caesars Tod wurde sein Geburtsmonat, der "mensis Quintilis," ursprünglich fünfter Monat des römischen Jahres, in "mensis Iulius," deutsch „Juli“, umbenannt. Der nach ihm benannte Julianische Kalender galt in den katholischen Ländern bis ins 16. Jahrhundert, als er von dem genaueren Gregorianischen Kalender abgelöst wurde. Die meisten protestantischen Staaten behielten den Julianischen Kalender bis ins 18. Jahrhundert bei, das orthodoxe Russland sogar bis 1918. Caesar in den Künsten. a> zeigen, wie sich Maler im 18. und 19. Jahrhundert die Ermordung Caesars vorstellten. Zahlreiche Künstler und Schriftsteller haben Caesar als Thema von Bildern, Dramen und Romanen gewählt. In Dante Alighieris "Divina Commedia" werden Brutus und Cassius, die beiden Verschwörer gegen Caesar, den ersten gottgewollten Kaiser, neben Judas, dem Verräter an Jesus, im innersten Kreis der Hölle gequält. Am bekanntesten dürfte das Theaterstück William Shakespeares sein, siehe "Julius Cäsar." Georg Friedrich Händel komponierte eine Oper "Giulio Cesare." Quellen. Neben Caesars eigenen Schriften sind vor allem die Biographien Suetons und Plutarchs zu nennen. Cassius Dio berichtet in seiner "Römischen Geschichte" recht ausführlich über Caesar (ab Buch 37), ebenso wie Appian in seinem Werk über den Bürgerkrieg. Wertvolle Informationen bieten unter anderem auch die diversen Reden und Briefe Ciceros. Gaius Asinius Pollio behandelte die Zeit von 60 bis (wahrscheinlich) 42 v. Chr. in seinen "Historien", wovon jedoch nur wenige Fragmente erhalten sind. Der Bürgerkrieg wurde auch von Marcus Annaeus Lucanus in seinem Werk "Pharsalia" behandelt. John Forbes Nash Jr.. John Forbes Nash, Jr. (* 13. Juni 1928 in Bluefield, West Virginia; † 23. Mai 2015 nahe Monroe Township, New Jersey) war ein US-amerikanischer Mathematiker, der besonders in den Bereichen Spieltheorie und Differentialgeometrie sowie auf dem Gebiet der partiellen Differentialgleichungen arbeitete. Im Jahr 1994 erhielt er zusammen mit Reinhard Selten und John Harsanyi den Wirtschaftsnobelpreis für die gemeinsamen Leistungen auf dem Gebiet der Spieltheorie. Damit war Nash einer der wenigen Mathematiker, die diesen Preis erhielten. 2015 erhielt er mit dem Abelpreis auch noch einen der wichtigsten Wissenschaftspreise auf dem Gebiet der Mathematik. Nach einem vielversprechenden Start seiner mathematischen Karriere erkrankte Nash mit dreißig Jahren an Schizophrenie. Von der Krankheit erholte sich Nash zu Beginn der 1990er Jahre. Seine Geschichte ist Ende 2001 einem breiteren Publikum durch den preisgekrönten Spielfilm "A Beautiful Mind" bekannt geworden. Ausbildung und Werk. Von 1945 bis 1948 studierte Nash am Carnegie Institute of Technology in Pittsburgh, wo er 1945 seinen Bachelor- und 1948 seinen Master-Abschluss machte. Ursprünglich wollte er wie sein Vater Ingenieur werden, entwickelte jedoch eine große Vorliebe für Mathematik. Er interessierte sich auch für Physik und trug eine seiner Theorien sogar Albert Einstein vor, als er 1948 in Princeton zu studieren begann, doch riet ihm dieser am Ende der Unterredung "mehr Physik zu studieren". Noch in Pittsburgh begann sein Interesse am Verhandlungsproblem, dessen Lösung John von Neumann und Oskar Morgenstern in ihrem Buch "Theory of Games and Economic Behavior" 1944 offengelassen hatten. Nash wurde 1950 an der Princeton University bei dem Mathematiker Albert W. Tucker promoviert. Die Arbeit mit dem Titel "Non-cooperative Games" erweiterte die Spieltheorie von "Morgenstern" und "von Neumann" um das sogenannte Nash-Gleichgewicht (Nash-Equilibrium). Nash wies nach, dass dieses Gleichgewicht – abweichend von den Lösungen – auch für Nicht-Nullsummenspiele und für mehr als zwei Spieler existiert. Ausgegangen wird von einem Satz von Strategien (etwa Preispolitik) von Spielern (Konkurrenten im Markt). Eine Situation, bei der kein Spieler davon profitieren kann, seine Strategie zu ändern, wenn die anderen Spieler ihre Strategien unverändert lassen, ist ein Nash-Gleichgewicht. Die Bedeutung dieser Arbeit aus dem Jahr 1950 wurde erst später im Zusammenhang mit der Weiterentwicklung der Spieltheorie erkannt und brachte ihm 1994 den Nobelpreis für Wirtschaftswissenschaften ein. Von Neumann selbst war damals bei einem Treffen mit Nash wenig beeindruckt; er hielt das Ergebnis für trivial und erwähnte es in der Neuauflage seines Buches mit Morgenstern über Spieltheorie von 1953 nur indirekt in der Einleitung. Auch Nash selbst wertete die Arbeit eher als Nebenprodukt im Vergleich zu seinen späteren Arbeiten. Für den Fall, dass seine Arbeit über Spieltheorie nicht akzeptiert würde, hätte er schon eine andere Arbeit in algebraischer Geometrie vorbereitet, so Nash. 1952 erschien seine Arbeit über reelle algebraische Mannigfaltigkeiten, die er selbst als seine perfekte Arbeit betrachtete. Die Idee dahinter war, jede Mannigfaltigkeit durch eine algebraische Varietät (die viel einfacher zu handhaben und durch Polynome beschreibbar waren) anzunähern, eventuell indem man zu Räumen viel höherer Dimension überging. In diesem Zusammenhang sind Nash-Mannigfaltigkeiten und Nash-Funktionen nach ihm benannt. Nach seiner Promotion wandte sich Nash vermehrt der Analysis zu, insbesondere der Differentialgeometrie und den partiellen Differentialgleichungen. Er bewies, dass jede Riemannsche Mannigfaltigkeit isometrisch in den euklidischen formula_1 eingebettet werden kann (der Einbettungssatz von Nash). Die Frage, ob dies möglich ist, wurde bereits von Bernhard Riemann gestellt, und die landläufige Meinung in den 1950er Jahren war, dass das nicht so sei. Das Resultat von Nash kam unerwartet und hatte weitreichende Konsequenzen. Ein Teilresultat seines Einbettungssatzes wurde 1966 von Jürgen Moser in der Theorie nichtlinearer partieller Differentialgleichungen benutzt und ist als Satz von Nash und Moser bekannt. Ab 1950 war Nash vier Jahre lang in den Sommermonaten an der Rand Corporation mit geheimer Forschungsarbeit beschäftigt, wo auch Kenneth Arrow, John Milnor (der bei Rand mit Nash zusammenarbeitete) und andere an Anwendungen der Spieltheorie auf strategische Situationen im Kalten Krieg arbeiteten. 1951 bis 1953 war Nash Moore-Instructor am Massachusetts Institute of Technology und ab 1953 war er dort Assistant Professor und von 1957 bis 1959 Associate Professor. 1955 übermittelte er der National Security Agency einen Vorschlag für ein Verschlüsselungsverfahren, erhielt jedoch eine Absage. 1958 veröffentlichte er (parallel zu Ennio de Giorgi, jedoch unabhängig von diesem) eine Lösung des Regularitätsproblems partieller Differentialgleichungen, welches David Hilbert 1900 in seine bekannte Liste der größten, offenen Probleme der Mathematik aufgenommen hatte (19. Problem). Die Ergebnisse wurden bekannt als "Satz von De Giorgi und Nash" und haben für die Theorie der partiellen Differentialgleichungen weitreichende Konsequenzen. Nash war 1956/57 vom MIT beurlaubt und nominell am Institute for Advanced Study in Princeton, forschte aber am Courant Institute in New York City, dem damaligen Mekka der Forschung in partiellen Differentialgleichungen, wo zu der Zeit unter anderem Peter Lax, Louis Nirenberg und Lars Hörmander aktiv waren. Nash hat 1947 das heute unter dem Namen „Hex“ vertriebene Spiel durch Überlegungen der Spieltheorie entworfen, unabhängig von dem Dänen Piet Hein ein paar Jahre zuvor. Ein Prototyp wurde von dem mit Nash befreundeten David Gale gebaut und das Spiel war bald populär unter den Mathematikern in Princeton wie John Milnor. Um 1950 verbrachte er in Princeton viel Zeit mit Brettspielen (insbesondere Schach, Go, wo Ralph Fox Meister war, und das sogenannte "Kriegspiel") und entwickelte zusammen mit anderen Studenten auch das Spiel "So Long Sucker". Leben und Krankheit. Ende der 1950er Jahre war Nash allgemein als führender Mathematiker anerkannt, was sich auch in einem Artikel des Forbes Magazine niederschlug, und er wurde sogar Ende der 1950er Jahre für die Fields-Medaille vorgeschlagen, insbesondere für seine Arbeiten zu Hilberts 19. Problem gleichzeitig mit de Giorgi. Am MIT stand er kurz vor einer vollen Professur, als 1959 die ersten Anzeichen von Nashs Erkrankung erkennbar wurden. Im Mai 1959 wurde bei ihm eine paranoide Schizophrenie diagnostiziert. Der Nash-Biografin Sylvia Nasar zufolge zeigte Nash nun zunehmend antisemitische Tendenzen und neigte zu Gewaltausbrüchen. Nash gab seine Position am MIT auf und ging nach kurzem Krankenhausaufenthalt zunächst 1959/60 nach Paris und Genf, wo er sich als Weltbürger und Exilant sah. 1961 sahen sich seine Ehefrau Alicia Lardé und seine Mutter gezwungen, Nash in eine Nervenheilanstalt (Trenton State Hospital) einzuweisen. Hier wurde er durch eine Insulinschocktherapie behandelt, die ihn in ein künstliches Koma versetzte. Er erholte sich und konnte 1961 eine Konferenz über Spieltheorie besuchen. 1961/62 und 1963/64 war er erneut am Institute for Advanced Study, 1962 besuchte wieder Paris, London und Genf, um dann nach Princeton zurückzukehren. 1964 wurde seine Schizophrenie so stark, dass er für längere Zeit in eine psychiatrische Klinik (die Privatklinik Carrier Clinic) eingeliefert werden musste, wobei er 1965 noch einmal in Paris war (auf Einladung von Alexander Grothendieck). Während der nächsten 20 Jahre war er bei Rückfällen mit Unterbrechungen immer wieder in Kliniken. In der Folge seiner Erkrankung brachte er zwischen 1966 und 1996 keinerlei Publikationen heraus. Zuvor erschienen aber noch einige herausragende Arbeiten. Aus den 1960er Jahren stammte eine Idee in der Theorie der Auflösung der Singularitäten in der algebraischen Geometrie, die als "Nash Blowing Up" (so genannt von Heisuke Hironaka, dem Nash die Idee mündlich mitteilte) bekannt wurde, und einige einflussreiche Arbeiten über partielle Differentialgleichungen. 1965 bis 1967 war Nash, der von bedeutenden US-Mathematikern wie John Milnor, der ihn noch aus Studienzeiten kannte, unterstützt wurde, am MIT. In den 1970er bis 1990er Jahren lebte er in Princeton, wo man ihn regelmäßig auf dem Campus sehen konnte. Während er anfangs den Studenten durch merkwürdige Botschaften auffiel, die er hinterließ, fiel den Mathematikern in Princeton (wie Peter Sarnak) ab Anfang der 1990er Jahre zunehmend auf, dass er Teile seiner alten Problemlösungsfähigkeiten wiedererlangt hatte. In seinen letzten Jahren wandte er sich vermehrt der Geldtheorie zu, wobei er für ein Indexgeld plädierte. Seit 2001 war er zum zweiten Mal mit Alicia Lardé verheiratet (in erster Ehe ab 1957, geschieden 1963). Sie hatten einen gemeinsamen Sohn (* 1959); ferner hat er einen Sohn (* 1953) aus einer früheren Beziehung. Nash starb zusammen mit seiner Ehefrau im Mai 2015 bei einem Verkehrsunfall auf dem New Jersey Turnpike; sie waren in einem Taxi auf dem Heimweg von der Verleihung des Abel-Preises. Beide waren nicht angegurtet und wurden aus dem Fahrzeug geschleudert. Verfilmungen. Im Spielfilm "A Beautiful Mind" von 2001 mit Russell Crowe in der Hauptrolle wird die Geschichte von Nashs genialen Entwürfen, der Erkrankung und der Genesung dargestellt; der Film gewann 2002 vier Oscars. Dem Drehbuch liegt die gleichnamige Biographie von Sylvia Nasar von 1998 zugrunde. Die Verfilmung stimmt lediglich in Eckpunkten mit Nashs Biographie überein; viele Einzelheiten sind frei erfunden. Auszeichnungen. Nash wurde Ehrendoktor der Universität Athen und der Carnegie Mellon University in Pittsburgh. Er wurde in die National Academy of Sciences gewählt und war Fellow der American Mathematical Society. Jürgen Habermas. Jürgen Habermas (* 18. Juni 1929 in Düsseldorf) ist ein deutscher emeritierter Professor, der zu den weltweit meistrezipierten Philosophen und Soziologen der Gegenwart zählt. In der philosophischen Fachwelt wurde er bekannt durch Arbeiten zur Sozialphilosophie mit diskurs-, handlungs- und rationalitätstheoretischen Beiträgen, mit denen er die Kritische Theorie auf einer neuen Basis weiterführte. Für Habermas bilden kommunikative Interaktionen, in denen rationale Geltungsgründe erhoben und anerkannt werden, die Grundlage der Gesellschaft. Überblick. Habermas ist der bekannteste Vertreter der nachfolgenden Generation der Kritischen Theorie mit nationaler und internationaler Reputation. Nicht zuletzt durch regelmäßige Lehrtätigkeiten an ausländischen Universitäten, vor allem in den USA, sowie aufgrund von Übersetzungen seiner wichtigsten Arbeiten in mehr als 40 Sprachen werden seine Theorien weltweit diskutiert. Wegen der Vielfalt seiner philosophischen und sozialwissenschaftlichen Aktivitäten gilt Habermas als ein produktiver und engagierter öffentlicher Intellektueller. Vom hegelianisch-marxistischen Ursprung der Frankfurter Schule hat er sich durch die Rezeption und Integration eines breiten Spektrums neuerer Theorien gelöst. Er verband den historischen Materialismus von Marx mit dem amerikanischen Pragmatismus, der Entwicklungstheorie von Piaget und Kohlberg und der Psychoanalyse von Freud. Zudem beeinflusste er maßgeblich die deutschen Sozialwissenschaften, die Moral- und Sozialphilosophie. Meilensteine waren vor allem seine "Theorie des kommunikativen Handelns" und, wiederholt inspiriert durch die diskurstheoretische Auseinandersetzung mit Karl-Otto Apel, seine Diskurstheorie der Moral und des Rechts. Als übergeordnetes Motiv seines multidisziplinären Werks gilt ihm „die Versöhnung der mit sich selber zerfallenden Moderne“. Dazu verfolgt er die Strategie, anders als Apel generell auf Letztbegründungen zu verzichten und „die universalistischen Fragestellungen der Transzendentalphilosophie, bei gleichzeitiger Detranszendentalisierung des Vorgehens und der Beweisziele, aufzunehmen“. Habermas war an allen großen theoretischen Debatten der Bundesrepublik beteiligt und bezog zu gesellschaftspolitischen Kontroversen, wie Historikerstreit, Bioethik, deutsche Vereinigung, Europäische Verfassung und Irak-Krieg, mit dem Engagement eines „öffentlichen Intellektuellen“ betont Stellung. Kindheit, Studium und Ehe. Jürgen Habermas wurde in Düsseldorf geboren, wuchs aber in der Kleinstadt Gummersbach auf, wo sein Vater, Ernst Habermas, Geschäftsführer der dortigen Geschäftsstelle der Industrie- und Handelskammer zu Köln war. Sein Großvater war der Theologe Friedrich Habermas, der zuletzt das Lehrerseminar in Gummersbach leitete. Das politische Klima in seinem Elternhaus beschreibt er als „geprägt durch eine bürgerliche Anpassung an eine politische Umgebung, mit der man sich nicht voll identifizierte, die man aber auch nicht ernsthaft kritisierte“. Habermas’ Vater war Mitglied der NSDAP seit 1933 und wurde nach seiner Heimkehr aus der amerikanischen Gefangenschaft als „Mitläufer“ eingestuft. Er selbst war, wie für Jugendliche ab 10 Jahren vorgeschrieben, Mitglied im Jungvolk, ab 1943 als Sanitäter, wo er zum Stammfeldscher aufstieg, der andere Jungen in Erster Hilfe unterwies. Vorbild mag ihm die Mutter gewesen sein, die während des 1. Weltkrieges als Krankenschwester im Lazarett tätig gewesen war. Jedenfalls gehörte Jürgen Habermas weiterhin dem Jungvolk an; er brauchte nicht mit vierzehn Jahren in die eigentliche Hitlerjugend zu wechseln und blieb dadurch von etwaigen Kampfeinsätzen verschont. Zwar sollte er im Februar 1945 wie zuvor sein älterer Bruder zur Wehrmacht eingezogen werden, während sich der Vater wieder als Freiwilliger gemeldet hatte, doch Jürgen Habermas verbarg sich so lange vor den Feldjägern, bis die US-Amerikaner die Gegend besetzten. Im Herbst 1944 wurde er dennoch als Fronthelfer an den Westwall geschickt. Seine Tätigkeit im Jungvolk bildete im Jahr 2006 den Anlass zu einer heftigen Polemik. Joachim Fest hatte Habermas in seiner postum erschienenen Autobiographie als einen „dem Regime in allen Fasern seiner Existenz verbundenen HJ-Führer“ bezeichnet. Der Vorwurf, der vom Magazin Cicero veröffentlicht und von Habermas als „Denunziation“ zurückgewiesen wurde, erschien schließlich nach einer Zeugenaussage von Hans-Ulrich Wehler als haltlos. Zwischen 1949 und 1954 studierte Habermas an den Universitäten Göttingen (1949/50), Zürich (1950/51) und Bonn (1951–1954). Er befasste sich mit Philosophie, Geschichte, Psychologie, deutscher Literatur und Ökonomie. Zu seinen Lehrern gehörten Nicolai Hartmann, Wilhelm Keller, Theodor Litt, Erich Rothacker, Johannes Thyssen und Hermann Wein. Im Wintersemester 1950/51 begegnete Habermas erstmals Karl-Otto Apel, dessen „engagiertes Denken“ und Interesse für den amerikanischen Pragmatismus für seine weitere philosophische Entwicklung von großer Bedeutung wurde. Habermas erregte 1953 erstmals öffentliches Aufsehen, als er in der "Frankfurter Allgemeinen Zeitung" eine Rezension zu Heideggers „Einführung in die Metaphysik“ verfasste, einer Vorlesung mit gleichem Titel im Sommersemester 1935, die 1953 erstmals im Druck erschienen war. Heidegger hatte für den Druck das Wort von der „innere[n] Wahrheit und Größe“ der nationalsozialistischen Bewegung nicht gestrichen, was Habermas als Teil der „fortgesetzten Rehabilitation“ des Nationalsozialismus durch „die Masse, voran die Verantwortlichen von einst und jetzt“, scharf verurteilte. Zumal das inkriminierte Wort aus dem Zusammenhang der Vorlesung sich ergebe und „da diese Sätze 1953 ohne Anmerkung erstmals veröffentlicht wurden“, dürfe unterstellt werden, „dass sie unverändert Heideggers heutige Auffassung wiedergeben.“ Im Jahre 1954 wurde Habermas in Bonn mit seiner Arbeit "Das Absolute und die Geschichte. Von der Zwiespältigkeit in Schellings Denken" von Erich Rothacker und Oskar Becker promoviert. Danach betätigte er sich als freier Journalist für die "Frankfurter Allgemeine Zeitung", den "Merkur", die "Frankfurter Hefte" und das Düsseldorfer "Handelsblatt". Bereits als Student hatte er begonnen, Artikel für Zeitungen und Zeitschriften zu schreiben. Von 1952 bis 1956, als er eine Assistentenstelle in Frankfurt antrat, belief sich die Anzahl der geschriebenen und zum größten Teil veröffentlichten Artikel auf über 70. 1955 heiratete er Ute Wesselhoeft. Das Ehepaar hat drei Kinder. Tilmann Habermas (* 1956) ist seit 2002 Professor für Psychoanalyse an der Universität Frankfurt am Main, Rebekka Habermas (* 1959) seit 2000 Professorin für Geschichte an der Universität Göttingen, Judith Habermas (* 1967) ist im Verlagswesen tätig. Assistent in Frankfurt, Habilitation und Außerordentlicher Professor. Ein Stipendium brachte Habermas 1956 nach Frankfurt ans Institut für Sozialforschung. In der Zeit als Forschungsassistent bei Max Horkheimer und Theodor W. Adorno machte er sich mit den (zum Teil unter Verschluss gehaltenen) Schriften seiner beiden Direktoren und anderer Vertreter der Kritischen Theorie aus der Vorkriegszeit vertraut. In besonderem Maße wurde er von Herbert Marcuse beeinflusst, dem er erstmals 1956 begegnete. Unter dessen Einfluss orientierte sich seine Auffassung vom Marxismus am Denken von Freud und dem jungen Marx. Sein politisches Engagement in der Bewegung „Kampf dem Atomtod“ und seine als radikaldemokratisch rezipierte Einleitung zu der Instituts-Studie „Student und Politik“ lösten bei Horkheimer heftige Reaktionen aus, gegen die ihn Adorno zu verteidigen suchte. Der absehbare Konflikt um seine anstehende Habilitationsschrift bewog ihn zum Wechsel nach Marburg. Dank eines Habilitationsstipendiums der DFG konnte er sich 1961 in Marburg bei Wolfgang Abendroth mit der vielbeachteten Schrift "Strukturwandel der Öffentlichkeit. Untersuchungen zu einer Kategorie der bürgerlichen Gesellschaft" habilitieren. Bereits 1961, noch vor Abschluss seines Habilitationsverfahrens, wurde Habermas nach Vermittlung von Gadamer außerordentlicher Professor an der Universität Heidelberg, wo er bis 1964 lehrte. Der Kontakt mit Gadamer hatte die Auseinandersetzung mit dessen Hermeneutik zur Folge. Zugleich beschäftigte sich Habermas mit der Analytischen Philosophie – vor allem der Spätphilosophie Wittgensteins – und dem amerikanischen Pragmatismus, besonders Charles Sanders Peirce, George Herbert Mead und John Dewey. In den Jahren 1963–1965 beteiligte sich Habermas am Positivismusstreit in der deutschen Soziologie, der ihn zu einer folgenreichen Abhandlung über den erkenntnistheoretischen Status der Sozialwissenschaften motivierte. In dieser Auseinandersetzung entstanden diverse Aufsätze und eine seiner einflussreichsten Arbeiten, "Erkenntnis und Interesse" (1968). Professor für Philosophie und Soziologie. Im Jahr 1964 wurde Habermas auf Horkheimers Lehrstuhl für Philosophie und Soziologie an der Universität Frankfurt berufen. Für seine Antrittsvorlesung „Erkenntnis und Interesse“ wählte er Horkheimers Aufsatz „Traditionelle und kritische Theorie“ (1937 in der Zeitschrift für Sozialforschung erschienen) als Anknüpfungspunkt. Diese wissenschaftstheoretische Argumentation entwickelte Habermas in dem – mit der Vorlesung gleichnamigen – Buch "Erkenntnis und Interesse" (1968) weiter. Er führte den Begriff des „erkenntnisleitenden Interesses“ ein, um Unterschiede in wissenschaftlichen Methoden und Theorien zu erklären. Gemeint ist damit keineswegs, wie häufig unterstellt, eine durch partikulare Gruppen- oder Klassen-Interessen gefärbte Erkenntnis. Vielmehr seien der menschlichen Gattung drei grundlegende Interessen eigen, die mit unterschiedlichen Methoden und Theorien verknüpft seien: das Interesse an technischer Verfügung über objektive Prozesse (empirisch-analytische Wissenschaften), das Interesse an lebenspraktischer Verständigung in der Kommunikationsgemeinschaft (Hermeneutik) und das Interesse an der Emanzipation von naturwüchsigem Zwang (sozialwissenschaftliche Ideologiekritik und Psychoanalyse). Die ihm angebotene Leitung des Instituts für Sozialforschung lehnte er ab; stattdessen übernahm er mit Ludwig von Friedeburg die Leitung des „Seminars für Soziologie“, eine auf die Lehre beschränkte Dependance des Instituts. Seine Vorlesungen und Seminare bot er jeweils für Soziologen und Philosophen an. Während der in Frankfurt erlebten Studentenrevolte spielte er eine exponierte Rolle. Bereits in den 1950er Jahren war Habermas für demokratische Reformen des Bildungswesens und der Hochschulen eingetreten und wurde als Vertreter der „Linken“ zu einem geistigen Anreger der Studentenbewegung 1967/68. Mit Rudi Dutschke u. a. nahm er in Hannover am Kongress „Bedingung und Organisation des Widerstands“ teil. Zur Konfrontation zwischen Habermas und radikalen Studenten kam es aufgrund unterschiedlicher Einschätzungen der gesellschaftspolitischen Situation. Wähnten sich der SDS und seine Anhänger in einer (vor-)revolutionären Situation, warnte Habermas vor der „verhängnisvollen Strategie“, die „Polarisierung der Kräfte um jeden Preis“ zu suchen und sprach von der „Scheinrevolution und ihren Kindern“. Schon Ende der 1960er Jahre hatte er die Position der sogenannten „verfassungsloyalen“ Linken entscheidend mitgeprägt. Nun ging er zunehmend auf Distanz zu den radikalen Studentengruppen um Rudi Dutschke, denen er einen rhetorisch leichtfertigen Umgang mit der Gewalt vorhielt, mit der Gefahr eines linken Faschismus, eine Wortwahl, die er später bedauerte. Ko-Direktor des Starnberger Max-Planck-Instituts. Er wechselte 1971 nach Starnberg bei München, wo er bis 1981 gemeinsam mit Carl Friedrich von Weizsäcker das "Max-Planck-Institut zur Erforschung der Lebensbedingungen der wissenschaftlich-technischen Welt" leitete. Seinen Weggang von Frankfurt kommentierte er in einem Brief an Herbert Marcuse: „Irgendwie ist es ein ‚symbolischer Akt‘, der zum Ende der Frankfurter Schule gehört.“ Im Jahr seines Wechsels fand die Debatte mit Niklas Luhmann über dessen Systemtheorie statt. 1973 wurde Habermas der Hegel-Preis der Stadt Stuttgart, 1976 der Sigmund-Freud-Preis für wissenschaftliche Prosa verliehen. Seine Arbeit als Forschungsdirektor am Starnberger Institut nahm er mit 15 Sozialwissenschaftlern auf, unter ihnen Claus Offe, Klaus Eder, Rainer Döbert und Volker Ronge. Zunächst war sie thematisch auf Krisenerscheinungen im hochentwickelten Kapitalismus konzentriert. Drei Arbeitsgruppen wurden gebildet, die sich mit Krisenphänomenen befassten. Mit dem 1973 veröffentlichten Band "Legitimationsprobleme im Spätkapitalismus", der den programmatischen Bezugsrahmen lieferte, führte Habermas erste Diskussions- und Arbeitsergebnisse, zum Teil auf der Grundlage hausinterner Arbeitspapiere, zusammen. Seine Hauptarbeit widmete er indessen seinem Theorieprojekt über das kommunikative Handeln. Im sogenannten „Deutschen Herbst“ 1977 nahm Habermas verstärkt zu tagespolitischen Streitpunkten Stellung. So wandte er sich gegen die Ausweitung des „Radikalenerlasses“ von 1972 und setzte sich mit der Theorie des Neokonservatismus und seiner Kritik an der Moderne auseinander. 1980 erhielt er den Theodor-W.-Adorno-Preis. 1981 veröffentlichte er sein Hauptwerk "Theorie des kommunikativen Handelns", in dem er sich unter anderem auf George Herbert Mead, Max Weber, Émile Durkheim, Talcott Parsons, Georg Lukács und Theodor W. Adorno bezog. Im gleichen Jahr trat er als Direktor des Max-Planck-Instituts zurück. Seine Absicht, nach Weizsäckers Ausscheiden, den zukünftigen Schwerpunkt des Instituts ganz auf die Sozialwissenschaften zu legen, war gescheitert an Dahrendorfs überraschender Absage, als weiterer Direktor in das umgestaltete Institut einzutreten, und an der arbeitsrechtlich untermauerten Forderung der ehemaligen Mitarbeiter Weizsäckers aus der Ökonomie-Arbeitsgruppe, in das neu zu schaffende Institut übernommen zu werden. Professor für Philosophie. Nach der Teilschließung des Max-Planck-Institut zur Erforschung der Lebensbedingungen der wissenschaftlich-technischen Welt kehrte er nach Frankfurt zurück, wo er von 1983 bis zu seiner Emeritierung im Jahre 1994 den "Lehrstuhl für Philosophie" mit dem Schwerpunkt Sozial- und Geschichtsphilosophie übernahm. Mitte der 1980er Jahre widmete sich Habermas im Rahmen eines von der Leibniz-Gemeinschaft und der DFG finanzierten fünfjährigen Forschungsprojekts rechtstheoretischen Fragestellungen und entwickelte in "Faktizität und Geltung" (1992) seine eigene Rechtsphilosophie und Theorie einer „deliberativen Demokratie“. Im Jahr 1986 wandte sich Habermas in dem Artikel "Die apologetischen Tendenzen in der deutschen Zeitgeschichtsschreibung" gegen die – von ihm als revisionistisch bezeichnete – Argumentation einer Gruppe von Historikern (vornehmlich Ernst Nolte neben Michael Stürmer, Andreas Hillgruber und Klaus Hildebrand), den Nationalsozialismus mit dem Stalinismus auf einer Ebene zu vergleichen, bzw. diesen als Vorläufer und Vorbild für jenen darzustellen. Der Beitrag stieß auf heftige Reaktionen und löste in der Folge den polemisch ausgetragenen Historikerstreit aus. An der deutschen Wiedervereinigung (1990) kritisierte Habermas den Charakter eines „auf wirtschaftliche Imperative zugeschnittenen Verwaltungsvorgangs“ ohne „eigene demokratische Dynamik“. Die Grundgesetzänderung zur Einschränkung des Asylrechts gegen Ende 1992 begreift er als Ausdruck einer „Mentalität des Wohlfahrtschauvinismus“. Er protestiert dagegen in den Printmedien und in persona als einer der 350.000 Demonstranten am 8. November 1992 in Berlin. Nach der Emeritierung. Auch nach seiner Emeritierung 1994 meldete sich Habermas immer wieder publizistisch zu Wort. Im März 1999 bezog er in der Wochenzeitung "Die Zeit" abwägend für den Kosovokrieg Stellung. Die im selben Jahr durch Peter Sloterdijks Rede "Regeln für den Menschenpark" ausgelöste Kontroverse um das Thema der Eugenik veranlasste Habermas 2001 zu der Veröffentlichung "Die Zukunft der menschlichen Natur. Auf dem Weg zu einer liberalen Eugenik?" In seiner Rede anlässlich der Verleihung des Kyoto-Preises, "Freiheit und Determinismus" (2004), setzte er sich außerdem mit der durch die aktuelle Hirnforschung aufgeworfenen Frage über die Freiheit des Menschen auseinander. Seit 1997 ist Jürgen Habermas Mitherausgeber der politisch-wissenschaftlichen Monatszeitschrift "Blätter für deutsche und internationale Politik". Am 15. September 2007 eröffnete er in Rom einen dreitägigen Kongress mit dem Titel "Religion und Politik in der postsäkularen Gesellschaft". Seither hat er in Vorträgen und Diskussionen mit Theologen und Kirchenvertretern mehrfach den Stellenwert der Religion für das gesellschaftliche Wertesystem hervorgehoben, um gegenüber dem globalen Kapitalismus die „knappe Ressource Solidarität“ aufrechtzuerhalten. Heidegger und Lukács. Der junge Habermas war stark vom Denken Martin Heideggers beeinflusst. So hatte er in seiner Dissertation "Das Absolute und die Geschichte" (1954) die Entwicklung des Begriffs des Absoluten im Werk Schellings auf dem Hintergrund von Heideggers "Sein und Zeit" interpretiert. Im Mittelpunkt von Habermas’ Interesse steht dabei Schellings Werk "Die Weltalter", das er als eine „wesentlich anthropologisch orientierte“ Geschichte des Seins versteht. Es nehme dabei bereits Themen der Existenzphilosophie Heideggers wie „die Not der geschichtlichen Existenz: Schmerz, Zerrissenheit, Zweifel, Anstrengung, Überwindung und Streit“ vorweg. Einen starken Einfluss übte darüber hinaus die frühe Lektüre von Georg Lukács’ "Geschichte und Klassenbewußtsein" aus. Insbesondere die von Lukács darin entwickelte Theorie der Verdinglichung führte Habermas dazu, sich stärker mit dem Marxismus zu beschäftigen, ohne sich zunächst vom Denken Heideggers zu entfernen. Wandel der Technik- und Marxkritik. In seinem 1954 veröffentlichten Aufsatz "Die Dialektik der Rationalisierung", der bereits viele Kerngedanken seines Hauptwerks "Theorie des kommunikativen Handelns" (1981) enthielt, entwickelte Habermas im Anschluss an Lukács eine Theorie der kapitalistischen Rationalisierung. Er unterscheidet eine technische (der Produktion), ökonomische (der betrieblichen Organisation) und soziale Rationalisierung der Arbeit. Die Rationalisierung habe zwar die physische Belastung der Arbeiter reduziert, ihre mentale aber erhöht. Er äußert in diesem Text seine Vorbehalte gegenüber der modernen Technik und wirft Marx vor, deren negative Rolle übersehen zu haben. Diese Kritik an Marx wiederholte Habermas in seinem Aufsatz "Marx in Perspektiven" (1955). Marx habe nicht begriffen, dass „die Technik selbst, und nicht erst eine bestimmte Wirtschaftsverfassung, unter der sie arbeitet, die Menschen, die arbeitenden wie die konsumierenden, mit ‚Entfremdung‘ überzieht“. Mit dem "Literaturbericht zur philosophischen Diskussion um Marx und den Marxismus" (1957) begann Habermas’ Annäherung an Marx und seine Abkehr vom Denken Heideggers. Habermas schließt sich darin dem Gedanken Marx’ an, dass das Phänomen der Entfremdung keine existenzielle Dimension des Menschen darstellt, sondern als Ergebnis bestimmter sozialer Verhältnisse anzusehen ist. Sie ist „nicht Chiffre eines metaphysischen Unfalls, sondern Titel einer faktisch vorgefundenen Situation“. In seiner Abhandlung "Soziologische Notizen zum Verhältnis von Arbeit und Freiheit" (1958) korrigierte Habermas seine heideggerianische Sicht der Technik. Nicht mehr sie selbst, sondern ihr falscher politischer Gebrauch stellt demnach die Ursache der menschlichen Entfremdung dar. Philosophische Anthropologie. 1958 widersprach Habermas in "Philosophische Anthropologie" (Artikel für "Fischer-Lexikon Philosophie") der Auffassung von der unveränderlichen Natur des Menschen. Mit Erich Rothacker, seinem Doktorvater, vertrat er die These von der geschichtlichen Dimension der menschlichen Natur: „Die Menschen leben und handeln nur in den konkreten Lebenswelten je ihrer Gesellschaft, niemals in ‚der‘ Welt“ Der „ontologische“ Charakter der traditionellen Anthropologie birgt für Habermas die Gefahr „einer Dogmatik mit politischen Konsequenzen, die um so gefährlicher ist, wo sie mit dem Anspruch wertfreier Wissenschaft auftritt“. Konzept einer politischen Partizipation. Im Vorwort der 1961 zusammen mit Ludwig von Friedeburg, Christoph Oehler und Friedrich Weltz erstellten Studie "Student und Politik" über das politische Verhalten deutscher Studenten, legte Habermas erstmals seine Auffassung von Demokratie und bürgerlichem Rechtsstaat vor, die in ihren Grundzügen bis zur Publikation von "Faktizität und Geltung" (1992) unverändert blieb. Das Wesen der Demokratie ist für Habermas vorrangig durch den Begriff der politischen Partizipation gekennzeichnet. Diese realisiere sich, indem „mündige Bürger unter Bedingungen einer politisch fungierenden Öffentlichkeit, durch einsichtige Delegation ihres Willens und durch wirksame Kontrolle seiner Ausführung die Einrichtung ihres gesellschaftlichen Lebens selbst in die Hand nehmen“ und so „personale Autorität in rationale“ überführen (KuK, S. 13). Damit sei Demokratie die politische Gesellschaftsform, die „die Freiheit der Menschen steigern und am Ende vielleicht ganz herstellen könnte“ (KuK, S. 11). Sie werde erst dann wirklich „wahr“, wenn die „Selbstbestimmung der Menschheit“ wirklich geworden ist. Diese Idee der Herrschaft des Volkes sei aber im modernen Verfassungsstaat in Vergessenheit geraten. Habermas kritisiert eine „Verlagerung des Schwergewichts vom Parlament weg auf Verwaltung und Parteien“ (KuK, S. 20f), womit die Öffentlichkeit auf der Strecke bleibe. Der Bürger unterstehe zwar „in fast allen Bereichen täglich“ der Verwaltung, was er jedoch nicht als erweiterte Partizipation, sondern als eine Art Fremdbestimmung erlebe, der gegenüber er eine am Eigeninteresse orientierte Haltung einnehme. Die Parteien hätten sich gegenüber dem Parlament und dem Wähler verselbständigt. Das Parlament sei zu einer Stätte geworden, „an der sich weisungsgebundene Parteibeauftragte treffen, um bereits getroffene Entscheidungen registrieren zu lassen“ (KuK, S. 28). Mit dem Verschwinden der Klassenparteien und der Entstehung der modernen „Integrationsparteien“ ist laut Habermas auch der Unterschied der Parteien untereinander verloren gegangen, während die politischen Gegensätze „formalisiert“ und so gut wie inhaltslos werden. Für den Bürger sei „juristisch der Status eines Kunden vorgesehen […], der zwar am Ende die Zeche bezahlen muss, für den im übrigen aber alles derart vorbereitet ist, dass er selber nicht nur nichts zu tun braucht, sondern auch nicht mehr viel tun kann“ (KuK, S. 49f). Strukturwandel der Öffentlichkeit. Die zentrale Bedeutung der „Öffentlichkeit“ für den bürgerlichen Verfassungsstaat stellte Habermas in seiner Habilitationsschrift (1962) dar. Er sucht anhand historischer Beispiele zu zeigen, wie „die politische Öffentlichkeit aus der literarischen“ hervorgegangen ist. In den um die Mitte des 17. Jahrhunderts gegründeten Kaffeehäusern, Salons und Tischgesellschaften bildeten sich Kristallisationspunkte der Öffentlichkeit. Ihre Gespräche kreisten zunächst um Kunst und Literatur, erweiterten sich aber bald um ökonomische und politische Inhalte. Unter den Mitgliedern herrschte Gleichberechtigung und die Macht des Arguments. Ab Mitte des 19. Jahrhunderts sieht Habermas (ähnlich wie Ferdinand Tönnies) den öffentlichen Diskurs zunehmend gefährdet. Ihm zufolge gerät die Publizität durch verschärften kapitalistischen Konkurrenzdruck in den Sog von partikularen Interessen. Mit Entstehung der Massenpresse und den ihr eigenen technischen und kommerziellen Gegebenheiten erfolgt eine „Refeudalisierung der Öffentlichkeit“: Die Kommunikation wird wieder eingeschränkt und dem Einfluss einzelner Großinvestoren unterworfen. Der ebenfalls im 20. Jh. starke Einfluss von Staaten, zumal von kriegführenden und totalitären, auf die Öffentliche Meinung, tritt bei Habermas dem kapitalistischen gegenüber ganz zurück. Um die kritische Funktion von Öffentlichkeit in der Gegenwart wieder herzustellen, müssen „die in der politischen Öffentlichkeit agierenden Mächte dem demokratischen Öffentlichkeitsgebot effektiv unterworfen werden“. Außerdem müsse es gelingen, die „strukturellen Interessenskonflikte nach Maßgabe eines erkennbaren Allgemeininteresses“ zu relativieren. Dies könnte erreicht werden, wenn es zum einen gelingt, eine „Gesellschaft im Überfluss beschleunigt herbeizuführen, die einen von knappen Mitteln diktierten Ausgleich der Interessen als solchen erübrigt“. Zum anderen habe „der noch unbewältigte Naturzustand zwischen den Völkern“ ein solches „Ausmaß allgemeiner Bedrohung“ angenommen, dass sich „ein allgemeines Interesse“ an der Herbeiführung eines „ewigen Friedens“ im Kant’schen Sinne ergibt. Theorie und Praxis. Ab Anfang der 1960er Jahre galt Habermas’ primäres Interesse dem Verhältnis von Theorie und Praxis. Er löste sich allmählich von einer am jungen Marx ausgerichteten Geschichtsphilosophie und begann die Grundlagen seiner kritischen, auf Emanzipation bedachten Gesellschaftstheorie zu entwickeln, wobei es ihm um die Einheit von (philosophischer bzw. sozialwissenschaftlicher) Theorie und (politischer) Praxis ging. Daneben beschäftigte ihn die Frage nach dem Status der empirischen Wissenschaften und ihrer angeblichen Wertfreiheit. Im sogenannten Positivismusstreit in der deutschen Soziologie warf Habermas Hans Albert und Karl Popper vor, einer eingeschränkten Auffassung von Rationalität – auch bezüglich der empirischen Wissenschaften – anzuhängen. Er kritisierte die Annahme, die empirischen Wissenschaften seien unabhängig von den Standards, „die diese Wissenschaften selber der Erfahrung anlegen“. Die naturwissenschaftlichen Theorien seien vielmehr Gegenstand einer Debatte, die innerhalb einer wissenschaftlichen Gemeinschaft stattfindet. Wissenschaftliche Prinzipien sind Habermas zufolge nicht einfach Ergebnis von Forschung, sondern werden durch die Gemeinschaft der Forscher in einem verständigungsorientierten Diskurs aufgestellt. Habermas lehnt weiterhin den „instrumentellen“ Charakter der Sozialwissenschaften ab, die auf die Entwicklung von „Soziotechniken“ abzielten, mit denen wir „gesellschaftliche Prozesse wie Naturprozesse verfügbar machen können“. Eine solche Soziologie verkenne aber, dass es sich bei gesellschaftlichen Systemen, nicht um „repetitive Systeme [handle], für die erfahrungswissenschaftlich triftige Aussagen möglich sind“. Als eine Auswirkung dieses Streits entstand 1968 die Schrift "Erkenntnis und Interesse". Habermas greift hierin die Fragestellung der Transzendentalphilosophie nach den Bedingungen der Möglichkeit von Erkenntnis auf, um sie mit den Mitteln der modernen Sozialwissenschaften zu beantworten. Er stellt heraus, dass es keine „objektive“ Erkenntnis gibt. Vielmehr bestimmt das jeweilige theoretische oder praktische Erkenntnisinteresse den Aspekt, unter dem die Wirklichkeit objektiviert, das heißt wissenschaftlicher Forschung und Organisation zugänglich gemacht wird. Erkenntniskritik ist daher nur noch als Gesellschaftstheorie möglich. Kurz nach Erscheinen von "Erkenntnis und Interesse" veröffentlichte Habermas "Technik und Wissenschaft als „Ideologie“", eine Schrift, die den Übergang Habermas zur Kommunikationstheorie darstellt und in der – so drückt es der Soziologe Helmut Dubiel aus – „alle Elemente der entfalteten Theorie (des kommunikativen Handelns) schon keimhaft“ enthalten sind. Der „Linguistic Turn“. Mit dem Beginn der 1970er Jahre kam es zum „Linguistic Turn“ in der Philosophie des Jürgen Habermas. Zentrale Einflüsse gingen von der Sprachphilosophie Austins und Searles und der Grammatiktheorie Chomskys aus. Auch die Hermeneutik Gadamers und der Pragmatismus Peirces spielten dabei eine wichtige Rolle. Auf dieser Basis entwickelte Habermas seine Universalpragmatik und seine Konsensustheorie der Wahrheit. Universalpragmatik. Habermas’ Interesse an der Sprachphilosophie ist ein gesellschaftstheoretisches. Er geht der Frage nach, ob sich eine Gesellschaftstheorie sprachtheoretisch begründen lässt. Der zentrale Gegenstand seiner Gesellschaftstheorie ist der Begriff „Handeln“. Handeln bestimmt er als ein „Verhalten, das durch Normen geleitet oder an Regeln orientiert ist“. Normen und Regeln haben einen Sinn, der gedeutet und verstanden werden muss. Die Angemessenheit einer solchen Deutung kann „nur mit Bezugnahme auf das Wissen des Subjekts“ selbst geprüft werden, wobei davon ausgegangen wird, dass es ein implizites Regelwissen bezüglich der Handlungs- und Sprachnormen besitzt. Aufgabe einer Gesellschaftstheorie ist es daher, die gesellschaftlichen Bedingungen dieses Regelwissen zu rekonstruieren. Sprechakte. Zur Erforschung des impliziten Regelwissens verwendet Habermas die von Austin und Searle entwickelte Theorie der Sprechakte, die er gesellschaftstheoretisch umdeutet. Sprechakte sind danach die Grundeinheiten der menschlichen Rede. Sie können in propositional ausdifferenzierte und nicht ausdifferenzierte eingeteilt werden. Erstere weisen eine „eigentümliche Doppelstruktur“ auf: sie sind zusammengesetzt aus einem „propositionalen“ Bestandteil, dem Aussageinhalt, und einem „performativen“ Bestandteil, der „Intention“ (Absicht), mit der der Aussageinhalt geäußert wird. Der performative Bestandteil der menschlichen Rede besitzt dabei eine gewisse Priorität, da er den Verwendungssinn des propositionalen Gehalts erst festlegt. Ideale Sprechsituation. Die diskursive Einlösung von Geltungsansprüchen erfolgt im Konsens, der aber kein zufälliger, sondern ein begründeter sein muss, so dass „jeder andere, der in ein Gespräch mit mir eintreten könnte, demselben Gegenstand das gleiche Prädikat zusprechen würde“. Um einen solchen begründeten Konsens erzielen zu können, muss eine ideale Sprechsituation vorliegen, die durch vier Bedingungen der Chancengleichheit charakterisiert ist: Chancengleichheit aller bezüglich … Eine solche ideale Sprechsituation hat nach Habermas weder den Status eines empirischen Phänomens, da jede Rede raumzeitlichen wie psychischen Einschränkungen unterworfen ist, noch ist sie ein ideales Konstrukt. Sie ist vielmehr „eine in Diskursen reziprok vorgenommene Unterstellung“, die kontrafaktisch sein kann. Soll der vernünftige Charakter der Rede nicht preisgegeben werden, so muss die ideale Sprechsituation „antizipiert“ werden, und insofern ist sie auch „operativ“ wirksam. Konsensustheorie der Wahrheit. In seinem wichtigen Aufsatz "Wahrheitstheorien" legte Habermas 1973 eine auf diese Überlegungen aufgebaute "Konsensustheorie der Wahrheit" vor. Das, „wovon wir sagen dürfen, es sei wahr oder falsch“, sind für Habermas Aussagen mit „assertorischer Kraft“, d. h. die auch behauptet werden und deren propositionaler Gehalt eine existierende Tatsache betrifft. Wahrheit ist somit „ein Geltungsanspruch, den wir mit Aussagen verbinden, indem wir sie behaupten“. Behauptungen gehören damit zur Klasse „konstativer Sprechakte“. Habermas stimmt der Redundanztheorie der Wahrheit insoweit zu, als die Aussage „p ist wahr“ der Behauptung „p“ nichts hinzufügt; allerdings liege der „pragmatische Sinn“ des Behauptens gerade in der Erhebung eines Wahrheitsanspruchs bezüglich „p“. Über das Bestehen von Sachverhalten und damit über die Berechtigung eines Wahrheitsanspruchs entscheidet laut Habermas nicht die Evidenz von Erfahrungen, sondern der Gang von Argumentationen innerhalb eines Diskurses: „Die Idee der Wahrheit lässt sich nur mit Bezugnahme auf die diskursive Einlösung von Geltungsansprüchen entfalten“. Das Prädikat „wahr“ darf nach Habermas dann und nur dann zugesprochen werden, wenn jeder andere, der in den Diskurs eintreten könnte, demselben Gegenstand dasselbe Prädikat zusprechen würde. Der vernünftige Konsens aller ist dabei die Bedingung für die Wahrheit von Aussagen. Theorie des kommunikativen Handelns "(TdkH)". Das 1981 erschienene zweibändige Werk "Theorie des kommunikativen Handelns (TdkH)" wird vielfach als Habermas Hauptwerk bezeichnet. Als zeitgeschichtliches Motiv nennt er den seit Ende der 1960er Jahre für die westlichen Gesellschaften eingetretenen Zustand, „in dem das Erbe des okzidentalen Rationalismus nicht mehr unbestritten gilt“. Mit dem „Grundbegriff des kommunikativen Handelns“ erschließt Habermas drei Themenkomplexe (TdkH, Bd. I, S. 8) Die Arbeit ist geprägt von langen Passagen der Auseinandersetzung mit sozial- und sprachphilosophischen sowie soziologischen Autoren. In einer „rekonstruktiven Anverwandlung“ der Theorien von Weber, Lukács, Adorno, Austin, Marx, Mead, Durkheim, Parsons und Luhmann entwickelt Habermas seine eigene Handlungs- und Gesellschaftstheorie. Kommunikative Rationalität. In der Tradition der Frankfurter Schule stehend, zielt Habermas auf eine Theorie, die Gesellschaft beschreibbar und kritisierbar macht. Aber im Gegensatz zu Horkheimer und Adorno, die Rationalisierung per se als einen menschheitsgeschichtlich verhängnisvollen Prozess analysierten (siehe „Dialektik der Aufklärung“), begrenzt Habermas sein negatives Urteil auf die Einschränkung der Vernunft im Sinne „instrumenteller Rationalität“, deren Wesen in der „Verfügung“ über Subjekte und Natur liege. Dagegen setzt er den Begriff einer „kommunikativen Rationalität“, die die „Verständigung“ mit dem Anderen ermögliche (TdkH, Bd. I, S. 30). Die Formen der Rationalität korrespondieren Habermas zufolge mit entsprechenden Handlungstypen. Er unterscheidet – in betonter Abgrenzung zu Poppers „Drei-Welten-Theorie“ – vier Formen des Handelns ("TdkH", Bd. I, S. 126ff). Im ersten Kapitel erörtert Habermas zunächst in einer theoriegeschichtlichen Diskussion vier soziologische Handlungsbegriffe unterschiedlicher Herkunft: den teleologischen (Aristoteles), den normenregulierten (Talcott Parsons), den dramaturgischen (Erving Goffman) und den kommunikativen Handlungsbegriff (George Herbert Mead). Diese werden in manchen Sekundärquellen irrtümlicherweise auch mit seiner eigenen, erst im dritten Kapitel („Erste Zwischenbetrachtung“) – auf der Grundlage der Sprechakttheorie – systematisch eingeführten Handlungstypologie verwechselt. Ausgangspunkt seiner Handlungstheorie ist die „Handlungskoordinierung“, die sowohl durch Erfolgs- als auch durch Verständigungsorientierung verwirklicht werden kann. Er differenziert dabei zwischen „instrumentellem“ und „strategischem“ Handeln als Formen erfolgsorientierten Handelns einerseits und „kommunikativem“ Handeln als verständigungsorientiertes Handeln andererseits. Instrumentelles Handeln spielt als „nicht-soziales“ in seinen weiteren Überlegungen keine Rolle. Soziale Handlungen kennzeichnet Habermas als sprachlich vermittelte. Handlungskoordination beim strategischen Handeln leistet die Erfolgsorientierung; Sprechakte dienen hierbei als bloßes Mittel zur Zweck- bzw. Zielerreichung durch Einwirkung auf andere. Im Gegensatz dazu wird kommunikatives Handeln durch Erzeugung eines Einverständnisses koordiniert, und zwar auf der Grundlage kritisierbarer Geltungsansprüche (siehe oben). Nur wenn diese akzeptiert werden, können handelnde Personen ihre Ziele erreichen. „Im Anschluß an die Sprechakttheorie“ ("TdkH", Bd. I, S. 384) klärt er die rationalen Grundlagen des kommunikativen Handelns. Mit der Verknüpfung der unterschiedlichen Sprechakte (Imperative, Konstative, Regulative, Expressive), Geltungsansprüche (Wahrheit, Richtigkeit, Wahrhaftigkeit) und Weltbezüge (objektive, soziale, subjektive Welt) kann er das kommunikative Handeln in „drei reine Typen oder Grenzfälle“ auffächern: "Konversation", "normenreguliertes" und "dramaturgisches" Handeln. Grenzfälle sind es deshalb, weil das kommunikative Handeln in der Regel alle drei in sich vereinigt. Das "strategische Handeln" bezieht sich auf die „objektive Welt“ der „Sachverhalte“. Wir entscheiden uns für eine bestimmte Handlungsalternative, die uns als das erfolgversprechendste Mittel erscheint, bestimmte Zwecke zu erreichen. Der Erfolg ist dabei zwar häufig von „anderen Aktoren“ abhängig; diese sind aber „an ihrem jeweils eigenen Erfolg orientiert“ und verhalten sich „nur in dem Maße kooperativ […] wie es ihrem egozentrischen Nutzenkalkül entspricht“ ("TdkH", Bd. I, S. 131). Handlungskoordination ist hier gleichbedeutend mit dem „Ineinandergreifen egozentrischer Nutzenkalküle“ ("TdkH", Bd. I, S. 151). Das "kommunikative Handeln" ist als zusammenfassender Begriff der drei Grenzfälle zu verstehen und bezieht sich auf alle drei Welten. Neben dem universalen Sinnanspruch der Verständlichkeit aktualisieren sich in ihm drei Kategorien von Geltungsansprüchen: die (propositionelle) Wahrheit, die (normative) Richtigkeit und die (subjektive) Wahrhaftigkeit. Im konkreten Sprechakt steht zwar jeweils ein Geltungsanspruch im Vordergrund und wird primär auf eine Welt Bezug genommen, aber prinzipiell werden stets alle drei Geltungsansprüche und Weltbezüge zugleich thematisiert (Einschlägig ist hier Fig. 16 in "TdkH", Bd. I, S. 439). Ein teleologischer Handlungstypus hat in der ausgeführten Habermasschen Systematik keinen Platz mehr. Ihm zufolge sind alle menschlichen Handlungen auf Ziele gerichtet, was ihren teleologischen Charakter ausmacht. „Der Begriff des teleologischen Handeln oder der Zwecktätigkeit steht seit Aristoteles im Mittelpunkt der philosophischen Handlungstheorie […]. Diese teleologische Struktur ist für alle Handlungsbegriffe konstitutiv.“. Ähnliche Formulierung in "TdkH", Bd. I, S. 150f. System und Lebenswelt. Kommunikativ handelnde Subjekte verständigen sich für Habermas „stets im Horizont einer Lebenswelt“ ("TdKH", Bd. I, S. 107). „Die Lebenswelt ist gleichsam der transzendentale Ort, an dem sich Sprecher und Hörer begegnen“ ("TdkH", Bd. II, S. 192). Lebenswelt ist der Komplementärbegriff zu dem des kommunikativen Handelns. Habermas fixiert in seiner zweistufigen Gesellschaftstheorie mit den Komponenten „Lebenswelt“ und „System“ die Dualität von symbolischer und materieller Reproduktion der Gesellschaft. Ihr entspricht die Differenzierung zwischen Teilnehmer- und Beobachterperspektive, da ("TdkH", Bd. I, S. 533). Erst in einem Prozess soziokultureller Evolution haben sich symbolische und materielle gesellschaftliche Reproduktion zu selbständigen, autonomen Handlungssphären entkoppelt, indem die Lebenswelt, der logisch und genetisch die primäre Bedeutung zukommt, funktionale Systeme – vornehmlich Wirtschaft (marktregulierte Ökonomie) und Politik (bürokratischer Verwaltungsstaat) – „freisetzte“. Die ausschließliche Betrachtung der Gesellschaft als System, wie sie von Niklas Luhmann und Talcott Parsons vorgenommen wird, verstellt nach Habermas den theoretischen Zugang, „einen vernünftigen Maßstab für eine als Rationalisierung begriffene gesellschaftliche Modernisierung handlungstheoretisch zu begründen“ ("TdkH", Bd. II, S. 422f). Das unvollendete Projekt der Moderne. In den 1980er Jahren setzt sich Habermas verstärkt mit philosophischen Strömungen auseinander, die der Moderne kritisch gegenüberstehen. Insbesondere stehen dabei neokonservative Strömungen und die aufkommende Philosophie der Postmoderne im Fokus. Den Ursprung bildet dabei seine Rede "Die Moderne – ein unvollendetes Projekt" anlässlich der Verleihung des Adornopreises im Jahre 1980. Deren Grundgedanken fließen später in die Vorlesungsreihe "Der philosophische Diskurs der Moderne" ein, die Habermas zwischen März 1983 und September 1984 am Collège de France in Paris, an der Universität Frankfurt und an der Cornell University in Ithaca hält. Habermas Grundanliegen ist eine Abwehr gegenaufklärerischer Strömungen der Philosophie. Er will an dem „unvollendeten Projekt der Moderne“ festhalten und ihre Defizite „durch radikalisierte Aufklärung wettmachen“ ("Der philosophische Diskurs der Moderne", DphDdM, S. 104). „Modern“ sind für Habermas Gesellschaften, in denen die tradierten Weltbilder – die ihre Grundlage insbesondere in den Religionen haben – ihre Fähigkeit verloren haben, verbindliche Lebensdeutungen und normative Handlungsorientierung glaubwürdig zu vermitteln, und die infolgedessen gezwungen sind, „ihre Normativität aus sich selber [zu] schöpfen“ (DphDdM, S. 16). Zu ihrer „Selbstvergewisserung“ und „Selbstbegründung“ (DphDdM, S. 17) ist es notwendig, ein Prinzip zu finden, das ein „Äquivalent für die vereinigende Macht der Religion“ (DphDdM, S. 105) darstellt. Dieses Prinzip muss als das der gesellschaftlichen Modernisierung der Neuzeit selbst „innewohnende Prinzip“ (DphDdM, S. 46) ausgewiesen werden und die stabilisierenden Funktionen der alten Religionen übernehmen können. Habermas zufolge hatte Hegel als erster das Problem der Selbstvergewisserung der Moderne als philosophisches Problem entdeckt und die für die weitere Diskussion maßgebliche Lösung formuliert: Die Subjektivität, verstanden als „Struktur der Selbstbeziehung“, ist sowohl Grundstruktur der Vernunft als auch „Prinzip der neuen Zeit“ (DphDdM, S. 27). Im Laufe der „Modernisierung“ wurde aber – wie bereits von Adorno und Horkheimer in der „Dialektik der Aufklärung“ analysiert – deutlich, dass in der subjektzentrierten Vernunft eine Tendenz zur Verabsolutierung der Zweckrationalität und der „jeweiligen Stufe der Reflexion und der Emanzipation“ (DphDdM, S. 70) angelegt ist. Die sich nach Selbstvergewisserung sehnende Moderne muss dahin gebracht werden, dass sie die Dialektik der Aufklärung erkennt. Sie muss die „Rückschritte im Fortschritt“ (DphDdM, S. 80) zu kritisieren lernen, um die Selbstkritik der „mit sich selbst zerfallenen Moderne“ zu ermöglichen. (DphDdM, S. 33ff) Die im „Prinzip der Subjektivität gründende Vernunft“ (DphDdM, S. 70) verstrickt sich laut Habermas beim Versuch einer „totalisierenden, auf sich selbst bezogene Kritik“ in ausweglose Paradoxien. (DphDdM, S. 152ff) Es ist ihr anscheinend unmöglich, mit den ihr verfügbaren begrifflichen Mitteln die Aufgabe einer Selbstvergewisserung der Moderne erfolgreich zu lösen. Diese aporetische Situation der subjektiven Vernunft wird von den Kritikern der Moderne aufgegriffen. Die Vernunft habe ihnen zufolge alle „Formen der Unterdrückung und der Ausbeutung, der Entwürdigung und der Entfremdung nur denunziert und unterminiert, um an deren Stelle die unangreifbare Rationalität selbst einzusetzen“ (DphDdM, S. 70). Einen besonderen Stellenwert nimmt dabei Nietzsche ein, den Habermas als „Drehscheibe“ für den Eintritt in die Postmoderne bezeichnet. Seine angestrebte radikale Vernunftkritik sollte das ganze auf Hegel zurückgehende Programm einer Selbstbegründung moderner Lebensformen aus Vernunft vollständig unterminieren. Problematisch ist dabei allerdings für Habermas, dass Nietzsche zwischen zwei Strategien „schwankt“: Einerseits versucht er, ganz auf die Philosophie zu verzichten und die Zurückführung jeweiliger Wahrheitsansprüche auf bloße Machtkonstellationen als Aufgabe einer „mit anthropologischen, psychologischen, und historischen Methoden“ arbeitenden positiven Wissenschaft aufzufassen. Andererseits hält er an der Möglichkeit einer philosophischen Vernunftkritik fest, die „die Wurzeln des metaphysischen Denkens ausgräbt, ohne sich selbst als Philosophie aufzugeben“ (DphDdM, S. 120). In der Tradition Nietzsches sieht Habermas Heidegger, Derrida und Foucault. Die Heideggersche Seinsphilosophie – und ihre „grammatologische“ Überbietung bei Derrida – bleibe ein „umgekehrter Fundamentalismus“, der sich nicht wirklich von der Problemvorgabe der traditionellen Metaphysik lösen kann und folglich keine wirkliche Überwindung der Metaphysik darstellt. (DphDdM, S. 197) Die Ersetzung der autonomen Subjektivität durch anonyme seinsgeschichtliche Prozesse habe unvermeidbar die Folge, dass die Subjektivität durch ein „subjektloses Geschehen“ (DphDdM, S. 210) ersetzt wird. Foucault knüpfe an Nietzsches Entwurf einer „als Anti-Wissenschaft auftretenden, gelehrsam-positivistischen Geschichtsschreibung“ (DphDdM, S. 292) an; aber auch ihm gelinge es nicht, durch seine historisch angelegte Machttheorie „eine radikale Vernunftkritik durchzuführen, ohne sich in den Aporien dieses selbstbezüglichen Unternehmens zu verfangen“ (DphDdM, S. 290). Die Macht, die als „irritierender Grundbegriff“ (DphDdM, S. 298) seiner Theorie fungiert, hat einen zweideutigen Status: Sie soll „gleichzeitig transzendentale Erzeugungs- und empirische Selbstbehauptungsmacht sein“ (DphDdM, S. 300). Habermas zieht den Schluss, dass die Durchführung des Hegelschen Programms einer Selbstbegründung der Moderne aus Vernunft immer noch möglich und wünschenswert ist. Allerdings muss der zugrundegelegte Vernunftbegriff einer Revision unterzogen werden. Nicht die subjektzentrierte Vernunft, sondern einzig die „kommunikative Vernunft“ ist geeignet, die zugedachte Begründungsfunktion erfolgreich zu übernehmen (DphDdM, Kapitel XI). Diskursethik. Ausgehend von seinen Überlegungen zur Universalpragmatik entwirft Habermas ab Beginn der 1980er Jahre im Dialog mit Karl-Otto Apel seine eigene Variante einer Diskursethik. Habermas stellt sie explizit in die Tradition der Kantischen Ethik, die er jedoch gleichzeitig mit kommunikationstheoretischen Mitteln neu formulieren und ihre metaphysischen Elemente „detranszendentalisieren“ will. Er charakterisiert seine Diskursethik als eine „deontologische, kognitivistische, formalistische und universalistische Ethik“. Kognitivistisch. Moralische Normen haben im Verständnis von Habermas einen wahrheitsanalogen Charakter. Die „Sollgeltung“ moralischer Normen lässt sich einerseits zwar mit rationalen Argumenten begründen; aufgrund des gegenüber dem Wahrheitsbegriff fehlenden Realitätsbezuges ist ihre Geltung aber nur wahrheitsanalog. Die Richtigkeit moralischer Urteile stellt sich dabei für Habermas zwar einerseits „auf demselben Wege heraus wie die Wahrheit deskriptiver Aussagen – durch Argumentation“. Auf der anderen Seite „fehlt moralischen Geltungsansprüchen der für Wahrheitsansprüche charakteristische Weltbezug“. Habermas unterscheidet moralische Richtigkeit von theoretischer Wahrheit. Eine Norm erhebt Anspruch auf Gültigkeit „auch unabhängig davon, ob sie verkündet und in dieser oder jener Weise in Anspruch genommen wird“. Im Gegensatz dazu besteht ein Wahrheitsanspruch niemals unabhängig von der Behauptung, in der er formuliert wird. Deontologisch. Habermas unterscheidet mit Kant zwischen den Fragen des „guten Lebens“ und Fragen des moralischen Handelns. Seine Diskursethik stellt ausschließlich die Sollgeltung moralischer Gebote und Handlungsnormen als das erklärungsbedürftige Phänomen in den Mittelpunkt und schließt damit Fragen nach dem, was es bedeutet, ein gelungenes Leben zu führen, aus dem allein Gerechtigkeitsfragen thematisierenden Bereich der Moral aus. Trotz dieser Trennung ist Habermas allerdings nicht bereit, die ethischen Folgen einer Handlung bei der Beurteilung ihres moralischen Gehaltes gänzlich außer Acht zu lassen. Der Kategorische Imperativ dient nach Habermas’ Interpretation der Überprüfung existierender moralischer Normen auf Gültigkeit; er ist als ein „Rechtfertigungsprinzip“ zu verstehen, da nur verallgemeinerungsfähige Maximen berechtigterweise als gültige moralische Normen anerkannt werden können. Habermas erklärt, dass man aufgrund dieser begrifflichen Differenzierung genau genommen nicht von „Diskursethik“, sondern von einer „Diskurstheorie der Moral“ sprechen müsste. Er hält aber aufgrund des eingebürgerten Sprachgebrauchs an dem Begriff „Diskursethik“ fest. Formalistisch. Das formalistische Moment bezieht sich auf eine Abgrenzung gegenüber materialen Wertethiken, die versuchen, bestimmte Werte als erstrebenswert auszuzeichnen, was zum Problem der Legitimation einer wertenden Rangfolge bestimmter Güter führt. Die Diskursethik umgeht dieses Problem, indem sie auch hier an Kants Bestimmung des Kategorischen Imperativs anknüpft. Im Zentrum der Diskursethik steht das formale Prinzip des Universalisierungsgrundsatzes „U“, gemäß dem eine strittige Norm unter den Teilnehmern eines praktischen Diskurses nur dann Zustimmung finden kann, „wenn die Folgen und Nebenwirkungen, die sich aus einer allgemeinen Befolgung der strittigen Norm für die Befriedigung der Interessen eines jeden Einzelnen voraussichtlich ergeben, von allen zwanglos akzeptiert werden können“. Sinn und Zweck dieses Prinzips ist die Möglichkeit einer unparteilichen Urteilsfindung im Fall moralischer Konflikte ohne direkte Bezugnahme auf inhaltliche Fragen. Die Diskursethik versucht damit ein Prinzip an die Hand zu geben, welches formal, das heißt unabhängig von inhaltlichen Vorgaben, die Möglichkeit eröffnet, darzustellen, welche Normen tatsächlich moralische Geltung beanspruchen können. Universalistisch. Dabei steht der Versuch im Mittelpunkt, eine Begründungskonzeption der Sollgeltung moralischer Normen zu entwickeln, die aufzeigen kann, „daß unser Moralprinzip nicht nur die Vorurteile des erwachsenen, weißen, männlichen, bürgerlich erzogenen Mitteleuropäers von heute widerspiegelt“, sondern aufgrund ihrer überzeugenden Kraft auch auf Kulturen bezogen werden kann, deren moralische Vorstellungen nicht durch die Geschichte der Aufklärung beeinflusst wurden. Habermas bezeichnet dies als den „schwierigsten Teil der Ethik“. Faktizität und Geltung. Nach dem Mauerfall von 1989 widmet sich Habermas verstärkt rechts- und staatsphilosophischen Themen. Im Jahre 1992 erscheint sein Werk "Faktizität und Geltung" (FuG), das nach seiner "Theorie des kommunikativen Handelns" (TdkH) als sein wichtigstes Werk gilt. Es stellt „die erste ausgearbeitete Rechtsphilosophie aus dem Umkreis der Kritischen Theorie der Frankfurter Schule“ dar. Habermas entwickelt hierin seine eigene Konzeption – wie schon in seinen früheren Schriften – über weite Strecken in Auseinandersetzung mit anderen Theorien. Habermas Interesse gilt in erster Linie der Rolle des Rechts in den modernen Gesellschaften. Recht ist für ihn „das moderne gesatzte Recht, das mit dem Anspruch auf systematische Begründung sowie verbindliche Interpretation und Durchsetzung auftritt“ ("Faktizität und Geltung" (FuG), S. 106). Das Recht hat die Funktion der „sozialen Integration“. Diese wird in der modernen Gesellschaft notwendig, da dort „Geltung und Faktizität, also die bindende Kraft von rational motivierten Überzeugungen und der auferlegte Zwang äußerer Sanktionen […] inkompatibel auseinandergetreten sind“ (FuG, S. 43). Das Recht zeigt einen Ausweg zur Alternative zwischen Kommunikationsabbruch und strategischem Handeln auf. Es regelt die „strategischen Interaktionen, auf die sich die Aktoren selbst verständigen“ (FuG, S. 44). Rechtliche Regelungen stellen „einerseits faktische Beschränkungen“ dar, denen der strategisch Handelnde sich fügen muss; „andererseits müssen sie zugleich eine sozialintegrative Kraft entfalten, indem sie den Adressaten Verpflichtungen auferlegen, was […] nur auf der Grundlage intersubjektiv anerkannter normativer Geltungsansprüche möglich ist“ (FuG, S. 44). Habermas will das Recht in einer empirisch-normativen „Doppelperspektive“ betrachten, aus der „sich das Rechtssystem gleichzeitig von innen in seinem normativen Gehalt rekonstruktiv ernst nehmen, wie von außen als Bestandteil der sozialen Realität beschreiben läßt“ (FuG, S. 62): „Ohne den Blick auf Recht als empirisches Handlungssystem bleiben die philosophischen Begriffe leer. Soweit sich aber die Rechtssoziologie auf einen objektivierenden Blick von außen versteift und gegenüber dem nur intern zugänglichen Sinn der symbolischen Dimension unempfindlich ist, gerät umgekehrt die soziologische Anschauung in Gefahr, blind zu bleiben“ (FuG, S. 90). Habermas untersucht das Verhältnis von Recht und Moral. Rechtliche und moralische Regeln differenzieren sich gleichzeitig aus traditionaler Sittlichkeit aus und „treten als zwei verschiedene, aber einander ergänzende Sorten von Handlungsnormen nebeneinander“ (FuG, S. 135). Das Recht unterscheidet sich von der Moral dadurch, dass es sich nicht primär auf den freien Willen, sondern auf die individuelle Willkür richtet, auf das äußere Verhältnis von Personen bezieht und mit Zwangsbefugnissen ausgestattet ist (FuG, S. 143). Habermas geht auf die platonische „Verdoppelung“ des Rechts als positives und natürliches Recht ein. Dem liege die Intuition zugrunde, dass das positive Recht das natürliche abbilden solle. Diese Intuition sei nicht in jeder Hinsicht falsch, „denn eine Rechtsordnung kann nur legitim sein, wenn sie moralischen Grundsätzen nicht widerspricht. Dem positiven Recht bleibt, über die Legitimitätskomponente der Rechtsgeltung, ein Bezug zur Moral eingeschrieben“ (FuG, S. 137). Doch dürfe dieser Moralbezug nicht dazu verleiten, die Moral dem Recht in einer Normenhierarchie überzuordnen. Rechtsfragen und Moralfragen beziehen sich zwar auf dieselben Probleme, aber auf verschiedene Weise: „Trotz des gemeinsamen Bezugspunktes unterscheiden sich Recht und Moral prima facie dadurch, daß die posttraditionale Moral nur eine Form kulturellen Wissens darstellt, während das Recht zugleich auf institutioneller Ebene Verbindlichkeit gewinnt“ (FuG, S. 137). „Deshalb dürfen wir Grundrechte, die in der positiven Gestalt von Verfassungsnormen auftreten, nicht als bloße Abbildungen moralischer Rechte verstehen, und die politische Autonomie nicht als bloßes Abbild der moralischen“ (FuG, S. 138). Der Vernunftrechtstradition indes bleibt Habermas im Wesentlichen treu. Gesetze können für Habermas nur dann „legitime Geltung in Anspruch nehmen“, wenn sie in einem „ihrerseits rechtlich verfassten diskursiven Rechtsetzungsprozeß die Zustimmung aller Rechtsgenossen finden können“ (FuG, S. 141). Eugenik. In dem Sammelband "Die Zukunft der menschlichen Natur" (ZmN) nimmt Habermas zu Fragen der Eugenik Stellung. Eine grundsätzliche Problematik beim Eingriff in das menschliche Erbgut stellt für ihn die Tatsache dar, dass die Person, die eine Entscheidung über die „‚natürliche Ausstattung‘ einer anderen Person trifft“, ihr gegenüber die Macht besitzt, unwiderruflich bestimmte Eigenschaften ohne den Konsens des Betroffenen zu bestimmen. Dieser Konsens kann im Fall einer „negativen Eugenik“, in der es um rein präventive Maßnahmen gegen zukünftige Krankheiten geht, vorausgesetzt werden (ZmN, S. 79). Die „positive Eugenik“ jedoch, bei der das Kind mit bestimmten nützlichen und wünschenswerten Eigenschaften ausgestattet werden soll, bedroht nach Habermas die Autonomie des Subjekts. Wenn der Leib in der pränatalen Phase des Individuums von den Eltern manipuliert wird, bedeutet dies, dass über ihn verfügt wird. Das macht aber ein „Selbstseinkönnen“ des Individuums für Habermas unmöglich (ZmN, S. 100). Habermas unterscheidet in diesem Zusammenhang mit Bezug auf Hannah Arendt zwischen einem Natur- und einem Sozialisationsschicksal. Unser Selbstbewusstsein als menschliches Subjekt ist wesentlich daran geknüpft, dass wir auf ein „Naturschicksal“ aufsetzen können: denn „das Selbstbewusstsein der Person erfordert einen Bezugspunkt jenseits der Traditionsstränge und Interaktionszusammenhänge eines Bildungsprozesses, in dem sich die personale Identität lebensgeschichtlich formiert“ (ZmN, S. 103). Religion und Christentum. Seit dem Ende der 1990er Jahre beschäftigt sich Habermas wieder mit religiösen Themen, v.a. mit dem Einfluss der jüdisch-christlichen Tradition auf das westliche Denken. Er sagte 1999 in einem „Gespräch über Gott und die Welt“ mit dem in den Vereinigten Staaten lehrenden Philosophen Eduardo Mendieta: „Der egalitäre Universalismus, aus dem die Ideen von Freiheit und solidarischem Zusammenleben, von autonomer Lebensführung und Emanzipation, von individueller Gewissensmoral, Menschenrechten und Demokratie entsprungen sind, ist unmittelbar ein Erbe der jüdischen Gerechtigkeits- und der christlichen Liebesethik. In der Substanz unverändert, ist dieses Erbe immer wieder kritisch angeeignet und neu interpretiert worden. Dazu gibt es bis heute keine Alternative. Auch angesichts der aktuellen Herausforderungen einer postnationalen Konstellation zehren wir nach wie vor von dieser Substanz. Alles andere ist postmodernes Gerede.“ Der „weltweite Prozess der gesellschaftlichen Modernisierung“ habe im 15. Jahrhundert eingesetzt. Habermas zufolge wurde er vorangetrieben durch die Reformation, Luther sowie eine Reihe von Denkern und religiösen Bewegungen, die in unterschiedlicher Weise und Intensität von Luther beeinflusst waren: Jakob Böhme, Quäker, Pietismus, Oetinger, Kant, Hegel, Schelling, Hölderlin, Kierkegaard, Max Weber. Im Zusammenhang mit der Entwicklung der abendländischen Geistesgeschichte erwähnte Habermas zudem Thomas von Aquin, Meister Eckhart, Marx, Nietzsche, Baader, Heidegger, Adorno, Horkheimer, Benjamin, John Rawls, die Befreiungstheologie und einige andere Denker des 19. und 20. Jahrhunderts. Die englischen, französischen und amerikanischen Philosophen hätten stärker als die deutschen das christliche Glaubensgut („Jerusalem“) und die griechische Philosophie („Athen“) mit dem politisch-republikanischen Denken des antiken „Roms“ verknüpft. Auch sein eigenes Philosophieren, so Habermas, „zehr[e] vom christlichen Erbe“. Habermas räumt ein, dass sich im „nachmetaphysischen Denken“ moderner, säkularer Gesellschaften, „jeder generell verbindliche Begriff vom guten und exemplarischen Leben entzieht“. In den „heiligen Schriften und religiösen Überlieferungen“ fänden sich dagegen über Jahrtausende wach gehaltene „Intuitionen von Verfehlung und Erlösung“. Sie stellten „hinreichend differenzierte Ausdrucksmöglichkeiten und Sensibilitäten für verfehltes Leben, für gesellschaftliche Pathologien, für das Misslingen individueller Lebensentwürfe und die Deformation entstellter Lebenszusammenhänge“ zur Verfügung. Es müsse die Aufgabe einer „nachmetaphysischen“ Philosophie sein, die kognitiven Gehalte der religiösen Überlieferung „im Schmelztiegel begründender Diskurse aus ihrer ursprünglich dogmatischen Verkapselung freizusetzen“, um so „eine inspirierende Kraft für die ganze Gesellschaft entfalten zu können“. Diese Haltung zur Religion ist von Hans Albert mehrfach scharf kritisiert worden. Habermas habe sich, so Albert, „nach einer langen Entwicklung, die mit einer hermeneutischen Umdeutung des Marxismus und mit einer Betonung des Anspruchs auf Aufklärung begann, nun dazu bereitgefunden, der Aufklärung buchstäblich in den Rücken zu fallen.“ Albert kritisierte Habermas Haltung als eine „korrupte Hermeneutik, also eine Konzeption, die die Suche nach Wahrheit dem Streben nach Konsens opfert“. Habermas bezieht sich allerdings unmittelbar auf die Religionsphilosophie Kants: „Kants religionsphilosophische Einschränkung der Vernunft auf ihren praktischen Gebrauch betrifft heute weniger die religiöse Schwärmerei als vielmehr eine schwärmerische Philosophie, die sich verheißungsvolle Konnotationen eines erlösungsreligiösen Wortschatzes nur ausleiht und zunutze macht, um sich von der Strenge diskursiven Denkens zu dispensieren. Auch das können wir von Kant lernen: wir können seine Religionsphilosophie im ganzen als Warnung vor religiöser Philosophie verstehen.“ Gehirnforschung und Willensfreiheit. Ein weiteres aktuelles Thema von Habermas stellt die moderne Gehirnforschung und das Problem der Willensfreiheit dar. Habermas wendet sich gegen die unter anderem von Wolf Singer und Gerhard Roth vertretene These, „mentale Vorgänge“ seien „allein aus beobachtbaren physiologischen Argumenten zu erklären“ ("Freiheit und Determinismus". In: Habermas: "Zwischen Naturalismus und Religion", FuDINuR, S. 155). Habermas Anliegen ist es, einerseits „der intuitiv unbestreitbaren Evidenz eines in allen unseren Handlungen performativ mitlaufenden Freiheitsbewusstseins“ gerecht zu werden, andererseits aber auch „das Bedürfnis nach einem kohärenten Bild des Universums, das den Menschen als Naturwesen einschließt“ zu befriedigen (FuDINuR, S. 156). Zu diesem Zweck unterscheidet er zwischen einer Beobachter- und Teilnehmerperspektive. Diese werden in verschiedenen „Sprachspielen“ vertreten, die nicht aufeinander reduziert werden können. Beide Perspektiven müssen gleichzeitig betrachtet werden, um das Phänomen der Interaktion von Natur und Geist zu verstehen. Wir seien Beobachter und Kommunikationsteilnehmer in einer Person. Habermas kritisiert u. a. das Design bestimmter neurophysiologischer Versuchsanordnungen, denen ein eingeschränkter und einfacher Handlungsbegriff zugrunde liege und bei denen die Testpersonen durch die Versuchsanweisung schon im Vorhinein in einen Handlungsplan eingespannt seien, wodurch ein wesentlicher Freiheitsaspekt hintergangen würde (FuDINuR, S. 158f). Denn für Habermas sind „Handlungen das Ergebnis einer komplexen Verkettung von Intentionen und Überlegungen, die Ziele und alternative Mittel im Lichte von Gelegenheiten, Ressourcen und Hindernissen abwägen.“ (FuDINuR, S. 158f). Freie Handlungen seien besonders durch den „Kontext von weiterreichenden Zielen und begründeten Alternativen“ (FuDINuR, S. 159) gekennzeichnet. Er bringt es auf die griffige Formel: „Frei ist nur der überlegte Wille.“ (FuDINuR, S. 160). Europa. Während Habermas die europäische Integration anfangs als eine primär ökonomische Veranstaltung zur Liberalisierung des Handels verstand, zeigte er sich im Laufe der 1980er Jahre als ein überzeugter Europäer und begleitete die Entwicklung in der Europäischen Union mit politisch engagierten Stellungnahmen, deren wichtigste und aktuellste in seiner jüngsten Publikation „Zur Verfassung Europas“ (2011) zusammengefasst sind. Darin begreift er die EU als ein „höherstufiges politisches Gemeinwesen“, als einen „entscheidenden Schritt auf dem Weg zu einer politisch verfassten Weltgesellschaft“. Rezeption, Kritik und Wirkung. Habermas gilt als ein „Grenzgänger“ zwischen Philosophie und Sozialwissenschaften. Seine Werke wurden in zahlreiche Sprachen übersetzt und lösten disziplinübergreifende Kontroversen in Philosophie, Wissenschaftstheorie, Soziologie und Politikwissenschaft aus. In Deutschland wurde Habermas, nachdem er bereits durch den Positivismusstreit und sein Werk "Erkenntnis und Interesse" allgemein bekannt geworden war, nach der Veröffentlichung der "Theorie des kommunikativen Handelns" zu einem der meistdiskutierten deutschen Philosophen der Gegenwart. Seit den 1980er Jahren erschien eine Reihe von Einführungen in sein Leben und Werk. Habermas publizierte zudem regelmäßig in zahlreichen deutschen Feuilletons wie dem der "Frankfurter Allgemeinen Zeitung", der "Süddeutschen Zeitung" oder der "Zeit". Herbert Schnädelbach, der sich bei Adorno und Habermas habilitierte (1969/1970), kritisierte 1982 als einer der ersten Interpreten von Habermas’ Hauptwerk "Theorie des kommunikativen Handelns", dass normative Begründungen nie vollständig objektiviert werden könnten, weil sie immer auch an die erste Person von Forschern gekoppelt seien (ich/wir). Albrecht Wellmer (fünf Jahre Assistent bei Habermas in Frankfurt) und Ernst Tugendhat (fünf Jahre Forschung mit Habermas in Starnberg) relativierten die diskursethische Konstruktion einer idealen Sprechsituation als bloße Fiktion. Karl-Otto Apel und einige seiner Schüler kritisierten, dass Habermas auf dem historischen Charakter der Kommunikationsvoraussetzungen besteht und die Möglichkeit einer Letztbegründung der Ethik ablehnt, weil sich letztere aus den jeweiligen Voraussetzungen ergäbe. Wichtige Schüler Habermas in Deutschland sind Axel Honneth und Rainer Forst, die ebenfalls einige seiner Themen reflektierten und weiterentwickelten. Auch Ulrich Oevermann, Claus Offe und Klaus Eder studierten bei ihm und wurden seine Assistenten. Aus dem Ausland kamen unter anderem Johann Arnason, Zoran Đinđić, Hans-Hermann Hoppe, Thomas A. McCarthy und Jeremy J. Shapiro hinzu. In den USA erfreut sich Habermas bereits seit Ende der 1970er Jahre einer besonderen Beliebtheit. Im Jahr 1978 erschien dort die erste bedeutende Abhandlung über Habermas von Thomas A. McCarthy "(The Critical Theory of Jürgen Habermas)". Seit Beginn der 1990er Jahre ist ein Anstieg an Veröffentlichungen zu beobachten, die sich mit unterschiedlichen Aspekten des Denkens von Habermas beschäftigen. Seine zahlreichen USA-Aufenthalte als Gastprofessor führten ihn mit den bedeutendsten Vertretern der amerikanischen Gegenwartsphilosophie zusammen, etwa Richard Rorty, Ronald Dworkin, Thomas Nagel, Donald Davidson, Noam Chomsky und Robert Brandom. Eine breite Aufmerksamkeit zog zudem seine Debatte mit John Rawls über dessen Konzept der Gesellschaftsbegründung "(A Theory of Justice)" auf sich. Mit Hilary Putnam entstand anlässlich des 70. Geburtstags von Habermas ein freundschaftlicher Dialog in mehreren wechselseitigen Aufsätzen über die Begründung von Werten und Normen im Rahmen einer pragmatischen Philosophie. In Italien wurde Habermas in den 1970er Jahren als Vertreter der Kritischen Theorie wahrgenommen und seit Beginn der 1980er verlagerte sich das Interesse auf seine Diskurstheorie der Moral. In Frankreich kam es in den 1980er und 1990er Jahren zu Kontroversen mit Vertretern der Postmoderne (Jean-François Lyotard und Jacques Derrida). Anschließend richtete sich das Interesse verstärkt auf Habermas als Rechts- und Staatsphilosoph. Auch in Lateinamerika gilt in den letzten Jahren das Hauptinteresse an Jürgen Habermas seiner Rechts- und Staatstheorie. Seine auf der Diskurstheorie basierenden Konzepte wurden dort „zu einer Art drittem Weg zwischen den weit verbreiteten konservativen Positionen und den minderheitlichen, aber trotzdem stark präsenten Positionen linksrevolutionärer Bewegungen“. Generell wird heute das spätere Werk Jürgen Habermas’ rezipiert, das er nach seiner "Theorie des kommunikativen Handelns" publizierte. Auszeichnungen. 1999 wurde Habermas von der Theodor-Heuss-Stiftung der Theodor-Heuss-Preis für sein lebenslanges, prägendes Engagement in der öffentlichen Diskussion um die Entwicklung von Demokratie und dem gesellschaftlichen Bewusstsein, verliehen. 2001 wurde Habermas mit dem Friedenspreis des Deutschen Buchhandels ausgezeichnet, 2003 wurde ihm der Prinz-von-Asturien-Preis verliehen, und 2004 erhielt er für sein Lebenswerk den mit 364.000 Euro dotierten Kyoto-Preis der Inamori-Stiftung des japanischen Kyocera-Konzerns, eine Ehrung für Kultur und Wissenschaft mit internationaler Bedeutung. Habermas ist ferner als zweiter Preisträger mit dem Holberg-Preis der norwegischen Holberg-Stiftung ausgezeichnet worden; die Verleihung fand am 30. November 2005 in Bergen (Norwegen) statt; die mit 570.000 Euro dotierte Auszeichnung wurde ihm für seine „grundlegenden Theorien über Diskurs und kommunikative Aktion“, verliehen. Der Holberg-Gedenkpreis wird seit 2004 für herausragende Arbeiten im Bereich der Geistes-, Sozial- und Rechtswissenschaften vergeben. 2006 wurde ihm der Bruno-Kreisky-Preis für sein „literarisches und publizistisches Gesamtwerk“ verliehen und im November desselben Jahres der Staatspreis des Landes Nordrhein-Westfalen. Der ihm 2015 verliehene Kluge-Preis gilt als der „Nobelpreis der Philosophie“. Des Weiteren ist Habermas gewähltes Mitglied zahlreicher wissenschaftlicher Akademien. Dazu zählen die Deutsche Akademie für Sprache und Dichtung (seit 1983), die American Academy of Arts and Sciences (seit 1984), die Serbische Akademie der Wissenschaften und Künste (seit 1988), die Academia Europaea (seit 1989), die British Academy und die Russische Akademie der Wissenschaften (jeweils seit 1994). Jugoslawien. Jugoslawien in Europa (Stand 1989) Jugoslawien (serbokroatisch Југославија/"Jugoslavija,", wörtlich übersetzt "Südslawien") ist die Kurzform der Namen verschiedener Staaten in Mittel- und Südosteuropa, die zwischen 1918 und 2003 in unterschiedlicher territorialer und politischer Form existierten. Zu unterscheiden sind das Königreich Jugoslawien (1918–1941, heute auch "Erstes Jugoslawien" genannt) und das sozialistische "Zweite Jugoslawien" (amtlich "Sozialistische Föderative Republik Jugoslawien," 1943/45–1991/92) sowie die aus Serbien und Montenegro bestehende "Bundesrepublik Jugoslawien" (1992–2003). Von 2003 bis 2006 bildeten die verbliebenen Teilrepubliken Serbien und Montenegro den Staatenbund "Serbien und Montenegro," der sich im territorialen und völkerrechtlichen Umfang nicht von der Bundesrepublik Jugoslawien unterschied. Seit 2006 bestehen sechs allgemein anerkannte jugoslawische Nachfolgestaaten: Slowenien, Kroatien, Bosnien-Herzegowina, Serbien, Montenegro und Mazedonien. Der völkerrechtliche Status des Kosovo ist hingegen strittig. Staatsrechtliche Entwicklung. Während es zwischen dem ersten (Königreich 1918–1941) und dem zweiten jugoslawischen Staat (Föderative Volksrepublik 1945–1963, Sozialistische Föderative Republik 1963–1992) eine juristische Kontinuität gab, war das 1992 gegründete „dritte“ Jugoslawien (Bundesrepublik bzw. Staatenbund aus Serbien und Montenegro) nach vorherrschender Rechtsauffassung der "Badinter-Kommission" und der UN-Versammlung nur einer von fünf Nachfolgestaaten des zweiten Jugoslawiens. Die Sozialistische Föderative Republik Jugoslawien zerfiel demzufolge in die folgenden souveränen Republiken, von denen die meisten daraufhin ihre staatliche Unabhängigkeit erklärten und nach und nach international anerkannt wurden: Slowenien, Kroatien, Bosnien und Herzegowina, Bundesrepublik Jugoslawien (Serbien/Montenegro) und Mazedonien (1993 unter dem Namen "The former Yugoslav Republic of Macedonia" ["ehemalige jugoslawische Republik Mazedonien"] in die Vereinten Nationen aufgenommen). Am 4. Februar 2003 wurde die Bundesrepublik Jugoslawien durch die territorial und aus völkerrechtlicher Sicht identische "Staatliche Gemeinschaft Serbien und Montenegro" abgelöst, da es sich nicht um einen Fall der Staatensukzession handelt. Die Staatenunion von Serbien und Montenegro, deren Rechtsnachfolge Serbien antrat, löste sich 2006 mit dem Ausscheiden Montenegros auf, sodass heute alle früheren Teilrepubliken der Sozialistischen Föderativen Republik Jugoslawien unabhängige Staaten darstellen. Geographie. a>, den höchsten Berg Jugoslawiens (heute Slowenien) Ausdehnung und Grenzen. In der Zeit von 1945 bis 1992 hatte Jugoslawien eine Fläche von 255.804 km². Es bestand aus den sechs Teilrepubliken Slowenien, Kroatien, Bosnien und Herzegowina, Serbien, Montenegro, Mazedonien und den beiden Autonomen Provinzen Vojvodina und Kosovo innerhalb Serbiens. Jugoslawien grenzte an Italien, Österreich, Ungarn, Rumänien, Bulgarien, Griechenland und Albanien und hatte eine lange Küste am Adriatischen Meer mit zahlreichen Inseln. Topographie. Der Nordosten des Landes war relativ flach, der Rest des Landes eher gebirgig. Höchster Berg war der Triglav (2864 m, in den Julischen Alpen nahe Jesenice), gefolgt vom Golem Korab (2753 m, im Korabgebirge, auf der Grenze zu Albanien westlich von Gostivar) und dem Titov Vrv (2747 m, im Šar Planina nahe Tetovo). An der Grenze zu Albanien lagen drei große Seen: der Skutarisee, der Ohridsee und der Prespasee. Die Donau durchfloss den Nordosten Jugoslawiens (u. a. die Städte Novi Sad und Belgrad) und bildete einen Teil der Grenze zu Rumänien, das dortige Durchbruchstal wird als Eisernes Tor (serbokroatisch: Đerdap) bezeichnet. Wichtige Nebenflüsse der Donau in Jugoslawien waren die Drau (Drava), die Save (Sava) und die Morava. Bevölkerung und große Städte. Jugoslawien hatte 1991 rund 23,1 Millionen Einwohner. Größte Hafenstädte waren Rijeka, Split, Ploče (für Bosnien), Bar und Koper. Königreich Jugoslawien (1918–1941). Die Zerschlagung Österreich-Ungarns und das daraus resultierende neugeschaffene Königreich Jugoslawien wurden nach dem Ersten Weltkrieg im Vertrag von Trianon vom 4. Juni 1920 beschlossen. Der Vertrag von Sèvres diente anschließend nur noch der abschließenden Bestätigung, wobei der territoriale Neuerwerb Rumäniens und Jugoslawiens durch die Türkei anerkannt wurde, dem letztendlich auch die USA zustimmten (diese hatten vorher dem Trianon-Vertrag wegen der Benachteiligung Rumäniens nicht zugestimmt). Der neue jugoslawische Staat entstand aus den vorher unabhängigen Königreichen Serbien und Montenegro (unter Einschluss der von Serbien in den Balkankriegen 1912/13 erworbenen mazedonischen Gebiete) und Teilen Österreich-Ungarns, hauptsächlich Kroatien-Slawonien mit Dalmatien, das ehemalige Kronland Krain mit südlichen Gebieten der Kronländer Kärnten und Steiermark (heutiges Slowenien), sowie Bosnien, die Herzegowina, Teile des Banats und der Batschka. König Alexander I. setzte die Verfassung außer Kraft und errichtete die erste Königsdiktatur auf dem Balkan. Am 3. Oktober 1929 hob er die Verfassung auf und der Staat wurde in "Königreich Jugoslawien" "(Kraljevina Jugoslavija)" umbenannt. Im April 1941 wurde das Königreich Jugoslawien von Deutschland und Italien besetzt und aufgelöst: Während Serbien als Vasallenstaat militärisch besetzt blieb, wurde Slowenien zwischen Deutschland, Italien und Ungarn geteilt, Kroatien (inkl. Bosnien und Herzegowina) zu einem großkroatischen, de facto faschistischen Vasallenstaat namens Unabhängiger Staat Kroatien, während Montenegro als Unabhängiger Staat Montenegro und einige weitere südliche Gebiete, die zum Königreich Albanien geschlagen wurden, italienisch besetzte Vasallenstaaten wurden. Föderative Volksrepublik Jugoslawien (1945–1963). Mit den AVNOJ-Beschlüssen vom 29. November 1943 wurde während des Zweiten Weltkrieges der Grundstein für eine neue Föderation südslawischer Völker unter der Führung der Kommunistischen Partei Jugoslawiens (KPJ) gelegt. Nach dem Zweiten Weltkrieg wurde Jugoslawien als sozialistischer Bundesstaat, bestehend aus den sechs Teilrepubliken Slowenien, Kroatien, Bosnien und Herzegowina, Serbien, Montenegro und Mazedonien gegründet. Am 29. November 1945 wurde die "Föderative Volksrepublik Jugoslawien" "(Federativna Narodna Republika Jugoslavija)" proklamiert, nachdem Josip Broz Titos kommunistische Volksfront die Wahlen gewonnen hatte. Am 31. Januar 1946 erhielt Jugoslawien eine nach dem Vorbild der Sowjetunion gestaltete Verfassung. 1948 distanzierte sich Tito immer mehr von der Sowjetunion und dem Ostblock und es kam zum Bruch. Tito verfolgte einen eigenen jugoslawischen Kommunismus, den sogenannten Titoismus. Jugoslawien näherte sich immer mehr den blockfreien Staaten und dem Westen an und pflegte schon bald wirtschaftliche Kontakte. Am 7. April 1963 wurde der Staat in die "Sozialistische Föderative Republik Jugoslawien" "(Socijalistička Federativna Republika Jugoslavija)," kurz SFRJ, umbenannt. Sozialistische Föderative Republik Jugoslawien (1963–1992). Flagge der Sozialistischen Föderativen Republik Jugoslawien Das Parlament in Belgrad, die "Skupština" 1974 wurden die Provinzen Vojvodina und Kosovo in einer neuen Verfassung zu "autonomen Provinzen" innerhalb Serbiens erklärt (Artikel 2). Faktisch wurden die Provinzen dadurch informell zu Republiken aufgewertet, die Serbien nur formell unterstanden. Doch wurde ihnen im Gegensatz zu den Republiken kein Recht auf Selbstbestimmung (einschließlich des Rechts auf Sezession) eingeräumt. So bestand die SFRJ aus sechs Teilrepubliken (Bosnien und Herzegowina, Kroatien, Mazedonien, Montenegro, Serbien, Slowenien) und zwei Autonomen Provinzen innerhalb Serbiens (Kosovo, Vojvodina). Nach dem Tod Titos am 4. Mai 1980 übernahm das Präsidium der Republik die Regierungsgeschäfte. Die acht Mitglieder setzten sich aus je einem Vertreter der sechs Teilrepubliken und der zwei autonomen Provinzen zusammen. Immer mehr kam es jedoch zu Unstimmigkeiten und die integrative Persönlichkeit Tito fehlte. Zerfall Jugoslawiens ab 1991. Das politisch zerfallene Jugoslawien (2008) Belgrad versuchte die Unabhängigkeitsbestrebungen zuerst militärisch zu unterdrücken. So intervenierte die Jugoslawische Volksarmee (JNA) zuerst 1991 in Slowenien (10-Tage-Krieg) und daraufhin in Kroatien (Kroatienkrieg). Als dies jedoch misslang, verschoben sich die Kampfhandlungen zunächst auf die von Krajina-Serben beanspruchten Gebiete in Kroatien. Im Folgenden verlagerte sich der Krieg dann immer mehr nach Bosnien-Herzegowina (Bosnienkrieg). Letzten Endes gelang den drei Staaten aber die Durchsetzung der Unabhängigkeit. Die Unabhängigkeitsbestrebungen im Kosovo (Kosovokrieg) führten 1999 zu Interventionen der NATO auf dem gesamten Territorium der Teilrepublik Serbien, die schließlich die Einrichtung einer UN-Verwaltung in der Provinz bei bestehender Zugehörigkeit des Gebietes zur Bundesrepublik Jugoslawien zur Folge hatten. Viktor Meier, Südosteuropa-Korrespondent für die "Neue Zürcher Zeitung" und die "Frankfurter Allgemeine Zeitung," schreibt, dass Jugoslawien keine „künstliche Schöpfung“ gewesen sei. Die internationale Anerkennung Sloweniens und Kroatiens Ende 1991 sei ein überfälliger Akt gewesen. „Bundesrepublik Jugoslawien“ und „Serbien-Montenegro“ (1992–2006). Die Vollversammlung der Vereinten Nationen beschloss am 22. September 1992 durch Mehrheitsbeschluss (Billigung von 127 Ländern bei 26 Enthaltungen und sechs Gegenstimmen), dass die aus Serbien und Montenegro bestehende Bundesrepublik Jugoslawien (BRJ) nicht automatisch die alleinige Rechtsnachfolge der SFRJ als Mitgliedstaat der UN antreten könne, sondern sich ebenso wie die anderen Nachfolgestaaten der SFRJ neu um die Mitgliedschaft bewerben müsse. Die BRJ durfte deshalb den Sitz der SFRJ in der UN-Vollversammlung nicht mehr wahrnehmen. Da die Bundesrepublik Jugoslawien sich weigerte, diesen Beschluss zu akzeptieren, verlor sie de facto ihren Sitz in der Vollversammlung; die Mitgliedschaft von Jugoslawien war ab 1992 suspendiert. Erst im Jahre 2000 wurde die BRJ, nachdem sie sich wie gefordert neu beworben hatte, wieder in die UN aufgenommen und der frühere jugoslawische UN-Sitz ihr wieder übertragen. Mit der Annahme einer neuen Verfassung im Jahre 2003 benannte sich die Bundesrepublik Jugoslawien um in „Serbien und Montenegro“. Dies stellte das Ende des Begriffs „Jugoslawien“ als Staatsname dar. Nach einer Volksabstimmung am 21. Mai 2006 proklamierte auch Montenegro am 3. Juni 2006 seine Unabhängigkeit. Am 17. Februar 2008 erklärte sich die Provinz Kosovo für unabhängig, wobei der völkerrechtliche Status bis heute umstritten ist. Jeans. Jeans (die; Pl., auch Sg.; in österr. Jean, seltener Nietenhose, in der DDR Niethose) sind Hosen, die gewöhnlich aus einem robusten, blauen köperbindigen Baumwollstoff, dem Denim, hergestellt werden. Herkunft der Bezeichnung „Jeans“. Der Ursprung waren Hosen aus Baumwolle, die aus der Gegend um die italienische Stadt Genua in die USA kamen. Aus der französischen Form des Städtenamens „Gênes“ machte die amerikanische Umgangssprache den Begriff „Jeans“. Levi Strauss, der in Franken geboren wurde und als Auswanderer 1847 nach San Francisco ging, fertigte für Goldgräber robuste Arbeitsbekleidung, die „Gênes“ aus dem Stoff „Serge de Nîmes“ (Gewebe aus der Stadt Nîmes), kurz Denim Jeans. Geschichte. a>en zur Verstärkung der Taschen sind ein charakteristisches Merkmal von Jeans. Der Händler Levi Strauss verkaufte Güter des täglichen Bedarfs für die Goldgräber in San Francisco. Als Großhändler vertrieb er „Duck Pants“ aus segeltuchartigem Material, die irgendwann wegen fehlender Rentabilität aus dem Sortiment genommen wurden und die fälschlicherweise für einen Vorgänger der Jeans gehalten wird. Jedoch handelte es sich nur um ein anderes Produkt im Sortiment des Levi Strauss. Die Idee, die Nähte von Hosen mit Nieten zu verstärken, hatte der Schneider Jacob Davis. Da er nicht das Geld hatte, um ein Patent anzumelden, wandte er sich an Levi Strauss. 1872 wurden zum ersten Mal die Ecken der Hosentaschen mit Nieten verstärkt. Patentiert wurde die Hose am 20. Mai 1873. Inhaber des Patents waren Strauss und Davis gemeinsam. Später wurde das braune Segeltuch durch den mit Indigo gefärbten blauen Baumwollstoff Denim abgelöst und die Jeans mit orangefarbenen Nähten und Nieten zur Verstärkung verziert. Schon früh wurde von der ursprünglichen Leinen- auf die stabilere Köperbindung gewechselt, was als Standard für die meisten Denimstoffe zum Einsatz kommt. Um 1920 kam der Begriff "Blue Jeans" (durch die Indigofärbung) auf. In den 1930er Jahren wurde der Hosenträger vom Gürtel abgelöst. In den 1950er Jahren entdeckten Jugendliche die Jeans als Symbol des Protests gegen Tradition und Autorität. Jeans (in Deutschland meist "Texashose" genannt) galten als. Amerikanische Soldaten brachten sie nach dem Zweiten Weltkrieg nach Europa. Durch Filmstars wie James Dean und Marlon Brando wurde ihr Bekanntheitsgrad weiter gesteigert. Etablierte Kreise in Deutschland wetterten gegen „Nieten in Nietenhosen“. In der DDR war das Tragen von „Niethosen“ in der Schule oder auf öffentlichen Tanzveranstaltungen unter bestimmten Umständen zeitweise verboten. Im Jahre 1948 wurden Jeans erstmals in Europa hergestellt von der 1932 gegründeten "L. Hermann Kleiderfabrik" in Künzelsau. 1953 wurden erste Jeans für Frauen in Europa hergestellt. Sie hießen "Girls-Camping-Hose" und hatten den Reißverschluss an der Seite. 1958 firmierte die "L. Hermann Kleiderfabrik" in Mustang um. Bekannte Jeansmarken sind unter anderem Snake Jeans, Levi’s, Lee, Wrangler, Mustang, JOKER Jeans, H.I.S Jeans, MAC Jeans, Diesel, Pioneer, Replay, G-Star, Freeman T. Porter, Mogul (Jeans), Energie, Edwin (heute Blue One), 7 for all mankind, Miss Sixty, Mavi Jeans, Pepe Jeans London, Meltin Pot, ONLY, Paddocks, US Top, Nudie, B-US Jeans, Sugarcane und Evisu. Außerdem werden von vielen Designermarken wie Armani oder Joop teure Designerjeans angeboten. Als zeitloser Klassiker gilt die „Five-o-one“, die Levi’s 501 mit Nietenknöpfen. In den 1990er Jahren kamen traditionsreiche Jeanshersteller wie Levi’s in eine schwere Krise, da die Jugendmode sich eher auf sackartige Skaterhosen, die Baggy Pants, konzentrierte. Viele Jeanshersteller gründeten Zweitlabel, um an diesem Trend teilzunehmen. Das Sandstrahlen der Hosen für eine „gebrauchte Optik“ scheint die Schädlichste von allen Bearbeitungsmethoden in der Produktion zu sein. Als die Silikose, eine Bergbau-Lungenkrankheit, bei Arbeitern von Jeans-Fabriken entdeckt wurde, wurde die Technik mit mittlerweile 54 dokumentierten Todesfällen in der Türkei verboten. Seither wird die Technik in weniger entwickelten und kontrollierten Ländern weiter geführt. Stilrichtungen und Passformen. Schnittform von Blue Jeans (mit Nieten) Jeans unterscheiden sich insbesondere in den Passformen. Schlagjeans. In den 1970er Jahren waren vor allem Jeans im Schnitt von Schlaghosen verbreitet. Solche Jeans sind am Unterkörper und an den Oberschenkeln sehr eng geschnitten, werden jedoch unterhalb der Knie erheblich weiter. Je nach Fußweite kann das Hosenbein den kompletten Schuh bedecken. Einweichen der Neuen. Der Jeansstoff war oft nicht vorgewaschen, wodurch neue Jeans zunächst sehr steif und wenig bequem zu tragen waren. Erst nach mehrmaligem Waschen wurde der Jeansstoff weicher, und wenn sich der Stoff durch längeres Tragen etwas geweitet hatte, waren die Jeans angenehm zu tragen. Vor allem unter Jugendlichen hat sich das Eintragen neuer Jeans zu einer Art Ritual entwickelt, bei dem Jeans am Körper eingeweicht wurden, sei es in der Badewanne oder beim Baden im offenen Meer. Anschließend wurden die Jeans am Körper getrocknet, wodurch sich der Stoff den Körperformen anpasst. Durch diese Behandlung und durch langes Tragen erhalten die ursprünglich gleichmäßig dunkelblauen Jeans ein typisches Aussehen, das durch helle Falten am Unterkörper und an den Knien geprägt ist. Am Gesäß und an den Oberschenkeln wird der Stoff durch Abnutzung heller. Röhrenjeans. Die typische Passform seit Ende der 1970er Jahre waren sogenannte "Röhrenjeans" mit auf der gesamten Länge eng geschnittenen Hosenbeinen. Jeans dieser Art gab es unter anderem von Wrangler, Paddocks und US Top. Zwei typische Modelle sind die Levis 631 und die noch enger geschnittene Levis 639. Einige Jeansmodelle hatten eine sehr kleine Fußweite und saßen an den Waden ebenso eng wie an den Oberschenkeln. Dazu gehören beispielsweise die Modelle Levis 613, die Wrangler Kansas und das Modell Ultraslim des japanischen Herstellers Big John. Als Beispiel ein Vergleich zwischen einigen Röhrenjeans in Größe W30: das Modell Lee Phoenix hat in dieser Größe eine Fußweite von 37 cm, die Modelle 611 und 534 von Levis haben ungefähr 36 cm, die Levis 631 hat 35 cm, die Modelle 613 und 639 von Levis jeweils um 33 cm und am engsten ist die Big John Ultraslim mit nur 31,5 cm Fußweite. Andere Jeansmodelle hatten Reißverschlüsse am Ende der Hosenbeine, um das Anziehen zu erleichtern. Im Laufe der Jahre wurde der Schnitt der Röhrenjeans verbessert. Frühe Jeans waren der Körperform mitunter nicht gut angepasst und saßen in klein gewählten Größen nicht optimal, sondern eben wie eine zu enge Hose, die sich lediglich um den Körper spannt, statt seine Formen nachzuzeichnen und zu modellieren. Spätere Röhrenjeans, wie zum Beispiel die Modelle 534 und 611 von Levis oder die Mustang Boots, haben dagegen einen ausgesprochen anatomischen Schnitt und liegen sehr gut am Körper an, wenn sie hauteng getragen werden. Karottenjeans. In den 1980er Jahren fanden zunehmend Jeans im "Karottenschnitt" Verbreitung, mit hohem Bund und mit nach unten konisch zulaufendem Schnitt: unterhalb des Gesäßes weit bis sehr weit, am Beinende eng geschnitten, ab mittlerer Höhe des Oberschenkels werden die Hosenbeine kontinuierlich schmaler. Eine im Vergleich zu Röhrenjeans lockere Passform, die nicht die Weite der Baggyjeans der 1990er Jahre erreicht. Diese Art Jeans war gerade unter Poppern sehr beliebt und wurde darüber hinaus oft als Designerjeans zu relativ hohen Preisen angeboten. Ein Beispiel ist die Marke Fiorucci der japanischen Firma Edwin, die damit kommerziell erfolgreich war. Das in den 1990er Jahren populäre Modell "Saddle" des Labels Diesel interpretiert den Karotten-Schnitt noch lockerer: Passform mit insgesamt weiter Oberschenkelpartie und nicht ganz so engem Beinabschluss, erst etwa ab Kniehöhe wurden die Hosenbeine schmaler. Shaping-Jeans. Seit den 2010er Jahren wurden verbesserte Webtechniken entwickelt und damit Jeansstoffe mit höherem Stretchanteil hergestellt, die neben den figurbetonenden Schnitten einer Stretchjeans als figurformende Jeans angeboten werden. Derartige Jeans werden im Handel als "Shaping-" oder als "Shape-Up-"Jeans bezeichnet, bestehen aus hochelastischem, meist festem Denim und modellieren Beine und Po, ohne dabei unbequem zu sein. Teilweise sind nur die Oberschenkel und der Po mit anderer Webtechnik ausgeführt. Waschungen. Während Jeans zunächst nur in dunkelblau erhältlich waren, wurde es seit den 1980er Jahren zunehmend beliebt, Jeans chemisch oder mechanisch zum Beispiel durch Waschen mit Steinen zu bleichen. Seit dieser Zeit sind Jeans in diversen hellen Blautönen bis hin zu nahezu weißem Stoff erhältlich. Außerdem gibt es verschiedene optische Effekte durch Waschungen wie "stone washed", "moon washed" oder "mouth washed", die zum Teil darauf abzielen, Jeans schon beim Kauf gebraucht aussehen zu lassen (used-look). Es kamen Jeans in anderen Farben als blau auf den Markt. Verbreitet waren vor allem schwarz und rot, letzteres insbesondere in Bordeaux-Tönen. Die Waschungsmethoden stehen jedoch immer mehr in der Kritik, weil sie umwelt- und gesundheitsschädlich sind. So werden für die Herstellung des beliebten Used-Looks Sandstrahler genutzt. Es gibt Bestrebungen, auf umwelt- und gesundheitsschonende Verfahren umzusteigen (z.B. Old Blue-Washed). Reitjeans. Reitjeans sind Jeans, die speziell zum Reiten entworfen werden und als Ersatz für normale Reithosen getragen werden. Die Besonderheit gegenüber normalen Jeans besteht darin, dass Reitjeans entweder keine oder eine speziell verarbeitete Naht an der Beininnenseite haben, um zu verhindern, dass diese Naht beim Reiten auf der Haut des Pferdes scheuert. Reitjeans haben oft eine zusätzliche Lage Stoff an der Beininnenseite von Kniehöhe an abwärts, oder einen Lederbesatz wie bei normalen Reithosen. Als Material wird meist Denim verwendet. Der Schnitt von Reitjeans ist entweder wie bei einer klassischen Stretchjeans durchgehend hauteng bis zu den Füßen, um die Reitjeans zu normalen Reitstiefeln tragen zu können, oder etwas weiter im Stil der sogenannten Jodhpurhose. Boyfriend-Jeans. Boyfriend-Jeans sind Jeans für Damen, die weiter geschnitten sind und deren Haupteigenschaft der lockere Sitz auf der Hüfte und ein weites Bein sind, welches oft umgekrempelt wird. Der Stil der Jeans soll, wie der Name schon verrät, wie eine Jeans seines Freundes aussehen. Der Boyfriend-Style wurde in Hollywood zum Beispiel von Katie Holmes Ende 2008 geprägt und schnell von Designerjeanslabels aufgegriffen. Seit 2009 ist er ebenso bei anderen Jeansmarken und den eigenen Kollektionen von Modeketten wie H&M im Programm zu finden. 1852–1949. Nach der Erfindung der Jeans durch Levi Strauss verbreitete sich die Arbeitshose von San Francisco sehr schnell in Nordamerika bei Cowboys, Farmern, Eisenbahnleuten, Handwerkern und Schwerarbeitern. Jeans wurden ebenfalls von der 1889 gegründeten Firma The H. D. Lee Company hergestellt und waren als praktische, strapazierfähige und preiswerte Arbeitshosen sehr beliebt, später kamen Jeansjacken und Jeanshemden hinzu. Mit dem aufkommenden Wohlstand in den Städten an der Ostküste der USA kamen Jeans ab 1920 als Freizeithose zum Einsatz, als reiche Leute sich Cowboyferien auf den „Dude Ranches“ im Westen leisteten. Dabei wurde ein erstes Frauenmodell (Levis Lady L) hergestellt. Aber im Wesentlichen waren bis in die 1950er Jahre Jeanshosen und Jeansjacken in wenigen Unisex Standardformen erhältlich (Straight cut, boot cut Hosen, untaillierte Jacken). Während des Zweiten Weltkrieges war Jeanskleidung als Bestandteil der Armeeuniform für Reparatursoldaten sehr limitiert und schwer erhältlich. 1950er Jahre. In der Nachkriegszeit, seit etwa 1955 verbreiteten sich die nach Kriegsende überschüssigen Armeejeansbestände von Levis, Lee und Wrangler in Westeuropa über Army Surplus Shops und wurden von den jungen Leuten als Abgrenzungs- und Protestelement aufgenommen (Halbstarkenszene). Bei den ersten Jugendgruppen waren „Raw Denim Jeansjacken“ mit selbst gemachten Nietenbeschlägen, Patches, Fransen usw zunehmend beliebt, was in den 1960er und 1970er Jahren von den Rockergruppen und anderen Gangs übernommen wurde. Bei gewissen Gangs wurden die Originaljeansjacken mit Bier oder anderen Sachen übergossen, oder in den Morast gelegt, welche über die gesamte Zeit nie gewaschen werden durften. Westeuropa bildete im Vergleich zu Nordamerika bezüglich Jeans von Anbeginn eine Hochpreisinsel, was, abgesehen von Kaufhausjeans, bis heute zusammen mit Japan so geblieben ist. 1960er Jahre. Neben dem aufkommenden Wohlstand in den Industrieländern inklusive zunehmendem globalen Handel verhalfen die gesellschaftlichen Um- und Aufbrüche über Film, Musik und Jugendprotest der ursprünglichen Arbeitshose endgültig zum Durchbruch als Symbol- und Kultobjekt bei den jungen Leuten, was den Marken, Levis, Lee und Wrangler zu großem Erfolg verhalf. Gleichzeitig kamen in Europa die ersten Nachahmerprodukte auf (Mustang in Deutschland, Lois in Spanien, Lee Cooper in England/Frankreich, Rifle in Italien). 1970er Jahre. Zu Beginn der 1970er Jahre erreichten die Schlagjeans ihren Höhepunkt. Zudem verbreiteten sich die Jeans in Europa von der Arbeits- und Freizeithose zum Alltagsobjekt, welches ältere Personen zunehmend zu tragen begannen. Damit einhergehend explodierte die Marken- und Stilvielfalt bezüglich Farben und Stoffarten (Cordhosen, dünnere und dickere Stoffe bis 32 oz, gestreifte Jeans). Neben dem Abendland verbreiteten sich Jeans global auf der ganzen Welt. In Japan begannen erste Hersteller, spezielle Raw Denim Jeans in guter Qualität herzustellen. 1980er Jahre. Eine weitere Besonderheit der 1980er Jahre sind spezielle Damenjeans mit sehr hoch sitzendem Bund und zugleich engem Schnitt am Unterkörper. Die Passform dieser Damenjeans wird in der Literatur als den bezeichnet. Typisch für diesen Schnitt ist unter anderem die Länge der Schrittnaht, gemessen von der Oberkante der Jeans über den Reißverschluss, durch den Schritt bis zur Oberkante der Jeans hinten. Klassische Röhrenjeans mit normaler Bundhöhe wie die Levis 639 haben in Größe W30 L34 eine Schrittnaht von etwa 63 cm Länge. Das Modell 737 von Levis bringt es dagegen auf 71,5 cm. Bei ansonsten gleicher Kleidergröße sitzt der Gürtel bei der Levis 737 also 4 cm höher. Mit der industriellen Modernisierung in der Textilindustrie zur hochentwickelten Massenproduktion wurden die alten Webstühle entsorgt. Ein Teil davon wurde von japanischen Unternehmen übernommen, die so authentisch wie möglich, originale Raw Denim Modelle herstellen. Dabei wurden sowohl alte Standardmodelle kopiert (Vintage Repros) als auch neue eigene Modelle entworfen mit selvedge seam, black bar tags, hidden rivets, crotch rivets sowie gewoben in ring ring oder ring spun Verfahren unter Verwendung hochwertiger Stoffe. Diese Produkte im Hochpreissegment verbreiteten sich ab den 1990er Jahren langsam in Europa. 1990er Jahre. In den 1990er Jahren verschwanden enge Röhrenjeans nach und nach aus der Öffentlichkeit und vom Markt. Der Modetrend ging stattdessen zu weit geschnittenen Modellen unter Bezeichnungen wie "Baggy Jeans" oder "Skater Jeans". Letztere sollen ihren Ursprung bei Jugendlichen haben, die beim Fahren mit Skateboards oder Inlineskates die notwendigen Schutzpolster unter der Kleidung tragen wollten. Eine andere Entstehungslegende der sackartigen Baggy Jeans bezieht sich auf amerikanische Straßengangs. Bei der nächtlichen Inhaftierung durch die Polizei wurden den „suspekten Elementen“ wie in Gefängnissen üblich die Gürtel abgenommen (Suizidgefahr). An den daher herunterhängenden Hosen hätten andere Jugendliche erkannt, dass einer tatsächlich in Gewahrsam war, also als „harter Junge“ gelten konnte. Durch Nichtwiedereinziehen der Gürtel sollte dieser Eindruck am nächsten Tag beibehalten werden (Anerkennung durch Gleichaltrige, Andeutung respektheischender Gefährlichkeit). Neben den Baggy Jeans erlebte die Schlaghose ihre Renaissance. Wie bereits in den 1970er Jahren wurden Hosen mit geradem oder engem Bein kurzerhand am Saum aufgetrennt und mit bunten Stoffeinlagen zur Schlaghose umgenäht. Außerdem entwickelte sich in den 1990er Jahren der Trend, seine Jeans an der inneren Naht am unteren Bein circa fünf Zentimeter aufzutrennen. Diese Art von Hose sowie die Schlaghosen wurden bevorzugt zu Buffalo Boots getragen. 2000er Jahre. Eine Neuauflage der Jeansmode der 1970er und 1980er Jahre war die weitere Entwicklung. Röhrenjeans werden wieder angeboten und erleben als Gebrauchtartikel ihre Nachfrage. Vor allem kamen "Hüftjeans" (Hüfthose) auf den Markt, deren Hosenbeine im Stil der 1970er Jahre geschnitten sind und an den Oberschenkeln eng anliegen und eine große Fußweite haben. Der Gürtel sitzt sehr tief. Die bei engen, dunkelblauen Jeans durch das Tragen entstehende charakteristische Optik wird bei vielen Jeansmodellen künstlich durch Bleichen oder gezielte mechanische Abnutzung meist durch Sandstrahlen nachgeahmt, wobei Tragefalten durch weiße Striche angedeutet werden. 2010er Jahre. Neben unzähligen Formen, Stilen, Farben, Waschungen, Stofftypen werden weiterhin auf alle Arten künstlich behandelte Hosen hergestellt. Dabei sind industriell zerfetzte oder verschmutzte Hosen mit Pseudoflicken erhältlich. In Nordamerika, Japan und Mittel-/Nordeuropa sind im Hochpreissegment die dunklen ungewaschenen Raw Denim Stoffe oder zusätzlich gewaxte Jeans bei den Raw Denim Heads begehrt. Ein Großteil davon wird in Japan hergestellt, beispielsweise von Strike Gold, Iron Heart, Samurai, Studio d'Artisan, Flathead, Edwin, Evisu, Denime, Skulls, Eight-G. Andere Raw Denim Marken in Europa sind: Nudie, Schweden, A. P. C. (= Atelier de Production et Creation), Atelier La Durance (bis 2011) beide Frankreich; Pike Brothers, Deutschland, Eat Dust, Belgien. In Australien: Imperials; Neuseeland: Ande Whall; Kanada: Naked & Famous; USA: Hellers Cafe, usw. Bei den Jeansfreaks geht es oft darum, die rohen Raw Denim Hosen und Jacken möglichst lange (mindestens sechs Monate) oder für immer bis zum Schluss ungewaschen zu tragen, um so die Originalfarbe bewahren zu können und die eigenen starken personalisierten Fadingsspuren auf der Jeanshose oder Jeansjacke über die Jahre entwickeln zu lassen (Whiskers, Honeycombs). Außer den Schlagjeans kommen die Röhrenjeans zurück. Viele Designermarken bieten Jeans im engen Röhrenschnitt an. Manche Modelle kombinieren hauteng geschnittene Hosenbeine mit dem sehr niedrig sitzenden Schnitt einer Hüfthose und verfügen über Reißverschlüsse an den Fußenden, um das Anziehen zu erleichtern. Im Gegensatz zu den Röhrenjeans der 1980er Jahre ist das Material überwiegend Stretch. Im Gegensatz zu früheren Jahrzehnten, als wenige Jeansmodelle lange auf dem Markt waren, gibt es bei den für Mädchen und Frauen angebotenen Hüftjeans eine große Anzahl schnell wechselnder Modelle. Variationen sind die Bundhöhe, zusätzliche Nähte, gedrehte Beinnähte und sonstige Applikationen an den Beinen; weitere Abwandlungen betreffen Taschen und Gürtelschlaufen, die auch ganz fehlen können. Manche Modelle haben den Reißverschluss nicht vorne, sondern an der Seite oder hinten. Ökologische und soziale Aspekte. Jeans werden noch unter sozial prekären Produktionsbedingungen vor allem in Südostasien und China hergestellt. Das gilt nicht für einige Hochpreis-Raw-Denim-Labels, welche in Japan, Europa oder USA oft in kleiner Stückzahl hergestellt werden. In ökologischer Hinsicht werden Jeans unter hohen Belastungen produziert: enormer Wasserverbrauch, Baumwoll-Monokulturen mit Pestizideinsatz, Färben, große Transportdistanzen zwischen den einzelnen Produktionsschritten. Unter diesem Aspekt sind die ungewaschenen Raw-Denim-Hosen und -Jacken noch am wenigsten schädlich, da bei Jeans mit Zusatzbehandlungen wie Vorwaschen, Sandstrahlen, bleichen usw. die Ökobilanz noch erheblich verschlechtert wird. Zudem halten die ungewaschenen Jeansstoffe logischerweise viel länger als künstlich zerstörte Jeanskleider. Einige Firmen wie etwa Levis haben ein Projekt zur Senkung des Wasserverbrauchs gestartet. Material. Neben den oben genannten Varianten des traditionellen Jeansstoffes wurden und werden Hosen im Schnitt von Jeans aus anderen Materialien gefertigt. Lederhosen werden unter der Bezeichnung Lederjeans angeboten. Der Schnitt entspricht entweder einem bestimmten Jeansmodell, häufig der Levis 501, oder einer typischen Passform, zum Beispiel der von engen Röhrenjeans. Kunstleder wird häufig als Material für jeansähnliche Hosen verwendet. Es besteht typischerweise aus dünnem Stoff, auf den eine äußere Schicht aus Kunststoff aufgebracht ist. Die Oberfläche hat so ein lederähnliches Aussehen. Der Kunststoff ist häufig Polyurethan (PU). Kunstlederjeans werden oft als no-name-Produkt angeboten. Marken bieten viele Jeansmodelle zusätzlich in einer Kunstlederausführung an. Hat der verwendete Kunststoff eine glatte, glänzende Oberfläche, wird die Hose als Lackjeans bezeichnet. Der Kunststoff ist oft PVC. Kunstlederjeans und Lackjeans sind sowohl in Stretchausführung als auch unelastisch erhältlich. Insbesondere Lackjeans gibt es in Ausführungen ohne Hosentaschen und ohne Gürtelschlaufen, die eher als Lackleggings bezeichnet werden. Auch Satin wird für Hosen im Jeansschnitt verwendet. Neben Jeans aus normalem Satin gibt es Stretch-Satinjeans aus hochelastischem Material in hautengem Schnitt. Eine weitere Neuerung aus den 1980er Jahren sind Stretchjeans. Hier wurde ein kleiner Teil der Baumwollfäden des Jeansstoffes durch elastische Fasern ersetzt. Stretchjeans aus dieser Zeit sind meist sehr eng geschnitten. Sie sitzen ähnlich wie eine Strumpfhose bis zu den Füßen herunter hauteng. Typische Stretchjeans dieser Zeit sind die Modelle Mustang Disco und Mustang Skinline. Der Hersteller Levis brachte das Modell 806 mit der Bezeichnung Body Profile auf den Markt. Auch von anderen Herstellern wie Lee gab es eng geschnittene Stretchjeans. Später wurden teilweise normal geschnittene, weite Jeans aus Stretchmaterial gefertigt, wobei die Bequemlichkeit des Tragens im Vordergrund stand. Engen Stretchjeans verwandt sind die Jeggings. Verschluss. Ursprünglich wurden Jeans mit Knöpfen geschlossen ("Button-Fly"), was sich noch in vielen lang etablierten Modellen alteingesessener Hersteller widerspiegelt. Aus Gründen des Komforts gibt es jedoch hauptsächlich Jeansmodelle mit einem Reißverschluss ("Zip-Fly") und einem Hosenknopf aus Metall, seltener mit Reißverschluss und mehreren Knöpfen am hohen Bund. Relativ selten findet sich eine reine Schnürung, die als modisches Accessoire oftmals offen sichtbar angebracht ist. Bei manchen Jeansmodellen sitzt der Reißverschluss nicht vorne, sondern ist an der Seite oder hinten angebracht. Selten sind Reißverschlüsse und Knopfleisten offen sichtbar angebracht. Größenangaben. Bei den Größenangaben dominiert die amerikanische Bezeichnungsweise, bei der die Bundweite und die an der Innennaht gemessene Schritthöhe ("inseam length") in Zoll angegeben werden. Die Bundweite in Zoll wird als Zahl nach dem Großbuchstaben W, die Länge in Zoll nach dem Großbuchstaben L angegeben. Oft findet diese Angabe ohne die Großbuchstaben, zum Beispiel 34/32 (Weite 34 Zoll, Länge 32 Zoll) statt. Die Weite ist in Ein-Zoll-Schritten gestuft, die Länge meist in Zwei-Zoll-Schritten (nur gerade Zahlen). Die Angabe deutscher Kleidergrößen ist bei Jeans wenig verbreitet. Sexuelle Aspekte. Der je nach Epoche sehr enge und körperbetonende Schnitt von Jeanshosen kann einen explizit sexuellen und erotischen Charakter haben, sowohl bei Frauen als auch bei Männern. So stellt der Band von Doris Schmidt unter der Überschrift „Jeans als Symbol für Männlichkeit“ fest: Dieser körperbetonende Sitz enger Jeans wurde beispielsweise auch auf dem Cover der 1971 erschienenen LP Sticky Fingers von den Rolling Stones gezeigt. Bezogen auf Frauen als Jeansträgerinnen wird in der Literatur eine „massive Körperbetonung“ durch Jeans mit „bis unters Knie sehr eng geschnittenem Bein“ und „hautengem Sitz am Po“ dokumentiert. Die den „Po betonenden und in der Taille eng und einschnürend sitzenden Jeans“ würden die weiblichen Körperformen nicht nur nachzeichnen, sondern „konstruierte Frauenformen“ produzieren und damit eine dem Korsett ähnliche Funktion erfüllen. Die Merkmale dieser sind für einen Teil der Träger ausschlaggebend. In einer Umfrage aus dem Jahr 1980 – als enge Jeans noch bevorzugt getragen wurden – nannten 3,3 Prozent der befragten Personen den engen Sitz als Grund für das Tragen von Jeans. Mit der sehr engen Passform wurde beispielsweise in den 1980er Jahren geworben. Das ist in einem Levis-Werbespot dokumentiert, dass es seit den 1960er Jahren praktiziert wird, mit. Diese Personengruppe scheint es zu bevorzugen, dass Jeans ihre normale Funktion als Kleidungsstück nicht mehr erfüllen, weil die An anderer Stelle heißt es: Solche Jeans werden gelegentlich als "Stehjeans" bezeichnet. Mit dem Aufkommen der "Baggy Pants" in den 1990er Jahren hat sich der Zeitgeschmack, insbesondere bei Männern, allerdings überwiegend zu einer weiteren Passform entwickelt. James Hutton. James Hutton (* 3. Juni 1726 in Edinburgh; † 26. März 1797 ebenda) war ein schottischer Naturforscher und Geologe. Er gilt als einer der Begründer der modernen Geologie, speziell der Vorstellung des Kreislaufs der Gesteine und des Aktualismus (mit Karl Ernst Adolf von Hoff und Charles Lyell) Werdegang. Hutton war der einzige Sohn des Kaufmanns (und ehemaligen Schatzmeisters von Edinburgh) William Hutton und der Kaufmannstochter Sarah Balfour. Sein Vater starb 1729, ließ die Familie aber in wohlhabenden Verhältnissen zurück. Hutton besuchte die High School in Edinburgh und studierte ab 1740 an der Universität Edinburgh Geisteswissenschaften, unter anderem Logik bei John Stevenson und Mathematik, Physik und Geographie bei Colin MacLaurin. Danach war er 1743 kurz Lehrling bei einem Anwalt, was ihm aber nicht zusagte. Während des Studiums war sein Interesse für Chemie erwacht und er studierte 1744 bis 1747 das nächstliegende praktische Fach, Medizin, in Edinburgh. 1747 ging er für zwei Jahre nach Paris, wo er Anatomie und Chemie studierte, unter anderem bei Guillaume-François Rouelle, der auch Vorlesungen über Geologie und Mineralogie hielt. 1749 erwarb er seinen M. D. Abschluss in Medizin in Leiden. Ab Ende 1749 war er mehrere Monate in London, bevor er nach Edinburgh zurückkehrte. Manchen Quellen zufolge praktizierte er einige Jahre als Arzt (nach einer anderen Quelle tat er das zu keiner Zeit), bevor er sich von der Medizin abwandte und mit seinem Freund John Davie begann, insbesondere als Dünger wichtige Ammoniak-Stoffe zu produzieren (nach einem Verfahren das beide zuvor in Edinburgh entwickelt hatten) und als „wissenschaftlich interessierter Bauer“ damit zu arbeiten. Von seinem Vater hatte er eine kleine Farm in Slighshouses 40 Meilen südöstlich Edinburgh geerbt, er ging aber vorher noch 1752/53 in die Lehre auf einer Farm im landwirtschaftlich fortgeschritteneren England (bei Yarmouth), wobei er auch andere landwirtschaftliche Betriebe auf längeren Reisen besuchte, in England und 1754 in Nordfrankreich, Holland und Belgien. Über das Studium der Böden kam er zum Interesse an geologischen Phänomenen und begann bald, „rather rocks than books“ (lieber Steine als Bücher) zu lesen (zit. Warren Carey). Die nächsten vierzehn Jahre von 1754 bis 1768, als er nach Edinburgh zog, verbrachte er als Landwirt, wobei er wissenschaftliche Studien trieb. 1767 wurde er Mitglied einer Kommission für ein Kanalbauprojekt zwischen den Flüssen Forth und Clyde. In Edinburgh nahm er am gesellschaftlichen Leben teil und verkehrte mit Wissenschaftlern wie Joseph Black, James Watt, John Playfair (die alle drei seine engen Freunde wurden) und Adam Smith. 1774 reiste er nach England und Wales, wobei er mit James Watt Bergwerke besuchte und über diesen wahrscheinlich auch Kontakte mit der Lunar Society in Birmingham knüpfte - er stand später mit Erasmus Darwin und Matthew Boulton in Briefwechsel. Hutton war sehr aktiv in der 1783 gegründeten Royal Society of Edinburgh und ab 1788 Mitglied der königlich französischen Akademie für Landwirtschaft. Sein erstes kleines Buch über ein geologisches Thema erschien 1777 (Considerations on the Nature, Quality, and Distinctions of Coal and Culm). In den 1780er Jahren unternahm er noch mehrfach längere geologische Studienreisen in England, Schottland und zur Insel Man, was aber Ende des Jahrzehnts aufhörte, da er zunehmend kränklicher wurde (er hatte Blasensteine). 1795 veröffentlichte er auf Drängen seiner Freunde sein Hauptwerk "Theory of the Earth". Ein Buch über Landwirtschaft ("Principles of Agriculture") war geplant, er starb aber vorher. Er war nie verheiratet, hatte aber einen unehelichen Sohn aus Studententagen, mit dem er auch Kontakt hielt. Seinen Haushalt führten zuletzt seine drei Schwestern. Begründer der geologischen Chronologie. Hutton gilt als der Begründer der Geologie als Wissenschaft und letztlich auch der Geochronologie. Denn er benannte als Erster die Kluft zwischen menschlicher und geologischer Zeitskala, und dass Menschheit und Schöpfung älter sein müssten, als man bisher aus der Bibel berechnet hatte (siehe das Jahr 5508 v. Chr.). "Dieselben" geologischen Prozesse, die heute zu beobachten sind, müssten auch in der Vergangenheit gewirkt haben (Aktualismus). Daher wären direkte Rückschlüsse von heute auf die früheren Abläufe möglich. Diese Abläufe fügten sich zu einem Kreislauf der Gesteine im Wechsel von Abtragung und Sedimentablagerung zum Beispiel in Meeren und "vulkanische" Hebung, der seit ewigen Zeiten andauerte - das erste Kapitel der ersten Bandes seines Hauptwerks schließt mit den Worten, "wir finden kein Anzeichen eines Anfangs und Endes". Dies entsprach auch seiner deistischen Weltsicht - Gott hatte die Welt nach seinem Plan eingerichtet, greift danach aber nicht mehr unmittelbar ein. Die Erde glich einer gut geplanten Maschine oder einem Organismus, der mit Selbsterhaltungskräften ausgestattet war. Der Weg zu diesem „neuen Bild der Erde“ war die Untersuchung schottischer Kalkstein-Schichtungen, die Hutton als auf dem Meeresgrund entstandene Ablagerungen erkannte, die sich durch Druck verfestigten. Ähnliches war für Sandstein und Schiefer zu erschließen. Am "Siccar Point" an der Ostküste Schottlands fanden er und sein Freund und Schüler John Playfair eine zweifarbige Klippe, deren unteren dunklen Teil er „Schistus“ nannte. Diese Schiefer-Schichten des Silur waren gefaltet und fast vertikal gestellt, während der darüber befindliche rote "Oldred"-Sandstein des Devon horizontal lag. Nach Huttons Überlegung war der Schistus nach seiner Bildung gekippt worden, sodass der später darauf abgelagerte Sand zu ihm – wie man heute sagt – diskordant war. Von Hutton und seinem Schüler Playfair sind ferner erste Abschätzungen der mittleren Dichte der Erde überliefert, die 4,5 bzw. 4,9 g/cm³ ergaben (wahrer Wert 5,52). Theorie des Aktualismus und Plutonismus. 1785 hielt Hutton erste Vorträge zu seiner Theorie in der "Royal Society of Edinburgh" (in deren Abhandlungen 1788 veröffentlicht und in einem Pamphlet von 1785, das er privat drucken und bei Freunden zirkulieren ließ). 1795 veröffentlichte er sein Hauptwerk in zwei Bänden "Theory of the Earth" (Entwürfe zu weiteren Teilen des Buchs erschienen erst 1899 als Teil III). Darin betont er die Bedeutung langsamer, aber beständiger geologischer Prozesse, die die Oberfläche der Erde formen. Außerdem entwickelte er das Konzept des Aktualismus: Alle geologischen Erscheinungen lassen sich durch "heute" beobachtbare Veränderungen erklären, die sich über lange Zeitspannen hinziehen. Die bis dahin herrschende Meinung war hingegen durch den Augenschein geprägt: die so stabil wirkenden Gebirge, aber auch Schluchten und Vulkane mussten angesichts ihrer oft gewaltigen Dimensionen durch plötzliche Katastrophen entstanden sein. Diese Kataklysmentheorie wurde endgültig erst 70 Jahre später von Charles Lyell widerlegt. Hutton vertrat Ansichten des Plutonismus, eine Richtung die damals auf dem Kontinent mit den Vertretern des Neptunismus in heftige Auseinandersetzungen verwickelt war. Da er aber auch Gesteinsbildung durch Meeresablagerung anerkannte nimmt er in dem damaligen Streit nach Einschätzung seines Freundes John Playfair eine Mittelstellung ein. Er wurde aber von den Neptunisten seiner Zeit hart kritisiert und ebenso von der Kirche, da er etwa der Idee der Sintflut eine Absage erteilte. Neben Gesteinen vulkanischen Ursprungs unterschied er auch schon Tiefengesteine intrusiven Ursprungs wie die Granite, die nach ihm aus einer Magma-Schmelze kristallisierten. Auch hier wie in seinem übrigen Werk zog er seine Schlussfolgerungen erst nach genauer Beobachtung möglichst vor Ort - in diesem Fall von Graniten nahe Glent Tilt bei Aberdeen in Perthshire 1785 ("Observations on Granite", Transactions Royal Society Edinburgh, Band 3, 1794, S. 77-85). Man konnte dort deutlich sehen, wie der rote Granit in den darüberliegenden kristallinen Schiefer eingebrochen war. Huttons Schriften fanden schon in den 1780er Jahren ihren Weg nach Deutschland und Frankreich und beeinflussten dort die Diskussion. Seine Theory of the Earth erschien 1792 in deutscher Übersetzung (Sammlungen zur Physik und Naturgeschichte, Band 4, 1792). Von besonderem Einfluss war die Darstellung der Theorie von Hutton durch seinen Freund John Playfair ("Illustrations of the Huttonian theory of the earth", Edinburgh 1802), durch die zum Beispiel Charles Lyell Huttons Theorie kennenlernte. Erst dieses Buch machte Huttons Theorie weiteren Kreisen bekannt., wobei Playfair Huttons deistische Spekulationen zugunsten der naturwissenschaftlichen Fakten zurückdrängte. John Playfair schrieb auch die Biographie von Hutton. Hutton betätigte sich auch in der Erforschung der Erdatmosphäre. Mit seinen Klimauntersuchungen klärte er die meteorologischen Voraussetzungen für Niederschläge. Mit Fossilien befasste sich Hutton nur am Rande. Ehrungen. Gedenktafel im "Hutton Memorial Garden" in Edinburgh Hutton zu Ehren wurde 2001/2002 auf dem St. John's Hill in Edinburgh der "Hutton Memorial Garden" angelegt, ein kleiner Garten, der mit verschiedenartigen Felsblöcken gestaltet ist. An einem davon ist eine Gedenktafel angebracht. Schriften. Der Maler J. Clerk begleitete Hutton auf Exkursionen und fertigte Zeichnungen an, die für den letzten Teil der "Theory of the Earth" geplant waren, aber erst 1978 wiederentdeckt wurden. Justus von Liebig. Justus Liebig, seit 1845 Freiherr von Liebig (* 12. Mai 1803 in Darmstadt; † 18. April 1873 in München), war ein deutscher Chemiker und Universitätsprofessor in Gießen und München. Kindheit, Schul- und Lehrzeit. Justus Liebig wurde als Sohn eines Drogisten und Farbenhändlers in Darmstadt geboren. Schon früh experimentierte er mit den Materialien, die er in der Werkstatt seines Vaters vorfand, und entwickelte dadurch eine starke Neigung zur Chemie. Auch die chemischen Experimente, die von Schaustellern auf Jahrmärkten vorgeführt wurden, weckten sein Interesse, insbesondere die Herstellung von Knallerbsen, bei der er das Knallquecksilber erstmals kennenlernte. Den Besuch des Ludwig-Georgs-Gymnasiums in Darmstadt beendete er schon in der Sekunda. Einer seiner Lehrer bewertete seine intellektuellen Fähigkeiten mit den Worten: „Du bist ein Schafskopf! Bei dir reicht es nicht mal zum Apothekenlehrling.“ Tatsächlich brach Liebig eine Apothekerlehre bei Gottfried Pirsch (1792–1870) in Heppenheim vorzeitig ab, da er bei seinen privaten Versuchen mit Knallsilber einen Dachstuhlbrand in der Apotheke verursachte. Er kehrte nach Darmstadt zurück und half seinem Vater in der Werkstatt. Nebenher besuchte er oft die großherzogliche Bibliothek, um sich in der Chemie als Autodidakt aus Büchern und durch private Untersuchungen fortzubilden. Studium. Liebig als junger Student 1821, Zeichnung von 1843 Durch Vermittlung seines Vaters begann Justus im Herbst 1819 ein Chemiestudium in Bonn bei Karl Wilhelm Gottlob Kastner, der sein Talent schnell erkannte und ihn als Assistenten in seinem Labor beschäftigte. Als Kastner 1821 einen Ruf an die Universität Erlangen annahm, folgte ihm Liebig, begann dort seine Doktorarbeit "Über das Verhältnis der Mineralchemie zur Pflanzenchemie" und schloss sich dem Corps Rhenania I an. Im März 1822 nahm Liebig, der auch Mitglied der Bonner und Erlanger Burschenschaft von 1820/22 war, an Demonstrationen der freiheitlich gesinnten Studenten gegen die Obrigkeit teil. Als Folge davon wurde er von der Polizei gesucht und musste nach Hause fliehen. Sein Lehrer Karl Kastner erwirkte wenig später durch seine Fürsprache und Empfehlung beim Großherzog Ludwig I. von Hessen, dass Liebig ein Stipendium zum Studium an der Pariser Universität Sorbonne erhielt, damals ein führendes Zentrum der Chemie. Hier lernte er bei den Professoren Joseph Louis Gay-Lussac, Louis Jacques Thénard und Louis-Nicolas Vauquelin den damals fortschrittlichsten Chemie-Unterricht kennen. Professur in Gießen. Bald trat er mit eigenen Arbeiten über Knallquecksilber hervor, wodurch der Naturforscher Alexander von Humboldt auf ihn aufmerksam wurde. Durch dessen Empfehlung an den hessischen Großherzog wurde der erst 21-jährige Liebig im Mai 1824 außerordentlicher Professor für Chemie und Pharmazie an der Ludwigs-Universität Gießen; ein Jahr später wurde er ordentlicher Professor. Seine Arbeitsbedingungen spiegelten das bis dahin geringe Ansehen der chemischen Fakultät wider: Sein Gehalt war gering, und für Geräte, Chemikalien, Kohle usw. erhielt er nur minimale Zulagen. So musste er viele dringend benötigte Apparate und Materialien aus der eigenen Tasche bezahlen, um überhaupt lehren zu können. Trotzdem fand er bei den Gießener Studenten auf Grund seiner Lehrmethoden schnell großes Interesse und Zulauf. Im Jahre 1826 traf Justus Liebig Friedrich Wöhler, mit dem er zusammen forschte und freundschaftlich verbunden war. Im selben Jahr heiratete er Henriette Moldenhauer. Liebigs Gießener Labor, um 1841 Um seine finanziellen Probleme zu mildern, betrieb er nebenberuflich von 1827 bis 1833 ein privates Institut für Pharmazie und technisches Gewerbe, in dem er zusammen mit den Professoren Hermann Umpfenbach, Friedrich Christian Gregor Wernekink und Georg Gottlieb Schmidt Apothekengehilfen und zukünftige Leiter der technischen Gewerbe ausbildete. Er legte hiermit den Grundstock für seine 1832 gegründete Zeitschrift "Annalen der Pharmacie", später allgemein bekannt als "Liebig’s Annalen" und in Großbritannien von der Chemical Society hochgeschätzt. Seine Lehrmethode, seine Entdeckungen und Schriften machten ihn bald in ganz Europa bekannt und berühmt mit der Folge, dass neben vielen Deutschen auch zahlreiche Ausländer, darunter 84 Engländer und 18 Amerikaner, nach Gießen kamen, um Liebigs Vorlesungen über Chemie und Pharmazie zu hören. Der wohl später berühmteste Schüler war August Wilhelm von Hofmann, der bei Liebig von 1836 bis 1845 studierte, promovierte und sich als dessen Assistent habilitierte. 1843 wurde Liebig in die American Academy of Arts and Sciences gewählt. Berufungen an die Universitäten Reval 1827, Göttingen 1835, St. Petersburg 1839, Wien 1841, London 1845 und Heidelberg 1851 lehnte Liebig ab, konnte aber jedes Mal durch Bleibeverhandlungen mit dem zuständigen Ministerium seine finanzielle und berufliche Situation verbessern. 1845 wurde er auf eigenen Wunsch mit dem Titel "Freiherr" geadelt. Wechsel nach München. Justus von Liebig (ca. 1860) Schließlich sondierte die Universität München durch Professor Max von Pettenkofer wegen einer Berufung. König Maximilian II. von Bayern lud Liebig persönlich ein, bot ihm in einer Privataudienz den Bau eines neuen Chemischen Instituts mit daneben liegendem Wohnhaus an und sicherte ihm weitgehende Freiheit in Lehre und Forschung zu. Liebig nahm die Berufung an und lehrte ab 1852 in München. Sein Nachfolger in Gießen wurde sein Schüler Heinrich Will. Um 1860 wurde der Fotochemiker und spätere Erfinder Johann Baptist Obernetter Assistent Liebigs. In München wurde Liebig von vielen wissenschaftlichen Vereinigungen im In- und Ausland zum korrespondierenden oder Ehrenmitglied ernannt und erhielt zahlreiche Ehrungen und Orden von regierenden Herrschern der ganzen Welt. Als er den Superphosphat-Dünger entwickelte, war er Mitbegründer der „Bayerischen Aktiengesellschaft für chemische und landwirtschaftlich-chemische Fabrikate“ (BAG, Werk in Heufeld) mit Sitz München, die bis 2012 unter dem Namen Süd-Chemie existierte und heute Teil des Schweizer Clariant-Konzerns ist. Am 15. Dezember 1859 wurde er zum Präsidenten der Bayerischen Akademie der Wissenschaften ernannt. Dieses Amt bekleidete er bis zu seinem Tod. 1870 wurde er zum Ehrenbürger der Stadt München ernannt. Im Jahr 1859 wurde er auch zum Mitglied der Leopoldina gewählt. 1870 gelang es Justus von Liebig, Glaskörper mit einer Silberlösung zu beschichten und zum Glänzen zu bringen. Liebig wollte damit sein naturwissenschaftliches Gerät verbessern. Justus Liebig starb am 18. April 1873 in München an einer Lungenentzündung und wurde unter großer Anteilnahme der Bevölkerung am 21. April zu Grabe getragen. Sein Grab befindet sich auf dem Alten Südlichen Friedhof in München (Gräberfeld 40, Reihe 12, Platz 11 –). Nachkommen. Mit seiner Frau Henriette hatte Liebig fünf Kinder, darunter den Mediziner Georg von Liebig und den Agrarwissenschaftler Hermann von Liebig sowie die Töchter Agnes (verheiratet mit dem Philosophen Moritz Carrière) und Johanna (verheiratet mit dem Chirurgen Carl Thiersch). Zu seinen Nachfahren gehören des Weiteren die Malerin Clara Harnack (Enkelin), der Chemiker Hans von Liebig (Enkel), der Regierungsrat Eugen von Liebig (Enkel), der Genetiker Max Delbrück (Urenkel), die Frauenrechtlerin Agnes von Zahn-Harnack (Urenkelin), der Leichtathlet Luz Long (Ururenkel), der Psychiater Bern Carrière und die Schauspieler Mathieu, Till und Mareike Carrière. Wissenschaftliches Werk. Liebig begann seine wissenschaftliche Tätigkeit in Gießen mit der Untersuchung hessischer und bayerischer Heilquellen und deren Nutzbarmachung für die Salzgewinnung. Dabei stellte er schnell fest, dass die damaligen Analysemethoden sehr langwierig waren und vergleichsweise ungenaue Ergebnisse lieferten. Es gelang ihm in jahrelangen Versuchen, die Analysegeräte zu vervollkommnen, vor allem aber die Elementaranalyse, d. h. die Ermittlung der elementaren Zusammensetzung von tierischen und Pflanzenteilen durch den von ihm 1831 entwickelten Fünf-Kugel-Apparat (ursprünglich "Kali-Apparat" genannt) und weitere Änderungen wesentlich zu vereinfachen und zu beschleunigen. Er untersuchte zusammen mit seinen Mitarbeitern und Studenten in der Folgezeit Hunderte von Pflanzen und Pflanzenteilen und viele Organe und Produkte von Tieren auf ihre Zusammensetzung und veröffentlichte ihre Ergebnisse. Damit begründete er praktisch die Organische Chemie, weil niemand vorher derart viele exakte und jederzeit nachprüfbare Untersuchungen hatte durchführen können. Zusammen mit seinem Freund Friedrich Wöhler, der an der Höheren Gewerbeschule (Polytechnikum) in Kassel wirkte (und 1836 einem Ruf auf den Lehrstuhl für Chemie und Pharmazie in Göttingen folgte), entwickelte er 1832 die Radikaltheorie, welche die Vielzahl von Stoffen erklärt, die nur aus Wasserstoff, Sauerstoff und Kohlenstoff bestehen (siehe hierzu auch Geschichte der Substitutionsreaktion). Ebenfalls mit Wöhler entdeckte er am Beispiel des Knallsilbers einerseits und des Silbercyanats andererseits die Isomerie, d. h. den Umstand, dass zwei verschiedene Stoffe die gleiche Zusammensetzung, aber unterschiedliche Struktur und Eigenschaften haben können. Sein Hauptinteresse während seiner Gießener Zeit galt der Förderung der Landwirtschaft mit dem Ziel, die zum Teil verheerenden Hungersnöte der damaligen Zeit – er hatte 1816 im Jahr ohne Sommer selbst eine erlebt – zu verhindern. Seine Erkenntnisse auf diesem Gebiet fasste er 1840 und 1842 in zwei Werken zusammen: "Die organische Chemie in ihrer Anwendung auf Agricultur und Physiologie", kurz Agriculturchemie genannt, und "Die Thierchemie oder die organische Chemie in ihrer Anwendung auf Physiologie und Pathologie". Diese beiden Bücher erregten ungeheures Aufsehen, nicht nur bei Wissenschaftlern, sondern bei allen Gebildeten seiner Zeit. Die "Agrikulturchemie", in der er die Mineraldüngung propagierte und ihre Bedeutung für Qualität und Ertrag der Pflanzen erklärte, erlebte neun Auflagen und wurde überdies in 34 Sprachen übersetzt. In seinem Privatlabor widmete er sich 1846 bis 1849 u. a. der Entwicklung eines wasserlöslichen Phosphatdüngers, zusammen mit seinen englischen Schülern Edward Frankland und James Sheridan Muspratt. Das Ergebnis war das so genannte Superphosphat, das auch heute noch der weltweit meist verwendete Phosphatdünger ist. Der Dünger verbesserte die Ernte und dadurch die Nahrungsversorgung in der zweiten Hälfte des 19. Jahrhunderts außerordentlich. Liebig erlangte durch seine Forschungen im Gießener Institut, durch seine bahnbrechenden Lehrmethoden, insbesondere seine Experimentalvorlesungen, und durch seine Veröffentlichungen auf dem Gebiete der Chemie, der Pharmazie, der Physiologie und der Landwirtschaft weltweite Anerkennung. Sein Gießener Laboratorium wurde zum Mekka für die Chemiker aus aller Herren Ländern. In München bezog er ein ganz nach seinen Wünschen gebautes Wohnhaus und das daneben liegende Chemische Institut. Er hielt in den Folgejahren auch hier Vorlesungen vor den Studenten, dies aber in stark reduziertem Ausmaß. Den Hauptteil der Vorlesungen und Praktika überließ er nun seinen Assistenten. Als die Tochter seines Freundes James Sheridan Muspratt 1852 in seinem Haus an Cholera erkrankte, brachte ihn das auf die Idee, ein „Fleischinfusum“ zu entwickeln, mit dessen Hilfe Personen mit schweren Magen- und Darmerkrankungen vor dem Tod gerettet werden konnten. Aus diesem Infusum hat er später „Liebigs Fleischextrakt“ entwickelt. Außerdem arbeitete er an der Entwicklung eines Silberspiegels anstelle der bis dahin üblichen, aber die Gesundheit gefährdenden Quecksilberspiegel. Die von ihm 1858 veranlasste Produktion der Spiegel musste jedoch nach wenigen Jahren eingestellt werden, weil die Bevölkerung die Quecksilberspiegel bevorzugte. Erst als diese 1886 wegen ihrer Giftigkeit verboten wurden, ging man allgemein zur Silberspiegelfabrikation über. Um Säuglinge aus armen, schlecht ernährten Familien, für die aus gesundheitlichen oder anderen Gründen keine Muttermilch und auch keine Amme zur Verfügung stand, vor dem Verhungern zu bewahren, entwickelte Liebig nach längeren Untersuchungen eine „Suppe für Säuglinge“, wie er das Produkt nannte und in Zeitungen empfahl. Es handelte sich um einen frühen Vorläufer der heutigen Babynahrung. Viel Zeit und Arbeit investierte Liebig in die Schaffung eines chemischen Gemisches, mit dessen Hilfe man Brot backen konnte, ohne auf die leicht verderbliche Hefe angewiesen zu sein. Zusammen mit seinem amerikanischen Schüler Eben Norton Horsford führten diese Experimente zu einem Produkt, das wir heute Backpulver nennen. In Amerika hatte Horsford mit dem "baking powder" großen finanziellen Erfolg. In Deutschland fand das Backpulver ab 1892 weite Verbreitung, weil August Oetker das Backpulver nicht den Bäckern zum Brotbacken, sondern den Hausfrauen zum Kuchenbacken empfahl. Der Durchbruch war Justus Liebig verwehrt, da den Hausfrauen in damaliger Zeit keine genauen Waagen zur Verfügung standen. Oetkers Idee, die Abfüllung und Darreichungsgröße für eine bestimmte Menge Mehl anzubieten, die gut abzuwiegen war (1 Pfund), ermöglichte den wirtschaftlichen Erfolg, wenn auch nicht für Liebig. Die größte Publizität verschaffte Liebig die Entwicklung seines Fleischextraktes. Es war die Weiterentwicklung seines 1852 hergestellten Fleischinfusums und wurde anfangs nur in geringem Umfange in Münchner Apotheken verkauft. Erst als der deutsche Ingenieur Georg Christian Giebert 1862 von Liebig die Lizenz zur Großproduktion in Uruguay erhalten hatte, wurde „Liebigs Fleischextrakt“ in Fray Bentos in riesigen Mengen erzeugt und weltweit verkauft. Nach Liebigs Vorstellungen sollte der Fleischextrakt ein Nährmittel vor allem für die ärmere Bevölkerung sein. Der relativ hohe Preis und seine Zusammensetzung ließen dies jedoch nicht zu. Letztlich bewährte sich der Fleischextrakt als sehr beliebte Würze für Suppen und Speisen. Der Extrakt wurde damit zum Vorläufer der heute verbreiteten Speisewürzen wie Maggi-Würze und Knorr. Der Fleischextrakt wurde in Packungen mit Sammelbildern verkauft. Diese sogenannten Liebigbilder erfreuten sich jahrzehntelang größter Beliebtheit. Von 1873 bis 1975 erschienen über 7000 Serien dieser Liebig-Bilder. In den letzten Jahren seines Lebens beschäftigte Liebig sich mit der Physiologie der Gärung und hatte in seiner chemischen Erklärung den französischen Mikrobiologen Louis Pasteur zum erbitterten Gegner. Liebig vertrat die Auffassung, dass eine zellfreie Gärung möglich sei, während Pasteur nur an eine Gärung im Beisein von Mikroorganismen glaubte. Die Forschung hat letzten Endes beiden Recht gegeben: Es gibt eine an Mikroorganismen gebundene Gärung, beispielsweise die Hefegärung von Alkohol, aber auch eine zellfreie Gärung, beispielsweise die Muskelgärung. Nach Liebig ist das Liebigsche Minimumgesetz benannt, das ursprünglich von Carl Philipp Sprengel stammt, jedoch durch Liebig – in erweiterter Form – zielgerichtet verbreitet und bekannt gemacht wurde. In Sprengels Fassung fehlten noch die wichtigen nichtstofflichen Faktoren wie Wärme, Licht etc., die Liebig dann einbezog. Auch der Liebigkühler ist nicht, wie angenommen, von Liebig erfunden worden, sondern wurde schon weit früher eingesetzt, er wurde aber durch Liebig populär. Bedeutung für die organische Chemie. Dankesschreiben Justus Liebigs an Heinrich Emanuel Merck In die Geschichte eingegangen ist Justus Liebig als einer der bekanntesten und erfolgreichsten Chemiker seines Jahrhunderts sowie als Begründer der Agrochemie. Darüber hinaus waren seine experimentellen und theoretischen Erkenntnisse richtungsweisend für die gesamte Entwicklung der organischen Chemie. Durch seine literarische Tätigkeit hatte er großen Einfluss auf die Entwicklung seines Fachgebietes. So war er seit 1832 zusammen mit Philipp Lorenz Geiger und Rudolph Brandes Herausgeber der damals maßgebenden wissenschaftlichen Zeitschrift "Annalen der Pharmacie" (später "Annalen der Chemie und Pharmacie" und "Liebigs Annalen der Chemie"). Alleine oder gemeinsam mit seinen Kollegen Poggendorff, Geiger und Wöhler verlegte er ab 1837 diverse richtungsweisende Lehr- und Nachschlagewerke. Begründer der Agrochemie. 1840 publiziert er sein grundlegendes Werk über Agrikulturchemie. Um die Erkenntnisse der Chemie einem breiteren Publikum nahezubringen, schrieb er seit 1841 sogenannte "Chemische Briefe", populärwissenschaftliche Abhandlungen, die in der Augsburger Allgemeinen Zeitung in unregelmäßigen Abständen erschienen und bei den Lesern großen Anklang fanden. In der ersten Zeit nach Veröffentlichung waren seine Grundaussagen umstritten und wurden von der Wissenschaft und praktischen Landwirtschaft als inkompetent erachtet. Erst ca. 20 Jahre nach Veröffentlichung der Agrikulturchemie erfuhr Liebig breite wissenschaftliche Anerkennung. Die praktische Anwendung seiner Lehre führte seither zur Vervielfachung der Ernteerträge. Die Ernährung industriell und großstädtisch organisierter Gesellschaften wäre ohne Kenntnis der Liebig’schen agrikulturchemischen Grundaussagen nicht möglich. So ist beispielsweise in Deutschland die agrarische Produktion zwischen 1873 und 1913 um 90 % gestiegen. Diese Zunahme basierte neben der Mechanisierung der Landwirtschaft und wissenschaftlich begründeter Tierzucht insbesondere auf der Verwendung von bergbautechnisch gewonnenen bzw. industriell hergestellten Düngemitteln. Experimenteller Unterricht. Justus Liebig hat mit seinen Vorlesungen den experimentellen Unterricht in den naturwissenschaftlichen Fächern eingeführt. Durch seine Forschungen auf dem Gebiete der Analytik wurde die Chemie zur exakten Wissenschaft. Anlässlich seines 200. Geburtstages wurde das Wissenschaftsjahr 2003 als „Jahr der Chemie“ begangen. Lehrer bedeutender Chemiker. Auf den Liebigschen Erkenntnissen und Methoden beruhte die chemische Forschung des späten 19. und des frühen 20. Jahrhunderts. Unter den ersten 60 Nobelpreisträgern der Chemie waren 42 der Geehrten Nachfolger seiner Schüler. Internationale Firmengründungen. Der Name Liebig und seine Erfindung wurden weltweit vor allem durch die internationale 1865 in London gegründete Liebig’s Extract of Meat Company mit Hauptbetriebsstätte in Fray Bentos (Uruguay) beziehungsweise durch deren Produkte, Logos und Werbung bekannt. 1964 schlossen sich die Liebig Co. und die Welt-Teefirma Brook Bond & Company (gegründet 1869 in Manchester durch Arthur Brook) zur Brook Bond Liebig Co. zusammen und wurden später vom Unilever-Konzern (gegründet 1874 durch die Brüder Lever, ab 1929 Unilever) übernommen. Die Liebig-Konzentrat-Würfel waren in Frankreich und Belgien noch in den 1950er Jahren unter dem Namen "Cubes Liebig" (Aussprache etwa „Küb Lie-ebig“) ein allgemeines Haushalts-Lebensmittel. Ehrungen. Bereits zu Lebzeiten wurde er durch John Laurence Smith geehrt, der ein von ihm 1848 neu entdecktes Mineral, den Liebigit nach ihm benannte. In den Jahren nach Liebigs Tod wurden ihm in vielen Städten Deutschlands Denkmale errichtet, u. a. in München auf dem Maximiliansplatz (1883), in Darmstadt auf dem Luisenplatz und in Gießen an der Ostanlage. Das ursprüngliche, von Fritz Schaper 1890 geschaffene große Gießener Liebigdenkmal wurde 1945 zerstört, der Kopf konnte aber 1952 in das neue, schlichtere Denkmal übernommen werden. In der nach ihm benannten Liebigstraße ist zudem sein Labor erhalten, das mittlerweile als Liebig-Museum besucht werden kann. Eine am Museum angebrachte Gedenktafel der Gesellschaft Deutscher Chemiker (GDCh) würdigt Liebigs Wirken in Gießen im Rahmen des Programms Historische Stätten der Chemie. Die ehemalige Gießener Ludwigs-Universität wurde nach dem Zweiten Weltkrieg in Justus-Liebig-Universität umbenannt. In Anerkennung seiner Leistungen wurden zwei Preise mit seinem Namen verbunden, der Justus-von-Liebig-Preis für Welternährung und der Liebig-Wöhler-Freundschaftspreis. In der Maxdorfer BASF-Siedlung wurde eine Straße nach ihm Liebigstraße genannt. Die Hauptstelle der Stadtbibliothek Darmstadt und die Darmstädter Volkshochschule sind in dem nach ihm benannten Justus-Liebig-Haus untergebracht. Das Liebig-Haus in Namibia trägt seinen Namen. 2009 wurde die Therme in Bad Salzhausen, deren Solewasser er einst untersuchte, in "Justus von Liebig-Therme" umbenannt. Der Forscher Ernest Giles benannte den Mount Liebig im Northern Territory in Australien nach dem weltberühmten Deutschen. 1935 wurde der Mondkrater Liebig nach ihm benannt. Julianischer Kalender. Der julianische Kalender wurde von Julius Caesar eingeführt und war in manchen Teilen der Welt noch weit bis ins 20. Jahrhundert gültig, im kirchlichen Bereich teilweise noch bis heute. Er wird heute in der Wissenschaft rückwirkend auch für die Jahre vor dem Wirken Caesars verwendet. Er wurde seit dem 16. Jahrhundert schrittweise durch den gregorianischen Kalender abgelöst. Seit 1900 (und noch bis 2099) besteht zwischen beiden Kalendern eine Differenz von 13 Tagen, um die der julianische dem gregorianischen Kalender nachläuft. Wenn zum Beispiel laut dem gregorianischen Kalender der 7. Januar ist, dann hat man laut dem julianischen erst den 25. Dezember (daher liegt auf dem 7. Januar gregorianischen Stils das Weihnachtsfest vieler orthodoxer Kirchen: Patriarchat Jerusalem, Russland, Serbien, Georgien und der altorientalischen Kirchen der Syrer, Kopten, Eritreer, Äthiopier). Vorgängerkalender. Censorinus beschreibt einen römischen Kalender als zwölfmonatigen Mondkalender. Dieser wurde je nach Bedarf in unregelmäßigen Abständen an das Sonnenjahr angepasst. Caesars Kalenderreform. Appian, Cassius Dio und Macrobius berichten in ihren Schriften, dass Julius Caesar im Jahr 47 v. Chr. den Schaltzyklus des späteren julianischen Kalenders im hellenisierten Ägypten in Alexandria kennenlernte. Die ergänzenden Angaben des Macrobius lassen daher die Möglichkeit zu, dass Julius Caesar nach Ägypten reiste, um mit den Fachleuten des ägyptischen Kalenders die neue Kalenderform des julianischen Kalenders zu besprechen, wahrscheinlich unter anderem mit dem ägyptischen Astronomen Sosigenes, nachdem Julius Caesar den ägyptischen Kalender durch Acoreus näher kennengelernt hatte. Dieser neue – später ihm zu Ehren „julianisch“ genannte – Kalender trat im Jahre 45 v. Chr. in Kraft. Er bestand aus elf Monaten mit je 30 oder 31 Tagen sowie einem Monat mit 28 Tagen. Die alten Bezeichnungen aus dem römischen Kalender wurden zunächst beibehalten. Das verworrene Jahr 708 a. u. c. wurde auf 445 Tage verlängert und begann am 14. Oktober 47 v. Chr. Im alten römischen Kalender wurde in den Schaltjahren der Februar zunächst auf 23 Tage verkürzt und der Schaltmonat Mensis intercalaris eingefügt, der ergänzend die gekürzten Resttage des Februar beinhaltete. Spätere Änderungen. Die Schaltregel wurde nach Cäsars Tod von den Pontifices wörtlich ausgelegt, was jedoch zu falschen Schaltungen führte. Caesar hatte die Schaltung in jedem vierten Jahr angeordnet, die Priester verstanden dies jedoch nach der Inklusivzählung als eine Schaltung alle drei Jahre. Dies ist vermutlich das älteste bekannte Beispiel eines Zaunpfahlfehlers. Die zu viel gezählten Schaltjahre wurden durch Kaiser Augustus korrigiert, indem er die Schaltungen in den Jahren 5 v. Chr., 1 v. Chr. und 4 n. Chr. aussetzte und erst 8 n. Chr. wieder aufnahm. Infolge dieses Anfangsjahres der regelmäßigen Einschaltung eines Schaltjahrs sind es seither die Jahre mit einer durch 4 teilbaren Jahreszahl, die Schaltjahre sind. Entgegen mittelalterlicher Deutungen hat Augustus die Verteilung der Tage auf die Monate nicht ändern lassen. Jahresanfang. Der julianische Kalender an sich war im gesamten Römischen Reich anerkannt, die Jahresanfänge jedoch wurden von Region zu Region verschieden gehandhabt. Der Jahresanfang war nach dem Römischen Kalender bis zum Jahre 153 v. Chr. am 1. März, in Ägypten am 29. August, in Konstantinopel und später auch in Russland am 1. September, im westlichen Mittelmeer sowie verbreitet in England, Deutschland und in der Schweiz am 25. Dezember, später in Großbritannien am 25. März und in anderen Ländern an noch anderen Tagen. Erst ab der frühen Neuzeit setzte sich der 1. Januar im Westen mehr oder weniger allgemein durch, im Osten erst ab dem frühen 18. Jahrhundert. Jahreszählung. Auch die Jahreszählung war in den verschiedenen Teilen des Römischen Reiches verschieden; im Westen wurde meist gar nicht durchgezählt, sondern die Jahre wurden nach den beiden jeweils für ein Jahr amtierenden Konsuln benannt. Daneben wurde auch die Zählung „ab Gründung der Stadt (Rom)“ und später die diokletianische Ära benutzt. Im Osten war die Seleukidische Ära üblich, die 312 v. Chr. als Jahr Eins zählte. Später setzte sich im Westen die bis heute übliche christliche Zeitrechnung durch, im Osten war noch lange die Zeitrechnung „ab der Erschaffung der Welt“ üblich; diese wurde von den Byzantinern auf das Jahr 5509 v. Chr. angesetzt. Römisches Reich. Im Jahre 44 v. Chr. wurde der Quintilis (ursprünglich „fünfter Monat“, seit 153 v. Chr. der siebte) durch das "Lex Antonia de mense Quintili" Julius Caesar zu Ehren in "Julius" umbenannt. Später erhielt der Sextilis (ursprünglich „sechster Monat“, seit 153 v. Chr. der achte) seinen neuen Namen zu Ehren Kaiser Augustus’. Auch andere Monate wurden zeitweise nach römischen Herrschern benannt, aber anscheinend überlebte keine dieser Änderungen deren Tod. Caligula nannte den September (siebter Monat) Germanicus; Nero nannte den Aprilis (zweiter Monat) Neroneus, den Maius (dritter Monat) Claudius und den Iunius (Juni) Germanicus; Domitian nannte den September Germanicus und den Oktober (achter Monat) Domitianus. September wurde auch in Antoninus und Tacticus umbenannt, November (neunter Monat) bekam auch die Namen Faustina und Romanus. Commodus war in der Hinsicht einzigartig, dass er alle zwölf Monate nach seinen angenommenen Namen benannte (Januar bis Dezember): Amazonius, Invictus, Felix, Pius, Lucius, Aelius, Aurelius, Commodus, Augustus, Herculeus, Romanus und Exsuperatorius. Fränkisches Reich. a> mit den Angaben "winnemonet" (Mai) und "herbstmonet" (November) Karl der Große benannte später alle Monate mit größtenteils landwirtschaftlichen Begriffen der damaligen Volkssprache, dem Althochdeutschen. Diese wurden bis ins 15. Jahrhundert und mit einigen Veränderungen teilweise noch bis ins späte 19. Jahrhundert weiterverwendet. Übergang zum gregorianischen Kalender. 6 1907 von Julianischem und Gregorianischen Kalender Das julianische Jahr ist gegenüber dem Sonnenjahr um 11 Minuten und 14 Sekunden zu lang. Dies führte zu einer zunehmenden Abweichung vom Sonnenlauf, die im 14. Jahrhundert schon mehr als sieben Tage betrug. Weiterer Anlass für die Gregorianische Reform war der mit der alten Osterformel fehlerhaft ermittelte Frühlingsvollmond, von dem der Ostertermin abhängt. Papst Gregor XIII. führte im Jahre 1582 den gregorianischen Kalender mit einer verbesserten Schaltregel ein. Diese besagt, dass volle Jahrhunderte (wie 1700, 1800, 1900 usw.) nur dann Schaltjahre sind, wenn sie durch 400 teilbar sind (daher war das Jahr 2000 ein Schaltjahr, das Jahr 1900 dagegen nicht). Für den Übergang bestimmte Gregor XIII. weiterhin, dass auf Donnerstag, den 4. Oktober 1582 (julianisch) direkt Freitag, der 15. Oktober 1582 (gregorianisch) zu folgen hatte, womit 10 Tage übersprungen wurden (unter Beibehaltung der Wochentagfolge). Da der neue Kalender vom Papst eingeführt wurde, benutzten ihn zunächst überwiegend die römisch-katholischen Staaten. Die meisten protestantischen Staaten behielten den julianischen Kalender bis ins 18. Jahrhundert bei, was vor allem in konfessionell gemischten Gebieten Deutschlands zu einem umständlichen Nebeneinander von „altem Stil“ neben „neuem Stil“ führte. In den protestantischen Reichsständen des Heiligen Römischen Reiches erfolgte die Umstellung am 18. Februar des Jahres 1700, dem sogleich der 1. März „neuen Stils“ folgte. Die meisten reformierten Orte der Schweizerischen Eidgenossenschaft stellten nach dem 31. Dezember 1700 „alten Stils“ auf den 12. Januar 1701 „neuen Stils“ um; die letzten Graubündner Gemeinden Schiers und Grüsch folgten allerdings erst im Jahre 1812. In Russland, wo bis ins 17. Jahrhundert die byzantinische Zeitrechnung galt, stellte Peter der Große Ende 1699 nicht auf den neuen gregorianischen, sondern auf den obsoleten julianischen Kalender um (ab 1. Januar 1700 gültig). Dieser wurde dort noch bis nach der Oktoberrevolution beibehalten, dann aber von den Bolschewiki am durch den gregorianischen Kalender ersetzt. Die USA, bis 1776 englische Kolonie und somit nach britischer Gesetzgebung bis 1752 dem julianischen Kalender unterliegend, beschlossen nach ihrer Unabhängigkeit in einem Gesetz, proleptisch den gregorianischen Kalender seit 1582 anzuerkennen. Die US-amerikanischen Geschichtswissenschaftler praktizieren dies auch heute. Heutige Verwendung des julianischen Kalenders. Ein Teil der orthodoxen Kirchen (z. B. die russische, die serbische, die georgische, die mazedonische, die ukrainische) begeht alle ihre Feste weiterhin nach dem julianischen Kalender. Ihr Weihnachtsfest (25. Dezember) fällt darum derzeit auf den 7. Januar (gregorianisch). Für die Ermittlung des Ostertermins und der anderen beweglichen Feste wird in allen orthodoxen Kirchen (außer der finnischen) auch heute der julianische Kalender und die mit ihm gekoppelte alte Osterformel verwendet; sie fallen daher nur gelegentlich mit den entsprechenden Festen der westlichen Kirchen zusammen, oft sind sie eine bis fünf Wochen später. Patriarchat von Jerusalem, Patriarchat von Moskau, Patriarchat von Serbien, Patriarchat von Georgien, Kirche des Sinai, Kirche von Japan, Kirche von China, Kirche der Ukraine, Erzdiözese von Ohrid, Kirche von Albanien, Heiliger Berg Athos. Außerdem wird er von Abspaltungen der griechisch-orthodoxen Kirche sowie der syrischen, koptischen, äthiopischen Kirche und dem armenisch-apostolischen Patriarchat von Jerusalem verwendet. Unabhängig von der gesetzlichen Einführung des gregorianischen Kalenders in den verschiedenen Ländern Europas werden alle geschichtlichen Daten seit dem 15. Oktober 1582 stets gregorianisch umgerechnet. Julianisches Jahrhundert. Das julianische Kalenderjahr dauert 365,25 Tage bzw. 365 Tage und 6 Stunden. Im julianischen Kalender dauert der Schaltjahrzyklus vier Jahre. Ein Zeitraum von 100 Jahren im julianischen Kalender (z. B. vom 12. April 1424 mittags bis zum 12. April 1524 mittags) enthält daher stets eine ganzzahlige Anzahl von Schaltjahrzyklen und damit immer gleich viele Tage, nämlich 36.525. Im Gegensatz dazu kann ein Jahrhundert im gregorianischen Kalender entweder 36.524 Tage (z. B. vom 12. April 1724 mittags bis zum 12. April 1824 mittags) oder 36.525 Tage (z. B. vom 12. April 1924 mittags bis zum 12. April 2024 mittags) enthalten. Wegen dieser begrifflichen Eindeutigkeit, der Ganzzahligkeit und der praktischen Nähe zur Dauer von 100 tropischen Jahren (36.524,219… Tage) benutzt man das so genannte "julianische Jahrhundert" zu 36.525 Tagen als bequeme Zeiteinheit in astronomischen Formeln. So lässt sich einschlägigen Tabellenwerken beispielsweise entnehmen, dass sich die Lage des Perihels der Erdbahn mit einer Geschwindigkeit von 0,323 Grad pro julianischem Jahrhundert entlang der Bahn verschiebt. Unter einem Tag ist in diesem Zusammenhang in der Regel der aus 86.400 Sekunden (des Internationalen Einheitensystems) bestehende Ephemeridentag zu verstehen, so dass das julianische Jahrhundert lediglich einen intuitiv leicht fasslichen Namen für einen Zeitraum von 3.155.760.000 Sekunden darstellt. Einzelnachweise. ! Johann Sebastian Bach. Bachs selbstentworfenes Siegel mit den spiegelbildlich ineinander verwobenen Anfangsbuchstaben seines Namens, JSB Johann Sebastian Bach (* in Eisenach; † 28. Juli 1750 in Leipzig) war ein deutscher Komponist sowie Orgel- und Klaviervirtuose des Barock. Er ist der prominenteste Vertreter der Musikerfamilie Bach und gilt heute als einer der bekanntesten und bedeutendsten Musiker überhaupt. Insbesondere von Berufsmusikern wird er oft als der größte Komponist der Musikgeschichte angesehen. Seine Werke beeinflussten nachfolgende Komponistengenerationen und inspirierten Musikschaffende zu zahllosen Bearbeitungen. Zu Lebzeiten wurde Bach als Virtuose, Organist und Orgelinspektor hoch geschätzt, allerdings waren seine Kompositionen nur einem relativ kleinen Kreis von Musikkennern bekannt. Nach Bachs Tod gerieten seine Werke jahrzehntelang in Vergessenheit und wurden kaum noch öffentlich aufgeführt. Nachdem die Komponisten der Wiener Klassik sich mit Teilen von Bachs Werk auseinandergesetzt hatten, begann mit der Wiederaufführung der Matthäus-Passion unter Leitung von Felix Mendelssohn Bartholdy im Jahre 1829 die Bach-Renaissance in der breiten Öffentlichkeit. Seit der Mitte des 19. Jahrhunderts gehören seine Werke weltweit zum festen Repertoire der klassischen Musik. Eisenach (1685–1695). a>, in dem Bach getauft wurde Johann Sebastian Bach entstammt der weitverzweigten lutherischen mitteldeutschen Familie Bach, deren bis in das 16. Jahrhundert zurückverfolgbare väterliche Vorfahren und Verwandte fast alle als Kantoren, Organisten, Stadtpfeifer, Mitglieder von Hofkapellen oder Clavichord/Cembalo- und Lautenbauer im Raum zwischen Werra und Saale tätig waren. Der Stammbaum der Familie Bach lässt sich zurückführen bis zu seinem Ururgroßvater Veit (oder Vitus) Bach, der als evangelischer Glaubensflüchtling Ungarn verließ und sich in Wechmar bei Gotha als Bäcker niederließ. Er spielte bereits das „Cithrinchen“ (ein Zupfinstrument). Sein Sohn Johannes war nicht nur als Bäcker, sondern auch als „Spielmann“ tätig. Die weiteren Nachfahren waren alle Musiker. Von Johann Sebastian Bach selbst stammt eine Chronik über den „Ursprung der musicalisch-Bachischen Familie“ mit Kurzbiographien von 53 Familienmitgliedern aus dem Jahr 1735. Johann Sebastian war das jüngste von acht Kindern Johann Ambrosius Bachs und dessen Frau Elisabeth, geborene Koch. Sein Vater war Stadtpfeifer in Eisenach und Hoftrompeter in der kleinen Kapelle des Herzogs Johann Georg I. und danach des Herzogs Johann Georg II. von Sachsen-Eisenach. Zur Geburt Bachs galt in den protestantischen Territorien Deutschlands, also auch in seinem Geburtsort Eisenach, noch der julianische Kalender. So wird sein Geburtsdatum in der Regel mit dem örtlich gültigen Datum, dem 21. März 1685, angegeben; gemäß gregorianischem Kalender ist sein Geburtsdatum der 31. März. Da sich die protestantischen Reichsstände im Jahr 1700 dem gregorianischen Kalender anschlossen, sind alle Daten der Bach-Biographie seit 1700, also auch Bachs Sterbedatum, ausschließlich gregorianisch. Das Geburtshaus in der damaligen Fleischgasse (heute Lutherstraße 35), existiert heute nicht mehr. Zwei Tage nach seiner Geburt wurde Johann Sebastian Bach in der Georgenkirche zu Eisenach getauft. Seine beiden Vornamen erhielt Johann Sebastian von den beiden Taufpaten, Sebastian Nagel, Stadtpfeifer von Gotha, und dem fürstlich-eisenachischen Forstbeamten Johann Georg Koch. Obwohl Eisenach zu Bachs Geburtszeit nur etwa 6000 Einwohner hatte, verfügte es über ein recht bedeutendes Musikleben. Seit 1672 war es Residenzstadt des kleinen Fürstentums Sachsen-Eisenach, dessen Hofkapelle bekannte Musiker anzog, so unter anderem Johann Pachelbel 1677–1678, Daniel Eberlin 1672–1692 und Georg Philipp Telemann 1708–1712. Die frühe Kindheit verbrachte Bach in Eisenach, wo er durch den Cousin seines Vaters, den Organisten der Eisenacher Georgenkirche, Johann Christoph Bach, auch erstmals mit Kirchen- und Orgelmusik in Kontakt gelangte. Die Grundlagen des Violinspiels vermittelte ihm wahrscheinlich sein Vater. Im Alter von acht Jahren kam Bach auf die Lateinschule des Eisenacher ehemaligen Dominikanerklosters, die 200 Jahre zuvor bereits der Reformator Martin Luther besucht hatte; zuvor hatte Johann Sebastian Bach vermutlich die deutsche Schule besucht. Seine Mutter starb am 3. Mai 1694. Am 27. November 1694 heiratete sein Vater die Witwe Barbara Margaretha Bartholomäi, geborene Keul; er starb aber nur wenige Monate danach am 20. Februar 1695. Im Alter von neun Jahren war Johann Sebastian somit Vollwaise geworden. Seine Stiefmutter wollte mithilfe der Stadtpfeifergesellen und -lehrlinge das Amt ihres verstorbenen Mannes weiter versehen, erhielt aber dafür nicht die Genehmigung der Stadt Eisenach. Daher konnte sie nicht mehr selbst für die Kinder sorgen. Johann Sebastian Bach zog mit seinem Bruder Johann Jacob zu seinem älteren Bruder Johann Christoph Bach nach Ohrdruf. Schulmatrikel des Lyzeums Ohrdruf. J. S. Bach ist der vierte Schüler in der zweiten Liste Ohrdruf (1695–1700). Der dreizehn Jahre ältere Bruder Johann Christoph, Organist an St. Michaelis in Ohrdruf, übernahm seine weitere Erziehung und musikalische Ausbildung und vermittelte das Spielen auf den Tasteninstrumenten. Spätestens hier dürfte sich sein Interesse für Musik und Instrumente gebildet haben. Auch lernte Bach in Ohrdruf das Orgelspiel und gewann – vermutlich ab 1697 durch die vielen Reparaturen an der Orgel der Michaeliskirche, bei denen auch sein Bruder Christoph mitwirkte – ein tieferes Verständnis von Aufbau und Mechanik des Instruments. Außerdem war Bach als Chorsänger tätig. In Ohrdruf besuchte Johann Sebastian das Lyzeum bis zur Prima. In der Secunda waren sein Vetter Johann Ernst Bach und sein lebenslanger Freund Georg Erdmann seine Mitschüler. Die schulischen Leistungen Bachs in Ohrdruf sind als sehr gut überliefert. Unterrichtet wurde Bach in den Fächern Latein und Griechisch, Mathematik, Geographie, Katechismus und evangelische Religion. Durch ein Schulstipendium („Freitisch“ bzw. „Freiplatz“) konnte er zu seinem Unterhalt beitragen. Diese Schulstipendien wurden durch wohlhabende Bürger gestiftet. Damit verbunden war die Verpflichtung, den Söhnen dieser Familien Privatunterricht zu erteilen. Aus der Ohrdrufer Zeit stammt auch der Bericht aus dem Nekrolog, dass Johann Christoph in einem Schrank mit bloßen Gitterstäben wertvolle Werke von Komponisten aus der späteren Hälfte des 17. Jahrhunderts aufbewahrte und diese seinem Bruder offenbar verwehren wollte, der sie abschreiben wollte. Bach soll laut dem Nekrolog heimlich „bey Mondenscheine“ die Noten abgeschrieben haben, sei jedoch vom Bruder ertappt worden. Der Nekrolog berichtet fälschlicherweise, dass Johann Christoph bereits 1700 verstarb und Bach erst hier die ihm verwehrten Werke erhielt. Nach Christoph Wolff hatte das Abschreiben der Noten keinen Riss zwischen Bach und seinem Bruder hinterlassen. Beide blieben bis zu Christophs Tod im Jahre 1721 eng verbunden. Die Fürsorge und Hilfe, die Johann Sebastian in Ohrdruf erfuhr, hat er nie vergessen. Er hat von seinem Bruder in seinem musikalisch-schöpferischen Start und Heranwachsen wesentliche Förderung erhalten. In der Möllerschen Handschrift von Bachs Ohrdrufer Choralbuch, das wesentlich von Johann Christoph angelegt wurde, finden sich wenigstens 25 der ersten Werke des jungen Johann Sebastian. Als nach dem Tod des Bruders die umgekehrte Situation eintrat und sein Neffe Johann Heinrich Hilfe benötigte, nahm er ihn von 1724 bis 1728 bei sich in Leipzig auf. Lüneburg und Weimar (1700–1703). Nach dem unerwarteten Verlust ihrer „Freitische“ auf dem Lyzeum in Ohrdruf entschlossen sich der 14-jährige Bach und sein Klassenkamerad Erdmann, ihre Schulausbildung in der Partikularschule des Lüneburger Michaelisklosters fortzusetzen. Das akademische Niveau an der Partikularschule in Lüneburg war höher als am Ohrdrufer Lyzeum. Außerdem lernten die Schüler hier durch die Nachbarschaft der Ritterschule die Grundlage der höfischen Tradition kennen. Fest steht, dass Bach seine Geige mit nach Lüneburg nahm. Erstmals werden Bach und Erdmann am 3. April 1700 bei der Verbuchung der Mettengeldzahlungen aufgeführt. Beide mussten kein Schulgeld zahlen, waren dafür aber verpflichtet, als Mettenchorsänger ihren Dienst zu tun. Im Gegensatz zu allen seinen Geschwistern und seinen Vorfahren, die alle die höhere Schulausbildung zugunsten einer Musikerlehre aufgegeben hatten, entschied sich Bach damit für eine höhere Schulbildung, die zum Universitätsstudium qualifizierte. Im Frühjahr 1702 schloss er die Schule in Lüneburg erfolgreich ab. Der Komponist Georg Böhm war zu dieser Zeit Organist an St. Johannis. Sein Einfluss auf Bachs frühe Orgelwerke und Klaviersuiten lässt sich bei stilkritischer Analyse vermuten, aber nicht belegen. Im Jahre 2005 im Altbestand der Weimarer Herzogin Anna Amalia Bibliothek entdeckte Abschriften von Orgelwerken Dieterich Buxtehudes und Johann Adam Reinckens, des zu Bachs Zeit berühmten Organisten von St. Katharinen in Hamburg, legen allerdings nahe, dass der knapp 15-jährige Johann Sebastian Bach die Kopie von Reinckens Choralfantasie "An Wasserflüssen Babylon" für den Orgelunterricht bei Georg Böhm verfertigt hat. Sie ist von Bach mit einem Hinweis auf Böhm datiert: „â Dom. Georg: Böhme | descriptum aõ. 1700 | Lunaburgi“. Laut Nekrolog reiste Bach „von Lüneburg […] zuweilen nach Hamburg, um den damals berühmten Organisten an der Catharinenkirche Johann Adam Reinken zu hören“. Die Orgel der St. Katharinenkirche, die als berühmtestes und schönstes Instrument Norddeutschlands galt, hinterließ bei ihm einen bleibenden Eindruck. Der Nekrolog erwähnt auch, dass Bach in seiner Lüneburger Zeit die Gelegenheit hatte, „sich durch öftere Anhörung einer damals berühmten Capelle, welche der Hertzog von Zelle unterhielt, und die mehrenteils aus Frantzosen bestand, im Frantzösischen Geschmack […] fest zu setzen“. Diese „Capelle“ konnte Bach in der Lüneburger Residenz des Herzogs Georg Wilhelm hören. Unter den französischen Musikern befand sich auch der Ballettmeister der Ritterakademie Thomas de la Selle, ein Schüler Lullys. Zwischen Ostern 1702, als Bach seine Schulzeit in Lüneburg beendet hatte, und 1703 lassen sich Bachs Spuren nicht näher verfolgen. Wahrscheinlich zog er von Lüneburg nach Thüringen zurück, da er mit dem Ende der Schulzeit auch die freie Kost und Logis verloren hatte. Möglicherweise kam er zunächst bei seiner älteren Schwester Maria Salome in Erfurt oder wieder bei seinem Ohrdrufer Bruder Christoph unter, der sich inzwischen wirtschaftlich wesentlich verbessert hatte. Aus einem späteren Brief Bachs ergibt sich, dass er sich im Juli erfolglos um die vakante Organistenstelle an St. Jacobi in Sangerhausen bewarb. Arnstadt (1703–1707). a> 739 aus Bachs Arnstädter Zeit St. Marien zu Lübeck, wie es auch zu Bachs Zeiten aussah Spätestens ab März 1703 war Bach als Lakai und Violinist in der Privatkapelle des Mitregenten Johann Ernst von Sachsen-Weimar angestellt. Bei einer Orgelprobe am 17. März 1703 knüpfte Bach Kontakte zum Rat in Arnstadt. Am 9. August 1703 erhielt Bach ohne weiteres Probespiel seine Bestallung als Organist der Neuen Kirche in Arnstadt. Für ein ungewöhnlich hohes Gehalt von 50 Gulden und 30 Gulden für Kost und Logis war Bach an der Neuen Kirche offiziell zunächst nur für das Orgelspiel zuständig, später aber auch für die Zusammenarbeit mit dem Chor des Lyzeums verpflichtet. Ende 1704 zogen drei verwaiste Cousinen zweiten Grades nach Arnstadt, Töchter von Johann Michael Bach. Zu der jüngsten, Maria Barbara Bach, die nun im Hause des Bürgermeisters wohnte, entwickelte Bach eine feste Zuneigung. Im November 1705 wanderte er zu Studienzwecken nach Lübeck, um, wie es im Nekrolog heißt, „den dasigen berühmten Organisten an der Marienkirche Diedrich Buxtehuden zu behorchen“, möglicherweise aber auch, um sich als Nachfolger des 70-jährigen Organisten zu St. Marien zu bewerben. Es war ihm Urlaub von vier Wochen gewährt worden. Diesen dehnte er bis in den Januar 1706 aus und ließ sich währenddessen als Organist in Arnstadt durch seinen Vetter Johann Ernst vertreten. Diese Reise zu Buxtehude bescherte Bach wertvolle musikalische Eindrücke. Mit großer Wahrscheinlichkeit hat Bach auch auf der berühmten alten Totentanz-Orgel von St. Marien spielen können. Buxtehudes Abendmusiken, Orgel- und Klavierwerke und sein unvergleichliches Orgelspiel bildeten einen Ansporn für den jungen Organisten und Komponisten. Die ersten erhaltenen Orgel- und Klavierwerke Bachs lassen den Einfluss Buxtehudes erkennen. Dazu gehören Choralvorspiele wie beispielsweise "Wie schön leuchtet der Morgenstern" (BWV 739) und Präludien, Toccaten, Partiten und Phantasien. Buxtehude war sehr von Bach angetan. Bedingung für die Nachfolge in der Stelle war aber, Buxtehudes älteste Tochter Anna Margreta zu heiraten. Zu dieser zehn Jahre älteren Frau fühlte sich Bach jedoch nicht hingezogen. Aus den vorliegenden Akten geht hervor, dass Bach mehrmals Konflikte mit dem Arnstädter Konsistorium hatte. Dies betraf sein Verhalten den Chormitgliedern gegenüber, seine Urlaubsüberziehung und seine Art, Orgel zu spielen. Auch habe er in der Kirche mit einer „frembden Jungfer“ musiziert. – Der Enge dieser Verhältnisse hoffte Bach durch seinen Wechsel nach Mühlhausen zu entgehen. Mühlhausen (1707–1708). Mühlhausen um 1650 (Kupferstich von Matthäus Merian) Bachs eigenhändiger Namenszug auf dem Deckblatt der Kantate "Gott ist mein König", 1708. Er schreibt sich italienisch als "Gio. Bast. Bach" (= Giovanni Bastiano Bach) Nachdem Bach am 24. April 1707 in der Freien Reichsstadt Mühlhausen vorgespielt hatte, trat er dort am 1. Juli an der Divi-Blasii-Kirche seinen Dienst als Organist an. Sein Gehalt betrug 85 Gulden plus Naturalien und Einkünfte aus den Nebenkirchen – eine wesentlich höhere Bezahlung als sein Vorgänger und sein Nachfolger, die ihm nun erlaubte, eine Familie zu gründen. Am 17. Oktober 1707 heiratete er Maria Barbara Bach. Der Ehe entstammen sieben Kinder. Auftragsgemäß komponierte Bach zum Ratswechsel am 4. Februar 1708 die festliche Kantate "Gott ist mein König" (BWV 71), die als einzige aus dieser Zeit als Druck erhalten ist. Im Juni 1708 reiste Bach im Zusammenhang mit dem Abschluss der Renovierungsarbeiten an der dortigen Orgel nach Weimar und spielte vor dem Herzog Wilhelm Ernst. Dieser bot ihm die Stelle als Hoforganist und Kammermusiker mit einem Gehalt von 150 Gulden zuzüglich Naturalien an. Ein großer Stadtbrand in Mühlhausen hatte zu einer Verteuerung der Lebenshaltungskosten geführt, so dass Bach schon am 25. Juni 1708 – kaum ein Jahr nach seinem Amtsantritt – in Mühlhausen um seine Entlassung bat. Sein Nachfolger wurde Johann Friedrich Bach. Der Stadt Mühlhausen blieb Johann Sebastian Bach aber weiterhin verbunden: Auch in den beiden Folgejahren bekam er Aufträge für Ratswechselkantaten, die gleichfalls auf Kosten der Stadt gedruckt wurden, aber verschollen sind. Weimar (1708–1717). Bach übersiedelte in der ersten Julihälfte 1708 mit seiner schwangeren Gattin nach Weimar und zog in das Haus ein, in dem bis 1705 der Komponist und Violinist Johann Paul von Westhoff gewohnt hatte. Am 29. Dezember desselben Jahres wurde das erste Kind, Catharina Dorothea, getauft. Während der Weimarer Zeit folgten noch fünf Kinder: Wilhelm Friedemann (* 22. November 1710), die Zwillinge Maria Sophia und Johann Christoph (* 23. Februar 1713, beide starben bald darauf), Carl Philipp Emanuel (* 8. März 1714) und Johann Gottfried Bernhard (* 11. Mai 1715). Auf die Ausbildung seiner Söhne, einschließlich der später geborenen Johann Christoph Friedrich und Johann Christian, legte Bach großen Wert. Alle erhielten eine umfassende Schulbildung und nahmen später ein Universitätsstudium auf. Ein Großteil von Bachs Orgelwerk entstand während der Weimarer Zeit, darunter seine Passacaglia und Fuge c-Moll und zahlreiche Toccaten, Präludien und Fugen. Hier begann er sein Orgelbüchlein, das als Sammlung von 164 Choralvorspielen angelegt war, von denen er aber nur 44 vollendete. Am 21. und 22. Februar 1713 befand sich Bach in Weißenfels anlässlich der Feierlichkeiten zum Geburtstag des Herzogs Christian von Sachsen-Weißenfels. Möglicherweise wurde dort die "Jagdkantate" BWV 208 aufgeführt, Bachs früheste bekannte weltliche Kantate. Kirchenkantaten sind aus der früheren Weimarer Zeit nur wenige überliefert. Gegen Ende des Jahres 1713 wurde Bach nach der Aufführung einer Probekantate die Organistenstelle an der Marktkirche St. Marien und Liebfrauen in Halle angeboten. Er erhielt am 14. Dezember seine Bestallung vom Kirchenkollegium, zögerte aber mit der Vertragsunterzeichnung und schickte erst am 19. März 1714 eine endgültige Absage mit der Begründung, dass die Besoldung nicht seiner Erwartung entspreche. Am 2. März 1714 wurde Bach in Weimar zum Konzertmeister ernannt. Obwohl er in der Hierarchie immer noch unter dem Kapell- und dem Vizekapellmeister stand, bekam er mit 250 Gulden ein erheblich höheres Gehalt als beide. Mit dem neuen Amt war die Pflicht verbunden, alle vier Wochen eine Kirchenkantate auf den jeweiligen Sonntag zu komponieren. Als erste erklang am 25. März (Palmsonntag und gleichzeitig Mariä Verkündigung) die Kantate "Himmelskönig, sei willkommen" (BWV 182). Ihr folgten in regelmäßigen Abständen noch mindestens 20 weitere Werke, die den Grundstock der späteren Leipziger Kantatenjahrgänge bildeten. Über das Instrumentalrepertoire, das Bach mit der Weimarer Hofkapelle pflegte, ist nahezu nichts bekannt, weil alle Unterlagen und Noten 1774 beim Brand der Wilhelmsburg vernichtet wurden. Wichtig für Bach waren offenbar auch seine Beziehungen zum Dresdner Musikdirektor Johann Georg Pisendel. Stilkritische Vergleiche von Bachs und Pisendels Solowerken für Violine legen nahe, Pisendel habe Bach zur Komposition der sechs Sonaten und Partiten angeregt. Bereits 1709 hatten Bach und Pisendel einige Zeit miteinander in Weimar verbracht und seither Kompositionen ausgetauscht. Durch Pisendel, der kurzzeitig ein Schüler Antonio Vivaldis war, wurden Bach möglicherweise Vivaldis Kompositionen vermittelt. Außerdem hatte der junge, musikalisch begabte Neffe des Fürsten, Prinz Johann Ernst, in den Niederlanden die italienische Musik kennengelernt und brachte von dort viele Partituren mit. In den Weimarer Jahren transkribierte Bach mehrere Werke Vivaldis (insbesondere aus Vivaldis "L’Estro Armonico"), so die Cembalo-Konzerte in D-Dur (BWV 972), C-Dur (BWV 976) und F-Dur (BWV 978). Anlässlich der Hochzeit seines Dienstherrn Ernst August am 24. Januar 1716 in Nienburg lernte er erstmals dessen Schwager, den dortigen jungen Fürsten Leopold von Anhalt-Köthen, kennen. Als im folgenden Jahre der bisherige Hofkapellmeister Augustin Reinhard Stricker seinen Posten verließ, unterschrieb Bach bereits am 5. August 1717 den Vertrag als dessen Amtsnachfolger in Köthen, ohne jedoch vorher um seine Entlassung in Weimar gebeten zu haben. Als er dies nachholen wollte, erhielt er seine Demission nicht, sondern wurde am 6. November wegen seiner „Halßstarrigen Bezeugung“ in der Landrichterstube in Haft genommen. Am 2. Dezember wurde er aus Haft und Dienstverhältnis in Ungnade entlassen. Köthen (1717–1723). a> war eines von vier anhaltinischen Fürstentümern Das Fürstliche Residenzschloss zu Köthen In Köthen trug Bach die Titel Kapellmeister und "Director derer Cammer-Musiquen". Er schätzte den musikalischen jungen Fürsten Leopold von Anhalt-Köthen, der oft als Violinist im Orchester mitwirkte, und stand ihm offenbar auch persönlich nahe, was man daraus schließen kann, dass sowohl Leopold als auch seine Geschwister August Ludwig und Eleonore Wilhelmine Taufpaten von Bachs am 15. November 1718 geborenem Sohn Leopold August waren. Bereits am 7. August 1717 zum Kapellmeister ernannt, nahm Bach bei der Unterzeichnung des Vertrages eine Gebühr von 50 Talern entgegen. Insgesamt lag sein Jahreseinkommen in der Funktion des Kapellmeisters bei 400 Talern. Hinzu kam ein Mietzuschuss von zwölf Talern. Bach konnte in Köthen für eine hervorragende Kapelle komponieren. Fürst Leopold hatte bis zu 17 Musiker angestellt, die zum Teil aus der 1713 aufgelösten Kapelle des preußischen Königs Friedrich Wilhelm I. stammten. Acht der Instrumentalisten, unter ihnen Christian Ferdinand Abel, hatten Solistenqualität und den Rang eines Cammermusicus. Der Fürst stattete seine Kapelle mit guten Instrumenten aus und schickte Bach zum Kauf eines neuen Cembalos 1719 nach Berlin. Dort konnte Bach den kunstliebenden Markgrafen Christian Ludwig kennenlernen. Für ihn stellte er 1721 ältere und neuere Instrumentalsätze als "Six Concerts Avec plusieures Instruments" zusammen, die deshalb später "Brandenburgische Konzerte" genannt wurden (BWV 1046–1051). Andererseits hatte das reformierte Bekenntnis des Fürsten Konsequenzen: Es gab nur wenig Bedarf an geistlicher Musik. Denn der Gottesdienst sollte nach reformierter Überzeugung schlicht gehalten bleiben. Als Bach 1720 nach einer zweimonatigen Reise des Hofs aus Karlsbad zurückkehrte, musste er erfahren, dass seine Gattin Maria Barbara nach kurzer Krankheit gestorben und schon bestattet worden war. Ihre Todesursache ist nicht bekannt. Am 3. Dezember 1721 heiratete er Anna Magdalena, die jüngste Tochter des fürstlichen Hof- und Feldtrompeters zu Sachsen-Weißenfels Johann Kaspar Wilcke, die im Juni 1721 als Sopranistin an den Köthener Hof gekommen war. Dieser zweiten Ehe entstammen 13 Kinder, von denen die meisten im Kindesalter starben: Christiana Sophia Henrietta (* 1723; † 1726), Gottfried Heinrich (* 1724; † 1763), Christian Gottlieb (* 1725; † 1728), Elisabeth Juliana Friederica (* 1726; † 1781), Ernestus Andreas (* 1727; † 1727), Regina Johanna (* 1728; † 1733), Christiana Benedicta (* 1730; † 1730), Christiana Dorothea (* 1731; † 1732), Johann Christoph Friedrich (* 1732; † 1795), Johann August Abraham (* 1733; † 1733), Johann Christian (* 1735; † 1782), Johanna Carolina (* 1737; † 1781) und Regina Susanna (* 1742; † 1809). In den Jahren 1726 bis 1733 starben somit in der Familie sieben kleine Kinder, ein Sohn (Gottfried Heinrich) war geistig behindert. Im Jahr 1728 starb auch 51-jährig Bachs letzte noch lebende Schwester Maria Salome. Einige Bach-Biografen vermuten, dass Bach durch diese Schicksalsschläge in den folgenden Jahren in eine Schaffenskrise geraten sei. Als Beitrag zur musikalischen Erziehung seiner Kinder hatte Bach am 22. Januar 1720 das "Clavierbüchlein" für den ältesten Sohn Wilhelm Friedemann begonnen, das unter anderem die zweistimmigen "Inventionen" und dreistimmigen "Sinfonien" enthält. Das 1722 angelegte "Clavierbüchlein vor Anna Magdalena Bachin" enthält die Frühfassungen der Französischen Suiten. Neben dem Wohltemperierten Klavier und den sechs Violinpartiten und -sonaten sind dies die mit Sicherheit auf die Köthener Zeit datierbaren autografen Instrumentalkompositionen. Daneben sind noch einige Geburtstags- und Neujahrskantaten überliefert. Es gilt als sicher, dass Bach für den Hof eine beträchtliche Zahl an Konzerten und anderen Instrumentalkompositionen geschrieben hat, von denen viele verschollen oder in späteren Bearbeitungen als Cembalokonzerte oder Kantatensätze erhalten sind. Aus nicht ganz klaren Gründen schien sich Fürst Leopold in der Folgezeit von Bachs Ensemblemusik etwa 1722 immer mehr abzuwenden, was diesen veranlasste, sich nach neuen Stellen umzusehen. Bach mutmaßte, dass diese Abwendung von der Musik durch die Gemahlin des Fürsten, Friederike Henriette von Anhalt-Bernburg, die dieser 1721 geheiratet hatte, verursacht worden sei. Fürstin Friederike Henriette starb jedoch bereits 1723 im Kindbett, noch bevor Bach seine Stelle als Thomaskantor antrat. Ab 1722 kam hinzu, dass Fürst Leopold über niedrigere Etats verfügte, ausgelöst durch die militärische Anschließung an Preußen und durch anhaltende Konflikte im Fürstenhaus der Askanier. Hinzu kamen zunehmenden Streitigkeiten zwischen Reformierten und Lutheranern. Auch die schlecht geführte Lateinschule Köthens dürfte Bach dazu veranlasst haben, durch einen Umzug seinen Söhnen eine bessere Schulausbildung zukommen zu lassen. Schon im September 1720 wurde die Organistenstelle zu St. Jacobi in Hamburg frei, um die sich Bach bewarb. Er wurde vom Hamburger Rat zum Probespiel zugelassen, sagte aber dann doch ab, wahrscheinlich weil die Übernahme der Stelle mit einer beträchtlichen Kaufsumme verknüpft war. Möglicherweise ist die Widmung der "Brandenburgischen Konzerte" vom 24. März 1721 für den Markgrafen Christian Ludwig von Brandenburg-Schwedt ebenfalls im Zusammenhang mit Bachs Suche nach einer neuen Stelle zu sehen. Ein Dankesschreiben oder eine Besoldung von Christian Ludwig von Brandenburg scheint Bach nicht erhalten zu haben, jedenfalls existiert heute kein Dokument, das hierüber Auskunft gibt. Durch den Tod Johann Kuhnaus am 5. Juni 1722 wurde in Leipzig die Stelle des Thomaskantors frei. Nach einem ersten Probespiel am 14. Juli wurde von den Bewerbern, zu denen Johann Friedrich Fasch (Kapellmeister am Hofe zu Anhalt-Zerbst) und Christian Friedrich Rolle (Musikdirektor in Magdeburg) zählten, Georg Philipp Telemann gewählt. Da Telemann auf Grund einer Gehaltserhöhung in Hamburg blieb, wurde eine zweite Kantoratsprobe anberaumt, bei der neben Bach Georg Friedrich Kauffmann aus Merseburg, der freiwillig zurücktrat, Christoph Graupner (Kapellmeister in Darmstadt) und Balthasar Schott (Organist an der Neuen Kirche in Leipzig) kandidierten. Bach führte am 7. Februar 1723 als Probestück die Kantaten "Jesus nahm zu sich die Zwölfe", BWV 22, und "Du wahrer Gott und Davids Sohn", BWV 23, auf. Gewählt wurde Graupner, der aber ablehnen musste, weil ihm vom hessischen Landgrafen die Entlassung verweigert wurde. Somit wurde Bach „als dritte Wahl“ Thomaskantor, ein Amt, das er bis zu seinem Tode behielt. Den Titel eines Fürstlich-Köthenischen Kapellmeisters durfte Bach weiter führen, und er lieferte noch bis zum Tod Leopolds (1728) Musik zu den Festtagen des Fürstenhauses. Auch reiste er zwischen 1724 und 1728 mehrmals nach Köthen, wo er mit Fürst Leopold zusammentraf und ihm Musik aufführte. Bach blieb bis zum Tod des Fürsten eng mit diesem verbunden. Thomaskantor. Fotografie der Thomasschule in Leipzig von 1896. Bachs Familie wohnte im linken Drittel des Hauses Thomaskirche in Leipzig 1749 (Kupferstich) Ende Mai 1723 nahm Bach seinen Dienst in Leipzig als Thomaskantor auf; er sollte diese Stelle bis zu seinem Tod 1750 behalten. Als Kantor und Musikdirektor war er für die Musik in den vier Hauptkirchen der Stadt verantwortlich. Dazu zählte die Vorbereitung einer Kantatenaufführung an allen Sonn- und Feiertagen. Außerdem oblag ihm der Musikunterricht in der Thomasschule. Die Internatsschüler waren verpflichtet, als Chorsänger die Gottesdienste mitzugestalten. Sein Deputat als Lateinlehrer, das mit seiner Stelle traditionell verbunden war, übertrug er gegen eine Geldzahlung an Siegmund Friedrich Dresig, den Konrektor der Schule. Gleich nach seiner Ankunft fing Bach an, die notwendigen Kantaten zu komponieren oder zu überarbeiten. Bei dieser systematischen Arbeit muss Bach in den ersten beiden Jahren im Schnitt ungefähr ein Werk pro Woche geschaffen haben, danach verlangsamte er das Tempo. Insgesamt sind zwei vollständige Jahrgänge überliefert, der Nekrolog berichtet von drei weiteren (siehe Bachkantate). Hinzu kamen Aufträge für Kantaten zu Hochzeiten, Taufen und Begräbnissen. Für Weihnachten 1723 schrieb Bach die zweite Fassung des Magnificat in Es-Dur mit den weihnachtlichen Einlagesätzen, für den Karfreitag 1724 sein bis dahin umfassendstes Werk, die Johannespassion, für Weihnachten 1724 ein Sanctus. Wohl Anfang 1725 begegnete Bach dem Textdichter Christian Friedrich Henrici alias Picander, der schließlich den Text für die Matthäuspassion lieferte, die 1727 oder 1729 uraufgeführt wurde. Die Aufführungsbedingungen hatten sich in diesen ersten Leipziger Jahren insgesamt verschlechtert. Bach sah sich daher gezwungen, in einer Eingabe an den Rat der Stadt Leipzig vom 23. August 1730 seine Vorstellungen von der vokalen und instrumentalen Ausstattung einer „wohlbestallten Kirchen Music“ zu dokumentieren. Dieser „höchstnöthige Entwurff“ ist heute eine wichtige Quelle für die historische Aufführungspraxis seiner Werke. Bach bemühte sich in dieser Zeit, den Titel eines Hofkompositeurs in Dresden zugesprochen zu bekommen, da er unzufrieden war mit der Bezahlung, den hohen Lebenshaltungskosten und der Leipziger Obrigkeit, von der er sich mehr Förderung wünschte. Etliche seiner Huldigungskantaten arbeitete Bach kurz nach ihrer Entstehung in geistliche Werke um. Diesem Parodieverfahren ist das Weihnachtsoratorium von 1734/1735 zu verdanken, das Himmelfahrtsoratorium von 1735 und das Osteroratorium. Durch Parodierung geistlicher Kantaten entstanden die sogenannten Lutherischen Messen, ebenso 1733 die zweisätzige Urfassung der h-Moll-Messe. Nach Einreichung dieses Werkes beim kurfürstlichen Hof in Dresden erhielt Bach am 19. November 1736 die ersehnte Nachricht, sich „königlich polnischer und kurfürstlich sächsischer Compositeur bey Dero Hoff-Capelle“ nennen zu dürfen. Der Titel war weder mit Privilegien noch mit Einkünften verbunden, stärkte jedoch seine Position gegenüber den Leipziger Autoritäten. Weltliche Musik. Zimmermannisches Caffee-Hauß (rechts), Ort der "Musikalischen Concerten, oder Zusammenkünffte" 1729 übernahm Bach die Leitung des 1701 von Telemann gegründeten Collegium musicum, die er bis 1741, vielleicht sogar bis 1746, behielt. Mit diesem studentischen Ensemble führte er deutsche und italienische Instrumental- und Vokalmusik auf, darunter seine eigenen in Weimar und Köthen entstandenen Konzerte, die er später auch zu Cembalokonzerten mit bis zu vier Solisten umarbeitete. Die Konzerte fanden ein- bis zweimal pro Woche im Zimmermannischen Caffee-Hauß (1943 kriegszerstört) oder im dazugehörigen Garten statt. Sie gelten als Nachweis des erwachenden bürgerlichen Verlangens nach hochstehender musikalischer Unterhaltung in Leipzig. Für diese Auftritte schrieb Bach auch etliche weltlichen Kantaten, wie z. B. "Der Streit zwischen Phoebus und Pan" oder "Hercules am Scheidewege". Bach nannte diese Werke „Dramma per Musica“. Seine Bauernkantate, die er als „Cantate burlesque“ bezeichnete, und die Kaffeekantate sind Beispiele für das humoristische Genre. Als Solisten standen – neben Bach selbst – seine Söhne und Schüler zur Verfügung. In seiner gesamten Leipziger Zeit war Bach ein gesuchter Lehrer. Oft lebten die Schüler in seinem Haushalt. Ziel des Unterrichts war es, Musiker heranzubilden, die als Instrumentalisten und Komponisten den vielfältigen Aufgaben bei Hof, in der Kirche und im beginnenden bürgerlichen Musikleben gewachsen waren. Bachs Unterricht trug vor allem bei seinen Söhnen reiche Früchte. Für diesen Unterricht verwendete Bach ältere und neuere eigene Kompositionen. Viele davon fasste er zusammen und veröffentlichte sie als "Clavierübung I, II, III und IV". Die letzten Jahre. In den 1740er Jahren scheint sich Bach weitgehend von Neukompositionen für die Kirche zurückgezogen zu haben. Neben Auftragsarbeiten wie die am 30. August 1742 zum 36. Geburtstages des Grafen von Dieskau aufgeführte Kantate Mer hahn en neue Oberkeet (BWV 212) konzentrierte er sich offenbar ganz auf umfangreiche Werke für Cembalo. So fuhr er im November 1741 nach Dresden, wohl um Hermann Graf von Keyserlingk die „Goldberg-Variationen“ zu überreichen, die im gleichen Herbst im Druck erschienen. 1744 veröffentlichte er den zweiten Teil des "Wohltemperierten Klaviers". Spätestens 1746 gab er auch die Leitung des Collegium musicum ab. Im Mai 1747 besuchte er auf Einladung Friedrichs des Großen, in dessen Hofkapelle Carl Philipp Emanuel Bach als Cembalist angestellt war, Potsdam und Berlin und spielte auf den dortigen Pianoforti und Orgeln. Er improvisierte über ein vom König vorgegebenes Thema und veröffentlichte anschließend das "Musikalische Opfer", eine Sammlung von zwei Fugen, zehn Kanons und einer Triosonate über dieses Thema. ' lautet der Titel eines Variationenwerkes, das Bach zu seinem Eintritt 1747 in die von Lorenz Christoph Mizler gegründete "Correspondierende Societæt der musikalischen Wissenschaften" einreichte. Ein weiteres bedeutendes kontrapunktisches Spätwerk Bachs ist die "Kunst der Fuge", deren erste Reinschrift Bach 1742 abschloss, die er aber danach bis 1749 umfassend ergänzte und überarbeitete. Die Sammlung von einfachen Fugen, Gegenfugen, Spiegelfugen, Fugen mit mehreren Themen und Kanons stellt ein Kompendium der Techniken der Fugenkomposition dar. Ebenfalls in Bachs letzte Jahre fällt die Vollendung der h-Moll-Messe. Abkündigung vom 31. Juli 1750 Grab Johann Sebastian Bachs in der Thomaskirche In seinen letzten Jahren litt Bach an einer Augenkrankheit. Auch von motorischen Störungen im rechten Arm und damit in der Schreibhand wird berichtet. Ab 1749 sind keine eigenhändigen Schriftstücke von ihm mehr erhalten. Das letzte Schreiben aus Bachs Hand stammt vom 12. April 1749, in dem er seinen Kantoratsvertreter, den Chorpräfekten Johann Nathanael Bammler, als guten Vertreter in „Abwesenheit meiner“ lobte. Die letzte bekannte Unterschrift stammt vom 6. Mai 1749, der zugehörige Text wurde von seinem Sohn Johann Christoph Friedrich geschrieben. Es handelt sich um eine Quittung für den Verkauf eines Fortepianos an einen polnischen Adeligen. Die Kompositionen "Et incarnatus est" und der unvollendet gebliebene Contrapunctus XIV aus der "Kunst der Fuge" sind die letzten Handschriften des Komponisten, die spätestens zur Jahreswende 1749/50 abgeschlossen wurden. Seine Frau Anna Magdalena oder sein Sohn Johann Christian unterschrieben seitdem für ihn alle Dokumente. Das vermutlich seit der Jugend aufgrund einer mäßigen Kurzsichtigkeit eingeschränkte Sehvermögen ließ später wahrscheinlich durch eine Linsentrübung oder ein Glaukom so stark nach, dass sich Bach von dem schon damals umstrittenen Okulisten John Taylor zwischen dem 28. März und dem 7. April 1750 zweimal operieren ließ. Nach der zweiten Operation erholte Bach sich trotz oder wegen weiterer Behandlungsmaßnahmen verschiedener Ärzte nicht mehr vollständig. Sein Sehvermögen erlangte er nicht zurück. Ein klarer Zusammenhang zwischen den Augenoperationen und der vier Monate später zum Tod führenden Erkrankung ist aus heutiger Sicht nur schwierig herzustellen. Bach starb am 28. Juli 1750 und wurde drei Tage darauf auf dem Johannisfriedhof in Leipzig begraben. Am 31. Juli, drei Tage nach seinem Tod, wurde Bach auf dem Friedhof südlich der Johanniskirche bestattet. Noch mehr als ein Jahrhundert später erwiesen einzelne Thomanergruppen jeweils am 28. Juli dem ehemaligen Thomaskantor dort die letzte Ehre. Daher stammt auch die Überlieferung, dass das Grab etwa 6 Schritte von der Südpforte der Kirche gelegen hatte. Ein Grabstein, wenn er denn jemals existierte, war schon Mitte des 19. Jahrhunderts nicht mehr vorhanden. Am 22. Oktober 1894 wurde anlässlich des Umbaus der Kirche und des angrenzenden Friedhofs ein Eichensarg, der mutmaßlich Bachs sterbliche Überreste enthielt (nur 12 von 1.400 Leipziger Verstorbenen wurden im Jahr 1750 in einem solchen beerdigt), exhumiert. Der Leipziger Anatom Wilhelm His begutachtete das Skelett und kam zu dem Schluss, dass es sich um einen etwa 65-jährigen Mann und mit hoher Wahrscheinlichkeit um Bach handelte. Die sterblichen Überreste wurden in einem einfachen Steinsarkophag unter dem Altar der Johanniskirche beigesetzt. Nach der Zerstörung der Kirche und des umliegenden Friedhofes im Zweiten Weltkrieg wurde der Sarkophag 1950 anlässlich des 200. Todestages in den Chor der Thomaskirche überführt. Von einigen modernen Musikwissenschaftlern wurde die Identität der Gebeine jedoch in Zweifel gezogen und eine Überprüfung mittels DNA-Analysen (Vergleich mit den zweifelsfrei erhaltenen sterblichen Überresten des Bach-Sohns Carl Philipp Emanuel, der in der St. Michaeliskirche in Hamburg beigesetzt ist) gefordert, die aber bislang nicht erfolgt ist. Musikalisches Schaffen. Beginn der Cello-Suite Nr. 1 a>, aber aus der Weimarer Zeit, kaum vor 1714, obligate Pedalstimme in eigenem, drittem System Bach – ein Autodidakt im Komponieren. Bachs Sohn Carl Philipp Emanuel Bach bezeugt, dass Bach sich im Komponieren als Autodidakt betrachtete. Es gab keinen verbürgten Kompositionsunterricht. Die Unterweisung bei seinem Bruder in Ohrdruf „mag wohl einen Organisten zum Vorwurf gehabt haben u. weiter nichts“ (C. Ph. E. Bach 1775). Auch zu Bachs mehrmonatigem Aufenthalt bei Buxtehude gibt es keinerlei Belege, dass er bei dieser Gelegenheit Kompositionsunterricht erhalten hätte. Forkel überliefert die Aussage Bachs: „Ich habe fleißig seyn müssen; wer eben so fleißig ist, der wird es ebenso weit bringen können.“ Von Jugend auf studierte Bach die Werke unterschiedlichster Komponisten und lernte aus ihnen durch Hören, Lesen, Abschreiben, Transkribieren, Bearbeiten und Nachahmen der Musik sowie durch die Übernahme von kompositorischen Mitteln, Formen und Gattungen. In Bachs vielfältigem Werk treffen sich Einflüsse aus der Musik Mittel-, Nord- und Süddeutschlands bzw. Österreichs sowie Frankreichs und Italiens, wobei sich die regionalen Traditionen gegenseitig beeinflusst haben. So enthalten die deutschen Traditionen auch italienische und französische Überlieferungen und Stilmittel. Daher sind manche Kompositionen nicht eindeutig zuzuordnen. Kenntnisse über die musikalischen Einflüsse vermitteln Bachs Abschriften und Erwerbungen von Werken anderer Komponisten, Bachs Transkriptionen und Bearbeitungen (z. B. von Vivaldi), schriftliche und mündliche Erwähnungen durch Bach und seinen Umkreis, Berichte und Rezensionen des 18. Jahrhunderts und stilkritische Untersuchungen der Musikwissenschaft der Werke Bachs und seiner Schüler. Verhältnis zu anderen Komponisten. Mit anderen komponierenden Zeitgenossen pflegte Bach einen respektvollen Umgang. Abfällige oder geringschätzige Bemerkungen über andere Komponisten, wie sie beispielsweise von Wolfgang Amadeus Mozart bekannt sind, sind von Bach nicht überliefert (allerdings gibt es auch insgesamt weit weniger überlieferte Zeugnisse von Bach als von Mozart). Er scheint die Werke anderer Komponisten mit unvoreingenommenem Interesse studiert und sie als Künstlerkollegen respektiert zu haben. Dafür sprechen Bachs Offenheit für Anregungen aus den verschiedensten musikalischen Richtungen und seine zahlreichen Bearbeitungen fremder Werke. Auch in den Jahren, als er längst eine eigene Tonsprache entwickelt hatte, schrieb er immer noch ganze Kantaten beispielsweise von Telemann ab, um sie zu studieren. Als Bach 1719 hörte, dass sich Georg Friedrich Händel in seiner Geburtsstadt Halle aufhielt, machte er sich unverzüglich von Köthen aus auf den Weg in die nur wenige Meilen entfernte Stadt, um den gleichaltrigen, wesentlich berühmteren Musikerkollegen zu treffen. Er musste nach seiner Ankunft aber feststellen, dass Händel schon wieder Richtung England abgereist war. Als Händel sich im Jahr 1729 wiederum in Halle aufhielt, war Bach krank und konnte Leipzig nicht verlassen. Er ließ deswegen seinen Sohn Wilhelm Friedemann eine Einladung an Händel überbringen. Das Treffen scheiterte auch diesmal, letztlich wohl am Desinteresse Händels. Manche berühmte Musiker, die Bach teilweise persönlich kannte, sind nicht eindeutig zuzuordnen. Sie hatten selbst unterschiedlichste Musik verarbeitet und Bach mit ihren Werken beeinflusst, so etwa Jan Dismas Zelenka, Johann Mattheson, Georg Philipp Telemann, Reinhard Keiser und Georg Friedrich Händel. Ob Bach auch Anregungen seiner Söhne Wilhelm Friedemann und Carl Philipp Emanuel aufnahm, ist nicht gesichert, aber zu vermuten. Dass manche Kompositionen der beiden ältesten Bachsöhne als Werke des Vaters galten und umgekehrt, deutet darauf hin. Die Kompositionen. Eine Liste aller Werke Bachs ist das Bachwerkeverzeichnis. Bach eignete sich bei seiner Arbeit an den verschiedenen Wirkungsstätten unter dem Einfluss der oben genannten Komponisten nach und nach die unterschiedlichsten Gattungen, Kompositionsstile und Musizierweisen an. Diesem Ziel galten auch einige von Bachs Reisen. Mit Ausnahme der Oper komponierte Bach Werke in allen zu seiner Zeit verbreiteten musikalischen Gattungen. Vokalmusik. Autograph der ersten Seite der Johannes-Passion (BWV 245) "Siehe auch: Kantaten (Bach)" Von Bach sind rund 200 Kirchenkantaten erhalten. In seinen Kantaten und Passionen griff er häufig auf populäre Choräle des evangelischen Kirchengesangbuches zurück. Eine größere Anzahl seiner Werke, vor allem aus der frühen Schaffenszeit, gilt als verschollen. Laut Nekrolog komponierte Bach fünf Passionen, erhalten sind aber nur die Johannes- und Matthäuspassion. Verschollen ist eine Markuspassion (deren Libretto erhalten ist, so dass teilweise Rekonstruktionen versucht wurden). Es existiert eine um 1730 entstandene Lukaspassion, die zum Teil mit der Handschrift Bachs niedergeschrieben ist. Die heutige Musikwissenschaft nimmt aber an, dass es sich dabei um Bachs Kopie des Werkes eines anderen Komponisten handelt. Das fünfte Werk dürfte eine einchörige Variante der Matthäus-Passion sein. Daneben zählen zu seinen Vokalkompositionen weltliche Kantaten (die bekanntesten sind die Jagdkantate und die Kaffee-Kantate), Motetten, mehrere Messen, ein Magnificat, drei Oratorien, mehrere Drammi per musica sowie Choräle, Arien und geistliche Lieder. Musik für Tasteninstrumente. Umfangreich sind Bachs Werke für Tasteninstrumente. Zu den dezidierten Orgelwerken zählen Präludien und Fugen, Fantasien, Toccaten, die Passacaglia in c-Moll, eine Pastorella, Triosonaten, Orgelchoräle, Choralvorspiele, Choralbearbeitungen, Choralpartiten, Choralvariationen, Concerti. Eher dem Cembalo gewidmet sind die zwei- und dreistimmigen Inventionen und Sinfonien, Suiten, Partiten, Fantasien, Ouvertüren, Themata mit Variationen, Präludien oder Fantasien mit zugehörigen Fugen, Toccaten, Sonaten. Instrumentalmusik. Bach schuf auch für andere Instrumente Solowerke, so je drei Sonaten und Partiten für Violine und sechs Suiten für Violoncello. An Musik für Laute solo sind Suiten, Präludien und Fugen überliefert, außerdem eine Sonate für unbegleitete Traversflöte. Im Bereich der Kammermusik komponierte Bach Solosonaten mit Basso Continuo oder obligatem Cembalo sowie einige Triosonaten, an Orchestermusik eine Reihe von Konzerten für ein bis drei Soloinstrumente (darunter auch für Cembalo) sowie vier Orchestersuiten. Musiksprache und Kompositionstechnik. Bach hat auf vielen Gebieten der Musik Bahnbrechendes geschaffen und zur Weiterentwicklung musikalischer Formen und der Musiksprache beigetragen. Einige seiner Werke überschreiten den tradierten Formenkanon weit. Er galt schon den Zeitgenossen als bedeutender „Harmonist“, der die Möglichkeiten der Dur-Moll-Tonalität durch den gesamten Quintenzirkel ausschöpfte wie vor ihm kein zweiter. Vermutlich angeregt durch die verschiedenen Temperierungen von Andreas Werckmeister komponierte Bach sein Wohltemperiertes Klavier, dessen Popularität später der wohltemperierten Stimmung zum Durchbruch verhalf. Bach ging es darin – wie es Kirnberger beschrieben hat – unter anderem darum, die von der Temperierung abhängige Vielfalt tonartbezogener Affekte darzustellen und zu lehren. In Bachs Werken werden neue Wege der Harmonik beschritten (z. B. Chromatische Fantasie und Fuge). Die kontrapunktische Technik der Komposition und die Technik des Fugensatzes brachte er zu meisterhafter Beherrschung (z. B. in der "Kunst der Fuge"). Seine polyphone Kompositionstechnik fand ihren Niederschlag in zahlreichen Instrumental- und Vokalwerken. Instrumentenbau und Spieltechnik. Neben seiner Wirkung als Musiker und Komponist hatte Bach auch Einfluss auf die praxisbezogene Musiktheorie, die später vor allem in den Schriften Johann Philipp Kirnbergers erfasst wurde. Er beherrschte mehrere Instrumente (Orgel, Klavier/Cembalo, Violine, Bratsche und möglicherweise noch weitere) und kannte ihre technischen Möglichkeiten aus eigener Erfahrung. Bach war außerdem an den technischen Aspekten des Instrumentenbaus sehr interessiert und setzte sich für die Weiter- und Neuentwicklung von Musikinstrumenten ein. Dies war auf eine Erweiterung der kompositorischen Mittel ausgerichtet. Bei den Tasteninstrumenten interessierten ihn besonders klangliche Neuentwicklungen. Er beschäftigte sich zum Beispiel mit deren Temperierung, bei den Orgeln mit deren Klangdisposition und mechanischen Qualitäten. Ein Beispiel ist Bachs "Disposition der neüen reparatur des Orgelwercks ad D: Blasii" (Mühlhausen 1708). Bach hatte einen ausgezeichneten Ruf als Orgelgutachter. Bei zahlreichen Orgel-Neu- und -umbauten wurde er hinzugezogen: so beispielsweise 1716 in Halle (Cuntzius-Orgel der Liebfrauenkirche), 1717 in der Leipziger Paulinerkirche (Scheibe-Orgel), 1723 in Störmthal (Hildebrandt-Orgel), 1724 in Gera (Fincke-Orgel der Salvatorkirche),1739 Altenburg (Trost-Orgel der Schlosskirche), 1743 Johanniskirche Leipzig (Scheibe-Orgel), 1743–1746 Naumburg (Hildebrandt-Orgel in der Wenzelskirche) und weiteren. Mit bedeutenden Orgelbauern wie Gottfried Silbermann war er persönlich bekannt und als Orgel-Fachmann, der sich mit technischen Details auskannte, respektiert. Er unterstützte Silbermann in der Entwicklung des Pianofortes, das in Bachs späten Jahren, einem Bericht seines Schülers Johann Friedrich Agricola zufolge, „von ihm völlige Gutheißung erlangte“. Daneben wird Bach häufig als Mitbegründer der Spieltechnik mit dem Daumen als vollwertigem Spielfinger bei den Tasteninstrumenten genannt. Diese Technik ermöglichte eine neue Virtuosität und einen eleganten vielstimmigen Vortrag. „Er hatte sich eine eigene Fingerordnung ausgesonnen, daß es ihm nicht schwer fiel, die größten Schwierigkeiten mit der fließensten Leichtigkeit herauszubringen … Man … weiß, daß es dabey hauptsächlich auf den Gebrauch des Daumens ankömmt“. Bach und die „musicalische Wissenschaft“. Bach sah sich selbst zunehmend als Musikgelehrten, der Werke musikalischer Wissenschaft erstellte. Den Kernpunkt der musikalischen Wissenschaft bildet in Bachs Verständnis das alte aristotelische Prinzip der Kunst als Imitation der Natur. Für Bach liegt die Kunst zwischen der realen Welt – der Natur – und Gott, der diese reale Welt ordnet. Die musikalische Harmonie nimmt Bezug auf die Ordnung der Natur und ihren göttlichen Ursprung. Der „Traum von der Einheit der Wissenschaften“ reizte Bach nicht weniger als die führenden Köpfe und Denker seiner Zeit, und so folgte er seinem eigenen empirischen Weg, indem er die „verstecktesten Geheimnisse der Harmonie in die künstlichste Ausübung“ brachte und die bis dahin bekannten Grenzen der Komposition und der musikalischen Darstellung im Ausmaß und im Detail aufhob und erweiterte. Im Jahre 1750 zog Bachs Schüler Johann Friedrich Agricola in einem Brief eine Parallele zwischen Bach und Newton, in dem er betont, dass Bachs Musik am besten von Musikkennern geschätzt werden könne, und äußerte: „Nicht alle Gelehrte sind vermögend einen Neuton zu verstehen; aber diejenigen, die es in den tiefsinnigen Wissenschaften so weit gebracht haben, daß sie ihn verstehen können, finden hingegen ein desto größeres Vergnügen und einen wahren Nutzen, wenn sie seine Schriften lesen“. Verhältnis zur Religion. Die Titelseite der „Calov-Bibel“ mit Bachs Signatur rechts unten Bachs Musik gilt heute als Gipfelpunkt der lutherischen Kirchenmusik und als „musikalischer Ausdruck der Reformation“. Der schwedische Bischof Nathan Söderblom ging 1929 so weit, seine Musik als „fünftes Evangelium“ zu bezeichnen. Von Bach selbst sind nur sehr wenige Selbstzeugnisse über seine religiösen Auffassungen überliefert. Unter den 52 theologischen Büchern und Erbauungsschriften in 81 Bänden aus seinem Nachlass befanden sich die Werke Martin Luthers, die Schriften orthodox-lutherischer Theologen wie Abraham Calov (mit handschriftlichen Vermerken Bachs), Johannes Olearius, Heinrich Müller, August Pfeiffer, Erdmann Neumeister, aber auch Schriften der Pietisten Philipp Jacob Spener "(Eyfer wider das Papstthum)" und Johann Jakob Rambach "(Betrachtung über die Thränen Jesu)". „und soll wie aller Music […] Finis und End Ursache anders nicht, als nur zu Gottes Ehre und Recreation des Gemüths seyn“, weswegen er auch viele seiner Werke mit "SDG" (Soli Deo Gloria, lateinisch für „Gott allein die Ehre“) unterzeichnete. Seine Bitte um Entlassung aus dem Dienst in Mühlhausen begründete Bach am 26. Juni 1708 mit dem Hinweis auf seinen „Endzweck, nemlich eine regulirte kirchen music zu Gottes Ehren“. Diese umfassende lutherische Kirchenmusik, die einen entsprechenden Aufführungsapparat voraussetzte, konnte er schließlich in Leipzig mit der Komposition von mehreren vollständigen Kantatenjahrgängen verwirklichen. Die wenigen schriftlichen Äußerungen (meist Anmerkungen in seinen theologischen Büchern), die von Bach erhalten sind, weisen ihn als gläubigen Lutheraner aus. Allerdings spricht einiges dafür, dass sein Verhältnis zur Religion im Gegensatz zur strengen lutherischen Orthodoxie Leipzigs nicht auf Abgrenzung angelegt war. Bereits in Köthen hatte er ein enges persönliches Verhältnis zu seinem herzoglichen Dienstherrn, obwohl dieser Calvinist war. In seiner Leipziger Zeit komponierte er die h-Moll-Messe für den katholischen Dresdner Hof. Bachs geistliche Vokalwerke erweisen ihn als Ausleger der Bibel, die als „klingende Predigt“ "(praedicatio sonora)" angelegt sind und eine reflektierte theologische Deutung widerspiegeln. Der theologische Bachforscher Martin Petzoldt plädiert in diesem Zusammenhang für eine differenzierte Sichtweise, denn der „Ausleger der Bibel“ habe „spätestens in seinem letzten Lebensjahrzehnt“ zu einer „veränderten Frömmigkeit“ gefunden. Diese These macht sowohl die Wahl von Bachs Beichtvater Christoph Wolle, sein gutes Verhältnis zum Wolffianer Lorenz Christoph Mizler als auch den Beitritt Bachs zu dessen Societät (1747) nachvollziehbar. Bach hat sich demzufolge gegenüber den unterschiedlichsten Vertretern der Aufklärung – dem gemäßigten Wolle und dem radikaleren Mizler – nicht abgegrenzt, sondern seine Nähe zu ihnen bekundet. Bachs Öffnung für die Aufklärung zieht zwar nicht zwangsläufig eine Abwendung von seiner bisherigen Frömmigkeit nach sich. Damit riskierte Bach aber einen Konflikt mit seinen konservativen theologischen Vorgesetzten, z. B. mit dem Leipziger Superintendenten Salomo Deyling, denn dieser bildete zusammen mit Heinrich Klausing das „Zentrum der Phalanx der entschiedenen Gegner aller Tendenzen der neueren Philosophie“. Das von Bach in dem für ihn ereignisreichen Jahr 1747 abgelegte Symbolum (Glaubensbekenntnis) „Christus coronabit crucigeros“ wurde sowohl aus der Perspektive der lutherischen Orthodoxie als auch im Zusammenhang mit den oben genannten Ereignissen dieses Jahres bzw. dem geistesgeschichtlichen Konfliktfeld Leipzigs der 1740er Jahre interpretiert. Zu Lebzeiten. Der gleichaltrige Universalgelehrte und lutherische Pfarrer der Traukirche von Bach in Dornheim, Johann Gottfried Gregorii alias Melissantes, zählte Bach im Jahr 1744 genau wie Johann Georg Ahle oder die Bachschüler Johann Heinrich Buttstedt und Johann Ludwig Krebs in einer berufskundlichen Abhandlung zu den besten deutschen Organisten. Tradierung durch Söhne und Schüler. Auch die meisten Thomaskantoren des ausgehenden 18. Jahrhunderts kümmerten sich wenig um die Aufführung und Bewahrung der Kompositionen ihres Vorgängers. Das Andenken an Bach pflegten außer einigen Musikliebhabern vor allem seine von ihm unterrichteten Söhne, die selbst Komponisten geworden waren. Allerdings beschritten sie durchaus eigene Wege. Ein weiterer Sohn, Johann Gottfried Bernhard Bach, bereitete dem Vater überwiegend Sorgen. Er verschwand 23-jährig plötzlich unter Hinterlassung eines Schuldenberges von seiner Organistenstelle in Sangerhausen und starb schon ein Jahr später 1739 in Jena an „hitzigem Fieber“. Während seiner gesamten Schaffenszeit war Bach als Instrumental- und Kompositionslehrer tätig, insgesamt 81 Schüler sind nachweisbar. Die Schüler lebten, oft über lange Zeit, im Haushalt der Familie und nahmen später wichtige Kapellmeister- und Kantorenposten ein. Sie waren es, die neben seinen Söhnen Bachs Namen und musikalischen Nachlass auch in der zweiten Hälfte des 18. Jahrhunderts lebendig erhielten. Bekannte Schüler Bachs waren Johann Ludwig Krebs und Johann Philipp Kirnberger, der Bachs Kompositionslehre und Wohltemperierte Stimmung weitergab. Dadurch wurden zwar etliche Kompositionen Bachs zu Lehrwerken für spätere Komponisten wie den jugendlichen Ludwig van Beethoven, wurden aber dennoch in den ersten achtzig Jahren nach Bachs Tod kaum öffentlich aufgeführt. Einwirkung auf die Wiener Klassiker. Haydn und Mozart meinten zunächst Carl Philipp Emanuel, wenn sie von Bach sprachen; er gab ihnen, vor allem Haydn, entscheidende Anregungen zum eigenen Stil. Mozart wurde außerdem durch die Musik Johann Christian Bachs beeinflusst, den er 1764/65 auf einer Konzertreise als „Wunderkind“ in London kennengelernt hatte. Johann Sebastian Bach trat erst spät in beider Bewusstsein. Ab April 1782 lernte Wolfgang Amadeus Mozart im Hause Gottfried van Swietens Werke von Händel und Bach kennen. Mozart studierte vor allem Bachs Klavierfugen und eignete sich systematisch deren Kompositionstechniken an. 1789 hörte Mozart bei einem Besuch in der Thomaskirche Bachs Motette „Singet dem Herrn ein neues Lied“ (BWV 225). Außerordentlich beeindruckt, vertiefte er sich in diese und andere Partituren Bachs. Die Spuren dieser Begegnung sind eine spontan komponierte Gigue und vermehrt polyphone Setzweisen in Mozarts späterem Schaffen. Beethoven setzte sich besonders in seinen späten Werken mit Bachs polyphonen Techniken und Formen auseinander, so z. B. in der Klaviersonate op. 110 und in den Diabelli-Variationen sowie in seinen Streichquartetten op. 127, op. 130, op. 131, op. 132 und op. 133 "(Große Fuge)". Eine Verwandtschaft mancher Werke Beethovens mit der Musik Bachs ist unverkennbar, so ist das Thema des "Arioso Dolente" aus der Sonate op. 110 deutlich einer Altarie aus Bachs Johannespassion entlehnt. Bach-Renaissance im 19. Jahrhundert. Im Schlusssatz seiner Biografie bezeichnet Forkel Bach enthusiastisch als den „größten musikalischen Dichter und den größten musikalischen Deklamator, den es je gegeben hat und den es wahrscheinlich je geben wird“. Schließlich war das Publikum ab der Mitte des 19. Jahrhunderts mit Bachs Instrumentalmusik besser vertraut als mit den geistlichen Werken, einschließlich der Passionen. Im Jahr 1850 wurde unter Beteiligung von Schumann, Liszt, Ignaz Moscheles, Louis Spohr, Otto Jahn, Carl von Winterfeld, Siegfried Wilhelm Dehn, Carl Ferdinand Becker und des Thomaskantors Moritz Hauptmann in Leipzig die Bach-Gesellschaft gegründet, die das Ziel hatte, die Werke Bachs in einer Gesamtausgabe herauszugeben. Auch Johannes Brahms (1833–1897), dessen musikalischer Historismus sich auf J. S. Bach gründete, war maßgeblich an dieser ersten Gesamtausgabe von Bachs Werken beteiligt. Mit Beendigung dieser Aufgabe im Jahr 1900 löste sich die Bach-Gesellschaft satzungsgemäß wieder auf, zugleich konstituierte sich auf Initiative von Hermann Kretzschmar und unter Mitwirkung von Oskar von Hase, Martin Blumner, Siegfried Ochs, Joseph Joachim, Franz Wüllner und des Thomaskantors Gustav Schreck die Neue Bachgesellschaft. 20. und 21. Jahrhundert. Erst im 20. Jahrhundert erlebten Bachs Kompositionen eine systematische Pflege im öffentlichen Musikleben und in der Musikwissenschaft. Jacques Loussier wurde durch moderne Interpretationen Bachscher Werke mit seinem Play-Bach-Trio bekannt Die Werke Bachs wurden seit den 1970er Jahren zunehmend Gegenstand der historischen Aufführungspraxis. Sie hat vielen Interpreten und Hörern einen neuen Zugang zu seiner Musik ermöglicht. Einen Anfang dazu hatte 1903 schon Wanda Landowska mit ihrem ersten öffentlichen Cembalo-Recital gemacht und mit ersten Schallplattenaufnahmen 1923 und der Gründung der "École de Musique Ancienne" im Jahre 1925 den Weg zum „Originalklang“ geebnet. Bach wird aber ebenso auf modernen Instrumenten gespielt. Die Einspielungen des kanadischen Pianisten Glenn Gould auf einem modernen Flügel, die sich durch Klarheit und tiefes Verständnis des Kontrapunkts auszeichnen, gelten als Meilensteine der Bach-Interpretation. Im 20. Jahrhundert erfuhr das Werk Bachs auch eine Reihe populärer Adaptionen. Viele davon sind trivial und ohne größeren Wert, aber es gab auch ernsthaftere Annäherungen – so von Jacques Loussier mit seinem Projekt "Play Bach", von Ward Swingle mit seinen Swingle Singers und von Walter Carlos, der mit seinem Moog-Synthesizer eine neue klangliche Perspektive auf Bachs Werk eröffnete. Besonders Jazz-Musiker haben in der konzertanten Bachschen Mehrstimmigkeit und in seiner Fugentechnik immer wieder Anregungen gefunden, etwa Nina Simone, Dave Brubeck oder Keith Jarrett. Auch in der zeitgenössischen Kunstmusik finden sich zahlreiche Bach-Referenzen. Hatte schon Alban Berg in seinem Violinkonzert (1935) dem Choralzitat „Es ist genug“ (aus der Kantate "O Ewigkeit, du Donnerwort", BWV 60) zentrale Bedeutung eingeräumt, so legt in neuerer Zeit Klaus Huber seiner Komposition "Senfkorn" (1975) einen Passus der Bass-Arie „Es ist vollbracht“ (aus der Kantate BWV 159) zugrunde. Isang Yun nahm sich im Violin-Solowerk "Königliches Thema" (1976) des Themas aus dem Musikalischen Opfer ebenso an wie zeitgleich Jürg Baur in "Kontrapunkte 77". Variationen über „Es ist genug“ komponierte Edison Denissow 1984 (Ensemblefassung 1986). "Meditationen" über den Bach-Choral „Vor deinen Thron tret ich hiermit“ (BWV 668) schuf Sofia Gubaidulina 1993. Reinhard Wolschina versah seine "moments of silence" (2000) mit dem Untertitel "fünf Postludien für J.S.B." Auf Bachs c-moll-Passacaglia BWV 582 reflektiert Jörg-Peter Mittmann in seinem Werk "Passacaglia" (2006). In "…mit Bach" (2002) entfaltet derselbe Komponist eine Klangfläche über den Choral „Jesu bleibet meine Freude“ (BWV 147). Allein das Motiv B-A-C-H, das Bach selbst in das letzte Stück seiner Kunst der Fuge eingeflochten hat, wurde von mehr als 300 Komponisten aufgegriffen, zum Beispiel von Hanns Eisler in "Präludium und Fuge über B-A-C-H" (1934). Arvo Pärt verfasste eine "Collage" über B-A-C-H (1964), die er später zum "Concerto Piccolo über B-A-C-H" (1994) erweiterte. Jean-Luc Darbellay spielt in "Vagues (Hommage à J. S. Bach)" (2006) auf Beethovens Ausspruch „Nicht Bach, Meer sollte er heißen“ an und greift ebenso auf das Motiv B-A-C-H zurück. Keine Bach-Referenz im engeren Sinne bilden die "Bachianas brasileiras" (1930–1945) von Heitor Villa-Lobos. Gedenken. "Bach in the Subways" 2015 in Leipzig a> in Eisenach dient heute als Museum, es ist aber nicht Bachs Geburtshaus Das alte Bachdenkmal in Leipzig aus dem Jahr 1843, gestiftet von Felix Mendelssohn Bartholdy Als besondere Form der Ehrung ist die Benennung von neu entdeckten Himmelskörpern nach Persönlichkeiten der Geschichte seit über 100 Jahren gebräuchlich. Nach Johann Sebastian Bach sind bisher schon neun Planetoiden im Asteroidengürtel der Sonne benannt worden, hierbei wurden auch die wichtigsten Wirkungsorte berücksichtigt. Der 1931 von K. Reinmuth entdeckte Planetoid Nr. 1814 (1931 TW1) trägt den offiziellen Namen "Bach". Bach und seine Werke werden auf zahlreichen deutschen Briefmarken und Münzen dargestellt. Literatur. Für eine um Vollständigkeit bemühte Bibliographie siehe Yo Tomitas Jackbohne. Die Jackbohne ("Canavalia ensiformis"), auch Madagaskarbohne oder Riesenbohne genannt, ist eine Pflanzenart in der Unterfamilie Schmetterlingsblütler (Faboideae) innerhalb der Familie der Hülsenfrüchtler (Fabaceae oder Leguminosae). Sie ist nahe verwandt mit einer Reihe anderer „Bohnen“ genannter Feldfrüchte, insbesondere zur Schwertbohne. Die Jackbohne ist eine von den Karibischen Inseln und aus Mittel- oder Südamerika stammende, in der Neuen Welt seit mehr als 2000 Jahren angebaute Nutzpflanze. Erscheinungsbild und Blatt. Die Jackbohne ist eine kurzlebig ausdauernde krautige Pflanze oder ein Halbstrauch und erreicht Wuchshöhen von 0,60 bis 1,60 Meter. Sie wird meist wie eine einjährige Pflanze kultiviert. Die niederliegenden, halbaufrechten, aufrechten oder kletternden Sprossachsen erreichen Längen von 2 bis zu 3 Metern und verzweigen sich gut; ältere Sprossachsen können etwas verholzen. Das kräftige Wurzelsystem reicht relativ tief in den Boden und bildet eine lange Pfahlwurzel. Die oberirdischen Pflanzenteile sind flaumig behaart oder verkahlen. Die Keimung erfolgt epigeal. Die ersten Laubblätter sind etwa eine Woche nach der Aussaat voll entfaltet. Die wechselständig am Stängel verteilt angeordneten Laubblätter sind in Blattstiel und Blattspreite gegliedert. Der Blattstiel ist 10 bis 15 cm Zentimeter lang. Die Blattrhachis ist 3 bis 4,5 Zentimeter lang. Die unpaarig gefiederte Blattspreite besteht aus drei Fiederblättern. Die Fiederblätter sind 4 bis 7 Millimeter lang gestielt. Die krautigen Fiederblätter sind bei einer Länge von 5 bis 20 Zentimeter sowie einer Breite von 3 bis 12 Zentimeter eiförmig oder elliptisch mit gerundeter oder keilförmiger Basis und einem spitzem oder gerundetem mit einer Stachelspitze oberen Ende. Beide Seite der Fiederblätter sind spärlich kurz flaumig behaart oder verkahlend. Die Fiedernervatur besteht aus sechs bis sieben Paaren von erhabenen Seitennerven und auch die Netznervatur ist erkennbar. Die kleinen Nebenblätter fallen früh ab. Blütenstand und Blüte. Die Blütezeit liegt in China zwischen Mai und Juli. Je nach Standort erscheinen die ersten Blüten 50 bis 110 Tage nach der Aussaat. In den Blattachseln steht ein 10 bis 35 Zentimeter langer Blütenstandsschaft. In einem bis zu 20 Zentimeter langen traubigen Blütenstand stehen an den verdickten Knoten (Nodien) der Blütenstandsachse jeweils ein bis fünf Blüten zusammen; insgesamt 10 bis 30 manchmal bis zu 50 Blüten in einem Blütenstand. Die Deckblätter sind 2 Millimeter lang und enden stumpf. Der Blütenstiel ist 2 bis 5 Millimeter lang. Die zwittrigen Blüten sind zygomorph und fünfzählig mit doppelter Blütenhülle. Die fünf spärlich flaumig behaarten Kelchblätter sind zu einem etwa 1,5 Zentimeter langen glockenförmigen, zweilippigen Kelch verwachsen. Die gestutzt Oberlippe des Kelches ist länger als die Kelchröhre und die Unterlippe besitzt drei dreieckigen Kelchzähne. Die etwa 2,7 Zentimeter lange Blütenkrone hat den typischen Aufbau eines Schmetterlingsblütlers. Die fünf Kronblätter sind manchmal weiß, meist hellviolett bis purpurfarben. Die Fahne ist bei einem Durchmesser von etwa 2,2 Zentimeter gerundet und besitzt zwei fast kreisförmige, zurückgekrümmte Öhrchen und einen etwa 5 Millimeter langen, flachen und relativ breiten Nagel. Die Flügel sind verkehrt-eiförmig-länglich. Das Schiffchen ist geöhrt und genagelt. Die zehn fertilen Staubblätter sind alle verwachsen. Das einzige kurz sowie dünn gestielte, oberständige Fruchtblatt enthält viele Samenanlagen. Der nach innen gebogene Griffel endet in einer kleinen Narbe. Frucht und Samen. Die Hülsenfrüchte reifen in China im Oktober. Die etwas abgeflachten, etwas gebogenen, relativ dicken Hülsenfrüchte sind bei einer Länge von 15 bis 30 Zentimeter sowie einer Breite von 2,5 bis 4 Zentimeter im Umriss linealisch-länglich und laufen an beiden Enden spitz aus. Jede dick ledrige Fruchtklappe besitzen an der Bauchnaht eine erhabene Rippe und parallel nahe dazu eine extra 5 Millimeter breite Rippe. Die anfangs grünen und flaumig behaarten Hülsenfrüchte verkahlen später und sind bei Reife meist elfenbeinweiß. Jede Hülsenfrucht enthält 8 bis 20 Samen. Die etwa 21 Millimeter × 15 Millimeter × 10 Millimeter großen Samen sind elliptisch bis länglich und seitlich abgeflacht. Die Samenschale ist elfenbeinfarben oder weiß. Das meist 6 bis 9, höchstens 15 Millimeter lange, ovale und graue Hilum ist braun umrandet und leicht eingezogen; es bedeckt etwa ein Viertel des Samens. Das Tausendkorngewicht liegt zwischen 1300 und 1800 g. Chromosomensatz. Die Chromosomengrundzahl beträgt x = 11; es liegt Diploidie vor, also 2n = 22. Ökologie. Wenn die entsprechenden Rhizobien-Stämme vorhanden sind, ist die Bildung von stickstofffixierenden Wurzelknöllchen sehr gut. Die Blüten sind hauptsächlich selbstfertil. Manchmal erfolgt Bestäubung durch Insekten. Nur die unteren Blüten eines Blütenstandes bilden Früchte aus. Inhaltsstoffe. In den grünen Hülsenfrüchten und besonders im Samen sind die Gehalte an Rohprotein sehr hoch. Als Futter und menschliche Nahrung ist die Jackbohne besonders interessant durch ihre hohen Gehalte an Proteinen, Kohlenhydraten und Fetten. Das Heu enthält sehr viel Rohprotein und besitzt eine halbwegs gute Verdaulichkeit von 56 bis 59 %. Die recht gute Eiweißqualität hat mit dem Lysingehalt von 5,1 % zu tun. Es wurde folgende Aminosäurezusammensetzung in g je 16 g N (= % im Rohprotein) ermittelt: Alanin 3,7, Isoleucin (essentiell) 3,5, Prolin 3,6, Arginin 4,5, Leucin (essentiell) 3,5, Serin 4,3, Asparaginsäure 9,0, Lysin (essentiell) 5,1, Threonin (essentiell) 3,9, Glutaminsäure 9,1, Methionin (essentiell) 1,0, Tyrosin 3,1, Glycin 3,3, Phenylalanin (essentiell) 4,0, Valin (essentiell) 4,0, Histidin 2,4. In Pflanzenteilen der Jackbohne sind Saponine, Cyanogene Glycoside, Terpenoide, Alkaloide und Tannine enthalten. Diese Giftstoffe müssen vor dem Verzehr durch geeignetes Einweichen und Kochen herausgewaschen werden. Die Samen enthalten die thermolabilen Giftstoffe Concanavalin A und B; sie kommen in den trockenen Samen mit 2,5 bis 3,0 % vor. Das Lectin Concanavalin A ist ein Trypsin-Inhibitor. Canavanine sind für Bakterien, Insekten und andere Invertebraten giftig. Canavanine werden in Proteine eingebaut, die dann ihre Funktion verlieren. Canavanine sind nicht giftig für Vertebraten, die eine spezifischere Arginyl-T-RNA-Synthase besitzen und deshalb keine Canavanyl-Proteine bilden. Neben dem Concanavalin A sind die Ureasen in dem Gemisch an Giftstoffen besonders nachteilig. Durch diese Giftstoffe sind die Pflanzenteile sehr widerstandsfähig gegenüber Pflanzenkrankheiten und Schädlingen. Nutzung. Die Hülsenfrüchte und Samen werden gegessen. "Canavalia ensiformis" wird zur Gründüngung, als Bodendecker und als Viehfutter verwendet. Je nach Bedarf wird die Grünmasse geschnitten und verfüttert werden, jedoch muss beachtet werden, dass Giftstoffe enthalten sein können. Die Erträge an Grünmasse und Futter liegen zwischen 20 und 60 Tonnen je Hektar. Die Kornerträge können je nach Anbaubedingungen stark schwanken, die Angaben reichen von 7 bis 10, 20 bis 25 oder sogar über 50 Doppelzentner je Hektar angegeben. Es ist eine sehr produktive Pflanzenart. Junge Hülsenfrüchte und unreife Samen werden als Gemüse zubereitet. 80 bis 120 Tage nach der Aussaat können Grüne Hülsenfrüchte geerntet werden und reife Samen ernten man nach 180 bis 300 Tagen. In Indonesien werden Blüten und junge Blätter als Speisezutaten verwendet. Die reifen Samen müssen durch Wässern, durch langes Erhitzen und Kochen von Giftstoffen (vorwiegend Concanavalin A) befreit werden, oft wird auch die Samenschale dabei entfernt. Der gekochte Samen besitzt wenig Geschmack und eine grobe, mehlige Textur und wird daher meist nicht geschätzt. Auch bei der Verwendung von Samen als Viehfutter müssen erst entgiftet werden. In Indonesien werden geröstete Jackbohnen-Samen als Kaffee-Ersatz verwendet. Als Heilpflanze wird die Jackbohne in der Schulmedizin wohl nicht eingesetzt. Es gibt Untersuchungen nach denen die enthaltenen Trigonelline und Canavanine gegen Krebs wirken könnten. In der Volksmedizin wird die Jackbohne aber eingesetzt. In Indonesien sowie China werden hitzebehandelte Samen und Hülsenfrüchte medizinisch genutzt. In Nigeria werden Jackbohnen-Samen als Antibiotikum und Antiseptikum eingesetzt. Das Canavalin A ist schon zur Trennung von Blutgruppensubstanzen (Immuno-Globuline und Glycoproteine) genutzt worden und kann eine Bedeutung in der medizinischen Analytik erhalten. Das Urease-Extrakt der Jackbohne wird in Analytischen Laboren eingesetzt. Die Jackbohnenpflanze ist ein guter Bodendecker und wird als Erosionsschutz oder Mulch in Plantagen verwendet. Pflanzenkrankheiten. Die Jackbohne wird nur wenig von Pflanzenkrankheiten befallen. Eine Wurzelkrankheit und ein Stängelbohrer verursachen deutliche Ertragsausfälle. Der Blattkäfer (Chrysomelidae) "Platiprosopus acutangulus" kann durch fressen der Laubblätter bedeutenden Probleme an jungen Pflanzenbeständen verursachen. Die Samen werden kaum von Vorratsschädlingen oder -krankheiten befallen, nur "Tricorinus tabaci" bereitet manchmal Probleme. Herkunft, Verbreitung und Kulturbedingungen. Die ursprüngliche Heimat der Jackbohne liegt auf Karibischen Inseln und in Mittel- oder Südamerika. Sie wurde von der indigenen Bevölkerung der Neuen Welt seit Jahrtausenden kultiviert. Es gibt Angaben von 2000 bis 3000 Jahre alte Kornfunden, die von Arizona über Mexiko bis ins südliche Brasilien sowie Peru gemacht wurden und auch auf karibischen Inseln ist die Jackbohne schon lange in Kultur. So reicht das heutige Anbaugebiet in der Neotropis von den südlichen USA über Mittelamerika und karibischen Inseln bis Südamerika. Seit dem 19. Jahrhundert gibt es einen Anbau der Jackbohne beispielsweise auch in Indonesien, Taiwan, Hawaii, Indien, Tansania, Äthiopien, Kenia sowie Australien. Später wurde sie auch in anderen Gebieten Asiens eingeführt. Sie wird im südlichen Arabien, Ostafrika, Südlichen Afrika sowie Madagaskar und weniger häufig in Westafrika angebaut. Die Jackbohne kommt mit unterschiedlichen Klimata zurecht. Sie gedeiht bei Temperaturen zwischen 14 und 28 °C. So kann sie in tropischen Gebieten bis in Höhenlagen von etwa 1800 Meter gut kultiviert werden. Haben die Pflanzen die Jugendphase überstanden überdauern sie wochenlange Trockenheit durch ihr tiefreichendes Wurzelsystem. Die Jackbohne soll mit Jahresniederschlägen von 650 bis 4300 mm zurechtkommen, das Optimum soll bei 900 bis 1200 mm Niederschlag während der Vegetationszeit liegen. Die Jackbohne kann auf sehr unterschiedlichen tropischen Böden kultiviert werden. Am besten gedeiht sie bei pH 5 bis 6 und sie toleriert saure bis alkalische Böden mit pH 4,5 bis 8,0. Obwohl die Jackbohne in den Tropen und Subtropen verwildern kann, wird sie nicht als gefährliche invasive Pflanze bewertet. Taxonomie. Die Erstveröffentlichung erfolgte 1753 unter dem Namen (Basionym) "Dolichos ensiformis" durch Carl von Linné in "Species Plantarum", 2, S. 725–726. Die Neukombination zu "Canavalia ensiformis" wurde 1825 durch DC. in "Prodromus Systematis Naturalis Regni Vegetabilis", Band 2, S. 404 veröffentlicht. Weitere Synonyme für "Canavalia ensiformis" sind: "Canavalia ensiformis" var. "albida", "Canavalia ensiformis" var. "truncata", "Canavalia gladiata", "Canavalia gladiata" f. "leucocarpa", "Canavalia gladiata" var. "leucosperma", "Canavalia incurva", "Canavalia loureiroi", "Dolichos acinaciformis", "Dolichos ensiformis", "Dolichos gladiatus", "Dolichos pugioniformis", "Malocchia ensiformis". Kultur. In Westafrika werden der Jackbohne magische Kräfte zugeschrieben. Weiterführende Literatur. Jackbohne Jolly Roger. Der Jolly Roger oder „die Piratenflagge“, häufig auch Totenkopfflagge, ist die schwarze Flagge von Piratenschiffen. Sie wird, in Anlehnung an den britischen Union Jack, auch Black Jack genannt. Herkunft des Namens. Der Ursprung des Namens "Jolly Roger" ist unbekannt. Einige sind der Ansicht, er sei eine Verballhornung des indischen Piraten Ali Rajah, dessen Namen die Briten Olly Roger aussprachen; möglicherweise stammt er aber auch vom französischen "joli rouge" (hübsches Rot) ab, da die ersten Piraten eine blutrote Flagge hissten als Zeichen, dass sie alle töten würden, falls sich die Besatzung des Beuteschiffes nicht sofort ergeben sollte. In den Geschichten mit Peter Pan des Autors J. M. Barrie (1860–1937) trägt das Piratenschiff von Captain Hook den Namen „Jolly Roger“ und ist in rot-schwarzen Farben gehalten. Geschichte. Angeblich soll Calico Jack Rackham erstmals eine Schwarze Flagge mit Totenschädel benutzt haben (Variante mit gekreuzten Entermessern), doch dies ist nicht gesichert. Das klassische Motiv des Jolly Roger, ein Totenschädel mit zwei gekreuzten Knochen, wurde erstmals von dem bretonischen Piraten Emanuel Wynne um 1700 verwendet. Die Flagge Henry Everys, der 1696 zum letzten Mal segelte, wird mit einem Totenkopf im Profil, mit Bandana und Ohrring, über gekreuzten Knochen dargestellt. Allerdings sind weder ein Totenkopf im Profil noch Bandana oder Ohrring sonst auf Flaggen oder sonstigen heraldischen Symbolen der damaligen Zeit zu finden. Und obwohl Ohrringe, insbesondere aus Gold, bei Seeleuten nicht unüblich waren (der Träger hoffte, dass man ihm von dem Erlös des Ohrrings ein christliches Begräbnis bezahlen würde), so wurden Bandana und Ohrring doch wohl erst im späten 19. Jahrhundert zu beliebten Details von künstlerischen Piratendarstellungen, angefangen mit den illustrierten Erzählungen Howard Pyles (1853–1911). Auf „Blackbeard“ Edward Teachs Flagge ist ein Skelett, das eine Sanduhr und einen Speer in den Händen hält, und daneben ein blutendes Herz abgebildet. Dies soll bedeuten, dass die Seele nun dem Tod (Skelett) gehört. Die Sanduhr soll den Opfern zeigen, dass ihre Zeit abgelaufen ist. Der Speer verspricht ein schnelles Ende, das blutende Herz einen besonders grausamen/schmerzhaften Tod. Der Schädel mit den gekreuzten Knochen und die Sanduhr waren – aus älteren Vanitas- und Memento Mori-Darstellungen übernommene – weit verbreitete Motive auf Friedhöfen. Ein Beleg findet sich in dem Graphikzyklus „The four stages of cruelty“ von William Hogarth, erschienen im Jahre 1751: Auf dem dritten Bild findet sich das Totenkopfmotiv mit den gekreuzten Knochen, das ein Grab schmückt. 1724 wurde "Jolly Roger" erstmals in Captain Charles Johnsons biografische Sammlung "A General History of the Pyrates" erwähnt. Die blutrote Flagge (Vermutung). Es gibt die Annahme, dass vor dem Jolly Roger eine blutrote Flagge als Piratensymbol benutzt wurde. Dafür spricht der Umstand, dass bis zum Entstehen des Piratentums im 16. und 17. Jahrhundert die rote Flagge als Quarantäneflagge galt und die Bedeutung hatte „Achtung, wir haben möglicherweise eine Krankheit an Bord, die jeden töten wird, der sich uns nähert.“ Und tödlich bei Annäherung wollten die Piraten sein. Außerdem erhielt die Quarantäneflagge in fast jeder Seefahrernation im 17. Jahrhundert einen Schwalbenschwanz, der These nach also um Verwechslungen mit Piraten auszuschließen. Die britische Marine verbot jedenfalls das Führen ausschließlich roter Fahnen im Arabischen Meer, Schiffe mit solchen Fahnen wurden als Piraten behandelt; deswegen haben die Flaggen von Bahrain und Katar noch heute ihre gezackte Form. 1694 hatte die Admiralität angeordnet, dass britische Freibeuter die rote Flagge zu führen hatten. Als 1714 der Krieg gegen Spanien endete, machten sich etliche der dann überflüssigen Freibeuter selbstständig und kaperten auf eigene Rechnung auch britische Schiffe unter Beibehaltung ihrer roten Flagge. Eine rote und eine schwarze Flagge (Vermutung). Anderen Quellen zufolge führten die frühen Piraten zwei Flaggen, von denen sie je nach Bedarf eine hissten: Die rote Flagge war das Zeichen, keine Gefangenen zu machen (d. h. alle zu töten) und die schwarze Flagge, Gefangene zu nehmen zwecks Lösegeld. Deswegen war die rote Flagge noch gefürchteter als die normale schwarze Flagge, "joli rouge" demnach ein Euphemismus. Asiatische Piratenflaggen. Bei den ostasiatischen Piraten war der Jolly Roger dagegen unbekannt. So gab es um 1810 im Südchinesischen Meer sechs große Gruppen von Piraten, die ihre Schiffe mit roten und schwarzen, aber auch weißen, grünen, blauen und gelben Fahnen kennzeichneten. Die heute aktiven Seeräuber, insbesondere in den Gewässern um Indonesien, der Straße von Malakka und im Arabischen Meer, verzichten meistens auf das Führen von Flaggen, die sie als Piraten zu erkennen geben. Historisch. Solange ein Piratenschiff auf der Suche nach Beute war, lief es oft unter falscher Flagge (Flagge des Opfers/eines Verbündeten des Opfers), um sich seinem Opfer ungestört nähern zu können. Der „Jolly Roger“ wurde erst kurz vor dem Angriff gehisst, um unter den Besatzungen potenzieller Beuteschiffe schon vor dem eigentlichen Entern Schrecken zu verbreiten. Daneben signalisierte es die Todesverachtung der Piraten und ihre Verachtung vor hoheitlichen Insignien anderer Länder auf hoher See. Später wurde die Taktik, unter falscher Flagge zu segeln, auch von regulären Kriegsschiffen angewendet. Beispielsweise sollen US-amerikanische Schiffe 1815 im Zweiten Barbareskenkrieg den Union Jack gehisst haben, um sich dem Flaggschiff des algerischen Korsaren Hamidu Reis annähern zu können, welches anschließend niedergekämpft wurde. Diese ungehinderte Annäherung war möglich, da sich die Korsaren zwar mit den Vereinigten Staaten von Amerika im Kriegszustand befanden, nicht jedoch mit Großbritannien, dessen Fahne der Union Jack ist. Bei modernen Marinen. a> des Luftkampfgeschwaders "Jolly Rogers" (VF-84, heute VFA-103) der US Navy im bunten Kleid der 1970er Jahre Der Jolly Roger wird bis heute von der britischen Marine verwendet. Kehrt ein U-Boot nach der Versenkung eines feindlichen Schiffes in seinen Heimathafen zurück, wird der Jolly Roger am Turm geflaggt; Sterne und Balken darauf geben die Anzahl der durch Geschütz und Torpedo versenkten Feindschiffe an. Dies geschah zuletzt bei der Rückkehr der HMS Conqueror aus dem Falklandkrieg 1982. Die Tradition wurde im Ersten Weltkrieg von dem U-Boot-Kommandanten und späteren Admiral Max Horton begründet, als er am 13. September 1914 nach der Versenkung des deutschen Kleinen Kreuzers "SMS Hela" in Harwich einlief und triumphierend die Piratenflagge hisste. Heute wird der Jolly Roger auch von den britischen Booten gezeigt, die unter Kampfbedingungen Cruise Missiles abgefeuert haben: zuerst von der HMS Splendid 1999 nach dem Kosovo-Krieg, später von verschiedenen Booten, die an der Operation Veritas beteiligt waren und danach von der HMS "Turbulent" am 16. April 2003 nach der Rückkehr aus dem Irak-Krieg. Bei der US Navy ist zumindest der Gebrauch an Bord der USS Kidd (DD 661) überliefert. Außerdem nutzten im Laufe der Zeit mehrere Geschwader der US-Marineflieger den Jolly Roger, die sogenannten „Jolly Rogers“; der Name ergab sich, als 1943 das Geschwader VF-17 mit Flugzeugen vom Typ F4U Corsair – zu deutsch Korsar – ausgerüstet wurde. Sonstige heutige Verwendung. Die Umweltschutzorganisation Sea Shepherd Conservation Society führt seit den 1970er Jahren eine ähnliche Flagge – mit Dreizack und Hirtenstab anstelle der Knochen sowie ein Delfin und einen Wal auf der Stirn des Schädels – als Gösch auf ihren Schiffen. Adaptionen. Ein Zusammenhang zwischen dem Jolly Roger und einigen saudi-arabischen Flaggen, die je nachdem eine goldene oder silberne Palme oder einen ebenso gefärbten Anker jeweils über zwei gekreuzten Schwertern auf grünem Grund zeigen, besteht nicht. Jean Tinguely. Jean Tinguely (auch: "Jeannot"; * 22. Mai 1925 in Fribourg; † 30. August 1991 in Bern) war ein Schweizer Maler und Bildhauer des Nouveau Réalisme. Er gilt als einer der Hauptvertreter der kinetischen Kunst. Tinguely wurde vor allem durch seine beweglichen, maschinenähnlichen Skulpturen bekannt. Leben und Werk. Tinguely wuchs im Basler Gundeldinger-Quartier auf und besuchte zunächst die Schulen in Basel, bevor er sich von 1941 bis 1944 als Dekorateur ausbilden liess und Kurse an der Allgemeinen Gewerbeschule Basel belegte. In dieser Zeit lernte er Daniel Spoerri kennen, mit dem er an einem Theaterprojekt arbeitete. 1951 heiratete Tinguely Eva Aeppli, mit der er im darauf folgenden Jahr nach Paris zog. Kurz nachdem Tinguely 1955 in die Impasse Ronsin, nahe Constantin Brâncușis Atelier, gezogen war, lernte er Yves Klein und Niki de Saint Phalle kennen, die er 1971 in zweiter Ehe heiratete. Mit dem Eisenplastiker Bernhard Luginbühl verband ihn eine langjährige Freundschaft. Mit ihm und weiteren Künstlern sowie mit seiner Frau Niki de Saint Phalle realisierte er diverse gemeinsame Projekte. Zur Verbreitung des Werks von Tinguely trugen wesentlich die Galeristen Iris Clert in Paris und Alexander Iolas in New York bei. Tinguely hatte bereits in seinem ersten Beruf Drahtfiguren als Schaufenster-Dekorationen eingesetzt. Seine ersten freien Kunstwerke griffen dieses Mittel wieder auf. Erstmals 1954 setzte er diese Figuren in Bewegung. Er begann sein umfangreiches Werk mit zerbrechlichen und zittrigen Draht-Blech-Kompositionen. Die Blechteile besitzen meist eine bunte Bemalung. In seinen Maschinenplastiken griff er abstrakte Elemente von Kasimir Malewitsch, Wassily Kandinsky und Auguste Herbin auf und ging über sie hinaus, indem er „die definitive Farb-Form-Konstellation, bisher eine Selbstverständlichkeit, infrage [stellte]“. 1955 erfand und baute Tinguely Zeichenautomaten, die auf Papierformaten und -bahnen maschinelle Zeichnungen anfertigen konnten. Wenn diese den Stil von Jackson Pollock oder Georges Mathieu nachahmten, „ironisiert [Tinguely] den Werkprozess und das Künstlergenie“. Tinguelys beweglichen Plastiken werden vom Betrachter als höchst aktiv, anrührend, heiter und verspielt, oft als witzig und manchmal auch als melancholisch erlebt. 1960 wurde er Mitglied der Künstlervereinigung der "Nouveaux Réalistes", die sich in diesem Jahr unter der Leitung von Pierre Restany gründete. Im selben Jahr begann er «Fundgegenstände» in seinen Werken zu verarbeiten. Aufsehen erregte ebenfalls 1960 eine gigantische Maschine im Garten des Museum of Modern Art, New York, die aus Schrott zusammengesetzt in der Lage war, sich selbst zu zerstören. Diese "autodestruktive Kunst" stand im Kontext von Gustav Metzgers „Manifest der autodestruktiven Kunst“. In den folgenden Jahren entwickelte er – häufig in Kollaboration mit Künstlerkollegen – große, bewegliche Maschinen. Sie werden „als kreativer Umgang mit dem Industriematerial und als zeitgemässer künstlerischer Ausdruck des Maschinenzeitalters“ verstanden, sollen aber nach der Aussage des Künstlers auch „Kritik an der Gleichförmigkeit industrieller Vorgänge und der Produktion von unnützen Dingen“ darstellen. 1977 beginnt Tinguely mit dem Entwurf von Brunnen, fließendes, spitzendes und im Winter gefrierendes Wasser gewinnt einen immer größeren Anteil an seinem Werk. Ab 1981 nimmt Tinguely auch tierische Materialien in seine Installationen auf. Knochen, Schädel und Hörner werden auf Motorradschrott montiert, mit dem ein Fahrer bei einem Unfall ums Leben gekommen war. So verweist Tinguely auf Vergänglichkeit und Tod. Nach der Identifikation von Josef Mengele entsteht 1986 das „Mengele-Totentheater“, eine mehrteilige Installation aus dem Schutt eines abgebrannten Bauernhauses. Eine für die Frankfurter Zeil vorgesehene Brunnengestaltung mit einer skelettierten Rinderherde aus Stahl in einem Wasserbassin ("Totentanz") wurde wegen einer Erkrankung Tinguelys nicht mehr realisiert. In seinem Spätwerk erweitert Tinguely seine künstlerischen Ausdrucksformen um den Faktor Licht. 1991 entsteht der "Luminator", eine Lichtskulptur für den Bahnhof Basel SBB, die - nach einem Umbau - im Flughafen Basel-Mülhausen (Schweizer Seite im Obergeschoss) gegenwärtig aufgestellt ist. Er nahm mit Niki de Saint Phalle 1962 an der Ausstellung Dylaby in Amsterdam teil und war auf der documenta III in Kassel im Jahr 1964, auf der 4. documenta im Jahr 1968 sowie auf der documenta 6 (1977) als Künstler vertreten. Er genoss internationalen Ruf und erhielt 1976 den Wilhelm-Lehmbruck-Preis der Stadt Duisburg und 1980 den Kunstpreis der Stadt Basel. 1990 fand in Moskau eine Tinguely-Ausstellung in der Tretjakow-Galerie statt. In seinem letzten Lebensjahr schuf Tinguely die Gross-Hängeskulptur "La Cascade" in Charlotte (North Carolina) in den USA. Jean Tinguely starb 1991 im Alter von 66 Jahren im Inselspital in Bern an einer Herzkrankheit. Er ist auf dem Friedhof von Neyruz, Kanton Freiburg i.d. Schweiz begraben, wo er sich 1968 niedergelassen hatte. Auf seinem Grab ist eine bewegliche Installation platziert. In Tinguelys Heimatstadt Basel ist seit 1996 ein Grossteil seiner Werke in dem nach ihm benannten Museum Tinguely ausgestellt. Johannes Kepler. Johannes Kepler (; * 27. Dezember 1571 in Weil der Stadt; † 15. November 1630 in Regensburg) war ein deutscher Naturphilosoph, Mathematiker, Astronom, Astrologe, Optiker und evangelischer Theologe. In Graz war Kepler Mathematiklehrer an der protestantischen Stiftsschule, die der katholischen Universität von Graz gegenüberstand. In Prag war er zunächst Assistent von Tycho Brahe, dann kaiserlicher Mathematiker unter Rudolf II. Diese Stellung behielt er unter Rudolfs Nachfolgern. Unter Matthias I. und Ferdinand II. wirkte er als Landesmathematiker in Linz. Zuletzt diente er General Wallenstein als astrologischer Berater. Johannes Kepler entdeckte die Gesetzmäßigkeiten, nach denen sich Planeten um die Sonne bewegen. Sie werden nach ihm Keplersche Gesetze genannt. Er machte die Optik zum Gegenstand wissenschaftlicher Untersuchung und bestätigte die Entdeckungen, die sein Zeitgenosse Galileo Galilei mit dem Teleskop gemacht hatte. Kepler zählt damit zu den Begründern der modernen Naturwissenschaften. Mit seiner Einführung in das Rechnen mit Logarithmen trug Kepler zur Verbreitung dieser Rechenart bei. In der Mathematik wurde ein numerisches Verfahren zur Berechnung von Integralen nach ihm "Keplersche Fassregel" benannt. Seine Entdeckung der drei Planetengesetze machte aus dem mittelalterlichen Weltbild, in dem körperlose Wesen die Planeten einschließlich Sonne in stetiger Bewegung hielten, ein dynamisches System, in dem die Sonne durch Fernwirkung die Planeten aktiv beeinflusst. Er selbst allerdings nannte sie nie „Gesetze“; sie waren in seinen Augen vielmehr Ausdruck der Weltharmonie, die der Schöpfer seinem Werk mitgegeben hatte. Aus seiner Sicht war es auch göttliche Vorsehung, die den Theologiestudenten zum Studium der Gestirne führte. Die natürliche Welt war ihm ein Spiegel, in dem die göttlichen Ideen sichtbar werden konnten, der gottgeschaffene menschliche Geist dazu da, sie zu erkennen und zu preisen. Kepler ging von dem Gedanken ab, das kopernikanische System sei lediglich ein (hypothetisches) Modell zur einfacheren Berechnung der Planetenpositionen. Das heliozentrische Weltbild als eine physikalische Tatsache zu sehen, stieß nicht nur bei der katholischen Kirche, sondern auch bei Keplers protestantischen Vorgesetzten auf erbitterten Widerstand. Denn auf beiden Seiten galten die Lehren von Aristoteles und Ptolemäus als unantastbar. a> bestimmen die Lage der Planeten (aus Keplers "Harmonice mundi", 1619). Dass Kepler auch eine ganzheitliche Philosophie vertrat, hebt u. a. der Historiker Volker Bialas hervor. Als theologisch gebildeter Astronom war eines der Hauptmotive seiner Arbeit, „Priester am Buch der Natur“ zu sein, und in Glaubensfragen und den Streitigkeiten der Reformationszeit äußerte er sich mehrmals in versöhnlicher Weise. Leben. Geburtshaus von Johannes Kepler in Weil der Stadt Kindheit und Ausbildung (1571 bis 1594). Johannes Kepler wurde am 27. Dezember 1571 in der freien Reichsstadt Weil der Stadt geboren. Sie ist heute Teil des Großraums Stuttgart und liegt 30 Kilometer westlich des Stadtzentrums von Stuttgart. Sein Großvater war Bürgermeister dieser Stadt. Zu der Zeit von Johannes Keplers Geburt befand sich die Familie im wirtschaftlichen Niedergang. Sein Vater verdiente einen unsicheren Lebensunterhalt als Händler und verließ mehrmals die Familie, um im Ausland als Söldner zu dienen. Seine Mutter Katharina, eine Gastwirtstochter, war eine Kräuterfrau und wurde später der Hexerei angeklagt. Er wohnte von 1579 bis 1584 mit seinen Eltern in Ellmendingen, wo sein Vater das Gasthaus „Sonne“ gepachtet hatte. Als Frühgeburt wurde Johannes immer als schwaches und krankes Kind bezeichnet. 1575 überstand er eine Pockenerkrankung, die jedoch bleibend sein Sehvermögen beeinträchtigte. Trotz seines schlechten Gesundheitszustandes war er frühreif und beeindruckte Reisende im Gasthaus seiner Mutter oft mit seinen mathematischen Fähigkeiten. Keplers Mutter weckte schon früh sein Interesse für Astronomie. Sie zeigte ihm den Kometen von 1577 und die Mondfinsternis von 1580. Kepler besuchte die erste Klasse der Lateinschule in Leonberg und die zweite Klasse der Lateinschule in Ellmendingen. Im Jahr 1580 und 1581 musste er die Schulausbildung unterbrechen. 1582 besuchte er die dritte Klasse der Lateinschule, „da er sonst zu nichts taugt“. Kepler besuchte ab 1584 (16. Oktober) die Klosterschule in Adelberg, von 1586 (26. November) an nach bestandenem Landexamen die höhere evangelische Klosterschule (Gymnasium) im ehemaligen Kloster Maulbronn. Mit dem Erwerben eines Stipendiums begann er trotz bescheidener familiärer Verhältnisse 1589 ein Theologiestudium am "Evangelischen Stift" in Tübingen. Er studierte bei dem Mathematiker und Astronomen Michael Mästlin. Er sah sich selbst als überragenden Mathematiker und erwarb sich den Ruf eines geschickten Astrologen. Unter der Anleitung von Michael Mästlin lernte er das heliozentrische System der Planetenbewegungen des Nikolaus Kopernikus kennen. Er wurde zum Kopernikaner und verteidigte das kopernikanische Weltbild sowohl von einer theoretischen als auch von einer theologischen Sicht in Debatten der Studenten. Während des Studiums freundete er sich mit dem Juristen Christoph Besold an. Am 11. August 1591 wurde er Magister. Kepler in Graz (1594 bis 1600). Kepler wollte ursprünglich protestantischer Geistlicher werden. 1594 nahm er jedoch im Alter von 23 Jahren einen Lehrauftrag für Mathematik an der evangelischen Stiftsschule in Graz an. Diese Hochschule war das protestantische Gegenstück zur Universität, die von Jesuiten geleitet wurde und der Motor der Gegenreformation war. In Graz begann Kepler mit der Ausarbeitung einer kosmologischen Theorie, die sich auf das kopernikanische Weltbild stützte. Ende 1596 veröffentlichte er sie als "Mysterium Cosmographicum". Im Dezember 1595 war Kepler der 23-jährigen Barbara Müller begegnet, die bereits zweifach verwitwet war und eine Tochter hatte. Das von ihren Ehemännern ererbte Vermögen machte sie zu einer guten Partie. Als Kepler um sie warb, lehnte ihr Vater, ein wohlhabender Müller, eine Heirat mit dem aus seiner Sicht armen Kepler zunächst ab und brachte die Verbindung beinahe zum Scheitern. Er lenkte schließlich ein, als Vertreter der Kirche Druck auf ihn ausübten, Kepler als Schwiegersohn anzuerkennen. Kepler und Barbara Müller heirateten im April 1597. Das Paar bekam fünf Kinder. Ein Sohn und eine Tochter (Heinrich und Susanna) überlebten ihre Kindertage nicht. Danach kamen die Kinder Susanna (* 1602), Friedrich (* 1604) und Ludwig (* 1607). In den 1590er Jahren schrieb Kepler Briefe an Galileo Galilei, der ihm allerdings nur einmal ausführlich antwortete. Im Dezember 1599 lud Tycho Brahe Kepler ein, mit ihm in Prag zu arbeiten. Durch die Gegenreformation gezwungen, Graz zu verlassen, traf Kepler 1600 mit Brahe zusammen. Kaiserlicher Hofmathematiker in Prag (1600 bis 1612). 1600 nahm Kepler eine Stellung als Assistent von Tycho Brahe an. Die Zusammenarbeit der beiden Wissenschaftler in Prag und Schloss Benatek war aber nicht leicht, obwohl sich ihre verschiedenen Begabungen ergänzten. Brahe war ein exzellenter Beobachter, seine mathematischen Fähigkeiten waren jedoch begrenzt. Der hervorragende Mathematiker Kepler hingegen konnte wegen seiner Fehlsichtigkeit kaum präzise Beobachtungen durchführen. Brahe fürchtete allerdings, mit seinem umfangreichen Lebenswerk, den Aufzeichnungen astronomischer Beobachtungen der Planetenbahnen und Hunderter Sterne, allein Keplers Ruhm zu begründen. Hinzu kam, dass Brahe die astronomischen Ansichten von Kepler (und Kopernikus) nur ansatzweise teilte. Nach Brahes Tod im Jahre 1601 wurde Kepler kaiserlicher Hofmathematiker. Diesen Posten hatte er während der Herrschaft der drei habsburgischen Kaiser Rudolf II., Matthias I. und Ferdinand II. inne. Als kaiserlicher Hofmathematiker übernahm Kepler die Zuständigkeit für die kaiserlichen Horoskope und den Auftrag, die Rudolfinischen Tafeln zu erstellen. Im Oktober 1604 beobachtete Kepler eine Supernova, die später "Keplers Stern" genannt wurde. Indem er mit Brahes umfangreicher Sammlung von sehr genauen Beobachtungsdaten arbeitete, wollte Kepler seine früheren Theorien verbessern, musste sie aber angesichts der Messdaten verwerfen. Er begann daraufhin mit der Entwicklung eines astronomischen Systems, das erstmals keine Kreisbahnen für die Planeten benutzte. Nach langer Suche, welche Form vor allem die ziemlich exzentrische Marsbahn wirklich hätte, vollendete er 1606 die Arbeit und veröffentlichte sie 1609 als "Astronomia nova". Das Buch enthielt das erste und zweite Keplersche Gesetz. 1611 veröffentlichte Kepler eine Monografie über die Entstehung der Schneeflocke, das erste bekannte Werk zu diesem Thema. Er vermutete richtig, dass ihre hexagonale Gestalt von der Kälte herrührt, konnte sie aber noch nicht physikalisch begründen. 1611 veröffentlichte Kepler außerdem eine Schrift zur Dioptrik und zum später so genannten keplerschen Fernrohr. 1611 wurde zu einem Schicksalsjahr in Keplers Leben. Im Januar erkrankten seine drei Kinder an den Pocken, der sechsjährige Sohn Friedrich starb. Um den wachsenden religiösen und politischen Spannungen zu entfliehen, suchte Kepler nach einer neuen Anstellung. Eine Bewerbung als Professor an der Universität Tübingen wurde im April abgelehnt. Im Juni war Keplers Bewerbung in Linz erfolgreich, wo ihm der Posten eines oberösterreichischen Provinzmathematikers (Landvermessers) zugesagt wurde. Kurz nachdem Kepler wieder in Prag eingetroffen war, starb seine Frau Barbara. Rudolf II. war unterdessen von seinem jüngeren Bruder Matthias als König von Böhmen abgesetzt worden und regierte nun als Kaiser ohne Land. Er bat Kepler, noch in Prag zu bleiben, und Kepler schob seinen Umzug auf. Kepler in Linz (1612 bis 1627). Rudolf II. starb im Januar 1612. Kepler zog im April nach Linz um und trat die Stelle als Mathematiker in Linz an, die er bis 1626 behielt. Nach dem Verlust seiner ersten Frau hatte er im Lauf von zwei Jahren insgesamt elf Kandidatinnen als zweite Ehefrau in Betracht gezogen. Schließlich heiratete er im Oktober 1613 die Eferdinger Bürgerstochter Susanne Reuttinger. Von den sechs Kindern, die sie bekamen, starben die drei zuerst geborenen früh; eine Tochter (* 1621) und zwei Söhne (* 1623 und * 1625) überlebten ihre Kindheit. Keplers Wohnhaus in Linz befindet sich in der Rathausgasse 5 und wird unter der Bezeichnung "Kepler Salon" als Bildungshaus genutzt. Von 1615 an musste er sich um die Verteidigung seiner Mutter Katharina kümmern, die unter dem Verdacht der Hexerei eingekerkert war. In einer Romanfigur in Keplers Schrift "Somnium" („Der Traum“), der eine magische Reise zum Mond beschreibt, meinte die Anklage Keplers Mutter wiederzuerkennen. Im Oktober 1621 erreichte er ihre Freilassung. Dabei kam ihm ein juristisches Gutachten der Universität Tübingen zu Hilfe, das vermutlich auf seinen Studienfreund Christoph Besold zurückgeht. Keplers Mutter starb schon ein Jahr später vermutlich an den Folgen der Folter. In Linz häuften sich die Probleme. Kepler hatte Schwierigkeiten, seine Geldforderungen einzutreiben. Seine Bibliothek wurde zeitweise beschlagnahmt, seine Kinder zur Teilnahme an der katholischen Messe gezwungen. Die Familie flüchtete nach Ulm. Eine Professur in Rostock kam nicht zustande. Kepler und Wallenstein (1627 bis 1630). Im Jahr 1627 fand er in Albrecht von Wallenstein einen neuen Förderer. Dieser erwartete von Kepler zuverlässige Horoskope und stellte im Gegenzug in Sagan (Schlesien) eine Druckerei zur Verfügung. Als Wallenstein im August 1630 jedoch seine Funktion als Oberbefehlshaber verlor, reiste Kepler nach Regensburg. Nach wenigen Monaten Aufenthalt starb er dort im Alter von 58 Jahren. Sein Sterbehaus ist heute ein Museum (Kepler Gedächtnishaus). Sein Grab auf dem Regensburger Petersfriedhof ging in den Wirren des Dreißigjährigen Krieges unter. 1806/08 wurde in der Nähe zum Grab von Emanuel d’Herigoyen ein Denkmal errichtet. Grundlegende Ansichten. Kepler lebte zu einer Zeit, in der zwischen Astronomie und Astrologie noch nicht eindeutig unterschieden wurde. Jedoch gab es eine strikte Trennung zwischen Astronomie bzw. Astrologie, einem Zweig der Mathematik innerhalb der freien Künste, einerseits und der Physik, einem Teil der Philosophie, andererseits. Er brachte auch religiöse Argumente in sein Werk ein, sodass die Basis vieler seiner wichtigsten Beiträge im Kern theologisch ist. In seiner Zeit tobte der Dreißigjährige Krieg zwischen katholischen und protestantischen Parteien. Da Kepler mit keiner der beiden Seiten übereinstimmte und sowohl Protestanten als auch Katholiken zu seinen Freunden zählte, musste er mit seiner Familie mehrmals vor Verfolgung fliehen. Kepler war ein tief gläubiger Mensch; so schrieb er: "Ich glaube, dass die Ursachen für die meisten Dinge in der Welt aus der Liebe Gottes zu den Menschen hergeleitet werden können." Kepler war ein pythagoreischer Mystiker. Er glaubte, dass die Grundlage der Natur mathematische Beziehungen seien und alle Schöpfung ein zusammenhängendes Ganzes. Diese Auffassung stand im Gegensatz zur aristotelischen Lehre, wonach die Erde grundsätzlich verschieden vom Rest des Universums sei, dass sie aus anderen Substanzen bestehe und auf ihr andere Gesetze gelten sollten. In der Erwartung, universelle Gesetze zu entdecken, wandte Kepler irdische Physik auf Himmelskörper an. Er hatte Erfolg; seine Arbeit ergab die drei Keplerschen Gesetze der Planetenbewegung. Kepler war auch davon überzeugt, dass Himmelskörper irdische Ereignisse beeinflussten. Ein Ergebnis seiner Überlegungen war die richtige Einschätzung der Rolle des Mondes auf die Entstehung der Gezeiten, Jahre vor Galileis falscher Formulierung. Des Weiteren glaubte er, dass es eines Tages möglich sein werde, eine „wissenschaftliche“ Astrologie zu entwickeln, trotz seiner generellen Abneigung gegen die Astrologie seiner Zeit. Aus der Annahme von Giordano Bruno, das Universum wäre unendlich und hätte unendlich viele Sonnen, folgte für Kepler das später nach Wilhelm Olbers benannte Paradoxon. Für Kepler war die Erde der „Sitz des betrachtenden Wesens, für welches das Universum geschaffen wurde“, zentral im Planetensystem, außen: Mars, Jupiter und Saturn, innen: Venus, Merkur und Sonne - „das Herz, um das sich alles dreht“. Astronomia Nova. Kepler erbte von Tycho Brahe eine Fülle von sehr genauen Datenreihen über die Positionen der Planeten. Die Schwierigkeit war, darin einen Sinn zu erkennen, denn wie das nebenstehende Bild beispielhaft zeigt, sieht es so aus, als würden manche Planeten Schleifen am Himmel vollführen. Das liegt daran, dass die Umlaufbewegungen der anderen Planeten von einer Erde aus betrachtet werden, die selbst die Sonne umkreist. Kepler konzentrierte sich darauf, die Marsbahn zu verstehen, doch zunächst musste er die Bewegung der Erde genau kennen. Dafür brauchte er eine Vermessungslinie. Er benutzte Mars und Sonne als Basislinie, ohne die genaue Umlaufbahn des Mars zu kennen. Auf diese Weise wurden die Positionen der Erde berechnet und von diesen der Umlauf des Mars. So konnte er seine Planetengesetze ohne Kenntnis der genauen Abstände der Planeten von der Sonne ableiten, weil seine geometrische Analyse nur das Verhältnis ihrer Abstände benötigte. Im Gegensatz zu Brahe glaubte Kepler an das heliozentrische System. Ausgehend von diesem Gerüst verbrachte er zwanzig Jahre mit sorgfältigen Versuchen und Überprüfungen, um eine mathematische Beschreibung der Planetenbewegungen zu finden, die zu den beobachteten Daten passt. Nach etwa zehn Jahren fand er die ersten beiden der drei Planetengesetze. Als Nachfolger Brahes erhielt Kepler vollen Zugang zu dessen Aufzeichnungen. Im Jahr 1600 war das Werk des englischen Arztes William Gilbert "De Magnete, Magneticisque Corporibus, et de Magno Magnete Tellure" („Über den Magneten, Magnetische Körper und den großen Magneten Erde“) erschienen, dessen Theorien zur magnetischen Anziehung Kepler sofort akzeptierte. Auf diese Weise gelangte er zu der Auffassung, die Sonne übe eine in die Ferne wirkende Kraft aus, die mit wachsender Entfernung abnehme und die Planeten auf ihren Umlaufbahnen halte, die "Anima motrix". Dies war zu seiner Zeit ebenso spekulativ wie die Vermutung, zwischen den Bahnen der Himmelskörper und den platonischen Körpern bestehe ein innerer Zusammenhang. Der Gedanke der Fernwirkungskraft zusammen mit der Auswertung der Brahe-Beobachtungen führte Kepler zu der Entdeckung, dass die Bahn des Mars kein Kreis, sondern eine Ellipse ist. Dies ist nicht offensichtlich, da die Ellipsenbahnen der großen Planeten fast kreisförmig verlaufen. Kepler bemerkte auch, dass die Ellipse so im Raum angeordnet ist, dass einer ihrer Brennpunkte stets mit der Sonne zusammenfällt "(erstes Keplersches Gesetz)". Der zweite von ihm formulierte Satz besagt, dass eine von der Sonne zu einem Planeten gezogene Strecke in gleichen Zeiträumen gleiche Flächen überstreicht. Je weiter also ein Planet von der Sonne entfernt ist, desto langsamer bewegt er sich "(zweites Keplersches Gesetz)". Diese beiden Gesetze veröffentlichte er im 1609 erschienenen Werk "Astronomia Nova" (Neue Astronomie) bei Gotthard Vögelin in Frankfurt am Main. De Stella Nova. Reste der 1604 beobachteten Supernova (Nasa) Kepler beobachtete die Supernova 1604 und veröffentlichte seine Beobachtungen im Jahr 1606 in dem Buch "De Stella nova in pede serpentarii, et qui sub ejus exortum de novo iniit, Trigono igneo" (‚Vom neuen Stern im Fuße des Schlangenträgers‘). Das Auftauchen dieses „neuen“ Sterns stand im Widerspruch zu der vorherrschenden Ansicht, das Fixsterngewölbe sei auf ewig unveränderlich, und löste heftige Diskussionen in naturphilosophischen Fachkreisen aus. Dioptrice. Eine der bedeutendsten Arbeiten Keplers war seine "Dioptrice". Mit diesem 1611 erschienenen Werk legte Kepler die Grundlagen für die Optik als Wissenschaft. Vorausgegangen war seine Schrift "Ad Vitellionem Paralipomena, Quibus Astronomiae Pars Optica Traditur" („Ergänzungen zu Witelo, in denen der optische Teil der Astronomie fortgeführt wird“, 1604), in der er frühere Vorstellungen über die Ausbreitung und Wirkung von Lichtstrahlen grundlegend änderte. Nicht vom Auge gehe ein Kegel aus, dessen Basis den Betrachtungsgegenstand umfasst, sondern von jedem Punkt des Objektes gehen Strahlen in alle Richtungen – einige davon erreichen durch die Pupille das Augeninnere. Ebenso wie Lichtstrahlen auf dem Weg von den Gestirnen zur Erde durch die Lufthülle abgelenkt werden (atmosphärische Refraktion), werden sie in dem noch dichteren Medium der Augenlinse gebrochen und damit gebündelt. Damit hatte Kepler eine Erklärung für Kurzsichtigkeit und auch für die Wirkung einer Lupe oder Brille gegeben. Die Erfindung des Kepler-Fernrohres erscheint fast als ein Abfallprodukt seiner tiefgreifenden Erkenntnisse zur Brechung des Lichtes und der optischen Abbildung. Die Veröffentlichung der "Dioptrice" war die mittlere in einer Serie von drei Abhandlungen, die er als Antwort auf Galileis "Sidereus Nuncius" verfasste. In der ersten spekulierte Kepler, ob die Bahnen der Galileischen Monde gleichfalls in platonische Körper passen. Eine dritte Abhandlung betraf seine eigenen Beobachtungen der Jupitermonde und stützte Galileis Schlussfolgerungen. Dieser schrieb darauf zurück: „Ich danke Ihnen – weil Sie der Einzige sind, der mir Glauben schenkt.“ Dem fortschrittlichen Kepler gelang es nicht, als Professor in seiner Studienheimat Tübingen Fuß zu fassen. Stereometria. In Linz beschäftigte sich Kepler ab 1612 mit einem rein mathematischen Problem, dem Rauminhalt von Weinfässern. Weinhändler bestimmten diesen nach Faustregeln. Kepler entwickelte eine in der Antike gebräuchliche Methode weiter und schuf damit die Grundlagen für die weitergehenden Überlegungen von Bonaventura Cavalieri und Evangelista Torricelli. Die später so genannte Keplersche Fassregel machte er 1615 unter dem Titel "Stereometria Doliorum Vinariorum" („Stereometrie der Weinfässer“) bekannt. Harmonice mundi. Keplers Zeichnung zur Supernova 1604 Nach intensivem Studium der Daten zur Umlaufbahn des Mars entdeckte Kepler am 15. Mai 1618 das dritte der nach ihm benannten Gesetze, welches er in dem im Jahr 1619 veröffentlichten Werk "Harmonices mundi libri V" („Fünf Bücher zur Harmonik der Welt“) erläuterte. Danach ist das Verhältnis des Quadrats der Umlaufzeit formula_1 eines Planeten zur dritten Potenz der großen Halbachse formula_2 seiner Bahnellipse für alle Planeten dasselbe: formula_3 ist für alle Planeten gleich. Dies ist äquivalent zum dritten Keplerschen Gesetz. Für die Erde haben sowohl formula_1 als auch formula_2 nach Definition den Wert formula_13. Kepler sprach in diesem Werk von einem "harmonischen Gesetz". Er glaubte, dass es eine musikalische Harmonie enthülle, die der Schöpfer im Sonnensystem verewige. "„Ich fühle mich von einer unaussprechlichen Verzückung ergriffen ob des göttlichen Schauspiels der himmlischen Harmonie. Denn wir sehen hier, wie Gott gleich einem menschlichen Baumeister, der Ordnung und Regel gemäß, an die Grundlegung der Welt herangetreten ist.“" Keplers Anschauungen entsprachen dem, was heute als anthropisches Prinzip bezeichnet wird. In einem weiteren Manuskript beschrieb er eine Zusammenstellung von Übereinstimmungen zwischen der Bibel und wissenschaftlichen Sachverhalten. Wegen des Drucks der Kirche konnte er diesen Aufsatz nicht veröffentlichen. Der Komponist Paul Hindemith vertonte Johannes Keplers Leben und seine Lehre in der Oper Die Harmonie der Welt. Weitere Werke. Zwischen 1618 und 1621 verfasste er die "Epitome Astronomiae Copernicae" („Abriss der kopernikanischen Astronomie“), die seine Entdeckungen in einem Band zusammenfasste. Es ist das erste Lehrbuch des heliozentrischen Weltbildes. Ein weiterer Meilenstein der Wissenschaftsgeschichte war Keplers Vorhersage eines Venustransits durch die Sonnenscheibe für das Jahr 1631. Es war dies die erste – und korrekte – Berechnung eines solchen Ereignisses. Dafür konnte er seine zuvor entdeckten astronomischen Gesetze verwenden. Den von ihm berechneten Durchgang konnte er allerdings nicht mehr selbst beobachten; acht Jahre später war Jeremiah Horrocks dabei erfolgreich. Zur Kristallographie. Neben den astronomischen Untersuchungen verfasste Kepler einen Aufsatz zur Symmetrie von Schneekristallen. Er entdeckte, dass natürliche Kräfte – nicht nur in Schneeflocken – das Wachstum regulärer geometrischer Strukturen bewirken. Konkret bemerkte er, dass zwar jede Schneeflocke ein einzigartiges Gebilde ist, andererseits Schneeflocken bei einer Drehung um jeweils 60 Grad ihr Aussehen behalten (sechszählige Symmetrie). Dies führte Kepler zu Berechnungen der maximalen Dichte von Kreisanordnungen und Kugelpackungen. Diese frühen Arbeiten fanden in der Neuzeit unter anderem Anwendung in der Kristallographie sowie in der Kodierungstheorie, einem Teilgebiet der Nachrichtentechnik. Kepler vermutete, dass die dichteste Art, Kugeln aufzustapeln, darin besteht, sie pyramidenförmig übereinander anzuordnen. Dieses versuchten Mathematiker 400 Jahre lang vergeblich zu beweisen. Am 8. August 1998 kündigte der Mathematiker Thomas Hales einen Beweis für Keplers Vermutung an. Auf Grund der Komplexität des Computerbeweises steht eine endgültige Überprüfung trotz jahrelanger Bemühungen angesehener Gutachter noch aus. Mathematische Arbeiten. Der Gedanke logarithmischen Rechnens findet sich sehr früh (1484) bei dem Franzosen Nicolas Chuquet und dann, etwas weiter entwickelt, bei Michael Stifel (1486–1567) in seiner "Arithmetica integra", die 1544 in Nürnberg erschien. An ein praktisches Rechnen mit Logarithmen konnte man jedoch erst nach der Erfindung der Dezimalbrüche (um 1600) denken. An der Erfindung der Dezimalbrüche und ihrer Symbolik war der Schweizer Mathematiker Jost Bürgi (1552–1632) stark beteiligt. Dieser berechnete auch zwischen 1603 und 1611 die Logarithmentafel. Da er sie aber trotz mehrfacher Aufforderung durch Johannes Kepler, mit dem er in Prag wirkte, erst 1620 unter dem Titel „Arithmetische und Geometrische Progresstabuln“ veröffentlichte, kam ihm der schottische Lord John Napier (auch "Neper") (1550–1617) zuvor. Nachdem Kepler klar geworden war, welche Vereinfachung die neue Rechenmethode für die umfangreichen und zeitraubenden astronomischen Rechenarbeiten mit sich brachte, setzte er alles daran, das Verfahren zu popularisieren und für einen weiten Interessentenkreis zu erschließen. Er übernahm jedoch das neue Verfahren von Napier nicht so, wie es vorlag: nämlich ohne Angaben Napiers, wie seine Zahlen zustande gekommen waren, so dass die Tafeln unseriös wirkten und viele Wissenschaftler zögerten, sie anzuwenden. Um dieses Hemmnis aus dem Weg zu räumen, schrieb Kepler 1611 eine weit über Napier hinausgehende Erklärung des Logarithmenprinzips und überarbeitete die Tafeln vollständig. Philipp III. von Hessen-Butzbach ließ 1624 Johannes Keplers "Chilias logarithmorum" in Marburg drucken. Als Mathematiker tat sich Kepler noch durch seine Behandlung der allgemeinen Theorie der Vielecke und Vielflächner hervor. Mehrere bis dahin unbekannte Raumgebilde entdeckte und konstruierte er völlig neu, unter anderem das regelmäßige Sternvierzigeck. Von Johannes Kepler stammt auch die Definition des Antiprismas. Während seiner Linzer Zeit erfand er außerdem durch das Studium der Berechnung der Volumina von Weinfässern die so genannte Keplersche Fassregel, mit der man auf numerischem Wege Integrale näherungsweise bestimmen kann. Technische Erfindung. Zu einer bedeutenden, aber wenig gewürdigten Erfindung führte eine andere Gelegenheitsarbeit, zu der Kepler durch Gespräche mit einem Bergwerksbesitzer angeregt wurde. Dabei ging es um die Entwicklung einer Pumpe, mit der Wasser aus Bergwerksstollen herausgehoben werden sollte. Nach fehlgeschlagenen Experimenten kam Kepler der Gedanke, zwei in einem Kasten angebrachte „Wellen mit je sechs Hohlkehlen“, also Zahnräder mit abgerundeten Ecken, mit einer Kurbel anzutreiben, so dass die Radhöhlungen das Wasser nach oben beförderten. Er hatte eine ventillose und daher fast wartungsfreie Zahnradpumpe erfunden, die heute in prinzipiell gleichartiger Form in Automotoren als Ölpumpe eingebaut wird. Tabulae Rudolfinae. Gegen Ende seines turbulenten Lebens veröffentlichte Johannes Kepler im Jahre 1627 in Ulm sein letztes großes Werk, die "Tabulae Rudolfinae" (Rudolfinische Tafeln). Es wertete die Aufzeichnungen Tycho Brahes aus und beschrieb die Positionen der Planeten mit bis dahin unerreichter Genauigkeit. Die mittleren Fehler waren darin auf etwa 1/30 der bisherigen Werte reduziert. Diese Planetentafeln sowie seine im "Epitome" dargelegten himmelsmechanischen Gesetze bildeten die überzeugendste Argumentationshilfe der zeitgenössischen Heliozentriker und dienten später Isaac Newton als Grundlage zur Herleitung der Gravitationstheorie. Somnium. Im selben Jahr, in dem Kepler seine ersten zwei Gesetze veröffentlichte (1609), erschien auch sein Buch mit dem Titel "Somnium" („Der Traum“). Dieses Werk hatte eine Entstehungsgeschichte von 40 Jahren. Bereits 1593, als er Student in Tübingen war, wählte Kepler zum Thema einer der geforderten Disputationen, wie die Vorgänge am Firmament sich wohl auf dem Mond ausnähmen. Sein Ziel war damals, einen Parallelismus aufzuzeigen: Wie wir die Rotation der Erde und ihre Bewegung um die Sonne nicht spüren, aber den Mond seine Bahn ziehen sehen, könne ein lunarer Beobachter glauben, der Mond stehe still im Raum und die Erde drehe sich. Mit fiktiven astronomischen Betrachtungen vom Mond aus, verfremdet als Bericht eines raumreisenden Geistes, wollte Kepler das von ihm weiterentwickelte kopernikanische Weltbild populär machen, er wollte versuchen, die Leser von der Meinung abzubringen, weiterhin in der Erde das Zentrum alles Menschlichen und Göttlichen zu sehen. Die märchenhafte Erzählung wurde postum von seinem Sohn Ludwig 1634 veröffentlicht und erst 1871 in einer Zeitschrift von Edmund Reitlinger und 1898 als Monografie von Ludwig Günther teilweise ins Deutsche übersetzt. Erst 2011 erschien eine vollständige Übersetzung von Beatrix Langner. Kepler verschafft seiner Darstellung der astronomischen und geologischen Gegebenheiten des Mondes eine märchenhafte Rahmenhandlung. Der erzählende Autor fällt in Schlaf und träumt die Reise zum Mond, die durch einen Regenschauer am Morgen abrupt unterbrochen wird. Kepler war damals bereits klar, dass es zur Überwindung der irdischen Gravitation einer starken Kraft, gleich einem Schuss, bedarf, dass der Mensch dabei großen Kräften ausgesetzt ist und dann in die Schwerelosigkeit fällt. Er dachte sich große Temperaturunterschiede auf dem Mond, Hitze während des Mondtags und Eis und Stürme während der Mondnacht. Und er dachte sich Leben auf dem Mond in Gestalt von Tieren, die sich den unwirtlichen Lebensbedingungen perfekt angepasst haben. Man kann "Somnium" als erste Science-Fiction-Erzählung bezeichnen, die so realistisch wie damals möglich eine Mondfahrt beschreibt. "Siehe auch: Somnium (novel)@engl. Wikipedia" Mystizismus, Astrologie und Wissenschaft. Am Beginn Keplers Überlegungen zu den Planetenbahnen stand die „Erleuchtung“, die Abstände der "fünf" Planeten von der Sonne entsprächen genau ein- und umgeschriebenen Kugeln zu den "fünf" platonischen Körpern. Als er rechnerisch weitgehende Übereinstimmung fand, war er sicher, mittels Mathematik und Beobachtung den Bau (die „Architektur“) des Alls enthüllt zu haben. Als Kepler im Jahr 1604 die Supernova 1604 beobachtete, sah er auch darin die Vorsehung am Werk: Er stellte sie nicht nur in Zusammenhang mit der Konjunktion von Jupiter und Saturn (1603) und vermutete, der neue Stern sei durch diese ausgelöst worden. Er behauptete, Gleiches habe sich beim Erscheinen des Sterns von Betlehem ereignet: Auch dieser sei infolge einer großen Planetenkonjunktion sichtbar geworden (erste naturwissenschaftliche Stern-von-Betlehem-Theorie). In gleicher Weise sei nunmehr (1604) die Wiederkunft des Herrn nicht mehr fern. Bereits sein Werk "De fundamentis ..." von 1601 zeigt seine genaue Kenntnis der Astrologie. Diese blieb bis an sein Lebensende ein wesentlicher Teil seiner naturphilosophischen Beschäftigung. Ein Forscher, der solch „dunkle“ Lehren zur Grundlage seiner naturwissenschaftlichen Untersuchungen machte, musste einem Rationalisten wie Galilei zwielichtig erscheinen. Mit Galilei wechselte er zwar öfter Briefe, dieser jedoch hielt nicht viel von Keplers „fernwirkenden Kräften“ und esoterischen „Harmonien“. So war das Verhältnis zwischen den beiden – manchen fachlichen Übereinstimmungen zum Trotz – eher gespannt, was besonders in Keplers gleichzeitiger Korrespondenz mit Matthias Bernegger zum Ausdruck kommt. Kepler aber befand sich im 17. Jahrhundert in bester Gesellschaft: Noch Isaac Newton zeigte von seiner Studienzeit bis ins hohe Alter starkes Interesse an qualitativer Naturphilosophie (einschließlich Alchemie) und gelangte so zu seinen entscheidenden Überlegungen zur Schwerkraftwirkung der Massen. Mysterium Cosmographicum. Kepler entdeckte die Planetengesetze, indem er Pythagoras’ Ziel, das Auffinden der Harmonie der Himmelssphären, zu vollenden suchte. Aus seiner kosmologischen Sicht war es kein Zufall, dass die Anzahl der regelmäßigen Polyeder um eins kleiner war als die Anzahl der bekannten Planeten. Er versuchte zu beweisen, dass die Abstände der Planeten von der Sonne durch Kugeln innerhalb regulärer Polyeder gegeben sind. In seinem 1596 veröffentlichten Buch "Mysterium Cosmographicum" (Das Weltgeheimnis) versuchte Kepler, die Bahnen der damals bekannten fünf Planeten Merkur, Venus, Mars, Jupiter und Saturn mit der Oberfläche der fünf platonischen Körper in Beziehung zu setzen. Die Umlaufbahn des Saturns stellte er sich dabei als Großkreis auf einer Kugel – noch nicht als Ellipse – vor, die einen Würfel (Hexaeder) umschließt. Der Würfel umschließt wiederum eine Kugel, welche die Jupiterbahn beschreiben soll (siehe Abbildung). Diese Kugel wiederum schließt ein Tetraeder ein, das die Marskugel umhüllt. Diese Arbeit war nach Keplers Entdeckung des ersten nach ihm benannten Gesetzes – spätestens aber nach der Entdeckung entfernterer Planeten – nur noch von historischem Interesse. In seinem 1619 erschienenen Werk "Harmonice mundi" (Weltharmonik) stellte er ebenso wie im "Mysterium Cosmographicum" eine Verbindung zwischen den platonischen Körpern und der klassischen Auffassung der Elemente her. Das Tetraeder war die Form des Feuers, das Oktaeder das Symbol der Luft, der Würfel das der Erde, das Ikosaeder symbolisierte das Wasser, und das Dodekaeder stand für den Kosmos als Ganzes oder den Äther. Es gibt Beweise, dass dieser Vergleich antiken Ursprungs ist, wie Plato von einem gewissen Timaeus von Locri erklärt, der sich das Universum vorstellte als von einem gigantischen Dodekaeder umgeben, während die anderen vier Körper die „Elemente“ des Feuers, der Luft, der Erde und des Wassers darstellen. Zu Keplers Enttäuschung scheiterten all seine Versuche, die Bahnen der Planeten innerhalb eines Satzes von Polyedern anzuordnen. Ein Zeugnis seiner Integrität als Wissenschaftler ist es, dass er die Theorie, an deren Beweis er so hart gearbeitet hatte, verwarf, als die Einsicht gegen sie sprach. Sein größter Erfolg war die Entdeckung, dass sich die Planeten auf Ellipsen und nicht auf Kreisen bewegen. Diese Entdeckung war eine direkte Konsequenz seines gescheiterten Versuchs, die Planetenbahnen in Polyedern anzuordnen. Keplers Bereitschaft, seine am meisten geschätzte Theorie angesichts genau beobachtbarer Beweise zu verwerfen, zeugt von seiner sehr modernen Auffassung von wissenschaftlicher Forschung. Es war auch ein großer Fortschritt, dass Kepler versuchte, die Planetenbewegung auf eine Kraft zurückzuführen, die dem Magnetismus ähnelt, die "Anima motrix". Diese Kraft gehe, wie er glaubte, von der Sonne aus. Obwohl er die Gravitation nicht entdeckte, scheint er als Erster versucht zu haben, ein empirisches Gesetz zu finden, das die Bewegung sowohl der Erde als auch der Himmelskörper erklärt. Astrologie. Kepler war davon überzeugt, dass bestimmte Konstellationen der Himmelskörper den Menschen beeinflussen können wie das Wetter. Er versuchte die Zusammenhänge zu ergründen und wollte die Astrologie auf eine wissenschaftliche Basis stellen. In seiner Veröffentlichung "De Fundamentis Astrologiae Certioribus" („Über zuverlässigere Grundlagen der Astrologie“) von 1601 legte Kepler dar, wie die Astrologie auf sicherer Grundlage ausgeübt werden könnte, indem man sie auf neue naturwissenschaftliche Erkenntnisse in Verbindung mit dem pythagoreischen Gedanken der Weltharmonie stellte. Auch dies war ein Affront gegen seine konservativen Zeitgenossen, die der ptolemäischen Astronomie den Vorzug gaben. Kepler trat dafür ein, dass sich eine bestimmte Beziehung zwischen himmlischen und irdischen Ereignissen feststellen lässt. Mehr als 800 von Kepler gezeichnete Horoskope und Geburtskarten sind erhalten. Einige betreffen ihn selbst oder seine Familie, versehen mit wenig schmeichelhaften Bemerkungen. Als Teil seiner Aufgabe als Landschaftsmathematiker in Graz erstellte Kepler eine Prognose für 1595, in der er schwere Aufstände, den Türkeneinfall und bittere Kälte voraussagte. All dies trat ein und brachte ihm die Anerkennung seiner Zeitgenossen ein. In einer Schrift von 1610 warnte Kepler Theologen, Mediziner und Philosophen „bei billiger Verwerfung des sternguckerischen Aberglaubens, das Kind mit dem Bade auszuschütten“. Er verachtete Astrologen, die dem Geschmack des gemeinen Mannes hörig waren, ohne Kenntnis der abstrakten und allgemeinen Gesetze. Er sah es jedoch als eine legitime Möglichkeit an, Prognosen zu erstellen, um sein mageres Einkommen aufzubessern. Doch wäre es falsch, Keplers astrologische Interessen als rein kommerziell motiviert abzutun. Der Historiker John David North sagte dazu: „Wäre er kein Astrologe gewesen, wäre er sehr wahrscheinlich an der Aufgabe gescheitert, seine Planeten-Astronomie in der Form, wie wir sie heute kennen, zu entwickeln.“ Keplers erstes Horoskop für Wallenstein aus dem Jahr 1608 Schon 1608 hatte Kepler Wallenstein ein Horoskop erstellt. Es ist erhalten geblieben und enthält unter anderem ein für Wallenstein nicht gerade schmeichelhaftes Charakterbild. Wie zum Trost fügt Kepler hinzu: „Es ist aber das Beste an dieser Geburt, daß Jupiter darauf folget und Hoffnung machet, mit reifem Alter werden sich die meisten Untugenden abwetzen und also diese seine Natur zu hohen, wichtigen Sachen zu verrichten tauglich werden.“ Wallenstein war kaum 25 Jahre alt, als er diese erste Horoskopdeutung entgegennahm. Er überprüfte sie im Laufe der Jahre vielfach und versah sie eigenhändig mit Anmerkungen. 1624 trug Wallenstein erneut durch den Oberstleutnant Gerard von Taxis an Kepler die Bitte heran, nach geänderter Geburts-Horoskop-Berechnung eine zweite Ausdeutung zu geben. Wallenstein war astrologiegläubiger als Kepler. Ihm lag daran, bis in die Einzelheiten den Lauf seines Schicksals auf dem Vorwege zu erfahren. Kepler sollte ihm sagen, was ihm in jedem Jahr als Glück und Unglück zustoßen würde, wie lange der Krieg noch dauern, ob er zu Hause oder in der Ferne sterben würde, wer seine verborgenen und öffentlichen Feinde seien. Im Januar 1625 kam Kepler dem Wunsch nach und unterzog Wallensteins erstes Horoskop einer gründlichen Revision. Er betonte in seinem zweiten Horoskop-Gutachten, dass er dieses als Philosoph, das heißt, als nüchtern denkender Mensch, verfasst habe und nicht aus der Stimmung der im Aberglauben verhafteten Volksastrologie. Entschieden wehrte er sich gegen Wallensteins Wunsch, bis in die Einzelheiten und zeitlich präzise das Schicksal im Voraus zu erfahren. Das Gutachten ist durchzogen von Warnungen vor dem astrologischen Fatalismus. Es ist eine einzige Unterbauung von Keplers Auffassung: „Die Sterne zwingen nicht, sie machen nur geneigt.“ Kepler räumte der menschlichen Willkür die Möglichkeit ein, himmlische Zwänge zu durchbrechen und von dem astrologisch vorgezeichneten Weg abzuweichen. „Fast nie wirkt nach ihm der Himmel allein, sondern der Geborene und andere, mit welchen er es zu tun hat, tun viel und fangen viel aus freier Willkür an, was sie auch wohl hätten unterlassen können und wozu sie vom Himmel nicht gezwungen wären.“ Unmissverständlich und mit scharfen Worten wies er das Ansinnen Wallensteins zurück, konkrete Einzelheiten wie die künftige Todesursache aus dem Horoskop zu erfahren. 1628, als Kepler weder ein noch aus wusste, trat Wallenstein erneut auf den Plan. Er hatte zwar schon den Italiener Giovanni Battista Seni als Hofastrologen, aber mit Billigung Ferdinands II. bot er Kepler an, als Berater in seine Dienste zu treten. Würdigungen. Da Kepler sich einige Zeit in Linz aufhielt, wurde 1975 die dortige Universität ihm zu Ehren Johannes-Kepler-Universität genannt. Weiter erhielten die Sternwarten in Weil der Stadt, Graz, Steinberg bei Graz und Linz den Namen "Kepler-Sternwarte". In Wien wurden die Keplergasse und der Keplerplatz nach ihm benannt, in Graz das Keplergymnasium, die Straße und Mur-Brücke davor und ein kleiner Platz am Brückenkopf, in Regensburg die Keplerstraße, in der noch heute sein Wohnhaus steht. In zahllosen weiteren Städten tragen Schulen und Straßen seinen Namen. Darüber hinaus wurden nach Kepler benannt: ein großer Mondkrater mit hellem Strahlensystem, der Asteroid (1134) Kepler, das NASA-Weltraumteleskop Kepler, die damit entdeckten Exoplaneten und deren Sterne und das zweite Automated Transfer Vehicle der ESA. Paul Hindemith setzte ihm mit seiner 1957 vollendeten Oper "Die Harmonie der Welt" ein musikalisches Denkmal. Die Oper "Kepler" von Philip Glass, ein Auftragswerk für Linz, die Kulturhauptstadt Europas 2009, wurde am 20. September 2009 in Linz uraufgeführt. Eine Büste Keplers wurde in die Walhalla aufgenommen. Am 21. Oktober 2009 gab die Tschechische Nationalbank eine 200-Kronen-Gedenkmünze zu seinen Ehren heraus. Eine Grafikprozessor-Mikroarchitektur der Firma Nvidia trägt den Codenamen Kepler und die Version 4.3 der Entwicklungsumgebung Eclipse heißt Kepler. In Keplers Heimatort Weil der Stadt wurde ihm zu Ehren 1870 ein Denkmal errichtet, auf dem verschiedene Szenen aus Keplers Leben dargestellt sind. In Regensburg befindet sich das Kepler-Monument. Im Grazer Stadtpark nördlich des Springbrunnens wurde 1963 ein Denkmal gesetzt, das – neben seiner Büste – die drei Planetengesetze anführt und durch eine Ellipse mit – angelehnt an die Monate – zwölf Bahnstrahlsektoren veranschaulicht. 1994, also 400 Jahre nachdem Kepler nach Graz kam, wurde eine größere Ausstellung am Keplergymnasium gestaltet. Auf Dauer bleibt davon der "Museumsraum zu Johannes Kepler", der unbekanntere Seiten zeigt: Harmonie, Geometrie, Astrologie, Mystik. Dieser Erlebnisraum im Keller besitzt etwa einen begehbaren innenverspiegelten Ikosaeder, wendet sich besonders an Jugendliche und kontrastiert die rein naturwissenschaftlich orientierte Sternwarte am Dach des Hauses. Die Evangelische Kirche in Deutschland erinnert mit einem Gedenktag im Evangelischen Namenkalender am 15. November an Kepler. Werke. Keplers Wohnhaus (1626–1628) in Regensburg Film. 1974 kam in der DDR der biographische Spielfilm "Johannes Kepler" (Regie Frank Vogel) in die Kinos. Der Film stellt die Linzer Zeit von Kepler in den Vordergrund und konzentriert sich auf die Rettung der Mutter, die in einem Hexenprozess verurteilt werden sollte. 2015 sendete "arte" den Film "L’Oeil de l’astronome" in der deutschen Version "Johannes Kepler oder Der Blick zu den Sternen". Japan. Japan (japanisch, "Nihon/Nippon;") (amtlich: Staat Japan, "Nihon-koku/Nippon-koku") ist ein 6852 Inseln umfassender ostasiatischer Staat im Pazifik, der indirekt im Norden an Russland, im Westen an Nordkorea und Südkorea, im Nordwesten an China und im Südwesten an Taiwan grenzt und flächenmäßig der viertgrößte Inselstaat der Welt ist. De-facto-Hauptstadt und größte urbane Siedlung ist Tokio. Die Bildung des japanischen Staatswesens begann im 5. Jahrhundert unter kulturellem Einfluss des chinesischen Kaiserreichs. Seit dem 16. Jahrhundert stand Japan im Kontakt mit dem Westen und stieg seit dem 19. Jahrhundert zur Großmacht auf, erwarb Kolonien wie Korea und Taiwan und nahm an beiden Weltkriegen teil und beherrschte kurzzeitig große Teile Südost- und Ostasiens. Das Japanische Kaiserreich bis 1947 war eine nach dem monarchischen Prinzip ausgerichtete, zum Teil an preußisches Vorbild angelehnte konstitutionelle Monarchie mit dem japanischen Kaiser als Staatsoberhaupt und war unter den Monarchien weltweit eines der letzten Kaiserreiche. Eine aggressive Expansionspolitik in China mündete in den Pazifikkrieg und die Niederlage an der Seite der Achsenmächte im August 1945. Im unter Douglas MacArthurs Besatzungsregierung gestalteten Japanischen Staat seit 1947 ist der Souverän das Volk, höchstes Organ der Staatsgewalt das Parlament, dessen Kammern seither beide direkt vom Volk gewählt werden. Das Kaisertum wurde nicht abgeschafft, aber der Kaiser als „Symbol des Staates“ auf zeremonielle Aufgaben ohne eigenständige Autorität in Staatsangelegenheiten reduziert. Japan wird zu den dichter besiedelten Ländern Asiens gezählt und liegt mit 127 Millionen Einwohnern auf Platz elf der bevölkerungsreichsten Länder der Erde. Die japanische Bevölkerung konzentriert sich überwiegend auf die vier Hauptinseln und besteht zu 99 % aus Japanern. Zu den Minderheiten gehören Koreaner, Chinesen und Filipinos. Seit den 2000er Jahren leben in Japan auch mehrere Tausend Gastarbeiter und Asylbewerber aus Afrika und anderen asiatischen Ländern. Die meisten Einwohner sind Anhänger des Shintoismus und Buddhismus. Als historisch erste Industrienation Asiens hat Japan heute eine sehr hoch entwickelte Volkswirtschaft und war viele Jahre lang die weltweit zweitgrößte Wirtschaftskraft der Welt hinter den Vereinigten Staaten, mit denen es militärisch seit 1952 verbündet ist. Japan ist Mitglied der Gruppe der sieben größten Industrienationen der Welt und der OECD. Japan nimmt im UN-Human-Development-Index den 17. Platz der 187 Mitgliedstaaten der Vereinten Nationen ein. Landesbezeichnung. Der Landesname setzt sich aus den Zeichen (Aussprache "ni," in der Bedeutung „Tag“ oder „Sonne“) und (Aussprache "hon," in der Bedeutung „Ursprung“, „Wurzel“ oder „Beginn“) zusammen. Japan ist deshalb auch als das „Land der aufgehenden Sonne“ bekannt. Der zusammengesetzte Begriff kann sowohl „Nippon“ () als auch „Nihon“ () ausgesprochen werden: Während „Nippon“ eher in der formalen Sprache, auf japanischem Geld und Briefmarken sowie bei internationalen Veranstaltungen verwendet wird, kommt in der Alltags- und Umgangssprache „Nihon“ häufiger vor. Die Nomenklatur des Landesnamens stammt von der offiziellen Korrespondenz der japanischen Herrscher mit der chinesischen Sui-Dynastie (6.–7. Jahrhundert) und bezieht sich auf die von China aus gesehen östliche Lage des Landes. Die reinjapanische Lesung anstelle des sinojapanischen "Nihon/Nippon" ist "Hi no Moto (no Kuni)" (). Zuvor war das Land als "Wakoku" (, „Land der Wa“) bekannt, wobei Wa () erst ein Demonym war und dann auch für das Land als ganzes verwendet wurde. Da das von den Chinesen verwendete Schriftzeichen als „Zwerg“ verstanden werden kann, wurde dieses später in Japan durch das homophone „Harmonie“ ersetzt. Beide Schriftzeichen üblicherweise mit „groß“ als Präfix wurden auch verwendet um die historische Bezeichnung "Yamato" zu schreiben, welches im engeren Sinne die Provinz Yamato meint, die die Keimzelle des japanischen Kaiserreichs war und damit als Pars pro toto im weiteren Sinne auch das ganze Land. Eventuell ist Yamato identisch mit dem japanischen Land Yamatai, das in chinesischen Quellen aus dem 3. Jahrhundert beschrieben wird. Der Name „Japan“ ist ein Exonym, das sich vermutlich von einer chinesischen oder Wu-Aussprache der Schriftzeichen ableitet. So gab etwa Marco Polo den chinesischen Begriff für Japan () als Cipangu wieder. Das frühere malaiische Wort für Japan, „Jepang“ (heute „Jepun“), wurde ebenfalls einer chinesischen Sprache entlehnt. Portugiesische Händler, die im 16. Jahrhundert in Malakka auf den Begriff „Jepang“ stießen, brachten ihn dann mit nach Europa. Im Englischen findet sich der Landesname in der Schreibweise „Giapan“ zum ersten Mal in einem Brief aus dem Jahr 1565. Mythologische Namen sind "Toyo-ashi-hara no chi-aki no naga-i-ho-aki no mizu-ho no kuni" (, dt. „Land der üppigen Schilfgefilde, 1000 Herbste, langen 500 Herbste und der fruchtbaren Reisähren“) im Kojiki, "Toyo-ashi-hara no chi-i-ho-aki no mizu-ho no kuni" (, dt. „Land der üppigen Schilfgefilde, der 1500 Herbste und der fruchtbaren Reisähren“) im Nihon Shoki, kurz auch "Toyoashihara no kuni" () und "Mizuho no kuni" (), "Ashihara no naka-tsu-kuni" (Kojiki/Nihon Shoki:, dt. „Land der Mitte [zwischen dem Himmel Takamanohara und der Unterwelt Yomi no kuni] der Schilfgefilde“), als auch "Ōyashima no Kuni" (Kojiki:, Nihon Shoki:, dt. „Land der großen acht Inseln“), kurz auch "Yashima". Das "koku" in "Nihon-koku", wörtlicher „Staat Japan“ oder „Japanischer Staat“, wird in europäische Sprachen oft nicht übersetzt; dort wird der amtliche Landesname dann nur als „Japan“ ohne Zusatz wiedergegeben. Geographie. Japan ist ein Inselstaat und besteht im Wesentlichen aus einer Inselkette, die sich entlang der Ostküste Asiens erstreckt. Die Hauptinseln sind Hokkaidō im Norden, die zentrale und größte Insel Honshū, sowie Shikoku und Kyūshū im Süden. Dazu kommen 6.848 kleinere Inseln (von min. 100 m Umfang bei Hochwasser), die sich vor allem in der Seto-Inlandsee und in der Kette der Ryūkyū-Inseln konzentrieren. Da Japan ein Inselstaat ist, hat es keine direkten Nachbarländer. Indirekt grenzen jedoch Russland, Nordkorea, Südkorea, China und Taiwan an Japan. Über den gesamten Archipel verläuft eine Gebirgskette, die mehr als zwei Drittel der Landmasse Japans ausmacht. Der höchste Berg Japans ist der Fujisan auf der Hauptinsel Honshū mit 3.776 m über dem Meeresspiegel. Landwirtschaft, Industrie und Besiedlung sind auf rund 20 % der Landfläche beschränkt. In den großen Ebenen haben sich die Hauptballungsgebiete entwickelt: Kantō (mit Tokio und Yokohama) in der Kantō-Ebene, Keihanshin (Ōsaka, Kyōto und Kōbe) in der Ōsaka-Ebene, Chūkyō (Nagoya) in der Nōbi-Ebene und Kitakyūshū-Fukuoka in der Tsukushi-Ebene. Aufgrund des Mangels an Flachland werden Berghänge durch Terrassenfeldbau kultiviert. Klima. Die japanische Inselkette erstreckt sich in einem langen Bogen von Norden (45. Breitengrad, Hokkaidō) nach Süden (20. Breitengrad, Okinotorishima). Daher ist das Klima in Japan sehr unterschiedlich ausgeprägt; von der kalt-gemäßigten Klimazone in Hokkaidō mit kalten und schneereichen Wintern bis in die Subtropen in der Präfektur Okinawa. Dazu kommt der Einfluss von Winden – im Winter vom asiatischen Kontinent zum Meer und im Sommer vom Meer zum Kontinent. Im späten Juni und frühen Juli fällt im Süden ein Großteil des Jahresniederschlages als monsunartige Regenfront (, "baiu zensen"). Im Frühsommer beginnt die Taifun-Saison, bei der vor allem der Süden und der Südwesten Japans von über dem Pazifischen Ozean entstehenden Wirbelstürmen betroffen sind (z. B. von Taifun Tokage und Taifun Conson im Jahr 2004). Statistisch gesehen erreichen Japan die meisten Taifune im September, obwohl sie im Pazifikraum im August am häufigsten sind. Der stärkste je aufgezeichnete Taifun Japans war der Ise-wan-Taifun von 1959. Seine Auswirkungen waren verheerend: Über 5.000 Menschen kamen ums Leben. Die Winde tragen auch dazu bei, dass Japan verstärkt von transnationaler Umweltverschmutzung betroffen ist. Geologie. die sich mit einigen Zentimetern pro Jahr gegeneinander bewegen. Teile der Pazifischen Platte schieben sich dort unter die Kontinentalplatte Eurasiens, was zu Vulkanismus und häufigen Erdbeben führt. Die anhaltende Bewegung (Subduktion) der Krustenteile, die zu einer langsamen Verkleinerung des Pazifiks führt, lässt deren großräumige Verschweißung nicht zu, im Gegensatz etwa zu Indien und den sog. Terraneen anderer Kontinentalränder. Von den etwa 240 Vulkanen des pazifischen Feuerringes sind 40 aktiv. In der gesamten Region gibt es nahezu täglich leichtere Erdbeben, in größeren Abständen auch schwere (z. B. Großes Kantō-Erdbeben 1923, Erdbeben von Kōbe 1995 oder das Tōhoku-Erdbeben 2011). Jedes Jahr findet zum Jahrestag des Kanto-Erdbebens im September eine Übung zum Katastrophenschutz statt. Besonders Tokio ist einem hohen Erdbebenrisiko ausgesetzt (siehe Erdbeben in Tokio). Am 11. März 2011 erschütterte ein heftiges Erdbeben den ganzen Staat. Das Tōhoku-Erdbeben war eines der stärksten Beben in der japanischen Geschichte mit einer Stärke von 9,0 MW. Durch das Beben wurden ein Tsunami sowie eine Serie katastrophaler Unfälle im Kernkraftwerk Fukushima-Daiichi ausgelöst. In den letzten tausend Jahren starben in Japan über 160.000 Menschen durch Tsunamis. Das Land verfügt heutzutage durch Messbojen im Pazifischen Ozean über ein effektives Tsunami-Frühwarnsystem. Für die Bevölkerung finden regelmäßig Trainingsprogramme statt, viele japanische Küstenstädte schützen sich durch das Errichten hoher Deiche. Diese Wälle aus Stahlbeton sind teilweise 10 Meter hoch, bis zu 25 Meter tief und mit stabilen Metalltoren ausgestattet. Flora und Fauna. Im Inland Japans finden sich eine Reihe von Gebirgsketten, die die Waldgrenze überschreiten. Verglichen mit der Enge des Lebensraums gibt es eine Vielzahl von Arten. Durch die Position als vorgelagerte Inselkette hat sich eine zwar mit „Kontinentalasien“ verwandte, aber dennoch vielfach eigenständige Flora und Fauna entwickelt. Die Ogasawara-Inseln ("auch:" Bonin-Inseln), 1000 km südöstlich von Tokio, werden wegen ihrer endemischen Spezies oft mit den Galapagosinseln verglichen. Japan liegt im Schnittpunkt von drei Ökoregionen. Die Hauptinseln und die nahegelegenen Nachbarinseln sind Teil der Paläarktischen Florenregion. Die Ryūkyū-Inseln sind Teil der Indomalaiischen Region, während die Ogasawara-Inseln zu Ozeanien gerechnet werden. Bevölkerung. "→ Hauptartikel: Gesellschaft Japans, Demographie Japans, Soziales Verhalten in Japan und Japaner" Die letzte Volkszählung aus dem Jahr 2010 weist eine Gesamtbevölkerung Japans von 128.056.026 Menschen aus. Die Einwohnerzahlen sind aber seit Jahren rückläufig, so gab das Ministerium für Innere Angelegenheiten und Kommunikation am 31. März 2012 eine Gesamtbevölkerung von 126.659.683 an. Die japanische Gesellschaft ist ethnisch und linguistisch weitgehend homogen. Trotzdem lassen sich in Japan unterschiedliche Bevölkerungsgruppen ausmachen, in erster Linie nach Generation, Geschlecht, Bildungsstand und direkt damit zusammenhängend Erwerbssituation und Einkommen sowie nach Stadt und Land. Die durchschnittliche Lebenserwartung der japanischen Bevölkerung ist mit 82,12 Jahren nach der ehemaligen portugiesischen Kolonie Macau und dem Kleinstaat Andorra die dritthöchste weltweit. Aktuelle Probleme der japanischen Gesellschaft sind ein Rückgang der Geburtenziffer, Überalterung und Jugendarbeitslosigkeit. Politisch und gesellschaftlich scheint es unmöglich, eine verstärkte Immigration zuzulassen, die hilfreich wäre, um der Überalterung entgegenzuwirken. Sprache und Schrift. Die Landessprache ist Japanisch und wird von nahezu der gesamten Bevölkerung und den meisten Minderheiten gesprochen. Es existieren zahlreiche regionale Dialekte. In der Schule wird als Fremdsprache am häufigsten Englisch gelehrt, es wird jedoch häufig kritisiert, dass sich der japanische Englischunterricht zu sehr auf das Bestehen des TOEIC-Tests konzentriere und nur unzureichende Kommunikationsfähigkeiten vermittele. Die zweithäufigste Fremdsprache ist Chinesisch, Deutsch liegt auf dem dritten Platz. Die japanische Sprache verwendet neben den chinesischen Schriftzeichen (Kanji) zwei eigene Silbenschriftsysteme (Hiragana und Katakana), die von chinesischen Schriftzeichen abgeleitet sind. Straßen, Bahnhöfe und Ähnliches sind meist in Kanji und in lateinischer Umschrift (Rōmaji) beschildert. Minderheitensprachen autochthoner Völker in Japan sind das nicht mit dem Japanischen verwandte Ainu im Nordteil der Insel Hokkaido und die mit dem Japanischen verwandten, aber eine eigenständige Gruppe bildenden Ryūkyū-Sprachen auf den gleichnamigen Inseln. Religion. In Japan haben immer mehrere religiöse Glaubensformen nebeneinander bestanden. Die wichtigsten sind der Shintō, der sich von der japanischen Urreligion herleitet, und der Buddhismus, der Japan im 5. oder 6. Jahrhundert erreichte. Heute gehören über 80 % der Japaner beiden Hauptreligionen gleichzeitig an, daher wird die religiöse Grundeinstellung in Japan als synkretistisch bezeichnet. Der japanische Buddhismus ist in viele verschiedene Sekten (Schulen, Richtungen) gegliedert, die fast alle dem Mahayana-Buddhismus angehören. Zu den bekanntesten buddhistischen Richtungen in Japan zählen der Zen-Buddhismus, der Amitabha-Buddhismus und der Nichiren-Buddhismus. In der Religion Japans gibt es darüber hinaus chinesische Einflüsse durch Daoismus und Konfuzianismus, die von Shintō und Buddhismus aufgenommen und integriert wurden. Das Christentum spielte in der Geschichte Japans vor allem im 16. und 17. Jahrhundert eine gewisse Rolle, nimmt aber heute nur noch eine Randstellung ein. Ein wichtiges Element stellen die „Neuen Religionen“ dar, die sich seit Mitte des 19. Jahrhunderts immer stärker ausbreiten und oft eine eigenwillige Mischung aus Shintō, Buddhismus und anderen Weltreligionen propagieren. Seit dem Zweiten Weltkrieg herrscht gegenüber diesen Richtungen eine besonders große religiöse Toleranz, sodass gegenwärtig rund 300 solcher Glaubensgemeinschaften amtlich gelistet sind. Recht. Die japanische Rechtsordnung wurde im Wesentlichen durch zwei Rezeptionsphasen geprägt. Im 7. Jahrhundert n. Chr. übernahm Japan mit dem "Ritsuryō" die Rechtsordnung Chinas auf den Gebieten des Staats- und Verwaltungsrechts. Diese Ordnung war durch mündliche Rechtssätze gekennzeichnet, in der es aber keine Gerichte und juristische Berufe im heutigen Sinne gab. Nachdem Japan zur Aufgabe seiner Abschottung gezwungen wurde, übernahm der Staat 1898 große Teile des ersten Entwurfes des deutschen Bürgerlichen Gesetzbuchs. Das galt vor allem für das Schuldrecht und das Sachenrecht, während im Familienrecht und Erbrecht stärker japanische Eigenheiten Einfluss fanden. Dem japanischen BGB wurde, dem deutschen BGB entsprechend, das Pandektensystem zugrunde gelegt. Allerdings wurden auch Anleihen beim französischen Recht, insbesondere durch die Beratungen durch Gustave Boissonade, gemacht. Die Einführung einer westlichen Rechtsordnung stellte einen enormen Bruch mit der bisherigen Rechtstradition in Japan dar. Wie tief der Bruch war, zeigt sich z. B. darin, dass eine Vorstellung von persönlichen Rechten und Ansprüchen bisher der japanischen Gesellschaft fremd war. Nach dem Zweiten Weltkrieg übte auch das US-amerikanische Recht einen Einfluss aus. In Japan ist die Todesstrafe eine im Strafrecht vorgesehene Strafe. Umfragen belegen, dass es eine überwältigende Befürwortung der Todesstrafe unter der japanischen Gesellschaft gibt. Laut einer Studie von 1999 sprachen sich 79,3 % für die Todesstrafe aus; sie erfährt aber auch Kritik. Im Dezember 2006 wurden mindestens vier Gefangene durch den Strang hingerichtet. Die Hinrichtungen erfolgen heimlich, unabhängige Beobachter sind dabei nicht zugelassen. Auch Angehörige und Anwälte werden vor der Hinrichtung nicht informiert. Berufungsprozesse dauern zwischen 10 und 16 Jahren; es gibt jedoch auch Gefangene, die seit den 1960ern auf die Vollstreckung ihrer Todesstrafe warten. Laut Amnesty International saßen im Juli 2006 mindestens 87 zum Tode verurteilte Gefangene in japanischen Gefängnissen ein. Seit 2009 werden Strafprozesse, bei denen in Japan auch die Todesstrafe verhängt werden kann, bei bestimmten schweren Verbrechen als Schöffenprozesse durchgeführt. Politik. Japan ist gemäß der Verfassung von 1947 eine parlamentarische Demokratie mit dem japanischen Kaiser (Tennō) als „Symbol des Staates und der Einheit des Volkes“ mit den zeremoniellen Aufgaben eines Staatsoberhaupts (vorbehaltlich der Zustimmung der Regierung, Artikel 7); seine Stellung im Staat „leitet sich vom Willen des Volkes ab, bei dem die souveräne Macht ruht“. (Artikel 1). Die Legislative besteht aus einem Zweikammerparlament; das bedeutendere Unterhaus wird spätestens alle vier Jahre neu gewählt. Die Exekutive wird vom Kabinett unter Leitung des Premierministers gebildet, der von beiden Kammern des Parlaments, im Konfliktfall vom Unterhaus bestimmt wird. An der Spitze der Judikative steht der Oberste Gerichtshof, dessen Richter vom Kabinett ernannt und vom Volk bestätigt werden. Das Parteiensystem Japans wurde ab den späten 1990er Jahren von zwei großen Parteien, der Liberaldemokratischen Partei und der Demokratischen Partei bestimmt, wobei letztere seit ihrer Regierungszeit bei einigen Wahlen nur noch knapp oder nicht mehr zweitstärkste Kraft war; daneben existieren mehrere kleinere Parteien auf nationaler Ebene, die größten darunter sind die mit den Liberaldemokraten regierende Kōmeitō, die nationalkonservativ-wirtschaftsliberale Ishin no Tō und die Kommunistische Partei Japans. Tennō (Kaiser). „Symbol des Staates und der Einheit des Japanischen Volkes“ ist Akihito, der 125. Tennō (dt.: "Kaiser," wörtlich „vom Himmel (gesandter) Herrscher“). Rechtlich gilt er nicht als Staatsoberhaupt und die souveräne Macht liegt allein beim Volk. Sein Vater Hirohito, der Shōwa-Tennō, hat 1945 bei der Kapitulation Japans die Göttlichkeit ("Arahitogami") der japanischen Kaiser zurückgewiesen. Die Verfassung von 1946 gibt dem Kaiser keine direkte politische Entscheidungsgewalt; im modernen Japan ist sein Amt zeremonieller Natur. Er ernennt den von beiden Parlamenten gewählten Ministerpräsidenten und den Präsidenten des obersten Gerichtshofes, er verkündet die Gesetze und beruft das Parlament ein. Außerdem ist er oberster Priester des Shintō. Akihitos Regierungsdevise (Zeitrechnung) lautet "heisei" "(Frieden überall)." Die Regierungsdevise wird auch als Jahresangabe in offiziellen japanischen Texten verwendet, beginnend mit dem Jahr der Thronbesteigung. Heisei 1 ist das Jahr 1989. Verfassung. Die geltende japanische Verfassung wurde am 3. November 1946 verkündet und trat am 3. Mai 1947 in Kraft. In ihr verpflichtet sich das japanische Volk den Idealen des Friedens und der demokratischen Ordnung. Die Verfassung wurde von der damaligen amerikanischen Besatzungsregierung unter General Douglas MacArthur ausgearbeitet und ist seitdem nicht geändert worden. Eine Änderung würde die Zustimmung von Zweidrittelmehrheiten in beiden Kammern des Parlaments und des Volkes in einem Referendum voraussetzen. In der Verfassung wird in Artikel 9 Absatz 1 Krieg als souveränes Recht abgelehnt, auch die Androhung militärischer Gewalt als Mittel zur internationalen Konfliktlösung ist verboten. Absatz 2 besitzt besondere Brisanz, da er Japan untersagt, ein Militär zu unterhalten. Die japanischen Selbstverteidigungsstreitkräfte und insbesondere deren Auslandseinsätze im Irak und im Indischen Ozean zur Unterstützung der NATO-Operationen in Afghanistan sind daher sehr umstritten. Der Verfassungsänderungsentwurf der LDP sieht eine Änderung von Artikel 9 vor. Es wird ausdrücklich betont, dass das Militär weiterhin nur der Selbstverteidigung dienen soll, aber auch der Sicherung internationalen Friedens und Sicherheit. Außerdem erklärt der Entwurf den Tennō zum Staatsoberhaupt. Weiterhin wird die Unverletzlichkeit der Menschenrechte betont. Der Entwurf der Neufassung enthält noch einige weitere, bisher nicht aufgeführte individuelle Rechte u. a. der respektvolle Umgang mit Behinderten und Opfern von Straftaten sowie Schutz persönlicher Daten. Der Tennō hat nach der Verfassung rein repräsentative Funktion. Oberster Souverän nach der Verfassung ist das Volk, vertreten durch das Parlament. Das Parlament wählt den Premierminister, dieser beruft sein Kabinett. Gesetzgebung. Das Parlament ist das höchste Organ der Staatsgewalt und die einzige gesetzgebende Körperschaft Japans. Es ist zweigeteilt in Oberhaus ("Sangiin", etwa „Rätekammer“, auch als Senat bezeichnet) und Unterhaus ("Shūgiin", etwa „Massenberatungskammer“, auch Abgeordnetenhaus oder Repräsentantenhaus). Beide Kammern werden direkt gewählt. Bei der Wahl des Premierministers, beim Haushalt und der Ratifizierung internationaler Verträge hat der Wille des Unterhauses grundsätzlich Vorrang, in der Gesetzgebung ist die Zustimmung beider Kammern oder eine Zweidrittelmehrheit im Unterhaus erforderlich, insbesondere Personalnominierungen der Regierung und Verfassungsänderungsvorschläge bedürfen in jedem Fall der Zustimmung beider Parlamentskammern. Im Parlament sitzen seit Reformen aus dem Jahr 2013, die 2014 wirksam wurden, nur noch 717 Abgeordnete: 475 im Unterhaus und 242 im Oberhaus. Von den 475 Sitzen des Abgeordnetenhauses werden 295 in Einmandatswahlkreisen nach dem Mehrheitswahlrecht und 180 in 11 regionalen Mehrmandatwahlkreisen (regionalen „Blöcken“) nach dem Verhältniswahlrecht gewählt, von den 242 Sitzen im Senat 146 nach nicht übertragbarer Einzelstimmgebung in 47 Ein- und Mehrmandatswahlkreisen, die bisher deckungsgleich mit Präfekturen sind, 96 nach Verhältniswahlrecht mit Vorzugsstimme in einem landesweiten Wahlkreis. Passives Wahlrecht für das Abgeordnetenhaus erhalten alle Männer und Frauen mit dem vollendeten 25. Lebensjahr, für das passive Wahlrecht im Oberhaus muss das 30. Lebensjahr vollendet sein. Aktiv wahlberechtigt sind alle japanischen Männer und Frauen mit vollendetem 20. Lebensjahr. Die Wahlperioden der beiden Kammern sind nicht automatisch synchronisiert: Das Unterhaus hat eine maximale Wahlperiode von vier Jahren, die es aber in der Nachkriegsgeschichte bisher nur einmal vollendete; in der Regel finden Unterhauswahlen vorher statt, wenn das Kabinett die Kammer auflöst, wozu es nach vorherrschender Verfassungsinterpretation jederzeit berechtigt ist oder nach einem Misstrauensvotum des Unterhauses gegen das Kabinett gezwungen ist, wenn es nicht zurücktreten will. Das Oberhaus hat eine feste Wahlperiode und kann nicht aufgelöst werden: alle drei Jahre wird gestaffelt eine Hälfte der Abgeordneten für eine sechsjährige Amtszeit gewählt. Innenpolitik. Seit 2012 stellen Liberaldemokratische Partei (LDP) und Kōmeitō die Regierung. Im zuletzt im Dezember 2014 neu gewählten Unterhaus verfügen sie seit 2012 über eine Zweidrittelmehrheit, seit der Wahl 2013 auch über eine Mehrheit im Oberhaus. Dem amtierenden Kabinett gehören neben Premierminister Shinzō Abe unter anderem Tarō Asō als Vizepremier- und Finanzminister, Fumio Kishida als Außenminister und Yoshihide Suga als Chefkabinettssekretär an. Abes Regierung will die Wirtschaft durch eine expansive Geldpolitik, erhöhte staatliche Investitionen und die Ankündigung von Strukturreformen (die „drei Pfeile“ der „Abenomics“) beleben. Sicherheitspolitisch stärkte sie 2014 den Sicherheitsrat nach US-Vorbild, lockerte die bisherigen, restriktiven Richtlinien für militärische Exporte und will eine beschlossene Ausweitung der Interpretation von Artikel 9 der Verfassung auf kollektive Verteidigung gesetzlich verankern. 2015 fanden und finden zahlreiche Präfektur- und Kommunalwahlen statt, viele bei den einheitlichen Regionalwahlen im April sowie voraussichtlich unter anderem die Gouverneurswahl in Ōsaka und die Bürgermeisterwahl in Ōsaka im Herbst. Ebenfalls im Herbst 2015 findet turnusgemäß die Wahl des LDP-Vorsitzenden statt. Sofern das Unterhaus nicht vorher aufgelöst wird, ist die nächste nationale Parlamentswahl die Oberhauswahl im Sommer 2016. Die Demokratische Partei, die größte Oppositionspartei, wird seit Januar 2015 vom ehemaligen Vizepremierminister Katsuya Okada geführt. Außenpolitik. Länder, die Botschaften aus Japan haben Die Hauptpunkte von Japans Außenpolitik nach dem Zweiten Weltkrieg sind eine feste Bindung an die Vereinigten Staaten, Scheckbuchdiplomatie und ein in der Verfassung festgeschriebener Verzicht auf militärische Aggression. Die nördlich von Japan liegenden Kurilen und der südliche Teil der Insel Sachalin (die ehemalige Präfektur ("-chō") Karafuto) gehören de facto seit 1945 zur Sowjetunion (ab 1991 dem Nachfolgestaat Russland), nachdem Japan im Friedensvertrag von San Francisco auf die Gebiete verzichtet hatte, auch wenn die Sowjetunion den Vertrag nicht unterzeichnet hat. Die der Insel Hokkaidō am nächsten vorgelagerten Südkurilen werden jedoch von Japan nicht als Teil der abgetretenen Kurilen betrachtet und als „Nördliche Territorien“ als Teil der a> beansprucht. Dieser Kurilenkonflikt ist ein andauerndes Problem in den japanisch-russischen Beziehungen und ein Hindernis für einen Friedensvertrag. Die kleine Inselgruppe Takeshima (kor. "Dokdo") wird von Südkorea verwaltet und von Japan beansprucht, nachdem sie während der Zeit des japanischen Imperialismus etwa 40 Jahre lang zu Japan gehörten. Im Frühling 2005 hat die Einführung eines Takeshima-Tages in der Präfektur ("-ken") Shimane erneut Zorn in der südkoreanischen Bevölkerung hervorgerufen. Besitzansprüche hat Japan neben der Republik China und der Volksrepublik China auch auf die Senkaku-Inseln (chin. "Diaoyu"). In der Nähe der Inseln werden Rohstoffe vermutet. Die Beziehungen zu vielen asiatischen Staaten – insbesondere zur Volksrepublik China, Südkorea und Nordkorea – sind vor allem wegen einer verpassten Aufarbeitung der imperialistischen Geschichte in der ersten Hälfte des 20. Jahrhunderts weiterhin angespannt. Die enge ökonomische Verflechtung und das Weltinteresse an einem Frieden in der Region machen kriegerische Konflikte jedoch unwahrscheinlich; stattdessen flammen immer wieder politische Krisen auf. Gemäß der Verfassung hielt sich Japan lange Zeit aus sämtlichen internationalen bewaffneten Konflikten heraus und forcierte stattdessen eine auf Freihandel ausgerichtete multilaterale Handelspolitik. Erste militärische Auslandseinsätze führte Japan in den frühen 1990er Jahren mit Minenräumern im Persischen Golf für die Koalition im Zweiten Golfkrieg und durch die Teilnahme an UN-Missionen beginnend mit UNTAC in Kambodscha durch. 1992 verabschiedete das Parlament als Grundlage für die Teilnahme an friedenserhaltenden Missionen (PKO) das PKO-Kooperationsgesetz (, "pī-kei-ō-kyōryoku-hō"), das angesichts der damaligen Oppositionsmehrheit im Senat (Nejire Kokkai, in diesem Zusammenhang auch PKO Kokkai,) zwischen den regierenden Liberaldemokraten und Teilen der Opposition (insbesondere Demokratische Sozialisten und Kōmeitō), aber gegen den entschiedenen Widerstand der Sozialisten, damals größte Oppositionspartei, und der Kommunisten verhandelt wurde. In der Folge des Kambodscha-Einsatzes hat sich die grundsätzliche Haltung der japanischen Öffentlichkeit zu Auslandseinsätzen verschoben, so ist die Teilnahme an friedenserhaltenden UN-Missionen inzwischen weitgehend akzeptiert, und wurde später auch von der Mehrheit der Sozialisten mitgetragen, als diese ab 1993 an mehreren Regierungen beteiligt waren. Gesellschaftlich umstritten bleibt dagegen die Beteiligung an Einsätzen in aktive Konfliktgebiete, etwa im Rahmen des Bündnisses: Im Januar 2004 beschloss das Kabinett aufgrund des 2001 vom Parlament verabschiedeten Antiterrorismusgesetzes und des 2003 verabschiedeten Irak-Wiederaufbaugesetzes die Entsendung japanischer Soldaten in einen de facto aktiven Konflikt, nämlich als Teil der Koalition der Willigen nach dem Dritten Golfkrieg in den Irak, allerdings nach Regierungsinterpretation ausdrücklich in „kein Kampfgebiet“ ("hi-sentō chiiki",); einen Einsatz in einem Kampfgebiet verbietet das Gesetz. Während der damalige liberaldemokratische Ministerpräsident Junichirō Koizumi darin einen Beweis für die engen freundschaftlichen Beziehungen zu den Vereinigten Staaten sah, betrachten viele Japaner das als Verfassungsbruch. Allerdings waren diese Soldaten verfassungsgemäß unbewaffnet und wurden nur für den Wiederaufbau der Infrastruktur eingesetzt. Im Juni 2006 erklärte Koizumi den Einsatz für abgeschlossen, daraufhin begannen die Truppen am 25. Juni ihren Abzug aus dem Irak. An der Operation Enduring Freedom beteiligte sich Japan ab 2001 indirekt mit einer Betankungsmission im Indischen Ozean, die erstmals 2007 für einige Monate unterbrochen werden musste, als die oppositionelle Senatsmehrheit unter Führung der Demokratischen Partei eine rechtzeitige Verlängerung des Antiterrorismusgesetzes verhinderte, dann aber auf Grundlage eines neuen Antiterrorismusgesetzes zunächst wieder aufgenommen wurde. Im Januar 2010 wurde die Mission unter der von den Demokraten geführten Regierung beendet, als auch die zeitlich befristete Neuauflage des Antiterrorismusgesetzes auslief. Die Beziehung zwischen der EU und Japan basiert auf einer politischen Erklärung von 1991, die Prinzipien und Ziele der Zusammenarbeit benennt. Die Erklärung wurde durch einen „EU-Japan Aktionsplan“ im Jahr 2001 erweitert. Er formt die Basis für eine verstärkte Kooperation in Bereichen der Außenpolitik, der Wirtschaft, des monetären und finanziellen Systems, der Entwicklungshilfe sowie der Kommunikationstechnologie. Die EU und Japan sind wichtige Handelspartner füreinander. Gemeinsam generieren sie 40 Prozent des weltweiten Bruttonationaleinkommens. Zwischen Japan und der EU herrscht eine große Übereinstimmung bei Hauptthemen wie dem Klimaschutz und der Sicherheitspolitik. Neben der Terrorismusbekämpfung ist die Nichtverbreitung von Massenvernichtungswaffen ein wichtiges Thema. Gemeinsam appellieren sie an Nordkorea sein Atomprogramm einzustellen. Im Bereich des Klimaschutzes wollen Japan und die EU eine Vorreiterrolle bei der Ausarbeitung eines Nachfolgekonzepts für das Kyoto-Protokoll einnehmen und die CO2-Emissionen bis Mitte des Jahrhunderts um 50 Prozent reduzieren. Militär. Im Artikel 9 der Japanischen Verfassung verzichtet Japan auf das Recht souveräner Staaten zur Kriegsführung, auch einer defensiven. Diese Klausel ist in der Welt einmalig, sie wurde nach der Niederlage Japans im Zweiten Weltkrieg aufgenommen, um eine erneute militaristische Aggression zu verhindern. Die Interpretation von Artikel 9 wurde dabei jedoch schrittweise ausgeweitet: in den 1950er Jahren für die Wiederbewaffnung, in den 1990er Jahren auf die Teilnahme an Auslandseinsätzen, im 21. Jahrhundert auf den Erwerb bestimmter militärischer Ausrüstung (etwa Hubschrauberträger), die als Offensivwaffen – und damit als Verstoß gegen das von Artikel 9 formulierte Verbot von Kriegspotential "(senryoku)" – betrachtet werden könnten, und Teilaspekte von kollektiver Verteidigung, wobei das Legislativbüro des Kabinetts bereits 2001 feststellte, dass die kollektive Verteidigung als solche nicht durch die Verfassung gedeckt ist. Bereits seit der Verabschiedung der japanischen Verfassung wurden verschiedene Änderungen diskutiert, insbesondere von Artikel 9. Vor dem Hintergrund der wachsenden militärischen Macht der Volksrepublik China beschloss die rechtskonservative Regierung unter Premierminister Shinzō Abe im Juli 2014 eine Neuinterpretation der Verfassung und damit die Einführung einer neuen Militärdoktrin. Nach einer erfolgreichen Parlamentsabstimmung im September 2015 darf Japan fortan das Recht zur „kollektiven Selbstverteidigung“ anwenden und in Konflikten an der Seite von Verbündeten kämpfen, selbst wenn es nicht direkt angegriffen wird. Die Änderung war trotz heftiger Proteste in der Bevölkerung und gegen massiven Widerstand der Opposition zustande gekommen. Während der Besatzungszeit wurde eine Polizeireserve gebildet, als in der ehemaligen Kolonie der Koreakrieg ausbrach und viele der in Japan stationierten US-Truppen dorthin abzogen. Mit der Souveränität 1953 wurde aus dieser Polizeireserve ein Jahr später die Japanischen Selbstverteidigungsstreitkräfte (JSDF; englisch für "jieitai", „Selbstverteidigungskräfte“) gegründet, aufgeteilt in Land-, See- und Lufttruppen. Es wird dabei in der Bezeichnung grundsätzlich auf das Wort "gun" (, „Armee“, „Streitkräfte“; explizit von Artikel 9 untersagt) verzichtet – im Gegensatz zu "rikugun" („Landstreitkräfte“=Heer/Armee) und "kaigun" („Meeresstreitkräfte“=Marine) des Kaiserreichs. Gleichzeitig mit dem Friedensvertrag wurde eine militärische Allianz mit dem ehemaligen Kriegsgegner, den Vereinigten Staaten geschlossen, die 1960 trotz einer Protestwelle von linken Parteien, Studenten und Gewerkschaften in Form des Vertrags über gegenseitige Kooperation und Sicherheit neu aufgelegt wurde und sich seither automatisch verlängert, solange sie nicht gekündigt wird. 2007 unterzeichnete Japan mit Australien als zweitem Land überhaupt ein Sicherheitsabkommen. Beide Länder wollen ihre Zusammenarbeit bei der Grenzkontrolle, beim Kampf gegen den Terrorismus und bei der Katastrophenhilfe intensivieren. Auch gemeinsame Militärmanöver und nachrichtendienstliche Zusammenarbeit sind geplant. Eine von Washington erwünschte direkte Sicherheitszusammenarbeit mit dem neben Japan wichtigsten US-Verbündeten in Ostasien, der Republik Korea, scheiterte bisher am mangelnden Verantwortungsbewusstsein Japans für die eigene Geschichte, dem Territorialstreit und den dadurch angefachten nationalistischen Gefühlen in Korea: So verhinderte öffentlicher Protest in Korea 2012 die Unterzeichnung eines ersten bilateralen Sicherheitsabkommens zum Informationsaustausch. Eine zum Jahreswechsel 2014/15 tatsächlich geschlossene Vereinbarung über den Austausch von nachrichtendienstlichen Informationen über die Demokratische Volksrepublik Korea sieht erneut keine direkte bilaterale Zusammenarbeit vor, nur den indirekten Austausch über US-Dienste. An der regelmäßigen US-japanischen Übung "Keen Sword" nahmen die Streitkräfte der Republik Korea 2010 erstmals als Beobachter teil. In Japan herrscht keine Wehrpflicht. Der Militärhaushalt betrug im Jahr 2004 45,4 Mrd. US-D. Dies entspricht 1 % des Bruttoinlandsprodukts. Auf diesen Anteil wurde er 1976 per Kabinettsbeschluss festgelegt. Japan nimmt damit von den absoluten Militärausgaben her Rang sechs in der Welt ein. An der militärischen Präsenz der Vereinigten Staaten beteiligt sich Japan daneben auf Grundlage des SOFA von 1960 mit dem Omoiyari Yosan (; „Sympathiehaushalt“) von zurzeit jährlich über 200 Mrd. Yen (entspricht ca. 1,4 Mrd. Euro). Von Seiten der Volksrepublik China wird häufig der Vorwurf hervorgebracht, dass in Japan ein neuer Militarismus im Entstehen begriffen ist. Historisch sind diese Ängste dadurch begründet, dass China im Zweiten Japanisch-Chinesischen Krieg großes Leid (geschätzte 18 Millionen zivile Opfer) zu beklagen hatte. Japan hat jedoch seit dem Zweiten Weltkrieg keine militärische Aggression gezeigt und ist ein aktiver Fürsprecher der atomaren Abrüstung, während China mehrere Konflikte mit seinen Nachbarn verursacht hat (Einmarsch in Tibet 1959, Indisch-Chinesischer Grenzkrieg 1962, Zwischenfall am Ussuri 1969, Chinesisch-Vietnamesischer Krieg 1979). Japans damaliger Ministerpräsident Koizumi bekräftigte am 6. August 2006, dass sein Land die Anti-Atom-Politik fortsetzen werde. Mit Gebeten, Kranzniederlegungen und Aufrufen zu einer nuklearwaffenfreien Welt haben in Hiroshima Menschen der Opfer des ersten Atombombenabwurfs 61 Jahre zuvor gedacht. Verwaltungsgliederung. Die 20 „Großstädte per Regierungserlass“ Japan ist ein zentralistischer Staat, der lediglich klar umrissene Aufgaben an die untergeordneten Gebietskörperschaften weitergibt. Japan gliedert sich flächendeckend in drei Verwaltungsebenen, die Zentralregierung in Tokio, die 47 Präfekturen ("todōfuken") und die kommunale Ebene ("shikuchōson"): Kreisfreie Städte ("shi"), Kleinstädte ("chō" oder "machi"), Dörfer ("mura" oder "son") sowie in der Präfektur Tokio die 23 „Sonder-Bezirke“ ("[tokubetsu-]ku"). Eine Grobunterteilung Japans bilden die acht Regionen, die aus einer oder mehreren Präfekturen bestehen. Sie sind keine Gebietskörperschaften, werden aber von der Verwaltung für bestimmte Zuständigkeitsbereiche (Außenstellen der Zentralregierung, regionale Gouverneurskonferenzen, Gerichtsbezirke) genutzt. Verschiedene Reformpläne sehen eine stärkere Rolle für die Regionen – in bestehender oder leicht veränderter Aufteilung – vor, um die Handlungsfähigkeit lokaler Regierungen zu erhöhen. Historisch existierten bis in die 1920er Jahre die Landkreise ("gun") als Verwaltungsebene zwischen Präfekturen und ländlichen Gemeinden ("machi" und "mura"). Sie waren im 19. Jahrhundert aus vormodernen Bezirken ("kōri") hervorgegangen und werden bis heute für Ortsangaben zum Beispiel in Postadressen genutzt. Präfekturen. Die Präfekturen sind innerhalb der ihnen zustehenden Aufgaben relativ autonom und üben gemäß Kapitel acht der Verfassung lokale Selbstverwaltung aus. Finanziell sind sie stark auf die Zuweisungen der Zentralregierung angewiesen. Die Präfekturen sind in Größe und Bevölkerungsdichte sehr unterschiedlich. Die meisten entfallen auf die Hauptinsel Honshū, während beispielsweise die zweitgrößte Insel Hokkaidō nur eine einzige Präfektur hat. Innerhalb der präfekturalen und der kommunalen Ebene gibt es – im Gegensatz zum nationalen Parlamentarismus – ein präsidentielles System, innerhalb dessen einerseits die Regierungs- und Verwaltungschefs und andererseits die Gemeindeversammlungen und Präfekturparlamente autonom gewählt werden. Gemeinden. Die kommunale Selbstverwaltung wurde bereits im Kaiserreich Ende der 1880er Jahre nach preußischem Vorbild gestaltet und nach dem Pazifikkrieg unter US-geführter alliierter Besatzung in die heutige Form gebracht, als das Recht auf Selbstverwaltung auch auf die Präfekturen ausgedehnt wurde. Einen Sonderstatus unter den Gemeinden haben die 20 „Großstädte per Regierungserlass“ ("seirei shitei toshi"). Voraussetzung für die Ernennung sind unter anderem eine Mindestbevölkerung von 500.000 Einwohnern sowie die Zustimmung von Stadtrat und Präfekturparlament. Die "seirei shitei toshi" sind in [Stadt-]Bezirke ("Ku") unterteilt und übernehmen verschiedene Verwaltungsaufgaben, die sonst den Präfekturen zustehen. Die Städte sind absteigend nach Bevölkerungszahl: Yokohama, Ōsaka, Nagoya, Sapporo, Kōbe, Fukuoka, Kyōto, Kawasaki, Saitama, Hiroshima, Sendai, Kitakyūshū, Chiba, Sakai, Niigata, Hamamatsu, Kumamoto, Sagamihara, Shizuoka und Okayama. Obwohl einige Bezirke der Präfektur Tokio die nötige Bevölkerungszahl überschreiten, können sie sich als „Sonderbezirke“ nicht um diesen Status bewerben. Wirtschaft. a> ist die größte Börse Asiens. Japan ist eine hoch industrialisierte, freie Marktwirtschaft mit einigen Elementen einer gelenkten Wirtschaft. In den Jahren des Wiederaufbaus nach dem Krieg versuchte die Regierung vor allem über das MITI gezielt in einzelne Bereiche der Wirtschaft einzugreifen. In den letzten Jahren wurde zunehmend dereguliert und privatisiert. Der Export im Jahr 2011 betrug 822,7 Milliarden US-Dollar. Damit liegt Japan auf Platz 4 der exportstärksten Länder hinter der Volksrepublik China auf Platz 1, den Vereinigten Staaten auf Platz 2 und Deutschland auf Platz 3. Eine enge Zusammenarbeit zwischen Staat und Industrie, eine traditionell ausgeprägte Arbeitsdisziplin, die Beherrschung von Hochtechnologie, ein großes Augenmerk des Staates auf Ausbildung und eine Steigerung der Produktivität durch Automatisierung, haben Japan geholfen, binnen kurzer Zeit hinter den Vereinigten Staaten und der EU die drittgrößte Wirtschaftsmacht der Welt zu werden. Über drei Jahrzehnte hinweg hatte Japan nur Wirtschaftswachstum zu verzeichnen: ein Durchschnitt von 10 % in den 1960ern, durchschnittlich 5 % in den 1970ern, und 4 % Wirtschaftswachstum in den 1980ern. In den 1990ern brach das Wachstum nach dem Platzen der Bubble economy ein, Japan geriet in eine Deflationsspirale. Staatliche Versuche zur Wiederbelebung des Wirtschaftswachstums hatten zunächst keinen Erfolg und wurden später während der Jahre 2000 und 2001 durch eine Verlangsamung der amerikanischen und asiatischen Märkte gehemmt. Das Kabinett von Jun’ichirō Koizumi hat Gesetze zur Privatisierung und Deregulierung erlassen (teilweise vergeblich) und versucht, die schwächelnde japanische Wirtschaft anzuregen. Ein seit den 1990ern zunehmendes Problem Japans ist die Arbeitslosigkeit. Offizielle Statistiken geben sie mit rund vier Prozent an. Staatshaushalt. Der Staatshaushalt umfasste 2011 Ausgaben von umgerechnet 2,5 Bio. US-Dollar, dem standen Einnahmen von umgerechnet 2,0 Bio. US-Dollar gegenüber. Daraus ergibt sich ein Haushaltsdefizit in Höhe von 8,5 % des BIP. Die Staatsverschuldung betrug 2009 12,2 Bio. US-Dollar oder 208,2 % des BIP. Die Staatsverschuldung, heute eine der höchsten der Welt, ist vor allem auf die Japankrise zurückzuführen. 1989 lag die Staatsverschuldung noch bei 68 % des BIP. Energie. Japan verbraucht so viel verflüssigtes Erdgas (LNG) wie kein anderes Land, ist der zweitgrößte Importeur von Kohle und der drittgrößte von Erdöl. Das Land hat nach der Nuklearkatastrophe von Fukushima alle Kernkraftwerke vom Netz genommen und schärfere Sicherheitsbestimmungen eingeführt. Durch den resultierenden Import fossiler Energierohstoffe und einen Rückgang der Exporte verzeichnete Japan im Kalenderjahr 2011 das erste Handelsbilanzdefizit seit 1980. Die Wiederinbetriebnahme der Kernkraftwerke nach Abschluss der Sicherheitsüberprüfungen und Wartungsarbeiten hängt auch von der Genehmigung durch die betroffenen Präfekturen und Gemeinden ab, also die örtlichen Gouverneure und Bürgermeister. Nach einer Umfrage der Mainichi Shimbun in betroffenen 20 Präfekturen und 122 Gemeinden sind 17 Prozent der Gebietskörperschaften gegen eine Wiederanschaltung, 57 Prozent für eine Wiederinbetriebnahme unter bestimmten Bedingungen. Im Katastrophengebiet des Tōhoku-Erdbebens sind 60 Prozent der Bürgermeister für eine Abschaffung der Kernreaktoren. Zudem macht das Land Schritte in Richtung einer Energiewende. Ein Jahr nach der Katastrophe hat die japanische Regierung beschlossen, ein Fördergesetz für Erneuerbare Energien aufzulegen, das nach dem Vorbild des deutschen Erneuerbare-Energien-Gesetz arbeiten soll. Die Einspeisevergütung insbesondere für Solarstrom soll die Stromengpässe verhindern, die nach Abschalten der AKW vor allem im Sommer aufgrund der Klimaanlagen verursacht werden. Eine Installation von deutlich über 10 Gigawatt Photovoltaikleistung pro Jahr wird als möglich eingeschätzt. Im November 2013 wurde in Kagoshima das erste PV-Großkraftwerk Japans mit einer Leistung von 70 Megawatt in Betrieb genommen. Für das Jahr 2014 wird der Zubau auf ca. 8.000 MW geschätzt. Neben der Solarenergie werden auch Windenergie, Geothermie, Wasserkraft, Biogas und Biomasse gefördert. Gleichzeitig will Ministerpräsident Abe einen Teil der derzeit abgeschalteten Kernkraftwerke wieder ans Netz nehmen. Angestrebt wird vom Kabinett Abe ein Atomstromanteil von knapp 20 %; vor Fukushima waren es ca. 30 % gewesen. Mit Stand April 2015 erhielten insgesamt 4 der 48 Kernkraftwerksblöcke nach Überprüfen der neu eingeführten erhöhten Sicherheitsbestimmung durch die staatliche Atomaufsichtsbehörde die Genehmigung für eine Wiederanfahren. Zuvor waren bis 2013 alle Kernkraftwerke sukzessive vom Netz genommen worden. Bisher steht das Anfahren dieser vier Reaktorblöcke jedoch aus, da ein Gericht mit Verweis auf die nicht nachgewiesene Erdbebensicherheit den Betrieb der Reaktoren untersagt hat. Verkehrswesen. Typischer Straßenmast in einem Vorort von Tokio. Die gut ausgebauten Bahntrassen Japans haben eine Gesamtlänge von 23.506 km. Das entspricht Platz 11 der „Weltrangliste“ (zum Vergleich: Deutschland liegt mit 41.896 km auf Platz 6.) Die Ost-West-Verbindung des Shinkansen ist die Lebensader des Landes. Zu den Olympischen Spielen in Tokio wurde 1964 die erste Strecke von Tokio nach Ōsaka eröffnet. Durch Linien der sieben Nachfolgegesellschaften der privatisierten Staatsbahn JNR, durch Privatbahnen, Überlandbusse und Fähren sind die meisten Dörfer und Inseln an das Netz angeschlossen. Jede größere Stadt ist durch ein ausgeprägtes Nahverkehrsnetz mit dem Umland verbunden. Neun Metropolen haben ein U-Bahn-Netz, jede größere Stadt besitzt eine Vielzahl an Buslinien. Moderne Einschienenbahnen wurden in mehreren Städten gebaut, des Weiteren gibt es Straßenbahnen, in Nischen werden auch Peoplemover eingesetzt. Bahn- sowie Nahverkehrsbeförderungsgebühren schwanken stark nach Region und Betreibergesellschaft, sind aber aufgrund fehlender staatlicher Subventionierung im Allgemeinen hoch. Ein Auto besitzen in Japan in erster Linie Menschen, die auf dem Land oder in kleineren Städten leben. Da die Städte sehr dicht bebaut sind, ist zur Zulassung eines Kraftfahrzeugs ein Parkplatznachweis "(Shakoshōmei)" nötig. Es sind rund 45 Millionen Autos im Land zugelassen. In Wohngegenden sind die Straßen sehr eng und haben keine Bürgersteige. Deshalb gibt es im innerstädtischen Straßenbild auch kaum LKW, da nur schmale Kleintransporter die engen Straßen befahren können. Das japanische mautpflichtige Autobahnnetz umfasst rund 7000 Kilometer, weitere 2000 sind in Planung. Das Netz ist in staatlicher Hand, die Betreibergesellschaften wurden jedoch im Jahr 2005 in private Gesellschaften in öffentlichem Besitz umgewandelt und sollen eventuell verkauft werden. In Japan herrscht Linksverkehr. Der Bau des Straßen- und Bahnnetzes gestaltet sich aufgrund des bergigen Inlands und der vielen Inseln sehr schwierig und ressourcenintensiv, da viele Tunnel und Brücken nötig sind. Darüber hinaus ist die Infrastruktur ständig durch Erdbeben, Taifune und Vulkanausbrüche gefährdet. Strom- und Telefonleitungen sind in Japan überwiegend oberirdisch geführt, bei neueren Städtebauprojekten unterirdisch. Aufgrund des Brandrisikos bei Erdbeben erfordern die in allen Stadtgebieten unterirdisch verlegten Gasleitungen besondere Aufmerksamkeit und werden oft gewartet. Gasherde und Gasboiler zur Warmwasserversorgung sind in Japan die Norm. Zur japanischen Infrastruktur gehört ein dichtes Netz an Katastrophenwarnsystemen und Rettungsinseln. In Japan gibt es eine große Anzahl von Häfen und Flughäfen. Aufgrund seiner isolierten Lage wird über diese sämtlicher internationaler Warenhandel abgewickelt. Wegen der schlechten Erreichbarkeit vieler Orte innerhalb Japans werden sie aber auch zum Reisen und für inländischen Warentransport genutzt. Die größten Flughäfen sind Tokio-Haneda, Tokio-Narita, Kansai und der zur EXPO Aichi 2005 neu eröffnete Flughafen Chūbu. Da in Japan nur wenig ebenes Land zur Verfügung steht, wurden sowohl der Flughafen Kansai als auch der Flughafen Aichi auf künstlichen Inseln im Meer errichtet. Bei Kitakyūshū und bei Kōbe sind weitere Flughafeninseln im Bau. Telekommunikation. Ebenfalls gut ausgebaut ist das Telefonnetz, Breitbandinternetzugänge sind flächendeckend verfügbar und fast jeder Japaner besitzt ein Mobiltelefon. In Japan wurde der Mobilfunkstandard Personal Digital Cellular eingesetzt, welcher nicht zum global weit verbreiteten GSM-Standard kompatibel ist. Mittlerweile ist jedoch auch das UMTS-Netz in Japan hervorragend ausgebaut. Die meisten 3G-Mobiltelefone aus Europa funktionieren heutzutage auch in Japan problemlos. Kultur. In der modernen japanischen Kultur gehen viele Elemente auf die ganz eigene Tradition des Landes zurück, wodurch Japan im Kreis der Industrienationen seinen individuellen Charakter bewahrt hat. In der Archäologie sind die ersten Zeugnisse der kulturellen Frühgeschichte Keramiken der Jōmon- und Yayoi-Periode. Ab dem 4. Jahrhundert kamen dann viele Elemente der chinesischen Kultur nach Japan, zuerst Landwirtschaftstechniken wie der Reisanbau und Handwerkstechniken wie Bronzeschmiedekunst und der Bau von Hügelgräbern, dann ab dem 7. Jahrhundert auch die Schriftkultur und die Fünf Klassiker, der Konfuzianismus und der Buddhismus. In der Heian-Zeit kam es zu einer ersten Blüte, als der Hofadel aus dem chinesischen Erbe eine eigenständige japanische Dichtung und Literatur entwickelte. In den darauf folgenden Epochen wurde das Land immer wieder von Bürgerkriegen verwüstet, wodurch der Schwertadel, die Bushi (später als Samurai bezeichnet), zur wichtigsten Schicht aufstieg. Neben der Kriegskunst und der Schwertschmiedekunst bildete sich auch eine neue Form des Buddhismus, der Zen, heraus, der den Kriegern zusprach. Erst in der Edo-Zeit im 17. Jahrhundert, unter den Tokugawa, kam das Land wieder zur Ruhe. Die Samurai wurden zu einer Beamtenschicht, die ihre Kriegertugenden in den Kampfkünsten (武術 "bujutsu") bewahrte. Der Einfluss des Zen spiegelte sich nun auch in Dichtung, Gartenkunst, Malerei (Sumi-e) und Musik wider. Durch Frieden und wirtschaftlichen Aufschwung kam in dieser Zeit auch die vierte Schicht, die Händler, zu Reichtum. Da ihnen der soziale Aufstieg verwehrt war, suchten die Händler in der Kunst einen Weg, die Samurai zu übertrumpfen. Sie förderten Teehäuser, in denen die Geishas die Teezeremonie, Blumensteckkunst, Musik und Tanz praktizierten. Sie förderten auch das Kabuki-Theater. In den Städten bildeten sich besondere Vergnügungsbezirke, besonders in Edo, wo die Daimyō das halbe Jahr unter der direkten Kontrolle des Shōgun verbringen mussten. Eine dritte Blütezeit der Kultur erlebt Japan jetzt in der Nachkriegszeit, in der Japan eine lebhafte Popkultur hervorgebracht hat, die westliche Einflüsse und japanische Tradition verbindet. Anime und Manga, japanische Filme und Popmusik sind auch in Übersee beliebt. Wissenschaft und Bildung. Bildung hat in Japan, wie in allen konfuzianisch geprägten Ländern Asiens, einen hohen Stellenwert. Viele Japaner sind der Ansicht, dass man es im Leben nur mit einer guten Ausbildung zu etwas bringt. Schon im Kindergarten lernen die Kleinen deswegen die ersten Buchstaben, nämlich das Hiragana-Alphabet. Vor jedem weiteren Schritt im japanischen Bildungssystem steht dann eine Aufnahmeprüfung (Mittelschule (zum Teil), Oberschule, Uni). Viele japanische Mütter sind Hausfrauen und sehen ihre Aufgabe vor allem darin, ihren Kindern eine gute Ausbildung zu sichern. Aus der Generation der Töchter möchten jedoch viele mit ihrer guten Ausbildung Karriere machen, so dass hier ein gesellschaftlicher Wandel im Begriff ist. Schulsystem. Die schulische Bildung beginnt bereits im Kindergarten, der aber nicht Teil der Schulpflicht ist. Da in Japan allgemein viel Wert auf das gemeinsame Lernen und Zusammenleben gelegt wird, findet im Kindergarten und in der Grundschule viel Gruppenarbeit statt. Das Schulsystem ist eingeteilt in Grundschule (sechs Jahre), Mittelschule (drei Jahre) und Oberschule (drei Jahre), die Schulpflicht beträgt neun Jahre. Das Schuljahr in Japan beginnt stets am 1. April. Die Schulferien sind im ganzen Land einheitlich: Zwei Wochen an Neujahr, zwei Wochen im März/April, sechs Wochen im Juli/August. Öffentliche Schulen haben eine Fünftagewoche, private Schulen oft eine Sechstagewoche. Während der Schulpflicht gibt es kein „Sitzenbleiben“, jeder Schüler wird automatisch versetzt. Schuluniformen sind an vielen Schulen Pflicht. Jede dieser Schulen hat ihre eigene charakteristische Uniform. Forschung. Nach dem Zweiten Weltkrieg konzentrierte sich die Forschung ganz auf die Entwicklung neuer Produkte für die Industrie. Hierbei fand eine sehr enge Kooperation zwischen den Entwicklungsabteilungen der großen Firmen und den Universitäten statt. Erst durch Reformen in den 1980er Jahren wird auch verstärkt Grundlagenforschung gefördert. Momentanes großes Thema ist die Entwicklung von Robotern, wie die Expo 2005 gezeigt hat. Das Hauptthema der Sozialwissenschaft der 1980er Jahre war Nihonjinron, der japanische Versuch der Identitätsfindungen nach den rasanten Wandlungen der letzten anderthalb Jahrhunderte. Walfang. Japan ist eine große Fischereination und betreibt Walfang, vorgeblich mit wissenschaftlichem Hintergrund über das Institute of Cetacean Research. Die Tötung von Walen soll die Untersuchung des Mageninhaltes der Tiere ermöglichen. Die Internationale Walfangkommission kritisierte die schwachen wissenschaftlichen Argumente Japans stark und wies darauf hin, dass die erwünschten Daten nicht dem Management der Walbestände dienen und auch mit für die Wale schonenden Mitteln (z. B. Kot- und Hautproben) gesammelt werden könnten. Die japanische Walfanglobby argumentiert, dass Wale zu viele Fische fräßen und somit Nahrungskonkurrent des Menschen seien. Im Dezember 2007 verkündete die japanische Regierung nach internationalem Druck, die Jagd auf die gefährdeten Buckelwale einzustellen. Die Jagd auf Zwergwale und Finnwale werde aber fortgesetzt. Dabei betrug das Jagdergebnis der Flotte um die Nisshin Maru in der Antarktis in der Saison 2007/2008 551 Exemplare der nicht gefährdeten Zwergwale, 2008/2009 679 Zwergwale und einen Finnwal und 2009/2010 506 Zwergwale und einen Finnwal. Der Verzehr von Walfleisch ist in Japan seit Jahren rückläufig, so dass sich z. B. die Lagerbestände an eingelagertem Walfleisch ständig erhöhen: von 1.453 t im Jahr 1999 auf 5.093 t im Dezember 2010. Daneben ist Japan auch der wichtigste Absatzmarkt für isländisches Walfleisch. Sport. a>ringer nehmen um den Schiedsrichter herum Aufstellung während einer Eröffnungszeremonie. Sport ist in Japan bereits in der Asuka-Zeit (7. Jahrhundert) nachgewiesen, als eine Gesandtschaft aus Korea am Hof der Kaiserin Kōgyoku durch einen Sumōkampf unterhalten wurde. Die Bushi, der erstarkende Kriegerstand zum Ende der Heian-Zeit (11. Jahrhundert), betrieben ebenfalls Sport als Vorbereitung auf den Kampf, in erster Linie Schwertkampf ("kenjutsu"), Reiten ("bajutsu"), Bogenschießen ("kyūjutsu") und Schwimmen. In der Edo-Zeit, einer friedlichen Periode, verfeinerten die zu Verwaltungsbeamten gewordenen Samurai diese Techniken zur Kampfkunst "(bujutsu)," die durch den Einfluss des Zen-Buddhismus auch eine spirituelle Komponente erhielten. Im Rahmen der Meiji-Restauration (zweite Hälfte des 19. Jahrhunderts) kam auch der westliche Sport nach Japan, darunter athletische Sportarten und Mannschaftssportarten wie Baseball, heute der beliebteste Sport (siehe Baseball in Japan). Anfang des 20. Jahrhunderts wurden aus den klassischen Bujutsu-Künsten die heutigen Kampfkünste und Kampfsportarten entwickelt, darunter Judo, Aikidō und Kendō. Das Karate entwickelte sich in der Präfektur Okinawa. Heutzutage wird eine breite Vielfalt von Sportarten in Japan betrieben, in erster Linie in Clubs an Schulen und Universitäten. Die Insellage hat Windsurfen und Tauchen sehr beliebt gemacht. Als Sport der Salarymen gilt Golf. Eine Mitgliedschaft in einem Golfclub können sich allerdings nur die wirklich gut Verdienenden leisten. Überall in Japan finden sich hoch umzäunte Anlagen, auf denen der Abschlag geübt werden kann. Hokkaidō und die Präfektur Nagano sind Zentren des Wintersports. Aber auch Fußball erfreut sich großer Beliebtheit in Japan. Die J. League Division 1 gilt als eine der bedeutendsten Ligen der Welt und die Nationalmannschaft Japans erreicht regelmäßig die Teilnahme an der Fußballweltmeisterschaft. Viele japanische Fußballer wie Hajime Hosogai, Shinji Kagawa oder Genki Haraguchi konnten sich bereits in den Topligen des europäischen Fußballs (insbesondere in der Bundesliga) etablieren. Japan war Gastgeber der Fußballweltmeisterschaft im Jahre 2002. Feiertage. In Japan gibt es fünfzehn gesetzliche Feiertage (jap., "shukujitsu") pro Jahr, die im "Staatlichen Gesetz zu den Feiertagen des Volkes" (, "kokumin no shukujitsu ni kansuru hōritsu") vom 20. Juli 1948 festgelegt sind. Wie auch in Deutschland sind einige dieser Feiertage "bewegliche Feiertage" (, "idō shukujitsu"), die meisten Feiertage sind jedoch an ein unveränderliches Datum geknüpft. Wenn ein Feiertag auf einen Sonntag fällt, ist der darauf folgende Montag ein arbeitsfreier Tag (, "furikae kyūjitsu ", dt. „verschobener Feiertag“). Jeder einzelne Tag, der zwischen zwei Feiertage fällt ist ebenfalls ein arbeitsfreier Tag (, "kokumin no kyūjitsu", dt. „Ruhetag der Bürger“). Neben den gesetzlichen Feiertagen gibt es auch in Japan eine große Zahl regionaler Gedenk- und Festtage. Bevor die "gesetzlichen Feiertage" durch das japanische Recht geregelt wurden, unterschied man zwischen "shukujitsu" (), allgemein für Feiertag, und "saijitsu" (), dem "kirchlichen (religiösen) Feiertag" bzw. regionalen Sitten folgenden Festtagen (, "Matsuri"). Jonathan Carroll. Jonathan Samuel Carroll (* 26. Januar 1949 in New York City) ist ein US-amerikanischer Schriftsteller. Er lebt in Wien. Leben und Werk. Jonathan Carroll wurde in eine Künstlerfamilie hineingeboren: Sein Vater war der Drehbuchautor Sidney Carroll (dessen größter Erfolg Haie der Großstadt war), seine Mutter Schauspielerin, Sängerin und Lyrikerin. Er ist ein Halbbruder des Komponisten Steve Reich. Nach einer von ihm selbst als „schwierig“ erlebten Jugend erwarb er einen Schulabschluss an der Loomis School, Connecticut und schloss 1971 mit Auszeichnung ein Studium an der Rutgers University ab. Im selben Jahr heiratete er die Künstlerin Beverly Schreiner. Später zog er nach Wien um und lehrte dort Literatur an der American International School. Da auch der Sohn von Stanislaw Lem diese Schule besuchte, kam Carroll in Kontakt mit dem polnischen Autor und mit dessen damaligem Agenten Franz Rottensteiner, zugleich Herausgeber der "Phantastischen Bibliothek" im Suhrkamp Verlag. Überzeugt von der Qualität der in den USA anfangs wenig beachteten Werke, brachte Rottensteiner sie in rascher Folge auf den deutschen Markt, auch beflügelt von den Briefen begeisterter Leser wie Stephen King, Peter Straub, Michael Ende und Christopher Priest. Carroll schreibt sogenannte Phantastische Literatur. Seine Erzählungen beginnen in der gegenwärtigen Realität. Die Helden seiner Bücher sind Menschen der gehobenen Mittelklasse, die irgendwann in ihrem Leben eine zu jenem Zeitpunkt unbedeutend erscheinende Handlung vollziehen. Später stellt sich heraus, dass sie moralisch nicht einwandfrei gehandelt haben. Eine fiktive Welt begegnet der bekannten Welt, und die Helden erleben Situationen, wie man sie aus dem Horror-Genre kennt. Allerdings sind die Brennpunkte der Bücher weniger die alptraumhaften Szenen des Schreckens, als vielmehr der innere Zustand der Figuren, ihre Fragen nach dem „Warum“ und „Wohin“. In "Das Land des Lachens" begleitet der Leser den gelangweilten Thomas Abbey auf seiner Spurensuche, alles über den von ihm über alles verehrten Schriftsteller Marshall France herauszufinden, um eine ultimative Biographie des Autors zu schreiben. Seine Recherchen führen ihn in das Städtchen Galen, wo France gelebt und geschrieben hat. Galen ist ein idyllischer Ort, wo es merkwürdige Dinge wie sprechende Hunde gibt und Menschen, die direkt aus Frances Werken entsprungen zu sein scheinen; nach und nach stellt sich heraus, dass der komplette Ort der Phantasie des Schriftstellers entsprungen ist, und erst als am Ende eine Bluttat verübt wird, auf der letzten Seite des Romans, bekommt der Leser einen Hinweis, wie all das zu verstehen ist. Jorge Luis Borges. Jorge Francisco Isidoro Luis Borges Acevedo (13px audio) (* 24. August 1899 in Buenos Aires; † 14. Juni 1986 in Genf) war ein argentinischer Schriftsteller und Bibliothekar. Borges verfasste eine Vielzahl phantastischer Erzählungen, Gedichte und Kurzgeschichten. Literarisch beeinflusst wurde Borges vor allem von Macedonio Fernández, Rafael Cansinos Assens, englischsprachiger Literatur (Walt Whitman, Gilbert Keith Chesterton, George Bernard Shaw, Thomas De Quincey), Franz Kafka und dem Daoismus. Seine philosophischen Anschauungen, die dem erkenntnistheoretischen Idealismus verpflichtet sind und sich in seinen Erzählungen und Essays wiederfinden, bezog Borges vornehmlich von George Berkeley, David Hume und Arthur Schopenhauer. Mit dem argentinischen Schriftsteller Adolfo Bioy Casares verband ihn eine lebenslange Freundschaft. Borges war Mitbegründer der „lateinamerikanischen Phantastik“ und einer der zentralen Autoren der von Victoria Ocampo und ihrer Schwester Silvina 1931 gegründeten Zeitschrift "Sur", die sich dem kulturellen Austausch zwischen Lateinamerika und Europa widmete. Leben. Jorge Luis Borges stammte aus einer wohlhabenden argentinischen Familie und wuchs in Buenos Aires auf. Sein Vater, Jorge Guillermo Borges (1873–1938), war Rechtsanwalt, Dozent für Philosophie und Psychologie sowie Verfasser eines Romans ("Der Caudillo", Palma de Mallorca 1921), diverser Essays und Erzählungen, eines Dramas, einer Übersetzung von Edward Fitzgeralds Bearbeitung der Vierzeiler von ʿOmar Chayyām und mehrerer Gedichte. Im Elternhaus wurde Englisch und Spanisch gesprochen (die Mutter des Vaters stammte aus Staffordshire), weshalb Jorge Luis Borges bereits als Kind auch englische Bücher (u.a. las er auch den Don Quijote zuerst auf Englisch) aus der mehrere tausend Bände umfassenden Bibliothek seines Vaters las. Seine Mutter, Leonor Acevedo de Borges (geb. Acevedo Haedo, 1876–1975), war in Uruguay geboren und ebenso zweisprachig: Sie übersetzte Werke von Katherine Mansfield, Herbert Read und William Saroyan aus dem Englischen ins Spanische. Von Beginn an förderte sie die künstlerischen Interessen ihrer Kinder. So wurde Jorges Schwester Norah Borges eine bedeutende Malerin. Ab 1914 verbrachte Borges sieben Jahre in der Schweiz, weil sich sein Vater dort einer Augenoperation unterzog. Jorge Luis studierte unter anderem am Genfer Collège Calvin Deutsch, Latein und Französisch. Er studierte ebenfalls in Spanien, wo er mit einigen zeitgenössischen Dichtern in Kontakt kam. Mit etwa fünfzig Jahren war er vollständig erblindet, was ihn jedoch nicht daran hinderte, mit Hilfe von Freunden noch mehrere Jahrzehnte hindurch schriftstellerisch tätig zu sein. Seit 1955 war Borges Direktor der argentinischen Nationalbibliothek. Nachdem seine erste Ehe bereits nach wenigen Jahren gescheitert war, heiratete Borges kurz vor seinem Tode seine langjährige Sekretärin und Reisebegleiterin, die Autorin María Kodama. Er starb am 14. Juni 1986 in Genf im Alter von 86 Jahren; sein Grab befindet sich auf dem Cimetière des Rois. Den Grabstein ziert ein Vers aus dem altenglischen Gedicht The Battle of Maldon: "and ne forhtedon na" (Z. 21), was mit „...und keineswegs furchtsam“ übersetzt werden kann. Auf der Rückseite steht ein Auszug aus der Völsunga saga: "Hann tekr sverthit Gram ok leggr í methal theira bert" („...er nahm sein Schwert Gram und legte das nackte Metall zwischen sie“) Grab Jorge Luis Borges in Genf Borges verfügte über eine umfassende Bildung in Literatur und Philosophie. Unter anderem war er mit den Sagas Skandinaviens, der altenglischen Sprache und den Kenningar, den umfassenden Werken Thomas De Quinceys und Ralph Waldo Emersons, der Dichtung und Philosophie der Antike, dem deutschen Mittelalter, dem alten Fernen Osten und der Kabbala vertraut. Eine besondere Vorliebe hatte er für metaphysische Literatur, die er als „einen Zweig der phantastischen Literatur“ ansah. Borges war mit den Werken deutscher Philosophen wie Arthur Schopenhauer oder Oswald Spengler vertraut, die er im Original las. Die Vertrautheit mit der literarischen Tradition vieler Kulturen spiegelt sich in der Vielfalt seines eigenen literarischen Werks wider. Werk. Jorge Luis Borges ist einem größeren Publikum durch seine phantastischen Erzählungen bekannt geworden. Er verfasste außerdem zahlreiche Gedichte, Essays, gab Bücherkataloge und Zitatsammlungen heraus, arbeitete für Zeitschriften und war als Übersetzer tätig. Darüber hinaus hat er unter den Pseudonymen "B. Suarez Lynch" und "H. Bustos Domecq" Werke veröffentlicht, die in Zusammenarbeit mit Adolfo Bioy Casares entstanden. Borges wählte für seine Werke immer eine kurze Form: wenige seiner Texte sind länger als zehn oder fünfzehn Seiten. Seine Prosa ist immer dicht, gewählt, treffend, stilistisch vornehm und ohne jedes überflüssige Wort. Er vertrat die Theorie, dass auch Unterhaltungsliteratur literarisch wertvoll sein kann. Er schätzte die Kriminalromane von Arthur C. Doyle ebenso wie William Shakespeares Dramen. Obgleich viele seiner Werke in Argentinien spielen und sich immer wieder Bezüge auf Ereignisse und Personen der argentinischen Geschichte finden, lehnte Borges den Regionalismus in der Literatur strikt ab: Ein Schriftsteller müsse in der Lage sein, sich das gesamte Universum zu erschließen. Diese Haltung spiegelt sich auch in Borges Beschäftigung mit der Weltliteratur wider, in deren Zentrum zwar europäische und nordamerikanische Autoren standen, die jedoch auch Werke aus anderen Kulturkreisen, so etwa dem Fernen Osten einschloss. Ein ständiges Thema bei Borges ist die Unendlichkeit. In "Der Unsterbliche" (El inmortal) z. B. führt die Reise zu den Troglodyten den Erzähler zu der Erkenntnis, dass das ewige Leben die ewige Wiederkehr des Gleichen und damit die äußerste Langeweile und die Erstarrung aller Lebendigkeit bedeutet. Die Einleitung der Erzählung bildet die Geschichte vom Erwerb eines antiquarischen Exemplars der Erstausgabe von Popes Homerübersetzung durch die Prinzessin Lucinge – wohl Anspielung auf Prinzessin Liliane Marie Mathilde, gen. Baba, de Faucigny-Lucinge, geb. Beaumont, baronne d'Erlanger (1902–1945), die einen berühmten Salon führte und deren Ehemann Jean-Louis Charles Marie Francois Guy Prinz Faucigny-Lucinge ein Enkel des Charles Ferdinand, Duc de Berry (1778–1820) war und damit die Erinnerung an den bibliophilen Jean de Valois, duc de Berry evoziert. Im letzten der sechs Bände dieser Ausgabe, die die Prinzessin von dem wie Homer auf der Insel Ios bestatteten Antiquar Cartaphilus in Smyrna, dem angeblichen Geburtsort Homers, kurz vor dessen Tod erworben habe, soll sich das Manuskript der Erzählung gefunden haben. Borges spiegelt sich in Homer, der in verschiedenen Verkörperungen, darunter einer der Troglodyten sowie Cartaphilus, in der Erzählung begegnet. Doch hat ihn nicht nur die Unendlichkeit beschäftigt, sondern auch das Phänomen der Zeit und wie der menschliche Verstand und das menschliche Gefühl diese wahrnehmen, interpretieren und wie sie damit umgehen. Auch deshalb war er sehr an Traditionen aus allen Teilen der Erde interessiert, weil er sie als zeitlos empfand und in ihnen allen zusammen die Sehnsucht nach Ewigkeit erkannt haben wollte. Auch teilte er verschiedene idealistische und mythische Ansichten verschiedener Philosophen und Denker, so z. B. die Idee, dass alle Menschen ein genialer Geist sind, der die großen Werke der Weltliteratur geschrieben hat und schreibt; oder, dass der Zeugungsakt uns mit unseren Vorfahren verbindet, weil es eine Handlung ist, die Menschen durch alle Zeit hinweg begangen haben, eine Art Mythos also, der uns von der Illusion der Zeit abtrennt. Borges gilt als Vorläufer der Postmoderne und ist einer der meistzitierten Autoren im Poststrukturalismus. Eines der Lieblingsstilmittel Borges' ist die Täuschung, das Spielen mit dem Leser, die Vermischung von Realität und Surrealität. So werden in den Erzählungen oftmals einerseits real existierende Personen, Geschehenisse usw. genannt und zitiert, andererseits aber auch nichtwirkliche, oftmals unmögliche bzw. magische Personen, Objekte, Orte oder Geschehenisse wie Realitäten behandelt werden. Ein markantes Beispiel hierfür ist die Erzählung "Tlön, Uqbar, Orbis Tertius". Dieses Stilmittel bringt Borges-Kommentatoren oft in Verlegenheit, denn es ist häufig nicht nachzuweisen, ob beispielsweise ein erwähnter Schriftsteller von Borges erfunden ist oder ob er real existiert hat, aber nur Borges selbst bekannt war. Nach Angel Flores markiert Borges Werk "Universalgeschichte der Niedertracht (Historia universal de la infamia)" aus dem Jahr 1935 die Geburtsstunde des Magischen Realismus in der lateinamerikanischen Literatur. Borges’ literarische Essays geben einen umfassenden und originellen Einblick in die Weltliteratur. Die Lyrik ist in der Form stark an antike Vorbilder angelehnt, in den frühen Gedichten auch mit Anleihen beim Tango oder der Milonga. Wirkungsgeschichte. Die Erzählung "Die Bibliothek von Babel" inspirierte Umberto Eco zum Bauplan der Klosterbibliothek im Roman "Der Name der Rose". Der blinde Bibliothekar und Gegenspieler Williams von Baskerville, Jorge von Burgos, ist eine Reminiszenz an Jorge Luis Borges. Ebenso ist der Plot von "Tlön, Uqbar, Orbis Tertius" in Ecos "Das Foucaultsche Pendel" übernommen, wo eine fiktive Welt plötzlich in die Realität eingreift. Auch Michael Ende war mit dem Werk Borges' vertraut: Seine Kurzgeschichte "Der Korridor des Borromeo Colmi" ist als Hommage an Borges untertitelt. Daniel Kehlmann weist Borges in seinen Göttinger Poetikvorlesungen (Diese sehr ernsten Scherze) als einen seiner Lieblingsschriftsteller aus, auch weil er dessen Verschmelzung von Realität und Fiktion in seinem eigenen Werk wiedererkennt. Sowohl für den magischen Realismus, als auch für die Formstrukturen der Erzähler und Werke der Postmoderne, war Borges von entscheidender Bedeutung. Wurden die Erzählungen aus "Die Universalgeschichte der Niedertracht" von manchen südamerikanischen Autoren schon früh als die ersten Werke des magischen Realismus erkannt und bezeichnet, so ist man sich heute darüber einig, dass Borges, vor allem in seinen Fiktionen, viele Elemente postmodernen Erzählens vorwegnahm. Politische Auffassungen. Borges betrachtete sich nie als einen politischen Schriftsteller. Allerdings enthalten viele seiner Werke Anspielungen auf politische Geschehnisse in seinem Heimatland. Borges war ein Gegner von Juan Perón. Seine konservative, teilweise etwas antidemokratische politische Ausrichtung ist auch damit zu erklären, dass Perón 1973 durch eine demokratische Wahl zum zweiten Mal nach 1946 wieder an die Macht kam, nachdem er 1955 zum ersten Mal gestürzt worden war; auch war es zu Borges Jugendzeiten in Argentinien üblich, dass Wahlen durch Straßengangs, die Wähler einfingen oder bedrohten, großflächig manipuliert wurden – vor allem in Buenos Aires; einige seiner Erzählungen erwähnen diese Arbeit als letzte Chance für Gauchos, die jemanden bei einem Messerduell umgebracht hatten und daraufhin verhaftet wurden. Wenn sie sich bereit erklärten für die „Wahlteams“ zu arbeiten, wurden sie oft sogleich wieder freigelassen. Borges unterstützte zunächst den Militärputsch von 1976, der der Perón-Herrschaft ein Ende setzte. Allerdings distanzierte er sich anlässlich des Falklandkrieges wieder von der Militärdiktatur. Publikationen auf Deutsch. Das Gesamtwerk von Borges wurde herausgegeben von Gisbert Haefs und Fritz Arnold und hierfür neu ins Deutsche übersetzt. Die gebundene Ausgabe erschien beim Hanser Verlag (die Taschenbuchausgabe bei S. Fischer Verlag). Eine von Borges zusammengestellte Reihe phantastischer Literatur erschien unter dem Titel Die Bibliothek von Babel. Auf Deutsch wurde die Reihe mit 30 Bänden ab 1983 bei der Edition Weitbrecht veröffentlicht und ab 2007 bei der Büchergilde Gutenberg neu herausgegeben. Jules Rimet. Jules Rimet und der nach ihm benannte Pokal auf einer ungarischen Briefmarke (1966) Jules Rimet (* 14. Oktober 1873 in Theuley-les-Lavoncourt, Haute Saone; † 16. Oktober 1956 in Paris) gilt neben Enrique Buero als Begründer der Fußball-Weltmeisterschaft. Er war von 1919 bis 1945 Präsident des französischen Fußballverbandes und von 1921 bis 1954 Präsident der FIFA. Jules Rimet wurde als Sohn eines Lebensmitteleinzelhändlers geboren. Nach seiner Schulzeit studierte er Rechtswissenschaften. 1897 gründete er mit einigen Freunden den französischen Traditionsverein Red Star Paris, dessen Präsident er einige Zeit war. Im April 1919 wurde er Präsident des neuen französischen Fußballverbandes (zunächst FFFA, später FFF). Darüber hinaus wurde Rimet am 1. März 1921 zum Präsidenten der FIFA gewählt. Zu diesem Zeitpunkt hatte der Weltfußballverband erst 20 Mitglieder. Die Durchführung des olympischen Fußballturniers 1928 in Amsterdam war Motivation für Rimet, gemeinsam mit dem wohlhabenden Uruguayer Enrique Buero eine Fußball-Weltmeisterschaft aus der Taufe zu heben. In Amsterdam waren 24 Mannschaften am Start und Uruguay wurde Olympiasieger. Dies war auch ein Grund dafür, dass die FIFA Uruguay mit der Ausrichtung der ersten Fußball-Weltmeisterschaft 1930 beauftragte. Rimet gilt damit als Erfinder der Fußball-Weltmeisterschaften. Noch im gleichen Jahr wurde auf dem FIFA-Kongress mit 25:5 Stimmen abgestimmt, die WM ab 1930 alle vier Jahre zu veranstalten. Mit der Eröffnung des Turniers am 18. Juli 1930 in Montevideo begann eine neue Ära des Weltfußballs. Ihrem geistigen Vater zu Ehren wurde die Trophäe, die bis 1970 als Wanderpokal weitergereicht wurde, 1950 „Coupe Jules Rimet“ genannt. Nach dem dritten Gewinn der Brasilianer bei der Fußball-Weltmeisterschaft 1970 in Mexiko ging dieser Pokal ganz in den Besitz Brasiliens über, wurde aber mittlerweile gestohlen. Der damals 80-jährige Jules Rimet übergab bei seinem letzten WM-Turnier als Präsident der FIFA dem deutschen Mannschaftskapitän Fritz Walter nach dem Spiel den Weltpokal. Im selben Jahr legte er sein Amt als FIFA-Präsident nieder. Jules Rimet starb am 16. Oktober 1956 in Paris, zwei Tage nach seinem 83. Geburtstag. Schriften. Jules Rimet. "L'histoire merveilleuse de la Coupe du monde (Les championnats du monde de football)", Union européenne d'éditions, 1954 Joseph von Fraunhofer. Joseph Fraunhofer, seit 1824 Ritter von Fraunhofer (* 6. März 1787 in Straubing; † 7. Juni 1826 in München) war ein deutscher Optiker und Physiker. Er begründete am Anfang des 19. Jahrhunderts den wissenschaftlichen Fernrohrbau. Ein farbreiner Objektivtyp, das Fraunhofer-Objektiv, wurde nach ihm benannt. Seine hervorragendste Leistung besteht in der Verbindung von exakter wissenschaftlicher Arbeit und deren praktischer Anwendung für neue innovative Produkte. Mit dieser Denkweise wurde der Autodidakt Joseph Fraunhofer zum Vorbild und Namensgeber der heutigen Fraunhofer-Gesellschaft. Leben und Wirken. Joseph Fraunhofer wurde als elftes Kind eines Glasermeisters in Straubing geboren. Da seine Eltern starben, als er erst elf Jahre alt war, wurde er von seinem Vormund in die sechsjährige Spiegelschleiferlehre nach München gegeben. Dort überlebte er 1801 den Zusammenbruch des Hauses seines Lehrherrn. Bei seiner Rettung war Kurfürst Maximilian IV. anwesend, der von dem glücklichen Ausgang beeindruckt war und Joseph Fraunhofer 18 Dukaten schenkte. Mit diesem Geld erwarb Fraunhofer eine Glasschneidemaschine und kaufte sich von den restlichen Lehrmonaten frei. Auch der Geheime Rat und Unternehmer Joseph von Utzschneider hatte die Rettung beobachtet und nahm sich des Jungen an. Er ermöglichte Fraunhofer den Besuch der Sonntagsschule und verschaffte ihm Zugang zu mathematischer und optischer Fachliteratur. Nach seiner Lehre trat Fraunhofer 1806 als Optiker ins "Mathematisch-Feinmechanische Institut" von Reichenbach, Utzschneider und Liebherr ein. Dieses Institut war 1802 vom Erfinder Georg Friedrich von Reichenbach und dem Uhrmacher Joseph Liebherr zur Herstellung von astronomischen und geodätischen Instrumenten gegründet worden, Utzschneider hatte sich als Geldgeber angeschlossen. Fraunhofer-Glashütte, jetzt Museum, in Benediktbeuern Die optische Werkstätte wurde 1807 nach Benediktbeuern verlegt, wo Fraunhofer zunächst unter Pierre Louis Guinand arbeitete und 1811 Betriebsleiter wurde. Dort entwickelte er neue Schleifmaschinen und Glassorten für optische Gläser (schlierenfreies Flintglas), die die Abbildungsqualität von Linsen entscheidend verbesserten. Ab 1814 waren Fraunhofer und Utzschneider alleinige Teilhaber des nunmehr selbständigen Optischen Instituts. Für die Astronomie bedeutsam ist in diesem Zusammenhang Fraunhofers Verbesserung des einige Jahre zuvor in England erfundenden achromatischen Linsenpaares. Anstatt die zwei Linsen durch Verkittung zusammenzufügen, setzte Fraunhofer sie mit einem Luftspalt hintereinander. Dies brachte zusätzliche Freiheitsgrade zur Korrektur von optischen Abbildungsfehlern. Entsprechende "Fraunhofer-Achromaten" werden auch heute noch in der Amateurastronomie verwendet. Joseph von Fraunhofer (Mitte) demonstriert das Spektroskop. Rechts neben ihm Georg von Reichenbach, links Joseph von Utzschneider. Gemälde von Rudolf Wimmer. Unabhängig von William Hyde Wollaston entdeckte Fraunhofer 1814 die nach ihm benannten Fraunhofer'schen Linien im Sonnenspektrum. Er erfand 1814 das Spektroskop. Außerdem führte er als erster Experimente zur Beugung von Licht an optischen Gittern durch (Fraunhofer'sche Beugung). Seine Erkenntnisse auf diesen Gebieten nutzte Fraunhofer, um die Materialeigenschaften (Brechungsindex) optischer Gläser mit einer wesentlich gesteigerten Genauigkeit zu messen. Mit diesem Wissen gelang es ihm, bessere Objektive zu fertigen, als es bis dahin möglich gewesen war. Briefmarke zum 200. Geburtstag Fraunhofers (BRD 1987) Im Optischen Institut wurden von Fraunhofer auch komplette Fernrohre hergestellt, die auch eine Aufstellung (Montierung) umfassten. Seit Fraunhofer gibt es einen Montierungstyp, der als deutsche Montierung bekannt wurde. Bis heute wird der größte Teil kleiner und mittlerer Fernrohre und Teleskope auf einer deutschen Montierung aufgestellt. Im Jahr 1824 vollendete Fraunhofer den Bau seines größten Fernrohres für die russische Sternwarte Dorpat. Mit diesem Fernrohr mit einer für die damalige Zeit sensationellen Öffnung von 244 mm und einer Brennweite von 4,33 m untersuchte der Astronom Friedrich Georg Wilhelm Struve vor allem Doppelsterne. Ein zweites, baugleiches Exemplar erhielt 1829, nach dem Tod von Fraunhofer, die Berliner Sternwarte, mit dem 1846 von Johann Gottfried Galle der Neptun entdeckt wurde. Auch die Vollendung seines Heliometers für die Königsberger Sternwarte hat Fraunhofer nicht mehr erlebt. 1819 wurde das Optische Institut nach München verlegt, weil Utzschneider aus Geldnot den Benediktbeurer Gebäudekomplex an Bayern verkaufte und nur die Glashütte behielt. Fraunhofer musste regelmäßig nach Benediktbeuern fahren, um die Glasschmelzen zu überwachen. Andererseits war von München aus ein besserer Kontakt zu einigen Kunden und zur Akademie möglich, die ihn nach einigen Querelen wegen seiner fehlenden wissenschaftlichen Ausbildung 1821 als außerordentliches Mitglied aufnahm. In mehreren Abhandlungen und Akademiereden behandelte er nun physikalische Probleme wie das Mattwerdens des Glases und verschiedene Lichtphänomene. 1823 wurde er volles Mitglied und Professor des physikalischen Kabinetts. Fraunhofer starb schon 1826 an Lungentuberkulose. Sein Grab liegt auf dem Alten Münchner Südfriedhof (Alte Arkaden, AA-12) unmittelbar neben dem seines Kollegen Georg Friedrich von Reichenbach (Alte Arkaden, AA-11), der nur zwei Wochen vor ihm verstorben war. Vor seiner Zerstörung im Zweiten Weltkrieg trug es die Inschrift "Approximavit sidera" („Er brachte die Gestirne näher“). Ehrungen. In der Münchner Isarvorstadt und seiner Geburtsstadt Straubing sind zwei Straßen nach Fraunhofer benannt. Seinen Namen trägt auch eine Münchner U-Bahn-Station. Die Staatliche Berufsschule I in Straubing wurde nach ihm benannt, ebenso wie die Staatliche Realschule München II (1985) und das Joseph-von-Fraunhofer-Gymnasium Cham. In der Glashütte Benediktbeuern, die er von 1807 bis 1819 leitete und in der optische Geräte produziert wurden, ist heute ein Fraunhofer-Museum. Nach einer Sondermarke der Deutschen Bundespost von 1987 im Wert von 80 Pfennig zu Fraunhofers 200. Geburtstag gab die Deutsche Post AG anlässlich seines 225. Geburtstages zur erneuten philatelistischen Würdigung eine Sondermarke im Wert von 90 Eurocent heraus. Der Erstausgabetag war der 2. Januar 2012. Der Entwurf stammt von Daniela Haufe und Detlef Fiedler aus Berlin. Der Mondkrater Fraunhofer ist nach ihm benannt. Johann Christoph Adelung. Johann Christoph Adelung (* 8. August 1732 in Spantekow; † 10. September 1806 in Dresden) war ein deutscher Bibliothekar, Lexikograph und Germanist. Leben. Johann Christoph Adelung wurde am 8. August 1732 in Spantekow bei Anklam als Sohn des Pfarrers M. Johann Paul Adelung († 1759) geboren. Seine Schwester Christiane Sophie Adelung (* um 1730) ist die spätere Ehefrau von Johann Friedrich Sprengel (1726–1808 oder 1810) und Mutter des Hallenser Arztes und Botanikers Kurt Sprengel (1766–1833). Nach dem Besuch der Stadtschule in Anklam und des (alt- und neusprachlichen) Gymnasiums in Klosterbergen studierte er ab 1752 Evangelische Theologie in Halle, u.a. als Schüler Siegmund Jakob Baumgartens. Adelung war 1756 Mitbegründer der dortigen Freimaurerloge "Philadelphia zu den drei goldenen Armen", deren erster Sekretär er wurde; er muss folglich schon früher in die Freimaurerei aufgenommen worden sein. 1758 wurde Adelung in Erfurt Professor (Lehrer) am Evangelischen Ratsgymnasium. 1762 wurde er zum Sachsen-Gothaischen Rat ernannt. Ab 1765 lebte er in Leipzig, wo er als Übersetzer, Korrektor und Redakteur arbeitete. 1785 wurde Adelung Mitglied der Deutschen Gesellschaft in Leipzig. 1787 wurde er zum Oberbibliothekar der Kurfürstlichen Bibliothek in Dresden berufen, überließ die Repräsentation aber oft dem 2. Bibliothekar Karl Wilhelm Daßdorf. Die tägliche Öffnung der Bibliothek und eine erfolgreiche Weiterführung der Arbeit von Johann Michael Francke (1717–1775) im neuen Domizil, dem Japanischen Palais, werden Adelung zugeschrieben. Seit 1787 war er auswärtiges Mitglied der Königlich-Preußischen Akademie der Wissenschaften. Zusätzlich übernahm Adelung 1793 die Aufgaben eines Bibliothekars in der Privatbibliothek des Kurfürsten Friedrich August III. Adelung starb am 10. September 1806 in Dresden und wurde auf dem Inneren Neustädter Friedhof beigesetzt. Werk. Adelung ist am bekanntesten für seine grammatischen und lexikographischen Schriften, hat daneben aber auch auf zahlreichen anderen Gebieten gearbeitet und Übersetzungen, eigene literarische Texte, historische, naturwissenschaftliche, pädagogische und journalistische Arbeiten veröffentlicht. Adelungs wohl bedeutendstes Werk ist sein "Grammatisch-kritisches Wörterbuch der Hochdeutschen Mundart" (1774–1786, 2. Aufl. 1793–1801), die für ihn im engeren Sinne die Meißner Kanzleisprache ist, die bevorzugt wird. Wesentlich ist aber auch der Untertitel: "mit beständiger Vergleichung der übrigen Mundarten, besonders aber der oberdeutschen", wodurch sein Werk die bis dahin umfangreichste synchrone Bestandsaufnahme der deutschen Sprache bietet. Die den Lemmata hinzugefügten vergleichenden Synonyme sind oft relativ ausführlich kommentiert, und er geht auch auf die unterschiedlichen Bedeutungen in den Sprachgebieten ein. Es gibt recht viele orthographiebedingte Verweisartikel. Was Adelung als hochdeutsche Mundart im heutigen Wortsinne betrachtet, wird nicht zum Lemma, es gibt aber viele fach- bzw. sondersprachliche Lemmata (20–30 % in der ersten Auflage). Oft teilt er seine Ansichten zur Orthographie mit, manche Lemmata zu Buchstabengruppen scheinen vor allem deshalb aufgenommen worden zu sein. Im Laufe der Zeit wird Adelung skeptischer gegenüber den Rechtschreibreformen, und schließlich bekämpft er in der Vorrede zur zweiten Auflage seine eigene frühere Haltung und schreibt Wörter teilweise anders (beispielsweise häufig "-iren" statt "-ieren" bei Verben). Es finden sich Aussprachekennzeichnungen, vermehrt noch in der zweiten Auflage bei noch nicht eingebürgerten Fremdwörtern ("Ingenieur" ‚Inschenör‘). Verstreut über das Werk findet sich eine stark gestraffte Wortbildungslehre zum Deutschen des 18. Jahrhunderts. Ausführlicher geht er darauf besonders bei den Lemmata zu Partikeln und Präfixen ein. Bezüglich der Etymologie sind ihm alle heutigen Grundsätze fremd; er wusste nichts von der germanischen und der hochdeutschen Lautverschiebung, kennt keine neuhochdeutsche Diphthongierung und keine Monophthongierung; gesetzmäßiger Lautwandel, Ablaut, indogermanische Wortbildungssuffixe sind ihm ebenfalls unbekannt. Es finden sich jedoch manchmal durchaus richtige Etymologien. Ein vollständiger etymologischer Kommentar – so vorhanden – ist jeweils dreiteilig: Erstens kommen Angaben „gleichartiger“ Wortformen aus anderen Sprachstadien, dann ein Überblick über die Etymologie seiner Vorgänger, die er gut kennt, und schließlich seine eigene Etymologie. Sie scheinen Herders "Abhandlung über den Ursprung der Sprache" (1772) im Einzelwort zu dokumentieren. Adelungs Wörterbuch hatte einen großen Einfluss auf die deutsche Lexikographie, das genaue Ausmaß ist jedoch relativ wenig bekannt. Bezüglich des genauen Wörterbuchgegenstandes (Was ist Hochdeutsch? Was hat Adelung tatsächlich lexikographisch bearbeitet?) herrscht in der Forschung „eine pluralistische Orientierungslosigkeit“. Mindestens das Oberdeutsche kann man trotz negativer Kommentare zum Wörterbuchgegenstand hinzurechnen. Ähnlich sieht es bei der Frage aus, ob seine Arbeit normativ oder deskriptiv (oder beides) war. Besonders auf Grund der umfassenden Vergleiche hatte das Wörterbuch normenden Einfluss auf die Entwicklung der deutschen Sprache. Laut Kühn und Püschel. Daneben geht auf den Autor die "adelungsche s-Schreibung" zurück, die in Teilen des Deutschsprachigen ab dem mittleren 19. Jh., und von der Zweiten Orthographischen Konferenz 1901 bis zur Rechtschreibreform von 1996 im ganzen deutschen Sprachraum mit Ausnahme der Schweiz für das»ß«verbindlich war, inzwischen aber von der heyseschen s-Schreibung abgelöst wurde. János Bolyai. János Bolyai (* 15. Dezember 1802 in Klausenburg; † 17. Januar 1860 in Neumarkt am Mieresch), im Deutschen früher auch "Johann Bolyai," war ein ungarischer Mathematiker. Er arbeitete als einer der ersten Mathematiker auf dem Gebiet der nichteuklidischen Geometrie. Leben. Statue von Janos Bolyai in Klausenburg János Bolyai war der Sohn von Farkas Wolfgang Bolyai, einem Professor für Mathematik. Bolyais eigene Begabung in Mathematik sowie Sprachen und Musik fiel schon früh auf. Mit sieben Jahren lernte er Violine, machte rasch Fortschritte und trat später in Wien auch öffentlich als Violinist auf. Mathematikunterricht erhielt er von seinem Vater und besuchte erst ab neun Jahren eine Schule, das Kalvinisten-Kolleg in Neumarkt am Mieresch, wo auch sein Vater unterrichtete. Nach dem Schulabschluss 1817 begann er ein Studium der Ingenieurwissenschaften an der Wiener Militärakademie. Das eigentlich gewünschte Mathematikstudium im Ausland konnte sich die Familie nicht leisten; seines Vaters Anfrage an den befreundeten Carl Friedrich Gauß, den Sohn als Schüler aufzunehmen, war negativ beschieden worden. János Bolyai schloss sein Ingenieursstudium 1822 erfolgreich ab und widmete sich danach ein Jahr wissenschaftlichen Studien. Dabei versuchte er zunächst wie sein Vater, das Parallelenpostulat von Euklid zu beweisen, und entwickelte über die Auseinandersetzung mit den Grundlagen der euklidischen Geometrie dann grundlegende Züge einer nichteuklidischen Geometrie. Über einige Probleme tauschte er sich in dieser Zeit mit seinem Freund Carl Szasz (1798–1835) aus, der aber 1821 als Lehrer nach Ungarn ging. 1823 wurde János Bolyai Ingenieuroffizier in der k.u.k- Armee (Unterleutnant), wo er zunächst bis 1826 an den Befestigungsanlagen von Temesvár mitarbeitete. In der Armee war er als hervorragender Fechter bekannt, wie auch für seine Abstinenz – er trank nicht, rauchte nicht und hielt sich auch vom Spiel fern. 1826 bis 1830 war er in Arad stationiert, nach 1830 zunächst in Lemberg. 1827 wurde er Oberleutnant und 1832 Kapitänleutnant. Er entwickelte seine Ideen zur nichteuklidischen Geometrie in seiner Militärzeit weiter, blieb dabei aber isoliert und konnte auch seinen Vater erst bei einem Besuch 1831 von der Bedeutung seiner Arbeit überzeugen. Dieser drängte daraufhin auf eine Publikation, als Anhang in dessen eigenem Werk "Tentamen". Der Vater sandte sein Buch auch an Gauß, der in einem Antwortbrief zwar die Bedeutung anerkannte und die Leistung des Sohnes lobte – wörtlich schrieb er, „aufs Äußerste“ überrascht gewesen zu sein – gleichzeitig aber mitteilte, diese Entdeckung selbst schon gemacht zu haben, was für János Bolyai ein schwerer Schlag war. Er verdächtigte zeitweise sogar seinen Vater, einen alten Studienfreund von Gauß, diesem aus seinen vorherigen Mitteilungen etwas verraten zu haben. Bolyai, der ab 1832 in Olmütz stationiert war, litt nun an einer angeschlagenen Gesundheit. Hinzu kamen laut seiner Dienstakte Hypochondrie und cholerische Neigungen. Seine Vorgesetzten erkannten die hohen mathematischen Fähigkeiten an, bemängelten aber häufige Kränklichkeiten, mangelnde Neigung zur Ingenieurtätigkeit sowie Hang zur Isolation von den Offizierskameraden und konstatierten eine ausgeprägte Leidenschaft für das Schachspiel. 1833 ließ sich Bolyai pensionieren, nachdem er zuvor 1832 vergeblich – mit Verweis auf den Brief von Gauß – um eine dreijährige Beurlaubung gebeten hatte, um sich der Mathematik zu widmen. János Bolyai lebte dann auf dem Familiengut bei Domáld zusammen mit Rozália Kibédi Orbán (Rosalia Orban von Kibed), mit der er zwei Kinder hatte; da die dafür aufzubringende Geldsumme fehlte, fand die Heirat erst 1849 statt. Die Ehe, der sein Vater ablehnend gegenüberstand, hielt nicht lange – 1852 trennte sich das Paar. Bolyai beschäftigte sich weiter mit Mathematik, beispielsweise reichte er eine Preisarbeit in Leipzig ein zur Rolle der komplexen Zahlen in der Geometrie. 1846 zog er in die Nähe seines Vaters nach Marosvásárhely. Dort lernte er 1848 die Arbeiten von Lobatschewski zur nichteuklidischen Geometrie kennen. Zuletzt beschäftigte er sich hauptsächlich mit Philosophie und hinterließ einen umfangreichen Nachlass an Manuskripten, die sich in der Bolyai-Teleki Bibliothek in Neumarkt am Mieresch befinden. János Bolyai starb im Januar 1860 an Lungenentzündung in Neumarkt am Mieresch. Wie sein Vater arbeitete J. Bolyai an Untersuchungen über das Parallelenaxiom. Allerdings fand er als einer der ersten neben Carl Friedrich Gauß und Nikolai Iwanowitsch Lobatschewski eine nichteuklidische Geometrie, eine „absolut wahre (hyperbolische) Geometrie des Raumes“. Kaum bekannt ist seine aus der Mathematik hergeleitete Philosophie, deren Grundgedanken man nur aus Fragmenten rekonstruieren kann, seiner Abhandlung über die Seele, die Materie und den Geist sowie aus seinem Schreiben an Kaiser Franz Josef, das unter anderem praktische Vorschläge zu einer neuen, gerechteren Finanzordnung enthält. Der umfangreiche Nachlass von Bolyai ist in jahrzehntelanger Arbeit von Elemér Kiss entziffert worden. Nach Victor Babeș und ihm wurde die Babeș-Bolyai-Universität Cluj benannt. An den Mathematiker erinnern auch der Asteroid (1441) Bolyai und seit 1970 ein Mondkrater. Von Bolyai existieren keine Porträts – das einzige Porträt zerstörte Bolyai selbst mit einem Säbel. Ein oft kopiertes Bild, das auch auf Briefmarken zu seinem 100. Todestag 1960 in Ungarn und Rumänien erschien, ist nicht authentisch, sondern zeigt wohl einen unbekannten Zeitgenossen; es ist einem Gemälde von Mór Adler (1826–1902) von 1864 nachempfunden, das allerdings keine Angaben zur abgebildeten Person machte. Károly Lühnsdorf (1893–1958) fertigte davon eine Zeichnung an und notierte fälschlicherweise, dass es ein Porträt von Janos Bolyai sei. Die einzige Darstellung, die eventuell Anspruch auf Authentizität erheben kann, ist eine Büste vor dem Kulturpalast von Neumarkt am Mieresch, angefertigt um 1911, als der Sohn Dénes Bolyai (damals ein pensionierter Richter) und andere Personen, die ihn kannten, also noch lebten. Es gibt aber authentische Porträts seines Vaters, seiner Mutter und seines Sohnes, so dass in den 1990er Jahren Rekonstruktionen des ungefähren Aussehens von Bolyai versucht wurden, zum Beispiel durch den Maler Attila Zsigmond. Versuch einer Rekonstruktion des Aussehens von Bolyai von Attila Zsigmond Jahrzehnt. Ein Jahrzehnt (abgekürzt "Jz."), auch Dekade (altgr. "dekás", von "déka" ‚zehn‘) oder Dezennium (lat. ' ‚zehn‘ und ' ‚Jahr‘) ist ein Zeitraum von 10 Jahren. Zehn Jahrzehnte bilden ein Jahrhundert. Datumsangabe in Jahrzehnten. Die Zählung der Jahrzehnte beginnt, wie die der Jahrhunderte und Jahrtausende, mit dem Jahr 1 unserer Zeitrechnung (siehe dazu auch Jahr null). Dementsprechend werden sie auch in jedem Jahrhundert beginnend mit dem ersten Jahr des Jahrhunderts gezählt. Die so gezählten Jahrzehnte beginnen immer mit den Jahren mit einer 1 auf der Einerstelle. Im 21. Jahrhundert begann dementsprechend das erste Jahrzehnt am 1. Januar 2001 und endete somit am 31. Dezember 2010. Diese Einteilung wird in der Geschichtsschreibung verwendet, aber auch zum Beispiel von der Politik, um Zeitspannen bestimmten Zielen zu widmen (z. B. Dekade für eine Kultur des Friedens und der Gewaltfreiheit für die Kinder der Welt von 2001 bis 2010). In der Umgangssprache existieren dagegen die Begriffe der Zehnerstellen „Sechziger“, „Achtziger“ und so weiter, wobei beispielsweise „Sechziger“ des 20. Jahrhunderts für den Zeitraum 1960 bis 1969 steht. Epidemiologie. In der Epidemiologie und Medizin wird bei Altersangaben für das wahrscheinlichste Auftreten von Krankheiten häufig der Begriff Dekade bzw. Dezennium verwendet. Das geschieht meist dann, wenn die epidemiologische Datenlage nicht so genau ist, dass sie eine präzise Einordnung in bestimmte Lebensjahre zulassen würde. Allgemein ist daher die Altersangabe in Dekaden nie genau gemeint, sondern stellt eine Annäherung an ein statistisches Mittel dar. Jahrhundert. Als Jahrhundert (abgekürzt Jh.) (auch: Zentennium, gr.: Hektode) bezeichnet man die Zeitspanne von einhundert Jahren. Zehn Jahrhunderte bilden ein Jahrtausend. Übersicht. Da die Zählweise der natürlichen Zahlen mit „1“ beginnt, umfasst ein Jahrhundert immer die hundert Jahre, die mit dem entsprechenden vollen Jahr "enden." Das letzte Jahr eines Jahrhunderts bezeichnet man auch als Säkularjahr. Beispiel: das 20. Jahrhundert umfasst die Jahre von 1901 bis 2000. Vorsicht ist geboten bei italienischen Jahrhundertangaben des zweiten Jahrtausends: diese beziehen sich manchmal auf das Jahrhundert ohne Beachtung des Jahrtausendanteils. Das 15. Jahrhundert – die Jahre von 1401 bis 1500 (Frührenaissance) – wäre dann also in Italien das "quattrocento" (wörtlich: vierhundert). Als Determinans wird das Wort Jahrhundert verwendet, um ein besonderes Ereignis zu kennzeichnen, das wesentlich über das normale oder über den statistischen Mittelwert hinausragt, zum Beispiel ein Jahrhunderthochwasser oder einen Jahrhundertsommer. Alle Jahrhunderte in der Wikipedia. Zu den "Jahrhunderten" existiert in der Wikipedia eine Artikelserie vom "40. Jahrhundert v. Chr." bis zum "22. Jahrhundert." Das Jahr vor dem Jahr "1 n. Chr." ist das Jahr "0" "desselben" nachchristlichen Maßstabs. Es ist zugleich das Jahr "1 v. Chr.". Das bedeutet "1000 v. Chr." kann auch als "−999 n. Chr." ausgedrückt werden. Oder natürlich auch umgekehrt "1000 n. Chr." entspricht "−999 v. Chr.". Um Verwechslungen und Verwirrungen zu vermeiden, besteht die allgemeine Konvention, immer den Maßstab (vor oder nach Chr.) zu verwenden, der die "positive Jahreszahl" ausdrückt. Durch diese Vermeidung der "negativen Jahreszahlen" werden also zugleich die "Jahreszahlen 0" jeden Maßstabs vermieden, was verbreitet zur inkorrekten Ansicht führte, es gäbe gar kein Jahr null bzw. habe es nicht gegeben. Für die Kalenderrechnung ist ein Jahr null daher nicht existent. Jared Leto. Jared Joseph Leto (* 26. Dezember 1971 in Bossier City, Louisiana) ist ein US-amerikanischer Schauspieler sowie Sänger, Gitarrist und Songwriter der Musikgruppe "30 Seconds to Mars". Für die Rolle der transsexuellen Rayon in dem Film "Dallas Buyers Club" erhielt er 2014 den Oscar für den besten Nebendarsteller. Leben. Leto wuchs unter anderem auf Haiti und in Colorado auf. An der Emerson Preparatory School in Washington, D.C. machte er 1989 seinen Abschluss. Er studierte an der University of the Arts in Philadelphia und ging danach an die School of Visual Arts (SVA) in New York City. Von 1999 bis 2003 war er mit der Schauspielerin Cameron Diaz liiert. 2011 stand Leto als Model für Hugo Boss vor der Kamera. Schauspiel. 1992 zog er nach Los Angeles. Er schaffte seinen Durchbruch als Schauspieler mit der Fernsehserie "Willkommen im Leben" ("My So-Called Life") bei der er von 1994 bis 1995 in 19 Folgen mitspielte. Danach spielte er Rollen in größeren Filmproduktionen, darunter auch Nebenrollen in Filmen wie "Der schmale Grat", "Fight Club" oder "American Psycho". Größere Beachtung fand er jedoch erst im Jahre 2000 durch seine Darstellung eines Heroinsüchtigen im Film "Requiem for a Dream". Rollen in großen Produktionen wie "Alexander" von Oliver Stone und "Panic Room" von David Fincher folgten. In dem Film "Lord of War – Händler des Todes" spielte er 2005 Vitaly Orlov, den Bruder des Waffenhändlers Yuri Orlov (Nicolas Cage). Für seine Rolle als Mark David Chapman (der Mörder John Lennons) in dem Film "Chapter 27 – Die Ermordung des John Lennon" nahm Leto ca. 28 Kilogramm an Körpergewicht zu. Nach dem Ende der Dreharbeiten hungerte er sich dieses Übergewicht binnen kürzester Zeit wieder herunter. Nach der zweijährigen Tour mit seiner Band begann Leto Ende 2012 die Dreharbeiten zu dem Film "Dallas Buyers Club". Jared Leto spielte − an der Seite von Matthew McConaughey als Ron Woodroof − die Transsexuelle Rayon. Für diese Rolle nahm er ca. 18 Kilogramm ab. Die Darstellung von Rayon brachte Leto den New York Film Critics Circle Award, den Golden Globe Award, den Screen Actors Guild Award sowie zahlreiche weitere Auszeichnungen als "Bester Nebendarsteller" ein. Außerdem erhielt er in dieser Kategorie einen Oscar. Leto soll in der für August 2016 geplanten Comic-Verfilmung "Suicide Squad" die Rolle des Jokers übernehmen. Musik. 1998 gründete Jared Leto zusammen mit seinem Bruder Shannon Leto die Alternative Rock-Band "30 Seconds to Mars". In dieser Musikgruppe wirkt Jared Leto von Beginn an als Sänger und Rhythmus-Gitarrist mit und ist für einen Großteil der Texte und Musik verantwortlich. Das zweite Album "A Beautiful Lie" (2005) erwies sich als Verkaufsschlager, zahlreiche Festivalauftritte und Auszeichnungen folgten. Leto übernahm auch für einige Musikvideos seiner Band die Rolle des Regisseurs, für die er die Pseudonyme "Angakok Panipaq" oder "Bartholomew Cubbins" verwendete. Er legt großen Wert darauf, dass seine Musikgruppe nicht mit seiner Popularität als Schauspieler in Verbindung gebracht oder beworben wird, sondern nur aufgrund ihrer eigenen Qualität. 2013 kam das vierte Album „Love, Lust, Faith + Dreams” heraus, in dem „City of Angels”, „Up in the Air” und „Do or Die” sehr populär wurden. Auszeichnungen (Auswahl). Golden Globe Award New York Film Critics Circle Award Screen Actors Guild Award Critics’ Choice Movie Awards Independent Spirit Award Chicago Film Critics Association JPEG. a> mit von links nach rechts abnehmenden Qualitätsstufen. JPEG () ist die gebräuchliche Bezeichnung für die 1992 vorgestellte Norm ISO/IEC 10918-1 bzw. CCITT Recommendation T.81, die verschiedene Methoden der Bildkompression beschreibt. Die Bezeichnung „JPEG“ geht auf das Gremium Joint Photographic Experts Group zurück, das die JPEG-Norm entwickelt hat. JPEG schlägt verschiedene Komprimierungs- und Kodierungsmethoden vor, darunter verlustbehaftete und verlustfreie Kompression, verschiedene Farbtiefen sowie sequenzielle oder progressive Modi (normaler Bildaufbau bzw. allmähliche Verfeinerung). Weithin verbreitet ist nur die verlustbehaftete Komprimierung bei sequenziellem oder progressivem Modus und 8-Bit-Farbkanälen. Die JPEG-Norm beschreibt lediglich Bildkompressionsverfahren, legt aber nicht fest, wie die so entstandenen Daten gespeichert werden sollen. Gemeinhin werden mit „JPEG-Dateien“ oder „JPG-Dateien“ Dateien im Grafikformat JPEG File Interchange Format (JFIF) bezeichnet. JFIF ist jedoch nur "eine" Art, JPEG-Daten abzulegen; SPIFF und JNG sind weitere, wenn auch wenig gebräuchliche, Möglichkeiten. Übersicht und Standards. Zusätzlich zum in ISO/IEC 10918-1 definierten verlustbehafteten Modus gibt es noch die verbesserte, verlustfreie Komprimierungsmethode JPEG-LS, die in einer anderen Norm festgelegt wurde. Außerdem existiert noch die JBIG-Norm zur Komprimierung von Schwarzweißbildern. Die JPEG-Norm trägt den offiziellen Titel "Information technology – Digital compression and coding of continuous-tone still images: Requirements and guidelines". Das „Joint“ im Namen stammt von der Zusammenarbeit von ITU, IEC und ISO. Die JPEG-Komprimierung. Die JPEG-Norm definiert 41 verschiedene Unterdateiformate, von denen aber meist nur eines unterstützt wird (und welches auch fast alle Anwendungsfälle abdeckt). Die Kompression erfolgt durch das Anwenden mehrerer Verarbeitungsschritte, von denen vier verlustbehaftet sind. Die Datenreduktion erfolgt durch die verlustbehafteten Verarbeitungsschritte in Zusammenwirken mit der Entropiekodierung. Kompressionen bis etwa 1,5–2 Bit/Pixel sind visuell verlustfrei, bei 0,7–1 Bit/Pixel sind noch gute Ergebnisse erzielbar, unter 0,3 Bit/Pixel wird JPEG praktisch unbrauchbar, das Bild wird zunehmend von unübersehbaren Kompressionsartefakten (Blockbildung, stufige Übergänge, Farbeffekte an Graukeilen) überdeckt. Der Nachfolger JPEG 2000 ist wesentlich weniger für diese Art von Artefakten anfällig. Sieht man als Quellformat 24-Bit-RGB-Dateien an, erhält man Kompressionsraten von 12 bis 15 für visuell verlustfreie Bilder und bis zu 35 für noch gute Bilder. Die Qualität hängt aber neben der Kompressionsrate noch von der Art der Bilder ab. Rauschen und regelmäßige feine Strukturen im Bild verringern die maximal mögliche Kompressionsrate. Der JPEG Lossless Mode zur verlustfreien Kompression verwendet ein anderes Verfahren (prädiktiver Koder und Entropiekodierung). Farbraumumrechnung. Originalfarbbild oben und die Aufspaltung dieses Bildes in die Komponenten Y, Cb und Cr. Der geringe wahrgenommene Kontrast in den Farbkomponenten Cb und Cr macht anschaulich, warum die Farbinformation in der Auflösung reduziert werden kann (Unterabtastung), ohne den Bildeindruck wesentlich zu verschlechtern. Das Ausgangsbild, welches meist als RGB-Bild vorliegt, wird in den YCbCr-Farbraum umgerechnet. Grundsätzlich wird dabei das YPbPr-Schema Die Komponenten liegen nun wiederum im Wertebereich. Bei der Umrechnung des Farbraums entstehen die üblichen Rundungsfehler durch begrenzte Rechengenauigkeit und zusätzlich eine Datenreduktion, da die Cb- und Cr-Werte nur für jeden zweiten Pixel berechnet werden (siehe CCIR 601). Tiefpassfilterung der Farbdifferenzsignale. Die Farbabweichungssignale Cb und Cr werden meist in reduzierter Auflösung gespeichert. Dazu werden sie tiefpassgefiltert und unterabgetastet (im einfachsten Fall durch eine Mittelwertbildung). Meist wird eine vertikale und horizontale Unterabtastung jeweils um den Faktor 2 verwendet (YCbCr 4:2:0), die die Datenmenge um den Faktor 4 reduziert. Bei dieser Umwandlung wird die Tatsache ausgenutzt, dass die Ortsauflösung des menschlichen Auges für Farben deutlich geringer ist als für Helligkeitsübergänge. Blockbildung und diskrete Kosinustransformation. In der Vergrößerung sind die komprimierten 8×8-Quadrate erkennbar. Diese Transformation lässt sich unter Nutzung der schnellen Fourier-Transformation (FFT) mit sehr wenig Aufwand implementieren. Die DCT ist eine orthogonale Transformation, weist gute Energiekompressionseigenschaften auf und es gibt eine inverse Transformation, die IDCT (was auch bedeutet, dass die DCT verlustfrei ist, es gingen keine Informationen verloren, da die Daten lediglich in eine für die weitere Verarbeitung günstigere Form gebracht wurden). Quantisierung. Bei diesem Rundungsschritt findet eine Irrelevanzreduktion statt. Die Quantisierungsmatrix ist sowohl für die Qualität, als auch für die Kompressionsrate verantwortlich. Sie ist in JPEG-Dateien im Header abgespeichert (DQT-Marker). Optimal ist die Quantisierungsmatrix, wenn sie in etwa die Empfindlichkeit des Auges für die entsprechenden Ortsfrequenzen repräsentiert. Für grobe Strukturen ist das Auge empfindlicher, daher sind die Quantisierungswerte für diese Frequenzen kleiner als die für hohe Frequenzen. Umsortierung und Differenzkodierung des Gleichanteils. 1 2 6 7 15 16 28 29 3 5 8 14 17 27 30 43 4 9 13 18 26 31 42 44 10 12 19 25 32 41 45 54 11 20 24 33 40 46 53 55 21 23 34 39 47 52 56 61 22 35 38 48 51 57 60 62 36 37 49 50 58 59 63 64 Weiterhin wird der Gleichanteil noch einmal differentiell zum Block links daneben kodiert und auf diese Weise die Abhängigkeiten zwischen benachbarten Blöcken berücksichtigt. Das obige Beispiel führt zu den folgenden umsortierten Koeffizienten 78 3 -8 0 -4 7 -1 0 -1 0 0 0 -2 1 0 1 1 -1 0 … 102 5 -5 0 3 -4 2 -1 0 0 0 0 1 1 -1 0 0 -1 0 0 0 0 0 0 0 1 0 … 75 -19 2 -1 0 -1 1 -1 0 0 0 0 0 0 1 … 132 -3 -1 -1 -1 0 0 0 -1 0 … -41 3 -8 0 -4 7 -1 0 -1 0 0 0 -2 1 0 1 1 -1 0 … 24 5 -5 0 3 -4 2 -1 0 0 0 0 1 1 -1 0 0 -1 0 0 0 0 0 0 0 1 0 … -27 -19 2 -1 0 -1 1 -1 0 0 0 0 0 0 1 … 57 -3 -1 -1 -1 0 0 0 -1 0 … 35 -2 0 0 0 1 0 … 0 0 2 0 1 0 … Diese Bereiche lassen sich natürlich besser als strukturreiche Gebiete kodieren. Beispielsweise durch eine Lauflängenkodierung. Die Zickzack-Umsortierung der DCT-Koeffizienten fällt zwar unter den Schutzbereich des US-Patentes 4,698,672 (und weiterer Anmeldungen und Patente in Europa und Japan). Jedoch wurde 2002 herausgefunden, dass das beanspruchte Verfahren nach dem Stand der Technik nicht neu war, sodass die Ansprüche kaum durchsetzbar gewesen wären. Inzwischen sind die Patente aus der Patentfamilie zu dem genannten US-Patent auch durch Zeitablauf erloschen, wie beispielsweise das EP-Patent 0 266 049 B1 im September 2007. Entropiekodierung. Als Entropiekodierung wird meist eine Huffman-Kodierung verwendet. Der JPEG-Standard erlaubt auch eine arithmetische Kodierung. Obwohl diese zwischen 5 und 15 Prozent kleinere Dateien generiert, wird sie aus patentrechtlichen Gründen kaum verwendet, zudem ist diese Kodierung deutlich langsamer. Die JPEG-Dekodierung. Die Dekompression ist zwar (weitgehend) verlustfrei, allerdings tritt das Inverse-Dekoder-Problem auf. Aus dekodierten Daten ist es nur schwierig möglich, die ursprüngliche Datei zu rekonstruieren. Ein Dekodier-Kodier-Vorgang verändert die Datei und ist damit nicht verlustfrei, es treten wie beim analogen Überspielen Generationsverluste auf. Die Generationsverluste von JPEG sind allerdings vergleichsweise klein, wenn wieder die gleiche Quantisierungstabelle zum Einsatz kommt und die Blockgrenzen die gleichen sind. Bei geeigneten Randbedingungen kann man sie bei JPEG sogar vermeiden. Bei JPEG-2000 ist das nicht mehr der Fall (überlappende Transformationen, wie sie bei JPEG-2000 wie auch in der Audiodatenkompression zum Einsatz kommen, erfordern dafür utopische Rechenleistungen). Inverse diskrete Kosinustransformation. mit den gleichen Korrekturfaktoren formula_8 wie bei der DCT. Progressives JPEG. Ein JPEG-Bild besteht aus Koeffizienten. Diese speichern keine Pixel, sondern Annäherungen des gesamten Bildinhalts eines 8×8-Bildblocks. Beim Progressive JPEG werden erst die ersten Koeffizienten jedes Bildblocks, dann die zweiten usw. der Reihe nach abgespeichert, so dass die Annäherung an das Originalbild immer besser wird. Wie beim Interlacing, das bei GIF angewendet wird, liegt der Zweck darin, dem Benutzer, noch bevor die gesamte Datei geladen ist, schnell ein grobes Vorschaubild zu geben. Dies ist besonders dann sinnvoll, wenn das Laden eines Bildes länger als eine halbe bis ganze Sekunde dauert bzw. man nur ein Vorschaubild benötigt. Jedoch werden große Bilder trotzdem meistens im normalen JPEG Modus zum Download angeboten. Verlustfreie Nachbearbeitung von JPEG. 8239;768) bei Verwendung immer der gleichen Quantisierungsmatrix ist dagegen (bei ordnungsgemäßer Implementierung) verlustfrei. Dazu ist die Entropiekodierung und die Zickzack-Umsortierung rückgängig zu machen. Die Operationen erfolgen dann auf Grundlage der DCT-Koeffizienten (Umsortieren, Weglassen nicht benötigter Blöcke). Danach erfolgen wieder die Zickzack-Umsortierung und die Entropiekodierung. Es erfolgen "keine" verlustbehafteten Arbeitsschritte mehr. Nicht jedes Programm führt diese Operationen verlustfrei durch, es benötigt dazu spezielle dateiformatspezifische Verarbeitungsmodule. Bei den verbreiteten Bildbearbeitungsprogrammen ist das meist nicht der Fall, da diese in der Regel die Datei zunächst in ein Bitmuster dekodieren und dann mit diesen Daten arbeiten. Beispielsweise das für Windows und Linux verfügbare Konsolenprogramm "jpegtran" vermag es, alle diese Operationen verlustfrei auszuführen, ebenso das GUI-gestützte IrfanView für Windows. Bilder, deren Auflösung nicht ein Vielfaches von 16 Pixeln (bzw. 8 Pixel bei Schwarzweißbildern oder Farbbildern ohne Unterabtastung) beträgt, sind problematisch. Sie weisen unvollständige Blöcke auf, das heißt, Blöcke, die nicht alle synthetisierten Pixel verwenden. JPEG erlaubt solche Blöcke aber nur am rechten und am unteren Bildrand. Einige dieser Operationen verlangen daher einmalig, dass diese Randstreifen verworfen werden. Visuelle Qualität und verwandte Formate. Die JPEG-Kompression ist für natürliche (Raster-)Bilder entwickelt worden, wie man sie in der Fotografie oder bei computergenerierten Bildern vorfindet. Außerdem kann man mit JPEG keine transparenten Grafiken erzeugen. Für diese Bilder sind Formate wie GIF, PNG oder JBIG weitaus besser geeignet. Ein nachträgliches Heraufsetzen des Qualitätsfaktors vergrößert zwar den Speicherbedarf der Bilddatei, bringt aber verlorene Bildinformation nicht mehr zurück. Die Quantisierungstabellen können beliebig gewählt werden und sind nicht genormt. Viele Bildbearbeitungsprogramme lassen aber den Benutzer einen pauschalen Qualitätsfaktor zwischen 0 und 100 auswählen, der gemäß einer Formel in der vom JPEG-Komitee herausgegebenen JPEG-Bibliothek in eine Quantisierungstabelle umgewandelt wird. Auch bei Qualitätsfaktoren wie „100“ oder „100 %“ findet immer noch eine Quantisierung und damit ein – bei für JPEG ungeeigneten Bildern erheblicher – Qualitätsverlust statt. Eine JPEG-Transformation ist im Allgemeinen nicht idempotent. Das Öffnen und anschließende Speichern einer JPEG-Datei führt zu einer neuen verlustbehafteten Kompression. Das Beispielbild vergleicht Aufnahmen, die mit unterschiedlichen Qualitätseinstellungen kodiert wurden. Die Porträt-Aufnahme besitzt eine Größe von 200 × 200 Pixeln. Bei 24 Bit Farbtiefe und unkomprimierter Speicherung erzeugt dieses Bild eine 120 Kbyte große Datei (exklusive Header und anderer Meta-Informationen). Die Klötzchenbildung der 8 × 8 Pixel großen Quadrate stellt das rechte Teilbild vergrößert dar. Ein weiteres Problem neben der Klötzchenbildung ist das „Ringing“, eine Konsequenz des schlechten Verhaltens der DCT bei harten Farbübergängen. Im Profi-Bereich wird JPEG wegen der verlustbehafteten Datenreduktion eher selten verwendet. Stattdessen werden Formate eingesetzt, die verlustfrei komprimieren, ungeachtet des großen Speicherbedarfs. Beispiele sind TIFF, BMP, TGA oder PNG (Vollfarbenmodus). Eine unkomprimierte Aufnahme von 6 Megapixel erfordert bei einer Farbtiefe von 16 Bit pro Grundfarbe und 3 Grundfarben einen Speicherbedarf von 36 Mbyte, der sich bei strukturreichen, körnigen oder verrauschten Bildern durch verlustlose Kompression nur mäßig verkleinern lässt (bei detailreichen Fotos sind Kompressionsraten auf ca. 50 % üblich). Es ist oft möglich, die Komprimierung vorhandener JPEG-Dateien ohne weitere Verluste zu optimieren und somit die Dateigröße etwas zu verringern. Neuere Versionen einiger Packprogramme sind in der Lage, JPEG-Bilder ohne weitere Verluste um bis zu 25 % zu komprimieren. Die Bewegtbildkompressionsverfahren MPEG-1 (eng verwandt mit dem Codec Motion JPEG) sowie MPEG-2 bauen auf dem JPEG-Standard auf. Ein Nachfolgeprojekt von JPEG zur Speicherung von Bildern ist JPEG 2000, das über eine bessere Kompression und viele sinnvolle Eigenschaften verfügt, sich aber zumindest bis jetzt nicht in breitem Maße durchsetzen konnte. Ein weiteres potentielles Nachfolgeformat ist JPEG XR, das auf dem von Microsoft entwickelten Format HD Photo basiert, das jedoch bisher ebenfalls nur vereinzelt unterstützt wird. Patentfragen. Mehrere Firmen haben bereits versucht, aus ihren (zumeist zu Unrecht erteilten) Patenten Forderungen gegen Softwarehersteller zu erheben, deren Produkte JPEG-Dateien lesen oder erstellen können. Bisher wurden alle entsprechenden Patente nachträglich entzogen. Dennoch konnten die Forderer in außergerichtlichen Einigungen hohe Millionenbeträge einnehmen. Implementierungen. Eine sehr wichtige Implementierung eines JPEG-Codecs ist die freie Programmbibliothek "libjpeg". Sie wurde 1991 erstmals veröffentlicht und war ein Schlüssel für den Erfolg des Standards. Sie oder ein direkter Abkömmling werden in einer unüberschaubaren Anzahl von Anwendungen verwendet. Jive. Jive ist ein Gesellschafts- und Turniertanz im 4/4-Takt, der ternär geteilt wird. In Tanzschulen wird er bei ca. 32 bis 44 Takten pro Minute getanzt, auf Turnieren bei 42 bis 44 Takten pro Minute (lt. TSO des DTV e.V). Der Jive gehört zu den lateinamerikanischen Tänzen. Geschichte. Jive ist eine Bezeichnung für einen Tanz, der vielfältige verwandte Vorläufer afroamerikanischen Ursprungs hat. Dazu gehören zu Beginn der 1930er Jahre Lindy Hop, Blues, Swing, in den 1940ern der Boogie-Woogie, gefolgt in den 1950ern vom Rock ’n’ Roll. Charakteristisch für all diese Tanzformen war und ist heute noch die stimulierende Musik. Amerikanische Soldaten brachten die in den USA beheimateten Tänze um 1940 nach Europa, wo sie bei der Jugend schnell sehr beliebt wurden. Der Boogie wurde nach dem Krieg zur dominierenden Musik. Als „ordinärer“ Tanz fand er aber nicht nur Freunde. Tanzpapst Alex Moore äußerte sich, dass er nie zuvor etwas „Grässlicheres“ gesehen habe. Englische Tanzlehrer entwickelten mit etwas langsamerer Musik den eleganten und doch lebendigen Jive. 1968 wurde er als fünfter Turniertanz zu den lateinamerikanischen Tänzen aufgenommen, seit 1976 gehört der Jive zum Welttanzprogramm. In England erfreut sich ein anderer Jive großer Beliebtheit: Anstelle der üblichen sechs Beats wird der Modern Jive wie der Lindy Hop auf acht Beats getanzt. Charakteristik und Technik. Der Jive bringt robuste Lebensfreude zum Ausdruck. Charakteristisch sind offene Figuren, diverse Kicks und Twist. Hauptmerkmal ist das leicht-lockere Durchschwingen der Hüfte auf Zwei und Vier. Im Gegensatz zu Rumba und Cha-Cha-Cha werden Merengue-Hüftaktionen getanzt, so dass die Hüfte über dem Standbein verbleibt und erst nach dem Gewichtswechsel auf die andere Seite wechselt. Die Schritte im Jive werden über den Ballen und die Innenkante der Füße angesetzt. Der Jive wird in der offenen Tanzhaltung getanzt, wobei der Herr mit seiner linken Hand die rechte Hand der Dame fasst. Eine enge Verwandtschaft besteht zum Boogie-Woogie und Rock ’n’ Roll. Obwohl die Musik eine ternäre Rhythmik hat, wird zur deutlicheren Darstellung und Überhöhung des Rhythmus dieser fast punktiert getanzt. Die geraden Zählzeiten werden durch ein Durchschwingen der Hüfte („durch die Knie Schwingen“) betont. Jungsteinzeit. Die Jungsteinzeit (fachsprachlich das "Neolithikum", aus altgriech. ',neu, jung‘ und ',Stein‘) ist eine Epoche der Menschheitsgeschichte, deren Beginn mit dem Übergang von Jäger- und Sammlerkulturen zu sesshaften Bauern mit domestizierten Tieren und Pflanzen definiert ist. Der Übergang zur neolithischen Wirtschaftsweise (fachsprachlich Neolithische Revolution oder Neolithisierung) vollzog sich weltweit unterschiedlich. Nomadische Lebensweise wurde im Zuge von Ackerbau und Viehhaltung gegen Sesshaftigkeit in Dorfgemeinschaften eingetauscht. Der Ackerbau schuf die Grundlage zu einer arbeitsteiligen Gesellschaft. Nahrungsproduktion und Vorratshaltung führten zu einer größeren Unabhängigkeit von der natürlichen Umwelt und bilden die Basis für Bevölkerungswachstum. Dieser Prozess vollzog sich vor etwa 12.000 Jahren erstmals im Gebiet des "Fruchtbaren Halbmonds", vor allem an den Südrändern von Taurus- und Zagrosgebirge. Noch bevor der dörfliche Hausbau aus Holz oder Stein archäologisch belegt ist, gab es in dieser Region bereits monumentale Tempelanlagen, wie auf dem Göbekli Tepe oder in Nevalı Çori (Südosttürkei). Das Ende der Jungsteinzeit wurde mit der regional einsetzenden Verarbeitung von Kupfer eingeleitet (Kupfersteinzeit), aber erst durch die Bronzezeit abgelöst. In Afrika folgte auf die Jungsteinzeit direkt die Eisenzeit. Definition. Rekonstruktion einer jungsteinzeitlichen Sichel aus Holz mit eingeklebten Feuersteinklingen Dass das "Neolithische Bündel" innerhalb von etwa zwei Jahrhunderten aufgetreten ist, trifft nur auf die frühesten neolithischen Kulturen Mitteleuropas zu. Daher wird der von Gordon Childe postulierte Begriff Neolithische Revolution im Allgemeinen heute kritisch gesehen. Nach neuen Ergebnissen der Paläogenetik verdrängten die Bauern aus dem Karpatenbecken die Mesolithiker Mitteleuropas im Laufe des 6. vorchristlichen Jahrtausends jedoch nicht nur kulturell, sondern auch genetisch. Zeitliche Entwicklung. Die Ausbreitung der Neolithischen Kulturen ausgehend vom südöstlichen Mittelmeerraum in den Nordosten Europas. Neolithische Revolution. In Palästina entstanden einige dauerhafte Siedlungen bereits vor der Entwicklung der Landwirtschaft. Die Umgebung dieser Siedlungen bot den Bewohnern aber nur zeitweise genügend Ressourcen (Fisch, Fleisch oder Pflanzen). Der Kultivierung und dem Anbau von Getreide ging eine jahrtausendelange Nutzung entsprechender Wildvorkommen voraus, in der Levante seit 21.000 v. Chr. nachweisbar (Ohalo II). Diese Vorstufe zur produzierenden Landwirtschaft wird als "proto-neolithisch" bezeichnet. Entstehung der Landwirtschaft. Die Entstehung der Landwirtschaft beginnt etwa 10.000 v. Chr. mit dem Ende der letzten Eiszeit, was gleichzeitig der Beginn der jetzigen Zwischeneiszeit, des Holozäns, war. Die genauen Ursachen sind noch strittig. Es konkurrieren zwei gegensätzliche Hypothesen miteinander. Bisher allgemein akzeptiert war die "Mangelhypothese". Nach ihr hat der Mangel an jagbaren Wildtieren, in Verbindung mit der Klimaänderung im Holozän, die Entstehung der Landwirtschaft gefördert. Ihr steht die inzwischen auch vor allem von Josef H. Reichholf favorisierte "Überflusshypothese" gegenüber. Sie verweist darauf, dass ein durch Überjagung entstandener Mangel archäologisch nicht nachweisbar ist. Vielmehr sei über mehrere Jahrtausende Getreide als Grundlage alkoholischer Getränke (vor allem Bier) genutzt worden, noch bevor es zur eigentlichen Nutzung für die Herstellung von Brot kam. Seinen einheitlichen Ursprung habe dies bei den uralaltaischen Völkern Zentralasiens. Die Domestizierung von Pflanzen, vor allem die der wegen der größeren Samen einzig nutzbaren einjährigen Körnerfrüchte, müsse eine sehr große Zeitspanne in Anspruch genommen haben. Überdies seien aus den Wildformen nur mühsam sehr geringe Mengen zu gewinnen gewesen. Schon rein rechnerisch konnten diese Mengen auch nicht annähernd die vorwiegend auf dieser Basis beruhende Ernährung kalorisch sichern. Selbst hinreichend sichere Lagermöglichkeiten, die Korn und Mehl vor Tierfraß, Pilzbefall etc. hätten schützen können, standen in den ersten Jahrtausenden der Jungsteinzeit offenbar nicht zur Verfügung. Die archäologisch gefundenen Keramiken seien für diesen Zweck viel zu klein gewesen und deuten nach Reichholf viel eher auf die Erzeugung von Alkoholika hin, wie sie schon in frühen sumerischen Darstellungen bezeugt sind. Naher Osten. Funde aus Ohalo II. am See Genezareth in Israel zeigen, dass bereits vor 20.000 bis 22.000 Jahren Jäger und Sammler große Mengen unterschiedlichster Gräser, darunter wilder Weizen und wilde Gerste, als Nahrung nutzten. Darunter waren auch sehr kleinsamige Gräser, die vermutlich mit Schwingkörben geerntet wurden. Der Übergang zur Landwirtschaft war – zumindest in der Levante – weniger eine „freiwillige“ Entwicklung als vielmehr eine aus der Veränderung der Umwelt resultierende Notwendigkeit zum Überleben. Die Großtierfauna (insbesondere die Gazelle) hatte diese Region schon sehr früh verlassen, weshalb in der Region zwischen oberem Euphrat und Mittelmeer vermehrt Wildgetreide auf Reibsteinen (Handmühlen) verarbeitet wurde. Die bislang ältesten Spuren von möglicherweise domestiziertem Getreide (in diesem Fall Roggen) fand man in Tell Abu Hureyra am syrischen Euphrat; sie werden auf ein Alter von 13.000 Jahren geschätzt. In dieser Zeit, dem Jüngeren-Dryas-Stadial, ließ eine langanhaltende Dürre einen Großteil der wilden Getreidearten abwandern, weshalb die Menschen gezielt die dürreresistentesten züchteten. Zu den wichtigsten in dieser Gegend domestizierten Getreidearten gehörten Gerste und vor allem Weizen. In den trockeneren Gebieten von Judäa und im Sinai ging man nach dem Verschwinden der Gazellen dazu über, Wildziegen und Wildschafe in Herden zu halten. Eine Domestikation der Tiere lässt sich in Beidha bereits um 11.000 v. Chr. ableiten und ab 8300 v. Chr. belegen, da zu diesem Zeitpunkt Caproviden und Boviden aber auch Cervinalen (Damtiere) mit den Menschen nach Zypern gelangten. Sie muss daher weitaus früher erfolgt sein. Anfangs wurden Schafe und Ziegen ausschließlich als Fleisch- und Felllieferanten gehalten; um 7500 v. Chr. lässt sich die Nutzung des Sekundärproduktes Milch, später auch Wolle archäologisch belegen. Genetisch (Untersuchung Peltonen) weist der Beginn des Abbaus der Laktoseintoleranz, die bei allen Menschen zunächst uneingeschränkt vorlag, auf einen frühen Genuss von Tiermilch. Dieser Erbfortschritt, Milchzucker (Laktose) verdauen zu können (Laktosetoleranz), wurde dabei, anders als die Fortschritte im Landbau, nicht im Nahen Osten, sondern einmal (etwa 3500 v. Chr.) südlich von Dänemark und später noch dreimal in Ostafrika gemacht (Massai) und ist noch heute nur in der einheimischen Bevölkerung von Nordeuropa allgemein vorhanden. Der Einsatz von Rindern als Zugtier vor dem Pflug ermöglichte schließlich den Übergang vom jungsteinzeitlichen Hackbau zu einer höheren Ackerbaukultur. Siehe dazu auch die Geschichte des Transportwesens im Altertum. China. Im Seengebiet am Mittellauf des Jangtsekiang wurde in etwa zur gleichen Zeit wie in der Levante dazu übergegangen, den bisher nur gesammelten wilden Reis nach und nach zu kultivieren. Weiter flussabwärts wird in einem Gebiet mit damals feuchtwarmem, subtropischem Klima von der chinesischen Forschung das Zentrum der Nassreis-Kultivierung gesehen. Im deutlich kühleren und trockeneren Norden Chinas, nördlich und südlich des Gelben Flusses, wurde einige Jahrtausende später (wahrscheinlich zwischen 5500 und 5300 v. Chr.) erstmals Hirse, vermutlich Kolbenhirse, angebaut. Zur Fleischgewinnung wurden in China Schweine, Hunde und Bankivahühner domestiziert. Wo der Wasserbüffel domestiziert wurde, ist unklar, vermutlich aber ebenfalls in Südchina um 4000 v. Chr. Wie der Auerochse im Nahen Osten sollte auch er insbesondere als Zugtier Bedeutung erlangen. Mittelamerika. Mais gehört zu den ältesten Kulturpflanzen Amerikas Der Beginn der Landwirtschaft in Mittelamerika hatte (anders als in der Levante und in China) praktische Gründe. So züchteten die Bewohner des Oaxacatals im Süden Mexikos bereits um 8000 v. Chr. Gartenkürbisse, um darin Wasser von den Flussläufen zu ihren bewohnten Höhlen in den Bergen zu transportieren. Ihre Nahrung beschafften sie sich dagegen weiterhin als Jäger und Sammler. Erst um 5100 v. Chr. begann im nahegelegenen Grijalvadelta die Kultivierung einer als Nahrungsmittel bestimmten Nutzpflanze: die Teosinte, die wilde Form des Maises. Knapp tausend Jahre später, 4200 v. Chr., wurde die kultivierte Teosinte auch im Oaxacatal angebaut. Im Laufe der Zeit kamen Paprika, Sonnenblumen und Gartenbohnen hinzu. Da es in der amerikanischen Fauna an Wildtieren fehlte, die eine biologische Disposition zur Domestikation hatten, wurden außer Lama, Hund und Truthahn keine Tiere als Fleischlieferanten oder Arbeitstiere domestiziert. Verbreitung der Landwirtschaft. Anderswo wurde der Ackerbau aus einer der Ursprungsregionen importiert. In erster Linie liegt das am Fehlen geeigneter Wildpflanzen- und Tierarten in diesen Regionen. So kamen die Wildformen von heute weltweit verbreiteten Nutzpflanzen wie Weizen und Gerste ursprünglich nur in Kleinasien und Syrien vor, weshalb sie nur dort domestiziert und von dort verbreitet wurden. Naher Osten und Mittelmeerraum. Die Ackerbauern der Levante hatten sich um 8000 v. Chr. etwa im Gebiet des südlichen Kleinasien (inklusive Zypern) bis zur persischen Golfküste ausgebreitet. Es begann eine konzentrische Expansion der Landwirtschaft, und zwar vermutlich durch Migration der Bauern mit den von ihnen domestizierten Pflanzen und Tieren aus der Levante sowie dem Wissen um deren Pflege, Aufzucht und Vermehrung im Gepäck. So zeigen Vergleiche der mitochondrialen DNA (mtDNA), dass die frühen indischen Bauern näher mit den Bauern der Levante verwandt waren als mit den Jägern und Sammlern in ihrer Nachbarschaft. Ähnliches gilt für Europa, welches die Ackerbauern vor etwa 9000 Jahren über die noch existierende Landbrücke am Bosporus kultivierten. Von Südosteuropa verbreiteten sie sich zunächst entlang der Mittelmeerküste sowie entlang der großen Flussläufe nach Ost- und Mitteleuropa. Neuere genetische Analysen von Y-Chromosomen europäischer Männer und Mitochondriale DNA (mtDNA) aus neolithischen Skeletten lassen keine Verwandtschaft der heutigen Mitteleuropäischen Bevölkerung mit den neolithischen Bauern erkennen. Auf Zypern züchtete man Katzen und in Sumer und Ägypten Esel zu Haustieren und fügte die Erdmandel und die Maulbeer-Feige zu den Anbaupflanzen hinzu. Die Bewohner des Indus-Tals domestizierten Sesam, die Osteuropäer dagegen Hafer und die Westeuropäer Schlafmohn. Auf der arabischen Halbinsel wurde das Dromedar und in Kasachstan das Pferd domestiziert. Afrika. Afrika, wo sich das Neolithikum wesentlich langsamer und anders entwickelte, ist ein Sonderfall. Teilweise liegen zwischen den einzelnen Merkmalen mehrere Jahrtausende, zum Beispiel zwischen der Domestizierung des Rindes und der der ersten Kulturpflanzen. Der Prozess der Neolithisierung verlief hier über mehrere Tausend Jahre, so dass er als Epochengrenze „Neolithikum“ seine Gültigkeit verliert. Aus diesem Grund wird der Begriff des „Neolithikums“ im Zusammenhang mit Afrika eher vermieden, im Gegensatz zu Mitteleuropa, wo das gesamte „Bündel“ vor etwa 7500 Jahren komplett in Erscheinung trat und deswegen als Neolithische Revolution bezeichnet wurde. In Afrika gab es bereits um 4900 v. Chr. Hirtengemeinschaften, die zunächst mit Schafen und Ziegen und später mit Rindern weitgehend nomadisch lebten. Im Afrika südlich der Sahara traten erst Anfang des zweiten vorchristlichen Jahrtausends Kulturpflanzen in Form von Perlhirse und Augenbohne auf. Es gibt Hinweise, dass die Neolithisierung Afrikas vielfach eigene Wege gegangen ist und sich zumindest teilweise autochthon vollzog. Die Keramik ist beispielsweise älter als im Vorderen Orient. Inwieweit bei den domestizierten Tieren afrikanische Vorfahren beteiligt waren, ist nicht vollkommen geklärt. Nach molekularbiologischen Untersuchungen ist auch die indigene Domestikation zumindest einiger Haustiere nicht auszuschließen. Dies gilt jedoch nicht für die Ziege, die vom vorderen Orient eingeführt wurde. Im südlichen Afrika können die ältesten Schafe und Ziegen nicht vor die Jahrtausendwende datiert werden. Dies und vorwiegend linguistische Argumente sind die Grundlage für die Annahme einer „Bantu-Wanderung“. Dafür fehlen bisher aber archäologische Belege. In Äthiopien wurden (möglicherweise sogar vor dem Eintreffen der vorderasiatischen Kulturpflanzen) Teff und Kaffee domestiziert. Ostasien und Polynesien. Mit der um ebenfalls 3000 v. Chr. einsetzenden austronesischen Expansion verbreitete sich die Landwirtschaft mit den in Südchina kultivierten Pflanzen in Südostasien und dem pazifischen Raum. Da es von der Forschung als unwahrscheinlich erachtet wird, dass es ein weiteres Domestikationszentrum zwischen Indien und Südchina gegeben hat, ist folglich China auch Ursprungsort des indischen Reises. In Neuguinea dagegen waren unter Umständen bereits vor dem Eintreffen der südchinesischen Kulturpflanzen die einheimischen Jäger und Sammler dazu übergegangen, Bananen und Zuckerrohr zu nutzen. Von Nordchina aus, wo Reis ab 3000 v. Chr. angebaut wurde, verbreitete sich die Landwirtschaft binnen eintausend Jahren nach Korea und schließlich sehr spät nach Japan. Amerika. Der mesoamerikanische Ackerbau breitete sich nordwärts aus, wo er jedoch in den Wüstengebieten des heutigen Texas ein Hindernis fand. Womöglich fand die Domestizierung von Sonnenblumen, Gänsefüßen, Maygrass (Phalaris caroliniana) und Topinambur im Osten der heutigen Vereinigten Staaten daher unbeeinflusst statt. Der Kürbis, so bewiesen Gentests, wurde in insgesamt sechs verschiedenen Regionen domestiziert. Ebenso wurden zahlreiche andere Pflanzenarten mehrfach in unterschiedlichen Regionen kultiviert. In den peruanischen Anden und dem angrenzenden Amazonasbecken wurden daher vermutlich eigenständig Maniok und Kartoffeln domestiziert und erst später durch Mais ergänzt. Ebenso wie in Mittelamerika mangelte es in Südamerika an geeigneten großen Säugetieren zur Domestikation. Einzig das Lama wurde für den Lastentransport genutzt. Zur Fleischversorgung diente Charque, getrocknetes, in Streifen geschnittenes Lamafleisch, und es wurden Meerschweinchen gehalten. Sonstige. In einigen Regionen der Erde hielt die Landwirtschaft – und damit die Jungsteinzeit – nie (d. h. mindestens bis zur europäischen Kolonialzeit) Einzug. Zum einen sind dies Wüsten- und Polar-Regionen, die sich grundsätzlich nicht zur landwirtschaftlichen Nutzung eignen. Zum anderen sind es Regionen, die erstens keine zur Domestikation geeigneten Arten in ihrer Flora und Fauna boten sowie zweitens durch Wüsten oder ähnliche unwegsame Gebiete von den Entwicklungszentren der Landwirtschaft getrennt waren und daher nicht in Besitz geeigneter kultivierter Pflanzen und Tiere kamen (wie Australien). Heute stehen nur noch wenige Naturvölker auf einer Entwicklungsstufe vor der Jungsteinzeit. Technologie und Entwicklung. Die meisten Werkzeuge aus Holz, Tierknochen oder Feuerstein waren denen aus der Alt- und Mittelsteinzeit sehr ähnlich. Neu waren Beile und Äxte, die durch Sägen und Schleifen geschärft und zur Schäftung durchbohrt wurden. Ebenfalls neu war das Auftreten gebrannter Tongefäße. In den meisten Regionen traten diese meist zur Bevorratung gebrauchten Gefäße mit oder unmittelbar nach der Entwicklung des Ackerbaus auf, in Japan dagegen aber schon weit vorher. Mit der beginnenden Sesshaftigkeit entwickelte sich auch der Hausbau weiter. Im Gebiet der Alpen baute man Hütten auf meterhohen Stützen (Pfahlbauten) an den Ufergebieten der Seen – eine Bauweise, die den periodischen Überflutungen der Seeufer angepasst war. Um die Dörfer baute man hohe Zäune (Palisaden) zum Schutz vor Tieren oder Feinden. Auch im Seengebiet des Jangtsekiang und an seinem Delta wurde auf diese Weise gebaut. In Çatalhöyük wurden meist rechteckige Häuser aus Lehmziegeln und einem Holzgerippe gebaut. Für eine sesshafte Kultur war Grundbesitz und dessen Verteidigung von großer Bedeutung; Oasenstädte wie Jericho wurden von meterhohen Mauern umgeben. Die Entwicklung der Landwirtschaft und die daraus resultierende Verbesserung der Versorgungslage führte zu einem Anstieg der Bevölkerungszahl. Gleichzeitig spezialisierten sich Teile der Gruppe auf bestimmte Tätigkeiten. Es bildete sich eine geistige und politische Führungsschicht (Priester, Stammesoberhäupter, Fürsten). Metalle. Während der Jungsteinzeit wurde auch die Metallbearbeitung entwickelt. Sie beschränkte sich aber auf gediegen (elementar) vorkommende Metalle wie Gold, Silber und Kupfer. Die ältesten Kupferfunde stammen aus Kleinasien und dem Iran und sind über 9000 Jahre alt. Aufgrund der Metallverarbeitung wird der letzte Abschnitt der Jungsteinzeit regional begrenzt als Kupfersteinzeit bezeichnet. Archäologische Kulturen. Innerhalb der Jungsteinzeit lassen sich (deutlicher als in der Altsteinzeit) archäologisch „typische“ Kulturen erkennen, die jeweils nach mehrhundertjähriger Dauer einander ablösten oder in eine neue Phase eintraten. Die archäologischen Funde und Fundsituationen weisen innerhalb von zeitlich und regional bestimmbaren Regionen Ähnlichkeiten auf und deuten die Grenzen der einheitlichen Kulturräume an. Während die Menschen der Levante nach neuesten Erkenntnissen bereits vor 13.000 Jahren Ackerbau betrieben, schließt Mitteleuropa etwa 5000 (La-Hoguette-Kultur beziehungsweise Linearbandkeramik) bis 9000 Jahre später auf. Entlang den Mittelmeerküsten wird Südeuropa und Südwesteuropa von der "Kultur mit Abdruckkeramik" (fachsprachlich italienisch "Impresso", französisch Cardial genannt) neolithisch. Die Trichterbecherkultur erreichte Südschweden und das Skagerrak. Wichtige archäologische Stätten der Mittel- und Endphase der Jungsteinzeit (vor 6500 bis 4800 Jahren) und Nachfolger der Tempel auf dem Göbekli Tepe (Anatolien vor 11.000 Jahren) sind die Megalithanlagen und Menhire in Carnac (Frankreich), in Skara Brae (Schottland), die Tempel auf Malta sowie Newgrange und Knowth in Irland. In das 8. Jahrtausend v. Chr. werden im historischen Chusistan die Fundstellen Tschogha Misch und Tschogha Bonut datiert. Der wichtigste Skelett-Fund aus der Endphase der Jungsteinzeit in Europa ist der als Ötzi bekannte „Mann vom Tisenjoch“, der vor über 5000 Jahren gelebt hatte. Seine Leiche blieb als gefriergetrocknete Mumie im Eis des Similaungletschers erhalten. Er hatte typische Gerätschaften der Jungsteinzeit wie Pfeil und Bogen bei sich und trug bereits ein Kupferbeil. Ägäis. Ohne direkte Traditionslinien stehen die neolithischen Funde auf der Kykladeninsel Saliagos. Weder lassen sich Vorläufer (z. B. in Anatolien) noch direkte Nachfolger in der bronzezeitlichen Kykladenkultur nachweisen. Donauraum ("Danubischer Raum"), Südosteuropa. Im mittleren Donauraum setzte das Neolithikum mit der Starčevo-Kultur, in Griechenland mit der Sesklo-Kultur ein. Das Mittelneolithikum prägten auch die Alföld-Linearkeramik und die Bükker Kultur in Nordungarn und der Slowakei. Das Endneolithikum war in Serbien und im Banat durch die Vinča-Kultur, in Ungarn durch die Theiß-Kultur bestimmt. Am Übergang zum Mittelneolithikum bricht auf dem Balkan und im danubischen Raum die Kontinuität der Tell-Siedlungen ab. Mitteleuropa. Hier breitet sich das Neolithikum ab 5600/5500 v. Chr. vom Donauraum her mit der gut erforschten bandkeramischen Kultur nach Norden bis an die Lössgrenze aus. Sie reichte schließlich von Moldawien bis in das Pariser Becken. Parallel dürften sich in Enklaven, besonders aber an der Peripherie, mesolithische Jäger- und Sammler gehalten haben. Der Bandkeramik folgte im westlichen Verbreitungsgebiet (etwa heutiges Deutschland) die Rössener Kultur, im Osten die Stichbandkeramik, die Oberlauterbacher Gruppe und die Münchshöfener Kultur. "Siehe auch:" Frühneolithikum, Mittelneolithikum, Jungneolithikum, Spätneolithikum, Endneolithikum Nördliches Mitteleuropa und Nordeuropa. Chronologie des Neolithikums im nördlichen Mitteleuropa und in Skandinavien nach C. J. Becker Im Norden breitet sich das Neolithikum erst zwischen 4200 und 4000 v. Chr. mit der Trichterbecherkultur aus. Sie wird in ihrer Endphase im Osten von der Kugelamphoren-Kultur überlagert. Es folgen ab 2800 v. Chr. im Westen die Glockenbecherkultur, im Osten die Schnurkeramische Kultur. Mit ihnen endet das Neolithikum in diesem Bereich. Die Trichterbecherkultur entwickelte Stufen, die durch den Dänen C. J. Becker definiert, jedoch inzwischen wissenschaftlich differenziert wurde (siehe Grafik). Kultur. Im neolithialisierenden Eurasien gehörte der Emmer zu den ältesten kultivierten Getreidearten. Seinen Ursprung hatte er im Nahen Osten, er wurde dort seit mindestens 10.000 Jahren angebaut. Es folgten die Erbsen und Linsen. Vor mindestens 8000 bis 9000 Jahren, möglicherweise auch schon früher, begann die Domestikation von Hausziegen, die somit zu den ältesten wirtschaftlich genutzten Haustieren zählen. Später kamen der Olivenbaum und der Wein und andere Tiere und Pflanzen hinzu. Diese schrittweisen Änderung der menschlichen Lebensweise aus den Jäger-und-Sammler-Kulturen hin zu Ackerbau und Viehzucht brachte nicht durchgängig eine vorteilhaftere Lebensweise. Mit dem Begriff des Sozialmetabolismus wird eine Organisationsform des stofflichen und energetischen Austausches von menschlichen Gemeinschaften mit ihrer Umwelt beschrieben, wobei aus der Perspektive des Begriffs nicht so die Betrachtung der sozialen Organisationsformen im Vordergrund stehen, sondern die des Stoffwechsels. So zeichneten sich die Jäger-und-Sammler-Kulturen durch eine unkontrollierte Nutzung der Sonnenenergie und die der Agrargesellschaften durch eine kontrollierte Nutzung der Sonnenenergie aus. Will man die Größenordnungen des sozialen Metabolismus abschätzen, ist dies für die Energieflüsse einfacher, als es für den Materialfluss möglich ist. Referenzwert ist beim Energiefluss das physiologische Minimum der basalen Stoffwechselrate, energetisch können hierfür 10 Megajoule in 24 Stunden (pro Tag) veranschlagt werden, was 3,5 Gigajoule pro Jahr entspräche. Stofflich werden, inklusive des Wasserverbrauchs, 3 kg angenommen, also etwa 1000 kg pro Jahr. Nach anfänglich starker Dynamik der sich ausbildenden neolithischen Siedlungen bildete sich dann um 3000 v. Chr. ein relativ stabiles globales Muster agrarischer Gesellschaften heraus. Aus der Beschreibung der Energie- und Stoffflüsse im Modell des Sozialmetabolismus sind zwar die Grundlagen für eine erhöhte Bevölkerungsdichte neolithischer Siedlungen und Kulturen ablesbar – aufgrund der verbesserten Nahrungssituation – nicht aber deren krisenhafte Entwicklungen. Das Spektrum der Erkrankungen änderte sich, so breiteten sich etwa die Tuberkulose, die Brucellose (Zoonosen u. a. m.) ebenso aus, wie spezifische Veränderungen am Bewegungsapparat durch einseitige und sich wiederholende körperliche Aktivitäten. Ferner traten „urbane Probleme“ wie die der Hygiene, Land- und Besitzverteilung und Sicherung, Vorratswirtschaft, Besitzsicherung, Wasserversorgung (Brunnen) usw. hinzu. Der soziale Metabolismus von Jäger-und-Sammler-Kulturen fußte darauf, dass sie sich in bestehende Solarenergieströme einschalteten, ohne diese aber zu modifizieren oder gar kontrollieren zu wollen. Ihre Grundstrategie hatte eine Reihe von Mustern zur Folge die diese Kulturen auszeichneten. Meist sind diese menschlichen Gemeinschaften als egalitär-akephale Gruppen charakterisiert. Ein Ergebnis ihrer mobilen Lebensweise, denn der Zwang zur Mobilität erbrachte keinen evolutionären Vorteil für die Ausbildung komplexer sozialer Strukturen oder der Herstellung komplexer Artefakte. Doch soll es – unterschiedliche Hypothesen werden hierzu angeboten – nicht der generelle oder spezielle Mangel gewesen sein der zur Neolithischen Revolution und den jungsteinzeitlichen Kulturen führte, sondern der relative Überfluss im Gebiet des fruchtbaren Halbmonds. Der relative Überfluss etwa an Wildgräsern, jagbaren Tieren soll die Basis der zur Viehhaltung und Erntewirtschaft führenden Siedlungen geführt haben. Der Ackerbau oder auch schon die Vorstufen in Form der Erntewirtschaft sind nicht das Resultat einer sich verschärfenden Ressourcenverknappung, sondern der relative Überfluss machte erst eine Domestikation von Tieren möglich. Wildtiere waren nur domestizierbar, wenn sie in ausreichender Zahl vorhanden sind, denn ansonsten würden die gefangenen Tiere augenblicklich verzehrt werden. Um also Tiere wie Ziegen, Schafe zu domestizieren, muss man größere Gruppen dieser Tiere kontrollieren und nicht nur Einzeltiere. Das aber ist nur möglich, wenn man nicht am Rande des Hungertodes lebte, wenn genügend Überschuss vorhanden war, um sich nicht vom direkten Erfolg der erntewirtschaftlichen und tierzähmenden Handlungen abhängig zu machen. Im Sinne des Sozialmetabolismus führte die Viehhaltung und Erntewirtschaft zu einer Zunahme der Energie– und Stoffflüsse, die die speziellen Strategien der kontrollierten Nutzung von Solarenergieströmen weiter evolutionieren ließen. Hierbei bediente sich das menschliche Kollektiv vor allem biologischer Energiekonvertoren (Ackerbaupflanzen wie den Emmer und Tieren wie den Ziegen), die über den Verlauf der Generationen zu den jeweiligen Zwecken genetisch modifiziert wurden und deren Lebensräume aktiv umgestaltet worden sind. Ferner übertrug man diese Strategie auf weitere zusätzliche dazu geeignete Pflanzen- und Tierarten. Diese Strategien nötigten den menschlichen Kulturen aber auch Änderungen in ihrer Sozialstruktur ab. Aus den weitgehend egalitär-akephalen Gruppen der Jäger-und-Sammler-Kulturen wurden über tribale Gemeinschaften und Häuptlingstümer immer zahlenstärkere menschliche Gemeinschaften mit komplexen tributären Organisationsstrukturen. Die durch die in Eurasien in den Gebieten des Fruchtbarer Halbmonds aufgrund der äußeren Bedingungen einsetzende Sesshaftwerdung brachten sukzessive Änderungen in der Sozialstruktur der menschlichen Gemeinschaften. Zwar nahm im Total die Gesamtmenge der zur Verfügung stehenden Nahrung zu (Physiologischer Brennwert), doch waren die annualen Nahrungsmittelproduktionen starken saisonalen Schwankungen ausgesetzt. Mit in der Folge zum Teil erheblichen Populationsschwankungen und Sterblichkeitsraten. Gleichzeitig konnten aber aufgrund der phasenweise verbesserten Nahrungsversorgung die Bevölkerungszahlen der menschlichen Ansiedlungen steigen. Höhere Bevölkerungszahlen ermöglichten eine horizontale Differenzierung der jungzeitlichen Gemeinschaften. Die wachsende horizontale Differenzierung ist direkt an die Bevölkerungszahlen gekoppelt, denn eine Spezialisierung setzt eine gewisse Zahl von beteiligten Menschen voraus. Eine größere Spezialisierung vergrößerte die Produktivität der jungsteinzeitlichen Kulturen, das wiederum verbesserte deren Versorgung, erhöhte den Sozialmetabolismus, den Stoff– und Energiefluss, also letztlich die Strategien der kontrollierten Nutzung von Solarenergieströmen. Dadurch konnte prinzipiell wiederum die Bevölkerung weiter wachsen, unter dem Vorbehalt, dass die frühen jungzeitlichen Kulturen von einer stärkeren Instabilität betroffen waren. Der Prozess der horizontalen Differenzierung wurde begleitet von einem Prozess der vertikalen Differenzierung, dem Herausbilden einer herrschenden Elite, etwa der Häuptlinge oder Priesterkasten. Veränderungen im Bereich der Organisation von Arbeitsteilung, Herrschaft, Siedlungsbau, Regelung von Eigentum blieben nicht ohne Auswirkungen auf spirituell-religiösen Fragen. Humberto Maturana definierte Kultur als ein Netz von Umgangsformen, die das Gefühls-Sprach-Handeln bestimmen und einen Sprach-Konsens erzeugen der über die Generationen weitergegeben wird. Das agrartechnologische Wissen, aber auch das der administrativen und spirituellen Ordnung wurde so von einer Generation zur nächsten weitergegeben. Aber auch der Austausch zwischen den einzelnen menschlichen Siedlungen fand über dieses versprachlichte Netz der Umgangsformen seinen Weg. Durch die Entwicklung von Pflanzenbau und Tierzucht kam der Idee der Fruchtbarkeit in der Vorstellung des Menschen eine noch größere Bedeutung zu. Analog zum "Säen–Reifen–Ernten" wurde die Abfolge "Geburt–Leben–Tod" in der Glaubenswelt bedeutend. Die Stellung der Frau als im frühen Ackerbau wesentliche Kraft stieg (matristische Kulturen), analog der Rolle weiblicher Fruchtbarkeitsgottheiten in der Religion. Wie in den vorausgehenden steinzeitlichen Religionen, wurden Kräfte in der umgebenden Tierwelt vermutet. Menschen-, tier- oder mischgestaltige Chimären wurden Objekte der Verehrung. Die vielfältige und abwechslungsreiche Formung und Ornamentierung von Töpferware (Keramik) lässt Archäologen einzelne Gefäße (und damit Fundplätze) einer bestimmten Kulturgruppe zuordnen. Als oft einziges verlässliches Indiz für eine Kulturstufe wird die Form oder Ornamentierung ihrer Keramik als typochronologische Leitform vielfach zur Bezeichnung für die Kultur selbst herangezogen, zum Beispiel Trichterbecherkultur, Glockenbecherkultur, Bandkeramische Kultur, Grübchenkeramische Kultur oder Schnurkeramik. Joseph Goebbels. Joseph Goebbels (* 29. Oktober 1897 in Rheydt; † 1. Mai 1945 in Berlin) war einer der einflussreichsten Politiker während der Zeit des Nationalsozialismus und einer der engsten Vertrauten Adolf Hitlers. Als Gauleiter von Berlin ab 1926 und als Reichspropagandaleiter ab 1930 hatte er wesentlichen Anteil am Aufstieg der NSDAP in der Schlussphase der Weimarer Republik. Von 1933 bis 1945 war er Reichsminister für Volksaufklärung und Propaganda und Leiter der Reichskulturkammer. Damit trug er dazu bei, Presse, Rundfunk und Film sowie den gesamten Kulturbereich mithilfe strenger Zensur- und Repressionsmaßnahmen im Sinne des Nationalsozialismus auszurichten. Durch die Verbindung von demagogischer Rhetorik, planvoll choreographierten Massenveranstaltungen und effektiver Nutzung moderner Technik für Propagandazwecke, insbesondere des Einsatzes von Film und Radio, gelang es ihm, weite Teile des deutschen Volkes für den Nationalsozialismus zu indoktrinieren sowie Juden und Kommunisten zu diffamieren. Während des Zweiten Weltkriegs zeichnete Goebbels selbst für die Wochenschau verantwortlich, die ein zentrales Medium der Inlandspropaganda darstellte. Er veröffentlichte zudem zahlreiche Leitartikel in führenden Zeitungen, die auch im Rundfunk verlesen wurden. Seine berüchtigte Sportpalastrede vom Februar 1943, in der er die Bevölkerung zum „totalen Krieg“ aufrief, steht beispielhaft für die Manipulation der Bevölkerung. Durch antisemitische Propaganda und Aktionen wie die Novemberpogrome 1938 bereitete er ideologisch die Deportation und anschließende Vernichtung von Juden und anderen Minderheiten vor und gilt damit als einer der entscheidenden Wegbereiter des Holocausts. Die umfangreichen Tagebücher, die er von 1924 bis zu seinem Suizid führte, gelten als wichtige Quelle für die Geschichte der NSDAP und des „Dritten Reiches“. Herkunft und Kindheit. Goebbels kam als dritter Sohn von "Friedrich (Fritz) Goebbels" (1867–1929) und seiner Frau "Maria Katharina geb. Odenhausen" (1869–1953) in der Rheinprovinz zur Welt. Mit seinen Geschwistern Konrad (1893–1949), Hans (1895–1947), Elisabeth (1901–1915) und Maria Katharina (1910–1949, verheiratet mit dem Drehbuchautor und Filmregisseur Max W. Kimmich und spätere Erbin von Goebbels) wuchs er in einem katholischen Elternhaus auf. Sein Vater begann als Laufbursche und stieg zum Prokuristen der "Vereinigten Dochtfabriken GmbH" auf, die etwa 50 Mitarbeiter beschäftigte. Seine Mutter, eine Halbwaise mit fünf Geschwistern, wurde im niederländischen Waubach geboren. Sie musste sich vor ihrer Heirat als Magd auf einem Bauernhof verdingen. Sie starb am 8. August 1953 in Rheydt. Goebbels’ Kindheit war durch die finanziell angespannte Situation seiner Familie geprägt. Um ihr Einkommen zu verbessern, übte die Familie verschiedene Heimarbeiten aus. Im Alter von vier Jahren erkrankte Joseph Goebbels an einer Knochenmarkentzündung, durch die sein rechter Unterschenkel verkümmerte und ein Klumpfuß entstand. Er hatte später mit circa 165 Zentimetern eine relativ kleine Körpergröße, weshalb er später im Volksmund und im Ausland offen karikiert und als Schrumpfgermane und „Humpelstilzchen“ verspottet wurde. Goebbels deutete die Krankheit rückblickend als „Zeichnung“ durch eine höhere Gewalt und suchte sie zeit seines Lebens zu kompensieren. Die Behinderung und seine in der Schulumgebung als nicht standesgemäß empfundene Herkunft stachelten seinen Ehrgeiz an. Er besuchte die städtische Oberrealschule mit Reformgymnasium (heute Hugo-Junkers-Gymnasium). Er wurde Bester in Latein, Geographie, Deutsch und Mathematik. Stolz war er auf das alte Klavier, das ihm sein Vater geschenkt hatte. Für das Schauspiel entwickelte er eine besondere Begabung. Beim Abitur im März 1917 wurden fast alle Fächer mit „sehr gut“ benotet. Für den besten Deutschaufsatz durfte er die Abschieds- und Dankesrede auf der Entlassungsfeier halten; die Rede war von seiner Kriegsbegeisterung (Erster Weltkrieg) geprägt. Goebbels’ Sprache war zeit seines Lebens beeinflusst von dem südniederfränkischen Dialekt, der nördlich der Benrather Linie in Rheydt und im heutigen Mönchengladbach gesprochen wird. Studium und Suche nach einem Beruf. Goebbels wollte nach dem Abitur als Soldat am Krieg teilnehmen, wurde jedoch wegen seiner Behinderung als für den Militärdienst ungeeignet eingestuft. Zur großen Enttäuschung seiner Eltern wollte Goebbels trotz früherer Absichten nicht Katholische Theologie studieren. Er entschied sich für Germanistik und Geschichte. Von 1917 bis 1921 studierte er an der Rheinischen Friedrich-Wilhelms-Universität Bonn, der Albert-Ludwigs-Universität Freiburg, der Julius-Maximilians-Universität Würzburg, der Ludwig-Maximilians-Universität München und der Ruprecht-Karls-Universität Heidelberg. Ein Studiendarlehen erhielt Goebbels vom Albertus-Magnus-Verein, der katholische Studenten förderte. Die Rückzahlung konnte erst 1930 gerichtlich erzwungen werden. Auf Empfehlung seines ehemaligen Religionslehrers Kaplan "Mollen" wurde Goebbels am 22. Mai 1917 Mitglied der Unitas Sigfridia zu Bonn im Verband der Wissenschaftlichen Katholischen Studentenvereine Unitas. Seine kleinbürgerliche Herkunft spielte dort keine Rolle. Im Juni 1917 wurde Goebbels zum militärischen Hilfsdienst eingezogen. 1918 folgte er seinem Freund und Mitbewohner "Karl-Heinz Kölsch" nach Freiburg. In Freiburg lernte er die Jurastudentin "Anka Stalherm" aus wohlhabendem Haus kennen. Goebbels überwarf sich aus Eifersucht mit Kölsch und dessen Schwester, mit der er vor dem Wegzug aus Bonn eine Beziehung eingegangen war. Zwischen Goebbels und Stalherm entwickelte sich ein leidenschaftliches, jedoch immer wieder von schweren Krisen erschüttertes Liebesverhältnis. Ihre Eltern lehnten den mittellosen Goebbels ab. Im September 1918 zog Goebbels mit Stalherm nach Würzburg. Mit dem Ende des Ersten Weltkrieges erlebte er eine Krise, die zu einer zunehmenden Orientierungslosigkeit führte. Goebbels begann sich vom Katholizismus zu lösen und trat aus dem Unitas-Verband aus, in dessen Vereinen er in Bonn, Freiburg und Würzburg aktiv gewesen war. Er wandte sich den Gottesvorstellungen Fjodor Dostojewskis zu und gelangte unter dem Einfluss Oswald Spenglers zum Atheismus. Er sah sich einer verwirrenden Vielzahl von Ideen gegenüber, von denen keine einen Ausweg aus dem „Chaos der Zeit“ anzubieten schien. Ihm fehlte ein klares einheitliches Weltbild, bei dem er „Ruhe und Erfüllung“ hätte finden können. Auch sah er nicht das „starke Genie“, das zu „neuen Zielen“ gewiesen hätte. Jedoch für eine „rote Revolution im Ruhrgebiet“ konnte er sich während des Kapp-Putsches begeistern. Das Sommersemester 1919 verbrachten Goebbels und Stalherm in Freiburg, im Wintersemester zogen sie nach München. Goebbels’ Versuch, ein Drama zu veröffentlichen, scheiterte an den damit verbundenen Kosten. 1920 löste sich die Verbindung zu Stalherm auf, was Goebbels mit Todesgedanken erfüllte. Kurz nach seiner Promotion wurde die Lehrerin Else Janke seine neue Freundin, Tochter einer jüdischen Mutter und eines christlichen Vaters. Sie unterstützte ihn seelisch und materiell und ließ sich auch von den zahlreichen Zerwürfnissen nicht beirren. Goebbels hätte sie geheiratet, wenn sie nicht in seiner antisemitischen Sichtweise „Halbblüter“ gewesen wäre. Ende 1926 beendete er die Verbindung, als er Gauleiter von Berlin wurde. Goebbels wollte ursprünglich eine Dissertation bei dem von ihm verehrten jüdischen Literaturwissenschaftler Friedrich Gundolf schreiben, der verwies ihn jedoch an den ebenfalls jüdischen Max Freiherrn von Waldberg. Am 21. April 1922 wurde er in Heidelberg über „Wilhelm von Schütz als Dramatiker“ zum Dr. phil. promoviert. Trotz seines frisch erworbenen Doktorats sah Goebbels sich in einer Außenseiterposition. Seine literarischen Versuche fanden bei Verlagen und Zeitungen keine Beachtung. Auch als Journalist konnte er trotz erfolgreicher erster Schritte nicht Fuß fassen. Anfang 1923 musste Goebbels gegen seine Überzeugungen eine durch energische Bemühungen von Else Janke erhaltene Stelle bei der Dresdner Bank in Köln annehmen. Für ihn war dies ein „Tempel des Materialismus“, weshalb er diese verhasste Tätigkeit nach wenigen Monaten auslaufen ließ und wieder arbeitslos war. Aufstieg. Trotz seiner (schulischen) Bestleistungen und Begabungen gehörte Goebbels nie zum Establishment. Verzweiflung und Not mündeten in einen grenzenlosen Hass auf die „Gesellschaft“. Den Schuldigen sah er im seelenlosen Materialismus und im Judentum. Hinwendung zum Nationalsozialismus. Eine erste politische Heimat fand Goebbels, als er im August 1924 nach Weimar zum Gründungskongress der Nationalsozialistischen Freiheitsbewegung Großdeutschlands reiste, in der sich die verschiedenen Nachfolgeorganisationen der verbotenen NSDAP zusammenfanden. Der Parteivorsitzende Erich Ludendorff gab ihm „den letzten festen Glauben“. Hier traf er seinen zukünftigen Mentor Gregor Strasser. Unmittelbar darauf wurde Goebbels zu einem der Gründer einer Ortsgruppe Gladbach dieser Partei und begann seine Karriere als Redner und Journalist. Im Oktober 1924 wurde er Redakteur ihres Elberfelder Gaukampfblattes "Völkische Freiheit". In einem Jahr trat er 189 Mal als Redner auf. Er beteiligte sich an einer Intrige, die seinen Vorgesetzten, den Gauleiter Axel Ripke, im August 1925 zum Rücktritt nötigte. Im selben Monat wurde er Redakteur der von Gregor Strasser herausgegebenen "Nationalsozialistischen Briefe". Jetzt erhielt er auch ein monatliches Gehalt von 150 Mark. Begegnung mit Hitler. Zwiespältig war in dieser Zeit Goebbels’ Einstellung zu Hitler. Zwar feierte er ihn in Artikeln, war auch begeistert von "Mein Kampf," aber einige ideologische Unterschiede, zumal hinsichtlich des Sozialismus, nahm er dennoch wahr. Als sie sich am 6. November 1925 in Braunschweig begegneten, faszinierte ihn die Person Hitlers. „Alles hat dieser Mann, um König zu sein. Der geborene Volkstribun. Der kommende Diktator.“ Kurz darauf, am 22. November 1925, gründete Gregor Strasser eine „Arbeitsgemeinschaft Nordwest“ – mit Hitlers Genehmigung. Goebbels war federführend bei der Ausarbeitung eines Programms. Es wich deutlich von Hitlers Vorstellungen ab. Um Strasser und Goebbels auf seine Linie zu bringen, berief Hitler für den 14. Februar 1926 eine „Führertagung“ nach Bamberg ein. Hitlers Rede war für Goebbels eine große Enttäuschung: Er war erschüttert, dass Hitler in dem von ihm verehrten „heiligen Russland“ ein riesiges deutsches Siedlungsgebiet einrichten wollte. Dass die deutschen Fürsten nicht entschädigungslos enteignet werden sollten, lief seinen sozialistischen Überzeugungen zuwider. Ohne Widerspruch geäußert zu haben, fuhr er niedergeschlagen zurück: „Wohl eine der größten Enttäuschungen meines Lebens. Ich glaube nicht mehr restlos an Hitler. Das ist das Furchtbare: Mir ist der innere Halt genommen. Ich bin nur noch halb.“ Hitler plante sorgfältig, wie er Goebbels auf seine Seite ziehen könnte. Im April 1926 lud er ihn sowie Karl Kaufmann und Franz Pfeffer von Salomon, die beiden anderen Leiter des „Gaus Ruhr“, nach München ein. Hitler zeigte sich „beschämend gut“ und konnte so Goebbels entwaffnen. Am Folgetag war eine Diskussion um das Programm nicht mehr nötig, Goebbels war von vornherein überzeugt: „Er antwortet glänzend. Ich liebe ihn. Soziale Frage. Ganz neue Einblicke. Er hat alles durchdacht. […] Ich beuge mich dem Größeren, dem politischen Genie.“ Trotz seiner „Bekehrung“ gab Goebbels seine früheren Überzeugungen nur zögernd und unvollkommen auf – die ideologische Anpassung wurde ein wechselvoller Prozess. Opfer und Erlösung. Dem jungen Goebbels waren Opfer- und Todesgedanken nicht fremd. Einen Niederschlag fanden sie in seinem Roman "." Der Held Michael Voormann ist eine Zusammenschau eines verunglückten Freundes mit einem Idealbild des Autors. Voormann geht den Weg vom Soldaten über den Studenten zum Bergmann. Die anderen Bergleute lehnen ihn zuerst ab, bis es zur Verbrüderung kommt, in der Voormann seine „Erlösung“ findet. Dann aber wird er in einem Grubenunglück zum „Opfer“, und mit diesem erlöst er auch die anderen. Hier geht es also um das Motiv des erlösenden Selbstopfers. Die Anklänge an Goebbels’ katholische Vergangenheit sind offensichtlich. In seinen Schriften des Jahres 1925 wurden diese Vorstellungen in vielfältiger und auch widersprüchlicher Weise ausgebaut. Goebbels forderte von seinen Anhängern eine tiefgreifende Wandlung und die Bereitschaft zum Opfer. Dieses Opfer sollte dann die Macht des Kapitalismus und damit auch des Judentums brechen. So würde der Klassenkampf beendet und der Weg in ein künftiges ideales Deutschland frei werden, für das er den beziehungsreichen Begriff „Drittes Reich“ übernahm. Das „heilige Russland“. Goebbels war von einer schwärmerischen Liebe zu Russland erfüllt. Das bolschewistische System hielt er für nur vorübergehend. Dann aber würde Russland vorangehen auf dem Weg zu einem idealen Sozialismus. Dieser würde auch einen neuen, den „kommenden", Menschen erschaffen. Dieses Geschehen sollte in einer engen Wechselwirkung mit Deutschland ablaufen, möglicherweise auch in einer kriegerischen Auseinandersetzung. Aber nicht um Land oder Macht sollte gekämpft werden, sondern „um die letzte Daseinsform“. Nach der Konfrontation mit Hitler verschwand dieses bislang so häufige Thema aus seinen Artikeln und aus seinem Tagebuch. Als Gauleiter übernahm Goebbels dann vorübergehend Hitlers Linie. Aber bereits 1929 wollte er Deutschlands Expansion in überseeischen Kolonien sehen, nicht in Russland. Als Propagandaminister folgte er wiederum Hitler, doch vor Beginn des Deutsch-Sowjetischen Krieges im Jahr 1941 erwartete er dort wiederum den „echten Sozialismus“, und in den letzten Kriegsjahren drang er ständig auf eine humanere Besatzungspolitik. Sozialismus. Der junge Goebbels verstand sich als Sozialist. Er verherrlichte den Arbeiter und wollte sich innerlich mit ihm verbunden fühlen. Sein Abscheu galt dem „Bourgeois“: Dies war nicht nur der Kapitalist, sondern auch der Kleinbürger. An Kommunisten gefiel ihm ihr revolutionärer Eifer und der Hass auf das Bürgertum. Sozialdemokratie und Liberalismus waren die gemeinsamen Gegner. Trennend war für ihn die internationale Ausrichtung des Kommunismus, während er selbst einen „nationalen Sozialismus“ zu errichten gedachte. Als er 1926 Gauleiter in Berlin wurde, sah er jedoch in den Kommunisten erbitterte Gegner. Dies blieb aber nicht seine Position, 1929 wollte er das Privateigentum erhalten sehen, allenfalls bei Bodenspekulation und Warenhäusern eine Ausnahme machen. Und als er als Propagandaminister Rundfunk, Presse und Film beherrschte, sah er darin den „wahren Sozialismus“ – an eine Streuung des Eigentums dachte er nun nicht mehr. Antisemitismus. Goebbels’ Verhältnis zu Juden war in seinen frühen Jahren widersprüchlich. Jüdische Personen konnten ihn beeindrucken, so der Heidelberger Germanist Friedrich Gundolf. Mehrere Jahre hielt er an seiner „halbjüdischen“ Freundin Else Janke fest. Sein Antisemitismus war nicht wie der Hitlers vorwiegend rassistisch bestimmt. In einer „guten Rassenmischung“ sah er einen der Vorzüge des betriebsamen Rheinländers. Bei einer Reise nach Schweden fand er die dortige „blonde Rasse“ verächtlich; „nach außen Germanen, nach innen Halbjuden“. Vielmehr waren die Quellen seines Antisemitismus nationalistisch und antikapitalistisch. Die Juden als „landfremde Elemente“ seien nicht völkisch gesinnt und würden Deutschland feindlichen, überstaatlichen Mächten ausliefern. Vor allem aber seien sie mit dem Geld verbunden. „Das Geld ist die Kraft des Bösen und der Jude ist sein Trabant.“ Ebenso verhasst waren ihm aber die nichtjüdischen Vertreter der nationalen Rechten. Mit den Sklavenhaltern meinte Goebbels die Juden, die jedoch ihre nichtjüdischen Bundesgenossen im bürgerlichen Lager fanden. Mit der Beseitigung der Juden allein war der Klassenkampf also nicht gewonnen. Organisation des Gaus. Hitler ernannte Goebbels am 9. November 1926 zum Gauleiter von Berlin-Brandenburg. Die Berliner NSDAP war desorganisiert, ihre Anhänger zerstritten und der Einfluss in der Stadt gering. Goebbels konnte sich rasch durchsetzen. Er nutzte seine besonderen Vollmachten, ließ Widersacher und Unschlüssige ziehen oder schloss sie aus der Partei aus. Mit 200 überzeugten und gefügigen Anhängern gründete er innerhalb der Partei einen „Nationalsozialistischen Freiheitsbund“, dessen Mitglieder zu „Spezialaufgaben“ und zu finanziellen Opfern bereit waren. In Berlin schuf Goebbels eine straffe Gauorganisation: Die Stadt wurde in Sektionen aufgeteilt, deren Führer er selbst ernannte. Zum 1. Juli 1928 wurden diese weiter in „Straßenzellen“ unterteilt, ein „Zellen-Obmann“ sollte höchstens 50 Parteigenossen betreuen. 1930 richtete er zur Durchdringung der Betriebe „Gaubetriebszellen“ ein – das war eine Übernahme von den Kommunisten. 1931 wurde dies zum Vorbild für die übrigen Gaue. Die Mitgliederzahl der Berliner NSDAP wuchs rasch an. So konnte 1927 die bescheidene Parteizentrale in der Potsdamer Straße 100 aufgegeben werden. Zunächst traten vier Zimmer in der Lützowstraße 44 an ihre Stelle, dann 1928 eine großzügig möblierte Etage in der Hedemannstraße 100 mit 25 Räumen. Den Leiter der Berliner SA Kurt Daluege konnte er hinter sich bringen und zu seinem Stellvertreter machen. Er ermunterte ihn zu einem raschen Ausbau der SA, die damals wegen eines Verbotes als „Sportabteilung“ getarnt war. Damit schuf er sich ein williges Instrument für Saal- und Straßenschlachten, das meist gegen den zunächst weit überlegenen kommunistischen „Roten Frontkämpferbund“ eingesetzt wurde. Es gelang ihm jedoch nicht, sich in gleicher Weise außerhalb der Stadtgrenzen durchzusetzen, zumal die SA in Brandenburg sich ihm nicht fügen wollte. Deshalb wurde 1929 ein eigener Gau „Brandenburg“ gebildet, während Goebbels der Gau „Groß-Berlin“ verblieb. 1930 und 1931 rebellierte die ostdeutsche SA unter Walter Stennes gegen die NSDAP. Beide Male musste Goebbels Hitler zu Hilfe rufen, um die SA wieder zur Unterordnung zu bringen. Kampf gegen die Demokratie. Zunächst ging es Goebbels darum, die wenig beachtete NSDAP in die Schlagzeilen zu bringen. Hierzu war ihm jedes legale und illegale Mittel recht: Aufmärsche, weithin plakatierte Versammlungen, Saal- und Straßenschlachten sowie Ausschreitungen gegen Juden. Auch die von ihm immer wieder provozierten Prozesse nutzte er zur Propaganda. Straßen- und Saalschlachten. Schon im Juni 1926 hatte Goebbels geschrieben: „Der Machtstaat beginnt auf der Straße. Wer die Straße erobern kann, kann auch einmal den Staat erobern.“ Hierbei wollte er „Terror und Brutalität“ einsetzen und so den „Staat […] stürzen.“ Dieses Programm wurde in Berlin zur blutigen Realität. Die früher bisweilen mit Sympathie betrachteten Kommunisten wurden jetzt zu seinen erbittert bekämpften Gegnern. Für den 11. Februar 1927 setzte Goebbels eine Veranstaltung im „roten“ Arbeiterbezirk Wedding an – eine bewusste Provokation. Die Ankündigungen, riesige grell rote Plakate, imitierten die der Kommunisten. Schon vor Goebbels’ Rede begann die erwartete Saalschlacht; die Polizei musste die Kommunisten schützen. Die verletzten SA-Männer, die auf der Bühne aufgereiht wurden, feierte Goebbels als „Opfer kommunistischen Terrors“. Wenn er vom „unbekannten SA-Mann“ sprach, wurde dieser zum Opfer für eine höhere Sache, wie der Soldat im Krieg. Die bürgerliche Presse brachte das Vorkommnis in großer Aufmachung – die NS-Bewegung wurde jetzt wahrgenommen. 400 neue Mitglieder gewann die Partei im März, jetzt waren es 3.000. Sich selbst hatte Goebbels als glänzenden Propagandisten präsentiert, als mutig und unerschrocken. Damit hatte er seine Stellung als Gauleiter gefestigt. Bei einer Veranstaltung am 4. Mai 1927 wurde ein Pfarrer, der Goebbels entgegentrat, von SA-Männern krankenhausreif geschlagen. Der Polizeipräsident von Berlin verbot daraufhin die NSDAP in Berlin mit allen Unterorganisationen. Das wurde mit Tarnorganisationen unterlaufen. Allerdings fielen Einnahmen weg, und es zeigten sich Auflösungserscheinungen. Unangenehm war auch das gleichzeitig ausgesprochene Redeverbot für Goebbels. In einer von ihm gegründeten „Schule für Politik“ konnte er es wenigstens vor seinen Anhängern umgehen. Jedoch außerhalb von Berlin konnte er unverändert auftreten. Das Redeverbot fiel im Oktober 1927, das Parteiverbot wegen der bevorstehenden Reichstagswahlen im März 1928. Seit dem Blutmai 1929 kam es immer häufiger zu Zusammenstößen zwischen Kommunisten und SA, von beiden Seiten propagandistisch geschürt. Goebbels nannte seine Gegner „brüllende, tobende Untermenschen“, „giftspuckende Tiere“, die „ausgemerzt“ und „vertilgt“ werden müssten. Im September 1929 wurde bei einem Straßenkampf auf ihn geschossen, die Kugel traf jedoch seinen Fahrer. Im Dezember 1930 kam der amerikanische Film "Im Westen nichts Neues" nach dem gleichnamigen Roman Erich Maria Remarques in die Kinos. Von der Rechten wurde er heftig angefeindet, weil er Sinnlosigkeit und Schrecken des Krieges zeigte. Die Vorführung ließ Goebbels von 150 Anhängern sprengen. Diese randalierten, ohrfeigten tatsächliche oder vermeintliche Juden, warfen Stinkbomben und ließen weiße Mäuse frei. Die Polizei räumte den Saal. An den Folgetagen veranlasste er Protestdemonstrationen, die zu Straßenschlachten mit der Polizei ausarteten. Der Film wurde schließlich wegen „Gefährdung des deutschen Ansehens“ verboten. Goebbels sah dies als seinen großen Erfolg an. Judenfeindschaft. Noch kurz bevor Goebbels im Oktober 1926 nach Berlin ging, wollte er kein „Radauantisemit“ sein. Als Gauleiter war er jedoch genau das. Die Juden waren für ihn Volksfeinde und Bazillen, denn sie missbräuchten ihr „Gastrecht“, beuteten das deutsche Volk mit Betrug und Korruption aus, vor allem aber verkörperten sie den Kapitalismus und die verhasste Weimarer Republik. Dem deutschen Volk bleibe nur Notwehr gegen den Wahn des Goldes. Auch in der Kultur sah er den zerstörerischen Einfluss der Juden, konnte sich aber dennoch für einzelne jüdische Persönlichkeiten wie die Schauspielerin Elisabeth Bergner begeistern. Ein rabiater und publikumswirksamer Antisemitismus wurde ihm zu einer wirksamen Propagandawaffe. So nutzte er offene oder latente judenfeindliche Strömungen in der Bevölkerung. Vor allem bot er einfache Erklärungen für komplizierte Sachverhalte an. Ständiges Ziel von Goebbels’ Anwürfen war der jüdische Vizepräsident der Berliner Polizei, Bernhard Weiß. Seit dem Parteiverbot, das die von Weiß geleitete politische Polizei veranlasst hatte, belegte Goebbels ihn mit dem Spitznamen „Isidor“ und verhöhnte ihn in Reden und Artikeln. Besonders wirksam waren die Karikaturen in seiner Wochenzeitung "Der Angriff." In Goebbels’ Propaganda wurde Weiß zum Repräsentanten der Weimarer Republik, die er damit als unterdrückend und von Juden beherrscht darstellen konnte. Schon am 20. März 1927 ließ Goebbels seine SA-Männer Juden verprügeln. Weit schwerere Ausschreitungen gab es am Abend des jüdischen Neujahrsfestes, am 12. September 1931, als Gruppen nicht uniformierter Jugendlicher auf dem Kurfürstendamm auf Passanten jüdischen Aussehens einschlugen. Dirigiert wurde der Kurfürstendamm-Krawall von 1931 vom Führer der Berliner SA, Wolf-Heinrich Graf von Helldorff. 27 Krawallmacher wurden zu Gefängnisstrafen verurteilt, Helldorff kam mit einer Geldbuße davon, Goebbels konnte eine Anstiftung nicht nachgewiesen werden. Prozesse. Seine Aktionen und Beleidigungen trugen Goebbels zahlreiche Prozesse ein. Im Februar 1928 musste er sich wegen des im Mai des Vorjahres zusammengeschlagenen Pfarrers verantworten. Zunächst wurde er zu sechs Wochen Gefängnis verurteilt. In zweiter Instanz wurde dies auf 600 RM Geldstrafe abgemildert, er weigerte sich aber zu zahlen. Im April 1928 wurde er wegen Beleidigung gegenüber Weiß zu drei Wochen Gefängnis verurteilt. Der Strafe konnte er sich entziehen, denn seit der Reichstagswahl 1928 war er Reichstagsabgeordneter und genoss damit politische Immunität. Im Dezember 1929 warf er dem Reichspräsidenten Paul von Hindenburg Verrat am deutschen Volk vor. Dafür musste er sich im Mai 1930 vor Gericht verantworten. Er erhielt seine Vorwürfe aufrecht, unter Ovationen von der Zuschauertribüne. Verurteilt wurde er lediglich zu 800 RM Geldstrafe. Vor dem Berufungsverfahren am 14. August 1930 erklärte Hindenburg, Goebbels habe ihn persönlich nicht beleidigen wollen, an einer Bestrafung habe er kein Interesse mehr. Zwei Tage zuvor hatte Goebbels in Hannover vor Gericht gestanden, behauptet zu haben, der preußische Ministerpräsident Otto Braun sei von einem „galizischen Juden“ bestochen worden. Goebbels inszenierte seinen Auftritt: Mit einem Aufmarsch von Nationalsozialisten ließ er sich zum Gericht begleiten. Er erklärte, nicht Braun, sondern den früheren Reichskanzler Gustav Bauer gemeint zu haben, und wurde freigesprochen. Am 29. September 1930 sollte gegen Goebbels wegen sechs Beleidigungsklagen verhandelt werden. Mehrfach beantragte er Aufschub, aus unterschiedlichen Gründen. Schließlich ordnete das Gericht die Zwangsvorführung an. Goebbels versteckte sich. Am Tage der Reichstagseröffnung ließ er sich zum Reichstagsgebäude bringen und entging knapp der Verhaftung. Damit stand er wieder unter dem Schutz der Immunität. Seit im Februar 1931 die Aufhebung der Immunität erleichtert worden war, häuften sich die Prozesse. Am 14. April wurde er wegen Beleidigung von Weiß zu 1.500 RM Geldstrafe verurteilt. Weil er in dem Verfahren, das der aus dem Magdeburger Justizskandal bekannte Kriminalbeamte Otto Busdorf gegen Goebbels wegen Verleumdung angestrengt hatte, nicht zum Termin in Berlin erschienen war, wurde er in München verhaftet und am 29. April in Berlin zwangsweise vorgeführt. In acht verschiedenen Sachen wurden ihm insgesamt 1.500 RM Strafe aufgelastet; am 1. Mai weitere 1.000 RM, Mitte Mai kamen weitere 500 RM und zwei Monate Gefängnis hinzu. Goebbels flüchtete sich in Ratenzahlungen, schließlich wurden ihm aufgrund einer Amnestie große Beträge erlassen. Auch die Haftstrafe musste er nicht antreten. Die Prozesse schlachtete er propagandistisch aus: Er stellte die Justiz der Weimarer Republik als ohnmächtig, lächerlich oder unterdrückend dar, sich selbst stilisierte er zum Märtyrer. Reichstagsabgeordneter. Goebbels führte sich am 10. Juli mit einer Schmährede ein. Er erhielt einen Verweis des Reichstags-Vizepräsidenten und das gewünschte Presseecho. Sonst kümmerte er sich wenig um das Parlament, erst nach fast neun Monaten ergriff er wieder das Wort. Der Angriff. Goebbels gab seit dem Juli 1927 auch die Wochenzeitung "Der Angriff" heraus, die ihm in der Zeit des Parteiverbots als Sprachrohr und als illegale Gauzentrale diente. Zudem bot dieses „Kampfblatt“ ein willkommenes Forum für ihn selbst: Wöchentlich schrieb er einen Leitartikel und ein „Politisches Tagebuch“, in welchem er die Geschehnisse der vergangenen Woche kommentierte. Der Stil des Blattes war einfach, volkstümlich und mitreißend. Karikaturen des Zeichners Hans Herbert Schweitzer mit dem Pseudonym Mjölnir dienten als Blickfang. Sie verherrlichten die Kämpfer der SA und verhöhnten die politischen Gegner. Zunächst hatte das neue Blatt keinen leichten Stand. Es gab bereits die Tageszeitung der Partei, den in München erscheinenden "Völkischen Beobachter", sowie das offizielle Gaublatt, die von den Brüdern Otto und Gregor Strasser herausgegebene nationalsozialistische Wochenzeitung "Berliner Arbeiterzeitung". Gegen diese ging Goebbels offensiv vor, versorgte sie nicht mehr mit den Mitteilungen des Gaus und schreckte auch nicht vor tätlichen Angriffen gegen die Verteiler zurück. Die finanzielle Situation blieb jedoch angespannt. Im Oktober 1927 wurden nur 4.500 Exemplare verkauft. Beunruhigt war er über die Pläne der Brüder Strasser, in Berlin eine Tageszeitung herauszugeben ‒ genau dasselbe hatte er mit dem "Angriff" vor. Aber hierfür benötigte er Hitlers finanzielle Unterstützung, an dessen Führungsqualitäten er zu zweifeln begann. Im Januar 1930 notierte er: „Hitler trifft wie gewöhnlich wieder keine Entscheidung. Es ist zum Kotzen mit ihm. […] Hitler selbst arbeitet zu wenig. So geht das nicht weiter. Und hat nicht den Mut, Entscheidungen zu fällen. Er führt nicht mehr.“ Als Goebbels Ende Januar 1930 bei Hitler in München war, bemühte sich dieser sehr um ihn und versprach ihm sogar die Reichspropagandaleitung der NSDAP. Getröstet fuhr Goebbels zurück. Als dann im März 1930 tatsächlich die Zeitung der Strasser-Brüder herauskam, war Goebbels voller Groll: „Hitler hat in dieser Sache allein schon 4 Mal sein Wort gebrochen. Ich glaube ihm gar nichts mehr. […] Wie soll das erst mal werden, wenn der in Deutschland den Diktator spielen muss?“ Als Gauleiter und als Redner auf Massenveranstaltungen blieb Goebbels unverändert aktiv. Am 27. April 1930 ernannte Hitler Goebbels zum Reichspropagandaleiter. Jetzt war Goebbels’ Unmut geschwunden. Wiederum war er in Hitlers Bann. Diese Krise fand nur im Tagebuch ihren Niederschlag. Nach außen verbarg Goebbels sie sorgfältig: Mit unveränderter Energie agierte er als Gauleiter, schrieb Leitartikel und trat als Redner auf. Dies war nicht das letzte Mal, dass Goebbels sein Verhältnis zu Hitler als krisenhaft wahrnahm. Ab Oktober 1929 konnte "Der Angriff" zwei Mal je Woche erscheinen, schließlich erschien er ab dem 1. November 1930 als tägliche Abendzeitung. Im März 1930 erreichte die Auflage 80.000, der Höhepunkt wurde im Juli 1932 mit 110.000 Exemplaren erreicht. Das war der zweite Rang unter den NS-Blättern nach dem "Völkischen Beobachter". Dennoch gab es immer wieder Geldprobleme. Dazu trugen auch die häufigen Verbote der Zeitung bei – allein zwischen November 1930 und August 1932 13 Mal; für insgesamt 19 Wochen fiel das Blatt aus. Goebbels war 1932 Vorsitzender des Reichsverbandes Deutscher Rundfunkteilnehmer e. V. (R. D. R.) und publizierte in dessen Zeitschrift "Der Deutsche Sender". Am 2. November 1932 nannte er in dem Blatt das Radio eine „revolutionäre Waffe der neuen Zeit“, die „unsere Volksgenossen von früh bis spät […] begleitet und führt“. Horst Wessel. Für Goebbels wurden die im Straßenkampf zu Tode Gekommenen zu Märtyrern. Besonders eignete sich hierfür der nach einem kommunistischen Mordanschlag am 23. Februar 1930 gestorbene Horst Wessel. Goebbels konnte in ihm seinen Romanheld Michael Voormann wiederfinden: Beiden gemeinsam war der Weg vom Soldaten über den Studenten zum Arbeiter und der frühe Tod. In diesem Sinn gestaltete Goebbels auch seine öffentlichen Reden. In seinem Nachruf erklärte er Wessel für unsterblich: „[…] sein Geist stieg in uns auf, um mit uns allen weiterzuleben. Er hat es selbst geglaubt und gewusst; er gab dem hinreichenden Ausdruck: er ‚marschiert in unseren Reihen mit!‘." Eine Woche später stilisierte Goebbels ihn zur Christus-Figur und zur Verkörperung Deutschlands: „Er hat den Kelch der Schmerzen bis zur Neige ausgetrunken. […] Deutschland hat gekämpft und gelitten, geduldet und gedarbt und ist dann, geschmäht und angespuckt, den schweren Tod gestorben. Es steht ein anderes Deutschland auf. Ein junges, ein neues! […] Über die Gräber vorwärts! Am Ende liegt Deutschland!“ ‒ Diese Verknüpfung von Opfer und Wiederauferstehung wurde zum Vorbild für nationalsozialistische Trauerfeiern, etwa als am 8. und 9. November 1935 die Särge der Toten des Hitlerputsches in einen „Ehrentempel” in München überführt wurden. Propagandaleiter und Wahlkämpfe. Goebbels (vorn) mit Hermann Göring, Aufnahme aus dem Jahr 1930 Als "Reichspropagandaleiter" war Goebbels ab dem 27. April 1930 zuständig für die Propaganda der Partei, ihre Wahlkämpfe und Großveranstaltungen, nicht jedoch für ihre Presse. Der Rundfunk kam im August 1932 dazu, der Film vorübergehend ab Juli 1931. ‒ In den Gauen wurden Gaupropagandaleitungen eingerichtet. Zahlreiche Schriften der Reichspropagandaleitung sollten die Parteipropaganda vereinheitlichen. Wichtigste Aufgabe im neuen Amt waren die Wahlkämpfe. Bereits für den 14. September stand die Reichstagswahl 1930 an. Goebbels’ Parole war „Arbeit und Brot“ – aufgrund der Wirtschaftskrise herrschte Massenarbeitslosigkeit. Wahlkampfthema sollte der Young-Plan, also die Regelung der Reparationen, sein. Sie zu leisten wurde als Erfüllungspolitik bezeichnet, die republikanischen Parteien damit als Gehilfen der früheren Kriegsgegner verunglimpft. Die Kampagne sollte „in einem atemberaubenden Tempo“ ablaufen. Sich selbst schonte er dabei nicht. Der Höhepunkt war Hitlers mitreißende Rede am 14. September im Berliner Sportpalast. Der Wahlerfolg war überwältigend: Die NSDAP wurde mit 107 Abgeordneten die zweitstärkste Fraktion nach der SPD. Gewonnen hatten auch die Kommunisten, behauptet hatten sich Zentrum und Bayernpartei, stark verloren die übrigen bürgerlichen Parteien. Nach langem Drängen Goebbels’ entschloss sich Hitler im Februar 1932, als Kandidat für das Amt des Reichspräsidenten gegen Hindenburg anzutreten. Goebbels begann den Wahlkampf damit, dass er im Reichstag Hindenburg beleidigte und daraufhin ausgeschlossen wurde. Er schwenkte rasch um: Sein Wahlkampf sollte weniger dem Kandidaten Hindenburg als vielmehr dem „System“, also der Weimarer Republik, gelten. Als Gegenbild wurde Hitler aufgebaut, überhöht im Sinne eines "Hitler-Mythos". Goebbels setzte auf die Medien: Es wurden eine halbe Million Plakate geklebt. Neu waren auch eine kleine Schallplatte, die in einer Auflage von 50.000 hergestellt wurde, sowie ein zehnminütiger Tonfilm. Das Wahlergebnis am 13. März fand Goebbels enttäuschend: Hitler war mit 30 % der Stimmen Zweiter geworden. Hindenburg hatte die absolute Mehrheit knapp verfehlt. So wurde eine Stichwahl am 10. April erforderlich. Nochmals steigerte Goebbels die Mittel: 800.000 Exemplare des "Völkischen Beobachters" wurden verteilt. Er mietete in der Woche vor der Wahl ein Flugzeug, so dass Hitler jeden Tag in drei bis vier Städten auftreten konnte. „Hitler über Deutschland“ wurde dieser Triumphzug vieldeutig genannt. Hitler gewann nochmals zwei Millionen Stimmen hinzu, blieb aber Zweiter. Der Wahlkampf ging weiter: Am 24. April wurden in Preußen und anderen Ländern die Landtage gewählt. Goebbels forderte den Reichskanzler Heinrich Brüning zu einem Rededuell im Berliner Sportpalast auf, was dieser verweigerte. In der Veranstaltung ließ er daraufhin eine Rede Brünings abspielen und konnte diese dann unter dem Jubel seiner Anhänger genüsslich widerlegen. Am 31. Juli 1932 musste der Reichstag neu gewählt werden, nachdem Brüning zurückgetreten war und jetzt Franz von Papen amtierte. Im Mittelpunkt der Polemik standen die jetzt nahezu bürgerkriegsähnlichen Zustände, zumal der Altonaer Blutsonntag mit 18 Toten. Erst Hitler würde zum „nationalsozialistischen Erwachen“ führen. Goebbels konnte seine erste Rundfunkrede halten. Diese Wahl brachte der NSDAP nochmals einen Zuwachs, jetzt hatte sie mit 230 Abgeordneten die mit Abstand stärkste Fraktion. Goebbels wähnte sich bereits am Ziel: „Wir werden die Macht niemals wieder aufgeben, man muß uns als Leichen heraustragen.“ Aber Hindenburg wollte einem Hitler die Macht damals nicht übergeben. Die Partei stürzte in eine tiefe Krise. Der Reichstag wurde schon am 12. September 1932 wieder aufgelöst. Neuwahlen wurden für den 6. November 1932 angesetzt. Papen wurde zum Hauptgegner der nationalsozialistischen Wahlpropaganda, daneben die SPD. Diese Wahlen brachten den Nationalsozialisten einen Rückschlag. Jetzt hatten sie nur noch 196 Abgeordnete, stellten aber immer noch die weitaus stärkste Fraktion. Goebbels sah als Ursache, dass die Arbeiterschaft zu wenig angesprochen worden sei. Am 15. Januar 1933 wurde in Lippe, einem kleinen Land mit nur 100.000 Wahlberechtigten, der Landtag gewählt. Die NSDAP wollte jetzt zeigen, dass die Schlappe vom vorigen November auszuwetzen war. Deshalb wurde mit einem riesigen Aufwand und Einsatz der besten Redner das Land mit einem „Wahltrommelfeuer“ überzogen. Zwar konnte die NSDAP das Ergebnis vom November übertreffen, aber nicht das vom Juli 1932 erreichen. Dennoch wurde dies in der Parteipresse als Sieg dargestellt. Als Reichspropagandaleiter zeigte Goebbels seinen Erfindungsreichtum und seine Fähigkeit zur Organisation. Konsequent nutzte er alle ihm verfügbaren technischen Möglichkeiten. Er setzte nicht nur sich selbst bis zum Letzten ein, sondern konnte auch den Parteiapparat zu Höchstleistungen bewegen. Seine Programmaussagen waren wenig konkret, wichtiger war die Abwertung der politischen Gegner. Konsequent wurde die Person Hitlers in den Mittelpunkt gerückt. Goebbels war zwar nicht der Schöpfer des „Hitler-Mythos“, aber es gelang ihm, diesem zu weitreichender Wirkung zu verhelfen. Der Weg an die Macht. Schon nach der Wahl im Juli 1932 hatte Hitler Goebbels ein Ministerium für den gesamten Erziehungs- und Kulturbereich zugesagt. Als Hitler dann am 30. Januar 1933 zum Reichskanzler ernannt wurde, hatte Goebbels das erreicht, wofür er viele Jahre gekämpft hatte. Jetzt erwartete er, Kultusminister zu werden. Aber dann schien er nur als „Rundfunkkommissar“ vorgesehen zu sein. „Ekelhaft. Man will mich in die Ecke quetschen.“ So schrieb er es in sein Tagebuch. Auch ein Gespräch mit Hitler am 6. Februar brachte keine neue Hoffnung. „Ich habe den Mut verloren. Die Reaktion diktiert. Das dritte [!] Reich!“ Jetzt war ihm sogar das soeben gewonnene Dritte Reich verleidet. Und dann war er krank und ließ sich auch von Hitler nicht sprechen. Schließlich, in einer nächtlichen Unterredung, sagte ihm Hitler den Posten eines Propagandaministers zu. Goebbels verstand, dass zunächst die Wahlen vom 5. März 1933 gewonnen werden müssten. Er stürzte sich in die Arbeit. Erstmals konnte er ohne Einschränkungen den Staatsrundfunk nutzen. Reden Hitlers erreichten damit ein Millionenpublikum. Zwar erhielt die NSDAP mit 44 % der Stimmen nicht die erhoffte absolute Mehrheit, aber die Regierungskoalition kam dennoch auf 52 %. Jetzt wurde Goebbels am 13. März zum "Reichsminister für Volksaufklärung und Propaganda" ernannt. Er war fünfunddreißig Jahre alt. „Ich freue mich unmenschlich. Wir kennen nun keine Rücksicht mehr. Deutschland ist mitten in einer kalten Revolution. Widerstand aussichtslos.“ So also wollte er sein Amt führen. Magda Goebbels. Als Hochzeitspaar, im Hintergrund der Trauzeuge Hitler Nach seiner Trennung von Else Janke hatte Goebbels zahlreiche flüchtige Liebschaften. Im November 1931 lernte er Magda Quandt kennen, die seit kurzem in der Gaugeschäftsstelle tätig war. Magda war die geschiedene Frau des Industriellen Günther Quandt und vom Nationalsozialismus begeistert. Goebbels und Magda heirateten am 19. Dezember 1931, Hitler war Trauzeuge. ‒ Magda wusste zu repräsentieren, ihre großzügige Wohnung am Reichskanzlerplatz in Berlin-Westend wurde zum beliebten Treffpunkt. Auch Hitler, der Magda sehr schätzte, ließ sich häufig sehen. Von sozialistischer Einfachheit war Goebbels’ Lebensstil jetzt weit entfernt. Im September 1932 kam Helga zur Welt, das erste von insgesamt sechs Kindern. Reichsminister für Volksaufklärung und Propaganda. Goebbels bei einem SA-Appell, Berlin, 25. August 1934 Goebbels schuf innerhalb eines halben Jahres diejenige Organisation, mit welcher er den gesamten Kulturbereich überwachen konnte. Im Reichsministerium für Volksaufklärung und Propaganda gab es für jedes der Medien eine eigene Abteilung: Presse, Rundfunk, Film, Theater, Schrifttum, also Literatur jeder Art, Bildende Kunst, Musik. Hier wurden die Inhalte überwacht: was die Zeitungen schreiben sollten, welche Filme gedreht wurden, wie diese bewertet wurden und zu fördern waren, welche Theaterstücke auf den Spielplan gelangten usw. Die Reichskulturkammer war gleichartig organisiert, für jede der genannten Sparten gab es eine Unterkammer. Propagandaministerium und Kulturkammern arbeiteten eng zusammen. Die Kammern überwachten und kontrollierten die Personen: Alle Zeitungsleute waren in der Reichspressekammer; wer ausgeschlossen wurde, hatte damit ein Berufsverbot. Die Reichsschrifttumskammer beispielsweise erfasste nicht nur die Autoren, sondern auch Verleger und Buchhändler, die Reichsrundfunkkammer nicht nur die Funkhäuser, sondern auch Hersteller und Händler von Radiogeräten. Die Presse wurde auf indirekte, aber sehr wirksame Weise gesteuert. Zunächst verschwand die gesamte nichtnationalsozialistische Parteipresse. Bürgerliche und konfessionelle Zeitungen stellten ihr Erscheinen ein oder wurden im Laufe der Jahre zunehmend in Parteibesitz überführt. Mit dem Schriftleitergesetz vom 18. Oktober 1933 wurde der Schriftleiter allein verantwortlich für die Inhalte und damit unabhängig von seinem Verleger. Jedoch musste er in die „Schriftleiterliste“ der Reichspressekammer eingetragen sein, womit für Linientreue gesorgt war. Schwerpunkte und Inhalte der Berichterstattung wurden zentral gesteuert: Hierzu gab es die täglichen Pressekonferenzen im Propagandaministerium sowie eine Flut von Presseanweisungen. Für die Versorgung mit Nachrichten wurde 1933 das staatliche Deutsche Nachrichtenbüro (DNB) geschaffen. Eine Nachzensur war damit nicht mehr nötig. Als einzige Ausnahme genoss die "Frankfurter Zeitung" eine relative, wenn auch schwindende Unabhängigkeit, bis auch sie 1943 eingestellt wurde. Bereits in der Weimarer Republik war der Rundfunk verstaatlicht worden. Goebbels konnte ihn also schlagartig übernehmen. Er steuerte ihn direkt aus dem Propagandaministerium. Eine erste propagandistische Meisterleistung war die Übertragung des Fackelzuges bei der Ernennung Hitlers zum Reichskanzler am 30. Januar 1933. Damit wurde eine revolutionäre Aufbruchsstimmung suggeriert. Das Ziel des Rundfunks sollte es sein, das „Volk in seiner Gesamtheit“ zu erreichen, um es mit nationalsozialistischer Propaganda „innerlich“ zu „durchtränken“. Hierfür waren zwei Dinge erforderlich: Das Programm musste breite Massen ansprechen, und diese sollten es auch empfangen können. Deshalb wurde bereits im August 1933 ein Volksempfänger zu 76 RM auf den Markt geworfen, dem kurz vor Kriegsbeginn der „Deutsche Kleinempfänger“ für nur 35 RM folgte, im Volksmund „Goebbels-Schnauze“ genannt. Die Zahl der Rundfunkteilnehmer stieg von 4,3 Millionen Anfang 1933 auf 11,5 Millionen sechs Jahre später. Hinzu kam der Gemeinschaftsempfang in Betrieben und auf öffentlichen Plätzen. So konnten Hitler-Reden, Großereignisse wie Parteitage, aber auch die Olympischen Spiele 1936 von einem Massenpublikum verfolgt werden. Hitler und Goebbels bei der UFA am 4. Januar 1935 Dem Film galt Goebbels’ besonderes Interesse, besonders den Inhalten und der propagandistischen Ausrichtung. Ihm wurde auch nachgesagt, dass er auf eine sehr persönliche Weise Einfluss auf die Besetzung der weiblichen Rollen nahm: Dies brachte ihm den Spitznamen „Bock von Babelsberg“ ein, da in Potsdam-Babelsberg die riesigen Studios der UFA lagen. Da bereits die Drehbücher genehmigt werden mussten wurden nur sehr wenige fertige Filme verboten. Überwiegend wurden scheinbar unpolitische Unterhaltungsfilme produziert, die mit zugkräftigen Stars das Publikum anlockten. Aber es gab auch ausgesprochene Propagandafilme, beispielsweise "Triumph des Willens", Leni Riefenstahls vielfach preisgekrönter Film über den Reichsparteitag 1934, oder Veit Harlans antisemitischer Film "Jud Süß". Goebbels betrieb eine weitgehende Konzentration und Verstaatlichung bei Produktion, Verleih und Lichtspieltheatern. An seiner Macht über die Medien konnte er sich berauschen: Im März 1937 notierte er: Goebbels war also ein ‚„Medienzar“, der – wenigstens in der Theorie – die gesamte deutsche Medienproduktion beherrschte. Die Kontrolle von allem, was das deutsche Volk lesen, hören und anschauen konnte, war jedenfalls nahezu total. Goebbels sah sich als Feldherr, der das Volk zur Übereinstimmung mit dem Nationalsozialismus führt:In diesem Sinn gestaltete er Großkundgebungen wie Maifeiern und Parteitage. Ausweis seines Erfolges waren ihm die Ergebnisse der „Wahlen“ und der Volksabstimmungen, bei denen freilich nur Zustimmung gefragt war. Jedes Mal Hitler mit einem möglichst hohen Prozentsatz zu beglücken, war Goebbels’ Stolz. Er erklärte dies für die „Stimme des Volkes“, auch wenn er die zweifellos hohen Ergebnisse noch ein wenig schönte, bis er schließlich 99 % vorweisen konnte. Und nicht nur bei diesen Gelegenheiten wurde ihm Hitlers überschwängliches Lob zuteil, stets sorgfältig im Tagebuch vermerkt. „Entartete Kunst“. Der Begriff der „Entarteten Kunst“ bezog sich zunächst auf die bildenden Künste, dann aber auch auf Literatur, Theater und Musik. Dass die Kulturpolitik des „Dritten Reiches“ die Vielfalt und Lebendigkeit der Weimarer Republik abzuschneiden gedachte, wurde mit den öffentlichen Bücherverbrennungen des 10. Mai 1933 offensichtlich. Aus Bibliotheken und Museen verschwanden unerwünschte Werke. Zahlreiche Journalisten, Autoren, Künstler, Musiker, Film- und Theaterleute gingen in die Emigration, andere passten sich an oder zogen sich in eine „Innere Emigration“ zurück. Ungern sah Goebbels allerdings, dass auch der deutsche Expressionismus unterdrückt werden sollte, hatte dieser ihn doch in seiner Jugend begeistert. Noch 1933 ließ er seine neue Dienstwohnung mit Bildern Emil Noldes ausstatten und wollte diesen auch weiterhin unbehelligt lassen. Jedoch beugte er sich Hitlers Kunstdiktat: In der Ausstellung „Entartete Kunst“ in München im Jahr 1937 war auch Nolde unter den Verfemten. Über 16.000 Kunstwerke wurden beschlagnahmt, viele ins Ausland verkauft, Tausende wurden 1939 öffentlich verbrannt. Schließlich verbot Goebbels im November 1936 nach einem Hinweis Hitlers auch die Kunstkritik, jegliche Wertung wurde untersagt. Die Verfolgung der Juden. Nach Hitlers Machtübernahme am 30. Januar 1933 kam es an vielen Orten zu antijüdischen Aktionen. Hiergegen rief der „American Jewish Congress“ zu einem Boykott deutscher Waren auf, der allerdings nicht von den Regierungen unterstützt wurde. Jedoch waren die Folgen für das Ansehen Deutschlands verheerend. Um der „Auslandshetze“ entgegenzuwirken, sollten am 1. April 1933 alle jüdischen Geschäfte und die Praxen von jüdischen Ärzten und Rechtsanwälten boykottiert werden. Goebbels oblag die propagandistische Vorbereitung dieses Judenboykotts im In- und Ausland. Die Aktion brachte nicht die erhoffte Resonanz in der Bevölkerung und wurde nicht fortgesetzt. Die Reichskulturkammer sollte Goebbels auch dazu dienen, die Juden aus dem Kulturbereich hinauszudrängen. Dies erwies sich als viel schwieriger, als Goebbels es sich zunächst vorgestellt hatte. Seine Kriterien waren allerdings schärfer als die der Rassengesetze von 1935: Hier wurden Juden und „Halbjuden“ diskriminiert, Goebbels wollte auch „Vierteljuden“ sowie auch die mit „Halb-“ oder „Vierteljuden“ Verheirateten als „jüdisch Versippte“ ausschließen. Oft waren die Juden schwer zu entbehren, so gab es eine Vielzahl von Ausnahmeregelungen, auch hinsichtlich jüdischer oder „halbjüdischer“ Ehepartner. Am 16. Juni 1936 beklagte er sich bei Fritz Sauckel: Immer wieder meinte er am Ziel zu sein, aber noch im Juni 1939 war er mit diesem Thema beschäftigt. Zunehmend suchte Goebbels die Juden in Deutschland und besonders in Berlin in allen Lebensbereichen zu isolieren. Er ließ den Polizeipräsidenten von Berlin, Wolf-Heinrich Graf von Helldorf, im Mai 1938 eine Denkschrift in diesem Sinne abliefern. Der SD verhinderte aber einen Alleingang eines einzelnen Gaus. Dennoch ließ Goebbels hier im Juni 1938 über 800 Juden verhaften. Die jüdischen Geschäfte wurden gekennzeichnet, geschädigt oder gar geplündert, Namensschilder von jüdischen Freiberuflern beschmiert. Jedoch musste wegen Kritik in der Partei, möglicherweise auch von Seiten Hitlers, die Aktion abgebrochen werden. Goebbels’ erklärtes Ziel blieb es jedoch, Berlin „judenrein“ zu machen. Mit Hitler war er sich einig, dass die Juden innerhalb von zehn Jahren Deutschland verlassen haben müssten. Anzubieten schien sich sogar eine ferne Insel wie Madagaskar. An den Pogromen in der sogenannten „Reichskristallnacht“ hatte Goebbels einen wesentlichen Anteil. Am 9. November, dem Jahrestag von Hitlers Putschversuch von 1923, fand in München das traditionelle Treffen der Parteiführung statt. An diesem Tag kam die Nachricht vom Tode Ernst Eduard vom Raths, auf den zwei Tage zuvor ein polnischer Jude einen Anschlag verübt hatte. Goebbels griff diese Gelegenheit auf. In einer scharfen Rede vor den anwesenden Parteiführern verwies er auf Pogrome, die an einzelnen Orten bereits stattgefunden hatten, und gab zu verstehen, dass die Partei antijüdische Aktionen nicht behindern werde: Goebbels sorgte also dafür, dass sich lokale Aktionen reichsweit ausdehnten. In den Städten Deutschlands wurden Tausende Synagogen und Gebetshäuser in Brand gesteckt, jüdische Geschäfte demoliert, etwa 100 Juden getötet und 30.000 verhaftet. Die Polizei erhielt genaue Befehle, wie sie Juden verhaften, aber nicht misshandeln, Plünderungen verhindern, „deutsches“, also nichtjüdisches Eigentum schützen und im Übrigen die Aktionen laufen lassen sollte. Im Ausland kam es zu einem Sturm der Entrüstung. Zudem musste Goebbels erkennen, dass auch weite Teile der deutschen Bevölkerung die Pogrome ablehnten. Goebbels war am 12. November 1938 Teilnehmer an Görings „Besprechung über die antijüdischen Maßnahmen nach den Pogromen“. Den Juden wurde pauschal eine „Geldbuße“ von einer Milliarde auferlegt, die fälligen Versicherungsleistungen verfielen an den Staat. Aus der Wirtschaft sollten sie jetzt endgültig entfernt werden, um sie in die Auswanderung zu treiben. Ebenso wurden sie jetzt auch gesellschaftlich ausgegrenzt: Ihnen wurde der Besuch „deutscher“ Schulen verboten, von Kinos und Theatern wurden sie ausgeschlossen, Autos und Motorräder durften sie nicht mehr besitzen, und der Mieterschutz wurde eingeschränkt. Für Berlin befahl Goebbels noch schärfere Maßnahmen: Hier wurden den Juden auch Schwimmbäder, Zirkus und der Zoo verboten. Jetzt begann hier auch eine Aktion, bei der jüdische Mieter aus „Großwohnungen“ vertrieben wurden. Hitlers Kriegspolitik. In der Sudetenkrise forderte Hitler im Jahr 1938 die Eingliederung des überwiegend von Deutschen bewohnten Sudetenlandes in das Deutsche Reich. Sein tatsächliches Ziel war aber die Annexion des tschechischen Teils der Tschechoslowakei. Scheinbar vorbehaltlos unterstützte Goebbels diese Politik. Schwankend und widersprüchlich war dagegen seine eigene Meinung: Fern von Hitler war er von der Furcht erfüllt, dass bei einer gewaltsamen Annexion des Sudetenlandes Frankreich die Bündnisverpflichtungen gegenüber der Tschechoslowakei erfüllen und auch England in einen Krieg eintreten würde. Dass er Hitlers Politik für riskant und gefährlich hielt, vertraute er aber nur seinem Tagebuch an, seine Umgebung konnte dies kaum bemerken. In Hitlers Gegenwart aber fielen Furcht und Sorgen von ihm ab und machten einem unbedingten Vertrauen zu seinem "Führer" Platz. Auf dem Höhepunkt der Krise, am 27. September, ließ Hitler eine motorisierte Division durch Berlin paradieren. Der erwartete Jubel der Bevölkerung blieb jedoch aus. Goebbels registrierte das sehr genau: Jetzt wagte er sogar ein offenes Wort zu Hitler: „Dann habe ich in der entscheidenden Stunde dem Führer die Dinge dargelegt, wie sie sich in Tatsache verhielten. Der Vorbeimarsch der motorisierten Division am Abend des Dienstag hat ein Übriges dazu getan, um Klarheit zu schaffen über die Stimmung im Volk. Und die war nicht für Krieg.“ In Gegenwart Hitlers schwand Goebbels’ berechtigte Kriegsfurcht und machte einem blinden Vertrauen Platz. So schrieb er am 26. September, nach einem Spaziergang im Garten der Reichskanzlei: „Der Führer ist ein divinatorisches Genie.“ – Am 1. Oktober, nach dem Ende der Krise, hatte er seine widersprüchlichen Gefühle noch keineswegs geordnet. Im Rückblick war ihm die überstandene Gefahr deutlich: „Wir sind alle auf einem dünnen Drahtseil über einen schwindelnden Abgrund gegangen.“ Aber auf einen Krieg wollte er sich dennoch vorbereiten: „Jetzt sind wir wirklich wieder eine Weltmacht. Jetzt heißt es: rüsten, rüsten, rüsten!“ Trotz aller Zweifel betrieb er voller Eifer die propagandistische Begleitung der Krise: Über das Auswärtige Amt verhängte er eine Pressezensur, damit dieses „nicht weich in den Knien“ würde. Er ließ Grenzzwischenfälle inszenieren: „Die Presse greift sie groß auf.“ Auch durfte nichts über die Durchfahrt der motorisierten Division berichtet werden. Und er hielt Reden, die die Unsicheren aufrichten sollten: vor Mitarbeitern seines Ministeriums, vor Chefredakteuren, vor 500 Leitern des Gaus Berlin und vor großem Publikum im Sportpalast in Berlin. Auch im Folgejahr 1939 zeigte sich dieser Zwiespalt, als Hitler den Druck auf Polen erhöhte: Wiederum sah er die Situation als gefährlich an und war von Furcht vor einem Krieg erfüllt. In seiner Propaganda dagegen suchte er das deutsche Volk genau auf diesen einzustimmen. Er feierte die Wehrmacht als die „stärkste der Welt“. Großbritannien stellte er als zukünftigen Angreifer dar, der mit einer Politik der „Einkreisung“ Deutschland bedrohe. Als Hitler jedoch mit dem deutsch-sowjetischen Nichtangriffspakt vom 24. August wenigstens für den Augenblick die Neutralität der Sowjetunion sicherte, sah Goebbels dies als „genialen Schachzug“. Als nach dem deutschen Einfall in Polen am 2. September die englische Kriegserklärung einlief, wirkte Goebbels wie „ein begossener Pudel“. Privatleben. Als Minister leistete sich Goebbels einen üppigen Lebensstil. Er sicherte sich im Juni 1933 eine Dienstwohnung und ließ sie von Albert Speer umbauen. 1936 kaufte er ein Seegrundstück auf der exklusiven Insel Schwanenwerder im Wannsee und errichtete sich hier eine Villa. Ermöglicht wurde dies durch den parteieigenen Eher-Verlag, der für 250.000 RM Vorschuss und jährlich weitere 100.000 RM (heutige Kaufkraft:  Euro bzw.  Euro) die Rechte an einer späteren Veröffentlichung der Tagebücher erwarb. 1938 zwang Goebbels seinen Nachbarn, einen jüdischen Bankier, ihm sein Anwesen weit unter Wert zu verkaufen. 1936 errichtete ihm die Stadt Berlin ein Blockhaus auf einem weitläufigen Seegrundstück in Lanke nordwestlich von Berlin, später kam ein Landhaus hinzu. Dorthin zog er sich oft zurück. Im Sommer 1939 genehmigte er sich eine neue prunkvolle Dienstvilla, die mehr als 3,2 Millionen RM kostete. Goebbels’ Ehe mit Magda verlief wechselhaft: Es gab Zeiten harmonischen Zusammenlebens, aber auch zahlreiche Krisen, bei denen auch Hitler schlichtend eingriff. Wegen der Hochzeit mit der (noch dazu geschiedenen) Protestantin wurde er von der katholischen Kirche exkommuniziert. Zu einem tiefen Zerwürfnis kam es, als Goebbels im Herbst 1936 ein Verhältnis mit der tschechischen Filmschauspielerin Lída Baarová einging. Er zeigte sich mit ihr in der Öffentlichkeit und gedachte, mit ihr eine neue Ehe einzugehen. Magda suchte indessen Trost bei Goebbels’ Staatssekretär Karl Hanke. Hitler ordnete im Oktober 1938 an, die Ehe aufrechtzuerhalten. Denn Goebbels’ Familie wurde in den Medien als nationalsozialistische Musterfamilie dargestellt. Zudem hatte Magda stets Hitlers Ohr. Ergeben trennte sich Goebbels von seiner Geliebten. Erst im August 1939 fand das Ehepaar Goebbels wieder zueinander. Zumindest wurde im Oktober 1940 ihr sechstes Kind, Heide, das „Versöhnungskind“, geboren. Organisation. a>n der drei Wehrmachtteile im Propagandaministerium in Berlin am 28. Januar 1941 Da Dietrich sich ständig in Hitlers Umgebung befand, konnte er mit der Tagesparole gelegentlich Goebbels überspielen, jedenfalls bis Ende 1942. Für die Auslandspropaganda beanspruchten sowohl Goebbels als auch Reichsaußenminister Joachim von Ribbentrop die Zuständigkeit. Nachdem Hitler beide am 7. September 1939 vergeblich aufgefordert hatte, sich zu einigen, „legte [er] am nächsten Tag schriftlich einen Führerbefehl nieder, in dem es hieß, auf dem ‚Gebiet der außenpolitischen Propaganda […] erteilt die allgemeinen Richtlinien der Reichsaußenminister’“. Auf dieser Grundlage gab der Pressechef des Auswärtigen Amtes Paul Karl Schmidt tägliche Pressekonferenzen für die Vertreter der Auslandspresse. Doch Goebbels veranstaltete für die gleichen Personen eine „Abendkonferenz“. Der Auslandsrundfunk wurde stark ausgebaut: Schließlich gab es Nachrichtensendungen in 53 Sprachen. Die Kriegführung im Westen wurde durch Geheimsender unterstützt, die beispielsweise während des Frankreich-Feldzuges im Frühsommer 1940 Verwirrung in der Bevölkerung stiften sollten. Der Wochenschau – Pflichtbestandteil eines jeden Kinoprogramms ‒ galt Goebbels’ besonders Augenmerk, und dies nicht nur wegen der intensiven Wirkung, sondern auch, weil Hitler diese persönlich begutachtete, wenigstens in den ersten Kriegsjahren. Ab Mai 1940 gab Goebbels die Wochenzeitung "Das Reich" heraus. Sie sollte die Intelligenz im In- und Ausland erreichen und war hierbei sehr erfolgreich; die Auflage stieg bis 1944 auf 1,4 Millionen. Der Tagesparole musste dieses Blatt nicht folgen. Platte Propaganda wurde vermieden. Jede Woche schrieb Goebbels den Leitartikel und hatte damit sein persönliches Forum. Mit diesen Mitteln konnte die Propaganda in umfassender Weise gesteuert werden. Dennoch gab es unabhängige Informationsquellen, die ein Informationsmonopol vereitelten: Die Kriegslage wurde auch durch Briefe und Berichte der Frontsoldaten bekannt. Den Bombenkrieg erlebten die Großstädter in eigener Anschauung. Schließlich war das Abhören der „Feindsender“ zwar bei Todesstrafe verboten, ließ sich aber nicht verhindern. Besonders die englische BBC genoss Vertrauen. Jüngeren Forschungen zufolge darf die Selbstinszenierung Goebbels’ als Beherrscher eines nahezu allmächtigen Propagandaapparates nicht mit der Realität verwechselt werden. Diese war durch eine starke Polykratie und daraus resultierende Kompetenzstreitigkeiten geprägt: Entgegen Goebbels’ Wünschen wurde die Pressestruktur in erheblichem Maße vom Reichsleiter für die Presse Max Amann bestimmt, während die Wehrmacht einen eigenen komplexen Propagandaapparat unterhielt und Goebbels sich die Kompetenzen in der Auslandspropaganda mit dem Außenministerium Ribbentrops sowie dem Ostministerium unter Alfred Rosenberg teilen musste. Insbesondere seit der Kriegswende 1942/1943, durch die zunehmend negative Entwicklungen zu vermitteln waren, gab es bezüglich der Auslandspropaganda massive Konflikte Goebbels’ mit Ribbentrops und Rosenbergs Ministerien, deren Kompetenzen er bei seinen Aussprachen mit Hitler stets zu seinen Gunsten beschneiden lassen wollte. Die Streitigkeiten hielten bis zur endgültigen Niederlage 1945 an. An den Konflikten ließen sich persönliche Eitel- und Befindlichkeiten, aber auch Unterschiede in der Propagandaarbeit ablesen. Goebbels, der die Wirkung der deutschen Kriegspropaganda im Ausland täglich und ausführlich studierte und bewertete, drängte darauf, mit dem Ausrufen militärischer Erfolge äußerst zurückhaltend zu sein, um nicht bei sich wendendem Kriegsglück bloßgestellt zu werden. Mehrfach jedoch, etwa bei den Landungen der Alliierten in Süditalien und der Normandie, wurden voreilig Erfolgsnachrichten ausgegeben, was Goebbels ebenso erzürnte wie das seiner Meinung nach zu häufige Festlegen auf vermeintliche Schicksalsschlachten, zumal es sehr bald zur Gewohnheit werden sollte, diese zu verlieren. Immer wieder kritisierte Goebbels vor allem in seinen Tagebüchern bezüglich dieser Aspekte eine fehlende Flexibilität der Propaganda. Man müsse, so notierte Goebbels am 22. August 1944 in sein Tagebuch, von den „Phantastereien der Jahre 1940 und 1941 Abschied“ nehmen und sich „angesichts der ständig wachsenden Krise in der allgemeinen Kriegslage innerlich auf verkleinerte Kriegsziele einstellen“. Inhalte. Zunächst ging es darum, die Schuld am Kriegsausbruch nicht etwa Hitlers Expansionspolitik, sondern den westlichen „Plutokratien“ zuzuschieben, welche Deutschland in seinen legitimen Interessen behinderten. Mit dem Einmarsch in die Sowjetunion lebte die antisowjetische Propaganda wieder auf, die 18 Monate lang ausgesetzt worden war. Der östliche Gegner wurde als barbarische Horde dargestellt, brutal und Gräueltaten verübend. Die Ausstellung „Das Sowjet-Paradies“ ab Mai 1942 zog nach offiziellen Angaben mehr als eine Million Besucher an. Zunehmend erschien das Judentum als der eigentliche Gegner, womit die antiwestliche und die antisowjetische Propaganda ein übergeordnetes Feindbild erhielten. Im Übrigen reagierte die Propaganda auf den Kriegsverlauf. Goebbels war entsetzt, als Dietrich vor der Presse im Oktober 1941 die Sowjetunion für besiegt erklärte – aber so hatte sich kurz zuvor auch Hitler geäußert; Goebbels jedenfalls wollte zu diesem Zeitpunkt keine Siegeseuphorie. Als der Vormarsch im Osten im Spätherbst 1941 ins Stocken geriet, war dann von einem raschen Zusammenbruch der Sowjetunion nicht mehr die Rede. Als Goebbels jedoch im Mai 1942 wieder von Siegesgewissheit erfüllt war, malte er in verlockenden Farben eine deutsche Ostsiedlung aus. Dass die 6. Armee im November 1942 in Stalingrad eingekesselt wurde, ließ er das deutsche Volk jedoch erst im Januar 1943 wissen. Von da ab wurde die Propaganda defensiv. Der Kampf im Osten wurde als Verteidigung Europas dargestellt. Gefordert wurden Durchhalten, verstärkte Kriegsanstrengung und äußerster Verzicht. In düsteren Farben wurden die Folgen einer Niederlage ausgemalt: die Zerstückelung Deutschlands, das Hinabdrücken in ein Sklavendasein, die Verschleppung von Millionen nach Sibirien. Das bis heute nicht aufgeklärte inszenierte oder echte Massaker von Nemmersdorf, einem Dorf in Ostpreußen, im Oktober 1944 gab der Propaganda noch einmal ein aufrüttelndes Thema. Vorübergehende Hoffnung sollte der U-Boot-Krieg bringen, der aber 1943 abgebrochen werden musste. Im selben Jahr wurden dann neuartige Wunderwaffen angekündigt. Viele erwarteten, dass diese Waffen eine Kriegswende herbeiführen würden. Als sie schließlich ab Juni 1944 eingesetzt wurden, bewirkten sie jedoch wenig. Schließlich wurde auch Hitler als Garant des Sieges hingestellt, was aber angesichts der fortdauernden Niederlagen unglaubwürdig wurde. Das missglückte Attentat auf Hitler am 20. Juli 1944 bot der Propaganda noch einmal willkommenes Material – wieder konnte sie den „Führer“ der Deutschen als von der Vorsehung begünstigt hinstellen. Goebbels’ Rolle bei der Niederschlagung des Putsches wird oft überschätzt. Goebbels bewirkte, dass am 20. Juli das Wachbataillon unter Major Otto Ernst Remer die Abriegelung des Regierungsviertels aufhob, indem er ein Telefongespräch Hitlers mit Remer herbeiführte. Ursächlich für das Scheitern des Putsches war dies jedoch nicht. Dessen Aussichten waren von vornherein gering, da Hitler überlebt hatte. Zudem gelang es den Verschwörern nicht, den Rundfunk und die Telekommunikation völlig in die Hand zu bekommen. So konnte das OKW unter Generalfeldmarschall Wilhelm Keitel bereits ab 16:00 Uhr Gegenmaßnahmen einleiten. Ab 17:42 Uhr wurde wiederholt im Rundfunk die Nachricht vom Überleben Hitlers gebracht. Das Telefonat Remers mit Hitler fand erst zwischen 18:35 und 19:00 Uhr statt. Sechs Tage nach dem gescheiterten Attentat erläuterte Goebbels in einer Radiorede an das Volk die näheren Umstände des Attentats aus seiner Sicht. Zu Beginn des Krieges hatte Goebbels sich vorgenommen, mit seiner Propaganda dafür zu sorgen, dass „das Volk halten“ würde. Die Novemberrevolution von 1918 durfte sich also nicht wiederholen. Dies hat er erreicht: Der Krieg endete erst mit dem totalen Zusammenbruch Deutschlands. Vernichtung der europäischen Juden. Goebbels’ Ziel war es, die Juden aus Deutschland, vorrangig aus Berlin, zu entfernen. Erste Planungen hierzu ließ er Mitte 1940 erstellen. Allerdings sollten diese erst nach dem Krieg verwirklicht werden. Es gelang Goebbels, im August 1941 bei Hitler durchzusetzen, dass die Juden den Judenstern tragen mussten und damit stets als Ausgegrenzte erkennbar waren. Zudem wurden ihre Lebensmittelrationen reduziert, und auch die Wohnungen ließ Goebbels markieren. Im Oktober 1941 begannen dann die ersten Deportationen in den Osten. Zu diesem Zeitpunkt wurden auch die Vernichtungslager eingerichtet. Die Abtransporte aus Berlin gerieten jedoch ins Stocken. Der am 8. Februar 1942 zum Reichsminister für Bewaffnung und Munition ernannte Albert Speer wollte die in Rüstungsbetrieben beschäftigten Juden und deren Familien nicht freigeben. Hitler entschied in dieser Frage nicht – trotz Goebbels’ wiederholten Drängens. Erst unter dem Eindruck der Niederlage von Stalingrad gelang es Goebbels im Januar 1943, Hitler umzustimmen. Im März 1943 waren fast alle Juden aus Berlin deportiert. Der israelische Historiker Saul Friedländer verweist zudem auf die große Rolle, die die von Goebbels verantwortete Propaganda bei der Motivation der Hunderttausenden, wenn nicht Millionen von Helfern beim Holocaust spielte. Totaler Krieg. Schon im Herbst 1942 sah Goebbels die Kriegsanstrengungen als unzureichend an. Er forderte einen „totalen Krieg“, also einen bis zum Äußersten gesteigerten Kriegseinsatz der Bevölkerung. Er stellte sich vor, dass dieser eine Erhöhung der militärischen Leistung um 10 bis 15 % bringen könnte. Dies hätte allerdings nicht entfernt ausgereicht, um die alliierte Überlegenheit auszugleichen ‒ aber das wollte er nicht wahrnehmen. Als dann im Dezember 1942 die deutsche Niederlage in der Schlacht von Stalingrad offensichtlich wurde, erhielt der Leiter der Partei-Kanzlei, Martin Bormann, den Auftrag, mit Goebbels die „Frage der totalen Kriegführung“ durchzusprechen. Um sie zu verwirklichen, setzte Hitler einen „Dreierausschuss“ ein, bestehend aus Bormann, dem Leiter der Reichskanzlei, Hans Heinrich Lammers, und dem Chef des Oberkommandos der Wehrmacht, Wilhelm Keitel. Goebbels gehörte diesem Ausschuss also nicht an, jedoch sollte enges Einvernehmen mit ihm gewahrt bleiben. Die Probleme stellten sich dann als viel größer heraus als gedacht. An der Front fehlten nicht eine halbe Million Soldaten, sondern zwei. Es gelang Goebbels zwar, einige Luxusrestaurants zu schließen, aber im Übrigen kamen wirklich einschneidende Maßnahmen nicht zustande, weder eine konsequente Arbeitspflicht für Frauen noch eine fühlbare Vereinfachung der Verwaltung. Auch die übrigen Gauleiter waren nicht gewillt, ihren Lebensstil den Zeitumständen anzupassen. Um eine allgemeine Mobilisierung, zumal der Gauleiter, zu erreichen, veranstaltete Goebbels am 18. Februar 1943 eine große Kundgebung im Berliner Sportpalast. In einer meisterhaften Inszenierung vor ausgesuchtem Publikum erhielt er bei seiner Sportpalastrede eine stürmische Zustimmung für die geforderten radikalen Maßnahmen. Aber die gewünschten Kompetenzen zu deren Umsetzung konnte Goebbels nicht erhalten, auch wenn Hitler von der Rede begeistert war. Es zeigte sich hier ein vertrautes Muster. Oft hatte Goebbels in seinen Tagebüchern behauptet, Hitler in Gesprächen von seinen Vorstellungen überzeugt und Zusicherungen erhalten zu haben, dass diese nun umgesetzt würden. Meist geschah dies jedoch nur in Ansätzen oder gar nicht. Im Mai 1943 war Goebbels resigniert. Er sah Hitler völlig von seinen militärischen Aufgaben beansprucht. Die Innenpolitik, damit meinte er den totalen Krieg, werde vernachlässigt. Auch war er unzufrieden mit der Außenpolitik – er hätte Hitler gern zu einem Separatfrieden bewogen. Schließlich sah er die unterdrückende Besatzungspolitik im Osten als unproduktiv und gefährlich an. Auch seine eigene Propaganda „zündete“ nicht mehr. Hitler solle stattdessen mit einer Rede vor das Volk treten, aber er lehnte dies in einer Zeit der Misserfolge ab. Damit traf Goebbels’ Kritik drei zentrale Bereiche des politischen Handelns. Deswegen Hitler die Gefolgschaft aufzukündigen, kam ihm jedoch nie in den Sinn. Immer wieder machte er sich dessen Zuversicht bezüglich der militärischen Entwicklung zu eigen, obwohl er immer wieder andeutete, die Lage deutlich pessimistischer zu beurteilen. So hatte er schon im Sommer 1943 in seinen Tagebüchern die Befürchtung geäußert, dass ein sich anbahnender Zwei-Fronten-Krieg militärisch nicht zu gewinnen sei. Im Sommer 1944 war die militärische Lage verzweifelt. Die Landung der Westalliierten in Frankreich, begonnen am 6. Juni 1944, war geglückt. Zudem war in den Monaten Juli und August die Heeresgruppe Mitte durch eine gewaltige Offensive der Roten Armee überrannt worden, eine Niederlage weit größer und folgenreicher als die von Stalingrad. In dieser Situation erneuerte Goebbels seinen Vorstoß hinsichtlich des totalen Krieges, unterstützt von Albert Speer. Am 25. Juli wurde er zum „Generalbevollmächtigten für den totalen Kriegseinsatz“ mit Vortragsrecht bei Hitler und umfassenden Vollmachten ernannt. Gegenpropaganda, Flugblatt, US Air Force, im Zweiten Weltkrieg über Deutschland abgeworfen Goebbels wollte den Staatsapparat umbauen und eine Million Soldaten liefern. Bald stellte sich jedoch heraus, dass letzteres stark zu Lasten der Rüstungsindustrie gehen würde. Dies führte zu langwierigen und erbitterten Auseinandersetzungen mit Speer. Goebbels sah sich mit Hitler in der Forderung einig, es gehe um „Soldaten "und" Waffen“, Speer dagegen beharrte darauf, nur „Soldaten "oder" Waffen“ seien erreichbar. Hitler gab Goebbels zwar recht, entschied aber dennoch nicht gegen Speer. Beide Seiten fanden Verbündete: Goebbels mit Bormann und den meisten Gauleitern, Speer mit Generälen, aber ebenfalls mit einigen Gauleitern – zu Goebbels’ Verdruss. Endlich, am 1. Dezember 1944, beschlossen beide, sich nicht mehr von Hitler in diese Positionen drängen zu lassen. Hitler sollte jetzt selbst entscheiden, wie viele Soldaten und wie viele Waffen er haben wollte. Indessen hatten beide in diesem Gegeneinander Leistungen erbracht, die sonst kaum möglich gewesen wären: Goebbels konnte zwischen Juli und Oktober 1944 fast 700.000 Wehrpflichtige einziehen lassen. Gleichzeitig erreichte der Beschäftigtenstand in der Rüstungsindustrie im Oktober mit über 6,2 Millionen einen Höchststand, bevor er dann wieder absank. Goebbels und der „Endsieg“. 1939 sah Goebbels einem Krieg gegen Großbritannien und Frankreich mit Besorgnis entgegen. Zunächst kamen aber vier schnelle deutsche Siege in Folge (in Polen, in Norwegen, in Frankreich, 1941 auf dem Balkan) und am Anfang auch in der Sowjetunion und beim Afrikafeldzug. Goebbels triumphierte. Als jedoch im Winter 1941 der deutsche Vormarsch abbrach und eine Katastrophe nur knapp vermieden werden konnte, sah er die Kriegsaussichten skeptisch. Als im Sommer 1942 die Wehrmacht zum Kaukasus und nach Stalingrad vorrückte, war er wieder euphorisch. Nach der Niederlage von Stalingrad im Winter 1942/43 konnte er sich jedoch einen deutschen Sieg kaum noch vorstellen. Dies ist nur aus seinen Tagebüchern abzulesen, nicht aus seiner Propaganda. a> am Gauleiter vorbei, 12. November 1944. Immer wieder neuen Mut schöpfte er aus Gesprächen mit Hitler. Etwa monatlich suchte er ihn in seinem Hauptquartier auf. Nach Erledigung der Tagesgeschäfte folgte nach Mitternacht ein vertrauliches Gespräch unter vier Augen, das oft bis zum frühen Morgen dauerte. Jetzt vermochte Hitlers stets gezeigte Siegeszuversicht auch Goebbels einzufangen. Kritiklos übernahm er vorübergehend Hitlers Illusionen. So glaubte er im Dezember 1944, dass die Ardennenoffensive zu einem gewaltigen deutschen Sieg, einem „Cannae von unvorstellbaren Ausmaßen“ führen würde. Indessen waren Treibstoff und Munition knapp, und die Unterlegenheit in der Luft war hoffnungslos. In diesem Augenblick tat er dies als unwichtig ab. ‒ Nach den Gesprächen mit Hitler diktierte er oft für sein Tagebuch: „Alle Akkus sind nun wieder aufgeladen.“ Die Realität ließ aber bald die vorherige Skepsis wieder aufleben. – Dieses Handeln und Denken auf nicht zu vereinbarenden widersprüchlichen Ebenen ist für Goebbels bezeichnend. In seinen Tagebüchern findet sich aber kein Hinweis darauf, dass ihm dieser innere Rollenkonflikt jemals zum Problem wurde. Am Ende der vorletzten "Deutschen Wochenschau" (Nr. 754) wurde eine Rede von Reichspropagandaminister Goebbels (gehalten am 11. März 1945 in Görlitz) gezeigt, in der er beteuert, er glaube an den Endsieg. Selbstmord. Goebbels’ Suizid kündigte sich schon lange an, erstmals im Juni 1943. In einem Leitartikel vom Oktober 1944 schrieb er: „Nichts wäre leichter, als persönlich von einer solchen Welt Abschied zu nehmen.“ Am 28. Februar 1945 erklärte er in einer Rundfunkansprache, bei einer Niederlage mit seinen Kindern in den Tod gehen zu wollen. Folgerichtig ließ er sich von Hitler im März 1945 genehmigen, bei einer Belagerung mit seiner Familie in Berlin bleiben zu können. Als Hitler ihm am 28. April 1945 dennoch befahl, Berlin zu verlassen, weigerte er sich: Er könne „den Führer in seiner schwersten Stunde“ nicht allein lassen. Sein Tod sollte zudem ein Opfer für die Zukunft Deutschlands sein, wie er an Harald Quandt, den Sohn seiner Ehefrau aus erster Ehe, schrieb: Damit knüpfte er an die Opfergedanken aus seiner Jugend an. Aber untergehen wollte er nicht allein. Am 1. Februar 1945 erklärte er Berlin zur Festung und ließ die Stadt in Verteidigungszustand bringen. Seinen Selbstmord wollte er blutig inszenieren: Er sei „fest entschlossen, […] dem Feind eine Schlacht zu liefern, wie sie einzig in der Geschichte dieses Krieges dastehen soll.“ Dieser Endkampf um Berlin dauerte vom 16. April bis zum 1. Mai und war für beide Seiten außerordentlich verlustreich. Die Angreifer verloren über 350.000 Mann, die deutschen Verluste sind nur zu schätzen, die Zahl allein der Toten betrug etwa 100.000. Am 22. April zog er mit seiner Familie in Hitlers Bunker bei der Reichskanzlei („Führerbunker“). Am 29. April um 1 Uhr morgens fungierte er als Trauzeuge, als Hitler mit Eva Braun die Ehe schloss. Sodann ernannte Hitler ihn zum Reichskanzler. Einen Tag später begingen die Neuvermählten Suizid. Am folgenden Tag, am 1. Mai, ersuchte Goebbels die Sowjetunion um einen Waffenstillstand. Stalin beharrte jedoch auf einer bedingungslosen Kapitulation. Goebbels gab auf. Seine Ehefrau Magda ließ die Kinder mit Zyankali ermorden, vielleicht gab auch sie selbst ihnen das Gift. Dann nahmen die beiden selbst Zyankali. Unklar ist, ob Goebbels sich außerdem erschoss. Ihre Leichen, halb verkohlt, wurden von den Sowjets vor dem Bunkerausgang gefunden und später im Jahre 1970 verbrannt und in der Elbe zerstreut. Tagebücher. Goebbels führte seit Oktober 1923 regelmäßig Tagebuch, insgesamt etwa 6.000 bis 7.000 handgeschriebene Seiten und 50.000 diktierte Seiten in Maschinenschrift. Nach dem Einmarsch der Roten Armee wurden diese Bestände der Berliner Reichskanzlei auseinandergerissen: Aus Fragmenten entstanden 1948, 1960 und 1977 Ausgaben der Tagebücher aus den Jahren 1942–43, 1925–26 und 1945. Etwa ein Drittel der gesamten Tagebücher gelangte 1969 auf Mikrofilm aus der Sowjetunion in die DDR, wo daraufhin in den Trümmern der Reichskanzlei ein Großteil des Restes gefunden, aber geheim gehalten wurde, bis er 1972 in die Bundesrepublik verkauft wurde. Alle handgeschriebenen Fragmente waren die Grundlage der von Elke Fröhlich im Auftrag des Instituts für Zeitgeschichte (IfZ) herausgegebenen vierbändigen Edition unter dem Titel "Die Tagebücher von Joseph Goebbels. Sämtliche Fragmente" (1987). Nach dem Ende des Kalten Krieges entdeckte Elke Fröhlich 1992 in Moskauer Archiven die Glasplatten, auf denen Joseph Goebbels seine Tagebuch-Texte in einer Vorform des Mikrofiche-Verfahrens hatte sichern lassen. Die damit zwischen 1992 und 2005 in 29 Bänden veröffentlichte Edition der Tagebücher von Joseph Goebbels grenzt an eine Gesamtausgabe, denn sie enthält alle aufgefundenen Tagebuchtexte, fast 98 Prozent des von Goebbels geschriebenen und diktierten Tagebuchmaterials. 2007/08 wurde die Edition mit einem "Geographischen Register" und einem "Personenregister" abgeschlossen. Die Tagebücher bedürfen, wie alle Primärquellen, stets der Quellenkritik und der Interpretation. Insgesamt aber nehmen sie innerhalb des reichen Quellenmaterials zur Geschichte des Nationalsozialismus als ein „über zwei Jahrzehnte hinweg kontinuierlich geführtes Selbstzeugnis eines NS-Spitzenpolitikers“, wie der Historiker Hans Günter Hockerts 1999 formulierte, eine „singuläre Stellung“ ein. Die Reflexion über die Grundgedanken der nationalsozialistischen Weltanschauung bezieht sich oft auf diese Tagebücher. So werden etwa in der Germanistik und in der Philosophie die darin enthaltenen Bezugnahmen auf das Nibelungenlied verwertet. Für den Historiker und Goebbels-Experten Bernd Sösemann ist jedoch auch 2008 die Herausgabe der Goebbels-Tagebücher durch mangelnde Quellenkritik geprägt und genügt „weitgehend nicht den Ansprüchen, die in konzeptioneller, methodischer und sachlicher Hinsicht an eine wissenschaftliche Edition zu stellen sind“. Bereits im August 1955 gelang es dem Schweizer François Genoud, sich von den Angehörigen Goebbels’ vertraglich ein alleiniges Nutzungsrecht an den Tagebüchern zu sichern. 2002 hatte Sösemann bemängelt, das Institut für Zeitgeschichte habe, um die schnelle Herausgabe der Tagebücher zu ermöglichen, zweifelhafte „Vereinbarungen mit dem Goebbels-Verehrer François Genoud“ getroffen. 2010 betonte Goebbels-Biograph Peter Longerich die herausragende Bedeutung der Tagebücher in Bezug auf „Einblicke in das Innere des nationalsozialistischen Machtgefüges“ und ihre Korrektheit, was Terminangaben, Treffen mit anderen Personen und auch die Kerninhalte seiner „Aufzeichnungen von Gesprächen“ betrifft. Doch besteht nach Longerich die Hauptproblematik der Tagebücher darin, dass sie „den bewussten Versuch des Propagandisten Goebbels darstellen, eine Hauptquelle für eine später zu schreibende Geschichte des Nationalsozialismus zu schaffen und dabei insbesondere die künftige Interpretation seiner eigenen historischen Rolle massiv zu beeinflussen, wenn nicht zu kontrollieren“. Diese Auffassung hatte bereits 1949 Anton Ritthaler in einer Rezension der ersten Tagebuch-Ausgabe (1942/43) vertreten, die er als, sei Goebbels’ Absicht gewesen, so dass die Inhalte stark in diese Richtung stilisiert seien. In ihrer Dissertation 2008 zu den Goebbels-Tagebüchern 1938 und 1939 kommt die Historikerin Angela Hermann zu dem Schluss, diese würden die Ereignisse im Wesentlichen so wiedergeben, wie es Goebbels’ Informationsstand entsprach. Kinder. 1939 ließ Goebbels seine Kinder in einem Film auftreten, der die Euthanasie Behinderter propagieren sollte. Seine Kinder werden dort als positiver Kontrast zu den als abstoßend dargestellten Behinderten gezeigt. Allein 1942 sah man die Goebbels-Kinder 34 Mal in Wochenschauen, wo sie jedes Mal ein familiäres Idyll präsentieren sollten: So sangen sie dem Vater zu seinem 45. Geburtstag ein Ständchen, halfen ihrer Mutter beim Wäscheaufhängen oder spielten ganz einfach im Garten. 1942/1943, als Goebbels kaum noch Kriegserfolge melden konnte, setzte er fast vollständig auf Durchhalteparolen und "Familien-Propaganda". So schickte er seine Frau Magda Ende 1944 noch zusammen mit den beiden ältesten Töchtern in ein Kriegslazarett, wo sie für die Wochenschau Verwundete pflegen sollten. Für die Töchter, zwölf und zehn Jahre alt, war es ein Schock, zum Teil verstümmelte Verwundete sehen zu müssen. Daraufhin verzichtete Goebbels auf diese Propaganda. Zum Tod der sechs Kinder siehe oben den Abschnitt Selbstmord. Nachlass. Der Schweizer Bankier und Unternehmer François Genoud hatte sich von Goebbels’ Erben die Rechte am Nachlass gesichert. Kurz vor seinem Freitod im Jahr 1996 übertrug Genoud seiner damaligen Rechtsberaterin Cordula Schacht (Tochter von Hitlers Wirtschaftsminister Hjalmar Schacht) „die alleinige Verfügung an den Urheberrechten der Werke von Joseph Goebbels“; sie beziehen sich auf Goebbels’ Tagebücher, Theaterstücke sowie Gedichte. Frau Schacht wurde damit zur Nachlassverwalterin Goebbels’. Bis heute werden etwaige Erlöse aus der Nutzung von Goebbels-Werken hälftig zwischen Nachlassverwalter und Goebbels-Erben aufgeteilt: „Jedes Mal, wenn urheberrechtlich geschützte Werke von Joseph Goebbels veröffentlicht werden, werden Tantiemen an seine Erben fällig […]“ Bei der 2010 im Siedler-Verlag München erschienenen Goebbels-Biographie von Peter Longerich wollen die Erben sogar am Absatz beteiligt werden: Im Juli 2014 wurde am Landgericht München eine Klage von Cordula Schacht gegen die Verlagsgruppe Random House, zu der auch der Siedler-Verlag gehört, auf eine Zahlung von 6507,87 Euro für die Nutzung von Goebbels-Zitaten aus dessen Tagebuch in Peter Longerichs Goebbels-Biographie verhandelt. In einem ersten Teilurteil vom 19. September 2014 wurde Random House verpflichtet, die Summe seines Erlöses aus dem Verkauf der Biographie zu nennen. Den Vorschlag des Gerichts, Nachlassverwalterin und Goebbels-Erben sollten den ihnen unter Umständen zustehenden Anteil an der Erlösen aus der Goebbels-Biographie einer Holocaust-Stiftung zur Verfügung stellen, lehnten diese ab. Um den Weiterverkauf der bereits gedruckten Biographie nicht zu gefährden, hatte Random House im Jahr 2010 nach seinen Angaben „entgegen seiner Überzeugung“ mit der Klägerin einen Vertrag zur Beteiligung an den Umsätzen geschlossen, verweigerte dann aber aus ethischen Gründen die Zahlung. Daraufhin verklagte Cordula Schacht den Verlag. Goebbels-Vergleiche. Goebbels steht bis heute weltweit für zynische, kalt-berechnende und menschenverachtende Propaganda. Helmut Heiber schrieb in einer Goebbels-Biographie: Regelmäßig kommt es zu Goebbels-Vergleichen, mit denen politische Gegner aufgrund ihres Auftretens oder ihrer Methoden rhetorisch diskreditiert werden sollen. Kino. Bereits 1940 wurde Goebbels durch die Figur des fanatischen Beraters des Diktators, Dr. Gorbitsch, in Charlie Chaplins berühmter Satire "Der große Diktator" parodiert. Er wird von Henry Daniell verkörpert. Ein weiterer Film, der sich zu Lebzeiten Goebbels widmete, war der historisch ungenaue US-amerikanische Anti-Nazi-Propagandafilm "Enemy of Women", mit dem geflüchteten Paul Andor in der Hauptrolle als Goebbels. Nach seinem Tod wurde Goebbels unter anderem im Spielfilm "Der letzte Akt" (1955) von Willy Krause dargestellt, in "Der Untergang" (2004) von Ulrich Matthes. Beide Filme schildern die letzten Tage des Dritten Reiches aus der Perspektive der nationalsozialistischen Führungsschicht. Der Kinofilm "Das Goebbels-Experiment" von Lutz Hachmeister (2005) dokumentiert anhand der persönlichen Tagebuchaufzeichnungen Goebbels’ Leben. Der gesamte Film kommt ohne Kommentator oder Zeitzeugenberichte aus. 2010 erschien der Film "Jud Süß – Film ohne Gewissen" (Regie Oskar Roehler), der versucht, die Entstehung des Propaganda-Films "Jud Süß" nachzuzeichnen. Im Film wird Goebbels von Moritz Bleibtreu dargestellt. Jordanien. Das haschemitische Königreich Jordanien () ist ein Staat in Vorderasien. Es grenzt an Israel, den im Westjordanland gelegenen Teil der Palästinensischen Autonomiegebiete, wobei die Grenze unter israelischer Kontrolle steht, Syrien, Irak, Saudi-Arabien und an das Rote Meer (Golf von Aqaba), an dem es eine Seegrenze zu Ägypten hat. Jordanien zählt zu den so genannten Maschrek-Staaten. Geographie. Jordanien ist ein Land mit hohem Wüstenanteil und lässt sich von West nach Ost in drei Großlandschaften gliedern: Der von Norden nach Süden verlaufende Jordangraben erreicht am Toten Meer den tiefsten trockenen Punkt der Erdoberfläche (). Der Große Afrikanische Grabenbruch setzt sich südlich über den Golf von Aqaba ins Rote Meer fort. Das ostjordanische Bergland steigt in einer schroffen, zerklüfteten Steilwand über dem Jordangraben auf. Dieses Faltengebirge erreicht im Dschabal Ram 1754 m (zweithöchster Berg des Landes nach dem Jabal Umm ad Dāmī bei Aqaba) und gliedert sich durch mehrere Hochebenen. Den nördlichen Teil bildet das Gilead-Gebirge, auf dessen Hochflächen die Städte Amman, Zarqa und Irbid liegen. Die im Osten an das Bergland anschließenden Wüstentafelländer nehmen etwa zwei Drittel Jordaniens ein. Klima. Der Nordwesten des Landes hat Mittelmeerklima mit heißen trockenen Sommern und kühlen feuchten Wintern sowie einer jährlichen Niederschlagsmenge von rund 800 mm. Im Osten und Süden gibt es weniger Niederschläge (100 mm). Im weitaus größten Teil Jordaniens herrscht kontinentales Wüstenklima. Die mittleren Sommer- beziehungsweise Wintertemperaturen liegen in Amman bei 31 bis 38 °C beziehungsweise 13 bis 19 °C. Flora und Fauna. Aufgrund der unterschiedlichen Klimaverhältnisse variiert auch die Vegetation. Die großen Trockengebiete und das Bergland sind nur spärlich mit Dornstrauchvegetation (Tamarisken und Schirmakazien) bewachsen. In den Steppen finden sich auch weitläufige Grasflächen. Ursprünglich war das Land stark bewaldet; nördlich von Amman zeigt die Aufforstung erste Erfolge, es gibt größere und kleinere Waldflächen mit Zypressen, Eichen, Akazien und überwiegend Kiefern. Die heimische Tierwelt ist trotz der kargen Vegetation recht vielfältig: Geier, Hamster und Steinadler finden sich ebenso wie Hyänen, Wildkatzen, Enten, Wölfe, Gazellen, Steinböcke und Wildziegen. Es gibt verschiedene Eidechsenarten, Schmetterlinge und Skorpione. In Jordanien kommen 24 Fledermaus-Arten vor. Bevölkerung. Die Amtssprache ist Arabisch. Ferner werden regional verschiedene Beduinendialekte sowie die jeweiligen Sprachen der Minderheiten gesprochen. Das Bevölkerungswachstum liegt bei 2,6 %; gut 37 % der Jordanier sind unter 15 Jahre. Infolge starker Landflucht leben etwa 79 % der Einwohner in Städten, die vor allem im Nordwesten des Landes liegen. Die Lebenserwartung liegt durchschnittlich bei 72 Jahren. Ethnien. Die Mehrheit der Bevölkerung von 5.970.000 Einwohnern bestand nach den Ergebnissen von 2011 aus Arabern (98 %), einschließlich der 1.835.704 registrierten Palästinenser und der etwa 700.000 Flüchtlinge aus dem Irak. Gezählt wurden daneben 102.000 Tscherkessen, 18.000 Drusen, 6300 „Zigeuner“ (gypsies), 6300 Turkmenen, 5400 Aserbaidschaner, 5000 Tschetschenen, 5600 Filippinos, 4700 Kurden, 1300 Griechen sowie kleinere ethnische Gruppen. Über 50 % der arabischen Bevölkerung stammen von den etwa 800.000 Palästinensern (s. Palästina) ab, die nach dem Palästinakrieg und dem Sechstagekrieg nach Jordanien geflohen sind. Die beiden größten Städte Jordaniens, Amman und Zarqa, haben palästinensische Bevölkerungsmehrheiten von 90 bis 99 %. Etwa 337.000 oder 17 % der 1,9 Millionen im Land registrierten Flüchtlinge, denen Jordanien als einziges arabisches Land die Staatsbürgerschaft gewährt hat, leben nach wie vor in zehn Flüchtlingslagern. In der Folge des Irak-Konflikts und der Vertreibung der Palästinenser aus Kuwait 1991 nahm Jordanien erneut Flüchtlinge aus beiden Ländern auf. Der andauernde Bürgerkrieg in Syrien führte ebenfalls zu einem Flüchtlingsstrom nach Jordanien. Religion. Freitagsgebet vor der Husseinmoschee in Amman. Da die Moschee überfüllt ist, wird die Straße gesperrt 93 % bekennen sich zum sunnitischen Islam. Der Islam ist in Jordanien Staatsreligion. Verschiedene christliche Konfessionen stellen etwa fünf Prozent der Bevölkerung. Zwei Prozent entfallen auf sonstige Religionen. Bildung und Soziales. Schulpflicht besteht für 6- bis 15-Jährige; die Analphabetenrate liegt bei Frauen bei 14 % und bei Männern bei 4 %. Im Land existieren acht staatliche und zwölf private Universitäten. 1983 trat ein noch lückenhaftes Sozialversicherungsgesetz in Kraft. Die Arbeitslosigkeit liegt bei 14,5 %; die Inflation bei 3,4 %. Das Gesundheitswesen ist in den Städten gut ausgebaut, auf dem Land aber noch unzureichend. Geschichte. Herculestempel auf dem Zitadellenhügel in Amman Hauptartikel: Geschichte Jordaniens Das heute von Israel besetzte Westjordanland (Westbank) war einst der Kernraum des biblischen Israel mit Bethlehem, Hebron und Jerusalem. Die etwa 1200 v. Chr. ins Land gekommenen Ammoniter gehörten der biblischen Überlieferung zufolge später dem Königreich Israel unter König David und Salomo (um 1000 bis 926 v. Chr.) an. Seit etwa dem 4. Jh. v. Chr. siedelten beiderseits des Jordans die von der Arabischen Halbinsel stammenden Nabatäer. Unter Kaiser Trajan gliederten die Römer das Gebiet 106 n. Chr. ihrem Imperium als Provinz Arabia an. In der Spätantike diente das heutige Westjordanien dem Römischen Reich als eine Art Militärgrenze gegen die Beduinen. Mit dem Sieg der Muslime über das Oströmische Reich in der Schlacht am Jarmuk 636 geriet das Gebiet des heutigen Jordanien unter fast ununterbrochene islamische Herrschaft, mit Ausnahme der Jahre 1115–1187, als der Westteil in das Königreich Jerusalem, einen Kreuzfahrerstaat, eingegliedert war. Von 1250 bis 1516 gehörte das Gebiet als Teil der Provinz Syrien zum Reich der Mamluken und anschließend bis 1918 zum Osmanischen Reich. Im Ersten Weltkrieg beteiligten sich jordanische Stämme am Araberaufstand gegen die Osmanen (1916–1918) und schlossen sich nach Kriegsende dem in Damaskus unter dem Emir Faisal aus dem Hause der Haschimiten gegründeten Königreich Syrien an. Aber Großbritannien setzte auf der Konferenz von San Remo 1920 die Angliederung Jordaniens an das britische Mandatsgebiet Palästina durch. 1923 entstand dann durch Abtrennung der Gebiete östlich des Jordans das unter britischem Protektorat stehende Emirat Transjordanien mit Abdallah ibn Husain als Staatsoberhaupt. Ihm zur Seite stand der britische General John Bagot Glubb (Glubb Pascha), der 1939 die Arabische Legion als Schutzgarde des Königshauses aufbaute. Während des Zweiten Weltkriegs kämpften arabisch-jordanische Kontingente in der Arabischen Legion an der Seite der Briten gegen die deutschen Streitkräfte. Am 25. Mai 1946 (Nationalfeiertag) erlosch das britische Mandat und Transjordanien erhielt seine volle Unabhängigkeit. Abdallah I. nahm den Königstitel an. Nach Ausrufung des souveränen Staates Israel besetzte die Arabische Legion im ersten israelisch-arabischen Krieg die östlichen Teile Palästinas und die Altstadt von Jerusalem. Das Waffenstillstandsabkommen von 1949 mit Israel empfanden die Jordanier als Niederlage, zumal es für Jordanien einen ungünstigeren Grenzverlauf festlegte, als im UN-Teilungsplan von 1947 bei wirtschaftlicher Einheit und Internationalisierung Jerusalems vorgesehen war. 1950 wurde der Staat in Haschemitisches Königreich Jordanien umbenannt. Die dabei erfolgte offizielle Eingliederung der palästinensischen Gebiete lehnten andere arabische Staaten aber ab. Daraufhin fiel König Abdallah I., am 20. Juli 1951 in Jerusalem dem Attentat eines palästinensischen Nationalisten zum Opfer. Nachdem sein Sohn und Nachfolger Talal wegen Krankheit 1952 abtreten musste, wurde 1953 dessen Sohn Hussein als Hussein I. König von Jordanien, der wiederum 1957 die Reformregierung Sulaimān an-Nābulusī zum Rücktritt zwang. Ein 10. August 1965 unterzeichneter bilateraler Vertrag regelte die Grenze mit dem benachbarten Saudi-Arabien, die bis dahin umstritten war. Jordanien, das nur über einen schmalen Landstreifen Zugang zum Meer hatte, ging es dabei hauptsächlich um zusätzliche Küstenlinie am Golf von Akaba. Durch den Vertrag gewann es etwa 12 Kilometer zusätzliche Küstenlinie (Gesamtlänge etwa 19 Kilometer) sowie 6.000 km² Territorium und trat im Gegenzug etwa 7.000 km² seines Territoriums an Saudi-Arabien ab. Bei den ausgetauschten Gebieten handelte es sich größtenteils um Wüstengebiete. In den 1950er und 1960er Jahren kam es zum Konflikt um das Jordanwasser. Im Sechstagekrieg zwischen Israel und den arabischen Staaten 1967 verlor Jordanien seine gesamten Gebiete westlich des Jordans an Israel. Weitere 400.000 Menschen, vor allem aus dem Westjordanland, kamen zusätzlich ins Land, nachdem bereits 1949 Jordanien 400.000 Flüchtlinge hatte aufnehmen müssen. Die Herausforderung durch die Palästinensische Befreiungsorganisation (PLO), die in den Flüchtlingslagern eine Art „Staat im Staate“ bildete und die Monarchie bedrohte, führte 1970/71 zum offenen Bürgerkrieg, in dem König Hussein die militärischen Einheiten der von Syrien unterstützten PLO zerschlug („Schwarzer September“). Aus dem israelisch-arabischen Jom-Kippur-Krieg 1973 hielt sich Jordanien weitgehend heraus. Eine jordanische Brigade wurde nach Syrien geschickt, um auf syrischem Gebiet gegen israelische Truppen zu kämpfen. Nach ersten Signalen 1974 gab König Hussein 1988 endgültig alle Ansprüche auf das Westjordanland zugunsten der PLO auf. Die eindeutige Parteinahme Jordaniens für den Irak im Zweiten Golfkrieg 1991 führte zu Spannungen mit Syrien und den arabischen Golfstaaten. Dennoch gelang König Hussein 1994 der Abschluss des Friedensvertrages mit Israel. Als er 1999 nach langer schwerer Krankheit starb, trat sein Sohn als Abdullah II. die Nachfolge an. Dieser schloss 2001 ein Freihandelsabkommen mit den Vereinigten Staaten, 2002 ein Assoziierungsabkommen mit der Europäischen Union und verfolgte insgesamt eine prowestliche Außenpolitik. Am 10. November 2005 wurden bei einem Terroranschlag auf Hotels in Amman 56 Menschen getötet. Im Irak kam es zu antijordanischen Protesten, da Jordanien von schiitischer Seite nachhaltige Unterstützung für die Sunniten vorgeworfen wird. Vor der Regierungsumbildung am 7. April 2005 haben die USA innenpolitische Reformen im Königreich angemahnt. Politisches System. Nach der Verfassung von 1952 ist Jordanien eine konstitutionelle Monarchie der haschemitischen Dynastie. Der König ist Staatsoberhaupt, Oberbefehlshaber der Streitkräfte und ernennt den Ministerpräsidenten sowie den Ministerrat. Das Parlament besteht aus dem Abgeordnetenhaus mit 110 für vier Jahre gewählten Mitgliedern (9 Sitze für Christen, 3 für Tscherkessen und 6 für Frauen reserviert) und dem Senat mit 40 Mitgliedern, die für acht Jahre vom König ernannt werden. Frauen und Männer haben ab 18 das Wahlrecht. Bei den Wahlen zum Abgeordnetenhaus vom 17. Juni 2003 erreichte der jordanische Zweig der Muslimbruderschaft, die Islamische Aktionsfront, 10,3 % der Stimmen. Die Wahlen 2003 brachten königstreuen Stammesführern 62 von den 110 Sitzen. Bei den Wahlen 2010, die von Muslimbrüdern wegen angeblicher Benachteiligung durch eine Reform des Wahlrechts boykottiert wurden, errangen königstreue Kandidaten aus den ländlichen Regionen die Mehrheit. Zugleich wurden nur 34 Abgeordnete des alten Parlaments in das neue gewählt. Nach der Verfassung ist der Islam Staatsreligion, weitere Religionsgemeinschaften können sich anerkennen lassen. Im Rechtswesen, das nach britischem Vorbild aufgebaut ist, gibt es neben den Zivilgerichten auch Schariagerichte, die bei privatrechtlichen Auseinandersetzungen unter Muslimen angerufen werden können und das islamische Recht anwenden. Außen- und Sicherheitspolitik. Jordanien ist Mitglied der Vereinten Nationen, der Organisation der Islamischen Konferenz (OIC) und der Arabischen Liga. Jordaniens Außenpolitik ist seit Jahrzehnten am Westen orientiert. Das Königreich ist mit den Vereinigten Staaten verbündet und gehört zu deren offizieller Kategorie der wichtigsten Verbündeten außerhalb der NATO. Jordanien verfügt außerdem über ein Assoziierungsabkommen mit der EU. Die Beziehung zu den USA nahm Schaden, als Jordanien seine Neutralität im Zweiten Golfkrieg bewahrte. Im Jahre 1994 unterzeichneten Jordanien und sein Nachbar Israel einen Friedensvertrag, der als Meilenstein im Nahostkonflikt gilt. Jordanien steht im Konflikt mit den beiden vorherrschenden Palästinenserorganisationen. Die PLO wurde 1971 aus Jordanien vertrieben (Schwarzer September), die von Syrien und dem Iran unterstützte Hamas wurde in Jordanien 1999 verboten, wird jedoch seit 2011 wieder geduldet. Die Regierung bezeichnete das Verbot als Fehler. Menschenrechte. Der UN-Sonderberichterstatter über Folter dokumentierte 2006 den Einsatz von Folter durch den jordanischen Nachrichtendienst GID, Polizei und Justiz, auch Menschenrechtsorganisationen wie Human Rights Watch berichten immer wieder von schweren Missachtungen der Menschenrechte in Jordanien. Verwaltungsgliederung. Die darunter liegenden Ebenen der Lokalverwaltung sind der Distrikt (arabisch) und der Subdistrikt (arabisch). Städte. Die größten Städte sind (Stand 1. Januar 2005): Amman 1.217.924 Einwohner, Zarqa 890.000 Einwohner, Irbid 750.962 Einwohner, ar-Rusaifa 261.843 Einwohner, Wadi as-Sir 193.613 Einwohner, Aqaba 101.769 Einwohner, Madaba 82.457 Einwohner und al-Baq'a 80.231 Einwohner. Seit 2013 gilt das Flüchtlingslager Zaatari als fünftgrößte „Stadt“ des Landes. Allgemein. Die ohnehin seit Jahren in einer schweren Krise befindliche jordanische Wirtschaft (chronisch defizitäre Handelsbilanz, steigende Arbeitslosigkeit, fortschreitende Konkurswelle) leidet besonders unter den politischen Krisen in der Region. Mitte der 1990er Jahre befanden sich etwa 80 % der jordanischen Volkswirtschaft in den Händen von Palästinensern. Der Handelssektor war schwer von den UN-Sanktionen über den Irak getroffen, da der Irak vor dem Golfkrieg 40 % der gesamten Handelsübersicht Jordaniens ausmachte. Im Jahre 1997 unterzeichneten Jordanien und die Europäische Union (EU) eine Teilhaberschaftsvereinbarung, die den Weg für eine Freihandelszone bis zum Jahr 2010 ermöglichte. Dieses Abkommen, das Anfang 1999 in Kraft trat, soll auch die Vermittlungen für den Beitritt Jordaniens zur Welthandelsorganisation (WTO) beschleunigen. Im Jahre 1996 schlossen Jordanien und Ägypten eine Teilhaberschaftsvereinbarung, welche die bilateralen ökonomischen Mitarbeitsverträge regelte und beabsichtigte, den Handel zu liberalisieren, indem sie eine Freihandelszone etablierten. Zahlreiche Geschäftsprotokolle und Vereinbarungen sind mit dem Libanon, Syrien, dem Irak, dem Jemen, Saudi-Arabien, Bahrain, Tunesien, Ägypten, Marokko, Libyen und dem Sudan zustande gekommen. Wirtschaftssektoren. 5 % der Fläche Jordaniens sind landwirtschaftlich nutzbar. Der Anbau von Getreide, Obst und Gemüse ist stark bewässerungsabhängig. Die Landwirtschaft macht 2 % des Bruttoinlandsproduktes aus, in ihr sind 3,9 % der Beschäftigten tätig. Wichtigster Wirtschaftszweig ist der Phosphatabbau mit anschließender Verarbeitung zu Düngemitteln. Es gibt zwei große Düngemittelfabriken im Land, eine jordanisch-indische sowie eine jordanisch-japanische. Auch Kupfererze, Ölschiefer und Kali werden gefördert. Neben einer Erdölraffinerie (Rohöl wird aus Saudi-Arabien importiert) gibt es Zement- und chemische Industrie. Es überwiegen Klein- und Mittelbetriebe. 26 % des Bruttoinlandsproduktes entfällt auf die Industrie, in der 21,5 % der Beschäftigten arbeiten. Jordanien importiert vor allem Maschinen, Transportausrüstungen, Nahrungsmittel und Erdöl zu 11 % aus Saudi-Arabien, 8 % Deutschland, 8 % VR China, 7 % USA, 7 % Irak, 4 % Italien und zu 4 % aus Japan. Es exportiert vor allem Textilien, chemische Erzeugnisse und Rohstoffe (Phosphat, Pottasche) zu 22 % in die USA, 18 % Irak, 7 % Indien, 7 % Schweiz und 5 % Saudi-Arabien. Die Stromerzeugung setzte sich 2007 zusammen aus 66 % Erdöl, 28 % Erdgas und 1 % erneuerbare Energie. 5 % des Strombedarfs wird durch Importe gedeckt. Da es keine nennenswerten Ölvorkommen gibt, muss auch dieses importiert werden. Jordanien besitzt ca. 3 % der Uranvorräte in der Welt, welche im Zuge des Atomeinstieges abgebaut werden sollen. Die Jordan Atomic Energy Commission (JAEC) und die Jordan Energy Resources Inc. schlossen sich mit Areva zu den Unternehmen Nabatean Energy beziehungsweise der Jordan French Uranium Mining Company (JFUMC) zusammen. Der Abbau in der Zentralregion bei Swaqa, Khan Azzabib, Wadi Maghar und Attarat soll ab 2013 beginnen. Areva sicherte sich dazu die exklusiven Uranabbaurechte für die nächsten 25 Jahre. Die JAEC unterzeichnete im Dezember 2009 einen Vertrag mit dem Korean Atomic Energy Research Institute (KAERI) und Daewoo, um bis 2015 einen 5-MW-Forschungsreaktor an der Jordanischen Universität für Forschung und Technologie zu errichten. Seit 2009 befindet sich das erste Kernkraftwerk des Landes in der Ausschreibung: Im Rennen sind der Atmea-1 von Areva-MHI, der Enhanced CANDU-6 von Atomic Energy of Canada Limited sowie das AES-92 von Atomstroiexport. Die Entscheidung für ein Modell soll 2012 getroffen werden. Vier weitere Kernkraftwerke befinden sich in der Planungsphase, um den Atomstromanteil auf 30 % ansteigen zu lassen. Tourismus. Der Tourismus macht ca. 10 % des Bruttoinlandsproduktes aus (Dienstleistungen insgesamt 72 %, darin erwerbstätig 74,7 %) und ist die zweitwichtigste Devisenquelle. Obwohl in Jordanien selbst seit über 30 Jahren Frieden herrscht, reagieren die Touristenströme sehr empfindlich auf die politischen Entwicklungen im Nahen Osten. So blieb die von der jordanischen Regierung nach dem Friedensschluss mit Israel erhoffte „Friedensdividende“ aus dem Tourismus bisher weitgehend aus. Infrastruktur. 2008 verfügten 42 Prozent der jordanischen Haushalte über einen Festnetzanschluss, 94 Prozent über mindestens ein Mobiltelefon. Der Durchschnittsumsatz betrug 2008 ca. 12 Euro. 2025 wird Jordanien über keine Grundwasserressourcen mehr verfügen und ohne Gegenmaßnahmen ausschließlich von Regenwasser abhängig sein. Staatshaushalt. Der Staatshaushalt umfasste 2009 Ausgaben von umgerechnet 8,2 Mrd. US-Dollar, dem standen Einnahmen von umgerechnet 5,5 Mrd. US-Dollar gegenüber. Daraus ergibt sich ein Haushaltsdefizit in Höhe von 11,8 % des BIP. Die Staatsverschuldung betrug 2009 15,95 Mrd. US-Dollar oder 69,9 % des BIP. Kultur. Der Nationalfeiertag ist der 25. Mai (Annahme des Königstitels durch Abdullah I. 1946). Bekannt ist auch das "Jerash Festival" in jedem Sommer, bei dem Musiker aus vielen arabischen Nationen auftreten. Jodie Foster. Jodie Foster (* 19. November 1962 in Los Angeles; eigentlich "Alicia Christian Foster") ist eine US-amerikanische Schauspielerin, Filmregisseurin, Filmproduzentin und zweifache Oscarpreisträgerin. Kindheit und Jugend. Foster wurde einige Monate nach der Trennung ihrer Eltern als deren viertes Kind geboren. Anfang des Jahres 1963 zog Fosters Mutter Brandy mit den Kindern ins San Fernando Valley im Nordwesten von Los Angeles zu ihrer Lebensgefährtin, die den überwiegenden Beitrag zum Familienunterhalt leistete. Die Beziehung dauerte bis zum Jahr 1976. Zusammen mit ihren älteren Geschwistern, dem Bruder Lucius Fisher „Buddy“ (* 1957) und den Schwestern Lucinda „Cindy“ (* 1954) und Constance „Connie“ Foster (* 1955), wuchs Jodie in Los Angeles auf. Brandy Foster arbeitete in der Filmbranche. Als alleinerziehende Mutter stimmte sie Werbeauftritten ihrer Tochter aus finanziellen Gründen zu. Zu einem der Castings war die damals dreijährige Jodie mitgekommen und für eine Werbung für die Sonnencreme "Coppertone" engagiert worden. Karriere. Foster trat später zunächst in Fernsehserien wie "Bonanza", "Kung Fu", "Bob & Carol & Ted & Alice", "Love Story", "The Addams Family" und "Paper Moon" auf. Nach "Svengali" (deutscher Titel: "Obsession – Die dunkle Seite des Ruhms") übernahm sie gelegentlich Sprechrollen, wie 1996 und 1997 in den Serien "Frasier" und "Akte X" in jeweils einer Episode als Anruferin und als Stimme in einer Halluzinationssequenz. In einer Episode der "Simpsons" ist sie im US-amerikanischen Original als Stimme von Maggie Simpson zu hören. Ihre erste Kinofilmrolle spielte sie im Alter von zehn Jahren in dem Disney-Film "Flucht in die Wildnis" (Originaltitel: "Napoleon and Samantha", 1972). In den 1970er Jahren drehte sie für dieses Studio noch eine Reihe weiterer Filme. 1974 gab ihr Regisseur Martin Scorsese zunächst eine Nebenrolle in seinem Film "Alice lebt hier nicht mehr". Überzeugt von ihrem Talent besetzte er Foster auch in seinem nächsten Film, und als minderjährige Prostituierte in "Taxi Driver" (1976) wurde die damals 13 Jahre alte Schauspielerin weltberühmt. Neben einer Oscar-Nominierung als beste Nebendarstellerin erhielt Foster für ihre Darstellung zwei British Academy Film Awards und den David di Donatello. Im selben Jahr spielte sie in den Komödien "Bugsy Malone" und "Ein ganz verrückter Freitag". Für "Bugsy Malone" wurde Foster erneut mit zwei British Academy Film Awards ausgezeichnet und für "Ein ganz verrückter Freitag" erhielt sie eine Golden Globe-Nominierung als beste Hauptdarstellerin in einer Komödie. In "Das Mädchen am Ende der Straße" (ebenfalls 1976) spielte sie eine unabhängig lebende, hochtalentierte Jugendliche, eine Rolle, die ihrem Image bis heute entspricht und für die sie mit dem Saturn Award ausgezeichnet wurde. Das Angebot, die Rolle der Prinzessin Leia Organa in "Krieg der Sterne" ("Star Wars", 1977) zu übernehmen, musste sie wegen vertraglicher Verpflichtungen gegenüber dem Disney-Konzern ablehnen. Neben der Schauspielerei machte Foster an der französischsprachigen Privatschule Le Lycée Français de Los Angeles ihren Abschluss als Jahrgangsbeste. Von 1980 bis 1985 studierte Foster an der Yale University Literatur und schloss das Studium mit "magna cum laude" ab. Ihre Bachelorarbeit schrieb sie über die afroamerikanische Autorin Toni Morrison. 1997 verlieh ihr die Universität einen Ehrendoktortitel. In ihrer Studienzeit schrieb Foster einige Artikel für Zeitschriften und interviewte u. a. Nastassja Kinski. Die beiden Frauen wurden Freundinnen und suchten nach einer Möglichkeit, bei einem Filmprojekt zusammenzuarbeiten. Die Gelegenheit ergab sich 1984 bei dem Film "Hotel New Hampshire", der auf einem Roman von John Irving basiert. 1988 übernahm Foster in "Angeklagt" die ursprünglich für Kelly McGillis vorgesehene Rolle einer vergewaltigten Frau; dafür erhielt sie ihren ersten Oscar. 1991 debütierte sie mit "Das Wunderkind Tate" als Regisseurin. Im selben Jahr spielte sie anstelle von Michelle Pfeiffer eine FBI-Agentin in "Das Schweigen der Lämmer". Ihre schauspielerische Zusammenarbeit mit Anthony Hopkins brachte beiden Akteuren einen Oscar ein. 2001 löste sie ihre Produktionsfirma "Egg Pictures" aus familiären Gründen auf. Zu den produzierten Filmen gehören neben ihren eigenen Werken "Lost Heaven", "Waking the Dead" und "Baby Blues". Foster gehört zu den bestbezahlten Schauspielerinnen Hollywoods. 2007 belegte sie in einer Rangliste des Hollywood Reporter mit einer Gagenforderung von geschätzten 10 bis 12 Millionen US-Dollar pro Film den neunten Platz. Im Juli 2008 belegte sie in einer Forbes-Rangliste mit Gagen in Höhe von 23 Mio. US-Dollar (zwischen Juni 2007 und Juni 2008) hinter Cameron Diaz, Keira Knightley, Jennifer Aniston, Reese Witherspoon und Gwyneth Paltrow den sechsten Platz. Während der Dreharbeiten in Frankreich zu Roman Polańskis Filmversion von Yasmina Rezas Theaterstück "Der Gott des Gemetzels" übernahm Foster 2011 den Vorsitz der César-Verleihung 2011. 2013 erhielt sie bei der Verleihung der Golden Globe Awards den Cecil B. DeMille Award für ihr Lebenswerk. Foster hatte lange Zeit einen Film über das Leben und Werk der umstrittenen Filmregisseurin Leni Riefenstahl geplant. Anlässlich der Premiere ihres Filmes "Der Biber" gab sie dann bekannt, den Film nicht länger produzieren zu wollen, da sie sich für die Darstellung der Riefenstahl inzwischen für zu alt halte. Und sie hätte bei diesem Film nicht nur Regie führen und ihn produzieren wollen. Privatleben. Im Dezember 2007 bekannte sich Foster erstmals öffentlich zu ihrer langjährigen Lebensgefährtin Cydney Bernard. Im Mai 2008 gab sie die Trennung des Paares bekannt. Foster hat zwei Söhne (* 20. Juli 1998 und * 29. September 2001). Seit 2013 ist sie mit der Schauspielkollegin Alexandra Hedison zusammen; im April 2014 hat das Paar geheiratet. Synchronstimme. Die Standardsprecherin für Fosters deutsche Synchronstimme ist die Schauspielerin Hansi Jochmann. Foster selbst spricht und versteht etwas Deutsch. In französischen Versionen ihrer Filme synchronisiert sie sich selbst, da sie die Sprache fließend spricht. Auszeichnungen und Nominierungen (Auswahl). British Academy Film Award Golden Globe Award Screen Actors Guild Award Julianisches Datum. Das julianische Datum – nicht mit dem Datum im julianischen Kalender zu verwechseln – ist eine in den Naturwissenschaften gebräuchliche Tageszählung und wird mit JD (engl. "Julian Date") abgekürzt. Es gibt die Zeit in Tagen an, die seit dem 1. Januar −4712 (4713 v. Chr.) 12:00 Uhr vergangen ist. Dem Datum  Uhr UT entspricht zum Beispiel das julianische Datum. Als fortlaufende Tageszählung ist das julianische Datum frei von Unregelmäßigkeiten wie Schalttagen, unterschiedlich langen Monaten usw., wie sie in den meisten Kalendern auftreten. Es wird daher vor allem in der Astronomie zur Beschreibung zeitabhängiger Größen verwendet, da mit ihm sehr leicht Zeitdifferenzen berechnet werden können. Geschichte. Das julianische Datum wurde 1583 von dem französischen Philologen und Geschichtsschreiber Joseph Justus Scaliger vorgeschlagen. Der Name leitet sich möglicherweise von dem damals verwendeten julianischen Kalender ab. Andere Quellen berichten, Scaliger habe sein System nach seinem Vater Julius Caesar Scaliger benannt. Die Zählung der Tage ist innerhalb eines Zeitraums von 7980 Jahren, der sogenannten "Julianischen Periode", fortlaufend. Die Länge ergibt sich als kleinstes gemeinsames Vielfaches der Zykellängen der Indiktion (15 Jahre), des Mondzirkels (19 Jahre) und des Sonnenzyklus (28 Jahre). Das letzte Zusammenfallen der drei Zyklen (also das letzte Mal, dass alle drei Zyklen zugleich die Jahresnummer „1“ hatten) war im Jahr 4713 v. Chr. Der britische Astronom John Herschel schlug 1849 in seinem Buch "Outlines of Astronomy" vor, das Scaliger’sche Schema zur Zeitmessung in der Astronomie zu verwenden. Dies beseitigte die Komplikationen, die bei der Verwendung verschiedener Kalender auftreten konnten. Er führte auch den gebrochenzahligen Anteil für die Uhrzeit in der westeuropäischen Zeitzone ein. Der Tageswechsel erfolgt um 12 Uhr mittags, damit während der nächtlichen Beobachtungen kein Datumswechsel stattfindet. Eigenschaften. In der Astronomie wird das julianische Datum als "kontinuierliche" Zeitzählung verwendet, die jedem beliebigen Zeitpunkt eine eindeutige Kommazahl zuordnet, mit der Anzahl der verflossenen Tage als ganzzahligem Anteil und dem verflossenen Tagesbruchteil in den Nachkommastellen (das "diskrete" julianische Datum der Chronologie hingegen zählt nur ganze Tage, siehe unten). Im internationalen Sprachgebrauch wird das julianische Datum als „JD“ abgekürzt. Die wissenschaftliche Zeitmessung benutzt mehrere verschiedene Zeitskalen nebeneinander, welche jeweils für bestimmte Zwecke besonders geeignet sind, z. B. Universal Time „UT“, Internationale Atomzeit „TAI“, Terrestrische Zeit „TT“, Baryzentrische Dynamische Zeit „TDB“ usw. Auf jeder dieser Zeitskalen kann in Form eines julianischen Datums eine kontinuierliche Zeitzählung eingeführt werden, wobei ein „Tag“ in der Regel 86.400 Sekunden der betreffenden Zeitskala entspricht. Da die einzelnen Zeitskalen sich voneinander unterscheiden, sind auch die betreffenden julianischen Daten für ein und dasselbe Ereignis verschieden. Es muss daher im Zweifelsfall angegeben werden, auf welcher Zeitskala das verwendete julianische Datum gezählt wird, z. B. „JD (UT1)“, „JD (TT)“ usw. Die Internationale Astronomische Union (IAU) empfiehlt die Verwendung der Terrestrischen Zeit als zugrunde liegender Zeitskala, mit einem aus 86.400 Sekunden (des Internationalen Einheitensystems) bestehenden Tag. Die oft anzutreffende Abkürzung „JDE“ bezeichnet ein nach Ephemeridenzeit gezähltes julianisches Datum, wird aber auch häufig für dessen Nachfolger „JD (TT)“ benutzt. Wird ein julianisches Datum verwendet, das auf einer ungleichförmigen Zeitskala beruht (z. B. UTC), so ist bei der Berechnung von Zeitdifferenzen gegebenenfalls eine Korrektur nötig (im Beispiel UTC: Berücksichtigung von Schaltsekunden). Das julianische Datum ist eine reine fortlaufende Tageszählung und weist keinerlei kalendarische Strukturen auf, wie z. B. eine Einteilung in Jahre, Monate usw. Es hat trotz der Namensähnlichkeit nichts mit dem julianischen Kalender zu tun. Auch das englische "Julian Date" leidet unter derselben Verwechslungsgefahr, weshalb z. B. Jean Meeus als Autor einschlägiger Werke stattdessen die Bezeichnung "Julian Day Number" oder einfach "Julian Day" benutzt. Im Sprachgebrauch der IAU ist jedoch unter "Julian Day Number" lediglich der ganzzahlige Teil des julianischen Datums zu verstehen und das volle Datum nach wie vor das "Julian Date". Im Deutschen haben sich Bezeichnungen wie "Julianische Tageszahl" oder "Julianische Tageszählung" ebenfalls bisher nicht durchgesetzt. Berechnung aus dem Kalenderdatum. codice_1 Die Variablen codice_2, codice_3, codice_4, codice_5, codice_6 und codice_7 enthalten die Bestandteile des zu bearbeitenden Datums, das Ergebnis wird in codice_8 zurückgegeben. Die Funktion codice_9 schneidet die Nachkommastellen einer Zahl ab. Berechnung in Programmiersprachen. Da die meisten Programmiersprachen zur internen Darstellung von Datums- und Zeitwerten eine fortlaufende Nummerierung ab einem bestimmten Bezugspunkt in Tagen oder Millisekunden verwenden, kann oft durch einfache Subtraktion die Tagesdifferenz zu einem definierten Zeitpunkt bestimmt werden. Hierbei ist allerdings zu beachten dass die Untergrenze der Datumsvariablen nicht unterschritten wird (meist der 1. Januar 1900 oder der 1. Januar 1970). codice_10 Wichtig ist die Übergabe als UTC-Wert, sonst berücksichtigt die Subtraktion eventuelle Zeitzonenunterschiede (Sommer/Winterzeit). codice_11 "A1" enthält einen Datums- oder einen kombinierten Datums- und Zeitwert. Achtung: In Microsoft Excel gilt 1900 als Schaltjahr, gültige Werte werden erst ab dem 1. März 1900 geliefert. Ab diesem Wert wird die Schaltjahresregel jedoch richtig implementiert. Umrechnung eines Datums im julianischen Format in ein lesbares Datumsformat in Microsoft Excel codice_12 Berechnung des Kalenderdatums aus dem julianischen Datum. Das julianische bzw. gregorianische Kalenderdatum kann nach dem folgenden Algorithmus aus einem gegebenen julianischen Datum berechnet werden (das julianische Datum darf nicht negativ sein). Es wird angenommen, dass bis zum 4. Oktober 1582 der julianische Kalender und ab dem 15. Oktober 1582 der gregorianische Kalender zu verwenden ist. codice_45 Die Variable codice_8 enthält das zu bearbeitende julianische Datum, die Variablen codice_2, codice_3, codice_4 die Bestandteile des resultierenden Kalenderdatums (der Tag auch den Tagesbruchteil). Die Funktion codice_9 schneidet die Nachkommastellen einer Zahl ab. Die Funktion codice_51 liefert die Nachkommastellen einer Zahl. Rundet man das julianische Datum auf eine ganze Zahl und bestimmt den Modulo 7, also den Rest einer Division durch 7, erhält man den Wochentag (mit Montag = 0 bis Sonntag = 6). Chronologisches julianisches Datum. Das chronologische julianische Datum wird ebenfalls ab dem 1. Januar −4712 gezählt, aber nur in ganzzahligen Tagesschritten. Es entspricht dem astronomischen julianischen Datum für 12h mittags. Berechnung. codice_52 Die Variablen codice_2, codice_3 und codice_4 enthalten die Bestandteile des zu bearbeitenden Datums, die Variablen codice_56, codice_57 und codice_37 sind Hilfsgrößen der Berechnung und das Ergebnis wird in codice_8 zurückgegeben. codice_9 steht für das Abschneiden der Nachkommastellen. Jesus (Name). Jesus ist ein männlicher Vorname biblischer Herkunft. Sein bekanntester Träger ist Jesus von Nazaret, den Christen als Jesus Christus, Muslime als ʿĪsā ibn Maryam verehren. Meist von diesem Namensträger abgeleitet, wird "Jesus" in vielen Sprachen verwendet. Der Name findet sich auch als Familienname, Ordensname, als Teil der Bezeichnung von Orten, Filmen, Musik- und Kunstwerken sowie in Redewendungen. Herkunft und Varianten. "Jesus" ist die lateinische Form des altgriechischen "Ιησούς". Dieses ist im antiken hellenisierten Judentum die Transkription des hebräisch-aramäischen Vornamens "Jehoschua" (יהושע) mit seinen Kurzformen "Jeschua" oder "Jeschu", erweitert um die griechische Nominativ-Endung "-s", die in den anderen Kasus entfällt bzw. ersetzt wird. Die Etymologie und damit eine mögliche Bedeutung des Namens sind unsicher. Das Matthäusevangelium leitet ihn von der hebräischen Wurzel "jašaʿ", „retten“, ab und wurde damit für die altchristliche Deutung des Namens bestimmend. Dieser Vorname war im ersten Jahrhundert unter Juden weit verbreitet. Er wird unter anderem in den Schriften des jüdischen Historikers Flavius Josephus oft genannt. Danach hießen allein vier Hohepriester zwischen 37 v. bis 70 n. Chr. sowie 13 palästinische Juden, meist Aufständische wie die Zeloten, "Jeschua". Erst in Reaktion auf das Christentum nannten Juden ihre Söhne nur noch selten so. Eine andere Latinisierung dieses Namens ist "Josua". Das Buch Josua stellt Josua, den Sohn Nuns als direkten Nachfolger von Mose und Anführer der Israeliten dar. Die griechische Bibelübersetzung des Tanach, die Septuaginta, nannte ihn "Jesus". Erst die lateinische Bibelübersetzung des Kirchenvaters Hieronymus unterschied "Josua" (Altes Testament) von "Jesus" (Neues Testament). Die Namensformen "Josua" und "Joshua" blieben als Vornamen für Juden und Christen zu allen Zeiten üblich. Deklination. Im Deutschen wurde der Name bis ins frühe 20. Jahrhundert griechisch-lateinisch dekliniert: „Dies ist Jesus, der Juden König“ (Nominativ) – „Sie teilten Jesu Kleider“ (Genitiv) – „Sie gaben Jesu einen Backenstreich“ (Dativ) – „Sie führten Jesum in das Richthaus“ (Akkusativ) – „Jesu, meine Freude“ (Vokativ). Heute ist, außer in literarischen Zitaten, nur noch der Genitiv "Jesu" gebräuchlich. Verbreitung. Die arabische Form "ʿĪsā" ist heute in mehreren Sprachen des Orients verbreitet. Die Vorkommen des Namens im Koran, als ʿĪsā ibn Maryam, werden entweder durch jüdischen Einfluss, durch Abwandlung von syr. Yeshūʿ oder mit Bezugnahme auf vorislamische Inschriften zu erklären versucht. Die türkische Form des Namens ist "İsa". Arabische Christen verwenden stattdessen "Yasu'a" (Arabische: يسوع, Yasūʿa). In vielen christlich geprägten Ländern ist "Jesus" als männlicher Vorname ungebräuchlich. Im Spanischen dagegen ist "Jesús" bis heute ein verbreiteter Vorname. Hintergrund ist die Reconquista, in deren Verlauf dem islamischen Vornamen Mohammed der Name Jesus entgegengesetzt wurde. In Deutschland war Jesus als Vorname lange nicht zugelassen. 1996 entschied das Oberlandesgericht Bremen, dass ein nach südafrikanischem Recht erworbener und geführter Vorname „Frieden mit Gott allein durch Jesus Christus“ in das Familienbuch einzutragen sei. 1998 entschied das Oberlandesgericht Frankfurt auch im Hinblick auf internationale Gebräuche, dass Standesämter den Elternwunsch, einem Kind den Namen "Jesus" zu geben, nicht ablehnen dürfen. Juristische Person. Als juristische Person wird eine Personenvereinigung oder ein Zweckvermögen mit gesetzlich anerkannter rechtlicher Selbständigkeit bezeichnet. Begriff und Wesen. Die Begriffe Körperschaft, Gesellschaft, juristische Person und Verein werden oft synonym oder in engem Zusammenhang verwendet, bezeichnen jedoch unterschiedliche Personenmehrheiten mit jeweils charakteristischer Rechtsform. Personengesellschaften sind nach herrschender Meinung keine juristischen Personen. Sie werden aber vom Begriff der juristischen Personen im Sinne des Verfassungsrechts (Abs. 3 GG) erfasst, können also Träger von Grundrechten sein. Ob juristische Personen handlungsfähig sind, also in der Lage, selbst rechtserheblich tätig zu werden, ist strittig. Die "Lehre von der realen Verbandspersönlichkeit", deren wichtigster Vertreter Otto von Gierke war, geht davon aus, dass die juristische Person mit dem tatsächlich vorhandenen Inbegriff ihrer Mitglieder oder Sachmittel gleichzusetzen ist. Sie kommt deshalb zum Ergebnis, dass die juristische Person – vermittelt durch ihre Organe – auch tatsächlich handeln kann. Für die "Fiktionstheorie" hingegen, die gemeinhin mit Friedrich Carl von Savigny in Verbindung gebracht wird, ist die juristische Person lediglich ein fiktiver Zurechnungsendpunkt, also ein gedachtes Etwas, das demgemäß auch nicht handeln kann. Ihr zufolge wird die juristische Person von ihren Organen bzw. Organwaltern vertreten. Es gibt durchaus Fälle, in denen die beiden Lehren zu unterschiedlichen Ergebnissen kommen. Als Beispiel sei die Frage genannt, ob und inwiefern sich die juristische Person das Wissen eines Organs zurechnen lassen muss. Nach der "Lehre von der realen Verbandspersönlichkeit" (in diesem Zusammenhang auch "Organtheorie" genannt) ist das Organ Teil der juristischen Person. Wissen des Organs ist damit immer zugleich Wissen der juristischen Person. Die Anhänger der "Fiktionstheorie" erkennen der juristischen Person dagegen – weil als reale Person gar nicht vorhanden – nicht die Fähigkeit zu, so etwas wie Wissen oder Kenntnis zu haben. Hintergrund dieser Kontroverse ist der Gegensatz zwischen eher individualistisch und eher kollektivistisch geprägten Vorstellungen – der römischrechtlichen und der deutschrechtlichen Tradition. Die meisten wissenschaftlichen Autoren folgen heute der tendenziell kollektivistischen "Lehre von der realen Verbandspersönlichkeit". Rechtsgeschichte. Im 19. Jahrhundert konkurrierten verschiedene wissenschaftliche Theorien um die selbständige dogmatische Einordnung von Personenmehrheiten und Vermögensmassen in das deutsche Recht. Der Gesetzgeber des Deutschen Reiches (1871–1945) entschied sich für die Rechtsfiktion der „juristischen Person“ und verankerte sie als neues Rechtsinstitut in das am 1. Januar 1900 in Kraft getretene Bürgerliche Gesetzbuch (BGB). Damit wurde zu Beginn des 20. Jahrhunderts die führende Gegenmeinung von einem selbständigen „Zweckvermögen“ verworfen. Sie war 1857 – im Einzelnen ausgeführt erst 1860 – von dem bayerischen Juristen Alois Ritter von Brinz (1820–1887) begründet worden. Ein Verein, eine Aktiengesellschaft etc. seien keine „juristische Person“, sondern ein „Vermögen, das für etwas gehöre“, ein „Zweckvermögen“. Während diese Theorie unterging, bestand der Begriff „Zweckvermögen“ weiter. Ein Jahrhundert nach der Aufstellung der Zweckvermögenstheorie durch von Brinz hat Gerold Schmidt 1969 in einer umfassenden monographischen Bestandsaufnahme den unpräzisen, oft schillernden Wildwuchs des Begriffs in zahlreichen Rechts-, Wirtschafts- und Steuergebieten nachgezeichnet. „Zweckvermögen“ werde danach oft vorgeschoben, wenn der juristische Eigentümer eines Vermögens unbekannt sei oder vorsätzlich verschleiert werden solle. Meist sind sogenannte „Zweckvermögen“ als Treuhandvermögen zu klassifizieren, die dem Eigentum des Treugebers zuzurechnen sind. In der Folge entwickelte der Gesetzgeber weitere juristische Personen wie den eingetragenen Verein (e. V.), die Gesellschaft mit beschränkter Haftung (GmbH), die Kommanditgesellschaft auf Aktien (KGaA), die Aktiengesellschaft (AG) oder die Europäische Aktiengesellschaft (SE). Merkmale. Die juristische Person besitzt anders als beispielsweise die Gesamthandsgemeinschaft eine eigene Rechts- und Parteifähigkeit unabhängig vom Bestand ihrer Mitglieder und deren Vermögen. Die Mitglieder sind allerdings an der juristischen Person vermögensrechtlich, etwa durch Aktienbesitz oder korporativ beteiligt. Die Rechtsfähigkeit besteht ab der Gründung (Eintragung in ein öffentliches Register) bis zur Auflösung nach der Liquidation. Die juristische Person kann am Rechtsverkehr teilnehmen und ist handlungsfähig durch ihre Organe (Drittorganschaft). Sie kann auch Vertreter beschäftigen wie beispielsweise Prokuristen. Juristische Personen sind insoweit deliktsfähig als ihnen zum Schadensersatz verpflichtende Handlungen ihrer verfassungsmäßigen Vertreter zugerechnet werden (, BGB). Bestraft werden aber nur natürliche Personen, etwa der Geschäftsführer wegen einer Insolvenzstraftat Juristische Personen des Zivilrechts. Das Zivilrecht unterscheidet bei der juristischen Person zwischen der mitgliedschaftlich organisierten Körperschaft und der aus einem zweckgebundenen Vermögen bestehenden Stiftung. Grundform der Körperschaft des privaten Rechts ist der eingetragene Verein (e. V.), BGB. Andere juristische Personen, etwa die GmbH, die Aktiengesellschaft und die eingetragene Genossenschaft, bauen auf dieser Grundform auf. Sie erlangen ihre Rechtsfähigkeit durch Eintragung in ein bei einem Gericht geführtes Register (z. B. Handelsregister, Vereinsregister). Juristische Personen des öffentlichen Rechts. Juristische Personen des öffentlichen Rechts sind Rechtssubjekte, die auf öffentlich-rechtlichem und privatrechtlichem Gebiet Rechtsfähigkeit kraft Gesetzes besitzen. Sie bestehen aufgrund öffentlich-rechtlicher Hoheitsakte oder öffentlich-rechtlicher Anerkennung (z. B. Gemeinden oder Kirchen). Ihnen gemeinsam ist das Recht der Selbstverwaltung, sie unterstehen staatlicher Aufsicht und können in der Regel objektives Recht für ihren Aufgabenbereich durch Satzungen setzen. Unterarten der Körperschaften, bei denen Zwangsmitgliedschaft ein häufiges Kriterium ihrer Errichtung darstellt, sind Die Anstalten gliedern sich in Zu den Stiftungen des öffentlichen Rechtes gehören z. B. die Juristische Personen des öffentlichen Rechts sind entweder bundesgesetzlich (Abs. 1 InsO) oder landesrechtlich (z. B. § 128 Abs. 2 GemO NRW) nicht insolvenzverfahrensfähig. Einigen Religionsgemeinschaften wurde aufgrund der nach Grundgesetz fortgeltenden Bestimmungen der Artikel 136–139 und Weimarer Verfassung der sogenannte Körperschaftsstatus verliehen. Hieraus leitet sich auch der Anspruch auf ein eigenständiges Arbeitsrecht der Kirchen ab. Grundrechtsschutz ausländischer juristischer Personen. Ausländische juristische Personen, die ihren Sitz in der Europäischen Union haben, sind nach der neueren Rechtsprechung des Bundesverfassungsgerichtes ebenso wie inländische Grundrechtsträger im Sinne von Art. 19 Abs. 3 GG, wenn ihre Tätigkeit einen „hinreichenden Inlandsbezug aufweist“. Das wird regelmäßig der Fall sein, wenn die juristische Person in Deutschland tätig wird und hier vor den Fachgerichten klagen und verklagt werden kann. Das europarechtliche Verbot der Ausländerdiskriminierung und die Grundfreiheiten verdrängen in diesem Fall die Regelung in Art. 19 Abs. 3 GG nicht, sie veranlassen aber die Erstreckung des Grundrechtsschutzes auf weitere Rechtssubjekte des europäischen Binnenmarktes. Der Grundrechtsschutz war in diesen Fällen bisher nur in der Literatur befürwortet worden. Léon Foucault. Jean Bernard Léon Foucault (* 18. September 1819 in Paris; † 11. Februar 1868 ebenda) war ein französischer Physiker. Leben. Foucault wurde am 18. September 1819 als Sohn eines Verlegers in Paris geboren und besuchte dort von 1829 an das „Collège Stanislas“. Seine Ausbildung erhielt er von einem Privatlehrer, da ihm mangels Fleiß und Betragen nahegelegt worden war, die Schule zu verlassen. Er begann ein Medizinstudium, musste aber auch dieses abbrechen, da er den Ekel beim Sezieren nicht überwinden konnte. Ohne Universitätsstudium widmete er sich der Physik und eignete sich autodidaktisch umfassende Kenntnisse und Fähigkeiten an. In den 1840er Jahren trug er zur wissenschaftlichen Fachzeitschrift "Comptes rendus de l’Académie des sciences" die Beschreibung eines elektromagnetischen Regulators für die elektrische Bogenlampe bei und veröffentlichte zusammen mit Henri Victor Regnault eine Arbeit über binokulares Sehen. Im Jahr 1851 führte er das nach ihm benannte Foucaultsche Pendel der Öffentlichkeit vor. Die Präsentation dieses allerdings schon einmal im Jahr 1661 von Vincenzo Viviani durchgeführten Experimentes veranschaulichte laientauglich die Erdrotation. In den Jahren 1850–1851 gelang ihm mit Hilfe der von ihm entwickelten Drehspiegelmethode eine sehr genaue Messung der Lichtgeschwindigkeit, die er auf 298.000 km/s bestimmte – damit um fünf Prozent niedriger als das Ergebnis Hippolyte Fizeaus im Jahr 1849. Er verwendete dabei einen Drehspiegel, der dem von Sir Charles Wheatstone ähnelte. Außerdem bewies er 1853, dass die Lichtgeschwindigkeit in Wasser niedriger als in Luft ist, womit gleichzeitig die Hypothese von der Wellennatur des Lichts bestätigt wurde. In der Optik wird das von ihm entwickelte Foucaultsche Schneidenverfahren zur Prüfung optischer Flächen oder ganzer optischer Systeme noch heute verwendet. Weiter untersuchte Foucault Wirbelströme in Metallen, wofür er im Jahr 1855 die Copley-Medaille erhielt. Er entwickelte ein leistungsfähiges Spiegelteleskop und, basierend auf Johann Gottlieb Friedrich von Bohnenbergers Gyroskop von 1810, in den Jahren 1851–1852 den Kreiselkompass. Im Jahr 1855 konstruierte Foucault ein weiterentwickeltes Modell einer Schreibmaschine, für die bereits im Jahr 1714 Henry Mill ein Patent erlangt hatte. Im Jahr 1862 veröffentlichte er verschiedene Ergebnisse seiner mehrjährigen Untersuchungen. Er wurde 1865 in die französische Akademie der Wissenschaften aufgenommen. Mit 48 Jahren erlitt Foucault eine schwere Erkrankung, von der er zuerst im Oktober 1867 Taubheit in den Händen verspürte. Sie schritt rasch fort, bis er, fast blind und stumm, am 11. Februar 1868 in Paris verstarb. Die genaue Todesursache ist unklar, wobei von einem rasch fortschreitenden Fall von multipler Sklerose, einem Schlaganfall oder auch Nachwirkungen seiner langjährigen Experimente mit Chemikalien, vor allem Quecksilber, ausgegangen wird. John Napier. John Napier (auch latinisiert "Neper"), Laird of Merchiston (* 1550 in Merchiston Castle bei Edinburgh; † 3. April 1617 ebenda) war ein schottischer Mathematiker und Naturgelehrter. Biographie. Napier war der älteste Sohn des schottischen Barons Archibald von Merchiston und erhielt seine Ausbildung zunächst an der Universität St Andrews. Danach bereiste er vermutlich Europa und eignete sich Wissen in Mathematik und Literatur an. 1572 erhielt er viele der Ländereien seines Vaters. Er schrieb ein Buch über den Logarithmus (1614), dessen Grundlage er, unabhängig von dem Schweizer Jost Bürgi, entwickelte. Die nach ihm benannten Napierschen Regeln für das rechtwinkelige sphärische Dreieck werden in seiner "Constructio" nur unvollkommen beschrieben. Die Napierschen Rechenstäbchen hatten einen bedeutenden Einfluss auf die Entwicklung der Rechenmaschinen. Durch sie war es Wilhelm Schickard möglich, die erste mechanische Rechenmaschine zu bauen. Ihm zu Ehren wurde die Hilfsmaßeinheit (Pseudomaß) der Dämpfung bei elektrischen und akustischen Schwingungen Neper genannt, die aber in jüngster Zeit zunehmend durch das Bel bzw. Dezibel ersetzt wurde. Außerdem wurde nach Napier das Nit, eine nicht mehr gebräuchliche dimensionslose Einheit der Datenmenge, benannt. Eine der in Edinburgh ansässigen Universitäten trägt ihm zu Ehren seinen Namen, die Edinburgh Napier University. Die Universität hat über die ganze Stadt verteilt mehrere Campus. Der Merchiston Campus, der älteste Campus der Universität, ist um "Merchiston Castle", Geburts- und Sterbeort von John Napier, herum entstanden. Der Mondkrater Neper ist nach ihm benannt. Johann Heinrich Zedler. Das von Zedler verlegte "Universal-Lexicon" gilt heute als die bedeutendste deutschsprachige Enzyklopädie des 18. Jahrhunderts. Zedlers Name ist so eng mit dem Lexikon verbunden, dass das Werk heute zumeist kurz als „der Zedler“ bezeichnet wird. Entgegen der Angabe auf dem hier abgebildeten Titelblatt erschien der erste Band bereits zur Leipziger Michaelismesse des Jahres 1731. Johann Heinrich Zedler (* 7. Januar 1706 in Breslau; † 21. März 1751 in Leipzig) war ein deutscher Buchhändler und Verleger. Sein wichtigstes Verdienst war die Begründung des "Grossen vollständigen Universal-Lexicons Aller Wissenschafften und Künste", das sich zur umfassendsten deutschsprachigen Enzyklopädie des 18. Jahrhunderts entwickelte. Nach einer Buchhändlerlehre gründete Zedler 1726 zunächst im obersächsischen Freiberg und dann 1727 in dem damaligen Verlags- und Buchhandelszentrum Leipzig eine eigene Verlagsbuchhandlung. Mit einer zwischen 1728 und 1733 erschienenen elfbändigen Ausgabe der Schriften Martin Luthers (sogenannte „Leipziger Lutherausgabe“, 1729–1734, 11 Bände, Registerband 1740) brachte er sein erstes größeres Verlagsprodukt auf den Markt. Als Gründungsverleger des 1731 begonnenen und zu seinen Lebzeiten auf insgesamt 64 Bände angewachsenen "Universal-Lexicons" geriet Zedler in einen langjährigen Konflikt mit der etablierten Leipziger Verlegerschaft und musste sein Projekt bis zur Mitte der 1730er Jahre immer wieder gegen die Klagen seiner Konkurrenten verteidigen. Spätestens im Frühjahr 1737 erfolgte der finanzielle Zusammenbruch und der Aufkauf des fortan nur noch nominell von Zedler geführten Verlags durch den Leipziger Geschäftsmann Johann Heinrich Wolf. Finanziert von Wolf konnte Zedler neben dem "Universal-Lexicon" auch andere zuvor begonnene Werke wie etwa die "Allgemeine Staats- Kriegs- Kirchen- und Gelehrten-Chronike" (1733–1754, 22 Bände) fortführen. Zedlers neue Verlagswerke wie etwa das Handelslexikon "Allgemeine Schatz-Kammer Der Kaufmannschafft" (1741–1743, 4 Bände und 1 Supplementband), Johann Gottlieb Siegels Sammlung von Wechselordnungen "Corpus Juris Cambialis" (1742, 2 Bände) oder der "Historisch-Politisch-Geographische Atlas der gantzen Welt" (1744–1749, 13 Bände) erschienen unter dem Namen des Leipziger Verlagsbuchhändlers Johann Samuel Heinsius d. Ä. (1686–1750). 1751 und damit nur ein Jahr nach dem alphabetischen Abschluss des "Universal-Lexicons" (bis 1754 folgten noch vier Supplementbände) starb Zedler im Alter von 45 Jahren. Sein Name lebt in der umgangssprachlichen Bezeichnung des "Universal-Lexicons" fort, das heute als „der Zedler“ bekannt ist. Herkunft, Ausbildung und erste Selbständigkeit in Freiberg. Johann Heinrich Zedler wurde 1706 als Sohn des Schuhmachers und Breslauer Bürgers Johann Zedler geboren. Vermutlich ohne vorherige gymnasiale Ausbildung begann er eine Lehre bei dem Breslauer Buchhändler Brachvogel. Anschließend wechselte er in das Unternehmen des Hamburger Buchhändlers und Verlegers Theodor Christoph Felginer und ging nach dessen Tod im Jahr 1726 ins sächsische Freiberg. Dort heiratete er im September die aus einer angesehenen Freiberger Kaufmanns- und Ratsherrenfamilie stammende, elf Jahre ältere Christiana Dorothea Richter (1695–1755), Schwester des Verlegers David Richter. Wohl durch die Mitgift seiner Frau mit den notwendigen finanziellen Mitteln ausgestattet, eröffnete er in Freiberg eine Buchhandlung. Anders als in älterer Literatur dargestellt, betätigte Zedler sich zu dieser Zeit auch schon als Verleger. Zedler blieb allerdings nur für kurze Zeit in Freiberg. Sein Biograph Gerd Quedenbaum vermutet, dass die Bergbaustadt zu jener Zeit keinen ausreichenden Absatzmarkt für einen Buchhändler bot (die Bergakademie wurde erst 1765 gegründet) und die Standortnachteile Freibergs Zedler schließlich bewogen, sein Unternehmen schon bald wieder aufzugeben. Beginn der Tätigkeit in Leipzig und erstes verlegerisches Großprojekt. Die Anzeige erschien kurz vor Beginn der Leipziger Michaelismesse im Oktober und zielte auf die zahlreichen Messebesucher ab, die die Stadt zu diesem Termin bevölkerten. Über den Erfolg dieses Unternehmens liegen keine Nachrichten vor, Quedenbaum vermutet aber, Zedlers Kapitaldecke könne bereits zu diesem Zeitpunkt „nicht sonderlich stark“ gewesen sein. Schon zu Beginn des Jahres 1728 erschien in dem Leipziger Blatt "Neue Zeitungen von gelehrten Sachen" eine weitere Verlagsankündigung, in der Zedler „Eine neue vermehrte und verbesserte Auflage der sämtlichen Deutschen Schriften und Wercke des sel. Lutheri“ anzeigte. und damit so günstig anbot, dass ein späterer Nachdruck durch andere Buchhändler unprofitabel wurde. Da Zedler auf diese Weise kaum damit rechnen konnte, ausreichende Mittel für den Druck einwerben zu können, nahm er zusätzlich einen Kredit in Höhe von 2.665 Reichstalern bei seinem Schwager David Richter auf. Selbst Zedler scheint durch den äußerst knappen Zeitrahmen des Unternehmens verunsichert gewesen zu sein. Obwohl er den Erscheinungstermin der ersten beiden Teile auf die Michaelismesse im Oktober 1728 festgesetzt hatte, ließ er sicherheitshalber die Jahreszahl 1729 auf das Titelblatt drucken. Trotz aller Unsicherheiten gelang es ihm aber, den genannten Liefertermin einzuhalten. Vierzehn Tage vor Messetermin erklärte er sich per Inserat bereit, auch noch nachträgliche Pränumerationen entgegenzunehmen. Damit war ihm innerhalb eines Jahres der Aufbau eines Verlagsbuchhandels gelungen, der mit den Lutherschen Schriften ein erfolgversprechendes Produkt im Sortiment führte. Die einzelnen Bände der Lutherausgabe – wie auch diejenigen späterer Verlagswerke – widmete Zedler hohen Standespersonen und folgte damit der zur damaligen Zeit gängigen Praxis. Die solchermaßen durch Widmungsvorrede und Portraitkupferstich geehrten Adressaten revanchierten sich nicht selten mit einer finanziellen Gegengabe oder durch die Verleihung von Ehrentiteln. Den ersten seiner Titel erhielt Zedler von Herzog Christian von Sachsen-Weißenfels, dem er den dritten Teil der Schriften Luthers gewidmet hatte. Nach Auskunft des 1749 erschienenen Eintrags zu Zedler in dessen "Universal-Lexicon" überreichte Zedler den Band der Lutherausgabe – für damalige Zeiten keinesfalls üblich – eigenhändig zum Geburtstag des Herzogs. Christian, der nicht nur als großer Jagdliebhaber, sondern auch als Förderer der evangelischen Kirche bekannt war, verlieh Zedler daraufhin den Titel eines Kommerzienrats. Ankündigung des "Universal-Lexicons" und erste Reaktionen. Zedler beabsichtigte also, die zahlreichen bisher verfügbaren Nachschlagewerke über die verschiedensten Wissensgebiete zu einem einzigen großen Werk zusammenzufassen. Dieser Plan eines vierundzwanzigjährigen und noch nicht drei Jahre im Verlagsgeschäft tätigen Jungunternehmers bedeutete eine Kampfansage an die etablierte Verlegerschaft Leipzigs. Johann Friedrich Gleditsch hatte im Jahr 1704 das "Reale Staats- und Zeitungs-Lexicon" vorgelegt – das auf den Zeitungsleser und damit den Privathaushalt ausgerichtete Lexikon, das mit seiner dritten Auflage 1708 den Begriff Konversationslexikon gängig machte. Thomas Fritsch hatte 1709 mit dem "Allgemeinen Historischen Lexicon" das deutschsprachige Äquivalent zu Louis Moréris "Grand dictionaire historique" nachgesetzt – ein auf Fachbibliotheken und Wissenschaftler ausgerichtetes mehrbändiges Großprojekt. 1721 war Johann Theodor Jablonskis "Allgemeines Lexicon Der Künste und Wissenschafften" hinzugekommen – ein handliches Werk, das stärker als die kompilierenden Konkurrenten inhaltlich durchgestaltet war. Eine Reihe kleinerer Nachschlagewerke für das allgemeine Publikum ergänzten das Spektrum mit Angeboten, die wie das "Frauenzimmer-Lexicon" bis in die bürgerliche Haushaltung und die Domäne der Frau reichten; von 39 Lexika aus der ersten Hälfte des 18. Jahrhunderts waren allein 14 bei Gleditsch erschienen. Alle diese Werke standen nun in Gefahr, von Zedlers „Universal“-Lexikon überboten und vom Markt verdrängt zu werden. Die erste öffentliche Reaktion aus den Kreisen der etablierten Leipziger Verlegerschaft erfolgte fünf Wochen nach Zedlers Ankündigung. Caspar Fritsch, Sohn des 1726 verstorbenen Thomas Fritsch, fürchtete um den Absatz des "Allgemeinen Historischen Lexicons", dessen dritte Auflage der Verlag Fritsch Erben gerade vorbereitete. An Zedlers Angebot anknüpfend, boten nun auch Fritsch’ Erben ein Freiexemplar bei der gleichzeitigen Subskription von zwanzig Exemplaren an und versprachen darüber hinaus zusätzliche Sicherheit: „Zu der bey jetziger Zeit so nöthigen Sicherheit derer Subscribenten und Collectoren offerieren die Fritschischen Erben Caution auf alle erforderte und annehmliche Art.“ Kampf um das kursächsische Druckprivileg. Letzte Protokollseite der Verfügung gegen Zedler mit der Ablehnung seines Privilegantrages, Leipzig 12. Oktober 1730. Um sein für die Ostermesse 1731 angekündigtes Lexikon gegen Raubdrucke zu schützen, beantragte Zedler am 13. September 1730 ein kursächsisches Druckprivileg. Solche werkbezogenen einzelstaatlichen Privilegien wurden üblicherweise für eine Dauer von fünf bis zehn Jahren erteilt und sollten den Erstdrucker innerhalb der Landesgrenzen gegen fremde Nachdrucke absichern. Die für die Entscheidungsvorbereitung zuständige Leipziger Bücherkommission leitete zunächst das in solchen Fällen übliche Bekanntmachungsverfahren, die sogenannte „Insinuation“, ein. In dessen Rahmen wurde eine genaue Erläuterung des Druckvorhabens zusammen mit Zedlers Privilegantrag für die Dauer von einer Woche in allen Buchläden der Stadt ausgehängt. Innerhalb dieser Frist konnten Einsprüche gegen das Vorhaben eingelegt werden. Genau diesen Weg schlugen Caspar Fritsch und Johann Gottlieb Gleditsch, der Sohn Johann Friedrich Gleditschs, ein. Fritsch argumentierte mit dem kursächsischen Privileg, das sein Vater für das "Allgemeine Historische Lexicon" im Jahr 1726 für zehn Jahre erhalten hätte und verwies darauf, dass man ein Werk wie das Zedlersche "Universal-Lexicon" nicht anders schaffen könne, als aus bereits vorhandenen Werken abzuschreiben oder zu paraphrasieren. Zedler erhielt die von der Leipziger Bücherkommission vorbereitete und vom Oberkonsistorium, der zuständigen leitenden Behörde in Dresden, gefällte Entscheidung über seinen Privilegantrag am 16. Oktober 1730. Das Oberkonsistorium folgte der Argumentation von Fritsch und Gleditsch, lehnte Zedlers Antrag ab und legte ihm bei Androhung einer Beschlagnahmung und 300 Talern Strafe auf, Mit diesem Urteil hatte Zedler die erste Runde in der Auseinandersetzung mit den konkurrierenden Leipziger Verlegern verloren. Fortsetzung des Leipziger „Verlegerkriegs“. Die Entscheidung des Dresdener Oberkonsistoriums hielt Zedler jedoch nicht davon ab, sein Projekt weiterzuverfolgen. Am 19. Oktober 1730 informierte er in den Leipziger "Neuen Zeitungen von gelehrten Sachen" darüber, dass er noch weitere Pränumerationen annehme und wies alle Plagiatsvorwürfe zurück. Zur „Ausarbeitung“ des "Universal-Lexicons" hätten sich „vornehme und gelehrte Männer gefunden, welche solches nicht nöthig, sondern gar wohl im Stande, ihre Articul selbsten auszuarbeiten“. Gleichzeitig erklärte er, dass er sich auch durch Neider und Feinde nicht abbringen lassen werde, noch weitere wichtige Werke herauszubringen. Mit diesem Hinweis war sein neuestes Verlagsprojekt gemeint, ein umfangreiches Geschichtswerk unter dem Titel "Allgemeine Staats-, Kriegs-, Kirchen- und Gelehrten-Chronicke". Als Herausgeber konnte Zedler Jacob August Franckenstein gewinnen, der zu jener Zeit eine Professur für Natur- und Völkerrecht an der Leipziger Universität innehatte und mit dem Verleger der "Neuen Zeitungen von gelehrten Sachen", Johann Burckhardt Mencke, befreundet war. Am 24. Oktober 1730 schickte Zedler dem Rat der Stadt Leipzig den Vorabdruck des geplanten Titelblattes, diesmal jedoch ohne Privilegantrag. Erneut regte sich Widerstand in den Kreisen der eingesessenen Verleger. Auf deren Proteste hin forderte die Leipziger Bücherkommission von Zedler schließlich – sowohl das "Universal-Lexicon" als auch die Staatschronik betreffend – eine Einstellung der Produktion, die Herausgabe der bereits gedruckten Bogen und einen Verzicht auf weitere Werbemaßnahmen. Darüber hinaus hatte Zedler den Urteilsspruch des Oberkonsistoriums zu drucken und bekanntzumachen. Bei Zuwiderhandlung drohte ihm die Zahlung eines Strafgeldes von 100 Talern. Um die Auslieferung des "Universal-Lexicons" nicht zu gefährden, verlagerte Zedler die Produktion ins benachbarte Preußen. In Halle stand er in Kontakt mit dem Juristen und dortigen Universitätskanzler Johann Peter von Ludewig. Neben seiner Tätigkeit an der Universität war Ludewig auch leitender Mitarbeiter des Kuratoriums für das Waisenhaus in Halle. Offenbar war er es, der bewirkte, dass die an das Waisenhaus angeschlossene Druckerei den weiteren Druck des "Universal-Lexicons" übernahm. Um auch in Preußen vor Nachdrucken geschützt zu sein, beantragte Zedler ein königlich-preußisches Druckprivileg sowie gleichzeitig auch ein kaiserliches. Das auf Karl VI. ausgestellte kaiserliche Privileg erhielt er am 6. April 1731, das königlich-preußische Privileg nur vier Tage später. Fertigstellung des ersten Lexikonbandes und Beschlagnahme. Den für den ersten Band des "Universal-Lexicons" vorgesehenen Auslieferungstermin zur Ostermesse 1731 konnte Zedler nicht einhalten. Deshalb kündigte er in einem Inserat in den "Neuen Zeitungen von gelehrten Sachen" vom 15. April 1731 an, die Auslieferung werde zur Michaelismesse im Oktober stattfinden. Gleichzeitig zeigte er seine Ernennung zum königlich-preußischen und kurfürstlich-brandenburgischen Kommerzienrat an und versicherte, das Unternehmen stehe nun „unter anderweitigen Privilegiis und Freyheits-Begnadigungen der allerhöchsten Häupter“. Als Herausgeber des ersten Bandes fungierte Jacob August Franckenstein, das Vorwort schrieb Johann Peter von Ludewig. Über die weiteren Mitarbeiter dieses und aller weiteren Bände können bis heute nur Vermutungen angestellt werden. Der Zedler-Experte und heutige Direktor der Leipziger Universitätsbibliothek Ulrich Johannes Schneider deutet diese Anonymität – zumindest zu diesem frühen Zeitpunkt des Unternehmens – als verlegerische Strategie. Aufgrund der drohenden Klagen auf geistigen Diebstahl habe die Geheimhaltung der Namen seiner Mitarbeiter für Zedler einen Selbstschutz geboten. In seinem Vorwort zum ersten Band des Lexikons schrieb Johann Peter von Ludewig zu diesem Punkt, Zedler lasse Das Versprechen, die Namen der „neun Musen“ würden nach Abschluss des Werkes genannt, wurde später nicht eingehalten. Dass es sich tatsächlich um neun Beiträger handelte, wird von Schneider auch als „höchst fraglich“ eingeschätzt. Auf jeden Fall aber stellte das Erscheinen des ersten Bandes den Auftakt zu dem „größten europäischen Lexikon-Projekt des 18. Jahrhunderts“ (Schneider) dar. Die Reaktion der eingesessenen Leipziger Verleger auf das Erscheinen des ersten Bandes ließ nicht lange auf sich warten. Noch während der Michaelismesse 1731 erwirkten sie bei der Leipziger Bücherkommission eine Beschlagnahme aller bisher gedruckten und noch nicht ausgelieferten Exemplare. Kompromiss, Schmähschrift, erneutes Druckverbot und Ausstieg Franckensteins. Zedler protestierte gegenüber der Leipziger Bücherkommission gegen die Beschlagnahme; die Kommission blieb aber bei ihrem einmal gefällten Urteil. Daraufhin wandte sich der Verleger an das Dresdener Oberkonsistorium und erzielte einen Teilerfolg. In seiner Entscheidung vom 14. Dezember 1731 erteilte ihm das Oberkonsistorium die Erlaubnis, seine Pränumeranten mit Exemplaren zu beliefern, die außerhalb Kursachsens gedruckt wurden. Mit diesem Kompromiss konnte Zedler seine Buchproduktion fortsetzen, durch die Transporte entstanden jedoch weitere Kosten. In dieser Situation erschien die Schmähschrift "Charlatanerie der Buchhandlung, welche den Verfall derselben durch Pfuschereyen, Prænumerationes, Auctiones, Nachdrucken, Trödeleyen u. a. m. befördert". Sie gab an, „Von zwey d[er] Handlung Beflissenen unpartheyisch untersuchet“ zu sein und zielte eindeutig auf Zedler und seine Geschäftspraktiken. Das knapp neunzigseitige Pamphlet gibt den Dialog zweier Kaufleute wieder, die sich 1731 zufällig auf der Leipziger Michaelismesse wiedersehen. In ihrer Unterhaltung prangern sie die Missstände des Buchhandels ihrer Zeit an und gehen dabei ausführlich auf die angeblich unsauberen Geschäftspraktiken Zedlers und seine unzureichenden Finanzen ein. Zedler wird des Betrugs bezichtigt, die Autoren seines Lexikons der Dummheit. Über Johann Peter von Ludewig heißt es, man wisse nicht, woher er seinen Titel und sein Vermögen habe. Eine direkte Reaktion Zedlers auf die von seinen Gegnern initiierte Schmähschrift ist nicht überliefert, Ludewig schrieb am 11. Februar 1732 in den "Wöchentlichen Hallischen Anzeigen", „ein guter Freund“ habe eine Belohnung von zwölf Dukaten, 53 1/3 Reichstaler, für denjenigen ausgeschrieben, der „von dieser Läster-Rotte ein und den andern entdecken würde“. Zedlers Gegner ließen nicht locker. Sie wandten sich erneut an das Dresdener Oberkonsistorium und drangen auf die Zahlung der im Oktober 1730 verhängten Strafe von 300 Talern. Daraufhin forderte das Oberkonsistorium am 10. März 1732 einen erneuten Bericht der Leipziger Bücherkommission an. Als diese die beiden Streitparteien um Stellungnahme bat, reichten Zedlers Gegner eine 87-seitige Liste ihrer Plagiatsvorwürfe ein. Am 24. April entschied das Oberkonsistorium, dass Zedler die Strafe in Höhe von 300 Talern zu zahlen habe und verbot ihm den weiteren Druck innerhalb der kursächsischen Landesgrenzen. Nur zwei Monate später, am 10. Mai 1733, starb Franckenstein. Nach seinem Tod übernahm Paul Daniel Longolius die Herausgeberschaft des "Universal-Lexicons". Das Unternehmen gerät ins Wanken. a> bearbeiteten Neuauflage des Wörterbuchs "Theatrum Latinitatis". Das Frühjahr 1733 war von drei Ereignissen geprägt, die erheblichen Einfluss auf Zedlers unternehmerisches Schicksal haben sollten. Im Februar brachte Zedler unter dem Titel "Eröffnetes Cabinet Grosser Herren, oder Gegenwärtiger Zustand aller Reiche und Staaten der Welt, nebst andern Merckwürdigkeiten" eine Monatsschrift im Taschenbuchformat heraus. Das neue Journal zielte auf das erwachende Interesse des Publikums an Nachrichten aus dem politischen, militärischen und höfischen Bereich. Anfangs war das bis 1735 in 25 Ausgaben erschienene "Cabinet" wohl noch ein Erfolg, Zedlers Biograph Gerd Quedenbaum urteilt jedoch, die Publikation sei „auf Dauer gewiß kein bemerkenswerter Umsatzträger“ gewesen. Im März 1733 kaufte Zedler zudem die Verlagsbuchhandlung des 1730 verstorbenen Unternehmers Johann Herbord Kloß. Kloß gehörte mit insgesamt 1.014 angebotenen Titeln mengenmäßig in das erste Drittel der Leipziger Buchhändler, sein Sortiment enthielt allerdings – von Zedler offenbar zunächst nicht bemerkt – einen hohen Anteil kaum oder gar nicht verkäuflicher Werke. Mitte April schließlich kündigte Zedler in einer Zeitungsanzeige das Erscheinen eines neuen Verlagswerkes an. Es handelte sich um das von Andreas Reyher und Christian Juncker begründete einbändige Wörterbuch "Latinitatis Theatrum Sive Lexicon Latino-Germanico-Graecum Universale" in einer von Johann Matthias Gesner bearbeiteten Neuauflage. Noch im März hatte Zedler optimistisch einen Nachdruck der vergriffenen Werke aus dem Verlagsprogramm von Johann Herbord Kloß annonciert. Im Juni dagegen bereitete er bereits die Veräußerung von 10.000 gebundenen und ungebundenen Büchern aus dem von Kloß übernommenen Sortimentsbestand vor, der nach Einschätzung Quedenbaus zu einem hohen Anteil aus „Ramschware“ bestand. Der Verkauf fand in Form einer am 27. Juli veranstalteten Auktion statt, über deren Erfolg keine unmittelbaren Zeugnisse vorliegen. Indessen mehrten sich Hinweise darauf, dass Zedler in finanziellen Schwierigkeiten steckte und auf kurzfristige Gewinne angewiesen war. Am 5. Oktober veröffentlichte der Hallenser Buchhändler Johann Gottfried Oertel den Hinweis auf einen Zedler versuchte also über Niedrigpreisangebote während der ersten Messewoche zu Bargeld zu gelangen. Der gewichtigste Grund hierfür war die Fertigstellung des elften und vorerst letzten Bandes der Lutherischen Schriften, dessen Erscheinen Zedler für eben jene Michaelismesse des Jahres 1733 angekündigt hatte. Damit lief nicht nur ein erfolgreiches und sichere Einnahmen garantierendes Verlagsprodukt aus. Mit der Fertigstellung des letzten Bandes ergab sich für Zedler auch die Schwierigkeit, offene Rechnungen begleichen zu müssen, ohne wie bisher auf die Einnahmen weiterer Pränumerationen zurückgreifen zu können. Bislang waren die Druckkosten des letzten Bandes immer aus Vorschüssen auf den nächsten gedeckt worden. Diese entfielen jetzt, die anstehenden Rechnungen mussten aber dennoch beglichen werden. Im Dezember 1733 brachte Zedler ein neues Verlagsprodukt auf den Markt. Mit dem "Allerneuesten Kriegs-Staat, oder Gründliche Nachrichten von den heutigen Kriegs-Begebenheiten, welche mit Historischen, Politischen und andern Anmerckungen erläutert werden" stellte er dem "Cabinet" ein weiteres Monatsblatt an die Seite. Doch nur wenige Monate später brachte der Leipziger Verleger Moritz Georg Weidmann mit dem "Europäischen Staats-Secretarius" ein direktes Konkurrenzprodukt zu Zedlers Monatsblättern heraus. Zedlers finanzielle Lage hatte sich indessen offenbar nicht grundlegend verbessert. Kurz vor Beginn der Ostermesse 1734 bemühte er sich erneut um eine Reduzierung seiner Lagerbestände durch Niedrigangebote. Ein Ende 1734 in den "Hallischen Anzeigen" angekündigtes Zeitschriftenprojekt unter dem Titel "Lesens-würdige Neuigkeiten der Stadt und neuen Universität Göttingen" kam vermutlich nie zustande. Rettungsversuch: die Bücherlotterie. Aus Sicht des Loskäufers versprach dieses System doppelten Gewinn: unabhängig von der Verlosung durfte er Bücher auswählen und mitnehmen. Darüber hinaus nahm er an der späteren Ausspielung teil und behielt bis zuletzt die Hoffnung auf das Losglück. Die Ziehung sollte am 18. April und damit während der Ostermesse des Jahres 1735 stattfinden, was Zedler einen zusätzlichen Werbeeffekt beschert hätte. Eine soziale Komponente erhielt die Veranstaltung durch Zedlers Versprechen, einen Teil seiner Einnahmen dem Leipziger Waisenhaus zu stiften. Der Lotterieplan rief erneut Zedlers Konkurrenten auf den Plan. Angeführt von Weidmann appellierten sie an den Leipziger Stadtrat und das Oberkonsistorium in Dresden, die Lotterie zu verbieten. In einer daraufhin von Zedler angeforderten Stellungnahme monierte der Rat die Tatsache, dass sich auch das "Universal-Lexicon" unter den 100 Gewinnen des ersten Bücherkorbes befand und bekräftigte, dass das über das Werk verhängte Verkaufsverbot in Sachsen noch immer gelte. Da Zedler aus Dresden zunächst keine Antwort erhielt, musste er den angekündigten Termin für die Losziehung verstreichen lassen. Am 28. Mai wurde ihm schließlich mitgeteilt, die Lotterie sei genehmigt, aber nur unter der Auflage, dass er das "Universal-Lexicon" aus dem Angebot herausnehme. Damit war der wohl attraktivste Preis entfallen. Hinzu kam, dass gerade zu dieser Zeit Johann Christian Martini, einer der Konkurrenten Zedlers, sein Sortimentslager auflöste und den Markt mit Büchern überschwemmte. Als Zedler am 3. Oktober 1735 anlässlich der anstehenden Michaelismesse in den Hallischen Anzeigen inserierte, erfuhren die Leser, dass immer noch Lose zu haben waren. Kurze Zeit später erschien eine weitere Ankündigung Martinis, der für den 17. Oktober eine erneute Auktion ankündigte, auf der insgesamt 6.521 Bücher und 1.121 Kupferstiche versteigert werden sollten. Am 8. April 1736 bewarb Zedler seinen Lotterieplan erneut per Zeitungsinserat. Diesmal jedoch sollten die Lose nur noch zu einem reduzierten Preis von einem anstatt von 2 1/2 Reichstalern zu haben sein. Quedenbaum schließt hieraus, Zedler sei zu diesem Zeitpunkt in so großer finanzieller Bedrängnis gewesen, dass er seinen Büchervorrat „um jeden Preis absetzen wollte“. Finanzieller Zusammenbruch. Die Umstände von Zedlers finanziellem Zusammenbruch liegen weitestgehend im Dunkeln. Gesichert ist, dass Zedler die Zahlungsverpflichtungen gegenüber seinen Gläubigern ab einem bestimmten Zeitpunkt nicht mehr erfüllen konnte. In einem bei Albrecht Kirchhoff 1892 in Auszügen wiedergegebenen Bericht des Rates der Stadt Leipzig an die Landesregierung in Dresden vom 10. Oktober 1738 ist von dem „Zedlerischen Concurs“ die Rede. Wann genau diese Zahlungsunfähigkeit Zedlers eintrat, ist bislang nicht abschließend geklärt. Juntke schreibt in einer 1956 veröffentlichten Abhandlung, der Privilegienstreit habe Zedler „im Frühjahr 1735 finanziell zugrunde [gerichtet]“. Blühm nimmt diese Formulierung 1962 auf, legt sich aber mit dem Satz „Im Frühjahr 1735 kam es zum Konkurs“ zumindest in der Verfahrensfrage stärker fest. Quedenbaum widerspricht Blühm (allerdings ohne diesen explizit zu nennen) in beiden Punkten und legt anhand von Plausibilitätsprüfungen dar, dass es allenfalls – und zwar nicht vor 1736 – zu einem Vergleich gekommen sein könne, wobei die Umstände eines solchen Verfahrens „kaum mehr festzustellen“ seien. Hinsichtlich der Nachprüfbarkeit ist jedoch zu berücksichtigen, dass Quedenbaum bei den Arbeiten für seine 1977 veröffentlichte Zedler-Biographie die Leipziger Archivbestände unberücksichtigt ließ, zu denen Kirchhoff mit Bezug auf das "Universal-Lexicon" anmerkt, „die Acten der Bücher-Commission über dasselbe bilden bis zum Jahre 1738 vier dickleibige Fascikel.“ Moderne biographische Abrisse wie etwa der von Winfried Müller in der "Sächsischen Biografie" aus dem Jahr 2003 umschiffen die Schwierigkeit, indem sie gar nicht genauer auf die Frage nach dem genauen Zeitpunkt und den Umständen von Zedlers finanziellem Zusammenbruch eingehen. Neubeginn und Kampf gegen den Nachdruck von Schultze. Das finanzielle Engagement des Leipziger Geschäftsmanns Johann Heinrich Wolf ermöglichte Zedler einen unternehmerischen Neubeginn. Im "Universal-Lexicon" wird Wolf als „Vornehmer Kauf- und Handelsmann“, „Cramer-Meister“ und als „besonderer Liebhaber der Wissenschaften“ beschrieben, der seine Zeit „mit nichts lieber als mit Lesung guter und gelehrter Bücher zubringet“. Quedenbaum vermutet, dass Wolf die gesamte weitere Finanzierung des Zedlerschen Verlags deshalb übernahm, weil er „genau im Zielgruppenbereich des Universal-Lexikons stand und damit in die Gruppe derer gehörte, die als Kleingläubiger mehr an der Fortsetzung der Werke als an deren Einstellung interessiert war.“ Unterlagen wie etwa ein zwischen Zedler und Wolf abgeschlossener Vertrag sind allerdings nicht überliefert, so dass über die genauen Umstände der Geschäftsbeziehung keine Klarheit herrscht. Am 5. August 1737 war Zedlers kaiserliches Privileg für den Druck des "Universal-Lexicons" aufgehoben worden – angeblich weil Zedler es versäumt hatte, seine Pflichtexemplare am kaiserlichen Hof abzuliefern. Quedenbaum hält dies für unwahrscheinlich und vermutet, dass die Aberkennung des kaiserlichen Druckprivilegs auf die Einflussnahme des Buchdruckers und Verlegers Johann Ernst Schultze aus dem bayerischen Hof zurückzuführen ist. Dieser wusste von dem finanziellen Zusammenbruch Zedlers, da er an dem Druck früherer Bände des Lexikons beteiligt gewesen war. Darüber hinaus hatte Schultze mit Paul Daniel Longolius einen geeigneten Herausgeber gefunden, denn dieser war 1735 zum Rektor des Hofer Gymnasiums berufen worden. Als früherer Mitarbeiter Zedlers verfügte Longolius über die nötige Erfahrung für die Herausgabe weiterer Lexikonbände. Auf die Behauptung hin, Zedler habe ihm das Privileg im Januar 1735 abgetreten, beantragte Schultze ein neues, auf seinen eigenen Namen ausgestelltes kaiserliches Privileg, das ihm am 11. Juni 1738 auch erteilt wurde. Schultze druckte einen 17. und 18. Band des "Universal-Lexicons" in Hof und versuchte diese kurze Zeit nach ihrem Erscheinen auch in Leipzig zu verkaufen. Hierzu schickte er den kaiserlichen Notar Bernhard Christian Groot aus Offenbach mit zwei Buchdruckergesellen als Zeugen zur Leipziger Bücherkommission. Die Bücherkommission verwies Groot jedoch direkt nach seiner Ankunft an den Leipziger Rat. Dieser nahm Groot kurzerhand die beiden von ihm als Beleg für Schultzes Rechte mitgebrachten Druckexemplare des Privilegs ab, ließ sein Gepäck nach weiteren Papieren untersuchen und warf ihn und die beiden Zeugen aus der Stadt. Das Motiv für diese Behandlung legte der Leipziger Rat in einem auf den 10. Oktober 1738 datierten Schreiben an die Landesregierung in Dresden offen, in dem es hieß Für Zedler stellte dieser Beleg für den in der Praxis stark eingeschränkten Geltungsbereich kaiserlicher Bücherprivilegien einen Glücksfall dar, denn damit war die Fortführung seines Lexikons gesichert. Die Redaktion des "Universal-Lexicons" übernahm ab Band 19 der Leipziger Philosophieprofessor Carl Günther Ludovici, der ein Studienkollege von Longolius war. Im Gegensatz zu Zedler verlegte der Hofer Buchdrucker Schultze in der Folge keine weiteren Bände des "Universal-Lexicons" mehr und musste seine Druckerei 1745 aufgrund finanzieller Schwierigkeiten an das Hofer Gymnasium verkaufen. Rückzug ins Privatleben. Es scheint, als sei Zedler nach der finanziellen Übernahme seines Verlages durch Wolf zunehmend an den Rand gedrängt worden. Seit Carl Günther Ludovici die „Direction“ des 19. „und der noch zu gewartenden Bände“ des "Universal-Lexicons" übernommen hatte, drückte er dem Werk zunehmend seinen eigenen Stempel auf. „Er machte“, wie Schneider die Veränderungen zusammenfasst, „nicht nur die Literaturangaben am Ende jedes Personenartikels zu einer einschlägigen und manchmal sehr ausführlichen Bibliographie, er setzte nicht nur die Binnengliederung längerer Artikel durch, sondern er nahm auch lebende Personen in das "Universal-Lexicon" auf“ Seinen eigenen Buchladen hatte Zedler soweit ersichtlich zudem aufgeben müssen, denn eine zur Ostermesse 1739 erschienene Anzeige in den "Neuen Zeitungen von gelehrten Sachen" erklärte, dass die beiden zuletzt gedruckten Lexikonbände in „Wolfens Gewölbe, Auerbachs Hof gleich gegenüber“ ausgegeben werden sollten. In dieser Situation zog sich Zedler offenbar zunächst ins Privatleben zurück. Der Artikel „Zedler, (Johann Heinrich)“ im 1749 erschienenen 61. Band des "Universal-Lexicons" bemerkt hierzu, Zedler habe nach der Übernahme des Verlages durch Wolf „die Ruhe den Handels-Geschäfften vorzuziehen sich entschlossen.“ Zedler besaß in Wolfshain, einem von fünf Dörfern, die Herzog Moritz von Sachsen im Jahre 1544 der Leipziger Universität geschenkt hatte, ein Landgut. Quedenbaum, der Zedler als „ungestüm“ charakterisiert, vermutet, dass dieser die ihm aufgezwungene Ruhe in Wolfshain dazu nutzte, über neue Verlagsprojekte nachzudenken. Sicher ist auf jeden Fall, dass sein seit der Verlagsübernahme angeschlagener Ruf es Zedler nicht länger erlaubte, seine neuen verlegerischen Ideen unter dem eigenen Namen zu verwirklichen. Neue Projekte im Verlag Heinsius. Titelblatt des ersten Bandes des unter dem Verleger-Namen Heinsius erschienenen Handelslexikons "Allgemeine Schatz-Kammer Der Kaufmannschafft". In der Aufmachung knüpft das Werk unverkennbar an Zedlers frühere Verlagsprodukte an. Ab 1740 erschien eine ganze Reihe von Verlagsprodukten Zedlers unter dem Namen des Leipziger Verlagsbuchhändlers Johann Samuel Heinsius. Den Auftakt bildete Zedlers Monatsblatt "Cabinet", das jetzt unter dem leicht veränderten Titel "Neueröffnetes Cabinet Grosser Herren oder Gegenwärtige Staats- Hoff- Kriegs- und Commercien-Verfassung aller Europäischen Reiche und Staaten der Welt" eine Fortsetzung fand. Über den genauen Erfolg das "Neueröffneten Cabinets" ist ebenso wenig bekannt, wie über die Gründe für die Aufnahme in das Verlagsprogramm von Heinsius, der seit 1739 bereits eine ähnliche Monatsschrift unter dem Titel "Genealogisch-historische Nachrichten von den vornehmsten Begebenheiten, welche sich an den europäischen Höfen zugetragen" verlegte. Nach zwei Jahren und sechs Ausgaben gab Zedler das Blatt allerdings an den Leipziger Buchhändler Wolfgang Heinrich Schönermarck ab. Nach dem Erscheinen weniger weiterer Ausgaben wurde das Blatt eingestellt. Im Jahr 1741 folgte mit dem ersten Band der "Allgemeinen Schatz-Kammer Der Kaufmannschafft" der Auftakt für ein zunächst auf vier Bände angelegtes Handelslexikon auf der Grundlage des "Dictionnaire Universel de Commerce" (dt. „Allgemeines Handelslexikon“) von Jacques Savary des Bruslons. Als verantwortlichen Redakteur nennt Zedler in einer Anzeige in den "Wöchentlichen Hallischen Anzeigen" Carl Günther Ludovici. Bereits 1742 wurde der die Buchstaben „S“ bis „Z“ umfassende vierte Band ausgeliefert, ein Jahr später erschien unter dem Titel "Fortsetzung der Allgemeinen Schatz-Kammer Der Kauffmannschafft" ein Supplementband mit Ergänzungen und Register. Ein zunächst für den Schluss des Werkes angekündigtes Verzeichnis unter dem Titel „Jetzt lebende Kaufmannschaft in und außer Deutschland“ wurde nicht realisiert. Der Grund hierfür war offenbar, dass sich einige der von Zedler angeschriebenen Städte der Mitarbeit verweigert hatten und damit nicht alle benötigten Informationen vorlagen. Zedlers nächstes Verlagsprojekt war das "Corpus Juris Cambialis" von Johann Gottlieb Siegel. Siegel war ein anerkannter Spezialist für das komplizierte Wechselrecht der Zeit. Sein "Fürsichtiger Wechsel-Gläubiger" erschien 1739 bereits in der vierten Auflage. Heinsius stellte das neue, auf zwei Bände ausgelegte "Corpus Juris Cambialis" in den "Neuen Zeitungen" im April 1742 vor und warb um Pränumeranten. Pünktlich zur Leipziger Michaelismesse desselben Jahres lagen beide Bände gedruckt vor und erschienen gemeinsam mit dem 33. und 34. Band des "Universal-Lexicons", das bis dahin bei „Schla“ angekommen war. Von der "Allgemeinen Staats- Kriegs- Kirchen- und Gelehrten-Chronike", die wie das Lexikon unter der Ägide Wolfs weitergeführt wurde, erschien gleichzeitig der 12., inhaltlich bis zum Jahr 1700 reichende Band. Im Anschluss an die "Schatz-Kammer" und das "Corpus Juris Cambialis" begann Zedler erneut ein verlegerisches Großprojekt. Grundlage für das unter dem Titel "Historisch-Politisch-Geographischer Atlas der gantzen Welt: Oder, Grosses und vollständiges Geographisch- und Critisches Lexicon" ab 1744 bei Heinsius erscheinende Werk war eine Übersetzung des "Grand Dictionnaire Géographique Et Critique" von Antoine-Augustin Bruzen de La Martinière. Für das deutschsprachige Publikum wurde der Text der neunbändigen Originalausgabe durch Hinzuziehung weiterer Lexika ergänzt, wobei – durch Literaturangaben im Text belegt – besonders häufig auf das Zedlersche "Universal-Lexicon" zurückgegriffen wurde. Letzte Jahre und Tod. Über die genannten Werke hinaus hat Zedler wahrscheinlich auch noch weitere Arbeiten verlegt oder zumindest initiiert. Der Lexikonartikel „Zedler, (Johann Heinrich)“ aus dem Jahr 1749 bemerkt hierzu Auf welche Verlagsprojekte Zedlers sich dieser Hinweis bezieht, ist heute nicht mehr feststellbar. In den Jahren bis 1751 verlief die Arbeit an den unter der Ägide Wolfs stehenden oder bei Heinsius erscheinenden Werken jedoch in sehr geregelten Bahnen. Jeweils zur Oster- und Michaelismesse erschienen zwei Bände des "Universal-Lexicons" sowie jeweils zur Ostermesse ein Band der "Allgemeinen Staats-, Kriegs-, Kirchen- und Gelehrten-Chronicke". Die alphabetischen Bände des "Universal-Lexicons" konnten auf diese Weise bis 1750 abgeschlossen werden. Ludovici erweiterte es später noch um vier Supplementbände. Den größten Teil seiner letzten Lebensjahre verbrachte Zedler offenbar auf seinem Landgut in der Nähe Leipzigs. Hierzu heißt es im bereits erwähnten Lexikonartikel, Zedler habe sich Seine zu diesem Zeitpunkt 56-jährige Witwe Christiana Dorothea verließ Leipzig im Jahr 1754 und zog zurück nach Freiberg. Dort starb sie anderthalb Jahre später am 18. November 1755. Ihre Ehe mit Zedler war kinderlos geblieben. Von Zedler verlegte und betreute Werke (1726–1751). Eine historisch-kritische Bibliographie der von Zedler verlegten und betreuten Werke fehlt. Die Auswahl der hier aufgeführten Titel stellt das Ergebnis einer im Mai 2007 durchgeführten Suche in den Online-Katalogen deutscher Bibliotheken dar. Im Gegensatz zu den Aufnahmen in Bibliothekskatalogen wird hier nach Möglichkeit der Titel des Originals in ungekürztem Wortlaut wiedergegeben (bei Sammelwerken in Wortlaut und Form des ersten Bandes). Aus Online-Bibliothekskatalogen ermittelte und gekürzte Titel sind durch kursive Schrift ausgezeichnet. Bei der Wiedergabe von ungekürzten Titeln markiert der senkrechte Strich den Zeilenwechsel. Abkürzungen sind in eckigen Klammern aufgelöst. Besonders auffällige Formen der Hervorhebung werden hier als Großbuchstaben wiedergegeben. Weitere Auszeichnungen wie Kursivierungen, farbliche Hervorhebungen, etc. wurden aus Gründen der besseren Lesbarkeit nicht berücksichtigt. Aufgenommen wurden nur Werke, deren Druck zu Lebzeiten Zedlers abgeschlossen wurde. Angegeben wird das auf dem Titelblatt des jeweiligen Werkes angegebene Erscheinungsdatum. Dieses kann in Einzelfällen von dem tatsächlichen Datum des Erscheinens abweichen, weil Zedler offenbar immer dann spätere Jahreszahlen auf das Titelblatt drucken ließ, wenn er sich unsicher war, ob er das vorgesehene Erscheinungsdatum würde einhalten können. Joachim Neander. Das Hohe Fenster in der Bremer Martini-Kirche mit Joachim Neander an der Orgel Joachim Neander (* 1650 in Bremen; † 31. Mai 1680 in Bremen) war ein deutscher Pastor und Kirchenliederdichter und -komponist. Nach ihm wurde das Neandertal benannt. Leben. Neander stammt aus einer Pastorenfamilie, die sich einer damaligen Mode folgend von "Neumann" in "Neander" umbenannte (Gräzisierung). Er ist der erste Sohn aus der zweiten Ehe seines Vaters Johann Joachim Neander (1614–1666). Er studierte reformierte Theologie in Bremen und war als Erzieher unter anderem in Heidelberg und Frankfurt am Main tätig. 1670 geriet er unter den Einfluss des Erweckungspredigers Theodor Undereyck, der ihm eine Stelle als Hauslehrer in einer Frankfurter Kaufmannsfamilie verschaffte. Hier wurde Neander auch mit Philipp Jacob Spener bekannt, dessen 1675 veröffentlichte Schrift "Pia Desideria" Ausgangspunkt des Pietismus werden sollte. 1674 wurde Neander in Düsseldorf Rektor der Lateinschule der reformierten Gemeinde sowie Hilfsprediger. Er verfasste Texte und Melodien zu zahlreichen Kirchenliedern, die auf separatistischen Erbauungsversammlungen gesungen wurden. Weil Neander in einer eindrucksvollen Schlucht des Flüsschens Düssel bei Mettmann häufig komponierte und Gottesdienste abhielt, wurde "das Gestein" ihm zu Ehren "Neandershöhle" und ab dem 19. Jahrhundert "Neandertal" genannt. Da dort auch die ersten Skelettteile von Neandertalern entdeckt wurden, findet sich der Name Joachim Neanders auch im Begriff "Neandertaler" wieder. Nachdem Neander in Düsseldorf Schwierigkeiten mit der Kirchenverwaltung bekommen hatte, wurde er 1679 Hilfsprediger an der Kirche St. Martini in seiner Heimatstadt Bremen und wohnte im "Neanderhaus", das östlich von der Kirche stand und aus dem 15. Jahrhundert stammte. Er komponierte den Choral "Lobe den Herren, den mächtigen König der Ehren". Nach weniger als einem Jahr Tätigkeit in seiner Heimatstadt starb Neander am Pfingstmontag, den 31. Mai 1680 im Alter von 29 oder 30 Jahren an einer nicht näher beschriebenen Krankheit (möglicherweise an der Pest). Seine Grabstätte ist heute unbekannt; es wird nicht ausgeschlossen, dass sie sich unter der St.-Martini-Kirche befindet. Werk. Neander gilt als einer der bedeutendsten reformierten Kirchenlieddichter Deutschlands. Seine im Jahr 1680 veröffentlichten "Bundeslieder und Dank-Psalmen" waren bahnbrechend für die pietistischen Gesangbücher der reformierten und der lutherischen Kirche. Auch heutige deutsche Gesangbücher enthalten noch Lieder von Neander. So enthält das Evangelische Gesangbuch sechs Lieder, deren Texte und/oder Melodien von Neander stammen, und im bis 2005 gebräuchlichen deutschen Gesangbuch der Neuapostolischen Kirche finden sich vier von Neanders Liedern. Neanders bekanntestes Kirchenlied ist das 1679 gedichtete und 1680 im Rahmen der "Bundes-Lieder und Danck-Psalmen" erschienene Lied "Lobe den Herren, den mächtigen König der Ehren". Die heute gebräuchliche Melodie ist allerdings erst nachträglich zugeordnet worden; sie stammt nicht von Neander, sondern es handelt sich um ein ursprünglich weltliches Lied aus dem 17. Jahrhundert. Gedenktag. 31. Mai im Evangelischen Namenkalender. Jürgen Trittin. Jürgen Trittin (* 25. Juli 1954 in Bremen-Vegesack) ist ein deutscher Politiker (Die Grünen). Er ist Bundestagsabgeordneter und Mitglied im Auswärtigen Ausschuss. Von 1990 bis 1994 war Trittin niedersächsischer Minister für Bundes- und Europaangelegenheiten, von 1998 bis 2005 Bundesminister für Umwelt, Naturschutz und Reaktorsicherheit und von 2005 bis 2009 stellvertretender Vorsitzender der Bundestagsfraktion der Grünen. Familie, Studium, Beruf. Jürgen Trittin wuchs zusammen mit zwei jüngeren Geschwistern in einer bürgerlichen Familie auf; sein Großvater war Bankdirektor in Delmenhorst. Seine Mutter ist Helene Trittin, sein verstorbener Vater Klaus Trittin (1923–1998) war früher Mitglied der Waffen-SS und später Geschäftsführer und Prokurist in der "Bremer Tauwerk-Fabrik F. Tecklenborg und Co." in Bremen-Vegesack. Während des Zweiten Weltkriegs diente Vater Klaus Trittin ab 1941 als Freiwilliger in Fronteinsätzen in der Waffen-SS, zuletzt als Zweiundzwanzigjähriger im Rang eines SS-Obersturmführers. Er kämpfte bis zum letzten Kriegstag auf der Halbinsel Hel in der Danziger Bucht, von der laufend Transporte von Flüchtlingen und Verwundeten über die Ostsee nach Westen erfolgten. Bis 1950 war Klaus Trittin in sowjetischer Kriegsgefangenschaft. Die eigene Vergangenheit ließ ihn – nach Aussagen des Sohnes – nicht mehr los. Er redete, anders als seine Zeitgenossen, offen über seine Vergangenheit, auch gegenüber seinen Kindern. In einem Interview berichtete Jürgen Trittin von einem Besuch des KZ Bergen-Belsen, zu dem er als 15-jähriger gemeinsam mit seinem Bruder vom Vater mitgenommen worden war. Dabei habe Klaus Trittin seine Söhne mit den Worten gemahnt: „Guckt euch das an, das haben wir verbrochen. So etwas dürft ihr nie wieder zulassen“. Jürgen Trittin wurde konfirmiert und war bei den Pfadfindern. Wegen des Schweigens der Kirche zum Massaker von My Lai trat er als Gymnasiast aus der Kirche aus. Trittin absolvierte 1973 das Abitur am Gerhard-Rohlfs-Gymnasium in Bremen-Vegesack und begann im April 1974 mit der Ableistung von sechs der fünfzehn Monate seines Grundwehrdienstes bei der Bundeswehr in Bremen, da seine Kriegsdienstverweigerung (KDV) zunächst nicht anerkannt wurde, weil sie politisch und nicht mit dem Gewissen begründet worden sei. Erst über den Klageweg beim Verwaltungsgericht konnte er ab Januar 1975 Zivildienst in einem Heim für schwer erziehbare Jungen bei Bremen ableisten. Anschließend absolvierte er von 1975 bis 1981 ein Studium der Sozialwissenschaften an der Georg-August-Universität Göttingen, das er als Diplom-Sozialwirt beendete. Er war danach als wissenschaftlicher Mitarbeiter an der Universität Göttingen und als freier Journalist für die lokale "Göttinger Stadtzeitung" (goest) tätig. Trittin hat eine Tochter, die er mit Mitte zwanzig adoptierte, und eine Enkeltochter. Trittin erlitt 2010 einen Herzinfarkt, den er auf eine genetische Prädisposition zurückführte und der keine bleibenden gesundheitlichen Schäden hinterließ. Seit Dezember 2013 ist er verheiratet. Kommunistischer Bund und Gründung der Grünen. Mit fünfzehn beteiligte er sich an Demonstrationen in Bremen. Während seines Studiums (1977) war Trittin für die "Sozialistische Bündnisliste" (SBL), einem Zusammenschluss aus maoistischem Kommunistischem Bund (KB), Mitgliedern der trotzkistischen Gruppe Internationale Marxisten (GIM) und weiterer linksradikaler Studenten, Mitglied im Fachschaftsrat Sozialwissenschaften. Diese koalierte mit der Sponti-Gruppe "Bewegung undogmatischer Frühling" (BUF) und stellte den Allgemeinen Studentenausschusses (AStA) der Universität Göttingen, der wiederum die Studentenzeitung "Göttinger Nachrichten" herausgab, die zuvor (1977) den Buback-Nachruf und damit die Sympathieerklärung für den Mord am damaligen Generalbundesanwalt Siegfried Buback veröffentlichte. Die "Süddeutsche Zeitung" (SZ), die "tz" und die "Abendzeitung" stellten 2001 klar, Trittin sei nie Mitglied der Redaktion gewesen. Auch der damalige AStA-Vorsitzende Jürgen Ahrens bestritt eine Beteiligung Trittins, wie es die "Bildzeitung" behauptete. Trittin verteidigte in den 1970er Jahren den Nachruf, was er später als „schweren Fehler“ bezeichnete. 1978 kandidierte er zum ersten Mal auf der "Liste demokratischer Kampf" (LDK) des Kommunistischen Bundes für den AStA. Von 1979 bis 1980 war Trittin dann in einer Funktion im AStA, zuständig für das Außenreferat. Zeitgleich war er von 1979 bis 1980 Präsident des Studentenparlaments (StuPa). Dort lernte er auch den Sozialdemokraten Thomas Oppermann kennen. In dieser Funktion organisierte er Demonstrationen u. a. gegen Rekrutengelöbnisse der Bundeswehr und war als Hausbesetzer in Göttingen tätig. Trittin bewegte sich im breiten Umfeld der Göttinger K-Gruppen und war aktives Mitglied (bis 1980) des vom Verfassungsschutz beobachteten Kommunistischen Bundes. Nach Aussagen ehemaliger Kommilitonen wurde er jedoch nie wie Joschka Fischer militant oder gewalttätig aktiv. Trittin bezeichnete später seinen links-maoistischen Aktivismus als „illegal“. Trittin gehörte dann Anfang der 1980er Jahre – wie auch die Politiker Thomas Ebermann und Rainer Trampert – der Gruppe Z an, einer Abspaltung des Kommunistischen Bundes, welche die neu gegründeten Grünen zu unterwandern versuchte. Seine spätere Frau, Gründungsmitglied der grünen Partei in Göttingen, holte ihn 1980 zu den Grünen. Seit diesem Jahr ist Trittin offizielles Parteimitglied. 1981 wurde er wissenschaftlicher Assistent der Stadtratsfraktion der linken "Alternativen-Grünen-Initiativen-Liste" (AGIL) in Göttingen. Von 1982 bis 1984 war Trittin Geschäftsführer der AGIL-Stadtratsfraktion. 1984 wurde er vom Kreisverband der Grünen in Göttingen als Kandidat für den Niedersächsischen Landtag auf die Landesliste in einer Kampfabstimmung gegen Sonja Schreiner gewählt. Landtagsabgeordneter und Minister in Niedersachsen (1984–1994). Nachdem Trittin von 1984 bis 1985 Pressesprecher der Grünen-Landtagsfraktion Niedersachsen war, rückte er 1985 aufgrund des damals bei den Grünen praktizierten Rotationsprinzips in den Niedersächsischen Landtag nach und wurde noch im selben Jahr zum Fraktionsvorsitzenden gewählt. Das Amt hatte er bis 1986 und erneut von 1988 bis 1990 inne. Von 1990 bis 1994 war er im Kabinett Schröder I Minister für Bundes- und Europaangelegenheiten des Landes Niedersachsen. Wegen des bei den Grünen herrschenden Prinzips der Trennung von Amt und Mandat schied Trittin aus dem Landtag aus. Nach dem Ende der rot-grünen Koalition kehrte er 1994 in den Landtag zurück und wurde stellvertretender Fraktionsvorsitzender. Bundessprecher von Bündnis 90/Die Grünen (1994–1998). Im Dezember 1994 wurden Trittin und Krista Sager als Sprecher des Bundesvorstandes von Bündnis 90/Die Grünen gewählt. Trittin erhielt ohne Gegenkandidaten 499 von 584 gültigen Stimmen. Sein Landtagsmandat legte er deshalb erneut nieder. Ab 1996 bildete er zusammen mit Gunda Röstel das Führungsduo an der Parteispitze. 1998 gab er dieses Amt mit dem Einzug in den Bundestag auf. Bundesumweltminister (1998–2005). Nach der Bundestagswahl 1998 löste die erste rot-grüne Bundesregierung unter Bundeskanzler Gerhard Schröder die bisherige schwarz-gelbe Koalition unter Helmut Kohl ab. Bündnis 90/Die Grünen besetzten drei Ressorts im Kabinett Schröder I. Joschka Fischer übernahm das Außen-, Andrea Fischer das Gesundheits- und Trittin das Umweltministerium. Am 27. Oktober 1998 wurde Trittin als Bundesminister für Umwelt, Naturschutz und Reaktorsicherheit vereidigt. In der ersten Legislaturperiode der rot-grünen Regierung war Trittin das bevorzugte Angriffsziel der Opposition und der Wirtschaft. Konfliktthemen waren besonders der von Trittin ausgehandelte Atomausstieg und die Ökosteuer. Dabei geriet er wiederholt in Auseinandersetzungen mit dem Bundeskanzler, in deren Folge mehrfach über einen Rücktritt Trittins spekuliert wurde. So wies Gerhard Schröder Trittin nach Intervention der deutschen Autohersteller unter Hinweis auf seine Richtlinienkompetenz an, die Altautorichtlinie der EU im Ministerrat abzulehnen. Diese sah vor, dass Hersteller Altfahrzeuge zurücknehmen müssten. Trittin setzte im Ministerrat einen Kompromiss durch, der auch vom Europäischen Parlament verabschiedet wurde. Die deutsche Umsetzung der Richtlinie erfolgte am 1. Juli 2002 durch die Altfahrzeugverordnung. Es gilt als wahrscheinlich, dass Gerhard Schröder seinen Umweltminister andernfalls aus dem Kabinett entlassen hätte. Im Januar 2000 musste Trittin auf Druck der Energiewirtschaft und des Bundeskanzlers zudem den Stopp der Atommülltransporte zur Wiederaufarbeitung zurückziehen. Ein Leitgedanke der rot-grünen Politik war die sogenannte Energiewende. Am 1. April 2000 trat das Erneuerbare-Energien-Gesetz in Kraft, das als „Herzstück der rot-grünen Energie- und Klimapolitik“ galt. Das Gesetz förderte die Stromerzeugung durch erneuerbare Energien in Deutschland entscheidend. Am 14. Juni 2000 wurde der Atomkonsens durch einen Vertrag zwischen der Bundesrepublik mit den Betreibergesellschaften eingeleitet, der den Atomausstieg innerhalb von 32 Jahren vorsah. Der Vertrag wurde 2002 durch die Novellierung des Atomgesetzes rechtlich abgesichert. Am 14. November 2003 ging als erstes das AKW Stade vom Netz. Der Atomausstieg war ein zentrales und identitätsstiftendes Ziel seit der Gründung der Grünen Partei. Deshalb galt der Atomausstieg einerseits als wichtigster Erfolg der rot-grünen Politik, andererseits wurde dieser gerade von der Parteibasis als viel zu zögerlich kritisiert. Trittin als verantwortlichem Bundesminister wurde die Schuld daran gegeben. 2001 wurde das AKW Philippsburg, für dessen Betrieb die Landesregierung von Baden-Württemberg zuständig war, auf Druck Trittins für mehrere Wochen abgeschaltet. Weitere wichtige Projekte waren das Klimaschutzprogramm vom 18. Oktober 2000 und eine Novelle zum Bundesnaturschutzgesetz im Jahr 2001. Zu einem Machtkampf mit der Industrie kam es durch die Einführung des Dosenpfands. In der zweiten Legislaturperiode der rot-grünen Bundesregierung nach der Bundestagswahl 2002 gab es deutlich weniger Konflikte. Offene Spannungen traten jedoch zwischen dem Umweltministerium und dem von Wolfgang Clement geführten Wirtschaftsministerium aus. Während Trittin erneuerbare Energien unterstützte, setzte der ehemalige nordrhein-westfälische Ministerpräsident Clement auf die heimische Steinkohle. Nachdem die Landwirtschaftsministerin Renate Künast zur Vorsitzenden der Bundestagsfraktion Bündnis 90/Die Grünen gewählt wurde, nahm Trittin ab dem 4. Oktober 2005 kurzzeitig zusätzlich die Geschäfte des Bundesministers für Verbraucherschutz, Ernährung und Landwirtschaft wahr. Nach der Wahl von Angela Merkel zur Bundeskanzlerin schied er am 22. November 2005 endgültig aus dem Amt. In der Opposition (seit 2005). Nach der Bundestagswahl 2005 scheiterte er bei der Wahl zum Fraktionsvorsitzenden gegen Fritz Kuhn und wurde stattdessen stellvertretender Vorsitzender sowie politischer Koordinator des Fraktionsarbeitskreises IV „Außenpolitik, auswärtige Kulturpolitik, Menschenrechte, Entwicklungspolitik, Verteidigung, Europa“. Als Direktkandidat im Wahlkreis Göttingen erreichte er bei der Bundestagswahl 2005 7,8 % der Erststimmen. Im November 2008 wählte die Bundesdelegiertenversammlung der Grünen Renate Künast und Trittin zu ihren Spitzenkandidaten für die Bundestagswahl 2009. Er führte, gemeinsam mit Brigitte Pothmer, erneut die niedersächsische Landesliste an und war zudem wieder Direktkandidat im Wahlkreis Göttingen, wo er 13,0 % der Erststimmen erhielt. Nach der Wahl wurde er am 6. Oktober 2009 zusammen mit Renate Künast Vorsitzender der Bundestagsfraktion Bündnis 90/Die Grünen. Trittin ist Mitglied im Ausschuss für Angelegenheiten der Europäischen Union, im Unterausschuss Vereinte Nationen und stellvertretendes Mitglied im Auswärtigen Ausschuss. Er gehört außerdem von 2000 bis 2013 dem Parteirat der Grünen an. Im September 2010 wurde er Opfer eines Tortenwurfs in Hannover, als er an einer Podiumsdiskussion in einem der Republik Freies Wendland nachempfundenen Hüttendorf teilnahm. Im Oktober 2012 bestimmten die Mitglieder seiner Partei ihn und Katrin Göring-Eckardt in einer Urwahl zu den Spitzenkandidaten für die Bundestagswahl 2013. Aufgrund des enttäuschenden Wahlergebnisses seiner Partei im Jahre 2013 gab er bekannt, nicht erneut als Fraktionsvorsitzender anzutreten. Trittin ist stets über die Landesliste Niedersachsen in den Deutschen Bundestag eingezogen. Nebentätigkeiten, Einkünfte und Mitgliedschaften. Trittin erzielt keine dem Bundestagspräsidenten anzeigepflichtigen Einkünfte. Honorare für Vorträge und Fernsehauftritte spendet er nach eigenen Angaben sozialen Projekten. Er ist Mitglied im Beirat der Akademie Waldschlößchen, Schirmherr von Borneo Orangutan Survival Deutschland und des deutsch-polnischen Projekts zur Waldökosystemforschung "Inpine", Kuratoriumsmitglied des Weltfriedensdienstes, der "Stiftung Initiative Mehrweg" und nach eigenen Angaben Mitglied bei "fesa e. v." (Freiburg), der Gewerkschaft ver.di sowie der Europa-Union Parlamentariergruppe Deutscher Bundestag. 1989 war er Mitbegründer der antifaschistischen Zeitschrift Der Rechte Rand. Von März bis August 2012 war Trittin Umweltbotschafter des SV Werder Bremen. Diesen Posten gab er ab, als der Klub einen Sponsorenvertrag mit Wiesenhof abschloss und hierfür kritisiert wurde. Politische Positionen. Trittin wurde im Jahr 1998 zum linken Flügel der Partei gerechnet. In den parteiinternen Flügelkämpfen der Grünen fiel ihm deshalb lange die Rolle eines linken Gegenpols zu dem „Realo“ Joschka Fischer zu. Zugleich gilt er als pragmatischer und nüchterner Taktierer. Anders als die sogenannten Fundamentalisten („Fundis“) steht er für die Idee einer Durchsetzung sozialer und ökologischer Politikziele durch die Beteiligung der Grünen an Regierungskoalitionen. Seit seinem Ausscheiden aus dem Amt des Umweltministers engagiert sich Trittin in seiner parlamentarischen Arbeit vor allem in der Außenpolitik und der Europapolitik. In der Energieaußenpolitik setzt er sich für einen weltweiten Ausbau der Erneuerbaren Energien und gegen die Abhängigkeit der Weltwirtschaft vom Erdöl ein. 1998 erklärte er, er wolle die NATO „nicht auf-, sondern ablösen“. Als Mitglied des Bundeskabinetts warb er 2000 für die Abschaffung der Wehrpflicht, was jedoch vom Bundesminister der Verteidigung Rudolf Scharping zurückgewiesen wurde. Nach dem NSA-Skandal 2013 forderte Trittin eine Revision der Beziehungen zu den USA und forderte Asyl für den Whistleblower Edward Snowden. In der Eurokrisenpolitik stellt sich Trittin sowohl gegen Peer Steinbrücks wie auch Angela Merkels Positionen. So ist er offen für einen weiteren Schuldenschnitt für Griechenland. Trittin lehnt zwar die PKW-Maut ab, unterstützt jedoch die Ausweitung der LKW-Maut auf Ausweichstrecken. Zur Flüchtlingsfrage bemerkte Trittin bereits 1999, dass CDU/CSU und Teile der SPD auf sie „eine rassistische Antwort“ gäben. Deutschland sei ein „in allen Gesellschaftsschichten und Generationen rassistisch infiziertes Land“. Er ist nach wie vor ein scharfer Kritiker der Politik zur Flüchtlingskrise in Deutschland 2015. Öffentliche Wahrnehmung. Trittin wurde während seiner Amtszeit als Bundesminister als „fleißig, machtbewusst, rhetorisch stark, ‚störrisch‘, links, fachlich kompetent, staatsmännisch, polarisierend, provokativ; kantig, kämpferisch, Mann mit eigener Meinung“ charakterisiert. Als Parteisprecher galt er als geradlinig, zielstrebig und konfliktbereit, aber auch als arrogant, unnahbar und verbohrt. Krista Sager beschrieb ihn als „innerlich wie gepanzert“. Joschka Fischer formulierte positiver: „Er kann gut wegstecken“. Er wird aufgrund seiner Auftritte (u. a. bei einer Kundgebung der linken Initiative Gelöbnix 1998) und seiner oft scharfen Polemik, etwa der Bezeichnung eines öffentlichen Gelöbnisses der Bundeswehr als „ein perverses Ritual“ oder das Treffen der NATO-Außenminister in Berlin diene der „Militarisierung der europäischen Außenpolitik“, von politischen Gegnern immer wieder heftig kritisiert. Beispielhaft dafür stehen Beschimpfungen in Richtung Trittin wie „Ökostalinist“ durch den ehemaligen Bundeswirtschaftsminister Michael Glos oder „Salonbolschewist“ durch den damaligen Generalsekretär der CSU Markus Söder. Trittin wurde 2001 von Michael Buback in die Nähe des sogenannten Mescalero-Briefs gerückt, in dem 1977 von „klammheimlicher Freude“ über den Tod des RAF-Opfers Siegfried Buback die Rede war. Trittin machte sich den Inhalt des Briefes explizit nicht zu eigen und verteidigte seine damaligen Anmerkungen als Fachschaftsvertreter an der Georg-August-Universität Göttingen als eine „trotzige Verteidigung der Meinungsfreiheit“. Im selben Jahr gab sich der Literaturwissenschaftler und Deutschlehrer Klaus Hülbrock gegenüber der taz als der Göttinger Mescalero zu erkennen. Im Sommer 2012 war er Teilnehmer der Bilderberg-Konferenz im amerikanischen Chantilly (Virginia), einem Treffen von Personen aus Wirtschaft, Politik und anderen gesellschaftlichen Bereichen, was in seiner Partei gespaltene Reaktionen hervorrief. Im September 2013 machten die vom Vorstand von Bündnis90/Die Grünen mit einer Untersuchung „pädophiler Forderungen in den Milieus der Neuen Sozialen Bewegungen sowie der Grünen“ beauftragten Göttinger Politikwissenschaftler Franz Walter und Stephan Klecha bekannt, dass Trittin im Jahr 1981 die presserechtliche Verantwortung für das Kommunalwahlprogramm der Alternativen-Grünen-Initiativen-Liste (AGIL) in Göttingen innehatte, worin durch die Gruppe „Homosexuelle Aktion Göttingen“ neben einer umfassenden Gleichstellung Homosexueller auch gefordert wurde, die Paragraphen 174 (Sexueller Missbrauch von Schutzbefohlenen) und 176 (sexueller Missbrauch von Kindern) des StGB so zu fassen, „daß nur Anwendung oder Androhung von Gewalt oder der Mißbrauch eines Abhängigkeitsverhältnisses unter Strafe stehen“. Trittin räumte den Vorgang gegenüber der taz ein und kündigte eine lückenlose Aufklärung des Vorfalls an. Walter nahm Trittin gegen die von anderen Parteien geäußerte Kritik in Schutz; die „Hysterie“ um den Vorfall sei überzogen. Jan Łukasiewicz. Jan Łukasiewicz (* 21. Dezember 1878 in Lemberg; † 13. Februar 1956 in Dublin) war ein polnischer Philosoph, Mathematiker und Logiker. Wirken. Łukasiewicz war in den Jahren von 1915 bis 1939 Professor an den Universitäten Lemberg und Warschau, an letzterer auch zweimal Rektor. Seine Arbeit dort stand im Zeichen der "Lemberg-Warschau-Schule", deren Grundlagenforschung an mathematischer Logik die Universität Warschau zu einem Zentrum der Logik in der Zeit nach dem Ersten Weltkrieg machte. Zu seinen Schülern und späteren Kollegen gehörte unter anderem Alfred Tarski. 1919 war Łukasiewicz für kurze Zeit polnischer Bildungsminister. 1938 verlieh ihm die Universität Münster einen Ehrendoktor für Philosophie. Während der Besetzung, die dem Angriff Deutschlands auf Polen folgte, arbeitete er an der geheimen Warschauer Untergrunduniversität ("Tajny Uniwersytet Warszawski"). Das Kriegsende erlebte er in Hembsen, wohin ihn befreundete deutsche Mathematiker zu seiner eigenen Sicherheit geholt hatten. 1949 ging er nach Dublin, wo er an der Universität einen Lehrstuhl angeboten bekam und den Rest seines Lebens wirkte. Er führte die später so genannte polnische Notation (Präfixnotation) ein, bei welcher der Operator eines Ausdrucks (z. B. einer mathematischen Formel) vor den Operanden geschrieben wird und die dadurch ohne Klammern auskommt: Statt "8 + 5" schreibt man "+ 8 5". Später wurde davon die umgekehrte polnische Notation (Postfixnotation) abgeleitet, bei der die Operatoren "hinter" ihren Operanden geschrieben werden (z. B. "8 5 +"). Jan Łukasiewicz formalisierte 1920 die dreiwertige Logik Ł3 und schuf so den ersten mehrwertigen und damit nichtklassischen logischen Kalkül. Seine Arbeiten beschäftigten sich aber auch mit der klassischen Logik. So bewies er unabhängig von Bernays und Post die Vollständigkeit und Widerspruchsfreiheit der klassischen Aussagenlogik. In seinen mehrwertigen Logiken verwendete er Wahrheitswertfunktionen, die heute als "Łukasiewicz-Tarski-Negation" und "Łukasiewicz-Tarski-Implikation" bezeichnet werden. Von Jan Łukasiewicz stammen auch bahnbrechende Arbeiten zur Geschichte der Logik. Er rekonstruierte die Aristotelische Syllogistik und hat neben Martha Kneale die Bedeutung der stoischen Logik entdeckt, die er für die früheste historische Form der Aussagenlogik hielt (heute wird die Priorität den "Dialektikern" Diodoros Kronos und Philon von Megara zugeschrieben). Mit dieser Neubewertung befreite er die Stoa von dem alten und hartnäckigen Urteil, sie habe einen unfruchtbaren Formalismus in die Logik eingeführt, und fügte der Geschichte der Logik ein neues Kapitel hinzu. James Dean. James Byron Dean (* 8. Februar 1931 in Marion, Indiana; † 30. September 1955 in der Nähe von Cholame, Kalifornien) war ein US-amerikanischer Theater- und Filmschauspieler. Sein früher Tod und seine Rolle in "… denn sie wissen nicht, was sie tun" machten ihn zu einem Jugendidol. Für seine Rollen in "Jenseits von Eden" und "Giganten" erhielt er postum zwei Oscarnominierungen als Bester Hauptdarsteller. Kindheit und Ausbildung. James Dean wurde am 8. Februar 1931 in Marion, Indiana, in der Wohnung seiner Eltern Winton (1907–1995), einem Zahntechniker, und Mildred Marie Wilson Dean (1910–1940) geboren. Deans Eltern zogen nach der Geburt ihres Sohnes, den sie mit dem Kosenamen „Jimmy“ riefen, zu ihren Verwandten nach Fairmount, Indiana, wo sie erst bei den Eltern des Vaters lebten und dann auf die Farm von Winton Deans Schwager und seiner Schwester, Marcus und Ortense Winslow zogen. Nach einem weiteren Umzug zurück nach Marion begann die Mutter die künstlerische Begabung ihres Sohnes, der sich durch große Neugier und Dickköpfigkeit auszeichnete, zu fördern. Sie meldete ihn am College of Dance and Theatre an, einer privaten Schauspielschule einer ehemaligen Entertainerin. Dort erlernte er in wenigen Wochen den Stepptanz und trat bereits im Juni 1936 bei einer öffentlichen Vorstellung auf; daneben erhielt er auch Geigenunterricht. Im Alter von fünf Jahren zog er kurz darauf mit seinen Eltern nach Santa Monica, Kalifornien, wo sein Vater eine besser bezahlte Stellung als Leiter eines Zahnlabors am Sawtelle Veterans Hospital antrat. In Kalifornien besuchte Dean zunächst die Brentwood Elementary School. Nach einem innerstädtischen Umzug der Familie wechselte er nach der ersten Klasse an die McKinley Elementary School am Santa Monica Boulevard, die er bis zur dritten Klasse besuchte. In dieser Zeit äußerte sich die künstlerische Neigung des jungen Dean vor allem darin, mit bloßen Händen Tonfiguren zu formen und zu kreieren. Tod der Mutter. Ende des Sommers 1939 litt Deans Mutter zunehmend unter starken Unterleibsschmerzen. Sie suchte mit ihrem Mann einen Arzt auf, der sie auch operierte – doch ihr Zustand besserte sich nicht. Sie wurde bettlägerig und konnte die begonnene Ausbildung zur Kosmetikerin nicht beenden. Im Frühjahr 1940 verschlimmerte sich der Gesundheitszustand von Mildred Dean. Sie war wie ihre Mutter unheilbar an Gebärmutterkrebs erkrankt und wurde nach kurzem Klinikaufenthalt nach Hause entlassen. Dort starb sie am 14. Juli 1940 im Alter von 29 Jahren, Dean war zu diesem Zeitpunkt neun Jahre alt. Äußerlich gab er sich gefasst, doch konnte er den Tod der Mutter, zu der er ein enges Verhältnis hatte, nie ganz überwinden. Kurz nach dem Tod der Mutter wurde Dean von seinem Vater (dieser wirkte trotz seines Humors auf Mitmenschen unnahbar und reserviert; er ist auch als eher gleichgültiger Vater beschrieben worden) in die Obhut seiner Großmutter und seiner Tante väterlicherseits gegeben, die wegen der schweren Krankheit von Mildred Dean nach Kalifornien gereist waren. Der Leichnam der Mutter wurde am 16. Juli 1940 in Begleitung von Jimmy und seinem Kindermädchen mit dem Zug nach Indiana überführt, während Großmutter und Tante mit dem Bus zurückkehrten. Einen Tag später wurde Deans Mutter auf dem Grant Memorial Cemetery von Marion beerdigt. Die Inschrift auf ihrem Grabstein lautet: "„Mildred Mary Dean / 15. September 1910 / 14. Juli 1940 / Ehefrau“". Achtzehn Monate später wurde Winton Dean als Sanitäter zum Militärdienst eingezogen und diente im Zweiten Weltkrieg in Europa. Rückkehr nach Indiana. James Dean lebte von nun an wieder in Fairmount, Indiana, wo er auf der Farm seines Onkels Marcus Winslow, dessen Frau Ortense und der älteren Tochter Joan aufwuchs, etwa fünf Kilometer nördlich der Stadt. In dem zweistöckigen weißen Farmhaus mit 13 Zimmern und einer L-förmigen Veranda an der Vorderseite trat ihm das Ehepaar sogar sein Schlafzimmer ab, da Dean das Mobiliar darin besonders gefiel. Beide ermutigten Dean auch weiterhin, zu zeichnen, zu malen und mit Ton zu modellieren, und bald sprach er Tante und Onkel mit "Mom" und "Dad" an. Doch fiel es ihm schwer, den Schicksalsschlag zu verarbeiten; über den Verlust seiner Mutter brach er Verwandten zufolge öfter in Tränen aus. Auch gab er bald darauf das Geigenspiel und den Tanz auf. Ablenkung fand Dean im Herbst 1940, als er in die vierte Klasse der West Ward Elementary School von Fairmount wechselte, die im Gegensatz zur North Ward Elementary hauptsächlich von Kindern der umliegenden Farmen besucht wurde. Von den Lehrern wurde er als braver, netter Schüler beschrieben, der nicht auffiel und eine gewisse Zurückhaltung und Reserviertheit an den Tag legte. Er gewöhnte sich an einen geregelten Tagesablauf. Viel Zeit verbrachte er vor dem Radio, in dem Hörspielsendungen und Unterhaltungsprogramme von Bob Hope, Red Skelton und Arthur Godfrey gespielt wurden. In dieser Zeit soll sein Wunsch entstanden sein, Filmschauspieler zu werden, was von seinen Verwandten aber nur belächelt wurde. Im Alter von neun Jahren bekam Dean die Hauptrolle in einem Krippenspiel der Back Creek Friends Church. In dem Stück "To Them that Sleep in Darkness" spielte er einen blinden Jungen, der nach und nach sein Augenlicht wieder zurückgewinnt. Er agierte noch in weiteren Stücken an der West Ward Elementary. Im Herbst 1943 kam Dean in die siebte Klasse der Fairmount High School im Stadtzentrum. Zur selben Zeit bekamen Marcus und Ortense Winslow ihr zweites Kind, einen Sohn, dem sie den Namen Marcus jr. gaben. James Dean freundete sich mit dem neuen „Brüderchen“ an, im Gegensatz zu der älteren Joan, die schon bald nach der Geburt von Marcus jr. auszog, um mit ihrem Ehemann einen eigenen Haushalt zu gründen. Eines Tages stürzte er in der Scheune vom Heuboden und verlor vier Schneidezähne, so dass er gezwungen war, für den Rest seines Lebens eine Zahnprothese zu tragen. Zusammenarbeit mit Adeline Brookshire. Im Herbst 1946 begegnete Dean zum ersten Mal der als unkonventionell geltenden Lehrerin Adeline Brookshire. Er besuchte bei ihr den Anfängerkurs für Sprecherziehung, und sie teilte als Leiterin der Theater-AG seine Leidenschaft für die Schauspielerei. Durch den Unterricht bei ihr wurde er in seinem Wunsch bestärkt, Schauspieler zu werden, und er spielte in zwei Theaterproduktionen seiner High School. Unter dem Künstlernamen "Jim Dean" war er in dem Stück "The Monkey’s Paw" als Herbert White zu sehen, während er in "Mooncalf Mugford" die Rolle des John Mugford interpretierte. Mit "An Apple from Coles County", "Gone with the Wind", "Our Hearts Were Young and Gay" und "You Can't Take It with You" folgten weitere Auftritte in Schulaufführungen, außerdem tat er sich in der Schulmannschaft als guter Hürdenläufer und Basketballspieler hervor. Da er wegen seiner starken Kurzsichtigkeit stets eine Brille benötigte, trug er auch bei den Basketballspielen immer eine Sportbrille. Ein weiteres Hobby von James Dean waren Motorräder. Sein erstes war eine "Czech Whizzer", ein tschechisches Moped, das er 1947 von seinem Onkel Marcus geschenkt bekam. Er kannte sich mit Mechanik aus und genoss es, auf seinem Bike herumzukurven. Er nahm mit dem Motorrad auch an Rennen teil und schnitt dabei ganz gut ab. In seinem späteren Leben besaß Dean unter anderem eine Harley, eine 500-cm³-Norton, eine Indian 500, eine italienische Lancia Scooter und eine britische Triumph T-110, die an der Seite die Aufschrift "Dean’s Dilemma" zierte. 1949, in seinem letzten High-School-Jahr, informierte Adeline Brookshire in ihrem Kurs für Sprecherziehung die Schüler über einen Vorlesewettbewerb, der von der Indiana National Forensic League ins Leben gerufen worden war. Dean konnte sich für diesen Wettbewerb begeistern, suchte sich das "Manuskript eines Irrsinnigen" aus Charles Dickens' "The Pickwick Papers" aus und probte den Vortrag mit Brookshire. Am 8. April 1949 fand in Peru, Indiana, die erste Runde des Wettbewerbs statt. Dean konnte mit seinem Vortrag überzeugen, er belegte den ersten Platz und wurde Landessieger. Er qualifizierte sich damit für den Bundeswettbewerb, der am Ende des Monats in Longmont, Colorado stattfand. Die Begeisterung an Deans Schule war groß und er wurde wie ein Held am Bahnhof verabschiedet, als er mit Adeline Brookshire zu dem Wettbewerb reiste. Da er bei seiner Inszenierung aber auch viel improvisierte (wie auch in seiner späteren Filmkarriere), überschritt er das Zeitlimit von zehn Minuten. In der ersten Runde wurde darauf nicht geachtet – jedoch in der Endrunde am nächsten Tag. Dean wollte nicht auf seine Mentorin hören und den Text kürzen, trug ihn unverändert vor und landete nur auf Platz sechs. Die Enttäuschung darüber wog schwer. Rückkehr nach Los Angeles. Am 16. Mai 1949 feierte James Dean seinen Highschool-Abschluss und wurde mit Preisen für seine Leistung in den Fächern Bildende Kunst, Sport und Schauspiel geehrt. Als Examensgeschenk durfte er nach Indianapolis zu einem Autorennen reisen, was ihn offenbar dazu anregte, später selbst an Autorennen teilzunehmen. Obwohl ihm seine langjährige Mentorin Adeline Brookshire dazu riet, ein College irgendwo im Mittleren Westen zu besuchen, zog er nach Kalifornien, um mit seinem Vater zusammenzuleben (er hatte in den letzten Jahren seinen Vater in Kalifornien dreimal besucht, während Winton Dean mehrere Male nach Fairmount gereist war), der mittlerweile sein Dasein als Witwer aufgegeben und 1945 Ethel Case geheiratet hatte. Dean befolgte den Rat seines Vaters und entschied sich für ein Studium der Rechtswissenschaften am Santa Monica Junior College. Als auswärtiger Student musste er vor dem zweijährigen Grundstudium allerdings Vorbereitungskurse besuchen. Winton Dean bemühte sich nun auf seine Weise, seine Vaterrolle zu erfüllen, die er lange Jahre gemieden hatte. Er kaufte James Dean einen gebrauchten 1939er Chevrolet, damit er sich in der Stadt frei bewegen konnte. Trotz der Einwände seines Vaters gegen die Schauspielerei wurde Dean Mitglied der Miller Playhouse Theatre Guild in Los Angeles. Durch seine Bühnenkenntnisse und seine künstlerischen Fertigkeiten, Kulissen zu entwerfen, bekam er bald den Posten des Bühnenmanagers und spielte unter dem Künstlernamen "Byron James" eine kleine Nebenrolle in dem Stück "The Romance of Scarlet Gulch". Nach den Sommerkursen schrieb sich James Dean am Santa Monica City College ein, das gerade umgebaut wurde. Die Kurse fanden 1949/50 daher in der Santa Monica High School statt. Dean belegte mehrere Vorbereitungskurse für das bevorstehende Jura-Studium, daneben aber auch Theatergeschichte und den Anfängerkurs für Schauspiel, die beide von Jean Owen geleitet wurden. Sie wurde seine wichtigste Ratgeberin und las mit ihm außerhalb der regulären Kurse Werke von William Shakespeare, um ihm seine undeutliche Aussprache auszutreiben, die teilweise seinem Indiana-Akzent, teilweise auch seiner Zahnbrücke geschuldet war. Dean schnitt in seinem ersten Semester passabel ab, die Noten in den Vorbereitungskursen für Rechtswissenschaften lagen aber hinter den Erwartungen seines Vaters. Für Dean stand die Arbeit mit Jean Owen im Mittelpunkt. Außerdem wurde er Mitglied in der Basketballmannschaft sowie im "Drama- und Jazz Appreciation Club". Im Frühjahr wurde Dean in die "Opheleos Men’s Honor Service Organization" gewählt, einen Club, dem nur die 21 besten Studenten des College angehörten. Obwohl Dean im nächsten Semester seine schauspielerische Ausbildung bei Jean Owen fortsetzte und bei ihr die Kurse Stimmbildung, Aussprache und Hörfunk belegte sowie für die Maifeier in einer Show namens "She Was Only a Farmer’s Daughter" auftrat, wollte er aber doch lieber die staatliche University of California in Los Angeles (UCLA) besuchen. Wechsel an die UCLA. Dean war trotz der Einschätzung seiner Schauspiellehrerin, die ihn für eine akademische Ausbildung noch nicht reif hielt, besessen davon, an die UCLA zu wechseln. Sie bot in seinen Augen weit mehr Möglichkeiten als sein jetziges College. Seine Noten waren so gut, dass er sofort zum Studium zugelassen wurde, das er im Wintersemester 1950 antrat. Um seinen Vater nicht zu kompromittieren, belegte er weiterhin Jura-Einführungskurse. Trotzdem zog sein Entschluss Auseinandersetzungen mit seinem Vater nach sich und Dean entschied sich, auf den Campus der UCLA zu ziehen. Als Mitglied der Studentenbruderschaft "Sigma Nu" zog er zu Beginn des Semesters in deren Verbandshaus ein. Trotz des offenbaren Bruchs mit seinem Vater belegte er als Hauptfach Jura und Theaterwissenschaft nur als Nebenfach. Das Geld für Studiengebühren, Miete und Verpflegung verdiente er sich mit Teilzeitjobs an der UCLA, unter anderem als Filmvorführer in Kursen, in denen audiovisuelle Medien eingesetzt wurden. Beim Vorsprechen für das Theaterstück "Macbeth" profitierte er von der Arbeit mit Jean Owen und ergatterte die Rolle des "Malcolm". Das Stück wurde in der mit 1.600 Sitzplätzen ausgestatteten Royce Hall der UCLA vom 29. November bis 2. Dezember viermal aufgeführt. Obwohl James Dean nur mäßige Kritiken erhielt, wurde die Filmagentin Isabelle Draesemer auf den jungen Schauspieler aufmerksam. Er bekam am 13. Dezember 1950 seine erste bezahlte Rolle in einem zweiminütigen Pepsi-Werbespot, in dem er Freunden auf einem Karussell Pepsi-Flaschen aus einer Truhe reichte. Für die einen Tag dauernden Dreharbeiten bekam er 25 US-Dollar und einen Imbiss. Dem Triumph folgte jedoch bald ein Rückschlag, als er von einem Mitglied seiner Verbindung wegen seines Engagements in "Macbeth" verspottet wurde. Es kam zu einer Schlägerei, für die James Dean als der Schuldige festgemacht wurde. Er musste das Verbindungshaus verlassen und so zog er mit seinem Mitstudenten Bill Bast in eine Wohnung in Santa Monica, ganz in der Nähe des Ortes, an dem er die Kindheit mit seinen Eltern verbracht hatte. In seinem neuen Zuhause malte Dean zahlreiche Ölbilder und setzte sich mit den Werken Henry Millers, Kenneth Patchens und Stanislawskis auseinander (letzterer entwickelte das nach ihm benannte "Stanislawski-System", welches das amerikanische "Method Acting" begründete). Zusammenarbeit mit James Whitmore und Studienabbruch. In den nächsten Monaten besuchte Dean Vorsprechtermine, die seine Agentin Isabell Draesemer für ihren Schützling organisierte. Zudem wurde er wie auch sein Mitbewohner Bill Bast Mitglied in James Whitmores Theater-Workshop. Whitmore war am Actors Studio in New York City ausgebildet worden, hatte am Broadway gespielt und wurde gerade für die beste Nebenrolle in dem Kriegsdrama "Kesselschlacht" für den Oscar nominiert. Obwohl er kein ausgebildeter Schauspiellehrer war, verpflichtete sich Whitmore, zehn begabten Schauspielschülern unbezahlten Unterricht zu geben. In jenen Tagen sprach Dean für das UCLA-Stück "The Dark of the Moon" vor, konnte aber in der wichtigsten Inszenierung des Semesters noch nicht einmal eine Nebenrolle ergattern. Aus Enttäuschung und auch, weil ihm die trockene akademische Ausbildung nicht behagte, brach er sein Studium an der UCLA ab und beschloss, sich ganz auf die Unterhaltungsbranche zu konzentrieren. Beinahe so, als müsse sie Deans Entscheidung rechtfertigen, vermittelte ihm seine Agentin eine Nebenrolle als "Johannes der Täufer" in dem religiösen Film "Hill Number One" von Jerry Fairbank, mit dem er bereits bei dem Pepsi-Werbespot zusammengearbeitet hatte. Die Rolle, für die er 150 US-Dollar Gage erhielt, verschaffte ihm seinen ersten Fanclub, den einige Schülerinnen der Immaculate Heart Catholic School in Los Angeles gründeten, als sie den Film am Ostersonntag gesehen hatten. Tatsächlich folgte er ihrer Einladung, hielt vor den Mädchen eine Rede und gab Autogramme. Beginn der Filmkarriere. Dean absolvierte in den nächsten Monaten weitere Vorsprechtermine, konnte aber nach "Hill Number One" in Hollywood zunächst keine Rolle erhalten und verfiel, wie Freunde später berichteten, in Depressionen. Er besuchte schließlich vor Ort zahlreiche Partys, um Kontakte zu knüpfen. Doch bei Vorsprechterminen wurde er wegen seiner Körpergröße von 173 Zentimetern (bei 65 Kilogramm Gewicht) immer wieder als zu klein abgewiesen. Sein Mitbewohner Bill Bast verschaffte ihm einen Job als Platzanweiser bei CBS, den er jedoch nach kurzer Zeit wieder aufgab. Er zog aus der mit seinem Schauspielkollegen geteilten Wohnung aus, nahm sich ein Zimmer im Gower Plaza Hotel und suchte sich einen Job als Parkwächter in der Nähe des CBS-Rundfunkstudios am Sunset Boulevard. Dort ergatterte er kleinere Rollen in den drei Rundfunksendungen Alias Jane Doe, "Hallmark Playhouse" und "Stars over Hollywood". 1951 spielte James Dean in seinem ersten Kinofilm, Samuel Fullers Koreakriegsdrama "Der letzte Angriff", eine Nebenrolle. So auch im Anschluss als Matrose in "Seemann, pass auf!", einer Komödie mit Jerry Lewis und Dean Martin in den Hauptrollen. Dann verkörperte er in der Komödie "Has Anybody Seen My Gal?" (beide 1952), in der Piper Laurie und Rock Hudson die Hauptrollen spielten, einen Jugendlichen. Es folgte eine weitere Statistenrolle in der Alan Young Show. Umzug nach New York. Im Winter 1951 nahm James Dean den Rat seines Schauspielmentors James Whitmore an, nach New York umzuziehen und eine seriöse Schauspielkarriere am Theater zu starten. Nach einem kurzen Abstecher zu seinen Verwandten in Fairmount mietete sich Dean in New York im Hotel Iroquois ein. Da ihn Geldsorgen plagten, nahm er sich aber bald ein Zimmer in einem Heim des Christlichen Vereins Junger Menschen (YMCA) und jobbte in einer Bar als Tellerwäscher. Im November 1951 bekam er einen Job in der Show "Beat the Clock". Er diente dort für fünf Dollar pro Stunde als eine Art Testkandidat und stimmte das Publikum auf die Show ein. Seine Agentin wurde Jane Deacy, von der damals spätere Berühmtheiten wie Martin Landau oder George C. Scott vertreten wurden. Durch sie bekam er eine Nebenrolle in dem Fernsehdrama "The Webb" sowie Statistenrollen in der Science-Fiction-Serie "Tale of Tomorrow" und in der "Studio-One"-Episode "Ten Thousand Horses Singing". Am 21. Mai 1952 trat Dean in "Prologue to Glory", einer Folge der Serie "Kraft Television", auf. Kurz darauf spielte er eine kleine, aber wichtige Rolle in einer Folge der Serie "Studio One", die von Abraham Lincoln handelte, und hatte einen Auftritt in "Forgotten Children", einer Episode der Serie "Hallmark Hall of Fame". Im Juli und August 1952 nahm er einen Job als Regieassistent bei NBC an. Aufnahme am Actors Studio. „"Ich habe große Fortschritte in meinem Beruf gemacht. Nach monatelangen Proben kann ich Euch zu meinem großen Stolz mitteilen, dass ich ein Mitglied des Actors Studio bin. Die beste Schule für das Theater. Sie beherbergt so berühmte Leute wie Marlon Brando, Julie Harris, Arthur Kennedy, Elia Kazan, Mildred Dunnock, Kevin McCarthy, Monty Clift, June Havoc und viele andere. Sehr wenige dürfen sie besuchen, und es ist absolut kostenlos. Es ist das Beste, was einem Schauspieler passieren kann. Ich gehöre zu den Jüngsten. Falls ich diesen Aufwärtstrend beibehalten kann und sich nichts in meine Fortschritte einmischt, könnte ich eines Tages fähig sein, etwas zur Welt beizutragen."“ Am Actors Studio besuchte James Dean die ersten Kurse, sah anderen Schauspielern bei ihren Szenen zu und freundete sich mit einigen Mitgliedern des Studios an, darunter Roddy McDowall, Lonny Chapman, Vivian Nathan und David Stewart. Die erste Szene, die Dean vorbereitete, stammte aus einer Passage aus dem Roman "Matador" von Barnaby Conrad; Dean hatte sie sich ausgesucht, weil er selbst den Stierkampf liebte. Der Monolog über einen Stierkämpfer, der sich auf seinen letzten Kampf vorbereitet, war aber in sich nicht stimmig, und Dean brach den Auftritt ab und musste heftige Kritik von Lee Strasberg einstecken, der den ausgewählten Text und Deans Schauspielleistung entsetzlich fand. Nach diesem Misserfolg kühlte Deans Leidenschaft für das Actors Studio merklich ab. Er besuchte es längere Zeit überhaupt nicht mehr, bis er eine Rolle in dem Theaterstück "The Scarecrow" bekam, die vom Actors-Studio-Mitglied Frank Corsaro am Theatre de Lys inszeniert wurde. Corsaro überredete Dean, wieder das Actors Studio zu besuchen, und er nahm daraufhin an mehreren Improvisationen Corsaros teil. In der Folgezeit befasste sich Dean mit Musik und Literatur und nahm Tanzstunden bei Eartha Kitt und Katherine Dunham. Er entwickelte eine starke Affinität zum Bongospiel und nahm Klavierunterricht bei dem Komponisten Leonard Rosenman. Er trampte kurze Zeit später mit zwei Freunden nach Fairmount zu Onkel und Tante, wo er auch seine alte Mentorin Adeline Brookshire wiedertraf, die ihn in ihrem Theaterkurs unterrichten ließ. Erster Broadway-Auftritt. In Fairmount, Indiana, erreichte Dean auch die Nachricht seiner Agentin, dass der Theaterregisseur Lemuel Ayers Schauspieler für sein Broadwaystück "See the Jaguar" suchte und sich nach James Dean erkundigt hatte. Zurück in New York, lernte Dean seinen Text auswendig. Das Stück von N. Richard Nash spielt auf dem Land im Süden der Vereinigten Staaten und erzählt die Geschichte eines 17-jährigen Jungen, der von seiner herrschsüchtigen und geistig verwirrten Mutter von der Außenwelt isoliert wird, indem er oft in einen Eiskeller gesperrt wird. Als seine Mutter stirbt, trifft Protagonist Wally Wilkins in der nächsten Stadt auf ein Paar, das einen Wanderzoo betreibt. Als Wally den Jaguar des Ehepaares versehentlich tötet, wird er in den Ausstellungskäfig gesperrt, neben dem das Schild "See the Jaguar" (deutsch: "Besichtigen Sie den Jaguar") prangt. Beim Vorsprechen konnte Dean als emotional verkrüppelter Wally überzeugen und bekam die Rolle. Die ersten Testaufführungen, in denen Dean auch das Lied "Green Briar, Blue Fire" singen musste, fanden am 12. November 1952 im Parsons Theatre von New Haven, Connecticut statt. Am 3. Dezember feierte "See the Jaguar" am Broadway Premiere. Während das Stück jedoch verrissen und nur vier Tage aufgeführt wurde, bekam James Dean seitens der Kritiker Lob zugesprochen. Durch die guten Kritiken als ernstzunehmender Schauspieler bestätigt, erhielt Dean Engagements für verschiedene Fernsehfilme. Am 8. Januar 1953 spielte er unter der Regie des damals noch unbekannten Sidney Lumet in "The Capture of Jesse James". Er agierte als "Bob Ford", der Mann, der Jesse James erschoss. Am 14. April spielte Dean im Fernseh-Film "No Room", der im Rahmen der Serie "Danger" ausgestrahlt wurde. Zwei Tage später war er in "The Case of the Sawed-off Shutgun" zu sehen, einer Episode der Serie "Treasury Man in Action". Im Mai 1953 spielte Dean eine kleine Rolle in dem Stück "End as a Man", bei dessen Inszenierung er im Actors Studio dreimal mitwirkte, bevor es mit einem anderen Darsteller Off-Broadway aufgeführt wurde. Er spielte außerdem in Edna St. Vincent Millays Stück "Aria da Capo" und dem Stück "The Sea Gull", für das Dean von Lee Strassberg gelobt wurde. Es folgten weitere Fernseh-Auftritte in den Serien "Tales of Tomorrow", "Campbell Playhouse", "Studio One Summer Theatre" und "Campbell Soundstage". Am 4. Oktober 1953 agierte Dean in "Glory in the Flower" neben Hume Crown und Jessica Tandy. Am 11. November 1953 spielte er seine erste Hauptrolle im Fernsehen in der Episode "A Long Time Till Dawn" aus der Serie "Kraft Television Theatre", in der er einen Verbrecher mimt, der versucht, auf den rechten Weg zu kommen. Kurze Zeit später folgte eine Rolle in "Harvest", der Thanksgiving-Folge von "Robert Montgomery Presents", in der er neben Ed Begley, Dorothy Gish und Vaughn Taylor spielte. Die vielen Fernseh-Rollen verliehen Dean sehr viel Sicherheit in seinem Spiel. Durchbruch am Broadway. Ende des Jahres 1953 wurden Ruth und Augustus Goetz damit beauftragt, André Gides autobiografischen Roman "Der Immoralist" für den Broadway zu adaptieren. Der Roman spielt in Frankreich um die Wende des 19. Jahrhunderts und erzählt die Geschichte des jungen Archäologen Michel, der seine Homosexualität verdrängt und eine Frau namens Marcelline ehelicht. Als das Paar die Flitterwochen im nordafrikanischen Biskra verbringt, wird Michel von dem Hausboy Bachir verführt. Bachir verhöhnt Michel, da er unfähig ist, mit seiner Frau zu schlafen. Als die Ehe nach zwei Monaten noch nicht vollzogen ist, betrinkt sich Michel, schwängert seine Frau, und beide kehren nach Frankreich zurück. James Dean sprach für die Rolle des Bachir vor und bekam sie. Geraldine Page spielte Marcelline, Louis Jourdan den Part von Michel. Die Proben, die am 18. Dezember 1953 im Ziegfeld Theatre begannen, wurden durch einen Konflikt von Jourdan und Dean beherrscht. Beide waren unterschiedlich ausgebildete Schauspieler, Jourdan klassisch, Dean agierte spontan und unvorhersehbar in seiner Rolle als Bachir und spielte ihn kokett und überdreht. Nachdem Dean über Weihnachten seine Verwandten in Fairmount besucht hatte, fanden Testaufführungen von "The Immoralist" in Philadelphia statt. Der Konflikt spitze sich noch zu, und der bisherige Regisseur Herman Shumlin, mit dem sich Dean sehr gut verstand, wurde durch Daniel Mann ersetzt, den Dean nicht ausstehen konnte. Man erwog, Dean durch einen anderen Schauspieler zu ersetzen, doch die Zeit bis zur ersten Aufführung in New York war zu kurz, und Hauptdarstellerin Geraldine Page setzte sich kategorisch für James Dean ein. So fanden die Voraufführungen ab dem 1. Februar 1954 in New York statt, und als das Stück an Deans 23. Geburtstag, dem 8. Februar, im Royal Theatre am Broadway seine Premiere feierte, hatte er vollends die Figur des Bachir verinnerlicht. Die Kritiken waren überwältigt von Deans Spiel, vor allem von einer Sequenz, die als Scherentanz in die Theatergeschichte einging. In dieser Szene tanzte James Dean in einem weiten Abendmantel über die Bühne, in der Hand eine Schere, die er auf- und zuschnappen ließ und so symbolisch die Figur des Michel aus seinem bisherigen Leben herausschnitt und in das von Bachir zog. Filmkarriere in Hollywood. Unmittelbar nach den fabelhaften Kritiken für das Broadwaystück "The Immoralist" gab James Dean den Part von Bachir auf. Seine Kündigung trat zwei Wochen später in Kraft. Dean hatte von Regisseur Elia Kazan eine Hauptrolle in seinem neuesten Film "Jenseits von Eden" angeboten bekommen. Er kannte Dean von seiner Zeit am Actors Studio und hatte ihn in "The Immoralist" gesehen. „"James Dean sah genauso aus wie Cal Trask in 'Jenseits von Eden', und er sprach auch so. Als er das New Yorker Büro der Warner Bros. betrat, wusste ich sofort, dass ich den richtigen Mann für die Rolle gefunden hatte. Er war vorsichtig, störrisch und misstrauisch und schien voller unterdrückter Gefühle."“, so Kazan. Zwar hatte das Filmstudio Warner Brothers seinem Regisseur noch keine Genehmigung für die Dreharbeiten gegeben, doch Dean war selbstverständlich angetan von der Idee, die Hauptrolle in einem Hollywood-Streifen zu übernehmen, und er absolvierte am 17. Februar 1954 seinen Part als Hyllos in dem Sophokles-Stück "Die Trachinierinnen" an der Seite von Anne Jackson und Eli Wallach an der New School for Social Research in Manhattan, sowie am 23. Februar seinen letzten Auftritt in "The Immoralist". Am 8. März 1954 flog James Dean gemeinsam mit Elia Kazan von New York nach Los Angeles. Zwei Tage zuvor war offiziell bekanntgegeben worden, dass Dean die Hauptrolle in Kazans neuestem Film erhalten würde. Kazan war zu dieser Zeit der gefragteste Regisseur im Theater- und Filmgeschäft und hatte 1948 den Oscar als bester Regisseur für "Tabu der Gerechten" erhalten. Dean führte die Habseligkeiten, die er benötigte, in zwei verschnürten Papiertüten mit sich. In Los Angeles angekommen, besuchte James Dean gemeinsam mit Elia Kazan seinen Vater an seiner Arbeitsstelle im Krankenhaus. Kazan schrieb später: „"Die starke Spannung zwischen den beiden war offensichtlich, und es war keine produktive Spannung. Ich hatte das Gefühl, dass der Vater den Sohn nicht mochte."“ Genau dieses Leitmotiv durchzog auch Elia Kazans geplantes Drama "Jenseits von Eden". Die Verfilmung basiert auf dem gleichnamigen Roman von John Steinbeck, mit dem Kazan befreundet war. Beide hatten gemeinsam an dem Originaldrehbuch zu "Viva Zapata" (1952) gearbeitet. "Jenseits von Eden" spielt in Salinas, Kalifornien, um die Zeit des Ersten Weltkrieges. Der Titel der Romanvorlage geht auf ein Zitat aus dem Alten Testament zurück. Der Film handelt von den beiden Zwillingsbrüdern Cal und Aron, die von ihrem puritanischen Vater Adam Trask streng nach der Bibel erzogen werden. Während Aron, brav und folgsam, in der Gunst des Vaters steht, gibt sich Cal grüblerisch und schwierig. Als der Vater bei einer Spekulation fast sein gesamtes Vermögen verliert, hofft Cal vergeblich, seine Liebe und Anerkennung mit einem großzügigen Geldgeschenk zu gewinnen, doch er wird wie schon oft in seinem Leben vom Vater zurückgestoßen. Aus Rache eröffnet Cal seinem Bruder Aron die Wahrheit über die totgeglaubte Mutter, die ein gutgehendes Bordell in der Stadt betreibt. Aron bricht zusammen, betrinkt sich und meldet sich freiwillig für den Kriegsdienst. Die Nachricht über Arons Schicksal ist für den Vater zu viel, und er bricht mit einem Schlaganfall zusammen. Das Drehbuch von Paul Osborn basiert nur auf den letzten beiden Kapiteln von Steinbecks Roman. Um im Film wie ein gesunder Bauernjunge zu wirken und nicht wie ein blasser Stadtmensch, riet Kazan seinem Hauptdarsteller, sich eine Woche lang etwas Bräune in der Wüste zu holen, was Dean auch tat. Für "Jenseits von Eden" erhielt James Dean tausend Dollar in der Woche; er unterschrieb am 7. April 1954 seinen Vertrag mit dem Filmunternehmen Warner Brothers. Vertreten wurde er von Dick Clayton, der Deans Interessen an der Westküste wahrnehmen sollte, wie seine Agentin in New York ihm geraten hatte. Von dem Geld kaufte er sich seinen ersten Rennwagen, einen roten MG, Baujahr 1954. Zum Schauspielensemble stieß später Richard Davalos hinzu, der Paul Newman die Rolle des Aron wegschnappte. Die weibliche Hauptrolle der Abra, die zwischen den beiden Brüdern steht, wurde mit Julie Harris besetzt. Sie hatte sich beim Casting unter anderem gegen Joanne Woodward durchgesetzt, die spätere Ehefrau von Paul Newman. In die Rolle des strengen Vaters schlüpfte Raymond Massey. Die Dreharbeiten begannen am 22. Mai 1954 in Mendocino, Monterey. Die Filmcrew war fünf Kilometer entfernt in einer Herberge des Dorfes Little River untergebracht. Zu Beginn der Dreharbeiten kam es zu einem Zwischenfall, als James Dean mit der giftigen Pflanze Giftsumach in Berührung kam und an einer Hautentzündung laborierte. Er wurde von der Wirtin der Herberge gesundgepflegt. Die Dreharbeiten zu "Jenseits von Eden" gestalteten sich schwierig, da Dean, während die Produktion auf das Studiogelände der Warner Brothers in Burbank verlegt wurde, nicht auf Besuche der Partyszene Hollywoods verzichten wollte. Elia Kazan quartierte James Dean daraufhin in einen Bungalow direkt gegenüber von seinem eigenen auf dem Studiogelände der Warner Brothers ein, damit er ein Auge auf seinen Hauptdarsteller haben konnte, wie er 1988 in seiner Autobiografie "A Life" bekannte. Dean manipulierte außerdem seinen Filmvater Raymond Massey abseits der Filmkamera, indem er ihn immer wieder provozierte, damit Massey seinen Zorn gegenüber Dean nicht nur spielte und so in seiner Rolle noch überzeugender wirkte. Massey störte sich außerdem am Improvisationstalent Deans, der die Texte aus dem Drehbuch häufig nicht auswendig konnte. Obwohl Elia Kazan mit dem Gedanken gespielt hatte, Marlon Brando (für den James Dean schwärmte) und Montgomery Clift als ungleiche Brüder zu besetzen, war John Steinbeck, mit dem Kazan während der Dreharbeiten regelmäßig korrespondierte, angetan von James Dean in der Hauptrolle, und der Film war am 9. August 1954, nach zehnwöchiger Drehzeit im Kasten. Aufbau zur Kultfigur. In dieser Zeit wurde James Dean von Warner Brothers zur männlichen Kultfigur stilisiert, um den finanziellen Erfolg des Films zu sichern. Dean wurde mit der attraktiven Schauspielerin Pier Angeli zusammengebracht, die ebenso wie Dean gerade zum Hollywoodstar aufgebaut wurde und zu diesem Zeitpunkt den Film "Der silberne Kelch" mit Paul Newman abgedreht hatte. Die Kampagne war erfolgreich, und Dean und Angeli wurden von den Gazetten bald als Traumpaar Hollywoods gehandelt. Tatsächlich kamen sich beide auch privat näher. Nach den Dreharbeiten flog James Dean wieder nach New York, wo er in einer Episode der Serie "Philco Television Playhouse" spielte. Als er zwei Wochen später nach Los Angeles zurückkehrte, zerbrach langsam die Beziehung zu Pier Angeli, deren Mutter den Umgang mit James Dean nicht tolerierte. Dean zeigte sich weiterhin in der Öffentlichkeit mit attraktiven Starlets, darunter Ursula Andress und Terry Moore. Dean und Angeli traten zum letzten Mal gemeinsam als Paar bei der Premiere zu dem Film "Ein neuer Stern am Himmel" auf. Pier Angeli heiratete am 24. November 1954 den Popsänger Vic Damone. Während "Jenseits von Eden" sich noch im Schnitt befand, weigerte sich das Filmstudio Warner Brothers, James Dean für die MGM-Produktion "Die Verlorenen" auszuleihen. Dean nahm zwischenzeitlich wieder mehrere Fernsehrollen an, darunter im Film "Padlocks", einer Episode des CBS-Programms "Danger" mit Mildred Dunnock und der Episode "I’m a Fool" des "General Electric Theatre", in der er an der Seite von Natalie Wood einen armen Bauernjungen spielt, der vorgibt, reich zu sein. Nebenbei nahm Dean Schauspielunterricht bei Jeff Corey. Am 12. Dezember 1954 war Dean noch einmal im Fernsehen in einer Episode der Serie "General Electric Theatre" zu sehen, bevor er das Weihnachtsfest bei seinem Onkel und seiner Tante in Fairmount und einigen Freunden in New York verbrachte. James Dean hatte trotz einer gemieteten Wohnung in den Hügeln von West Hollywood seine alte Wohnung in New York nicht aufgegeben. Währenddessen wurde der Kinostart von "Jenseits von Eden" auf den Mai 1955 festgelegt. Am 29. Dezember wurde James Dean von dem befreundeten Fotografen Roy Schatt für "Life", die damals größte Illustrierte der Vereinigten Staaten, fotografiert. Die Bilder, auf denen Dean unrasiert in einem Pullover posiert, wurden jedoch von "Life" als zu frech bewertet und nicht veröffentlicht. Nachdem Dean in "The Thief" aus der Serie "The U.S. Steel Hour" mitwirkte, wurde er zurück nach Los Angeles gerufen. Während die Werbemaschinerie für "Jenseits von Eden" lief und Dean mehrfach in Zeitschriften Erwähnung als kommender Star des Jahres fand, wurde er vom Fotografen Dennis Stock begleitet, der eine Bildreportage mit dem zukünftigen Star wieder für die Illustrierte "Life" plante. Stock begleitete Dean zwei Wochen lang in Los Angeles; in der ersten Februarwoche 1955 reisten sie auf die Farm von Deans Verwandten nach Fairmount. Dennis Stock nahm James Dean an verschiedenen Schauplätzen seines bisherigen Lebens auf – auf der Farm, wo er aufgewachsen war, in der Stadt oder auf der Bühne seiner High School, wo er auch den Valentinstag als Ehrengast verbrachte und an den Congas der George Columbus Combo spielte. Allgemeine Misstöne gab es, als Dean sich im Beerdigungsinstitut "Hunt’s" in einem Sarg fotografieren ließ. Danach reiste Dean mit dem Fotografen nach New York, wo er unter anderem auf dem Times Square, in seiner Wohnung und hinter der Bühne mit Geraldine Page abgelichtet wurde. Dean gab außerdem Howard Thompson von der New York Times ein Interview in der Wohnung seiner Agentin. Die Bilder von Dennis Stock wurden am 7. Mai 1955 von "Life" veröffentlicht. Am 9. März 1955 erfolgte die Premiere von "Jenseits von Eden", der Dean allerdings nicht beiwohnte. Er feierte den Erfolg, indem er seinen ersten Porsche kaufte, einen Porsche 356 1600 Speedster (Fahrgestellnr. 82621), mit dem er am 26. März 1955 an den zweitägigen Straßenrennen von Palm Springs Kalifornien, teilnahm. Dean gewann mit seinem Porsche das Qualifikationsrennen und trat im Finale gegen Veteranen wie Ken Miles oder Cy Yedor an, die beide MG Specials fuhren. James Dean beendete das Rennen als Dritter, wurde aber später auf Platz zwei gesetzt, nachdem Miles wegen einer technischen Einzelheit an seinem Wagen disqualifiziert wurde. Zusammenarbeit mit Nicholas Ray. Im selben Monat begannen die Dreharbeiten zu "… denn sie wissen nicht, was sie tun", nachdem Dean kurz zuvor eine Hauptrolle in George Stevens "Giganten" erhalten hatte, die Dreharbeiten jedoch wegen Terminschwierigkeiten mit dem Co-Star Elizabeth Taylor verschoben wurden. In Nicholas Rays Film spielt Dean erneut einen Außenseiter, Jim Stark, einen Jugendlichen, der nach seinen Umzug in der neuen Stadt auf der Suche nach Anerkennung ist. Er liefert sich Messerkämpfe und Autorennen mit einer Jugendgang und findet bei der naiven Judy und dem introvertierten Einzelgänger Plato, der heimlich Gefühle für Jim empfindet, eine Ersatzfamilie. Der Film basiert auf einer gleichnamigen soziologischen Studie, die Robert M. Lindner erstellte. Das Studio erwarb wegen des verlockend klingenden Titels ("Rebel Without a Cause") eine Option auf Lindners Werk, wusste aber nichts damit anzufangen. Lindner schrieb später eine Kurzgeschichte über Jugendgangs, die auch gekauft und für die Leinwand adaptiert wurde. Acht Jahre nach dem Verkauf der Rechte an das Filmstudio entdeckte Ray ihr Potential sowie in James Dean die perfekte Projektionsfläche der jugendlichen Bedürfnisse, und die Dreharbeiten begannen am 28. März 1955. Dean, der während der Dreharbeiten an Malaria erkrankte, bekam den Messerkampf von Frank Mazzola beigebracht, einem Bandenmitglied, der im Film eine Nebenrolle als "Crunch" bekleidete. Dean improvisierte die Anfangsszene, in der er seine Aufmerksamkeit einem gefundenen Spielzeugaffen widmet, und brach sich seinen Knöchel bei einer Szene auf der Polizeistation, als er mit der Hand gegen einen Schreibtisch schlug. Die rote Jacke, die James Dean im Film trägt und die als Symbol für die Auflehnung steht, wurde für Dean vom Regisseur und Kostümdesigner Moss Mabry ausgewählt, nachdem vier Tage nach Drehbeginn entschieden wurde, "… denn sie wissen nicht, was sie tun" in Farbe zu drehen, um den Film aufzuwerten. Zuvor war überlegt worden, den Hauptdarsteller mit Brillengläsern und einer braunen Jacke zu versehen, um ihn eher dümmlich als heroisch wirken zu lassen. Das Klima am Set war geprägt von der Harmonie zwischen Hauptdarsteller und Regisseur, wobei Regisseur Ray James Dean in seiner schauspielerischen Interpretation viele Freiheiten ließ. Dies tat er, da er früh erkannte, dass sich nur so Deans ganzes Talent an den Tag legen lassen könnte. Dean äußerte den Wunsch, selbst einmal Regie zu führen und sein Lieblingsbuch, Antoine de Saint-Exupérys "Der kleine Prinz", zu verfilmen. Während der zweimonatigen Dreharbeiten zu "… denn sie wissen nicht, was sie tun" nahm James Dean am 1. Mai 1955 in Bakersfield, Kalifornien, erneut an einem Autorennen teil. In Bakersfield wurde er wieder Dritter, hinter Marion Playan in einem MG Special und John Kunstle in einem Panhard Devin, gewann jedoch in der 1300– bis 2000-cm³-Klasse. Vor den Dreharbeiten zu "Giganten" nahm er vom 28. bis 29. Mai 1955 an seinem dritten Rennen teil. Beim Santa Barbara Road Race lag er auf Platz vier, bevor an seinem Porsche ein Motorkolben brach. Arbeit an "Giganten". In seinem letzten Film "Giganten" spielte James Dean an der Seite von Rock Hudson und Elizabeth Taylor. Die Dreharbeiten, die für James Dean am 3. Juni 1955 im texanischen Marfa begannen, wurden beherrscht von einer Rivalität der beiden Hauptdarsteller, die jedoch die Authentizität ihrer Rollen erhöhte. "Giganten" basiert auf dem gleichnamigen erfolgreichen Roman von Edna Ferber und schildert die Beziehung zwischen dem Rinderbaron Bick Benedict und seiner Frau Leslie (gespielt von Rock Hudson und Elizabeth Taylor) und dem einfachen Farmarbeiter Jett Rink (James Dean) in einem Zeitraum von über vierzig Jahren. Als Rink auf seinem eigenen Stück Land Öl findet, wird er zum mächtigsten Konkurrenten seines früheren Arbeitgebers. Doch der Reichtum beginnt auch Rinks Leben umzukrempeln, und er wird zum einsamen Alkoholiker. Die Filmfigur Deans basiert auf dem Leben des texanischen Ölmillionärs Glenn McCarthy (1908–1988), der ein irischer Einwanderer war und 1949 in Houston, Texas, unter anderem das Shamrock Hotel errichtete. In "Giganten" „alterte“ James Dean von 19 auf 46 Jahre, eine Herausforderung für die damaligen Make-up-Künstler. Ebenfalls spannungsgeladen war für Dean das Verhältnis zu Regisseur George Stevens, der ihm die Rolle des Jett Rink nach der Absage seines Wunschkandidaten Alan Ladd zusagte. Stevens empfand eine Abneigung gegenüber Schauspielern, die versuchten, während der Szenen zu experimentieren, außerdem war der Regisseur in Hollywood für seinen Perfektionismus bekannt. Stevens liebte es, jede Szene aus vielen Perspektiven zu drehen, so dass zahllose Aufnahmen dafür notwendig waren. Von James Dean wurde Stevens’ Technik lapidar als "Around-the-clock"-Methode betitelt. Dean wurde Stevens’ Ansprüchen in der ersten Woche kaum gerecht, und der Regisseur stauchte seinen Hauptdarsteller vor der gesamten Filmmannschaft zusammen. Dean suchte trotzig Trost bei seinen weiblichen Co-Stars Elizabeth Taylor und Mercedes McCambridge. Taylor schenkte ihm später gegen Ende der Dreharbeiten ein Kätzchen, das auf den Namen Marcus getauft wurde. Viel Zeit beim Dreh, der sich in die Länge zog, verbrachte Dean mit dem Dialogtrainer Bob Hinkle. Hinkle brachte James Dean Lasso-Tricks bei, und beide gingen während des fünfwöchigen Drehs nachts auf Kaninchenjagd. Gegen Ende der Dreharbeiten hatten sie 261 Kaninchen und zwei Kojoten erschossen. Der Konflikt zwischen James Dean und Regisseur George Stevens erreichte am 23. Juli seinen Höhepunkt, als die Dreharbeiten nach Los Angeles verlegt worden waren. Dean erschien nicht am Set; er hatte an dem Tag auch keine Szene zu drehen. Stevens ließ Dean durch seine Assistenten aufspüren – er hatte sich einen Tag freigenommen, um in ein gerade gemietetes Haus im San Fernando Valley einzuziehen. George Stevens war so wütend, dass er verkündete, nie wieder mit James Dean zu arbeiten. Er ließ ein Schreiben an Warner Brothers aufsetzen, das alle Punkte enthielt, in welcher Weise Dean die Dreharbeiten behindert habe. Dean kommentierte die Probleme während des Drehs mit Erschöpfung, da die Arbeit zu "… denn sie wissen nicht, was sie tun" und "Giganten" deutlich länger gedauert und er zwischen den beiden Produktionen nur drei Tage Pause gehabt hatte. Schon vor den Dreharbeiten zu "Giganten" war James Dean erschöpft gewesen und von einem Arzt auf eine Eiweißdiät gesetzt worden. Nach dem erfolgreichen Start von "Jenseits von Eden" und den Produktionen "… denn sie wissen nicht, was sie tun" und "Giganten" verhandelte James Deans Agentin Jane Deacy einen neuen Vertrag für ihren Schützling aus. Die bisherigen 1500 US-Dollar pro Drehwoche sollten drastisch erhöht und wenn möglich an die Spitzengagen von Rock Hudson oder Elizabeth Taylor, die zu diesen Zeitpunkt 100.000 US-Dollar pro Film bekamen, angeglichen werden. Dafür werde sich James Dean verpflichten, in den folgenden sechs Jahren in neun Warner-Brothers-Filmen zu spielen. Darüber hinaus verlangte Dean, eine eigene Produktionsgesellschaft für Film- und Fernsehprojekte zu gründen, die unter dem Dach der Warner Brothers operieren sollte. Der Vertrag sollte in der ersten Oktoberwoche 1955 perfekt gemacht werden. Dean würde, wenn Warner Brothers mit dem Vertrag einverstanden wäre, den nächsten Film in Angriff nehmen. Zuvor musste er aber noch den Film "Die Hölle ist in mir" abdrehen, eine von der MGM geplante Filmbiographie über den Boxer Rocky Graziano, sowie zwei Fernsehfilme. MGM hatte für "Giganten" ihren Star Elizabeth Taylor an die Warner Brothers ausgeliehen, weshalb James Dean als Gegenleistung in einem Film der Metro-Goldwyn-Mayer auftreten sollte. Inzwischen waren die Dreharbeiten zu "Giganten", die 5,4 Millionen US-Dollar und 115 Drehtage verschlangen, beendet worden. Für "Jenseits von Eden" hatte Dean 10.000 Dollar, für "… denn sie wissen nicht, was sie tun" 15.000 und für "Giganten" 20.000 US-Dollar (andere Quellen behaupten, es seien 21.000 US-Dollar) erhalten. Früher Tod. Dean nahm am 17. September 1955, zwei Wochen vor seinem Tod, auf dem Filmset von "Giganten" für die National Safety Council einen Fernsehspot zum Thema Verkehrssicherheit auf. In seinem Cowboy-Outfit gab er Schauspieler Gig Young lässig mit Zigarette im Mund Antworten. Als Dean gefragt wurde, was er von Leuten hielt, die auf dem Highway rasen, antwortete er: "„Früher bin ich auch ganz schön gerast und habe unnötig viel riskiert. Aber seit ich Rennen fahre, bin ich auf der Straße besonders vorsichtig geworden. Die Leute haben ja oft gar keine Ahnung, was für einen gefährlichen Mist sie bauen. Man weiß nie, was so ein Typ auf der Straße als nächstes tut. Auf dem Rennplatz gibt es viele Leute, die über neue Regeln und Sicherheitsmaßnahmen nachdenken. Ich bin in letzter Zeit sehr vorsichtig im Straßenverkehr. Ich habe überhaupt keine Lust mehr, zu rasen. Es heißt, dass man als Rennfahrer gefährlich lebt, aber ich fordere lieber auf der Rennbahn das Glück heraus als auf dem Highway.“" Seine Abschiedsworte in dem Werbespot waren: "„Fahrt vorsichtig! Vielleicht bin ich es, dem ihr damit eines Tages das Leben rettet.“" Ebenfalls im September 1955 kaufte sich James Dean seinen zweiten Rennwagen, einen silberfarbenen Porsche 550 Spyder. Auf die Fronthaube des Wagens war die Nummer 130 lackiert, während auf dem Heck sein Spitzname "Little Bastard" stand, den ihm sein Dialogcoach Bill Hickman am Set von "Giganten" verpasst hatte. Von diesem Wagen waren 1955 insgesamt nur 90 Stück gebaut worden. 78 waren zum Verkauf ausgeschrieben und der Besitzer des Autohauses Competition Motors in Hollywood, John von Neumann, hatte fünf davon in die Vereinigten Staaten importieren lassen. Für den Porsche 550 Spyder hatte Dean seinen alten 356 Super Speedster in Zahlung gegeben und 3000 US-Dollar dazubezahlt. Mit dem Wagen wollte er am 1. Oktober 1955 an einem Autorennen in Salinas in Kalifornien teilnehmen. Bei dem erforderlichen Check wurde Dean ein hervorragender Gesundheitszustand attestiert und der medizinische Bericht an die Sport Car Club of America (SCCA) weitergeleitet. Tage zuvor hatte Dean mit dem Wagen einen leichten Unfall am Sunset Boulevard gehabt, so dass der Porsche vor dem Rennen noch repariert werden musste. In diesen Tagen besuchte er noch einmal seinen Vater, bei dem Marcus und Ortense Winslow zu Besuch waren. Einer der Letzten, mit denen er am 30. September 1955 gesprochen hat, war der mit ihm befreundete motorsportbegeisterte Multimillionär Lance Reventlow, den er auf dem Weg nach Salinas traf. Ursula Andress erinnert sich an diesen Tag: „"Morgens um sieben Uhr holte er mich zu Hause ab. Jimmy sagte: ‚Komm, wir fahren zusammen Richtung San Francisco.‘" In diesem Moment sei John Derek, ihr späterer Ehemann, gekommen. „James sah John und wusste, dass ich John Derek liebte. Er sagte ‚Okay, John, let’s take a drive‘ und raste mit John durchs Wohnviertel, um ein Gespräch unter Männern zu führen. Als er zurückkam, sagte er zu mir: ‚Ich weiß, dass du nicht mit mir kommst.‘ Und dann ging er weg."“ Ein paar Stunden später befand sich Dean in der Abenddämmerung zusammen mit seinem Mechaniker Rolf Wütherich auf einem Highway nördlich von Los Angeles in der Nähe von Cholame. Ihnen folgten in einigem Abstand der mit ihm befreundete Bill Hickman und der Fotograf Sandy Roth, der für das Magazin "Collier's" eine Fotoreportage über Dean abliefern sollte. Kreuzung der State Routes 41 und 46 bei Cholame, heute als James Dean Memorial Junction bezeichnet An der Kreuzung der California State Route 41 mit der California State Route 46 () bei Cholame kam Dean und seinem Beifahrer Wütherich ein Ford entgegen. Dessen Fahrer Donald Turnupseed bog nach mehrmaligem Beschleunigen und Abbremsen mit seinem Wagen unvermittelt nach links ab und nahm Dean die Vorfahrt (er habe Deans Porsche nach eigener Aussage nicht kommen sehen). Dean hatte die Scheinwerfer trotz Abenddämmerung nicht eingeschaltet und keine Zeit, auszuweichen und fuhr ungebremst in den Ford. Wütherich wurde aus dem Fahrzeug geschleudert, der Porsche blieb in der Straßenböschung liegen. Beide Männer wurden in ein nahes Krankenhaus eingeliefert, bei Dean konnte dort nur noch der Tod festgestellt werden. Der 23-jährige Turnupseed hatte einen Schock erlitten und der Deutsche Wütherich Kiefer und Beine gebrochen. Die Failure Analysis Associates (heute Exponent) in Menlo Park, Kalifornien, stellte den Unfall 35 Jahre später in allen Einzelheiten noch einmal an einem 30. September nach. Sie kamen zu dem Ergebnis, dass die Geschwindigkeit von Deans Fahrzeug zum Unfallzeitpunkt 55 bis 60 Meilen (etwa 88 bis 96 Kilometer) pro Stunde betragen haben musste. Damit widersprachen sie dem Polizeibericht, wonach Dean mit stark überhöhter Geschwindigkeit unterwegs gewesen sei. Wahrscheinlicher war demnach, dass Turnupseed den Unfall durch sein ungewöhnliches Verhalten verschuldet haben könnte. Der damals zuständige Amtsrichter sprach ihn allerdings frei. Einen Tag nach Deans Tod wurde sein Leichnam per Flugzeug nach Indianapolis überführt und am 9. Oktober auf dem Park Cemetery in Fairmount begraben. James Deans Nachlass belief sich auf 105.000 US-Dollar. Der Großteil der Summe stammte aus einer Lebensversicherung, die Dean kurz vor seinem Unfall abgeschlossen hatte. Als Erbe wurde sein Vater Winton Dean gerichtlich festgesetzt. Legendenbildung. Innerhalb weniger Wochen nach der postumen Uraufführung von "… denn sie wissen nicht, was sie tun" entstand ein regelrechter Kult um James Dean. Einige Teenager folgten Dean sogar durch Selbstmord in den Tod. Weiterhin kamen auch noch nach seinem Tod etliche Briefe für ihn bei Warner Brothers und bei den Zeitungen an. Bühnenstücke, Filme und etliche Bücher beschäftigten sich mit dem Phänomen James Dean. Seine Rolle in "Der Immoralist" trug dazu bei, dass Gerüchte um Deans sexuelle Orientierung aufkamen. Weit bedeutender war jedoch sein Symbolcharakter als jugendlicher Rebell, der ihn im konservativen Amerika der 1950er- und 1960er-Jahre vor allem bei der Jugend zur populären Symbolfigur der Auflehnung gegen etablierte Strukturen machte. Elizabeth Taylor berichtete später in einem Interview, James Dean habe ihr während gemeinsamer Dreharbeiten anvertraut, dass er in seiner Kindheit als Elfjähriger nach dem Tod seiner Mutter von einem Geistlichen sexuell belästigt worden sei. Diese Erfahrung habe ihn sein Leben lang verfolgt. Reverenzen an Dean. Mehrere Musiker ließen sich durch Dean inspirieren und verfassten musikalische Werke und Beiträge über ihn und sein Leben. So erschien 1963 auf dem Beach-Boys-Album "Little Deuce Coupe" der Titel "A Young Man Is Gone", in dem Leben und Tod von Dean besungen werden. Phil Ochs sang 1970 über Dean in seinem Lied "Jim Dean of Indiana". Auch im Song "American Pie" von Don McLean wird in einer Textezeile auf Dean Bezug genommen; ebenso in dem Lied "Sie ist 40" von Udo Lindenberg. Der Trompeter Chet Baker wurde als der „James Dean des Jazz“ bezeichnet. Die Deutschpunkband Abwärts nahm 1991 einen Song mit dem Titel "Die Stimme von James Dean" auf. Das Album Ballonherz des deutschen Rappers Olson enthält ebenfalls einen Song mit dem Titel "James Dean". Dean wird auch im Lied "Rockstar" von Nickelback, in "New Americana" von Halsey, in "Style" von Taylor Swift, in "Blue Jeans" von Lana Del Rey, in "We Didn't Start the Fire" von Billy Joel und in "Ghost Town" von Adam Lambert erwähnt. Seit 1956 sind auch diverse Spiel- und Dokumentarfilme über Dean gedreht worden. Auszeichnungen. Étoile de Cristal Bravo Otto Johannes Heinrich Schultz. Johannes Heinrich Schultz (* 20. Juni 1884 in Göttingen; † 19. September 1970 in Berlin), meist kurz J. H. Schultz genannt (und oft "I. H. Schultz" gesprochen), war ein deutscher Psychiater und schulenunabhängiger Psychotherapeut. Weltberühmt wurde Schultz durch die Entwicklung des Autogenen Trainings. Leben. Der Sohn eines Theologen studierte Medizin in Lausanne, Göttingen (wo er Karl Jaspers kennenlernte) und Breslau. 1907 promovierte er in Göttingen. 1908 nach seiner Approbation war er dort zunächst in der Poliklinik der Medizinischen Universitätsklinik tätig, ab 1911 in der Universitätshautklinik in Breslau, im Paul-Ehrlich Institut, Frankfurt/M., in der Nervenheilanstalt Chemnitz und schließlich in der Psychiatrischen Universitätsklinik in Jena unter Otto Binswanger, bei dem er sich 1915 habilitieren konnte. Ein erster Versuch 1912 war an Protesten jüdischer Patienten wegen seiner antisemitischen Äußerungen gescheitert - diese Behauptung lässt sich aber ggw. nicht weiter überprüfen, Schultz selbst stellt es in seiner Autobiographie als Intrige dar. Im Ersten Weltkrieg war er in Marienburg/Westpreußen, Rudczanny und Allenstein (hier Kontakt zu Karl Abraham)tätig und leitete 1916-18 das "Kaiserliche Militärgenesungsheim Malonne" bei Namur in Belgien; 1919 wurde er a.o. Prof. für "Psychiatrie und Nervenheilkunde" in Jena, ab 1920 Chefarzt und wissenschaftlicher Leiter von Heinrich Lahmanns Sanatorium "Weißer Hirsch" bei Dresden. 1924 ließ er sich als Nervenarzt in Berlin nieder. 1925/26 war er Mitglied des Gründungskomitees für den ersten "Allgemeinen Ärztlichen Kongress für Psychotherapie", Vorstandsmitglied der am 1. Dezember 1927 gegründeten "Allgemeinen Ärztlichen Gesellschaft für Psychotherapie", ab 1928 Fachbeirat ihrer Verbandszeitschrift sowie ab 1930 mit Arthur Kronfeld (und Rudolf Allers in Wien für den Referatenteil) Schriftleiter des nun "Zentralblatt für Psychotherapie" genannten Verbandsorgans, 1933 Vorstandsmitglied der DAÄGP unter Matthias Heinrich Göring, dem Vetter des Reichsmarschalls. 1936-45 war er stellvertrendener Direktor des "Deutsche Institut für psychologische Forschung und Psychotherapie", leitete die dortige Poliklinik und war zuständig für die psychotherapeutische Ärzteausbildung. Zu den Geldgebern des "Deutsche Institut für psychologische Forschung und Psychotherapie"gehörte die Reichsluftwaffe, die Deutsche Arbeitsfront (DAF) und ab 1943 der Reichsforschungsrat. Schultz war in viele dieser Arbeitsgebiete involviert, worauf seine zahlreichen Publikationen aus dieser Zeit verweisen. Schultz durfte kein Mitglied der NSDAP sein, da er in erster Ehe mit einer Jüdin verheiratet gewesen war, trat aber 1933 dem NSKK bei, das 1935 in der SA aufging. Er war Anwärter im NS-Ärztebund. Schultz propagierte 1940 die „Vernichtung“ behinderter Menschen („Euthanasie“). Auch fällte er durch seine Diagnosen „Todesurteile“ gegen Hysterikerinnen. Er befürwortete ferner die Erlaubnis der Ehescheidung von "einer solchen Bestie". Schultz war im Rahmen seiner Tätigkeit am Göring-Institut direkt an der Verfolgung homosexueller Männer beteiligt (siehe auch Homosexualität in der Zeit des Nationalsozialismus). Schultz war der Meinung, es gebe erbliche und heilbare Homosexualität. An dem Institut wurde einerseits versucht, Homosexuelle zu „heilen“, andererseits leitete Schultz eine Kommission die leitete er nicht, es gibt bisher nur einen Hinweis von ihm, dass er mit einem Patienten gearbeitet hat, der dann dieser Prozedur unterzogen wurde --> Nach 1945 traf er sich weiter mit Werner Heyde, einem versteckt lebenden führenden Gutachter in der T4-Aktion. Schultz arbeitete als Nervenarzt in Berlin. 1956 war er Herausgeber der Zeitschrift "Psychotherapie" und Ehrenmitglied der DGPT. 1959 gründete er die Deutsche Gesellschaft für Ärztliche Hypnose und Autogenes Training. Fachgebiete. Seit mindestens 1909 setzte sich Schultz mit der Psychoanalyse auseinander. Bekannt wurde er durch die Entwicklung des Autogenen Trainings, das er auf der Grundlage der Hypnoseforschung und umfangreichen auch im Selbstversuch durchgeführten Einzelstudien öffentlich erstmals 1926 als „autogene Organübungen“ vorstellte und 1928 „Autogenes Training“ nannte. Es handelt sich dabei um ein autosuggestives Übungsprogramm, sich tief zu entspannen und mehr Gelassenheit zu erreichen. Darüber hinaus war Schultz Spezialist für Hypnose und alle Fragen der Psychotherapie und Neurosenlehre. Schriften. "Neurose Lebensnot ärztliche Pflicht", 1936 In der DDR wurden Schultzes Schriften "Geschlecht, Liebe, Ehe" (Reinhardt, München 1940) und "Die seelische Gesunderhaltung unter besonderer Berücksichtigung der Kriegsverhältnisse" (Mittler, Berlin 1942) auf die Liste der auszusondernden Literatur gesetzt. Joan Slonczewski. Joan Lyn Slonczewski (* 1956 in New York City) ist eine US-amerikanische Molekularbiologin und Science-Fiction-Autorin. Leben. Joan Slonczewski lehrt Biologie am Kenyon College in Ohio. Sie bringt neueste Ergebnisse der Molekularbiologie in ihre Science-Fiction ein, um eine faszinierende Zukunft zu entwerfen. Man kann sie zu den feministischen Schriftstellerinnen zählen; ihre Charaktere entsprechen keinen Geschlechterklischees. "A Door into Ocean" mit einem Wasserplaneten und ausschließlich weiblicher Bevölkerung spricht diese Thematik besonders deutlich an. Der Roman wurde auch mit dem Campbell Award als bester Roman ausgezeichnet. "Daughter of Elysium" bewegt sich von der molekularbiologischen Thematik zur Frage der künstlichen Intelligenz. Ganz unauffällig wird der Leser an "bewusste" Roboter herangeführt, die "gleiche Rechte" mit den Menschen einfordern. Daneben werden Fragen des Genetic Engineering an Menschen beleuchtet. Im Mittelpunkt des Romans steht eine normale Familie mit zwei Kindern und einem (für viele Menschen) ungewöhnlichem Rollenverständnis der Eltern. Jean-Baptiste Lully. Jean-Baptiste Lully (* 28. November 1632 in Florenz; † 22. März 1687 in Paris; ursprünglich "Giovanni Battista Lulli") war ein italienischer Komponist und Balletttänzer, der den größten Teil seines Lebens für den Hof Ludwigs XIV. arbeitete. Er wurde 1661 französischer Bürger. Kindheit in Italien. Jean-Baptiste Lullys Vorfahren väterlicherseits waren Bauern. Die Eltern, Lorenzo Lulli und seine Ehefrau Caterina, geborene del Sera, bewohnten eine Stadtwohnung in Florenz. Vermutlich gehörte das Haus dem Großvater mütterlicherseits, einem Müller. Am 13. Juni 1638 starb sein älterer Bruder Vergini, im Oktober 1639 seine Schwester Margherita. Mit sieben Jahren wurde Jean-Baptiste das einzige Kind seiner Eltern. Jean-Baptiste erhielt eine gediegene Ausbildung, ein Franziskanermönch gab ihm ersten Musikunterricht. Bei der Rückkehr von einem Feldzug gegen die Türken machte Roger de Lorraine, Chevalier de Guise, im Februar 1646 Station in Florenz. Er hatte seine Kindheit am Hof des Großherzogs der Toskana verbracht und feste, frische Bindungen an diesen Ort. Anne Marie Louise d’Orléans, duchesse de Montpensier, genannt "La Grande Mademoiselle" (Tochter von Gaston d’Orléans, der ein Bruder von Ludwig XIII. war), hatte ihn gebeten, ihr einen Italiener mitzubringen, mit dem sie reden könnte, um dabei die Sprache zu erlernen. Er wurde auf den komödiantisch begabten Lully aufmerksam, oder jener wurde ihm empfohlen, und nahm ihn im Einverständnis der Eltern mit nach Frankreich. Lully bei Anne Marie Louise d’Orléans. In Frankreich lebte Lully bei der Grande Mademoiselle Anne Marie Louise d’Orléans im Palais des Tuileries. Zu seinen Aufgaben gehörte es nicht nur, die Dame des Hauses zu unterhalten und sie auf der Gitarre zu begleiten, sondern auch, die Garderobe zu sortieren, die Kamine zu heizen und die Kerzen anzuzünden. Er vervollkommnete weiter sein Geigenspiel, nahm Cembalo- und Kompositionsunterricht bei Nicolas Métru, François Roberday und Nicolas Gigault und trat in komischen Rollen auf. Jean Regnault de Segrais, der mit François de La Rochefoucauld und Madame de Sévigné verkehrte und 1661 in die Académie française aufgenommen wurde, sorgte für Lullys Ausbildung zum Ballett-Tänzer. Junge Jahre und Freundschaft mit Ludwig XIV.. Der junge Ludwig XIV. in der Hauptrolle des Apollo im "Ballet royal de la nuit" 1653 Kardinal Mazarin und Anna von Österreich führten die Regierungsgeschäfte allein. Solange sie den jungen Ludwig nicht benötigten, wurde dieser arg vernachlässigt und trieb sich zusammen mit seinem Bruder im Graben des Louvre herum. Dort trafen sich die Kinder des Personals, um miteinander zu spielen; hier mag es auch gewesen sein, dass der zukünftige Sonnenkönig Giovanni Battista Lully kennenlernte. Kaum mag man den König und seinen Bruder unter den anderen Kindern vermutet haben, denn die königlichen Gewänder wurden von Mazarin wie ein Augapfel gehütet, sein Geiz war legendär. So kam es, dass manch ein Dienstbotenkind besser angezogen war als der König von Frankreich. Zwischen Lully und dem König entstand eine enge Freundschaft, sie lernten gemeinsam Tanzen und Gitarre spielen. Das Verhältnis ging wohl über das Mäzenatentum weit hinaus. Natürlich blieb es den übrigen Hofmusikern nicht verborgen, wie sehr der König den italienischen Musiker schätzte. Jean de Cambefort, der bisher zuständig für die Ballettmusik am französischen Hof war, sah ihn jetzt schon als ernste Bedrohung. Genauso der Leiter der 24 Violinen des Königs (das Orchester wurde von Ludwig XIII. gegründet und ist das erste feststehende Orchester der Musikgeschichte gewesen), Guillaume Dumanoir. Aber es gab auch Hofkomponisten, die den jungen Musiker nach Kräften förderten, wie Regnault und Michel Lambert, der als größter Meister des Air de Cour in die Musikgeschichte einging. Er wurde später Lullys Schwiegervater. Am 7. März 1652 trat Lully in der Mascarade de la foire Saint-Germain als Händler auf. Nach einem kurzen Intermezzo in Saint-Fargeau, wohin Lully der "Grande Mademoiselle" gefolgt war, die nach Niederringung der Fronde gezwungen worden war, Paris zu verlassen, konzentrierte sich Lully seit Ende 1652 ganz auf Ludwig XIV. Im "Ballet royal de la nuit", mehrere Male zwischen dem 23. Februar und 16. März 1653 aufgeführt, war Lully als Schäfer, Soldat, Bettler, Krüppel und Grazie zu sehen. Der König selbst tanzte hier zum ersten Male die Rolle der aufgehenden Sonne. Lully war Tänzer, „"balladin"“, fühlte sich wohl auf der Bühne, war Theatermann. Im Raum trat er zuerst zutage mit seinem Körper, dann mit der Stimme und Instrumenten, was ihn abhob von allen Musikern seiner und folgender Zeiten. Die Musik war ihm hierfür Zweck, nicht Selbstzweck, zwanzig Jahre lang diente sie ihm dazu, Tänzer – besonders ihn selbst – im Raum sich bewegen zu lassen. Nichts für den Konzertsaal: nur der Ansporn der Bühne mit ihren Herausforderungen belebte sein Werk. Das Ungewöhnliche und Maßlose, das seinem Tanz anhaftete, ließ Zeitungsleute, die sich sonst kaum mit Tänzern befassten, ihn als „Baptiste“ zum fortwährenden Gegenstand ihrer Berichte auswählen. Ludwig XIV. fand ein solches Gefallen an Lully, dass er ihn am 16. März 1653 zum "Compositeur de la musique instrumentale" ernannte. Nicht selten tanzte Lully an der Seite des Königs, zum Beispiel im "Ballet des plaisirs." Er konnte auch erste Erfolge als Komponist verzeichnen. Für das "Ballet de Psyché" hatte er ein "Concert italien" beigesteuert. Seine erste größere Komposition war die Maskerade "La Galanterie du temps," die im Palais Mazarins unter Mitwirkung der "Petits violons" aufgeführt wurde. Mit den seit 1648 bestehenden "Petits violons" fand Lully ein Ensemble vor, das flexibler einsetzbar war als die länger etablierte, aus 24 Violinen bestehende "Grande bande" und ihm zudem ermöglichte, älteren komponierenden Rivalen, die seinen Erfolg missbilligten, besser aus dem Weg zu gehen. Lully gehörte zur Gruppe der in Paris unter Förderung Mazarins tätigen Italiener. Doch ungeachtet seiner Herkunft war Lully bereits in dieser Zeit der Hauptvertreter eines französisch geprägten Tanzstils, dem er etwas zufügen konnte, was nur aus ihm kam. Viel Tanzmusik in der französischen Art schrieb er, und einige italienisch klingende „"chaconnes"“ und „"ritournelles"“, sowie Vokalmusik ausgeprägt italienisch, doch ohne die üppige Harmonie und den Wagemut deren dort. Bei Lullys Ankunft hatte die Musik zum französischen Ballett vorherrschend einen leicht unzusammenhängenden Aufbau, was er durch Anbringen einer dynamischeren Struktur änderte. Dem Ballett verhalf er so zu mehr konzertanter Musik, mit einem offeneren, klareren und mehr gehenden Stil. Mit "Amour malade," am 17. Januar 1657 uraufgeführt, gelang Lully der Durchbruch als Komponist. Lully brillierte wieder als Tänzer, hier als Scaramouche, dem ein Esel eine Dissertation widmet. Karriere am Hof Ludwigs XIV.. Lully gehörte nun unzweifelhaft dem inneren Kreis um den König an. Als der König 1659 mit Mazarin zur Vorbereitung des Pyrenäen-Friedensvertrages in die Pyrenäen reiste, begleitete ihn Lully und komponierte unter anderem das "Ballet de Toulouse." Am 29. August 1660, drei Tage nach dem Einzug Ludwigs in Paris, erklang in der Église de la Merci in Anwesenheit der Königinmutter Anna von Österreich, des Königs, der Königin Maria Theresia von Spanien und Philippe I. de Bourbons, des Königs Bruder, mit großem Erfolg Lullys Friedensmotette "Jubilate Deo." Der Kardinal hatte anlässlich der Feierlichkeiten Francesco Cavalli, den berühmtesten italienischen Opernkomponisten, nach Paris kommen lassen. Auch vorher schon hatte Paris Aufführungen italienischer Opern erlebt: Luigi Rossis Werke wurden oft gespielt, besonders eindrucksvoll war die Aufführung von dessen Oper "Orfeo." Cavalli sollte unter dem Titel "Ercole amante" ("Der verliebte Herkules") eine Festoper zu Ehren des Hochzeitspaares schreiben. Lully wurde abgestellt, um Balletteinlagen für die Prunkoper zu verfassen, aber er war nicht unterwegs, um mit Cavalli zusammenzuarbeiten, sondern um als Saboteur im Auftrag des Königs (der die italienischen Opern hasste) die Aufführung zu untergraben. Cavalli konnte das Werk nicht rechtzeitig vollenden und musste auf ein älteres Werk zurückgreifen: "Xerse," doch auch hierfür komponierte Lully Ballettmusik. Als am 21. November 1660 Cavallis "Xerse" in der Gemäldegalerie des Palais des Tuileries aufgeführt wurde, überwucherten die von Lully beigesteuerten Tanzeinlagen die Oper geradezu. Lully, der gebürtige Italiener, hatte eine ganz und gar französische Musik komponiert, die sich neben die italienische, durchaus mit dem Anspruch der eigenen Überlegenheit, stellte. Cavallis Oper wurde kaum beachtet, er selbst nicht einmal als Komponist erwähnt. Doch war nicht Cavalli das eigentliche Ziel dieser Vorkommnisse, sondern der Kardinal, der durch das Versagen des von ihm protegierten Komponisten lächerlich gemacht werden sollte. Nach dem Tod Mazarins am 9. März 1661 verließen viele Italiener Frankreich. Doch obwohl man die italienische Oper in ihre Schranken verwiesen hatte, wurde "Ercole Amante" im neu erbauten Théâtre des Tuileries doch noch aufgeführt. Das Ballett "Hercule amoureux" sollte eines der denkwürdigsten Ereignisse der Musikgeschichte werden, denn hier trat der König nun zum zweiten Mal als Apollo auf, doch diesmal in aller Pracht, der Hof skandierte während seines Tanzes „Lang lebe der Sonnenkönig!“ Diesen Spitznamen sollte Ludwig XIV. sein Leben lang behalten. Cavalli kehrte als entehrter Mann nach Venedig zurück und schwor, niemals wieder für die Bühne zu komponieren (was er nicht wahrmachte). Lully machte weiter Karriere. Am 5. Mai 1661 ernannte Ludwig XIV. ihn zum "Surintendant de la musique du roi," wobei er auf die 10.000 Livre, die das Amt gekostet hätte, verzichtete. Michel Lambert wurde "Maître de musique de la chambre." Im Februar 1662, zwei Monate nachdem er erfolgreich den König um die Einbürgerung gebeten hatte, nahm er Magdelaine Lambert zur Frau. Er behielt zeitlebens einen florentinischen Akzent und sorgte für eine Großfamilie nach italienischer Art: Seine sechs Kinder, Verwandte und deren Freunde wohnten bei ihm. Nach drei Umzügen wurde das Hôtel Lully in der Pariser Rue Sainte-Anne der endgültige Wohnsitz. In der Musik jedoch verschwand sein bisheriger Stil eines italienischen „bouffon“, eines Spaßmachers. Er komponierte mit dem "Ballet des Arts" 1663 sein erstes vollständig rein französisches „grand ballet de cour“. Die Liedtexte schrieb Isaac de Benserade. In gleichem Maße für den Erfolg bedeutend waren dessen Verse im „livret“, die kommentierten, was auf der Bühne getanzt wurde. Zusammenarbeit mit Molière (1664–1671). "Les plaisirs de l’île enchantée" ("Die Freuden der Zauberinsel") in Versailles 1664 Der Finanzminister Nicolas Fouquet hatte sich in Vaux-le-Vicomte einen Palast erbauen lassen und dafür die besten Künstler Frankreichs verpflichtet: Louis Le Vau als Architekt, André Le Nôtre für die Gartenanlagen und Charles Lebrun, den ersten Hofmaler und hervorragenden Dekorateur, für die Gestaltung der Prunkräume. Am 17. August 1661 fand das große Fest statt, zu dem der König, seine Familie und zahlreiche Gäste geladen waren. An achtzig Tischen wurden sie bewirtet und auf dreißig Büffets fanden sich 6000 massiv silberne Teller. Für die musikalische Gestaltung sorgten die fähigsten Musiker, darunter Michel Lambert und Lully. Lully, mit Molière befreundet, hatte diesen wenige Tage zuvor noch in panischer Stimmung gefunden, da er für seine Komödie "Les Fâcheux" ("Die Lästigen") nicht genügend Schauspieler zur Verfügung hatte. Abhilfe schuf eine genial einfache Idee: Zwischen die Szenen wurden Ballettnummern eingefügt, um den Schauspielern Zeit zum Umkleiden zu geben. Pierre Beauchamp und Lully arrangierten die Ballettnummern, für die Lully nur eine Courante neu komponierte. Die Aufführung wurde ein unglaublicher Erfolg, und die Comédie-ballet (Ballett-Komödie), für die nächsten Jahre ein wichtiges Medium Lullys, war geschaffen. Das teure Schloss und das verschwenderische Fest hatten jedoch den König verärgert. Bald darauf ließ er Fouquet verhaften, seine Besitztümer beschlagnahmen – und begann ab sofort das alte Jagdschloss seines Vaters zur allerprächtigsten Residenz zu erweitern: Schloss Versailles. Als 1664 die ersten Arbeiten im Park abgeschlossen waren, wurde ein gewaltiges Fest ausgerichtet: "Les Plaisirs de l’îsle enchantée," thematisch bezogen auf eine Geschichte aus Ariosts "Orlando furioso," dauerte vom 7. bis 13. Mai. Eröffnet wurde mit einem „Carrousel“, einem Pferdeballett, in dem sich der Hof in kostbaren Kostümen präsentierte. Der König selbst führte, als Roger kostümiert, den Zug an. Den Abschluss des Tages bildete das "Ballet des Saisons" ("Ballett der Jahreszeiten"), in dem unter anderem der Frühling auf einem Pferd, der Sommer auf einem Elefanten, der Herbst auf einem Kamel und der Winter auf einem Bären einzogen. Musik, die Lully für diesen ersten Tag komponiert hat, ist verschollen. Es gab Lotterien, Bankette, Bälle, Aufführungen dreier Molière-Lully-Ballette, "La Princesse d’Élide" ("Die Fürstin von Elis," 8. Mai), "Les Fâcheux" (11. Mai), "Le Mariage forcé" ("Die Zwangsheirat," 13. Mai), und am 12. die Premiere des "Tartuffe," der ein Verbot des Stückes folgte. Den Höhepunkt des Festes aber bildete die Erstürmung des „Palastes der Alcina“, einer großartigen Kulisse auf einer künstlichen Insel im großen Kanal von Versailles, die in einem sehr aufwändigen Feuerwerk unterging. In den folgenden Jahren entstanden weitere Ballettkomödien: "George Dandin" wurde 1668 im Rahmen des zweiten großen Festes von Versailles gegeben, "Monsieur de Pourceaugnac" im Jahr darauf (auch "Le Divertissement de Chambord," Chambord 1669). Lully sang dabei – er hatte die Stimmlage eines Bariton – unter dem Pseudonym „Chiacchiarone“, was seiner Position als „Surintendant“ geschuldet war. Doch der größte Erfolg sollte den beiden Ballett-Komödien "Les amants magnifiques" ("Die Fürsten als Brautwerber") und "Le Bourgeois Gentilhomme" ("Der Bürger als Edelmann") beschieden sein, beide von 1670. Letztere war auf den türkischen Botschafter gemünzt, der sich bei Hof lächerlich gemacht hatte. Neben der Zusammenarbeit mit Molière komponierte Lully weiterhin die Hofballette. 1669 entstand das letzte große Hofballet "Ballet Royal de Flore," in dem Ludwig XIV. zum dritten Mal als die Sonne auftrat, in der Ballettkomödie "Les amants magnifiques" dann zum vierten und letzten Mal. Angeblich war der König mit der schweren Choreographie überfordert. 1671 schufen Lully und Molière die Tragédie-ballet (Ballett-Tragödie) "Psyché" ("Psyche"), um dem „größten König der Welt“ Heroisches vorzuführen. Aus Zeitnot musste Molière zwei weitere Librettisten beschäftigen, nämlich Pierre Corneille und für die Divertissements Philippe Quinault, der von da an Lullys Librettist erster Wahl werden sollte. Als der Herzog von Orléans, der Bruder des Königs, sich nach dem Tod seiner ersten Gattin 1671 mit Liselotte von der Pfalz vermählte, wurde das "Ballet des Ballets" bestellt. Lully und Molière schufen ein Pasticcio aus erfolgreichen Szenen der letzten gemeinsamen Werke, gerieten aber während der Arbeiten in Streit und trennten sich im Zorn. Zwar wurde das Ballett aufgeführt, aber Molières Komödie "La Comtesse d’Escarbagnas" ("Die Gräfin von Escarbagnas," Dezember 1671) wurde bereits von einem anderen vertont: Marc-Antoine Charpentier, der auch für Molières letztes Werk "Le malade imaginaire" ("Der eingebildete Kranke") die umfangreiche Bühnenmusik schrieb. Der Sonnenkönig der französischen Oper (1672–1685). 1672 brachte Robert Cambert, der ehemalige Oberhofmeister der Musik der Königinmutter, die erste französische Oper auf die Bühne: "Pomone." Der Erfolg war wider Erwarten bombastisch. Pierre Perrin war für das Libretto verantwortlich. Lully beobachtete den Erfolg der beiden mit Neugier und großem Neid. Durch geschickte Intrigen gelang es, Pierre Perrin in den Ruin zu treiben. Er kam in die Conciergerie, weil er sich vor Schulden kaum noch retten konnte. Lully suchte den Unglücklichen auf und unterbreitete ihm ein Angebot: er sorge für die Begleichung der Schulden und erwirke beim König seine Freilassung, dafür müsse er ihm die Opernrechte und alles, was damit zusammenhing, überlassen. Perrin ging auf den Handel ein, ohne zu wissen, was er damit in Gang setzte. Lully hatte nun das Monopol zur Aufführung von Opern, er erwirkte noch weitere Rechte beim König, der sie bereitwillig einräumte. So war jegliche Aufführung mit Musik ohne die Genehmigung des Surintendanten untersagt und wurde mit Konfiszierung sämtlicher Instrumente, Kostüme, Einnahmen etc. geahndet. Dies traf Molière besonders schwer in seinen letzten Lebensjahren, da alle Texte, zu denen Lully Musik komponiert hatte, nun Eigentum des Florentiners waren. Die Académie royale de musique war fest in den Händen Lullys. Seine Macht ließ er nun jeden spüren, was zur Folge hatte, dass viele der angesehenen Komponisten und Musiker den Hof verließen. Bestes Beispiel ist der Begründer der französischen Cembaloschule Jacques Champion de Chambonnières. 1672, also im Jahr der „Machtübernahme“, brachte Lully seine erste Oper auf die Bühne, eine Pastorale "Les Fêtes de l’Amour et de Bacchus." Hier folgte er aus Zeitnot dem Modell des "Ballet des Ballets," also ein Pasticcio. Das Werk war äußerst erfolgreich und legte den Grundstein für seine weitere Karriere als Begründer der französischen Nationaloper. Im Gegensatz zu Cambert und Perrin räumte er dem Ballet enormen Raum in seinen Werken ein. So bestehen alle Tragédies Lullys aus einem Prolog und fünf Akten. Jeder Akt verfügt über ein Divertissement, eine großzügige Szene mit Ballett und Choreinlagen. Der Prolog kann durchaus als ein eigenständiges Divertissement gesehen werden und diente ausschließlich zur Verherrlichung des Sonnenkönigs. 1673 kam die Oper "Cadmus et Hermione" auf die Bühne, sie gilt als Lullys erste Tragödie. 1674 folgte "Alceste," diese Prunkoper wurde im Marmorhof von Versailles uraufgeführt. Sie war einer der Höhepunkte des dritten großen Festes von Versailles. 1675 wurde "Thésée" gegeben, ebenso prunkvoll, ebenso erfolgreich. 1676 folgte "Atys." Da der König hier angeblich selbst mitkomponiert haben soll sowie sehr lange mit Lully zusammensaß, um dieses Werk zu vollenden, hat diese Tragödie den Untertitel "Die Oper des Königs." Hier verzichtet Lully auf Pauken und Trompeten, um einen dunklen rauen Klang zu erzielen. Legendär wurde die Schlummerszene, hier trat der noch junge Marin Marais als einer der Träume auf. 1677 wurde "Isis" gegeben. Obwohl Lully hier ein geniales Werk vorgelegt hat, war der Oper wenig Erfolg beschieden. Man kritisierte die seltsame Handlung, die Philippe Quinault vorgelegt hatte, und empfand Lullys Musik als zu intellektuell. Die Oper bekam den Untertitel "Die Oper der Musiker," denn Musiker bzw. musikalisch gebildete Zuschauer waren von dem Werk begeistert. 1678 arbeitete Lully die Tragédie-ballet "Psyché" mit Hilfe der Librettisten Thomas Corneille und Bernard le Bovier de Fontenelle zu einer Oper um; die gesprochenen Dialoge wurden durch Gesang ersetzt. 1679 kam "Bellérophon" auf die Bühne, wieder in Kooperation mit Thomas Corneille. 1680 folgte "Proserpine," 1681 auf Befehl des Königs ein Hofballett "Le Triomphe de l’Amour." Ludwig XIV. wünschte sich eine Wiederbelebung der alten Hofballette. Dieses Werk wurde von den Nachkommen des Königs getanzt, es wurde zu einem der berühmtesten Werke Lullys überhaupt. 1682 zog der Hof endgültig nach Versailles. Zu diesem Anlass wurde "Persée" gegeben. Mit diesem Werk wurde am 17. Mai 1770 das Opernhaus zu Versailles eingeweiht, der Anlass: die Hochzeit des zukünftigen Ludwig XVI. mit Marie Antoinette. Dies spricht für die Bedeutung, welche man den Werken Lullys noch im 18. Jahrhundert zubilligte. 1683 starb die Königin von Frankreich, die Aufführungen von "Phaeton" wurden verschoben. 1684 kam Lullys erfolgreichstes Werk auf die Bühne: "Amadis." Zwar schon 1683 komponiert, wurde die Uraufführung wegen des Todes der Königin um ein Jahr verschoben. "Amadis" wurde jedes Jahr aufgeführt, so lange der König lebte. Des Weiteren wandten sich Lully und Quinault von der Mythologie ab und besangen französische Ritterepen, welche die Verteidigung des Glaubens als höchstes Ideal zum Inhalt haben. Die Aufhebung des Ediktes von Nantes sollte auch in der Musik seine Spuren hinterlassen. Der Absturz (1685–1687). 1685 wurde "Roland" gegeben. Durch die starke Einflussnahme der Madame de Maintenon befasste sich der König nun weniger mit Lullys Musik; dessen Stern begann zu sinken. Seit 1683 war Madame de Maintenon des Königs geheime Gemahlin, und ihr gefielen weder die Musik Lullys noch der Komponist selbst, dessen Homosexualität sie als streng religiöse Frau nicht tolerierte. Als öffentlich ruchbar wurde, dass Lully einen Pagen namens Brunet liebte, war dies der geeignete Anlass, Lully die Gunst des Königs zu entziehen. Hinzu kam seine Beteiligung an den Orgien der Herzöge von Orléans und Vendôme. Der König zitierte Lully zu sich und unterbreitete ihm, dass er nicht weiter gewillt sei, sein Verhalten zu dulden. Zwar war Lully inzwischen zum "Secrétaire du Roi" ernannt worden, war sogar (zumindest auf dem Papier) Berater des Königs und hatte die Erhebung in den Adelstand erhalten, doch der König behandelte seinen ehemaligen Vertrauten und Freund nun mit Kälte. Lully schrieb dem König und bat ihn um Vergebung. Beinahe wäre er erfolgreich gewesen: Der Marquis de Seignelay, Sohn Jean-Baptiste Colberts, hatte ein Werk bei ihm in Auftrag gegeben, "Idylle sur la Paix." Den Text dazu schrieb Jean Racine. Der König, der in Sceaux der Aufführung beiwohnte, war äußerst angetan von dem neusten Werk seines Oberhofmeisters, er ließ Lully große Abschnitte wiederholen. Doch Madame de Maintenon schob der Versöhnung einen Riegel vor. 1686 wurde "Armide," Lullys neueste Oper, nicht am Hof uraufgeführt, sondern in Paris. Lully war seit längerem in Ungnade gefallen, und der König empfing ihn nicht mehr. Lully hoffte jedoch, die Protektion des Königs wieder zu erlangen. Seine nächste Oper, die er für Louis-Joseph Duc de Vendôme auf ein Libretto des Jean Galbert de Campistron komponierte, war eine subtile Huldigung an den Thronfolger und damit an den König. "Acis et Galatée" erklang am 6. September 1686 im Schloss Anet anlässlich einer Jagdpartie des Dauphins. Vor der Aufführung hatten Lully und die Sänger zusammen mit den Gästen diniert. Im Vorwort der dem König gewidmeten Partitur schrieb Lully, er verspüre in sich eine „Gewissheit“, die ihn „über sich selbst hinaushebe“ und „mit einem göttlichen Funken erfülle“. Das Grab Jean Baptiste Lullys in Notre-Dame-des-Victoires 1687 arbeitete Lully an seiner Oper "Achille et Polixène," bald bekam der König erhebliche gesundheitliche Probleme. Der Arzt Charles-François Félix de Tassy war am 18. November 1686 gefordert, als es galt, eine gefährliche Fistel am Gesäß des Monarchen operativ zu entfernen. Richelieu war bei einem derartigen Eingriff gestorben, de Tassy übte im Hospital von Versailles an herbeigeschafften Leidensgenossen des Königs und konnte auch dank Ludwigs Leidensfähigkeit die Entfernung des Geschwürs mit Erfolg vornehmen. Man rechnete schon mit dem Tod des Königs, doch dieser erholte sich. Für die Feierlichkeiten zur Genesung des Königs bearbeitete Lully sein 1678 komponiertes "Te Deum" und ließ es auf eigene Kosten mit 150 Musikern singen. Was sich zutrug, als er die Motette am 8. Januar 1687 in der Église des Pères Feuillants aufführte, wurde von Lecerf de La Viéville 1705 so beschrieben, dass er mit dem zum Schlagen des Taktes gebrauchten Stock die Fußspitze traf, eine kleine Verletzung zunächst. Tatsächlich finden sich in zeitgenössischer Literatur oder auf Abbildungen keine Belege für das Dirigieren mit langen Stöcken – benutzt wurde ein aufgerolltes Blatt Papier in einer oder beiden Händen. Möglicherweise besaß Lully aber einen Spazierstock, mit dem er die anwesenden Musiker zur Aufmerksamkeit rufen wollte. Die Wunde entzündete sich rasch und infizierte sich mit Wundbrand. Da sich Lully weigerte, den Zeh amputieren zu lassen, verstarb er wenige Monate darauf. Er wurde in Notre-Dame-des-Victoires unter großer Anteilnahme begraben. Seine letzte Oper wurde von seinem Sekretär Pascall Colasse vollendet. Die Nachfolge im Amt des Surintendanten übernahmen zuerst seine Söhne Jean und Louis de Lully, zusammen mit seinem Schüler Marin Marais, bis der König Michel-Richard Delalande das Amt übertrug. Lullys Musik und Bedeutung. a> wurden von Lullys Musik geprägt. Abschließend lässt sich feststellen, dass Lully mit seiner neuen Orchesterdisziplin nicht nur den französischen Stil weiterführte und maßgeblich prägte, sondern damit enormen Einfluss auf die europäische Musiklandschaft des ausgehenden 17. Jahrhunderts ausübte. Typisch für den Klang seines Orchester sind die Vorhalte, der fünfstimmige Orchestersatz und die große Besetzung des Orchesters. Die 24 Violinen des Königs bilden den Kern des Ensembles; hinzu treten die 12 großen Oboen (an der Weiterentwicklung der Schalmei zur Oboe soll Lully maßgeblich beteiligt gewesen sein), eine umfangreiche Continuogruppe mit Lauten, Gitarren, Cembalo etc. und recht oft Pauken und Trompeten. Beliebt war auch die ins Werk eingebundene „Zurschaustellung“ neuer Instrumente, wie der Traversflöte oder das „französische Trio“ aus 2 Oboen und Fagott. Diese Instrumente hatten in vielen Tänzen und Instrumentalstücken Soloauftritte, meist sogar auf der Bühne. In der nachfolgenden deutschen Tradition wurde das französische Trio oft verwendet, besonders von Fasch und Telemann. In den frühen Jahren spielte Lully selbst bei seinem Ensemble die erste Violine, oftmals sind in den Partituren der Philidor-Sammlung Vermerke wie „M. de Lully joue“ („Herr von Lully spielt“) zu lesen, die Violinstimme sollte dann mit möglichst blumigen Verzierungen dargeboten werden. Die typisch französische Ouvertüre im punktierten Rhythmus mit anschließender Fuge und Wiederholung des ersten Teils ist allerdings nur zum Teil eine Neuschöpfung Lullys. Seine Vorgänger, Lehrer und Zeitgenossen wie Jean de Cambefort, Francois Caroubel, Nicolas Dugap, Jacques de Montmorency de Bellville, Jacques Cordier, Pierre Beauchamps, Guillaume Dumanoir, Michel Mazuel, Mignot de la Voye oder Robert Cambert schrieben bereits Ouvertüren, oder besser gesagt Eröffnungsmusiken für die Hofballette. Diese Ouvertüren haben nichts mit den italienischen Sinfonias zu tun, wie sie von Monteverdi, Luigi Rossi oder Francesco Cavalli und Marc’ Antonio Cesti komponiert wurden – der typisch französische Orchesterstil wurde schon zu Zeiten Ludwigs XIII. und seiner Ballettmeister entwickelt und ist auf die Gründung der 24 Violinen zurückzuführen – Lullys Wirken besteht vornehmlich in der Weiterführung der Tradition seiner Vorgänger. Doch während die alten Ouvertüren eher nur gravitätisch waren, fügte Lully ihnen noch einen fugierten Teil hinzu. 1660 wurde eine solche „neue“ Ouvertüre im Ballett "Xerxes" zum ersten Male aufgeführt, diese Form wurde seitdem beibehalten. Fast jedes Werk beginnt mit einer solchen Ouvertüre, eine Ausnahme bildet "Les Fêtes de l’Amour et de Bacchus," welches noch mit einem altertümlich anmutenden Ritournell eröffnet wird. Lully selbst war als Tänzer sehr darauf bedacht, seine Tänze und Ballette so zu gestalten, dass man allein an der Musik schon erkennt, um welchen Tanz es sich handelt. So steht bei der Komposition nicht die Musik an erster Stelle – sondern der Tanz, den sie verkörpern soll. Die französische Oper war von Anfang an als Gegenpol zur italienischen etablierten Oper gedacht. So wie Ludwig XIV. in allen Bereichen der Kunst eine eigene französische Ausdrucksform forderte, war es ihm ein persönliches Anliegen, dass das auch in der Musik geschehen sollte. In Lully fand er einen willigen und talentierten Meister, der seine Vorstellungen umsetzen konnte. Besonders auffällig ist im Vergleich zur italienischen Oper das französische Rezitativ. Dieses von Lully und Lambert entwickelte Rezitativ ist vielmehr eine Weiterentwicklung des Air de Cour und hat mit den italienischen Rezitativen kaum etwas gemein. So gehen rezitierte Passagen ohne weiteres in kleine liedhafte Airs über. Diese Airs sind jedoch nicht zu verwechseln mit den Arien, wie sie in der italienischen Oper vorkommen. Die italienische Da-capo-Arie existiert in der französischen Oper nicht. Die berühmteste Szene Lullys ist der Monolog der Armide aus der gleichnamigen Tragèdie lyrique: "Enfin il est à ma puissance!" (Akt II, Szene 5). Zeitgenossen wie später auch Jean-Philippe Rameau betrachteten diese Passage als das Ideal der französischen Opernkunst. Der größte Verdienst Lullys liegt in der Begründung der französischen Nationaloper. Mit der von ihm geschaffenen Opernform schaffte er es, die Erwartungen des Publikums zufriedenzustellen, eine eigene, verständliche Oper zu kreieren und eine Erhaltung und Integration des Balletts zu erreichen. Jede seiner Opern ist in fünf Akte und einen Prolog unterteilt. Der Prolog dient musikalisch zu Verherrlichung seines Königs. Er besteht in der Regel nur aus Balletten, Chören und Airs, aber kaum Rezitativen. Die fünf Akte der Tragödien (natürlich wurden nur klassische Stoffe behandelt wie Ritterepen und Geschichten der griechisch-römischen Mythologie) sind alle in Versen abgefasst, was dem speziellen französischen Rezitativ sehr entgegenkommt. Jeder der Akte verfügt über ein Divertissement, also große Chorszenen und Ballette. Bestimmte Szenen wurden zum Standard wie die beliebten Traumszenen (Sommeil), die pompösen Schlachten (Combats), die Stürme (Vents) und die abschließenden großen Chaconnen und Passacaillen, oft mit Solisten und Chor. Schon seit den "Plaisirs de l’îsle de enchantée" war der französische Musikstil in Europa populär geworden, und so zog es recht viele junge Musiker nach Paris, um bei Lully zu studieren. Diese Schüler sollten zu den europäischen „Lullisten“ werden: Pelham Humfrey, Johann Sigismund Kusser, Johann Caspar Ferdinand Fischer, Agostino Steffani, Georg Muffat … Diese jungen Musiker machten den Stil Lullys vor allem in Deutschland und England populär. Die Orchesterstücke seiner Opern und Ballette kursierten als Suiten in gedruckter Form in ganz Europa. So wundert es nicht, dass diese Suiten die barocke Orchestersuite maßgeblich prägten. In fast jeder Musikbibliothek eines Fürsten fanden sich Abschriften der Werke Lullys. In Deutschland sind es vor allem die Höfe in Hannover, Celle, Düsseldorf, Kassel, Darmstadt, Rastatt und München gewesen, die nicht nur Lullys Musik sammelten, sondern auch französische Musiker importierten. Selbst wenn Lullys Opern noch in der Entstehungsphase waren, so gab es schon Schwarzkopien seiner fertiggestellten Szenen, die auf dem Schwarzmarkt verkauft wurden. Sein Stil fand etliche Nachahmungen, so sind selbst die berühmten Orchestersuiten von Johann Sebastian Bach Nachahmungen der von Lully begründeten Formen. Weitere deutsche Komponisten schrieben französische Suiten in der Manier Lullys: Georg Philipp Telemann, Johann Friedrich Fasch, Johann Joseph Fux und Philipp Heinrich Erlebach. Und schließlich sind auch die beiden berühmten Werke Händels, die "Wassermusik" und die "Musick for the Royal Fireworks" nichts anderes als Kompositionen, die auf Lullys Werken basieren. Gerade in England wurde sein Stil durch den frankophilen Geschmack der Stuartkönige gepflegt, der Stil Lullys ist in der Musik von Locke, Humfrey, Blow und Purcell nicht zu überhören. Aber schon zu Zeiten Karls I. war der französische Musikstil am Hof etabliert, unter anderem durch den französischen Komponisten und Geiger Stephen Nau. In Frankreich blieb der Stil Lullys etwa für weitere hundert Jahre bindend. Die Formen, die er dem Ballett, der Oper und der geistlichen Musik gab, wurden nicht angetastet. Es war selbst tabu, einen Text, den Lully bereits vertont hatte, ein weiteres Mal zu vertonen. So komponierten die französischen Komponisten in der direkten Nachfolge Lullys ihre Opern ganz in seinem Stil: Marin Marais, André Cardinal Destouches, Pascal Collasse, Michel-Richard Delalande, André Campra, Jean-Philippe Rameau, François Francœur, Antoine Dauvergne, Jean-Joseph Cassanéa de Mondonville, Jean Marie Leclair … Erst mit der Gründung des "Concert spirituel" in Paris und den immer öfter aufgeführten italienischen Konzerten wich die Abneigung gegen die italienische Musik. Als dann eine italienische Truppe Pergolesis "La serva padrona" in Paris aufführte, brach ein offener Konflikt zwischen den Anhängern der französischen traditionellen Oper und den Anhängern der neuen Opera buffa aus. Zeitgenossen berichten, dass es dort des Öfteren wie bei Religionskriegen zugegangen sei, zumindest was die Schmähschriften betrifft. Dieser Buffonistenstreit ging in die Geschichte ein und wurde erst Jahre später durch die ersten Aufführungen der Opern Glucks beigelegt. Mit Gluck verschwand auch allmählich die Oper des Ancien Régime, Lully, Campra und Rameau wurden kaum noch gespielt. Bühnenwerke. Ballets de cour, Mascarades und Divertissements Tragédies en musique, Pastorale, Pastoralé héroïque Kattegat. Das Kattegat, schwedisch Kattegatt (niederländisch: „Katzenloch“, dänische Aussprache) ist das 22.000 km² große und durchschnittlich rund 80 Meter tiefe, äußerst schwierig zu befahrende Meeresgebiet zwischen Jütland (Dänemark) und der schwedischen Westküste. Bei Skagen grenzt es an das Skagerrak. Das Kattegat wird entweder als ein Arm der Ostsee, ein Arm der Nordsee oder, nach traditioneller skandinavischer Auffassung, als keines der beiden gesehen. Geografie. Die Verbindung zur offenen Nordsee erfolgt über das Skagerrak und seit 1825 über den Limfjord. Allerdings ist die letztere Verbindung nur mit kleinen Schiffen befahrbar. Hochseeschiffe erreichen das Kattegat durch Umschiffung der Nordspitze Jütlands, Skagen. Die Ostsee ist durch den Öresund, den Großen Belt und den Kleinen Belt mit dem Kattegat verbunden. Inseln. Læsø und Anholt bilden den so genannten dänischen Wüstengürtel aufgrund des trockenen Sommerklimas, das Teiche bis auf den Grund austrocknen lässt. Ökologie. Ökologisch ist das Kattegat ein Übergangsgebiet zwischen der salzärmeren Ostsee und dem atlantisch geprägten Skagerrak. Südlich von Læsø überwiegen flachere Gebiete bis maximal 60 Meter Wassertiefe; im Norden fällt die Norwegische Rinne steil bis auf über 600 Meter ab. Der Fischreichtum ist groß, es kommen auch Europäische Hummer sowie der Norwegische Hummer oder Jungfrauen-Hummer ("Nephrops norvegicus") vor. Mit der artenreichen Lebenswelt des Kattegats beschäftigen sich auch lokale Museen und Aquarien, so z. B. das Kattegat-Center in Grenaa. Namensherkunft. Der Name Kattegat leitet sich aus den niederländischen und plattdeutschen Wörtern "Katt" = Katze und "Gatt" = Loch ab. In der Seefahrt der Hansezeit und auch später war das Kattegat aufgrund seiner vielen Untiefen und schmalen Fahrwässer gefürchtet. So kamen die Kapitäne zu dem Spruch, das Kattegat sei so eng wie ein Katzenloch. Zahlreiche Wracks künden von den früheren Schwierigkeiten der Seefahrt im Kattegat. Ein früherer Name des Gewässers war das "Jütlandmeer" (altnordisch: "Jótlandshaf"). Verkehr im Kattegat. Heute ist insbesondere das östliche Kattegat ein stark befahrenes Seegebiet, durch das ein erheblicher Teil des Verkehrs von und nach Göteborg, Kopenhagen sowie den Ostseehäfen läuft. Mehrere wichtige Fährlinien kreuzen oder durchfahren das Kattegat, so die Linien Frederikshavn–Göteborg, Frederikshavn–Oslo, Frederikshavn–Larvik, Frederikshavn–Moss, Kiel–Oslo, Kiel–Göteborg. Wirtschaft. Im Kattegat wird Offshore-Windenergie gewonnen. Zum Beispiel verfügt der Offshore-Windpark Anholt mit 111 Windkraftanlagen des Typs Siemens SWT-3.6-120 über eine Gesamtnennleistung von 400 MW. Er war damit zur offiziellen Inbetriebnahme am 4. September 2013 der leistungsstärkste Offshore-Windpark in Dänemark. Kurt Gödel. Kurt Friedrich Gödel (* 28. April 1906 in Brünn, Österreich-Ungarn, heute Tschechien; † 14. Jänner 1978 in Princeton, New Jersey) war ein österreichisch-amerikanischer Mathematiker und einer der bedeutendsten Logiker des 20. Jahrhunderts. Er leistete maßgebliche Beiträge Auch seine philosophischen Erörterungen zu den Grundlagen der Mathematik fanden weite Beachtung. Jugend und Studium. Kurt Gödel stammte aus einer wohlhabenden großbürgerlichen Familie in Brünn in Mähren. Die Stadt hatte zur Geburtszeit Gödels eine deutschsprachige Bevölkerungsmehrheit und lag bis 1918 in der österreichisch-ungarischen Monarchie. Seine Eltern waren Marianne (geb. Handschuh) und Rudolf August Gödel. Sein Vater war ein zu Wohlstand gelangter Textilunternehmer. Der Vater war katholisch, die Mutter evangelisch, die Kinder der Familie wurden evangelisch erzogen. Paul Gödel senior und junior sind in Brünn schon im Jahre 1744 als Lederer (Gerber) erwähnt. Verursacht durch rheumatisches Fieber litt Gödel in seiner Kindheit oft unter einem schlechten Gesundheitszustand. Trotzdem zeigte er schulische Bestleistungen. 1912 trat Gödel in eine Privat-Volks- und Bürgerschule ein, vier Jahre später in das deutschsprachige k.k. Staatsrealgymnasium. Nach dem Ersten Weltkrieg wurde die Stadt Brünn 1918/1919 Teil der neu gegründeten Tschechoslowakischen Republik. Gödel, der nur schlecht Tschechisch sprach, fühlte sich in dem neu gegründeten Staat nicht heimisch. 1923 nahm Gödel die österreichische Staatsbürgerschaft an, zog im Herbst 1924, nach Ablegung der Reifeprüfung am Gymnasium, nach Wien und schrieb sich an der Universität Wien zunächst im Studiengang für Theoretische Physik ein. Er beschäftigte sich im darauffolgenden Jahr hauptsächlich mit physikalischen Themen. Außerdem besuchte er die philosophische Vorlesung von Heinrich Gomperz sowie die Vorlesung über die Zahlentheorie von Philipp Furtwängler. Diese beiden Professoren gaben Gödel die entscheidenden Impulse, sich intensiv mit den Grundlagen der Mathematik auseinanderzusetzen, die auf der formalen Logik sowie der Mengenlehre beruhen. Kurz nach Beginn seines Studiums begann er den Wiener Kreis zu besuchen, einen akademischen Zirkel, der von Moritz Schlick ins Leben gerufen worden war und sich mit den methodischen Grundlagen des Denkens und somit den Grundlagen jedweder Philosophie auseinandersetzte. Die Gespräche mit den anderen Mitgliedern der Gruppe, von denen insbesondere Hans Hahn, Karl Menger sowie Olga Taussky für Gödel von besonderer Bedeutung waren, führten ebenfalls zur Erweiterung seines mathematischen Wissens. Auch was sein Privatleben betraf, waren die Treffen des Zirkels für ihn von Bedeutung, da er hier 1927 zum ersten Mal seine spätere Frau Adele Nimbursky, 1899 als Adele Porkert geboren, traf. Als er im Juli 1928 mit seinem Bruder in eine neue Wohnung im 8. Bezirk, Florianigasse 42 (Gedenktafel), zog, befand sich diese zufälligerweise direkt gegenüber der Wohnung von Adele Nimbursky. Auf Grund dieser Nachbarschaft gingen die beiden jetzt eine Beziehung ein. Adele stammte aus kleinbürgerlichen Verhältnissen, arbeitete als Kabaretttänzerin und war wenig gebildet. Sie war fast sieben Jahre älter als Gödel und bis 1933 mit dem Fotografen Nimbursky verheiratet, bevor sie sich von diesem scheiden ließ. Außerdem bestand ein Konfessionsunterschied – sie war katholisch und Gödel evangelisch. Gödels Eltern betrachteten die Beziehung als Mesalliance, was das Paar veranlasste, sie zunächst geheim zu halten. Studium. Fasziniert von den Gesprächen im Wiener Kreis, besuchte Gödel das Mathematische Kolloquium von Karl Menger und wurde hier mit den Grundlagenproblemen der Mathematik und Logik seiner Zeit vertraut. Besonders lernte er Hilberts Programm kennen, das die Widerspruchsfreiheit der Mathematik erweisen sollte. Unter anderem deshalb gehörte die erste Auflage des Lehrbuchs "Grundzüge der theoretischen Logik" von David Hilbert und Wilhelm Ackermann zu seiner Lektüre, die die hauptsächliche Grundlage für seine eigene Dissertation über die Vollständigkeit des engeren Kalküls der Prädikatenlogik erster Stufe von 1929 werden sollte (genauer Titel: "Über die Vollständigkeit des Logikkalküls"). Für diese Arbeit wurde ihm am 6. Februar 1930 die Doktorwürde verliehen. Sein Doktorvater war Hans Hahn. Weitere Forschung zu Hilberts Programm. Die 1930er Jahre waren für Gödel hauptsächlich von wissenschaftlicher Arbeit geprägt, die zunächst auf die Durchführbarkeit des um 1920 formulierten Hilbertprogramms gerichtet war. Er beschäftigte sich mit der Kontinuumshypothese und der Frage, ob sich die Arithmetik (die Theorie der natürlichen Zahlen) vollständig und widerspruchsfrei axiomatisieren lasse. Diese beiden Fragen waren gleichzeitig die ersten beiden der berühmten 23 Probleme gewesen, deren erste zehn Hilbert bereits 1900 auf dem Zweiten Internationalen Mathematikerkongress in Paris dem anbrechenden neuen Jahrhundert aufgegeben hatte. Die Kontinuumshypothese ist die mengentheoretische Aussage, dass jede Menge, die mächtiger als die Menge der natürlichen Zahlen ist, mindestens so mächtig wie die Menge der reellen Zahlen, das namensgebende Kontinuum, ist. Hilbert war überzeugt, die Mathematik und damit auch Zahlentheorie (Arithmetik) und Mengenlehre sei "vollständig" in dem Sinne, dass sich schließlich feststellen lasse, ob eine mathematische Aussage wie die Kontinuumshypothese zutreffe oder nicht. Die Unvollständigkeitssätze. Hatte Gödels erste Arbeit noch als ein Hinweis auf die Durchführbarkeit des Vorhabens gelten können, so war seine bedeutendste Arbeit, die er im Jahr 1931 veröffentlichte, das Ende des Traums von David Hilbert. In der Arbeit mit dem Titel "Über formal unentscheidbare Sätze der Principia mathematica und verwandter Systeme" bewies Gödel den ersten Gödelschen Unvollständigkeitssatz. Dieser besagt, dass in einem widerspruchsfreien Axiomensystem, das genügend reichhaltig ist, um die Arithmetik der natürlichen Zahlen in der üblichen Weise aufzubauen, und das überdies hinreichend einfach ist, es immer Aussagen gibt, die aus diesem weder bewiesen noch widerlegt werden können. Hinreichend einfach bedeutet dabei, dass das Axiomensystem eine entscheidbare Menge ist. Als zweiter Gödelscher Unvollständigkeitssatz wird Gödels Korollar zum ersten bezeichnet, wonach die Widerspruchsfreiheit eines solchen Axiomensystems nicht aus dem Axiomensystem selbst ableitbar ist. Insbesondere sind allerlei Teiltheorien der gesamten Arithmetik – letztere wollte Hilbert vollständig und widerspruchsfrei axiomatisieren – mächtig genug, um ihre eigene Syntax und ihre Schlussregeln darzustellen. Entsprechende Axiomatisierungen sind daher entweder Insbesondere ist dann eine vollständige und widerspruchsfreie Arithmetik nicht hinreichend einfach. Hilbert bemühte zuletzt (um 1930) tatsächlich eine ω-Regel, der zufolge (ungefähr) zutreffende Allaussagen Axiome sein sollten, offenbar um seine Überzeugung der vollständigen Axiomatisierbarkeit zu retten. So aber ist die Menge der Axiome nicht mehr hinreichend einfach. Der Beweis der Unvollständigkeitssätze beruht auf einer Formalisierung von Antinomien der Form "Ich spreche jetzt nicht die Wahrheit." Er formulierte dieses Paradoxon mathematisch präzise, indem er die mathematischen Aussagen für natürliche Zahlen betrachtete, und feststellte, dass man jede dieser Aussagen selbst als natürliche Zahl schreiben kann. Diese heißt Gödelnummer, und ihre Errechnung heißt danach "Gödelisierung." Wenn man jedoch Aussagen über natürliche Zahlen selbst als natürliche Zahlen auffassen kann, dann kann man selbstbezügliche Aussagen genannter Art formulieren. Das ist eine Variante von Cantors Diagonalverfahren. Genauer konstruierte er ein Beweisbarkeitsprädikat als zahlentheoretische Formel Bew("x"), die genau dann wahr wird, wenn man die Variable "x" überall durch eine formale Darstellung der Gödelnummer eines beweisbaren Satzes der untersuchten Theorie ersetzt. Er zeigte, dass es eine natürliche Zahl "n" mit formaler Darstellung N gibt, so dass "n" die Gödelnummer der Negation von Bew(N) ist. Die zugehörige negierte Formel ¬Bew(N) drückt also ihre eigene Unbeweisbarkeit aus und ist in der untersuchten Theorie weder beweisbar noch widerlegbar, falls diese widerspruchsfrei ist. Der Zweite Unvollständigkeitssatz wird zumeist so aufgefasst, dass Hilberts Programm, die Widerspruchsfreiheit der Mathematik oder wenigstens der Arithmetik zu beweisen, nicht durchführbar und das zweite Problem aus Hilberts Liste von 23 mathematischen Problemen unlösbar sei. Allerdings bezieht sich diese Schlussfolgerung auf Gödels natürliche arithmetische Darstellung der Beweisbarkeit, dem Beweisbarkeitsprädikat Bew("x"). Bei bestimmten künstlichen Modifikationen von Gödels Beweisbarkeitsprädikat gilt der Zweite Unvollständigkeitssatz nicht mehr. Eine solche Modifikation wurde zuerst von John Barkley Rosser bald nach Gödels Veröffentlichung vorgeschlagen; inzwischen versuchen Spezialisten zu klären, worin der Unterschied zwischen "natürlich" und "künstlich" eigentlich besteht. Intuitionistische Logik, Beweisbarkeitslogik. Hilberts Programm stand im Rahmen allgemeiner Versuche seiner Zeit, die Grundlagen der Mathematik zu klären. Dem als Formalismus bezeichneten Ansatz Hilberts hierzu stand Luitzen Egbertus Jan Brouwers Intuitionismus gegenüber. Der philosophische Ansatz des Intuitionismus schlug sich als intuitionistische Logik im Bereich der mathematischen Logik nieder, geschaffen von Arend Heyting. Für Gödel war der intuitionistische Ansatz kaum weniger interessant als Hilberts Programm. Vor allem das Verhältnis der intuitionistischen Logik zur klassischen Logik war für Gödel wie für andere Logiker seither ein fesselnder Untersuchungsgegenstand – unabhängig davon, ob man sich selbst philosophisch als Intuitionist ansah. Zwischen solchen und klassisch geprägten Mathematikern besteht ein Verständigungsproblem. Aus klassischer Sicht verwenden intuitionistisch ausgerichtete Mathematiker dieselben Wörter wie klassisch geprägte Mathematiker – bloß in einer ganz anderen, rätselhaften Bedeutung. So scheint ein Intuitionist aus klassischer Sicht nur "A ist beweisbar" zu meinen, wenn er "A" sagt. Gerade nach Gödels Entdeckungen bedeutet Wahrheit aber längst nicht Beweisbarkeit. Intuitionistische Mathematiker unterwerfen ihre Behauptungen demnach strengeren Anforderungen als klassisch geprägte. Ein Intuitionist glaubt nicht alles, was ein klassisch geprägter Mathematiker glaubt. Gödel widerlegte 1933 diese eingeschränkte Vorstellung von Heytings Arithmetik in gewisser Weise. Oberflächlich ist Heytings Arithmetik klassischen arithmetischen Theorien zwar unterlegen, dieser Anschein schwindet aber, wenn man auf die besondere Rolle der Negation achtet. Gödel gab eine Interpretation der klassischen Arithmetik in der Heyting-Arithmetik an, die davon ausging, jede atomare Formel in ihre doppelte Negation zu verwandeln. Gödel zeigte, dass die Ausgangsformel genau dann in der klassischen Peano-Arithmetik (beschränkt auf eine Variablensorte) herleitbar ist, wenn ihre Übersetzung in der Heyting-Arithmetik herleitbar ist. Modulo dieser Übersetzung kann man also alle Theoreme der klassischen Arithmetik auch in der Heyting-Arithmetik herleiten. Gödel stützte auch die Vorstellung, dass von einem Intuitionisten geäußertes "A" von klassischen Logikern bloß als "A ist beweisbar" zu deuten ist – in abgewandelter Weise. Beweisbarkeit kann formal durch eine Ergänzung prädikatenlogischer Systeme um Modaloperatoren dargestellt werden, wie sie sonst für die Logik von "notwendig" und "möglich" verwendet werden. Erst in jüngerer Zeit wurde dann der Gedanke gründlich verfolgt, Beweisbarkeit als Spielart von Notwendigkeit zu untersuchen (Beweisbarkeitslogik). Gödel lieferte einen frühen Beitrag zu dieser Forschungsrichtung, indem er die Modallogiken zu verschiedenen Beweisbarkeitsprädikaten miteinander verglich. In diesem Zusammenhang gab er eine Interpretation der intuitionistischen Aussagenlogik in der Modallogik "S4" an. Die Übersetzung findet im Wesentlichen durch Einfügen des Notwendigkeitsoperators vor jeder echten Teilformel statt. Theoreme der intuitionistischen Aussagenlogik werden so in Theoreme von "S4" übersetzt. 1948 bestätigten McKinsey und Tarski Gödels bloße Vermutung, dass darüber hinaus "nur" Theoreme der intuitionistischen Aussagenlogik in "S4"-Theoreme übersetzt werden. Diese beiden Ergebnisse wurden 1933 veröffentlicht, zwei andere zur intuitionistischen Logik 1932 und 1958. Amerikareisen, gesundheitliche Schwierigkeiten, Kontinuumshypothese. Gödels bahnbrechende Arbeit und die verblüffenden Resultate, die aus ihr folgten, führten zu seiner Anerkennung als einer der führenden Logiker seiner Zeit. So wurde er von seinem amerikanischen Kollegen Oswald Veblen nach Princeton in das neu gegründete Institute for Advanced Study eingeladen. 1933/1934 reiste er zum ersten Mal nach Amerika und wurde dort gemeinsam mit James Alexander, John von Neumann und Oswald Veblen Gründungsmitglied der Fakultät. Allerdings begann sich in dieser Zeit seine psychische Erkrankung, die er wahrscheinlich seit seinen Kindheitstagen latent in sich trug, zum ersten Mal in der Form von depressiven Stimmungen und hypochondrischen Zwangsvorstellungen bemerkbar zu machen. Diese seelische Belastung war jedoch nur auf persönliche Einflüsse zurückzuführen. Für die aktuelle politische Situation in Europa interessierte sich Gödel nicht. Als Gödel im Frühjahr 1934 in das nunmehr diktatorisch regierte Wien zurückkehrte, hatte er bereits die Einladung für die weitere Dozententätigkeit in Princeton erhalten. Der Tod seines Mentors Hans Hahn und der zunehmende Verfall seiner Gesundheit durch seine unvollständige Ernährung (er hatte krankhafte Angst davor, vergiftet zu werden, so dass Adele alle seine Speisen vor seinen Augen zubereiten und kosten musste) führten dazu, dass er sich stattdessen im Herbst 1934 für eine Woche in ein Sanatorium begeben musste. Nach diesem Aufenthalt, der ihm genügend Erholung brachte, begann sich Gödel mit der Kontinuumshypothese zu beschäftigen, wobei er unter anderem mit John von Neumann zusammenarbeitete. Er versuchte, die Unabhängigkeit der Kontinuumshypothese von den übrigen Axiomen der Mengenlehre zu beweisen. Hierzu arbeitete er eine axiomatische Mengenlehre mit Klassen aus, die Urfassung der Neumann-Bernays-Gödel-Mengenlehre, die im Mengenbereich mit der Zermelo-Fraenkel-Mengenlehre ZFC übereinstimmt. Auf dieser Basis bewies er 1938 den 1940 publizierten Satz, dass man die Negation der Kontinuumshypothese nicht mit den ZFC-Axiomen beweisen kann, falls diese widerspruchsfrei sind (siehe Konstruierbarkeitsaxiom). 1963 vervollständigte der US-Amerikaner Paul Cohen diesen Unabhängigkeitssatz und zeigte, dass auch die Kontinuumshypothese selbst nicht bewiesen werden kann, falls ZFC widerspruchsfrei ist. Damit wurde das erste mathematisch oder grundlagentheoretisch relevante Beispiel einer von ZFC (vermeintlich der ganzen Mathematik) unabhängigen Aussage bekannt, deren Existenz Gödel mit seinem Ersten Unvollständigkeitssatz unter allgemeineren Voraussetzungen bewiesen hatte (Gödels eigene unentscheidbare arithmetische Aussage war mathematisch uninteressant). Damit war zugleich gezeigt, dass das erste Hilbertsche Problem von 1900 unlösbar ist. Gödels Gesundheit verschlechterte sich mit den Jahren immer mehr. Seit seiner Erkrankung an rheumatischem Fieber als Kind war er überzeugt, ein schwaches Herz zu haben, und entwickelte Misstrauen gegen die Ärzteschaft, die bei ihm nichts dergleichen finden konnte. Er mied Ärzte und wäre deshalb in den 1940er Jahren beinahe an einem unbehandelten Zwölffingerdarmgeschwür gestorben. Bereits 1935 verbrachte Gödel mehrere Monate in einer psychiatrischen Klinik. Als der von Gödel sehr geachtete Philosoph Moritz Schlick, einer der führenden Köpfe des Wiener Kreises, 1936 von einem ehemaligen Studenten in der Wiener Universität ermordet wurde, erlitt Gödel einen Nervenzusammenbruch. Im März 1938 wurde Österreich an das Deutsche Reich „angeschlossen“; Gödel verlor aufgrund der Umstellung des Bildungssystems seine österreichische Dozentur. Er versuchte eine adäquate akademische Stelle im NS-Bildungssystem zu erhalten. Die entsprechenden Anträge wurden jedoch sehr schleppend bearbeitet, da Gödel als Vertreter "einer stark verjudeten Mathematik" galt. Am 20. September 1938 heiratete Kurt Gödel schließlich Adele, geb. Porkert. Die väterliche Erbschaft, die Gödel für seinen und Adeles Unterhalt verbrauchte, lief allmählich aus, sodass die beiden kein gesichertes Einkommen mehr hatten. Als Gödel in Wien irrtümlich als Jude angepöbelt wurde und man ihn obendrein als kriegsverwendungsfähig einstufte, entschloss er sich endgültig, seine bisherige Heimat zu verlassen und in die USA auszuwandern. Dank seiner dortigen Unterstützer (wie Abraham Flexner und John von Neumann) und der Hilfe seiner Frau konnten die beiden im Januar 1940 das Dritte Reich mit der Transsibirischen Eisenbahn über die Sowjetunion und Japan verlassen. (Die Vereinigten Staaten waren damals am Zweiten Weltkrieg noch nicht aktiv beteiligt.) Nach seiner Einreise in die USA und der Weiterführung seiner Arbeit am Institute for Advanced Study und nach einer Einladung von Paul Arthur Schilpp (1897–1993), zu seinem Band über Bertrand Russell einen Beitrag zu schreiben, beschäftigte sich Gödel mehr mit Philosophie, besonders mit Gottfried Wilhelm Leibniz und später auch mit Edmund Husserl. Und so begann Gödel sich in Princeton immer mehr mit philosophischen Problemen zu beschäftigen und von der formalen Logik abzuwenden. Ontologischer Gottesbeweis. In seinem Spätwerk unternahm Gödel 1941 eine Rekonstruktion des ontologischen Gottesbeweises mit Mitteln der Modallogik. Das Anliegen Gödels „bestand […] im Nachweis, daß ein ontologischer Gottesbeweis auf eine Art und Weise geführt werden könne, die modernen logischen Maßstäben gerecht wird“. Eine Version dieses Beweises wurde mittlerweile durch maschinengestütze Verfahren auf Korrektheit überprüft. Der Beweis wurde erst 1970 veröffentlicht. Er schließt an die rationalistische Definition Gottes als "ens realissimum", als Träger aller konsistenten realen Prädikate, an. Noch heute wird dieser Beweis gelegentlich als tatsächlicher Versuch missverstanden, die Existenz Gottes nachzuweisen. Er zeigt aber nur die Herleitbarkeit der Behauptung der Existenz aus verschiedenen, selbst u. U. plausiblen, aber nicht notwendigerweise gültigen Annahmen. Es gelang Gödel jedoch, die Kritik Kants und Freges an jedem ontologischen Gottesbeweis zu unterlaufen: Existenz tritt nicht als reales Prädikat auf. Kurt Gödels letzte Jahre. 1942 lernte Gödel Albert Einstein näher kennen und begann mit ihm über physikalische Probleme wie die Relativitätstheorie und über philosophische Themen zu diskutieren. Gödel gab die erste Lösung der allgemeinen Relativitätstheorie mit geschlossenen zeitartigen Weltlinien an, die also zeigt, dass Zeitreisen in dieser Theorie möglich wären. Sein Beispiel eines rotierenden Universums war allerdings nicht sehr realistisch. Trotzdem war damit die Suche nach einem "Chronology-protection"-Mechanismus in der Physik eröffnet. 1950 hielt er einen Plenarvortrag auf dem Internationalen Mathematikerkongress in Cambridge (Massachusetts) über seine Kosmologie "(Rotating universes in general relativity)." Im Jahr 1947 erhielt Gödel die Staatsbürgerschaft der USA. Für das Einbürgerungsverfahren war eine richterliche Anhörung erforderlich, in der er Kenntnisse des Landes und der Verfassung zeigen musste. Bei seinen Vorbereitungen dazu entdeckte Gödel, dass die Verfassung des Landes insoweit "unvollständig" war, als es trotz ihrer die Demokratie schützenden Einzelbestimmungen möglich gewesen wäre, im Rahmen dieser Verfassung eine Diktatur zu errichten. Zwei Freunde, Albert Einstein und der Wirtschaftswissenschaftler Oskar Morgenstern, begleiteten ihn bei dem Verfahren. Dank ihrer Hilfe und eines aufgeklärt denkenden Richters konnte vermieden werden, dass Gödel sich bei der Anhörung selbst in Schwierigkeiten brachte. Das Grab von Adele und Kurt Gödel in Princeton Zwischen Einstein und Gödel entwickelte sich eine enge Freundschaft, die bis zu Einsteins Tod 1955 anhielt. Gemeinsam pflegten sie zum Institut und nach Hause zu spazieren. Neben wenigen weiteren Bekanntschaften vereinsamte Gödel aber in den 1940er und 1950er Jahren aufgrund seiner fortschreitenden psychischen Krankheit – vorwiegend Paranoia, vor allem die Angst, durch Essen vergiftet zu werden – immer mehr. Adele musste ihm alles vorkosten. Erst 1953 erhielt er eine Professur in Princeton, da er vor allem von Hermann Weyl und Carl Ludwig Siegel wegen seines merkwürdigen Verhaltens als ungeeignet angesehen wurde. 1957 wurde er in die American Academy of Arts and Sciences gewählt. In den 1960er Jahren hörte er auf, Vorlesungen zu geben, und seine Krankheit ließ ihm immer weniger die Möglichkeit, zu arbeiten oder gesellschaftlich zu interagieren. Gleichwohl galt er weiterhin als einer der führenden Logiker, und man gewährte ihm entsprechende akademische Anerkennung in Form von Auszeichnungen; sein Zustand besserte sich jedoch nicht. 1970 versuchte er zum letzten Mal zu publizieren. Die Schrift musste jedoch zurückgenommen werden, da er aufgrund der Wirkung von Psychopharmaka viele Fehler einfach übersehen hatte. Seine letzten Lebensjahre verbrachte Gödel zuhause in Princeton oder in verschiedenen Sanatorien, aus denen er einige Male flüchtete. Lediglich die Fürsorge seiner Frau, die dafür sorgte, dass er sich wenigstens halbwegs normal ernährte, hielt ihn am Leben. Als Adele Gödel 1977 aufgrund eines Schlaganfalls selbst in ein Krankenhaus eingeliefert wurde, musste sie hilflos zusehen, wie ihr Mann immer mehr abmagerte. Als sie nach sechs Monaten wieder entlassen wurde – inzwischen auf einen Rollstuhl angewiesen –, lieferte sie ihn bei einem Körpergewicht von unter 40 kg sofort in ein Krankenhaus ein. Kurt Gödel verstarb dennoch wenige Wochen später an Unterernährung und Entkräftung. Seine Frau starb 1981. Mathematisches Werk. Nach Gödel sind außerdem Gödelnummer und Gödelisierung benannt. In den 1980er Jahren wurde bekannt, dass Gödel in einem Brief an John von Neumann 1956 bereits das P-NP-Problem formuliert und in seiner großen Bedeutung herausgestellt hat. Sonstiges. 2011 brachte der österreichische Autor Daniel Kehlmann in Salzburg und Graz sein Theaterstück "Geister in Princeton" heraus, das sich mit Kurt Gödel befasst. Er wurde 2012 in Wien mit dem Nestroy-Theaterpreis als Autor des besten Stücks ausgezeichnet. Eine Lücke in Gödels Arbeit "Zum Entscheidungsproblem des logischen Funktionenkalküls" von 1933 fand Stal Anderaa Mitte der 1960er Jahre und Warren Goldfarb, der 1984 bewies, dass die entsprechende Theorie (mit zwei Allquantoren gefolgt von einer beliebigen Anzahl von Existenz-Quantoren und mit Identität) entgegen Gödels Behauptung sogar unentscheidbar war. Künstler. "Das Gehirn eines Künstlers", Radierung von Daniel Chodowiecki Als Künstler werden heute meist die in der Bildenden Kunst, der Angewandten Kunst, der Darstellenden Kunst sowie der Literatur und der Musik kreativ tätigen Menschen bezeichnet, die Kunstwerke schaffen. Im Kontext der deutschen Geistesgeschichte ist dagegen das Künstlertum nicht nur lapidar ein Beruf, sondern eine menschliche Daseinsform. Für Goethe und Schiller war der Künstler der Inbegriff eines gebildeten Menschen. Diese philosophische Auffassung zieht sich als roter Faden von der Klassik über Wilhelm von Humboldt, zu Thomas Mann und vielen weiteren. Die allgemein–gesellschaftliche Reduzierung des umfassenden Begriffs des Künstlers als kreatives, gebildetes Individuum der Lebenskunst zur alleinigen Berufsbezeichnung fand erst im letzten Jahrhundert statt. Heutiges Berufsbild. Die Abgrenzung künstlerischer Tätigkeit zu Handwerk und Kunsthandwerk ist fließend. Dabei kann der Grad der Originalität einer künstlerischen Idee, eines Entwurfs, einer Ausführung oder einer Darstellung entscheidend sein. Ebenso ist die Grenze zur „nutzbringenden“ Technik nicht immer eindeutig feststellbar. Abgesehen vom reinen freischaffenden Künstler sind Auftraggeber für künstlerische Arbeit neben Privatleuten oft staatliche Stellen, Kirchen, Firmen oder Mäzene, zum Teil über Förderpreise und Stipendien. Daneben kann der Künstler auch fest beschäftigt sein (Regisseure des Schauspiels, Berufsmusiker, historisch auch der Hofmaler). Auftraggeber, die Kunstfreiheit nicht achten, fordern oft, dass Künstler religiöse oder politische Vorgaben erfüllen und ikonologische und modische Eingriffe hinnehmen sollen. Gesetzliche Definition in Deutschland. Das Gesetz orientiert sich an typischen Berufsbildern: Ein Grafik-Designer oder Musiker gilt als Künstler, ein Möbeltischler als Handwerker. Die deutsche Künstlersozialkasse nennt vier Berufssparten, die ihre Leistungen erhalten: "Bildende Kunst, Darstellende Kunst, Musik" und "Wort". "Visuelle Kommunikation" und "Design" werden zur bildenden Kunst gezählt. Schriftsteller mit oder ohne Kunstanspruch sind im Bereich Wort publizistisch Tätige. Der Umsatzsteuersatz für Künstler und Freischaffende beträgt in Deutschland 7 %. Gesetzliche Definition in Österreich. Damit fallen auch beruflich als Künstler einschlägig ausgebildete unter den Begriff "künstlerische Tätigkeit", was im Besonderen die "Lehrtätigkeit" mitumfasst. Einkommensteuerrechtlich kann ein Künstler sowohl im Rahmen eines Dienstverhältnisses (Arbeitnehmer) tätig sein als auch selbständig, und rechnet dann im Allgemeinen auf Werkvertragsbasis ab. Umsatzsteuerrechtlich ist der Begriff dahingehend relevant, dass freischaffende Künstler in Österreich nur 10 % Umsatzsteuersatz verrechnen. Künstlerin. „Künstlerin” ist im alltäglichen Sprachgebrauch, unterstützt durch Forderungen der feministischen Linguistik, eine selbstverständliche Berufsbezeichnung und wird in staatlich bestimmten Zusammenhängen gleichgestellt zu „Künstler” verwendet, so in Deutschland, oder oben zitiertem österreichischen Künstler-Sozialversicherungsfondsgesetz. In diesem Fall ist geschlechtergerechte Sprache zu Alltagskultur geworden. Damit soll der Anteil der Leistungen von Frauen in der Kunst sichtbarer, ihre verdrängte Geschichte in der Kunst bewusster, und die beruflich teils andere Situation von Künstlerinnen leichter darstellbar werden. Dagegen sind Formulierungen wie „weiblicher Künstler“ die Ausnahme. Ausbildung. Oft wird der Grad einer Befähigung Künstler zu sein, stereotypisch anhand einer Ausbildung bemessen; so wird „reine Kunst“ eher in einem Studium an Hochschulen bzw. Kunsthochschulen gelehrt, während kommerzielle, pragmatische Kunstaspekte eher an Fachhochschulen vermittelt werden. Weiter gefasst spielt eine Ausbildung zum Künstler jedoch keine Rolle; es finden sich zahlreiche Autodidakten in der Kunstszene, die Wert darauf legen "keine" Ausbildung zu besitzen. Wer als Künstler angesehen wird, hängt entscheidend vom vorherrschenden oder individuellen Kunstbegriff ab. Selbstverständnis bildender Künstler im historischen Wandel. Anhand von Selbstportraits seit der Renaissance lässt sich nachzeichnen, wie sich der Stand der malenden Künstler, ihre Haltung zur Gesellschaft und zu sich selbst im Laufe der Jahrhunderte verändert haben. Während bis zum ausgehenden Mittelalter der bildende Künstler namentlich unbekannter Handwerker war, er sich dann zuerst noch zurückhaltend "in assistenza" selber zeigt, wie Botticelli oder Dürer, kann man bis hin in die Gegenwart das sich verändernde Selbstbild nachweisen, das nach der Einführung des Genie-Begriffs und dem Divino artista im Verlauf der Renaissance, folgender barocker Selbstsicherheit bis hin zu Vincent van Gogh der kritischen Selbstüberprüfung voller Zweifel weicht. Zeitgenössische Künstler. In der Zeitgenössischen Kunst sind Künstler, die im internationalen Kunstbetrieb wahrgenommen werden, nicht auf traditionelle Kunstsparten zu reduzieren. Ihre Rolle verändert sich durch interdisziplinäre Herangehensweisen, durch Bezüge zu geisteswissenschaftlichen oder naturwissenschaftlichen Erkenntnissen, durch neue Kunstformen in neuen Medien, siehe Digitale Kunst, und durch die ständigen Veränderungen auf dem Kunstmarkt und im Kunstbetrieb. Literatur, Film, Musik, Theater und Bildende Kunst gehen in Neuen Medien ineinander über und die Grenzen zwischen „reiner Kunst“, L’art pour l’art, engagierter Kunst und Kunstkommerz sind durchlässig. Welche Werke und Künstler am Kunstmarkt begehrt sind, hängt von vielen Faktoren ab. Nicht immer sind allein künstlerische und kunsthistorische Qualitäten ausschlaggebend. Die mediale Darstellung des Künstlers und seiner Kunst können die Wertschätzung stark beeinflussen. Deshalb arbeiten Künstler oft im Verbund mit professionellen Vermittlern, wie Kunsthändlern, Galeristen und Kulturmanagern. Der Name eines Künstlers kann in solchen Vermarktungszusammenhängen zur Handelsmarke werden und seine mediale Präsenz zu Kapital. Die Orientierung an bekannten Künstlernamen und ihre ständige Erwähnung (engl.: namedropping) gehört daher zu den Eigenheiten des Kunstbetriebs, ähnlich dem Starkult in der Musik. Dagegen steht das Ideal, sich als Betrachter unvoreingenommen auf Kunstwerke einzulassen und von ihrer Qualität ausgehend eine Künstlerin oder einen Künstler zu entdecken. Kunst. Das Wort Kunst bezeichnet im weitesten Sinne jede entwickelte Tätigkeit, die auf Wissen, Übung, Wahrnehmung, Vorstellung und Intuition gegründet ist (Heilkunst, Kunst der freien Rede). Im engeren Sinne werden damit Ergebnisse gezielter menschlicher Tätigkeit benannt, die nicht eindeutig durch Funktionen festgelegt sind. Kunst ist ein menschliches Kulturprodukt, das Ergebnis eines kreativen Prozesses. Das Kunstwerk steht meist am Ende dieses Prozesses, kann aber seit der Moderne auch der Prozess selbst sein. Ausübende der Kunst im engeren Sinne werden Künstler genannt. Künstler und Kunst genießen in Deutschland und vielen anderen Ländern Kunstfreiheit; diese ist in Deutschland ein durch Abs. 3 Grundgesetz geschütztes Grundrecht. Ausdrucksformen und Techniken der Kunst haben sich seit Beginn der Moderne stark erweitert, so mit der Fotografie in der bildenden Kunst oder mit der Etablierung des Comics als Verbindung bildender Kunst mit der Narrativität der Literatur. Bei den Darstellenden Künsten, Musik und Literatur lassen sich heute auch Ausdrucksformen der Neuen Medien wie Hörfunk, Fernsehen und Internet hinzuzählen. Die klassische Einteilung verliert spätestens seit den letzten Jahrzehnten des 20. Jahrhunderts an Bedeutung. Kunstgattungen wie die Installation oder der Bereich der Medienkunst kennen die klassische Grundeinteilung nicht mehr. Etymologie und Wortgebrauch. "Kunst" ist ein deutsches Wort. Bereits im Althochdeutschen lautete es "kunst" (Plural "kunsti"), im Mittelhochdeutschen "kunst" (Pl. "künste"). Ursprünglich ist "kunst" ein Substantivabstraktum zum Verbum "können" mit der Bedeutung „das, was man beherrscht; Kenntnis, Wissen, Meisterschaft“. Die Redewendung „Kunst kommt von Können“ ist also etymologisch, dem Wortursprung nach, richtig. Die heutige Bedeutung des Wortes hat sich dadurch entwickelt, dass zusätzlich der lateinische Begriff "ars" mit „Kunst“ ins Deutsche übersetzt wurde (Lehnbedeutung), beispielsweise in "ars vivendi". Besonders seit der Neuzeit wird der Begriff zunehmend mehrdeutig, weil neben alten Verwendungen des Wortes - im Sinne von „Lehre, Wissen“ - neue auftreten - im Sinne des Plurals "Künste" als „Kunstgattung“, etwa "autonome" bzw. "schöne Künste". Vorgeschichte. Kunst ist vom Ursprung her eine kultische Erscheinung, die sich zeitgleich oder im Zusammenhang mit vorzeitlichen Kulten oder Religionen entwickelte. Sowohl Malerei und Skulptur als auch Musik und Tanz treten bereits in der Altsteinzeit in Erscheinung. Zu den frühesten Zeugnissen von Kunst gehören die knapp 40.000 Jahre alten Elfenbeinfiguren aus dem Lonetal, die Flöten aus dem Geißenklösterle oder die Höhlenmalereien aus der Grotte Chauvet. Historisch entwickelten sich die Künste aus ihrem Beitrag zur materiellen Organisation von Kulten und Ritualen. In der Frühzeit menschlicher Entwicklung ist das Auftreten von Kunst einer von mehreren Indikatoren für die Bildung von Bewusstsein und menschlichem Denken. "Kunst" bezeichnet in diesem Zusammenhang Verrichtungen oder Darstellungen (z. B. Musizieren, Bemalung), die keinen unmittelbaren Nutzen zur Lebenserhaltung erkennen lassen. Bei heutigen Naturvölkern lässt sich die frühe Kultfunktion von künstlerischen Ausdrucksformen ebenso studieren wie eine anthropologische Konstante: das Bedürfnis (sich) zu schmücken, das sich im Ornament zuerst herausgebildet hat. Diskutiert werden außerdem soziale Funktionen von künstlerisch bzw. ornamental gestalteten Artefakten wie Spangen, Fibeln, Waffen etc. in den Clangesellschaften der Ur- und Frühgeschichte. Damit fungiert "Kunst" seit frühester Zeit auch als Distinktionsmerkmal, wie es von der jüngeren Kunsttheorie und -soziologie diskutiert wird. Anthropologisch markiert Kunstproduktion vor ca. 40.000 Jahren (im Aurignacien) den Übergang vom Homo sapiens zum Homo sapiens intellectus. Da die Vorgeschichte per definitionem eine schriftlose Epoche ist, gibt es keinerlei Überlieferungen eines zeitgenössischen Kunstbegriffs. Altertum. Von den frühen bis zu den späten antiken Kulturen, vom ägyptischen Alten Reich über das klassische Griechenland bis zum späten Rom, sind eine Fülle von Kunstwerken erhalten: Architektur, Skulpturen, Fresken und Kleinkunst. Dass sie als solche bezeichnet werden, ist jedoch ein Anachronismus, denn zur Zeit ihrer Entstehung galten Malerei und Bildhauerei nicht als "Kunst", sondern als Handwerk, ihre Erzeugnisse als Produkte von Handwerken, nicht aber Künstlern. Das Theater war bereits weit entwickelt und geachtet, aber wesentlich Bestandteil kultischer Handlungen. Als "freie Künste" "(artes liberales)" wurden in der Antike jene Kenntnisse und Fähigkeiten bezeichnet, die einem freien Mann – nicht aber einem Sklaven – zur Verfügung stehen sollten. Martianus Capella (um 400 nach Chr.) hat insgesamt sieben Künste in zwei Gruppen eingeteilt: das Trivium beinhaltete Grammatik, Dialektik und Rhetorik; das Quadrivium umfasste Geometrie, Arithmetik, Astronomie und Musik. Von den "Schönen Künsten" im modernen Sinn war also allein die Musik in der Antike eine anerkannte Kunst. Im Hellenismus wurden allerdings auch die Medizin und die Architektur zu den freien Künsten gezählt. Niederes Handwerk waren dagegen die "mechanischen Künste", die mit der Hand ausgeführt werden mussten, worunter eben auch die Malerei oder die Bildhauerei fielen. Der Antagonismus von "Kunst", die vorwiegend aus dem Geist entsteht, und "Kunst", die manuell gefertigt werden muss, wird sich in der bildenden Kunst über 2.000 Jahre immer wieder anders manifestieren, vom Paragone in der Renaissance (dem Wettstreit der Kunstgattungen, welche die edelste von allen sei) über den deutschen Idealismus des 18. Jahrhunderts und seinen Anteil am modernen Kunstbegriff (der technisches Können nur noch als banales Werkzeug des Künstlers begreift seiner Idee Ausdruck zu verleihen) bis hin zur Konzeptkunst der sechziger Jahre des 20. Jahrhunderts, die die künstlerische Idee gänzlich vom ausgeführten Gegenstand entkoppelt. Mittelalter. Mit den Umbrüchen der Völkerwanderungszeit löste sich das antike Kunstleben in Europa so gut wie auf. Der mittelalterliche Kunstbegriff übernimmt jedoch das Schema der "artes mechanicae" wie der "artes liberales", der "freien Künste" des (philosophischen) Grundstudiums, die in den drei großen Fakultäten Theologie, Jurisprudenz und Medizin vorausgesetzt wurden. Der bildende Künstler ist nach wie vor Handwerker und in Zünften wie alle anderen Berufe organisiert. Als Individuum tritt er selten in Erscheinung, die Signatur eines Werkes ist unüblich. Auftraggeber für fast alle künstlerischen Produktionen – Malerei, Bildhauerei, Musik, Theater – ist die Kirche. In geringerem Maße lässt sich auch der feudale Adel Auftragsarbeiten liefern. Es entstehen profane und sakrale Ausdrucksformen, Bildtypen, Musikformen und anderes. Vertrat man in der Antike noch ein naturalistisches Menschenbild und versuchte, die Natur möglichst gut nachzuahmen, so definierte sich Schönheit im Mittelalter über den geistigen (religiösen) Gehalt einer Darstellung, wie er von den Scholastikern als Schönheit Gottes erkannt wurde, die sich in der Kunst widerspiegeln sollte. Frühe Neuzeit. Der Stellenwert der bildenden Kunst und der Arbeit des Künstlers ändern sich in der Neuzeit mit dem Übergang zu einer bürgerlichen Gesellschaft: Wo vorher meist im Auftrag von Kirche und Adel Werke geschaffen werden, wächst mit dem gebildeten Kunstsammler ein neuer Rezipiententyp heran. Dieser Prozess beginnt zuerst in Italien mit der Frührenaissance und setzt sich ab Mitte des 15. Jahrhunderts in ganz Europa fort. Die Städte erstarken und mit ihnen die Kaufleute, die ihre neue Stellung in der Feudalgesellschaft mit Kunst demonstrieren. Der Künstler emanzipiert sich, entdeckt sich als Subjekt, und schafft Werke, deren Hauptzweck nicht mehr die Vorstellung eines Glaubensinhalts oder der Macht eines Fürsten ist, sondern die fachkundige Debatte über Entwurf, Ausführung und Könnerschaft, und "Künstler" wird Beruf. So entstehen hochkomplexe ikonografische Bild- und Architekturprogramme, die zu enträtseln eine Aufgabe für das Kunstpublikum wird. Es entsteht eine neue literarische Gattung: "Ekphrasis", Kunstliteratur, Schreiben über Künstler und Kunst, und Betrachtung („Kunstgenuss“) als Bestandteil der künstlerischen Intention. Der nunmehr autonome Künstler denkt über seine Rolle nach, was in der bildenden Kunst im "Paragone" öffentlich gemacht wird. Die „Wiedergeburt“, die im Begriff "Renaissance" angesprochen wird, bezieht sich auf die erneute Anknüpfung an die klassische Antike, auf deren Menschenbild und Naturbegriff die Kunstproduktion aufbaut. In der Musik und Literatur blühen profane Werke. Die "Reformation" forciert die Schwächung der römisch-katholischen Kirche als wichtigstem Auftraggeber der Künstler, was auf dem Konzil von Trient mit einem ausführlichen Gegenkonzept beantwortet wird. Die Notwendigkeit einer katholischen Gegenreformation legt den Grundstock für die Explosion der künstlerischen Produktion in Musik und bildender Kunst im "Barock". Aufklärung. In der zweiten Hälfte des 18. und am Anfang des 19. Jahrhunderts, im Zeitalter der Aufklärung, begannen die gebildeten Kreise Gemälde, Skulpturen und Architektur sowie Literatur und Musik als Kunst im heutigen Wortsinn zu diskutieren. Themenverbindend wurde die "Ästhetik" in Abgrenzung zum Hässlichen als Kategorie zur Qualifizierung von Kunstwerken begründet. Freiheit wurde zum Ideal für Politik, Wissenschaft sowie für die sich allmählich als eigenständige Bereiche herausbildenden Gattungen Literatur und Kunst. Der handwerkliche Aspekt künstlerischen Schaffens verlor an Bedeutung. Mit dem deutschen Idealismus stand die Idee über dem Artefakt. Eine der wichtigsten Voraussetzungen für diesen Prozess war die durch die beginnende industrielle Revolution beschleunigte Säkularisierung. Die Differenzierung zwischen Literatur und Kunst war das Ergebnis der kurz zuvor begonnenen Literaturdiskussion, die sich nicht mehr mit allen geistigen Arbeiten befasste, sondern Romane, Dramen und Gedichte als "Literatur" in einem gewandelten Wortsinn zusammenfasste. Im Bestreben, ein größeres Publikum anzusprechen, wurde der Terminus "Kunst" zunächst auf Gemälde und Skulpturen verengt, auf Gegenstände, die in den Zeitungen und Zeitschriften – den Journalen, die es seit dem frühen 18. Jahrhundert gab – vorgestellt und beurteilt wurden. Es entstand ein verbreitetes Rezensionswesen. Die Begriffe "Werk", "Original" und "Genie" als Ausdrucksformen der Individualität des Künstlers wurden durch Kant geprägt. Man unterschied zwischen "inneren" und "äußeren" Bildern. Innere Bilder waren zum Beispiel Sprache, Vorstellungen und die Ideen, äußere hingegen Einrichtungsgegenstände, Bauwerke oder handwerklich gefertigte Produkte. Dem Freiheitsgedanken gemäß ist der bildende Künstler nicht mehr einem Auftraggeber verpflichtet, sondern produziert unabhängig für einen neu entstehenden Kunstmarkt. Damit wandeln sich zum einen die Themen, die statt religiöser und mythologischer Motive, Porträt und Allegorie nun zum Beispiel auch Schilderungen aus der Arbeitswelt des aufkommenden Industriekapitalismus umfassen. Zum anderen entwickeln sich individuelle Stile, die nicht zuletzt als Markenzeichen, modern gesprochen als Marketinginstrument der konkurrierenden Künstler dienen. Auch Komponisten wie Mozart verabschieden sich aus festen Anstellungen bei weltlichen oder kirchlichen Fürsten. Diese neue Freiheit ist mit entsprechenden Risiken verbunden, das romantische Bild des "verarmten Künstlers", verbunden mit dem "Geniebegriff" sind die Folgen. Moderne. Die Aufklärung bereitete den Kunstbegriff der "Moderne" vor. Emanzipierte sich am Ende des Mittelalters der Künstler zum autonomen Subjekt, so emanzipierte sich am Ende des barocken Feudalismus das "Kunstwerk" selbst und wurde autonom. Im Zeitalter von Maschinen, Arbeitsteilung und Automatisierung veränderte sich der Status von handwerklicher Tätigkeit in der Kunst. Kunst existiert nun nicht mehr in Funktionszusammenhängen, sondern allein aus sich heraus, wird zu "L’art pour l’art". Die in Funktionszusammenhängen verbleibenden Kunstformen konstituieren sich unter dem neuen Oberbegriff "Angewandte Kunst" für das Kunstgewerbe. Während in der "Stilkunde" die Stilepochenbezeichnungen nachträglich dem jeweiligen Kunstschaffen angehängt wurden, prägen nun die Künstler im Wechselspiel mit der neu aufgekommenen Kunstkritik selber ihre Kategorien. Die zahlreichen, teils parallel entstehenden "Ismen" sind jetzt eher kurzzeitige "Stil"-Begriffe als Epochenkonzepte. Mit dem Beginn der Moderne beginnt zugleich der Antagonismus der Gegenmoderne. Waren bis zur Aufklärung die Adressaten für Kunst nur ein sehr kleiner Kreis (der Klerus, der Adel, das reiche Bürgertum), so erweitert sich das Publikum mit der Entstehung des frei zugänglichen Kunstmarktes, den zu seiner Förderung veranstalteten öffentlichen Ausstellungen (Salons) und den in der Presse eröffneten Debatten über Kunst, der massenhaft verlegten Literatur etc. beträchtlich. Zugleich konzentrierte sich die künstlerische Auseinandersetzung sowohl in bildender Kunst wie der Musik oder Literatur immer stärker auf die Untersuchung der eigenen Entstehungsbedingungen. In dem Maße, in dem sich die Kunst selbst thematisierte (Metakunst), verlor sie das Interesse der breiten Schichten, denen sie als Avantgarde eigentlich vorangehen wollte. Blieben zuvor Konflikte um Kunst intern und waren beispielsweise patriotischer Natur (florentinisches "Disegno" contra venezianisches "Colore") oder eine Frage des Geschmacks (Rubenisten contra Poussinisten, Streit der "Anciens et Modernes" etc.), so verweigern nun ganze Teile der Gesellschaft der Kunst ihrer Zeit die Akzeptanz. Es entwickelt sich eine "Gegenmoderne", die ihre Ausdrucksformen in diversen der modernen Kunst entgegengesetzten Stilen sucht - z.B. durch neoklassizistische, andere historistische oder bewusst anachronistisch ausgerichtete Kunst. Dies kann als ein Protest gegen die Prinzipien moderner bzw. kontemporärer Kunst verstanden werden. Über diesen Protest weit hinaus ging die Diffamierung der modernen Kunst im Nationalsozialismus, der mit dem Schlagwort Entartete Kunst die Klassische Moderne im Ganzen zu treffen versuchte: durch Berufsverbote, höhnische Präsentationen bis hin zur physischen Vernichtung. Ab November 1936 wurden nach und nach alle Abteilungen der Kunst des frühen 20. Jahrhunderts in den deutschen Museen aufgelöst. In der Sowjetunion entstanden in den 1920er Jahren die noch als "revolutionär" empfundene Avantgarden Konstruktivismus und Suprematismus, mit Beginn des Stalinismus gewinnt der anti-moderne Reflex die Oberhand und führt zum Sozialistischen Realismus in Literatur, bildender Kunst und Musik. Entsprechend den politischen Widersprüchen im Anschluss an die Phase des Totalitarismus seit den 1930er Jahren, entwickelte sich innerhalb der Moderne der ausgehenden 1950er Jahre als zeitgenössische Widerstandsbewegung oder Post-Avantgarde in den 1960er Jahren unterschiedliche Strömungen, sowohl in Zirkeln West- als auch Osteuropas, die sich gegen die Normierung infolge des Kalten Krieges und Stalinismus in der SU wandten und verwehrten. Sie knüpften dabei an die Tradition der Salons der Frühmoderne in den Metropolen an, hatten aber eine weiterführende und verbindend-vermittelnde Funktion. Durch die Brüche der Kriege in Europa und Asien während der 1930er und 1940er Jahre, gewannen diese infolge der staatlichen Reorganisation in den 1950er Jahren nur bedingt an Dynamik. Diese gewaltsame, durch den Staat hervorgerufene Unterbindung moderner Spielarten der Kunst ist allerdings nicht mit der Unzufriedenheit einiger Bevölkerungsteile über zeitgenössische künstlerische Ausdrucksformen (vor allem in der Architektur) gleichzusetzen. Ein Nebeneinander verschiedenster Stile ist heute weitgehend akzeptiert und schafft eine große künstlerische Bandbreite in der heutigen oftmals als liberalistisch verstandenen Globalkultur und dem Paradigma der Gleichzeitigkeit, verursacht durch die technische Digitalisierung des Alltags. Postmoderne. Die "postmoderne Anschauung" von Kunst stellt zum Teil die Ideen von Freiheit, Originalität und Authentizität wieder in Frage, setzt bewusst Zitate anderer Künstler ein und verbindet historische und zeitgenössische Stile, Materialien und Methoden und unterschiedliche Kunstgattungen miteinander. Kunstbetrieb und Ausstellungsorte werden von einer Metaebene aus hinterfragt "(White Cube)". Die Grenzen zwischen Design, Popkultur und Subkultur einerseits und Hochkultur andererseits verschwimmen. "Zeitgenössische Kunst", "Kunst der Gegenwart" und ähnliche Sammelbegriffe fassen gegenwartsbezogene Kunst nur sehr allgemein. Der Begriff Künstlerische Avantgarde ist für die seit Beginn der Postmoderne entstehende Kunst überholt, da es in offenen Gesellschaften und Kulturen keine allgemeinverbindliche Richtung für eine Vorhut oder für Vorreiter geben kann. Daher wird der Begriff „zeitgenössische Kunst“ auch zur Umschreibung für künstlerische Arbeiten oder Handlungen benutzt, die in der Gegenwart etwas so wahrnehmbar machen, dass sie kulturell bedeutend in die Zukunft wirken. In diesem Sinne freie und zeitgenössische Kunst ignoriert scheinbar alle Bedingungen, akademischen Regeln und Einteilungen, alle Kunststile, Kunstsparten und kulturellen Grenzen, während sie sich gleichzeitig die Freiheit nimmt, sie je nach künstlerischem Bedarf zu reflektieren, zu bearbeiten und zu nutzen. Derartige Kunst repräsentiert ein "System Kunst", das sich ähnlich dem "System Wissenschaft" im Laufe der Industrialisierung herausgebildet hat. Zeitgenössische Kunst als global und interkulturell funktionierendes System vereint die Ursprünge in verschiedenen Kulturen, "Kunstgeschichte" zum theoretischen Fundament von Kunst, wobei für die abendländische Kunsttradition die antike Philosophie als historische Basis besonders bedeutend bleibt. Auch zeitgenössische Kunst lässt herkömmliche Einteilungen, wie Malerei, Bildhauerei, Tanz, Musik, Theater usw. durchscheinen, zeichnet sich jedoch gerade durch ihre Thematisierung, Infragestellung, Überwindung, Erweiterung, interdisziplinäre Integration und Ironisierung aus. Heute stehen Fotografie und Performance neben Malerei und Theater, während die Medienkünste, darunter die Lichtkunst u.A. sich ohnehin so verorten, wie es jeweils mediengerecht und sachdienlich erscheint. Ähnlich wie in der Wissenschaft erschließt sich das umfassende Verständnis der möglichen Bedeutungen von Werken und Arbeiten oft erst durch eingehende Beschäftigung mit dem künstlerischen Gegenstand. Es wird in verschiedenen Kontexten interpretiert, die sich je nach Betrachter und Leser, je nach Publikum und den in das Geschehen Einbezogenen, sowie je nach Interessen der Kritiker und anderen professionellen Vermittlern wandeln und unterscheiden. In der "Kunsttheorie" wird der zeitgenössische Kunstbegriff intensiv diskutiert. Sie stellt dabei den Künstler, den Rezipienten, den "Kunstmarkt" oder das Kunstwerk selbst ins Zentrum der Untersuchung. Voraussetzungen und Funktionen. Mit der Frage, welche biologischen Grundlagen das Kunstbedürfnis des Menschen hat, bzw. welche psychologischen, soziologischen, ökonomischen und politischen Funktionen Kunst für den Menschen und die Gesellschaft hat, beschäftigen sich die Biologie, die Kunstsoziologie, die Psychologie, die Rechtswissenschaft und die Kulturwissenschaften im Allgemeinen. Biologie. Die rasante Entwicklung der Biowissenschaften hat dazu geführt, dass auch höhere kognitive Leistungen des Menschen in den biologischen Disziplinen untersucht werden. Davon sind auch das künstlerische Gestaltungsbedürfnis und die ästhetischen Empfindungen nicht ausgenommen. Biologische Untersuchungen mit Bezug auf die Kunst finden insbesondere in der Evolutionstheorie und der Neurowissenschaft statt. In der Evolutionsbiologie werden Verhaltensweisen in der Regel über einen Selektionsvorteil erklärt. Konkret bedeutet das, dass kunstbetreibende und kunstschätzende Menschen mehr Nachkommen zeugen müssten als die anderen. Ein derartiges Erklärungsmuster scheint in Bezug auf Kunst nicht unmittelbar einsichtig. Dennoch finden sich Kunstformen in allen historischen Epochen und Kulturbereichen, was darauf hinweist, dass ein Kunstbedürfnis biologisch gegeben und nicht "allein" ein Ergebnis sozialer Prägung ist. Für die biologische Verankerung des Kunstbedürfnisses können mehrere Erklärungen angeboten werden. Am wahrscheinlichsten ist die Kunst als Auswahlkriterium für die Partnerwahl. Die menschliche Evolution ist durch eine Zunahme des Gehirnvolumens und damit der kognitiven Fähigkeiten geprägt. Die Fähigkeit Kunst zu produzieren ist ein von außen erkennbarer Hinweis auf einen kreativen Kopf, der auch in anderen Problemfeldern zu kreativen Lösungen kommen kann. Menschen, die Zeit für Kunst hatten, hatten keine Probleme, die täglichen Bedürfnisse nach Nahrung und Sicherheit zu stillen: Wer neben dem Alltag noch Reserven für primär sinnfreie Tätigkeiten wie Kunst hat, stellt damit seine Überlebensfähigkeit dar. Der Mensch als soziales Wesen hat viele Mechanismen entwickelt, seine sozialen Gemeinschaften zu stärken. Auch die Kunst kann als Spender gruppenspezifischer Traditionen und Werte menschliche Gemeinschaften stützen. Eine andere Hypothese geht davon aus, dass das Kunstbedürfnis ein Nebenprodukt (Epiphänomen) der Entwicklung anderer überlebensrelevanter, kognitiver Leistungen ist. Die Vorteile dieser kognitiven Fähigkeiten müssten demzufolge die Nachteile des Kunstbedürfnisses (Zeit, Material) übersteigen. Eine Bestätigung soziobiologischer Theorien durch Experimente ist nicht durchführbar, da Kreuzungsexperimente mit Menschen ethisch nicht vertretbar sind. Die Theorien müssen deshalb spekulativ bleiben. Insbesondere die Abgrenzung zum Kunstbedürfnis als Produkt der kulturellen Evolution ist schwierig. Ein anderer Aspekt der biologischen Erforschung des Kunstbedürfnisses stützt sich auf die Neurowissenschaften. Ein höchstens grob realisierbares Projekt ist dabei die Zuordnung künstlerischen Schaffens zu neuronalen Prozessen. Zwar werden bei verschiedenen kognitiven Prozessen unterschiedliche neuronale Areale aktiv, allerdings ist eine feste Zuordnung nicht möglich: Neuronale Aktivität ist grundsätzlich auf verschiedene Gehirnregionen verteilt, zudem werden die gleichen Regionen bei sehr unterschiedlichen kognitiven Leistungen aktiv. Hinzu kommt die enorme Heterogenität künstlerischer Aktivität. Sie führt dazu, dass sich allenfalls einzelne künstlerische Leistungen mit neuronalen Prozessen korrelieren lassen. Psychologie. Sigmund Freud sah in der Kunst – wie in jeder kreativen Tätigkeit – eine Möglichkeit, den Trieb der Libido auf nicht-sexuelle Weise zu sublimieren. Der Kunstbegriff in umfassender Bedeutung. Es gibt die schönen Künste, aber auch die ärztliche und die Ingenieurskunst, die Kunst der Rede oder der Diplomatie, den Ballkünstler, und auf sehr vielen Gebieten den Künstler in seinem Fach. Was ist, in dieser umfassenden Bedeutung, aller Kunst gemeinsam – und was unterscheidet dann die Künstler in den jeweiligen Fächern voneinander? Kunst in diesem sehr weiten Sinn ist eine kreative Tätigkeit (und deren Ergebnis), die mit höchster Effizienz ausgeübt wird; dass also, gemessen an den eingesetzten Mitteln, mit dem Ergebnis eine möglichst große Wirkung erzielt wird. Bei vergleichbarer Wirkung erfährt nicht der höhere, sondern der vergleichsweise maßvollere Aufwand die höhere Wertschätzung als Kunst. Das bedeutet jedoch nicht, dass das Instrumentarium nur einfach und bescheiden sein müsste oder dass es für den Künstler immer einfach ist, zur einfachsten Lösung eines Problems oder zu den wirkungsvollsten Ausdrucksmitteln zu gelangen. Die einzelnen Formen von Kunst unterscheiden sich aber in der Art der Wirkung, und diese hängt vom Sachgebiet ab. Das Ziel der Ingenieurskunst ist z.B. die elegante Brücke, das Wesentliche am Essay ist die scharfsinnige Analyse, der Schwerpunkt der schönen Künste liegt vorwiegend im Wecken und Anregen von Gefühlserlebnissen. Ärztlich ist die Kunst, wenn sie wirkungsvollere Wege findet, die Gesundheit zu erhalten oder sie wiederherzustellen, und das mit weniger Aufwand als mit den gängigen Methoden. Man kann viele Tätigkeiten als Kunst im weitesten Sinn ausüben. Die Kriterien sind Kreativität und Effizienz. Rechtliche Stellung. Kunst ist eine Erscheinung in jeder Kultur, Gegenstand sozialer Konventionen und – sofern eine Gesellschaft ein Rechtswesen entwickelt – ein Objekt der Gesetzgebung. In demokratischen Ländern ist das Recht auf Kunstfreiheit entweder in der Verfassung verankert oder im Rahmen der Meinungsfreiheit garantiert. In zahlreichen anderen Staaten wird die Kunstausübung reglementiert und/oder zu Propagandazwecken instrumentalisiert. In Diktaturen wird Kunst häufig gezielt dazu eingesetzt, das jeweilige Regime zu stabilisieren. Freier künstlerischer Ausdruck wird einer Zensur unterworfen und mit Repressionen bedroht oder ihnen tatsächlich ausgesetzt. Wegen solcher Repressionen produzieren Künstler dann kritische Werke nicht ("Schere im Kopf"), veröffentlichen sie nicht oder gehen in eine innere Emigration. Einige Künstler verinnerlichen die staatlichen, sozialen und/oder religiösen Anforderungen und produzieren - aus Überzeugung oder aus wirtschaftlichen Zwängen - affirmative Werke. Plagiate, Imitate und stark von anderen Künstlern beeinflusste Werke gab und gibt es in jeder Phase der Kunstgeschichte. Wenn der Produzent seine Vorbilder verbirgt, ist dies als Kunstfälschung ebenso strafbar wie eine Verletzung des Urheberrechts. Um eine solche Verletzung rechtlich fassbar zu machen, werden vom Gesetzgeber Kriterien eingeführt, die im Kunstbetrieb selbst keine Rolle spielen. So kann aus der Sicht des Urheberrechts ein Künstler ein Werk erst als sein Eigentum bezeichnen, wenn es eine Schöpfungshöhe erreicht hat. Diese setzt eine persönliche, individuelle und geistige (menschliche) Schöpfung voraus, welche eine durch die menschlichen Sinne wahrnehmbare Form besitzt ("siehe" Werkbegriff des Urheberrechts bzgl. der Schöpfungshöhe). Kommunikation (soziologische Systemtheorie). Der Begriff Kommunikation beschreibt in der soziologischen Systemtheorie nach Niklas Luhmann eine Operation, die soziale Systeme erzeugt und erhält. Dieser Kommunikationsbegriff beschreibt etwas anderes als dasjenige, das allgemein unter „Kommunikation“ verstanden wird. Dies gilt insbesondere für die Vorstellung von Kommunikation als gemeinschaftlichem Handeln und auch für die Beschreibung von Kommunikation als Informationsübertragung. Kommunikation ist bei Luhmann eine Einheit aus den Selektionen "Information", "Mitteilung" und "Verstehen". Diese Einheit stellt ein soziales System her und erhält es aufrecht, so lange wie die Kommunikation anschlussfähig bleibt und weitere Kommunikationen folgen. Der Kommunikationsbegriff basiert auf der These der operationalen Geschlossenheit der Systeme. Kommunikation als Einheit dreier Selektionen verläuft gleichzeitig mit, aber operational getrennt von psychischen Systemen. Soziale und psychische Systeme sind durch strukturelle Kopplung miteinander verbunden. Kommunikation als autopoietische Operation. Lebende, psychische und soziale Systeme werden in der soziologischen Systemtheorie nach Luhmann als autopoietisch (selbstherstellend) und operational geschlossen angesehen. Durch die operationale Schließung der autopoietischen Operation „Gedanken“ und „Kommunikation“ entstehen soziale Systeme und zugleich psychische Systeme (Bewusstseine) als Umwelten sozialer Systeme. „Operationale Schließung“ bedeutet, dass keine Operation das System verlassen kann, das durch diese Operation entsteht. Die Operation, die psychische Systeme (im weiten Sinne: Bewusstsein) entstehen lässt und aufrechterhält, ist als „Gedanken“ bezeichnet. Gedanken schließen an Gedanken an und erzeugen auf diese Weise das psychische System. Kein Gedanke verlässt das Bewusstsein, das durch ihn mit gebildet wird. Die Operation, die soziale Systeme entstehen lässt und aufrechterhält, ist als „Kommunikation“ bezeichnet. Kommunikationen schließen an Kommunikationen an und erzeugen auf diese Weise das soziale System. Keine Kommunikation verlässt das soziale System, das durch sie gebildet wird. In der These der operationalen Geschlossenheit ist die Abgrenzung zum Übertragungsmodell der Kommunikation begründet. Kommunikation kann nicht in einzelnen Bewusstseinen entstehen oder durch Bewusstseinsoperationen erklärt werden. Luhmann formuliert dies an einer Stelle so: „Alle Begriffe, mit denen Kommunikation beschrieben wird, müssen daher aus jeder psychischen Systemreferenz herausgelöst und lediglich auf den selbstreferentiellen Prozeß der Erzeugung von Kommunikation durch Kommunikation bezogen werden.“ Kommunikation als Einheit von Information, Mitteilung und Verstehen. Die Trias aus Mitteilung, Information und Verstehen bestimmen den Kommunikationsprozess Kommunikation fungiert als Synthese dreier Selektionen, als Einheit von "Information", "Mitteilung" und "Verstehen". Es handelt sich dabei um Selektionen aus einer unbestimmten Menge von Möglichkeiten: Die Tatsache, dass mitgeteilt wird, ist eine Selektion (es hätte auch eine andere oder keine Mitteilung geschehen können); Die Information, die in Kommunikation entsteht, unterscheidet "dieses" und schließt im Moment der Kommunikation "alles andere" aus; Verstehen ist eine Selektion in dem Sinne, dass auch anders hätte verstanden werden können, und dass dadurch eine bestimmte Möglichkeit des Anschlusses weiterer Kommunikationen selektiert und andere ausgeschlossen werden. Die Selektion einer bestimmten Mitteilung, die auf einer Seite stattfindet, führt zu einer Selektion eines bestimmten Verstehens auf einer anderen Seite. Aus beidem zusammen entsteht für das kommunizierende System Information als selektive Unterscheidung von Verstehen und Mitteilung. Es wird "etwas" verstanden, und es wird zugleich damit von der Tatsache unterschieden, dass dieses Etwas "mitgeteilt" wurde. Die Operation Kommunikation führt so auf der Basis von einzelnen Selektionen zweier Seiten zu einer komplexeren, sich selbst stabilisierenden neuen Gesamtsituation, die als neues emergentes System gesehen wird. Kommunikation ist eine Einheit, die Mitteilen, Information und Verstehen "auf mehreren Seiten" einschließt. Kommunikation beginnt deshalb logisch mit dem Verstehen und nicht, wie oft angenommen wird, mit einer Mitteilung. Deshalb bezeichnet Luhmann in seinen Erläuterungen den Adressaten einer Mitteilung, durch dessen Selektionen Kommunikation als Einheit entsteht, als „Ego“ und den Mitteilenden als „Alter“. Dieses Verstehen – als selektive Aktualisierung einer Differenz von Mitteilung und Information – ist etwas anderes als ein psychisches Verstehen. Verstehen innerhalb der Operation Kommunikation heißt: Eine Mitteilung und eine Information werden unterschieden und zugeschrieben. Verstehen heißt nicht, die Gefühle, Motivationen, Gedanken des Anderen zu erfassen. Luhmann bezieht sich mit der Dreiteilung auf die drei Funktionen des sprachlichen Zeichens im Organon-Modell Karl Bühlers sowie auf die Typologie der Sprechakte bei Austin und Searle. Luhmann bezieht das, was Bühler als die Darstellungsfunktion der Sprache bezeichnete, auf die Selektivität der Information, die Ausdrucksfunktion auf die Selektion der Mitteilung und die Appellfunktion auf die Erwartung, dass verstanden wird und sich weitere Kommunikationen anschließen können („die Erwartung einer Annahmeselektion“). Die Operation Kommunikation weist drei Merkmale auf: Anschluss, Auswahl und Fehlerkorrektur. Die weitere Prüfung, Bestätigung oder Korrektur der Operation Kommunikation kann nur durch sich autopoietisch anschließende kommunikative Operationen geschehen. Kommunikation stabilisiert sich einerseits im Wechselspiel gegenseitiger Erwartungen und erweitert sich andererseits fortlaufend durch die so geschaffenen Möglichkeiten weiterer Bezugnahmen. Sie ist bedroht durch inadäquate, falsche, ungewollte Selektionen und grenzt sich, wenn sie erfolgreich ist, gegen diese ab. Als Einheit einer Differenz − durch den Einbezug des abstrakten Beobachtungsbegriffs – wird Kommunikation für Luhmann zu einer selbstbeobachtenden Operation. Kommunikationsmedien zur Reduktion von Unwahrscheinlichkeit. Von einem evolutionären Standpunkt aus gesehen ist für Luhmann das Zustandekommen von Kommunikation unwahrscheinlich. Die Unwahrscheinlichkeit der Kommunikation entsteht durch eine doppelte Kontingenz. Kontingenz bedeutet, dass etwas möglich, aber nicht notwendig ist. Doppelte Kontingenz bedeutet, dass (a) auf beiden Seiten (b) in Bezug auf die eine und die andere Seite eine Kontingenz besteht. Die Gesellschaft hat Einrichtungen geschaffen, um die Unwahrscheinlichkeit zu vermindern: die Medien. Kontradiktion. Kontradiktorisch (widersprüchlich) wird eine Beziehung zweier Aussagen genannt, bei der sowohl von der Wahrheit der einen Aussage auf die Falschheit der anderen geschlossen werden kann als auch von der Falschheit der einen Aussage auf die Wahrheit der anderen. Während diese beiden Aussagen auf Grund ihrer Form kontradiktorisch sind (die eine ist die Verneinung der anderen), sind viele Paare von Aussagen aus inhaltlichen Gründen kontradiktorisch. Inhaltlich widersprüchlich sind zum Beispiel die Aussagen „Das Kind ist gesund“ und „Das Kind ist krank“, weil, wer nicht gesund, krank, und wer nicht krank, gesund ist. Ob zwei Aussagen zueinander kontradiktorisch sind, hängt hauptsächlich von der inhaltlichen Bedeutung (Intension) der beteiligten Prädikatoren ab, hier von den Prädikatoren „gesund“ und „krank“. Eine Kontradiktion, auch Widerspruch oder Falsum (lateinisch "falsum" – das Falsche) genannt, ist eine Aussage, die behauptet, dass zwei kontradiktorische Aussagen zugleich zutreffen, ist also mit anderen Worten die Konjunktion zweier widersprüchlicher Aussagen, zum Beispiel die Aussage „Die Erde ist rund, und die Erde ist nicht rund“ oder der Ausdruck formula_1. In der klassischen Logik ist ein Widerspruch immer falsch. Im weiteren Sinn werden daher oft alle Aussagen, die aus rein formallogischen Gründen immer falsch sind, Kontradiktion genannt, auch wenn sie nicht die Gestalt einer Konjunktion haben. Das gängige Symbol für eine Kontradiktion ist formula_2. Von der kontradiktorischen Beziehung zu unterscheiden ist die konträre Beziehung, die genau dann zwischen zwei Aussagen besteht, wenn beide zwar nicht zugleich wahr, aber zugleich falsch sein können. Konträr sind beispielsweise die Aussagen „Hugo ist übergewichtig“ und „Hugo ist untergewichtig“: Es ist nicht möglich, dass beides zugleich zutrifft, sehr wohl aber können beide Aussagen falsch sein – im Beispiel etwa dann, wenn Hugo normalgewichtig ist. Die kontradiktorische Beziehung ist in dem Sinn stärker als die konträre Beziehung, als man bei letzterer zwar von der Wahrheit einer der beiden Aussagen auf die Falschheit der anderen Aussage schließen kann, der Schluss von der Falschheit einer der beiden Aussagen auf die Wahrheit der anderen aber nicht möglich ist: So darf man zwar von der Wahrheit der Aussage „Hugo ist übergewichtig“ auf die Falschheit der konträren Aussage „Hugo ist untergewichtig“ schließen, aber daraus, dass die Aussage „Hugo ist übergewichtig“ falsch ist, folgt nicht zwingend, dass die Aussage „Hugo ist untergewichtig“ wahr ist. Thematisch verwandt mit der Kontradiktion ist die Redefigur des Oxymoron. Einen konträren Gegensatz zur Kontradiktion bildet die Tautologie, einen zum Oxymoron konträren Gegensatz bildet die Redefigur des Pleonasmus. Klonen. Klonen (altgr. "klon" ‚Zweig‘, ‚Schössling‘) bezeichnet die Erzeugung eines oder mehrerer genetisch identischer Individuen von Lebewesen. Die Gesamtheit der genetisch identischen Nachkommenschaft wird bei ganzen Organismen wie auch bei Zellen als "Klon" bezeichnet. Das Erzeugen von identischen Kopien einer DNA wird hingegen als "Klonieren" bezeichnet. Begriffsklärung. Alle Pflanzen besitzen die Möglichkeit des natürlichen Klonens. In Zoologie und Botanik einerseits und der Reproduktionsmedizin und Zellbiologie andererseits werden verschiedene Begriffe als Klonen bezeichnet. So verstehen Zoologie und Botanik unter Klonen die teils natürliche, teils aber auch künstliche Entstehung neuer, erbgleicher Nachkommen aus größeren Gewebe- oder Organeinheiten eines Organismus. Einzellige Tiere, beispielsweise Amöben und Pantoffeltierchen, einige niedere Tiere, beispielsweise Polypen, alle Bakterien und alle Pflanzen besitzen die Möglichkeit des Klonens zur ungeschlechtlichen, d. h. vegetativen Vermehrung von Natur aus – Klonen stellt einen bedeutenden Beitrag in der Vermehrung dieser Lebewesen dar. Bei höheren Tieren ist die vegetative Vermehrung bedingt durch die wachsende Komplexität (d. h. die Zunahme der Zellzahl, die dauerhafte und weitgehend unumkehrbare Differenzierung der Zellen und der Bildung von Organen aus Geweben) sowie der ausschließlich heterotrophen Ernährungsweise nicht mehr möglich. Bei Amphibien können verlorene Extremitäten zwar unter Umständen vollständig regenerieren, das Heranwachsen eines kompletten Individuums aus einer Extremität, beispielsweise einem Bein, ist jedoch unmöglich. Eineiige Zwillinge bilden einen natürlichen Klon. Im Gegensatz hierzu bezeichnet man in der Reproduktionsmedizin und Zellbiologie als Klonen im engeren Sinne die künstliche Erzeugung eines vollständigen Organismus oder wesentlicher Teile davon, ausgehend von genetischer Information (DNA), die einem bereits existierenden Organismus entnommen wurde. Hierbei wird in einem Zwischenschritt die Gewinnung bzw. Erzeugung von totipotenten Zellen und ein Limiting Dilution Cloning nötig, in der Regel embryonaler Stammzellen. In allen Fällen kann auf diese Weise eine Ontogenese (Entwicklung) eingeleitet werden, die zu einem neuen, genetisch identischen Individuum führt, das als Klon bezeichnet wird. Der normalerweise nötige Vorgang der Fertilisation (Befruchtung), bei der zwei haploide („halbe“) Genome zweier Individuen zu einem neuen diploiden Chromosomensatz vereint werden (Geschlechtliche Fortpflanzung), wird umgangen. Bei höheren Organismen sind streng genommen alle Zellen trotz unterschiedlicher Funktionen Klone der befruchteten Eizelle (Zygote). Klonen (vegetative Vermehrung) ist somit Voraussetzung zur Bildung, Integrität und Funktion eines mehrzelligen Organismus, in dem alle Zellen das gleiche Erbgut tragen. Das natürliche Pendant zum künstlichen Klonen ist die Entstehung eineiiger Zwillinge durch Teilung der Zygote und getrennter Entwicklung der „Tochterzygoten“ zu eigenständigen Embryonen. Umgekehrt kann ein künstlich erzeugter Klon eines bereits ausgewachsenen Individuums auch als sein zeitversetzt lebender eineiiger Zwilling bezeichnet werden. In der Landwirtschaft. In der Landwirtschaft hat die ungeschlechtliche, d. h. vegetative Vermehrung, das Klonen von Kulturpflanzen, eine sehr lange Tradition. Damit soll erreicht werden, dass das Genom von Kulturpflanzen, die in der Regel durch Züchtung gewonnen wurden und bestimmte genetisch determinierte Eigenschaften besitzen, durch die Vermehrung nicht verändert wird. Zum Beispiel sind aus Knollen entstehende neue Kartoffelpflanzen Klone, genauso alle Zwiebelpflanzen. Auch der gesamte Weinanbau beruht auf Stecklingsvermehrung und Rebsorten sind im biologischen Sinne Klone. Das Gleiche gilt für alle Apfelsorten und die meisten anderen Obstsorten, die vegetativ durch Pflanzenveredelung vermehrt werden. Bei ausdauernden Kulturpflanzen, etwa bei Reben, wird meist klonenreines Pflanzgut in Verkehr gebracht, d. h. alle Reben eines bestimmten Klones stammen von einer einzigen Mutterpflanze ab. Somit ist gewährleistet, dass der gesamte Bestand innerhalb einer Kultur, etwa eines Weinberges, größtmöglich homogen ist. Der klonenreine Anbau wird teilweise mit uniformen Weinen in Verbindung gebracht, daher pflanzen einige Winzer mittlerweile Klonengemische, also verschiedene Klonherkünfte etwa der Sorte Riesling, an. In der Zellbiologie und Reproduktionsmedizin. Bei Embryonen höherer Organismen ist die Entnahme von Zellen vor dem 8-Zell-Stadium eine der Möglichkeiten zur Herstellung von Klonen. Theoretisch ist die Herstellung von acht genetisch identischen Organismen, die zusammen einen Klon bilden, durch diese Methode möglich. Die heute verwendete Methode des Klonens beruht auf der natürlichen Entwicklung eines neuen Organismus nach Nukleustransfer des Erbmaterials in eine normale Eizelle. Es gibt bisher kein Verfahren, mit dem man aus einem ausgewachsenen Tier ein neues, identisches, ausgewachsenes Tier herstellen könnte. Für einen Nukleustransfer wird dem zu klonenden Organismus eine Zelle entnommen und daraus der Zellkern isoliert. Dieser Zellkern wird in eine unbefruchtete Eizelle, deren Zellkern entnommen worden ist, eingesetzt. Zur Anregung des natürlichen Programmes der weiteren Entwicklung wird die Eizelle entweder einem Stromstoß oder einem chemischen Stimulus ausgesetzt. Je nach Art der weiteren Verwendung wird mit der Zelle nun unterschiedlich verfahren, siehe dazu die entsprechenden Abschnitte. Da die Mitochondrien der Eizelle, die über eigene Erbinformationen verfügen, bei diesem Vorgang nicht ausgetauscht werden, entsteht mit dieser Methode kein genetisch identischer Klon, es sei denn, die Eizelle stammt vom Quellorganismus selbst. Ansonsten trägt der Klon im Zellkern die Erbinformation aus dem Quellorganismus, in den Mitochondrien aber die (Mitochondrien-)Erbinformation des Organismus, von dem die verwendete Eizelle stammt. Therapeutisches Klonen. Beim "therapeutischen Klonen" wird der Embryo nach wenigen Zellteilungen zerstört und die einzelnen Zellen in einer Kultur zum weiteren Wachstum gebracht. Mit Hilfe geeigneter chemischer und biologischer Stimuli (Wachstumsfaktoren) lässt sich aus diesen Stammzellen möglicherweise jede Gewebeart, vielleicht sogar ganze Organe züchten, oder die Stammzellen werden direkt in den Körper des Patienten eingebracht. Im Januar 2008 berichtete eine US-amerikanische Forschergruppe in einem Fachartikel, ihr sei erstmals das Klonen menschlicher Zellen gelungen. Die Blastozysten entwickelten sich dem Fachartikel zufolge bis zum 4. Tag nach dem Zellkerntransfer. Der Vorteil dieser geklonten embryonalen Stammzellen liegt zum einen gegenüber adulten pluripotenten Stammzellen in der (zurzeit noch) größeren Vielfalt an züchtbaren Gewebearten und zum anderen gegenüber fremder bereits existenter embryonaler Stammzellen (z. B. aus überzähligen Embryonen von IVF-Versuchen) in der weitgehend vollständigen genetischen Identität dieser Stammzellen mit dem Patienten (nur das Genom der Mitochondrien (ca. 0,002 % des Gesamtgenoms) entspricht bei einer fremden Eizellspende nicht dem Genom des Patienten). Damit ist eine immunologische Abwehrreaktion des Empfängerkörpers weitgehend ausgeschlossen. Gefahren, wie das Entstehen von Tumoren (Krebs) durch diese Stammzellen, sind noch nicht abschätzbar und müssten vor einer Anwendung dieser Methode am Menschen wohl erst noch abgeklärt werden. Reproduktives Klonen. Beim "reproduktiven Klonen" wird der Embryo von einer Leihmutter ausgetragen. Die Methode des Nukleustransfers ist bei vielen Säugetieren gelungen. Tiere. Das Schaf Dolly war das erste geklonte Säugetier (hier ausgestellt im Royal Museum of Scotland). Bei Tieren verlief das Klonen bereits erfolgreich beim Hausschaf (Dolly, Juli 1996), bei der Hausmaus (Cumulina, Dezember 1997), beim Hausrind (Juli 1998), bei der Hausziege (Oktober 1998), beim Hausschwein (März 2000), Mufflon (Juli 2000), Gaur (Januar 2001) und Hauskaninchen (Mai 2001), bei der Hauskatze (CC, Dezember 2001) und Wanderratte (November 2002), beim Maultier (Mai 2003) und Hauspferd (Prometea, Mai 2003), bei der Afrikanische Wildkatze (August 2003), beim Rothirsch (März 2004), Frettchen (März 2004), Wasserbüffel (März 2005), Haushund (Snuppy, April 2005) und Wolf (Oktober 2005). 2007 wurde von Stammzellforschern erstmals ein Rhesusaffe geklont, 2009 gaben Forscher aus Dubai bekannt, ein Dromedar (Injaz) geklont zu haben. Heute werden vor allem Zuchtpferde mit hohen sportlichen Erfolgen bereits im größeren Umfang geklont. Im Jahr 2008 kamen in Südkorea sieben geklonte Drogenspürhunde zur Welt, die, so die Hoffnung der südkoreanischen Zollbehörde, ähnlich erfolgreich sein würden wie das Original, ein Golden Retriever namens „Chase“. Die Ausbeute, also die Anzahl der tatsächlich entwickelten Organismen im Vergleich zu der Gesamtzahl an Zellen, die dem Nukleustransfer unterzogen worden sind, war zunächst sehr gering. Nur wenige Promille bis Prozent der so erzeugten Eizellen entwickelten sich zu Embryonen und Föten und wurden gesund geboren. Als Grund für die hohe Fehlerquote wurden epigenetische Phänomene angenommen (Imprinting). Die seit den 1990er-Jahren vom Menschen angewandte Technik des Klonens ermöglicht insbesondere die gleichförmige Vervielfachung von als nützlich erachteten kultivierten Pflanzen und Tieren, ohne die bei allen bisherigen Verfahren der Züchtung folgende Variation hinzunehmen. Seit 2014 werden transgene Schweine als Versuchstiere für die Pharmaindustrie geklont. Bei diesen Tieren wurde die DNA so verändert, dass die Tiere besonders anfällig für bestimmte Krankheiten wie Alzheimer sind und für den Test von Medikamenten geeignet sind. Die Erfolgsrate beim Klonen beträgt 70–80 %. Menschen. 2006 berichteten Panayiotos Zavos und Karl Illmensee in den "Archives of Andrology", sie hätten in den USA erstmals das Erbgut aus Körperzellen eines infertilen Mannes in sechzehn Eizellen (13 Kuh-Eizellen und 3 seiner Frau) übertragen. Dabei habe sich neben 7 der Kuh- aus einer der menschlichen Eizellen ein Embryo entwickelt. Jener sei in eine Gebärmutter eingesetzt worden, woraus sich aber keine Schwangerschaft entwickelt habe. Im Jahre 2008 implantierte der amerikanische Fruchtbarkeitsspezialist Samuel H. Wood eigene Hautzellen in Embryos, zerstörte diese jedoch anschließend. Obwohl die Pluripotenz dieser Zellen nicht untersucht wurde, gilt er damit als der erste Mensch, der sich geklont hat. Im Jahr 2013 wurden per Zellkerntransfer pluripotente menschliche Stammzellen aus Spenderzellen von Kindern gewonnen und zu spezialisierten Zellen der Bauchspeicheldrüse sowie zu Blut-, Herz-, Leber- und Nervenzellen entwickelt. 2014 wurde erstmals ein Zellkerntransfer mit humanen Zellkernen von Erwachsenen durchgeführt. Gesetzeslage. Derzeit besteht weltweit weitgehend Einigkeit, dass das reproduktive Klonen von Menschen zu ächten ist und verboten sein sollte. Dagegen herrscht über die Zulässigkeit des therapeutischen Klonens erbitterter Streit, der sogar vor der UNO ausgetragen wurde. Dort hat man sich im Rechtsausschuss nicht auf eine Konvention zum Verbot des Klonens einigen können, weil etwa 60 Staaten unter der Führung Costa Ricas und der USA damit zugleich ein weltweites Verbot des therapeutischen Klonens verbinden wollten. Ebenso wenig fand der entgegengesetzte Vorschlag Belgiens die notwendige Zweidrittelmehrheit, der die Regelung des therapeutischen Klonens den einzelnen Staaten freistellen wollte. Am 8. März 2005 wurde eine unverbindliche Deklaration erarbeitet, die diesen Streit in der Schwebe lässt. In Deutschland ist das reproduktive Klonen mittels embryonaler Stammzellen gemäß § 6 und das therapeutische Klonen nach § 1 Abs. 2 und § 2 Abs. 1 Embryonenschutzgesetz strafbar, weil durch die Entnahme der embryonalen Stammzellen aus dem jungen Embryo in vitro der Embryo nicht einem seiner Erhaltung dienenden Zweck verwendet wird. Ein reproduktives Klonen mithilfe induzierter pluripotenter Stammzellen statt embryonaler Stammzellen fiele hingegen nicht unter dieses Verbot. Damit ist aber nicht gesagt, dass diese Form des Klonens für alle Zeiten unzulässig ist, weil der Gesetzgeber (Bundestag und Bundesrat) das Embryonenschutzgesetz entsprechend ändern könnte. Das wäre nur dann wiederum ausgeschlossen, wenn das therapeutische Klonen zugleich gegen die Menschenwürde des Embryos in vitro verstieße. Diese Frage nach dem grundrechtlichen und bioethischen Status eines Embryos in vitro vor der Einnistung in den Mutterleib ist heftig umstritten und derzeit noch nicht geklärt. Die herrschende Meinung nimmt an, dass mit der Verschmelzung der Vorkerne von Ei- und Samenzelle zum Hauptkern der Zygote menschliches Leben entsteht, das sich von da an als Mensch weiterentwickelt und dem deshalb auch der Schutz der Menschenwürde nach Art. 1 GG zukommt. Dieser früheste Zeitpunkt, ab dem ein Lebensschutz jedenfalls begründbar erscheint, liegt auch dem Grundgedanken des Embryonenschutzgesetzes zu Grunde. Allerdings ist auch in Deutschland die Ansicht im Vordringen begriffen, die den Lebensschutz des Grundgesetzes mit der Nidation, also der Einnistung des Embryos in den mütterlichen Organismus, einsetzen lässt. Das legen Erkenntnisse der medizinischen Anthropologie nahe, nach denen eine Wechselwirkung zwischen Embryo und Mutterkörper erforderlich ist, damit sich der Embryo überhaupt zu einem Menschen entwickeln kann. Ohne diesen Impuls, ohne Nidation entsteht niemals ein Mensch, der Embryo entwickelt sich gleichsam ins Nichts. Dieser Ansicht entspricht die geltende Rechtslage in Großbritannien. Die rechtliche Lage in einzelnen Ländern der Europäischen Union zum Klonen hat das Max-Planck-Institut für ausländisches und internationales Strafrecht in einem Überblick erarbeitet. Klonen in Kunst und Literatur. Vor allem in zahlreichen Science-Fiction-Werken tritt reproduktives Klonen häufig als Mittel zur Fortpflanzung einer Spezies auf. So besteht die zivilisierte Gesellschaft in Aldous Huxleys Roman "Schöne Neue Welt" ausschließlich aus unterschiedlich entwickelten Klonen und in dem berühmten "Star-Wars"-Film "Episode II – Angriff der Klonkrieger" werden mehrere Millionen „Klon-Krieger“ zum Aufbau einer galaktischen Armee in Massenproduktion hergestellt. Hierzu werden riesige Klonkammern, beschleunigtes Lernen und genetische Modifikationen in Bezug auf Gehorsam und biologisches Wachstum verwendet. In der Fernsehserie "Stargate – Kommando SG-1" verwendet die Rasse der Asgard das reproduktive Klonen wiederholt anstelle der natürlichen Fortpflanzung, was zu einer DNA-Degeneration führt. Weitere Beispiele für Klone als Arbeitskräfte oder Soldaten sind die Filme "Moon", "Cloud Atlas" und "Oblivion". Zunehmend befassen sich viele Medien auch mit den unmittelbaren ethischen Folgen des Klonens. So beleuchtet der deutsche Film "Blueprint", eine Verfilmung des gleichnamigen Buches von Charlotte Kerner, mit Franka Potente das Leben einer Pianistin und ihrer geklonten Tochter und der US-amerikanische Film "Die Insel" erzählt von Klonen, die als eine Art Ersatzteillager von einem Konzern gezüchtet und manipuliert werden. Auch in Ken Folletts Roman "Der dritte Zwilling" bekommt das Klonen von Menschen eine tragende Rolle. Die Protagonistin entdeckt durch ihre Forschungen zufällig ein Zwillingspaar, das sich nicht kennt. Im Laufe der Geschichte wird bekannt, dass es insgesamt acht Klone gibt, die vom Militär erzeugt wurden, um eine Art Supersoldat zu kreieren. Der deutsche Autor Andreas Eschbach beleuchtet das Klonen in seinem Sachbuch "Das Buch von der Zukunft" und im Jugendroman "Perfect Copy". Im Roman "Alles, was wir geben mussten" von Kazuo Ishiguro sind die Helden Klone, die ihre Organe normalen Menschen spenden sollen. Der erste Roman, der den Klon als Ersatzteillager zum Thema hat, erschien bereits 1992: "Duplik Jonas 7" von Birgit Rabisch. Kooperation. Kooperation (‚Zusammenwirkung‘, ‚Mitwirkung‘) ist das zweckgerichtete Zusammenwirken von Handlungen zweier oder mehrerer Lebewesen, Personen oder Systeme, in Arbeitsteilung, um ein gemeinsames Ziel zu erreichen. Ist die wechselseitige Einwirkung der Akteure nicht intentional oder zweckgerichtet, spricht man hingegen von Interaktion. Dieser soziologische Oberbegriff umfasst auch die Formen der Kooperation. Allgemeines. Kooperation führt häufig zum Nutzen für alle Beteiligten. Es gibt aber auch erzwungene Kooperation oder unter Täuschung zustande gekommene Kooperation, bei der eine Seite mehr oder alle Vorteile aus dieser Kooperation zieht und die andere nur Kosten hat. Da Kooperation neben Mutation und Selektion eine zentrale Rolle in der Evolution des Lebens spielt, kann man die Entstehung und Entwicklung höherer Lebensformen nur unter Einbeziehung ihrer Kooperationsformen beschreiben. Dazu werden die Mechanismen der Kooperation auch mathematisch modelliert. Kooperation ist zumindest für deren Dauer ein Zusammenschluss im Sinne von Systembildung. Es bildet sich auf einer höheren organisatorischen Ebene (zeitweise) ein neues System – als bedeutsamer Wesenszug der Phylogenese. Dessen Teilnehmer – die Kooperationspartner – erwarten ein der Kooperation entsprechendes Verhalten (Quid pro quo – einen Ausgleich von Nutzen und Kosten). Diese Erwartungen können als Rechte und Pflichten verhandelt und vereinbart werden. Für Kooperation sind weder Freundschaft noch Voraussicht oder Kognition notwendig. Die Erklärung des Zustandekommens von Kooperation ist ein wichtiges Forschungsgebiet der Spieltheorie. Kooperation in der Natur. Auch in der Natur kommt Kooperation nicht nur bei Primaten vor. Allerdings ist sie bei niedrigeren Lebensformen nicht intentional. So hat beim Zusammenspiel der koloniebildenden Insekten – etwa in einem Ameisenhaufen – jedes Tier bestimmte Aufgaben zu erfüllen, um das System Insektenstaat in seiner Gesamtheit am Leben zu erhalten (vgl. Hymenopterenstaat). Auch die Symbiose ist eine Form der zweckmäßigen Kooperation zweier Organismen. Aber auch schon zwischen Bakterien und Aminosäuren liegt eine Art von Kooperation vor. Kooperation ist auch auf der molekularen Ebene zu finden: Aminosäuren verbinden sich zu längeren Ketten und bilden Proteine, ohne die das Leben, so wie wir es kennen, nicht möglich wäre. In der theoretischen Biologie wird Kooperation auch als komplexes adaptives System beschrieben. Vorstufen der Kooperation. Konflikt ist nicht „Ausnahme“, „irrationales“ oder „emotionales“ abweichendes Verhalten und eben auch nicht notwendig destruktiv. Konflikt ist vielmehr Grundmerkmal jedes menschlichen Zusammenseins. (Georg Elwert) Kleinkinder. Eine bemerkenswerte menschliche Fähigkeit ist, gemeinsam an Problemen oder Aufgaben zu arbeiten, die allein nicht zu bewältigen wären. Schon Kleinkinder können Ziele und Aufmerksamkeit gemeinsam mit anderen entwickeln und zeigen die Motivation, anderen zu helfen und mit ihnen zu teilen. Zwischen neun und zwölf Monaten interagieren Säuglinge nicht mehr nur entweder mit einer Person oder einem Gegenstand, sondern verbinden diese in einer dreiseitigen (triadischen) Interaktion. Diese frühen Triaden bilden den Ausgangspunkt für tatsächliche Kooperation. Diese wird von Wissenschaftlern der Abteilung für Vergleichende und Entwicklungspsychologie am Max-Planck-Institut für evolutionäre Anthropologie so definiert: Neben dem gegenseitigen Eingehen aufeinander sind die Beteiligten durch ein gemeinsames Ziel verbunden, und die Akteure stimmen ihre Rollen miteinander ab, wozu auch die Unterstützung des Anderen in seiner Rolle gehört. In neurophysiologischer Hinsicht spielen die Spiegelneuronen eine wichtige Rolle in diesem Prozess. Vergleich internationaler Gesellschaften. Eine 2010 publizierte Studie untersuchte über Daten aus mehreren Ländern, warum auch in großen Gesellschaften, wo sich die Leute nur wenig kennen, also zwischen Fremden, Kooperation stattfindet. Nach der Erklärung von Autoren basiert die moderne Gesellschaft nicht allein auf Basis einer immanenten menschlichen Psyche, auch soziale Normen – so die Ausbildung von Moral – und formelle wie auch informelle Institutionen haben die Menschen wesentlich geprägt. Größere und komplexere Gesellschaften konnten demnach erst dann entstehen und in dem Ausmaß zu Wohlstand kommen, in dem solche Normen und Institutionen die faire Kooperation von untereinander Fremden ermöglichten. Wirtschaftskooperation. Die spanische Mondragón Corporación Cooperativa (MCC) ist die weltgrößte Genossenschaft. Ihr Leitmotiv heißt Kooperation. „Wir sind 60.000 Menschen mit 60.000 Ideen und mit 60.000 oder mehr Problemen. Unsere Hauptaufgabe ist, den Ausgleich zwischen wirtschaftlichen und sozialen Erfordernissen zu finden“, wird der Betriebssoziologe der Kooperative in 2002 zitiert und spricht damit den Wesenskern von Kooperation an – eben danach zu streben, die Interessen aller Beteiligten auszugleichen. Betriebswirtschaftslehre. In der Betriebswirtschaftslehre ist eine Kooperation die freiwillige Zusammenarbeit von Unternehmen, die rechtlich selbstständig bleiben. Die beteiligten Unternehmen geben somit aber einen Teil ihrer wirtschaftlichen Souveränität ab. Werden Partner außerhalb der Akteursgruppe der Unternehmen in die Kooperation eingebunden, spricht man von „intersektoralen Kooperationen“. Diese Form der Zusammenarbeit spielt vor allem im Bereich der nachhaltigen Entwicklung eine zunehmend wichtige Rolle. Beispiele sind die Sustainability-Netzwerke, die auf dem Weltgipfel für nachhaltige Entwicklung 2002 in Johannesburg gegründet bzw. international registriert wurden. Kooperation von Unternehmen ist aus ordnungspolitischer Sicht grundsätzlich zu begrüßen. Insbesondere führen "Kooperationen im Handel" – in vielfältigen Formen horizontaler, vertikaler und konglomerater Art – dazu, dass Tausende von kleinen und mittleren Unternehmen in ihrer Existenz gesichert sind und wettbewerbsfähig bleiben. Konkrete Kooperationsformen im Handel können sich auf einzelne oder auf mehrere betriebliche Funktionalbereiche beziehen, auf Information, Einkauf, betriebliche Leistungserstellung, Verkauf (horizontal oder vertikal), Verwaltung, Finanzierung, Marktordnung und/oder baulich-technische Gestaltung. Namentlich durch die gemeinschaftliche Nutzung des Instrumentariums des modernen Handelsmarketings werden Handelsunternehmen Chancen eröffnet, die ihnen als isoliert handelnden Unternehmen verwehrt bleiben müssten (z. B. Einkaufspreisvorteile, Gemeinschaftswerbung, gemeinschaftliche Schulung oder eigene Handelsmarken). Die zwischenbetriebliche Zusammenarbeit mit ihren Besonderheiten stellt auch für die traditionelle Wirtschaftstheorie eine Herausforderung dar; denn weder die "Makroökonomie" noch die "Mikroökonomie" erfassen die Arteigenheiten der Kooperationen angemessen. Als adäquate Verbundlehre "(Schenk)" kommt daher eine "Mesoökonomie" als dritter Zweig der Wirtschaftstheorie in Betracht. Soweit Kooperationen wettbewerbspolitisch negative Wirkungen haben, werden sie eingeschränkt durch das Kartellrecht, namentlich Unternehmenszusammenschlüsse zum Zwecke der Schädigung Dritter oder zum Zwecke der Wettbewerbsbeschränkung (Kartelle). In diesen Zusammenhang gehören auch die sogenannten Gemeinschaftsunternehmen (Joint Venture), Einkaufsgemeinschaften, Gelegenheitsgesellschaften, Genossenschaften, Interessengemeinschaften sowie Marketingkooperationen. Man spricht dabei auch von Symbiose, gegenseitiger Hilfe, Mutualismus bzw. kollektivem Handeln. Im administrativen Bereich spricht man von Verwaltungskooperationen. Für die Neue Institutionenökonomik ist Kooperation eine Mischform von Markt und Hierarchie, durch die die Parteien sich beidseitig freiwillig vertraglichen Regeln des Austauschs unterstellen. Diese begrenzen die Handlungsmöglichkeiten beider Seiten, führen aber zu einem größeren gegenseitigen Vorteil als nach den Regeln des Marktes allein. Kooperation als Produktivkraft. Für die klassische englische Nationalökonomie seit Adam Smith stellte Kooperation in Verbindung mit Arbeitsteilung eine wichtige Produktivkraft dar. Karl Marx spricht im 11. Kapitel des ersten Bandes des Kapitals davon, dass die mechanische Kraftsumme vereinzelter Arbeiter weit entfernt sei von der „gesellschaftlichen Kraftpotenz, die sich entwickelt, wenn viele Hände gleichzeitig in derselben ungeteilten Operation zusammenwirken, z. B. wenn es gilt, eine Last zu heben, eine Kurbel zu drehn oder einen Widerstand aus dem Weg zu räumen.“ Es handele sich dabei „nicht nur um Erhöhung der individuellen Produktivkraft durch die Kooperation, sondern um die Schöpfung einer Produktivkraft, die an und für sich Massenkraft sein muss“ und als solche höher als die Summe der Individualkräfte ist. Für Arbeitnehmer werden kooperative Aufgaben in einem Unternehmen nicht notwendigerweise ohne Konkurrenz gelöst, worauf auch schon Marx hingewiesen hat. Da die Bewertung der Arbeitsleistung der Leitung des Unternehmens unterliegt, kann paradoxerweise sogar die Demonstration von Teamfähigkeit, sog. "Soft Skills" oder anderer sozialer Kompetenzen ein (brauchbares und manchmal auch notwendiges) Mittel werden, um Konkurrenz auszutragen. Internationale Kooperation. Adam Smith und David Ricardo übertrugen das Kooperationsmodell auf zwischenstaatliche Beziehungen, indem sie den Nutzen des Austauschs zwischen spezialisierten Staaten hervorhoben. In seinem gegen den merkantilistischen Handelsprotektionismus gerichteten Außenhandelsmodell beschreibt er den Nutzen des kooperativen Austauschs auch für Staaten, die in allen Branchen eine höhere Arbeitsproduktivität verfügen. Auf politischer Ebene wird versucht, durch Kooperation den Nutzen der beteiligten Partner zu steigern. Beispiele dafür sind z. B. die Europäische Union, die Welthandelsorganisation (WTO) oder die verschiedenen Freihandelszonen. Internationale Kooperationsverbünde oder -vorhaben entstehen im Zuge der Globalisierung in immer mehr Bereichen, z. B. in der Hochschul- und Forschungskooperation oder in der internationalen Entwicklungszusammenarbeit. Philosophie. John Rawls bestimmte mit der "Theorie der Gerechtigkeit" 1971 die Gesellschaft als ein Kooperationssystem, um Gerechtigkeit herzustellen, und zog darin Methoden der Entscheidungs- und Spieltheorie ein. Er definierte Grundsätze für die Zuweisung von Rechten und Pflichten und die richtige Verteilung gesellschaftlicher Güter. Gerechtigkeit ist „die erste Tugend sozialer Institutionen“. Solche seien Verfassung, Gedanken- und Gewissensfreiheit, Märkte mit Konkurrenz und Privateigentum an Produktionsmitteln u. a., so Rawl’s Gerechtigkeitstheorie. Kooperation in der Spieltheorie (Axelrod). Der Mathematiker und Politikwissenschaftler Robert Axelrod beschrieb zunächst 1981 – gemeinsam mit William D. Hamilton – in einem Fachaufsatz und 1984 in seinem Buch "The Evolution of Cooperation", dass Kooperation im Sinne einer Systembildung auch ohne Absprache und ohne höhere Zwänge (Gesetze, Moral, …) zwischen egoistischen Elementen – Spielern – entsteht. Axelrod, der mit Computer-Modellen die Spieltheorie erforschte und verschiedene Kooperationsregeln in einem Labormodell des iterierten Gefangenendilemmas von zwei Personen gegeneinander antreten ließ, beschreibt die Robustheit der Regel „Tit for Tat“ in Bezug auf das Eindringen einer konkurrierenden Regel, so wie diese im letzten Jahrhundert bekannt waren. Falls ein Klima der Kooperation eingetreten ist und in einer Population von Kooperateuren ein Nichtkooperateur eindringt, kann die Regel durch Defektion zuverlässig Nichtkooperateure ausschließen. Außerdem sei die Regel invasiv erfolgreich. Das heißt, in einer Welt von Nichtkooperateuren können Kooperateure mit „Tit For Tat“ eintreten und sich behaupten, wenn ihnen die Möglichkeit gegeben wird, untereinander möglichst frei zu kooperieren und Nichtkooperateure vor der Interaktion zuverlässig zu erkennen und auszuschließen, meinte Axelrod über das Zusammenspiel von Gruppen in Zeiten der ersten Anwendungen des Computers in der Forschung. Seine Forschung für Zwei-Personen-Interaktionen wird unter festgelegten Voraussetzungen anerkannt. Axelrod berichtete von extrem antikooperativen Verhältnissen, wie bei den Grabenkämpfen im Ersten Weltkrieg, bei denen eine Gruppe gegen einen sog. Feind kooperiert und dennoch mitunter eine Art Kooperation zwischen den Feinden entstand. So vermieden die gegnerischen Soldaten zeitweilig, einander zu beschießen, wenn Nahrung kam, oder wenn Verwundete abtransportiert wurden. Eine beeindruckende wahre Geschichte dieser Art ist die über den Weihnachtsfrieden im Ersten Weltkrieg. Diese Art der Kooperation wurde beendet, als mehr und mehr Artillerie eingesetzt wurde. Von der Regel „Tit For Tat“ wurde erhofft, nicht nur eine Regel in einem Gefangendilemma zu sein, sondern ein wesentliches gesellschaftliches Konzept eines reziproken (gegenseitigen) Altruismus. Für Zweipersonen-Interaktionen ist die Tit-for-Tat-Strategie von Axelrod und Hamilton erfolgreich; gibt es aber in einer Gruppe nur wenige, die nicht mitmachen (Defektoren oder Trittbrettfahrer), scheitert unter dieser Strategie eine Kooperation auf Dauer. Spieltheoretische Ansätze wie der Axelrods geraten in Erklärungsnotstand, wenn a) die Zahl der Akteure sehr groß ist, b) ihre Motivationen und Präferenzen wechselseitig nicht bekannt und nur schwer zu ermitteln sind, c) das Spiel nicht wiederholt wird oder es sich um ein Endspiel handelt, d) das Verhältnis von Nutzen zu Kosten eines bestimmten Verhaltens nicht präzise ermittelt werden kann. Unter diesen Bedingungen – im Extremfall unter Bedingungen vollständiger Anarchie – bietet die Neue Institutionenökonomik möglicherweise bessere Erklärungsmodelle an, die Möglichkeiten mehr oder weniger effizienter Kooperationsstrategien aufzeigen. Krankheit. Krankheit (mittelhochdeutsch "krancheit, krankeit", synonym zu Schwäche, Leiden, Not) ist die Störung der Funktion eines Organs, der Psyche oder des gesamten Organismus. Krankheit und Gesundheit. Krankheit wird oft im Gegensatz zu Gesundheit definiert. Allerdings wurde Gesundheit auch schon als idealer Zustand optimalen Wohlbefindens definiert, und Krankheit ist nicht die einzige mögliche Ursache für mangelhafte Gesundheit. Die Übergänge zwischen „Gesundheit“ und „Krankheit“ sind fließend. Vieles mag letztlich einfach eine Frage der Sichtweise sein. So hat sich der Begriff Befindlichkeitsstörung für Einschränkungen des leiblichen oder seelischen Wohlbefindens ohne objektivierbaren medizinischen Krankheitswert eingebürgert. Andererseits können als krankhaft definierbare Zustände auch ohne subjektiven Leidensdruck vorliegen. Die normale Funktion ergibt sich aus der Regelhaftigkeit der Lebensvorgänge; in unterschiedlichem Ausmaß beinhaltet sie die Fähigkeit zur Anpassung an veränderte innere und äußere Bedingungen. Ihre Beurteilung durch Menschen weist auch Abhängigkeit von deren Normvorstellungen auf. Als Funktionsstörung kann Krankheit verschiedene Bereiche lebendigen Seins betreffen und sich in deren Wechselwirkungen entwickeln. Physiologische Funktionen sind wesentliche Eigenschaft des Lebens. Organismen existieren in komplexen Umwelten und erhalten, erneuern und verändern sich durch beständigen stofflichen und energetischen Austausch. Viele Arten von Organismen leben in sozialen Zusammenhängen. Zu den Funktionen des Lebens gehört auch Verhalten. Sog. höhere Organismen weisen emotionale Funktionen auf. Die Personalität und Sozialität von Menschen funktioniert auch in Abhängigkeit von ihrer kulturellen Welt. Die Zuordnung von Erkrankungen eines konkreten Lebewesens zu abstrakten „Krankheiten“ gilt als wichtig im Zusammenhang mit der Entwicklung von therapeutischen Ansätzen und ihren administrativen und ökonomischen Rahmenbedingungen. Eine Systematik ist die Internationale statistische Klassifikation der Krankheiten und verwandter Gesundheitsprobleme (ICD10). Ob es allerdings abstrakte Krankheiten in einem ontologischen Sinn gibt, ist umstritten. Medizin. Seit Jahrhunderten ist die Medizin bestrebt, den allgemeinen Begriff Krankheit eindeutig zu definieren und abzugrenzen. Dabei hat sie sich mit verschiedenartigen Krankheitsbildern und konkreten Erkrankungen auseinanderzusetzen. Hat ein Mensch das Gefühl, „krank“ zu sein, oder ist bei jemandem eine Krankheit bereits erkannt worden, spricht man in der Medizin von einem "Patienten". Einzelne Beschwerden eines Patienten können Symptome definierbarer Krankheiten sein. Mehrere typischerweise gleichzeitig auftretende Symptome werden als Syndrom "(Symptomkomplex)" bezeichnet. Symptome oder Symptomenkomplexe, die auf eine gemeinsame Ursache "(Ätiologie)" zurückführbar sind, lassen die Bestimmung einer spezifischen Krankheit "(Morbus)" im Sinne der modernen Medizin zu (→ Hauptartikel Pathogenese). Eindeutig scheint dies, wenn notwendige oder hinreichende Krankheitsursachen feststellbar sind. Für definierte Infektionskrankheiten sind z. B. spezifische Krankheitserreger notwendig; manche angeborene Krankheiten treten zwingend bei bestimmten molekulargenetischen Veränderungen auf. Oftmals sind Krankheiten aber auch nicht eindeutig auf nachweisbare Ursachen zurückzuführen. Mitunter werden sie dann durch regelhaft vorliegende strukturelle bzw. funktionelle Erscheinungen definiert. Die Gesamtheit aller für eine Krankheit typischen Erscheinungen ist das Krankheitsbild (Syn. "Entität"), das in mehr oder weniger unterschiedlichen Ausformungen beobachtet werden kann. Die Lehre von den Krankheiten ist die Pathologie. Zur Erkennung von Krankheiten bei individuellen Patienten bedarf es entsprechender Untersuchungen (Diagnostik). Damit werden Befunde erhoben, welche der Erstellung einer Diagnose dienen können. Recht. Dass Übergänge zwischen „Gesundheit“ und „Krankheit“ fließend sind, wirft auch juristische Probleme auf. Der Begriff „Krankheit“ selbst wird inhaltlich, insbesondere im sozialversicherungsrechtlichen Bereich, heftig diskutiert. Krankheit im Sinne des Sozialversicherungsrechts ist eine Störung des körperlichen oder seelischen Wohlbefindens, somit eine Abweichung von der Norm „Gesundheit“. (vgl. § 120 Abs. 1 Z 1 ASVG, wonach Krankheit "„ein regelwidriger Körper- oder Geisteszustand ist, der die Krankenbehandlung notwendig macht“.") Der letzte Punkt kann problematisch für unheilbare Krankheiten sein, da in solchen Fällen keine Besserung möglich ist. Davon ist im Sozialversicherungsrecht das "Gebrechen" (§ 154 ASVG) abzugrenzen. Dabei handelt es sich um unbehebbare Leiden, deren Entwicklung abgeschlossen ist und eine Möglichkeit auf ärztliche Einflussnahme im Sinne einer Heilung, Besserung oder Verhütung von Verschlimmerungen nicht möglich ist. Beschwerden durch Unfälle und deren Folgen werden in der "Schweiz" aus juristischer Sicht nicht dem Begriff „Krankheit“ zugerechnet. Geschichtliche und kulturelle Aspekte. Die Einordnung, das Maß der „Normalität“ überschreitender Veränderungen eines Menschen, hängt stark von der Kultur und der Epoche ab. So war Fettleibigkeit "(Adipositas)" in der Renaissance ein Status-Symbol, heutzutage wird sie allgemein als krankhaft betrachtet. Systematik. Systematische Einteilung von Krankheiten wird als Nosologie (Krankheitslehre) bezeichnet. Die Bezeichnungen der Krankheiten, die Abgrenzung einzelner "Krankheitsbilder" (Entitäten) gegeneinander und die Systematik der Krankheiten sind ständigem Wandel unterworfen (vgl. Liste historischer Krankheitsbezeichnungen). Die moderne Einteilung der Krankheiten im medizinischen Krankheitsmodell kann grob organbezogen nach den Hauptdiagnosegruppen (Major Diagnostic Categories, MDC) erfolgen. Eine genauere Einteilung erlaubt die Internationale Klassifikation der Krankheiten (ICD-10), bzw. für den onkologischen Bereich entsprechend der ICD-O. Eine an den bekannten oder vermuteten Ursachen orientierte Einteilung ist die nach Eigenschaften, die statistisch für sich alleine betrachtet die Rate des Auftretens bestimmter Krankheitsbilder erhöhen, ohne ihrem Wesen nach für diese alleinig verantwortlich zu sein, werden als sogenannte Risikofaktoren bezeichnet. Als klassisches Beispiel sei hierzu die positive statistische Korrelation zwischen der Erhöhung des Blutdruckes und dem Auftreten kardiovasculärer Erkrankungen angeführt. Eine seelisch-körperliche Betrachtungs- und Heilweise, unter Berücksichtigung der emotionalen und sozialen Ursachen sowie der Persönlichkeit und des Lebensschicksals des Patienten versucht die psychosomatische Medizin. Außerhalb der evidenzbasierten Medizin werden auch andere Krankheitsursachen bis hin zu metaphysischen Zusammenhängen angenommen. Mit der gesellschaftlichen Bedingtheit von Erkrankung und Krankheitsverläufen sowie der staatlichen Steuerung des Gesundheitswesens beschäftigt sich die Medizinsoziologie. Ursachen und Verlauf. Als Ursachen für Erkrankungen werden in der modernen Medizin nennenswert abweichende Veränderungen vom gesunden Zustand von Teilen des Körpers betrachtet – und damit auch deren Funktion, sogenannte "organpathologische Befunde". Die Ursachen für diese Veränderungen lassen sich in innere und äußere Faktoren einteilen. Zu den inneren Faktoren gehören das allgemeine Altern, Erbkrankheiten und ererbte Anfälligkeiten/Anlagen, embryonale Fehlbildungen sowie psychische Erkrankungen. Diese sind wenig beeinflussbar. Demgegenüber sind äußere Faktoren, wie soziale Verhältnisse, Stress, Ernährung, Umweltbedingungen und Krankheitserreger gut beeinflussbar. Krankheit führt – behandelt oder unbehandelt – zu Heilung, Remission, einem Rezidiv (oder mehreren Rezidiven), Leiden oder Tod. Krankheitsmodell. Unter einem Krankheitsmodell versteht man einen wissenschaftstheoretischen Ansatz, mit dem Ziel, in modellhaft vereinfachter Form eine Krankheit zu erklären. Eine Diskussion um Krankheitsmodelle ist aus der Frage entstanden, welches der objektive Unterschied zwischen "normal" und "anormal", als krankhaft sei. Diese Unterscheidung betrifft meist nicht das Urteil des Kranken selbst, sondern das seiner Umgebung. Es ist auf den vermeintlich Kranken gerichtet und gibt die Auffassungen der nächsten Angehörigen und des sozialen Umfeldes über Krankheit wieder. Es umfasst somit auch einen soziologischen und epidemiologischen Aspekt, der z. B. in der Medizinsoziologie und in der Sozialpsychiatrie von Interesse ist. Ein weiterer Ansatz betrifft die Kontroverse zwischen "durchgehendem" und "uneinheitlichem Behandlungsansatz". Der durchgehende Ansatz besagt, dass ein einheitliches gesundheitliches Erklärungsprinzip sowohl für Gesunde als auch Kranke ausreiche. Das uneinheitliche Prinzip besagt, dass für Kranke besondere eigengesetzliche Prozesse ablaufen, die einer spezialisierten Behandlung je nach Art des festgestellten Falles bedürfen. Die Forderung nach einem einheitlichen Behandlungsprinzip geht auf die Forderung von Ludolf von Krehl zurück, dass der Arzt nicht verschiedene Krankheiten behandeln solle, sondern eher den Kranken als Person im Auge zu halten habe. Dieses Prinzip trägt sehr zur Vermenschlichung der Krankenbehandlung bei und nimmt dem Kranken das gesellschaftliche Stigma des Abnormen und Unverständlichen. Kybernetik. Kybernetik ist nach ihrem Begründer Norbert Wiener die Wissenschaft der Steuerung und Regelung von Maschinen, lebenden Organismen und sozialen Organisationen und wurde auch mit der Formel „die Kunst des Steuerns“ beschrieben. Der Begriff als solcher wurde Mitte des 20. Jahrhunderts nach dem Vorbild des englischen ' ‚Regelungstechniken‘ in die deutsche Sprache übernommen. Der englische Begriff wiederum ist ein Kunstwort, gebildet aus dem substantivierten griechischen Adjektiv ‚steuermännisch‘, welches sich aus den entsprechenden Subjektiven ‚Steuermann‘ und ‚Leitung‘, ‚Herrschaft‘ ableitet. Ein typisches Beispiel für das Prinzip eines kybernetischen Systems ist ein Thermostat. Er vergleicht den Istwert eines Thermometers mit einem Sollwert, der als gewünschte Temperatur eingestellt wurde. Ein Unterschied zwischen diesen beiden Werten veranlasst den Regler im Thermostat dazu, die Heizung so zu regulieren, dass sich der Istwert dem Sollwert angleicht. Antike. Seit der Antike findet man schriftliche Zeugnisse systemorientierten Denkens. Der griechische Ependichter Homer schrieb und meinte damit den Steuermann eines Schiffes. Platon benutzte den Begriff im übertragenen Sinne, wenn er von einem „Mann am Steuerruder einer Regierung“ sprach. Der Apostel Paulus wiederum benutzt den griechischen Begriff κυβέρνησις ' im 1. Korintherbrief (), um die „Fähigkeit zu leiten“ zu thematisieren. 1834 hat der Physiker André-Marie Ampère die Idee einer Wissenschaft entwickelt, die er ' nannte. Fachgebiet seit den 1940ern. In den 1940er Jahren entstanden die Wurzeln der Wissenschaft Kybernetik, als man Gemeinsamkeiten und Schnittstellen verschiedener Einzeldisziplinen erkannte, die Themen wie menschliches Verhalten, Nachrichtenübertragung, Regelung, Entscheidungs- und Spieltheorie und statistische Mechanik betrachten. Katalysator dieser Entwicklung waren die Macy-Konferenzen mit dem Thema ', die von 1946 bis 1953 stattfanden. Norbert Wiener hat den Begriff „Kybernetik“ schließlich im Sommer 1947 von dem griechischen ' für ‚Steuermann‘ abgeleitet und damit den nach seiner Einschätzung ersten bedeutenden Artikel über einen Rückkoppelungsmechanismus von James Clerk Maxwell ("On Governors", 1867/68) geehrt; dort wird ein Fliehkraftregler beschrieben. Das englische Wort ' leitet sich aus dem lateinischen ' ‚Steuermann‘ ab, einem lateinischen Lehnwort aus der altgriechischen Sprache mit der gleichen Wortwurzel wie '. In gedruckter Form wurde der Begriff von Wiener erstmals 1948 in ' (deutsche Ausgabe: "Kybernetik. Regelung und Nachrichtenübertragung im Lebewesen und in der Maschine") verwendet. Im gleichen Jahr erschien in der Zeitschrift "Scientific American" ein grundlegender Übersichtsartikel zur Kybernetik. Georg Klaus etablierte 1953 das Lehrfach Kybernetik an der Humboldt-Universität Berlin. Später engagierte er sich für die Gründung einer eigenen Kybernetik-Kommission an der Akademie der Wissenschaften. Konferenzen und Lehrstühle. Maßgeblich für die Entwicklung des Fachgebiets waren die von Heinz von Foerster in den USA ab den 1950ern herausgegebenen Tagungsbände ' der Macy-Konferenzen der Josiah Macy Jr. Foundation (Macy-Stiftung). Die weiteren Entwicklungen nach den Macy-Konferenzen gehen aus der Geschichte der Anwendungsfelder hervor (siehe rechte Tabelle). Der Begründer der Kybernetik in Deutschland ist Hermann Schmidt, der dieses Gedankengut zeitgleich und unabhängig von Norbert Wiener entwickelte und 1944 auf den ersten Lehrstuhl für Regelungstechnik in Deutschland an der TH Berlin-Charlottenburg berufen wurde. In Deutschland wurde auch im Jahre 1957, vor dem gleichen wissenschaftshistorischen Hintergrund, die Studie "Das Bewußtsein der Maschinen – Eine Metaphysik der Kybernetik" des Philosophen Gotthard Günther publiziert. Weiterhin erschien im Jahre 1961 das Buch "Kybernetik in philosophischer Sicht" des Mathematikers und Philosophen Georg Klaus, das bis 1964 vier Auflagen erreichte. Von diesem Autor folgten noch mehrere Bücher zur Kybernetik in ihren sozialen und geistigen Auswirkungen. Unter den populärwissenschaftlichen Büchern sind insbesondere die Veröffentlichungen von Karl Steinbuch zu nennen, der 1957 auch den Begriff Informatik prägte. Dieser Begriff beschreibt im Gegensatz zur Kybernetik eine mehr formalistische und technische Ausrichtung. Aktuelle Entwicklungen. Ein auch philosophisches Interesse an der Kybernetik geht darauf zurück, dass diese die Möglichkeit eröffnet, den Begriff „Zweck“ rekursiv zu begreifen: Der Zweck eines komplexen Systems, etwa auch eines Lebewesens, ist so betrachtet "es selbst". Ein Zweck bräuchte keine vom System getrennte Instanz mehr, die ihn setzt. Im Rahmen der Regelungstechnik steht heute eine spezielle leistungsfähige mathematische Systemtheorie zur Verfügung, mit der das Verhalten von Systemen und Regelkreisen beschrieben und berechnet werden kann. In der Netzwerktheorie wiederum wird nach allgemeinen Prinzipien vernetzter Wirkungsgefüge gesucht. Die Entscheidungs- und die Spieltheorie, die sich mit Entscheidungsprozessen in teils komplexen Situationen mehrdimensionaler Zielräume befassen, gewinnen eine wachsende Bedeutung insbesondere in Medizin, Militär und Wirtschaft. Weitere aktuelle Beispiele für die Anwendung der Kybernetik in den Sozialwissenschaften sind die Konzepte der Volition in der Psychologie und im Management. Kevin Costner. Kevin Michael Costner (* 18. Januar 1955 in Lynwood) ist ein US-amerikanischer Schauspieler, Filmproduzent, Unternehmer, Regisseur, Musiker sowie zweifacher Oscarpreisträger. Seinen größten Erfolg feierte er 1990 mit dem Western-Epos "Der mit dem Wolf tanzt". Leben und Karriere. Kevin Costners irischstämmige Mutter, Sharon Rae Tedrick, war Sozialarbeiterin und sein deutschstämmiger Vater William Costner Elektriker. Costner war während seiner Schulzeit Mitglied im Kirchenchor und verfasste nebenbei Gedichte. Er galt als Außenseiter und Tagträumer. Sport war stets eines seiner großen Hobbys; als Jugendlicher spielte er Basketball, Baseball und American Football, später betätigte er sich als Golfer. Ab 1973 nahm er an fünf Abenden in der Woche Schauspielunterricht. 1978 machte er seinen Collegeabschluss in "Business" (ähnlich Betriebswirtschaft). Nach seinem Studium an der California State University nahm er einen Marketingjob in Orange County an und heiratete seine Jugendliebe Cindy Silva. Bei einer zufälligen Begegnung gab Richard Burton ihm den Rat, sich völlig auf die Schauspielerei zu konzentrieren, falls er es darin zu etwas bringen wolle. Costner gab seinen Job auf, zog nach Hollywood und hielt sich zunächst als Lastwagenfahrer, Hochseefischer und Busfahrer bei Stadtrundfahrten finanziell über Wasser. Seine Frau trat als Schneewittchen in Disneyland auf. 1974 gab Costner sein Filmdebüt in der Softsex-Komödie "Malibu Summer" (dt.: "Heißer Strand USA)," die erst 1981 veröffentlicht wurde. Von den Dreharbeiten war er so angewidert, dass er sich schwor, der Schauspielerei den Rücken zu kehren, wenn sich keine anderen Rollen für ihn fänden. Erst Anfang der 1980er Jahre kehrte Costner in kleineren Rollen zum Film zurück. Seine Szenen in Lawrence Kasdans Tragikomödie "Der große Frust" ("The Big Chill", 1983) fielen dem Schnitt zum Opfer, doch Kasdan gab Costner 1985 schließlich eine Hauptrolle in dem erfolgreichen Western "Silverado". Sowohl Costners Spiel als auch seine akrobatischen Reitkünste machten Eindruck bei Publikum und Kritik. Seinen internationalen Durchbruch feierte Costner 1987 mit Brian de Palmas Film "The Untouchables – Die Unbestechlichen" mit Sean Connery als ehrlichem Polizisten, Robert De Niro als Al Capone und Costner als dessen Gegenspieler Eliot Ness. Im selben Jahr drehte er den ebenfalls erfolgreichen Thriller "No Way Out – Es gibt kein Zurück". 1989 gelang ihm mit dem märchenhaften Film "Feld der Träume" über einen Farmer, der mit dem Bau eines Baseball-Stadions in seinem Maisfeld die Vergangenheit beschwört und die Zukunft gewinnt, ein weiterer Erfolg. Zu diesem Zeitpunkt feierte die Kritik Costner, der in seinen Rollen jungenhaften Charme und zielstrebige, positive Beharrlichkeit ausstrahlte, als „neuen Gary Cooper“. Bis Mitte der 1990er Jahre zählte der Schauspieler zu den gefragtesten Hollywood-Stars. Auf dem Höhepunkt seiner Popularität gründete Costner zusammen mit Produzent Jim Wilson die Produktionsfirma TIG Productions, mit der er seine Filme fortan produzierte. Sein Regiedebüt gab Costner 1990 mit dem aufwendigen Western-Epos "Der mit dem Wolf tanzt", den er auch produzierte und dessen Hauptrolle er übernahm. Der mehr als drei Stunden lange Streifen wurde entgegen den Erwartungen der Fachwelt ein internationaler Kinoerfolg und erntete bei 12 Nominierungen sieben Oscars, unter anderem für Costners Regie und den Besten Film. Es folgte bis Mitte der 1990er Jahre eine Serie weiterer Erfolge mit dem Abenteuerfilm "Robin Hood – König der Diebe", Oliver Stones Geschichtsinterpretation "JFK – Tatort Dallas" (beide 1991), dem romantischen Thriller "Bodyguard" (1992) mit Whitney Houston und Clint Eastwoods "Perfect World" (1993), in dem Costner erstmals einen Verbrecher spielte. Lawrence Kasdans Verfilmung des Lebens von Wyatt Earp (1994) mit Costner in der Titelrolle war dann ein eher mäßiger Erfolg. 1995 produzierte Costner den postapokalyptischen Science Fiction-Film "Waterworld" und spielte die Hauptrolle des "Mariners". Nach einem Streit mit Regisseur Kevin Reynolds führte er auch teilweise Regie. Die äußerst kostenintensiven Dreharbeiten auf dem Meer sprengten das Budget bei weitem und trieben die Produktionskosten auf 175 Millionen Dollar. "Waterworld", sein bis dahin teuerster Film, erzielte ein weltweites Einspielergebnis von 264 Millionen Dollar, und konnte damit die enormen Gesamtkosten (inklusive Werbung, Vertrieb etc.) wieder einspielen. Die Einspielergebnisse in den USA lagen bei 88 Millionen Dollar und damit weit unter dem, was frühere Costner-Filme eingebracht hatten. Bezüglich dieses Films, der ein leichtes Plus einspielte, hielt sich das unwahre Gerücht, er sei ein Misserfolg gewesen. 1995 wirkte Kevin Costner bei 500 Nations – Die Geschichte der Indianer unter anderem als Sprecher mit. Die 8-teilige Dokumentation über Nord- und Zentralamerikas' Ureinwohner beginnt in der präkolumbischen Zeit und reicht bis zum Ende des 19. Jahrhunderts. Die Dokumentation basiert überwiegend auf alten Texten und Bildern, Augenzeugenberichten und nachgestellten Computeranimationen. Die Serie wurde zu großen Teilen von Costner finanziell unterstützt und produziert, Regie führte Jack Leustig. Als Sprecher wirkten außerdem Tom Jackson, Wes Studi, Floyd „Red Crow“ Westerman, Eric Schweig, Michael Horse, Gordon Tootoosis, Graham Greene und Tantoo Cardinal mit. Costner sagte über die Serie: “500 Nations tries to crystallize the sweeping events that reshaped North America – one of the largest and most pivotal stories in human history – a story we feel is widely unknown. Often painful, sometimes shocking, but in the end it is simply about understanding.” "(500 Nations versucht die umfassenden Ereignisse darzustellen, die Nordamerika umgestalteten – eine der größten und entscheidendsten Geschichten in der Entwicklung der Menschheit – eine Geschichte, die weitgehend unbekannt ist. Oft schmerzhaft, manchmal schockierend; aber am Ende geht es nur ums Verstehen.)" Zwei Jahre später setzte Costner noch einmal sein ganzes Renommee ein, um als Regisseur, Hauptdarsteller und Produzent eine mit Wyatt Earp vergleichbar teure Mischung aus Western und Science Fiction drehen zu können: "The Postman" wurde ein Misserfolg. Der Film wurde für drei Saturn Awards nominiert und mit fünf Goldenen Himbeeren (darunter zwei für Costner) „ausgezeichnet“. Nach dem hochbudgetierten Misserfolg konnte sich Costner nie wieder in der ersten Hollywood-Liga positionieren, obwohl er auch weiterhin kontinuierlich beschäftigt war. Er spielte Hauptrollen in Liebesfilmen wie "Message in a Bottle" (1999), "An deiner Schulter" "(The Upside Of Anger," 2005) oder dem Politthriller "Thirteen Days" (2000) mit. 2003 inszenierte er den Western "Open Range" (2003), indem er auch Regie führte. Mit diesem Film gelang ihm ein finanzieller Erfolg und er erntete wieder positive Kritiken. 2007 überraschte er in der Rolle eines Serienmörders in dem Film "Mr. Brooks". 2007 gründete Costner mit Unterstützung seiner späteren Frau Christine Baumgartner die achtköpfige Country-Band "Kevin Costner & Modern West" und veröffentlichte 2008 "Untold Truths", 2010 folgte "Turn It On". Costners Ehe mit Cindy Silva wurde 1994 nach 16 Jahren geschieden, die beiden haben drei Kinder, unter anderem Annie Costner. Aus einer kurzen Affäre mit der Millionenerbin Bridget Rooney stammt ein Sohn. Seit 2004 ist Costner mit der Modedesignerin Christine Baumgartner verheiratet, das Paar hat drei Kinder. Costners deutscher Synchronsprecher ist Frank Glaubrecht. Konrad Zuse. Konrad Ernst Otto Zuse (* 22. Juni 1910 in Deutsch-Wilmersdorf; † 18. Dezember 1995 in Hünfeld) war ein deutscher Bauingenieur, Erfinder und Unternehmer (Zuse KG). Mit seiner Entwicklung der Z3 im Jahre 1941 baute Zuse den ersten funktionstüchtigen, vollautomatischen, programmgesteuerten und frei programmierbaren, in binärer Gleitkommarechnung arbeitenden Rechner und somit den ersten funktionsfähigen Computer der Welt. Leben. Konrad Zuse wurde als Sohn von Maria und Emil Zuse geboren. Er hatte eine ältere Schwester, über die er meinte: „Sie hatte das Pech, in der damaligen Zeit als intelligenter Mensch und Frau geboren zu sein.“ Als er zwei Jahre alt war, zog die Familie in das ostpreußische Braunsberg, wo der Vater als Postbeamter im mittleren Dienst arbeitete. Dort besuchte er das humanistische Gymnasium Hosianum. Als er 1923 in der 9. Klasse war, zog die Familie Zuse nach Hoyerswerda, wo er das Reform-Realgymnasium, das heutige Lessing-Gymnasium, absolvierte. 1927 legte er sein Abitur ab. Zuse hat sich selbst als „Bummelstudent" bezeichnet. Als 17-jähriger studierte er an der Technischen Hochschule Berlin-Charlottenburg (heute Technische Universität Berlin) zunächst Maschinenbau, wechselte dann zur Architektur und schließlich zum Bauingenieurswesen. Zwischendurch arbeitete er fast ein Jahr lang als Reklamezeichner. Während seines Studiums wurde er Mitglied in der Berliner Studentenverbindung AV Motiv. Schon früh entdeckte er seine Vorliebe für Technik und Kunst. a>. Das Original war im Wohnzimmer seiner Eltern aufgebaut und wurde samt den Plänen im Bombenkrieg zerstört. In den Jahren 1987 bis 1989 hat der damals fast 80-jährige Zuse seine Z1 aus der Erinnerung nachgebaut. 1935 schloss Zuse sein Ingenieurstudium mit einem Diplom ab. Danach arbeitete er zunächst als Statiker bei der Henschel Flugzeug-Werke AG in Schönefeld bei Berlin, gab diese Stelle jedoch bald auf und richtete eine Erfinderwerkstatt in der Wohnung seiner Eltern ein. Hier entstand die Z1, eine programmierbare Rechenmaschine, die allerdings noch nicht voll funktionsfähig war, weil sie mechanisch funktionierte. Das Prinzip der Z1 übernahm Zuse dann für die Z3, die er mit Relais aufbaute. Dies war der erste voll funktionsfähige Computer der Welt (siehe Abschnitt „Leistungen“). Zuse verfügte über die Gabe, Menschen mit seiner Begeisterung so anzustecken, dass sie ihm immer wieder Geld gaben – sein Vater ließ sich sogar aus dem Ruhestand reaktivieren, um die Entwicklung mitzufinanzieren – oder Arbeitszeit spendeten. Während des Zweiten Weltkrieges wurde Konrad Zuse zweimal einberufen, nahm aber nie an Kriegshandlungen teil. Mit Hilfe von Herbert Wagner – Leiter der Sonderabteilung F bei der Henschel Flugzeug-Werke AG, in der ferngesteuerte Gleitbomben entwickelt wurden – konnte er erreichen, dass er „unabkömmlich“ gestellt und bei den Henschel-Werken beschäftigt wurde. Dort arbeitete er an der Gleitbombe Hs 293 mit, einer Kombination aus fliegender Bombe und Torpedo, und entwickelte Spezialrechner zur Flügelvermessung. Für wie wichtig Zuses Arbeiten gehalten wurden, zeigt auch die Tatsache, dass er mitten im Krieg 1941 die „Zuse Ingenieurbüro und Apparatebau, Berlin“ gründen konnte, die zuletzt 20 Mitarbeiter beschäftigte. Es war die einzige Firma, die in Deutschland Rechner entwickeln durfte. Auch wenn Zuse nie Mitglied der NSDAP wurde, hat er während des Kriegs keine erkennbaren Vorbehalte gegen die Arbeit in der Rüstungsindustrie gezeigt. Dokumente aus dem Nachlass Zuses belegen, wie „Rüstungsbetriebe und NS-Institutionen Zuses Computer mit über 250.000 Reichsmark“ finanzierten. Seine Erfahrungen mit dem Militär hat Zuse im Rückblick folgendermaßen resümiert: „Nur zu oft ist der Erfinder der faustische Idealist, der die Welt verbessern möchte, aber an den harten Realitäten scheitert. Will er seine Ideen durchsetzen, muß er sich mit Mächten einlassen, deren Realitätssinn schärfer und ausgeprägter ist. In der heutigen Zeit sind solche Mächte, ohne daß ich damit ein Werturteil aussprechen möchte, vornehmlich Militärs und Manager. […] Nach meiner Erfahrung sind die Chancen des Einzelnen, sich gegen solches Paktieren zu wehren, gering.“ Im Januar 1945 heiratete er seine Frau Gisela, geb. Brandes, in Berlin, mit der er später fünf Kinder hatte. Der älteste Sohn Horst ist heute Hochschullehrer für Informatik. Der Familie gelang die Flucht aus Berlin über Göttingen in das Allgäu, wobei Konrad Zuse den zuletzt entstandenen Rechner Z4 retten konnte. Er bildete die Grundlage, um nach dem Krieg das erste deutsche Computerunternehmen, die „Zuse KG“, aufzubauen. Nach stürmischem Wachstum musste Konrad Zuse 1964 seine Kapitalanteile wegen Überschuldung abgeben. Danach war er als Berater tätig und schrieb sein Buch zum „Rechnenden Raum“. 1983 durfte Zuse nach einer privaten Einladung eine öffentliche Vorlesung an der Technischen Hochschule Ilmenau in Thüringen halten. Das Rechenzentrum der TH durfte er nicht besuchen. Im Ruhestand widmete Zuse sich seinem Hobby, dem Malen im expressionistischen Stil. Z1 – ein „mechanisches Gehirn“. Da die statischen Berechnungen im Bauingenieurwesen sehr monoton und mühselig waren, kam Zuse die Idee, diese zu automatisieren. Er kündigte 1935 seine Statiker-Tätigkeit und widmete sich ausschließlich der Umsetzung seiner Pläne, die er in einem Tagebucheintrag vom Juni 1937 beschreibt: „Seit etwa einem Jahr beschäftige ich mich mit dem Gedanken des mechanischen Gehirns.“ Das Resultat war der 1938 fertiggestellte, elektrisch angetriebene mechanische Rechner Z1. Er arbeitete als erster Rechner mit binären Zahlen und besaß bereits ein Ein- / Ausgabewerk, ein Rechenwerk, ein Speicherwerk und ein Programmwerk, das die Programme von gelochten Kinofilmstreifen ablas. Die Z1 arbeitete aufgrund von Problemen mit der mechanischen Präzision nie zuverlässig; die mechanischen Schaltwerke klemmten regelmäßig. Von Charles Babbage – den auch Zuse als „den eigentlichen Vater des Computers“ anerkennt – hat er erst lange nach dem Ende des Zweiten Weltkriegs erfahren. Für die Z1 entwickelte Zuse die Methode der computergerechten Gleitkommazahlen auf der Grundlage von Mantisse und Exponent. Mit diesem Verfahren berechnet heute jeder gängige Computer, vom Taschenrechner bis zum Cluster, Gleitkommazahlen. Auch die weithin verwendete IEEE-754-Normierung, d. h. die Festlegung auf ein bestimmtes Gleitkommazahlenformat, ist eine Folge von Zuses Grundlagenarbeit. Noch während er an der Z1 arbeitete, übertrug er die mechanische Schaltung in die elektromechanische Relaistechnik. Zuse erprobte sie zunächst an einem Prototyp Z2, den er 1939 fertigstellte. 1940 führte er das Gerät dem technischen Direktor der Deutschen Versuchsanstalt für Luftfahrt Günther Bock vor, der sich daraufhin bereit erklärte, die Entwicklung der Z3 mitzufinanzieren. Z3 – der erste funktionsfähige Computer der Welt. 1941 baute Zuse in den Räumen des Ingenieurbüros, das er inzwischen gegründet hatte, die Z3. Am 12. Mai 1941 stellte Zuse diese von ihm in Zusammenarbeit mit Helmut Schreyer gebaute Rechenmaschine Z3 vor. Es war ein vollautomatischer, in binärer Gleitkommarechnung arbeitender Rechner mit Speicher und einer Zentralrecheneinheit aus Telefonrelais. Berechnungen konnten programmiert werden, jedoch waren keine bedingten Sprünge und Programmschleifen möglich. Die Z3 gilt heute als erster funktionstüchtiger Computer der Welt. Eine Notiz Zuses aus dem Jahr 1942 zu möglichen Anwendungsfeldern des Rechners nennt unter dem Stichwort „Verwandtschaftslehre“, die Möglichkeit „Verwandtschaftsbeziehungen von zwei beliebigen Menschen A, B zu berechnen“. Praktische Bedeutung sah er in der „systematische[n] Rassenforschung, Ahnenforschung [und als] Unterlage für [die] Vererbungslehre“. Hierfür sei die „Registrierung von bestimmten charakteristischen, eindeutig bestimmbaren Eigenschaften, z. B. Erbkrankheiten (Bluter)“, für „Verwandtschaftsverhältnisse ist eine eindeutige Kurzschrift [?] erforderlich.“ Das Gerät wurde praktisch zur Berechnung einer komplexen Matrix eingesetzt, die zur Untersuchung des Flügelflatterns, das zum Absturz zahlreicher Flugzeuge geführt hatte, benötigt wurde. Allerdings ist die Z3 nie als „dringlich“ eingestuft und nie in den Routinebetrieb übernommen worden. Nachdem das Original am 21. Dezember 1943 bei einem Bombenangriff zerstört wurde, befindet sich ein funktionsfähiger Nachbau im Deutschen Museum in München. Dieser Nachbau wurde 1962 von der Zuse KG zu Ausstellungszwecken angefertigt. Der Rechner war nicht dafür konstruiert Turing-vollständig zu sein und wurde auch nie in diesem Sinne benutzt, was auch nicht "sinnvoll" möglich gewesen wäre. Allerdings wies Raúl Rojas im Jahr 1998 nach, dass er durch das Ausnutzen gewisser Tricks, wie das Aneinanderkleben des Lochstreifens zu einer Schleife, diese Eigenschaft besitzt. Es ist damit der erste tatsächlich gebaute Rechner, der diese Eigenschaft besaß. Charles Babbages „Analytical Engine“ wäre ebenfalls Turing-vollständig gewesen, wurde aber nicht fertiggestellt. Idee zur Prozesssteuerung. Für die Henschel-Flugzeug-Werke entwickelte Konrad Zuse die fest programmierten Spezialrechner S1 (1942) und S2 (1943) zur Flügelvermessung der Henschel-Gleitbombe Hs 293. Dabei kam ihm die Idee, das Ablesen der Messuhren zu mechanisieren. Die dafür gebauten Messgeräte waren die ersten Analog-Digital-Wandler. 1944 verwirklichte Zuse in einem ausgelagerten Werk der Henschel-Flugzeug-Werke in Warnsdorf im Sudetenland die erste Prozesssteuerung per Computer. Z4 – Grundlage einer deutschen Computerindustrie. Auch die Weiterentwicklung der Z3 wurde von der Deutschen Versuchsanstalt für Luftfahrt gefördert. Es handelte sich wieder um einen aus Relais aufgebauten elektromechanischen Rechner. Bis dahin waren alle Rechner mit dem Anfangsbuchstaben Z wie „Zuse“ benannt worden. Ein Mitarbeiter kam auf die Idee, das Gerät als V4 zu bezeichnen, um damit zu suggerieren, es handele sich wie die V1 und V2 um Vergeltungswaffen. Unter dieser Tarnung war es möglich, gegen Kriegsende einen Transport nach Göttingen zu organisieren, wo die Z4 im März 1945 in der Aerodynamischen Versuchsanstalt des KWI für Strömungsforschung fertiggestellt wurde. Bei dieser Gelegenheit bekam Zuse auch das Konzentrationslager Mittelbau-Dora und die Arbeitsbedingungen der Zwangsarbeiter zu sehen. Es gelang ihm, sich der Gruppe Wernher von Brauns anzuschließen, die nach Bayern flüchtete. Nach mehreren Zwischenstationen kam Zuses Gruppe nach Hinterstein im Allgäu. Die Z4 wurde im Mehllager einer Bäckerei in Hopferau bei Füssen wiederaufgebaut. Der Erfinder hielt seine Familie mit Malen von Gemsen in Öl für US-amerikanische Touristen über Wasser und unterstützte ortsansässige Bauern bei der Abrechnung ihrer Milcherträge. Das Gerücht von der Z4 sprach sich allerdings herum. Die IBM interessierte sich für die Schutzrechte, um die weitere Entwicklung zu unterdrücken. Mit Remington Rand kam eine Kooperation für Lochkartenleser zustande. 1949 spürte Prof. Eduard Stiefel von der ETH Zürich Zuse im Allgäu auf und ließ sich die Eignung der Z4 für seine Forschung demonstrieren. Mit ihm kam ein großzügiger Mietvertrag zustande, der Konrad Zuse die notwendigen Mittel verschaffte, um die Zuse KG zu gründen. 1950 war die Z4 der einzige funktionierende Computer in Kontinentaleuropa und der erste kommerzielle Computer weltweit. Sie wurde einige Monate früher als die UNIVAC installiert. Die Z4 war von 1950 bis 1955 an der ETH Zürich in Betrieb. Aus Anlass des 100. Geburtstages von Konrad Zuse veröffentlichte die ETH Zürich eine Festschrift, die die Nutzung des Relaisrechners Z4 in Zürich ausführlich beschreibt, u. a. mit einem eingehenden Zeitzeugenbericht von Prof. Urs Hochstrasser, einer Liste des damaligen Institutpersonals und der noch lebenden Zeitzeugen sowie einer Übersicht über die 55 Aufträge und mathematischen Untersuchungen, die in den fünf Jahren mit der Z4 an der ETH Zürich durchgeführt wurden. Vgl. dazu: Herbert Bruderer, Konrad Zuse und die Schweiz. Zur Sprache kommt auch der Rechenlocher M9 (=Z9), den die Zuse KG als Folgeauftrag für die Schweizer Remington Rand entwickelt und in Serie gebaut hat. Die M9 wurde in Verwaltung, Industrie und Forschung verwendet. Die Erfahrungen mit der Z4 erleichterten den Eigenbau des Röhrenrechners ERMETH (elektronische Rechenmaschine der ETH). „Plankalkül“ – eine höhere Programmiersprache. 1937 entdeckte Zuse während der Arbeiten an seinem ersten Computer den Aussagenkalkül neu. Während der Arbeit an der Z4 erkannte er, dass die Programmierung in Maschinensprache zu aufwändig war und deswegen eine höhere Programmiersprache nötig sein würde. Zunächst dachte er, dass Esperanto dies leisten könnte. In den Jahren 1945/46, als Zuse durch die Kriegsereignisse nicht praktisch arbeiten konnte, entwarf er den „Plankalkül“, konnte ihn aber nicht veröffentlichen. Die Idee zu Programmiersprachen wurde erst zehn Jahre später wieder aufgegriffen, als Sprachen wie Fortran, Algol und Cobol entworfen wurden. Der „Plankalkül“ wäre universeller als diese Sprachen gewesen, ist aber erst im Jahr 1975 im Rahmen einer Dissertation von Joachim Hohmann implementiert worden. Scheitern des Patentanspruchs. Zuse hatte schon vor dem Krieg mehrere Patente angemeldet. Am wichtigsten war jedoch eine Patentanmeldung von 1941, in der er die Z3 beschrieb. Die deutschen Prüfer hatten gegen Zuses Ansprüche keine Einwände, und das Patent wurde 1952 bekanntgemacht. Dagegen erhoben die Firma Triumph, später auch IBM Einspruch. Der Prozess zog sich durch sämtliche Instanzen, bis das Bundespatentgericht 1967 zur endgültigen Entscheidung kam, dass dem Erfinder des Computers „mangels Erfindungshöhe“ kein Patent erteilt werden könne. Auf die Idee, die Prozesssteuerung zu patentieren, kam Zuse nie. Zuse KG. Konrad Zuses Werkstatt in Neukirchen (2010) Nach dem Krieg gründete Zuse 1949 in Neukirchen im damaligen Kreis Hünfeld die Zuse KG. Weitere Computer wurden gebaut, die Typenbezeichnung war immer ein "Z" und eine fortlaufende Nummer. Mit der Z5 berechnete die Firma Leitz Objektive. Herausragend war die noch in Relaistechnik ausgeführte Z11, die der optischen Industrie, Universitäten und Flurbereinigungsbehörden verkauft wurde. Mit der Einführung der Elektronik begann eine neue Zählung, und die Z22 wurde 1955 zum ersten in Röhrentechnik aufgebauten Computer der Firma. Die Daten wurden in einem Magnetspeicher gespeichert. 1957 wurde der Firmensitz von Neukirchen nach Bad Hersfeld verlegt. Bis 1967 baute die Firma insgesamt 251 Computer. Die Firma entwickelte auch den ersten Plotter, den „Graphomat Z64“. Das schnelle Wachstum überforderte jedoch die Firma, Banken waren nur gegen hohe Zinsen bereit, Kredite für das ihnen unbekannte Computergeschäft zu geben, eine staatliche Forschungsförderung gab es noch nicht, und als es zu Verzögerungen bei der Auslieferung der Z25 kam, stand die Firma vor dem Ruin. Ab 1964 stieg Zuse als aktiver Teilhaber aus der Firma aus, sie wurde zunächst von der deutschen BBC in Mannheim, Anfang 1967 dann von Siemens übernommen. „Rechnender Raum“. Während seines Aufenthalts in Hinterstein 1945/1946 war Zuse zum ersten Mal der Gedanke gekommen, dass der Kosmos selbst als gigantische Rechenmaschine aufgefasst werden könnte. Er baute ihn zur Idee des „Rechnenden Raums“ aus. 1969 schrieb Zuse unter diesem Titel ein Buch, in dem er eine Theorie der zellulären Automaten entwickelte und sie, ähnlich wie später Stephen Wolfram, auch auf die Kosmologie anwandte. Zuse als Künstler. Schon während seiner Jugendzeit hatte Zuse ein Talent, seine Visionen auch in künstlerischer Form auf Papier zu bringen. „Ich habe zwar kein Kunststudium, aber ein Informatikstudium habe ich auch nicht,“ sagte er über sich selbst. Seine Ölgemälde, Kreidezeichnungen und Linolschnitte signierte er zeitweise mit dem Pseudonym "Kuno See". Ein Großteil des künstlerischen Nachlasses befindet sich in der Staatlichen Graphischen Sammlung München. Einige Werke sind im Hünfelder Konrad-Zuse-Museum und im Astronomisch-Physikalischen Kabinett in Kassel ausgestellt. Anlässlich des einhundertsten Geburtstages Zuses zeigte das Weiterbildungsinstitut (WbI) in Oberhausen eine Ausstellung von mehr als 130 Werken von Zuse. 2012 wurden im Rahmen der documenta 13 in Kassel Bilder von Konrad Zuse ausgestellt. Würdigungen. Grab von Konrad Zuse (2010) Insgesamt erhielt Konrad Zuse acht Ehrendoktortitel (darunter Technische Universität Dresden 1981, Bauhaus-Universität Weimar 1991) und zwei Ehrenprofessuren. 1973 wurde ihm das Große Verdienstkreuz der Bundesrepublik Deutschland verliehen, 1995 dazu Stern und Schulterband. Er war Träger des Werner-von-Siemens-Ringes (1964), der Wilhelm-Leuschner-Medaille (1987) und der Wilhelm-Exner-Medaille (1969). 1972 wurde er Mitglied der Leopoldina. 1980 erhielt Zuse den mit 60.000 DM dotierten Preis der Aachener und Münchener für Technik und angewandte Naturwissenschaften. 1984 wurde das Konrad-Zuse-Zentrum für Informationstechnik Berlin gegründet. 1985 wurde Zuse das erste Ehrenmitglied der Gesellschaft für Informatik. Seit 1987 verleiht diese alle zwei Jahre die Konrad-Zuse-Medaille für Verdienste um die Informatik. Die Konrad-Zuse-Medaille für Verdienste um die Informatik im Bauwesen wird vom Zentralverband des Deutschen Baugewerbes für besondere Leistungen auf dem Gebiet der Informatik vergeben. 1995 ernannte ihn die Stadt Hoyerswerda zum Ehrenbürger. Der Chaos Computer Club ernannte Zuse zu seinem Ehrenmitglied. Konrad Zuse besaß zeitlebens keinen eigenen PC. 2002 wurde ein Konrad Zuse gewidmetes Medienzentrum an der Bauhaus-Universität Weimar eröffnet, das das Rechenzentrum der Hochschule sowie verschiedene Studios beherbergt. Zuse wurde 2003 im ZDF auf Platz 15 der größten Deutschen gewählt. Seit 2006 führt die Stadt Hünfeld auf Briefköpfen und Ortsschildern die offizielle Zusatzbezeichnung „Konrad-Zuse-Stadt“. Seit 2010 trägt der Stadtplatz in Hünfeld Konrad Zuses Namen. Die Stadt würdigte damit Zuse, der 15 Jahre zuvor in seiner Wahlheimat Hünfeld gestorben war und dort auch begraben wurde. In Hünfeld sind auch der Bahnhof der Deutschen Bahn, das Heimatmuseum und ein Vier-Sterne-Hotel nach Konrad Zuse benannt. In Hünfeld und in Berlin-Pankow gibt es eine Konrad-Zuse-Schule, beide sind Berufsschulen. In Hoyerswerda gibt es das Berufliche Schulzentrum „Konrad Zuse“. Am 22. Juni 2009 benannte die Technische Universität Ilmenau den Neubau für die Fakultät Informatik und Automatisierung Zusebau. Der Gebäudegrundriss des Gebäudes orientiert sich an der Zeichenverschlüsselung einer Lochkarte. Die Eröffnung fand im Sommer 2011 im Beiseins des Sohnes Horst Zuse statt. Am 22. August 2011 wurde der Neubau des Instituts für Informatik und des IT- und Medienzentrums der Universität Rostock, das Konrad-Zuse-Haus, in der Albert-Einstein-Straße 22 eingeweiht. Diverse Straßen wie in Berlin, Bremen, Bielefeld, Erfurt, Frankfurt am Main, Heilbronn, Hoyerswerda, Itzehoe, Koblenz, Lüneburg, Leipzig und Monheim am Rhein wurden nach ihm benannt. Zuse-Jahr 2010. Im Jahr 2010 wurden zum hundertsten Geburtstag von Konrad Zuse im Rahmen des „Zuse-Jahr 2010“ in sechs deutschen Museen in Berlin, Dresden, Paderborn, Hünfeld, Hoyerswerda und Kiel seinem Leben und Wirken gewidmete Ausstellungen veranstaltet. Es erinnerten bundesweit Ausstellungen, Vorträge und Workshops an den Computerpionier und machen auf die Aktualität seiner Erfindung im digitalen Zeitalter aufmerksam. Des Weiteren würdigte auch die Deutsche Post AG Zuse mit einer am 10. Juni 2010 erschienenen Sonderbriefmarke. Diese Marke zeigt ein Konterfei Konrad Zuses aus grob gerasterten Bildpunkten mit den Lebensdaten 1910–1995 und dem Aufdruck seines Namens. Am gleichen Tag erschien auch eine 10-Euro-Gedenkmünze. Zuse-Rechner in Museen, Ausstellungen und Sammlungen. Der von Konrad Zuse nachgebaute erste Computer der Welt, die Z1, steht zusammen mit seinen Rechnern Z11, Z22, Z23, Z25, Z31, Z60 und Z64 in der Zuse-Ausstellung des Deutschen Technikmuseums Berlin. Die Z4 im Zustand von 1950 und ein funktionstüchtiger Nachbau der Z3 sind im Deutschen Museum in München ausgestellt. Das Museum der Stadt Hünfeld hat ebenfalls eine Konrad-Zuse-Abteilung, die einige Exponate (zum Beispiel Z23, Z25, Z31, Z64 Graphomat) zeigt. Das Konrad-Zuse-Computermuseum in Hoyerswerda, das sich mit der Geschichte der Rechentechnik und dem Leben Zuses beschäftigt, verfügt über die Rechner Z11, Z22, Z22R, Z23 und Z64. Es soll nach seinem Umzug im Januar 2017 wieder öffnen. An der Fachhochschule Karlsruhe war eine Z22 in kompletter Ausstattung bis 2005 in Betrieb. Anfang 2005 wurde sie im Rahmen einer Ausstellung im Zentrum für Kunst und Medientechnologie in Karlsruhe noch betriebsfähig aufgebaut. Über eine heute noch funktionsfähige Z25 aus dem Jahr 1967 verfügt das Arithmeum in Bonn und eine Z25 (derzeit im Depot) besitzt das Museum für Kommunikation Bern (Übernahme vom Swiss Science Center Technorama in Winterthur). Im Heinz Nixdorf MuseumsForum in Paderborn sind eine Z11, eine Z23 und eine seltene Z80 aus dem Jahr 1960 zur Berechnung von Flächeninhalten zu sehen. Im Astronomisch-Physikalischen Kabinett der Stadt Kassel, Abteilung „Mathematik und Informationstechnik“ befindet sich ebenfalls ein Z11. Dieser Rechner aus Kunststoff und Metall mit den Maßen: Breite 200 cm, Tiefe 90 cm, Höhe 105 cm, wurde 1957 in Neukirchen gebaut. Das Museum für Kommunikation Bern besitzt einen Rechenlocher Z9 ("Tarnbezeichnung M9", später auch als "Remington-Rechenlocher M9 mit Kartenstation" bezeichnet) der Zuse KG. Die Z9/M9 war ein Auftragsrechner der Schweizer Remington Rand in Zürich, der aufgrund des Erfolges der Z4 an der ETHZ bestellt wurde. Zur Tarnbezeichnung M9 kam es (das „M“ kommt von der Firma Mitra, die im selben Haus in Zürich ihren Sitz hatte), weil Zuse seine eigenen Patente umgehen musste, da er sie zeitweise an die Frankfurter Remington-Niederlassung (Powers) übertragen hatte. Es ist mit hoher Wahrscheinlichkeit das einzige noch erhaltene Exemplar der Z9/M9. Der Rechner steht zurzeit (Stand Februar 2011) noch im Depot des MfK Bern. Die programmgesteuerte Rechenmaschine Z9/M9 arbeitete nicht mehr rein mechanisch, sondern mit elektromagnetischen Relais. Sie setzte sich aus einem Kartenleser, einem Rechenwerk und einem Kartenlocher zusammen. Die Relaismaschine konnte über eine auswechselbare Schalttafel gesteuert werden, auf der der jeweilige Operationsablauf verdrahtet war. Die Z9/M9 war in der Lage, alle vier Grundrechenarten auszuführen. Im Computermuseum der Fachhochschule Kiel sind die Rechner Z11, Z22, Z23, Z25 sowie der Graphomat Z64 ausgestellt. Eine Z22R befindet sich auch im Museum "wortreich" in Bad Hersfeld. Die Informatik Sammlung Erlangen hat in ihrer Sammlung die wohl zzt. einzige lauffähige Z23, die in einem Festakt 2015 wieder in Betrieb genommen wurde und bei Führungen im Betrieb präsentiert wird. An dieser Z23 wird ständig gearbeitet, um sie lauffähig zu halten. In Zuses Lebensstation Hoyerswerda wird derzeit (Dezember 2015), so dpa am 18. Dezember 2015, an einem Konrad-Zuse-Computermuseum (ZCOM) gebaut; es soll eine Fläche von 1400 qm umfassen. Kultfilm. Kultfilme sind Filme, um die eine treue Anhängerschaft einen Fan-Kult betreibt, oft noch Jahre oder Jahrzehnte nach der Premiere in den Kinos. Dies äußert sich etwa durch das regelmäßige Anschauen (z. B. "Dinner for One" zu Silvester), durch Riten bei der Vorführung ("The Rocky Horror Picture Show", mitunter mit Live-Performance vor der Leinwand, "Blues Brothers" oder "Die Feuerzangenbowle"), durch das Zitieren von Textpassagen ("Der Pate" oder bei Monty Python, z. B. "Das Leben des Brian"), bis hin zur Übernahme von ganzen Philosophien, Kunstsprachen oder Uniformen ("Star Trek" und "Star Wars"). Manchmal treffen sich kostümierte Fans auf sogenannten Conventions, wobei Schauspieler und andere Filmbeteiligte als Ehrengäste teilnehmen. Kultfilm als subjektives Empfinden. Entscheidend für einen Kultfilm ist ausschließlich die Reaktion des Publikums, die über eine „normale“ Identifikation hinausgehen muss und deshalb von Generation zu Generation wechselt und in den einzelnen Ländern unterscheidet, weshalb die Erstellung einer Liste von Kultfilmen wegen des individuellen Verhältnisses des Einzelnen zum Film kaum möglich ist. Dass ein großer Teil der Zuschauer den Film ablehnt, steht dem nicht entgegen, sondern führt häufig gerade erst zu der besonderen Beziehung des Liebhabers zum Werk. Eingefleischte Fans der Filme ' und "Uhrwerk Orange" sehen diese als wegweisend und bahnbrechend (bei "Odyssee im Weltraum" z. B. hinsichtlich der Tricktechnik und der Kombination Raumfahrt mit Walzerklängen), andere finden diese Filme einfach langweilig oder abstoßend. Allein der wirtschaftliche Erfolg oder Misserfolg eines Filmes stellt keinerlei Maßstab für den Kultstatus dar. Häufig wurde der Begriff "Kultfilm" gerade zur Abgrenzung des Filmgeschmacks des Massenpublikums verwendet. Nicht selten handelt es sich bei Kultfilmen um Filme, die ursprünglich keine kommerziellen Erfolge waren, und erst später dank des Kultes wiederentdeckt wurden, so etwa bei "The Rocky Horror Picture Show", "A Night at the Roxbury", "Citizen Kane" oder "Blade Runner", die zwar allesamt im Kino floppten, aber im Videoverleih oder DVD-Vertrieb Kultstatus erlangten. Independentfilmen wird deshalb im Allgemeinen eher ein „Kultfilm-Potential“ zugesprochen als Hollywood-Filmen. "Pulp Fiction" ist ein Beispiel für einen äußerst erfolgreichen Kultfilm, der durch seinen erheblichen Einfluss auf nachfolgende Gangster-Filme Einfluss in das Mainstream-Kino fand. Weitere Werke von Quentin Tarantino genießen einen vergleichbaren Ruf. Den Filmen von Russ Meyer wird oft der Status "Kult" zugesprochen, in ihrem Genre gelten sie als Vorreiter. Mitunter handelt es sich um relativ billige Produktionen (B-Movie), die mit ihrer trashigen Ästhetik und unfreiwilligen Komik ein postmodernes Publikum anziehen, das in diesen Filmen auf den ersten Blick ungeahnte Qualitäten entdeckt. Da diese Trash-Ästhetik auch bewusst eingesetzt wurde, sprechen manche Filmwissenschaftler von einem eigenen Kultfilm-Genre. Ein klassisches Beispiel in diesem Zusammenhang sind die Filme des US-amerikanischen Filmregisseurs Ed Wood, der postum zum „schlechtesten Regisseur aller Zeiten“ gewählt wurde. Letzten Endes entlehnen aber viele Kultfilme ihre dramatische Struktur aus anderen Genres, und einige können auch zu Recht unangefochten einen Status als Kunstwerk beanspruchen. Anregend zur Kultbildung scheint auch eine Wiederholungsrate oder Serienausstrahlung wie der Hype um den Fernsehfilm ' aufgezeigt hat. Ein sich nicht "sattsehen" zu können ist wohl die Hauptdiagnose. Kultfilm als Zeichen des Zeitgeistes. Vor allem im Laufe des Zeitgeistes der Jahrzehnte avancieren Filme – auch nachträglich – zu Kultfilmen. So wurden die Spielfilme mit dem Schauspieler James Dean wie etwa "… denn sie wissen nicht, was sie tun" von 1955 aufgrund der Handlung der Filme, wegen des Schauspielers sowie dessen frühem Tod zu Kultfilmen. Anfang der 1970er-Jahre wurde die Verfilmung ' – begleitet von massiver Kritik aus konservativen Kreisen – zu einem „Kultfilm der Aufklärung und Freizügigkeit“. Auf dem weltweiten Höhepunkt der Disco-Ära wurde von vielen Jugendlichen der Film "Saturday Night Fever" durch das Filmthema, die Schauspieler und die Musik zu einem Kultfilm. Kultfilm nach Filmgenres. Jedes Filmgenre bringt auch für bestimmte Personengruppen Kultfilme hervor. So werden unter den vielen Western­filmen "Spiel mir das Lied vom Tod" oder "Zwölf Uhr mittags" als Kultfilm angesehen. Auch die Verfilmungen der Karl-May-Geschichten des Apachen-Häuptlings Winnetou wurden in den 1960er Jahren zu „Kultfilmen des deutschen Kinos“. Unter Krimi­liebhabern gelten häufig die Edgar Wallace- und Alfred Hitchcock-Filme als Kultfilme. Im Genre Roadmovie avancierte der Film "Thelma & Louise", auch wegen der gezeigten Frauencharakter, zu einem Kultfilm. Eine sehr klare Einstufung als Kultfilm nehmen häufig die Fans bestimmter Musikgruppen bei Musikfilmen (z. B. Beatles-Filme, ABBA-Film, The Doors-Film) sowie Fangruppen von Comic­figuren bzw. Zeichentrickfilmen (z. B. Die Peanuts, Asterix, Werner) vor. Abgrenzung der Begriffe Kultfilm und Filmklassiker. Eine exakte Abgrenzung beider Begriffe ist nur schwer möglich. Für bestimmte Personengruppen kann ein Film gleichzeitig ein Kultfilm als auch ein Filmklassiker sein. Als Filmklassiker gelten häufig Filme, deren Erstaufführung vor mindestens 30 Jahren war, die sehr hohe Besucherzahlen in den Kinos hatten, die Maßstäbe in der Filmproduktion gesetzt haben, die mehrere Filmpreise gewinnen konnten oder noch heute eine messbare Bekanntheit haben. Bekannte Beispiele sind "Lichter der Großstadt", "King Kong", "Casablanca" oder "Der weiße Hai". Auch die erfolgreiche Verfilmung eines Literatur-Bestsellers kann zu einem Filmklassiker werden (z. B. "In 80 Tagen um die Welt", "Quo vadis?", "Ben Hur" oder "Vom Winde verweht"). Begriffsverwendung als gezieltes Marketinginstrument. Heute wird der Begriff "Kultfilm", ungeachtet bisher gültiger Definitionen, in inflationärem Umfang benutzt. Immer häufiger wird er von den Filmstudios/Verleihern als Marketing­element benutzt, und Filme werden schon bei der ersten Aufführung mit großem Werbeaufwand als „Kultfilm“ bezeichnet, um möglichst viele Zuschauer ins Kino zu locken. Auch bei den privaten Fernsehsendern werden regelmäßig alte und bekannte Filme marktschreierisch als „DER Kultfilm“ angekündigt, um die Einschaltquoten zu steigern. Hier wird stets vergessen, dass alleine der Zuschauer über den Status „Kultfilm“ entscheidet und nicht das Diktat des Filmverleihs oder der Fernsehsender. Hinzu kommt, dass manche Filme im Laufe der Erstverwertung einen Hype entfachen, bei dem sich später herausstellt, dass diese übermäßige Identifikation anschließend wieder abflacht oder verfrüht war. Diese Filme sind nicht als "Kult" anzusehen, eher als Kassenschlager (Blockbuster). Ob es einem dieser Filme gelingt, sich nachhaltig zu etablieren und später als „Kultfilm“ bezeichnet zu werden, können nur spätere Generationen von Filmzuschauern entscheiden, nicht aber die aktuellen Produzenten oder Filmverleiher. Kevin Spacey. Kevin Spacey Fowler, KBE (* 26. Juli 1959 in South Orange, New Jersey) ist ein US-amerikanischer Schauspieler, Film- und Theaterregisseur. Er ist zweifacher Oscar-Preisträger und seit 2004 künstlerischer Leiter des Londoner Old Vic Theatre. Kindheit und Jugend. Kevin Spacey wurde als Sohn der Sekretärin Kathleen A. Spacey (1931–2003) sowie des Technischen Redakteurs Thomas Geoffrey Fowler (1924–1992) in South Orange, New Jersey geboren. Als er dreieinhalb Jahre alt war, zog die Familie zusammen mit ihm und seinen älteren Geschwistern Julie und Randy in einen Vorort von Los Angeles. In der kalifornischen Metropole besuchte Spacey später die Militärakademie von Northridge, von der er allerdings verwiesen wurde. In der elften Klasse wechselte er schließlich von der "Canoga Park High School" an die "Chatsworth High School", wo er erste ernsthaftere Schauspielerfahrungen sammelte und die er schließlich als Jahrgangsbester verließ. Auf der "Chatsworth High" spielte Spacey unter anderem den Georg Ludwig von Trapp in dem Musical "The Sound of Music". In dieser Zeit nahm er außerdem den Geburtsnamen seiner Mutter an. Verschiedene Berichte geben fälschlicherweise an, er habe den Namen zu Ehren des Schauspielers Spencer Tracy angenommen, indem er dessen Vor- und Nachnamen kombiniert habe. Nach seiner Zeit an der High School versuchte sich Spacey zunächst einige Jahre lang als Stand-up-Comedian, bevor er zwischen 1979 und 1981 an der Juilliard School in New York City Schauspiel studierte. Theater. Spaceys erster professioneller Schauspielauftritt war der eines Lanzenträgers in einer Inszenierung des ersten Teils des Dramas "Heinrich VI." auf dem New York Shakespeare Festival 1981. Im folgenden Jahr gab er als "Oswald" in Henrik Ibsens "Gespenster" sein Debüt am Broadway. Anschließend übernahm er den Part des "Philinte" in Molières "Der Menschenfeind", bevor er 1984 erstmals in David Rabes "Hurlyburly" spielte. Er übernahm dann in Rotation jede männliche Rolle des Stückes und wirkte auch in der Leinwandversion von 1998 als "Mickey" mit. Nach einem Auftritt in Anton Tschechows "Die Möwe" folgte 1986 ein Engagement in einem Dinner-Theater in New Jersey, wo er in Anthony Shaffers "Revanche" mitwirkte. Große Bekanntheit als Theaterschauspieler erlangte Kevin Spacey 1986, als er neben Jack Lemmon, Peter Gallagher und Bethel Leslie als "Jamie" in Jonathan Millers von der Kritik hoch gelobten Produktion Eugene O’Neills "Eines langen Tages Reise in die Nacht" spielte. Seinen ersten großen Fernsehauftritt hatte er in einer Folge der Krimiserie "Crime Story", in der er 1987 einen Senator aus dem Kennedy-Clan spielte. Obwohl sich sein Interesse immer mehr dem Film zuwandte, spielte Spacey auch in den folgenden Jahren in mehreren großen Broadway-Produktionen. 1991 gewann er einen Tony Award für seine schauspielerische Darbietung des "Uncle Louie" in Neil Simons "Lost in Yonkers". Film und Serien. Zu Beginn seiner Filmkarriere spielte Kevin Spacey unter anderem einen exzentrischen Millionär in der Fernsehserie "L.A. Law – Staranwälte, Tricks, Prozesse", erneut an der Seite von Jack Lemmon in dem Fernsehfilm "The Murder of Mary Phagan" (1988) sowie in der Komödie "Die Glücksjäger" mit Richard Pryor und Gene Wilder (1989). Einem größeren Publikum wurde er als verrückter Waffenhändler "Mel Profitt" in der Fernsehserie "Wiseguy" bekannt. Spacey etablierte sich als Charakterschauspieler und wurde für größere Rollen, wie beispielsweise in der Tragikomödie "No Panic – Gute Geiseln sind selten" (1994), der Satire "Unter Haien in Hollywood" oder dem Drama "Glengarry Glen Ross" (1992) an der Seite von Jack Lemmon, Al Pacino und Ed Harris verpflichtet. International großen Bekanntheitsgrad erlangte Spacey 1995 durch seine Rolle als rätselhafter Krimineller "Verbal Kint" in Bryan Singers "Die üblichen Verdächtigen", für die er 1996 mit dem Oscar als Bester Nebendarsteller ausgezeichnet wurde. Im selben Jahr spielte er in dem Thriller "Sieben" mit Brad Pitt und Morgan Freeman, in dem er erst spät, und ohne im Vorspann genannt zu werden, als Serienkiller "John Doe" seinen Auftritt hat. 1996 spielte er in der Verfilmung von John Grishams "Die Jury" einen Staatsanwalt und gab zudem mit "Albino Alligator" sein Regiedebüt. Obwohl Spaceys Arbeit von der Kritik gelobt wurde, war der Film ein finanzieller Misserfolg. 1997 gründete Spacey die Produktionsfirma "Trigger Street Productions". Als Schauspieler übernahm er weitere Hauptrollen in erfolgreichen Hollywood-Produktionen wie "L.A. Confidential" (1997), "Mitternacht im Garten von Gut und Böse" (1997) oder "Verhandlungssache" (1998). Insbesondere hervorzuheben ist hierbei seine Besetzung in "American Beauty" als desillusionierter Familienvater "Lester Burnham" im Jahr 1999, wofür er seinen zweiten "Oscar", diesmal als Bester Hauptdarsteller, erhielt. Für diese Rolle wurde Spacey außerdem mit dem Chlotrudis Award als „Bester Schauspieler“ ausgezeichnet. 1999 erhielt er einen Stern auf dem Hollywood Walk of Fame. Für seine Rolle in der Broadway-Produktion "The Iceman Cometh" wurde er erneut für den "Tony Award" nominiert. Kevin Spacey auf der "HBO Post–Emmys Party", 2008. In den folgenden Jahren spielte Kevin Spacey den physisch und emotional vernarbten Lehrer "Eugene Simonet" in "Das Glücksprinzip" (2000), in "K-PAX – Alles ist möglich" (2001) einen Patienten in einer geschlossenen Anstalt, der behauptet, ein Außerirdischer zu sein, sowie in "Das Leben des David Gale" einen zum Tode verurteilten Aktivisten gegen die Todesstrafe (2003). In der von ihm selbst inszenierten Filmbiographie "Beyond the Sea – Musik war sein Leben" (2004), die in und um Berlin gedreht wurde, übernahm er die Rolle des Sängers Bobby Darin. Das Werk war nach seinen eigenen Angaben ein lang gehegter Traum, wobei er neben dem Spielen der Hauptrolle auch am Drehbuch mitwirkte und Regie führte. Im Film wie auf dem Soundtrack sang Spacey alle Stücke selbst, außerdem trat er nach der Veröffentlichung von "Beyond the Sea" mit den Liedern auf verschiedenen Tribut-Konzerten auf. Für seine Gesangsdarbietung erhielt Spacey überwiegend positive Kritiken, außerdem war er als "Bester Hauptdarsteller in einer/m Komödie/Musical" für die Golden Globe Awards 2005 nominiert. Dennoch wurde allgemein kritisiert, dass Spacey für die Rolle des jungen Bobby Darin zu alt gewesen sei. Er selbst bekräftigte trotz der schlechten Kritiken, immer noch stolz auf sein Projekt zu sein. 2006 spielte Spacey "Lex Luthor" im Film "Superman Returns". Obwohl der Film überwiegend negative Kritiken erhielt, wurde Spaceys Darstellung als Bösewicht gelobt. Er sollte zunächst auch in der inzwischen verworfenen Fortsetzung mitspielen. Weitere Auftritte hatte der Schauspieler an der Seite von Morgan Freeman und Justin Timberlake in dem Film "Edison" (2006), der allerdings lediglich direkt auf DVD veröffentlicht wurde, sowie als MIT-Professor im Film "21" mit Kate Bosworth, Laurence Fishburne und Jim Sturgess. "21" basiert auf dem Bestseller "Bringing Down the House: The Inside Story of Six MIT Students Who Took Vegas for Millions" von Ben Mezrich, der die Geschichte eines Teams von Studenten beschreibt, die beim Black Jack durch Kartenzählen große Geldsummen gewinnen. 2009 spielte Spacey an der Seite von George Clooney, Ewan McGregor und Jeff Bridges in dem Film "Männer, die auf Ziegen starren". In der Netflix-Fernsehserie "House of Cards", von der bislang (Stand 2015) drei 13-teilige Staffeln produziert wurden, spielt Spacey die Hauptrolle des amerikanischen Kongressabgeordneten Francis Underwood, der besonders skrupellos und manipulativ agiert und in immer höhere Regierungsämter aufsteigt. Diese mit hohem Budget produzierte Serie (50 Mio. Dollar je Staffel) wurde bei Kritik und Publikum zu einem großen Erfolg. Sie brachte Spacey auch mehrere Nominierungen ein, wie für den Emmy-Award und den Golden Globe Award. In den deutschen Synchronfassungen ist Till Hagen seit 1995 die Standardstimme von Kevin Spacey. In einigen früheren Produktionen sowie in "Ein ganz gewöhnlicher Dieb – Ordinary Decent Criminal" (2000) wurde Spacey von Reinhard Kuhnert gesprochen. In "Die üblichen Verdächtigen" lieh ihm Udo Schenk seine Stimme. In Wolfgang Petersens Film "Outbreak – Lautlose Killer" von 1995 wurde Kevin Spacey von Gerhard Mohr gesprochen. Künstlerischer Leiter des Old Vic. Seit Februar 2003 ist Kevin Spacey als künstlerischer Leiter am Londoner Old Vic Theatre tätig. Auf einer Pressekonferenz mit Judi Dench und Elton John erklärte er, sowohl selbst schauspielerisch tätig zu sein, als auch einige bekannte Kollegen nach London holen zu wollen. Sein Vertrag am Old Vic belief sich zunächst auf zehn Jahre. Er ist aber auch nach Ablauf dieser 10 Jahre am Old Vic tätig. Spaceys erste Theatersaison begann im Herbst 2004 mit der britischen Premiere von Maria Goos’ "Cloaca", bei der er selbst Regie führte und dafür gemischte Kritiken erhielt. Im Frühjahr 2005 stand er in den Stücken "National Anthems" von Dennis McIntyre und "Philadelphia Story" von Philip Barry selbst auf der Bühne. 2006 war er in Shakespeares "Richard II" in der Titelrolle am Old Vic zu sehen. Regie führte Trevor Nunn. In dieser Rolle trat Spacey mit dem Old Vic Ensemble im Rahmen der Ruhrfestspiele 2006 auch in Recklinghausen auf. Greg Wise, der Gatte von Emma Thompson, spielte in dieser Inszenierung seinen Gegenspieler. Im Juni 2007 gab Spacey zwar offiziell bekannt, mit der Schauspielerei aufhören zu wollen, bei den Ruhrfestspielen 2008 bekräftigte er jedoch, die Schauspielerei keinesfalls beenden zu wollen. In der Saison 2006 erlebte Spacey mit der von Robert Altman inszenierten Produktion von Arthur Millers letztem Theaterstück "Resurrection Blues" einen Misserfolg. Trotz eines namhaften Ensembles, unter anderem mit Neve Campbell und Matthew Modine, erhielt die Inszenierung überwiegend schlechte Kritiken, sodass die Vorstellungen auch mangels Publikumsinteresses bereits nach wenigen Wochen eingestellt werden mussten. Im selben Jahr spielte Spacey mit Colm Meaney und Eve Best in Eugene O’Neills "A Moon for the Misbegotten" "(Ein Mond für die Beladenen)". Diese Produktion erhielt positive Kritiken und wurde 2007 schließlich auch am Broadway aufgeführt. Im Frühjahr 2008 spielte Kevin Spacey unter der Regie von Matthew Warchus mit Jeff Goldblum und Laura Michelle Kelly in David Mamets Stück "Speed-the-plow" "(Die Gunst der Stunde)" den Filmproduzenten "Charlie Fox". Das Stück war ebenfalls im Rahmen der Ruhrfestspiele 2008 in Recklinghausen zu sehen. Im Januar 2009 führte Spacey Regie bei der Inszenierung von Joe Suttons "Complicit" mit Richard Dreyfuss, David Suchet und Elizabeth McGovern. Im Oktober 2009 hatte das Stück "Inherit the Wind" "(Wer den Wind sät)" von Jerome Lawrence und Robert E. Lee, mit Kevin Spacey in der Rolle des Verteidigers "Henry Drummond", in der Inszenierung von Trevor Nunn am Old Vic Premiere. Sonstiges. Kevin Spacey ist außerdem bekannt für seine Imitationen, die er in verschiedenen Comedyserien und Talkshows präsentierte. Bei seinem Auftritt "Inside the Actors Studio" (dt. Titel "Ungeschminkt)" lieferte er auf Anregung des Gastgebers James Lipton kurze Parodien von James Stewart, Johnny Carson, Katharine Hepburn, Clint Eastwood, John Gielgud, Marlon Brando, Christopher Walken, Al Pacino und Jack Lemmon. Spacey war bislang zweimal Gastgeber des US-amerikanischen Comedy-Formats "Saturday Night Live", wo er ebenfalls Parodien unter anderem von Christopher Walken, Walter Matthau und Jack Lemmon darbot. 2001 moderierte Kevin Spacey zusammen mit Judi Dench im Old Vic Theatre die "Unite for the Future Gala", eine Benefizveranstaltung zugunsten der britischen Opfer der Anschläge vom 11. September 2001 sowie für Ärzte ohne Grenzen. Neben seinen musikalischen Darbietungen im Umfeld des Films "Beyond the Sea" war Spacey zu verschiedenen Anlässen als Musiker tätig. Das Dean-Martin-Tribut-Album "Forever Cool" aus dem Jahr 2007 enthält mit „Ain’t That a Kick in the Head“ und „King of the Road“ zwei Duette mit Spacey und der Stimme von Dean Martin. Bei einem Konzert zu Ehren von John Lennon im Jahr 2001 stand Spacey als Moderator auf der Bühne und präsentierte zudem seine Version von "Mind Games". Für den Soundtrack von Mitternacht im Garten von Gut und Böse steuerte er den Song "That Old Black Magic" bei. Im November 2005 wurde Kevin Spacey der Ehrendoktortitel als "Doctor of Letters" von der London South Bank University verliehen. Im Juni 2008 wurde er zum "Cameron Mackintosh Visiting Professor of Contemporary Theatre" am "St Catherine’s College" der University of Oxford ernannt. Damit löste er Patrick Stewart als Gastprofessor ab. Am 13. Oktober 2008 wurde Spacey offiziell in seinem Amt begrüßt. Im Dezember 2007 moderierte Spacey zusammen mit Uma Thurman das Konzert im Rahmen der Verleihung des Friedensnobelpreises. Am 3. November 2010 erhielt Kevin Spacey den britischen Verdienstorden "Commander of the Order of the British Empire (CBE)", die dritte Stufe des Ritterordens. Die Auszeichnung für seine Verdienste um das Schauspiel wurde von Prinz Charles im Namen von Königin Elisabeth II. im Clarence House verliehen. Im Juni 2015 wurde Spacey für die Verdienste um das Old Vic von Elisabeth II. ehrenhalber zum Knight Commander of the British Empire ernannt. Als amerikanischer Staatsbürger darf er jedoch das „Sir“ nicht als Namenszusatz tragen. Spacey sitzt zudem im Aufsichtsrat des "Motion Picture and Television Fund". Privatleben. Kevin Spacey ist nicht verheiratet und schirmt sein Privatleben vehement vor der Presse ab. In der Unterrichtsvorlage "Lesbian, Gay, Bisexual und Transgender Group" wurde er als schwul bezeichnet, er selbst jedoch dementierte in verschiedenen Interviews das Gerücht, er sei homosexuell. Die Broschüre wurde laut "Daily Mirror" an britischen Schulen für den Unterricht verwendet. In dem Papier findet sich Spaceys Name in einer Reihe berühmter Homosexueller, unter anderem denen von Oscar Wilde und Tennessee Williams. Die Schauspielkollegin April Winchell gab dazu an, dass sie und Spacey nach der High-School-Zeit eine Beziehung geführt hätten. Zwischen 1992 und 2000 war Spacey mit Dianne Dreyer, die Script Supervisor von Anthony Minghella, M. Night Shyamalan und Sydney Pollack ist, liiert. Spacey ist Unterstützer der Demokratischen Partei und Freund des früheren US-Präsidenten Bill Clinton, den er bereits vor dessen Präsidentschaft gekannt hat. Nach Angaben der Federal Election Commission spendete Spacey bislang 42.000 US-Dollar an demokratische Kandidaten und Komitees. Außerdem hatte Spacey einen Cameo-Auftritt in der politischen Satire "President Clinton: Final Days", die von der Regierung Clinton für das Jahresdinner der Journalistenorganisation White House Correspondents’ Association produziert wurde. Im September 2006 erklärte Spacey, für mindestens neun weitere Jahre am Old Vic zu bleiben und so schnell wie möglich die britische Staatsbürgerschaft annehmen zu wollen. Im September 2007 traf Spacey den venezolanischen Staatspräsidenten Hugo Chávez. Gegenüber der Presse sprach keiner der Beteiligten über das Treffen, allerdings ist bekannt, dass beide das mit öffentlichen Geldern finanzierte Filmstudio "Cinema Villa" besuchten. Auszeichnungen. Golden Globe Awards Primetime Emmy Awards British Academy Film Award Saturn Awards Goldene Kamera Kernel (Betriebssystem). Ein Kernel (englisch, übersetzt "Kern"), auch Betriebssystemkern (oder verkürzt "Systemkern"), ist der zentrale Bestandteil eines Betriebssystems. In ihm ist die Prozess- und Datenorganisation festgelegt, auf der alle weiteren Softwarebestandteile des Betriebssystems aufbauen. Er bildet die unterste Softwareschicht des Systems und hat direkten Zugriff auf die Hardware. Die Konstruktion eines Betriebssystem-Kernels gehört zum Themenbereich der Informatik und der Softwaretechnik. Gängige Anforderungen an einen Kernel sind Parallelverarbeitung verschiedener Aufgaben (Multitasking), Einhaltung zeitkritischer Grenzen, Offenheit für unterschiedlichste Anwendungen und Erweiterungen. Nicht zum Kernel gehörende Teile werden als Userland bezeichnet. Bestandteile. Ein Kernel ist in Schichten (oder Layer, siehe Schichtenarchitektur) aufgebaut, wobei die unteren (maschinennahen) Schichten die Basis für die darüberliegenden bilden. Die oberen Schichten können Funktionen der unteren Schichten aufrufen, aber nicht umgekehrt. Wenn alle diese Funktionen im Kernel selbst integriert sind, spricht man von einem monolithischen Kernel. Bei einem Microkernel finden wesentliche Teile in getrennten Prozessen statt. Daneben, bzw. zwischen den beiden liegend, gibt es noch den sogenannten Hybridkernel sowie als Sonderfall den Exokernel, der konzeptionell auf dem Microkernel aufbaut. Auf jeden Fall laufen außerhalb des Kernels die Anwendungsprogramme, die sich der vom Kernel angebotenen Funktionen bedienen, um mit der Maschine zu kommunizieren. Prozesse. Zur Realisierung eines Betriebssystems wird oft das Konzept des Prozesses (Task) verwendet. Ein Prozess enthält (mindestens) einen Registersatz des Prozessors und kann über den Scheduler angehalten und wieder gestartet werden. Jeder Prozess hat kontrollierten Zugriff auf einen Teil des Speichers sowie Ein- und Ausgabekanäle, die auf Dateien oder Geräte zugreifen. Mit dem Betriebssystem-Kernel kommuniziert er über Systemaufrufe. Ein Programm läuft normalerweise in genau einem, in Ausnahmefällen auch in mehreren Prozessen. Auch manche Systemdienste laufen innerhalb von Prozessen. Starten. Beim Booten eines Computers wird nach einem eventuellen Hardwarecheck und einer teilweisen Geräteinitialisierung der Kernel mithilfe eines Bootloaders in den Speicher geladen und gestartet. Er initialisiert dann die Geräte vollständig und startet den ersten Prozess. Bei einfachen Systemen wie MS-DOS ist das ein Kommandozeileninterpreter, bei Mehrprozesssystemen ein bestimmter Prozess (bei Unixoiden codice_1), der die Systemdienste (als Prozesse) lädt und wieder, evtl. nach Eingabe von Namen und Passwort, einen oder mehrere Kommandointerpreter oder eine grafische Benutzeroberfläche als Prozesse startet. Danach übernimmt er mit Hilfe der Systemaufrufe das Starten/Stoppen von weiteren Prozessen (Anwenderprogrammen) sowie die Zuteilung von Speicher und Ein-/Ausgabekanälen auf die einzelnen Prozesse. Kernel-Arten. Können auf einem Kernel mehrere Prozesse gleichzeitig laufen, spricht man von Multitasking-Kerneln. In Wirklichkeit wird jedoch von der CPU immer nur ein Prozess gleichzeitig behandelt (außer bei Mehrkernsystemen). Den Wechsel regelt in den meisten Fällen der Scheduler. Wird ein Multitasking-Kernel durch eine Zugriffsverwaltung auf Prozesse und Geräte ergänzt, erhält man ein Multiuser-(oder Mehrbenutzer-)System. Darauf können mehrere Benutzer gleichzeitig arbeiten. Jeder Benutzer muss sich einloggen (Authentifizierung). Der Kernel teilt jeden Prozess einem Benutzer zu, ein Benutzer kann mehrere Prozesse besitzen. Abhängig vom Benutzer werden Prozessrechte eingeschränkt. Der Kernel ist für die Separation der Prozesse und damit der Benutzer zuständig. Obwohl heutige Desktopsysteme in der Regel nur von einem Benutzer gleichzeitig verwendet werden, sind sie als Mehrbenutzersystem ausgelegt. Zum einen können dann mehrere Nutzer mit jeweils eigenen Rechten und Präferenzen das System verwenden und zum Anderen besteht die Möglichkeit, dass neben dem Nutzer, der den Rechner direkt benutzt, ein anderer von einem anderen Rechner aus andere Programme ausführt. Zusätzlich werden die Systemdienste unter anonymen Benutzern gestartet. Jedem Systemdienst und jedem Benutzer können dadurch eigene, eingeschränkte Zugriffsrechte eingeräumt werden, die für die Arbeit nötig sind, wodurch sich die Systemsicherheit drastisch erhöht. Trivia. Bei Commodore hieß der Kernel lange Zeit „Kernal“. Gerüchten zufolge ergab sich das aus einem Schreibfehler in den Handbüchern zu den Commodore-Computern, der dann kurzerhand von Commodore als eigener Begriff für den "Kernel" erklärt und nachträglich als Backronym umgedeutet wurde: „Keyboard Entry Read, Network, And Link“. Kilogramm. Das Kilogramm ist die SI-Einheit der Masse. Seine Masse ist festgelegt durch die des "Internationalen Kilogrammprototyps" (auch "Urkilogramm"), eines Zylinders aus Platin-Iridium, der vom Internationalen Büro für Maß und Gewicht verwahrt wird. Das Einheitenzeichen des Kilogramms ist kg. Der Einheitenname des Kilogramms weicht von der Systematik des Internationalen Einheitensystems dadurch ab, dass er mit einem SI-Vorsatz, dem „Kilo“, beginnt; deshalb dürfen dezimale Teile und Vielfache des Kilogramms nicht vom Kilogramm ausgehend mit Vorsätzen oder Vorsatzzeichen gebildet werden, stattdessen leitet man sie vom Gramm ab. Seit der Modernisierung der Meter-Definition 1960 ist das Kilogramm die einzige SI-Basiseinheit mit makroskopischer Maßverkörperung. Die Kilogrammprototype und -normale. Das Urkilogramm (hier in einer künstlerischen Darstellung) Seit 1889 bildet das – in der Metrologie sächliche – "Internationale Kilogrammprototyp" das Referenznormal für die Maßeinheit Kilogramm. Es wird in einem Tresor des Internationalen Büros für Maß und Gewicht (BIPM) in Sèvres bei Paris aufbewahrt. Es handelt sich um einen Zylinder von 39 Millimeter Höhe und 39 Millimeter Durchmesser, der aus einer Legierung von 90 % Platin und 10 % Iridium besteht. Das Material ist chemisch weitestgehend inert, das heißt unreaktiv. Seine hohe Dichte minimiert, wie die Wahl der Geometrie, die Auswirkung von Oberflächeneffekten. Der Iridiumanteil führt zu einer gegenüber dem relativ weichen reinen Platin deutlich höheren Härte (175HV), was die Bearbeitbarkeit bei der Herstellung verbessert und insbesondere den Abrieb bei der Manipulation verringert. Neben dem Internationalen Kilogrammprototyp verfügt das Internationale Büro für Maß und Gewicht (BIPM) über weitere Referenz- und Arbeitsnormale (→ Normal), bei denen es sich um Kopien des Internationalen Kilogrammprototyps handelt und die an diesen angeschlossen sind (Anschluss = Kalibrierung an einem Normal höherer Ordnung). Die Referenznormale dienen der Kontrolle (z.B. der Drift), während die Arbeitsnormale dem Anschluss der nationalen Kilogrammprototype dienen, die ebenfalls Kopien des Internationalen Kilogrammprototyps sind. Alle Kopien werden als Kilogrammprototype bezeichnet und sind auf ±1 Milligramm justiert. Der mit Massekomparatoren vorgenommene Anschluss der Referenz- und Arbeitsnormale hat eine relative Messunsicherheit von 3·10−9, der der nationalen Kilogrammprototype eine von 5·10−9. Bis 2003 waren 84 Kilogrammprototype hergestellt worden. Staaten, die der Meterkonvention beigetreten sind, sind im Besitz nationaler Kilogrammprototypen. Die Staaten können ihre Kopien bei Bedarf zum BIPM bringen lassen, um sie an die Arbeitsnormale des BIPM anzuschließen. Die Physikalisch-Technische Bundesanstalt (PTB), die neben dem aktuellen nationalen Prototyp (Nummer 52) auch einen weiteren 1987 erworben hat (Nummer 70) sowie seit 1990 den ehemaligen nationalen Prototyp der DDR (55) und den 1944 im Zweiten Weltkrieg beschädigten ursprünglichen deutschen nationalen Prototyp (22) besitzt, der mit erhöhter Messunsicherheit weiter als Normal verwendet wird, hat dies bisher etwa alle zehn Jahre getan. Die einzelnen metrologischen Staatsinstitute betreiben ein ähnliches System von Referenz- und Arbeitsnormalen wie das BIPM, hier kommen jedoch Stahl- oder Bronzenormale zum Einsatz, insbesondere auch solche mit größeren und kleineren Nennwerten, in Deutschland als Hauptnormalensätze von einem Milligramm bis fünf Tonnen. Hiervon werden die Normale von Industrie und Forschung sowie die der Landeseichbehörden abgeleitet. Problematisch ist der Anschluss der Stahlnormale an die Platin-Iridium-Normale, da der aufgrund unterschiedlicher Volumina zu korrigierende Luftauftrieb hier großen Einfluss auf die Messung hat. Trotz anspruchsvoller Bestimmung der Luftdichte resultieren hieraus relative Messunsicherheiten im Bereich von 1,5·10−8. Vergleiche der nationalen mit dem Internationalen Kilogrammprototyp des BIPM, sogenannte Nachprüfungen, finden ca. alle 50 Jahre statt, bisher 1939/46–1953 und zuletzt 1988–1992. Hierbei stellte man fest, wie auch beim Vergleich mit den Referenznormalen, dass das Urkilogramm im Vergleich zu den Kopien in 100 Jahren um 50 Mikrogramm leichter geworden ist. Die Ursache ist bisher unbekannt. Die Möglichkeit, dass vom Urkilogramm beim Reinigen Material abgetragen wurde, wurde ausgeschlossen. Ein weiterer Erklärungsansatz ist, dass aus der Platin-Iridium-Legierung zum Beispiel Wasserstoff entwichen ist. Ursprung und Geschichte. Im Zuge der durch die französische Nationalversammlung ab 1790 betriebenen Schaffung eines einheitlichen und universellen Einheitensystems wurden von einer Gelehrtenkommission (Borda, Condorcet, Laplace, Lagrange und Monge) als Masseneinheiten die Massen von einem Kubikmeter, einem Kubikdezimeter und einem Kubikzentimeter Wasser vorgeschlagen. Ein Meter sollte abweichend von der Vorlage der Nationalversammlung, die von der Länge eines Sekundenpendels ausgegangen war, ein Zehnmillionstel der Erdmeridianlänge von Pol zu Äquator sein. Da die zur Festlegung notwendige Meridianvermessung, die von Méchain und Delambre vorgenommen werden sollte, durch verschiedene Kämpfe und Kriege verzögert wurde, beschloss die Nationalversammlung am 1. August 1793 auf der Basis älterer Daten zunächst vorläufige Einheiten unter den Bezeichnungen "Bar" (Tonne), "Grave" (Kilogramm) und "Gravet" (Gramm). Sie konnten mit den Vorsätzen "Déci-" und "Centi-" verwendet werden. Am 18. Germinal 3 (7. April 1795) wurden Bar und Grave gestrichen und das Gravet in Gramm umbenannt, größte Masseneinheit war damit das Myriagramm gleich zehn Kilogramm. Gleichzeitig wurde erstmals die Wassertemperatur festgelegt: auf den Gefrierpunkt. Am 4. Messidor VII (22. Juni 1799) wurden dem Gesetzgeber die in Platin gefertigten Maßverkörperungen von Meter und Kilogramm übergeben, die auf der abgeschlossenen Messung beruhten. Aus metrologischen Gründen (Stabilität der Dichte) war entgegen der gültigen legalen Definition als Wassertemperatur die der größten Dichte verwendet worden (4,0 °C). Obwohl noch das Dekret vom 18. Germinal 3 den Meter ausdrücklich als einzige Maßverkörperung vorgesehen hatte, wurden beide Maßverkörperungen mit dem Gesetz vom 19. Frimaire VIII (10. Dezember 1799) gesetzliche Einheiten. Sie wurden später nach ihrem Aufbewahrungsort als "Mètre des Archives" und "Kilogramme des Archives" bezeichnet. Die drei Zeitstufen der Einheiten werden zur Unterscheidung mit den Zusätzen "provisoire", "républicain" und "définitif" versehen. Bei den Massen müssen nur das Gramm und seine Vielfachen in "républicain" und "définitif" unterschieden werden. Frankreich hatte von Anfang an eine internationale Vereinheitlichung angestrebt, und ausländische Delegierte waren 1798/99 an der endgültigen Ausgestaltung der neuen Einheiten beteiligt gewesen. Nachdem im 19. Jahrhundert neben Frankreich bereits eine Mehrzahl der europäischen Staaten das neue Einheitensystem nutzte, gab es ab 1867 konkrete Bestrebungen der internationalen Wissenschaft zur Errichtung einer internationalen Organisation des Maß- und Gewichtswesens. Diese führten 1870 zur Bildung der Internationalen Meterkommission in Paris, deren Arbeiten, unterbrochen vom Deutsch-Französischen Krieg, 1875 zur Internationalen Meterkonvention führten. Die Konvention sah nicht nur die Herstellung neuer Kopien, sondern auch eines neuen internationalen Prototypen für die Masse vor. Dazu wurden aus der neuentwickelten härteren, jedoch auch 5 % dichteren Legierung PtIr10 1878 drei 1-kg-Zylinder KI, KII und KIII hergestellt und am "Kilogramme des Archives" justiert. Zur Volumenbestimmung und Korrektur des Luftauftriebs wurden hydrostatische Wägungen vorgenommen. Bei von mehreren Beobachtern unabhängig vorgenommenen Vergleichen konnte 1880 im Rahmen der damals erreichbaren Messgenauigkeit nach Korrektur des Auftriebs kein Unterschied zwischen KIII und dem "Kilogramme des Archives" festgestellt werden. 1883 bestimmte das Komitee für Maß und Gewicht daher KIII zum Internationalen Kilogrammprototyp formula_5. Bis 1884 wurden weitere 40 nun auf 1 Kilogramm ± 1 Milligramm justierte Kilogrammprototype hergestellt. Sie wurden nach hydrostatischer Wägung anschließend an formula_5 kalibriert. 1889 wurde mit dem entsprechenden formellen Beschluss der 1. Generalkonferenz für Maß und Gewicht auch der Wechsel der Definition des Kilogramms von der Masse des "kilogramme définitif" zu der des "Internationalen Kilogrammprototyps" vollzogen. Im Rahmen der 1939 durchgeführten Nachprüfungen sollte sich herausstellen, dass dies auf Dauer einen signifikanten Unterschied bedeutete: Im Vergleich zum Internationalen Kilogrammprototyp verlor das aus geschmiedetem Platinschwamm hergestellte "Kilogramme des Archives" in 58 Jahren 430 Mikrogramm seiner Masse. Von den 40 kopierten Kilogrammprototypen wurden zunächst 29 durch Verlosung an Staaten der Konvention und andere Interessierte, insbesondere wissenschaftliche Gesellschaften, zum Selbstkostenpreis abgegeben, eines wurde neben KI als Referenzexemplar mit dem Internationalen Prototyp verwahrt, zwei als Arbeitsexemplare dem BIPM zugeteilt. Durch beitretende Staaten verringerte sich der Reservebestand, 1925 wurde die Zahl der Referenzexemplare auf vier erhöht. Seit 1928 werden entsprechend dem steigenden Bedarf laufend neue Prototypen gefertigt. Neben neu hinzukommenden Staaten erhöhten viele der größeren metrologischen Staatsinstitute ihren Bestand, auch die Zahl der Referenzexemplare zu formula_5 und Arbeitsexemplare am BIPM erhöhte sich entsprechend. Ende der 1970er Jahre wurde ein neues Fertigungsverfahren entwickelt, bei dem Diamantwerkzeuge eingesetzt werden, um die Prototypen ausschließlich durch Plandrehen einer Stirnseite und anschließendes stufenweises Drehen einer polygonalen Fase zu justieren, wodurch das vorher notwendige aufwendige manuelle Schleifen mit abnehmenden Körnungen entfällt. Zur Sicherstellung eines zur Diamantbearbeitung geeigneten feinkörnigen Gefüges wurde auch die Legierungszusammensetzung, insbesondere die Obergrenzen der Nebenbestandteile, genauer festgelegt und der Herstellungsprozess der Rohlinge durch Gießen, Schmieden und schließlich Extrudieren von Material für in der Regel sieben Prototypen verbessert. Aus Anlass der Nachprüfung der nationalen Prototypen 1988–1992 wurde die Reinigung und ihre Auswirkungen systematisch untersucht und hierzu ein standardisiertes Verfahren festgelegt. In der Folge der Nachprüfung rückte verstärkt die Entwicklung einer verbesserten Massendefinition in den Fokus. Geplante Neudefinition. Derzeit wird weltweit daran gearbeitet, das Kilogramm so neu zu definieren, dass es von einer Fundamentalkonstanten der Physik abgeleitet werden kann. Dieses Vorhaben bekam durch die oben angesprochene Abweichung eine besondere Dringlichkeit. Um eine Verbesserung gegenüber der derzeitigen Situation zu erzielen, muss ein Verfahren zur Massebestimmung mit einer Genauigkeit in der Größenordnung von 10−8 entwickelt werden. Eine Entscheidung wurde ursprünglich für die 2011 stattfindende Generalkonferenz für Maß und Gewicht angestrebt. Mit Blick auf den Termin wurden zwei Ansätze vorläufig aufgegeben; zwei weitere, das Avogadroprojekt und die Watt-Waage, wurden intensiv verfolgt. Das Avogadroprojekt verfehlte 2010 zunächst knapp die erforderliche Genauigkeit, ihr Erreichen gilt aber bei einer Weiterverfolgung des Vorhabens als sicher. Zur Watt-Waage waren bis Ende Januar 2011 keine Ergebnisse bekannt. Auf der Konferenz 2011 wurde beschlossen, die Einheiten Kilogramm, Ampere, Kelvin und Mol zukünftig von physikalischen Konstanten abzuleiten. Eine Entscheidung über das genaue Verfahren und den Zeitplan für dessen Implementierung wurden zunächst für die Generalkonferenz 2014 erwartet. Im Jahr 2014 wurde die Entscheidung jedoch erneut auf die nächste Generalkonferenz verschoben. Avogadroprojekt. Ist der größte Unsicherheitsfaktor darin die Verlässlichkeit des Kilogramms, so wäre die Umkehrung möglich: Ein Kilogramm könnte genauer definiert werden als bisher, indem es als die Masse einer bestimmten Anzahl von Atomen einer bestimmten Isotopenmischung festgelegt wird. Eine ausreichend genaue Bestimmung der Teilchendichte formula_11 ist nur mittels Röntgenlaserinterferometer möglich und setzt ein monokristallines Material voraus. Wegen der Anforderungen an die Genauigkeit der Materialkennwerte kommt hierfür derzeit praktisch nur chemisch höchstreines, isotopenreines Silicium-28 in Frage. Bei natürlichem Silicium, das ein Gemisch aus drei Isotopen ist, begrenzt die relativ schlechte Bestimmbarkeit der mittleren molaren Masse die Gesamtgenauigkeit. Die genaue Volumenbestimmung erfordert die Herstellung einer hochgenauen Kugel aus dem Material. Darüber hinaus müssen Fehlstellendichte, Fremdatomkonzentrationen, Stärke und Zusammensetzung der Siliciumdioxidschicht an der Oberfläche und Anderes berücksichtigt werden. An natürlichem Silicium konnte zunächst die Avogadro-Konstante in der bisherigen Genauigkeit bestätigt werden. Koordiniert von der Physikalisch-Technischen Bundesanstalt in Braunschweig, wurde in einer Kooperation acht metrologischer Institute hochreines und hochangereichertes Silicium 28 für ein um den Faktor 10 genaueres Experiment hergestellt. Dazu wurde in Zusammenarbeit mit dem russischen Atomministerium in russischen Isotopentrennungsanlagen Silicium auf einen 28Si-Gehalt von 99,994 % angereichert und anschließend nochmals chemisch gereinigt. Zu diesem Zeitpunkt lagen die Kosten für die Produktion des 6 kg schweren Rohmaterials bereits bei 1,2 Mio. Euro. Nach verschiedenen Analysen und der Züchtung von Einkristallen, bei der auch die chemische Reinheit durch mehrfache Anwendung des Zonenschmelzverfahrens nochmals erhöht wurde, wurden am National Measurement Institute NMI-A in Australien daraus zwei 1-kg-Kugeln mit einer maximalen Gestaltabweichung von 30 nm bei ca. 93,7 mm Durchmesser hergestellt. Dann erfolgten aufwändige Prüfungen zur Abschätzung des Einflusses der Kristallbaufehler, anschließend wurden die Gitterparameter am italienischen Metrologieinstitut INRIM mittels eines Röntgeninterferometers bestimmt und eine Vergleichsmessung an einem Kristall aus natürlichem Silicium am amerikanischen NIST durchgeführt. Die Massen der beiden Siliciumkugeln wurden am BIPM, am NMIJ (Japan) und in der PTB unter Vakuum mit den internationalen Massenormalen verglichen. Das Volumen formula_10 wurde einschließlich der Abweichungen von der Kugelform mit Interferometern unterschiedlicher Strahlgeometrien an NMIJ und NMI-A gemessen, außerdem an der PTB, wo ein neu entwickeltes Kugelinterferometer auf Basis eines Fizeau-Interferometers mit Unsicherheiten unter einem Nanometer zum Einsatz kam. Stärke und Zusammensetzung der im Wesentlichen aus Siliciumdioxid bestehenden Oberflächenschicht wurden zur Bestimmung der Gesamtdichte mit Elektronen-, Röntgen- und Synchrotronstrahlung untersucht. Dabei wurde unter anderem eine beim Polierprozess entstandene unerwartet hohe metallische Kontamination der Kugeloberflächen mit Kupfer- und Nickelsiliciden festgestellt und ihr Einfluss auf die Ergebnisse von Kugelvolumen und -masse abgeschätzt, was auch zu einer höheren Messunsicherheit als erwartet führte. Der größte Anteil an der Reduktion der relativen Gesamtmessunsicherheit wurde durch die Entwicklung einer neuen massenspektrometrischen Methode zur Bestimmung der mittleren molaren Masse formula_12 des Siliciums erzielt. 2010 wurde die Avogadrokonstante mit einer Gesamtmessunsicherheit von 3·10−8 zu "NA" = 6,02214078(18)·1023  mol−1 neu bestimmt. Diese Genauigkeit übertrifft die bisher erzielte, die Unsicherheit liegt aber noch um den Faktor 1,5 über der vom Beratenden Komitee für die Masse für eine Neudefinition des Kilogramms verlangten von 2·10−8. Es wird jedoch damit gerechnet, dass mit weiteren Verbesserungen der Kugelinterferometrie und des Schleifprozesses, der zu der Metallkontamination der Oberflächenschicht geführt hatte, die verlangte Genauigkeit in absehbarer Zeit erreichbar ist. Wattwaage. Ermitteln der Planckschen Konstante formula_17 aus der Masse eines Probekörpers mit einer Watt-Waage. Hierbei wird erstens der Strom in einer Spule gemessen, der benötigt wird, um einen Probekörper schwebend zu halten. Zweitens wird Spannung gemessen, die eine konstante Bewegung der Spule in diesem Magnetfeld induziert. Die beiden Messergebnisse werden multipliziert, was formal eine elektrische Leistung mit der Einheit Watt ergibt. Außerdem müssen die Geschwindigkeit der bewegten Spule und die Fallbeschleunigung am Ort der Waage bekannt sein. Dieses Verfahren soll als Grundlage einer Neudefinition des Kilogramms dienen, bei der der Wert der Planckschen Konstante festgelegt werden soll und so mit dem gleichen Verfahren im Rückschluss die Masse eines Gewichtstücks ermittelt werden kann. Am Verfahren der Wattwaage arbeiten u. a. der National Research Council of Canada (welcher die Arbeiten vom britischen National Physical Laboratory übernommen hat), das US-amerikanische National Institute of Standards and Technology und das schweizerische METAS. Ionenakkumulation. Erzeugung einer wägbaren Masse mit Hilfe eines Ionenstrahls (elektrisch geladener Atome) und Aufsammeln der Ionen. Durch Messung des elektrischen Stroms des Ionenstrahls und der Zeit lässt sich dann die Masse eines Atoms in der Einheit Kilogramm berechnen. Die Physikalisch-Technische Bundesanstalt führte seit 1991 Experimente mit Gold durch, ersetzte 2004 Gold durch Wismut, stellte aber 2008 die Experimente ein, da es sich als unmöglich erwies, bis zur Entscheidung über die Neudefinition mit dieser Methode konkurrenzfähige Ergebnisse zu erhalten. Magnetisches Schwebeexperiment. In einem inhomogenen Magnetfeld wird ein Magnet zum Schweben gebracht. Aus der Position des Magneten in diesem Feld lässt sich seine Masse berechnen. Dieser Ansatz wurde ursprünglich vom japanischen damaligen National Research Laboratory of Metrology verfolgt, mittlerweile aber wegen mangelnder erzielbarer Genauigkeit aufgegeben. Japan ist auch am Avogadroprojekt beteiligt. Literatur. Richard Davis: "The SI unit of mass." In: Metrologia 40 (2003), Nr. 6 (special issue: mass), S. 299–305 – Kohlenstoff. Kohlenstoff (von urgerm. "kul-a-, kul-ō(n)-",Kohle‘) oder Carbon (von lat. "carbō",Holzkohle‘, latinisiert "Carboneum") ist ein chemisches Element mit dem Elementsymbol C und der Ordnungszahl 6. Im Periodensystem steht es in der vierten Hauptgruppe, bzw. der 14. IUPAC-Gruppe oder Kohlenstoffgruppe sowie der zweiten Periode. Es kommt in der Natur sowohl in gediegener (reiner) Form (Diamant, Graphit) als auch chemisch gebunden (z. B. in Form von Carbonaten, Kohlenstoffdioxid, Erdöl, Erdgas und Kohle) vor. Aufgrund seiner besonderen Elektronenkonfiguration (halbgefüllte L-Schale) besitzt es die Fähigkeit zur Bildung komplexer Moleküle und weist von allen chemischen Elementen die größte Vielfalt an chemischen Verbindungen auf. Kohlenstoffverbindungen bilden die molekulare Grundlage allen irdischen Lebens. Vorkommen. Kohlenstoff ist ein essenzielles Element der Biosphäre; es ist in allen Lebewesen – nach Sauerstoff (Wasser) – dem Gewicht nach das bedeutendste Element. Alles lebende Gewebe ist aus (organischen) Kohlenstoffverbindungen aufgebaut. Geologisch dagegen zählt es nicht zu den häufigsten Elementen. Man findet Kohlenstoff in der unbelebten Natur sowohl elementar (Diamant, Graphit) als auch in Verbindungen. Die Hauptfundorte von Diamant sind Afrika (v. a. Südafrika und die Demokratische Republik Kongo) und Russland. Diamanten findet man häufig in vulkanischen Gesteinen wie Kimberlit. Graphit kommt relativ selten in kohlenstoffreichem metamorphem Gestein vor. Die wichtigsten Vorkommen liegen in Indien und China. Am häufigsten findet man Kohlenstoff in Form anorganischen Carbonatgesteins (ca. 2,8 · 1016 t). Carbonatgesteine sind weit verbreitet und bilden zum Teil Gebirge. Ein bekanntes Beispiel für Carbonat-Gebirge sind die Dolomiten in Italien. Die wichtigsten Carbonat-Mineralien sind Calciumcarbonat (Modifikationen: Kalkstein, Kreide, Marmor) CaCO3, Calcium-Magnesium-Carbonat (Dolomit) CaCO3 · MgCO3, Eisen(II)-carbonat (Eisenspat) FeCO3 und Zinkcarbonat (Zinkspat) ZnCO3. Bekannte Kohlenstoffvorkommen sind die fossilen Rohstoffe Kohle, Erdöl und Erdgas. Diese sind keine reinen Kohlenstoffverbindungen, sondern Mischungen vieler verschiedener organischer Verbindungen. Sie entstanden durch Umwandlung pflanzlicher (Kohle) und tierischer (Erdöl, Erdgas) Überreste unter hohem Druck. Wichtige Kohlevorkommen liegen in den USA, China und Russland, ein bekanntes deutsches im Ruhrgebiet. Die wichtigsten Erdölvorräte liegen auf der arabischen Halbinsel (Irak, Saudi-Arabien). Weitere wichtige Ölvorkommen gibt es im Golf von Mexiko und in der Nordsee. Über festes Methanhydrat in der Tiefsee ist noch wenig bekannt. Kohlenstoff kommt weiterhin in der Luft als Kohlenstoffdioxid (kurz Kohlendioxid) vor. Es ist an der Zusammensetzung der Luft zu etwa 0,04 % beteiligt. Kohlenstoffdioxid entsteht beim Verbrennen kohlenstoffhaltiger Verbindungen, Atmung, sowie vulkanisch und wird durch Photosynthese der Pflanzen verwertet. Auch in Wasser ist CO2 gelöst (ca. 0,01 % Massenanteil im Meer). Mengenmäßig ist der überwiegende Teil des Kohlenstoffs in der Gesteinshülle (Lithosphäre) gespeichert. Alle anderen Vorkommen machen mengenmäßig nur etwa 1/1000 des Gesamt-Kohlenstoffs aus. Eigenschaften. Kohlenstoff kommt in mehreren allotropen Modifikationen vor. Alle Feststoffe auf Kohlenstoff-Basis lassen sich auf die beiden Grundtypen Diamant und Graphit zurückführen. Im Diamant ist Kohlenstoff dreidimensional kovalent gebunden. Diamant ist ein Isolator und transparent. Er ist das härteste bekannte natürliche Material und wird als Schleifmittel eingesetzt. Im Graphit ist die kovalente Bindung innerhalb der Basalebenen stärker als die beim Diamant, während die Ebenen locker über Van-der-Waals-Kräfte gebunden sind. Die freien π-Elektronen sind verantwortlich für die tiefschwarze Farbe, die leichte Spaltbarkeit und die hohe Leitfähigkeit entlang der Basalebenen. Graphit dient als hochtemperaturbeständiges Dichtungsmaterial und Schmiermittel sowie als Grundstoff für Bleistiftminen. Molvolumen von Graphit als Funktion des Drucks bei Zimmertemperatur Molvolumen von Diamant als Funktion des Drucks bei Zimmertemperatur Im Gegensatz zur landläufigen Meinung sind die bekannten Schmiermitteleigenschaften von Graphit jedoch keine Eigenschaft von Graphit an sich, sondern werden nur in Gegenwart von Feuchtigkeitsspuren gefunden. In Vakuen oder sehr trockener Atmosphäre steigt der Reibungskoeffizient von Graphit daher dramatisch an. Bei Normaldruck und Temperaturen unterhalb 4000 K ist Graphit die thermodynamisch stabile Modifikation des Kohlenstoff (siehe Phasendiagramm). Wegen der hohen Aktivierungsenergie ist auch Diamant bei Raumtemperatur stabil und wandelt sich erst oberhalb 500 °C merklich in Graphit um. Umgekehrt erfordert die Transformation von Graphit in Diamant einen Druck von mindestens 20.000 bar (2 GPa). Für eine ausreichend schnelle Reaktion sollte die Temperatur oberhalb von 1500 °C liegen, bei einem Druck von 60.000 bar entsprechend dem Phasendiagramm. Kohlenstoff hat die höchste Temperaturbeständigkeit aller bekannten Materialien. Er sublimiert bei Normaldruck bei 3915 K (3642 °C), ohne vorher an Festigkeit einzubüßen. Der Tripelpunkt liegt bei 10,8 ± 0,2 MPa und 4600 ± 300 K. Kohlenstoff ist diamagnetisch. Pyrolytisch abgeschiedener Graphit hat eine große Anisotropie in der magnetischen Suszeptibilität (parallel: formula_1 = −85 · 10−6; senkrecht: formula_1 = −450 · 10−6), Diamant ist dagegen isotrop (formula_1 = −22 · 10−6). In seinen verschiedenen Modifikationen zeigt Kohlenstoff sehr unterschiedliche Eigenschaften. Kohlenstoff ist das härteste Element: als kristalliner Diamant wird auf der Härteskala nach Knoop der absolute Höchstwert von 90 GPa erreicht. In der Form des Graphits ist Kohlenstoff nach Rubidium und Cäsium mit 0,12 GPa das drittweichste Element. Kohlenstoff besitzt auch die höchste Wärmeleitfähigkeit, die bei Raumtemperatur weit über 2000 W/m*K liegt. Atommodell des Kohlenstoffs. Elektronenkonfiguration des Kohlenstoffatoms im Grundzustand Das Modell der Atom- und Molekülorbitale veranschaulicht, wie es zu der unterschiedlichen Ausprägung der Erscheinungsformen des Kohlenstoffs kommt. Kohlenstoff besitzt sechs Elektronen. Nach dem Schalenmodell besetzen zwei Elektronen die innere "1s"-Schale. Das "2s"-Niveau der zweiten Schale nimmt ebenfalls zwei Elektronen auf, zwei weitere das "2px"- und "2py"- Niveau. Nur die vier äußeren Elektronen der zweiten Schale treten chemisch in Erscheinung. Die Aufenthaltswahrscheinlichkeit der Elektronen in einem "s"-Niveau ist kugelförmig. In einem "p"-Niveau ist sie anisotrop. Die Elektronen bevölkern einen sanduhrförmigen Raum, jeweils eine Sanduhrhälfte links und rechts vom Zentrum entlang der x-Achse, wenn man sich das Atom im Zentrum eines kartesischen Koordinatensystems platziert vorstellt. Senkrecht dazu stehen das "py"- und "pz"-Orbital (gemäß y- und z-Achse). Diamant-Struktur ("sp3"). Vier "sp3"-Orbitale richten sich tetraedrisch in gleichem Winkel zueinander aus. Das "2s"-Niveau kann mit den 3 "2p"-Niveaus hybridisieren 4 energetisch gleichwertige "sp3"-Orbitale bilden. Dies kann man anschaulich so erklären, dass eines der s-Elektronen in das vorher leere p-Orbital gehoben wird und sich dabei die Orbitalenergien aller vier Orbitale der zweiten Stufe angleichen. Die neu entstehenden Orbitale besitzen eine langgestreckte, asymmetrische Tropfenform. Waren die Formen der "p"-Orbitale punktsymmetrisch zum Mittelpunkt angeordnet, erscheinen sie jetzt keulenartig in eine Richtung vergrößert. Das Bild veranschaulicht die Hauptkeulen, die Nebenkeulen wurden übersichtlichkeitshalber fortgelassen. Die vier "sp3"-Orbitale sind mit größtmöglichem Abstand zueinander symmetrisch im Raum orientiert, sie zeigen in die Ecken eines imaginären Tetraeders. Überlappen sich die "sp3"-Orbitale von Atomen, können sie feste kovalente Bindungen bilden, die dann die tetraedrische Struktur widerspiegeln. Sie bilden das Grundgerüst des Diamantgitters (siehe Kristallstruktur dort.) Graphit-Struktur ("sp2"). Drei "sp2"-Orbitale richten sich in einer Ebene symmetrisch (trigonal) zueinander aus. Sind nur 2 der 3 "p"-Orbitale an der Hybridisierung beteiligt, entstehen die so genannten "sp2"-Orbitale. Die "sp2"- Orbitale richten sich zweidimensional (als Fläche bzw. Ebene) aus; ober- und unterhalb dieser Fläche formt das übrigbleibende "p"-Orbital jeweils einen Orbitallappen. Steht beispielsweise das "p"-Orbital senkrecht auf der xy-Ebene, liegen die "sp2"- Orbitale trigonal in der xy-Ebene. Sie haben den gleichen Winkel von 120° zueinander. Das Bild links veranschaulicht die Situation. Das unhybridisierte "p"-Orbital ist der Übersichtlichkeit halber weggelassen. "sp2"-Kohlenstoff-Atome können miteinander kovalente Bindungen bilden, die dann in einer Ebene liegen. Ihre Struktur ist trigonal; dies ist die Grundstruktur der Planarebenen des Graphits (siehe Kristallgitterstruktur dort). Die übriggebliebenen "p"-Orbitale wechselwirken ebenfalls untereinander. Sie formen die "pi"-Bindungen mit deutlich geringeren Bindungsenergien als die "sigma"-Bindungen der "sp2" beziehungsweise "sp3"-Orbitale und bilden ober- und unterhalb der "sigma"-Bindungsebene ein sogenanntes Elektronengas in Form atomrumpfunabhängiger („delokalisierter“) "pi"-Elektronen. Chemisch spricht man von einer Doppelbindung. Die Schreibweise "C=C" vernachlässigt den unterschiedlichen Charakter beider Bindungen. Die Bindungsenergie der diamantartigen tetraedrischen "sp3"-Einfachbindung 'C–C' liegt bei 350 kJ/mol, die der graphitartigen trigonalen "sp2"-Doppelbindung "C=C" nur um 260 kJ/mol höher. In einem hexagonalen Kohlenstoff-Ring mit sechs Kohlenstoff-Atomen stabilisiert sich die "pi"-Bindung durch Delokalisierung der Elektronen innerhalb des Rings (mehr dazu siehe Benzol). Dreifachbindung ("sp1"). Wenn nur ein "p"-Orbital mit dem "s"-Orbital hybridisiert, ergeben sich zwei linear angeordnete "pi"-Bindungskeulen. Orientieren wir sie entlang der x-Achse, liegen die verbliebenen "p"-Orbitale auf den y- und z-Achsen. Zwei "sp"-hybridisierte Atome können eine Kohlenstoff-Dreifachbindung formen. Ein Beispiel ist das Gas Ethin (Acetylen) "HC ≡ CH". Während "sp3"-Bindungen dreidimensionale Strukturen formen und "sp2" zweidimensionale, bilden "sp1"-Bindungen höchstens eindimensionale (lineare) Ketten, wie zum Beispiel H–C≡C–C≡C–H. Erscheinungsformen des Kohlenstoffs. Elementarer Kohlenstoff existiert in drei Modifikationen, basierend auf den Bindungsstrukturen "sp3" und "sp2": Diamant, Graphit und Fulleren. Neben diesen drei Modifikationen gibt es weitere unterschiedliche Formen elementaren Kohlenstoffs. Graphit. Die "sp2"-kovalent hexagonal gebundenen Kohlenstoff-Atome formen hochfeste Ebenen. Die Ebenen untereinander sind nur locker über Van-der-Waals-Kräfte gebunden. Makroskopisch dominiert die Spaltbarkeit entlang der Planarebenen. Da die Ebenen so dünn sind, tritt ihre außerordentliche Festigkeit bei Graphit nicht in Erscheinung. Wegen dieser Struktur verhält sich Graphit sehr anisotrop: Entlang der Kristallebenen ist Graphit thermisch und elektrisch sehr leitfähig, Wärmeleitung oder Ladungsübertragung von Kristallebene zu Kristallebene funktioniert hingegen relativ schlecht. Diamant. Ein natürlicher Diamant im Tropfenschliff Die "sp3"-kovalent tetragonal gebundenen Kohlenstoff-Atome besitzen keine freien Elektronen. Das Material ist ein Isolator mit einer Bandlücke von 5,45 eV, der sichtbares Licht nicht absorbiert. Zugabe von Fremdatomen erzeugt Zustände in der Bandlücke und verändert somit die elektrischen und optischen Eigenschaften. So ist der gelbliche Ton vieler natürlicher Diamanten auf Stickstoff zurückzuführen, während mit Bor dotierte Diamanten bläulich aussehen und halbleitend sind. Der Diamant wandelt sich unter Luftabschluss bei Temperaturen um 1500 °C in Graphit um. Er verbrennt bereits bei ungefähr 700–800 °C zu Kohlendioxid. Diamant gilt unter Normalbedingungen (1 bar, 25 °C) gemeinhin als die metastabile Form des Kohlenstoffes. Aufgrund neuerer Forschung ist dies aber nicht mehr sicher, weil Lonsdaleit. Lonsdaleit, auch als "hexagonaler Diamant" bezeichnet, ist eine sehr seltene Modifikation des Diamanten. Er entsteht, wenn Graphit durch Schockereignisse, das heißt hohen Druck und hohe Temperatur wie beispielsweise durch Impaktereignisse, in Diamant umgewandelt wird. Dabei bleibt der hexagonale Charakter der Kristallstruktur erhalten, jedes Kohlenstoffatom ist jedoch im Gegensatz zu Graphit an vier weitere kovalent gebunden. Fullerene. Ein reguläres hexagonales Wabenmuster, wie es die C-Atome in den Basalebenen des Graphits ausbilden, ist planar. Ersetzt man einige Sechsecke durch Fünfecke, entstehen gekrümmte Flächen, die sich bei bestimmten relativen Anordnungen der Fünf- und Sechsringe zu geschlossenen Körpern „aufrollen“. In den Fullerenen sind derartige Strukturen realisiert. Die "sp2"-Bindungen liegen dabei nicht mehr in einer Ebene, sondern bilden ein räumlich geschlossenes Gebilde. Die kleinste mögliche Struktur besteht nur noch aus Fünfecken und erfordert 20 Kohlenstoff-Atome, der dazugehörige Körper ist ein Pentagon-Dodekaeder. Dieses einfachste Fulleren ist bislang aber nur massenspektrometrisch nachgewiesen worden. Eines der stabilsten Fullerene besteht aus 60 Kohlenstoff-Atomen und enthält neben Sechsecken nur Fünfecke, die mit keinem anderen Fünfeck eine gemeinsame Kante besitzen. Das so entstehende Muster (abgestumpftes Ikosaeder, ein archimedischer Körper) gleicht dem Muster auf einem (altmodischen) Fußball. Es wird zu Ehren von Richard Buckminster Fuller als Buckminster-Fulleren bezeichnet. Die Molekül-„Kugeln“ der Fullerene sind untereinander über relativ schwache Van-der-Waals-Wechselwirkungen gebunden, ähnlich wie die Basalebenen im Graphit. Mittlerweile sind etliche Fullerene unterschiedlicher Größe isoliert und teilweise auch kristallisiert worden; sie können daher als echte Modifikation(en) gelten. Fullerene kommen vermutlich in allen Rußen vor, so zum Beispiel auch in dem Ruß über Kerzenflammen. Amorpher Kohlenstoff. In amorphem Kohlenstoff (a-C) sind die Atome ohne langreichweitige Ordnung vernetzt. Das Material lässt sich mit nahezu beliebigen "sp2:sp3"-Hybridisierungsverhältnissen herstellen, wobei die Materialeigenschaften fließend von denen des Graphits zu denen des Diamants übergehen. In der Industrie wird in diesem Fall häufig der Begriff Diamond like Coating oder Diamond like Carbon (DLC) verwendet. Bei einem "sp3"-Hybridisierungsanteil von über 70 % spricht man von tetraedrisch amorphem Kohlenstoff (ta-C). Dieses Material zeichnet sich durch hohen elektrischen Widerstand, extreme Härte und optische Transparenz aus. Die Herstellung kann mittels PVD- oder PECVD-Methoden erfolgen. Das Material wird dabei als Schicht abgeschieden (amorphe Kohlenstoffschicht). Kohlenstoff-Fasern. Kohlenstoff-Fasern bestehen aus graphitartig "sp2"-gebundenem Kohlenstoff. Isotrope Fasern verhalten sich ähnlich wie polykristalliner Graphit und besitzen nur geringe Festigkeiten. Fasermatten und -bündel werden für Wärmedichtungen eingesetzt. Durch Strecken bei der Herstellung ist es möglich, die Basalebenen entlang der Faserachse auszurichten. Man erhält hochfeste Fasern mit Eigenschaften, die den theoretischen Werten von Graphit entlang der Basalebenen nahekommen. Anisotrope Kohlenstofffasern sind leicht, außerordentlich steif und fest und werden in Verbundwerkstoffen genutzt. Glaskohlenstoff. Glaskohlenstoff („Glassy Carbon“) ist ein hochtechnologischer Werkstoff aus reinem Kohlenstoff, der glasartige und keramische Eigenschaften mit denen des Graphits vereint. Im Gegensatz zu Graphit besitzt Glaskohlenstoff eine fullerenartige Mikrostruktur. Dadurch ergibt sich eine große Vielfalt positiver Materialeigenschaften. Die Leitfähigkeit ist zum Beispiel geringer als bei Graphit. Graphen. Als Graphen bezeichnet man eine Graphit-Basalebene von "sp2"-hybridisiertem Kohlenstoff. Man erhält die dünnen Schichten durch chemisches Spalten von Graphit. Eingebettet in Kunststoffen eignet es sich als Ausgangsmaterial für neue Verbundwerkstoffe oder für Untersuchungen von zweidimensionalen Kristallen, außerdem wird an Anwendungen in der Elektronik geforscht. Aktivkohle. Behutsames Graphitieren von organischen Materialien, wie zum Beispiel Kokosnuss-Schalen, führt zu einem porösen Kohlenstoff. Die Hohlräume stehen wie bei einem Schwamm miteinander in Verbindung und bilden eine sehr große innere Oberfläche. Aktivkohle filtert gelöste Stoffe in geringer Konzentration aus Flüssigkeiten und kann Gase absorbieren. Ruß. Ruß besteht ebenfalls aus Kohlenstoff auf Graphitbasis. Je reiner der Ruß, desto deutlicher treten die Eigenschaften von Graphit hervor. Lampen- oder Kerzenruß ist stark mit organischen Verbindungen verunreinigt, die die Bildung größerer Graphit-Verbände verhindern. Kohlenstoffnanoröhren. Eine weitere Form von Kohlenstoff sind zylindrisch angeordnete, "sp2"-hybridisierte Kohlenstoffatome. Ihre Geometrie entsteht aus einer planaren Schicht Graphit, die zu einem Zylinder aufgerollt wird. Die entstandene Röhre kann zusätzlich noch verdreht sein, wodurch sich die elektrischen Eigenschaften ändern. Es können mehrere einwandige Röhren konzentrisch ineinander liegen, so dass man von "multiwalled carbon nanotubes" (MWCNT) spricht, im Gegensatz zu "single-walled carbon nanotubes" (SWCNT). Carbon nanobuds. Carbon nanobuds kombinieren die Eigenschaften von Kohlenstoffnanoröhren und Fullerenen. Kohlenstoffnanoschaum. Kohlenstoffnanoschaum, ein Aerogel, ist eine zufällig orientierte, netzartige Anordnung von Kohlenstoff-Graphitebenen. Er ähnelt dem Glaskohlenstoff, nur mit deutlich größeren vernetzten Hohlräumen. Ihr durchschnittlicher Durchmesser liegt bei sechs bis neun Nanometern. Davon zu unterscheiden ist Kohlenstoff-Aerogel, das aus zusammengewachsenen Nanopartikeln besteht. Seine Dichte liegt bei 200 bis 1000 kg/m3. Aerographit. Aerographit besteht aus einem Netzwerk poröser Kohlenstoffröhrchen und ist mit einer Dichte von 0,2 Milligramm pro Kubikzentimeter der leichteste Feststoff der Welt. Aerographit lässt sich um bis zu 95 % komprimieren und wieder in die ursprüngliche Form auseinanderziehen. Nicht-graphitischer Kohlenstoff. „Nicht-graphtischer Kohlenstoff besteht aus Schichten von hexagonal angeordneten, sp2-hybridisierten Kohlenstoffatomen. Diese Schichten sind ohne jegliche dreidimensionale Fernordnung annähernd parallel gestapelt.” Dieses Material besteht aus gegeneinander verdrehten und verschoben Stapeln aus Graphenschichten. Diese Anordnung wird auch als turbostratisch bezeichnet. Hierbei kann der Abstand der Schichten untereinander deutlich von dem in Graphit gefundenen Schichtabstand abweichen. Die Mikrostrukturanalyse des Materials ist unter anderem mittels WAXS möglich, aufgrund der durch die signifikante Unordnung bedingten breiten und sich überlappenden Maxima können jedoch Standard-Verfahren wie die Scherrer-Gleichung nicht angewandt werden. Verbindungen. Kohlenstoff ist das Element, das nach Wasserstoff die meisten Verbindungen aller Elemente bilden kann (Wasserstoff steht an erster Stelle, weil die meisten Kohlenstoffverbindungen auch Wasserstoff enthalten). Besonderheiten des Kohlenstoffs sind es, Ketten und Ringe mit sich selbst und anderen Elementen sowie Doppel- und Dreifachbindungen unter Beteiligung von π-Orbitalen zu bilden. Aufgrund seiner mittelstarken Elektronegativität hat er ein gutes Bindungsvermögen sowohl zu elektropositiveren als auch zu elektronegativeren Elementen. Alle Oxidationsstufen von −IV bis +IV kommen in der Natur in anorganischen oder organischen Verbindungen vor. Kohlenstoffverbindungen werden traditionell bis auf wenige Ausnahmen zur organischen Chemie gezählt; diese wird auch manchmal als Chemie des Kohlenstoffs bezeichnet. Die organische Chemie umfasst, aufgrund der Fähigkeit des Kohlenstoffs, lange Ketten und kovalente Bindungen mit anderen Atomen zu bilden, mehr Verbindungen als die gesamte anorganische Chemie. Auch die Biochemie ist ein Teil der organischen Kohlenstoffchemie. Zu den einfachsten organischen Verbindungen zählen die Alkane Methan und Ethan. Isotope. Kohlenstoff hat zwei stabile Isotope, 12C und 13C. 12C kommt zu 98,9 % in der Natur vor, 13C zu 1,1 %. 12C ist laut Definition der Bezugspunkt für die Einheit der Atommasse. 13C kann man in NMR-spektroskopischen Untersuchungen detektieren, da es, anders als 12C, über ein magnetisches Moment verfügt. Neben diesen beiden stabilen Isotopen gibt es noch mehrere instabile Isotope. Das bekannteste instabile Isotop ist 14C mit einer Halbwertszeit von 5730 Jahren. Es entsteht durch natürliche Kernreaktionen in der Atmosphäre aus 14N. Isotopenverhältnis zur Altersbestimmung von organischen Materialien. Organisches Material, das am Kohlenstoffzyklus teilnimmt, zeigt den gleichen Anteil an 14C bezüglich der gesamten enthaltenen Kohlenstoffmenge wie die Atmosphäre. Nach dem Ende des Stoffwechsels, also beispielsweise nach der Fällung eines Baums, verringert sich dieser Anteil allmählich durch den Zerfall. Die Bestimmung des Anteils von 14C zum gesamten Kohlenstoffgehalt erlaubt daher eine Altersbestimmung an Gegenständen aus organischem Material (Radiokohlenstoffmethode), die vor allem in der Archäologie Verwendung findet. Kalium. Kalium, (von "Kali" aus) ist ein chemisches Element mit dem Elementsymbol K und der Ordnungszahl 19. Im Periodensystem steht es in der ersten Hauptgruppe bzw. der 1. IUPAC-Gruppe und zählt zu den Alkalimetallen. In der Erdhülle gehört Kalium zu den zehn häufigsten Elementen und kommt in zahlreichen Mineralen der Erdkruste vor. Geschichte. Am 19. November 1807 berichtete Humphry Davy vor der Royal Society in London, es sei ihm gelungen, durch Elektrolyse von schwach angefeuchteten Ätzalkalien zwei verschiedene Metalle zu gewinnen; das eine, am 6. Oktober 1807 erstmals gewonnene Metall nannte er "Potassium" (= englische und französische Bezeichnung für Kalium), weil man es aus Pottasche gewinnen kann, das andere, wenige Tage später erstmals gewonnene, "Sodium" (die noch heute geltende französische und englische Bezeichnung für Natrium), weil es in den verschiedenen Modifikationen von Natriumcarbonat (Soda) enthalten ist. Im deutschen Sprachraum wird das Sodium Davys seit 1811 nach einem Vorschlag von Berzelius als Natrium bezeichnet, während man für das Potassium Davys den von Klaproth 1796 eingeführten Ausdruck Kalium (von arab. = Asche, aus Pflanzenasche gewinnbar) übernahm. Vorkommen. Kalium kommt in der Natur nur als Kation in Kaliumverbindungen vor. Das liegt daran, dass es nur ein Außenelektron besitzt und dieses sehr bereitwillig abgibt, um eine stabile und energiearme äußere Elektronenschale zu erlangen. Kovalente Kaliumverbindungen sind daher nicht bekannt. Im Meerwasser liegt die durchschnittliche Konzentration bei 399,1 mg K+/kg = 408,4 mg K+/l. 2010 wurde Kalium in der Atmosphäre von Exoplaneten XO-2b und HD 80606 b detektiert. Gewinnung und Darstellung. Die Gewinnung von metallischem Kalium kann nach mehreren Verfahren erfolgen. Genutzt wurden elektrolytische Verfahren wie das Degussa-Verfahren oder ein thermisches Verfahren der I.G. Farben, Werk Griesheim. Das meiste Kalium wird jedoch mit dem in den 1950er-Jahren von der "Mine Safety Appliances Co." eingeführten MSA-Verfahren hergestellt, bei dem bei 870 °C unter Schutzgasatmosphäre mit metallischem Natrium eine Reduktion von Kaliumchlorid durchgeführt wird. Das entstehende gasförmige Kalium wird in einer Kühlfalle durch Kondensation niedergeschlagen. Durch Variation der Destillationsparameter sind auch handelsübliche NaK-Legierungen zugänglich. Eigenschaften. Kalium in einer Ampulle unter Paraffinöl 450px Analog zu den anderen Alkalimetallen reagiert Kalium mit vielen anderen Elementen und Verbindungen oft sehr heftig, insbesondere mit Nichtmetallen, und kommt in der natürlichen Umwelt nur chemisch gebunden vor. Kalium hat eine stärkere Reaktivität als Natrium und reagiert heftig mit Wasser unter Bildung von Kaliumhydroxid und Freisetzung von Wasserstoff. Hochgeschwindigkeitsaufnahmen der Reaktion von Alkalimetallen mit Wasser legen eine Coulomb-Explosion nahe. Aufgrund der stark exothermen Reaktion entzündet sich der Wasserstoff bei Luftzutritt. Hierbei kann es zu Verpuffungen und Explosionen kommen. In trockenem Sauerstoff verbrennt das Metall mit intensiver violetter Flamme zu Kaliumhyperoxid KO2 und Kaliumperoxid K2O2. An feuchter Luft reagiert es sehr rasch mit Wasser und Kohlenstoffdioxid zu Kaliumcarbonat unter Wasserstoffbildung. In flüssigem Ammoniak ist Kalium, wie alle Alkalimetalle, unter Bildung einer blauvioletten Lösung gut löslich. Mit den Halogenen Brom und Iod in flüssiger oder fester Form setzt sich Kalium explosionsartig zu den entsprechenden Halogeniden um. Zur Entsorgung von Kalium wird meist das vorsichtige Einbringen kleiner Stücke des Metalls in einen großen Überschuss an "tert"-Butylalkohol empfohlen, mit dem es unter Bildung des Alkoholats und Wasserstoff reagiert. Da diese Reaktion recht langsam verläuft, kann es passieren, dass unbemerkt kleine, mit einer Kruste von Kalium-"tert"-butanolat umhüllte Kaliumreste übrigbleiben. Daher muss sorgfältig auf die Vollständigkeit der Reaktion geachtet werden. Alternativ kann man für "kleine" Kaliummengen auch 1-Butanol verwenden, das mit dem Kalium zwar schneller, aber dennoch kontrollierbar reagiert. Keinesfalls sollten „niedrigere“ Alkohole (Propanole, Ethanol oder Methanol) verwendet werden, da diese zu heftig mit Kalium reagieren und zudem leichter entzündlich sind. An der Luft überzieht sich die silberweiß glänzende Schnittfläche des frischen Metalls innerhalb von Sekunden mit einer bläulich schimmernden Schicht aus Oxid und Hydroxid und ein wenig Carbonat. An der Luft stehengelassen reagiert es wie alle Alkalimetalle langsam vollständig zum Carbonat. Metallisches Kalium wird deshalb unter organischen Flüssigkeiten, die kein Wasser enthalten, wie etwa Paraffinöl aufbewahrt. Im Gegensatz zu Natrium kann Kalium bei längerer Lagerung dennoch Krusten aus Oxiden, Peroxiden und Hydroxiden bilden, die das Metall in Form rötlich-gelber Schichten überziehen und die bei Berührung oder Druck explodieren können. Eine sichere Entsorgung ist dann nicht mehr möglich, hier bietet sich nur noch der Abbrand des kompletten Gebindes unter kontrollierten Bedingungen an. Mit Natrium werden in einem weiten Konzentrationsbereich bei Raumtemperatur flüssige Gemische gebildet, siehe: NaK (Legierung). Das Phasendiagramm zeigt eine bei 7 °C inkongruent schmelzende Verbindung Na2K und ein Eutektikum bei −12,6 °C mit einem Natriumgehalt von 23 %w. Verwendung. Kalium ist in einigen schnellen Kernreaktoren in Form einer eutektischen Na-K-Legierung als Kühlflüssigkeit eingesetzt worden. Ansonsten hat metallisches Kalium nur geringe technische Bedeutung, da es durch das billigere Natrium ersetzt werden kann. Im Forschungslabor wird Kalium gelegentlich zur Trocknung von Lösungsmitteln eingesetzt, besonders wenn der Siedepunkt des Lösungsmittels über dem Schmelzpunkt des Kaliums, aber unter dem Schmelzpunkt von Natrium liegt. Dann liegt das Kalium im siedenden Lösungsmittel geschmolzen vor und seine Oberfläche verkrustet nicht. Man benötigt somit deutlich weniger Alkalimetall und es kann fast völlig beim Trocknungsprozess verbraucht werden, so dass nur sehr kleine Reste entsorgt werden müssen. Kalium entwickelt beim langen Stehenlassen auch unter Schutzflüssigkeit (Petroleum) Krusten von Peroxoverbindungen (K2O2 und KO2), die sehr brisant reagieren. Bereits durch geringen Druck, insbesondere beim Herausheben von Kaliumstücken mit einer Zange oder beim Versuch des Schneidens mit dem Messer, können diese Peroxoverbindungen Explosionen auslösen. Als Gegenmaßnahmen empfehlen sich entweder das Einschmelzen in Glasampullen oder ein Lagern unter Schutzflüssigkeit und Inertgas. Weiterhin dürfen halogenierte Lösemittel aufgrund der Explosionsgefahr nicht mit Kalium getrocknet werden. Ebenfalls gefährlich sind Reaktionen des Kaliums im Zusammenspiel von Lösemitteln, die leicht Sauerstoff abgeben können. Bedeutung als Düngemittel. Wasserlösliche Kaliumsalze werden als Düngemittel verwendet, da Pflanzen die im Boden vorkommenden Kaliumsilicate schlecht aufschließen können. Die Wirkung des essentiellen Makronährstoffes Kalium in den Pflanzen ist vielfältig. Im Xylem dient es als Osmotikum welches für den Aufbau des Wurzeldrucks entscheidend ist. Kalium in den Blattzellen erhöht den Turgor, was zu einer Zellstreckung und Blattflächenwachstum führt. Auch sorgt es über die Erhöhung des Turgors für eine Öffnung der Stomata, was die CO2-Aufnahme begünstigt und somit direkten Einfluss auf die Photosyntheseleistung hat. Ist Kalium in ausreichenden Mengen vorhanden, fördert es in einem ersten Schritt die Bildung von C3-Zuckern, die in weiteren von Kalium beeinflussten Stoffwechselprozessen zu Stärke, Zellulose, Lignin und Proteinen verarbeitet werden. Pflanzen, die unter Kaliummangel leiden, weisen vornehmlich an den älteren Blättern Symptome auf. Kalium wird aus ihnen retransloziert und über das Phloem in junge Blätter transportiert. Typische Symptome eines Kaliummangels sind Punkt-, Interkostal- und Blattrandchlorosen sowie Blattrandnekrosen. Auch kommt es zu einem gestauchten Habitus und gegebenenfalls zur Welketracht. Bei starker Sonneneinstrahlung kann es zur Photooxidation in den Blättern kommen. Ein stärkerer Überschuss bewirkt Wurzelverbrennungen und Calcium- beziehungsweise Magnesium-Mangel. Kalium ist der Gegenspieler von Calcium – beide Nährelemente müssen also in einem richtigen Verhältnis zueinander in der Pflanze und im Boden vorhanden sein. Empfohlene und tatsächliche Kaliumzufuhr. Zur Aufrechterhaltung aller lebenswichtigen physiologischen Prozesse wird geraten, mindestens 2 g Kalium täglich zu sich zu nehmen. Das "Food and Nutrition Board" (FNB) der USA und Kanada erachtet allerdings unter präventiven Aspekten für alle Erwachsenen eine Einnahme von 4,7 g/Tag (120 mmol/Tag) als angemessen. Diese Kaliummenge (aus der Nahrung) ist aufgrund neuer Erkenntnisse erforderlich, um chronischen Erkrankungen wie erhöhtem Blutdruck, Kochsalzsensitivität, Nierensteinen, Verlust an Knochenmasse oder Schlaganfällen vorzubeugen bzw. sie zu vermindern oder zu verzögern. Laut der Nationalen Verzehrsstudie II (NVS II) liegt die Kaliumzufuhr in Deutschland im Median bei 3,1 g/Tag (Frauen) bzw. 3,6 g/Tag (Männer). Von 75 % der Männer und 90 % der Frauen wird die vom FNB empfohlene Zufuhr von 4,7 g Kalium pro Tag nicht erreicht. Bedeutung des Natrium/Kalium-Verhältnisses. Im Körper spielt Kalium eine herausragende Rolle bei der Regulation des Membranpotentials. Die intrazelluläre Kaliumkonzentration liegt bei ungefähr 150 mmol/l, extrazellulär finden sich 4 mmol/l. Die Konzentration an Natrium liegt intrazellulär bei rund 10 mmol/l, extrazellulär bei 140 mmol/l. Diese Konzentrationsunterschiede werden durch die K-ATPase aufrechterhalten und sind für die Funktion der Zelle lebenswichtig. Ein dauerhaftes Verschieben dieser zellulären Konzentrationen kann bei erhöhter K+-Konzentration (Hyperkaliämie), das heißt K+»4,5 mmol/l, zu Herzstillstand in Systole führen. Bei Hypokaliämie, (K+ Extrasystolen des Herzens. K+ ist (neben Na+) entscheidend für den osmotischen Druck der Zellen, das heißt für den Wassergehalt der Zelle. Eine zu geringe K+-Konzentration im Blut führt zu Herzstillstand in Diastole. Der Normbereich im Serum liegt bei 3,6–4,5 mmol/l, im Harn bei 26–123 mmol/l. Das heißt, es wird ständig K+ verloren, das mit der Nahrung ersetzt werden muss. Das ist insbesondere in der heutigen Zeit ein Problem, da die westliche Ernährungsweise von der Zufuhr tierischer Lebensmittel geprägt ist. Die Zufuhr kaliumreicher, pflanzlicher Lebensmittel ist im Vergleich zu früher hingegen deutlich vermindert. Vor der Entwicklung der Landwirtschaft lag die Kaliumzufuhr bei 10,5 g/Tag, im Vergleich zu den durchschnittlich 3,4 g/Tag laut NVS II. Demgegenüber steht die ins Gegenteil verschobene Natriumzufuhr: Diese lag früher bei lediglich 0,8 g/Tag und ist durch unsere salzreiche Ernährung auf durchschnittlich 3,1 g/Tag (Frauen) bzw. 4,3 g/Tag (Männer) angestiegen. Das hat Auswirkungen auf das natürliche Verhältnis von Kalium zu Natrium in unserem Körper. Kalium ist der natürliche Gegenspieler von Natrium, und ein ausgewogenes Verhältnis der beiden Mineralien ist für die Regulation physiologischer Prozesse besonders wichtig. Eine exzessive Natriumzufuhr kann zur Kaliumverarmung führen. Umgekehrt hat Kalium einen natriuretischen Effekt. Insofern ist das Na/K-Verhältnis in der Nahrung entscheidender als die Konzentration der einzelnen Kationen für sich allein. Die WHO empfiehlt ein molares Verhältnis der beiden Mineralstoffe von 1:1. Diesem Verhältnis werden die WHO-Empfehlungen von weniger als 2 g Natrium pro Tag und mindestens 3,5 g Kalium pro Tag gerecht. Physiologische Bedeutung. Neben Natrium hat Kalium große Bedeutung für die Regulation des Blutdrucks. Epidemiologische Studien belegen, dass eine erhöhte Kaliumaufnahme mit einer Blutdrucksenkung einhergeht und das Risiko für Schlaganfälle reduziert. Die blutdrucksenkende Wirkung von Kalium wurde auch in Supplementierungsversuchen nachgewiesen. Eine blutdrucksenkende Wirkung konnte auch allein durch die so genannte DASH (Dietary Approaches to Stop Hypertension) Diät (reich an Vollkorn-Getreideprodukten, Obst, Gemüse, Geflügel, Fisch und Nüssen) erreicht werden. Diese Diät enthält im Gegensatz zur üblichen Kost weniger Kochsalz und gesättigte Fette, relativ viel Kalium, aber auch mehr an anderen Nährstoffen wie Magnesium und Calcium, die auch für eine blutdrucksenkende Wirkung mit verantwortlich gemacht werden. Aus diesem Grunde sollte eine obst- und gemüsereiche Kost (reich an Kalium) in Kombination mit einer moderaten Senkung der Natriumzufuhr empfohlen werden, da sich ein Verhältnis Natrium zu Kalium von 1 oder weniger günstig auf den Blutdruck auswirkt. Eine Angleichung der Kaliumzufuhr an eine hohe Natriumaufnahme ist nicht sinnvoll. Auch die Europäische Behörde für Lebensmittelsicherheit (EFSA) bestätigt die blutdruckerhöhende Wirkung von Natrium. Kalium hat außerdem einen positiven Einfluss auf den Knochenstoffwechsel, da eine höhere Kaliumzufuhr eine erhöhte Calciumausscheidung verhindert, die durch eine hohe Kochsalzzufuhr induziert wird. Kalium fördert somit die renale Calciumretention in der Niere und verhindert den Calciumabbau aus den Knochen. In diesem Zusammenhang sind auch der Einfluss des Begleitanions, der Zusammensetzung der Nahrung und des Lebensalters auf den Säuren-Basen-Status zu beachten. Für Kaliumcitrat ist in klinischen Studien nachgewiesen, dass es dem Calciumverlust über die Niere und dem Calciumabbau aus den Knochen entgegenwirkt. So zeigte eine prospektive kontrollierte Interventionsstudie bei 161 postmenopausalen Frauen mit Osteopenie, dass die partielle Neutralisierung einer diätinduzierten Säurebelastung (mittels 30 mmol Kaliumcitrat pro Tag, entspricht 1,173 g Kalium) über einen Zeitraum von zwölf Monaten die Knochendichte signifikant erhöht und die Knochenstruktur deutlich verbessert. Kaliumcitrat wirkte dabei genauso effektiv wie Raloxifen, einem Östrogen-Rezeptor-Modulator, der bei der Behandlung und Prävention von Osteoporose bei postmenopausalen Frauen eingesetzt wird. Kalium gehört zu den wichtigsten Elektrolyten der Körperflüssigkeit und ist für die Steuerung der Muskeltätigkeit mitverantwortlich. Bei Leistungssportlern kann es durch übermäßiges Ausschwitzen von Kalium zu Krämpfen und Erschöpfungszuständen kommen. Kaliumreiche Nahrungsmittel wirken entwässernd. Bei Dialyse-pflichtigen Patienten mit eingeschränkter Nierenfunktion ist es wichtig, dass diese stark kaliumhaltige Lebensmittel meiden, da es bei Hyperkaliämie zu lebensbedrohlichen Zuständen kommen kann. Die in den Vereinigten Staaten zu Hinrichtungen verwendete Giftspritze enthält unter anderem Kaliumchlorid, welches zu einer Lähmung der Herzmuskulatur und damit zum Tode führt. Für weitere Informationen zu körperlichen Auswirkungen von Kalium Kaliumgehalte in Lebensmitteln. Kaliumreiche Lebensmittel sind unter anderem Pilze, Bananen, Datteln, Rosinen, Bohnen, Chili, Käse, Spinat und Kartoffeln, in denen es in Mengen von 0,2 bis 1,0 g Kalium/100 g Lebensmittel vorkommt. Kaliumgehalte in kaliumreichen Lebensmitteln in mg pro 100 g; aus der USDA National Nutrient Database (2011) Da Kalium sehr gut wasserlöslich ist, lässt sich der Kaliumgehalt von Lebensmitteln durch das sog. "Wässern" (in Wasser einlegen für ca. drei bis fünf Stunden) merklich senken. Dies ist besonders wichtig für Personen mit Nieren- und Stoffwechselstörungen. Radioaktivität. Natürliches Kalium besteht zu 0,0117 Prozent aus dem radioaktiven Isotop 40K und hat daher eine spezifische Aktivität von 30.346 Becquerel pro Kilogramm. Mit 0,17 mSv pro Jahr wird fast 10 Prozent der natürlichen radioaktiven Belastung in Deutschland (durchschnittlich 2,1 mSv pro Jahr) durch körpereigenes Kalium verursacht. Der Zerfall von 40K zu 40Ar und 40Ca kann auch zur Altersbestimmung mittels Kalium-Argon-Datierung verwendet werden und ist eine wesentliche Quelle für Argon in der Erdatmosphäre. Kaliumnachweis. Neben dem spektroskopischen Nachweis kann man in Wasser gelöste Kaliumionen potentiometrisch mit einer auf K+ spezialisierten ionenselektiven Elektrode nachweisen und bestimmen. Dabei nutzen die meisten Kaliumelektroden die spezifische Komplexierung von Kalium durch Valinomycin C54H90N6O18, welches in einer Konzentration von etwa 0,7 % in eine Kunststoffmembran eingebettet ist. Ein qualitativer Kaliumnachweis ist mittels Perchlorsäure möglich. Es bildet sich das in der Kälte in Wasser schwer lösliche Kaliumperchlorat als weißer Niederschlag. Allerdings bilden auch andere Kationen wie Rubidium, Caesium und Ammonium weiße, in der Kälte schwer lösliche Niederschläge. Quantitativ lässt sich Kalium mit Hilfe der Gravimetrie bestimmen. Hierbei wird Kalium als Tetraphenylborat durch Versetzen der Lösung mit Kalignost gefällt und der erhaltene Niederschlag ausgewogen. Weitere Nachweise sind als Fällungen von Kaliumhexanitrocobaltat(III), Kaliumhydrogentartrat (KA=3,80 · 10−4) und Kaliumhexachloroplatinat(IV) möglich. In der Routineanalytik (Klinische Chemie (Blut), Umweltchemie, Wasserchemie) wird Kalium bis in den Spurenbereich mit der Flammenphotometrie quantitativ bestimmt. Als Bestimmungsgrenze wird hier 100 µg/l genannt. In der Atomabsorptionsspektrometrie ist mit der Flammentechnik noch 1 µg/l nachweisbar, mit der Graphitrohrtechnik 0,004 µg/l. Krypton. Krypton ist ein chemisches Element mit dem Elementsymbol Kr und der Ordnungszahl 36. Im Periodensystem steht es in der 8. Hauptgruppe, bzw. der 18. IUPAC-Gruppe und zählt daher zu den Edelgasen. Wie die anderen Edelgase ist es ein farbloses, äußerst reaktionsträges, einatomiges Gas. In vielen Eigenschaften wie Schmelz- und Siedepunkt oder Dichte steht es zwischen dem leichteren Argon und dem schwereren Xenon. Krypton zählt zu den seltensten Elementen auf der Erde und kommt nur in geringen Mengen in der Atmosphäre vor. Das Edelgas wurde 1898 von William Ramsay und Morris William Travers durch fraktionierte Destillation flüssiger Luft entdeckt. Krypton wird auf Grund seiner Seltenheit nur in geringen Mengen, vor allem als Füllgas von Glühlampen, verwendet. Eine geringe Anzahl an Kryptonverbindungen ist bekannt, von denen Kryptondifluorid eines der stärksten Oxidationsmittel ist, das bekannt ist. Geschichte. Nachdem 1894 Argon als erstes Edelgas von John William Strutt, 3. Baron Rayleigh, und William Ramsay entdeckt und das bislang nur aus dem Sonnenspektrum bekannte Helium 1895 von Ramsay aus Uranerzen isoliert wurde, erkannte er aus den Gesetzen des Periodensystems, dass es noch weitere derartige Elemente geben müsste. Ramsay untersuchte daher ab 1896 zunächst verschiedene Minerale und Meteoriten und die von ihnen beim Erhitzen oder Lösen abgegebenen Gase. Er und sein Mitarbeiter Morris William Travers waren dabei jedoch nicht erfolgreich, es wurden nur Helium und seltener Argon gefunden. Auch die Untersuchung heißer Gase aus Cauterets in Frankreich und aus Island brachten keine Ergebnisse. Schließlich begannen sie, 15 Liter Rohargon zu untersuchen und durch Verflüssigung und fraktionierte Destillation zu trennen. Als sie den Rückstand untersuchten, der beim fast völligen Verdampfen des Rohargons übrigblieb, fanden sie bislang unbekannte gelbe und grüne Spektrallinien, also ein neues Element. Nach dem altgriech. ' „verborgen“ wurde es "Krypton" genannt. Nach Reinigung durch weitere Destillation konnten Ramsay und Travers auch die molare Masse von etwa 80 g/mol bestimmen. Nach dieser Entdeckung konnten sie aus einer anderen, niedriger siedenden Fraktion ein weiteres Element, das Neon, und schließlich, durch Trennung des Rohkryptons, das Xenon gewinnen. 1924 behauptete A. von Antropoff, eine erste Kryptonverbindung in Form eines roten stabilen Feststoffes aus Krypton und Chlor synthetisiert zu haben. Später stellte sich jedoch heraus, dass in dieser Verbindung kein Krypton, sondern Stickstoffmonoxid und Chlorwasserstoff enthalten waren. Größere Anstrengungen in der Synthese von Kryptonverbindungen wurden nach der Entdeckung der ersten Xenonverbindungen 1962 unternommen. Als erster stellte A.V. Grosse eine Kryptonverbindung dar, die er zunächst für "Kryptontetrafluorid" hielt, die jedoch nach weiteren Versuchen als Kryptondifluorid identifiziert wurde. Die Wellenlänge einer elektromagnetischen Strahlung, die vom Kryptonisotop 86Kr ausgestrahlt wird, wurde 1960 als Grundlage für die Definition des Meters gewählt. Sie löste damit die zu ungenaue Definition über das Urmeter aus einer Platin-Iridium-Legierung ab. Ein Meter wurde als das 1.650.763,73-fache der Wellenlänge der vom Nuklid 86Kr beim Übergang vom 5d5 in den 2pl0-Zustand ausgesandten und sich im Vakuum ausbreitenden Strahlung definiert. 1983 wurde diese Festlegung schließlich ersetzt durch eine Definition, die auf der Strecke beruht, die Licht im Vakuum in einem bestimmten Bruchteil einer Sekunde zurücklegt. Vorkommen. Krypton zählt zu den seltensten Elementen auf der Erde. Seltener sind lediglich Xenon sowie radioaktive Elemente, die entweder wie Plutonium zum größten Teil schon zerfallen sind oder nur als kurzlebiges Zwischenprodukt von Zerfallsreihen vorkommen. Der Anteil des Kryptons an der Erdhülle beträgt 1,9 × 10−5 ppm, der größte Teil des Gases befindet sich dabei in der Atmosphäre, die zu 1,14 ppm aus Krypton besteht. Im Universum ist Krypton häufiger, die Häufigkeit ist vergleichbar mit derjenigen von Lithium, Gallium und Scandium. Das Verhältnis von Krypton und Wasserstoff ist im Universum weitgehend konstant. Daraus lässt sich schließen, dass die interstellare Materie reich an Krypton ist. Krypton konnte auch in einem Weißen Zwerg nachgewiesen werden. Dabei wurde im Vergleich zur Sonne die 450-fache Menge gemessen, der Grund für diesen hohen Krypton-Gehalt ist jedoch noch unbekannt. Gewinnung. Die Gewinnung von Krypton erfolgt ausschließlich im Rahmen des Linde-Verfahrens aus der Luft. Bei der Stickstoff-Sauerstoff-Trennung reichert es sich auf Grund der hohen Dichte zusammen mit Xenon im flüssigen Sauerstoff an, der sich im Sumpf der Kolonne befindet. Dieses Gemisch wird in eine Kolonne überführt, in der es auf etwa 0,3 % Krypton und Xenon angereichert wird. Dazu enthält das flüssige Krypton-Xenon-Konzentrat neben Sauerstoff noch eine größere Menge Kohlenwasserstoffe wie Methan, fluorierte Verbindungen wie Schwefelhexafluorid oder Tetrafluormethan sowie Spuren an Kohlenstoffdioxid und Distickstoffmonoxid. Methan und Distickstoffmonoxid können über Verbrennung an Platin- oder Palladiumkatalysatoren bei 500 °C zu Kohlenstoffdioxid, Wasser und Stickstoff umgesetzt werden, die durch Adsorption an Molekularsieben entfernt werden können. Fluorverbindungen können dagegen nicht auf diese Weise aus dem Gemisch entfernt werden. Um diese zu zerlegen und aus dem Gemisch zu entfernen, kann das Gas mit Mikrowellen bestrahlt werden, wobei die Element-Fluor-Bindungen aufbrechen und die entstehenden Fluoratome in Natronkalk aufgefangen werden können oder über einen Titandioxid-Zirconiumdioxid-Katalysator bei 750 °C geleitet werden. Dabei reagieren die Fluorverbindungen zu Kohlenstoffdioxid und Fluorwasserstoff und anderen Verbindungen, die abgetrennt werden können. Anschließend werden Krypton und Xenon in einer weiteren Kolonne, die unten beheizt und oben gekühlt wird, getrennt. Während sich Xenon am Boden sammelt, bildet sich oben ein Gasstrom, in dem zunächst Sauerstoff, nach einiger Zeit auch Krypton aus der Kolonne entweicht. Letzteres wird durch Oxidation von noch vorhandenen Sauerstoffspuren befreit und in Gasflaschen gesammelt. Physikalische Eigenschaften. Kubisch dichteste Kugelpackung von festem Krypton, "a" = 572 pm Bei der Ionisierung im Hochspannungs-Hochfrequenzfeld leuchtet Krypton Krypton ist ein bei Normalbedingungen einatomiges, farbloses und geruchloses Gas, das bei 121,2 K (−152 °C) kondensiert und bei 115,79 K (−157,36 °C) erstarrt. Wie die anderen Edelgase außer dem Helium kristallisiert Krypton in einer kubisch dichtesten Kugelpackung mit dem Gitterparameter "a" = 572 pm. Wie alle Edelgase besitzt Krypton nur abgeschlossene Schalen (Edelgaskonfiguration). Dadurch lässt sich erklären, dass das Gas stets einatomig vorliegt und die Reaktivität gering ist. Mit einer Dichte von 3,749 kg/m³ bei 0 °C und 1013 hPa ist Krypton schwerer als Luft, es sinkt also ab. Im Phasendiagramm liegt der Tripelpunkt bei 115,76 K und 0,7315 bar, der kritische Punkt bei −63,75 °C, 5,5 MPa sowie einer kritischen Dichte von 0,909 g/cm³. In Wasser ist Krypton etwas löslich, in einem Liter Wasser können sich bei 0 °C maximal 110 ml Krypton lösen. Chemische Eigenschaften. Wie alle Edelgase ist Krypton sehr reaktionsträge. Es kann lediglich mit dem elektronegativsten Element, dem Fluor, unter speziellen Bedingungen reagieren und bildet dabei Kryptondifluorid. Im Gegensatz zu den Xenonfluoriden ist Kryptondifluorid thermodynamisch instabil, die Bildung ist daher endotherm und muss bei niedrigen Temperaturen stattfinden. Die für eine Reaktion nötigen Fluorradikale können über Bestrahlung mit UV-Strahlung, Beschießen mit Protonen oder elektrische Entladungen dargestellt werden. Mit verschiedenen Verbindungen bildet Krypton Clathrate, bei denen das Gas physikalisch in einen Hohlraum eingeschlossen und so gebunden ist. So bilden Wasser und Wasser-Chloroform-Mischungen bei −78 °C ein Clathrat, ein Clathrat mit Hydrochinon ist so stabil, dass Krypton sich über längere Zeit darin hält. Auch eine Einschlussverbindung des Kryptons im Oligosaccharid α-Cyclodextrin ist bekannt. Isotope. Insgesamt sind 31 Isotope sowie 10 weitere Kernisomere des Kryptons bekannt. Von diesen sind 5 Isotope stabil: 80Kr, 82Kr, 83Kr, 84Kr und 86Kr. Sie kommen zusammen mit dem extrem langlebigen 78Kr (Halbwertszeit 2 · 1021 Jahre) in der Natur vor. Den größten Anteil am natürlichen Isotopengemisch besitzt dabei 84Kr mit 57 %, gefolgt von 86Kr mit 17,3 %; 82Kr kommt zu 11,58 % und 83Kr zu 11,49 % vor. Dagegen sind die Isotope 80Kr mit 2,28 % und 78Kr mit 0,35 % Anteil selten. Das nach 78Kr langlebigste der instabilen Isotope ist mit einer Halbwertszeit von 229.000 Jahren 81Kr, es entsteht in Spuren durch atmosphärische Reaktionen und kommt so ebenfalls in der Luft natürlich vor. Auch das radioaktive Isotop 85Kr mit 10,756 Jahren Halbwertszeit kommt in Spuren in der Atmosphäre vor. Es entsteht zusammen mit anderen kurzlebigen Isotopen bei der Kernspaltung von Uran und Plutonium. Durch Kernexplosionen oder während der Wiederaufarbeitung von Brennelementen gelangt es in die Umgebungsluft und ist durch die unterschiedliche Verteilung der Emissionsquellen auf der Nordhalbkugel häufiger als auf der Südhalbkugel. Nachdem die Belastung der Atmosphäre mit 85Kr nach dem Ende der atmosphärischen Kernwaffentests in den 1960ern abnahm, stieg sie in einer Messstation in Gent zwischen 1979 und 1999 – verursacht durch die Wiederaufarbeitungsanlage La Hague – deutlich an. Als einziges stabiles Krypton-Isotop ist 83Kr NMR-aktiv. Hyperpolarisiertes 83Kr wurde im Tierversuch an Ratten in der Magnetresonanztomographie zur Untersuchung der Lunge eingesetzt. Verwendung. Der größte Teil des Kryptons wird als Füllgas für Glühlampen verwendet. Durch das Gas ist die Abdampfrate des Glühfadens aus Wolfram geringer, das ermöglicht eine höhere Glühtemperatur. Diese bewirkt wiederum eine höhere Lichtausbeute der Lampe. Auch Halogen- und Leuchtstofflampen können Krypton enthalten. Weiterhin dient es in Geigerzählern, Szintillationszählern und elektronischen Geräten als Füllgas. Auch in Isolierglasscheiben wird es trotz des hohen Preises statt des normalerweise benutzten Argons als Füllgas eingesetzt, wenn man bei gleicher Scheibendicke eine deutlich bessere Isolierung erreichen will. Zusammen mit Fluor wird Krypton im Krypton-Fluorid-Laser eingesetzt. Dieser zählt zu den Excimerlasern und hat eine Wellenlänge von 248 nm im ultravioletten Spektralbereich. Auch Edelgas-Ionen-Laser mit Krypton, bei denen das aktive Medium ein- oder mehrfach geladene Kryptonionen sind, sind bekannt. Wie Xenon absorbiert Krypton – allerdings in geringerem Maß – Röntgenstrahlung. Deshalb wird untersucht, ob Xenon-Krypton-Mischungen in der Computertomographie als Kontrastmittel eingesetzt werden können. Sie könnten einen besseren Kontrast als reines Xenon erreichen, da dessen Anteil am Kontrastmittel auf Grund der narkotisierenden Wirkung beim Einsatz am Menschen auf maximal 35 Prozent beschränkt ist. Flüssiges Krypton wird als Material für Kalorimeter in der Teilchenphysik verwendet. Es ermöglicht eine besonders genaue Bestimmung von Ort und Energie. Ein Beispiel für einen Teilchendetektor, der ein Flüssig-Krypton-Kalorimeter nutzt, ist das NA48-Experiment am CERN. Das betastrahlende 85Krypton wird zur Vorionisation in Leuchtstofflampen-Glimmstartern verwendet. Auch Ionisationsrauchmelder enthielten früher dieses Gas. Biologische Bedeutung. Wie die anderen Edelgase hat Krypton auf Grund der Reaktionsträgheit keine biologische Bedeutung und ist auch nicht toxisch. In höheren Konzentrationen wirkt es durch Verdrängung des Sauerstoffs erstickend. Bei einem Druck von mehr als 3,9 bar wirkt es narkotisierend. Verbindungen. Nur eine kleine Anzahl an Kryptonverbindungen ist bekannt. Die wichtigste und stabilste davon ist Kryptondifluorid. Es zählt zu den stärksten bekannten Oxidations- und Fluorierungsmitteln und ist beispielsweise in der Lage, Xenon zu Xenonhexafluorid oder Iod zu Iodpentafluorid zu oxidieren. Reagiert Kryptondifluorid mit Fluoridakzeptoren wie Antimonpentafluorid, bilden sich die Kationen KrF+ und Kr2F3+, die die stärksten bekannten Oxidationsmittel sind. Auch Verbindungen mit anderen Liganden als Fluor sind bekannt. Dazu zählen unter anderem Kryptonbis(pentafluororthotellurat) Kr(OTeF5)2, die einzig bekannte Sauerstoff-Krypton-Verbindung, RCNKrF+AsF6− (R=H, CF3, C2F5 oder n-C3F7) mit einer Krypton-Stickstoff-Bindung und HKrCCH, bei der ein Ethin-Ligand am Krypton gebunden ist. Klassische Mechanik. a> - ein typischer Anwendungsfall der klassischen Mechanik Die klassische Mechanik ist ein Teilgebiet der Physik, das bis zum Ende des 19. Jahrhunderts weitgehend vollständig ausgearbeitet wurde und sich vorwiegend mit der Bewegung von Körpern befasst. Die klassische Mechanik diente als Ausgangspunkt der Entwicklung moderner physikalischer Theorien wie der Relativitätstheorie und der Quantenmechanik, deren Entwicklung aufgrund experimenteller Ergebnisse, die nicht mit den Konzepten der klassischen Mechanik vereinbar waren, notwendig wurde. Die klassische Mechanik ermöglicht dennoch sehr genaue Vorhersagen und Beschreibungen derjenigen physikalischen Vorgänge, bei denen relativistische und quantenmechanische Effekte vernachlässigt werden können. Typische moderne Anwendungsgebiete der klassischen Mechanik sind Aerodynamik, Statik und die Biophysik. Geschichte. Erste mathematische Ansätze zur Beschreibung der Mechanik von Körpern lassen sich bis in die Antike zurückverfolgen. Archimedes kannte bereits das Hebelgesetz. Weitere wichtige Entwicklungen der Theorie folgten erst ab Beginn des 16. Jahrhunderts, als mit dem Niedergang des mittelalterlichen Feudalsystems und dem Aufkommen des internationalen Handelsverkehrs das wissenschaftliche Interesse in Europa wieder aufflammte. Unter anderem durch Himmelsbeobachtungen und neue Vorstellungen zum Weltbild von Nikolaus Kopernikus, Johannes Kepler und Galileo Galilei wurden bedeutende Schritte gemacht. Die Verallgemeinerung auf mathematische Konzepte geht jedoch auf Isaac Newton zurück, der eigens dafür die Infinitesimalrechnung entwickelt hat (unabhängig von Leibniz, der eine äquivalente Formulierung für die Mathematik entwickelte). Weitere wichtige Beiträge folgten durch Joseph-Louis de Lagrange mit dem Lagrange-Formalismus und William Rowan Hamilton mit der hamiltonschen Mechanik. Mit diesen Theorien konnten physikalische Vorgänge wie die Bewegung von Pendeln, Planetenbahnen, starren Körpern und Körpern im freien Fall erstmals vollständig beschrieben werden. Formulierungen. In der klassischen Mechanik existieren verschiedene Prinzipien zur Aufstellung von Bewegungsgleichungen, die zur Beschreibung der Bewegung von Körpern genutzt werden. Diese stellen jeweils eine Weiterentwicklung oder Verallgemeinerung des zweiten Newtonschen Gesetzes dar. Bewegungsgleichungen sind Differentialgleichungen zweiter Ordnung, die nach der Beschleunigung aufgelöst werden können und deren Lösung den Ort und die Geschwindigkeit einer Masse zu jeder Zeit festlegt. Hamiltonsche Mechanik. Mit dem Hamilton-Jacobi-Formalismus existiert eine modifizierte Form dieser Beschreibung, die die Hamilton-Funktion mit der Wirkung verknüpft. Grenzen. Viele alltägliche Phänomene werden durch die klassische Mechanik ausreichend genau beschrieben. Es gibt aber Phänomene, die mit der klassischen Mechanik nicht mehr erklärt oder nicht mehr in Einklang gebracht werden können. In diesen Fällen wird die klassische Mechanik durch genauere Theorien ersetzt, wie z. B. durch die spezielle Relativitätstheorie oder die Quantenmechanik. Diese Theorien enthalten die klassische Mechanik als Grenzfall. Bekannte klassisch nicht erklärbare Effekte sind Photoeffekt, Comptonstreuung und Hohlraumstrahler. Das Verhältnis zur Relativitätstheorie. Anders als in der Relativitätstheorie gibt es in der klassischen Mechanik keine Maximalgeschwindigkeit, mit der sich Signale ausbreiten können. So ist es in einem klassischen Universum möglich, alle Uhren mit einem unendlich schnellen Signal zu synchronisieren. Dadurch ist eine absolute, in jedem Inertialsystem gültige Zeit denkbar. In der Relativitätstheorie ist die größte Signalgeschwindigkeit gleich der Vakuum-Lichtgeschwindigkeit. Unter der Annahme, dass zur Messung physikalischer Vorgänge benötigte Uhren perfekt synchronisiert werden können, lässt sich nun der Geltungsbereich der klassischen Mechanik gegenüber der Relativitätstheorie bestimmen. Die Annahme über die Synchronisierbarkeit gilt nämlich genau dann, wenn die zu messende Geschwindigkeit formula_22 im Vergleich zur (maximalen) Signalgeschwindigkeit formula_23, mit der die Uhren synchronisiert werden, klein ist, d. h. formula_24. Das Verhältnis zur Quantenmechanik. Im Gegensatz zu der Quantenmechanik lassen sich Massenpunkte mit identischen Observablen (Masse, Ort, Impuls) unterscheiden, während man in der Quantenmechanik von ununterscheidbaren Entitäten ausgeht. Das bedingt, dass klassische Körper in dem Sinne makroskopisch sein müssen, dass sie individuelle Eigenschaften besitzen, die sie unterscheidbar machen. Somit lassen sich z. B. Elementarteilchen einer Familie nicht als klassische Massenpunkte auffassen. Die Unterscheidbarkeit eines klassischen Teilchens rührt daher, dass es, wenn es sich selbst überlassen wird, in seinem vorherigen Inertialsystem verharrt. Dies ist für ein quantenmechanisch beschriebenes Teilchen nicht der Fall, da ein sich selbst überlassenes Teilchen nicht zwangsweise in seinem Inertialsystem verharrt. Diese Tatsache kann man in der Quantenmechanik herleiten, in dem man das Schrödinger-Anfangswertproblem für die Wellenfunktion eines Teilchens löst, dessen Aufenthaltswahrscheinlichkeit zu einem Zeitpunkt formula_25 genau an einem Ort lokalisiert ist (ein so genannter formula_26-Peak). Die Aufenthaltswahrscheinlichkeit beginnt mit zunehmender Zeit zu zerlaufen. Kalorie. Kalorie (‚Wärme‘; Einheitenzeichen "cal") ist eine veraltete Maßeinheit der Energie, insbesondere der Wärmemenge "Q", mit mehreren leicht unterschiedlichen Definitionen. Bereits 1948 schaffte die 9. Generalkonferenz für Maße und Gewichte in Paris die Kalorie als Einheit der Wärmemenge zugunsten der Einheit Joule ab. Eine Kalorie entspricht ca. 4,1868 Joule (1 kcal = 4,1868 kJ) und ein Joule ca. 0,239 Kalorien. Aufgrund unterschiedlicher Definitionen der Kalorie existieren jedoch leicht unterschiedliche Werte. In Deutschland ist die Verwendung von Joule als internationale SI-Einheit der Energie seit 1969 für amtliche Angaben und den Geschäftsverkehr gesetzlich vorgeschrieben. Im Warenverkehr der EU ist nach der jüngsten Richtlinie von 2010 neben einer Angabe in Joule als Einheit der Energie eine zusätzliche Angabe in der Einheit Kalorie zulässig. Bei Lebensmitteln darf diese zusätzliche Angabe gemäß Lebensmittel-Informationsverordnung (LMIV) nur mit der Einheit Kilokalorie (kcal) und in Klammern hinter der SI-Einheit Kilojoule (kJ) erfolgen, wie das nachfolgende Beispiel zeigt: Brennwert 210 kJ/100 g (50 kcal/100 g). Verwendung. Das Wort „Kalorie“ kann sich auf eine Kalorie (1 cal) oder verkürzend, streng genommen falsch, auf eine Kilokalorie (1 kcal) beziehen. In der Umgangssprache und in den Lebenswissenschaften kommen beide Verwendungen vor. Zur Unterscheidung spricht man manchmal auch von „Grammkalorie“ und „Kilogrammkalorie“ oder auch „kleiner Kalorie“ und „großer Kalorie“, die sich jeweils auf die Erwärmung von einem Gramm beziehungsweise einem Kilogramm Wasser um ein Grad Celsius beziehen. Eindeutig ist in der Praxis jedoch die Bezeichnung „Kilokalorie“ für 1000 Grammkalorien, analog zu den Vorsätzen für SI-Einheiten. Verwendung in der Physik. In der Physik ist die Kalorie nach der Einführung des CGS-Systems eindeutig als Grammkalorie festgelegt. Obwohl die Wärmemenge durch die CGS-Einheit der Energie, Erg, und auch das Joule aus dem parallelen praxisnahen elektromagnetischen System (basierend auf Ohm und Volt) ausgedrückt werden konnte, bestand vielfach der Wunsch, eine spezielle Einheit der Wärmemenge zu behalten, die auf der spezifischen Wärmekapazität von Wasser beruht. Wasser hat schon bei der Entscheidung für das CGS-System und gegen ein System mit Meter statt Zentimeter als Basiseinheit der Länge eine entscheidende Rolle gespielt, weil damit seine Dichte in den Basiseinheiten annähernd 1 beträgt. Unklar war um 1900 zunächst die Namensgebung und die genaue Definition für so eine Einheit, insbesondere auch die Frage, ob sie durch einen festen Zahlenwert vom Joule oder Erg abgeleitet oder durch eine eigene Messvorschrift definiert sein sollte. Spätere Normierungen der Kalorie haben stets diese Grammkalorie als Grundlage genommen und einen festen Zahlenwert zur Umrechnung aus anderen Einheiten definiert; daneben haben weiter messungsbasierte Definitionen existiert. Zu einem einheitlichen Gebrauch ist es nicht mehr gekommen, bevor die Kalorie zunehmend durch das Joule ersetzt worden ist. Verwendung als Nährwertangabe. Oft wird insbesondere der physiologische Brennwert von Lebensmitteln nach wie vor zusätzlich zur Angabe in Kilojoule in Kilokalorien angegeben; die EU-Richtlinie zur Nährwertkennzeichnung schrieb seit 1990 eine Angabe sowohl in kJ als auch in kcal vor. Andererseits müssen in der Wirtschaft und im öffentlichen Gesundheitswesen der EU stets die SI-Einheiten verwendet werden; gegenüber zusätzlich angegebenen anderen Einheiten müssen sie hervorgehoben sein. Insbesondere darf eine Angabe in kcal nicht in größerer Schrift gesetzt sein. Seit dem 1. Januar 2010 muss der Brennwert eines Lebensmittels in der EU einheitlich in kJ bezogen auf eine bestimmte Menge – z. B. in kJ/100 g – angegeben werden, wobei die zusätzliche Angabe des Brennwerts in kcal unbefristet zulässig ist. Eine Frist zur Abschaffung der zusätzlichen Verwendung der kcal als Einheit im Warenverkehr mit Lebensmitteln war zunächst auf Anfang 1990 festgelegt und dann auf Anfang 2000 verlängert worden; die letzte Verlängerung bis Ende 2009 sowie die komplette Abschaffung der Frist wird mit Handelshemmnissen beim Export in Drittländer begründet. Von Anfang 1978 (dem Ende der Übergangsfrist der Vorläuferrichtlinie) bis Ende September 1981 (dem Inkrafttreten der vorhergehenden Richtlinie) war die Verwendung der Kalorie in der EU unzulässig. Umgangssprachlich werden oft Nährwertangaben in Kilokalorien fälschlich als „Kalorien“ bezeichnet. In den USA ist bei Nährwertangaben die Bezeichnung "calorie" für Kilokalorien auch offiziell zulässig. Der empfohlene Tagesbedarf für erwachsene Menschen variiert abhängig von Geschlecht und Alter. Durchschnittlich liegt er etwa bei 8–13 MJ (2–3 Mcal / 2.000–3.000 Kilokalorien), während aktive Hochleistungssportler auch ohne Weiteres das Doppelte benötigen können. Die österreichische Schwerarbeitsverordnung definiert schwere körperliche Arbeit u. a. so, wenn bei einer achtstündigen Arbeitszeit von Männern mindestens 8.374 Kilojoule (2.000 Kilokalorien) und von Frauen mindestens 5.862 Kilojoule (1.400 Kilokalorien) verbraucht werden ( Abs. 1 Z 4 Schwerarbeitsverordnung). Definitionen. Im Prinzip beziehen sich alle Definitionen der Kalorie auf die Wärmemenge, die benötigt wird, um eine bestimmte Masse Wasser, 1 Gramm bzw. 1 Kilogramm, um 1 Kelvin zu erwärmen, also die spezifische Wärmekapazität von Wasser. Dieser Wert ist allerdings deutlich temperaturabhängig; daneben hängt er auch vom Umgebungsdruck sowie der Art des verwendeten Wassers (chemische Reinheit, Isotopenzusammensetzung) ab. Flüssiges Wasser hat ein Minimum der spezifischen Wärmekapazität bei etwa 30–50 °C von knapp 4,18 kJ/(kg·K), bei 0 °C und 100 °C sind es jeweils um die 4,22 kJ/(kg·K). Entsprechend existieren verschiedene Definitionen der Kalorie. Einige davon definieren nur die Messvorschrift, mit der ein Wert mit gewisser Messgenauigkeit bestimmt werden kann; andere definieren einen exakten Umrechnungsfaktor zu anderen Einheiten. Anfangs (Mitte des 19. Jahrhunderts) war ein Bezug auf die Erwärmung von Wasser von 0 °C auf 1 °C gebräuchlich, also ein recht hoher Wert von etwa 4,22 kJ pro Kilogrammkalorie; später war eine Normung der Grammkalorie auf exakt 42 Millionen erg, entsprechend 4,2 J, im Gespräch. Weitere gebräuchliche Definitionen beziehen sich auf die spezifische Wärmekapazität von Wasser bei 4 °C (Maximum der Dichte; ungefähr 4,204 J) oder 20 °C (Bezugstemperatur für flüssige Lebensmittel in der EU; ungefähr 4,182 J); auch andere Bezugspunkte im Bereich typischer Labortemperaturen waren üblich. Die Internationale Union für Ernährungswissenschaften (IUNS) hat einen Wert von exakt 4,182 J beschlossen. Kilowattstunde. __STATICREDIRECT__ Kraft. Kraft ist ein grundlegender Begriff in der Physik. In der klassischen Physik versteht man darunter eine Einwirkung, die einen festgehaltenen Körper verformen und einen beweglichen Körper beschleunigen kann. Kräfte sind zum Beispiel erforderlich, um Arbeit zu verrichten, wobei sich die Energie eines Körpers oder eines physikalischen Systems ändert. Die Kraft ist eine gerichtete physikalische Größe, die durch einen Vektor dargestellt werden kann. Kräfte haben verschiedene Ursachen oder Wirkungen und werden teilweise nach ihnen benannt, etwa die Reibungskraft, die Fliehkraft und die Gewichtskraft. Manche Arten von Kräften wurden auch nach Personen benannt, die wesentlich an ihrer Erforschung mitgewirkt haben, wie die Coulombkraft oder die Lorentzkraft. Die SI-Einheit für Kraft ist das Newton. Das Formelzeichen der Kraft ist meist formula_1 (von lat. "fortitudo" oder engl. "force") oder seltener formula_2 nach dem deutschen Wortanfang. Der physikalische Kraftbegriff geht wesentlich auf Isaac Newton zurück, der im 17. Jahrhundert in den drei newtonschen Gesetzen die Grundlagen der klassischen Mechanik schuf. Dabei definierte er die Kraft als zeitliche Änderung des Impulses und identifizierte sie als Ursache für jede Veränderung des Bewegungszustandes eines Körpers. Außerdem erkannte er, dass jeder Körper, der auf einen anderen eine Kraft ausübt, von diesem eine entgegen gerichtete, gleich große Reaktionskraft erfährt. In der Quantenphysik wird der Begriff Kraft auch in einem übertragenen Sinn verwendet, gleichbedeutend mit dem Begriff Wechselwirkung und losgelöst von der Darstellung durch einen mechanischen Kraftvektor. Es gibt vier „fundamentale Wechselwirkungen“, die auch als Grundkräfte der Physik bezeichnet werden. Sie bilden die Ursache nicht nur aller bekannten Erscheinungsformen der Kräfte, sondern auch aller in der Physik bekannten Prozesse. Eine der vier Grundkräfte, die Gravitation, wird in der allgemeinen Relativitätstheorie durch die Krümmung der Raumzeit beschrieben. Die drei anderen Grundkräfte werden im Standardmodell der Teilchenphysik durch den Austausch von Eichbosonen erklärt, die häufig auch als „Kraftteilchen“ bezeichnet werden. Das Wort „Kraft“. Das Wort „Kraft“ ist altgermanischen Ursprungs und verbindet sich ursprünglich mit einer Muskelanspannung. Außerhalb der Physik bezeichnet „Kraft“ im Deutschen oft eine körperliche oder geistige Eigenschaft, die einem bestimmten Träger der Kraft zukommt. Dadurch, dass er diese»Kraft hat«, ist er zu bestimmten Handlungen befähigt und kann damit bestimmte Wirkungen erzielen. Beispiele sind Muskelkraft, Geisteskraft, politische Kraft, kraftvolle Stimme, kraftvolle Sprache etc. Andere Formulierungen wie»eine Kraft ausüben«,»unter der Kraft zusammenbrechen«, richten sich mehr auf den Ablauf der Handlung und kommen damit dem physikalischen Fachbegriff näher. Seit etwa dem Ende des 18. Jahrhunderts kann»Kraft«auch die Personen selbst meinen, die die Träger der Kraft sind (»Streitkräfte«,»Arbeitskräfte«,»Lehrkräfte«etc.). In der Rechtssprache bedeutet Kraft schon im Althochdeutschen „Gültigkeit“ bzw. „Wirksamkeit“, was sich heute nur noch in bestimmten Formeln ausdrückt:»in/außer Kraft bleiben/treten/setzen«(vgl. rechtskräftig). Durch Verkürzung entstand aus»in/durch Kraft«die Präposition»kraft«(stets mit dem Genitiv), wie etwa»kraft seines Amtes«oder in der Formulierung»… hat das deutsche Volk kraft seiner verfassungsgebenden Gewalt …«aus der Präambel zum Grundgesetz. Das griechische Wort für Kraft, δύναμις, lebt fort in Dynamik, was heute die Lehre von der Bewegung unter dem Einfluss von Kräften bezeichnet. Es liegt auch der Krafteinheit dyn des CGS-Systems zugrunde. In der physikalischen Fachsprache ist Kraft (beziehungsweise "force") spätestens im 17. Jahrhundert mit dem lateinischen "vis" gleichgesetzt worden. Der allgemeine Begriff der Kraft und seine Wurzeln. Der Ursprung des Kraftbegriffs liegt (nach Max Jammer) in der menschlichen Erfahrung, dass eine einmal gefasste Absicht in die Tat umgesetzt werden kann. Damit steht der Kraftbegriff von Anfang an in engster Verbindung zum Kausalprinzip: das Ausüben der Kraft ist Folge des Entschlusses, die hervorgebrachte Wirkung ist Folge des Einwirkens der Kraft. Ausgehend von den einfachsten Beispielen, wie willentliches Bewegen der Teile des eigenen Körpers oder anderer Gegenstände, werden dann verallgemeinernd alle Vorgänge, die den Zustand der Dinge verändern, auf das Einwirken von Kräften zurückgeführt. Für unerklärbare Vorgänge wurden wahrscheinlich schon seit prähistorischen Zeiten jeweils bestimmte Kräfte verantwortlich gemacht. Sie wurden herbeigesehnt oder gefürchtet, und teils in Gestalt von Göttern der verschiedensten Rangstufen personifiziert, angerufen und verehrt. Dieser allgemeine Rahmen des Kraftbegriffs gilt außerhalb der Physik auch heute noch. Der physikalische Kraftbegriff löste sich davon ab, als in der Renaissance im 16./17. Jahrhundert die Bewegung von irdischen und himmlischen Körpern durch genauere und messende Beobachtung erforscht wurde. Dabei stellte sich heraus (u. a. durch Nikolaus Kopernikus, Galileo Galilei, Johannes Kepler), dass diese Bewegungen einfachen Regeln folgen, die von Isaac Newton durch ein gemeinsames Bewegungsgesetz erklärt werden konnten, das auf einem neuen Kraftbegriff beruhte. Bis dahin war die Sichtweise von Aristoteles vorherrschend: Demnach wohne jedem Körper eine natürliche Form der Bewegung inne, zu der es keiner äußeren Kraft bedarf. Bei den Himmelskörpern ist es die Kreisbahn, bei irdischen Körpern der freie Fall. Nur wenn eine Bewegung davon abweicht, wird dies von einer "bewegenden Kraft" verursacht, und die Bewegung endet automatisch, sobald diese Ursache aufhört zu wirken. Diese Kraft kann nur bei unmittelbarem Kontakt mit ihrem Träger wirken, also durch Stoß oder Zug, und bestimmt auch die Geschwindigkeit des bewegten Körpers in einer Weise, die später als eine Proportionalität zwischen Kraft und Geschwindigkeit gedeutet wurde. Eine gleichmäßig einwirkende Kraft wurde als eine rasche Folge unmerklich kleiner Stöße angesehen. Im Mittelalter entstanden aus der aristotelischen Lehre unterschiedliche Bewegungslehren, die schließlich in der Impetustheorie aufgingen. Demnach wird dem Körper durch einen Stoß oder Wurf zu Beginn der Bewegung ein "Impetus" mitgegeben, der ihn vorantreibt. Dieser dem Körper eingeprägte und in ihm befindliche "Impetus" erschlafft mit der Zeit, was durch den Widerstand des Mediums, zum Beispiel Luft, verstärkt wird. So endet auch in der Impetustheorie jede Bewegung automatisch, wenn der Impetus verbraucht ist und der Körper»keine Kraft mehr hat«. Im Gegensatz zur Sicht von Aristoteles war nun kein fortdauerndes Einwirken des externen Bewegers mehr nötig. Beibehalten wurde aber beispielsweise die Proportionalität von eingeprägtem Impetus und Geschwindigkeit. Der moderne Begriff der mechanischen Kraft. Auch Galilei war in der aristotelischen Denkweise verwurzelt, kam aber mit seinem Trägheitsgesetz ihrer Überwindung schon sehr nahe. Dadurch wurde erkannt, dass Ruhe und gleichförmig geradlinige Bewegung physikalisch nicht wesensverschieden sind (siehe Galilei-Invarianz), woraus Christiaan Huygens beispielsweise erstmals die Erhaltung des Impulses und damit die Gesetze des Stoßes richtig ableitete. Daher sollte die geradlinig gleichförmige Bewegung nicht dadurch im Gegensatz zur Ruhe stehen, dass für ihre bloße Aufrechterhaltung eine eigene Kraft nötig ist. Vielmehr macht erst die Veränderung des jeweiligen Bewegungszustandes eine äußere Einwirkung erforderlich. Diese Einwirkung präzisierte Isaac Newton in seinen 1687 veröffentlichten Bewegungsgesetzen, indem er in seinem Begriff "vis impressa" (lat. für „eingeprägte Kraft“) die Geschwindigkeit, mit der der Bewegungszustand sich ändert, als Maß der Kraft definiert. Dieser Kraftbegriff gilt nach weiterer Präzisierung durch Leonhard Euler und Jean-Baptiste le Rond d’Alembert noch heute, er gehört zu den Grundlagen der klassischen Mechanik. Newton selbst verwendete den Begriff "vis impressa" allerdings nicht immer nur in diesem Sinne und benutzte das gleiche Wort "vis" auch als "vis inertiae" für das Bestreben der Körper, ihren Bewegungszustand beizubehalten, also ihre Trägheit Daneben wurde das Wort Kraft bis weit ins 19. Jahrhundert auch in anderen physikalischen Bedeutungen benutzt, die ebenfalls nicht durch die newtonsche Definition gedeckt waren, z. B. in der Bedeutung der heutigen Begriffe von Impuls und Energie. Bis sich der moderne Energiebegriff herausgebildet hatte, wurde beispielsweise die kinetische Energie mit dem von Gottfried Wilhelm Leibniz geprägten und im neunzehnten Jahrhundert noch von Hermann von Helmholtz verwendeten Ausdruck der»lebendigen Kraft«("vis viva") bezeichnet. Das setzt sich bis heute fort in Worten wie»Kraftwerk«und»Kraftfahrzeug«für Maschinen, die Energie bereitstellen. „Kraft“ in der Naturlehre und Naturphilosophie. "Kraft" war neben dem in der newtonschen Mechanik präzisierten Begriff auch einer der allgemeinsten Grundbegriffe der Naturlehre. Diese bildete bis in die erste Hälfte des 19. Jahrhunderts das Sammelbecken der beschreibenden Naturwissenschaften und damit auch die empirische Grundlage der Naturphilosophie. Darin galten die Kräfte, die ein Ding besitzt, als die Ursache jeder Veränderung oder Wirkung, die es hervorbringen kann. Die Kräfte eines Dings wurden als "Inbegriff seiner Natur" gesehen, wobei "Natur" nach der ursprünglichen Bedeutung des Wortes alles bezeichnete, was nicht "künstlich", also durch menschliche "Kunst", hervorgebracht sei. So musste in der Naturlehre auch für die reine Ortsveränderung eines Körpers eine Ursache in Gestalt einer ständig einwirkenden Kraft angegeben werden. Im Falle der gleichförmig-geradlinigen Bewegung war das eine dem Körper eigene „Trägheitskraft“, die nicht mit dem heutigen Begriff einer Trägheitskraft verwechselt werden darf. Eine Beschleunigung oder Richtungsänderung war dann nur durch das gleichzeitige Einwirken einer zusätzlichen zweiten Kraft möglich. Dieser letztlich aus der antiken Philosophie hervorgangene Kraftbegriff passte zwar gut zu dem Alltagsverständnis, war aber mit der newtonschen Mechanik unvereinbar. Dennoch findet er sich in Deutschland selbst in physikalischen Lehrbüchern bis spät ins 19. Jahrhundert, zweihundert Jahre nach Newton und hundert Jahre nachdem die newtonsche Mechanik sich durch ihre unbestreitbaren Erfolge durchgesetzt und damit zur ersten allseits anerkannten exakten Naturwissenschaft entwickelt hatte. Kritik des Begriffs der mechanischen Kraft. Die newtonsche Mechanik und insbesondere ihr Kraftbegriff wurden von Anfang an mit verschiedenen Begründungen kritisiert. Zum einen konnte man damit die Erscheinungen nicht in solcher Weise "aus ersten Prinzipien erklären", wie das damals von der Naturphilosophie (und der Philosophie im Allgemeinen) erwartet wurde. Kraft erschien in der newtonschen Mechanik als ein nützlicher, aber lediglich mathematischer Hilfsbegriff zur Analyse und Beschreibung von Bewegungen, der aber die "wahren Ursachen" eher im Verborgenen lasse. Newton selber hatte dieser Kritik mit dem Satz „Ich mache hierzu keine Hypothesen“ ("Hypotheses non fingo", in seinem Hauptwerk Philosophiae Naturalis Principia Mathematica) vorbeugen wollen. Daneben wurden – teils zu Recht – Unklarheiten im Verhältnis zwischen der beschleunigenden Kraft ("vis impressa") und der Trägheitskraft ("vis inertiae") kritisiert. In der romantischen Naturphilosophie des deutschen Idealismus (Friedrich Schelling, Georg Friedrich Hegel) mündete diese Kritik Anfang des 19. Jahrhunderts in eine anhaltende, grundsätzliche Ablehnung der modernen Naturwissenschaft in der durch Newton begründeten Art. Ein zweites Gegenargument bestand darin, dass man mit Newtons Kraftbegriff die Gravitation als eine Fernwirkung aufzufassen hätte, die den absolut leeren Raum durchdringen könnte. Das stand im Gegensatz zur traditionellen Auffassung (z. B. bei Descartes), dass kein Körper dort etwas bewirken könne, wo er nicht sei, und galt weithin (selbst bei Leonhard Euler) als eine absurde Annahme. Weiter wurde im späten 19. Jahrhundert eingewendet (Ernst Mach, Gustav Kirchhoff, Heinrich Hertz), dass der Ursprung des newtonschen Kraftbegriffs im Umfeld des Begriffspaars Ursache-Wirkung liege, welches vollständig von der menschlichen Auffassung des Geschehens geprägt sei. Deshalb dürfe der Begriff der Kraft in der Mechanik nicht zu den Grundbegriffen zählen, sondern solle nach Möglichkeit sogar ganz eliminiert werden. Dass dies tatsächlich möglich ist, hatte die Entwicklung der klassischen Mechanik durch (u. a.) Lagrange und Hamilton gezeigt, wonach die Kenntnis der Formeln für die kinetische und potentielle Energie eines mechanischen Systems ausreicht, dessen Bewegungsgleichungen vollständig zu ermitteln. Diesem Weg ist die moderne Quantenmechanik und Quantenfeldtheorie gefolgt. Hier sind Kraft – wenn dieser Begriff im newtonschen Sinn überhaupt noch auftaucht – und selbst die potentielle Energie keine Grundbegriffe, sondern werden unter gewissen, für die klassische Physik charakteristischen Bedingungen als "effektive Größen" abgeleitet. Grundkräfte der Physik. Grundlegend für die Herleitung der Kraft als effektive Größe ist in der heutigen Quantenfeldtheorie die Erzeugung und Vernichtung eines Elementarteilchens durch ein anderes aufgrund einer der Fundamentalen Wechselwirkungen. Zu den Bedingungen die dabei eingehalten werden müssen, gehört in jedem Fall die Erhaltung von Gesamtimpuls und Gesamtenergie. Insgesamt kommt das dem früheren Bild, mechanische Kraft sei eine Folge kleiner Stöße, wieder recht nahe. Im erweiterten Sinn des Worts „Kraft“ werden diese fundamentalen Wechselwirkungen, zusammen mit der Gravitation, auch als „Grundkräfte der Natur“ bezeichnet, alle zwischen Körpern bekannten physikalischen Vorgänge können auf sie zurückgeführt werden. Messung von Kräften. a>, hier in der Form formula_5 Eine Kraft kann über eine Weg-Zeit-Messung bestimmt werden, wenn sie eine Beschleunigung verursacht. Nach dem zweiten newtonschen Gesetz gilt für Körper mit gleichbleibender Masse m und konstanter Beschleunigung a der Zusammenhang formula_6 Dieser Zusammenhang kann auch aus der abgeleiteten Einheit Newton (formula_7) abgelesen werden. In der Praxis wird oft aus einem bekannten (vorteilhafterweise linearen) Zusammenhang zwischen der wirkenden Kraft und einer leicht zu messenden Größe auf die Kraft geschlossen. Beispiele hierfür sind die Verformung eines elastischen Materials oder die Änderung des elektrischen Widerstands eines Dehnungsmessstreifens. Eine Kraft kann auf verschiedene Art durch die von ihr verursachte Verformung bestimmt werden. Im Schulunterricht und in einigen einfachen Anwendungen werden Kräfte mit sogenannten Federkraftmessern über die Längenänderung von Schraubenfedern gemessen. Dabei wird das hookesche Gesetz genutzt, dem zufolge die Ausdehnung geeigneter Federn zur ausgeübten Kraft proportional ist: Es gilt formula_8 wobei formula_9 die Längenänderung der Feder und formula_10 die Federkonstante bezeichnet. Nutzbar ist auch das Hebelgesetz. Damit kann eine unbekannte Kraft durch den Vergleich mit einer bekannten Kraft, zum Beispiel der Gewichtskraft eines Massestücks bestimmt werden. Im einfachsten Fall wird eine Waage benutzt, deren Anzeige mit Hilfe der bekannten Schwerebeschleunigung formula_11 in die wirkende Kraft umgerechnet werden kann. Mit dem Rasterkraftmikroskop sind Kräfte auf eine kleine Blattfeder bis etwa 1 pN nachweisbar. Dies lässt sich für die Untersuchung von Oberflächen nutzen. Kräfte bis in den Bereich von etwa formula_12 sind mit Hilfe einzelner ultrakalter Magnesium-Ionen in Paulfallen über die Synchronisation mit einem externen Radiosignal gemessen worden. Darstellung von Kräften. Die Verformung eines Körpers kommt genau genommen nicht durch eine einzelne Kraft zustande, sondern dadurch, dass an verschiedenen Angriffspunkten unterschiedliche Kräfte wirken. Die dadurch entstehenden mechanischen Spannungen können beschrieben werden, indem Kraft als ein vektorielles Feld aufgefasst wird: In jedem Angriffspunkt, bezeichnet durch den Ortsvektor formula_19, kann prinzipiell eine andere Kraft formula_20 wirken. Je nachdem, wie diese Kräfte gerichtet sind, wird der Körper gedehnt, komprimiert oder verzerrt. Superpositionsprinzip. Zerlegung der Gewichtskraftformula_21 in die Komponenten formula_22 (Hangabtriebskraft) und formula_23 (Gegenkraft zur Normalkraft formula_24) Das Superpositionsprinzip der Mechanik, das in Newtons Werk auch als „lex Quarta“ bezeichnet wird, besagt: Wirken auf einen Punkt (oder einen starren Körper) mehrere Kräfte formula_25, so addieren sich diese vektoriell zu einer "resultierenden Kraft" formula_26 Das heißt, formula_27 bewirkt dasselbe wie sämtliche Kräfte formula_25 gemeinsam. Krafteinheiten. und 1948 von ihr nach Isaac Newton benannt. Kraft in den newtonschen Gesetzen. Der newtonsche Kraftbegriff basiert auf folgendem Gedanken: Alle Einwirkungen auf einen Körper, die zu einer Änderung seines Bewegungszustands führen, sind Kräfte. Die Kraft beschreibt die Intensität und Richtung der Wechselwirkung zweier Körper, keine Eigenschaft eines Körpers. Bei einer kräftefreien Bewegung bzw. wenn ein Kräftegleichgewicht vorliegt, ändert sich folglich der Bewegungszustand eines Körpers nicht, er bewegt sich somit geradlinig mit konstanter Geschwindigkeit weiter oder er bleibt in Ruhe. Das ist der Inhalt des Trägheitsprinzips, wie es schon Galilei formulierte. Das Aktionsprinzip verknüpft die Kraft formula_49, die auf einen freien Körper ausgeübt wird, mit der Änderung seines Impulses formula_50: In jedem infinitesimal kurzen Zeitraum formula_51 ändert sich der Impuls des Körpers um formula_52 gemäß formula_53 Der Impuls eines Körpers ist das Produkt seiner Masse formula_15 und der Geschwindigkeit formula_55; es gilt formula_56 Da die Masse des Körpers in den meisten Fällen praktisch konstant bleibt (Ausnahmen sind beispielsweise Raketen oder Körper bei relativistischen Geschwindigkeiten), schreibt man das zweite newtonsche Axiom meistens in der Form formula_57, wobei formula_46 für die Beschleunigung des Körpers steht. Die Kraft auf den betrachteten Körper entspricht also dem Produkt aus seiner Masse und seiner Beschleunigung. Als Konsequenz der Impulserhaltung folgt zudem das Reaktionsprinzip, wonach stets mit einer Kraft („actio“) vom Körper A auf Körper B, also formula_59, eine gleich große, aber genau entgegengesetzt gerichtete Kraft ("„reactio“") von Körper B auf Körper A verbunden ist: formula_60 Die "reactio" ist dabei nicht nur eine Art passiver Widerstand, sondern eine Kraft, die aktiv am Wechselwirkungspartner angreift. Sie ist vom Kräftegleichgewicht zu unterscheiden, denn die Angriffspunkte von formula_59 und formula_62 sind verschieden, die beiden Kräfte können einander also nicht kompensieren. In moderner Schreibweise würde die der newtonschen Intention entsprechende Fassung eher formula_63 lauten. Die Verwendung des Wortes Kraft in Newtons Schriften ist nicht immer eindeutig. Kraft ist meist eher als Kraftstoß formula_64 zu deuten, der einen Zusatzimpuls formula_65 bewirkt. Kräftegleichgewicht als Schlüsselbegriff der Statik. Wenn an einem Körper mehrere Kräfte formula_66 angreifen, die sich gegenseitig aufheben, d. h., wenn für die Vektorsumme der Kräfte gilt, dann spricht man vom Kräftegleichgewicht. Der betrachtete Körper ändert seinen Bewegungszustand nicht. Bei den Kräften formula_66 handelt es sich sowohl um die sogenannten „eingeprägten“ Kräfte, deren Ursache durch physikalische Gesetze vorgegeben wird, als auch um die „Zwangskräfte“, die als Stütz- und Haltekräfte eine Beschleunigung des Körpers verhindern. Die Betrachtung des Kräftegleichgewichts ist Inhalt der Statik. Um hier oder allgemeiner in der technischen Mechanik Systeme (z. B. Tragwerke) einer Berechnung zugänglich zu machen, werden Bindungen zwischen den Körpern des Systems und zwischen dem System und seiner Umwelt, die nur geringe Formänderungen zulassen, als „starre Bindungen“ idealisiert. Solche starren Bindungen sind in der Regel Gelenke zwischen den Körpern oder Lager. Damit geht der physikalische Charakter dieser Bindungen verloren, und die durch diese Bindungen bedingte mechanische Wechselwirkung der Körper wird durch den Begriff der Zwangskräfte repräsentiert. Zwangskräfte verrichten am System keine Arbeit, da keine resultierende Bewegung stattfindet. Eingeprägte Kräfte und Zwangskräfte erfüllen zusammen die Gleichgewichtsbedingungen, das oben angeführte Kräftegleichgewicht und das Momentengleichgewicht. Das Prinzip der virtuellen Arbeit besagt, dass in der Statik die Summe aller Kräfte (Zwangskräfte und äußere Kräfte) Null ergeben muss. Das d’Alembertsche Prinzip erweitert dieses Prinzip auf Systeme der klassischen Dynamik, die Zwangskräften unterworfen sind und wird zum Aufstellen von Bewegungsgleichungen verwendet. Volumenkräfte und Oberflächenkräfte. In der technischen Mechanik unterscheidet man bei ausgedehnten Körpern zwischen Volumenkräften und Oberflächenkräften. Ihre Stärke und Richtung sind nur wohldefiniert, wenn sie auf ein bestimmtes Volumen bzw. eine bestimmte Oberfläche bezogen werden. Behandelt man ein komplexes Problem – mehrere Körper, die miteinander (mechanisch) wechselwirken oder zusammengesetzte Körper (z. B. starre oder deformierbare Körper) – so schneidet man das interessierende Untersystem von seiner Umgebung gedanklich frei. Nun ordnet man den einzelnen Stücken der Oberfläche des freigeschnittenen Teilsystems die Kräfte zu, mit denen an dieser Stelle das übrige System auf das Teilsystem einwirkt. Mit der entgegengesetzt gleichen Oberflächenkraft wirkt dann auch das freigeschnittene Teilsystem auf das übrige System. Diese Kräfte heißen Oberflächenkräfte. Sie gehören zu den Kontaktkräften. In ihrer Stärke und Richtung sind sie abhängig von den vorher festgelegten Schnitten. Eine Oberflächenkraft ist also nur sinnvoll angegeben, wenn auch die zugehörige Oberfläche bzw. Schnittfläche angegeben wird. Volumenkräfte sind Nichtkontaktkräfte. Wie beispielsweise die Gravitation oder der Elektromagnetismus greifen sie am ganzen Volumen an, d. h. auch im Innern eines freigeschnittenen Körpers. Auch ihre Stärke ist erst dann sinnvoll angegeben, wenn gleichzeitig das freigeschnittene Volumen, auf das die Kraft wirkt, angegeben wird. Befindet sich beispielsweise ein homogener Klotz in einem homogenen Schwerefeld (näherungsweise ein kleiner Klotz nahe der Erdoberfläche), so wirkt die Volumenkraft formula_69 auf ihn. Zerschneidet man diesen Klotz gedanklich in seiner Mitte, so wirkt dagegen auf jeden Teilklotz nur noch die Volumenkraft formula_73 (siehe dazu nebenstehende Abbildung). Zudem wirkt auf die beiden Schnittflächen der Teilklötze je eine Oberflächenkraft gleicher Stärke, die so gerichtet sind, dass sie ein Actio-Reactio-Kräftepaar bilden. Kräfte mit nichtmechanischer Ursache. Einige zur Zeit Newtons noch als verschieden angesehene Kräfte entpuppten sich als Ausdrucksformen von elektromagnetischen Kräften im Inneren von Materie. Diese Kräfte machen sich bemerkbar Kraft und Determinismus. Mit Hilfe der newtonschen Gesetze ist es möglich, aus einer gegebenen Ausgangssituation und den wirkenden Kräften die zeitliche Entwicklung eines physikalischen Systems vorherzusagen. Dies trifft nicht nur für einzelne Versuche im Labor zu, sondern im Prinzip auch auf das Universum als Ganzes. Diese Folgerung trug im 18. Jahrhundert zur Verbreitung eines deterministischen Weltbildes bei. Demnach wären alle Ereignisse grundsätzlich vorbestimmt, wenn auch die für eine Vorhersage erforderlichen Rechnungen in der Regel nicht praktisch durchführbar sind. Anfang des 20. Jahrhunderts stellte sich jedoch heraus, dass die Formeln der klassischen Physik auf der Ebene der Atome nicht anwendbar sind. Das aus den Formeln gefolgerte deterministische Weltbild musste daher in seiner ursprünglichen Form verworfen werden. Zusammenhang von Kraft und Arbeit. Durch das Wirken einer Kraft kann sich die Energie eines Körpers verändern. Ein Beispiel ist die Spannenergie beim Expander. Die beim Verschieben des Angriffspunktes einer Kraft um eine gewisse Wegstrecke übertragene Energie nennt man auch Arbeit und bezeichnet sie dann oft mit formula_74. Will man eine bestimmte Arbeit mit geringerer Kraft leisten, so ist dies mit einem Kraftwandler möglich. Beispiele für Kraftwandler sind Flaschenzüge, Hebel oder Gangschaltungen. Jedoch verlängert sich der Weg, längs dem die Kraft ausgeübt werden muss. Wird beispielsweise durch Verwendung eines Kraftwandlers nur ein Viertel der ohne ihn erforderlichen Kraft benötigt, so ist dies mindestens mit einer Vervierfachung des Weges verbunden. Diese Konsequenz des Energieerhaltungssatzes ist in der»Goldenen Regel der Mechanik«beschrieben. Wenn die Kraft konstant ist und in Richtung eines geradlinigen Weges der Länge formula_75 wirkt, dann wird die aufzuwendende Arbeit durch die Beziehung In obiger Gleichung ist formula_79 der Vektor vom Startpunkt zum Endpunkt der Strecke. Insbesondere wird keine Arbeit geleistet, wenn die Kraft mit dem Weg einen rechten Winkel bildet: Das Tragen einer Last in der Ebene kann zwar mühsam sein, aber die Last nimmt dabei keine Energie auf. Dabei sind formula_81 und formula_82 die Ortsvektoren des Start- und des Endpunkts des Wegs. Konservative und dissipative Kräfte. Wird der Expander, um beim obigen Beispiel zu bleiben, einseitig fixiert und das andere Ende im Raum bewegt, so ändern sich von Punkt zu Punkt systematisch Richtung und Betrag der Kraft. Sofern die Bewegungen langsam ausgeführt werden, sodass keine Schwingungen des Expanders angeregt werden, und unter Vernachlässigung innerer Reibung, ist die Kraft lediglich eine Funktion des Ortes (ein statisches Vektorfeld). Dabei entspricht jedem Ort ein bestimmter Spannungszustand des Expanders. Es kommt nicht darauf an, auf welchem Weg der Ort und der zugehörige Spannungszustand erreicht wurde. In solchen Fällen spricht man von einer konservativen Kraft. Arbeit, die gegen eine konservative Kraft verrichtet wurde, ist vom Weg unabhängig, sie hängt nur vom Anfangs- und Endpunkt ab. Insbesondere erhält man verrichtete Arbeit zurück, wenn man – auf demselben oder einem anderen Weg – den Ausgangspunkt wieder erreicht. Der Wert des Wegintegrals einer konservativen Kraft von einem festen Bezugspunkt aus heißt potentielle Energie formula_83, meist auch "Potential", zur Unterscheidung siehe aber Potentiale und Potentialfelder im Hauptartikel. Oft ist es einfacher, von der potentiellen Energie ausgehend (in obigem Beispiel also von der im Expander gespeicherten Spannenergie) die Kraft formula_84 als ihren negativen Gradienten zu bestimmen, denn das Feld der potentiellen Energie ist nur ein Skalarfeld. Dass an einem System geleistete Arbeit vollständig in potentielle Energie umgesetzt wird, ist in praktisch auftretenden Fällen nie erfüllt. Reibungskräfte müssen zusätzlich überwunden werden. Die gegen sie geleistete Arbeit wird in Wärme umgesetzt. Manchmal ist solche Dissipation erwünscht (Fallschirm, Fitnessgeräte, Motorbremse). Kraft im Kraftfeld. Gegen den Expander im obigen Beispiel muss das schmächtige Kerlchen dieselbe Kraft aufwenden wie der Schwergewichtler. In der Disziplin Treppensteigen arbeiten beide gegen ihre jeweilige Gewichtskraft formula_86 und in der Erdumlaufbahn würden beide einträchtig nebeneinander schweben. Bei der Beschreibung von Bewegungen in Kraftfeldern, wie hier dem Erdschwerefeld, ist es oft nützlich, von jener Eigenschaft des Körpers, zu der die Kraft proportional ist, zu abstrahieren. Diese Eigenschaft (hier die Masse formula_15 des Sportlers) wird allgemein Ladung genannt. Die Abstraktion geschieht, indem das Vektorfeld der Kraft durch die Ladung geteilt wird. Das Resultat wird Feldstärke genannt und beschreibt das Kraftfeld unabhängig von der Ladung des Probekörpers. Die Feldstärke "g" des Schwerefeldes wird auch Fallbeschleunigung genannt. Das für konservative Kraftfelder existierende Skalarfeld der potentiellen Energie geteilt durch die Ladung ergibt das Potential des Kraftfeldes. Zusammenhang von Kraft und Drehmoment. Dabei ist der Kraftarm formula_92 der Ortsvektor vom Drehpunkt zum Punkt, an dem die Kraft angreift (Angriffspunkt). Das bedeutet, je größer der Abstand zwischen Drehpunkt und Angriffspunkt ist, desto größer ist das Drehmoment. Außerdem trägt nur die Komponente der Kraft zum Drehmoment bei, die senkrecht zur Strecke zwischen Drehpunkt und Angriffspunkt ist. Drehmomente treten unter anderem bei der Zu- oder Abnahme der Drehzahl von drehbaren Körpern auf. Sie spielen dabei eine vergleichbare Rolle wie Kräfte bei der geradlinigen Bewegung. Analog zum Kräftegleichgewicht ist das "Drehmomentengleichgewicht" ein wichtiger Spezialfall. Zusammenhang von Kraft und Druck. Der Druck ist eine intensive Zustandsgröße thermodynamischer Systeme und zudem eine lineare Feldgröße. Dieses Konzept ist eine Vereinfachung des allgemeinen Spannungstensors. Die Druckspannung ist im Gegensatz zum Druck keine skalare Zustandsgröße. Trägheitskräfte bzw. Scheinkräfte. Der Wechsel zwischen aristotelischer und newtonscher Auffassung der Kraft macht sich auch in der Bezeichnung „Scheinkraft“ (synonym dazu verwendet: Trägheitskraft) bemerkbar. Der Name „Scheinkraft“ kann irreführend sein; diese Kräfte sind durchaus messbar und rufen reale Wirkungen hervor. Die Bezeichnung rührt daher, dass sie nur in beschleunigten Koordinatensystemen auftreten und von einem Inertialsystem aus betrachtet nicht existieren. Ein geeigneter außenstehender Beobachter erklärt die Wirkungen einfach durch die Anwendung des Trägheitsprinzips ohne weitere Kräfte. Ein anderer Zugang zum Begriff der Trägheitskraft ist mit dem d’Alembertschen Prinzip verbunden: Es wandelt – vereinfacht gesagt – das dynamische Problem des sich bewegenden Körpers durch die Einführung einer d'Alembertschen Trägheitskraft formula_97 in ein statisches Problem um. Die technische Mechanik, in der das Prinzip sehr erfolgreich angewendet wird, spricht von einem»dynamischen Gleichgewicht«. Während manche Fachbücher diese d'Alembertsche Trägheitskraft als Gegenkraft im Sinne des Wechselwirkungsprinzips bezeichnen, sehen andere Fachbuchautoren sie im Widerspruch zum Wechselwirkungsprinzip, da zu ihr keine Gegenkraft existiert. Die Bezeichnung Scheinkraft wird auch damit begründet, dass die Trägheitskraft der Definition von Newton, was unter einer "wirkenden Kraft" zu verstehen ist, nicht genüge. Kraft in der Relativitätstheorie. Die "spezielle" Relativitätstheorie tritt an die Stelle der dynamischen Gesetze der klassischen Mechanik, wenn die betrachteten Geschwindigkeiten gegenüber der Lichtgeschwindigkeit nicht mehr vernachlässigbar sind. In der speziellen Relativitätstheorie muss der Impuls zum relativistischen Impuls verallgemeinert werden, die Kraft bleibt dann weiter aus formula_99 berechenbar, aber der Impuls lässt sich nicht mehr durch die Beziehung formula_100 berechnen. An die Stelle der newtonschen Beziehung»Kraft = Masse mal Beschleunigung«, formula_101, tritt die Gleichung Die Kraft wird ferner zur Minkowskikraft („Viererkraft“) erweitert, die meist als formula_103 geschrieben wird und aus dem Viererimpuls berechnet werden kann über formula_104 mit der Eigenzeit formula_105 und dem Lorentzfaktor Diese Gleichung, die»Bewegungsgleichung der speziellen Relativitätstheorie für den Viererimpuls«, beschreibt beschleunigte Bewegungen in einem Inertialsystem. Zwischen formula_84 und formula_108 besteht der Zusammenhang formula_109 wobei formula_110 der "räumliche" Teil der Viererkraft formula_103 ist; der neu hinzukommende "zeitliche" Teil beschreibt eine Energieänderung, genauer: formula_112 (siehe Viererimpuls), sodass man auch vom Kraft-Leistung-Vierervektor spricht. Die "allgemeine" Relativitätstheorie stellt eine Erweiterung des newtonschen Gravitationstheorie dar; sie enthält diese als Grenzfall für hinreichend kleine Massendichten und Geschwindigkeiten. Ihre Grundlagen wurden maßgeblich von Albert Einstein zu Beginn des 20. Jahrhunderts entwickelt, sie beschreibt allgemein die Wechselwirkung zwischen Materie (Physik) (einschließlich Feldern) einerseits und Raum und Zeit andererseits. Die Gravitationskraft wird in der allgemeinen Relativitätstheorie als geometrische Eigenschaft der gekrümmten vierdimensionalen Raumzeit verstanden: Energie, Impuls und Druck der Materie beeinflussen die Geometrie der Raumzeit, in der sie sich befinden. Dieser Einfluss lässt sich durch den Begriff der»Raumzeitkrümmung«beschreiben. Die räumlichen und zeitlichen Koordinaten werden als gleichberechtigt betrachtet, alle Änderungen werden nur mehr als geometrisches Problem behandelt. Materie, auf die eine Gravitationskraft ausgeübt wird, bewegt sich in der Raumzeit entlang einer Geodäte, also so, wie es im naiven Sinn mit»geradeaus«gemeint ist. Die Gerade als Modell für die Geradeausbewegung des freien Körpers gibt es nur in ungekrümmten (also gravitationsfreien) Räumen. Physikalisch entspricht die Bewegung entlang einer Geodäte dem freien Fall. Ein Großteil der Schwerkraft wird somit darauf zurückgeführt, dass der Erdboden durch die gegenseitige Abstoßung der Atome, aus denen die Erde besteht, relativ zu einem frei fallenden Gegenstand nach oben beschleunigt wird. Das entspricht in etwa der Erfahrung beim Abbremsen eines nach unten fahrenden Fahrstuhls. Abgesehen von Gezeitenkräften verspürt ein Mensch auf dem Erdboden also fast die gleiche Kraft, als würde er in einer gleichmäßig beschleunigten Rakete stehen. Diese Gezeitenkräfte, die in jedem Gravitationsfeld herrschen, zeigen sich bei einem ausgedehnten Objekt als Verformungskräfte. Im Gravitationsfeld eines kugelförmigen Körpers (wie der Erde) ziehen die Gezeitenkräfte das Objekt in Fallrichtung in die Länge und schieben es senkrecht zur Fallrichtung zusammen. Gezeitenkräfte folgen direkt aus der Raumzeitkrümmung und sind besonders stark bei sehr massereichen Objekten wie einem Schwarzen Loch. Kraft in der Quantenmechanik. Bei der Wechselwirkung kleinster Teilchen liefern Experimente Ergebnisse, die der klassischen Mechanik widersprechen. Insbesondere sind bestimmte Phänomene quantisiert, das heißt, sie treten nur in bestimmten Portionen auf – den sogenannten»Quanten«. Während die Kraft selbst nicht quantisiert ist, können Kräfte eine Quantelung der möglichen Teilchenenergien bewirken. In der Quantenmechanik werden in der Regel Kräfte nicht explizit betrachtet. Die von Kräften verursachten Phänomene werden – analog zur klassischen Mechanik – durch das Potential beschrieben. Es gibt quantenmechanische Effekte, die sich wie eine Kraft bemerkbar machen, aber nicht auf die Wirkung einer der Grundkräfte zurückzuführen sind. Beispiele sind das Pauli-Prinzip und die Austauschwechselwirkung. Kraft in den Quantenfeldtheorien. Ab 1927 wurde versucht, die „Quantisierung“ nicht nur auf die ursprünglichen Objekte der Quantenmechanik, die Partikel, sondern auch auf Felder (z. B. das elektrische Feld) anzuwenden, woraus die Quantenfeldtheorien entstanden; man spricht auch von der»zweiten Quantisierung«. Die Quantisierung der Felder wird auch im Bereich der Festkörperphysik und in anderen Vielteilchentheorien angewandt. In der Quantenfeldtheorie werden alle Kräfte auf den Austausch von virtuellen Bosonen zurückgeführt, diese Wechselwirkungsteilchen zu jeder Grundkraft sind sozusagen einzelne»Kraftteilchen«oder auch»Kraftträger«. Konkrete Quantenfeldtheorien sind die Quantenelektrodynamik (diese beschreibt Elektronen, Positronen und das elektromagnetische Feld) und die Quantenchromodynamik (diese beschreibt die starke Kernkraft, also unter anderem den inneren Aufbau der Protonen und Neutronen). Außerdem wurde die schwache Kernkraft mit der Quantenelektrodynamik zur Theorie der elektroschwachen Wechselwirkung zusammengeführt. Das elektroschwache Modell bildet mit der Quantenchromodynamik das sogenannte Standardmodell der Elementarteilchenphysik. Es enthält alle bekannten Teilchen und kann die meisten bekannten Vorgänge erklären. Im Standardmodell fungieren Eichbosonen als Kraftteilchen zur Vermittlung von Wechselwirkungen, die Gravitationskraft ist jedoch nicht enthalten. Auch hier werden solche Wechselwirkungsteilchen angenommen, genannt Gravitonen. Vereinheitlichung der Grundkräfte. Kopplungskonstanten α als Funktion der Energie E (starke, schwache, elektromagnetische Wechselwirkung, Gravitation) Eines der Ziele der Physik ist es, in einer»großen vereinheitlichten Theorie«alle Grundkräfte oder Wechselwirkungen in einem vereinheitlichten Gesamtkonzept zu beschreiben, wie in der Tabelle dargestellt. Dazu nimmt man an, dass diese Grundkräfte zum Zeitpunkt des Urknalls eine einzige Kraft waren, die sich infolge der Abkühlung in die einzelnen Kräfte aufspaltete. Auf diesem Weg gab es bereits Erfolge, zunächst bei der Zusammenfassung der elektrischen Wechselwirkung und der magnetischen Wechselwirkung zur elektromagnetischen Wechselwirkung durch die Elektrodynamik von James Clerk Maxwell. Die Wechselwirkungen zwischen elektrischen und magnetischen Feldern lassen sich auf andere Weise auch relativistisch erklären. Ebenso ist es bereits gelungen, die elektromagnetische Wechselwirkung und die schwache Wechselwirkung in der Quantenfeldtheorie der elektroschwachen Wechselwirkung vereinheitlicht zu beschreiben. Kelvin. Das Kelvin (Einheitenzeichen: K) ist die SI-Basiseinheit der thermodynamischen Temperatur und zugleich gesetzliche Temperatureinheit; es wird auch zur Angabe von Temperaturdifferenzen verwendet. In Deutschland, Österreich, der Schweiz sowie in anderen europäischen Ländern gilt auch das Grad Celsius (Einheitenzeichen: °C) als gesetzliche Einheit für die Angabe von Celsius-Temperaturen und deren Differenzen. Dabei entsprechen 0 °C umgerechnet 273,15 K. Da der Zahlenwert eines Temperaturunterschieds in den beiden Einheiten Kelvin bzw. Grad Celsius gleich ist, unterscheiden sich alle Temperaturangaben in diesen beiden Einheiten vom Zahlenwert her nur um diese 273,15. Die Temperaturdifferenz-Angabe Grad (grd) ist durch das Kelvin abgelöst worden. Bis 1967 lautete der Einheitenname "Grad Kelvin", das Einheitenzeichen war °K. Das Kelvin wurde nach William Thomson, dem späteren Lord Kelvin, benannt, der mit 24 Jahren die thermodynamische Temperaturskala einführte. Definition. Gemeint ist hier reines Wasser, dessen Isotopenzusammensetzung sich an Vienna Standard Mean Ocean Water (VSMOW) orientieren sollte und dessen Tripelpunkt bei (0,01 °C) liegt. Durch diese Festlegung wurde erreicht, dass die Differenz zwischen zwei Temperaturwerten von einem Kelvin und einem Grad Celsius gleich groß sind und gleichwertig verwendet werden können. Der Nullpunkt der Kelvinskala liegt im absoluten Nullpunkt bei −273,15 °C. Diese Temperatur ist jedoch nach dem Nernstschen Wärmesatz weder messbar noch erreichbar, da Teilchen bei 0 K keine Bewegungsenergie hätten (die verbleibende Energie – Nullpunktsenergie – ist ein Ergebnis der Heisenbergschen Unschärferelation). Die Verbesserungen der Messtechnik machten die Reproduzierbarkeit der beiden ‚Fixpunkte‘ Gefrier- und Siedepunkt von Wasser zum Problem: vor allem der Siedepunkt ist stark vom Luftdruck abhängig, der seinerseits von der Höhe über dem Meeresspiegel und dem Wetter abhängt. Der Tripelpunkt einer Substanz ist hingegen eine (überall und immer) gleich bleibende Stoffeigenschaft – das heißt, wenn sich die Substanz an ihrem Tripelpunkt befindet, hat sie stets dieselbe Temperatur und denselben Druck. Dabei kommt es jedoch nicht nur auf ihre chemische Reinheit, sondern auch auf ihre Isotopen-Zusammensetzung an. Eigenschaften. Das Kelvin wird vor allem in der Thermodynamik, Wärmeübertragung und allgemein in Naturwissenschaft und Technik zur Angabe von Temperaturen und Temperaturdifferenzen verwendet. Mit der Kelvin-Definition ist zugleich die Temperatur des Tripelpunktes von Wasser, speziell des VSMOW, festgelegt, und zwar auf den Wert 273,16 K. Die Schmelzpunkttemperatur des Wassers bei Normalbedingungen ist dagegen um ca. 0,01 K verschoben, sie liegt auf der Kelvin-Skala bei ca. 273,15 K. Die Temperatur wird durch diese Definition mit der Energie, das heißt dem Energiegehalt eines Körpers oder Systems, verknüpft und heißt daher Thermodynamische Temperatur. Enthält ein physikalisches Objekt keine Energie, dann hat es die Temperatur 0 K und befindet sich somit am absoluten Nullpunkt. Wenn der Zahlenwert einer Temperatur formula_8 auf der Kelvin-Skala formula_9-mal so groß ist wie der einer anderen Temperatur formula_10, so ist der Energiegehalt bei formula_8 formula_9-mal so hoch wie der bei formula_10 (im Gegensatz dazu siehe die Celsius-Skala). In atomistischer Sicht kann man sagen, dass bei der Kelvin-Skala die mittlere kinetische Energie der Teilchen (Atome oder Moleküle) proportional zur Temperatur ist, das heißt eine doppelte kinetische Energie entspricht einer doppelten Temperatur (in Kelvin). Ein weiterer Zusammenhang leitet sich aus der Maxwell-Boltzmann-Verteilung ab: eine Verdopplung der Temperatur auf der Kelvin-Skala führt bei idealen Gasen zu einer Erhöhung der Teilchengeschwindigkeit im quadratischen Mittel um den Faktor formula_14. Geschichte. Die Teilungen der von William Thomson vorgeschlagenen "absoluten" Temperaturskala trugen zunächst die Bezeichnung °A (für absolut). Im SI galt von 1948 bis 1968 das °K (Grad Kelvin, bis 1954 auch „Grad Absolut“) als Temperatureinheit. Außerdem wurden im genannten Zeitraum Temperatur"differenzen" – abweichend von Temperaturangaben – in deg (Grad) angegeben. Die Verwendung dieser alten Einheiten ist heute in Deutschland nicht mehr zulässig. Bereits 1948 wurde durch die CGPM eine absolute thermodynamische Skala mit dem Tripelpunkt des Wassers als einzigem fundamentalen Fixpunkt festgelegt, aber noch nicht mit der Temperatur verknüpft. Die stetig verringerten Unsicherheiten bei der Messung der Temperatur des Wassertripelpunktes machten es im 21. Jahrhundert möglich, den Einfluss der Isotopenzusammensetzung auf den Tripelpunkt des Wassers zu bestimmen (Größenordnung von etwa 10 mK). Die notwendige Präzisierung der Definition des Kelvins erfolgte 2005 beim 94. Treffen des CIPM, wonach als Bezugspunkt gereinigtes Standardozeanwasser verwendet werden sollte; der Wortlaut der Kelvin-Definition ist jedoch nicht geändert worden. Die Tripelpunkttemperatur ist zur Kalibrierung von Temperaturmessinstrumenten für andere Temperaturbereiche unhandlich. Dafür existiert seit 1990 die ITS-90 („Internationale Temperaturskala von 1990“). Sie verzeichnet mehrere auf über einen großen Temperaturbereich hin verteilte Referenzwerte, zum Beispiel wohldefinierte Schmelzpunkte; der Tripelpunkt des Wassers ist auch hier zentraler Bezugspunkt. Angestrebte Neudefinition. Wie bei allen SI-Einheiten angestrebt, soll auch das Kelvin zukünftig unabhängig von Materialien definiert, also auf Naturkonstanten zurückgeführt werden, wie das zum Beispiel beim Meter inzwischen der Fall ist. Daher wird an einer Neudefinition des Kelvin gearbeitet, die z. B. auf der Festlegung der Boltzmann-Konstante beruhen könnte. Die Ergebnisse dieses internationalen Projektes, bei dem beispielsweise die Physikalisch-Technische Bundesanstalt das Arbeitspaket für die primäre Thermometrie für niedrige Temperaturen leitet, sind im Rahmen internationaler Konferenzen wie der Tempmeko 2013 und 2016 und einem Workshop zu diesem Thema, der für das Jahr 2014 geplant ist, zu erwarten. Farbtemperatur. Auch die Farbtemperatur wird in Kelvin angegeben. Sie ist in der Fotografie und zur Charakterisierung von Lichtquellen wichtig. Die Farbtemperatur gibt die spektrale Strahldichteverteilung eines schwarzen Strahlers (siehe Stefan-Boltzmann-Gesetz) an, der die Temperatur = Farbtemperatur hat. Bei Glüh-Strahlern mit wellenlängenabhängigem Emissionsgrad sowie bei nichtthermischen Lichtquellen weicht die Farbtemperatur von der Temperatur des Strahlers ab. Nach dem Wienschen Verschiebungsgesetz ist die Wellenlängenverschiebung des spektralen Strahlungs-Maximums proportional zur Temperaturänderung in Kelvin. Verhältnis-Pyrometer nutzen diesen Zusammenhang zur Temperaturmessung eines Körpers zu dessen emissionsgrad-unabhängiger Temperaturmessung aus. Voraussetzung ist, dass es sich im Empfangsbereich um einen „grauen“ Strahler handelt, d. h. dass er bei beiden Empfangswellenlängen den gleichen Emissionsgrad besitzt. Temperatur und Energie. wobei formula_17 die Boltzmannkonstante ist. Eine Barriere formula_18 wird faktisch nie überwunden, bei formula_19 wird sie leicht überwunden und bei formula_20 wird die Barriere quasi nicht wahrgenommen. Präfixe. Bei Temperaturangaben sind Präfixe relativ unüblich. Für kleine Werte können mK, µK und nK verwendet werden, andere Ableitungen kommen kaum vor. Ketzer. Das Wort Ketzer stammt von ital. "gazzari", das seinerseits auf lat. "cathari" beruht, und wurde bereits vor dem 13. Jahrhundert ins Deutsche übernommen. Es bezeichnete im Lateinischen und Italienischen ursprünglich die Anhänger des hauptsächlich in Südfrankreich und Oberitalien verbreiteten Katharismus. Wie ansatzweise auch schon im Italienischen wurde es dann im Deutschen als abwertender Ausdruck in der erweiterten allgemeinen Bedeutung „Irrgläubiger“, „Irrlehrer“ für alle Arten von Häresie im kirchlichen Verständnis gebraucht, von Katholiken ebenso wie seit der Reformation dann auch von Protestanten. „Katharer“ und „Ketzer“ haben ihren Ursprung im altgriechischen „Katharos“: der Reine. Die Herkunft des Wortes vom Namen der Katharer war dabei schon im lateinischen Mittelalter nicht immer bewusst oder wurde durch Volksetymologien überlagert: Schon lat. "cathari" (‚Katharer‘) wurde zuweilen mit "cattus" (‚Katze‘) in Zusammenhang gebracht, später dann auch dt. „Ketzer“ mit „Katze“ - und dieser Zusammenhang dann mit dem angeblichen Ritual, eine Katze als Tier des Teufels auf den Hintern zu küssen ("quia osculantur posteriora cati, in cujus specie ut dicunt apparet eis Lucifer", Alanus ab Insulis; ein derartiges Ritual, bekannt als "osculum infame", wird beschrieben in: "Vox in Rama"), oder mit der „katzenhaft“ falschen Art der Ketzer ("von so heizet der ketzer ein ketzer, daz er deheinem kunder so wol glîchet mit siner wise sam der katzen", Berthold von Regensburg) erklärt. Die in der Beziehung des Wortes auf religiöse Häresien wesentliche Vorstellung von deren „Verfälschung“ der kirchlichen Lehre bot im Spätmittelalter die Voraussetzung dafür, das Wort auch auf andere, nicht-doktrinäre Verbrechen oder Abweichungen zu übertragen: auf das Fälschen von Metallen („ketzern“, vgl. „Katzengold“ für Pyrit), und auf die kirchlich als „Verfälschung“ (Pervertierung) gottgegebener Natur gedeutete Homosexualität und Päderastie („Ketzerbube“). Seit der frühen Neuzeit wird "Ketzerei", "ketzerisch" in übertragener Bedeutung dann auch für jede Art von intellektueller Dissidenz oder Opposition gegen eine herrschende Lehre oder Konvention ohne besonderen Bezug zur kirchlichen und religiösen Sphäre gebraucht, ebenso "verketzern" in der Bedeutung „zum Ketzer erklären“, „für Ketzerei erklären“. Wegen der abwertenden Bedeutung von "Ketzer", "Ketzerei" im kirchlichen Sprachgebrauch wird das Wort heute in wissenschaftlicher Fachsprache zugunsten der neutraler wirkenden Fremdwörter "Häretiker", "Häresie" vermieden, besonders bei der Beschreibung vormittelalterlicher Häresien war es wegen seines mittelalterlichen Gepräges auch schon in der älteren Fachliteratur vermieden worden. Karl Dönitz. Karl Dönitz als Großadmiral, 1943 Karl Dönitz (* 16. September 1891 in Grünau bei Berlin; † 24. Dezember 1980 in Aumühle) war ein deutscher Marineoffizier (ab Januar 1943 Großadmiral), Nationalsozialist, NSDAP-Mitglied, enger Gefolgsmann Adolf Hitlers und letztes Staatsoberhaupt des Deutschen Reichs. Anfang 1936 wurde Dönitz „Führer der U-Boote“ (ab 1939: „Befehlshaber der U-Boote“) und war in der deutschen Kriegsmarine die treibende Kraft beim Aufbau der U-Boot-Waffe. Ende Januar 1943 zum Oberbefehlshaber der Kriegsmarine ernannt, wurde er in Hitlers politischem Testament vom 29. April 1945 zu dessen Nachfolger als Reichspräsident und als Oberbefehlshaber der Wehrmacht bestellt. Nach Hitlers Suizid am 30. April 1945 setzte Dönitz am 5. Mai 1945 eine geschäftsführende Reichsregierung unter Lutz Graf Schwerin von Krosigk als "Leitendem Reichsminister" ein. Ungefähr 2 Wochen nach der am 8. Mai erklärten bedingungslosen Kapitulation der Wehrmacht wurden am 23. Mai 1945 Dönitz, die hohen Generäle des Oberkommandos der Wehrmacht (OKW) und alle Mitglieder der Regierung verhaftet, die in der Marinesportschule auf dem Marinestützpunkt in Flensburg-Mürwik residierten. Dönitz gehörte zu den 24 Angeklagten im Nürnberger Prozess gegen die Hauptkriegsverbrecher. Er wurde wegen Führens von Angriffskriegen und Kriegsverbrechen schuldig gesprochen und am 1. Oktober 1946 zu zehn Jahren Haft verurteilt, die er bis zum 1. Oktober 1956 vollständig verbüßte. Kaiserreich und Erster Weltkrieg. Dönitz entstammte der sozialen Schicht des staatstreuen preußischen Bürgertums. Er war der Sohn des Ingenieurs Emil Dönitz und dessen Ehefrau Anna, geborene Beyer. Seine Mutter verstarb bereits, als er noch keine vier Jahre alt war; er und sein zwei Jahre älterer Bruder Friedrich wurden von da an von ihrem Vater alleine aufgezogen. Nach dem Abitur trat Dönitz am 1. April 1910 als Seekadett in die Kaiserliche Marine ein. Zu diesem Ausbildungsjahrgang, der so genannten „Crew 10“, gehörte auch Martin Niemöller. Im Anschluss an die Infanterieausbildung in der Marineschule Mürwik trat Seekadett Dönitz am 12. Mai die Bordausbildung auf dem Großen Kreuzer SMS "Hertha" an. Am 1. April des folgenden Jahres kehrte er zurück an die Marineschule, um seine Offiziersausbildung zu beginnen. Am 15. April 1911 wurde Dönitz zum Fähnrich zur See befördert. Im Sommer 1912 absolvierte er seinen Infanterielehrgang beim II. Seebataillon und einen Torpedolehrgang auf der Panzerkorvette SMS "Württemberg". Mit dem Absolvieren eines Artillerielehrgangs an der Schiffsartillerieschule in Kiel-Wik beendete Fähnrich z. S. Dönitz seine Ausbildung als Seekadett und wurde am 1. Oktober 1912 als Wachoffizier und Adjutant auf den Kleinen Kreuzer SMS "Breslau" kommandiert. Als väterliche Figur und Mentor nach dem Tod des Vaters galt der Erste Offizier der "Breslau", Kapitänleutnant Wilfried von Loewenfeld. Zu dieser Zeit war die "Breslau" der modernste Kleine Kreuzer der deutschen Flotte. Am 27. September 1913 wurde Dönitz zum Leutnant zur See befördert. Zu Beginn des Ersten Weltkrieges gelang es der "Breslau" und dem Schlachtkreuzer SMS "Goeben" unter der Führung von Konteradmiral Wilhelm Souchon, den französischen und britischen Seestreitkräften auszuweichen und nach Konstantinopel zu entkommen, wo die Schiffe der türkischen Marine unterstellt wurden. Die "Breslau" nahm fortan unter dem Namen "Midilli" an Gefechten gegen Einheiten der Kaiserlich russischen Marine im Schwarzen Meer teil. Dönitz wurde im Kriegsjahr 1914 mehrfach ausgezeichnet. Im August 1915 lag die "Midilli" zu Reparaturarbeiten in der Werft von Stenia bei Konstantinopel (heute İstinye, Stadtteil von Istanbul). Leutnant zur See Dönitz wurde in dieser Zeit als Flugplatzleiter einer Fliegerabteilung an die Dardanellen-Front und nach San Stefano versetzt, wo er auch als Beobachtungsoffizier eingesetzt wurde und sich als Flieger ausbilden ließ. Im September verließ Dönitz die "Breslau". Einen sozialen Aufstieg für Dönitz bedeutete seine Heirat 1916 mit Ingeborg Weber, der Tochter des preußischen Generalmajors Erich Weber. Zwischenzeitlich zum Oberleutnant z. S. befördert, meldete sich Dönitz freiwillig zu der neuen Waffengattung der U-Boote und wurde am 15. September der U-Abteilung der Reichsmarine zugeteilt. Die U-Ausbildung begann für ihn mit einem weiteren Torpedolehrgang, diesmal speziell auf die Erfordernisse des modernen Waffensystems Unterseeboot zugeschnitten. Dieser Lehrgang brachte ihn im Oktober zurück an Bord der "Württemberg". Den Jahreswechsel verbrachte Dönitz an der U-Schule. Am 17. Januar wurde er als Wachoffizier auf "U 39" kommandiert. Auf "U 39" nahm Dönitz unter den Kommandanten Walter Forstmann und Heinrich Metzger insgesamt an fünf Feindfahrten teil, bis er im Dezember 1917 von Bord ging, um sich auf ein eigenes Kommando vorzubereiten. Im ersten Halbjahr 1917 fuhr auch der spätere Theologe und Widerstandskämpfer Martin Niemöller als Steuermann auf "U 39". Am 1. März 1918 erhielt Dönitz das Kommando auf "UC 25", einem – von der Hamburger Vulkanwerft gebauten – minenführenden UC-II-Boot. Auf der ersten der beiden Feindfahrten, die er mit diesem Boot unternahm, drang er in den italienischen Hafen Augusta ein und versenkte ein dort liegendes Schiff. Die Torpedos von "UC 25" trafen einen italienischen Kohlefrachter und nicht, wie befohlen, beabsichtigt und auch später gemeldet, das britische Werkstattschiff "Cyclops". In der Annahme, Dönitz habe dieses versenkt, empfahl sein Flottillenchef ihn zur Auszeichnung. Infolgedessen wurde Dönitz am 10. Juni 1918 das Ritterkreuz des Königlichen Hausordens von Hohenzollern mit Schwertern verliehen. Im September desselben Jahres erhielt er das Kommando auf "UB 68", einem erheblich größeren, hochseefähigen Zweihüllenboot. Bei einem Angriff auf einen britischen Geleitzug im Mittelmeer wurde "UB 68" tauchunfähig und erheblich beschädigt, weshalb es von der Besatzung aufgegeben wurde. Nach Verlassen des Bootes geriet Dönitz in britische Kriegsgefangenschaft, die er nutzte, um die spanische Sprache zu erlernen. Aus gesundheitlichen Gründen wurde er im Juli 1919 entlassen und kehrte zu seiner Frau und Tochter Ursula nach Deutschland zurück. Weimarer Republik. Dönitz wurde in die zunächst vorläufige Reichsmarine der Weimarer Republik übernommen und im Juli 1919 zum Stab der Marinestation der Ostsee kommandiert, wo er Hilfsarbeiten unter anderem als Referent für Offizierspersonalien verrichtete. Seit März 1920 war er dann Kommandant von verschiedenen Torpedobooten, namentlich V-5, T 157 und G-8. Dönitz, der dem Chef des Stationskommandos, Vizeadmiral Magnus von Levetzow, persönlich bekannt war, war von diesem deshalb zum Kommandanten des Torpedobootes „V 5“ ernannt worden, um sich ab dem ersten Tag des Kapp-Lüttwitz-Putsches für die Unterstützung der Putschisten „zur Aufrechterhaltung von Ruhe und Ordnung“ bereitzuhalten. Dem Militärhistoriker Herbert Kraus zufolge erlebte Dönitz das „Scheitern des Putsches […] als persönliche Niederlage an Bord seines Bootes“, da er erkennen musste, „daß die alte Ordnung mit Waffengewalt […] nicht wiederhergestellt werden konnte“. Am 1. Januar 1921 wurde er zum Kapitänleutnant befördert und war der I. Torpedobootshalbflottille unterstellt. Ab Frühjahr 1923 war er Referent und Adjutant der Inspektion des Torpedo- und Minenwesens. In dieser Zeit erhielt er eine Admiralstabsoffizierausbildung durch den damaligen Inspekteur des Bildungswesens der Marine Konteradmiral Erich Raeder. Mit dem 3. November 1924 wurde Kapitänleutnant Dönitz Referent in der Marinewehrabteilung; in dieser Stellung verblieb er etwas mehr als zwei Jahre. Anschließend war er als Navigationsoffizier auf dem Kreuzer "Nymphe" eingesetzt. In dieser Zeit nahm er an einer Navigationsschulungsfahrt auf dem Vermessungsschiff "Meteor" teil und absolvierte einen Kurs für Wetterkunde am Observatorium der Marine in Wilhelmshaven. Am 24. September 1928 wurde Dönitz Chef der 4. Torpedobootshalbflottille, und am 1. November 1928 wurde er zum Korvettenkapitän ernannt. Zwei Jahre später wurde er 1. Admiralstabsoffizier der Marinestation der Nordsee. Hilfreich für den rasanten Aufstieg waren die überaus positiven Beurteilungen, die Dönitz von seinen militärischen Vorgesetzten erhalten hatte – 13 im Zeitraum von Juli 1913 bis November 1933. Lediglich der spätere Admiral und damalige Kapitän zur See Wilhelm Canaris bemängelte in seiner ersten Beurteilung vom November 1931, Dönitz’ „Charakterbildung“ sei „noch nicht abgeschlossen“, er sei sehr ehrgeizig und geltungsbedürftig, erklärte diese Mängel aber in seiner zweiten Beurteilung ein Jahr später für vollständig behoben. Vorkriegszeit. In der Funktion des 1. Admiralstabsoffiziers der Marinestation der Nordsee wurde er am 1. Oktober 1933 zum Fregattenkapitän befördert. Als Kommandant des Kreuzers Emden, seit Ende September 1934, machte Dönitz im Jahr 1935 eine mehrmonatige Auslandsreise nach Südostasien. Nach der Rückkehr von dieser Reise wurde Dönitz von dem damaligen Generaladmiral Erich Raeder mit dem Aufbau der neuen deutschen U-Boot-Waffe beauftragt. Dönitz empfand diese neue Stellung zuerst als Abstellgleis, revidierte diese Ansicht aber sehr bald. Der Bau deutscher U-Boote war möglich geworden, nachdem sich Adolf Hitler im selben Jahr mit dem Deutsch-britischen Flottenabkommen über den Versailler Vertrag hinweggesetzt hatte, indem er einseitig die deutsche Wehrhoheit erklärte. In der allgemeinen Strategie der deutschen Marine, dem Unterbrechen der Seewege des Gegners (der damaligen Militärdoktrin zufolge insbesondere Großbritanniens), war für das Waffensystem U-Boot keine maßgebliche Rolle vorgesehen. Am 22. September 1935 wurde Fregattenkapitän Dönitz zum Chef der U-Boot-Flottille Weddigen ernannt und am 1. Oktober 1935 zum Kapitän zur See befördert. Im Januar des Jahres erhielt er das Ehrenkreuz für Frontkämpfer. Bereits am 1. Januar 1936 wurde Dönitz’ Posten aufgewertet und in Führer der Unterseeboote (FdU) umbenannt. Am 28. Januar 1939 erfolgte seine Ernennung zum Kommodore. Zweiter Weltkrieg. Dönitz begrüßt Besatzungsmitglieder eines U-Boots, Wilhelmshaven 1940 Einen Monat nach Ausbruch des Zweiten Weltkrieges wurde Dönitz am 1. Oktober 1939 zum Konteradmiral ernannt. Kurz zuvor, am 19. September 1939, war sein Dienstposten in Befehlshaber der Unterseeboote (BdU) umbenannt worden. Im Bewusstsein der politischen Krisen in den Jahren 1935 bis 1938 musste Dönitz die Möglichkeit einer Gegnerschaft Englands bei der strategischen Ausrichtung der U-Boot-Waffe berücksichtigen. Ein effektiver Handelskrieg setzte laut Dönitz eine Sollstärke der U-Boot-Waffe von rund 300 Booten voraus. Gemäß der Doktrin der „Drittelparität“ sollten sich ein Drittel der Boote im Fronteinsatz befinden, ein weiteres Drittel im An- bzw. Abmarsch und das letzte Drittel zur Überholung in den Heimathäfen. Im Z-Plan vom 1. März 1939 wurde der Bau von 249 U-Booten beschlossen. Dönitz ließ die U-Boot-Besatzungen dazu ausbilden, gegen Geleitzüge zu kämpfen. Dönitz wollte einer Massierung an Schiffen eine Massierung an U-Booten entgegensetzen, die so genannte Rudeltaktik. So begann der Seekrieg im Atlantik zwar mit einer geringen Zahl an U-Booten (57 U-Boote, davon nur 37 für den Atlantik geeignet), aber dennoch mit Erfolgen für die deutsche Seite. Aufgrund dieser Erfolge wurde Dönitz am 1. September 1940 zum Vizeadmiral und am 14. März 1942 zum Admiral befördert. Oberbefehlshaber. Am 30. Januar 1943 wurde Dönitz unter Auslassung des Dienstgrades Generaladmiral Großadmiral und Nachfolger von Großadmiral Erich Raeder als Oberbefehlshaber der deutschen Kriegsmarine. Hitler hatte Raeders Strategie der Seekriegsführung (Schlachtschiff "Bismarck" im Mai 1941, Unternehmen Rösselsprung im Juni 1942 und Unternehmen Regenbogen im Dezember 1942) kritisiert und dessen Rücktrittsangebot am 6. Januar 1943 zugestimmt. Das war angesichts der zu diesem Zeitpunkt massiven alliierten Überlegenheit quasi ein Kamikaze-Befehl, da nur geringe Aussichten bestanden, dass ein U-Boot einen Angriff auf die stark gesicherten Konvois im Kanal oder auf die Schiffskonzentrationen vor der Normandie-Küste überstehen würde. Obwohl die Zahl der versenkten U-Boote in der Folgezeit immer weiter stieg, wurde die Möglichkeit, dass die Alliierten die deutsche Enigma-Maschine endgültig entschlüsselt haben könnten, weiterhin ausgeschlossen. Stattdessen wurde vermutet, dass U-Boote und damit auch Enigma-Maschinen und Schlüsselunterlagen in alliierte Hände gefallen seien. Trotz der einerseits erdrückenden eigenen Verluste und der gleichzeitig sehr stark abgefallenen Versenkungserfolge konnte sich Dönitz, von einer kurzen Phase Mitte 1943 abgesehen, zu keinem Zeitpunkt dazu entschließen, die Konsequenzen zu ziehen und den U-Boot-Krieg abzubrechen. Er begründete dies mit strategischen Überlegungen. Seiner Auffassung nach hätte ein Abbruch der Atlantikschlacht den Alliierten ermöglicht, große Mengen von Menschen und Material freizumachen, die dann an anderer Stelle gegen Deutschland zum Einsatz gebracht worden wären. Das Ergebnis dieser Haltung lässt sich auch an den Verlustzahlen ablesen: Von den rund 41.000 deutschen U-Boot-Fahrern des Zweiten Weltkrieges sind bis Kriegsende fast 26.000 im Einsatz umgekommen. Unter den Toten war auch Dönitz’ jüngerer Sohn Peter. Der andere Sohn, Klaus, wurde auf dem Schnellboot S 141 bei einem Angriff auf Selsey an der englischen Küste getötet. In dem 68 Monate dauernden Kampf gingen von 820 deutschen U-Booten 781 verloren, 632 wurden nachweislich von den Alliierten versenkt. Eine solche Verlustquote hatte keine andere Waffengattung zu verzeichnen, weder auf deutscher noch auf alliierter Seite. Befehligt wurden die U-Boote zuerst von Wilhelmshaven aus (1939/40), dann vom Schloss Kernével bei Lorient (1940–42), wo der BdU mit nur sechs Stabsoffizieren die Einsätze dirigierte, schließlich vom Hauptquartier Koralle in Bernau bei Berlin (1943–45). Die geringe Zahl auf deutscher Seite stand in einem eklatanten Missverhältnis zu den Hunderten von Stabsoffizieren, mit denen die britische U-Boot-Abwehr von London und Liverpool aus ihre Gegenmaßnahmen strategisch und taktisch koordinierte und technisch revolutionierte. Hitlers Nachfolger als Reichspräsident. Sein Amt als „Nachfolger des Führers“ trat Dönitz mit einer Ansprache an das deutsche Volk an, die der Reichssender Flensburg am 1. Mai um 22:30 Uhr ausstrahlte. Der provisorische Regierungssitz lag in Flensburg-Mürwik, im dort eingerichteten Sonderbereich Mürwik, dem letzten noch unbesetzten Teil des Dritten Reiches. Nach der Kapitulation vom 8. Mai 1945 wurde die Flensburger Regierung am 23. Mai von den Alliierten abgesetzt und Dönitz verhaftet, der anschließend im Nürnberger Prozess gegen die Hauptkriegsverbrecher wegen Kriegsverbrechen und Planung eines Angriffskrieges unter Anklage gestellt wurde. Kapitulation. Dönitz und die geschäftsführende Reichsregierung strebten einen Separatfrieden mit den Westalliierten an, um die Rote Armee aus Deutschland zurückzudrängen. Nachdem bereits auf der alliierten Konferenz von Casablanca im Jahr 1943 die Forderung des amerikanischen Präsidenten Roosevelt nach bedingungsloser Kapitulation der Kriegsgegner verabschiedet worden war und Churchill einen Konflikt mit den russischen Alliierten befürchtete, lehnten die westlichen Alliierten jedoch jede Teilkapitulation ab. Nach dem Krieg begründete Dönitz die Fortsetzung des Krieges auch damit, dass möglichst viele deutsche Soldaten in westalliierte Gefangenschaft gebracht werden sollten, um sie so vor sowjetischer Gefangenschaft zu bewahren. Diese Darstellung wird jedoch von jüngerer historischer Forschung zum Teil in Frage gestellt und als beschönigend dargestellt, da Dönitz erst zwei Tage vor der Kapitulation befahl, die gesamten verfügbaren Schiffe zur Rettung von Flüchtlingen einzusetzen (vgl. z. B. die Arbeiten von Heinrich Schwendemann im Literaturverzeichnis). Weiterhin fällten Marinekriegsgerichte im noch von deutschen Truppen kontrollierten Gebiet unter Berufung auf Dönitz’ Durchhaltebefehle bis in die Tage nach der Gesamtkapitulation hinein zahlreiche Todesurteile wegen Fahnenflucht und „Wehrkraftzersetzung“. Dönitz persönlich bestand darauf, den Hitlergruß als Ehrenbezeugung beizubehalten und alle Hitlerbilder an ihrem Platz zu belassen. Generaloberst Jodl unterzeichnet in Reims die bedingungslose Kapitulation der deutschen Wehrmacht (7. Mai 1945) a> unterzeichnet am 8. Mai 1945 in Berlin-Karlshorst die bedingungslose Kapitulation der deutschen Wehrmacht. Nachdem am 1. Mai 1945 um 21:25 Uhr der Reichssender Hamburg erstmals den Tod Hitlers bekannt gegeben hatte, erklärte Dönitz am 2. Mai 1945 über den Sender Flensburg, dass die Regierung Dönitz die Nachfolge Hitlers angetreten habe. Am selben Tag befahl in Berlin General Weidling die Einstellung aller Kampfhandlungen in der Reichshauptstadt. Dönitz bereitete umgehend eine Teilkapitulation gegenüber den Westalliierten vor, um möglichst viele Deutsche dem sowjetischen Einfluss zu entziehen. Generaladmiral von Friedeburg traf am 3. Mai 11:30 Uhr im britischen Hauptquartier von Feldmarschall Montgomery in Wendisch Evern bei Lüneburg ein, um eine Teilkapitulation in Nordwestdeutschland, den Niederlanden und Dänemark vorzubereiten. Sie wurde am 4. Mai 18:30 Uhr unterzeichnet und trat am 5. Mai 8:00 Uhr (dt. Sommerzeit) in Kraft. Am 5./6. Mai trafen Generaladmiral von Friedeburg und am 6. Mai Generaloberst Alfred Jodl im Hauptquartier von General Dwight D. Eisenhower wegen einer weiteren Teilkapitulation gegenüber den Westalliierten ein. Eisenhower bestand jedoch auf einer Gesamtkapitulation, aber mit dem Zugeständnis, dass nach der Unterzeichnung 48 Stunden zur Umsetzung verbleiben könnten. Damit hatte die Regierung Dönitz ihr Ziel erreicht, große Teile der Wehrmacht in Mittel- und Süddeutschland vor sowjetischer Gefangennahme zu bewahren und sie hinter die westalliierten Linien fliehen zu lassen. Am 7. Mai um 2:41 Uhr morgens unterzeichnete im Auftrag von Dönitz im operativen Hauptquartier der SHAEF (Supreme Headquarters Allied Expeditionary Force) im französischen Reims Generaloberst Jodl die bedingungslose Gesamtkapitulation aller deutschen Streitkräfte. Die Einstellung aller Kampfhandlungen musste also spätestens bis 9. Mai 0:01 Uhr erfolgt sein. Da keine hochrangigen sowjetischen Offiziere in Reims teilgenommen hatten, musste auf Wunsch Stalins die Unterzeichnung im sowjetischen Hauptquartier wiederholt werden. Der Kapitulationsakt wurde einen Tag später durch das Oberkommando der Wehrmacht sowie die Oberbefehlshaber von Heer, Luftwaffe und Marine ratifiziert. Daher unterzeichneten, diesmal im sowjetischen Hauptquartier in Berlin-Karlshorst, am 8. Mai um 23:30 Uhr (dt. Sommerzeit) der von Dönitz dazu bevollmächtigte Generalfeldmarschall Wilhelm Keitel, Generaladmiral von Friedeburg sowie Generaloberst Stumpff eine weitere Kapitulationsurkunde. Nach der Kapitulation. Karl Dönitz, Festnahmekarte der US-Regierung vom 23. Juni 1945 Heinrich Himmler, der mit großem Gefolge in Flensburg angekommen war, bemühte sich, Mitglied der neuen Reichsregierung zu werden, doch Dönitz berücksichtigte ihn nicht bei seiner Regierung, die er am 5. Mai ernannte. Bei einem Essen am 6. Mai sprach Dönitz mit Himmler darüber. Am 10. Mai stimmte Dönitz zu, dass SS-Angehörige mit Personalpapieren der Kriegsmarine ausgestattet wurden, damit sie ihre Mitgliedschaft in der SS verschleiern konnten. Denn es war offensichtlich, dass Mitglieder der SS u. a. für den Völkermord an den Juden und von ihr begangene Kriegsverbrechen zur Verantwortung gezogen werden würden. Dönitz’ politische Sicht ließ keine große Einsicht in die Realitäten nach dem verlorenen Krieg erkennen. Aus seiner Sicht hatten sich Wehrmacht und Marine bewährt. Sie hätten sich – im Gegensatz zum Ersten Weltkrieg – nicht gegen die Regierung gewandt. Meuterei und Revolution seien ausgeblieben. Die pluralistische Regierungsform der westlichen Demokratien lehnte Dönitz vehement ab. schrieb er eine Woche nach der Kapitulation. Er lehnte eine Verantwortung der NS-Führung für die Vorgänge in den Konzentrationslagern ab. Dass dies keine Staatsverbrechen seien, sondern normale juristische Fälle, die Einzeltätern anzulasten seien, ist seinem Tagesbefehl an die Wehrmacht vom 18. Mai zu entnehmen. Dönitz versuchte noch, über Dwight D. Eisenhower eine Verordnung in Kraft zu setzen, die das Reichsgericht für die Verbrechen in den Konzentrationslagern zuständig gemacht hätte. Er legte Eisenhower auch nahe, sein Vorgehen gegen den Nationalsozialismus einzuschränken, weil sonst eine Bolschewisierung Deutschlands drohe. In persönlichen Gesprächen mit den Abgesandten der Alliierten am 17. und 20. Mai legte er diese Ansichten nochmals dar. Am 23. Mai 1945 wurden Dönitz und die Angehörigen des OKW Jodl und Friedeburg auf die "Patria" bestellt, auf der die alliierte Überwachungskommission für das OKW unter dem amerikanischen Generalmajor Rooks und dem britischen Brigadegeneral Foord residierte. Auf der Patria wurde ihnen die auf Befehl General Eisenhowers mit Zustimmung des sowjetischen Generals Schukow angeordnete Verhaftung als Kriegsgefangene mitgeteilt. Auch die Mitglieder der Geschäftsführenden Reichsregierung wurden an diesem Tag verhaftet. Anschließend wurden die Verhafteten im Hof des Flensburger Polizeipräsidiums der Weltpresse vorgeführt. Am 5. Juni 1945 verkündeten die Alliierten in der Berliner Erklärung ihre Übernahme der obersten Regierungsgewalt über Deutschland. Angeklagter im Nürnberger Prozess gegen die Hauptkriegsverbrecher. Dönitz wurde zusammen mit anderen hohen Wehrmachtangehörigen und Vertretern der NSDAP-Hierarchie im Kriegsgefangenenlager Nr. 32 (Camp Ashcan) im luxemburgischen Bad Mondorf interniert. Im Oktober 1945 wurde er dem Internationalen Militärgerichtshof in Nürnberg überstellt und angeklagt. Die Verteidigung übernahm der ehemalige Flottenrichter Otto Kranzbühler. Der 38-Jährige hatte vor seinem Eintritt in die Reichsmarine im Jahr 1934 Jura studiert und wurde auf Dönitz' eigenen Wunsch zu dessen Verteidiger berufen. Er wurde während des Prozesses von Hans Meckel, ehemaligen Kommandanten von "U 19" und Kurt Assmann, der bis 1943 die Kriegswissenschaftliche Abteilung der Marine geleitet hatte unterstützt. Kranzbühlers Team, das nach Meckels Ansicht von britischer Seite "“fair unterstützt“" wurde, erreichte für Dönitz Freisprüche in einem von drei Anklagepunkten. Dönitz wurde nicht nach Anklagepunkt IV "Verbrechen gegen die Menschlichkeit" angeklagt. Hinsichtlich des Anklagepunkts I wurde festgestellt, dass Dönitz aufgrund seiner Dienststellung nicht an der "Verschwörung zur Durchführung eines Angriffskrieges" beteiligt gewesen war. Hinsichtlich der Anklagepunkte II "„Verbrechen gegen den Frieden“" und III "“Verbrechen gegen das Kriegsrecht“" erfolgte eine Verurteilung. Von Dönitz stammte der Laconia-Befehl vom 17. September 1942, der es untersagte, Angehörige versenkter Schiffe zu bergen oder ihnen Nahrungsmittel oder Wasser zu geben, wenn sie sich in Rettungsbooten befanden. Dönitz hatte diesen Befehl gegeben, nachdem ein amerikanischer Bomber das U-Boot "U 156" bombardiert hatte, das gerade mit anderen deutschen U-Booten Rettungsboote mit Überlebenden des zuvor versenkten britischen Truppentransporters "Laconia" im Schlepp hatte. Tatsächlich waren Rettungsschiffe weder schwer bewaffnet noch hatten sie Flugzeuge an Bord und sie dienten auch nicht als U-Boot-Fallen, wie es Dönitz im Prozess behauptete. Dönitz war unbekannt, dass sie während des Krieges mit Huff-Duff-Geräten ausgerüstet und an der Ortung der nach den Maßgaben der Rudeltaktik fühlungshaltenden deutschen U-Boote beteiligt waren. Aus nicht bekannten Gründen präsentierten die Alliierten Leupolds Behauptungen weder beim Kriegsverbrecherprozess gegen den Kommandanten von "U 852", Eck, noch beim Prozess gegen Dönitz. In Nürnberg meldeten sich zwei Offiziere der Kriegsmarine, Karl-Heinz Moehle (Chef der 5. Schulflottille) und Oberleutnant zur See Peter Josef Heisig, ein am 27. Dezember 1944 in Gefangenschaft geratener Wachoffizier von "U 877". Beide vermittelten laut Blair unter Eid den Eindruck, Dönitz habe U-Boot-Kommandanten insgeheim aufgefordert, schiffbrüchige Besatzungen zu ermorden, um die Bemannung weiterer Schiffe zu verhindern, was Blair aber als unwahr bezeichnet. In den Unterlagen der Kriegsmarine soll Blair zufolge trotz umfangreicher Suche kein Beweis gefunden worden sein. Zudem sei es Kranzbühler gelungen, die Glaubwürdigkeit der Dönitz belastenden Zeugen Karl-Heinz Moehle und Peter Josef Heisig beim Prozess zu erschüttern. Moehle habe sich möglicherweise selbst vom Vorwurf entlasten wollen, den Laconia-Befehl ausgegeben zu haben, und diesen zudem völlig missverstanden. Heisig habe möglicherweise seinen im Eck-Prozess angeklagten Freund Hoffmann, Zweiter Wachoffizier auf Ecks Boot, vor dem Erschießungskommando retten wollen. 67 U-Boot-Kommandanten sollen laut Blair eidesstattliche Aussagen abgegeben haben, der Laconia-Befehl sei nicht als Aufforderung angesehen worden, Schiffbrüchige zu töten. Auch der im Eck-Prozess angeklagte Kommandant von "U 852" habe erklärt, nur im Sinne seines eigenen Interesses gehandelt zu haben. Zu den Unterzeichnern der eidesstattlichen Aussagen gehörte auch der Kommandant der U-Boote "U 560, U 351, U 1007 und U 1231", Oberleutnant zur See Helmut Wicke. Dieser soll allerdings am 28. September 1998 erklärt haben, dahingehend belehrt worden zu sein, dass es kriegswichtig sei, Schiffbrüchige nicht überleben zu lassen. Dem Autor Dieter Hartwig zufolge hat es zudem deutliche Hinweise auf das Verschwindenlassen kompromittierender Akten gegeben. Der Verteidiger von Dönitz, Otto Kranzbühler, erreichte, dass der schwerwiegende Vorwurf des, dem Londoner U-Boot-Protokoll von 1936 widersprechenden „Versenkens von feindlichen Handelsschiffen ohne Warnung“ gegen seinen Mandanten und Großadmiral Erich Raeder fallengelassen wurde, was die beiden Admirale vor der Todesstrafe bewahrte. Dazu trug insbesondere die schriftliche Zeugenaussage des Oberbefehlshabers der US-Pazifikflotte, Admiral Chester W. Nimitz, bei, in der dieser erklärte, dass amerikanische U-Boote im Seekrieg gegen Japan Handelsschiffe ohne Warnung versenkt hatten, wenn es sich nicht erkennbar um Lazarettschiffe handelte. Feindliche Überlebende seien von der US Navy nicht gerettet worden, wenn es eine zusätzliche Gefahr für das eigene U-Boot bedeutet hätte. Tatsächlich war es sogar vorgekommen, dass amerikanische U-Boot-Besatzungen japanische Überlebende in Rettungsbooten oder im Wasser schwimmend ermordet hatten. Dönitz war ein Befürworter des NS-Regimes und verurteilte in seiner Aussage vor dem Gerichtshof alle, die sich gegen Hitler gewandt hatten, besonders aber den „Putsch des 20. Juli“. Auf Nachfrage, was er mit dem „auflösenden Gift des Judentums“ meine, bekräftigte Dönitz ausdrücklich, dass er mit der Vertreibung der Juden aus Deutschland einverstanden war. Weitere Themen des Prozesses waren 12.000 KZ-Häftlinge, die in Dänemark zum Bau und zur Reparatur von Schiffen eingesetzt wurden, und die Erschießung von britischen Kommandos in Norwegen 1943 auf der Grundlage des Kommandobefehls. Am 1. Oktober 1946 sprach der Gerichtshof Dönitz vom Vorwurf der Verschwörung zur Führung eines Angriffskriegs, da er bei den Planungen nicht einbezogen worden war und vom Vorwurf der Verbrechen gegen die Menschlichkeit (Anklagepunkte I und IV) frei. Dönitz wurde aber wegen der Durchführung von Angriffskriegen verurteilt. Wegen dieser „Verbrechen gegen den Frieden“ und wegen Kriegsverbrechen wurde er zu zehn Jahren Gefängnis in Spandau verurteilt. Seine Mithäftlinge dort waren Rudolf Heß, Erich Raeder, Walther Funk, Albert Speer, Baldur von Schirach und Konstantin von Neurath. Für den von den Alliierten mit dem Verhör von Wehrmachtbefehlshabern beauftragten Juristen Walter Hasenclever (1910–1992) war der Gefangene Dönitz „anscheinend der einzige unter den höchsten Befehlshabern der Wehrmacht, der bis zuletzt dem Nationalsozialismus verschrieben blieb“. Dönitz und der Nationalsozialismus. Das zum Zeitpunkt von Dönitz’ Eintritt in die Reichsmarine gültige Wehrgesetz versagte dem Reichswehrangehörigen neben dem Wahlrecht und weiteren Bürgerrechten auch die Zugehörigkeit zu jedweder Partei. Diese Bestimmungen wurden in der Neufassung des Wehrgesetzes im Rahmen des Aufbaus der Wehrmacht im März 1935 präzisiert – ab jetzt war insbesondere die Zugehörigkeit zur NSDAP für die Dauer des Dienstes untersagt. Am 30. Januar 1944 erhielt Dönitz das Goldene Parteiabzeichen der NSDAP und wurde ab diesem Zeitpunkt – mit der Mitgliedsnummer 9664999 – als Angehöriger der NSDAP geführt. Allein der Besitz dieser Auszeichnung, die einigen exponierten Angehörigen der Wehrmacht übereignet wurde – beispielsweise Eduard Dietl, der sie mit Stolz trug, oder Erich Raeder, der sie vernichtete –, macht Dönitz jedoch noch nicht zu einem Nationalsozialisten. Die Ansprachen, die er insbesondere an der U-Boot-Schule und vor Rekruten hielt, strotzten allerdings vor NS-Ideologie und forderten fanatische Opferbereitschaft. Die Idealisierung der selbstmörderischen Einsätze der Kleinkampfverbände der Kriegsmarine, die Aufforderung an seine U-Boot-Kommandanten, Mannschaft und Boote zu opfern, und vor allem sein lobender Kommentar über Mord von Besatzungsangehörigen der "Kormoran" an mitgefangenen Kameraden illustrieren darüber hinaus seine NS-typische, menschenverachtende Grundhaltung. In einem Geheimbefehl vom 19. April 1945 über die Beförderung „verantwortungsfreudiger Persönlichkeiten“ begrüßte Dönitz, dass ein Oberfeldwebel als Lagerältester der internierten Besatzung des Hilfskreuzers "Kormoran" in Australien die unter den Gefangenen sich bemerkbar machenden Kommunisten „planvoll und von der Bewachung unauffällig umlegen ließ“. Diesem Unteroffizier gebühre für seinen Entschluss und seine Durchführung Anerkennung: „Ich werde ihn nach seiner Rückkehr mit allen Mitteln fördern, da er bewiesen hat, daß er zum Führer geeignet ist.“ Zeitgenossen berichten überdies von einer Bewunderung Hitlers. Die Teilnahme an Hitlers Lagebeurteilungen ließ ihn beispielsweise schlussfolgern, „wie unbedeutend wir alle im Vergleich mit dem Führer sind“. Vertrauten zufolge sei Dönitz dem Nationalsozialismus auch nach Kriegsende und Gefängnisaufenthalt hinaus verbunden geblieben. In seinem Aufsatz "Marine, Nationalsozialismus und Widerstand" stellte Walter Baum 1963 die These auf, dass es Dönitz’ Haltung, Taten und vor allem seinen Verlautbarungen im Nachhinein des 20. Juli zu verdanken gewesen sei, dass Hitler ihn später zum Nachfolger ernannt habe. Der in diesem Aufsatz ebenfalls behaupteten Nähe der deutschen Marine zum bzw. Anfälligkeit gegenüber dem Nationalsozialismus und der Beschreibung seiner Person als „politisch“, als Hitler in Bewunderung ergeben und als von dessen Ideologie, namentlich dem Rassenwahn, überzeugt, plante Dönitz zu widersprechen. Das Vorhaben, eine Gegendarstellung zu veröffentlichen, gab er aber 1967 auf. Entlassung aus dem Gefängnis und Lebensabend. Nach der vollständigen Verbüßung seiner Strafe am 1. Oktober 1956 lebte Dönitz in Aumühle bei Hamburg. Seine Frau Ingeborg verstarb 1962. Seine beiden Söhne waren gefallen: Lt zS Peter Dönitz am 19. Mai 1943 als Wachoffizier auf U 954, Oberleutnant zur See Klaus Dönitz am 13. Mai 1944 auf dem Schnellboot S 141. Nur das älteste Kind Ursula, die 1937 den Marineoffizier Günter Hessler geheiratet hatte, überlebte den Krieg. 1958 kam es zu einem Eklat, als der Wehrexperte der SPD, Fritz Beermann, auf einer Tagung von Offizieren und Anwärtern der Bundeswehr zur "Tradition der Bundesmarine" sprach und ausführte, er sympathisiere eher mit Max Reichpietsch und Albin Köbis, im Ersten Weltkrieg als Meuterer hingerichteten Matrosen, denn mit Dönitz und Raeder. Die anwesenden Marineoffiziere verließen daraufhin den Saal. Das Bundesverteidigungsministerium begrenzte den Eklat durch die Erklärung, die einstigen Großadmirale seien keine Vorbilder für die Bundesmarine mehr. Einen weiteren Eklat verursachte Dönitz’ einziger Nachkriegsauftritt an einer Schule am 22. Januar 1963 im Otto-Hahn-Gymnasium (Geesthacht). Der Schülersprecher Uwe Barschel, der spätere Ministerpräsident Schleswig-Holsteins, hatte Dönitz auf Anregung seines Geschichtslehrers Heinrich Kock eingeladen, vor Schülern der Klassen 9 bis 13 über das „Dritte Reich“ zu referieren. Die Schüler wurden von ihren Lehrern auf den Auftritt nicht vorbereitet. Daher gab es keine kritischen Nachfragen der Schüler und auch keine von den Lehrern. Nachdem die "Bergedorfer Zeitung" einen begeisterten Bericht über diesen "Geschichtsunterricht in höchster Vollendung" veröffentlicht hatte, griffen überörtliche und ausländische Medien den Fall auf. Die Kieler Landesregierung wurde auf einer Pressekonferenz mit starker Kritik an dem Vorgang konfrontiert. Nachdem ein Regierungsrat aus dem Kultusministerium die Schule am 8. Februar 1963 aufgesucht und mehrere Stunden mit dem Schulleiter Georg Rühsen (* 1906) gesprochen hatte, ertränkte sich dieser noch am selben Abend in der Elbe. Seine Leiche konnte erst am 25. April 1963 geborgen werden. Begräbnis. Als letzter deutscher Offizier im Feldmarschallsrang starb Dönitz 1980 im Alter von 89 Jahren und wurde auf dem Waldfriedhof von Aumühle-Wohltorf neben seiner Frau beerdigt. Obwohl Dönitz laut Zentraler Dienstvorschrift von Seiten der Bundeswehr sowohl nach Rang als auch aufgrund seines Ritterkreuzes ein Ehrengeleit zugestanden hätte, erging am 25. Dezember 1980 von Seiten des Bundesverteidigungsministeriums eine Anordnung, die Soldaten untersagte, in Uniform an der Beisetzung teilzunehmen, die ohne militärische Ehren zu erfolgen habe. Diese Entscheidung erzeugte eine Welle der Empörung, die sich gegen den Verteidigungsminister Hans Apel richtete. Der Vorgang, der zu dieser Entscheidung führte, die das Ministerium bereits lange vor Dönitz’ Tod getroffen hatte, reichte allerdings bis ins Jahr 1969 zurück, und wurde vom Generalinspekteur der Bundeswehr Ulrich de Maizière ausgelöst, der dem damaligen Verteidigungsminister Gerhard Schröder vorgeschlagen hatte, der Distanz der Bundeswehr gegenüber Dönitz im Falle von dessen Ableben durch den Verzicht auf Redebeiträge, Geleit und Kranzniederlegung Ausdruck zu verleihen. Den Einwänden und Abänderungsvorschlägen des ihm unterstellten Inspekteurs der Marine, Gert Jeschonnek, der sich für genau diese Ehrenbezeugungen aussprach, entgegnete de Maizière, man könne „den Soldaten Dönitz nicht von seinem politischen Verhalten um und nach dem 20. 7. 44 trennen“. Der Verteidigungsminister Helmut Schmidt stellte im Jahr 1971 die dementsprechend von Schröder formulierte Ansicht des Verteidigungsministeriums in dieser Angelegenheit nochmals klar und ging über de Maizières Vorschläge sogar hinaus, indem er aktiven Truppenvorgesetzten Redebeiträge im Rahmen einer Beisetzung Dönitz’ schlechthin untersagte. Bei dieser Haltung blieb Schmidt auch, als sich de Maizières Nachfolger Armin Zimmermann auf Anregung des nunmehrigen Inspekteurs der Marine und ehemaligen U-Boot-Offiziers Heinz Kühnle nochmals für eine Abmilderung dieser Entscheidung einsetzte. Prinzipiell beschied auch Schmidts Amtsnachfolger Georg Leber gegenüber Generalinspekteur Zimmermann ebenso, ließ aber von Kühnle einen Text ausarbeiten, der als Ansprache verlesen werden durfte, und formulierte eine Kranzwidmung. Dieser Sachstand wurde unter dem Nachfolger Zimmermanns, Jürgen Brandt, der laut seinem Marine-Inspekteur Hans-Rudolf Boehmer über Dönitz sagte, dieser sei „damals in Kiel schon ein Nazi gewesen und habe Nazi-Reden gehalten“, abgeändert und entsprechend von Apel entschieden. An der Trauerfeier in der Aumühler Bismarck-Gedächtnis-Kirche am 6. Januar 1981 nahmen 5000 Trauergäste teil, davon etwa 100 Ritterkreuzträger, die an der umgehängten Auszeichnung zu erkennen waren. Teilnehmer erkannten den ehemaligen Kommandanten des Führerbunkers Wilhelm Mohnke und Hans-Ulrich Rudel, der Autogramme verteilte. Im Anschluss an die Rede des Pastors sangen die Trauergäste die erste Strophe des Deutschlandliedes. In seinem Werk "Mein Jahrhundert" kommentierte der Autor Günter Grass das Ereignis in einer Zeichnung, die einen Sarg in der Form eines U-Bootes mit der Jahreszahl 1981 darstellt, der von Sargträgern mit Ritterkreuz und Marinemütze getragen wird. Beim Begräbnis waren auch einige Mitglieder diverser neonazistischer Bewegungen anwesend. An Dönitz’ Grab fanden wiederholt Ehrungen und Gedenkveranstaltungen rechtsextremer Organisationen statt, die NPD legte regelmäßig Kränze ab. Postum ließ Dönitz, wie Hans Neusel in einem am 2. Juni 2005 in der "Frankfurter Allgemeinen" veröffentlichten Leserbrief mitteilte, durch einen „Anwalt eine Art Testament an den damaligen Bundespräsidenten Carstens“ übermitteln. Angeblich 1975 – auf den Tag dreißig Jahre „nach dem Inkrafttreten der Kapitulation der Deutschen Wehrmacht“ – verfasst, hieß es darin: „Im Bewusstsein nicht endender Verantwortung, gegenüber dem Deutschen Volk, übertrage ich Inhalt und Aufgabe meines Amtes als letztes Staatsoberhaupt des Deutschen Reiches auf den Bundespräsidenten der Bundesrepublik Deutschland.“ Mythenbildung. Karl Dönitz war maßgeblich für den Versuch verantwortlich, die deutsche Niederlage im Zweiten Weltkrieg in einen moralischen Sieg umzudeuten und die Wehrmacht positiv darzustellen. Begonnen hatten er und seine Berater damit bereits unmittelbar nach der Übernahme der Staatsgewalt am 1. Mai 1945. Der letzte Wehrmachtbericht vom 9. Mai 1945 zeichnete das Bild einer makellosen und effizienten Wehrmacht, die einem übermächtigen Gegner erlegen sei. Die darin enthaltene Apologie wurde zum Ausgangspunkt der Legende der „sauberen Wehrmacht“. Da für Dönitz der Zweite Weltkrieg nicht aufgrund der Überlegenheit des Gegners, sondern aufgrund mangelnder nationaler Geschlossenheit des deutschen Volkes verloren worden war, belebte er zugleich den Mythos, der Zusammenbruch der „Heimatfront“ sei Ursache der Niederlage gewesen, und knüpfte an die Dolchstoßlegende vom Ende des Ersten Weltkriegs an. In der Rezeption der Ereignisse in Plön und Flensburg kurz vor Kriegsende wurde Dönitz teilweise als „Retter“ wahrgenommen, der die Kapitulation gegen den Willen Hitlers durchgesetzt habe. Dabei wurde nur bedingt erkannt, dass Dönitz zunächst noch bereit war, das hitlersche Untergangsszenario im Sinne des Prinzips von „Sieg oder Bolschewismus“ zu vollziehen. Begünstigt wurde die Legendenbildung durch die emotionale Bindung vieler Soldaten und Zivilisten, die in den letzten Kriegstagen durch die Marine über die Ostsee evakuiert worden waren. Bis in die Gegenwart gestehen breite Kreise der deutschen Öffentlichkeit Dönitz zu, sich bei der Evakuierung der Bevölkerung aus dem Osten vorbildlich verhalten zu haben. Die Landsmannschaft Ostpreußen etwa verlieh ihm 1975 dafür ihre höchste Auszeichnung, den „Preußenschild“. Dönitz’ Fortführung des Krieges in Richtung Westen wurde in der Rezeption als notwendig angesehen, um Zeit für die Evakuierung von Flüchtlingen aus dem Osten zu gewinnen. Übersehen wird dabei, dass Dönitz selbst die zunächst nur auf Soldaten ausgerichtete Rettungsoperation durch Treibstoffbeschränkungen eher behinderte, und dass Soldaten und Bevölkerung in den deutsch besetzten Gebieten weiter terrorisiert wurden. Die Verurteilung im Nürnberger Kriegsverbrecherprozess, die ausdrücklich nicht auf Dönitz’ „Verstöße[n] gegen die internationalen Bestimmungen für den U-Boot-Krieg“ fußte, leistete der Legendenbildung Vorschub. Da auch ehemalige Kriegsgegner, die ihre U-Boote in vergleichbarer Weise eingesetzt hatten, der deutschen Kriegsmarine attestierten, ehrenhaft gekämpft zu haben, wurde die Verurteilung Dönitz’ von den Angehörigen der Kriegsmarine als „Siegerjustiz“ gewertet. „Karl Dönitz wurde zum Märtyrer“, argumentiert Jörg Hillmann, „da er für die gesamte Kriegsmarine eine Schuld zu tragen hatte, die entweder ausschließlich in der Tatsache des verlorenen Krieges und/oder in der Nachfolge Adolf Hitlers begründet lag“. Traditionsverbände der Marine wie der Deutsche Marinebund beklagten in der Folge das „Martyrium“ Dönitz’, den sie nur als vorbildlichen Truppenführer wahrnahmen. Aber auch der kommissarische Leiter der Abteilung Marine, Karl-Adolf Zenker, erinnerte in seiner Ansprache gegenüber den ersten Freiwilligen der neugegründeten Bundesmarine am 16. Januar 1956 an die Großadmirale Raeder und Dönitz, die aus politischen Gründen zu Haftstrafen verurteilt worden seien. Zenkers Ehrenerklärung für Dönitz führte im April 1956 zu einer Großen Anfrage der Sozialdemokraten im Deutschen Bundestag und zu einem mit großer Mehrheit aus den Reihen von Regierung und Opposition gefassten Beschluss, dass die vermeintlichen militärischen Leistungen Dönitz’ nicht von seinem politischen Versagen als Oberbefehlshaber zu trennen seien. Indem aber in den zum Teil leidenschaftlich geführten Debatten Ereignisse und Personen des Ersten Weltkriegs als unbelastet dargestellt worden waren, wurde zugleich einer maritimen Verklärung Vorschub geleistet. Die maritime westdeutsche Solidargemeinschaft versuchte, so die Analyse Jörg Hillmanns, politische Funktionen und militärische Verhaltensweisen zu entkoppeln und die Großadmirale unter Hervorhebung militärischer Effizienz und soldatischer Tugenden mit der Kriegsmarine zu verbinden. Eine kritische Betrachtungsweise Dönitz’ wurde durch die Ehrenbezeugungen der früheren Feinde erschwert, die sich schon während des Krieges angedeutet hatten und bis zu Dönitz’ Tod anhielten. Der um Dönitz’ Rehabilitierung bemühte ultrarechte amerikanische Publizist H. Keith Thompson begann 1958 mit der Sammlung von Aussagen hoher Militärs zu Kriegsverbrecherprozessen allgemein und speziell Dönitz’ Verurteilung, die er per suggestiver Fragestellung als „gefährlichen Präzedenzfall“ wertete. Innerhalb eines Jahres hatte Thompson bereits 237 Stellungnahmen, neben denen von 115 Offizieren der Alliierten auch von Politikern und Privatpersonen, gesammelt. Thompson stellte bei seinen Bemühungen fest, dass insbesondere hohe Dienstgrade, wie zum Beispiel Joseph J. Clark, Jesse B. Oldendorf und H. Kent Hewitt, sich in erheblicherem Maße beteiligten als niedrigere und britische Offiziere deutlich weniger geneigt waren, zu seiner revisionistischen Sammlung beizutragen, als amerikanische. Thompsons Sammlung apologetischer Äußerungen von 385 hauptsächlich amerikanischen Offizieren, Politikern und prominenten Privatpersonen, die den Soldaten Dönitz lobten und den Nürnberger Prozess kritisierten, erschien 1976. Bereits zu Beginn seiner Sammlung hatte Thompson Kontakt zu Dönitz aufgenommen und ihm auch zahlreiche Stellungnahmen überlassen, die dieser für ein eigenes Buchprojekt zu nutzen plante. 1967 gab Dönitz einen Teil der Texte an Ewald Schmidt di Simoni weiter, mit der Bitte, deren möglichen publizistischen Wert zu prüfen. Von diesem oder von Dönitz selbst erhielt dessen Crewkamerad Maximilian Fels die Texte aus Thompsons Sammlung. Fels hatte anlässlich des Erscheinens von Dönitz’ Buch "Zehn Jahre und zwanzig Tage" einige ausschließlich britischen Urteile darüber in der Vereinszeitschrift des Deutschen Marinebundes veröffentlicht. Sieben Jahre später gab er eine Auswahl von 38 einseitig positiven, hauptsächlich amerikanischen Stimmen zu Dönitz im Charakter einer Festschrift unter dem Titel "Dönitz in Nürnberg und danach" heraus. Der 22-seitige Text ist gerahmt von Fels’ persönlichen Ansichten und einem langen Zitat einer Veröffentlichung Kranzbühlers, fand weite Verbreitung und findet sich auch heute noch in zahlreichen Nachlässen. Dönitz selbst verbreitete nach seiner Haftentlassung am 1. Oktober 1956 durch Bücher und Interviews seine Sicht der Ereignisse der Jahre 1935 bis 1945 und baute ein Bild des unpolitischen Berufsoffiziers auf, der für die Verbrechen des NS-Regimes keine Verantwortung trage. Dazu trug auch bei, dass einschlägiges Aktenmaterial der Forschung lange nicht zugänglich war, sodass Dönitz über einen Wissensvorsprung verfügte. Dönitz berief sich stets auf das Preußentum. Er kenne keinen individuellen Geist, sondern nur das preußische Gemeinschaftsgefühl. Hatte er die nationalsozialistische Volksgemeinschaft zuvor als unmittelbare Folge dieses preußischen Gemeinschaftsgefühls verstanden, so vermochte er das nationalsozialistische Gedankengut nach dem Krieg auszublenden und trotzdem mit Tugenden wie Pflichtbewusstsein, Verantwortungsgefühl und Treue das Bild eines tadelsfreien Offiziers zu stilisieren. Gegenüber Albert Speers gegenteiligen Aussagen bestand Dönitz darauf, dass jener Hitler dazu gebracht habe, ihn zum Nachfolger zu bestimmen, und betonte damit sein eigenes Opfer. Seine bedingungslose Gefolgschaft, seine antisemitischen Hetzkampagnen und Durchhalteparolen verschwieg er. „Karl Dönitz“, so folgert Jörg Hillmann, „hat sich selbst zum unpolitischen Opfer der NS-Diktatur stilisiert und sein Wirken als Oberbefehlshaber der Kriegsmarine ausschließlich als eine militärische Aufgabe, fernab des Regimes dargestellt und die besondere Bedeutung der U-Bootwaffe sowohl vor und während des Krieges, wie zum Kriegsende und in der Rezeptionsgeschichte vollkommen überbetont.“ Einen Wandel des Dönitz-Bildes löste Lars Bodenstein zufolge der Bestseller "Das Boot" von Lothar-Günther Buchheim aus, in dem Dönitz als inkompetenter Maulheld charakterisiert wird. Historische Forschung. Die Unterlagen der deutschen Marine wurden am Ende des Zweiten Weltkriegs zunächst von den Alliierten beschlagnahmt. Auch wenn Anfang der 1960er Jahre mit der Rückgabe der Akten begonnen wurde, erschwerte dieser Umstand die kritische Auseinandersetzung mit der Rolle Dönitz’ im Zweiten Weltkrieg. Die Memoirenliteratur im Nachkriegsdeutschland und die von Dönitz verfassten Autobiographien prägten das Bild einer Kriegsmarine und ihres Oberbefehlshabers, die vom Holocaust abgekoppelt schienen. Dönitz’ eigene Bücher enthalten wenig Persönliches, sondern sind vor allem Erzählungen seines Lebens in der Marine bis 1935 oder ausführliche Darstellungen des U-Boot-Krieges im Zweiten Weltkrieg. Er war zwar in größerem Maße selbst Autor als etwa Erich Raeder, dessen Erinnerungen von einem Autorenteam geschrieben wurden. Unterstützt wurde er aber bis zu seinem Tod von dem Historiker Jürgen Rohwer, einen ehemaligen Offizier der Kriegsmarine, den Dönitz bald nach Kriegsende kennengelernt hatte und der ihn in Fachfragen zum Seekrieg beriet. Die Zeitzeugengeneration tendierte dazu, eine emotionslose Operationsgeschichte zu verfassen, in der zwar jede militärische Operation im Detail untersucht und mit Operationen des Kriegsgegners verglichen wurde, die aber dadurch auch zur Relativierung tendierte und mit Glorifizierung und Heroisierung verknüpft war, indem handlungsleitende Motive auf soldatische Tugenden reduziert wurden. Die wissenschaftlichen Studien von Reimer Hansen und Marlis G. Steinert, die sich zum Teil schon in den 1960er Jahren kritisch mit der Regierung Dönitz befassten, blieben in der Öffentlichkeit weitgehend unbeachtet. Die von Fritz-Otto Busch (1963), Walter Görlitz (1972) und Karl Alman (d. i. Franz Kurowski) (1983) verfassten Biographien, aber auch die fast romanhaften Darstellungen des U-Boot-Krieges, etwa von Günter Böddeker, Jochen Brennecke, Harald Busch und Wolfgang Frank, genügen nicht wissenschaftlichen Ansprüchen. Die kritische Arbeit, die Bodo Herzog 1986 im "Jahrbuch des Instituts für Deutsche Geschichte" veröffentlichte, stützt sich auf historisch zweifelhafte Quellen, nämlich auf Aussagen ehemaliger U-Boot-Kommandanten, die 1981 in der Zeitschrift "konkret" veröffentlicht wurden und gegen Dönitz als Beispiel des angeblich in Westdeutschland vorherrschenden Militarismus polemisieren. Ungeachtet von Einwänden in Detailfragen gilt die von Peter Padfield verfasste Biographie (1984) als in weiten Teilen aussagekräftig. Als grundlegend zum Verständnis der Rolle Dönitz’ im Zweiten Weltkrieg gilt ferner die dreibändige Darstellung Michael Salewskis "Die deutsche Seekriegsleitung 1933–1945" (1970–1975). Jörg Hillmann konstatiert in diesem Zusammenhang eine sich auch anlässlich von Salewskis Darstellung zunehmend verhärtende Umgangsweise zwischen Zeitzeugen und Marine-Historikern. Dies habe die Aufarbeitung des U-Boot-Einsatzes im Zweiten Weltkrieg in den Folgejahren verhindert und sei stets in der Person Dönitz kulminiert. Zu einem neuen Dönitz-Bild trugen die Arbeit von Jost Dülffer, "Weimar, Hitler und die Marine" (1973), und die Beiträge Werner Rahns in der Publikation "Das Deutsche Reich und der Zweite Weltkrieg" bei. Herbert Kraus und Howard Grier beschäftigten sich mit Dönitz unter speziellen Fragestellungen. Eine Gesamtschau auf die Ereignisse des U-Boot-Krieges auf deutscher wie auf alliierter Seite unternahm Clay Blair (1996 u. 1998). Jörg Hillmann (2004 u. 2007) und Lars Bodenstein (2002) publizierten Arbeiten zum „Mythos“ Dönitz. Dieter Hartwig, Marinegeschichtslehrer an der Marineschule Mürwik und der Führungsakademie der Bundeswehr, hielt ab 1987 Vorträge über Dönitz und legte 2010 eine Veröffentlichung vor, in der er sich anhand thematischer Fragestellungen mit Dönitz beschäftigt. Filmische Bearbeitungen. In dem Zweiteiler "Laconia" (2011) wurde Karl Dönitz von Thomas Kretschmann dargestellt. Der Film thematisiert die Ereignisse, die zur Ausgabe des Laconia-Befehls führten. Köln. Blick über das Zentrum Kölns am späten Abend (August 2015) Köln ist mit mehr als einer Million Einwohnern die bevölkerungsreichste Stadt des Landes Nordrhein-Westfalen sowie die viertgrößte Kommune der Bundesrepublik Deutschland. Die Stadt gehört zum Regierungsbezirk Köln und zur Bonn. Die heutige Großstadt am Rhein wurde in römischer Zeit unter dem Namen "Oppidum Ubiorum" gegründet und im Jahr 50 n. Chr. als "Colonia Claudia Ara Agrippinensium" (kurz "CCAA") zur Stadt erhoben. Köln besitzt als Wirtschafts- und Kulturmetropole internationale Bedeutung und gilt als einer der führenden Standorte des weltweiten Kunsthandels. Die Karnevalshochburg ist außerdem Sitz vieler Verbände und Medienunternehmen mit zahlreichen Fernsehsendern, Musikproduzenten und Verlagshäusern. Darüber hinaus zählt sie vor allem aufgrund des Kölner Doms, einer über 2000-jährigen Stadtgeschichte, zahlreicher international bedeutender Veranstaltungen sowie ihrem kulturellen und kulinarischen Erbe zu den wichtigsten Reisezielen innerhalb Europas. Dank der Universität zu Köln (ca. 50.000 Studenten), der Technischen Hochschule Köln (ca. 25.000 Studenten) und zahlreicher weiterer Hochschulen stellt sie des Weiteren den größten Bildungs- und Forschungsstandort innerhalb der Metropolregion Rhein-Ruhr dar. Die günstige Lage am Rhein mit der Querung bedeutender West-Ost-Handelsstraßen und dem Sitz weltlicher sowie insbesondere kirchlicher Macht trugen im Heiligen Römischen Reich zur überregionalen Geltung Kölns bei. Als Hansestadt wurde sie durch Freihandel zu einem wichtigen Handelsstandort. Ihre Bedeutung als Verkehrsknotenpunkt zeigt heute der umfangreiche Schienenpersonenfernverkehr sowie der Bahnhof Eifeltor, der zu den größten Containerumschlagbahnhöfen für den Frachtverkehr gehört. Ergänzt wird die Infrastruktur durch vier Binnenhäfen und den Bonn. Geographische Lage und Klima. Das Stadtgebiet erstreckt sich über 405,17 km² (linksrheinisch 230,25 km², rechtsrheinisch 174,87 km²). Ein größeres Stadtgebiet haben in Deutschland die Stadtstaaten Berlin und Hamburg sowie vier Klein- und Mittelstädte in Sachsen-Anhalt und Brandenburg. Der topographische Referenzpunkt der Stadt, die Spitze des nördlichen Domturms, liegt auf 50° 56′ 33″ nördlicher Breite und 6° 57′ 32″ östlicher Länge. Der höchste Punkt liegt 118,04 Meter (Monte Troodelöh im Königsforst); der niedrigste 37,5 Meter (im Worringer Bruch) über dem Meeresspiegel. Köln liegt im Großraum der Übergangszone vom gemäßigten Seeklima zum Kontinentalklima mit milden Wintern (Januarmittel: 2,4 °C) und mäßig warmen Sommern (Julimittel: 18,3 °C). Die mittleren Jahresniederschläge betragen 798 Millimeter, liegen damit im Deutschlandmittel und wesentlich höher als im westlich angrenzenden Rhein-Erft-Kreis (Erftstadt-Bliesheim: 631 mm) oder der Jülich-Zülpicher Börde (Zülpich: 582 mm), was bei Pendlern den Eindruck eines „Regenlochs“ erweckt. Laut Eurostat war Köln mit 263 Regentagen (Bezugsjahr 2004) die europäische Stadt mit den zweitmeisten Regentagen, 2001 dagegen lag Köln mit 206 im Mittelfeld von 40 deutschen Städten (Durchschnitt: 194 Regentage). Geologie. Köln liegt am Südrand der Niederrheinischen Bucht zum größten Teil im Bereich der Niederterrassen, die vom Rhein aus terrassenartig leicht ansteigen. Der geologische Unterbau wird im Stadtgebiet aus bis zu 35 Meter mächtigen Ablagerungen des Eiszeitalters (Quartär) gebildet. Sie bestehen aus Kiesen und Sanden des Rhein-Maas-Systems. Ausläufer des Rheinischen Braunkohlereviers reichen bis Köln-Kalk: Um 1860 wurde dort das Braunkohlenbergwerk Gewerkschaft Neu-Deutz gegründet. Auf dem Gelände befindet sich heute die Brauerei der Gebrüder Sünner, die das in den Stollen eindringende Grundwasser verwenden konnte. Im tieferen Untergrund folgen Schichten des Tertiär und des Devon. Die Bodenbeschaffenheit ist geprägt durch die fruchtbaren Böden der Schwemmland-Ebene am Rhein. In den westlichen Stadtteilen werden sie von Löss überdeckt, der zu ertragreichen, ackerbaulich genutzten Lehmböden (Parabraunerden) verwittert ist. Sie sind oft mit fruchtbaren Kolluvien vergesellschaftet, die in Senken aus abgeschwemmtem Bodenmaterial entstanden. In der östlich anschließenden Rheinebene, die durch verlandete Altarme gegliedert wird, lagerte der Rhein zum Ende der letzten Eiszeit sandige bis lehmige Sedimente ab. Daraus bildeten sich ertragreiche Parabraunerden und Braunerden, die ebenfalls ackerbaulich genutzt werden. In der Rheinaue entstanden durch periodische Überflutungen aus angeschwemmtem Bodenmaterial fruchtbare Braune Auenböden. Der äußerste Osten des Stadtgebietes zählt bereits zum Sockel des rheinischen Schiefergebirges. Hier sind geologisch ältere Terrassensande und Flugsande verbreitet, aus denen meist ärmere Braunerden, saure Podsol-Braunerden und bei dichtem Untergrund staunasse Pseudogleye hervorgingen. Diese eher minderwertigen Böden werden als Heiden beziehungsweise waldwirtschaftlich genutzt. An Bachläufen und in Rinnen bildeten sich dort ebenso wie in der Rheinaue Grundwasser beeinflusste Gleye. Die Verschiedenheiten in Mikroklima und Bodenbeschaffenheit sind durch die große Fläche der Stadt erklärbar. Durch tektonische Bewegungen des Rheingraben-Bruchs entstanden um Köln ausgeprägte Geländekanten, wie etwa die Ville bei Frechen. Unmittelbar westlich davon schließt sich Deutschlands aktivste Erdbebenzone an, deren Epizentrum im Kreis Düren liegt. Zur Erdbebenvorsorge wurde 2006 von der Abteilung Erdbebengeologie der Universität zu Köln ein Messnetz mit 19 „Strong-motion“-Stationen zwischen Aachen, Bensberg, Meckenheim und Viersen installiert. Mehrmals im Monat ereignen sich in der Kölner Bucht Mikroerdbeben, die nicht wahrnehmbar sind, zum Beispiel am 3. März 2010 um 16:45 Uhr (Stärke 1,6 nach der Richterskala) in zehn Kilometer Tiefe bei Mützenich in der Eifel. Köln und der Rhein. Der Rhein, nach dem Austritt aus dem südlich von Köln gelegenen Schiefergebirge als Niederrhein bezeichnet, tritt bei Godorf in die Stadt ein und verlässt sie bei Worringen. Das Gefälle des Rheins beträgt etwa 0,2 Promille. Sein aktueller Pegel lässt sich an der Pegeluhr des Pegel Köln ablesen. Der Normalpegel beträgt 3,48 Meter. Mehrfach war Köln von Hochwassern des Rheins betroffen. Das schlimmste aufgezeichnete Hochwasser ereignete sich im Februar 1784, als nach dem extrem langen und kalten 84 ein Temperatursprung einsetzte. Der Rhein war zu diesem Zeitpunkt fest zugefroren und die Schneeschmelze sowie das aufbrechende Eis sorgten für einen Rekordpegel von 13,55 Meter. Die Fluten, auf denen schwere Eisschollen trieben, verwüsteten weite Teile der Uferbebauung und alle Schiffe. Einzelne Gebäude, darunter Befestigungsbauten, stürzten aufgrund des Schollengangs ein; es gab 65 Tote. Die rechtsrheinisch gelegene bergische Kreisstadt Mülheim am Rhein, heute ein Kölner Stadtteil, wurde vollständig zerstört. Im 20. Jahrhundert erreichten die drei Jahrhunderthochwasser von 1926, 1993 und 1995 Pegelstände von bis zu 10,69 Meter. Seit 2005 wird ein Hochwasserschutzkonzept umgesetzt, das durch feste oder mobile Wände die Stadt bis zu einem Pegelstand von 11,90 Metern schützt. Mehrfach führte der Rhein Niedrigwasser. Am 20. September 2003 um 8 Uhr erreichte der Rhein am Pegel Köln die Marke von 0,80 Meter. Damit wurde der niedrigste aufgezeichnete Wert aus dem Jahr 1947 unterschritten. Jedoch bedeutet der Pegel 0,00 Meter, dass die 150 Meter breite Fahrrinne in der Mitte des Flusses noch einen Meter Wassertiefe hat. Die Binnenschifffahrt musste starke Einschränkungen hinnehmen und wurde nicht, wie auf der Elbe, ganz eingestellt. 0,80 m (niedrigster Wasserstand): 630 m³/s; 3,48 m (Normalwasserstand): 2000 m³/s; 6,20 m (Hochwassermarke I): 4.700 m³/s; 8,30 m (Hochwassermarke II): 7200 m³/s; 10,0 m (Hochwasserschutz in Altstadt, Rodenkirchen und Zündorf): 9700 m³/s; 10,69 m (Hochwasser im Januar 1995): 11.500 m³/s. Nachbargemeinden. Leverkusen (kreisfreie Stadt), Bergisch Gladbach und Rösrath (Rheinisch-Bergischer Kreis), Troisdorf und Niederkassel (Rhein-Sieg-Kreis), Wesseling, Brühl, Hürth, Frechen und Pulheim (alle Rhein-Erft-Kreis), Dormagen (Rhein-Kreis Neuss) und Monheim (Kreis Mettmann). Die Stadt Wesseling war zum 1. Januar 1975 nach Köln eingemeindet worden, erhielt nach einem Gerichtsentscheid am 1. Juli 1976 ihre Selbständigkeit zurück. 63,1 Prozent aller Einwohner der Stadt Köln wohnen linksrheinisch (Stand 2012). Da das historische Stadtzentrum linksrheinisch liegt, wird die rechte Rheinseite mundartlich herablassend als „Schäl Sick“ bezeichnet. Flora und Fauna. Köln verfügt über ausgedehnte Grünflächen, die im städtischen Bereich als Parks gestaltet, in den Außenbezirken zumeist bewirtschaftete Forste sind. Daneben gibt es 22 Naturschutzgebiete, beispielsweise der Worringer Bruch im äußersten linksrheinischen Norden Kölns, ein ehemaliger, heute verlandeter Seitenarm des Rheins. Er bietet eine Heimat für seltene Tier- und Pflanzenarten und eine charakteristische Auen- und Waldlandschaft. Rechtsrheinisch finden sich hauptsächlich offene Wald- und Heidelandschaften wie beispielsweise die Wahner Heide, das Naturschutzgebiet Königsforst und der Dünnwalder Wald. Insgesamt hat Köln von allen Großstädten des Landes Nordrhein-Westfalen mit etwa 6000 Hektar Wald (15 % des Stadtgebiets) die größte Waldfläche und in Bezug auf die Einwohnerzahl die höchste Walddichte. Die Fauna weist eine sehr hohe Zahl an Kulturfolgern auf. Neben Tauben, Mäusen und Ratten, die allgegenwärtig sind und oft als Plage wahrgenommen werden, sind Rotfüchse in bedeutender Zahl in das Stadtgebiet eingewandert. Sie sind mittlerweile in der Innenstadt zu finden, in der sie Kleingärten und Parks als Revier nutzen. Der durch Köln fließende Rhein ist infolge der Verbesserung der Wasserqualität wieder Heimat vieler ehemals vorhandener und neu eingewanderter Arten geworden. In den Kölner Grünanlagen haben sich, begünstigt durch das milde Klima, diverse nicht einheimische Tiere angesiedelt. Größere Populationen von Halsbandsittichen und dem Großen Alexandersittich leben unter anderem auf dem Melaten-Friedhof und dem Gelände der Riehler Heimstätten. Ursprünglich aus asiatischen Bergregionen (Indien, Afghanistan) für die Zoo- und Wohnungshaltung nach Deutschland eingeführt, haben sich diese Papageien/Sittiche als Neozoen etabliert. Die Angaben über die Größe der Populationen reichen von einigen 100 Exemplaren bis zu über 1000 Stück. Geschichte. Colonia Claudia Ara Agrippinensium, Rekonstruktion des römischen Köln, 3. Jahrhundert Der Name Köln, zur Römerzeit Colonia Claudia Ara Agrippinensium (CCAA), geht auf die römische Kaiserin Agrippina zurück. Die Gattin von Claudius war am Rhein geboren und ließ das "Oppidum Ubiorum" (Ubiersiedlung) im Jahre 50 n. Chr. zur Stadt erheben; die Stadtrechte wurden offiziell am 8. Juli 50 verliehen. In der Römerzeit war es Statthaltersitz der Provinz Germania inferior. Um 80 n. Chr. erhielt Köln mit der Eifelwasserleitung einen der längsten römischen Aquädukte überhaupt. Aus dem lateinischen "Colonia," das in den meisten romanischen und einer größeren Zahl anderer Sprachen weiterhin als Name für Köln fungiert (beispielsweise italienisch und spanisch "Colonia," portugiesisch "Colônia," katalanisch "Colònia," polnisch "Kolonia," türkisch "Kolonya," arabisch "كولونيا" beziehungsweise "Kulunia"; niederländisch "Keulen"), entwickelte sich über "Coellen, Cöllen, Cölln" und "Cöln" der heutige Name "Köln" (siehe Abschnitt französische und preußische Herrschaft). Im Kölner Dialekt Kölsch wird die Stadt "Kölle" genannt. Frühmittelalter. Im Frühmittelalter war Köln eine bedeutende Stadt. Um das Jahr 455 eroberten die Franken die zuvor römische Stadt. Bis Anfang des 6. Jahrhunderts war Köln Hauptort eines selbständigen fränkischen Teilkönigreiches, ging anschließend im Reich Chlodwigs I. auf, bewahrte sich starke Eigenständigkeit im Gebiet der Ripuarier. Die romanische Bevölkerung lebte lange Zeit parallel zu den fränkischen Eroberern in der Stadt. Im Laufe des 6. bis 8. Jahrhunderts kam es zu einer vollständigen Akkulturation zwischen den beiden Bevölkerungsteilen. Die wechselseitige Beeinflussung der fränkischen und lateinischen Dialekte ist anhand von Quellen nachweisbar. Die Franken übernahmen rasch kulturelle Errungenschaften der römischen Stadtbevölkerung, zum Beispiel im Bereich der Bautechnik oder der Glasherstellung. Gegen Ende der Merowingerzeit war Köln Residenzstadt. Spätestens ab karolingischer Zeit war der Bischof beziehungsweise Erzbischof von Köln eine der bedeutendsten Personen im Reich. 862 wurde Köln das erste Mal von Wikingern überfallen, die auf Schiffen anreisten. Es kam zu Verwüstungen und Plünderungen. Die Wikinger siedelten sich nachfolgend an Waal und Lek dauerhaft an, und es entstand ein reges Handelswesen zwischen den Normannen und den Rheinländern. Im Winter 881 endete die friedliche Zeit. Die Wikinger fielen in das Maasgebiet ein und plünderten zahlreiche Ortschaften und Städte. Ende Dezember tauchten mindestens drei ihrer Schiffe vor Köln auf und die nordischen Krieger verlangten Wegegeld. Im Januar 882 zahlte Köln nach zähen Verhandlungen ein hohes Danegeld in Silber an die Normannen. Die Stadt wurde deshalb zunächst verschont. Die Wikinger fuhren dann im Februar den Rhein aufwärts, plünderten und brandschatzten Bonn, Andernach und Trier. Auf der Rückreise oder während ihres Sommerfeldzuges 882 forderte die Raubhorde von den Kölnern erneutes Danegeld, das die ausgepressten Kölner nicht aufbringen konnten. Ihre Stadt wurde daraufhin ebenfalls gebrandschatzt. Nach der Verwüstung verstärkten die Kölner die maroden Mauern aus der Römerzeit, was sich im folgenden Jahr, 883, beim nächsten Wikingerbesuch als sehr nützlich erwies. Denn Köln ging in diesem Jahr, anders als die soeben wieder errichteten Städte Bonn und Andernach, nicht in Flammen auf. Unter den Ottonen spielte Köln eine wichtige Rolle bei der Annäherung des ostfränkisch-deutschen Reichs an das Byzantinische Reich, seit die Kaiserin Theophanu, gebürtige Griechin und Gattin Ottos II., dort als Reichsverweserin residierte. Ab dem 10. Jahrhundert setzte eine Serie von Stiftsgründungen ein, die romanische Kirchenbauten hervorbrachten. In der Folge errang Köln unter der Führung bedeutender und politisch versierter Erzbischöfe einen unangefochtenen Rang als geistliches Zentrum. Der Erzbischof von Köln war Kurfürst des Mitte des 10. Jahrhunderts gegründeten Erzstiftes und Kurfürstentums Köln. Die Überführung der Gebeine der Heiligen drei Könige von Mailand nach Köln durch Erzbischof Rainald von Dassel im Jahr 1164 machte die Stadt zu einem wichtigen Ziel für Pilger. Größte Stadt im mittelalterlichen Deutschland. Köln wurde im Hochmittelalter mit etwa 40.000 Einwohnern größte Stadt des deutschsprachigen Raums, sodass ihre Stadtbefestigungen mehrfach erweitert werden mussten. Ab dem Jahre 1180 (Urkunden vom 27. Juli und 18. August 1180) wurde die damals längste Stadtmauer mit zwölf Torburgen und 52 Wehrtürmen in der Ringmauer, 22 Pforten und kleinen Toren in der Rheinmauer gebaut und etwa 1250 fertiggestellt. Sie war gewaltiger als die fast zur gleichen Zeit errichtete Mauer König Philipps II. Augustus in Paris und 7,5 km lang. Die zwölf Tore - sieben gewaltige Doppelturmtorburgen, (davon erhalten das Eigelsteintor und Hahnentor), drei riesige Turmtorburgen, (davon erhalten das Severinstor), und zwei kleinere Doppelturmpforten (siehe Ulrepforte) – in die halbkreisförmige Stadtmauer integriert – sollten an das "himmlische Jerusalem" erinnern. Seit dem 12. Jahrhundert führte Köln neben Jerusalem, Konstantinopel und Rom die Bezeichnung "Sancta" im Stadtnamen: "Sancta Colonia Dei Gratia Romanae Ecclesiae Fidelis Filia" – "Heiliges Köln von Gottes Gnaden, der römischen Kirche getreue Tochter." Der Name "Dat hillige Coellen" oder die "hillige Stat van Coellen" war ein Begriff dieser Zeit. Noch heute heißt Köln im Volksmund „et hillije Kölle“. Es wurde beschlossen, ein unerreicht großes und beeindruckendes Gotteshaus zu errichten, um den Reliquien einen angemessenen Rahmen zu geben. Die Grundsteinlegung des Kölner Domes erfolgte 1248. Spätmittelalterliches Köln. Am 7. Mai 1259 erhielt Köln das Stapelrecht, das den Kölner Bürgern ein Vorkaufsrecht aller auf dem Rhein transportierten Waren sicherte und so zum Wohlstand der Stadt beitrug. Die jahrelangen Kämpfe der Kölner Erzbischöfe mit den Patriziern endeten 1288 vorläufig durch die Schlacht von Worringen, bei der das Heer des Erzbischofs Siegfried von Westerburg (1275–1297) gegen das des Grafen Adolf V. von Berg und der Kölner Bürger unterlag. Fortan gehörte die Stadt nicht mehr zum Erzstift, und der Erzbischof durfte sie nur noch zu religiösen Handlungen betreten. Die offizielle Erhebung zur Freien Reichsstadt dauerte allerdings noch bis 1475. Die Auseinandersetzungen zwischen dem patrizischen Rat und den nicht im Rat vertretenen Zünften führte am 20. November 1371 zum blutigen Kölner Weberaufstand. Gotisches Siegel der Stadt Köln (1396) 1396 wurde durch eine unblutige Revolution die Patrizierherrschaft in Köln endgültig beendet. An ihre Stelle trat eine ständische Verfassung, die sich auf die Organisation der Gaffeln stützt. Vorausgegangen war eine Auseinandersetzung innerhalb des kölnischen Patriziats, bei dem die Partei der "Greifen" mit ihrem Führer Hilger Quattermart von der Stesse von der Partei der "Freunde" des Konstantin von Lyskirchen entmachtet wurde. Hilger Quattermarts Verwandter Heinrich von Stave wurde am 11. Januar 1396 auf dem Neumarkt hingerichtet, viele der "Greifen" wurden zu lebenslanger Kerkerhaft verurteilt. Am 18. Juni 1396 versuchte Konstantin von Lyskirchen, alte patrizische Rechte wiederherzustellen. Die dagegen protestierenden Handwerker- und Kaufleutezünfte wurden von ihm „vom hohen Ross herab“ nach Hause geschickt. Daraufhin nahmen die Zünfte die "Freunde" in ihrem Versammlungsraum gefangen. Die "Greifen" wurden befreit. Am 24. Juni 1396 trat ein 48-köpfiger provisorischer Rat aus Kaufleuten, Grundbesitzern und Handwerkern zusammen. Der Stadtschreiber Gerlach von Hauwe formulierte daraufhin den so genannten Verbundbrief, der am 14. September 1396 von den 22 so genannten Gaffeln unterzeichnet und in Kraft gesetzt wurde. Die Gaffeln sind heterogen zusammengesetzt. In ihnen sind die entmachteten Patrizier, Ämter, Zünfte und Einzelpersonen zusammengefasst, hingegen nicht die zahlenmäßig sehr starke Geistlichkeit; jeder kölnische Bürger musste einer Gaffel beitreten. Der Verbundbrief konstituierte einen 49-köpfigen Rat, mit 36 Ratsherren aus den Gaffeln und 13 Gebrechtsherren, die berufen wurden. Der Verbundbrief blieb bis zum Ende der Freien Reichsstadt 1794 in Kraft. Frühe Neuzeit. a> Ausschnitt von der Waschpforte bis zum Frankenturm Ab 1500 gehörte Köln zum neu geschaffenen Niederrheinisch-Westfälischen Reichskreis, das Umland (Kurköln) hingegen zum 1512 neu geschaffenen Kurrheinischen Reichskreis. 1582 sagte sich der Kölner Erzbischof Gebhard Truchsess von Waldburg von der katholischen Kirche los, proklamierte die Gleichstellung von Katholizismus und Protestantismus in seinem Herrschaftsgebiet und heiratete später die protestantische Stiftsdame Agnes von Mansfeld. Da er sich jedoch weigerte, die im Augsburger Religionsfrieden von 1555 verankerte Klausel des „geistlichen Vorbehalts“ (einer Ausnahme des ansonsten geltenden, im Vertragswerk festgelegten Grundsatzes „cuius regio, eius religio“) auf sich anzuwenden und somit entsprechend der Klausel auf das ihm übertragene Amt des Kölner Erzbischofs - immerhin einer von drei mit der Kurwürde ausgestatteten Fürstbischöfen des Reichs und als solcher zugleich in Personalunion Reichserzkanzler von Reichsitalien - zu verzichten, wurde er von Papst Gregor XIII. exkommuniziert und der verlässliche katholische Ernst von Bayern, der bei der Wahl Gebhards zum Kölner Erzbischof unterlegen gewesen war, zu seinem Nachfolger bestimmt. Hätte Gebhard Truchsess von Waldburg seinen Plan verwirklichen können, wäre zudem die katholische Mehrheit im Kurfürstenkollegium gebrochen gewesen. Da er entgegen den Reichstagsbeschlüssen auf seiner Position verharrte, kam es zum Truchsessischen Krieg "(Kölner Krieg)", der von 1583 bis 1588 dauerte und in dessen Verlauf Deutz, Bonn und Neuss verwüstet wurden. Der Krieg gab in seiner Zerstörungskraft einen Vorgeschmack auf die kommenden konfessionellen Auseinandersetzungen im Heiligen Römischen Reich. Der Dreißigjährige Krieg ließ die Stadt unversehrt. Das lag zum Teil daran, dass sich die Stadt durch Geldzahlungen an heranziehende Truppen von Belagerungen und Eroberungen freikaufte. Köln verdiente an dem Krieg durch Waffenproduktion und -handel prächtig. Köln wird zum Fluchtzentrum für hohe Katholikenführer, die von Köln aus versuchen, die gegen Schweden oder andere protestantische Mächte verlorenen Gebiete zurückzuerobern. Außerdem sind reiche Kölner Geschäftsleute als hohe Kreditgeber an die katholischen Mächte in den Dreißigjährigen Krieg verwickelt – ganz im Sinne des Vatikans. Bis auf Deutz gehörten die rechtsrheinischen Stadtbezirke Kölns bis 1802 zum Herzogtum Berg. Das Gebiet innerhalb des Bischofswegs, was in etwa den heutigen vier Stadtteilen zu Alt- und Neustadt entspricht, bildete die Freie Reichsstadt Köln. Die übrigen Stadtbezirke waren Teil des Kurfürstlichen Erzstifts Köln. Französische Herrschaft. Mit dem Einzug der französischen Truppen am 6. Oktober 1794 während der Koalitionskriege endete die Geschichte der freien Reichsstadt. Die Stadt, die versucht hatte, neutral zu bleiben, wurde kampflos an den Befehlshaber des linken Flügels der Rheinarmee, Jean-Étienne Championnet, übergeben. Wie das gesamte linksrheinische Gebiet wurde die Stadt Bestandteil der französischen Republik und 1798 in das Département de la Roer eingegliedert, dessen Hauptstadt nicht Köln, sondern Aachen wurde. Köln wurde Sitz eines Unterpräfekten des Arrondissement de Cologne. Viele Kölner Bürger begrüßten die französischen Revolutionstruppen als Befreier, am Neumarkt wurde ein Freiheitsbaum errichtet. Die bis dahin benachteiligten Juden und protestantischen Christen wurden gleichgestellt. Trotz der oft drückenden Kontributionen blieben die Bürger loyal zum Kaiserreich Napoleons. Bei seinem Besuch der Stadt am 13. September 1804 wurde er begeistert empfangen. 1812 wurde der Stadt der Titel einer "Bonne ville de l’Empire français" verliehen. Preußische Herrschaft, Schreibweise „Cöln“. 1815 wurde das Rheinland mit der Stadt Köln nach den Befreiungskriegen infolge des Wiener Kongresses Teil des Königreichs Preußen. Die fortifikatorische Entwicklung der Stadt Köln bis zum preußischen Festungsring Ende des 19. Jahrhunderts wurde die Stadt durch Kauf und Schleifung der Stadtmauer, Wälle und Bastionen in den Festungsrayon erweitert. Begrenzt wurde die Stadt durch den Festungsring Köln. Die Besiedlung der Neustadt (Köln-Neustadt-Nord, Köln-Neustadt-Süd) stellte den Kontakt zu den schnell wachsenden Umlandgemeinden her und schuf die Voraussetzung für deren Eingemeindungen. Vom Abriss der alten Stadtmauer blieben nur wenige exemplarische Bauwerke aufgrund einer Intervention des preußischen Kulturministeriums verschont. 20. Jahrhundert. 1915 wurde in Köln anlässlich des Ersten Weltkriegs ein so genanntes Nagelbild aufgestellt, Dä kölsche Boor en Iser. Die Figur gilt als eine der künstlerisch wertvollsten in Deutschland und befindet sich heute im Kölner Stadtmuseum. a>, auf der Rückseite das Historische Rathaus Kölns Zerstörte Gebäude nach einem Bombenangriff im Dezember 1943; im Hintergrund der Dom Am 28. September 1917 wurde Konrad Adenauer erstmals zum Kölner Oberbürgermeister gewählt. In seine Amtszeit fallen unter anderem die Anerkennung der größten Musikhochschule Deutschlands am 5. Oktober 1925 und die Ansiedlung des damals größten Arbeitgebers in Köln, den Ford-Werken, am 18. Oktober 1929. Köln litt – wie die ganze Weimarer Republik – unter einer Inflation der Jahre bis 1923. Nach 23 kam es zu einer Währungsreform: zunächst wurde die Rentenmark und Ende August 1924 die Reichsmark eingeführt. Wie vielerorts gab es in Köln lokales Notgeld. Unter der Weltwirtschaftskrise ab Herbst 1929 litt Köln. Im Mai 1931 begann in ganz Mitteleuropa eine Banken- und Finanzkrise. Köln in der Zeit des Nationalsozialismus. Bei der Reichstagswahl am 5. März 1933 erzielte die NSDAP im Wahlkreis Köln-Aachen 30 % (Zentrum 35,9 %); am 6. November 1932 waren es erst 17,4 % gewesen (Zentrum 39,3 %). Adenauer wurde nach der Machtergreifung der Nationalsozialisten am 13. März 1933 beurlaubt und am 17. Juli 1933 endgültig aus seinem Amt entlassen. Im Zweiten Weltkrieg fielen die ersten Bomben am 18. Juni 1940 auf Köln. Das britische RAF Bomber Command intensivierte ab 1942 den Luftkrieg. Köln war Ende Mai 1942 das Ziel des ersten Angriffs mit über 1000 Bombern - der „Operation Millennium“. Am 29. Juni 1943 wurde die Stadt nachts durch Maschinen der Royal Air Force und tagsüber von Bombern der USAAF schwer getroffen, durch die Flächenbombardements war die Innenstadt nun zu über 90 Prozent zerstört; dabei wurde der Kölner Dom schwer beschädigt. Am 2. März 1945, wenige Tage vor dem Einmarsch der US-Armee, gab es einen letzten Luftangriff auf die Stadt am Rhein. Die Einwohnerzahl von Köln sank von über 772.000 (Mai 1939) bis Kriegsende auf rund 104.000 Einwohner (42.000 linksrheinisch am 4. April 1945, 62.000 rechtsrheinisch am 5. Mai 1945; 491.380 bei der ersten Volkszählung nach dem Krieg am 29. Oktober 1946), die nach dem Einmarsch der US-Truppen am 4. März 1945 registriert wurden. Die 1. US-Armee erreichte Köln im Rahmen der Operation Lumberjack am 5. März. Im Zuge der Endphaseverbrechen wurden von Januar bis März 1945 in Köln 1800 in- und ausländische Widerstandskämpfer und etwa 8000 jüdische Kölner von den Nationalsozialisten ermordet. Köln nach dem Krieg. Erst im Verlauf des Jahres 1959 erreichte die Bevölkerungszahl Kölns wieder den Stand vom Mai 1939. Mit der durch das Köln-Gesetz 1975 durchgeführten Gebietsreform überschritt die Einwohnerzahl die Millionengrenze und Köln wurde neben West-Berlin, Hamburg und München zur vierten Millionenstadt Deutschlands. Nach der Wiederausgliederung Wesselings am 1. Juli 1976 lag die Einwohnerzahl jedoch bis zum Mai 2010 wieder unter einer Million. Religionen. Historisch ist Köln wie das gesamte Rheinland, abgesehen von Teilen des Bergischen Landes und einigen Städten am Niederrhein (Duisburg, Moers), katholisch geprägt; so waren Ende 2014 36,3 Prozent der Einwohner katholisch, 15,9 Prozent evangelisch und mit 47,8 Prozent die größte Gruppe sind konfessionsloss oder Anhänger einer anderen Religion. Christentum. Spätestens seit dem Jahr 313 ist Köln Bischofssitz (Erzbistum Köln). Die Bischofskirche dieser Zeit ist nicht bekannt. Der Kölner Dom gilt erst seit der Gotik als das prägende Wahrzeichen der Stadt. Die romanische Kirche des Benediktinerklosters Groß St. Martin und der Rathausturm bestimmten bis zur Fertigstellung des Domes im deutschen Kaiserreich die Silhouette der Stadt maßgeblich mit. Köln hatte nach der Überführung der mutmaßlichen Gebeine der "Heiligen Drei Könige" am 23. Juli 1164 schnell den Rang als einer der wichtigsten Wallfahrtsorte im Heiligen Römischen Reich Deutscher Nation inne. Die erste Reise der frisch gekrönten Kaiser und Könige führte von Aachen an den Dreikönigenschrein, den Erzbischof Philipp I. von Heinsberg für die Gebeine anfertigen ließ. Die Pilgermassen brachten viel Geld mit in die Stadt, was zu einer verstärkten Ansiedlung und einem sprunghaften Anstieg der Stadtbevölkerung führte. Die Nachfolger Philipp I. von Heinsbergs ließen ab 1248 einen neuen Dom bauen, dessen Errichtung aufgrund von Streitigkeiten mit dem Stadtrat und der darauf folgenden Vertreibung des Fürstbischofs aus Köln immer langsamer voranging und schließlich völlig zum Erliegen kam. Köln entwickelte sich im Mittelalter zu einem Zentrum des Reliquienhandels, da die mittelalterlichen Menschen hofften, durch den Besitz eines heiligen Gegenstandes oder Knochen einer oder eines Heiligen der Erlösung näher zu kommen. Diese Bedeutung der Stadt brachte ihr den Namen „heiliges Köln“ ein. Die Bedeutung der Religion zeigt sich im Stadtwappen, auf dem die drei Kronen der Heiligen Drei Könige und die elf Flammen der heiligen Ursula von Köln und ihrer Gefährtinnen, die in Köln den Märtyrertod erlitten haben sollen, dargestellt sind. Neuzeit. Einer der zahlreichen Höhepunkte in der jahrtausendelangen christlichen Geschichte Kölns war der 20. Weltjugendtag vom 15. August bis 21. August 2005. Rund 26.000 Freiwillige aus 160 Staaten begrüßten Gäste aus 196 Staaten in den Städten Köln, Bonn und Düsseldorf. Zu diesem Großereignis der „jungen katholischen Kirche“ waren bis zur Abschlussmesse auf dem Marienfeld, einem stillgelegten Tagebau nahe dem Vorort Frechen, über eine Million Menschen im Kölner Großraum. Papst Benedikt XVI. unternahm zu diesem Anlass seine erste Pontifikalreise nach seiner Amtseinführung und besuchte die Stadt vom 18. August bis 21. August. Bei dieser Gelegenheit bestätigte er den Titel „heiliges Köln“. Köln war vom 6. bis 10. Juni 2007 zum zweiten Mal nach 1965 Gastgeberin für den 31. Deutschen Evangelischen Kirchentag mit etwa 160.000 Teilnehmern. Der Evangelische Kirchenkreis Köln und Region umfasst 299.000 Protestanten gegenüber 420.000 Katholiken allein im Stadtkreis. Judentum. Kölner Synagoge in der Roonstraße, Oktober 2006 Die jüdische Gemeinde in Köln ist die älteste nördlich der Alpen. Sie bestand schon 321 zur Zeit von Kaiser Konstantin. Demnach muss es eine ältere Kölner Synagoge gegeben haben. 1183 wies der Erzbischof den Juden ein eigenes Gebiet zu, in dem sie einigermaßen in Frieden leben konnten. Dieses Viertel in der Altstadt, das mit eigenen Toren geschlossen werden konnte, war umrissen von der Portalgasse, der Judengasse, Unter Goldschmied und Obenmarspforten. Es war ausschließlich den Juden vorbehalten. Damit war das erste Ghetto in Köln geschaffen. Die unter dem Rathausvorplatz liegende Mikwe kann über einen separaten Zugang besichtigt werden. In der Bartholomäusnacht 1349 kam es zu einem Pogrom, der als „Judenschlacht“ in die Stadtgeschichte einging. Ein aufgebrachter Mob drang in das Judenviertel ein und ermordete die meisten Bewohner. In dieser Nacht vergrub eine Familie hier ihr Hab und Gut. Der Münzschatz wurde bei Ausgrabungen 1954 entdeckt und ist im Stadtmuseum ausgestellt. 1424 wurden die Juden "„auf alle Ewigkeit“" aus der Stadt verbannt. Zwischen 1424 und dem Ende des 18. Jahrhunderts durfte sich ohne Erlaubnis des Kölner Rats kein Jude in der Stadt aufhalten. Nach dem Einzug der französischen Revolutionsarmee wurden die jüdischen und protestantischen Bürger den katholischen gleichgestellt. Erst 1801 entstand unter französischer Verwaltung eine neue jüdische Gemeinde. Bis 1933 lebten wieder rund 18.000 Juden in Köln. Sie hatten sich unter preußischer Herrschaft wieder ansiedeln dürfen. Während der Novemberpogrome 1938 wurden die Synagogen Synagoge Glockengasse (Glockengasse), in der Roonstraße, auf der Mülheimer Freiheit und in der Körnerstraße sowie ein Betsaal in Deutz in Brand gesteckt. Die bis 1941 in Köln verbliebenen Kölner jüdischen Glaubens wurden in Sammellagern des Fort IX (eine der ehemaligen preußischen Festungsanlagen im Festungsring Köln im Kölner Grüngürtel) und auf dem Kölner Messegelände eingesperrt und später deportiert. 8000 jüdische Kölner wurden in der Zeit des Nationalsozialismus ermordet. Die heutige Synagogengemeinde hat wieder über 4850 Mitglieder. Sie besitzt einen Friedhof, eine Grundschule, einen Kindergarten, eine Bibliothek, einen Sportverein "(Makkabi)", ein koscheres Restaurant, ein Jugendzentrum und ein Altersheim mit Seniorentreff. Die Gemeinde wird von zwei orthodoxen Rabbinern geleitet. Ihre 1959 wieder aufgebaute große Synagoge steht in der Roonstraße am Rathenauplatz. Seit 1996 gibt es außerdem die kleine jüdische liberale Gemeinde Gescher Lamassoret („Brücke zur Tradition“), die zur Union progressiver Juden in Deutschland gehört. Ihre Synagoge liegt im Souterrain der evangelischen Kreuzkapelle in Köln-Riehl. Islam. Wegen des im Verhältnis zur übrigen Bundesrepublik vor 1990 hohen Anteils von Einwanderern aus der Türkei und deren Nachkommen sowie der damals zentralen Lage im Land richteten die wichtigsten islamischen Organisationen ihren Sitz in Köln und Umgebung (Kerpen) ein. Am Hauptsitz der Türkisch-Islamischen Union der Anstalt für Religion (DITIB) entsteht im Kölner Stadtteil Ehrenfeld die DITIB-Zentralmoschee Köln mit einer 35 Meter hohen Kuppel und zwei 55 Meter hohen Minaretten samt frei zugänglichem Innenhof, die das bisherige Zentrum – ein früheres Fabrikgebäude – ersetzt. Nach Protesten und Diskussionen wurde die Planung modifiziert: Im Innern wurden weniger Geschäfte und Nebenräume eingeplant, die äußerliche Gestaltung nach dem Entwurf des Kölner Architekten Paul Böhm blieb hingegen erhalten. Der Gebetsraum soll bis zu 1200 Gläubigen Platz bieten. Der tägliche Ruf des Muezzins soll ausschließlich im Inneren der Moschee zu hören sein. Am 7. November 2009 fand die Grundsteinlegung für den Neubau statt. Einwohnerentwicklung. Köln war in den 1970er Jahren infolge von Eingemeindungen aufgrund des Köln-Gesetzes kurzzeitig Millionenstadt: im Zuge der letzten Eingemeindungen zum 1. Januar 1975 wurde die Bevölkerungszahl von einer Million erreicht. Nachdem die Stadt Wesseling jedoch zum 1. Juli 1976 durch eine Entscheidung des Verfassungsgerichtshofs für das Land Nordrhein-Westfalen wieder ausgegliedert werden musste, sank die Einwohnerzahl erneut unter die Millionengrenze. Seit dem 31. Mai 2010 ist Köln nach Angaben des Landesbetriebes Information und Technik Nordrhein-Westfalen mit 1.000.298 Einwohnern (nur Hauptwohnsitze) wieder offiziell die vierte Millionenstadt Deutschlands. In den kommenden Jahren soll Kölns Bevölkerungszahl weiter wachsen. In der aktuellen Modellrechnung im Auftrag der Staatskanzlei des Landes Nordrhein-Westfalen vom 28. April 2015 rechnet der Landesbetrieb Information und Technik Nordrhein-Westfalen mit einer deutlich stärkeren Zunahme der Einwohnerzahl für die Stadt Köln auf rund 1.243.000 bis zum Jahr 2040. Köln ist die größte deutsche Stadt, die weder (wie Berlin und Hamburg) ein eigenes Bundesland bildet, noch die Hauptstadt eines Bundeslandes ist. Mundart (Kölsch). Kölsch ist die in der Stadt Köln und im Umland (in verschiedenen Varianten und in unterschiedlicher Ausprägung) gesprochene Mundart. Es zählt zum Ripuarischen innerhalb des Mittelfränkischen, das sich mit der Benrather Linie (maache-make-Grenze) bei Düsseldorf zum Niederfränkischen Platt abgrenzt. Im Süden und Osten von Köln verlaufen weitere Mundartlinien, die im Rheinischen Fächer dargestellt werden (siehe "Kölsch (Sprache)"). Politik. a> mit dem 1414 vollendeten, repräsentativen Rathausturm und der im 16. Jahrhundert erbauten Renaissance-Laube, die in dieser Form nördlich der Alpen einzigartig ist (im Oktober 2004 vor Beginn der umfangreichen archäologischen Ausgrabungen auf dem Rathausvorplatz). In römischer Zeit leitete der jeweilige Admiral der "Classis Germanica" die städtische Verwaltung. Später wurde die römische Munizipalverfassung eingeführt. Da die Stadt Sitz eines Erzbistums war, erlangte der Erzbischof später die vollständige Machtausübung in Köln. Doch versuchte die Stadt, sich vom Erzbischof zu lösen, was ihr schließlich im 13. Jahrhundert gelang (ab 1288 de facto Freie Reichsstadt). Bereits ab 1180 ist ein Rat der Stadt nachweisbar. Ab 1396 waren die 22 Gaffeln das politische Rückgrat der Stadtverwaltung. Sie wählten den 36-köpfigen Rat, der wiederum 13 Personen hinzuwählen konnte. Die Zusammensetzung des Rates wechselte halbjährlich, indem die Hälfte der Mitglieder ersetzt wurde. Der Rat wählte jährlich zwei Bürgermeister. Während der französischen Besatzung ab 1794 wurde 1798 die Munizipalverfassung eingeführt, die an französischen Vorbildern orientiert war. An der Spitze der Stadtverwaltung stand ein von der französischen Regierung ernannter "Maire" (Bürgermeister). Nach dem Übergang an Preußen 1815 wurde Köln 1816 eine kreisfreie Stadt und gleichzeitig Sitz des Landkreises Köln, der erst bei der Gebietsreform 1975 aufgelöst wurde. An der Spitze der Stadt stand seit 1815 ein Oberbürgermeister, weiterhin gab es einen Rat. 1856 wurde die preußische Städteordnung der Rheinprovinz eingeführt. Die Stadtverordnetenversammlung wählte den Oberbürgermeister als formelles Oberhaupt und Leiter der Verwaltung der Stadt. 1933 wurde der damalige Oberbürgermeister Konrad Adenauer von den Nationalsozialisten vertrieben. In der Zeit des Nationalsozialismus wurde der Oberbürgermeister von der NSDAP eingesetzt. Nach dem Zweiten Weltkrieg ernannte die Militärregierung der britischen Besatzungszone einen neuen Oberbürgermeister und führte 1946 die Kommunalverfassung nach britischem Vorbild ein. Danach gab es einen vom Volk gewählten Rat der Stadt, der aus seiner Mitte den Oberbürgermeister als Ratsvorsitzenden und Repräsentanten der Stadt wählte, welcher ehrenamtlich tätig war. Neu war das Amt des ebenfalls vom Rat gewählten hauptamtlichen Oberstadtdirektors, der als Leiter der Stadtverwaltung fungierte. Im Jahr 1999 wurde die Doppelspitze in der Stadtverwaltung aufgegeben. Seither gibt es nur noch den hauptamtlichen Oberbürgermeister. Dieser ist Vorsitzender des Rates, Leiter der Stadtverwaltung und Repräsentant der Stadt. Er wird seither direkt von den Einwohnern Kölns gewählt. Dem Oberbürgermeister stehen weitere Bürgermeister zur Seite, Gegenwärtig (Stand 2013) vier, die von den stärksten Fraktionen des Rats gestellt werden. Traditionen, Mentalität und Politik. a>, hier mit seiner Ehefrau Angela. Die lange Tradition einer freien Reichsstadt, die lange ausschließlich katholisch geprägte Bevölkerung und der jahrhundertealte Gegensatz zwischen Kirche und Bürgertum (und innerhalb dessen zwischen Patriziern und Handwerkern) hat in Köln ein eigenes politisches Klima erzeugt. Verschiedene Interessengruppen formieren sich häufig aufgrund gesellschaftlicher Sozialisation und daher über Parteigrenzen hinweg. Das daraus entstandene Beziehungsgeflecht, das Politik, Wirtschaft und Kultur untereinander in einem System gegenseitiger Gefälligkeiten, Verpflichtungen und Abhängigkeiten verbindet, wird Kölner Klüngel genannt. Heinrich Böll hat in seinem Essay "Was ist kölnisch" dieses historisch geprägte Geflecht beschrieben. Dieser Klüngel hat z. B. häufig zu einer ungewöhnlichen Proporzverteilung in der Stadtverwaltung geführt und artete bisweilen in Korruption aus: Der 1999 aufgedeckte „Müllskandal“ über Bestechungsgelder und unzulässige Parteispenden brachte nicht nur den Unternehmer Hellmut Trienekens in Haft, sondern ließ fast das gesamte Führungspersonal der regierenden SPD stürzen. War die Stadt aufgrund ihrer katholischen Tradition in Kaiserreich und Weimarer Republik fest der Partei Zentrum verbunden, wechselte bald nach dem Krieg die politische Mehrheit von der CDU (in der das Zentrum aufging) zur SPD. Diese regierte über 40 Jahre lang, teilweise mit absoluter Ratsmehrheit. Aufgrund liberaler Traditionen war Köln stets eine Hochburg der FDP, wegen ihres toleranten gesellschaftlichen Klimas eine der Grünen. Beide Parteien machen – mit wechselndem Erfolg – den Volksparteien zunehmend die Mehrheiten streitig. Rat der Stadt Köln. Im Kölner Stadtrat sitzen 90 Ratsfrauen und -herren, vertreten sind die SPD (26 Mitglieder), die CDU (25 Mitglieder), Grünen (18 Mitglieder), die Linke (6 Mitglieder), die FDP (5 Mitglieder), die AfD (3 Mitglieder), die Wählergruppe Deine Freunde (2 Mitglieder), die Piratenpartei (2 Mitglieder), die Bürgerbewegung pro Köln (2 Mitglieder) und die Freien Wähler Köln (1 Mitglied). Derzeit übernehmen die stellvertretenden Bürgermeister die Aufgabe der Leitung der Ratssitzungen. Bis zum 19. Mai 2015 zählte die sozialdemokratische Fraktion aufgrund eines Auszählungsfehlers einen Ratsherrn mehr, der Sitz ging an die CDU. Zu Repräsentationszwecken erwarb der Rat der alten Handels- und Binnenhafen-Stadt 1938 ein Ratsschiff, die heute unter Denkmalschutz stehende "Stadt Köln". Oberbürgermeister. Oberbürgermeisterin der Stadt Köln ist Henriette Reker (parteilos). Als gemeinsame Kandidatin von CDU, Grünen und FDP erhielt sie am 18. Oktober 2015 bei der Kommunalwahl 52,66 Prozent der abgegebenen Stimmen. Seit 1999 repräsentieren in Nordrhein-Westfalen die Oberbürgermeister ihre Städte und Gemeinden nicht mehr ausschließlich politisch, sondern leiten wieder gleichzeitig die Kommunalverwaltungen, die zwischen 1945 und 1999 von einem zusätzlichen Hauptamtlichen, dem Oberstadtdirektor in Großstädten, geführt wurden. Stadtverwaltung. Die Stadtverwaltung Köln besteht aus sieben Dezernaten, die jeweils von einem berufsmäßigen Stadtrat als kommunalem Wahlbeamten geleitet werden und dem Dezernat des Oberbürgermeisters. Bei der Kölner Stadtverwaltung sind rund 17.000 Mitarbeiter beschäftigt. Bezirksvertretungen. Parallel zu den Wahlen des Rates wird in jedem der neun Stadtbezirke nach den Vorgaben der Gemeindeordnung Nordrhein-Westfalens je eine Bezirksvertretung gewählt. Diese vertreten die Interessen der Bezirke und der dazugehörenden Stadtteile gegenüber dem Stadtrat. In Fragen geringerer Bedeutung, die nicht über die Bezirksgrenzen hinaus wirken, haben sie Entscheidungsbefugnis. Die Stadtbezirke werden durch den Bezirksbürgermeister vertreten. Hoheitssymbole der Stadt Köln. Flagge der Stadt Köln mit Stadtwappen An den sehr populären Kult der heiligen Ursula erinnern die elf schwarzen „Flammen“, die seit dem 16. Jahrhundert im Kölner Stadtwappen auftauchen. Ursula war der Legende nach eine bretonische Prinzessin, die auf der Rückfahrt von einer Pilgerreise nach Rom mitsamt ihren Gefährtinnen von den Hunnen ermordet wurde, die damals gerade Köln belagerten. Die elf oder 11.000 legendären Jungfrauen werden im Stadtwappen durch die elf tropfenförmigen Hermelinschwänze symbolisiert, die wiederum an das Wappen der Bretagne – der Heimat Ursulas – erinnern könnten, das aus Hermelinfell besteht. Die Flagge der Stadt Köln ist rot-weiß längs gestreift. Sie wird häufig mit aufgelegtem Stadtwappen gezeigt. Städtepartnerschaften. Köln gehört zu den sechs europäischen Städten, die 1958 erstmals eine Ringpartnerschaft ins Leben riefen. Dieser unmittelbar nach Gründung der EWG erfolgte Akt sollte die europäische Verbundenheit unterstreichen, indem je eine Stadt aus jedem damaligen Mitgliedsland mit allen übrigen eine Städtepartnerschaft abschloss. 1993 wurde die Partnerschaft zwischen den beteiligten Städten Köln, Turin, Lüttich, Esch an der Alzette, Rotterdam und Lille nochmals bekräftigt. Durch die eingemeindeten Städte und Gemeinden übernahm Köln deren partnerschaftliche Beziehungen mit den Städten Benfleet/Castle Point (Vereinigtes Königreich), Igny (Frankreich), Diepenbeek (Belgien), Brive-la-Gaillarde (Frankreich), Dunstable (Vereinigtes Königreich), Eygelshoven (Niederlande) und Hazebrouck (Frankreich). Kultur und Sehenswürdigkeiten. Im Mittelalter wurde Köln zu einem bedeutenden kirchlichen und zu einem wichtigen künstlerischen und edukativen Zentrum. Der Kölner Dom ist die größte gotische Kirche in Nordeuropa und beherbergt den Dreikönigenschrein, in dem angeblich die Reliquien der "Heiligen Drei Könige" aufbewahrt werden, daher die drei Kronen im Stadtwappen. Der Kölner Dom – 1996 zum UNESCO-Weltkulturerbe erklärt – ist das Wahrzeichen der Stadt und dient als inoffizielles Symbol. Köln wurde im Zweiten Weltkrieg schwer zerstört, heute ist die Stadt eine kulturelle Metropole mit vielen wichtigen Museen, Galerien und Kunstmessen sowie einer lebendigen Musikszene. 2012 wurde mit städtischen Mitteln nach längerer Vorbereitung die Akademie der Künste der Welt gegründet, die vorerst virtuell agierend und mit lokalen Institutionen und Initiativen zusammenarbeitend international hervorgetretene Künstler als Mitglieder beruft, die ihre Projekte dann in Köln realisieren können. Ausländische Kulturinstitute. Köln wurde nach dem Zweiten Weltkrieg als Standort einer Reihe von ausländischen Kulturinstituten ausgewählt. Das Haus des British Council von 1950 und das Amerika-Haus von 1954 haben ihre Aufgaben mittlerweile geändert. Das italienische, das französische und das japanische Kulturinstitut sind weiterhin in und über Köln hinaus aktiv. Das kleinere Belgische Haus fungiert als Kultur-Mittler. Stadtbild. Die Altstadt Kölns und angrenzende Bereiche wurden durch Luftangriffe im Zweiten Weltkrieg zu 80 Prozent zerstört. Beim Wiederaufbau wurden zwar die Straßenverläufe und die historischen Straßennamen häufig beibehalten, die Bebauung erfolgte jedoch oft im Stil der 1950er Jahre. Somit sind weite Teile der Stadt von Nachkriegsarchitektur und markanten Hochhäusern geprägt; dazwischen befinden sich einzelne Bauten aus der Vorkriegszeit, die erhalten geblieben oder aufgrund ihrer Bedeutung rekonstruiert worden sind. Insbesondere die meisten historischen Kirchbauten wurden weitgehend originalgetreu wiederaufgebaut. Römisches Köln. Köln ist eine der ältesten Städte Deutschlands. Der römische Feldherr Agrippa siedelte 19/18 v. Chr. den Stamm der Ubier am Rhein an und sorgte für eine Infrastruktur nach römischem Vorbild. Das antike Straßennetz hat teilweise noch bis heute Bestand. Aus dem römischen "cardo maximus" wurde die Hohe Straße und der "decumanus maximus" ist heute die Schildergasse. Reste römischer Bauwerke finden sich im gesamten Innenstadtbereich. Teilweise sind sie unterirdisch unter dem Kölner Rathaus oder in Parkhäusern und Kellern zugänglich. Darunter ist das sogenannte Ubiermonument, das älteste datierte Gebäude aus Stein in Deutschland. Oberirdisch kann man Reste der römischen Stadtmauer, zum Beispiel den Römerturm, besichtigen. Mittelalterliches Köln. Bedeutende mittelalterliche Profanbauten sind erhalten oder wieder aufgebaut worden: Beispiele sind das Rathaus, das Stapelhaus, der Gürzenich und das Overstolzenhaus, ältestes erhaltenes Wohngebäude der Stadt. Teile der mächtigen mittelalterlichen Stadtmauern sind ebenfalls erhalten, darunter mehrere Stadttore wie das Eigelsteintor und die Stadtmauer am Hansaring (neben dem früheren Standort des Stadtgefängnisses "Klingelpütz"), das Severinstor, das Hahnentor oder die Ulrepforte samt der Stadtmauer am Sachsenring und der „Weckschnapp“. Das malerische Martinsviertel besteht nur noch zum Teil aus mittelalterlicher Bausubstanz. Viele Gebäude wurden nach dem Zweiten Weltkrieg mehr oder weniger stilgerecht wieder aufgebaut. Preußisches Köln. Am Römerturm 3 liegt das einzige noch erhaltene klassizistische Wohnhaus. Der erste Kölner Festungsring liegt in der gründerzeitlichen Neustadt und wurde Anfang des 19. Jahrhunderts errichtet. Auf Grund des massiven Bevölkerungswachstums der Stadt und der vergrößerten Artilleriereichweite wurde die Verteidigung Kölns in der zweiten Hälfte des 19. Jahrhunderts jedoch in die links- und rechtsrheinischen Vororte der Stadt verlegt, wo ein neuer moderner Festungsgürtel errichtet wurde. Die veralteten Forts in der Neustadt bestanden jedoch weiterhin und wurden erst nach dem Ersten Weltkrieg teilweise geschleift. Bis heute können noch viele der Forts besichtigt werden. Dazu zählen unter anderem das Fort I im Friedenspark, das Fort IV im Volksgarten (Köln) oder das Fort X in der nördlichen Neustadt. Die Neustadt ist eine ringförmig um die historische Altstadt angelegte Stadterweiterung, die sich von der abgebrochenen mittelalterlichen Stadtmauer bis zum inneren Festungsring erstreckt. Sie wurde ab 1881 bis etwa 1914 erbaut und war die größte ihrer Zeit in Deutschland. Einst war sie ein geschlossenes Ensemble mit allen Stilrichtungen vom Historismus über Jugendstil bis hin zum Expressionismus; erhebliche Kriegsschäden und Abrisswut in der Nachkriegszeit schmälerten ihren Charme. Dennoch lässt sich die ursprüngliche Gestalt der Neustadt in mehreren Vierteln noch gut nachvollziehen: Dazu zählen die Südstadt (Ubierring, Alteburger Straße – hauptsächlich Jugendstil), das Universitätsviertel (Zülpicher Straße, Rathenauplatz – hauptsächlich historisierende wilhelminische Häuser), die Patrizierhäuser im Belgischen Viertel (Aachener Straße, Lütticher Straße) und das Agnesviertel. Die Kirche St. Agnes, nach der das Viertel benannt wurde, ist ein gelungenes Beispiel rheinischer Neugotik. Heute ist die Neustadt kein reines Wohngebiet mehr, sondern Zentrum verschiedenster kultureller und geschäftlicher Aktivitäten (Mediapark, Galerien, Kneipenviertel etc.). 1914 investierte die Stadt fünf Millionen Goldmark für die Kölner Werkbundausstellung, bei der führende Werkbundarchitekten exemplarische und zeitgemäße Gebäude errichteten. Zwischen den Weltkriegen. Unter dem damaligen Oberbürgermeister Konrad Adenauer entstanden in den 1920er Jahren in Köln einige bedeutende Bauwerke. Das Messegelände (heute „Koelnmesse“) mit dem markanten Messeturm ist im Stil des Backsteinexpressionismus errichtet, wobei die Bauten über ein Skelett aus Stahlbeton verfügen und die ornamentale Fassade aus Blendklinkern besteht. Im selben Stil ist das Hansahochhaus am Innenstadtring gebaut worden. Zum Zeitpunkt des Richtfestes 1924 war es das höchste Haus Europas. Adenauer ernannte 1926 den Künstler Professor Richard Riemerschmid zum Gründungsdirektor der stadtkölnischen Kunsthochschule Kölner Werkschulen, einer Parallelgründung zum Bauhaus in Dessau. Ein Beispiel für den Baustil der Neuen Sachlichkeit ist das Disch-Haus, die Universität wurde im Stil des Werkbundes bis 1929 errichtet. In den Zwanziger Jahren erlebte der Siedlungsbau in Köln einen Höhepunkt: Ganze Stadtteile wie Zollstock und Höhenhaus wurden von Wohnungsbaugenossenschaften zumeist nach den städtebaulichen Idealen der Zeit und oft nach den Prinzipien der Gartenstadt errichtet. In der Zeit der nationalsozialistischen Diktatur sollte Köln als Gauhauptstadt einen entsprechenden Rahmen erhalten: Geplant war der Abriss von Teilen der Altstadt und großen Teilen des Stadtteiles Deutz, um Platz für Aufmarschstraßen und ein gigantisches Gauforum auf der rechten Rheinseite zu schaffen. Das als erhaltenswert eingestufte Altstadtgebiet um Groß St. Martin wurde bis 1939 komplett saniert. Die Abrissarbeiten für die großzügig geplante Verkehrsschneise in West-Ost-Richtung konnte wegen des Krieges lediglich begonnen werden. Nachkriegszeit und neue Entwicklungen. Nachdem große Teile von Köln 1945 zerstört waren, übernahm die amerikanische, später die britische Militärregierung erste Schritte zur Wiedererrichtung der Stadt. Der vollständige, autogerechte Neubau der Innenstadt wurde bald zugunsten einer Kompromisslösung aufgegeben, die das Straßennetz mit dem tradierten, schmalen Zuschnitt der Grundstücke beibehielt und breite Trassen durch die Innenstadt vorsah. Die Schaffung günstigen Wohnraumes stand im Vordergrund, so dass sich das Stadtbild des Nachkriegs-Köln durch architektonisch wenig interessante, hastig errichtete Mietshäuser häufig sehr gleichförmig darstellte. Gleichwohl ragen aus dieser Zeit einzelne stilbildende und wegweisende Projekte heraus, die Köln in den 1950er Jahren zu einem bedeutenden Ort des modernen Städtebaus machten. Zu erwähnen ist die Gestaltung des Domplatzes mit dem Blau-Gold-Haus, der von Wilhelm Riphahn gestaltete Komplex aus Oper und Schauspielhaus und die West-Ost-Achse, die bereits Ende der Vierziger Jahre mit lichten Pavillons und werksteinverkleideten Geschossbauten ausgestaltet wurde. Der Gebäudekomplex der Gerling-Versicherung war aufgrund seiner Formensprache aus den 1930er Jahren dagegen sehr umstritten. 1967 wurde die "Hohe Straße", eine bekannte Kölner Einkaufsstraße, als erste Straße in Köln in eine Fußgängerzone umgewandelt. Die 1960er und 1970er Jahre bescherten Köln vor allem Architektur aus funktionalem Beton, die Schäden am Stadtbild verursachte, welche teilweise bis heute nicht behoben werden konnten. Erst in den 1980er Jahren besannen sich die Kölner wieder mehr auf Qualität: Nach dem Bau des Fernmeldeturmes Colonius wurde verstärkt die Aufwertung der Innenstadt betrieben, welche bis heute andauert. Das Museum Ludwig, die Kölner Philharmonie und der Rheinufertunnel verbanden die Stadt seit 1986 durch eine ansprechend eingerahmte Uferpromenade wieder mit dem Rhein; gleichzeitig wurde durch die teilweise Verlegung der Stadtbahn in Tunnel der Innenstadtring entlastet und in neuer Gestaltung 1987 eingeweiht. In den Neunziger Jahren folgte der Mediapark auf dem Gelände des Güterbahnhofs sowie die KölnArena (heute Lanxess Arena) in Deutz. Der Rheinauhafen, das Wallraf-Richartz-Museum, das Weltstadthaus oder die geplante Messe-City in Deutz sind Beispiele für die aktuelle Umgestaltung der Innenstadt. In den ersten Jahren des neuen Jahrtausends entstand mit dem Kölntriangle im rechtsrheinischen Stadtteil Deutz ein neues Hochhaus mit einer Aussichtsplattform in 103 Metern Höhe. Bedeutende Sakralbauten. a> ist die größte und markanteste der romanischen Kirchen. Im Vordergrund Rheinfront mit Stapelhaus. Das Innere der Kapelle Maria in den Trümmern. Das alles überragende Kölner Wahrzeichen ist der gotische Dom St. Petrus, eine der größten Kirchenbauten der Gotik. Bis zu seiner Vollendung vergingen etwa 600 Jahre; erst 1880 wurde er fertiggestellt. Hier sind die Reliquien der Heiligen Drei Könige aufbewahrt, die Köln zu einem Pilgerziel ersten Ranges machten. Sie sind im prunkvoll gestalteten Dreikönigenschrein (spätes 12. Jahrhundert / erste Hälfte 13. Jahrhundert) im Chorraum des Domes aufbewahrt. Kulturgeschichtlich nicht weniger bedeutsam sind die insgesamt zwölf großen romanischen Kirchen im Innenstadtbereich: St. Severin, St. Maria in Lyskirchen, Basilika St. Andreas, St. Aposteln, St. Gereon, St. Ursula, St. Pantaleon, St. Maria im Kapitol, Groß St. Martin, St. Georg, St. Kunibert und St. Cäcilien. Die meisten von ihnen wurden im Krieg schwer beschädigt, erst 1985 war die Wiedererrichtung abgeschlossen. In der Innenstadt finden sich außerdem die gotischen Kirchen St. Peter und die Minoritenkirche sowie die Barockkirchen St. Mariä Himmelfahrt, St. Maria in der Kupfergasse, St. Maria vom Frieden und die Ursulinenkirche St. Corpus Christi. Die Protestanten durften in Köln erst ab 1802 öffentliche Gottesdienste feiern. Zu diesem Zweck bekamen sie von den Franzosen die gotische Antoniterkirche übereignet. Ähnlich verhält es sich mit der Kartäuserkirche, welche 1923 in evangelischen Besitz überging. Die in der Nähe des Heumarkts befindliche Trinitatiskirche ist die erste als solche errichtete evangelische Kirche im linksrheinischen Köln. Im Stadtteil Mülheim, das damals zum Herzogtum Berg gehörte, wurde allerdings bereits 1786 die Friedenskirche errichtet. Zwei Vorgängerbauten wurden zerstört. St. Engelbert in Köln-Riehl ist der erste moderne Kirchenbau Kölns. Zwei Kirchenruinen sind noch im Stadtbild vertreten: Alt St. Alban in der Nähe des Rathauses mit einer von Käthe Kollwitz entworfenen Skulptur im ehemaligen Kirchenschiff und die Reste von St. Kolumba. Hier wurde in den 1950er Jahren um eine erhalten gebliebene Marienfigur die Kapelle St. Maria in den Trümmern errichtet, die völlig zerstörte Kirche behielt nur provisorisch gesicherte Stümpfe der Umfassungsmauern. 2005 wurde auf diesen Ruinen das neue Diözesanmuseum von Peter Zumthor errichtet, dessen Neubau die Integration der Überreste deutlich betont. In der Neustadt und den Vororten gibt es zahlreiche weitere Sakralbauten, unter anderem mehrere kleine romanische und gotische Kirchen sowie Beispiele für den modernen Kirchenbau. Besonders sehenswerte Bauten werden in den Artikeln der jeweiligen Stadtteile beschrieben. Rheinbrücken. Severinsbrücke von Westen, Februar 2005 Die erste Rheinbrücke in Köln, die Konstantinbrücke, wurde von den Römern 310 erbaut und zwei Jahrhunderte später von den Franken zerstört. Die Reste wurden wahrscheinlich um 960 entfernt. 1822 wurde eine Pontonbrücke zwischen Köln und Deutz und 1889 eine weitere zwischen Köln-Riehl und Mülheim errichtet. 1945 wurde nach den kriegsbedingten Zerstörungen aller Brücken als erste eine amerikanische Pontonbrücke zwischen Bayenthal und Köln-Poll errichtet. Sie wurde im Juni 1945 wieder abgebaut, nachdem zwischen Köln und Deutz neben der eingestürzten Hindenburgbrücke ein provisorischer Rheinübergang fertiggestellt wurde Einen weiteren provisorischen Rheinübergang, eine Bailey-Brücke "(Pattonbrücke)", unterhielt die englische Armee über den Rhein 1946 bis 1951 in Höhe des Rheinparks. Charakteristisch für vier der acht Brücken ist der Anstrich, der daraufhin die Bezeichnung Kölner Brückengrün erhielt. Im Jahre 1929 wurde diese spezielle Farbe vom damaligen Oberbürgermeister Konrad Adenauer beim Bau der Mülheimer Brücke durchgesetzt. Eine weitere Rheinquerung ist ein 1984 geschaffener, begehbarer, 470 Meter langer Fernwärmetunnel des Kölner Energieversorgers Rheinenergie, unter dem Rhein nördlich der Hohenzollernbrücke. Dieser Tunnel ist nicht allgemein zugänglich, jedoch werden gelegentlich Termine zur Besichtigung der Tunnelanlage angeboten. Parks und Grünflächen. Köln besitzt linksrheinisch zwei Grüngürtel – den Inneren und den Äußeren. Der Innere Grüngürtel ist sieben Kilometer lang, mehrere 100 Meter breit und hat eine Fläche von 120 Hektar. Die Festungsgürtel der Stadt mussten nach dem Ersten Weltkrieg im Rahmen der Versailler Verträge abgerissen werden, so dass hier diese große städtische Grünanlage entstehen konnte. Durch Aufschüttung von Trümmern des Zweiten Weltkrieges entstand im Inneren Grüngürtel der heute dicht bewachsene 25 Meter hohe Herkulesberg. Der Innere Grüngürtel beherbergt 25 Baumarten, Wiesen und mehrere Wasserflächen. Der Äußere Grüngürtel ist auf dem Gelände des äußeren Festungsringes entstanden. Die zum Teil baumbestandene größte Kölner Grünanlage sollte ursprünglich fast die gesamte Stadt umschließen, was aus wirtschaftlichen Gründen nie realisiert wurde. Dennoch entstanden in den 1920er Jahren 800 Hektar Grünfläche, unter anderem der Beethovenpark. Die Festungsanlagen auf der rechten Rheinseite wurden, wo möglich, in Grünanlagen umgewandelt. Der fünf Hektar (ursprünglich elf Hektar) große Stadtgarten ist der älteste Park in Köln. Die 175 Jahre alte Anlage wurde als Landschaftspark angelegt und besitzt seit über 100 Jahren ein Restaurant mit Biergarten. Dort ist heute ein Jazzclub zu finden. Im über 100 Jahre alten Volksgarten der Südstadt finden in der warmen Jahreszeit nächtelange Grill-Happenings statt, zu denen sich oft Trommler und andere Instrumentalisten einfinden. Klein- und Straßenkünstler sind hier zu finden. Der Park ist außerdem Ort für viele kulturelle Veranstaltungen, so werden beispielsweise in der Orangerie Theaterstücke aufgeführt. Die auf einer Anhöhe gelegene Grünfläche am Aachener Weiher ist insbesondere bei Studenten ein beliebter Treffpunkt. Der sanfte Hügel entstand ebenfalls durch Aufschüttung von Trümmern des Zweiten Weltkriegs. Seit dem 7. August 2004 erinnert ein neuer Name an die Opfer des Krieges: Hiroshima-Nagasaki-Park. Köln ist seit 1985 Mitglied des internationalen Städtebündnisses gegen Atomwaffen, des so genannten „Hiroshima-Nagasaki-Bündnisses“. Der Blücherpark im Stadtteil Bilderstöckchen und der Vorgebirgspark in Raderthal wurden beide, obwohl sehr unterschiedlich gestaltet, Anfang des 20. Jahrhunderts nach den Plänen des Gartenarchitekten Fritz Encke angelegt. Der Klettenbergpark in Köln-Klettenberg wurde zwischen 1905 und 1908 in einer ehemaligen Kiesgrube als Höhenpark angelegt. Der Fritz-Encke-Volkspark in Köln-Raderthal ist trotz der Verluste (teilweise Bebauung in den 1950er Jahren) eine der bedeutendsten Anlagen der 1920er Jahre. Die mit der Stadterweiterung nach 1881 angelegte Ringstraße auf den ehemaligen Bollwerken vor der mittelalterlichen Stadtmauer war mit zahlreichen parkähnlichen Anlagen ausgestattet, so am Sachsenring, Kaiser-Wilhelm-Ring, Hansaring und Hansaplatz, Ebertplatz und Theodor-Heuss-Ring. Nach dem Zweiten Weltkrieg wurden die Anlagen verändert oder weitgehend entfernt, und nur der westliche Teil des Parks am Theodor-Heuss-Ring mit Weiher befindet sich noch fast im ursprünglichen Zustand. Auf der rechten Rheinseite liegt der Rheinpark, das weitläufige Gelände der Bundesgartenschau 1957 und 1971 in Köln-Deutz, das durch die Rheinseilbahn mit den linksrheinischen Anlagen Zoo und Flora verbunden ist. Etwas weiter entfernt liegen die Groov in Köln-Zündorf sowie der Thurner Hof. Im Kölner Norden befindet sich das Naherholungs- und Sportgebiet Fühlinger See. Es besteht aus sieben miteinander verbundenen Seen und einer Regattastrecke. Das Areal bietet sich zum Baden, Schwimmen, Tauchen, Angeln, Windsurfen, Kanufahren und Rudern an. Die U-förmig um die Regattastrecke verlaufende Straße wird häufig von Inline-Skatern genutzt. Die Naherholungsgrünzonen am Rande Kölns werden durch einen Rundwanderweg, den Kölnpfad, dessen Etappen durch öffentliche Verkehrsmittel erreichbar sind, erschlossen und verbunden. Der nahe gelegene Naturpark Rheinland jenseits der Ville dient ebenfalls der Stadtbevölkerung als Erholungsgebiet. Die Stadt gehört zu den Trägern des Naturparks. Zoo und Botanische Gärten. Der Kölner Zoo wurde 1859 erbaut, ist etwa 20 ha groß und beherbergt 700 Tierarten mit etwa 7000 Tieren. Besonders bekannt ist er für die vielen in den Jahren 2006 und 2007 geborenen Elefanten. Das neue Heim der Elefanten, der "Elefantenpark", wurde 2005 mit Hilfe privater Spenden erbaut und hat etwa 15 Millionen Euro gekostet. Der Botanische Garten Kölns wird Flora genannt. Er ist in das European Garden Heritage Network eingebunden und 2004/2005 als herausragend in die Straße der Gartenkunst zwischen Rhein und Maas aufgenommen worden. Im äußeren Grüngürtel im Stadtteil Rodenkirchen liegt der Forstbotanische Garten mit seiner Landschaftsparkerweiterung, dem Friedenswald. Theater. Die Geschichte des Kölner Theaters hat ihre Wurzeln im Mittelalter. Im heutigen Köln sind zahlreiche Theater ansässig. Die Stadt ist Träger der „Bühnen der Stadt Köln“ mit Schauspielhaus und Oper Köln. In der Stadt Köln gibt es zudem rund 70 professionelle freie und private Theater als Tourneetheater oder solche mit eigenen Spielstätten. Der Großteil der Theater ist in der „Kölner Theaterkonferenz e. V.“ organisiert, der die städtischen Bühnen angehören. Eine Besonderheit in der Kölner Theaterlandschaft ist die Initiative „JuPiTer“ (Junges Publikum ins Theater), in der Kindertheatermacher gemeinsam für die Stärkung des Kinder- und Jugendtheaters arbeiten. Die Kölner Theaterszene bildet das gesamte Spektrum vom Autorentheater über experimentelles Theater, Kabarett, klassisches Sprechtheater, Figurentheater, Märchenspiele, Performance, Tanztheater bis hin zum Volkstheater ab. Bekannte Bühnen sind das Arkadaş Theater, Artheater, Atelier-Theater, Casamax-Theater, Cassiopeia Theater, Comedia Theater, Drama Köln, Freies Werkstatt-Theater, Galant-Theater, Gloria-Theater, Hänneschen-Theater (Puppenspiele der Stadt Köln), Horizont-Theater, Kölner Künstler-Theater, Klüngelpütz Kabarett-Theater, Millowitsch-Theater, Piccolo Puppenspiele, Senftöpfchen-Theater, Studiobühne Köln, Theater am Dom, Theater am Sachsenring, Theater der Keller, das Theater im Bauturm, Theater im Hof, Theater in der Filmdose, Theater Tiefrot und das Theaterhaus Köln. Musik. a> am Offenbachplatz – bis 2015 geschlossen Sinfonie- und Kammerorchester. In Köln ist eine ganze Reihe renommierter Sinfonie- und Kammerorchester zu Hause. Das Gürzenich-Orchester wurde 1857 anlässlich der Einweihung des gleichnamigen Kölner Konzertsaals als Nachfolgeorganisation der „Musikalischen Gesellschaft“ gegründet. Seit 1888 ist die Stadt Träger des Orchesters. Es spielt in der Oper Köln und gibt zahlreiche Konzerte, zum Beispiel in der Kölner Philharmonie. Bekannte Musikdirektoren des Orchesters waren Conradin Kreutzer, Hermann Abendroth und Günter Wand. Seit 2003 wird das Gürzenich-Orchester von Markus Stenz geleitet. Das zweite berühmte Sinfonieorchester ist das WDR-Sinfonie-Orchester; es wird seit 2010 von Jukka-Pekka Saraste geleitet. Dieses Orchester wurde 1945 als Nachfolgeeinrichtung des 1926 gegründeten Orchesters des Reichssenders Köln gegründet. An Kammerorchestern, teilweise mit hochspezialisiertem Repertoire und internationalem Renommee (Alte Musik), sind zu nennen: Camerata Köln (gegründet 1979), das Kölner Kammerorchester (gegründet 1923; 1976 bis 1986 als Capella Clementina), Cappella Coloniensis (in Trägerschaft des WDR), Collegium Aureum (gegründet 1964), Concerto Köln (gegründet 1985) und Musica Antiqua Köln (gegründet 1973). Chöre. Köln verfügt über eine reichhaltige Chorszene. Ein Dutzend Konzertchöre sind im "Netzwerk Kölner Chöre" organisiert, einer bundesweit einmaligen Lobbyorganisation. Rund um den Kölner Dom existiert die Kölner Dommusik, bestehend aus vier Chören (Kölner Domchor (Knabenchor), der Mädchenchor am Kölner Dom, die Domkantorei Köln, das Vokalensemble Kölner Dom). Der Domchor wurde 1863 wiedergegründet. Der Kölner Jugendchor Sankt Stephan wurde 1984 gegründet und zählt zu den größten und erfolgreichsten Jugendchören Deutschlands. Der Kölner Männer-Gesang-Verein mit seinen rund 190 aktiven Sängern ist über die Stadtgrenzen hinaus bekannt. Außerdem gibt es in Köln eine sehr vielfältige Szene von „freien“, also nicht als klassischer Konzertchor organisierten oder an Kirchengemeinden gebundenen Chören, die sehr unterschiedliche Hintergründe und Schwerpunkte haben. Musikschulen. Die Hochschule für Musik und Tanz Köln als Europas größte Musikhochschule trägt zum musikalischen Leben der Stadt erheblich bei. Für Kinder und Jugendliche bietet die Rheinische Musikschule an mehreren Standorten in Köln flächendeckend Musikunterricht an. Unter dem Titel Signale aus Köln finden am Musikwissenschaftlichen Institut der Universität zu Köln Begegnungen mit zeitgenössischen Komponisten statt. Weitere Spielstätten. Eine wichtige Spielstätte für Musik ist die Kölner Philharmonie mit einem breiten Spektrum von klassischer Musik über Musik der Gegenwart bis hin zu Jazz und populärer Musik. Die Lanxess Arena, das E-Werk in Köln-Mülheim, das Palladium und die Live Music Hall sind neben dem Tanzbrunnen im Rheinpark (Freilichtbühne) weitere vielbesuchte Veranstaltungsorte. In den Sendesälen des Westdeutschen Rundfunks und des Deutschlandfunks finden regelmäßig Konzerte statt. Der WDR unterhält nicht nur das oben erwähnte Sinfonieorchester, sondern eine Big Band, die als eine der besten Big Bands Europas gilt. Das Jazzhaus im Stadtgarten hat ein reichhaltiges Programm der aktuellen Spielarten des Jazz und der Weltmusik; im Loft wird insbesondere die improvisierte Musik gepflegt. Im alten Ballsaal des mittelalterlichen Köln, dem Gürzenich, wird ebenfalls Musik aufgeführt. Kölsche Musik. Eine feste Größe in Köln ist die durch den Karneval geprägte Volksmusik. Dabei ist Volksmusik nur bedingt in Anlehnung an allgemeine Volksmusik zu sehen. Sie wird fast durchgängig in Mundart gesungen, also auf Kölsch. Dabei variieren die Stilrichtungen von Schlager über Pop und Hip-Hop bis hin zu Karnevalsliedern. In jüngerer Vergangenheit hat sich eine A-cappella-Szene gebildet. Eine Variante der kölschen Musik ist der Kölschrock, der vor allem durch BAP geprägt wurde und in dem Gruppen wie Brings entsprangen. Einige Künstler, die sich um die Kölner Musikszene verdient gemacht haben, waren zum Beispiel Willi Ostermann und Willy Schneider und sind gegenwärtig beispielsweise die Bläck Fööss, Microphone Mafia, die Höhner, Paveier oder die Wise Guys. Köln ist der Heimatort der 1968 gegründeten Krautrock-Band Can, die im Laufe der 1970er Jahre zu einer der international einflussreichsten deutschen Rockbands wurde. Elektronische Musik. Seit den frühen 1950er Jahren war Köln ein Zentrum moderner elektronischer Musik. Insbesondere das seit seiner Gründung 1951 von Herbert Eimert geleitete „Studio für elektronische Musik“ war als erstes seiner Art weltweit von internationalem Rang, neben Karlheinz Stockhausen, der das Studio seit 1963 leitete, arbeiteten hier beispielsweise Pierre Boulez, Mauricio Kagel, Pierre Henry und Pierre Schaeffer. In den 1990er Jahren blühte in Köln die elektronische Musik erneut auf, diesmal jedoch unter weniger akademischen Vorzeichen. Ausgehend von Techno, Intelligent Dance Music und unter Rückgriff auf populärmusikalische Avantgardegenres wie Industrial, Noise, Ambient, Krautrock, Free Jazz und Free Improv etablierte sich unter dem Stichwort "Sound of Cologne" ein breitgefächertes Spektrum moderner elektronischer Musik und konnte international erfolgreich sein. Musiker und Bands wie Wolfgang Voigt, Whirlpool Productions oder Mouse on Mars waren die bekanntesten Vertreter dieser Strömung, die allerdings stilistisch äußerst uneinheitlich und eher ein soziales Phänomen war. Bedeutende Labels des "Sound of Cologne" sind zum Beispiel Kompakt oder A-Musik. Literatur. Von Goethe über Heine bis Celan haben namhafte Autoren sich von Köln und seinen Eigenarten zu Gedichten und Balladen inspirieren lassen. Zahlreiche deutschsprachige Romane spielen in Köln. Hans Bender und Dieter Wellershoff leben hier, Nobelpreis­träger Heinrich Böll und Rolf Dieter Brinkmann gehörten zu den in Köln ansässigen bekannten Autoren. Literaturhaus und Lit.Cologne laden Schriftsteller aus dem In- und Ausland zu literarischen Veranstaltungen ein, während die heimischen Literaten beispielsweise bei der Lesebühne am Brüsseler Platz oder bei Veranstaltungen in Buchhandlungen, Cafés und Kneipen auftreten. Neben großen Verlagen wie Kiepenheuer & Witsch und DuMont beleben Spezialverlage wie der Musikverlag Dohr und Kleinverlage wie Emons, edition fundamental, Krash Verlag, LUND, parasitenpresse, Supposé Verlag und Tisch 7 das literarische Feld. Literarische Gruppen wie die Kölner Autorenwerkstatt setzen eigene Akzente. Die Stadt vergibt zwei Literaturpreise: den Heinrich-Böll-Preis und das Rolf-Dieter-Brinkmann-Stipendium. Das Literaturhaus Köln und der "Kölner Stadt-Anzeiger" veranstalten jährlich die Aktion "Ein Buch für die Stadt". Die Bürgerstiftung Köln stellt mit dem Projekt Eselsohr öffentliche Bücherschränke im Stadtgebiet auf und veranstaltet gemeinsam mit Stadtteil-Bürgerstiftungen offene Leserunden. Bildende Kunst. Die Stadt ist ein wichtiges internationales Kunstzentrum. Mit der Art Cologne beherbergt sie die älteste Kunstmesse der Welt, die heute zu den weltweit wichtigsten Kunstmessen gehört. Das Wallraf-Richartz-Museum für klassische und das Museum Ludwig für moderne Kunst genießen internationalen Ruf. Weiterhin gibt es unter anderem Museen für mittelalterliche Kunst, ostasiatische Kunst und Kunstgewerbe (siehe Abschnitt Museen). Der 1839 gegründete Kölnische Kunstverein bietet der Gegenwartskunst Förderung und Ausstellungsfläche. Über 100 Galerien und Kunsthändler sind vor Ort, z. B. das Kunsthaus Lempertz, die Galerien Boisserée und Jablonka. Einige renommierte Künstler wohnen in Köln, etwa Gerhard Richter und Rosemarie Trockel. Museen. Das Schokoladenmuseum im revitalisierten Rheinauhafen, Oktober 2004 Das Kölnische Stadtmuseum im Zeughaus. Auf dem Turm das umstrittene Flügelauto Duftmuseum im Farina-Haus, hier entstand das Eau de Cologne bzw. Kölnisch Wasser Als traditionsreiche Kulturstadt verfügt Köln über eine stattliche Anzahl von Museen, die umfangreiche und hochkarätige Sammlungen beherbergen. Die wichtigsten Kunstmuseen sind das Museum Ludwig, in dessen postmodernem, die Rheinfront unübersehbar prägenden Gebäudekomplex die Moderne und Gegenwartskunst untergebracht ist, und das Wallraf-Richartz-Museum, das im Herzen der historischen Altstadt 2001 einen eigenen Bau bezogen hat und Kunst aus den Epochen vom Mittelalter bis zum frühen 20. Jahrhundert zeigt. Einer der jüngsten bedeutenden Museumsneubauten ist das Erzbischöfliche Diözesanmuseum Kolumba, das, über den Resten einer romanischen Kirchenruine errichtet, bedeutende Werke aus verschiedenen Epochen zeigt. Gegenwartskunst findet sich im Kölnischen Kunstverein und im Museum für angewandte Kunst, das außerdem eine große Sammlung von Designstücken beherbergt. Wegweisend in ihrer Richtung sind zudem die artothek Köln für junge Kunst, das Käthe-Kollwitz-Museum, das Museum für Ostasiatische Kunst und das Museum Schnütgen für mittelalterliche Kunst, das seit 2010 in einen gemeinsam mit dem Rautenstrauch-Joest-Museum belegten neuen Gebäudekomplex expandiert ist. Letzteres ist das einzige völkerkundliche Museum in Nordrhein-Westfalen. Der Skulpturenpark Köln zeigt Außenskulpturen der Gegenwartszeit. Flaggschiff der Kölner historischen Museen ist das Römisch-Germanische Museum, das Kunst-, Schmuck und Alltagsgegenstände aus der römischen und merowingischen Epoche ausstellt. Angeschlossen sind der ehemalige römische Statthalterpalast und die Mikwe, das mittelalterliche jüdische Kultbad auf dem Rathausvorplatz. Auf diesem werden umfangreiche Grabungen unternommen, die Fundamente und Kellergeschosse des mittelalterlichen Köln zutage fördern. Nach Abschluss der Arbeiten soll hier das Haus der Jüdischen Geschichte entstehen. Die Kölner Stadtgeschichte wird im Kölnischen Stadtmuseum im Zeughaus präsentiert, während das nahebei gelegene EL-DE-Haus als das NS-Dokumentationszentrum der Stadt Köln (NSDOK) die Geschichte Kölns im Nationalsozialismus dokumentiert. Erwähnenswert sind außerdem das Agfa Foto-Historama für Historische Fotografie (seit 2005 Teil des Museum Ludwig), der Ausstellungsraum Jawne über das ehemalige jüdische Gymnasium Kölns, das Kölner Festungsmuseum und das Duftmuseum im Farina-Haus, dem Geburtshaus des Kölnisch Wasser. Im Rheinauhafen befinden sich das Schokoladenmuseum in einem Bau der 1980er Jahre und das Deutsche Sport & Olympia Museum, das in einem ehemaligen Lagergebäude untergebracht ist. Weitere wichtige, meist private und stiftungsgetragene Museen sind das Geldgeschichtliche Museum, das Kölner Karnevalsmuseum, das KünstlerMuseum Beckers°Böll im Kunsthaus Rhenania, das Odysseum, das Radiomuseum, das Rheinische Industriebahn-Museum, die Photographische Sammlung der SK Stiftung Kultur, die Theaterwissenschaftliche Sammlung Schloss Wahn und das Weinmuseum. Sportstätten. Überregional bekannt sind vor allem der Müngersdorfer Sportpark mit dem Rheinenergiestadion und die Lanxess Arena in Deutz, eine der größten Mehrzweckhallen Europas, in der Eishockey-, Handball- und Basketballspiele ausgetragen werden. Daneben verfügt die Stadt über eine Radrennbahn, eine Pferderennbahn, eine Regattastrecke und zahlreiche weitere Sporteinrichtungen. Köln ist aufgrund seiner Infrastruktur regelmäßig Austragungsort von in Deutschland stattfindenden internationalen Sportveranstaltungen. Die Deutsche Sporthochschule Köln ist die einzige Einrichtung ihrer Art in Deutschland. Vereine und Traditionsveranstaltungen. In Köln werden 775 Sportvereine durch die Stadt finanziell gefördert. Der Vereinssport umfasst alle wichtigen Breitensportarten; die bekanntesten Fußballvereine sind der 1. FC Köln, der SC Fortuna Köln und der FC Viktoria Köln. Sehr erfolgreich sind zudem die Kölner Haie im Eishockey. Überregionale Bekanntheit genießen die Cologne Crusaders im Rugby sowie die Cologne Crocodiles und die Cologne Falcons im American Football. Im Basketball hatte Köln eine sehr erfolgreiche Zeit mit dem BSC Saturn Köln. Von 1999 bis zur Insolvenz 2009 war die Stadt mit den Köln 99ers in der Bundesliga vertreten. Der Amateurverein ist weiterhin der deutsche Basketballverein mit den meisten Mitgliedern und ging am 12. Juni 2013 zusammen mit dem "MTV Köln 1850" in der Spielgemeinschaft RheinStars Köln auf, deren Ziel fortan der Aufstieg in die Basketball-Bundesliga ist. Der SC Colonia 06 ist ein Kölner Amateur-Boxverein. Gegründet im Jahre 1906 ist er heute der älteste aktive Amateurboxverein Deutschlands. Boxer des Vereins errangen bereits in den 1920er Jahren erste Europameistertitel. Insgesamt stellte der Verein bislang vier Europameister, drei Vize-Europameister, 37 Deutsche Meister und 86 Westdeutsche Meister bei den Senioren. Der Baseballverein Cologne Cardinals spielt in der Baseball-Bundesliga und war 1990 Deutscher Meister. Seit 1997 findet jedes Jahr im Herbst der Köln-Marathon statt, und der Radsportklassiker Rund um Köln wird bereits seit 1908 jährlich durchgeführt. Seit 1984 wird der Köln-Triathlon veranstaltet. Nachtleben. Vor allem am Wochenende tummeln sich in der Innenstadt Einheimische und Touristen, Jugendliche und Studenten in zahlreichen Diskotheken , Clubs, Bars und Kneipen. Hauptanlaufpunkte sind dabei die Altstadt, das Studentenviertel „Kwartier Latäng“ um die Zülpicher Straße, das Friesenviertel in der Nähe des Friesenplatzes, das Belgische Viertel und die Ringe zwischen Kaiser-Wilhelm-Ring und Rudolfplatz, sowie die Südstadt zwischen Chlodwigplatz und Alteburger Straße. Karneval. Das Kölner Dreigestirn 2005 (v. l. Jungfrau, Prinz, Bauer) Karnevalssitzung am 22. Februar 2006 im Gürzenich Der Kölner Karneval – die „fünfte Jahreszeit“ – beginnt alljährlich am 11. November um 11:11 Uhr auf dem Alter Markt. Nach einem kurzen, heftigen Auftakt legt der Karneval bis Neujahr eine Pause ein. Dann beginnt die eigentliche „Session“, die bis zum Aschermittwoch mit dem traditionellen Fischessen dauert. Dieser Abschied vom bunten Karnevalstreiben wird durch die sogenannte Nubbelverbrennung um Mitternacht von Karnevalsdienstag auf Aschermittwoch eingeläutet. Während der Karnevalssession finden zahlreiche Sitzungen und Bälle statt. Der „offizielle“, vom Festkomitee Kölner Karneval kontrollierte traditionelle Sitzungskarneval findet seine Anhängerschaft überwiegend im älteren und konservativeren Publikum. Vor allem zu den Prunk-Sitzungen findet sich die lokale Polit- und Geldprominenz ein. In den letzten Jahrzehnten etablierte sich mit dem „alternativen“ Karneval eine Gegenbewegung, deren Aushängeschild die Stunksitzung im E-Werk ist. Sie ist mit über 40 Veranstaltungstagen die mittlerweile umsatzstärkste Karnevalsveranstaltung. Dazu kommt noch die schwul-lesbische Rosa Sitzung, ihre verschiedenen Sprösslinge und die Kneipenbewegung „Loss mer singe“, die jedes Jahr schon vor Karneval Tausende von Menschen beim „Einsingen“ auf die neuen Lieder der Session einstimmt. Die Session gipfelt im Straßen- und Kneipenkarneval. Dieser beginnt an "Wieverfastelovend" (Weiberfastnacht), also dem Donnerstag vor Rosenmontag und versetzt die Stadt am Rhein für die nächsten sechs Tage in eine Art Ausnahmezustand, in dem das öffentliche Leben (Behörden, Schulen, Geschäfte) zu einem großen Teil zum Erliegen kommt. In dieser Zeit finden die zahlreichen Karnevalszüge in den einzelnen Stadtvierteln statt, deren größter der Rosenmontagszug in der Innenstadt ist. Eine Besonderheit ist der Geisterzug: 1991, als wegen des Zweiten Golfkriegs der offizielle Straßenkarneval und mit ihm der Rosenmontagszug ausfiel, lebte die alte Tradition des Geisterzugs wieder auf. So folgen nichtorganisierte Gruppen dem Ääzebär, der die kalte Jahreszeit vertreiben soll. Seitdem findet fast jedes Jahr am Karnevalssamstag der Kölner Geisterzug statt, der nachts durch verschiedene Viertel der Stadt zieht. Regelmäßige Veranstaltungen und Festivals. Die größte öffentliche Veranstaltung in Köln ist der Karneval, zu dessen Sessionen und Umzügen in der Karnevalswoche jährlich etwa zwei Millionen Gäste erwartet werden. Auf dem zweiten Platz folgt am ersten Juliwochenende mit regelmäßig über einer Million Besuchern der Cologne Pride, die größte Lesben- und Schwulen-Parade in Deutschland. Im Juli finden die Kölner Lichter, ein Musik- und Feuerwerksspektakel am Rhein hunderttausende Zuschauer. Seit dem Wegzug der Musikmesse Popkomm nach Berlin ist in Köln eine Großveranstaltung weggefallen. Mit der o pop (Cologne On Pop), einem Festival für elektronische Popkultur, versucht die Stadt ein kleiner und spezieller dimensioniertes Musikfest zu etablieren. Weitere Musikveranstaltungen sind die MusikTriennale Köln, ein Festival mit Musik des 20. und 21. Jahrhunderts, der Summerjam, größtes Reggae-Festival Europas am ersten Juli-Wochenende sowie die Orgelfeierstunden, international besetzte Orgelkonzerte im Kölner Dom. Weitere Veranstaltungen sind das fünftägige Literaturfestival Lit.Cologne, das Internationale Köln Comedy Festival, die Lesebühne am Brüsseler Platz und die Jüdischen Kulturtage im Rheinland, an denen die Stadt regelmäßig teilnimmt, sowie das Kinderfilmfest "Cinepänz". Es gibt zwei große Jahrmärkte, die Frühjahrs- und die Herbstkirmes am Deutzer Rheinufer. Die Bierbörse, ein internationales Bierfestival, findet ebenso jährlich statt wie der „Tag der Forts“, bei dem die preußischen Militäranlagen der Kölner Stadtbefestigungen kostenfrei der Öffentlichkeit mit zahlreichen Veranstaltungen zugänglich gemacht werden. Küche. Köln ist geprägt von einer langen kulinarischen Tradition, die mit importierten, teils exotischen Elementen bereichert wurde. Wegen der herausragenden Position im internationalen Handel wurden in der Küche bereits in früher Zeit Hering, Muscheln und viele Gewürze verwendet. Im Mittelalter, als der Lachs, in Köln meist als "Salm" bezeichnet, und der Maifisch noch reichlich im Rhein vorhanden war, galten diese Fische als Arme-Leute-Essen, während der Hering in der bürgerlichen Küche sehr beliebt war. Der rheinische Heringsstipp mit Äpfeln, Zwiebeln und Sahne zeugt noch heute davon. Muscheln rheinische Art sind heute Teil der Gastronomie. Wie im Rheinland üblich, wird Süßes und Herzhaftes häufig kombiniert. Der gute Boden und das Klima sorgen zudem für eine große Rolle von Gemüse in der Kölner Küche. Ein süß-saures Gericht der Kölner Küche sind der Rheinische Sauerbraten, welcher ursprünglich mit Pferdefleisch zubereitet wurde und das einfachere Himmel un Ääd, vermengtes Kartoffel- und Apfelmus, zu dem es gebratene Blutwurst („Flönz“) gibt. Wirsing und Spargel werden häufig als Saisongemüse angeboten. Eine besondere Rolle in Köln spielen die Brauhäuser. Diese dienten ursprünglich zur Bierausgabe der Kölner Brauereien und haben sich zum Hauptanbieter bürgerlicher Küche in Köln entwickelt. Neben den erwähnten Gerichten sind hier deftige Mahlzeiten wie Krüstchen, Eisbein („Hämchen“), Hachse und Reibekuchen („Rievkooche“) zu erhalten. Aufgrund des Herstellungsaufwandes gibt es letztere häufig nur an bestimmten Tagen. Beliebt zum Kölsch, das in den Brauhäusern direkt aus dem Fass gezapft wird, sind Tatar, Flönz oder Halver Hahn. Gebäckspezialitäten sind Mutze, Mutzemandeln und Krapfen sowie eine Vielzahl an gedeckten und ungedeckten Torten, die hauptsächlich mit Äpfeln und Pflaumen garniert werden. Gesüßt wird bisweilen mit Zuckerrübensirup („Rübenkraut“), das als Brotaufstrich verwendet wird. Wirtschaft und Infrastruktur. Die Wirtschaft Kölns ist geprägt durch einen lang anhaltenden und tief greifenden Strukturwandel. Während Handel und Verkehr schon seit dem Mittelalter einen stabilen, tragenden Pfeiler der lokalen Wirtschaft darstellen, sind viele der traditionsreichen produzierenden Gewerbe mittlerweile aus dem Stadtbild verschwunden. Durch die fortschreitende Tertiarisierung sind jedoch im Dienstleistungssektor neue Beschäftigungsimpulse entstanden. Gemeinhin wird Köln als Auto-, Maschinenbau-, Chemie-, Versicherungs- und Medienstadt angesehen. Das liegt unter anderem daran, dass sich im Fahrzeugbau, Maschinenbau, Versicherungswesen und in der Film- und Fernsehproduktion sehr viele Firmenzentralen in Köln angesiedelt haben. Der Ruf einer Medienstadt wird von der Kölner Politik nach Kräften gefördert, wobei neben Verlagswesen und Filmstudios zunehmend Musikproduktion, Computerspiele und elektronischer Handel in die öffentliche Wahrnehmung rücken. Die traditionell hohe Arbeitslosigkeit im Kölner Stadtgebiet ist im Mai 2010 erstmals seit Langem wieder unter die Marke von zehn Prozent gesunken. In den letzten Jahren entwickelt sich Köln als Zentrum der "BioRegio Rheinland" zu einer der führenden Biotech- und Life-Science-Regionen in Europa. 2015 wurde Köln in einer Rangordnung der Unternehmensberatung PricewaterhouseCoopers (PwC) und des Geographischen Instituts der Rheinischen Friedrich-Wilhelms-Universität Bonn zur „digitalsten Stadt Deutschlands“ gekürt. Wirtschaftsstruktur. Köln hat eine sehr diversifizierte Wirtschaftsstruktur, die schrumpfende Branchen ebenso wie Wachstumsbranchen beinhaltet. So ist vom ehemals bedeutendem Bankenplatz Deutschlands um das Jahr 1800 (Sal. Oppenheim, Bankhaus J. H. Stein oder dem A. Schaaffhausen’scher Bankverein) nicht viel übriggeblieben. Am 2. März 1705 wurden hier durch die dann durch Kurfürst Johann Wilhelm II gegründete "Banco di gyro d’affrancatione" die ersten Banknoten Deutschlands, die Bancozettel, ausgegeben. Der Beitrag aller Sektoren der Kölner Wirtschaft zum Gesamtumsatz im Land Nordrhein-Westfalen macht die Stadt zu einer der deutschen Wirtschaftsmetropolen. Eine besondere Stellung nehmen traditionell die Automobilfertigung und die Energie- und Wasserversorgung ein. Die chemische Industrie, die Lebensmittelindustrie und das Verlagsgewerbe gehören zu den wesentlichen Sektoren. Insbesondere das Versicherungsgewerbe behauptete sich gegen den Bundestrend und stärkte so Kölns Position als „Versicherungshauptstadt“ Deutschlands. Im Sektor Finanz- und Versicherungsdienstleistungen arbeiteten 6 % aller Beschäftigten, während 5,5 % im Sektor Information/Kommunikation beschäftigt waren (2010). 2010 arbeiteten der Industrie- und Handelskammer zu Köln (IHK) zufolge insgesamt in der Kölner Wirtschaftsregion 13,6 % aller sozialversicherungspflichtig Beschäftigten des Landes Nordrhein-Westfalen. Mit 82,4 % dominiert dabei das Dienstleistungsgewerbe, der Rest entfällt auf das produzierende Gewerbe. Gemessen an der Bruttowertschöpfung von 61 Milliarden Euro (2008) liegt der Dienstleistungssektor in Köln mit knapp 52 % Anteil an erster Stelle, gefolgt vom Finanzierungs- und Vermietungsgewerbe (23 %) und Handel/Gastgewerbe/Verkehr mit 13 %. Selbst der kleinste Sektor, das produzierende Gewerbe, erzielte in Köln mit 26,5 Milliarden Euro (2010) 8,8 % vom Gesamtumsatz dieses Sektors in Nordrhein-Westfalen. Stark vertreten ist darin der Fahrzeugbau mit einem Umsatzanteil von 56 % in Köln. Die Wirtschaftsmetropole liegt mit einer Exportquote von 58 % deutlich über dem Durchschnitt des Landes Nordrhein-Westfalen von 43 %. Im Dezember 2010 verfügte die Stadt über eine Hotelbetten-Kapazität von 28.000, die zu 46 % ausgelastet war. 2011 verzeichnete Köln mit 126 Millionen Besuchern einen neuen Rekord. Diese verteilten sich auf 2,8 Millionen Hotelgäste mit fast fünf Millionen Übernachtungen, zehn Millionen private Übernachtungen und 120 Millionen Tagesgäste. Damit gehört Köln zu den meistbesuchten Orten Deutschlands und Europas. Von den 6,8 Milliarden Euro Umsätzen der Touristen verblieben 170 Millionen Euro Steuereinnahmen für die Stadt. Den größten Anteil an den Hotelgästen haben mit zwei Millionen (71,4 %) die deutschen Besucher, gefolgt von Briten (109.000; 3,9 %), Niederländern (92.000; 3,3 %) und Nordamerikanern (81.000). Die Messen und sonstigen Veranstaltungen wurden von 3,3 Millionen Teilnehmern besucht. Von 28.900 Ausstellern kamen 57,6 % aus dem Ausland, bei den Besuchern lag der Ausländeranteil bei 30,7 %. Aus diesem Grund wuchs Kölns Tourismus gegenüber dem Jahr 2010 mit 8,1 % stärker als in Nordrhein-Westfalen (5,1 %) und Deutschland (4 %). Die Geschichte der Wirtschaft Kölns und der Region wird dokumentiert und aufbereitet im Rheinisch-Westfälischen Wirtschaftsarchiv (RWWA). Einzelhandel. In Köln gibt es zahlreiche Geschäfte der günstigen bis mittleren Preiskategorie sowie teure Luxusgeschäfte. Laut einer Untersuchung von Jones Lang LaSalle im Jahr 2014 sind Schildergasse und Hohe Straße die meistfrequentierten Einkaufsstraßen Deutschlands. Darüber hinaus existieren in Köln diverse Einkaufszentren, wie etwa das Rhein-Center im linksrheinischen Weiden oder die Köln Arcaden im rechtsrheinischen Kalk. Verkehr. Köln ist seit jeher eine verkehrsgünstig gelegene Stadt, die zur Römerzeit mit einem bedeutenden Hafen ausgestattet und in das römische Fernstraßennetz eingebunden war. Das Straßen- und Schienenverkehrsaufkommen zählt im Personen- und im Gütertransport zu den höchsten in ganz Deutschland. Straßenverkehr. Kölner Autobahnring und wichtige Verkehrsadern Das Kölner Straßensystem hat sich insbesondere auf der linken Rheinseite im Zuge der Stadterweiterung nach dem Ring-Radial-Prinzip entwickelt und folgte dabei zum Teil militärischen Erfordernissen. Die Ausfallstraßen werden von insgesamt fünf konzentrisch angeordneten Straßenringen gekreuzt, die zum Teil die alten Befestigungsanlagen nachzeichnen. Von innen nach außen sind es: die "Ringe" (dem Verlauf der mittelalterlichen Stadtmauer folgend); der Straßenzug "Innere Kanalstraße/Universitätsstraße", der den inneren preußischen Festungsgürtel verband; die "Gürtel"; die "Militärringstraße", die den äußeren preußischen Festungsgürtel verband, und der 1965 geschlossene Kölner Autobahnring, der im Westen und Norden von der Autobahn A 1, im Osten von der A 3 und im Süden von der A 4 gebildet wird. An den Ringen beginnt eine Vielzahl von Radialstraßen, die nach den Orten benannt sind, in deren Richtung sie von Köln aus führen (u. a. "Neußer Straße, Venloer Straße, Aachener Straße, Dürener Straße, Luxemburger Straße, Bonner Straße"). Im Zusammenhang mit der Planung der Kölner Stadtautobahn wurden mit der Bundesstraße B 55a und der A 559 zwei autobahnartig ausgebaute Ein- und Ausfallstraßen angelegt. Weitere wichtige Zubringerstrecken sind im Südosten die A 59, ein Teil der „Flughafenautobahn“, die den Bonn mit Köln und Bonn verbindet, und im Nordwesten die A 57, die von der Kölner Stadtmitte über Neuss nach Krefeld verläuft. Trotz der guten Verkehrsanbindungen ist der Kölner Autobahnring aufgrund des hohen Verkehrsaufkommens von häufigen Staus betroffen. Als Gegenmaßnahme wurden unter anderem Teile der A 3 auf bis zu zehn Spuren ausgebaut. Durch die notwendig gewordene Sanierung und den ab 2017 geplanten Neubau der Leverkusener Autobahnbrücke, die den Kölner Autobahnring im Norden schließt, entsteht ein weiteres Nadelöhr. Schienenverkehr. Der Kölner Hauptbahnhof ist die westliche Drehscheibe des deutschen Schienenfernverkehrs. Von hier führen Bahnstrecken nach Luftfahrt. Bonn, Terminal 1, August 2005 Das erste Ereignis der Kölner Luftfahrtgeschichte scheint sich 1785 zugetragen zu haben. Am 21. Oktober 1785 beantragte der durchreisende Franzose Jean-Pierre Blanchard beim Rat der Stadt Köln, mit seinem Ballon aufsteigen zu dürfen. Dies wurde ihm als Gotteslästerung ausgelegt und somit verboten. Er durfte allerdings seinen Ballon öffentlich zeigen. 1788 ließ Georg Haffner in dem damals noch nicht zu Köln gehörenden Deutz einen selbstgebauten Ballon steigen. Er zählte zu den wenigen professionellen Luftfahrern, die sich Aeronauten nannten und die sich ihre Kunst durch Auftritte in Vergnügungszentren bzw. Jahrmärkten finanzieren mussten. Derartige Auftritte von meist ausländischen Aeronauten sind für 1808, 1847 und 1878 dokumentiert. Der Kölner Maximilian Wolff war Mitgründer des "Ballon-Sport-Clubs Cöln, gegr. 1888" und 1890 Gründer des "Vereins zur Förderung der Luftschifffahrt, Cöln". Er bot in dieser Zeit u. a. an der Ausflugsgaststätte "Goldenes Eck" in Köln-Riehl Ballonfahrten mit Passagieren als ständige Attraktion an. Der bis 1861 als Maschinenbauingenieur bei der Kölnischen Maschinenbau AG in Bayenthal tätige Mainzer Paul Haenlein patentierte am 1. April 1865 die Idee eines lenkbaren Luftschiffs. Im Oktober 1871 demonstrierte er mit einem Luftschiffmodell in Mainz einige Flugversuche. 1872 baute er ein lenkbares Luftschiff. Seit ca. 1900 landeten auf dem Gelände des Bauernhofes "Butzweiler Hof" in Köln-Ossendorf vereinzelt Ballone und Flugzeuge. Ebenso fanden Starts und Landungen auf den rechtsrheinisch Exerzierplätzen in der Merheimer Heide und in der Mülheimer Heide statt. Diese Anlagen konnten jedoch nur behelfsmäßig benutzt und nur auf Widerruf zur Verfügung gestellt werden. Ausländische Flieger wie Blériot und der erste Looping-Flieger Adolphe Pegoud zeigten auf der Rennbahn in Köln Merheim (linksrheinisch) ihre fliegerischen Leistungen. Der Kölner Flug- und Automobilpionier Arthur Delfosse machte 1902 erste Gleitflugversuche mit einem selbstgebauten Flugzeug auf der Mülheimer Heide. 1912 wurde in Köln-Ossendorf auf dem Gelände des ehemaligen Bauernhofes Butzweiler Hof der Grundstein zu einem Flughafen gelegt. Dieser wurde 1913 in Betrieb genommen und entwickelte sich bis zum Zweiten Weltkrieg zum Verkehrskreuz des Westens. Nach dem Zweiten Weltkrieg wurde er von der englischen und später der belgischen Armee bis 1993 als Militärflugplatz genutzt. Daneben gab es in Köln einen einfachen Start- und Landeplatz in Porz-Westhoven bei den Mannesmann-Flugzeugwerken. Von 1937 bis 1945 befand sich ein militärischer Flugplatz in Köln-Ostheim. Im Südosten des Stadtgebiets, im Stadtbezirk Porz, befindet sich der Bonn. Er entwickelte sich aus einem Artillerieschießplatz. 1904 nahmen Berliner Luftschiffer mit Drachenballonen dort an Schießübungen als Artillerie-Beobachter teil. Am 5. April 1913 landete Leutnant August Joly vom Flieger-Bataillon 3, Köln Butzweilerhof, als Erster mit seiner Rumpler-Taube auf einem kleinen Platz zwischen der Kommandantur und einem Munitionsschuppen auf dem Schießplatz der Wahner Heide. Er ist heute einer der umschlagsstärksten deutschen Frachtflughäfen (über 650.000 Tonnen im Jahr 2005), das Europa-Drehkreuz von UPS Airlines und ein wichtiger Standort für Billigflieger (9,85 Millionen Passagiere 2010). Auf dem militärischen Teil sind die Flugzeuge und die Führung der Flugbereitschaft des Bundesministeriums der Verteidigung stationiert. Seit 1994 trägt er den Namen "Konrad-Adenauer-Flughafen". Der Flughafen Köln/Bonn gehört mit den Flughäfen Halle, Osnabrück und Nürnberg zu den stadtnahen deutschen Flughäfen ohne Nachtflugbeschränkung. Es werden 139 Flugziele in 38 Ländern angeboten. International erreichbar ist die Stadt über den Flughafen Düsseldorf International. Die erste Luftschiffhalle ließ im Jahr 1907 der Kölner Gummiwarenfabrikant Clouth auf seinem Gelände an der Niehler Straße errichten. 1909 begann das Kriegsministerium in Berlin mit dem Bau bzw. der Fundamentierung der Luftschiffhalle in Köln-Bickendorf zwischen Venloer Straße und Ossendorfer Weg. Hieraus entstand der "Luftschiffhafen Köln" und die Halle erhielt den Titel "Reichsluftschiffhalle". Ab 1927 wurden am Rhein Wasserflughäfen in Niehl und am Kunibertsufer eingerichtet. Schiffsverkehr. In Köln gibt es mehrere Rheinfähren, deren Bedeutung durch Brücken zwar stark zurückging, die nicht ausschließlich touristische Bedeutung haben. Die weiße Flotte der KD (Köln-Düsseldorfer Deutsche Rheinschiffahrt AG) befördert Personen auf dem gesamten Rhein und in geringem Umfang anderswo. Für den Güterverkehr auf dem Rhein war Köln durch das Stapelrecht im gesamten Mittelalter Drehkreuz zwischen den „niederen Landen“ und dem höher gelegenen Deutschland. 1848 waren in Köln drei Handelsschiffe beheimatet. Köln hat zahlreiche Häfen. Erst nach dem Zweiten Weltkrieg ging die Bedeutung der Innenstadthäfen allmählich zurück, dagegen wurden die Kapazitäten zugleich mit der Stadterweiterung durch neue Hafenanlagen im Norden erweitert. Der Güterverkehr stieg von 1990 mit 10.054.000 Tonnen Fracht bis 2007 auf 15.948.000 Tonnen, sank bis 2009 auf 12.009.000 Tonnen. Damit ist Köln nach Duisburg zweitgrößter deutscher Binnenhafen. Nahverkehr. Den öffentlichen Personennahverkehr (ÖPNV) bedienen S-Bahn-Linien, die Stadtbahn- und Buslinien der Kölner Verkehrs-Betriebe (KVB) sowie Buslinien anderer Verkehrsgesellschaften. Alle Verkehrsmittel in Köln sind zu einheitlichen Preisen innerhalb des Verkehrsverbunds Rhein-Sieg (VRS) benutzbar. Dieser ist mit dem benachbarten Verkehrsverbund Rhein-Ruhr (VRR) verzahnt. Die für 2011 geplante Fertigstellung der Nord-Süd-Stadtbahn verzögert sich möglicherweise bis 2023. In Köln gibt es ungefähr 2000 Taxifahrer in rund 1200 zugelassenen Fahrzeugen. Eine Besonderheit ist die Rheinseilbahn, sie war bis 2010, vor dem Bau der Rheinseilbahn zur Bundesgartenschau 2011 in Koblenz, die einzige in Betrieb befindliche Seilbahn zur Überquerung eines Flusses in Deutschland. Angelegt wurde sie anlässlich der Bundesgartenschau 1957. Öffentliche Einrichtungen. Köln ist Sitz zahlreicher Körperschaften des öffentlichen Rechts. Neben einer Vielzahl von Bundes- und Landesbehörden haben kirchliche Organisationen, Verbände und Vereine ihren Hauptsitz in Köln. Allgemeine Gerichte sind bis zur Ebene der Oberlandesgerichte in Köln ansässig. Die Finanz-, Sozial-, Verwaltungs- und Arbeitsgerichtsbarkeit ist dort vertreten. Bundesoberbehörden mit Sitz in Köln sind der Militärische Abschirmdienst, das Bundesamt für Güterverkehr, das Bundesamt für Verfassungsschutz, das Bundesamt für Familie und zivilgesellschaftliche Aufgaben, die Germany Trade and Invest, das Bundesverwaltungsamt, die Bundeszentrale für gesundheitliche Aufklärung, das Zollkriminalamt und das DIMDI. Die Bundeswehr hat in Köln eine Reihe von Schlüsselbehörden eingerichtet. Hier sitzen unter anderem das Heeresamt, das Luftwaffenamt und das Luftwaffenführungskommando, die Assessmentcenter für Führungskräfte der Bundeswehr (ACFüKrBw), das Bundesamt für das Personalmanagement der Bundeswehr (BAPersBw) und eine Sportfördergruppe. Landesbehörden wie das hbz und übergeordnete kommunale Einrichtungen wie der Deutsche Städtetag, die Bundesvereinigung der kommunalen Spitzenverbände, der Landschaftsverband Rheinland und die deutsche Sektion des Rat der Gemeinden und Regionen Europas haben ebenfalls ihren Sitz in Köln. Mit der Europäischen Agentur für Flugsicherheit (EASA) ist eine europäische Behörde vertreten. Hochschulen. Derzeit gibt es elf staatliche und private Hochschulen in Köln mit zahlreichen unterschiedlichen Studienrichtungen. Die Gesamtzahl der Studierenden in Köln liegt bei etwa 100.000. Damit gehört die Stadt neben Berlin, München und Hamburg zu den vier größten Hochschulstädten Deutschlands. Den Ruf als multikulturelle Stadt hat Köln unter anderem aus dem Grund, weil zahlreiche ausländische Studenten vor Ort sind. Medien. Köln ist neben Berlin, Hamburg und München mit etwa 30.000 bis 40.000 Beschäftigten in diesem Bereich einer der größten und wichtigsten Standorte für Massenmedien in Deutschland. Die Medienlandschaft ist vielseitig; neben den großen Unternehmen und Anstalten der Fernseh- und Hörfunkproduktion und den großen Verlagshäusern hat sich in Köln eine sehr differenzierte Zulieferindustrie entwickelt, die von Agenturen über Produktionsfirmen bis zu technischen Ausstattern ein breites Spektrum umfasst. Hörfunk, Fernsehen und Musikindustrie. Allein der Westdeutsche Rundfunk (WDR) beschäftigt an seinem Hauptsitz in Köln 3500 Mitarbeiter und betreibt neben dem WDR-Fernsehen fünf Hörfunkprogramme. Der Deutschlandfunk hat als öffentlich-rechtlicher Sender hier seinen Sitz, bis zu ihrem Umzug nach Bonn im Jahre 2003 außerdem die Deutsche Welle. Zwischen Januar 1954 und Oktober 1990 war im Kölner Stadtteil Marienburg der britische Militärsender BFBS angesiedelt. Der Hörfunk ist in Köln neben den öffentlich-rechtlichen Sendern mit der lokalen Welle Radio Köln sowie diversen kleineren Radiosendern vertreten. Die zur RTL Group gehörenden privaten Fernsehsender RTL Television, Super RTL, VOX und n-tv haben ihren gemeinsamen Hauptsitz nach Köln-Deutz verlegt. Seit Oktober 2005 berichtet der Fernsehsender center.tv täglich ausschließlich über das Geschehen in und um Köln. In Köln hat zudem die Gebühreneinzugszentrale (GEZ) ihren Sitz. Neben EMI Music Germany, die im August 2000 ihren Hauptsitz vom Maarweg im Stadtteil Braunsfeld in den Mediapark und anschließend nach Köln-Bickendorf verlegte, sind in Köln noch weitere kleinere Plattenlabels und Musikverlage ansässig. Druckmedien. Köln verfügt mit dem Verlag M. DuMont Schauberg über ein Zeitungshaus von deutschlandweiter Bedeutung: Der "Kölner Stadt-Anzeiger" und die "Kölnische Rundschau", deren gemeinsames Verbreitungsgebiet neben Köln und dem unmittelbaren Umland bis weit in die Eifel und das Bergische Land reicht, erscheinen hier. Das im selben Hause produzierte Boulevardblatt "Express" wird im Raum Düsseldorf verbreitet. Als in Köln erscheinende Druckmedien sind außerdem die Wirtschaftszeitschriften "Capital" und "Impulse" zu nennen. Örtliche Bedeutung haben die monatlich erscheinenden Stadtillustrierten "StadtRevue" und "Kölner" sowie der "Kölner Wochenspiegel", der von der Kölner Anzeigenblatt GmbH & Co. KG herausgegeben wird. Der Taschen-Verlag, sowie der Verlag der Buchhandlung Walther König sind als international operierende Buchverlage mit thematischen Schwerpunkten in Kunst, Architektur und Erotik bekannt. Mit Kiepenheuer & Witsch und dem DuMont Buchverlag beherbergt die Stadt bedeutende literarische Verlage. Der 1918 gegründete subreport Verlag Schawe hat seinen Sitz seit seiner Gründung in Köln. Die Verlagsgruppe Lübbe, einer der größten Buchverlage in Deutschland, siedelte 2010 von Bergisch Gladbach nach Köln-Mülheim über. Einrichtungen und Standorte. Kölnturm im Mediapark, Januar 2005 Wichtige Medien-Einrichtungen in Köln sind beispielsweise die Kunsthochschule für Medien Köln, die Internationale Filmschule Köln und die GAG Academy für Nachwuchskomiker. Köln ist Sitz des Filmbüros Nordrhein-Westfalen. Besonders im Belgischen Viertel sind viele kleine Filmproduktionsfirmen angesiedelt, die meist nicht selbst drehen, sondern größere Filmproduktionsfirmen mit einzelnen Dienstleistungen und technischer Ausstattung unterstützen. Medienstandorte sind in Köln über das ganze Stadtgebiet verteilt. Innerstädtisch gelegen ist neben den Hauptsitzen der großen Sender der Mediapark am Hansaring (20 ha, 174.000 m² Bürofläche), der von 1992 bis 2003 auf dem Gelände des ehemaligen Rangierbahnhofs Gereon errichtet wurde. In den modernen Gebäuden im Mediapark, darunter der 148 Meter hohe "Kölnturm", sind etwa 250 Firmen mit etwa 5000 Beschäftigten angesiedelt, von denen gut 60 Prozent im Medien- und Kommunikationsbereich tätig sind. Flächenverbrauchende Studios und Filmproduktionsstätten dagegen liegen an der Peripherie, wie etwa die WDR-Studiogelände in Bocklemünd oder das Medienzentrum Mülheim. Auf Teilen eines ehemaligen Fabrikgeländes haben sich dort rund um die große Veranstaltungshalle "E-Werk" viele Künstler und Agenturen angesiedelt. Einige Fernsehstudios sind dort zu finden, in denen unter anderen für Sat.1 und ProSieben produziert wird. Außerdem befindet sich im Nordwesten der Stadt (auf dem Gelände des ehemaligen Militärflugplatzes Butzweilerhof) das "Coloneum", Europas größter Studiokomplex mit einer Fläche von 35 Hektar und 20 Studios (25.000 m²) mit bis zu 30 Meter Deckenhöhe. Im Südwesten der Stadt zwischen Köln und Hürth wurden große Studiokomplexe für Nobeo und MMC errichtet, in denen viele Shows für Sat.1 und RTL produziert werden, unter anderem von der Produktionsfirma action concept. Truppen und Streitkräfte. Köln war nicht zuletzt aufgrund seiner strategischen Lage über die Jahrhunderte immer wieder Ausgangspunkt, Ziel und Angriffspunkt kämpferisch-militärischer Aktionen. Vorgeschichte. Die nachgewiesene Geschichte von Streitkräften in Köln beginnt mit einer ersten Besetzung durch die Römer um 57 v. Chr., die die Eburonen vertrieben hatten. Sie siedelten anschließend die Ubier vom östlichen Rheinufer nach Köln um. Um 68 waren die Bataver in Köln. Von 260 bis 274 übernahmen aufständische römische Grenztruppen die Macht in Köln, 274 überfielen Germanen Köln, 355 die Franken, die schließlich 454 die Macht übernahmen. 557 fielen die Sachsen in das später, 1888, eingemeindete Deutz ein. Im Winter 881/882 kamen die Normannen den Rhein hoch. 1096 sammelten sich in Köln Kreuzritter vom Niederrhein. 1583 kam es in Köln und Deutz zu Kämpfen zwischen kurpfälzischen und bayrisch-spanischen Truppen. Um 1587 kamen niederländische Truppen nach Köln. Die erste "Stehende Truppe" nach der Römerzeit scheint erst wieder im Jahr 1681 dokumentiert zu sein. Köln baute nach der Reichsmatrikel von 1681 eine Söldnertruppe mit 383 Mann in drei Kompanien auf. Sie erhielten volkstümlich den Namen Rote Funken. Französische Truppen besetzten ab dem 6. Oktober 1794 Köln, denen 1814 die Preußen folgten, die Köln zu einer Festung ausbauten. Ab 1871 wurden die Landstreitkräfte als Deutsches Heer bezeichnet, das Köln weiter ausbaute. Auf Grund des Versailler Vertrages wurde das Rheinland und somit Köln nach dem Ersten Weltkrieg "entmilitarisierte Zone" und somit durften in Köln keine deutschen Einheiten stationiert sein, bis 1936 die Wehrmacht in Köln im Rahmen der Rheinlandbesetzung einmarschierte. Erster Weltkrieg bis Zweiter Weltkrieg. Infolge der Niederlage im Ersten Weltkrieg und dem Waffenstillstandsabkommen von Compiegne wurde Köln ein britischer Brückenkopf mit einer 30 km großen Besatzungszone im französisch besetzten Rheinland. Als erste britische Einheit marschierte die 1st. Cavalry Division am 6. Dezember 1918 in Köln ein. Dort entstand ab 19. Dezember das Hauptquartier der britischen Besatzung, die erst am 20. Februar 1920 abzog. In Riehl bezogen die britischen Streitkräfte die Barbara-Kaserne. An der Bonner Straße, Ecke Gaedestraße wurde die 1911 gebaute Kaserne Arnoldshöhe bezogen. Am 10. Dezember 1918 erreichte die Kavallerie der 1. und 2. Kanadische Division Köln. In Köln entstand das Hauptquartier der 1. Division bis zum vollständigen Rückzug am 28. Januar 1919. Am 23. Dezember 1918 errichteten neuseeländische Einheiten in Holweide ihr Hauptquartier. Die 2. Brigade lag in Mülheim und ab dem 26. Dezember folgte eine Artillerie-Einheit nach Mülheim und Deutz. Das 3. und 4. Bataillon wurden in Dellbrück und Dünnwald einquartiert. Ab dem 9. März 1919 wurden weitere Einheiten nach Mülheim in die "Hacketäuerkaserne" verlegt – bis zum Abzug am 25. März 1919 mit 700 Mann aus Deutschland. Der Truppenübungsplatz Wahner Heide wurde 1918 zunächst von kanadischen und britischen Einheiten übernommen, die sie von 1920 bis 1926 an französische Einheiten übergaben. Es wurden kasernierte Einheiten der Landespolizei aufgebaut, die nach der Machtergreifung Hitlers 1933 militärisch organisiert wurden und später in die Wehrmacht übergingen. Einheiten der Landespolizei lagen in Westhoven, Wahn und Longerich. 1936 marschierten deutsche Truppen in das entmilitarisierte Köln ein. Einheiten der Wehrmacht waren u. a. an den Flughäfen Butzweilerhof, Ostheim und Porz-Wahn stationiert sowie in den Kasernen "Arnoldshöhe", "Etzel", "Mudra", "Unverzagt" und " Hacketäuer" in Mülheim. Besatzung nach dem Zweiten Weltkrieg. Kriegsschäden von 1945, immer noch sichtbar im Jahre 1984 Das linksrheinische Köln wurde am 6. März 1945 von Truppen der 3. US-Panzerdivision erobert. Am 11. April 1945 erreichten amerikanische Panzerspitzen, die zuerst in Remagen den Rhein überschritten hatten, Porz. Am 14. April 1945 wurden die rechtsrheinischen Stadtteile vollständig besetzt. Die US-Army überquerte den Rhein mit Hilfe einer Ponton-Brücke zwischen den Stadtteilen Poll und Bayenthal. Am 9. März 1945 wurde die US-amerikanische Militärregierung in Köln etabliert. Innerhalb von 100 Tagen förderten die amerikanischen Besatzer die Instandsetzung der Kölner Infrastruktur, trieben die Entnazifizierung voran und legten die Grundlagen für den Wiederaufbau Kölns. Außerdem schufen sie Sammelstellen für "Displaced Persons": in Junkersdorf, Etzelkaserne für Polen, in Ossendorf für Sowjetbürger und in Brauweiler für Franzosen und Italiener. Am 21. Juni 1945 löste eine britische Militärregierung die Amerikaner in Köln ab. Im Januar 1954 wurde der Radiosender der Britischen Streitkräfte BFN, später BFBS, von Hamburg nach Köln-Marienburg in die Villa Tietz verlegt. Am 15. Juni 1945 übergaben die amerikanischen Streitkräfte den Flughafen Wahn und das Camp Wahn an britische Streitkräfte (RAF und Heer). Von 1950 bis 1955 residierte der britische Hohe Kommissar mit 560 Beamten in der Wahner Kaserne. 1955 zog der britische Hohe Kommissar nach Bonn um und wurde zum Grundstock der britischen Botschaft. Im Niehler Hafen soll ein Wasserflugzeug der Royal Navy stationiert gewesen sein. Nach dem Abzug der Einheiten am 18. Juli 1957 soll nur ein Detachement in Köln verblieben sein. Belgische Garnison ab 1946. Kurze Zeit nach Ende des Zweiten Weltkrieges begann in Köln und Umgebung die Stationierung erster Einheiten der belgischen Streitkräfte in Köln. Ab 1951 wurden sie immer weniger Teil der Besatzungstruppen des "Belgischen Korridors" im Süden der Britischen Zone, sondern wurden zum Vorreiter der NATO. 1947 wurde das Hauptquartier der belgischen Streitkräfte von Lüdenscheid über Bonn nach Köln-Weiden verlegt. Im Kölner Raum wurden entweder noch bestehende Einrichtungen der ehemaligen Wehrmacht benutzt oder neue Kasernen gebaut. In der Nähe der Kasernen entstanden Wohnsiedlungen für die Angehörigen der Streitkräfte. Zeitweise war Köln die größte belgische Garnison im Ausland. Ab 1988 wurden die Belgischen Streitkräfte umstrukturiert, 1993 wurde die Wehrpflicht in Belgien abgeschafft und ab 1996 das Hauptquartier zurück nach Belgien verlegt. Damit verbunden war eine Verkleinerung der Einheiten in Deutschland bis hin zu deren Auflösung. Die Kasernen und Einrichtungen wurden danach in Teilen abgerissen, umgenutzt oder zu Wohnzwecken umgebaut. Die zugehörigen Wohnsiedlungen wurden nicht zuletzt Dank ihrer Lage im Außenbereich und überdurchschnittlich großer Grundstücke begehrte Wohnobjekte. Viele der Angehörigen der Streitkräfte verblieben nach dem Abzug oder der Auflösung ihrer Einheit in Deutschland. Bundeswehr. Nach Gründung der Bundeswehr 1955 wurde Köln zu einem der größten Bundeswehrstandorte in Deutschland. Ehrenbürger. Köln hat zwischen 1823 und 2007 24 Personen das Ehrenbürgerrecht verliehen. Seit 2002 verleiht, parallel zu der offiziellen Ehrenbürgerschaft, der „Initiativkreis alternative Ehrenbürgerschaft“ die Alternative Kölner Ehrenbürgerschaft. Söhne und Töchter der Stadt. Bedeutende Persönlichkeiten Kölns sind in der Liste von Söhnen und Töchtern der Stadt Köln (und Liste der sonstigen berühmten Kölner) und in der Liste der Erzbischöfe und Bischöfe von Köln zu finden. Krankenhausinformationssystem. Ein Krankenhausinformationssystem (KIS) ist die Klasse der Gesamtheit aller informationsverarbeitenden Systeme der Informationstechnik zur Erfassung, Bearbeitung und Weitergabe medizinischer und administrativer Daten im Krankenhaus. Zu KIS gehören Serverfunktionen, Arbeitsplatzfunktionen und mobile Funktionen der Datenbereitstellung. Im weiteren Sinn gehören zu den KIS auch konventionelle Methoden der papierenden Dokumentation und der Sprachkommunikation. Im Allgemeinen beschränkt man den Begriff heute eher auf die computerbasierten Komponenten des KIS. In diesem Zusammenhang spricht man auch von „KIS-Herstellern“ und vom „KIS-Markt“, wobei dann mit „KIS“ in Abweichung von der allgemein anerkannten Definition keine Instanz eines Informationssystems in einem bestimmten Krankenhaus gemeint ist, sondern ein Softwareprodukt, das wesentliche Funktionsbereiche eines typischen Krankenhausinformationssystems abdeckt. Der Begriff KIS wird auch verwendet, um alle weniger spezifischen Serverfunktionen eines Krankenhaus-Netzwerks zu bezeichnen und dieses von Spezialsystemen, wie dem Radiologie-Informationssystem (RIS), dem Labor-Informationssystem (LIS bzw. LIMS), dem Intensivstations-Informationssystem (IIS) usw. abzugrenzen. Bei Übernahmen aus dem angloamerikanischen Sprachgebrauch bezeichnet man KIS auch als HIS (Hospital Information System). Funktionen. Das grundsätzliche Ziel eines KIS ist das Erfüllen der Vorgaben aus dem SGB V. Danach reicht es nicht aus, Informationen einfach auf einen Zettel zu schreiben oder zu tippen. Das KIS soll die Kommunikation zwischen den Mitarbeitern verbessern und den gesamten Ablauf in einem Krankenhaus organisieren und steuern. Die Administration der Patientenstammdaten und der Falldaten gehören dazu. Die Funktionen von Krankenhausinformationssystemen sind die Sicherung, Veränderung und Präsentation von Informationen und Daten. Daraus ergibt sich der mögliche Vorteil, dass jeder befugte Mitarbeiter eines Krankenhauses in seiner zugewiesenen Benutzerrolle Zugriff auf für ihn relevante Daten hat. Der Schwerpunkt der Funktionen liegt im administrativen Bereich, vor allem die Erhebung der Krankheitsdaten (z. B. Anamnese), Dokumentation und Planung ärztlichen und pflegerischen Handelns, also Pflegeplanung und Pflegedokumentation sowie die ärztlichen Berichte und Arztbriefe. Das Verordnen von Untersuchungen oder Behandlungen (order entry) durch den Arzt sowie die Verwaltung und Dokumentation der Untersuchungsergebnisse sind zu erfüllen. Immer häufiger werden KIS-Funktionen im Rahmen von mHealth Anwendung auf mobilen Geräten bereitgestellt.. Planung, Steuerung und Abrechnung. Die Planung und Steuerung medizinischer Leistungen (beispielsweise über klinische Behandlungspfade, "engl. clinical pathways") wird mit modernen KIS erleichtert. Das Krankenhausinformationssystem unterstützt das Erstellen von Dokumenten (Arztbriefe, OP-Berichte) usw., wobei Teile dieser Dokumente oft auf der Basis der zuvor erhobenen Daten vorgeschlagen werden können. Zusammenfassende Auswertungen zum gesetzlichen und internen Reporting sind unabdingbar. Zum Zwecke der Abrechnung gegenüber Krankenkassen, Krankenversicherungen und Selbstzahlern werden Falldaten nach dem ICD-Schlüssel, erbrachte medizinischen Leistungen nach dem OPS-Schlüssel (früher: ICPM-Schlüssel) bzw. DRG-Fallpauschalen Diagnosis Related Groups klassiert und für die Berechnung der Rechnungsdaten (inklusive Material und Arbeitszeit) für eine Kostenträgerrechnung genutzt. Betriebsdatenerfassung. Bekannte KIS leisten die Betriebsdatenerfassung in verschiedener Detaillierung. Eine genaue Aufschreibung der einzelnen Leistungen erfolgt meist nur für die Sachleistungen. Für die Personalleistungen, die den Löwenanteil der übrigen Kosten ausmachen, wird in der Regel keine Unterstützung bereitgestellt. Nicht zuletzt werden logistische Funktionen wie die Unterstützung der Materialbestellungen (Lager- und Sondermaterial) auf der Station (ggf. mit Genehmigungsworkflow), die Dokumentation des Flusses von Verbrauchsmaterialien im Krankenhaus (z. B. im OP oder in der Röntgenabteilung) mitsamt der Zuordnung der Sachkosten zum spezifischen Fall unterstützt. Erreichte Reifegrade. Je nach Auffassung sind vollständig integrierte Systeme nicht zu erwarten, längst installationsfähig, nicht wünschenswert oder nicht möglich. Tatsächlich setzt der stete Zuwachs an komplexen neuen Funktionen eine stete Ausweitung des bestehenden Definitionsumfangs, so dass eine Komplettlösung immer lediglich den Definitionen früheren Standes entsprechen wird. Ein Krankenhausinformationssystem ist hochkomplex. Es gibt keine verbindlichen Normen und Standards. Lediglich für den Datenaustausch sind Formate und Protokolle genormt oder die entsprechenden Normen sind in Vorbereitung, siehe z.B. HL7, DICOM. Eine Aufgabe für die KIS-Anbieter ist die kontinuierliche Änderung von gesetzlichen Abrechnungsregeln, Qualitätssicherungsmaßnahmen usw., die die Hersteller und die Betreiber zu permanenter Pflege zwingt. Diese Pflege bindet Kapazitäten, welche ansonsten für Weiterentwicklungen verwendet werden könnten. Je nach Strategie der Anbieter wird mehr die Integrationsstrategie (alles aus einer Hand) oder die Kommunikationsstrategie (Schnittstellenvielfalt) der eigenen KIS-Software propagiert. Kleinere Hersteller bieten eher Spezial- oder Nischenlösungen an, die größere Hersteller nicht so schnell auf die spezifischen Anforderungen eines Hauses anpassen können. Datenverfügbarkeit und Datenschutz. KIS werden unter Datenschutzgesichtspunkten immer skeptisch betrachtet, da in den Systemen große Mengen zu schützender und sehr sensibler persönlicher Daten verwaltet werden. Dabei haben die Skeptiker keine Empfehlung parat, wie der Spagat zwischen Datenschutz und Datenverfügbarkeit ohne KIS zu lösen ist. Zunächst muss in medizinischen Notfällen der Zugriff auf alle Daten (z. B. Allergien, bisherige Medikation) durch jeden Krankenhausarzt, der als Erster vor Ort ist, möglich sein. Das gilt auch, wenn es sich nicht um den primär behandelnden Arzt handelt. Dies wird derzeit meist durch „Notfallzugriffsberechtigungen“ ermöglicht, deren Zugriffe streng protokolliert werden. Statisch definierte restriktive Zugriffsrechte schränken den Nutzen von KIS unter Umständen in seiner notwendigen Arbeit ein, wobei eine zu großzügige Rechtevergabe zuviele sensible Informationen preisgeben könnte. Ein im aktuellen Kontext definiertes dynamisch beschränktes Zugriffsrechte-Management ist bisher in keinem eingeführten System implementiert. Spezielle Lösungen zur Rollen-konformen Zugriffssteuerung werden separat angeboten und bieten gleiche Oberflächen für alle betriebenen Systeme. Marktvielfalt. Auf dem deutschen Markt für Krankenhaussoftware findet fortlaufend eine starke Konsolidierung statt. Als Folge treten stets neue Anbieter auf, die mit Lösungen für kleinere Einrichtungen oder mit hoch spezialisierten Lösungen geringere Marktanteile der etablierten Anbieter übernehmen oder neue Funktionsbereiche erschließen. Die Lebensdauer solcher kleineren neuen Anbieter ist meist mit dem Gradienten des initialen Markterfolgs verbunden. Allerdings sind ebenso die eingeführten großen Hersteller nicht vor Einbrüchen gefeit. Zunehmend finden moderne Konzepte der mobilen Informationsanwendungen Eingang in die Ausstattungskonzepte von Kliniken. Eine Vorreiterrolle haben dabei bisher große Universitätskliniken und private Klinikverbunde übernommen. Das Interesse an mobilen Lösungen wächst aber auch bei kleineren und mittleren Einrichtungen stetig. Dagegen ist gerade die Investitionsbereitschaft für eine Vollausbreitung solcher Konzepte in den Kliniken in öffentlicher Trägerschaft wegen der kameralistischen Budgetierung völlig unzureichend. Paradigma der Koordination in Selbststeuerung. Bisher ist die Übertragung der tatsächlichen routinierten Koordinationspraxis durch Selbststeuerung der kompetenten Mitarbeiter mit flacher Hierarchie in die Systemkonzepte der Krankenhaussoftware nicht gelungen. Systemintegration. Der patientenzentrierte Teil eines KIS (Klinisches Arbeitsplatzsystem, KAS) spielt eine zunehmende Rolle für die Koordination der Leistungen eines Krankenhauses, während der bisher führende administrative Teil des KIS auf Hintergrundprozesse zurückgedrängt wird und sich mit seiner prozessfernen Funktionalität in den Gesamtprozess der Leistungserbringung und Abrechnung einordnet. In der Regel sind die innovativen Komponenten für die Nutzung unmittelbar durch die Patienten schwach verbreitet und die medizintechnischen Komponenten am Patientenbett schwach vernetzt. Modellsysteme. Für die erfolgreiche Einführung und den Betrieb von KIS-Software ist die Modellierung und Optimierung der klinischen Prozesse von zentraler Bedeutung. Dafür gibt es keine allgemein verbindlichen Vorlagen. Bisher sind tradierte Konzepte einer hierarchischen Steuerung dominant vertreten. Die Lösungsanteile für eine Fluss-orientierte Koordination (Workflow-Management) sind meist schwach entwickelt oder für die tägliche Routine untauglich. Grundlage für die Gestaltung der klinischen Informationssysteme, für die Auswahl von Softwareprodukten und für Management und Betrieb von Informationssystemen muss eine kritische Analyse der Anforderungen mit einer Unterscheidung zwischen essenziellen Funktionen und Spezialanforderungen sein. In der medizinischen Informatik werden daher Verfahren und Modelle zur Beschreibung von KIS entwickelt. Die vielfältigen und komplexen Anforderungen an KIS werden dabei in Katalogen und Referenzmodellen zusammengefasst.. Karl Richard Lepsius. Karl Richard Lepsius (* 23. Dezember 1810 in Naumburg an der Saale; † 10. Juli 1884 in Berlin) war ein deutscher Ägyptologe, Sprachforscher und Bibliothekar. Familie. Karl Richard Lepsius war der Sohn des Naumburger Landrats Carl Peter Lepsius (1775–1853) und dessen Frau Friederike (1778–1819), einer Tochter des Komponisten Carl Ludwig Traugott Glaeser und das sechste von insgesamt neun Kindern. Sein Großvater Johann August Lepsius (1745–1801) war Oberbürgermeister von Naumburg. Karl Richard Lepsius heiratete am 5. Juli 1846 Elisabeth Klein (1828–1899), die Tochter des Komponisten Bernhard Klein und seiner Ehefrau Lili Parthey. Nach seiner Berufung nach Berlin bezog die Familie eine Wohnung in der Behrenstraße 60 in der Berliner Friedrichstadt. Das Ehepaar hatte sechs Kinder, darunter der Geologe und Professor an der Technischen Hochschule Darmstadt Karl Georg Richard Lepsius (1851–1915), der Chemiker und Direktor der Chemischen Fabrik Griesheim Bernhard Lepsius (1854–1934), der Porträtmaler und Mitglied der Akademie der Künste Reinhold Lepsius (1857–1922) sowie der evangelische Theologe, Orientalist und Humanist Johannes Lepsius (1858–1926). Die Tochter Anna Isis Elisabeth Lepsius (1848–1919) heiratete Karl Wilhelm Valentiner. Leben und Werk. Lepsius besuchte 1823 bis 1829 die Landesschule in Pforta und studierte anschließend in Leipzig, Göttingen und Berlin Philologie und vergleichende Sprachwissenschaft. 1833 promovierte er mit der Arbeit "De tabulis Eugubinis". Er wandte sich in Paris der kurz zuvor von Jean-François Champollion mit seiner Übersetzung des Steins von Rosette etablierten Kunde der ägyptischen Sprache zu. Lepsius vollendete bereits mit einer seiner ersten Schriften "Lettre à M. Rosellini sur l’alphabet hiéroglyphiques" die Champollion nicht vollständig gelungene Entzifferung der Hieroglyphen, brachte Ordnung in das Schriftsystem und begründete damit die methodische Erforschung der ägyptischen Sprache. a> aus "Denkmäler aus Ägypten und Äthiopien" Einen Aufenthalt in Italien, wo er 1836 Sekretär am Archäologischen Institut in Rom wurde, nutzte er zur Beschäftigung mit der umbrischen und oskischen Sprache, deren Überreste er in seinem Buch "Inscriptiones Umbricae et Oscae" (1841) darstellte. Im Jahr darauf wurde Lepsius zum außerordentlichen Professor an die Friedrich-Wilhelms-Universität Berlin berufen. In dieser Eigenschaft übernahm er die Leitung der von König Friedrich Wilhelm IV. ausgesandten preußischen Expedition nach Ägypten (1842–1845). Deren Ziel war, Gipsabgüsse von wichtigen Skulpturen und, wenn möglich, originale Kunstgegenstände so wie Papyri nach Berlin zu bringen, neben einer Suche nach dem sogenannten unbekannten, mythologischen "fünften Element im Land der Pharaonen". Lepsius hatte seine Mitarbeiter sorgfältig ausgewählt: Die Brüder Ernst und Max Weidenbach, Zeichner, der Letztere von Lepsius eigens im Kopieren hieroglyphischer Inschriften ausgebildet, Joseph Bonomi, der Architekt Georg Gustav Erbkam fertigte architektonische und topographische Aufnahmen an und die Maler Friedrich Otto Georgi und Johann Jakob Frey schufen Ansichten. Der Ertrag an wissenschaftlichen Aufzeichnungen, epigraphischen Kopien, Papierabdrücken, Planzeichnungen und Landschaftsbildern war enorm. Die „Königlich Preußische Expedition“ führte Lepsius über die Pyramidenfelder und Memphis das Niltal hinauf nach Luxor, zu den Königsstädten des meroitischen Reiches im heutigen Sudan, wenig nördlich von Khartum und weiter den Weißen und Blauen Nil entlang, bis tief in den Zentralsudan. Auf dem Rückweg wurde das Niltal erneut durchmessen, mit einem Abstecher an das Rote Meer und auf den Sinai zum Katharinenkloster. Im Herbst 1845 trat Lepsius über Syrien und Konstantinopel die Heimreise an. Durch eine Vereinbarung mit dem ägyptischen Regenten Muhammad Ali hatte Lepsius freie Hand – selbst an Originaldenkmälern – Stücke mitzunehmen, so dass das Königliche Museum mit einem Schlag zu einer der großen Sammlungen ägyptischer Altertümer wurde. Die altägyptischen Denkmäler, die Lepsius mitbrachte, sind heute in der ägyptischen Abteilung des Neuen Museums in Berlin zu sehen. Die Resultate stellte Lepsius in seinem Hauptwerk "Denkmäler aus Ägypten und Äthiopien" (1849–1859, 12 Tafelbände) zusammen. Lepsius hat nie den Text zu den „Denkmälern“ publiziert. Sein umfangreiches Tagebuch wurde posthum von Ludwig Borchardt, Kurth Sethe, Heinrich Schaefer und Walter Wreszinski veröffentlicht und von Édouard Naville herausgegeben. Über seine Reise schrieb er Berichte in der „Zeitschrift für Aegyptische Sprache und Alterthumskunde“, die von Heinrich Brugsch 1863 gegründet worden war, aber deren Leitung Lepsius 1864 übernommen hatte. 1846 wurde Lepsius ordentlicher Professor und 1850 ordentliches Mitglied der Preußischen Akademie der Wissenschaften. 1853 wurde er in die American Academy of Arts and Sciences gewählt. Er entwickelte das Lepsius-Alphabet, eine Umschrift für fremde Sprachen und Schriften (1855, revidierte Ausgabe auf Englisch 1863 mit Angaben zu 117 Sprachen). Im Frühjahr 1866 unternahm Lepsius eine zweite Reise nach Ägypten, um insbesondere geographische Untersuchungen im Delta des Nils durchzuführen. Bei dieser Reise fand er in den Ruinen von Tanis eine dreisprachige Inschrift, die auf hieroglyphisch, demotisch und griechisch zu Ehren des Ptolemäus Euergetes (Ptolemäus III.) von den in Kanopus versammelten Priestern abgefasst worden war (Kanopus-Dekret). Auch anlässlich der Eröffnung des Sueskanals hielt sich Lepsius im Herbst 1869 in Ägypten auf. Für die Baedeker-Bände "Unter–" und "Ober–Ägypten" wirkte er an der Erstellung des Kartenmaterials mit. 1873 wurde Lepsius zum Oberbibliothekar (Direktor) der Königlichen Bibliothek in Berlin ernannt; das Amt behielt er bis zu seinem Tod am 10. Juli 1884. Sein Grabmal (Ehrengrab der Stadt Berlin) befindet sich auf dem Dom-Friedhof II in Berlin-Mitte, Müllerstraße 71-73, Feld linke Mauer, G2. Eine Straße im Berliner Bezirk Steglitz-Zehlendorf trägt seinen Namen. Lepsius gilt für den deutschsprachigen Raum als Begründer der wissenschaftlichen Beschäftigung mit den ägyptischen Altertümern und damit des Faches Ägyptologie. Lepsius wurde 1869 mit dem "Bayerischen Maximilians-Orden für Wissenschaft und Kunst" sowie mit der Royal Gold Medal ausgezeichnet und erhielt 1872 den preußischen Orden "Pour le mérite". Er gehörte zahlreichen wissenschaftlichen Gesellschaften und Akademien im In- und Ausland an. Künstliche Intelligenz. Künstliche Intelligenz (KI, "AI") ist ein Teilgebiet der Informatik, welches sich mit der Automatisierung intelligenten Verhaltens befasst. Der Begriff ist insofern nicht eindeutig abgrenzbar, da es bereits an einer genauen Definition von Intelligenz mangelt. Dennoch findet er in Forschung und Entwicklung Anwendung. Im Allgemeinen bezeichnet „künstliche Intelligenz“ oder „KI“ den Versuch, eine menschenähnliche Intelligenz nachzubilden, d. h., einen Computer zu bauen oder so zu programmieren, dass dieser eigenständig Probleme bearbeiten kann. Oftmals wird damit aber auch eine effektvoll nachgeahmte, vorgetäuschte Intelligenz bezeichnet, insbesondere bei Computerspielen, die durch meist einfache Algorithmen ein intelligentes Verhalten simulieren soll. Überblick. Im Verständnis des Begriffs "künstliche Intelligenz" spiegelt sich oft die aus der Aufklärung stammende Vorstellung vom „Menschen als Maschine“ wider, dessen Nachahmung sich die sogenannte "starke KI" zum Ziel setzt: eine Intelligenz zu erschaffen, die wie der Mensch kreativ nachdenken sowie Probleme lösen kann und die sich durch eine Form von Bewusstsein beziehungsweise Selbstbewusstsein sowie Emotionen auszeichnet. Die Ziele der starken KI sind nach Jahrzehnten der Forschung weiterhin visionär. Im Gegensatz zur starken KI geht es der "schwachen KI" darum, konkrete Anwendungsprobleme zu meistern. Insbesondere sind dabei solche Anwendungen von Interesse, zu deren Lösung nach allgemeinem Verständnis eine Form von „Intelligenz“ notwendig zu sein scheint. Letztlich geht es der schwachen KI somit um die Simulation intelligenten Verhaltens mit Mitteln der Mathematik und der Informatik, es geht ihr nicht um Schaffung von Bewusstsein oder um ein tieferes Verständnis von Intelligenz. Während die starke KI an ihrer philosophischen Fragestellung bis heute scheiterte, sind auf der Seite der "schwachen KI" in den letzten Jahren bedeutende Fortschritte erzielt worden. Neben den Forschungsergebnissen der Kerninformatik selbst sind in die KI Ergebnisse der Psychologie, Neurologie und Neurowissenschaften, der Mathematik und Logik, Kommunikationswissenschaft, Philosophie und Linguistik eingeflossen. Umgekehrt hatte die KI auch ihrerseits Einflüsse auf andere Gebiete, vor allem auf die Neurowissenschaften. Dies zeigt sich in der Ausbildung des Bereichs der Neuroinformatik, der der biologieorientierten Informatik zugeordnet ist, sowie der Computational Neuroscience. Zusätzlich ist auch der ganze Zweig der Kognitionswissenschaft zu nennen, welcher sich wesentlich auf die Ergebnisse der künstlichen Intelligenz in Zusammenarbeit mit der kognitiven Psychologie stützt. Es lässt sich festhalten, dass die KI kein abgeschlossenes Forschungsgebiet darstellt. Vielmehr werden Techniken aus verschiedenen Disziplinen verwendet, ohne dass diese eine Verbindung miteinander haben müssen. Bei künstlichen neuronalen Netzen handelt es sich um Techniken, die ab Mitte des 20. Jahrhunderts entwickelt wurden und auf der Neurophysiologie aufbauen. Geschichte. Am 13. Juli 1956 begann am Dartmouth College in Hanover (New Hampshire), eine berühmte Konferenz, die von John McCarthy, Marvin Minsky, Nathan Rochester und Claude Shannon organisiert wurde. Genau genommen handelte es sich um ein Forschungsprojekt, und in dem Antrag, mit dem McCarthy 1955 hierfür Fördermittel bei der Rockefeller Foundation eingeworben hatte, benutzte er erstmals den Begriff „artificial intelligence“ („künstliche Intelligenz“). Aus diesem Grund gilt die später so genannte Dartmouth Conference seither als die Geburtsstunde der "Künstlichen Intelligenz" als akademisches Fachgebiet. Basierend auf den Arbeiten von Alan Turing, unter anderem dem Aufsatz "Computing machinery and intelligence", formulierten Allen Newell (1927–1992) und Herbert A. Simon (1916–2001) von der Carnegie Mellon University in Pittsburgh die "Physical Symbol System Hypothesis". Ihr zufolge ist Denken Informationsverarbeitung, und Informationsverarbeitung ein Rechenvorgang, eine Manipulation von Symbolen. Auf das Gehirn als solches komme es beim Denken nicht an: „Intelligence is mind implemented by any patternable kind of matter.“ Diese Auffassung, dass Intelligenz unabhängig von der Trägersubstanz ist, wird von den Vertretern der "starken KI"-These geteilt. Für Marvin Minsky (* 1927) vom Massachusetts Institute of Technology (MIT), einem der Pioniere der KI, ist „das Ziel der KI die Überwindung des Todes“. Der Roboterspezialist Hans Moravec (* 1948) von der Carnegie Mellon University beschreibt in seinem Buch "Mind Children" (Kinder des Geistes) das Szenario der Evolution des postbiologischen Lebens: Ein Roboter überträgt das im menschlichen Gehirn gespeicherte Wissen in einen Computer, sodass die Biomasse des Gehirns überflüssig wird und ein posthumanes Zeitalter beginnt, in dem das gespeicherte Wissen beliebig lange zugreifbar bleibt. Die Anfangsphase der KI war geprägt durch eine fast grenzenlose Erwartungshaltung im Hinblick auf die Fähigkeit von Computern, „Aufgaben zu lösen, zu deren Lösung Intelligenz notwendig ist, wenn sie vom Menschen durchgeführt werden“ (Minsky). Herbert Simon prognostizierte 1957 unter anderem, dass innerhalb der nächsten zehn Jahre ein Computer Schachweltmeister werden und einen wichtigen mathematischen Satz entdecken und beweisen würde. Diese Prognosen trafen nicht zu. Simon wiederholte die Vorhersage 1990, allerdings ohne Zeitangabe. Immerhin gelang es 1997 dem von IBM entwickelten System Deep Blue, den Schach-Weltmeister Garri Kasparov in sechs Partien zu schlagen. Newell und Simon entwickelten in den 1960er Jahren den General Problem Solver, ein Programm, das mit einfachen Methoden beliebige Probleme lösen können sollte. Nach fast zehnjähriger Entwicklungsdauer wurde das Projekt schließlich eingestellt. John McCarthy schlug 1958 vor, das gesamte menschliche Wissen in eine homogene, formale Darstellungsform, die Prädikatenlogik 1. Stufe, zu bringen. Ende der 1960er Jahre entwickelte Joseph Weizenbaum (1923–2008) vom MIT mit einem relativ simplen Verfahren das Programm ELIZA, in dem der Dialog eines Psychotherapeuten mit einem Patienten simuliert wird. Die Wirkung des Programms war überwältigend. Weizenbaum war selbst überrascht, dass man auf relativ einfache Weise Menschen die Illusion eines beseelten Partners vermitteln kann. „Wenn man das Programm missversteht, dann kann man es als Sensation betrachten“ sagte Weizenbaum später über ELIZA. Auf einigen Gebieten erzielte die KI Erfolge, beispielsweise bei Strategiespielen wie Schach und Dame, bei mathematischer Symbolverarbeitung, bei der Simulation von Robotern, beim Beweisen von logischen und mathematischen Sätzen und schließlich bei Expertensystemen. In einem Expertensystem wird das regelbasierte Wissen eines bestimmten Fachgebiets formal repräsentiert. Das System wendet bei konkreten Fragestellungen diese Regeln auch in solchen Kombinationen an, die von menschlichen Experten nicht in Betracht gezogen werden. Die zu einer Problemlösung herangezogenen Regeln können angezeigt werden, d. h. das System kann sein Ergebnis „erklären“. Einzelne Wissenselemente können hinzugefügt, verändert oder gelöscht werden; moderne Expertensysteme verfügen dazu über komfortable Benutzerschnittstellen. Eines der bekanntesten Expertensysteme war das Anfang der 1970er Jahre von T. Shortliffe an der Stanford University entwickelten MYCIN. Es diente zur Unterstützung von Diagnose- und Therapieentscheidungen bei Blutinfektionskrankheiten und Meningitis. Ihm wurde durch eine Evaluation attestiert, dass seine Entscheidungen so gut sind wie die eines Experten in dem betreffenden Bereich und besser als die eines Nicht-Experten. Allerdings reagierte das System, als ihm Daten einer Cholera-Erkrankung – eine Darm- und keine Blutinfektionskrankheit – eingegeben wurden, mit Diagnose- und Therapievorschlägen für eine Blutinfektionskrankheit: MYCIN erkannte die Grenzen seiner Kompetenz nicht. Dieser Cliff-and-Plateau-Effekt ist bei Expertensystemen, die hochspezialisiert auf ein schmales Wissensgebiet angesetzt sind, typisch. In den 1980er Jahren wurde der KI, parallel zu wesentlichen Fortschritten bei Hard- und Software, die Rolle einer Schlüsseltechnologie zugewiesen, insbesondere im Bereich der Expertensysteme. Man erhoffte sich vielfältige industrielle Anwendungen, perspektivisch auch eine Ablösung „eintöniger“ menschlicher Arbeit (und deren Kosten) durch KI-gesteuerte Systeme. Nachdem allerdings viele Prognosen nicht eingehalten werden konnten, reduzierten die Industrie und die Forschungsförderung ihr Engagement. Mit den "neuronalen Netzen" trat zur gleichen Zeit eine neue Perspektive der KI ans Licht, angestoßen u.a. von Arbeiten des finnischen Ingenieurs Teuvo Kohonen. In der "schwachen KI" löste man sich von Konzepten von Intelligenz und analysierte stattdessen, ausgehend von der Neurophysiologie, die Informationsarchitektur des menschlichen und tierischen Gehirns. Die Modellierung in Form künstlicher neuronaler Netze illustrierte dann, wie aus einer einfachen Grundstruktur eine komplexe Musterverarbeitung geleistet werden kann. Die Neuroinformatik hat sich als wissenschaftliche Disziplin zur Untersuchung dieser Verfahren entwickelt. Diese Art von Lernen beruht, im Gegensatz zu Expertensystemen, nicht auf der Herleitung und Anwendung von Regeln. Dies deutet darauf hin, dass die besonderen Fähigkeiten des menschlichen Gehirns nicht auf einen regelbasierten Intelligenz-Begriff reduzierbar sind. Die Auswirkungen dieser Einsichten auf die KI-Forschung, aber auch auf Lerntheorie, Didaktik, das Verhältnis zum Bewusstsein und andere Gebiete werden noch diskutiert. In der KI haben sich mittlerweile zahlreiche Subdisziplinen herausgebildet, so spezielle Sprachen und Konzepte zur Darstellung und Anwendung von Wissen, Modelle zu Fragen von Revidierbarkeit, Unsicherheit und Ungenauigkeit und maschinelle Lernverfahren. Die Fuzzylogik hat sich als weitere Form der "schwachen KI" etwa bei Maschinensteuerungen etabliert. Weitere erfolgreiche KI-Anwendungen liegen in den Bereichen natürlich-sprachlicher Schnittstellen, Sensorik und Robotik. Wissensbasierte Systeme. Wissensbasierte Systeme modellieren eine Form rationaler Intelligenz für sogenannte Expertensysteme. Diese sind in der Lage, auf eine Frage des Anwenders auf Grundlage formalisierten Fachwissens und daraus gezogener logischer Schlüsse Antworten zu liefern. Beispielhafte Anwendungen finden sich in der Diagnose von Krankheiten oder der Suche und Beseitigung von Fehlern in technischen Systemen. Beispiele für wissensbasierte Systeme sind Cyc und Watson. Musteranalyse und Mustererkennung. "Visuelle Intelligenz" ermöglicht es, Bilder beziehungsweise Formen zu erkennen und zu analysieren. Als Anwendungsbeispiele seien hier Handschrifterkennung, Identifikation von Personen durch Abgleich der Fingerabdrücke oder der Iris, industrielle Qualitätskontrolle und Fertigungsautomation (letzteres in Kombination mit Erkenntnissen der Robotik) genannt. Mittels "sprachlicher Intelligenz" ist es beispielsweise möglich, einen geschriebenen Text in Sprache umzuwandeln (Sprachsynthese) und umgekehrt einen gesprochenen Text schriftlich zu erfassen (Spracherkennung). Diese automatische Sprachverarbeitung lässt sich ausbauen, sodass etwa durch latente semantische Analyse (engl. "latent semantic indexing", kurz "LSI") Worten und Texten Bedeutung beigemessen werden kann. Beispiele für Systeme zur Mustererkennung sind Google Brain und Microsoft Adam. Mustervorhersage. Die Mustervorhersage ist eine Erweiterung der Mustererkennung. Sie stellt etwa die Grundlage des von Jeff Hawkins definierten hierarchischen Temporalspeichers dar. Solche Systeme bieten den Vorteil, dass z. B. nicht nur ein bestimmtes Objekt in einem einzelnen Bild erkannt wird (Mustererkennung), sondern auch anhand einer Bildserie vorhergesagt werden kann, wo sich das Objekt als nächstes aufhalten wird. Robotik. Die Robotik beschäftigt sich mit manipulativer Intelligenz. Mit Hilfe von Robotern können etwa gefährliche Tätigkeiten oder auch immer gleiche Manipulationen, wie sie beim Schweißen oder Lackieren auftreten können, automatisiert werden. Der Grundgedanke ist es, Systeme zu schaffen, die intelligente Verhaltensweisen von Lebewesen nachvollziehen können. Beispiele für derartige Roboter sind ASIMO und Atlas (Roboter). Modellierung anhand der Entropiekraft. Basierend auf der Arbeit des Physikers Alexander Wissner-Gross kann ein intelligentes System durch die Entropiekraft modelliert werden. Dabei versucht ein intelligenter Agent seine Umgebung (Zustand X0), durch eine Handlung (Kraftfeld F) zu beeinflussen, um eine größtmögliche Handlungsfreiheit (Entropie "S") in einem zukünftigen Zustand X zu erreichen. Methoden. Zur Einordnung von KI-Methoden und ihren Zusammenhängen Die Neuronale KI verfolgt einen Bottom-up-Ansatz und möchte das menschliche Gehirn möglichst präzise nachbilden. Die symbolische KI verfolgt umgekehrt einen Top-down-Ansatz und nähert sich den Intelligenzleistungen von einer begrifflichen Ebene her. Die Simulationsmethode orientiert sich so nah wie möglich an den tatsächlichen kognitiven Prozessen des Menschen. Dagegen kommt es dem phänomenologischen Ansatz nur auf das Ergebnis an. Viele ältere Methoden, die in der KI entwickelt wurden, basieren auf heuristischen Lösungsverfahren. In jüngerer Zeit spielen mathematisch fundierte Ansätze aus der Statistik, der mathematischen Programmierung und der Approximationstheorie eine bedeutende Rolle. Suchen. Die KI beschäftigt sich häufig mit Problemen, bei denen nach bestimmten Lösungen gesucht wird. Verschiedene Suchalgorithmen werden dabei eingesetzt. Ein Paradebeispiel für die Suche ist der Vorgang der Wegfindung, der in vielen Computerspielen eine zentrale Rolle einnimmt und auf Suchalgorithmen wie zum Beispiel dem A*-Algorithmus basiert. Planen. Planungssysteme planen und erstellen aus solchen Problembeschreibungen Aktionsfolgen, die Agentensysteme ausführen können, um ihre Ziele zu erreichen. Optimierungsmethoden. Oft führen Aufgabenstellungen der KI zu Optimierungsproblemen. Diese werden je nach Struktur entweder mit Suchalgorithmen aus der Informatik oder, zunehmend, mit Mitteln der mathematischen Programmierung gelöst. Bekannte heuristische Suchverfahren aus dem Kontext der KI sind evolutionäre Algorithmen. Logisches Schließen. Eine Fragestellung der KI ist die Erstellung von Wissensrepräsentationen, die dann für automatisches logisches Schließen benutzt werden können. Menschliches Wissen wird dabei – soweit möglich – formalisiert, um es in eine maschinenlesbare Form zu bringen. Diesem Ziel haben sich die Entwickler diverser Ontologien verschrieben. Eine andere Form des logischen Schließens stellt die Induktion dar (Induktionsschluss, Induktionslogik), in der Beispiele zu Regeln verallgemeinert werden (maschinelles Lernen). Auch hier spielen Art und Mächtigkeit der Wissensrepräsentation eine wichtige Rolle. Man unterscheidet zwischen symbolischen Systemen, in denen das Wissen – sowohl die Beispiele als auch die induzierten Regeln – explizit repräsentiert ist, und subsymbolischen Systemen wie neuronalen Netzen, denen zwar ein berechenbares Verhalten „antrainiert“ wird, die jedoch keinen Einblick in die erlernten Lösungswege erlauben. Approximationsmethoden. In vielen Anwendungen geht es darum, aus einer Menge von Daten eine allgemeine Regel abzuleiten (maschinelles Lernen). Mathematisch führt dies zu einem Approximationsproblem. Im Kontext der KI wurden hierzu künstliche neuronale Netze vorgeschlagen. In praktischen Anwendungen verwendet man häufig alternative Verfahren, die mathematisch einfacher zu analysieren sind. Anwendungen. In der Vergangenheit sind Erkenntnisse der künstlichen Intelligenz mit der Zeit oft in die anderen Gebiete der Informatik übergegangen: Sobald ein Problem gut genug verstanden wurde, hat sich die KI neuen Aufgabenstellungen zugewandt. Zum Beispiel wurden der Compilerbau oder Computeralgebra ursprünglich der künstlichen Intelligenz zugerechnet. Turing-Test. Um ein Maß zu haben, wann eine Maschine eine dem Menschen gleichwertige Intelligenz simuliert, wurde von Alan Turing der nach ihm benannte Turing-Test vorgeschlagen. Dabei stellt ein Mensch per Terminal beliebige Fragen an einen anderen Menschen bzw. eine KI, ohne dabei zu wissen, wer jeweils antwortet. Der Fragesteller muss danach entscheiden, ob es sich beim Interviewpartner um eine Maschine oder einen Menschen handelte. Ist die Maschine nicht von dem Menschen zu unterscheiden, so ist laut Turing die Maschine intelligent. Bisher konnte keine Maschine den Turing-Test zweifelsfrei bestehen. Seit 1991 existiert der Loebner-Preis für den Turing-Test. Anthropomatik. Mit diesem Kofferwort wird ein Forschungsgebiet bezeichnet, bei dem mit Mitteln der Informatik Systeme und Anwendungen hinsichtlich ihrer menschlichen Anwender optimiert werden. Sprachwissenschaft. Die Interpretation menschlicher Sprache durch Maschinen besitzt bei der KI-Forschung eine entscheidende Rolle. So ergeben sich etwaige Ergebnisse des Turing-Tests vor allem in Dialogsituationen, die bewältigt werden müssen. Die Sprachwissenschaft liefert mit ihren Grammatikmodellen und psycholinguistischen Semantikmodellen wie der Merkmals- oder der Prototypensemantik Grundlagen für das maschinelle „Verstehen“ komplexer natürlichsprachlicher Phrasen. Zentral ist die Frage, wie Sprachzeichen eine tatsächliche Bedeutung für eine künstliche Intelligenz haben können. Das Chinese Room-Argument des Philosophen John Searle sollte indes zeigen, dass es selbst dann möglich wäre, den Turing-Test zu bestehen, wenn den verwendeten Sprachzeichen dabei keinerlei Bedeutung beigemessen wird. Insbesondere Ergebnisse aus dem Bereich Embodiment betonen zudem die Relevanz von solchen Erfahrungen, die auf der Verkörperung eines Agenten beruhen sowie dessen Einbindung in eine sinnvolle Umgebung für jede Form von Kognition, also auch zur Konstruktion von Bedeutung durch eine Intelligenz. Einen Teilbereich der Linguistik und zugleich eine Schnittstelle zwischen dieser und der Informatik bildet die Computerlinguistik, die sich unter anderem mit maschineller Sprachverarbeitung und künstlicher Intelligenz beschäftigt. Psychologie. Die Psychologie beschäftigt sich u.a. mit dem Intelligenzbegriff. Psychotherapie. In der Psychotherapieforschung existieren bereits seit geraumer Zeit experimentelle Anwendungen der Künstlichen Intelligenz, um Defizite und Engpässe in der psychotherapeutischen Versorgung zu überbrücken und Kosten zu sparen. Philosophie. Die philosophischen Aspekte der KI-Problematik gehören zu den weitreichendsten der gesamten Informatik. Die Antworten, die auf die zentralen Fragen dieses Bereiches gegeben werden, reichen weit in ontologische und erkenntnistheoretische Themen hinein, die das Denken des Menschen schon in den Anfängen der Philosophie beschäftigten. Wer solche Antworten gibt, muss die Konsequenzen daraus auch für den Menschen und sich selbst ziehen. Nicht selten möchte man umgekehrt vorgehen und die Antworten, die man vor der Entwicklung künstlicher Intelligenz gefunden hat, auf diese übertragen. Doch wie sich zeigte, hat die künstliche Intelligenz zahlreiche Forscher dazu veranlasst, Probleme wie das Verhältnis zwischen Materie und Geist, die Ursprünge des Bewusstseins, die Grenzen der Erkenntnis, das Problem der Emergenz, die Möglichkeit außermenschlicher Intelligenz usw. in einem neuen Licht zu betrachten und zum Teil neu zu bewerten. Eine dem metaphysischen bzw. auch idealistischen Denken verpflichtete Sichtweise hält es (im Sinn einer schwachen KI) für unmöglich, dass Maschinen jemals mehr als nur simuliertes Bewusstsein mit wirklicher Erkenntnis und Freiheit besitzen könnten. Aus ontologischer Sicht kritisiert der amerikanische Philosoph Hubert Dreyfus die Auffassung der starken KI. Aufbauend auf der von Martin Heidegger in dessen Werk Sein und Zeit entwickelten Ontologie der „Weltlichkeit der Welt“ versucht Dreyfus zu zeigen, dass hinter das Phänomen der Welt als sinnhafte Bedeutungsganzheit nicht zurückgegangen werden kann: Sinn, d. h. Beziehungen der Dinge in der Welt aufeinander, sei ein Emergenzphänomen, denn es gibt nicht „etwas Sinn“ und dann „mehr Sinn“. Damit erweist sich jedoch auch die Aufgabe, die sinnhaften Beziehungen zwischen den Dingen der Welt in einen Computer einzuprogrammieren, als eigentlich unmögliches bzw. unendliches Vorhaben. Dies deshalb, weil Sinn nicht durch Addition von zunächst sinnlosen Elementen hergestellt werden kann. Eine evolutionär-progressive Denkrichtung sieht es hingegen (im Sinn einer starken KI) als möglich an, dass Systeme der künstlichen Intelligenz einmal den Menschen in dem übertreffen könnten, was derzeit noch als spezifisch menschlich gilt. Dies birgt zum einen die Gefahr, dass solche KI-Maschinen missbraucht werden z. B. für militärische Zwecke. Andererseits birgt diese Technologie die Chance, Probleme zu lösen, deren Lösung dem Menschen wegen seines limitierten Verstands nicht möglich ist (siehe auch technologische Singularität). Weitere Anknüpfungspunkte lassen sich in der analytischen Philosophie finden. Informatik. Selbstverständlich ist die KI mit den anderen Disziplinen der Informatik eng verzahnt. Ein Versuch der Abgrenzung könnte auf Grundlage der Bewertung der erzielten Ergebnisse hinsichtlich ihres Grades an Intelligenz erfolgen. Hierzu scheint es sinnvoll, verschiedene Dimensionen von Intelligenz zu unterscheiden. Im Folgenden sollen diese Dimensionen aufgeführt werden, die ersten drei scheinen als notwendige Bedingungen angesehen werden zu können. Je mehr dieser Merkmale eine Anwendung erfüllt, desto intelligenter ist sie. Eine Anwendung, die auf dieser Skala als intelligent eingestuft werden kann, wird eher der KI als einer anderen Disziplin der Informatik zugeordnet werden können. Darstellung in Film und Literatur. Seit der Klassischen Moderne wird sie in Kunst, Film und Literatur behandelt. Dabei geht es bei der künstlerischen Abhandlung – im Gegensatz zur KI-Forschung, bei der die technische Realisierung im Vordergrund steht – vor Allem um die moralischen, ethischen und religiösen Aspekte und Folgen einer nicht-menschlichen, „maschinellen Intelligenz“. In der Renaissance wurde der Begriff des "Homunculus" geprägt, eines künstlichen Miniaturmenschen ohne Seele. Im 18. und 19. Jahrhundert erschienen in der Literatur menschenähnliche Automaten, beispielsweise in E.T.A. Hoffmanns "Der Sandmann" und Jean Pauls "Die Automaten". Im 20. und 21. Jahrhundert greift die Science-Fiction in Film und Prosa das Thema mannigfach auf. 1920 prägte der Schriftsteller Karel Čapek den Begriff in seinem Bühnenstück R.U.R. 1926 thematisierte Fritz Lang in Metropolis Roboter, die die Arbeit der Menschen übernehmen. Dem Filmpublikum wurden in den unterschiedlichen Werken die Roboter als intelligente und differenzierte Maschinen präsentiert, mit ganz unterschiedlichen Persönlichkeiten. Sie werden entwickelt, um sie für gute Zwecke einzusetzen, wandeln sich aber häufig zu gefährlichen Maschinen, die feindselige Pläne gegen Menschen entwickeln. Im Lauf der Filmgeschichte werden sie zunehmend zu selbstbewussten Wesen, die sich die Menschheit unterwerfen wollen. Kritik. Es gibt vielfältige Kritik an der gegenwärtigen Entwicklung der KI. So meint Elon Musk, der selbst finanziell an KI-Firmen beteiligt ist: "Der Fortschritt bei künstlicher Intelligenz (ich meine nicht einfache künstliche Intelligenz) ist unglaublich schnell" (...) "Solange man nicht direkt Gruppen wie Deepmind ausgesetzt ist, kann man sich kaum vorstellen, wie schnell es voran geht. Es ist annähernd exponentiell" (...) "Es besteht das Risiko, dass binnen fünf Jahren etwas ernsthaft Gefährliches passiert." (Stand 2014) Er löse keinen falschen Alarm aus, denn ihm sei bewusst worüber er rede. "Ich bin nicht der Einzige der sagt, wir sollten uns Sorgen machen" (...) "Ihnen (Anm.: die führenden Unternehmen auf diesem Gebiet) ist die Gefahr bewusst, aber sie glauben, sie könnten die digitale Superintelligenz formen und kontrollieren und verhindern, dass Schlechtes ins Internet strömt" (...) "Das wird sich zeigen". Auch Stephen Hawking warnt vor der KI und sieht darin eine Bedrohung für die Menschheit. Durch die KI könnte das Ende der Menschheit eingeleitet werden. Ob die Maschinen irgendwann die Kontrolle übernehmen werden, werde die Zukunft zeigen. Was aber bereits heute klar sei, dass die Maschinen die Menschen zunehmend vom Arbeitsmarkt verdrängen. Kiwis. Kiwis (Gattung "Apteryx") oder Schnepfenstrauße sind flugunfähige, nachtaktive Vögel in den Wäldern Neuseelands. Die Gattung ist die einzige der Familie Apterygidae, gehört zur Ordnung der Laufvögel (Struthioniformes) und besteht rezent nur aus je nach Lehrmeinung drei oder fünf Arten. In der Ordnung der Laufvögel stellen Kiwis die mit Abstand kleinsten Vertreter dar. Der Kiwi ist das Nationalsymbol Neuseelands. Von ihm leitet sich die Eigenbezeichnung der Bewohner Neuseelands als „Kiwis“ ab. Merkmale. Kiwis sind nicht nur die kleinsten aller Laufvögel, sondern sie weichen in ihrer Biologie stark von den anderen Familien der Laufvögel ab. Sie sind 35 bis 65 Zentimeter lang, bis 35 Zentimeter groß und ein bis fünf Kilogramm schwer. Weibchen sind im Durchschnitt etwas größer und 10 bis 20 Prozent schwerer. Sie tragen ein braunes Gefieder, das fast wie eine Behaarung wirkt. Den Kiwis fehlt wie allen Laufvögeln der Brustbeinkamm, an dem normalerweise die Flugmuskulatur ansetzt. So haben die Kiwis zwar noch kleine, vier bis fünf Zentimeter lange Flügel, sind aber nicht in der Lage, damit zu fliegen. Die Flügel tragen an den Enden kleine Krallen und bleiben unter dem Gefieder verborgen. Die Krallen haben keine erkennbare Funktion und sind offenbar Rudimente, die man gleichermaßen bei manchen Emus und Kasuaren findet. Kiwis besitzen keinen äußerlich sichtbaren Schwanz, was dazu beiträgt, dass sie eine ungewöhnliche ovale Körperform haben. Zu diesem Erscheinungsbild tragen auch die weit nach hinten verlagerten Beine bei. Diese kräftigen Beine tragen, wie bei den meisten Vögeln, vier Zehen; mit ihnen vermögen Kiwis gut und schnell zu laufen. Längere Fluchtdistanzen erübrigen sich aber meist in ihrem unübersichtlichen Lebensraum. Der Kopf der Kiwis ist relativ klein, der Schnabel sehr lang und nach unten gebogen. Beim Streifenkiwi wird der Schnabel über 20 Zentimeter lang. Er ist bei Weibchen um gut 30 Prozent größer als bei Männchen. Der Oberschnabel ist etwas länger als der Unterschnabel. Um im Stand das Gleichgewicht zu halten, stützen Kiwis sich oft auf ihren Schnabel. Kiwis können nicht besonders gut sehen, dafür aber umso besser hören und – eine Besonderheit unter Vögeln – sehr gut riechen. Die Nasenöffnungen liegen an der Spitze und nicht wie bei den meisten Vögeln an der Basis des Schnabels. An der Schnabelbasis tragen Kiwis „Borsten“, die an die Vibrissen (Schnurrbarthaare) von Säugetieren erinnern, in Wirklichkeit aber modifizierte Federn sind. Eine weitere Besonderheit ist die Körpertemperatur, die mit 38 °C weit unter der der meisten Vögel (42 °C) liegt und eher der eines Säugetiers gleicht. Stimme. Wegen ihrer nächtlichen und verborgenen Lebensweise sind die Lautgebungen oft das einzige, was Menschen von Kiwis mitbekommen. Kiwis rufen das ganze Jahr und die ganze Nacht hindurch, außer bei starkem Wind und in sehr hellen Vollmondnächten. Bei den Rufen handelt es sich um schrille Pfiffe, die bei günstigen Bedingungen bis zu fünf Kilometer weit tragen. Während Kiwis diese ausstoßen, strecken sie den Hals und den Schnabel empor. Männchen rufen öfter als Weibchen, und ihre Pfiffe klingen in Tonhöhe und Tonlänge anders. Die Rufe scheinen hauptsächlich in der Revierverteidigung eine Rolle zu spielen. Sie werden oft von Kiwis der benachbarten Reviere beantwortet. Verbreitung und Lebensraum. Kiwis leben auf den drei großen Inseln Neuseelands: Nordinsel, Südinsel und Stewart Island. Es gibt sie außerdem auf zahlreichen kleinen Inseln vor den Küsten Neuseelands; auf den meisten von diesen sind sie aber mit Sicherheit, auf den übrigen mit hoher Wahrscheinlichkeit durch den Menschen eingeführt worden. Das ursprüngliche Habitat der Kiwis waren die Wälder, die mit Ausnahme der Hochgebirge Neuseeland vor der Ankunft polynesischer Siedler nahezu lückenlos bedeckten. Heute sind sie auch in den künstlich entstandenen, strauchbestandenen offenen Geländen heimisch. Sie gehören außerdem zu den äußerst wenigen einheimischen Tieren, die sich in den von den Europäern angepflanzten Nadelbaummonokulturen ansiedeln konnten. Allerdings sind Kiwis trotz ihrer Anpassungsfähigkeit durch den Jagddruck durch eingeschleppte Raubtiere aus zahlreichen Regionen verschwunden und nur noch lückenhaft über Neuseeland verbreitet. Im Gebirge gibt es Kiwis bis in Höhen von 1200 Metern. Alle Kiwis brauchen Habitate mit hohem Grad an Feuchtigkeit und lockerem, humusreichem Boden. Aktivität. Kiwis sind ausschließlich nachtaktiv. Am Tag verbergen sie sich in ihren Höhlen und Unterschlüpfen, die sie vor Sonnenuntergang nicht verlassen. Kommen sie dann hervor, bewegen sie sich bei völliger Dunkelheit im Schutz von Unterholz und Gesträuch. Dabei orientieren sie sich, für Vögel eher ungewöhnlich, mit ihrem guten Geruchssinn und ihrem Gehör. Ihr ganzes Leben lang bewohnen die Kiwis ein Revier, das sie mit dem Partner teilen, mit dem sie in Monogamie zusammenleben. Das Revier wird von beiden Geschlechtern verteidigt und hat eine von Art zu Art stark schwankende Größe: Zwergkiwis bewachen nur 2 bis 3 Hektar, während das Revier eines Streifenkiwi-Paars 5 bis 50 Hektar umfasst. Während die Reviergrenzen in der Fortpflanzungszeit aggressiv verteidigt werden, wird zu anderen Zeiten des Jahres die Anwesenheit anderer Kiwis im Revier bis zu einem gewissen Grad toleriert. Geht ein Revier durch Rodung verloren, bleibt ein Kiwi-Paar oft noch mehrere Wochen dort, bevor es sich nach einer neuen Umgebung umsieht. Die Reviergrenzen werden mit Kot markiert, wiederum ein eigentlich säugetiertypisches Verhalten, das man unter Vögeln sonst so gut wie nicht findet. Innerhalb des Reviers legen Kiwis zahlreiche Baue an, die wechselnd genutzt werden. Sie dienen zum Schlafen und in der Fortpflanzungszeit auch als Bruthöhle. Der Eingang ist bis 15 Zentimeter breit und meistens unter dichter Vegetation oder zwischen Baumwurzeln verborgen. Ein bis zu zwei Meter langer Tunnel führt von hier bis zur Höhle, die groß genug ist, um Platz für zwei Kiwis zu bieten. Einzelgängerische Kiwis sind entweder recht junge Vögel oder solche, die ihren Partner verloren haben. Ernährung. Kiwis sind zwar Allesfresser, die sich von allen tierischen und pflanzlichen Materialien ernähren, hauptsächlich stochern sie aber im Erdreich nach wirbellosen Tieren, vor allem Regenwürmern, Tausendfüßern und Insektenlarven. Die Bewegungen der Tiere im Boden können von Kiwis wahrgenommen werden; sie versenken dann ihren Schnabel im Erdreich und ertasten die Beute. Hierdurch hinterlassen Kiwis in ihrem Revier charakteristische Schnabellöcher, die bis zu 15 cm tief sind und die Anwesenheit eines Kiwis sicher verraten. Nebenbei werden auch Früchte und Insekten vom Boden aufgelesen. Fortpflanzung. Als monogame Vögel suchen Kiwis erst einen neuen Partner, wenn der alte gestorben ist. Man hat Kiwi-Paare beobachtet, die über zehn Jahre zusammen verbracht haben. Alljährlich zwischen August und Oktober beginnt für die Kiwi-Paare die Fortpflanzungszeit. Sie jagen dann einander, vollführen Sprünge und sind äußerst ruffreudig. Zum Brüten wird nur einer der Baue im Revier genutzt, und zwar stets einer, der bereits mehrere Monate oder gar Jahre alt ist, so dass der Eingang mit pflanzlicher Vegetation zuwachsen konnte. Das Männchen bereitet hierin das Nest vor, indem es Moose und Gräser sammelt und damit die Nisthöhle auspolstert. Das Weibchen legt dann ein oder zwei, selten drei Eier. Das Ei hat eine gewaltige Größe. Beim Streifenkiwi ist es 13 cm lang und hat einen Durchmesser von 8 cm. Das Gewicht beträgt etwa 500 Gramm. Dies sind im Verhältnis zur Körpergröße ihrer Erzeuger die größten Vogeleier der Welt – sie erreichen bis zu 30 Prozent des Körpergewichts des Weibchens. Beim Streifenkiwi und beim Zwergkiwi brütet anschließend nur das Männchen, beim Haastkiwi beide Geschlechter abwechselnd. Wenn das Männchen allein brütet, schläft das Weibchen in einem anderen Bau, der in der Nähe gelegen ist. Mit 63 bis 92 Tagen dauert die Brutzeit ungewöhnlich lange. Das brütende Männchen verlässt den Bau jede Nacht, um zu fressen; die Dauer der Aktivität wird während der Brut kaum eingeschränkt. Beim Haastkiwi übernimmt das Weibchen in diesen Pausen das Brutgeschäft. Die Eier sind sehr gefährdet, vor allem Wekarallen sind auf Kiwi-Eier aus. Die schlüpfenden Kiwis sehen bereits aus wie kleine Ausgaben der Eltern. Als Nestflüchter wandern sie fünf oder sechs Tage nach dem Schlüpfen bereits umher. Während sie am Tage noch vom Männchen behütet werden, verlassen sie nachts das Nest allein und werden kaum von den Eltern bewacht. Die Jungen fallen den in Neuseeland eingeschleppten Katzen, Hunden und Wieseln daher sehr häufig zum Opfer. Mit eineinhalb Jahren erreichen Kiwis ihre volle Größe und mit zwei Jahren sind sie geschlechtsreif. Sie können über 20 Jahre alt werden. Äußere Systematik. Die klassische Sichtweise der externen Systematik ist, dass die nächsten Verwandten der Kiwis die Moas sein müssten. Begründet war diese Ansicht lediglich dadurch, dass diese beiden Laufvogelfamilien in Neuseeland verbreitet sind. Jedoch ist es wahrscheinlich, dass sie sich vor sehr langer Zeit voneinander getrennt haben, als Neuseeland noch ein Teil Gondwanas war, und dass es eher ein Zufall ist, dass beide Taxa nur in Neuseeland bis ins Holozän überlebt haben. Neue DNA-Analysen kommen zu dem Ergebnis, dass Kiwis nicht mit den Moas verwandt sind. Sowohl Haddrath & Baker 2001 als auch Cooper 1997 kamen zu dem Schluss, dass die Kiwis die Schwestergruppe eines gemeinsamen Taxons von Kasuaren und Emus seien, und dass diese drei Taxa gemeinsam wiederum die Schwestergruppe der Strauße seien. Unumstritten ist jedoch auch diese These nicht. So ermittelten Mitte 2014 Mitchell und Kollegen nach dem Vergleich von mitochondrialer DNA die riesigen, ausgestorbenen madegassischen Elefantenvögel (Aepyornithidae) als Schwestergruppe der Kiwis. Beide sollen von flugfähigen Vorfahren abstammen und sich vor etwa 50 Millionen Jahren evolutionär voneinander getrennt haben. Da auf Neuseeland schon die Moas existierten und die ökologische Nische des großen Laufvogels damit schon besetzt war, entwickelten sich die Kiwis zu nachtaktiven kleinen Kleintierfressern. Innere Systematik. Die drei Streifenkiwiarten werden oft als Unterarten einer Art, des Streifenkiwis, aufgefasst. Die oben gezeigte Einteilung folgt der Auffassung von Burbidge 2003, wonach diese Unterarten den Status eigenständiger Arten erhalten sollten. Fossilgeschichte. Kiwi-Fossilien kennt man lediglich aus dem Pleistozän und Holozän. Allerdings werden Vermutungen, dass sie eine sehr alte Tiergruppe sind, durch Fußabdrücke aus dem Miozän gestützt, die den Kiwis zugewiesen werden. Eine gelegentlich genannte fossile Art aus dem Pliozän Australiens ("Metapteryx bifrons") ist nach Ansicht der meisten Zoologen in Wahrheit ein Jungtier aus der Verwandtschaft der Emus. Ein Verkehrszeichen, das vor Kiwis warnt, welche die Straße überqueren Menschen und Kiwis. Seit die ersten Māori-Siedler Neuseeland erreichten, wurden Kiwis von diesen und auch zugleich eingeschleppten Säugetieren (v. a. Hunden) im großen Maßstab gejagt. Schon die Maori verdrängten Kiwis aus zahlreichen Regionen und schufen somit inselhaft zerrissene Verbreitungsgebiete der Kiwis. Das Aussterben des Zwergkiwis auf der Nordinsel wurde durch die Maori verursacht. Für die Kiwi-Jagd eigneten sich die Maori spezielle Taktiken an, die auch die Nachahmung der Rufe beinhalteten. Kiwis wurden vor allem wegen ihres Fleisches gejagt, aber auch wegen der Federn, die als Schmuck Bedeutung hatten. Als die weißen Siedler Neuseeland erreichten, verschlechterte sich die Situation für die Kiwis nochmals. Im 19. Jahrhundert wurden Kiwi-Federn sogar nach Europa exportiert, da man sie als Besatz von Kleidern verwendete. Zudem erfreuten sich ausgestopfte Kiwis einer wachsenden Beliebtheit bei Sammlern. Vor allem die von den Weißen mitgebrachten Hunde, Katzen, Füchse und Marder (Wiesel und Hermelin) sorgten für einen Jagddruck, dem die Vögel kaum gewachsen waren. So wurden Kiwis im Osten und Norden der Südinsel sowie in küstennahen Regionen der Nordinsel vollends ausgerottet. Rückzugsgebiete blieben unter anderem das Fjordland, die Tongariro-Region, die North Auckland Peninsula und Stewart Island. Die Jagd auf Kiwis wurde 1896 verboten. Seit 1921 stehen Kiwis unter Schutz. Von Menschen droht Kiwis heute keine direkte Gefahr mehr, wohl aber noch immer durch die Landschaftszerstörung und vor allem durch die eingeschleppten Tiere. In den 1990ern tötete ein einziger entlaufener Schäferhund im Wald von Waitangi innerhalb weniger Tage 500 Kiwis, was mehr als die Hälfte der dortigen Population war. Es wird geschätzt, dass auf dem Festland 94 Prozent der jungen Kiwis von Katzen oder Wieseln getötet werden, bevor sie 100 Tage alt werden. Alle fünf Kiwi-Arten werden von der IUCN als gefährdet geführt. Da die Kiwis als Nationalvögel Neuseelands einen hohen Bekanntheitsgrad haben, gibt es in jüngerer Zeit verstärkte Bemühungen um ihren Schutz. Gefährdete Populationen werden auf Inseln gebracht, die vorher von Katzen, Ratten und anderen potenziellen Gefahren gesäubert werden. Vom Streifenkiwi ("Apteryx mantelli"), der auf der Nordinsel lebt, existieren nur noch rund 35.000 Tiere. Er wird daher als gefährdet eingestuft. Die Population des Okarito-Kiwis "Apteryx rowi" besteht sogar nur noch aus 375 Individuen (2012) und ist akut vom Aussterben bedroht. Der Begriff „Kiwi“. In Neuseeland haben Kiwis als Nationalvögel einen so hohen Stellenwert, dass sich auch die Einwohner des Landes als „Kiwis“ bezeichnen. Abgeleitet hiervon nennt sich beispielsweise eine Bank Kiwibank, oder die staatliche Rentenkasse Neuseelands heißt ‚Kiwisaver‘. Dies führte dazu, dass zahlreiche neuseeländische Produkte die Vorsilbe „Kiwi-“ bekamen. Das bekannteste Beispiel ist die Kiwifrucht, die eigentliche „chinesische Stachelbeere“ ("Actinidia deliciosa"). Sie wurde in Neuseeland das erste Mal außerhalb Asiens in großem Stil angepflanzt und 1959 von der Handelsfirma "Turners & Growers" erstmals sogar unter dem Markennamen „Kiwi“ exportiert, in o. g. Anlehnung an die Identifizierung mit dem Nationalvogel. So ist heute die chinesische Stachelbeere unter dem neuseeländischen Namen „Kiwi“ in Europa bekannter als unter ihrem richtigen und eben auch als der eigentlich namengebende Vogel. Actinidia deliciosa. "Actinidia deliciosa," im Deutschen als Kiwi, Chinesischer Strahlengriffel oder Chinesische Stachelbeere bezeichnet, ist eine nur in Kultur vorkommende Art der Strahlengriffel. Diese Art, besonders die Sorte ‘Hayward’, liefert den Großteil der weltweit gehandelten Kiwifrüchte. Sie wird erst seit 1984 als eigene Art vom Chinesischen Strahlengriffel ("Actinidia chinensis") unterschieden. Merkmale. "Actinidia deliciosa" ist eine ausdauernde, verholzte, lianenartig wachsende, sommergrüne Schlingpflanze. Die Blätter stehen wechselständig und sind je nach Varietät sehr unterschiedlich geformt. Sie sind breit bis langgestreckt, oval bis herzförmig. An der Unterseite sind sie weich behaart. Diese Art ist diözisch, das heißt, es gibt männliche und weibliche Blüten an getrennten Pflanzen. Die Blüten stehen einzeln oder zu mehreren in Blütenständen, die seitlich aus Blattachseln entspringen. Die Blütenstände entstehen an vorjährigen Trieben. Die Blüten sind vier bis fünf Zentimeter groß, weiß und wohlriechend. Die Früchte sind ovale bis walzenförmige Beeren von bis zu acht Zentimeter Länge und fünf Zentimeter Breite. Manchmal sind sie zweiseitig abgeflacht. Die Schale ist dünn und fellartig behaart. Die Farbe der Schale ist je nach Varietät grün bis braun, manche seltene Arten können auch eine pinkfarbene Schale ausbilden. Das Fruchtfleisch ist glasig, saftig und je nach Varietät hell- bis dunkelgrün. Die Fruchtachse ist cremefarben und fleischig. Die zahlreichen Karpelle erscheinen im Querschnitt strahlenförmig hell, zwischen ihnen sitzen viele kleine dunkle Samen. Samenanzahl und Fruchtgröße hängen stark voneinander ab, weshalb eine gute Befruchtungsquote für den Ertrag wichtig ist. Namen. Der Name "Kiwi" für diese Frucht wurde aus marktstrategischen Überlegungen 1959 in Neuseeland erfunden und leitet sich vom Kiwi-Vogel ab. In Nordamerika und deutschsprachigen Ländern wird die Frucht meistens „Kiwi“ genannt, im Gegensatz zu den meisten anderen englischsprachigen Ländern, wo die Frucht "kiwi fruit" („Kiwifrucht“) genannt wird. Die Verwendung des Namens „Kiwi“ kann zu Verwechslungen mit den Einwohnern Neuseelands führen, deren Spitzname ebenfalls „Kiwi“ lautet. Die Bezeichnung „Kiwi“ wurde nicht geschützt, und so wurde sie schon bald auch für außerhalb Neuseelands angebaute Kiwis verwendet. Die in Neuseeland angebauten Kiwis werden heute unter dem Markennamen Zespri von der gleichnamigen Marketingorganisation vertrieben. Inhaltsstoffe. Kiwis enthalten je 100 g Frucht etwa 71 mg Vitamin C. Sie enthalten außerdem das eiweißspaltende Enzym Actinidain, das jedoch beim Kochen zerstört wird. Rohe Kiwis vertragen sich nicht mit Milchprodukten – die Speise wird nach wenigen Minuten bitter, wenn die Früchte roh hinzugefügt werden, weil das Enzym in der Frucht das Milcheiweiß zersetzt. Dabei bilden sich bitter schmeckende Peptide, die sonst nur beim bakteriellen Verderb auftreten. Abhilfe schafft kurzes Dünsten mit etwas Zucker und Wasser oder Saft. Andererseits sind rohe Kiwis ein guter Nachtisch für eiweißreiche Speisen, da das Enzym die Verdauung der Eiweiße erleichtert. Quelle: EU-Nährwertkennzeichnungsrichtlinie (EU NWKRL 90/496/EWG) und Rewe-Nährwerttabelle sowie im Lexikon der Ernährung Quelle: EU Nährwertkennzeichnungsrichtlinie (EU NWKRL 90/496/EWG) Anbau. Die Früchte stammen ursprünglich aus dem südlichen China. Die Lehrerin Mary Isabel Fraser importierte die ersten Samen aus einer Mission in Yichang im Jangtsekiangtal im Januar 1904 nach Neuseeland. Der Gärtner Alexander Allison pflanzte diese auf seinem Grundstück südlich von Wanganui an, wo die Pflanzen 1910 erstmals Früchte auf neuseeländischem Boden trugen. Der Gartenbauwissenschaftler Hayward Wright züchtete aus diesen zunächst Chinesische Stachelbeere genannten Pflanzen erstmals kommerziell die Sorte ‘Hayward’, die auch noch heute einen Großteil der gehandelten Kiwifrüchte ausmacht. Um 1950 wurden diese erstmals in der Bay of Plenty angebaut und schon bald darauf nach Europa und Nordamerika exportiert. Italien ist weltweit der führende Produzent von Kiwifrüchten, gefolgt von Neuseeland, Chile, Frankreich, Griechenland, Türkei und Japan. In China und Taiwan werden Kiwis nach wie vor angebaut, China ist es bis jetzt jedoch nicht gelungen, zu den wichtigsten zehn Produzenten dieser Frucht aufzuschließen. Angebaut werden Kiwis dort vorwiegend in der bergigen Region von Changjiang und Sichuan. In den italienischen Provinzen Rom und Latina ist die Kiwifrucht mit der Herkunftsbezeichnung I.G.P. als "Kiwi Latina" geschützt. Systematik und Sorten. "Actinidia deliciosa" wurde erst 1984 als eigenständige Art beschrieben, vorher galt sie als Varietät von "Actinidia chinensis." Wichtige weibliche Sorten sind ‘Bruno’, ‘Abbott’, ‘Allison’ und ‘Monty’. Die wichtigste mit rund 80 Prozent der Weltproduktion ist jedoch ‘Hayward’, die sich durch Großfrüchtigkeit, guten Geschmack und lange Haltbarkeit auszeichnet, während ihre Ertragsfähigkeit geringer als bei anderen Sorten ist. Die 1989 eingeführte Sorte ‘Top Star Vantini’ aus Italien ist die erste unbehaarte Sorte. Die Sorte ‘Kiwi Gold’ (Handelsname Zespri Gold) gehört zur Art "Actinidia chinensis." Kirk Douglas. Kirk Douglas (ursprünglich "Issur Danielowitsch Demsky"; * 9. Dezember 1916 in Amsterdam, New York) ist ein US-amerikanischer Schauspieler. In den 1950er und 1960er Jahren zählte Douglas zu den führenden Hollywood-Stars und war oft in Western und Abenteuerfilmen zu sehen. Meist pflegte er das Image des harten Mannes mit starker maskuliner Ausstrahlung. Er ist der Vater des US-amerikanischen Schauspielers Michael Douglas. Leben. Kirk Douglas wurde als Sohn jüdisch-russischer Einwanderer (aus Homel, Weißrussland) geboren. Da seine Eltern jiddisch sprachen, spricht Douglas gut Deutsch. Während seiner Kindheit lebte er in einem New Yorker Armenviertel. Für den Besuch von Schule und College musste er sich das Geld sehr hart verdienen. Douglas gewann ein Ringkampfstipendium und durfte dadurch an der St. Lawrence University studieren (Chemie und Englische Literatur). Um die Studienkosten bezahlen zu können, arbeitete er als Hausmeister. Erst ein zweites Stipendium für die American Academy of Dramatic Arts führte ihn schließlich an den Broadway. Während des Zweiten Weltkriegs diente Douglas ab 1941 in der US Navy. Nach dem Ende des Krieges konnte er wieder zum Theater an den Broadway zurückkehren. Am 2. November 1943 heiratete Kirk Douglas die Schauspielerin Diana Dill. Aus dieser Ehe stammen die zwei Söhne Michael (* 1944) und Joel (* 1947). 1951 ließen sich die beiden scheiden, und Douglas heiratete 1954 die aus Hannover stammende Anne Buydens, mit der er noch immer verheiratet ist. Aus dieser Ehe gingen die zwei Söhne Peter und Eric Anthony hervor. Am 6. Juli 2004 wurde Eric tot in einem New Yorker Apartment aufgefunden. Er hatte seit Jahren unter Drogen- und Alkoholproblemen gelitten. Sein Filmdebüt hatte Kirk in dem Film "Die seltsame Liebe der Martha Ivers" (1946) an der Seite der etablierten Schauspielerin Barbara Stanwyck. Die guten Kritiken verhalfen ihm zu seiner nächsten großen Rolle als "Whit Sterling" in "Goldenes Gift" (1947) sowie als Noll Turner in dem Film "Vierzehn Jahre Sing-Sing" (1948). In den ersten Jahren seiner Karriere war Douglas noch häufiger als Filmschurke zu sehen, ehe er ab Anfang der 1950er-Jahre vor allem Heldenrollen spielen sollte. Für seine Rolle in dem Film "Zwischen Frauen und Seilen" (1949) erhielt er seine erste Oscar-Nominierung. In den folgenden fünf Jahren spielte er mehr als zwölf Hauptrollen, darunter in "Der Mann ihrer Träume", "20.000 Meilen unter dem Meer" und in "Die Fahrten des Odysseus". 1955 gründete Douglas seine eigene Filmproduktionsfirma, die er nach seiner Mutter benannte (Bryna Productions). Bis 1960 wirkte er unter anderem in so bekannten Filmen wie "Wege zum Ruhm" (1957), "Die Wikinger" (1958) und "Der letzte Zug von Gun Hill" (1959) mit. Als herausragendste Darstellung gilt allgemein seine Titelrolle in Vincente Minnellis Filmbiografie "Vincent van Gogh – Ein Leben in Leidenschaft" (1956), wofür er den New York Film Critics Circle Award und Golden Globe Award jeweils als bester Hauptdarsteller erhielt, bei der Oscar-Verleihung aber gegenüber Yul Brynner ("Der König und ich") das Nachsehen hatte. Ebenfalls die Titelrolle übernahm Douglas in Stanley Kubricks Großproduktion "Spartacus" (1960), in der er den gleichnamigen römischen Sklaven und Gladiator verkörperte und den Film auch mitproduzierte. Dabei verpflichtete Douglas den Drehbuchautor Dalton Trumbo, der kommunistischer Sympathien verdächtigt wurde und in Hollywood auf der Schwarzen Liste gestanden hatte. Rückblickend bezeichnete der Schauspieler die Entscheidung für Trumbo als wichtigste seiner Karriere. Douglas erwarb zu Beginn der 1960er Jahre die Rechte an dem 1962 von Ken Kesey geschriebenen Roman "Einer flog über das Kuckucksnest". In der von Dale Wasserman geschriebenen Theaterfassung, die am 13. November 1963 am New Yorker Broadway Uraufführung hatte, spielte Douglas den rebellischen McMurphy, Gene Wilder war in der Rolle des Billy Bibbit zu sehen. Kirk Douglas gelang es nicht, ein Filmstudio für eine Verfilmung des Romans zu begeistern. Er überließ schließlich die Filmrechte seinem Sohn Michael. Michael Douglas produzierte diesen Film, der 1975 in die Kinos kam, zusammen mit Saul Zaentz. Produziert wurde gemeinsam mit der Firma Fantasy Films, welche im Besitz eines Distributionsvertrags mit United Artists war. Der Film erhielt eine Reihe von Auszeichnungen, darunter nicht weniger als fünf Oscars: Bester Film, Beste Regie (Miloš Forman), Bestes adaptiertes Drehbuch, Bester Hauptdarsteller (Jack Nicholson), Beste Hauptdarstellerin (Louise Fletcher). Damit war der Film nach "Es geschah in einer Nacht" (1935) von Frank Capra der zweite Film, der in den fünf wichtigsten Kategorien – den sogenannten Big Five – einen Oscar gewinnen konnte. Die Rolle des McMurphy wurde im Film von Jack Nicholson übernommen, weil Kirk Douglas Mitte der 1970er Jahre als zu alt für diese Rolle galt. Douglas führte zweimal selbst Regie, erstmals im Jahr 1973 in dem Abenteuerfilm "Scalawag" und zwei Jahre später in dem Film "Männer des Gesetzes". Seine bisher letzte Rolle hatte Douglas in dem Film "Mord im Empire State Building" (2008). 1988 erschien seine Autobiografie unter dem Titel "The Ragmans Son", der im März 2007 die Fortsetzung mit dem Titel "Let’s Face It: 90 Years of Living, Loving, and Learning" folgte. Douglas schrieb zudem mehrere Romane. Am 13. Februar 1991 überlebte Douglas einen Hubschrauberabsturz, bei dem zwei Menschen starben. 1995 erlitt er einen Schlaganfall. In der Simpsons Episode "Wer erfand Itchy und Scratchy?" war Douglas als Synchronsprecher des Charakters Chester Lampwick zu hören. Bei der Oscarverleihung 2011 übergab er den Preis für die beste Nebendarstellerin an Melissa Leo. Heute lebt Kirk Douglas mit seiner zweiten Ehefrau zurückgezogen in Kalifornien. Synchronisation. Im deutschsprachigen Raum wurde Douglas im Allgemeinen seit Ende der 50er Jahre in vielen Filmen von Arnold Marquis synchronisiert. Da dieser jedoch zu den meistbeschäftigten deutschen Synchronsprechern gehörte, konnte er dieser Rolle nicht immer nachkommen. So wurde er zum Beispiel von Gert Günther Hoffmann, Horst Niendorf, René Deltgen oder Heinz Drache vertreten, vor allem auch dann, wenn neben Douglas ein weiterer männlicher Schauspieler vorkam, der zuvor auch schon häufiger von Marquis synchronisiert worden war. Auszeichnungen. Kirk Douglas wurde in seiner ganzen schauspielerischen Laufbahn drei Mal für den Oscar als bester Schauspieler nominiert ("Champion", "Stadt der Illusionen", "Vincent van Gogh – Ein Leben in Leidenschaft"), bekam ihn aber nie. Erst 1996 erhielt er den Ehren-Oscar für sein Lebenswerk. In der vom American Film Institute herausgegebenen Liste der „Top 25 der männlichen Filmstars“ ist Kirk Douglas auf Position 17 platziert. Sonstiges. Im Asterix-Band "Obelix auf Kreuzfahrt" ist eine der Hauptfiguren, der Grieche "Spartakis", der der Anführer einer Gruppe revoltierender Sklaven ist, sowohl dem Schauspieler Kirk Douglas nachempfunden als auch eine Anspielung auf dessen Rolle im Film „"Spartacus"“. Konrad Adenauer. Konrad Hermann Joseph Adenauer (* 5. Januar 1876 in Köln; † 19. April 1967 in Rhöndorf; eigentlich "Conrad Hermann Joseph Adenauer") war von 1949 bis 1963 der erste Bundeskanzler der Bundesrepublik Deutschland und von 1951 bis 1955 zugleich erster Bundesminister des Auswärtigen. Bereits im Kaiserreich und in der Weimarer Republik absolvierte der Jurist und Angehörige der katholischen Zentrumspartei eine politische Karriere: Er war Oberbürgermeister von Köln, gehörte dem preußischen Herrenhaus an und verteidigte als Präsident des preußischen Staatsrats energisch die Interessen des Rheinlands, dem er zeitlebens eng verbunden blieb. In der Zeit des Nationalsozialismus wurde er seiner Ämter enthoben und war zeitweise inhaftiert. Adenauer gehörte zu den Begründern der CDU, deren Partei­vorsitzender er von 1950 bis 1966 war. Als Präsident des Parlamentarischen Rates sowie als erster Bundeskanzler und Außenminister der Bundesrepublik Deutschland prägte er eine ganze Ära. Der zum Amtsantritt bereits 73-jährige setzte sich für Bonn als Bundeshauptstadt ein, stand für eine Politik der Westbindung und der Europäischen Einigung und eine aktive Rolle der Bundesrepublik in der NATO. Adenauer stand wirtschaftspolitisch für das System der Sozialen Marktwirtschaft. Er verfolgte einen antikommunistischen Kurs im Inland wie gegenüber der Sowjetunion und deren Satellitenstaaten. Herkunft und Kindheit. Konrad Adenauer war das dritte von fünf Kindern des Sekretärs am Appellationsgericht (heute Oberlandesgericht Köln) und späteren Kanzleirats Johann Konrad Adenauer (1833–1906) und seiner Ehefrau Helene, geborene Scharfenberg (1849–1919). Seine Familie war römisch-katholisch geprägt. Seine Geschwister waren August (1872–1952), Johannes (1873–1937), Lilli (1879–1950) und Elisabeth (1882, dreieinhalb Monate nach der Geburt gestorben). Studium und Beginn der Karriere. Adenauer legte am 5. März 1894 das Abitur am Apostelgymnasium in Köln ab. Von 1894 bis 1897 studierte er an den Universitäten von Freiburg im Breisgau, München und Bonn Rechts- und Staatswissenschaft. Dort trat er jeweils in die katholischen Studentenverbindungen K.St.V. Brisgovia Freiburg im Kartellverband katholischer deutscher Studentenvereine (KV) zu Freiburg, KStV Saxonia im KV zu München und in den K.St.V. Arminia im KV zu Bonn ein, denen er zeitlebens eng verbunden blieb. Sein erstes juristisches Staatsexamen legte er 1897 mit dem Prädikat „gut“ ab, sein zweites 1901 mit „ausreichend“. Anschließend wurde er 1902 Assessor in Köln. Von 1903 bis 1905 war er Vertreter von Justizrat Hermann Kausen, Rechtsanwalt beim Oberlandesgericht Köln. 1906 trat Adenauer der katholischen Zentrumspartei bei, war bis 1933 Mitglied von deren Reichsvorstand und wurde am 7. März 1906 zum Beigeordneten der Stadt Köln gewählt. Am 22. Juli 1909 wurde er Erster Beigeordneter und damit erster Stellvertreter des Oberbürgermeisters Max Wallraf, der der Onkel seiner ersten Frau war. Der Aufgeschlossenheit und Initiative Adenauers ist es zu verdanken, dass in Köln-Deutz 1914 die Kölner Werkbundausstellung eröffnet wurde. Während des Ersten Weltkriegs war Adenauer für die Versorgung der Stadtbevölkerung mit Lebensmitteln zuständig, die auch aufgrund der britischen Seeblockade zunehmend schwieriger wurde. Erfolgreich führte er verschiedene Ersatzprodukte ein, so ein von ihm selbst erfundenes „Kölner Brot“ aus Reis- und Maismehl, Topinambur statt der Kartoffeln, die nach einer Kartoffelfäule-Epidemie 1916 Mangelware waren, und nicht zuletzt Graupen. Für sein „Rheinisches Schwarzbrot“ erhielt er am 2. Mai 1915 sogar ein Patent. Zwar konnte er so die bedrohlichsten Folgen des Steckrübenwinters 1916/17 mildern, doch wegen des unbefriedigenden Geschmacks der von ihm eingeführten Produkte bedachte ihn die Kölner Bevölkerung mit dem despektierlichen Spitznamen „Graupenauer“. Oberbürgermeister Kölns. a> Notgeld Banknote 10 Pfg 1918, unterschrieben von Oberbürgermeister Konrad Adenauer, auf der Rückseite das historische Rathaus Kölns Am 18. September 1917 wählte ihn die Kölner Stadtverordnetenversammlung zum damals jüngsten Oberbürgermeister einer deutschen Großstadt; das Amt wurde offiziell am 21. Oktober durch Erlass des Königs von Preußen übertragen. Von 1917 bis 1933 und für einige Monate des Jahres 1945 war er Oberbürgermeister der Stadt Köln. Am 12. Februar 1918 wurde Adenauer auf Lebenszeit in das Preußische Herrenhaus berufen, welches allerdings infolge der Novemberrevolution noch im selben Jahr abgeschafft wurde. In den zwanziger Jahren gehörte Adenauer den Aufsichtsräten der Deutschen Bank, der Deutschen Lufthansa, des Rheinisch-Westfälischen Elektrizitätswerkes, der Rhein AG für Braunkohlenbergbau und Brikettfabriken und weiterer 12 Unternehmen sowie dem Reichswirtschaftsrat an. Von 1920 bis 1933 war er mit Unterstützung von Zentrum, SPD und DDP Präsident des preußischen Staatsrats. In dieser Funktion stand er in einer politischen Dauerfehde mit dem sozialdemokratischen preußischen Ministerpräsidenten Otto Braun, welche von Adenauer bis vor den Staatsgerichtshof für das Deutsche Reich getragen wurde. Während Braun ein starkes zentralisiertes Preußen als Bollwerk der Demokratie begriff, stand Adenauer den Bestrebungen der Zentrumspartei nahe. Sie zielte in den Krisenjahren nach dem Ersten Weltkrieg 1918/19 und 1929 auf ein Rheinland ab, das autonom von Preußen sein sollte. Damals und später wurde daher der Vorwurf gemacht, Adenauer habe das Rheinland auch von Deutschland trennen wollen (siehe auch: Rheinische Republik). Außerdem war Adenauer als Verfechter des Kolonialgedankens von 1931 bis 1933 als Vizepräsident der Deutschen Kolonialgesellschaft politisch tätig. In der Weimarer Republik war er mehrfach (1921, 1926, 1928) als Kandidat für das Amt des Reichskanzlers im Gespräch. Am aussichtsreichsten war dies für den "Kanzler des Westens" und "König des Rheinlands" 1926, er konnte aber seine politischen Forderungen nicht durchsetzen. Ein Tausch des sicheren und persönlich befriedigenden Amtes in Köln mit der unsicheren Reichskanzlerschaft erschien ihm auch nicht als Gewinn. 1928 verspekulierte Adenauer sein Vermögen durch den Ankauf von Glanzstoff-Aktien, deren Kurs bald sank. Dadurch drohten ihm die Schulden, die er bei der Deutschen Bank hatte, über den Kopf zu wachsen, doch ließ er sich aus einem sogenannten Schwarzen Fonds vom Vorstandsvorsitzenden der Glanzstoff AG Fritz Blüthgen zwei Aktienpakete im Nominalwert von insgesamt 1,14 Millionen Reichsmark zur Verfügung stellen, die er unter Vermittlung seines Freundes Louis Hagen zum Ausgleich seines Kontos einsetzte. Im Februar 1931 berichtete die Kölner Lokalpresse von den Finanzschwierigkeiten des Oberbürgermeisters, Deutschnationale und Nationalsozialisten setzten sie in der Stadtverordnetenversammlung auf die Tagesordnung. Adenauer hatte sich aber im Voraus eine Erklärung der Deutschen Bank besorgt, die die umlaufenden „unzutreffenden Gerüchte und Behauptungen“ mit dem Hinweis dementierte, sein Konto sei „völlig ausgeglichen“. Im Ersten Weltkrieg zeigte Adenauer Weitblick dadurch, dass er – vor vielen anderen – den Krieg frühzeitig als verloren ansah und damit begann, Nahrungsmittel zu horten. Nach dem Krieg setzte er durch, dass aus dem alten preußischen Festungsring ein Grüngürtel wurde – eine für damalige Verhältnisse ungewöhnliche Neuerung. Während seiner Amtszeit wurden 1919 die Universität zu Köln, 1924 die Messe,1925 die Musikhochschule und 1926 die Kölner Werkschulen (nachdem er die Kunsthochschule „Das Bauhaus“ nicht nach Köln holen konnte) neu- beziehungsweise wieder eröffnet. Fritz Schumacher, von 1920 bis 1923 Stadtplaner unter Adenauer, sagte zu dessen Engagement in Zeiten der Inflation: „Je mehr zusammenzubrechen schien, mit desto größerer Energie trieb Adenauer die Arbeiten voran.“ Adenauer bemühte sich intensiv, ausländische Investoren nach Köln zu holen. 1927 hatte er bereits eine Zusage von Citroën für eine Automobilfabrik, das Projekt verlief dann aber doch im Sande. Nach intensiven Verhandlungen mit dem US-amerikanischen Autohersteller Ford gelang es ihm, das Unternehmen davon zu überzeugen, ein komplett neues Werk in Köln zu errichten, anstatt die schon bestehenden kleineren Anlagen in Berlin auszubauen. Allerdings konnte auch dieses Werk die wirtschaftlichen Probleme, in die Köln wie das gesamte Reich in der Spätphase der Weimarer Republik kam, nur kurzfristig aufhalten. Beim Bau der damals technisch einmaligen Mülheimer Brücke verhandelte er taktisch geschickt mit der KPD; anders war dieses Projekt im Rat nicht durchzubringen. 1931 kam es zur ersten größeren Auseinandersetzung mit den Nationalsozialisten, als diese in einer nächtlichen Aktion die Rheinbrücken mit Hakenkreuzfahnen beflaggten. Adenauer ließ – nach seiner späteren eigenen Darstellung – die Fahnen mit Verweis darauf, dass die Brücken öffentliche Bauwerke seien, unverzüglich wieder entfernen. Durch seine Standhaftigkeit in dieser nur scheinbaren Bagatelle geriet Adenauer in das Visier der SA, die sogar öffentlich Geld "für die Kugel Adenauers" sammeln ließ. In Wirklichkeit hatte jedoch Adenauer mit der örtlichen NSDAP-Kreisleitung eine Absprache getroffen, deren Fahne von der stadteigenen Brücke – weil politisch neutrales Terrain – abzunehmen und vor der – gleichfalls der Stadt gehörenden – Messehalle wieder aufzuziehen. Dort sollte Hitler sprechen. Adenauer musste seine aufgebrachten Parteifreunde deshalb beruhigen. In einem späteren Schreiben an den Reichsinnenminister vom 10. August 1934 legte Adenauer demzufolge auch Wert darauf, dass er entgegen den restriktiven Erlassen des preußischen Innenministers Severing (SPD) der NSDAP „das Hissen ihrer Hakenkreuzfahnen an den städtischen Flaggenmasten“ gestattet habe. Auch nach dem sogenannten Preußenschlag von 1932, als von Papen die preußische Staatsregierung absetzte, blieb Adenauer Mitglied im Dreimännerkollegium. Nach der Machtergreifung. Nach der Machtübernahme Adolf Hitlers und der Nationalsozialisten unterlag die Zentrumspartei in Köln bei den Kommunalwahlen vom 12. März 1933. Die NSDAP enthob Adenauer, der unter anderem einem nationalsozialistischen Führer bei dessen Besuch in Köln den Handschlag verweigerte, seines Amtes als Oberbürgermeister und wenig später auch des Amtes als Präsident des preußischen Staatsrats. Ohne die Berliner Dienstwohnung und in Köln bedroht von seinen nationalsozialistischen Gegnern, die auf Wahlkampfplakaten „Adenauer, an die Mauer!“ gefordert hatten und ihm Dienstvergehen vorwarfen, bat Adenauer einen ehemaligen Schulfreund um Hilfe: Der Abt von Maria Laach, Ildefons Herwegen, nahm Adenauer am 26. April 1933 vorübergehend in der Abtei auf. Der ehemalige Bürgermeister führte von hier aus das Dienststrafverfahren, das er gegen sich selbst beantragt hatte, und blieb, bis er im April 1934 ein Haus im Potsdamer Vorort Neubabelsberg bezog. Dort wurde er am 30. Juni 1934 im Zusammenhang mit dem "Röhm-Putsch" für zwei Tage festgenommen. Um seinen Pensionsanspruch zu wahren, verwies Adenauer in einem zehnseitigen Brief vom 10. August 1934 an den preußischen Innenminister in Berlin auf sein bisheriges Verhalten gegenüber der NS-Bewegung: Er habe die NSDAP „immer durchaus korrekt behandelt“ und beispielsweise „jahrelang entgegen der damaligen Verfügung des preußischen Innenministers der NSDAP die städtischen Sportplätze zur Verfügung gestellt und ihr bei ihren Veranstaltungen auf diesen das Hissen ihrer Hakenkreuzfahnen an den städtischen Flaggenmasten gestattet“. Weiterhin habe er sich einer Anordnung des preußischen Staatsministeriums widersetzt, nationalsozialistische Beamte „zwecks Disciplinierung“ namhaft zu machen, „da (er) sie für unberechtigt und für ungerecht hielt“. Er sagte in diesem Brief auch, 1932 erklärt zu haben, „daß nach (s)einer Meinung eine so große Partei wie die NSDAP unbedingt führend in der Regierung vertreten sein müsse“. Ende 1932 hatte sich Adenauer für eine Regierungsbildung von Zentrum und Nationalsozialisten in Preußen ausgesprochen. Am 29. Juni 1933, also kurz nach Hitlers Ernennung zum Kanzler, schrieb er in einem Brief: „Dem Zentrum weine ich keine Träne nach; es hat versagt, in den vergangenen Jahren nicht rechtzeitig sich mit neuem Geiste erfüllt. M.E. ist unsere einzige Rettung ein Monarch, ein Hohenzoller[,] oder meinetwegen auch Hitler, erst Reichspräsident auf Lebenszeit, dann kommt die folgende Stufe. Dadurch würde die Bewegung in ein ruhigeres Fahrwasser kommen.“ Er befürchtete, „wenn der revolutionäre Zustand nicht rechtzeitig in die Periode der neuen Ruhe und des neuen Aufbaus übergeht, dann kommt die Katastrophe“. In einem als Reaktion auf Adenauers Eingabe verfassten Vermerk des Reichs- und Preußischen Ministeriums des Innern vom 8. November 1934 wird Adenauer zu „denjenigen Persönlichkeiten [gezählt], die als Träger des verflossenen politischen Systems in besonders ausgesprochener Weise hervorgetreten sind“. Minister Wilhelm Frick (NSDAP) lehnte die Eingabe noch am selben Tag ab. Ab 1933 bekam Adenauer eine reduzierte Pension von ca. 1000 Reichsmark monatlich. In den Jahren nach 1934 wechselte er häufig seinen Aufenthaltsort und versteckte sich zeitweise, im Januar 1935 u. a. für kurze Zeit auch in der Abtei Herstelle. So lebte er bis 1945 als Pensionär. Immobilienangelegenheiten. 1937 erreichte er nach zähem Ringen eine Nachzahlung seiner Pension und eine Entschädigung für sein Kölner Haus. In einem Vergleich mit der Stadt Köln erhielt er 153.886,63 Reichsmark. Von diesem Geld ließ er sich 1938 von seinem Schwager, dem Architekten Ernst Zinsser, ein Haus im Bad Honnefer Stadtteil Rhöndorf errichten. Das Haus in Köln wurde ihm nach 1945 rückübertragen. Nach dem 20. Juli 1944. Nach dem gescheiterten Aufstand gegen Hitler am 20. Juli 1944 wurde Adenauer im Rahmen der Aktion Gitter am 22. August verhaftet und in das Kölner Gestapo-Gefängnis EL-DE-Haus gebracht. Konkrete Verdachtsmomente gegen ihn lagen nicht vor. Das ehemalige Zentrumsmitglied selbst war wiederholt von den Widerstandskämpfern angesprochen worden; er lehnte jede Beteiligung strikt ab, wohl weil er die Erfolgsaussichten als gering einschätzte. Einen Tag später wurde er von dort mit anderen ehemaligen Reichstagsabgeordneten und Politikern demokratischer Parteien (u. a. mit Eßer, Baumhoff, Schlack, Gerig und Roth) in das Arbeitserziehungslager in den Messehallen in Köln-Deutz überführt. Dort nahm ihn der Kölner Kommunist Eugen Zander, der als Kapo für die neuen Häftlinge zuständig war, unter seine Fittiche. Als dieser Adenauers Namen in der Gefangenenkartei mit dem Vermerk „Rückkehr unerwünscht“ entdeckte, empfahl er Adenauer, sich krank zu stellen. Adenauer erreichte mittels einer ärztlich bescheinigten „perniziösen Anämie“ eine Überweisung ins Krankenhaus Köln-Hohenlind, von wo er floh. Er wurde später wieder gefasst, am 26. November 1944 aber aus dem Gefängnis Brauweiler vorzeitig entlassen. Adenauers Biograph Henning Köhler hält diese Episode, die zuerst in Paul Weymars Adenauer-Biographie aus dem Jahr 1955 erschien, für unglaubwürdig: Die Nationalsozialisten hätten wohl kaum auf die Gesundheit eines Gefangenen, dessen Liquidierung sie wünschten, solche Rücksicht genommen. Das Lager von Köln-Deutz, das nicht der SS unterstand, sei eher ein „fideles Gefängnis“ gewesen. Nach Kriegsende. Am 4. Mai 1945 ernannte ihn die US-Besatzungsmacht zum Bürgermeister von Köln. Er wurde nach wenigen Monaten wegen angeblicher Unfähigkeit von der britischen Besatzungsmacht wieder entlassen: Adenauer habe sich nicht energisch genug um die Ernährungsversorgung gekümmert. Die britische Besatzungsmacht verhängte gegenüber Adenauer für die Zeit vom 6. Oktober bis 4. Dezember 1945 ein Verbot parteipolitischer Betätigung. Parlamentarischer Rat. Nun konzentrierte sich Adenauer auf die Parteiarbeit: Am 31. August 1945 trat er der Christlich Demokratischen Partei (CDP) bei. Die CDP war eine der vier Vorgänger-Regionalparteien der CDU in den einzelnen Besatzungszonen. Auf der ersten Zonenausschusstagung am 22./23. Januar 1946 in Herford übernahm er als Ältester die Führung der CDU in der britischen Zone, die als Union erst seit dem 16. Dezember 1945 bestand. Am 5. Februar 1946 folgte in Krefeld-Uerdingen die Wahl zum ersten Vorsitzenden der CDU Rheinland. Mit dieser politischen Rückenstärkung setzte er sich auf der zweiten Tagung des CDU-Zonenausschusses am 1. März 1946 in Neheim-Hüsten endgültig zum Vorsitzenden gegen den westfälischen Landesvorsitzenden Friedrich Holzapfel durch. Adenauer formulierte mit dem Neheim-Hüstener Programm ein erstes Parteiprogramm für die Zone maßgeblich mit. Seine Beitrittserklärung (in die Union) erfolgte am 1. Juni 1946 an die "Kreispartei" der CDU für den Siegkreis. Im Oktober 1946 wurde er Fraktionsvorsitzender der CDU im Landtag Nordrhein-Westfalen. Er nutzte die folgenden Jahre, um seine Hausmacht innerhalb der Partei auszubauen, sodass er 1948 Präsident des Parlamentarischen Rates wurde, der über die Verfassung für einen deutschen Weststaat beriet. Adenauer, der außerhalb der britischen Zone nicht annähernd so bekannt war wie seine Konkurrenten Kurt Schumacher (SPD) oder Ludwig Erhard (parteilos), nutzte das eigentlich machtlose Amt als Podium; die SPD hatte für ihren Mann, Carlo Schmid, den als viel wichtiger erachteten Hauptausschuss-Vorsitz gesichert. Dieser arbeitete aber eher im Verborgenen, während Adenauer in der Öffentlichkeit als eine Art Vertreter der Deutschen (auch gegenüber den Alliierten) auftrat. Er wurde somit laut Carlo Schmid „erster Mann des zu schaffenden Staates, noch ehe es ihn gab.“ Bevor Konrad Adenauer erster Bundeskanzler der Bundesrepublik Deutschland wurde, war er ab dem 1. September 1949 Vorsitzender der gemeinsamen Bundestagsfraktion von CDU und CSU. Innerhalb der CDU setzte er eine bürgerliche Koalition durch, obwohl CDU/CSU, FDP und Deutsche Partei nur über eine knappe Mehrheit verfügten und große Teile der CDU angesichts des staatlichen Neuanfangs eine Große Koalition vorzogen. Adenauer hielt jedoch die kleine Koalition für unumgänglich, um seine Ideen einer sozialen Marktwirtschaft und einer umfassenden Westbindung durchzusetzen. Dabei konnte er auf die gute Zusammenarbeit der Parteien im Wirtschaftsrat der britisch-amerikanischen Bizone zurückgreifen. Selbst innerhalb der CDU hatte die Planwirtschaft Befürworter; wenige Jahre vorher hatten sie noch das Ahlener Programm der CDU durchgesetzt. Die SPD hing ebenfalls der Planwirtschaft an und strebte zudem ein neutrales Deutschland an, um auf diesem Weg die Wiedervereinigung zu erleichtern. Auf der Rhöndorfer Konferenz vom 21. August 1949 konnte Adenauer seinen Standpunkt durchsetzen und endgültig sicherstellen, dass er der Kanzlerkandidat der Unionsparteien wurde. Um die Ausrichtung einer bürgerlichen Koalition zu bestärken, wählte die CDU/CSU am 12. September den damaligen FDP-Vorsitzenden Theodor Heuss in der Bundesversammlung mit zum Bundespräsidenten. Als 1950 die CDU auf Bundesebene gegründet wurde, wurde Adenauer Vorsitzender. Er blieb es bis 1966. Als Einwohner von Rhöndorf in Sichtweite von Bonn war Adenauer maßgeblich daran beteiligt, dass 1949 Bonn statt Frankfurt am Main Bundeshauptstadt wurde – Frankfurt war nicht nur SPD-regiert und stark zerstört, sondern vor allem Sitz des US-amerikanischen Militärgouverneurs. Auch hier war er ziemlich unnachgiebig. Er bedrängte beispielsweise den Finanzminister von Nordrhein-Westfalen, Geld bereitzustellen, obwohl es keinen Haushaltsbeschluss gab. Für dessen rechtliche Bedenken hatte er kein Verständnis. Wahl zum Bundeskanzler. Bei der ersten Bundestagswahl am 14. August 1949 wurde Konrad Adenauer als direkt gewählter Abgeordneter des Wahlkreises 10 "Bonn Stadt und Land" mit 54,9 Prozent der Stimmen in den Deutschen Bundestag gewählt. Er vertrat den Wahlkreis Bonn bis zu seinem Tod 1967 und wurde bei den fünf Bundestagswahlen 1949 bis 1965 mit Mehrheiten von bis zu 68,8 Prozent jeweils direkt gewählt. Der Bundestag wählte ihn am 15. September 1949 mit einer Stimme Mehrheit (einschließlich seiner eigenen) zum Bundeskanzler der Bundesrepublik Deutschland, ein Amt, das er bis zu seinem Rücktritt am 15. Oktober 1963 innehatte. Eine entscheidende Stimme in diesem Wahlgang stammte dabei vom Bayernpartei-Abgeordneten Johann Wartner, der sich dem Beschluss seiner Partei widersetzte und – wie er kurz vor seinem Tode bekannte – für Adenauer stimmte. Sonst hätte Adenauer erst in einem späteren Wahlgang mit relativer Mehrheit gewählt werden können. Erster Oppositionsführer der jungen Republik wurde sein Gegenspieler Kurt Schumacher (SPD). Bundespräsident Theodor Heuss übergab Adenauer die Ernennungsurkunde am 16. September 1949. Adenauers erste Regierungserklärung folgte am 20. September und sein erster Besuch bei den Hohen Kommissaren der Alliierten am 21. September – demselben Tag, an dem das Besatzungsstatut in Kraft trat. Adenauer wurde dreimal (1953, 1957 und 1961) wiedergewählt. Das Wahlergebnis von 1957 war einmalig in der bundesdeutschen Geschichte: die CDU/CSU erzielte als bisher einzige Fraktion die absolute Mehrheit der Stimmen und der Sitze des Bundestages und hätte ohne Koalitionspartner regieren können. Dennoch bildete Adenauer eine Koalitionsregierung mit der DP (bis Juli 1960), um mit deren Hilfe die CSU und widerspenstige CDU-Mitglieder in Schach halten zu können. Attentat auf Adenauer. Am 27. März 1952 explodierte um 18:20 Uhr ein an Bundeskanzler Adenauer adressiertes Päckchen im Polizeipräsidium München und tötete den Polizeibeamten Karl Reichert. Die zwei mit der Abgabe des Päckchens bei der Post beauftragten Jungen hatten es zur Polizei gebracht, weil sie von ihrem Auftraggeber verfolgt wurden. Als sich im Zug der Ermittlungen herausstellte, dass die Spuren zu Splittergruppen der 1948 aufgelösten jüdischen Partisanen- und Untergrundorganisation Irgun führten, entschloss sich die Bundesregierung, das Beweismaterial geheim zu halten, um keine antisemitischen Reaktionen in der Öffentlichkeit zu provozieren. Fünf Verdächtige wurden letzten Endes nach Israel abgeschoben; der mutmaßliche Drahtzieher, Jakob Farshtej, der Bombenbauer, Elieser Sudit, sowie der Überbringer der Bombe, Josef Kronstein, entkamen, woraufhin von deutscher Seite keine weiteren Schritte mehr unternommen wurden. Israels Premierminister David Ben-Gurion begrüßte diese Entscheidung und soll sich Adenauer zeitlebens dafür verbunden gezeigt haben. Um die allmählich neu erwachsenden bilateralen Beziehungen nicht noch zusätzlich zu belasten, stellten die deutschen Behörden die Ermittlungen ein. Zur Urheberschaft des Anschlags veröffentlichte Elieser Sudit in späterer Zeit ein Buch, wonach als Auftraggeber, Organisator und Geldbeschaffer für die insgesamt drei Attentate auf Adenauer der ehemalige Kommandant des Irgun, gesuchte Terrorist und spätere israelische Ministerpräsident Menachem Begin fungiert habe. Laut Darstellung des Mittäters Elieser Sudit sei es nicht darum gegangen, Adenauer zu töten (daher die dilettantische Vorgehensweise), sondern vor allem um die Aufmerksamkeit von Presse und Öffentlichkeit. Der Grund dafür sei in der nach Begins Ansicht verfehlten Reparationspolitik der Bundesregierung gegenüber Israel zu suchen. Begin habe die Meinung verfochten, die Wiedergutmachungszahlungen seien nicht an die israelische Regierung, sondern direkt an die Familien der Opfer zu leisten. Politik der Westbindung. Die Bundesrepublik wurde mit dem Inkrafttreten der Pariser Verträge am 5. Mai 1955 und der Aufhebung des Besatzungsstatus ein innenpolitisch weitgehend souveräner Staat, unterlag jedoch weiterhin der Viermächte-Verantwortung. Für Adenauer war deshalb die Außenpolitik der bestimmende Faktor seiner politischen Strategie. Von 1951 bis 1955 besetzte er – neben einem Intermezzo von Helmut Schmidt nach dem Ausscheiden der FDP aus der Bundesregierung 1982 – einmalig in der Geschichte der Bundesrepublik, sowohl das Amt des Bundeskanzlers als auch das des Außenministers. Die volle Souveränität erlangte Deutschland 1990 durch die Deutsche Wiedervereinigung und den Zwei-plus-Vier-Vertrag. Seine Strategie war eine enge Anbindung an die westeuropäischen Staaten (Magnet-Theorie), eine wirtschaftliche Verflechtung mit Frankreich und Belgien und insbesondere eine gute politische Beziehung zu den USA. Adenauer setzte sich ein für das „Vereinigte Europa“, da aus seiner Sicht nur dieses einen langfristigen Frieden garantieren konnte. Er griff dabei sowohl auf seine politischen Vorstellungen aus der Weimarer Republik zurück als auch auf die Erfahrungen, die er mit dem Nationalsozialismus gemacht hatte. Hitler hatte die europäischen Länder nacheinander erobert; Stalin sollte nicht das gleiche gelingen. Wirtschaftlich ging der bereits vor 1949 durch den Marshallplan angestoßene Prozess durch die Montanunion, die Europäische Wirtschaftsgemeinschaft und Euratom auf. Adenauer setzte sein Vertrauen in den Bankier Hermann Josef Abs, der Einfluss auf die Verteilung der Marshallplan-Gelder hatte. Er bat Abs gelegentlich, als Gast zum Kabinettstisch zu erscheinen, und lud ihn regelmäßig zu seiner sonntäglichen Rhöndorfer Kaffeetafel ein, an der er seine Ratgeber zusammenkommen ließ. Er ernannte ihn zum Verhandlungsführer der Londoner Schuldenkonferenz. Deutschland erlebte mit dem Wirtschaftswunder einen Aufstieg und integrierte sich in den Europäischen Markt. Die wirtschaftliche Seite dieses Strebens mündete schließlich in die europäischen Einigungsprozesse, auf denen die heutige Europäische Union beruht. Schon im Jahr 1954 wurde Adenauer mit dem Karlspreis ausgezeichnet. Adenauer und de Gaulle, September 1958 in Bonn Bodenplatte vor der Kathedrale zu Reims anlässlich des 8. Juli 1962 Ein langfristiges Ergebnis Konrad Adenauers war die Aussöhnung mit Frankreich, die schließlich im Deutsch-Französischen Freundschaftsvertrag mündete. Bei dem tiefen Misstrauen, mit dem sich Deutsche und Franzosen zu jener Zeit begegneten, war hierbei sein gutes persönliches Verhältnis zum Präsidenten der Französischen Republik, Charles de Gaulle, von großer Bedeutung. Anfangs war Adenauer eher skeptisch: Als de Gaulle 1958 Präsident wurde, sah Adenauer in ihm noch eine Art Hindenburg, einen ehemaligen General, der sich mit negativen Folgen in die Politik einmischte. Adenauers Konzept einer engen Westbindung stieß auch auf Widerspruch. So wurde er im Rahmen der Bundestagsdebatte vom 24./25. November 1949 über das Petersberger Abkommen und die Frage, ob die Bundesrepublik, wie von Adenauer gefordert, Vertreter in die Internationale Ruhrbehörde entsenden solle, vom SPD-Vorsitzenden Kurt Schumacher mit dem Zwischenruf „Der Bundeskanzler der Alliierten!“ gerügt. Schließlich bemühte sich Konrad Adenauer auch tatkräftig um die Versöhnung mit den Juden, nachdem er den mit Hermann Josef Abs entwickelten anfänglichen Plan, als – wie sie es sahen – ausreichende Wiedergutmachung ein Krankenhaus in Israel für zehn Millionen DM zu spenden, verworfen hatte. 1952 schloss er mit dem neu gegründeten Staat Israel das Luxemburger Abkommen als erste Geste der Entschuldigung. Gegen den Widerstand seines Finanzministers setzte er die Zahlung einer Wiedergutmachung von 3,45 Milliarden DM (in heutiger Kaufkraft Milliarden Euro) – 3000 DM für jeden israelischen Flüchtling – als symbolische Geste an Israel durch, die vorwiegend aus Warenlieferungen bestand, die aus deutscher Produktion stammten. In New York traf er 1960 mit dem israelischen Ministerpräsidenten David Ben Gurion zusammen. Nach Aufnahme diplomatischer Beziehungen zu Israel 1965 reiste er 1966 als erster hochrangiger deutscher Politiker nach dem Zweiten Weltkrieg nach Israel. Die militärische Seite wurde nicht, wie von Adenauer erhofft, durch eine eigenständige Europäische Verteidigungsgemeinschaft (EVG), sondern durch die Aufnahme der Bundesrepublik in die NATO (1955) verwirklicht. In der Öffentlichkeit weniger bekannt war, dass Adenauer schon 1949 auf die deutsche Wiederbewaffnung drängte. Nach außen stellte er dies als Forderung der westlichen Alliierten dar; die Alliierten selbst waren wenig begeistert davon. Bereits 1950 trat sein Innenminister, Gustav Heinemann zurück, vor allem, da diese Politik auch vor Heinemann geheim gehalten worden war. Im April 1950 forderte Adenauer, nach dem Aufbau einer kasernierten Volkspolizei in der SBZ, den Aufbau einer mobilen Polizeitruppe auf Bundesebene in der Bundesrepublik, was auch 1951 mit der Gründung des Bundesgrenzschutzes erfolgte. Die Öffentlichkeit erfuhr erst Jahre später, dass er schon 1957 ein Projekt genehmigte, mit Frankreich und Italien gemeinsam eine Atombombe zu entwickeln. Durch den Machtantritt Charles de Gaulles wurde das Projekt hinfällig, Frankreich steuerte auf ein eigenes Projekt hin, die "Force de frappe". Deutschlandpolitik und Verhältnis zur Sowjetunion. Rückkehr Adenauers aus Moskau am 14. September 1955 auf dem Flughafen Köln-Wahn Die enge Politik der Westbindung führte unter den damaligen Gegebenheiten zwangsläufig zum Konflikt mit der Sowjetunion. Eine deutsche Wiedervereinigung schien in weitere Ferne zu rücken. Die in der Folge des Zweiten Weltkriegs zu Tage getretenen ideologischen Gegensätze führten zur Teilung Europas und der Welt in zwei Blöcke: Dem Ostblock unter der damals noch unstrittigen Führung der Sowjetunion und dem westlichen Lager unter der Führung der USA. Obwohl er öffentlich anerkannte, dass in allen Staaten Osteuropas nach dem Zweiten Weltkrieg ein berechtigtes Misstrauen gegenüber Deutschland herrschte, weigerte sich Adenauer, auf die politischen Forderungen der Ostblockstaaten einzugehen. Für ihn war eine Wiedervereinigung nur möglich und anzustreben, wenn diese mit freien, demokratischen Wahlen einhergehen würde. Für ihn führte der Kurs der Stärke, zumindest öffentlichen Bekundungen nach, langfristig zur Wiedervereinigung unter freien Bedingungen. Kooperation mit der kommunistischen DDR war für ihn nur in sehr kleinen Schritten möglich. Auf damals häufige deutschlandpolitische Konzepte, die eine Neutralität und einen „dritten Weg“ zwischen westlichem und östlichem System in einem Gesamtdeutschland vorsahen, gab er nichts. Deutschland müsse sich, nach dem „von Deutschen vom Zaune gebrochenen Krieg“, das Vertrauen der freien Welt wieder verdienen und keine Schaukelpolitik treiben. Adenauer lehnte daher im Jahr 1952 die "Stalin-Noten" ab, in denen Stalin eine Wiedervereinigung und freie Wahlen unter der Bedingung der Neutralität des vereinigten Deutschlands vorschlug. Adenauer setzte die Hallstein-Doktrin durch, die den Alleinvertretungsanspruch der Bundesrepublik für Deutschland festschrieb. Nachdem die Sowjetunion im Januar 1955 offiziell den Kriegszustand mit Deutschland beendete, reiste er im September 1955 nach Moskau und erreichte die Freilassung der letzten 9626 deutschen Kriegsgefangenen aus dem Zweiten Weltkrieg, welche sich noch als von der Sowjetunion als Kriegsverbrecher verurteilt in sowjetischer Gefangenschaft befanden. Als nach dem Tod Adenauers (1967) in einer Umfrage nach dessen größter Leistung gefragt wurde, wurde die so genannte Heimkehr der Zehntausend am häufigsten genannt. Wirtschafts- und Sozialpolitik. Nachdem die Grundsatzentscheidung für die Soziale Marktwirtschaft gefallen war, überließ Adenauer die Wirtschafts- und Sozialpolitik weitgehend seinen Fachministern, insbesondere dem Bundeswirtschaftsminister Ludwig Erhard. Er selbst konzentrierte sich auf die Außenpolitik. „Von der Außenpolitik, der außenpolitischen Entwicklung hängt alles ab, hängt die ganze Wirtschaft ab, hängt ab, was wir auf sozialem Gebiet machen“, so seine Begründung. Allerdings war Adenauer, im Vergleich zu Erhard, wesentlich aufgeschlossener gegenüber Wirtschaftsverbänden und Gewerkschaften. Auch in die Sozialpolitik mischte er sich ein: Im Jahr 1957 beispielsweise setzte Adenauer – gegen den Rat von Ludwig Erhard – die Umstellung der gesetzlichen Rentenversicherung auf eine Umlagefinanzierung durch. Dadurch wurde es möglich, die Renten einmalig erheblich anzuheben und sie fortan jedes Jahr proportional zur Entwicklung der Bruttolöhne zu erhöhen. Die früher alltägliche Altersarmut als Folge steigender Verbraucherpreise bei stagnierenden Renten verschwand dadurch für Jahrzehnte. Über Warnungen seines Wirtschaftsministers soll sich Adenauer mit dem Hinweis „Kinder kriegen die Leute immer“ hinweggesetzt haben. Befürworter des Umlageverfahrens beriefen sich auch auf das sogenannte Mackenroth-Theorem, nach dem die Finanzierung der Renten immer aus dem laufenden Volkseinkommen erfolgen müsse. Neben seinem Engagement für das Umlageverfahren setzte sich Adenauer auch dafür ein, die Kriegsfolgen sozial aufzufangen. Dies führte zu Gesetzen zur Versorgung von Kriegsbeschädigten und -hinterbliebenen, zu Eingliederungsgesetzen für Vertriebene und Flüchtlinge und dem sogenannten Lastenausgleich. Darüber hinaus trat Adenauer dafür ein, möglichst viele Menschen am Wirtschaftswunder und seinen Erfolgen teilhaben zu lassen. Dies führte zum Betriebsverfassungsgesetz (u. a. Mitbestimmung), dem Montan-Mitbestimmungsgesetz, der Teilprivatisierung von Firmen wie Preussag und Volkswagen mit sogenannten Volksaktien sowie zum Vermögensbildungsgesetz. Gesellschaftspolitik. In Adenauers Amtszeit war die Außenpolitik am heftigsten umstritten. Im Nachhinein wird er aber häufig für seine gesellschaftspolitischen Maßnahmen kritisiert. Während es ihm gelang, die Bundesrepublik außenpolitisch bis zur Wiedervereinigung in ihren Grundzügen festzulegen, versuchte Adenauer gesellschaftspolitisch eine konservative Politik aus Kaiserreich und Weimarer Republik weiterzuverfolgen. Die Besetzungen für die Ressorts Innenpolitik und Justiz glückten ihm jedoch nur mäßig. Sein Wunschkandidat für das Innenministerium Robert Lehr (CDU) scheiterte 1949 am Widerspruch der Fraktion und nach nur einer Amtszeit wurde das ehemalige DNVP-Mitglied von der CDU nicht einmal mehr für den Bundestag nominiert. Der erste Justizminister Thomas Dehler (FDP) musste nach nur einer Amtszeit gehen, da Bundespräsident Theodor Heuss sich weigerte, seine Ernennungsurkunde zu unterschreiben, und der Präsident des Bundesverfassungsgerichts Hermann Höpker-Aschoff mit Rücktritt drohte, sollte Dehler wieder Minister werden. Adenauer setzte auf einen konfrontativen Kurs gegenüber den Kommunisten, aber auch den Sozialdemokraten. Die Sozialdemokraten waren seiner Rhetorik nach ideologisch eng mit den Kommunisten verwandt; besonders misstrauisch war er gegenüber Herbert Wehner. In seine Amtszeit fiel das von der Bundesregierung beantragte und vom Bundesverfassungsgericht ausgesprochene KPD-Verbot, das wenige Jahre nach dem Verbot der NSDAP-Nachfolgepartei Sozialistische Reichspartei (SRP) erfolgte. Die 1952 gegründete Bundeszentrale für Heimatdienst, Vorläufer der Bundeszentrale für politische Bildung, verfolgte im Kalten Krieg einen strikt antikommunistischen Kurs. In die frühen Jahre der Regierung Adenauer fielen umfangreiche Revisionen der Kriegsverbrecherprozesse direkt nach dem Zweiten Weltkrieg, ein Straffreiheitsgesetz für minder NS-belastete. Adenauer und die katholische Kirche. Da Adenauer bekennender und praktizierender Katholik war, argwöhnten viele Zeitgenossen, seine Politik sei von der Kirche beeinflusst. In der Realität war der Einfluss der katholischen Kirche auf seine Politik längst nicht so groß wie behauptet. Soweit es um weltanschauliche Dinge ging, bemühte er sich, Ansichten zu vertreten, die von gläubigen Christen beider Konfessionen unterstützt wurden. Adenauer erreichte, dass im traditionell konfessionell zerstrittenen Deutschland eine Partei mit christlichen Grundsätzen entstand, die für beide Konfessionen wählbar war. Zum Ende seiner Regierungszeit spielten denn auch konfessionelle Motive bei den Wahlen nur noch eine geringere Rolle. Die damals oft geäußerte Unterstellung, er habe die Wiedervereinigung nicht gewollt, um eine protestantische Wählermehrheit zu verhindern, hat einen gewissen wahren Kern. Er hatte schon 1946 vor dem "Zonenausschuss" der CDU davor gewarnt, dass bei politischer und wirtschaftlicher Gleichstellung der sowjetisch besetzten Zone die Sozialdemokraten bei Wahlen die Mehrheit bekämen. Während seiner Kölner Zeit galt Adenauer jedoch bei aller partiellen Aufgeschlossenheit, zum Beispiel was Städtebau und Universitätsgründung betraf, als „der engstirnige katholische Zentrumspolitiker, für den es keine uneingeschränkte Freiheit von Wissenschaft und Kunst gab, sobald es um Fragen der katholischen Grundanschauung ging.“ (Peter Koch, 1985). Dies ging so weit, dass er eigenhändig den Text in Brechts "Dreigroschenoper" änderte, Bartóks Tanzpantomime "Der wunderbare Mandarin" verbot und ein Gemälde des Expressionisten Otto Dix aus dem Wallraf-Richartz-Museum entfernen ließ. 1922 war er Präsident des 62. Deutschen Katholikentags in München. Adenauer als Wahlkämpfer. Konrad Adenauer galt bei seinen Anhängern als unübertrefflicher Wahlkämpfer. Für ihn begann die nächste Wahl am Tag nach der Wahl. Neben seinem Sinn für wichtige Themen zeichneten ihn Schlagfertigkeit und eine für sein Alter ungewöhnliche Leistungsfähigkeit aus. Trotz seiner relativ schwachen Gesundheit – vom Militärdienst war er wegen schwächlicher Konstitution befreit worden, später wollte ihn aus dem gleichen Grund keine Lebensversicherung haben und auf zwei schwere Grippe-Erkrankungen ihres Chefs musste seine Umgebung sich jedes Jahr einstellen – konnte er mehrere Veranstaltungen pro Tag bestreiten, nebenher die Regierungsgeschäfte erledigen, bis in die Nacht mit Journalisten diskutieren und am nächsten Tag in voller Frische antreten. Dem widersprechen allerdings teilweise Berichte, dass er seit einem Autounfall 1933 nicht mehr ohne Tabletten schlafen konnte und mittags oft Schlaf brauchte. Herz und Blutgefäße waren hingegen bemerkenswert gesund, was auch daran lag, dass Adenauer nicht rauchte und bei einer für die damalige Zeit ungewöhnlichen Körpergröße von 186 cm keine 70 Kilo wog. Späte Zeit als Bundeskanzler. Adenauer hatte bereits auf der Rhöndorfer Konferenz seinen Arzt Paul Martini zitiert, der meinte, Adenauer könne gesundheitlich problemlos noch ein oder zwei Jahre Kanzler bleiben. Tatsächlich blieb er, der erst mit 73 Jahren Kanzler wurde (jeder seiner Nachfolger war mit diesem Alter bereits nicht mehr im Amt), 14 Jahre im Amt und hatte damit nach Helmut Kohl die zweitlängste Amtszeit aller deutschen Bundeskanzler. 1959 brachte sich Adenauer als Kandidat für das Amt des Bundespräsidenten ins Gespräch, nachdem er vorher vergeblich versucht hatte, Ludwig Erhard auf diesen Posten wegzuloben. Das Amt stand zur Disposition, weil laut Grundgesetz nur eine Wiederwahl möglich war; Theodor Heuss' Amtszeit endete dadurch am 12. September 1959. Nach einigen Wochen zog Adenauer seine Kandidatur wieder zurück – vermutlich zum einen, weil er erkannt hatte, dass die Macht des Bundespräsidenten geringerer Natur war, zum anderen, weil er die Wahl Erhards zum Bundeskanzler verhindern wollte. Zum Bundespräsident wurde am 1. Juli 1959 Heinrich Lübke gewählt. An dem übergroßen Streit um seine Nachfolge war er durchaus nicht schuldlos. Seiner begründeten Meinung nach hatte Erhard nicht genug Führungsqualitäten, außerdem hatte er keine Hausmacht in der CDU. Später als Kanzler versuchte Erhard mit Appellen direkt an das Volk zu regieren, ohne auf vermittelnde und interessengeleitete Akteure wie Parteien oder Verbände Rücksicht nehmen zu wollen. Sein Führungsstil war an den Idealen der Aufklärung orientiert, setzte auf die rationale Einsichtskraft des Bürgers zu vernünftigen Entscheidungen und hatte wenig Sinn für das politische Tagesgeschäft und den dauernden Zwang zu Kompromissen. In der pluralistischen Demokratie rieb er sich innerhalb weniger Jahre auf, ohne als Kanzler sonderliche Erfolge zu erzielen. Adenauer unternahm aber nichts, einen besseren Kandidaten aufzubauen. Die zwischenzeitlichen Favoriten Adenauers, die Bundesminister Franz Etzel, Heinrich Krone und Gerhard Schröder, bekamen nie genug Unterstützung von ihm, als dass sie wirklich ernsthafte Herausforderer des populären Erhard hätten werden können. Nach der darauf folgenden Wahl im September 1961, als die Unionsparteien die absolute Mehrheit verloren, gelang es ihm, gegen den Willen der FDP sowie Teilen der CDU/CSU nochmals zum Kanzler gewählt zu werden. Dafür versprach er, rechtzeitig vor der nächsten Wahl zurückzutreten, um einem Nachfolger Platz zu machen – einen verbindlichen Termin zu nennen weigerte er sich. Die Spiegel-Affäre brachte ihn schließlich dazu, sich auf den Herbst 1963 festzulegen. Adenauers Verabschiedung durch die Bundeswehr fand am 12. Oktober 1963 auf dem Fliegerhorst Wunstorf statt. Bundestagspräsident Eugen Gerstenmaier sagte zur Würdigung des scheidenden Kanzlers: „Konrad Adenauer hat sich um das Vaterland verdient gemacht.“ Seine letzten Jahre als Kanzler wurden durch seinen hartnäckigen Kampf, so lange wie möglich im Amt zu bleiben, und durch den – vergeblichen – Versuch, die Wahl Ludwig Erhards als Nachfolger zu verhindern, überschattet. Häufig wurde er in dieser Zeit als „der Alte“ bezeichnet. In dieser Zeit passierten Fehlschläge, die beim größten Teil der Deutschen auf Unverständnis und Kritik stießen. Sein Versuch, ein vom Bund kontrolliertes "Deutschland-Fernsehen" als Konkurrenz zu der von den Ländern kontrollierten ARD aufzubauen, scheiterte am 1. Rundfunk-Urteil des Bundesverfassungsgerichts. Das ZDF hatte nur wenig mit Adenauers ursprünglichen Plänen zu tun. Als er nach dem Bau der Berliner Mauer zwei Wochen abwartete, bevor er nach Berlin reiste, erntete er Unverständnis, ebenso mit seiner deutlichen Kritik am damaligen Berliner Bürgermeister Willy Brandt. Die Spiegel-Affäre am Ende seiner Kanzlerschaft erregte öffentliches Aufsehen. Dass Adenauer Franz Josef Strauß zu dessen Handlungsweisen ermächtigt hatte, wurde erst später bekannt. Späte Jahre und Tod. Auf dem Bundesparteitag 1965 in Düsseldorf Adenauer auf einem CDU-Plakat für die Bundestagswahl 1965 Trauerfeier für Konrad Adenauer (1967) Grab auf dem Waldfriedhof in Rhöndorf (2007) Auch nach seinem Rückzug aus der Politik verunglimpfte Adenauer seinen ungeliebten Nachfolger nach Kräften. Kurz vor seinem Tod erlebte er noch den Sturz Erhards – „Der eine is wech!“ war sein Kommentar. Er griff durch Zeitungsartikel, Reden und Interviews noch ins politische Geschehen ein, äußerte sich vor der Bundestagswahl 1965 noch positiv über eine mögliche große Koalition und stellte nach ihrem Amtsantritt am 1. Dezember 1966 unter Kurt Georg Kiesinger fest, dass diplomatische Beziehungen zu Staaten Osteuropas möglich seien, was eine grundsätzliche Abkehr von der Hallstein-Doktrin bedeutete. Er unternahm mehrere international beachtete Auslandsreisen. 1964 nahm die Académie des Sciences Morales et Politiques ihn auf. Bis zu seinem Tode war er Mitglied des Bundestages und dadurch mit 91 Jahren und 3 1/2 Monaten der bisher älteste Bundestagsabgeordnete. Noch vom Sterbebett aus unterstützte er Kiesinger mit Ratschlägen. Am 13. April 1967 – sechs Tage vor seinem tatsächlichen Tod – saß der Westdeutsche Rundfunk einer Falschinfo auf und unterbrach das Live-Programm des WDR-2-Mittagsmagazins. Über den bedrohlichen Gesundheitszustand Adenauers, der zuletzt am 24. Februar im Bundestag aufgetreten war, hatte Medien zuvor seit Tagen spekuliert. Der Moderator der Sendung beendete ein Telefon-Interview mit dem Hinweis an die Zuhörer, dass eine „"traurige Nachricht aus Rhöndorf"“ erwartet werde und es wurden mehrere Stücke mit Trauermusik eingespielt. In Bonn ordnete das Verteidigungsministerium daraufhin Trauerbeflaggung an. In München erhoben sich die Abgeordneten des Bayerischen Landtags zu einer Schweigeminute, das Kabinett wurde zu einer Sondersitzung einberufen. In London wurden Außenminister Willy Brandt und eine deutsche Parlamentarierdelegation mit Beileidsbekundungen überhäuft – der gerade in Bonn weilende britische Verteidigungsminister hatte Meldung von einem Tod Adenauers nach London erstattet. Andere Medien und Nachrichtenagenturen verbreiteten die Falschmeldung weltweit. Der spätere Vorwurf anderer Medien, der WDR habe eine Falschmeldung verbreitet, traf in soweit nicht zu, als dass Worte wie etwa „"Konrad Adenauer ist tot"“ nicht fielen. Durch ein Missverständnis hatte 1956 die schwedische Zeitung Dagens Nyheter schon einmal Adenauers Tod gemeldet. Adenauer starb am 19. April 1967 nach kurzer Grippe und drei Herzinfarkten im Alter von 91 Jahren in seinem Haus in Rhöndorf. Den ersten Herzinfarkt hatte er bereits Ende 1962 erlitten, den zweiten am 29. März 1967 und den dritten wenige Tage später. In Familie und Freundeskreis verbürgt sind seine letzten Worte: „Da jitt et nix zo kriesche!“ („Da gibt es nichts zu weinen!“, gerichtet an seine Tochter Libet, die in Tränen ausgebrochen war). Adenauer wurde mit einem im Kölner Dom von dem Kölner Erzbischof Joseph Kardinal Frings als Pontifikalamt zelebrierten Requiem verabschiedet. Am Sarg hielten hochrangige Offiziere der Bundeswehr, allesamt Ritterkreuzträger, abwechselnd die Ehrenwache. Danach überführte die Bundesmarine den Sarg mit dem Schnellboot Kondor in einem Schiffskonvoi auf dem Rhein nach Bad Honnef/Rhöndorf, auf dessen Waldfriedhof Adenauer am 25. April 1967 beigesetzt wurde. An seiner Beerdigung, einem Staatsbegräbnis, nahmen zahlreiche Staatsoberhäupter und Außenminister teil. Ebenfalls am 25. April 1967 fand im Plenarsaal des Deutschen Bundestags ein Staatsakt statt. Mitgliedschaften. Konrad Adenauer war Mitglied im Rotary Club Köln (Gründungsmitglied), Mitglied des Deutschen Ordens, seit 1951 Magistral-Großkreuzritter des Souveränen Malteserordens, im Deutschen Werkbund und Mitglied in den Studentenverbindungen K.St.V. Askania-Burgundia Berlin, K.St.V. Arminia Bonn, K.St.V. Saxonia München und K.St.V. Brisgovia Freiburg. In seinem langjährigen Wohnort Rhöndorf war er Ehrenmitglied des Katholischen Bürgervereins sowie Mitglied des Ortsvereins Rhöndorf, die 1974 zum Bürger- und Ortsverein Rhöndorf fusionierten. 1965 wurde er von Kardinal-Großmeister Eugène Kardinal Tisserant zum Großkreuz-Ritter des Ritterordens vom Heiligen Grab zu Jerusalem ernannt und am 29. Juli 1965 im Bonner Münster durch Lorenz Kardinal Jaeger, Großprior der deutschen Statthalterei, und den deutschen Statthalter Friedrich August von der Heydte investiert. Familie und Privates. Am 28. Januar 1904 heiratete Adenauer, in der Pfarrkirche St. Stephan, Emma Weyer (1880–1916), die Tochter eines angesehenen Kölner Galeristen und Nichte des späteren Reichstagspräsidenten Max Wallraf. Aus dieser Ehe erwuchsen die Kinder Konrad (1906–1993), Max (1910–2004) und Maria (Ria, 1912–1998). Am 6. Oktober 1916 starb seine erste Frau Emma. Am 26. September 1919 heiratete Adenauer Auguste Zinsser (genannt Gussie, 1895–1948), Schwester von Ernst Zinsser, mit der er weitere fünf Kinder hatte: Ferdinand (* 1920, bald nach der Geburt verstorben), Paul (1923–2007), Charlotte (Lotte, * 1925), Elisabeth (Libet, * 1928) und Georg (* 1931). Auguste Adenauer starb 1948. In der Forschung ist umstritten, ob die Todesursache Leukämie war oder ein Selbstmordversuch, den sie 1944 in Gestapo-Haft unternommen hatte, aus Reue, weil sie dem Vernehmungsbeamten unter der Drohung, die Töchter im Appellhofkeller in Haft zu nehmen, Adenauers Aufenthaltsort verraten hatte. Konrad Adenauer mit Sohn Georg im Schwarzwald (1956) Adenauers Enkel Sven-Georg Adenauer (Sohn von Georg) ist Landrat im Kreis Gütersloh. Ein anderer Enkel, Patrick Adenauer (Sohn von Konrad), war von 2007 bis 2011 Präsident der Arbeitsgemeinschaft Selbständiger Unternehmer. Als Erfinder sicherte sich Adenauer drei Patente, so etwa das für ein "Verfahren zur Herstellung eines dem rheinischen Roggenschwarzbrot ähnelnden Schrotbrotes" (Kölner Brot, zusammen mit Jean und Josef Oebel). Eine weitere Erfindung war die „von innen beleuchtete Stopfkugel“. Da aber bereits die AEG ein Patent angemeldet hatte, wurde das Stopfei Adenauers nur von seiner Frau eingesetzt. Außerdem meldete er kurz nach dem Ersten Weltkrieg eine neue Tülle für Gartengießkannen an, die mit einer beweglichen Klappe abgedeckt werden konnte; entsprechende Patente wurden jedoch nicht veröffentlicht. Außerdem erfand er 1916 eine Sojawurst (Kölner Wurst), da in diesen Zeiten Fleisch knapp war. Der Patentantrag wurde jedoch wegen eines Formfehlers in Deutschland nicht anerkannt und stattdessen nur in England angemeldet. Nachdem er in der Zeit des Nationalsozialismus sein Amt verloren hatte, verbrachte er die freigewordene Zeit auch damit, an weiteren Erfindungen zu arbeiten. In dieser Zeit entstand die „Einrichtung zum Schutz gegen Blendung durch Scheinwerfer entgegenkommender Fahrzeuge, bestehend aus einem Kopfschirm oder einer Brille“. Diese wurde jedoch am 22. September 1937 vom Patentamt abgelehnt mit der Begründung, dass dies nichts Neues sei. Weitere kuriose Erfindungen waren die „Elektrobürste zur Schädlingsbekämpfung“ und der „ortsfeste Brausekopf für Gießkannen“. Da ihm bei den Anmeldungen solcher Erfindungen zum Patent vielfach kein Erfolg beschieden war, erwähnte Adenauer diese Aktivitäten in seinen Memoiren nicht. Um sein Wohnhaus in Rhöndorf pflegte er einen großen Garten mit einer südländisch anmutenden Vielfalt von Pflanzen, Plastiken und Brunnen sowie vor allem Rosen, die Adenauer liebte, aber entgegen einer weit verbreiteten Legende nicht züchtete. Allerdings wurde zur Internationalen Gartenbauausstellung 1953 eine von Adenauer selbst ausgesuchte Rosensorte nach ihm benannt. Der Garten erinnert an das nördliche Italien, das Adenauer schätzen und lieben lernte. In Cadenabbia am Comer See, wo er in den letzten zehn Jahren seines Lebens regelmäßig seinen Urlaub verbrachte, lernte er auch das Boccia-Spiel kennen, das ihn so sehr faszinierte, dass er sich in seinem Garten in Rhöndorf sowie im Park des Palais Schaumburg in Bonn eine Bahn dafür bauen ließ. Ehrungen und Nachwirkung. Adenauer erhielt im Laufe seines Lebens zahlreiche staatliche und nichtstaatliche, nationale und internationale Auszeichnungen und Orden, die die Wertschätzung besonders seines Wirkens als Bundeskanzler ab 1949, und damit international auch die Anerkennung seiner Politik für die noch junge Bundesrepublik Deutschland, widerspiegeln. Ehrenbürgerschaften. Adenauer ist unter anderem Ehrenbürger seines letzten Wohnortes Bad Honnef sowie von Baden-Baden, Berlin, Bonn, Griante Cadenabbia, der Stadt Köln, der Universität zu Köln und von Trier. Ehrendoktortitel. Adenauer erhielt insgesamt 23 Ehrendoktortitel, darunter gleich fünf der Fakultäten der Universität zu Köln und acht in den USA. Die ungewöhnlichen fünf Ehrendoktoren aller damaligen Fakultäten sind damit begründet, dass die Wiedergründung der Universität nicht ohne Adenauers Zutun zustande gekommen wäre. Die beiden ersten wurden von den übergeleiteten Fakultäten der Vorgängerhochschulen Handelshochschule Köln und "Akademie für praktische Medizin" verliehen. Die übrigen kamen nach der Konstituierung und Konsolidierung der folgenden Fakultäten dazu. Die Math.-Nat.-Fakultät wurde erst 1955 aus der Phil.-Fak. ausgegliedert. Die Ehrungen nach 1950 sind seiner Politik im Nachkriegsdeutschland geschuldet. Orden und Auszeichnungen. Adenauer wurde kurz vor dem Ende des Königreichs Preußen mit einigen preußischen Orden geehrt, darunter dem Verdienstkreuz für Kriegshilfe (Preußen) (1917), dem Eisernen Kreuz am weißen Bande (1918) und dem Roten Adlerorden (4. Klasse) (1918). 1927 erhielt Adenauer als Präsident des preußischen Staatsrates und Kölner Oberbürgermeister das Große Ehrenzeichen am Bande für Verdienste um die Republik Österreich der Ersten Republik. Dabei war für Adenauer zunächst eine höhere Ehrenstufe (das Große Goldene Ehrenzeichen am Bande) vorgesehen; diese wurde jedoch herabgesetzt, um den gleichzeitig (aber nur für die niedrigere Stufe) vorgeschlagenen Düsseldorfer Oberbürgermeister Robert Lehr nicht zu brüskieren. 1956 wurde Adenauer dann auch das Große Goldene Ehrenzeichen am Bande für Verdienste um die Republik Österreich(der Zweiten Republik) verliehen, jedoch wiederum nicht ohne Irritationen. Im Januar 1954 war Adenauer der erste Träger des Großkreuzes in besonderer Ausführung des Verdienstordens der Bundesrepublik Deutschland. Im Mai 1954 erhielt er den Karlspreis der Stadt Aachen als „kraftvollen Förderer eines einigen Europa“. Im Mai 1958 wurde ihm der bayerische Verdienstorden verliehen. Vom Heiligen Stuhl erhielt Adenauer durch Papst Pius XII. im Dezember 1955 den Orden vom Goldenen Sporn; als Träger dieses Ordens hatte er theoretisch das Recht, auf einem Pferd in eine Kirche einzureiten. Im September 1963 verlieh ihm Papst Paul VI. zusätzlich den Christusorden, die höchste Auszeichnung des Heiligen Stuhls. Neben Antonio Segni ist Adenauer damit bislang die einzige Persönlichkeit, die beide päpstlichen Orden erhalten hat. Unter den internationalen staatlichen Ehrungen in seiner Zeit als Bundeskanzler machte der Orden vom Kreuz des Südens in Brasilien im Juli 1953 den Anfang; Tamann hebt hervor, dies sei insofern bemerkenswert, als dass Brasilien im Zweiten Weltkrieg als einziges südamerikanisches Land Truppen gegen das (damalige) Deutsche Reich entsandt habe, und die Auszeichnung somit als Aussöhnung zu verstehen war. Im selben Jahr wurde Adenauer in Südamerika auch noch in Peru, Argentinien und Kolumbien ausgezeichnet. 1955 kam Mexiko hinzu. Die erste staatliche Ehrung in Europa bekam Adenauer Ende 1953 in Italien durch das Großkreuz des Verdienstordens der Italienischen Republik; es folgten 1954 Griechenland, 1955 Island, 1956 Portugal, Belgien, wie oben erwähnt Österreich, und Großbritannien 1957 kam Luxemburg hinzu. 1960 verlieh ihm die niederländische Königin Juliana den Orden vom Niederländischen Löwen; 1962 wurde er in die französische Ehrenlegion aufgenommen. Besondere internationale Ehren wurden Adenauer in Japan zuteil, wo Kaiser Hirohito ihm 1960 den Orden der Aufgehenden Sonne 1. Klasse überreichte; drei Jahre später bekam Adenauer auch dessen höchste Stufe, den Orden der Aufgehenden Sonne mit Paulownien-Blüten, „aufgrund seines langjährigen Engagements zur Verständigung der japanisch-deutschen Freundschaft sowie für den Frieden und die Wohlfahrt in der Welt.“ Adenauer war seit 1951 Ritter des Souveränen Malteserordens; die Auszeichnung (seine erste außerhalb Deutschlands nach 1945) wurde ihm anlässlich seines ersten Staatsbesuchs in Italien zuerkannt. 1958 wurde er auch als Ehrenritter in den Deutschen Orden aufgenommen. Das TIME-Magazin kürte Adenauer 1953 zum Man of the Year („Mann des Jahres“). Für sein Talent als „Meister der Vereinfachung“ erhielt Adenauer 1959 (zum 100. Jubiläum des Aachener Karnevalsvereins) den Orden wider den tierischen Ernst; bei der Preisverleihung ließ er sich allerdings, als bislang einziger neben Helmut Schmidt 1972 und Karl-Theodor zu Guttenberg 2011, vertreten. Adenauers Fähigkeit (für die er den Orden bekam), auch komplizierte Sachverhalte vereinfacht und allgemeinverständlich darzustellen, wird von seinen Biographen mehrfach hervorgehoben. Denkmäler und Bauwerke. Plastik Hubertus von Pilgrims vor dem früheren Bonner Bundeskanzleramt an der Adenauerallee Nach Adenauer wurden verschiedenste Bauwerke benannt. Der Bonn trägt seinen Namen; ebenso die Berliner Parteizentrale der CDU (das frühere Bonner Gebäude wurde im Jahre 2003 abgerissen). Neben zahlreichen Plätzen, Straßen und Alleen sind auch mehrere Brückenbauwerke nach ihm benannt (siehe Konrad-Adenauer-Brücke). Eine der beiden Regierungsmaschinen Airbus A340 der Luftwaffen-Flugbereitschaft trägt ebenso wie eine Kaserne in Köln den Namen des ersten deutschen Bundeskanzlers. Im Mai 1982 wurde vor dem damaligen Bundeskanzleramt in Bonn eine von Hubertus von Pilgrim geschaffene Plastik seines Kopfes aufgestellt. Sie war anschließend als Symbol der "Bonner Republik" oft im Fernsehen zu sehen, denn viele Kameraleute schwenkten auf das Porträt, wenn sie das damalige Bundeskanzleramt zeigten. Ein weiteres Denkmal wurde Adenauer 1998 mit einer Büste in der Walhalla bei Regensburg gesetzt. Der Mercedes-Benz 300, eine typische deutsche „Staatskarosse“ der 1950er-Jahre, ist noch heute nach seinem prominenten Benutzer als "Adenauer-Mercedes" bekannt. Der originale "Adenauer-Mercedes" ist im Haus der Geschichte der Bundesrepublik Deutschland in Bonn ausgestellt. Adenauer-Stiftungen. Zwei prominente Stiftungen tragen Adenauers Namen: Zum einen die parteinahe Stiftung der CDU in Sankt Augustin, die seit 1964 den Namen Konrad-Adenauer-Stiftung trägt und auf die 1955 gegründete "Gesellschaft für christlich-demokratische Bildungsarbeit" zurückgeht, und zum anderen die Stiftung Bundeskanzler-Adenauer-Haus Rhöndorf, die noch im Todesjahr 1967 eingerichtet und 1978 in ihrer heutigen Form errichtet wurde. Die Konrad-Adenauer-Stiftung setzt sich national und international für politische Bildung sowie die Förderung der europäischen Einigung ein, unterstützt Kunst und Kultur, fördert begabte Studenten und Doktoranden mit Stipendien und dokumentiert und erforscht die geschichtliche Entwicklung der christlich-demokratischen Bewegung. Die Stiftung Bundeskanzler-Adenauer-Haus, die zu den fünf Politikergedenkstiftungen des Bundes gehört, finanziert und organisiert die Erhaltung des früheren Wohnhauses Konrad Adenauers in Rhöndorf und dessen Zugänglichkeit im Rahmen öffentlicher Führungen. Ferner obliegen ihr Pflege und Ausbau des seit 1967 stetig wachsenden umfangreichen Adenauer-Archivs, aus dessen Beständen in Zusammenarbeit mit regelmäßig wissenschaftliche Editionen und Veröffentlichungen zu Leben und Werk Adenauers hervorgehen. Ferner gehört die Pflege des Adenauer-Grabs auf dem Rhöndorfer Friedhof zu den Aufgaben der Stiftung. Adenauer-Preise. Etwa 20 Institutionen, darunter auch ausländische, vergeben Konrad-Adenauer-Preise. Seine Vaterstadt Köln ehrte ihn 2002 mit der Stiftung ihres Konrad-Adenauer-Preises, der alle zwei Jahre (undotiert) verliehen wird. Kurt Tucholsky. Kurt Tucholsky (* 9. Januar 1890 in Berlin; † 21. Dezember 1935 in Göteborg) war ein deutscher Journalist und Schriftsteller. Er schrieb auch unter den Pseudonymen "Kaspar Hauser", "Peter Panter", "Theobald Tiger" und "Ignaz Wrobel". Tucholsky zählt zu den bedeutendsten Publizisten der Weimarer Republik. Als politisch engagierter Journalist und zeitweiliger Mitherausgeber der Wochenzeitschrift "Die Weltbühne" erwies er sich als Gesellschaftskritiker in der Tradition Heinrich Heines. Zugleich war er Satiriker, Kabarettautor, Liedtexter, Romanautor, Lyriker und Kritiker (Literatur, Film, Musik). Er verstand sich selbst als linker Demokrat, Sozialist, Pazifist und Antimilitarist und warnte vor der Erstarkung der politischen Rechten – vor allem in Politik, Militär und Justiz – und vor der Bedrohung durch den Nationalsozialismus. Kindheit, Jugend, Studium. Tucholsky als knapp einjähriges Kind (1890) Kurt Tucholsky (rechts), 14-jährig mit seinen Geschwistern Ellen und Fritz (1904) Kurt Tucholskys Elternhaus, in dem er am 9. Januar 1890 zur Welt kam, steht in der Lübecker Straße 13 in Berlin-Moabit. Seine frühe Kindheit verbrachte er in Stettin, wohin sein Vater aus beruflichen Gründen versetzt worden war. Der jüdische Bankkaufmann Alex Tucholsky (1855–1905) hatte 1887 seine Cousine Doris Tucholski (1869–1943) geheiratet, mit der er drei Kinder hatte: Kurt, ihren ältesten Sohn, sowie Fritz und Ellen. 1899 kehrte die Familie nach Berlin zurück. Während Tucholskys Verhältnis zu seiner Mutter zeitlebens getrübt war, liebte und verehrte er seinen Vater sehr. Alex Tucholsky starb bereits 1905. Er hinterließ seiner Frau und den Kindern ein beachtliches Vermögen, das es Kurt ermöglichte, frei von finanziellen Sorgen zu studieren. Kurt Tucholsky war 1899 im Französischen Gymnasium Berlin eingeschult worden. 1903 wechselte er auf das Königliche Wilhelms-Gymnasium, das er 1907 verließ, um sich mit einem Privatlehrer auf das Abitur vorzubereiten. Nach dem Externen-Abitur im Jahre 1909 begann er im Oktober desselben Jahres ein Jurastudium in Berlin, dessen zweites Semester er im Frühjahr 1910 an der Universität Genf absolvierte. Zu einer juristischen Karriere kam es jedoch nicht. Da Tucholsky gegen Ende seines Studiums bereits sehr stark journalistisch engagiert war, verzichtete er 1913 darauf, die erste juristische Staatsprüfung abzulegen. Dies kam einem Verzicht auf eine mögliche Karriere als Anwalt gleich. Um dennoch einen Studienabschluss zu erlangen, bat er im August 1913 bei der Universität Jena um Zulassung zur Promotion zum Dr. iur. Seine im Januar 1914 eingereichte Dissertation zum Hypothekenrecht wurde zunächst abgelehnt, nach mehrfacher Überarbeitung dann aber doch angenommen. Sie trägt den Titel „Die Vormerkung aus § 1179 BGB und ihre Wirkungen“. Tucholsky verteidigte sie am 19. November 1914 und bestand cum laude. Nach Druck und Auslieferung der Pflichtexemplare wurde ihm am 12. Mai 1915 die Promotionsurkunde ausgehändigt. Erste Erfolge als Schriftsteller. Bereits während seiner Zeit als Schüler hatte Tucholsky seine ersten journalistischen Arbeiten verfasst. Die satirische Wochenzeitschrift "Ulk" hatte 1907 den kurzen Text "Märchen" gedruckt, in dem sich der 17-Jährige über den Kunstgeschmack Kaiser Wilhelms II. lustig gemacht hatte. Während des Studiums intensivierte er seine journalistische Tätigkeit, unter anderem für das sozialdemokratische Parteiorgan "Vorwärts". Für die SPD zog er 1911 in den Wahlkampf. Mit ' (kurz: "Rheinsberg") veröffentlichte Tucholsky 1912 eine Erzählung, in der er einen für die damalige Zeit ungewohnt frischen, verspielt-erotischen Ton anschlug und die ihn erstmals einem größeren Publikum bekannt machte. In diesem Buch verarbeitete er ein gemeinsames Wochenende mit Else Weil im August 1911. Um den Absatz des Buches zu fördern, eröffnete Tucholsky zusammen mit Szafranski, der die Erzählung illustriert hatte, auf dem Berliner Kurfürstendamm eine Bücherbar. Jeder Käufer eines Buches bekam dort als Zugabe einen Schnaps eingeschenkt. Der Studentenulk wurde jedoch nach wenigen Wochen wieder eingestellt. Langfristiger sollte dagegen ein Engagement werden, das Tucholsky Anfang 1913 begann. Am 9. Januar 1913 erschien sein erster Artikel in der linksliberalen Theaterzeitschrift "Die Schaubühne", dem später in "Die Weltbühne" umbenannten Wochenblatt des Publizisten Siegfried Jacobsohn, der bis zu seinem Tod Tucholskys Mentor und Freund blieb. Im Lebenslauf, den Tucholsky zwei Jahre vor seinem Tod in Schweden verfassen sollte, schrieb er über dieses besondere Verhältnis: In jeder Ausgabe der "Schaubühne" erschienen üblicherweise zwei bis drei Artikel von Tucholsky. Soldat im Ersten Weltkrieg. Die Begegnung mit dem Juristen Erich Danehl führte schließlich dazu, dass er 1918 als Vizefeldwebel und Feldpolizeikommissar nach Rumänien versetzt wurde. (Tucholskys Freund Danehl tauchte später als „Karlchen“ in mehreren Texten auf, zum Beispiel in "Das Wirtshaus im Spessart" oder in Schloss Gripsholm.) Im rumänischen Turnu Severin ließ Tucholsky sich im Sommer 1918 protestantisch taufen. Aus der jüdischen Gemeinde war er bereits am 1. Juli 1914 ausgetreten. Obwohl Tucholsky sich noch im August 1918 an einem Preisausschreiben zur 9. Kriegsanleihe beteiligt hatte, kehrte er im Herbst 1918 als überzeugter Antimilitarist und Pazifist aus dem Krieg zurück. Kampf um die Republik. Schon im Dezember 1918 übernahm Tucholsky die Chefredaktion des „Ulk“, die er bis zum April 1920 innehatte. Ulk war die wöchentliche satirische Beilage des linksliberalen "Berliner Tageblatts" des Verlegers Rudolf Mosse. Die vielen Pseudonyme waren nötig geworden, weil es kaum eine Rubrik gab, zu der Tucholsky nichts beizutragen hatte: von politischen Leitartikeln und Gerichtsreportagen über Glossen und Satiren bis zu Gedichten und Buchbesprechungen. Zudem dichtete er Texte, Lieder und Couplets für das Kabarett – etwa für die Bühne "Schall und Rauch" – und für Sängerinnen wie Claire Waldoff und Trude Hesterberg. Im Oktober 1919 erschien Tucholskys Gedichtsammlung "Fromme Gesänge". Erinnerungstafel in Berlin-Friedenau, Bundesallee 79 In der Hochphase der Inflation sah Tucholsky sich gezwungen, seine publizistische Arbeit zugunsten einer Tätigkeit in der Wirtschaft zurückzustellen. Doch nicht nur finanzielle Gründe sollen für diesen Schritt eine Rolle gespielt haben. Im Herbst 1922 hatte er eine schwere Depression, zweifelte am Sinn des Schreibens und soll sogar einen ersten Selbstmordversuch begangen haben. Am 1. März 1923 trat er schließlich in das Berliner Bankhaus Bett, Simon & Co. ein, wo er als Privatsekretär des Seniorchefs Hugo Simon arbeitete. Aber bereits am 15. Februar 1924 schloss er erneut einen Mitarbeitervertrag mit Siegfried Jacobsohn. Als Korrespondent der "Weltbühne" und der angesehenen "Vossischen Zeitung" ging er im Frühjahr 1924 nach Paris. Auch in privater Hinsicht gab es 1924 große Veränderungen im Leben Tucholskys. Im Februar 1924 ließ er sich von der Ärztin Else Weil, die er im Mai 1920 geheiratet hatte, wieder scheiden. Am 30. August desselben Jahres heiratete er schließlich Mary Gerold, mit der er seit seiner Abkommandierung von Alt-Autz weiter in Briefkontakt gestanden hatte. Bei einem Wiedersehen in Berlin, im Frühjahr 1920, hatten die beiden jedoch rasch festgestellt, dass sie sich einander entfremdet hatten. Auch in Paris sollte sich zeigen, dass es die beiden nicht über längere Zeit miteinander aushielten. Zwischen Frankreich und Deutschland. Wie sein Vorbild Heinrich Heine verbrachte Tucholsky darauf bis zu seinem Tode die meiste Zeit im Ausland und kehrte nur noch sporadisch nach Deutschland zurück. Die Distanz schärfte aber eher noch sein Wahrnehmungsvermögen für die Angelegenheiten Deutschlands und der Deutschen. Er beteiligte sich über die "Weltbühne" weiter an den politischen Debatten in der Heimat. Darüber hinaus versuchte er, wie Heine im 19. Jahrhundert, das gegenseitige Verständnis von Deutschen und Franzosen zu fördern. Tucholsky, der am 24. März 1924 in die Freimaurerloge "Zur Morgenröte" in Berlin – zum Freimaurerbund zur aufgehenden Sonne gehörig – aufgenommen worden war, besuchte Logen in Paris und wurde im Juni 1925 Mitglied in den beiden Logen "L'Effort" und "Les Zélés Philanthropes" in Paris (Grand Orient de France). Umschlag der "Weltbühne" vom 2. Dezember 1930 1926 wurde Tucholsky in den Vorstand der von Kurt Hiller gegründeten Gruppe Revolutionärer Pazifisten gewählt. Als Siegfried Jacobsohn im Dezember 1926 starb, erklärte sich Kurt Tucholsky sofort bereit, die Leitung der "Weltbühne" zu übernehmen. Da ihm die Arbeit als "„Oberschriftleitungsherausgeber“" aber nicht behagte, und er dafür dauerhaft nach Berlin hätte zurückkehren müssen, übergab er das Blatt schon bald seinem Kollegen Carl von Ossietzky. Als Mitherausgeber sorgte er immer auch für den Abdruck unorthodoxer Beiträge, wie sie z. B. Kurt Hiller lieferte. In den Jahren 1927 und 1928 erschienen seine essayistische Reisebeschreibung "Ein Pyrenäenbuch", die Textsammlung "Mit 5 PS" (womit sein Name und die vier Pseudonyme gemeint waren) und "Das Lächeln der Mona Lisa". Mit den literarischen Figuren des "Herrn Wendriner" und des "Lottchen" beschrieb er typische Berliner Charaktere seiner Zeit. Auch während seiner Zeit im Ausland musste sich Tucholsky in Prozessen mit politischen Gegnern auseinandersetzen, die sich von seinen Äußerungen beleidigt oder attackiert fühlten. Wegen des Gedichts "Gesang der englischen Chorknaben" wurde 1928 gar ein Prozess wegen Gotteslästerung gegen ihn eingeleitet. Im gleichen Jahr trennten sich Kurt und Mary Tucholsky endgültig. Tucholsky hatte bereits 1927 Lisa Matthias kennengelernt, mit der er 1929 einen Urlaub in Schweden verbrachte. Dieser Aufenthalt inspirierte ihn zum 1931 im Rowohlt Verlag erschienenen Kurzroman "Schloß Gripsholm", in dem noch einmal die jugendliche Unbeschwertheit und Leichtigkeit von "Rheinsberg" anklang. Publizistisches Verstummen und Exil. Es traf Tucholsky tief, als ihm zu Beginn der 1930er Jahre klar wurde, dass alle seine Warnungen ungehört verhallten und sein Eintreten für die Republik, für Demokratie und Menschenrechte offenbar ohne jede Wirkung blieb. Als klarsichtiger Beobachter der deutschen Politik erkannte er die mit Hitler heraufziehenden Gefahren., schrieb er schon Jahre vor der Machtübergabe, und er machte sich keine Illusionen, wohin eine Reichskanzlerschaft Hitlers das Land führen würde. Das bezeugte Erich Kästner rückblickend im Jahre 1946, als er den Schriftsteller als bezeichnete, der wollte. (Erich Kästner: "Kurt Tucholsky, Carl v. Ossietzky, ‚Weltbühne‘." In: "Die Weltbühne." 4. Juni 1946, S. 22) Tucholskys letzter Wohnsitz, Villa „Nedsjölund“ in Hindås (1930) Gedenktafel an der Villa „Nedsjölund“ 2012 Im Jahr 1929 mietete Tucholsky im schwedischen Hindås bei Göteborg die Villa „Nedsjölund“ an und verlegte seinen Wohnsitz dauerhaft dorthin. Nach dem Weltbühne-Prozess erachtete er die Möglichkeiten zu kritischer Publizistik als stark eingeschränkt. Gegen Carl von Ossietzky und den Journalisten Walter Kreiser war seit 1929 wegen Landesverrats und Verrats militärischer Geheimnisse ermittelt worden, da die "Weltbühne" im Artikel „Windiges aus der deutschen Luftfahrt“ die verbotene fliegerische Aufrüstung der Reichswehr offengelegt hatte. Ende 1931 wurde Ossietzky schließlich wegen Spionage zu 18 Monaten Haft verurteilt. Wegen des berühmt gewordenen Tucholsky-Satzes „Soldaten sind Mörder“ klagte man Ossietzky ebenfalls an. Ein Gericht wertete im Juli 1932 diesen Satz jedoch nicht als Verunglimpfung der Reichswehr. Da Tucholsky im Ausland lebte, war gegen ihn auf eine Anklageerhebung verzichtet worden. Dennoch überlegte er, zu diesem Prozess nach Deutschland zu kommen, da Ossietzky damals wegen des Luftfahrt-Artikels bereits im Gefängnis saß. Doch die Situation war Tucholsky zu riskant. Er befürchtete, den Nationalsozialisten in die Hände zu fallen. Allerdings war ihm klar, dass die Abwesenheit keinen guten Eindruck machen würde., schrieb er an Mary Gerold, die ihn Schon seit 1931 war Tucholsky publizistisch zunehmend verstummt. Das Ende seiner Beziehung zu Lisa Matthias, der Tod eines engen Freundes und ein chronisches Atemwegs- und Nasenleiden, dessentwegen er fünfmal operiert worden war, hatten seine resignative Stimmung verstärkt. Tucholskys letzter größerer Beitrag erschien am 8. November 1932 in der "Weltbühne". Es waren nur noch "Schnipsel", wie er seine Aphorismen nannte. Am 17. Januar 1933 meldete er sich in der "Weltbühne" noch einmal mit einer kleinen Notiz aus Basel. Zu größeren literarischen Formen fehlte ihm zusehends die Kraft. Zwar legte er dem Rowohlt Verlag ein Exposé für einen Roman vor, die politische Entwicklung in Deutschland verhinderte jedoch dessen Realisierung. 1933 verboten die Nationalsozialisten die "Weltbühne", verbrannten Tucholskys Bücher (vgl. Bücherverbrennung) und erkannten ihm die deutsche Staatsangehörigkeit ab. Er gab sich auch nicht der Illusion vieler Exilanten hin, dass die Diktatur Hitlers bald zusammenbrechen werde. Mit realistischem Blick stellte er fest, dass sich die Mehrheit der Deutschen mit der Diktatur arrangierte und selbst das Ausland Hitlers Herrschaft akzeptierte. Er rechnete mit einem Krieg innerhalb weniger Jahre. Innerlich aber war er noch nicht mit allem fertig, und er nahm sehr wohl Anteil an den Entwicklungen in Deutschland und Europa. Um dem inhaftierten Ossietzky beizustehen, dachte er auch daran, wieder an die Öffentlichkeit zu treten. Kurz vor seinem Tod plante er, in einem scharfen Artikel mit dem einst von ihm verehrten norwegischen Dichter Knut Hamsun abzurechnen. Hamsun hatte sich offen für das Hitler-Regime ausgesprochen und Carl von Ossietzky angegriffen, der, ohne sich wehren zu können, im KZ Esterwegen einsaß. Hinter den Kulissen unterstützte Tucholsky auch die Verleihung des Friedensnobelpreises des Jahres 1935 an den inhaftierten Freund. Tatsächlich erhielt Ossietzky die Auszeichnung im folgenden Jahr rückwirkend für 1935. Den Erfolg seiner Bemühungen erlebte Kurt Tucholsky jedoch nicht mehr. Tod. a> mit der Aufschrift „Alles Vergängliche Ist Nur Ein Gleichnis“ Vom 14. Oktober bis zum 4. November 1935 war Tucholsky wegen ständiger Magenbeschwerden in stationärer Behandlung. Seit diesem Krankenhausaufenthalt konnte er nicht mehr ohne Barbiturate einschlafen. Am Abend des 20. Dezember 1935 nahm er in seinem Haus in Hindås eine Überdosis an Tabletten. Tags darauf wurde er, schon im Koma liegend, aufgefunden und ins Sahlgrensche Krankenhaus nach Göteborg gebracht. Dort verstarb Kurt Tucholsky am Abend des 21. Dezember. Es wurde seither als gesichert angenommen, dass Tucholsky Suizid begehen wollte, eine These, die 1993 von Tucholskys Biographen Michael Hepp jedoch angezweifelt wurde. Hepp fand Anhaltspunkte für eine versehentliche Überdosierung von Medikamenten, also eine unbeabsichtigte Selbsttötung. Rezeption und Einzelaspekte. Tucholsky gehörte zu den gefragtesten und am besten bezahlten Journalisten der Weimarer Republik. In den 25 Jahren seines Wirkens veröffentlichte er in fast 100 Publikationen mehr als 3.000 Artikel, die meisten davon, etwa 1.600, in der Wochenzeitschrift "Die Weltbühne". Zu seinen Lebzeiten erschienen bereits sieben Sammelbände mit kürzeren Texten und Gedichten, die zum Teil dutzende Auflagen erzielten. Manche Werke und Äußerungen Tucholskys polarisieren bis heute, wie die Auseinandersetzung um seinen Satz „Soldaten sind Mörder“ in den 1990er Jahren belegt. Seine Kritik an Politik, Gesellschaft, Militär, Justiz und Literatur, aber auch an Teilen des deutschen Judentums, rief immer wieder Widerspruch hervor. Im Schloss Rheinsberg befindet sich heute das Kurt-Tucholsky-Literaturmuseum, das sein Leben und Wirken ausführlich dokumentiert. Ein großer Teil von Tucholskys Nachlass liegt im Deutschen Literaturarchiv Marbach. Stücke davon sind im Literaturmuseum der Moderne in Marbach am Neckar in der Dauerausstellung zu sehen. Der politische Schriftsteller. Trotz dieser Enttäuschung hatte Tucholsky nicht aufgehört, in linken Blättern die erklärten Feinde der Republik und der Demokratie in Militär, Justiz und Verwaltung, in den alten monarchistisch gesinnten Eliten und in den neuen, antidemokratischen völkischen Bewegungen scharf anzugreifen. Zeitweilig näherte sich Tucholsky, der von 1920 bis 1922 Mitglied der USPD gewesen war, auch der KPD an, wobei er als bürgerlicher Schriftsteller stets auf Distanz zu den kommunistischen Parteifunktionären blieb. Tucholsky und die Arbeiterbewegung. Tucholsky verstand sich als linker Intellektueller, der für die Arbeiterbewegung eintrat. Er engagierte sich vor dem Ersten Weltkrieg für die SPD, ging aber seit der Novemberrevolution 1918 zunehmend auf Distanz zu dieser Partei, deren Führung er Verrat an ihrer Basis vorwarf. Der Parteivorsitzende Friedrich Ebert hatte damals mit General Wilhelm Groener, dem Chef der Obersten Heeresleitung, ein geheimes Übereinkommen zur Niederschlagung der Revolution geschlossen, die in den Augen der SPD-Parteiführung zu eskalieren drohte. Ebert hatte Gröner dafür zugesagt, die aus dem Kaiserreich stammenden Strukturen in Militär, Justiz und Verwaltung auch in der Republik zu bewahren. Tucholsky war zwischen 1920 und 1922 Mitglied der USPD. Nachdem sich diese linkssozialdemokratische Partei 1922 erneut gespalten und mit einem großen Teil ihrer verbliebenen Anhänger wieder der SPD angeschlossen hatte, war auch Tucholsky kurzfristig SPD-Mitglied. Über die Dauer dieser Mitgliedschaft besteht in den Quellen Unklarheit. Gegen Ende der 20er Jahre näherte er sich der KPD an, legte aber Wert darauf, kein Kommunist zu sein. Insgesamt beharrte er gegenüber allen Arbeiterparteien auf einem unabhängigen Standpunkt abseits der Parteidisziplin. Der Literaturkritiker und Dichter. Als Literaturkritiker gehörte Kurt Tucholsky zu den einflussreichsten deutschen Publizisten seiner Zeit. In seiner festen, mehrseitigen Rubrik „Auf dem Nachttisch“, die in der "Weltbühne" erschien, besprach er oft ein halbes Dutzend Bücher auf einmal. Insgesamt rezensierte er mehr als 500 literarische Werke. Tucholsky sah es aber als das „erste Bestreben“ seiner Buchkritik an, „nicht das Literaturpäpstlein zu spielen“ Seine politischen Ansichten flossen regelmäßig in seine Literaturkritiken mit ein: „Wie kein zweiter verkörpert Kurt Tucholsky den politisch engagierten Typus des linksintellektuellen Rezensenten.“ Zu seinen Verdiensten auf diesem Gebiet gehört es, als einer der ersten auf das Werk Franz Kafkas aufmerksam gemacht zu haben. Als „tief und mit den feinfühligsten Fingern gemacht“ beschrieb er bereits 1913 Kafkas Prosa in dessen erster Buchveröffentlichung "Betrachtung"; das Romanfragment "Der Process" bezeichnete er in seiner Rezension als „das unheimlichste und stärkste Buch der letzten Jahre“ Kritisch beurteilte er dagegen "Ulysses" von James Joyce: „Ganze Partien des ‚Ulysses‘ sind schlicht langweilig.“ Über einzelne Passagen schrieb er aber auch: „Wahrscheinlich ist das mehr als Literatur – auf alle Fälle ist es die allerbeste“, und zog abschließend einen Vergleich mit „Liebigs Fleischextrakt. Man kann es nicht essen. Aber es werden noch viele Suppen damit zubereitet werden.“ Als Dichter von Chansons und Couplets trug Tucholsky dazu bei, diese Genres für die deutsche Sprachwelt zu erschließen., klagte er im Text „Aus dem Ärmel geschüttelt“. Als Lyriker verstand er sich jedoch nur als „Talent“, im Gegensatz zum „Jahrhundertkerl“ Heinrich Heine. Das Gedicht „Mutterns Hände“, das 1929 in der "AIZ" erschien, ist ein typisches Beispiel seiner „Gebrauchslyrik“, wie Tucholsky diese poetische Richtung, deren Hauptvertreter Erich Kästner war, in einem gleichnamigen Artikel bezeichnete. Zum Tucholsky-Repertoire in Schullesebüchern gehören Gedichte wie „Augen in der Großstadt“, das von so unterschiedlichen Künstlern wie Udo Lindenberg und Jasmin Tabatabai vertont wurde, und „Das Ideal“. Tucholsky und das Judentum. Kontrovers wird auch Tucholskys Einstellung zum Judentum gewertet. Der jüdische Wissenschaftler Gershom Scholem bezeichnete ihn als einen der „begabtesten und widerwärtigsten jüdischen Antisemiten“ Grundlage für dieses Urteil waren unter anderem die „Wendriner“-Geschichten, die nach Ansicht Scholems die jüdische Bourgeoisie in „erbarmungslosesten Nacktaufnahmen“ darstellten. Dagegen wurde vorgebracht, dass Tucholsky in der Figur des „Herrn Wendriner“ nicht den Juden bloßstelle, sondern den Bourgeois. Ihm ging es darum, die gesinnungslose Mentalität eines Teils des konservativen jüdischen Bürgertums anzuprangern, das seiner Meinung nach selbst die größten Demütigungen durch eine nationalistische Umwelt hinnehme, so lange es seinen Geschäften nachgehen könne. Aus der Sicht der Konservativen und Rechtsextremen – auch der deutschnationalen Juden – stellte Tucholsky indes das geradezu perfekte Feindbild vom „zersetzenden, jüdischen Literaten“ dar. Dass Tucholsky aus dem Judentum ausgetreten war und sich protestantisch hatte taufen lassen, spielte für diese Kritiker keine Rolle. Auch das heute noch gegen Juden vorgebrachte Argument, dass sie mit ihren Äußerungen selbst den Antisemitismus provozierten, wurde schon gegen Tucholsky ins Feld geführt. In seiner "Literaturgeschichte des deutschen Volkes" brachte Josef Nadler 1941 den Hass der Nationalsozialisten gegen den bereits Verstorbenen aufs Deutlichste zum Ausdruck: „Kein Volk dieser Erde ist jemals in seiner eigenen Sprache so geschmäht worden wie das deutsche durch Tucholsky.“ Seinen letzten langen Brief widmete Tucholsky erstaunlicherweise vollständig der Situation des deutschen Judentums. An den nach Palästina emigrierten Arnold Zweig schrieb er: „Es ist nicht wahr, daß die Deutschen verjudet sind. Die deutschen Juden sind verbocht.“ Tucholsky und die Frauen. Tucholsky und Lisa Matthias im schwedischen Läggesta (1929) Spätestens seit dem Erscheinen von Lisa Matthias’ Autobiografie "Ich war Tucholskys Lottchen" verfügen die Tucholsky-Forscher über genügend Stoff, um ausgiebig Spekulationen über das Verhältnis Tucholskys zu Frauen anzustellen. Matthias schilderte in ihren Erinnerungen Tucholsky als einen beziehungsunfähigen Erotomanen, der sie, selbst eine Geliebte, mit mehreren Frauen gleichzeitig betrogen habe. Die Veröffentlichung der Memoiren wurde 1962 als Skandal empfunden, weil Matthias nach Auffassung der Literaturkritiker zu sehr die Sexualität Tucholskys zum Thema gemacht habe. Dass sie Tucholsky „in noch weniger als Unterhosen“ (Walther Karsch) geschildert habe, trifft allerdings nicht zu. Auch Tucholskys erste Frau Else Weil bestätigte, dass er es mit der Treue nicht sehr genau genommen habe. Von ihr ist der Satz überliefert: „Als ich über die Damen wegsteigen musste, um in mein Bett zu kommen, ließ ich mich scheiden.“ Tucholskys zweite Frau Mary Gerold äußerte sich dagegen nie über das Privatleben ihres Mannes. Für das Scheitern der beiden Ehen Tucholskys machen Biografen meist sein schlechtes Verhältnis zu seiner Mutter verantwortlich, unter deren Regiment er nach dem frühen Tod des Vaters gelitten habe. Tucholsky und seine beiden Geschwister beschrieben sie übereinstimmend als tyrannischen Typus der „alleinstehenden Hausmegäre“. Dies habe es dem „erotisch leicht irritierten Damenmann“ (Raddatz) unmöglich gemacht, auf Dauer die Nähe einer Frau zu ertragen. Kurz vor seinem Tod, als er noch mit Hedwig Müller und Gertrude Meyer liiert war, bekannte sich Tucholsky allerdings wieder zu seiner zweiten Frau Mary Gerold, die er zu seiner Alleinerbin machte. In seinem Abschiedsbrief an sie schrieb er über sich selbst: „Hat einen Goldklumpen in der Hand gehabt und sich nach Rechenpfennigen gebückt; hat nicht verstanden und hat Dummheiten gemacht, hat zwar nicht verraten, aber betrogen, und hat nicht verstanden.“ Gerhard Zwerenz vertritt in seiner Biografie die These, Tucholsky sei nicht in der Lage gewesen, „intellektuelle Fähigkeiten beim Weib zu akzeptieren, ohne die Frau zugleich zu maskulinisieren“. Als Belege dafür führt er Aussagen an wie: „Frankfurt hat zwei große Männer hervorgebracht: Goethe und Gussy Holl“, oder die Tatsache, dass er Mary Gerold in seinen Briefen meist mit „Er“ angesprochen habe. Letztlich bleiben nachträgliche psychologische Betrachtungen dieser Art immer Spekulation. Fest steht, dass Tucholsky in seinen Erzählungen "Rheinsberg" und "Schloß Gripsholm" ein für damalige Verhältnisse fortschrittliches Frauenbild propagierte. Zudem unterstützte er mit Beiträgen in der sexualreformerischen Zeitschrift "Die Neue Generation" die Arbeit der Feministin Helene Stöcker. Positiv dargestellte Frauengestalten in seinen Werken wie etwa Claire, die Prinzessin und Billie sind selbstständige Charaktere, die ihre Sexualität nach eigenen Vorstellungen ausleben und sich nicht überkommenen Moralvorstellungen unterwerfen. Dies gilt auch für die Figur des flatterhaften Lottchen. Seine Abneigung gegen asexuelle Intellektuelle im Reformkleid brachte Tucholsky in der Figur der Lissy Aachner in "Rheinsberg" zum Ausdruck. Die bösartige Direktorin des Kinderheims in "Schloß Gripsholm" entspricht dagegen eher dem Typus, den Tucholsky in seiner Mutter Doris gesehen haben könnte. Kathmandu. Kathmandu (nepali काठमांडौ, newari येँ महानगरपालिका, früherer Name Kantipur) ist eine Großstadt in Asien. Sie ist die Hauptstadt des Staates Nepal. Mit 975.453 Einwohnern (2011) ist sie die größte Stadt des Landes und zudem Sitz der SAARC (Südasiatische Vereinigung für regionale Kooperation). Lage und Verkehrsanbindung. Kathmandu (alter Name: Kantipur) liegt im Zentrum des dicht besiedelten Kathmandutales, einem in Höhe liegenden Talkessel von etwa 30 km Durchmesser. Die weiteren Städte im Tal, Lalitpur (Patan), Bhaktapur, Madhyapur Thimi, Kirtipur und zahlreiche kleinere Gemeinden bilden einen Ballungsraum von über 1,5 Million Einwohnern (Zensus 2011, Zensus 2001: 915.071) Die umliegenden Berge haben Höhen zwischen 2.000 und 2.700 m. Im Norden, und mehr noch im Westen, haben die Ausläufer der sehr dicht gebauten Stadt den Fuß dieser Berge schon erreicht. Die Stadt erstreckt sich an der Nordseite des Bagmati. Der Kernbereich liegt zwischen den Flüssen Vishnumati und Dhobi Khola. An der Südseite des Bagmati liegt die Schwesterstadt Lalitpur (Patan). Das Wasser der im Kessel zusammenlaufenden Flüsse wird einzig über den Hauptfluss Bagmati durch eine Schlucht nach Süden abgeführt, durch die sonst keine Verkehrswege führen. Die wichtigste und bislang noch einzige Verkehrsanbindung an das übrige Land erfolgt über einen Pass im Westen der Stadt. Die extremen Monsunniederschläge führen alljährlich zu zahlreichen Erdrutschen, so dass Kathmandu immer wieder für einige Tage von der Außenwelt abgeschnitten ist. Eine zweite Straßenverbindung in den Terai, beginnend in Dhulikhel, etwa 30 km östlich von Kathmandu, ist seit 1997 im Bau und annähernd fertiggestellt. Die prekäre Anbindungssituation der Stadt wird damit deutlich verbessert werden. Der Araniko Highway führt über Bhaktapur und Dhulikhel bis zur Sino-Nepal Freundschaftsbrücke an der Grenze zu Tibet. Der Highway ist seit Jahren aufgrund von Erdrutschen und schlechtem Zustand auf dem letzten Teilstück bis zur Grenze mit der Volksrepublik China insbesondere während der Regenzeit häufig nicht befahrbar. Im weiteren Verlauf auf chinesischer Seite ist die Straße als Friendship Highway nach Lhasa durchgehend befestigt und ausreichend ausgebaut. Geschichte. Die Frühgeschichte Kathmandus wird in den buddhistischen und hinduistischen Legenden beschrieben. Ihnen zufolge entstand eine erste Ansiedlung am Zusammenfluss von Vishnumati und Bagmati, nachdem das Tal zuvor von Buddha Manjushri bzw. Pradyumna, einem Sohn Krishnas, trocken gelegt und damit großflächig bewohnbar gemacht worden war. Die „Manju-Patan“ genannte Stadt erstreckte sich von Swayambhunath bis Guhyeswari und wurde von Dharmakara regiert. Auf weitere Könige folgte schließlich die rund 300 Jahre umfassende Herrschaft der Kiranti, einem ost-nepalesischen Bergvolk, die bis ca. 300 v. Chr. andauerte und das Kathmandu-Tal in ein blühendes Handelszentrum verwandelte. Früh im ersten Jahrtausend n. Chr. fiel die Macht in die Hände der aus Indien stammenden Licchavi-Dynastie, die den Hinduismus und das Kastenwesen mitbrachten. Von Chinesischen Reisenden im 7. Jhdt. stammen Berichte, dass Buddhismus und Hinduismus friedlich nebeneinander existierten. Der Blütezeit unter den Licchavis folgte eine Zeit der Instabilität, über die wenig bekannt ist. Für das 9. Jahrhundert sind im Kathmandutal einige Stadtgründungen belegt. Der Ursprung Kathmandus ist legendenumwoben. Die Göttin Mahalakshmi hatte dem König Gunakama Deva etwa 950 n. Chr. im Traum aufgetragen, eine Stadt am Zusammenfluss von Vishnumati und Bagmati zu gründen und Kantipur zu nennen. Die Stelle ist, wie viele andere Zusammenflüsse, heilig, weil man dort Kanesvara, eine Inkarnation Vishnus, findet. Es ist aber davon auszugehen, dass die Stadt zu dem Zeitpunkt bereits bestand und es sich eher um eine Neuordnung von Stadtbereichen und Zuordnung von Schutzgöttern handelte. Gunakama Deva verlegte den Königssitz von Patan nach Kantipur und ließ 18.000 Häuser und den goldenen Brunnen Suvarnapranali bauen. Er brachte Schutzgottheiten in die Stadt, Chandesvari, Rakta Kali (Kankeshvari), Pacali Bhairava, Indrayani, Maheshvari und Lomri, die heute noch in Kathmandu verehrt werden. Im Jahre 1382 geriet das gesamte Tal unter die Herrschaft der Newaren unter Jayastithi Malla, dem Begründer der noch heute verehrten Malla-Dynastie. Drei Generationen später wurde das Reich unter drei Brüdern und einer Schwester aufgeteilt, jeweils mit den Hauptstädten Kantipur, Lalitpur, Bhadgaon und dem östlich an das Kathmandutal angrenzende Banepa. Die Konkurrenz unter diesen vier Städten führte zu einer Blüte in der Kunst. In allen drei Städten entstanden, hauptsächlich von Newar-Künstlern, Tempelbezirke mit prächtigen Pagoden und Palästen. Rinnsteine, Wasserbecken und öffentliche Wasserstellen wurden angelegt. Der Wohlstand der Stadt beruhte auf den blühenden Handel und Zolleinnahmen. In der Regierungszeit Mahendra Mallas wurde im 16. Jhdt. der Bereich um den Palast mit bedeutenden, reich verzierten Gebäuden ausgestattet. Um 1560 entstand mit dem dreigeschossigen, auf einer Stufenpyramide stehenden Taleju-Tempel der erste Monumentalbau im Kathmandutal und Pashupatinath am Bagmatiufer. König Pratapa Malla ließ den Palast zur heutigen Größe ausbauen und u. a. auch den Rani Pokhari anlegen. Pratapa, der sich als König der Poeten betrachtete, ließ 1654 das „Gebet zu Kali“ in 15 Sprachen in einer Wand des Königspalastes meißeln. 1768 wurden Kathmandu und Patan von Truppen des Prithvi Narayan Shah aus Gorkha eingenommen. Der letzte Malla König hatte noch den Schatz von Pashupatinath geraubt, um die Verteidigung zu bezahlen, und vergeblich die Britische Ostindien-Kompanie zu Hilfe gerufen. Ein Jahr später fielen auch Badgaon und Banepa in die Hände der Gurkhas. Kathmandu wurde zur Residenzstadt der Shah-Dynastie. Die Stadt wurde ab Mitte des 19. Jh. nach europäischem Vorbild ausgebaut. Der Kantipath entstand am Ostrand der Stadt entlang der Stadtmauer mit Palästen, Schulen, Krankenhäusern und Kasernen. Heute stellt diese Straße eine wichtige zentrale Nord-Südachse der Stadt dar. Die Nachfolger Prithvis Narayans annektierten benachbarte Ländereien und dehnten ihr Reich bis 1790 im Osten bis nach Sikkim und im Westen bis zum heutigen Uttar Pradesh aus. 1816 wurde infolge einer verlorenen Schlacht gegen die Engländer, die Indien kolonisiert hatten, zum Unmut der Nepali ein Britischer Beobachter in Kathmandu stationiert. In der Folgezeit zog sich das Land in völlige Isolation zurück; außer Indern durfte kein Ausländer die Grenze übertreten. Noch 1948 war Nepal eines der größten von Europäern unerforschten Länder der Welt. Bis 1846 folgte eine Zeit der Intrigen, in der alle Premierminister unter den Shahkönigen entweder ermordet oder in den Selbstmord getrieben wurden. Im Jahre 1846 kam der Soldat Jung Bahadur Kunwar durch einen blutigen Staatsstreich an die Macht, bei dem Dutzende Adelige und über hundert Beamte ermordet wurden (Kot Massaker). Die Shahs werden entmachtet, fungieren aber weiter bis 1951 als Marionettenkönige. Kunwar ändert seinen Namen in Rana (König) und begründet damit die Rana-Dynastie, die in den folgenden 100 Jahren die Premierminister mit der eigentlichen Macht stellt. Unter den Ranas entstanden riesige Paläste im Stil des europäischen Neoklassizismus, z. B. der Singh Durbar, die größte Privatresidenz Asiens. Mangels einer Straßenanbindung wurden bis in die 1950er-Jahre alle Güter nach Kathmandu getragen, so auch die ersten Autos, z. B. der Rolls Royce der Ranas. Kathmandu wurde im Jahre 1934 von einem schweren Erdbeben getroffen, bei dem nur wenige Gebäude der Stadt unbeschädigt blieben. Die Zerstörung nahm man zum Anlass, die New Road, eine der heutigen Hauptgeschäftsstraßen der Stadt, als Verbindung der Kantpath mit dem Durbar Marg (Tempelbezirk) zu schaffen. Mit Hilfe Indiens kam König Tribhuvan 1951 wieder an die Macht und unter seinem Sohn Mahendra trat in Kathmandu 1959 erstmals ein frei gewähltes Parlament zusammen. Der König fürchtete jedoch, an Macht einzubüßen, und mit der Begründung, dass die Regierung in den vergangenen vier Jahren zehnmal gewechselt hatte, erklärte er 1960 den Ausnahmezustand, löste das Parlament auf und verbot alle Parteien. Zwei Jahre später führte er das Panchayat ein, eine halb-demokratische Legislative mit wenig faktischer Macht. 1972 bestieg Mahendras Sohn Birendra den Thron. Die Unzufriedenheit im Volk erreichte 1979 einen Höhepunkt und in Kathmandu kam es erstmals seit Menschengedenken zu gewalttätigen Demonstrationen. Der König gewährte eine Volksabstimmung, in der das Panchayat-System eine knappe Mehrheit erhielt. Auch nachdem es daraufhin 1981 zu Wahlen kam (ohne Beteiligung von Parteien), behielt der König die absolute Macht. In den 1980er Jahren kam es vor allem in Kathmandu zu zahlreichen Demonstrationen und Unruhen, die von der Polizei brutal bekämpft wurden. Die Unruhen gipfelten 1990 in einen großen Aufstand, bei dem am 6. April auf dem Tundikhel 200 bis 300 Menschen ums Leben kamen. Unter dem Druck war der König schließlich gezwungen, das Panchayat-System aufzuheben und Wahlen zuzulassen, die im Mai 1991 stattfanden. Im Juni 2001 spielte sich im königlichen Palast eine Tragödie ab. Nach der offiziellen Untersuchung lief der Kronprinz Dipendra Amok und erschoss 11 Mitglieder seiner Familie, einschließlich seiner Eltern, ehe er die Waffe gegen sich selbst richtete. Nachfolger wurde der im Volk weitgehend unbeliebte Bruder Birendras, Prinz Gyanendra. Dieser setzte unter der Begründung der ständig wechselnden und inkompetenten Regierungen und des eskalierenden Bürgerkrieges (Maoistenaufstand) am 1. Februar 2005 die Regierung ab, erklärte den Notstand und hob alle demokratischen Freiheiten auf. Die Gemeinderatswahlen im Februar 2006 wurden von allen Parteien boykottiert. Generalstreiks und zahlreiche Demonstrationen zwangen Gyanendra, das Parlament wieder einzusetzen. Die Maoisten beteiligten sich an der Interimsregierung, und das Parlament entzog dem König jede Machtbefugnis. Die für Herbst 2007 angesetzten Wahlen wurden verschoben, da über die Zukunft der Monarchie heftig gestritten wurde. Die Wirtschaft der Stadt hat in dieser unsicheren Zeit schwer gelitten. Zu den zahlreichen Demonstrationen und Streiks, in deren Folge das Geschäftsleben völlig zusammenbrach, kamen zeitweise Belagerungen der Stadt durch Maoisten und die Abschnürung von der Außenwelt. Der Tourismus, wichtige Einnahmequelle sowohl der Stadt als auch des ganzen Landes, blieb über Jahre völlig aus. Am 25. April 2015 wurde die Stadt von einem schweren Erdbeben der Stärke 7,8 getroffen. Zahlreiche Menschen wurden getötet und Gebäude stürzten ein, darunter der 61 Meter hohe Dharahara-Turm. Bevölkerungsentwicklung. Die folgende Tabelle zeigt die Entwicklung der Einwohnerzahlen der Stadt. Der Distrikt Kathmandu, zu dem etwa ein Drittel des Kathmandutals einschließlich Kathmandu gehören, hatte bei der Volkszählung 2001 1.081.845 Einwohner. Stadtbild. Blick auf Kathmandu von Kirtipur aus Kleiner Seitenaltar vor einem Appartementblock Kathmandu ist politisches, kulturelles Zentrum von Nepal und mit Abstand die größte Stadt des Landes. Hier finden sich alle zentralen Institutionen Nepals, die Vertretungen vieler Länder und Entwicklungsorganisationen sowie die repräsentativen Bauten der Regierung und des Königshauses, die das Bild der Gesamtstadt prägen. Die Altstadt ist geprägt von hinduistischen Tempeln, insbesondere am Durbar Marg; weitere wichtige religiöse Bauwerke und Heiligtümer finden sich in den äußeren Bezirken der Stadt: Pashupatinath und buddhistische Stupas und Heiligtümer (u. a. Bodnath, Swayambhunath, Budhanilkantha). Die Altstadt hat eine extrem hohe Bebauungsdichte, verfügt aber weitgehend noch über die ursprüngliche Blockstruktur mit der für die Stadt typischen Innenhofbebauung (Bahal), z. B. Bhagwati Bahal, Khache Bahal, Om Bahal u. v. a. Die ruhigen, großen Bahals sind in der Regel nur durch schmale, niedrige und unscheinbare Zugänge zu erreichen und bilden einen starken Kontrast zum dichten Gedränge und Lärm in den Gassen. Das Tal mit den drei Königsstädten Kathmandu, Patan und Bhaktapur wird von der UNESCO seit 1979 als Weltkulturerbe eingestuft. Die Bausubstanz der Wohngebäude, in der Altstadt vielfach im newarischen Baustil mit kunstvoll geschnitzten Fenstern, ist meist sehr schlecht, und trotz des Schutzstatus sind sie vom Verfall bedroht. Verfallene oder abgerissene Häuser werden, wie im ganzen Lande, durch Einfachst-Betonbauten ersetzt, denen dann gleich einige Geschosse mehr aufgesetzt werden. Diese Entwicklung schreitet schnell voran. Daher wird es das ursprüngliche Kathmandu in wenigen Jahren nicht mehr geben. Stadtbildprägend ist auch eine große, ungestaltete Grünfläche (Tundikhel) in der Stadtmitte, direkt östlich der Altstadt, um die der Hauptverkehr der Stadt im Uhrzeigersinn herumgeführt wird. Es gibt nur wenige ausgebaute breite Straßen im Stadtgebiet, beispielsweise vom Zentrum nach Osten zum Flughafen, der unmittelbar am Stadtrand liegt. Darüber hinaus gibt es den planerischen Glücksgriff einer um Kathmandu und Lalitpur führenden, breiten Ringstraße. Ansonsten spielt sich der ganze Verkehr bis auf wenige Ausnahmen auf schmalen, meist nur einspurigen Straßen und Gassen ab, auf denen sich gleichzeitig die Fußgänger bewegen. Bei der Stadtentwicklung hinkt die Erschließung fast immer hinterher: zuerst entstehen planlos die Häuser; danach werden die verbleibenden Trampelpfade zu kleinen Straßen ausgebaut, die kaum für Fahrzeuge und noch weniger für Notfahrzeuge zugänglich sind. Obwohl es in Nepal kaum private Fahrzeuge gibt, es fahren praktisch nur Tempos, Taxis, Busse und LKW, bricht der Verkehr in den Stoßzeiten regelmäßig zusammen. Die Verkehrsabgase tragen dazu bei, dass Kathmandu zu den Städten mit der höchsten Luftverschmutzung gehört, da die Kessellage einen Luftaustausch erschwert. Seit wenigen Jahren ist man dabei, wenigstens die zahlreichen Zweitakter (Tempos) durch batteriebetriebene saubere „Sapha“-Tempos zu ersetzen. Da diese einen großen Teil des Verkehrs ausmachen, trägt dies zu einer spürbaren und sichtbaren Verbesserung der Luftqualität, zumindest im Stadtzentrum, bei. Im öffentlichen Verkehr trug der Oberleitungsbus Kathmandu dazu bei, der mittlerweile aber stillgelegt wurde. Kathmandu war auch eine Station auf den so genannten Hippie trails. Die Stadt wurde in den 1960er und 1970er Jahren in einem Atemzug zusammen mit Kabul und der Khaosan Road in Bangkok genannt. Spuren davon findet man allenfalls in verschiedenen Namen von Restaurants und z. B. in dem noch gebräuchlichen Namen für eine kleine Straße in der Nähe des Durbar Square: Freak Street. Ansonsten ist von dem Flair dieser Zeit nichts übrig geblieben und viele Touristen, die die Stadt mit der alten Mystik und dem Zauber in Verbindung bringen, erleben eine Enttäuschung. Der Stadtteil Thamel hat sich zum Touristengebiet entwickelt und wird in der Trocken- und Reisezeit (Oktober bis April) von westlichen Touristen dominiert. In der Nachbarstadt Lalitpur befindet sich der einzige Zoo Nepals. Verwaltung. Der Verwaltungsname der Stadt lautet "Kathmandu Maha-Nagarpalika" (Umschrift: kaaThmaa:Dau mahaanagarpaalikaa) (engl.: Kathmandu Metropolitan City). Sie verfügt als einzige Stadt des Landes über diese höchstmögliche Verwaltungsstufe. Auf der nächsttieferen Ebene ist Kathmandu in fünf Sektoren mit insgesamt 35 Stadtteilen (wards) gegliedert. Bei der Einteilung der Wards wurde weniger auf gewachsene Stadtteile als auf einigermaßen gleiche Größen bzw. Einwohnerzahlen geachtet. Gewachsene Stadtteile, die auch für die Orientierung eine wichtige Rolle spielen, sind Teku, Kalimati, Balaju (Industriegebiet), Putalisadak, Dillibazar, Gyaneswar (Deutsche Botschaft), Lazimpat (Botschaftsviertel), Thapathali, Chabahil, Baneswar, Min Bhawan und viele andere. Einrichtungen. Parlament, Ministerien, Oberstes Gericht, Nationalarchiv, Zentralbank. Die meisten dieser Einrichtungen sind in ehemaligen Ranapalästen untergebracht. Tribhuvan Universität (Hauptcampus am südwestlichen Stadtrand im benachbarten Kirtipur), Botschaften: Ägypten (L), Australien, Bangladesch, China, Dänemark, Deutschland, Frankreich, Großbritannien, Indien, Israel, Italien, Japan, Myanmar (L), Nordkorea (L), Norwegen (L), Pakistan, Russland, Schweiz (L), Sri Lanka, Südkorea, Thailand, USA Konsulate: Finnland, Kanada, Mexiko, Neuseeland, Niederlande (L), Österreich, Philippinen, Slowakei (L), Spanien, Türkei. Amerikanische Bibliothek, British Council, CARE Nepal, Caritas, CIDA (Kanada), CRS, CWIN, DFID, DVS, GIZ (ehemals GTZ/DED), GVS, Helvetas, ICIMOD, ITDGA, IUCN, JOCV/JICA (Japan), SAARC, SCF (US), SCF (Japan), SCF (GB), SNV (Niederlande), SSSP, SADC (Schweiz), UMN (Mission), UNO, UNFPA, UNICEF, US Peace Corps, USAID, Franz. Kulturzentrum, Goethe-Institut, Indische Bibliothek, Keshar Bibliothek, Russische Bibliothek, Nepal Research Centre Religion. Siehe: Gokarna Mahadev Kathmandu ist wie Nepal allgemein, sehr hinduistisch. Einflüsse aus dem Buddhismus kann man jedoch an Tempelanlagen sehen. Auch Christen und Muslime sind in Kathmandu vorhanden, jedoch stark in der Minderheit. Kevin Sorbo. Kevin David Sorbo (* 24. September 1958 in Mound, Minnesota) ist ein US-amerikanischer Schauspieler. Leben. Der Sohn norwegischer Eltern studierte an der "Minnesota State University Moorhead" und reiste als Jugendlicher um die Welt. Als Model und Werbedarsteller begann er seine Schauspielkarriere, deren erster Höhepunkt ein Werbespot für einen Whiskey-Hersteller war: hier prägte er den Satz „Das ist kein Jim Beam“. Große Bekanntheit erlangte Sorbo durch die Fernsehserien "Hercules" und "Andromeda", in denen er die Hauptfiguren spielt: Den griechischen Göttersohn und Volkshelden und den Raumschiffkapitän Dylan Hunt, der nach dreihundert Jahren Gefangenschaft im Ereignishorizont eines schwarzen Loches erwacht und versucht, die Ordnung in der chaotischen Galaxie wiederherzustellen. Mit beiden Serien hatte er etwa eine Dekade einen festen Platz im regelmäßigen Fernsehgeschäft. Nebenher gab es für Sorbo nicht viele weitere, erfolgreiche bzw. bekanntheitsfördernde Rollen, abgesehen von der des „Kull“ im gleichnamigen Fantasyfilm, der direkt auf Video erschien. Am 5. Januar 1998 heiratete er die Schauspielerin Sam Jenkins. Das Paar hat drei Kinder. Er ist Vorsitzender und Pressesprecher von „A World Fit For Kids“, einer Organisation, die versucht, mit Hilfe von Ratgebern Großstadtkindern durch Schule, Fitness und Sport eine positive Lebenseinstellung zu vermitteln. Er wird meistens von Ekkehardt Belle und Torsten Michaelis synchronisiert. Kyle MacLachlan. Kyle Merritt MacLachlan (* 22. Februar 1959 in Yakima, Washington) ist ein US-amerikanischer Schauspieler. Leben und Karriere. Kyle MacLachlan beendete 1977 die Highschool in seiner Heimatstadt Yakima. In Seattle studierte er an der University of Washington und schloss 1982 mit einem Bachelor of Fine Arts ab. MacLachlan arbeitete vor allem intensiv mit Regisseur David Lynch zusammen. So spielte er 1984 als "Paul Atreides" in Lynchs Adaption von Frank Herberts Roman "Dune – Der Wüstenplanet", was gleichzeitig MacLachlans Debüt darstellte, und kurz darauf als "Jeffrey Beaumont" im Film "Blue Velvet" (1986). Seinen endgültigen Durchbruch hatte er 1990 als FBI-Agent "Dale Cooper" in Lynchs preisgekrönter Fernsehserie "Twin Peaks". Für seine darstellerische Leistung erhielt er im selben Jahr den Golden Globe sowie weitere Nominierungen, darunter 1990 und 1991 für einen Emmy. In Folge spielte er in diversen Filmen, Fernsehfilmen und Fernsehserien. Im 2001 erschienenen Computerspiel "Grand Theft Auto III" wirkte er als Synchronsprecher für die Figur "Donald Love". MacLachlan spielte parallel in vielen Fernsehproduktionen, so beispielsweise als "Trey MacDougal" in der Fernsehserie "Sex and the City" (2000–2002) und ab dem Ende der zweiten Staffel (2006) bis zum Ende der sechsten Staffel (2010) auch regulär in "Desperate Housewives" in der Rolle des "Orson Hodge". In späteren Staffeln kehrte er für Gastauftritte in diese Rolle zurück. 2006 hatte er in der kurzlebigen Crime-Serie "In Justice" eine der Hauptrollen inne, die Serie kam auf 13 Folgen. 2010 und 2011 sowie 2013 und 2014 war er in sieben Folgen der Sitcom "How I Met Your Mother" als "The Captain" zu sehen. Seit 2011 wirkt MacLachlan wiederkehrend in der Fernsehserie "Portlandia" mit. Am 20. April 2002 heiratete MacLachlan das Model Desiree Gruber in Miami und lebt mit ihr und dem gemeinsamen Sohn (* 2008) in New York. Kate Winslet. Kate Elizabeth Winslet, CBE (* 5. Oktober 1975 in Reading, Berkshire), ist eine britische Schauspielerin und Sängerin. Sie wurde unter anderem mit den Filmpreisen Oscar, Golden Globe Award und BAFTA Award, dem Fernsehpreis Emmy sowie dem Musikpreis Grammy ausgezeichnet. Weltweite Bekanntheit erlangte sie durch ihre Rolle als "Rose DeWitt Bukater" in James Camerons Filmdrama "Titanic", dem bislang zweiterfolgreichsten Film aller Zeiten. 2009 wurde Winslet für ihre Darstellung der "Hanna Schmitz" in der Literaturverfilmung "Der Vorleser" als beste Hauptdarstellerin mit einem Oscar ausgezeichnet. Mit ihrem Gesangsdebüt "What If", das auf dem Soundtrack des Animationsfilms "Ein Weihnachtsmärchen" erschienen ist, erreichte sie in zahlreichen Ländern die Top Ten der Single-Charts und landete unter anderem in Irland auf Platz 1. 1975 bis 1994. Winslet stammt aus einer Familie mit Schauspieltradition. Ihre Großeltern mütterlicherseits leiteten das Theater in Reading. Schon ihre Eltern, Sally Ann Bridges und Roger John Winslet, waren Schauspieler und ihr Onkel Robert Bridges war ein gefeierter Star unter anderem in dem Musical Oliver! im Londoner West End. Ihre jüngere Schwester Beth und die ältere Schwester Anna Winslet sind ebenfalls Schauspielerinnen. Winslet begann ihre Karriere 1986 im Alter von elf Jahren, als sie Schauspielunterricht an der Redroofs Theatre School in Maidenhead nahm und ihre erste darstellende Rolle ergatterte, in einem Werbespot für Frühstücksflocken. Ihr Fernsehdebüt gab sie in dem sieben Episoden umfassenden britischen Fernsehdrama "Shrinks" (1990). Es folgten Auftritte in der Krankenhausserie "Casualty" (1990), der Science-Fiction-Serie "Dark Season" (1991), der Sitcom "Get Back" (1992) sowie in der dreiteiligen Miniserie "Anglo-Saxon Attitudes" (1992). Daneben spielte sie auch Theater. So war sie in den frühen 90er Jahren als Pandora in dem Musical "The Secret Diary Of Adrian Mole Aged 13 3/ 4", als Miss Hannigan in "Annie" und als Wendy in "Peter Pan" zu sehen. Von 7. April bis 7. Mai 1994 spielte sie in Manchester die Geraldine Barclay in "What The Butler Saw" so überzeugend, dass sie bei den renommierten britischen "Manchester Evening News Theatre Awards" als beste Nebendarstellerin nominiert wurde. 1995 in Bristol verkörperte sie zudem die Sarah in "A Game Of Soldiers". 1994 bis 1998. Ihr Filmdebüt hatte Winslet 1994 in Peter Jacksons Film "Heavenly Creatures", in dem sie eine minderjährige Mörderin spielte. 1995 hatte sie als Marianne Dashwood in Ang Lees Verfilmung von Jane Austens "Sinn und Sinnlichkeit" ihren Durchbruch; sie spielte darin neben einer ganzen Reihe von erfolgreichen britischen Schauspielern wie Emma Thompson, Hugh Grant, Alan Rickman und Greg Wise. Für ihre Darstellung wurde sie zudem als beste Nebendarstellerin erstmals für einen Oscar nominiert; bei der Verleihung am 25. März 1996 unterlag sie Mira Sorvino "(Geliebte Aphrodite)". 1996 spielte sie die rebellische Sue Bridehead in Michael Winterbottoms Drama "Herzen in Aufruhr". Nachdem sie im selben Jahr auch erfolgreich die Ophelia in Kenneth Branaghs Shakespeare-Verfilmung "Hamlet" gespielt hatte, wurde Hollywood auf sie aufmerksam. Da Gwyneth Paltrow und Claire Danes abgelehnt hatten, wurde Winslet von US-Regisseur James Cameron für seine Verfilmung des Untergangs der Titanic für eine der Hauptrollen engagiert. An der Seite von Leonardo DiCaprio spielte sie die Rolle der jungen Rose DeWitt Bukater. Für diese Leistung wurde sie für den Oscar als beste Hauptdarstellerin nominiert. "Titanic" selbst erhielt bei der Verleihung am 23. März 1998 elf Preise, unter anderem für den besten Film und die beste Regie; Winslet dagegen musste Helen Hunt "(Besser geht’s nicht)" den Vorrang lassen. Das Mitwirken an dem bis dahin erfolgreichsten Film verschaffte ihr jedoch den endgültigen Durchbruch und die Chance auf weitere Hauptrollen in großen Hollywood-Produktionen. Winslet verzichtete aber zunächst auf derartige Angebote; sie bevorzugte kleinere Filmprojekte wie den Low-Budget-Film "Marrakesch" von Gillies MacKinnon, der 1999 Platz 10 der deutschen Kino-Charts erreichte. 1998 bis 2005. Nach ihrem Auftritt in Jane Campions "Holy Smoke" (1999) spielte sie weitere anspruchsvolle Rollen in den Independent-Filmen "Quills – Macht der Besessenheit" (2000) und "Enigma – Das Geheimnis" (2001). 2001 lieh sie zudem der Figur Belle in der Animations-Verfilmung "Ein Weihnachtsmärchen" des Weihnachtsklassikers "A Christmas Carol" ihre Stimme und nahm für den Soundtrack den Song "What If" auf, der von Steve Mac geschrieben und produziert wurde. Im November 2001 wurde "What If" als Single veröffentlicht und erreichte in den Charts in Deutschland, Großbritannien, den Niederlanden und der Schweiz die Top 10, in Irland, Belgien und Österreich sogar Platz 1. Die Erlöse aus den CD-Verkäufen spendete Winslet an wohltätige Vereine. Das Video zum Song wurde von Paul Donnellon gedreht und von Chris Horton produziert. Trotz des großen Erfolgs als Sängerin lehnte Winslet eine Karriere im Musikgeschäft ab. Für den Film "Iris" (2001), in dem sie die Schriftstellerin Iris Murdoch in ihren jungen Jahren darstellte, war Winslet erneut als beste Nebendarstellerin für den Oscar nominiert. Auch ihre Filmkollegen Judi Dench und Jim Broadbent erhielten Nominierungen für ihre Leistungen. Bei der Verleihung am 24. März 2002 gewann jedoch nur Broadbent als bester Nebendarsteller einen Oscar, während Dench und Winslet sich Halle Berry "(Monster’s Ball)" bzw. Jennifer Connelly "(A Beautiful Mind – Genie und Wahnsinn)" geschlagen geben mussten. Nach ihrem Auftritt in dem Thriller "Das Leben des David Gale" an der Seite von Kevin Spacey und Laura Linney war sie 2004 gleich in zwei von Publikum und Kritik gleichermaßen gelobten Kinofilmen zu sehen. Zum einen neben Johnny Depp und Dustin Hoffman in dem Drama "Wenn Träume fliegen lernen" und zum anderen neben Jim Carrey und Kirsten Dunst in "Vergiss mein nicht!". "Vergiss mein nicht!" bescherte Winslet ihre nächste Oscar-Nominierung als beste Hauptdarstellerin. Bei der Preisverleihung am 27. Februar 2005 wurde zwar erneut nicht sie, sondern Hilary Swank für "Million Dollar Baby" ausgezeichnet; dennoch hatte Winslet etwas geschafft, was vor ihr noch keiner anderen Schauspielerin gelungen war - vier Oscar-Nominierungen noch vor dem 30. Geburtstag. 2005 bis 2007. Im Jahr 2005 stand Winslet gleich mit mehreren anderen Schauspielgrößen vor der Kamera. In "Romance & Cigarettes" spielte sie mit James Gandolfini, Susan Sarandon und Christopher Walken und zeigte nicht nur erneut ihr gesangliches, sondern erstmals auch ihr komödiantisches und tänzerisches Talent. So sang sie unter anderem Connie Francis’ "Do You Love Me Like You Kiss Me?" sowie – unter Wasser – Ute Lempers "Little Water Song". 2006 drehte sie mit Sean Penn, Jude Law und erneut James Gandolfini den Polit-Thriller "Das Spiel der Macht". Bei einem Budget von 55 Millionen US-Dollar spielte der Film in Amerika lediglich 9 Millionen US-Dollar ein und gilt laut Forbes-Magazin als größter Flop der Jahre 2004 bis 2009. Ein Erfolg wurde hingegen der Animationsfilm "Flutsch und weg", in dem Winslet der Ratte Rita ihre Stimme lieh. In der Komödie "Liebe braucht keine Ferien" von Regisseurin Nancy Meyers verkörperten Winslet und Cameron Diaz Ende 2006 zwei Frauen, die aus Liebeskummer einen Tapetenwechsel brauchen und einfach ihre Häuser und ihre Lebensverhältnisse tauschen. "Liebe braucht keine Ferien" erreichte Anfang 2007 Platz 2 der deutschen Kino-Charts und damit für Winslet die beste Platzierung eines Films mit ihrer Beteiligung seit "Titanic". Ihre fünfte Nominierung für einen Oscar erhielt Winslet Anfang 2007 in der Kategorie Beste Hauptdarstellerin für den Film "Little Children" (2006), in dem sie eine junge Mutter spielt, die zusehen muss, wie ihre Familie zu zerbrechen droht, und sich deshalb in die Arme eines Liebhabers flüchtet. Bei der Oscar-Verleihung am 25. Februar 2007 musste sich Winslet allerdings ihrer britischen Kollegin Helen Mirren geschlagen geben, die mit ihrer Darstellung der britischen Königin Elisabeth II. in "Die Queen" ohnehin als haushohe Favoritin gehandelt worden war. Trotzdem ging Winslet nun endgültig in die Oscar-Geschichte ein: mit fünf Nominierungen im Alter von 32 Jahren brach sie den Rekord als jüngste Schauspielerin von Olivia de Havilland, die 1949 ihre fünfte Oscar-Nominierung mit 33 Jahren erhalten hatte. 2007 bis 2009. Zehn Jahre nach "Titanic" standen Winslet und Leonardo DiCaprio ab April 2007 wieder gemeinsam vor der Kamera. Unter der Regie von Winslets damaligem Ehemann Sam Mendes spielten die beiden in dem Film "Zeiten des Aufruhrs", der auf dem gleichnamigen Roman von Richard Yates aus dem Jahr 1961 basiert, das Ehepaar Wheeler, das sich in den 1950er Jahren nach außen glücklich und harmonisch zeigt, dessen Liebe jedoch zu verwelken droht. Im selben Jahr war Winslet unter der Regie von Stephen Daldry in der Verfilmung des Bestsellers "Der Vorleser" von Bernhard Schlink zu sehen. Winslet wurde für die Rolle der Hanna Schmitz angefragt, jedoch konnte sie wegen Terminkollision nicht annehmen. So wurde Nicole Kidman engagiert, diese musste aber wegen ihrer Schwangerschaft wieder absagen und Winslet wurde ein zweites Mal angefragt. Stephen Daldry führte Regie und David Hare schrieb das Drehbuch. Der Film wurde größtenteils in Deutschland gedreht, mit deutschen Fördergeldern kofinanziert und zudem mit deutschen Schauspielern wie David Kross und Alexandra Maria Lara besetzt. Die Golden-Globe-Verleihung am 11. Januar 2009 wurde zum überraschenden Triumph für Kate Winslet. Sie wurde nicht nur für ihre Rolle als April Wheeler in "Zeiten des Aufruhrs" in der Kategorie Beste Hauptdarstellerin ausgezeichnet, sondern erhielt zudem den Preis als beste Nebendarstellerin für ihre Rolle der Hanna Schmitz in "Der Vorleser". Ihren vorläufigen Karrierehöhepunkt erreichte Winslet bei der Oscar-Verleihung am 22. Februar 2009. Im sechsten Anlauf erhielt sie die Trophäe als beste Hauptdarstellerin für "Der Vorleser". Der Film, der in Deutschland vier Tage nach der Verleihung startete, erreichte auf Anhieb Platz 1 der deutschen Kino-Charts und avancierte für Winslet zum erfolgreichsten Film seit "Titanic". Mit 2,2 Millionen Zuschauern war "Der Vorleser" im Jahr 2009 zudem die vierterfolgreichste deutsche Filmproduktion nach Michael Herbigs "Wickie und die starken Männer", Til Schweigers "Zweiohrküken" und Sönke Wortmanns "Die Päpstin". Am 26. November 2009 erhielt Winslet den Medienpreis Bambi in der Kategorie „Schauspielerin International“. Es ist die zweite wichtige deutsche Auszeichnung für die Oscar-Preisträgerin nach der Goldenen Kamera, die sie 2001 in eben dieser Kategorie überreicht bekam. 2010 bis 2011. Im April 2010 drehte Winslet für den amerikanischen Sender HBO die fünfteilige Miniserie "Mildred Pierce", eine Verfilmung des gleichnamigen Romans von James M. Cain. HBO strahlte die Serie im März und April 2011 aus. Weitere Hauptrollen spielten Evan Rachel Wood ("The Wrestler") und Guy Pearce ("The King’s Speech"). Die Einschaltquoten für den Sender fielen trotz guter Kritiken enttäuschend aus. Dennoch erhielt "Mildred Pierce" 21 Nominierungen und damit die meisten Nennungen für die 63. Emmy-Verleihung, die am 18. September 2011 in Los Angeles stattfanden. Während die Serie selbst ihrer Favoritenrolle nicht gerecht wurde, erhielt Winslet für ihre Leistung in "Mildred Pierce" den Preis als beste Hauptdarstellerin in einer Miniserie. US-Regisseur und Oscar-Preisträger Steven Soderbergh engagierte Winslet für den Action-Thriller "Contagion", für den sie unter anderem mit Matt Damon, Jude Law, Gwyneth Paltrow, Marion Cotillard und Laurence Fishburne vor der Kamera stand. Der Film beschreibt die weltweite Ausbreitung eines tödlichen Virus und begleitet verschiedener Charaktere bei deren Versuchen, die Seuche zu analysieren und aufzuhalten. Bei ihren Bemühungen erliegt Winslet in ihrer Rolle als Dr. Erin Mears selbst dem Virus. Scott Z. Burns, der Drehbuchautor des Films, lobte nach Abschluss der Dreharbeiten vor allem ihr schauspielerisches Talent. Im Frühjahr 2011 begannen für Winslet, Jodie Foster, John C. Reilly und Christoph Waltz unter der Regie von Roman Polański in Paris die Dreharbeiten zu "Der Gott des Gemetzels", einer Verfilmung des gleichnamigen Theaterstückes von Yasmina Reza. Die jeweilige Weltpremiere feierten sowohl "Contagion" als auch "Der Gott des Gemetzels" in Anwesenheit von Kate Winslet bei den Internationalen Filmfestspielen von Venedig, die vom 31. August bis zum 10. September 2011 stattfanden. Zu Ehren des Jurymitglieds Todd Haynes, der das Drehbuch zu "Mildred Pierce" geschrieben hatte, wurde der mit Winslet besetzte Mehrteiler dort ebenfalls präsentiert. Der von Kritikern in hohem Maße positiv bewertete Seuchenthriller "Contagion" startete am 9. September 2011 in den amerikanischen Kinos und spielte dort über das Eröffnungswochenende bereits über 22 Millionen US-Dollar ein. Mit diesem Ergebnis landete der Film an der Spitze der US-Kino-Charts. Für Winslet war es in den USA der erste Nummer-eins-Film seit "Titanic". Auch in Deutschland starteten ihre Filme erfolgreich: "Contagion" eröffnete am 24. Oktober 2011 auf Platz 3, "Der Gott des Gemetzels" am 28. November 2011 auf Platz 2. Am 15. Dezember 2011 wurde Winslet für ihre Rollen in "Mildred Pierce" und "Der Gott des Gemetzels" jeweils für einen Golden Globe als beste Hauptdarstellerin in einer Miniserie oder einem Fernsehfilm beziehungsweise als beste Hauptdarstellerin in einer Komödie oder einem Musical nominiert. Bei der Golden-Globe-Verleihung am 15. Januar 2012 erhielt sie den Preis für "Mildred Pierce". Dank ihrer Leistung in der Miniserie erhielt Winslet 2011 zudem den ersten Satellite Award ihrer Karriere. Seit 1996 bereits sieben Mal u.a. für "Titanic" und "Der Vorleser" nominiert, brachte ihr erst ihre achte Nennung für "Mildred Pierce" in der Kategorie Beste Hauptdarstellerin in einer Miniserie oder einem Fernsehfilm den Preis ein. Seit 2012. Im Jahr 2013 war Winslet unter anderem in Jason Reitmans Film-Adaptation von Joyce Maynards Roman "Labor Day" an der Seite von Josh Brolin zu sehen. Im März 2014 lief der Spielfilm "Die Bestimmung – Divergent" an, der auf dem Roman "Die Bestimmung" von Veronica Roth basiert. Winslet verkörpert darin "Jeanine Matthews". Auch in der 2015 erschienenen Fortsetzung "Die Bestimmung – Insurgent" ist Winslet erneut in der Rolle zu sehen; es ist die erste Fortsetzung in ihrer Karriere. In Danny Boyles Filmbiografie "Steve Jobs" (2015) übernahm Winslet die Rolle der Apple-Marketing-Managerin Joanna Hoffman. Für ihre Leistung wurde sie 2016 für einen Golden Globe als beste Nebendarstellerin nominiert - ihre mittlerweile elfte Nennung seit 1996. Der Film "The Dressmaker", der auf dem gleichnamigen Roman der australischen Schriftstellerin Rosalie Ham beruhte und in dem Winslet die Hauptrolle der Schneiderin Myrtle "Tilly" Dunnage spielte, entwickelte sich vor allem in der Heimat Hams sowie in Neuseeland zu einem riesigen Kinoerfolg. Für die australischen AACTA Awards wurde "The Dressmaker" in 12 Kategorien mit Nominierungen bedacht. Bei der Verleihung am 9. Dezember 2015 erhielt der Film fünf Preise, unter anderem für Winslet als beste Hauptdarstellerin. Privatleben. Bei den Dreharbeiten zu der Serie "Dark Season" lernte Winslet den britischen Schauspieler Stephen Tredre kennen, der dort zwei Gastauftritte hatte. Die beiden verliebten sich, und die damals 15-jährige Winslet und der bereits 28-jährige Tredre mieteten sich zusammen eine Wohnung in London. Trotz ihrer Trennung nach fünf Jahren Beziehung bewahrten sie sich eine tiefe Freundschaft bis zu Tredres frühem Krebstod am 8. Dezember 1997. Um an seiner Beerdigung teilnehmen zu können, verzichtete Winslet sogar auf die "Titanic"-Premiere in London. Bei der Produktion ihres Filmes "Marrakesch" verliebte sich Winslet in den Regieassistenten Jim Threapleton, den sie am 22. November 1998 in ihrer Heimatstadt Reading heiratete. Am 12. Oktober 2000 kam ihre gemeinsame Tochter zur Welt. Doch bereits im September 2001 gab das Paar die Trennung bekannt. Am 24. Mai 2003 heiratete Winslet den Regisseur und Oscar-Preisträger Sam Mendes "(American Beauty)". Am 22. Dezember 2003 brachte sie in New York ihren gemeinsamen Sohn zur Welt. Im April 2007 ging das Paar auch beruflich gemeinsame Wege, als Mendes die Regie bei der Verfilmung des Romans "Zeiten des Aufruhrs" übernahm und seine Frau als Hauptdarstellerin für die Rolle der April Wheeler auswählte. Während Winslets Schauspielleistung hochgelobt wurde und sie dafür erstmals einen Golden Globe für die beste Hauptdarstellerin erhielt, fielen der Film und sein Regisseur bei den Golden Globes und den Oscars trotz guter Kritiken überwiegend durch. Im März 2010 und damit ein Jahr nach ihrem Oscar-Gewinn für "Der Vorleser" teilten Winslet und Mendes mit, dass ihre Ehe nach sieben gemeinsamen Jahren am Ende sei. Die Trennung erfolge in gegenseitigem Einvernehmen. Ab Juli 2010 wurde Winslet häufig mit Louis Dowler, Model des Labels Burberry, gesehen. Beim Filmfestival im spanischen San Sebastian im September 2010 traten die beiden zum ersten Mal offiziell als Paar auf. Ende November 2010 waren sie bereits getrennt. Im Dezember 2012 heiratete Winslet Edward Lyulph Abel Smith (Künstlername: Ned Rocknroll), einen Neffen des britischen Unternehmers und Ballonfahrers Richard Branson. Trauzeuge war Leonardo DiCaprio. Am 9. Dezember 2013 brachte sie ihr drittes Kind, einen Sohn, zur Welt. Synchronstimme. Ulrike Stürzbecher synchronisierte Kate Winslet in den deutschen Fassungen von "Sinn und Sinnlichkeit", "Titanic", "Holy Smoke!", "Quills - Macht der Besessenheit", "Enigma - Das Geheimnis", "Das Leben des David Gale", "Vergiss mein nicht!", "Die Bestimmung – Divergent", "Die Bestimmung – Insurgent", "Das Spiel der Macht", "Liebe braucht keine Ferien", "Little Children", "Zeiten des Aufruhrs", "Der Vorleser", "Contagion", "Der Gott des Gemetzels", "Romance & Cigarettes", "Labor Day", "Die Gärtnerin von Versailles", "Movie 43" und "Steve Jobs". Auch in dem Animationsfilm "Ein Weihnachtsmärchen" sowie den Serien "Extras" und "Mildred Pierce" lieh Stürzbecher Winslet ihre Stimme. Weitere Synchronsprecherinnen waren des Weiteren Beate Isfort-Tober "(Knightskater - Ritter auf Rollerblades)", Alexandra Wilcke "(Heavenly Creatures)", Madeleine Stolze "(Hamlet)" und Katrin Fröhlich "(Herzen in Aufruhr, Marrakesch, Iris, Wenn Träume fliegen lernen)". Die Schauspielerinnen Jessica Schwarz und Dorkas Kiefer synchronisierten Winslet im Animationsfilm "Flutsch und weg!" (Schwarz) und im TV-Film "Pride - Das Gesetz der Savanne" (Kiefer). Empire Award. Bemerkung: Preise in der Kategorie „Beste britische Schauspielerin“ wurden nur von 1996 bis 2005 vergeben. Karl Marx. Karl Marx (* 5. Mai 1818 in Trier; † 14. März 1883 in London) war ein deutscher Philosoph, Ökonom, Gesellschaftstheoretiker, politischer Journalist, Protagonist der Arbeiterbewegung sowie Kritiker der bürgerlichen Gesellschaft und der Religion. Zusammen mit Friedrich Engels wurde er zum einflussreichsten Theoretiker des Sozialismus und Kommunismus. Bis heute werden seine Theorien kontrovers diskutiert. Jugend und politische Anfänge (1818–1843). Karl Marx wurde 1818 als drittes Kind des Anwaltes Heinrich (Heschel) Marx (1777–1838) und von Henriette Marx in Trier (Provinz Großherzogtum Niederrhein) geboren. Karl Marx war mütterlicherseits Cousin dritten Grades des deutschen Dichters Heinrich Heine, der auch aus einer jüdischen Familie stammte und mit dem Marx auch später einen Briefwechsel führte. Ein Cousin ersten Grades von Karl Marx war Frederik Philips (1830-1900), der 1891 mit seinem Sohn Gerard den niederländischen Elektrikkonzern Philips gründete. Heinrich Marx stammte väterlicher- und mütterlicherseits aus einer bedeutenden Rabbinerfamilie. Er war von 1811 bis 1813 Gerichtsdolmetscher und vereidigter Übersetzer im damals französischen Osnabrück, im "Département Hanséatique Oberems". 1812 schloss er sich dort der französischen Freimaurerloge „L’Etoile Hanséatique“ (Der Hanseatische Stern) an. Zwischen 1816 und 1822 konvertierte der Vater zum Protestantismus, da er als Jude unter der preußischen Obrigkeit sein unter napoleonischer Regierung angetretenes Amt als „Avoué“ / „Advokat-Anwalt“ nicht hätte weiterführen dürfen. Am 26. August 1824 wurden die Kinder Sophia, Hermann, Henriette, Louise, Emilie, Caroline und auch Karl in der elterlichen Wohnung getauft. Die Mutter von Karl ließ sich erst am 20. November 1825 taufen, da sie fürchtete, ihre Familie, allen voran ihr Vater, würde dies missbilligen. Von 1830 bis 1835 besuchte Karl Marx das Gymnasium zu Trier, wo er zusammen mit seinem Freund und späteren Schwager Edgar von Westphalen mit 17 Jahren das Abitur mit einem Durchschnitt von 2,4 ablegte. Besondere Zuneigung fühlte Marx zu seinem Direktor Johann Hugo Wyttenbach. Einer seiner Lehrer war Johannes Steininger, ein Naturwissenschaftler und Geologe von internationalem Ruf. Steininger war ein Anhänger von Alexander von Humboldt. 1836 verlobte sich Marx in Trier mit Edgars Schwester Jenny von Westphalen (1814–1881). 1835 ging er zum Studium der Rechtswissenschaften und der Kameralistik nach Bonn. Ob er der „Landsmannschaft der Treveraner“ (Trierer) beitrat, ist letztlich nicht beweisbar. Bekannt ist aber, dass er wegen „nächtlichen Lärmens und Trunkenheit“ verurteilt wurde und gegen ihn wegen „Tragens eines Säbels“ ermittelt wurde. In Bonn besuchte er juristische Vorlesungen bei Ferdinand Walter, Eduard Puggé und Vorlesungen bei Friedrich Gottlieb Welcker und August Wilhelm Schlegel. Nach Mitteilungen von Moriz Carrière schloss Marx sich einem poetischen "Kränzchen" an, dem Carrière, Marx, Emanuel Geibel, Karl Grün, Karl Ludwig Bernays, Theodor Creizenach, Heinrich Bernhard Oppenheim angehört haben sollen. Ein Jahr später wechselte er an die Friedrich-Wilhelms-Universität (heute: Humboldt-Universität) nach Berlin und besuchte juristische Vorlesungen bei Eduard Gans (Kriminalrecht und Preußisches Landrecht), Friedrich Carl von Savigny (Pandekten), Henrich Steffens (Anthropologie), August Wilhelm Heffter (Kirchenrecht, gemeiner deutscher Zivilprozess), Georg Andreas Gabler (Logik), Carl Ritter (allgemeine Geographie), Adolf August Friedrich Rudorff (Erbrecht), Bruno Bauer (Jesaja) und Carl Eduard Geppert (Euripides), ließ aber das Jura-Studium gegenüber Philosophie und Geschichte in den Hintergrund treten. Hier stieß Marx zum Kreis der Jung- oder Linkshegelianer („Doctorclub“), deren bedeutendste Vertreter die Brüder Bruno Bauer und Edgar Bauer waren. Freundschaft knüpfte er mit Karl Friedrich Köppen und mit Adolf Friedrich Rutenberg. Hegel, der 1831 starb, hatte zu seiner Zeit einen starken Einfluss auf das geistige Leben in Deutschland. Das hegelianische Establishment (auch bekannt als „Alt- oder Rechtshegelianer“) sah den preußischen Staat als Abschluss einer Serie von dialektischen Entwicklungen: eine effiziente Bürokratie, gute Universitäten, Industrialisierung und ein hoher Beschäftigungsgrad. Die Linkshegelianer, zu denen Marx gehörte, erwarteten weitere dialektische Änderungen, eine Weiterentwicklung der preußischen Gesellschaft, die sich mit Problemen wie Armut, staatlicher Zensur und der Diskriminierung der Menschen, die sich nicht zum lutherischen Glauben bekannten, zu befassen hatte. Nach dem Tod seines Vaters Heinrich Marx am 10. Mai 1838 bekam Marx, weil er erst mit 25 Jahren volljährig wurde, als gesetzlichen Vormund Johann Heinrich Schlink. Am 15. April 1841 wurde Marx in absentia an der Universität Jena mit einer Arbeit zur "Differenz der demokritischen und epikureischen Naturphilosophie" zum Doktor der Philosophie promoviert. Auf eine Professur rechnend, zog Marx hierauf nach Bonn; doch verwehrte die Politik der preußischen Regierung ihm – wie Ludwig Feuerbach, Bruno Bauer und anderen – die akademische Laufbahn, galt Marx doch als ein führender Kopf der oppositionellen Linkshegelianer. Unter seinem Namen veröffentlichte er im Januar 1841 in der junghegelianischen Zeitschrift "Athenäum" zwei Gedichte unter dem Titel "Wilde Lieder". Um diese Zeit gründeten liberale Bürger in Köln die "Rheinische Zeitung für Politik, Handel und Gewerbe" als gemeinsames Organ der verschiedenen oppositionellen Strömungen von monarchistischen Liberalen bis zu radikalen Demokraten. Marx wurde ein Hauptmitarbeiter des Blattes, das am 1. Januar 1842 erstmals erschien. Am 15. Oktober 1842 übernahm Marx die Redaktion der Zeitung, welche von da an einen noch radikaleren oppositionellen Standpunkt vertrat. Marx, Arnold Ruge und Georg Herwegh gerieten zu dieser Zeit in einen politischen Dissens zu dem Kreis um ihren Berliner Korrespondenten Bruno Bauer, dem Marx vorwarf, das Blatt „vorwiegend [als] ein Vehikel für theologische Propaganda und Atheismus etc. statt für politische Diskussion und Aktion“ zu benutzen. Als Friedrich Engels, der als ein Freund und Parteigänger der Berliner Linkshegelianer galt, am 16. November 1842 die Kölner Redaktion besuchte und erstmals mit Marx zusammentraf, verlief die Begegnung daher relativ kühl. Aufgrund der Karlsbader Beschlüsse unterlag das gesamte Pressewesen der Zensur, die hinsichtlich der "Rheinischen Zeitung" besonders streng war. Die preußische Obrigkeit schickte zunächst einen Spezialzensor aus Berlin. Als dies nicht half, musste jede Ausgabe in zweiter Instanz dem Kölner Regierungspräsidenten vorgelegt werden. Weil Marx’ Redaktion auch diese doppelte Zensur regelmäßig unterlief, wurde schließlich das Erscheinen der Zeitung zum 1. April 1843 untersagt. Marx trat am 17. März als Mitarbeiter und Redakteur zurück, weil die Eigentümer hofften, durch Änderung der Linie des Blattes bei der Zensurbehörde eine Aufhebung des Verbotes erreichen zu können. Übergang zum Kommunismus (1843–1849). 1843 heiratete Marx seine vier Jahre ältere Verlobte Jenny von Westphalen in Kreuznach. Aus der Ehe gingen sieben Kinder hervor, von denen nur die drei Töchter Jenny, Laura und Eleanor überlebten. Karl Marx’ Frau Jenny (1864) Am 11. oder 12. Oktober 1843 trafen Marx und seine Frau in Paris ein und er begann dort, zusammen mit Arnold Ruge, die "Deutsch-Französischen Jahrbücher" herauszugeben. Von Mitte Oktober bis Januar 1844 wohnte er im Haus „31, Rue Vaneau“ und bei seiner Ausweisung Februar 1845 in dem Haus „38, Rue Vaneau“. 1843 lernte er auch German Mäurer in Paris kennen. Während der Arbeit begann auch der briefliche Kontakt mit Friedrich Engels, der zwei Artikel beigetragen hatte. Von der Zeitschrift erschien allerdings nur ein Doppelheft und dieses auch nur in deutscher Sprache, weil Louis Blanc und Proudhon keine Artikel lieferten. Die Fortsetzung scheiterte aus verschiedenen Gründen: Julius Fröbel wollte die Zeitschrift nicht mehr finanzieren, ein großer Teil der Auflage wurde an der Grenze konfisziert, und zwischen den beiden Redakteuren traten bald prinzipielle Differenzen zutage. Ruge blieb der hegelschen Philosophie und der bürgerlichen Demokratie verpflichtet; Marx begann, sich mit politischer Ökonomie zu beschäftigen und durch Kritik an den französischen Sozialisten einen eigenständigen Standpunkt zu entwickeln. Ende 1843 lernte Marx in Paris seinen entfernten Verwandten den deutschen Dichter Heinrich Heine kennen. Zeitlebens blieben sie freundschaftlich verbunden. Die "Ökonomisch-philosophischen Manuskripte aus dem Jahre 1844" sind Marx’ erster Entwurf eines ökonomischen Systems, der zugleich die philosophische Inspiration deutlich macht. Marx entwickelt dort erstmals ausführlich seine an Hegel angelehnte Theorie der „entfremdeten Arbeit“. Allerdings beendete Marx diese sogenannten „Pariser Manuskripte“ nicht, sondern verfasste kurz darauf auf dem Höhepunkt der zeitgenössischen Diskussion um den Junghegelianismus zusammen mit Friedrich Engels das Werk "Die heilige Familie". Über die gemeinsame Arbeit an den "Deutsch-Französischen Jahrbüchern" hatte sich mit Engels – der ihn im September 1844 auch einige Tage besuchte – ein reger Briefwechsel entwickelt, der schließlich zu einer lebenslangen Freundschaft sowie einer engen politischen und publizistischen Zusammenarbeit führte. Deren erstes Ergebnis war die im März 1845 veröffentlichte Schrift "Die heilige Familie", die sich als Streitschrift „gegen B.[runo] Bauer und Konsorten“ verstand, zu der Engels allerdings nur zehn Seiten beigetragen hat. Marx polemisiert hier gegen die Berliner Junghegelianer um seinen ehemaligen Mentor Bruno Bauer; einen wichtigen Angehörigen dieser Gruppe erwähnt er zunächst aber nicht: Max Stirner, dessen Buch "Der Einzige und sein Eigentum" im Oktober 1844 erschienen war und von Engels in einem Brief an Marx (19. November) zunächst vorwiegend positiv eingeschätzt wurde. Marx sah Stirners Buch kritischer als Engels und überzeugte diesen in einer Antwort auf den genannten Brief von seiner Auffassung. Gleichwohl schien er sich Stirners Kritik an Feuerbach partiell zu eigen zu machen und verfasste im Frühjahr 1845 seine berühmten, aber erst postum veröffentlichten Thesen über Feuerbach. Erst im Herbst 1845, nachdem Marx die Verteidigung Feuerbachs gegen die Kritik Stirners an ihm sowie Stirners Replik darauf gesehen hatte, entschloss er sich, selbst eine Kritik Stirners zu verfassen: das Kapitel „Sankt Max“ in der 1845–1846 gemeinsam verfassten Streitschrift "Die deutsche Ideologie", das aber erst nach Marx’ Tod veröffentlicht wurde. Im ersten, der Kritik des junghegelianischen Religionskritikers Ludwig Feuerbach gewidmeten Kapitel der "Deutschen Ideologie" entwickeln Marx und Engels ein Modell des „praktischen Entwicklungsprozesses“ der menschlichen Geschichte, die sie im Gegensatz zu den Hegelianern nicht als Entwicklungsgang des Geistes, sondern als Geschichte menschlicher Praxis und der sozialen Beziehungen verstehen: „es wird von den wirklich tätigen Menschen ausgegangen und aus ihrem wirklichen Lebensprozeß auch die Entwicklung der ideologischen Reflexe und Echos dieses Lebensprozesses dargestellt“ (MEW 3:26). Besondere Aufmerksamkeit erfährt dabei der Moment der Teilung der Arbeit als des bestimmenden Faktors der geschichtlichen Entwicklung. Dem ebenfalls materialistisch argumentierenden Feuerbach werfen sie dabei vor, den Menschen als etwas Wesenhaftes, nicht aber als Subjekt sinnlich-praktischer "Tätigkeit" verstanden zu haben. Die weiteren Kapitel der "Deutschen Ideologie" beinhalten eine scharfe Kritik der übrigen Junghegelianer als Vertreter einer – so Marx und Engels – wesentlich idealistischen Gesellschaftskritik. Auch den Vertretern des sogenannten „wahren Sozialismus“ (vor allem Karl Grün) ist ein Kapitel gewidmet. Zu Lebzeiten Marx’ wurde allerdings – nach einigen fehlgeschlagenen Veröffentlichungsversuchen – nur das Kapitel über Karl Grün abgedruckt (1847 in der Zeitschrift "Das Westphälische Dampfboot"), das vollständige Werk erschien erst 1932 im Rahmen der Marx-Engels-Gesamtausgabe (MEGA). Marx’ und Engels’ in Abgrenzung gegen die zeitgenössischen sozialistischen und junghegelianischen Strömungen entworfene Grundlegung eines „historischen Materialismus“ stellt durch die Betonung der sozialen und materiellen Triebkräfte der Geschichte einen unmittelbaren Vorläufer der Soziologie dar. Marx hatte sich außerdem an der Redaktion des in Paris erscheinenden deutschen Wochenblattes "Vorwärts!" beteiligt, das den Absolutismus der deutschen Länder – besonders Preußens – angriff, unter Marx’ Einfluss bald mit deutlich sozialistischer Ausrichtung. Die preußische Regierung setzte deswegen seine Ausweisung aus Frankreich durch, so dass Marx Anfang 1845 nach Brüssel übersiedeln musste, wohin Engels ihm folgte. Bei einer gemeinsamen Studienreise nach England im Sommer 1845 knüpften sie Verbindungen zum revolutionären Flügel der Chartisten. Marx gab Anfang Dezember 1845 die preußische Staatsbürgerschaft auf und wurde staatenlos, nachdem er erfahren hatte, dass die preußische Regierung vom belgischen Staat seine Ausweisung erwirken wolle. Spätere Gesuche, seine Staatsbürgerschaft wiederherzustellen (1848 und 1861), blieben erfolglos. In Brüssel veröffentlichte Marx 1847 die Schrift "Misère de la philosophie. Réponse à la philosophie de la misère de M. Proudhon", eine Kritik der ökonomischen Theorie Pierre-Joseph Proudhons und darüber hinausgehend der kapitalistischen Gesellschaft selbst. Außerdem schrieb er gelegentlich Artikel für die "Deutsche-Brüsseler-Zeitung". Anfang 1846 gründeten Marx und Engels in Brüssel das "Kommunistische Korrespondenz-Komitee", dessen Ziel die inhaltliche Einigung und der organisatorische Zusammenschluss der revolutionären Kommunisten und Arbeiter Deutschlands und anderer Länder war; so wollten sie den Boden für die Bildung einer proletarischen Partei bereiten. Schließlich traten Marx und Engels in Verbindung mit Wilhelm Weitlings sozialistischem Bund der Gerechten, in dem sie 1847 Mitglieder wurden. Noch im selben Jahr setzte Marx die Umgründung zum Bund der Kommunisten durch und erhielt den Auftrag, dessen Manifest zu verfassen. Es wurde im Revolutionsjahr 1848 veröffentlicht und ging als "Kommunistisches Manifest" (eigentlich: "Manifest der Kommunistischen Partei") in die Geschichte ein. Am 15. September 1850 stellte Marx den Antrag, die Zentralbehörde nach Köln zu verlegen und in London zwei Kreise des Bundes zu bilden. Der Beschluss wurde gegen die einzige Gegenstimme von Karl Schapper angenommen. Am 17. September 1850 traten Marx, Engels, Liebknecht und andere aus dem Londoner Arbeiterbildungsverein aus. Kurz darauf löste die französische Februarrevolution 1848 in ganz Europa politische Erschütterungen aus; als diese Brüssel erreichten, wurde Marx verhaftet und aus Belgien ausgewiesen. Da ihn inzwischen die neu eingesetzte provisorische Regierung der Französischen Republik wieder nach Paris eingeladen hatte, kehrte er dorthin zurück; nach Ausbruch der deutschen Märzrevolution ging Marx nach Köln. Dort war er einer der Führer der revolutionären Bewegung in der preußischen Rheinprovinz und gab die "Neue Rheinische Zeitung. Organ der Demokratie" heraus, in der unter anderen erstmals die unvollendet gebliebene Schrift "Lohnarbeit und Kapital" abgedruckt wurde. Die Zeitung konnte am 19. Mai 1849 zum letzten Mal erscheinen, bevor die preußische Reaktion ihr Erscheinen unterband. Londoner Exil (1849–1864). Friedrich Engels und Karl Marx (stehend); vorn die Töchter Laura, Eleanor und Jenny (vor Juni 1864) Marx kehrte zunächst nach Paris zurück, wurde aber schon einen Monat später vor die Wahl gestellt, sich entweder in der Bretagne internieren zu lassen oder Frankreich zu verlassen. Marx ging daraufhin mit seiner Familie ins Exil nach London, wo er vor allem anfangs in dürftigen Verhältnissen von journalistischer Tätigkeit sowie finanzieller Unterstützung vor allem von Engels überlebte, der Marx nach England folgte. Politisch widmete er sich der internationalen Agitation für den Kommunismus, theoretisch entwickelte er wesentliche Elemente seiner Analyse und Kritik des Kapitalismus. In London erschien zunächst Marx’ Werk „Klassenkämpfe in Frankreich 1848 bis 1850“ (als Artikelreihe 1850 in der Neuen Rheinische Zeitung. Politisch-ökonomische Revue); daran anknüpfend „Der achtzehnte Brumaire des Louis Bonaparte“ (1852) zur Machtergreifung Napoleons III. Die Mitarbeit an der "Tribune" endete, als Charles Anderson Dana die Mitarbeit von Marx wegen inneramerikanischer Angelegenheiten am 28. März 1862 kündigte. 1859 schrieb Marx zahlreiche Artikel für die Arbeiterzeitung „Das Volk“. Marx wurde Korrespondent der Wiener "Presse" und stürzte sich in das Studium der politischen Ökonomie. 1861 versuchte er, auch mit gerichtlichen Mitteln und unterstützt von Ferdinand Lassalle, seine preußische Staatsbürgerschaft wiederzuerlangen, doch die preußische Regierung verweigerte dies. Während des Januaraufstands 1863 nahm Marx Kontakt zu polnischen Aufständischen auf und veranlasste den Deutschen Arbeiterbildungsverein in London, sich an der Unterstützung der Polen zu beteiligen. Arbeit am "Kapital" und die Internationale. In der Folge entstanden Marx’ ökonomische Hauptwerke. Als erste systematische Darstellung der marxschen ökonomischen Grundgedanken erschien 1859 "Zur Kritik der politischen Ökonomie", das ursprünglich als erstes Heft zur Fortsetzung bestimmt war. Doch Marx war mit der Detailausführung des Gesamtplans noch nicht zufrieden, und so begann er seine Arbeit von neuem. Erst 1867 erschien der erste der drei Bände seines Hauptwerks "Das Kapital". Im selben Jahr hielt sich Marx von April bis Mai als Gast des Arztes Louis Kugelmann in Hannover auf; hier entstanden zwei Porträt-Fotografien durch Friedrich Karl Wunder. 1864 beteiligte er sich federführend an der Gründung der Internationalen Arbeiter-Assoziation (kurz „Erste Internationale“) und leitete sie bis zur faktischen Auflösung 1872 (durch Verlegung der Zentrale in die USA, formeller Auflösungsbeschluss 1876). Marx entwarf die Statuten und das grundlegende Programm, die „Inauguraladresse der Internationalen Arbeiter-Assoziation“, das so disparate Sektionen wie deutsche Kommunisten, englische Gewerkschafter, Schweizer Anarchisten und französische Proudhonisten zusammenführte. Aus zwei 1865 gehaltenen Vorträgen bei Sitzungen des Generalrats entstand die von seiner Tochter Eleanor 1898 veröffentlichte Schrift "Lohn, Preis und Profit". In den deutschen Staaten trieb Marx zunächst die Schaffung einer revolutionären sozialistischen Partei voran; dies geschah in Abgrenzung zum sozialreformerisch ausgerichteten Allgemeinen Deutschen Arbeiterverein des früheren Marx-„Schülers“ Ferdinand Lassalle, mit dem er sich in den politischen Zielen entzweit hatte. Wilhelm Liebknecht stand seit seiner Übersiedlung nach Berlin 1862 in Kontakt mit Marx und Engels. Beide unterstützten ihn durch Beiträge in den Zeitungen Demokratisches Wochenblatt und Der Volksstaat. Wilhelm Liebknecht war 1869 Mitbegründer der Sozialdemokratischen Arbeiterpartei, die sich 1875 mit den Lassalleanern zur Sozialistischen Arbeiterpartei Deutschlands vereinigte, der späteren Sozialdemokratischen Partei Deutschlands (SPD). Auch nach der Auflösung der Ersten Internationale blieb Marx in ständiger Verbindung mit fast allen wichtigen Personen der europäischen und amerikanischen Arbeiterbewegung, die sich oft mit ihm persönlich berieten. London (1872–1883). Marx’ Haushälterin Helena („Lenchen“) Demuth An der Vollendung seiner stetig vorangetriebenen ökonomischen Arbeiten hinderte Marx seine zunehmende Kränklichkeit. In den Jahren von 1862 bis 1874 litt er an einer Hautkrankheit, die ihn stark behinderte. Um sicher nach dem Kontinent zu reisen, stellte Marx am 1. August 1874 einen Antrag auf die britische Staatsbürgerschaft, der aber am 17. August abgelehnt wurde mit der Begründung, er sei ein “notorius agitator, the head of the International Society, and an advocate of Communistic principles. This man has not been loyal to his own King and Country”. 1874, 1875 und 1876 war Marx zu Kuraufenthalten in Karlsbad und 1877 in Neuenahr. Am Grab standen Eleanor Marx, Carl Schorlemmer, Ray Lankester, Wilhelm Liebknecht, Charles Longuet, Paul Lafargue, Friedrich Leßner, Georg Lochner, Edward Aveling, Helena Demuth und Gottfried Lembke. Marx selbst hatte sich „die Theilnahme an dem Begräbniß auf die Familie und die intimsten Freunde“ gewünscht, was von seinen Töchtern Laura und Eleanor sowie Friedrich Engels befolgt wurde. 1954 wurde Laurence Bradshaw von der Kommunistischen Partei Großbritanniens beauftragt, eine Büste für Marx’ Grab zu schaffen. Am 23. November 1954 wurde das Grab umgebettet und am 14. März 1956 enthüllte Harry Pollitt das neue Grabmal, es zeigt die Porträtbüste von Laurence Bradshaw und die Worte „WORKERS OF ALL LANDS UNITE“ (Proletarier aller Länder, vereinigt Euch) aus dem Kommunistischen Manifest und der 11. These über Feuerbach: „THE PHILOSOPHERS HAVE ONLY INTERPRETED THE WORLD IN VARIOUS WAYS – THE POINT HOWEVER IS TO CHANGE IT” (Die Philosophen haben die Welt nur verschieden interpretiert; es kommt drauf an, sie zu verändern). Nachkommen. Marx war auch der Vater des in eine Pflegefamilie gegebenen unehelichen Sohns Frederick Lewis Demuth seiner aus Deutschland stammenden Haushälterin Helena Demuth. Vier von Marx’ Kindern starben noch im Kindesalter; Jenny starb als Erwachsene 1883, gerade zwei Monate vor ihrem Vater. Die beiden ihn überlebenden Töchter beendeten ihr Leben durch Freitod. Die drei Töchter Jenny, Laura und Eleanor waren wie ihre Eltern in der sozialistischen Bewegung tätig. Laura heiratete 1868 Paul Lafargue, Jenny 1872 Charles Longuet, Eleanor lebte ab 1884 zusammen mit Edward Aveling; alle drei Schwiegersöhne Marx’ betätigten sich als sozialistische Agitatoren, die ersten beiden in Frankreich, der dritte in Großbritannien. Überblick über die marxsche Theorie. Karl Marx gilt als einflussreichster Theoretiker des Kommunismus, dessen Schriften die Arbeiterbewegungen des 19. und 20. Jahrhunderts weltweit, von den sozialistisch-kommunistischen Bewegungen Russlands und Deutschlands (SPD, KPD) bis zu denen Lateinamerikas und Ostasiens, entscheidend, wenngleich auf sehr unterschiedliche Weise geprägt haben. In der modernen Volkswirtschaftslehre wird er den Nationalökonomen zugeordnet. Auch die Philosophie und andere Geisteswissenschaften sowie die Sozialwissenschaften beeinflusste Marx, wobei die Anhänger seiner Theorie in verschiedenen Disziplinen oft unter dem Begriff des Marxismus zusammengefasst werden. Wie viele Philosophen des 19. Jahrhunderts war Marx von der Philosophie Hegels geprägt. Hegel, der als einer der bedeutendsten Philosophen der Neuzeit angesehen wird, vertrat eine idealistische, teleologische Geschichtsphilosophie. Die Schüler Hegels spalteten sich in Linkshegelianer und Rechtshegelianer, wobei letztere den Geschichtsprozess mit der bürgerlichen Gesellschaft als zur Vollendung gekommen und abgeschlossen betrachteten, während die Linkshegelianer die letzte Erfüllung des Geschichtsziels als noch ausstehend einstuften. Marx’ philosophische Position ging insbesondere aus den heftig geführten Auseinandersetzungen innerhalb des Linkshegelianismus hervor, an denen unter anderem Ludwig Feuerbach, Bruno Bauer und Max Stirner, aber auch Michail Bakunin teilnahmen. Eine besondere Rolle spielen dabei revolutionäre Umwälzungen: „Die Revolutionen sind die Locomotiven der Geschichte.“ (Marx-Engels-Gesamtausgabe. Abteilung I. Band 10, S. 187; MEW Band 7, S. 85.) Indem er auf diese Weise die Geschichte auf ihre materiellen Bedingungen zurückführt, setzt Marx an die Stelle des hegelschen Idealismus einen „historischen Materialismus“. Eine bekannte Theorie in diesem Kontext ist das Basis-Überbau-Schema, nach dem die gesellschaftlichen Institutionen (Staat, Justiz, Kultur, Wertvorstellungen) ein „Überbau“ einer tieferliegenden „Basis“ von ökonomischen Produktionsverhältnissen (und zugleich Klassen- und Herrschaftsverhältnissen) und Produktivkräften seien und bei aller Selbständigkeit an deren Eigentümlichkeit gebunden wären. So braucht die kapitalistische Produktionsweise beispielsweise einen bestimmten Rechtsrahmen, damit freie Warenbesitzer am Markt ihre Produkte tauschen können, unabhängig von anderen gesetzlichen Regelungen. Dieser muss wiederum von einer über den Warenbesitzern stehenden Gewalt in Form eines Staates gesichert werden, und so weiter. Insbesondere die Entwicklung jener ökonomischen Basis wäre neben den Klassenkämpfen die in der bisherigen Menschheitsgeschichte treibendste Entwicklungskraft für die gesamten gesellschaftlichen Verhältnisse. Das Basis-Überbau-Schema wurde oft als starres Modell zur Reduktion aller politischen und ideologischen Phänomene auf ökonomische Kategorien missverstanden. Marx’ berühmte Formulierung, dass das gesellschaftliche Sein das Bewusstsein bestimme (vgl. MEW 13:9), leistet diesem Missverständnis noch Vorschub. Tatsächlich aber betont Marx explizit die Dialektik der "Wechselwirkung" zwischen Sein und Bewusstsein. Auch das Bewusstsein kann das Sein verändern – gerade die Möglichkeit von Revolutionen beruht ja auf dieser Freiheit des Menschen, die Verhältnisse bewusst umzugestalten, anstatt sich von ihnen beherrschen zu lassen. Obwohl sie nicht frei von entsprechenden Tendenzen ist, versteht Marx’ Geschichtsphilosophie sich doch nicht als mechanistischer Determinismus, sondern als Versuch der Verwirklichung der menschlichen Freiheit. Aber diese Freiheit ist eben stets an ihre materielle und soziale Umgebung gebunden. Kritik der politischen Ökonomie. Um die Bedingungen für eine kommunistische Bewegung zu erfassen, aber auch, um die bestehenden Verhältnisse adäquat kritisieren und damit bekämpfen zu können, bemühte sich Marx zeit seines Lebens um eine grundlegende ökonomische Analyse der kapitalistischen Gesellschaft. In seinem insgesamt 2200 Seiten umfassenden dreibändigen Hauptwerk "Das Kapital" (Bd. 1: 1867, Bd. 2 und 3 postum) unternimmt Marx eine fundamentale „Kritik der politischen Ökonomie“. Dies beinhaltet einerseits die Analyse der Warenform, des Werts, des Kapitals und der kapitalistischen Produktions- und Distributionsverhältnisse, in welche die Produktion des gesellschaftlichen Reichtums in der bürgerlich-kapitalistischen Gesellschaft eingebettet ist. Andererseits beinhaltet die Kritik der bürgerlichen Ökonomie auch die Kritik an den klassischen bürgerlichen "Theoretikern" der Ökonomie wie Adam Smith oder David Ricardo, die Marx mit zum Teil scharfer Polemik angreift. Eine der zentralen Thesen der marxschen Theorie des Kapitalismus ist der unversöhnliche Klassengegensatz zwischen Proletariat und Bourgeoisie, auf dem der innerhalb der bestehenden Verhältnisse unüberwindbare Antagonismus der kapitalistischen Gesellschaft beruhe. Diese Aufteilung der Gesellschaft in Kapitalisten und Arbeiter ist einerseits nach Marx Voraussetzung der kapitalistischen Produktionsweise – es muss eine „freie“ Arbeiterschaft geben, die gezwungen ist, ihre Arbeitskraft an die Produktionsmittelbesitzer zu verkaufen. Andererseits ist die Klassenspaltung zwingendes Resultat der auf allgemeiner Warenproduktion und dem Verkauf der Arbeitskraft als Ware beruhenden Produktionsweise. Im scharfen Gegensatz z. B. zu Proudhon betont Marx deshalb, dass eine revolutionäre Überwindung von Ausbeutung und Klassenherrschaft nur möglich ist, wenn auch die ökonomischen Basiskategorien des Kapitalismus überwunden werden, welche – unabhängig vom Willen der Akteure (Kapitalisten, Arbeiter) „hinter ihrem Rücken“ – zu Ausbeutung und Klassenherrschaft führen. Titelblatt der Originalausgabe des ersten Bands des "Kapitals" (1867) Marx und Engels prägten maßgeblich den Begriff der „kapitalistischen Produktionsweise“ bzw. des Kapitalismus, der am systematischsten in Marx’ Hauptwerk "Das Kapital" dargestellt wurde. Unter Kapitalismus verstehen sie eine Wirtschaftsordnung, die sich durch Privateigentum an Produktionsmitteln, durch Produktion für einen den Preis bestimmenden Markt, beständiger Profitmaximierung und den Widerspruch zwischen Lohnarbeit und Kapital auszeichnet. Nach Marx verändert sich im Übergang vom Feudalismus zum Kapitalismus zwar die gesellschaftliche Produktionsweise bedeutend, jedoch behält sie ihren Klassencharakter bei. Marx beschreibt die kapitalistische Gesellschaft als Gesellschaft des Elends, der Ausbeutung und der Entfremdung. Aufbauend auf den Theorien der Vertreter der Klassischen Nationalökonomie, allen voran Adam Smith und David Ricardo, interpretiert Marx die Arbeitswerttheorie neu und formuliert sie um zu seiner Arbeitswertlehre, mit deren Hilfe er die Ausbeutung des Proletariats durch das Kapital zu beschreiben versucht. Kapitalismus als Klassengesellschaft. Gedenktafel zum Druck der Erstausgabe "Das Kapital" in Leipzig Formell sind in der bürgerlichen Gesellschaft alle Mitglieder frei und rechtsgleich. De facto aber können für Marx die Proletarier nur wählen, an wen sie ihre Arbeitskraft verkaufen, d. h. von welchen Ketten sie sich fesseln lassen. Solange das bürgerliche Recht auf Eigentum an Produktionsmitteln herrsche, bedeute juristische Gleichheit zwangsläufig soziale Ungleichheit, die durch die Anerkennung der bürgerlichen Ordnung und des bürgerlichen Staates reproduziert und aufrechterhalten werde. Gesellschaftlicher Widerspruch und Krise. Die Anhäufung (Akkumulation) des gesellschaftlichen Reichtums erfolge im Kapitalismus also stets nur über die Ausbeutung fremder Arbeitskraft als Lohnarbeit. Der Kapitalist zahle dem Arbeiter nur einen Teil des von ihm im Produktionsprozess geschaffenen tatsächlichen Wertes als Lohn aus – das reale Mehrprodukt der gesellschaftlich verrichteten Arbeit komme aber nicht der Gesellschaft insgesamt zugute, sondern werde privat als Mehrwert angeeignet. Diese private Aneignung des Mehrprodukts, aber auch der schöpferischen Arbeitskraft der Individuen überhaupt, prangert Marx deshalb als Ausbeutung an. Die vom Kapitalisten gewonnene Profitrate sinke nach Marx jedoch immer weiter, wie er in seinem Gesetz des tendenziellen Falls der Profitrate darstellt. Einerseits sei dieser Fall der Profitrate durch den zunehmenden Einsatz von Maschinen bedingt, da nach der Arbeitswertlehre die wertschöpfende Instanz einzig in der menschlichen Arbeitskraft liege, welche durch den Einsatz von Maschinen kontinuierlich abnehme (Fixes Kapital vs. Variables Kapital). Andererseits sinke die Profitrate auch aufgrund der Konkurrenz der Kapitalisten untereinander, die sich stets unterbieten müssen, um auf dem Markt bestehen zu können. Um diese durch stetig sinkende Einnahmen entstehenden Kosten auszugleichen, müsse der Kapitalist auf der anderen Seite Ausgaben einsparen – vornehmlich durch Senkung der Produktionskosten, d. h. durch Lohnsenkungen der Arbeiter oder durch Verlängerung der Arbeitszeit sowie Steigerung der Arbeitsproduktivität. Der aus dieser Konstellation unvermeidliche Widerspruch zwischen dem Verwertungsinteresse des Kapitals und den Bedürfnissen des Proletariats bestimmt nach Marx den grundsätzlich antagonistischen Charakter der kapitalistischen Produktionsweise und sei letztlich die Ursache für die regelmäßig auftretenden Krisen des Kapitalismus, die schließlich auch zu revolutionären Erhebungen der Arbeiter führen müssen. Mit der durch die ökonomischen Widersprüche des Kapitalismus bedingten Unausweichlichkeit revolutionärer Aufstände schlage schließlich die weltgeschichtliche Stunde der kommunistischen Revolution. Das Kapital produziere seine eigenen „Totengräber“. Entfremdung der Arbeit. Marx mit seiner Tochter Jenny (1869) Im Kapitalismus aber sei die Arbeit auf grundlegende Weise entfremdet und pervertiert. Denn Arbeit im Kapitalismus werde nicht im Interesse der Schaffung von Gebrauchswerten verrichtet und noch weniger zur Verwirklichung kreativer Schöpferkraft, sondern lediglich zur Erzielung von Tauschwerten. Der Arbeiter könne über seine Arbeitskraft nicht frei verfügen, sondern müsse sie nach den Vorgaben des Kapitalisten einsetzen, für den er arbeitet. Die Güter, die er so produziert, erlebe der Arbeiter nicht mehr als seine eigenen, sondern als fremde; er könne sich in den Ergebnissen seiner eigenen Tätigkeit nicht wiedererkennen. Diesen Prozess bezeichnet Marx, auch hierin Hegel folgend, als „Entfremdung“ bzw. „Entäußerung“. Ob die Kategorie der „Entfremdung“ für Marx’ späteres Werk, insbesondere für seine ökonomiekritischen Schriften, noch eine Rolle spielt oder ob er seine ursprüngliche Konzeption von „Entfremdung“ später aufgegeben hat, ist unter Marxisten sehr umstritten. Festgestellt werden kann, dass Marx nach 1845 nicht mehr vom „Wesen“ des Menschen sprach, vielmehr die Vorstellung eines überzeitlichen Gattungswesens „Mensch“ in der 1845 erschienenen Schrift „Die deutsche Ideologie“ ausdrücklich verwarf und seine früher benutzten Begriffe als „traditionell unterlaufende philosophische Ausdrücke wie ‚menschliches Wesen‘, ‚Gattung‘ pp.“ bezeichnete (Karl Marx, Friedrich Engels: "Die deutsche Ideologie." MEW Bd. 3, S. 218). Fetischcharakter der Ware. In seinem späteren Werk tritt an die Stelle des philosophisch voraussetzungsvollen Entfremdungsbegriffs (der ja implizit die Vorstellung einer nicht-entfremdeten Arbeit voraussetzt) der Begriff des „Warenfetischismus“, wie er im ersten Band des "Kapitals" im berühmten Kapitel über den „Fetischcharakter der Ware und ihr Geheimnis“ entwickelt wird. Damit ist die Verschleierung der geleisteten menschlichen Arbeit gemeint, die man einem fertigen, als Ware zirkulierenden Produkt nicht mehr ansieht. Auch dies ist der Sache nach eine Form der Entfremdung, dient im Kontext des Kapitals jedoch nicht mehr so sehr zur Bestimmung des Elends der Arbeiter, sondern zum Verständnis der ideologischen Struktur der kapitalistischen Gesellschaft. Der marxistische Theoretiker der "Verdinglichung, "Georg Lukács, sieht die Bedeutung des Kapitels über den Fetischcharakter der Ware darin, dass sich in ihm der ganze historische Materialismus verberge. Den verborgenen Gehalt des Fetischkapitels als Erkenntnis der kapitalistischen Gesellschaft herauszuarbeiten, unternimmt er in seinem viel zitierten Aufsatz "Die Verdinglichung und das Bewußtsein des Proletariats" von 1923. Je weniger die Menschen sich in den Produkten ihrer Arbeit wiedererkennen und sie als von ihnen selbst gemachte Produkte begreifen können, desto selbständiger erscheinen ihnen diese Produkte selbst. Insbesondere in der Form des Geldes und des Kapitals – beide nichts weiter als akkumulierte, angehäufte Waren in abstrakter Form – erscheinen die Produkte der menschlichen Arbeit als verselbständigte, „automatische Subjekte“ (MEW 23:169). Die Verwandlung von Geld in mehr Geld, auf dessen Prinzip der Kapitalismus beruhe, erscheine als selbständige Bewegung des Geldes (etwa in der Form des scheinbar selbsttätigen Zinses), nicht als Resultat menschlicher Arbeit. Dadurch werden, so Marx, die dinglichen Objekte zu Subjekten, und umgekehrt die menschlichen Subjekte zu ohnmächtigen Objekten. Die Warenproduzenten werden von ihren Produkten beherrscht: „Ihre eigne gesellschaftliche Bewegung besitzt für sie die Form einer Bewegung von Sachen, unter deren Kontrolle sie stehen, anstatt sie zu kontrollieren“ (MEW 23:89). Die kapitalistische Gesellschaft beruht auf einer grundlegenden "Verkehrung", sie steht gewissermaßen auf dem Kopf. So werden die Produkte zu Fetischen, zu scheinbar magischen Gegenständen. Gleichwohl sei ebendieser Anschein bloßer "Schein". Auch wenn die Arbeit nicht mehr wahrgenommen wird, bleibe sie die wertschöpfende Instanz und die Ursache aller Bewegung. Der Fetischcharakter der Ware sei eine Täuschung, obgleich diese Täuschung kein bloßer Irrtum sei, sondern eine praktische Ursache besitze: die Teilung der Gesellschaft in Arbeitende und Arbeiten-Lassende, d. h. in jene, die Produkte herstellen, und andere, denen diese Produkte gehören. Den sich aus der Warenform ableitenden Warenfetisch analysiert Marx auch als einen hinter den Rücken der Menschen ablaufenden Vergesellschaftungsmodus, der konkrete private Arbeiten in abstrakte gesellschaftliche Geldwerte verwandelt und so gesellschaftliche Warenproduktion erst ermöglicht. Religionskritik. Marx kritisiert alle Formen einer idealistischen Philosophie und insbesondere der Religion, die nach Marx dazu dient, die Existenz des Menschen durch Träumereien und Trost im Jenseits erträglich zu machen und so das faktische Elend zu legitimieren. In einem berühmten Ausspruch bezeichnet Marx die Religion deshalb als „Opium des Volkes“. Gleichwohl vermöge die Religion nicht anzugeben, was es mit dem Elend auf sich hat, dessen Ausdruck sie ist – im Gegenteil, so Marx, täuscht sie darüber mit Hirngespinsten und jenseitigem Trost hinweg. Insofern sei sie ein falsches Bewusstsein, also reine Ideologie von sich selbst entfremdeten Menschen. Weil Religion und Gesellschaft also wesenhaft zusammenhängen, nimmt die Religionskritik eine zentrale Stellung bei Marx ein: „die Kritik der Religion ist die Voraussetzung aller Kritik“ (ebd., MEW 1:378). Jedoch könne die Kritik am falschen Bewusstsein nur dazu dienen, die Ursache des Irrtums zu erkennen, und dadurch die Möglichkeit seiner praktischen Aufhebung ins Bewusstsein rücken. Klassenbewusstsein bedeutet in diesem Sinne für Marx, die sozialen Verhältnisse „objektiv“ wahrzunehmen und die Beteiligung des Menschen an der Reproduktion der kapitalistischen Herrschaft zu erkennen und zu kritisieren. Sie müsse an die Stelle der Mystifikation und des religiösen „Nebelschleiers“ (MEW 23:94) die Bedürfnisse der Menschen selbst stellen, für deren Verwirklichung sie zu kämpfen habe und sich damit nicht auf das Jenseits vertrösten zu lassen. Die Philosophie müsse zur „revolutionären Praxis“ (MEW 3:7) werden. Die Religionskritik von Marx war von Ludwig Feuerbach beeinflusst. Gemeinsam mit Friedrich Engels war Marx 1850 Taufpate von Karl Friedrich Koettgen (Sohn von Gustav Adolf Koettgen), und 1871 von Karl Liebknecht. Geschichtsphilosophie. Die marxsche Geschichtsphilosophie wurde als Historischer Materialismus bekannt. Nicht die Ideen werden dabei als grundlegende Bewegungskraft der Geschichte angesehen, sondern die materiellen Verhältnisse, die die Hervorbringung der Ideen grundsätzlich bestimmen. Philosophische Ideen seien daher nicht allezeit gültig, sondern hätten historisch-materielle Ursprünge. Ändern sich diese Ursprünge, so ändern sich auch die Ideen. Die vorherrschenden philosophischen Ideen würden dabei in jeder Epoche die Gedanken der herrschenden Klasse widerspiegeln, die Marx als jene Klasse definiert, die die Verfügungsgewalt über die materiellen Arbeitsmittel besitzt. Marx definiert anhand der materiellen und der Herrschaftsverhältnisse verschiedene Phasen der Menschheitsgeschichte. Die sozioökonomische Entwicklung hätte von der „freien“ Urgesellschaft über (in Europa) Sklavenhalter- und Feudalgesellschaft, zur bourgeoisen (industriellen kapitalistischen) Gesellschaft geführt und solle über den durch Revolution zu erreichenden Sozialismus hin zum Kommunismus führen. Befördert wird diese Revolution durch die Eigengesetzmässigkeiten der kapitalistischen Produktion in Form zunehmender Macht- und Kapitalkonzentration (Akkumulation). Spiegelbildlich zur durch arbeitsteilige Wirtschaftsorganisation zunehmenden Selbstentfremdung der Ausgebeuteten organisiert sich das Kapital in Monopolen und repressiven Überbaustrukturen (Staat), welche durch Klassenkampf und Revolution in der industriellen Gesellschaft überwunden werden. Mit der sozialen Revolution wäre die „Vorgeschichte“ der Menschheit beendet, die Menschen würden von nun an bewusst, gemeinschaftlich und rational die Produktion ihres gesellschaftlichen Lebens und ihrer weiteren Geschichte gestalten, und nicht von ihnen unbekannten gesellschaftlichen Gesetzmäßigkeiten beherrscht werden. Klassenkampf und Revolution. „Proletarier aller Länder vereinigt euch.“ Titelblatt der Originalausgabe des Manifests der Kommunistischen Partei (1848) Überblick über das Werk. a>", veröffentlicht in der Zeitschrift "Die Revolution", New York 1852 Marx’ Werk wird oft in zwei Phasen unterteilt: „Frühschriften“ (bis 1848) und „reifer Marx“, wobei umstritten ist, inwieweit diese beiden Phasen einen wirklichen Bruch im Denken darstellen. Während lange Zeit sowohl von der Sozialdemokratie wie vom Marxismus-Leninismus nur die späteren, vorwiegend ökonomisch orientierten Schriften rezipiert wurden, hat insbesondere die Neue Linke um 1968 die philosophisch orientierten Frühschriften wiederentdeckt, die zum Teil erst 1932 veröffentlicht worden waren. Gelegentlich ebenfalls zu den Frühschriften gerechnet wird das mit Engels im Revolutionsjahr 1848 verfasste "Manifest der Kommunistischen Partei" (MEW 4), das durch seinen programmatischen Charakter jedoch eine Sonderstellung im marxschen Werk einnimmt. Es gibt zwei Gesamtausgaben der Schriften von Marx und Engels. Die erste, unvollendete Marx-Engels-Gesamtausgabe (MEGA1) wurde von David Rjasanow herausgegeben. Die seit 1975 erscheinende Marx-Engels-Gesamtausgabe (MEGA2) ist auf insgesamt 114 Bände (122 Teilbände) ausgelegt. Diese historisch-kritische Gesamtausgabe umfasst auch Briefwechsel zwischen Marx und Engels und Briefe von dritten Personen an sie. Bisher ist etwa die Hälfte aller Bände erschienen. Außerdem gibt es die in deutscher Sprache erschienene Studien- und Leseausgabe Marx-Engels-Werke (MEW), die vom Institut für Marxismus-Leninismus beim ZK der SED (1956–1990) in 43 Bänden (45 Teilbänden) herausgegeben wurde. Rezeption. → "Siehe auch: Abschnitt Geschichte im Artikel Marxismus" Marx’ Theorie wurde von späteren marxistischen Strömungen durchaus gegensätzlich interpretiert: Das reicht von der sozialreformerischen Politik der Sozialdemokratie über die dogmatischen Interpretationen des „Realsozialismus“ der ehemaligen Sowjetunion oder der Volksrepublik China u. a. m. (vergleiche auch Artikel Kommunistische Partei) bis hin zu undogmatischen Interpretationen von Vertretern der Kritischen Theorie und der Neuen Linken. Die schablonenhafte, ungeprüfte Übernahme isolierter marxscher Termini und Konzepte wird oft als „Vulgärmarxismus“ bezeichnet. Marx-Kritiker. Eugen von Böhm-Bawerk, einer der Begründer der Österreichischen Schule, kritisierte bereits in "Zum Abschluß des Marxschen Systems (1896)" die seiner Ansicht nach widersprüchlichen Kapitaltheorien im 1. und 3. Band von "Das Kapital". Während Marx im ersten Band unterstellte, dass sich die Waren nach ihren Arbeitswerten austauschen, und nur kurz anmerkte, dass dies nicht die reale Wirtschaftsbewegung widerspiegle und noch unzählige Zwischenschritte zum Verständnis des Umstands vonnöten wären, wurde erst im dritten Band ausgeführt, weshalb es zu einer Allgemeinen Profitrate komme. Böhm-Bawerk ging von der Annahme aus, dass sich die Veröffentlichung des 2. und 3. Bandes so lange verzögerte, weil Marx für die aufgeworfene Problematik keine mit seinen Theorien vereinbare Lösung fand. Tatsächlich wurde das Manuskript, auf welchem der dritte Band basiert, noch vor Niederschrift des ersten Bandes des "Kapitals" verfasst. Marx’ Darstellungsweise der Zusammenhänge der kapitalistischen Produktion, der Konstitution von Werten und Preisen, ergab sich daher nicht aus einer Not heraus, sondern war bewusst intendiert. Nach Böhm-Bawerk steht die Allgemeine Profitrate und die Theorie der Produktionspreise im Widerspruch zum Wertgesetz des ersten Bandes. In diesem Sinne setzt er sich kritisch mit jenen Aussagen im Kapital auseinander, in dem Marx zu begründen versucht, weshalb sich die Produktionspreise im Rahmen des Wertgesetzes bewegen würden. Die von Böhm-Bawerk aufgeworfene Kritik am marxschen Wertgesetz wurde später auch im Kontext des Transformationsproblems in veränderter Form fortgesetzt. Zu den bekanntesten Marx-Kritikern zählt Karl Popper, der philosophische und v. a. wissenschaftstheoretische Aspekte bemängelt. Hierzu zählt insbesondere die Immunisierung gegen Kritik. Marx wurde zuweilen eine antisemitische Haltung unterstellt, vor allem im Zusammenhang mit seiner Schrift "Zur Judenfrage" von 1843 und Passagen aus privaten Briefen Marx’ aus dem Jahr 1862, die gegen Ferdinand Lassalle gerichtet waren. Eine gänzlich andere Auffassung vertritt Helmut Hirsch. In dem Text "Zur Judenfrage" forderte Marx die rechtliche "Gleichstellung" der Juden, vertritt also für seine Zeit eine progressive Position. Eingewandt wurde, dass Marx Begriffe wie „Schacher“ und „Wucher“ unkritisch übernahm und auf diese Weise mit seinen Schriften antisemitische Vorurteile und Klischees reproduziere. Marx hatte selbst jüdische Vorfahren und war in jungen Jahren protestantischen Glaubens. Als Vertreter einer materialistischen Philosophie kritisierte er an allen Religionen, dass sie eine Form der Ideologie und Selbsttäuschung darstellten (vgl. die "Einleitung zur Kritik der Hegelschen Rechtsphilosophie", MEW 1, S. 378 ff.). Micha Brumlik schreibt unter Verweis auf Marx’ Briefe: „Marx war zeit seines Lebens – zumindest persönlich – ein glühender Antisemit.“ Diese Meinung steht jedoch im Widerspruch zu Marx Verhältnis z. B. zu Heinrich Graetz, Wilhelm Alexander Freund, Bernhard Kraus, Sigmund Schott und anderen. Jedoch fänden sich auch in seinem theoretischen Werk, so vor allem in "Zur Judenfrage", antisemitische Thesen. Kurt Flasch schreibt dazu: „Brumliks Buch ist keine verlässliche philosophiehistorische Untersuchung.“ Der Soziologe Detlev Claussen kritisiert den Text "Zur Judenfrage" als „unmaterialistisch und unwissenschaftlich“, weil er nicht den Unterschied zwischen vorbürgerlicher und bürgerlicher Gesellschaft anzugeben wisse und in einer Analyse der Waren- und Geldzirkulation verharre. Dagegen hat Marx im "Kapital" nach Ansicht vieler Sozialwissenschaftler mit einer Kritik der historisch gewordenen ökonomischen Verhältnisse eine Perspektive zum Umgang mit dem Antisemitismus eröffnet, welche erst von Nachfolgern wie zum Beispiel Theodor W. Adorno und Max Horkheimer "(Dialektik der Aufklärung", 1944) aufgegriffen wurde. Marxistische Diskussionen. Zahlreiche Werke von Marx sind nicht vollendet (er starb dafür zu früh), und auch der Marxismus ist kein abgeschlossenes System. Dies ermöglicht sowohl verschiedenste Interpretationen der Werke von Marx und Engels als auch ein verschiedenes Maß an Einordnung der Theorie, bzw. einzelner Elemente, in einen historischen Kontext. Auch haben Marx und Engels einige ihrer Ansichten mit der Zeit geändert. Zum Beispiel gibt es widersprüchliche Aussagen darüber, ob eine sozialistische Revolution zwingend in einem hochentwickelten kapitalistischen Land stattfinden muss oder ob die Phase des Kapitalismus nicht sogar unter besonderen Umständen übersprungen werden kann, wie Marx in seinem Brief an Wera Sassulitsch schreibt. Deutsche Demokratische Republik. Büste am Strausberger Platz in Berlin In der DDR nahm Karl Marx die Rolle einer politischen und weltanschaulichen Leitfigur ein. Vom 10. Mai 1953 bis zum 31. Mai 1990 hieß Chemnitz "Karl-Marx-Stadt", dort befindet sich das bekannte Karl-Marx-Monument. Vom 1. Mai 1949 bis 31. Dezember 1990 hieß die Gemeinde Neuhardenberg "Marxwalde". An vielen Orten errichtete man ihm Denkmale (siehe Karl-Marx-Denkmal). Eine Statue von Marx und Engels befindet sich im Chemnitzer Park der Opfer des Faschismus vor dem Georgius-Agricola-Gymnasium, die 1923 vom Stadtrat an dieser Stelle auf dem damaligen Karl-Marx-Platz errichtet wurde. In Berlin befindet sich eine Karl-Marx-Statue auf dem 1986 errichteten Marx-Engels-Forum. Der 100-Mark-Schein der DDR war mit dem Marx-Porträt versehen. Die Deutsche Post gab von 1948 bis 1949 in der sowjetisch besetzten Zone bzw. in der DDR von 1949 bis 1983 rund ein Dutzend Briefmarken mit Darstellungen von Karl Marx heraus. Die Leipziger Universität "Alma mater lipsiensis" hieß von 1953 bis 1991 "Karl-Marx-Universität Leipzig". Zahlreiche Straßen und Plätze waren nach Marx benannt (siehe Karl-Marx-Straße, Karl-Marx-Allee oder Karl-Marx-Platz). Der Karl-Marx-Orden war die höchste Auszeichnung der DDR. Das 100. Todesjahr von Karl Marx, 1983, wurde als "Karl-Marx-Jahr" begangen. Bundesrepublik Deutschland. 1932 wurde in Worms die noch heute bestehende "Karl-Marx-Siedlung" erbaut. a> und Karl Marx. Kölner Rathaus In der französischen Besatzungszone wurde am 5. Mai 1947 eine Briefmarke mit dem Bild von Marx im Wert von 15 Pfennig herausgegeben. Die Bundesrepublik Deutschland würdigte 1983 Marx als Philosophen zum 100. Todesjahr mit einer Gedenkmünze mit der Randprägung „WAHRHEIT ALS WIRKLICHKEIT UND MACHT“, ein Zitat nach der zweiten "These über Feuerbach". In zahlreichen Städten und Gemeinden gab und gibt es nach Karl Marx benannte Straßen. Briefmarke der Deutschen Bundespost (Bundesrepublik Deutschland) 1968 Am 29. April 1968 wurde eine Gedenkbriefmarke zum 150. Geburtstag von Karl Marx von der Deutschen Bundespost herausgegeben. In seiner Heimatstadt Trier kann das Karl-Marx-Haus besichtigt werden, was im Sommer auch zahlreiche Touristen aus Asien anzieht. Dieses Geburtshaus, heute Museum, stand in der Brückergasse 664 (heute Brückenstraße 10); schon im Oktober 1819 zog die Familie in ein kleines Wohnhaus in der Simeongasse (heute Simeonstraße 8), wo heute eine Gedenktafel an den berühmten Bewohner erinnert. Seit dem Ende des Zweiten Weltkriegs trug eine Straße in Elmshorn den Namen „Karl-Marx-Platz“. Im August 2005 beschloss die Mehrheit von CDU und FDP die Namensänderung, sodass der Platz jetzt „Buttermarkt“ heißt. Im Berliner Stadtbezirk Neukölln wurden 1946 die Berliner Straße und die Bergstraße in Karl-Marx-Straße umbenannt. Seit infolge der Entstalinisierung 1961 Teile der "Stalinallee" in Berlin-Mitte bzw. -Friedrichshain in Karl-Marx-Allee umbenannt wurden, hat Berlin zwei bedeutende Straßen, die Karl Marx gewidmet sind. In Bonn erinnert seit 1989 in der Stockenstraße eine Gedenktafel von HP Schall an Marx’ Studienzeit in Bonn 1835/36. Am Kölner Rathaus ist eine Skulptur seiner Person angebracht. Marx wurde 2003 in der Sendung Unsere Besten auf Platz drei in der Rangliste der "größten Deutschen" gewählt. International. a>. Marx besuchte hier mehrmals seine Schwester Sophia Schmalhausen In Wien wurde von 1926 bis 1930 der Karl-Marx-Hof mit 1.382 Wohnungen für etwa 5.000 Bewohner errichtet. In London erinnert in der Dean Street 28 im Stadtteil Soho eine Gedenktafel an Marx, der dort eine Zeit lang mit seiner Familie wohnte. Auch die Marx Memorial Library, die zu seinem 50. Todestag 1933 eingeweiht wurde, gehört zu den Londoner Sehenswürdigkeiten. In der Wallfahrtskirche St. Vitus in Sankt Veit am Vogau (Österreich) ist Marx in einer Deckenmalerei (1921) von Felix Barazutti bei einer Ansprache vor Arbeitern abgebildet. In Karlsbad steht ein Denkmal für Karl Marx, der hier 1874,1875 und 1876 zur Kur weilte. Das Denkmal liegt nicht weit von der russisch-orthodoxen Kirche "St. Peter und Paul", auf der Straße "Zamecky vrch". Benannt wurden in Tadschikistan der Berg Pik Karl Marx, in Russland die Stadt Marx, in der Ukraine die Ortschaften Karlo-Marxowe und Karla Marxa, ein heute als General Sherman Tree bekannter Riesenmammutbaum in den USA, und ein 1969 entdeckter Asteroid (2807 Karl Marx). Auf dem Kim Il-sung-Platz in Nordkoreas Hauptstadt Pjöngjang befanden sich an einer Hausfassade Porträts von Marx und Lenin in der Höhe einer Etage. Diese Bilder wurden im April 2012 nach der Wahl Kim Jong-uns zum Ersten Sekretär der Partei der Arbeit und zum Ersten Vorsitzenden des nationalen Verteidigungskomitees abgehängt. Eintragung in das "Confession book" seiner Tochter Jenny. Im März 1865 füllte Karl Marx in englischer Sprache seinen Fragebogen im Bekenntnisalbum seiner Tochter Jenny Caroline aus. Marx Bekenntnisse im Album von Jenny Marx (Tochter). Biographien. siehe auch biografische Literatur zu einzelnen Lebensabschnitten Kairo. Kairo („die Starke“ oder „die Eroberin“) ist die Hauptstadt Ägyptens und die größte Stadt der arabischen Welt. Von Ägyptern wird die Stadt oftmals auch einfach mit dem Landesnamen – , hocharabisch "Miṣr", ägyptisch-arabisch "Masr" – bezeichnet. Kairo ist das politische, wirtschaftliche und kulturelle Zentrum Ägyptens und der Arabischen Welt. Die Stadt ist Sitz der ägyptischen Regierung, des Parlaments, aller staatlichen und religiösen Zentralbehörden (Mogamma) sowie zahlreicher diplomatischer Vertretungen. Kairo ist der bedeutendste Verkehrsknotenpunkt Ägyptens und besitzt zahlreiche Universitäten, Hochschulen, Theater, Museen sowie Baudenkmäler. Die Altstadt von Kairo ist ein Ensemble islamischer Baukunst und wird seit 1979 von der UNESCO als Weltkulturerbe anerkannt. Die Stadt hat den Status eines Gouvernements und wird von einem Gouverneur regiert, der vom Staatspräsidenten ernannt wird. Kairo hat 7,9 Millionen Einwohner im administrativen Stadtgebiet (2008) und die Metropolregion ist mit etwa 16,2 Millionen Einwohnern (2009) vor Lagos in Nigeria die größte in Afrika. In Ägypten existiert allerdings keine Meldepflicht, weswegen die angegebenen Einwohnerzahlen Hochrechnungen auf Basis der Volkszählungsergebnisse darstellen. Inoffizielle Schätzungen geben bis zu 25 Millionen Einwohner für den Großraum an, was nahezu ein Drittel der Gesamtbevölkerung Ägyptens bedeuten würde. Geographie. Landsat-Aufnahme von Kairo, Februar 2004 Lage. Kairo hat eine Stadtfläche von 214 Quadratkilometern und liegt im Nordosten des Landes auf dem rechten Nilufer durchschnittlich 68 Meter über dem Meeresspiegel. Die Stadt umfasst auch die beiden Inseln Gezīra (, mit dem Stadtteil "Zamalek") und Roda (). Ihr gegenüber liegt am westlichen Ufer das Gouvernement al-Dschīza (el-Gīza), unter anderem mit den historischen Anlagen von Gizeh. Die geographischen Koordinaten von Kairo sind 30° 03' nördlicher Breite und 31° 15' östlicher Länge. Die erste Siedlung wurde ursprünglich zwischen dem Gebirgsausläufer Muqattam im Osten und dem Nil im Westen errichtet. Doch auch wenn diese Kairo schon lange nicht mehr eingrenzen, so bilden die Viertel, die sich zwischen diesen beiden natürlichen Schranken befinden, den alten Stadtkern. Nördlich der Stadt erstreckt sich bis zum Mittelmeer das Nildelta. Im Westen befinden sich die Pyramiden von Gizeh. Im Süden liegt das alte Memphis. Geologie. Kairo liegt im Tal des Nils, des weltweit längsten, jedoch nicht wasserreichsten Stromes, als dessen Quellfluss der im Hochland von Ruanda entspringende Kagera angesehen wird. Der Nillauf folgt einer tektonischen Linie. Die sich dort befindenden Plateaus brechen hier stufenförmig oder mit einheitlichem Steilhang 100 bis 140 Meter tief ab. Im Tal hat der Fluss eine Reihe von Schotterterrassen gebildet und ein Schwemmland aus schwarzem Schlamm von durchschnittlich zehn Metern Mächtigkeit abgelagert. Die Gesamtbreite des Tales beträgt im Süden, im Bereich des nubischen Sandsteins, zwei bis fünf Kilometer, im Bereich der tertiären Kalke, etwa von Assuan flussabwärts, zehn bis 15 Kilometer. Stellenweise hat die Erosion des Flusses das widerständige Gestein des kristallinen Unterbaues erreicht. Westlich des heutigen Tales sind Reste eines älteren Niltales erhalten, beispielsweise in der vom Fluss gespeisten Senke des Fayyum. Unterhalb von Kairo öffnet sich das Tal und geht in die weiten, von Kanälen durchzogenen Flächen des 23.000 Quadratkilometer großen Deltas über. Innenstadt. Die Innenstadt lässt sich grob in einen traditionellen und einen modernen Teil einteilen. Das traditionelle Kairo liegt abseits des Nils vor der Zitadelle und dem Berg "Muqattam" (). Es umfasst hauptsächlich das Islamische Kairo rund um die Azhar- und andere Moscheen. Des Weiteren sind hier die Wohnviertel nördlich, östlich und südlich des Viertels um die Azhar-Moschee zu nennen, so etwa "Bāb el-Chalq" (), "Darb el-Ahmar" (), "el-Mūskī" () oder "Sayyida Zeinab" (, "es-Sayyeda Zēnab"). Neben den Ausgrabungen von "al-Fustat" im Süden liegt das koptische Viertel oder Alt-Kairo (, hocharabisch "Misru l-qadīma", ägyptisch-arabisch "Masr el-edīma"). Eine Besonderheit ist die Stadt der Toten südöstlich des islamischen Viertels, eine Nekropole, die bewohnt ist und sich heute (fast) wie ein normales Stadtviertel gibt. Das moderne Kairo besteht aus den Geschäftsvierteln, die vom "Mīdān et-Tahrīr" (), dem "Mīdān el-Ōperā" (), dem "Ramses"-Bahnhof (, "Mahattat Ramsīs") und dem Nil eingegrenzt werden. Diese Bereiche sind noch durch kolonialzeitliche Architektur, einen mediterranen Baustil, geprägt. Westlich davon befindet sich das Viertel "Zamalek" (, "ez-Zamālek") auf der Insel "Gezīra", südwestlich liegen Insel "Roda" und die "Garden City" (), wo viele Botschaften untergebracht sind. Vororte. Der wohl bekannteste Vorort ist Heliopolis (, hocharabisch "Miṣru l-Dschadīda", ägyptisch-arabisch "Masr el-Gedīda") im Nordosten der Stadt. Im Süden liegt das in der Kolonialzeit geplante Maadi (, "al-Maʿādī"), welches durch zahlreiche Villengrundstücke mit umgebendem Garten geprägt ist und somit zu den teureren Wohngebieten zählt. Südlich schließt sich das zum Gouvernement Kairo zählende Helwān () an. Ein weiterer Vorort ist Schubra al-Chaima (, "Schubrā al-Chaima") im Norden. Weiter außerhalb ist zu unterscheiden zwischen ehemaligen Dörfern und Städten, die sich in die Peripherie Kairos integriert haben, und den auf dem Reißbrett geplanten Satellitenstädten, die sich teilweise direkt an Kairo anschließen, teilweise bis zu 50 Kilometer von der Innenstadt entfernt in der Wüste liegen. Für Letztere sind auf der östlichen Nilseite unter anderem Nasr City (, "Mādīnāt Nasr") und die Stadt des 15. Mai (, "Mādīnāt Chāmāstaschar Māio") zu nennen, auf der westlichen Seite die Stadt des 6. Oktober (, "Medīnet Sitta Oktobar") und Sādāt City (, "Madīnet es-Sādāt"). Die Stadt des 6. Oktober gehört zum neu gegründeten Gouvernement as-Sadis min Uktubar, dem auch die Oase Bahariyya angehört. Sadat City gehört zum Gouvernement Al-Dschiza. New Cairo. Das seit 2004 laufende Stadtplanungsprojekt "New Cairo" geht über die übliche Projektierung eines Vorortes weit hinaus. Es ist die Antwort auf die empfundene Enge, den Wohnraummangel, den Lärm und teilweise Unwirtlichkeit der alten Stadtviertel Kairos. Rund 17 bis 28 Kilometer östlich der Innenstadt sind auf einer bis vor kurzem hügeligen Wüstenfläche von etwa 120 Quadratkilometern private Investoren eingeladen, die erschlossenen Baufelder zu nutzen. Erreichbar durch ein radiales Schnellstraßensystem werden bodennivellierte Sektoren von mindestens 240 Feddan (entsprechen 100 Hektar) in einem Guss in Angriff genommen, ihre Vernetzung ist im Masterplan-Raster gewährleistet. Diese moderne Entlastungsstadt soll bei ihrer Fertigstellung nach 2020 einmal 2 bis 2,4 Millionen Menschen aufnehmen. Es ist eine neuzeitlichen Anforderungen entsprechende soziale und freizeitorientierte Infrastruktur geplant, mit gebietsweiser Versorgung durch Einkaufszentren, mit öffentlichen Grünflächen sowie vereinsbetriebenen Sportzentren, gekennzeichnet durch eine überdurchschnittliche Qualität der Appartements, Eigenheime und Villen. Die ersten Abschnitte sind Anfang 2011 fertig: eine Campushochschule, mehrere Siedlungen bzw. Teilsiedlungen und teilweise private Schulen verschiedener europäischer Länder. Auffallend ist das rasante Tempo der Entwicklung, die Teilabschnitte wachsen in für europäische Verhältnisse unvorstellbar kurzen Zeiträumen. New Cairo dürfte vom Miet- bzw. Kaufpreisniveau her überwiegend eine Urbanisation für den neuen Mittelstand und für ausländische Fachkräfte werden. Klima. Kairo befindet sich in der subtropischen Klimazone. In der Region herrscht ein warmes und trockenes Wüstenklima. Die Jahresdurchschnittstemperatur beträgt 21,7 Grad Celsius, die jährliche Niederschlagsmenge 24,7 Millimeter im Mittel. Der wärmste Monat ist der Juli mit durchschnittlich 28 Grad Celsius, der kälteste der Januar mit 13,9 Grad Celsius im Mittel. Etwas Niederschlag fällt nur zwischen November und März mit durchschnittlich 3,8 bis 5,9 Millimeter. Im Sommer, von Mai bis September, wird es sehr heiß, wobei es zu Sandstürmen aus dem Süden des Landes kommen kann. Die Temperaturen erreichen Tageshöchstwerte bis zu 35 Grad Celsius bei einer täglichen Sonnenscheindauer von bis zu 13 Stunden im Mittel. Nachts fallen die Temperaturen nicht unter 20 Grad Celsius. In der Zeit von Oktober bis April betragen die Tageshöchstwerte 20 bis 28 Grad Celsius im Mittel bei einer täglichen Sonnenscheindauer von neun bis elf Stunden. Im Winter, von Dezember bis Februar, fallen die durchschnittlichen Tageshöchsttemperaturen teilweise unter 20 Grad Celsius und die nächtlichen Tiefstwerte unter zehn Grad Celsius im Mittel. Im Dezember 2013 war Kairo zum ersten Mal seit über hundert Jahren von Schneefall betroffen. Vorgeschichte. Kairos Ursprünge liegen in mehreren Siedlungen. Im heutigen Stadtgebiet lag der Ort Cheri-aha (Babylon), wo nach der ägyptischen Mythologie die Götter Horus und Seth einander bekämpften. Die altägyptische Siedlung am Ostufer des Nils – man nannte den Ort „Babylon in Ägypten“ – wurde im 1. Jahrhundert n. Chr. unter den Römern zur Zeit Trajans gegründet und später zur Festung ausgebaut. Der Name Babylon entstand aus einer Fehllesung der altägyptischen Ortsbezeichnung „Haus des Nils von Heliopolis“. In Babylon wurden Atum und die Neunheit verehrt. Ende des 4. Jahrhunderts begannen dort die ersten Kopten, Kirchen und Schutzmauern zu errichten und sich anzusiedeln. Am 9. April 641 eroberten die Araber die oströmische Festung. Sie fanden bei ihrer Ankunft eine riesige Burganlage mit 42 Kirchen, großen Türmen und Bastionen vor. Nördlich davon gründete Amr ibn al-As im Jahre 643 das Lager "Fustat", das sich allmählich zu einer Stadt entwickelte. Beide Siedlungen wuchsen an der Stelle der heutigen Altstadt von Kairo zusammen. Während von der frühislamischen Stadt Fustat außer der Amr-ibn-al-As-Moschee kaum etwas übrig geblieben ist, ist das koptische Viertel bis heute erhalten. Bis Ende des 9. Jahrhunderts war der Ort ein Karawanenlager und -stützpunkt und hatte keine große Bedeutung für die islamischen Herrscher in Damaskus (bis 750) und Bagdad (ab 750). Einen ersten kleinen Aufschwung erlebte die Stadt unter den Tuluniden, denen Fustat als Hauptstadt diente und die in direkter Nachbarschaft die Siedlung al-Qata'i gründeten. Zwei Bauwerke sind aus dieser Zeit noch erhalten: Die Ibn-Tulun-Moschee und der Nilometer. Nachdem diese Stadt durch Brände teilweise zerstört worden war, errichteten die Abbasiden eine weitere Siedlung am Nil. Die Gründung Kairos durch die Fatimiden. Die von den Fatimiden angelegte Stadt al-Qāhira im 12. Jahrhundert. Fustat, das auf dieser Karte nicht zu sehen ist, liegt 2 Kilometer südlich der Ibn-Tulun-Moschee Nachdem die Fatimiden unter Dschauhar as-Siqilli im Jahre 969 Ägypten den Ichschididen entrissen hatten, errichteten sie vier Kilometer nordöstlich von Fustat ein rechteckiges Militärlager. Wie al-Maqrizi berichtet, wurde mit den Bauarbeiten am 6. Juli 969 begonnen. Nördlich dieses Lagers, das wie die nordafrikanische Residenz des fatimidischen Imam-Kalifen "al-Mansūrīya" genannt wurde, legte Dschauhar einen Muṣallā an. Innerhalb des Lagers erbaute er eine Freitagsmoschee, in der im Juni 971 zum ersten Mal das Freitagsgebet verrichtet wurde. Nachdem Dschauhar die bedeutendsten Angriffe der Qarmaten auf Ägypten abgewehrt hatte, traf im Sommer 972 der fatimidische Imam-Kalif Abu Tamin al-Muizz Vorbereitungen, um seine Hauptstadt an den Nil zu verlegen. Dschauhar legte im Frühjahr 973 in der neuen Lagerstadt einen prachtvollen Palast an, den der Imam-Kalif im Sommer des gleichen Jahres bezog. Bei dieser Gelegenheit wurde die neue Palaststadt in "al-Qāhira al-Muʿizzīya" („die Siegreiche des Muʿizz“) umbenannt. In der Kurzform "al-Qāhira" ist dies bis heute der Name der Stadt geblieben. Die von Dschauhar errichtete Moschee, die seit 1010 als Azhar-Moschee bezeichnet wird, bildet bis in die Gegenwart die Hauptmoschee von Kairo und ist Sitz der bekannten Al-Azhar-Universität. „Al-Fustat ist eine Metropole in jeder Hinsicht (...). Sie liegt auf der Trennlinie zwischen dem Maghreb und den Wohnsitzen der Araber, ihr Gelände dehnt sich weit, sie hat viele Bewohner, ihr Gebiet ist blühend, ihr Name berühmt, ihr Ansehen gewaltig. Sie ist die Metropole Ägyptens, stellt Bagdad in den Schatten, ist der Stolz des Islams, der Handelsplatz der Menschen und prächtiger als die Stadt des Friedens.“ (Anmerkung: gemeint ist Bagdad) „Sie ist die Schatzkammer des Maghreb und das Lagerhaus des Ostens und zur Festzeit glänzend. Es gibt keine Metropole, die volkreicher ist; in ihr leben viele große und angesehene Männer. Sie hat staunenswerte Waren und Spezialitäten, schöne Märkte und Läden, ganz zu schweigen von den Bädern. (...) in ihr gibt es feine Speisen, reine Zutaten und wohlfeile Süßigkeiten, viele Bananen und frische Datteln, reichlich Gemüse und Brennholz, leichtes Wasser und gesunde Luft.“ Die große Bedeutung Fustats als internationalem Handelszentrum geht auch aus den Texten hervor, die in der Geniza der in Fustat gelegenen Ben-Esra-Synagoge gefunden wurden. Im Laufe der Zeit wurde allerdings Fustat in seiner wirtschaftlichen Bedeutung von Kairo überrundet. Aus der Fatimidenzeit haben sich nur wenige Bauten in Kairo erhalten, darunter die al-Hākim-Moschee und die al-Aqmar-Moschee. Als 1171 später Saladin (1137–1193) Ägypten wieder dem abbasidischen Kalifat von Bagdad unterstellte, wurde Kairo zu einem wichtigen Zentrum des sunnitischen Islams. Für Saladin, der mit der ayyubidischen Eroberung Kairos die Führung der arabischen Welt übernommen hatte, war oberste Priorität, die schiitischen Einflüsse der Fatimiden auszumerzen. Er ließ neue Moscheen und Schulen errichten und schuf die Grundmauern der späteren Zitadelle. Den Ayyubiden folgten 1250 die Mamluken, die Kairo wieder zur Hauptstadt machten. Sie ließen viele Paläste, Moscheen und Karawansereien errichten, um ihre Macht zu demonstrieren. Kairo wurde zum bedeutendsten Wirtschafts- und Kulturzentrum der islamischen Welt. Osmanische und britische Herrschaft. Stadtplan Kairos von Matteo Pagano (1549) Nach der Schlacht von Raydaniyya wurde Kairo am 13. April 1517 von Streitkräften der Osmanen erobert, deren Regierungszeit in Ägypten bis ins späte 18. Jahrhundert andauerte. Ägypten wird zu einer osmanischen Provinz und Kairo verliert politisch stark an Bedeutung. Am 24. Juli 1798 übernahmen französische Truppen unter Napoléon Bonaparte (1769–1821) während dessen ägyptischer Expedition die Kontrolle über Kairo. Am 18. Juni 1801 kam die Stadt wieder unter osmanische Herrschaft. Ein wirklicher Bedeutungswandel vollzog sich für Kairo im 19. Jahrhundert mit der Entstehung des Khediven-Reiches. Ismail Pascha, der zwischen 1863 und 1879 regierte, ließ in der Stadt zahlreiche Gebäude errichten und nahm die Eröffnung des Suezkanals im Jahre 1869 zum Anlass, Kairo den europäischen Mächten als blühende Metropole zu präsentieren. Der überwiegende Teil der Entwicklung wurde jedoch über Auslandsanleihen finanziert, wodurch besonders Großbritanniens Einfluss zunahm. Während der Herrschaft Ismail Paschas dehnte sich Kairo, das nun wieder Hauptstadt wurde, über den Nil Richtung Westen aus. Europäische Architekten wurden beauftragt, die Stadt zu erneuern, die Wohnviertel Zamalek und Muhandisin entstanden, aber auch große Teile der heutigen Innenstadt stammen aus dieser Zeit. Mit der nun forcierten Industrialisierung Ägyptens wuchs die Hauptstadt des Landes immer mehr. Bis Ende des 19. Jahrhunderts hatten die Auslandsverschuldung Ägyptens und die Schwäche des Osmanischen Reiches einen wachsenden europäischen Einfluss in Kairo zur Folge. Mit der Besetzung Ägyptens durch britische Truppen und der Zerschlagung der Urabi-Bewegung (1881–1882) übernahm Großbritannien die Kontrolle über das Land ohne dessen formelle Zuordnung zum Osmanischen Reich zu beenden. Der Khediv von Ägypten blieb formell weiterhin Vasall der Osmanen. Die Urabi-Bewegung entstand im Herbst 1881, als nach dem finanziellen Ruin Ägyptens unter Ismail Pascha das Land unter internationale Finanzkontrolle geriet. Gegen diese internationale Kontrolle von Finanz- und Wirtschaftspolitik und die autokratische Herrschaft der Dynastie des Muhammad Ali wandte sich die Bewegung. Anfang des 20. Jahrhunderts wurde Kairo zur Kulturhauptstadt. Selbst die feine englische Gesellschaft zog es dorthin. Bis zum Beginn des Ersten Weltkrieges herrschte ein reges künstlerisches Schaffen. Am 18. Dezember 1914 erklärte Großbritannien Ägypten offiziell zum britischen Protektorat, womit die letzten formalen Beziehungen zum Osmanischen Reich aufgehoben wurden. Außerdem setzten die Briten die Kriegswirtschaft durch, was zu einer weitreichenden Verarmung der Bevölkerung führte, da durch die Kaufkraft der britischen Truppen die Lebensmittelpreise stark anstiegen, andererseits aber die Baumwollpreise auf britische Intervention stark gesenkt wurden. Als die Briten 1919 die Reise einer Delegation ägyptischer Nationalisten unter Saad Zaghlul (Wafd-Partei) zur Pariser Friedenskonferenz verhinderten, kam es zu schweren Unruhen, Streiks und zum Boykott britischer Produkte. Unter diesem Druck setzte der britische Hochkommissar Allenby durch, Ägypten am 28. Februar 1922 die Unabhängigkeit zu gewähren, um weiterhin die britischen Interessen wahren zu können. Kairo blieb weiterhin Hauptstadt des Landes. Nach der Unabhängigkeit. Zwischen den Weltkriegen wuchs die Einwohnerzahl Kairos rasch an und hatte bis zum Beginn des Zweiten Weltkrieges die Zweimillionengrenze erreicht. Das Wachstum der Bevölkerung hielt auch in der Folgezeit an. Der einsetzende Bauboom veränderte das Stadtbild durch hoch aufragende Wohn-, Gewerbe- und Regierungsgebäude. Am 22. März 1945 wurde in Kairo die Arabische Liga gegründet. Nach dem „Schwarzen Samstag“ am 26. Januar, einem Großbrand in Kairo während des Aufruhrs von 1952, schnellte die Einwohnerzahl Kairos in die Höhe, immer mehr Landflüchtige siedelten sich dort an. Zahlreiche Trabantenstädte entstanden; es begann eine Siedlungsnot und die Stadt wurde zu einer unüberschaubaren Metropole. Heute umfasst das Stadtgebiet Orte, die einst mehrere Kilometer von Kairo entfernt lagen. Die Stadtverwaltung hat begonnen, durch günstige Mieten und Schaffung von Arbeitsplätzen Anreize zu schaffen, die die Kairoer Bevölkerung zur Umsiedlung in die Trabantenstädte bewegen sollen. Doch auf jeden Bürger, der die Stadt verlässt, kommen zwei, die durch Landflucht in die Stadt getrieben werden. Im Jahre 1994 wurde die Weltbevölkerungskonferenz der Vereinten Nationen in Kairo abgehalten. Thema dieser Konferenz waren Probleme, mit denen auch Kairo konfrontiert ist. Hierzu zählen neben der Überbevölkerung vor allem Armut und die teilweise katastrophale hygienische und ökologische Situation. Seit 1992 verübten islamische Fundamentalisten in Kairo wiederholt Anschläge auf inländische und ausländische Besucher, bei denen Menschen getötet wurden. Einer der folgenschwersten Anschläge in Kairo ereignete sich am 18. September 1997, als neun Deutsche und ein Ägypter bei einem Attentat auf einen Touristenbus vor einem Museum starben. Ziel dieser extremistischen Gruppen ist es, Touristen von Reisen nach Ägypten abzuhalten, um die innenpolitische Stabilität des von Devisen abhängigen Landes zu brechen. Im Jahr 2011 kam es in Kairo zu Protesten weiter Teile der Bevölkerung. Die Revolution in Ägypten 2011 richtete sich vor allem gegen das autoritäre Regime mit einem ausgeprägten Sicherheitsapparat, fehlende Mitsprachemöglichkeiten der Bürger, sowie Korruption in Staat, Wirtschaft und Verwaltung. Im gleichen Jahr kam es zum Angriff auf die Kirchen von Imbaba sowie zum Maspero-Massaker, bei dem zahlreiche Angehörige der koptischen Minderheit getötet wurden. Einwohnerentwicklung. Die Einwohnerzahl Kairos stieg während der vergangenen Jahrzehnte rapide. Sie hat sich seit Mitte der 1960er Jahre bis heute verdoppelt. Ein Grund hierfür ist neben der hohen Geburtenrate auch die zunehmende Landflucht. Um das ständige Bevölkerungswachstum auffangen zu können, haben sich um Kairo herum im Laufe der Jahre mehrere Satellitenstädte gebildet. Durch die eng gezogenen Stadtgrenzen ist die Bevölkerungszunahme in der Stadt inzwischen deutlich abgeschwächt, diese findet vor allem in den zahlreichen Vororten statt, die inzwischen mit zusammen circa 8,2 Millionen Einwohnern ähnlich bevölkerungsreich sind wie die Stadt selbst mit 7,9 Millionen Einwohnern (2008). Davon entfallen allein auf Gizeh schon annähernd 2,5 Millionen Einwohner. In der Metropolregion Kairo leben insgesamt 16,1 Millionen Menschen (2008). Die folgende Übersicht zeigt die Einwohnerzahlen nach dem jeweiligen Gebietsstand. Bis 1877 handelt es sich um Schätzungen, von 1882 bis 2006 um Volkszählungsergebnisse und 2008 um eine Berechnung. Die Einwohnerzahlen beziehen sich auf das Gouvernement (arabisch Muhafaza) Kairo und schließen die anderen Gouvernements der Agglomeration, Gizeh und Qaliubia, nicht ein. Entwicklung der Wohnsituation. Die 30 größten Armenviertel weltweit Etwa die Hälfte der Bevölkerung der Metropolregion Kairo lebt in so genannten informellen Siedlungen, von Landflüchtlingen am Stadtrand illegal errichteten Behausungen mit unzureichender Infrastruktur und hoher Bevölkerungsdichte. Als vermuteter Aufenthaltsort islamischer Fundamentalisten stehen sie im Mittelpunkt ägyptischer Sicherheitspolitik. Während zahlreiche Menschen vergeblich nach preiswerten Wohnungen suchen, stehen mehrere hunderttausend Wohnungen in der Region leer. Ein Grund dafür ist, dass die Mietpreise für Altbauten auf dem Stand der 1950er Jahre eingefroren sind. Die Häuser sind deshalb einem raschen Verfall ausgesetzt, da die Mieten nicht ausreichen, um die anfallenden Reparaturen zu finanzieren. Für Neubauten werden die Mietpreise vom Staat auf einem so niedrigen Niveau festgesetzt, dass entweder vor dem Abschluss des Mietvertrages eine illegale Zahlung vom Mieter verlangt wird, die ungefähr die Höhe der Baukosten für die Wohnung erreicht, oder diese wird gleich zum Verkauf angeboten. Der gesetzliche Kündigungsschutz verhindert deren spätere Nutzung durch den Eigentümer. Auch die Immobilienspekulation bei Eigentumswohnungen trägt dazu bei, dass zahlreiche Wohnungen in der Region leer stehen. Nach dem Abbau der staatlichen Subventionen für Nahrungsmittel, Energie und öffentliche Transportmittel können sich die ärmeren Bevölkerungsschichten eine Mietwohnung oder den Kauf einer Eigentumswohnung nicht leisten. Das Armenviertel "Imbaba" gehört zu den größten Slums der Welt. Erdbeben 1992. Am 12. Oktober 1992 wurde Kairo um 15:09 Uhr Ortszeit von einem Erdbeben der Stärke 5,8 auf der Richterskala erschüttert. Rund 550 Menschen kamen durch das Beben ums Leben. Tausende Gebäude, vor allem in den Armenvierteln der Altstadt, wurden zerstört, und rund 50.000 Menschen verloren ihre Unterkünfte; auch wertvolle historische Gebäude wie die Al-Azhar-Moschee erlitten schwere Schäden. Das Epizentrum des Erdbebens lag rund 26 Kilometer südwestlich von Kairo, in der Umgebung der Pyramiden von Dahschur. Es war das stärkste Erdbeben in Kairo seit 1847. Stadtregierung. An der Spitze des Gouvernements in Kairo steht der vom Präsidenten des Landes persönlich ernannte Gouverneur, seit dem Jahre 2004 Abdel Azim Mussa Wazir. Er besitzt den Rang eines Ministers und ist formal der Repräsentant des ägyptischen Präsidenten im Gouvernement. Die Politik auf kommunaler und lokaler Ebene wird in Kairo im Wesentlichen von zwei verschiedenen Verfassungsorganen ausgeübt: dem ernannten Exekutivrat und dem gewählten Volksrat. Der Exekutivrat ist das oberste Verwaltungsorgan im Gouvernement. Mitglieder sind beispielsweise der Gouverneur, sein Stellvertreter, die Vorsitzenden der Lokalräte sowie die Repräsentanten der exekutiven Verwaltung. Der Rat verfügt über eine umfangreiche Machtfülle mit zahlreichen Eingriffs- und Entscheidungsmöglichkeiten. Er stellt das bedeutendste administrative Organ zur Planung und Koordinierung sowie Durchsetzung zentralstaatlicher Politik auf der lokalen Ebene in Kairo dar. Der für vier Jahre von der Bevölkerung gewählte Volksrat hat dagegen die Aufgabe gegenüber der administrativen Verwaltung beziehungsweise dem Exekutivrat die Interessen des Volkes wahrzunehmen beziehungsweise zu vertreten. Der Volksrat stellt damit im System der Lokalverwaltung das einzige politische Organ dar, das durch ein Wahlverfahren zustande kommt und deshalb auch grundsätzlich außerhalb jeden unmittelbaren Zugriffs der ägyptischen Regierung liegt. Laut Verfassung sind keine Bürgerbefragungen oder andere Formen der Bürgerbeteiligung auf lokaler Ebene im Land erlaubt. Die letzten Kommunalwahlen fanden am 8. April 2002 statt. Sie waren zuerst für das Jahr 2001 vorgesehen, wurden aber wegen der im gleichen Jahr stattfindenden Parlamentswahlen um ein Jahr verschoben. Während bei den Wahlen 1997 die so genannten unabhängigen Kandidaten der Opposition, die oft der Muslimbruderschaft nahestehen, noch 20 Prozent der abgegebenen Stimmen erhielten, boykottierten sie die Wahl im Jahre 2002 wegen unzureichender Kontrolle durch unabhängige Richter. So ist auch der hohe Wahlsieg von 97 Prozent der regierenden Nationaldemokratischen Partei (NDP) von Präsident Muhammad Husni Mubarak zu erklären. Die für 2006 geplanten Kommunalwahlen wurden auf das Jahr 2008 verschoben. Grund ist die Einführung des neuen Gesetzes zur kommunalen Verwaltung. Sprachen. Nilarm zwischen der Insel Roda und Alt-Kairo In Kairo spricht man wie fast überall im Land Ägyptisch-Arabisch. Das in der Hauptstadt gesprochene Arabisch unterscheidet sich aber zum Teil beträchtlich von den Dialekten Mittel- und Oberägyptens. Ägyptisch-Arabisch ist der bedeutendste neuarabische Dialekt. Dies liegt vor allem daran, dass die ägyptische Filmindustrie mit Sitz in Kairo die größte der arabischen Welt ist. Ägyptische Filme werden im gesamten arabischsprachigen Raum gezeigt, ohne Synchronisation oder Untertitel. Im Gegensatz zu Nachrichten und ähnlichem werden Filme nicht auf Hocharabisch, der Schriftsprache des gesamten arabischen Raums, gedreht, sondern in der jeweiligen Umgangssprache; für die meisten Filme ist dies eben Ägyptisch-Arabisch. Dadurch wird Ägyptisch-Arabisch beziehungsweise der Kairoer Dialekt heute im gesamten arabischen Raum verstanden. Das Hocharabische ist seit der arabischen Eroberung im 7. Jahrhundert Schriftsprache. Nur in der koptischen Kirche wird als Liturgiesprache noch das Koptische verwendet, das in eigener Schrift, die von der griechischen abgeleitet ist, geschrieben wird. Die Sprache des alten Ägyptens, die im Koptischen ihre Fortsetzung fand, wird heute nur noch als Sakralsprache gesprochen. Als Fremdsprache ist Englisch und in der Oberschicht auch noch Französisch verbreitet. Durch den Tourismus und deutschsprachige Universitäten wird auch die deutsche Sprache immer populärer. Religionen. In Kairo ist die vorherrschende Glaubensrichtung der Islam, die Scharia ist laut der ägyptischen Verfassung die Hauptquelle der Gesetzgebung. Neben der sunnitischen Mehrheit lebt in der Stadt auch eine christliche Minderheit. Eine amtliche Zählung der Christen wird bewusst nicht durchgeführt, obwohl die Religion im Pass eingetragen sein muss. Nach Schätzungen sind etwa 90 Prozent der Bevölkerung sunnitische Muslime. Der Großteil der verbleibenden zehn Prozent sind orthodoxe Kopten, deren Markuskathedrale im Stadtteil Abbassia heute die zweitgrößte Kirche Afrikas ist. Des Weiteren gibt es auch mehrere Tausend katholische Kopten und griechisch-orthodoxe Christen. Außerdem lebt eine kleine jüdische Gemeinde in Kairo. Meist leben die Religionsgemeinschaften mehr oder minder friedlich nebeneinander. "El Muallaqa", Hängende Kirche(koptisch) in Alt-Kairo Vor allem die Kopten sind aber immer wieder Ziel von Angriffen radikaler Islamisten, häufig mit Wissen der lokalen Behörden. Viele der islamischen Fundamentalisten leben in den informellen Siedlungen (Slums) am Stadtrand von Kairo. Vor dem Gesetz sind alle Ägypter, unabhängig von ihrem Glauben, gleichberechtigt. In der Praxis müssen Muslime, die zum Christentum übertreten, jedoch mit staatlichen Zwangsmaßnahmen rechnen. Neue Kirchen dürfen nur durch einen Präsidialerlass gebaut werden, auch für kleinere Reparaturen ist dieser notwendig. Ben Ezra Synagoge in Kairo Neben den zahlreichen Moscheen und Kirchen gibt es in Kairo auch viele Synagogen, verwaiste jüdische Schulen, Hospitäler und Gemeindehäuser. Sie erinnern an die Zeit, als Juden in der Stadt wichtige Rollen in Wirtschaft und Kultur innehatten. Juden waren es auch, die den Stadtteil Zamalek und die Vororte Maadi und Heliopolis gründeten. Die Zahl der Juden in der Stadt wird heute auf weniger als 100 Personen geschätzt, einige wenige Familien, die meisten davon ältere Menschen. Am Ende des Zweiten Weltkrieges lebten in ganz Ägypten schätzungsweise 75.000 Juden, davon allein 55.000 in Kairo, die meisten von ihnen Sepharden. Doch bereits kurz nach Kriegsende kam es zu Pogromen gegen die Minderheit. Mit Beginn der arabisch-israelischen Auseinandersetzungen, die 1948 mit der Gründung des Staates Israel ihren Anfang nahmen, ging ihre Zahl weiter stark zurück. Viele Juden wurden verhaftet und in das Gefängnis von Huckstep nahe Kairo oder in Lager gebracht, jüdische Zeitschriften und Zeitungen verboten sowie jüdisches Vermögen beschlagnahmt. Die meisten zog es dadurch schnell in den neu gegründeten Staat Israel. Die letzte Flüchtlingswelle von Juden nach Israel kam mit der Sueskrise 1956 und dem Sechstagekrieg 1967. Geblieben vom religiösen und kulturellen Leben ist ein kleines jüdisches Viertel, das Harat al-Yahud, in Kairo, nahe dem Viertel Muski, und ein riesiger Friedhof zwischen Maadi und Zentrum, eine Totenstadt aus dem 9. Jahrhundert, die sich über 850.000 Quadratmeter erstreckt. Es ist einer der bedeutendsten Friedhöfe der jüdischen Welt. Außerdem leben schätzungsweise zwischen einigen 100 bis zu 2000 Bahai im Land, darunter viele in Kairo, die sich durch die Regierung diskriminiert sehen, da auf den ägyptischen Pässen die Religionsangabe Bahai nicht verfügbar ist, sondern nur zwischen muslimisch, christlich oder jüdisch gewählt werden kann. Theater. Ataba-Platz im Zentrum von Kairo Kairo beherbergt zahlreiche Theater, Opern- und Konzerthäuser. Das anlässlich der Eröffnung des Sueskanals im Jahre 1869 in Kairo errichtete Schauspielhaus brannte in den 1970er Jahren ab. Nach dem Wiederaufbau wurde es als Oper im Jahre 1988 wiedereröffnet und ist heute das Zuhause der „Cairo Opera Company“. Die Konzerthalle wird auch vom „Cairo Symphony Orchestra“ und der „Cairo Opera Ballet Company“ genutzt. Die Opernhausanlage beherbergt mehrere Galerien, darunter das Museum für Moderne Kunst. Das „Gomhouriya-Theater“ wurde ursprünglich als Kino gebaut und diente als Oper, als das Opernhaus nach dem Brand renoviert wurde. Heute wird das Gebäude als Konzerthalle für verschiedene Musikereignisse benutzt. Dort finden regelmäßig Aufführungen arabischer Musikgruppen und eines folkloristischen ägyptischen Orchesters statt. Das mit der „American University of Cairo“ verbundene „Wallace Theater“ bietet mehrmals im Jahr englischsprachige Stücke an. Es wird auch für Musikaufführungen – vom Jazz bis zu Kammermusik – genutzt. Ein weiteres Theater ist das „Al-Arayes“ (Cairo Puppet Theatre) am Ataba-Platz im Zentrum von Kairo. Die Vorstellungen des Marionettentheaters sind in arabischer Sprache. Aufgeführt werden dort klassische Stücke wie Alibaba oder Sinbad. Das Um-Kulthum-Theater (Al-Balloon Theatre) in Agouza führt Folklore, arabische Stücke und ägyptischen Volkstanz auf. Museen. Zu den bekanntesten Museen Kairos zählt das Ägyptische Museum am Tahrir-Platz. Das Museum wartet mit einer bedeutenden Sammlung ägyptischer Kunstschätze aus allen Epochen der altägyptischen Geschichte, so der Prädynastik, den Zwischenzeiten und der griechisch-römischen Zeit auf. Bevor der jetzige Standort bezogen wurde, war die Ausstellung altägyptischer Antikenstücke im Museum in der Nähe der Asbakiya Gärten untergebracht (1835–1855). Aufgrund chronischen Platzmangels wurden die Artefakte in das Museum nach Bulaq am Nil gebracht, wo sie bis zur flutbedingten Schädigung des Museums 1878 ausgestellt waren. Danach wurden die Exponate in Giza, im Palast des Khediven Ismail Pascha zwischengelagert und nur teilweise ausgestellt. Das heutige Gebäude in Tahrir wurde 1900 von der ägyptischen und britischen Regierung als Aufbewahrungsstätte für Fundstücke erbaut. Der ehemalige "Service des Antiques de l'Egypte" (heute "Supreme Council of Antiquities") wurde damit beauftragt, altägyptische Kunstschätze zu sammeln und die im Giza-Palast, dem Herrschaftssitz von Ismail Pascha, aufbewahrten Stücke dorthin zu bringen. Der Neubau des Museums und der Umzug der Ausstellung war bis zum Jahre 1902 komplett abgeschlossen. Diese Maßnahme sollte vor allem dazu dienen, Grabplünderungen aufzuhalten und so das wertvolle Kulturerbe für Ägypten zu erhalten. Kernstücke des Museums sind die Exponate aus dem Grab (KV 62) des Pharao Tutanchamun. Dazu gehören Streitwagen, Schmuck, Betten und weitere Möbelstücke. Die Särge aus vergoldetem Holz und Gold des Pharao und das Kernstück der Sammlung, die goldene Totenmaske des jugendlich anmutenden Königs, sind die wohl bekanntesten Attraktionen. Zu besichtigen sind weiterhin Alltagsgegenstände aus der mehr als 5.000 Jahre zurückliegenden Geschichte, monumentale Statuen, Mumien, Sarkophage und Münzen aus griechisch-römischer Zeit. Das Museum beherbergt heute mit rund 150.000 Ausstellungsstücken die größte Sammlung altägyptischer Artefakte weltweit. Das Museum Arabischer und Islamischer Kunst (eröffnet 1903) umfasst eine umfangreiche Sammlung zur frühen islamischen Kultur. Das 1910 von Marcus Simaika Pascha eröffnete und 1984 renovierte Koptische Museum verfolgt die Geschichte der koptischen Gemeinde in Ägypten zurück und ist auf den Ruinen der Römischen Garnisonsfestung Babylon erbaut. Im 1963 fertiggestellten Mahmoud-Khalil-Museum am Westufer des Nils sind Werke von Vincent van Gogh, Paul Gauguin, Peter Paul Rubens und anderen namhaften europäischen und ägyptischen Malern ausgestellt. Neben dem Hauptbahnhof befindet sich das kleine zweistöckige Ägyptische Eisenbahnmuseum der Egyptian National Railway (ENR). Im oberen Stockwerk sind Modelle von Transportmitteln aus der Zeit vor der Erfindung der Dampfkraft zu sehen, Lokomotiven, Waggons, aber auch Modelle des Wasser- und Lufttransportes. Zu den Ausstellungsstücken gehört auch ein Modell des Khediven-Zuges von 1859 mit Wagen für Offiziere, Minister und die Khediven-Familie. Im Erdgeschoss sind unter anderem Modelle von Brücken, Bahnhöfen und Expresslokomotiven aus der Khediven-Zeit ausgestellt. Dort steht neben anderen Zugmaschinen eine Originallokomotive, die 1862 für Prinzessin Eugenie in England hergestellt wurde. Sie verkehrte einst zwischen Ra's el Tin und dem Montaza-Palast in Alexandria. Gebäude in Kairo. Der Turm von Al-Dschasira برج الجزيرة Die Stadt Kairo ist überwiegend von Wüstengebiet umgeben, im Norden wird sie vom Delta des Nils begrenzt. Zum Stadtgebiet zählen auch eine Reihe von Inseln, die größte davon ist die zentral gelegene al-Gesira, auf der sich unter anderem das 1869 eröffnete Opernhaus und der 187 Meter hohe Fernsehturm befinden. Der aus Stahlbeton erbaute Turm erinnert in seiner Bauweise an eine Lotusblume. Der Fernsehturm wurde 1961 fertiggestellt und besitzt eine für den Publikumsverkehr geöffnete Aussichtsplattform. Mehrere Brücken verbinden die Insel al-Gesira mit den gegenüberliegenden Flussufern. Das Zentrum Kairos bildet der Tahrirplatz, an dem sich auch das Gebäude der Arabischen Liga, die Oman-Makran-Moschee und ein Busbahnhof befinden. Das Stadtbild wird durch viele historisch bedeutende Bauwerke geprägt. Von den mehreren hundert Moscheen zählen die im 9. Jahrhundert errichtete Ibn-Tulun-Moschee sowie die Azhar- und die Al-Hakims-Moschee (beide aus dem 10. Jahrhundert) zu den bekanntesten. Die Zitadelle im östlichen Teil der Stadt wurde im Jahre 1176 vom Sultan Salah ad-Din auf einer Anhöhe erbaut. Ihre verzierten Gebäude sind ein Teil der Silhouette von Kairo. Die Muhammad-Ali-Moschee ist die bemerkenswertere der beiden Moscheen in der Zitadelle. Sie besitzt mehrstöckige Kuppeln und ein Doppelminarett, das aus zwei der ältesten der berühmten „Tausend Minarette“ der Stadt besteht. Die 1125 fertiggestellte Al-Aqmar-Moschee im Norden der Muizz-Straße ist die erste Moschee Kairos, deren Hauptachse nicht nach Mekka ausgerichtet ist, sondern dem Straßenverlauf folgt. In der Altstadt von Kairo befinden sich sehenswerte Stadttore; sie sind Überreste einer ehemaligen, die Stadt umgebenden Befestigungsanlage. Von den ursprünglich acht Stadttoren sind jedoch nur noch drei erhalten (Bab al-Fotouh, Bab an-Nasr und Bab Zeuela). Die Märkte (Suqs), von denen sich zahlreiche auf bestimmte Waren wie Gewürze, Stoffe oder wertvolle Metalle spezialisiert haben, verbinden heutiges Wirtschaftsleben mit traditionellen Formen des Handels und Kunsthandwerkes. Gegenüber dem Ausgang der Metro-Station Mar Girgis befindet sich die „Hängende Kirche“, die Kanisa Mu'allaqa. Als „hängend“ bezeichnet man sie, da sie über dem einstigen Eingang des römischen Forts gebaut wurde und deshalb erhöht steht. Der Jungfrau Maria geweiht, wurde sie im 4. Jahrhundert gebaut und im 7. Jahrhundert zum Bischofssitz ernannt. Im 9. Jahrhundert wurde sie zerstört, dann aber im 11. Jahrhundert wieder aufgebaut und zum koptischen Patriarchalsitz erhoben. Seitdem wurde sie immer wieder renoviert. Die Fassade stammt aus dem 19. Jahrhundert. Die islamische Altstadt von Kairo wurde von der UNESCO im Jahre 1979 in die Liste des Weltkulturerbes aufgenommen. Außerhalb von Alt-Kairo, das von alten Wohnvierteln und engen Gassen geprägt wird, breitet sich das moderne Kairo mit Hochhäusern und breiten Straßenzügen aus. Einen Besuch wert sind auch die sogenannten „Totenstädte“, die bewohnten Friedhöfe Kairos. Während in anderen islamischen Ländern oder auch in Europa Tote unter der Erde begraben liegen, hat sich in Ägypten der pharaonische Totenkult gehalten: Statt die Menschen im Boden zu verscharren, baut man ihnen Häuser. Je mächtiger und reicher ein Mensch zu Lebzeiten war, desto größer und prachtvoller ist sein Mausoleum. Viele der Grabbauten haben mehrere Zimmer, um die herum eine Schutzmauer errichtet wurde. Der Leichnam ruht im Untergeschoss in einem Sarkophag aus Stein, der oft reich dekoriert und mit Koranversen verziert ist. Um die Jahrhundertwende wurden auch französische Architekten in Kairo tätig. Georges Parcq errichtete im Jahre 1928 die Börse ("Stock Exchange") an der "Cherifein Street", sowie im Jahre 1913 das Wohngebäude "Sednaoui " an der "Midan Khazindar". Weitere Werke waren die Mubarak-Bibliothek und die französische Botschaft. Pyramiden von Gizeh. Die Pyramiden von Gizeh, im Vordergrund die drei kleinen Königinnenpyramiden Die Pyramiden von Gizeh nahe Kairo gehören zu den bekanntesten Bauwerken der Menschheit. Nach der Zerstörung aller übrigen sechs Weltwunder der Antike sind sie als letztes erhalten geblieben. Die Pyramiden werden von den Ägyptern El Ahram („die Heiligtümer“) genannt und erheben sich auf einer Hochfläche, einem Ausläufer der westlichen Wüste etwa acht Kilometer südwestlich der Stadt Gizeh (Gîza), einem Kairoer Vorort. Die Pyramiden befinden sich somit rund 15 Kilometer vom Stadtzentrum entfernt, direkt an der Pyramidenstraße ("Scharia el-Ahram"). Die Theorie zur Funktion der Pyramiden besagt, dass diese vor etwa 4500 Jahren in einem Zeitraum von ungefähr 100 Jahren in der 4. Dynastie als Grabstätten dreier Pharaonen gedacht waren. Sie bilden das Zentrum einer riesigen Nekropole des Alten Reiches. Die mittlere der drei Pyramiden ist die Chephren-Pyramide, während die bekannteste und größte die Cheops-Pyramide ist. Die Chephren-Pyramide wirkt wegen ihres circa 10 Meter höher gelegenen Standortes etwas größer als die tatsächlich größere Cheops-Pyramide. Zusammen mit der dritten, der Mykerinos-Pyramide, wurden sie 1979 als Kulturdenkmal von der UNESCO in die Liste des Welterbes aufgenommen. Die Grabstätten sind das Ergebnis einer theologischen Entwicklung und einer brillanten technologischen Leistung, die den alten Baumeistern noch heute kein Architekt oder Statiker so einfach nachmachen könnte. In den Glaubensvorstellungen von einem ewigen Leben war der Pharao, der als Sohn Sonnengottes galt, der Vermittler zwischen Erde und Kosmos. Die Entwicklung einer zunehmend ausgeklügelten Grabstätte, von der Mastaba über die Stufenpyramide zur „echten“ Pyramide, sollte dem Herrscher nach seinem Tod den Aufstieg zum Firmament ermöglichen. Durch die dortige Vereinigung mit seinem Vater, dem Sonnengott Re, garantierte er seinem Volk Stärke und dem Land Fruchtbarkeit. Deshalb wurde er nach seinem Dahinscheiden auch verehrt. Im Osten einer Pyramide stand der Totentempel, der über einen Aufweg mit dem Taltempel verbunden war. Zum Taltempel, der seinerseits mit dem Nil verbunden war, wurde der tote Pharao wahrscheinlich in einer Barke zur Einbalsamierung gebracht. Eine Pyramide war einzig dem Pharao und seiner Gemahlin als Begräbnisstätte vorbehalten. Die Pyramide stellte die uneingeschränkte Macht der Pharaonen dar und gilt bis heute als Symbol der pharaonischen Kultur schlechthin. Die Große Sphinx von Gizeh. Die Sphinx von Gizeh, im Hintergrund die Cheops-Pyramide Frontansicht der Sphinx, im Hintergrund die Chephren-Pyramide Die Große Sphinx von Gizeh ist die wohl berühmteste und größte Sphinx und ragt schon seit mehr als viereinhalb Jahrtausenden aus dem Sand der ägyptischen Wüste. Sie stellt einen liegenden Löwen mit einem Menschenkopf dar und wurde in der 4. Dynastie circa 2700–2600 v. Chr. errichtet. Die Figur ist circa 73,5 Meter lang, sechs Meter breit und circa 20 Meter hoch. Allein die Vorderpfoten haben eine Länge von etwa 15 Metern. Farbreste am Ohr lassen darauf schließen, dass die Figur ursprünglich bunt bemalt war. Die Figur wurde aus dem Rest eines Kalksteinhügels gehauen, der als Steinbruch für die Cheops-Pyramide diente. Neben der Sphinx wurde ein Tempel errichtet, der mit dem Taltempel der Chephren-Pyramide fast exakt in einer Linie liegt. Thutmosis IV. errichtete zwischen den Pranken der Sphinx eine Stele, die sogenannte „Traumstele“, deren Inschriften aus seinem Leben berichten. Der Ursprung des arabischen Namens Abu l-Haul („Vater des Entsetzens“) ist nicht klar. Wozu die Sphinx diente, ist ebenso unbekannt, möglicherweise sollte sie das Plateau von Gizeh bewachen. Der deutsche Ägyptologe Herbert Ricke meint, dass die Statue zum Sonnenkult gehörte und Harmachis („Horus im Horizont“ – "Heru-em-achet") darstellt, einen Aspekt des Sonnengottes Horus. Möglicherweise ist die Statue aber auch ein Bild des Pharaos Chephren, dargestellt als Horus, oder auch ein Abbild des Cheops. Mark Lehner, der von 1979 bis 1983 an dem Sphinx geforscht hat, favorisiert wie andere Chephren als Erbauer. Der deutsche Ägyptologe Rainer Stadelmann bevorzugt dagegen König Cheops. Mit modernsten Methoden wurden in letzter Zeit andere Abbildungen und Statuen dieser beiden Pharaonen mit dem Kopf des Sphinx verglichen, eine eindeutige und zweifelsfreie Zuordnung war jedoch noch immer nicht möglich. Sicher scheint hingegen, dass man die Sphinx im Neuen Reich als eine Verkörperung des Sonnengottes Re-Harachte ansah. Sie war mehrmals im Sand der Wüste begraben und noch im 19. Jahrhundert war nur der Kopf sichtbar. Diesem Umstand ist wohl die gute Erhaltung zu verdanken. Doch in den letzten Jahrzehnten litt die über 4500 Jahre alte Sphinx stark unter dem Smog der nahe gelegenen Metropole und einem ständig steigenden Grundwasserspiegel. Jahrelange aufwendige Restaurierungsarbeiten lassen sie heute in neuem „Glanz“ erstrahlen. Heliakischer Aufgang des Sirius. Der Sirius war mit seinem heliakischen Aufgang ab ca. 2850 v. Chr. im Alten Ägypten der "Bringer der Nilflut". In der heutigen Zeit kann dieses Schauspiel am 6./7. August (je nach Sicht) beobachtet werden. Parks. Zu den vielen Parks in Kairo gehört der gepflegte „Gabalaya-Park“. Er wurde im 19. Jahrhundert angelegt und ist heute eine grüne Oase im Verkehrschaos der Stadt. Sehenswert sind die in labyrinthartigen Grotten gehauenen Aquarien mit Nilfischen. Die Anlage ist auch ein beliebter Picknickplatz für Einheimische und Touristen. Der größte Zoologische Garten Afrikas befindet sich neben der Universität von Kairo in Gizeh und wurde bereits im Jahre 1891 eröffnet. Er beherbergt rund 400 verschiedene Tierarten, darunter bis 2006 König Faruks Schildkröte, die mit 270 Jahren angeblich älteste Schildkröte der Welt. Die Tierhaltung ist in zahlreichen Fällen nicht artgerecht. Der Zoo ist vor allem freitags ein beliebtes Picknick- und Ausflugsgebiet der Einwohner Kairos. „Dr. Ragab's Pharaonic Village“ ist ein pharaonisches „Disneyland“, gelegen auf einem 150.000 Quadratmeter großen Gelände mit von Papyruspflanzen gesäumten Wasserwegen. Dort sind die genauen Nachbildungen alter ägyptischer Bauten zu besichtigen. Junge Ägypter zeigen in alten Trachten, mit Werkzeugen und Ackergerät im Stile ihrer Vorfahren das Leben und Arbeiten von damals. Ein Höhepunkt der Attraktionen ist die Nachbildung des Grabes von Tutenchamun. Der „Dream Park“ an der Oasis Road in 6th of October City, einem Vorort Kairos, ist einer der größten Themenparks im Nahen Osten für die ganze Familie, mit zahlreichen Fahrgeschäften, Attraktionen, Shows und über 20 Restaurants. Der Al-Azhar-Park ist eine Gartenanlage oberhalb der Al-Azhar-Moschee. Er wurde 2005 auf 30 Hektar eröffnet und vom Aga Khan Development Network (AKDN) mit 30 Millionen Dollar unterstützt, als Geschenk von Aga Khan IV., dessen Vorfahren im Jahre 969 die Stadt Kairo begründet hatten. Es ist der größte öffentliche Park von Kairo. Zuvor befand sich an dieser Stelle eine Mülldeponie, die sich in 500 Jahren aufgetürmt hatte. Bei der Anlage des Parks wurden Stadtmauern aus der Zeit der Ayyubiden gefunden, die Saladin im 12. Jahrhundert hatte erbauen lassen. Zum Projekt gehörten zudem die Restaurierung der Um Sultan Shaban Moschee aus dem 14. Jahrhundert, des Khayrbek-Komplexes aus dem 13. Jahrhundert sowie der Darb Shoughlan Schule. Im Park befinden sich auch Einrichtungen für soziale und gesundheitliche Dienste. Regelmäßige Veranstaltungen. In Kairo und Umgebung finden das ganze Jahr über zahlreiche Feste und Veranstaltungen statt. Dazu gehören unter anderem im Januar der „Internationale ägyptische Marathon“ in Gizeh, im Februar die Internationale Buchmesse, im März die „Cairo International Fair“, Afrikas größte Handelsmesse, und im Juli das „Dokumentarfilm-Festival“. Weitere bedeutende Veranstaltungen sind im September das „Festival des experimentellen Theaters“, das „Wafa el Nil Festival“, ein großes Folklorefestival, sowie der „Welttourismustag“, eine Veranstaltung mit Musik und Ständen, auf der sich die Regionen Ägyptens vorstellen. Im Oktober finden die „Pharaonen-Rallye“, eine Motorrad-Rallye, sowie der „Arabische Reise-Markt“, eine Touristikmesse, in Gizeh statt. Im Dezember werden das „Internationale Rowing Festival“, ein Ruder-Wettbewerb auf dem Nil, und das „Cairo International Film Festival“ veranstaltet. In Kairo sind vor allem zwei Mulids interessant und zwar das „Mulid Sayyidna Hussein“ im dritten islamischen Monat und das „Mulid Sayyida Zainab“ im zweiten islamischen Monat. Beide Mulids sind sehr große Feste, die zu Ehren des Enkels beziehungsweise der Enkelin des Propheten veranstaltet werden. Das Mulid der Zainab ist eines der größten im Land und wird mehrere Tage lang mit viel Musik, sufischen Tänzen, Gebeten und Prozessionen gefeiert. Ende März findet in Kairo jährlich die Kairo Konferenz, eine der derzeit bedeutendsten Anti-Kriegs-Konferenzen weltweit, statt. Kulinarische Spezialitäten. Kairo beherbergt viele Restaurants, die ägyptische wie auch internationale Küche anbieten. Die einheimische Küche wartet mit einer besonders großen Auswahl an Vorspeisen (mezze) auf, die dem Gast auf kleinen Tellern serviert und nach Landessitte mit dem Fladenbrot (aiesh balladi) gegessen wird. Unter den mezze finden sich häufig auch „tamaya“ (Gemüsefrikadellen) und „ful“ (Bohnenbrei), für einen Großteil der weniger verdienenden Ägypter tägliches Frühstück und wichtigste Hauptmahlzeit. Eine weitere ägyptische Spezialität ist Kuschari, ein Gericht aus Nudeln, Reis, Linsen und einer pikanten Sauce aus Tomaten und Röstzwiebeln. Das Fleisch von Rind, Huhn und Lamm (Schwein ist den Muslimen verboten) wird überwiegend auf dem offenen Feuer gegrillt oder im Ofenrohr gebrutzelt wie Hackfleischbällchen (kofta) und „kebab“. Empfehlenswert ist auch die Fischküche des Mittelmeeres und des Roten Meeres, in der Barrakudas, Garnelen, Hummer, Krabben und Tintenfische je nach Küstenregion verschieden zubereitet werden. Eine Spezialität der Mittelmeerküste ist der stark gepökelte „fesich“, ein Fisch, der sehr schmackhaft ist. Handel. Die Gameat al-Dowal al-Arabiya in Mohandessin Die zahlreichen Einkaufszentren, Geschäfte und Basare in Kairo bieten vielfältige Möglichkeiten zum Einkaufen. Der Wekalat Al-Balah-Markt bietet eine große Auswahl an Vorhängen. Geschnürt zu Tafeln werden diese in vielen kleinen Nischen, in den Gassen und in großen, palastartigen Läden, oft bis zu drei Schichten hoch, gestützt von weißen Säulen, verkauft. Der 1650 erbaute Tentmakers' Basar ist Kairos einzig erhaltener überdeckter Markt. Er liegt südlich von Chan el-Chalili. Dort werden Segelprodukte und geometrische Tapisserien angeboten. Kleidung jeder Art findet man auf den großen Märkten entlang der Sh. 26th July, nahe der 6. Oktober-Brücke, sowie in den Läden zwischen Midan Urabi und Talaat Harb, der Kairoer Flaniermeile. Rechts und links der Straßen gibt es Tausende von Läden mit vorwiegend westlicher Kleidung. Diese findet man auch in diversen Läden im World Trade Center. Einen ständigen Obst- und Gemüsemarkt findet man nahe dem Midan Urabi, an der Sh. Talaat Harb, und einen am Midan Falaki, der im gedeckten „Marché Bab el Louk“, einer Markthalle aus dem Jahre 1912, untergebracht ist. Auf dem Campus der American University of Cairo befindet sich die größte Buchhandlung Ägyptens, vor allem mit englischsprachiger Literatur zu Kairo und Ägypten, vielen Reiseführern, Bildbänden, Fachliteratur rund um den Islam und den Orient sowie einer großen Auswahl an Büchern zu Politik und Geschichte. Überblick. Kairo wurde durch die verkehrsgünstige Lage an der Drehscheibe zwischen Südeuropa, Orient und Schwarzafrika schon früh ein wichtiges Handelszentrum. Bedeutendste Produktionszweige sind die Metallverarbeitung, die Zementindustrie, die Herstellung von Möbeln, Schuhen, Tabakwaren und Textilien sowie das Druckgewerbe. Die Stadt ist als wichtigstes Geschäftszentrum des Nahen Ostens Sitz zahlreicher Konzerne und Wirtschaftsorganisationen. Der größte Wirtschaftsbereich der Stadt ist der öffentliche Sektor, einschließlich der Regierung, der öffentlichen Einrichtungen und des Militärs. Darüber hinaus ist der Fremdenverkehr von herausragender Bedeutung. Kairo ist das touristische Zentrum des Landes und dessen größte Deviseneinnahmequelle. Etwa ein Drittel aller ägyptischen Industriebetriebe sind im Raum von Kairo angesiedelt. Die Stadt ist das bedeutendste Verlagszentrum im Nahen Osten. Soziale Probleme. Die so genannte Informelle Wirtschaft macht in Kairo ungefähr ein Viertel der gesamten wirtschaftlichen Aktivität aus. Der Einzelhandel, das Handwerk, aber auch die Infrastruktur sind sehr stark davon abhängig. In diesem Bereich, in dem es keine soziale Absicherung gibt und die Arbeitsbedingungen katastrophal sind, arbeiten immer mehr Frauen und auch kriminelle Kinderarbeit hat dort ihre größte Verbreitung. Die Liberalisierung in der Wirtschaft, zu der auch der Abbau von Subventionen gehörte, hat die sozialen Lebensumstände verschlechtert. Die Arbeitslosigkeit ist sehr hoch. Zu den von der Regierung angegebenen rund zehn Prozent Arbeitslosen kommen noch zahlreiche nicht registrierte Erwerbslose hinzu. So gehen Schätzungen von einer Rate über 20 Prozent aus. Ein Drittel der Bevölkerung Kairos lebt unterhalb der Armutsgrenze, die Familien können sich ein Minimum an Nahrung und Obdach nicht leisten. Die im Stadtgebiet lebenden Menschen sind relativ gesehen heute ärmer als im Jahre 1958. Müllgebiet in "Ezbet an-Nachl", nordöstlich der Innenstadt Umweltprobleme. Probleme bereiten die unzureichende Infrastruktur und die, bedingt durch die Landflucht, außerordentlich große Wohnungsnot. Die Strom- und Wasserversorgung befindet sich in einem desolaten Zustand und es vergeht kaum ein Tag, an dem nicht baufällige Häuser einstürzen. In der Industrie, die sich in der Metropolregion Kairo konzentriert, bestehen nur ungenügende Entsorgungs- und Reinigungskapazitäten für Abwässer, Abgase und Abfälle. Zu den Infektionserkrankungen wie Cholera, Diarrhöe und Typhus, die durch unzureichende hygienische Bedingungen verbreitet werden, kommen so Atemwegs- und Hauterkrankungen aufgrund der giftigen Emissionen der vielen Industriebetriebe und des Kraftfahrzeugverkehrs. Besondere Probleme ergeben sich aus der oft direkten Nachbarschaft ärmerer Wohngebiete und der Industrie. Die Luftverschmutzung und die Zersiedlung historisch bedeutender Areale zerstören viele Kulturdenkmäler Kairos. Die Stadtverwaltung Kairos versucht dem entgegenzuwirken. So dürfen keine Industriebetriebe mehr in der Stadt angesiedelt werden und der Bau von Hochhäusern und großen Hotels soll gestoppt werden. Kfz-Hersteller. Des Weiteren existiert in Kairo der Automobilhersteller Speranza, welcher Fahrzeuge aus den Häusern Daewoo und Chery herstellt. Im Nutzfahrzeugsektor hingegen ist in Kairo die MCV Corporate Group ansässig, welche der Daimler AG angehört und sich mittlerweile zu einer eigenen Marke und einem weltweit agierenden Unternehmen entwickelte. Aber auch der älteste und größte Fahrzeughersteller des Nahen Ostens, die Ghabbour Group, hat hier seinen Sitz und ist mit 25 Prozent Marktanteil für die Hyundai Motor Company und auch Volvo Trucks sowie die Fuso von wichtigen Stellenwert. Dahinter rangiert die General Motors Egypt mit den Marken Chevrolet, Isuzu und Opel. Ein weiterer in Kairo ansässiger Automobilhersteller ist das zu Chrysler gehörige Unternehmen Arab American Vehicles. Nahezu unbekannte Automobilhersteller Kairos sind zum einen die Seoudi Group, welche für Suzuki, Nissan und auch den Fiat-Konzern Fahrzeuge produziert. Ein anderer Hersteller, der hauptsächlich im Nutzfahrzeugsektor rangiert, ist das Projekt Mod Car. Ein neuerer Automobilhersteller der Stadt ist die Egy-Tech Engineering, die sich auf dreirädrige Kleinstfahrzeuge spezialisiert hat. Ein mittlerweile erloschener Hersteller war die Egyptian Light Transport Manufacturing Company, welche den NSU Prinz unter dem Markennamen "Ramses" für den ägyptischen Markt montierte. Fernverkehr. Ein ausgedehntes Straßennetz verbindet die ägyptische Hauptstadt mit allen größeren Städten des Landes. Die wichtigsten Verbindungen von Kairo in nordwestliche Richtung nach Alexandria und an die Mittelmeerküste sind die Autobahn Nr. 1 durch das Nildelta und die Wüstenautobahn Nr. 11. In südliche Richtung am Nil entlang nach Luxor verläuft die Autobahn Nr. 2, in nordöstliche Richtung nach Port Said die Autobahn Nr. 3 und in östliche Richtung nach Sues die Autobahn Nr. 33. Der internationale Flughafen Kairo liegt in Heliopolis, 22 Kilometer nordöstlich des Stadtzentrums von Kairo. Die Inlandsflüge werden hauptsächlich durch Egypt Air und kleinen nationalen Linien angeboten, die jedoch alle über EgyptAir gebucht werden können. Man kann nach Alexandria, Assuan, Luxor, Taba, Abu Simbel, Kharga, Sharm el Shaikh und Hurghada fliegen. Mit der neu gegründeten Tochtergesellschaft Egypt Air Express kam eine Flotte von Embraer 170 auf den Inlandsflügen zum Einsatz. Die 12,5 km lange Brücke des 6. Oktober verbindet die Stadt mit dem Flughafen. Das ägyptische Niltal kann von Alexandria im Norden bis Assuan im Süden mit der Eisenbahn befahren werden. Die Bahn ist für afrikanische Verhältnisse komfortabel und schnell. Sie befördert den Reisenden vom Ramses-Bahnhof nach Alexandria, an den Sueskanal und entlang des Nils nach Süden. Ansonsten ist das gesamte Land von Kairo aus mit Fernbussen zu erreichen. In Kairo gibt es zehn Brücken über den Nil. Der zentrale Busbahnhof Turgoman liegt in der Nähe des Ramses-Bahnhofs. Von dort fahren die meisten Busse in alle Richtungen ab. In Heliopolis halten fast alle Busse, die Richtung Norden oder Sinai fahren, noch einmal. Wer hier wohnt kann auch erst dort zusteigen. Rund um den Ramses-Bahnhof gibt es außerdem ein paar weitere kleine Busbahnhöfe. Minibusse nach El-Fayum fahren nördlich des Midan Ulali ab, Minibusse nach Port Said und Ismailiya direkt südlich des Ramses-Bahnhofs an der Straße Richtung Midan Ulali. Nahverkehr. Rund zwei Millionen Autos fahren in der sehr dicht besiedelten Stadt. Probleme bereiten die täglichen Staus und die hohe Umweltverschmutzung. Straßenbahn. Die Cairo Transport Authority betreibt in Kairo und Heliopolis auf einer Länge von 30 Kilometern zwei miteinander verbundene meterspurige Straßenbahnnetze. Seit der Übernahme der früher selbständigen Heliopolis-Gesellschaft im Jahre 1991 unterstehen alle Strecken der CTA. Am 12. August 1896 wurde in Kairo die erste Straßenbahnstrecke eröffnet, in Heliopolis am 5. September 1908. Isoliert vom Netz in Kairo und Heliopolis betrieb die CTA seit dem 19. Februar 1981 auch einige neu gebaute Straßenbahnstrecken in der südlich von Kairo gelegenen Industriestadt Helwan mit zusätzlich 16 Kilometern Länge. Stadtbusse. Die 2.600 Omnibusse der Cairo Transport Authority befördern pro Jahr 1,3 Milliarden Fahrgäste. Die Busse verkehren auf 450 Linien mit einer Länge von 8.460 Kilometern. Der zentrale Busbahnhof für den Nahverkehr befindet sich in Kairo auf dem Midan Abdelmunim Riad zwischen dem Ägyptischen Museum und der Corniche. Das nahe gelegene Gizeh kann mit Minibussen vom nördlich des Midan Ulali gelegenen Busbahnhof erreicht werden. Der erste Oberleitungsbus fuhr 1950 in der Stadt. Nach 31 Jahren Betrieb wurde dieser am 22. Oktober 1981 eingestellt. Bildung. Die Metropolregion Kairo beherbergt zahlreiche Universitäten, Hoch- und Fachschulen, Akademien, Forschungsinstitute sowie Bibliotheken. Die Al-Azhar-Universität ist die berühmteste islamische Bildungseinrichtung der Stadt sowie eine der ältesten und angesehensten Bildungsinstitutionen der muslimischen Welt. Gleichzeitig besitzt sie eine hohe Autorität in islamischen Rechtsfragen (Scharia) für die sunnitische Glaubensrichtung, der 85 Prozent aller Muslime angehören. Oberhaupt der Universität war bis 2010 Scheich Muhammad Sayyid Tantawi. Die Bedeutung der Universität lässt sich auch an der Zahl der Studierenden ablesen, die völlig außerhalb dessen steht, was an US-amerikanischen oder europäischen Universitäten üblich ist: Im Jahr 2004 waren an der Azhar etwa 375.000 Studenten eingeschrieben, davon mit 150.000 fast die Hälfte Frauen. Rund 16.000 Dozenten lehren an der Al-Azhar. Weitere Universitäten in der Region sind die Universität Kairo (1908 gegründet), die American University in Cairo (1919), die Ain-Schams-Universität (1950), die Helwan-Universität (1975) und die German University in Cairo (2003) (alle in Kairo), die Misr University for Science & Technology (in 6th of October City), die Modern Sciences & Arts University (in Gizeh), The Arab Open University – Cairo Branch (in Nasr City) sowie The British University in Egypt (in El Shorouk City). Weitere bedeutende Bildungseinrichtungen sind die Arab Academy for Science & Technology & Maritime Transport, das Cairo American College, das Canadian International College, die Khedeve Ismail Secondary School, die Modern Academy, die Police Academy und die Sadat Academy for Management & Computer Sciences (alle in Kairo), die El Shorouk Academy (in El Shorouk City), das High Cinema Institute – Haram (in Gizeh), das Higher Technological Institute (in 10th of Ramadan City), die Modern Academy for Engineering & Technology (in Maadi) sowie das St Clare's College und das St George's College (beide in Heliopolis). Für die Allgemeinbildung in Kairo sorgen rund 1.000 Schulen. Die Schulbildung in Ägypten ist als Grundrecht in der Verfassung verbürgt. Die seit 1923 bestehende sechsjährige allgemeine Schulpflicht ab sechs Jahren wurde wegen Lehrermangels 1991 auf fünf Jahre verkürzt. Zum Hochschulzugang berechtigt die anschließende sechs Jahre dauernde Sekundarstufe. Das ägyptische Pendant zum deutschen Abitur ist die "ṯanāwīya ʿāmma". Grund- und Sekundarstufe sind generell kostenfrei. Die Anstrengungen im Bildungswesen führten in der Statistik zu einer Einschulungsrate von beinahe 100 Prozent für die Grundschule. Immerhin noch 75 Prozent der Kinder im entsprechenden Alter werden für die Sekundarschule angemeldet. Doch diese Zahlen verschleiern ein wenig die Realität an den Kairoer Schulen, denn es gibt zahlreiche Schulabbrecher (bis zu 30 Prozent). Oft haben Kinder keine Zeit für die Schule, denn, obwohl verboten, arbeiten viele Kinder, um zum Lebensunterhalt der Familien, meist in den ärmeren Stadtvierteln und informellen Siedlungen am Stadtrand lebend, beizutragen. Auch die Qualität der Schulbildung lässt zu wünschen übrig. Klassen mit mehr als 70 Schülern sind keine Seltenheit. Die schlecht bezahlten Lehrer sind unmotiviert, da sie von ihrem Gehalt kaum leben können. Obwohl Ägypten im Jahre 1998 den UNESCO-Preis für die Bekämpfung des Analphabetentums erhielt, liegt die Analphabetenrate in Kairo noch sehr hoch. Vor allen Dingen für Erwachsene ab 15 Jahren liegen die Schätzungen zwischen 40 bis 50 Prozent. Dabei liegt die Rate bei den Frauen um über zehn Prozent höher als bei Männern, da die Ausbildung von Mädchen von konservativen Familien teils noch immer als sekundär betrachtet wird. Söhne und Töchter der Stadt. Kairo ist Geburtsort zahlreicher prominenter Persönlichkeiten. Dazu gehören unter anderem der italienische Musiker und Komponist Miguel Ablóniz, der kanadisch-armenische Regisseur Atom Egoyan, der palästinensische Politiker Jassir Arafat, der Generaldirektor der Internationalen Atomenergie-Organisation Mohammed el-Baradei, der bedeutende arabische Denker Faradsch Fauda und der berühmte Literat und Denker der arabischen Welt Salama Moussa. Weitere Söhne und Töchter der Stadt sind die letzte Königin Ägyptens Nariman Sadiq, der König von Ägypten Fuad I., die Schauspielerin und Sängerin Marika Rökk, die ägyptischen Schriftsteller Nagib Mahfuz und Ala al-Aswani sowie der frankophone Schriftsteller Albert Cossery, der Islamwissenschaftler, Semitist, Orientalist und katholische Theologe Samir Khalil Samir, der albanische Schriftsteller und Übersetzer Andon Zako Çajupi und der Berater von Osama bin Laden und ägyptische Terrorist Aiman az-Zawahiri. Siehe auch: Liste von Persönlichkeiten der Stadt Kairo Konstanz. Konstanz (örtliche Aussprache, hochdeutsch) ist die größte Stadt am Bodensee und Kreisstadt des Landkreises Konstanz. Sie gehört zur Bundesrepublik Deutschland und liegt an der Grenze zur Schweizerischen Eidgenossenschaft. Seit dem 1. April 1956 ist Konstanz eine Große Kreisstadt und bildet ein Oberzentrum innerhalb der Region Hochrhein-Bodensee im Regierungsbezirk Freiburg des Landes Baden-Württemberg. In Konstanz sind zwei Hochschulen ansässig, die Universität Konstanz und die Hochschule Konstanz Technik, Wirtschaft und Gestaltung (HTWG). Die Geschichte des Ortes reicht bis in die römische Zeit zurück. Geographie. Konstanz liegt am Bodensee, am Ausfluss des Rheins aus dem oberen Seeteil direkt an der Grenze zur Schweiz (Kanton Thurgau). Die Schweizer Nachbarstadt Kreuzlingen ist mit Konstanz zusammengewachsen, so dass die Staatsgrenze mitten zwischen einzelnen Häusern und Straßen hindurch, aber auch zum Tägermoos hin entlang des Grenzbaches bzw. Sau-Baches verläuft. Bei gutem Wetter kann man die Alpen sehen, besonders bei Föhn. Auf der linken (südlichen) Rheinseite liegen vor allem die Altstadt und das Paradies; die meisten der neueren Stadtteile hingegen befinden sich auf der rechten (nördlichen) Rheinseite, auf der Halbinsel Bodanrück zwischen dem Untersee und dem Überlinger See. Die Konstanzer Altstadt und die westlich anschließenden Stadtteile sind die einzigen Gebiete Deutschlands, die südlich des Seerheins, auf der „Schweizer Seite“, liegen. Dieses Gebiet ist auch – neben der Kollerinsel bei Brühl – eines der beiden linksrheinischen Landesgebiete Baden-Württembergs. Die Agglomeration Konstanz-Kreuzlingen umfasst gut 115.000 Einwohner (2005). Viele Konstanzer haben ihren Erwerb in der Schweizer Nachbarstadt oder in deren Umgebung. Umgekehrt besorgen die Kreuzlinger ihren täglichen Bedarf häufig in Konstanz. Kreuzlingen und Konstanz arbeiten bei manchen Anlässen zusammen, so zum Beispiel beim Seenachtfest, der GEWA-Messe, beim zweitägigen Flohmarkt und beim gemeinsamen Bau der Eissporthalle. Ebenso gibt es einen teilweise gemeinsamen Busverkehr und gemeinsame Versorgungseinrichtungen (Stromnetz, Gasversorgung, Abwassernetz). Da die Schweiz nicht Teil der Europäischen Währungsunion ist, gibt es in beiden Städten nach wie vor unterschiedliche Währungen, den Euro (€, EUR) und den Schweizer Franken (SFr., CHF). Ferner existieren ein Grenzzaun (teilweise zurückgebaut), Grenzübergänge, Zollkontrollen sowie Einschränkungen des Waren- und Geldverkehrs. Seit die Schweiz im Dezember 2008 dem Schengen-Raum beigetreten ist, werden Personenkontrollen nur noch ausnahmsweise durchgeführt. Gültige Ausweispapiere sind aber beim Grenzübertritt mitzuführen. Das Stadtgebiet hat 34 Kilometer Uferlinie und umfasst 1,31 km² Wasserfläche. Tiefster Punkt ist der Seespiegel mit (Mittelwasserstand), der höchste Punkt mit liegt beim Rohnhauser Hof in Dettingen. Nachbargemeinden. Nachbargemeinden, also unmittelbar an das Stadtgebiet von Konstanz angrenzende Gemeinden, sind die Gemeinde Reichenau (Festlandsgebiete) und Allensbach im Landkreis Konstanz sowie Kreuzlingen, Gottlieben (keine Landgrenze, Grenze verläuft in der Mitte des Seerheins), Tägerwilen (Gemarkung Tägermoos) im Kanton Thurgau (Schweiz). Meersburg (Bodenseekreis) wird zwar durch den Bodensee von Konstanz getrennt, ist jedoch durch eine rund um die Uhr verkehrende Autofähre bei 15-minütiger Überfahrt mit Konstanz verbunden. Stadtteile. Das Stadtgebiet von Konstanz wird in 15 Stadtteile gegliedert. Dabei handelt es sich teilweise um ehemals eigenständige Gemeinden, die nach Konstanz eingegliedert wurden, andererseits auch um Stadtteile, deren Bezeichnungen sich im Laufe der Bebauung ergeben haben oder die nach einem besonderen Bezugspunkt benannt wurden. Auch die Stadtteile von Konstanz haben eine lange Geschichte. Sie gehörten überwiegend zum Kloster Reichenau und kamen später an die Deutschordenskommende Mainau und mit dieser 1805 an Baden. Hier gehörten sie zum Amt Konstanz, aus dem 1939 der Landkreis Konstanz hervorging. Nur die Innenstadt (Stadtteile Altstadt und Paradies) ist linksrheinisch, alle übrigen Stadtteile sind rechtsrheinisch. Die Veränderungen und Zerstörungen durch den Eisenbahnbau im 19. Jahrhundert und Einzelhandel und Straßenbau im 20. Jahrhundert sind teils einschneidend. Linksrheinische Stadtteile. Hussenstraße in der südlichen Altstadt Der Stadtteil "Altstadt" hat – nach der Einteilung durch die Stadtverwaltung – wesentlich mehr Fläche und Einwohner als das ebenfalls linksrheinische Paradies, weil der Stadtteil „Altstadt“ weit über die historische Altstadt innerhalb der früheren Stadtmauern hinausgeht und einen großen Teil dessen umfasst, was von den Konstanzern zum Paradies gezählt wird. Durch Aufschüttungen im Flachwassergebiet des Bodensees hat Konstanz immer wieder Land hinzu gewonnen. Beispiele sind die Marktstätte und der ehemalige Fischmarkt im 13. und 14. Jahrhundert. Die "Altstadt" von Konstanz ist besser erhalten als die in vielen anderen Städten Deutschlands, unter anderem da sie weder im Dreißigjährigen Krieg noch im Zweiten Weltkrieg nennenswert beschädigt wurde. Die Zahl der erhaltenen Bauten aus dem Mittelalter, als die Stadt ihre Blüte erlebte, ist groß. Die "Niederburg" innerhalb der Altstadt ist der älteste Teil. Das Gebiet erstreckt sich zwischen Münster, Konzilstraße, Rhein und Unterer Laube, dem einstigen Stadtgraben. Hier siedelten sich die Domherrenhöfe in Nähe des Münsters an. Die Niederburg ist Heimat der Narrengesellschaft Niederburg. Heute sind in den verwinkelten Gassen Weinstuben, Buchbinderei, Kunstglaser, weitere Handwerker, Behörden, das Dominikanerinnenkloster Zoffingen, das Landgericht, das Notariat, das Stadttheater Konstanz und die Spitalkellerei Konstanz angesiedelt. Die "Vorstadt Stadelhofen" innerhalb der Altstadt wird durch die Bodanstraße, die Schweizer Grenze, das Bahnhofsgelände und den Döbeleplatz begrenzt. An der Schwedenschanze wurden die Schweden im Dreißigjährigen Krieg an der Eroberung von Konstanz gehindert. Mit dem Anschluss Badens an den Deutschen Zollverein wurde Stadelhofen vorübergehend zum Zollausschlussgebiet. Georg Elser, dessen Attentat auf Hitler misslang wurde bei seiner Flucht an der Schwedenschanze verhaftet – eine Büste erinnert an ihn. Das Einkaufszentrum "LAGO" mit überregionalem Einzugsgebiet (auch weit in die Schweiz hinein) wurde an der Bodanstraße errichtet. Rechtsrheinische Stadtteile. "Petershausen" entstand wohl zusammen mit dem gleichnamigen Kloster und war ebenfalls eine eigenständige Dorfgemeinde, die aber bereits 1417 als Vorstadt in die Stadt Konstanz integriert, im 15. Jahrhundert in die Stadtummauerung einbezogen und von einem Hauptmann verwaltet wurde. Das zugehörige Reichskloster wurde 1802 aufgehoben. Der Stadtteil "Wollmatingen" wurde 724 erstmals als „VValamotinga“, 811 als „Walmütingen“ erwähnt. Konstanzer Vororte. Der Stadtteil "Staad" als ehemaliges Fischerdorf direkt am See ist seit Langem durch die Autofähre Konstanz–Meersburg mit dem auf der anderen Seite des hier beginnenden Überlinger Sees liegenden Meersburg verbunden. Der Stadtteil "Allmannsdorf" wurde 722 als „Alamantiscurt“ erstmals erwähnt. Er liegt oberhalb von "Staad". Wahrzeichen sind das ehemalige Rathaus an der Mainaustraße, der ehemalige Wasserturm an der Allmannshöhe (heute eine Jugendherberge) sowie die Lorettokapelle auf der Lorettohöhe; die Kreuzkirche wurde vom Bauhaus-Schüler "Hermann Blomeier" entworfen. In Egg befand sich in der Mainaustraße 252 vom August 1947 bis zum Abriss im Dezember 1961 ein Baracken-Lager für ostdeutsche Vertriebene und Flüchtlinge mit dem Ziel, sie in Konstanz zu integrieren. Der Teilort "Litzelstetten" wurde 839 als „Luzzilonssteti“ erstmals erwähnt. Im 14. Jahrhundert wurden die zwei Orte „Oberdorf“ und „Unterdorf“ unterschieden. Der Teilort "Dingelsdorf" wurde 947 als „Thingoltesdorf“, das von Konstanz aus dahinter liegende "Wallhausen" 1187 erstmals als „villa Walarhusin“ erwähnt. Der Teilort "Dettingen" wurde 811 als „Tettingen“ erstmals erwähnt. 839 kam der Ort an das Kloster Reichenau. Im 12. Jahrhundert herrschten Reichenauer Ministerialien im Ort. Es bestanden zwei Burgen, Altdettingen und Neudettingen, die spätestens seit dem 14. Jahrhundert abgingen. Die Reichenau hatte noch bis ins 18. Jahrhundert das Hochgericht über den Ort inne. Das Niedergericht unterstand seit dem 15. Jahrhundert der Deutschordenskommende Mainau. Gemarkungen. Darüber hinaus gehört als fünfte Gemarkung auch Tägermoos mit einer Fläche von 154 Hektar zu Konstanz, diese liegt allerdings linksrheinisch und auf dem Hoheitsgebiet der Schweiz. Ihr besonderer Status ist in einem Staatsvertrag von 1831 festgelegt. Ortschaften. Die ehemaligen Gemeinden Dettingen (heute unter dem Namen Dettingen-Wallhausen), Dingelsdorf und Litzelstetten sind zugleich Ortschaften im Sinne der baden-württembergischen Gemeindeordnung mit je einem Ortschaftsrat und einer Ortsverwaltung. Raumordnung. Konstanz ist nach dem Landesentwicklungsplan für Baden-Württemberg als Oberzentrum ausgewiesen. Dieses übernimmt für die Gemeinden Allensbach und Reichenau auch die Aufgaben des Mittelbereichs. Darüber hinaus gibt es Verflechtungen mit dem Kanton Thurgau in der Schweiz. Klima. Aufgrund der Lage am Bodensee herrscht in Konstanz typisches Bodenseeklima vor, es ist ganzjährig etwas milder als im Rest Deutschlands. Im Sommer kann es durch hohe Temperaturen und wenig Wind jedoch leicht zu Schwüle kommen. Da der Bodensee als Wärmespeicher fungiert, gibt es im Winter nur relativ wenige Frosttage (ca. 80), oft kommt es aber zu großflächigen Nebel- und Hochnebellagen, die sich oft tagelang nicht auflösen. 95 der durchschnittlich 160 trüben Tage liegen in den Monaten Oktober bis Februar. Eine Schneedecke liegt an ~30 Tagen im Jahr, hauptsächlich im Januar und Februar. Diese beiden Monate sind auch die kältesten mit 0,4 bzw. 1,2 °C. Wärmste Monate sind Juli und August mit 18,7 bzw. 18,1 °C. Auch in Konstanz verändert sich das Klima durch die Klimaerwärmung zusehends. Aufzeichnungen der privaten Wetterstation Kressbronn zeigen, dass die Temperatur im Vergleich zur Messperiode 1981–2010, 2007–2014 um 0,5 °C gestiegen ist, die Anzahl der Sonnenstunden sogar um knapp 360 auf 2061 Stunden pro Jahr (WeatherOnline verzeichnet allerdings nur eine Zunahme von ungefähr 110 Stunden). Damit ist Konstanz eine der wärmsten und sonnenreichsten Städte Deutschlands. Antike. Römisches Turmfundament auf dem Konstanzer Münsterplatz Bereits Ende des 2. Jahrhunderts v. Chr. siedelten Kelten, vermutlich vom Stamm der Helvetier, im Bereich der heutigen Niederburg. Unter Kaiser Augustus wurde das Gebiet um den Bodensee kurz vor der Zeitenwende für das Römische Reich erobert und gehörte fortan zur Provinz "Raetia"; das keltische "oppidum" wurde zerstört, und wenig später entstand im Gebiet des Münsterhügels eine kleine Siedlung, auch wenn die kaiserlichen Truppen unter Claudius zunächst wieder abgezogen wurden. Auch nördlich des Rheins finden sich im heutigen Stadtgebiet einige Hinweise auf römische Besiedlung. Wie die Ortschaft am Münsterhügel hieß, ist nicht sicher bekannt. In der "Geographike Hyphegesis" des Claudius Ptolemaeus (um 160 n. Chr.) wird aber eine Siedlung namens "Drusomagus" erwähnt (Ptolem. Geogr. 2,12,3), die eine Forschergruppe 2010 als das heutige Konstanz identifiziert hat. Im 2. Jahrhundert entstanden hier erste Steinbauten, im 3. Jahrhundert wurde die Siedlung zweimal befestigt. Zu einer Zäsur in der Stadtgeschichte kam es dann um das Jahr 300: Konstanz war in der Spätantike, nachdem die Römer das Dekumatland aufgegeben hatten, Ort einer linksrheinischen Grenzbefestigung (siehe Donau-Iller-Rhein-Limes). Spuren einer mächtigen spätrömischen Festungsanlage mit Mauer und Eckturm aus dem 4. Jahrhundert wurden seit 2003 am Münsterplatz ergraben und können heute zu einem kleinen Teil durch eine einen Meter hohe Glaspyramide betrachtet und (im Rahmen von Führungen) unterirdisch begangen werden. Dieses spätrömische Steinkastell "Constantia" diente primär der Verteidigung gegen plündernde Alamannen und der Kontrolle des Rheinübergangs. Offenbar erblühte im Schutz dieser Militäranlage – wie meistens – auch die zivile Siedlung. "Constantia" scheint dabei nicht unbedeutend gewesen zu sein. Die unweit der Festung gelegenen römischen Badeanlagen, die ebenfalls aus dem 4. Jahrhundert stammen, sind jedenfalls ungewöhnlich groß für diese Zeit. Auch der Name der spätantiken Anlage bezeugt ihre Bedeutung, denn benannt wurde der Ort, der nun zur Provinz "Raetia prima" gehörte, nach einem römischen Kaiser. In Frage kommt dabei zum einen Constantius I., der um das Jahr 300 Siege über die Alamannen errungen und die Grenzen des "Imperium Romanum" an Rhein und Donau noch einmal gesichert hatte. Da das unweit von Konstanz beim heutigen Stein am Rhein gelegene spätrömische Kastell "Tasgetium" durch eine Bauinschrift auf die Zeit zwischen 293 und 305 datierbar ist, spricht vieles dafür, dass auch "Constantia" um diese Zeit errichtet wurde. Nach Ansicht anderer Forscher trägt Konstanz hingegen den Namen seines Enkels, des Kaisers Constantius II., der 354 und 355 am Rhein und in der "Raetia" ebenfalls gegen die Alamannen kämpfte und sich vermutlich auch in Konstanz aufhielt, das möglicherweise aus diesem Anlass nach ihm benannt wurde. Vermutlich besuchte Kaiser Gratian 378 "Constantia", als er am Südufer des Bodensees nach Osten zog. Laut der um 420 verfassten "Notitia dignitatum", einem spätantiken Truppenverzeichnis, unterstanden die in Konstanz und Bregenz stationierten römischen Truppen einem "praefectus numeri Barcariorum" (Not. Dig. occ. 35, 32). Die erste sicher überlieferte Erwähnung des Ortsnamens "Constantia" stammt aus der Zeit um 525 und findet sich im lateinischen Reisehandbuch des romanisierten Ostgoten Anarid. Frühmittelalter. a> in der Altstadt von Konstanz Vermutlich um 585 zog der Bischof Maximus aus dem in der Völkerwanderungszeit etwas unruhigen Vindonissa (heute Windisch) in das geschützter liegende Konstanz um und wurde zum Stadtherren. Wohl um diese Zeit wurde, teils auf den Fundamenten der spätantiken Festung, ein erster Vorgängerbau des heutigen Münsters errichtet. Konstanz lag am Weg vom mittelalterlichen Deutschland über die Bündner Alpenpässe nach Italien, so dass es vom immer mehr aufblühenden Fernhandel im Mittelalter profitierte. In der Folge wurde die Stadt mehrfach in Richtung Süden erweitert, und auch der Hafen wurde mehrmals verlegt. Konstanz lag im Zentrum des Leinenhandels („Tela di Costanza“). Konrad von Konstanz, auch "Konrad I. von Altdorf" (* um 900; † 26. November 975) war Bischof im Bistum Konstanz von 934 bis 975 und wird seit 1123 als katholischer Heiliger verehrt. Aufenthalte in Rom ließen in ihm den Entschluss reifen, die städtische Topographie von Konstanz derjenigen von Rom anzugleichen. Unter dem Einfluss der Patriarchalbasiliken Roms ließ Konrad so zum Beispiel analog zu San Paolo fuori le mura eine Paulskirche errichten; in unmittelbarer Nähe entstand die Kirche St. Johann entsprechend San Giovanni in Laterano. Die ebenfalls vor der Stadt gelegene Laurentiuskirche (später Ratskapelle St. Lorenz; heute nicht mehr existent) ließ er erneuern. Unter dem Eindruck seiner Jerusalemer Pilgerfahrten ließ er dann die Mauritiusrotunde als Nachbau der Grabeskirche bauen, die nun als regionales Pilgerziel diente. Für diese unmittelbar beim Chor der Domkirche gelegene Kapelle richtete er eine Gemeinschaft von zwölf Kanonikern ein, die als dritte Kanonikergemeinschaft neben dem Konstanzer Münster und dem von seinem Amtsvorgänger Salomo III. eingerichtete Stift an der Stephanskirche jedoch nur kurze Zeit Bestand hatte. Reichsstadt (1192–1548). Die zunehmend autonomen Bürger der Stadt erkämpften sich 1192 und 1213 eine eigenständige, vom bisherigen Stadtherren – dem Bischof – unabhängige Position, und erhielten – so die Meinung einiger Historiker – schließlich den Status einer Freien Stadt bzw. Reichsstadt. Eine Reichsstadt definiert sich über die Reichsunmittelbarkeit, das heißt konkret, dass sie keine Steuern an den jeweiligen Landesherren, sondern alle Steuern direkt an den Kaiser, also das Reich, zu zahlen hatte. Da die Stadt Konstanz ihre Steuern nachweislich zur Hälfte an den Kaiser und zur Hälfte an den Bischof zahlte, lässt sie sich möglicherweise nicht dem reinen Typus einer Freien Stadt bzw. Reichsstadt zuordnen. Im Jahr 1295 erwarb Konstanz käuflich das Münzrecht und prägte den sogenannten Ewigen Pfennig, der nicht mehr der jährlichen Münzverrufung unterlag. Am 24. Mai 1312 schlossen sich die vier Städte Zürich, Konstanz, Schaffhausen und St. Gallen zu einem Städtebund zusammen. Auf dem Höhepunkt ihrer wirtschaftlichen und politischen Macht errichtete die Stadt am Hafen im Jahr 1388 ein Kaufhaus als Warenlager und -umschlagszentrum, das heutige Konzilgebäude. Durch die Erschließung des Gotthardpasses verlagerten sich die Handelsströme in der Folgezeit zunehmend auf die Route über Zürich–Basel, so dass die Entwicklung der Stadt im späteren Mittelalter stagnierte. Daher blieb die gotische Bausubstanz der Stadt von späterer Umgestaltung weitgehend verschont. Wichtigstes Handels- und Exportgut war rohe, gebleichte Leinwand, welche weithin bekannt war unter dem Namen "Konstanzer Leinwand" (tela di Costanza). Konzil von Konstanz. Von 1414 bis 1418 fand das Konzil von Konstanz statt. Das Konzilgebäude, in dem lediglich das Konklave der Papstwahl stattfand, steht heute noch am Bodenseeufer, gleich neben dem Konstanzer Hafen und Bahnhof. Der eigentliche Sitzungssaal war der Bischofsdom, das heutige Münster. Die Wahl von Martin V. am 11. November 1417 war die einzige Papstwahl nördlich der Alpen. Gleichzeitig wurde hier das abendländische Schisma von 1378 durch die Absetzung der Gegenpäpste und die Hinrichtung des tschechischen Reformators Jan Hus beendigt. Rom wurde als Sitz des Papstes bestätigt und festgelegt. Auf dem Obermarkt erhielt 1417 der Burggraf von Nürnberg durch Kaiser Sigismund die Mark Brandenburg als Lehen. Jan Hus wurde in dem der Seeseite zugewandten Rundturm des Inselklosters (heute Inselhotel auf der Dominikanerinsel) und später in der Burg des Bischofs von Konstanz in Gottlieben eingekerkert. Am 6. Juli 1415 wurde der Reformator anlässlich des Konzils als Ketzer verbrannt, seine Asche wurde in den Rhein gestreut. Der Prozess fand im Dom zu Konstanz statt. Hus wurde keine Gelegenheit zu detaillierter Stellungnahme zu den Anklagepunkten gegeben. Die Zusage des freien Geleits des Königs Sigismund wurde gebrochen. Die Hinrichtung wurde durch die weltlichen Mächte vorgenommen nach letzter Aufforderung des Abgesandten des Königs zum Widerruf. Das Hus-Denkmal an der Laube in Konstanz gegenüber der Lutherkirche wurde von Adéla Kacabová entworfen. Es wurde 2015 aufgestellt und eingeweiht. Es ist ein Geschenk der Tschechoslowakischen Hussitischen Kirche an die Stadt Konstanz. Das drei Meter hohe Denkmal aus Stein hat in seinem Sockel das Jahr 1415 eingraviert und zeigt im Mittelteil auflodernde Feuerflammen. Den Kopfteil des Denkmals bildet ein symbolischer Kelch als Symbol für Wahrheit und Versöhnung. Die Silhouette des Denkmals erinnert an die Figur Turm im Schachspiel, der Recht und Wahrheit symbolisiert. Ein schwarzer, querliegender Findling mit der goldenen Inschrift Johannes Hus am vermuteten mittelalterlichen Richtplatz (in der heute danach benannten Straße "Zum Hussenstein", auf dem Brühl, westlich der Altstadt, nahe der Schweizer Grenze) erinnert daran. Der als Hussenstein bezeichnete Findling erinnert zugleich auch an den ebenfalls auf dem Konstanzer Konzil am 30. Mai 1416 hingerichteten Hieronymus von Prag. Daher ist in die andere Seite des Steins Hieronymus von Prag eingraviert. Das Hus-Museum in der nach Hus benannten Hussenstraße beim Schnetztor mit Dokumenten zu Hus und der Hussitenbewegung galt lange Zeit als einer der Aufenthaltsorte von Jan Hus zu Beginn des Konstanzer Konzils und wurde 1923 von der Prager Museumsgesellschaft zum Gedenken an den Reformator eingerichtet. Der Name des "Jan-Hus-Hauses" (Studentenwohnheim) erinnert ebenfalls an die reformatorischen Thesen von Jan Hus und an sein Schicksal in Konstanz. Im 13. Jahrhundert war die Stadt nicht mehr nur Constantia genannt worden, sondern teilweise auch "Costanze" und "Kostinz". Im 15. Jahrhundert wurde aus letzterem durch einen Lesefehler die Bezeichnung "Costnitz", was dazu führte, dass das Konzil von Konstanz in der Literatur häufig als "Konzil von Costnitz" bezeichnet wird. Von 1895 an gab es daher eine Kostnitzer Straße in Berlin-Wilmersdorf, bevor ihr Name 1908 auf "Konstanzer Straße" geändert wurde. Im Tschechischen wird der Ort noch heute als "Kostnice" bezeichnet. Reformationszeit. Konstanz hätte sich im 15. Jahrhundert gerne der Eidgenossenschaft angeschlossen, was aber die Landorte der heutigen Schweiz nicht zuließen, weil sie ein Übergewicht der Städte befürchteten. Wäre Konstanz damals eine eidgenössische Stadt geworden, so wäre sie wohl heute anstelle von Frauenfeld Hauptstadt des Thurgaus, ihres natürlichen südlichen Hinterlands. Kuriose Folge davon ist die einmalige Tatsache, dass die Gemarkung zu einem kleinen Teil auf schweizerischem Territorium liegt, was zuletzt im Jahr 1831 vertraglich festgelegt wurde. In der Folge schloss sich Konstanz schweren Herzens dem Schwäbischen Bund an. Die Stadt gehörte 1529 zu den Vertretern der protestantischen Minderheit (Protestation) am Reichstag zu Speyer. Ihre Bürgerschaft forderte die ungehinderte Ausbreitung des evangelischen Glaubens. 1527 wurde Konstanz reformiert, und trat in der Folge dem Schmalkaldischen Bund bei. Die Bischöfe von Konstanz siedelten nach Meersburg in die Burg Meersburg um. Im Jahr 1548 wurde Konstanz wieder katholisch, die Fürstbischöfe behielten jedoch Meersburg als Residenzstadt bei. Pestepidemien. Im Jahr 1439 starben mehr als 4.000 Menschen in Konstanz an einer Krankheit. Die Pestepidemien des 16. Jahrhunderts im Bodenseeraum erfassten auch Konstanz in den Jahren 1518, 1519, 1529 und 1541/42. In den Jahren 1611/12 starb ein Drittel der Konstanzer Bevölkerung an Pest. Habsburgische Zeit (1548–1806). Abbruch der Konstanzer Rheinbrücke im Jahr 1799 auf Befehl des französischen Generals Haintrail Als nach der Entdeckung Amerikas der transalpine Handel, dem die Stadt ihren Reichtum verdankte, langsam an Bedeutung verlor, da sich die internationalen Handelsrouten verschoben, betraf dies auch Konstanz. Nach der Niederlage im Schmalkaldischen Krieg verlor Konstanz 1548 zudem den Status als Freie Stadt, wurde durch Schenkung des Kaisers an seinen Bruder Ferdinand in das habsburgische Vorderösterreich eingegliedert und im Zuge der Gegenreformation rekatholisiert. Die Stadt diente den Habsburgern als Bollwerk gegen eine weitere Expansion der Eidgenossenschaft nach Norden. Zur Festigung des katholischen Bewusstseins wurde mit einer Päpstlichen Bulle 1604 gegen Widerstände in der Stadt ein Jesuitenkolleg gegründet, als Gymnasium, das auch Franz Anton Mesmer von 1746 bis 1750 besuchte und das bis heute als humanistisches Heinrich-Suso-Gymnasium fortbesteht. Im Dreißigjährigen Krieg wurde Konstanz von den Schweden 1633 belagert, aber die Kernstadt wurde nicht eingenommen (siehe Seekrieg auf dem Bodensee 1632–1648). Zum Gedenken an den steckengebliebenen Vormarsch der Schweden ist neben der Brücke vom Festland zur Mainau das „Schwedenkreuz“, auf ein schwedisches Kanonenrohr montiert, im Bodensee zu besichtigen. Zur Förderung des wirtschaftlich daniederliegenden Konstanz siedelte die Regierung Vorderösterreichs 1785 in der Stadt hugenottische Emigranten aus Genf an, die ihre Heimat aus weltanschaulichen und wirtschaftlichen Gründen verlassen mussten. Zu diesen gehörte Jacques Louis Macaire de L’Or (1740–1824) und seine Familie. Neben der ersten Bank im damaligen Konstanz, richtete er auf der Konstanzer „Dominikanerinsel“ eine Indienne-Manufaktur mit Indigo-Färberei ein. Mit diesem Textilunternehmen legte er die Grundlage für den wichtigsten Konstanzer Industriezweig des 19. und 20. Jahrhunderts. Im Zuge des Ersten Koalitionskriegs besetzten französische Revolutionstruppen unter General Jean-Victor Moreau (1763–1813) 1796 Konstanz für zwei Monate. Im Zweiten und Dritten Koalitionskrieg nahmen französische Truppen Konstanz 1799 bzw. 1805 erneut ein. Infolge der wiederholten Besetzungen der Stadt verarmte Konstanz und dessen Bevölkerungszahl sank. Dies geschah weniger auf Grund direkter Kampfhandlungen als wegen der hohen Kosten für die Einquartierung, Ausrüstung und Verpflegung abwechselnd französischer und österreichischer Soldaten. Badische Zeit (1806–1952). Plan der Stadt Konstanz mit Befestigungsanlagen 1807 Großherzogtum Baden. 1806 wurde Konstanz dem neu gegründeten Großherzogtum Baden einverleibt und die Hauptstadt des Seekreises. Ansicht von Konstanz im Jahr 1842 (vermutlich mit Stadtmauern) durch William Turner Im Österreichisch-Französischen Krieg wurde Konstanz im Mai 1809 im Zuge der Kämpfe der Vorarlberger gegen die mit den Franzosen verbündeten Bayern vom See her belagert.Die Angriffe und die Belagerung wurden geleitet vom Hauptmann Bernhard Riedmiller aus Bludenz. Diese Erhebung brach aber bereits im Juli desselben Jahres wieder zusammen. In der badischen Revolution startete der Heckerzug mit mäßiger Resonanz von Konstanz aus. Dabei soll am 12. April 1848 auch die deutsche Republik ausgerufen worden sein, was allerdings von allen drei in Konstanz ansässigen Zeitungen, die über die entsprechende Rede berichteten, nicht erwähnt wird. 1863 wurde Konstanz an die Stammstrecke Mannheim-Basel-Konstanz der Badischen Staatseisenbahnen angeschlossen. Dies löste – zusammen mit der 1862 in Baden verkündeten Gewerbefreiheit – einen wirtschaftlichen Aufschwung aus, die Bevölkerung wuchs stark, und man riss die mittelalterliche Stadtmauer weitgehend ab. Mit den Trümmern wurden die Gräben zugeschüttet, mit Aushubmaterial aus dem vergrößerten Hafenbecken der Stadtpark – "Stadtgarten" genannt – zum See hin aufgefüllt. Modernisierungsmaßnahmen wurden in den Jahren von 1866 bis 1877 vom Konstanzer Bürgermeister Max Stromeyer angestoßen und durchgeführt, z. B. Bau der Seestraße, des Hafens, Eisenbahnanbindung an die Schweiz und Schulreform. Reste der letzten Stadtmauer sind noch an der Unteren Laube (dort als Rekonstruktion), am Schnetztor und seit ihrer Freilegung im Jahr 2008 auch entlang der neu angelegten Schlachttorgasse zu sehen. Am Rheinufer existieren in der Nähe der Rheinbrücke der Rheintorturm (siehe Bild) und auf Höhe der Unteren Laube der Pulverturm – in der Südwestecke der Stadt blieb das Schnetztor erhalten. Im Ersten Weltkrieg wurde die Außengrenze des Deutschen Reiches zur Schweiz abgeschottet, so dass die noch immer lebhaften Beziehungen der Stadt zu ihrem traditionellen Hinterland Thurgau stark eingeschränkt wurden. Konstanzer Arbeitspendler kamen nicht mehr nach Kreuzlingen, Thurgauer Bauern nicht mehr auf die Konstanzer Wochenmärkte, Schmuggel entstand. Der Aufschwung seit der Gründerzeit wurde damit beendet. Zwischen Konstanz und Lyon wurden ab März 1915 rund 180.000 schwerstverletzte Kriegsgefangene des Ersten Weltkriegs ausgetauscht. Zeit des Nationalsozialismus. 1935 wurde Konstanz Stadtkreis im Sinne der Deutschen Gemeindeordnung und vier Jahre später (1939) eine kreisfreie Stadt, indem sie aus dem Landkreis Konstanz ausgegliedert wurde. Die Stadt blieb aber Sitz der Kreisverwaltung des Landkreises Konstanz. In der Reichspogromnacht 1938 wurde die Konstanzer Synagoge von Angehörigen der Allgemeinen SS, Abschnitt XIX Konstanz, unter SS-Oberführer Walter Stein in Brand gesteckt. Eine Brandbekämpfung wurde der Feuerwehr nicht gestattet. Im Gegenteil versuchte man die Dachluken der Synagoge zu öffnen, um dem Feuer besseren Zug zu verschaffen. Anschließend wurde die Synagoge von der SS-Verfügungstruppe III./SS-Standarte Germania aus Radolfzell gesprengt. 16 männliche Juden wurden in das KZ Dachau verbracht. Einigen Konstanzer Familien gelang es bis 1939 noch, in die Schweiz, nach Palästina, England, USA, Argentinien und in asiatische Länder zu fliehen. Die Schweizer Bodensee-Kantone schotteten sich ab. Am Abend des 8. November 1939 wurde in Konstanz Georg Elser verhaftet, als er versuchte, in die Schweiz zu fliehen; Elser hatte zuvor in München eine Bombe platziert, um Adolf Hitler zu töten, doch war dieser dem Attentat durch Zufall entgangen. Im Jahr 1940 wurde einseitig von der deutschen Wehrmacht ein Grenzzaun zwischen Emmishofer Zoll und Seerhein errichtet. Fluchtversuche wurden von Juden, Kriegsgefangenen, Zwangsarbeitern und deutschen Deserteuren am Saubach versucht. Flüchtlinge, die es in den Thurgau geschafft hatten, wurden wieder an Deutschland ausgeliefert. Am 22. Oktober 1940 wurden 110 jüdische Konstanzer in das KZ Gurs nach Südfrankreich deportiert, die letzten acht in den Jahren 1941 bis 1944 nach Riga, Izbica und Theresienstadt. Die meisten von ihnen wurden in den Lagern ermordet. Im Zweiten Weltkrieg blieb Konstanz, obwohl wichtiger Industriestandort, anders als andere Städte am Bodensee wie zum Beispiel Friedrichshafen von alliierten Bomberangriffen verschont. Auch die Schweiz hatte vom 7. November 1940 bis 12. September 1944 eine Verdunkelungspflicht angeordnet. Die dortige Verdunkelung wurde wegen der Gefahr versehentlicher Angriffe auf Schweizer Städte am 12. September 1944 durch den Bundesrat aufgehoben. Dazu führte auch die gemäß alliierter Verlautbarungen irrtümliche Bombardierung von Schaffhausen am 1. April 1944. Daraufhin wurde von deutscher Seite die Verdunkelung der linksrheinischen Altstadt von Konstanz aufgehoben. So wurde die nicht offensichtliche Grenzlinie zwischen der Konstanzer Altstadt und Kreuzlingen weiter verwischt. Nun setzte sich die schweizerische Regierung vehement für eine Verschonung der deutschen Stadt ein. Die rechtsrheinischen Stadtteile, die durch den Seerhein klar von Schweizer Gebieten abgetrennt sind, wurden weiterhin verdunkelt, aber trotz der Firmen wie Degussa und Stromeyer nicht angegriffen. Französische Besatzungszone. Konstanz wurde am 26. April 1945 gewaltfrei eingenommen. Die 1. Französische Armee erreichte Konstanz über Radolfzell und Allensbach und fuhr von der Spanierstraße über die Alte Rheinbrücke. Zu ihrem eigenen Schutz nahm die Französische Besatzungstruppe mehrere hundert Konstanzer Bürger in der Klosterkaserne an der Rheinbrücke in Geiselhaft. Der Schulunterricht war für mehrere Monate ausgesetzt. Soldaten schenkten Kindern Schokolade und Kekse. In der Nachkriegszeit gehörte Konstanz innerhalb der französischen Besatzungszone zunächst zum Land Südbaden. Französische Truppen waren in drei Kasernen stationiert – der Klosterkaserne direkt bei der Rheinbrücke, der Jägerkaserne und der Chérisy-Kaserne. Am 18. Juli 1978 wurde die letzte französische Einheit verabschiedet. Konstanz im Land Baden-Württemberg. Im Jahre 1952 wurde Konstanz durch die Vereinigung von Baden, Württemberg-Baden und Württemberg-Hohenzollern eine Stadt im neuen Bundesland Baden-Württemberg. Sie gehörte fortan zum Regierungsbezirk Südbaden. 1953 wurde sie auf eigenen Wunsch wieder in den Landkreis Konstanz eingegliedert, und mit Inkrafttreten der baden-württembergischen Gemeindeordnung am 1. April 1956 wurde sie kraft Gesetzes zur Großen Kreisstadt erklärt. Mit der Gründung der Universität im Jahr 1966 wurde ein neuer Aufschwung der Stadt eingeleitet, der im Gegensatz zu vielen anderen Regionen in Deutschland zu Beginn des 21. Jahrhunderts noch andauert. Die Anwesenheit zahlreicher Studierender und Wissenschaftler hat die Stadt erkennbar verändert. Bei der Kreisreform 1973 wurde Konstanz Zentrum des vergrößerten Landkreises Konstanz, der gleichzeitig dem neu errichteten Regionalverband Hochrhein-Bodensee zugeordnet wurde. 1978 fanden in Konstanz die ersten Heimattage Baden-Württembergs statt. Bevölkerungsentwicklung. Konstanz hatte im Mittelalter und der frühen Neuzeit nur wenige tausend Einwohner. Nur während des Konzils von 1414 bis 1418 waren geschätzte 10.000-40.000 Menschen in der Stadt untergebracht. Die Bevölkerung wuchs nur langsam und ging durch die zahlreichen Kriege, Seuchen und Hungersnöte immer wieder zurück. So forderten Pestepidemien 1348 und 1518 sowie eine Hungersnot 1513 zahlreiche Todesopfer. Erst mit dem Beginn der Industrialisierung im 19. Jahrhundert wuchs die Bevölkerung sehr schnell. Lebten 1806 erst 4.400 Menschen in der Stadt, so waren es 1900 bereits 21.000. Bis 1950 verdoppelte sich diese Zahl auf 42.000. Mehrere Eingemeindungen Anfang und Mitte der 1970er-Jahre brachten einen Zuwachs von rund 10.000 Personen auf 70.000 Einwohner im Jahre 1975. Am 30. Juni 2005 betrug die Amtliche Einwohnerzahl für Konstanz nach Fortschreibung des Statistischen Landesamtes Baden-Württemberg 80.980 (nur Hauptwohnsitze und nach Abgleich mit den anderen Landesämtern). Dies war ein historischer Höchststand. Konstanz gehört nach dem deutlichen „Bevölkerungsrückgang“ gem. ZENSUS 2011 nicht mehr zu den 100 größten Gemeinden in Deutschland. Die folgende Übersicht zeigt die Einwohnerzahlen nach dem "jeweiligen" Gebietsstand. Bis 1833 handelt es sich meist um Schätzungen, danach um Volkszählungsergebnisse (¹) oder amtliche Fortschreibungen des Statistischen Landesamtes. Die Angaben beziehen sich ab 1871 auf die „Ortsanwesende Bevölkerung“, ab 1925 auf die Wohnbevölkerung und seit 1987 auf die „Bevölkerung am Ort der Hauptwohnung“. Vor 1871 wurde die Einwohnerzahl nach uneinheitlichen Erhebungsverfahren ermittelt. Christentum. Konstanz wurde Ende des 6. Jahrhunderts Sitz eines Bistums (Bistum Konstanz), das zur Kirchenprovinz Mainz gehörte. Die Stadt war Sitz eines Archidiakonats. Ab 1522 fand die Reformation zunächst einige Anhänger. Der Rat schloss sogar 1526 mehrere Klöster und 1529 wurden katholische Gottesdienste verboten. Doch musste Konstanz nach dem Übergang an Österreich 1548 wieder zum alten Glauben zurückkehren (Rekatholisierung). Die Protestanten gingen mehrheitlich in die Schweiz. Eine kleine Minderheit verblieb aber noch in der Stadt. Dennoch blieb Konstanz dann bis ins 19. Jahrhundert überwiegend katholisch. 1785 wurde wieder eine protestantische Gemeinde von Zuwanderern aus der Schweiz gegründet, 1796 jedoch wieder aufgelöst. 1820 entstand dann erneut eine protestantische Gemeinde. Plan der Konstanzer Altstadt (1843) Die katholischen Bewohner gehörten bis 1821 zum Bistum Konstanz und kamen dann zum neu errichteten Erzbistum Freiburg. Dieses wurde im Zuge eines von staatlicher Seite angestrengten landesherrlichen Kirchenregimentes geschaffen, um fortan die Bistumsgrenzen mit den politischen Grenzen des Großherzogtums Baden übereinstimmen zu lassen. Zur Auflösung des Bistums Konstanz, dessen historisches Gebiet weit über Baden hinausging, trug auch bei, dass der zum Bischof gewählte Generalvikar Ignaz Heinrich von Wessenberg wegen seiner liberalen Ansichten vom Vatikan nicht akzeptiert wurde. Konstanz wurde Sitz eines Dekanats (siehe Bistumsgliederung). Diese Gemeinden bzw. Kirchen haben teilweise eine sehr alte Tradition. Die Kirche St. Stephan wird bereits 615 erstmals erwähnt. Damals lag sie südlich außerhalb der Stadt und war evtl. Friedhofskirche. Im 10. Jahrhundert wurde sie Pfarrkirche der Bürgergemeinde. Die Pfeilerbasilika wurden 1770 barock umgestaltet. Die Dreifaltigkeitskirche war die Kirche eines Augustinereremitenklosters, das 1797 aufgelöst wurde. Dann gehörte die Kirche dem Spital. 1813 wurde die Pfarrei mit St. Jodok und Paul vereinigt. Damals erhielt die Kirche einen kleinen Turm. Die frühere Jesuitenkirche zwischen dem Münster und dem Stadttheater ist seit 1904 als Christuskirche die Pfarrkirche der 1873 gegründeten alt-katholischen Gemeinde. Jüngeren Datums sind die katholische Kirche St. Gebhard, die 1928/30 nördlich des ehemaligen gleichnamigen Klosters erbaut wurde, aber bereits 1920 eigene Pfarrei war, die Kirche St. Suso, 1937/38 erbaut und 1957 zur Pfarrei erhoben (1975 Neubau der Kirche), die Bruder-Klaus-Kirche, 1955 als erste Kirche nach dem Zweiten Weltkrieg in Konstanz erbaut und 1962 zur Pfarrei St. Nikolaus von Flüe erhoben, die Kirche Maria-Hilf, erbaut 1967 (seit 1970 Pfarrei) sowie die Kirche St. Gallus, 1971 erbaut. In den Stadtteilen von Konstanz gibt es weitere katholische Kirchengemeinden, die ebenfalls zum Dekanat Konstanz gehören. Die Gemeinde St. Martin Wollmatingen hat eine Kirche, die 1960 umgebaut wurde. Sie hat noch gotische Elemente. Zu Wollmatingen gehörte früher auch Allmannsdorf. Die dortige Kirche St. Georg, Unserer Lieben Frau, Peter und Paul, Pankratius und Martin wurde jedoch wohl im 16. Jahrhundert zur Pfarrei erhoben. Die katholische Kirche St. Verena Dettingen war zunächst Filiale von Dingelsdorf und wurde 1740 zur Pfarrei erhoben. Die spätgotische Kirche wurde 1779 barock umgestaltet. Die zur Pfarrei gehörige Kapelle St. Leonhard Wallhausen wurde 1714 erbaut. Die katholische Kirche St. Nikolaus Dingelsdorf ist eine spätgotische Saalkirche mit nachträglich aufgesetztem Westturm. Die katholische Kirche St. Peter und Paul Litzelstetten war zunächst ebenfalls Filiale von Dingelsdorf und wurde 1826 zur Pfarrei erhoben. Die spätgotische Kirche wurde im 18. Jahrhundert barock umgestaltet, das Schiff jedoch 1978 abgerissen und danach neu aufgebaut. Die Mariae Himmelfahrts-Kirche auf der ehemals politisch zu Litzelstetten gehörigen Insel Mainau wurde 1732 bis 1739 erbaut. Ferner gibt es weitere kleinere Kirchen und Kapellen. Die Schottenkapelle am Schottenplatz diente als Friedhofskapelle auf dem Schottenfriedhof, der von Mai 1785 bis 30. April 1870 Konstanzer Hauptfriedhof war. Ferner die Kapelle St. Martin im Paradies (erbaut 1922). Die wohl im 13. Jahrhundert erbaute Kapelle St. Lorenz am Obermarkt wurde später zur Ratkapelle umgebaut und 1839 profaniert. Zu den zahlreichen Klöstern bzw. Klosteranlagen vgl. den Abschnitt Bauwerke. Die 1820 gegründete protestantische Gemeinde Konstanz benannte sich nach Martin Luther. Die Gemeinde feierte zunächst in der ehemaligen Kapuzinerkirche, dann in der ehemaligen Jesuitenkirche ihre Gottesdienste, bevor 1873 die Lutherkirche errichtet wurde. 1918 entstand die Pauluspfarrei. In den 30er Jahren entstand in dieser Pfarrei eine zunächst als Provisorium gedachte Holzkirche. Nach erfolgreicher Renovierung und Umgestaltung des Innenraums wurde die Pauluskirche (Holzkirche) am 1. Advent 2007 unter großer Anteilnahme der Konstanzer Bevölkerung erneut feierlich ihrer Bestimmung übergeben. Von der Lutherpfarrei spaltete sich 1947 die Ambrosius-Blarer-Pfarrei ab. Aus den drei Pfarreien entstanden weitere Pfarreien. In Allmannsdorf entstand 1957 eine eigene Pfarrei. Zuvor wurden die Protestanten von der Pauluspfarrei Konstanz betreut. 1958 erhielt Allmannsdorf seine eigene Kirche (Kreuzkirche). Von der Pauluspfarrei spaltete sich für den Stadtteil Petershausen-West 1974 die Petruspfarrei ab, für welche eine eigene Kirche mit Gemeindezentrum neben dem Hauptfriedhof errichtet wurde. Zum 1. Advent 2006 werden die beiden Pfarreien Paulus und Petrus wieder zu einer gemeinsamen Gemeinde vereint, die den Namen „Evangelische Petrus und Paulus-Gemeinde Konstanz“ trägt. Auch die Protestanten in Wollmatingen wurden zunächst von der Pauluspfarrei betreut. 1935 entstand eine eigene Kirchengemeinde, nachdem 1934 die eigene Kirche erbaut worden war. Die Gemeinde gliedert sich in die Christuspfarrei und in die 1976 von ihr getrennten Johannespfarrei. Beide Pfarreien sind seit 2010 wieder in einem Gruppenamt vereint. Von Wollmatingen wurde auch Litzelstetten mit versorgt; 1969/70 erhielt der Ort eine eigene Kirche (Auferstehungskirche), an der 1971 eine eigene Pfarrei errichtet wurde. Die Protestanten von Dettingen und Dingelsdorf werden von der Nachbargemeinde Allensbach betreut. Alle genannten evangelischen Kirchengemeinden im Konstanzer Stadtgebiet gehören zum Dekanat Konstanz der Evangelischen Landeskirche in Baden mit Dekanatssitz in der Wollmatinger Gemeinde. Neben den beiden großen Kirchen gibt es in Konstanz auch eine alt-katholische Pfarrgemeinde, die in den ersten Jahren nach ihrer Gründung (1874) etwa 60 % der Konstanzer Bevölkerung umfasste, von denen die meisten aber wieder zur römisch-kath. Kirche zurückgekehrt sind. Im Bereich der Freikirchen gibt es mehrere Gemeinden, darunter eine Adventistengemeinde, eine Baptistengemeinde, eine Evangelisch-methodistische Kirchengemeinde, die Hillsong Church und eine Selbständig Evangelisch-Lutherische Gemeinde. Auch die Zeugen Jehovas, die Neuapostolische Kirche und die Kirche Jesu Christi der Heiligen der Letzten Tage sind in Konstanz vertreten. Judentum. Die mittelalterliche Judengemeinde der Stadt Konstanz war immer wieder Ziel von Verfolgungen. Der am Seerhein gelegene Pulverturm trug früher auch den Beinamen „Judenturm“, da die jüdische Bevölkerung der Stadt mehrfach gefangengenommen wurde und in diesem Turm teilweise jahrelang ihr Dasein fristen musste. 1537 wurde während der Reformationszeit die jüdische Gemeinde vollständig vertrieben. Erst 1847 wurde wieder eine jüdische Niederlassung in Konstanz genehmigt; 1862 trat das Emanzipationsgesetz in Baden in Kraft, woraufhin 1863 in Konstanz die israelitische Religionsgemeinschaft wieder ins Leben gerufen wurde. 1875 hatte sie 251 Mitglieder, 1895 bereits 528, etwa 2,5 % der Stadtbevölkerung. 1882/83 konnte in der Stadt an der heutigen Sigismundstraße eine Synagoge errichtet werden. 1936 wurde auf die Synagoge ein Brandanschlag verübt; während der Reichspogromnacht 1938 wurde sie in Brand gesteckt und schließlich von der in Radolfzell stationierten SS-Verfügungstruppe III./'Germania' zerstört. Schräg gegenüber der ehemaligen Synagoge, direkt hinter der Dreifaltigkeitskirche, steht ein Mahnmal für die 108 Konstanzer Bürger, die wegen ihres jüdischen Glaubens am 20. Oktober 1940 im Rahmen der sogenannten Wagner-Bürckel-Aktion in das südfranzösische Internierungslager Gurs deportiert und in den Vernichtungslagern Auschwitz-Birkenau oder Sobibor ermordet wurden. Am Ort der Synagoge errichtete der jüdische Geschäftsmann und Gründer der israelitischen Gemeinde Konstanz, Sigmund Nissenbaum (1926–2001), in den 1960er Jahren ein Wohn- und Bürohaus, das auch einen Gebetsraum enthält. Der Gebetsraum wurde 1999 zu einer kleinen Synagoge erweitert, die wie dieser schon seit den 60er Jahren der heutigen Israelitischen Kultusgemeinde Konstanz K.d.ö.R. (IKG) zur Verfügung steht. Gottesdienste finden an jedem Schabbat und an allen jüdischen Feiertagen statt. Hier in der Sigismundstraße 19 befinden sich auch Gemeindebüro und Gemeindezentrum der IKG, ebenso die Dr.-Erich-Bloch-und-Lebenheim-Bibliothek (Judaica) der Israelitischen Kultusgemeinde. An der Oberen Laube befand sich ein paar Jahre lang der Gebetsraum der vom Oberrat der Israeliten Badens ebenfalls unterstützten jüdischen Gemeinde in Gründung. Die zwischen den beiden Organisationen (Israelitische Kultusgemeinde und jüdische Gemeinde in Gründung) herrschende Uneinigkeit hat den Neubau einer Synagoge auf einem von der Stadt zur Verfügung gestellten Grundstück lange verzögert. Islam. Im Oktober 2001 wurde im Stadtteil Petershausen die Mevlana-Moschee der türkisch-islamischen Gemeinde eröffnet. Somit verfügen die etwa 3000 Muslime in Konstanz über ein eigenes Gebetshaus mit einem 225 Quadratmeter großen Gebetsraum, einer Kuppel mit zehn Metern Durchmesser und einem 35 Meter hohen Minarett, einem der höchsten in Deutschland. Buddhismus. Bereits seit 1984 existiert in Konstanz das Buddhistische Diamantweg Zentrum der Karma-Kagyü, das von Ole Nydahl gegründet wurde und unter der spirituellen Schirmherrschaft des 17. Karmapa Thaye Dorje steht. Daneben gibt es Gruppen weiterer buddhistischer Richtungen. Freimaurerei. In Konstanz existieren drei Freimaurerlogen, von denen die Johannisloge "Constantia zur Zuversicht" der Großloge der Alten Freien und Angenommenen Maurer von Deutschland untersteht. Die beiden anderen Logen, die Perfektionsloge "Jan Amos Comenius" und das Souveräne Kapitel "Pons Libertatis", arbeiten nach dem Alten und Angenommenen Schottischen Ritus. Auf der Insel Mainau ist durch die Familie Bernadotte der Schwedische Ritus vertreten. Die Konstanzer Logen unterhalten insbesondere enge Beziehungen in die Schweiz. Politik. Konstanz ist – wie in Südbaden üblich – traditionell politisch konservativ-liberal ausgerichtet. Durch die Gründung der Universität 1966 kam ein starker sozialliberaler Einschlag dazu, der um 1990 durch eine stärkere grüne Ausrichtung abgelöst wurde (siehe auch die aktuelle Zusammensetzung des Gemeinderates). 1996 wurde in Konstanz mit Horst Frank der erste grüne Oberbürgermeister Deutschlands gewählt und 2004 wiedergewählt. Seit 10. September 2012 ist mit Uli Burchardt wieder ein Christdemokrat Bürgermeister von Konstanz. Gemeinderat. Der Gemeinderat führt gemäß § 25 Absatz 1 Satz 2 Gemeindeordnung die Bezeichnung Stadtrat. Er besteht außer dem Oberbürgermeister aus 40 Gemeinderäten/Stadträten folgender Parteien/Listen. Konstanz ist die erste Stadt in Baden-Württemberg, die Gemeinderatssitzungen zeitversetzt als Podcast im Internet überträgt. Der Stadtrat in der Zusammensetzung nach der Kommunalwahl 2014 ist planmäßig am 3. Juli 2014 zur konstituierenden Sitzung zusammengetreten und löste damit den bisherigen Stadtrat ab. Sitzverteilung im Gemeinderat ab Juli 2014 Ortschaftsräte und Ortsverwaltung. Die Ortschaften Dettingen-Wallhausen, Dingelsdorf und Litzelstetten haben eigene Ortschaftsräte, welche die Ortschaften betreffende Fragen beraten; deren Entscheidungen sollen bei gemeindrätlichen oder Verwaltungsentscheidungen der Gesamtstadt gehört und möglichst berücksichtigt werden. Die Ortschaften haben jeweils einen Ortsvorsteher und eine Ortsverwaltung. Bürgermeister. Im Mittelalter waren Gericht und Rat in Konstanz in einer Hand unter Vorsitz des Vogtes. Nach dem Übergang an Österreich 1548 leitete der Stadtvogt die Amtsgeschäfte. Teilweise übernahm dieser auch die Aufgaben des Stadthauptmannes. Das Stadtgericht bestand aus einem Richter, der durch den kleinen Rat gewählt wurde und zwölf Beisitzern aus dem kleinen und großen Rat. 1785 ersetzte Österreich die Stadtregierung durch einen Magistrat mit einem Bürgermeister und fünf besoldeten Räten. Nach dem Anschluss an Baden 1805 gingen die gerichtlichen Angelegenheiten auf den Staat über. An der Spitze der Stadt stand dann der Bürgermeister, der ab 1818 hauptamtlich tätig war, ein Stadtrat und ein 32-köpfiger Bürgerausschuss. Ab 1870 wurden Bürgermeister und Rat unmittelbar gewählt. 1874 wurde der Oberbürgermeister vom Bürgerausschuss, der aus 96 Stadtverordneten bestand, gewählt. Er hatte eine neunjährige Amtszeit. Ihm standen ein Bürgermeister und ein Stadtrat aus 14 Mitgliedern zur Seite. Ab 1933 wurden Oberbürgermeister, Bürgermeister, Beigeordnete und Stadtrat vom Reichsstatthalter ernannt. Nach dem Zweiten Weltkrieg wurden mehrere Oberbürgermeister in Folge von der französischen Besatzungsmacht eingesetzt. 1946 wählte die Bevölkerung erstmals wieder einen Stadtrat, der den Oberbürgermeister wählte. Heute wird der Oberbürgermeister von den Wahlberechtigten für eine Amtszeit von acht Jahren direkt gewählt. Er ist Vorsitzender des Gemeinderats. Seine allgemeinen Stellvertreter sind der Erste und der Zweite Beigeordnete, jeweils mit der Amtsbezeichnung Bürgermeister. Der Oberbürgermeister Horst Frank (GRÜNE) wurde zuletzt am 25. Juli 2004 im zweiten Wahlgang für eine zweite achtjährige Amtszeit wiedergewählt. Die Beigeordneten sind Andreas Osner ((SPD), bis Juni 2013: Claus Boldt (CDU)) und Karl Langensteiner-Schönborn (seit Februar 2014, Baubürgermeister; vorher Kurt Werner (parteilos)). 2012 verzichtete Frank auf eine erneute Kandidatur. Uli Burchardt (CDU) wurde im zweiten Wahlgang zum neuen Konstanzer Oberbürgermeister gewählt und am 10. September 2012 vereidigt. Wappen. Blasonierung: Unter rotem Schildhaupt in Silber ein durchgehendes schwarzes Kreuz. Das schwarze Kreuz ist aus dem roten Bischofskreuz (des ursprünglichen Stadtherren, des Fürstbischofs von Konstanz) abgeleitet. Das rote Band (Zagel) am oberen Rand ist das so genannte Blutband, das die Blutgerichtsbarkeit der ehemaligen freien Reichsstadt symbolisiert. Das Recht auf eigene Trompeter, das Siegeln mit dem roten Wachs des Kaisers, der Könige und Kardinäle sowie der rote Balken über dem Stadtwappen wurde 1417 von Kaiser Sigismund gestiftet. Regio DACH. Konstanz ist Projektkoordinatorin im Städtenetz "Lernende Verwaltungen", welches acht Städte aus Deutschland, Österreich und der Schweiz D-A-CH rund um den Bodensee über die Grenzen hinweg miteinander verbindet. Im November 2014 wurden von Behörden des Landkreises Konstanz und des Kantons Thurgau eine grenzüberschreitende Sicherheitsübung durchgeführt, um die Konsequenzen eines längerfristigen, flächendeckenden Stromausfalls zu erkennen. Von der Konstanzer und der Kreuzlinger Feuerwehr werden gemeinsame Übungen und bei Bedarf auch gemeinsame Einsätze durchgeführt. Mundart. Konstanz gehört innerhalb des alemannischen Sprachraums zum seealemannischen Dialekt des Niederalemannischen, während schon die benachbarte Höri und der südliche Hegau nach den alten Dialektkarten im Bereich des Hochalemannischen liegen. Die Aussprache des Ortsnamens im alemannischen – und generell süddeutschen – Sprachgebrauch ist „Konschdanz“. Die süddeutschen Medien richten sich in der Regel nach der alemannischen Aussprache. Außerhalb des süddeutschen Raums wird der Ortsname bisweilen in Unkenntnis der einheimischen Aussprache und in (vermeintlicher) Anlehnung an die Gepflogenheiten der deutschen Hochsprache mit einem Binnen-„s-t“ als "Kons-tanz" ausgesprochen – bei Städtenamen wie "Immenstaad" wird der entsprechende Laut in der Regel mit "scht" ausgesprochen. Kunst. Im asiatischen Stil errichtete Bushaltestelle, Konzilstraße Gedenkstätten. Der Hussenstein erinnert an den Reformator Jan Hus, der hier hingerichtet wurde Friedhöfe. Der größte Friedhof in Konstanz ist der Hauptfriedhof. Auf dem Gelände des Hauptfriedhofs befindet sich der Jüdische Friedhof (Konstanz). Weitere Friedhöfe sind Allmannsdorfer Friedhof, Wollmatinger Friedhof, Litzelstetter Friedhof und der Friedhof Konstanz-Dettingen. Musik. Konstanz ist Sitz der Südwestdeutschen Philharmonie. Weitere musikalische Einrichtungen sind: das Kammerorchester "Concerto Constanz", der "Jazzclub Konstanz e. V.", das Universitätsorchester, zwei Bigbands, mehrere Blasmusikvereine sowie der "Sinfonische Chor Konstanz", das "Vokalensemble Konstanz", der Bachchor, der Kammerchor, der Universitätschor, der Jazzchor-Konstanz, der Frauenchor "zoff voices", "dezibella"-Konstanzer Frauenchor, mehrere Männerchöre, Männergesangvereine, ein Seniorenchor, ein Sängerverein, ein Shanty-Chor sowie ein schwul-lesbischer Chor. Seit etwa 20 Jahren wird jährlich im August die "Kammeroper im Rathaushof" aufgeführt. Naturdenkmäler. Bei Konstanz befindet sich das Naturschutzgebiet Wollmatinger Ried, welches als einer der wichtigsten Rast- und Überwinterungsplätze für Zugvögel gilt. Ein zweites Denkmal ist der Teufelstisch, eine Felsnadel unter der Wasseroberfläche des Überlinger Sees, die der Steilwand vor Wallhausen vorgelagert ist. Sport. Eine bedeutende Sportart ist der Handball. Durch den Zusammenschluss der Handballabteilung des TV Konstanz und des Handballvereins HC DJK Konstanz in den 1980er Jahren begann der kontinuierliche Aufstieg der HSG Konstanz, der Anfang der 2000er Jahre die Spielgemeinschaft bis in die 2. Handball-Bundesliga führte. Inzwischen spielt die HSG Konstanz in der 3. Liga und gehört dort zu den Spitzenvereinen. Darüber hinaus weist die HSG Konstanz eine sehr erfolgreiche Jugendarbeit auf. Aus acht Vereinen nehmen 17 Konstanzer Fußballmannschaften am Verbandsspielbetrieb teil. Die Fußballer der DJK Konstanz, welcher der älteste Fußballverein der Stadt ist, gehörten 1978 zu den Gründungsmitgliedern der Oberliga Baden-Württemberg und gehörten der Liga bis 1981 an. Der SC Konstanz-Wollmatingen und die SG Dettingen-Dingelsdorf spielen in der Landesliga Südbaden. Die Basketball-Herrenmannschaft des TV Konstanz stieg im Jahr 2010 unter dem Namen "HolidayCheck Baskets" nach mehrjähriger Zugehörigkeit zur 1. Regionalliga Südwest in die 2. Bundesliga Pro B auf. Nach dem sofortigen Wiederabstieg 2011 gelang mit der Meisterschaft in der Regionalliga Südwest 2012 wiederum der Aufstieg. Nachdem sich die Basketballer, nun mit dem Namen "ifm BASKETS", erneut nicht in der Liga halten konnten, spielen sie seit der Saison 2013/14 wieder in der Regionalliga Südwest. Rugby wird in Konstanz seit Mitte der 1990er-Jahre gespielt. Der Rugby Club Konstanz (RCK) spielt in der Regionalliga Baden-Württemberg. Sehr erfolgreich ist die Studentenmannschaft der beiden Konstanzer Hochschulen, die zwei der deutschlandweit erfolgreichsten Teams der letzten Jahre bei der alljährlichen Deutschen Hochschulsport Meisterschaft (DHM) stellt. Größter Erfolg bei den Herren war hierbei der deutsche Meistertitel im Jahr 2004 sowie der Vizemeistertitel 2005 und ein dritter Platz 2007. Die Damenmannschaft konnte nach der Vizemeisterschaft 2004 im Jahr 2011 die Deutsche Meisterschaft erringen. Am Tannenhof, im Stadtteil Allmannsdorf, befindet sich seit 1955 das Rollfeld des 1953 gegründeten Konstanzer Roll- und Eissportclub e. V. (KREC). Dort findet das Training des Rollkunstlaufs und Rollhockey statt, das auf Rollschuhen gespielt wird. Die Eiskunstläuferinnen trainieren in Zusammenarbeit mit dem Eislaufklub Kreuzlingen in der Eissporthalle Bodensee Arena. Erfolgreich ist auch der Ruderverein 'Neptun' Konstanz, der schon drei Sportler hervorbrachte, die zu den Olympischen Spielen gefahren sind – davon kamen zwei mit einer Goldmedaille zurück. Auf den Deutschen Meisterschaften und den Deutschen Jugendmeisterschaften können fast jährlich Medaillen gewonnen werden und auch auf Weltmeisterschaften sind die Ruderer des Neptuns in regelmäßigen Abständen vertreten. Darüber hinaus beheimatet die Stadt Konstanz den Lacrosse Club Konstanz e. V., eines der wenigen Lacrosse-Teams in Deutschland. Gegründet wurde der Verein Anfang 2009 und etablierte sich in der Zweiten Bundesliga Süd. Kultur. Der Trachtenverein "Alt-Konstanz" hält die Erinnerung an die Kleidung des wohlhabenden Konstanzer Bürgertums um 1850 wach. Die Frauen tragen die typische goldene Radhaube des Bodenseegebiets aus geklöppelten Spitzen. Regelmäßige Veranstaltungen. Zollernstraße zum Andenken an den Konstanzer Fasnachter Karl Steuer Jährlich im Januar/Februar wird Fastnacht (Fasnet) gefeiert. Am Mittwoch vor Fastnachtssonntag wird der Butzenlauf der Gemeinschaft maskentragender Vereine und Zünfte zwischen Schnetztor und Obermarkt abgehalten. Am Schmotzige Dunschtig um 19:00 Uhr startet der Hemdglonkerumzug in der Niederburg ab Inselgasse/Ecke Schreibergasse bzw. Gerichtsgasse. Der Umzug führt über Konradigasse, Klostergasse, Rheingasse, Münsterplatz, Wessenbergstraße und endet am Stephansplatz. Die Teilnehmer sind etwa 3.000 Schüler aus elf Konstanzer Schulen. Alle sind in weiße (Nacht-)Hemden gekleidet. Sechs Fanfarenzüge bringen Stimmung in den Zug. Vier bis acht überlebensgroße weiße Hemdglonkerpuppen (Gole von Goliath) werden mitgeführt. Die Schülergruppen zeigen im Umzug etwa 52 Transparente, auf denen typische Lehrer-Schüler-Konflikte humorvoll karikiert werden. Dann folgt der große Umzug am Fasnet-Sonntag um 14:00 Uhr, rund zwei Stunden lang, mit ungefähr 4.000 Teilnehmern verteilt auf etwa 75 Gruppen und mit bis zu 25.000 Besuchern. Der Zugweg führt vom Lutherplatz über die Laube, Stephansplatz, Fischmarkt, Marktstätte, Rosgartenstraße zur Dreifaltigkeitskirche. An ein markantes Fasnetshäs der „Konschtanzer Fasnet“ erinnert das Jahr über der „Blätzlebuebe-Brunnen“ am Blätzleplatz nahe der Hussenstraße. Traditionelle Konschdanzer Fasnetlieder werden in alemannischer Mundart gesungen. Anfang Juni 2009 wurde nach jahrzehntelanger Unterbrechung erstmals wieder die Wassersportveranstaltung Internationale Bodenseewoche in Konstanz durchgeführt. An ihre über einhundertjährige Tradition anknüpfend, ist die Bodenseewoche eine gesellschaftliche Plattform, auf der es neben der Ausstellungsmeile mit Präsentationen von Neuentwicklungen im Wassersport und Antriebsbereich auch ein Hafenfest mit kulturellen und sportlichen Veranstaltungen – Segelregatten, Ruderwettkämpfen, Wasserski-Cups, Oldtimer-PitStopps, Hafenkonzerten und Shows – gibt. Am zweiten Juni-Wochenende findet ein großer zweitägiger Flohmarkt statt. Er erstreckt sich über Kreuzlinger Straße, Laube, Rheinufer bis zur neuen Rheinbrücke. Es präsentieren 1.300 Händler und kommen 80.000 Besucher. Im Sommer wird zeitgleich mit dem Schweizer Nachbarn Kreuzlingen das Seenachtfest (in Kreuzlingen "Fantastical") am zweiten August-Wochenende veranstaltet. Dessen Höhepunkt ist das gemeinsame Seefeuerwerk. Daneben finden statt: im Juli das Weinfest sowie im Sommerhalbjahr viele Stadtteilfeste. Ende September bis Anfang Oktober das Oktoberfest, Mitte bis Ende Oktober der "Konstanzer Jazzherbst" und das Open-Air-Festival Rock am See. Im Dezember finden der Weihnachtsmarkt sowie das Silvesterschwimmen statt. Das DLRG-Silvesterschwimmen der Sport- und Rettungstaucher und -schwimmer in Neoprenanzügen führt Ende Dezember bei etwa 5° Celsius kaltem Wasser über 1,5 Kilometer vom Konstanzer Gondelehafen unter der alten Rheinbrücke hindurch zum Rheinstrandbad. Etwa 200 Schwimmer nehmen daran teil. Verkehr. a> der ersten Generation im Schweizer Bahnhof von Konstanz Konstanzer Hafen 1892 mit Raddampfer und ohne Imperia Die Katamaranverbindung von Friedrichshafen nach Konstanz Konstanz gehört dem Verkehrsverbund Hegau-Bodensee an und ist verkehrstechnisch auf Grund seiner Lage an der Grenze ein Endpunkt im Fernverkehr der Deutschen Bahn und SBB, während der vom Schweizer Unternehmen Thurbo (ein Subunternehmen der SBB) betriebene Schienennahverkehr grenzüberschreitend stattfindet. Durch den auf Schweizer Seite fertiggestellten Autobahnanschluss ist Konstanz bezogen auf den Autoverkehr gut an die Schweiz angebunden. Auf deutscher Seite steht ein entsprechender Anschluss noch aus. Mit dem nördlichen Bodenseeufer ist Konstanz durch eine häufig verkehrende Fähre verbunden. Diese Verbindung dient vor allem lokalen Pendlern und Touristen. Innerstädtisch ist in der Konstanzer Altstadt der Zugang zum See behindert durch die historisch bedingte Bahntrassenführung zwischen Altstadt und See und durch einen die Altstadt umrundenden, stark befahrenen Straßenring. Luft. Konstanz hat einen Verkehrslandeplatz, die nächsten Passagierflughäfen sind der deutsche Flughafen Friedrichshafen (30 km über die Fähre), der schweizerische Flughafen St. Gallen-Altenrhein (40 km), der schweizerische Flughafen Zürich-Kloten (75 km) und der Flughafen Stuttgart (150 km) und der Flughafen Flughafen Basel-Mülhausen (150 km), im Dreiländereck Deutschland-Schweiz-Frankreich. 1909 gegründet, gab es vom Konstanzer Flughafen seit 1919 Passagierflüge nach Berlin. Von 1925 bis 1940 betrieb die Deutsche Lufthansa einen Linienflug zwischen Konstanz und Frankfurt am Main. Straße/Fähre. Die Bundesstraße 33 verbindet Konstanz mit Radolfzell und weiter nach Singen, ab dort Anbindung an das deutsche Autobahnnetz über die Bundesautobahn 81 Richtung Stuttgart. Über die Autofähre Konstanz–Meersburg ist Konstanz mit Meersburg, dem nördlichen Seeufer und durch die B 33 / B 30 mit Ravensburg und Ulm verbunden. Im Anschluss an die B 33 führt die Schweizer Autobahn 7 Richtung Frauenfeld, Zürich sowie die Hauptstrasse 13 Richtung Rorschach, St. Gallen, Chur ins Tessin und in der anderen Richtung Schaffhausen. Die schweizerische Hauptstrasse 1 führt über Zürich und Bern nach Genf. Mittlerweile existieren mehrere Fernbuslinien von und nach Konstanz. Konstanz liegt an der Ferienstraße Deutschen Alleenstraße, die von Meersburg kommend zur Reichenau führt. Konstanz liegt außerdem im Einzugsgebiet der grenzüberschreitende Grünen Straße/Route Verte, die in den Vogesen in Contrexéville beginnt, bei Breisach am Rhein den Rhein überschreitet und in Donaueschingen endet. Bahn. Im Schienennahverkehr verbindet das S-Bahn-ähnliche Zugangebot „Seehas“ Konstanz mit Radolfzell, Singen und Engen. In Konstanz selbst werden der Bahnhof sowie die Haltepunkte Petershausen, Fürstenberg und Wollmatingen bedient. In absehbarer Zeit ist ein zusätzlicher Seehas-Haltepunkt am Busknoten „Sternenplatz“ vorgesehen. Der Bahnhof Konstanz ist Endpunkt der Hochrheinbahn. Der Bahnhof wird von Regionalzügen (IRE und RE) aus Karlsruhe bedient, deren Betreiber die "DB REGIO AG" ist und die unter dem Namen "Schwarzwaldexpress" bzw. "Schwarzwaldbahn" laufen. Ein tägliches Intercity-Zugpaar nach Hamburg und in den Sommermonaten auch Stralsund wurde im Dezember 2014 eingestellt; seitdem verkehrt nur noch ein Intercity-Zug aus Richtung Köln/Emden Freitag und Samstag nach Konstanz, Samstag und Sonntag in Gegenrichtung. In Singen besteht Anschluss an Intercity-Züge in Richtung Zürich und Stuttgart. Der „Schweizer Bahnhof“ neben dem Bahnhof Konstanz bietet eine direkte Verbindung zum Eisenbahnnetz der Schweiz. Im Fernverkehr verbindet der Schweizer Interregio Konstanz stündlich mit Zürich und Bienne. Durch Umsteigen eine Station weiter in Kreuzlingen können weitere Ziele in Richtung Stein am Rhein und Schaffhausen bzw. Rorschach und Romanshorn in die andere Richtung erreicht werden. Im Nahverkehr fahren regelmäßig Züge direkt in Richtung Weinfelden. ÖPNV. Die Stadt gehört dem Verkehrsverbund Hegau-Bodensee an. Es existieren mehrmals wochentags Schnellbuslinien nach Friedrichshafen (Zentrum und Flughafen) und Ravensburg. Das Omnibusliniennetz der Stadtwerke Konstanz verbindet tagsüber alle 15 bzw. 30 Minuten die links- und rechtsrheinischen Stadtteile. Zusätzlich ist es Zubringer zur Fähre Staad-Meersburg und zu den Schiffsverbindungen nach Überlingen ab Wallhausen. Auch die Nachbarstadt Kreuzlingen ist durch eine grenzüberschreitende Buslinie angebunden. Im Personenverkehr fahren ganzjährig tagsüber im Stundentakt Katamaranschiffe nach Friedrichshafen (etwa 45 min), die Autofähre von Konstanz-Staad nach Meersburg sowie Schiffe von Wallhausen nach Überlingen. Im Sommer und eingeschränkt im Winter existieren weitere Schiffverbindungen, die vorwiegend dem Tourismus dienen. Diese verbinden Konstanz mit Meersburg, Lindau, Bregenz, Überlingen, Schaffhausen, Radolfzell, Kreuzlingen sowie mit der Insel Mainau. Ab Konstanzer Hafen fährt im Sommer eine private Personenschifffahrt im Rundkurs nach Konstanz-Seestraße, Bodensee-Therme, dem Schweizer Bottighofen und zurück nach Konstanz-Hafen. Der ehemalige baden-württembergische Verkehrsminister Ulrich Müller gab im Mai 2004 an, dass die Stadtwerke Konstanz dank des Kaufs der Bodensee-Schiffsbetriebe die leistungsfähigste und lukrativste Binnenschifffahrtsgesellschaft Mitteleuropas sei und ein Angebot des öffentlichen Personennahverkehrs anbiete, das besser als das der Landeshauptstadt sei. Wirtschaftsstandort und Unternehmen. Relief der Konstanzer Altstadt als Orientierungshilfe für Touristen, Sprachunkundige und Blinde Über 3.300 Unternehmen mit mehr als 33.500 Beschäftigten bilden den Wissenschafts- und Wirtschaftsstandort Konstanz. Im produzierenden Gewerbe gibt es 10.000 Beschäftigte, während es im Dienstleistungsbereich etwa 23.500 sind. Viele Schweizer Unternehmen siedeln in Konstanz aufgrund der Grenznähe eine Niederlassung oder Tochtergesellschaft an. Kommunikations- und Informationstechnologie. Siemens ist mit den Bereichen Logistik für Postsortieranlagen, Pakete, Luftfracht und Fluggepäck vertreten. Chemie, darunter Pharmazie (Nycomed, ehemals größter Gewerbesteuerzahler, hat aber nach Übernahme der Altana Pharma AG im Jahre 2007 einen großen Teil der Arbeitsplätze in Konstanz abgebaut), Weiter sind Biotechnologie (GATC Biotech), Maschinenbau, Medien und Druck sowie regenerative und alternative Energien (Sunways, 1993–2014) vertreten. Die Stadtwerke Konstanz GmbH betreiben Busse, Fähren, Trinkwasserversorgung, Energieversorgung und die Bodensee-Schiffsbetriebe (BSB). Ein wichtiger Wirtschaftsfaktor ist auch der Tourismus sowie Tagungen und Kongresse. Im Jahr 2011 besuchten fast 280.000 Reisende Konstanz mit einer durchschnittlichen Aufenthaltsdauer von 2,3 Tagen. Die Zahl der Tagesgäste lag 2009 bei 6,1 Millionen Personen. Behörden und Gerichte. Konstanz ist Sitz des Landkreises Konstanz, der Industrie- und Handelskammer und der Handwerkskammer Hochrhein-Bodensee. Ferner hat die Stadt ein Amtsgericht, ein Landgericht, ein Sozialgericht, eine Staatsanwaltschaft und ein Notariat. Konstanz ist Sitz einer Bundesagentur für Arbeit, die seit 2012 zuständig für die Landkreise Bodenseekreis, Ravensburg und Konstanz ist. Konstanz ist zudem Sitz des Dekanats Konstanz des Erzbistums Freiburg und des Kirchenbezirks Konstanz der Evangelischen Landeskirche in Baden. Hauptübergänge. Hauptgrenzübergang und durchgehend geöffnet ist in Fortführung der B 33 der "Zoll an der Schweizer Autobahn A 7" nach Zürich. Der Zoll "Emmishofer Tor" führt Zollformalitäten nur während eingeschränkter Öffnungszeiten durch. Er verbindet die beiden Städte Konstanz und Kreuzlingen. Nebenübergänge. Der "Gottlieber Zoll" wird im Regionalverkehr zwischen Konstanz-Paradies, Tägermoos und Gottlieben benutzt. Hier ist noch ein Abschnitt des Grenzzaunes von 2,5 Meter Höhe zur Erinnerung belassen worden. Dieser Grenzzaun wurde von den Deutschen ab Winter 1939/40 zur Abschottung Deutschlands (zur Verhinderung des Informationsflusses über die Schweiz nach Frankreich sowie zur Verhinderung der Flucht der Juden und der politisch Verfolgten) errichtet. Das geschichtlich zu Konstanz gehörende Schweizer Gebiet Tägermoos wird auch heute noch in Kooperation mit den Schweizer Behörden von Konstanz mitverwaltet. Der Zoll "Kreuzlinger Tor" ist zur Verkehrsberuhigung der umliegenden Wohngebiete seit Ende 2013 probeweise und seit Ostern 2014 dauerhaft für den motorisierten Verkehr geschlossen. Fußgänger-/Fahrradübergänge. Der Grenzübergang "Klein-Venedig" liegt direkt am Seeufer und ist nur für Fußgänger und Radfahrer geöffnet: Im Bereich des etwa 280 Meter langen Streckenabschnitts der deutsch-schweizerischen Staatsgrenze an der Konstanzer Bucht ("Klein-Venedig") zwischen Konstanz und Kreuzlingen wurde im Herbst 2006 der Grenzzaun abgerissen. Stattdessen wurde am 22. April 2007 die "Kunstgrenze Konstanz/Kreuzlingen" direkt auf der Grenze (die eine Hälfte auf deutschem, die andere Hälfte auf Schweizer Staatsgebiet) mit 22 Skulpturen des Künstlers Johannes Dörflinger eingeweiht. Der Grenzübergang "Wiesenstraße" ist nur für Fußgänger und Radfahrer geöffnet. Die Straße trägt auf Konstanzer und Kreuzlinger Gebiet denselben Namen. Hörfunk und Fernsehen. Konstanz ist Sitz des lokalen Radiosenders Radio Seefunk, zudem sind Sendestudios von SWR Bodenseeradio und Radio 7 vor Ort. Seit 2005 gibt es das Freie Radio Radio Wellenbrecher. Die Studentenschaft ist durch das Uni-Radio Knatterton und das Studentenfernsehen Campus-TV und Fischersbraut mit eigenen Medien vertreten. Auch der regionale Fernsehsender Regio TV Bodensee ist mit einem Studio in Konstanz vertreten. Bildung. Die im Jahr 1966 gegründete Universität Konstanz ist die jüngste und kleinste der neun so genannten Eliteuniversitäten mit den Studienfächern Naturwissenschaften, Geisteswissenschaften, Rechts-, Wirtschafts- und Verwaltungswissenschaften. Des Weiteren gibt es seit 1971 eine Fachhochschule, heute Hochschule für Technik, Wirtschaft und Gestaltung, deren früheste Vorgängereinrichtung, eine Ingenieurschule, bis ins Jahr 1906 zurückreicht. Infolge des reformierten baden-württembergischen Hochschulgesetzes trägt die FH seit dem Jahr 2006 offiziell den Namen Hochschule Konstanz Technik, Wirtschaft und Gestaltung (HTWG), bzw. die offizielle internationale Bezeichnung "Konstanz University of Applied Sciences". An die HTWG angegliedert ist die Technische Akademie Konstanz gGmbH TAK. Das Institut für wissenschaftliche Weiterbildung wurde vom Stifterverband für die Deutsche Wissenschaft in einem bundesweiten Wettbewerb als „Beste deutsche Hochschule in Sachen Weiterbildung“ ausgezeichnet. Die Technische Akademie Konstanz hat ihren Sitz im Seminar- und Tagungszentrum „Villa Rheinburg“ in unmittelbarer Nähe zum Campus der HTWG. Seit 2012 hat die Hochschule für Wirtschaft und Umwelt Nürtingen-Geislingen mit dem "Bodensee Campus" einen Standort in Konstanz. Seit 2015 hat die "Allensbach Hochschule" (Nachfolger der Wissenschaftlichen Hochschule Lahr (WHL)) ihren Sitz in Konstanz. In Konstanz befinden sich 43 Kinder-Tageseinrichtungen, wozu Kindergärten, -tagesstätten, -häuser, -horte und -krippen gehören. Für die Schulbildung unterhält die Stadt sieben Grundschulen (Allmannsdorf, Dingelsdorf, Grundschule im Haidelmoos, Grundschule Im Wallgut, Litzelstetten, Wollmatingen und Sonnenhalde-Grundschule), vier Grund- und Hauptschulen (Berchenschule Wollmatingen, Gebhard-Grund- und Hauptschule, Grund- und Hauptschule am Stephansplatz und Grund- und Hauptschule mit Werkrealschule Dettingen). Eine Haupt- und Realschule (Mädchen-Haupt- und Realschule Zoffingen), eine weitere Realschule (Theodor-Heuss-Realschule) und die 1976 gegründete Geschwister-Scholl-Schule, ein Schulverbund, der die Schularten Hauptschule, Realschule, Gymnasium, sowie eine schulartübergreifende Orientierungsstufe (Klassen 5/6) beinhaltet. Die drei Schulzüge stimmen zum Teil die Unterrichtsinhalte ab. Auch ist ein Wechsel zwischen den Zügen in den ersten Jahren möglich. Es gibt fünf Gymnasien, das 1604 gegründete Heinrich-Suso-Gymnasium (altsprachlich), das 1830 gegründete Alexander-von-Humboldt-Gymnasium (mathematisch-naturwissenschaftlich, neusprachlich-literarisch-künstlerisch, gesellschaftswissenschaftlich) sowie das 1859 errichtete Ellenrieder-Gymnasium (neusprachlich), das Wirtschaftsgymnasium und das Technische Gymnasium. Darüber hinaus gibt es eine Musikschule. Der Landkreis Konstanz ist Träger der Wessenberg-Schule – Kaufmännische Schule (mit Berufsschule, Berufsfachschule, Berufskolleg, BVJ und Wirtschaftsgymnasium) und der Zeppelin-Gewerbeschule (mit Berufsschulen, Berufsfachschulen, Fachschulen und Technischem Gymnasium) sowie der Regenbogen-Schule für Körper- und Geistigbehinderte, der Schule für Kranke und des Schulkindergartens für Sprachbehinderte Konstanz. Ferner gibt es noch eine Förderschule (Comenius-Schule) Mehrere Privatschulen runden das schulische Angebot in Konstanz ab. So gibt es eine Abendrealschule, eine Altenpflegeschule des Berufsfortbildungswerks und der Arbeiterwohlfahrt, die Bio-Kosmetikschule Dr. Gümbel Konstanz-Meersburg, die Freie aktive Schule für Lebendiges Lernen (Grundschule), die Inlingua-Sprachschule, die Kunstschule Akademie für Grafik und Design, die Schule für Physiotherapie Konstanz GmbH, einen Sonderschulkindergarten für Körperbehinderte, die Säntis-Schule für Erziehungshilfe und die Schulen für Kranken- und Kinderkrankenpflege am Klinikum Konstanz. Konstanz ist Sitz einer Hauptstelle der Volkshochschule Konstanz-Singen e. V. Bäder. Konstanz mit seinen Stadtteilen hat sieben Bäder. Die "Bodensee-Therme Konstanz" ist ein am 22. Juli 2007 eröffnetes Thermalbad. Die Baukosten betrugen über 25 Millionen Euro. Sie hat ein Thermalbad mit Kindererlebniswelt, Saunawelt, Wellnessangebot und ein Sportschwimmbecken im Freien (nur im Sommer). Sie ist mit 384.752 Besuchern im Jahr 2014 das meistbesuchte Bad in Konstanz. Das Hallenbad am Seerhein dient dem Schul- und Vereinssport. Das Rheinstrandbad ist ein kostenpflichtiges Freibad und hatte 17.168 Besucher im Jahr 2014. Sonstiges. Zu Konstanz gehört auch die im Überlinger See liegende Blumeninsel Mainau. Sie wird jährlich von mehr als einer Million Touristen besucht. Konstanz ist die erste Stadt in Deutschland mit einem innovativen Straßenbeleuchtungssystem. So können Bürger im Stadtteil Allmannsdorf nach 23 Uhr die Straßenlaternen per Knopfdruck anschalten. Nach 15 Minuten geht die LED-Beleuchtung automatisch wieder aus. Das Weingut Haltnau zwischen Meersburg und Hagnau gehört der Spitalkellerei Konstanz, so dass ein Wein aus Meersburger Lage in Konstanz erzeugt wird (Wendelgard-Sage). Im Grenzgebiet der zentralasischen Gebirge Hindukush, Pamir und Karakorum existiert ein 5902 m hoher Berg mit dem Namen „Constancia Sar“ (Konstanz-Gipfel). Der Schutzpatron der Stadt ist Pelagius von Aemona. Vom Hafen nach Staad. Vom Hafen durch den Stadtgarten, dann auf dem Susosteig vorbei am Inselhotel (Kreuzgang ansehen!) entlang des Bahngleises über die Rheinbrücke. Am anderen Ufer auf die Seestraße hinunter und weiter immer am See entlang. Repräsentative Gebäude des Historismus entlang des ersten Teils der Seestraße, danach an Villen mit moderner Nachverdichtung entlang bis zum "Hörnle", dem großen, kostenlosen Freibad. Dort weiter am See, am Lorettowald entlang, vorbei am Wasserwerk nach Staad – zum Landeplatz der Autofähre Konstanz–Meersburg oder etwas oberhalb weiter zur Brauerei am Hohenegg. Entlang des Grenzbachs. Auf Konstanzer Seite ab Emmishofer Zoll entlang des Grenzbachs, dann am Gottlieber Zoll (dort Tafel über Bau und Funktion des Grenzzauns) die Grenze überqueren und auf Schweizer Seite weiter bis zur Mündung des "Saubachs" in den Seerhein. Zurück wieder zum Gotttlieber Zoll, evtl. dort auf deutscher Seite zum "Schänzle" am Seerhein, dort am Ufer entlang bis zur Rheinbrücke. Von der Marktstätte nach Gottlieben. Vom Konstanzer Hafen über die Marktstätte, Kanzleistraße in die Gottlieber Straße. Am Ende dieser Straße wird die B33n über eine Fußgängerbrücke überquert und kurz danach der Gottlieber Zoll zur Schweiz hin passiert (alter Grenzzaun). Rund 400 Meter nach der Grenze wird der Fußweg Richtung Seerhein eingeschlagen. Der Weg führt nahe dem naturbelassenen Ufer Richtung Gottlieben. Am Wegesrand kurz vor Gottlieben liegt die ehemalige Wasserburg, das heutige Schloss Gottlieben mit zwei Türmen aus dem 14. Jahrhundert. Ab Gottlieben mit dem Schiff nach Konstanz. Jakobsweg. In Konstanz endet der von Ulm herführende Oberschwäbische Jakobsweg und die von Tübingen herführende Via Beuronensis. Als Schwabenweg führt der Jakobsweg mit Ziel im spanischen Santiago de Compostela vom Konstanzer Münster mit seiner Mauritiusrotunde weiter über die Hofhalde und durch die Wessenbergstraße bis zur Schweizer Grenze. Von dort führt er in den Thurgau und weitere Schweizer Kantone. Die Entfernung von Konstanz bis nach Santiago de Compostela beträgt 2340 Kilometer. Echter Kümmel. Echter Kümmel ("Carum carvi"), meist einfach Kümmel, regional auch Wiesen-Kümmel oder Gemeiner Kümmel genannt, ist eine Pflanzenart in der Familie der Doldenblütler (Apiaceae). Kümmel ist eines der ältesten Gewürze. Beschreibung. Stängel und Blattansatz mit Scheide Vegetative Merkmale. Kümmel ist eine sommergrüne, zweijährige krautige Pflanze und erreicht meist Wuchshöhen von 30 bis 80 Zentimeter, unter günstigen Bedingungen auch bis zu 120 Zentimeter. Die Pflanze entwickelt eine rübenartige Wurzel. Der kahle Stängel ist sparrig verzweigt. Die Laubblätter sind zwei- bis dreifach gefiedert und im Umriss länglich. Die Teilblätter letzter Ordnung sind fiederteilig mit fein zugespitzten Zähnen und Spitzen. Ihre Blattabschnitten sind bei einer Breite von höchstens 1 Millimeter linealisch. Die untersten Fiederpaare 2. Ordnung sind deutlich abgerückt und kreuzweise gestellt. Die oberen Stängelblätter besitzen eine Scheide mit nebenblattartigen Fiederpaaren. Generative Merkmale. Die Blütezeit erstreckt sich von Mai bis Juli. Die Doppeldolden besitzen 8 bis 16 Strahlen. Hüllen fehlen meist. Es sind manchmal bis zu zwei Hüllchen vorhanden. Die Blüte ist weiß bis rosafarben oder rötlich. Die Samenreife beginnt im Juni bis August. Die kahle Spaltfrucht, Doppelachäne genannt, ist bei einer Länge von 3 bis 7 Millimeter und einer Breite von 0,7 bis 1,2 Millimeter oval und zerfällt in zwei Einzelfrüchte. Die leicht sichelförmig gebogenen und an beiden Enden spitz deutlich gerippten Einzelfrüchte sind an der Außenseite dunkelbraun und an der Innenseite hellbraun gefärbt. Die volkstümlich „Kümmelsamen“ genannten Einzelfrüchte besitzen einen charakteristischen Duft, wenn sie zerrieben werden. Die Chromosomenzahl beträgt 2n = 20 oder 22. Ökologie. Der Echte Kümmel ist eine zweijährige Halbrosettenpflanze mit Wurzelrübe. Blütenökologisch handelt es sich um intensiv duftende „Nektar führende Scheibenblumen“. Bestäuber sind Fliegen und Käfer. Die Früchte werden durch Huftiere ausgebreitet; daneben erfolgt Zufallsausbreitung durch den Menschen. Die Samen sind Lichtkeimer. Die Samenreife beginnt im Juni bis August. Vorkommen. Der Wiesen-Kümmel ist in Vorderasien und den Mittelmeerländern beheimatet. Die Verbreitung erstreckt sich heute bis nach Europa und Sibirien. Wild wächst der Wiesen-Kümmel an Wegrändern und Wiesen. Er tritt in kollinen, subalpinen bis alpinen Höhenstufen auf. Er ist Kennart der pflanzensoziologischen Ordnung Arrhenatheretalia. In den Allgäuer Alpen steigt der Wiesen-Kümmel im Tiroler Teil am Luxenacher Sattel bis in eine Höhenlage von 2070 Meter auf. Geschichte. Kümmelfrüchte wurden in Ausgrabungen von Pfahlbauten gefunden, die sich auf 3000 v. Chr. zurückdatieren lassen. Seine Verwendung in der Küche lässt sich bereits in dem Apicius zugeschriebenen Kochbuch De re coquinaria nachweisen, das wahrscheinlich im 3. Jahrhundert n. Chr. entstand. Von Plinius dem Älteren und Pedanios Dioscurides wird der Kümmelanbau erwähnt. Dioskurides nennt den Samen einer Pflanze namens „Karos“ verdauungsfördernd (wie Anis), bei Plinius „Careum“. Gerhard Madaus hält aber erst das „careum“ im Capitulare Karls des Großen für identisch mit dem nordischen Wiesenkümmel. Nach von Haller hilft er der Verdauung, bei Unterleibsschmerz und Harnsteinen, Hecker verwendete ihn bei Hypochondrie, Hysterie, mangelnder Milchsekretion und Brustleiden, Leclerc bei Luftschlucken, Dinand bei Amenorrhoe. Bohn nennt ihn bei mangelnder Milchsekretion, Magen- und Uteruskrämpfen, Zörnig auch als Expektorans. Kümmel ist laut Madaus ein beliebtes Stomachikum und Karminativum bei Blähungen, Magenkrämpfen, Magenschwäche, Dyspepsie und Enteritis besonders für Kinder, seltener bei Milch- oder Wehenschwäche, Amenorrhoe und als Diuretikum. Die Volksmedizin kenne ihn als Karminativum und Galaktogogum. Äußerlich werde Kümmel als warme Auflage bei Ohren-, Kopf- und Zahnweh benutzt, Kümmelöl bei Erkrankung der Atmungsorgane, Rachitis und Hautparasiten. Zumeist gelten nur die reifen Samen als wirksam, Erntezeit Anfang Juli, wenn sie sich zu bräunen beginnen. Anbau und Ernte. Der Echte Kümmel wird als Gewürzpflanze kultiviert. 2002 betrug die Anbaufläche für Kümmel in Deutschland etwa 450 Hektar, Hauptanbaugebiete sind Ägypten, die Niederlande sowie ganz Osteuropa. Für den Anbau von Kümmel sind lehmigere den sandigen Böden vorzuziehen, weil sie ertragreichere Standorte sind. Der Anbau erfolgt mittels Direktsaat in Reinkultur oder als Untersaat in eine Deckfruchtkultur (Erbse, Grünmais, Sommergerste). Die Deckfruchtkultur ist für eine zusätzliche Ernte im ersten Jahr wichtig. Die Kultur ist zweijährig. Es sind bereits einjährige Sorten vorhanden. Die Aussaat wird im März durchgeführt. Der Reihenabstand beträgt 30 Zentimeter, wobei die Ablagetiefe auf 1 bis 1,5 Zentimeter kommt. Das Tausendkorngewicht beträgt drei bis vier Gramm. Für einen Hektar werden 5 bis 8 kg Saatgut benötigt. Zu dicht ausgesäter Kümmel schosst weniger. Die Keimung benötigt ein bis drei Wochen, wobei das Temperaturoptimum für die Keimung zwischen 5 und 20 °C liegt. Die Keimfähigkeit hält sich zwei bis drei Jahre. Für die langsame Keimung oder gar Keimhemmung ist das ätherische Öl Carvon verantwortlich. Die Wirtschaftlichkeit des Anbaus ist durch den zweijährigen Anbau und die schwankenden Preise für das erzeugte Saatgut nicht besonders hoch. Sorten mit hohem Gehalt an ätherischen Ölen bringen meist weniger Ertrag. Der Samenertrag liegt im Mittel bei 1,3 Tonnen pro Hektar und schwankt zwischen 0,8 und 1,5 Tonnen pro Hektar. Die Reinsaat bringt höhere Erträge als die unter Deckfrucht gesäte Untersaat. Krankheiten und Schädlinge. Die häufigste bakterielle Krankheit an Kümmel ist der Doldenbrand. Er wird durch die Bakterien "Erwinia", "Pseudomonas" und "Xanthomonas" verursacht und kann mit Blühbeginn auftreten. Bei den Pilzkrankheiten ist besonders Anthraknose ("Mycocentrospora acerina") bekannt, die meist mit beginnendem Schossen erste Schäden verursacht. Seltener sind "Alternaria"-Brand ("Alternaria" ssp.), 1999 wurde erstmals Doldenbräune-Erreger ("Phomopsis diachenii") in Deutschland nachgewiesen, Echter und Falscher Mehltau, Sklerotinia ("Sclerotinia sclerotiorum"), Septoria ("Septoria carvi") und Wurzeltrockenfäule ("Fusarium" ssp.). An Kümmel sind drei wichtige Schädlinge bekannt. Die Kümmelgallmilben ("Aceria carvi") bewirken eine Deformierung der Rosettenblätter zu petersilienartiger Form und können im Ansaatjahr ab Mitte September und im Erntejahr ab Vegetationsbeginn Schäden verursachen. Die Raupen der Kümmelmotte oder Kümmelschabe ("Depressaria nervosa"), die zu Beginn der Pflaumenblüte etwa vom 20. April bis 10. Juni auftreten, fressen an den Dolden. Sonst sind noch diverse Blindwanzen, vor allem "Lygus campestris" und "Lygus calmi", auf Kümmel zu finden. Küche. Die Blätter des Kümmels haben einen milden Geschmack, der mit Petersilie und Dill verglichen wird. Sie werden gerne für Suppen und Salate verwendet. Die Wurzeln können als Gemüse gekocht werden. Kümmelsamen sind ein klassisches Gewürz in schwer verdaulichen Speisen, wie z. B. Kohlgerichten. Sie sind besonders in der jüdischen, skandinavischen und osteuropäischen Küche beliebt und werden dort auch als Gewürz für Kuchen und Roggenbrot, Gulasch, Käse und geschmorte Äpfel verwendet. Die Kümmelsamen verleihen diversen Spirituosen einen charakteristischen Geschmack, beispielsweise dem skandinavischen Aquavit, dem norddeutschen Köm oder dem Wiener Kaiser-Kümmel. Verwendung als Heilpflanze. Der Ausschuss für pflanzliche Arzneimittel der Europäischen Arzneimittel-Agentur hat Kümmel als Arzneipflanze zugelassen. Als Droge im pharmazeutischen Sinn dienen die getrockneten, reifen Früchte kultivierter Sorten und das Kümmelöl. Hauptwirkstoffe sind ätherische Öle mit Carvon als Hauptbestandteil und Geruchsträger, das darin bisweilen zu weit über 50 % enthalten ist, daneben Limonen (über 30 %), Phellandren und andere Monoterpene; Phenolcarbonsäuren, Flavonoide und in Spuren Furocumarine. Kümmel regt die Tätigkeit der Verdauungsdrüsen an und hat beachtlich blähungswidrige und krampflösende Eigenschaften. Man verwendet ihn bei Verdauungsstörungen mit Blähungen und Völlegefühl, bei leichten Krämpfen im Magen-, Darm- und Gallenbereich sowie bei nervösen Herz-Magen-Beschwerden. Man nimmt die Kümmelsamen als Tee oder das ätherische Öl und seine Zubereitungen, häufig kombiniert mit Fenchel oder Anis und Koriander bzw. mit deren ätherischen Ölen. Kümmel hat von diesen Drogen die stärkste krampflösende Wirkung. Für Kümmelöl wurden antimikrobielle Eigenschaften nachgewiesen, so dass es sinnvoll auch in Mundwässern und Zahnpasten enthalten ist. Das Kauen einiger Kümmelfrüchte soll schlechten Mundgeruch verhindern. Der Kümmel wurde von Wissenschaftlern der Universität Würzburg zur Arzneipflanze des Jahres 2016 gewählt. Inhaltsstoffe. Die Kümmelsamen sind reich an ätherischen Ölen Die Kümmelpflanze ist reich an ätherischen Ölen, insbesondere die Samen enthalten mehr als 3 % ätherisches Öl, bei neueren Züchtungen kann der Anteil auf 7 % steigen. Sie können durch Wasserdampfdestillation ausgetrieben und durch anschließende Extraktion isoliert werden. Im ätherischen Öl stellt D-(+)-Carvon neben D-(+)-Limonen den Hauptbestandteil dar. Außerdem sind Myrcen, α-Phellandren, p-Cymol, β-Caryophyllen, "cis"- und "trans"-Carveol, "cis"- und "trans"-Dihydrocarvon, "trans"-Dihydrocarveol, α- und β-Pinen, Fettsäuren und Gerbstoffe enthalten. Der Vitamin-C-Gehalt der frischen Pflanze beträgt 224,6 mg pro 100 g Frischgewicht. Giftigkeit. Die Pflanze gilt als wenig oder kaum giftig, aber hautreizend. Hauptwirkstoffe sind das ätherische Öl mit Carvon als Hauptbestandteil neben Limonen. Die Hauptwirkung des ätherischen Öls besteht in einer Reizung der Haut. In der Literatur sind mehrmals allergische Reaktionen durch Kümmelöl beschrieben worden. In diesen Zusammenhang ist erwähnenswert, dass Kümmel auch natürliche Pestizide enthält. Vergiftungserscheinungen treten auch bei chronischem Missbrauch von kümmelhaltigen Branntweinen auf, neben dem Einfluss des Alkohols kommen dabei auch Schädigungen insbesondere der Leber durch Kümmelöl als Giftstoff in Betracht. Korb-Weide. Die Korb-Weide ("Salix viminalis"), auch Hanf-Weide genannt, ist eine Pflanzenart aus der Gattung der Weiden. Sie wird kultiviert, weil sich aus den extrem langen Ruten gut Flechtwaren wie Körbe herstellen lassen. Daher wird sie zu den Flechtweiden gezählt. Beschreibung. Bei den langen Laubblättern ist Unterseite grau bis weiß Vegetative Merkmale. Die Korb-Weide wächst als sommergrüner Baum oder Strauch mit besonders langen Ruten (Ästen, Zweigen) und erreicht Wuchshöhen von 3 bis 8, im Extremfall 10 Metern. Die Rinde junger Zweige ist anfangs dicht grau behaart, später aber kahl. Die wechselständig an den Zweigen angeordneten Laubblätter Blattstiel und Blattspreite gegliedert. Der Blattstiel ist 3 bis 12 Millimeter lang. Die einfache Blattspreite ist bei einer Länge von 10 bis 25 Zentimetern sowie einer Breite von 0,6 bis 1,5 Zentimetern schmal lanzettlich mit gerundeter Spreitenbasis. Der ganzrandige Blattrand ist etwas umgerollt. Die Blattunterseite ist seidig silbergrau behaart, die Blattoberseite dunkelgrün und kahl. Die Nebenblätter sind schmal lanzettlich. Generative Merkmale. Die Korb-Weide ist zweihäusig getrenntgeschlechtig (diözisch). Die Blütenstände erscheinen im März und April, kurz vor dem Laubaustrieb. Die Kätzchen sind bei einer Länge von etwa 2,5 Zentimetern zylindrisch. Die Chromosomenzahl beträgt 2n = 38. Ökologie. Bei der Korb-Weide handelt es sich um einen mesomorphen, helomorphen Nanophanerophyten oder Phanerophyten. Die Korb-Weide ist Futterpflanze für die Raupen von 21 Schmetterlingsarten. Vorkommen. Die Korb-Weide ist im nördlichen Kontinentaleuropa von den Pyrenäen bis zum Ural sowie in Nordasien weitverbreitet. Auf den britischen Inseln und in Skandinavien fehlte sie ursprünglich, wurde aber in England von Menschen zur Korbherstellung angepflanzt. Sie steigt bis auf eine Höhe von 800 Meter und ist vor allem in den Niederungen anzutreffen. Die Korbweide gedeiht am besten auf tiefgründigen, schweren, basen- und nährstoffreichen, meist kalkhaltigen Böden an wassernahen Standorten. Sie bildet dort Korbweiden-Gebüsche, häufig zusammen mit Mandel-Weiden ("Salix triandra"), die als Salicetum viminalis oder Salicetum triandro-viminalis bezeichnet werden. Diese Gebüsche stellen einen sehr von den Weiden-Arten dominierten Lebensraum dar, der als eigene Pflanzengesellschaft zählt. Sie gehören zum Verband Salicion albae, also den Weidenauen in tieferen Lagen und sind am Ufer von Flüssen und Gräben anzutreffen. Die Mandelweiden-Korbweidengebüsche befinden sich dort zwischen dem für Holzpflanzen unzugänglichen Flussbett und dem eigentlichen Silberweidenwald ("Salicetum albae"). In freier Natur können ehemals angepflanzte Korb-Weiden-Bestände verwildern. Systematik. Die Erstveröffentlichung von "Salix viminalis" erfolgte 1753 durch Carl von Linné. Nutzung. Ein Korbflechter bei der Arbeit Fertige Faßreifen in einer Bandreißerwerkstatt Anbau und Nutzung. Korb-Weiden lassen sich mittels Steckhölzern relativ einfach vermehren. Sie wird zur Nutzung als Kopfweiden geschnitten, und hat an vielen Stellen als so genannte Weidenheger kulturlandschaftprägenden Charakter. Die Pflanzung erfolgt vor allem auf Flächen, die aufgrund der hohen Überflutungsgefahr für andere Kulturpflanzen nicht nutzbar sind, beispielsweise entlang von Flussauen, Bächen und Wassergräben. Die Ernte der Ruten erfolgt im Regelfall in zwei- bis dreijährigen Abständen nach dem Laubfall im Herbst. Wegen der zunehmenden Kunststoffproduktion ist die Nutzung der Korbweide in den letzten Jahrzehnten allerdings stark zurückgegangen, sodass die Ernte heute in vielen Regionen nicht mehr stattfindet und die Kopfweiden nur als Landschaftspflegemaßnahme beschnitten werden. Das traditionelle Zentrum der deutschen Korbflechterei liegt in Mainfranken in dem Ort Lichtenfels, in dem auch die staatliche Fachschule für Korbflechterei zu finden ist. Verwendung. Die Hauptnutzung der Korb-Weide stellt die Verwendung der extrem langen Ruten zur Herstellung von Flechtwaren wie Körben oder Flechtmöbeln dar. Die Weidenruten sind stark biegsam und zugleich fest, wodurch sie ein belastbares Material darstellen. Die Ruten werden für gröbere Arbeiten ungeschält und für feinere geschält (entrindet) verwendet. Dabei werden Körbe aus ungeschälten Ruten vor allem in der Landwirtschaft als Transportkörbe für Obst, Kartoffeln, Gemüse oder Gras sowie als Flaschenkörbe in der Industrie verwendet. Geschälte Weidenkörbe sind als feine Haushaltskörbe, Einkaufskörbe und Wäschetruhen zu finden, außerdem werden Möbel, Strandkörbe und früher auch Kinder- und Puppenwagen aus diesen Ruten hergestellt. Um besonders feine Flechtgegenstände wie Näh- oder Konfektkörbchen herzustellen, werden die Ruten zudem in zwei bis vier Schienen gespalten und danach verarbeitet (geschlagene Arbeiten). Mehrjährige Ruten werden zu sogenannten Bandstöcken verarbeitet, die gespalten als Fassreifen und Flechtschienen verwendet werden. Der Beruf des Bandreißers, der diese Arbeiten ausführt, ist heute allerdings aufgrund der geringen Nachfrage beinahe ausgestorben. Im zeitigen Frühjahr geschnittene Zweige wurzeln schon nach mehreren Tagen. Hieraus lassen sich „lebende Zäune“ bauen, die im Laufe der Jahre sehr dicht werden können, wenn man die Seitentriebe ineinander verflechtet. Die Korbweide wird auch zur Befestigung von Böschungen genutzt. Aufgrund ihres strauchigen Wachstums hat die Korb-Weide als Holzlieferant für andere Zwecke nur eine sehr untergeordnete bzw. keine Bedeutung gegenüber den Baumformen wie der Silber-Weide ("Salix alba"). Das Holz der Korb-Weide kann jedoch als Brennholz genutzt werden. Kommunismus. a> des Kommunismus im 19. Jhd. Kommunismus (lat. ' „gemeinsam“) ist ein um 1840 in Frankreich entstandener politisch-ideologischer Begriff in mehreren Bedeutungen: Er bezeichnet erstens gesellschaftstheoretische Utopien, beruhend auf Ideen sozialer Gleichheit und Freiheit aller Gesellschaftsmitglieder, auf der Basis von Gemeineigentum und kollektiver Problemlösung. Zweitens steht der Begriff, im Wesentlichen gestützt auf die Theorien von Karl Marx, Friedrich Engels und Wladimir Iljitsch Lenin, für ökonomische und politische Lehren, mit dem Ziel, eine herrschaftsfreie und klassenlose Gesellschaft zu errichten. Drittens werden damit Bewegungen und politische Parteien (vgl. Kommunistische Partei) bezeichnet, die das Ziel verfolgen, Gesellschaften zum Kommunismus zu überführen bzw. solche Lehren praktisch umzusetzen. Viertens bezeichnet er – als von der ersten Bedeutung unterschiedene Fremdbezeichnung – daraus hervorgegangene Herrschaftssysteme, das mächtigste dieser war die Sowjetunion, die mit ihren Verbündeten, den so genannten Ostblockstaaten, zu Beginn des Kalten Krieges etwa ein Fünftel der Erdoberfläche beherrschte. In einigen dieser kommunistischen Parteidiktaturen (Realsozialismus) kam es zu Massenverbrechen (etwa dem Großen Terror in der stalinistischen Sowjetunion der 1930er Jahre oder in der maoistischen Kulturrevolution in der Volksrepublik China in den 1960er und 1970er Jahren). Die meisten realsozialistischen Staaten brachen um das Jahr 1990 zusammen. Eine Abgrenzung zum Sozialismus ist historisch nicht immer möglich. Überblick. Der Begriff "Kommunismus" für eine dauerhaft sozial gerechte und freie Zukunftsgesellschaft wurde im 19. Jahrhundert geprägt. Nach Lorenz von Stein war der französische Revolutionär François Noël Babeuf der erste Kommunist (vgl. auch Verschwörung der Gleichen). Bekanntester Vertreter des Kommunismus war Karl Marx (1818–1883). Nach der Theorie von Marx und dessen engem Weggefährten Friedrich Engels (1820–1895) könne sich der Kommunismus aus dem Kapitalismus, einer Wirtschaftsordnung, in der sich die Kapitalistenklasse und die Arbeiterklasse (Proletariat) als Gegner gegenüberstehen (Klassenkampf), nur durch eine revolutionäre Übergangsgesellschaft (Diktatur des Proletariats) entwickeln. Während dieser Herrschaft der Arbeiterklasse werde das Privateigentum an den Produktionsmitteln und die damit einhergehende Ausbeutung aufgehoben. Im Manifest der Kommunistischen Partei wie auch in den „Forderungen der Kommunistischen Partei in Deutschland“ fordern Marx und Engels Verstaatlichungen. Im Vorwort zur englischen Ausgabe des Kommunistischen Manifests von 1888 modifiziert Engels später das Verhältnis zum Staat und bloßer Verstaatlichung: „Gegenüber der immensen Fortentwicklung der großen Industrie seit 1848 und der sie begleitenden verbesserten und gewachsenen Organisation der Arbeiterklasse, gegenüber den praktischen Erfahrungen, zuerst der Februarrevolution und noch weit mehr der Pariser Kommune, wo das Proletariat zum ersten Mal zwei Monate lang die politische Gewalt innehatte, ist heute dies Programm stellenweise veraltet. Namentlich hat die Kommune den Beweis geliefert, dass die Arbeiterklasse nicht die fertige Staatsmaschine einfach in Besitz nehmen und sie für ihre eigenen Zwecke in Bewegung setzen kann.“ (Friedrich Engels, MEW 21, S. 358) Nach den Erfahrungen der Pariser Kommune (1871) blieb es bei der allgemeinen Forderung nach Verstaatlichungen als einem ersten Schritt. Engels schreibt in seiner 1880 veröffentlichten Schrift Die Entwicklung des Sozialismus von der Utopie zur Wissenschaft: „Das Proletariat ergreift die Staatsgewalt und verwandelt die Produktionsmittel zunächst in Staatseigentum.“ (MEW 19, 223) Diese Art sozialistischer Verstaatlichung von Produktionsmitteln grenzte Engels aber scharf ab vom bismarckschen Staatssozialismus. Der Theorie nach heben sich durch die Beseitigung des Privateigentums an den Produktionsmitteln nach und nach alle Klassengegensätze auf. Bei diesem Übergang zum klassenlosen Kommunismus werde der Staat, der ein Produkt der polit-ökonomischen Verhältnisse und Ausdruck der politischen Klassenherrschaft ist, nicht abgeschafft, sondern sterbe ab, wenn er nicht mehr notwendig, also überflüssig werde. Wie die Gesellschaftsform des Kommunismus, also die klassenlose Gesellschaft, genauer aussehen solle, wurde von Marx nicht vorgeschrieben, sondern werde sich der Theorie von Marx folgend anhand konkreter gesellschaftlicher Entwicklungen und Widersprüche zeigen. Den entwickelten Kommunismus skizziert Marx mit gesellschaftlichem Reichtum und dem Prinzip „Jeder nach seinen Fähigkeiten, jedem nach seinen Bedürfnissen!“. Der Kommunismus wird von Marx auch als Ende der Vorgeschichte der Menschheit bezeichnet, weil die Menschen erst in dieser Gesellschaftsform ihre Geschichte bewusst und selbstständig gestalten können, anstatt von den historischen Gesetzmäßigkeiten ihrer vorhergehenden Gesellschaftsformen hinter ihren Rücken bestimmt zu werden. Der Kommunismus transportierte in den Konflikten antikapitalistischer Richtungen von Beginn an verschiedene Bedeutungen. Daher bezeichnet er heute mehrere Gesellschaftsentwürfe und deren Umsetzungsversuche. Ur- und Frühkommunismus. Die Vorstellung des Gemeineigentums, das das Privateigentum ablösen soll, setzt die prinzipielle Gleichstellung aller Menschen in Bezug auf den Erwerb ihrer Lebensmittel voraus. Diese Idee ist uralt und wird in manchen Naturreligionen und monotheistischen Religionen vertreten. Nach Karl Marx und Friedrich Engels waren die ersten Gesellschaften in der Menschheitsgeschichte urkommunistisch organisiert. Diese sicherten ihr Überleben unter nur geringfügiger Arbeitsteilung mit primitiven Mitteln (vgl. Soziale Organisation) gemeinschaftlich. Erst durch die Entwicklung der gesellschaftlichen Produktivkräfte vermittels vermehrter Arbeitsteilung, technischer Innovationen und anderer Entwicklungen im Zuge der Neolithischen Revolution entstanden mehr Arbeitsprodukte, als für den Erhalt der Gesellschaft vonnöten waren. Erst auf dieser Entwicklungsstufe der Produktion konnte eine dauerhafte Ausbeutung fremder Arbeitskraft und damit eine Aneignung fremder Arbeitsprodukte realisiert werden, war die Arbeitskraft doch erstmals befähigt, mehr zu produzieren als sie selbst konsumierte. So entstand das Privateigentum. Mit der hierarchischen Arbeitsteilung bildete sich Ausbeutung, und mit ihr die ersten Klassengesellschaften und Staaten aus. ("Der Ursprung der Familie, des Privateigentums und des Staats", 1884, MEW, Bd. 21). Mit der Aufhebung des auf Ausbeutung fremder Arbeitskraft basierenden Privateigentums findet eine Wiederherstellung des kommunistischen Gemeineigentums und der klassenlosen, staatenlosen Gesellschaft auf höherer Ebene statt, die erst durch die hoch industrialisierte, arbeitsteilige kapitalistische Produktionsweise ermöglicht wurde. Die beherrschende Produktionsweise der europäisch-vorderasiatischen Antike war die Sklavenhaltergesellschaft, die meist religiös begründet wurde. Ausnahme war im Vorderen Orient nur das frühe, als loser Zwölfstämmebund organisierte Israel. Dessen Tora verlangt die regelmäßige Umverteilung des Bodenbesitzes zugunsten der Besitzlosen als Konsequenz des Glaubens an JHWH, den Sklavenbefreier (Lev 25). An dieses Recht erinnerten sozialkritische Propheten Israels bis hin zu Jesus von Nazaret (Lk 4,16 ff.), so dass die Jerusalemer Urgemeinde in Anknüpfung an jüdische Armenfürsorge eine Gütergemeinschaft praktizierte. Diese Lebensweise wurde bereits in der zweiten Christengeneration, der durch die Mission auch sozial besser gestellte Bevölkerungsschichten angehörten, zu einem vergangenen Ideal stilisiert und seit der konstantinischen Wende von den Großkirchen verdrängt. Während sich deren Vertreter eng an politische Herrschaftssysteme anlehnten und durch Amtsprivilegien mit diesen verflochten waren, knüpften verschiedene Minderheiten im Lauf der Christentumsgeschichte Europas an biblische Traditionen an, die soziale Gerechtigkeit fordern. Reformanläufe von Kirche und Gesellschaft scheiterten jedoch regelmäßig an den Machtverhältnissen. Gesellschaftsveränderung zugunsten unterprivilegierter Schichten war im von der römisch-katholischen Kirche dominierten Mittelalter nur möglich, wenn ökonomische und politische Bedingungen jene, die sich gegen die Kirche auf die Bibel beriefen, schützen konnten. Dieses war frühestens seit der Reformation der Fall. Luthers Haltung zu den Bauernaufständen ermutigte jedoch die Fürsten aller Konfessionen, diese blutig niederzuschlagen. Damit waren Feudalismus und Monarchie die nächsten 300 Jahre lang gesichert. Konsumtions-Kommunismus. Der von Marx geprägte (in der Sache aber abgelehnte) Begriff des Kommunismus der Konsumtion bezeichnet eine Gesellschaftsordnung oder Wirtschaftsweise, in der alle Beteiligten den gleichen Anteil an den erzeugten Gütern bekommen. Dabei geht es nicht darum, wer die Waren produziert hat oder wem die Produktionsmittel gehören, sondern nur um ihre gerechte Verteilung. Ein Beispiel dafür war die Verteilungspraxis der Beute im Heer des römischen Sklavenführers Spartacus. Utopischer Sozialismus. a>, Zeichnung von F. Bate, gedruckt 1838 Der Humanismus des 16. Jahrhunderts hatte – parallel zu den durch wirtschaftliches Elend hervorgerufenen Bauernaufständen – Ideen einer gerechten, von allen Bürgern gleichermaßen getragenen Gesellschaftsordnung entwickelt, die ihrerseits auf die antike Polis und ihre Demokratie-Vorstellungen zurückgriffen. Alle arbeiten und besitzen alles gemeinsam, auch und gerade Grund und Boden (die damaligen Produktionsmittel); zugleich darf jeder dem Glauben anhängen, der ihm gemäß ist. Im 17. und 18. Jahrhundert machten Naturwissenschaften und Fertigungstechniken rasante Fortschritte. Sie erlaubten im Manufaktur- und Verlagswesen bereits eine Massenherstellung von Produkten, noch ohne maschinelle Produktionsmittel. Dies veränderte die Lebensbedingungen und Interessenlagen für große Bevölkerungsteile enorm. Im Zuge der Aufklärung entstanden mit der Idee der Menschenrechte Vorstellungen eines gleichberechtigten und herrschaftsfreien Zusammenlebens. In zahlreichen – stets von der Obrigkeit bedrohten – Geheimbünden und Vereinen suchten mittellose Handwerker, Bauern und Intellektuelle ein Forum und Anhänger für ihre Ideen. Sie waren kaum an der wissenschaftlichen Erhebung empirischer Daten interessiert, entwickelten ihre Vorstellungen aber aus der widersprüchlichen Erfahrung enttäuschter Demokratiehoffnungen und relativer Rechtsfortschritte. Doch erst mit der Emanzipation des Bürgertums bekamen diese Ideen eine politische Stoßkraft. Seit Karl Marx wurden diese frühsozialistischen Gleichheits- und Demokratisierungsbestrebungen, die sich auch auf die Ökonomie erstreckten, als "utopischer" Sozialismus zusammengefasst. In ihrer Zielvorstellung waren sie mit dem Kommunismus grob gesehen weitgehend einig. Anstatt soziale Zustände zu erfinden leiteten Marx und Engels aber ihre Ideen was getan werden müsse, anhand ihrer systematischen Analysen der menschlichen Geschichte und der ökonomischen Verhältnisse ab. So haben beim „utopischen Sozialismus“ der historisch hergeleitete konsequente Klassenantagonismus und die Frage nach den Bedingungen einer erfolgreichen Revolution keine Rolle gespielt. Marxismus. Das Manifest der Kommunistischen Partei Das Manifest der Kommunistischen Partei. Das "Manifest der Kommunistischen Partei" von 1848, auch "Das Kommunistische Manifest" genannt, ist eine Art Gründungsurkunde des modernen Kommunismus, der sich als Gegensatz und Überwindung des Kapitalismus versteht. Es wurde von Karl Marx und Friedrich Engels in London als Programm für den Bund der Kommunisten verfasst. Dieser ging aus dem frühkommunistischen Bund der Gerechten hervor, den der christliche Schneider und erste deutsche Theoretiker des Kommunismus Wilhelm Weitling gegründet und bis zu seiner Ablösung durch Marx 1847 geführt hatte. Er bestand aus einer Gruppe nach Frankreich emigrierter deutscher Gesellen, Handwerker und linksliberaler Bürger. Weitling grenzte sich bereits seinerseits von den Frühsozialisten (u. a. Pierre-Joseph Proudhon, Henri de Saint-Simon, Charles Fourier) ab und propagierte eine nicht nur politische, sondern auch soziale Revolution des Proletariats gegenüber dem Bürgertum. Er strebte die Aufhebung des Geldes als Tauschmittel und den direkten, planvoll und gemeinschaftlich verwalteten, Warentausch an. Mit dem Manifest vollzogen Marx und Engels die theoretische Abgrenzung vom utopischen Sozialismus Weitlings und seiner Vorläufer sowie von anderen Frühsozialisten, an denen sie scharfe Kritik übten. Sie propagierten den internationalen Klassenkampf der lohnabhängigen Arbeiterklasse gegen die Bourgeoisie und beschrieben auch die Stellung der Kommunisten innerhalb der Gesamtbewegung als deren entschiedensten Teil, der eine theoretische Einsicht in die Bedingungen, den Gang und die allgemeinen Resultate des Klassenkampfs der übrigen Masse des Proletariats voraushabe. Eine gesonderte Partei sollten die Kommunisten jedoch ausdrücklich nicht bilden. Zum nächsten Zweck der Kommunisten wie aller übrigen proletarischen Parteien erklärte das Manifest: „Bildung des Proletariats zur Klasse, Sturz der Bourgeoisherrschaft, Eroberung der politischen Macht durch das Proletariat“. Es weist ihnen damit einerseits eine politische Führungsrolle, andererseits die Unterordnung unter das proletarische Gesamtinteresse zu: nämlich eine Gesellschaftsform zu finden, in der „jeder nach seinen Fähigkeiten“ tätig sein und „jedem nach seinen Bedürfnissen“ der produzierte Reichtum offenstehen solle (Marx: "Kritik des Gothaer Programms"). Von England aus wurde diese Schrift in ganz Europa und darüber hinaus verbreitet. Sie hatte jedoch noch keinen nennenswerten Einfluss auf den Verlauf der bürgerlichen Märzrevolution in Deutschland. Erst nach deren gewaltsamer Niederschlagung begannen die Arbeiter, sich nach und nach in eigenen Vereinen, den Vorläufern der Gewerkschaften, zu organisieren. Das Kapital. Das Kapital von Karl Marx Mit seinem Hauptwerk "Das Kapital" formulierte Marx eine umfassende "Kritik der politischen Ökonomie" (Untertitel). Er analysierte hier die Gesetzmäßigkeiten des Kapitalismus, die auf der grundlegenden Spaltung der Gesellschaft in Kapitaleigner (Kapitalisten) und Lohnarbeiter beruhe. Kapital entstehe, wenn die Zirkulation von Ware, die gegen Geld mit anderer Ware getauscht wird, sich verselbstständige zu einem Einsatz von Geld zur Warenproduktion, um mit deren Verkauf wiederum mehr Geld (Mehrwert) zu erzielen. Lebendige Arbeit, die eigentlich menschliche Selbstverwirklichung sein und gesellschaftlich nützliche Produkte herstellen solle, werde dann zur Ware, die es möglichst billig einzukaufen und auszubeuten gelte. Die Arbeiter erhielten also immer weniger Lohn, als der Kapitalist (im Durchschnitt) durch den Verkauf der Ware gewinnen könne (Profit). Dieses „Wertgesetz“ sei der Kern des Klassengegensatzes von Kapital, das die Bourgeoisie einsetzte, und Arbeit, die das Proletariat leiste. Klassenherrschaft ist demnach für Marx keine zufällige, sondern eine gesetzmäßige Folge von Ausbeutung. Diese sei aber kein böser Wille der Kapitalisten, sondern ein Zwang: Um auf dem vom Kapital beherrschten Markt konkurrieren zu können, müssten sie lebendige Arbeit, die den Mehrwert produziert, ausbeuten. Die Konkurrenz führe zu immer größerer Kapitalkonzentration (Monopol- und Kartellbildung) und damit zwangsläufig zu Absatzkrisen und Kriegen. Sie zwinge die Kapitaleigner dazu, die Arbeitskosten so gering wie möglich zu halten und den größtmöglichen Profit anzustreben, um diesen in technologische Neuerungen investieren zu können. Dies wiederum führe zu einer immer stärkeren Bewusstwerdung der Notwendigkeit eines Umsturzes. Die sozialistische Revolution ist also nach Marx in den kapitalistischen Verhältnissen selbst angelegt. Damit erscheint die bürgerliche Gesellschaftsform nicht als moralisch zu verurteilende, sondern als nüchtern zu durchschauende Klassenherrschaftsform. Deren Analyse will die realen Ansatzpunkte zur Umwälzung der Macht- und Besitzverhältnisse erkennbar machen. "Das Kapital" besteht aus drei Bänden. 1867 erschien der erste Band: "Der Produktionsprozeß des Kapitals" von Karl Marx. Friedrich Engels stellte nach Marx’ Tod 1883 aus dessen Manuskripten zwei weitere Bände zusammen und veröffentlichte diese als Band II: "Der Zirkulationsprozeß des Kapitals" 1885, und Band III: "Der Gesamtprozeß der kapitalistischen Produktion" 1895. Dieses Werk bildet das Herzstück der Gesellschaftstheorie, die Marx und Engels wissenschaftlicher Sozialismus nannten und heute als „Marxismus“ bezeichnet wird. Sie beansprucht, im Gegensatz zu allen idealistischen und utopischen Vorstellungen streng empirisch vorzugehen, also durch reale Entwicklungen falsifizierbar und korrigierbar zu sein. Wie andere damalige Wissenschaften – z. B. Charles Darwins Evolutionstheorie – stellt sie ein materialistisches Weltbild gegen jeden religiösen Irrationalismus. Kommunismus in der Soziologie. In der frühen Soziologie bezeichnete Ferdinand Tönnies in „Gemeinschaft und Gesellschaft“ (1887) im Untertitel den Kommunismus als „"empirische Kulturform"“. Dieser ist nach seiner Theorie aber nur in überschaubaren Gemeinschaften möglich; hingegen geht es in größeren gesellschaftlichen Zusammenhängen immer nur um den „Socialismus“. Da bei ihm zwar eine Gesellschaft aus Gemeinschaften hervorgehen kann, er den umgekehrten Prozess aber für unmöglich hält, kann bei ihm aus Sozialismus auch nie Kommunismus werden. Auch Max Weber sieht Kommunismus als Vergemeinschaftung, wenn er zum Beispiel auf den "Familienkommunismus" und den "Mönchskommunismus" hinweist. Gleichberechtigung der Frauen. a> zählt zu den bedeutendsten kommunistischen Frauenrechtlerinnen Keine der frühkommunistischen und sozialistischen Vorstellungen ging von der Gleichheit der Geschlechter aus. Von Robert Owen bis zu den deutschen Räterepubliken 1918 setzten sie die Familie als gemeinschaftliche Basis voraus. Betriebe und Militäreinheiten sollten ihre Vertreter in höhere Gremien entsenden: Diese bestanden fast nur aus Männern. Erst später wurde auch die Familie an sich kritisiert. Die besondere Unterdrückung der Frau war anknüpfend an Charles Fouriers Satz "Der Stand der Frau kennzeichnet den Stand der Gesellschaft" auch ein Thema von Marx und Engels gewesen. Sie glaubten, mit Abschaffung des Kapitalismus und dem Ende der Klassengesellschaft würde auch die Unterdrückung der Frau enden, so wie die Ausbeutung des Menschen durch den Menschen überhaupt. Bereits im Kommunistischen Manifest bekannten sie sich zur Aufhebung der Familie durch freies Lieben, Aufhebung der „Stellung der Weiber als bloße Produktionsinstrumente“ sowie der „Ausbeutung der Kinder durch ihre Eltern“ und zur gesellschaftlichen Erziehung der Kinder. Dieses lösten die entstehenden realsozialistischen Staaten nur teilweise ein. Dort waren die Geschlechter zwar gesellschaftlich meist gleichgestellt, indem Frauen in der Produktion gleiche Rechte, Löhne und Aufstiegschancen erhielten. Im Alltag und in den Privathaushalten waren sie jedoch teilweise weiter bestehenden patriarchalen Strukturen unterworfen. Marxismus versus Anarchismus. a>, bedeutendste Persönlichkeit des spanischen Anarchismus Aus den Ideen der Aufklärung und verschiedenen frühsozialistischen Ansätzen heraus entwickelten sich die Vorstellungen des modernen Anarchismus etwa zeitgleich mit den kommunistischen Ideen von Weitling und Marx und in gegenseitiger Abgrenzung zu diesen. Die politischen Gegensätze zwischen Marxisten und Anarchisten führten zu historisch konfliktträchtigen Auseinandersetzungen. Pierre-Joseph Proudhon war ein früher Vordenker des Syndikalismus und gilt als Begründer der anarchistischen Richtungen Föderalismus und Mutualismus. Er kam 1840 in seiner Schrift "Qu’est-ce que la propriété ?" („Was ist das Eigentum?“) zu dem Schluss: „Eigentum ist Diebstahl!“ Damit stellte er das Privateigentum ins Zentrum seiner Kritik an den herrschenden, politischen und sozialen Verhältnissen im Kapitalismus. Dieses sei ebenso wie der bürgerliche Staat, der es schützen soll, direkt und unmittelbar zu bekämpfen und durch selbst organisierte Formen des Gemeineigentums zu ersetzen. In einem Briefwechsel setzte sich Proudhon mit Marx auseinander. Dabei stellte sich heraus, dass beide die Fragen der Macht, der Freiheit des Individuums, der Rolle des Kollektivs als revolutionärem Subjekt sehr verschieden bewerteten. Proudhon argumentierte stärker mit philosophisch-ethischen Prinzipien, während Marx diese als bloß moralische Ideale kritisierte und eine wissenschaftliche Analyse der Widersprüche zwischen Kapital und Arbeit vermisste. Für ihn war nicht jedes Privateigentum an sich, sondern der Privatbesitz an den Produktionsmitteln das Grundübel. Proudhons Anhänger Michail Bakunin (kollektivistischer Anarchismus) und später Pjotr Alexejewitsch Kropotkin (kommunistischer Anarchismus) verbanden seine Theorien mit der Agitation für eine soziale Revolution, die zur radikalen Umwälzung der Besitzverhältnisse notwendig sei. In diesem Punkt stimmten sie mit Marx und Engels überein. Bakunin lehnte die führende Rolle einer revolutionären Kaderpartei jedoch ebenso ab wie staatliche Hierarchien und verwarf damit Marx’ Forderung nach der Gründung kommunistischer Parteien als revolutionärer Elite in den einzelnen Staaten ebenso wie die These von der „Diktatur des Proletariats“, die zur klassenlosen Gesellschaft führen solle. Er glaubte nicht daran, dass die Arbeiter zuerst die politische Staatsmacht erringen müssten, damit der Sozialismus aufgebaut und der Staat absterben könne, sondern wollte diesen direkt abschaffen. Diese Konzeption nannte er antiautoritärer Sozialismus. Der kommunistische Anarchismus geht auf die Theorien des russischen Anarchisten Pjotr Alexejewitsch Kropotkin zurück. Er vertrat die Theorie, dass sich Kommunismus und Anarchismus nicht, wie von Marx und Lenin postuliert, widersprechen, sondern nur gemeinsam funktionieren würden. Zentrale Forderung ist der vollständige Bruch mit dem Kapitalismus und die sofortige Abschaffung des Staates als soziale Institution, dieser wird dann durch kollektivistische Netzwerke, in der Form von Arbeiterräten und gemeinschaftlichen Kommunen, ersetzt. Die Entlohnung der Werktätigen erfolgt nicht mit Geld, sondern über gemeinsame Ressourcen, da das Geld selbst als Zahlungsmittel verschwinden soll. Eine Führung der Arbeiterklasse durch sozialistisch-kommunistische Parteien wird ebenso abgelehnt wie das marxistische Konzept der Diktatur des Proletariats. Zu unterscheiden ist der kommunistische Anarchismus von Michail Bakunins „Kollektivistischem Anarchismus“. Kommunistische Anarchisten und Anarchosyndikalisten nennen das Konzept einer Arbeiterselbstverwaltung ohne Führung einer Partei „libertären Kommunismus“. Bekannter Vertreter neben Kropotkin ist Gustav Landauer. Kommunismus versus Reformismus. Um die Jahrhundertwende bezog sich die europäische Sozialdemokratie theoretisch meist auf Marx und das Kommunistische Manifest. Sozialistische Parteien teilten trotz vorhandener interner Konflikte das Ziel einer kommunistischen Gesellschaftsordnung, die sie begrifflich allenfalls graduell vom Sozialismus unterschieden. Ende der 1890er-Jahre verloren die Begriffe jedoch ihre Eindeutigkeit, da sich nun ein Gegensatz zwischen den eher gewerkschaftlich orientierten „Reformisten“ und den revolutionären Marxisten entwickelte. Sowohl 1899 in der deutschen wie 1903 in der russischen Arbeiterbewegung gab es einen Machtkampf beider Richtungen. In der SPD löste der Mitautor des Erfurter Programms von 1890, Eduard Bernstein, die Revisionismusdebatte aus. Er forderte Verzicht auf das Ziel der proletarischen Revolution, da der Kapitalismus sich flexibel zu modernisieren und der Arbeiterschaft auch auf parlamentarischem Weg Teilhabe am gesellschaftlichen Wohlstand zu erlauben schien. Obwohl die Parteimehrheit dies ablehnte, setzte sich der Reformismus bis zum Ersten Weltkrieg in der SPD durch. Der Hauptgrund war die materielle und rechtliche Besserstellung der Arbeiter und die Verwischung der Klassengrenzen durch Bildung und die steigende Bedeutung der geistigen Arbeit. Im Zuge des erfolgreichen Kampfes um bessere Lebensbedingungen geriet das Ziel der Umwälzung der Produktionsverhältnisse aus dem Blick. Die politische Machteroberung schien vielen auf dem legalen Wege ebenfalls erreichbar. Das Heraufziehen des Ersten Weltkriegs verstärkte auch bei anderen sozialistischen Parteien nationalstaatliche Prioritäten und untergrub den proletarischen Internationalismus, den Marx postuliert hatte. Dies war eine wesentliche Voraussetzung für die Zustimmung der SPD-Reichstagsfraktion zu den Kriegskrediten. Daran zerbrach die Zweite Internationale. Darauf spalteten sich revolutionäre Gruppen von den meisten sozialistischen und sozialdemokratischen Parteien ab und gründeten neue, nun ausdrücklich kommunistische Parteien. Leninismus. Lenin unterschied anknüpfend an Marx zwischen einer niederen und höheren Phase der kommunistischen Gesellschaft, wobei die erste als Sozialismus (Diktatur des Proletariats), die zweite als Kommunismus (klassenlose Gesellschaft) bezeichnet wurde. Der sozialistischen Phase wird die Vergesellschaftung der Produktionsmittel und Entlohnung nach Leistung zugeordnet, der kommunistischen das Bedürfnisprinzip. Nach der erfolgreichen Oktoberrevolution von 1917 setzten die Bolschewiki die Maßstäbe für die folgende Entwicklung in Russland und etablierten mit der Kommunistischen Partei Russlands (später KPdSU) eine neue Staats- und Gesellschaftsführung. Erstmals gab es nun ein Regime, das den Kommunismus aufbauen und realisieren wollte. An der Spitze dieses sogenannten Arbeiter-und-Bauern-Staats stand Lenin als unumstrittene Führungsautorität. Im folgenden Bürgerkrieg mussten sich die Bolschewiki teilweise auch gegen einstige Verbündete behaupten. Sie dehnten ihre Herrschaft dabei auch auf benachbarte Länder aus. 1922 gründete sich daraus die Union der Sozialistischen Sowjetrepubliken (UdSSR) – oder kurz: Sowjetunion (SU). Das sozialistische Rätesystem war die soziale Basis für den Aufstieg der Bolschewiki und ihren Revolutionserfolg 1917 gewesen. Doch im Verlauf des Bürgerkriegs kam es zu Hungersnöten und Aufständen. Nach dem Kronstädter Matrosenaufstand 1921 entmachteten die Bolschewiki die Sowjets, um die Sowjetunion und damit ihre Herrschaft zu stabilisieren. Darin sahen marxistische und kritische Gesellschaftsanalytiker wie Karl August Wittfogel, Rudolf Bahro und Rudi Dutschke später eine Hauptursache für das Scheitern der Sowjetunion. 1922 leitete Lenin die Neue Ökonomische Politik ein, um unter staatlicher Aufsicht Eigeninitiative und Gewinnstreben der Bauern anzuregen und so ihre Erträge zu steigern. Damit wollte er für eine Übergangszeit Selbstversorgung und Entfaltung von Marktstrukturen zulassen, um die Landwirtschaft später erneut zu verstaatlichen. Die Bolschewiki hatten die „Diktatur des Proletariats“ in einem Land errichtet, das keine entwickelte kapitalistische Industrie und nur 10 Prozent Industriearbeiter hatte, im Vertrauen auf den künftigen Sieg der deutschen Revolutionäre. Noch bis 1923 setzten sie auf eine schnelle Fortsetzung der Novemberrevolution als Anstoß zur Weltrevolution. (Siehe dazu auch Deutscher Oktober.) Doch mit dem Scheitern des Ruhraufstands und des Hamburger Aufstands zerbrachen die letzten Anläufe in Deutschland zu einer sozialistischen Gesellschaftsordnung, so dass die Sowjetunion isoliert blieb. Kurz vor seinem Tod 1924 warnte Lenin testamentarisch vor Stalins Despotie. Bereits seit der Gründung der Dritten Internationale 1919 war die Spaltung zwischen deutschen Sozialdemokraten und Kommunisten unüberwindbar. Seitdem wurde Kommunismus im Westen allgemein fast immer mit Diktatur, Demokratie vor allem mit Kapitalismus gleichgesetzt, obwohl auch Kommunisten und Sozialisten die Verwirklichung von Demokratie und die Versöhnung individueller Freiheit mit sozialer Gerechtigkeit beanspruchen. Marxismus-Leninismus und Stalinismus. Josef Stalin baute die Alleinherrschaft der Partei ab 1924 zur unumschränkten Macht ohne gesellschaftliches Korrektiv aus. Er entmachtete im internen Machtkampf in der KPdSU bis 1927 die „Linke Opposition“ um Leo Trotzki und Lew Borissowitsch Kamenew und erreichte damit die Alleinherrschaft. Dazu bediente er sich des Terrors der Tscheka, wie ihn schon Lenin im Bürgerkrieg und vorher der zaristische Geheimdienst Ochrana ausgeübt hatte. Mit Zwangsumsiedlungen, Zwangsarbeitslagern (Gulags), stalinsche Säuberungen und der Errichtung eines Personenkults festigte er dann seine Diktatur. Die zwangsweise Kollektivierung der Landwirtschaft diente einem doppelten Zweck. Einerseits gelangte der Staat durch die Kollektivierung in den Besitz der Ernteerträge des Landes, die unter Inkaufnahme schrecklicher Hungersnöte zu einem guten Teil in den Export flossen und damit der Finanzierung der Industrialisierung diente. Diese Industrialisierung war vorrangig auf die Produktion von Rüstungsgütern ausgelegt. Anderseits bot die Zwangskollektivierung die Möglichkeit, die Opfer der Kollektivierung als billige Zwangsarbeiter beim Aufbau der Industrie einzusetzen. 1928 wurde die Zentralverwaltungswirtschaft flächendeckend eingeführt. Ebenso wie in der Sowjetunion etablierte Stalin in der 3. Internationale den Marxismus-Leninismus als neue Herrschaftsdoktrin und sorgte für die scharfe Abgrenzung gegen alle Kräfte, die die Führungsrolle der Sowjetunion und den „Sozialismus in einem Land“ ablehnten: vor allem den „Trotzkisten“ auf der einen, den „Sozialfaschisten“ (Sozialdemokraten) auf der anderen Seite. Die Auseinandersetzungen zwischen reformistischen Sozialdemokraten und stalinistischen Kommunisten in der Weimarer Republik begünstigten Aufstieg und Machtübernahme der Nationalsozialisten. Damit wurde auch der Begriff des Sozialismus, der im 19. Jahrhundert weithin mit Demokratie gleichgesetzt wurde, übernommen, missbraucht und nachhaltig korrumpiert. Das verhinderte in Europa wie auch in China wirksame Allianzen von Sozialreformern und Kommunisten. Im Spanischen Bürgerkrieg kämpften Anarchisten, Demokraten und Kommunisten von 1936 bis 1939 letztmals gemeinsam, aber erfolglos gegen Francisco Franco. Die Stalinschen „Säuberungen“ kulminierten von 1936 bis 1938 im Großen Terror: Stalin ließ nun auch die Generation der Oktoberrevolutionäre als seine möglichen innenpolitischen Gegner verbannen und ermorden, darunter die Führungsspitze der Roten Armee. Dies war mit ein Grund für den Hitler-Stalin-Pakt von 1939, der ihm Zeitgewinn zur militärischen Reorganisation verschaffen sollte. Nach dem Ende des Zweiten Weltkrieges gelang es der Sowjetunion, in den Staaten Osteuropas stalinistische Regime zu etablieren. Der in der Ära des Kalten Krieges sogenannte „Ostblock“ wurde als territorialer Gegner bzw. potenzieller Feind zum „kapitalistischen“ Westen postuliert. Nach dem Tode Stalins 1953 leitete der neue Staats- und Parteichef Nikita Chruschtschow die Entstalinisierung ein und definierte damit den Marxismus-Leninismus, nun unabhängig vom Stalinismus, neu. Dieser „neue“ Marxismus-Leninismus bestimmte dann weitgehend die Politik der Sowjetunion und der Ostblock-Staaten bis zum Sturz Chruschtschows 1964. Unter seinem Nachfolger Leonid Breschnew wurde die Entstalinisierung allerdings kaum mehr verfolgt, begonnene Reformen in Partei und Staat wurden gestoppt oder sogar wieder zurückgenommen. Erst mit dem Antritt Michail Gorbatschows 1985, setzte mit Glasnost und Perestroika eine neue Reformwelle ein, die das politische System, sowie die ideologische Ausrichtung der Sowjetunion und ihren Satellitenstaaten grundlegend veränderte. Die Revolutionen im Jahr 1989 beschleunigten den Zerfall der Sowjetunion, der schließlich 1991 zu deren Auflösung führte. Gegenwärtig berufen sich insbesondere nur noch Kuba, Vietnam und Laos auf den Marxismus-Leninismus als offizielle Staatsdoktrin. Auch in den bestehenden kommunistischen Parteien, wie beispielsweise in Deutschland der DKP oder der MLPD, spielt der Marxismus-Leninismus noch eine Rolle, während andere Parteien oder Organisationen dem Reform- oder Eurokommunismus zuzuordnen sind oder sich auf den Trotzkismus beziehen. Trotzkismus. Im Gegensatz zu der von Stalin vertretenen These vom möglichen „Sozialismus in einem Land“ stand Leo Trotzki für einen konsequenten Internationalismus. Nach seiner Theorie der permanenten Revolution kann der Sozialismus als Übergangsgesellschaft zum Kommunismus nur auf internationaler Ebene funktionieren, weswegen die ganze Welt durch Revolutionen vom Kapitalismus befreit werden muss. Bleibe die sozialistische Weltrevolution aus, so falle die Sowjetunion zwangsläufig wieder zum Kapitalismus zurück. Ausgangspunkt für den Trotzkismus ist aber vor allem auch die von Trotzki 1936 verfasste Studie: Verratene Revolution. Was ist die Sowjetunion und wohin treibt sie? Darin arbeitete er eine Analyse der "Bürokratisierung" der häufig als "degenerierte" Arbeiterstaaten bezeichneten Länder aus, in denen eine proletarische Revolution stattgefunden hatte. Trotzkisten verstehen sich, wie viele andere marxistische Strömungen auch, als Vertreter des Leninismus bzw. als dessen Weiterentwicklung. Maoismus. Die Volksrepublik China sah sich nach der Revolution 1949 unter Führung Maos als besonderer Teil des „Weltkommunismus“ und pflegte die „Bruderfreundschaft“ mit der Sowjetunion unter Stalin. Nach dessen Tod 1953 leitete sein Nachfolger Nikita Sergejewitsch Chruschtschow 1956 eine Entstalinisierung ein. Dann trennten sich die Wege: Mao kündigte der Sowjetunion die Gefolgschaft. Seitdem war das „kommunistische Lager“ in zwei verfeindete Großstaaten mit ähnlicher Staatsideologie, aber konkurrierenden Führungsansprüchen gespalten. Die Sowjetunion vertrat nun die Linie einer friedlichen Koexistenz mit dem kapitalistischen Westen, während China auf der sozialistischen Weltrevolution bestand. Zu seinem Einflussbereich gehörten vor allem Nordkorea und Nordvietnam, zeitweise auch Kambodscha und Laos, während Indien und die Kaukasusregion sich eher an die Sowjetunion anlehnten. Das von Mao verfolgte Programm des Großen Sprung nach vorn, mit welchem China in wenigen Jahren zu einer industriellen Großmacht werden sollte, scheiterte und führte zu einer der größten Hungersnöte der Geschichte der Menschheit (20 bis 40 Millionen Tote). In vielen Staaten Asiens, Afrikas und Lateinamerikas führten die „Blockmächte“ USA, UdSSR und VR China Stellvertreterkriege miteinander. Der Koreakrieg (1950–1953) z. B. war eigentlich ein chinesisch-amerikanischer Konflikt, in dem die USA erstmals nach 1945 wieder den Einsatz von Atomwaffen erwogen. In der Mongolei wiederum stritten die Sowjetunion und China mit Drohgebärden und militärischen Scharmützeln um Grenzverläufe. Sie unterstützten auch in der „Dritten Welt“ verschiedene revolutionäre Gruppen und Ziele. Die Roten Khmer in Kambodscha etwa beriefen sich zeitweise auf den „Maoismus“. Ihrer kurzen Herrschaft (1975–1979) fielen bis zu zwei Millionen Menschen zum Opfer. Auch in Europa fand der Maoismus Beachtung, so orientierte sich Albanien unter Enver Hoxha zwischen 1968 und 1978 an dessen Politik ("siehe weiter unten"). Unter der Kommunistischen Partei Chinas kam es in den 1980er-Jahren zu einer demokratischen Protestbewegung, die jedoch blutig niedergeschlagen wurde. Danach wurde in einigen Provinzen und Städten die kapitalistische Produktionsweise zugelassen, um die Produktivität zu steigern. Dies wirkte sich einerseits erheblich auf die Prosperität des Landes und die Konsumgüterproduktion aus. Anderseits verschärfte diese Maßnahme die Klassengegensätze zwischen einem neureichen Bürgertum privater Unternehmer und Staatsfunktionäre und einer rechtlosen proletarischen Wanderarbeiterschaft. Auch die Masse der rechtlosen Kleinbauern verarmt zunehmend und wird von der Wirtschaftsentwicklung weitgehend abgekoppelt. Am 14. März 2004 wurde die Abschaffung des Privateigentums auch offiziell zurückgenommen und der Schutz des Privateigentums in der Verfassung verankert. Der Maoismus spielte auch in der Hochphase der Studentenbewegung der 1960er-Jahre eine bedeutende Rolle; Mao wurde neben Che Guevara und Ho Chi Minh zu einem revolutionären Leitbild eines Teils dieser Bewegung. Titoismus. Kommunismus als staatliche und weltpolitische Zustandsbeschreibung differenzierte sich im Verlauf des Kalten Krieges weiter: Mit Jugoslawien unter Josip Broz Tito kam eine Sonderform der Unabhängigkeit vom sowjetischen Führungsanspruch hinzu, die ihrerseits zwar eine autoritäre Ein-Parteien-Regierung war, jedoch deutlich liberalere Züge als die Ostblock-Staaten und China aufwies. Wichtig im Kommunismus titoistischer Prägung war auch die sogenannte Blockfreiheit, so gründete Tito gemeinsam mit dem ägyptischen Staatschef Nasser, dem indischen Premier Nehru und dem indonesischen Präsidenten Sukarno 1961 in Belgrad die Bewegung der blockfreien Staaten, die sich im Ost-West-Konflikt neutral verhielten. In der Innenpolitik verfolgte der Titoismus ein umfassendes föderatives Konzept, so war Jugoslawien in sechs Teilrepubliken (Slowenien, Kroatien, Bosnien-Herzegowina, Serbien, Montenegro und Mazedonien) gegliedert, die über weitreichende Selbstbestimmungsrechte verfügten, den beiden Provinzen Kosovo und Vojvodina wurde eine weitgehende Autonomie zugestanden. Ebenfalls eine wichtige Säule des Titoismus war die sogenannte Arbeiterselbstverwaltung, die es jedem Mitarbeiter eines Betriebes gestattete, Einfluss auf die Unternehmensführung zu nehmen. Zwischen 1944 und 1948 spielte der Titoismus unter der Führung von Koçi Xoxe auch im benachbarten Albanien eine Rolle, ein Beitritt zur jugoslawischen Bundesrepublik wurde ebenfalls erwogen. Der Titoismus beeinflusste auch maßgeblich Alexander Dubček, so führte dieser 1968 im sogenannten Prager Frühling ebenfalls die Arbeiterselbstverwaltung ein, die allerdings nach dem Einmarsch der Truppen des Warschauer Paktes wieder abgeschafft wurde. Realsozialismus. Die Bezeichnung „real existierender Sozialismus“ (kurz Realsozialismus) ist eine Eigenbezeichnung der ehemaligen oder bestehenden sozialistischen Gesellschaftssysteme mit meist einem Ein-Parteien-System und marxistisch-leninistischer Staatsideologie. Darunter werden vor allem die ehemaligen sozialistischen Länder der Warschauer Vertragsorganisation und des Rates für gegenseitige Wirtschaftshilfe (zum Beispiel die Sowjetunion und die Deutsche Demokratische Republik) verstanden. Dieser Terminus, der Selbst- und Fremdbezeichnung war, drückt zum einen aus, dass der Sozialismus tatsächlich existiere und zum anderen wird dieser Begriff auch kritisch verwendet, um eine Diskrepanz zwischen der Theorie und den tatsächlichen politischen Verhältnissen des Sozialismus/Kommunismus auszudrücken. Um die von Marx geforderte Herrschaft des Proletariats zu verwirklichen, schuf Lenin in theoretischer und praktischer Auseinandersetzung mit den Bedingungen zur Machterringung und anschließender Bewahrung des Sozialismus eine „Partei neuen Typs“ ("Was tun?", 1902, und "Ein Schritt vorwärts – zwei Schritte zurück", 1904), die dafür nach seinem Prinzip des demokratischen Zentralismus organisiert war. In marxistischer Theorie ist die Diktatur des Proletariats der Weg zum Ziel der klassenlosen Gesellschaft. Lenin bezeichnete die Phase nach der Machtergreifung und anschließende Machtverteidigung des Proletariats als Sozialismus, betrachtete diesen – inklusive der notwendigen Diktatur – also als Vorstufe zum vollendeten eigentlichen Kommunismus, in dem der Staat mit der Gesellschaft identisch und daher nicht mehr als Zwang empfunden werde. Da im real existierenden Sozialismus viele Theoreme und praktische Vorschläge von Marx mit ihrer Staatsideologie zu realisieren versucht wurden, wurde dieses System oft als folgerichtiges Ergebnis seiner ursprünglichen Ideen betrachtet. Gemeinsame Merkmale der sich so nennenden „Volksdemokratien“ oder „Volksrepubliken“ wie die Alleinherrschaft einer kommunistischen Partei werden von Befürwortern wie Gegnern oft mit der von Marx intendierten „Diktatur“ identifiziert. Infolge seiner Machtausdehnung durch den und nach dem Zweiten Weltkrieg 1945 und auch seit der erfolgreichen Revolution Mao Zedongs in der Republik China (Gründung der Volksrepublik China) 1949 gewann der sogenannte Realsozialismus ein weltpolitisches Gegengewicht zu den marktwirtschaftlich ausgerichteten Ländern unter Führung der Vereinigten Staaten von Amerika. Die von der Sowjetunion nach 1945 installierten und dominierten Systeme wurden in der westlichen Welt als „Ostblock“ bezeichnet, weil sie keine reale Autonomie besessen hätten, sondern faktisch „Satellitenstaaten“ der vom Politbüro gelenkten KPdSU gewesen wären. Dieser Gegensatz bestimmte den Kalten Krieg und das im Westen herrschende Verständnis von „Kommunismus“. Es setzte oft auch sozialistische und sozialdemokratische Parteien unter Druck, die sich gegen Diffamierungen wehren mussten, etwa die „fünfte Kolonne Moskaus“ zu sein (Wahlkampfparole Konrad Adenauers) oder die „Verteidigung der Freiheit“ im Rahmen des westlichen Militärbündnisses (NATO) zu vernachlässigen. Die realsozialistischen Regime brachen Ende der 1980er Jahre zusammen. Gründe dafür waren unter anderem innere Oppositionsbewegungen, die desolate Wirtschaftslage, die Ineffizienz der in diesen Regimen betriebenen Planwirtschaften sowie die Konkurrenz der erfolgreicher erscheinenden sozialstaatlichen Modelle des Westen. Kommunistische Befreiungsbewegungen. Gegenüber dem europäischen Imperialismus und Kolonialismus hatten die Ideen von Marx schon seit 1900 auch in vielen nicht industrialisierten, vom Weltmarkt und westlicher Hegemonie beherrschten Ländern, Anhänger gefunden. Die Entwicklung in der Sowjetunion wurde zwar auch teilweise von Sozialisten und Kommunisten kritisiert, die angesichts des aufstrebenden Faschismus dennoch nicht ihre grundsätzliche Solidarität zur Sowjetunion aufgaben. Mit dem opferreichen Sieg der Sowjetunion über Hitlerdeutschland und dem folgenden Kalten Krieg gewann die Vorstellung des Antagonismus zweier Lager auch unter ihnen neue Plausibilität. Besonders nach der erfolgreichen Revolution Fidel Castros in Kuba 1958 griffen viele Befreiungsbewegungen in der sogenannten Dritten Welt den Marxismus-Leninismus auf und entwickelten ihn als Antiimperialismus für ihre eigenen Situationen weiter. Rumänien. Auch Rumänien gelang es unter Nicolae Ceaușescu eine relative Unabhängigkeit zur Sowjetunion zu erreichen, so wurde der sowjetische Einmarsch in die Tschechoslowakei 1968 ebenso verurteilt wie die Boykottierung der Olympischen Spiele 1984 in Los Angeles, bei denen Rumänien als einziger Ostblock-Staat teilnahm. Kehrseite des Unabhängigkeitskurses war jedoch ein grotesker Personenkult um Ceaușescu, die allgegenwärtige Geheimpolizei Securitate und eine dramatische Verelendung der Bevölkerung. Diese Diktatur wurde 1989 in einem blutigen Umsturz entmachtet. Albanien. Nach dem Zweiten Weltkrieg lehnte sich Albanien zunächst eng an Titos Jugoslawien an, brach allerdings bereits 1948 mit Tito und wurde ein enger Verbündeter der Sowjetunion. 1949 trat das Land dem COMECON bei und war eines der Gründungsmitglieder des Warschauer Paktes. Durch die Entstalinisierung und die damit verbundene Tauwetterperiode brach Enver Hoxha nun auch mit der Sowjetunion, 1968 erfolgte der Austritt aus dem COMECON und dem Warschauer Pakt. Albanien lehnte sich fortan an das maoistische China an, der Maoismus wurde nun zur neuen Staatsdoktrin erhoben. Der Tod Maos 1976 und den darauf folgenden Reformen Deng Xiaopings löste einen erneuten Politikwechsel aus, Albanien sagte sich nun offiziell auch vom Maoismus los und verfolgte einen neuen albanischen Weg zum Sozialismus, der durch eine besonders isolationistische, autarke Politik gekennzeichnet war. Reformkommunismus Ost. In den Ostblockstaaten mit einer älteren demokratischen Tradition gab es seit 1953 Anläufe zu Eigenständigkeit und Emanzipation vom „großen Bruder“ in Moskau. Diese Bemühungen um Reformen auf weiterhin staatssozialistischer Grundlage werden als "Reformkommunismus" eingeordnet. Sie begannen mit dem eher anti- als reformkommunistischen Volksaufstand des 17. Juni 1953 in der DDR, der zuerst Arbeitszeit- und Lohnreformen forderte, dann das Machtmonopol der SED in Frage stellte und auch schon die Deutsche Wiedervereinigung anvisierte. Der Ungarische Volksaufstand von 1956 und der Prager Frühling 1968 in der Tschechoslowakei führten zu einer Wiederbelebung der Räte und der Genossenschaften in Verbindung mit einer vorsichtigen Liberalisierung der Wirtschaft und Zulassung von Privatunternehmen. Diese Versuche waren stets von breiten Bevölkerungsschichten getragen und wurden immer dann gewaltsam von der Roten Armee niedergeschlagen, wenn die Loslösung vom Warschauer Pakt und damit von der Sowjetunion in Reichweite kam. Auch in der staatsunabhängigen Gewerkschaftsbewegung Solidarność in der Volksrepublik Polen gab es anfangs prominente Vertreter mit reformkommunistischen Ansätzen, die z. B. die Kontrolle über die Lebensmittelverteilung in Polen forderten. Nach den August-Streiks 1980 in Polen wurde der Einmarsch sowjetischer Truppen nur knapp vermieden, indem General Wojciech Jaruzelski im Dezember 1981 das Kriegsrecht verhängte, das bis 1983 in Kraft blieb. Eurokommunismus West. In Westeuropa waren kommunistische Bewegungen bis 1939 in vielen Staaten verbreitet. In Italien entstand nach Vorarbeiten von Antonio Gramsci nach 1945 der so genannte „Eurokommunismus“, der sich vom Stalinismus abgrenzte und durch parlamentarische Mehrheiten ökonomische und soziale Reformen erreichen wollte. In Frankreich vertrat bzw. vertritt die von relativ starken Gewerkschaften getragene KPF in den 70er Jahren und seit dem Zusammenbruch des Ostblocks eurokommunistische Standpunkte. Neomarxismus. Die Kritische Theorie der Frankfurter Schule wollte zur Herausbildung eines neuen "revolutionären Subjekts" aus der „formierten Gesellschaft“ des Spätkapitalismus beitragen, um den „autoritären Charakter“ (Erich Fromm) und „eindimensionalen Menschen“ (Herbert Marcuse) sowohl des Faschismus wie auch des orthodoxen Staatskommunismus zu überwinden. In ihrem Gefolge steht die Wertkritik von Autoren wie Michael Heinrich, Robert Kurz und Moishe Postone. Kommunistische Splitterparteien. In Westdeutschland, wo die Kommunistische Partei 1956 verboten wurde, entstanden in der politischen Spannungslage nach der Studentenbewegung zahlreiche sogenannte K-Gruppen, die oft stark gegeneinander konkurrierten und sich je nach Vorbild an einen oder mehrere „real existierende“ kommunistische Staaten anlehnten. Innermarxistische, sozialistische und liberale Kritikansätze. Die Kritik an den real existierenden Systemen mit Im Zentrum vieler Kritikansätze steht die Einparteienherrschaft, die das gemeinsame Kennzeichen der „Volksdemokratien“ war und ist. Formell konnten z. B. im Blockparteiensystem der DDR weitere kleine Parteien existieren, die aber gleichgeschaltet mit der SED waren und deren Mehrheit nie gefährden durften. Totalitarismus. Die Totalitarismus-Theorie vergleicht seit ihrem Aufkommen in den 1920er-Jahren die politischen Systeme des Faschismus mit dem des Marxismus-Leninismus beziehungsweise Stalinismus. Ihre Vertreter gehen von formalen und inhaltlichen Ähnlichkeiten der Systeme und Parteikonzepte aus. Kritiker, insbesondere in Deutschland, werfen ihnen vor, damit die Einmaligkeit des Nationalsozialismus zu leugnen und seine Verbrechen zu verharmlosen. Allgemein muss differenziert werden zwischen historisch tatsächlich existent gewesenen Ausprägungen und dem theoretischen Gebilde des Kommunismus, die nicht bereits deckungsgleich seien. Linkskommunismus. Bereits in den 1920ern kristallisierte sich innerhalb der kommunistischen Bewegung der "Linkskommunismus" als eigene Strömung heraus. Bekanntester Vertreter war Amadeo Bordiga. Er kritisierte sowohl die Stalinisierung innerhalb der kommunistischen Parteien als auch den Trotzkismus. Während die meisten kommunistischen Organisationen nach 1945 den real existierenden Sozialismus verteidigten, haben Bordiga und die Internationale Kommunistische Partei in mehreren Schriften dargelegt, warum die Sowjetunion und die anderen „realsozialistischen“ Staaten für sie nicht sozialistisch seien, sondern eine besondere Form der kapitalistischen Entwicklung darstellen würden. Andere linkskommunistische Theoretiker, die in den 1920er-Jahren in Abgrenzung von Lenin eine Räteherrschaft des Proletariats anstrebten (Rätekommunismus), waren Anton Pannekoek und Otto Rühle, aber auch Karl Korsch und andere Vertreter des „ultralinken“ Flügels der KPD, der 1925/1926 im Prozess der Stalinisierung aus der Partei gedrängt wurden. Sie bezogen sich, anders als Rühle und Pannekoek, positiv auf den Leninismus. Die Rezeption von Korsch und Rühle beeinflusste zwei Generationen später die deutsche Studentenbewegung. Linkskommunistische Positionen im weiteren Sinn wurden seit dem Zusammenbruch des Realsozialismus wieder häufiger vertreten. Postkommunistische Parteien. Nach dem Ende des real existierenden Sozialismus reformierten sich viele der zuvor staatstragenden kommunistischen Parteien, gaben sich neue Programme und Namen. Diese Parteien setzten auf Konzepte wie die Basisdemokratie und den demokratischen Sozialismus anstelle einer "Diktatur des Proletariats" und dem Führungsanspruch einer einzigen Partei. Postmarxistische Ansätze. Aufbauend auf der kritischen Theorie bildete sich vor allem in akademischen Milieus eine alternative kritische Auseinandersetzungen mit der bürgerlich-kapitalistischen Gesellschaftsordnung heraus. Als Ausdruck dieser Gesellschaftsform kritisiert werden bestimmte Ideologien und Tendenzen wie Arbeitsfetisch, Personalisierung abstrakter Verhältnisse, Antisemitismus und Antiamerikanismus. Dabei beziehen sich die Kritiker nicht nur auf Karl Marx, sondern vor allem auch auf die Vertreter der „Kritischen Theorie“ (Adorno, Horkheimer). In den 1990er Jahren bildeten sich im linksalternativen Spektrum zwei neue gesellschaftskritische, postmarxistische Strömungen, die besonders nach dem 11. September 2001 Auftrieb bekamen, heraus: „Wertkritiker“ und daneben in Deutschland und Österreich die „Antideutschen“. Beide Strömungen wollen prozessual die bürgerlich-kapitalistischen Verhältnisse aufheben und in eine „befreite“ Gesellschaft transformieren. Der Kapitalismus wird dabei einer neu akzentuierten Analyse unterzogen. Das Ziel dabei sei in einem Diskussions- und Transformationsprozess, eine zwanglose und gemeinschaftliche Gesellschaft, in der der Mensch und seine Bedürfnisse im Mittelpunkt stehe, entstehen zu lassen. Besonders die Antideutschen beharren auf dem von Adorno ("Negative Dialektik", "Minima Moralia") proklamierten Bilderverbot, also dem bewussten Verzicht auf das Ausmalen der befreiten Zukunft. Beide Strömungen grenzen sich scharf vom traditionellen Marxismus ab, da dieser das Proletariat als so genanntes „revolutionäres Subjekt“ sieht und den Begriff der „Arbeit“ positiv besetzt. Dagegen wird Arbeit streng als spezifisch kapitalistische und aus dem Lebensalltag der Menschen herausgerissene menschliche Tätigkeit kritisiert. Auch die marxistische Klassenkampf-Rhetorik wird als Personalisierung abgelehnt. Der Organisationsgrad der beiden Strömungen ist bewusst niedrig, es handelt sich dabei um lose verbundene Gruppen. Den „real existierenden Sozialismus“ analysieren die Postmarxisten als eine spezifische Form von Entwicklungsdiktaturen, die unter der Vorgabe (und im Glauben), eine sozialistische Gesellschaft zu errichten, nur eine "nachholende Industrialisierung" auf dem Boden der warenproduzierenden Vergesellschaftung durchsetzten. Ein bekannter Wertkritiker ist Moishe Postone. Ein bekannter Antideutscher war früher Jürgen Elsässer, der sich jedoch vom antideutschen Gedankengut abgewandt hat. Bei den Antideutschen handelt es sich großteils um jüngere Menschen, die starken Bezug zur Antifa-Bewegung haben. Der Charakter speziell der Antideutschen-Bewegung, die uneingeschränkte Solidarität mit Israel hegt, ist innerhalb der linken Szene Gegenstand von Kontroversen. Den Antideutschen, die sich selbst als links verstehen, wird dabei Rassismus und Kriegstreiberei vorgeworfen. Kritiker meinen, dass antideutsches Denken in nationalen Kategorien verhaftet bleiben würde. Andersherum werfen Antideutsche ihren vor allem linken Gegnern charakteristischerweise strukturellen Antisemitismus vor. Chuch’e-Ideologie. Eine weitere Spielart des Postkommunismus ist die von Kim Il-sung entwickelte und seit 1977 (damals schaffte man den Marxismus-Leninismus ab) in Nordkorea praktizierte, sogenannte Chuch’e-Ideologie, bei der nicht mehr eine klassenlose Gesellschaft, sondern nur mehr eine Art „Freundschaft der Klassen“ das Ziel sein soll, hinzu kommt noch eine stark nationale Komponente, die die eigenen Interessen über die der Bewegung stellt. Des Weiteren wird betont, dass nicht die kommunistische Partei oder das Proletariat die Gesellschaft transformieren soll, sondern ein einzelner „Arbeiterführer“, dem bedingungslose Loyalität zu gewähren ist. International findet die Chuch’e-Ideologie kaum Anklang, allerdings existieren in einigen Ländern Afrikas und Südamerikas sogenannte Chuch’e-Studiengruppen. Keith Jarrett. Keith Jarrett (* 8. Mai 1945 in Allentown, Pennsylvania) ist ein US-amerikanischer Pianist, der sowohl Jazz als auch klassische Stücke spielt. Jarretts Spiel war vor allem in den siebziger Jahren durch weit ausgreifende Soloimprovisationen gekennzeichnet, die in ungewöhnlich umfangreichen Live-Mitschnitten dokumentiert sind (u. a. "Lausanne", "The Köln Concert", "The Sun Bear Concerts"). Leben und Werk. Keith Jarrett ist der älteste von fünf Söhnen einer christlich geprägten Familie. Sein Bruder Chris ist ebenfalls Pianist und lebt in Deutschland. Keith Jarrett hatte seit dem dritten Lebensjahr Klavierunterricht und stand als Siebenjähriger zum ersten Mal auf der Bühne. Als „Wunderkind“ spielte er weitere Konzerte, u. a. auch 1962 ein eigenes, zweistündiges Klavierkonzert, ohne jemals Orchestrierungs- oder Kompositionsunterricht erhalten zu haben. Seine Mutter und er schlugen ein Angebot zur Ausbildung bei Nadia Boulanger in Paris aus. Jarrett verbrachte ein Jahr am Berklee College of Music in Boston, dem er aber – außerordentlich begabt und spieltechnisch versiert – wenig abgewinnen konnte. Schon zuvor begann er als Barpianist seine Laufbahn als Live-Musiker. Anschließend arbeitete er ab 1963 mit bekannten Jazzmusikern wie Chet Baker, Lee Konitz und für längere Zeit mit Art Blakey zusammen. Im Jahr 1966 engagierte ihn der Saxofonist Charles Lloyd für seine Band, mit der er mehrere Europatourneen und auch Auftritte beim Monterey Pop Festival und im Fillmore West absolvierte. Mitte 1968 gründete er mit dem Bassisten Charlie Haden und dem Schlagzeuger Paul Motian ein eigenes Trio, das er von 1971 bis 1976 durch den Saxofonisten Dewey Redman ergänzte (so genanntes amerikanisches Quartett). Der Durchbruch jedoch gelang Jarrett als Mitglied der Jazzrockformationen von Miles Davis, wo er zwischen 1969 und 1971 vor allem E-Piano und Orgel spielte. Erst im Anschluss trat er auch als Solokünstler auf und spielte Soloplatten ein. Bis zum Jahr 1975 spielte er rund 50 Solo-Konzerte in aller Welt. Aufnahmen wie "Solo Concerts Bremen/Lausanne" (1974) und "The Köln Concert" (1975) dokumentieren dies. Die Aufnahmen von fünf Solo-Auftritten in Japan vor 40.000 Zuhörern wurden 1979 unter dem Titel "Sun Bear Concerts" in einer Kassette mit 10 LPs veröffentlicht. Ungefähr zur gleichen Zeit brachte ihn sein Produzent Manfred Eicher zu Projekten wie seinem sogenannten Europäischen Quartett mit dem Saxofonisten Jan Garbarek und der aus Palle Danielsson und Jon Christensen bestehenden Rhythmusgruppe ("Belonging", 1974, "My Song", 1978). Während der frühen 1970er Jahre arbeitete Jarrett aber auch mit anderen Musikern wie Freddie Hubbard, Airto Moreira, Kenny Wheeler ("Gnu High", 1975) und Charlie Haden ("Closeness") zusammen. Neben den Aktivitäten im Konzertsaal begann Jarrett auch, sich für klassische Musik und im Jazz unübliche Instrumente zu interessieren. Die Alben "Hymns, Spheres" (1976) und "Invocations – Moth and the Flame" (1979) entstanden an der Riepp-Kirchenorgel in Ottobeuren, die Aufnahme "In the Light" brachte ihn 1973 mit dem Südfunk-Sinfonieorchester zusammen, "Book of Ways" (1986) präsentierte ihn am Clavichord; die während der folgenden Jahre entstandenen, mehrfach preisgekrönten, bei der Kritik umstrittenen Einspielungen von Johann Sebastian Bachs "Goldberg-Variationen" (1989) und seines "Wohltemperierten Klaviers" (1987/90) spielte er zum Teil auf dem Cembalo. Zu Beginn der 1980er Jahre, nach einer ersten großen persönlichen Krise, belebte er mit der 1983 einsetzenden Serie von Standards-Einspielungen das Broadway- und Tin-Pan-Alley-Repertoire wieder und gab im Trio mit Gary Peacock am Kontrabass und Jack DeJohnette am Schlagzeug auch dem Klaviertrio-Format neue Impulse. Seitdem folgten zahlreiche, überwiegend live aufgenommene Einspielungen dieser Gruppe, wobei die Schallplattenfirma allerdings auf eine abwechselnde Veröffentlichung mit Solo-Darbietungen (aus Paris 1988, Wien 1991 und Mailand 1995) achtete. Jarrett litt seit Mitte der 1990er Jahre am chronischen Erschöpfungssyndrom. Erst 1998 konnte er wieder mit dem Klavierspiel beginnen. Nach der Genesung nahm er das Solo-Album "The Melody at Night, with You" auf, das zunächst nur ein privates Weihnachtsgeschenk für seine zweite Frau Rose Anne war. In einem Interview äußerte Jarrett, jedes Solokonzert sei für ihn etwas ganz Besonderes, weil ihm diese Krankheit klargemacht habe, dass jedes Konzert sein letztes sein könnte. Das höre man auch seiner Musik an. Er gebe sich sichtlich Mühe, bei seinen neuen Konzerten vollkommen zu spielen und nicht mehr „einfach drauflos“ wie bei seinen berühmten Aufnahmen aus den 80er Jahren. Außerdem setzte er seine internationale Konzerttätigkeit mit seinem Trio fort. Zu seinen wichtigsten Aufnahmen der neuesten Zeit gehören "Always Let Me Go" (2001), "Up for It" (2002) und die Solo-Doppel-CD "Radiance" (2005). Die Musik von Keith Jarrett ist, wie er in einem Fernsehinterview 2005 berichtete, geprägt durch die Philosophie und Lehre Georges I. Gurdjieffs, dessen "Sacred Hymns" (ECM) er bereits 1980 veröffentlichte, sowie durch die Beschäftigung mit verschiedenen außermusikalischen Themenbereichen. Keith Jarretts jüngerer Bruder Chris Jarrett ist ebenfalls Pianist. Sein Bruder Scott Jarrett ist als Singer-Songwriter und Produzent tätig. Wirkung. Keith Jarrett gehört zu den erfolgreichsten und stilprägenden Musikern der vergangenen vier Jahrzehnte und hat vor allem durch seine frühen Solo-Konzerte maßgeblich die Vorstellung vieler Menschen von zeitgenössischer Improvisation beeinflusst. Dabei baute er ein leicht verständliches, transparentes Prinzip des freien Flusses motivisch geprägter Improvisationen aus und kultivierte es. Der große Durchbruch kam 1975 schlagartig mit der Veröffentlichung seines legendären, eigentlich unter unglücklichen Umständen stattfindenden The Köln Concert, das von der damals achtzehnjährigen Konzertveranstalterin Vera Brandes organisiert wurde. Bei Kritikern und beim Publikum war das "Köln Concert" ein großer Erfolg. Die Platte bekam den Preis der Deutschen Phono-Akademie und wurde vom Time Magazine zu einer der „Records of the Year“ gewählt. Die Verkaufszahlen liegen bei ca. 3,5 Millionen verkaufter CDs und Schallplatten. Die Platte mit ihrem markanten weißen Cover war in vielen Haushalten zu sehen und „zierte die Plattenschränke jener Zeit wie die Poster von Che Guevara in Studentenbuden ein Jahrzehnt zuvor.“ Es ist nach wie vor Jarretts bekannteste Plattenaufnahme. Auszeichnungen. 2003 erhielt Jarrett den Polar Music Prize, 2004 wurde er mit dem Léonie-Sonning-Musikpreis ausgezeichnet. 2008 wurde er in die Down Beat "Hall of Fame" aufgenommen. 2014 erhielt er mit der NEA Jazz Masters Fellowship die höchste amerikanische Auszeichnung für Jazzmusiker. Diskografie. Unter dem ECM-Label wurden über 40 Alben des Pianisten veröffentlicht. Zusätzlich hat er einige Aufnahmen des klassischen Repertoires herausgegeben. Hier sind vor allem die Einspielungen der "Goldberg-Variationen" und des "Wohltemperierten Klaviers" von Johann Sebastian Bach zu erwähnen, sowie die Solo-Suiten für Klavier/Cembalo von Georg Friedrich Händel und auch die 24 Präludien und Fugen von Dimitri Schostakowitsch. Außerdem ist Keith Jarrett als Pianist bei Produktionen anderer Musiker wie Miles Davis, Jan Garbarek oder Kenny Wheeler vertreten. Neben den berühmten Solokonzerten, auf denen er ausschließlich improvisiert, ist sein Jazztrio mit Gary Peacock am Bass und Jack DeJohnette am Schlagzeug sehr bekannt. Die Zusammenarbeit begann mit den Aufnahmen zu den "Standards"-Alben und hält bis heute an. Auf jüngeren Live-Aufnahmen versucht sich das Trio in der freien Improvisation, während auf älteren Alben die Interpretation von Jazz-Standards betont wird. Beachtung verdienen auch die vor allem in den 1970ern entstandenen Kurzkompositionen, die er mit seinen beiden Quartetten, dem europäischen und dem amerikanischen, aufgenommen hat. Keith Jarrett spielt neben Klavier auf manchen Aufnahmen auch Orgel, Flöte oder Saxophon. Quartett- und Trioaufnahmen (Auswahl). Zunächst Aufnahmen mit seinem "Amerikanischen Quartett" (mit Dewey Redman (ts), Charlie Haden (b); Paul Motian (dr) sowie seinem "Europäischen Quartett" (mit Jan Garbarek (ts, ss), Palle Danielsson (b), Jon Christensen (dr), später Aufnahmen mit dem "Standards"-Trio (mit Gary Peacock und Jack de Johnette) Klassische Musik. Der Begriff klassische Musik ist nicht eindeutig. Je nach Kontext kann er verschiedene Bedeutungen haben. Hauptbedeutung. In dieselbe Richtung geht die Bezeichnung E-Musik („ernste Musik“), die der U-Musik („unterhaltende Musik“) gegenübergestellt wird. Diese Abgrenzung ist heute nicht mehr üblich. Auch bei nicht-westlichen Musikkulturen spricht man von klassischer Musik, um ältere Traditionen von der modernen Popularmusik abzugrenzen, zum Beispiel klassische arabische Musik, klassische türkische Musik, klassische indische Musik, klassische chinesische Musik. Weitere Bedeutungen. "Klassisch" kann als Adjektiv für die Musikepoche der Klassik gebraucht werden (Frühklassik und Wiener Klassik, siehe oben). Mit "klassisch" kann auch das klassische Instrumentarium gemeint sein, im Unterschied zur elektronisch verstärkten Popmusik. In diesem Fall werden auch populäre Formen wie Tanzmusik, Blasmusik oder die gehobene Unterhaltungsmusik zur klassischen Musik gerechnet. Umgangssprachlich bezeichnet man als Klassik oder klassische Musik das standardisierte, bürgerliche Konzertwesen, dessen Höhepunkt zwischen 1870 und 1910 lag und bis in die Gegenwart den Musikbetrieb bestimmt. Kontinent. Weltkarte der Ozeane und Kontinente (Bildmontage aus Satellitenaufnahmen) Ein Kontinent (lat. "terra continens" „zusammenhängendes Land“) ist eine geschlossene Festlandmasse. In vielen Sprachen stammt das Wort für "Kontinent" ebenfalls aus dem lateinischen "continens". Im Deutschen gibt es daneben die Bezeichnung Erdteil, im Russischen entsprechend Части света („Teil der Erde“). Die "Encyclopædia Britannica" definiert den Begriff "Kontinent" geografisch als „eine der größeren zusammenhängenden Landmassen, nämlich Asien, Afrika, Nordamerika, Südamerika, Antarktika, Europa und Australien (der Größe nach geordnet)“. Die Kontinente im geografischen Sinn machen insgesamt 29,3 Prozent der Erdoberfläche aus, ungefähr 148 Millionen Quadratkilometer. Den Rest nehmen die Ozeane, Meere und Inseln ein. Heute sind in Geografie und Geologie jeweils unterschiedliche Einteilungen der Kontinente üblich. Geopolitisch gesehen gibt es die sieben Kontinente Asien, Europa, Nordamerika, Südamerika, Afrika, Australien-Ozeanien und Antarktika. Definitionen. Die Publikation der renommierten "National Geographic Society", das amerikanische Magazin mit gleichem Namen "(„NatGeo“)", bezeichnet Kontinente als zu unterscheidende Regionen, Areale der Erde und legt auch die Anzahl der Teile fest, nämlich – "sieben". Einer Veröffentlichung einer Unterrichtshilfe (einem Übungsblatt) der traditionsreichen britischen Royal Geographical Society ist diese Zahl ebenso zu entnehmen. Die sechs größeren (Asien, Afrika, Nordamerika, Südamerika, Antarktika und Europa) sind bei beiden aufgeführt. Der einzige Unterschied betrifft die Bezeichnung der kleinsten Erdregion. Die US-amerikanische Quelle bezeichnet sie, ins Deutsche übertragen, jeweils als "Australien" und die britische als "Ozeanien". Demnach ist nach der Lesart des aktuellen britischen Schulformulars Australien ein Teil des Kontinents Ozeanien. An dieser Feinheit ist abzulesen, wie vielseitig die Problematik sein kann, eine Definition für den Begriff Kontinent zu finden. Die Publikation der "NatGeo-Society" führt hier für die geografische Definition als Beispiel Japan an – diese Insel bzw Inselgruppe gehört zum Kontinent Asien, obwohl sie nicht aus kontinentaler Kruste besteht. Nach dieser Veröffentlichung sind die Landfläche der Kontinente sowie von Inseln wie Japan, Grönland und die Karibischen Inselstaaten eingeschlossen. Nur ein kleiner Teil der Erdoberfläche gehört nicht dazu. Von Kontinenten geologisch-tektonisch unabhängig (im Sinne von „selbstständig“) seien aktive einzelne oder Gruppen von Inseln wie beispielsweise Mauritia, Zealandia Neuseeland/New Caledonia/Südpazifik-Inseln, Französisch-Polynesien und Hawaii-Gruppe, da sie "Mikrokontinente" in sich selbst seien. Getrennt würden alle Kontinente letztlich durch die Ozeane. Soweit die US-amerikanische Definition der „National Geographic“, nach deren Ausführungen neben den bereits genannten Archipelen Madagaskar, der Maskarenenrücken (Inselgruppen Seychellen/Réunion), sowie jeweils der Kerguelen- und der Jan Mayen-Archipel weitere Kleinstkontinente sind. Das bedeutet eine Unterteilung in die sieben genannten Kontinente, erweitert um sieben Mikrokontinente. Letzteres spiegelt auch die zunehmende Erforschung der Tektonik von Mikroplatten wider. ("Siehe auch" → Mikroplatte) "Topographisch" und traditionell versteht man unter einem Kontinent eine große zusammenhängende Landmasse, die durch Wasser oder andere natürliche Grenzen völlig oder zumindest fast völlig abgegrenzt ist. Auch große Landmassen, die nur durch eine schmale Landenge verbunden sind (wie beispielsweise zwischen Afrika und Asien sowie zwischen Nord- und Südamerika) werden meist als verschiedene Kontinente betrachtet. Hier bestehen allerdings unterschiedliche Auffassungen, ob es sich nicht auch um einen einzigen Groß- bzw. Super-, mit zwei Sub- oder um jeweils zwei völlig selbstständige Kontinent(e) handelt. "Geologisch" umfasst ein Kontinent auch das ihm zugehörige Schelfgebiet, also den Festlandssockel im Flachmeer. Die leichtere kontinentale Erdkruste, zu der auch die Festlandssockel gehören, unterscheidet sich mit einer geringeren Dichte von 2,7 g/cm³ und einer anderen chemischen Zusammensetzung von der ozeanischen Kruste, die eine mittlere Dichte von etwa 3,0 g/cm³ aufweist. Neben diesen beiden gibt es auch eine "historisch-politische" Dimension. Beleg hierfür ist die Tatsache, dass Europa trotzdem als eigener Erdteil gilt, obwohl das nach den eben genannten geografisch-technischen Bedingungen gar nicht sein dürfte. In der Publikation der NatGeoSociety der USA ist dies so formuliert: "„‚Kontinent‘ hat mehr als nur eine physische Definition“". So stabil uns die heutige Verteilung der Landmassen auf der Erde auch erscheinen mag, so stellt sie "erdgeschichtlich" nur eine Momentaufnahme dar. Die Kontinente sind aufgrund der Plattentektonik ständig in Bewegung und haben sich in der Geschichte unseres Planeten schon mehrfach zu einer einzigen großen Landmasse (Superkontinent wie beispielsweise Pangaea) vereinigt und dann wieder in kleinere Kontinente getrennt (Kontinentaldrift). Anzahl der Kontinente. Einige weitere Quellen sind der Meinung (wie bereits in der Unterrichtshilfe der "Royal Geographic" beschrieben), dass "Ozeanien" anstelle "Australien" der korrekte Name dieses pazifischen Erdteils ist. Geschichte der Zählweisen. Der Versuch, die Anzahl der Kontinente auf dem Globus zu bestimmen, zieht sich durch die gesamte Zeitrechnung. Die Zähl- und Sichtweisen variieren stark. Herodot teilte die Welt ursprünglich in drei Kontinente: Europa, Asien und Libyen (heute Afrika). Seine Dreiteilung wurde für das gesamte Altertum als verbindlich angesehen. poly 685 19 467 15 318 60 219 55 150 99 149 125 236 106 219 198 266 280 368 341 354 392 406 455 440 613 482 621 503 603 462 560 566 403 452 326 460 293 389 234 432 184 511 155 579 82 Amerika poly 637 84 651 93 672 83 666 127 662 200 680 210 739 194 757 210 806 213 805 189 862 180 905 197 886 138 917 137 900 80 912 68 907 35 766 23 Europa poly 1306 73 1032 47 953 25 910 52 916 74 905 84 918 135 891 140 908 200 865 181 808 190 808 217 882 313 972 261 1033 345 1030 303 1071 272 1089 301 1131 399 1246 420 1193 241 1254 211 Asien poly 46 264 67 265 75 288 53 280 Australien poly 1242 367 1248 420 1156 465 1155 531 1225 519 1255 574 1332 586 1398 553 1480 437 1417 329 1296 287 1252 332 Australien poly 677 209 626 270 626 311 665 353 724 350 743 440 776 529 806 530 850 477 885 490 944 465 933 391 890 436 862 404 896 357 913 318 884 322 832 231 736 198 Afrika poly 272 720 533 663 593 720 695 685 873 671 1021 661 1215 695 1222 721 1144 752 345 752 Antarktis Mit der Entdeckung Amerikas und der Kolonisation der Neuzeit herrscht über die Zählweise der Kontinente Uneinigkeit. Umstritten sind hauptsächlich die Einteilung in Nordamerika und Südamerika und die Einteilung in Europa und Asien. Die olympischen Ringe, die als Symbol 1913 entworfen wurden, symbolisieren die fünf (an den Olympischen Spielen teilnehmenden) Kontinente (Afrika, Amerika, Asien, Australien und Europa). Es existieren auch noch weitere davon abweichende Einteilungen. Zwei nennenswerte geologisch tektonische Modelle leiten sich aus dem erstmals 1912 publizierten Konzept von Alfred Wegener ab, dass zu Ende des Paläozoikums alle Kontinente in einem Superkontinent Pangaea vereinigt waren und sich langsam durch Aufspaltung aufgrund aktiven Vulkanismus voneinander im sog. Kontinentaldrift (später: Plattentektonik) auseinander bewegten. Zur historisch-politischen Kategorie gehören die Versuche, Mittelamerika oder den Nahen Osten als eigene Kontinente abzutrennen, sowie die Zusammenfassung der Inseln des Pazifischen Ozeans zu einem Kontinent Ozeanien. Kontinente und Meere sind die größten geographischen Einheiten (Landschaften) der Erde. Die Kontinente werden durch Ozeane getrennt, wobei der Schelf (= Festlandsockel) zum Kontinent zählt. (So gehört Neuguinea eindeutig zu Ozeanien, (Rest-)Indonesien zu Asien). Die so entstandenen Kontinente sind naturräumliche und humangeographische Einheiten. So werden notwendigerweise in Europa und zum Teil in Amerika die humangeographischen Faktoren schon bei den Grenzfindungen der Kontinente offen hinzugezogen, sie sind aber (ebenso wie Tier- und Pflanzenwelt, die auch zur physischen Geographie zählen) immer mitbestimmend, wenn ein Kontinent definiert wird, eben weil es sich um eine Einheit der „Erdoberfläche“ handelt. So gibt es die sieben Kontinente, wobei man die ozeanischen Inseln den nächstgelegenen Kontinenten zurechnet, z. B. die pazifischen Inseln zu Ozeanien. Ozeanische Inseln sind keine eigentliche Festlandmasse, sondern immer vulkanischer Natur, also Vulkane bzw. bis auf Meeresniveau erodierte Vulkane, die schließlich zu Atollen werden. Streng genommen – nach der Definition: „durch Ozeane getrennt“ – gibt es noch zwei weitere Kontinente (wobei auch Fauna und Flora eigenständig sind und definitorisch passen): Madagaskar und Neuseeland. Vergleich der Kontinente: Fläche und Bevölkerung. Fläche und absolute Bevölkerungszahl im Vergleich Verteilung der Weltbevölkerung auf die Kontinente Die sieben Kontinente nehmen jeweils weniger als ein Zehntel der Erdoberfläche ein. Die Fläche des größten (Asien) und des kleinsten Kontinents (Australien/Ozeanien) unterscheiden sich um den Faktor fünf. Die Besiedelung ist vom Klima und den vorhandenen Lebensgrundlagen abhängig. Auch aus geschichtlichen Gründen ist die Weltbevölkerung sehr ungleich verteilt. Die Antarktis wird nur zeitweise von wenigen Forschern und Besuchern bewohnt. Weniger als ein Prozent der Weltbevölkerung lebt in Australien und Ozeanien. In Europa, Amerika und Afrika lebt jeweils etwas mehr als ein Achtel der Weltbevölkerung. Fast zwei Drittel leben jedoch in Asien, und diese vor allem in China und Indien. Namensgebung. Die Namen der Kontinente sind in der ursprünglichen lateinischen Form alle weiblich und enden entsprechend einheitlich auf "-a". Besonderheiten. Während der letzten Eiszeit waren durch Beringia Amerika (Nord- und Südamerika) und Eurasien (Europa und Asien) miteinander verbunden, und über die Sinai-Halbinsel auch Afrika mit den anderen Kontinenten. Damals bestand somit eine durchgängige Landmasse, und Landlebewesen wie der Mensch hätten fünf Kontinente trockenen Fußes durchwandern können: Afrika, Europa, Asien sowie Nord- und Südamerika. Weitere Begriffe. Weiterhin gibt es die Begriffe Großkontinent, Superkontinent und Urkontinent. Kanzlerkandidat. a>, Leipzig 1990. Kohl hält den Rekord, sechsmal Kanzlerkandidat gewesen zu sein (zwischen 1976 und 1998, das erste Mal noch als Oppositionsführer). Ein Kanzlerkandidat wird in der Bundesrepublik Deutschland im Allgemeinen von der CSU oder der SPD vor einer Bundestagswahl nominiert. Die Partei gibt damit zu verstehen, dass später ihre Bundestagsfraktion diesen Kandidaten zum Bundeskanzler wählen will. Bei den übrigen Parteien heißt der wichtigste Kandidat normalerweise Spitzenkandidat. Der Bundeskanzler wird gemäß Artikel 63 des Grundgesetzes nicht vom Volk, sondern vom (meist zuvor neu gewählten) Deutschen Bundestag gewählt. Da die Mehrheitsverhältnisse im Bundestag auch für die Wahl des Bundeskanzlers ausschlaggebend sind, nominieren die beiden großen Parteien traditionell bereits vor der Bundestagswahl einen Kanzlerkandidaten, um zu zeigen, wer Bundeskanzler werden soll. Kanzlerkandidat der SPD für die Bundestagswahl 2013 war Peer Steinbrück. Nominierung. In der politischen Praxis wird im Vorfeld der Bundestagswahl zumindest von den großen Parteien eine Person als Kanzlerkandidat, meist durch Abstimmung auf einem Bundesparteitag, nominiert. Der jeweilige Kanzlerkandidat ist dann im Wahlkampf die Hauptfigur der Partei, auch wenn er nicht direkt gewählt werden kann, sondern nur indirekt durch die Stimmabgabe für die Partei, von der er nominiert worden ist. Bei den Schwesterparteien CDU/CSU wird in der Praxis nur ein Kandidat von beiden Parteien (auf je einem verschiedenen Parteitag) nominiert. Auf dem SPD-Parteitag 1960 (in Hannover) wählte zum ersten Mal eine deutsche Partei einen Kanzlerkandidaten, während der gewählte Vorsitzende (Erich Ollenhauer) im Amt blieb. Egon Bahr schrieb in einem Buch 2013, Klaus Schütz habe diese Idee aus den USA mitgebracht, wo er den Wahlkampf von John F. Kennedy beobachtete. Manchmal strebt der amtierende Kanzler eine Wiederwahl an; gleichwohl kann es in seiner Partei zu einer Diskussion darüber kommen (Beispiel: Kohl 1998). Die Frage nach dem aufzustellenden Kanzlerkandidaten kann bei der jeweiligen Oppositionspartei zu starken Auseinandersetzungen innerhalb der Partei führen. Zusätzliche Auseinandersetzungen zwischen den beiden Unionsparteien gibt es, wenn neben der größeren CDU auch die CSU Ambitionen hat, den Kanzlerkandidaten zu stellen. Für die Suche nach dem Kanzlerkandidaten wurde im Vorfeld der Bundestagswahl 2002 bei dem Duell zwischen Edmund Stoiber und Angela Merkel der Begriff "Kanzlerfrage" (kurz "K-Frage") geprägt. Üblicherweise ist ein Kanzlerkandidat, der noch nicht Kanzler ist, Partei- bzw. Fraktionsvorsitzender oder Ministerpräsident in einem Bundesland - bisher (Stand 2013?) wurde auch kein zum Ende der Legislaturperiode amtierender Vizekanzler einer Großen Koalition bei der Nominierung übergangen. Üblicherweise erhält der Kanzlerkandidat von seinem Heimat-Landesverband den ersten Platz auf der Landesliste. Geschichte. Im Kaiserreich (1871–1918) wurde der Reichskanzler vom Kaiser ernannt; das Volk und der von diesem gewählte Reichstag hatten noch kein Mitspracherecht bei der Besetzung dieses Amtes. In der Weimarer Republik (1918/19–1933) wurde dem Parlament ein nichtkonstruktives Misstrauensvotum eingeräumt, während die Ernennung an sich weiterhin dem Staatsoberhaupt, dem Reichspräsidenten, oblag. Dementsprechend war die Benennung von Kanzlerkandidaten noch nicht üblich. Sie war es ebenso wenig in den ersten Jahren der Bundesrepublik; die Benennung eines Kanzlers war vielmehr ein Gegenstand von Koalitionsverhandlungen und wurde erst nach der Wahl vom jeweils siegreichen Parteienbündnis durchgeführt. Eine Entwicklung, die erst im Laufe der 1950er Jahre zu ihrem vorläufigen Abschluss kam, brachte hier eine Veränderung: die Etablierung von großen Volksparteien mit Aussicht entweder auf eine absolute Mehrheit oder auf eine Koalition mit einem sehr viel kleineren Juniorpartner. Nun erst konnten diese Parteien realistisch mit dem Anspruch auftreten, ihren Kandidaten im Falle eines Wahlsieges auch tatsächlich durchzusetzen. Der erste ausdrücklich nominierte "Kanzlerkandidat" der Opposition war 1961 der damalige Regierende Bürgermeister von Berlin, Willy Brandt (SPD). Den Begriff hat Klaus Schütz 1960 nach einem USA-Aufenthalt in Anlehnung an die Präsidentschaftskandidatur Kennedys geprägt. Zuvor galten die jeweiligen Partei- und Fraktionsvorsitzenden der Opposition als „natürliche“ Kandidaten; ebenso trat bei allen bisherigen Bundestagswahlen der amtierende Bundeskanzler als Kandidat seiner jeweiligen Partei an. Der Versuch wurde meist kritisch bis hämisch kommentiert, auch Westerwelle selbst bezeichnet seine Auszeichnung als „Kanzlerkandidat“ im Nachhinein als Fehler. Außerdem ernannten einige nicht im Bundestag vertretene Parteien eigene Kanzlerkandidaten. Alle diese Parteien hatten allerdings kaum Aussicht auf das Überwinden der Fünf-Prozent-Hürde, weswegen für diese Kanzlerkandidaten erst recht keine Möglichkeit bestand, wirklich Kanzler zu werden. Zur Bundestagswahl 2009 ernannte die SPD Frank-Walter Steinmeier zum Kanzlerkandidaten; die CDU ging mit Angela Merkel als Bundeskanzlerin in den Wahlkampf, ohne sie zur Kanzlerkandidatin zu nominieren. Helmut Kohl dagegen ließ sich seinerzeit auch dann zum Kanzlerkandidaten ernennen (teilweise nur durch Akklamation), wenn er als Bundeskanzler in den Wahlkampf zog. Kanada. Kanada (englisch und französisch Canada) ist ein nordamerikanischer Staat, der zwischen dem Atlantik im Osten und dem Pazifik im Westen liegt und nordwärts bis zum Arktischen Ozean reicht. Die einzige Landgrenze ist jene zu den USA im Süden und im Nordwesten. Der Fläche nach ist Kanada nach Russland der zweitgrößte Staat der Erde. Die Besiedlung durch Indianer (First Nations) begann spätestens vor 12.000 Jahren, die Inuit folgten vor rund 5000 Jahren. Ab dem späten 15. Jahrhundert landeten Europäer an der Ostküste und begannen um 1600 mit der Kolonialisierung. Dabei setzten sich zunächst Franzosen und Engländer fest. In dieser Zeit breitete sich die Bezeichnung „Canada“ aus, das ursprünglich ein Name für ein Irokesendorf war. Frankreich trat 1763 seine Kolonie Neufrankreich an Großbritannien ab. 1867 gründeten vier britische Kolonien die Kanadische Konföderation. Mit dem Statut von Westminster erhielt das Land 1931 gesetzgeberische Unabhängigkeit, weitere verfassungsrechtliche Bindungen zum Vereinigten Königreich wurden 1982 aufgehoben. Nominelles Staatsoberhaupt ist Königin Elisabeth II., die durch einen Generalgouverneur vertreten wird. Kanada ist ein auf dem Westminster-System basierender parlamentarisch-demokratischer Bundesstaat und eine parlamentarische Monarchie. Amtssprachen sind Englisch und Französisch. Die Unabhängigkeitsbestrebungen der Provinz Québec, die Stellung der frankophonen Kanadier und die Rechte der indigenen Völker (First Nations, Inuit und Métis) sind zentrale Konfliktlinien innerhalb von Staat und Gesellschaft. Die Themen Klimawandel und Umweltschutz, Einwanderungspolitik und Rohstoffabhängigkeit sowie das Verhältnis zum südlichen Nachbarn, von dem kulturell und historisch bedingt ein zwiespältiges Bild besteht, kennzeichnen die öffentlichen Debatten. Herkunft des Namens. a>, Porträt von Théophile Hamel (1817–1870), Öl auf Leinwand, etwa 1844 Der Name Kanada ist mit hoher Wahrscheinlichkeit vom Wort "kanata" abgeleitet, das in der Sprache der Sankt-Lorenz-Irokesen „Dorf“ oder besser „Siedlung“ bedeutete. 1535 gaben Bewohner der Region um die heutige Stadt Québec dem französischen Entdecker Jacques Cartier eine Wegbeschreibung zum Dorf Stadacona. Cartier verwendete daraufhin die Bezeichnung "Canada" nicht nur für dieses Dorf, sondern für das ganze Gebiet, das von dem in Stadacona lebenden Häuptling Donnacona beherrscht wurde. Ab 1545 war auf Karten und in Büchern die Bezeichnung "Canada" für diese Region üblich. Cartier nannte außerdem den Sankt-Lorenz-Strom "Rivière de Canada", ein Name, der bis zum frühen 17. Jahrhundert in Gebrauch war. Forscher und Pelzhändler zogen in Richtung Westen und Süden, wodurch das als „Kanada“ bezeichnete Gebiet wuchs. Im frühen 18. Jahrhundert wurde der Name für den gesamten heutigen mittleren Westen bis Louisiana benutzt. Die seit 1763 britische Kolonie Québec wurde 1791 in Oberkanada und Niederkanada aufgeteilt, was etwa den späteren Provinzen Ontario und Québec entsprach. Sie wurden 1841 wieder zur neuen Provinz Kanada vereinigt. 1867 erhielten die neu gegründeten Bundesstaaten der Kolonien in Britisch-Nordamerika den Namen „Kanada“ und den formellen Titel Dominion. Bis in die 1950er Jahre war die amtliche Bezeichnung „Dominion of Canada“ üblich. Mit der zunehmenden politischen Autonomie gegenüber Großbritannien verwendete die Regierung mehr und mehr die Bezeichnung "Canada" in rechtlich bindenden Dokumenten und Verträgen. Das Kanada-Gesetz 1982 bezieht sich nur noch auf "Canada", die inzwischen einzige amtliche (zweisprachige) Bezeichnung. Ur- und Frühgeschichte. Indianer (in Kanada First Nations genannt) besiedelten Nordamerika vor mindestens 12.000 Jahren, was den Anfang der paläoindianischen Periode markiert. Vor rund 5000 Jahren folgten die Inuit. In den Bluefish-Höhlen im nördlichen Yukon fand man die ältesten menschlichen Spuren in Kanada; in der Charlie-Lake-Höhle fanden sich Werkzeuge aus der Zeit ab etwa 10.500 v. Chr. Aus der Zeit ab etwa 9000 v. Chr. stammen Funde bei Banff und in Saskatchewan, aber auch bereits in Québec. Ab etwa 8000 v. Chr. folgte die "archaische Phase". Gruppen aus dem Westen erreichten um 7500 v. Chr. das südliche Ontario. Dort fanden sich Speerschleudern. Siedlungsschwerpunkte waren im Osten der untere Sankt-Lorenz-Strom und die Großen Seen sowie die Küste Labradors (L’Anse Amour Site) an der im 6. Jahrtausend die ersten größeren Grabstätten entstanden, später "Burial Mounds". Auf den Great Plains entstanden neue Waffentechnologien und weitläufiger Handel, etwa mit Chalzedon aus Oregon und Obsidian aus Wyoming. In einigen Gebieten wurden noch um 8000 v. Chr. Pferde gejagt; sie verschwanden ebenso wie die Megafauna. Erst später teilte sich der riesige Kulturraum erkennbar in zwei Großräume auf, die "Frühe Shield-" und die "Frühe Plains-Kultur", wobei sich Kupferbearbeitung bereits um 4800 v. Chr. zeigen lässt. Im Westen reichen die Spuren bis vor 8000 v. Chr. zurück, vielfach ohne erkennbaren kulturellen Bruch. So besteht die Kultur der Haida auf Haida Gwaii seit über 9500 Jahren. Der Handel mit Obsidian vom Mount Edziza reicht über 10.000 Jahre zurück. Vor 2500 v. Chr. bestanden im Westen Siedlungen, dazu Anzeichen sozialer Differenzierung. Hausverbände bestanden, die sich saisonal zur Jagd in großen Gruppen zusammenfanden. Auch in den Plains lassen sich Dörfer nachweisen. Die Cree, Ojibwa, Algonkin, Innu und Beothuk, die in den frühen europäischen Quellen fassbar sind, gehen wohl auf Gruppen der "Shield-Kultur" zurück. Die Plainskulturen waren durch Bisons gekennzeichnet, Hunde wurden als Trage- und Zugtiere eingesetzt, das Tipi setzte sich durch sowie die Herstellung von Pemmikan. Als wichtigste kulturelle Veränderung der Plateaukultur im westlichen Binnenland gilt der Übergang von der Nichtsesshaftigkeit zur Halbsesshaftigkeit mit Winterdörfern und sommerlichen Wanderzyklen um 2000 v. Chr. Eine ähnliche Entwicklung vollzog sich früher an der Küste, deren Kulturen sich mit den Küsten-Salish in Beziehung bringen lassen. Gegen Ende der Epoche lassen sich erstmals Plankenhäuser nachweisen. Einige Salish waren bereits vor 1600 v. Chr. Bauern – wie man von den Katzie weiß. Die Nuu-chah-nulth auf Vancouver Island entwickelten hochseetüchtige Kanus, mit denen sie (als einzige) auf Walfang gingen. Die Herstellung von Tongefäßen erreichte das Gebiet des heutigen Kanada wohl von Südamerika, Pfeil und Bogen kamen um 3000 v. Chr. aus Asien und wurden wahrscheinlich erstmals von Paläo-Eskimos eingesetzt. Er erreichte die Ostküste, kam aber erst rund drei Jahrtausende später in den Westen. An den Großen Seen lassen sich Hunde nachweisen (in Utah bereits um 8000 v. Chr.), die beerdigt wurden. Mit den Keramikgefäßen ab etwa 500 v. Chr. endete an der Ostküste die archaische Phase, die von den "Woodland-Perioden" abgelöst wurde. Manche Dörfer, meist aus Langhäusern bestehend, waren wohl schon ganzjährig bewohnt. Auf die "Frühe Woodland-Periode" an den Großen Seen und dem Sankt-Lorenz-Strom (etwa 1000 v. Chr. bis 500 n. Chr.) gehen wohl die Irokesen zurück, aber auch einige der Algonkin-Gruppen. Bis nach Zentral-Labrador zeigen sich auf dem kanadischen Schild die Einflüsse der Adena-Kultur. Ihre typischen Mounds erscheinen auch in der westlichen Schild-Kultur, beispielsweise im südlichen Ontario. Wahrscheinlich kam es infolge der Domestizierung von Wildreis zu einer herausgehobenen Schicht von Landbesitzern (Psinomani-Kultur). Der Süden Ontarios war in die Fernhandels-Beziehungen der Hopewell-Kultur eingebunden. Kupfer wurde im ganzen Osten Nordamerikas verbreitet. Die späte "Plains-Kultur" lebte in hohem Maße von Bisons. Fernhandel war weit verbreitet und reichte westwärts bis zum Pazifik. Im Norden überwogen kleinere nomadische Gruppen, während sich im Süden ein Zyklus saisonaler Wanderungen durchsetzte, deren Mittelpunkt feste Dörfer waren. Der "späten Plateau-Kultur" lieferten die Laichzüge der Lachse die Nahrung, ähnlich wie an der Pazifikküste. Ab 2500 v. Chr. lässt sich das so genannte "Pit House" („Grubenhaus“) nachweisen, das teilweise in die Erde gegraben wurde und eine bessere Bevorratung ermöglichte. Die Küstenkultur wurde zwischen 500 v. und 500 n. Chr. als Ranggesellschaft von Süden nach Norden strenger. Eine Schicht führender Familien beherrschte den Handel sowie den Zugang zu Ressourcen und hatte die politische und spirituelle Macht. Auch hier tauchen erstmals Begräbnishügel auf. In einigen Regionen herrschten Steinhaufengräbern (cairns) vor, wie etwa um Victoria. Die Dörfer wurden zahlreicher und vielfach größer, bald stärker befestigt. Die Kultur war von Plankenhäusern, oftmals monumentalen Schnitzwerken (Totempfählen), komplexen Zeremonien und Clanstrukturen gekennzeichnet. Nirgendwo war die Bevölkerungsdichte so groß, wie an der Westküste. Im Gegensatz dazu gestatteten die Klimabedingungen und starke vulkanische Aktivität im Nordwesten keine dauerhafte Ansiedlung. Mit den Athabasken verbinden sich Fundstellen im Entwässerungsgebiet des Mackenzie ab 1000 v. Chr. bis etwa 700 n. Chr. Gegen 2500 v. Chr. wanderte ein Teil der Paläo-Eskimos von Alaska nach Grönland; es entwickelte sich die Prä-Dorset-Kultur. Um 500 v. Chr. bis 1000 n. Chr. folgte die „Dorset-Kultur“ (nach Cape Dorset auf einer Baffin Island vorgelagerten Insel benannt). Um 2000 v. Chr. bis 1000 n. Chr. bestand die Neo-Eskimo-Kultur. Um 1000 setzte sich eine erneute Wanderung von Alaska nach Grönland in Bewegung. Aus der Vermischung der Kulturen ging wohl die Thule-Kultur hervor, die bis etwa 1800 bestand. Ihre Angehörigen sind die Vorfahren der heutigen Inuit. Kolonialisierung. Europäische Siedler erreichten Nordamerika spätestens um das Jahr 1000, als Wikinger während kurzer Zeit in L’Anse aux Meadows am nördlichsten Ende von Neufundland lebten. Als „Entdecker“ Nordamerikas gilt Giovanni Caboto, ein italienischer Seefahrer in englischen Diensten. Dieser landete am 24. Juni 1497 möglicherweise auf der Kap-Breton-Insel und nahm das Land für England in Besitz. Baskische Walfänger und Fischer kamen ab etwa 1525 regelmäßig an die ostkanadische Küste und beuteten ein Jahrhundert lang die Ressourcen in der Region zwischen der Neufundlandbank und Tadoussac aus. Eine Expedition unter der Leitung von Jacques Cartier erkundete 1534/35 das Gebiet um den Sankt-Lorenz-Golf und den Sankt-Lorenz-Strom und erklärte es zu französischem Besitz. Samuel de Champlain gründete 1605 mit Port Royal (heute Annapolis Royal) und 1608 mit Québec die ersten dauerhaften Ansiedlungen in Neufrankreich. Die französischen Kolonisten teilten sich in zwei Hauptgruppen: Die "Canadiens" besiedelten das Tal des Sankt-Lorenz-Stroms, die Akadier "(Acadiens)" die heutigen Seeprovinzen. Französische Pelzhändler und katholische Missionare erforschten die Großen Seen, die Hudson Bay und den Mississippi bis nach Louisiana. Die Engländer gründeten ab 1610 Fischerei-Außenposten auf Neufundland und besiedelten die weiter südlich gelegenen Dreizehn Kolonien. Zwischen 1689 und 1763 kam es in Nordamerika zu vier kriegerischen Konflikten zwischen Engländern (bzw. Briten) und Franzosen, die jeweils Teil von Erbfolgekriegen in Europa waren. Der King William’s War (1689–1697) brachte keine territorialen Veränderungen, doch nach Ende des Queen Anne’s War (1702–1713) gelangte Großbritannien durch den Frieden von Utrecht in den Besitz von Akadien, Neufundland und der Hudson-Bay-Region. Die Briten eroberten 1745 im King George’s War die französische Festung Louisbourg auf der Kap-Breton-Insel, gaben diese aber 1748 gemäß dem Frieden von Aachen wieder zurück. Der Siebenjährige Krieg (in Nordamerika von 1754 bis 1760 bzw. 1763) brachte schließlich die Entscheidung: Mit dem Pariser Frieden musste Frankreich 1763 fast alle seine Besitzungen in Nordamerika abtreten. Britische Herrschaft. a> 1770, National Gallery of Canada, Ottawa Mit der Königlichen Proklamation von 1763 entstand aus dem ehemaligen Neufrankreich die britische Provinz Québec, im selben Jahr gelangte die Kap-Breton-Insel zur Kolonie Nova Scotia. Auch wurden Rechte der französischen Kanadier eingeschränkt. 1769 wurde eine weitere Kolonie namens "St. John’s Island" (seit 1798 Prince Edward Island) gegründet. Um Konflikte in Québec abzuwenden, verabschiedete das britische Parlament 1774 den Quebec Act. Das Gebiet Québecs wurde zu den Großen Seen und zum Ohiotal ausgedehnt. Für die französischsprachige Bevölkerungsmehrheit galt das französische Zivilrecht und Französisch war als Sprache in der Öffentlichkeit anerkannt; durch die Zusicherung der freien Religionsausübung konnte die Römisch-katholische Kirche in der Kolonie verbleiben. Das Gesetz verärgerte jedoch die Bewohner der Dreizehn Kolonien, die darin eine unzulässige Beschränkung ihrer nach Westen gerichteten Expansion sahen. Der Quebec Act war eines jener „unerträglichen Gesetze“ (Intolerable Acts), die schließlich zur Unabhängigkeitserklärung der Vereinigten Staaten und zum Amerikanischen Unabhängigkeitskrieg führten. Der Frieden von Paris erkannte die amerikanische Unabhängigkeit an und die Gebiete südlich der Großen Seen fielen an die Vereinigten Staaten. Etwa 50.000 Loyalisten flohen in das heutige Kanada, dazu kamen mit den Briten verbündete Indianerstämme, wie die Mohawk. New Brunswick wurde 1784 von Nova Scotia abgetrennt, um die Ansiedlung der Loyalisten an der Atlantikküste besser organisieren zu können. Um den nach Québec geflohenen Loyalisten entgegenzukommen, verabschiedete das britische Parlament das Verfassungsgesetz von 1791, das die Provinz Québec in das französischsprachige Niederkanada und das englischsprachige Oberkanada teilte und beiden Kolonien ein gewähltes Parlament gewährte. a> (1812), James B. Dennis (1777–1855), Öl auf Leinwand, undatiert Die Spannungen zwischen den Vereinigten Staaten und Großbritannien entluden sich im Britisch-Amerikanischen Krieg, der von 1812 bis 1814 dauerte und letztlich ergebnislos endete. In Kanada wird der Krieg bis heute als erfolgreiche Abwehr amerikanischer Invasionsversuche betrachtet. Die britisch- und französischstämmige Bevölkerung entwickelte durch den Kampf gegen einen gemeinsamen Feind ein kanadisches Nationalgefühl, die Loyalität der britischen Krone gegenüber wurde gestärkt. Der Wunsch nach Selbstverwaltung und der Widerstand gegen die wirtschaftliche und politische Vorherrschaft einer kleinen Elite führten zu den Rebellionen von 1837, die rasch niedergeschlagen wurden. Lord Durham empfahl daraufhin in seinem Untersuchungsbericht die Einsetzung einer selbstverantwortlichen Regierung und die allmähliche Assimilierung der französischen Kanadier in die britische Kultur. Der Act of Union 1840 verschmolz Nieder- und Oberkanada zur Provinz Kanada und erhob das Englische zur alleinigen Amtssprache. Bis 1849 erhielten auch die weiteren Kolonien in Britisch Nordamerika eine eigene Regierung. Zwei Handelsgesellschaften, die Hudson’s Bay Company (HBC) und die North West Company (NWC), kontrollierten den Handel in den weiten, nur von wenigen Ureinwohnern besiedelten Gebieten der Prärien und der Subarktis. Die HBC hatte 1670 Ruperts Land als Pachtgebiet erhalten und besaß dort das Handelsmonopol mit Pelzen. Da aber auch die NWC dort Fuß zu fassen versuchte, kam es wiederholt zu bewaffneten Auseinandersetzungen. Nach dem Pemmikan-Krieg in der Red-River-Kolonie (heute Manitoba) wurde die NWC 1821 zwangsliquidiert, und die HBC dehnte ihr Monopol auf fast den gesamten Nordwesten des Kontinents aus. 1846 schlossen die Vereinigten Staaten und Großbritannien den Oregon-Kompromiss, der westlich der Großen Seen den 49. Breitengrad als gemeinsame Grenze festlegte. Daraufhin folgte die Gründung der an der Pazifikküste gelegenen Kolonien Vancouver Island (1849) und British Columbia (1858). Kanadische Konföderation. Während des Sezessionskriegs in den Vereinigten Staaten erkannten führende Politiker die Notwendigkeit, möglichen amerikanischen Expansionsbestrebungen einen starken Bundesstaat entgegenzustellen, und berieten in drei Verfassungskonferenzen über die Schaffung einer Kanadischen Konföderation. Daraus resultierte das Verfassungsgesetz von 1867, das am 1. Juli 1867 in Kraft trat und das Dominion Kanada schuf, das über eine gewisse Eigenständigkeit gegenüber Großbritannien verfügte. Die Provinz Kanada wurde in Ontario und Québec aufgeteilt, hinzu kamen New Brunswick und Nova Scotia. Der neue Bundesstaat kaufte 1869 der Hudson’s Bay Company das Nordwestliche Territorium und Ruperts Land ab und vereinigte diese zu den Nordwest-Territorien. Nach der Niederschlagung der Red-River-Rebellion der Métis schuf der Manitoba Act 1870 im Unruhegebiet die Provinz Manitoba. British Columbia und Vancouver Island (die sich 1866 vereinigt hatten) traten 1871 der Konföderation bei, zwei Jahre später folgte Prince Edward Island. Um den Westen für die Besiedlung durch Einwanderer zu erschließen, beteiligte sich die Regierung an der Finanzierung von transkontinentalen Eisenbahnen und gründete die "North-West Mounted Police" (heute Royal Canadian Mounted Police), um die staatliche Kontrolle über die Prärien und subarktischen Regionen durchzusetzen. Die Nordwest-Rebellion und die darauf folgende Hinrichtung des Métis-Führers Louis Riel 1885 führten zu einem tiefen Zerwürfnis zwischen den beiden Sprachgruppen. Als direkte Folge des Klondike-Goldrauschs wurde 1898 das Yukon-Territorium geschaffen. Aufgrund der zunehmenden Besiedlung der Prärie entstanden 1905 aus dem südlichen Teil der Nordwest-Territorien die Provinzen Alberta und Saskatchewan. Mit den Indianern schloss Kanada zwischen 1871 und 1921 elf Verträge ab, die ihnen gegen geringe Kompensationen Reservate zuwiesen, ihnen aber ihre gewohnte Lebensweise garantierten. Bis in die 1960er-Jahre versuchte man sie zwangsweise zu assimilieren und verbot den Schülern den Gebrauch ihrer Muttersprachen. Die Ureinwohner durften bis 1960 nicht an Parlamentswahlen auf nationaler Ebene teilnehmen. An der Seite Großbritanniens nahm Kanada ab 1914 am Ersten Weltkrieg teil und entsandte Freiwillige an die Westfront. Als die Regierung versuchte, gegen den Widerstand des französischsprachigen Bevölkerungsteils den obligatorischen Wehrdienst einzuführen, kam es zur Wehrpflichtkrise von 1917. Eigenständigkeit und Separatismus. Bei den Verhandlungen zum Versailler Vertrag trat Kanada als eigenständiges Staatswesen auf und trat 1919 unabhängig von Großbritannien dem Völkerbund bei. Das Statut von Westminster von 1931 garantierte die gesetzgeberische Unabhängigkeit, gewisse verfassungsrechtliche Bindungen blieben jedoch weiter bestehen. Das Land war besonders stark von der Weltwirtschaftskrise betroffen, als Reaktion darauf entwickelte sich in den folgenden Jahrzehnten ein gut ausgebauter Sozialstaat. Kanada erklärte 1939 dem Deutschen Reich den Krieg. Trotz einer weiteren Wehrpflichtkrise spielten kanadische Truppen während des Zweiten Weltkriegs eine wichtige Rolle, insbesondere in der Atlantikschlacht, der Operation Jubilee, der Invasion Italiens, der Operation Overlord (Landung am Juno Beach) und der Schlacht an der Scheldemündung. 1945 wurden kanadische Soldaten maßgeblich während der Kämpfe um die Niederlande eingesetzt. Die britische Kolonie Neufundland, die sich 1867 nicht dem Bundesstaat angeschlossen hatte und von 1907 bis 1934 ein unabhängiges Dominion gewesen war, trat 1949 nach einer lange andauernden politischen und wirtschaftlichen Krise als letzte Provinz der kanadischen Konföderation bei. 1965 wurde die neue Ahornblattflagge eingeführt und mit dem Inkrafttreten des Amtssprachengesetzes war Kanada ab 1969 offiziell ein zweisprachiges Land. Premierminister Pierre Trudeau strebte die vollständige formale Unabhängigkeit von Großbritannien an, die mit dem Verfassungsgesetz von 1982 und der Charta der Rechte und Freiheiten Wirklichkeit wurde. Während der 1960er Jahre fand in Québec eine tiefgreifende gesellschaftliche und wirtschaftliche Umwälzung statt, die als „Stille Revolution“ bekannt ist. Québecer Nationalisten begannen, mehr Autonomie oder gar die Unabhängigkeit zu fordern. Anschläge und Entführungen durch die Front de libération du Québec führten 1970 zur Oktoberkrise und zur kurzzeitigen Ausrufung des Ausnahmezustands. Moderate Nationalisten stellten ab 1976 die Provinzregierung, 1980 wurde ein erstes Unabhängigkeitsreferendum mit 59,6 % der Stimmen abgelehnt. Der "Loi constitutionelle" vom 17. April 1982, mit dem auch Verfassungsänderungen nicht mehr vom britischen Parlament abgesegnet werden müssen, gilt als Datum der formalen Unabhängigkeit (vollen Souveränität) Kanadas. Bemühungen der Bundesregierung, Québec mit dem Meech Lake Accord als „sich unterscheidende Gesellschaft“ anzuerkennen, scheiterten 1989. Die vom separatistischen Parti Québécois geführte Provinzregierung setzte 1995 das zweite Unabhängigkeitsreferendum an, das mit 49,4 % Zustimmung äußerst knapp scheiterte. 1999 wurde mit Nunavut das erste kanadische Territorium mit mehrheitlich indigener Bevölkerung geschaffen. Trotz einiger politischer Zugeständnisse ist die Unzufriedenheit unter den Ureinwohnern immer noch hoch. Ausdehnung und Grenzen. Kanada ist mit einer Fläche von 9.984.670 Quadratkilometern nach Russland das zweitgrößte Land der Erde und fast so groß wie Europa. Das Land nimmt rund 41 % Nordamerikas ein. Der einzige unabhängige und durch eine Landgrenze verbundene Nachbar sind die Vereinigten Staaten im Süden und im Nordwesten. Ein weiterer Nachbar ist das dänische Autonomiegebiet Grönland, das durch die rund 30 Kilometer breite Meerenge Kennedy-Kanal von der nördlichsten kanadischen Insel, Ellesmere Island, getrennt wird. Schließlich existiert mit der Inselgruppe St. Pierre et Miquelon südlich von Neufundland ein Überbleibsel der französischen Kolonie Neufrankreich. Die größte Nord-Süd-Ausdehnung, von Kap Columbia auf Ellesmere Island in Nunavut zur Insel Middle Island im Eriesee, beträgt 4634 Kilometer. Die größte Ost-West-Entfernung beträgt 5514 Kilometer von Cape Spear auf Neufundland bis zur Grenze des Yukon-Territoriums mit Alaska. Die Gesamtlänge der Grenze zwischen Kanada und den USA beträgt 8890 Kilometer. Kanada hat mit 243.042 Kilometern zugleich die längste Küstenlinie der Welt. Die größte Insel ist die Baffininsel im Nordosten, welche mit einer Fläche von 507.451 km² zugleich die fünftgrößte Insel der Welt ist. Die nördlichste Halbinsel ist Boothia. 9.093.507 km² Kanadas sind Land- und 891.163 km² Wasserfläche. Kanada hat Anteil an sechs Zeitzonen, siehe hierzu "Zeitzonen in Kanada". Geologie und Landschaftsgliederung. Das geologische Grundgebirge der östlichen Provinzen sind alte, abgetragene Berge neben noch älteren Abschnitten des Kanadischen Schildes, die bis zu 4,03 Milliarden Jahre alt sind. Dieser umfasst eine ausgedehnte Region mit einigen der ältesten Gesteine. Um die Hudson Bay gelegen, nimmt er fast die Hälfte des Staatsgebiets ein. Abgesehen von einigen niedrigen Bergen im östlichen Québec und in Labrador ist die Landschaft flach und hügelig. Das Gewässernetz ist dicht, die Entwässerung der Region erfolgt über eine Vielzahl von Flüssen. Die südliche Hälfte des Schildes ist mit borealen Wäldern bedeckt, während die nördliche Hälfte einschließlich der Inseln des arktischen Archipels jenseits der arktischen Baumgrenze liegt und mit Felsen, Eis und Tundrenvegetation bedeckt ist. Die östlichen Inseln des Archipels sind gebirgig, die westlichen dagegen flach. Westlich und südlich des Kanadischen Schildes liegen die Ebenen um den Sankt-Lorenz-Strom und die Großen Seen. Die natürliche Vegetation des südlichen Teils der dort liegenden Prärieprovinzen Saskatchewan, Manitoba und Alberta ist das Präriegras; der nördliche Teil dagegen ist bewaldet. Die teils vulkanisch aktiven Gebirgszüge der Coast Range und der Rocky Mountains, wie der Mount Edziza oder die "Northern Cordilleran Volcanic Province" im Norden British Columbias, dominieren das westliche Kanada. Sie verlaufen in Nord-Süd-Richtung durch Yukon und British-Columbia, die dortige Küstenlinie wird tief von Fjorden durchschnitten. Vor der Küste liegt Vancouver Island, ein Ausläufer des Küstengebirges. Die höchsten kanadischen Gebirgsregionen liegen im Westen mit den Rocky Mountains – höchster Berg ist der 5959 Meter hohe Mount Logan im Territorium Yukon – und der Kette der Küstengebirge am Pazifischen Ozean (Coast Mountains und Kaskadenkette). Ein weiteres wichtiges System verläuft entlang der Nordostküste von Ellesmere Island (Arktische Kordillere) bis zu den Torngat-Bergen in Québec sowie in Neufundland und Labrador. Im Osten Kanadas liegen die nördlichen Appalachen und die Laurentinischen Berge. Der wichtigste Fluss Kanadas ist der 3058 Kilometer lange Sankt-Lorenz-Strom. Er dient als Wasserstraße zwischen den Großen Seen und dem Atlantik. Kanadas zweitlängster Fluss ist der Mackenzie River (1903 Kilometer) in den Nordwest-Territorien. Weitere bedeutende Flüsse sind der Yukon River und der Columbia River, die teilweise auch in den Vereinigten Staaten verlaufen, der Fraser, der Nelson, der Churchill und der Manicouagan sowie Nebenflüsse wie der Saskatchewan River, der Peace River, der Ottawa und der Athabasca. Kanada ist zudem ein überaus seenreiches Land. 7,6 % seiner Landmasse sind mit insgesamt rund zwei Millionen Seen bedeckt. 563 Seen sind größer als 100 Quadratkilometer. Zu den größten Seen gehören der Große Bärensee (31.153 km²), der Große Sklavensee (27.048 km²), der Winnipegsee (24.420 km²), der Athabascasee (7.850 km²) sowie die Großen Seen (zusammen rund 245.000 km²), durch die mit Ausnahme des Michigansees die Grenze zum südlichen Nachbarland verläuft. Der größte gänzlich in Kanada gelegene See ist der Große Bärensee in den Nordwest-Territorien. Klima. Kanada umfasst unterschiedliche Klimazonen (vom Polarklima bis zum gemäßigten Klima). Überwiegend bestimmt das boreale Klima mit langen, kalten Wintern und kurzen, heißen Sommern den größeren Teil Kanadas. Im Winter 2004/2005 wurden Temperaturen von −58 °C in Burwash Landing des Territoriums Yukon gemessen; die tiefste je gemessene Temperatur wurde mit −63 °C in Snag im selben Territorium am 3. Februar 1947 gemessen. Die höchste gemessene Temperatur wurde in Midale und Yellowgrass in der Provinz Saskatchewan mit 45 °C am 5. Juli 1937 ermittelt. An der Westküste findet man maritimes Klima mit hohen Niederschlägen, da sich die feuchte, vom Ozean kommende Luft am Westrand des Küstengebirges abregnet. Den Niederschlagsrekord hält Ucluelet in British Columbia mit 489,2 mm an einem einzigen Tag (6. Oktober 1967). Die Jahreszeiten sind in den Provinzen Québec und Ontario am deutlichsten ausgeprägt, mit kalten Wintern, milden Frühjahren und Herbstmonaten und von Juli bis September oft sehr schwül-heißen Sommern mit Durchschnittstemperaturen um 25 °C. Am häufigsten leiden die Prärieprovinzen Alberta, Saskatchewan und Manitoba unter Trockenheit. Eines der trockensten Jahre war das Jahr 1936, das trockenste jedoch 1961. Regina erhielt 45 % weniger Regen als im Durchschnitt. 1988 war so trocken, dass jeder zehnte Farmer aufgeben musste. Das wärmste Jahr in Kanada war das Jahr 1998. Flora und Fauna. Große Naturgebiete, vor allem in den Tundra- und Bergregionen, bedecken 70 % Kanadas. Das entspricht 20 % der weltweit verbleibenden Wildnisgebiete (ohne Antarktis). Noch ist mehr als die Hälfte der ausgedehnten Wälder Urwald. Die nördliche Waldgrenze verläuft von der Ostküste Labradors über die Ungava-Halbinsel Richtung Süden entlang des Ostufers der Hudson Bay und setzt sich anschließend schlangenlinienförmig Richtung Nordwesten zum Unterlauf des Mackenzie und weiter nach Alaska fort. Nördlich der Baumgrenze gibt es kaum oder gar keinen fruchtbaren Boden (Tundra). Die Vegetation der südlichsten Tundragebiete besteht aus niedrigem Buschwerk, Gräsern und Riedgras. Die nördlichsten Gebiete sind zu weniger als einem Zehntel mit den für die Polarwüste typischen Moosen bedeckt. Südlich der Baumgrenze, von Alaska bis Neufundland, schließt sich eines der größten Nadelwaldgebiete der Welt an. Im Osten, von den Großen Seen bis zu den Küsten, wachsen hauptsächlich Mischwälder mit Zuckerahorn, Buchen, Birken, Kiefern und Hemlocktannen. Die Tiefebenen im äußersten Süden sind mit reinen Laubwäldern bedeckt. Hier gedeihen neben Hickorybäumen, Eichen und Ulmen, Kastanien, Ahorn und Walnussbäume. In den westlichen Berggebieten sind die Fichte, Douglasie und Lodgepole-Kiefer am weitesten verbreitet, in Hochebenen wachsen außerdem Zitterpappel und Gelbkiefer. Die Vegetation der niederschlagsreichen Pazifikküste wird von Wäldern aus dichten, hohen Douglasfichten, westlichen Rot-Zedern und Hemlocktannen beherrscht. Das Prärieland ist zu trocken, um mehr als vereinzelte Baumgruppen hervorzubringen. Vom ursprünglich weiten, hügeligen Grasland ist heute nur noch wenig übrig; es ist dem heute berühmten Weizengürtel Kanadas gewichen. Die arktischen Gewässer bieten Nahrung für Wale, Walrosse, Seehunde und für Eisbären. In den Tundren leben Moschusochsen, Karibus, Polarwölfe, Polarfüchse, Polarhasen und Lemminge, vereinzelt auch Vielfraße; viele Zugvögel verbringen hier den Sommer, darunter Alke, Enten, Möwen, Seeschwalben und andere Seevögel. Die Wälder im Norden sind ein idealer Lebensraum für Karibus und Elche, Luchse, Schwarz- und Braunbären. Doch gehen die Bestände der riesigen Karibuherden aufgrund von Industrialisierung und winterlichen Freizeitaktivitäten, vor allem aufgrund der Störungen durch motorisierte Schlitten, zurück. Die Bedeutung der Jagd ist hierbei rückläufig. Fünf Milliarden Vögel kommen jeden Sommer in die borealen Wälder. Daher hat Kanada 1917 zusammen mit den USA angefangen, Schutzgebiete für Zugvögel einzurichten. Heute bestehen 92 solcher Gebiete mit einer Gesamtfläche von etwa 110.000 km². Zur artenreichen Vogelwelt zählen der Kardinal, der Waldsänger, der Weißkopfseeadler und die Spottdrossel sowie der seltene Marmelalk, der nur in alten Wäldern überleben kann. Biber, Marder, Bisamratten, Nerze sind auch heute noch Grundlage des inzwischen unbedeutenden Pelzhandels. Weiter im Süden findet man Wapitis, während es in dichter besiedelten Landstrichen vor allem kleinere Säugetiere, wie Grau- und Backenhörnchen, Wiesel und Otter gibt. In den Präriegebieten leben kleinere Tiere, wie Präriehasen, Taschenratten und das spitzschwänzige Rauhfußhuhn sowie Bisons und Pronghornantilopen. In den westlichen Bergen gibt es Dickhornschafe und Bergziegen. Die einheimische Tier- und Pflanzenwelt steht in 44 Nationalparks, weit über tausend Provinzparks und Naturreservaten unter Schutz. Größtes Schutzgebiet ist der 44.802 km² große Wood-Buffalo-Nationalpark im nördlichen Teil von Alberta und den Nordwest-Territorien, in dem zahlreiche vom Aussterben bedrohte Arten vertreten sind. Bemerkenswert ist der dortige, mit etwa 6000 Tieren größte Bestand frei lebender Bisons der Welt. In vielen Seengebieten braucht der Mensch besonders im Sommer strenge Vorkehrungen gegen Insektenbisse, da Stech- und Kriebelmücken in sehr hoher Dichte leben. Ballungsräume (census metropolitan areas). → "Siehe auch: Liste der Städte in Kanada" Von den über 35 Millionen Einwohnern leben 54,5 % in den 30 größten Städten. Geht man von den Ballungsräumen aus, steigt diese Zahl auf über 70 %. Toronto ist das bedeutendste Produktionszentrum und mit 5.583.064 Einwohnern (Stand: 2011) der größte Ballungsraum. Die Handelsmetropole Montreal zählte 3.824.221, Vancouver 2.313.328 Einwohner. Weitere Ballungsräume sind die Bundeshauptstadt Ottawa-Gatineau (1.236.324), Calgary (1.214.839), Edmonton (1.159.869), Québec (765.706), Winnipeg (730.018) und Hamilton (721.053). Bevölkerung. Die letzte Volkszählung von 2011 ergab eine Einwohnerzahl von 33.476.688. Daraus errechnet sich eine Bevölkerungsdichte von etwa 3,35 Einwohner/km², eine der geringsten der Welt. Die Bevölkerung konzentriert sich auf einem bis zu 350 km breiten Streifen entlang der Grenze zu den USA. Weite Teile des Nordens sind nahezu unbesiedelt. Fast vier Fünftel der Kanadier leben in Städten, die meisten in den Millionenmetropolen Toronto, Montréal, Vancouver und Ottawa. Der Großteil der Bevölkerung lebt in den Provinzen Ontario (2006: 12.160.282 Ew.) und Québec (2006: 7.546.131 Ew.) entlang des St.-Lorenz-Stromes, das heißt rund um Toronto, Montréal, Québec, Ottawa, London und Hamilton (Windsor-Québec-Korridor). 4.113.487 Menschen leben in British Columbia, 3.290.350 in Alberta, in Manitoba 1.148.401 und in Saskatchewan weitere 968.157 Menschen. Nunavut mit 29.474 Einwohnern ist das bevölkerungsärmste Territorium Kanadas, knapp vor dem Yukon-Territorium mit 30.372. Demographische Struktur und Entwicklung. Kanada ist ein Einwanderungsland. Große Einwanderergruppen kamen in der Vergangenheit aus dem Vereinigten Königreich, Frankreich, Deutschland, Italien, Irland, den Niederlanden, Ungarn, der Ukraine, Polen, Kroatien und aus den USA. Heutzutage wächst die Bedeutung der Einwanderer aus Fernost, vor allem aus der Volksrepublik China. Von den etwa sechs Millionen deutschen Auswanderern der Jahre 1820 bis 1914 gingen nur 1,3 % nach Kanada, von den 605.000 der Jahre 1919 bis 1933 gingen 5 %, von den 1,2 Millionen der Jahre 1950 bis 1969 bereits 25 % dorthin. 2006 gaben rund 3,2 Millionen Kanadier an, deutscher Herkunft zu sein. Damit sind die Deutschkanadier nach den Einwohnern mit Wurzeln im Raum Großbritannien/Irland und denen mit Wurzeln im heutigen Frankreich die drittgrößte Bevölkerungsgruppe des Landes. Die jährliche Wachstumsrate der Bevölkerung sank von 2000 bis 2012 von 1,02 auf 0,78 %. Die Lebenserwartung eines neugeborenen Kanadiers liegt laut CIA Factbook bei 81,16 Jahren. 26 % der Kanadier sind 19 Jahre oder jünger, 13 % 65 Jahre oder älter. Das mittlere Alter der erwerbsfähigen Bevölkerung liegt bei 42 Jahren, die Schätzung für 2011 liegt bei 43,7 Jahren. Der Median ist seit 1966 von knapp 26 auf 39,5 Jahre gestiegen. 2006 waren 4635 Kanadier über 100 Jahre alt. Indigene Ethnien. In Kanada unterscheidet man drei Gruppen indigener oder autochthoner Völker: Die First Nations (auch „Indianer“ genannt), die Inuit und die Métis, Nachfahren von Europäern, die mit indianischen Frauen eine Verbindung eingegangen waren. Sie haben eine eigene Sprache entwickelt, das Michif. Zahlreiche weitere Kanadier haben indianische Vorfahren. Deren Ehen wurden sehr häufig nach der „Sitte des Landes“ (custom of the country) geschlossen, also ohne kirchliche oder staatliche Mitwirkung – wie es bei Ehen zwischen Männern der Hudson’s Bay Company und Indianerinnen üblich war. Ehen dieser Art waren erst ab 1867 vollgültig. Im Schnitt sind die Ureinwohner erheblich jünger als die übrige Bevölkerung. So sind 50 % der indianischen Bevölkerung unter 23,5 Jahre alt, im übrigen Kanada liegt dieser als Median bezeichnete Wert bei 39,5 Jahren. 185.960 Kanadier sprachen im Jahr 2001 eine der 50 indigenen Sprachen, diese umfassen die Sprachen der First Nations sowie Inuktitut, die Sprache der Inuit. Die Interessen der indigenen Bevölkerung werden staatlicherseits vom „Department of Indian Affairs and Northern Development“/„Affaires indiennes et du Nord“ vertreten, dem das Indianergesetz von 1876 zugrunde liegt. Sie selbst sehen sich allerdings eher in eigenen Organisationen, wie der Versammlung der First Nations oder anderen Organisationen vertreten. Sie berufen sich auf die Verträge, die mit Kanada und Großbritannien geschlossen worden sind, wie die Numbered Treaties, auf allgemeine Menschenrechte und auf Entscheidungen der oberen Gerichtshöfe in Großbritannien und Kanada. Die Indianer besitzen erst seit 1960 das volle Wahlrecht. Den Inuit steht seit 1999 ein eigenes Territorium namens Nunavut zur Verfügung. Seit 1996 wird der 21. Juni als „National Aboriginal Day“ bzw. „Journée nationale des Autochtones“ gefeiert. Zugleich kommt es nach wie vor zu Auseinandersetzungen um Landrechte und den Abbau von Bodenschätzen, wie die Grassy-Narrows-Blockade, der Streit um die Urwälder am Clayoquot Sound an der Westküste oder der Widerstand der Kitchenuhmaykoosib Inninuwug in Ontario zeigen. Sprachen. Kanadas Amtssprachen sind Englisch und Französisch, wobei 20,1 % der Bevölkerung weder die eine noch die andere als Muttersprache angeben. In der Kanadischen Charta der Rechte und Freiheiten, im Amtssprachengesetz und in den Amtssprachenverordnungen ist die offizielle Zweisprachigkeit festgeschrieben, die vom Amtssprachenkommissariat durchgesetzt wird. In den Bundesgerichten, im Parlament und in allen Institutionen des Bundes sind Englisch und Französisch gleichberechtigt. Die Bürger haben das Recht, Dienstleistungen des Bundes in englischer oder französischer Sprache wahrzunehmen. In allen Provinzen und Territorien wird den sprachlichen Minderheiten der Schulunterricht in eigenen Schulen garantiert, ein Anrecht, das lange umstritten war. Die Ursachen reichen bis in die französische und britische Kolonialisierungsphase Nordamerikas zurück und standen zugleich mit kulturellen und religiösen Gegensätzen in Zusammenhang. Englisch und Französisch sind die Muttersprachen von 56,9 % bzw. 21,3 % der Bevölkerung, bei 68,3 % bzw. 22,3 % sind es die zu Hause am meisten gesprochenen Sprachen (2006). 98,5 % aller Einwohner sprechen Englisch oder Französisch (67,5 % sprechen nur Englisch, 13,3 % nur Französisch und 17,7 % beides). Zwar leben 85 % aller französischsprachigen Kanadier in Québec, doch gibt es bedeutende frankophone Bevölkerungsgruppen in Ontario und in Alberta, im Süden von Manitoba, im Norden und Südosten von New Brunswick (Akadier; insgesamt 35 % der Bevölkerung dieser Provinz) sowie im südwestlichen Nova Scotia und auf der Kap-Breton-Insel. Ontario hat die zahlenmäßig größte französischsprachige Bevölkerung außerhalb Québecs. Die Charta der französischen Sprache erklärt Französisch zur alleinigen Amtssprache in Québec und New Brunswick ist die einzige Provinz, deren Verfassung die Zweisprachigkeit garantiert. Andere Provinzen haben keine Amtssprache als solche definiert, jedoch wird Französisch zusätzlich zu Englisch in Schulen, Gerichten und für Dienstleistungen der Regierung verwendet. Manitoba, Ontario und Québec erlauben das gleichberechtigte Sprechen von Englisch und Französisch in den Provinzparlamenten, und Gesetze werden in beiden Sprachen erlassen. In Ontario kennen einzelne Gemeinden Französisch als zweite Amtssprache. Die Wahl der Hauptstadt des seinerzeitigen Britisch-Nordamerika durch Königin Victoria (1857) fiel möglicherweise auf Ottawa, weil es etwa an der Grenze zwischen franko- und anglophonem Gebiet lag. Alle Regionen haben nicht-englisch- oder französischsprachige Minderheiten, hauptsächlich Nachkommen der Ureinwohner. Offiziellen Status besitzen mehrere Sprachen der First Nations in den Nordwest-Territorien. Im hauptsächlich von Inuit bevölkerten Territorium Nunavut ist Inuktitut die Mehrheitssprache und eine von drei Amtssprachen. Mehr als 6,1 Millionen Einwohner bezeichnen weder Englisch noch Französisch als ihre Erstsprache. Am weitesten verbreitet sind Chinesisch (1,012 Millionen Sprecher), Italienisch (etwa 455.000), Deutsch (etwa 450.000), Panjabi (etwa 367.000) und Spanisch (etwa 345.000). Das Kanadisch-Gälische, um die Mitte des 19. Jahrhunderts noch die dritthäufigste Sprache Kanadas, ist mit etwa 500 bis 1000 vorwiegend älteren Sprechern mittlerweile fast ausgestorben, jedoch bestehen Kontakte zu schottischen Hochschulen, die Kanadiern Sprachkurse anbieten. Mehrere Schulen unterrichten die Sprache, ebenso drei Hochschulen sowie die 2006 gegründete "Atlantic Gaelic Academy". Erst ab 1973 wurden in Ontario deutsche Schulen vom Staat wieder unterstützt. Zwischen 1977 und 1990 erhielten die Schulen Mittel aus dem Multikulturalismusprogramm der Regierung. Religion. Mit der Kolonialisierung kamen zunächst vor allem französische Katholiken und anglikanische Engländer nach Kanada. Darüber hinaus förderte Großbritannien die Einwanderung protestantischer Gruppen vom Mittelrhein und aus Württemberg, in geringerem Maße auch aus der Schweiz, Frankreich und den Niederlanden, sodass der Süden von Nova Scotia bis heute protestantisch ist. Doch gab die Kolonialmacht 1774 mit dem Quebec Act jeden Versuch auf, die Katholiken zur Konversion zu bewegen. Nach der Unabhängigkeit der USA kamen zahlreiche protestantische Loyalisten in das heutige Ontario und bildeten dort die Mehrheit. In späteren Einwanderungswellen kamen wiederum katholische Iren und Italiener, aber auch ukrainische Doukhobor hinzu. Die Einwanderung aus Schottland sorgte wiederum für eine Beseitigung des Vorrangs der Anglikanischen Kirche im Osten durch zahlreiche Presbyterianer. In Toronto setzten sich die Methodisten durch. In Opposition zu den Katholiken, die eher dem Ultramontanismus zugeneigt waren (les bleus), aber auch zu den dominierenden Anglikanern, die vom Oranier-Orden unterstützt wurden, bildeten sich antiklerikale Gruppen (vor allem "les rouges"). Mit dem Lord's Day Act von 1906 wurde ein weitgehendes Arbeitsverbot am Sonntag durchgesetzt, das bis in die 1960er-Jahre Gültigkeit beanspruchte, und das der Oberste Gerichtshof erst 1985 endgültig abschaffte. Eine ähnliche Bedeutungsminderung des Religiösen im Alltag fand in Québec statt. Dennoch gibt es bedeutende Gruppen, insbesondere im Süden Manitobas und Ontarios, in Alberta und im Binnenland von British Columbia. Dazu zählen die Mennoniten im Süden Manitobas, die ukrainischen Orthodoxen und Katholiken in Manitoba und Saskatchewan, die Mormonen bilden einen Schwerpunkt in Alberta. Hinzu kommen die Zeugen Jehovas und zahlreiche andere Gruppen. Die katholischen Missionare waren unter den Ureinwohnern erfolgreicher als die protestantischen, und so überwiegt dort der katholische Anteil. Dazu kommen indigene Glaubensorganisationen, wie die Shaker Church. Mit den jüngsten Einwanderungswellen verstärkten sich weitere religiöse Gruppen, wie Hindus, Muslime, Juden, Sikh und Buddhisten. Sie konzentrieren sich in Großstädten, insbesondere im Großraum Toronto. Die älteste Synagoge, "Congregation Emanu-El", entstand 1863 in Victoria, die erste Moschee 1938 mit der "Al Rashid Mosque" in Edmonton. Etwa 73,3 % der kanadischen Bevölkerung gehörten 2001 einer christlichen Konfession an (43,2 % katholisch, etwa 29 % protestantisch). Die beiden größten protestantischen Glaubensgemeinschaften sind mit 9,6 % die United Church of Canada und mit 6,9 % die Anglican Church of Canada, dazu kommen 2,5 % Baptisten, 2 % Lutheraner, etwa 0,16 % Orthodoxe sowie etwa 0,25 % andere christliche Glaubensgemeinschaften. Muslime stellen etwa 2 % der Bevölkerung, mehr als die Hälfte von ihnen lebt in Ontario. Etwa 1,1 % sind Juden, von denen wiederum knapp 60 % in Ontario leben, und etwa 1 % Buddhisten, Hindus sowie 0,9 % Sikhs. Etwa 16,2 % gaben an, keiner Glaubensgemeinschaft anzugehören. Besonders schnell wachsen durch Zuwanderung die nicht-christlichen Gruppen, aber auch zahlreiche christliche Gruppen, die außerhalb der großen Kirchen stehen. Nach einer Umfrage von 2007 fühlten sich die Muslime in Kanada deutlich stärker integriert als in europäischen Staaten. Insgesamt setzt die kanadische Politik im Rahmen ihrer Integrationspolitik stärker auf Erhalt und Nutzung der ethnischen und religiösen Besonderheiten als auf Anpassung. Einwanderungspolitik. Kanada hat, gemessen an der Bevölkerung, die höchste Einwanderungsrate unter den Flächenstaaten der Welt. Die Einwanderung wird über klar definierte Ziele gesteuert, die in einem Programm festgelegt wurden. Die Einwanderungskriterien sind öffentlich einsehbar und können bereits vor Antragstellung selbst überprüft werden. Für Menschen mit Berufen, die in Kanada gefragt sind, existiert zum Beispiel das "Skilled Worker"-Programm. Je nach Lage des Arbeitsmarkts wird eine Mindestpunktzahl (im Januar 2010: 67 Punkte) festgelegt, die ein Einwanderungsinteressierter erreichen muss. Die persönliche Punktzahl setzt sich aus Punkten für den aktuellen Bildungsstand und die Berufserfahrung zusammen, aus Punkten für die vorhandenen Sprachkenntnisse in Englisch und Französisch sowie für das Alter, für Verwandte und frühere Aufenthalte in Kanada. Ein verbindliches Arbeitsangebot eines kanadischen Arbeitgebers erhöht die Punktzahl nochmals maßgeblich. Das Immigrations-Programm wurde am 1. Juli 2011 dahingehend angepasst, dass ohne ein bestehendes Arbeitsangebot nur noch Personen zum "Skilled Worker"-Programm zugelassen werden, die Erfahrung in einem von 29 festgelegten Berufen nachweisen können. Daneben muss ein Interessent am "Skilled Worker"-Programm nachweisen, dass er sich für eine gewisse Zeit finanziell selbst versorgen kann. Die notwendige Summe beläuft sich derzeit (September 2011) für eine alleinstehende Person auf 11.115 CAD, für eine vierköpfige Familie auf 20.654 CAD. Außerdem werden polizeiliche Führungszeugnisse aus allen Ländern benötigt, in denen der Kandidat nach dem 18. Geburtstag für sechs Monate oder länger gelebt hat. Die Einwanderung erfolgt in zwei Stufen. Zunächst wird eine unbefristete Aufenthalts- und Arbeitsgenehmigung erteilt. Nach drei Jahren als „Permanent Resident“ und entsprechendem Aufenthalt im Land kann der Einbürgerungsantrag gestellt werden. Einwanderer, die noch nicht eingebürgert sind, haben Residenzpflicht. Dies bedeutet, dass man Nachweise für die vorgegebene Zeit in Kanada erbringen, oder mit jemandem verheiratet sein muss, die oder der die kanadische Staatsbürgerschaft besitzt. Bei Verstößen kann der „Permanent Resident“-Status entzogen und der Einwanderer in sein Herkunftsland zurückgeschickt werden. Neben dem Programm für qualifizierte Einwanderungswillige steht eine gesonderte Regelung für Gastarbeiter, die keine Perspektive für eine Einbürgerung bekommen. Die Zahl der nur zeitweilig in Kanada zugelassenen Arbeitskräfte übersteigt seit etwa 2006 die der Einwanderer. Die Gastarbeiter erhalten Arbeitsgenehmigungen, die in der Regel für einige Monate gelten und nur selten die Dauer eines Jahres übersteigen. Sie gelten nur für den Arbeitgeber, der die Arbeitskräfte ins Land holt, eine Kündigung ist mit dem Verlust der Aufenthaltsgenehmigung verbunden. Während das Programm für Gastarbeiter ursprünglich für Pflegekräfte in Haushalten, Kindermädchen und Arbeiter in der Landwirtschaft eingeführt wurde, wird es inzwischen für alle Tätigkeiten des Niedriglohnbereichs eingesetzt. Verfassung und Recht. a> in Ottawa, Sitz von Bundesregierung und -parlament Kanada ist formal eine konstitutionelle Monarchie innerhalb des Commonwealth of Nations mit Königin Elisabeth II. als Staatsoberhaupt. Sie trägt den Titel der „Königin von Kanada“ und wird durch den Generalgouverneur vertreten. Das Land ist auch eine repräsentative parlamentarische Demokratie, die in Form eines Bundesstaates organisiert ist. Die Verfassung Kanadas besteht aus schriftlichen Rechtsquellen und ungeschriebenem Gewohnheitsrecht. Das Verfassungsgesetz von 1867 enthält das Staatsorganisationsrecht, begründete ein auf dem Westminster-System des Vereinigten Königreichs basierendes parlamentarisches Regierungssystem und teilte die Macht zwischen Bund und Provinzen auf. Das Statut von Westminster von 1931 gewährte die vollständige gesetzgeberische Autonomie, und mit dem Verfassungsgesetz von 1982 wurden die letzten verfassungsrechtlichen Bindungen zum britischen Mutterland gelöst. Letzteres enthält einen Grundrechtskatalog (die Kanadische Charta der Rechte und Freiheiten) sowie Bestimmungen betreffend das Vorgehen bei Verfassungsänderungen. Einhergehend mit dem Status als Monarchie gibt es eine Reihe von Titeln und Orden, die in Kanada verliehen werden (siehe Liste der Post-Nominals (Kanada)). Exekutive. Theoretisch liegt die exekutive Staatsgewalt beim Monarchen, wird aber in der Praxis durch das Kabinett (formal ein Komitee des kanadischen Kronrates) und durch den Vertreter des Monarchen, den Generalgouverneur, ausgeübt. Der Monarch und dessen Vertreter sind unpolitisch und üben überwiegend zeremonielle Funktionen aus, um die Stabilität der Regierung zu garantieren. Gemäß Gewohnheitsrecht übergeben sie alle politischen Geschäfte ihren Ministern im Kabinett, die ihrerseits gegenüber dem gewählten Unterhaus verantwortlich sind. Die exekutive Staatsgewalt liegt somit de facto beim Kabinett, jedoch können Monarch und Generalgouverneur im Falle einer außergewöhnlichen Verfassungskrise ihre Hoheitsrechte wahrnehmen. Der Premierminister ist üblicherweise der Vorsitzende jener Partei, die im Unterhaus die meisten Sitze hält und das Vertrauen der Mehrheit der Abgeordneten besitzt. Er wird vom Generalgouverneur eingesetzt und führt als Regierungschef das Kabinett an. Da er über weitgehende Befugnisse verfügt, gilt er als mächtigste Person des Staates. Er ernennt die übrigen Kabinettsmitglieder, Senatoren, Richter des Obersten Gerichtshofes, Vorsitzende von Staatsbetrieben und Behörden und kann die Vizegouverneure der Provinzen vorschlagen. Die Bundesregierung ist unter anderem zuständig für Außenpolitik, Verteidigung, Handel, Geldwesen, Verkehr und Post sowie die Aufsicht über die Administration der drei bundesabhängigen Territorien. David Johnston ist seit dem 1. Oktober 2010 Generalgouverneur von Kanada. Der Vorsitzende der Liberalen Partei, Justin Trudeau, ist seit dem 4. November 2015 Premierminister. Legislative. Das kanadische Bundesparlament besteht aus dem Monarchen und zwei Kammern, dem demokratisch gewählten Unterhaus (engl. "House of Commons", frz. "Chambre des communes") und dem ernannten Senat "(Senate, Sénat)". Jedes Mitglied des Unterhauses wird im relativen Mehrheitswahlrecht in einem von 338 Wahlkreisen gewählt. Allgemeine Wahlen werden vom Generalgouverneur angesetzt, wenn der Premierminister dies so vorschlägt oder wenn die Regierung ein Misstrauensvotum verliert. Gemäß einem 2006 verabschiedeten Gesetz beträgt die Dauer der Legislaturperiode vier Jahre. Zuvor konnte der Premierminister den Wahltermin nach Belieben festsetzen, doch musste eine Neuwahl spätestens nach fünf Jahren erfolgen. Die Regierung stellt zurzeit die Liberale Partei, während die Konservative Partei die Rolle der „offiziellen Opposition“ innehat. Weitere im Parlament vertretene Parteien werden als „Drittparteien“ bezeichnet. Es sind dies die Neue Demokratische Partei, der Bloc Québécois und die Grüne Partei. Im Senat von Kanada, auch „Oberhaus“ (engl. "upper house", frz. "chambre haute") genannt, sitzen 105 Abgeordnete, die der Generalgouverneur auf Empfehlung des Premierministers ernennt. Die Sitze sind nach Regionen aufgeteilt, wobei diese seit 1867 nicht mehr angepasst wurden und deshalb große Disproportionalitäten in der Repräsentation im Verhältnis zur Einwohnerzahl bestehen. Die Senatoren haben keine feste Amtszeit, sondern können ihr Amt bis zum 75. Lebensjahr wahrnehmen. Der Einfluss des Senats ist bedeutend geringer als jener des Unterhauses. Judikative. Kanadas Rechtssystem spielt eine wichtige Rolle bei der Interpretation von Gesetzen. Es berücksichtigt die sich verändernden gesellschaftlichen Gegebenheiten und hat die Macht, Gesetze zu widerrufen, die gegen die Verfassung verstoßen. Der Oberste Gerichtshof ist das höchste Gericht und die letzte Instanz. Die neun Mitglieder werden auf Vorschlag des Premierministers und des Justizministers vom Generalgouverneur ernannt. Vorsitzende des Obersten Gerichtshofes "(Chief Justice of Canada, Juge en chef du Canada)" ist seit 2000 Beverley McLachlin. Die Bundesregierung ernennt auch Richter der Obersten Gerichte der Provinzen und Territorien. Die Besetzung von Richterämtern auf unteren Stufen fällt in die Zuständigkeit der Provinz- und Territorialregierungen. In den Provinzen sind die obersten Gerichte die "Courts of Appeal". Ihre Urteile sind allerdings, im Gegensatz zu denen des Obersten Gerichtshofs in Ottawa, in den anderen Provinzen nicht bindend, wenn sie auch nicht ohne Einfluss sind. Als weitere Rechtsquelle gelten gelegentlich noch immer der Londoner "Court of Appeal" und das britische House of Lords. Deren Entscheidungen aus der Zeit vor 1867 sind immer noch bindend, es sei denn, der kanadische Oberste Gerichtshof hat sie aufgehoben. Das Gleiche gilt für Entscheidungen bis 1949 für den Rechtsprechungsausschuss des Privy Council. Dies ist für die Rechtsstellung der indigenen und der frankophonen Bevölkerung von erheblicher Bedeutung, da ältere Verträge mit der britischen Krone weiterhin gültig sind. Provinzen und Territorien. Kanada ist ein in zehn Provinzen und drei Territorien gegliederter Bundesstaat. Diese subnationalen Einheiten können in geographische Regionen gegliedert werden. Westkanada besteht aus British Columbia und den drei Prärieprovinzen Alberta, Saskatchewan und Manitoba. Zentralkanada umfasst die zwei bevölkerungsreichsten Provinzen Ontario und Québec. Als Seeprovinzen werden New Brunswick, Prince Edward Island und Nova Scotia bezeichnet; zusammen mit Neufundland und Labrador bilden sie die Atlantischen Provinzen. Die drei Territorien Yukon, Nordwest-Territorien und Nunavut umfassen sämtliche Gebiete nördlich des 60. Breitengrades und westlich der Hudson Bay. Die Provinzen verfügen über einen hohen Grad an Autonomie, wogegen in den Territorien die Bundesregierung zahlreiche Verwaltungsaufgaben selbst übernimmt. Alle Provinzen und Territorien besitzen ein Einkammerparlament und einen Premierminister als Regierungschef. Der kanadische Monarch wird in allen Provinzen durch einen Vizegouverneur vertreten, der gleichrangig mit dem Generalgouverneur ist und überwiegend zeremonielle Aufgaben wahrnimmt. In den Territorien übernimmt ein von der Bundesregierung ernannter Kommissar die Aufgaben eines Vizegouverneurs. Während in den meisten Bundesverfassungen föderaler Staaten allein die Gesetzgebungskompetenzen des Bundes explizit aufgezählt werden, führt die "Constitution Act, 1867" nicht nur in Art. 91 die ausschließlichen Kompetenzen des Bundes, sondern in den Artikeln 92, 92A und 93 auch die ausschließlichen Kompetenzen der Provinzen auf. Hiernach verfügen die Provinzen über das Gesetzgebungsrecht u. a. in den Bereichen direkte Steuern, Beamtenbesoldung, öffentliche Einrichtungen, Gemeindewesen, Schulwesen, Gast- und sonstiges lokales Gewerbe, Eigentum und bürgerliches Recht, Gerichtsverfassungsrecht, Zivilprozessrecht, Bergbau, Forstwirtschaft und Energie. 1974 gab es erste Bestrebungen im kanadischen Parlament, das britische Überseegebiet der Turks- und Caicosinseln in der Karibik als elfte Provinz in den kanadischen Staatsverband aufzunehmen. Der Gesetzesvorschlag fand jedoch keine Mehrheit und wurde somit abgelehnt. Seit 2003 gibt es jedoch erneute Bestrebungen in diese Richtung. Dafür müsste jedoch erstens Großbritannien die Inseln in die Unabhängigkeit entlassen und zweitens jede einzelne kanadische Provinz zustimmen. Gerade Letzteres ist infolge der sehr komplizierten kanadischen Verfassungsprozeduren indes wenig wahrscheinlich. Rechtssystem. Zwar ist Kanada ein relativ junges Land, die Rechtsordnung hat jedoch eine lange Tradition. Das in allen Provinzen mit Ausnahme Québecs geltende Common Law basiert auf Grundsätzen, die sich während Jahrhunderten in England entwickelten und ein Erbe der britischen Kolonialzeit sind. Der in Québec im Bereich des Privatrechts geltende Code civil spiegelt Prinzipien des französischen Rechtssystems wider. Das Strafrecht hingegen ist Sache des Bundesstaates und in allen Provinzen einheitlich. Im Laufe der Zeit wurden beide Rechtssysteme den Erfordernissen in Kanada angepasst. Die Strafverfolgung fällt in die Verantwortung der Provinzen, doch wird sie in ländlichen Regionen (außer Québec und Ontario) der föderalen Royal Canadian Mounted Police übertragen. Beide Rechtssysteme sind in die Verfassung eingeflossen. Deren Kern entstand 1867 mit der Gründung Kanadas und wurde zuletzt 1982 grundlegend durch das Verfassungsgesetz von 1982 und die Kanadische Charta der Rechte und Freiheiten ergänzt. Kanada schaffte 1976 die Todesstrafe für Verbrechen in Friedenszeiten ab, 1998 auch im Kriegsstrafrecht. Auslöser war die 1959 erfolgte Verurteilung des damals 14-jährigen Steven Truscott zum Tode. Er wurde nach zehn Jahren Haft auf Bewährung entlassen und 2007 freigesprochen. Außenpolitik. Staaten mit einer kanadischen Botschaft (2007) Die Vereinigten Staaten und Kanada teilen sich die längste nicht verteidigte Staatsgrenze der Welt. Die Kooperation auf militärischem und wirtschaftlichem Gebiet ist eng; so sind beide Länder im Rahmen des Nordamerikanischen Freihandelsabkommens jeweils der größte Handelspartner des anderen. Dennoch betreibt Kanada eine eigenständige Außenpolitik. Es unterhält diplomatische Beziehungen zu Kuba und beteiligte sich nicht am Vietnam- oder am Irakkrieg. Enge Beziehungen unterhält das Land traditionell zum Vereinigten Königreich und zu Frankreich, über die Mitgliedschaft im Commonwealth of Nations und in der internationalen Organisation der Frankophonie auch zu anderen ehemaligen britischen und französischen Kolonien. Ein weiterer Schwerpunkt der außenpolitischen Beziehungen sind die Staaten der Karibischen Gemeinschaft. Im 2005 veröffentlichten International Policy Statement legte die Regierung die Leitlinien der Außenpolitik fest. Kanada sieht die Europäische Union als strategischen Partner in den Bereichen Klimawandel, Energieversorgung, Handel und Umweltschutz sowie bei außen- und sicherheitspolitischen Themen. Einen wichtigen Teil der kanadischen Identität bildet die Unterstützung der Multilateralität. 1945 gehörte Kanada zu den Gründungsmitgliedern der Vereinten Nationen. Der spätere Premierminister Lester Pearson trug wesentlich zur Beilegung der Sueskrise bei und wurde 1957 dafür mit dem Friedensnobelpreis ausgezeichnet. Sprach man bis dahin von der „Geburt der kanadischen Nation auf den Schlachtfeldern Europas“, so entwickelte sich unter dem Eindruck zahlreicher UN-Blauhelmeinsätze ein Peacekeeping-Mythos, der Kanadas Rolle in Abgrenzung zu den USA begreift. Kanada ist Mitglied zahlreicher internationaler Organisationen wie der OSZE, der Welthandelsorganisation, der OECD, der OAS, der APEC und der Gruppe der Sieben (G7). Verschiedene internationale Vereinbarungen entstanden auf kanadische Initiative und wurden in diesem Land verabschiedet. Dazu gehören die Ottawa-Konvention zum Verbot von Antipersonenminen und das Montreal-Protokoll zum Schutz der Ozonschicht. Militär. Die kanadischen Streitkräfte (engl. "Canadian Forces", frz. "Forces canadiennes") entstanden in ihrer jetzigen Form 1968, als Heer, Marine und Luftwaffe organisatorisch zusammengeführt wurden. Die Truppen umfassten 2011 rund 68.250 freiwillige Berufssoldaten und 26.873 Reservisten. Hinzu kamen (Stand 2012) 5000 Canadian Rangers, deren Hauptaufgabe es ist, in entlegenen arktischen Gebieten militärische Präsenz zu zeigen. Die Streitkräfte verfügen über rund 1400 gepanzerte Fahrzeuge, 34 Kriegsschiffe und 300 Kampfflugzeuge. Aufgrund der engen Bindungen an das britische Mutterland waren kanadische Truppen am Burenkrieg, am Ersten Weltkrieg und am Zweiten Weltkrieg beteiligt. Seit 1948 stellt Kanada einen bedeutenden Teil der Friedenstruppen der Vereinten Nationen und war an mehr Friedensmissionen beteiligt als jede andere Nation (seit 1989 ohne Ausnahme). Das Land beteiligt sich grundsätzlich nur an kriegerischen Handlungen, die von den Vereinten Nationen sanktioniert wurden, wie etwa am Krieg in Korea, am Persischen Golf, in Afghanistan, jedoch ohne UN-Mandat im Kosovo. Kanada ist Gründungsmitglied der NATO und Vertragspartner des nordamerikanischen Luftraumverteidigungsbündnisses NORAD. Bildung. Musikfakultät an der Université de Montréal Im föderalistischen Kanada gibt es kein einheitliches nationales Bildungssystem, jedoch unterliegt der tertiäre Bildungsbereich einer einheitlichen staatlichen Qualitätskontrolle und die meisten kanadischen Universitäten sind Mitglied in der "Association of Universities and Colleges of Canada (AUCC)," weshalb der Standard allgemein als ausgeglichen gilt. Für das Schulwesen sind ausschließlich die Provinzen und Territorien zuständig; es gibt kein landesweites Bildungsministerium. Daher unterscheiden sich in einigen Provinzen Schuleintrittsalter (fünftes oder sechstes Lebensjahr) und Dauer der Grundschulzeit (bis Klasse 6 oder 7). Die Sekundarstufe (in Québec "École polyvalente" genannt) umfasst in Form einer Gesamtschule die dreijährige "Junior Highschool" (Sekundarbereich I) und die zwei- bis vierjährige "Senior Highschool" (Sekundarbereich II). Da das Bildungssystem Chancengleichheit anstrebt, erfolgt der Übergang von einer Schulstufe in die andere ohne Leistungsprüfung. Erst innerhalb der "Senior High School" ist der Erwerb des Abschlusszeugnisses ("High School Diploma" bzw. "Diplôme d’Études Secondaire") davon abhängig, ob eine bestimmte Zahl von Bewertungspunkten (Creditpoints) erreicht wird. Zwei Prozent der Schulen liegen in privater, überwiegend kirchlicher Hand. Etwa zehn Prozent der Schüler besuchen eine Privatschule. Das Leistungsniveau der Privatschulen galt 2006 als sehr hoch und Kanada war das einzige OECD-Land, in dem deren Schüler selbst nach Abgleich des familiären und sozioökonomischen Hintergrundes mehr lernten, als die Schüler an öffentlichen Schulen. Während der Schulbesuch kostenfrei ist, werden an den Hochschulen Studiengebühren unterschiedlicher Höhe fällig. Von den über 80 Universitäten zählen die University of Toronto und die Université de Montréal zu den größten. Die ältesten sind die Universität Laval in Québec von 1663, eine jesuitische Institution, die nach Bischof Laval benannt wurde. Dies berührt einen Grundzug der kanadischen Hochschulentwicklung, denn die frühen Institutionen waren fast alle kirchlichen Ursprungs. Erst 1818 entstand die erste säkulare Hochschule und die zweite Kanadas, die Dalhousie University in Halifax. Ihr folgten die beiden englischsprachigen Institute, die McGill University in Montréal (1821) und die University of Toronto (1827). Ihnen folgten in den 1840er-Jahren die Queen’s University in Kingston (1841) und die University of Ottawa (1848). Letztere geht wie die Laval-Universität auf einen Missionsorden zurück, in diesem Falle auf die Oblaten. Nach der Unabhängigkeit im Jahr 1867 folgten die von einem anglikanischen Bischof gegründete University of Western Ontario in London (1878) und die im selben Jahr gegründete Universität Montreal (die zweite von vier Hochschulen in der Stadt) sowie die McMaster University in Hamilton in Ontario. Letztere wurde ursprünglich in Toronto gegründet und zog erst 1930 nach Hamilton um. Sie geht auf die "Baptist Convention of Ontario" zurück. Colleges verleihen meist nur 3- bis 4-jährige Bachelor-Abschlüsse (z. B. Minors, Majors, Spezialication, Honours), Universitäten auch 1-jährige konsekutive „post-bachelor“ Bachelor mit Honours-/Baccalaureatus Cum Honore-, 1- bis 3-jährige Master- und 3- bis 5-jährige Ph.D.-Abschlüsse. In diversen Hochschulrankings nehmen einige kanadische Universitäten Spitzenpositionen ein: Beispielsweise war in der langjährigen Durchschnittsbewertung des in Nordamerika am weitest verbreiteten Rankings, der QS World University Rankings, im Jahr 2012 die McGill University innerhalb Kanadas auf Platz 1 und weltweit auf Platz 17. Laut dem "Academic Ranking of World Universities" (Shanghai Ranking) aus dem Jahr 2006 (Jiaotong-Universität Shanghai) zählen die University of Toronto auf Platz 24 und die University of British Columbia in Vancouver auf Platz 36 zu den besten Hochschulen. Die First Nations besitzen seit 2003 eine eigene Universität, die First Nations University of Canada in Regina, der Hauptstadt der Provinz Saskatchewan. 1989 begannen die bedeutendsten Universitäten sich zusammenzuschließen, um Forschungsvorhaben zu koordinieren. Seit 2011 besteht die Gruppe als "U15 Group of Canadian Research Universities", zu der ein nunmehr geschlossener Kreis von 15 Universitäten zählt. Umwelt. → "Siehe auch: Klimapolitische Maßnahmen Kanadas" Fairmont Chateau Hotel am Lake Louise im Banff-Nationalpark Blick auf von Pine Beetles befallene Wälder am Fraser Lake Die Umweltpolitik Kanadas hat ungewöhnliche naturräumliche Grundlagen, vor allem ist aber die Gemengelage der Interessen eine spezifisch kanadische. Kanadas Natur ist zum bedeutendsten Faktor für den Tourismus geworden. Dazu tragen 43 National- und weit über 1500 Provinzparks sowie weitere Schutzgebiete bei, die vor allem riesige Waldgebiete beinhalten. Der älteste von ihnen ist der Banff-Nationalpark von 1885, der inzwischen über autobahnartige Straßen dem Massentourismus erschlossen wird. 1911 entstand Parks Canada als älteste Nationalparkverwaltung der Welt. Doch kollidieren touristische, Erhaltungs-, Erholungs- und wissenschaftliche Interessen mit den Verwertungsinteressen der Rohstoffindustrie und gelegentlich den Interessen der Ureinwohner. Intakte Urwälder "(old growth)" existieren in Kanada auch nach drei Jahrhunderten des Raubbaus aufgrund der geringen Besiedlungsdichte noch auf enorm großen Flächen. Nach "Global Forest Watch Canada" sind noch 62 % der borealen Wälder und 30 % der gemäßigten Wälder intakt (natürliche Ökosysteme, die im Wesentlichen vom Menschen unbeeinflusst sind). Der Raubbau an der Grenze zu den besiedelten Gebieten ist jedoch immens und hat dort nur noch kleine Urwaldreste zurückgelassen. Ohne den Widerstand von Umweltschutzorganisationen wie Greenpeace, die in Vancouver gegründet wurde, oder dem Western Canada Wilderness Committee sowie den lokalen Indianern würden auch diese Urwälder sicherlich nicht mehr existieren. Die Unternehmen der Holzindustrie sind so eng mit den politischen Eliten der Provinzen verbunden, dass erst internationaler Druck und häufig Zwang der Bundesregierung und der Gerichtshöfe die Bestände in einigen Fällen retten konnten (vgl. Clayoquot Sound). Dagegen haben sich Wissenschaftler und zahlreiche Umweltverbände zusammengeschlossen, und die lange unbedeutende Green Party of Canada konnte bei den Wahlen von 2008 knapp sieben Prozent der Wähler gewinnen. Nach einer Studie der Simon Fraser University, die auf Betreiben der David Suzuki Foundation durchgeführt wurde, liegt Kanada bei dreißig untersuchten Staaten bei der Produktion von Atommüll und Kohlenmonoxid auf dem hintersten Rang. Zudem nimmt es beim Wasserverbrauch den 29. Platz ein. Insgesamt rangieren Kanada, Belgien und die USA am unteren Ende der Staatengruppe. Im Oktober 2008 versuchten sich mehrere hundert Wissenschaftler gegen die Diskreditierung ihrer Arbeit durch die Regierung zur Wehr zu setzen. Gleichzeitig fanden in Victoria die größten Demonstrationen der letzten 15 Jahre gegen die Abholzung der letzten Urwälder auf Vancouver Island statt. Eine weitere Gefahr für die Urwälder, aber ebenso sehr für die riesigen nachgewachsenen Wälder stellt der in Kanada "Mountain Pine Beetle" genannte Bergkiefernkäfer dar. Er hat bereits mehrere Millionen Hektar Wald vernichtet. Die über 250 Staudämme, die rund 58 % der in Kanada 2007 produzierten Strommenge von 612,6 Milliarden Kilowattstunden produzierten (wovon Kanada über 80 Milliarden Kilowattstunden exportierte), werden inzwischen ebenso kritisch mit Blick auf ihre Umweltbilanz betrachtet wie der Abbau der Bodenschätze. In beiden Fällen kam es nicht nur zu häufigen Zwangsumsiedlungen der Ureinwohner wie der Innu in Labrador, sondern auch zu erheblichen Umwelt- und Gesundheitsbelastungen wie beim Abbau der Athabasca-Ölsande in Alberta. Am 14. Oktober 2008 lehnten die Cree, denen die rechtlich privilegierte Rolle der Provinzen gegenüber der Bundesregierung in Fragen der Bodenschätze und der Stromgewinnung und gegenüber den indianischen Nationen bewusst ist, den „Grünen Plan“ der Quebecer Provinzregierung daher ab. Er hätte zudem Québec erneut die Verwaltung des riesigen James-Bay-Gebiets zurückgegeben, die die Cree nach langen Verhandlungen erst 2002 errungen hatten. Seit 2009 kämpfen drei lokale Cree-Gruppen mit internationaler Unterstützung um den Wald im Broadback-Tal, einen großen zusammenhängenden borealen Urwald am Rand der Holzeinschlagszone. Im Nordosten British Columbias kam es allein 2005 bis 2008 zu sieben von der Polizei als höchst gefährlich eingeschätzten Anschlägen auf Gasleitungen der EnCana Corporation, in denen stark giftiger Schwefelwasserstoff transportiert wird. Am 29. April 1998 unterzeichnete die Regierung das Kyoto-Protokoll, und verpflichtete sich, die Treibhausgas-Emissionen bis 2012 um sechs Prozent zu senken. Stattdessen stiegen die Emissionen von 1990 bis 2004 um mehr als ein Viertel. Beim Klimaschutz-Index 2008 lag Kanada auf Platz 53 von 56 untersuchten Staaten, womit das Land beim Kohlendioxid-Ausstoß nur noch vor Saudi-Arabien, den USA und Australien rangiert. Im Dezember 2011 erklärte das Land kurz nach der UN-Klimakonferenz in Durban seinen Rückzug vom Kyoto-Protokoll. Damit sparte Kanada 14 Milliarden Dollar (10,5 Milliarden Euro) an Strafzahlungen für das Nichteinhalten der im Protokoll gesetzten Ziele. Unter anderem trägt die Ölsandindustrie erheblich zum steigenden Treibhausgasausstoß des Landes bei. Rechtlich liegt der Umweltpolitik vor allem der "Canadian Environmental Protection Act" von 1999 zugrunde. Das zuständige Ministerium ist das "Department of the Environment" unter Leitung von Jim Prentice (seit 2008). Ihm unterstehen neben anderen Organisationen Parks Canada und der Canadian Wildlife Service. Jede Provinz hat zudem ein eigenes Umweltministerium. Allgemein. Banknote der Kolonialbank Kanada, Toronto 1859 Kanada gehört zu den wohlhabendsten Ländern der Welt. Gemessen am nominalen Bruttoinlandsprodukt lag es 2011 mit umgerechnet 1.736.869 Millionen US-Dollar auf dem 10. Platz, bei der Kaufkraftparität mit 1.396.131 Millionen internationalen Dollar auf Platz 14. Beim Bruttoinlandsprodukt pro Kopf liegt das Land 2011 mit 50.436 US-Dollar auf Platz 9, sowie kaufkraftbereinigt mit 40.541 US-Dollar auf Platz 13. Im Human Development Index 2013 des Entwicklungsprogramms der Vereinten Nationen, der auch nicht-ökonomische Faktoren berücksichtigt, belegt Kanada den achten Platz. Das Land gilt zugleich als soziale Marktwirtschaft. Jede Provinz legt für ihr Gebiet einen Mindestlohn fest. 2011 lag er zwischen 9 (Yukon) und 11 Dollar (Nunavut), in Ontario lag er bei 10,25 Dollar. Überdurchschnittlich hoch ist der Anteil der Urproduktion, also des primären Wirtschaftssektors, was auf den Reichtum an natürlichen Ressourcen zurückzuführen ist. Die in der Provinz Ontario abgebauten Mengen an Nickel decken etwa 20 % des Weltbedarfs, Kanada besitzt mit rund 24 Milliarden Tonnen die größten Erdölreserven nach Saudi-Arabien, verfügt über zehn Prozent des weltweiten Waldbestands, dazu bedeutende Vorkommen von Schwefel, Asbest, Aluminium, Gold, Blei, Kohle, Kupfer, Eisenerz, Kaliumkarbonat, Tantal, Uran und Zink. Vor der Küste der Atlantischen Provinzen liegen umfangreiche Vorkommen an Erdgas, in Alberta die Athabasca-Ölsande. Wald und Wasserkraft bilden die Grundlage für die Zellstoff- und Papierindustrie. Zahlreiche Stauseen liefern Strom und bilden damit das Rückgrat der Energieproduktion. Allein 360.000 GWh stammten aus Wasserkraft, womit Kanada knapp hinter China der zweitwichtigste Stromproduzent auf diesem Sektor ist. In Kanada werden über elf Prozent des Weltstrombedarfs gedeckt, und es ist eines der wenigen Industrieländer, die Netto-Exporteure von Energie sind. Die Verbindung innerhalb Nordamerikas ist dabei inzwischen so eng, dass sich riesige, grenzüberschreitende Versorgungsverbünde entwickelt haben, wie die "Western Interconnection", die bis nach Mexiko reicht. Weitere Energielieferanten sind Gas, Öl, Uran (18 produzierende Kernkraftwerke) und regenerative Energien. Kernkraftwerke lieferten im Jahr 2010 genau 85.219,889 von insgesamt 565.519,793 GWh Strom, also rund 15 % des Stroms. Der größte Windpark befindet sich in Alberta bei Pincher Creek. Insgesamt waren in Kanada Ende 2014 Windkraftanlagen mit einer Leistung von 9,7 GW installiert, womit das Land weltweit auf Platz 7 lag. Getreidefarm bei Kitchener in Ontario Kanada ist aufgrund seiner hohen Überschüsse einer der größten Lieferanten von landwirtschaftlichen Erzeugnissen, doch ist das Produktspektrum in den Prärieprovinzen sehr eng; im Mittelpunkt steht dabei ganz überwiegend Weizen, bei dessen Produktion Kanada 2003 mit 50,168 Millionen Tonnen an achter Stelle nach Frankreich stand. Hinzu kommt Viehwirtschaft, vor allem Rinderzucht, in den letzten Jahren auch wieder die kommerzielle Zucht von Bisons. An den Küsten wird Fischzucht betrieben, die jedoch mit dem Fang von Wildfischen in Konflikt steht. Dabei ist British Columbia der größte Exporteur von Lachs und Heilbutt. Tagebau in den Athabasca-Ölsanden in Alberta Die Zentren der Industrie liegen im Süden der Provinzen Ontario und Québec, vor allem in den Großräumen von Toronto und Montréal. Dabei spielen die Automobil- und die Luftfahrtindustrie eine bedeutende Rolle, hinzu kommen Metallindustrie, Nahrungsmittelverarbeitung sowie Holz- und Papierindustrie. Ebenfalls eine bedeutende Rolle spielen die chemische und die elektrotechnische Industrie, vor allem aber der Hightech-Bereich. Dies hängt mit dem Niedergang der großen Automobilkonzerne in den USA zusammen, der vor allem die Zulieferer und Dépendancen im Ballungsraum Toronto trifft. Alle Industrien, die sich dem Sektor der Gas- und Ölförderung anlagern, ballen sich hingegen im Großraum Calgary, doch leidet diese prosperierende Industrie jüngst unter rapidem Preisverfall bei steigenden Explorationskosten. Dies hängt zum Teil mit geologisch bedingten Hemmnissen zusammen, mit dem inzwischen sehr hohen Lohnniveau und dem wachsenden Widerstand gegen die Zerstörungen der Umwelt. Die Exporte betrugen 2007 36,7 % und die Importe 32,8 % des BIP. Bei weitem wichtigster Handelspartner waren dabei die USA mit 76,4 % der Exporte und 65,0 % der Importe. Kanada belegt nach der EU, den USA, Japan und der Volksrepublik China den fünften Platz in der Weltaußenhandelsstatistik. Der Außenhandel ist weitgehend frei, nur in wenigen Schlüsselbereichen sind ausländische Investitionen auf Minderheitsbeteiligungen beschränkt. Mit Abstand am meisten Bedeutung besitzt der Dienstleistungssektor mit 66 % (2008) Anteil am Bruttoinlandsprodukt, gefolgt von der Industrie mit 32 % und der Landwirtschaft mit knapp 2 %. Sieben der zehn größten kanadischen Unternehmen – wenn man den Umsatz zugrunde legt – sind allein im Banken- und Versicherungsbereich tätig. War die Wirtschaft in der ersten Hälfte des 20. Jahrhunderts noch weitgehend auf den Export nach Europa orientiert, vor allem in das Britische Empire, so wurden die Handelsbarrieren zum Nachbarland USA nach dem Zweiten Weltkrieg weitgehend abgebaut. Ein erster wichtiger Schritt war das 1965 vereinbarte "Canada-United States Automotive Agreement" (auch Auto Pact genannt), das die Grenzen für die Automobilindustrie vollständig öffnete. Das Kanadisch-Amerikanische Freihandelsabkommen von 1988 schaffte die Zölle zwischen beiden Ländern ab und führte zu einem deutlichen Anstieg des Handelsvolumens und der US-Investitionen in Kanada. Mit dem Nordamerikanischen Freihandelsabkommen wurde diese Freihandelszone 1994 auf Mexiko ausgedehnt. Weitere Freihandelsabkommen bestehen unter anderem mit der EFTA. Kanada ist Mitglied zahlreicher wirtschaftspolitischer Organisationen, wie der Welthandelsorganisation, der OECD, des Internationalen Währungsfonds, der Weltbank und der G7. Als eine der größten Schwächen der kanadischen Wirtschaft hat die OECD die mangelnde Umsetzung von Erfindungen in verwertbare Patente eingeschätzt. Daher stieß die Regierung 2007 ein Programm namens "Mobilizing Science and Technology to Canada’s Advantage" an. Es soll die geringe Zahl der Patente erhöhen und zu mehr Investitionen im Forschungs- und Entwicklungsbereich anregen. Es soll zugleich die Zusammenarbeit von staatlichen Bildungseinrichtungen und industriellen Komplexen fördern. Zudem wurden "Centres of Excellence in Commercialisation and Research" eingerichtet sowie ein "College and Community Innovation Program". Die größte Arbeitnehmervertretung bildet der Canadian Labour Congress (CLC) oder französisch der "Congrès du travail du Canada" (CTC) mit seinen rund hundert Einzelgewerkschaften in 136 Distrikten, die nach eigenen Angaben drei Millionen Mitglieder haben. Er ist 1956 aus dem Zusammenschluss von Trades and Labour Congress of Canada (TLC) und Canadian Congress of Labour (CCL) hervorgegangen. Während die TLC ähnlich wie in Europa nach Branchen organisiert war, war die CCL nach Orten organisiert und umfasste dort alle Gewerbe. Zudem hatte der TLC die Liberalen unterstützt, während bei der CCL Anhänger der sozialistischen Co-operative Commonwealth Federation vertreten waren. Zugleich integrierte sie die kommunistische Workers Unity League (WUL), als sie 1939 ein Bündnis gegen den Faschismus bildeten. Auch die in British Columbia ansässigen International Woodworkers of America galten als kommunistisch, wurden aber 1948 integriert. Wenig später wurden die Kommunisten ausgeschlossen. Die CLC spielte eine wichtige Rolle bei der 1962 erfolgten Gründung der "New Democratic Party" und bekämpfte gemeinsam mit ihr das Freihandelsabkommen mit den USA. Vorsitzender des CLC ist seit 1999 Kenneth V. Georgetti. Die Weltwirtschaftskrise blieb nicht ohne Wirkungen auf die kanadische Wirtschaft. Betroffen waren zunächst die Finanzdienstleister, die sich in Toronto ballen, wo die Toronto Stock Exchange (TSX) die drittgrößte Börse Amerikas darstellt, aber auch die Immobilienindustrie, und mit der Insolvenz von Nortel im Januar 2009 auch die Ausrüster für Telekommunikationsunternehmen. Unter diesen Unternehmen ist BCE (Bell Canada Enterprises) das älteste und größte. Im 4. Quartal 2008 gingen die Exporte um 17,5 % zurück. Die Arbeitslosigkeit lag im August 2009 jeweils bei 8,7 % (September 2007 5,9 %), seither liegt sie zwischen 7,2 und 7,5 %. Staatshaushalt. Der Staatshaushalt umfasste 2009 Ausgaben von umgerechnet 547,2 Mrd. US-Dollar, dem standen Einnahmen von umgerechnet 514,5 Mrd. US-Dollar gegenüber. Daraus ergibt sich ein Haushaltsdefizit in Höhe von 2,5 % des BIP. Die Staatsverschuldung betrug 2009 965 Mrd. US-Dollar oder 72,3 % des BIP. Medien. Eingangspforte der "Gazette" in Montreal Die erste Zeitung auf dem Gebiet Kanadas war John Bushells "Halifax Gazette", die 1752 erschien. In Neu-Frankreich existierten keine Zeitungen, doch gründeten William Brown und Thomas Gilmore aus Philadelphia die zweisprachige "Quebec Gazette" in Québec. 1785 entstand durch Fleury Mesplet, den die Briten wegen seiner Aufforderung zum Anschluss an die USA inhaftiert hatten, das heute älteste Blatt, die "Montreal Gazette". 1793 folgte in Niagara-on-the-Lake die erste Zeitung in Ontario, die "Upper Canada Gazette". Diese frühen Blätter hingen weitgehend von Zuwendungen der Regierung und von Anzeigenerträgen ab, kaum von Käufern und Abonnenten. Dies sollte sich in Kanada als Dauerzustand erweisen. Titelseite des "Canadien" vom 22. November 1806 In Québec entstanden 1805 und 1811 der "City Mercury" und in Montréal der "Herald" als Sprachrohre der dortigen Händlereliten, während "Le Canadien" (1806) und "La Minerve" (1826) die Frankophonen vertraten. Gegen diese Kolonial- und Händlereliten wandte sich in Ober-Kanada der "Colonial Advocate", den William Lyon Mackenzie herausbrachte, und der die Reform- und Farmergruppen vertrat. Ähnliches galt für Joseph Howes "Novascotian" (1824) in Halifax. Das Gebäude des Toronto Globe mit dem Globus auf dem Dach, nach 1860 Das Gebäude des Toronto Star, nach 1930 Die meisten Zeitungen hingen von Parteien ab, insbesondere den Reformern (den heutigen Liberalen) und den Konservativen, und zwar meist als Organe bestimmter politischer Führer. So war der "Toronto Globe" (1844) die Stimme des Reformers George Brown, der "Toronto Mail" (1872) hingegen wurde bald zur Stimme von John Macdonald, dem ersten Premier Kanadas. Ähnlich organisierten 1899 Geschäftsleute den "Toronto Star" zugunsten von Wilfrid Laurier um. Dagegen kauften wiederum die dortigen Konservativen die "Toronto News" 1908 als Parteiorgan. Jede größere Stadt hatte folglich ein liberales und ein konservatives Blatt, das die jeweilige Klientel versorgte. Bis in die 1930er-Jahre hinein blieben die Quebecer Blätter dabei von der jeweiligen Regierung abhängig. Blätter, die nicht einer der Führungsgruppen angehörten, wie die kommunistische Presse, wurden immer wieder verboten. Der von streikenden Druckern 1892 gegründete "Toronto Star" ging, wie die meisten Arbeiterzeitungen ein. In Québec erließ die Regierung Maurice Duplessis den "Padlock Act", der ihre Zeitungen traf. Noch 1970 übte die Regierung eine Art Zensur aus, als es in der Oktoberkrise zu Entführungen kam. Der erste Versuch einer Tageszeitung, der "Montréal Daily Advertiser" ging nach einem Jahr 1834 in den Konkurs. Doch 1873 gab es bereits 47 Tageszeitungen, 1913 gar 138. Im äußersten Westen erschien der British Colonist ab 1858, die "Manitoba Free Press" 1872, der "Saskatchewan Herald" 1878 und das "Edmonton Bulletin" 1880. Die Verbreitung des Radios ab den 30er Jahren und des Fernsehens ab den 50er Jahren kostete die Zeitungen den Verlust vieler Werbekunden, so dass 1953 nur noch 89 Tageszeitungen existierten. 1986 erholte sich die Zahl wieder auf 110, doch nur noch acht Städte hatten zwei oder mehr Tageszeitungen. Heute gehören die meisten Zeitungen zu großen Konglomeraten der Medienindustrie. Die Erlaubnis, in beiden Bereichen der Medien, Fernsehen und Printmedien, Unternehmen zu erwerben, war lange umstritten, doch seit Brian Mulroney gibt es darin keine Begrenzung mehr. Im englischen Sprachraum ist Postmedia Network führend, sie bieten in den meisten Provinzhauptstädten die führende Tageszeitung an. 90 % der frankophonen Zeitungen gehören drei Medienunternehmen: Pierre-Karl Péladeaus "Quebecor Inc." der allein die Hälfte der Gesamtauflage liefert, Paul Desmarais' "Gesca" und Jacques Francoeurs "UniMédia". Schon 1950 beherrschten die vier größten Medienunternehmen 37,2 % des Gesamtmarktes, 1970 waren dies 52,9 %, 1986 gar 67 %. 80 % der Einnahmen stammen dabei aus Werbung, nur 20 % aus Verkaufserlösen. Guglielmo Marconi erhielt 1909 den Nobelpreis für Physik Mit dem Radio experimentierte zunächst Guglielmo Marconi ab 1896, 1901 gelang ihm die erste drahtlose Signalübertragung über den Atlantik von Cornwall nach Neufundland. Weil die Radiotechnik zunächst eher der Kontaktaufnahme zu Schiffen diente, unterstand die Aufsicht über den "Radiotelegraph Act" von 1913 dem Minister für Marine und Fischerei. Die Überlebenden der Titanic verdankten ihre Rettung den von Marconi gesendeten Radiowellen. Er war auch der erste, der 1919 eine private Sendelizenz in Kanada erhielt. 1928 bestanden bereits 60 Radiostationen. Dennoch stellte eine Kommission unter Leitung von John Aird in diesem Jahr fest, dass viele Kanadier US-Stationen lauschten. Erst 1932 entschied das britische, dass der Staat die Oberaufsicht über die Radiokommunikation zu Recht beanspruche. 1936 begann die öffentliche Canadian Broadcasting Corporation (CBC) ihren Sendebetrieb, der seit 1932 von der "Radio Commission" begonnen worden war. Bis dahin hatte sich die Zahl der Radioempfänger binnen fünf Jahren auf eine Million verdoppelt. Die heutige Struktur der CBC ist ein Produkt der Weltwirtschaftskrise: Es entstanden nur fünf zentrale Sender, deren Sendungen von privaten Distributoren weitergeleitet wurden. So entstand ein gemischtes System staatlicher und privater Sender, in dem den privaten Sendern nur eine regionale Ausstrahlung gestattet wurde. Kanada wurde eines der Länder mit den meisten Radiostationen, und eines der ersten mit Satellitensendern. Dennoch ist die US-amerikanische Konkurrenz stark vertreten. Seit 1952 gibt es Fernsehen in Kanada, wobei die CBC die Regulierungsaufgaben wahrnahm und zugleich der bedeutendste Sender wurde. Auch hier dienten private Netzwerke als Distributoren für "CBC-TV". Einer Kampagne der Privatsender gegen das CBC-Monopol folgte der "Broadcasting Act" von 1958 unter John Diefenbaker. Es entstand ein 15-köpfiger "Board of Broadcast Governors" (BBG), der die Anträge für neue Sender annahm und eher Privatsender förderte. Das TV expandierte schnell, und 1961 entstand ein zweites Netzwerk, CTV. Zwischen BBG und CBC kam es zu heftigen Streitigkeiten, so dass 1968 die Lizenzvergabe an die "Canadian Radio-Television Commission" (heute "Canadian Radio-Television and Telecommunications Commission", CRTC) vergeben wurde, die auch das 1968 etablierte Kabel-TV an sich zog. Der Anspruch auf „Schutz, Bereicherung und Stärkung der kulturellen, politischen, sozialen und ökonomischen Struktur Kanadas“, wie es im Gesetz heißt, sollte dabei gewahrt werden. Dennoch führten Sparmaßnahmen in den letzten vier Jahrzehnten zu einer zunehmenden Abhängigkeit von Werbeetats und Einschaltquoten. Dabei sind US-Sender über Kabel praktisch überall zu empfangen. Folglich besetzen sie im englischsprachigen Kanada rund 75 % der besten Sendezeit, während dieser Anteil in Québec nur bei 40 % liegt. Hier spielt TVA die wichtigste Rolle. Inwiefern das Internet die entstandene Medienmacht relativieren kann, ist noch offen, zumal alle etablierten Medien in diesem neuen Markt zunehmend engagiert sind. Die Interessen der unabhängigen Medienunternehmen vertritt seit 1948 die Assoziation der kanadischen Film- und Fernsehproduktion. Verkehr. Die Hauptverkehrsachse des Ostens verläuft entlang dem Sankt-Lorenz-Strom durch Ontario und Québec und verbindet Toronto, Montréal, Québec und Ottawa miteinander. Der gesamte Norden des Landes ist verkehrsmäßig wenig erschlossen, da hier, außer in den Gebieten der Rohstoffförderung, kaum Bedarf besteht. Die Ballungsräume des Westens sind, wie im Osten, hauptsächlich nahe der amerikanischen Grenze durch Verkehrssysteme verbunden, sieht man einmal von der Anbindung Edmontons ab. Dies ist vor allem dem politischen Willen der kanadischen Regierung zu verdanken, die allein durch drei transkontinentale Eisenbahnlinien und diverse Stichbahnen die weit auseinander liegenden Provinzen miteinander verbinden wollte. Davor war dies durch Kanäle geschehen, nach der Eisenbahnepoche folgten Straßenbauten, schließlich Fluglinien. Straßen. Das dichteste Straßennetz befindet sich im Bereich der höchsten Bevölkerungsdichten in den Atlantikprovinzen, in Süd-Ontario, in Québec entlang des St. Lorenz, in den südlichen Prärieprovinzen und im Bereich der Frasermündung um Vancouver. Als ein alle Provinzen verbindendes Element wurde von Victoria am Pazifik bis St. John’s am Atlantik der Trans-Canada-Highway gebaut, mit 8000 km eine der längsten Straßen der Welt. In den Ballungsräumen und als Verbindung zwischen größeren Zentren ist diese Straße als Autobahn ausgebaut. Durch Ontario führen zwei Routen dieser Straße, eine nördlichere und eine südlichere. Der Trans-Canada-Highway ist die einzige Bundesstraße Kanadas. Die übrigen Landstraßen, auch die Autobahnen, werden von den Provinzen gebaut und unterhalten. Die verkehrsreichste Autobahn Kanadas bildet das Rückgrat des Québec-Windsor-Korridors, in Ontario mit der Straßennummer „401“. Mit 16 Spuren durch den Ballungsraum Toronto gehört der 401 zu den breitesten Autobahnen der Welt. Nach Norden führen nur wenige Straßen, von denen die meisten wegen großer Baumaßnahmen (Staudämme, Bergbau etc.) gebaut wurden, oder aus militärischen Gründen entstanden (zum Beispiel der Alaska Highway). In Kanada von Bedeutung sind Überlandbusse. Jede Region verfügt über ein ausgedehntes Busnetz; die größte Busgesellschaft ist Greyhound Canada, deren Streckennetz in Nordamerika 193.000 km umfasst. "Greyhounds Go Anywhere Fare" und der "North America Discovery Pass" gelten für unbegrenzte Busfahrten in einem bestimmten Zeitraum in ganz Kanada und in den USA oder in bestimmten Gebieten. In Kanada herrscht Rechtsverkehr und die Geschwindigkeiten sind in km/h angegeben. Das Nationalitätskennzeichen ist CDN (nicht CND für Canada) und steht für Canadian Dominion. Dieses wird auch als Abkürzung in Herkunftsangaben z. B. bei Spielfilmen verwendet. Flugverkehr. Zur Überwindung der großen Entfernungen ist der Inlandsflugverkehr von erheblicher Bedeutung. Etwa 75 Fluggesellschaften, darunter Air Canada, die mit 34 Millionen transportierten Passagieren größte Fluggesellschaft Kanadas, sorgen für regionale Flugverbindungen. In Westkanada fliegen Air BC, die inzwischen zu "Air Canada Jazz" gehören und Horizon Air, in Ostkanada Air Alliance (Quebec) und Air Ontario (Ontario). Im Norden fliegen Gesellschaften wie Air Creebec (im Besitz der Cree), Air North (Whitehorse), Bearskin Airlines, Canadian North (Yellowknife) oder Air Inuit (Dorval) sowie First Air, die im Besitz von Inuit sind. Air Transat und Air Canada fliegen auf internationalen und innerkanadischen Strecken, wobei Air Canada 1937 aus einer Eisenbahngesellschaft hervorging. Internationale Flughäfen befinden sich in Québec, Toronto, Montréal, Calgary, Edmonton, Halifax und Vancouver sowie Winnipeg, mit Einschränkungen in Whitehorse. 1909 flog das erste kanadische Flugzeug 800 m weit (in Baddeck), 1915 entstand mit der Curtiss JN-3 das erste Serienflugzeug. Im Ersten Weltkrieg stellte Kanada bereits 22.000 Mitarbeiter bei den Luftstreitkräften, obwohl die Canadian Air Force erst 1920 entstand. In den 30er Jahren erfolgte ein massiver Ausbau der Flughäfen, so dass mehr als die Hälfte der gesamten Luftfracht in Kanada bewegt wurde und das Land 1945 587 Flugplätze aufwies. 1937 wurde Trans-Canada Airlines gegründet, aus der 1964 Air Canada hervorging. 2009 wurde der 23. Februar zum "National Aviation Day" erklärt. Die Stadt Montreal ist Sitz der zwei bedeutendsten Zivilluftfahrtorganisationen, der IATA und der ICAO. Eisenbahn. Die Eisenbahn ist im 19. Jahrhundert vom kanadischen Staat umfassend gefördert worden, um die Besiedlungspolitik zu unterstützen und die nationale Einheit zu sichern. Dazu sollten die Distanzen zwischen den Provinzmetropolen durch transkontinentale Eisenbahnlinien überwunden werden. Doch seit den 1930er Jahren ging ihre Bedeutung zugunsten des Straßenverkehrs erheblich zurück und besitzt seither nur noch innerhalb des Großraumes Toronto-Montréal große Bedeutung im Personen(nah)- und Güterverkehr. Außerhalb dieses Gebietes beschränkt sich die Bedeutung auf den Massengüterverkehr und den Tourismus, vergleichbar den Schienenkreuzfahrten in Europa. Der überregionale transkontinentale Güterverkehr wird von den beiden Bahngesellschaften Canadian Pacific Railway und Canadian National Railway durchgeführt. Betreiberin des Schienenpersonenverkehrs ist die VIA Rail Canada, der regionale Güterverkehr wird von vielen privaten Gesellschaften betrieben. Zu diesen Hauptlinien kommen zahlreiche Nebenlinien, die zum Teil in privater Initiative wiederbelebt worden sind, wie die Esquimalt and Nanaimo Railway auf Vancouver Island. Innerstädtischer Nahverkehr. Im Gegensatz zu den Vereinigten Staaten verfügen kanadische Großstädte über eine Vielfalt sehr gut ausgebauter Nahverkehrssysteme. Während in den Metropolen Toronto und Montreal seit den 1950er Jahren gebaute, klassische U-Bahnen das Rückgrat des innerstädtischen Nahverkehrs bilden, werden in kleineren Großstädten wie Calgary und Edmonton seit den 1980er Jahren Stadtbahnsysteme (Light Rail) aufgebaut. In den übrigen Städten werden vornehmlich Diesel- und teilweise Oberleitungsbusse eingesetzt; in Ottawa gibt es ein größeres Netz von Schnellbussen. Die beiden größten Nahverkehrsnetze liegen in Toronto mit der Toronto Transit Commission und Montreal mit je vier Schnellbahnstrecken und je etwa 150 Buslinien. In Toronto ist außerdem noch ein größeres Straßenbahnnetz mit elf Linien in Betrieb. Der im Zuge der Weltausstellung Expo 86 eröffnete, vollautomatische SkyTrain in Vancouver war lange das längste automatische Transportsystem der Welt. Schifffahrt. Wichtige Seehäfen befinden sich in den Städten am Sankt-Lorenz-Strom und in Vancouver. Zudem besteht auf den Großen Seen eine bedeutende Binnenschifffahrt. Wo keine natürlichen Wasserwege bestanden, baute man ab Anfang des 19. Jahrhunderts Kanäle. Für die wirtschaftliche Entwicklung Kanadas ab 1821 war der Lachine-Kanal von entscheidender Bedeutung. In Zentralkanada war das Kanu schon seit jeher das gegebene Transportmittel, und auch heute noch sind viele Seen mit Fährschiffen ausgestattet und der Warenverkehr folgt dem Wasser. Manche Orte sind nur über See zu erreichen, wie entlang der Westküste von Vancouver nach Port Hardy auf Vancouver Island oder Prince Rupert gegenüber von Haida Gwaii. Die frühe Erschließung des Landes erfolgte durch das Kanu und durch den Kanalbau, der einen weitläufigen Binnenverkehr ermöglichte. Bis in die 1950er Jahre trugen Schiffe einen erheblichen Teil der Passagiere, vor allem in abgelegenen Gebieten, doch stellten die meisten Linien, ähnlich wie zahlreiche Eisenbahnstrecken, den Verkehr ein, als die großen Überlandstraßen wie der Alaska Highway entstanden. Kultur. a>blatt (maple leaf) ist das Nationalsymbol Kanadas Das heutige Kanada wird überwiegend durch die europäischen Einflüsse der Pioniere, Forscher, Händler und Fischer aus Großbritannien, Frankreich und Irland, regional auch aus Deutschland und Osteuropa geprägt. In jüngerer Zeit wird das Bild in größeren Städten auch von Asiaten (zum Beispiel Vancouver, Toronto) und von Schwarzen aus der Karibik und aus Afrika ergänzt. Viele ihrer Traditionen bleiben weiterhin Teil von Kanada, etwa ihre Nahrung, Sprache, Erzählungen, Geschichte, Feiertage und Sport. Die kulturellen Feste dieser Einwanderer sind ein fester Bestandteil des kanadischen Lebens, zum Beispiel das chinesische Neujahrsfest in Vancouver oder der "Caribana"-Umzug in Toronto. Viele Kanadier können noch heute ihre Wurzeln zurück zu diesen Ländern verfolgen und sind stolz auf ihre Herkunft. Der in vielen Städten ursprünglich vorherrschende britische Geist wurde mit der zunehmenden Einwanderung aus anderen Ländern weitgehend verwischt. Am deutlichsten ist er noch in Victoria zu erkennen. Dies gilt auch für das frankophone Kanada, das ebenfalls starken Einflüssen durch die Einwanderung ausgesetzt ist. Kanada und Großbritannien teilen einen Abschnitt ihrer Geschichte und Kanada ist Mitglied des Commonwealth of Nations. Beide Länder sind in Personalunion verbunden. Großbritannien ist Kanadas drittgrößter Handelspartner, und von dort kommen nach den USA die meisten ausländischen Touristen. Die Verbindungen Kanadas zu anderen frankophonen Ländern sind in der Organisation internationale de la Francophonie institutionalisiert und es gibt einen regen kulturellen Austausch mit Frankreich. So ist Kanada beispielsweise am französischsprachigen Fernsehkanal TV5 Monde beteiligt. Deutsche Einflüsse sind vor allem in Südontario um die Stadt Kitchener (ehemals Berlin) präsent. In ganz Südontario, besonders im Gebiet von Kitchener sind Orte mit deutschen Namen verstreut. Kitchener wirbt damit, dass dort das größte Oktoberfest außerhalb Münchens gefeiert wird. Seit den 1970er Jahren sind in Kanada viele Asiaten eingewandert, vorwiegend aus Hongkong, China und Korea. Insbesondere in Vancouver (spöttischer Name: Hongcouver) und Toronto bilden sie starke ethnische Minderheiten und die "Chinatowns" mit ihren chinesischen Straßen- und Werbeschildern gehören zu den Sehenswürdigkeiten. Die Schaffung und der Schutz einer eigenständigen kanadischen Kultur wird durch Programme, Gesetze und Einrichtungen der Bundesregierung, zum Beispiel der Radio-Canada, dem NFB "(Office national du film du Canada)" und der CRTC "(Conseil de la radiodiffusion et des télécommunications canadiennes)" unterstützt. Indigene Kultur. Die Kulturformen der weit über 600 First Nations, wie die Indianer sich ganz überwiegend selbst bezeichnen, sind nicht einheitlich. Innerhalb des Landes, zwischen Stadt und Land, zwischen den ethnischen Gruppen sind die Unterschiede denkbar groß. Die verschiedenen Gruppen entwickelten eigene Identitäten und kulturelle Strukturen. Dabei lassen sich große Kulturareale unterscheiden. An der Pazifikküste war die Kultur von Fischfang dominiert, vor allem vom Lachs, oder vom Walfang, wie bei den Nuu-chah-nulth auf Vancouver Island. Dort finden sich auch die gewaltigen Totempfähle, deren größter über 50 m hoch ist. Im Binnenland dominierten Jagd, Sammeln und Flussfischerei. In den großen Ebenen, den Plains, war die Bisonjagd von zentraler Bedeutung, in anderen der Elch. Durch die Verbreitung des Pferdes entwickelte sich nach 1700 ein Reiternomadismus. An den Großen Seen hingegen dominierte eine agrarische Kultur mit Großdörfern. Inuksuk auf der Flagge von Nunavut Die nicht mit den Indianern verwandten Inuit im Norden des Landes, von denen man 2006 genau 50.485 zählte, entwickelten eine überwiegend von den arktischen Lebensumständen geprägte Kultur, die sich in vielerlei Hinsicht auf das ganze Kanada auswirkt. Ein Beispiel dafür stellt das Emblem der Olympischen Winterspiele 2010 in Vancouver dar, ein Inuksuk, das aus aufeinander gestapelten Steinen besteht und eine menschliche Gestalt symbolisiert. Die frühesten kommerziellen Erfolge feierten jedoch die bildenden Künste der Inuit schon seit den späten 1940er-Jahren. Serpentin- und Marmorskulpturen, Arbeiten in Knochen und Karibugeweih, aber auch Kunstgrafik, Wandbehänge und -teppiche, Schmuck, Keramiken und Puppen standen dabei im Mittelpunkt. Ihre Motive und Materialien gingen auf die natürlichen Umgebungen und vorhandene Traditionen zurück, wobei die erzwungene Sesshaftigkeit nun erheblich größere Werke zuließ. Zudem waren die rund 25 Gemeinden, deren Bewohner nicht mehr autark-nomadisch lebten, nun auf Geldeinnahmen angewiesen, zu denen ihnen der Kunsthandel verhalf. Zu den bekanntesten Inuit-Autoren zählen der ehemalige „Commissioner of Nunavut“ Peter Irniq, der Schriftsteller, Dichter, Cartoonist und Fotograf Alootook Ipellie (1951–2007) und Zebedee Nungak (geb. 1951). Aus der Verbindung von Inuit-Musik und amerikanisch-kanadischer Popmusik formten die Inuit eine eigene Musik. Daneben bestehen weiterhin einfache Gesangsformen und der Kehlgesang (Throat singing). Die in Kanada erfolgreichste Sängerin ist die 1967 in Churchill geborene Susan Aglukark. Indianische Schnitzkunst im Museum of Anthropology in Vancouver Die Erfolge der Inuit und die der US-amerikanischen Indianer inspirierten die indianischen Künstler Kanadas, eigenständig an eine außerindianische Öffentlichkeit zu treten. Früh bekannt waren dabei die Masken und Totempfähle der Pazifikküste, die noch heute eine wichtige Rolle im Selbstverständnis, aber auch auf dem Kunstmarkt spielen. Ähnlich wie die Literatur verfolgt die indianische Kunstszene aber nicht nur traditionelle Elemente, sondern verbindet sie mit euro-kanadischen Mitteln. Andere Indianerkünstler produzieren losgelöst von diesen Traditionen in deren Genres und mit deren Mitteln. Dabei sind dennoch Künstler mit einem spezifisch indianischen Weg, wie Norval Morrisseau, oder der Bildhauer und Schnitzkünstler Bill Reid, der das Werk Charles Edenshaws fortführte, erst seit den 60er-Jahren anerkannt worden. Meist stehen in der Literatur ökologische Probleme, Armut und Gewalt, entmenschte Technik oder Spiritualität im Vordergrund. Dabei lassen sich die meisten ungern als „Indianerkünstler“ etikettieren. Musik. Orgelbau und Chorgesang haben in Kanada eine lange Tradition ("Skule Choir" im "Knox College", Universität Toronto) Denkmal für Glenn Gould in Toronto Seit der Kolonisierung ab dem frühen 17. Jahrhundert brachten die Einwanderer, je nach ethnischer Zusammensetzung, verschiedene europäische Musiktraditionen nach Kanada. Die Parallelentwicklung zur europäischen Musik ist vom Barock über die Klassik und Romantik bis hin zur Gegenwartsmusik nie abgerissen. Doch fehlten in der Neuen Welt lange die nötigen Ressourcen, um große Aufführungen wie Opern in nennenswertem Umfang durchführen zu können. Erst die Anpassung von Texten, aber auch der Austausch von Elementen zwischen den Einwanderergruppen brachte kanadische Eigenheiten hervor, zu denen Einflüsse aus den USA kamen. John Braham war einer der ersten Sänger, die im ganzen Land bekannt wurden (ab 1841), ähnlich Jenny Lind. Zudem bestanden zahlreiche Kirchenchöre und philharmonische Gesellschaften. Die ersten Gesellschaften dieser Art waren die "New Union Singing Society" aus Halifax (1809) und die "Québec Harmonic Society" (1820). Populär waren Balladen, Tanzmusik und patriotische Hymnen. Deutsche brachten erstmals den Klavierbau nach Kanada (Thomas Heintzman), ihm folgte der Orgelbau (Joseph Casavant). 1903 organisierte C. A. E. Harriss den "Cycle of Musical Festivals of the Dominion of Canada", an dem sich landesweit über 4000 Sänger und Musiker in 15 Städten beteiligten. Mit dem Ersten Weltkrieg und der danach anwachsenden Schallplattenindustrie war der Höhepunkt selbst gemachter Musik, aber auch der Operngesellschaften überschritten. Dennoch entstanden vor und nach der Weltwirtschaftskrise Symphonieorchester, insbesondere in den drei größten Städten Montréal, Toronto und Vancouver. Sir Ernest MacMillan war der erste und einzige kanadische Musiker, der zum Ritter geschlagen wurde, und weitere Sänger sangen auf den wichtigsten Bühnen. Erst Feldforscher wie Marius Barbeau, W. Roy Mackenzie, Helen Creighton und zahlreiche andere entdeckten die Volksmusik und die Musik der Indigenen. Wenn man von kanadischer Musik sprach, so war es nun die Gesamtheit der Folkmusik, die man im Land antraf. Doch blieb die Musikausbildung konservativ, d. h. stark angebunden an Großbritannien und Frankreich. Dennoch entstanden in den 1930er-Jahren Musikerverbände, die nach dem Krieg die Suche nach kanadischer Identität auch in der Musik stärkten. Auch wurde diese Musik vom Staat gefördert, Sammlungen traditioneller und indianischer Musik inspirierten die aufgeschlossenere Generation. Publikationen wie "The Canadian Music Journal" (1956–1962), "Opera Canada" (seit 1960) und "The Canada Music Book" (1970–1976) untermauerten diese Entwicklung. Die Abkopplung der kanadischen Musik von der ausländischen Avantgarde endete. Kanadische Musiker beeinflussten die westliche Musik, wie etwa Rock- und Popmusik, in erheblichem Ausmaß, wofür Namen wie Bryan Adams, Paul Anka, Michael Bublé, Leonard Cohen, Céline Dion, Nelly Furtado, Avril Lavigne, Joni Mitchell, Alanis Morissette, Shania Twain oder Justin Bieber stehen. Bekannte Vertreter der Rockmusik sind Rush, Alannah Myles, Billy Talent, die Crash Test Dummies, Nickelback, Saga, Steppenwolf und Neil Young. Zu den bedeutenden Jazzmusikern zählen Paul Bley, Maynard Ferguson, Diana Krall, Moe Koffman und Oscar Peterson. Avril Lavigne, Sarah McLachlan, Sloan und weitere Musiker haben sich der Initiative "Canadian Music Creators Coalition (CMCC)" angeschlossen und kündigten in einer Grundsatzerklärung an, künftig wieder für sich selbst sprechen zu wollen. Prozesse und das Digital Rights Management (DRM), vor allem aber die staatliche Förderung seien zu verbessern. Die CMCC forderte die Regierung auf, die Künstler gegen die Vermarktungspolitik meist ausländischer und auf einen ausländischen Markt gerichteter Musikkonzerne zu unterstützen. Immer noch von großer Bedeutung ist die Country-Musik, die auch von zahlreichen Indianern gespielt wird. Die "Canadian Country Music Association" ehrt jährlich die bedeutendsten Künstler mit der Aufnahme in die "Canadian Country Music Hall of Fame". Wichtige Interpreten sind bzw. waren etwa Wilf Carter, Hank Snow und Gordon Lightfoot. Auf dem Gebiet der klassischen Musik ist der bekannteste Kanadier sicherlich Glenn Gould (1932–1982), der einer breiteren Öffentlichkeit als begnadeter Interpret vor allem der Werke Johann Sebastian Bachs bekannt ist. Berühmtheit erlangte der damals 22-Jährige im Jahr 1955 mit einer aufsehenerregenden Einspielung der Goldberg-Variationen. Seit 1987 vergibt eine nach dem Musiker benannte Stiftung den Glenn-Gould-Preis. Auch die Symphonieorchester in Montréal und Toronto haben Weltruf, die Kammermusik hat einen erstklassigen Rang: Tafelmusik und das St. Lawrence String Quartet haben verschiedene Preise gewonnen. Sänger wie Jon Vickers, Russell Braun und Michael Schade, der Flötist Robert Aitken sowie der Pianist Marc-André Hamelin und die Liedbegleiterin Céline Dutilly sind bekannte Interpreten. Auch Werke der Komponisten Murray Schafer und Claude Vivier werden regelmäßig aufgeführt. Film. Als erster Filmemacher gilt James Freer (1855–1933), ein Farmer, der ab 1897 Dokumentationen vorführte. 1917 richtete die Provinz Ontario das "Ontario Motion Picture Bureau" ein, um Filme zu Unterrichtszwecken drehen zu lassen. Bereits im folgenden Jahr entstand das "Canadian Government Motion Picture Bureau". Auf Anraten von John Grierson, der als Vater des britischen und kanadischen Dokumentarfilms gilt, wurde 1939 der "National Film Act" verabschiedet, ein Gesetz, das es gestattete, Propagandafilme für Kriegszwecke zu drehen. 1950 wurde das Aufgabenspektrum des dazu gegründeten National Film Board of Canada beauftragt, Kanada den Kanadiern zu erklären, aber auch Nichtkanadiern. Mit der Canadian Film Development Corporation, aus der später Telefilm Canada hervorging, förderte der Staat Filmproduktionen. Das für das Kulturerbe verantwortliche Department of Canadian Heritage stockte 2001 die Mittel für Telefilm Canada auf. Den gleichen Zielen dient die Auszeichnung mit dem Genie Award, die jedes Jahr für die besten kanadischen Filme erfolgt Kanada ist auch als Hollywood des Nordens bekannt. Wichtigste Produktionsstätten kanadischer und US-amerikanischer Filme sind heute Vancouver, gefolgt von Montreal und Toronto. Dabei ist Alliance Films das einst größte Medienunternehmen, heute nur noch ein Rechtehändler. Der französische Film ist innerhalb von Kanada häufig erfolgreicher als der englische, weil der Quebecer Filmmarkt von US-Produktionen kaum direkt erreicht wird. Das kanadische Autorenkino gewinnt dank erfahrener Cineasten wie Atom Egoyan (der bei der Berlinale 2002 Präsident der Jury war), David Cronenberg, Denys Arcand und Léa Pool, aber auch durch junge Filmemacher wie Jean-François Pouliot, Denis Villeneuve, Don McKellar, Keith Behrman und Guy Maddin immer mehr an Bedeutung. Filmregisseure wie Jean-Claude Lauzon („Night Zoo“ (1987), Léolo (1992)) und Denys Arcand (unter anderem „Der Untergang des amerikanischen Imperiums“ (1986), „Jesus von Montreal“ (1989) und „Joyeux Calvaire“ (1996), „Die Invasion der Barbaren“ (2003)) haben dem kanadischen Film zu internationaler Geltung verholfen. Bekannte kanadische Schauspieler sind: Mary Pickford, Glenn Ford, Raymond Massey, Walter Huston, Jack Carson, Raymond Burr, Donald Sutherland, Kiefer Sutherland, Keanu Reeves, Dan Aykroyd, Pamela Anderson, Hayden Christensen, Leslie Nielsen, Jim Carrey, Michael J. Fox, Mike Myers und William Shatner. Wie man durch diese knappe Aufzählung erkennen kann, sind viele kanadische Schauspieler häufig in Hollywood-Produktionen tätig und genießen internationales Ansehen. Theater. Das kanadische Theater, das aus einer starken mündlichen Tradition hervorgeht, hat nicht nur weltweit bekannte Regisseure wie Robert Lepage oder Denis Marleau hervorgebracht, sondern auch eine große Anzahl von Theaterautoren, die in verschiedene Sprachen – unter anderem auch ins Deutsche – übersetzt werden. So sind in jüngster Zeit zum Beispiel Texte von Michel-Marc Bouchard, Daniel Danis, Michel Tremblay, George F. Walker, David Young und Colleen Wagner von deutschen Ensembles aufgeführt worden. Literatur. Die kanadische Literatur ist anfangs dadurch gekennzeichnet, dass sie häufig von Autoren stammt, die entsprechend ihrer ethnischen Herkunft bestimmte Erwartungen an das Land herantrugen. Daher erscheint das Land oft als abweisend mit Blick auf seine Natur, als kulturelle Wüste, die von außen belebt wird, und als Rohstoff für Karriere und Investitionen. Dabei spielten auch Erwartungen und Stereotype des Publikums von der Wildnis, unvorstellbarer Weite, von der Einführung der Zivilisation vor allem durch Europäer eine große Rolle. Doch überwiegt inzwischen der Drang, die eigene Kultur, die sich entwickelt hat, in ihrem Reichtum zu erfassen, ohne die Wurzeln abzuschneiden. Während des 19. Jahrhunderts drangen indigene (igloo) und lokale Wortschöpfungen (moose) in die Literatur ein, aber auch französische (gopher) in die englische und umgekehrt. Dennoch wird die englische Sprache im ganzen Land verstanden und von übergreifenden Sprachstandards dominiert. In der französischen Literatur kommt als weiteres Element eine starke Anbindung an Frankreich und seinen Lebensstil hinzu, woraus sich eine Skepsis gegenüber dem als britisch aufgefassten Rest-Kanada partiell erklärt. Ein hervorstechendes Merkmal kanadischer Literatur ist der Humor, der allerdings eher untergründig, zuweilen schwarz, und oft als Understatement eingesetzt wird. Dabei spielen regionale Traditionen des Erzählens und des Anekdotischen eine wichtige Rolle, weniger die Themenwahl – es sei denn, es handelt sich um lokale Besonderheiten oder Unterschiede zwischen den ethnischen Gruppen. Zu den häufig anzutreffenden Motiven zählt die „garrison mentality“ (Bunkermentalität), die Entfremdung von der Heimat, in die man zurückkehrt, die Fremdheit im eigenen Land oder der spezifischen Kultur, aber auch das Zelebrieren der Wildnis, die für spirituelle Gesundung sorgt. Alexander MacKenzie, Thomas Lawrence etwa 1800 Kanadier sind besonders ausgeprägt an der Geschichte ihrer Vorfahren interessiert, und so existiert eine große Zahl von biographischen Versuchen zu den historisch bedeutsamen Männern und Frauen. Doch auch dort sind Klischees fast unausweichlich. So gilt das katholische Québec als mysteriös, Ontario als zwischen moralischer Klarheit und Lavieren hin- und hergerissen, die Prärien als isolierend und besitzergreifend, die Westküste als Projektionsfläche für Hoffnungen und Erwartungen, die man selbst entlarven muss. Dabei steht das Landleben überproportional im Vordergrund, während die Städte lange beinahe ignoriert wurden. Dagegen waren Autoren wie Frances Brooke (1724–1789), Susanna Moodie (1803–1885), Sara Jeannette Duncan (1861–1922) und Nellie McClung (1873–1951) die Analytikerinnen des politischen Lebens, das sich in den Städten ballt. Ein Gegensatz besteht zwischen der Wahrnehmung Europas und der des Nachbarn USA. Europa gilt als Hort der Verfeinerung, aber auch der extremen Regionalisierung, der Nachbar als Land der sozialen Härte und der Fixierung auf ökonomischen Erfolg. Historisch gesehen flossen vor allem französische, englische und irische Stile zusammen, die in ihren Heimatländern en vogue waren. Doch schon in den Reiseberichten entwickelte sich ein kanadisch geprägtes Genre, wie bei Samuel Hearne (1745–1792), Alexander MacKenzie, David Thompson, Catharine Parr Traill (1802–1899) oder Anna Jameson (1794–1860), wobei das Spektrum vom romantisierenden Abenteuerbericht (John R. Jewitt, 1783–1821) bis zur präzisen Analyse reicht (Susanna Moodie: "Roughing It in The Bush", oder "Forest Life in Canada", 1852). Mit der Konföderation (1867) stellte sich die Frage nach der nationalen Kultur. Ab Ende des 19. Jahrhunderts dominierten vier Figuren die literarische Szene: Duncan Campbell Scott (1862–1947), Charles G. D. Roberts (1860–1943), Archibald Lampman (1861–1899) und Bliss Carman (1861–1929), die als „Confederation Group“ oder „Confederation Poets“ bekannt waren. Der Erste Weltkrieg brachte die Außenwelt wieder stärker in den Blick, und zugleich schärfte die Einwanderung die Aufmerksamkeit auf die zahlreichen Kulturen, auch die der Indianer, die nun selbst begannen, sich auszudrücken. Die Malerin und Autorin Emily Carr (1871–1945) war hier für den Westen von größter Bedeutung, wenn sie auch in British Columbia lange auf Ablehnung stieß. Die Weltwirtschaftskrise brachte eine zunehmende Beschäftigung mit sozialen Problemen mit sich, der Zweite Weltkrieg wiederum zwang zur Beschäftigung mit Fragen der Macht, der Not, des Todes und wiederum der Heimkehr. Nach dem Krieg unterwarf Merrill Denison (1893–1975) den übertriebenen Nationalismus einer satirischen Betrachtung, und auch Autoren der Linken kritisierten den politischen und wirtschaftlichen Weg und die zunehmende Dominanz der USA. Zugleich machten sich in Québec antiklerikale Autoren deutlicher bemerkbar. Unter dem öffentlichen Optimismus der 1950er und 1960er Jahre entdeckten Malcolm Lowry (1909–1957) ("Under the Volcano", 1947) und Ethel Wilson (1888–1980) (Swamp Angel, 1954) Alkoholprobleme und die Enge des Frauenlebens in dieser Zeit. Materielle Unterstützung und ein größeres Publikum sorgten in den 60er-Jahren für ein Anwachsen des literarischen Marktes, Zeitschriften wie Canadian Literature und Journal of Canadian Studies erschienen, dazu kamen Paperbackausgaben, die erschwinglicher waren. Nischenmärkte entstanden, deren Publikum dennoch Autoren ernähren konnte. Sowohl die einzelnen Kulturen, als auch Frauen meldeten sich verstärkt zu Wort, wie etwa Margaret Atwood. Nach etwa 1985 wurden staatliche Mittel in einer konservativeren Phase zurückgefahren. Verlage wie "Coach House Press", "Deneau", "Williams-Wallace" mussten schließen. Zudem ließ Kanada stärkere ausländische Konkurrenz zu, vor allem aus den USA. Autoren wie Timothy Findley (1930–2002) versuchten sich gegen Restriktionen zu wehren, indianische Literatur fand Vertreter in Eden Robinson (Haisla, geb. 1968), Jeannette C. Armstrong (Okanagan), die das Schulsystem kritisierte, der Satiriker Thomas King (Cherokee, geb. 1948) oder der Dramatiker Tomson Highway (Cree, geb. 1943). Daneben traten eher poetische Autoren, wie Wayne Keon Turner (Ojibway, geb. 1976), Rita Joe (Mi'kmaq), Marilyn Dumont (Métis, geb. 1955) oder Alootook Ipellie (Inuit, 1951–2007). Seit den 70er Jahren hat sich das Interesse an kanadischer Literatur verstetigt. So sind Autoren wie Leonard Cohen, Pierre Vallières, Margaret Atwood, Michel Tremblay und Michael Ondaatje auch außerhalb der Landesgrenzen bekannt. Zugleich entstand ein riesiger Markt für populäre Literatur innerhalb des Landes, wie die von Joy Fielding oder Douglas Coupland "(Generation X)". Bildende Kunst und Architektur. Die französische Festung Louisbourg auf Breton Island Wie in den meisten Künsten, so ignorierten die ersten Zuwanderer aus Europa weitgehend die Kunst der Ureinwohner. Sie brachten schon in ihren ersten Wohngebäuden und befestigten Hofanlagen sowie naturgemäß im Festungsbau (zum Beispiel Louisbourg) und in Stadtanlagen europäische Traditionen mit. Auch die Dörfer des frankophonen Kanada lagern sich wie in Frankreich um die Kirche, wobei die Missionskirchen und die Kirchen von Québec meist als Vorbilder dienten. Als Material herrschten Stein und Holz vor, Ziegel sind selten. Ähnlich wie in der Bildhauerei kamen die in Frankreich und England vorherrschenden Stile jedoch, bedingt durch die Kommunikationsverhältnisse, mit deutlicher Verspätung an. Das galt auch für die Übernahme der Klassik, nachdem die Briten Kanada erobert hatten. Assiniboine bei der Büffeljagd, Paul Kane zwischen 1851 und 1856 Dennoch nahm die Malerei zwangsläufig die Ureinwohner auf, denn sie sollten für die Berichterstattung bei Hof dargestellt werden. Sie waren zum Teil von großer Genauigkeit, wie die Indianer- und Inuit-Porträts von John White (etwa 1540 bis etwa 1593), oder die Zeichnungen von Louis Nicolas (Codex canadiensis). Ende des 18. Jahrhunderts brachten Briten und die aus den USA geflohenen Loyalisten neue Einflüsse, die sich vor allem in den neuen Siedlungen, wie Toronto, dominierend bemerkbar machten. Es kam sogar zu einem Goldenen Zeitalter der Québecer Malerei, wobei der Stil europäisch blieb, doch die Motive wurden kanadischer. Der Schweizer Peter Rindisbacher dokumentierte etwa seine Reise durch die Hudson Bay in die Red-River-Kolonie, Paul Kane reiste durch den halben Kontinent. Parlamentsgebäude in Victoria, der Hauptstadt British Columbias In der Architektur bevorzugte man neo-klassische und neo-gotische Motive, wie in Europa, doch erhielt der britische Einfluss immer mehr Übergewicht. Mit dem repräsentativen Ausbau Ottawas und jeder Provinzhauptstadt versuchte man eine spezifisch kanadische Tradition auszudrücken. Zwischen 1873 und 1914 herrschten historisierende Stile vor, wobei sich die mitgebrachten Stile anderer europäischer Völker, wie der Italiener bemerkbar machten. Mit der Industrialisierung drangen neue Bautypen, wie Stahlbrücken oder Bahnhöfe vor, neue Materialien, vor allem Metalle dominierten. Dazu kamen Glas und schließlich Beton. James Wilson Morrice gilt als Vater des Modernismus in der Malerei. In der Skulptur herrschten historische Monumente auf Plätzen vor, vor allem Kriegsdenkmäler nach dem Ersten Weltkrieg. Doch weiterhin herrschte hierin Europa vor, bis hin zum Art Déco. Die Group of Seven versuchte eine kanadische Malerei zu entwickeln; sie bezog ihre Inspiration aus der Landschaft. Als eine der ersten nahm Emily Carr dabei nicht nur die spezifische Landschaft des Westens auf, sondern auch die grandiose Kunst der Indianer der Pazifikküste. John Lyman gründete 1939 die Contemporary Arts Society, und über Quebec kamen kubistische Einflüsse, dort entstand die Gruppe der "Automatistes". Gegen sie und den Surrealismus entstanden die "Plasticiens," allen voran Guido Molinari und Claude Tousignant, Struktur- und Farbfragen traten stärker in den Vordergrund. Ähnlich in Toronto, wo sich Jack Bush und Harold Town gegen den abstrakten Expressionismus wandten. Dabei versuchten diese Gruppen sich zugleich gegen den Einfluss der USA abzusetzen. Ähnliches galt für Bildhauer wie Robert Murray oder Armand Vaillancourt. Hingegen unterscheidet sich die Architektur kaum von der internationalen. Der Fotograf Yousuf Karsh gehörte zu den bedeutendsten Porträtfotografen des 20. Jahrhunderts. In der Bildenden Kunst hat sich Kanada in Europa durch innovative Künstler einen Namen gemacht. Jeff Wall, Rodney Graham, Ken Lum, Ian Wallace und Geneviève Cadieux haben fotografische Techniken auf neuartige Weise für sich genutzt; Louis-Philippe Demers verwendet in seinen künstlerischen Arbeiten die neuen Technologien, und Jana Sterbak hat außergewöhnliche konzeptuelle Environments geschaffen. Speisen und Getränke. a> von der Pazifikküste in der Laichzeit. Sie heißen in Kanada "Pink" oder "Humpback Salmon" Die Produktion von Nahrungsmitteln hängt stark von den natürlichen Bedingungen ab. Daher weisen die Regionalküchen, wie etwa die der Küstensäume und der Graslandschaften der Prärieprovinzen, entsprechende Schwerpunkte auf. Während etwa an der Atlantikküste der Fang von Hummern, genauer von Hummerartigen (Lobster) einen wichtigen Wirtschaftszweig darstellt, war es an der Westküste der von Wildlachs; letzter wurde allerdings von Lachszuchten fast vollständig verdrängt, so dass einige Lachsarten, die noch vor wenigen Jahren in riesigen Laichzügen zu bewundern waren, inzwischen zu den bedrohten Tierarten gerechnet werden müssen. Neben dem Umgang mit den natürlichen Ressourcen spielen aber auch kulturelle Unterschiede eine beträchtliche Rolle. Der französische Einfluss in Québec ist nicht zu übersehen, es gibt zahlreiche Restaurants mit der entsprechenden Küche. Die Prärieprovinzen sind hierin sehr stark vom mittleren Westen der USA beeinflusst, während sich im äußersten Westen ein starker britischer Einfluss bemerkbar macht, wo der englische Tee im Alltag immer noch seinen Platz hat. Im Süden Kanadas, vor allem auf der Niagara-Halbinsel und im Okanagan-Gebiet sowie im Südosten von Vancouver Island in British Columbia wird Wein angebaut. Der über 200 Jahre alte Weinanbau nahm einen neuen Aufschwung, da ab 1974 erstmals neue Weinbaulizenzen ausgegeben wurden, und weil die Weinbauverbände (Vintners Quality Alliance) auf höhere Qualitäten drängten. Kanadische Weine tragen etwa die Hälfte zum Gesamtkonsum des Landes bei, wobei bis 2006 "Vincor International" und "Andres Wines" dominierten. Vincor wurde allerdings vom US-Weinproduzenten Constellation Brands aufgekauft. Eines von knapp 3000 „Tim Hortons“ in Kanada Spirituosen können nur in besonderen Geschäften oder in Restaurants gekauft werden, die die Bezeichnung "Licensed Premises" tragen. Viele Restaurants gestatten ihren Gästen, eigenen Wein, Bier oder Ahornsirup mitzubringen. Das Mindestalter für den Alkoholkauf liegt zwischen 18 und 19 Jahren. Die bei weitem vorherrschende Kaffee- und Fast-Food-Kette ist Tim Hortons, ein Unternehmen, das 1964 in Hamilton gegründet wurde und 2008 65.000 Mitarbeiter hatte. Das Unternehmen unterhielt Ende 2008 (Anfang 2008) nach eigenen Angaben 3.437 (3.257) Restaurants, davon 2.917 (2.857) in Kanada und 520 (406) in den USA. Der schärfste Konkurrent beim Fast Food ist McDonald’s mit 1375 Restaurants beziehungsweise im Kaffeesektor das US-Unternehmen Starbucks. Sport. Der Sport in Kanada ist vielfältig und umfasst zahlreiche Winter- und Sommersportarten. Als Nationalsportart seit 1859 offiziell anerkannt war bis 1994 nur das auf indianische Wurzeln zurückgehende Lacrosse. Es gilt seit 1994 als nationale Sommersportart. Seit 1994 ist Eishockey die nationale Wintersportart. Kanada gilt nicht nur als Mutterland des Eishockeys, sondern gehört auch zu den weltweit erfolgreichsten Ländern. Sieben kanadische Mannschaften sind in der NHL, der bedeutendsten Profiliga der Welt, vertreten. Auch im Lacrosse ist Kanada überaus erfolgreich und besiegte beim World Lacrosse Championship von 2006 in London die USA. Die bei Zuschauern beliebteste Sportart im Sommer ist neben Lacrosse Canadian Football, das große Ähnlichkeiten mit dem American Football aufweist. Das Meisterschaftsendspiel, der Grey Cup, weist bei im Fernsehen übertragenen Sportereignissen die höchste Einschaltquote auf. Ebenfalls auf Interesse stoßen Baseball, Basketball, Cricket, Curling, Fußball, Rugby Union und Softball. Die am häufigsten ausgeübten Einzelsportarten sind Eislaufen, Golf, Leichtathletik, Ringen, Schwimmen, Skateboarden, Skifahren, Snowboarden und Tennis. Da das Land überwiegend ein kühles Klima besitzt, sind die Erfolge bei Wintersportarten tendenziell zahlreicher als bei Sommersportarten. Kanada war Gastgeber zahlreicher internationaler Sportveranstaltungen, darunter die Olympischen Sommerspiele 1976 in Montreal und die Olympischen Winterspiele 1988 in Calgary. Die Olympischen Winterspiele 2010 wurden in Vancouver ausgerichtet. Zudem waren kanadische Städte Ausrichter von vier Commonwealth Games und zahlreichen Weltmeisterschaften. Liste der Komponisten/A. __NOTOC__ Az. *A Kopenhagen. Kopenhagen (dänisch, in bis ins 19. Jahrhundert gültiger Rechtschreibung "Kjøbenhavn") ist die Hauptstadt Dänemarks und das kulturelle und wirtschaftliche Zentrum des Landes. Die Stadt ist Sitz von Parlament (Folketing) und Regierung sowie Residenz der dänischen Königin Margrethe II. Die dänische Hauptstadt gehört zu den bedeutendsten Metropolen Nordeuropas, ist ein beliebtes Reiseziel und Hafenstadt. Die Kommune Kopenhagen "(Københavns Kommune)" hat Einwohner, die "Hauptstadt" im formalen Sinne (bestehend aus den Kommunen København, Frederiksberg und Gentofte) Einwohner. Kopenhagen ist Teil der dänischen Verwaltungsregion Region Hovedstaden und der binationalen Metropolregion Öresundregion. Im Ballungsraum Kopenhagen beträgt die Einwohnerzahl (Stand:). Ortsname. Im Mitteldänischen hieß die Stadt "Køpmannæhafn," was mit „Kaufmannshafen“ bzw. „Hafen der Kaufleute“ zu übersetzen ist und damit die Bedeutung der Kaufleute im Mittelalter ausdrückt. Im Jahr 1043 wurde der Ort erstmals als "Havn" erwähnt – parallel zur latinisierten Namensform "Hafnia" für „Hafen“. Auf Isländisch heißt die Stadt heute noch "Kaupmannahöfn" sowie "Keypmannahavn" in färöischer Sprache; auf Schwedisch lautet der Name "Köpenhamn" und von hier aus finnisch "Kööpenhamina". Dem deutschen und niederländischen Exonym "Kopenhagen" entsprechen englisch "Copenhagen," französisch, spanisch und portugiesisch "Copenhague," polnisch "Kopenhaga" und estnisch "Kopenhaagen;" auf Tschechisch und Slowakisch lautet der Name "Kodaň". Geografie. Die Stadtteile der Kommune Kopenhagen (seit 2007) sind schwarz unterlegt. Das Stadtgebiet von Kopenhagen verteilt sich über mehrere Inseln. Der größere westliche Teil liegt an der Ostküste Seelands "(Sjælland)," dem größten dänischen Eiland in der Ostsee wie auch Dänemarks (ohne Berücksichtigung Grönlands) größter Insel. Zum östlichen Stadtgebiet gehört eine Ansammlung kleinerer sogenannter Holme und die Nordhälfte von Amager. Kopenhagen und das im schwedischen Schonen gelegene Malmö sind durch die Meeresenge Öresund getrennt. Geologisch befindet sich die gesamte Stadt auf der eiszeitlichen Grundmoränenlandschaft, die weite Teile Dänemarks einnimmt. Bei Kopenhagen ruht die Moräne auf relativ hoch gelegenem Kalkstein, der aus Kreidekalkstein der Oberkreide (Maastricht) besteht und beim Bau der Metro erhebliche Probleme mit sich brachte. Mittelalter und frühe Neuzeit. Im 12. Jahrhundert wurde am Øresund eine Burg errichtet, die den kleinen Handelshafen nach Schonen und Amager an der Fischersiedlung "Havn" („Hafen“) sichern sollte. Nicht zuletzt die günstige Lage ungefähr halbwegs zwischen dem wichtigen Bischofssitz in Roskilde und dem skandinavischen Erzbischofssitz in Lund (damals dänisch) war von entscheidender Bedeutung. Entsprechend erhielt auch die mit der Burg neu gestaltete Siedlung den Namen "Køpmannæhafn" („Kaufmännerhafen“). 1254 erhielt das junge Kopenhagen von Bischof Jakob Erlandsen sein erstes Stadtrecht, allerdings wurde die Stadt in den Jahren 1362 und 1368 als unliebsamer Konkurrent der Hanse zusammen mit der Burg geplündert und zerstört. Nach einem erneuten Angriff der Hanse war der Hafen 1428 eine Zeitlang von Schiffwracks blockiert. Die Entwicklung ließ sich jedoch nicht mehr aufhalten: 1416 wurde die wiederaufgebaute Stadt Residenz des Königs, und 1443 übernahm sie von Roskilde die Hauptstadtfunktion. In der ersten Hälfte des 17. Jahrhunderts blühte Kopenhagen unter Christian IV. auf. Kopenhagen erlebte in seiner Geschichte immer wieder Katastrophen, Seuchen und Kriege. Von 1658 bis 1659 hielt die Stadt einer Belagerung stand, während das übrige Dänemark von den Schweden vollständig besetzt war. Im 18. Jahrhundert starb nach Pest und Seuchen ein Drittel der Stadtbewohner. 1728 sowie 1795 wüteten zwei Stadtbrände. Der Wiederaufbau führte zur heutigen, vom Baustil des 18. Jahrhunderts geprägten Altstadt. Bei den Seeschlachten von Kopenhagen 1801 sowie 1807 beschossen die Engländer die Hauptstadt Dänemarks, da es sich nicht auf die Seite Englands in dessen Krieg gegen Frankreich stellen wollte, und richteten vor allem durch den im zweiten Angriff ausgelösten Großbrand erheblichen Schaden an. Nach dem Sieg der Engländer musste Kopenhagen sämtliche hier ankernden Schiffe ausliefern und konnte sich erst nach Jahrzehnten wieder von dieser Niederlage erholen. 1848 zwangen öffentliche Demonstrationen in Kopenhagen König Frederik VII. zu Reformen und dem Erlass eines Grundgesetzes. Mit den nationalen Spannungen und Dänemarks Verlust von Schleswig und Holstein im Krieg von 1864 verließen auch viele deutschsprachige Beamte und Kaufleute die Stadt, die sie bis dahin jahrhundertelang mitgeprägt hatten. Frühes 20. Jahrhundert. Mit der Industrialisierung im späten 19. Jahrhundert wuchs die Stadt durch Zuwanderung vom Land rasch an. Die Befestigungsanlagen wurden geschleift und teilweise in Parks (unter anderen den Tivoli, Ørstedsparken und Østre Anlæg) umgewandelt. Die am östlichen Ende gelegene Wallanlage sowie die Festung Kastellet sind jedoch erhalten. Um die Mittelalterstadt herum wuchsen schnell Arbeiter- und Bürgerviertel, die bis heute noch aus um 1870 bis 1900 gebauten Häusern bestehen. Zweiter Weltkrieg. Denkmal für die ermordeten kommunistischen dänischen Freiheitskämpfer (Churchillparken) Am 9. April 1940 wurde Kopenhagen kampflos von deutschen Truppen eingenommen. Die Stadt blieb wie das übrige Dänemark bis zum 5. Mai 1945 besetzt, aber bis auf wenige Ausnahmen von Kriegszerstörungen verschont. Einige Industriebauten wurden zum Ziel von Angriffen dänischer Widerstandskämpfer. Als am 29. August 1943 die dänische Regierung zurücktrat, folgte eine unruhige Zeit. Im Juni 1944 begann im Arbeiterviertel Nørrebro ein gegen die Besatzungsmacht gerichteter Generalstreik, der sich auf ganz Dänemark ausbreitete. Im August 1944 wurden im Zuge einer Vergeltungsaktion weite Teile des Tivolis, die Königliche Porzellanmanufaktur, ein Bürgerversammlungshaus und ein Studentenwohnheim von der Schalburg-Gruppe, einem dänischen SS-Korps, gesprengt. Am 21. März 1945 bombardierten alliierte Flugzeuge das Shell-Haus, das von den Deutschen als Gestapo-Hauptquartier benutzt wurde; dabei kamen etwa 125 Menschen um. Eines der niedrig fliegenden angreifenden Flugzeuge streifte am Bahnhof einen Lichtmast und stürzte bei der Französischen Schule ab. Die darauffolgende Explosion ließ nachfolgende Piloten glauben, das sei das Ziel, worauf von ihnen die Schule bombardiert wurde; insgesamt 900 Menschen kamen dabei um. Von diesem Bombardement in den letzten Tagen des Zweiten Weltkrieges abgesehen, blieb Kopenhagen von Kriegszerstörungen verschont. Fingerplanen. Um den Urbanisierungsprozess des 20. Jahrhunderts steuern zu können, entwarf der dänische Architekt Peter Bredsdorff (1913–1981) 1947 den sogenannten Fingerplan (dän. "Fingerplanen"). Das Konzept ging aus dem „Gutachten über die Grüngebiete im Raum von Kopenhagen“ "(Betænkningen om Københavnsegnens Grønne Områder)" von 1936 hervor und galt dem großflächigen Erhalt von Grünflächen trotz zunehmender Zersiedelung. Der Stadtentwicklungsplan wollte das städtische Wachstum, d.h. Wohnungsbau, Industrie und Verkehrsinfrastruktur, auf fünf Korridore entlang der Hauptverkehrsachsen konzentrieren. Diese Entwicklungsachsen erstreckten sich wie Finger ins Kopenhagener Umland, während die „Handfläche“ das Stadtzentrum abdeckte. Im Umfeld von Wasserläufen und Küstenabschnitten sollten sich so „zwischen den Fingern“ Naherholungsgebiete bis weit ins Innere der Metropole erstrecken. Wegen seiner fast ikonenhaften Anmutung wurde Fingerplanen als Meilenstein der Stadtplanung in den Dänischen Kulturkanon 2006 aufgenommen. Der Fingerplan wurde 1949 im Stadtregulierungsgesetz verankert, wurde aber nur in groben Zügen umgesetzt. Seine Bedeutung für politische und Verwaltungsentscheidungen war mehr ideeller als praktischer Natur. Neuere Geschichte. Räumliche Entwicklung von Kopenhagen 1800–2006 Der Ausbau der S-Bahnlinien ermöglichte die Auslagerung von Wohnquartieren ins Umland. Gleichzeitig entstanden Vorortsiedlungen mit Hochhaus- und Einfamilienhausbebauung, deren Standard weit über dem Niveau der alten Innenstadtviertel lag. Daher ging die die Zahl der Einwohner zwischen 1960 bis 1990 deutlich zurück. Seit 1990 findet eine neue Stadtentwicklung statt, unter anderem mit der Errichtung vieler moderner Bauten am Hafen, wie zum Beispiel des „Schwarzen Diamanten”, ein kubischer Anbau der Dänischen Königlichen Bibliothek, des 2005 eröffneten Opernhauses und des 2008 eröffneten neuen Schauspielhauses. Die 2002 eingeweihte Metro soll bis 2015 auf mehrere Linien erweitert werden. 2000 wurde die Öresundverbindung eröffnet und der südschwedische Raum um Malmö durch ein regionales Schnellzugnetz mit Kopenhagen verbunden. Arbeits- und Wohnungsmarkt beiderseits des Öresunds sind zum Teil zusammengewachsen. Kopenhagen erlebt einen Zustrom von wissensbasierten und kreativen Betrieben sowie von Studenten aus ganz Skandinavien und bleibt das unbestrittene Kraftzentrum Dänemarks. Als Ergebnis stiegen jedoch Wohnungspreise und Verkehrsprobleme kräftig an. Der Bau von Hochhäusern wurde vorgeschlagen, die dem Wohnungsmangel abhelfen und der Stadt ein „Metropolgepräge“ geben sollten; von Gegnern wird jedoch hervorgehoben, dass eben die Abwesenheit von hohen Bauten charakteristisch für Kopenhagen sei. In den ersten Monaten des Jahres 2007 kam es zu gewalttätigen Auseinandersetzungen zwischen Polizei und Jugendlichen, insbesondere Autonomen, die auch international Beachtung fanden. Hintergrund war die Räumung des autonomen Jugendzentrums Ungdomshuset. Im Jahre 2009 fand am 7. bis 18. Dezember in Kopenhagen im Bella Center die 15. UN-Klimakonferenz der Vertragsstaaten der Klimakonvention der Vereinten Nationen statt. Es war zugleich das fünfte Treffen im Rahmen des Kyoto-Protokolls. Laut der Forbes-Liste der "World's Most Expensive Cities To Live" von 2009 gilt Kopenhagen als eine der teuersten Städte der Welt. Einwohnerentwicklung. a>, "Operaen", auf der Insel Holmen Kopenhagens neues Schauspielhaus am Abend a>“, entworfen von dem Bildhauer Edvard Eriksen nach dem gleichnamigen Märchen von Hans Christian Andersen Politik. Das Schloss Christiansborg ist Sitz des Parlaments, des Ministerpräsidenten und des Obersten Gerichts. Bedingt durch den Hauptstadtcharakter sind in Kopenhagen die Botschaften und Emissäre von 187 Staaten vertreten. Kultur und Sehenswürdigkeiten. 1996 war Kopenhagen Kulturstadt Europas. Oper, Ballett und Schauspiel. Das wohl berühmteste Theater der Stadt ist das Königliche Theater. Das 1874 errichtete Gebäude des 1748 gegründeten Etablissements befindet sich am Kongens Nytorv und bietet 1500 Zuschauern Platz. Hier werden Opern- und Ballettaufführungen dargeboten. Seit 2005 wird ein zweites, modernes Opernhaus bespielt: die "Operaen", welches auf der Insel Holmen liegt und ebenfalls zum "Kongelige Teater" gehört. 2008 wurde am Hafen ein neues Schauspielhaus eröffnet. Im Mermaid-Theater "(Mermaid Teater)" werden alle angekündigten Vorstellungen in englischer Sprache dargeboten. Die bekanntesten dänischen Schauspieler treten hingegen im "Ny-Theater" auf. In der Kronprinsengade befindet sich das "Plex Musikteater" (vormals "Den Anden Opera"), eine Bühne für experimentelles Tanztheater. Im nördlichen Teil des Kopenhagener Stadtteils Ørestad befindet sich auf der Insel Amager das neue Konzerthaus Kopenhagen (DR Koncerthuset). Es wurde nach Plänen des französischen Architekten Jean Nouvel gebaut und im Januar 2009 eröffnet. Sehenswürdigkeiten. Die 1,25 Meter große Den lille Havfrue (dt. "Die kleine Meerjungfrau") des Kopenhagener Bildhauers Edvard Eriksen (* 1876; † 1959) ist das bekannteste Wahrzeichen der Stadt. Sie wurde von dem Brauer Carl Jacobsen in Auftrag gegeben und am 23. August 1913 eingeweiht. Eriksen hatte für die Titelfigur des Märchens von Hans Christian Andersen das Gesicht der damals in Kopenhagen berühmten Primaballerina Ellen Price und den Körper seiner Frau Eline als Vorlage benutzt. Der gegenüber vom Hauptbahnhof gelegene Tivoli ist einer der ältesten Freizeitparks der Welt (der älteste, Dyrehavsbakken, liegt im Norden der Stadt) und das 1960 von Arne Jacobsen errichtete SAS Royal Hotel, das erste Hochhaus in Kopenhagen. Am Rande des Parks läuft der "HC Andersens Boulevard" entlang, an dem sich auf dem Rådhuspladsen auch das Rathaus befindet. Es wurde zwischen 1892 und 1905 im Stil der italienischen und normannischen Renaissance erbaut. Das Gebäude wurde am 12. September 1905 eingeweiht ist mit vielen Skulpturen geschmückt. Der Rathausturm ist mit 105,6 Metern Dänemarks höchster Turm. In der Nähe der Universität Kopenhagens liegt die Sankt Petri Kirke "(Sankt Petri Kirche)". Sie ist seit 1586 Pfarrkirche der deutschen Gemeinde und die älteste erhaltene Kirche von Kopenhagen. Östlich schließt sich die Vor Frue Kirke "(Liebfrauenkirche)" an, das klassizistische Meisterwerk von Christian Frederik Hansen, ausgestattet mit Statuen von Bertel Thorvaldsen, darunter sein "Segnender Christus". Weiter nördlich liegt der 34,8 Meter hohe Rundetårn "(Runde Turm)". Ein 209 Meter langer, stufenloser Wendelgang führt auf diesen zwischen 1637 und 1642 erbauten Aussichtsturm hinauf. An den Turm schließt sich die Trinitatis Kirke "(Dreifaltigkeitskirche)" an. Hier befinden sich auch die Einkaufsstraßen "Strøget" und "Strædet". Sie bilden mit über einem Kilometer Länge eine der längsten Fußgängerzonen Europas und sind ein beliebtes Einkaufszentrum. Zwischen den Fußgängerzonen und dem "Inderhavn" erstreckt sich einer der wichtigsten Touristenmagnete der Stadt, das Schloss Christiansborg "(Christiansborg Slot)". Dieses Gebäude, das seit 1918 Sitz des Parlaments ist, befindet sich an der Stelle der von "Bischof Absalon" im Jahre 1167 erbauten ersten Burg Kopenhagens. Der heutige Gebäudekomplex mit dem 90 Meter hohen Schlossturm entstand während einer mehr als zwanzigjährigen Bauzeit in den Jahren 1907 bis 1928. An der Nordseite des Schlosses steht die 1826 vollendete klassizistische Slotskirke "(Schlosskirche)". Unmittelbar neben dem Schloss Christiansborg befindet sich Børsen, die ehemalige Kopenhagener Börse. Dieser Renaissancebau entstand zwischen 1619 und 1640 und ist mit seinem 54 Meter hohen Turm in Form von verschlungenen Drachenschwänzen ein weiteres Wahrzeichen der Stadt. Bis 1974 diente das Gebäude dem ursprünglichen Zweck und wird seitdem als Bürogebäude genutzt. Ebenfalls neben dem Schloss liegt die Königliche Bibliothek Dänemarks. Die Nationalbibliothek verfügt seit 1999 mit „Den Sorte Diamant” "(Der schwarzen Diamant)" über einen futuristischen Anbau. Über einen Kanal führt von hier aus die "Børsbroen" zur Nationalbank und zur Holmens Kirke, die genau gegenüber der Börse und dem Schloss Christiansborg liegt. Sie wurde im 17. Jahrhundert erbaut. Von der Börse führt auch die Knippelsbro, eine interessante Klappbrücke, über den Inderhavn nach Amager. Über sie gelangt man auch am besten zur im Stadtteil Christianshavn gelegenen Vor Frelsers Kirke "(Erlöserkirche)". Diese barocke Kirche aus den Jahren 1602 bis 1692 besitzt den mit 93 Metern zweithöchsten Turm Kopenhagens. Er ist Wahrzeichen des Stadtteils Christianshavn und lässt sich über eine 1752 konstruierte Wendeltreppe besteigen. Eine ebenfalls herausragende Sehenswürdigkeit ist der "Nyhavn". Diese Straße mit den schmucken Giebelhäusern beiderseits des gleichnamigen Hafenarms ist Zentrum der Gastronomie in Kopenhagen. Mehr dazu im Artikel Nyhavn. Am westlichen Ende des Nyhavns befindet sich Kongens Nytorv "(Königlicher Neuer Markt)". Von diesem größten und wichtigsten Platz der Stadt führen sternförmig ein gutes Dutzend Straßen weg. An dem Platz mit einem Standbild Christians V., volkstümlich auch "Hesten" – das Pferd – genannt, liegen das Königliche Theater, das Kaufhaus "Magasin du Nord," das Thotts Palais (1685) und das in den Jahren 1672 bis 1683 erbaute Schloss Charlottenborg. Es beherbergt heute die Kunstakademie und steht in Verbindung mit dem neuen Kunstausstellungsgebäude. Nordwestlich vom Kongens Nytorv befindet sich das Rosenborg Slot "(Schloss Rosenborg)". Das 1607 bis 1617 als Sommerresidenz für Christian IV. erbaute, durch holländische Architektur beeinflusste Renaissanceschloss beherbergt die dänischen Kronjuwelen. Seit 1833 ist es ein Museum. Sehenswert sind der Elfenbeinthron mit drei silbernen Löwen und die mit Edelsteinen verzierten Goldkronen Christians IV und Christians V. Gegenüber dem Schloss liegt der Botanische Garten mit einem Gewächshaus. Die Frederikskirke "(Frederikskirche)," auch "Marmorkirche" genannt, ist ein von Nicolai Eigtved entworfenes und 1740 begonnenes, 84 m hohes Gotteshaus mit einer 45 m hohen freskengeschmückten Kuppel, eine der größten Europas und ein Abbild des Petersdoms in Rom. Geldmangel führte zu einer längeren Baupause. Erst durch die finanzielle Unterstützung des Großindustriellen Carl Frederik Tietgen konnte die Kirche 1894 fertiggestellt werden. Im Inneren sind Denkmäler bedeutender kirchlicher Persönlichkeiten, wie Moses oder Martin Luther, aufgestellt. Unmittelbar neben der Kirche befindet sich das Schloss Amalienborg. Das Schloss, in dem die Königin lebt, wurde 1749 bis 1760 errichtet und besteht aus vier gegenüberliegenden Palästen. In der Mitte des großen, achteckigen Schlossplatzes Amalienborg Plads steht das Reiterstandbild Frederiks V. Jeden Mittag um zwölf Uhr findet hier die Wachablösung der Garde statt. Nördlich von Schloss Amalienborg erstreckt sich das Kastellet "(Kastell)," ein Überbleibsel der alten Stadtbefestigung. Unterhalb der Festungswälle verläuft die Promenade "Langelinie," die direkt zur "kleinen Meerjungfrau" führt. Der "Zooturm" ist ein 43,5 m hoher Aussichtsturm im Zoo Kopenhagen. Er wurde 1905 errichtet und ist einer der höchsten aus Holz gebauten Aussichtstürme. Im Stadtteil Bispebjerg findet sich mit der von Peder Klint begonnen und von seinem Sohn Kaare Klint vollendeten Grundtvigskirche ein seltenes Beispiel eines expressionistischen Sakralbaus. Die Bagsværd Kirche im Vorort Bagsværd gilt als markantes Beispiel des Kritischen Regionalismus. Im jüngsten Kopenhagener Stadtteil Ørestad befindet sich das 23-geschossige Bella Sky Hotel, das mit seiner modernen weißen Fassade das größte Hotel Skandinaviens ist. Freistadt Christiania. Die Freistadt Christiania (auch Das freie Christiana) ist eine „alternative“ Wohnsiedlung im Kopenhagener Stadtteil Christianshavn, die seit 1971 besteht. Das ehemalige Militärgelände der Bådsmandsstrædes-Kaserne umfasst ein 34 Hektar großes Gebiet auf den historischen Wallanlagen der Stadt. Die Bewohner betrachten sich selbst als in einer Freistadt lebend, die sich unabhängig von den staatlichen Behörden verwaltet. Diesen gilt Christiania jedoch als Drogenhandelszentrale. Kirchspielsgemeinden in Kopenhagen. Die Københavns Kommune ist unterteilt in 70 Kirchspielsgemeinden (dän.), die Frederiksberg Kommune in zehn und die Gentofte Kommune in neun Sogne. Wirtschaft und Infrastruktur. Die Innenstadt beherbergt wie in fast jeder anderen europäischen Großstadt das Dienstleistungszentrum, Handwerksbetriebe und Industrieanlagen (Maschinen-, Porzellan- und Textilfabriken), die – soweit noch nicht in andere Länder ausgegliedert – größtenteils an den Stadtrand verlegt wurden. Die dänische Hauptstadt gilt als sehr teuer, die Lebenshaltungskosten gehören zu den höchsten in ganz Europa. Ansässige Unternehmen. Die in Kopenhagen ansässigen namhaften Brauereien Tuborg und Carlsberg (inzwischen zur Carlsberg A/S fusioniert) haben ihre Produktion vollständig in den Standort Fredericia im Südosten Jütlands, am Brückenübergang zur Insel Fünen und somit zentral in Dänemark gelegen, ausgelagert. Außerdem sitzt in Kopenhagen die weltgrößte Container-Reederei A. P. Møller-Mærsk. Im Stadtteil Bagsværd hat der Pharmakonzern Novo Nordisk, bekannt für seine Enzym- und Insulinproduktion, seinen Stammsitz. Das pharmazeutische Unternehmen Lundbeck und die NKT Holding haben ebenfalls ihre Hauptsitz in Kopenhagen. Auch die Firma Secunia (IT-Sicherheitsunternehmen) hat ihren Sitz in Kopenhagen. Verkehr. Kopenhagen ist trotz seiner auf das Land bezogenen Randlage der wichtigste Verkehrsknotenpunkt Dänemarks. Auf die Stadt laufen sowohl alle wichtigen Straßen als auch Eisenbahnen sternförmig zu. Über die Schiffsverbindung Vogelfluglinie ist Kopenhagen mit Lübeck und Hamburg, über die Öresundverbindung mit Malmö und Lund verbunden. S-Bahn und Metro. Kopenhagen und seine Vororte werden durch das S-Bahn-System "S-tog" erschlossen. Die Linien der S-Bahn führen bis Køge, Høje-Taastrup, Frederikssund, Farum, Hillerød und Klampenborg; daneben verläuft eine Ringlinie um das Zentrum der Stadt. Dazu kommt die 2002 eröffnete Metro Kopenhagen, deren Züge vollautomatisch fahren, also ohne U-Bahn-Fahrer. Die erste Linie verläuft von Vanløse im Westen über Frederiksberg und den Bahnhof Nørreport nach Christianshavn, wo sie sich in einen Streckenast nach Vestamager im Süden und einen in Richtung des Flughafens Kastrup im Südosten aufteilt. Eine dritte Metrostrecke ist derzeit in Bau. Der neue Cityringen soll bis 2018 fertiggestellt werden und ergänzt damit die öffentlichen Verkehrsmittel rund um das Stadtzentrum. 2019 soll die Linie M4 auf einem Teil des Cityringen und einer Stichstrecke nach Orientkaj im Nordosten verkehren. Straßenbahn, Busverkehr und Hafenbus. Vom 22. Oktober 1863 bis zum 22. April 1972 besaß Kopenhagen ein ausgedehntes Straßenbahnnetz, das 1953 mit 19 Linien seine größte Ausdehnung erreichte. Erster städtischer Betreiber der Kopenhagener Straßenbahn war die "Københavns Sporsveje" (KS). Nach der Schließung wurden fast hundert Duewag-Gelenktriebwagen an die Straßenbahn Alexandria verkauft. Einige Wagen kamen ins Straßenbahnmuseum Skjoldenæsholm auf Mittel-Seeland, wo auch touristische Fahrten mit alten Bahnen angeboten werden. Inzwischen ist beabsichtigt, wieder Straßenbahnlinien einzurichten. Das neue Netz soll Stadtbahn-Charakter haben und nicht gerade in der Innenstadt, jedoch um Kopenhagen entstehen. Das älteste Nahverkehrsmittel Kopenhagens ist der Omnibus. Die Bedeutung des hauptstädtischen Busverkehrs nahm allerdings erst nach der Stilllegung des Straßenbahnnetzes 1972 zu. In der Gegenwart besteht im Stadtgebiet und Umland ein verzweigtes System von Buslininien der Movia unterschiedlicher Geschwindigkeit, Verfügbarkeit und Taktfolge. Zum System gehören auch drei Linien mit "Havnebussen", einem Passagierboot. Im Innenhafen verbindet der Hafenbus unter anderem die Königliche Oper "(Operaen)" auf der Insel Holmen mit der Altstadt. Fahrrad. Der Radverkehr hat einen wichtigen Stellenwert in der Stadt. In nahezu jeder wichtigen Straße gibt es eigene Radwege oder Radfahrstreifen, die von der Fahrbahn getrennt geführt werden. Der Anteil des Radverkehrs am gesamten Verkehrsaufkommen der Stadt ist mit über 36 % der Wege der Pendler im Vergleich zu anderen europäischen Großstädten außerordentlich hoch (zum Beispiel Wien: 5 %, hier bezogen auf alle Wege der Einwohner). Täglich werden in Kopenhagen 1,3 Millionen Kilometer mit dem Fahrrad zurückgelegt. Von Stadt- und Verkehrsplanern und Vertretern von Radfahr-Lobby-Verbänden aus der ganzen Welt wird Kopenhagen immer wieder als vorbildliches Beispiel für die Bevorzugung des Radverkehrs genannt. Nach unabhängigen Städtetests mit unterschiedlichen Methoden und Kriterien war Kopenhagen 2009 bis 2013 entweder die fahrradfreundlichste (große Groß-)Stadt der Welt, Nummer 2 nach Amsterdam oder Nummer 3 nach Amsterdam und Portland. Nach einem politischen Beschluss von 2011 besteht die Zielsetzung, bis Ende 2015 die weltbeste Fahrradstadt zu werden. Für die Umgestaltung von Städten mit besonderer Bevorzugung des Radverkehrs hat sich im Englischen bereits das Wort "copenhagenize" (dt. „Kopenhagenisierung“) eingebürgert. Dänemarks erster und vorläufig einziger "cykelsupersti" (etwa: Fahrrad-Super-Pfad, deutscher Fachbegriff: Radschnellweg) C99 von Albertslund nach Kopenhagen wurde am 14. April 2012 eingeweiht. Er ist 17,5 km lang und wurde mit wenigen Stopps weitgehend abseits vom Autoverkehr gebaut. Er enthält einige neue Wege, kleine Brücken und Unterführungen. Außerdem gab es bis 2012 von Frühling bis Herbst ein Fahrradverleihsystem mit insgesamt circa 100 Stationen, an denen man kostenlos Fahrräder ausleihen konnte. Diese sogenannten Citybikes "(Bycykler)" erhielt man gegen ein Pfand von 20 Kronen, die man nach dem Einkaufswagenprinzip einsteckte und zurückerhielt, wenn man das Fahrrad wieder an eine der Stationen zurückstellte (siehe auch Helsinki City Bike). Die Fahrräder durften nur in der Innenstadt benutzt werden. Im Winter wurden sie von Häftlingen in einem Gefängnis gewartet. Dieses Projekt wurde Ende 2012 eingestellt, auch weil häufig keine Räder an den Stationen verfügbar waren. Ein neues, sehr modernes System namens "goBike" wurde 2013 eingerichtet. Die Räder haben einen zuschaltbaren Elektromotor und einen eingebauten Tablet-PC, unter anderem zur Orientierung. Im Vergleich zu anderen Leihradsystemen in Paris oder Hamburg ist die Nutzung geringer als erwartet, vermutlich wegen der hohen Tarife. Luftverkehr. In Kastrup befindet sich der internationale Flughafen von Kopenhagen mit Direktverbindungen zu vier Kontinenten. Es gibt einen eigenen Bahnanschluss, der unter anderen von den Zügen nach Malmö bedient wird, bevor sie die Öresundbrücke überqueren. Öresundbrücke. Die Verbindung mit Malmö wird seit 2000 von der Öresundverbindung hergestellt. Über diese verkehren sowohl die Öresundzüge, die für die beiden nationalen Strom- und Signalsysteme eingerichtet sind, als auch Autos auf einer vierspurigen Autobahn. Früher fuhren nach Malmö Fähren und Tragflügelboote. Seeverkehr. Kopenhagen ist per (Auto-)Fähre aus Polen (Swinemünde) und Oslo zu erreichen. Ein neuer Schiffsterminal im Nordhafen "(Nordhavn)" bedient sowohl Linien- als Kreuzfahrtschiffe. Die herkömmliche Route nach Bornholm wurde 2005 zum Hafen Køge verlegt. Im Sommer kann mit einem der vielen Rundfahrtboote Stadt und Hafen besichtigt und zum ehemaligen Seefort Trekroner oder zur Insel Hven im Öresund gefahren werden. Energieversorgung. Kopenhagen wird von mehreren Heizkraftwerken (u. a. dem Kraftwerk Amager) mit Strom und Fernwärme versorgt. Bildung. Universität Kopenhagen, Campus in der Innenstadt Kontrolliertes Vokabular. Ein kontrolliertes Vokabular ist eine Sammlung von Bezeichnungen (Wortschatz), die eindeutig Begriffen zugeordnet sind, so dass keine Homonyme auftreten. In vielen Fällen gilt auch die umgekehrte Richtung (jeder Begriff hat nur eine oder eine präferierte Benennung, d. h. es gibt keine Synonyme). Kontrollierte Vokabulare treten beispielsweise als Fachwortverzeichnisse oder Glossare auf, in denen Termini eindeutig definiert werden. Innerhalb derselben Sprache sind kontrollierte Vokabulare vor allem in der Dokumentationswissenschaft von Bedeutung, da dort Informationen durch Schlagwörter eindeutig beschrieben werden (Indexierung). Zudem sind sie zwischen mehreren Sprachen dort unentbehrlich, wo es auf sprachenübergreifend einheitliche Wortbedeutungen ankommt, etwa in der Medizin (Beispiel: ICD-10). Das aus einem kontrollierten Vokabular stammende Schlagwort wird auch Deskriptor genannt. Die kontrollierten Schlagwörter werden in einem Thesaurus oder einer Normdatei verwaltet. Insbesondere in der Informatik werden Identifikatoren zur eindeutigen Identifizierung von Objekten benutzt. Da die Verschlagwortung von Ressourcen im Internet nicht kontrolliert geschieht, soll im semantischen Web mittels RDF über URIs eine semantische Zuordnung zu Begriffen geschehen. Auch einige Arten von Nachschlagewerken enthalten kontrollierte Vokabulare; so muss beispielsweise entschieden werden, ob ein Artikel über Personenkraftwagen „Wagen“, „Auto“ oder „PKW“ heißen soll. Korea. Das heute in Nord- und Südkorea geteilte Korea Korea ist ein Land in Ostasien, es liegt auf der Koreanischen Halbinsel mit vorgelagerten Inseln. Im Norden grenzt das Territorium an China und im äußersten Nordosten an Russland. Westlich der Halbinsel liegt das Gelbe Meer, östlich das Japanische Meer und im Süden die Koreastraße, die Korea von Japan trennt. Korea ist seit 1948 in zwei Staaten aufgeteilt: die "Demokratische Volksrepublik Korea" (Nordkorea) und die "Republik Korea" (Südkorea). Eine denkbare Wiedervereinigung Koreas scheint in weite Ferne gerückt. Dennoch gibt es im Hintergrund starke Verbindungen zwischen Nordkorea und Südkorea. Dazu gehören die gemeinsame Geschichte, die koreanische Sprache und kulturelle Traditionen. Koreanische Namen für Korea. Auf Koreanisch hat das Land im Norden und im Süden verschiedene Namen. In Nordkorea wird es als "Chosŏn" bezeichnet, was sich auf das erste koreanische Königreich (Go-Joseon) sowie die spätere Joseon-Dynastie bezieht. In Südkorea spricht man von "Hanguk" (übersetzt etwa „Korea-Reich“). Dieser Begriff geht auf die historischen Staaten Mahan („Ma-Korea“), Jinhan („Jin-Korea“) und Byeonhan („Byeon-Korea“) zurück, die zusammen den Bund Samhan („Drei Koreas“) bildeten und im Zeitraum vom ersten bis vierten Jahrhundert n. Chr. bestanden. Von 1897 bis 1910 trug das Land die Bezeichnung "Daehan Jeguk" (Kaiserreich Groß-Korea). Name in westlichen Sprachen. Marco Polo nannte die Halbinsel während seiner Reisen im späten 13. Jahrhundert "Cauly". Dies beruht vermutlich auf der chinesischen Bezeichnung des koreanischen Königreichs Goryeo (chinesisch "Gāolì"). In europäischen Aufzeichnungen tauchen bis ins 20. Jahrhundert hinein die beiden Schreibweisen "Corea" und "Korea" auf. Im englischen und deutschen Sprachraum setzte sich schließlich die Schreibweise "Korea", in romanischen Sprachen die Schreibung mit dem Buchstaben "C" durch. Geschichte. Frühere koreanische Reiche standen unter dem Einfluss benachbarter Großmächte. So war Korea etwa 150 Jahre lang ein Vasallenstaat des Mongolischen Reiches. Das koreanische Königreich Joseon stand bis 1895 unter der Vorherrschaft des Kaiserreichs China. Von 1897 bis 1910 existierte das kurzlebige Kaiserreich Korea. 1905 wurde es zu einem Protektorat des Japanischen Kaiserreichs, 1910 als Kolonie in dieses eingegliedert. Nach dem Ende des Zweiten Weltkriegs 1945 wurde es von Japan unabhängig. Zeitgleich kam es unter den konkurrierenden Besatzungsmächten Sowjetunion und USA zur Teilung Koreas, die durch den Koreakrieg (1950–1953) verfestigt wurde. Der Korea-Konflikt hält bis heute an. Sprache und Schrift. Die koreanische Sprache wird weltweit von etwa 78 Millionen Menschen gesprochen. Hinsichtlich ihrer genetischen Klassifizierung ist man sich in der linguistischen Forschung uneinig, viele Forscher gehen allerdings von einer Zugehörigkeit zur makro-altaischen Sprachgruppe aus. Auf Veranlassung von König Sejong wurde im Jahr 1446 das "Hangeul"-Alphabet geschaffen, um dem Volk ein zur koreanischen Sprache passendes und leicht erlernbares Schriftsystem zur Verfügung zu stellen. Aus einer operativen Sichtweise betrachtet handelt es sich zwar um eine Buchstabenschrift, da die Konsonanten und Vokale aber stets in Silbenblöcken angeordnet werden, kann man unter funktionalen Gesichtspunkten allerdings auch von einer Silbenschrift sprechen. Vor der Schaffung des Hangeul bediente man sich der chinesischen Zeichen (auf Koreanisch "Hanja" genannt), die in einigen Fällen, wie etwa bei den "Hyangga"-Gedichten, zur Wiedergabe des Koreanischen, zum größten Teil jedoch zum Schreiben mittels der klassischen chinesischen Schriftsprache benutzt wurden. Da diese noch bis zum Ende des 19. Jahrhunderts die gängige Schriftsprache blieb und ihre Beherrschung ein Merkmal des Gelehrten-Adels (der sogenannten Yangban-Schicht) war, blieb der koreanischen Schrift in den ersten 400 Jahren ihrer Existenz lediglich ein Schattendasein beschieden. Mit dem Aufkommen eines koreanischen Nationalgefühls im 19. Jahrhundert, den progressiven Gabo-Reformen und den Bemühungen westlicher Missionare wurde das "Hangeul"-Alphabet immer weiter verbreitet. Nach der Wiedererlangung der koreanischen Unabhängigkeit im Jahr 1945 wurde es in beiden Teilen des Landes zur offiziellen Schrift erklärt. In Südkorea werden die "Hanja" auch heute noch gelegentlich zur Schreibung von sinokoreanischen, d. h. aus chinesischen Schriftzeichen zusammengesetzten Wörtern benutzt (in wissenschaftlichen Publikationen sogar sehr häufig). In Nordkorea wurden sie 1949 offiziell abgeschafft, dort wird zum Schreiben ausschließlich "Hangeul" verwendet. Kultur. Bevor Korea unter japanische Herrschaft geriet, hatte es jahrhundertelang ein homogenes Reich gebildet und eine eigenständige Kultur und Gesellschaft entwickelt. Infolgedessen weisen Nordkorea und Südkorea noch heute viele Gemeinsamkeiten auf. Die Kultur Koreas ist unter anderem durch konfuzianische und buddhistische Bräuche geprägt. Die Koreaner haben viele chinesische Handwerkskünste weiterentwickelt. So war Korea lange bekannt für seine Seide und Töpferei-Arbeiten. Auch Goldarbeiten aus Korea waren hoch angesehen. In Korea wurde bereits Ende des 12. Jahrhunderts der Buchdruck mit beweglichen Lettern aus Metall angewandt – rund 200 Jahre vor Johannes Gutenbergs Erfindung in Europa. Im späten 16. Jahrhundert wurden die sogenannten Schildkrötenschiffe in Korea entwickelt und erfolgreich im Imjin-Krieg gegen Japan eingesetzt. Währung. Der Yen konnte sich in Korea erst 1731 als Zahlungsmittel etablieren; zuvor wechselten Geld und andere Zahlungsmittel, wie Stoffe oder Getreide, einander ab. Ab 1751 prägte die Regierung jährlich Münzen; 1864 verbot sie private Münzen, die bis dahin mit königlicher Lizenz geprägt wurden. 1882 wurden erstmals moderne Dezimalmünzen ausgegeben. Zwischen 1892 und 1902 war die koreanische Währung der Yang (양/兩), der 1902 durch den koreanischen Won (圓) im Verhältnis 1 Won = 5 Yang abgelöst wurde. Am 1. Juni 1905 übernahm Korea unter japanischem Einfluss den dort geltenden Goldstandard und band seine Währung im Verhältnis 1:1 an die Japans. Mit der Annektierung Koreas im Jahr 1910 wurde auch der koreanische Won wieder abgeschafft und durch den koreanischen Yen (Verhältnis 1:1 zum japanischen Yen) ersetzt, der bis zum Ende des Zweiten Weltkriegs 1945 benutzt wurde. Nach dem Ende der Kolonialzeit und der Zweiteilung Koreas wurde in Südkorea 1945 der erste südkoreanische Won eingeführt, zunächst im Wert an den japanischen Yen im Verhältnis 1:1, im Oktober des gleichen Jahres jedoch an den amerikanischen Dollar im Verhältnis 1 Dollar = 15 Won gekoppelt. Gegen Ende des Koreakrieges (1953) war der Wert des Won jedoch bis auf 1 Dollar = 6000 Won abgesunken, weshalb als neue Währung der Hwan (1 Hwan = 100 Won) eingeführt wurde. Auch der Hwan verlor durch Inflation rasch an Wert (Februar 1953: 1 Dollar = 60 Hwan; Februar 1961: 1 Dollar = 1250 Hwan), weshalb schließlich 1962 der zweite südkoreanische Won (1 Won = 10 Hwan) an seine Stelle trat, der bis heute gültig ist. Kündigungsschutzgesetz. Das deutsche Kündigungsschutzgesetz (KSchG) ist ein Gesetz der Bundesrepublik Deutschland, das die im Zivilrecht grundsätzlich bestehende Kündigungsfreiheit von Verträgen mit einer längeren Laufzeit („Dauerschuldverhältnissen“) zugunsten des Arbeitnehmers bei der Beendigung von Arbeitsverhältnissen auf sozial gerechtfertigte Kündigungen beschränkt (siehe auch Kündigungsschutz). Zahl der Arbeitnehmer. Seit dem 1. Januar 2004 muss ein Betrieb in der Regel mehr als zehn Arbeitnehmer beschäftigen, damit der gesetzliche Kündigungsschutz greift. Bis 31. Dezember 2003 genügte für die Anwendbarkeit des Kündigungsschutzgesetzes eine Zahl von mehr als fünf (rechnerisch also mindestens 5,25) Arbeitnehmern. Wer nach dieser Altregelung am 31. Dezember 2003 Kündigungsschutz hatte, behält diesen Kündigungsschutz auch weiterhin, wenn mit ihm weiterhin mehr als fünf „Altarbeitnehmer“ im Betrieb - noch zum Zeitpunkt der Kündigungserklärung - beschäftigt sind (Umkehrschluss aus § 23 Abs. 1 S. 2 KSchG). Scheiden allerdings solche „Altarbeitnehmer“ aus dem Arbeitsverhältnis aus und sinkt dadurch dieser Schwellenwert auf fünf oder darunter, verlieren alle anderen ihren bisherigen Kündigungsschutz. Dann ist allein die Kleinbetriebsgrenze von mehr als 10 Arbeitnehmern nach der neuen Rechtslage maßgebend. Sie werden für die Berechnung der Mitarbeiterzahl gem. § 23 Abs. 1 S. 4 KSchG wie folgt berücksichtigt Bei dieser Zählweise genügt also der Wert von rechnerisch 10,25 zu berücksichtigenden Arbeitnehmern für die Anwendbarkeit des Gesetzes; Auszubildende, Geschäftsführer oder etwa der Betriebsinhaber werden dabei nicht berücksichtigt. Bei der Berechnung der Betriebsgröße sind auch im Betrieb beschäftigte Leiharbeitnehmer zu berücksichtigen, wenn ihr Einsatz auf einem "in der Regel" vorhandenen Personalbedarf beruht. Wartezeit: sechsmonatige Dauer des Arbeitsverhältnisses. Das Arbeitsverhältnis muss länger als sechs Monate bestehen (Abs. 1 KSchG), damit der Kündigungsschutz greift. Diese so genannte Wartezeit nach dem Kündigungsschutzgesetz ist nicht mit der Probezeit nach BGB zu verwechseln. Die Vereinbarung einer Probezeit hat lediglich Einfluss auf die Länge der maßgebenden Kündigungsfrist: diese wird dann von „vier Wochen zum 15.“ oder „zum Ende“ eines Kalendermonats auf zwei Wochen absolut verkürzt. Bei der Berechnung der Wartezeit des § 1 Abs. 1 KSchG ist § 193 BGB nicht anwendbar. Die Wartezeit kann daher auch an einem Samstag, Sonntag oder Feiertag enden und wird nicht bis zum nächsten Werktag verlängert. Personenbedingte Kündigung. Bei der personenbedingten Kündigung liegen die Gründe für die Auflösung des Arbeitsverhältnisses in der Person des Arbeitnehmers. Eine personenbedingte Kündigung ist möglich, wenn der Arbeitnehmer die Arbeit nicht (mehr) ausführen kann. Häufigster Fall der personenbedingten Kündigung ist die Kündigung wegen einer lang anhaltenden Krankheit oder häufigen Kurzerkrankungen, die zur Arbeitsunfähigkeit führt und auch in Zukunft führen wird. Im Unterschied zur verhaltensbedingten Kündigung trifft den Arbeitnehmer bei der personenbedingten Kündigung in der Regel kein Verschulden. Verhaltensbedingte Kündigung. Bei der verhaltensbedingten Kündigung ist der Grund für die Kündigung ein Fehlverhalten des Arbeitnehmers. Voraussetzung für ihre Rechtmäßigkeit im Sinne des Kündigungsschutzgesetzes ist, dass der Arbeitnehmer eine Vertragspflicht erheblich – in der Regel schuldhaft – verletzt hat, die zumutbare Möglichkeit einer anderen, zukünftige Störungen zuverlässig ausschließenden Beschäftigung nicht besteht und die Lösung des Arbeitsverhältnisses in Abwägung der Interessen beider Vertragsteile billigenswert und angemessen erscheint. Oft, aber nicht zwingend, wird die verhaltensbedingte Kündigung als außerordentliche, fristlose Kündigung ausgesprochen. Der Arbeitgeber, der eine verhaltensbedingte Kündigung ausspricht, muss in der Regel den Arbeitnehmer zuvor wegen eines gleichartigen Pflichtverstoßes abgemahnt haben. Die Abmahnung ist entbehrlich, wenn das Fehlverhalten so gravierend ist, dass dem Arbeitnehmer von vornherein klar sein musste, dass dieses Verhalten unter keinen Umständen geduldet wird. Zu einer verhaltensbedingten Kündigung kommt es beispielsweise, wenn der Arbeitnehmer einen Diebstahl oder Spesenbetrug begangen hat, häufig zu spät gekommen ist, seine Arbeitsunfähigkeit nicht mitgeteilt oder nachgewiesen hat, eigenmächtig seinen Urlaub angetreten hat, „blau gemacht“ hat oder seine Arbeitsleistung schlecht ist. Häufig werden auch Alkohol- und Drogenkonsum als verhaltensbedingte Kündigungsgründe genannt. Ist der Arbeitnehmer suchtkrank und kann er deshalb sein Verhalten nicht steuern, kommt nur eine personenbedingte Kündigung in Betracht. Eine materiell-rechtlich zu Recht ausgesprochene verhaltensbedingte Kündigung führt nach Abs. 1 Nr. 1 SGB III zu einer Sperrzeit beim Arbeitslosengeld, wenn der Arbeitnehmer dadurch vorsätzlich oder grob fahrlässig die Arbeitslosigkeit herbeigeführt hat. Betriebsbedingte Kündigung. Von einer betrieblich bedingten Kündigung spricht man, wenn sachliche Gründe zu einer Unternehmerentscheidung führen, die ihrerseits den Wegfall des Arbeitsplatzes des betroffenen Arbeitnehmers oder einer Mehrzahl von Arbeitsplätzen zur Folge hat. Hierbei sind grundsätzlich Gründe zu unterscheiden, die von außen auf das Unternehmen einwirken (beispielsweise Umsatzeinbußen, Wegfall von Aufträgen) und Gründe, die vom Unternehmen selbst herbeigeführt werden (Organisationsentscheidungen, Umstrukturierung, Betriebsschließung). Die Unternehmerentscheidung selbst wird dabei von den Arbeitsgerichten nur auf „offensichtliche Willkür oder Unsachlichkeit“ geprüft. Bei betrieblich bedingten Gründen ist die Sozialauswahl gemäß Abs. 3 KSchG zu beachten. Von mehreren vergleichbaren Arbeitnehmern ist der Arbeitnehmer zu kündigen, der die besten Sozialdaten hat, das heißt der am wenigsten von den Folgen der Kündigung getroffen wird. Als Kriterien der Sozialauswahl dürfen seit der Neufassung des Kündigungsschutzgesetzes ab 1. Januar 2004 ausschließlich die Dauer der Betriebszugehörigkeit, das Lebensalter, bestehende Unterhaltspflichten und möglicherweise vorliegende Schwerbehinderung herangezogen werden. Eine Sonderform der betriebsbedingten Kündigung ist die sog. Orlando-Kündigung. Klagefrist. Das Kündigungsschutzgesetz statuiert in KSchG für die Kündigungsschutzklage eine Klagefrist von drei Wochen. Diese Klagefrist stellt jedoch keine Zulässigkeitsvoraussetzung, sondern eine materiellrechtliche Präklusion dar. Die Kündigung gilt als von Anfang an rechtswirksam, wenn sie nicht innerhalb von drei Wochen seit Zugang durch eine Klage beim Arbeitsgericht angegriffen wird (Wirksamkeitsfiktion des KSchG). Die Klage ist also als unbegründet, nicht aber als unzulässig zurückzuweisen, wenn die Dreiwochenfrist überschritten wurde. Diese Präklusion gilt seit 1. Januar 2004 für alle Kündigungen und alle Unwirksamkeitsgründe, muss also in jedem Fall eingehalten werden, auch wenn das Kündigungsschutzgesetz auf das Arbeitsverhältnis nicht anwendbar sein sollte (Beispiel: Kündigung einer Schwangeren im Kleinbetrieb, vergleiche "Kündigungsfristen im Arbeitsrecht"). Ausnahmen gelten jedoch bei Kündigungen, die nicht der Schriftform genügen oder nicht fristgerecht erfolgt sind, auch wenn der Arbeitnehmer sich nicht auf die inhaltliche Unwirksamkeit der Kündigung berufen möchte: Ist die Kündigung also entgegen der Formvorschrift des nicht schriftlich ausgesprochen, so kann deren Unwirksamkeit auch noch nach Ablauf der Dreiwochenfrist durch Klage beim Arbeitsgericht geltend gemacht werden. Gleiches gilt für den Fall, dass die zutreffende Kündigungsfrist nicht eingehalten wurde, dem Kündigungsschreiben aber - ggf. im Wege der Auslegung - zu entnehmen ist, dass der Kündigende eine ordentliche Kündigung unter Wahrung der objektiv einzuhaltenden Kündigungsfrist erklären wollte. Lässt sich dagegen eine mit zu kurzer Frist ausgesprochene Kündigung nicht als eine solche mit der rechtlich gebotenen Frist auslegen, muss die Nichteinhaltung der Kündigungsfrist innerhalb der Dreiwochenfrist des § 4 Satz 1 KSchG gerichtlich geltend gemacht werden. Die Klageerhebung wegen solcher Gründe, die ausnahmsweise nicht unter § 7 KSchG fallen, kann u. U. wegen anderweitiger Rechtshängigkeit gem. Abs. 2 S. 1 ArbGG in Verbindung mit Abs. 3 Ziff. 1 ZPO die Zulässigkeit der Klage entfallen, wenn schon Kündigungsschutzklage oder Klage auf Feststellung des Bestehens des Arbeitsverhältnisses erhoben wurde. Änderungskündigung. Eine Änderungskündigung liegt vor, wenn das bisherige Arbeitsverhältnis "außerordentlich" (in der Regel dann fristlos) oder "ordentlich" (unter Einhaltung der Mindestkündigungsfrist) gekündigt wird und zugleich die Fortsetzung des Arbeitsverhältnisses (bei der ordentlichen Änderungskündigung: nach Ablauf der Kündigungsfrist) zu geänderten Bedingungen angeboten wird (vergleiche KSchG). Auch hier verlangt das Kündigungsschutzgesetz für die Wirksamkeit der Änderungskündigung das Vorliegen von Kündigungsgründen im Sinne von Abs. 2 KSchG und für eine rechtserhebliche Beanstandung die Einhaltung der dreiwöchigen Klagefrist. Der Arbeitnehmer kann entweder das Änderungsangebot ablehnen und gegen die Änderungskündigung klagen. Verliert er dann den Prozess, ist das Arbeitsverhältnis beendet; gewinnt er, hat er einen Weiterbeschäftigungsanspruch zu den alten Vertragsbedingungen. Er kann aber auch die Änderung der Vertragsbedingungen „unter dem Vorbehalt ihrer sozialen Rechtfertigung“ annehmen und die Änderung (mit einer so genannten Kündigungsschutzklage, manchmal auch "Änderungsschutzklage" genannt) innerhalb der dreiwöchigen Klagefrist gerichtlich überprüfen lassen. Dieser Vorbehalt ist innerhalb der Kündigungsfrist spätestens aber innerhalb von drei Wochen nach Zugang der Kündigung gegenüber dem Arbeitgeber (nicht gegenüber dem Gericht!) zu erklären. Wird innerhalb der (längstens) dreiwöchigen Frist der Vorbehalt gegenüber dem Arbeitgeber erklärt und ebenfalls innerhalb dieser Frist Klage zum Arbeitsgericht erhoben, prüft das Gericht die soziale Rechtfertigung jeder einzelnen Änderung. Fehlt sie (auch nur für eine einzelne Vertragsänderung und sei es die nebensächlichste) ist die gesamte Änderungskündigung sozial nicht gerechtfertigt. Der Arbeitnehmer hat dann einen Weiterbeschäftigungsanspruch zu unveränderten Vertragsbedingungen. Ist die Änderungskündigung dagegen sozial gerechtfertigt, verliert also der Arbeitnehmer den Prozess, muss er zwar zu den geänderten Bedingungen weiterarbeiten, behält aber seinen Arbeitsplatz. Die Erklärung des Vorbehalts reduziert also für den Arbeitnehmer das Risiko des Arbeitsplatzverlustes auf Null. Allerdings muss der Arbeitnehmer, wenn er den Vorbehalt erklärt, während der Dauer des Rechtsstreits nach Ablauf der Kündigungsfrist zu den geänderten Arbeitsbedingungen arbeiten. Kartenspiel. Ein Kartenspiel ist ein Spiel, bei dem Spielkarten der wesentliche Bestandteil des Spielmaterials sind. Die große Vielzahl unterschiedlicher Kartenspiele ergibt sich aus unterschiedlichen Kombinationen oft grundsätzlich ähnlicher Kartenspielregeln, aus unterschiedlichen Spielzielen und der Verwendung unterschiedlicher Spielkarten. Übersichten zu diesen Kartenspielen sind oft an einem dieser Kriterien ausgerichtet oder aber an der Herkunft (Region) des Spieles. In puritanischen Kreisen wurde das Kartenspiel bis in das 20. Jahrhundert hinein als „Gebetbuch des Teufels“ bezeichnet, um die Gefahren des Glücksspiels und auch des Müßiggangs zu verdeutlichen. Allgemeine Spieleigenschaften. Unabhängig von den individuellen Regeln der einzelnen Spiele gibt es eine Reihe Eigenschaften, die alle Kartenspiele gemeinsam haben. So gibt es ein – zumindest bei sehr formalem Spiel – angewendetes Verfahren zum Auslosen der Sitzplätze bzw. Partnerschaften, dieses wird auch angewendet, um festzustellen, wer als erster gibt. Vor jedem einzelnen Spiel müssen die Karten gemischt und sodann abgehoben werden. Gegeben wird – falls nichts anderes verlangt ist, vgl. etwa Skat oder Doppelkopf – grundsätzlich einzeln, wobei sich der Geber (Teiler) jeweils als letzter bedient. Die Spieler dürfen meist erst dann ihre Karten aufnehmen, wenn das Geben abgeschlossen ist. Die Karten werden in der Regel verdeckt gehalten, so dass jeder Mitspieler nur seine eigenen Karten kennt. Die Reihenfolge der Spieler wird bei den einzelnen Spielen sehr unterschiedlich gehandhabt. Heute wird mehrheitlich im Uhrzeigersinn gespielt; vor allem ältere Spiele und Spiele italienisch-spanischen Ursprungs werden jedoch gegen den Uhrzeiger gespielt, etwa Tarock oder Baccara. Canasta wird in Lateinamerika, Spanien und Portugal im Gegenuhrzeigersinn, in Angloamerika, Großbritannien und den meisten kontinentaleuropäischen Ländern jedoch im Uhrzeigersinn gespielt. Wenn die individuellen Regeln nichts anderes sagen, so beginnt bei einem im Uhrzeigersinn gespielten Spiel der Spieler zur Linken des Gebers (sogenannte "Vorhand") – das gilt aber z. B. nicht für Bridge, wo der Geber das Gebot eröffnet. Augenspiele. Bei Augenspielen ist das Ziel, möglichst viele Kartenpunkte ("Augen") zu sammeln. Dies geschieht häufig auch durch Stiche, deren erreichte Anzahl hier aber unerheblich ist. Wichtige Vertreter im deutschsprachigen Raum sind Doppelkopf, Schafkopf und Skat (beim Farbspiel oder Grand); auch Tarock (es wird in vielen regionalen Varianten gespielt) gehört zu den Augenspielen. Sammelspiele. Hier ist das Sammeln möglichst vieler Karten oder Kartenkombinationen ein entscheidendes Spielkriterium, wobei der Wert der einzelnen Karten entweder nicht gezählt wird oder nicht über den Sieg entscheidet. Beispiele sind Leben und Tod, Schwarzer Peter und das Quartett-Spiel. Raubspiele. Bei Raubspielen werden offene Karten mit Handkarten „erbeutet“. Beispiele sind Casino und Hurrikan. Kartenglücksspiel. Der Gebrauch von Spielkarten für reines Hazardspiel (Risikospiel/Glücksspiel), der bis ins 18. Jahrhundert verbreitet war, ist heute vor allem in Spielkasinos anzutreffen; dort werden moderne Kartenglücksspiele wie Black Jack, Baccara und Red Dog gespielt. In der Vergangenheit war das Kartenspiel Pharo oder auch Faro (von Pharao) in Spielsalons, Clubs und Spielgesellschaften in Europa und später in den Spielsalons der amerikanischen Goldgräber sehr verbreitet und beliebt. Varianten sind Tempeln und Meine Tante, deine Tante, historische Vorläufer sind Landsknecht und Bassette. Heute wird es kaum noch gespielt; ebenso die alten Kasinospiele Rouge et noir und Trente et quarante. Als Kuriosum sei hier auch die Tontine erwähnt, ein der gleichnamigen frühen Form der Lebensversicherung nachempfundenes Kartenglücksspiel. Das ebenfalls weitgehend als Glücksspiel geltende Stichspiel Écarté war in den Spielsalons des 19. Jahrhunderts weit verbreitet und als Spiel um sehr hohe Einsätze bekannt; seine Nachfolger, wie Ramso, wurden bis in die 50er Jahre des 20. Jahrhunderts in Clubs gespielt. Daneben gibt es eine Vielzahl weniger bekannter Kartenglücksspiele, z. B. Eine Reihe weitgehend glücksabhängiger Stichspiele mit einem gemeinsamen Grundprinzip wie Mauscheln und Tippen (Dreiblatt) sowie verwandte Spiele wie Mistigri und Loo haben auch zeitweise Berühmtheit erreicht. Auch das alte englische Kneipenspiel Nap kann hier mit erwähnt werden. Weiterhin Hoggenheimer, die Black-Jack-Vorläufer Vingt et un, engl. Pontoon oder dt. Siebzehn und Vier, sowie auch Trente et un, Macao und das englische Newmarket. Die Poker-Vorläufer, wie das alte deutsche Poch oder das französische Poque und das dem Poker ähnliche, jedoch ältere englische Brag, kommen als Spiele mit Wettcharakter und weitgehender Glücksabhängigkeit des Spielausgangs hinzu. Kartenspiele als Lernspiele. Viele herkömmliche Kartenspiele fordern und trainieren Eigenschaften wie Konzentration, Aufmerksamkeit, Kurzzeitgedächtnis und strategisches Denken. Logische Spiele wie Set oder mathematische Spiele wie Elfer Raus können Kindern Logik bzw. Zahlenverständnis nahebringen. In der wissensdurstigen Barockzeit entstanden viele Lehrkartenspiele. Unter ihren Autoren waren Dichter wie Erasmus Finx und Georg Philipp Harsdörffer. Eine weitere Variante sind Quartettspiele und Schwarzer Peter, die in der Regel ebenfalls Wissen vermitteln. Im ironischen Sinne kann man 32 heb auf auch als Lernspiel bezeichnen. Spiele mit eigenem Blatt. Neben den Spielen mit klassischen Blättern gibt es heute auch viele Spiele mit speziellen Karten. Dabei handelt es sich häufig um Autorenspiele mit vielfältigen Spielmechanismen. Gelegentlich überschreiten sie die Grenze zum Brettspiel, wenn die Spielkarten als eine Art Spielbrett benutzt werden. Der "à la carte Kartenspielpreis" zeichnet das jeweils beste Spiel eines Jahres aus. Im Gegensatz zu den traditionellen Spielen sind die Karten der Verlagsausgabe und die Spielregeln von einem Spieleautor durch das Urheberrecht geschützt. Eine völlig eigene Kategorie bilden die Sammelkartenspiele wie etwa. Auch bei Brettspielen oder Würfelspielen können Spielkarten beteiligt sein. In den meisten Fällen dienen sie hier jedoch zur Beeinflussung des Spielverlaufs – zum Beispiel als Würfelersatz in Form von Ereigniskarten – oder sie repräsentieren Objekte, die im Spielverlauf eingesetzt werden können, etwa Rohstoffe oder Spielgeld. KDE. KDE ist ein Projekt zur Entwicklung freier Software. Hauptprodukt ist die "KDE Plasma 5" (früher "K Desktop Environment", abgekürzt "KDE"). Das KDE-Projekt besteht aus zwei Säulen: Einmal ein relativ lockerer Zusammenschluss von Programmierern, Künstlern und anderen Entwicklern. Die zweite Säule ist der recht deutlich begrenzte eingetragene Verein KDE e. V., der sich als juristische Person um finanzielle und rechtliche Aspekte des Projekts kümmert. Geschichte. Das Projekt wurde am 14. Oktober 1996 von Matthias Ettrich unter dem Namen "Kool Desktop Environment" ins Leben gerufen. Die Programmierer orientierten sich zunächst am damals bereits verfügbaren aber proprietären Unix-Desktop CDE, sowohl vom Funktionsumfang als auch vom Namen her. Sie setzten aber von Anfang an auf eine objektorientierte Programmiersprache (C++) und eine umfangreiche, bereits bestehende Oberflächenbibliothek namens Qt, die von Trolltech entwickelt worden war. Im Laufe der Entwicklung wurde die Bezeichnung "Kool" aufgegeben, das K verblieb damit ohne weitere Bedeutung im Namen. Am 12. Juli 1998 wurde die finale Version 1.0 des K Desktop Environment veröffentlicht. Diese frühe Version wurde von der Unix-Community mit gemischten Gefühlen aufgenommen: Viele kritisierten die Verwendung der unfreien Oberflächenbibliothek Qt. Bedingt durch Druck, welcher auf Trolltech ausgeübt wurde und durch die Überzeugungsarbeit der KDE-Entwickler, entschied sich Trolltech im April 1999 dafür, Qt in einer speziellen, freieren Version zur Verfügung zu stellen, die die Ansprüche der Community weitestgehend erfüllte. Der endgültige Durchbruch folgte dann mit der Version 2.0 vom 23. Oktober 2000. Die Version 3.0 vom 3. April 2002 war in erster Linie eine Portierung auf die neue Hauptversion des zugrunde liegenden Frameworks "Qt 3.0". KDE veröffentlichte die letzte Version, 3.5.10, am 26. August 2008. Organisation von KDE nach der neuen Markenstrategie Am 18. August 2006 veröffentlichte das KDE-Team die erste Vorabversion der neuen KDE Software Compilation 4 mit dem Namen "Krash" unter der Versionsnummer 3.80.1. Am 11. Januar 2008 wurde schließlich die finale Version 4.0 veröffentlicht. Am 6. November 2009 wurde der Projektgründer Matthias Ettrich für KDE mit dem Bundesverdienstkreuz ausgezeichnet. 2009 wurde auch die Ausformulierung "K Desktop Environment" fallen gelassen. Fortan bezeichnet "KDE" nur noch die Entwicklungsgemeinschaft und das Programmpaket wird als "Software Compilation" (KDE SC) bezeichnet. Die neue Markenstrategie ist seit dem 24. November 2009 in Kraft. Die erste nach dem Strategiewechsel veröffentlichte Version war formell "4.3.4", jedoch trägt erst Version "4.4 Beta 1" auch in der Software diese Bezeichnung. Organisation des KDE-Projekts. Die Vertretung des Projekts nach außen übernimmt der gemeinnützige, in Deutschland eingetragene Verein KDE e. V., der auch das Recht an der Marke KDE innehat und 1997 gegründet wurde. Er vertritt die Mitglieder in allen finanziellen und rechtlichen Belangen und hilft bei der Ausrichtung der Konferenzen und Treffen der Projektmitglieder. Der KDE e. V. hat einen fünfköpfigen Vorstand, dessen Mitglieder für eine Dauer von maximal drei Jahren von einer Generalversammlung gewählt werden. Derzeit besteht er aus Cornelius Schumacher (Präsident), Sebastian Kügler (Vizepräsident), Agustin Benito Bethencourt (Vizepräsident und Schatzmeister), Lydia Pintscher und Pradeepto Bhattacharya. In einigen Ländern hat KDE auch eigene Organisationen. Diese sind entweder frei organisiert (KDE India) oder haben sich, ebenso wie der KDE e. V., eine rechtliche Form gegeben (KDE España). Andere wiederum kooperieren mit bereits existierenden rechtlichen Körperschaften. Die im November 2005 gegründete "Marketing Working Group" hat sich das Ziel gesetzt, dabei zu helfen, bestehende Öffentlichkeitsarbeitsprojekte besser zu koordinieren und weitere zu ergänzen. Sie besteht im Moment aus Carl Symons, Inge Walling und Jos Poortvliet. Im Februar 2006 wurde erstmals eine siebenköpfige "Technical Working Group" von den Mitgliedern des KDE e. V. gewählt. Diese Gruppe soll die Veröffentlichung neuer KDE-Versionen koordinieren und planen. Weiterhin soll sie entscheiden, welche Software in KDE aufgenommen oder entfernt wird, wie verschiedene Programme zu Modulen zusammengefasst werden sollen und welche Abhängigkeiten zwischen den Modulen und zu externer Software erlaubt sein sollen. Darüber hinaus soll sie technische Entscheidungen, die das gesamte KDE-Projekt betreffen, begleiten und dafür sorgen, dass solche Entscheidungen gut dokumentiert werden. Eine weitere Aufgabe ist es, eine Anlaufstelle für generelle technische Fragen in Bezug auf KDE zu sein und Kontakte zwischen verschiedenen Entwicklern des Projekts herzustellen. Die "Technical Working Group" wurde zunächst für sechs Monate gewählt. Nach dieser Zeit wurde ihre Arbeit beurteilt. Die Technical Working Group wurde nach einem Jahr durch das "Release Team", einem von KDE e. V. unabhängigen Organ ersetzt. Des Weiteren gibt es eine Community Working Group, eine System Administration Working Group, eine Financial Working Group und eine User Working Group. Wie viele Projekte aus der Freie-Software-Szene wird auch KDE hauptsächlich von ehrenamtlichen Entwicklern getragen. Zusätzlich werden einige Entwickler von verschiedenen Firmen für ihre Arbeit an KDE bezahlt. Die Entwickler, Designer und sonstige Mitarbeiter des Projekts organisieren sich über die für Open-Source-Projekte dieser Größe üblichen Kommunikationswege wie Mailinglisten, Wikis, Webforen, Newsgroups, dem öffentlich zugänglichen Bug-Tracker und Konferenzen. Die wichtigste Konferenz ist dabei die jährlich jeweils in einem anderen europäischen Land stattfindende Akademy. Konferenzen. KDE hält Konferenzen ab und nimmt an anderen Konferenzen rund um freie Software teil. Die beiden wichtigsten von KDE selbst veranstalteten Konferenzen sind "Akademy" und "Camp KDE". Beides sind thematisch und geografisch weiträumig angelegte Veranstaltungen. Camp KDE. "Camp KDE" war das Gegenstück zur "Akademy" für den amerikanischen Kontinent. Es fand 2009 bis 2011 jährlich im Januar statt. freedesktop.org. freedesktop.org ist eine Kollaborationsplattform mit dem Ziel, die Interoperabilität der Arbeitsumgebungen auf dem X Window System zu verbessern. Das KDE-Projekt ist innerhalb von freedesktop.org aktiv, um gemeinsame Standards mit dem Gnome-Projekt und zahlreichen anderen zu erarbeiten. Wikimedia. a> mit abgerufenen Informationen aus der Wikipedia Am 23. Juni 2005 wurde bekannt, dass das KDE-Projekt und die Wikimedia Foundation eine Kooperation anstreben. Geplant war insbesondere, Inhalte von Wikimedia-Projekten über eine Web-Service-Schnittstelle für KDE-Programme anzubieten. In KDE 3.5 wurde bereits damit begonnen, Wikipedia-unterstützende Funktionen zu integrieren. Der Editor Kate erhielt in dieser Version eine Wikitext-Syntaxhervorhebung. Der KDE-Musikspieler Amarok zeigt Informationen über Interpreten aus der Wikipedia mit Hilfe eines eingebetteten Webbrowsers an und der KDE-Globus Marble bindet auf ähnliche Weise Wikipedia-Artikel über Städte ein. Von April 2008 bis September 2009 teilten sich der KDE e. V. und Wikimedia Deutschland e. V. gemeinsame Büros in Frankfurt am Main. Free Software Foundation Europe. Im Mai 2006 wurde KDE e. V. "Associate Member" der Free Software Foundation Europe (FSFE). Am 22. August 2008 gaben KDE e. V. und FSFE bekannt, dass das KDE-Projekt nach anderthalbjähriger Zusammenarbeit mit FSFEs "Freedom Task Force" das "Fiduciary Licence Agreement" der FSFE annehmen werde. Damit können KDE-Entwickler auf freiwilliger Basis ihre Nutzungsrechte an den KDE e. V. abtreten, um bei Rechtsverletzungen durch Andere leichter eingreifen zu können. Im September 2009 bezogen KDE e. V. und die FSFE gemeinsame Büros in Berlin. Gnome. Seit 2009 geht die Zusammenarbeit zwischen KDE und dem Gnome-Projekt auch über freedesktop.org hinaus, indem sich beide Organisationen dazu entschlossen, alle zwei Jahre ihre jährlichen Konferenzen Akademy und GUADEC gemeinsam abzuhalten. Die erste derartige gemeinsame Konferenz war der "Gran Canaria Desktop Summit" vom 3. bis zum 11. Juli 2009. Darauf folgte ein weiterer Desktop Summit in Berlin 2011. Kommerziell agierende Unternehmen. Durch die Nutzung von Qt als Basis für KDE-Software bildeten sich schnell Beziehungen zur mittlerweile von Nokia übernommenen Firma Trolltech. Im Juni 1998 gründeten KDE e. V. und Trolltech gemeinsam die "KDE Free Qt Foundation", um den Fortbestand von Qt als Freier Software zu gewährleisten. Trolltech begann außerdem als Sponsoring-Maßnahme einige KDE-Entwickler einzustellen. Die Software-Entwicklungs- und -Consulting-Firmen "Intevation GmbH" aus Deutschland und die schwedische "Klarälvdalens Datakonsult AB" (KDAB) nutzen Qt und KDE-Software – insb. Kontact und Akonadi für Kolab – für ihre Dienstleistungen und Produkte, weshalb beide KDE-Entwickler beschäftigen. Distributoren. Viele Distributoren von Linux und anderen freien Betriebssystemen beteiligen sich an der Entwicklung der Software, die sie vertreiben und sind dementsprechend auch im KDE-Projekt aktiv. Das schließt kommerzielle Distributoren wie z. B. SUSE, Mandriva, Red Hat oder Canonical mit ein, aber auch staatlich geförderte unkommerzielle Organisationen wie der Wissenschafts- und Forschungsrat der Türkei mit seiner Linux-Distribution Pardus. Programme des KDE-Projekts. Des Weiteren gibt es viele Anwendungsprogramme z. B. der Video-Editor Kdenlive, die zwar für die KDE-Plattform entwickelt werden, aber ansonsten keine offizielle Beziehung zum KDE-Projekt haben. Kryptographie. Kryptographie bzw. Kryptografie (altgr. "kryptós" ‚verborgen‘, ‚geheim‘ und "gráphein" ‚schreiben‘) war ursprünglich die Wissenschaft der Verschlüsselung von Informationen. Heute befasst sie sich allgemein mit dem Thema Informationssicherheit, also der Konzeption, Definition und Konstruktion von Informationssystemen, die widerstandsfähig gegen Manipulation und unbefugtes Lesen sind. Die Kryptographie bildet zusammen mit der Kryptoanalyse (auch: "Kryptanalyse") die Kryptologie. Terminologie. Lange war der Begriff Kryptographie gleichbedeutend mit der Erforschung von Verschlüsselungsverfahren. Verschlüsselung ist der Umwandlung einer Information von einem lesbaren Zustand (Klartext) in scheinbaren Unsinn (Geheimtext). Entschlüsselung bedeutet das Gegenteil, also das Umwandeln eines Geheimtextes in einen verständlichen Klartext. Eine Chiffre bezeichnet hierbei eine Methode zum Ver- oder Entschlüsseln. Das detaillierte Vorgehen einer Chiffre wird in jedem Schritt von sowohl dem Algorithmus und dem Schlüssel kontrolliert. Letzterer ist ein geheimer Parameter, der idealerweise nur den kommunizierenden Parteien bekannt ist, er wird speziell für einen Ver- und Entschlüsselungsvorgang gewählt. Als Kryptosystem wird die Gesamtheit aller möglichen Elemente, wie Klartexte, Geheimtexte, Schlüssel und Verschlüsselungsalgorithmen bezeichnet, die zusammen das System ergeben. Schlüssel sind wichtig, da Chiffren ohne variable Schlüssel leicht gebrochen werden können, auch wenn nur der Geheimtext bekannt ist. Solche Verschlüsselungsmethoden sind daher nutzlos für die meisten Zwecke. In der Geschichte wurden Chiffren oft direkt zum Verschlüsseln genutzt, ohne zusätzliche Verfahren, wie z. B. Authentifizierung oder Integritätsprüfung. Im umgangssprachlichen Gebrauch kann der Begriff Code sowohl eine Verschlüsselungsmethode als auch die Geheimhaltung einer Bedeutung bezeichnen. Jedoch ist er in der Kryptographie spezifischer definiert und bedeutet hier, dass ein Teil eines Klartextes durch ein bestimmtes Codewort ersetzt wird (Beispiel: "Igel" ersetzt "Angriff in der Dämmerung"). Codes werden in der heutigen Kryptographie weitestgehend nicht mehr benutzt, da gut gewählte Chiffren sowohl praktischer als auch sicherer als die besten Codes und darüber hinaus auch besser an Computer angepasst sind. Kryptoanalyse bezeichnet hingegen das Forschen an Methoden, mit denen die Bedeutung einer verschlüsselten Information ohne Wissen des Schlüssels gefunden werden soll. Das heißt, dass untersucht wird, wie Verschlüsselungsalgorithmen oder ihre Implementierungen "geknackt" werden können. Oft werden die Begriffe Kryptographie und Kryptologie gleichwertig benutzt, während sich z. B. beim US-Militär Kryptographie meist auf kryptographische Techniken bezieht und Kryptologie als Oberbegriff für Kryptographie und Kryptoanalyse verwendet wird. Die Kryptographie kann also auch als Teilgebiet der Kryptologie gesehen werden. Das Untersuchen von Merkmalen einer Sprache, die Anwendung in der Kryptographie finden (z. B. Buchstabenkombinationen), wird Kryptolinguistik genannt. Abgrenzung zur Steganographie. Kryptographische und steganographische Verfahren können kombiniert werden. Beispielsweise führt eine Verschlüsselung (Kryptographie) einer Nachricht, die über einen verdeckten Kanal kommuniziert wird (Steganographie), dazu, dass selbst nach dem Entdecken und erfolgreichen Auslesen des Kanals der Inhalt der Nachricht geheim bleibt. Ziele der Kryptographie. Kryptographische Verfahren und Systeme dienen nicht notwendigerweise allen genannten Zielen. Methoden der Kryptographie. Kryptographische Verfahren werden unterteilt in die klassischen und modernen Verfahren. Klassische Kryptographie. Der früheste Einsatz von Kryptographie findet sich im dritten Jahrtausend v. Chr. in der altägyptischen Kryptographie des Alten Reiches. Hebräische Gelehrte benutzten im Mittelalter einfache Zeichenaustauschalgorithmen (wie beispielsweise die Atbasch-Verschlüsselung). Im Mittelalter waren in ganz Europa vielfältige Geheimschriften zum Schutz des diplomatischen Briefverkehrs in Gebrauch, so etwa das Alphabetum Kaldeorum. Ende des 19. Jahrhunderts kam es aufgrund der weiten Verbreitung des Telegrafen (den man auf einfache Weise anzapfen und abhören konnte) zu neuen Überlegungen in der Kryptographie. So formulierte Auguste Kerckhoffs von Nieuwenhof mit Kerckhoffs’ Prinzip einen Grundsatz der Kryptographie, nachdem die Sicherheit eines kryptographischen Verfahrens allein auf der Geheimhaltung des Schlüssels basieren soll – das Verfahren selbst muss also nicht geheim gehalten werden; im Gegenteil: es kann veröffentlicht und von vielen Experten untersucht werden. Kryptographie im Zweiten Weltkrieg. Im Zweiten Weltkrieg wurden mechanische und elektromechanische (T52, SZ42) Kryptographiesysteme zahlreich eingesetzt, auch wenn in Bereichen, wo dies nicht möglich war, weiterhin manuelle Systeme verwendet wurden. In dieser Zeit wurden große Fortschritte in der mathematischen Kryptographie gemacht. Notwendigerweise geschah dies jedoch nur im Geheimen. Die deutschen Militärs machten regen Gebrauch von einer als ENIGMA bekannten Maschine, die durch britische Codeknacker im Rahmen des Projekts „Ultra“ gebrochen wurde. Beginn moderner Kryptographie. Das Zeitalter moderner Kryptographie begann mit Claude Shannon, möglicherweise dem Vater der mathematischen Kryptographie. 1949 veröffentlichte er den Artikel "Communication Theory of Secrecy Systems". Dieser Artikel, zusammen mit seinen anderen Arbeiten über Informations- und Kommunikationstheorie, begründete eine starke mathematische Basis der Kryptographie. Hiermit endete auch eine Phase der Kryptographie, die auf die Geheimhaltung des Verfahrens setzte, um eine Entschlüsselung durch Dritte zu verhindern oder zu erschweren. Statt dieser – augenzwinkernd auch Security by obscurity genannten – Taktik müssen sich kryptografische Verfahren nun dem offenen wissenschaftlichen Diskurs stellen. Data Encryption Standard (DES). 1976 gab es zwei wichtige Fortschritte. Erstens war dies der DES (Data Encryption Standard)-Algorithmus, entwickelt von IBM und der National Security Agency (NSA), um einen sicheren einheitlichen Standard für die behördenübergreifende Verschlüsselung zu schaffen (DES wurde 1977 unter dem Namen FIPS 46-2 (Federal Information Processing Standard) veröffentlicht). DES und sicherere Varianten davon (3DES) werden bis heute z. B. für Bankdienstleistungen eingesetzt. DES wurde 2001 durch den neuen FIPS-197-Standard AES ersetzt. Asymmetrische Kryptosysteme (Public-Key-Kryptographie). Der zweite und wichtigere Fortschritt war die Veröffentlichung des Artikels "New Directions in Cryptography" von Whitfield Diffie und Martin Hellman im Jahr 1976. Dieser Aufsatz stellte eine radikal neue Methode der Schlüsselverteilung vor und gab den Anstoß zur Entwicklung von asymmetrischen Kryptosystemen (Public-Key-Verfahren). Der Schlüsselaustausch war bis dato eines der fundamentalen Probleme der Kryptographie. Vor dieser Entdeckung waren die Schlüssel symmetrisch, und der Besitz eines Schlüssels erlaubte sowohl das Verschlüsseln als auch das Entschlüsseln einer Nachricht. Daher musste der Schlüssel zwischen den Kommunikationspartnern über einen sicheren Weg ausgetauscht werden, wie beispielsweise durch einen vertrauenswürdigen Kurier oder beim direkten Treffen der Kommunikationspartner. Diese Situation wurde schnell unüberschaubar, wenn die Anzahl der beteiligten Personen anstieg. Auch wurde ein jeweils neuer Schlüssel für jeden Kommunikationspartner benötigt, wenn die anderen Teilnehmer nicht in der Lage sein sollten, die Nachrichten zu entschlüsseln. Ein solches Verfahren wird als symmetrisch oder auch als ein Geheimschlüssel-Verfahren (Secret-Key) oder Geteiltschlüssel-Verfahren (Shared-Secret) bezeichnet. Bei einem asymmetrischen Kryptosystem wird ein Paar zusammenpassender Schlüssel eingesetzt. Der eine ist ein öffentlicher Schlüssel, der – im Falle eines Verschlüsselungsverfahrens – zum Verschlüsseln von Nachrichten für den Schlüsselinhaber benutzt wird. Der andere ist ein privater Schlüssel, der vom Schlüsselinhaber geheim gehalten werden muss und zur Entschlüsselung eingesetzt wird. Ein solches System wird als asymmetrisch bezeichnet, da für Ver- und Entschlüsselung unterschiedliche Schlüssel verwendet werden. Mit dieser Methode wird nur ein einziges Schlüsselpaar für jeden Teilnehmer benötigt, da der Besitz des öffentlichen Schlüssels die Sicherheit des privaten Schlüssels nicht aufs Spiel setzt. Ein solches System kann auch zur Erstellung einer digitalen Signatur genutzt werden. Die digitale Signatur wird aus den zu signierenden Daten oder ihrem Hashwert und dem privaten Schlüssel berechnet. Die Korrektheit der Signatur – und damit die Integrität und Authentizität der Daten – kann durch entsprechende Operationen mit dem öffentlichen Schlüssel überprüft werden. Public-Key-Verfahren können auch zur Authentifizierung in einer interaktiven Kommunikation verwendet werden. Am 17. Dezember 1997 veröffentlichte das britische GCHQ (Government Communications Headquarter in Cheltenham) ein Dokument, in welchem sie angaben, dass sie bereits vor der Veröffentlichung des Artikels von Diffie und Hellman ein Public-Key-Verfahren gefunden hätten. Verschiedene als geheim eingestufte Dokumente wurden in den 1960ern und 1970ern u. a. von James H. Ellis, Clifford Cocks und Malcolm Williamson geschrieben, die zu Entwürfen ähnlich denen von RSA und Diffie-Hellman führten. Homomorphe Verschlüsselung. Ein homomorphes Verschlüsselungsverfahren erlaubt es, Berechnungen auf verschlüsselten Daten durchzuführen. Dem Kryptologen Craig Gentry gelang es 2009 nachzuweisen, dass ein Verschlüsselungsverfahren existiert, das beliebige Berechnungen auf verschlüsselten Daten zulässt. Eine homomorphe Verschlüsselung spielt eine wichtige Rolle beim Cloud-Computing. Um Datenmissbrauch bei der Verarbeitung sensibler Daten zu vermeiden, ist es wünschenswert, dass der Dienstleister nur auf den verschlüsselten Daten rechnet und die Klartexte nie zu Gesicht bekommt. Kryptographie und Mathematik. Die Sicherheit der meisten asymmetrischen Kryptosysteme beruht auf der Schwierigkeit von Problemen, die in der algorithmischen Zahlentheorie untersucht werden. Die bekanntesten dieser Probleme sind die Primfaktorzerlegung und das Finden diskreter Logarithmen. Faktorisierung. Die Sicherheit der faktorisierungsbasierten Public-Key-Kryptographie liegt in der Verwendung eines Produkts aus großen Primzahlen, welches als öffentlicher Schlüssel dient. Der private Schlüssel besteht aus den dazugehörenden Primfaktoren bzw. davon abgeleiteten Werten. Die Zerlegung einer hinreichend großen Zahl gilt aufgrund der sehr aufwendigen Faktorisierung als nicht praktikabel. Anschaulich gesprochen ist es trotz ausgefeilter Faktorisierungsverfahren schwierig, die Teiler einer Zahl, z. B. der Zahl 805963, zu finden. Die Schwierigkeit ist dabei relativ zur Länge der Zahl, was bei genügend großen Zahlen dazu führt, dass die Faktorisierung auch auf einem Supercomputer tausende Jahre dauern würde. In der Praxis werden daher Zahlen mit mehreren hundert Dezimalstellen verwendet. Für die Multiplikation großer Zahlen existieren hingegen effiziente Algorithmen; es ist also leicht, zu zwei Faktoren (919 und 877) das Produkt (805963) zu berechnen. Diese Asymmetrie im Aufwand von Multiplikation und Faktorisierung macht man sich in bei faktorisierungsbasierten Public-Key-Verfahren zu Nutze. Kryptographisch sichere Verfahren sind dann solche, für die es keine bessere Methode zum Brechen der Sicherheit als das Faktorisieren einer großen Zahl gibt, insbesondere kann der private nicht aus dem öffentlichen Schlüssel errechnet werden. Weitere Anwendungen der Zahlentheorie. Außer dem Faktorisierungsproblem finden sowohl das Problem des Diskreten Logarithmus (Elgamal-Kryptosystem) als auch fortgeschrittene Methoden der algebraischen Zahlentheorie, wie etwa die Verschlüsselung über elliptische Kurven (ECC) breite Anwendung. Ein weiteres Anwendungsgebiet ist die Codierungstheorie, die sich in ihrer modernen Form auf die Theorie der algebraischen Funktionenkörper stützt. Zukünftige Entwicklungen. Die derzeit wichtigsten Public-Key-Verfahren (RSA, Verfahren, die auf dem Diskreten Logarithmus in endlichen Körpern beruhen (z. B. DSA oder Diffie-Hellman)), und Elliptic Curve Cryptography könnten theoretisch durch so genannte Quantencomputer in Polynomialzeit gebrochen werden und somit ihre Sicherheit verlieren. Kryptographie und Gesellschaft. In Zeiten des Internets wurde der Ruf auch nach privater Verschlüsselung laut. Bislang waren es Regierungen und globale Großunternehmen, die die RSA-Verschlüsselung aufgrund notwendiger, leistungsstarker Computer einsetzen konnten. Der amerikanische Physiker Phil Zimmermann entwickelte daraufhin eine RSA-Verschlüsselung für die breite Öffentlichkeit, die er Pretty Good Privacy (PGP) nannte und im Juni 1991 im Usenet veröffentlichte. Neu bei diesem Verfahren war die Möglichkeit, eine E-Mail mit einer digitalen Unterschrift zu unterzeichnen, die den Urheber der Nachricht eindeutig ausweist. Kryptographie und Recht. Da es moderne, computergestützte Verfahren jedem möglich machen, Informationen sicher zu verschlüsseln, besteht seitens der Regierungen ein Bedürfnis, diese Informationen entschlüsseln zu können. Die US-Regierung prüfte im Jahr 1996, ob ein Verfahren gegen den Erfinder von PGP, Phil Zimmermann, eingeleitet werden könne. Sie stellte das Verfahren jedoch nach öffentlichen Protesten ein. In den USA unterliegt Kryptographie, wie auch in vielen anderen Ländern, einem Exportbeschränkungsgesetz. In den USA regelt der "Arms Export Control Act" und die "International Traffic in Arms Regulations" den Export von Kryptographietechniken. Grundsätzlich ist die Entschlüsselung nur mit dem Besitz des privaten Schlüssels möglich. In Frankreich gab es von 1990 bis 1996 ein Gesetz, das zum Deponieren dieses Schlüssels bei einer „vertrauenswürdigen Behörde“ verpflichtete. Damit verbunden war ein Verbot anderer Verfahren und Schlüssel. Einem Journalisten, der dies praktizieren wollte, ist es allerdings nicht gelungen, eine dafür zuständige Behörde zu finden. Auch in Deutschland und in der EU gibt es seit Jahren Debatten über gesetzliche Kontrolle der Kryptographie. Ein Verbot der Kryptographie ist nicht praktikabel, da die Algorithmen bekannt sind und jeder mit den notwendigen Programmierkenntnissen ein entsprechendes Programm selbst schreiben könnte. Web-Anwendungen wie z. B. elektronisches Banking oder Shopping sind ohne Kryptographie nicht denkbar. In den meisten Ländern unterliegen Produkte, die eine sichere Verschlüsselung implementieren, der Exportbeschränkung. Kryptologie. a>, zur Erinnerung an die polnischen Kryptologen und ihren Beitrag zum Sieg der Alliierten Die Kryptologie (gr. "kryptós" „versteckt, verborgen, geheim“ und -logie) ist eine Wissenschaft, die sich mit Informationssicherheit beschäftigt. Bis ins späte 20. Jahrhundert waren Verschlüsselungsverfahren der einzige Beschäftigungsgegenstand. Mit der Etablierung des elektronischen Datenverkehrs kamen weitere Bereiche hinzu. Dazu zählen digitale Signaturen, Identifikationsprotokolle, kryptografische Hashfunktionen, Geheimnisteilung, elektronische Wahlverfahren und elektronisches Geld. Heute ist die Kryptologie in die Fachgebiete Symmetrische Kryptographie, Public-Key-Kryptographie, Hardwarekryptographie und Theoretische Kryptologie unterteilt. Das Adjektiv kryptisch wird in der Standardsprache im Sinne von "„unklar oder uneindeutig in der Ausdrucksweise und daher schwer zu verstehen“" verwendet. Die Kryptologie lässt sich auch in die beiden Gebiete "Kryptographie" (auch: "Kryptografie"), i. w. S. die Verschlüsselung von Informationen, und "Kryptoanalyse" (modernere Schreibweise auch: "Kryptanalyse"), i. w. S. die Informationsgewinnung aus verschlüsselten Texten, unterteilen. Diese Einteilung entwickelte der russisch-amerikanische Kryptologe William Friedman Ende des Ersten Weltkrieges. Von ihm stammen sowohl die Begriffsdefinitionen wie auch die Abgrenzung untereinander. Dem folgend beschäftigt sich die Kryptographie mit der Entwicklung und Anwendung der einzelnen Verfahren und die Kryptoanalyse mit deren Stärken und Schwächen. Anders formuliert, befasst sich die Kryptographie mit der Sicherheit der eigenen geheimen Kommunikation insbesondere gegen unbefugte Entzifferung oder Veränderung, während die Kryptoanalyse, quasi als Gegenspielerin der Kryptographie, das Brechen der Sicherheit der Kommunikation zum Ziel hat. Kryptographie und Kryptoanalyse werden daher auch als defensive und offensive Kryptologie bezeichnet. Der damit verbundenen Beschränkung des Begriffs Kryptographie wird allerdings nicht immer Rechnung getragen. Vielmehr werden die Begriffe Kryptologie und Kryptographie zuweilen gleichberechtigt verwendet. Kerckhoffs’ Prinzip. Ein wichtiger Grundsatz der modernen Kryptographie ist Kerckhoffs’ Prinzip. Demnach darf die Sicherheit eines Kryptosystems nicht von der Geheimhaltung des Algorithmus abhängen. Die Sicherheit gründet sich auf die Geheimhaltung frei wählbarer Eingangsgrößen des Algorithmus. Dies sind bei Verschlüsselungsverfahren beispielsweise die geheimen Schlüssel. Kurzer historischer Überblick. Die Kryptologie als Wissenschaft existiert erst seit den 1970er Jahren, als Ralph Merkle, Whitfield Diffie und Martin Hellman die ersten Forschungsarbeiten zur Public-Key-Kryptographie veröffentlichten und damit die Kryptologie als Wissenschaft begründeten. Zuvor wurden Ergebnisse zur Kryptographie und Kryptoanalyse von Regierungen und Militärorganisationen unter Verschluss gehalten. Seit 1982 existiert mit der "International Association for Cryptologic Research (IACR)" ein wissenschaftlicher Fachverband für Kryptologie. Die IACR organisiert kryptologische Konferenzen, gibt die renommierte Fachzeitschrift Journal of Cryptology heraus und betreibt u.a. ein elektronisches Archiv für wissenschaftliche Arbeiten aus dem Bereich der Kryptologie. Karl Popper. Sir Karl Raimund Popper CH FBA FRS (* 28. Juli 1902 in Wien; † 17. September 1994 in London) war ein österreichisch-britischer Philosoph, der mit seinen Arbeiten zur Erkenntnis- und Wissenschaftstheorie, zur Sozial- und Geschichtsphilosophie sowie zur politischen Philosophie den kritischen Rationalismus begründete. Überblick. Popper ist bekannt für seine Angriffe gegen die klassische positivistisch-induktivistische Sicht, der zufolge die wissenschaftliche Methode durch Verallgemeinerungsschlüsse von Beobachtungen auf wissenschaftliche Theorien gekennzeichnet ist. Er lehnte sie zugunsten eines empirischen Falsifikationsprinzips ab, wonach wissenschaftliche Theorien lediglich unsichere Spekulationen sind, die die empirische Wissenschaft durch Suche nach widersprechenden Beobachtungen umzustoßen versucht. Popper ist außerdem bekannt als Gegner des klassischen Ansatzes in der Erkenntnistheorie, dem zufolge eine Annahme auf dem Fundament einer Begründung stehen muss, damit sie vernünftig ist. Popper ersetzte ihn durch die „erste "nicht begründungsorientierte Philosophie der Kritik" in der Geschichte der Philosophie“: Nicht mehr die Feststellung, dass einer Behauptung die Begründung fehlt, soll genügen, damit sie verworfen werden darf, sondern es muss ein logischer Widerspruch zu den Tatsachen vorliegen. Im Bereich der politischen Philosophie ist Popper bekannt für seine Theorie der offenen Gesellschaft, in der er den Historizismus kritisierte und die Demokratie verteidigte. Kindheit und Ausbildung. Karl Popper wurde am 28. Juli 1902 als Sohn von Rechtsanwalt "Simon Siegmund Carl Popper" und "Jenny Popper", geborene "Schiff", in Wien geboren. Seine Eltern waren zum Protestantismus konvertierte assimilierte Juden. Simon Siegmund stammte aus Prag, dessen Vater aus Kolín, dem Geburtsort von Josef Popper-Lynkeus. Die Vorfahren seiner Mutter kamen aus Schlesien und Ungarn. Der Familie Schiff entstammten viele bedeutende Persönlichkeiten des 19. und 20. Jahrhunderts: Wissenschaftler, Ärzte und Musiker (so z. B. der Dirigent Bruno Walter). Popper wuchs in einem Elternhaus auf, in dem Bücher und Musik eine wichtige Rolle spielten. Bereits als Kind interessierten ihn philosophische Fragestellungen. Als Popper zwölf Jahre alt war, begann der Erste Weltkrieg. Die Situation der Juden zu dieser Zeit in Wien war schwierig. Zum einen nahmen sie wichtige Positionen ein; Poppers wohlhabender Vater hatte beispielsweise eng mit dem 1898 verstorbenen liberalen Bürgermeister der Stadt Raimund Grübl zusammengearbeitet. Zum anderen waren völkisch-antisemitische Vorurteile und Diskriminierungen alltäglich. 1918 verließ der 16-jährige Popper vorzeitig die Mittelschule und wurde Gasthörer an der Universität Wien. Er besuchte Vorlesungen in Mathematik, Geschichte, Psychologie, Theoretischer Physik und Philosophie. Er legte seine Matura als Externist erst im zweiten Anlauf ab. Im Jahr zuvor war er an den Fächern Latein und Logik gescheitert. Von 1920 bis 1922 war Popper Schüler am Wiener Konservatorium, Abteilung Kirchenmusik, ließ jedoch den Plan, Musiker zu werden, bald wieder fallen. In dieser Zeit verdiente er seinen Lebensunterhalt als Hilfsarbeiter. Parallel zur Lehrerausbildung schloss er 1924 eine Tischlerlehre mit dem Gesellenbrief ab. Im Entschluss, eine Tischlerausbildung zu beginnen, war er von seinen sozialistischen Freunden beeinflusst worden, die sehr politisch waren und sich als zukünftige Führer der Arbeiterklasse sahen. Studium und Beruf. Als Popper Anfang der 1920er Jahre sein Studium begann, dominierte in Wien die politische Linke. Das so genannte "Rote Wien" (1918–1934) erlebte seine Blüte. Popper engagierte sich dort – zunächst vor allem an pädagogischen Fragen interessiert – auch in der sozialistischen Jugendbewegung und in der Wiener Schulreformbewegung. Gleichzeitig arbeitete er an Alfred Adlers individualpsychologischen Erziehungsberatungsstellen in den Wiener Arbeitervierteln. Für kurze Zeit trat er sogar in die Kommunistische Partei ein und erlebte dabei die Schießerei in der Hörlgasse, bei der acht Kommunisten von der Polizei erschossen wurden, als sie unbewaffnet versuchten, gefangene Parteigenossen zu befreien. Er erfuhr, dass die Aktion in Wirklichkeit Teil eines Plans von Kadern mit Verbindungen zu Béla Kun war, die über einen Staatsstreich selbst an die Macht gelangen wollten. Aufgrund der marxistischen Doktrin, dass Klassenkämpfe noch viel mehr Tote verursachen würden, wenn man die Revolution nicht schnell herbeiführe, hatten sie keine Bedenken, das Leben der Teilnehmer an der Befreiungsaktion aufs Spiel zu setzen. Popper sah sich durch die Kader getäuscht und wandte sich vom Marxismus wieder ab. In der damals einzigartigen Wiener Atmosphäre begegnete er Menschen wie Ruth Fischer, Hanns Eisler, Paul Felix Lazarsfeld, Oskar Kokoschka, Adolf Loos, Arnold Schönberg und Rudolf Serkin. Popper bestand 1924 die Prüfung an der Lehrerbildungsanstalt. Weil jedoch keine Lehrerstelle frei war, arbeitete er als Erzieher in einem Hort für sozial gefährdete Kinder. 1925 wurde er Student am Pädagogischen Institut. Aus dieser Zeit stammen seine ersten Veröffentlichungen. Sie befassten sich mit pädagogischen Themen und erschienen in "Die Quelle" und "Schulreform". 1928 promovierte Popper beim Psychologen und Sprachtheoretiker Karl Bühler mit der Dissertation „Die Methodenfrage der Denkpsychologie“. Durch das Studium bei Bühler lernte Popper die Psychologie von Oswald Külpe und der „Würzburger Schule“ kennen. William W. Bartley behauptete, dass sich das auch auf seine pädagogischen Überzeugungen und später auf seine Erkenntnistheorie entscheidend ausgewirkt habe. Popper selbst widersprach jedoch diesen Behauptungen. 1929 erwarb er die Lehrberechtigung für die Hauptschule in den Fächern Mathematik und Physik. 1930 erhielt Popper eine Anstellung als Hauptschullehrer in Wien, die er bis 1935 innehatte. Ebenfalls in diesem Jahr heiratete er seine Kollegin Josefine Anna Henninger (1906–1985). 1930–1935 wohnte Popper mit seiner Frau im 13. Wiener Gemeindebezirk an der Adresse Anton-Langer-Gasse 46 im Bezirksteil Speising; am Haus befindet sich eine Gedenktafel. Der Wiener Kreis. Dass Karl Popper begann, seine philosophischen Gedanken niederzuschreiben, war vor allem seinen Kontakten mit dem "Wiener Kreis" zu verdanken, dem Kreis um Moritz Schlick, Rudolf Carnap und Otto Neurath. Vor allem Schlick distanzierte sich von Popper, der seine neopositivistische Position kritisiert hatte, und warf ihm unbeherrschtes Auftreten vor. In Poppers mündlicher Doktorprüfung (Rigorosum) 1928 war Schlick Beisitzer, wobei es zum Streit kam, da Popper nach Schlicks Auffassung überzogene Kritik an dem von Schlick geschätzten Ludwig Wittgenstein übte; dieser wolle „wie die katholische Kirche die Diskussion sämtlicher Fragen verbieten, auf die er keine Antwort wisse“. Popper erhielt daher keine Einladungen zu den Sitzungen des Kreises. Herbert Feigl regte ihn an, zu schreiben, womit Popper nach einigem Zögern begann. Drei Jahre schrieb er an einem über 1000-seitigen Manuskript, das heute nur teilweise erhalten ist, die erhaltenen Teile erschienen 1934 als erheblich gekürzte Fassung unter dem Titel „Logik der Forschung“ und erst 1979 unter dem Titel "Die beiden Grundprobleme der Erkenntnistheorie". Während dieser Zeit lernte er Werner Heisenberg und Alfred Tarski kennen. Sein wissenschaftstheoretisches Hauptwerk „"Logik der Forschung"“ erschien schließlich in einer Schriftenreihe des Wiener Kreises, obwohl Popper darin deren Positivismus kritisierte. Diese großzügige Möglichkeit der Veröffentlichung brachte ihm fälschlich den Ruf eines Positivisten ein. Seine Abhandlung wurde von den Angehörigen des Wiener Kreises als ein ihren Diskussionen entsprungenes Werk gewürdigt. Emigration nach Neuseeland und England. Von 1935 bis 1936 reiste Popper für einige Monate nach England, wo er Erwin Schrödinger, Bertrand Russell und Ernst Gombrich begegnete. Er führte intensive Gespräche mit Schrödinger und lernte Friedrich August von Hayek kennen. Auf dem Zweiten Internationalen Kongress für die Einheit der Wissenschaft (im Juni 1936 in Kopenhagen) war er tief beeindruckt von Niels Bohr, obwohl er selbst eine andere Interpretation der Quantenmechanik vertrat. Vor allem die Gespräche mit Alfred Tarski brachten Popper zu der Einsicht, wie er die Korrespondenztheorie der Wahrheit ohne Probleme vertreten konnte. Die politische Lage in Österreich wurde zusehends angespannter und Popper sah den „Anschluss“ Österreichs an das nationalsozialistische Deutschland kommen. In dieser Situation nahm er das Angebot einer Dozentur an der University of Canterbury in Christchurch (Neuseeland) an. 1937 kündigten Popper und seine Ehefrau ihre Lehrerstellen und gingen ins Exil. Popper musste seine Familie, die damals kranke Mutter, seine Schwester, Onkel, Tanten und Nichten zurücklassen. Sechzehn Familienangehörige wurden in der Zeit des Nationalsozialismus im Holocaust ermordet. Popper wurde Dozent an der Universität Christchurch. Obwohl das College seine Forschungsarbeit nicht förderte und verlangte, dass sich die Dozenten ganz der Lehre widmen sollten, entstanden dort "The Poverty of Historicism" ("Das Elend des Historizismus") sowie das Werk, das ihn als politischen Denker berühmt machte, "The Open Society and Its Enemies" ("Die offene Gesellschaft und ihre Feinde"). In zwei Bänden analysierte Popper ausführlich die totalitären Tendenzen in den Schriften von Platon, Marx und Hegel. Darüber hinaus beschäftigte er sich mit der Wahrscheinlichkeitstheorie. Im Winter 1944/45 erhielt Popper – vor allem durch Unterstützung von Friedrich von Hayek – das Angebot, an der London School of Economics and Political Science zu lehren, welches er annahm. Anfang Januar 1946 traf das Ehepaar in London ein, wo Popper seine Lehrtätigkeit als außerordentlicher Professor aufnahm. 1949 wurde er parallel Professor für „Logik und wissenschaftliche Methodenlehre“ an der Universität London. Wegen der mitunter anmaßenden und aggressiven Art, mit der er seine Standpunkte vertrat, erwarb er sich dort schnell den Spitznamen „totalitärer Liberaler“. 1961 hielt Popper in Tübingen den Eröffnungsvortrag auf einer Tagung, deren Thema die Logik der Sozialwissenschaften war. Theodor W. Adorno hielt das Korreferat. Die Debatte wurde anschließend vor allem in der Kölner Zeitschrift für Soziologie und Sozialpsychologie fortgesetzt und war der Beginn des so genannten „Positivismusstreits“. Innerhalb der deutschen Studentenbewegung galt Popper, der sein wissenschaftstheoretisches Hauptwerk „Logik der Forschung“ explizit gegen den Positivismus geschrieben hatte, als „Erz-Positivist“. Die eigentliche Kontroverse zwischen der kritisch-rationalistischen Position Poppers und dem Standpunkt der Dialektik wurde hauptsächlich von Hans Albert und Jürgen Habermas geführt; Popper zeigte sich daran weitgehend desinteressiert und schrieb 1970 in einem Brief an Albert, er könne „diese Leute einfach nicht ernstnehmen“. Emeritierung. 1965 wurde Popper von Königin Elisabeth II. für sein Lebenswerk als "Knight Bachelor" zum Ritter geschlagen. 1969 wurde er emeritiert, er publizierte aber stetig weiter. Er war Mitglied der von Hayek gegründeten liberalen Denkfabrik Mont Pelerin Society und der Royal Society (London). Befreundet war er u. a. mit dem deutschen Bundeskanzler Helmut Schmidt. Durch Königin Elisabeth II. wurde er schließlich noch in den "Order of the Companions of Honour" (CH) aufgenommen. 1973 wurde ihm der Sonning-Preis der Universität Kopenhagen verliehen, 1993 erhielt Popper die Otto-Hahn-Friedensmedaille in Gold der Deutschen Gesellschaft für die Vereinten Nationen (DGVN) in Berlin. Das Council for Secular Humanism verlieh ihm den Humanist Laureate Award. Popper äußerte sich nur selten über Religion. Über seine Sichtweisen ist jedoch das sogenannte „verlorene Interview“ von 1969 bekannt. Demnach beschrieb er sich selbst als Agnostiker und lehnte für sich den seiner Ansicht nach arroganten Atheismus ebenso ab wie den jüdischen und den christlichen Glauben. Er äußerte jedoch Respekt vor den moralischen Lehren beider Religionen. Paul Feyerabend bezeichnete ihn als „Nachzügler der Aufklärung“. Josefine Anna Popper starb 1985 und wurde in Wien auf dem Lainzer Friedhof im 13. Bezirk in einem 1936 angelegten Grab ihrer Familie bestattet (Gruppe 2, Nr. 7). Karl Popper starb am 17. September 1994 in East Croydon, London, nachdem er zwei Wochen zuvor schwer erkrankt war. Bis zu diesem Zeitpunkt hatte er noch an seinem Werk geschrieben. Poppers Leichnam wurde eingeäschert, seine Urne nach Wien gebracht und am 28. Oktober 1994 im Grab seiner Frau beigesetzt. Das Grab wurde von der Stadtverwaltung zum Ehrengrab erklärt und besteht auf Friedhofsdauer. 1998 erhielt das erste Projekt für Begabtenförderung in Österreich, die Sir-Karl-Popper-Schule, die Poppers Ideen zu einer besseren Schule umzusetzen sucht, seine Zustimmung dazu, seinen Namen zu tragen. Außerdem trägt die Karl-Popper-Sammlung der Universitätsbibliothek Klagenfurt seinen Namen. Im Jahr 2010 wurde in Wien Favoriten (10. Bezirk) die "Karl-Popper-Straße" beim neuen Hauptbahnhof nach ihm benannt; sie befindet sich in unmittelbarer Nähe von nach Elias Canetti, Kurt Gödel und Alfred Adler neu benannten Verkehrsflächen. Werk. Das Werk Poppers lässt sich grob in zwei Phasen unterteilen: Die erste, die von der Beschäftigung mit den Methoden empirischer Wissenschaft geprägt war; und die zweite, in der er sich mit metaphysischen Fragestellungen auseinandersetzte. Die Grenze zwischen beiden lässt sich nach Ansicht von William Warren Bartley ziemlich genau auf den 15. November 1960 festlegen. Popper selbst hat sich jedoch immer vehement gegen eine hermeneutische Interpretation dieser Phasen gestellt. Er sieht die Grundzüge seines Denkens als 1919 aufgestellt und von da ab durchgängig einheitlich und ohne Strukturbrüche, mit lediglich Schwerpunktverlagerungen und gelegentlichen Klarstellungen. Die Grundauffassung von Poppers Philosophie ist die Ablehnung der Redensart „von nichts kommt nichts“ und die Einsicht, dass ein System seine eigene Existenz nicht garantieren, sie aber selbst beenden kann. Wissenschaftstheorie. Popper legte seine Ansichten zur Wissenschaftstheorie umfassend in seinem Werk "Logik der Forschung" dar, das 1934 zuerst auf Deutsch erschien und in nachfolgenden englischen und deutschen Ausgaben stetig erweitert und verbessert wurde (wenige Monate vor seinem Tod 1994 fügte Popper noch einen neuen Anhang hinzu). Später führte er sie weiter aus in "Die beiden Grundprobleme der Erkenntnistheorie" (das parallel zur "Logik der Forschung" geschrieben, aber erst 1978 veröffentlicht wurde), "Die Quantentheorie und das Schisma der Physik" und "Objektive Erkenntnis. Ein evolutionärer Entwurf". In "Vermutungen und Widerlegungen" (englisch "Conjectures and Refutations") wandte er die Methode, wie im Titel angedeutet, auch praktisch an. Hier beschrieb er auch, wie er seine Abgrenzungsüberlegungen seit den 1920er Jahren entwickelt hatte, als er zunächst „Pseudowissenschaft“ von „Wissenschaft“ unterscheiden wollte. Als Beispiele für Pseudowissenschaften nannte er u. a. die Psychoanalyse und den Marxismus, als Beispiel für Wissenschaft Einsteins Relativitätstheorie. In der "Logik der Forschung" kritisiert Popper die Sicht des logischen Positivismus, der für die Naturwissenschaften die empiristische Methode vertrat. Diese Methode postuliert das systematische Sammeln von Fakten, die in logischen Protokollsätzen formuliert werden. Mittels Induktion wird dann auf allgemeingültige Naturgesetze geschlossen, entweder mit dem Anspruch auf Sicherheit, oder zumindest auf eine hohe Wahrscheinlichkeit. Diese Ansichten hätten von Aristoteles und Francis Bacon ausgehend die meisten Wissenschaftstheoretiker vertreten. Popper unterstrich demgegenüber noch einmal die Überlegung David Humes, dass man aus formallogischen Gründen aus Einzelfällen kein allgemeines Gesetz ableiten (Induktionsproblem), sondern nur allgemeine Sätze widerlegen kann („"Man kann nicht mehr wissen, als man weiß"“). Auch alle Versuche, aus Einzelfällen wenigstens quantifizierbare Wahrscheinlichkeiten von Theorien abzuleiten, hält er für verfehlt und liefert mathematische und philosophische Argumente, um die logische Unhaltbarkeit von Sätzen wie „Theorie A ist mit 80%iger Wahrscheinlichkeit wahr“ deutlich zu machen. Popper schlägt stattdessen vor, dass Theorien (abstrakt betrachtet) frei erfunden werden dürfen. Im Nachhinein werden dann Experimente angestellt, deren Ausgang als Basissätze konventionell festgelegt werden. (Popper selbst verwendet sogar das Wort „willkürlich“, um zu verdeutlichen, dass diese Basissätze selbst nicht rational zu rechtfertigen sind.) Durch diese Basissätze können dann die Theorien widerlegt (falsifiziert) werden, wenn die Folgerungen, die aus ihnen deduziert werden, sich im Experiment nicht bestätigen. In einem evolutionsartigen Selektionsprozess setzen sich so diejenigen Theorien durch, deren Widerlegung misslingt. Durch diese Umkehrung des klassischen Versuchs, Theorien zu beweisen, kommt Popper zu der auf den ersten Blick kontraintuitiven Forderung, Wissenschaftler sollten versuchen, ihre Theorien zu widerlegen bzw. mit entscheidenden Experimenten (experimentum crucis) Theorien auszusieben. Durch dieses Aussieben falscher Theorien kommt man, so Popper, der Wahrheit immer näher, ohne jedoch jemals den Anspruch auf Sicherheit oder auch nur Wahrscheinlichkeit erheben zu können. Er betonte zwar auch die Notwendigkeit der Kreativität beim Aufstellen einer Theorie; wichtig für den Fortschritt sei allerdings vor allem die kritische Überprüfung, die auf lange Sicht nur von den wahrheitsnächsten Theorien bestanden wird. So schreitet z. B. auch die Trainingswissenschaft fort, indem sowohl Einzelfallbeispiele verallgemeinert als auch systematisch induktiv vorgegangen wird. Die Verifikation/Falsifikation von Trainingstheorien findet dann aber immer wieder im Wettkampf statt. Allerdings fordert er für Theorien Widerspruchsfreiheit als "oberste axiomatische Grundforderung", die jedes theoretische System – empirisch oder nicht – erfüllen muss, und stellt fest, „Die Objektivität der wissenschaftlichen Sätze liegt darin, daß sie intersubjektiv nachprüfbar sein müssen“, also falsifizierbar. Popper betont, dass die Annahme, dass die Welt gesetzhaft strukturiert ist bzw. dass es Naturgesetze gibt, im Aufstellen wissenschaftlicher Theorien enthalten ist – natürlich wie diese Theorien selbst als Vermutung, da es ja nicht auszuschließen ist, dass alle Theorien scheitern. Metaphysische Fragen wie z. B., ob es überhaupt eine reale Außenwelt gibt, auf die sich die Naturwissenschaft mit ihren Theorien und Basissätzen bezieht, ließ er anfänglich bewusst offen. Er betonte, dass sein Ansatz allein methodologischer Art sei und keineswegs metaphysische Annahmen voraussetzen müsse. Jedoch distanzierte er sich schon in der "Logik der Forschung" entschieden von der positivistischen Position, dass derartige Fragen überhaupt nicht sinnvoll formulierbar seien, und wies die entsprechenden Versuche zurück, ein empiristisches Sinnkriterium zu formulieren. Vor allem in diesem Punkt sah sich Popper im Gegensatz zu den Neopositivisten des Wiener Kreises und insbesondere den Lehren von Ludwig Wittgenstein, mit dem Popper nur ein einziges Mal zusammentraf, 1946 in Cambridge, wo es zu einem heftigen Zusammenstoß kam (auch wenn schon Popper selbst die Legende, dass Wittgenstein ihn dort mit einem Schürhaken bedroht haben soll, in seiner Autobiographie als grobes Missverständnis aufgrund einer scherzhaften Bemerkung bezeichnet). Statt nach einem Sinnkriterium sei nach einem "Abgrenzungskriterium" zwischen empirischer Wissenschaft und Metaphysik zu suchen, das er mit der prinzipiellen Falsifizierbarkeit auch gefunden zu haben glaubte: „Ein empirisch-wissenschaftliches System muss an der Erfahrung scheitern können.“ Freilich betonte er, dass metaphysische Gedankensysteme erkenntnis"genetisch" durchaus fruchtbar für die Wissenschaft gewesen seien, auch wenn sie selbst nicht empirisch prüfbar waren. Als Beispiel führt er den spekulativen Atomismus an, der zur Entwicklung der empirisch-wissenschaftlichen Atomtheorie geführt habe. Später gelangte er zu der Auffassung, dass auch Metaphysik rational diskutierbar sei, und bekannte sich unter anderem zu einem ontologischen Außenwelt-Realismus, auch wenn er eingestand, dass die Gegenposition (also der Idealismus) nicht streng widerlegbar ist. Auch ein starker „"Indeterminismus"“ ist einer der wichtigsten Bestandteile von Poppers späterer metaphysisch ergänzter Weltsicht. Er sah sich hierin vor allem von der Quantenmechanik bestätigt. Metaphorisch behauptete er, bisher habe man sich auch Wolken wie sehr komplexe Uhrwerke vorgestellt; tatsächlich seien aber eher Uhrwerke nur scheinbar sehr geordnete Wolken. Diesen Indeterminismus übertrug er auch auf gesellschaftliche Zustände ("Die Zukunft ist offen"). Gesellschaftstheorie. Platon, G. W. F. Hegel und Karl Marx (v.l.n.r.) Poppers in der Öffentlichkeit bekanntestes Werk ist das in alle Weltsprachen (und laut Popper leider schlecht ins Deutsche) übersetzte „"The Open Society and Its Enemies"“ (deutsch „"Die offene Gesellschaft und ihre Feinde"“) von 1945. Darin rechnet er detailliert mit den Gedankensystemen von Platon, Hegel und Marx ab, die seiner Meinung nach totalitäre Systeme theoretisch begründet und praktisch befördert haben. Als positives Gegenbild zu diesen „"geschlossenen Gesellschaften"“ entwirft er eine „"Offene Gesellschaft"“, die nicht am Reißbrett geplant, sondern sich pluralistisch in einem fortwährenden Prozess von Verbesserungsversuchen und Irrtumskorrekturen evolutionär fortentwickeln soll. Der Begriff "Offene Gesellschaft" ist in die politische Sprache eingegangen. Popper setzt sich insbesondere mit den Werken "Platons", des „größten, tiefsten und genialsten aller Philosophen“ und des „Gründers der bedeutendsten professionellen Schule der Philosophie“ auseinander. Dieser habe eine Auffassung vom menschlichen Leben vertreten, die „abstoßend und geradezu erschreckend“ gewesen sei. Seine Schwäche sei gewesen, dass er ganz im Gegensatz zu Sokrates an die „Theorie der Eliten“ glaubte. Insbesondere mit seinen Werken "Politeia" ("Der Staat") und "Nomoi" ("Die Gesetze") habe er das Grundmodell des totalitären Staates ausgearbeitet und propagiert. Damit habe er auch Verrat an seinem Lehrer Sokrates begangen, der, wie Popper darlegen will, in Platons „idealem Staat“ als Aufrührer hingerichtet worden wäre. Platons Ablehnung der attischen Demokratie und seine Bevorzugung eines autoritären Regimes sogenannter „Philosophenkönige“, die nichts mehr mit dem sokratischen Philosophen zu tun haben und explizit Lügenpropaganda verwenden dürfen, versucht Popper mit vielen Textstellen zu belegen. Platon sei damit der erste und wichtigste Theoretiker einer "geschlossenen Gesellschaft" gewesen, in der es keine gewaltlose Veränderung geben kann und Eliten diktatorisch herrschen. Popper sah in Platon „den ersten großen politischen Ideologen, der in Klassen und Rassen dachte und Konzentrationslager vorschlug.“ Auch sei Platon ein Propagandist der "Verfallstheorie der Gesellschaft", nach der die Gesellschaft sich ursprünglich in einem „guten“ (geschlossenen) Naturzustand befunden habe und jede Öffnung, Liberalisierung und Emanzipation bzw. kritische Infragestellung von Traditionen Zeichen von Dekadenz, Degeneration und Verfall seien. Diese Lehre („"Mythos von der Horde"“) sei ein wichtiger Bestandteil der Propaganda vieler Diktaturen und autoritär-konservatistischer Ideologien geworden; besonders deutlich sei der Einfluss z. B. in Oswald Spenglers „Der Untergang des Abendlandes“. Ferner schreibt Popper, Platon habe „die Mittelschulen und die Universitäten erfunden“, indem er das Grundprinzip des modernen „verheerenden“ Erziehungssystems erdachte. Ähnliche, aber weniger umfangreiche Kritik übt Popper an Aristoteles. Er gesteht zu, dass Platon und Aristoteles ein großes philosophisches Werk mit für ihre Zeit originellen und bedeutenden Gedanken geleistet hätten und für die abendländische Philosophie und Wissenschaft von überragender Bedeutung gewesen seien. Aber „große Philosophen begehen große Fehler“, und es sei notwendig, die totalitären und antihumanitären Tendenzen in ihren Werken zu identifizieren und zu kritisieren. Der zweite Teilband des Werkes gilt der Kritik der „"orakelnden Philosophen"“ des 19. Jahrhunderts, insbesondere Georg Wilhelm Friedrich Hegel und Karl Marx. In Hegel sieht Popper ebenso wie in den anderen Vertretern des Deutschen Idealismus in erster Linie einen Scharlatan und Betrüger, in zweiter Linie einen reaktionären Apologeten der preußischen Staatsmacht, dessen Philosophie ebenfalls totalitäre Systeme begünstigt habe. Den Vorwurf der Scharlatanerie erhebt Popper dabei v. a. mit Hinweis auf die dialektischen Methoden der Hegelschen Philosophie. Diese seien, soweit sie überhaupt verständlich seien, allein postuliert, um die Regeln der Logik auszuhebeln und besonders das autoritäre Preußen als höchste Verwirklichung der Freiheit glorifizieren zu können. Hegel sei ein offizieller Staatsphilosoph gewesen, der mit seinem Rechts- und Machtpositivismus („Was wirklich ist, ist vernünftig“) die bestehende Staatsmacht hofiert habe. Ein größerer Teil der Hegelschen Schriften sei – so Popper – zudem absichtlich unverständlich formuliert, um Kritik unmöglich zu machen. Mit diesem Versuch, durch unverständliche Sprache tatsächlich fehlende inhaltliche Substanz vorzutäuschen, habe Hegel in der Philosophiegeschichte eine neue Epoche eingeleitet, die nicht auf Gedankenaustausch und Argumentation, sondern auf Beeindruckung und Einschüchterung ausgerichtet gewesen sei. Dieser ‚Jargon‘ habe zunächst intellektuelle und dann auch moralische Verantwortungslosigkeit nach sich gezogen. Popper versucht auch Verbindungen dieses Denkens zu Zentralismus, Etatismus und Nationalismus und Faschismus aufzuzeigen. Die geistesgeschichtlichen Wurzeln des letzteren sieht er vor allem in einer Kombination hegelianischer Geschichtsphilosophie mit den neomalthusischen Biologismen des späten 19. Jahrhunderts, insbesondere denen Ernst Haeckels. Popper bringt das philosophische Fundament der faschistischen Ideologien des 20. Jahrhunderts auf die Formel „Hegel plus Haeckel“. Obwohl persönlich befreundet mit Konrad Lorenz, übte Popper später auch scharfe Kritik an zeitgenössischen gesellschaftstheoretischen Biologismen, insbesondere im Kontext der neueren Soziobiologie. In dieser erscheine im Grunde lediglich der alte Sozialdarwinismus im modernen Gewand. Der im zweiten Teilband der "Offenen Gesellschaft" ebenfalls ausführlich kritisierte Marx kommt etwas besser weg. Ihm zugute hält Popper ein ehrliches Mitgefühl mit den Leiden der sozial Schwachen und echtes Interesse an einer Verbesserung bzw. Humanisierung der Welt (in einer später (1965) hinzugefügten Anmerkung relativierte er diese Meinung allerdings unter Verweis auf Leopold Schwarzschilds Buch „Der rote Preuße“: Marx sei offenbar „weit weniger menschlich und freiheitsliebend gewesen“, als er angenommen habe). Popper bezeichnet Marx zudem als bedeutenden Ökonomen und Soziologen und räumt ein, dass Marx nicht ausgeschlossen habe, dass der Weg zum Kommunismus auch auf nicht-revolutionäre Weise erreichbar sei. Auch grenzt er ihn scharf von späteren vulgärmarxistischen Verflachungen, die meist mit „naiven“ intentionalistischen Verschwörungstheorien verbunden waren, ab. Vehement kritisiert er jedoch Marx’ von Hegel übernommene dialektische Methode sowie sein deterministisches Geschichtsbild, was letztlich ebenfalls zu einem geschlossenen Weltbild führe. Auch große Teile der marxistischen Kapitalismustheorie seien verfehlt. Die Veröffentlichung wirkte 1945 als politisches Signal. Sie greift geschlossene Denkstrukturen und Ideologiekonstruktionen an. Obwohl weder der Nationalsozialismus noch der stalinistische Sozialismus explizit genannt werden, wird deutlich, dass sich die Kritik gegen sie richtet. Popper entwirft das Modell einer offenen und pluralistischen Gesellschaft, in der sich Fortschritt langsam einstellt. Ein weiteres Werk aus diesem Themengebiet ist „Was ist Dialektik?“; in diesem kritisiert Popper die Marxsche und Hegelsche Dialektik mit den Begriffen der formalen Logik. Das 1957 erschienene "The Poverty of Historicism" (dt: "Das Elend des Historizismus") greift wieder vor allem Marx und Hegel aufgrund ihrer Methodik an. Im Historizismus, worunter Popper den Glauben versteht, die Geschichte verlaufe gesetzmäßig und Gesellschaften ließen sich planen, sieht Popper ein Grundübel der Gesellschaftstheorie. „Positivismusstreit“. Mit seiner Grundsatzdiskussion über die „"Logik der Sozialwissenschaften"“ auf der Tübinger Arbeitstagung 1961 entfachte Popper den sogenannten Positivismusstreit in der deutschen Soziologie. Ihm und Hans Albert, die ausgehend vom Kritischen Rationalismus die Einheit der Methode von Natur- und Sozialwissenschaften vertraten, wurde dort von den Dialektikern der Frankfurter Schule, Theodor W. Adorno und Jürgen Habermas, widersprochen und Positivismus attestiert. Einen Mittelweg suchte dabei Ralf Dahrendorf. Jede Theorie und jede wissenschaftliche Position sollte aber Poppers Ansicht nach so formuliert werden, dass eine Kritik so leicht wie möglich ist. Seine Kritik am „Obskurantismus“ ist aber nur ein Aspekt einer umfassenderen Kritik Poppers an dem von ihm so genannten „Professionalismus“. Er wandte sich gegen die „professionelle Ethik“, ein unausgesprochenes Gentlemen-Agreement, das vorschreibt, dass Universitätsprofessoren ihre Autorität gegenseitig beschützen sollten. Er setzte dem die Forderung intellektueller Bescheidenheit entgegen. Popper prägte in Anlehnung an Ockhams Rasiermesser den Begriff vom "liberalen Rasiermesser", selbst bezeichnete er sich als „nichtrevolutionären Liberalen“. „Drei-Welten-Theorie“. Popper argumentierte, dass alle drei Welten real seien, da kausale Wechselwirkungen beobachtet werden könnten, wobei Welt 2 als Mittler zwischen Welt 3 und Welt 1 auftritt. Ein Beispiel sei der Bauplan eines Hauses (Welt 3: ein Modell in einer Zeichnungssprache des Bauwesens), welcher von einem Menschen verstanden wird (Welt 2: Bewusstsein des Baumeisters) und dann in ein konkretes Haus umgesetzt wird (Welt 1: physikalisches Objekt). Das Haus gehört also gleichzeitig in Welt 1 und Welt 3. Popper zufolge hat die klassische duale Trennung den Unterschied zwischen einem Bewusstseins"erlebnis" und beispielsweise dem logischen "Gehalt" einer Theorie ignoriert. Beides werde dort undifferenziert dem Mentalen zugeordnet. Obwohl Popper die Welt 3 für ein Erzeugnis der Menschen hielt (im Gegensatz etwa zu Platons und Hegels Vorstellungen), glaubte er an eine Unabhängigkeit und Objektivität der Welt 3. Sein eigenes Beispiel ist die Erfindung der Zahlen und das darauf folgende „ungeplante“ Auffinden der Primzahlen, die schon existierten, bevor sich Menschen darüber Gedanken machten. Somit kommt den Primzahlen eine Existenz zu, die ohne den Menschen definiert ist, so wie "die Existenz des Mount Everest seiner Entdeckung vorausliegt". Eine ähnliche Trennung in drei Welten kann man im klassischen Griechenland als Logos, Psyche und Physis finden, bei den Römern als Ratio, Intellectus, und Materia, und nicht zuletzt bei Kant als Vernunft, Verstand und Außenwelt. Rezeption und Kritik. Obwohl Poppers kritischer Rationalismus schon früh viele Anhänger und Sympathisanten unter hochrangigen Wissenschaftlern fand (vor allem Physiker, darunter Albert Einstein, aber auch Nobelpreisträger anderer Fachrichtungen, nämlich Peter Brian Medawar, John Carew Eccles und Jacques Monod), konnte er sich weder in der Wissenschaftstheorie noch in der naturwissenschaftlichen Praxis entscheidend durchsetzen. In beiden Bereichen bestehen nach wie vor induktivistisch-empirizistische Bestätigungspositionen, heute gemeinhin mit bayesianistischen Wahrscheinlichkeitstheorien der Induktion verbunden, die allerdings häufig in der Terminologie Poppers umformuliert vertreten werden. Kritisiert wurden die Popperschen Ideen aber auch durch Philosophen, die den Empirismus und Induktivismus selbst ablehnten, insbesondere durch die Positionen von Thomas S. Kuhn. Kuhn zufolge hält Poppers Wissenschaftstheorie einer Prüfung durch die Wissenschaftsgeschichte nicht stand; Gegenbeispiele bzw. „Anomalien“ pflegten keineswegs den Widerruf der Theorie bzw. des Paradigmas zur Folge zu haben, sondern durch Hilfshypothesen integriert zu werden. Erst bei einer starken Häufung von Anomalien komme es zu einer „Krise“, die dann in eine „wissenschaftliche Revolution“ mit Ersatz des alten Paradigmas inklusive zentraler Begriffe münde. Genau in diesem Ansatz liegt Popper zufolge allerdings der Denkfehler; die Wissenschaftstheorie sei keine empirisch-wissenschaftliche Theorie (wie etwa Einsteins Relativitätstheorie) und könne daher nicht anhand des tatsächlichen Ablaufs der Wissenschaft geprüft werden, sondern liefere ihrerseits die Maßstäbe zur Beurteilung der Rationalität desselben. Wolfgang Stegmüller versuchte, die Position von Kuhn rationalistischer zu formulieren. Imre Lakatos bemühte sich, eine zwischen Popper und Kuhn vermittelnde Position zu entwickeln, die die Stärken beider Ansätze erhalten sollte. Paul Feyerabend hingegen ging noch weiter als Kuhn und zweifelte sogar den Nutzen eines Faches wie der Wissenschaftstheorie überhaupt an ("anything goes"). Auch auf dem Gebiet der Sozialwissenschaften waren die Popperschen Ideen umstritten (siehe Abschnitt Positivismusstreit). Es bildete sich zeitweise auch eine „Popper-Denkschule“ von Anhängern, die größtenteils aus Studenten Poppers bestand. Wissenschaftstheoretisch wurden Popper von David Stove und Martin Gardner, die empirizistische Positionen vertreten, postmoderner Irrationalismus und Totalskeptizismus vorgeworfen, von Anhängern Kuhns und Lakatos ein „naiver“ Falsifikationismus, in den Sozial- und Geisteswissenschaften dogmatisches Festhalten an der Priorität der Beobachtung. Die normativen Aspekte von Poppers Gesellschaftstheorie beurteilen Linke seit dem „Positivismusstreit“ vorwiegend als neoliberal, während Wirtschaftsliberale ihn als Sozialisten einstufen. Popper kann politisch zunächst als radikaler Sozialist, später als gemäßigter Sozialist und schließlich – vor allem unter Hayeks Einfluss – als gemäßigter Liberaler eingestuft werden. Trotz seiner Mitgliedschaft in der Mont-Pelerin-Society unterschied er sich nach Auffassung von Gebhard Kirchgässner jedoch entschieden von der "neoliberalen Marktideologie", die heute von dieser Gesellschaft vertreten werde. Zwischen Poppers Fallibilismus und der Österreichischen Schule der Ökonomie, wie sie u. a. von Hayek vertreten wurde, gibt es grundlegende methodologische Unterschiede: Nach Popper gibt es keine Wissenschaft ohne empirische Prüfung von potentiell falliblen Thesen und Theorien. Disziplinen, die dies nicht akzeptieren, betreiben Immunisierung und sind daher unseriös. Die Österreichische Schule unterscheidet sich von allen anderen ökonomischen Schulen u. a. dahingehend, dass sie rein logisch arbeitet. Empirie dient bestenfalls als Illustration der a priori erkannten Thesen. Widersprechende Untersuchungsergebnisse weisen nie auf Fehler der Theorie hin, sondern grundsätzlich immer nur auf Fehler im Verlauf der Untersuchung. Poppers Kritik an Platon, Hegel und Marx wurde ebenfalls, teilweise vehement, widersprochen, etwa von dem Philosophen Ronald B. Levinson, von Walter Kaufmann bzw. von Maurice Cornforth. Levinson kritisierte Poppers Sicht von Platon in seinem 1953 erschienenen Buch "In Defense of Plato". Demnach gehe es Popper oft nur um die Verbreitung seiner eigenen politischen Ideen. Popper deute Platons Schriften erst zu einem totalitären Werk um, insbesondere seien Poppers eigene Übersetzungen aus dem Altgriechischen tendenziös und verfälschend. – Popper widersetzte sich dieser Kritik in einer Anmerkung, die seit 1961 den Auflagen der "Offenen Gesellschaft" als Anhang beigegeben ist. Charles Taylor attestierte Popper, mit der Attitüde eines Popstars über bedeutendere Philosophen hergefallen zu sein (insbesondere Platon und Hegel) und dadurch eine Aufmerksamkeit erheischt zu haben, der die inhaltliche Bedeutung seiner Gedanken in keiner Weise entspreche. Ein ausführlicherer und expliziter Angriff, den Bartley gegen die von Experten betriebene und so zur autoritativen Interpretation von Popper gewordene Verfälschung richtete, musste eingestampft (im englischen Druck) und zensiert (im amerikanischen Druck) werden, weil Bartley explizit von „Inkompetenz“ gesprochen und dabei Namen genannt hatte, woraufhin eine der betroffenen Autoritäten mit rechtlichen Schritten gedroht hatte. Hans Albert warf der nachpositivistischen analytisch-angelsächsischen Philosophie vor, eine Auseinandersetzung mit Popper überwiegend durch Totschweigen oder aber durch versteckte Übernahme seiner Positionen (die noch dazu häufig als eigene Ideen ausgegeben worden seien) umgangen zu haben. Dementsprechend seien Poppers Einfluss und Ansehen heute v. a. in den Natur- und Wirtschaftswissenschaften erheblich größer als in der Fachphilosophie. Konstruierte Sprache. Konstruierte Sprachen oder künstliche Sprachen sind Sprachen, die von einer Person oder einer Gruppe aus verschiedenen Gründen und zu verschiedenen Zwecken neu entwickelt wurden. Sie stehen im Gegensatz zu den natürlichen Sprachen. Die allgemeine Kennung für konstruierte Sprachen nach der internationalen Sprachenstandardisierung ISO 639-2 ist der Code art, wobei weit verbreitete Sprachen einen eigenen Code erhalten haben. Arten. Die Einteilung der konstruierten Sprachen ist schwierig und nie ganz eindeutig. Im Laufe der Jahrhunderte gab es unzählige Ansätze, Sprachen zu entwickeln. Eine grobe Unterscheidung wird gelegentlich zwischen A-Priori- und A-Posteriori-Sprachen getroffen, wobei bei ersteren der Wortschatz von Grund auf neu erfunden wird, bei zweiteren eine oder mehrere Quellsprachen vorliegen, aus denen die Vokabeln entlehnt werden. Darauf aufbauend kann man A-Posteriori-Sprachen nach der Art ihrer Quellsprachen beschreiben. Eine differenziertere Unterscheidung kann durch Angabe des Sprachtyps aus der Sprachwissenschaft getroffen werden, wobei ein bestimmter Typ nur bei konstruierten Sprachen beschrieben ist. Dieser "„oligosynthetische Sprachtyp“" kennzeichnet sich durch ein extrem reduziertes Vokabular (von maximal einigen hundert Lexemen), wodurch komplexere Zusammenhänge nur über Komposition hergestellt werden können. Das in den 1960ern von John W. Weilgart vorgestellte "aUI" oder "Toki Pona" (2001 von Sonja Elen Kisa) sind erwähnenswerte Beispiele dafür. Die weitaus praktischste Methode, konstruierte Sprachen einzuteilen, ist es, nach deren Bestimmungszweck zu urteilen. Diese kurze Auflistung von groben Kategorien ist eine Einteilung, die auf bekannten Prototypen in der Geschichte der konstruierten Sprachen basiert. Plansprachen. Als Plansprachen bezeichnet man jene konstruierten Sprachen, die für zwischenmenschliche Kommunikation geschaffen wurden. Am häufigsten ist das Ziel, internationale Verständigung zwischen verschiedenen Kulturen zu erleichtern – in diesem Fall spricht man auch von Welthilfssprachen. Von diesen sind "Esperanto" (1887 von Ludwik Lejzer Zamenhof veröffentlicht), dessen Ableger (sogenannte Esperantiden) "Ido" (1907 von Louis de Beaufront) und "Interlingua" (1951 von der International Auxiliary Language Association) als Beispiele herauszugreifen. Bekannte Vorgänger des Esperanto waren das musikalische "Solresol", das ab 1817 vom französischen Musiklehrer François Sudre entwickelt wurde, und das 1880 vorgestellte "Volapük" des Priesters Johann Martin Schleyer. Keine der Welthilfssprachen konnte bislang eine so weite Verbreitung finden, dass sie allgemein als Verkehrssprache (Lingua Franca) in Verwendung wäre. Einen Grenzfall zu konstruierten Sprachen bilden kontrollierte Sprachen. Diese zeichnen sich durch streng definierte Regeln aus, wie Vokabular, Satzstellung und Textualität und müssen so gestaltet sein, dass sie für Anfänger der Sprache leichter verständlich werden oder den Text, der in der Sprache geschrieben ist, übersetzungsgerecht halten. Extremfälle der kontrollierten Sprachen sind jene natürlichen Sprachen, die sich auf einen festgelegten Grundwortschatz beschränken, um diese Sprache als Welthilfssprache zu etablieren. Mit "Basic English" versuchte Charles Kay Ogden 1930 einen solchen Ansatz welttauglich zu machen. Ein deutsches Pendant dazu war beispielsweise das 1917 entwickelte "Kolonialdeutsch", genannt: "Weltdeutsch" des Naturwissenschaftlers Wilhelm Ostwald. Diese Projekte standen jedoch teilweise unter der Kritik, eine kolonialistische Politik zu unterstützen und in diesem Sinne Sprachimperialismus fördern zu wollen. Im weiteren Sinn lassen sich auch sogenannte logische Sprachen zu den Plansprachen zählen. Diese Sprachen sollen eine Kommunikation zwischen Menschen ermöglichen, die möglichst unmissverständlich ist und auf logischen Prinzipien aufbaut. Der bekannteste moderne Vertreter dieser Sprachen ist Lojban, das durch Abspaltung einer Gruppe um Bob LeChevalier in den 1980er-Jahren vom Loglan-Projekt entstanden ist. Im Jahre 1997 wurde die vollständige Grammatik veröffentlicht, sie wird bis heute gepflegt. Loglan wurde ursprünglich in den 1950er-Jahren vom Linguisten James Cooke Brown erfunden, um die sogenannte Sapir-Whorf-Hypothese zu testen. Eine weitere Kategorie bilden die philosophischen Sprachen'". Diese meist apriorischen Sprachen erheben den Anspruch, im weitesten Sinne transzendente Wahrheiten ausdrücken zu können, die mit herkömmlichen Sprachen nicht auszudrücken sind. Im siebzehnten Jahrhundert waren John Wilkins (1668 in „"Essay towards a Real Character and a Philosophical Language"“) und Gottfried Wilhelm Leibniz ("Characteristica universalis") prominente Vertreter der Auffassung, man könne und solle eine perfekte Sprache entwickeln, die auf den Erkenntnissen der Wissenschaften beruht, und somit automatisch weitere Wahrheiten produzieren können sollte. Modernere philosophische Sprachen sind das bereits erwähnte "Toki Pona", das mit seinem minimalistischen Aufbau taoistische Werte zu verfolgen sucht, oder "Láadan", das 1982 von Suzette Haden Elgin als feministische Sprache kreiert wurde. Neben gesprochenen Plansprachen gibt es auch Gebärdensprachen wie "Gestuno" (1973), oder auch logografische Sprachen, wie eine solche mit den "Bliss-Symbolen" 1949 von Charles K. Bliss erfunden wurde. Geheimsprachen. Die ältesten Sprachkreationen sind wahrscheinlich Geheimsprachen, die erstmals im antiken Griechenland belegt sind. Als älteste konstruierte Sprache mit bekanntem Autor wird oft die "Lingua ignota" genannt, die im 12. Jahrhundert von Hildegard von Bingen erfunden wurde. Tatsächlich handelt es sich nicht um eine Sprache, sondern um eine Wörterliste von rund tausend Phantasiewörtern, durchweg Substantiven, mit beigefügten lateinischen und deutschen Äquivalenten, wobei die sachliche Gruppierung (Kirchliches, Kalendarisches, Hauswirtschaftliches, Naturkundliches) und der lateinisch-deutsche Wortbestand eng an ausgewählte Kapitel eines älteren klösterlichen Lehrbuches, der "Summa Henrici", angelehnt sind. Die neuere Forschung vermutet, dass die Phantasiewörter als mnemotechnisches Hilfsmittel bei der Aneignung des Lehrstoffs der Summa Henrici dienten und, sofern sie auch in der klosterinternen Kommunikation gebraucht wurden, eher der Unterhaltung als der Geheimhaltung dienten. Auch "„Zwillingssprachen“", die zwischen Zwillingsgeschwistern eine häufig anzutreffende Kommunikationsform sind, werden manchmal zu den Geheimsprachen gerechnet. Die seit dem Spätmittelalter bezeugte Sondersprache der Bettler und Gauner im deutschen Sprachbereich – das "Rotwelsch" – sowie das französische "Argot" können auch zu den Geheimsprachen gerechnet werden, gelten aber meistens nicht als konstruierte Sprachen. Sondersprachen. Sondersprachen sind Sprachen oder Sprachformen, die innerhalb einer Sprachgemeinschaft nur von einem Teil der Mitglieder verwendet werden. Sie wurden in der Vergangenheit auch als Geheimsprachen bezeichnet, nachdem ihre häufig sozial randständigen Sprecher kriminalisiert waren. In der Mehrheitsbevölkerung bestand die Vorstellung, die Sprecher organisierten so sprachlich verdeckt kriminelle Aktivitäten. Davon hat sich die heutige Sondersprachenphilologie gelöst, die den Terminus "Geheimsprache" verworfen und durch das nicht wertende "Sondersprache" ersetzt hat. Sondersprachen haben die Funktion, die Gruppenidentität zu stärken. Auch geschlechtsgebundene Sondersprachen kommen vor. Als Beispiel einer konstruierten Sondersprache kann das Medefaidrin genannt werden. Es handelt sich dabei um eine Sprache mit apriorischem, den Initiatoren „vom Heiligen Geist offenbartem" Vokabular und einer eigenen Schrift. Medefaidrin wurde seit Ende der 1920er Jahre von einer kleinen neureligiösen Gemeinschaft in Nigeria verwendet und ist jetzt nicht mehr in Gebrauch. Ein weiteres Beispiel ist die Sprache der Eskaya, einer kulturellen Minorität auf der philippinischen Insel Bohol. Diese Sprache wurde Anfang des 20. Jahrhunderts geschaffen und hat ebenfalls ein weitgehend apriorisches Vokabular und eine eigene Silbenschrift. Diese Sprache wird heute noch unterrichtet und von ca. 100 Familien in Gebeten, Gesängen und formellen Reden verwendet. Medefaidrin und die Eskayasprache erinnern stark an die mittelalterliche Lingua ignota der Hildegard von Bingen, von der nicht viel mehr als eine Wörterliste und das Alphabet überliefert ist. Die Lingua ignota erscheint als unausgereifter Fötus einer konstruierten Sondersprache. Auch das besser entwickelte Balaibalan, das im 16. Jahrhundert im Osmanischen Reich erschaffen wurde, war wohl als Sondersprache gedacht. Damin, die ehemalige Sondersprache der erwachsenen Männer auf der Insel Mornington im Norden von Australien, unterscheidet sich von den schon genannten nicht nur durch ihre anders definierte Sprechergruppe, sondern auch durch ihr extravagantes Phoneminventar und ihren minimalistischen Vorrat an Morphemen. Die Sprache wurde als Teil einer Initiationszeremonie unterrichtet, dem die christliche Mission ein Ende gesetzt hat. Fiktionale Sprachen. Fiktionale Sprachen werden meist zu künstlerischen Zwecken erfunden, häufig als Teil einer fiktiven Welt. Sie finden sich in Literatur oder Film beziehungsweise in Rollen- oder Computerspielen. Häufig werden fiktionale Sprachen irreführenderweise als fiktive Sprachen (erfundene, nicht existierende) bezeichnet. Das täuscht jedoch über die Tatsache hinweg, dass viele fiktionale Sprachen ein vollständiges Vokabular besitzen und im Allgemeinen über ausgeklügelte Regeln bezüglich Syntax und Grammatik verfügen. Vor allem bei den folgenden beiden erstgenannten Beispielen haben sich gewisse Sprachgemeinschaften etabliert, womit die Sprachen selbst – im Gegensatz zu den Welten, für die sie erfunden wurden – keineswegs nur mehr als "fiktiv" zu bezeichnen sind. Formale Sprachen. Als formale Sprachen bezeichnet man sämtliche Sprachen, die durch formale Grammatiken erzeugt werden können. Sie gehören in das Spezialgebiet der Logik und der theoretischen Informatik. Die Untersuchung formaler Sprachen als solcher wurde in den 1950er-Jahren durch Noam Chomsky angestoßen, der die Theorie der generativen Transformationsgrammatik aufgestellt hat. Gängige linguistische Theorien besagen, dass sich im Prinzip alle Sprachen als formale Sprachen ausdrücken lassen. Zur Notation bedient man sich je nach Gegenstand beispielsweise der Backus-Naur-Form oder des X-Bar-Schemas. Die formalen Systeme der Logik waren die frühesten formalen Sprachen. Als erste gilt Gottlob Freges Begriffsschrift aus dem Jahr 1879. Logiksysteme können sich in ihrer Ausdrucksstärke unterscheiden, in diesem Sinne spricht man beispielsweise von Aussagenlogik und Prädikatenlogik. Daneben gibt es Unterschiede in Bezug auf die verwendete Ableitbarkeitsrelation, z. B. bei klassischer und intuitionistischer Logik. Dokumentationssprachen. Dokumentationssprachen sind Sprachen, die zu Zwecken der Dokumentation zur Indexierung von Informationen unterschiedlichster Art verwendet werden. Sie zeichnen sich durch ein Kontrolliertes Vokabular aus, so dass Homonyme und Synonyme vermieden werden. Sie werden je nach Anwendungsbereich in der Form von Thesauri (z. B.: "UNESCO Thesaurus", "OpenThesaurus"), Schlagwortkatalogen (häufig über Verwendung von syntaktischen Indexierungen) oder Klassifikationen (z. B.: Dezimalklassifikationen wie Paul Otlets und Henri LaFontaines "Universelle Dezimalklassifikation") verwendet. Schriftsprachen und Schriftsysteme. Streng genommen müssten die meisten Verschriftlichungen einer Sprache als "konstruiert" angesehen werden, weil sich eine Schriftsprache niemals direkt, sondern nur durch mehr oder weniger beliebige Konventionen ableiten lässt, die stets von einer Person oder einer kleinen Gruppe eingeführt und überwacht werden. Allgemein spricht man jedoch von einer konstruierten Schriftsprache, wenn der Schöpfer bekannt ist und die Schreibung klaren Regeln folgt. Dabei handelt es sich meistens um Konventionen, die aufbauend auf einem oder mehreren Idiomen einer Nationalsprache entwickelt werden und demnach einen eigenen Namen bekommen. Die bekannteren Beispiele sind das im 19. Jahrhundert von Ivar Aasen geschaffene "Nynorsk" sowie das 1982 von Heinrich Schmid entwickelte "Rumantsch Grischun". Als Beispiele für Schriftsysteme natürlicher Idiome, die sich nicht aus anderen Systemen entwickelt haben, sondern mehr oder weniger neu erfunden wurden, können angegeben werden: Das koreanische "Hangeul" (Sejong, 1440er) und die nordamerikanischen Alphabete der "Cree" (James Evans, 1840er), "Cherokee" (Sequoyah, 1820er) und Osage (Herman Mongrain Lookout und Michael Everson, 2004/2014). Spielsprachen. Als Spielsprachen bezeichnet man Modifikationen vorhandener Sprachen, wie sie Kinder und Jugendliche in allen Teilen der Welt häufig verwenden. Sie sind nur in dem Sinn als konstruierte Sprachen zu verstehen, als dass sie zumeist aus einfachen Anweisungen bestehen, wie real existierende Wörter umzuformen sind. Ein bekanntes Beispiel ist das französische "Verlan" (Umdrehung von fr.: "(à) l'envers", dt.: "verkehrt herum"), in dem Silben vertauscht werden. Die "Löffelsprache" ist ein Beispiel aus dem deutschen Sprachraum. Dabei wird nach jedem Vokal ein "-l" angehängt, worauf wieder der ursprüngliche Vokal folgt, dann ein "-v-" und dann wieder der ursprüngliche Vokal. Das Berner "Mattenenglisch" funktioniert ähnlich wie die Hamburger "Kedelkloppersprook" und das englische "Pig Latin". Dabei wird die erste Silbe an den Schluss des Wortes gestellt und an den Anfang und/oder an das Ende des Wortes ein weiterer Vokal hinzugefügt. "Rückwärts Sprechen" ist ebenfalls ein an verschiedenen Orten beliebtes Sprachspiel. Lincos. 1960 stellte Hans Freudenthal die Sprache "Lincos" (Abkürzung von lat.: "„Lingua Cosmica“", dt.: „kosmische Sprache“) vor, mit der es möglich sein sollte, mit Außerirdischen in Kontakt zu treten und sich mit ihnen zu verständigen. Dazu entwickelte er einen schrittweisen mathematischen Aufbau, der es jedem intelligenten Wesen ermöglichen sollte, die Sprache zu lernen. Voynich-Manuskript. Das „MS 408“ der Universität Yale, besser bekannt als das "„Voynich-Manuskript“" (benannt nach dessen Entdecker Wilfrid Michael Voynich) gilt als das vielleicht geheimnisvollste Schriftstück aller Zeiten. Das Manuskript besteht aus 102 Seiten (aufgrund der Foliierung wird angenommen, dass es ursprünglich 14 Seiten mehr waren) und ist in einer Schrift verfasst worden, die bisher auf keinem anderen Schriftstück gefunden wurde. Trotz eingehender Untersuchungen kann bis zum heutigen Tage niemand sagen, ob das Manuskript eine Botschaft enthält oder nur aus einer sinnlosen Aneinanderreihung von Zeichen besteht. Einige Forscher halten es für plausibel, dass es in einer konstruierten Sprache verfasst worden sein könnte. Starckdeutsch. "Starckdeutsch" (auch Siegfriedsch und Kauderdeutsch) ist eine Kunstsprache, die 1972 vom deutschen Maler und Dichter Matthias Koeppel erfunden wurde. Es zeichnet sich besonders durch Verdopplung und Verstärkung von Konsonanten, Diphthongisierung von Vokalen, sowie den ausschließlichen Gebrauch von unregelmäßigen Verben aus. Seine Verwendung findet es in satirischen Gedichten, jedoch ist bereits die gesamte Entwicklungsarbeit als eine Parodie auf sich selber zu verstehen. Kosmologie. a> zeigt Galaxien verschiedenen Alters, Größe, Form. Die kleinsten, rotesten Galaxien, gehören zu den am weitesten entfernten bekannten Galaxien. Diese Galaxien sind in einem Stadium zu sehen, als das Universum 800 Millionen Jahre alt war. Die Kosmologie („die Lehre von der Welt“) beschäftigt sich mit dem Ursprung, der Entwicklung und der grundlegenden Struktur des Kosmos, des Universums als Ganzem. Sie ist ein Teilgebiet der Astronomie, das in enger Beziehung zur Astrophysik steht. Die Kosmologie beschreibt das Universum mittels physikalischer Gesetzmäßigkeiten. Dabei ist besonders die heute beobachtete, im Nahbereich „klumpige“ Verteilung der Galaxien und Galaxienhaufen mit großen dazwischenliegenden Leerräumen (Voids) im Gegensatz zur räumlichen Homogenität auf größeren Skalen zu verstehen. Weiterhin muss die Kosmologie die insgesamt geringe Raumkrümmung, die zeitlich unterschiedlichen Strukturen (Strahlung, Quasare, Galaxien), die Kosmische Hintergrundstrahlung, die als Expansion des Universums gedeutete Rotverschiebung des Lichts, die numerischen Werte der Naturkonstanten und die Häufigkeit der chemischen Elemente im Universum zusammenfassend beschreiben. Dichtefluktuationen. Die über verschiedene Längenskalen gemittelte Dichte zeigt unterschiedlich starke Schwankungen. Auf der Längenskala von 10.000 Megaparsec (Mpc) betragen die Schwankungen weniger als 1 %, während auf Skalen von 100 Mpc bis 1 Mpc die Strukturen immer klumpiger werden. Zu den größten Strukturen gehören die Sloan Great Wall mit einer Länge von gut 400 Megaparsec und die bisher nur durch ein gutes Dutzend GRBs markierte Hercules–Corona Borealis Great Wall mit einer Ausdehnung von 2000 bis 3000 Mpc. Die heute zu beobachtenden Schwankungen sollen sich aus Quantenfluktuationen während der Inflation, also kurz nach dem Beginn der Zeit, entwickelt haben, wobei die Entwicklung auf großen Skalen langsamer fortschreitet als auf kleineren Skalen. Häufigkeit der Elemente. In der primordialen Nukleosynthese (englisch "Big Bang Nucleosynthesis") kurz nach dem Urknall (10−2 s) war das Universum so heiß, dass Materie in Quarks und Gluonen aufgelöst war. Durch die Expansion und Abkühlung des Universums entstanden Protonen und Neutronen. Nach einer Sekunde verschmolzen aus Protonen und Neutronen die Kerne leichter Elemente (2H, 3He, 4He, 7Li). Dieser Prozess endete nach etwa drei Minuten. Es wurden also die relativen Häufigkeiten dieser leichten Elemente schon vor der Bildung der ersten Sterne weitgehend festgelegt. Kosmische Hintergrundstrahlung. 1946 von George Gamow postuliert, wurde der (CMB) 1964 durch Arno Penzias und Robert Woodrow Wilson entdeckt – mit einer mittleren Temperatur von 2,725 Kelvin. Die Hintergrundstrahlung stammt aus dem Zeitraum 300.000 Jahre nach dem Urknall, als das Universum etwa ein Tausendstel seiner heutigen Größe hatte. Das ist der Zeitpunkt, zu dem das Weltall transparent wurde, vorher bestand es aus undurchsichtigem ionisiertem Gas. Messungen beispielsweise durch COBE, BOOMERanG, WMAP, Planck-Weltraumteleskop. Expansion des Universums. Edwin Hubble konnte 1929 die Expansion des Weltalls nachweisen, da Galaxien mit wachsender Entfernung eine zunehmende Rotverschiebung in den Spektrallinien zeigen. Proportionalitätsfaktor ist die Hubble-Konstante H, deren Wert bei 74,3 (± 2,1) km/s Mpc−1 angenommen wird (Stand: August 2012). H ist keine Konstante, sondern verändert sich mit der Zeit – invers proportional zum Alter des Universums. Wir stehen nicht im Mittelpunkt der Expansion – der Raum selbst dehnt sich überall gleichmäßig aus ("isotropes Universum"). Durch Zurückrechnen der Expansion wird das "Alter des Universums" bestimmt. Ist die Hubble-Konstante (siehe Hubble-Zeit) korrekt, so liegt es bei etwa 13,7 Milliarden Jahren. Aufgrund der bisher von der Sonde WMAP gewonnenen Daten und Supernova-Beobachtungen wird inzwischen ein offenes, beschleunigt expandierendes Universum mit einem Alter von 13,7 Milliarden Jahren angenommen. Entwicklung des Universums. Nach dem Standardmodell der Kosmologie ergibt sich grob folgender Ablauf. Wichtige Instrumente zur Erforschung des Universums werden heute von Satelliten und Raumsonden getragen: Das Hubble-Weltraumteleskop, ROSAT, Hipparcos und WMAP. Zur Erklärung der beobachteten Expansion und der flachen Geometrie des Universums im Großen wird das Urknallmodell heute ergänzt nach Ideen von Alan Guth, dass es durch eine Symmetriebrechung in der Frühzeit des Universums zu einer sehr starken kurzzeitigen Expansion kam, welche die Gleichförmigkeit des Universums am Rand des beobachtbaren Bereiches (Horizont) erklärt. Die größte Herausforderung an die kosmologische Theorie stellt das Missverhältnis zwischen beobachtbarer Materie und deren Verteilung sowie der beobachteten mittleren Ausbreitungsgeschwindigkeit des Universums dar. Die übliche Erklärung macht für die nicht mittels elektromagnetischer Strahlung beobachtbaren Anteile der benötigten Materiedichte Dunkle Materie (mit 23 %) und Dunkle Energie (mit 73 %) verantwortlich. Dunkle Materie. Teilweise wird vermutet, dass es sich bei der Dunklen Materie um die supersymmetrischen Partner der bereits bekannten Elementarteilchen handelt; solche Teilchen werden – unabhängig von der Kosmologie – von manchen Elementarteilchenphysikern postuliert. Sofern es sie gibt, könnten sie aufgrund ihrer erwarteten Energieniveaus mit den verfügbaren Teilchenbeschleunigern eventuell innerhalb der nächsten Jahre, bis zum Jahr 2030 experimentell nachgewiesen werden. Alternativ dazu wurde eine Veränderung der einsteinschen Gravitationsgleichungen zur Erklärung vorgeschlagen. Steady-State-Theorie. Die "Steady-State-Theorie" (stationärer Zustand) wurde 1949 durch Fred Hoyle, Thomas Gold und anderen als Alternative zur Urknalltheorie entwickelt. Während der 1950er und bis in die 1960er Jahre hinein wurde diese Theorie von den meisten Kosmologen als mögliche Alternative akzeptiert. Die „Steady-State-Theorie“ wurde aufgrund von Berechnungen postuliert, die zeigten, dass ein rein "statisches Universum" mit den Annahmen der allgemeinen Relativitätstheorie nicht verträglich wäre. Zudem zeigten Beobachtungen von Edwin Hubble, dass das Universum expandiert. Die Theorie postuliert nun, dass das Universum sein Aussehen nicht ändert, obwohl es größer wird. Dazu muss ständig Materie neu gebildet werden, um die durchschnittliche Dichte gleich zu halten. Da die Menge der neu zu bildenden Materie sehr klein ist (nur einige hundert Wasserstoffatome pro Jahr in der Milchstraße), kann die Neubildung von Materie nicht direkt beobachtet werden. Obwohl diese Theorie den Energieerhaltungssatz verletzt, hatte sie unter anderem die „attraktive“ Eigenschaft, dass das Universum keinen Anfang hat und Fragen nach dem "Vorher" oder nach dem "Grund" des Beginns der Expansion überflüssig sind. Die Schwierigkeiten dieser Theorie begannen in den späten 1960er Jahren. Beobachtungen zeigten, dass sich das Universum zeitlich tatsächlich verändert, die Stationaritätsbedingung also explizit verletzt ist: Quasare und Radiogalaxien wurden nur in weit entfernten Galaxien gefunden. Halton Arp interpretierte die vorliegenden Daten seit den 1960er Jahren anders und gab an, dass es Quasare im nahe liegenden Virgohaufen gäbe. Der Niedergang der Steady-State-Theorie wurde beschleunigt durch die Entdeckung der kosmischen Hintergrundstrahlung, welche von der Urknall-Theorie vorausgesagt worden war. Seitdem gilt nicht die "Steady-State-Theorie", sondern die "Urknalltheorie" bei der Mehrheit der Astronomen als erfolgreiches Standardmodell der Kosmologie. In den meisten Publikationen über Astrophysik wird sie implizit vorausgesetzt. Anfänge und ptolemäisches Weltbild. a> eines Planeten nach der Epizykeltheorie Aufzeichnungen von mythischen Kosmologien sind aus China (I Ging, Buch der Wandlungen), aus Babylon (Enuma Elish) und Griechenland (Theogonie des Hesiod) bekannt. Kosmologische Vorstellungen hatten in der chinesischen Kultur besonders im Daoismus und Neokonfuzianismus einen hohen Stellenwert. Die babylonischen Mythen – welche vermutlich auf ältere sumerische Mythen zurückgehen und ihrerseits wieder Vorlage für die biblische Genesis sein dürften – und Himmelsbeobachtungen haben wahrscheinlich die späteren griechischen kosmologischen Vorstellungen beeinflusst, die zur Grundlage der mittelalterlichen abendländischen Kosmologie wurden.Kosmologische Aufzeichnungen erfolgten nicht nur seitens der babylonischen, sondern seitens der ägyptischen Priesterschaft. In den Pyramidentexten wird die Götterwelt mit kosmischen Wesenheiten in Verbindung gebracht, die hauptsächlich auf die Sonne bezogen sind, aber auch auf den Mond und zahlreiche Gestirne. Es wird damit ein astronomischer Hintergrund deutlich. Dieser geht aus dem Relief des Codex Hammurapi hervor, der den kosmopolitisch denkenden König vor dem thronenden Sonnengott zeigt. Frühere Kosmologien unterlagen dem Prinzip "Aufzeichnung astronomischer Daten und anschließendes Deuten der Daten". Aus den Deutungen und Prophezeiungen entwickelten sich die Mythologien. Zusätzlich stellten die astronomischen Aufzeichnungen nützliche Angaben für die historischen Kalender dar, z. B. Ur-3 Kalender, mit deren Hilfe die Abläufe in der Landwirtschaft geordnet wurden. Bei den griechischen Gelehrten Thales von Milet, vor allem bei Anaximander (6. Jahrhundert v. Chr.), begann der Prozess der Rationalisierung. Anaximander entwarf erstmals ein Weltbild, welches auf gesetzmäßigen kausalen Zusammenhängen basierte und den Himmelsobjekten eine physikalische Natur zuordnete. Nach Anaximander sei das unendliche Universum die Quelle einer unendlichen Zahl von Welten, von denen die erlebt Welt nur eine sei, die sich abgespalten habe und ihre Teile durch Drehbewegung gesammelt habe. In die gleiche Richtung gingen die kosmologischen Entwürfe der Atomisten Demokrit und Anaxagoras. Anaximenes arbeitete die Ideen von Anaximander weiter aus und sah dabei die Luft als Urmaterie an. Pythagoras – für den alle Dinge in Wirklichkeit Zahlen oder Zahlenverhältnisse waren – vertrat die Auffassung, dass der Himmel das Unendliche eingeatmet habe, um Gruppen von Zahlen zu bilden. Eine weitere wichtige Entwicklung war das erste historisch überlieferte System, in dem die Erde nicht im Zentrum stand, das von Philolaos, einem Pythagoreer, im 5. Jahrhundert v. Chr. entworfen wurde. In der Kosmologie Platons (5./4. Jahrhundert v. Chr.), die er im "Timaios" schildert, beschrieb er die Himmelsobjekte als "von personalen, mit Verstand ausgerüstete göttliche Wesen". Die Erde war in Platons Vorstellung eine Kugel, die im Zentrum des Kosmos ruhte. Platons Schüler Aristoteles widersprach in seiner Kosmologie teilweise der Auffassung seines Lehrers hinsichtlich der göttlichen Natur von Himmelsobjekten. Die Himmelskörper nennt er göttlich und mit Intellekt begabt; sie bestehen aus dem „fünften Element“ und werden von der „ersten Philosophie“ erforscht. Die Bewegungen der Himmelskörper und -sphären werden letztlich von einem "ersten unbewegten Beweger" (im Sinne von Veränderer) hervorgerufen. Aristoteles vertrat ein Modell des Universums, welches ein Zentralfeuer annahm (er meinte damit explizit nicht die Sonne), um welches die Himmelskörper in Kreisen liefen. Eudoxos von Knidos entwarf Anfang des 4. Jahrhunderts v. Chr. ein Sphärenmodell, das von Kallippos weiterentwickelt wurde und erstmals die retrograden Schleifenbewegungen der Planeten beschreiben konnte. Davon wurden das aristoteles und das ptolemäische Weltbild beeinflusst. Messungen von Eratosthenes, der im 3. Jahrhundert v. Chr. den Umfang der Erde mit guter Genauigkeit bestimmte, und von Aristyllus und Timocharis zeigten Abweichungen der Planetenbewegungen von den nach Eudoxos' Methode berechneten Positionen. Apollonios von Perge entwickelte im 3. Jahrhundert v. Chr. eine Methode der Berechnung von Planetenbahnen mithilfe von Epizykeln, er ließ Kreisbewegungen der Planeten zu, deren Mittelpunkt selbst wieder auf einer Kreisbahn lag. Ein heliozentrisches Weltmodell vertrat Aristarchos von Samos (3./2. Jahrhundert v. Chr.). Er wurde deshalb der Gottlosigkeit beschuldigt; sein Weltmodell konnte sich nicht durchsetzen. Ptolemäus beschrieb im 2. Jahrhundert in seinem Almagest eine geozentrische Kosmologie, welche mit den meisten Beobachtungen seiner Zeit in Einklang zu bringen war und bis zur Durchsetzung des kopernikanischen Weltbildes allgemein anerkannt wurde. Die kopernikanische Wende. Seite aus Copernicus' Manuskript von "De revolutionibus orbium coelestium" Bereits im 15. Jahrhundert wurden durch den deutschen Universalgelehrten und Kardinal Nikolaus von Kues (1401–1464) wichtige Gedanken der späteren Kosmologie vorweggenommen und das ptolemäische Weltbild in Frage gestellt, indem er die Vorstellung eines begrenzten Universums verwarf, in dessen Mittelpunkt sich unbeweglich die Erde befindet. Im Gegensatz dazu war das von Copernicus 1543 in seiner Schrift "De revolutionibus orbium coelestium" beschriebene Universum endlich und durch eine materielle Fixsternsphäre begrenzt. Diese sei viel größer als zuvor angenommen, erklärte Copernicus das Fehlen einer Fixsternparallaxe. Wichtig an dem kopernikanischen System war der Verlust der Sonderstellung der Erde und die Einführung eines heliozentrischen Weltalls mit kreisförmigen Bahnen der Planeten um die Sonne. Erst Thomas Digges (1576, A Perfit Description of the Caelestiall Orbes) vertrat ein modifiziertes kopernikanisches Weltbild ohne materielle Fixsternsphäre mit unendlichem euklidischen Raum. Von Giordano Bruno (1548–1600) wurde ein unendliches Universum mit unendlich vielen Sonnen und Planeten postuliert, in dem die beobachteten Fixsterne ferne Sonnen sind. Aufgrund dessen und anderer Aussagen, die den katholischen Glaubensgrundsätzen widersprachen, wurde er als Ketzer verurteilt und auf dem Scheiterhaufen hingerichtet. Weitere wichtige Gründe für die Abkehr vom ptolemäischen Weltbild waren die von Tycho Brahe beobachtete Supernova von 1572 und sein Nachweis, dass ein 1577 beobachteter Komet sich außerhalb der Mondbahn befand, womit der Himmel nicht, wie von Aristoteles beschrieben, unveränderlich war. Tycho Brahe steigerte die Präzision der Planetenbeobachtung erheblich. Sein Assistent Johannes Kepler erkannte nach dessen Tod bei der Auswertung der Beobachtungsdaten, dass die Planetenbahnen nicht, wie von Copernicus angenommen, kreisförmig, sondern elliptisch sind. Er formuliert die Gesetze für die Planetenbewegung, die heute als die keplerschen Gesetze bezeichnet werden. Kepler versuchte die Planetenbewegung durch eine magnetische Kraft zu erklären. Er wandte sich damit einem mechanistischen Bild der Planetenbewegung zu, in dem die Planeten nicht mehr wie bei Ptolemäus beseelt waren. Allerdings glaubte Kepler noch an ein endliches Universum und versuchte dies durch Argumente zu zeigen, die später als olberssches Paradoxon bekannt wurden. Gestützt wurde das kopernikanische System durch Galileis Entdeckung der Jupitermonde, der Beobachtung der Mondoberfläche und seines Nachweises, dass Fixsterne scheinbar punktförmig sind. Durch Isaac Newton (Philosophiae Naturalis Principia Mathematica, 1687) wurden mit seiner Theorie von der Gravitation die Kosmologie und die Mechanik erstmals miteinander verknüpft. Dadurch brachte Newton eine Physik in die Kosmologie, in der gleiche Gesetze für himmlische (Planetenbewegung) und irdische Bereiche (Schwerkraft) galten. Erst durch die newtonsche Mechanik wurde das kopernikanische System gegenüber dem ptolemäischen System ausgezeichnet, da der gemeinsame Schwerpunkt zwar nicht exakt im Mittelpunkt der Sonne liegt, jedoch innerhalb der Sonne. Ein wichtiger Schritt für diese Entwicklung war die vorausgegangene Entwicklung der Mechanik, insbesondere des Trägheitsbegriffes (Galilei, Descartes). Thomas Wright hielt die Sonne nicht für den Mittelpunkt des Weltalls, sondern für einen Fixstern unter vielen. Er wies die Annahme einer homogenen Sternverteilung zurück und identifizierte die Milchstraße als aus Einzelsternen bestehende Scheibe, in deren Ebene sich die Sonne befindet. Er betrachtete die von Astronomen beobachteten Nebel als andere Galaxien. Immanuel Kant entwickelte 1755 in der Allgemeinen Naturgeschichte und Theorie des Himmels nicht nur eine Kosmologie ähnlich der von Thomas Wright, sondern eine Kosmogonie, in der eine anfangs chaotisch verteilte Materie sich unter Gravitationswirkung zu den beobachteten Himmelskörpern zusammenballt. Ein ähnliches Entwicklungsschema wurde von Laplace entwickelt. Der Astronom Wilhelm Herschel versuchte durch Klassifizierung der Sterne und Galaxien ein chronologisches Entwicklungsschema abzuleiten. Kopernikanisches, kosmologisches und anthropisches Prinzip. Die Annahme eines im Wesentlichen homogenen Kosmos wurde später zu Kopernikus' Ehren „kopernikanisches Prinzip“ genannt. Die konkrete zusätzliche Forderung der Isotropie führt zum kosmologischen Prinzip. Es gibt eine Vielzahl möglicher Theorien des Universums. Das anthropische Prinzip sagt aus, dass eine Theorie nicht dazu in Widerspruch stehen darf, dass heute intelligentes menschliches Leben existiert. Sie muss die entsprechenden Entwicklungsbedingungen und Lebensbedingungen gewährleisten, sonst ist sie falsch. Informationsverlust. Die Standardtheorie ist wesentlich abhängig von Informationen, die aus dem Universum selbst gewonnen wurden (Existenz anderer Galaxien, Rotverschiebung, Hintergrundstrahlung, Elementhäufigkeiten usw.). Diese Informationen werden im Laufe der Zeit durch die Expansion des Universums verloren gehen. All dies führt dazu, dass es bereits in 100 Milliarden Jahren für einen Beobachter in diesem Supersternhaufen so aussieht, als würde dieser das gesamte Universum darstellen. Es können keine Rückschlüsse mehr auf den Urknall gezogen werden. Astronomen, die eventuell leben, würden somit ein gänzlich anderes Bild von Aufbau und Entwicklung des Universums bekommen als zur Zeit lebende. Dies hat zu der Frage geführt, inwieweit ein solcher Informationsverlust unter Umständen bereits eingetreten ist, und damit zur Frage nach der Zuverlässigkeit kosmologischer Theorien. Immerhin hat es mit der inflationären Phase bereits einen solchen Informationsverlust gegeben. Durch die Inflation wurden weite Bereiche des Universums jenseits des Beobachtbaren verschoben. Konsonanz. Konsonanz (v. lat. "con" „zusammen“ und "sonare" „klingen“) bezeichnet in der Musik im Unterschied zur Dissonanz einen "Wohl-" oder "Zusammenklang", d. h. Intervalle und Akkorde, die als in sich ruhend und nicht „auflösungsbedürftig“ empfunden werden. Physikalische und sinnesphysiologische Grundlagen. Das Gehör nimmt mehr oder weniger bewusst auch die Obertonreihe eines jeden Tones wahr. Je einfacher und harmonischer das Schwingungsverhältnis zweier Töne, desto wohlklingender empfindet das Ohr das sich ergebende Intervall. Physikalisch gesehen sind zwei Töne desto konsonanter (wohlklingender), je übereinstimmender ihre Obertöne sind. Dieses trifft auf Intervalle mit möglichst „einfachen“ Zahlenverhältnissen zu, etwa auf die Oktave (2:1), die Quinte (3:2) und die Quarte (4:3). Derartige „einfache“ Zahlenverhältnisse wurden zu Zeiten Pythagoras' auch als „schöne“ geometrische Verhältnisse bezeichnet. Unberücksichtigt bleibt bei diesem Modell jedoch, warum Schwebungen, wie sie in Instrumentengruppen auftreten, trotzdem als angenehm empfunden werden. Vollkommene und unvollkommene Konsonanz. Spätestens mit dem Beginn der Renaissance etablierte sich die bis heute wirksame Unterscheidung der Intervalle in Alle anderen Intervalle gelten als dissonant. Geschichte und Kulturspezifisches. Die Entdeckung der mathematischen Grundlagen von Konsonanzen wird in der Legende Pythagoras in der Schmiede dem griechischen, antiken Philosophen Pythagoras zugeschrieben. Das Konsonanzempfinden ist für verschiedene Menschen und Kulturen und zu verschiedenen Zeiten unterschiedlich. Während im Mittelalter an Intervallen lediglich Oktaven, Quinten und Quarten als konsonant empfunden wurden, kamen seit der Renaissance auch Terzen und Sexten hinzu. Insbesondere die Einordnung der Quarte als Konsonanz bzw. Dissonanz war Änderungen unterworfen. Was im Mittelalter als „wohlklingend“ galt (ganze Choräle in parallelen Quarten), war schon in der Barockzeit (je nach harmonischem Zusammenhang) dissonant (siehe Quartvorhalt). Im Jazz empfindet man eine ganze Reihe von Akkorden als wohlklingend, obwohl sie in ihrer inneren Struktur eine Reihe von dissonanten Intervallen zu beinhalten scheinen, wie zum Beispiel große Septimen. Auch die chinesische Pentatonik und die indischen Ragas folgen den harmonikalen Gesetzen. Bis zum Mittelalter verwendete man nur Harmonien, die dem Gesetz der Zahlen 1, 2, 3 und 4 gehorchen. Mit der großen Terz kam die Zahl 5 hinzu. Auch synthetische Klänge, etwa durch einen Ringmodulator hergestellte, können als „schön“ empfunden werden. In der Kompositionslehre, besonders in der historischen Lehre vom Kontrapunkt und in der Harmonielehre, ist die Bedeutung von konsonanten und dissonanten Intervallen so relevant wie Gliederung der Betonung in Schwerzeit (Thesis) und Leichtzeit (Arsis). Zu beachten ist vor allem, dass die physikalische Herleitung auf einem kulturell selektierten Sonderfall beruht, dem der eindimensionalen Schwinger, wie sie in den herkömmlichen Musikinstrumenten näherungsweise verwirklicht sind. Bei allgemein schwingungsfähigen Gebilden (Platten, Stäbe, Membranen, Glocken usw.) bilden sich Partialtöne auf kompliziertere Weise aus, es gibt keine "Obertöne" in ganzzahligen Verhältnissen mehr. Damit ist für Platten, Stäbe, und so weiter auch die Diskussion der Konsonanz, wie oben beschrieben, hinfällig, und alle Intervalle, auch die sonst konsonanten, können zu Dissonanzen werden. Kreuzzug. Symbolische Darstellung der Eroberung Jerusalems (12.–14. Jahrhundert) Die Kreuzzüge seitens des „christlichen Abendlandes“ waren strategisch, religiös und wirtschaftlich motivierte Kriege zwischen 1095/99 und dem 13. Jahrhundert. Im engeren Sinne werden unter den Kreuzzügen nur die in dieser Zeit geführten Orientkreuzzüge verstanden, die sich gegen die muslimischen Staaten im Nahen Osten richteten. Nach dem Ersten Kreuzzug wurde der Begriff „Kreuzzug“ auch auf andere militärische Aktionen ausgeweitet, deren Ziel nicht das Heilige Land war. In diesem erweiterten Sinne werden auch die Feldzüge gegen nicht christianisierte Völker wie Wenden, Finnen und Balten, gegen Ketzer wie die Albigenser und gegen die Ostkirche dazu gezählt. Vereinzelt wurde von den Päpsten sogar ein Kreuzzug gegen politische (christliche) Gegner ausgerufen. Nachdem ein Kreuzfahrerheer 1099 Jerusalem erobert hatte, wurden in der Levante insgesamt vier Kreuzfahrerstaaten gegründet. Infolge ihrer Bedrohung durch die muslimischen Anrainerstaaten wurden weitere Kreuzzüge durchgeführt, denen meistens kaum ein Erfolg beschieden war. Das Königreich Jerusalem erlitt 1187 in der Schlacht bei Hattin eine schwere Niederlage, auch Jerusalem ging wieder verloren. Mit Akkon fiel 1291 die letzte Kreuzfahrerfestung in Outremer. Allgemeines. Karte der Kreuzzüge aus einem französischen Wörterbuch (1922) Seit dem 7. Jahrhundert fand die islamische Expansion statt: Die militärische, teilweise mit Übergriffen verbundene Unterwerfung und Besiedlung christlicher Gebiete durch arabisch-muslimische Eroberer im Nahen Osten, in Nordafrika, Italien (Eroberung Sardiniens, der Einfall in Rom und die Zerstörung der Basilika St. Peter durch die Aghlabiden im Jahre 846) sowie (bis zur Rückeroberung im Rahmen der Reconquista) der Einfall in Spanien und Portugal. Seit 638 stand Jerusalem unter muslimischer Herrschaft. Von christlicher Seite wurde die Eroberung des Heiligen Landes und die Zurückdrängung der Sarazenen als Rückeroberung und als ein Akt der Verteidigung des Christentums betrachtet, welcher durch offiziellen Beistand und die Unterstützung der Kirche bekräftigt und angeführt wurde. Dem Ersten Kreuzzug war ein Hilferuf des byzantinischen Kaisers Alexios I. Komnenos um militärische Unterstützung gegen die Seldschuken vorausgegangen. Am 27. November 1095 rief Papst Urban II. die Christen auf der Synode von Clermont zum Kreuzzug in das „Heilige Land“ auf. Urban II. forderte, die dort ansässigen Muslime zu vertreiben und in Jerusalem die den Christen heiligen Stätten in Besitz zu nehmen. Mehr als acht Jahrzehnte waren vergangen, nachdem es in der Regierungszeit des fatimidischen Kalifen al-Hakim 1009 zur Zerstörung der Grabeskirche gekommen war, eines der größten Heiligtümer des Christentums. Die Kreuzzüge wurden nach kurzer Zeit auch zur Verwirklichung rein weltlicher Machtinteressen instrumentalisiert, insbesondere solcher, die gegen das Byzantinische Reich gerichtet waren. Schon bald wurde der Begriff Kreuzzug nicht nur auf Kriege gegen Muslime, sondern auch gegen von der römischen Kirche zu „Ketzern“ deklarierte Menschen (siehe Albigenser) ausgeweitet. Dieser Umstand gab dem Papsttum eine starke politische und militärische Waffe in die Hand. Trotzdem darf der religiöse Aspekt, besonders bei den Kreuzzügen in den Osten, nicht unterschätzt werden. So waren nach der Einnahme Jerusalems im Jahre 1099 die Gefallenen als Märtyrer gefeiert worden. Oft lagen die Interessen der kriegführenden Parteien und die der kämpfenden Truppen weit auseinander. Die beiderseitigen Machthaber verfolgten unter anderem machtpolitische Interessen. Die Kreuzfahrer selbst glaubten zumeist an einen ehrenvollen, ja heiligen Kampf für Kirche und Gott. Schon vor dem Aufruf zum Kreuzzug zur Befreiung Jerusalems hatte die Kirche damit begonnen, Kriegszüge zu unterstützen. So wurden im Rahmen der Eroberung Englands durch Wilhelm den Eroberer 1066 geweihte Fahnen an den Kriegsherren übersandt, die ihn und sein Heer im Kampf stärken sollten. Auf den geweihten Fahnen war unter anderem auch der Erzengel Michael abgebildet, der Schutzpatron des römisch-deutschen Reiches und später Deutschlands. Auch der aragonesisch-französische Zug gegen das maurische Barbastro in Spanien im Jahr 1063, den Papst Alexander II. unterstützte, sowie die Kämpfe gegen die Araber auf Sizilien 1059, standen unter päpstlicher Patronage und sind als Vorläufer der Kreuzzüge anzusehen. Diese gelten im Allgemeinen als die ersten historischen Ereignisse, an welchen die katholische Kirche beginnt, Kriegszüge dogmatisch zu stärken und zu rechtfertigen. Grundlage des Kreuzzugsaufrufs. Ein Kreuzzug war zugleich Bußgang und Kriegszug, der nach Auffassung der (nicht orthodoxen, katholisch christlichen) Zeitgenossen direkt von Gott durch das Wort des Papstes verkündet wurde. Die Teilnehmer legten ein rechtsverbindliches Gelübde ab, ähnlich wie bei einer Pilgerfahrt. Als Folge der göttlichen und päpstlichen Verkündung waren die Kreuzzüge sehr populär. Dies erklärt auch die große Teilnehmerzahl. Die offiziell verkündeten Kreuzzüge (darunter fallen beispielsweise nicht die Abwehrkämpfe der Kreuzfahrerstaaten in Outremer) wurden als Angelegenheit der gesamten abendländisch-katholischen Christenheit begriffen. Die Kreuzfahrerheere bestanden daher in der Regel aus „Rittern“ aus ganz Europa. Grundlage für die Kreuzzüge war aus christlicher Sicht der Gedanke des "„gerechten Krieges“" (lat. "bellum iustum"), wie er von Augustinus von Hippo vertreten worden war. Dies bedeutete später, dass der „gottgefällige Krieg“ nur von einer rechtmäßigen Autorität verkündet werden konnte (wie dem Papst). Es musste ein gerechter Kriegsgrund vorliegen (wie die ungerechte Behandlung von Gläubigen), und der Krieg musste für gute Absichten (wie die göttliche Liebe) geführt werden. Zeitgenössische Kritik an den Kreuzzügen. Nach dem katastrophalen Ausgang des Zweiten Kreuzzugs mehrten sich Stimmen von Theologen, die sich gegen die Idee bewaffneter Kreuzzüge wandten. Dazu zählen in Deutschland der Würzburger Annalist des Zweiten Kreuzzugs und der Theologe Gerhoch von Reichersberg sowie der Verfasser des Schauspiels "Ludus de Antichristo", in Frankreich der Abt von Cluny Petrus Venerabilis in seinen späteren Schriften, der englische Zisterzienser Isaak von Stella (später Abt in Frankreich), Walter Map (ein Höfling König Heinrichs II. von England) und der Engländer Radulphus Niger. Sie beriefen sich u.a. auf, demzufolge durch das Schwert sterben solle, wer das Schwert zieht, aber auch auf, wo prophezeit wird, dass der wiederkehrende Messias als "König der Könige" die Feinde des Christentums mit dem Hauch seines Mundes – also nur mit Gottes Wort – vernichten werde. Um 1200 traten auch die Kanonisten, Kirchenrechtler wie Alanus Anglicus, dafür ein, die Muslime zu tolerieren. Besonders ab Ende des 13. Jahrhunderts mussten die Päpste die Ablässe für das Anhören von Kreuzzugspredigten deutlich erhöhen, was ebenfalls als Indiz für die abnehmende Begeisterung der nicht-nahöstlichen Kreuzzüge zu deuten ist. Im frühen 14. Jahrhundert riefen einige Päpste sogar zu Kreuzzügen gegen politische Gegner auf, so Ende 1321 gegen Mailand. Kritik der neueren Kirchengeschichte an den Kreuzzügen. Im 20. Jahrhundert haben sich trotz der Aufbrüche der ökumenischen Bewegung und des Zweiten Vatikanischen Konzils relativ wenige Vertreter der Kirchengeschichte in kritischer Weise mit den Kreuzzügen befasst. Auf evangelischer Seite ist z. B. Jonathan Riley-Smith zu nennen, der u.a. das lange vorherrschende kirchliche Verständnis der Kreuzzüge als heiligem Krieg zur Wiedererlangung angeblich legitimer christlicher Besitzrechte einer Kritik unterzog. Auf katholischer Seite hat z. B. Arnold Angenendt im Kontext seiner Kritik die Kreuzzüge als schwere Hypothek bezeichnet, die sich die Kirche aufgeladen hat, indem die Päpste die Kreuzzüge nicht nur als heilige Kriege gut geheißen, sondern sie sogar initiiert haben. Am 12. März 2000 hat Papst Johannes Paul II. in einem Schuldbekenntnis die Verfehlungen der Kirche bezüglich Glaubenskriegen, Judenverfolgungen und Inquisition eingestanden. Allerdings wird hierbei bedauert, dass er im Allgemeinen bleibt und z. B. die Kreuzzüge dabei nicht wenigstens erwähnt. Diese Kritik wurde zuvor bereits an der Erklärung des Zweiten Vatikanischen Konzils über ihr Verhältnis zu den nichtchristlichen Religionen, Nostra Aetate, geübt, die zwar einen großen Schritt in Bezug auf die Möglichkeit eines Dialogs mit Judentum und Islam gemacht hat und alle Haßausbrüche und Verfolgungen gegen Juden oder Muslime ausdrücklich verwirft, aber in diesem Zusammenhang die Kreuzzüge nicht anspricht. Kontroversen in der Geschichtswissenschaft. In Bezug auf die Kreuzzüge sind mehrere Punkte in der modernen Forschung umstritten, so etwa hinsichtlich des Ausmaßes der Akzeptanz der Kreuzzugsidee in späterer Zeit. Eine Einigung wird durch unterschiedliche historische ‚Schulen‘ erschwert. Manche Historiker (wie Hans Eberhard Mayer) sehen lediglich die Orientkreuzzüge als die ‚eigentlichen‘ Kreuzzüge an. Demgegenüber herrscht im anglo-amerikanischen Sprachraum gelegentlich die Tendenz vor, den Begriff inhaltlich und auch zeitlich weiter zu fassen (besonders einflussreich: Jonathan Riley-Smith, Norman Housley). Dabei werden auch einige Militäraktionen der Frühen Neuzeit noch den Kreuzzügen hinzugerechnet. Von Riley-Smith und seinen Schülern wird diese Sichtweise als „pluralistisch“ bezeichnet; ihnen zufolge stieß der Kreuzzugsgedanke noch im Spätmittelalter auf Begeisterung. Kritiker halten dieser Schule entgegen, Quellen zu ignorieren, die belegen, dass die Kreuzzugsidee im Spätmittelalter deutlich an Anziehungskraft einbüßte. Eine Einigung konnte bisher nicht erzielt werden. In der Geschichtswissenschaft der letzten Jahrzehnte werden in zunehmendem Maße Geschichte und Struktur der Kreuzfahrerstaaten berücksichtigt, so dass das Augenmerk nicht mehr allein der chronologischen Abfolge und den historischen Begebenheiten der Kreuzzüge gilt. Religiöse Motive. Die Einnahme von Jerusalem 1099. Spätmittelalterliche Buchillustration. Aufbauend auf den Kreuzzugsaufruf Papst Urbans II. auf der Synode von Clermont im Jahr 1095 (begleitet von dem Zuruf „Deus lo vult“ - Gott will es) waren viele Kreuzfahrer überzeugt, durch die Vertreibung der Muslime aus dem Heiligen Land Gottes Willen zu erfüllen und die Erlassung all ihrer Sünden zu erreichen. Dies muss vor dem Hintergrund christlicher Berichte und Gerüchte über Gräueltaten der islamischen Machthaber gegen die christliche Bevölkerung des Heiligen Landes gesehen werden und der Verwüstung christlicher Stätten, beispielsweise der Grabeskirche 1009 in Jerusalem. In Konkurrenz mit wirtschaftlichen Interessen traten die religiösen Motive im Laufe der Zeit teilweise in den Hintergrund - besonders deutlich wird das bei der Eroberung und Plünderung der christlichen Stadt Konstantinopel im Vierten Kreuzzug. Bezüglich der Kreuzzüge in den Orient verschwanden sie jedoch nie ganz, sie hatten auch großen Einfluss auf die christliche Bevölkerung in Europa. Besonders unter den nicht-adeligen Kreuzfahrern war die Religion ein wichtiges Motiv. Verhältnis zum Islam. Ein wesentliches außenpolitisches Problem für die christliche Welt stellte der Islam dar, der in seinem Streben westwärts zunächst in der Mitte des 7. Jahrhunderts das christliche Byzantinische Reich angriff. Ostrom/Byzanz verlor die seit dem monophysitischen Schisma in religiösem Gegensatz zu den griechischen und lateinischen Reichsgebieten stehenden Provinzen Syrien und Ägypten binnen weniger Jahre an die Araber, die dort vielleicht von Teilen der Bevölkerung als Befreier begrüßt wurden (was in der Forschung umstritten ist); es behauptete jedoch weiterhin das griechisch geprägte Kleinasien. Das westliche Nordafrika leistete bis zum Ende des 7. Jahrhunderts gegen die Araber Widerstand, während das spanische Westgotenreich um 700 binnen weniger Monate unter dem Arabersturm zusammenbrach, so dass die Araber im Westen erst durch das Fränkische Reich aufgehalten und zurückgedrängt wurden. Nachdem das Byzantinische Reich 751 von den Langobarden aus Mittelitalien verdrängt worden war (Fall des Exarchats von Ravenna), war es Anfang des 8. Jahrhunderts hauptsächlich auf das orthodoxe Kernland Kleinasien, die Küsten des Balkans und Süditaliens begrenzt. In der Folgezeit fand das Reich im 9. und 10. Jahrhundert zu einem "modus vivendi" mit den Arabern, der sogar in militärische Bündnisse mit einzelnen arabischen Staaten mündete. Dem militärischen Wiederaufstieg um das Jahr 1000 folgte ein innerer Niedergang. Mit dem islamischen Turkvolk der Seldschuken betrat gleichzeitig aber eine neue, expansive Macht die politische Bühne des Nahen Ostens, die sich auf Kosten der Araber und Byzantiner ausdehnte. Dies führte 1071 für die Byzantiner zur militärischen Katastrophe in der Schlacht von Manzikert gegen die Seldschuken, die den Beginn der türkischen Landnahme in Anatolien markiert. Kleinasien überließ der byzantinische Kaiser Alexios I. Komnenos wegen der Abwehr der normannischen Invasion von Epiros und Makedonien (mit dem Ziel der Eroberung von Konstantinopel) schließlich 1085 gegen einen Lehenseid bis auf wenige Stützpunkte vollständig den Seldschuken, um nicht zwischen zwei Gegnern aufgerieben zu werden. Nach dem Sieg über die Normannen bat Alexios den Papst um Unterstützung zur Rückeroberung des kleinasiatischen Reichsgebiets, das inzwischen in mehrere türkische Emirate zersplittert war, die die byzantinische Diplomatie gegeneinander ausspielte. Der große militärische Aufwand aller christlichen Mächte der damaligen Zeit ist damit zu erklären, dass der Islam als eine große Gefahr - nicht allein für das Byzantinische Reich - gesehen wurde. Schließlich grenzte das islamisch-arabische Machtgebiet an den Pyrenäen an Frankreich, zudem waren fast alle Mittelmeerinseln und Teile Süditaliens zeitweise von Arabern erobert worden. Letztere wurden auch nach Rückeroberung immer wieder von ihnen angegriffen. Das byzantinische Sizilien wurde ab 827 von den Arabern erobert, dann von den Normannen, bis es 1194 an Heinrich VI. fiel, wodurch das Reich der Staufer ebenfalls direkt an den islamischen Machtbereich grenzte. Verhältnis zur Orthodoxie. Das morgenländische Schisma von 1054 belastete von Beginn der Kreuzzüge an das Verhältnis zwischen orthodoxen und katholischen Christen. Ein weiterer Aspekt ist das politische Verhältnis der beiden führenden Mächte der katholischen bzw. orthodoxen Staatenwelt. Die Eigenbezeichnung des deutschen wie des byzantinischen Kaiserreiches war „Römisches Reich“, und der jeweilige Kaiser leitete daraus einen Führungsanspruch über die gesamte christliche Staatenwelt ab. Byzanz betrieb im 12. Jahrhundert eine expansive Westpolitik. Dynastische Heiraten mit dem ungarischen und deutschen Herrscherhaus, aber auch militärische Interventionen in Italien mit dem Ziel, auch die (west)römische Kaiserkrone zu erringen, waren eine Grundkonstante der Außenpolitik der byzantinischen Komnenendynastie. Um den Einfluss Venedigs im Byzantinischen Reich zurückzudrängen, verfolgte man in Konstantinopel in der zweiten Hälfte des 12. Jahrhunderts eine scharfe anti-venezianische Politik. Dies blieb in Westeuropa natürlich nicht ohne Reaktion. Die Kreuzzüge richteten sich daher zunehmend nicht nur gegen den Islam, sondern gleichzeitig auch immer mehr gegen das orthodoxe, griechisch geprägte Byzanz. Dennoch blieb der religiös motivierte Kreuzzugsgedanke auch in der Folgezeit eine immer wiederkehrende Komponente der europäischen Politik, wenn in der Forschung auch manchmal betont wird, dass die Kreuzzugsidee ab dem 13. Jahrhundert an Kraft einbüßte (siehe oben den Abschnitt "Kontroversen in der Geschichtswissenschaft"). Insgesamt darf man wohl ihre Bedeutung im Spätmittelalter nicht mehr allzu hoch ansetzen. So wurde zwar im Jahr 1453 eine Militärexpedition erwogen, um Konstantinopel gegen Sultan Mehmed II. zu verteidigen. Doch startete diese halbherzige Expedition reichlich spät, nämlich erst im April 1453. Der Sultan hatte aber schon im Frühjahr 1452 mit den baulichen Vorbereitungen für eine mögliche Belagerung begonnen und machte daraus keinerlei Geheimnis. Ob man die konzertierte militärische Hilfe christlicher Mächte, wie z. B. des Heiligen Römischen Reiches und Polens, bei der Verteidigung Wiens 1683 gegen die Türken in die Kreuzzugstradition stellen darf, ist fraglich. 1528 kam es nämlich zu einem wenige Jahrzehnte zuvor noch unvorstellbaren Ereignis: Frankreich und das Osmanische Reich schlossen ein Bündnis gegen das Habsburgerreich. Spätestens mit der Integration des muslimischen Staates in das Bündnissystem der christlichen Mächte endete der vereinigende Anspruch der katholischen Kreuzzugsidee in der europäischen Politik. Gesellschaftliche Faktoren in Europa. Der abendländische Adel erhoffte sich durch die Eroberung neue Besitztümer. Auch und gerade traf das auf die jüngeren Söhne des Adels zu, die nicht erbberechtigt waren und nun die Chance sahen, doch noch über ein eigenes Gebiet herrschen zu können. Dies war ebenso ein Ziel der Kirche, da der Kirchenfrieden (eine päpstliche Regel, die streng vorschrieb, wann und wie gekämpft werden durfte; an Weihnachten und anderen hohen Feiertagen durfte beispielsweise nicht gekämpft werden) immer wieder durch Konflikte gestört wurde, in denen es in erster Linie um Gebietsstreitigkeiten ging. So boten die Kreuzzüge auch eine willkommene Beschäftigung für die überzähligen Söhne, die nicht im Kloster oder im Klerus untergebracht werden konnten oder wollten. Große Teile der Landbevölkerung sahen im Kreuzzug eine Fluchtmöglichkeit vor den harten und oft sehr ungerechten Lebensumständen in der Heimat - zumal der Papst ein Ende der Leibeigenschaft in Aussicht gestellt hatte für jeden, der das Kreuz nehmen und ins heilige Land mitziehen würde. Auch Verbrecher und Gesetzlose folgten den Aufrufen, weil sie sich durch ihr Kreuzzugsgelübde der Strafverfolgung entziehen konnten und sich ein neues Leben oder Beute erhofften. Wirtschaftspolitische Motive. Wirtschaftlich profitierten auch die italienischen Seerepubliken (Genua, Pisa, Venedig und andere) vom Handel mit dem Orient. So wurde kurzzeitig überlegt, einen Kreuzzug zur Sicherung der Gewürzstraße durchzuführen. Die Idee wurde allerdings recht bald wieder fallen gelassen. Das Papsttum versprach sich von der Kontrolle über das Heilige Land eine massive Stärkung seiner Machtposition. Letztlich haben die Päpste wohl auch auf die Wiedervereinigung mit der bzw. auf die Kontrolle über die Ostkirche gehofft. Daneben dominierten mit Beginn des Vierten Kreuzzuges auch wirtschaftliche Interessen. Das beste Beispiel für dieses Motiv ist wohl der Vierte Kreuzzug selbst, der von der Handelsmetropole Venedig nach Konstantinopel umgeleitet wurde und in der Plünderung durch das Kreuzfahrerheer mit Abtransport der Beute nach Venedig mündete, um den Handelskonkurrenten auszuschalten. Hier zeigt sich die vollständige Pervertierung des ursprünglich religiösen Kreuzzugsgedankens einerseits, andererseits auch ein Grund für die immer geringere Wirkung der Kreuzzüge in der Verteidigung des oströmischen Reiches. Die Finanzierung der Kreuzzüge in den einzelnen Bistümern erfolgte über den Kreuzzugszehnten. Zu diesem Zweck wurden Amtsbücher wie der Liber decimationis angelegt. Weitere Faktoren. Der britische Historiker Robert Bartlett sieht die Kreuzzüge in einem größeren, gesamteuropäischen Zusammenhang: Im 11. Jahrhundert setzt ein starkes Bevölkerungswachstum ein, bedingt durch günstige klimatische Umstände und neue Entwicklungen in der Landwirtschaftstechnik. Der Bevölkerungsüberschuss führt zu einer Expansion in die Peripherien Europas: Iberische Halbinsel, Irland, Germania Slavica, Baltikum und eben auch ins Heilige Land. Überblick: Begriff und zeitlicher Rahmen. Der Kreuzzug in seiner ursprünglichen Wortbedeutung hatte ausschließlich die Befreiung Jerusalems zum Ziel und war ein gesamteuropäisches Unternehmen, das auch "passagia generalia" genannt wird. Aus dieser entwickelte sich die "passagia particularia", die sich gegen jeden anderen Ort wenden konnte. Der Begriff „Kreuzzug“ wurde erst im 13. Jahrhundert geprägt, davor finden sich lediglich die Begriffe „bewaffnete Pilgerfahrt“ und „bewaffnete Wallfahrt“. In den zeitgenössischen lateinischen Quellen wurde der Kreuzzug ganz überwiegend umschrieben als "expeditio", "iter in terram sanctam" (Reise ins Heilige Land) oder "peregrinatio" (in Anlehnung an die traditionelle Wallfahrt). Neben den eigentlichen Kreuzzügen gab es noch den Katharer- oder auch Albigenserkreuzzug, der in Okzitanien (Südfrankreich) stattfand, den Kinderkreuzzug, der für die meisten Beteiligten in der Sklaverei endete, den Feldzug der Deutschordensritter ins Baltikum 1225 und diverse andere Feldzüge, z. B. gegen nicht-christliche Völker wie Türken oder Mongolen, die zum Teil bis ins 15. Jahrhundert dauerten. Auch Kriege gegen machtpolitische Gegner wurden von mittelalterlichen Herrschern mitunter als Kreuzzug propagiert, um eine Infragestellung der Notwendigkeit des Kriegs zu verhindern, um Verbündete zu gewinnen oder um Plünderungen und anderen Übergriffen auf Zivilisten einen Anschein von Legitimität zu verleihen. Ein bleibendes Erbe der Kreuzzüge waren die Ritterorden, eine Art kämpfender Mönchsorden. Klassische Zählweise der Kreuzzüge. In der Geschichtswissenschaft werden insgesamt sieben Kreuzzüge (Orientkreuzzüge) als offizielle Kreuzzüge unterschieden, wenn auch weitere kriegerische Handlungen unter dem Namen ‚Kreuzzug‘ stattfanden. Die Zählung ist in der Fachliteratur nicht ganz einheitlich, da manche Kreuzzüge nicht einhellig als eigenständige Kreuzzüge gewertet werden. Auch die schwedischen Eroberungsfeldzüge gegen die Heiden in Finnland im 13. Jahrhundert werden als Kreuzzüge bezeichnet. Im 14. Jahrhundert wurden über 50 Kreuzzüge gegen die damals heidnischen Prußen und Litauer geführt. Diese vom Deutschen Orden organisierten Feldzüge bezeichnete man auch als „Preußenfahrten“ oder „Litauerreisen“. Das 15. Jahrhundert weist vier Kreuzzüge gegen die Hussiten auf. Von 1443 bis 1444 fand ein meist als „letzter Kreuzzug“ eingestufter Feldzug gegen das Osmanische Reich statt, der in der Schlacht bei Warna scheiterte. Geschichte. a> als Kreuzfahrer – Miniatur aus einer Handschrift von 1188 "Eine detailliertere Beschreibung der Geschichte ist in den separaten Artikeln zu den einzelnen Kreuzzügen enthalten." Erster Kreuzzug und Entstehung der Kreuzfahrerstaaten. Aufgrund der Bedrängung des Byzantinischen Reiches durch die muslimischen Seldschuken infolge der byzantinischen Niederlage in der Schlacht von Mantzikert 1071, hatte der byzantinische Kaiser Alexios I. Komnenos im Westen um Hilfe angefragt. Papst Urban II. hatte 1095 dann auch auf der Synode von Clermont zum ersten Kreuzzug aufgerufen, um die heiligen Stätten der Christenheit zu befreien. Allerdings war Jerusalem zum Zeitpunkt des „Kreuzzugaufrufs“ im Jahr 1095 vorübergehend im Besitz der Seldschuken (1071–1098), die christliche Pilger weitgehend ungestört gewähren ließen. Eine religiöse Begeisterung wurde in Westeuropa hervorgerufen, die teilweise erschreckende Züge annahm: So wurden im Rheinland mehrere jüdische Gemeinden von Christen regelrecht vernichtet, und sogar einfache Leute machten sich mit Peter dem Einsiedler auf ins Heilige Land (so genannter Volkskreuzzug) – sie sollten es jedoch nie erreichen. Als die verschiedenen Kreuzfahrerheere Ende 1096 die byzantinische Hauptstadt Konstantinopel erreichten, traten weitere Probleme auf: Obwohl die Byzantiner einen Kreuzzug keineswegs herbeigewünscht hatten (sie hatten vielmehr auf Söldner aus Europa gehofft) und den Kreuzfahrern auch nicht ganz grundlos misstrauten – manche von ihnen, wie die unteritalienischen Normannen, hatten zuvor schon gegen Byzanz gekämpft –, unterstützte Alexios sie zunächst, zumal sie ihm einen Treueeid schworen und die Kreuzfahrer ebenfalls auf den Kaiser angewiesen waren. Im Frühjahr 1097 machte sich das Heer auf den Weg, und bald schon stellten sich erste Erfolge ein, wie die Eroberung von Nikaia, das vertragsgemäß den Byzantinern überlassen wurde. Nach schweren Kämpfen, unter anderem bei der Einnahme Antiochias, endete dieser Kreuzzug mit der Eroberung Jerusalems im Juli 1099, bei der es zu blutigen Massakern an den verbliebenen Bewohnern kam – ungeachtet der Religionszugehörigkeit. Es folgte die Entstehung der Kreuzfahrerstaaten. Byzanz hatte zwar Teile Kleinasiens zurückgewonnen, stand der Errichtung von Staaten im Heiligen Land, die von Byzanz unabhängig waren, jedoch mit Misstrauen gegenüber, was bald schon zu Kämpfen mit dem Fürstentum Antiochia führte. Situation der Kreuzfahrerstaaten und Zweiter, Dritter und Vierter Kreuzzug. Die so genannten Kreuzfahrerstaaten erwiesen sich jedoch auf die Dauer dem moslemischen Druck nicht gewachsen: Die meisten Adligen waren schon kurz nach dem Fall Jerusalems wieder abgereist; zurück blieb keineswegs nur die Elite. Einerseits waren die feudal organisierten Kreuzfahrerstaaten aufgrund der geringen katholisch-christlichen Bevölkerungsanzahl (wo die Mehrheit der Bevölkerung christlich war, war sie nicht katholisch, wie etwa in Syrien) auf Nachschub aus Europa angewiesen, was diesen Staaten einen gewissen „kolonialen“ Charakter verlieh. Andererseits kam es zu einem durchaus bemerkenswerten Wandel im Verhältnis zwischen Christen und Moslems: Fortan lebten sie meistens durchaus friedlich miteinander. Den Moslems wurde eine weitgehend freie Religionsausübung gestattet, und es wurde ihnen eine eigene Gerichtsbarkeit zugestanden. Auch gegenüber den anderen christlichen Konfessionen verhielten sich die katholischen „Franken“ (so wurden die Kreuzritter vor allem in arabischen Quellen genannt) durchaus tolerant. Diese Entwicklung war ebenfalls eine direkte Konsequenz der zu geringen Zahl zurückgebliebener Kreuzfahrer, die sonst den eroberten Raum nicht zu kontrollieren vermocht hätten – was aber ohnehin nur in gewissen Grenzen möglich war. Auch die Juden hatten in den Kreuzfahrerstaaten eine wesentlich bessere Stellung als in Europa und wurden in Outremer, wieder anders als in Europa, nach der Eroberung Jerusalems auch nie das Opfer von Pogromen. Auch wenn es den Kreuzfahrern teils sogar gelang, die verfeindeten muslimischen Reiche, die sie umgaben, gegeneinander auszuspielen (die Fatimiden in Ägypten waren den Seldschuken beispielsweise feindlich gesinnt), so war die militärische Situation doch immer äußerst schwierig. Der letztendlich erfolglose Zweite Kreuzzug (1147–1149) hatte bereits das Ziel, die bedrängten Kreuzfahrerstaaten (nach dem Fall der Grafschaft Edessa) zu entlasten. Nach der Schlacht bei Hattin 1187, in der faktisch das gesamte militärische Aufgebot des Königreichs Jerusalem geschlagen worden war, fiel sogar Jerusalem wieder in muslimische Hände. Die nachfolgenden Kreuzzüge, die diese Entwicklung umkehren sollten, hatten wenig Erfolg, teils aufgrund unzureichender Planung oder strategischer Fehler, teils aufgrund der Uneinigkeit bei der Führung des Oberkommandos: wie etwa beim Dritten Kreuzzug, wo der Hauptteil des Heeres aus Franzosen und Engländern bestand, die einander feindlich gesinnt waren. Der Vierte Kreuzzug endete gar 1204 mit der Eroberung und Plünderung Konstantinopels, der damals größten christlichen Stadt der Welt, durch Kreuzritter, die mit einem Teil der gemachten Beute die Verschiffung des Kreuzfahrerheers durch die Flotte Venedigs „bezahlten“. Der Papst, der sich angesichts der Gräueltaten der Kreuzfahrer überdies darüber im Klaren war, dass damit eine Kirchenunion mit der Orthodoxie praktisch unmöglich wurde, verurteilte diese Aktion auf das Schärfste, was praktisch jedoch folgenlos blieb. Kriegsfolgen und weitere Kreuzzüge im Mittelalter. Die Republik Venedig hatte somit ihren größten Konkurrenten im Orienthandel dauerhaft geschwächt, der Nimbus der Kreuzzüge nahm damit freilich dauerhaft Schaden, zumal in diesem Zusammenhang das Byzantinische Reich von einer intakten Großmacht zu einer (nach der Rückeroberung Konstantinopels 1261) Regionalmacht degradiert wurde. Außerdem wurde das Verhältnis der orthodoxen Völker zu Westeuropa für Jahrhunderte schwer belastet. Die Kreuzzüge hatten damit endgültig ihr ursprüngliches Motiv, die Rückeroberung des Heiligen Landes, verloren. Allerdings verlor man dieses Ziel nie ganz aus den Augen, auch wenn alle weiteren Versuche – vom diplomatischen Erfolg des Stauferkaisers Friedrich II. während des Fünften (bzw. nach anderer Zählung Sechsten) Kreuzzugs abgesehen – keinen Erfolg hatten oder sogar in militärischen Katastrophen endeten. Der Albigenserkreuzzug (1209–1229) - wie andere, ähnlich geartete Unternehmen gegen Christen - trug mit dazu bei, dass die Kreuzzüge oft nur als eine politische Waffe des Papsttums begriffen wurden. Sogar Feldzüge gegen die Ghibellinen (Anhänger des Kaisers) in Italien wurden noch zu Kreuzzügen erklärt. Demgegenüber trugen die „Kreuzzüge“ der Reconquista auf der iberischen Halbinsel bereits de facto nationale Züge. Die Kreuzzüge in das Baltikum, die vor allem der Missionierung dienten und von den teilnehmenden Adligen auch als „gesellschaftliches Ereignis“ begriffen wurden, gingen noch bis ins 14. Jahrhundert weiter. Die Kreuzzüge in die Levante endeten 1291 mit dem Fall Akkons. Die späten Kreuzzüge gegen die islamische Welt, die sich nun gegen das nach Europa vordringende Osmanische Reich richteten, endeten schließlich gegen Ende 14. Jahrhunderts/Mitte des 15. Jahrhunderts. Als die beiden letzten Kreuzzüge gelten die Kreuzzüge des ungarischen (und späteren römisch-deutschen) Königs Sigismund, der mit der Niederlage von Nikopol 1396 endete, sowie der Kreuzzug des polnischen Königs Władysław III., der mit der Niederlage von Warna 1444 endete. Die Eroberung von Konstantinopel 1453 bedeutete eine Zäsur im europäischen Bewusstsein. Die Zeit der Kreuzzüge war endgültig zu Ende. Kreuzzüge außerhalb des Mittelalters. Bereits der Perserkrieg des oströmischen Kaisers Herakleios im 7. Jahrhundert trug in gewisser Weise Charakterzüge eines christlichen Religionskrieges, wobei der Kaiser später zum herausragenden Vorbild eines christlichen Kämpfers stilisiert wurde: so wurde beispielsweise das Geschichtswerk des Wilhelm von Tyrus in der altfranzösischen Übersetzung unter dem Titel "Livre d'Eracles" veröffentlicht. Auch nach dem Ende des Mittelalters wurden immer wieder Militäraktionen als „Kreuzzüge“ deklariert (so der Versuch einer Invasion Englands durch den katholischen König von Spanien, Philipp II., und auch die Schlacht von Lepanto wurde von einer so genannten „Kreuzzugsliga“ geführt). Auch Portugals König Sebastian sah seinen Feldzug nach Marokko als Auftakt für einen neuen Kreuzzug und fiel 1578. Das Papsttum unternahm noch im 17. Jahrhundert ähnliche Anläufe, denen aber bestenfalls nur vorübergehende Erfolge beschieden waren. Nachwirkungen. Der Begriff „"Kreuzzug"“ beschränkt sich nicht nur auf die historischen Kreuzzüge, sondern wird heute auch im übertragenen Sinne gebraucht. Seine abschätzige Verwendung als negatives Gütesiegel in der internationalen politischen Rhetorik wird im westlichen Europa gewöhnlich als eine durch und durch absurde und abwegige Bezugnahme auf einen längst überwundenen Anachronismus wahrgenommen und stößt dort deshalb weitgehend auf strikte Ablehnung. Allgemeine Begriffsverwendung. „"Kreuzzug"“ wird im Deutschen wie im Englischen auch als Synonym für eine gesellschaftliche Anstrengung oder organisierte Kampagne verwendet, die der Durchsetzung bestimmter Ziele dienen soll. Es wird z. B. von „Kreuzzügen“ gegen die weltweite Kinderarmut oder gegen Krankheiten und Seuchen gesprochen. In politischen Debatten wird der Begriff nicht selten polemisch eingesetzt, um ein Vorgehen der Gegenseite als weitaus überzogen zu brandmarken, beispielsweise wenn in einem verbalen Schlagabtausch von einem „Kreuzzug gegen die Internet-Infrastruktur“ die Rede ist. Literatur. Siehe auch die umfassende Bibliografie in: Kenneth M. Setton (Hrsg.): "A History of the crusades", Bd. 6 (s.u.). Kofi Annan. Kofi Atta Annan (* 8. April 1938 in Kumasi, Goldküste) ist ein ghanaischer Diplomat. Er war zwischen 1997 und 2006 siebter Generalsekretär der Vereinten Nationen. Im Jahr 2001 erhielt Annan gemeinsam mit den Vereinten Nationen den Friedensnobelpreis „für [seinen] Einsatz für eine besser organisierte und friedlichere Welt“. Ausbildung und Familie. Kofi Annan wurde am 8. April 1938 als Sohn von Henry Reginald Annan und Rose Eshun in der ghanaischen Stadt Kumasi geboren und einen Tag später getauft. Ghana war zu dieser Zeit noch eine britische Kolonie. Kofi Annans Familie gehörte zur Elite des Landes und stammte aus der mehr zur Küste hin beheimateten Ethnie der Fante. Seine beiden Großväter und ein Onkel waren sogenannte "Chiefs". Sein Vater arbeitete lange Zeit als Exportmanager für die Firma Lever Brothers. Von 1954 bis 1957 besuchte Annan die Mfantsipim School, ein methodistisches Internat in Cape Coast, Ghana. 1958 begann Annan ein Studium der Wirtschaftswissenschaften am "Kumasi College of Science and Technology". Mit Hilfe eines Stipendiums der Ford-Stiftung setzte er seine Studien in den USA am Macalester College in St. Paul/Minnesota fort und erlangte dort 1961 einen Bachelor-Abschluss. Anschließend studierte Annan für ein Jahr am Genfer Hochschulinstitut für internationale Studien (IUHEI) der Universität Genf. 1972 erlangte er außerdem noch einen Master of Business Administration von der Sloan School of Management des Massachusetts Institute of Technology (MIT). Kofi Annan ist in zweiter Ehe mit der schwedischen Anwältin und Künstlerin Nane Maria Annan verheiratet, Tochter des schwedischen Juristen Gunnar Lagergren und Nichte des schwedischen Diplomaten Raoul Wallenberg. Aus seiner ersten Ehe mit der Nigerianerin Titi Alakija hat Annan zwei Kinder; Sohn Kojo und Tochter Ama. Sein Neffe zweiten Grades ist Anthony Annan, ein bekannter ghanaischer Fußballnationalspieler. Frühe Karriere. 1962 trat Kofi Annan in die Weltgesundheitsorganisation (WHO) der Vereinten Nationen ein. Von 1974 bis 1976 arbeitete er als Tourismusdirektor in Ghana. Darauf kehrte er wieder zu den Vereinten Nationen zurück und arbeitete als Beigeordneter Generalsekretär in drei aufeinander folgenden Positionen: "Sicherheitskoordinator Personalmanagement" von 1987 bis 1990, "Program Planning, Budget and Finance, and Controller" von 1990 bis 1992 – unter anderem verhandelte Annan auch über die Freilassung westlicher Geiseln im Irak während des Zweiten Golfkriegs – und "Friedenssicherungseinsätze" von März 1993 bis Februar 1994. Annan wurde dann "Undersecretary-General" bis Oktober 1995, als er zum Sonderbeauftragten des Generalsekretärs für das ehemalige Jugoslawien ernannt wurde. Nach fünf Monaten in dieser Aufgabe kehrte Annan im April 1996 wieder zu seinem Posten als "Undersecretary-General" zurück. Generalsekretär der Vereinten Nationen. Am 13. Dezember 1996 wurde Annan vom UN-Sicherheitsrat auf Druck der USA und gegen den Widerstand vieler Länder zum UN-Generalsekretär gewählt und übernahm damit die Stelle von Boutros Boutros-Ghali aus Ägypten. Er trat sein Amt am 1. Januar 1997 als erster Generalsekretär an, der direkt aus den Reihen der UN-Mitarbeiter gewählt wurde und als erster schwarzafrikanischer UN-Generalsekretär. Am 29. Juni 2001 wurde er von der UN-Generalversammlung für eine zweite fünfjährige Amtsperiode bestätigt, die am 31. Dezember 2006 endete. Die Wiederwahl Annans ist erstaunlich, da er 1997 "nur" für die zweite afrikanische Amtszeit gewählt wurde. Seine Nachfolge trat der bisherige südkoreanische Außenminister Ban Ki-moon am 1. Januar 2007 an. Während seiner Amtszeit als Generalsekretär gab es mehrere Beratungen im Sicherheitsrat zur Lage der Situation im Irak, als wichtiger Punkt wurde über den Stand der Erlangung von Massenvernichtungswaffen durch den Irak debattiert. Kofi Annan sagte 2004, dass seiner Meinung nach die Invasion des Iraks illegal sei. Im September 2003 setzte Annan ein 16-köpfiges Gremium zur Erarbeitung von Vorschlägen für eine Reform der Vereinten Nationen ein, die so genannte „Hochrangige Gruppe für Bedrohungen, Herausforderungen und Wandel“. Darauf aufbauend stellte er am 21. März 2005 sein überraschend weitgehendes 63-seitiges Reform-Dokument "In größerer Freiheit: Auf dem Weg zu Entwicklung, Sicherheit und Menschenrechte für alle" vor. Zuletzt setzte Annan sich für eine globale CO2-Steuer ein und drängte die Weltgemeinschaft auf eine Lösung der Darfur-Krise. Weitere Tätigkeiten. 2007 wurde Annan Vorsitzender der "Allianz für eine Grüne Revolution in Afrika (AGRA)", einer im Jahr 2006 mit Geldern der Bill & Melinda Gates Foundation und der Rockefeller-Stiftung (insgesamt 150 Millionen Dollar) gestarteten Initiative. Ziel sei es, die landwirtschaftliche Produktion Afrikas in den kommenden 10 bis 20 Jahren zu verdoppeln oder zu verdreifachen, wobei in den ersten Jahren vor allem Kleinbauern unterstützt werden sollen. Annan ist Gründungsmitglied der Global Elders. Diese Gruppe herausragender Persönlichkeiten hat es sich zum Ziel gesetzt, ihren Einfluss und ihre Erfahrung zur Lösung globaler Probleme einzubringen. Annan ist Präsident des Global Humanitarian Forum mit Sitz in Genf. Im März 2012 begann er seine neue Tätigkeit als Sondergesandter der Vereinten Nationen und der Arabischen Liga für Syrien. Anfang August gab er bekannt, am Ende des Monats auf eine Verlängerung dieses Mandates wegen Mangel an Unterstützung zu verzichten. Sein Nachfolger wurde Mitte August der algerische Diplomat Lakhdar Brahimi. Ehrungen. a> organisierten Verleihung des Freiheitspreises der Max Schmidheiny-Stiftung Koalition (Politik). Eine Koalition (von „Vereinigung, Zusammenschluss, Zusammenkunft“) in der Politik ist ein temporäres Bündnis politischer Parteien. Parteien "koalieren" in vielen Staaten miteinander, um eine stabile Regierung zu bilden. Dies ist nötig, wenn – wie oft in politischen Systemen mit Verhältniswahlrecht – eine Partei allein nicht über die dafür nötige absolute Mehrheit der Abgeordneten im Parlament verfügt. Dann nennt man diejenige Partei, die mit der Regierungsbildung beauftragt ist und meist auch den künftigen Regierungschef stellt, die "Regierungspartei", und ihre Koalitionspartner "Koalitionspartei," alle anderen dagegen "Oppositionsparteien". Koalitionen müssen allerdings nicht zwangsweise über parlamentarische Mehrheiten verfügen, auch Minderheitsregierungen, die sich auf Koalitionen stützen, sind in einigen politischen Systemen üblich. Gegenteil einer Koalitionsregierung ist die Allparteienregierung. Zustandekommen von Koalitionen. Vor der Wahl sprechen Parteien manchmal Koalitionsaussagen aus, um die nach der Wahl angestrebten Koalitionen zu benennen. Formateur. Koalitionsverhandlungen können auf unterschiedliche Weise initiiert werden. In vielen Systemen, etwa in Österreich, beauftragt der Staatschef einen sogenannten "Formateur" damit, mögliche Regierungsbündnisse auszuloten. Der Formateur wird nicht zwingend aus der Partei mit den meisten Mandaten bestimmt, vor allem dann nicht, wenn sich abzeichnet, dass andere Parteien eher Mehrheiten organisieren können. Sondierung. In anderen politischen Systemen, wie in Deutschland, gibt es keine solche formalen Aufträge, und die Parteien handeln frei untereinander mögliche Bündnisse aus. Als erster Schritt hierfür können so genannte "Sondierungsgespräche" stattfinden, in denen zunächst inhaltliche Aspekte für eine gemeinsame Koalition ausgelotet werden. Anschließend folgen formale Koalitionsverhandlungen. Koalitionsvertrag. Durch den Abschluss eines Koalitionsvertrages zwischen zwei oder mehreren Parteien, begründet mit der Absicht, eine "Regierungskoalition" (im Gegensatz zu "Koalitionsregierung" wird damit die parlamentarische Koalition, das "Regierungsbündnis" bezeichnet) zu bilden, wird die mittel- bis langfristige Zusammenarbeit einer Koalitionsregierung während der nächsten Legislaturperiode geregelt. Der Koalitionsvertrag gibt gewöhnlich einen Überblick über die geplanten Gesetzesvorhaben der von der Koalition gestützten Regierung. Es gibt keine gesetzlichen Grundlagen für einen Koalitionsvertrag, so dass die Parteien vollständig frei sind, diesen zu formulieren. Der Koalitionsvertrag kann, muss aber nicht nach Abschluss veröffentlicht werden. Partei des Regierungschefs. Weithin üblich, aber nicht zwingend, ist, dass die Partei, die unter den Koalitionsparteien die meisten Stimmen errungen hat, den Regierungschef stellt. Gerade im Fall einer großen Koalition, wenn die Parteien vergleichbar stark sind, ist dieses Prinzip umstritten. Das Israelische Koalitionsmodell löst diesen Konflikt durch den Wechsel des Regierungschefs zur Mitte der Wahlperiode auf. Koalitionstypen. Die Koalitionstheorie unterscheidet verschiedene Koalitionstypen, zum Beispiel die minimale Gewinnkoalition "(minimal winning coalition)", die Koalition der knappsten Mehrheit "(smallest size coalition)", die übergroße Koalition oder die minimale verbundene Gewinnkoalition "(minimal connected winning coalition)". Einige Theorien der Koalitionsbildung sind – ohne Rücksicht auf politische Inhalte – rein ämterorientiert („politik-blind“) wie z. B. das Konzept der minimalen Gewinnkoalition. Andere Theorien berücksichtigen auch Distanzen politischer Ideologien, etwa das Konzept der minimalen verbundenen Gewinnkoalition. Koalierende Parteien. Den politischen Parteien werden vielfach Farben zugeordnet und danach die Koalitionen benannt. Schwarz steht für Christdemokraten oder Konservative, Rot für Sozialdemokraten, Sozialisten oder Kommunisten, Gelb meist für Liberale und Grün für Grün-Alternative. Weitere Farben sind länderspezifisch (z. B. Blau und Orange). Deutschland. Verschiedene mögliche Formen sind in Deutschland die Große Koalition (Schwarz-Rot oder Rot-Schwarz), rot-grüne Koalition, rot-rot-grüne Koalition, schwarz-gelbe Koalition, sozialliberale Koalition (Rot-Gelb), Ampelkoalition (Rot-Gelb-Grün), rot-rote Koalition oder schwarz-grüne Koalition. Nach der Bundestagswahl 2005 wurde der Begriff Jamaika-Koalition, auch „Schwampel“ (Schwarze Ampel) genannt, in die Diskussion eingeführt. Koalitionen zwischen CDU und der LINKEN gibt es bislang nur auf kommunaler Ebene, wurden aber vom früheren sachsen-anhaltischen Ministerpräsidenten Wolfgang Böhmer für die Zukunft nicht ausgeschlossen. Für derartige Bündnisse gibt es noch keine Bezeichnung, da der Name Schwarz-Rot bereits für Koalitionen von Union und SPD verwendet wird. Österreich. Die Freiheitlichen in Österreich etwa werden hier mit der Farbe Blau assoziiert, sodass es dort Rot-Blaue und Schwarz-Blaue Koalitionen gibt. Eine Koalition der Österreichischen Volkspartei mit dem BZÖ gilt als Schwarz-Orange. Nach der Nationalratswahl 2008 wurde eine "Kenia-Koalition" (SPÖ/ÖVP/Grüne) als mögliche Verstärkung der Großen Koalition erwogen, um eine Zweidrittelmehrheit für die Regierungsparteien im Nationalrat zu ermöglichen. Das früher Proporzsystem in den österreichischen Bundesländern, wonach die parteiliche Zusammensetzung der Landesregierung dem Mandatsverhältnis im Landtag entspricht, ist seit den 2000er Jahren in mehreren Ländern abgeschafft worden. 2015 entstanden beispielsweise im Burgenland und der Steiermark erstmals echte Koalitionsregierungen. Schweiz. Die Schweiz kennt keine Koalitionen. Allfällige Absprachen und Zusammenarbeiten werden von Thema zu Thema, bzw. von Wahl zu Wahl oder Abstimmung zu Abstimmung vorgenommen. Wenn die beiden wählerstärksten Parteien SP (links) und SVP (rechts) zusammen die Mitteparteien überstimmen, wird dies als "unheilige Allianz" bezeichnet. Beurteilung. Die Bildung von politischen Bündnissen in Form von Wählervereinigungen oder politischen Parteien wurde von Theoretikern der Demokratie häufig negativ bewertet. Man befürchtete, dass organisierte Interessengruppen sich der Regierung und des Staates bemächtigten und dass anstelle des Gemeinwohls partikulare Interessen verfolgt würden. (So z. B. Jean-Jacques Rousseau und James Madison.) Republik China. In Taiwan (Republik China) ist eine Koalition seit ungefähr 1986 (Gründung der DPP) ein informales Bündnis aus Parteien, die für oder gegen eine Annäherung an die Volksrepublik China plädieren ("vgl." pan-grüne Koalition und pan-blaue Koalition), oder ein Bündnis aus gemeinnützigen Vereinen mit innenpolitischen Belangen (→ pan-violette Koalition). Diese Koalitionen bleiben informell, können aber auch kooperativ sein. Sie haben aber nicht die Aufgabe wie etwa in Deutschland, absolute Mehrheiten für die Regierungsbildung zu generieren. Koalitionsfreiheit. Koalitionsfreiheit bezeichnet das Recht von Arbeitnehmern und Arbeitgebern, sich zur Wahrung und Förderung der Arbeits- und Wirtschaftsbedingungen zusammenzuschließen. Kern dieses Rechtes – das Koalitionsrecht – ist die Möglichkeit, Gewerkschaften und Arbeitgeberverbände zu gründen und sich diesen anzuschließen. "Arbeitsbedingungen" sind Bedingungen, die sich auf das Arbeitsverhältnis selbst beziehen, wie z. B. Lohn, Arbeitszeiten, Kündigungsschutz usw., "Wirtschaftsbedingungen" haben darüber hinaus wirtschafts- und sozialpolitischen Charakter, wie z. B. Maßnahmen zur Verringerung oder Vermeidung der Arbeitslosigkeit. Koalitionsfreiheit wird nach positiver Koalitionsfreiheit, also dem Recht, Gewerkschaften und Arbeitgeberverbänden beizutreten und der negativen Koalitionsfreiheit, also dem Recht, Gewerkschaften und Arbeitgeberverbänden fernzubleiben, unterschieden. In Deutschland, der Schweiz, Frankreich und Italien gehört die Koalitionsfreiheit zu den verfassungsmäßig garantierten Grundrechten. Die Europäische Menschenrechtskonvention (EMRK) gewährt in Ziff. 1 ausdrücklich das Recht, Gewerkschaften zu bilden, ebenso der UNO-Pakt über bürgerliche und politische Rechte in Art. 22 Abs. 1 und der Internationale Pakt über wirtschaftliche, kulturelle und soziale Rechte in Art. 8. Auch die negative Koalitionsfreiheit ist durch die EMRK geschützt. Auf EU-Ebene wird die Koalitionsfreiheit durch Artikel 12 Abs. 1 und Artikel 28 der EU-Grundrechtecharta geschützt. Deutschland. Die in Abs. 3 Grundgesetz für die Bundesrepublik Deutschland (GG) verankerte Koalitionsfreiheit ist ein Sonderfall des allgemeinen Grundrechts der Vereinigungsfreiheit. Als Doppelgrundrecht schützt es die individuelle wie auch kollektive Koalitionsfreiheit. Es wirkt unmittelbar auch zwischen Privaten, meistens den Arbeitsvertragsparteien. Damit ist es das einzige Grundrecht mit unmittelbarer Drittwirkung. Koalitionsbegriff. Allgemein versteht man unter dem Begriff Koalition eine Vereinigung – unter Umständen auch einen Verein – von Personen oder Personengruppen, welche die Absicht haben, durch gemeinsames Vorgehen auf bestehende Bedingungen oder Zustände einzuwirken. Im Arbeitsrecht werden darunter in erster Linie Zusammenschlüsse von Arbeitnehmern verstanden, die als Gruppe, z. B. durch gleichzeitige Einstellung der Arbeit, den Streik, Forderungen zur Änderung von Arbeitsbedingungen einschließlich der Entlohnung vertreten und gegebenenfalls durchsetzen können. Auch Arbeitgeber können Koalitionen in Form von Arbeitgebervereinigungen bilden. Verfassungsrechtlicher Begriff. Als Koalition im verfassungsrechtlichen Sinn gilt jede freiwillige, privatrechtliche Vereinigung mit dem Ziel der Wahrung und Förderung der Arbeitsbedingungen, die gegnerunabhängig ist und Willen zur Durchsetzung von tarifrechtlichen Forderungen besitzt. Tarifrechtlicher Begriff. Um die tarifrechtliche Tariffähigkeit (Tarifvertragsgesetz) (TVG) zu erlangen, muss eine Koalition zusätzlich zu den verfassungsrechtlichen Merkmalen folgende Eigenschaften aufweisen: Sie muss soziale Mächtigkeit (auch „Durchsetzungsfähigkeit“) besitzen, also eine Durchsetzungskraft, die erwarten lässt, dass sie als Tarifpartner vom sozialen Gegenspieler wahr- und ernstgenommen wird. Ferner muss sie bereit sein, über alle Arbeitsbedingungen zu verhandeln und entsprechende Tarifabschlüsse zu erwirken. Letztlich verlangt die Tariffähigkeit eine durch demokratische Strukturen mitgliedschaftlich legitimierte Tarifpolitik. Beamtenrechtlicher Begriff. Für Beamte ist die Koalitionsfreiheit in den Beamtengesetzen besonders geregelt. Nach Bundesbeamtengesetz (BBG) und Beamtenstatusgesetz (BeamtStG) haben Beamte das Recht, sich in Gewerkschaften oder Berufsverbänden zusammenzuschließen. Sie dürfen wegen Betätigung für ihre Gewerkschaft oder ihren Berufsverband nicht dienstlich gemaßregelt oder benachteiligt werden. Die Koalitionsfreiheit gilt für Beamte jedoch nur eingeschränkt, da sie wegen der hergebrachten Grundsätze des Berufsbeamtentums über kein Streikrecht verfügen. Gefangenengewerkschaft. Derzeit ist gerichtlich umstritten, ob auch Gefangene das Recht auf Koalitionsfreiheit haben. Das Grundgesetz kennt keine besondere Einschränkung für diese Personengruppe. Entsprechend urteilte das OLG Hamm (III – 1 Vollz (Ws) 180/15, 02.06.2015 und III – 1 Vollz (Ws) 203/15, 11.06.2015), dass auch Gefangene sich gewerkschaftlich organisieren dürfen, das KG Berlin (2 Ws 132/15 Vollz, 29. Juni 2015) lehnte dieses Ansinnen ab und argumentierte mit der überkommenen Lehre vom besonderen Gewaltverhältnis und führte aus, dass Gefangenenarbeit auch ein "Zwangsmittel zu dem durch die Freiheitsstrafe auferlegten Strafübel" sein könne, obgleich dieser Zweck sich gesetzlich nicht finden lässt. Individuelle Koalitionsfreiheit. Die individuelle Koalitionsfreiheit schützt den Einzelnen in seiner Freiheit, eine Vereinigung zur Wahrung der Arbeits- und Wirtschaftsbedingungen zu gründen, ihr beizutreten oder sie zu verlassen. Daher ist beispielsweise die Kündigung eines Arbeitnehmers aufgrund seiner Gewerkschaftsmitgliedschaft nichtig, da eine solche Diskriminierung den Arbeitnehmer in seinem Recht auf Koalitionsfreiheit verletzt, Abs. 3 Satz 2 GG. Mit der "positiven Koalitionsfreiheit" korrespondiert die "negative Koalitionsfreiheit", das heißt das Recht, dass Arbeitnehmer wie Arbeitgeber aus ihren Koalitionen auch wieder austreten oder ihnen fernbleiben dürfen. Tarifverträge dürfen gewerkschaftlich nicht organisierte Arbeitnehmer von tariflichen Vergünstigungen nicht per se ausschließen. Der Ausschluss von einzelnen Tarifleistungen ist in bestimmten Grenzen aber zulässig. Kollektive Koalitionsfreiheit. Neben der individuellen Koalitionsfreiheit beinhaltet Abs. 3 GG die kollektive Koalitionsfreiheit (daher Doppelgrundrecht), die die Koalition als Verband schützt. Geschützt ist durch diese die Koalition selbst in ihrem Bestand (Bestandsgarantie), ihrer organisatorischen Ausgestaltung (Organisationsautonomie) und ihren Betätigungen (Betätigungsgarantie), sofern diese der Förderung der Arbeits- und Wirtschaftsbedingungen dienen. Bestandsgarantie. Durch die auf den verfassungsrechtlichen Koalitionszweck (Wahrung und Förderung der Arbeitsbedingungen) gerichtete Bestandsgarantie ist der Bestand der Koalitionen gegenüber Dritten geschützt. Abreden und Maßnahmen Dritter, die in den Bestand der Koalition eingreifen, sind rechtswidrig. Als solche rechtswidrige Maßnahme gilt beispielsweise, wenn die Einstellung eines Bewerbers von dessen Austritt aus einer Gewerkschaft abhängig gemacht wird. Der Bestand ist aber auch gegenüber konkurrierenden Gewerkschaften geschützt. Betätigungsgarantie. Zur geschützten Betätigungsgarantie gehört das Recht, in der gesamten Sphäre der Arbeits- und Wirtschaftsbedingungen die organisierten Gruppeninteressen gegenüber Arbeitgebern, deren Koalitionen, dem Staat und den politischen Parteien darzustellen und zu verfolgen. Das Grundgesetz schreibt weder vor wie die gegensätzlichen Grundrechtspositionen im Einzelnen abzugrenzen sind noch verlangt die Verfassung eine Optimierung der Kampfbedingungen. Der Schutzbereich der Koalitionsfreiheit beschränkt sich nicht auf die traditionell anerkannten Formen des Arbeitskampfes d.h. Streik und Aussperrung. Vielmehr überlässt Art. 9 Abs. 3 den Koalitionen selbst die Wahl der Mittel, die sie zur Erreichung ihrer koalitionsspezifschen Zwecke für geeignet erachten. Die Betätigungsgarantie erstreckt sich auf alle koalitionsspezifischen Verhaltensweisen und umfasst insbesondere die Tarifautonomie, die im Zentrum der den Koalitionen eingeräumten Möglichkeiten zur Verfolgung ihrer Zwecke steht. Die Wahl der Mittel, mit denen die Koalitionen die Regelung der Arbeitsbedingungen durch Tarifverträge zu erreichen versuchen und die sie hierzu für geeignet halten, überlässt Abs. 3 GG grundsätzlich ihnen selbst. Dementsprechend schützt das Grundrecht als koalitionsmäßige Betätigung auch Arbeitskampfmaßnahmen, die auf den Abschluss von Tarifverträgen gerichtet sind. Sie werden jedenfalls insoweit von der Koalitionsfreiheit erfasst, als sie erforderlich sind, um eine funktionierende Tarifautonomie sicherzustellen. Dazu gehört auch der Streik. Er ist als Arbeitskampfmittel grundsätzlich verfassungsrechtlich gewährleistet. Die durch Abs. 3 GG gewährleistete Freiheit in der Wahl der Arbeitskampfmittel schützt nicht nur bestimmte Formen des Streiks. Der Schutzbereich des Abs. 3 GG ist nicht etwa von vornherein auf den Bereich des Unerlässlichen beschränkt. Der Grundrechtsschutz erstreckt sich vielmehr auf alle Verhaltensweisen, die koalitionsspezifisch sind. Organisationsautonomie. Durch die Organisationsautonomie werden die Selbstbestimmung über die Organisation und innere Ordnung der Koalitionen, das Verfahren ihrer inneren Willensbildung und die Führung der Geschäfte garantiert. Schranken. Abs. 3 GG ist ein schrankenlos gewährleistetes Grundrecht, in das nur rechtmäßig eingegriffen werden kann, wenn es zum Schutz anderer Rechtsgüter mit Verfassungsrang erforderlich ist. Zusätzlich gilt auch hier der Grundsatz der Verhältnismäßigkeit. Schweiz. In der Schweiz ist die Koalitionsfreiheit in Art. 28 der Bundesverfassung von 1999 garantiert: „Die Arbeitnehmerinnen und Arbeitnehmer, die Arbeitgeberinnen und Arbeitgeber sowie ihre Organisationen haben das Recht, sich zum Schutz ihrer Interessen zusammenzuschliessen, Vereinigungen zu bilden und solchen beizutreten oder fernzubleiben“ (Abs. 1). Inwiefern die Koalitionsfreiheit in der alten Bundesverfassung von 1874, welche die Koalitionsfreiheit nicht explizit erwähnte, unter die Vereinsfreiheit fiel, war umstritten. Frankreich. In der Präambel der französischen Verfassung von 1946 werden Koalitions- und Streikrecht explizit garantiert. Wörtlich: „Jeder Mensch kann seine Rechte und seine Interessen durch gewerkschaftliche Betätigung verteidigen und sich einer Gewerkschaft seiner Wahl anschließen. Das Streikrecht wird im Rahmen der Gesetze, die es regeln, ausgeübt.“ Italien. Die Verfassung der italienischen Republik vom 1. Januar 1948 garantiert das Koalitionsrecht Vereinigtes Königreich. 1799 wurde mit dem Combination Act die Bildung von Gewerkschaften im Vereinigten Königreich verboten. Mit der Aufhebung dieses Gesetzes 1824/5 wurden Gewerkschaften zugelassen und ein erster Schritt zur Koalitionsfreiheit gemacht. In den Folgejahren spielten Gewerkschaften und Arbeitgeberverbände jedoch keine bedeutende Rolle. Auch kam es weiterhin zu juristischer Verfolgung von Gewerkschaftsgründungen wie im Fall der Tolpuddle Martyrs 1834. Eine vollständige Gewährung von Koalitionsfreiheit bestand ab 1871. Es gehörte zur britischen Tradition, dass Gewerkschaften mit den Unternehmen Verträge über Closed Shops aushandelten, denen zufolge Mitarbeiter von Unternehmen zwangsweise Gewerkschaftsmitglieder sein oder werden mussten (Closed Shop). Diese mit dem Prinzip der negativen Koalitionsfreiheit unvereinbare Praxis wurde in den 1980er Jahren durch die Gesetzgebung der Thatcher-Regierung abgeschafft. Vereinigte Staaten von Amerika. Der erste von einer Arbeiterkoalition ausgelöste Streik in den USA war wahrscheinlich die Arbeitsniederlegung der Druckereiarbeiter 1786 in Philadelphia, wo es um einen Mindestlohn von 6 Dollar als Wochenlohn ging. Eine Koalition im engeren Sinne setzt voraus, dass der den Streik organisierende Zusammenschluss auch nach dem Streik weiter besteht. Dies dürfte in den USA erstmals 1794 der Fall gewesen sein, als sich die Schuhmachergesellen von Philadelphia unter der Bezeichnung "Federal Society of Journeymen Cordswainers" zusammenschlossen. Eine formlose und jedenfalls geheime Koalition scheint es bei den Grubenarbeitern, meist irischer Herkunft, gegeben zu haben, die sich in den Tiefen der Bergwerke mit missliebigen Vorarbeitern auseinandergesetzt haben, was dann zu entsprechenden Gegenmaßnahmen der Bergbaugesellschaften geführt hat und eine Tradition der Gewaltausübung auf Seiten der Arbeitnehmer und der Arbeitgeber begründete. Im Unterschied zu den „trade unions“ in England bezeichneten sich Arbeitnehmervereinigungen in den USA als „labor unions“. Die zunehmend in Vereinigungen zusammengeschlossenen Arbeitgeber bekämpften die Zusammenschlüsse der Arbeitnehmer meist als kriminelle Verschwörung (conspiracy) und fanden in der Regel auch Unterstützung durch die Justiz. Den Zerfall der amerikanischen Arbeiterkoalitionen während des Sezessionskrieges und danach überstanden zwei Organisationen: Die eine nannte sich „Noble Order of the Knights of Labor“, die andere war eine kleine Gewerkschaft, die "International Cigar Maker's Union", deren Präsident Samuel Gompers die "American Federation of Labor" (AFL) gründete. Eine weitere Richtung der Gewerkschaftsentwicklung in den USA führte unter der Initiative von John L. Lewis 1932 über die Gewerkschaft der Automobilarbeiter zur Gründung des "Congress of Industrial Organizations" (1935 bis 1955). CIO und AFL schlossen sich 1955 zum Gewerkschaftsbund AFL-CIO zusammen. Der zur Bekämpfung von Kartellen erlassene Sherman Antitrust Act führte in der Praxis zu einer wesentlichen Einschränkung der Koalitionsfreiheit der Arbeitnehmer. Unter dem "New Deal" des amerikanischen Präsidenten Franklin Delano Roosevelt wurde der "Wagner Act" erlassen, der die Koalitionsfreiheit wieder herstellte. Durch den "Taft Hartely Act" kam es schließlich zu einer umfassenden Gesetzgebung der "Labor and Industrial Relations" genannten Arbeitsbeziehungen, insbesondere was die Maßnahmen zur Vermeidung von Streitigkeiten durch das "Collective Bargaining" betrifft, einem Regelwerk für den Ablauf der Maßnahmen bei Streitigkeiten zwischen Arbeitnehmern und Arbeitgebern. Im Konflikt zwischen kollektiven und individuellen Regelungen besteht grundsätzlich ein Vorrang individueller Regelungen. Die bestehende Vertragsfreiheit lässt daher auch den Verzicht der Arbeitnehmer auf eine unabhängige Arbeitnehmervertretung zu. Geschichte. Historisch gehört die Koalitionsfreiheit zu den erbittert umkämpften Rechten der Arbeitnehmer für den Zusammenschluss in Gewerkschaften. Die dokumentierte Geschichte des deutschen Koalitionsrechts geht bis in das 14. Jahrhundert zurück. Den Vereinigungen der Knechte und Gesellen – den sogenannten Gesellenschaften – standen die Zünfte gegenüber. Die Reichsgesetzgebung begann 1530 und führte über verschiedene Landesgesetze zum Reichsgesetz von 1731. Bis zur Französischen Revolution waren diese Gesetze im Wesentlichen auf das Verbot von Koalitionen bzw. auf deren Begrenzung gerichtet. Auch wenn sich mit Entstehung der Arbeiterbewegung und auch von Seiten des Linksliberalismus immer wieder Stimmen erhoben, die eine Koalitionsfreiheit forderten, blieb das Verbot bestehen. Es wurde in Preußen 1854 und 1860 bekräftigt und ging 1865 in das "Allgemeine Berggesetz" ein. 1869 wurde in der Gewerbeordnung des Norddeutschen Bundes erstmals Koalitionsfreiheit gewährt, woraufhin die ersten legalen Gewerkschaften in Deutschland entstanden. Gleichwohl blieb die Koalitionsfreiheit, die auch nach der Reichsgründung in der Reichsgewerbeordnung von 1872 festgeschrieben wurde, beschränkt. Lujo Brentano (1844–1931) wurde dazu mit dem Satz zitiert: „Die Arbeiter haben die Koalitionsfreiheit, nur wenn sie davon Gebrauch machen, so werden sie bestraft.“ In Frankreich erließ die Nationalversammlung nach der Revolution von 1789 und dem Bruch mit der korporativen Ordnung, nur zwei Jahre nach der Erklärung der Menschen- und Bürgerrechte, im Juni 1791 das Gesetz Le Chapelier, das Koalitionen zur Vertretung gemeinsamer Berufs- und Gewerbeinteressen generell verbot und im Code pénal (Art. 414-416) mit unterschiedlichen Strafen für die beiden Parteien der Arbeitgeber und Arbeitnehmer belegte. Nach der Revolution von 1848 wurde das Verbot kurzfristig und erst 1884 mit dem "Loi Waldeck-Rousseau" endgültig aufgehoben. Das britische Parlament verbot alle Zusammenschlüsse ("Combinations") von Arbeitern zur Verbesserung ihrer Lohn- und Arbeitsbedingungen mit dem "Combinations Act" von 1799 und einem weiteren von 1800. Aufgehoben wurde das Verbot mit den "Combinations Repeal Acts" von 1824 und 1825. Doch konnten die Aktivitäten der Gewerkschaften noch weitere fünfzig Jahre, bis zum Erlass des "Trade Union Act" von 1871 und des "Conspiracy and Protection of Property Act" von 1875, als illegale und kriminelle Handlungen verfolgt werden. In Deutschland wurde nach dem Sieg Napoleons in den französisch besetzten Gebieten (siehe „Franzosenzeit“) der "Code pénal" mit dem Koalitionsverbot übernommen. Auch die Preußische Gewerbeordnung von 1845 stellte Koalitionsbestrebungen unter Strafe (§§ 181-184). Koalitionsfreiheit gewährte Sachsen ab 1861, der Norddeutsche Bund ab 1869 und das Deutsche Reich ab 1872. In der Weimarer Verfassung war die Koalitionsfreiheit in Art. 159 geregelt. In der Zeit des Nationalsozialismus bestand keine Koalitionsfreiheit. Gewerkschaften und Arbeitgeberverbände waren verboten, ihr Vermögen der Deutschen Arbeitsfront übertragen. Auch in den sozialistischen Staaten war die Koalitionsfreiheit eingeschränkt. So waren in der DDR Arbeitgeberverbände verboten. Gewerkschaften waren zwar nominell erlaubt, standen aber unter der Kontrolle der SED. Versuche, Freie Gewerkschaften zu bilden, führten zu Konflikten mit den Regimes. Karl Oppel. Karl Oppel (* 9. August 1816; † 12. Mai 1903 in Frankfurt am Main) war ein deutscher Schriftsteller. Leben. Von 1833 bis 1835 war Karl Oppel am Lehrerseminar in Esslingen am Neckar. Er wurde auch Lehrer neben seinen Universitätsstudien. Am 14. Mai 1859 wurde er in Gießen zum Dr. phil. ernannt. Von 1883 bis 1893 lebte er in Schweinfurt. 1846 trat er der Freimaurerloge "Socrates" bei, von 1874–1880 war er Großmeister des Eklektischen Freimaurerbundes. Kazimierz Kuratowski. Kazimierz Kuratowski (* 2. Februar 1896 in Warschau, Polen; † 18. Juni 1980 in Warschau) war ein polnischer Mathematiker und Logiker. Im Herbst desselben Jahres habilitierte er an der Warschauer Universität mit der Lösung eines Problems aus der Mengenlehre. Ursprünglich stammte dies von de la Vallée Poussin, einem belgischen Mathematiker. Zwei Jahre später wurde er stellvertretender Professor am zweiten Lehrstuhl für Mathematik an der Warschauer Universität und übernahm 1927 den dritten Lehrstuhl für Mathematik an der Allgemeinen Abteilung des Polytechnikums in Lemberg, in der Position eines Extraordinarius. Er stand diesem Lehrstuhl bis 1933 vor und war zweimal Dekan. Nachdem die Abteilung aufgelöst worden war, übernahm er 1934 den vierten Lehrstuhl für Mathematik der Warschauer Universität als Ordinarius (1934–1935), anschließend leitete er dort den dritten Lehrstuhl (1935–1952, mit einer kriegsbedingten Unterbrechung). Zwischen 1936 und 1939 war er Sekretär des Mathematischen Komitees im Rat für exakte und angewandte Wissenschaften. Während des Zweiten Weltkrieges lehrte er an der Untergrunduniversität in Warschau. Ab 1929 war er Mitglied der Warschauer Wissenschaftlichen Gesellschaft (ab 1946 als Vizepräsident der Abteilung 3, ab 1949 als Vizepräsident der Gesellschaft). Als im Februar 1945 die Warschauer Universität wiedereröffnet wurde, nahm er seine Vorlesungstätigkeit wieder auf. Im gleichen Jahr wurde er zum ordentlichen Mitglied der Polnischen Akademie der Wissenschaften berufen und war von 1957 bis 1968 ihr Vizepräsident. Unmittelbar nach dem Ende des Zweiten Weltkrieges engagierte er sich aktiv beim Wiederaufbau des wissenschaftlichen Lebens in Polen, indem er unter anderem das Staatliche Mathematische Institut ins Leben rief, das später zum Mathematischen Institut der Polnischen Akademie der Wissenschaften wurde. Er stand diesem Institut 1948–1968 als Direktor vor und war außerdem Vorsitzender des Wissenschaftsrates (1968–1980) und Leiter der Abteilung Topologie (1948–1980). Er nahm aktiv an der Arbeit der Warschauer Wissenschaftlichen Gesellschaft und der Polnischen Mathematischen Gesellschaft teil, war ihr langjähriger Vorsitzender und Ehrenmitglied. Außerdem war er Redakteur der "„Fundamenta Mathematicae“", ab 1925 ihr Chefredakteur, des "„Bulletins der Polnischen Akademie der Wissenschaften“", Mitschöpfer und Redakteur der Buchreihe "„Mathematische Monographien“", in der die wertvollsten Werke der Vertreter der Warschauer und Lemberger mathematischen Schule veröffentlicht wurden. Er war Mitglied zahlreicher ausländischer Gesellschaften und Akademien: Royal Society of Edinburgh, von Österreich, Deutschland, Ungarn, Italien und der Sowjetunion. Kuratowski arbeitete hauptsächlich in der Topologie. Er schuf die Axiomatik der Abschlüsse, die heute auch als Kuratowski-Axiomatik bekannt ist. Diese bildet die Grundlage zur Entwicklung der Theorie der topologischen Räume allgemein, und insbesondere seiner Theorie der irreduziblen Kontinua zwischen zwei Punkten. Zu Kuratowskis wichtigsten Resultaten, die er nach dem Zweiten Weltkrieg erzielte, gehören diejenigen, die eine Beziehung zwischen der Topologie und der Theorie der analytischen Funktionen herstellten, sowie die tiefliegenden Sätze zur Schnitttheorie in euklidischen Räumen. Zusammen mit Stanislaw Ulam, seinem begabtesten Schüler aus seiner Zeit in Lemberg, erarbeitete er den Begriff des Quasihomöomorphismus, der den Ausgangspunkt eines neuen Bereiches topologischer Forschung bildete. Seine Forschungen in der Maßtheorie, unter anderem mit gemeinsamen Ergebnisse von Stefan Banach und Alfred Tarski, wurden von zahlreichen Nachfolgern weitergeführt. Die gemeinsamen Arbeiten Kuratowskis mit Bronisław Knaster in der Theorie der zusammenhängenden Mengen brachten eine allseitige exakte Übersicht der entsprechenden allgemeinen Theorie. Diese wiederum konnte auf Probleme der Schnitttheorie der Ebene angewandt werden, insbesondere auf die entsprechenden paradoxen Beispiele zusammenhängender Mengen; erwähnt sei die "zweifach zusammenhängende Knaster-Kuratowski-Menge". Kuratowski ist Autor des Satzes, der heute als "Lemma von Kuratowski-Zorn" oder Lemma von Zorn bekannt ist und der erstmals von Kuratowski 1922 in der Ausgabe 3 der "„Fundamenta Mathematicae“" bewiesen wurde. Dieses Lemma hat nichttriviale Anwendungen in den Beweisen zahlreicher fundamentaler Theoreme. Zorn wandte es 1935 an („Bulletin of the American Mathematical Society“, 41). Die Begriffe, die Kuratowski in die Mengenlehre und die Topologie einführte, gingen dauerhaft in die Literatur über diese Gebiete ein. In vielen Fällen war er sogar der Schöpfer der entsprechenden Terminologie und Symbolik. Unter den über 170 wissenschaftlichen Publikationen sind seine Monografien und Lehrbücher besonders hervorzuheben, unter anderem seine "„Topologie“" (Bd. 1 1933, Bd. 2 1950), ein fundamentales Werk, das auch auf englisch und russisch erschien, seine "„Mengenlehre“" (gemeinsam mit Mostowski, erschienen 1952, Übersetzungen ins Englische und Russische), sowie seine "„Einführung in die Mengenlehre und Topologie“" (erschienen 1952, Übersetzungen ins Englische, Französische, Spanische, Bulgarische). Er war gleichfalls Autor der populärwissenschaftlichen Darstellung "„Ein halbes Jahrhundert polnische Mathematik 1920-1970“" (1973) sowie der posthum herausgegebenen "„Notizen zur Autobiographie“" (1981), die von seiner Tochter Zofia zum Druck gebracht wurden. Er repräsentierte die polnische Mathematik in der Internationalen Mathematischen Union, deren Vizepräsident er 1963–1966 war, vertrat sie auf zahlreichen internationalen Kongressen, hielt in Dutzenden Universitäten auf der ganzen Welt Vorträge. Er war "Doktor honoris causa" der Universitäten von Glasgow, Prag, Wroclaw und Paris. Er war Träger höchster staatlicher Ehrungen, unter anderem die "Goldmedaille der Tschechoslowakischen Akademie der Wissenschaften" sowie der "Kopernikus-Medaille der Polnischen Akademie der Wissenschaften". Diese Biographie ist ein Eintrag in der „Enzyklopädie der polnischen Mathematiker“, Proszynski und S-ka (in Vorbereitung). Siehe auch. Satz von Kuratowski Klassische Probleme der antiken Mathematik. Lösungen durften nur in endlich vielen Schritten mit den sog. "Euklidischen Werkzeugen", d. h. mit Zirkel und einem Lineal ohne Maßeinteilungen herbeigeführt werden. Erst im 19. Jahrhundert konnte mit algebraischen Methoden für alle drei Probleme bewiesen werden, dass sie im Allgemeinen mit diesen einfachen Hilfsmitteln nicht lösbar sind. Carl Friedrich Gauß und Évariste Galois leisteten wichtige Vorarbeiten. Die endgültigen Beweise zur Winkeldrittelung und Würfelverdoppelung fand Pierre Laurent Wantzel im Jahr 1837, der Beweis der Unmöglichkeit der Quadratur des Kreises wurde im Jahr 1882 von Ferdinand von Lindemann durch den Beweis der Transzendenz der Kreiszahl formula_1 erbracht. Kayes. Kayes ist eine Stadt im westlichen Mali mit 148 053 Einwohnern (Zensus 2012) und Hauptstadt der Region Kayes. Sie liegt am Senegal-Fluss und war ab 1882 für wenige Jahre die Hauptstadt der Kolonie Französisch-Sudan. Die Stadt liegt an der Anfang des 20. Jahrhunderts eröffneten Bahnstrecke Dakar–Niger. Außerdem ist Kayes vom rund 500 km entfernten Bamako aus mit dem Flugzeug zu erreichen. Kayes war bis zur politischen Wende in der DDR Partnerstadt von Magdeburg. Der Magdeburger Oberbürgermeister Werner Herzig war zum Ehrenbürger von Kayes ernannt worden. Komplexität (Informatik). Komplexität bezeichnet in der Informatik die „Kompliziertheit“ von Problemen, Algorithmen oder Daten. Die Komplexitätstheorie befasst sich dabei mit dem Ressourcenverbrauch von Algorithmen, die Informationstheorie dagegen verwendet den Begriff für den Informationsgehalt von Daten (siehe unten). Komplexität von Algorithmen. Unter der Komplexität (auch "Aufwand" oder "Kosten") eines Algorithmus (nicht zu verwechseln mit der "Algorithmischen Komplexität", siehe unten) versteht man in der Komplexitätstheorie seinen maximalen Ressourcenbedarf. Dieser wird oft in Abhängigkeit von der Länge formula_1 der Eingabe angegeben und für große formula_1 asymptotisch unter Verwendung eines Landau-Symbols abgeschätzt. Analog wird die Komplexität eines Problems definiert durch den Ressourcenverbrauch eines optimalen Algorithmus zur Lösung dieses Problems. Die Schwierigkeit liegt darin, dass man somit alle Algorithmen für ein Problem betrachten müsste, um die Komplexität desselben zu bestimmen. Die betrachteten Ressourcen sind fast immer die Anzahl der benötigten Rechenschritte (Zeitkomplexität) oder der Speicherbedarf (Platzkomplexität). Die Komplexität kann aber auch bezüglich einer anderen Ressource bestimmt werden. Dabei interessiert nicht der Aufwand eines konkreten Programms auf einem bestimmten Computer, sondern viel mehr, "wie" der Ressourcenbedarf wächst, wenn mehr Daten zu verarbeiten sind, also z. B. ob sich der Aufwand für die doppelte Datenmenge verdoppelt oder quadriert (Skalierbarkeit). Oft ist es sehr aufwändig oder ganz unmöglich, eine Funktion anzugeben, die allgemein zu jeder beliebigen Eingabe für ein Problem den zugehörigen Aufwand an Ressourcen angibt. Daher begnügt man sich in der Regel damit, statt jede Eingabe einzeln zu erfassen, sich lediglich mit der "Eingabelänge" formula_3 zu befassen. Es ist aber meist sogar zu schwierig, eine Funktion formula_4 anzugeben. Daher beschränkt man sich häufig darauf, eine obere und untere Schranke für das asymptotische Verhalten anzugeben. Hierfür wurden die Landau-Symbole entwickelt. Algorithmen und Probleme werden in der Komplexitätstheorie gemäß ihrer so bestimmten Komplexität in so genannte Komplexitätsklassen eingeteilt. Diese sind ein wichtiges Werkzeug, um bestimmen zu können, welche Probleme „gleich schwierig“, beziehungsweise welche Algorithmen „gleich mächtig“ sind. Dabei ist die Frage, ob zwei Komplexitätsklassen gleichwertig sind, oft nicht einfach zu entscheiden (zum Beispiel P-NP-Problem). Die Komplexität eines Problems ist zum Beispiel entscheidend für die Kryptographie und insbesondere für die asymmetrische Verschlüsselung: So verlässt sich zum Beispiel das RSA-Verfahren auf die Vermutung, dass die Primfaktorzerlegung von großen Zahlen nur mit sehr viel Aufwand zu berechnen ist – anderenfalls ließe sich aus dem öffentlichen Schlüssel leicht der private Schlüssel errechnen. Ein Problem, das selbst für einen Computer von der Größe der Erde nicht lösbar ist, wird als transcomputationales Problem bezeichnet. Komplexität von Daten. Zum einen gibt es die so genannte "Kolmogorow-Komplexität" (auch "Algorithmische Komplexität" oder "Beschreibungskomplexität"), die den Informationsgehalt als die Größe des kleinsten Programms definiert, das in der Lage ist, die betrachteten Daten zu erzeugen. Sie beschreibt eine absolut optimale Komprimierung der Daten. Eine Präzisierung des Ansatzes Andrei Kolmogorows bezüglich des Maschinenmodells bietet die "Algorithmische Informationstheorie" von Gregory Chaitin. Dagegen betrachtet "Algorithmische Tiefe" (auch "Logische Tiefe") die Zeitkomplexität eines optimalen Algorithmus zur Erzeugung der Daten als Maß für den Informationsgehalt. Komplexität. Komplexität (lat., Partizip Perfekt von ‚umschlingen‘, ‚umfassen‘ oder ‚zusammenfassen‘.) bezeichnet das Verhalten eines Systems oder Modells, dessen viele Komponenten auf verschiedenste Weise miteinander interagieren können, nur lokalen Regeln folgen und denen Instruktionen höherer Ebene unbekannt sind. Kann man das Gesamtverhalten des Systems, trotz vollständige Informationen über seine Einzelkomponenten und ihre Wechselwirkungen, "nicht eindeutig" beschreiben, so handelt es sich um Emergenz. Bei dem Begriff handelt es sich um ein Kompositum aus der Präposition ‚mit‘, oder ‚zusammen mit‘ und ‚flechten‘ oder ‚ineinander fügen‘ im Sinne von ‚verflochten‘, ‚verwoben‘. Definitionen. Der Begriff wird je nach Autor und Wissenschafts­gebiet unterschiedlich definiert. Der Ökonom Peter Ulrich bezeichnet die Komplexität einer Situation mit der Vielfalt der einwirkenden Faktoren und dem Ausmaß ihrer gegenseitigen Interdependenzen und charakterisiert diese als Merkmal schlecht strukturierbarer Entscheidungssituationen. Komplexität ist eine mögliche Form eines Gegenteils von Einfachheit, Determinierbarkeit und der Überschaubarkeit. Die Komplexität eines Sachverhaltes wird widergespiegelt durch die Menge der Details, die sich von allen anderen Details des Sachverhalts so unterscheiden, dass es keine vereinfachende Abstraktion gibt, die den Detaillierungsgrad verkleinert. Komplexität wird auch geschaffen durch sich widersprechende Zielsetzungen, Dilemmata und nicht determinierbares Verhalten autonomer Systemeinheiten und ist ein wesentliches Merkmal von sozialen, gesellschaftlichen und kulturellen Systemen. Wenn Komplexitätseindruck in erster Instanz eine Wahrnehmungsschwierigkeit widerspiegelt, weil die Zahl der Verknüpfungsmöglichkeiten eines Systems nicht mehr überschaubar und die Kausalität zwischen ihnen nicht mehr erkennbar ist, kann dies zwei Ursachen haben: Mangel an Abhängigkeiten und Ordnung in der externen Welt (ontologische Komplexität) und Überforderung der menschlichen Wahrnehmungsmittel durch Vielzahl und Vielfalt von bestehender Abhängigkeiten und Ordnung (epistemologische Komplexität). Nahe verwandte Gegensatzbegriffspaare der ontologischen und epistemologische Komplexität sind jeweils die von Warren Weaver vorgeschlagenen Begriffspaare der “unorganisierten Komplexität” und “organisierten Komplexität”. Es gibt Ansichten, dass der Begriff „Komplexität“ autologisch sei, das heißt, dass man ihn auf sich selbst beziehen könne: Der Begriff der Komplexität sei selbst komplex. Gesellschaft. Joseph Tainter argumentiert, dass die in primitiven Gesellschaften bestehende Möglichkeit, Probleme z. B. der Ressourcenknappheit einfach durch Wanderung (durch horizontale Ausbreitung) zu lösen, in sesshaften, entwickelten und komplexen Gesellschaften nicht existiert. Hier müsse man eine „vertikale“ Lösung finden, d. h. eine höhere Form hierarchischer Kontrolle entwickeln, also etwa mehr Steuern erheben, sich in Formalismen flüchten, die Bürokratie oder das Heer vergrößern, die Eliten noch stärker begünstigen usw. So entsteht eine Spirale wachsender Komplexität und wachsender Komplexitätskosten, wobei die Investitionen in die immer komplexer werdenden Problemlösungsstrategien einen sinkenden Ertrag pro Investitionseinheit erzielen. An diesem Punkt sei ein gesellschaftlicher Kollaps sogar sinnvoll; er führe zu einem Verschlankungsprozess. Organisationen. Die Komplexität von Organisationen steigt nach Auffassung der Organisationstheorie mit dem Ausmaß ihrer funktionalen Differenzierung und der damit verbundenen Arbeitsteilung, Wachstum, Spezialisierung, Professionalisierung und Dezentralisierung. Damit wächst auch die Vielfalt der in der Organisation vorhandenen Informationen und Handlungsprogramme zur Handhabung von Ereignissen der äußeren (z. B. Märkte, Politik) und innerorganisatorischen Umwelt (Subjektivität der Mitarbeiter). Unkontrollierte Komplexität in einer Organisation führt zu Effizienzmängeln, hemmt Innovationen, bindet Ressourcen in unproduktiven bürokratischen Prozessen und steigert die Kosten. Zu geringe Komplexität einer Organisation im Verhältnis zur Komplexität ihrer Umwelt führt ebenfalls zu Funktionsdefiziten. Systemdifferenzierung durch Bildung von Untersystemen stellt zwar einen Versuch dar, die von ihnen jeweils bearbeitete Komplexität zu reduzieren; gleichzeitig erhöht sie jedoch die Gesamtkomplexität der Organisation. Großtechnische Systeme. Charles Perrow analysiert aus soziologischer Perspektive die Versuche, komplexe und riskante (Groß-)Technologien sicherer zu machen, anhand einiger prägnanter Beispiele (z. B. Radar, Kernkraftwerke) und zeigt, dass die Maßnahmen, die darauf zielen, Risiken durch Einbau oder Nachrüstung von Sicherheitstechnik zu beherrschen, oft nur zu einer weiteren Steigerung der Komplexität und zu unkontrollierbaren Interaktionen von Elementen auf engem Raum („Engkopplung“) führen. So löste z. B. die Einführung des Radars in seiner Anfangszeit immer mehr Ausweichreaktionen im Schiffsverkehr aus, was die wechselseitige Unvorhersehbarkeit der Schiffsbewegungen weiter steigerte. Informatik. In der theoretischen Informatik beschreibt die Komplexitätstheorie ein Konzept zur Abschätzung des Ressourcenaufwandes zur algorithmischen Behandlung bestimmter Probleme. Die Komplexität ist dann groß, wenn einerseits sehr viele und andererseits in der Summe sehr komplizierte Details zu behandeln sind. Produkte. Aufgrund des technischen Fortschritts hat die Komplexität von technischen Produkten stark zugenommen, insbesondere durch die Integration von elektronischen Steuergeräten. So sind in einem Fahrzeug heute bis zu 50 Steuergeräte eingebaut, die untereinander vernetzt sind und miteinander kommunizieren. Dies erhöht zugleich auch die Komplexität der technischen Dokumentation und hat eine erhöhte Komplexität der Produktionsplanung und -steuerung zur Folge. Knoten (Knüpfen). Ein einfacher Überhandknoten aus einem Papierstreifen Ein Knoten (von althochdeutsch: "knoto" „knotenförmige Verdickung“) ist eine Verwicklung von Tauwerk oder einem ähnlichen biegsamen, länglichen Material. Die Windungen bekneifen das verknotete Material und erhöhen die Oberflächenreibung, wodurch die Form stabil wird und sich nicht so leicht lösen kann. Infolge der starken Verwindung kann das Seil nicht immer in Richtung seiner höchsten Zugfestigkeit belastet werden und der Knoten wird zu einer schwächeren Stelle im Seilverlauf. Die reduzierte Zugfestigkeit wird Knotenfestigkeit genannt. Im dritten und engsten Sinn stellt er lediglich eine lokale Verdickung dar. Dies kann zur Herstellung eines Stopperknotens oder eines Griffs sein. Die Knotenkunde kennt eine lange Liste der Knoten mit Schifferknoten, Anglerknoten, Feuerwehrknoten, Krawattenknoten und beschreibt auch das Knüpfen von Knoten. Steinzeit und Altertum. Schon in der Steinzeit (bis zirka 50.000 v. Chr.) gab es Menschen, die sich als Sammler und Jäger, später als Siedler und Fischer, Schlingen und Netze knüpften, um damit Tiere und Fische zu fangen. Die Äxte der Steinzeit wurden ebenso von verknoteten Därmen zusammengehalten wie die Pfahlbauten mit Sehnen und Seilen. Der einfache Überhandknoten diente zum Zusammenbinden von Gebrauchsgegenständen. Aus ihm entwickelte sich der Filetknoten (ein um einen Leitfaden geknüpfter Überhandknoten) zum Knüpfen der Netze. Zur Jagd mit dem Bogen (Altsteinzeit, 30.000 bis 10.000 v. Chr.) musste die Bogensehne sicher befestigt werden. Der Gletscherfund Ötzi (etwa 3340 v. Chr. in der Jungsteinzeit) hatte Gegenstände an seinem Gürtel mit Knoten befestigt. Lendenschurz, „Schilfmatten“-Regenschutz, Grasschuhe und Beinlinge wurden mit Knoten gebunden beziehungsweise zusammengehalten. Antike. Die älteste Überlieferung von Zierknoten stammt von den Assyrern aus der Antike (900 bis 609 v. Chr.). In Stein gemeißelte Reliefs zeigten tunikaähnliche Gewänder, Waffenröcke und Pferdedecken. Sie sind mit dicht verknüpften Fransen sowie dicken Quasten verziert. Der römische Gelehrte Plinius der Ältere (ca. 23–79 n. Chr.), behauptete vom Kreuzknoten (damals Herkulesknoten):. Der Gordische Knoten ist seit der Antike bekannt. Nach 756 kamen durch die Mauren arabische Einflüsse in der Knüpftechnik nach Europa (Córdoba / Spanien). Mit den Kreuzzügen (1096 bis 1270) bis zum späten Mittelalter entwickelten sich aus den relativ einfachen Fransen der Ägypter und Assyrer kunstvolle Knüpfkanten. Das alte Inka-Reich (1250 bis 1781) kannte mit „Quipu“ eine Knotenschrift, welche im Dezimalsystem statistische Aufzeichnungen übermittelte. Christliche Seefahrt. Der dritte wesentliche Einfluss ging von der christlichen Seefahrt aus. Eine Vielzahl von „Schifferknoten“ waren für die unterschiedlichsten Zwecke gebräuchlich. In ihren oft monatelangen Fahrten begannen die Seeleute neben ihren bekannten Gebrauchsknoten in ihrer Freizeit mit Garn und Tauwerk nach Mustern zu knüpfen, welche sie im Orient gesehen hatten. Sie dekorierten ihre Schiffe mit kunstvoll geknüpften Glockenzügen, umknüpften Flaschen und vielem mehr. Oft waren diese Arbeiten ohne praktischen Wert, sie dienten mehr der Zierde. Diese „Knotenknüpfkunst“ wird als Fancywork, Platting und Makramee gepflegt. Neuzeit. Für heutige Anforderungen werden immer wieder neue Knoten erfunden, beispielsweise der Prusikknoten, der Halbmastwurf oder der Karabinerklemmknoten. In den 1980er Jahren wurde Scoubidou bekannt, welches 2004 weite Verbreitung unter Jugendlichen fand. Der Zeppelinstek oder auch Zeppelinknoten ist einer der „jüngsten“ Knoten, welcher in der Fachwelt anerkannt wurde. Mit Rainbow Looms werden verschiedene Gegenstände wie Bänder, Armreife oder auch großflächige Verknüpfungen bzw. Verflechtungen mittels Gummiringen hergestellt. Schrift. Knoten wurden früher auch als Schrift verwendet. Die Inkas benutzten die Knotenschrift Quipu. Bauern und Müller nutzten Knoten als Hilfsmittel zum Zählen (Müllerknoten). Rechtsprechung. Der Henkersknoten am Galgen diente zur Hinrichtung eines Verurteilten. Im Mittelalter wurde beim Abschluss eines Vertrages ein Urkundenknoten in die Riemen der Urkunde geknüpft. Die Anzahl der Knoten bewiesen, wie viele Männer am Vertragsabschluss beteiligt und mit dem Inhalt des Vertrages einverstanden waren. Der „Knotenknüpfer“ galt deshalb auf dem Gericht als Gewährsmann oder Zeuge. Heraldik. In Wappen diente der „Liebesknoten“ als Wappenfigur in Liebesschnüren oder Liebesseilen, welche im 17. Jahrhundert (Frankreich) als modische Kreationen bzw. Verzierung diente. Der Liebesknoten ist auch als „Witwenstrick“ bekannt. Auch heute finden sie sich noch in den Abzeichen schottischer Clans. Beruf und Sport. Der Postsackbinder ersetzt den Knoten Kunst und Mode. a> (1491–1547) mit Knotenstickereien auf Umhang und Vorhang Sex. In der Bondage-Szene werden fixierende oder dekorative Knoten für Fesselspiele und andere sexuellen Praktiken verwendet. Magie. Der Chefalo-Zauberknoten kippt unter Zug und löst sich auf. Mit Knoten können auch Tricks zur Unterhaltung vorgeführt werden. Besonders in Zauberkunststücken werden solche Knotentricks angewendet. Eine sinnvolle, praktische Anwendung ist im Alltag meistens ausgeschlossen. Verein der Knotenspezialisten. Unter der "International Guild of Knot Tyers" wurde 1982 in London eine Vereinigung von Gleichgesinnten aus allen Schichten und Berufsgruppen gegründet. Vom Anfänger bis zum Spezialisten mit dem Interesse rund um Knoten erfolgt der Austausch in Foren und Mitgliederzeitschriften. Durch die stete Entwicklung von Kunstfasern wird der Einsatzbereich von Knoten ständig erweitert und aktualisiert. Kernfusion. Die Kernfusion ist eine Kernreaktion, bei der zwei Atomkerne zu einem neuen Kern verschmelzen. Die Kernfusion ist Ursache dafür, dass die Sonne und alle leuchtenden Sterne Energie abstrahlen. Von entscheidender Bedeutung für das Zustandekommen einer Fusion ist der Wirkungsquerschnitt, das Maß für die Wahrscheinlichkeit, dass die zusammenstoßenden Kerne miteinander reagieren. Ausreichend groß ist der Wirkungsquerschnitt meist nur dann, wenn die beiden Kerne mit hoher Energie aufeinander prallen. Die ist nötig, um die Coulombbarriere, die elektrische Abstoßung zwischen den positiv geladenen Kernen, zu erklimmen und ihr schmales Maximum zu durchtunneln. Jenseits des Maximums, bei einem Abstand von nur noch etwa 10−15 m, überwiegt die Anziehung durch die starke Wechselwirkung, die Kerne haben fusioniert. Fusionsreaktionen können exotherm (Energie abgebend) oder endotherm (Energie aufnehmend) sein. Exotherme Fusionsreaktionen können die hohen Temperaturen aufrechterhalten, die nötig sind, damit die thermische Energie zu weiteren Fusionsreaktionen führen kann. Solche "thermonuklearen" Prozesse laufen in Sternen und Fusionsbomben unter extremem Druck ab. Im Gegensatz zur Kernspaltung ist eine Kettenreaktion mit Fusionsreaktionen nicht möglich. Die oben abgebildete Fusionsreaktion soll in Zukunft der Stromerzeugung in Kernfusionsreaktoren dienen: Kerne von Deuterium (2H) und Tritium (3H) verschmelzen zu einem Heliumkern (4He) unter Freisetzung eines Neutrons (n) sowie von Energie (3,5 MeV + 14,1 MeV). In der Abbildung darunter ist die Bindungsenergie pro Nukleon der Nuklide dargestellt. Energie wird frei bei Reaktionen in aufsteigender Richtung der Kurve bzw. wird benötigt bei abfallender Richtung. Fusionen von Wasserstoff (H) zu Helium (He) setzen besonders viel Energie frei. Erforschung der Kernfusion. Diese Umwandlung von Stickstoff in Sauerstoff stand, wie der Alphazerfall selbst, im Widerspruch zur klassischen Theorie, nach der die Coulombbarriere nur mit ausreichend Energie überwunden werden kann. Erst 1928 konnte George Gamow solche Vorgänge auf der Basis der neuen Quantenmechanik mit dem Tunneleffekt erklären. Schon 1920 hatte Arthur Eddington aufgrund der genauen Messungen von Isotopenmassen durch Francis William Aston (1919) Fusionsreaktionen als mögliche Energiequelle von Sternen vorgeschlagen. Da aus spektroskopischen Beobachtungen bekannt war, dass Sterne zum Großteil aus Wasserstoff bestehen, kam hier dessen Verschmelzung zu Helium in Betracht. 1939 veröffentlichte Hans Bethe verschiedene Mechanismen, wie diese Reaktion in Sternen ablaufen könnte. Die technische Nutzung der Kernfusion wurde zuerst mit dem Ziel der militärischen Waffenentwicklung verfolgt. Daher fand die Fusionsforschung in den ersten Jahrzehnten nach dem Zweiten Weltkrieg im Geheimen statt. Die USA waren seit 1945, die Sowjetunion seit 1949 im Besitz der auf der Kernspaltung basierenden Atombombe. In der Folgezeit entwickelten Edward Teller und Stanislaw Ulam in den USA ein Konzept zum Bau einer Wasserstoffbombe, die auf der Kernfusion beruht und eine wesentlich höhere Sprengkraft versprach. Am 1. November 1952 wurde die erste Wasserstoffbombe namens Ivy Mike im Eniwetok-Atoll im Pazifik gezündet. Damit war der Nachweis erbracht, dass auch auf der Erde große Energiemengen durch Kernfusion freigesetzt werden können. Energiebilanz. Ist die Masse der bei der Fusion entstandenen Kerne bzw. Teilchen geringer als die Summe der Masse der Ausgangskerne, wird die Massendifferenz formula_4 wie bei jeder Kernreaktion nach der von Einstein stammenden Masse-Energie-Äquivalenzformel formula_5 in Form von Energie freigesetzt (als kinetische Energie der Reaktionsprodukte und als Strahlungsenergie). Exotherme, also Energie freisetzende Fusionsreaktionen treten nur bei der Verschmelzung "leichter" Kerne auf, da die Bindungsenergie pro Nukleon mit steigender Massenzahl nur bis zum Element Eisen (Isotop 58Fe) zunimmt. Sehr groß ist sie jedoch bei Helium-4 erzeugenden Reaktionen: Die Umsetzung von einem Gramm Deuterium-Tritium-Gemisch in einem Kernfusionsreaktor würde eine thermische Energie von rund 100 Megawattstunden (MWh) oder 12,3 t SKE liefern. Zum Vergleich: In der Sonne fusionieren jede Sekunde 564·1012 g Wasserstoff, was ca. 1,3 mal die Masse aller lebenden Menschen zusammen ist. Stellare Kernfusion. a> und Fortsetzung bis zur Bildung von He-4 Fusionsreaktionen mit verschiedenen Ausgangsstoffen benötigen verschieden hohe Temperaturen. In Sternen laufen diese nacheinander ab, denn die Energiefreisetzung einer bei vergleichsweise geringer Temperatur einsetzenden Reaktion verhindert eine Kontraktion des Sterns und den damit verbundenen weiteren Anstieg der Temperatur im Zentrum, bis die Ausgangsstoffe für diese Reaktion verbraucht sind. In einem Stern verschmelzen zu Beginn seines Lebens primordiales Deuterium und Lithium. Braune Zwerge werden bei ihrer weiteren Kontraktion nicht heiß genug, während sich bei schwereren Sternen, wie unserer Sonne, eine lange Phase des Wasserstoffbrennens anschließt. In dieser Zeit als Hauptreihenstern verschmelzen Protonen, die Atomkerne des Wasserstoffs, unter Energiefreisetzung zu Helium. Dies geschieht in mäßig großen Sternen hauptsächlich über eine als Proton-Proton-Reaktion bekannte Reaktionskette; bei höheren Temperaturen gewinnt der Bethe-Weizsäcker-Zyklus an Bedeutung. In diesen Reaktionsketten werden Neutrinos mit charakteristischen Energieverteilungen gebildet, deren Messung Aufschluss über das Sonneninnere liefert. Wenn im Kern eines Hauptreihensterns der Wasserstoff knapp geworden ist, beginnt die Fusion von Helium. Größere Sterne erzeugen infolge ihrer Masse auch einen stärkeren Gravitationsdruck, wodurch Dichte und Temperatur höhere Werte erreichen und am Ende auch schwerere Elemente durch Fusion entstehen. Dieser Prozess führt bis zu Kernen im Bereich des Maximums der Bindungsenergie pro Nukleon (Massenzahlen um 60, mit Ausläufern bis etwa 70). Elemente mit noch größeren Massenzahlen können hingegen nicht mehr auf diese Weise entstehen, da solche Fusionen zunehmend endotherm sind, d. h. weniger Energie liefern, als sie für ihre eigene Erhaltung benötigen. Sie werden durch Neutronen- (s- und r-Prozess) und Protonenanlagerung (p-Prozess) gebildet (siehe Supernova, Kernkollaps). Mögliche Einsatzstoffe und Reaktionen. Die Konzepte für Kernfusionsreaktoren basieren auf der Fusion von Deuterium und Tritium, im Folgenden kurz DT. Andere Fusionsreaktionen hätten zum Teil Vorteile gegenüber DT, insbesondere hinsichtlich durch Aktivierung der Wandmaterialien entstehender Radioaktivität oder leichterer Nutzbarmachung der Reaktionsenergie. Sie stellen jedoch wegen kleineren Energiegewinns pro Einzelreaktion, der Notwendigkeit wesentlich höherer Plasmatemperaturen oder mangelnder Verfügbarkeit der Einsatzstoffe bis auf Weiteres nur theoretische Möglichkeiten der Energiegewinnung dar. In der nachfolgenden Tabelle sind die möglichen Brennstoffe, die Reaktionsprodukte und die freiwerdende Energie aufgeführt. Bei Reaktionen mit verschiedenen möglichen Endprodukten sind die prozentualen Anteile der Reaktionskanäle angegeben. Gibt es nur zwei Produktteilchen, haben diese (bei vernachlässigter Stoßenergie im Eingangskanal) nach der Kinematik die angegebenen, wohlbestimmten kinetischen Energien. Bei Reaktionen mit mehr als zwei Produktteilchen lässt sich dagegen nur die freigesetzte Gesamtenergie angeben. Deuterium/Tritium. Ein Gemisch aus gleichen Teilen der Wasserstoff-Isotope Deuterium (D) und Tritium (T) ist der aussichtsreichste Brennstoff für irdische Kernfusionsreaktoren. Damit diese Fusion selbstständig abläuft, muss das Lawson-Kriterium (ein Mindestwert für das Produkt aus Temperatur, Teilchendichte und Einschlusszeit) erfüllt sein. In der Sonne beträgt der Druck 200 Milliarden bar und die Reaktionszeit misst sich in Jahrmilliarden, beides ist technisch nicht praktikabel. In Fusionsexperimenten sind jedoch weit höhere Temperaturen als die 15 Mio. K des Sonnenkerns erreichbar; zudem hat die Fusionsreaktion zwischen D und T – Reaktion (1) in der obigen Tabelle – einen weit größeren Wirkungsquerschnitt als der geschwindigkeitsbestimmende erste Schritt der stellaren Proton-Proton-Reaktion. Zur Nutzung der DT-Reaktion als Energiequelle auf der Erde werden in internationaler Zusammenarbeit Fusionsreaktoren mit magnetischem Einschluss des Plasmas entwickelt, wobei es bisher vor allem darum ging, ein stabiles Plasma zu erzeugen. Dafür werden fast ausschließlich Wasserstoff, Deuterium oder Gemische daraus verwendet und noch kein Tritium. Die meisten plasmaphysikalischen und technischen Probleme bezüglich Heizung, Stabilisierung und Diagnostik können damit untersucht werden. Die für das Erfüllen des Lawson-Kriteriums erforderliche Einschlusszeit ist noch nicht erreicht; die bisherigen Versuchsanlagen sind dafür zu klein. DT-Fusionen sind mit JET erreicht worden und im größeren Maßstab mit ITER geplant; die Erfüllung des Lawson-Kriteriums und Stromproduktion sind mit DEMO vorgesehen. Deuterium/Helium-3 und Helium-3/Helium-3. Der Helium-3-Kern ist der Spiegelkern des Tritiumkerns. Er enthält 2 Protonen und 1 Neutron statt 1 Proton und 2 Neutronen. Die D-3He-Reaktion (Nr. (3) der Tabelle), oben bereits als Folgereaktion der Deuterium-Deuterium-Fusion aufgeführt, liefert dementsprechend einen Helium-4-Kern und ein Proton von 15 MeV Energie. Allerdings muss die höhere Abstoßung des doppelt geladenen Helium-3-Kerns überwunden werden. Die Umsetzung der kinetischen Energie des Protons in nutzbare Form wäre einfacher als beim Neutron. Gleichzeitig würden auch Deuteriumionen untereinander zu Protonen und Tritium oder zu Neutronen und Helium-3 reagieren. Dadurch würden sich ebenfalls Neutronen bilden. Wird das Tritium nicht aus dem Reaktionsgas entfernt, kommt es auch durch D-T-Reaktionen zur Neutronenfreisetzung. In einem "allein" mit 3He betriebenen Fusionsreaktor (Reaktion (5)) gäbe es noch viel weniger Radioaktivität, da nur ein He-4-Kern und Protonen entstehen. Allerdings müssten für die Reaktion noch größere Abstoßungskräfte überwunden werden. Bei den hohen Temperaturen des Plasmas würde mit einer gewissen Reaktionsrate durch inversen Beta-Zerfall aus He-3 und Elektronen Tritium entstehen. Eine grundsätzliche Schwierigkeit liegt in der Verfügbarkeit von He-3, das auf der Erde nur in geringer Menge vorhanden ist. Größere Mengen He-3 sind in Mondgestein nachgewiesen worden. Für eine mögliche Gewinnung auf dem Mond und Transport zur Erde müssten die technische Machbarkeit nachgewiesen und das Kosten-Nutzen-Verhältnis abgewogen werden. Weitere denkbare Brennstoffe. Der He-4-Atomkern weist im Vergleich zu seinen Nachbarnukliden eine besonders hohe Bindungsenergie pro Nukleon auf; dies erklärt den großen Energiegewinn der DT-Reaktion (siehe oben), und deshalb sind auch andere Reaktionen leichter Nuklide, soweit sie He-4 erzeugen, als Energiequelle denkbar. Die Schaffung der erforderlichen Bedingungen bereitet jedoch noch viel größere Schwierigkeiten, denn die Abstoßung zwischen den mehrfach geladenen Atomkernen ist stärker als zwischen den leichteren Nukliden. Ein Beispiel ist die Bor-Proton-Reaktion (Nr. (10)) Sie hätte ebenso wie die 3He-3He-Reaktion den Vorteil, keine Neutronen freizusetzen. Für sie müssten im Vergleich zur DT-Reaktion die Temperatur etwa zehnmal höher und die Einschlusszeit 500-mal länger sein. Die Energieverluste des Fusionsplasmas durch Synchrotron- und Bremsstrahlung stellen aufgrund der nötigen hohen Temperaturen und der Kernladung des Bors bisher unüberwindbare physikalische Grenzen dar. Kernfusion mit polarisierten Teilchen. Die Reaktionsraten der Fusionsreaktionen sind von einer eventuellen Spinpolarisation der beteiligten Ionen abhängig. Beispielsweise könnte der Wirkungsquerschnitt der DT- oder der D-3He-Fusionsreaktion um einen Faktor bis zu 1,5 erhöht werden, wenn die Spins der beteiligten Teilchen parallel ausgerichtet sind. Außerdem könnten die bevorzugten Emissionsrichtungen der Reaktionsprodukte beeinflusst werden. Damit ließe sich im Prinzip die Energieauskopplung etwas vereinfachen und die Lebensdauer der Blanketteile erhöhen. Allerdings ist offen, wie die für einen Reaktorbetrieb erforderlichen Mengen polarisierten Brennstoffs hergestellt, in das Plasmagefäß gebracht und dort gegen Depolarisationseffekte geschützt werden können. Stromerzeugung. In internationaler Kooperation wird erforscht, ob und wie sich Fusionsenergie zur Stromerzeugung nutzen lässt. Der erste wirtschaftlich nutzbare Reaktor wird, falls sich die technologischen Hindernisse überwinden lassen und die politische Entscheidung zugunsten der neuen Technologie fallen sollte, nicht vor 2050 erwartet. Unter der Voraussetzung, dass fossile Brennstoffe wegen ihrer Klimaschädlichkeit zurückgedrängt werden und die Kernfusion somit wirtschaftlich konkurrenzfähig wäre, könnte ein großtechnischer Einsatz der neuen Technologie nach heutigem Erkenntnisstand im letzten Viertel des 21. Jahrhunderts erfolgen. Physikalische Forschung, Neutronenquellen. Fusionsreaktionen lassen sich wie andere Kernreaktionen mittels Teilchenbeschleunigern im Labor zu physikalischen Forschungszwecken durchführen. Die oben genannte Deuterium-Tritium-Reaktion wird so zur Erzeugung schneller freier Neutronen verwendet. Auch der Farnsworth-Hirsch-Fusor ist eine Quelle freier Neutronen für Forschungs- und technische Zwecke. Waffen. In Wasserstoffbomben läuft die Deuterium-Tritium-Reaktion unkontrolliert ab, wobei das Tritium meist erst während der Explosion aus Lithium gewonnen wird. Die größte je getestete Wasserstoffbombe, die Zar-Bombe, erreichte eine Sprengkraft von 57 Megatonnen TNT. Aber auch viele Atombomben enthalten einige Gramm eines Deuterium-Tritium-Gemischs im Inneren der Hohlkugel aus Nuklearsprengstoff. Nach Beginn der Kettenreaktion wird diese ausreichend aufgeheizt, um die Kernfusion zu starten. Die dabei in großer Zahl freigesetzten Neutronen intensivieren die Kettenreaktion im Nuklearsprengstoff. Seit Einstellung der Kernwaffen-Testexplosionen werden Fragen der Funktionssicherheit und der Weiterentwicklung von Fusionswaffen unter anderem mit Computersimulationen untersucht. Die dafür nötigen genauen Materialparameter werden unter anderem durch Experimente zur lasergetriebenen Trägheitsfusion ermittelt. Körper (Algebra). Ein Körper ist im mathematischen Teilgebiet der Algebra eine ausgezeichnete algebraische Struktur, in der die Addition, Subtraktion, Multiplikation und Division auf eine bestimmte Weise durchgeführt werden können. Die Bezeichnung Körper wurde im 19. Jahrhundert von Richard Dedekind eingeführt. Die wichtigsten Körper, die in fast allen Gebieten der Mathematik benutzt werden, sind der Körper formula_1 der rationalen Zahlen, der Körper formula_2 der reellen Zahlen, und der Körper formula_3 der komplexen Zahlen. Definition als spezieller Ring. Ein kommutativer unitärer Ring, der nicht der Nullring ist, ist ein Körper, wenn in ihm jedes von Null verschiedene Element ein Inverses bezüglich der Multiplikation besitzt. Anders formuliert, ist ein Körper ein kommutativer unitärer Ring formula_4, in dem die Einheitengruppe formula_30 gleich formula_31, also maximal groß, ist. Bemerkungen. "Anmerkung:" Die Bildung des Negativen eines Elementes hat nichts mit der Frage zu tun, ob das Element selbst negativ ist; beispielsweise ist das Negative der reellen Zahl formula_42 die positive Zahl formula_43. In einem allgemeinen Körper gibt es keinen Begriff von negativen oder positiven Elementen. (Siehe auch geordneter Körper.) Verallgemeinerungen: Schiefkörper und Koordinatenkörper. Verzichtet man auf die Bedingung, dass die Multiplikation kommutativ ist, so gelangt man zur Struktur des Schiefkörpers. Es gibt jedoch auch Autoren, die für einen Schiefkörper explizit voraussetzen, dass die Multiplikation nicht kommutativ ist. In diesem Fall ist ein Körper nicht mehr zugleich Schiefkörper. Ein Beispiel ist der Schiefkörper der Quaternionen, der kein Körper ist. Andererseits gibt es Autoren, so Bourbaki, die Schiefkörper als Körper und die hier besprochenen Körper als kommutative Körper bezeichnen. In der analytischen Geometrie werden Körper zur Koordinatendarstellung von Punkten in affinen und projektiven Räumen verwendet, siehe Affine Koordinaten, Projektives Koordinatensystem. In der synthetischen Geometrie, in der auch Räume (insbesondere "Ebenen") mit schwächeren Eigenschaften untersucht werden, benutzt man als Koordinatenbereiche („Koordinatenkörper“) auch Verallgemeinerungen der Schiefkörper, nämlich Alternativkörper, Quasikörper und Ternärkörper. Körpererweiterung. Eine Teilmenge formula_4 eines Körpers formula_60, die selbst mit dessen Operationen wieder einen Körper bildet, wird Unter- oder Teilkörper genannt. Das Paar formula_4 und formula_60 heißt Körpererweiterung formula_63, formula_64 oder formula_65. Beispielsweise ist der Körper der rationalen Zahlen formula_66 ein Teilkörper der reellen Zahlen formula_2. Das algebraische Teilgebiet, das sich mit der Untersuchung von Körpererweiterungen beschäftigt, ist die Galoistheorie. Endliche Körper. Ein Körper ist ein endlicher Körper, wenn seine Grundmenge formula_4 endlich ist. Die endlichen Körper sind in folgendem Sinne vollständig klassifiziert: Jeder endliche Körper hat genau formula_102 Elemente mit einer Primzahl formula_46 und einer positiven natürlichen Zahl formula_98. Bis auf Isomorphie gibt es zu jedem solchen formula_105 genau einen endlichen Körper, der mit formula_106 bezeichnet wird. Jeder Körper formula_107 hat die Charakteristik formula_46. Als Beispiel werden hier die Additions- und Multiplikationstafeln des formula_109 gezeigt; farbig hervorgehoben dessen Unterkörper formula_110. Im Spezialfall formula_111 erhalten wir zu jeder Primzahl formula_46 den Körper formula_113, der isomorph zum Restklassenkörper formula_114 ist. Geschichte. Wesentliche Ergebnisse der Körpertheorie sind Évariste Galois und Ernst Steinitz zu verdanken. Einzelnachweise. ! Komplexe Zahl. Die komplexen Zahlen erweitern den Zahlenbereich der reellen Zahlen derart, dass die Gleichung formula_1 lösbar wird. Dies gelingt durch Einführung einer neuen imaginären Zahl formula_2 mit der Eigenschaft formula_3. Diese Zahl formula_2 wird als imaginäre Einheit bezeichnet. In der Elektrotechnik wird stattdessen der Buchstabe formula_5 verwendet, um einer Verwechslung mit einer (durch formula_6 oder formula_7 bezeichneten) von der Zeit formula_8 abhängigen Stromstärke vorzubeugen. Der Begriff „komplexe Zahlen“ wurde von Carl Friedrich Gauß ("Theoria residuorum biquadraticorum", 1831) eingeführt, der Ursprung der Theorie der komplexen Zahlen geht auf die italienischen Mathematiker Gerolamo Cardano ("Ars magna", Nürnberg 1545) und Rafael Bombelli ("L'Algebra", Bologna 1572; wahrscheinlich zwischen 1557 und 1560 geschrieben) zurück. Die Einführung der imaginären Einheit formula_2 als neue Zahl wird Leonhard Euler zugeschrieben. Komplexe Zahlen können in der Form formula_10 dargestellt werden, wobei formula_11 und formula_12 reelle Zahlen sind und formula_2 die imaginäre Einheit ist. Auf die so dargestellten komplexen Zahlen lassen sich die üblichen Rechenregeln für reelle Zahlen anwenden, wobei formula_14 stets durch formula_15 ersetzt werden kann und umgekehrt. Für die Menge der komplexen Zahlen wird das Symbol formula_16 (Unicode U+2102:) verwendet. Der so konstruierte Zahlenbereich der komplexen Zahlen bildet einen Erweiterungskörper der reellen Zahlen und hat eine Reihe vorteilhafter Eigenschaften, die sich in vielen Bereichen der Natur- und Ingenieurwissenschaften als äußerst nützlich erwiesen haben. Einer der Gründe für diese positiven Eigenschaften ist die algebraische Abgeschlossenheit der komplexen Zahlen. Dies bedeutet, dass jede algebraische Gleichung positiven Grades über den komplexen Zahlen eine Lösung besitzt, was für reelle Zahlen nicht gilt. Diese Eigenschaft ist der Inhalt des Fundamentalsatzes der Algebra. Ein weiterer Grund ist ein Zusammenhang zwischen trigonometrischen Funktionen und der Exponentialfunktion, der über die komplexen Zahlen hergestellt werden kann. Ferner ist jede auf einer offenen Menge "einmal" komplex differenzierbare Funktion dort auch "beliebig oft" differenzierbar – anders als in der Analysis der reellen Zahlen. Die Eigenschaften von Funktionen mit komplexen Argumenten sind Gegenstand der Funktionentheorie, auch komplexe Analysis genannt. Definition. Die letzte Forderung ist gleichbedeutend damit, dass sich jede komplexe Zahl in der Form formula_25 (bzw. in verkürzter Notation formula_26 oder auch formula_27) mit reellen Zahlen formula_11 und formula_12 darstellen lässt. Die imaginäre Einheit formula_2 ist dabei keine reelle Zahl. Die Existenz eines solchen Zahlbereichs wird im Abschnitt zur "Konstruktion der komplexen Zahlen" nachgewiesen. Unter Verwendung der Begriffe Körper und Isomorphie lässt sich das so formulieren: Es gibt minimale Körper, die den Körper der reellen Zahlen und ein Element formula_2 mit der Eigenschaft formula_24 enthalten. In einem solchen Körper hat jedes Element formula_33 eine und nur eine Darstellung als formula_34 mit reellen formula_35 Die komplexen Zahlen sind isomorph zu jedem solchen Körper. Notation. Die Notation in der Form formula_42 wird auch als (nach René Descartes benannte) kartesische oder "algebraische Form" bezeichnet. Die Bezeichnung "kartesisch" erklärt sich aus der Darstellung in der komplexen bzw. gaußschen Zahlenebene (siehe weiter unten). Es findet sich auch die Darstellung formula_43; in der Norm "Allgemeine mathematische Zeichen und Begriffe" kommt sie allerdings nicht vor. In der Elektrotechnik wird das kleine "i" schon für zeitlich veränderliche Ströme verwendet (siehe Wechselstrom) und kann zu Verwechslungen mit der imaginären Einheit i führen. Daher kann in diesem Bereich gemäß DIN 1302 der Buchstabe j verwendet werden. In der Physik wird zwischen formula_44 für die Stromstärke bei Wechselstrom und formula_45 für die imaginäre Einheit unterschieden. Dies führt durch die recht klare Trennung beim aufmerksamen Leser nicht zu Verwechslungen und wird in dieser Form weitgehend sowohl in der physikalisch-experimentellen als auch in der physikalisch-theoretischen Literatur angewandt; handschriftlich ist diese Feinheit allerdings nicht zu halten. Siehe auch: Komplexe Wechselstromrechnung Komplexe Zahlen können gemäß DIN 1304-1 und DIN 5483-3 unterstrichen dargestellt werden, um sie von reellen Zahlen zu unterscheiden. Addition. Die Addition zweier komplexer Zahlen in der komplexen Ebene veranschaulicht Für die Addition zweier komplexer Zahlen formula_25 und formula_47 gilt Subtraktion. Analog zur Addition (siehe oben) funktioniert auch die Subtraktion Multiplikation. Diese Formel ergibt sich mit der Definition formula_24 durch einfaches Ausmultiplizieren und Neugruppieren. Betrag. Der Betrag formula_93 einer komplexen Zahl formula_33 ist die Länge ihres Vektors in der Gaußschen Zahlenebene und lässt sich z. B. zu aus ihrem Realteil formula_96 und Imaginärteil formula_97 berechnen. Als eine Länge ist der Betrag reell und nicht negativ. Metrik. Die durch die Abstandsfunktion formula_99 induzierte Metrik versieht den komplexen Vektorraum formula_64 mit seiner Standardtopologie. Sie stimmt mit der Produkttopologie von formula_101 überein, wie die Einschränkung formula_102 von formula_103 auf formula_65 mit der Standardmetrik auf formula_65 übereinstimmt. Beide Räume formula_64 wie formula_65 sind vollständig unter diesen ihren Metriken. Auf beiden Räumen lässt sich der topologische Begriff der Stetigkeit zu analytischen Begriffen wie Differentiation und Integration erweitern. Komplexe Zahlenebene. a> mit einer komplexen Zahl in kartesischen Koordinaten (a,b) und in Polarkoordinaten (r,φ) Während sich die Menge formula_108 der reellen Zahlen durch Punkte auf einer Zahlengeraden veranschaulichen lässt, kann man die Menge formula_64 der komplexen Zahlen als Punkte in einer Ebene (komplexe Ebene, gaußsche Zahlenebene) darstellen. Dies entspricht der „doppelten Natur“ von formula_64 als zweidimensionalem reellem Vektorraum. Die Teilmenge der reellen Zahlen bildet darin die waagerechte Achse, die Teilmenge der rein imaginären Zahlen (d. h. mit Realteil 0) bildet die senkrechte Achse. Eine komplexe Zahl formula_111 mit formula_112 besitzt dann die horizontale Koordinate formula_11 und die vertikale Koordinate formula_12. Gemäß Definition entspricht die Addition komplexer Zahlen der Vektoraddition, wobei man die Punkte in der Zahlenebene mit ihren Ortsvektoren identifiziert. Die Multiplikation ist in der gaußschen Ebene eine Drehstreckung, was nach Einführung der Polarform weiter unten klarer werden wird. Besonders in der Physik wird die geometrisch anschauliche Ebene häufig als die komplexe Zahlenebene aufgefasst und der Notation der komplexen Zahlen in Polarform der Vorzug vor der Vektordarstellung gegeben. Polarform. Die Farbdarstellung der komplexen Zahlenebene wird häufig zur Veranschaulichung komplexer Funktionen angewendet. Die Farbe kodiert das Argument und die Helligkeit gibt den Betrag an. Verwendet man anstelle der kartesischen Koordinaten formula_115 und formula_116 Polarkoordinaten formula_117 und formula_118, kann man die komplexe Zahl formula_119 auch in der folgenden, auf der eulerschen Relation beruhenden sogenannten "Polarform" darstellen, die sich aus formula_121 und formula_122 ergibt. Die Darstellung mit Hilfe der komplexen e-Funktion formula_123 heißt dabei auch Exponentialdarstellung (der Polarform), die Darstellung mittels des Ausdrucks formula_124 trigonometrische Darstellung (der Polarform). Aufgrund der eulerschen Relation sind beide Darstellungsformen gleichwertige und gleichbedeutende Alternativschreibweisen der Polarform. Des Weiteren gibt es für sie, namentlich in der Praxis, die noch weiter verkürzten Schreibweisen in denen formula_126 für die Summe formula_127 steht und die Form mit dem Winkeloperator formula_128 als Versordarstellung bezeichnet wird. In der komplexen Zahlenebene entspricht dabei formula_129 der euklidischen Vektorlänge (d. h. dem Abstand zum Ursprung 0) und formula_130 dem mit der reellen Achse eingeschlossenen Winkel der Zahl formula_131. Üblicherweise jedoch nennt man formula_129 hier den "Betrag" von formula_131 (oder auch sein "Modul") (Schreibweise formula_117) und den Winkel formula_130 das "Argument" (oder auch die "Phase") von formula_131 (Schreibweise formula_118). Da formula_130 und formula_139 dabei derselben Zahl formula_131 zugeordnet werden können, ist die Polardarstellung zunächst nicht eindeutig. Deshalb schränkt man formula_130 meist auf das Intervall formula_142, also formula_143 ein, um anschließend statt vom Argument selbst von seinem Hauptwert für formula_144 zu sprechen. Der Zahl formula_145 indes ließe sich jedes beliebige Argument zuordnen, und zum Zweck einer eindeutigen Darstellung kann man es in diesem Fall tatsächlich auf 0 festlegen. Das Argument von formula_131 ist auch der Imaginärteil des komplexen natürlichen Logarithmus Mit der Wahl eines auf ganz formula_16 definierten Zweiges des Logarithmus ist also auch eine Argumentfunktion bestimmt (und umgekehrt). Alle Werte formula_149 bilden den Einheitskreis der komplexen Zahlen mit dem Betrag formula_150, diese Zahlen werden auch unimodular genannt und bilden die Kreisgruppe. Dass die Multiplikation von komplexen Zahlen (außer der Null) Drehstreckungen entspricht, lässt sich mathematisch wie folgt ausdrücken: Die multiplikative Gruppe formula_151 der komplexen Zahlen ohne die Null lässt sich als direktes Produkt der Gruppe der Drehungen, der Kreisgruppe, und der Streckungen um einen Faktor ungleich Null, der multiplikativen Gruppe formula_152 auffassen. Erstere Gruppe lässt sich durch das Argument formula_130 parametrisieren, zweitere entspricht gerade den Beträgen. Komplexe Konjugation. Eine komplexe Zahl formula_154 und die zu ihr konjugiert komplexe Zahl formula_155 Ändert man das Vorzeichen des Imaginärteils formula_12 einer komplexen Zahl formula_157 so erhält man die zu formula_33 konjugiert komplexe Zahl formula_155 (manchmal auch formula_160 geschrieben). Die Konjugation formula_161 ist ein (involutorischer) Körperautomorphismus, da sie mit Addition und Multiplikation verträglich ist, d. h., für alle formula_162 gilt In der Polardarstellung hat die konjugiert komplexe Zahl formula_164 bei unverändertem Betrag gerade den negativen Winkel von formula_165 Man kann die Konjugation in der komplexen Zahlenebene also als die "Spiegelung an der reellen Achse" interpretieren. Insbesondere werden unter der Konjugation genau die reellen Zahlen auf sich selbst abgebildet. Die komplexen Zahlen bilden damit ein triviales Beispiel einer C*-Algebra. Von der algebraischen Form in die Polarform. Für formula_175 in algebraischer Form ist Für formula_177 kann das Argument mit 0 definiert werden, bleibt aber meist undefiniert. Für formula_178 kann das Argument formula_130 im Intervall formula_142 mit Hilfe des Arkuskosinus bzw. des Arkustangens durch ermittelt werden. Etwas umständlicher (da der Fall formula_182 gesondert behandelt werden muss und der Tangens im Intervall formula_183 seinen Wertebereich zweimal durchläuft) ist die Berechnungsvariante für alle formula_185. Viele Programmiersprachen und Tabellenkalkulationen stellen aber eine Variante der Arkustangensfunktion zur Verfügung (häufig mit dem Namen "atan2" bezeichnet), die beide Werte übergeben bekommt und das Ergebnis je nach Vorzeichen von formula_11 und formula_12 dem passenden Quadranten zuordnet. Von der Polarform in die algebraische Form. Wie weiter oben stellt a den Realteil und b den Imaginärteil jener komplexen Zahl dar. Trigonometrische Form. Die Multiplikation von zwei komplexen Zahlen entspricht dem Addieren der Winkel und dem Multiplizieren der Beträge. Die Division von zwei komplexen Zahlen entspricht dem Subtrahieren der Winkel und dem Dividieren der Beträge. Rechenoperationen 3. Stufe. Zu den Rechenoperationen der dritten Stufe gehören Potenzieren, Wurzelziehen (Radizieren) und Logarithmieren. Natürliche Exponenten. Für natürliche Zahlen formula_205 berechnet sich die formula_205-te Potenz in der polaren Form formula_207 zu oder für die algebraische Form formula_34 mit Hilfe des binomischen Satzes zu Beliebige komplexe Exponenten. Die allgemeine Definition einer Potenz mit komplexer Basis formula_144 und komplexem Exponenten formula_212 lautet wobei formula_214 für den Hauptwert des komplexen Logarithmus steht (siehe unten), damit liefert die Formel ebenfalls einen Hauptwert. Im Fall formula_215 oder formula_216 allerdings stimmen alle in Frage kommenden Ergebnisse mit diesem Hauptwert überein und die Funktion wird eindeutig. Logarithmen. Der komplexe natürliche Logarithmus ist (anders als der reelle) nicht eindeutig. Eine komplexe Zahl "w" heißt Logarithmus der komplexen Zahl "z", wenn Mit "w" ist auch jede Zahl formula_218 mit beliebigem formula_219 ein Logarithmus von "z". Man arbeitet daher mit Hauptwerten, d. h. Werten eines bestimmten Streifens der komplexen Ebene. Der Hauptwert des natürlichen Logarithmus der komplexen Zahl mit formula_221 und formula_222 ist Anders formuliert: Der Hauptwert des natürlichen Logarithmus der komplexen Zahl "z" ist wobei formula_225 der Hauptwert des Arguments von "z" ist. Die endlichen Untergruppen. Alle Elemente einer endlichen Untergruppe der multiplikativen Einheitengruppe formula_226 sind Einheitswurzeln. Unter allen Ordnungen von Gruppenelementen gibt es eine maximale, etwa formula_227. Da formula_64 kommutativ ist, erzeugt ein Element mit dieser maximalen Ordnung dann auch die Gruppe, so dass die Gruppe zyklisch ist und genau aus den Elementen besteht. Alle Elemente liegen auf dem Einheitskreis. Die Vereinigung aller endlichen Untergruppen ist eine Gruppe, die zur Torsionsgruppe formula_230 isomorph ist. Sie liegt dicht in ihrer Vervollständigung, der schon erwähnten Kreisgruppe, die auch als 1-Sphäre aufgefasst werden kann und zu formula_231 isomorph ist. Konstruktion der komplexen Zahlen. In diesem Abschnitt wird nachgewiesen, dass tatsächlich ein Körper formula_16 der komplexen Zahlen existiert, der den in der obigen Definition geforderten Eigenschaften genügt. Es sind dabei verschiedene Konstruktionen möglich, die jedoch bis auf Isomorphie zum selben Körper führen. Paare reeller Zahlen. Die Konstruktion nimmt zunächst keinerlei Bezug auf die imaginäre Einheit formula_2: Im 2-dimensionalen reellen Vektorraum formula_237 der geordneten reellen Zahlenpaare formula_238 wird neben der Addition (das ist die gewöhnliche Vektoraddition) eine Multiplikation durch Nach dieser Festlegung schreibt man formula_241, und formula_242 wird zu einem Körper, dem Körper der komplexen Zahlen. Bezug zur Darstellung in der Form "a" + "b"i. Durch formula_256 wird die imaginäre Einheit festgelegt; für diese gilt formula_257, was nach obiger Einbettung gleich formula_258 entspricht. Jede komplexe Zahl formula_259 besitzt die "eindeutige" Darstellung der Form mit formula_261; dies ist die übliche Schreibweise für die komplexen Zahlen. Polynome: Adjunktion. Eine weitere Konstruktion der komplexen Zahlen ist der Faktorring des Polynomringes in einer Unbestimmten über den reellen Zahlen. Die Zahl formula_2 entspricht dabei dem Bild der Unbestimmten formula_264, die reellen Zahlen werden mit den konstanten Polynomen identifiziert. Dieses Konstruktionsprinzip ist auch in anderem Kontext anwendbar, man spricht von Adjunktion. Matrizen. Die Menge der formula_265-Matrizen der Form Diese Menge ist ein Unterraum des Vektorraums der reellen formula_265-Matrizen. Reelle Zahlen entsprechen Diagonalmatrizen formula_277 Die zu den Matrizen gehörenden linearen Abbildungen sind, sofern formula_11 und formula_12 nicht beide null sind, Drehstreckungen im Raum formula_237. Es handelt sich um genau dieselben Drehstreckungen wie bei der Interpretation der Multiplikation mit einer komplexen Zahl formula_26 in der gaußschen Zahlenebene. Geschichte. Die Unmöglichkeit der oben angegebenen Lösung ist bei der Behandlung der quadratischen Gleichung schon sehr früh bemerkt und hervorgehoben worden, z. B. schon in der um 820 n. Chr. verfassten Algebra des Muhammed ibn Mûsâ Alchwârizmî. Aber bei dem nächstliegenden und unanfechtbaren Schluss, dass diese Art von Gleichung nicht lösbar sei, blieb die mathematische Forschung nicht stehen. keine Lösung hat, fügt aber einige Bemerkungen hinzu, indem er in die allgemeine Lösung der quadratischen Gleichung für formula_285 und formula_286 die Werte (−10) und 40 einsetzt. Wenn es also möglich wäre, dem sich ergebenden Ausdruck einen Sinn zu geben, und zwar so, dass man mit diesem Zeichen nach denselben Regeln rechnen dürfte wie mit einer reellen Zahl, so würden die Ausdrücke in der Tat eine Lösung darstellen. Für die Quadratwurzel aus negativen Zahlen und allgemeiner für alle aus einer beliebigen reellen Zahl formula_291 und einer positiven reellen Zahl formula_292 zusammengesetzten Zahlen hat sich seit der Mitte des 17. Jahrhunderts die Bezeichnung imaginäre Zahl eingebürgert. Im Gegensatz dazu wurden als "gewöhnliche" Zahlen die reellen Zahlen bezeichnet. Eine solche Gegenüberstellung der zwei Begriffe findet sich in der 1637 erschienenen "La Géométrie" von Descartes und taucht dort wohl zum ersten Mal auf. Heute bezeichnet man nur noch den Ausdruck, der durch die Wurzel aus einer negativen Zahl gebildet wird, als imaginäre Zahl und die von beiden Arten von Zahlen gebildete Menge von Zahlen als komplexe Zahlen. Man kann daher sagen, dass Cardano zum ersten Mal im heutigen Sinne mit komplexen Zahlen gerechnet hat und damit eine Reihe von Betrachtungen angestellt hat. Da das Rechnen mit diesen als „sinnlos“ angesehenen Zahlen zunächst als bloßes Spiel erschien, war man umso überraschter, dass dieses „Spiel“ sehr häufig wertvolle Ergebnisse lieferte oder schon bekannten Ergebnissen eine befriedigendere Form zu geben erlaubte. So kam Leonhard Euler zum Beispiel in seiner "Introductio in analysin infinitorum" zu einigen bemerkenswerten Gleichungen, die nur reelle Zahlen enthielten und sich ausnahmslos als richtig erwiesen, die aber auf anderem Wege nicht so einfach gewonnen werden konnten. So kam es, dass man diese Zahlen nicht als widersinnig verwarf, sondern sich immer mehr mit ihnen beschäftigte. Trotzdem umgab dieses Gebiet der Mathematik noch immer etwas Geheimnisvolles, Rätselhaftes und Unbefriedigendes. Erst durch die Abhandlung "Essai sur la représentation analytique de la direction" aus dem Jahre 1797 des norwegisch-dänischen Landmessers Caspar Wessel (1745–1818) wurde die Aufklärung über diese Zahlen angebahnt. Diese Arbeit, die er bei der dänischen Akademie einreichte, fand anfangs keine Beachtung. Ähnlich erging es Arbeiten anderer Mathematiker, sodass diese Betrachtungen noch mehrfach angestellt werden mussten. Als erster definierte Augustin-Louis Cauchy 1821 in seinem Lehrbuch "Cours d’analyse" eine Funktion einer komplexen Variablen in die komplexe Zahlenebene und bewies viele grundlegende Sätze der Funktionentheorie. Allgemeine Beachtung fanden sie erst dann, als auch Carl Friedrich Gauß im Jahre 1831 in einem Artikel in den "Göttingschen gelehrten Anzeigen" dieselben Auffassungen entwickelte, offensichtlich ohne Wissen von irgendwelchen Vorgängern. Ausgehend von philosophischen Ideen Immanuel Kants fand William Rowan Hamilton 1833 eine logisch einwandfreie Begründung der komplexen Zahlen. Er deutete die komplexe Zahl formula_295 als Zahlenpaar formula_296 und definierte Addition beziehungsweise die Multiplikation durch Heute machen diese Dinge keinerlei begriffliche oder tatsächliche Schwierigkeiten. Durch die Einfachheit der Definition, der bereits erläuterten Bedeutung und Anwendungen in vielen Wissenschaftsgebieten stehen die komplexen Zahlen den reellen Zahlen in nichts nach. Der Begriff der „imaginären“ Zahlen, im Sinne von eingebildeten bzw. unwirklichen Zahlen, hat sich also im Laufe der Jahrhunderte zu einer schiefen, aber beibehaltenen Bezeichnung entwickelt. Komplexe Zahlen in der Physik. Komplexe Zahlen spielen in der Grundlagenphysik eine zentrale Rolle. In der Quantenmechanik wird der Zustand eines physikalischen Systems als Element eines (projektiven) Hilbertraums über den komplexen Zahlen aufgefasst. Komplexe Zahlen finden Verwendung bei der Definition von Differentialoperatoren in der Schrödingergleichung und der Klein-Gordon-Gleichung. Für die Dirac-Gleichung benötigt man eine Zahlbereichserweiterung der komplexen Zahlen, die Quaternionen. Alternativ ist eine Formulierung mit Pauli-Matrizen möglich, die aber die gleiche algebraische Struktur wie die Quaternionen aufweisen. Komplexe Zahlen haben in der Physik und Technik eine wichtige Rolle als Rechenhilfe. So lässt sich insbesondere die Behandlung von Differentialgleichungen zu Schwingungsvorgängen vereinfachen, da sich damit die komplizierten Beziehungen in Zusammenhang mit Produkten von Sinus- bzw. Kosinusfunktionen durch Produkte von Exponentialfunktionen ersetzen lassen, wobei lediglich die Exponenten addiert werden müssen. So fügt man dazu beispielsweise in der komplexen Wechselstromrechnung geeignete Imaginärteile in die reellen Ausgangsgleichungen ein, die man bei der Auswertung der Rechenergebnisse dann wieder ignoriert. Dadurch werden in der Zwischenrechnung harmonische Schwingungen (reell) zu Kreisbewegungen in der komplexen Ebene ergänzt, die mehr Symmetrie aufweisen und deswegen einfacher zu behandeln sind. In der Optik werden die brechenden und absorbierenden Effekte einer Substanz in einer komplexen, Wellenlängen-abhängigen Permittivität (Dielektrizitätskonstante) oder dem komplexen Brechungsindex zusammengefasst, die wiederum auf die elektrische Suszeptibilität zurückgeführt wird. In der Fluiddynamik werden komplexe Zahlen eingesetzt, um ebene Potentialströmungen zu erklären und zu verstehen. Jede beliebige komplexe Funktion eines komplexen Arguments stellt immer eine ebene Potenzialströmung dar – der geometrische Ort entspricht dem komplexen Argument in der gaußschen Zahlenebene, das Strömungspotenzial dem Realteil der Funktion, und die Stromlinien den Isolinien des Imaginärteils der Funktion mit umgekehrtem Vorzeichen. Das Vektorfeld der Strömungsgeschwindigkeit entspricht der konjugiert komplexen ersten Ableitung der Funktion. Durch das Experimentieren mit verschiedenen Überlagerungen von Parallelströmung, Quellen, Senken, Dipolen und Wirbeln kann man die Umströmung unterschiedlicher Konturen darstellen. Verzerren lassen sich diese Strömungsbilder durch konforme Abbildung – das komplexe Argument wird durch eine Funktion des komplexen Arguments ersetzt. Beispielsweise lässt sich die Umströmung eines Kreiszylinders (Parallelströmung + Dipol + Wirbel) in die Umströmung eines tragflügel-ähnlichen Profils (Joukowski-Profil) verzerren und die Rolle des tragenden Wirbels an einer Flugzeug-Tragfläche studieren. So nützlich diese Methode zum Lernen und Verstehen ist, zur genauen Berechnung reicht sie im Allgemeinen nicht aus. Komplexe Zahlen in der Elektrotechnik. In der Elektrotechnik besitzt die Darstellung elektrischer Größen mit Hilfe komplexer Zahlen weite Verbreitung. Sie wird bei der Berechnung von zeitlich sinusförmig veränderlichen Größen wie elektrischen und magnetischen Feldern verwendet. Bei der Darstellung einer sinusförmigen Wechselspannung als komplexe Größe und entsprechenden Darstellungen für Widerstände, Kondensatoren und Spulen vereinfachen sich die Berechnungen des elektrischen Stromes, der Wirk- und der Blindleistung in einer Schaltung. Die durch Differentialquotienten oder Integrale gegebene Verkopplung geht über in eine Verkopplung durch trigonometrische Funktionen; die Berechnung der Zusammenhänge lässt sich damit wesentlich erleichtern. Auch das Zusammenwirken mehrerer verschiedener sinusförmiger Spannungen und Ströme, die zu unterschiedlichen Zeitpunkten ihre Nulldurchgänge haben können, lässt sich in komplexer Rechnung leicht darstellen. Genaueres über dieses Thema steht im Artikel über die komplexe Wechselstromrechnung. In den letzten Jahren hat die digitale Signalverarbeitung außerordentlich an Bedeutung gewonnen, deren Fundament die Rechnung mit komplexen Zahlen bildet. Körpertheorie und algebraische Geometrie. Der Körper der komplexen Zahlen ist der algebraische Abschluss des Körpers der reellen Zahlen. Je zwei algebraisch abgeschlossene Körper mit derselben Charakteristik und demselben Transzendenzgrad über ihrem Primkörper (der durch die Charakteristik festgelegt ist) sind (ringtheoretisch) isomorph. Bei einem Körper von Charakteristik 0 mit überabzählbarem Transzendenzgrad ist dieser gleich der Kardinalität des Körpers. Körpertheoretisch bilden die komplexen Zahlen also den einzigen algebraisch abgeschlossenen Körper mit Charakteristik 0 und der Kardinalität des Kontinuums. Eine Konstruktion des Körpers der komplexen Zahlen ist mithilfe dieser Feststellung auch rein algebraisch etwa als Erweiterung des algebraischen Abschlusses der rationalen Zahlen um Kontinuum viele transzendente Elemente. Eine weitere Konstruktion liefert ein Ultraprodukt: Hierzu bilde man zu jedem endlichen Körper seinen algebraischen Abschluss und bilde von ihnen das Ultraprodukt bezüglich eines beliebigen freien Ultrafilters. Aus dem Satz von Łoś folgt, dass dieses Ultraprodukt ein algebraisch abgeschlossener Körper mit Charakteristik 0 ist, die Kardinalität des Kontinuums folgt aus mengentheoretischen Überlegungen. Unter dem Schlagwort Lefschetz-Prinzip werden verschiedene Sätze zusammengefasst, die es erlauben, Ergebnisse der algebraischen Geometrie, die über den komplexen Zahlen bewiesen werden, auf andere algebraisch abgeschlossene Körper mit Charakteristik 0 zu übertragen (was maßgeblich auf der Vollständigkeit der Theorie der algebraisch abgeschlossenen Körper mit Charakteristik 0 aufbaut). Die Betrachtung des komplexen Falls bietet den Vorteil, dass dort topologische und analytische Methoden eingesetzt werden können, um algebraische Ergebnisse zu erhalten. Obige Ultraproduktkonstruktion erlaubt die Übertragung von Ergebnissen im Fall einer Charakteristik ungleich 0 auf die komplexen Zahlen. Spektraltheorie und Funktionalanalysis. Viele Ergebnisse der Spektraltheorie gelten für komplexe Vektorräume in größerem Umfang als für reelle. So treten z. B. komplexe Zahlen als Eigenwerte reeller Matrizen auf (dann jeweils zusammen mit dem konjugiert-komplexen Eigenwert). Das erklärt sich dadurch, dass das charakteristische Polynom der Matrix aufgrund der algebraischen Abgeschlossenheit von formula_64 über den komplexen Zahlen stets in Linearfaktoren zerfällt. Dagegen gibt es reelle Matrizen ohne reelle Eigenwerte, während das Spektrum eines beliebigen beschränkten Operators auf einem komplexen (mindestens eindimensionalen) Banachraum nie leer ist. In der Spektraltheorie auf Hilberträumen lassen sich Sätze, die im reellen Fall nur für selbstadjungierte Operatoren gelten, im komplexen Fall oft auf normale Operatoren übertragen. Auch in weiteren Teilen der Funktionalanalysis spielen die komplexen Zahlen eine besondere Rolle. So wird etwa die Theorie der C*-Algebren meist im Komplexen betrieben, die harmonische Analyse befasst sich mit Darstellungen von Gruppen auf komplexen Hilberträumen. Funktionentheorie und komplexe Geometrie. Das Studium differenzierbarer Funktionen auf Teilmengen der komplexen Zahlen ist Gegenstand der Funktionentheorie. Sie ist in vieler Hinsicht starrer als die reelle Analysis und lässt weniger Pathologien zu. Beispiele sind die Aussage, dass jede in einem Gebiet differenzierbare Funktion bereits beliebig oft differenzierbar ist, oder der Identitätssatz für holomorphe Funktionen. Die Funktionentheorie ermöglicht oft auch Rückschlüsse auf rein reelle Aussagen, beispielsweise lassen sich manche Integrale mit dem Residuensatz berechnen. Ein wichtiges Einsatzgebiet dieser Methoden ist die analytische Zahlentheorie, die Aussagen über ganze Zahlen auf Aussagen über komplexe Funktionen zurückführt, häufig in der Form von Dirichletreihen. Ein prominentes Beispiel ist die Verbindung zwischen Primzahlsatz und riemannscher ζ-Funktion. In diesem Zusammenhang spielt die riemannsche Vermutung eine zentrale Rolle. Die oben erwähnte Starrheit holomorpher Funktionen tritt noch stärker bei globalen Fragen in Erscheinung, d. h. beim Studium komplexer Mannigfaltigkeiten. So gibt es auf einer kompakten komplexen Mannigfaltigkeit keine nichtkonstanten globalen holomorphen Funktionen; Aussagen wie der Einbettungssatz von Whitney sind im Komplexen also falsch. Diese so genannte „analytische Geometrie“ (nicht mit der klassischen analytischen Geometrie von René Descartes zu verwechseln!) ist auch eng mit der algebraischen Geometrie verknüpft, viele Ergebnisse lassen sich übertragen. Die komplexen Zahlen sind auch in einem geeigneten Sinne ausreichend groß, um die Komplexität algebraischer Varietäten über beliebigen Körpern der Charakteristik 0 zu erfassen (Lefschetz-Prinzip). Kinetische Energie. Die kinetische Energie (von griechisch "kinesis" = Bewegung) oder auch Bewegungsenergie oder selten Geschwindigkeitsenergie ist die Energie, die ein Objekt aufgrund seiner Bewegung enthält. Sie entspricht der Arbeit, die aufgewendet werden muss, um das Objekt aus der Ruhe in die momentane Bewegung zu versetzen. Sie hängt von der Masse und der Geschwindigkeit des bewegten Körpers ab. Als Formelzeichen für die kinetische Energie wird in der theoretischen Physik üblicherweise formula_1 verwendet, in anderen Gebieten auch formula_2 (z. B. in der physikalischen Chemie). Die SI-Maßeinheit der kinetischen Energie ist das Joule. Das Konzept der kinetischen Energie wurde im 18. Jahrhundert von Émilie du Châtelet, aufbauend auf Überlegungen von Gottfried Wilhelm Leibniz, eingeführt (als "vis viva", "Lebendige Kraft"). Bis zu diesem Zeitpunkt vertrat man die Ansicht von Newton, die Bewegungsenergie sei der Geschwindigkeit proportional. Massenpunkt. Fährt beispielsweise ein Auto der Masse formula_6 mit einer Geschwindigkeit von formula_7, hat es demzufolge eine kinetische Energie von formula_8. Einfache Herleitung. Die dabei zurückgelegte Wegstrecke formula_16 beträgt formula_17 (mit der Durchschnittsgeschwindigkeit formula_18). Drückt man ferner die Kraft nach der Grundgleichung der Mechanik mit formula_19 aus, so erhält man Weil bei einer gleichmäßigen Beschleunigung aus der Ruhe formula_21 gilt, ergibt sich für die Beschleunigungsarbeit Spezielle Koordinatensysteme. Dabei bedeutet der Punkt über der Koordinate ihre zeitliche Änderung, die Ableitung nach der Zeit. Starre Körper. Hier ist formula_35 das Trägheitsmoment des Körpers bezüglich seines Schwerpunktes und formula_36 die Winkelgeschwindigkeit der Drehung. Mit dem Trägheitstensor formula_37 wird dies allgemein geschrieben als Hydrodynamik. Hierbei bezeichnet formula_42 die Dichte. Kinetische Energie in der relativistischen Mechanik. Relativistische und klassische kinetische Energie im Vergleich. Dabei ist "c" die Lichtgeschwindigkeit, "m" die Ruhemasse und "m"rel die relativistische Masse. Aus der Taylor-Entwicklung nach formula_46 erhält man also für formula_48 wieder die Newtonsche kinetische Energie. Da die Energie über alle Grenzen wachsen müsste, wenn die Geschwindigkeit gegen die Lichtgeschwindigkeit geht, formula_49, ist es nicht möglich, einen massebehafteten Körper auf Lichtgeschwindigkeit zu beschleunigen. Das Diagramm rechts zeigt für einen Körper mit der Masse von formula_50 die relativistische und die Newtonsche kinetische Energie als Funktion der Geschwindigkeit (gemessen in Vielfachen der Lichtgeschwindigkeit). Da die Geschwindigkeit eines bewegten Körpers vom Bezugssystem abhängt, gilt dies auch für dessen kinetische Energie. Das gilt in Newtonscher und in relativistischer Physik. Relativistische Geschwindigkeit eines Elektrons im elektrischen Feld. Im elektrischen Feld nimmt die Energie eines Elektrons der Ladung formula_39 und der Masse formula_3 linear mit der Beschleunigungsspannung formula_53 zu. Die kinetische Energie ist nun die Differenz der relativistischen Gesamtenergie formula_54 und der Ruheenergie formula_540. Beachtet man, dass für die Gesamtenergie gilt (formula_10: relativistischer Impuls) und zwischen Impuls und Gesamtenergie der Zusammenhang Bei Beschleunigungsspannungen unterhalb 1 kV lässt sich die Geschwindigkeit aus dem klassischen Ansatz für die kinetische Energie abschätzen, bei höheren Energien muss relativistisch gerechnet werden. Bereits bei einer Spannung von 10 kV erreichen die Elektronen eine Geschwindigkeit von fast 20 % der Lichtgeschwindigkeit, bei 1 MV 94 %. Der Large Hadron Collider führt Protonen eine Energie von 7 TeV zu. Die Protonen (Ruheenergie 940 MeV) werden dabei auf das 0,999999991-Fache der Lichtgeschwindigkeit beschleunigt. Kinetische Energie in der Quantenmechanik. In der Quantenmechanik ist der Erwartungswert formula_69 der kinetischen Energie eines Teilchens der Masse formula_3, welches durch die Wellenfunktion formula_71 beschrieben wird, gegeben durch wobei formula_73 das Quadrat des Impuls-Operators des Teilchens ist. Im Formalismus der Dichtefunktionaltheorie ist nur vorausgesetzt, dass die Elektronendichte bekannt ist, das heißt, dass die Wellenfunktion formal nicht bekannt sein muss. Mit der Elektronendichte formula_74 ist das exakte Funktional der kinetischen Energie für formula_75 Elektronen unbekannt; falls jedoch im Fall formula_76 ein einzelnes Elektron betrachtet wird, so kann die kinetische Energie als geschrieben werden, wobei formula_78 das Weizsäcker-Funktional der kinetischen Energie ist. Kyrillisches Alphabet. Die kyrillische Schrift ist eine Buchstabenschrift, die in zahlreichen vor allem slawischen Sprachen in Europa und Asien verwendet wird. Sie ist nach Kyrill von Saloniki (826–869) benannt, der jedoch nicht Kyrillisch selbst, sondern die ihr vorausgehende glagolitische Schrift entworfen hat. Man nennt die kyrillische Schrift auch Kyrilliza (Кирилица, Кириллица, "Ćirilica"/Ћирилица) oder Asbuka (азбука; transliteriert "Azbuka") nach den traditionellen beiden ersten Buchstaben a (slawisch as) und b (slawisch buki). Entstehung. a> (blau) –runde Glagoliza (grün) – Kyrilliza (rot) Inschrift von Gnjosdowo, Mitte 10. Jhd., älteste bekannte kyrillische Inschrift der Kiewer Rus Obwohl anerkannt ist, dass Kyrill und Method als Urheber der glagolitischen Schrift gelten können, ist die Urheberschaft des kyrillischen Alphabetes immer noch Gegenstand akademischer Diskussion. Sie trägt zwar den Namen Kyrills, entstand jedoch nach heutiger Auffassung erst um die Mitte des 10. Jahrhunderts in Ostbulgarien am Hofe der bulgarischen Zaren in Preslaw. Eine Urheberschaft von Kyrill und Method, die ein Jahrhundert früher lebten, wäre somit ausgeschlossen. Die Zuschreibung an Clemens von Ohrid, einen im westlichen Teil des Bulgarischen Reiches tätigen Schüler Kyrills von Saloniki, ist zwar weit verbreitet, jedoch legendenhaft und nicht zu beweisen. Eine entsprechend gedeutete Nachricht in der "Legenda Ochridica" bedeutet tatsächlich wohl nur, dass er die glagolitische Schrift reformiert hat. Die meisten Buchstaben wurden aus dem griechischen Alphabet (in seiner byzantinischen Schriftform) übernommen oder von ihm abgeleitet. Für Laute, die im Griechischen nicht vorkamen, wurden Zeichen aus der glagolitischen Schrift (Glagoliza) zugrunde gelegt, die um 862 vom Slawenlehrer Konstantin, der später den Namen Kyrill annahm, entwickelt worden war. Es gibt keine einzige mittelalterliche Quelle, die das Alphabet als „Kyrillisch“ bezeichnet oder aber Kyrill von Saloniki als Schöpfer dieser Schrift erwähnt. Auch wenn das Alphabet heute den Namen Kyrills trägt, dürfte weder Konstantin Kyrill noch sein Schüler Clemens von Ohrid der Schöpfer der neuen Schrift sein. Als erwiesen gilt, dass das Alphabet seine erste Verbreitung durch Konstantin von Preslaw fand, Schüler von Kyrills Bruder Method und einer der bedeutendsten Vertreter der sogenannten Literarischen Schule von Preslaw (bulg. Преславска книжовна школа). Er war um 900 Bischof in der bulgarischen Hauptstadt Preslaw. Von seinen altbulgarischen Texten, die kyrillisch gefasst sind, sind heute mehr als 40 Schriften bekannt. Sein bedeutendstes Werk ist das „Belehrende Evangelium“ (um 893–894), dessen Einführung – das „Alphabetische Gebet“ – durch eine russische Abschrift aus dem 12. Jahrhundert bekannt ist. Das Werk von Konstantin von Preslaw gilt als eine der ältesten kyrillischen Schriften. Älteste Inschriften. Eine der ersten erhaltenen Steininschriften auf Kyrillisch ist die Inschrift auf dem Fragment eines Grabkreuzes aus dem 9. oder 10. Jahrhundert, das einst das Grab von Ana markierte. Ana war die jüngste Tochter des bulgarischen Herrschers Boris I. (852–889) und die Schwester seiner Thronfolger Wladimir Rassate (889–893) und Simeon I. (893–927). Die zweisprachige Inschrift erzählt auf Altbulgarisch in kyrillischer Schreibweise und auf Griechisch, dass „der Diener Gottes Ana verstorben ist. Im Monat Oktober am neunten Tag verstarb der Gottesdiener Ana“. Diesem Denkmal kommt zentrale Bedeutung auch deshalb zu, weil es das erste erhaltene Monument ist, das die Verwendung des kaiserlichen Titels Zar historisch belegt. Die Grabinschrift wird mit weiteren steinernen Monumenten aus der Zeit zwischen dem 9. und dem 10. Jahrhundert im Archäologischen Museum Weliki Preslaw aufbewahrt. Weitere Entwicklung. Die ursprünglich einheitliche Schrift hat in den verschiedenen Sprachen, die das Kyrillische nutzen, teilweise unterschiedliche Entwicklungen genommen. Die der Ausgangsform am nächsten kommende Variante findet sich im Kirchenslawischen wieder. Mehrere Buchstaben (z. B. ѣ, ѫ, ѧ, ѳ, ѡ) der alten kyrillischen Schrift werden heute nicht mehr verwendet. Das heutige Buchstabeninventar der einzelnen Sprachen wird in den Artikeln zu den jeweiligen Sprachen behandelt. Um 1700 wurde die kyrillische Schrift im Russischen Reich im Zuge der Reformen Peters des Großen vereinfacht und optisch an die lateinische Schrift angepasst. Diese latinisierten Buchstabenformen, die zur Unterscheidung von der kirchenslawischen Schrift als "Bürgerliche Schrift" bezeichnet wurden, wurden zur Grundlage der normativen Orthographie des Russischen. In der Folge fanden sie unter russischem Einfluss auch in den außerhalb des Russischen Reiches gelegenen Regionen Verbreitung, in denen die kyrillische Schrift verwendet wurde. Im 19. Jahrhundert erhielten auch das Bulgarische und das Serbische eine normierte kyrillische Orthographie. Während die bulgarische Kyrilliza sich in der Form der Buchstaben weitgehend an die russische anlehnte und in der Orthographie zunächst zum großen Teil etymologischen Kriterien folgte, wurde die serbische Kyrilliza durch Vuk Karadžić radikal reformiert, um eine konsequent phonologische Schreibweise des Serbischen zu ermöglichen. Ende des 19. beziehungsweise Anfang des 20. Jahrhunderts wurde auch die kyrillische Orthographie des Ukrainischen und des Weißrussischen einheitlich normiert, wobei die Alphabete dieser Sprachen jeweils viele Gemeinsamkeiten, aber auch einige Abweichungen von dem des Russischen aufweisen. Während und unmittelbar nach dem Zweiten Weltkrieg wurde schließlich in Jugoslawien ein eigenes vorwiegend dem Vorbild des Serbischen folgendes kyrillisches Alphabet für das Mazedonische normiert. Für das Rumänische, eine romanische Sprache, die in einem Land überwiegend orthodoxen Glaubens gesprochen wird und seit dem 16. Jahrhundert kyrillisch geschrieben worden war, wurde hingegen 1865 das kyrillische Alphabet zugunsten des lateinischen abgeschafft. Durch die russische Rechtschreibreform von 1918 wurde die kyrillische Schreibweise des Russischen erneut reformiert, wobei einige infolge der Lautentwicklung nicht mehr notwendige Schriftzeichen abgeschafft wurden. Eine ähnliche Reform erfolgte nach dem Zweiten Weltkrieg für das Bulgarische. Die Schreibweise der übrigen kyrillisch geschriebenen slawischen Sprachen hat sich hingegen seit ihrer ersten modernen Normierung, die bereits zum großen Teil phonologischen Kriterien folgte, nicht mehr wesentlich verändert. Bereits zur Zeit des Zarenreiches wurde das kyrillische Alphabet zur erstmaligen Verschriftlichung einiger kleinerer Sprachen in den zu diesem gehörenden Gebieten Osteuropas, des Kaukasus, Zentralasiens und Sibiriens genutzt. Zu sowjetischer Zeit wurde in den 1920er- und beginnenden 1930er-Jahren zunächst das lateinische Alphabet als Mittel zur Verschriftlichung von Sprachen propagiert, die bisher schriftlos waren oder zuvor das von offizieller Seite als rückständig angesehene arabische oder das mongolische Alphabet verwendet hatten. Ende der 1930er-Jahre wurde dann jedoch die Orthographie aller dieser Sprachen auf das kyrillische Alphabet umgestellt. Von der allgemeinen Einführung der Kyrilliza für die Sprachen der Sowjetunion ausgenommen blieben lediglich das Armenische und das Georgische, die ihre eigenen traditionellen Schriften beibehielten, sowie die Sprachen der baltischen Republiken und von Minderheitengruppen mittel- oder westeuropäischer Herkunft, die weiterhin in lateinischer Schrift geschrieben wurden. Nach dem Vorbild der Sowjetunion führte auch die Mongolische Volksrepublik die kyrillische Schrift ein. Zur Schreibung der nichtslawischen Sprachen der Sowjetunion wurde das kyrillische Alphabet in der für das Russische üblichen Form in den meisten Fällen um weitere meist neugeschaffene Buchstaben erweitert, um alle Laute der jeweiligen Sprache wiedergeben zu können. Heutige Verbreitung. Heute werden Russisch, Ukrainisch, Weißrussisch, Bulgarisch, Serbisch, Mazedonisch und das moderne Kirchenslawisch sowie zahlreiche weitere Sprachen in Osteuropa, Sibirien, im nördlichen Kaukasus und in Zentralasien mit kyrillischen Zeichen geschrieben, darunter Turksprachen wie Kasachisch und Kirgisisch, das mit dem Persischen verwandte Tadschikisch, Mongolisch oder auch Dunganisch, ein chinesischer Dialekt. Die Alphabete der einzelnen Sprachen sind im Wesentlichen gleich und unterscheiden sich nur durch einige wenige Zeichen. Manche Sprachen verwenden Sonderzeichen (ähnlich den Umlauten in der lateinischen Schrift). Allerdings werden in der kyrillischen Schrift im Gegensatz zur Lateinschrift nur selten beigefügte Akzente, Punkte, Zedillen oder ähnliches verwendet, sondern eher ganz neue Buchstabenformen eingeführt. Die kirchenslawische Schrift enthält eine ganze Reihe von Zeichen, die in den modernen Schriften nicht mehr üblich sind. Seit dem Beitritt Bulgariens zur Europäischen Union 2007 ist die kyrillische neben der lateinischen und der griechischen eine der drei offiziell verwendeten Schriften in der EU. Aus diesem Grund werden seit 2013 die Währungsbezeichnung EURO und die Abkürzung EZB (für Europäische Zentralbank) auf den Eurobanknoten auch in der kyrillischen Schreibweise aufgeführt. Vergleichstabelle zur Entwicklung der Buchstabenformen. Wie aus der Tabelle ersichtlich wurde die kyrillische Schrift hauptsächlich aus der griechischen entwickelt. Dabei wurden griechische Unzialformen benutzt (vgl. Griechisches Alphabet), aus denen später sowohl Klein- wie auch Großbuchstaben entstanden. Für alle mit griechischen Buchstaben nicht darstellbaren Phoneme wurden glagolitische Buchstaben – in einer an den griechischen beziehungsweise kyrillischen Schriftduktus angepassten Form – übernommen. Kursive und aufrechte Formen. Von einigen Kleinbuchstaben gibt es sehr unterschiedliche Varianten, ähnlich wie bei a/ɑ im lateinischen Alphabet. Im Russischen herrscht in aufrechter Schrift die der jeweiligen Majuskel ähnelnde Form der Minuskeln vor, und die andere Form kommt fast nur in kursiven Schriften vor, wie in der Tabelle abgebildet. Im Bulgarischen und Serbischen sind die von den Großbuchstaben stark abweichenden Minuskeln auch in aufrechter Schrift üblich. Das vergrößert die Zahl jener Zeichen, die bei gleicher Form im kyrillischen und im lateinischen Alphabet unterschiedliche Bedeutung haben. Vor allem in Serbien kann das leicht verwirren, wo die Landessprache mancherorts sowohl lateinisch als auch kyrillisch geschrieben wird. In der Computertypographie waren diese Varianten lange nur über speziell lokalisierte Schriften darstellbar. Inzwischen können aber „smart fonts“ in den Formaten OpenType, Graphite oder AAT abhängig von der Sprache automatisch die korrekten Glyphvarianten auswählen. Allerdings muss das Betriebssystem oder die verwendete Software dazu die Sprache bestimmen können und nicht alle Schriftdateien sind entsprechend angepasst. Kyrillische Schreibschrift. Serbische Schreibschrift um 1900, jetzt teilweise falsch Moderne serbische Handschrift (das kleine ш kann optional auch unterstrichen werden) Noch Ende des 17. Jahrhunderts hatte die kyrillische Schreibschrift große Ähnlichkeit mit der mittelalterlichen griechischen Unziale. Mit der von Zar Peter dem Großen eingeleiteten Modernisierung Russlands näherte sich der Stil der gedruckten wie geschriebenen Schrift zeitgenössischen westeuropäischen Schriften an. Wiedergabe mit lateinischen Buchstaben. Die Umkehrbarkeit ist dabei nur im ersten Fall vollständig gewährleistet, mit kleinen Einschränkungen meist auch im zweiten. Daneben gibt es die rein ausspracheabhängige Schreibung, z. B. per IPA, die aber nicht von der Ursprungsverschriftung, also hier den kyrillischen Buchstaben, abhängig ist. In einigen Fällen, etwa im Mongolischen oder bei Namen von Auswanderern, wird das kyrillische Schriftsystem parallel mit einem anderen verwendet, für das es oft wiederum eine Transliterationsvorschrift ins lateinische gibt, die zu anderen Ergebnissen führen kann. Ein theoretisch möglicher rein zielsprachabhängiger Ansatz ist nicht üblich, da wie im lateinischen Schriftsystem nicht in jeder Sprache den kyrillischen Buchstaben dieselben Laute zugeordnet sind (z. B. г → "g/h"). Die in der Slawistik übliche "wissenschaftliche Transliteration" beruht auf dem tschechischen Alphabet. Die Normen der ISO und anderer Institute (v. a. GOST) bauen darauf auf, unterscheiden sich aber in Details davon. Die Vereinten Nationen empfehlen seit 1987 für geographische Bezeichnungen GOST 16876-71, die zumindest für das Russische keine Unterschiede zur wissenschaftlichen Transliteration und ISO/R 9 aufweist und nur drei zu ISO 9 (щ → "šč/ŝ", я → "ja/â", ю → "ju/û"). Die Nachfolgenorm GOST 7.79-2000 stimmt in System A insgesamt bis auf zwei kleine Ausnahmen mit ISO 9 überein. Für die weitgehend phonetische "Transkription" gibt es in den europäischen Sprachen – auch und gerade in der deutschen – eine lange Tradition, in deren Verlauf es auch zu Änderungen und Varianten kam (z. B. Namensendung "-off/-ow/-ov/-ev" oder in der DDR "sh" für ж). Neben der Verwendung von "w" anstelle von "v" für в weicht die vom Duden gepflegte (russisch-)deutsche Transkription vor allem bei den S-Lauten von der Transliteration ab (ш/ж → "sch", з → "s" statt "z", ц → "z" statt "c"). Im englischen Sprachraum dominieren zwei einander sehr ähnliche Standards, die zugunsten von Digraphen (meist mit "h") weniger stark auf diakritische Zeichen wie Hatschek und Zirkumflex setzen (z. B. "щ" → "shch" statt "šč" oder "ŝ"): PCGN (Geographie) und ALA-LC (Bibliothekswesen). Durch die Verwendung in den internationalen Medien, zum Beispiel im Profisportbereich, und deren unreflektierter Übernahme durch die lokale Presse finden sich die französische und vor allem englische Transkription auch in vielen anderen Ländern; ebenso tauchen wegen technischer Schwierigkeiten akzentbefreite Transliterationen auf. Es ist ein Qualitätsmerkmal von Verlagen und Redaktionen, den ausgewählten Transkriptions- oder Transliterationsstandard durchgängig einzuhalten. In Jugoslawien galt für die lokalen Sprachen eine einheitliche Umwandlung von kyrillischen in lateinische Buchstaben und umgekehrt, die sich in den Nachfolgestaaten erhalten hat. Vor allem in Serbien werden beide Systeme weiterhin parallel verwendet. In den Staaten Aserbaidschan, Turkmenistan und Usbekistan wurden nach der Unabhängigkeit von der Sowjetunion in den 1990er-Jahren auf dem Türkischen basierende lateinische Alphabete (wieder-)eingeführt. In diesen Fällen wird in der Regel auch im Ausland die lokale Umschrift verwendet. In Weißrussland hat ein an das polnische angelehntes lateinisches Alphabet "(Łacinka)" historische Bedeutung, genießt heute aber keinen offiziellen Status und wird deswegen zur Transkription des Weißrussischen in fremdsprachigem Kontext nur selten verwendet. Beispiele für die Umschrift von Namen. In Klammern steht ggf. unter "Transliteration" die strengere ISO 9 von 1995 und unter "deutsch" die DDR-Transkription. Zu inoffiziellen Methoden der Transliteration, die sich an den technischen Beschränkungen von Eingabegeräten wie lateinischen Tastaturen orientieren, siehe Translit. Kirchenslawisch. Auch moderne kirchenslawische Texte werden nach wie vor in der altkyrillischen Schrift gesetzt, die in der obigen Tabelle dargestellt ist. Eine etwaige Transkription oder Transliteration richtet sich in der Regel nach der Sprache des Landes, in der der Text erscheint. Serbisch, Serbokroatisch und Montenegrinisch. "Anmerkung:" Die serbische Sprache verwendet neben der kyrillischen Schrift auch das lateinische Alphabet. Die Verfassung Serbiens hebt zwar die kyrillische Schrift für den offiziellen Gebrauch vor allem in der öffentlichen Verwaltung und Schulen in Serbien als erste Schrift hervor, es kann und darf aber die lateinische Schrift auch im offiziellen Gebrauch verwendet werden. Im Serbokroatischen des ehemaligen Jugoslawien waren die serbische kyrillische Schrift und das lateinische Alphabet im offiziellen Gebrauch gleichgestellt. In Montenegro ist laut Verfassung die kyrillische Schrift neben der lateinischen Schrift gleichberechtigt. Im Jahr 2009 veröffentlichte das montenegrinische Ministerium für Bildung und Wissenschaft eine Rechtschreibung, die neben zwei zusätzlichen Buchstaben (sowohl in der lateinischen als auch in der kyrillischen Variante) auch ein Wörterbuch mit entsprechenden Abweichungen der Schreibungen einzelner Wörter der montenegrinischen Sprache vom Serbokroatischen enthält. Die heutige Form der serbischen "Azbuka" (Alphabet) geht auf die Reformierung der bisherigen kyrillischen Schrift durch Vuk Stefanović Karadžić im 19. Jahrhundert zurück. Die slawenoserbische Schrift, die zu seiner Zeit nur noch in höheren Kreisen bekannt war, ähnelte bis auf einige Konsonanten vor allem der russischen kyrillischen Schrift sehr. Vom Mittelalter bis ins 19. Jahrhundert war vor allem in Bosnien und Herzegowina und in Teilen Kroatiens außerdem die Schrift Bosančica verbreitet. Baschkirisch. Die mit * gekennzeichneten Buchstaben kommen gewöhnlich nur in jüngeren Fremdwörtern russischer Herkunft vor. Kasachisch. Die mit * gekennzeichneten Buchstaben kommen gewöhnlich nur in jüngeren Fremdwörtern russischer Herkunft vor. Uigurisch. In der Sowjetunion und ihren Nachfolgestaaten (v. a. Kasachstan) wurde und wird Uigurisch mit einem kyrillischen Alphabet geschrieben, in der Volksrepublik China hingegen offiziell zunächst mit einem erweiterten Lateinalphabet ("Yengi Yezik̡", „neue Schrift“) und seit 1987 (wieder) in einem arabisch-persischen Alphabet ("K̡ona Yezik̡", „alte Schrift“). In den verschiedenen Verschriftungen kommen unterschiedliche Rechtschreibprinzipien zum Tragen, so dass die verschiedenen Alphabete nicht eins zu eins übertragbar sind. Das betrifft vor allem die Schreibweise von Lehnwörtern aus dem Russischen und aus dem Chinesischen. Burjatisch. Die mit * gekennzeichneten Buchstaben kommen gewöhnlich nur in jüngeren Fremdwörtern russischer Herkunft vor. Dunganisch. Die mit * gekennzeichneten Buchstaben werden nur in russischen Lehnwörtern verwendet. Rumänisch. Das Vaterunser auf Rumänisch (1850) Wegen des orthodoxen Glaubens der Rumänen und der slawischen Umgebung wurde die rumänische Sprache ab dem 16. Jahrhundert mit kyrillischen Buchstaben geschrieben. Diese Schrift wurde von der kirchenslawischen übernommen. Ab dem 18. Jahrhundert wurde jedoch die kyrillische Schrift in Siebenbürgen (das damals zum Habsburgerreich gehörte) nach und nach durch die lateinische ersetzt. Damals wurde noch kein eigenes rumänisches Alphabet entwickelt, sondern nach den Regeln der ungarischen Orthographie geschrieben. Die Siebenbürgische Schule entwickelte schließlich Anfang des 19. Jahrhunderts ein eigenes offizielles rumänisches Alphabet, das auf lateinischen Buchstaben basierte. 1862 wurde in Rumänien offiziell die kyrillische Schrift komplett durch die lateinische ersetzt. 1938 wurde in der Moldauischen ASSR für die in Moldauisch umbenannte rumänische Sprache die kyrillische Schrift wieder eingeführt, allerdings diesmal nicht in der kirchenslawischen, sondern in der russischen Version. Im von der Sowjetunion annektierten Bessarabien wurde in den Jahren 1940 und 1941 sowie von 1944 bis 1989 die Verwendung der kyrillischen Schrift obligatorisch. Heute wird Rumänisch nur noch in Transnistrien mit kyrillischen Buchstaben geschrieben. Tschuktschisch. Die mit * gekennzeichneten Buchstaben kommen nur selten oder gar nicht in genuin tschuktschischen Wörtern vor. Traditionelle Namen. Im Kirchenslawischen hat ähnlich wie im Griechischen jeder Buchstabe einen Namen. Diese womöglich schon von Konstantin-Kyrill selbst eingeführten Namen sind größtenteils normale altkirchenslawische Wörter beziehungsweise Wortformen, die eine Art Merkspruch zu ergeben scheinen, durch den sich vielleicht Schreibschüler die Reihenfolge des Alphabets besser merken konnten. Allerdings sind für die am Ende des Alphabets, nach Omega, eingefügten Buchstaben größtenteils keine solchen „sprechenden“ Namen überliefert. Kyrillische Zahlen. Die kyrillischen Zahlen sind ein Zahlensystem, das auf den kyrillischen Buchstaben beruht. Es wurde bei den Süd- und Ostslawen vor allem in kirchenslawischen Texten benutzt, die in alter Kyrilliza geschrieben sind. Die Verwendung von Buchstaben als Zahlzeichen erfolgte nach griechischem Muster. Zur Markierung wurde ein Titlo über den jeweiligen Buchstaben gesetzt. Seit dem 16. Jahrhundert wurden daneben auch indische und römische Zahlen benutzt. Seit Einführung der bürgerlichen Schrift durch Peter I. 1708 werden die kyrillischen Zahlen nicht mehr verwendet. Zeichenkodierung. Die verbreitetsten 8-Bit-Kodierungen für Kyrillisch sind ISO 8859-5, Windows-1251, Macintosh Cyrillic, KOI8-R und KOI8-U. Sie umfassen nur die für die modernen slawischen Sprachen benötigten Buchstaben, KOI8 sogar nur die für modernes Russisch beziehungsweise Ukrainisch. Historische Zeichen und Sonderzeichen für nichtslawische Sprachen sind nur in Unicode kodiert (ausführlich dazu vgl. Kyrillisch und Glagolitisch in Unicode). Die folgende Tabelle gibt einen Überblick über die Kodierung kyrillischer Zeichen in der aktuellen ISO-Transliteration, hexadezimal und dezimal in Unicode (z. B. für numerische Zeichenreferenzen in HTML, SGML und XML verwendbar), und als hexadezimale Bytewerte in den fünf erwähnten 8-Bit-Kodierungen, wobei die Ergänzungen von KOI8-U gegenüber KOI8-R in der gemeinsamen Spalte in Klammern stehen. Tag der kyrillischen Schrift. Der Tag der kyrillischen Schrift ist der 24. Mai. In Bulgarien als "Tag des bulgarischen Alphabets" gefeiert, ist er ein offizieller Feiertag. An diesem Tag werden traditionell am Denkmal für Kyrill und Method vor der Bulgarischen Nationalbibliothek Blumen niedergelegt, auch in Moskau auf dem Slawjanskaja-Platz in der Nähe des Kremls, wo sich ebenfalls ein Denkmal befindet. In vielen Kirchen werden Gottesdienste abgehalten. Kaiser. Die deutsche Titelbezeichnung Kaiser (weiblich "Kaiserin") leitet sich vom römischen Politiker Gaius Iulius Caesar ab. Die Herrschaft und selten auch der Herrschaftsbereich werden entsprechend als "Kaisertum" bezeichnet. Den Kaisertitel "Imperator Caesar Augustus" trugen in der Antike die Herrscher des Römischen Reiches seit der Zeit des Augustus (siehe auch Prinzipat und Spätantike). Während im Oströmisch-Byzantinischen Reich das Kaisertum bis 1453 existierte, erlosch das weströmische Kaisertum im Jahre 476. Im europäischen Mittelalter wurden nach der „Erneuerung“ des westlichen Kaisertums durch Karl den Großen im Jahr 800 auch die vom Papst gekrönten Herrscher des Frankenreiches und später des Heiligen Römischen Reiches als Kaiser bezeichnet. Der bereits zuvor vorhandene sakrale Aspekt des Kaisertums wurde stärker als bislang christlich interpretiert, die westlichen Kaiser wurden als Beschützer des Abendlandes und des christlichen Glaubens angesehen. Ihnen sollte damit verbunden auch die Ehrenhoheit über die lateinisch-christlichen Könige zustehen, wenngleich dies faktisch nicht oder kaum durchzusetzen war. Beim mittelalterlichen Kaisertum handelte es sich somit um eine „gesteigerte Königsherrschaft“. In der Neuzeit verlor der Titel seinen sakralen und universalen Charakter, wurde zunehmend mit dem Königstitel identisch und zudem auch auf nichtchristliche, außereuropäische Herrscher bezogen, insbesondere wenn diese eine göttliche Herkunft geltend machten. Als einziger heutiger Monarch wird noch der Tennō von Japan als Kaiser bezeichnet. Etymologie. Das althochdeutsche "keisar" leitet sich von dem lateinischen Eigennamen "Caesar" des Gaius Iulius Caesar ab, der in der Antike [kaisar] ausgesprochen wurde, im Griechischen [kaisar] oder [kaisaros]. Der Wandel des Eigennamens "Caesar" zum Herrschertitel "Caesar" erfolgte in einem achteinhalb Jahrzehnte dauernden Prozess vom Tod Gaius Iulius Caesars 44 v. Chr. bis zum Amtsantritt des Kaisers Claudius im Jahr 41 n. Christus. Zur selben Zeit entstand mit "keisar" bereits dieses vermutlich älteste lateinische Lehnwort im Germanischen. Erst im Mittelalter entstand dagegen die altslawische Entlehnung, die später zum Wort "Zar" führte. In den romanischen Sprachen bezeichnet dagegen ein von "Imperator" – dem Titel des militärischen Oberkommandeurs im Sinne von Feldherr, den ebenfalls bereits Augustus geführt hatte, der aber erst ab Nero fester Bestandteil der römisch-kaiserlichen Titulatur wurde – entlehntes Wort den Kaiser, so etwa das italienische "imperatore", das spanische "emperador" oder das französische "empereur", auf das auch das englische "emperor" zurückgeht. Auch im albanischen Wort "mbret" für „König“ ist noch das "imperator" zu erkennen. In mittelhochdeutschen Schriften tauchen meist die Schreibweisen "kayser", "keiser" oder "keyser" auf. Die Entstehung des Kaisertitels unter Augustus. Nachdem Gaius Iulius Caesar in den Jahren 49 bis 45 v. Chr. im Bürgerkrieg die Alleinherrschaft über das Römische Reich errungen hatte, wagte er es nicht, sich den bei den Römern verhassten Königstitel zuzulegen. Da die frühe Römische Republik aber für Notzeiten das außerordentliche Amt des Diktators gekannt hatte, ließ sich Caesar vom Senat zum "Dictator perpetuus" („Diktator auf Lebenszeit“) wählen. Zudem trug er den Titel "Imperator", der sich wie auch "Imperium" von "imperare" („befehlen“) herleitet und ursprünglich die militärische Befehlsgewalt über eine Legion bezeichnete. Zur Zeit der Republik konnte jeder Befehlshaber einer Legion von seinen Truppen zum Imperator ausgerufen werden. Später blieb der Titel allein den Kaisern vorbehalten. Er bezeichnete die tatsächliche Quelle ihrer Macht, die Militärgewalt. Als erster Kaiser der Geschichte gilt aber gemeinhin nicht Caesar, sondern sein Großneffe Gaius Octavius, der spätere Augustus. Dieser nahm nach Caesars Ermordung 44 v. Chr. dessen Namen an, da der Diktator ihn testamentarisch adoptiert hatte. Er nannte sich von 42 v. Chr. bis 38 v. Chr. "Gaius Iulius divi filius Caesar" (also „Gaius Iulius Caesar, Sohn des Vergöttlichten“), bis 27 v. Chr. "Imperator Caesar divi filius" (den Beinamen "Octavian", unter dem er bei Historikern bekannt ist, hat er offiziell nicht geführt). Nachdem auch er alle Konkurrenten um die Macht ausgeschaltet hatte, verschleierte er seine faktisch monarchische Stellung, die formal durch die Verleihung einiger wichtiger Ausnahmebefugnisse ("tribunicia potestas", "imperium proconsulare maius") abgesichert wurde, durch den bescheiden klingenden Titel "princeps", der zuvor als "princeps senatus" („Erster des Senats“) einen Ersten unter Gleichen bezeichnet hatte, nun aber als „erster Bürger“ verstanden wurde. Aus diesem Titel gingen die Wörter "principe" (italienisch) und "prince" (französisch, englisch) hervor, die „Fürst“ bedeuten. Das deutsche Wort „Prinz“ stammt von altfranzösisch "prince" ab. Für die angebliche „Wiederherstellung der Republik“ verlieh der Senat Octavian 27 v. Chr. den Ehrentitel "Augustus", der „Erhabene“, unter dem er in die Geschichte eingegangen ist. Nicht nur seine Beinamen Caesar und Augustus sowie der als Vornamen geführte Titel "Imperator", sondern auch seine Staatsämter, die höchsten in Rom, wurden in seiner Familie praktisch erblich, so dass der Prinzipat "de facto" eine Monarchie darstellte, während man "de iure" weiter in der "res publica" lebte. Dabei blieb der Ursprung des Kaisertums als Ausnahmeamt stets dadurch gewahrt, dass das Amt niemals auch "de iure" erblich wurde: Noch in der Spätantike musste der präsumtive Nachfolger bereits zu Lebzeiten des Vorgängers dessen Mitkaiser werden, um eine reibungslose Thronfolge zu gewährleisten. Seit Kaiser Claudius wurde der Name "Caesar" endgültig zum Bestandteil der römischen Herrschertitulatur. Spätestens seit Vespasian wurden jedem Kaiser bei Regierungsantritt und Anerkennung durch den Senat alle Sonderkompetenzen gebündelt übertragen. Alle römischen Herrscher trugen fortan bis zum Ende der Antike die drei Namen oder Titel "Imperator Caesar Augustus", ergänzt um ihre Individualnamen und etwaige Beinamen. Die Ursprünge des Kaisertums in den Ausnahmevollmachten des Augustus blieben stets erkennbar. Neben der grundsätzlich problematischen Sukzession wird dies vor allem daran erkennbar, dass die Kaiser faktisch unumschränkt agieren konnten; ihr Wille war Gesetz. Eingeschränkt waren ihre Handlungsoptionen lediglich dadurch, dass sie im Falle eines Akzeptanzverlustes mit Attentaten und Usurpationen rechnen mussten. Der Kaiser in der Spätantike. In der Spätantike wandelte sich die Bedeutung des Titels "Augustus". In der Zeit der Tetrarchie Kaiser Diokletians existierten zwei "Augusti", also Seniorkaiser, denen jeweils ein eigener Herrschaftsbereich unterstand. Eine Tendenz zu dieser Entwicklung war bereits in der Zeit der Reichskrise des 3. Jahrhunderts erkennbar geworden, als mehrere Kaiser Mitkaiser ernannten. Als "Caesar" wurde nun meist ein Juniorkaiser und designierter Nachfolger bezeichnet (s. u.). Nach 285 gab es nur noch selten (324–337; 361–364) nur einen einzigen "Augustus", Kaiserkollegien aus "Augusti" (und teils auch "Caesares") wurden die Regel. Seit Valentinian I. und Valens herrschte dabei meist ein Kaiser als "Augustus" im Westen, ein anderer im Osten. Diese Entwicklung wurde nach dem Tod Theodosius’ I., des letzten Kaisers des Gesamtreiches, im Jahr 395 faktisch endgültig (Reichsteilung von 395), da das westliche Kaisertum 476/80 erlosch. Aus Sicht der oströmischen Kaiser bedeutete dies allerdings nur, dass auch der Westen wieder ihnen unterstand – ein Anspruch, den Justinian I. dann auch tatsächlich militärisch durchzusetzen versuchte. Das spätantike Kaisertum verzichtete großteils, aber niemals vollständig auf die Ideologie des augusteischen Prinzipats; die Kaiser präsentierten sich seit Diokletian unverhohlen als Monarchen und dokumentierten ihre Stellung durch Insignien wie das Diadem sowie ein ausgefeiltes Hofzeremoniell. Faktisch verfügten sie allerdings eher über weniger Macht als in der frühen und hohen Kaiserzeit. Im Westen endete die Reihe der römischen Kaiser 476 mit Romulus Augustulus beziehungsweise 480 mit Julius Nepos, im Osten legte Herakleios um 625 den Titel "Imperator" (oder "Autokrator") ab und führte fortan die Bezeichnung "basileus" – damit endete das spätantike Kaisertum, und das griechisch-byzantinische nahm seinen Anfang. Sonderbedeutungen des Titels „Caesar“. Erstmals unter Galba, konsequent dann seit der Zeit von Kaiser Hadrian wurde der Titel "Caesar" (ohne den Zusatz "Augustus") auf den designierten Nachfolger des Herrschers angewendet. Die Reichsreform unter Kaiser Diokletian sah dann eine Vierherrschaft (Tetrarchie) von jeweils zwei Seniorkaisern ("Augusti") und zwei diesen untergeordneten Juniorkaisern ("Caesares") vor. Dies blieb längere Zeit üblich, so machte Konstantin der Große seine Söhne zu "Caesares". Erst Kaiser Valentinian I. erhob seinen Sohn Gratian gleich zum "Augustus". Zu "Caesares" wurden fortan nur noch solche Unterkaiser erhoben, die keine Söhne des herrschenden "Augustus" waren. Im byzantinischen Reich blieb "Caesar" Teil der offiziellen Kaisertitulatur bis Justinian II. Anschließend taucht er weiterhin als besonderer Ehrentitel auf, fast ausschließlich innerhalb der kaiserlichen Familie. Unter Alexios I. Komnenos verliert der Titel diese Bedeutung und wird später zu einem Ehrentitel abgewertet. Der sakrale Aspekt des Kaisertums. Zu den höchsten Staatsämtern im antiken Rom hatte auch das des Oberpriesters, des Pontifex Maximus, gehört, das schon Caesar innegehabt hatte. Seit 12 v. Chr. waren alle Kaiser auch Pontifex Maximus. Dies verlieh Augustus und seinen Nachfolgern neben ihrer säkularen auch eine sakrale Würde. Die sakrale Dimension des Kaisertums konnte auf eine lange Tradition zurückblicken, die bereits im Alten Orient begonnen hatte und besonders im Hellenismus auch in den Mittelmeerraum vorgedrungen war. Bereits Caesar war nach seinem Tod vergöttlicht worden, sein Nachfolger Augustus wurde damit implizit ebenfalls in die Nähe der Götter gerückt, und diese Linie wurde im antiken Rom fortgeführt. Sie gipfelte schließlich in dem rigiden Hofzeremoniell der Spätantike. Nach der Christianisierung unter Konstantin dem Großen wurde zwar der heidnische Titel "Pontifex Maximus" abgelegt (wenn auch erst unter Gratian und Theodosius I.), die Sakralität der Kaiserwürde blieb davon aber faktisch weitgehend unangetastet, da sich nun die Idee eines Gottesgnadentums entwickelte. Auch die byzantinischen Kaiser, die russischen Zaren und die Kaiser des Heiligen Römischen Reichs leiteten aus den sakralen, zuweilen als Sakrament verstandenen Riten ihrer Krönung eine priestergleiche Stellung ab, sowie den Anspruch, als höchste weltliche Würdenträger dem Papst gleichgestellt zu sein. Dieser Anspruch und die damit verbundenen Eingriffe der Kaiser in den kirchlichen Bereich führten im Abendland im 11. Jahrhundert zu einem schweren Konflikt zwischen dem römisch-deutschen Kaisertum und dem römischen Papsttum, dem Investiturstreit, in dem letzteres sich weitgehend durchsetzte und später gar selbst für sich in Anspruch nahm, über das Kaisertum und sogar die Wahl des Rex Romanorum zu verfügen. Dieser Anspruch wurde jedoch im 14. Jahrhundert endgültig abgewiesen (siehe Goldene Bulle). Aber auch in den anderen abendländischen Königreichen kam es, wenn auch nicht in dieser Härte, zu einem Disput. Im Osten – sowohl in Byzanz als auch in Russland – gelang es den Kaisern und den Zaren dagegen stets, den Vorrang vor den Patriarchen ihrer jeweiligen orthodoxen Kirchen zu wahren. Die prekäre Stellung des römischen Kaisers. Die römische Monarchie war in den Augen vieler Althistoriker ein „Akzeptanz-System“ (Egon Flaig): Wie jede legitime Regierung war auch die römische auf die Zustimmung oder zumindest Duldung durch die Mehrheit angewiesen; aufgrund ihrer Ursprünge in einem Ausnahmeamt war es für die römischen Herrscher aber besonders schwierig, sich diese zu sichern. Da man formal noch immer in der "res publica" lebte, gab es für einen Alleinherrscher keine alleinige, unbestreitbare Quelle von Legitimität (wie z. B. Erbfolge oder Wahl). Aus ebendiesem Grund war die kaiserliche Stellung de iure nicht erblich. Zwar war das Kaisertum als solches schon recht bald nach Augustus unbestritten, aber die Person des Monarchen konnte in Rom besonders leicht in Frage gestellt werden, seine Legitimität besonders leicht bezweifelt werden. Der Kaiser musste also von den relevanten Gruppen des Reiches akzeptiert werden, damit er sich an der Macht halten konnte. Diese Gruppen waren zunächst (27 v. Chr. bis ungefähr 260 n. Chr.) der Senat, die "plebs urbana" in Rom und das Militär (Praetorianer und Legionäre). Es konnte sich keine Instanz herausbilden, die die Herrschaftsbefugnis einer Person als Ganzes verbindlich machte; es gab nie eine allgemein akzeptierte Regel für den Fall einer umstrittenen Nachfolge. Weder der Senat noch die "plebs urbana" oder das Heer waren befugt, einen Kaiser ein- oder abzusetzen – rief eine dieser Gruppen einen neuen Herrscher aus, so musste sich dieser die Zustimmung der anderen Gruppen erst erkaufen, erpressen oder erkämpfen. Das Heer als wichtigster Machtfaktor gewann aber faktisch rasch eine Vormachtstellung. 37 n. Chr. erhoben die Soldaten durch Akklamation Caligula zum Kaiser, was von den übrigen beiden Institutionen notgedrungen hingenommen werden musste. Aber auch das Heer war in sich nicht homogen. Kein Heeresteil konnte im Namen anderer sprechen, so dass mitunter die bewaffnete Auseinandersetzung zwischen verschiedenen Kaiserkandidaten die Entscheidung bringen musste (Vierkaiserjahr, Zweites Vierkaiserjahr). Nur wenn ein Heeresteil die Vormacht gewann, konnte er über die Kaisererhebung befinden. Das von Diokletian eingeführte System der tetrarchischen Herrschaft führte zu einer entsprechenden Anzahl von Heeren, die sich unter Umständen wieder gegenüberstehen konnten – dieser Fall trat während der Auflösung der römischen Tetrarchie nach 306 auch ein. Die Herrschaftsübernahme durch eine Usurpation bedingte, dass der amtierende Kaiser starb oder gestürzt wurde. Daher musste der Prätendent versuchen, möglichst das Zentrum zu beherrschen. Das galt für die Prinzipatsepoche (einschließlich der Zeit der Soldatenkaiser). Bis auf Postumus, Zenobia und die Kaiser der Tetrarchie strebten fast alle danach, die Herrschaft über das gesamte Reich zu gewinnen. Im späteren 4. Jahrhundert, als sich das Mehrkaisertum etabliert hatte und sich eine regionale Aufgabenteilung unter den Mitgliedern des Kaiserkollegiums immer mehr durchsetzte, änderte sich dies grundlegend. Die Usurpatoren nach Konstantin I. wollten meist nicht das ganze Reich beherrschen, sondern nur noch ihren Teilbereich (wie Magnus Maximus). Diese Situation ließ zwei Möglichkeiten zu: Entweder ordneten sich die Regionalkaiser dem zentralen Kaiser unter, oder aber die Herrschaftsgebiete wurden faktisch aufgeteilt. Diese letzte Entwicklung hatte zur Folge, dass das Römische Reich auf Spannungen kaum mehr als Ganzes reagieren konnte. Es gab kein Zentrum des Gesamtreiches mehr, sondern mehrere Zentren. Es gab keine Hauptstadt mehr und keine Institution, die das Reich von Syrien bis Spanien verklammerte. Die Entwicklungen liefen auseinander: Im Osten hielt sich das Kaisertum, im Westen wurde es von den Heermeistern ("magistri militum") im 5. Jahrhundert schrittweise marginalisiert. Dennoch blieb die militärische Kraft des Reiches noch lange Zeit relativ intakt, und die beiden Hälften des seit 395 faktisch endgültig geteilten Imperiums kooperierten oft eng und sahen sich nicht als getrennte Staaten, sondern als ein und dieselbe "res publica". Bis 450 wurden beide Hälften von eng miteinander verwandten Kaisern regiert. Valentinian I. hatte um 370 das Heermeisteramt gestärkt. Er hatte seinen Sohn Gratian zum zweiten "Augustus" im Westreich erhoben. Als Valentinian starb, erhoben die beiden Heermeister Equitus und Merobaudes den 4-jährigen Sohn Valentinian II. zum Augustus. Gratian akzeptierte diesen Akt. Damit hatten sich die Heermeister erstmals und unter Ungehorsam gegenüber dem Willen des verstorbenen und in Opposition zum amtierenden Kaiser als Kaisermacher betätigt; allerdings handelte es sich bei Valentinian um den Halbbruder Gratians, sodass dies keinen Akt gegen die Kaiserfamilie darstellte. 15 Jahre später kam es zur Konfrontation zwischen Valentinian und Arbogast, im Verlaufe derer der Kaiser seinen Heermeister zu entlassen suchte, was aber nicht gelang. Dieser zerriss die Entlassungsurkunde mit den Worten: „Du hast mir das Amt nicht gegeben und wirst es mir auch nicht nehmen können“ (Zosimos IV 53f.). Arbogast war nach dem Tode seines Vorgängers (wahrscheinlich sein Vater), des fränkischen Heermeisters Bauto, von den Offizieren zu dessen Nachfolger erhoben worden, die erste echte Usurpation des Heermeisteramtes. Der junge Kaiser musste das hinnehmen. Damit trat das Heermeisteramt als selbstständige Institution neben das Kaiseramt. Die nachfolgenden Kaiser des Westens hatten die Kontrolle über das Heer verloren. Das war der Anfang vom Ende des weströmischen Kaisertums. Spätestens mit der Ermordung des Kaisers Valentinian III. durch Gefolgsleute des von ihm kurz zuvor eigenhändig erschlagenen Heermeisters Flavius Aëtius im Jahr 455 war dieser Niedergang besiegelt: Der Befreiungsschlag war missglückt. In Ostrom hingegen gelang es den Herrschern, sich gegenüber mächtigen Aristokraten und Militärs Handlungsspielraum zu erhalten; entscheidend waren hier die letzten drei Jahrzehnte des 5. Jahrhunderts, als Kaiser Leo den übermächtigen Heermeister Aspar töten und Anastasius bis 498 auch die Macht der Isaurier zurückdrängen konnte. Fortan waren die oströmischen Kaiser wieder die unbestrittenen Machthaber im Reich, und im 6. Jahrhundert konnte der bedeutendste von ihnen, Justinian, seine Herrschaft sogar wieder über weite Teile des verlorenen Westens ausdehnen. Unter ihm erreichte auch das spätantike Hofzeremoniell, das den Kaiser entrücken und möglichst unangreifbar machen sollte, seinen Höhepunkt; es wurde in byzantinischer Zeit beibehalten und verfeinert. Byzanz. Im Byzantinischen Reich bestand die römische Kaisertradition nach dem Ende der Antike im 7. Jahrhundert noch rund 800 Jahre fort – bis zur Eroberung Konstantinopels durch die Türken im Jahre 1453. Unter Kaiser Herakleios (610–641) wurde anstelle des lateinischen "Augustus Imperator" der griechische Titel "Basileus" eingeführt, was der stärker werdenden Gräzisierung des Reiches Rechnung trug. Den staatsrechtlich begründeten Anspruch, Rechtsnachfolger der antiken römischen Kaiser zu sein, gab der jeweilige Basileus von Byzanz niemals auf. Mit der seit 812 erweiterten Titulatur "Basileus ton Rhomaion", „Herrscher der Römer“, machten die Kaiser in Konstantinopel diesen Anspruch noch einmal verstärkt deutlich. Vermutlich diente dies als besondere Abgrenzung zum durch Karl den Großen im Jahre 800 erneuerten Kaisertum im Westen, was in der Forschung allerdings strittig ist. Titel der byzantinischen Hauptkaiser war auch "Autokrator", während "Basileus" – namentlich seit dem 10. Jahrhundert – an Mitkaiser vergeben wurde. Während der Kreuzzüge wurde Konstantinopel auf Betreiben Venedigs 1204 von den Kreuzfahrerheeren eingenommen. In Konstantinopel und weiteren von den „Lateinern“ (Katholiken) beherrschten Gebieten entstand das sogenannte Lateinische Kaiserreich, ein vom päpstlichen Rom und Venedig abhängiger, vor allem von französischen Adligen regierter Kreuzfahrerstaat. Derselbe sah sich faktisch – sowohl durch erfolgreiche „griechische“ Gegenoffensiven als auch durch das Unabhängigkeitsbestreben der eigenen „fränkischen“ Vasallen – sehr bald auf die Hauptstadt Konstantinopel beschränkt. Mit deren Rückeroberung durch die griechischen Kaiser von Nikaia 1261 endete das Lateinische Kaiserreich, der letzte Kaiser Balduin II. (1228–1261) verstarb 1273 im Exil. Sein Sohn Philipp von Courtenay hielt jedoch seinen Anspruch auf den Thron als Titular-Kaiser aufrecht († 1283), seine Enkelin Katharina II. († 1346) vererbte den lateinischen Kaiser-Titel an ihren Sohn Robert von Anjou, den Fürsten von Tarent († 1366). Nach dem Aussterben der tarentinischen Anjou 1373 fiel das Titular-Kaisertum an Jakob von Beaux, nach dessen Tod an den französischen Prinzen Ludwig, Herzog von Anjou († 1384). Dessen Sohn Ludwig II. von Anjou scheint 1384 als Letzter Anspruch auf den kaiserlichen Titel erhoben zu haben. Dieses jüngere Haus Anjou, das im 14. und 15. Jahrhundert mit wechselndem Erfolg auch Anspruch auf die Königskrone von Sizilien (genauer: auf das Teilreich von Neapel) erhob, starb 1480 mit Graf Rene von der Provence aus, der als Titularkönig von Jerusalem, Sizilien und Aragon auch die Ansprüche auf den lateinischen Kaisertitel geerbt hatte. Diese fielen letztlich – ohne dass sie offensichtlich noch geltend gemacht worden wären – an Renes Erben: die Könige von Frankreich und die Herzöge von Lothringen und Bar, und über diese wiederum das österreichische Kaiserhaus Habsburg-Lothringen. Nikaia (Nizäa). Nach der Eroberung Konstantinopels 1204 hatten sich in scharfer Opposition zum Lateinischen Kaiserreich etliche „griechische“ (d. h. orthodoxe) Nachfolgestaaten gebildet, unter denen einige den Anspruch auf den vakant gewordenen byzantinischen Kaisertitel erhoben. Der mächtigste Teilstaat war das zuerst von den Laskariden, ab 1258/59 von den Palaiologen regierte Kaiserreich Nikaia (lateinisch auch: Nicaea), dem es schließlich gelang, Konstantinopel 1261 zurückzuerobern und das Byzantinische Reich unter der Dynastie der Palaiologen für nochmals fast zwei Jahrhunderte wieder zu errichten. Der letzte byzantinische Kaiser Konstantin XI. Palaiologos (1449–1453) kam während der Eroberung seiner Hauptstadt durch die Osmanen im Kampf ums Leben. Seitenzweige der Palaiologen-Dynastie überlebten langfristig in Italien (Markgrafen von Montferrat) und bis heute in Frankreich; aus letzterer Linie stammen einflussreiche Personen wie der auch schriftstellerisch begabte Botschafter am Zarenhof Maurice Paléologue (1859–1944), der im Ersten Weltkrieg eine wichtige politische Rolle spielte und dessen Memoiren eine wichtige historische Quelle sind. Trapezunt. Weniger erfolgreich waren – trotz besserer dynastischer Ansprüche – die konkurrierenden Staaten von Thessaloniki, deren Herrscher aus der bis 1204 regierenden byzantinischen Kaiserdynastie der Angeloi stammten und zwischen 1215 bis 1240 ebenfalls Anspruch auf den Kaisertitel erhoben, sowie das im nördlichen Kleinasien gelegene Kaiserreich Trapezunt, das von Nachfahren der bis 1185 in Byzanz regierenden Kaiserdynastie der Komnenen beherrscht wurde. Während Thessaloniki teils von Nikaia erobert wurde, teils in untergeordnete Teilfürstentümer (Despotate) zerfiel, konnte Trapezunt seine Eigenständigkeit sogar länger als das 1453 von den Osmanen eroberte Byzantinische Reich behaupten. 1282 gab die herrschende Dynastie jedoch den Anspruch auf den Titel „Kaiser der Rhomäer“ auf und anerkannte damit die nominelle Suprematie des Kaisers im Konstantinopel. Dies ging einher mit einer dynastischen Verbindung beider Herrscherhäuser. Mit Andronikos II. war der byzantinische Kaiser am Anfang des 14. Jahrhunderts sogar zeitweise Regent von Trapezunt. Ähnlich wie Byzanz in seiner Spätzeit war allerdings auch Trapezunt längst zu einem türkischen Vasallenstaat geworden – zuerst abhängig vom kleinasiatischen Sultanat Ikonium (Konya), dann von den Osmanen. Diese erzwangen 1461 die Kapitulation von Trapezunt, setzten den letzten „Großkomnenen“ David Komnenos (1458–1461) ab und ermordeten den Exkaiser und fast seine ganze Familie 1466. Russisches Kaiserreich. So wie sich zunächst die fränkischen und später die deutschen Könige als Nachfolger der weströmischen Kaiser sahen, so betrachteten sich die Großfürsten von Moskau seit dem Fall von Konstantinopel als rechtmäßige Erben des oströmischen Kaisertums, obwohl sie im internationalen Austausch dies nie darauf zurückführten. Sie waren mit dem Fall Konstantinopels die angesehensten Herrscher orthodoxen Glaubens, und Großfürst Iwan III. hatte 1472 Zoe (russ. Sofia), eine Nichte des letzten Kaisers von Byzanz Konstantin XI. Paläologos geheiratet. Unter Iwan III. wurde die Idee von Moskau als „Drittem Rom“ formuliert und der Titel „Zar“ verwendet. Der Zarentitel stand für zwei Dinge: Die uneingeschränkte Selbstherrschaft der russischen Herrscher und den Schutz des wahren Glaubens (das heißt des orthodoxen Glaubens). Doch die europäischen Mächte zögerten mit der Gewährung beziehungsweise nach der Krönung Iwan IV. des Schrecklichen 1547 mit der Anerkennung des Zarentitels. Das Problem der Anerkennung des Zarentitels durch die anderen europäischen Mächte lag in der Problematik der Vergleichbarkeit des Titels begründet. Der Titel hatte innerhalb des europäischen Staatensystems keine Bedeutung und ließ sich auch nicht problemlos in dieses einordnen. Da sich die russischen Herrscher dieses Titels jedoch bedienten und immer mehr an Bedeutung für Europa gewannen, mussten sich die anderen europäischen Regenten mit diesem fremden Titel auseinandersetzen. Die Mächte Europas wussten nicht, wie sie den Zarentitel übersetzten sollten. Von Anfang an wurden in den Übersetzungen die Worte „imperator“, „Keyser“ oder „emperor“ gebraucht. Es ging den Moskauer Großfürsten bei der Annahme der Zarentitulatur nicht darum, ein Teil des europäischen Staatensystems zu werden, sondern den Titel als Ausdruck der Unabhängigkeit und Selbständigkeit des Großfürstentum Moskaus zu führen. Hätten die Herrscher Moskaus die Einordnung ihres Reiches in das europäische Hierarchiegefüge als ihr vornehmliches Ziel gesehen, hätten sie eine den europäischen Herrschern bekannte Titulatur gewählt und so ihre geforderte Position darin dokumentiert. Dies wird deutlich dadurch, dass sich die Moskauer Herrscher nicht für eine königliche Würde, sondern bewusst für den Zarentitel entschieden. Erst Zar Peter I. („Peter der Große“) nahm am 20. Oktober 1721 den Titel „Imperator und Selbstherrscher (Autokrat) aller Russen – Zar zu Moskau, Kiew, Wladimir, Nowgorod, Kasan und Astrachan“ oder „Kaiser aller Reußen“ an und machte einen Monat später am 21. November die Titulatur als „Kaiserliche Majestät“ ("Imperatorskoje Welitschestwo") bekannt. Aber erst nach und nach wurde den russischen Herrschern auch im westeuropäischen System der Höfe und der Diplomatie die Ebenbürtigkeit mit dem Kaiser-Titel zuerkannt. Den Titel "Imperator" trugen die russischen Herrscher bis zum Sturz Nikolaus’ II. im Jahr 1917. Der Titel „Zar“ blieb in nachgeordneter Position im vollständigen Titel erhalten. Der Kaisertitel im Fränkischen Reich. Nach dem Untergang des Weströmischen Reichs und der Absetzung seines letzten Kaisers Romulus Augustulus im Jahr 476 riss die Kaisertradition im Westen zunächst ab. Die oströmischen Kaiser erhoben den Anspruch, nunmehr die rechtmäßigen Herrscher des gesamten Römischen Reiches zu sein, und Justinian I. (527–565) vermochte durch die Eroberung von Teilen Italiens, Spaniens und Nordafrikas diesen Anspruch zeitweilig auch machtpolitisch zu untermauern. Im 7. und 8. Jahrhundert jedoch war dieser byzantinische Anspruch im Westen angesichts der erstarkenden germanischen Königreiche der Franken oder Langobarden sowie der islamischen Eroberung Nordafrikas und großer Teile Spaniens nur noch theoretisch. Die Kaiserkrönung des Frankenkönigs Karls des Großen am Weihnachtstag des Jahres 800 in Rom wurde daher als machtpolitisch begründete Wiederherstellung des Römischen Reichs (beziehungsweise Kaisertums) im Westen ("restauratio imperii") beziehungsweise als Übertragung desselben auf den Frankenkönig ("translatio imperii") betrachtet. 812 erlangte Karl der Große auch die Anerkennung der Gleichrangigkeit seines Kaisertitels vom byzantinischen Kaisertum. Karl der Große nannte sich "serenissimus Augustus a deo coronatus magnus, pacificus, imperator romanum gubernans imperium, qui et per misericordiam dei rex Francorum et Langobardorum", „allergnädigster, erhabener, von Gott gekrönter, großer, Friede bringender Kaiser, der das römische Reich regiert, durch Gottes Barmherzigkeit auch König der Franken und Langobarden“. Vor allem die Herrschaft über das Langobardenreich, mithin das langobardische (lombardische) Königreich Italien, wurde seither zum machtpolitischen Schlüssel des norditalienischen Kaisertums (Reichsitalien). Dieses wurde während des 9. Jahrhunderts in verschiedenen Linien der Karolinger tradiert, wobei zuletzt zwei ostfränkische (deutsche) Karolinger-Könige – Karl III. (Karl der Dicke, 887–888) und Arnulf von Kärnten (896–899) – zu Kaisern aufstiegen, geriet jedoch mit dem Machtverfall der Karolinger im frühen 10. Jahrhundert in die Hände burgundischer oder norditalienischer Könige, um nach 924 für knapp drei Jahrzehnte vollends außer Gebrauch zu kommen. Die Kaiser des Heiligen Römischen Reiches. Nach seiner Eroberung Norditaliens 951/52 war es der ostfränkische König Otto I. (Otto der Große), der 962 mit seiner Kaiserkrönung durch den Papst in Rom die Tradition des Römischen Reiches und des Karolingerreiches wiederbelebte. Seither betrachteten sich alle ostfränkischen und römisch-deutschen Könige bis zum Ende des Heiligen Römischen Reiches im Jahr 1806 als einzig berechtigte Nachfolger der römischen Caesaren und als weltliche Oberhäupter der Christenheit. Zur Erlangung der Kaiserkrone war jedoch während des gesamten Mittelalters ein aufwendiger Romzug zur Krönung durch den Papst erforderlich, was entsprechende Geld- und Machtmittel voraussetzte. Dadurch erklärt sich, dass etliche deutsche Könige erst nach Jahren oder Jahrzehnten den Kaisertitel erlangten und dass eine ganze Reihe weiterer Könige diesen Titel niemals erhalten konnte. Insbesondere zwischen 1250 und 1312 (Heinrich VII. war nach dem Ende der Staufer der erste König, dem die Kaiserkrönung gelang) und nochmals zwischen 1378 und 1433 gab es jahrzehntelange „kaiserlose“ Phasen. Die letzten deutschen Könige, die sich in Rom von Päpsten zu römischen Kaisern krönen ließen, waren 1433 der Luxemburger Sigismund und 1452 der Habsburger Friedrich III., der 1493 verstarb. Dessen Sohn und Nachfolger Maximilian I. gelang hingegen kein Romzug, doch durfte er 1508 mit päpstlicher Genehmigung den Titel „Erwählter Römischer Kaiser“ annehmen, den seither sämtliche deutschen Könige bis 1806 ab ihrem königlichen Herrschaftsantritt führten. Maximilians Enkel und Nachfolger Karl V. war der letzte deutsche König, der sich 1530 nochmals von einem Papst zum Kaiser krönen ließ – allerdings nicht mehr in Rom (das er 1527 hatte erobern und plündern lassen), sondern in Bologna – als gezielte Demütigung des Papstes, der dorthin reisen musste, statt wie bisher Gastgeber des künftigen Kaisers zu sein. Karls Bruder und Nachfolger Ferdinand I. verzichtete bei Herrschaftsantritt 1556 vollends auf eine päpstliche Krönung, sondern führte mit Zustimmung der Kurfürsten fortan als deutscher König automatisch auch den römischen Kaisertitel. Der päpstliche Protest verhallte ungehört, alle Nachfolger Ferdinands I. handelten bis 1806 ebenso. Das Römisch-deutsche Kaisertum war seit 1438 beim Hause Habsburg geblieben. Dieses erlosch im Mannesstamm 1740 mit dem Tode von Kaiser Karl VI. Seine Tochter Maria Theresia konnte aufgrund der Pragmatischen Sanktion zwar die habsburgischen Erbländer erwerben, jedoch nicht zur Kaiserin gewählt werden, da dieses Amt Männern vorbehalten war. Die Kaiserwürde ging daher zunächst an einen Wittelsbacher, Karl Albrecht von Bayern. Erst nach dessen Tod gelang es Maria Theresia, ihren Mann Franz Stephan von Lothringen zum Kaiser wählen zu lassen (Österreichischer Erbfolgekrieg). Maria Theresia erhob ihren Gemahl auch zum Mitregenten in den Erbländern, wo sein Einfluss aber relativ gering war. Umgekehrt führte Maria Theresia als Gemahlin des Kaisers zwar den ihr zustehenden Titel einer Kaiserin (Imperatrix), nahm aber auf die Reichspolitik kaum Einfluss. Diese vorübergehende Trennung von Kaiserwürde und Oberhaupt der monarchischen Erblande beförderte die Herauslösung der Habsburgermonarchie aus dem Reich, auch als 1765 beider Sohn Joseph II. zunächst seinem Vater, 1780 auch seiner Mutter nachfolgte. Joseph II. war im Übrigen der letzte römisch-deutsche Kaiser, der noch eine aktive Reichspolitik betrieb – welche allerdings in der Opposition der Fürsten im Fürstenbund von 1785 mündete. Die Herrschaft der letzten beiden Kaiser, Leopold II. und Franz II. war bereits durch die Französische Revolution und die Auseinandersetzung mit Napoleon überschattet. 1806 schließlich legte Kaiser Franz II. die Krone nieder und erklärte das Reich für erloschen. Zwischen der Wahl (siehe auch Wahlmonarchie) und ihrer Krönung zum römischen Kaiser trugen diese Monarchen den Titel „römischer König“. Dieser war auch der Titel des gewählten Thronfolgers eines Kaisers, sofern ein solcher schon zu Lebzeiten des Vorgängers gewählt wurde. Auch der Titel "Augustus" („Erhabener“) blieb den Herrschern des Heiligen Römischen Reichs erhalten. Allerdings leitete man im Mittelalter das Wort von seiner ursprünglichen lateinischen Verbform "augere" („vermehren“, „vergrößern“) her. Daher wird der Titelbestandteil "Semper Augustus" der römisch-deutschen Kaiser im Mittelalter in der Regel mit „Allzeit Mehrer des Reichs“ übersetzt, in der Neuzeit auch mit „Allzeit erhabener Kaiser“. Das französische Kaisertum. Napoleon I. in seinem Ornat als Kaiser Frankreich war seit den Tagen der westfränkischen Karolinger und der seit 987 regierenden Kapetinger, von denen alle später regierenden Dynastien bis zu den Bourbonen und den Orléans abstammten, ein Königreich gewesen. Im Zuge des von Karl dem Großen wiedererrichteten Kaisertums im Westen trug jedoch auch ein westfränkischer Karolinger des 9. Jahrhunderts – Karl II. der Kahle – kurzfristig die römische Kaiserkrone und spätere französische Könige wie Franz I., der langjährige Gegner des Habsburgers Karl V. im 16. Jahrhundert, liebäugelten mit dem Erwerb der Kaiserkrone des Heiligen Römischen Reiches. Im Jahre 1792 endete mit der Absetzung des Königs in der Französischen Revolution zunächst die französische Monarchie. Im Jahr 1804 begründete der damalige Militärdiktator Napoleon Bonaparte, seit seinem Putsch von 1799 der Erste Konsul der Französischen Republik, eine neue monarchische Tradition. Ähnlich wie der Konsuls-Titel auf antike Traditionen der römischen Republik verwies, nahm auch der von Napoléon Bonaparte 1804 angenommene Kaisertitel (Empereur) auf die antike römische Tradition des Militär-Kaisertums Bezug. Durch die Verklammerung dieses nach-revolutionären französischen Kaisertums mit der 1805 neugeschaffenen Königskrone von Italien (faktisch Nord- und Mittelitalien) knüpfte Napoleon zugleich an karolingische Traditionen an, zumal die italienische Königskrone die alte Langobardenkrone war, die schon Karl der Große getragen hatte. Indem Napoleon im Dezember 1804 in der Kirche Notre Dame in Paris aus den Händen des Papstes Pius VII., der jedoch am eigentlichen Krönungsakt nicht mitwirkte, die Krone empfing und sich mit eigener Hand zum „Kaiser der Franzosen“ krönte, ging es offensichtlich um eine Synthese aus sakraler Legitimation und individueller Leistungs-Legitimation, wobei allerdings letztere in Form einer „Krönung aus eigener Kraft“ überwog. Zudem bedeutete der Titel „Kaiser der Franzosen“, dass dieser sich letztlich als Kaiser eines Volkes und nicht eines Reiches sah. Napoleon sah sich als Volkssouverän und nicht, wie alle römischen Kaiser zuvor, als von Gott gekrönter Kaiser (Gottesgnadentum). Der Krönung vorausgegangen war im August 1804 die Ernennung Napoleons zum Kaiser durch den Senat und eine Volksabstimmung darüber. Das napoleonische Kaisertum beeinflusste die Kaiserambitionen einheimischer Herrscher in der ehemals französischen Kolonie Haiti. Nach der Proklamation Napoleons zum Kaiser im August 1804 ernannte sich auch Haitis Machthaber im Oktober 1804 zum Kaiser, was Napoleon wiederum durch die zeremonielle Krönung im Dezember in den Schatten stellte. Dieses napoleonische Kaisertum wurde auch für andere postrevolutionäre Militärkaisertümer der Folgezeit (z. B. Mexiko, viel später noch Zentralafrika, bedingt auch Brasilien) vorbildlich. Das Kaisertum Napoleons I. basierte auf dem Nimbus des siegreichen, genialen Feldherrn. Sobald Napoleon diese Siege nicht mehr garantieren konnte, erodierte die Legitimität seiner Herrschaft, die 1814/15 zweimal gegen eine gesamteuropäische Koalition zusammenbrach. Napoleons Neffe Louis Napoleon Bonaparte, der sich später Napoleon III. nannte, vermochte nach der Revolution von 1848, welche das „Bürgerkönigtum“ der Orléans beseitigt hatte, vom Ruhme seines verstorbenen Onkels zehrend zum Präsidenten der zweiten Französischen Republik gewählt zu werden. 1851 machte er sich durch einen Putsch zum Präsidenten auf Lebenszeit, 1852 proklamierte er am Krönungstag Napoleons I. die Restauration des bonapartistischen Kaisertums. Dieses sogenannte „2. Kaiserreich“ basierte auf großzügiger Förderung des bourgeoisen Kapitalismus bei gleichzeitiger plebiszitärer Einbeziehung katholisch-ländlicher Schichten, doch es basierte daneben ähnlich wie das erste Kaiserreich sehr stark auch auf militärischem Erfolg. Folgerichtig endete auch dieses Militärkaisertum des wenig militärischen Napoleon III. mit einer militärischen Katastrophe – Frankreichs Niederlage bei Sedan im Deutsch-Französischen Krieg von 1870, die den sofortigen Sturz des gefangenen Kaisers zur Folge hatte. Das Kaisertum in Österreich. Um zu verhindern, dass Napoleon I. 1804 zu seiner Krönung die Insignien des Heiligen Römischen Reichs benutzte und sich so in dessen altehrwürdige Kaiser-Tradition stellen konnte, hatte der damalige römisch-deutsche Kaiser, der Habsburger Franz II., die Reichskleinodien von Nürnberg nach Wien überführen lassen, wo sie – abgesehen von einer Unterbrechung während der Zeit des Nationalsozialismus, als sie kurzfristig nach Nürnberg zurückkehrten – bis heute in der Schatzkammer der Hofburg aufbewahrt werden. Kaiser Franz II. legte 1806 die Krone des Heiligen Römischen Reiches nieder und erklärte zugleich dieses Reich für erloschen, um eine mögliche Wahl Napoleons zu seinem Nachfolger von vornherein auszuschließen. Da der Habsburger protokollarisch nicht hinter den anderen europäischen Kaisern – dem „Emporkömmling“ Napoleon und dem russischen Zaren – zurückstehen wollte, hatte er angesichts des zerfallenden Heiligen Römischen Reiches schon im Jahre 1804 den Titel eines erblichen Kaisers von Österreich angenommen. Dieser neugeschaffene Kaisertitel, der mit keinerlei Krönungsakt verbunden war, obwohl eine Kaiserkrone existierte, war eigentlich traditionslos, hob jedoch auf die in weiten Bevölkerungskreisen längst gegebene Identifikation des seit dem 15. Jahrhundert fast ununterbrochen von den Habsburgern geführten römischen Kaisertitels mit ihrem Stammland Österreich ab. Für ein Jahrhundert bildete der österreichische Kaisertitel fortan die symbolische Klammer für das zunächst Kaisertum Österreich, ab 1867 Österreich-Ungarn genannte habsburgische Vielvölkerreich; insbesondere der lang regierende Franz Joseph I. (1848–1916) wurde zur Personifizierung des „Kaisers“ schlechthin. Deutsches Erbkaisertum in der Paulskirchenverfassung 1849. a> zur Ablehnung des Erbkaisertums durch Friedrich Wilhelm IV. von Preußen, 1849 Die 1849, die bürgerlich-demokratische Reformen und das Ziel eines deutschen Nationalstaats anstrebte, führte am 18. Mai 1848 zur Konstitution einer Nationalversammlung in Frankfurt, wo die gewählten Volksvertreter bis zum Frühjahr 1849 die sogenannte Paulskirchenverfassung ausarbeiteten. In dieser Verfassung war für die Rolle des deutschen Staatsoberhauptes ein konstitutionelles Erbkaisertum vorgesehen, das eine sogenannte Kaiserdeputation im April 1849 dem preußischen König Friedrich Wilhelm IV. antrug. Jener wies das Angebot der Nationalversammlung jedoch zurück, weil er in seinem monarchischen Selbstbild von der christlichen Tradition des Gottesgnadentums ausging und die Idee der Volkssouveränität ablehnte. Das Anliegen der Gründung eines deutschen Erbkaisertums ging kurz darauf unter, weil preußische und österreichische Truppen die demokratischen Kräfte bis zum Juli 1849 gewaltsam niederschlugen. Der Deutsche Kaiser. "Deutscher Kaiser" war ab 1871 der Titel des Königs von Preußen in seiner Eigenschaft als "Präsidium des Bundes" in der föderal organisierten Erbmonarchie des neugeschaffenen Deutschen Reiches (siehe auch Liste der Staatsoberhäupter des Deutschen Reiches). Titelträger waren die drei Hohenzollernkaiser Wilhelm I., Friedrich III. und Wilhelm II. Der Titel erlosch mit der Ausrufung der Weimarer Republik am 9. November 1918 durch Philipp Scheidemann. Nach dem Sieg Preußens und seiner deutschen Verbündeten über Frankreich im Deutsch-Französischen Krieg 1870–1871 wurde der König von Preußen Wilhelm I. am 18. Januar 1871 im Spiegelsaal des Schlosses Versailles zum deutschen Kaiser proklamiert. Dies geschah gegen seinen ursprünglichen Willen, denn unmittelbar davor war es darüber zwischen Wilhelm I. und seinem Ministerpräsidenten Otto von Bismarck zu einer schweren Auseinandersetzung um den exakten Titel gekommen. Da der König sich weniger als Deutscher denn als Preuße verstand, hatte er den Kaisertitel ursprünglich ablehnen wollen, bevorzugte aber im Falle seiner Annahme den Titel „Kaiser von Deutschland“. Dies hätte allerdings als Anspruch auf nicht zum Reich gehörige deutschsprachige Gebiete – etwa Österreichs, der Schweiz und Gebieten in Norditalien – ausgelegt, aber auch als weitreichender Herrschaftsanspruch gegenüber den übrigen deutschen Bundesfürsten gedeutet werden können. Zudem hätte diese Titulatur angedeutet, dass Deutschland Besitz des Kaisers war. Um dieses Konfliktpotenzial von vornherein auszuschalten, bestand Bismarck auf der Titulatur „Deutscher Kaiser und König von Preußen“ und setzte sich schließlich durch. Von vornherein schied der Titel der Kaiserdeputation der Revolution von 1848, Kaiser der Deutschen, aus, da dies zu sehr den Aspekt der Volkssouveränität hervorgehoben hätte. Beim die Proklamation abschließenden Kaiserhoch der auf Schloss Versailles anwesenden deutschen Souveräne – die damit die Zustimmung einer Konstituante wahrnahmen –, sah sich ihr Sprecher, der Großherzog von Baden, also in einem verfassungsrechtlichen und persönlichen Dilemma. Vermutlich von Bismarck beraten, löste er es, indem er das allgemeine Hoch auf den „Kaiser Wilhelm“ ausbrachte. Da 1871 im Wesentlichen die Verfassung des Norddeutschen Bundes als Reichsverfassung übernommen wurde, hatte der deutsche Kaiser staatsrechtlich nur die Stellung des dortigen Bundespräsidialen, war also eben nicht „Kaiser von Deutschland“, was mit der teilweise beibehaltenen Souveränität der Einzelstaaten (so mit derjenigen der Königreiche Bayern, Sachsen und Württemberg und der freien Städte Bremen, Lübeck und Hamburg) kollidiert hätte. Der deutsche Kaisertitel war mithin verfassungsrechtlich lediglich ein klingender Name für die eher nüchterne Funktion des preußischen Königs als Präsident des Bundesrates deutscher Fürsten und Freien Städte – dem formell höchsten Verfassungsorgan zunächst ab 1867 des Norddeutschen Bundes und ab 1871 des um Süddeutschland erweiterten Deutschen Reiches. Gleichwohl stellte dieser Kaisertitel für den preußischen Monarchen gegenüber den innerdeutschen Königen von Bayern, Sachsen und Württemberg eine Rangerhöhung dar und führte auf internationaler Ebene zu einer Rangangleichung des preußisch-deutschen Monarchen mit den Kaisern von Österreich und Russland. Ergänzt wurde dieser Titel in dem von Bismarck entworfenen Manifest zur Kaiserproklamation durch einen Rückgriff auf die mittelalterliche Form des "Semper Augustus". Der neue Kaiser wurde darin bezeichnet als "Allzeit Mehrer des Deutschen Reiches, nicht an kriegerischen Eroberungen, sondern an den Gütern und Gaben des Friedens auf dem Gebiete nationaler Wohlfahrt, Freiheit und Gesittung". Alsbald gewann der Titel an öffentlicher Bedeutung durch die sich an ihn knüpfende „Reichsromantik“ seit den Freiheitskriegen gegen Napoleon Bonaparte. Namentlich unter dem propagandistisch begabten letzten Deutschen Kaiser Wilhelm II. (1888–1918) gewann der Kaisertitel gegenüber dem preußischen Königstitel das Übergewicht und wurde zum Symbol der Einheit der Nation. Politisch jedoch war der deutsche Kaiser als König des weitaus größten Bundesstaates Preußen immer mächtiger als staatsrechtlich verankert. Diese Macht erodierte jedoch unter der langen Regierung Wilhelms II. (1888–1918), der 1917 de facto, wenn auch nicht de jure von der Militärregierung der obersten Heeresleitung (OHL) unter Paul von Hindenburg und Erich Ludendorff abgelöst wurde. Iberische Halbinsel. Im 11. und 12. Jahrhundert führten die Könige von Navarra, Kastilien und Aragon den Titel "Imperator totius Hispaniae", mit dem sie ihre Hegemonie über die übrigen christlichen und islamischen Monarchen der iberischen Halbinsel ausdrückten. Das machte jedoch weder Kastilien noch die übrigen spanischen Königreiche zum Kaiserreich. Diese Kaisertitel wurden zudem weder vom römischen Papst noch vom Patriarchen in Konstantinopel verliehen oder anerkannt. Bulgarien. Das byzantinische Vorbild wirkte sich im Hochmittelalter auf größere Reichsbildungen slawischer Völker auf dem Balkan aus, die in offener Konkurrenz zum byzantinischen Kaisertum ebenfalls den Kaiser- oder Zarentitel annahmen, wobei jedoch anzumerken ist, dass der byzantinische Kaisertitel Basileus dem römischen Imperator entsprach, das slawische Zar aber eben nur dem nachrangigen Caesar-Titel. Zar war also nicht automatisch mit Kaiser gleichzusetzen. Bulgarische und serbische Zaren strebten daher nach einer eindeutigen Rangerhöhung. Der erste Versuch dieser Art war der des Bulgaren-Khans Boris Michail. Internationale Anerkennung erfolgte unter Simeon I. († 927), der 912 vom Patriarchen von Konstantinopel Nikolaus I. zum „Basileus (Kaiser) der Bulgaren“ gekrönt wurde und damit de facto für kurze Zeit ranggleich mit dem byzantinischen Kaiser war. Nach der Niederlage der Byzantiner in der Schlacht von Anchialos erklärte er sich darauf – dem Kaisertitel entsprechend – nun zum „Zaren der Bulgaren und Rhomäer“. Der Titel verrät, dass es Simeon nicht wie zunächst angenommen, um ein bulgarisches Kaiserreich ging, sondern um die Übernahme des byzantinisch Kaisertitels und seiner Hauptstadt Konstantinopel, die er zu erobern trachtete. Beides misslang, das bulgarische Reich wurde 100 Jahre später (1018) durch die Byzantiner wieder zerstört. Die Dynastie der Asseniden knüpfte an die Zarentradition 1185 wieder an, und nach dem Fall Konstantinopels dachten die bulgarischen Zaren erneut, den byzantinischen Kaisertitel übernehmen zu können, wurden jedoch vom Lateinischen Kaiserreich geschlagen. Das zweite Bulgarische Reich verlor im 14. Jahrhundert an Macht und Bedeutung, längst bevor es 1393 von den Osmanen erobert wurde. Als das seit 1878 autonome Fürstentum Bulgarien 1908 seine Unabhängigkeit vom Osmanischen Reich erklärte, nahm der bisherige Fürst Ferdinand I. in Anknüpfung an die mittelalterliche Großreich-Tradition den Zarentitel wieder an. Im internationalen Vergleich ließ er sich jedoch als König, nicht als Kaiser bezeichnen. Serbien. Statt Bulgarien wurde das Königreich Serbien zum neuen Herausforderer von Byzanz, dessen Herrscher Stefan Uroš IV. Dušan († 1355) im Jahre 1346 als „Zar der Serben und Rhomäer“ demonstrativ den Kaisertitel annahm, auch hier eher ein Gegenkaisertum zu Byzanz statt eines serbischen Kaiserreichs. Dušans Reich zerfiel nach dem plötzlichen Tode seines Gründers rasch, schon bevor die Osmanen die Serben ihrer Herrschaft unterwarfen. Keiner seiner Nachfolger beanspruchte den Kaisertitel, die seit 1878 wieder unabhängigen Fürsten Serbiens nannten sich ab 1882 Könige. Europäisches Kaisertum außerhalb Europas. Außerhalb Europas kam es im 19. Jahrhundert zu einer Reihe neugeschaffener, oft aus modernen europäischen Traditionen schöpfender Kaisertümer. Alle diese Neuschöpfungen standen im Kontext des europäischen Imperialismus und Kolonialismus. Haiti. In der Karibik und in Lateinamerika entstanden die im 19. Jahrhundert geschaffenen, meist kurzlebigen Kaisertümer zum einen aus antikolonialistischer Haltung, zum anderen in Anlehnung an das post-revolutionäre Militär-Kaisertum Napoleons I. in Frankreich. Dieser ambivalente Kontext lässt sich zuerst in Haiti beobachten, der bisherigen französischen Kolonie Saint Domingue, die sich in den 1790er Jahren durch einen blutigen Aufstand der bisherigen schwarzen Sklaven von der Vorherrschaft der Weißen zu befreien versuchte. Nachdem das revolutionäre Frankreich versucht hatte, Kolonialismus und Sklaverei gewaltsam aufrechtzuerhalten, wurden die Expeditionstruppen Napoleons 1804 letztlich doch zur Kapitulation gezwungen. Der letzte Führer des schwarzen Unabhängigkeitskampfes, Jean-Jacques Dessalines, proklamierte sich – ganz wie sein bisheriger Feind Napoleon I. – im Jahre 1804 zum "Empereur" Jacques I., wurde aber schon 1806 gestürzt und ermordet. Daraufhin spaltete sich Haiti bis 1820 in einen nördlichen und südlichen Teilstaat, wobei der Herrscher Nord-Haitis, Henri Christophe, zwischen 1811 und 1820 als König Henri I. regierte. Auch in der 1820 vereinigten Republik Haiti nahm einer ihrer Präsidenten, der seit 1847 regierende Faustin Soulouque, den Kaisertitel an und regierte zwischen 1849 und 1859 als Faustin I., bevor er 1859 ins Exil getrieben wurde. Seither ist Haiti eine (nach wie vor sehr instabile) Republik. Mexiko. Ähnliche antikolonialistisch-bonapartistische Ambivalenzen zeigt die Etablierung eines Kaisertums in Mexiko, das nach langjährigem Bürgerkrieg 1821 seine Unabhängigkeit von Spanien erkämpft hatte. Bereits 1815 hatte der Plan von Iguala die Schaffung eines von Spanien formal unabhängigen Kaiserreichs mit einem spanischen Bourbonen-Prinzen an der Spitze vorgesehen. Da der Plan aber von Spanien nicht akzeptiert wurde, proklamierte sich 1822 General Agustín de Itúrbide, der erst 1820 auf die Seite der Aufständischen gewechselt war, die er zuvor als spanischer Offizier bekämpft hatte, als Agustín I. zum Kaiser ("Emperador"). Bereits nach zehn Monaten wurde diese Monarchie 1823 beendet. Als der abgedankte und exilierte Iturbide 1824 nach Mexiko zurückkehrte, wurde er von republikanischen Truppen erschossen. Das zweite mexikanische Kaiserreich (1863–1867) war die Folge eines Bürgerkrieges zwischen Liberalen und Konservativen und des Bündnisses der letzteren mit einem ausländischen Imperialismus. Im Mai 1863 ließ der französische Kaiser Napoleon III. Mexiko durch seine Truppen besetzen, im Juli 1863 wurde die republikanische Staatsform durch ein Kaiserreich von französischen Gnaden ersetzt. Zum neuen Kaiser wählten die mexikanischen Konservativen 1864 mit Zustimmung Napoleons den österreichischen Erzherzog Maximilian, einen Bruder Franz Josephs I., was die internationale Legitimität des neuen Staates erhöhen und zugleich an die frühere (spanische) Habsburgerherrschaft in Mexiko (bis 1700) erinnern sollte. Da der neue Kaiser kinderlos war, adoptierte er 1865 die Nachfahren Iturbides und erklärte dessen Enkel Augustin zum Thronfolger. Die gesellschaftliche Basis dieses Kaiserreiches war dennoch viel zu schwach: Als das französische Expeditionskorps 1867 abzog, brach die Herrschaft Maximilians zusammen, die Republik wurde unter Benito Juárez wiederhergestellt, der gefangengenommene Habsburger ebenso wie einst Iturbide standrechtlich erschossen. Der adoptierte Thronfolger, Prinz Agustín de Itúrbide y Green, wurde erst 1890 von Präsident Porfirio Díaz verhaftet und enteignet, und verstarb 1925 im US-amerikanischen Exil. Mit ihm erlosch die männliche Linie dieses Kaiserhauses Habsburg-Iturbide. Brasilien. Einen weiteren Fall eines außereuropäischen Kaisertums bildet das Kaiserreich Brasilien. Die bisherige portugiesische Kolonie hatte im Unterschied zu den spanischen Nachbarkolonien Lateinamerikas im Zeitalter Napoleons I. eine ganz eigene Entwicklung genommen: Ähnlich wie in Spanien war Napoleon auch in Portugal einmarschiert und hatte dort das politische System der Kolonialmacht erschüttert, doch anders als der spanischen Königsfamilie war dem portugiesischen Hof (mit britischer Hilfe) 1808 die Flucht in die Übersee-Kolonie Brasilien gelungen. Die auch dort aufkeimenden Unabhängigkeitsbestrebungen gingen daher eine Zeit lang mit der Reformbereitschaft der Monarchie konform: 1815 proklamierte der portugiesische Prinzregent (ab 1816: König Johann VI.) Brasilien zum gleichberechtigten Teil-Königreich eines „Vereinigten Königreiches von Portugal, Brasilien und der Algarve“. Diese an das britische (unter seinen Teilen ebenfalls keineswegs gleichberechtigte) „Vereinigte Königreich“ erinnernde Konstruktion hielt, so lange der königliche Hof in Rio de Janeiro residierte. Doch als König Johann und sein Hof 1821 nach Portugal zurückkehren mussten (wo sie schon lange verlangt wurden), hatte der als Prinzregent in Rio zurückbleibende portugiesisch-brasilianische Kronprinz Peter nur noch die Wahl, von der brasilianischen Unabhängigkeitsbewegung gestürzt zu werden oder sich an deren Spitze zu stellen. Der offenbar durchaus vom südamerikanischen Caudillismo seiner Nachbarstaaten beeinflusste europäische Prinz wählte den zweiten Weg und erklärte sich, indem er seinen Vater absetzte und jede Bindung an Portugal aufhob, als Peter I. zum „Kaiser von Brasilien“. Insofern war das neue Kaiserreich eine einzigartige Mischung aus bonapartistischer Illegitimität und dynastischer Kontinuität, zumal Peter eine Erzherzogin des ultralegitimistischen Hauses Habsburg heiratete. Noch bemerkenswerter war, dass das Kaiserreich Brasilien sogar den Sturz seines Gründers 1831 überlebte. Peter I. dankte zugunsten seines minderjährigen Sohnes und Thronfolgers Peter II. ab, und auch die Kräfte, die diesen Machtwechsel erzwungen hatten, entschieden sich für den neuen, in Brasilien geborenen Kind-Kaiser als das offenbar beste Symbol staatlicher Einheit und als Mittel zur Bürgerkriegsvermeidung. 1840 übernahm Peter II. persönlich die Regierung, und nur weil er sie klug im Stile eines konstitutionell-liberalen Bürgerpräsidenten zu führen wusste, bestand das Kaiserreich Brasilien ein weiteres halbes Jahrhundert. Der persönlich hochgeachtete Kaiser wurde jedoch alt, seine Tochter und sein französischer Schwiegersohn waren wenig populär, der Fortbestand der Dynastie nach dem Tode des regierenden Kaisers wurde fraglich. Am Ende wurde das brasilianische Kaisertum von den sich zuspitzenden Konflikten zwischen Republikanern und unbeugsamen Konservativen in die Zange genommen, als die in Stellvertretung des abwesenden Kaisers agierende Kronprinzessin Isabella 1888 aus Gewissensgründen die Aufhebung der Sklaverei verfügte und damit einen Keil zwischen Dynastie und konservative Sklavenhalter trieb. Ein Militärputsch zwang Peter II. schon 1889 zur Abdankung und die ganze Dynastie zum Verlassen des Landes. Der Ex-Kaiser starb 1891 im französischen Exil, die von seinem Schwiegersohn abstammende Linie der kaiserlich brasilianischen Prinzen von Orléans-Bragança existiert noch heute. Indien. Der Zusammenhang mit der europäischen Kolonialherrschaft ist vor allem für das 1876/77 von den herrschenden Briten auf dem Boden des abgelösten Mogulreichs neu gegründete Kaiserreich Indien wichtig, obwohl es auch die Tradition der Großmoguln in sich aufnimmt. Der jeweilige König (oder die regierende Königin) von Großbritannien führte in Personalunion den Titel eines Kaisers (oder einer Kaiserin) von Indien, oft auch auf Persisch (der Hofsprache der Moguln) als "Kaisar-i-Hind" geführt. Dieser Kaisertitel besaß eine doppelte Funktion: Er sollte innenpolitisch die uneinheitliche (teils direkte, teils indirekte) britische Herrschaft in Indien symbolisch verklammern, und er sollte außenpolitisch die Ranggleichheit des britischen Königreiches gegenüber den europäischen Kaiserreichen Russland, Österreich und Deutschland demonstrieren. Im Zuge der Unabhängigkeit Indiens in Form der beiden Republiken Indien und Pakistan verzichtete der britische König 1948 auf die Führung dieses indischen Kaisertitels. Nichteuropäische Kaiser. Seit der frühen Neuzeit hat es sich in Europa eingebürgert, auch die Herrscher bedeutender außereuropäischer Reiche als „Kaiser“ zu bezeichnen. Es handelte sich vorrangig um Herrscher, die als Weltherrscher (China) oder göttlicher Abstammung (China, Japan) galten, oder deren einheimischer Titel mit „König der Könige“ zu übersetzen war ("Schah-in-Schah" in Persien, "Negus Negesti" in Äthiopien). China. China betrachtete sich seit früher Zeit als Reich der Mitte, mithin als Kernland der Welt. Dem entsprach der universelle Herrschaftsanspruch seiner Herrscher. Er wurde auch von Eroberern aus Nachbarländern übernommen, sobald sie sich Chinas bemächtigt hatten, im Mittelalter von den Mongolen, zuletzt von den Mandschu. Diesem Anspruch und entsprechenden Umgangsformen unterwarfen sich Besucher aus westlichen Ländern äußerlich selbst in der Phase der faktischen Aufteilung Chinas in europäische Interessengebiete. Der Titel des chinesischen Herrschers lautete 帝 (Pinyin:"Dì") oder 皇帝 ("Huángdì"). Er wird in der deutschsprachigen Forschung in der Regel mit „Kaiser“ übersetzt; in der englischsprachigen Forschung benutzt man in jüngerer Zeit neben „Emperor“ auch „Thearch“ als Übersetzung von "huangdi". Der Titel "Di" hat eine starke sakrale Komponente, bedeutet auch „höchstes Wesen“, während der Aspekt der militärischen Tüchtigkeit, der für das europäische Kaisertum zentral war, in China eine nur untergeordnete Rolle für die Herrschaftslegitimation besaß. Das Chinesische Kaisertum hat einen mythologischen und einen historischen Anfang: Die mythologischen Fünf Kaiser (五帝 "Wǔ Dì") sollen vor der ersten Dynastie geherrscht haben, drei von ihnen jeweils ein Jahrhundert lang. Die Herrscher der ersten drei Dynastien nannten sich Könige (王 Pinyin: "Wáng") und ihre Reiche hatten Feudalstruktur. Das historische Kaisertum begann mit 嬴政 ("Yíng Zhèng") aus der Qin-Dynastie. Er ließ sich seit 221 v. Chr. „Erster Kaiser“ (始皇帝 "Shǐ Huángdì") nennen, nachdem der die chinesischen Staaten wieder zu einem Reich vereint hatte. 皇 "Huáng", „göttlich-erhaben“, war die Bezeichnung der drei göttlichen Urherrscher, die – jeweils mehrere tausend Jahre lang – vor den mythologischen Fünf Kaisern geherrscht haben sollten. Im Gegensatz zur heutigen Aussprache war 皇帝 zur Zeit der Streitenden Reiche wohl noch nicht homophon mit 黄帝 ("Huáng Dì" „Gelber Di“), dem Namen des ersten der fünf mythologischen Kaiser. Mit den Reformen und der Selbst-Vergöttlichung Ying Zhengs begann das chinesische Kaiserreich 194 Jahre vor dem Prinzipat des „Augustus“ Gaius Octavius im antiken Rom und unterschied sich im Aufbau grundsätzlich vom Heiligen Römischen Reich des Mittelalters. Japan. Der japanische Kaiser hat auf seine Göttlichkeit erst mit der japanischen Kapitulation am Ende des Zweiten Weltkrieges verzichtet. Vom 12./13. bis ins 19. Jahrhundert war die Macht des "Tennō" eher symbolisch. Die Regierungsgewalt hatte der Shōgun. Erst Meiji-tennō errang 1869 wieder tatsächliche Macht. Nachdem die jahrhundertelange Abschottung Japans gegen die Außenwelt formal schon 1854 geendet hatte, setzte unter seiner Herrschaft die imperialistische Expansion des Japanischen Kaiserreichs und die rapide Modernisierung des Landes ein, die es im 20. Jahrhundert zu einer der weltweit größten Industriemächte gemacht hat. Indisches Mogulreich. Der Glanz der Moguln in Indien war zur Zeit der intensiven Berührung mit den Europäern schon verflossen. Auf dem Gipfel ihrer Macht hatten die Großmoguln aber fast den gesamten Subkontinent beherrscht, d. h. mehr Territorium als die Kaiser des Heiligen Römischen Reiches in Europa. Zum britischen Kaisertum in Indien, das Jahre nach dem offiziellen Ende der Großmoguln 1858 ausgerufen wurde, siehe oben. Persien. Die Tradition des Titels "Schah-in-Schah" ist zwar alt, aber für die antiken Herrscher Persiens (vor allem für die, die lange vor Julius Cäsar lebten) wird die Übersetzung „Kaiser“ als anachronistisch empfunden, man spricht üblicherweise von „Großkönigen“. Der Titel des Schah-in-Schah bestand im Verlaufe der persischen Geschichte fort. So trugen u. a. die Herrscher der Sassaniden sowie die Safawiden, die Kadscharen und die Dynastie der Pahlavi diesen Titel. Äthiopien. Nach äthiopischen Legenden soll das dortige Herrscherhaus 980 vor Christus gegründet worden sein vom ersten "Negus Negesti" („König der Könige“) Menelik I., der angeblich ein Spross aus der Verbindung von König Salomo von Israel und der Königin von Saba gewesen sein soll. Verlässliche historische Informationen liegen aber erst für die Zeit des Reichs von Aksum vor. Menelik II. vom Kaiserreich Abessinien war der einzige traditionelle Herrscher Afrikas, der der Kolonialisierung des Kontinents erfolgreich entgegentrat. Nach dem zweiten, dann für Italien siegreichen Abessinienfeldzug wurde das Land kurzfristig von Italien besetzt, nach dem Zweiten Weltkrieg aber restituiert. Der letzte äthiopische Kaiser Haile Selassie spielte noch eine bedeutende Rolle in der OAU. 1974 wurde auch er gestürzt. Osmanisches Reich. Der osmanische Sultan (Osmanisches Reich) konnte als Eroberer des byzantinischen Kaiserreiches spätestens seit dem 15./16. Jahrhundert nicht nur kaiserliche Machtfülle, sondern auch den kaiserlichen Rang beanspruchen. Die Sultan/Kalif-Tradition ist aber eine ganz andere als die europäische Kaisertradition. In arabisch-persisch-türkisch-mongolischer Misch-Tradition standen im offiziellen Titel der osmanischen Herrscher die Bezeichnungen „Sultan“ (auch „Sultan der Sultane“), „Padischah“ (Großkönig) oder „Khan“ (auch „Khan der Khane“) ganz oben. Der Titel Kalif kam ab 1517 dazu, wurde aber erst ab 1774 wichtiger. Die Osmanen-Herrscher trugen aber auch den expliziten Titel „Kaiser der drei Städte von Konstantinopel, Adrianopel und Bursa“. Entsprechend wurde der osmanische Sultan später auch im diplomatischen Verkehr von den europäischen Mächten als „Kaiserliche Majestät“ anerkannt. 1922 wurde das osmanische Sultanat, 1924 das osmanische Kalifat aufgelöst. Annam. In Südostasien nahmen ab 1806 die bisher als Könige firmierenden Herrscher von Annam in Vietnam den Kaisertitel an – mit Genehmigung der Großmacht China, die traditionell die Oberhoheit über das Gebiet beanspruchte. Die nach 1860 eindringenden französischen Kolonialherren übersetzten jedoch den vietnamesischen Kaisertitel ab 1884 gezielt als „König“ und verweigerten ihm damit die Anerkennung. Im Jahre 1945 wurde zugunsten des letzten Kaiser-Königs von Annam, Bảo Đại (1926–1945), kurzfristig ein „Kaiserreich Vietnam“ proklamiert, jedoch führte die Kapitulation Japans bereits nach wenigen Monaten zur Abdankung des Kaisers. Bảo Đại fungierte von 1949 bis 1955 als Staatsoberhaupt des autonomen Staates Vietnam. Korea. Ebenfalls im imperialistisch-kolonialistischen Kontext steht die 1897 erfolgte Annahme des Kaisertitels durch den König von Korea, obschon diese antikolonialistisch gedacht war. Die koreanischen Könige standen traditionell unter der Oberherrschaft der Kaiser von China, doch der Ausgang des japanisch-chinesischen Krieges zwang China 1895, die Unabhängigkeit Koreas anzuerkennen. Dieser Akt sollte aus japanischer Sicht allerdings nur die Vorstufe zur eigenen Kolonisierung Koreas sein, doch zeitweilig bildeten imperialistische Interessen Russlands ein Gegengewicht. Die Annahme des Kaisertitels durch den bereits seit 1864/73 regierenden König Gojong symbolisierte vor diesem Hintergrund das koreanische Streben nach Gleichrangigkeit mit den Herrschern von Japan und China und den Willen zur Bewahrung der Unabhängigkeit. Als Russland 1904/05 von Japan militärisch besiegt wurde, brach jedoch das dazu erforderliche Mächte-Gleichgewicht zusammen. Der koreanische Kaiser musste 1905 das „Protektorat“ des japanischen Tennō akzeptieren und wurde – als zu eigenwillig – 1907 von den Japanern zur Abdankung gezwungen, 1910 setzten die Japaner auch seinen Sohn und Nachfolger Kaiser Sunjong ab und machten der Unabhängigkeit des Landes auch formell ein Ende. Die japanische Kolonialherrschaft in Korea dauerte bis zur Niederlage Japans im Zweiten Weltkrieg 1945. Die beiden Ex-Kaiser wurden 1910 in das japanische Herrscherhaus als Könige aufgenommen, allerdings ohne Machtbefugnisse. Sie starben 1919 (Gojong) beziehungsweise 1926 (Sunjong) in Korea, ihre Nachfahren leben in Südkorea. Mandschukuo. Eine japanische Kolonie war auch der 1932 geschaffene, jedoch international kaum anerkannte Staat Mandschukuo in der von Japan besetzten chinesischen Provinz der Mandschurei. Dieser Staat, der mit der Niederlage Japans im Zweiten Weltkrieg 1945 endete, wobei die Mandschurei ans kommunistische China fiel, wurde 1934 von den Japanern zum Kaiserreich proklamiert. Der Kaisertitel des Staatsoberhauptes ergab sich aus dessen Person – dem ehemaligen (und letzten) Kaiser von China, Pu Yi, der dort als Kinder-Kaiser (unter der Devise "Hsüan Tung") zwischen 1908 und 1912 „regiert“ hatte und 1917 nochmals (vergeblich) von einem General zum Kaiser proklamiert worden war. Pu Yi hatte bereits 1932 das Amt eines „Regenten“ von Mandschukuo angetreten, das er als Stammland seiner Vorfahren – der chinesischen Mandschu-Dynastie – und damit als sein legitimes Erbe begriff. Während der Kaiser von Mandschukuo (seine neue Devise lautete: "Kang Te") Wert darauf legte, symbolisch an die chinesische Kaisertradition anzuknüpfen (und damit weiterhin einen Herrschaftsanspruch über ganz China verband), waren die Japaner daran interessiert, das Neuartige des Kaisertums von Mandschukuo herauszustellen. Dieses war faktisch nur eine japanische Marionettenregierung, wenn auch bei einem Staatsbesuch Pu Yis in Japan 1937 Ranggleichheit mit dem japanischen Tenno Hirohito demonstriert wurde. Pu Yi, nach langjähriger sowjetischer und chinesischer Haft zu einem musterhaften Bürger der neuen Volksrepublik China umerzogen, starb 1967 in Peking. Seine Autobiografie gab die Vorlage ab für den Bernardo-Bertolucci-Film "Der letzte Kaiser". Mit Pu Yis Bruder und früherem Thronfolger Pu Dschieh starb 1987 die engste männliche Linie der Qing-Dynastie aus, entferntere Angehörige des ehemaligen Kaiserhauses leben jedoch noch heute in China. Zentralafrikanisches Kaiserreich. Als Rückgriff auf die bonapartistische Kaisertradition des 19. Jahrhunderts erscheint das kurzlebige postkoloniale Kaiserreich in der heutigen Zentralafrikanischen Republik. Der dort seit 1966 durch einen Putsch zur Macht gelangte Präsident Jean-Bédel Bokassa, ein früherer Unteroffizier der französischen Kolonialstreitkräfte, proklamierte sich 1977 zum "Empereur" und imitierte dabei die Selbstkrönung Napoleons I. mit in Paris hergestellten Krönungsinsignien. Dieses Kaiserreich bestand nur zwei Jahre, denn bereits 1979 wurde Bokassa gestürzt. Königswasser. Königswasser, selten auch Königssäure genannt, ist ein Gemisch aus konzentrierter Salzsäure und konzentrierter Salpetersäure, im Verhältnis 3:1. Namensgebung. Der Name "Königswasser" (lat. "aqua regis" oder "aqua regia" ‚königliches Wasser‘) leitet sich von der Fähigkeit dieser Mischung ab, die „königlichen“ Edelmetalle Gold und Platin zu lösen. Aus Gold entsteht dabei Tetrachloridogold(III)-säure, aus Platin Platin(IV)-chlorid aus der entstehenden Hexachloridoplatinsäure. Chemische Wirkung auf andere Materialien. Für die Aggressivität von Königswasser sind nicht die Säuren an sich verantwortlich, sondern das Reaktionsprodukt, das entsteht, wenn beide Säuren vermischt werden. Zirconium, Hafnium, Niob, Tantal, Titan, Ruthenium und Wolfram widerstehen aufgrund von Passivierung dem Angriff von Königswasser bei Raumtemperatur. Königswasser zerfällt von selbst, wobei Chlor als Radikal, Nitrosylchlorid und nitrose Gase frei werden. Es wird daher üblicherweise unmittelbar vor Gebrauch aus den beiden Säuren frisch hergestellt. Königswasser als Gemisch von Salpetersäure und Salzsäure hat im Gefahrgutrecht die UN-Nummer UN 1798. Seine Beförderung auf europäischen Straßen ist gemäß dem Europäischen Übereinkommen über die Beförderung gefährlicher Güter auf der Straße verboten. Anwendungen. Platin löst sich in heißem Königswasser Historische Anekdote. Als deutsche Truppen im April 1940 im Zuge des Zweiten Weltkriegs die dänische Hauptstadt Kopenhagen besetzten, löste der im Labor von Niels Bohr arbeitende ungarische Chemiker George de Hevesy die goldenen Nobelpreis-Medaillen der deutschen Physiker Max von Laue und James Franck in Königswasser auf, um so den Zugriff durch die Nazis zu verhindern. Von Laue und Franck waren in Opposition zum Nationalsozialismus in Deutschland und hatten deshalb ihre Medaillen Niels Bohr anvertraut, um so eine Konfiszierung in Deutschland zu verhindern; die Hitlerregierung verbot allen Deutschen das Annehmen oder Tragen des Nobelpreises, nachdem der Nazigegner Carl von Ossietzky im Jahr 1935 den Friedensnobelpreis erhalten hatte. Nach Kriegsende extrahierte de Hevesy das im Königswasser „versteckte“ Gold und übergab es der Königlichen Schwedischen Akademie der Wissenschaften, die daraus neue Medaillen herstellte und wieder an von Laue und Franck übergab. Kardiologie. Kardiologie (gr. "kardiā" ‚Herz‘ und "lóga" ‚Lehre‘) ist die Lehre vom Herzen, die sich mit seinen Strukturen, den Funktionen im Organismus und den Erkrankungen des Herzens befasst und in der Humanmedizin mit dem Teilgebiet der Inneren Medizin, das die Herz-Kreislauferkrankungen bei Erwachsenen umfasst. Die Kinderkardiologie ist in Deutschland und der Schweiz ein eigenständiges Teilgebiet der Kinderheilkunde. Kardiologe ist in den deutschsprachigen Ländern eine standesrechtlich geschützte Bezeichnung, die nur von Ärzten geführt werden darf, die im Rahmen einer speziellen Weiterbildung besondere Kenntnisse auf dem Gebiet der Kardiologie erworben und nachgewiesen haben. Bis 1900. Hölzernes Stethoskop (aus Meyers Konversationslexikon 1890) Menschen empfanden das Herz bereits seit langer Zeit als besonders verwundbares Organ, darauf weisen steinzeitliche Wandmalereien in Spanien hin. Heilkundige Chinesen, Griechen und Römer widmeten dem Herzen und dem Puls als Ausdruck mechanischer Herztätigkeit besondere Aufmerksamkeit. Herophilos von Chalkedon konstruierte um 300 v. Chr. eine Taschenwasseruhr zur Pulsmessung. Vor etwa 2000 Jahren beschrieb der römische Literat Seneca der Jüngere seine Angina Pectoris so: „Der Anfall ist sehr kurz und einem Sturm ähnlich. Bei anderen Leiden hat man mit der Krankheit zu kämpfen, hier aber mit dem Sterben.“ Der Beginn der modernen Kardiologie kann am ehesten auf das Jahr 1628 datiert werden, als der englische Arzt William Harvey seine Entdeckung des Blutkreislaufes veröffentlichte. 1733 konnte der englische Pfarrer und Wissenschaftler Stephen Hales erstmals „blutig“, d. h. invasiv, den Blutdruck messen, indem er eine Kanüle in die Halsschlagader eines Pferdes einführte und mit einem Glaszylinder verband. Das älteste herzwirksame Medikament ist Digitalis, dessen Nutzen für die Behandlung der „Wassersucht“ 1785 William Withering beschrieb. 1816 erfand der Franzose René Théophile Hyacinthe Laënnec das Stethoskop, zunächst in Form recht einfacher hölzerner Zylinder, die eine Auskultation möglich machten. Bereits Ende des 19. Jahrhunderts waren Stethoskope mit flexiblen Schläuchen für beide Ohren verbreitet. Ein frühes Gerät der indirekten „unblutigen“, d. h. nichtinvasiven Blutdruckmessung war z. B. der Sphygmograph des deutschen Physiologen Karl von Vierordt (1818–1884). Das erste Sphygmomanometer wurde vom österreichischen Pathologen Samuel Siegfried Karl Ritter von Basch (1837–1905) erfunden. 1896 beschrieb der italienische Arzt Scipione Riva-Rocci ein einfaches Gerät zur Blutdruckmessung mit einer Armmanschette, das von Harvey Williams Cushing verbessert wurde, und dessen Messmethode 1905 vom russischen Militärarzt Nikolai Sergejewitsch Korotkow abgewandelt wurde. Heutzutage wird nur noch selten nach der Methode von Riva-Rocci gemessen. Dann wird der so gemessene Blutdruck mit ("RR") benannt. Fälschlicherweise wird der heutzutage nach Korotkow gemessene Blutdruck in der Praxis aber immer noch mit „RR“ bezeichnet. Das 20. Jahrhundert. a> von Herz-Kreislauferkrankungen (Angaben geschätzt für die USA) Herzdiagnostik an einem Herzkatheter-Kardangiographie-Arbeitsplatz, 1989 Im Laufe des 20. Jahrhunderts gewannen die Herz-Kreislauferkrankungen erheblich an Bedeutung. Zu Beginn waren sie weltweit für weniger als 10 % der Todesfälle verantwortlich, gegen Ende für knapp 50 % in den Industrieländern und 25 % in den Entwicklungsländern. Diese Verschiebung wird mit dem selteneren Auftreten von Infektionskrankheiten und Mangelernährung als zuvor häufigsten Todesursachen und der steigenden Lebenserwartung erklärt. Da Herz-Kreislauferkrankungen im höheren Alter häufiger auftreten, erklärt schon der Anstieg der durchschnittlichen Lebenserwartung – in den USA von 49,2 Jahren im Jahr 1900 auf 76,9 Jahre im Jahr 2000– einen Großteil des Zuwachses. Anfang des 20. Jahrhunderts kristallisierte sich die Kardiologie als eigenständiges Forschungsgebiet innerhalb der Inneren Medizin heraus. 1907 wurde in Paris die erste Ausgabe der Fachzeitschrift "„Archives de Maladies du Coeur et des Vaisseaux“" veröffentlicht, 1909 in Wien das "Zentralblatt für Herzkrankheiten und die Erkrankung der Gefäße". In England folgte 1910 die Zeitschrift "Heart", in den USA 1925 das "American Heart Journal". Ebenfalls 1925 wurde in den USA als erste kardiologische Fachgesellschaft die „American Heart Association“ gegründet. Sie wurde 1927 von der „Deutschen Gesellschaft für Kreislaufforschung“ als erster Fachgesellschaft in Europa gefolgt, deren Mitgliederzahl in den ersten zehn Jahren ihres Bestehens von 180 auf 300 anwuchs. 1903 entwickelt der Holländer Willem Einthoven den Elektrokardiografen (EKG). Hände und Füße der Patienten wurden damals zur Ableitung der Herzströme in Salzlösung getaucht, erst in den 1940er Jahren erfolgte die Registrierung mit Hilfe von Metallscheiben an den Hand- und Fußgelenken, die durch Drähte mit dem Registriergerät verbunden wurden. Die heutige Behandlung von Herzrhythmusstörungen basiert u. a. auf der Arbeit des Japaners Sunao Tawara, der 1906 während seiner Tätigkeit beim Marburger Pathologen Ludwig Aschoff die Grundzüge des Erregungsleitungssystems des Herzens veröffentlichte. 1929 kam es zur ersten Herzkatheteruntersuchung im weiteren Sinne, als sich der damalige chirurgische Assistenzarzt und spätere Urologe Werner Forßmann in Eberswalde einen Gummischlauch durch seine Armvene in den rechten Vorhof schob. 1941 veröffentlichte André Frédéric Cournand seine Erfahrungen mit der Herzkatheterisierung als diagnostischer Methode. 1956 erhielten Forßmann und Cournand u. a. für diese Verdienste zusammen mit Dickinson Woodruff Richards den Nobelpreis. Die erste Herzoperation wurde am 9. September 1896 von dem Frankfurter Chirurgen Ludwig Rehn vorgenommen. Er nähte das Herz eines Frankfurter Gärtnergesellen, das bei einer Messerstecherei verwundet worden war. Vorangegangen waren tierexperimentelle Versuche, die gezeigt hatten, dass der Herzmuskel zur Regeneration fähig war. In den USA folgt die erste Herzoperation eines offenen Ductus Botalli 1938 durch den amerikanischen Chirurgen Robert E. Gross, die erste Operation am offenen Herzen 1952 durch F. John Lewis. Die ersten Echokardiographien wurden 1950 durch Wolf-Dieter Keidel sowie 1954 von Inge Edler und Carl H. Hertz durchgeführt. Das 1952 von Bernard Lown und Samuel A. Levine für die Herzinfarkt-Behandlung propagierte "armchair treatment" fand erst in den 1960er Jahren auch in Deutschland Anklang. Während den Patienten in der ersten Hälfte des 20. Jahrhunderts für sechs bis acht Wochen jegliche körperliche Anstrengung verboten und strikte Bettruhe verordnet wurde, konnten sie jetzt bereits eine Woche nach dem Infarkt täglich bis zu zwei Stunden im Sessel sitzen, um den Kreislauf anzuregen und Muskelabbau sowie Thrombosen vorzubeugen. Heute stehen Patienten nach einem unkomplizierten Infarkt am ersten oder zweiten Tag auf und werden nach sieben bis zehn Tagen aus dem Krankenhaus entlassen, in den USA bereits nach weniger als fünf Tagen. Am stillstehenden Herzen konnte erst nach Einführung der Herz-Lungen-Maschine durch John Gibbon im Jahr 1953 operiert werden, die erste Operation mit diesem Gerät in Deutschland nahm 1957 der Berliner Chirurg Emil Sebastian Bücherl vor. 1958 wurde am Karolinska-Spital in Stockholm der erste von Äke Senning und Siemens-Entwicklungschef Rune Elmqvist gebaute Herzschrittmacher implantiert. 1959 brachten die deutschen Behring-Werke Streptokinase auf den Markt, das beim akuten Herzinfarkt das Blutgerinnsel im Herzkranzgefäß auflösen kann und so die Blutversorgung des betroffenen Areals wieder ermöglicht. Die erste künstliche Herzklappe wurde 1961 durch die beiden Amerikaner Albert Starr und Lowell Edwards implantiert. 1963 stellte das deutsche Unternehmen Knoll mit Verapamil den ersten Calciumantagonisten vor. Den ersten Beta-Blocker entwickelte 1964 der Schotte James W. Black, der 1980 den Nobelpreis erhielt. Der erste Koronararterien-Bypass wurde 1967 durch René G. Favaloro angelegt. Ebenfalls 1967 erfolgte die erste Herztransplantation durch Christiaan Barnard. Der in Dresden geborene Andreas Grüntzig führte 1977 in Zürich die erste Ballon-Dilatation durch und begründete damit die interventionelle Kardiologie. 1980 wurde an der Johns-Hopkins-Universität erstmals ein interner Defibrillator eingesetzt, um lebensbedrohliche Tachykardien und Kammerflimmern zu beenden. 1981 führte die Pharmafirma Squibb Captopril als ersten ACE-Hemmer in die Therapie ein. Der erste Stent wurde von Ulrich Sigwart in Lausanne entwickelt und 1986 erstmals eingesetzt. 1987 entwickelte der in Amerika lebende Grieche Roy Vagelos das erste Statin. Die dopplergestützte Echokardiographie wurde zwar bereits 1959 durch den Japaner S. Satomura eingesetzt, kam jedoch erst in den frühen 1980er-Jahren mit der Verfügbarkeit leistungsstarker Rechner durch K. Namekawa, William J. Bommer sowie Larry Miller zur Anwendungsreife. In den späten 1980er-Jahren verbreiteten sich mit der transösophagealen Echokardiografie (TEE) („Schluckecho“) und der Stressechokardiografie zwei wesentliche Erweiterungen der Ultraschalluntersuchungen des Herzens. Die TEE wird insbesondere für die Feinbeurteilung von Herzklappenveränderungen und die Suche nach Emboliequellen eingesetzt, die Stressechokardiografie zur Beurteilung von Durchblutungsstörungen des Herzmuskels. Die erste Bypass-Operation in minimal-invasiver Technik wurde 1994 in den USA durchgeführt, 1995 erstmals auch in Deutschland durch Joachim Laas in der Herz-Kreislauf-Klinik in Bad Bevensen. Während die Computertomografie (CT) und Magnetresonanztomografie (MRT) zunächst auf Grund der schnellen Eigenbewegung des Herzens in der Kardiologie nur selten Verwendung fanden, haben sich diese Untersuchungsverfahren mit der Einführung immer leistungsfähigerer Computer in den 1990er-Jahren auch in diesem Fachgebiet etabliert. Aktuell. In Nordamerika und Westeuropa ist die Kardiologie zu Beginn des 21. Jahrhunderts nahezu flächendeckend in Praxis oder Klinik vertreten, während sie noch in den 1960er-Jahren fast ausschließlich an den Universitätskliniken und in wenigen spezialisierten Zentren präsent war. In den USA waren im Jahr 1999 etwa 14.000 Kardiologen zertifiziert. CT und MRT können auf Grund immer leistungsfähiger Computer für eine Reihe von Fragestellungen bereits vergleichbare oder bessere Ergebnisse liefern als die Echokardiografie oder die Herzkatheteruntersuchung, sind aber in vielen Ländern aus verschiedenen Gründen (u. a. Verfügbarkeit, Kosten, Strahlenbelastung und fehlende Möglichkeit zur Intervention) nicht in die Routineversorgung eingebunden. Deutschland. Zum Jahresende 2003 waren in Deutschland 3.059 Kardiologen berufstätig, davon waren 2.126 als Kassenarzt tätig. 2002 wurden alleine zu Lasten der gesetzlichen Krankenversicherung (GKV) u. a. 3.721.705 Echokardiografien durchgeführt. Besonders im Bereich der invasiven Kardiologie (Herzkatheteruntersuchungen) und der interventionellen Kardiologie (Ballondilatationen und andere kathetergestützte Therapieverfahren) ist es zu einer erheblichen Leistungsausweitung gekommen. Vom Beginn der systematischen Datenerhebung im Jahr 1984 bis zum Jahr 2005 zeigt sich ein deutlicher Anstieg der entsprechenden Untersuchungs- und Behandlungszahlen in deutschen Katheterlaboren. 2001 waren in Deutschland 356 Linksherzkatheter-Einrichtungen mit 503 Messplätzen gemeldet. Dies entsprach einer Dichte von 4,3 Einrichtungen und 6,2 Messplätzen pro 1 Mio. Einwohner. Im Jahr 2004 wurden in Deutschland pro 1 Mio. Einwohner 8.695 diagnostische Linksherzkatheter und 3.022 Ballondilatationen vorgenommen. Diese Zahlen liegen im Vergleich mit anderen Ländern (vgl. Tabelle) recht hoch, was angesichts der Kosten von schätzungsweise 573 Mio. Euro für die Linksherzkatheter und 871 Mio. Euro für die Ballondilatation auch von gesundheitsökonomischer Bedeutung ist. Österreich. 2001 waren in Österreich 35 Linksherzkatheter-Einrichtungen mit 39 Messplätzen gemeldet, davon vier für Kinder. Pro 1 Mio. Einwohner entsprach dies 4,3 Einrichtungen und 4,8 Messplätzen. Schweiz. Die für die Schweiz im Jahr 2000 gemeldeten 28 Linksherzkatheter-Einrichtungen (davon fünf auch und zwei nur für Kinder) mit 36 Messplätzen ergaben eine Dichte von 3,9 Einrichtungen und 5,0 Messplätzen pro 1 Mio. Einwohner. 2004 waren insgesamt 323 Kardiologen registriert. Schwerpunkte. Die Kardiologie konzentriert sich nicht nur auf die angeborenen und erworbenen Erkrankungen des Herzens, sie befasst sich auch mit dem Blutkreislauf und den herznahen Blutgefäßen. Der daraus abgeleitete Begriff der Herz-Kreislauferkrankungen, im englischen Sprachraum "cardiovascular diseases", beinhaltet auch Bluthochdruck ("Hypertonie"), Schlaganfall, arterielle Verschlusskrankheit und viele andere Erkrankungen, ist aber nicht verbindlich definiert (vgl. Herz-Kreislauferkrankung). Bei der Diagnostik und Behandlung der nicht unmittelbar am Herz lokalisierten Krankheiten kommt es zu Überschneidungen mit anderen Fachgebieten wie der Angiologie, der Neurologie und der Pneumologie. Spezielle Aufgaben und Untersuchungsverfahren der Kardiologie sind Koronare Herzkrankheit. In Nordamerika, Westeuropa, Japan, Australien und Neuseeland leidet die große Mehrzahl der von Kardiologen betreuten Patienten heute an der koronaren Herzkrankheit (KHK), so dass dort die Erkennung, Behandlung und Nachsorge von Angina Pectoris, Herzinfarkten und infarktbedingter Herzmuskelschwäche zur Haupttätigkeit der meisten Kardiologen geworden ist. Neben der medikamentösen Therapie haben hier in den letzten zwei Jahrzehnten die invasiven Therapien immer mehr an Bedeutung gewonnen. Dabei handelt es sich um die von Herzchirurgen durchgeführte Bypass-Operation und die von interventionellen Kardiologen vorgenommene Ballondilatation, die heute meist mit der Implantation eines Stents verbunden wird. Voraussetzung für beide Verfahren ist die genaue Kenntnis der Koronaranatomie, die bei der Koronarangiografie im Rahmen einer Linksherzkatheteruntersuchung gewonnen wird. Andere Erkrankungen. Neben der KHK und der Herzinsuffizienz spielen für die heutige Kardiologie Herzrhythmusstörungen eine große Rolle (Rhythmologie), wobei zahlenmäßig das Vorhofflimmern überwiegt und hinsichtlich der Bedeutung für den Patienten die ventrikulären Rhythmusstörungen (Ventrikuläre Tachykardie und Kammerflimmern) besonders bedeutsam sind. Erkrankungen der Herzklappen, primäre Erkrankungen des Herzmuskels (Kardiomyopathien) und die entzündlichen Herzkrankheiten (Endokarditis, Myokarditis und Perikarditis) sind dagegen heute in den Hintergrund getreten. Besonders die früher auch in Europa bedeutsameren rheumatischen Klappenfehler nach Infektionen mit β-hämolysierenden Streptokokken sind viel seltener geworden. Während hier nur noch etwa 1,5 % der Todesfälle durch Herz-Kreislauferkrankungen auf eine rheumatische Herzerkrankung zurückzuführen sind, beträgt der Anteil in Entwicklungsländern noch 10-15 %. Überschneidungen. Kinder und Jugendliche mit (in der Regel angeborenen) Herz-Kreislauferkrankungen werden in der Kinderkardiologie betreut, einem Schwerpunkt der Kinderheilkunde. Ein besonderes Problem stellt die kardiologische Versorgung von Patienten mit angeborenen komplexen Herzfehlern dar, die das Erwachsenenalter erreicht haben. Deren Zahl steigt ständig. Nach Operationen im Neugeborenen- und Kindesalter benötigen sie eine weitere Betreuung – in der Regel lebenslang. Der Übergang von der Kinderkardiologie zur Erwachsenenkardiologie war bis vor Kurzem nicht abschließend geregelt, da diese Krankheitsbilder neu sind und sich durch neue Operationsverfahren weiter entwickeln. Aus dieser Notwendigkeit heraus wurden 2006 durch eine medizinische „Task Force“ Zertifizierungsbestimmungen für eine „Zusatzqualifikation Erwachsene mit angeborenen Herzfehlern“ erarbeitet und verabschiedet. In der Folge wurden dann im Juli 2011 drei überregionale Kompetenzzentren für Erwachsene mit angeborenen Herzfehlern (EMAH) in Deutschland zertifiziert. Durch eine enge interdisziplinäre Zusammenarbeit mit anderen erforderlichen Fachkliniken kann an den Standorten Berlin, Hamburg (deutsche Herzzentren) und Münster (Universitätsklinikum) eine hochwertige Behandlung der Patienten sichergestellt werden. Neben dieser engen Verzahnung der Fachkliniken gehören eine entsprechende personelle und technische Ausstattung der Kompetenzzentren zur Grundvoraussetzung der Zertifizierung, deren Einhaltung durch drei große medizinische Fachgesellschaften (Deutsche Gesellschaft für Kardiologie, die Deutsche Gesellschaft für Pädiatrische Kardiologie und die Deutsche Gesellschaft für Thorax-, Herz- und Gefäßchirurgie) überprüft wird. Bluthochdruck wird auch von Nephrologen, pulmonale Hypertonie auch von Pneumologen, die arterielle Verschlusskrankheit von Angiologen, die entzündlichen Gefäßkrankheiten von Rheumatologen und der Schlaganfall auch von Neurologen und Neuroradiologen erforscht und behandelt. Zusammenhänge zwischen psychischen Erkrankungen und Herzerkrankungen sind Gegenstand der Psychokardiologie. Organisation. Fachgesellschaft der deutschen Kardiologen ist die „Deutsche Gesellschaft für Kardiologie – Herz- und Kreislaufforschung e. V.“, die 1927 als erste kardiologische Gesellschaft in Europa gegründet wurde. Sie hatte im Jahr 2006 mehr als 6.000 Mitglieder, davon circa 15 % Frauen. In Österreich sind mehr als 1000 Ärzte in der 1968 gegründeten „Österreichischen Kardiologischen Gesellschaft“ organisiert. Fachgesellschaft der schweizerischen Kardiologen ist die „Schweizerische Gesellschaft für Kardiologie“. In Deutschland sind die in der Praxis tätigen Kardiologen im „Bundesverband Niedergelassener Kardiologen e. V.“ (BNK) organisiert. Die Aufgaben des BNK sind unter anderen die Interessenvertretung für vertragsärztlich tätige Kardiologen und die Organisation der wissenschaftlichen und berufspraktischen Fortbildung der Mitglieder. Die Zunahme von Wissen und speziellen Techniken hat zu einer zunehmenden Spezialisierung der Kardiologen insgesamt und auch innerhalb der Kardiologie geführt. Das ehemalige Teilgebiet der Inneren Medizin etabliert sich immer deutlicher als selbstständiger Schwerpunkt und innerhalb der Kardiologie entwickelt sich eine Subspezialisierung in nicht-invasive und invasive Kardiologie sowie Elektrophysiologie. Ausbildung. Die kardiologische Ausbildung von Ärzten und anschließende Zertifizierung zum Kardiologen ist länderspezifisch geregelt. In den USA beispielsweise erteilt das "American Board of Internal Medicine" Zertifikate für 16 Subdisziplinen, von denen eines die Kardiologie ist. Die ersten drei Jahre der Ausbildung in „Allgemeiner Innerer Medizin“ werden mit einem Zertifikat abgeschlossen. Darauf baut eine dreijährige Subspezialisierung in „Kardiologie“ auf, die ebenfalls mit einem Zertifikat beendet wird. In der Kardiologie kann in einer dritten Stufe "(third tier)" eine weitere einjährige Spezialisierung in „Klinischer Elektrophysiologie des Herzens“ oder „Interventioneller Kardiologie“ angeschlossen und ebenfalls zertifiziert werden. Deutschland. In Deutschland schließen jährlich etwa 300 bis 350 Ärzte ihre Weiterbildung zum Kardiologen mit einer Prüfung bei den Landesärztekammern erfolgreich ab. Die Kardiologie ist aus einer Spezialisierung innerhalb der Inneren Medizin hervorgegangen und ist als einer ihrer Schwerpunkte (wie Gastroenterologie oder Nephrologie) organisiert. Die genaue Bezeichnung lautet „Facharzt für Innere Medizin Schwerpunkt Kardiologie“. Die meisten heute tätigen Kardiologen sind gleichzeitig Fachärzte für „Allgemeine Innere Medizin“, weil sie nach einer älteren Weiterbildungsordnung zunächst die sechsjährige Weiterbildung und Prüfung zum Internisten absolviert und die kardiologische Spezialisierung daran angeschlossen haben. Kontrovers werden Initiativen der letzten Jahre beurteilt, die Kardiologie als eigenständige Fachdisziplin neben der „allgemeinen“ Inneren Medizin und ihren anderen Teilgebieten anzusehen und entsprechend zu etablieren. In Deutschland sieht die 2003 verabschiedete Musterweiterbildungsordnung einen „Facharzt für Innere Medizin und Schwerpunkt Kardiologie“ mit mindestens sechsjähriger Weiterbildung (davon drei Jahre in der Inneren Medizin) neben dem „Facharzt Innere und Allgemeinmedizin“ vor. Österreich. In Österreich wird die Kardiologenausbildung – wie alle ärztlichen Ausbildungen – von der vom Gesundheitsminister verordneten Ärzte-Ausbildungsordnung 1994 (ÄAO 1994) geregelt. Das „Zusatzfach Kardiologie“ setzt nach geltendem Recht eine abgeschlossenen Facharztausbildung für Innere Medizin (Mindestdauer: sechs Jahre) voraus, und dauert mindestens drei weitere Jahre, sofern nicht im Rahmen der Facharztausbildung schon anrechenbare Teile der Ausbildung absolviert wurden. Die explizit vorgeschriebenen Ausbildungsinhalte sind in der ÄAO per Anlage ausgeführt. Schweiz. In der Schweiz ist bereits seit 2001 ein „Facharzt für Kardiologie“ mit einer mindestens sechsjährigen Weiterbildung (davon die ersten zwei Jahre in der Inneren Medizin) vorgesehen. Kardiologie in der Tiermedizin. Auch in der Tiermedizin erlebt die Kardiologie zunehmende Bedeutung, vor allem bei Hund und Katze. Bei Nutztieren treten zwar ebenfalls gelegentlich Herzerkrankungen auf, vor allem im Zusammenhang mit einigen Tierseuchen, diese werden aber, wenn überhaupt, nicht von kardiologisch spezialisierten Tierärzten behandelt. Ausbildung. Die Kardiologie ist in Deutschland kein eigenes Fachtierarztgebiet, sondern eine Zusatzbezeichnung zu einem verwandten Fachtierarztgebiet (Kleintiere, Innere Medizin). 1981 wurde in Venedig die „European Society of Veterinary Cardiology“ gegründet. Sie gibt seit 1998 das "Journal of Veterinary Cardiology" () heraus. 1994 wurde von der „European Society of Veterinary Internal Medicine“ eine europäische Weiterbildung auf dem Gebiet der Kleintierinternistik etabliert, die seit 2003 vom „European Board of Veterinary Specialisation“ anerkannt ist. Innerhalb dieses „European College of Veterinary Internal Medicine - Companion Animals“ (ECVIM-CA) existiert eine Spezialisierung Kardiologie. Dieser postgraduale Weiterbildungsgang stellt fachlich deutlich höhere Ansprüche als das deutsche Weiterbildungssystem und erfordert unter anderem eine dreijährige Ausbildung an einer zugelassenen Weiterbildungsstätte. Absolventen dieser Zusatzausbildung dürfen den Titel „Diplomate of the European College of Veterinary Internal Medicine - Companion Animals (Cardiology)“ - Dipl. ECVIM-CA (Cardiology) - führen. Momentan (Stand Mai 2006) haben 30 Tierärzte diese Zusatzausbildung absolviert, darunter drei Deutsche und zwei Schweizer. Dieses europäische Ausbildungssystem wurde nach dem Vorbild des amerikanischen ACVIM-CA (Cardiology) geschaffen. Dieser bereits länger existierende Abschluss wird in Europa ebenfalls anerkannt und seine Inhaber sind auch für das European College weiterbildungsberechtigt. Den Kardiologie-Abschluss des "American College" haben 129 Tierärzte (Stand 2005) erworben. Schwerpunkte der Veterinärkardiologie. Hauptarbeitsgebiet der Veterinärkardiologie sind Herzerkrankungen bei Hunden, Katzen und Pferden. Im Kleintierbereich weisen etwa 11 Prozent aller vorgestellten Patienten eine Herzerkrankung auf. Der Schwerpunkt liegt hierbei auf erworbenen Herzerkrankungen, welche bei kleinen Hunderassen vor allem in Form degenerativer Klappenerkrankungen (Klappenendokardiosen) auftreten, bei großwüchsigen Hunderassen hauptsächlich in Form von Herzmuskelerkrankungen (Dilatative Kardiomyopathie) vorliegen. Katzen neigen gleichfalls zur Ausprägung von Kardiomyopathien, hier tritt allerdings wesentlich häufiger die hypertrophe Form auf, auch infolge der in den letzten Jahren zunehmend diagnostizierten Schilddrüsenüberfunktion. Früher aufgetretene fütterungsbedingte Herzmuskelerkrankungen (meist dilatative Kardiomyopathien bei bestimmten Hunderassen und Katzen) kommen infolge der breiten Verwendung industrieller Fertigfutter nur noch selten vor. In den Südstaaten der USA und im Mittelmeerraum spielt darüber hinaus die Herzwurmerkrankung "(Dirofilariose)" eine größere Rolle. Zu einem weiteren Schwerpunkt der Kleintierkardiologie entwickelt sich in den letzten Jahren die Untersuchung auf erblich bedingte Herzerkrankungen. Mit Untersuchungsprogrogrammen wird so von vielen Hunde- und Katzenzuchtverbänden der Versuch unternommen, bei einzelnen Rassen gehäuft auftretende Herzerkrankungen züchterisch zu eliminieren (z. B. Boxer: Aortenstenose; Neufundländer, Irischer Wolfshund: Dilatative Kardiomyopathie; Maine-Coon-Katze: Hypertrophe Kardiomyopathie). Koronare Herzerkrankungen treten bei Tieren im Gegensatz zum Menschen so gut wie nicht auf. Bei Pferden spielen vor allem Herzmuskelentzündungen im Zusammenhang mit Infektionskrankheiten, fütterungs- und stoffwechselbedingte Myokardosen, Herzklappenfehler (vor allem Insuffizienz der Aortenklappe) und Herzrhythmusstörungen eine Rolle. Kalifornischer Goldrausch. Während des kalifornischen Goldrauschs von 1848 bis 1854 suchten Tausende ihr Glück als Goldgräber in Kalifornien. Aus dem kalifornischen Goldrausch leitet sich auch der offizielle Beiname Kaliforniens "Golden State" ab. Verlauf. Im Januar 1848 entdeckte James W. Marshall bei Sutter’s Mill, dem Bauplatz für ein Sägewerk auf der Ranch Neu-Helvetien des Schweizers Johann August Sutter, das erste Goldnugget. Da die Arbeiter der Ranch trotz der entsprechenden Anweisung Sutters den Fund ausplauderten, drängten schon bald die ersten Menschen aus Kalifornien zu den Goldfeldern. Die Presse in San Francisco berichtete im März 1848 und der New York Herald erst am 19. August über die Goldfunde. Ein Goldrausch entwickelte sich. Die großen Siedlerströme entwickelte der Goldrausch nach einer Ansprache von Präsident James K. Polk vor dem Kongress im Dezember 1848. Polk nutzte die Goldfunde, um den 1846/47 geführten amerikanisch-mexikanischen Krieg um Kalifornien zu rechtfertigen. Damit waren die Goldfunde in Kalifornien offiziell bestätigt. In der Folge zogen in den nächsten Jahren mehrere hunderttausend Menschen nach Kalifornien, um ihr Glück zu suchen. Zwischen Januar 1848 und Dezember 1849 wuchs San Francisco von 1.000 auf 25.000 Einwohner. Die Abwanderung in anderen Landesteilen hatte zum Teil tiefgreifende Auswirkungen auf die dortigen Unternehmen: Eine kalifornische Zeitung musste ihr Erscheinen einstellen, weil sie keine Arbeiter mehr hatte, Dutzende Schiffe blieben vor San Francisco liegen, weil die Matrosen sofort nach der Ankunft zu den Goldfeldern zogen. Nur einige wenige Goldgräber wurden wirklich reich, die meisten jedoch nicht und diejenigen, die wirklich Gold fanden, verspielten es oft oder mussten für einfache Güter sehr hohe Preise zahlen. So kostete 1849 ein Ei einen Dollar, alte Zeitungen konnten für 10 Dollar pro Stück verkauft werden und Geld wurde mit einem Zinssatz von fünf Prozent pro Woche verliehen. Händler und Kaufleute gehörten daher zu den Gewinnern des Goldrauschs, zum Beispiel Levi Strauss. Die unkontrollierte Zuwanderung von Menschen verursachte auch große Probleme: Von 1849 bis 1851 brannte San Francisco sechsmal. Die hygienischen Zustände waren katastrophal, Flöhe und Ratten breiteten sich aus. Im Winter 1851 brach eine Choleraepidemie aus. Zu Beginn der Spanischen Mission wurde die indianische Bevölkerung Kaliforniens auf rund 310.000 geschätzt. Am Ende der mexikanischen Zeit, vor dem Goldrausch, lebten nur noch etwa 150.000 Indianer auf dem Gebiet des späteren Bundesstaates. Bis 1870 waren nur noch 31.000 übrig geblieben. Im Gegensatz dazu stand die Entwicklung bei den europäisch-stämmigen Bewohnern: Für 1850 registrierte die US-Verwaltung eine Gesamtbevölkerung von Kalifornien von ca. 92.000, die bis 1870 auf ca. 560.000 Einwohner anstieg. Über 60 Prozent der Indianer waren an Krankheiten gestorben, die Goldsucher mitgebracht hatten. Zahllose Indianer wurden von ihrem Land vertrieben und massakriert. Auf Skalps von Indianern wurden Prämien ausgesetzt, Kinder von Indianern wie Sklaven verkauft. Bei der Gewinnung von Gold wurden über 7.000 Tonnen Quecksilber freigesetzt, die Flüsse und Seen vergifteten. Durch seinen Reichtum und wegen seiner stark gewachsenen Bevölkerung wurde Kalifornien am 9. September 1850 als 31. Staat in die Union (USA) aufgenommen. Ab 1854 wurde der Goldabbau industriell im großen Maßstab betrieben, womit die Zeit der privaten Goldgräber vorbei war. Weder Sutter noch Marshall konnten vom Gold profitieren: Marshall starb völlig mittellos, Sutter verlor den größten Teil seines riesigen Besitzes, der einmal weite Teile Kaliforniens umfasst hatte. Kastilien und León. Kastilien und León (spanisch "Castilla y León") ist eine spanische autonome Gemeinschaft. Der Regierungssitz ist Valladolid. Geografie und Gliederung. Kastilien und León umfasst die Nordmeseta, eine zwischen 600 und 800 Meter über dem Meeresspiegel liegende von Randgebirgen begrenzte Hochebene im Nordwesten Zentralspaniens, die vom Duero entwässert wird. Der westliche Teil bildet die historische Landschaft León, der als "Altkastilien" bekannte zentrale und östliche Teil gehört zur historischen Landschaft Kastilien. Mit 94.223 km² Landfläche ist die autonome Region etwas größer als das angrenzende Portugal. Es erstreckt sich damit über 18,6 % der spanischen Landmasse, stellt jedoch mit einer Bevölkerungsdichte von 27 Einw./km² (Portugal: 115,1 Einw./km²) nur 5,7 % der Einwohner Spaniens dar. Wirtschaft. Im Vergleich mit dem BIP der EU ausgedrückt in Kaufkraftstandards erreicht die Region einen Index von 100 (EU-27:100) (2006). Die Arbeitslosenrate lag 2005 bei 8,7 %. Quellen. Kastilien und Leon Keplersche Gesetze. Die drei Keplerschen Gesetze sind nach dem Astronomen und Naturphilosophen Johannes Kepler benannt. Er fand diese fundamentalen Gesetzmäßigkeiten für die Umlaufbahnen der Planeten um die Sonne, als er sie in Bezug zu einer gesuchten Harmonik brachte und die Abweichungen des Mars von einer Kreisbahn mathematisch analysierte. Die Sätze beschreiben die Bewegung "idealer" Himmelskörper. Die Bedingungen für die drei Keplerschen Gesetze sind dabei unterschiedlich. Das zweite Gesetz gilt für alle Zentralkräfte (die nicht einmal konservativ zu sein brauchen). Das dritte Gesetz gilt für Kräfte, die mit dem Abstand quadratisch abnehmen. Abweichungen vom ersten Gesetz sieht man jedoch schon im Sonnensystem: Kometen bewegen sich häufig auf parabelähnlichen Bahnen; die Achse der Merkur-Bahn dreht sich aufgrund der Einflüsse der anderen Planeten sowie aus allgemein-relativistischen Gründen langsam um die Sonne. Grundlegende Bedeutung in der Astronomie. Die beiden ersten Keplerschen Gesetze stellen die exakte Lösung eines Zweikörperproblems im Rahmen der Newtonschen Mechanik dar, das durch die Keplergleichung beschrieben wird. Sie gelten für alle Zweiersysteme, wenn Das dritte Gesetz stellt eine sehr gute Näherung für die Lösung eines Mehrkörperproblems dar, bei dem die Masse des einen Körpers wesentlich größer ist als die der anderen. Ist die Lösung für einen der Körper gefunden, erhält man auch Informationen über die Bewegung der anderen Körper. Obwohl die drei Gesetze die Bewegung nur in einem System zweier Himmelskörper exakt beschreiben (Bewegungsgleichung des idealisierten Zweikörpersystems in der Potentialtheorie), sind sie eine gute Näherung für die tatsächlich in einem Sonnensystem durchlaufenen Planetenbahnen. Die aus den Keplerschen Gesetzen zu entnehmenden sechs Bahnelemente (also die Halbachsenlänge, die Exzentrizität, die Inklination, die Knotenlänge, der Periapsiswinkel und die Periapsiszeit) sind die Grundlage jeder Bahnbestimmung. Die geringen Abweichungen von den Keplerbahnen durch die Gravitationswechselwirkung der leichteren Körper untereinander werden "Bahnstörungen" genannt. Geschichte. Kepler formulierte die Geometrie und Kinematik der Planetenbahnen in "drei" Gesetzen, von denen er die beiden ersten relativ rasch fand ("Astronomia Nova", „Neue Astronomie“, 1609). Die Suche nach dem dritten dauerte hingegen – einschließlich mehrerer Irrwege über Korbbögen – ein Jahrzehnt, er fand es Mitte 1618 ("Harmonice mundi", ‚Weltharmonik‘, publiziert 1619). Dabei kamen ihm Überlegungen zu Hilfe, die heute als anthropisches Prinzip bezeichnet werden, und vermutlich auch die in der Musik zu findende Harmonik. Eine wichtige Grundlage für Kepler waren die Beobachtungen von Tycho Brahe und seine eigenen als Tychos Assistent, die als "Rudolfinische Tafeln" die Datenbasis bildeten, an der Kepler sein Modell testete. Das vorzügliche, in Prag erstellte Beobachtungsmaterial von Brahe und Kepler vom Planeten Mars war insbesondere für die beiden ersten Gesetze (Ellipsen- und Flächensatz) bedeutsam. Ein anderes in diesem Kontext von Kepler aufgestelltes Gesetz über die wirkende Kraft, die "Anima motrix", hat sich als nicht zutreffend erwiesen. Die Keplerschen Planetengesetze wurden später von Newton in den allgemeineren Zusammenhang seines "Gravitationsgesetzes" gestellt. Problematik der Mehrkörpersysteme. Schon wenn zwei Körper einander umkreisen, wirkt auch eine Gravitation vom kleinen zum größeren Körper: Daher bewegt sich auch dieser und steht nicht im Brennpunkt der Ellipse, sondern beide umlaufen das Baryzentrum (Massezentrum) des Systems (Unzulänglichkeit des heliozentrischen Weltbilds: Die Sonne steht nicht im „Mittelpunkt“ des Sonnensystems). Wenn drei oder mehr Körper einander umkreisen, kommt es aufgrund der wechselseitigen gravitativen Einflüsse zu weiteren Bahnstörungen, für die die Keplerschen Gesetze und Bahnelemente ein bis heute verwendetes Bezugsystem darstellen (oskulierende Ellipsen, eine temporär angenäherte Lösung). Sind "zahlreiche" Körper gravitativ aneinander gebunden, herrschen praktisch immer chaotische, also langfristig hochgradig instabile Zustände. Daher weicht z. B. die Bewegung der Fixsterne um das galaktische Zentrum merklich vom 2. und 3. Keplerschen Gesetz ab, und auch das Sonnensystem ist kein bis in alle Ewigkeit stabiles Keplersystem (wie die Überschneidung der Neptun- und Pluto-Bahnen zeigt). Heliozentrische und fundamentale Formulierung der Gesetze. Kepler formulierte das Gesetz für die Planeten, die ihm bekannt waren. Für die Gesetze gilt aber das kosmologische Prinzip, nachdem sie "überall" im Universum gültig seien. Der heliozentrische Fall des Sonnensystems ist aber der weitaus bedeutendste, daher sind sie in der Literatur häufig einschränkend nur für Planeten formuliert. Sie gelten natürlich auch für Monde, den Asteroidengürtel und die Oortsche Wolke, oder die Ringe des Jupiter und Saturn, für Sternhaufen wie auch für Objekte auf der Umlaufbahn um das Zentrum einer Galaxie, und für alle anderen Objekte im Weltall. Außerdem bilden sie die Basis der Raumfahrt und der Bahnen der Satelliten. In kosmischem Maßstab beginnen sich aber die relativistischen Effekte zunehmend auszuwirken, und die Differenzen zum Keplermodell dienen primär als Prüfkriterium für modernere Konzepte über Astrophysik. Die Formungsmechanismen in Spiralgalaxien etwa lassen sich mit einem rein auf den Keplerschen Gesetzen beruhenden Modell nicht mehr stimmig nachvollziehen. Herleitung und moderne Darstellung. Die Keplerschen Gesetze können elegant direkt aus der Newtonschen Theorie der Bewegungen abgeleitet werden. Das erste Gesetz folgt aus der Clairautschen Gleichung, die eine vollständige Lösung einer Bewegung in rotationssymmetrischen Kraftfeldern beschreibt. Das zweite Gesetz ist eine geometrische Deutung des Drehimpulssatzes. Mittels Integration, der Keplergleichung und der "Gaußschen Konstante" folgt das dritte Gesetz aus dem zweiten, oder mittels des "Hodographen" direkt aus den Newtonschen Gesetzen. Kepler versuchte mit seinen Gesetzen die Planetenbewegungen zu beschreiben. Aus den beobachteten Werten insbesondere der Mars-Bahn wusste er, dass er vom Ideal der Kreisbahnen abweichen musste. Anders als später Newton sind seine Gesetze daher empirisch und nicht von theoretischen Überlegungen abgeleitet. Aus heutiger Sicht können wir allerdings von der Kenntnis der Newtonschen Gravitation ausgehen und damit die Gültigkeit der Keplerschen Gesetze begründen. 1. Keplersches Gesetz (Ellipsensatz). Dieses Gesetz ergibt sich aus Newtons Gravitationsgesetz, sofern die Masse des Zentralkörpers wesentlich größer als die der Trabanten ist und die Wechselwirkung des Trabanten auf den Zentralkörper vernachlässigt werden kann. Die Energie für einen Trabanten mit Masse formula_1 im Newtonschen Gravitationsfeld der Sonne mit Masse formula_2 ist in Zylinderkoordinaten Mit Hilfe des Drehimpulses formula_4 und Diese Differentialgleichung wird mit der Polarkoordinatendarstellung eines Kegelschnittes verglichen. Dazu wird die Ableitung gebildet und alle Ausdrücke, die formula_9 enthalten, werden durch Einsetzen der zu durch Vergleich der Koeffizienten der Potenzen von "r". Zwei Körper kreisen um ihren gemeinsamen Schwerpunkt –hier idealisierte Kreisbahnen als Spezialform der Ellipse Legt man (anders als Kepler) kein zentralsymmetrisches Kraftfeld zugrunde, sondern wechselseitig wirkende Gravitation, so bilden sich ebenfalls Ellipsenbahnen. Es bewegen sich aber beide Körper, das Zentrum der Umlaufbahnen ist der gemeinsame Schwerpunkt von „Zentralkörper“ und Trabant, als fiktive Zentralmasse ist die Gesamtmasse des Systems anzunehmen. Der gemeinsame Schwerpunkt der Sonnensystemplaneten und der Sonne (das Baryzentrum des Sonnensystems) liegt jedoch noch innerhalb der Sonne: Die Sonne ruht nicht relativ dazu, sondern schwingt ein wenig unter dem Einfluss der umlaufenden Planeten (Länge der Sonne ≠ 0). Das Erde-Mond-System zeigt hingegen größere Schwankungen, was die Bahngeometrie betrifft, auch hier liegt der Systemschwerpunkt noch innerhalb der Erde. Satelliten reagieren sogar auf Schwankungen im durch die Erdgestalt unregelmäßigen Kraftfeld. Obwohl die Keplerschen Gesetze ursprünglich nur für die Gravitationskraft formuliert wurden, so gilt die Lösung oben auch für die Coulombkraft. Für einander abstoßende Ladungen ist das effektive Potential dann stets positiv und man erhält nur Hyperbelbahnen. Für formula_26-Kräfte gibt es noch eine Erhaltungsgröße, die für die Richtung der Ellipsenbahn entscheidend ist, den Runge-Lenz-Vektor, der entlang der Hauptachse zeigt. Kleine Änderungen im Kraftfeld (üblicherweise durch die Einflüsse der anderen Planeten) lassen diesen Vektor langsam seine Richtung ändern, wodurch z. B. die Periheldrehung der Merkur-Bahn erklärt werden kann. 2. Keplersches Gesetz (Flächensatz). Unter dem "Fahrstrahl" versteht man die Verbindungslinie zwischen dem Schwerpunkt eines Himmelskörpers, z. B. eines Planeten oder Mondes, und dem Gravizentrum, z. B. in erster Näherung der Sonne respektive des Planeten, um das er sich bewegt. Illustration zur Herleitung des Flächensatzes aus einem kleinen Zeitschritt Eine einfache Herleitung ergibt sich, wenn man die Flächen betrachtet, die der Fahrstrahl in einem kleinen Zeitabschnitt zurücklegt. In der Graphik rechts sei "Z" das Kraftzentrum. Der Trabant bewegt sich zunächst von "A" nach "B". Würde sich seine Geschwindigkeit nicht ändern, so würde er sich im nächsten Zeitschritt von "B" nach "C" bewegen. Es ist dabei schnell ersichtlich, dass die beiden Dreiecke "ZAB" und "ZBC" die gleiche Fläche beinhalten. Wirkt nun eine Kraft in Richtung "Z", so wird die Geschwindigkeit "v" um ein formula_27 abgelenkt, das parallel zur gemeinsamen Basis "ZB" der beiden Dreiecke ist. Statt bei "C" landet der Trabant also bei "C' ". Da die beiden Dreiecke "ZBC" und "ZBC' " dieselbe Basis und die gleiche Höhe haben, ist auch ihre Fläche gleich. Damit gilt der Flächensatz für die beiden kleinen Zeitabschnitte formula_28 und formula_29. Integriert man derartige kleine Zeitschritte (mit infinitesimalen Zeitschritten formula_30), so erhält man den Flächensatz. Die überstrichene Fläche ist für einen infinitesimalen Zeitschritt Da für eine Zentralkraft der Drehimpuls wegen konstant ist, ist das Flächenintegral somit gerade Für gleiche Zeitdifferenzen formula_34 ergibt sich also die gleiche überstrichene Fläche. Das 2. Keplersche Gesetz definiert also sowohl die geometrische Grundlage einer astrometrischen Bahn (als Bahn in einer Ebene), als auch deren Bahndynamik (das zeitliche Verhalten). Kepler formulierte das Gesetz nur für den Umlauf der Planeten um die Sonne, es gilt aber auch auf nicht geschlossenen Bahnen. Das 2. Keplersche Gesetz ist im Gegensatz zu den anderen beiden Gesetzen nicht auf die formula_26-Kraft der Gravitation beschränkt (tatsächlich ging Kepler mit seiner Anima motrix auch von einer formula_36-Kraft aus), sondern gilt allgemein für alle Zentralkräfte. Kepler war lediglich an einer Beschreibung der Planetenbahnen interessiert, doch ist das zweite Gesetz bereits die erste Formulierung des Gesetzes, das wir heute als Drehimpulserhaltung kennen. Das 2. Keplersche Gesetz kann als spezielle Formulierung des Drehimpulssatzes gesehen werden. Die "Konstanz des Bahnnormalenvektors" besagt, dass elementare Himmelsmechanik ein ebenes Problem ist. Tatsächlich ergeben sich auch hier Abweichungen durch die Volumina der Himmelskörper, sodass Masse außerhalb der Bahnebene liegt, und die Bahnebenen präzedieren (ihre Lage im Raum verändern). Daher liegen die Bahnen der Planeten nicht alle in einer Ebene (der idealen Sonnensystemebene, der Ekliptik), sie zeigen vielmehr eine Inklination und auch Periheldrehung, zudem schwankt auch die ekliptikale Breite der Sonne. Umgekehrt ist es verhältnismäßig leicht, einen Raumflugkörper in der Sonnensystemebene zu bewegen, aber enorm aufwändig, etwa eine Sonde über dem Nordpol der Sonne zu platzieren. Die "Konstanz der Flächengeschwindigkeit" besagt, dass von einer gedachten Verbindungslinie zwischen dem Zentralkörper, genauer dem Schwerpunkt der beiden Himmelskörper, und einem Trabanten in gleichen Zeiten stets die gleiche Fläche überstrichen wird. Ein Körper bewegt sich also schneller, wenn er sich nahe an seinem Schwerezentrum befindet und umso langsamer, je weiter er davon entfernt ist. Dies gilt beispielsweise für den Lauf der Erde um die Sonne wie auch für den Lauf des Mondes oder eines Satelliten um die Erde. Eine Bahn stellt sich als dauerndes freies Fallen, nahes Vorbeischwingen um den Schwerpunkt, und Wiederaufsteigen zum fernsten Kulminationspunkt der Bahn dar: Der Körper wird immer schneller, hat im Perizentrum (zentrumsnächsten Punkt) die höchste Geschwindigkeit und wird ab dann immer langsamer bis zum Apozentrum (zentrumsfernsten Punkt), von dem aus er wieder beschleunigt. So gesehen ist die Keplerellipse ein Spezialfall des schiefen Wurfs, der sich in seiner Bahn schließt. Diese Überlegung spielt in der Raumfahrtphysik eine zentrale Rolle, wo es darum geht, mit einem passend gewählten Anfangsimpuls (durch den Start) eine geeignete Umlaufbahn zu erzeugen: Je kreisförmiger die Bahn, desto gleichmäßiger die Umlaufgeschwindigkeit. 3. Keplersches Gesetz. Kepler verwendete für die Bahnachsen "a" die "mittlere Entfernung von der Sonne" (im Sinne des Mittels von Periheldistanz und Apheldistanz). wobei die Näherung gilt, wenn die Masse "m" vernachlässigbar klein im Vergleich zu "M" ist (etwa im Sonnensystem). Durch diese Form kann man etwa die Gesamtmasse von Doppelsternsystemen aus der Messung der Umlaufdauer und des Abstandes bestimmen. Offensichtlich gewinnt die Abweichung nur dann an Bedeutung, wenn beide Trabanten sich stark in ihren Massen unterscheiden und das Zentralobjekt eine Masse "M" hat, die von der eines der beiden Trabanten nicht stark abweicht. Das 3. Keplersche Gesetz gilt dabei für alle Kräfte, die quadratisch mit dem Abstand abnehmen, wie man auch leicht aus der Skalenbetrachtung herleiten kann. In der Gleichung taucht "r" in der dritten Potenz, und "t" quadratisch auf. Unter einer Skalentransformation formula_46 erhält man somit dieselbe Gleichung wenn formula_47 ist. Andererseits ist dadurch schnell erkennbar, dass das Analogon des 3. Keplerschen Gesetzes für geschlossene Bahnen in einem formula_48-Kraftfeld für beliebiges "k" gerade formula_49 lautet. Kichererbse. Die Kichererbse ("Cicer arietinum"), auch Echte Kicher, Römische Kicher, Venuskicher oder Felderbse genannt, ist eine Pflanzenart aus der Gattung Kichererbsen ("Cicer") in der Unterfamilie Schmetterlingsblütler ("Faboideae") innerhalb der Familie der Hülsenfrüchtler (Fabaceae). Mit der Erbse ("Pisum sativum") ist sie nicht näher verwandt. Sie ist eine alte Nutzpflanze. Beschreibung. Die Kichererbse in der Hülse Vegetative Merkmale. Die Kichererbse ist eine einjährige krautige Pflanze, die Wuchshöhen von bis zu 1 Meter erreicht. Die vierkantigen Stängel sind aufrecht bis liegend und mehr oder weniger verzweigt. Die wechselständigen Laubblätter sind unpaarig gefiedert und etwa 5 bis 10 mm groß. Die Nebenblätter sind in zwei bis fünf Spitzen gespalten. Generative Merkmale. Einzeln in den Blattachseln an einem langen, geknieten Stiel stehen die Blüten. Die zwittrigen Blüten sind zygomorph und fünfzählig, sowie 10 bis 12 mm groß mit doppelter Blütenhülle. Die fünf purpurroten, violetten, lilafarbenen oder weißen Kronblätter stehen in der typischen Form der Schmetterlingsblüten zusammen. Die mit etwa 3 cm relativ kurzen Hülsenfrüchte enthalten normalerweise zwei Samen. Die unregelmäßig geformten Samen sind von beiger, dunkler oder schwarzer Farbe. Die Samen können gegessen werden. Die Tausendkornmasse, veraltet das Tausendkorngewicht genannt, beträgt zwischen 110 und 380 g. Die Samen der Kichererbse können leicht mit denen der Saat-Platterbse ("Lathyrus sativus") verwechselt werden. Die Chromosomenzahl beträgt 2n = 14, 16 oder 32. Systematik. Die Erstveröffentlichung von "Cicer arietinum" erfolgte 1753 durch Carl von Linné in "Species Plantarum", 2, S. 738. Das Artepitheton "arietinum" bedeutet „widderartig“ und wurde angeblich gewählt, weil der Samen einem Widderkopf ähneln soll. Synonyme für "Cicer arietinum" sind: "Cicer album" hort., "Cicer arientinium", "Cicer arientinum", "Cicer edessanum", "Cicer grossum", "Cicer nigrum" hort., "Cicer physodes", "Cicer rotundum", "Cicer sativum", "Cicer sintenisii", "Ononis crotalarioides". "Cicer arietinum" gehört zur Serie "Cicer" aus der Sektion "Cicer" in der Untergattung "Cicer" innerhalb der Gattung "Kichererbsen". Vorkommen. Kichererbsen werden in vielen subtropischen Gebieten der Erde angebaut. Indien und Australien sind weltweit führend in der Produktion. Sorten der Kichererbse stellen geringe Ansprüche an den Boden und kommen mit wenig Wasser aus. In den gemäßigten Klimazonen sind die Erträge wegen mangelnder Wärme nur gering. Geschichte. Die Kichererbse stammt wahrscheinlich von der wild wachsenden "Cicer reticulatum" Lad. ab. 8000 Jahre alte Funde kultivierter Kichererbsen belegen ihren jungsteinzeitlichen Anbau in Kleinasien. Die Kichererbse wurde von dort in den Vorderen Orient, in den Mittelmeerraum und nach Indien verbreitet. In Griechenland gehören Hülsenfrüchte ab der Kupfersteinzeit zum festen Bestand der Nahrung. In Kleinasien wurden Kichererbsen in Karmir Blur, Yoncatepe und Bastam gefunden. Auch aus Troja VIIb und Gordion sind Kichererbsen bekannt. Seit dem klassischen Altertum wird die Kichererbse in Griechenland und Italien als Nutzpflanze angebaut. In Deutschland stammt der einzige Fund von Samen aus der Römerzeit. In der Landgüterordnung Karls des Großen ist die Kichererbse als ‚cicerum italicum‘ im Kapitel 70 aufgelistet. Hildegard von Bingen empfahl Kicher als leichte und angenehme Speise und als Mittel gegen Fieber. Albertus Magnus unterschied drei verschiedene Sorten: weiße, rote und schwarze oder dunkle Form. Hieronymus Bock erwähnte die Zysern (Bezeichnung in Kräuterbüchern des 16. Jh. für Kicher: Ziser oder Zisererbsen) nicht zum Gebrauch in der Küche, sondern vielmehr als Arznei. Nach dem Ersten Weltkrieg wurde in den Weinbergen am Rhein und in Württemberg die dunkelsamige Kichererbse geröstet als Kaffee-Ersatz gebraucht. Verwendung. Die Kichererbse wird im Wesentlichen zur Ernährung des Menschen angebaut. Hauptanbaugebiete der Kichererbse sind heute die Türkei, Nordafrika, Mexiko, Afghanistan, Indien, Pakistan und Spanien. In Mexiko und Indien sind Kichererbsen nach wie vor ein wichtiges Grundnahrungsmittel. In der Küche finden besonders zwei Sorten Anwendung: die kleinen, runzeligen Samen aus Indien und die größeren rundlichen, beige-gelben Samen aus dem Mittelmeerraum, die in Europa bekannter und verbreiteter sind. Man kann sie fertig gekocht in Dosen oder als getrocknete Samen kaufen (ähnlich wie bei grünen Erbsen). Die getrockneten Samen werden kalt eingeweicht (12 bis 24 Stunden und länger) und dann beispielsweise als Eintopf, Brühe oder Püree zubereitet. Im Vorderen Orient und in Nordafrika werden Kichererbsen unter anderem geröstet und wie Nüsse verzehrt. Aus gewürztem Kichererbsenbrei wird auch der im Nahen Osten und Nordafrika weitverbreitete Falafel hergestellt. In der orientalischen Küche ist eine Paste unter anderem aus Kichererbsen und Sesam, genannt "Hommos we Tahini" oder auch nur kurz "Hummus" (Schreibweise im lateinischen Alphabet variiert), sehr beliebt. Eine andere Zubereitung aus Kichererbsenmehl ist die italienische "Farinata", die auch in der französischen Stadt Nizza unter dem Namen "Socca" bekannt ist. Ferner kennt man in Spanien Speisen mit Kichererbsen (dort "Garbanzos"), zum Beispiel ist "Cocido madrileño" ein gekochtes Nationalgericht. Im Orient ist ein Gebäck aus vergorenen Samen als "Schimitt" bekannt. In der Türkei kennt man zweimal geröstete Samen unter der Bezeichnung "Leblebi", die wie Nüsse verzehrt werden, landesweit verbreitet ist auch ein Eintopf mit Fleisch. In der Provence wird ein Gebäck aus einer Mischung aus Kichererbsen- und Weizenmehl hergestellt. In Indien bereitet man aus jungen Kichererbsenpflanzen einen Salat oder verzehrt die gekochten Kichererbsen unter dem Namen "Chana Masala". Inhaltsstoffe. Rohe „Kichererbsen“ – korrekt wäre „Kichererbsensamen“ – enthalten den unverdaulichen Giftstoff Phasin, der durch Hitzeeinwirkung zersetzt wird. Kirchererbsen sollten daher nur gut durchgegart verzehrt werden. Kichererbsen enthalten rund 20 % Eiweiß mit einem relativ hohen Anteil der essentiellen Aminosäuren Lysin (10 %) und Threonin (5 %), 40 % Kohlenhydrate, etwa 12 % Ballaststoffe, Vitamin B1, B6 und Folsäure. Der Mineralstoffgehalt an Magnesium beträgt 0,13 %, an Eisen 60 ppm. Der Gehalt an Zink ist mit 14 ppm nur halb so hoch wie derjenige von Erdnüssen. 100 g getrocknete Kichererbsen enthalten 275 kcal beziehungsweise 1152 kJ Energie (Brennwert). 100 g verzehrbereite Kichererbsen enthalten etwa 80 kcal Energie. Wie alle Bohnenarten verwendet die Kichererbse unter anderem auch Raffinose als Speicherkohlenhydrat, wenngleich nur in relativ geringen Mengen von 290 mg pro 100 g Trockengewicht. Dieser Dreifach-Zucker kann vom Menschen nicht unmittelbar verstoffwechselt werden und gelangt so in den Dickdarm, wo er unter Einfluss der Darmbakterien unter Gasbildung abgebaut wird. Raffinose ist als Ballaststoff anzusehen. Weltproduktion. Indien ist Hauptlieferant von Kichererbsen, gefolgt von Australien und Pakistan. Krankheiten. Die wichtigsten Schädlinge im Kichererbsenanbau sind "Fusarium oxysporum", welcher die Fusarium-Welke auslöst, und "Didymella rabiei" (Syn.: "Ascochyta rabiei"). In manchen Ländern wie Mexiko, Italien und Australien ist auch der Kichererbsenrost ("Uromyces ciceris-arietini") bedeutend. Trivialnamen. Der lateinische Name der Pflanze lautet "cicer", daraus entstanden das althochdeutsche "kihhira" und schließlich das heutige "Kicher" → Kichererbse. Für die Kichererbse bestehen beziehungsweise bestanden auch die weiteren deutschsprachigen Trivialnamen: Chicher (althochdeutsch), Chicherri (althochdeutsch), Chichirra (althochdeutsch), Chichuria (althochdeutsch), Chichurra (althochdeutsch), Cicererbis, Cisa (althochdeutsch), Cyfer (althochdeutsch), Czycke (althochdeutsch), Garabanzen (Mark Brandenburg), Kecher (mittelhochdeutsch), Kechern (mittelhochdeutsch), Kechir (mittelhochdeutsch), Keichern (mittelhochdeutsch), Keicheren (mittelniederdeutsch), Kekeren (mittelniederdeutsch), Keyker (mittelniederdeutsch), Kicher (Sachsen), Kichern (althochdeutsch), Kicherkraut, Kircheren (mittelhochdeutsch), Kirchernkraut (mittelhochdeutsch), Kyechirn (mittelhochdeutsch), Seker (mittelhochdeutsch), Sekeren (mittelhochdeutsch), Sisern, Sperberköpfl (Steiermark), Ziseren (mittelhochdeutsch), Schwarz Zisern, Ziser-Erwedsen, Zysern (mittelhochdeutsch) und Zyssern (mittelhochdeutsch). Karl May. Karl Friedrich May (* 25. Februar 1842 in Ernstthal; † 30. März 1912 in Radebeul; eigentlich "Carl Friedrich May") war ein deutscher Schriftsteller. Karl May war einer der produktivsten Autoren von Abenteuerromanen. Er ist einer der meistgelesenen Schriftsteller deutscher Sprache und laut UNESCO einer der am häufigsten übersetzten deutschen Schriftsteller. Die weltweite Auflage seiner Werke wird auf 200 Millionen geschätzt, davon 100 Millionen in Deutschland. Bekannt wurde er vor allem durch seine sogenannten Reiseerzählungen, die vorwiegend im Orient, in den Vereinigten Staaten und im Mexiko des 19. Jahrhunderts angesiedelt sind. Besondere Berühmtheit erlangten die in drei Bänden zusammengefassten Geschichten um den Indianer Winnetou. Viele seiner Werke wurden verfilmt, für die Bühne adaptiert, zu Hörspielen verarbeitet oder als Comics umgesetzt. Jugend. Karl Mays Geburtshaus in Hohenstein-Ernstthal Karl May entstammte einer sehr armen Weberfamilie. Er war das fünfte von vierzehn Kindern, von denen neun bereits in ihren ersten Lebensmonaten starben. Nach Mays eigenen Angaben erblindete er als Kleinkind und konnte erst in seinem fünften Lebensjahr durch Carl Friedrich Haase geheilt werden. Diese frühkindliche Blindheit, für die es außer Mays eigenen Hinweisen keinerlei Belege gibt, wurde von der späteren Karl-May-Forschung mit verschiedenen Ursachen erklärt (u. a. mit Vitamin-A-Mangel), teilweise aber auch angezweifelt. Der ehrgeizige Vater Heinrich August May wollte seinem einzigen überlebenden Sohn Karl bessere Chancen verschaffen, als er selbst gehabt hatte; er zwang den Jungen, ganze Bücher abzuschreiben und trieb ihn zum Selbststudium wissenschaftlicher Werke. May wurde aber auch vom Ernstthaler Kantor Strauch besonders gefördert und erhielt privaten Musik- und Kompositionsunterricht. Sein erstes Geld verdiente er nach eigener Darstellung im Alter von zwölf Jahren als Kegeljunge. Die mitunter recht derben Gespräche der Kegler seien durch den wie ein Hörrohr wirkenden „Kegelschub“ auch am Ende der Bahn verständlich gewesen. Bei dieser Gelegenheit habe er auch die ersten Heimkehrer aus der Neuen Welt getroffen, die ihm von den Vereinigten Staaten erzählten. Kriminalität. Ab 1856 studierte May als Proseminarist am Lehrerseminar in Waldenburg. Dort wurde er im Januar 1860 wegen Unterschlagung von sechs Kerzen ausgeschlossen. Auf dem Gnadenweg wurde ihm ein Weiterstudium am Lehrerseminar Plauen ermöglicht. Nach seiner Abschlussprüfung im September 1861 war er zunächst kurz als Hilfslehrer an der Armenschule in Glauchau und dann ab Anfang November 1861 als Lehrer an der Fabrikschule der Firmen Solbrig und Clauß in Altchemnitz tätig. Seine Lehrerlaufbahn endete aber bereits nach wenigen Wochen, als die Anzeige eines Zimmergenossen wegen „widerrechtlicher Benutzung fremder Sachen“ – May hatte dessen Reserve-Taschenuhr zwar mit Erlaubnis im Unterricht benutzt, aber ohne Absprache mit in die Weihnachtsferien genommen – zu einer sechswöchigen Haftstrafe führte und May anschließend als Vorbestrafter aus der Liste der Lehramtskandidaten gestrichen wurde. In den beiden folgenden Jahren bemühte sich May, seinen Lebensunterhalt auf legale Weise zu verdienen: Er gab in seinem Heimatort Privatunterricht, komponierte und deklamierte. Existenzsichernd waren diese Beschäftigungen allerdings nicht, sodass er 1864 mit verschiedenen Gaunereien begann. In der Folge wurde er wegen Diebstahls, Betrugs und Hochstapelei steckbrieflich gesucht. Er hatte sich unter anderem auf dem Leipziger Brühl unter falschem Namen einen Pelzmantel erschlichen und diesen in einem Leihhaus für zehn Taler versetzen lassen. Dabei wurde er verhaftet und 1865 zu vier Jahren Arbeitshaus verurteilt, von denen er dreieinhalb Jahre im Arbeitshaus Schloss Osterstein in Zwickau verbüßte. Aufgrund guter Führung wurde er „besonderer Schreiber“ des Gefängnisinspektors Alexander Krell, dem er für Fachaufsätze zuarbeitete. Für seine eigene geplante Schriftstellerkarriere legte er in dieser Zeit eine Liste mit über hundert Titeln und Sujets an ("Repertorium C. May"), von denen er einige nachweislich umsetzte. Nach seiner Freilassung scheiterten allerdings erneut alle Versuche Mays, eine bürgerliche Existenz aufzubauen, und er nahm die Betrügereien und Diebstähle wieder auf. Oftmals stand die Beute in keinem Verhältnis zum Aufwand. Nach einer ersten Festnahme im Juli 1869 gelang ihm die Flucht während eines Gefangenentransports. Im Januar 1870 wurde er schließlich im böhmischen Niederalgersdorf wegen Landstreicherei festgenommen. Auf dem Polizeirevier nannte er sich Albin Wadenbach, behauptete, er komme von der Insel Martinique, sei der Sohn eines reichen Plantagenbesitzers und habe seine Personalpapiere auf seiner Reise nach Europa verloren. Erst nach einer mehrwöchigen Identitätsfeststellung wurde er als der gesuchte Kleinkriminelle Karl May erkannt und nach Sachsen überstellt. Von 1870 bis 1874 saß er im Zuchthaus Waldheim ein. Für seine innere Wandlung, von der May über diese Zeit berichtet, machte er besonders den Anstaltskatecheten Johannes Kochta verantwortlich. Eine schriftstellerische Betätigung – wie von May später behauptet – war in Waldheim nicht möglich. Schriftstellerei. Nachdem May 1874 aus dem Zuchthaus entlassen worden war, kehrte er zu seinen Eltern nach Ernstthal zurück und begann zu schreiben. 1874 oder 1875 wurde zum ersten Mal eine Erzählung von May ("Die Rose von Ernstthal") veröffentlicht. Dabei kam ihm der Umstand zugute, dass sich in Deutschland die Zeitungslandschaft im Umbruch befand. Die Industrialisierung, die wachsende Alphabetisierung und die Gewerbefreiheit sorgten für zahlreiche Neugründungen im Verlagswesen, besonders im Bereich der Unterhaltungsblätter. Bereits in der Zeit zwischen seinen beiden längeren Haftstrafen hatte May nach eigenen Angaben Kontakt zu dem Dresdner Verleger Heinrich Gotthold Münchmeyer aufgenommen. Nun stellte dieser ihn als Redakteur in seinem Verlag ein, wo er unter anderem die Zeitschriften Der Beobachter an der Elbe und Schacht und Hütte herausgab. Damit war Mays Lebensunterhalt erstmals gesichert. Er betreute verschiedene Unterhaltungsblätter und verfasste oder bearbeitete mit und ohne Namensnennung zahlreiche Beiträge. 1876 kündigte May, da man versuchte, ihn durch Heirat mit Münchmeyers Schwägerin dauerhaft an die Firma zu binden, und der Verlag einen schlechten Ruf hatte. Nach einer weiteren Anstellung als Redakteur beim Dresdner Verlag von Bruno Radelli wurde May ab 1878 freier Schriftsteller und zog mit seiner Freundin Emma Pollmer nach Dresden. Allerdings erbrachten seine Veröffentlichungen noch kein regelmäßiges Einkommen; aus dieser Zeit sind auch Mietrückstände und andere Schulden Mays belegt. Fünf Jahre nach seiner Entlassung aus dem Zuchthaus wurde May 1879 in Stollberg wegen angeblicher Amtsanmaßung zu drei Wochen Arrest verurteilt: Ein Jahr vor seiner Heirat mit Emma Pollmer hatte er die Todesumstände ihres trunksüchtigen Onkels untersuchen wollen und sich deswegen als Beamter ausgegeben. Erst später konnte man nachweisen, dass dies ein Fehlurteil gewesen war, weil er keine Amtshandlung vorgenommen hatte. 1879 erhielt er vom "Deutschen Hausschatz", einer katholischen Wochenzeitung aus Regensburg, das Angebot, seine Erzählungen zuerst dort anzubieten: 1880 begann May mit dem Orientzyklus, den er, mit Unterbrechungen, bis 1888 fortsetzte. Parallel schrieb er noch für andere Zeitschriften und verwendete dabei verschiedene Pseudonyme und Titel, um sich seine Texte mehrfach honorieren zu lassen. So wurden bis zu seinem Tode über hundert Erzählungen in Fortsetzungen in diversen Zeitschriften veröffentlicht, darunter neben dem für Mays Karriere bedeutenden "Deutschen Hausschatz" (F. Pustet, Regensburg) auch "Der Gute Kamerad" (W. Spemann, Stuttgart bzw. Union Deutsche Verlagsgesellschaft). 1882 kam es zu einem erneuten Kontakt mit H. G. Münchmeyer, und May begann die Arbeit am ersten der fünf großen Kolportageromane für seinen früheren Arbeitgeber. "Das Waldröschen" wurde bis 1907 hunderttausendfach nachgedruckt. Dass May mit seinem alten Freund Münchmeyer nur einen mündlichen Vertrag schloss, sorgte später für anhaltende Rechtsstreitigkeiten. Im Oktober 1888 zog May nach Kötzschenbroda, 1891 nach Oberlößnitz in die Villa Agnes. Der entscheidende Durchbruch kam für May mit dem Kontakt zu Friedrich Ernst Fehsenfeld. Der Jungverleger kontaktierte May 1891 und bot ihm an, die Hausschatz-Erzählungen in Buchform herauszubringen. Mit dem Erfolg der 1892 begonnenen Reihe "Carl May’s Gesammelte Reiseromane" (ab 1896 "Karl May’s Gesammelte Reiseerzählungen") gewann May erstmals finanzielle Sicherheit und Ruhm. Allerdings wusste er bald nicht mehr zwischen Realität und Fiktion zu unterscheiden und verstieg sich mehr und mehr in die „Old-Shatterhand-Legende“. Er behauptete nicht nur, selbst Old Shatterhand zu sein und die Inhalte der Erzählungen tatsächlich erlebt zu haben, sondern ließ von einem Kötzschenbrodaer Büchsenmacher sogar die legendären Gewehre seiner Romanhelden für sich anfertigen: zunächst den „Bärentöter“ und die „Silberbüchse“, später auch den „Henrystutzen“. Seine Verleger und Redakteure unterstützten die Legende, indem sie u. a. Leserbriefe entsprechend beantworteten. Mays Leser, die der Gleichsetzung von Autor und Protagonist bereitwillig folgten, richteten in der Folge unzählige Briefe direkt an ihn, die er auch großteils persönlich beantwortete. Mehrere Leserreisen und Vorträge folgten. Ab 1896 ließ er sich im „Allgemeinen deutschen Litteratur-Kalender“ von Joseph Kürschner als Übersetzer aus dem Arabischen, Türkischen, Persischen, Kurdischen und verschiedenen Indianerdialekten, später auch aus dem Chinesischen anführen. Im Juli 1897 lieferte er seinen späteren Gegnern weitere Angriffspunkte, indem er vor zahlreichen Zuhörern allen Ernstes erklärte, er beherrsche 1200 Sprachen und Dialekte und sei als Nachfolger Winnetous der Befehlshaber über 35.000 Apachen. Personen, die seine Behauptungen hätten widerlegen können, ging May aus dem Weg. Seit etwa 1875 führte Karl May einen Doktorgrad, ohne je promoviert oder auch nur eine Universität besucht zu haben. Dieser Grad wurde auch in Autorenverzeichnisse und ab 1888 sogar im Kötzschenbrodaer Melderegister aufgenommen. 1898 fehlte plötzlich der Doktorgrad im „Adreßbuch für Dresden und seine Vororte“; May bat um Korrektur und wurde mit der Frage nach einem Nachweis konfrontiert. Er erklärte, die Universität Rouen hätte ihm den Grad verliehen. Außerdem hätte er eine wenigstens gleichwertige chinesische Würde. Dennoch wurde ihm das Führen des Grads untersagt. May ließ die Sache mit dem Adressbuch auf sich beruhen, führte privat aber den Titel weiter. Im Herbst 1902 kümmerte sich vermutlich seine spätere Ehefrau Klara Plöhn wieder um die Angelegenheit, und May erhielt eine aufwendig gestaltete Urkunde – datiert vom 9. Dezember 1902 – über eine Ehrendoktorwürde der Deutsch-Amerikanischen Universität in Chicago für das Werk "Im Reiche des silbernen Löwen". Am 14. März 1903 beantragte May, da er wieder heiraten wollte, die (beschleunigte) Prüfung und lobte die ausstellende Hochschule, sie ziehe „aus Deutschland Lehrkräfte allerersten Ranges“ an. Schon vier Tage später wurde nach Prüfung die Führung eines Doktorgrads aufgrund dieser Urkunde abgelehnt, denn es handelte sich – wie May wenig später selbst recherchierte – bei der angeblichen Universität nur um eine Titelmühle. Damit war der Titel wertlos. May verteidigte 1904 seinen Doktorgrad in den "Offenen Briefen an den „Dresdner Anzeiger“" zwar noch, gab das Führen aber dann auf. Plagiate. 1910 publizierte der Benediktiner-Pater und Literaturwissenschaftler Ansgar Pöllmann im zweiten Februarheft der Halbmonatsschrift für schöne Literatur "Über den Wassern" einen seiner gegen May gerichteten Artikel mit dem Titel "Ein literarischer Dieb", bei dem er einige (geografische) Quellen Mays identifizierte. Gegen ihn und den Herausgeber Expeditus Schmidt ging May deswegen gerichtlich vor. Die Hinweise wurden aufgegriffen und May mit dem Vorwurf der Aneignung fremden geistigen Eigentums konfrontiert. Ihm wurde nachgewiesen, dass seine Erzählung "Die Rache des Ehri", die erstmals 1878 unter dem Pseudonym Emma Pollmer, dem Namen seiner ersten Ehefrau, in der Zeitschrift "Frohe Stunden" erschien, weitgehend mit der 1868 veröffentlichten Erzählung "Das Mädchen von Eimeo" von Friedrich Gerstäcker (1816–1872) identisch ist. Darüber hinaus gibt es zahlreiche weitere Übereinstimmungen mit dem Werk Gerstäckers, wie auch mit Werken von Gustave Aimard, Gabriel Ferry, Charles Sealsfield und anderen. Allerdings arbeitete Karl May vorwiegend wissenschaftliche Quellen in sein Werk ein, z. B. ganze Absätze aus Lexika und Reiseberichten. Übernahmen aus literarischen Werken sind selten. Reisen. In den nächsten Jahren unternahm er Vortragsreisen durch Deutschland und Österreich, ließ Autogrammkarten drucken und sich mit verkleideten Besuchern fotografieren. Im Dezember 1895 erfolgte der Umzug in die von den Gebrüdern Ziller erworbene Villa Shatterhand in Alt-Radebeul, die heute das Karl-May-Museum beherbergt. In den Jahren 1899 und 1900 bereiste Karl May erstmals tatsächlich den Orient. Im ersten Teil der Reise war er fast ein dreiviertel Jahr allein unterwegs (nur begleitet von seinem Diener Sejd Hassan) und gelangte bis nach Sumatra. Im Dezember 1899 traf er mit seiner Frau und dem befreundeten Ehepaar Plöhn zusammen. Sie setzten die Reise zu viert fort und kehrten im Juli 1900 nach Radebeul zurück. Während dieser anderthalb Jahre führte Karl May ein Reisetagebuch, das nur in Bruchstücken und Teilabschriften erhalten ist. Mays zweite Frau Klara überlieferte, dass er unterwegs zweimal einen Nervenzusammenbruch erlitten habe (). Der Zustand soll beide Male etwa eine Woche angehalten haben und war – so vermuten Hans Wollschläger und Ekkehard Bartsch – zuzuschreiben. May überwand die Krisen ohne die Hilfe eines Arztes. May mit seiner zweiten Ehefrau Klara im Jahr 1904 Parallel zu seiner Orientreise begannen ab 1899 heftige Angriffe auf May in der Presse, insbesondere betrieben von Hermann Cardauns und Rudolf Lebius. Sie kritisierten aus unterschiedlichen Beweggründen Mays Selbstreklame und die damit verbundene Old-Shatterhand-Legende. Gleichzeitig wurden ihm religiöse Heuchelei (er schrieb als Protestant Marienkalendergeschichten) und Unsittlichkeit, später auch seine Vorstrafen vorgehalten. Diese Vorwürfe und diverse Gerichtsverfahren wegen unerlaubter Buchveröffentlichungen begleiteten ihn bis zu seinem Tod. Seine erste Ehe wurde 1903 auf Mays Wunsch geschieden. Emma May, die mit H. G. Münchmeyers Witwe Pauline befreundet war, hatte nach Mays Angaben Unterlagen verbrannt, die Mays mündlich mit Münchmeyer geschlossenen Verlagsvertrag hätten belegen können, sodass dieser Rechtsstreit nicht zu seinen Lebzeiten zugunsten Mays entschieden werden konnte. Noch im Jahr seiner Scheidung, am 30. März 1903, heiratete May Klara Plöhn, die inzwischen verwitwet war. 1908 unternahm Karl May mit seiner Frau eine sechswöchige Amerikareise. Sie besuchten unter anderem Albany, Buffalo und die Niagarafälle und Freunde in Lawrence. Auch auf dieser Reise wurde May mit der Wirklichkeit konfrontiert, bei seinem Aufenthalt in der Stadt New York wollte er keinesfalls fotografiert werden. Diese Reise diente May als Inspiration für sein Buch Winnetou IV. Letzte Jahre. Nach seiner Orientreise hatte May begonnen, literarischer zu schreiben. Sein bisheriges Werk nannte er nachträglich eine bloße „Vorbereitung“. Jetzt begann er, komplexe allegorische Texte zu verfassen. Er war der Überzeugung, die „Menschheitsfragen“ (Wer sind wir? Woher kommen wir? Wohin gehen wir?) diskutieren oder gar lösen zu müssen, wandte sich bewusst dem Pazifismus zu und widmete dem Bestreben, den Menschen vom „Bösen“ zum „Guten“ zu erheben, mehrere Bücher. Die Künstlerfreundschaft zu Sascha Schneider führte zu neuen symbolistischen Deckelbildern für die Fehsenfeld-Ausgabe. Jubelnde Anerkennung erlebte May am 22. März 1912, als er auf Einladung des Akademischen Verbandes für Literatur und Musik in Wien den pazifistischen Vortrag "Empor ins Reich der Edelmenschen" hielt. Dabei kam es auch zum Zusammentreffen mit der befreundeten Friedensnobelpreisträgerin Bertha von Suttner, die nach Mays Tod am 5. April in der Zeit den Nachruf "Einige Worte über Karl May" veröffentlichte. Am 30. März 1912, nur eine Woche nach seiner Wiener Rede, starb Karl May. Todesursache war laut Bestattungsbuch „Herzparalyse, acute Bronchitis, Asthma“. Heute wird ein (unerkannter) Lungenkrebs nicht ausgeschlossen. May wurde auf dem Friedhof Radebeul-Ost im sogenannten May-Grabmal beigesetzt. Künstlerisches Schaffen. Karl May war, insbesondere mit seinen Kolportageromanen, einer der erfolgreichsten Trivialliteratur-Autoren des 19. Jahrhunderts in Deutschland. Seine Abenteuerromane und Jugenderzählungen wurden in mehr als 33 Sprachen übersetzt und erreichten eine Gesamtauflage von über 200 Millionen. Sie schildern Reisen zu exotischen Schauplätzen, wie in den Wilden Westen und den Vorderen Orient. Dabei wendet er sich von einem christlichen Standpunkt dem Schicksal der unterdrückten Völker zu. Karl May als Old Shatterhand, 1896 In den Texten lässt sich eine Entwicklung seiner Erzählerfigur feststellen: vom namenlosen Ich, das nur Zuschauer und Berichterstatter ist ("Der Gitano", 1875), über ein Zunehmen heroischer Fähigkeiten bis hin zu den völlig ausgestalteten Ich-Erzähler-Helden Old Shatterhand und Kara Ben Nemsi. Einige seiner Erzählerhelden bleiben ohne Kriegsnamen und werden nur von Freunden und Gefährten (englischer Muttersprache) „Charley“ genannt. Nachdem Ausrüstung und Können (z. B. der Jagdhieb) für alle Ich-Erzähler-Helden schon lange dieselben geworden waren, ging May in "Satan und Ischariot" (Zeitschriftversion 1893–1896) dazu über, die Ich-Erzähler im Wilden Westen, im Vorderen Orient und in Deutschland mit den jeweils in diesen Regionen gebräuchlichen (Kriegs-)Namen auftreten zu lassen. So identifizierte er die drei Figuren Old Shatterhand, Kara Ben Nemsi und Charley mit einem gewissen Dr. Karl May in Dresden. Von hier war es nur ein kleiner Schritt zur Entstehung der sogenannten Old-Shatterhand-Legende (vgl. oben unter "Schriftstellerei"). Selten hat ein Autor die von der Literaturtheorie postulierte Grenze zwischen Ich-Erzähler und realem Autoren-Ich ausdrücklicher zu verwischen versucht. Karl May wurde in diesem Zusammenhang Hochstapelei und Pseudologie (zwanghaftes Lügen) vorgeworfen. Der Biograf Helmut Schmiedt spricht in diesem Zusammenhang von einer der „aberwitzigsten Episoden in der Geschichte der deutschen Literatur: Es stellt sich die Frage, warum ihr Urheber sie erfunden und mit solch existenziellem Elan ausgelebt hat.“ Später räumte May ein, sowohl die Old-Shatterhand-Legende als auch alle seine Werke seien lediglich symbolisch aufzufassen. Obwohl sich May sehr bewusst von den ethnologischen Vorurteilen seiner Zeit absetzen wollte und gegen die öffentliche Meinung anschrieb ("Winnetou", "Durchs wilde Kurdistan", "Und Friede auf Erden!"), treten in seinen Werken doch heute als „rassistisch“ angesehene Formulierungen auf, die den Paradigmen seiner Zeit unterlagen. Beispielsweise gibt es einige pauschal abwertende Aussagen über Iren, Juden, Armenier, Chinesen, Schwarze, Mestizen und Beduinen. Andererseits werden Chinesen oder Mestizen in seinen Romanen teilweise als positive Figuren dargestellt, die als Ausnahmecharaktere den gängigen Klischees widersprechen. Vom Nationalismus und auch Rassismus, die das wilhelminische Deutschland seiner Zeit prägten, blieb jedoch auch May nicht unbeeinflusst. Buchausgabe von "Ardistan und Dschinnistan" Mays bekannteste Figur Winnetou, Häuptling der Mescalero-Apachen, verkörpert den tapferen und edlen Indianer, der mit seiner „Silberbüchse“ und seinem Pferd "Iltschi" für Gerechtigkeit und Frieden kämpft. Dabei wird er meist von seinem weißen Freund und Blutsbruder Old Shatterhand begleitet, aus dessen Erzählperspektive die Geschichten um Winnetou oft verfasst sind. Das erfolgreichste und bekannteste Buch Karl Mays ist "Der Schatz im Silbersee", das bereits zweimal verfilmt wurde: erstmals 1962 als Realfilm unter dem Titel "Der Schatz im Silbersee" mit Lex Barker als Old Shatterhand und Pierre Brice als Winnetou und 1990 als DEFA-Puppentrickfilm unter dem Titel "Die Spur führt zum Silbersee". In dem erstmals 1890–1891 als Fortsetzungsgeschichte in der Zeitschrift "Der gute Kamerad" veröffentlichten Jugendroman, dessen Buchausgabe 1894 erschien, schildert Karl May die Reise einer Gruppe von Trappern zu dem in den Rocky Mountains gelegenen Silbersee sowie die Verfolgung einer Gruppe Schurken unter ihrem Anführer Cornel Brinkley, wegen seiner Haarfarbe auch „der rote Cornel“ genannt. Der Roman hat mehrere simultane Handlungsstränge, die sich schließlich am titelgebenden Silbersee verknüpfen und wieder auflösen. In seinem Spätwerk, dessen Wichtigkeit May selbst immer wieder betonte, löste May sich von der Abenteuerschriftstellerei und schrieb symbolische Romane mit weltanschaulich-religiösem Inhalt und pazifistischer Tendenz. Von späteren Lesern wurden einige dominierende Stilmerkmale dieser Romane als dem Surrealismus nahestehend empfunden. Die späten Werke "Ardistan und Dschinnistan" (1909), "Und Friede auf Erden" (1904) sowie "Winnetou IV" (1910) gelten als seine literarisch bedeutendsten Werke, wenngleich es auch nicht an kritischen Stimmen fehlt, die in jenen Texten eine Verirrung sehen. Großen Einfluss im Zusammenhang mit dieser letzten literarischen Entwicklungsstufe hatte die Freundschaft mit dem Jugendstilmaler und Bildhauer Sascha Schneider. In ihm sah May einen „deutschen Michel Angelo“ und den geeigneten Illustrator seiner Bücher. Schneider schuf neben einer Serie von Buchdeckelillustrationen auch ein großes Wandgemälde ("Der Chodem") für den Empfangssalon des Schriftstellers in dessen Villa in Radebeul. Werke. May schrieb seine Erzählungen und Romane auch unter mehreren Pseudonymen, unter anderem: Capitain Ramon Diaz de la Escosura, M. Gisela, Hobble-Frank, Karl Hohenthal, D. Jam, Prinz Muhamêl Lautréaumont, Ernst von Linden, P. van der Löwen, Emma Pollmer und Richard Plöhn. Die meisten der pseudonym oder anonym erschienenen Texte sind inzwischen eindeutig zugeordnet. Frühwerk. In seinem Frühwerk hat sich Karl May an verschiedenen Richtungen der Unterhaltungsliteratur versucht, bis er seine Profession als Autor von Reiseerzählungen fand. Während seiner beiden Redakteurstätigkeiten hat er viele Beiträge in den von ihm betreuten Blättern untergebracht. Die letzten Texte, die zum Frühwerk gezählt werden, erschienen 1883. Viele Werke gehören mehreren Gruppen zugleich an; z. B. verfasste May historische Erzählungen als Militärhumoresken und versah seine Erzgebirgischen Dorfgeschichten mit dem kriminalistischen Schema. Besonders in den frühen Erzählungen benutzte May heimatliche Handlungsorte, wählte aber auch exotische Schauplätze. Mays erste außereuropäische Erzählung, "Inn-nu-woh, der Indianerhäuptling", enthält bereits einen Vorläufer der Winnetou-Figur. "Im fernen Westen" und "Der Waldläufer" sind die ersten belegten Buchausgaben von May-Texten. Später erschienen einige der kürzeren Erzählungen in Anthologien, z. B. in "Der Karawanenwürger und andere Erzählungen" (1894), "Humoresken und Erzählungen" (1902) und "Erzgebirgische Dorfgeschichten" (1903). Ebenfalls zum Frühwerk gehören naturphilosophische Betrachtungen und populärwissenschaftliche Texte über Geschichte und Technik (z. B. "Schätze und Schatzgräber", 1875), Gedichte (z. B. "Meine einstige Grabinschrift", 1872) sowie Leserbriefantworten und Rätsel in den von ihm betreuten Blättern. Kolportageromane. Buchausgabe des Fischer Verlages von 1902 Fünf mehrere tausend Seiten starke Kolportageromane schrieb May für H.G. Münchmeyer. Diese erschienen – hauptsächlich pseudonym oder anonym – zwischen 1882 und 1888. Von 1900 bis 1906 publizierte Münchmeyers Nachfolger Adalbert Fischer die ersten Buchausgaben, wobei die Romane auf mehrere Bände mit unterschiedlichen Titeln aufgeteilt wurden. (Auch bei späteren Ausgaben sind die einzelnen Titel von Verlag zu Verlag unterschiedlich.) Diese Ausgabe wurde von dritter Hand bearbeitet und erschien nicht unter Pseudonym, sondern unter Mays echtem Namen. Sie war nicht von May autorisiert, und er wehrte sich nachdrücklich gegen die Veröffentlichung. Reiseerzählungen. Gesammelte Reiseerzählungen, Band 23 von 1897 Unter dem Titel "Carl May’s Gesammelte Reiseromane" bzw. später "Karl May’s Gesammelte Reiseerzählungen" erschienen von 1892 bis 1910 33 Bände im Verlag Friedrich Ernst Fehsenfeld. Zu den bekanntesten Titeln dieser Reihe gehören der Orientzyklus (Band 1–6) und die Winnetou-Trilogie (7–9). Die meisten Erzählungen waren vorher im "Deutschen Hausschatz" oder anderen Zeitschriften erschienen; einige Bände schrieb May direkt für diese Reihe (z. B. "Winnetou I", "Old Surehand I & III"). Eine verlässliche Reihenfolge dieser Publikationen kann nicht endgültig festgelegt werden, was einerseits mit der (schlecht redigierten) Übernahme älterer Texte in die Buchausgaben, andererseits mit der Tatsache zu erklären ist, dass sich May selbst ständig in chronologische Widersprüche verwickelt hat. Es gibt noch einige weitere kurze Reiseerzählungen, die nicht in dieser Reihe erschienen sind. Auf dieser Edition beruht die Reihe "Karl May’s Illustrierte Reiseerzählungen" (ab 1907), die von Karl May selbst nochmals überarbeitet wurde und als Ausgabe letzter Hand gilt. Sie enthält allerdings nur die ersten 30 Bände in teilweise anderer Nummerierung. Nach der Gründung des Karl-May-Verlages 1913 wurden innerhalb der neuen Reihe „Karl May’s Gesammelte Werke“ viele Bände – teilweise einschneidend – überarbeitet und mit neuen Titel versehen. Außerdem wurden Werke, die in anderen Verlagen erschienen waren, nun den Gesammelten Werken des Fehsenfeld-Verlags angeschlossen (ab Band 35). Jugenderzählungen. Die Jugenderzählungen entstanden in der Zeit von 1887 bis 1897 für die Zeitschrift "Der Gute Kamerad". Sie wurden von Karl May eigens für jugendliche Leser geschrieben. Die meisten spielen im Wilden Westen. Old Shatterhand ist hier im Unterschied zu den Reiseerzählungen nicht der Ich-Erzähler. Die berühmteste Erzählung ist "Der Schatz im Silbersee". Im weiteren Sinn sind auch die beiden Frühwerke "Im fernen Westen" und "Der Waldläufer" zu den Jugenderzählungen zu rechnen. Zwischen 1890 und 1899 erschien bei der Union Deutsche Verlagsgesellschaft eine illustrierte Buchausgabe. Parallel zu diesen Hauptwerken publizierte May anonym oder pseudonym kürzere Erzählungen im "Guten Kameraden" von 1887 bis 1891. Die meisten entstanden als Illustrationstexte. Andere gehören zu einer Reihe an Beiträgen unter dem Pseudonym „Hobble-Frank“, eine beliebte Figur aus den Wild West-Jugenderzählungen. Auch wurden einige seiner Leserbriefantworten dort veröffentlicht. Spätwerk. Zum Spätwerk gehören jene Werke, die nach Mays Orientreise ab 1900 erschienen. Viele von ihnen wurden ebenfalls im Verlag von F. E. Fehsenfeld publiziert. Innerhalb der "Gesammelten Reiseerzählungen" gehören die Bände 28–33 dazu. Weiterhin gehören zum Spätwerk kürzere Erzählungen (z. B. "Schamah", 1907), Essays (z. B. "Briefe über Kunst", 1906/07) und verschiedene Prozess- und Verteidigungsschriften (z. B. "„Karl May als Erzieher“ und „Die Wahrheit über Karl May“ oder Die Gegner Karl Mays in ihrem eigenen Lichte", 1902). Sonstige Werke. Karl May schrieb auch einige Kompositionen, besonders während seiner Mitgliedschaft im Gesangverein „Lyra“ um 1864. Bekannt ist seine Version von "Ave Maria" (zusammen mit "Vergiss mich nicht" in "Ernste Klänge", 1899). Nach Mays Tod erfolgten Veröffentlichungen aus seinem Nachlass: Fragmente von Erzählungen und Dramen, Gedichte (z. B. die Sammlung "Eine Pilgerreise in das Morgenland" von 1899), Kompositionen, sein Bibliotheksverzeichnis und vor allem Briefe. Werkausgaben. Der Karl-May-Verlag gibt seit 1913 "Karl May’s Gesammelte Reiseerzählungen" heraus. Zudem erwarb er die Rechte an anderswo verlegten Werken (u. a. die Jugenderzählungen und Kolportageschriften). Überarbeitungen dieser Texte wurden an die ursprüngliche Reihe angehängt und zu den "Gesammelten Werken (und Briefen)" ausgebaut, wobei auch die ursprünglichen 33 Bände einschneidende Bearbeitungen erfuhren. Bis 1945 wuchs die Reihe auf 65 Bände an. Der Verlag verlegt bis heute nahezu ausschließlich die Werke Karl Mays sowie Sekundärmaterialien. Neben den "Gesammelten Werken" (den klassischen „Grünen Bänden“), die auf 94 Bände angewachsen sind, gibt er auch ein umfangreiches Reprintprogramm heraus. Da die rechtliche Schutzfrist für Mays Werke im Jahr 1963 verfiel, werden sie seither auch von anderen Verlagen veröffentlicht. Der Karl-May-Verlag hat jedoch lange Zeit mit allen juristischen Mitteln versucht, seine dominierende Stellung gegenüber allen Konkurrenten zu bewahren. Zugute kam ihm dabei, dass zwar die Rechte an den Originaltexten frei wurden, die Bearbeitungen aber noch schutzwürdig waren – eine Tatsache, die von vielen konkurrierenden Verlagen – oft aus Unkenntnis – nicht beachtet wurde. Seit 1987 erscheint die auf 120 Bände ausgelegte historisch-kritische Ausgabe "Karl Mays Werke", die ursprünglich von Hermann Wiedenroth (bis 1998 gemeinsam mit Hans Wollschläger) herausgegeben wurde. Diese philologisch zuverlässige Ausgabe bemüht sich um den Abdruck des authentischen Wortlauts in den Erstausgaben und, wo möglich, auch in den Autorhandschriften und gibt Auskunft über die Textgeschichte. Sie war von – letzten Endes vergeblichen – Bemühungen des Karl-May-Verlages begleitet, den Konkurrenten mit juristischen Mitteln zu behindern und ihm die Kritik an den "Gesammelten Werken" zu verbieten. Nach jahrelangen Auseinandersetzungen und mehrmaligen Verlagswechseln erscheint die historisch-kritische Ausgabe seit 2008 im Karl-May-Verlag, wobei die Karl-May-Gesellschaft für die Texterstellung und die Karl-May-Stiftung (mit dem Karl-May-Museum) für den Vertrieb verantwortlich sind. Der Weltbild-Verlag hat eine illustrierte Ausgabe in 92 Bänden veröffentlicht, die als die beste verfügbare, annähernd vollständige Ausgabe gilt. Weitere umfangreiche Editionen gab es von Bertelsmann (Lesering; 30 Bände, stark bearbeiteter Text; Auswahl), Verlag Manfred Pawlak (74 Bände; unbearbeitet, aber unvollständig) und Verlag Neues Leben (66 Bände; orthografisch modernisierter Originaltext; Edition durch Verlagsinsolvenz abgebrochen). Die Karl-May-Gesellschaft veröffentlicht eine Reprint-Reihe, die vornehmlich Karl Mays Zeitschriften-Veröffentlichungen wieder zugänglich macht. Eine digitale Volltext-Ausgabe der Directmedia Publishing liegt seit 2004 vor. Sie gibt unter anderem auch das geplante Textkorpus der historisch-kritischen Ausgabe z. B. der Abteilungen Frühwerk, Fortsetzungsromane, Erzählungen für die Jugend u. a. wieder und enthält auch das sogenannte Leseralbum sowie autobiografische Schriften. Rezeption. „Bei Lichte betrachtet“, so der Literaturwissenschaftler Helmut Schmiedt, „erschreibt und inszeniert sich hier ein Mensch, der aus jämmerlichen Verhältnissen stammt und dem im Leben zunächst vieles danebengegangen ist, eine Traumexistenz, mit der alles zum Besseren hin korrigiert wird.“ – Für den Schriftsteller und Literaturkritiker Hans Wollschläger ist Karl May nicht so sehr als Jugendschriftsteller, sondern vielmehr erst in seinem Alterswerk interessant, so zum Beispiel in "Ardistan und Dschinnistan", wo er schonungslos und virtuos mit seinen Feinden abrechne. In dieser symbolischen Spätphase habe Karl May die literarische Hochebene erreicht. Breitenwirkung. Karl May zählt seit mehr als 100 Jahren zu den meistgelesenen Schriftstellern der Welt. Sein Werk wurde in mehr als vierzig Sprachen übersetzt. Die Weltauflage liegt bei mehr als 200 Millionen Bänden (davon ca. 100 Millionen in Deutschland). Große Popularität haben seine Bücher noch heute vor allem in Tschechien, Ungarn, Bulgarien, den Niederlanden, Mexiko und sogar Indonesien. In Frankreich, Großbritannien und den USA ist er beinahe unbekannt. Die erste Übersetzung erschien 1881 auf Französisch in Le Monde, und die neuesten stammen aus den letzten Jahren (Vietnam). Darunter sind Sprachen wie Esperanto oder Volapük. In den 1960er Jahren stellte die UNESCO fest, May sei der meistübersetzte deutsche Autor. Ganze Generationen bezogen ihr Bild von den Indianern oder dem Orient aus seinen Werken. Auch einige Sprachbegriffe aus beiden Kulturkreisen, die May (teilweise nicht ganz korrekt) verwendete, fanden Eingang in die Umgangssprache. Die indianische Gruß- oder Bekräftigungsformel "Howgh", das "Anhobbeln" der Pferde, die Verwendung von "Manitu" als Gottesname und die Anredeform "Mesch’schurs" sind dem Wilden Westen zuzuordnen; die Rangbezeichnungen "Efendi", "Ağa", "Bey", "Pascha" und "Wesir" sind durch seine Orientromane Allgemeingut geworden. Adaptionen. Karl Mays 1896 veröffentlichtes Gedicht "Ave Maria" wurde von wenigstens 19 anderen Personen vertont. Auch andere Gedichte Mays, besonders aus den "Himmelsgedanken", wurden fremdvertont. Von Carl Ball erhielt May „Harfenklänge“ zu seinem Drama "Babel und Bibel" geschenkt. Der Schweizer Komponist Othmar Schoeck schrieb bereits im Alter von elf Jahren eine Oper zu "Der Schatz im Silbersee". Inspiriert durch Mays Werke, insbesondere durch Winnetous Tod, wurde weitere Musik komponiert. Die erste Bühnenadaption ("Winnetou") entstand 1919 von Hermann Dimmler. Überarbeitungen dieses Stückes durch ihn und Ludwig Körner wurden in den Folgejahren aufgeführt. Verschiedene Romanbearbeitungen werden auch auf Freilichtbühnen gespielt. Die ältesten Inszenierungen finden seit 1938 (nach langer Unterbrechung wieder ab 1984) auf der Felsenbühne Rathen in der Sächsischen Schweiz statt; die bekanntesten sind die jährlich stattfindenden Karl-May-Spiele Bad Segeberg (seit 1952) sowie die Karl-May-Festspiele in Elspe (seit 1958). Eine Besonderheit bieten die seit 1993 bestehenden Karl-May-Spiele Bischofswerda, bei denen Kinder die Figuren verkörpern. Insgesamt wurden allein 2006 auf 14 Bühnen Stücke nach Karl May aufgeführt. Mays eigenes Drama "Babel und Bibel" wurde bislang noch auf keiner größeren Bühne gegeben. Mays Freunde Marie Luise Droop und Adolf Droop gründeten in Kooperation mit dem Karl-May-Verlag die Produktionsfirma „Ustad-Film“ (Ustad = Karl May). Nach dem Orientzyklus produzierten sie 1920 drei Stummfilme (Auf den Trümmern des Paradieses, Die Todeskarawane und Die Teufelsanbeter). Auf Grund des geringen Erfolges ging die Firma im Folgejahr in Konkurs. 1936 erschien mit "Durch die Wüste" der erste Tonfilm, und daraufhin folgten mit "Die Sklavenkarawane" (1958) sowie dessen Fortsetzung "Der Löwe von Babylon" (1959) die ersten Farbfilme. Einen erneuten Aufschwung erfuhr Karl May im Zuge der Karl-May-Verfilmungen der 1960er Jahre, der erfolgreichsten deutschen Kinoserie. Die meisten der 18 Filme sind im Wilden Westen angesiedelt, 1962 beginnend mit "Der Schatz im Silbersee". Der Großteil wurde von Horst Wendlandt oder Artur Brauner produziert. Wiederkehrende Hauptdarsteller waren Lex Barker (Old Shatterhand, Kara Ben Nemsi, Karl Sternau), Pierre Brice (Winnetou), Stewart Granger (Old Surehand), Milan Srdoč (Old Wabble) und Ralf Wolter (Sam Hawkens, Hadschi Halef Omar, André Hasenpfeffer). Die Filmmusik von Martin Böttcher und die Landschaften Jugoslawiens, wo die meisten der Filme gedreht wurde, hatten wesentlichen Anteil am Erfolg der Kinoserie. In den Folgejahren entstanden weitere Filme für das Kino (Die Spur führt zum Silbersee, 1990) oder das Fernsehen (z. B. Das Buschgespenst, 1986) sowie TV-Serien (z. B. Kara Ben Nemsi Effendi, 1973/75). Die meisten Filme haben mit den Büchern fast nichts gemeinsam. Zu keinem Werk eines anderen deutschen Autors entstanden mehr Hörspielbearbeitungen. Inzwischen liegen über 300 in deutscher Sprache vor; auch dänische und tschechische Hörspiele wurden produziert. Das erste ("Der Schatz im Silbersee") schrieb Günther Bibo 1929. Eine größere Hörspiel-Welle erfolgte während der 1950er und der 1960er Jahre; die neuesten Produktionen erscheinen in diesem Jahr. In den Fünfziger Jahren produzierten der NWDR Köln und später dessen Rechtsnachfolger, der WDR, unter der Regie von Kurt Meister drei mehrteilige Hörspiele, nämlich "Winnetou", "Der Schatz im Silbersee" und "Old Surehand". Die Rolle des Old Shatterhand sprach jeweils Kurt Lieck. Jürgen Goslar, Hansjörg Felmy und Werner Rundshagen liehen Winnetou ihre Stimme. Im Zuge des Erfolges der Karl-May-Verfilmungen entstanden auch einige Comics nach Motiven von Karl May. Eine zweite Comic-Welle folgte in den 1970er Jahren. Der ersten, qualitativ besten und erfolgreichsten Adaptionen, "Winnetou" (# 1-8) / "Karl May" (# 9-52) (1963–1965), stammen von Helmut Nickel, die im Walter Lehning Verlag erschienen. Kurios zu nennen ist hier die flämische Comicreihe „Karl May“ (1962–1987), die außer den Hauptcharakteren sehr wenig gemeinsam hat mit der Romanvorlage, die aber mit 87 Folgen einigen Erfolg hatte. Diese Reihe erschien bei dem im niederländischsprachigen Raum sehr bekannten Verlag Standaard Uitgeverij beim Studio von Willy Vandersteen. Auch in Dänemark, Frankreich, Mexiko, Schweden, Spanien und der Tschechoslowakei entstanden Comics. 1988 erschien mit "Der Schatz im Silbersee" das erste Hörbuch gelesen von Gert Westphal. “Wann sehe ich dich wieder, du lieber, lieber Winnetou?“ (1995) ist ein Kompendium von Karl May-Texten, die von Hermann Wiedenroth gelesen werden. Seit 1998 erschienen in verschiedenen Verlagen etwa 50 Hörbücher. Auch Karl May und sein Leben waren Basis für Verfilmungen, so in "Freispruch für Old Shatterhand" (1965), "Karl May" (1974, Hans-Jürgen Syberberg) sowie in einer sechsteiligen Fernsehserie "Karl May" (1992). Es gibt inzwischen auch verschiedene Romane mit oder um Karl May, beispielsweise "Swallow, mein wackerer Mustang" (1980) von Erich Loest, "Vom Wunsch, Indianer zu werden. Wie Franz Kafka Karl May traf und trotzdem nicht in Amerika landete" (1994) von Peter Henisch, "Old Shatterhand in Moabit" (1994) von Walter Püschel, und "Karl May und der Wettermacher" (2001) von Jürgen Heinzerling. Eine Bühnenadaption ist "Die Taschenuhr des Anderen" von Willi Olbrich. 1987 kreierte die Deutsche Bundespost aus Anlass seines 75. Todestages eine Briefmarke mit Winnetou, einer seiner berühmtesten Figuren. 100. Todestag 2012. In der Westernstadt Tombstone, Arizona, im Südwesten der USA eröffnete anlässlich des 100. Todestages von Karl May für ein Jahr eine Ausstellung, auch mit Exponaten aus Radebeul, über das Leben des deutschen Schriftstellers und seine Sichtweise auf die amerikanischen Ureinwohner. Es handelt sich um eine aktualisierte Version einer Ausstellung, die an gleicher Stelle bereits 2009 gezeigt worden war. Kopien und Parodien. Bereits zu Lebzeiten wurde May parodiert oder unverhohlen kopiert. Während einige Autoren nur ähnliche Wild-West-Erzählungen schrieben, um an Mays literarischem Erfolg teilzuhaben (z. B. Franz Treller), publizierten andere ihre Werke unter Mays Namen. Noch heute erscheinen "neue Romane" mit seinen Helden. Bekannt wurden die Fortsetzungen von Franz Kandolf, Edmund Theil, Friederike Chudoba, Jörg Kastner, Heinz Grill, Otto Emersleben, Thomas Jeier, Jutta Laroche, Reinhard Marheinecke und Iris Wörner. Ein MDR-Tatort von 1999 spielt im Karl-May-Museum unter Karl-May-Fans und Hobbyindianern. Im Jahr 2000 wurde ein bereits 1955 geschriebenes Hörspiel von den damals führenden Comedians, geleitet von Jürgen von der Lippe, unter dem Titel „Ja uff erstmal“ neu aufgenommen und in einer langen WDR-Nacht erstmals ausgestrahlt. Nach der positiven Resonanz wurde diese Parodie auch als Hörspiel herausgegeben. 2001 erschien der Kinofilm "Der Schuh des Manitu" von Michael Herbig alias „Bully“, der als einer der erfolgreichsten deutschen Filme seit dem Zweiten Weltkrieg gilt. Er parodiert weniger die Bücher als vielmehr die Verfilmungen mit Pierre Brice und Lex Barker und basiert auf der ähnlichen Parodie in seiner Comedyshow Bullyparade. 2004 veröffentlichte Roger Willemsen mit "Ein Schuss, ein Schrei – das Meiste von Karl May", ein parodistische Verarbeitung der Stoffe von Karl May in Reimform. In 23 Gedichten erzählt er dabei 23 Romane Karl Mays nach. Lyrische Huldigungen. Heinz-Albert Heindrichs nennt sein Lautgedicht "ay" aus seinem Gedichtband "Die Nonnensense" in einer Anmerkung ausdrücklich eine „hommage a karl may“. Der Name des Dichters, sein Wohnort und seine Figuren werden in verkürzter Form dargeboten: „arl ay“, „rara debe ul“, „I shattrnd“ usw. Mutmaßungen zur sexuellen Orientierung Mays. Der Schriftsteller Arno Schmidt vertrat in seinem Werk "Sitara und der Weg dorthin" 1963 die These, Karl May sei latent homosexuell gewesen. Schmidt griff damit eine von dem aus Österreich in die USA emigrierten Schriftsteller Paul Elbogen erstmals formulierte Vermutung auf. Er verwies auf die penetrante Waffensymbolik, die Vorliebe für sadistische Szenen, auf die erotisch-liebevolle Darstellung der indianischen Edelmenschen, auf die Schilderung der nächtlichen oder gemeinsamen Ritte sowie auf die wiederholt auftretenden Transvestiten ("Tante Droll", "Hobble Frank" oder "Langer Davy") in Karl Mays Romanen. Außerdem hob Schmidt die erotischen und phallischen Motive auf den Bildern Sascha Schneiders hervor, die umso erstaunlicher seien, da Schneider seinen Freund May über seine homosexuelle Orientierung nicht im Unklaren gelassen habe. Während Schmidts Thesen von der bürgerlichen Karl-May-Forschung in den 1960er und 1970er Jahren relativiert oder ignoriert wurden, hatten sie doch großen Einfluss auf die filmischen Interpretationen Mays, vor allem auf die Hans-Jürgen Syberbergs, und auf die Integration der May-Werke in den akademischen Literaturkanon. Gleichwohl gilt heute die eher im Untergrund fortwirkende Hauptthese Schmidts über Mays latente Homosexualität in der ernsthaften May-Forschung als widerlegt. Karl-May-Stiftung. Testamentarisch setzte Karl May seine zweite Ehefrau Klara als Universalerbin mit der Auflage ein, dass bei ihrem Tode sein gesamter Besitz und die weiteren Einkünfte seiner Werke einer Stiftung zufallen, die mittellose begabte Menschen für ihre Ausbildung und unverschuldet in Not geratene Schriftsteller, Journalisten und Redakteure unterstützen solle. Diese Stiftung wurde bereits ein Jahr nach Mays Tod am 5. März 1913 eingerichtet. Zuwendungen erfolgten seit 1917. Durch Erbverträge und Testamente Klara Mays fiel schließlich der gesamte Nachlass von Karl und Klara May an die Karl-May-Stiftung mit der Maßgabe, die "Villa „Shatterhand“", die Liegenschaften und Sammlungen zu einem Karl-May-Museum auszubauen (die Gründung erfolgte noch zu Klara Mays Lebzeiten) und das Grabmal zu pflegen. 1960 erfolgte die Trennung vom Karl-May-Verlag, an dem die Stiftung zu zwei Dritteln beteiligt war, wobei Teile des Nachlasses an diesen übergingen. Seit 2014 ist Werner Schul der Vorsitzende und Ralf Harder der stellvertretende Vorsitzende der Karl-May-Stiftung. Karl-May-Verlag. Am 1. Juli 1913 gründeten Klara May, Friedrich Ernst Fehsenfeld (Mays Hausverleger) und der Jurist Euchar Albrecht Schmid den „Stiftungs-Verlag Fehsenfeld & Co.“ in Radebeul, der ab 1915 den Namen „Karl-May-Verlag“ (KMV) trug. Ihnen gelang es, alle Rechtsstreitigkeiten (u. a. wegen der Kolportageromane) beizulegen und die Rechte an in anderen Verlagen erschienenen Werken zu erwerben. Die existierende Reihe der "Gesammelten Reiseerzählungen" wurde um Überarbeitungen dieser Texte erweitert und in "Gesammelte Werke" umbenannt. Zu den weiteren Zielen des KMV gehörte Mays Rehabilitierung gegenüber Literaturwissenschaft und Kritik sowie die Förderung der Karl-May-Stiftung. Nach dem vertraglichen Ausscheiden Fehsenfelds 1921 und der Trennung von der Karl-May-Stiftung (als Klara Mays Erbin) 1960 liegt der KMV in den Händen der Familie Schmid. Auf Grund des Verhältnisses der Behörden in der SBZ und der DDR zu Karl May siedelte der KMV 1959 nach Bamberg über, ist aber seit 1996 auch wieder in Radebeul vertreten. Mit Ablauf der urheberrechtlichen Schutzfrist 1963 verlor der KMV seine Monopolstellung. Es folgte eine forcierte Kommerzialisierung Mays. Der Name Karl May ist eingetragenes Warenzeichen der „Karl May Verwaltungs- und Vertriebs-GmbH“ des KMV. Radebeul. In Radebeul wurde am 1. Dezember 1928 in der „Villa Bärenfett“ ein Karl-May-Museum eröffnet, seit 1985 wird auch Karl Mays Wohnhaus „Villa Shatterhand“ für das Museum genutzt. Neben Mays erhaltener Bibliothek, die auf Antrag zu Forschungszwecken genutzt werden kann, sind auch original wieder hergerichtete Räume Teil der Ausstellung. Unter anderem sind auch die Nachbauten der Waffen „Henrystutzen“, „Bärentöter“ und „Silberbüchse“ sowie eine Büste von Winnetou ausgestellt. In der am hinteren Ende des Gartens stehenden „Villa Bärenfett“ (errichtet vom Radebeuler Architekten Max Czopka) ist heute ein Indianermuseum zur Geschichte und zum Leben der nordamerikanischen Indianer untergebracht. Der Grundstock der Indianer-Sammlung wurde von Karl May selbst gelegt und durch seine Witwe Klara May ergänzt. Der größte und bedeutsamste Teil stammt von Patty Frank (eigentlich "Ernst Tobis"), der seine vollständige Sammlung zur Verfügung stellte, im Gegenzug Kustos des Museums wurde und in der Villa Bärenfett kostenfrei bis zu seinem Tode wohnen durfte. Das „Kaminzimmer“ der Villa Bärenfett dient auch als Veranstaltungsort. Hohenstein-Ernstthal. In Hohenstein-Ernstthal befindet sich das unter Denkmalschutz stehende Karl-May-Haus, in dem Karl May am 25. Februar 1842 geboren wurde. An dem etwa 300 Jahre alten Weberhaus wurde 1929 eine Erinnerungstafel für den berühmtesten Sohn der Stadt angebracht. Im Zuge der May-Renaissance in der DDR wurde es 1985 Gedenkstätte und Museum in Trägerschaft der Stadtverwaltung. Seit 1993 wird es von dem Historiker André Neubert geleitet, dem ein Wissenschaftlicher Beirat unter dem Vorsitz von Hans-Dieter Steinmetz beratend zur Seite steht. Neben der Dauerausstellung zu Mays Biografie gibt es ebenfalls wieder hergerichtete Räume, so eine Weberstube, und eine große Sammlung an fremdsprachigen Ausgaben zu sehen. Zu dem Komplex gehört neben dem eigentlichen Geburtshaus auch eine Begegnungsstätte auf der gegenüberliegenden Straßenseite, in der jährlich zwischen dem 25. Februar und dem 30. März eine große Sonderausstellung und über das Jahr verteilt kleinere Ausstellungen gezeigt werden. Dort finden regelmäßig öffentliche Vorträge und die Tagungen des Wissenschaftlichen Beirats des Museums statt. Bestandteil der Ausstellung ist auch das erhaltene Arbeitszimmer von Werner Legère, dessen Nachlass im Karl-May-Haus aufbewahrt wird. Gegenüber dem Karl-May-Haus (und neben der Begegnungsstätte) existiert seit Sommer 2006 ein öffentlich zugängliches Lapidarium. Weitere Gedenkstätten, Benennungen. Am 25. Februar 1992 wurde zum 150. Geburtstag des Dichters auf dem Neumarkt in Hohenstein-Ernstthal eine Karl-May-Büste des Berliner Bildhauers Wilfried Fitzenreiter mit einer Feierstunde unter großer öffentlicher Beteiligung enthüllt. In Hohenstein-Ernstthal sind alle erhaltenen May-Stätten mit Erinnerungsplaketten versehen. Außerhalb der Stadt liegt die „Karl-May-Höhle“, in der May während seiner wilden Jahre zeitweise Unterschlupf fand. Am 13. Oktober 2000 wurde der 1990 entdeckte Asteroid (15728) Karlmay nach ihm benannt. Das im Jahr 2007 umbenannte Grundschulzentrum der Stadt Hohenstein-Ernstthal trägt den Namen Karl-May-Grundschule. Sie ist damit deutschlandweit die einzige Schule mit Karl May als Namenspatron. Vereine. Bereits zu Mays Lebzeiten bildeten sich erste Vereinigungen, so in den 1890er Jahren die „Karl-May-Clubs“. Auch heute noch gibt es verschiedene Arbeits- oder Freundeskreise, die sich mit Karl May befassen und oft öffentlich mit Veranstaltungsreihen auftreten. Während die früheren Vereinigungen der May-Verehrung oder zur Abwehr von Angriffen auf May dienten, haben die späteren auch Forschungsabsichten. Vereine gibt es im Umfeld der beiden Museen (Förderverein Karl-May-Museum Radebeul; Förderverein Karl-May-Haus) und – ohne konkreten Bezugspunkt – in Wien, Cottbus, Leipzig, Stuttgart und Berlin. Auch im nichtdeutschsprachigen Raum sind Vereinigungen angesiedelt wie in den Niederlanden, in Australien und Indonesien. Während viele dieser Vereine eigene Publikationen herausgeben ("Der Beobachter an der Elbe", "Karl-May-Haus Information", "Wiener Karl-May-Brief", "Karl May in Leipzig"), besteht das Magazin "Karl May & Co." unabhängig davon. Der größte Verein ist die Karl-May-Gesellschaft mit knapp 1800 Mitgliedern. Sie wurde am 22. März 1969 gegründet. Ihr Ziel ist es, Mays Leben und Schaffen samt seiner Rezeptions- und Wirkungsgeschichte zu erforschen. Zudem sollen May und sein Werk einen angemessenen Platz in der Literaturgeschichte erhalten und in der Öffentlichkeit lebendig bleiben. Zu den verschiedenen Publikationen gehören das „Jahrbuch der Karl-May-Gesellschaft“ (seit 1970 jedes Jahr ein Band), die "Mitteilungen" und "Sonderhefte der Karl-May-Gesellschaft", die "KMG-Nachrichten" sowie ein umfangreiches Reprintprogramm. Köchelverzeichnis. Das Köchelverzeichnis ist ein Werkverzeichnis der Kompositionen von Wolfgang Amadeus Mozart. Es erschien erstmals 1862 unter dem Titel "Chronologisch-thematisches Verzeichniss sämmtlicher Tonwerke Wolfgang Amade Mozart’s. Nebst Angabe der verloren gegangenen, angefangenen, übertragenen, zweifelhaften und unterschobenen Compositionen desselben". Geschichte. Ludwig von Köchel, nach dem es benannt ist, erstellte dieses Verzeichnis. Er sammelte viele Fakten über Mozart und nummerierte dessen Werke in chronologischer Reihenfolge. Die erste Auflage des Verzeichnisses erschien 1862, seitdem wurde es von namhaften Musikwissenschaftlern auf den jeweils neuesten Stand der Forschung gebracht. Die derzeit erhältliche 8. Auflage des Köchelverzeichnisses ist der zweite Nachdruck der 6. Auflage von 1964. Die Abkürzung für "Köchelverzeichnis" ist "KV" (bzw. "K" im Englischen). So hat beispielsweise die berühmte "Kleine Nachtmusik" die Bezeichnung "KV 525". Insgesamt enthält das Köchelverzeichnis 626 nummerierte Werke Mozarts; hinzu kommt eine Reihe von Nachträgen. Ab der 3. Auflage (1937, von Alfred Einstein) wurden die Nummern etlicher Werke geändert; die neuen Nummern wurden chronologisch eingeordnet und enthalten oft einen zusätzlichen Kleinbuchstaben (z. B. „Sinfonia concertante für Violine und Viola Es-Dur“, ursprünglich "KV 364" – jetzt "KV 320d"). Besonders viele Umstellungen brachte die 6. Auflage (1964, von Franz Giegling, Gerd Sievers und Alexander Weinmann). Mit diesen Änderungen wurden neue Erkenntnisse über die Chronologie der Werkentstehung und den Zusammenhang einzelner Werke berücksichtigt. Außerhalb der Wissenschaft haben sich diese Änderungen nicht durchgesetzt. Musikverlage, Konzertveranstalter, Autoren populärer Handbücher und die Musikindustrie verwenden nach wie vor Köchels ursprüngliche Nummerierung. Oftmals werden auch beide Nummerierungen angegeben, etwa in der Form "KV 110 (KV6 75b)". 1993 beauftragte der Verlag Breitkopf & Härtel ein Expertenteam unter der Leitung des US-amerikanischen Musikwissenschaftlers Neal Zaslaw mit der Erarbeitung einer Neuausgabe des Köchelverzeichnisses. Die Arbeit ist im Manuskript abgeschlossen und wird in deutscher Sprache in Buchform erscheinen, ein Erscheinungstermin ist aber noch nicht bekannt. Anmerkungen. ! Kavitation. Kavitation (lat. ' „aushöhlen“) ist die Bildung und Auflösung von dampfgefüllten Hohlräumen (Dampfblasen) in Flüssigkeiten. Man unterscheidet zwei Grenzfälle, zwischen denen es viele Übergangsformen gibt. Bei der Dampfkavitation oder harten (transienten) Kavitation enthalten die Hohlräume hauptsächlich Dampf der umgebenden Flüssigkeit. Solche Hohlräume fallen unter Einwirkung des äußeren Drucks per Blasenimplosion zusammen (mikroskopischer Dampfschlag). Bei der weichen Gaskavitation treten in der Flüssigkeit gelöste Gase in die Kavitäten ein und dämpfen deren Kollaps, bei der stabilen verhindern sie ihn. Die Kavitationszahl beschreibt die Neigung einer Flüssigkeit zur Kavitation. Ursachen. Die häufigste Ursache für Kavitation sind schnell bewegte Objekte in einem Fluid wie zum Beispiel Laufräder von Kreiselpumpen, Wasserturbinen oder Propeller. Nach dem Gesetz von Bernoulli ist der statische Druck einer Flüssigkeit umso geringer, je höher die Geschwindigkeit ist. Fällt der statische Druck unter den Verdampfungsdruck der Flüssigkeit, bilden sich Dampfblasen. Diese werden anschließend meist mit der strömenden Flüssigkeit in Gebiete höheren Druckes mitgerissen. Mit dem erneuten Ansteigen des statischen Drucks über den Dampfdruck kondensiert der Dampf in den Hohlräumen schlagartig und die Dampfblasen kollabieren. Dabei treten extreme Druck- und Temperaturspitzen auf. Die Ursache von Kavitation sind insbesondere bei Kreiselpumpen die örtlichen Druckabsenkungen im Schaufelkanaleintritt des Laufrades, die unvermeidlich mit der Umströmung der Schaufeleintrittskanten und der Energieübertragung von den Laufradschaufeln auf die Förderflüssigkeit verbunden sind. Kavitation kann aber auch an anderen Stellen der Pumpe, an denen der Druck örtlich absinkt, wie etwa an den Eintrittskanten von Leitradschaufeln, Gehäusezungen, Spaltringen usw., auftreten. Weitere Ursachen sind entweder das Ansteigen der Temperatur der Förderflüssigkeit, das Absinken des Druckes auf der Eintrittsseite der Pumpe, eine zu große Geodätische Saughöhe oder die Verkleinerung der Zulaufhöhe. Starke Druckschwankungen, die Kavitation auslösen, können auch durch Ultraschall erzeugt werden. Dabei kommt es in den Druckminima der Schwingung zur Kavitation. Kavitation entsteht auch beim schnellen Eintauchen eines Körpers ins Wasser. Beim Wasserspringen treten beispielsweise durch Kavitation hervorgerufene Sekundärspritzer auf. Das Phänomen der Dampfblasen, die beim Sieden von Flüssigkeiten entstehen und zum Teil wieder in sich zusammenfallen, ist keine Kavitation, denn es wird nicht durch Druckschwankungen, sondern durch Temperaturänderungen ausgelöst. Entstehung und Implosion der Kavitationsblasen. Bei einem Druck von 1013,25 hPa, was dem normalen Luftdruck entspricht, verdampft Wasser bei 100 °C. Bei einem höheren Druck ist die Verdampfungstemperatur höher, bei einem geringeren Druck niedriger. So verdampft Wasser bei einem Druck von nur 23,37 hPa bereits bei einer Temperatur von 20 °C. Beim Verdampfen entstehen im Wasser Blasen, da der Wasserdampf bei 20 °C einen vielfach größeren Raum als das flüssige Wasser benötigt. Sofern der Wasserdruck wieder ansteigt, hört der Verdampfungsvorgang wieder auf, der in der Kavitationsblase entstandene Wasserdampf kondensiert an der Außenwand der Dampfblase, und die bereits gebildeten Dampfblasen fallen schlagartig in sich zusammen. Der vorher benötigte Raum wird schlagartig kleiner, das Wasser muss diesen Raum wieder ausfüllen und strömt implosionsartig zurück, wodurch im Wasser sehr starke – wenn auch kurzzeitige – Druckstöße entstehen, die Größenordnungen von mehreren 100 MPa (=1000 Bar) annehmen können. Bei diesem Vorgang entstehen Druckwellen mit hohen Druckspitzen. Befinden sich die Dampfblasen in der Nähe oder direkt an einer festen Wand, zum Beispiel den Laufradschaufeln, so entsteht bei der Implosion ein Flüssigkeitsstrahl, ein sogenannter Mikrojet, der mit hoher Geschwindigkeit auf die Wand beziehungsweise Laufradschaufel auftrifft und diese durch die schlagartige Druckbelastung hoch beansprucht. Daher rühren die kraterförmigen Materialabtragungen beim Auftreten von Kavitation. Mechanische Schäden. Tritt Kavitation an der Oberfläche fester Körper (wie zum Beispiel eines Schiffspropellers) auf, kommt es unter Umständen zu sogenanntem Kavitationsfraß. Das Oberflächenmaterial wird durch die hohen mechanischen Beanspruchungen in mikroskopisch kleinen Teilen deformiert. Nach einiger Zeit brechen aus der Oberfläche größere Partikel heraus. Der Mechanismus dieser Schädigung ist noch nicht abschließend geklärt. Kavitation ist in der Hydraulik meist unerwünscht. Zum einen reduziert sie den Wirkungsgrad, zum anderen kann sie zu Beschädigungen führen, denn beim Implodieren der Hohlräume treten kurzzeitig extrem hohe Beschleunigungen, Temperaturen und Drücke auf, die das Material beschädigen können. Um Kavitation in Pumpen zu verhindern, ist darauf zu achten, dass die Temperatur der Flüssigkeit in der Pumpe nicht zu hoch beziehungsweise der Ansaugdruck der Pumpe nicht zu niedrig wird. Hohe Temperaturen entstehen dann, wenn die Pumpe läuft, ohne dass Flüssigkeit entnommen wird. In diesem Fall sollte die Flüssigkeit im Kreis gepumpt (zum Beispiel in einer Rückspülleitung) oder die Pumpe abgeschaltet werden. Kavitationsschäden treten zum Beispiel bei Feuerlöschkreiselpumpen auf, wenn die Pumpe lediglich eingeschaltet ist, um den Druck in der Leitung aufrechtzuerhalten und kein Löschwasser entnommen wird. Bei Flüssigkeitsringvakuumpumpen darf das Verhältnis von Druck und Temperatur im Pumpenraum um Schäden zu vermeiden einen bauartabhängigen Wert nicht unterschreiten. In der Raketentechnik führt Kavitation zu einer unregelmäßigen Verbrennung und zu Schäden an den von Gasturbinen angetriebenen Kreiselpumpen. Diese Pumpen müssen bei Raketen große Treibstoffmengen mit hohem Druck fördern und sind daher besonders anfällig für Kavitation. Man verringert die Kavitation, indem man den gesamten Treibstofftank unter (sehr geringen) Überdruck setzt und diesen Überdruck durch Nachspeisen von Druckgas hält, während sich der Tank entleert. Geräuschentwicklung. Das beim Implodieren auftretende Geräusch (Knall, Knattern) hob früher oft die Tarnung von U-Booten auf – die Boote konnten mit passivem Sonar geortet werden. Seit kavitationsarme Propeller entwickelt wurden, spielt die Kavitation für die U-Boot-Ortung bis zu einer bestimmten Geschwindigkeit in Abhängigkeit von der Tauchtiefe keine Rolle mehr. Man erkennt kavitationsarme Propeller an den stark gekrümmten Enden, mit denen sie sanfter und wesentlich leiser durchs Wasser gleiten. Bei hohen Geschwindigkeiten in geringen Tauchtiefen verliert allerdings auch ein kavitationsarmer Propeller seine kavationsmindernde Fähigkeit. Zur Vermeidung von Kavitation muss das U-Boot dann entweder tiefer tauchen, um den Wasserdruck zu erhöhen, oder die Geschwindigkeit verringern. Bei militärischen Überwasserschiffen werden ebenfalls kavitationsarme Schrauben und Systeme zur Geräuschminderung eingesetzt, z. B. das Prairie-Masker-System bei US-amerikanischen Schiffen. Auswirkungen in der medizinischen Diagnostik. Bei Sonographien in der medizinischen Diagnostik besteht die Gefahr, dass durch starke Energien (insbesondere den negativen Spitzendrücken des Ultraschalls) innerhalb des Körpers Kavitation entsteht. Dies könnte schädliche thermische oder mechanische Effekte haben. Beispielsweise könnten durch die Erzeugung freier Radikale oder Schockwellen Gewebeteile zerstört werden. Einige mögliche Effekte wurden bereits bei Tierversuchen in vivo beobachtet. Es wird darüber hinaus angenommen, dass Kontrastmittel die Wahrscheinlichkeit für das Auftreten von Kavitation erhöhen. Auswirkungen in der Natur. Untersuchungen des Israel Institute of Technology zeigen, dass die maximale Geschwindigkeit, mit der Delfine schwimmen, durch Kavitationseffekte begrenzt ist. Der oberhalb einer bestimmten Geschwindigkeit entstehende Schmerz an den Schwanzflossen ist der begrenzende Faktor. Manche Fische, wie beispielsweise Thunfische, besitzen keine Schmerzrezeptoren in der Schwanzflosse. Sie dringen daher in Geschwindigkeitsbereiche vor, in denen Kavitationseffekte entstehen. Knollenbohne. Die Knollenbohne ("Pachyrhizus tuberosus") ist eine Pflanzenart aus der Gattung der Yambohnen ("Pachyrhizus"). Die ursprüngliche Heimat liegt im nördlichen Südamerika. Sie wird wegen der essbaren Knollen und Samen in Südamerika, Asien und Afrika angebaut. Beschreibung. Die Knollenbohne ist eine kräftige, ausdauernde krautige Kletterpflanze mit bis zu 7 Meter langen Stängeln. Sie wird aber meist als einjährige Pflanze angebaut, weil die ganze Pflanze wegen der Knollen abgeerntet wird und dann im Folgejahr eine Neuaussaat erfolgt. Sie bildet stärkehaltige Wurzelknollen als unterirdische Speicherorgane. Die Laubblätter sind dreiteilig gefiedert. Das Termialblatt ist rhomboid geformt, die zwei Seitenblättchen sind asymmetrisch. Der Blattrand ist glatt oder nur leicht gewinkelt, die seitlichen Kanten stehen leicht schräg zueinander. In Gruppen von zwei oder drei Blüten stehen meist in Gruppen entlang der oberen Hälfte eines sehr langen, traubigen Blütenstandes. Der Kelch hat eine Länge von 1 cm und ist mit anliegenden, rostbraunen Trichomen behaart. Die Krone ist weiß oder gelb gefärbt, 1,5 bis fast 2,0 cm lang, die Öhrchen an der Basis der Fahne stehen aufrecht nach oben. Das Schiffchen ist nahezu gerade, nur leicht gebogen. Der Griffel etwas eingerollt und an der Spitze abgeflacht. Die Hülsenfrüchte sind bis zu 20 cm lang, kaum 2 cm breit und besitzen einen dreieckigen, bis zu 3 mm langen Schnabel. Die nierenförmigen Samen sind relativ groß und meist rot. Krakatau. Krakatau ist eine Vulkaninsel in der Sunda-Straße zwischen den indonesischen Inseln Sumatra und Java. Der Vulkan brach im Laufe der letzten Jahrhunderte mehrfach aus. Die bekannteste Eruption, bei der die gesamte Vulkaninsel nahezu vollkommen zerstört wurde, ereignete sich am 27. August 1883. Die Insel gehörte damals zu Niederländisch-Indien. Seit 1927 entsteht am Ort des damaligen Ausbruches eine neue Insel vulkanischen Ursprungs, die "Anak Krakatau", Kind des Krakatau, genannt wird. Es gibt auch Theorien basierend auf der 536, wonach im Jahre 535 n. Chr. an gleicher Stelle ein Vorgänger des Krakatau, der "Proto-Krakatau", explodierte. Der Name des Vulkans. a>, Meeresenge zwischen Sumatra und Java, in der sich Krakatau befindet Die ältesten Erwähnungen der Vulkaninsel in der westlichen Welt findet man auf einer Landkarte von Lucas Janszoon Waghenaer (etwa 1533/34–1605/06). Er nannte die Insel "Pulo Carcata". "Pulo" ist dabei offenbar von "pulau" abgeleitet, einem indonesischen bzw. malaiischen Wort für Insel. Die heute gebräuchlichen Bezeichnungen sind Krakatoa oder Krakatau. Der Name Krakatoa wird vor allem in der englischsprachigen Welt häufig verwendet; die Bezeichnung Krakatau wird dagegen häufig von Indonesiern gebraucht. Vulkanische Aktivität. Das erste dokumentierte Anzeichen für die bevorstehende und zugleich bekannteste Eruption des Krakatau zeigte sich am 9. Mai 1883: ein Erdbeben kurz vor Mitternacht erschütterte die Region um den Leuchtturm Vierde Punt bei Anger, der Krakatau am nächsten lag. Der Leuchtturmwärter beobachtete in dieser Nacht, wie sich das Wasser der Sundastraße für einen Moment spiegelglatt zeigte, um danach wieder die normale Dünung zu zeigen. Am 20. Mai 1883 erwachte die Insel Krakatau, die aus den drei Kegeln Rakata, Danan und Perbuwatan bestand, endgültig aus ihrer vulkanischen Ruhephase, die über 200 Jahre angedauert und in der sich der enorme Explosionsdruck aufgebaut hatte. Diese erste Eruption, die den Auftakt für weit gewaltigere Eruptionen in der Folgezeit darstellte, erfolgte aus dem Krater des Perbuwatan. Dieser und der Kegel des Danan verschwanden bei der Eruption am 27. August 1883 komplett. Vom Kegel des Rakata, der heute selbst eine Insel bildet, blieb etwa 50 % übrig. Der große Ausbruch im August 1883. Auf Grund dieser ersten kleineren Eruptionen entsandte die niederländische Kolonialverwaltung hintereinander zwei Expeditionen, von denen die erste beim Anblick der Schäden auf der Insel zurückkehrte, die zweite hingegen – in teilweiser Unkenntnis der Gefahren – den Vulkan noch einmal bestieg und sozusagen als letzte das Innere des bereits aktiven, aber kurzzeitig ruhenden Vulkans sah, bevor dieser kurze Zeit später in einer gewaltigen Calderaexplosion verschwand. Am Mittwoch, dem 22. August 1883, erfolgte die erste Eruption. Am Sonntag, dem 26. August, um 13:06 Uhr (jeweils Ortszeit) erfolgte dann eine weitere. Am 27. August 1883 um 5:30 Uhr erfolgte der zweite Ausbruch, um 6:44 Uhr der Dritte und um 8:20 ein weiterer. Um 10:02 Uhr fand der gewaltigste Ausbruch statt. Alle drei Kegel der Insel waren gleichzeitig aktiv. Der Krakatau schleuderte 20 km³ Asche und Gestein bis in eine Höhe von 25 km in die Erdatmosphäre. Bei den heftigen Ausbrüchen des Mount St. Helens im Mai 1980 waren es etwa 1 km³ und beim Pinatubo etwa 10 km³. Das Äquivalent des Ausbruchs an Sprengkraft dürfte zwischen 200 und 2.000 Megatonnen TNT gelegen haben, was etwa 10.000 bis 100.000 Hiroshima-Bomben entspricht. Die unterirdische Magmakammer entleerte sich rasch und stürzte dann unter dem Gewicht der Deckenformation ein, woraufhin die Wassermassen des umgebenden Meeres schlagartig nachströmten. Wie bei einer Implosion verursachte dieser Einsturz an den umliegenden Küsten eine stellenweise bis zu 40 Meter hohe Flutwelle (Tsunami). Auf die Flutwelle folgten Ascheregen und pyroklastische Ströme – glühend heiße Gemische aus Gestein, Gas und Asche, welche Geschwindigkeiten bis zu 400 km/h und Temperaturen von 300 bis 800 °C erreichen können. Diese elementaren Gewalten zerstörten auf den umliegenden Inseln 165 Städte und Dörfer und töteten insgesamt mindestens 36.417 Menschen, darunter 37 Europäer. Selbst ein Dampfschiff wurde vier Kilometer weit landeinwärts geschoben. Es war das niederländische Schiff "Berouw", das im Hafen von Telok-Betong vor Anker lag. Von der Vulkaninsel blieb nahezu nichts mehr übrig, zwei Drittel der Insel versanken im Meer. Der Ausbruch des Krakatau war der zweitgrößte Vulkanausbruch der Neuzeit. Seine Stärke erreichte einen Vulkanexplosivitätsindex (VEI, mögliche Werte 0 bis 8) von 6. Vergleichbar in der jüngsten Vergangenheit ist der ungefähr halb so starke Ausbruch des Pinatubo 1991, ebenfalls VEI 6. Der stärkste Ausbruch der letzten 10.000 Jahre war zwischen dem 10. und 15. April 1815 der des Tambora auf der indonesischen Insel Sumbawa. Dieser Ausbruch hatte einen VEI von 7 und schleuderte etwa 160 km³ Material in die Atmosphäre. Einen VEI von 8 erreichte keine Eruption in den letzten 10.000 Jahren. Tierwelt. Die größeren Tierarten überlebten den Ausbruch nicht. Im Jahre 1886 wurden die Reste des alten Vulkans durch von benachbarten Inseln angeschwommene Warane besiedelt. Nach dem Ausbruch wurden einige Expeditionen zur Untersuchung der Tierwelt durchgeführt. 1933 entdeckte man bei einer solchen Expedition Schlangen, Geckos und andere kleine Echsen sowie weitere Kleintiere wie Fledermäuse, Vögel und Ratten, welche wahrscheinlich größtenteils durch Treibholz auf die Insel gelangt waren. Auswirkungen weltweit. Die Explosionsgeräusche, die diesen Ausbruch begleiteten, gehörten zu den lautesten der Menschheitsgeschichte. Sie waren sowohl im 3100 Kilometer entfernten Perth als auch auf der etwa 4800 Kilometer entfernt liegenden Insel Rodrigues nahe Mauritius zu hören. Die Folge waren atmosphärische Schockwellen, die rund um die Erde registriert wurden. Die Luftdruckwelle der Explosion war so gewaltig, dass sie auch noch nach fünf Tagen und sieben Erdumläufen messbar war. Die Flutwelle wurde auch noch in Europa registriert. An Pegeln im Golf von Biskaya, 17.000 Kilometer von ihrem Ursprung entfernt, und entlang des Ärmelkanals wurde sie als Ausschlag von 2 cm aufgezeichnet. Größere Partikel, wie zum Beispiel Bimsstein, der nach zeitgenössischen Berichten europäischer Seefahrer große Meeresflächen im Umkreis bedeckte, gingen in einem Gebiet von beinahe 4 Millionen km² nieder – einem Areal von der doppelten Größe des gesamten indonesischen Archipels. Die feine Vulkanasche (Aerosol) stieg in die obere Atmosphäre auf und verteilte sich dort in wenigen Tagen weltweit in über 70 % dieser Luftschicht. Überall rund um die Erde wurden aufgrund der Partikel in der Atmosphäre, an denen es zu Lichtbrechungen kam, spektakuläre Sonnenuntergänge beobachtet. So soll einer Untersuchung US-amerikanischer Wissenschaftler zufolge die auffallende rötliche Färbung des Himmels in Edvard Munchs berühmtem Gemälde „Der Schrei“ auf die nach der Eruption weltweit veränderte Färbung des Himmels zurückzuführen sein. Munch schrieb in seinem Tagebuch: „Plötzlich färbte sich der Himmel blutrot, die Wolken aus Blut und Flammen hingen über dem blau-schwarzen Fjord und der Stadt“. Ein Astronom berichtete über die totale Mondfinsternis am 4. Oktober 1884 an „Nature“, dass "… die Verdunkelung des Mondes weit über den Grad hinausgeht, den man bei Finsternissen der letzten Zeit gesehen hat." Es dauerte einige Jahre, bis diese Partikel wieder aus der Atmosphäre abgesunken waren. Unter anderem durch die Reflexion der Sonnenstrahlen zurück ins All sank vor allem auf der Nordhalbkugel die Durchschnittstemperatur um 0,5 bis 0,8 °C. Der Ausbruch des Krakatau im Jahre 1883 wird in der Medienwissenschaft als eines der frühesten Beispiele für das globale Dorf angeführt. Ohne die telegraphischen Berichte nach Europa wäre beispielsweise die Flutwelle nicht erkannt worden. Anak Krakatau. Vulkanische Aktivität des Anak Krakatau 2008 Anak Krakatau bei Nacht 2008 Nach langer Inaktivität begann sich 1927 genau an der Stelle, an der sich damals der Kegel des Danan befand, der "Anak Krakatau" (‚Kind des Krakatau‘) als neues untermeerisches Vulkangebäude am Rand der Caldera des Krakatau zu erheben. Drei Aschekegel durchbrachen nacheinander die Wasseroberfläche, die jeweils durch marine Erosion und untermeerische Rutschung am steilen Hang der Caldera zerstört wurden. Im August 1930 bildete sich eine vierte Insel, die bis heute Bestand hat. Viele der in der Region lebenden Menschen nehmen die Gefahr eines Ausbruchs des Anak Krakatau nicht sehr ernst. Oft fehlt ihnen auch das Wissen über das Geschehen der Vergangenheit: Zwischen 1959 und 1963 war der Vulkan bisher am aktivsten. Am 8. November 2007 fand ein größerer Ausbruch des Anak Krakatau statt, ohne Menschen dabei zu gefährden; im Juni 2009 brach der Anak Krakatau erneut aus und zeigt seitdem anhaltende strombolianische Aktivität. Er zählt damit zu den aktivsten Vulkanen der Erde. Der heftigste Ausbruch des Anak Krakatau seit über zehn Jahren fand am 2. und 3. September 2012 statt: Es ereigneten sich ohne Unterbrechung kanonenschussartige Explosionen unter Freisetzung großer Mengen Pyroklastika. Zudem floss ein ca. 600 Meter langer Lavastrom aus der Gipfelregion nach Südosten und ergoss sich etwa 100 Meter ins Meer. Erst am 3. September 2012 gegen 16 Uhr ging diese heftige eruptive Phase in eine leichte strombolianische Aktivität über. Karavelle. Portugiesische Karavelle des 16. Jahrhunderts zeitgenössische Darstellung einer Karavelle (um 1520) Die Karavelle war ein zwei- bis viermastiger Segelschifftyp des 14. bis 16. Jahrhunderts. Merkmale waren 100 bis 180 Tonnen Verdrängung, geringer Tiefgang, hohes Heck und zumeist Lateinertakelung. Karavellen waren schnell und zeigten sehr gute Eigenschaften am Wind. Die portugiesischen und spanischen Karavellen spielten eine entscheidende Rolle bei den Entdeckungs-, Forschungs- und Handelsfahrten entlang der westafrikanischen Küste und nach Amerika. Herkunft des Begriffs. Das Online Etymology Dictionary leitet die Herkunft des Begriffes vom französischen Wort "caravelle" her, das sich wiederum auf das portugiesische "caravela" bezieht. Hier wird dann eine Linie zum spätlateinischen "carabus" (kleines, mit Leder bespanntes, geflochtenes Boot) bzw. dem griechischen "karabos" gezogen. In einer weiteren wesentlichen Entwicklungslinie wird in der Literatur sehr häufig auch auf den Einfluss der Araber verwiesen. Vom arabischen "qârib" bzw. "carib" wird das portugiesische "cáravo" hergeleitet. Alles Bezeichnungen für ein kleines Fischer- bzw. Küstenboot mit Lateinersegel. Neben diesen in der Literatur mehrheitlich anzutreffenden Positionen werden noch andere etymologische bzw. „volksetymologische“ Auffassungen vertreten. Im Portugiesischen wird z. B. der Begriff "caravela" mit "carvalho" (Eichenholz) als Baustoff der Karavellen in Verbindung gebracht. Eine weitere mögliche Entwicklungslinie bezieht sich auf den portugiesischen Begriff "carav(o) à vela" (etwa: kleines Boot unter Segeln/Segelboot). Im Deutschen wird Karavelle gern mit dem Namen Kraweel (oder auch Karweel) in Beziehung gesetzt, da die Karavellen im Gegensatz zu der nordischen Bauart mit Klinkerbeplankung über eine glatte bzw. kraweele Rumpfbeplankung verfügten. Hintergründe und Voraussetzungen für die Entwicklung der Karavelle. Unter der Schirmherrschaft von Heinrich dem Seefahrer gelangten die Portugiesen mit der Überwindung des Kap Bojador im Jahre 1434 in Gewässer des Atlantik, deren Wind- und Strömungsverhältnisse keine einfache Rückreise vor dem Wind mehr gestatteten. Wesentliche technische Erfindungen wie Kompass, Astrolabium bzw. Jakobsstab oder schon sehr exakte Seekarten wurden bereits genutzt. Da jedoch die Entfernungen von den Heimathäfen immer größer wurden, benötigten die Portugiesen zunehmend Schiffe, die lange Strecken schnell und, wenn nötig, auch ohne Aufenthalt zurücklegen konnten. Dies erforderte nicht nur die Möglichkeit, hoch am Wind segeln zu können, sondern auch die Fähigkeit, ausreichend Proviant und Ersatzteile für eine längere Reise mitzuführen. Es wurden Schiffe benötigt, die auch ohne die technischen Möglichkeiten einer Werft, eine Überholung des Rumpfes u. a. Reparaturen selbst an ungünstigen Orten zuließen. Des Weiteren mussten diese Schiffe zur Weiterführung der portugiesischen Entdeckungen in der Lage sein, die Erforschung (auch widriger) Strömungs- und Windverhältnisse im Atlantik abzusichern sowie die Möglichkeit bieten, auch flache Küstengewässer und Flussläufe zu befahren. Aufbauend auf den Erfahrungen der portugiesischen Seeleute beim Befahren des Atlantik entwickelte sich seit den 40er Jahren des 15. Jahrhunderts zunehmend die Karavelle zu einem solchen Schiff. Entwicklungsgeschichte der Karavelle. Als ein Vorläufer kann auch ein an der Algarve und der Atlantikküste als "barca pescareza" (30–50 t) entwickeltes Fischerboot angesehen werden, das lateinerbesegelt und einmastig noch ohne Deck bereits (in Abhängigkeit von der Größe) zwischen 10 und 20 Mann Besatzung erforderte. Ähnliche Schiffe wurden noch bis in die 30er Jahre des 15. Jahrhunderts hinein für die Entdeckungsfahrten genutzt. Verallgemeinernd lässt sich feststellen, dass die auf der Iberischen Halbinsel entwickelte "caravela" auf Schiffstypen zurückgeht, die über Jahrhunderte in der Fischerei und in der Fluss- und Küstenschifffahrt sowie später auch in der Hochseeschifffahrt genutzt wurden. Es erweist sich als schwierig, einen einheitlichen Grundtyp der Karavellen des 15. Jahrhunderts zu definieren. Zumeist wird in der Literatur ein lateinerbesegelter Zweimaster mit Achterkastell beschrieben, der über ein durchgehendes Deck verfügte, bei relativ geringem Tiefgang eine Tragfähigkeit von 40–60 "toneladas" (in Portugal des 15. und 16. Jahrhunderts ca. 32–47,5 t) aufwies und bis zu 20 Mann Besatzung benötigte. Diese Schiffe hatten eine Länge von ca. 20–25 m (bei einem Länge-Breite-Verhältnis von etwa 3 bis 4: 1) und konnten bei Windstille auch mit Riemen bewegt werden. Sie waren kraweel beplankt, d. h. mit nebeneinander liegenden Planken – im Gegensatz zu den sich überlappenden Planken bei der Klinker-Bauweise. Das Ruder lag mittschiffs. Im letzten Viertel des 15. Jahrhunderts wurden die Karavellen mit leichter Artillerie bestückt. Sie war sehr gut in der Lage, hoch am Wind zu segeln, jedoch ein schlechter Segler bei achterlichem Wind. Dieser Schiffstyp war das Standardschiff der portugiesischen und spanischen Entdeckungsfahrten, mit ihm wurde der Seeweg südwärts an der afrikanischen Westküste entlang erkundet, die Strömungs- und Windverhältnisse im Südatlantik erforscht, das Kap der Guten Hoffnung umrundet und die Atlantiküberquerung realisiert. Der portugiesische Chronist Gomes Eanes de Zurara belegt im Kapitel XI seiner "Crónica do descobrimento e conquista da Guiné" zum ersten Mal für das Jahr 1440 den Einsatz von Karavellen auf den portugiesischen Entdeckerfahrten. Am Ende des 15. Jahrhunderts spaltete sich die Entwicklungslinie der Karavelle nochmals auf. Auf der einen Seite entwickelte man die Karavelle mit Lateinersegel, die "caravela latina", weiter. Neben Zweimastern wurden auch Dreimaster mit einer Tragfähigkeit von bis zu 80 "toneladas" (ca. 63,5 t) und ca. 30–35 m Länge gebaut, auf denen bis zu 60 Mann Besatzung fuhren. Diese relativ kleinen, aber sehr schnellen und wendigen Schiffe dienten in den Marinen der iberischen Staaten bis in die zweite Hälfte des 18. Jahrhunderts hauptsächlich als Nachrichten- und Meldeschiffe, als Aufklärer und Vorpostenschiffe sowie als Schnellfrachtsegler und leichte Transportschiffe. Auf der anderen Seite entstand die "caravela redonda" bzw. Quersegelkaravelle. Gebaut als Drei- und sogar Viermaster führte sie nur an Fock- oder an Fock- und Großmast Rahsegel, an den anderen Masten weiterhin Lateinersegel. Der Begriff "redonda" bedeutet rund und wird mit dem Aussehen des Schiffes bei windgefüllten Rahsegeln erklärt. Ende des 16. Jahrhunderts erzielten Quersegelkaravellen eine Tragfähigkeit von bis zu 200 "toneladas" (ca. 158,5 t), waren größer und robuster als die traditionellen Karavellen gebaut, gut mit Artillerie bestückt und erreichten eine beachtliche Feuerkraft. Einige dieser Schiffe verfügten bereits über zwei Decks sowie über Achterkastelle mit 2½ Decks. Die "caravela redonda" war stärker an der Nao als an der Lateinerkaravelle orientiert. Die konsequente Fortsetzung dieses Weges im Schiffbau mit den Schwerpunkten Traglast und Kampfstärke führte dann zur Galeone. Die Quersegelkaravelle wurde bis ins 18. Jahrhundert hinein als bewaffnetes Transport- und Kriegsschiff verwendet. Die Portugiesen setzten es als Eskorte auf der Brasilien- und Indienroute sowie zum Schutz des Schiffsverkehrs mit den Atlantikinseln ein, es diente zur Überwachung der Meerenge von Gibraltar, aber auch zum Küstenschutz und der Piratenbekämpfung. Caravelas redondas gehörten zum portugiesischen Indiengeschwader und nahmen 1511 unter Afonso de Albuquerque an der Eroberung von Malakka teil. Auf Grund ihrer Eigenschaften als Kampfschiff wurde die Quersegelkaravelle auch als "caravela armada" bezeichnet. Bekannte Karavellen. An der ersten Umseglung der Südspitze Afrikas unter Bartolomeu Dias (1487/88) waren die Lateinersegelkaravellen "São Cristóvão" (Flaggschiff) und "São Pantaleão" beteiligt. Vasco da Gama hatte bei seiner Entdeckung des Seewegs nach Indien (1498/99) die drei – nach den drei Erzengeln benannten – Karavellen "São Gabriel", "São Rafael" und "São Miguel" zur Verfügung. Die "São Rafael" musste auf der Rückreise aufgegeben werden, da durch den Tod zahlreicher Seeleute für drei Schiffe nicht mehr genug Besatzung zur Verfügung stand. Allgemein bekannt sind die Karavellen der ersten Amerikafahrt (1492) von Christoph Kolumbus: "Niña" und "Pinta". Ein vor der Küste Panamas gefundenes Wrack einer Karavelle bietet Gelegenheit, genaue Informationen über diesen Schiffstyp zu gewinnen. Bei dem Wrack handelt es sich wahrscheinlich um das Wrack der "Vizcaína", die von Kolumbus auf seiner vierten Reise wegen Wurmfraß aufgegeben werden musste. Karlspreis. Der Karlspreis, Vollform seit 1988 Internationaler Karlspreis zu Aachen, wird seit 1950 in der Regel alljährlich in Aachen für Verdienste um Europa und die europäische Einigung verliehen. Der Karlspreis ist ein Ehrenpreis. Er besteht aus einer von den Mitgliedern des Karlspreisdirektoriums unterzeichneten Urkunde und einer Medaille. Die Vorderseite der Medaille zeigt das Bildnis Karls des Großen auf seinem Thron, eine Darstellung des ältesten erhaltenen Stadtsiegels Aachens aus dem frühen 12. Jahrhundert. Auf der Rückseite steht der Name des Preisträgers und ein ihm gewidmeter Text. Bis 2007 war der Preis zusätzlich mit einem Geldbetrag von 5000 Euro versehen. Seit 2008 kommt dieser dem "Karlspreis für die Jugend" zugute. Verleihungsmodus. Der Preis wurde nach Karl dem Großen benannt, der als eine das kollektive europäische Geschichtsbewusstsein prägende Persönlichkeit gilt und im Frühmittelalter als „Vater Europas“ gelobt wurde. Ende des achten Jahrhunderts wählte er Aachen zu seiner Königspfalz. Durch die Namenswahl sollte nach der Vorstellung des Initiators Kurt Pfeiffer eine Brücke von der Vergangenheit in die Zukunft geschlagen werden. Die Auswahl des Preisträgers trifft das Direktorium der Karlspreisgesellschaft. Mitglieder kraft Amtes sind der Oberbürgermeister der Stadt Aachen, der Dompropst in Aachen und der Rektor der RWTH Aachen. Weitere Mitglieder sind Vertreter der im Rat der Stadt Aachen vertretenen Fraktionen, vom Direktorium benannte Mitgliedern sowie gewählte Mitglieder und Vertreter der Stiftung. Vorschläge für die Preisträger werden nicht nur aus dem Direktorium und der Stiftung, sondern auch von Personen und Institutionen außerhalb dieser Gremien eingebracht. Externe Vorschläge werden genauso behandelt wie interne Vorschläge. Das Direktorium tagt nichtöffentlich. Kommuniziert wird nur die Entscheidung, die Diskussionen im Direktorium sind nicht öffentlich und vertraulich. Die Verleihung findet traditionell am Feiertag Christi Himmelfahrt im Krönungssaal des Rathauses der Stadt Aachen statt. In einer feierlichen Zeremonie werden Urkunde und Medaille überreicht. Weitere Elemente dieser Zeremonie sind die Laudatio, die Rede des Preisträgers, die Aufführung des Hymnus "Urbs Aquensis" und der Europahymne. Die Zeremonie wird live von WDR-Fernsehen übertragen. Am Tag der Verleihung findet außerdem auf dem Aachener Katschhof ein Bürgerfest statt. Eingebettet ist die Verleihung in ein umfangreiches, mehrwöchiges Rahmenprogramm mit Vorträgen, Diskussionen und kulturellen Beiträgen, die die aktuelle Lage Europas, die jeweiligen Preisträger und deren Herkunftsland thematisieren. Im Jahr 2010 setzte sich auf Initiative der ehemaligen Ratsfrau und Bürgermeisterin Meike Thüllen (FDP) ein Bürgerforum dafür ein, dass die unter Verschluss gehaltenen Akten über die Auswahl der Kandidaten und die Entscheidung über die Vergabe des Aachener Karlspreises, die älter als 30 Jahre sind, der Öffentlichkeit zugänglich zu machen, um somit auch ihre wissenschaftliche Auswertung ermöglichen zu können. In der Ausgabe der Aachener Nachrichten und Aachener Zeitung vom 29. April 2013 wird der Sprecher des Direktoriums, Dr. Jürgen Linden, mit der Aussage zitiert, dass das Direktorium jeweils im Einzelfall über Anträge auf Einsichtnahme entscheiden wird. Gremien. Die bisherigen Sprecher (Vorsitzenden) des Karlspreisdirektoriums Mitglieder des Direktoriums der Gesellschaft für die Verleihung des Internationalen Karlspreises zu Aachen e. V. Träger. Die Idee des Karlspreises geht auf den Aachener Kaufmann Kurt Pfeiffer zurück, der sie am 19. Dezember 1949 in einem Vortrag bei der „Corona Legentium Aquensis“ in Aachen vorstellte. In kurzer Zeit versammelte Pfeiffer wichtige Aachener Persönlichkeiten zur Proklamation des "Karlspreises der Stadt Aachen". Unterzeichnet wurde diese neben Pfeiffer von Oberbürgermeister Albert Maas, Oberstadtdirektor Albert Servais und Bürgermeister Ludwig Kuhnen, Bischof Johannes Joseph van der Velden, dem RWTH-Rektor Wilhelm Müller und den Hochschulprofessoren Peter Mennicken und Franz Krauß, dem Präsidenten der deutsch-belgisch-luxemburgischen Handelskammer in Köln Hermann Heusch und weiteren Vertretern der Wirtschaft wie dem niederländischen Direktor der Philips-Werke Carel Nieuwenhuijsen, dem luxemburgischen Generaldirektor der Vereinigten Glaswerke Jean Louis Schrader und dem Tuchfabrikanten Erasmus Schlapp. Am 14. März 1950 wurde die "Gesellschaft zur Verleihung des Internationalen Karlspreises der Stadt Aachen" "(Karlspreisgesellschaft)" gegründet. Die zwölf Unterzeichner der Proklamation bildeten das erste "Karlspreisdirektorium". Sie erklärten, der Preis solle fortan jährlich „Persönlichkeiten verliehen“ werden, „die den Gedanken der abendländischen Einigung in politischer, wirtschaftlicher und geistiger Beziehung gefördert haben“. Die "Karlspreisgesellschaft" ist seit 1987 in der Rechtsform eines eingetragenen Vereins verfasst und führt den Namen "Gesellschaft für die Verleihung des Internationalen Karlspreises zu Aachen e.V." Seit 1997 existiert daneben die "Stiftung Internationaler Karlspreis zu Aachen", die den Gedanken der europäischen Einigung fördern soll sowie den Karlspreis ideell und materiell unterstützt. Jugendkarlspreis. Seit 2008 wird von der Karlspreisstiftung, gemeinsam mit dem Europäischen Parlament, auch der Europäische Karlspreis für die Jugend vergeben, der das europäische Engagement von Jugendlichen und jungen Erwachsenen würdigt und vorbildliche Jugendprojekte auszeichnet. Die Wettbewerbe und Preisträger seit 2008 sind auf der Website des Jugendkarlspreises dokumentiert. 2013 wurde das spanische Projekt "Europe on Track" (Europa auf dem Weg) ausgezeichnet: Studierende befragen junge Leute nach ihren Hoffnungen und Erwartungen bezüglich Europa. Eurolog. Ab 2013 wird im offiziellen Rahmenprogramm der Karlspreisverleihung im Schloss Zweibrüggen jährlich der Eurolog als Europagespräch mit EU-Bürgern, EU-Politikern und Eurokraten durchgeführt. Initiator ist Hartmut Urban; Veranstalter der Bürgermeister von Übach-Palenberg, Wolfgang Jungnitsch. Kritik und Proteste. Grundsätzlich kritisiert wird die Berufung auf den Namensgeber Karl den Großen, der im Nachhinein den Beinamen „Sachsenschlächter“ erhielt. Die Bezeichnung „Sachsenschlächter“ bezieht sich wesentlich auf das Blutgericht von Verden, ein angebliches Massaker an 4500 heidnischen Sachsen während der Sachsenkriege, das in der Forschung sehr unterschiedlich bewertet wurde und wird. Der Begriff Sachsenschlächter wurde Anfang des 20. Jahrhunderts auch von Vertretern der völkischen Bewegung benutzt, um die heidnischen Sachsen als letzte Bastion des germanischen Widerstands gegen die Unterwerfung unter das von Karl vertretene „welsche“ Christentum darzustellen. Bei ihrer Namenswahl bezogen sich die Gründer des Karlspreises auf die kulturelle Bedeutung Karls des Großen, mit dem der kulturelle Niedergang während der Wirren der Völkerwanderung beendet und umgekehrt wurde. Hier wirkt Karl der Große bis heute nach, indem er auf der Grundlage der lateinischen Sprache und Schriftkultur, der antiken Überlieferung und des Christentums eine kulturelle Überformung seines Machtbereiches herbeiführte, welche die Entwicklung Europas zu einem bei allen regionalen Unterschieden vergleichsweise einheitlichen Kulturraum in die Wege geleitet hat, die bis heute Bestand hat und Europa von anderen Erdteilen unterscheidet. Mit Bezug auf einen Bericht des US-Nachrichtenoffiziers Saul Kussiel Padover wurden sowohl in einer amerikanischen als auch einer britischen Pressemitteilung die Idee des Karlspreises wegen der Mitgliedschaft Pfeiffers in der NSDAP und fünf weiteren NS-Organisationen sowie den ebenfalls NS-belasteten Mitgliedern des ersten Karlspreisdirektoriums, Oberstadtdirektor und Bürgermeister Albert Servais und Hochschulprofessor Peter Mennicken, in Frage gestellt und dieser Preis zusätzlich auch als vermeintliche und nicht angebrachte „Mystifizierung“ Karls des Großen, seiner Politik und seines Reiches interpretiert. Beide Dokumente gehen auf die gleiche Quelle zurück, den englischen EU-Kritiker Rodney Atkinson, der auch die Website "Free Nations" betreibt. Gegen die in diesen Dokumenten aufgestellten Theorien sprechen die Biografien der Gründer des Karlspreises. Einige von ihnen waren erklärte Gegner der Nationalsozialisten, viele hatten während der nationalsozialistischen Herrschaft Probleme und Konflikte mit den damaligen Machthabern, wurden verfolgt und auch inhaftiert. Kritik wurde wiederholt an der Vergabepraxis des Direktoriums laut: Konservative Politiker würden deutlich stärker berücksichtigt. Der Name des sozialdemokratischen Bundeskanzlers und Friedensnobelpreisträgers Willy Brandt sei für die damalige Mehrheit der Jury ein „rotes Tuch“ und nicht verhandelbar gewesen. Bemerkenswert ist auch, dass Brandts Nachfolger im Amt, der 2015 verstorbene Helmut Schmidt als Preisträger übergangen wurde. Dagegen erhielten – bis auf die kurzzeitig regierenden Kanzler Ludwig Erhard und Kurt Georg Kiesinger – alle christdemokratischen Bundeskanzler den Karlspreis (eingeschlossen die amtierende Kanzlerin Merkel). Den Preisträgern Tony Blair (1999), Bill Clinton (2000) und Javier Solana (2007) wurde vorgehalten, sie seien die Hauptverantwortlichen der Luftangriffe gegen Jugoslawien. Häufig wurden die Verleihungen von Demonstrationen begleitet. Auf Kritik – u. a. von linken Gruppen – stößt immer wieder die Auswahl der Preisträger, wie auch die Institution Karlspreis selbst. Unter den Ausgewählten befanden sich etwa 1984 das ehemalige NSDAP-Mitglied Bundespräsident Karl Carstens und 1987 der ehemalige US-Außenminister Henry Kissinger, zu dessen Amtszeit sowohl die Ausweitung des Vietnamkrieges als auch der von US-Geheimdiensten unterstützte Putsch gegen die Regierung Chiles unter Salvador Allende durchgeführt wurden. Aus Protest gegen die Preisvergabe an Kissinger traten die Stadträte von SPD und Grünen aus dem Direktorium des Karlspreises aus. Seit 1990 sind wieder Vertreter beider Fraktionen im Karlspreisdirektorium vertreten, nachdem der Name in "Internationaler Karlspreis zu Aachen" verändert wurde und die Gründungsproklamation durch eine gemeinsame Erklärung des Rates der Stadt Aachen sowie der Karlspreisgesellschaft ergänzt worden war. In diese Erklärung fanden die seit 1989 veränderte politische Situation in Europa, die Rolle Europas im Nord-Süd-Gegensatz und das Thema Schutz der Umwelt Eingang. Preisträger. Die Geschichte des Karlspreises spiegelt die Geschichte des europäischen Einigungsprozesses seit Ende des Zweiten Weltkrieges wider. Die ersten Preisträger waren die „berühmtesten Namen des politischen Nachkiegs-Europas“, die Gründerväter der Europäischen Gemeinschaft für Kohle und Stahl, es folgten die Hoffnungsträger der Erweiterungen nach Süden und Norden, die Verantwortlichen für die europäischen demokratischen Institutionen, die Akteure der Wende im Osten Europas und der Wiedervereinigung von Ost und West und Impulsgeber auf kultureller und sozialer Ebene. Obwohl die ursprüngliche Proklamation eine jährliche Verleihung vorsah, gibt es zehn Jahre, in denen keine Verleihung stattfand. Außerordentlicher Preisträger. Am 24. März 2004 wurde zum bisher einzigen Mal ein außerordentlicher Karlspreis an Papst Johannes Paul II. verliehen (siehe oben). Karl der Große. Karl der Große (lateinisch Carolus Magnus oder Karolus Magnus, französisch und englisch Charlemagne; * wahrscheinlich 2. April 747 oder 748; † 28. Januar 814 in Aachen) war von 768 bis 814 König des Fränkischen Reichs (bis 771 gemeinsam mit seinem Bruder Karlmann). Er erlangte am 25. Dezember 800 als erster westeuropäischer Herrscher seit der Antike die Kaiserwürde, die mit ihm erneuert wurde. Der Enkel des Hausmeiers Karl Martell war der bedeutendste Herrscher aus dem Geschlecht der Karolinger. Das Frankenreich gelangte unter ihm zu seiner größten Ausdehnung und Machtentfaltung. Karl gelang es, seine Macht im Frankenreich zu sichern und es in einer Reihe von Feldzügen nach außen erheblich zu erweitern. Besonders verlustreich und erbittert geführt waren die mit Unterbrechungen von 772 bis 804 andauernden Sachsenkriege. Deren Ziel war die Eroberung und erzwungene Christianisierung Sachsens. Karl griff auch in Italien ein und eroberte 774 das Langobardenreich. Ein gegen die Mauren in Nordspanien gerichteter Feldzug im Jahr 778 scheiterte dagegen. Im Osten seines Reiches beendete er 788 die Selbstständigkeit des Stammesherzogtums Bayern und eroberte in den 790er Jahren das Restreich der Awaren. Die Grenzen im Osten gegen die Dänen und Slawenstämme sowie im Südwesten gegen die Mauren wurden durch die Einrichtung von Marken gesichert. Das Frankenreich stieg zur neuen Großmacht neben Byzanz und dem Abbasidenkalifat auf. Es umfasste den Kernteil der frühmittelalterlichen lateinischen Christenheit und war das bis dahin bedeutendste staatliche Gebilde im Westen seit dem Fall Westroms. Karl sorgte für eine effektive Verwaltung und bemühte sich um eine umfassende Bildungsreform, die eine kulturelle Neubelebung des Frankenreichs zur Folge hatte. Politischer Höhepunkt seines Lebens war die Kaiserkrönung durch Papst Leo III. zu Weihnachten des Jahres 800. Sie schuf die Grundlage für das westliche mittelalterliche Kaisertum. Sowohl in der Reihe der römisch-deutschen Kaiser als auch der französischen Könige wird er als Karl I. gezählt. Seine Hauptresidenz Aachen blieb bis ins 16. Jahrhundert Krönungsort der römisch-deutschen Könige. 1165 wurde er von Gegenpapst Paschalis III. heiliggesprochen. Karl gilt als einer der bedeutendsten mittelalterlichen Herrscher und als einer der wichtigsten Herrscher im europäischen Geschichtsbewusstsein; bereits zu Lebzeiten wurde er "Pater Europae" („Vater Europas“) genannt. In Belletristik und Kunst wurde sein Leben wiederholt thematisiert, wobei das jeweils zeitgenössische Geschichtsbild den Ausgangspunkt bildete. Kindheit und Jugend. Karl stammte aus der heute als Karolinger bezeichneten Familie, die zwar erst seit 751 die fränkische Königswürde innehatte, aber bereits in den Jahrzehnten zuvor die bestimmende Macht am Königshof war. Ihr Aufstieg begann im 7. Jahrhundert und resultierte aus der zunehmenden Schwäche des Königtums der Merowinger, wobei die wahre Macht zunehmend in die Hände der Hausmeier überging. Diese waren ursprünglich nur Verwalter des Königshofes gewesen, gewannen aber im Laufe der Zeit immer mehr Einfluss. Eine wichtige Rolle spielten bereits im 7. Jahrhundert die Arnulfinger und Pippiniden, die Vorfahren der späteren Karolinger. Ihre Machtbasis lag im östlichen Reichsteil Austrasien. Seit der Zeit Pippins des Mittleren und von dessen Sohn Karl Martell bestimmten sie endgültig die fränkische Reichspolitik. Auf Karl Martell geht auch die spätere Bezeichnung der Familie als „Karolinger“ zurück. Karl der Große war der älteste Sohn Pippins des Jüngeren, des fränkischen Hausmeiers und (seit 751) Königs, und seiner Frau Bertrada. Als Tag seiner Geburt steht der 2. April fest, der in einem aus dem 9. Jahrhundert stammenden Kalender des Klosters Lorsch festgehalten wurde. Das Geburtsjahr hingegen ist in der Forschung lange umstritten gewesen. Inzwischen wird aufgrund einer genaueren Quellenauswertung für das Jahr 747 bzw. 748 plädiert. Der Geburtsort ist hingegen völlig unbekannt, alle Bestimmungsversuche sind spekulativ. 751 kam Karls Bruder Karlmann zur Welt, 757 folgte seine Schwester Gisela († 810), die 788 Äbtissin von Chelles wurde. Auffallend sind die Namen, die Pippin seinen Söhnen gab. Wenngleich sie auf die Namen von Pippins Vater (Karl) und Bruder (Karlmann) zurückzuführen sind, standen sie ansonsten isoliert in der Namensgebung der Arnulfinger-Pippiniden. Sie waren auch nicht an der merowingischen Namensgebung orientiert wie die Namen späterer karolingischer Könige (Chlotar wurde zu Lothar, Chlodwig zu Ludwig). Vermutlich wollte Pippin so das neue Selbstbewusstsein seines Hauses illustrieren. Die von Karls Vertrautem Einhard verfasste Biographie – heute oft als "Vita Karoli Magni" bezeichnet – stellt neben den sogenannten "Annales regni Francorum" "(Reichsannalen)" die Hauptquelle für Karls Leben dar, doch übergeht sie die Kindheit, über die fast nichts bekannt ist. Die moderne Forschung kann ebenfalls nur wenige konkrete Aussagen über die faktisch „unbekannte Kindheit“ Karls machen. Zu Beginn des Jahres 754 überquerte Papst Stephan II. die Alpen und begab sich ins Frankenreich. Grund für diese Reise waren die zunehmenden Übergriffe des Langobardenkönigs Aistulf, der 751 das Exarchat von Ravenna erobert hatte. Formal unterstand dieser Raum der Herrschaftsgewalt des byzantinischen Kaisers, doch Konstantin V., der militärisch erfolgreich an der byzantinischen Ostgrenze gegen die Araber kämpfte und dort gebunden war, verzichtete zu dieser Zeit auf ein Eingreifen im Westen. Daraufhin wandte sich Stephan an den mächtigsten westlichen Herrscher und versuchte Pippin zu einem Eingreifen zu überreden. Die Anwesenheit des Papstes nördlich der Alpen erregte Aufsehen, denn es war das erste Mal, dass sich ein Bischof von Rom ins Frankenreich begab. Beim Treffen in der Pfalz von Ponthion trat der Papst als Hilfesuchender auf. Pippin ging mit ihm ein Freundschaftsbündnis "(amicitia)" ein und sagte ihm Unterstützung gegen die Langobarden zu. Von dem Bündnis profitierte auch Pippin, der erst seit 751 die fränkische Königswürde bekleidete, nachdem er den machtlosen letzten Merowingerkönig Childerich III. entthront hatte. Das Bündnis mit dem Papst half Pippin bei der Legitimierung seines Königtums, gleichzeitig wurden die Frankenkönige zu den neuen Schutzherren des Papstes in Rom, was für die weitere Entwicklung weitreichende Folgen hatte. Bei einem weiteren Treffen mit dem Papst zu Ostern 754 in Quierzy konnte Pippin das fränkische Eingreifen in Italien verkünden und garantierte dem Papst mehrere (auch ehemalige byzantinische) Territorien in Mittelitalien, die sogenannte Pippinische Schenkung, welche die Grundlage für den späteren Kirchenstaat bildete. Eine konkrete päpstliche Gegenleistung folgte bereits kurz darauf, denn noch im Jahr 754 wurden Pippin sowie seine beiden Söhne von Stephan II. in Saint-Denis zu Königen der Franken gesalbt, womit das neue karolingische Königtum zusätzlich einen sakralen Charakter erhielt. Alle drei erhielten zudem vom Papst den hohen römischen Ehrentitel "Patricius". Kurz darauf intervenierte Pippin erfolgreich in Italien zugunsten des Papstes, was allerdings auf den Widerstand der Byzantiner traf, da sie dies als Eingreifen in ihren Herrschaftsraum betrachteten. In den Quellen finden sich noch weitere vereinzelte Hinweise auf Karls Jugend. Neben Erwähnungen in Fürbitten für die Familie im Namen Pippins wird Karl in den Urkunden seines Vaters zweimal namentlich genannt, wobei es um seine amtliche Handlungsfähigkeit geht. 763 scheint Pippin seinen Söhnen zudem mehrere Grafschaften übertragen zu haben. Des Weiteren sind zumindest einige allgemeine Rückschlüsse auf Karls Jugend und Erziehung möglich. Es ist davon auszugehen, dass bei seiner Erziehung nicht nur auf die übliche fränkische Kriegerausbildung, die für einen König als Heerführer essentiell war, sondern auch auf eine gewisse Bildung Wert gelegt wurde. Ob ihm damals das volle Programm der "septem artes liberales", der sieben freien Künste, vermittelt wurde, um dessen Wiederherstellung er sich später im Rahmen seiner Bildungsreform bemühte, ist unklar und wird in der Forschung unterschiedlich eingeschätzt. Karl sprach von Hause aus Fränkisch, er erhielt jedoch sicher Lateinunterricht. Bereits in der Merowingerzeit war eine gewisse Bildung für hochstehende Adelige keineswegs ungewöhnlich gewesen. Obwohl das Bildungsniveau im 8. Jahrhundert gesunken war, war Latein am Hof, in der Verwaltung und im Gottesdienst allgegenwärtig. Anders als manch einer der späteren ostfränkischen bzw. römisch-deutschen Könige hat Karl das Lateinische offenbar auch verstanden. Einhard zufolge sprach er es wie seine Muttersprache, was eine Übertreibung sein mag. Er dürfte zudem über Lesekenntnisse des Lateinischen verfügt haben. Karl war jedenfalls ein für damalige Verhältnisse recht gebildeter Herrscher und sein Leben lang an Bildung interessiert. Herrschaftsantritt. König Pippin verbrachte die letzten Jahre seiner Regierungszeit damit, die Randgebiete des Frankenreichs zu sichern. Er führte Feldzüge in das ehemals westgotische Septimanien und eroberte 759 Narbonne, den letzten arabischen Vorposten nördlich der Pyrenäen. Pippins Neffe Tassilo III. bewahrte sich in Baiern eine gewisse Eigenständigkeit. Aquitanien hingegen wurde 768 nach mehreren Feldzügen in das Frankenreich eingegliedert. Auf dem Rückweg aus Aquitanien erkrankte Pippin im Juni 768 ernsthaft, woraufhin er sein Erbe zu regeln begann. Am 24. September 768 verstarb er in Saint-Denis. Kurz vor seinem Tod hatte er verfügt, dass das Reich unter seinen Söhnen Karl und Karlmann aufgeteilt werden sollte. Einhard zufolge orientierte sich die Teilung an der vorherigen Teilung von 741 zwischen Karl Martells Söhnen, doch deckte sie sich keineswegs mit dieser. Karl erhielt Austrasien, den Großteil Neustriens und den Westen Aquitaniens, Karlmann das restliche Aquitanien, Burgund, die Provence, Septimanien, das Elsass und Alamannien. Baiern war von der Erbteilung ausgeschlossen und blieb faktisch selbstständig. Damit umschloss Karls Reich das seines Bruders halbkreisartig im Westen und Norden. Am 9. Oktober 768, dem Gedenktag des Dionysius von Paris, wurde jeder der Brüder in seinem Reichsteil zum König gesalbt, Karl in Noyon und Karlmann in der alten merowingischen Residenz Soissons. Karl und Karlmann übten keineswegs eine gemeinsame Herrschaft über das Frankenreich aus, sondern regierten in ihren jeweiligen Reichen unabhängig voneinander, was sich an ihren Urkunden ablesen lässt. Ihr Verhältnis scheint von Beginn an angespannt gewesen zu sein. Es gibt zwar Hinweise auf eine punktuell beschränkte Kooperation, so hinsichtlich einer römischen Synode im März 769, doch war dies die Ausnahme. Beide handelten machtbewusst und traten in eine Konkurrenz zueinander. Beide wurden wohl im gleichen Jahr (770) Väter und benannten ihren Sohn jeweils nach ihrem Vater Pippin. Offensichtlich wurde der Bruch, als Karlmann seinem Bruder 769 die Unterstützung gegen das aufständische Aquitanien verweigerte, wo sich Huno(a)ld gegen die karolingische Herrschaft erhoben hatte. Karl warf den Aufstand schließlich allein nieder, wobei Hunold in Gefangenschaft geriet, und zog anschließend auch den Teil Aquitaniens ein, der formal Karlmann unterstand. In der Folgezeit nahmen die Spannungen zu. Bertrada versuchte zwar zwischen den verfeindeten Brüdern zu vermitteln, doch verlor sie bald ihren Einfluss auf Karl. Dieser hatte zunächst in eine von seiner Mutter arrangierte Ehe mit einer namentlich unbekannten Langobardenprinzessin eingewilligt, wofür er sich von seiner ersten Frau Himiltrud trennte. Bertrada scheint ein umfassendes Bündnissystem angestrebt zu haben: Neben dem durch die Eheschließung bekräftigten Bündnis mit dem ehrgeizigen Langobardenkönig Desiderius umfasste ihr Plan auch Tassilo, der bereits mit einer anderen Tochter des Desiderius verheiratet war. Die Bedenken Papst Stephans III., der von der plötzlichen fränkisch-langobardischen Annäherung zutiefst beunruhigt war, versuchte sie zu entkräften. Möglicherweise war auch Karlmann in das von Bertrada und wohl auch einigen fränkischen Großen forcierte neue Bündnissystem eingebunden; seine Ehefrau Gerberga ist vielleicht eine Verwandte des Desiderius gewesen. Karl änderte jedoch im Frühjahr 771 seine politischen Pläne und brach mit der Konzeption seiner Mutter. Seine langobardische Gemahlin sandte er zu Desiderius zurück, was für diesen ein Affront war. Stattdessen nahm Karl nun eine Alamannin namens Hildegard zur Frau. Dies musste Karlmann beunruhigen, denn Alamannien gehörte zu seinem Herrschaftsbereich, wo Karl nun offenbar Einfluss gewinnen wollte. Indem Karl alle Pläne seiner Mutter verwarf, handelte er erstmals erkennbar eigenständig. Eine offene Konfrontation zwischen Karl und Karlmann, die immer wahrscheinlicher geworden war, wurde durch den überraschenden Tod Karlmanns am 4. Dezember 771 verhindert. Karl übernahm unverzüglich die Macht im Reich des Verstorbenen, dessen Große ihm noch im Dezember 771 in Corbeny huldigten. Die Vermutung, Karl sei am Tod seines Bruders beteiligt gewesen, da er erheblich davon profitierte, wird nicht durch die Quellen gedeckt. Die Behauptung, Karlmanns Andenken sei einer "damnatio memoriae" („Vernichtung des Andenkens“) zum Opfer gefallen, trifft nicht zu; dass Karlmann nicht in Saint-Denis, sondern in Reims begraben wurde, geht sehr wahrscheinlich auf seinen eigenen Wunsch zurück. Sicher ist, dass Karl nun uneingeschränkt im Frankenreich herrschte. Karlmanns Witwe Gerberga floh mit ihren Kindern zu Desiderius nach Italien. Langobardenfeldzug und Eingliederung Italiens. Nach Karlmanns Tod hatte Karl seine Position im Reich gefestigt, doch die beiden Söhne seines Bruders, die mit ihrer Mutter und einigen fränkischen Großen ins Langobardenreich geflohen waren, bildeten eine potentielle Bedrohung. In Ober- und Mittelitalien spitzte sich die politische Lage zu. Desiderius hatte sich Gebiete angeeignet, auf die die römische Kirche Anspruch erhob. Gesandte Papst Hadrians baten daher im Frühjahr 773 am Hof Karls um die Unterstützung der päpstlichen Schutzmacht gegen die Langobarden. Karl zögerte nicht und entschloss sich zu einem großangelegten Langobardenfeldzug, ähnlich wie ihn sein Vater rund zwei Jahrzehnte zuvor unternommen hatte. Anders als Pippin plante Karl jedoch, das gesamte Langobardenreich zu erobern und in das Frankenreich zu integrieren, wie Einhard vermerkte. Der auf frühmittelalterliche Militärgeschichte spezialisierte Historiker Bernard Bachrach meint allerdings, Karl habe den Krieg gegen Desiderius nicht von Anfang an gewollt; erst die Entwicklung der Verhältnisse in Italien habe ihn zum Eingreifen veranlasst. Karl zog Ende 773 mit zwei großen fränkischen Heeresaufgeboten von Genf aus nach Italien. Eines führte er selbst über den Mont Cenis, das andere führte sein Onkel Bernhard über den Großen St. Bernhard. Desiderius sah sich in einer unhaltbaren Position und zog sich nach Pavia zurück. Karl ließ die stark befestigte Stadt belagern. Erst nach neun Monaten kapitulierte Pavia Anfang Juni 774 und wurde von den Franken geplündert. Karl besetzte das gesamte Langobardenreich und gliederte es in das Frankenreich ein. Er nannte sich fortan ohne neue Krönung König der Franken und der Langobarden; diese Titulatur ist in einer Urkunde vom 16. Juli 774 erstmals bezeugt. Desiderius, seine Frau und seine Tochter wurden wohl in die Abtei Corbie in Klosterhaft gesteckt. Der langobardische Königssohn Adelchis konnte nach Konstantinopel entkommen. Als es 787/88 zu einem Konflikt zwischen den Franken und den Langobardenfürsten in Spoleto und Benevent kam, brachten die Byzantiner Adelchis ins Spiel. Dies blieb aber nur eine kurze Episode; die langobardischen Fürsten akzeptierten doch wieder die fränkische Oberherrschaft und gingen gegen die Byzantiner vor, worauf Adelchis alle Pläne aufgeben musste. Die langobardischen Fürstentümer in Unteritalien blieben Karls Zugriff faktisch entzogen, Oberitalien und Teile Mittelitaliens hingegen gehörten fortan zum Frankenreich und sollten später als Reichsitalien auch Bestandteil des römisch-deutschen Reiches sein. Wohl noch im Jahr 773 waren bei einem Vorstoß auf Verona Gerberga und ihre beiden Söhne in Karls Hände gefallen. Ihr weiteres Schicksal ist unbekannt. Wahrscheinlich ließ Karl seine Neffen wegen ihres Anspruchs auf das väterliche Erbe beseitigen oder inhaftieren. Zu Ostern 774 erschien Karl plötzlich mit Gefolge vor Rom, während sein Heer noch Pavia belagerte. Papst Hadrian war davon völlig überrascht. Den Langobardenkönigen hatten die Päpste den direkten Zugang zur Stadt stets verweigert, doch den fränkischen Herrscher und neuen Schutzherren des Papsttums wollte Hadrian offenbar nicht verärgern. 30 Meilen vor der Stadt empfing man den Frankenkönig in ritueller Weise, wobei sich das Protokoll am Empfang des byzantinischen Exarchen orientierte, des obersten militärischen und zivilen Verwalters des byzantinischen Kaisers in Italien. Karl wurde zur Kirche St. Peter begleitet, wo Hadrian ihn mit einem großen Anhang feierlich empfing. Der Papst und der König begegneten einander ehrenvoll und versicherten sich ihrer gegenseitigen Freundschaft. Karl soll um die formale Erlaubnis gebeten haben, die Stadt zu betreten, was ihm gestattet wurde. Anschließend zog der Frankenkönig und römische "Patricius" in die ehemalige Kaiserstadt am Tiber ein, die im Mittelalter zwar nur einen Bruchteil der antiken Bevölkerungszahl aufwies, deren Monumentalbauten aber auf Besucher immer noch eindrucksvoll wirkten. Offenbar war Karl bestrebt, die Position und die Autorität des Papstes auch symbolisch zu achten. Realpolitisch bedeutsam war die bei diesem Anlass vorgenommene Erneuerung des "Pactum", der von Pippin geschlossenen Übereinkunft mit dem Papsttum hinsichtlich der päpstlichen Gebietsansprüche. Geistliche und weltliche Gewalt, die beiden Universalgewalten des Mittelalters, schienen harmonisch zusammenzuwirken. Karl nahm in den folgenden Tagen an allen religiösen Kulthandlungen in Rom teil, bevor er die Stadt verließ. Die Sachsenkriege. Im Sommer 772 begannen die mit Unterbrechungen bis 804 andauernden Sachsenkriege. Die immer noch paganen („heidnischen“) Sachsen kannten keine zentralen Herrschaftsinstitutionen und lebten nicht wie die Franken und Langobarden in einem geschlossenen Reichsverband, sondern in nur locker organisierten Stammesverbänden (Westfalen, Ostfalen, Engern und Nordalbingier). Die Sachsen waren bereits zuvor wiederholt in Konflikt mit den Franken geraten, da ihr Stammesgebiet direkt an das nordöstliche fränkische Herrschaftsgebiet angrenzte. Einhard bezeichnet Karls Feldzüge gegen die Sachsen als die bislang längsten, grausamsten und anstrengendsten Kampfhandlungen für die Franken. Er verdammt die Sachsen als Götzendiener und Feinde des Christentums, nennt als Ziel für Karls Feldzüge aber nicht etwa die Christianisierung der Sachsen, sondern die Beseitigung dieser militärischen Bedrohung an der fränkischen Grenze. Schon Karl Martell und Pippin hatten begrenzte Feldzüge gegen die Sachsen unternommen, ohne deren Bekehrung anzustreben. In der modernen Forschung werden Karls Sachsenkriege jedoch durchaus als Missionierungskriege betrachtet. Einhard und die Reichsannalen vermitteln ein eher tendenziöses Bild der Sachsenkriege, während von sächsischer Seite nur späte Berichte aus der Zeit nach der Christianisierung vorliegen. Dagegen vermitteln zeitnahe Briefe, Gedichte und Herrschererlasse Momentaufnahmen der Sachsenkriege und lassen erkennen, dass der Ausgang über mehrere Jahre offen war. Sicher ist, dass dieser „dreißigjährige Krieg“ fast jährliche Kriegszüge erforderte. Auch für eine militärisch geprägte Gesellschaft wie die fränkische, in der sich der König stets als Heerführer beweisen musste und in der Beute sowie erzwungene Tribute wirtschaftlich von Bedeutung waren, stellte dies eine enorme Belastung dar. Der Krieg begann 772 mit einem fränkischen Vorstoß tief ins sächsische Stammesgebiet. Karl stieß von Worms aus auf die Eresburg vor und eroberte sie. Anschließend gelangten die Franken zum (wohl zentralen) sächsischen Kultheiligtum, der sogenannten Irminsul, die Karl zerstören ließ. Die Zerstörung der Irminsul passt durchaus in das Bild eines schon 772 zumindest zukünftig beabsichtigten Missionswerks, ebenso ist aber auch reine Beutelust als Motiv denkbar. Der fränkische Vorstoß, der wohl auch Spannungen zwischen einigen fränkischen Großen und dem König abbauen sollte, war jedenfalls vorerst erfolgreich verlaufen. Doch war dies nur ein scheinbarer Sieg, zumal die dezentrale Stammesorganisation der Sachsen den Franken die Kontrolle erheblich erschwerte. Die Sachsen nutzten die Abwesenheit des Königs, der sich 773/74 in Italien aufhielt, und verheerten 774 fränkisches Gebiet im heutigen Hessen, wobei mehrere christliche Kirchen und Klöster überfallen wurden. Karl drang 775 mit einem großen Heer in Sachsen ein und erzwang die Unterwerfung der Engern (unter Bruno) und der Ostfalen (unter Hassio/Hessi); auch die Westfalen wurden geschlagen. Der König ging während dieses Feldzugs offenbar mit großer Brutalität vor: Die hofnahen Reichsannalen berichten zum Jahr 775 von drei Blutbädern, die Karl anrichten ließ, und den Nordhumbrischen Annalen zufolge wütete er unter seinen Feinden. Karls Reaktion auf den Vertragsbruch durch die Sachsen war die Losung, dass es nur noch Taufe oder Tod für die Sachsen geben könne. Spätestens zu diesem Zeitpunkt betrachtete Karl die Sachsenfeldzüge auch als Missionierungswerk, denn in der überarbeiteten Fassung der Reichsannalen, den sogenannten "Einhardsannalen", ist vermerkt, dass der Krieg gegen die Sachsen so lange andauern werde, bis sie sich dem christlichen Glauben unterworfen hätten oder ausgerottet seien. 776 kam es zu einem erneuten Sachsenaufstand, der ebenfalls niedergeschlagen wurde. Die Eresburg wurde wiedererrichtet und die Sachsen mussten Geiseln stellen. Karl ließ in Sachsen weitere Stützpunkte anlegen, darunter die sogenannte Karlsburg "(civitas Karoli)", die aber später zerstört und dann als Paderborn neu aufgebaut wurde. In der Folgezeit wurden Kirchen und Klöster gegründet, um die Missionierung Sachsens zu forcieren und die fränkische Herrschaft zu festigen. 777 schien die Lage in Sachsen so weit unter Kontrolle zu sein, dass der König in Paderborn eine Reichsversammlung abhalten konnte. Dies war eine spektakuläre Demonstration der fränkischen Herrschaft, die erste Reichsversammlung außerhalb des fränkischen Kernlands. Zu diesem Zeitpunkt wähnten sich die Franken offenbar als vollständige Sieger. Noch im selben Jahr kam es wiederholt zu Massentaufen, die entgegen dem Kirchenrecht teils unter Zwang stattfanden; hinzu kamen fränkische Abgabenforderungen, die für die Sachsen eine zusätzliche Belastung durch die fränkische Fremdherrschaft darstellten. 778 erscheint das erste Mal der Sachse Widukind als ein neuer Anführer der Aufständischen, die sich weiterhin gegen die fränkische Herrschaft stellten; beteiligt waren in erster Linie nicht Adelige, sondern Freie und Halbfreie, während Teile des sächsischen Adels sich mit den Eroberern arrangierten. Der Zeitpunkt für eine abermalige Erhebung schien günstig, denn Karl hatte im selben Jahr in Spanien eine herbe Niederlage erlitten. Den sächsischen Widerstand betrachtete Karl jetzt auch als Abkehr vom christlichen Glauben, die daran beteiligten Sachsen waren für ihn Hochverräter. Umso härter reagierte er. Bereits 778 zog er Truppen zusammen, im Sommer 779 besiegte er die Sachsen bei Bocholt in einer der seltenen offenen Schlachten dieses Konflikts. Karl drang in Sachsen weiter vor und empfing wieder die Unterwerfung mehrerer Aufständischer, die wieder Geiseln stellen mussten. 780 und 782 hielt Karl erneut Reichsversammlungen in Sachsen ab. Der sächsische Widerstand schien gebrochen zu sein. Sächsische Adelige wurde in die fränkische Herrschaft eingebunden und belohnt und es sollte sogar ein fränkisch-sächsisches Truppenaufgebot gegen die Slawen zum Einsatz kommen. Da erhoben sich 782 erneut große Teile der Sachsen unter Führung Widukinds. Am Süntel im Weserbergland schlugen sie ein fränkisches Truppenaufgebot vernichtend, was in der Originalfassung der Reichsannalen verschwiegen, aber in den Einhardsannalen eingeräumt wird. Karl marschierte eiligst an die Weser, um den Aufstand zu ersticken. Ein Teil der Rebellen unterwarf sich erneut, aber bei Verden an der Aller kam es noch 782 zum sogenannten Blutgericht von Verden: Den Reichannalen zufolge wurden 4500 Sachsen auf Befehl Karls getötet. In der Forschung findet dieser Vorgang bis heute viel Beachtung. Die Zahl 4500 mag deutlich übertrieben sein, unbestreitbar ist jedoch, dass Karl in Verden eine äußerst brutale Maßnahme ergriff, die viel zur Verdunkelung seines Bildes bei der Nachwelt beigetragen hat, auch wenn die Anzahl der getöteten Sachsen deutlich niedriger sein mag. Da eine ähnliche Aktion später nicht mehr stattfand, wird das „Blutgericht“ vor allem der Abschreckung gedient haben. Im selben Jahr wurde die fränkische Grafschaftsverfassung (siehe unten) in Sachsen eingeführt, es wurden wieder Geiseln gestellt und Sachsen deportiert. Ebenso wurde die sogenannte "Capitulatio de partibus Saxoniae" erlassen, die für Abweichungen vom christlichen Glauben, Übergriffe auf christliche Würdenträger oder Einrichtungen sowie für pagane Kulthandlungen harte Strafen (oftmals die Todesstrafe) vorschrieb. 783 besiegten die Franken in zwei Gefechten die Sachsen. Ende 784 zog Karl im Winter wieder nach Sachsen, um seine Herrschaft abzusichern. Im folgenden Jahr wurden weitere Feldzüge durchgeführt, der sächsische Widerstand war nun brutal gebrochen worden und Karl bot Widukind Gespräche an. Widukind stimmte zu und unterwarf sich dem Frankenkönig; er ließ sich sogar zu Weihnachten des Jahres 785 in der Pfalz Attigny taufen, wobei Karl als sein Taufpate fungierte. Der sächsische Widerstand flackerte die folgenden Jahre zwar noch teilweise auf, erreichte aber nicht mehr das Ausmaß der ersten Phase der Sachsenkriege. 792 kam es erneut zu Unruhen und zwischen 793 und 797 mussten regelmäßig fränkische Heeresaufgebote ausrücken, doch fanden diese Kämpfe vor allem im nordöstlichen Sachsen im Elberaum statt. Die Franken konsolidierten ihre Herrschaft in Sachsen, Christianisierung und Kirchenorganisation wurden vorangetrieben und es wurden mehrere Deportationen durchgeführt. Die fränkische Herrschaft war nun weitgehend abgesichert. Der von Alkuin kritisierte „herrschaftliche Terror“, der offenbar zielgerichtet betrieben worden war, konnte daher abgemildert werden. 797 wurde die "Capitulatio de partibus Saxoniae" durch eine mildere Verordnung ersetzt. 802 wurde mit der "Lex Saxonum" geschriebenes Recht für die Sachsen erlassen, das auch Elemente ihres Stammesrechts aufnahm. 802 und 804 kam es zu weiteren fränkischen Feldzügen im nördlichen Elberaum. Sächsische Einwohner wurden von dort ins östliche Frankenreich deportiert, statt ihrer wurden im Elberaum Franken angesiedelt. Die Sachsenkriege waren nun endgültig beendet. Spanien. Während Karls frühe Expansionspolitik zwar (wie in Sachsen) hart erkämpft, aber insgesamt betrachtet überaus erfolgreich war, war 778 ein Krisenjahr seiner Herrschaftszeit. Bei der Reichsversammlung von Paderborn im Jahr 777 erschienen unerwartet hochrangige Gesandte aus der arabisch beherrschten Iberischen Halbinsel (al-Andalus). Der Umayyade Abd ar-Rahman I., der dem Umsturz durch die Abbasiden entkommen und nach Spanien geflüchtet war, hatte dort eine vom neuen Kalifen in Bagdad unabhängige Herrschaft etabliert, das Emirat von Córdoba. In diesem Reich gab es starke Spannungen zwischen Arabern und Berbern. Zur Opposition gehörte unter anderem der arabische Wali Suleiman al-Arabi. Er bat zusammen mit zwei weiteren Gesandten in Paderborn Karl um Beistand gegen Abd ar-Rahman. Als Gegenleistung unterwarfen sich die drei arabischen Großen dem Frankenkönig. Karl bot dies Anlass für eine weitere Expansion, zumal die Franken früher bereits mehrfach in Kämpfe mit arabischen Truppen verwickelt gewesen waren. Bereits 759 scheint ein arabischer Statthalter König Pippin seine Unterwerfung angeboten zu haben. a>" 112, P, fol. 57v), Ende des 12. Jahrhunderts Bereits im folgenden Jahr (778) unternahm Karl einen Feldzug nach Nordspanien. Als Begründung dienten ihm arabische Überfälle, so zumindest formulierte er es in einem Brief an den Papst; außerdem konnte er als Schützer der spanischen Christen auftreten. Das Heer teilte er in zwei Abteilungen: Eine stieß zunächst auf Pamplona vor, die andere auf Saragossa. Der christliche König von Asturien betrachtete Karls Feldzug eher argwöhnisch, vielleicht verständigte er sich sogar mit dem Emir von Córdoba. Pamplona, die Hauptstadt der christlichen Basken, wurde erobert, doch der Vorstoß auf Saragossa, wo sich das fränkische Heer wieder vereinigte, blieb erfolglos. Die Quellenlage für den Spanienfeldzug ist äußerst schlecht, doch erwies sich Abd ar-Rahmans Machtstellung offenbar als gefestigt und die gegen ihn gerichtete Opposition als nicht ausreichend stark. Al-Arabi stellte zwar Geiseln und Barcelona sowie andere Städte wurden Karls Herrschaft unterstellt, doch scheint es sich hierbei um rein formale Unterwerfungen gehandelt zu haben, die folgenlos blieben und den Franken keinen Gewinn einbrachten. Offensichtlich hatte Karl nur unzureichende Vorstellungen von den Verhältnissen in Spanien, er hat sich hinsichtlich der Erfolgsaussichten verkalkuliert. Als er die Nachricht von dem erneuten Aufstand in Sachsen erhielt, brach er den ohnehin gescheiterten Feldzug ab und trat den Rückzug an. Auf dem Rückzug ließ Karl noch die Mauern von Pamplona zerstören, doch die Basken rächten sich für sein hartes Vorgehen. Im August 778 lauerten sie dem fränkischen Heer auf und fügten der Nachhut in der Schlacht von Roncesvalles wohl recht erhebliche Verluste zu. Die Reichsannalen verschweigen die Niederlage Karls, doch in der überarbeiteten Fassung, den Einhardsannalen, wird sie erwähnt. Neben anderen fränkischen Adligen fiel auch Hruodland, der Befehlshaber der bretonischen Grenzmark. Sein Tod diente als Stoff für das im 12. Jahrhundert aufgezeichnete sehr populäre Rolandslied. Die in pro-karolingischen Quellen beschönigten Ereignisse des Spanienfeldzugs werden in der Forschung als vollständiger Misserfolg bewertet. Dennoch sollte Karl später erneut in Nordspanien aktiv werden, diesmal mit mehr Erfolg. 792/93 kam es zu arabischen Einfällen ins Frankenreich, woraufhin die Franken Feldzüge nach Nordspanien unternahmen. Mehrere befestigte Städte konnten eingenommen werden, darunter Barcelona (803) und Pamplona (811). Im eroberten Gebiet wurden Christen angesiedelt. Die Franken hatten damit eine strategisch wichtige Pufferzone errichtet, die aber erst nach Karls Tod als reguläre Grenzgrafschaft, die Spanische Mark, eingerichtet wurde. Awarenkrieg. Das Reich der Awaren um 600 Im Südosten grenzte das Frankenreich an das Awarenreich. Die Awaren waren Reiternomaden aus dem asiatischen Steppenraum, die im späten 6. Jahrhundert im Blickfeld der Byzantiner aufgetaucht waren und bis ins frühe 7. Jahrhundert ein mächtiges Reich im Balkanraum etabliert hatten. Für das Jahr 782 ist eine awarische Gesandtschaft an Karl belegt. Obwohl das Awarenreich im späten 8. Jahrhundert seinen Zenit längst überschritten hatte, unternahmen die Awaren im Jahr 788 Einfälle in das Frankenreich, so nach Oberitalien und Bayern. Diese Vorstöße waren vielleicht durch Hilfegesuche oppositioneller Kreise im Frankenreich ausgelöst worden oder entsprangen der Befürchtung der Awaren, dass sie das nächste Opfer von Karls Expansionspolitik sein würden. Der awarische Vorstoß scheiterte jedenfalls, und bei den folgenden Verhandlungen in Worms 790 konnte keine Einigung erzielt werden. Ob nun Karl die Grenze im Südosten stabilisieren wollte oder schlicht auf Eroberung aus war, 791 begann jedenfalls eine großangelegte fränkische Invasion des Awarenreichs. Einhard beschreibt den folgenden Krieg als den größten Karls neben den Sachsenkriegen. Der Awarenkrieg war auch deshalb von großer symbolischer Bedeutung, weil er gegen „Heiden“ geführt wurde und sich Karl so ganz als christlicher Herrscher stilisieren konnte. Beim Feldzug von 791 wichen die Awaren den Franken aus, die zur Versorgung des Heeres eine große Flussflotte auf der Donau einsetzten. In den folgenden Jahren plante Karl einen weiteren Feldzug. In diesem Zusammenhang wurde auch ein Kanalbau (Fossa Carolina) vorangetrieben. Zunächst verhinderten jedoch erneute Sachsenaufstände das Vorhaben. 794/95 kam es im Awarenreich zu internen Machtkämpfen, die den Tod des regierenden Khagans zur Folge hatten. Völlig unerwartet erschien 795 eine Delegation einer awarischen Gruppe an der Elbe und bot Karl die Unterwerfung ihres Anführers, des "Tudun", an. Dieser akzeptierte Karl als Oberherrn und ließ sich im folgenden Jahr sogar taufen. Awarische Gürtelschnallen aus dem 7. Jahrhundert 796 marschierte ein fränkisches Heer erneut ins Awarenreich ein und machte reiche Beute (sogenannter "Awarenschatz"); der neue Khagan unterwarf sich den Franken. Die Macht der Awaren war damit gebrochen und ihr Reich zerfiel zusehends. 799/803 kam es zu einem Aufstand gegen die fränkische Oberherrschaft, der aber wirkungslos blieb, zumal die Franken in die inneren Strukturen des Awarenreichs nicht eingriffen. Christianisierung und Neubesiedlung wurden im Grenzraum jedoch vorangetrieben. Zum Jahr 822 werden noch einmal awarische Gesandte in den Quellen erwähnt, das Awarenreich selbst befand sich jedoch in einem endgültigen Auflösungsprozess. Die Franken zogen den Grenzraum nun direkt in das Reich ein und organisierten eine Grenzmark, diesmal zur Abwehr der Bulgaren, die im Balkanraum ein neues Reich errichtet hatten. Das Ende der Selbständigkeit Bayerns. Nachdem Karl Ende 771 den Reichsteil seines Bruders Karlmann übernommen hatte und 773/74 erfolgreich in Italien interveniert hatte, blieb nur eine Leerstelle im karolingischen Reichsverband: Bayern, wo Tassilo III., ein Neffe König Pippins, als Herzog regierte. Tassilo hatte Pippin Gefolgschaft geleistet und sich 756 an einem Feldzug gegen die Langobarden beteiligt. Anschließend übernahm er jedoch seit 757 die eigenständige Herrschaftsgewalt im Herzogtum Bayern. Über die folgenden Jahre lässt sich kaum etwas Genaueres sagen. Die Aufzeichnungen der karolingischen Reichsannalen über Tassilo wurden rückblickend erstellt und sollten vor allem sein Verhalten in einem ungünstigen Licht erscheinen lassen. Dort wird berichtet, der Herzog habe 757 König Pippin einen Vasalleneid geleistet und diesen 763 gebrochen, indem er während eines Feldzugs in Aquitanien „Fahnenflucht“ (althochdeutsch "harisliz") begangen habe. In der modernen Forschung wird dieser Darstellung, besonders aufgrund des nachfolgenden Prozesses und der politischen Hintergründe, in der Regel keinen Glauben geschenkt. Wenn sie zuträfe, wäre der Bayernherzog zeitnah zur Verantwortung gezogen worden, denn auf ein solches Verhalten stand die Todesstrafe. Tassilo stammte aus der alten und vornehmen Familie der Agilolfinger. Bayern genoss schon seit der Merowingerzeit eine Sonderrolle im Reich. Als Herzog trat Tassilo selbstbewusst auf. Er heiratete die Langobardenprinzessin Liutberga und unterhielt sehr gute Beziehungen zum Papst. Seine Herrschergewalt in Bayern übte er umfassend aus, nicht zuletzt im kirchlichen Bereich. Damals entfaltete sich in Bayern auch eine rege kulturelle Aktivität. Tassilo genoss in seinem Herzogtum faktisch eine königsähnliche Stellung und urkundete 769 sogar in Anlehnung an die karolingische Königstitulatur. Karl duldete jedoch keine politischen Konkurrenten. Daher lag sein Vorgehen gegen den Agilolfinger, zu dem er sich relativ spät entschloss, in der Konsequenz seiner Politik. Im Jahr 787 wurde Tassilo nach Worms vorgeladen, wo er sich dem Frankenkönig unterwerfen sollte. Der Bayernherzog erschien jedoch nicht und bemühte sich um päpstliche Vermittlung. Bald schon musste er jedoch erkennen, dass nicht nur der Papst ganz auf die Linie Karls einschwenkte und ihn zur vollständigen Unterwerfung aufforderte, sondern dass er nun auch im eigenen Herzogtum über wenig Rückhalt verfügte. Als Karl noch 787 militärisch gegen Tassilo vorging, traten mehrere bayerische Große auf die fränkische Seite über. Tassilo war isoliert und unterwarf sich im Oktober 787 Karl, dem er nun auch einen Gefolgschaftseid leistete. Gerd Althoff hat diesen Vorgang als frühestes Vorkommen der rituellen "deditio" (Unterwerfung) gedeutet. Dennoch blieben Spannungen bestehen und Karl sah nun offenbar eine günstige Gelegenheit, die Lage in seinem Sinn zu bereinigen. Im Juni 788 wurde Tassilo nach Ingelheim vorgeladen und dort zusammen mit seiner Familie festgesetzt. Ihm wurde vorgeworfen, mit den Awaren paktiert zu haben; hinzu kam der Vorwurf der „Fahnenflucht“. Profränkische bayerische Adelige sagten gegen den Herzog aus, der zum Tode verurteilt wurde. Karl wandelte das Urteil in lebenslange Klosterhaft um. 794 wurde Tassilo kurzzeitig aus der Klosterhaft entlassen, um auf der Synode von Frankfurt noch einmal öffentlich Reue zu bekunden und auf seine Ansprüche urkundlich zu verzichten. In der modernen Forschung besteht kein Zweifel daran, dass die gegen Tassilo erhobenen Vorwürfe fingiert waren und in Ingelheim ein politischer Scheinprozess stattfand. Karl hatte sich aus politischen Gründen entschlossen, die unliebsame Sonderstellung des mächtigen Bayernherzogs zu beenden. Eine königsähnliche Nebenherrschaft innerhalb seines Machtbereichs wollte er nicht tolerieren. Tassilos Herrschaft brach schnell zusammen, da er in seinem Herzogtum Gegner hatte, die sich von einer Zusammenarbeit mit Karl mehr versprachen. Die offizielle Sichtweise des karolingischen Königshofs wird vor allem in der Schilderung der Reichsannalen sichtbar, in denen eine leicht nachvollziehbare „Beweiskette“ der angeblichen Vergehen Tassilos aufgeführt und der Herzog als untreuer Gefolgsmann dargestellt wurde. Bayern behielt in der Folgezeit dennoch eine gewisse Sonderstellung: Kirchlich blieb es eine Einheit und auch in der Verwaltung wurde nicht die Grafschaftsverfassung eingeführt, sondern die Regierung einem königlichen Präfekten übergeben. Politisch wurde es nun aber endgültig Teil des Reiches. Die Kaiserkrönung. Seit 795 fungierte Leo III. als Papst in Rom. Das Papsttum war in dieser Zeit unter den Einfluss des in diverse Fraktionen aufgesplitterten römischen Stadtadels geraten, der bei der Papstwahl ausschlaggebend war. Leo wurde unter anderem ein unwürdiger Lebenswandel vorgeworfen, vor allem aber verfügte er beim stadtrömischen Adel über keinerlei politischen Rückhalt, seine Lage wurde immer prekärer. Ende April 799 spitzte sich die Konfrontation zwischen dem Papst und dem Adel so zu, dass auf Leo ein Attentatsversuch unternommen wurde, hinter dem Vertraute des vorherigen Papstes Hadrian I. standen. Leo überlebte und flüchtete zu Karl nach Paderborn. Diese Vorgänge schildert das Paderborner Epos. Karl leistete Leo militärische Unterstützung und ließ ihn Ende 799 nach Rom zurückführen. Im Spätsommer des Jahres 800 begab sich Karl selbst nach Italien, Ende November erschien er in Rom. Dort kam es am 1. Weihnachtstag, dem 25. Dezember 800, in Alt St. Peter zur Kaiserkrönung Karls des Großen durch den Papst. Damit wurde eine äußerst wirkungsmächtige Entwicklung für das gesamte weitere Mittelalter in Gang gesetzt: die Übertragung der römischen Herrschaft auf die Franken (Translatio imperii). Das römische Kaisertum im Westen, wo 476 der letzte Kaiser in Italien abgesetzt worden war, wurde durch die Krönung Karls erneuert. In diesem Zusammenhang spielten heilsgeschichtliche Aspekte eine wichtige Rolle; das römische Imperium galt als das letzte Weltreich der Geschichte (Vier-Reiche-Lehre). Nun existierte ein neues „römisches Kaisertum“, das an den Herrschaftsanspruch der antiken römischen Kaiser anknüpfte und in der Folgezeit erst von den Karolingern, dann seit den Liudolfingern (Ottonen) von den römisch-deutschen Königen beansprucht wurde. Ohne die Tragweite abschätzen zu können, legte Karl somit auch den Grundstein für das römisch-deutsche Kaisertum. Dies sind die sicheren Fakten, doch sind wesentliche Details der Kaiserkrönung unklar. Über den Vorgang der Kaiserkrönung liegen insgesamt vier Berichte vor (Lorscher Annalen, "Liber pontificalis", Reichsannalen und Einhard). Im Kern wird dort die Schutzfunktion Karls gegenüber der Kirche und dem Papst gelobt. Das Volk sei begeistert gewesen und die Kaiserkrönung eher als spontane Handlung erfolgt. Einhard behauptet sogar, dass Karl die Kirche nicht betreten hätte, wenn er von Leos Vorhaben gewusst hätte. Diese Schilderungen werden in der modernen Forschung jedoch als unzutreffend betrachtet. Es gilt als ausgeschlossen, dass die Vorbereitungen unbemerkt ablaufen konnten, dass Karl am Weihnachtstag der Kirche hätte fernbleiben können und dass eine von ihm nicht gewollte Krönung durchführbar war. Vielmehr war es Karl selbst, der seit einiger Zeit gezielt auf die Kaiserkrönung und die Erneuerung des römischen Kaisertums im Westen hingearbeitet hatte. Der Papst wirkte zwar als Koronator, befand sich aber in einer äußerst schwachen Position und war ganz von Karls Unterstützung abhängig. Als Kaiser übernahm Karl denn auch die Rolle des Richters über Leos römische Gegner. Die Schaffung des westlichen Kaisertums wurde von mehreren Faktoren begünstigt. Im Osten existierte weiterhin das Reich der Byzantiner, die sich „Rhomäer“ (Römer) nannten und auf eine ununterbrochene staatliche Kontinuität zum spätantiken Römerreich zurückblicken konnten. Im Jahr 800 herrschte dort jedoch mit Kaiserin Irene eine Frau (was man im Westen abwertend betrachtete), die mit zahlreichen innenpolitischen Problemen zu kämpfen hatte. Aus karolingischer Perspektive wurde das sogenannte „Kaisertum der Griechen“ – eine für die Byzantiner provozierende Bezeichnung – berücksichtigt, aber abwertend beurteilt; es wurde sogar eine angebliche Übertragung des Kaisertums von Byzanz auf Karl konstruiert. In Byzanz hingegen betrachtete man Karl schlicht als Usurpator und hielt den exklusiven Anspruch auf das „römische“ Kaisertum aufrecht. Erst 812 kam es zu einer Verständigung hinsichtlich des Zweikaiserproblems. Die Kaiserkrönung des Jahres 800 war auch heilsgeschichtlich bedeutsam, da Endzeiterwartungen verbreitet waren, die mit dem römischen Reichsgedanken verbunden waren. In einer Zeit, in der das Religiöse ganz entscheidend das Denken bestimmte, erhielt die Kaiserkrönung so eine eschatologische Komponente. Auswärtige Beziehungen. Karl unterhielt weitreichende auswärtige Beziehungen, die von England bis in den östlichen Mittelmeerraum reichten. Einhard geht auf diesen Aspekt in seiner Biographie des Herrschers ein und beschreibt knapp die weitgespannte karolingische Diplomatie. Die damaligen Möglichkeiten auswärtiger Politik, deren Hauptinstrument Gesandtschaften waren, dürfen zwar nicht überschätzt werden, doch vermittelten die Kontakte dem Hof Einblicke in eine wesentlich weitere Welt. Das angelsächsische England war in mehrere konkurrierende Reiche geteilt, zu denen die Franken traditionell gute Beziehungen unterhielten. Karl stand unter anderem im (nicht immer spannungsfreien) Kontakt mit dem mächtigen König Offa von Mercien, der zeitweise die Vorherrschaft in England errang. Der spätere König Egbert von Wessex hielt sich einige Zeit an Karls Hof auf. Einhard zufolge haben die schottischen Herrscher sogar Karls Oberherrschaft anerkannt. Im Osten und nach der Eroberung Sachsens auch im Nordosten grenzte das Frankenreich an das Gebiet der Slawen. Diese bildeten keine geschlossene Einheit, sondern waren in Einzelstämme zersplittert. Das um 850 entstandene Werk des „Bayerischen Geographen“ listet unter anderem die Abodriten, Wilzen, Sorben und Böhmen auf. Zu Beginn der 780er Jahre sind slawische Angriffe auf fränkisches Gebiet belegt, so etwa ein sorbischer Einfall im Jahr 782. In der Folgezeit kam es immer wieder zu einzelnen fränkischen Feldzügen in slawisches Stammesgebiet. Hervorzuheben ist die größere fränkische Offensive unter Karls Befehl im Jahr 789, die sich gegen die Wilzen unter Dragowit jenseits der Elbe richtete, wobei Dragowits Hauptburg belagert wurde und er sich schließlich unterwerfen musste. Unter Führung des Kaisersohns Karls des Jüngeren drangen 805 und nochmals 806 fränkische, bayerische und sächsische Heere in Böhmen ein. Andererseits fungierten einzelne slawische Stämme auch als fränkische Verbündete; die wichtigsten waren die Abodriten. 808 griffen die Wilzen im Bündnis mit den Dänen die Abodriten und den Osten Sachsens an, wurden aber 812 geschlagen. Auf planvolle christliche Missionierung in den Slawengebieten verzichtete Karl. In diesem Bereich erstrebte er keine territoriale Expansion, sondern wollte nur die Reichsgrenze sichern und die angrenzenden Herrschaftsräume befrieden. In der Forschung wird Karls Slawenpolitik denn auch als wesentlich defensiver bewertet als sein Vorgehen in den anderen Grenzräumen des Frankenreichs. Zum Zweck der Grenzsicherung wollte er eine formale Unterwerfung der Slawen und lockere Abhängigkeiten der betreffenden Stammesgebiete erreichen, ähnlich wie es Römer und Byzantiner an den Grenzen ihrer Reiche anstrebten. Bei den fränkischen Kriegszügen spielten allgemein materielle Motive eine wichtige Rolle. Timothy Reuter konnte nachweisen, dass Beute "(praedae)" aus gezielten Plünderungen bei Kriegszügen und regelmäßige Tributzahlungen "(tributa)" Strukturmerkmale des Karolingerreichs waren. Zu diesen Einkünften zählten neben materiellen Besitztümern auch Sklaven. Die Tribute flossen direkt dem König zu. Solche Einnahmen waren ein wichtiges Motiv für militärische Aktionen, so gegen Sachsen, Awaren und später gegen die Slawen. Die Karolinger verfügten über kein stehendes Heer. Ihre Truppen wurden vielmehr nach Bedarf mobilisiert, wobei die gepanzerte Reiterei von großer Bedeutung war. Zur Heeresfolge verpflichtet war jeder Freie im Frankenreich, wobei die Schätzungen hinsichtlich der Gesamtstärke weit auseinander liegen. Die Aussicht auf Beute war ein wichtiger Anreiz für die jeweils eingesetzten Truppen. Gleichzeitig sicherten militärische Erfolge den Franken eine hegemoniale Stellung gegenüber schwächeren Nachbarn wie den Slawenstämmen und verschafften dem siegreichen König in der fränkischen Kriegergesellschaft zusätzliche Legitimität. Allerdings hat kürzlich Bernard Bachrach die wirtschaftliche Bedeutung der Einnahmen aus Plünderungen und Tributzahlungen in Frage gestellt. 804 wurde die von der sächsischen Bevölkerung zwangsweise geräumte Region nördlich der Elbe den Abodriten zugewiesen. Sie war bald darauf von Angriffen der Dänen betroffen, die den Reichsannalen zufolge in den Jahren 782 und 798 Gesandtschaften zu den Franken entsandt hatten. Unter Gudfred unternahmen die Dänen 804 und 808 per Schiff Vorstöße im nördlichen Grenzraum, 810 überfiel eine große Flotte die friesische Küste. Die Franken sahen sich gezwungen, den Grenzschutz in diesem Gebiet wieder selbst zu übernehmen. Diesem Zweck diente die von Karl angeordnete Errichtung der Burg Esesfeld. 811 und 813 wurden Friedensverträge mit den Dänen geschlossen. Nach Karls Tod kam es jedoch wiederholt zu weiteren, diesmal wesentlich ernsthafteren Raubzügen der Nordmänner gegen das Frankenreich. Bereits 799 hatten Nordmänner (Dänen oder Norweger) an der gallischen Atlantikküste Überfälle durchgeführt, die die maritime Unterlegenheit der Franken verdeutlichten. Andererseits bestanden auch Handelsbeziehungen zu den nördlichen Nachbarn; in der Zeit nach Karl wurden auch die Missionierungsbemühungen vorangetrieben. Die Eroberungen Karls des Großen Zum Kalifat unterhielt das Frankenreich seit der Zeit König Pippins lose Kontakte. Ein Aspekt war dabei der Wunsch der fränkischen Herrscher, den Zugang christlicher Pilger zu den heiligen Stätten zu sichern. 797 nahm Karl Kontakt mit Hārūn ar-Raschīd auf, dem Kalifen von Bagdad aus dem Geschlecht der Abbasiden. Einhard gibt den Namen des Kalifen korrekt als "Aaron" wieder und betont, er beherrsche den gesamten Osten außer Indien; der später entstandene Bericht Notkers zu den Gesandtschaften ist hingegen bereits stark legendarisch ausgeschmückt. Hārūn ar-Raschīd beherrschte tatsächlich ein gewaltiges Gebiet, das sich von Nordafrika über den Nahen Osten bis nach Zentralasien erstreckte. Der Kalif schenkte Karl einen asiatischen Elefanten namens Abul Abbas, den der jüdische Fernhändler Isaak 801 ins Frankenreich brachte. Die genauen Hintergründe der diplomatischen Mission sind unbekannt, doch dürften die Pilgerfahrten und der Schutz der Christen im Kalifat Gegenstand der Verhandlungen gewesen sein. 802 wurde eine zweite fränkische Gesandtschaft nach Bagdad entsandt. Diesmal war eindeutig Karls neues Selbstverständnis als Kaiser und Schutzherr der christlichen Heiligtümer (wie in Jerusalem) entscheidend. Es folgte 807 eine Gegengesandtschaft aus dem Kalifat, die Karl reiche Geschenke brachte. Das Verhältnis des Kaisers zum Kalifen war gut, auch die Handelsbeziehungen profitierten davon. Eventuell spielten Bündnisüberlegungen gegen Byzanz eine Rolle. Nach dem Tod des Kalifen verschlechterte sich jedoch die Lage der Christen im Kalifat und die Beziehungen zwischen beiden Reichen ebbten ab. Im Zuge der Kontakte Karls zu den weiterhin unabhängigen langobardischen Fürstentümern Süditaliens wurde ein lockerer Kontakt zu den muslimischen Aghlabiden im heutigen Tunesien aufgenommen. Intensivere Beziehungen unterhielt Karl nach Spanien, so zu muslimischen Teilherrschern (was zum fatalen Fehlschlag des Spanienfeldzugs 778 führte) und zum asturischen König Alfons II. Die Beziehungen des Frankenreichs zu Byzanz waren intensiv, wenngleich das Verhältnis seit der Kaiserkrönung Karls im Jahr 800 mehrere Jahre schwer belastet war, denn nun ergab sich das sogenannte Zweikaiserproblem: Beide Seiten beanspruchten, in der Nachfolge der römischen Kaiser zu stehen, und erhoben einen damit verbundenen universalen Geltungsanspruch. Nikephoros I., seit 802 byzantinischer Kaiser („Basileus“), empfand die Kaiserwürde Karls als Anmaßung und verweigerte deren Anerkennung. Der Konflikt verschärfte sich noch, als Karl die von Byzanz beanspruchten Regionen Dalmatien und Venetien seinem Machtbereich einverleibte. Es kam zu begrenzten Kampfhandlungen, beide Seiten waren aber im Grundsatz an einem Ausgleich interessiert: Karl war noch immer an den Grenzen gebunden, während die Byzantiner im Westen von Bulgaren und im Osten vom Kalifat bedroht wurden. Bereits im Jahr 811 hatte Karl einen Brief nach Konstantinopel gesandt, doch wurde Nikephoros kurz darauf getötet. Im Frieden von Aachen (812) wurde ein tragfähiger Ausgleich mit dessen Nachfolger Michael I. erzielt. An ihn schickte Karl 813 einen neuen Brief, in dem er ihn als seinen ehrwürdigen Bruder anredete. Die große Bedeutung der Kontakte zwischen dem Frankenreich und Byzanz lässt sich auch an der recht hohen Zahl von Gesandtschaften ablesen: Insgesamt vier fränkische und acht byzantinische Gesandtschaften sind in Karls Regierungszeit belegt. Hof und Herrschaftspraxis. Der Hof war das Zentrum des herrschaftlichen Handelns. Die frühmittelalterlichen Könige waren Reisekönige, die von Pfalz zu Pfalz reisten und unterwegs die Regierungsgeschäfte regelten, so dass auch der Hof mobil war. Die Geldwirtschaft spielte im Frühmittelalter durchaus eine Rolle und Münzen wurden fast kontinuierlich geprägt, auch in der Zeit Karls des Großen. Dennoch dominierte im Frankenreich die Naturalwirtschaft; materielle Grundlage des Königtums war das Krongut. Karl unterhielt eine Vielzahl von Pfalzen, die über das Reich verstreut waren, zeitweise als königliche Residenzen fungierten und der Versorgung des Königshofes dienten. Zu den besuchten Orten zählten solche, die bereits in früherer Zeit von fränkischen Königen favorisiert wurden, doch kamen unter Karl auch neue Orte hinzu, so in den eroberten Gebieten. Der Schwerpunkt seiner Reiserouten, des herrscherlichen Itinerars, lag im Nordosten, vor allem in der Region zwischen der Maas und dem Rhein-Main-Gebiet. Die Anzahl der jeweiligen Aufenthalte variiert stark und reicht von einem einzigen (wenngleich wichtigen) Aufenthalt in Frankfurt am Main bis zu 26 Aufenthalten in Aachen. Aachen war wohl aufgrund der nahen Waldgebiete, in denen der König seiner Jagdleidenschaft nachgehen konnte, und wegen der heißen Quellen Karls Lieblingsresidenz; nach 795 hielt er sich nur noch dreimal während des Winters an anderen Orten auf. Aachen fungierte nun als königliche Hauptresidenz und vor Ort wurden umfangreiche Baumaßnahmen durchgeführt, zu denen vor allem die Errichtung der prächtigen Aachener Königspfalz gehörte. Das 882 entstandene Werk "De ordine palatii" des Erzbischofs Hinkmar von Reims gibt Einblick in den Hofaufbau. Im Verwaltungsbereich am Hof spielte die Hofkapelle, welcher der "capellanus" vorstand, eine wichtige Rolle. Hinzu kamen der Kanzler und die Notare. Diese waren alle Geistliche, während der Pfalzgraf weltliche Angelegenheiten regelte und ebenfalls zum engsten Beraterkreis des Königs gehörte. Des Weiteren waren eine große Anzahl von Bediensteten am Hof tätig, darunter der Kämmerer, der Mundschenk, der Quartiermeister, der Seneschall und weiteres Hauspersonal („Hausgesinde“). Nicht zu unterschätzen ist die Bedeutung der Königin, die dem königlichen Haushalt vorstand. Der Hof war nicht nur politischer Mittelpunkt, sondern auch ein wichtiges kulturelles Zentrum. Karl der Große selbst war offenbar kulturell interessiert und versammelte an seinem Hof gezielt mehrere Gelehrte aus dem lateinischsprachigen West- und Mitteleuropa. Der angesehenste von ihnen war der Angelsachse Alkuin (gestorben 804). Alkuin war zuvor Leiter der berühmten Kathedralschule in York gewesen; er besaß eine umfangreiche Bibliothek und genoss einen herausragenden Ruf. Er begegnete Karl in Parma und folgte 782 dem Ruf an dessen Hof, wo er nicht nur als ein einflussreicher Berater wirkte, sondern auch zum Leiter der Hofschule aufstieg. Hinzu kam eine Reihe anderer Gebildeter wie Einhard. Dieser war zunächst Schüler Alkuins, später Leiter der Hofschule, Vertrauter Karls und als dessen Baumeister tätig. Nach dem Tod Karls verfasste er seine berühmte Biographie des Kaisers, die an antiken Vorbildern orientiert war. Petrus von Pisa war ein lateinischer Grammatiker, der ebenfalls an den Karlshof berufen wurde und Karl Lateinunterricht erteilte. Der langobardische Gelehrte Paulus Diaconus hatte in Italien im Königsdienst gestanden und war 782 an den Hof Karls gekommen, wo er vier Jahre blieb und wirkte. Der Patriarch Paulinus II. von Aquileia verfügte über ein breit gefächertes Wissen. Theodulf von Orléans war ein überaus belesener und gebildeter gotischer Theologe und Dichter. Er verfasste für Karl die "Libri Carolini". Aus Irland stammten die Gelehrten Dungal und Dicuil, die sich mit naturwissenschaftlichen Studien beschäftigten. Karl konnte sich bei seinen kulturellen Bestrebungen noch auf weitere Personen in seinem Umfeld stützen, darunter Arn von Salzburg, Angilbert, die mit dem Herrscher verwandten Brüder Adalhard und Wala sowie seine Schwester Gisela (gestorben 810, seit 788 Äbtissin von Chelles). Der Hof und die Hofschule gaben Impulse für eine kulturelle Erneuerung, wobei auch die karolingische Kirche als zentraler Kulturträger reformiert wurde. In der Regel zweimal im Jahr wurden Hoftage als Versammlungen des Königs und der Großen des Reiches einberufen, um anstehende politische Fragen zu klären oder Streitigkeiten zu schlichten. Herrschaft war im Frühmittelalter ganz wesentlich an einzelne Personen gebunden, es existierten faktisch keine „staatlichen Institutionen“ (und damit kein abstrakter Begriff wie Staatlichkeit) losgelöst von diesen personalen Herrschaftsstrukturen. Dennoch etablierten die Karolinger eine für die zeitgenössischen Verhältnisse relativ effektive Verwaltungsstruktur. Karl beseitigte die letzten Reste der älteren Stammesherzogtümer, mit Tassilo III. war 788 der letzte Herzog abgesetzt worden. Die Verwaltung im Reich lag nun (wie bereits teils in merowingischer Zeit) vor allem in den Händen der Grafen. Diese fungierten nicht nur als Heerführer, sondern im Rahmen der sogenannten "Grafschaftsverfassung" auch als königliche Amtsträger bei der Ausübung der Regalien. In bestimmten Bereichen waren sie Stellvertreter des Königs (Mark-, Burg- und Pfalzgrafen). Besondere Bedeutung erlangten die Markgrafen: In ihrem Amt bündelten sich verschiedene Kompetenzen in den neuen Grenzmarken, wo sie über weitreichende Sonderrechte verfügten. Die Übertragung von Ämtern und Gütern an die führenden Adelsfamilien sicherte deren Loyalität und begründete eine neue Reichsaristokratie, die an der Königsherrschaft partizipierte. Das Karolingerreich war ein Vielvölkerreich, über das die Franken nicht alleine herrschten, sondern in das auch andere ethnische Gruppen eingebunden waren. Einer effektiveren Herrschaftsdurchdringung sollten die sogenannten Königsboten "(missi dominici)" dienen. Diese wurden paarweise entsandt, je ein weltlicher und ein geistlicher Bote (in der Regel ein Graf und ein Bischof), um Anweisungen und Erlasse durchzusetzen und Abgaben einzutreiben, aber auch zur Demonstration der königlichen Herrschaftspräsenz und zur Kontrolle vor Ort. Sie konnten in einem zugeteilten Bezirk wenn nötig die unmittelbare Herrschaftsgewalt ausüben und Urteile fällen. Es waren die "missi", welche den Treueeid abnahmen, den im Jahr 789 alle männlichen Bewohner des Reiches ab dem Alter von zwölf Jahren dem König leisten mussten. Damit war Karl bestrebt, die Loyalität seiner Untertanen weiter zu sichern. Der Eid wurde 802 erneut eingefordert. Grundlage einer effektiven Verwaltung war neben der herrschaftlichen Infrastruktur die Schriftlichkeit. Die Anzahl ausgestellter Urkunden kann als Indikator für die herrschaftliche Durchdringung des Reichsgebiets dienen. 164 als echt angesehene Urkunden Karls sind überliefert, doch handelt es sich dabei nur um den im Original oder abschriftlich erhaltenen Teil der insgesamt weit zahlreicheren Urkunden, die Karl ausstellte. Die frühen Merowingerkönige hatten in ihrer Kanzlei zunächst hauptsächlich schriftkundige Laien beschäftigt, in der Folgezeit wurden aber Schreib- und Lesekenntnisse nur noch Geistlichen vermittelt. Die Schriftkenntnisse im Frankenreich waren seit dem 7. Jahrhundert rückläufig, das Latein verwilderte zunehmend. Die sogenannte "Bildungsreform" Karls diente denn auch nicht nur einer kulturellen Neubelebung, sondern war auch ein wichtiger Baustein zur Sicherstellung einer effizienten Herrschaftspraxis. Karls Reformen zielten auf eine umfassende Neuordnung im kirchlichen, kulturellen und herrschaftlichen Bereich ab. Kapitel 70 des "Capitulare de villis vel curtis imperii" Ein wichtiges Instrument der Königsherrschaft war die Gesetzgebung, von der Karl ausgiebig Gebrauch machte. Mit den sogenannten Kapitularien wurde eine weitgehend einheitliche Gesetzgebung geschaffen, das Gerichtswesen und die Rechtsprechung wurden ebenfalls reformiert. Eine berühmte Quelle für die Wirtschaftsgeschichte, speziell für die Agrarwirtschaft und den Gartenbau, ist die Landgüterverordnung "Capitulare de villis vel curtis imperii", die Karl der Große als detaillierte Vorschrift über die Verwaltung der Krongüter erließ. Damit wollte er offenbar eine reibungslose Versorgung des Königshofs sicherstellen. Im März 789 erließ Karl das Kapitular "Admonitio generalis". Es war ein „programmatisches Kapitular“, das eine allgemeine Ermahnung beinhaltet und sich gegen Missstände in der Kirche und im Reich richtete. In 82 Kapiteln wurde auf die kirchliche Neuordnung, Belebung des Wissens und Bekämpfung von Häresie und Aberglauben eingegangen und allgemein auf eine bessere Lebensführung der Untertanen hingewirkt. Es wurde für Frieden und Eintracht geworben, unerwünschte Faktoren wie Hass, Neid und Zwietracht wurden verurteilt, wobei sich mehrere direkte Anweisungen an den Klerus und nur relativ wenige an alle Untertanen richteten. Diese Ermahnungen und Anordnungen waren Bestandteil eines umfassenden Reformprogramms, das die Bildungsreform einschloss und das Karl zwar nicht selbst erarbeitet, aber maßgeblich gefördert und vorangetrieben hatte. Das gesamte Leben im Reich sollte sich an dem Programm der "Admonitio generalis" orientieren, die Durchführung wurde den "missi" übertragen. Karl erzielte damit allerdings keinen vollen Erfolg. Das ist nicht nur auf die Unzulänglichkeit seiner Herrschaftsmittel, sondern auch auf Begehrlichkeiten und Übergriffe der Großen zurückzuführen. Karl erkannte durchaus, dass die bestehenden Verhältnisse seinen Vorstellungen von Ordnung und Recht oft faktisch Grenzen setzten, und reagierte darauf, etwa indem er sich 802 um eine Neuordnung der "missi" bemühte. In seinen Kapitularien betonte Karl unter anderem den Schutz der Freien und prangerte teilweise kirchliche Begehrlichkeiten an. Der Schutz der Armen "(pauperes)" war Bestandteil des königlichen Aufgabenkatalogs, und Karl bemühte sich um eine zumindest teilweise Verbesserung der Lebensbedingungen für die ärmeren Schichten und auch für Unfreie, denen sich sogar gewisse Aufstiegsmöglichkeiten eröffneten. Die Juden, von denen manche traditionell als Fernhändler aktiv waren, genossen königlichen Schutz. Kirchenpolitik. Eine herausragende Rolle bei der Neuordnung und Festigung im Innern spielte die Kirche, die über eine zusätzliche, sich über das gesamte Reich erstreckende Infrastruktur verfügte. Das Zusammenspiel zwischen Königtum und Kirche war keine grundsätzliche Neuerung, da dies im Frühmittelalter allgemein von besonderer Bedeutung war. Bereits die Merowinger hatten die Kirche in ihre Herrschaftskonzeption eingebunden und daran hatten die frühen Karolinger angeknüpft. Karl forcierte diesen Prozess aber zusätzlich durch den massiven Ausbau der klerikalen Infrastruktur. So wurden zahlreiche neue Klöster gegründet und Bistümer eingerichtet, wobei sich Karl das Recht vorbehielt, die Bischöfe selbst zu ernennen. Des Weiteren ließ Karl der Kirche umfangreiche Schenkungen und Begünstigungen zukommen, ebenso wurden kirchliche Reformen durchgeführt. Die Einführung der Metropolitanverfassung, die regelmäßige Abhaltung von Synoden im Beisein des Königs und die Durchführung von Visitationen stärkten das Band zwischen König und Kirche. Die umfassende Bildungsreform Karls betraf vor allem die Kirche, die von der Hebung des Bildungsstandes und von den Maßnahmen zur Beseitigung kirchlicher Missstände profitierte. Karl verstand sich nicht nur als Förderer der Kirche, sondern durchaus auch als Herr des Reichsepiskopats. In kirchlichen Fragen hatte er großen Einfluss. Allgemein konnte er sich auf die Bischöfe stützen, die überwiegend aus den lokalen Adelsfamilien stammten und sowohl im geistlichen wie im weltlichen Bereich eine wichtige Rolle spielten. Glaube und Politik waren im Mittelalter oft eng verzahnt. Karl, der auch den Titel "defensor ecclesiae" („Verteidiger der Kirche“) trug, war nicht nur gläubig, er war auch bestrebt, seine Rolle als christlicher Herrscher in reale Politik umzusetzen. Dies spiegelt sich in zahlreichen Erlassen des Kaisers wider, nicht zuletzt im Rahmen der Verlautbarungen zur Bildungsreform, wo die Anwendung des geschriebenen Wortes bei der Gottesverehrung von zentraler Bedeutung war. In einem wohl im Auftrag Karls geschriebenen Briefs Alkuins an Papst Leo III. aus dem Jahr 796 wird deutlich, dass der Kaiser der Bekämpfung der „Ungläubigen“ im Ausland und der Festigung des Glaubens im Inneren hohe Priorität einräumte. Karl setzte auf eine aktive Missionierungspolitik, so vor allem in Sachsen. Diese wurde teils mit erheblicher Gewalt durchgeführt, was etwa Alkuin, der auf der Freiwilligkeit des Glaubens beharrte, explizit kritisierte. Hinzu kam, dass der kirchlichen Lehrmeinung zufolge eine Person erst im Glauben unterwiesen werden musste, bevor sie sich freiwillig dazu bekannte. Die bekehrten Sachsen waren aber nur sehr oberflächlich mit dem Christentum bekannt gemacht worden, während strenge Gesetze die anschließende Einhaltung sicherstellen sollten; eine verstärkte Mission bei den Sachsen setzte nach 785 ein. Im Inneren drang Karl auf eine christliche Lebensführung seiner Untertanen, eine stärkere „Verchristlichung der Gesellschaft“, so beispielsweise hinsichtlich der Einhaltung der zehn Gebote und des Sonntagsgebots. Erwähnung Frankfurts (am Main) als "Franconofurd" im "Sacrosyllabus" des Paulinus von Aquileia aus dem Jahr 794. Bayerische Staatsbibliothek München, clm 14468, fol. 42-42v. Zentrum der karolingischen Kirchenpolitik war seit Ende des 8. Jahrhunderts Aachen, wenngleich sich dort kein Bischofssitz befand. Nach 794 fanden Synoden im Beisein des Königs nur noch in Aachen statt. In den folgenden Jahren kümmerte sich Karl immer wieder auf Synoden um kirchliche Probleme. Während in Byzanz im 8. und 9. Jahrhundert der Bilderstreit entbrannte, beschäftigte man sich im Frankenreich auf der Synode von Frankfurt 794 mit der religiösen Bilderverehrung, die man schließlich ablehnte. Die von Pippin in die Wege geleitete Reform der Liturgie nach römischem Vorbild wurde weitergeführt. Auf dem Konzil von Aachen (809) wurde die sogenannte Filioque-Formel für verbindlich erklärt. Karls Sohn und Nachfolger Ludwig der Fromme knüpfte an diese Tradition an und hielt weitere Synoden in Aachen ab, bevor die karolingische Zentralgewalt in den Nachfolgekämpfen zerbrach. Die seit der Königszeit Pippins praktizierte Kooperation mit dem Papsttum wurde fortgesetzt, von der beide Seiten stark profitierten. Papst Stephan II. hatte das neue fränkische Königsgeschlecht legitimiert, während die Franken als neue weltliche Schutzmacht des Papstes fungierten. Über die Umstände des ersten Zusammentreffens zwischen Pippin und Papst Stephan II. im Jahr 754 variieren jedoch die Quellenberichte. In der Fortsetzung der Fredegarchronik "(Continuatio Fredegarii)" wird geschildert, dass der damals wohl fünfjährige Karl dem Papst mit einer Delegation entgegengeeilt war, um Stephan II. im Frankenreich zu begrüßen und in die Pfalz nach Ponthion zu begleiten. Dort wurden Pippin und mehrere fränkische Große vom Papst reich beschenkt. Der Bericht in der Lebensbeschreibung Stephans im "Liber Pontificalis" weicht davon an einem entscheidenden Punkt ab. Demnach ist hier Karl ebenfalls dem Papst entgegengekommen, doch auch Pippin hat den Papst eine Wegstunde von der Pfalz in Ponthion entfernt feierlich empfangen und sich vor ihm sogar zu Boden geworfen. Diese Abweichung ist auf den jeweiligen Charakter der Quellen zurückzuführen, in denen die entsprechenden Rituale den Lesern gegenüber anders gedeutet wurden und jeweils der König bzw. der Papst hervorgehoben wurde. Karl nutzte günstige Gelegenheiten, um seinen eigenen Einfluss zu vergrößern. So unternahm er zwar 773/74 auch zum Schutz des Papstes vor den Langobarden den Italienfeldzug, gliederte die eroberten Gebiete aber weitgehend seinem Reich ein. Die grundsätzliche Frage, wie das Verhältnis zwischen dem fränkischen König und dem Papst ausgestaltet war, gewann nach der Kaiserkrönung zu Weihnachten 800, auf die Karl selbst hingearbeitet hatte, neue Aktualität. Kaisertum und Papsttum waren beide Universalgewalten und keine Seite konnte eine formale Unterordnung unter die jeweils andere unwidersprochen akzeptieren. Doch zur Zeit der Kaiserkrönung war Karl in einer politisch weitaus günstigeren Position, während Papst Leo III. aufgrund seiner schwachen Stellung in Rom faktisch vom Kaiser abhängig war. Allerdings gewann das Papsttum schon kurz nach Karls Tod neuen Handlungsspielraum. Das Papsttum erreichte unter Nikolaus I. im 9. Jahrhundert einen neuen Höhepunkt, eine gewisse „Weltstellung“, bevor der päpstliche Einfluss im späten 9. Jahrhundert verfiel und das Papsttum in der Folgezeit von stadtrömischen Kreisen und dann bis ins frühe 11. Jahrhundert oft von starken Kaisern dominiert wurde. Karolingische Bildungsreform. a>, Inv.-Nr. XIII 18, fol. 178v Im Frankenreich war die lateinische Sprache im 7./8. Jahrhundert zunehmend „verwildert“, das proto-romanische Vulgärlatein hatte sich sowohl in der Morphologie als auch in der Syntax weit vom „klassischen“ antiken Latein entfernt. Auch die kirchlichen Bildungseinrichtungen verfielen. Griechischkenntnisse waren im Westen kaum noch vorhanden, aber auch korrektes Latein musste von Romanen neu erlernt werden. Der sprachliche Verfall wurde im Karolingerreich seit Ende des 8. Jahrhunderts durch gezielte Maßnahmen der Kulturförderung aufgehalten und umgekehrt. Diese neue Aufschwungphase wird oft als karolingische Renaissance bezeichnet. Der Begriff „Renaissance“ ist aus methodischen Gründen allerdings sehr problematisch. Im Frankenreich handelte es sich nicht um eine „Wiedergeburt“ des klassischen antiken Wissens, sondern nur um eine Reinigung und Vereinheitlichung des bestehenden Kulturguts. Für die Karolingerzeit spricht man aus diesem Grund heute eher von der "karolingischen Bildungsreform". Es ging darum, die „Weisheit der Alten“ zu erneuern, wobei die Grundlage der frühmittelalterlichen Bildung im Westen die aus der Spätantike bekannten "septem artes liberales" bildeten. Den Anstoß für die Bildungsreform gab wohl die Reform der fränkischen Kirche durch Bonifatius Mitte des 8. Jahrhunderts. Diese kulturelle Erneuerung wurde auch durch externe Impulse gefördert, da das geistige Leben in England und Irland schon zuvor eine Wiederbelebung erfahren hatte und die Schriftkultur zunehmend erstarkte, wie etwa das Wirken des Beda Venerabilis im frühen 8. Jahrhundert zeigt. Angelsachsen wie der gebildete Alkuin spielten denn auch im Gelehrtenzirkel der sogenannten Hofschule eine Rolle. Karl selbst war keineswegs ungebildet und interessierte sich sehr für Kultur. Er förderte die Bildungsreform nach Kräften, die Umsetzung aber war maßgeblich Alkuins Verdienst. Der Schlüsselbegriff dafür lautete "correctio". Damit war gemeint, dass die lateinische Schrift und Sprache, also die Grundlage für den kulturellen und geistlichen Diskurs im lateinischen Westen, sowie der Gottesdienst zu „berichtigen“ waren. Das vorhandene Bildungsgut sollte systematisch gesammelt, gepflegt und verbreitet werden. Dazu diente auch die Einrichtung einer stetig erweiterten Hofbibliothek. In der berühmten "Admonitio generalis" aus dem Jahr 789 wird auch das Bildungsprogramm explizit angesprochen. Die Klöster wurden unter anderem ermahnt, Schulen einzurichten, auf die Bildung der Priester und auf die korrekte Wiedergabe der Texte beim Kopieren zu achten; Korrekturbedürftiges sei zu korrigieren. Die Reform der Kloster- und Domschulen war auch aus religiösen Gründen von Bedeutung, da der Klerus auf möglichst genaue Sprach- und Schriftkenntnisse angewiesen war, um die Vulgata, die lateinische Bibelfassung, auslegen und theologische Schriften erstellen zu können. Dies ist ein zentraler Gedanke der Reform: Eindeutigkeit des geschriebenen und gesprochenen Wortes seien für eine wirksame Gottesverehrung unerlässlich. Damit wurde „Wissenschaft“ in den Dienst des Glaubens gestellt. Die lateinische Schriftsprache wurde bereinigt und verbessert. Als neue Schriftart setzte sich die karolingische Minuskel durch, die als Schreibschrift gut geeignet war. Es wurde sehr auf eine nach antikem Maßstab korrekte Grammatik und Schreibweise Wert gelegt, wodurch das stilistische Niveau angehoben wurde. Im kirchlichen Bereich wurde unter anderem die Liturgie überarbeitet, Homiliensammlungen wurden erstellt, und die Beachtung der kirchlichen Regeln wurde eingefordert. Auch im administrativen Bereich kam es zu Änderungen. Die kirchlichen Bildungseinrichtungen wurden verstärkt gefördert. Außerdem wurde eine revidierte Fassung der Vulgata angefertigt, die sogenannte "Alkuinbibel". Ältere Schriften wurden durchgesehen und korrigiert, Kopien erstellt und verbreitet. Die Hofschule wurde zum Lehrzentrum, was auf das gesamte Frankenreich ausstrahlte. Mehrere Klöster wurden neu gegründet oder erlebten einen erheblichen Aufschwung, so unter anderem St. Gallen, Reichenau, St. Emmeram, Mondsee und Fulda. Sie waren Hauptträger der Bildungsreform und wurden deshalb vielfach erweitert. Im Kloster Fulda beispielsweise entwickelte sich unter Alkuins Schüler Rabanus Maurus eine ausgeprägte literarische Kultur. So kam neben dem Königshof mehreren Klöstern und Bischofssitzen eine zentrale Rolle bei der Bildungsreform zu. Die Forschung hat für die Zeit um 820 neben dem Aachener Hof 16 „Schriftprovinzen“ identifiziert, jede mit mehreren Skriptorien. Die Bildungsreform sorgte für eine deutliche Stärkung des geistigen Lebens im Frankenreich. Die literarische Produktion stieg nach dem starken Rückgang seit dem 7. Jahrhundert spürbar an, auch Kunst und Architektur profitierten davon. Noch erhaltene antike lateinische Texte sowohl von paganen als auch von christlichen Verfassern wurden nun wieder zunehmend herangezogen, gelesen, verstanden und vor allem kopiert, wobei der Aufwand für die Buchproduktion nicht unerheblich war. Wichtige kirchliche Texte wurden von sprachlichen Verwilderungen gereinigt und in Musterexemplaren zur Vervielfältigung bereitgestellt. Von der Hofbibliothek aus wurden seltene Texte den Kathedral- und Klosterbibliotheken zur Abschrift zur Verfügung gestellt. Buchbestände wurden gesichtet und schriftlich in Katalogen erfasst, neue Bibliotheken eingerichtet. Besonders nachgefragt waren Ovid und Vergil, daneben wurden unter anderem Sallust, Quintus Curtius Rufus, Sueton und Horaz wieder zunehmend gelesen. Die karolingische Bildungsreform hatte somit für die Überlieferung antiker Texte eine große Bedeutung. Diese sind zu einem großen Teil nur deshalb erhalten geblieben, weil sie im Rahmen der Bildungsreform neu kopiert und damit gerettet wurden. Die Kopiertätigkeit schärfte gleichzeitig die Lateinkenntnisse, so dass es auch zu einem qualitativen Anstieg der Latinität kam. Des Weiteren ließ Karl „barbarische“ (d.h. germanische, volkssprachliche) „alte Heldenlieder“ aufschreiben, doch ist die Sammlung nicht erhalten. Die Bildungsreform stärkte auch die Entwicklung der volkssprachigen Literatur, so des Althochdeutschen. Zentren altdeutscher Überlieferung waren später unter anderem die Klöster Fulda, Reichenau, St. Gallen und Murbach. Fragmentarisch erhalten ist etwa das "Hildebrandslied", ein althochdeutsches Heldenlied (um 830/40). Die Zeit der karolingischen Bildungsreform war auch eine Blütezeit der Kunst, vor allem der Goldschmiedearbeiten, zu denen der sogenannte Talisman Karls des Großen zählt, und der Buchkunst. Der hohe Stellenwert von Kultur und Kunst am Hof Karls des Großen, wo diese Entwicklung stark gefördert wurde, drückte sich in zahlreichen Werken aus. In mehreren Werkstätten des Reiches entstanden (oft in arbeitsteiligen Prozessen) wertvolle und meisterhaft „illuminierte“ (illustrierte) Bilderhandschriften, so an der berühmten Hofschule Karls des Großen in Aachen, auch als Ada-Schule bekannt, die insbesondere durch das Ada-Evangeliar Berühmtheit erlangte. Zu dieser Produktion zählt etwa das Godescalc-Evangelistar, das zu Beginn der 780er Jahre angefertigt wurde. An der Hofschule entstanden unter anderem der Dagulf-Psalter und sehr wahrscheinlich auch das Lorscher Evangeliar. Einen starken Impuls gab die einige Zeit in Aachen arbeitende Gruppe von Künstlern, die das eine eigene Gruppe begründende Wiener Krönungsevangeliar schuf. Der Stil der karolingischen Buchkunst variiert nach der jeweils tätigen Gruppe; immer wieder treten Reminiszenzen an Werke der spätantiken und byzantinischen Buchmalerei auf. Daneben wurden kunstvolle, edelsteinbesetzte und häufig mit elfenbeinernen Reliefschnitzereien geschmückte Prachteinbände für die Handschriften angefertigt. Tod und Nachfolge. a>gewebe, gehörte vermutlich zu den bei Karls Begräbnis verwendeten Leichentüchern. Am 28. Januar 814 starb Karl der Große in Aachen. Einhard berichtet, dass sich der ansonsten gute Gesundheitszustand des Kaisers in seinen letzten Jahren verschlechtert habe. Ende Januar 814 litt Karl plötzlich unter einem hohen Fieber, hinzu kamen Schmerzen in der Seite; möglicherweise handelte es sich dabei um eine Rippenfellentzündung. Karl fastete und glaubte, so die Krankheit auskurieren zu können, doch verstarb er kurz darauf und wurde in der Pfalzkapelle beigesetzt. Ob er schon damals in dem sogenannten Proserpina-Sarkophag beigesetzt wurde, ist umstritten. Der genaue Ort der ursprünglichen Grablege in oder an der Pfalzkapelle ist unbekannt. Dem Bericht Einhards zufolge stellte man über dem Grab einen vergoldeten Arkadenbogen mit einem Bildnis Karls und einer Inschrift auf. Proserpina-Sarkophag, ehemals Grablege Karl des Großen Seit 810 hatte Karl unter Fieberanfällen gelitten, im folgenden Jahr hatte er sein persönliches Testament gemacht. Angesichts seines sich verschlechternden Gesundheitszustands war er in seinen letzten Jahren um das Wohl des Reiches besorgt. Er hatte bereits frühzeitig Vorkehrungen für den Fall seines Todes getroffen. 806 hatte er in einem politischen Testament einen Reichsteilungsplan verfasst, die sogenannte "Divisio Regnorum". Nachdem aber seine beiden älteren Söhne verstorben waren, hatte Karl im September 813 auf einem Hoftag seinen Sohn Ludwig, seit 781 Unterkönig in Aquitanien, zum Mitkaiser erhoben und dabei (wohl nach dem byzantinischen Vorbild) auf eine Beteiligung des Papstes verzichtet. Vater und Sohn standen sich nicht besonders nahe, doch Ludwig war der letzte verbliebene Sohn aus Karls Ehe mit Hildegard und somit der nächste legitime Anwärter. All dies lässt erkennen, dass Karl sehr darum bemüht war, einen möglichst reibungslosen Übergang zu sichern. Allerdings sollte die Reichseinheit in der Regierungszeit Ludwigs aufgrund innerer Konflikte doch zerbrechen. Dies führte zur Entstehung des West- und des Ostfrankenreichs, den „Keimzellen“ der späteren Länder Frankreich und Deutschland. Ehen und Nachkommen. Karl war sicher viermal verheiratet, eventuell handelte es sich auch um fünf Ehen. Hochzeiten des Hochadels waren in erster Linie politische Verbindungen. Über die Herkunft von Karls erster Ehefrau Himiltrud ist allerdings nichts bekannt. Sie schenkte Karl einen Sohn, der den Leitnamen Pippin erhielt. Pippin, der sich offenbar innerhalb der Rangfolge im Reich zurückgesetzt sah, erhob sich 792 erfolglos gegen Karl. Er wurde anschließend in der Abtei Prüm inhaftiert und starb 811. Karls zweite Ehefrau war die Tochter des Langobardenkönigs Desiderius; ihr richtiger Name ist unbekannt, in der Forschung wird oft "Desiderata" angegeben. Diese Heirat erfolgte im Rahmen der Pläne von Karls Mutter Bertrada, doch Karl verstieß seine langobardische Ehefrau 771. Stattdessen heiratete er kurz danach die sehr junge Hildegard, die aus dem alemannischen Hochadel stammte. Sie gebar ihm insgesamt neun Kinder, vier Jungen (Karls späteren Nachfolger Ludwig sowie Karl, den als Kleinkind verstorbenen Lothar und einen weiteren Sohn namens Pippin) und fünf Mädchen (Rotrud, Bertha, Gisela und die zwei als Kleinkinder verstorbenen Adalhaid und Hildegard). Karls Ehe mit Hildegard und die Königin selbst werden in den Quellen besonders positiv hervorgehoben. Karl war Hildegard besonders zugetan; sie begleitete ihren Mann auf mehreren Reisen und wird in einer Urkunde völlig untypisch sogar als "dulcissima coniux" („allersüßeste Gattin“) bezeichnet. Sie starb 783. 14, Cambridge, Corpus Christi College, Ms. 373, fol. 24r Nach nur kurzer Trauerzeit heiratete Karl im Herbst 783 Fastrada. Aus dieser Ehe stammten Theodrada und die jung verstorbene Hiltrud. Entgegen den eher negativen Aussagen Einhards wird Fastrada in der Forschung durchaus positiv betrachtet; Karl selbst war ihr offenbar auch eng verbunden. Fastrada erkrankte 794 und verstarb im selben Jahr. Kurz darauf ging Karl womöglich eine fünfte und letzte Ehe mit Luitgard ein, die 800 starb. Es geht allerdings aus den Quellenzeugnissen nicht eindeutig hervor, dass es sich um eine reguläre Ehe handelte. An ihrer Machtstellung am Hof Karls besteht jedoch kein Zweifel. Neben seinen kirchlich legitimen Verbindungen hatte Karl zahlreiche Nebenfrauen. Namentlich bekannt sind etwa Madelgard, Gerswind, Regina und Adelind. Dies war mit kirchlichen Normen nicht vereinbar und passte nicht zu den Erwartungen an einen christlichen Kaiser, doch war ein solches Verhalten nicht ohne Beispiel. Das Konkubinat spielte bereits in merowingischer Zeit eine nicht unwichtige Rolle. Das zeitgenössische weltliche Recht und teils sogar das Kirchenrecht um 800 bot zudem Freiräume hinsichtlich des Ehelebens. Dennoch stand Karls Verhalten grundsätzlich im Gegensatz zu kirchlichen Erwartungen. Mit den Nebenfrauen zeugte Karl mehrere weitere Kinder (so unter anderem Drogo von Metz und Hugo), die aber keine legitimen Erben waren. Seinen Töchtern brachte Karl besondere Zuneigung entgegen. In einem 791 verfassten Brief bezeichnete er sie als "dulcissimae filiae", seine „allersüßesten Töchter“. Während die Söhne vor allem militärisch-politisch ausgebildet wurden und sich schon in jungen Jahren fern vom Hof aufhielten (in den Quellen gibt es auch Hinweise auf teils homoerotische Beziehungen von Karls gleichnamigem Sohn, Karl dem Jüngeren), erhielten seine Töchter eine recht umfassende Bildung. Karl achtete darauf, dass sich niemand durch Einheirat in die Familie einen politischen Vorteil verschaffen konnte, weshalb er seine Töchter hauptsächlich am Hof behielt. Er ließ ihnen aber in ihrer Lebensführung erheblichen Freiraum; in den Quellen werden teils die Liebschaften der Töchter kritisiert. Bertha beispielsweise unterhielt eine Affäre mit Angilbert und bekam zwei Söhne, darunter den späteren Geschichtsschreiber Nithard. Nach Karls Tod setzte sein stärker an kirchlichen Normen orientierter Nachfolger Ludwig dieser Nachsicht ein Ende. Mittelalter. Unter den Herrschern des Mittelalters nimmt Karl auch aufgrund der Bedeutung seines Nachlebens eine herausragende Stellung ein, selbst im Vergleich mit Otto dem Großen, Friedrich Barbarossa oder Friedrich II. Die Wirkungsgeschichte Karls über den Verlauf der Jahrhunderte war enorm und ist wohl mit der Rezeption keines anderen mittelalterlichen Herrschers vergleichbar, was auch am entsprechenden Umfang der Forschungsliteratur zur Rezeptionsgeschichte deutlich wird. Karl galt über das gesamte Mittelalter topisch als idealer Kaiser, als kraftvoller Herrscher und Förderer des christlichen Glaubens. Zahlreiche mittelalterliche Adelige erhoben daher den Anspruch, von ihm in irgendeiner Weise abzustammen. Die Krönung der römisch-deutschen Könige und Kaiser war für die nächsten Jahrhunderte auf die Aachener Pfalzkapelle fixiert, weil man glaubte, nur eine dortige Krönung könne volle Legitimität verleihen. Durch Karls Kaiserkrönung auf der Grundlage der Translatio imperii war das „römische Kaisertum“ im Westen erneuert worden. An diese Erneuerung knüpfte Otto der Große durch seine Kaiserkrönung im Jahr 962 an. Der Anspruch des römisch-deutschen Königtums auf die Kaiserkrone blieb während des gesamten Mittelalters bestehen, wobei es später wegen der päpstlichen Approbation zu Konflikten mit dem Papsttum kam. Das Karlsbild wurde bald verklärt und verformt, es entstand ein „Karlsmythos“, der vom Mittelalter bis in die Neuzeit wirkte. Diese Entwicklung setzte schon kurz nach dem Tod des Kaisers ein. Hierbei spielte die bewusst gepflegte herrscherliche Erinnerungskultur "(memoria)" eine wichtige Rolle. Die Karolinger waren sehr darum bemüht, den nachfolgenden Generationen ein bestimmtes Erinnerungsbild ihrer Herrschaft zu vermitteln. Diesem Zweck diente nicht zuletzt die karolingische Geschichtsschreibung, was vor allem in der Schilderung der hofnahen "Reichsannalen" zum Ausdruck kommt. Es ging geradezu um eine „Kontrolle der Erinnerung“. Im weiteren Verlauf des 9. Jahrhunderts wurde aber in der karolingischen Geschichtsschreibung um das „richtige Karlsbild“ gestritten und es entstanden konkurrierende Deutungen, so bei Einhard, der im Sinne der Hoftradition ein offiziöses Karlsbild tradierte, Thegan, Nithard, dem sogenannten Astronomus und in kleineren Schriften. Dies hing mit den Spannungen am Hof Ludwigs des Frommen und den folgenden innerdynastischen Kämpfen zusammen. In spätkarolingischer Zeit entstand um 886/87 im Ostfrankenreich eine neue Deutung Karls, die Notker in seinen "Gesta Karoli" („Die Taten Karls“) vortrug, einer Darstellung in zwei von drei ursprünglich geplanten Büchern. Karl wird wie üblich als vorbildlicher Herrscher geschildert. Allerdings weist Notkers anekdotenreiches Werk oft eher Erinnerungssplitter auf; es ging ihm nicht um eine rein historische Darstellung, sondern er wollte den Vorbildcharakter des Herrschers für die eigene Zeit unterstreichen. Der kurz darauf (um 890) schreibende Poeta Saxo unternahm erstmals eine poetische Verarbeitung, wobei er Karl sogar als den „Apostel der Sachsen“ rühmte. Der Beiname „der Große“ "(Magnus)" ist allerdings nicht zeitgenössisch, er kam erst relativ spät gegen Ende des 10. Jahrhunderts auf. Dabei handelte es sich ursprünglich nur um eine Umwandlung eines Elements der Herrschertitulatur in einen persönlichen Beinamen, der in der Folgezeit gebräuchlich wurde und dann auf die Herrschaftsleistung Karls bezogen wurde. Eine geringe Abweichung von der sonstigen Traditionspflege zeigte sich im Karlsbild der Zeit der Liudolfinger (Ottonen). Zwar war Karl auch dort ein bewundertes Vorbild, aber es ist doch eine gewisse Distanz feststellbar. Dies ist wohl darauf zurückzuführen, dass die sächsischen Herrscher zwar die Integration ihrer Heimat in das Frankenreich zu schätzen wussten, aber ihren sächsischen Ursprung nicht vergaßen. Im Umkreis Mathildes, der Mutter Ottos des Großen, wurde nicht zufällig die mündlich überlieferte Erzählung verbreitet, dass Widukind, von dem Mathilde abstammte, als eifriger Missionar tätig gewesen sei. Otto III. hingegen zeigte wieder größeres Interesse an Karl und besuchte im Mai des Jahres 1000 dessen Grab. Die dabei erfolgte Graböffnung wurde von Knut Görich als Vorbereitung der Kanonisation Karls des Großen gedeutet. In der Salierzeit stellte Kaiser Heinrich III. über seine Mutter eine Verbindung zum Karolinger her. Die nachfolgenden Staufer beanspruchten keine Abstammung von Karl, doch Friedrich Barbarossas Wirken wurde durchaus mit dem Karls verglichen. 1165 erfolgte die Heiligsprechung Karls des Großen und die Erhebung seiner Gebeine in Aachen. Dabei ging die Initiative aber wohl nicht (wie in der älteren Forschung oft angenommen) vom Kaiserhof, sondern von den Aachener Stiftsklerikern aus. Papst Alexander III. akzeptierte die aus seiner Sicht politisch unerwünschte Heiligsprechung nicht, doch hat die Kurie danach nie Einspruch dagegen erhoben. Dass Karl nun ein heiliger Vorgänger Friedrich Barbarossas war, brachte dem Kaisertum einen Ansehensgewinn, zumal seit der Zeit Friedrichs der Begriff des "sacrum Imperium" („geheiligtes Reich“) in der kaiserlichen Kanzlei Verwendung fand (erstmals 1157). Dennoch verehrte man Karl damals nicht als kaiserlichen Schutzheiligen des Heiligen Römischen Reiches, wie das Reich seit 1254 auch bezeichnet wurde. Der Karlskult blieb zunächst nur von lokaler Bedeutung, erst im 14. Jahrhundert änderte sich dies. Im Spätmittelalter wurde Karl weiterhin als Idealherrscher betrachtet, doch eine kaiserliche Förderung des Karlskults setzte erst mit Kaiser Karl IV. ein. Dieser legte eine besondere Verehrung seines berühmten Namensvetters an den Tag. Dies hing wohl nicht zuletzt damit zusammen, dass der Karlskult auch im Königreich Frankreich erblühte, wo die Könige den Karolinger auch nach dem Aussterben seiner dortigen männlichen Nachkommenschaft als ihren Vorfahren vereinnahmten. So wurde der Karlskult in Frankreich und Spanien während des Mittelalters durchaus rezipiert. In Italien war dies später etwa in der Zeit des Renaissance-Humanismus der Fall. Alexander von Roes in der zweiten Hälfte des 13. Jahrhunderts betrachtete Karl als Deutschen, der auch über die Franzosen geherrscht habe, doch war dieser Deutung keine Nachhaltigkeit beschieden. Karl IV. trieb die Karlsverehrung im gesamten deutschen Reichsteil voran und ließ dies auch bewusst visuell inszenieren. Auf seine Anordnung entstanden neue Bildnisse des Karolingers, der unter anderem als „neuer David“ sowie als „König und Prophet“ bezeichnet wurde. Im weiteren Verlauf des Spätmittelalters wurde Karl der Große wiederholt ikonographisch dargestellt; in verschiedenen Reichsstädten geschah dies in unterschiedlichen Bildtypen und Ausdrücken. Der jeweils zeitgenössische Darstellungsstil produzierte entsprechende Imaginationen über Karl und sein Aussehen. Diese waren zwar nur Phantasieprodukte, doch sind sie wichtige Zeugnisse der Rezeptionsgeschichte. Sie drückten die jeweils aktuellen politischen Sehnsüchte, Legitimationsbedürfnisse und Machtansprüche aus. Um das Leben und Wirken Karls des Großen entstanden zahlreiche, oft nur lokale Sagen, unter anderem der Karlszyklus mit dem Rolandslied. Als lateinisches Pendant zum altfranzösischen Rolandslied wurde zwischen 1130 und 1140 die "Historia Karoli Magni et Rotholandi" geschrieben, deren unbekannter Autor heute als Pseudo-Turpin bezeichnet wird, da der Text den Erzbischof Turpin von Reims aus dem 8. Jahrhundert als seinen Verfasser nennt. Neben dem Rolandstoff enthält das Werk des Pseudo-Turpin die Legende, dass Karl nach Santiago de Compostela zum Grab des Apostels Jakobus gezogen sei und es von den Sarazenen befreit habe. Weiter entstand im Hochmittelalter die Legende, dass Karl der Große ins Heilige Land gezogen sei, die Heiden aus Jerusalem vertrieben habe und dafür wertvolle Reliquien erhalten habe, darunter die Dornenkrone Christi. Auch hier wirkte das legendarisch ausgeschmückte Karlsbild nach, in dem Karls Zeit zu einem goldenen Zeitalter idealisiert und er selbst zu einem nachahmenswerten Vorbild stilisiert wurde, so etwa hinsichtlich der Kreuzzüge im Hochmittelalter. Der historische Karl war zwar niemals im Orient, hat aber tatsächlich für seine diplomatischen Bemühungen um das Wohlergehen der Christen im Heiligen Land einige Reliquien aus dem heiligen Grab erhalten. Ähnlich wie die Eigennamen Caesar und Augustus zu Herrschertiteln wurden, fand der Name Karls des Großen Eingang in viele slawischen Sprachen als Bezeichnung für König ("korol" im Russischen, "król" im Polnischen, "král" im Tschechischen, im Serbischen, Kroatischen und Slowenischen "kralj"). Dies ist ebenfalls Ausdruck der Wirkungsgeschichte und des Bildes von Karl als Idealherrscher. Neuzeit. a> im Auftrag seiner Vaterstadt Nürnberg Am Beginn der Frühen Neuzeit griff Kaiser Karl V. die Erinnerung an Karl den Großen wieder auf. Karl der Große als Begründer des neuen westlichen Kaisertums, das noch weit über das Mittelalter hinaus bis 1806 bestehen blieb, war für den Habsburger Karl V. Vorbild für sein eigenes Handeln als Universalherrscher in einem gewaltigen europäischen und überseeischen Reich. Allerdings griff Karl V. nur bestimmte Aspekte des Wirkens seines berühmten Vorgängers auf. Die Karlsverehrung spielte aber in der Zeit der Reformation und Gegenreformation keine größere Rolle, wenngleich Karl allgemein weiterhin überwiegend positiv betrachtet wurde. In der außerpolitischen Rezeption wurden verschiedene Facetten Karls aufgriffen und gewürdigt. Dies gilt etwa für den Bereich der Gesetzgebung. Typisch für die Darstellung Karls des Großen in der frühneuzeitlichen Historienmalerei ist Albrecht Dürers Bildtafel, die sich heute im Germanischen Nationalmuseum befindet. Im frühen 19. Jahrhundert entstanden die Fresken Alfred Rethels im Rathaussaal zu Aachen, die nach Rethels Erkrankung von seinem Schüler Joseph Kehren in abweichender Stilisierung vollendet wurden. Auch im Frankfurter Römer (Philipp Veit) und in der Münchner Residenz (Julius Schnorr von Carolsfeld) entstanden Kaisersäle mit Bildnissen Karls. Die idealisierende Vorbildfunktion Karls wurde im 19. Jahrhundert wiederbelebt. Im Zeitalter des Historismus im 19. und frühen 20. Jahrhundert wurde auch der Karlsmythos in der Literatur wieder verstärkt gepflegt. Dabei betrachtete man die Person Karls des Großen vor allem aus nationaler Perspektive: Die nationalen Gegensätze führten dazu, dass Karl in Deutschland als deutscher Herrscher, in Frankreich als Franzose wahrgenommen wurde. Das Karlsbild wurde in dieser Zeit im Rahmen der europäischen Konflikte auch politisch vereinnahmt und teils missbraucht. Im öffentlichen Bewusstsein der Gegenwart spielt Karl nur zeitweise eine größere Rolle, so etwa anlässlich der Jubiläumsjahre 1999/2000 und 2014 mit umfassenden Ausstellungen, neuen Publikationen und Rundfunk- sowie TV-Beiträgen. In verschiedenen Konzepten einer europäischen Identität, insbesondere in Vorstellungen von einem „christlichen Abendland“, wird bis heute eine identitätspolitisch geprägte Erinnerungskultur um seine Person gepflegt. Der Internationale Karlspreis zu Aachen stellt das Gedenken an ihn in den Kontext der heutigen Europapolitik. Die Betrachtung Karls als „Vater Europas“ in Teilen der Öffentlichkeit ist allerdings aus Historikersicht durchaus problematisch, denn der enorme Kontrast zwischen der frühmittelalterlichen und der modernen Welt wird bei derartigen fachfremden Betrachtungen leicht übersehen. Das Karolingerreich stellt keine frühe Europäische Union dar und ist mit dieser multikulturellen und stark erweiterten Union nicht wirklich vergleichbar. Karls Herrschaftssystem eignet sich daher kaum als Modell für die stark gewandelte und sich immer schneller globalisierende Welt von heute, wenngleich einzelne wegweisende Leistungen des Kaisers unbestritten sind. Nur einzelne Facetten seiner Regierungszeit kommen als Anknüpfungspunkte in Betracht. Dazu gehört unter anderem der interkulturelle Dialog mit der politischen Umwelt bis hin nach Byzanz und in das Kalifat, Bildung und der geschaffene Rechts- und Ordnungsrahmen. Forschungsgeschichte. Als Ausgangspunkt der Forschung dient die umfassende Darstellung der politischen Geschichte im Rahmen der Jahrbücher der Deutschen Geschichte, in der alle damals verfügbaren Quellen systematisch gesichtet und verarbeitet wurden. Der österreichische Historiker Engelbert Mühlbacher, ein Kenner der karolingischen Quellen, legte 1896 noch eine allgemeine Gesamtdarstellung vor. Mühlbacher hat auch die entsprechenden karolingischen Regesten bearbeitet. Im Verlauf des 20. Jahrhunderts folgten eine Vielzahl wissenschaftlicher (oft nur Spezialthemen betreffender) und populärwissenschaftlicher Darstellungen. Die politische Vereinnahmung, die Deformation und der Missbrauch des Geschichtsbilds im 19. und frühen 20. Jahrhundert war nicht zuletzt ein Resultat der politischen Auseinandersetzungen zwischen Deutschland, das erst seit 1871 zu einem Nationalstaat geworden war, und Frankreich. Besonders stark ausgeprägt war der politische Missbrauch der Person Karls in der Zeit des Nationalsozialismus in Deutschland, als im Rahmen der Rassenlehre der NS-Diktatur Karl einerseits als Germane geschätzt, andererseits aber wegen des sogenannten „Blutgerichts von Verden“, der Tötung von angeblich 4500 Sachsen, als „Sachsenschlächter“ bezeichnet wurde. Derartige Widersprüchlichkeiten ergaben sich aus dem offiziellen und diffusen Geschichtsbild der NS-Propaganda, an dessen Gestaltung sich manche Historiker beteiligten, während andere um ein differenziertes und historisch treffenderes Bild bemüht waren. In den 1930er Jahren betrachteten mehrere namhafte deutsche Forscher Karl aus nationaler deutscher Perspektive und als germanisch-deutschen Herrscher, obwohl sie sich zugleich in der NS-Zeit gegen eine ideologiebasierte Forschung stemmten. Zu ihnen zählten unter anderem Hermann Aubin, Friedrich Baethgen, Carl Erdmann, Karl Hampe, Martin Lintzel und Wolfgang Windelband. Karl Hampe beispielsweise protestierte im Rahmen des 1935 publizierten Sammelbands "Karl der Große oder Charlemagne?" gegen die Charakterisierung Karls als „Sachsenschlächter“, wobei er aber gleichzeitig eine deutschnationale Perspektive vertrat; bereits in der Zwischenkriegszeit war eine national-konservative Haltung unter den deutschen Historikern die Regel. Nach dem Ende des Zweiten Weltkriegs fand in der Forschung jedoch ein Umdenken statt. Es setzte sich eine nüchternere Betrachtung des Karolingers durch, er wurde schlicht als Franke und nicht wie im 19. und frühen 20. Jahrhundert üblich ahistorisch als Deutscher oder Franzose betrachtet. In diesem Zusammenhang erfuhr das Geschichtsbild in der Forschung einen starken Wandel. Das langsam beginnende Zusammenwirken mehrerer europäischer Staaten im Rahmen der europäischen Integration und das nun grundlegend andere, kooperative deutsch-französische Verhältnis förderte in der Nachkriegszeit die Suche nach gemeinsamen „europäischen Wurzeln“. Die „Europäisierung“ Karls, die Betrachtung seiner Herrschaft aus europäischer Perspektive, setzte in der Geschichtswissenschaft in den 1960er Jahren ein. Dies führte zu einer deutlichen Entschärfung der früher nationalistisch geprägten harten Debatte. Aus dem „Germanen Karl“ wurde ein früher Europäer. Karl Ferdinand Werner erklärte 1995 in einem Beitrag, der den programmatischen Titel "Karl der Große oder Charlemagne – Von der Aktualität einer überholten Fragestellung" trug, dass es nicht mehr um die Frage nach Karl dem Großen oder Charlemagne gehe – Bezeichnungen, die bereits mit einem Mythos aufgeladen seien. Für Karl sei Europa bereits Realität gewesen; das moderne Europa habe ebenfalls eine Aufgabe und solle sich auf seine vielgestaltige Kultur besinnen. In neuerer Zeit äußern Historiker allerdings Skepsis gegenüber der Vereinnahmung Karls für das zusammenwachsende Europa. Dabei wird zwar manchmal betont, dass Aspekte seines Wirkens auch für die Gegenwart von Bedeutung seien, doch zum Teil wird Karl in der jüngeren Forschung noch nüchterner gesehen: Während seine Leistungen und das kulturelle Erbe des Karolingerreichs gewürdigt werden, wird seine Eignung als europäische Identifikationsfigur kritisch beurteilt. Wenngleich Alessandro Barbero an dem Bild eines „Vaters Europas“ festhielt und dies auch im Titel seiner Biographie Karls zum Ausdruck brachte, äußerten sich mehrere andere Forscher skeptischer. Jean Favier verzichtete in seiner Darstellung aus dem Jahr 1999 sogar ganz auf den Begriff Europa, Jacques Le Goff und Michael Borgolte drückten sich diesbezüglich sehr zurückhaltend aus. Borgolte relativierte in seiner 2006 erschienenen interkulturellen Darstellung den mit Karl verbundenen Europagedanken: Eine Europaidee habe es im Mittelalter nicht gegeben und "Pater Europae" sei nichts weiter als eine Bezeichnung, die Karls Herrschaft über mehrere Völker zum Ausdruck bringen sollte. Im Bereich der Handbücher und Überblicksdarstellungen hat in neuerer Zeit vor allem Rudolf Schieffer in mehreren Beiträgen die Regierungsleistung Karls nüchtern gewürdigt. Auch der französische Historiker Pierre Riché würdigte die Herrschaft Karls, der den Kernteil des lateinischen Europas vereinte und für spätere Zeiten oft bewundertes Vorbild war. Karl Ferdinand Werner zog in seinem Werk über die „Ursprünge Frankreichs“ eine sehr positive Bilanz der Regierungszeit Karls, den Werner als genialen Strategen und herausragenden Organisator sowie als eine starke Persönlichkeit betrachtete. Andere Überblicksdarstellungen der Karolingerzeit behandeln Karls Tätigkeit meist relativ knapp. In der Synthese von Jörg Busch wird die Forschung sehr gestrafft referiert. Wesentlich ausführlicher ist die weitgespannte Überblicksdarstellung "Der Weg in die Geschichte" von Johannes Fried (1994), die auch die Karolingerzeit behandelt. Karls Leistung im politischen und kulturellen Bereich wird unterstrichen, aber auch auf die Überforderung der Kräfte des Großreichs hingewiesen. Die daneben umfassendste Darstellung ist der zweite Band der "New Cambridge Medieval History", der nicht nur die politische Geschichte, sondern auch Kultur, Religion, Herrschaft und Wirtschaft in europäischer Perspektive behandelt. Das in den 1960er Jahren von Wolfgang Braunfels herausgegebene mehrbändige „Karlswerk“ ist weiterhin eine wichtige Sammlung von Beiträgen. Er wird nun ergänzt durch einen 2014 erschienenen Katalog und Essayband, in dem sich aktuelle Beiträge zur neueren Forschung finden. Wichtige Einzelaspekte zu Karl hat Rosamond McKitterick in mehreren Publikationen untersucht, wenngleich ihre Schlussfolgerungen nicht immer unumstritten sind. Ihre 2008 gleichzeitig im englischen Original und in deutscher Übersetzung erschienene Darstellung ist allerdings eher eine Sammlung von Beiträgen und weniger eine biographische Darstellung. Seit der Jahrtausendwende sind eine Vielzahl von Biographien erschienen. Umfassende Darstellungen – allerdings ohne Anmerkungen – liegen von Jean Favier und Dieter Hägermann vor. Hägermanns quellennahe Darstellung konzentriert sich vor allem auf die politische Geschichte. Der 1200. Todestag Karls am 28. Januar 2014 gab Anlass zu einer Vielzahl an Ausstellungen, Tagungen und Veröffentlichungen. Mit den Werken von Wilfried Hartmann, Stefan Weinfurter und Johannes Fried liegen in deutscher Sprache drei aktuelle, gut belegte und von Kennern der Materie verfasste biographische Darstellungen mit unterschiedlichen Akzentuierungen vor. Hartmanns Darstellung ist etwas systematischer und knapper ausgefallen und bietet eine Zusammenfassung der bisherigen Forschung. Er hebt die Leistungen Karls im Bereich der Verwaltung, Bildung und Kirchenpolitik hervor, die ebenso wie die Erneuerung des Kaisertums sehr lange nachwirkten. Weinfurter stellt Karl positiv dar und würdigt seine Suche nach der (im Denken der Zeitgenossen von Gott ausgehenden) Wahrheit und Eindeutigkeit, wozu die Bildungsreform einen wichtigen Beitrag leisten sollte. Johannes Frieds umfassende und auch stilistisch gelungene Biographie holt weit aus und beleuchtet das politische und kulturelle Umfeld. In dieses wird das Leben Karls eingebettet, wobei Fried das Spannungsfeld von Karl als gläubigem Christen und teils mit großer Gewalt vorgehendem Herrscher betont. In der aktuellen französischen und italienischen Forschung spielt Karl als Person keine entscheidende Rolle, wohingegen deutsche und US-amerikanische sowie einzelne englische Forscher zentrale Beiträge zu ihm veröffentlicht haben. Quellenlage. a>, Latin 5927, fol. 280v, aus der Abtei Saint-Martial de Limoges Die Quellenlage für die Zeit Karls des Großen ist, verglichen mit den Regierungszeiten anderer frühmittelalterlicher Herrscher, relativ günstig. Die wichtigste erzählende Quelle für das Leben und die Zeit Karls ist die von seinem Vertrauten Einhard verfasste "Vita Karoli Magni", deren Originaltitel wohl "Vita Karoli imperatoris" gelautet hat. Die Entstehungszeit dieser Biographie ist in der Forschung bis heute umstritten, die Ansätze reichen von einer extremen Frühdatierung 817 bis hin in das Jahr 836. Einhard hat sich bei der Abfassung von den berühmten Kaiserbiographien des römischen Schriftstellers Sueton inspirieren lassen, ohne diesem Vorbild sklavisch zu folgen; stilistisch ist der Einfluss Ciceros nachweisbar. Die Biographie stellt Karl in einem sehr positiven Licht dar. Sie erfreute sich offenbar großer Beliebtheit, denn sie ist in über 100 Handschriften überliefert. Die "Vita Karoli Magni" ist aber nicht nur „das bedeutendste Beispiel für die nachantike Suetonrezeption“, sondern auch bis heute „eine Schlüsselquelle der Karolingerzeit“. Eine weitere zentrale Quelle stellen die sogenannten "Annales regni Francorum" („Reichsannalen“) dar. Dabei handelt es sich um im Umkreis der königlichen Hofkapelle in verschiedenen Stufen verfasste Annalen, die jahrweise die wichtigsten politischen Ereignisse von 741 bis 829 vermerken. Die frühen Einträge wurden zwischen 787 und 793 rückblickend fertiggestellt, während die folgenden Ereignisse jeweils aktuell festgehalten wurden. Nach Karls Tod wurden die Reichsannalen teils inhaltlich und stilistisch überarbeitet; diese überarbeitete Fassung wurde in der älteren Forschung irrtümlich Einhard zugeschrieben und wird daher oft als "Einhardsannalen" bezeichnet. Die Reichsannalen sind eine wichtige, aber nur begrenzt glaubwürdige Quelle, da sie einseitig die offizielle Sichtweise des Hofes wiedergeben. Allerdings schildert die überarbeitete Fassung auch Fehlschläge Karls. Weitere pro-karolingische Quellen stellen die Fortsetzung der Fredegarchronik ("Continuatio Fredegarii", eine bis 768 reichende karolingische Hauschronik) und die "Annales Mettenses priores" („ältere Metzer Annalen“) dar. Hinzu kommen kleinere Annalen, so die "Annales Petaviani" (bis 799) und die "Annales Laureshamenses" (bis 803). Notkers "Gesta Karoli" sind eine im späten 9. Jahrhundert entstandene Schilderung der Taten Karls in zwei (von geplanten drei) Büchern. Sie zeigen bereits den Übergang von der Mitteilung historischer Fakten zu einer erbaulichen Zwecken dienenden Mythenbildung. Hinzu kommen mehrere Gedichte und Epen zu Karl, von denen besonders das noch zu seinen Lebzeiten entstandene Paderborner Epos sowie das Werk des Ende des 9. Jahrhunderts dichtenden Poeta Saxo zu nennen sind. Aus karolingischer Zeit erhalten sind auch mehrere Briefe Alkuins und Einhards. Des Weiteren stehen Quellen aus dem kirchlichen Bereich zur Verfügung: Beschlüsse von Synoden und Konzilien, kirchliche Korrespondenz sowie kirchenrechtliche und kirchenpolitische Schriften wie die "Libri Carolini". Von den erhaltenen 262 Urkunden, die Karl als Aussteller angeben, sind 98 gefälscht. Von Bedeutung sind die gesetzesartigen Erlasse, die sogenannten Kapitularien, sowie von Karl erlassene Gesetze "(Leges)". Hinzu kommen Münzen und kunsthistorische Quellen wie Kunstwerke und karolingische Bauten. Kroatien. Kroatien (), amtlich Republik Kroatien (), ist ein Staat in Europa und seit dem 1. Juli 2013 Mitglied der Europäischen Union. Kroatien ist außerdem Mitglied der NATO, der Welthandelsorganisation, der OSZE und der Vereinten Nationen. Entsprechend dem Index für menschliche Entwicklung zählt Kroatien zu den hoch entwickelten Staaten. Das Staatsgebiet liegt östlich des Adriatischen Meeres und zum Teil im Südwesten der Pannonischen Tiefebene. Im Nordwesten bildet Slowenien, im Norden Ungarn, im Nordosten Serbien, im Osten Bosnien und Herzegowina und im Südosten Montenegro die Grenze. Das Gebiet der einstigen "Republik Ragusa" ("Dubrovačka Republika"), das heute den südlichsten Teil des Staates ausmacht, verfügt über keine direkte Landverbindung zum übrigen Staatsgebiet, da der wenige Kilometer breite Meereszugang von Bosnien und Herzegowina dazwischen liegt; das Gebiet um Dubrovnik bildet damit die einzige Exklave des Landes. Geographie. Kroatiens Landfläche entspricht mit ca. 56.500 Quadratkilometern etwa der doppelten Größe von Brandenburg. Zur Landfläche gehört ein Teil der Dinariden und der Pannonischen Tiefebene. Das Land liegt in der Übergangszone von Mittel- bzw. Ostmitteleuropa und Südosteuropa. Der größere Teil Kroatiens (außer Slawonien und dem Gebiet um Zagreb nördlich der Save) wird geographisch im Allgemeinen der Balkanhalbinsel oder Südosteuropa zugeordnet. Der Ständige Ausschuss für geographische Namen empfahl 2005 die Zuordnung Kroatiens zu Mitteleuropa auf Grund eines kulturräumlichen Mitteleuropabegriffs. Für einige Kroaten ist die Zuordnung zu Mitteleuropa ein Mittel der Abgrenzung von der negativ konnotierten „Krisenregion“ Balkan. Die kroatischen Gebiete entlang der Adriaküste werden teilweise auch Südeuropa zugeordnet. Die geringste Entfernung zwischen Italien und Kroatien beträgt 20 Kilometer (durch einen kleinen Landstreifen Sloweniens getrennt), während die südlichste kroatische Halbinsel Prevlaka 69 Kilometer von Albanien entfernt liegt. Grenzen. Das kroatische Staatsgebiet umfasst ca. 87.700 Quadratkilometer, wovon 56.542 auf Land- und 31.067 auf Seeterritorium entfallen. Das Staatsgebiet Kroatiens erstreckt sich auf einen kontinentalen Nordteil und einen langen Küstenstreifen, an deren schmaler Nahtstelle südwestlich von Zagreb sich das Territorium extrem verjüngt. Der südlichste Teil des Küstengebietes (die Region um Dubrovnik bis zur Grenze zu Montenegro) wird auf einer Breite von etwa drei Kilometern durch die zu Bosnien und Herzegowina gehörende Gemeinde Neum vom übrigen Kroatien getrennt. Die Gesamtlänge der Landgrenzen Kroatiens beträgt 2197 Kilometer. Davon entfallen auf die Grenze zu Slowenien 670, auf die Grenze zu Ungarn 329, auf die Grenze zu Bosnien und Herzegowina 932, auf die Grenze zu Serbien 241 und auf die Grenze zu Montenegro 25 Kilometer. In der Nordadria ist die Seegrenze zu Slowenien umstritten (siehe: Internationale Konflikte der Nachfolgestaaten Jugoslawiens). Die Länge der adriatischen Küstenlinie (Festland) beträgt 1778 Kilometer (mit Inseln 6176). Klima. Im Landesinneren bzw. Nordosten Kroatiens herrscht vor allem kontinentales Klima vor. Mittlere Monatstemperaturen im Sommer betragen um 26 °C, im Winter um 2 °C. Der Jahresniederschlag beträgt etwa 750 Millimeter. Das Klima an der adriatischen Küste hingegen ist wesentlich feuchter und es herrscht mediterranes Klima vor. Die Sommer sind also meist sonnig und trocken (um 35 °C), während die Winter regenreich und warm sind (um 10 °C). Der Jahresniederschlag ist mit etwa 3000 Millimetern im Süden und 1800 im Norden der Adriaküste erheblich höher als im Landesinneren. Ein besonderes Wetterphänomen sind die gelegentlich in der Küstenregion auftretenden kalten Fallwinde Bora, die zu den stärksten der Welt zählen. Landschaftszonen. Nach Reliefformen und Klimazonen lässt sich Kroatien in drei Landschaftszonen einteilen. Diese Einteilung spiegelt sich teilweise in der Kultur und Lebensweise der Menschen wider. Die pannonische Tiefebene. Die pannonische Tiefebene besteht überwiegend aus Flachland, unterbrochen von einigen Mittelgebirgen, und wird über die Save und Drau und deren Nebenflüsse zur Donau hin entwässert. In diesem Teil des Landes herrscht gemäßigtes Kontinentalklima. Diese Landschaftszone lässt sich untergliedern in Nordkroatien und Slawonien. Nordkroatien umfasst das ostmitteleuropäisch geprägte Gebiet von der Kupa bis zur ungarischen Grenze: das Flachland längs der Save und Kupa um die Städte Zagreb, Karlovac und Sisak, das heute demografisch und wirtschaftlich das Zentrum des Landes bildet, das Gebirgsland des Zagorje (auf Deutsch auch: "Zagorien") nördlich der Hauptstadt Zagreb und das Međimurje im nördlichsten Zipfel des Landes zwischen Drau und Mur. Slawonien ist das Flachland entlang der Flüsse Save ("Sava") und Drau ("Drava") bis zur Donau ("Dunav") im Osten. Zu diesem werden oft auch die Baranja (nördlich des Unterlaufes der Drau) und West-Syrmien ("Zapadni Srijem") (der Ostzipfel Kroatiens zwischen Donau und unterer Save) gezählt. Die dinarische Gebirgsregion. Die dinarische Gebirgsregion (auch "Mittleres Kroatien" oder "Kroatisches Hügelland" genannt) wird von Mittel- und einzelnen Hochgebirgen geprägt, die die Wasserscheide zwischen Donau und Adria bilden, wobei einzelne Täler auch vollständig abflusslos sind. Hier herrscht Gebirgsklima. Zu dieser Landschaftszone gehören das Gebirgsland des Gorski kotar zwischen Rijeka und Karlovac, die Hochtäler Lika und Krbava zwischen dem entlang der Küste verlaufenden Gebirgszug des Velebit und dem Grenzgebiet zu Westbosnien sowie ein Teil des Hinterlandes Dalmatiens (Dalmatinska Zagora, Biokovo-Gebirge). Die adriatische Küstenregion. Die adriatische Küstenregion besteht zu großen Teilen aus verkarsteten Flächen. Sie ist von mediterranen Einflüssen geprägt. Die Breite des Küstenstreifens variiert stark. Während er an einigen Stellen (unterhalb des Velebit und des Biokovo-Gebirges) nur wenige Kilometer breit ist, reicht er an anderen Stellen weiter ins Landesinnere. Die Mehrzahl der in Kroatien in die Adria mündenden Flüsse ist jedoch relativ kurz; lediglich der Einzugsbereich der aus Bosnien und Herzegowina kommenden Neretva erstreckt sich weiter ins Landesinnere. Inseln. Zu Kroatien gehören insgesamt 1246 Inseln, von denen 47 dauerhaft bewohnt sind. Berge. Insgesamt gibt es in Kroatien 96 Gipfel, die oberhalb 1500 Meter liegen. Umwelt und Wasserreichtum. Kroatien gehört laut Analyse der FAO zu den 30 wasserreichsten Staaten der Welt und nimmt europaweit den dritten Platz ein mit insgesamt 32.818 Kubikmetern an erneuerbaren Wasserreserven pro Kopf und Jahr. Der "Weltwasserentwicklungsbericht 2005 (World Water Development Report)" der Vereinten Nationen spricht von 23.890 Kubikmetern an jährlich erneuerbaren Wasserreserven pro Kopf und Jahr. Kroatien liegt im Blauen Herz Europas. Kroatien gehört zu den wenigen Staaten mit organisierter Wasserordnungspolitik. Schon 1891 verabschiedete der Sabor ein "Wasserrechtsgesetz des Königreiches von Kroatien und Slawonien", das gesetzliche Regelungen für Gewässer, Flussbetten, die Küste, die Wassernutzung, die Regulierung von Wasserflüssen, wie auch den Flutschutz, Wasserschutz, Wasserschutzvereinigungen und vieles weiteres vorsieht. Die kroatische Adria ist nach einer ADAC-Untersuchung aus dem Jahr 2006 der sauberste Teil des Mittelmeeres. Im "Environmental Sustainability Index" der Yale University, der die Lage des Umweltschutzes in einem Staat in seiner Gesamtheit betrachtet, belegte Kroatien 2005 weltweit den 19. Platz. Seen. Die bekanntesten Seen sind die Plitvicer Seen. Flüsse. Die Mehrzahl der Flüsse entwässert in das Schwarze Meer (Donau, Save, Drau, Mur, Kupa und Una), die restlichen in die Adria (Zrmanja, Krka, Cetina und Neretva). Die Flüsse im Norden sind sehr verschmutzt, am stärksten davon die Save zwischen Zagreb und Sisak. Die längsten Flüsse, die durch Kroatien fließen, sind die Save (kroat.: "Sava", 562 Kilometer) sowie die Drau (kroat.: "Drava", 505 Kilometer). Diese Flüsse bilden zu großen Teilen die Grenzen zu Bosnien-Herzegowina bzw. zu Ungarn. Beide Flüsse fließen zur Donau, dabei ist die Save der wasserreichste, die Drau der viertwasserreichste Nebenfluss der Donau. Die Donau trennt Kroatien von der serbischen Provinz Vojvodina. Der kroatische Anteil an der Donau ist 188 Kilometer lang, zudem grenzt Kroatien fast ausschließlich an die rechte Donauseite. Die Kupa (slowenisch: "Kolpa", 269 Kilometer) bildet einen Großteil der Grenze zu Slowenien. Sie mündet in Sisak in die Save, die ab dort schiffbar ist. Weitere Flüsse sind die Korana, Krapina, Lonja, Mur sowie die Vuka. Die Flüsse aus den Dinariden zur Adria sind relativ kurz, einzig die in der Herzegovina entspringende Neretva stellt einen bedeutenden Fluss in die Adria dar. Natur- und Nationalparks. Kroatien verfügt über acht Nationalparks und elf geschützte Naturparks. Insgesamt stehen 450 Gebiete, davon 79 Sonderreservate (botanische, geomorphologische, ornithologische, Meeres- und Waldreservate) unter Naturschutz. Insgesamt sind 5846 Quadratkilometer bzw. zehn Prozent der Festlandsfläche Kroatiens geschützt, bei Zuzählung der geschützten Gewässer ergeben sich 6129 Quadratkilometer. Kroatien hat Anteile am Grünen Band Europas. Flora und Fauna. Im Jahr 2004 erklärte die kroatische Regierung das gesamte kroatische Meeresgebiet zu einem ökologischen Schutzgebiet und einer kontrollierten Fischfangzone (kroat.: "„ekološki i ribolovni pojas“"), um die vorhandene und empfindliche Meeresfauna und Vegetation zu schützen. Die Vorgehensweise wurde von Italien, Slowenien und auch der restlichen EU kritisiert, da mit dem Gesetz auch die Fischereirechte berührt werden. Slowenien erachtet dabei die kroatische ausschließliche Wirtschaftszone, im Rahmen der EU-Beitrittsverhandlungen, als einseitige Vorherbestimmung (Präjudiz) der Grenzen zu diesem Staat. "Siehe auch: Internationale Konflikte der Nachfolgestaaten Jugoslawiens" Es gibt etwa 4000 Tier- und Pflanzenarten in Kroatien, davon stehen 380 Spezies der Fauna und 44 der Flora unter Naturschutz. Flora. Insgesamt 36,83 Prozent Kroatiens (2.082.702 Hektar) sind von Wäldern bedeckt. Etwa 95 Prozent des Waldbestandes sind weitgehend naturbelassene Mischwälder. Etwa 81 Prozent sind Staatswälder, 19 Prozent befinden sich in privatem Besitz. 85 Prozent der Waldfläche bilden Laubwälder, 15 Prozent entfallen auf Nadelwälder. In den Gebirgsregionen des Gorski Kotar, der Lika, wachsen vorwiegend Nadelwälder, in der pannonischen Tiefebene vorwiegend Laubwälder. Entlang der kroatischen Küste wachsen vor allem mediterrane Hartlaubgehölze, Macchien, Pinien und Kiefernwälder. In den Feuchtgebieten wachsen zahlreiche, auch seltene Arten der Wasserrosen und die Feucht-Segge. In den trockenen und heißen Sommermonaten kommt es durch unvorsichtiges Verhalten von Einheimischen und Touristen wiederholt zu Großbränden. So wütete vor wenigen Jahren auf der Insel Brač ein verheerendes Feuer. Die kroatische Regierung investiert daher jährlich zunehmend in Brandschutzmaßnahmen. Fauna. Große Raubtiere wie Braunbären, Wölfe, Goldschakale und Luchse sind vor allem in den gebirgigen Regionen Kroatiens anzutreffen. Zu den vorkommenden Greifvögeln gehören Gänsegeier sowie Stein- und Schlangenadler. Große Vögel, die in den Auen und Sumpfgebieten nisten, sind der Sichler und verschiedene Reiherarten. In den Nationalparks des Nordens sind zahlreiche Tierarten zu finden, die in Mitteleuropa selten anzutreffen oder gar ausgestorben sind: der Weißschwanzseeadler, Kormorane, Eisvögel, Schwarzstörche, die Zwergseeschwalbe oder der Bienenfresser. In der Küstenregion leben zahlreiche Reptilien wie Schildkröten (Land-, Sumpf- und Meeresschildkröten), Eidechsen, Geckos und Schlangen (Nattern, Ottern). Auch einige Meeressäuger sind im kroatischen Teil der Adria beheimatet. Der adriatische Delfin und insbesondere die Mittelmeer-Mönchsrobbe gehören dabei zu den vom Aussterben bedrohten Arten. Auch die Bestände des Roten Thuns sind durch die industrielle Überfischung im gesamten Mittelmeerraum stark bedroht. Nach politischem Druck seitens der EU wurde dennoch die von Kroatien deklarierte ökologische Zone zum Schutz des Fischbestands wieder abgeschafft. In Kroatien gibt es einige endemische Arten. Ein Beispiel hierfür ist der in unterirdischen Höhlen der Karstregion vorkommende Grottenolm. Bevölkerung. Bevölkerungsentwicklung in Kroatien (1992–2003) ×1000 Kroatien hatte laut einer im Jahr 2001 durchgeführten Volkszählung 4.437.460 Einwohner. Die Lebenserwartung in Kroatien beträgt etwa 78 Jahre. Seit einigen Jahren verzeichnet das Land wegen niedriger Geburtenraten eine rückläufige Bevölkerungsentwicklung. Von den Einwohnern zum Zeitpunkt der Volkszählung von 2001 besaßen 4.399.364 (99,14 %) die kroatische Staatsangehörigkeit, 44.340 (1,00 %) davon auch eine zweite Staatsangehörigkeit. 17.902 (0,40 %) besaßen eine ausländische Staatsangehörigkeit, 9.811 (0,22 %) waren Staatenlose. Von 10.383 Einwohnern (0,23 %) war die Staatsangehörigkeit unbekannt. Die kroatische Diaspora ist überdurchschnittlich groß. Es gibt zahlreiche kroatische Minderheitenverbände im Ausland. Als größter Verband gilt die "Hrvatska bratska zajednica" in den USA. Im kroatischen Parlament gibt es eigene Abgeordnete der kroatischen Diaspora, die auch von diesen gewählt werden. Ethnien. Laut Volkszählung 2001 betrachten sich fast 90 % aller Bewohner als Kroaten. Laut Volkszählung 1991 sahen sich damals noch 78,1 % der Bevölkerung als Kroaten, 12,1 % als Serben, von denen viele im Zuge der Konsolidierung des kroatischen Staates flohen oder vertrieben wurden. Im Laufe der letzten Jahre ist ein Teil der im Zuge der Militäroperation Oluja geflohenen oder vertriebenen Serben zurückgekehrt (118.000 bis Januar 2005), so dass der serbische Bevölkerungsanteil heute wieder höher ist als zur Zeit der Volkszählung von 2001, jedoch noch immer weniger als halb so groß wie vor dem Kroatienkrieg. Von Regierungsseite wurde 2005 eine Kampagne zur Zurückführung serbischer Flüchtlinge eingeführt. An zentraler Stelle können potentielle Rückkehrer Informationen zur Rückkehr einholen. Das Hauptsiedlungsgebiet der italienischen Minderheit ist die Westküste Istriens, daneben gibt es kleine italienische Sprachgruppen in Ost- und Mittelistrien, Rijeka, Dalmatien (z. B. Zadar) und Westslawonien. Magyaren (Ungarn) und Slowaken leben vor allem im Osten, Tschechen im Westen Slawoniens. Die Bosniaken, Albaner und Mazedonier leben über das gesamte Land verstreut, vor allem in den größeren Städten. Im Umgang mit der Minderheit der Sinti und Roma wurden in den letzten Jahren von Amnesty International Fortschritte festgestellt; insbesondere im Schulbereich und der Schaffung von Wohnräumen. Das Simon Wiesenthal Center stufte Kroatien Mitte 2006 in die höchste Beurteilungskategorie hinsichtlich der Bemühungen zur Verfolgung von nationalsozialistischen Verbrechen und deren erfolgreicher Prozessierung ein. Sprachen. Die Amtssprache in Kroatien ist die kroatische Standardsprache. Kroatisch beziehungsweise Kroatoserbisch wird fast überall im Land verstanden und gesprochen. In Istrien, sowie in geringerem Maße auch in Rijeka und auf einigen der Kvarner-Inseln, wird auch Italienisch bzw. ein italienischer Dialekt, das Venezianische, gesprochen. In Grenznähe zu Ungarn, insbesondere in Nordost-Slawonien, gibt es kleine ungarische Sprachinseln. Im westlichen Slawonien befinden sich tschechische und in Ostslawonien slowakische Sprachinseln. Das Istrorumänische im Nordosten und das Istriotische im Südwesten Istriens sind vom Aussterben bedroht. Albanische und slowenische Muttersprachler leben über das gesamte Staatsgebiet verteilt. Religiöse Zugehörigkeit. Zahlen, inwiefern die Menschen, die sich der jeweiligen Religion zurechnen, diese tatsächlich in Form von Gottesdiensten o. ä. praktizieren, liegen nicht vor. Vor- und Frühgeschichte. Die ältesten Siedlungsbelege auf dem Gebiet des heutigen Kroatien sind etwa 130.000 Jahre alt. Es existieren bedeutende paläoanthropologische Fundstätten: bei Krapina befinden sich die von Dragutin Gorjanović-Kramberger im Jahr 1899 entdeckte Neandertaler-Fundstätte Hušnjakovo brdo (mit Neandertalermuseum) sowie die Vindija-Höhle. Nahe der Stadt Vukovar befindet sich in Vučedol-Gradac die namensgebende Fundstätte der spät-äneolithischen Vučedol-Kultur. Altertum und frühes Mittelalter. Die ersten Siedlungen an der Ostküste des Adriatischen Meeres entstanden im 12. und 11. Jahrhundert v. Chr. im Zuge der Ionischen bzw. auch später der großen griechischen Kolonisation. So geht die Gründung der Siedlung Split auf diese Zeit zurück (Split von "gr." "Aspalatos" oder "Spalatos" = Höhle). Im 4. Jahrhundert v. Chr. erwähnte der griechische Historiker Herodot außerdem die im Werk beschriebenen Illyrer (ein indogermanisches Volk) als zusätzlich ansässig gewordenes Volk. Ab der Mitte des 2. Jahrhunderts v. Chr. wuchs der politische Einfluss der Römer auf die illyrischen Stämme zwischen der Küste und der pannonischen Ebene. Im Jahr 34 v. Chr. verleibte Oktavian, der spätere Kaiser Augustus, nach einem 20 Jahre andauernden Krieg in der Schlacht von Zerek dieses Gebiet Rom ein. Zu Beginn des 1. Jahrhunderts wurde die römische Provinz Dalmatia, benannt nach dem Stamm der Delmatae, gebildet. Im Jahr 293 wurde unter der Herrschaft des Kaisers Diokletian die Provinz entlang des Flusses Drina geteilt. Nach Teilung des Römischen Reiches in West- und Ostrom im Jahre 395 kam das Gebiet Kroatiens zu Westrom. Oströmisches bzw. Byzantinisches Reich (550–1270). Nach Auflösung des Römischen Reiches gehörte das Gebiet des heutigen Kroatiens größtenteils (Dalmatien, Istrien und Slawonien) von 550 bis 1270 mit mehrfachen Unterbrechungen (zeitweilige kroatische Unabhängigkeit - siehe unten) dem Oströmischen bzw. Byzantinischen Reich an. Im 6. Jahrhundert wanderte das zentralasiatische Reitervolk der Awaren in das von den Langobarden zusätzlich besiedelte Pannonien ein. Die Kroaten wurden im 7. Jahrhundert vom byzantinischen Kaiser Herakleios in ihr heutiges Siedlungsgebiet gerufen, um ihm beim Kampf gegen die Awaren zu helfen. Nach dem Bericht des byzantinischen Kaisers Konstantin VII. Porphyrogennetos stammten die Kroaten aus dem Gebiet des heutigen Galiziens. Während dieser Zeit der Zugehörigkeit zu Konstantinopel wurden die südslawischen Stämme größtenteils von den Byzantinern im 7. Jahrhundert bis 9. Jahrhundert im Zuge der Slawenmission christianisiert, nördliche Teile Kroatiens und auch Slowenien wurden von Salzburg aus missioniert. Der Machtverlust der Byzantiner nach den Frankenkriegen, das zeitweilig autonome kroatische Königreich und die darauffolgende Zugehörigkeit eines Großteils des heutigen Kroatien zu westeuropäischen Herrschaften wie dem Frankenreich und dem Königreich Ungarn markieren die allmähliche Entfernung von der byzantinisch-orthodoxen Kultur. Kroatien geriet in die Einflusssphäre der römisch-katholischen Kirche und somit in den westeuropäischen Kulturraum. a> – Tomislav war der erste kroatische König (910) Der Name der Kroaten ist erstmals in einer Quelle aus dem 9. Jahrhundert belegt. Der Name selbst hat keine slawischen Wurzeln, sondern stammt mit größter Wahrscheinlichkeit aus dem persischen Raum. Im Jahr 879 wird Fürst Branimir von Papst Johannes VIII. mit „dux Croatorum“ angeschrieben und angesprochen, was seinerzeit einer Anerkennung des mittelalterlichen Kroatien gleichkommt. Kroatisches Königreich (925–1102). Um 925 wurde Tomislav der erste König Kroatiens. Gleichzeitig war dies auch der erste Königstitel in der Geschichte der Südslawen. Papst Johannes X. erkannte diesen Titel sofort an. Im Jahr 925 sprach ihn Johannes X. in einem Brief mit dem Titel "rex croatorum" (König der Kroaten) an.Während seiner Herrschaft fielen die Magyaren im pannonischen Becken ein. Tomislav verteidigte sein Königreich, das aus Zentralkroatien, Slawonien und Teilen Dalmatiens und Bosniens bestand, erfolgreich gegen die Ungarn. a> – ein kroatischer Feldherr im 16. Jahrhundert Seine Blütezeit erreichte das Königreich unter der Regentschaft von König Petar Krešimir IV. Unter seiner Herrschaft wurde im Jahr 1059 die Kirche in Anlehnung an den Römischen Ritus reformiert. Dies war hinsichtlich des Schismas von 1054 und der Treue zu Rom von Bedeutung. Das Königreich existierte bis ins Jahr 1102 weiter. Kroatien in Personalunion mit Ungarn (1102–1526). Im Jahr 1102 erfolgte die Krönung des ungarischen Königs Koloman zum kroatischen König in Biograd bei Zadar und Kroatien kam in Personalunion zu Ungarn. Kroatien behielt dabei eine eigene Verwaltung unter einem kroatischen Ban (Vizekönig bzw. dessen Stellvertreter). Die Pacta conventa, die die Beziehungen des kroatischen Adels zum König regelt, wurde traditionell ebenfalls ins Jahr 1102 datiert, hierfür gibt es aber keine Belege. Die Personalunion mit dem Königreich Ungarn blieb, mit Ausnahme der Türkenkriege im 16., 17. und frühen 18. Jahrhundert, und einiger anderer Unterbrechungen, in unterschiedlicher Form bis 1918 bestehen. Osmanisches Reich (1451–1699) und Habsburger (1527–1918). Seit Mitte des 15. Jahrhunderts waren Ungarn und Kroatien Angriffen des Osmanischen Reiches ausgesetzt. Nach der Niederlage der Ungarn und Kroaten gegen die Osmanen in der Schlacht bei Mohács (1526) wurde vom kroatischen Adel bei der Versammlung von Cetingrad Ferdinand I. von Habsburg zum kroatischen König gewählt. Die historischen kroatischen Landschaften Dalmatien und Teile Istriens standen seit dem Spätmittelalter unter der Herrschaft der Republik Venedig. Die Republik Dubrovnik konnte als einziges der Gebiete des heutigen Kroatien vom 14. Jahrhundert bis zum Jahr 1808 ihre staatliche Unabhängigkeit bewahren. Kroatien war jahrhundertelang Kampfzone gegen das Osmanische Reich. Als Abwehr wurde die so genannte "Militärgrenze" errichtet, in der sich auch in bedeutender Zahl Orthodoxe Christen ansiedelten. Zeitweilig erhielten die Bewohner der Militärgrenze Privilegien in Form des Statuta Wallachorum. Nach den napoleonischen Kriegen kamen 1815 ganz Dalmatien und Istrien unter österreichische Herrschaft, wurden jedoch aus politischen Gründen („divide et impera“) nicht verwaltungsmäßig mit dem übrigen Kroatien vereinigt, sondern zu separaten Kronländern. Ab 1867 waren Dalmatien und Istrien Teil der österreichischen Reichshälfte, während das Königreich Kroatien und Slawonien zur ungarischen Reichshälfte gehörte. In der zweiten Hälfte des 19. Jahrhunderts wuchs unter der kroatischen Bevölkerung das Verlangen nach mehr Selbstbestimmungsrechten und einem Ende der Magyarisierungspolitik Ungarns. In den Revolutionsjahren um 1848 verkörperte insbesondere Ban Josip Jelačić die Symbolfigur kroatischer Interessen, die nach Eigenverwaltung strebten. Den nationalen Bestrebungen wurde jedoch durch den Österreichisch-Ungarischen Ausgleich und den Ungarisch-Kroatischen Ausgleich 1867 ein Ende gesetzt. Das 19. Jahrhundert war auch geprägt vom so genannten Illyrismus, einer Bewegung, die zahlreiche kulturelle Veränderungen durchsetzte. Es kam zu einer Standardisierung der kroatischen Sprache und gleichzeitig wurde die Idee geboren, alle Südslawen in einem Staat zu vereinen. Entstehung des Königreichs der Serben, Kroaten und Slowenen (1918–1941). Kroatien löste sich im Jahre 1918 am Ende des Ersten Weltkrieges aus der österreichisch-ungarischen Monarchie. Italienische Truppen begannen daraufhin mit der Besetzung von kroatischen Gebieten längs der Ostküste der Adria, da Italien im Londoner Vertrag von 1915 deren Annexion zugesagt worden war. Angesichts dessen beschloss der "Nationalrat der Slowenen, Kroaten und Serben" Ende November 1918 die sofortige Vereinigung Kroatiens mit dem Königreich Serbien, woraus dann das Königreich der Serben, Kroaten und Slowenen entstand. Viele Kroaten lehnten aber die monarchistische Staatsform ab, fühlten sich benachteiligt und verlangten für Kroatien die Gründung einer Republik. Dazu kam, dass die Verfassung eine zentralistische Staatsorganisation und die Auflösung der historischen Provinzen vorsah, was den Serben als zahlenmäßig größtem Volk de facto die Vorherrschaft sicherte. 1928 wurden im jugoslawischen Parlament mehrere kroatische Politiker erschossen, darunter Stjepan Radić, der Anführer der kroatischen Fraktion. Nach einer Staatskrise löste 1929 König Aleksandar I. das Parlament auf, führte eine Königsdiktatur ein und benannte den Staat in "Königreich Jugoslawien" um. Seine Macht stützte sich auf das Militär. Gleichzeitig floh ein Teil der kroatischen politischen Elite ins Ausland. Teile davon bildeten die von Ante Pavelić angeführte und von Mussolini unterstützte faschistische Ustascha-Bewegung, die mit Gewalt gegen das Königreich Jugoslawien kämpfte. 1934 wurde von ihnen bei einem Attentat in Marseille König Alexander erschossen. 1939 wurde am Vorabend des Zweiten Weltkrieges eine Aussöhnung versucht und mit dem Vertrag Cvetković-Maček die Banovina Hrvatska innerhalb Jugoslawiens geschaffen. Kroatien im Zweiten Weltkrieg. Vier Tage nach dem Beginn des Balkanfeldzuges marschierte am 10. April 1941 die Wehrmacht in Zagreb ein. Am 17. April 1941 kapitulierte das Königreich Jugoslawien vor den Achsenmächten. Kroatien wurde zum deutschen Vasallenstaat. Mit Unterstützung der Achsenmächte hatte die Ustascha unter Ante Pavelić bereits am 10. April den "Unabhängigen Staat Kroatien" ("NDH") ausgerufen. Faktisch war der Ustascha-Führer Ante Pavelić unter dem Titel "Poglavnik" Staatschef des Unabhängigen Staates Kroatien. Er errichtete eine faschistische Diktatur, die hunderttausende Juden, Serben, Roma, kroatische Antifaschisten u. a. systematisch verfolgte und ermordete. Traurige Berühmtheit hat dabei das Konzentrationslager Jasenovac erlangt, das auch als „Auschwitz des Balkans“ in die Geschichte einging. Vom Sommer 1941 an begann ein bewaffneter Aufstand der kroatischen Kommunisten gegen das Ustascha-Regime, die als Teil der jugoslawischen Partisanenbewegung im Laufe der Jahre 1942 und 1943 einen großen Teil des Landes unter ihre Kontrolle bringen konnten. Neben Tito war Andrija Hebrang eine der Führungspersönlichkeiten. Nach der Niederlage der Achsenmächte und ihrer Verbündeten kam es 1945 seitens der jugoslawischen Volksbefreiungsarmee zu Verbrechen an den Kriegsverlierern, vor allem beim Massaker von Bleiburg. Kroatien als Teilrepublik Jugoslawiens (1945–1991). Nach Kriegsende wurde Kroatien eine von sechs Teilrepubliken "(Sozialistische Republik Kroatien)" der neu gegründeten "Föderativen Volksrepublik Jugoslawien", ab 1963 "Sozialistische Föderative Republik Jugoslawien (SFRJ)", unter der Regierung Titos. Im Jahre 1971 wurde die Protest- und Reformbewegung Kroatischer Frühling niedergeschlagen. Nach dem Tod Titos 1980 nahmen die Spannungen zwischen Kroatien und der von Serben dominierten jugoslawischen Regierung zu. Ende der achtziger Jahre hatten sich aus den Bestrebungen nach mehr Autonomie die Forderungen nach der Unabhängigkeit von Jugoslawien entwickelt. Der Kroate Franjo Tuđman, der an der Seite Titos gegen das Ustascha-Regime gekämpft hatte, erlangte bei der kroatischen Bevölkerung großen Zuspruch. Nachdem die geschwächte jugoslawische Regierung ein Mehrparteiensystem zugelassen hatte, gründete Tuđman 1990 die Kroatische Demokratische Gemeinschaft (HDZ), die bald den Charakter einer Volkspartei annahm. Seine Forderung nach einem unabhängigen Kroatien löste bei den Serbischstämmigen, die laut damaliger Verfassung das zweite Staatsvolk darstellten, Proteste aus, doch die HDZ gewann bei den Wahlen am 22./23. April bzw. 6./7. Mai 1990 mit 40 Prozent der abgegebenen Stimmen 67,5 Prozent der Parlamentssitze. Tuđman wurde anschließend zum Präsidenten gewählt. Unabhängigkeitskrieg (1991–1995). Nachdem sich am 19. Mai 1991 in einem Referendum über die Unabhängigkeit Kroatiens 93,2 % der Wahlbeteiligten für die Souveränität ausgesprochen hatten, erklärte Kroatien im Juni 1991 unter Franjo Tuđman seine Unabhängigkeit. Die erste Anerkennung erfolgte am 26. Juni 1991 durch Slowenien, das sich ebenfalls gerade für unabhängig erklärt hatte. Die de facto von Serbien dominierte Jugoslawische Volksarmee (JNA) versuchte die Unabhängigkeitsbestrebungen militärisch niederzuwerfen. Der militärische Versuch, kroatische Gebiete sowohl mit großem als auch geringem Anteil an serbischer Bevölkerung von Kroatien abzuspalten und mittelfristig an Serbien anzugliedern, mündete in den fast vier Jahre andauernden Kroatienkrieg, der erst nach militärischen Erfolgen der Kroaten 1995 in der Militäroperation „Sturm“ mit dem Abkommen von Erdut vom 12. November 1995 endete. Ihren Abzug aus Kroatien vollzog die JNA unter Zerstörung vieler militärischer Objekte und Verminung strategisch wichtiger Zonen, so auf der am weitesten vom Festland entfernten Insel Vis oder in den Donausümpfen an der kroatisch-serbischen Grenze. Nach Wiederherstellung des Friedens. Im Oktober 2001 unterzeichnete Kroatien ein Stabilisierungs- und Assoziierungsabkommen mit der Europäischen Union. Es sichert Kroatien den freien Zugang zum Europäischen Binnenmarkt, verlangt aber auch umfangreiche Wirtschafts- und Sozialreformen. Die Änderung des Wirtschaftssystems vom Sozialismus in eine soziale Marktwirtschaft zog zahlreiche wirtschaftspolitische Maßnahmen nach sich. Ein Schwerpunkt ist die weitere Privatisierung von Unternehmen und die Schaffung von Investitionsanreizen. Seit dem 18. Juni 2004 war Kroatien offizieller EU-Beitrittskandidat. Allerdings begannen die Beitrittsverhandlungen erst nach einem Beschluss der EU-Außenminister vom 3. Oktober 2005, da Kroatien bis dahin nach Auffassung der EU-Kommission nur mangelhaft mit dem Haager Kriegsverbrechertribunal kooperiert hatte. Weitere Reformen waren im Bereich Justiz und Soziales notwendig. Ferner wurde der Kampf gegen Korruption als eine Grundvoraussetzung für eine EU-Vollmitgliedschaft angesehen. Im November 2008 wurden Kroatien gute Fortschritte bescheinigt und ein Abschluss der Beitrittsverhandlungen für 2009 in Aussicht gestellt. Die Beitrittsverhandlungen wurden allerdings im Jahr 2009 für mehrere Monate wegen eines Streits mit Slowenien über den Grenzverlauf in der Bucht von Piran unterbrochen. Erst im September 2009 konnte dabei eine Einigung erzielt werden, so dass die Beitrittsverhandlungen fortgesetzt werden konnten. Der für die Erweiterung zuständige EU-Kommissar erklärte im Juni 2011 die Verhandlungen für „erfolgreich beendet“. Seither prüften Experten der Mitgliedsländer die von der EU-Kommission mit Kroatien verhandelten Ergebnisse, vor allem in den Bereichen Justiz, Wettbewerb und Haushalt. Das Europäische Parlament genehmigte den Beitritt im Dezember 2011, woraufhin die scheidende kroatische Regierungschefin Jadranka Kosor und der kroatische Präsident Ivo Josipovic in feierlicher Zeremonie gemeinsam mit allen Staats- und Regierungschefs der EU den EU-Beitrittsvertrag für Kroatien am 9. Dezember 2011 auf dem EU-Gipfel in Brüssel unterzeichneten. In einem Referendum am 22. Januar 2012 stimmten 67,27 Prozent der Abstimmenden für einen Beitritt zur EU. Die Beteiligung am Referendum betrug nur 43,51 Prozent, aber auch damit ist das Ergebnis des Referendums entsprechend der kroatischen Verfassung gültig. Am 1. Juli 2013 wurde Kroatien der 28. Mitgliedstaat der EU. Bereits am 14. April 2013 wurden die zwölf kroatischen Vertreter für das EU-Parlament gewählt. Politik und Verwaltung. Die Verfassung vom Dezember 1990 ("Ustav Republike Hrvatske") definiert die Republik Kroatien ("Republika Hrvatska") als Staat des kroatischen Volkes und der nationalen Minderheiten. Als Strukturprinzipien gibt sie die Grundsätze der Demokratie sowie der Rechts-, Sozial- und Einheitsstaatlichkeit vor. Das ursprünglich präsidial-demokratisch geprägte Regierungssystem wurde im Jahr 2000 zu einer parlamentarischen Demokratie umgeformt. Grundlegender Maßstab für die Ausübung von Hoheitsgewalt sind die in der Verfassung vorgesehenen Menschenrechte. Für hoheitliche Institutionen ist eine personelle Vertretung der nationalen Minderheiten vorgesehen; ihre Sprachen und Schriftzeichen sind in einzelnen Gebieten auch im amtlichen Gebrauch. Staat und Kirche sind voneinander getrennt; es gibt keine Staatsreligion. Am 16. Oktober 2007 wurde Kroatien für zwei Jahre als nichtständiges Mitglied in den UN-Sicherheitsrat gewählt. Kroatien hält derzeit den Vorsitz im Südosteuropäischen Kooperationsprozess (SEKP). Der Staat ist seit April 2009 Mitglied der NATO und hat am 9. Dezember 2011 die Beitrittsurkunde zur EU in Brüssel unterzeichnet. Nach den Beschlüssen auf EU-Ebene und des kroatischen Parlaments sowie dem erfolgreichen Referendum Anfang 2012 wurde Kroatien am 1. Juli 2013 EU-Mitglied. Parlament. Das kroatische Ein-Kammer-Parlament "(Sabor)" hat 151 Abgeordnete. Die zweite Kammer, das "Haus der Gespanschaften" (kroatisch: "Županijski dom)," ist im März 2000 abgeschafft worden. Die Abgeordneten werden durch Verhältniswahl bestimmt, bei der eine Fünf-Prozent-Klausel, bezogen auf einzelne Wahlkreise, gilt. Es gibt einen besonderen Wahlkreis für Auslandskroaten, für die im Sabor drei Sitze reserviert sind; zudem sind acht Abgeordnetensitze für nationale Minderheiten reserviert. Alle Bürger ab dem 18. Lebensjahr sind wahlberechtigt. Die letzten Parlamentswahlen fanden am 4. Dezember 2011 statt. Mit 80 Sitzen errang die sozialliberale „Kukuriku-Koalition“ aus SDP, HNS, IDS und HSU die Mehrheit im Parlament. Einschließlich der Mandate der Auslandskroaten kam die zuvor regierende konservative HDZ mit ihren Koalitionsparteien HGS und Demokratische Mitte auf 47 Sitze. Präsident / Präsidentin. Der Präsident "(Predsjednik Republike Hrvatske)" wird für fünf Jahre direkt vom Volk gewählt. Er ist Staatsoberhaupt und Oberbefehlshaber der Streitkräfte. Während seiner Amtszeit darf er keiner politischen Partei angehören. Nach abgehaltenen Parlamentswahlen vergibt er den Auftrag zur Regierungsbildung und ernennt nach Zustimmung des Parlaments den Premierminister. Unter besonderen Voraussetzungen kann er das Parlament auflösen und Neuwahlen ausschreiben. Die Ausfertigung der vom Parlament beschlossenen Gesetzesvorlagen darf er nicht ablehnen; hält er eine Norm für verfassungswidrig, so kann er sie dem Verfassungsgericht zur Prüfung vorlegen. Außenpolitisch ist er in Zusammenarbeit mit der Regierung auch gestaltend tätig. Ivo Josipović, Amtsinhaber seit Februar 2010, verlor am 11. Januar 2015 die Stichwahl gegen Kolinda Grabar-Kitarović (HDZ), die ihr Amt als erste Frau in dieser Position in Kroatien am 15. Februar 2015 antrat. Regierung und Verwaltung. Zoran Milanović, Premierminister seit Dezember 2011 Die Regierung "(Vlada Republike Hrvatske)" ist das ausführende Staatsorgan und die oberste gesetzgebende Behörde. Sie besteht aus dem Premierminister "(predsjednik Vlade)" sowie den Vizepremiers und Ministern. Vor Amtsantritt muss der Regierung vom Parlament das Vertrauen ausgesprochen werden. Sie kann auch Gesetzesvorlagen einbringen und bei gesetzlicher Ermächtigung Rechtsverordnungen erlassen. In ihrer Amtsausübung ist sie dem Parlament gegenüber verantwortlich. Durch Misstrauensvotum kann sie vom Parlament zum Rücktritt gezwungen werden. An der amtierenden Regierungskoalition sind vier Parteien beteiligt. Premierminister ist seit Dezember 2011 Zoran Milanović (SDP). Die innere Staatsverwaltung erfolgt unter Aufsicht der Regierung. Den Ministerien kommt dabei die Stellung von mittleren Verwaltungsbehörden zu. Daneben gibt es für jede Gespanschaft eine untere Verwaltungsbehörde. Für besondere Aufgabenbereiche können Sonderbehörden geschaffen werden. Den Bürgern steht ein einklagbares Recht auf kommunale Selbstverwaltung zu. Aufgaben, deren Bedeutung nicht über ein bestimmtes Gebiet hinausgeht, werden von den kommunalen Selbstverwaltungskörperschaften eigenverantwortlich erfüllt. Das Recht auf Selbstverwaltung wird lokal in 426 Gemeinden "(općine)" und 124 Städten "(gradovi)" sowie regional in 20 Gespanschaften "(županije)" sowie der Stadt Zagreb unter staatlicher Aufsicht ausgeübt. Darüber hinaus können den Kommunen auch staatliche Aufgaben übertragen werden. Rechtsprechung und Gerichte. Die Ausübung der rechtsprechenden Gewalt ist formell unabhängig. Die Gerichtsprozesse verlaufen jedoch äußerst langwierig. Zivilrechtsverfahren ziehen sich im Durchschnitt bis zu zehn Jahre hin. In den kroatischen Medien und seitens der EU wird immer wieder auf die fehlende Rechtssicherheit und auf Fälle von Korruption hingewiesen. Höchstes Fachgericht ist der Oberste Gerichtshof ("Vrhovni sud Republike Hrvatske"). Die unteren Instanzen sind in einen allgemeinen, straf-, handels- und verwaltungsgerichtlichen Rechtsweg unterteilt. Das Verfassungsgericht ("Ustavni sud Republike Hrvatske") übt die rechtsprechende Gewalt auf dem Gebiet des Verfassungsrechts aus. Die Verfassungsrichter werden durch das Parlament für acht Jahre gewählt. Bei Verfassungswidrigkeit kann es Gesetze, behördliche Akte und Urteile aufheben; außerdem entscheidet es bei Streitigkeiten zwischen den anderen Verfassungsorganen. Mit der Verfassungsbeschwerde kann sich der Bürger selbst gegen Rechtsakte der Behörden und Gerichte an das Verfassungsgericht wenden, wenn der fachgerichtliche Rechtsweg erschöpft ist. In anderen Fällen kann nur ein besonderer Bürgeranwalt ("pučki pravobranitelj") das Verfahren betreiben. Amtierende Präsidentin des Verfassungsgerichts ist Jasna Omejec. Politische Parteien. Die größten Parteien Kroatiens sind die christdemokratische Hrvatska demokratska zajednica ("HDZ") und die sozialdemokratische Socijaldemokratska Partija Hrvatske ("SDP"). Kleinere Parteien sind die Sozial-liberale Partei ("HSLS"), die Bauernpartei ("HSS"), die Volkspartei ("HNS"), die Istrische Demokratische Versammlung ("IDS"), die Christlich-Demokratische Union ("HKDU"), die slawonische Regionalpartei, die Partei des Rechts ("HSP") sowie die Unabhängigen Demokraten. Verwaltungsgliederung. Kroatien ist in 20 Gespanschaften (kroatisch: "županija", Mehrzahl: "županije") und die Hauptstadt Zagreb, die selbst die Kompetenzen einer Gespanschaft hat, gegliedert. Die Gespanschaften haben Flächen zwischen etwa 1.000 und 5.000 km². Jede Gespanschaft verfügt über eine gewählte "Gespanschaftsversammlung" (kroatisch: "županijska skupština"). An der Spitze der Verwaltung einer Gespanschaft steht der "Gespan" (kroatisch: "župan"), der von der Gespanschaftsversammlung gewählt und vom Staatspräsidenten bestätigt wird. Die Gespanschaften gliedern sich ihrerseits in Općine (), von denen ein Teil den Status einer Stadt (kroatisch: "grad") hat. Insgesamt ist die Verwaltung in 124 Städte und 426 Gemeinden unterteilt. 58 % der Bevölkerung lebt in Städten. Militär. Die Kroatische Armee umfasst in ihrer Friedensstärke etwa 15.000 Soldaten. Die Anzahl der Reservisten beträgt 111.000 Soldaten, von denen sich etwa 32.360 in Bereitschaft befinden. Insgesamt stehen 856.946 Bürger Kroatiens bereit für den Verteidigungsfall. Der Wehretat der Republik Kroatien betrug 1997 etwa 1,1 Milliarden USD (1997), etwas über 5 % des Bruttosozialproduktes; 2006 lag er bei etwa 0,701 Milliarden USD (1,65 % des BIP). Der Oberbefehlshaber der Armee Kroatiens ist der Staatspräsident der Republik Kroatien. Der Sabor, das kroatische Parlament, verfügt über die Kontrolle der Streitkräfte, den Wehretat und die strategische Entwicklung. Beitritt zur NATO. Seit den 1990er Jahren strebte Kroatien eine Mitgliedschaft in der NATO an. Insbesondere die Flüchtigkeit des mutmaßlichen Kriegsverbrechers Ante Gotovina war dabei lange Zeit ein Hindernis. Am 1. April 2009 trat die Mitgliedschaft in Kraft. Auslandseinsätze. Kroatische Truppen waren ab November 2003 Teil der Internationalen Sicherheitsunterstützungstruppe in Afghanistan (ISAF) unter Leitung der NATO (Bildung eines regionalen Aufbauteams für den Handel der Stadt Kunduz und Demilitarisierungsprogramme); ISAF wurde am 1. Januar 2015 abgelöst durch die Mission RS. Im Juni 2015 betrug die Stärke der dort stationierten kroatischen Truppen 107 Mann. Wirtschaft vor den Jugoslawienkriegen. Vor dem Kroatien-Krieg hatte Kroatien, gemessen am BIP, den zweithöchsten Anteil an der Wirtschaftsleistung Jugoslawiens, auch beim Verhältnis BIP/Einwohner stand Kroatien im Vergleich der jugoslawischen Teilrepubliken an zweiter Stelle. Geostrategische Position. Kroatien befindet sich am Schnittpunkt der beiden paneuropäischer Verkehrskorridore Mitteleuropa–Türkei (Korridor X) und Adria–Ukraine bzw. –Baltikum (Korridor V). Durch Kroatien verlaufen zudem wichtige Erdölpipelines, z. B. die Adria-Anbindung der Erdölleitung Freundschaft. Offizielle Berichte. Die kroatische Wirtschaft blieb 2012 im vierten Jahr in Folge ohne Wachstum. Für 2013 rechneten Experten mit einem Rückgang des Bruttoinlandsprodukts um 0,5 Prozent Nach dem EU-Beitritt muss Kroatien mit einem Verfahren wegen eines „exzessiven Budgetdefizits“ rechnen. Es wird 2013 und 2014 voraussichtlich bei 4 bis 4,5 Prozent des BIP liegen. Neben Standard & Poor’s hat auch die Ratingagentur Moody’s Kroatiens Kreditwürdigkeit gesenkt. Kroatien war bis zum EU-Beitritt im Juli 2013 Mitglied des mitteleuropäischen Freihandelsabkommens (CEFTA); die Europäische Union ist der wichtigste Handelspartner des Landes. Im „Global Gender Gap Report 2006“ des Weltwirtschaftsforums belegte Kroatien im weltweiten Ranking Platz 17. In diesem Bericht werden etwa Lohnunterschiede zwischen Frauen und Männern, die Beteiligung von Frauen in der Politik sowie in entscheidenden Wirtschaftspositionen eines Staates untersucht. Landwirtschaft. Die Hälfte (53,16 %) der Landfläche wird als Agrarfläche genutzt. 2007 wurden 7,2 % des Wirtschaftseinkommens durch die Landwirtschaft erzielt, wobei etwa 2,7 % der Bevölkerung in diesem Sektor tätig waren. 2004 wurde 9 % sowohl des Exports als auch des Imports durch den Sektor erreicht. Zu der bewirtschafteten Landflächen gehören vor allem die fruchtbaren Böden im Save-Drau-Zwischenstromland, die intensiv genutzt werden. Die wichtigsten angebauten Früchte sind Zuckerrüben, Kartoffeln, Weizen und Mais. In klimatisch begünstigten Lagen werden auch einige Sonderkulturen angebaut, vor allem Wein und Obst. In Süddalmatien werden mit Tabak und Zitrusfrüchten hohe Ernteerträge erzielt. In der Viehhaltung dominieren die Rinder-, Schaf- und Schweinezucht. In Dalmatien ist der Fischfang eine wichtige Einkommensquelle. Bergbau. Kroatien ist relativ reich an Bodenschätzen. Vor Ausbruch der Jugoslawienkriege 1991 war die Bergbauindustrie einer der bedeutendsten Arbeitgeber. Erdgas, Erdöl, Steinkohle, Braunkohle, Bauxit, Eisenerz und Porzellanerde (Kaolin) gehören zu den wichtigsten Rohstoffen Kroatiens. In manchen Regionen gibt es auch kleine Vorkommen von Calcium, Naturasphalt, Kieselerde, Glimmer und Salz. Darüber hinaus werden Graphit und Baumaterialien (vor allem Betongrundstoffe) abgebaut. Industrie. a>" ist mit rund 17.000 Angestellten das zweitgrößte Unternehmen in Kroatien Die vorherrschenden Industriebetriebe in Kroatien sind Erdölraffinerien, Eisen- und Stahlwerke, Schiffswerften, Chemieunternehmen und Produktionsstätten für Nahrungsmittel, Maschinen, Zement und Beton, Metallwaren und Textilien. Die ehemals bedeutende Bergbauindustrie verzeichnet seit einigen Jahren Rückgänge in der Produktion. Viele der Industriebetriebe Kroatiens wurden im Kroatienkrieg zerstört oder beschädigt. Der Wiederaufbau der Anlagen bindet viele finanzielle Mittel und verhindert eine weitere Entwicklung in einigen anderen Produktionsbereichen. Als Folge des Krieges im eigenen Lande fiel 1991 die Industrieproduktion um 42,5 %. Ab 1993 verzeichnete die kroatische Wirtschaft Zuwachsraten, und bis 1996 konnten wieder in den meisten Branchen erhebliche Produktivitätssteigerungen verzeichnet werden. Wichtige Industrieunternehmen sind der Mineralöl- und Gas-Konzern "Industrija nafte (INA)" (etwa 17.000 Beschäftigte), der Elektrotechnik-Hersteller "Končar Group" sowie die Lebensmittelkonzerne "Agrokor" (etwa 36.000 Beschäftigte), "Podravka" und "Kraš". Bankwesen. Das Bankwesen ist konsolidiert und die größten Banken des Landes haben mit italienischen und österreichischen Großbanken fusioniert bzw. wurden von diesen übernommen. Zu den größten Banken in Kroatien zählen die "Zagrebačka banka", "Privredna banka", "Splitska banka", "Raiffeisenbank Austria", "HVB Croatia banka", "OTP banka" und "Karlovačka banka". Die einzige größere Bank, die nicht von ausländischen Banken aufgekauft wurde, ist die Hrvatska Poštanska Banka – die kroatische Postbank. Tourismus. Kroatien ist für seine Küste mit hunderten vorgelagerter Inseln bekannt. So wurde Kroatien durch das „World Tourism Barometer“ zum 18. bekanntesten Touristenziel der Welt ernannt. Etwa 10 Mio. Touristen besuchen Kroatien jedes Jahr und erbrachten im Rekordjahr 2008 einen Umsatz von rund 7,5 Mrd. Euro. Im Jahr 2011 betrugen die Einnahmen aus dem Tourismus 6,6 Mrd. Euro, im Jahr 2012 7 Mrd. Euro. Somit entspringt etwa ein Fünftel des BIP aus dem Tourismus des Landes und stellt ein wichtiges Standbein der Wirtschaft im tertiären Sektor dar. Energie. Zur Erzeugung von elektrischer und Wärmeenergie werden in Kroatien vorrangig Erdöl, Kohle und Wasser genutzt. Daneben versorgt das Kernkraftwerk Krško in Slowenien, das in einem gemeinsamen Projekt zwischen Kroatien und Slowenien errichtet wurde, den Norden Kroatiens, vor allem Zagreb, mit Strom. Wasserkraftwerke sind meist in der Küstenregion Kroatiens vorzufinden. Das größte Wasserkraftwerk in Kroatien liegt am Perućko jezero (Peruća-See) nahe Sinj. Seit einem Beschluss vom März 2007 werden in Kroatien auch Erneuerbare Energien subventioniert. Strom wird zu 24,5 % aus Wasserkraft, 15,8 % Kernenergie und 27,5 % aus fossilen Brennstoffen gewonnen, 30,9 % werden auf dem Strommarkt dazugekauft (Stand 2011). Windenergie machte einen Anteil von 1,3 % aus, 2010 waren es 0,8 % gewesen. Staatshaushalt. Laut Schätzungen der CIA umfasste der Staatshaushalt 2012 Ausgaben von umgerechnet 23,42 Mrd. US-Dollar, dem standen Einnahmen von umgerechnet 21,56 Mrd US-Dollar gegenüber. Das Defizit wird mit 3,2 % des BIP angegeben. Laut CIA wird die Staatsverschuldung für 2012 auf 68,2 % des BIP geschätzt. Infrastruktur, Verkehr und Telekommunikation. Das stetig wachsende Autobahnnetz Kroatiens Der Verkehrs- und Infrastruktursektor ist derzeit einer der sich am schnellsten entwickelnden Bereiche der kroatischen Wirtschaft. Mehrere Autobahnabschnitte werden über das Land verteilt gleichzeitig errichtet. Damit erhofft man sich unter anderem eine Entlastung der kurvenreichen Küstenstraße "Jadranska Magistrala". Auch andere wichtige Infrastrukturprojekte, wie Tunnels, Brücken, städtische Kommunalprojekte, Umweltprojekte oder der Ausbau von Häfen befinden sich derzeit in einer Projektierungs- oder Bauphase. Insbesondere für den Tourismus erhofft Kroatien sich nachhaltige Auswirkungen durch bessere Infrastrukturlösungen. Eine bereits in Kraft getretene, transparentere und härtere Gesetzgebung soll hier unkontrolliertes Bauen verhindern. Straßenverkehr. Das kroatische Autobahnnetz gehört zu den jüngsten in Europa. Viele Autobahnkilometer wurden erst kürzlich fertiggestellt und ein Ende der regen Bautätigkeit ist noch nicht abzusehen. Das Hauptprojekt stellte hierbei die Autobahn A1 Zagreb–Split dar, die im Frühling 2005 fertiggestellt wurde und eine durchgehende Autobahnverbindung zwischen den beiden größten kroatischen Städten bietet. Bis 2008 sollten einige wichtige Bauprojekte verwirklicht sein. Dazu zählen die Verlängerung der Autobahn bis Ploče in Süddalmatien, bessere Verkehrslösungen für Rijeka (weitere Umgehung), die Autobahnverbindung nach Osijek, der Autobahnausbau nach Sisak und die Autobahnanbindungen in Richtung Serbien, Slowenien sowie Österreich. Zurzeit wird der Ausbau zahlreicher Raststätten entlang aller kroatischen Autobahnen vorangetrieben. Ebenso sollten mittels modernster Videoüberwachungstechnik Unfälle vermieden werden. Die kroatischen Autobahntunnel zählen zu den sichersten in Europa. Schienenverkehr. Der von der staatlichen Gesellschaft "Hrvatske željeznice" betriebene Bahnverkehr in Kroatien ist mit einem Streckennetz von 2974 Kilometern unterentwickelt und wenig konkurrenzfähig zum Busnetz, das in der Regel Strecken preiswerter und in kürzeren Intervallen bedient. Seit 2005 verkehren auf der Bahnstrecke Zagreb–Rijeka sowie weiter nach Knin und nach Split die Neigezüge der Baureihe 7123, die eine viel komfortablere und kürzere Reisezeit ermöglichen als zuvor. Im Gegensatz dazu stehen die veralteten Triebwagen auf anderen Strecken insbesondere in den Osten nach Slawonien. Die 2006 privatisierte kroatische Bahn ist bestrebt, die Reisequalität auf einzelnen Strecken zu erhöhen und die Reisezeiten zu verringern. Neben der abgeschlossenen Modernisierung der Strecke Zagreb–Split soll eine neue Bahnstrecke von Botovo an der Grenze zu Ungarn über Zagreb bis nach Rijeka gebaut werden. Dazu gehören auch Überlegungen für eine Neubaustrecke Zagreb–Rijeka. Mit einer Fertigstellung ist jedoch vor 2025 nicht zu rechnen. Flugverkehr. Die bedeutendsten kroatischen Flughäfen sind Zagreb, Rijeka, Split, Dubrovnik, Pula, Zadar und Osijek. Die kroatische Regierung investiert u. a. in den Ausbau der Flughäfen von Zagreb und Brač. Seeverkehr und Binnenschifffahrt. In Kroatien gibt es mehrere wichtige Adriahäfen. Der größte Hafen an der östlichen Adriaseite ist Rijeka, gefolgt vom Industriehafen Ploče und dem Passagierhafen Split. Als bedeutender Binnenhafen gilt Vukovar an der Donau. Telekommunikation und Internet. Der Telekommunikationssektor ist in Kroatien bereits weit entwickelt, insbesondere was die Mobilfunknetze betrifft und hat in den letzten Jahren im Vergleich zu anderen Wirtschaftsbranchen in Kroatien die größten Fortschritte gemacht. Dies ist auch daran ersichtlich, dass der Telekommunikationssektor in diesem Land einen höheren Anteil am BIP trägt, als dies in den alten EU-Ländern der Fall ist (über 5 %). Auch die Gesetzgebung in diesem Bereich befindet sich bereits auf europäischem Niveau. Als Folge der Liberalisierung des Marktes im Jahr 2005 kommen immer mehr alternative Telekommunikations-Betreiber auf den kroatischen Markt. In Kroatien gibt es derzeit (Stand: Frühjahr 2006) drei Mobilfunknetzbetreiber, wobei eine vierte Lizenz noch im Laufe des Jahres 2006 ausgeschrieben werden sollte. Die beiden größten Netze garantieren eine flächenmäßige Abdeckung von über 98 %. Auch die Einführung neuer Technologien, wie WAP, GPRS oder MMS wurde rasch durchgeführt. Ebenso UMTS und mobile Videotelefonie sind bereits verfügbar. Dem kroatischen Telekommunikationssektor wird immer noch recht gutes Wachstumspotential zugeschrieben, da noch keine vollständige Marktsättigung erreicht wurde. Breitbandinternetzugänge sind nicht im ganzen Land verfügbar. Durch gezielte Wachstumsanreize soll der Ausbau beschleunigt werden. 2005 wurden in Kroatien bereits Frequenzlizenzen für Internet-Funknetzwerke vergeben. Insbesondere durch neue WiMAX-Funknetzwerke soll die Internet-Infrastruktur in ganz Kroatien ausgebaut werden. Die flächenmäßige Abdeckung ganzer Städte und Regionen mit dieser Technik wurde hierbei beschlossen. Kultur und Gesellschaft. a> gehört zu den ältesten Universitäten in Europa. Sie wurde 1396 als "Universitas Jadertina" gegründet In kultureller und architektonischer Hinsicht wurde der Norden und Nordosten Kroatiens durch seine lange gemeinsame Geschichte mit Ungarn bzw. Österreich im Baustil des Barock geprägt. Der Süden des Landes, das Küstenland von Istrien, der Kvarner-Bucht, des Hrvatsko primorje und Dalmatiens hingegen wurden architektonisch vorwiegend im Stil der Renaissance durch die frühere Seemacht Venedig (1409 bis etwa 1815) beeinflusst. Musik. In Kroatien ist sowohl moderne Rock- und Popmusik, als auch traditionelle Tamburica- (gitarrenartiges Musikinstrument) und Klapa- (Männerchor) Musik weit verbreitet. Viele kroatische Künstler feiern auch international Erfolge wie z. B. 2Cellos, Tomislav Miličević (30 Seconds to Mars), Krist Novoselić (ehemaliges Bandmitglied von Nirvana), Sandra Nasic (Guano Apes) uvm. Kulturhistorisches. Die Bezeichnung des Kleidungsstückes „Krawatte“ geht auf den Namen eines Volkes der Kroaten zurück. Die kroatischen Soldaten trugen im 17. Jahrhundert ein ähnliches Kleidungsstück um den Hals, ein Halsband mit Fransen, durch das sie recht einfach zu unterscheiden waren. Das Wort "„cravate“" wird zum ersten Mal in der französischen Enzyklopädie im 17. Jahrhundert erwähnt, als kroatische Soldaten am Hof Ludwigs XIV. in Paris weilten. Das französische Wort für die Kroaten lautet "Croates", was leicht auf das Wort "cravate" oder im Deutschen „Krawatte“ schließen lässt. (Näheres, siehe: Geschichte der Krawatte). Wissenschaft. Kroatien besitzt mehrere Hochschulen (kroatisch "sveučilište"), darunter fünf polytechnische und 14 öffentliche und private Fachhochschulen (kroatisch "veleučilište"). Die sieben Universitäten des Landes befinden sich in Dubrovnik, Osijek, Pula, Rijeka, Split, Zadar sowie in der Hauptstadt Zagreb. Daneben unterhalten die einzelnen Universitäten zahlreiche Institute in anderen Städten Kroatiens, wie z. B. in Varaždin. Weitere etwa 40 Forschungsinstitute bzw. wissenschaftliche Großprojekte werden in einer offiziellen zusammengefasst. Die älteste genuin-kroatische Wissenschaftsinstitution ist "Matica Hrvatska", die in der Donaumonarchie zur Kultur- und Sprachpflege ins Leben gerufen wurde. "Siehe auch:" →Liste der Universitäten und Hochschulen in Kroatien Bildung. Die Schulpflicht gilt nach der Regelung von 2007 für Kinder im Alter von 7 bis 18 Jahren. Die Schulpflicht wird acht Jahre auf der Grundschule abgeleistet, danach wird der Schulbesuch drei Jahre bis zur 11. Klasse auf einer Fachschule bzw. vier Jahre bis zur 12. Klasse auf einem Gymnasium fortgesetzt. In Kroatien wird muttersprachlicher Unterricht für ethnische Minderheiten sowohl an Grundschulen als auch an weiterführenden Schulen (Gymnasien) in folgenden Sprachen angeboten: Tschechisch, Ungarisch, Italienisch, Serbisch und Deutsch. Für den Unterricht der insgesamt 3207 serbischen Schüler in serbischer Sprache waren 2008/09 landesweit 459 Lehrer eingesetzt. An zweiter Stelle folgte der Muttersprachenunterricht für 2139 italienische Schüler durch 374 Lehrkräfte. Deutschsprachiger Unterricht wird nur noch an einer Grundschule angeboten. Etwa jeder vierte Kroate spricht Englisch, jeder siebte deutsch. Die Analphabetenrate bei den über 15-Jährigen lag laut CIA 2010 bei 1,2 % der Gesamtbevölkerung. Druckerzeugnisse. Die Presse in Kroatien ist überwiegend auf die Hauptstadt Zagreb konzentriert. Zu den bedeutendsten Tageszeitungen gehören "Večernji list", "Jutarnji list", "Slobodna Dalmacija" und "Novi list". Die meistgelesenen Wochenmagazine sind "Globus", "Nacional" und "Hrvatski list". Seit 2005 etablieren sich immer mehr Zeitungen im Kleinformat. Dazu zählen "24 sata" sowie die Gratiszeitungen "Metropola" und "Metro". Fernsehen-/Sender. Kroatien verfügt über ein duales Fernseh- und Rundfunksystem. Aus dem staatlichen "Radio Televizija Zagreb" ging 1991 "Hrvatska Radiotelevizija (HRT)" hervor, das derzeit vier Kanäle ausstrahlt. Bereits seit den 1980er Jahren gibt es in Kroatien lokale Privatfernsehsender. Am kroatischen Fernsehmarkt etablierten sich im Zuge der Liberalisierung in den letzten Jahren auch national-sendende Privatsender. Die Privatsender "RTL Televizija" und "Nova TV" können in ganz Kroatien empfangen werden. Der Testbetrieb des ehemals landesweit digital empfangbaren Privatsenders "Kapital Network" endete laut dem Netzbetreiber per Beschluss am 31. August 2012. HRT 1 (nur Nachrichten, Reportagen und Filme sowie Serien aus Kroatien) und HRT 4 sowie Z1 aus Zagreb sind per Satellit auch europaweit unverschlüsselt empfangbar. Radio. Neben den staatlichen Radiosendern der "HRT" und den national-ausgestrahlten Privatsendern "Otvoreni radio", "Narodni radio" und "Radio Marija" gibt es in Kroatien bereits seit den frühen 1990er Jahren dutzende lokale Privatradiosender. Film. Die einzige große kroatische Filmproduktionsfirma ist "Jadran Film", die u. a in den 1960er Jahren an den Karl-May-Filmen beteiligt war. Zahlreiche kroatische Schauspieler sind auch dem internationalen Publikum bekannt darunter Goran Visnjic, Ivana Miličević, Mira Furlan, Miroslav Nemec (dt.Tatort), Dunja Rajter. Der bekannteste Kroate im Filmgeschäft dürfte allerdings Oscarpreisträger Branko Lustig sein. Lustig produzierte u.a. Schindlers Liste, Gladiator und Hannibal. Zudem spielte er in zahlreichen nationalen und internationalen Filmproduktionen mit. Sport. → "siehe auch: Fußball in Kroatien, Handball in Kroatien sowie Basketball in Kroatien" Populäre Gesellschaftsspiele. Picigin ist ein sehr beliebtes Strandballspiel in seichtem Wasser. Kroatische Sprache. Die kroatische Sprache (kroatisch "hrvatski jezik") ist eine Standardvarietät aus dem südslawischen Zweig der slawischen Sprachen und basiert wie Bosnisch und Serbisch auf einem štokavischen Dialekt. Einzelwissenschaften, welche sich insbesondere mit der kroatischen Sprache befassen, sind die Kroatistik (vereinzelt auch die Serbokroatistik) und die Slawistik. Mit dem EU-Beitritt Kroatiens am 1. Juli 2013 wurde die kroatische Sprache zur 24. Amtssprache der Europäischen Union. Verbreitung und Dialekte. Die kroatische Standardsprache basiert auf dem neuštokavischen Dialekt, bezieht aber auch Einflüsse aus den kajkavischen und čakavischen Dialekten mit ein. Das Kroatische wird mit dem um die Buchstaben Ć und Đ und einige mit Hatschek versehene Buchstaben ergänzten lateinischen Alphabet geschrieben. Da die kroatische Standardsprache der bosnischen, montenegrinischen und serbischen Standardsprache sehr ähnlich ist und sich Sprecher dieser Sprachen problemlos miteinander verständigen können, vertreten viele Slawisten und Soziolinguisten vor allem außerhalb des ehemaligen Jugoslawiens die Meinung, diese könnten als Varietäten einer gemeinsamen plurizentrischen Sprache angesehen werden, die als Serbokroatisch bezeichnet wird. Deutlich stärker vom Standardkroatischen unterscheiden sich das Burgenlandkroatische (dessen Standardvarietät vorwiegend auf dem Čakavischen basiert) und das Moliseslawische (das auf einen vor Jahrhunderten nach Italien gebrachten und in der Folge stark von den umgebenden italienischen Varietäten beeinflussten štokavischen Dialekt zurückgeht), die deshalb nicht als Varietäten des Kroatischen angesehen werden können. Kroatisch wird von vermutlich etwa 7 Millionen Menschen gesprochen. In der Volkszählung von 2001 gaben in Kroatien 4.265.081 Menschen (96,12 % der Einwohner) das Kroatische als Muttersprache an. Darüber hinaus gibt es muttersprachliche Sprecher in Bosnien-Herzegowina und in der Vojvodina, unter kroatischen Zuwanderern aus jugoslawischer Zeit in Slowenien sowie in der kroatischen Diaspora, vor allem in Mitteleuropa (Deutschland, Österreich, Schweiz), Italien, Nordamerika (Vereinigte Staaten, Kanada), Südamerika (unter anderem Argentinien, Chile, Bolivien) sowie in Australien und Neuseeland. Es ist die Amtssprache Kroatiens, eine (der drei) Amtssprachen in Bosnien und Herzegowina sowie eine der sechs offiziellen Minderheitensprachen in der Vojvodina in Serbien. Das Štokavische wird auch von den Bosniaken und der Mehrheit der Serben gesprochen und bildet die Grundlage der kroatischen und ebenso der bosnischen und serbischen Standardsprache. Alphabet und Orthographie. Die Buchstaben "q, w, x" und "y" kommen nur in Eigennamen fremdsprachiger Herkunft und manchmal in nicht integrierten Fremdwörtern vor. Bei Bedarf werden sie wie oben gezeigt in das Alphabet einsortiert. Die Digraphen "dž, lj" und "nj" werden in der alphabetischen Ordnung jeweils als ein einziger Buchstabe behandelt. Es gibt nur eine sehr geringe Anzahl von Wörtern, in denen diese Zeichengruppen zwei getrennte Laute bezeichnen und deshalb als zwei Buchstaben behandelt werden müssen (z. B. "izvanjezični" ‘außersprachlich, extralinguistisch’, wo zwischen "izvan-" ‘außer-’ und "-jezični" ‘sprachlich’ eine Morphemfuge liegt). Die Orthographie des Kroatischen ist grundsätzlich phonematisch, das heißt, jedes Phonem wird durch genau eines der Grapheme des Alphabetes wiedergegeben. Regelmäßige Assimilationen im Wortinneren werden ebenfalls in den meisten Fällen orthographisch wiedergegeben, es gibt jedoch Ausnahmen. Neue Wörter fremder Herkunft werden bei ihrer Entlehnung ins Kroatische im Allgemeinen der kroatischen Orthographie angepasst, indem sie mit denjenigen kroatischen Graphemen gewissermaßen phonetisch transkribiert werden, die der Aussprache in der Ausgangssprache am ehesten entsprechen, z. B. englisch "Design" > kroatisch "dizajn". Neue Lehnwörter aus Sprachen mit lateinischer Schrift treten jedoch manchmal auch in Originalschreibweise auf. Fremdsprachliche Eigennamen aus Sprachen mit lateinischer Schrift werden im Kroatischen – wie in den meisten europäischen Sprachen mit lateinischer Schrift – in der Originalschreibweise wiedergegeben, sofern nicht – wie oft bei bekannten geographischen Namen – eine eigene kroatische Namensform existiert; fremdsprachliche Eigennamen aus Sprachen, die andere als die lateinische Schrift verwenden, werden hingegen in der schon geschilderten Form transkribiert. Bei Nachnamen fremder Herkunft, die von kroatischen Namensträgern getragen werden, und ebenso bei einigen in jüngerer Zeit entlehnten Vornamen fremder Herkunft variiert die Schreibweise zwischen der Originalschreibung und einer phonetisch determinierten Adaptation, wobei die jeweilige individuelle Schreibweise des einzelnen normativ den Ausschlag gibt, z. B. "Jennifer," aber manchmal auch "Dženifer". Die Sonderzeichen können mit Entitäten dargestellt werden (Achtung, das Đ nicht mit dem isländischen Ð verwechseln). Silbisches R. Durch den potentiell silbischen Charakter des „R“ im Kroatischen kann es auch zur Bildung von Wörtern ohne jegliche Vokale kommen. Beispiele dafür wären etwa: „Krk“ // (eine kroatische Insel), „prst“ // (deutsch „Finger“) oder „krš“ // (deutsch „Karst“). In der Schrift werden das silbische und das nicht-silbische R gewöhnlich nicht unterschieden. Der Diphthong //. Der Diphthong //, der etymologisch auf das so genannte „lange Jat“ zurückgeht, wird orthographisch durch den Trigraph "ije" repräsentiert. Prosodisch entspricht dieser Diphthong einem Langvokal. Seine Aussprache schwankt zwischen einem gleichmäßig auf beiden Bestandteilen betonten Diphthong, einer Verbildung von unsilbischem "i" mit langem "e" und zweisilbigem. Da sich die erste der genannten Aussprachen nicht auf die übrigen standardkroatischen Phoneme zurückführen lässt und zudem die Schwankung in der Aussprache in anderen Fällen, die phonematisch eindeutig // oder // enthalten, nicht auftritt, wird dieser Diphthong in der heutigen kroatischen Sprachwissenschaft teilweise als selbständiges Phonem klassifiziert. Das "ije" ist im Gegensatz zu den Digraphen "dž, lj" und "nj" nicht Teil des kroatischen Alphabets. Die Zeichenfolge "ije" kann auch für die Phonemfolgen // oder // stehen – in diesen Fällen wird sie nicht einsilbig, d. h. als Diphthong, sondern immer zweisilbig ausgesprochen. Beispiel: "pijem mlijeko" // "(Ich trinke Milch)" (das erste Wort ist stets zweisilbig) Wortakzent. Kroatisch verfügt über einen melodischen Wortakzent ("pitch accent") und zählt damit zu den Tonsprachen. Dies bedeutet, dass die Tonhöhe der betonten Silbe und der Tonhöhenverlauf des Wortes eine Rolle spielen, und auch zur Bedeutung eines Wortes beiträgt. In der Standardsprache werden ein steigender und ein fallender Ton unterschieden. Neben der Tonhöhe stellt auch die Länge der Silbenkerns ein phonologisches Merkmal dar. Durch die Kombination der zwei Merkmale "Ton" und "Länge" ergeben sich in der kroatischen Standardsprache vier verschiedene Typen von betonten Silben, die in sprachwissenschaftlichen Werken mit vier verschiedenen Diakritika bezeichnet werden, weshalb oft (ungenau) von „vier verschiedenen Akzenten“ gesprochen wird. "Anmerkung:" Da im Kroatischen auch das // einen silbischen Laut darstellt, kann der Wortakzent auch auf diesen Laut fallen. Dadurch können die oben angegebenen Akzentzeichen nicht nur auf den Vokalen sondern auch auf dem Buchstaben "r" geschrieben werden. Der Wortakzent in den unterschiedlichen Dialekten des Kroatischen unterscheidet sich teilweise sehr vom Akzentsystem der Standardsprache. Dadurch kommt es zu regionalen Unterschieden auch in der Realisierung der Standardsprache. Grammatik. Typologisch betrachtet ist das Kroatische ähnlich wie die meisten übrigen slawischen Sprachen eine flektierende Sprache mit deutlichen analytischen Elementen. Es nimmt dabei gemeinsam mit štokavischen Standardvarietäten eine Zwischenstellung ein zwischen den nördlichen slawischen Sprachen (Westslawisch, Ostslawisch und Slowenisch) einerseits, in denen der flektierende Charakter des Urslawischen im Bereich der Nominalflexion gut bewahrt ist, während die Verbalflexion zugunsten von analytischen Konstruktionen stark abgebaut ist, und den ostsüdslawischen Sprachen (Bulgarisch und Mazedonisch) andererseits, in denen die Verbalflexion des Urslawischen zum großen Teil bewahrt ist, während die Nominalflexion zugunsten von analytischen Strukturen abgebaut worden ist. Im Kroatischen sind die Kategorien sowohl der Nominalflexion als auch der Verbalflexion des Urslawischen in wesentlichen Teilen bewahrt, das Formensystem ist jedoch durch Abbau von Flexionsklassen und Zusammenfall von Formen stark vereinfacht worden, zudem sind manche der ererbten Kategorien nur noch in eingeschränktem Maße gebräuchlich und konkurrieren mit neueren analytischen Konstruktionen. Nominalflexion. Die nominalen Wortarten (Substantive, Adjektive, Determinantien und Pronomina) flektieren im Kroatischen nach Numerus, Kasus und Genus. Kasus und Numerus sind dabei selbständige grammatische Kategorien, das Genus ist den Substantiven inhärent. Attribute kongruieren (von bestimmten Ausnahmen abgesehen) in Kasus, Numerus und Genus mit ihrem Beziehungswort. Bei einem Teil der Adjektive gibt es zudem Reste einer Flexion nach Definitheit. Numerus. Das Kroatische unterscheidet zwei Numeri, Singular und Plural. Zudem gibt es bei den Maskulina eine besondere Zählform, die nur nach den Zahlwörtern 2, 3 und 4 sowie dem Wort "oba" "(beide)" steht. Diese stimmt bei den Substantiven – nicht aber bei Adjektiven und Determinantien – formal mit dem Genitiv Singular überein und geht etymologisch auf den Dual zurück. Kasus. Das Kroatische unterscheidet sieben Fälle (Kasus): Nominativ, Genitiv, Dativ, Akkusativ, Lokativ, Instrumental und den (bei einer engeren, syntaktischen Definition des Begriffes freilich nicht zu den Kasus zählenden) Vokativ. Nominativ, Akkusativ, Dativ, Genitiv und Instrumental dienen für sich allein zum Ausdruck von Satzgliedern, wobei wie in anderen slawischen (und allgemein in indogermanischen) Sprachen der Nominativ der Kasus des Subjektes, der Akkusativ derjenige des direkten Objektes und der Dativ derjenige des indirekten Objektes ist. Genitiv, Dativ, Akkusativ und Instrumental kommen außerdem nach Präpositionen vor, der Lokativ steht ausschließlich nach Präpositionen. Viele Präpositionen des Ortes regieren zwei verschiedene Kasus, zur Angabe einer festen Position im Raum je nach Präposition den Lokativ oder den Instrumental, zur Angabe einer Bewegung auf ein Ziel hin den Akkusativ. Der Genitiv wird auch als Attribut in possessiver oder allgemein zuordnender Bedeutung verwendet, konkurriert jedoch in dieser Verwendung mit von den Substantiven abgeleiteten Possessiv- und Beziehungsadjektiven. Genera. Das Kroatische unterscheidet drei Genera: Maskulinum, Femininum und Neutrum. Mittelalter. a>), gefunden auf der Insel Krk (Kroatien) Eine kroatische Schriftsprache begann sich im 9. Jahrhundert parallel zur altkirchenslawischen Sprache, in der die Liturgie gehalten wurde, zunächst auf der Grundlage des Čakavischen zu entwickeln. Eines der bedeutendsten Schriftzeugnisse aus dieser Zeit ist die Tafel von Baška aus dem Jahr 1100. Diese in der romanischen St. Lucija-Kapelle nahe der Stadt Baška auf der Insel Krk entdeckte beschriftete Steinplatte trägt eine glagolitische Inschrift. Beschrieben wird die Stiftung der Kapelle durch den kroatischen König Dmitar Zvonimir. Die mittelalterlichen kroatischen Texte sind in drei verschiedenen Schriften verfasst: in der Glagoliza, der Kyrilliza (deren früher in Teilen Kroatiens und in Bosnien übliche Form als "Bosančica" bezeichnet wird) und der lateinischen Schrift. Ab dem 16. Jahrhundert setzte sich immer mehr die lateinische Schrift durch. Die ältesten Dokumente in kroatischer Sprache sind im čakavischen Dialekt verfasst, z. B. der "Istarski Razvod" (Istrisches Gesetzbuch) aus dem Jahr 1275 und der "Vinodolski zakonik" (Gesetzbuch von Vinodol), der 1288 verfasst wurde. Das erste gänzlich im štokavischen Dialekt geschriebene Buch ist der "Vatikanski hrvatski molitvenik" (Vatikanisches kroatisches Gebetbuch), der in Dubrovnik um das Jahr 1400 entstand. Das kroatisch-glagolitische Missale "Misal kneza Novaka" wurde im Jahr 1483 gedruckt und ist somit das erste gedruckte südslawische Buch überhaupt. Die Entwicklung der Hochsprache in der Renaissance und im Barock. Im Zeitalter der Renaissance wurden in Städten wie Split, Dubrovnik oder Zadar Schriftstücke in lokalen Dialekten verfasst. Die ersten Ansätze der Bildung einer Hochsprache schuf Faust Vrančić in seinem Wörterbuch "Dictionarium quinque nobilissimarum Europae linguarum – Latinae, Italicae, Germanicae, Dalmati[c]ae et Ungaricae" im Jahr 1595. Das erste die Grammatik vereinheitlichende Werk schuf Bartol Kašić: "Institutionum linguae illyricae libri duo" im Jahr 1604. Der Jesuit Bartol Kašić übersetzte in den Jahren 1622–1636 die Bibel in die kroatische Sprache (in den štokavisch-ijekavischen Dialekt). Die Werke von Kašić hatten einen besonders großen Einfluss auf die Entwicklung der kroatischen Hochsprache. Die bedeutendsten literarischen Vertreter des Barock sind Ivan Gundulić (1589–1638), Ivan Bunić und Junij Palmotić (1607–1657), die ihre Werke im in Dubrovnik gebräuchlichen ijekavisch-štokavischen Dialekt verfassten. Deren Sprache ist in ihren Grundlagen, ebenso wie die Sprache Kašićs, mit der heutigen kroatischen Standardsprache vergleichbar. Die Illyrische Bewegung. Nachdem sich vom 17. Jahrhundert bis in die 1830er Jahre im nördlichen Kroatien um Zagreb zunächst eine selbständige kajkavische Schriftsprache entwickelt hatte, wurde seit der Zeit der Illyrischen Bewegung "(Illyrismus)" unter Führung von Ljudevit Gaj (1809–1872) in den 1830er und 1840er Jahren auch hier das Štokavische zur Grundlage der Schriftsprache. Gleichzeitig legte Gaj die Grundlagen für die heutige kroatische Orthographie. In seiner im Jahre 1830 veröffentlichten Broschüre "Kratka osnova horvatsko-slavenskog pravopisanja poleg mudroljubneh, narodneh i prigospodarneh temelov i zrokov" („Kurze Basis der kroatisch-slawischen Rechtschreibung auf philosophischen, nationalen und wirtschaftlichen Grundlagen“) schlug Gaj (zunächst noch auf Kajkavisch) vor, wie in der tschechischen Sprache die Buchstaben č, ž, š, ľ, und ň sowie analog dazu ǧ zu verwenden, so dass es für jeden Laut einen separaten Buchstaben gäbe; beim Übergang zum Štokavischen kamen ď, ě (für die Jat-Reflexe) und das aus dem Polnischen übernommene ć hinzu. Akzeptiert wurden č, ž, š, ć sowie ě, das sich allerdings nicht vollständig durchsetzen konnte und später wieder außer Gebrauch kam; für die anderen Laute wurden die Digraphen lj (statt ľ), nj (statt ň), dj oder gj (beide statt ď; heute đ) sowie dž (statt ǧ) eingeführt. Diese Zeichen traten an die Stelle der bis dahin in Kroatien verwendeten Buchstabenkombinationen, die sich teilweise an der ungarischen, teilweise an der italienischen Rechtschreibung orientiert hatten. Die Illyristen strebten danach, auf der Grundlage des Štokavischen eine einheitliche Schriftsprache möglichst für alle Südslawen (anfangs auch einschließlich der Slowenen und der Bulgaren), die sie in Anknüpfung an eine seit der Renaissance bestehende Tradition als "Illyrisch" bezeichneten. Gaj und die Illyrische Bewegung stießen im kajkavisch sprechenden Zagreb bei der „Auswahl“ des štokavischen Dialektes zur Hochsprache auf nur wenig Widerstand, weil dies nach seinerzeit herrschender linguistischer Meinung lediglich eine Fortsetzung der sprachlichen Tradition aus Dubrovnik und Slawonien bedeutete. In der Frage des Jat-Reflexes, in dem sich die štokavischen Varietäten untereinander unterscheiden, wollten sich viele Illyristen nicht auf eine einzige Aussprache festlegen, sondern für ein einheitliches Graphem "ě" verschiedene Aussprachen zulassen. Generell wurde jedoch – vor allem nach dem Vorbild der traditionellen Schriftsprache Dubrovniks – die ijekavische Aussprache bevorzugt und manchmal auch direkt in der Schrift wiedergegeben, wobei dafür dann "ie" geschrieben wurde. Ljudevit Gaj, der wohl wichtigste Vertreter des Illyrismus, gab seit 1835 eine Zeitung und vor allem die wöchentliche Literaturbeilage "Danica (Morgenstern)" heraus, die beide unter wechselnden Titeln erschienen. 1836 ging Gaj in diesen vom Kajkavischen der Region um Zagreb zum Štokavischen über. Im Jahr 1842 wurde der bedeutendste kroatische Kulturverein "Matica ilirska" (später Matica hrvatska) gegründet. In der Revolution von 1848 wurde das Štokavisch-Ijekavische in der von den Illyristen geprägten Form erstmals als Amtssprache des de facto autonomen Kroatien-Slawonien verwendet. Dies war freilich nicht von langer Dauer, da schon zu Beginn der 1850er Jahre unter dem Neoabsolutismus Deutsch Amtssprache in der gesamten österreichisch-ungarischen Monarchie wurde. Das Wiener Abkommen. Zur selben Zeit, als in Kroatien die illyrische Bewegung das Štokavische als allgemeine Literatur- und Amtssprache durchzusetzen begann, waren bei den Serben Vuk Karadžić und seine Anhänger bestrebt, das Kirchenslawische als Schriftsprache durch die štokavische Volkssprache zu ersetzen. Karadžić verwendete dabei überwiegend den heute als „Ostherzegowinisch“ bezeichneten štokavisch-ijekavischen Dialekt, wie er in der östlichen Herzegowina, im nördlichen Montenegro und im Südwesten Serbiens, woher er selbst stammte, gesprochen wird, und der eng mit dem Dialekt von Dubrovnik, der in Kroatien als Vorbild angesehen wurde, verwandt ist. Unter diesen Umständen kam es seit der Mitte des 19. Jahrhunderts zu einer Zusammenarbeit kroatischer und serbischer Linguisten bei der Normierung einer gemeinsamen Schriftsprache auf der Grundlage des štokavischen Dialektes. Der erste förmliche Schritt zu einer gemeinsamen Kodifikation der Schriftsprache war das sogenannte Wiener Abkommen vom 28. März 1850. Auf einem von dem slowenischen Linguisten Franc Miklošič arrangierten Treffen von sieben serbischen und kroatischen Sprachwissenschaftlern und Schriftstellern (Vuk Karadžić, sein Mitarbeiter Đuro Daničić die kroatischen Illyristen Ivan Mažuranić, Dimitrija Demeter, Stjepan Pejaković, Ivan Kukuljević und Vinko Pacel) unterzeichneten alle acht Teilnehmer, die sich zur Mitarbeit an der von der österreichisch-ungarischen Regierung betriebenen Normierung der juridisch-politischen Terminologie in den Sprachen des Habsburgerreichs in Wien aufhielten, ein Positionspapier, in dem sie sich zu dem Ziel bekannten, „dass "ein" Volk "ein" Schrifttum haben muss“ („da "jedan" narod treba "jednu" književnost da ima“). Sie schlugen vor, dass das Štokavisch-ijekavische die Grundlage der gemeinsamen Schriftsprache der Serben und Kroaten sein solle und dass die Orthographien in lateinischer und kyrillischer Schrift so aneinander angepasst werden sollten, dass man direkt aus der einen in die andere transliterieren könne, und machten Vorschläge zur Vereinheitlichung einiger bisher in Kroatien und Serbien unterschiedlich gelöster Fragen der Standardisierung. Diese waren vor allem morphologischer und orthographischer Natur: Beispielsweise solle der Genitiv Plural der meisten Substantive auf "-a" enden, das "h" solle überall geschrieben werden, wo es etymologisch vorhanden sei (z. B. "historija" ‚Geschichte‘ statt "istorija"), und das silbische "r" solle ohne Begleitvokal geschrieben werden (z. B. "prst" 'Finger' statt "pàrst" o. ä.). Mit der Standardisierung des Wortschatzes befasste sich das Abkommen nicht. Die juridisch-politische Terminologie wurde zwar in einem Band für das Slowenische, Kroatische und Serbische veröffentlicht, jedoch mit oft unterschiedlichen Entsprechungen, was unter anderem darauf zurückzuführen war, dass an der serbischen Fassung auch Gegner von Karadžić' Sprachreform mitwirkten, die Wörter slawenoserbischer Herkunft mit aufnahmen. Das Wiener Abkommen war eine informelle Absichtserklärung, der zunächst keine weiteren Schritte folgten. Tatsächlich hatte das „Abkommen“ zunächst keine unmittelbaren Folgen. Alle kroatischen und serbischen Teilnehmer hatten schon vorher das Štokavisch-Ijekavische verwendet, das seit der Revolution von 1848 in Kroatien bereits als Amtssprache verwendet wurde. Im Königreich Serbien und in der Vojvodina jedoch wurde das Ijekavische niemals offiziell eingeführt, da sich Karadžić und Daničić dort zwar mit ihren Vorstellungen einer auf der Volkssprache basierenden Schriftsprache schließlich durchsetzen konnten, man aber den dortigen štokavisch-ekavischen Dialekt als Grundlage beibehielt. Der größte Teil der orthographischen und morphologischen Empfehlungen des Abkommens wurde schließlich in Serbien Ende der 1860er und in Kroatien Anfang der 1890er Jahre zur offiziellen Norm. Als Beleg für die angebliche Fruchtlosigkeit des „Wiener Abkommens“ wird heute oft angeführt, dass im „Abkommen“ kein Name für die angestrebte gemeinsame Sprache erwähnt wird. In Kroatien waren damals die Bezeichnungen "Illyrisch (ilirski)" und "Kroatisch (horvatski, hrvatski)" üblich, im serbischen Raum hingegen "Serbisch (serbski, srpski)". Jedoch sollte das Fehlen des Namens im Abkommen nicht überbewertet werden, denn die Unterzeichner Dimitrija Demeter und Božidar Petranović benutzen in ihren Vorwörtern zur 1853 fertiggestellten „Deutsch-kroatischen, serbischen und slovenischen Separat-Ausgabe“ der "Juridisch-politischen Terminologie," in der auch das „Wiener Abkommen“ abgedruckt wurde, die Ausdrücke "hrvatsko-srbsko narječje" („kroato-serbische Mundart“), "jugoslavenski jezik" („jugoslawische Sprache“) sowie sogar "срб-рватски народъ (srb-rvatski narod)" („serbo-kroatisches Volk“). Im Reichs-Gesetz- und Regierungsblatt des Kaisertums Österreich wurden 1849 die „serbisch-illirische (zugleich croatische) Sprache mit lateinischen Lettern“ sowie die „serbisch-illirische Sprache mit serbischer Civil-Schrift“ als landesübliche Sprachen aufgeführt. Zweite Hälfte des 19. Jahrhunderts. Die amtliche Schreibweise des Štokavischen in Kroatien, das dort zunächst in illyristischer Tradition meist als "Illyrisch," seit Anfang der 1860er Jahre u. a. als "kroatische oder serbische Sprache" bezeichnet wurde, orientierte sich von den 1840er bis zu den 1880er Jahren überwiegend an den in den 1840er Jahren von den illyristischen Grammatikern kodifizierten Normen, die sich in einigen Punkten von den von Karadžić und Daničić verfochtenen unterschieden: Die Orthographie orientierte sich teilweise an morphologischen, nicht an phonologischen Kriterien (so wurde die Stimmtonassimilation nicht in der Schrift wiedergegeben), und der ijekavische Jat-Reflex wurde zunächst als "ě," später als "ie" oder "je," nicht hingegen als "ije/je" geschrieben. Auf dem Gebiet der Morphologie wurden im Plural der Nomina abweichende Flexionsendungen verwendet, die nur in wenigen Varietäten des Štokavischen vorkommen, jedoch im Kajkavischen allgemein üblich sind und den rekonstruierten urslawischen Formen näherstehen. Über die Details dieser Normierung kam es jedoch niemals zu einer allgemein akzeptierten Einigung, vielmehr standen sich in Kroatien in den meisten Fragen unterschiedliche auf die illyristische Tradition bezugnehmende Schulen gegenüber. Vor allem unter dem Einfluss des an die "Jugoslawische Akademie der Wissenschaften und Künste" in Zagreb berufenen Đuro Daničić entwickelte sich parallel dazu die Schule der sogenannten „kroatischen Vukovianer“ "(hrvatski vukovci)," die eine streng phonologische Orthographie und eine Orientierung der Morphologie an den Formen des gesprochenen Štokavischen forderte, wie es in den Werken von Karadžić und Daničić verwirklicht war. 1867 begann die in Zagreb gegründete Jugoslawische Akademie der Wissenschaften und Künste die Herausgabe eines vielbändigen „Wörterbuchs der kroatischen oder serbischen Sprache“ "(Rječnik hrvatskoga ili srpskog jezika)," im Sinne einer südslawischen Annäherung, die von den Akademiegründern Franjo Rački, Josip Juraj Strossmayer und Vatroslav Jagić vertreten wurde. Zum Leiter des Projekts wurde der Sekretär der Akademie, der serbische Philologe und Slawist Đuro Daničić, ernannt. Die Schule der „kroatischen Vukovianer“, deren wichtigste Vertreter der Grammatiker Tomislav Maretić und der Lexikograph Ivan Broz waren, konnte sich gegen Ende des 19. Jahrhunderts durchsetzen. Als Ergebnis dieser konvergenten Normierungsprozesse kam es gegen Ende des 19. Jahrhunderts zu einer weitgehend einheitlichen morphologischen Norm der serbischen und/oder kroatischen Sprache und einer Vereinheitlichung der orthographischen Normen des kroatischen lateinischen und des serbischen kyrillischen Alphabetes, so dass diese seitdem direkt ineinander transliteriert werden können. Beim Ausbau des Wortschatzes kam es hingegen zu keiner systematischen Zusammenarbeit. Das Wörterbuch der Jugoslawischen Akademie sammelte (ähnlich dem Deutschen Wörterbuch der Brüder Grimm) primär die Gesamtheit des literarisch überlieferten und des volkssprachlichen Wortschatzes, nicht modernes Fachvokabular, und wurde aufgrund seines großen Umfanges erst weit im 20. Jahrhundert fertiggestellt. Dies führte dazu, dass sich die Unterschiede zwischen der bei den Kroaten und der bei den Serben gebrauchten schriftsprachlichen Form des Štokavischen durch unterschiedliches Vorgehen bei der Bildung von Neologismen und der Übernahme von Fremdwörtern in diesem Zeitraum teilweise noch vergrößerten. Entwicklung des Kroatischen zur Zeit des jugoslawischen Staates. Das "Königreich Jugoslawien" (1918–1941) bezeichnete seine Amtssprache in beiden Verfassungen (von 1921 und 1931) als "srpskohrvatskoslovenački jezik" ‘serbokroatoslowenische Sprache’. Gesetze, Vorschriften und staatliche Verordnungen wurden überwiegend in der serbischen Variante des Serbokroatischen veröffentlicht. In allen öffentlichen und staatlichen Bereichen (Verwaltung, Schulwesen, Militär) wurde die kroatische sprachliche Tradition nach Ansicht mancher kroatischer Linguisten unterbrochen. Im während des Zweiten Weltkrieges existierenden Unabhängigen Staat Kroatien wurde 1941 die von einer Kommission erarbeitete "etymologische Rechtschreibung" gesetzlich verordnet, mittels derer eine stärkere Abgrenzung des Kroatischen gegenüber dem Serbischen erzielt werden sollte. Franjo Cipra und Adolf Bratoljub Klaić veröffentlichten 1944 mit "Hrvatski pravopis" (Kroatische Rechtschreibung) ein in dieser Rechtschreibung gehaltenes Wörterbuch. Zu Beginn des zweiten, sozialistischen Jugoslawien wurde eine Gleichberechtigung aller südslawischen Sprachen eingeführt. Die Gleichberechtigung der kroatischen, slowenischen, makedonischen und serbischen Sprache wurde gesetzlich verankert. Im öffentlichen Leben z. B. bei der Eisenbahn, Post, staatl. Verwaltung, Tanjug (ehemalige jugoslawische Presseagentur) sowie Teilen der Presse überwogen dennoch Serbismen innerhalb des Serbokroatischen: Kroatische Wörter wie z. B. "povijest" (serbisch "istorija," deutsch ‚Geschichte‘), "zemljopis" ("geografija," deutsch ‚Geographie‘), "tisuća" (serbisch "hiljada," deutsch ‚Tausend‘), "siječanj" (serbisch "januar") usw. verschwanden nach und nach aus der Verwaltung. Im (nicht bindenden) Abkommen von Novi Sad aus dem Jahre 1954 wurde beschlossen, dass die kroatische, serbische, montenegrinische und bosnische Sprache als eine plurizentrische Sprache zu betrachten seien. Dabei wurden zwei Aussprachemöglichkeiten anerkannt, die "ijekavische" und die "ekavische" Aussprache, außerdem wurde der Gebrauch unterschiedlicher Schriften gestattet, der lateinischen, wie auch der kyrillischen Schrift. Wegen der größeren linguistischen Unterschiede schloss diese Standardisierung die ebenfalls in Jugoslawien verbreitete slowenische und mazedonische Sprache nicht ein. Dieses Abkommen war das Ergebnis eines Treffens, das die Redaktion des Jahrbuchs der Matica srpska zum Abschluss der Erhebung über die serbokroatische Sprache und Rechtschreibung einberufen hatte, und wurde gemeinsam von Matica srpska und Matica hrvatska veröffentlicht. Im Frühjahr 1967 verstärkte sich der Widerstand einiger Intellektueller, Schriftsteller (u. a. Miroslav Krleža, Radoslav Katičić) und kultureller Organisationen gegen die, wie sie es empfanden, Degradierung der kroatischen Sprache innerhalb Kroatiens. Diese Bewegung wurde von der Kommunistischen Partei Jugoslawiens als „nationalistisch“ bezeichnet. Nach dem „Kroatischen Frühling“ im Jahr 1974 wurde in Kroatien Kroatisch als Unterrichtsfach in den Schulen eingeführt. Entwicklung seit der Unabhängigkeit 1991. Nach der Unabhängigkeitserklärung 1991 wurde das Kroatische in Kroatien endgültig als eigenständige Sprache anerkannt. Der Begriff Serbokroatisch wird in Kroatien offiziell als Relikt aufgezwungener sprachlicher Vereinigungsbestrebungen bezeichnet. In Kroatien wird nicht nur auf dem Gebiet des Wortschatzes die Distanz zum Serbischen betont, sondern auch auf kulturelle und historische Unterschiede zwischen den einzelnen Sprachen hingewiesen. So wurde u. a. eine größere Zahl von Wörtern (Archaismen) aus der Zeit vor 1918 wieder in den offiziellen und normativen Sprachgebrauch eingeführt. Kroatische Sprachwissenschaftler weisen hierbei darauf hin, dass die natürliche Entwicklung der kroatischen Sprache zu Zeiten des Kommunismus oft unter dubiosen Sprachabkommen zu leiden gehabt habe und dass dadurch die Reichhaltigkeit des ursprünglichen Wortschatzes in Mitleidenschaft gezogen worden sei. Es gibt ebenfalls Bestrebungen, die Grammatik zu vereinfachen und Zweideutigkeiten aus dem Weg zu räumen. Die Bekanntmachungen (und der Beschluss des Ministeriums) sind auf der Internetseite des "Instituts für Kroatische Sprache und Linguistik in Zagreb" (in kroatischer Sprache) zu finden. Wortschatz. Der Grundwortschatz des Standardkroatischen besteht ebenso wie derjenige der kroatischen Dialekte überwiegend aus Erbwörtern gemeinslawischer Herkunft. Auf dialektaler Ebene gibt es deutliche Unterschiede im Erbwortschatz zwischen den štokavischen, čakavischen und kajkavischen Varietäten, jedoch überwiegen insgesamt die Gemeinsamkeiten. Der Grundwortschatz des Standardkroatischen ist weitgehend štokavischer Herkunft. Der Lehnwortschatz der kroatischen Dialekte unterscheidet sich regional stark: im Küstenraum gibt es viele Entlehnungen aus dem Dalmatischen und Italienischen, im nördlichen Landesinneren aus dem Ungarischen und Deutschen, in allen ehemals osmanischen Gebieten aus dem Türkischen. Der Aufbauwortschatz des Standardkroatischen ist das Ergebnis eines kontinuierlichen Bestrebens, neue (Fach-)Begriffe fremdsprachiger, vor allem lateinischer Herkunft mit den Mitteln des Slawischen wiederzugeben. Dieses begann im Mittelalter im Kroatisch-Kirchenslawischen, setzte sich in der frühen Neuzeit in den regionalen Schriftsprachen und ihren Lexikographien fort und fand eine offizielle Kodifizierung in den maßgeblich am tschechischen Vorbild orientierten Werken des standardkroatischen Lexikographie des 19. Jahrhunderts. Ein großer Teil der im Laufe der Jahrhunderte geprägten Neologismen ist zwar wieder verschwunden oder von Anfang an nie über die Werke seiner Urheber hinausgelangt, ein anderer Teil ist jedoch zu einem festen Bestandteil der kroatischen Standardsprache geworden. Im heutigen Standardkroatischen existieren infolgedessen häufig Doubletten von Internationalismen und einheimischen Neologismen, meist Lehnübersetzungen, wobei die Neologismen zumindest auf schriftsprachlicher und offizieller Ebene meist bevorzugt werden, z. B. "međunarodno" statt "internacionalno" (international), parallel "računalo" („Rechenmaschine“) und "kompjuter". Die Tendenz des Standardkroatischen zum lexikalischen Purismus zeigt sich nicht nur in der Bildung von Neologismen anstelle von Lehnwörtern, sondern auch in der Bewahrung von Erbwörtern, die anderswo verschwunden sind. Z. B. verwendet das Standardkroatische überwiegend die slawischen Monatsnamen in ihrer štokavischen Form und stimmt in dieser Hinsicht mit dem Tschechischen, Polnischen und Ukrainischen überein, die ebenso – von Sprache zu Sprache im Einzelnen variierende – slawische Monatsnamen verwenden, während die übrigen südslawischen Standardsprachen ebenso wie die Mehrzahl der europäischen Sprachen überwiegend oder ausschließlich die Monatsnamen lateinischer Herkunft verwenden. Lehnwörter. Darüber hinaus gibt es die Lehnübersetzungen aus der deutschen Sprache. Ihre Bestandteile sind zwar kroatisch, die innere Sprachform ist jedoch wörtlich aus dem Deutschen übernommen: "kolodvor" – Bahnhof, "istovremeno" – gleichzeitig, "redoslijed" – Reihenfolge. Weit verbreitet war das deutsche Sprachgut nicht nur auf dem Lande, wo der donauschwäbische Einfluss seine Spuren hinterlassen hatte, sondern auch und vor allem in der Zagreber Mittelschicht. "Hauptmanov puršek klopfa tepihe u haustoru" wurde im damaligen Zagreb gesprochen und verstanden. Der über die kroatischen Grenzen hinaus bekannte Schriftsteller Miroslav Krleža war einer der prominentesten Vertreter der kroatischen Mittelschicht, der sich dieser Mischsprache bediente, wenngleich er das Bürgertum auch wieder lächerlich machen wollte. In seinem Roman "Povratak Filipa Latinovicza," Zagreb 1947, schreibt er z. B. auf Seite 54 „Krenuli su do Löwingera po vreču cementa i to plehnati škaf“ oder auf Seite 59 "u bijelom šlafreklu" (‚im weißen Schlafrock‘). Kalifornien. Kalifornien (englisch und spanisch "California") ist der flächenmäßig drittgrößte und mit Abstand bevölkerungsreichste Bundesstaat der Vereinigten Staaten von Amerika. Er liegt im Westen des Landes und grenzt an den Pazifischen Ozean, die Bundesstaaten Oregon, Nevada und Arizona sowie den mexikanischen Bundesstaat Baja California auf der gleichnamigen Halbinsel. Der offizielle Beiname Kaliforniens lautet "Golden State" (Goldener Staat). Herkunft des Namens. Die Herkunft des Namens "California" ist umstritten. Einer bekannten Hypothese nach existierte der Name bereits vor der Entdeckung bei den europäischen Eroberern. 1510 veröffentlichte der Spanier Garci Rodríguez de Montalvo einen Roman, in dem eine Insel voller Gold namens Kalifornien vorkommt, bewohnt von wunderschönen Amazonen, die von Königin "Califia" beherrscht werden. Als Hernán Cortés’ Soldaten 1535 nach Baja California kamen, glaubten sie, es sei eine Insel, und benannten sie nach Montalvos Buch. Der eingedeutschte Name Kalifornien hat sich als einziger bis heute im Sprachgebrauch erhalten. Andere eingedeutschte Namen von amerikanischen Orten, wie "Neu York, Virginien" oder "Pennsylvanien", sind heute unüblich geworden, wurden aber bis in die 1960er Jahre hinein gebraucht. Geographie. Kalifornien liegt an der Nahtstelle zweier tektonischer Platten, der sogenannten San-Andreas-Verwerfung, weshalb es in der gesamten Region häufig zu Erdbeben kommt. Mit seiner Fläche von 423.970 Quadratkilometer ist Kalifornien, nach Alaska und Texas, der drittgrößte Bundesstaat in den USA. Als eigenständiger Staat wäre es größer als Deutschland und läge weltweit an 59. Stelle der flächenmäßig größten Staaten, zwischen dem Irak und Paraguay. Der Staat erstreckt sich auf einer Länge von über 1.231 Kilometern zwischen 32° 30' N und 42° N sowie auf einer Breite von 400 Kilometern zwischen 114° 8' W und 124° 24' W. Mit dem Mount Whitney (4.418 Meter) liegt der höchste Berg der USA außerhalb Alaskas in Kalifornien. Am Fuß des Berges befindet sich der Ort Lone Pine, in dem jährlich ein bekanntes Filmfestspiel stattfindet. In etwa 100 Kilometer Entfernung befindet sich das Wüstengebiet Death Valley („Tal des Todes“) mit dem niedrigsten Punkt der USA, Badwater, 85,5 Meter unter dem Meeresspiegel. Das Tal hat seinen Namen in der Zeit der ersten Siedler an der Westküste bekommen, die nicht selten die Qualen von Hitze und Durst erleben mussten, wenn sie das Gebiet durchquerten. Darüber hinaus gibt es in Kalifornien zahlreiche Naturparks und Strände unterschiedlichster Beschaffenheit. Zu den bekanntesten Parks zählt der Yosemite-Nationalpark. Grenzen. Während Kalifornien im Westen auf rund 1350 km Küstenlinie vom Pazifischen Ozean begrenzt wird, hat es auf der Kontinentalseite Grenzen mit den US-Bundesstaaten Oregon im Norden, Nevada im Osten und Arizona im Südosten sowie dem mexikanischen Bundesstaat Baja California im Süden. Geographische Regionen. Die Geographie Kaliforniens ist im Verhältnis zur Größe des Staates extrem vielfältig. Es gibt alpine Berge, Nebelküsten, heiße Wüsten und das fruchtbare Längstal. In Kalifornien gibt es die höchsten Küstenmammutbäume, die dicksten Riesenmammutbäume und die ältesten Grannen-Kiefern der Welt. Der Staat wird oft in Nord- und Südkalifornien eingeteilt. Das U. S. Geological Survey definiert den geographischen Mittelpunkt Kaliforniens in North Fork im Madera County. Erdwissenschaftler teilen den Staat in elf verschiedene geomorphologische Gebiete mit klar definierten Grenzen. Dies sind von Norden nach Süden: die Klamath Mountains, die Kaskadenkette (Cascade Range), das Modoc Plateau, das Basin and Range (Großes Becken), die kalifornischen Küstengebirge, das Längstal ("Central Valley"), die Sierra Nevada, die Transverse Ranges, die Mojave-Wüste, die Peninsular Ranges und die Colorado-Wüste. Klamath Mountains. Die Klamath Mountains sind ein Gebirge im Nordwesten Kaliforniens und im Südwesten Oregons. Der höchste Gipfel ist Thompson Peak (2744 m) im Trinity County. Die Berge haben eine sehr verschiedene Geologie mit wesentlichen Bereichen der Serpentinen- und Marmorsteine. Im Sommer gibt es begrenzten Niederschlag. Aufgrund der "Geologie" haben sie eine einzigartige Flora, darunter mehrere endemische Pflanzen wie Lawsons Scheinzypresse, Fuchsschwanz-Kiefer, die Siskiyou-Fichte und Kalmiopsis. Kaskadenkette. Die Kaskadenkette (Cascade Range) ist eine Gebirgsregion, die sich vom kanadischen British Columbia bis ins nördliche Kalifornien erstreckt. Die Kaskaden sind Teil des Pazifischen Feuerrings, eines Rings von Vulkanen rund um den Pazifischen Ozean. Alle bekannten Vulkanausbrüche in den Vereinigten Staaten kamen aus der Kaskadenregion. Der letzte Vulkan in Kalifornien, der ausbrach, war Lassen Peak (1921). Lassen ist der südlichste Vulkan der Kaskadenkette. Diese Region liegt im Nordosten Kaliforniens an der Grenze zu Oregon und Nevada nördlich der Sierra Nevada und des Längstals. Mittelpunkt des Gebietes ist der Mount Shasta in der Nähe der Trinity Alps. Mount Shasta ist ein ruhender Vulkan, aber es gibt Hinweise darauf, dass er oder Shastina, ein kleiner benachbarter Berg, im 18. Jahrhundert ausgebrochen ist. Modoc-Plateau. Im Nordosten Kaliforniens liegt das Modoc Plateau, das sich auch in Teile Oregons und Nevadas erstreckt. Großes Becken/Basin and Range. Das Große Becken () ist eine abflusslose, aride Großlandschaft östlich der Sierra Nevada. Es liegt großteils im Nachbarstaat Nevada. Als Basin and Range (engl. für "Becken und Gebirge") bezeichnet man eine große geologische Region, in der eine ähnliche Vegetation wie im Großen Becken vorherrscht. Zu diesem gehören auch die Mojave- und die Sonora-Wüste in Mexiko. Im großen Becken liegen viele größere und kleinere Gebirgsketten und Täler, mit dem Mono Lake der älteste See Nordamerikas, mit dem Owens Valley das tiefste Tal des Kontinents (mehr als 3.000 Meter tief, gemessen von der Spitze des Mount Whitney). Im Großen Becken gibt es eine Reihe ausgetrockneter Seen, die in der letzten Eiszeit mit Wasser gefüllt waren. Viele dieser Seen haben in der Wüstenlandschaft verschiedene Salze hinterlassen, vor allem Borax, für das der Owens Lake und das Tal des Todes bekannt sind. Im Gebiet der White Mountains ("Weiße Berge") wachsen mit den Grannen-Kiefern die ältesten Bäume der Welt. Küstengebirge. Die kalifornischen Küstengebirge grenzen das Kalifornische Längstal von der Pazifikküste ab und umfassen etwa 109.000 km². Sie schließen auch die Diablo Range östlich von San Francisco und die Santa Cruz Mountains südlich der Stadt ein. Die Küste nördlich von San Francisco ist fast immer neblig und regnerisch. Das Küstengebirge ist bekannt für seine Küstenmammutbäume, die höchsten Bäume auf der Erde. Kalifornisches Längstal. Das Kalifornische Längstal () ist ein großes, fruchtbares Tal zwischen der Sierra Nevada und dem Küstengebirge. Das zwischen 35° und 40° 40' nördlicher Breite gelegene Tal hat eine Fläche von 77.700 km², was etwas größer als Bayern ist. Den nördlichen Teil des Längstals bildet das Sacramento Valley, benannt nach dem gleichnamigen Fluss. Der südliche Teil wird San Joaquin Valley genannt, ebenfalls nach dem gleichnamigen Fluss benannt. Neben diesen beiden Flüssen durchfließt der Kings River als größerer Fluss das Tal, das durch die Bucht von San Francisco entwässert wird. Die Flüsse sind ausreichend groß und tief, sodass es mehrere Binnenhäfen gibt. In Stockton gibt es einen Seehafen. Sierra Nevada. Im Osten Kaliforniens liegt die Sierra Nevada (span. für "verschneites Gebirge"). Die Gebirgskette erstreckt sich auf einer Länge von 600 km von Nord nach Süd. Der höchste Gipfel im Kernland der Vereinigten Staaten (ohne Alaska und Hawaii) ist der Mount Whitney (4421 m) in der Nähe des Ortes Lone Pine. Die Topographie der Sierra ist geprägt durch Hebung und Gletscher. Die Sierra hat 200–250 Sonnentage im Jahr mit warmen Sommern und kalten Wintern, also typisches Kontinentalklima. Das bekannte Yosemite Valley liegt in der zentralen Sierra Nevada. Der große und tiefe Süßwassersee Lake Tahoe liegt nördlich des Yosemite-Nationalparks. In der Gebirgskette wachsen die Riesenmammutbäume. Durch diese Schönheit inspiriert wurden der Sierra Club, eine Naturschutzorganisation, und der American Alpine Club gegründet. Letzterer setzt sich für die Aufrechterhaltung von Wanderwegen, Hütten und organisierten Ausflügen ein. Der bekannteste Wanderweg der Sierra ist der John Muir Trail, der vom Mount Whitney ins Yosemite Valley führt und Teil des Pacific Crest Trail ist, der von Mexiko nach Kanada verläuft. Die drei größten Nationalparks in dieser Region sind der Yosemite-Nationalpark, der Kings-Canyon- und der Sequoia-Nationalpark. Transverse Ranges. Die Transverse Ranges (auch Los Angeles Ranges) sind eine Gebirgskette, die sich in ost-westlicher Richtung erstrecken, und nicht, wie die meisten kalifornischen Gebirge, von Nord nach Süd. Die Tehachapi Mountains sind Teil der Transverse Ranges. Mojave-Wüste. Die Mojave-Wüste ist eine Wüste im Südosten Kaliforniens. Sie ist etwa 35.000 km² groß und erstreckt sich auch auf den Territorien von Nevada, Utah und Arizona. Die Mojave-Wüste wird durch die Tehachapi Mountains und die Hochebenen von San Bernardino begrenzt. Westlich ist die Wüste klar abgegrenzt durch die San-Andreas-Verwerfung und die Garlock-Störungszone. Peninsular-Ranges. Das südlichste Gebirge in Kalifornien sind die Peninsular Ranges (Halbinselgebirge), die sich östlich von San Diego und auf der mexikanischen Halbinsel Niederkalifornien erstrecken. Zu den Peninsular Ranges gehört die Sierra San Pedro Mártir in Mexiko. Die Peninsular Ranges enthalten die Laguna Mountains, die San Jacinto Mountains, die Santa Ana Mountains und die Palomar Mountain Range, die vor allem für die Sternwarte Palomar-Observatorium bekannt ist. San Jacinto Peak hat eine Kabelstraßenbahn, das die Wüste am Fuß des Berges mit dessen Spitze verbindet. Mit der Bahn können Wanderer und Skilangläufer fahren. Colorado-Wüste. Die Colorado-Wüste () ist etwa 39.000 km² groß und liegt im Süden Kaliforniens und in Mexiko. Ein Merkmal der Wüste ist der Saltonsee. Er entstand erst 1905, als ein Damm des Colorado River brach und die Wassermassen in das trockene Gebiet stießen. Heute ist der Saltonsee der größte See in Kalifornien, nahe an der Grenze zu Mexiko. Die Wüste bildet den Rest einer früheren Meeresbucht, die heute bis zu 100 m unter dem Meeresspiegel liegt. Klima. Kalifornien ist auch bekannt als der „Fruchtgarten Amerikas“ (Fruit Belt), dessen Klima ideal für den Anbau von Weintrauben, Orangen, Zitronen und Avocados ist. Demographie. Die Einwohnerzahl Kaliforniens steigt stark an. Seit 1962 ist er der bevölkerungsreichste US-Bundesstaat, heute hat er schon doppelt so viele Einwohner wie New York, der bis dahin der bevölkerungsreichste war. Kalifornien ist neben Texas, New Mexico und Hawaii einer von vier sogenannten "Majority-Minority-States", also Bundesstaaten, in denen die nicht-spanischsprachigen Weißen weniger als 50 Prozent der Bevölkerung ausmachen. In Kalifornien werden mehr als 200 Sprachen gesprochen, nach Englisch ist Spanisch die am meisten gesprochene Sprache. Spanisch wird vor allem in Südkalifornien häufig verwendet, da in dieser Region hispanische Einwanderer bedingt durch die Grenze zu Mexiko besonders stark vertreten sind. Demographische Prognosen gehen davon aus, dass Kalifornien 2020 eine hispanische Bevölkerungsmehrheit hat, was sowohl an der höheren Geburten- als auch an der höheren Einwandererrate liegt. Kalifornien ist der zweitbevölkerungsreichste (Glied-)Staat in der westlichen Hemisphäre, übertroffen nur noch vom Bundesstaat São Paulo. Wäre Kalifornien ein eigenes Land, wäre es weltweit bevölkerungsmäßig der 34-bevölkerungsreichste Staat, noch vor Kanada und Australien, die flächenmäßig deutlich größer sind. Bevölkerung. Kalifornien hatte mit dem Stand der Volkszählung von 2010 eine Bevölkerung von 37.253.956 Menschen. Zwischen den Jahren 2000 und 2010 wuchs die Bevölkerungszahl um 3.382.308, was einer Steigerung von 10 Prozent entspricht. Etwa 12 % aller US-Amerikaner leben in Kalifornien. In Kalifornien liegen acht der 50 größten Städte im Land. Los Angeles ist die zweitgrößte Stadt in den Vereinigten Staaten mit 3.792.621 Einwohnern (Census 2010), es folgen San Diego (8.), San José (10.), San Francisco (14.), Fresno (35.), Long Beach (36.), Sacramento (37.) und Oakland (45.). Auch eines der Nordamerikanischen Kulturareale zur Gliederung der indianischen Bevölkerung nach (zumeist historischen) Kulturmerkmalen heißt „Kalifornien“. Obwohl die kalifornischen Indianer nur über sehr kleine Reservationen verfügen, sind viele von ihnen bestrebt, ihre Traditionen zu wahren. Altersstruktur. Das Medianalter beträgt 34,4 Jahre. Herkünfte. Kalifornien hat 37.253.956 Einwohner (Stand: U.S. Census 2010), davon sind 61,6 % Weiße, 14,9 % Asiaten, 7,2 % Schwarze und Afro-Amerikaner, 1,9 % Indianer, 0,8 % Hawaiianer (Mehrfachnennungen waren zugelassen). Unabhängig von der Rasse identifizieren sich 37,6 % als Hispanics. Es gibt 12.577.498 Haushalte. Kalifornien hat die größte Zahl der weißen Amerikaner in den Vereinigten Staaten, nämlich 22.953.374. Der Staat hat in absoluten Zahlen die fünftgrößte afroamerikanische Bevölkerung (2.683.914). Etwa 5,56 Millionen Bürger asiatischer Abstammung leben in Kalifornien, das ist etwa ein Drittel der gesamten asiatischen Bevölkerung der Vereinigten Staaten. Auch die Ureinwohner Amerikas sind mit 723,225 Menschen stärker vertreten als in jedem anderen Bundesstaat. Nach Schätzungen von 2006 gehören 57 % der Bevölkerung Minderheiten an. Der Anteil der nicht-hispanischen, weißen Bevölkerung sank von 80 % (1970) auf nunmehr 43 %. Nur New Mexico und Texas haben prozentual einen höheren Anteil an Hispanics, aber Kalifornien hat in absoluten Zahlen die meisten. Hawaii ist der einzige Staat, in dem prozentual mehr Aso-Amerikaner leben als in Kalifornien. Speziell bei den japanisch- und chinesischstämmigen Amerikanern hat New York Kalifornien gerade als größten Staat abgelöst. 25 % der Bevölkerung sind mexikanischer Abstammung. Mexiko ist das größte Herkunftsland der Kalifornier. Sie stellen die größte Gruppe innerhalb der Bevölkerung mit hispanischer/lateinamerikanischer Abstammung, die insgesamt 32,4 % der Gesamtbevölkerung ausmacht. Knapp 10,0 % der Einwohner sind deutscher Abstammung und stellen damit die größte Gruppe innerhalb der weißen Bevölkerung, die im Census 2000 59,5 % der Gesamtbevölkerung ausmachten. Es folgen die Gruppen der Irisch- (7,8 %), Englisch- (7,1 %) und Italienischstämmigen (4,3 %). Latinos/Hispanics. Mexikano-Amerikaner leben vor allem in Südkalifornien. Los Angeles ist die größte mexikanische Gemeinde der USA seit 1900. Auch das Imperial Valley an der Grenze zu Mexiko hat einen hohen Anteil (70 bis 75 %) von Latinos. Riverside County hat vor allem im Osten einen hohen hispanischen Bevölkerungsanteil. Auch im Längstal und in der San Francisco Bay Area leben viele Hispanics. Die meisten Hispanics sind mexikanischen Hintergrunds, allerdings stammen auch viele aus Mittelamerika, der Karibik (Kuba oder Puerto Rico) oder Südamerika. In Los Angeles County machen Hispanics 40 % der Bevölkerung aus. Etwa 2020 werden die Hispanics die Bevölkerungsmehrheit in Kalifornien stellen. Einige Demographen gehen davon aus, dass Kalifornien mit dem gesamten Südwesten der Vereinigten Staaten zu lateinamerikanisch geprägtem, mehrheitlich spanischsprachigem Gebiet wird. Andere Demographen gehen jedoch davon aus, dass sich die Hispanics in den USA wie die anderen Einwanderergruppen integrieren und spätestens nach der dritten Generation englischsprachig und assimiliert sein werden. Einwohnerentwicklung. Kalifornien ist seit 1962 der bevölkerungsreichste Bundesstaat der Vereinigten Staaten, womit es New York ablöste. Seither hat sich die Bevölkerung noch einmal mehr als verdoppelt, was neben der wirtschaftlichen Dynamik wesentlich auf die Änderung der Gesetze für die Einwanderung in die Vereinigten Staaten zurückzuführen ist. Sprachen. Nach dem "United States Census 2000" sprechen 60,5 % der Kalifornier Englisch und 25,8 % Spanisch als Muttersprache. Auf dem dritten Platz liegt das Hochchinesische mit 2,6 % der Sprecher, gefolgt von Tagalog (2,0 %) und Vietnamesisch (1,3 %). Insgesamt werden in Kalifornien mehr als 200 Sprachen gesprochen. Mehr als 100 Indianersprachen werden in Kalifornien gesprochen. Viele von ihnen sind gefährdet, aber es gibt Anstrengungen, sie zu revitalisieren. Seit 1986 ist Englisch gemäß Verfassung als Amtssprache festgelegt. Sprachpolitik ist ein wichtiges Thema in Kalifornien. Religionen. In absoluten Zahlen leben die meisten Katholiken in den USA und die nach Utah zweitmeisten Mormonen in Kalifornien. Der Staat hat eine der größten jüdischen Gemeinschaften im Westen der USA, die sich vor allem in Los Angeles, Beverly Hills, San Francisco, Oakland, Sacramento und Palm Springs ballen. Die Zahl der Muslime in Kalifornien beträgt etwa eine Million. Die meisten Katholiken stammen von Iren, Italienern, Hispanics und Filippinos ab. Durch die Einwanderung von Lateinamerikanern und Filipinos ist die Anzahl der Katholiken in Kalifornien in letzter Zeit stark angewachsen. Während der Anteil der Katholiken an der schwarzen Bevölkerung gering ist, da diese meist aus den protestantischen Südstaaten stammen, ist er unter den Hispanics am höchsten. Durch den hohen Anteil an Aso-Amerikanern gibt es in Kalifornien zahlreiche asiatische Religionen wie Hinduismus, Buddhismus und Taoismus. Die mitgliederstärksten Religionsgemeinschaften im Jahre 2000 waren die römisch-katholische Kirche mit 10.079.310, Jüdische Gemeinden mit 994.000 Mitgliedern, die Kirche Jesu Christi der Heiligen der Letzten Tage mit 529.575 und die Southern Baptist Convention mit 471.119 Anhängern. Nach einer Pew-Research-Center-Umfrage sind die Kalifornier weniger religiös als die Bevölkerungen anderer Bundesstaaten der USA. Von den Befragten gaben 62 % an, sie seien stark gläubig, während es landesweit 71 % sind. Weiterhin ist Religion für 48 % der Kalifornier wichtig, während dies 56 % der Amerikaner sagen. Große Städte. Die größte Stadt Kaliforniens ist mit weitem Abstand Los Angeles, das auch die zweitgrößte Stadt der USA ist. Die Metropolregion um Los Angeles gehört mit 17,8 Millionen Einwohnern zu den größten der Erde. Weitere bedeutende Städte sind San Francisco und San José, die beide Teil der San Francisco Bay Area sind, eines etwa 7,5 Millionen Menschen umfassenden Ballungsraumes um die Bucht von San Francisco. Mit etwa 1,3 Millionen Einwohnern und etwa drei Millionen in der Agglomeration ist das in Südkalifornien gelegene San Diego die zweitgrößte Stadt Kaliforniens und der drittgrößte Ballungsraum des Bundesstaats. Sacramento, seit 1854 die Hauptstadt Kaliforniens, liegt auf Höhe der Bucht von San Francisco etwa 120 km im Landesinneren. Sacramento selbst hat knapp 500.000 Einwohner, im Ballungsraum leben etwa zwei Millionen Menschen. Weitere wichtige Städte sind Oakland und Berkeley, beide in der San Francisco Bay Area gelegen, sowie Santa Barbara, Modesto, Fresno, Bakersfield und Stockton. Ebenfalls bedeutend sind Ventura, Anaheim, Long Beach, Irvine, Santa Ana, Riverside und San Bernardino, die sich alle im Großraum Los Angeles befinden. Geschichte. "Hauptartikel: Geschichte Kaliforniens, siehe auch: Kalifornien (historische Landschaft)" Frühgeschichte. Bis vor wenigen Jahren stieß die Annahme, die frühesten Bewohner der Region seien in der Lage gewesen, die Channel Islands vor der Küste Kaliforniens mit seegängigen Fahrzeugen zu erreichen, auf Widerstand. Da sich dort jedoch bis zu 13.000 Jahre alte Spuren menschlicher Anwesenheit nachweisen ließen, nahm man an, dass die Inseln, die gegen Ende der letzten Eiszeit näher an der Küste lagen als heute, vergleichsweise leicht zu erreichen gewesen seien. Tatsächlich waren die Northern Channel Islands zwar während des letzten glazialen Maximums vor 20.000 Jahre eine Insel und diese, als "Santarosae Island" bezeichnete Insel lag vielleicht nur 6 bis 8 km vom Festland entfernt. Doch um 13.000 BP, der Zeit der ältesten menschlichen Spuren, lag sie bereits, bedingt durch die abschmelzenden Gletscher und damit den ansteigenden Meeresspiegel nach dem Ende der Eiszeit, erheblich weiter entfernt. Die große Insel löste sich schließlich um 10.000 BP in mehrere kleinere Inseln auf. Das Befahren noch weiter von der Küste entfernt gelegener Inseln lässt sich ab etwa 9000 BP belegen. Jüngste Forschungen konnten erweisen, dass sich nunmehr die „antiquity of New World seafaring and maritime adaptations back to 13,000-12,000 years ago“ erstreckte (sinngemäß dehnte sich das Alter der neuweltlichen Seefahrt und der Anpassung an maritime Verhältnisse auf 13 bis 12.000 Jahre aus). Darüber hinaus stellte sich heraus, dass die Insel zur Zeit der frühesten Besiedlungsspuren ungefähr 8,5 km vor der Küste lag, 12.500 BP bereits 9,5 km, 11.000 BP 10,75 km. Erste Spuren menschlicher Aufenthalte lassen sich in der "Daisy Cave", im Norden der Channel Islands, um ca. 10300–9100 v. Chr. nachweisen. aber auch weiter südlich, auf der Isla Cedros in Niederkalifornien. Die Überreste der Frau von La Brea, ca. 7000 v. Chr. Bereits vor 8000 v. Chr., wie sich an der "Arlington Spring Site" im Arlington Canyon erwies, jagten kleine Gruppen Wild, Bergschafe und Vögel. Außerdem betrieben sie Fischerei und sammelten Eicheln und Wildgräser. Bodenbau und Korbflechterei wurden von einigen Gruppen weit entwickelt. Etwas jünger, aus der Zeit um 7000 v. Chr., ist die Frau aus den Teergruben von La Brea, die für ihre zahlreichen Tierskelettfunde bekannt sind. Vor der Ankunft der Europäer lassen sich mehr als 70 verschiedene Indianer-Stämme (Liste) unterscheiden, womit Kalifornien zu den kulturell und linguistisch vielfältigsten Regionen der Welt gehörte. Die Gesamtzahl der Bewohner wird auf über 300.000 geschätzt. Europäische Entdecker. Nach den Landungen von Juan Rodríguez Cabrillo im Jahre 1542 und Sir Francis Drake 1579, die das Gebiet für Spanien bzw. England (vgl. Francis Drakes Messingplakette) beanspruchten, verloren die europäischen Kolonialmächte das Gebiet Kaliforniens wieder weitgehend aus den Augen. Für die Indianer bedeutete die Expedition Cabrillos jedoch möglicherweise einen schweren Einbruch der Bevölkerungszahl durch Pocken. Weitere Entdecker, wie Pedro de Unamuno (1587), Sebastian Rodriguez Cermeno (1595) und Sebastian Vizcaino (1602–1603) erkundeten die Küste. Spanische Kolonialherrschaft. Kalifornien als "Oberkalifornien" ("Alta California"), der spätere nördlichste Bestandteil des Vizekönigreichs Neuspanien, wurde erst ab 1769 unter der Leitung des Franziskaners Junipero Serra kolonisiert. Dieser gründete die erste von insgesamt 21 Missionen. Neben diesen Missionen errichtete man auch militärische Befestigungen (span.: "Presidios") und zivile Siedlungen. Währenddessen rissen die Handelskontakte der Indianer mit dem Norden während der schweren Pockenepidemie ab 1775 ab. 1812 wurde im heutigen Sonoma County im nördlichen Kalifornien mit Fort Ross ein russischer Stützpunkt als Fortsetzung und Abrundung der russischen Besitzungen in Alaska errichtet. Nach der mexikanischen Unabhängigkeit im Jahr 1821 wurde Kalifornien mexikanische Provinz. Die Regierung kehrte wieder zum Missionssystem zurück, bis die demokratische Partei das Missionswesen am 17. März 1833 per Dekret vollständig beendete und die Stationen auflöste. Zugleich wurde die Besiedlung durch Einwanderung gefördert. Die ersten Einwanderer wurden allerdings nach dem Regierungsantritt Santa Annas, der die Missionsstationen erhalten wollte, wieder vertrieben. Diese Ereignisse legten den Grundstein für die jahrzehntelange Feindseligkeit der Kalifornier gegen die mexikanische Regierung. 1836 brach ein Aufstand unter dem früheren Zollinspektor Alvarado los, der von der ohnmächtigen Regierung schließlich als Gouverneur von Kalifornien bestätigt werden musste. Zu diesem Zeitpunkt zählte das Land nur noch etwa 150.000 Indianer und 5.000 Europäer als Einwohner. 1842 setzte Santa Anna den Gouverneur Alvarado, der bei der Bevölkerung als Despot verhasst war, ab und machte General Manuel Micheltorena zum neuen Gouverneur, der allerdings bald ebenso unbeliebt war wie sein Vorgänger. Im Frühjahr 1846 rebellierten die Bewohner Ober-Kaliforniens und wählten Don José Castro, einen geborenen Kalifornier, zum Generalkommandanten. Johann August Sutter, seit 1839 in Kalifornien, erhielt die Bewilligung, eine Niederlassung zu bauen, der er den Namen „Neu-Helvetien“ gab. Schnell wurde daraus eine florierende Kolonie mit 20.000 Stück Vieh, drei Pferdemühlen, zwei Wassermühlen, einer Sägemühle, einer Gerberei und über 50 Häusern. Sutter herrschte wie ein kleiner „Kaiser“ über sein „Imperium“, das auf Landwirtschaft, Rinderzucht, Holzhandel und Jagd aufgebaut war. 1841 erwarb er Fort Ross von Russland. Er verlor seine Besitzungen wenige Jahre später im Zuge des Goldrausches. Amerikanische Annexion und Goldrausch. 1845 annektierten die USA Texas, was zu einem sehr gespannten Verhältnis mit Mexiko führte, das das Kaufangebot der Amerikaner für Kalifornien ablehnte. Bereits im Januar 1846 standen Truppen an der Grenze. Die von Californios unter José Castro gebildete Junta von Monterey versuchte, Alta California durch Abspaltung von Mexiko aus dem Krieg herauszuhalten. Doch noch während die Junta darüber beriet, ob der Unabhängigkeit oder dem Anschluss an einen anderen Staat der Vorzug zu geben sei, erklärten im Mai 1846 amerikanische Siedler die Unabhängigkeit Kaliforniens ("Bear Flag Republic") und proklamierten ihre eigene Republik Kalifornien. Am 13. Mai 1846 erging die Kriegserklärung der USA nach einem vorgetäuschten Angriff der Mexikaner. US-Truppen besetzten im Juli 1846 Monterey, standen im Januar 1847 in Los Angeles und eroberten Mexiko, das sich im Vertrag von Guadalupe Hidalgo gezwungen sah, den gesamten Norden, also Kalifornien, Arizona, New Mexico, Utah, Nevada, Texas und einen Teil von Colorado und Wyoming abzutreten. Zahlreiche Glücksritter zogen nun die im Januar 1848 einsetzenden Goldfunde an, die den Kalifornischen Goldrausch auslösten. Die Rede des Präsidenten James K. Polk vor dem Kongress, die er am 5. Dezember 1848 hielt, machte die Goldfunde auf dem Gebiet Sutters nicht nur allseits bekannt, sondern verstärkte auch die Zuwanderungsbewegung. Sutter hatte versucht, den Fund geheim zu halten, doch die Nachricht verbreitete sich rasch. Goldsucher und Glücksritter kamen in großer Zahl nach Kalifornien, was dazu beitrug, dass die öffentliche Ordnung weitgehend zusammenbrach. Hunderttausende durchsuchten die Erde, das Tal des "Sacramento Rivers" war zum „goldenen“ Westen geworden. Letztendlich erkannte die Regierung die unrechtmäßigen Zustände an, da so die USA zu einem wichtigen Goldexportland geworden waren. Die Indianer wurden verfolgt und vertrieben. Von den rund 150.000 Indianern um 1850 leben um 1870 nur noch rund 30.000. Bundesstaat. Innenstadt von San Francisco 1969 Am 9. September 1850 wurde Kalifornien schließlich als einunddreißigster Staat in die USA aufgenommen. 1854 wurde Sacramento zur Hauptstadt von Kalifornien ernannt. Da in Kalifornien keine Sklaven gehalten wurden, hielt es während des Bürgerkriegs zur Union, spielte aber wegen der großen Entfernung zum Kriegsschauplatz praktisch keine Rolle. Zu Beginn des 20. Jahrhunderts setzte eine rasche wirtschaftliche Entwicklung und Industrialisierung des zuvor dünn besiedelten Landes ein; eine wichtige Rolle spielte dabei die Verbreitung des Individualverkehrs und der Bau von Straßen wie der Route 66, die den Staat mit dem Rest der Vereinigten Staaten verbanden. Angelockt durch das milde Klima und die relativ günstigen Landpreise siedelte sich in den 1920er Jahren die Filmindustrie hier an und die Filmstudios von Hollywood entstanden. Während der Großen Depression zogen zahlreiche Farmer aus den Präriestaaten, v.a. aus Oklahoma, deren Existenzgrundlage durch die Dürre zerstört worden war, auf der Suche nach Arbeit nach Kalifornien. Literarisch verewigt wurde das Schicksal dieser "Oakies" in John Steinbecks Roman Früchte des Zorns. Einen weiteren wirtschaftlichen und demographischen Aufschwung erlebte Kalifornien während des Zweiten Weltkriegs durch die Errichtung zahlreicher Werften und militärischer Einrichtungen an der Pazifikküste und in der Nachkriegszeit. In diesen Jahren kamen im Zuge der "Great Migration" vor allem viele Afroamerikaner ins Land. Da Kalifornien sich rasch zum bevölkerungsreichsten Bundesstaat entwickelte, wurden 1941 und 2001 Pläne diskutiert, die forstwirtschaftlich geprägten Bezirke im Norden als Bundesstaat Jefferson oder "Upstate California" abzutrennen. Ähnliche Vorhaben verfolgte 2011 auch Riverside im Süden Kaliforniens. Des Weiteren macht sich die "Six-Californias"-Volksinitiative von 2013 dafür stark, Kalifornien in sechs Bundesstaaten aufzuspalten; in Jefferson, North California, Silicon Valley, Central California, West California und South California. Gouverneur. a>, Sitz der kalifornischen Legislative und des Gouverneursbüros Gouverneur des Bundesstaates ist seit dem 3. Januar 2011 Jerry Brown von der Demokratischen Partei. Er löste den Republikaner Arnold Schwarzenegger ab. Brown hatte das Gouverneursamt schon von 1975 bis 1983 inne. Der Gouverneur übt auf bundesstaatlicher Ebene die Exekutivgewalt aus, das heißt, er führt die kalifornische Staatsregierung und bestimmt die Richtlinien der Politik. Er verfügt über das Begnadigungsrecht, ernennt hohe Beamte sowie Richter am bundesstaatlichen Verfassungsgericht und nimmt in der Gesetzgebung eine zentrale Rolle ein, indem er Gesetzesbeschlüsse unterzeichnet oder sein Veto einlegt. Ferner ist er Oberbefehlshaber der Nationalgarde des Staates und vertritt den Bundesstaat nach außen. Der Gouverneur wird im Turnus von vier Jahren direkt vom Volk gewählt. Weitere wichtige Mitglieder der Exekutive sind der Vizegouverneur, der Attorney General, der "Secretary of State" und der "State Treasurer" (entspricht etwa einem Finanzminister). Legislative. Die gesetzgebende Gewalt auf Ebene des Bundesstaates wird durch die "California State Legislature" ausgeübt. Sie besteht aus einem Staatssenat mit 40 direkt gewählten Senatoren und der State Assembly mit 80 direkt gewählten Abgeordneten. Die Amtszeiten betragen vier bzw. zwei Jahre. In beiden Häusern des Parlaments verfügt die Demokratische Partei über deutliche Mehrheiten. Sitz der State Legislature ist das Kapitol in Sacramento, der Hauptstadt des Bundesstaates. Im Gegensatz zu den meisten anderen Bundesstaaten ist die "California State Legislature" kein Feierabendparlament, sondern ein Vollzeitparlament mit mehreren Tagungen im Monat. Vertretung Kaliforniens im US-Kongress. Die amtierenden US-Senatorinnen des Staates sind Barbara Boxer, die tendenziell dem linken Flügel ihrer Partei zuzurechnen ist, und die eher gemäßigte Dianne Feinstein, ehemals Bürgermeisterin von San Francisco. Beide gehören der Demokratischen Partei an. Das Amt des Speaker im Repräsentantenhaus der Vereinigten Staaten hatte von 2007 bis 2011 die demokratische Abgeordnete Nancy Pelosi aus dem damaligen 8. Kongresswahlbezirk Kaliforniens inne, der den nördlichen Teil von San Francisco abdeckte. Nachdem die Demokraten ihre Mehrheit in dieser Kongresskammer verloren, bleibt Pelosi weiterhin Vorsitzende der demokratischen Fraktion. Die Delegation des Staates im Repräsentantenhaus des 113. Kongresses besteht aus 38 Demokraten und 15 Republikanern. Politische Geographie. Die republikanischen Hochburgen im bevölkerungsarmen Nordosten, im San Joaquin Valley und der Umgebung von Orange County, der politischen Heimat von Richard Nixon, vermochten zuletzt nicht, die demokratische Dominanz in den Städten um die Bay Area, in der Stadt Los Angeles sowie Teilen ihrer Umgebung und im Nordwesten des Staates aufzuwiegen. Daher haben die Demokraten seit 1992 bei Präsidentschaftswahlen das bis dahin meist mehrheitlich republikanisch wählende Kalifornien nicht mehr verloren. Partnerschaften. Der Freistaat Bayern ist ein Partnerland Kaliforniens. Musik. Das 1973 gegründete Kronos Quartet gehört zu den weltweit führenden Quartetten für zeitgenössische Musik. Die bekanntesten musikalischen Vertreter Kaliforniens in der Popmusik sind die Beach Boys. Die Gruppe formierte sich 1961 in Hawthorne aus fünf jungen Musikern zwischen 14 und 20 Jahren. In ihren Anfangsjahren besangen sie in ihren Texten das Leben in Kalifornien, speziell am Strand, das Surfen, die hübschen Mädchen in Kalifornien sowie den Auto-Kult. In reiferen Jahren setzten sie sich für die Erhaltung des Lebens im Ozean und für die Erhaltung der Strände ein, priesen und huldigten dem Land Kalifornien. Ihre Texte übermittelten ab den 1970er Jahren immer wieder die Botschaft von der Schönheit des Landes sowie die Auswirkungen der Zerstörung der Natur durch Eingriffe des Menschen. 1995 setzten das Bandmitglied Brian Wilson und der Musiker Van Dyke Parks mit ihrem gemeinsamen Album "Orange Crate Art" Kalifornien ein musikalisches Denkmal. 2008 folgte von Brian Wilson dessen Konzeptalbum "That Lucky Old Sun (A Narrative)" über Kalifornien. Außerdem stammen Thrash Metal-Bands wie Metallica, Slayer oder Exodus aus der kalifornischen San Francisco Bay Area. In Los Angeles wurden die Rockgruppe The Doors sowie die Crossover-Bands Red Hot Chili Peppers und Linkin Park gegründet. Bauwerke. Entlang des kalifornischen Teils des Camino Real befinden sich einige der ursprünglich 21 historischen Missionen aus der Zeit der spanischen Konquista. Zum Teil noch sehr gut erhalten und restauriert, sind sie Touristenattraktionen ersten Ranges. An der Pazifikküste sind die Leuchttürme Kaliforniens ebenfalls ein beliebtes Ziel für Touristen. Parks. Daneben wurde in Kalifornien auch eine große Anzahl an State Parks eingerichtet; siehe hierzu den Artikel State Parks in Kalifornien. Sport. In Kalifornien gibt es in jeder der vier großen Ligen mehrere Teams. NFL. Lage der Teams in Kalifornien Wirtschaft und Infrastruktur. Mit 1,9 Billionen US-Dollar (Stand 2010) trägt Kalifornien 13 Prozent des jährlich erwirtschafteten Bruttoinlandsprodukts ("gross domestic product") der USA bei. Als von den USA losgelöster Einzelstaat wäre Kalifornien weltweit die achtgrößte Wirtschaftsmacht nach den USA selbst, Japan, China, Deutschland, Großbritannien, Frankreich und Italien. Das reale Bruttoinlandsprodukt pro Kopf "(engl. per capita real GDP)" lag im Jahre 2010 bei 46.488 US-Dollar (nationaler Durchschnitt der 50 US-Bundesstaaten: 42.429 US-Dollar; nationaler Rangplatz: 10). Nicht zuletzt der für die industrielle Landwirtschaft wetterbegünstigte Süden und das dortige Einzugsgebiet billiger mexikanischer Landarbeiter verhelfen Kalifornien zu diesem Wohlstand. Große Anstrengungen erfordert jedoch die Wasserversorgung. Gewaltigen Stauseen an den Flüssen im Nachbarstaat Arizona, den Kanalbauten (mit Längen wie zwischen Hamburg und München) von Nord nach Süd und den Aquädukten von den östlich der Sierra Nevada gelegenen Seen und Schmelzwasser liefernden Bergschneegletschern kommt hier große Bedeutung zu. Da die Nachbarstaaten (Arizona, Nevada) ebenfalls von den ihnen zustehenden Naturressourcen schöpfen wollen, gerät die Landwirtschaft zunehmend unter Druck. Naturschutzauflagen vergrößern diesen weiter. Dennoch wird in Kalifornien eine intensive Landwirtschaft mit Anbau von Baumwolle, Gerste, Weizen, Mais, Reis, Hafer, Bohnen und Zuckerrüben betrieben. Von Bedeutung ist auch der Südfrucht- und Gemüsebau im kalifornischen Längstal mithilfe künstlicher Bewässerung sowie die Vieh- und Geflügelzucht und die Fischerei. Der Weinbau in Kalifornien ist ebenfalls bedeutend. Etwa 90 Prozent der gesamten Weinproduktion der USA stammen aus Kalifornien. Kalifornien hat reiche Vorkommen an Bodenschätzen (u. a. Erdöl, Erdgas, Borsalze, Quecksilber, Magnesit, Gold) und verfügt über eine hoch entwickelte Industrie: Luftfahrt-, Raumfahrt-, Elektronik- und Computerindustrie (Silicon Valley), Fahrzeugbau, Nahrungsmittelindustrie, Hüttenwerke u. a. In Kalifornien befindet sich der Hauptsitz der amerikanischen Filmindustrie (Hollywood). Verkehr. Kaliforniens öffentlicher Personennahverkehr ist traditionell unterentwickelt. Der Autoverkehr steht im Mittelpunkt und macht den Einzelnen zum „Sklave[n] des Autos“, wie es der Schriftsteller T. C. Boyle formuliert. Die Ausnahme bildet die San Francisco Bay Area mit einem nicht nur für Kalifornien, sondern in den ganzen Vereinigten Staaten führenden Regionalverkehrssystem, das auf dem Rückgrat des BART-Systems basiert. Einzelne Ansätze für die Entwicklung von öffentlichem Nahverkehr gibt es auch in Los Angeles mit der seit 1990 in Betrieb genommenen Metro Los Angeles. Schienenverkehr. Zwischen San Franciso und San Jose verkehren die Caltrain-Vorortzüge in dichtem Takt. Weitere Vorortzüge gibt es mit dem San Diego Coaster in San Diego, mit Metrolink in Los Angeles und mit dem Altamont Commuter Express zwischen San Jose und Stockton. Metros und/oder Stadtbahnen existieren in Los Angeles, San Diego, San Francisco, San Jose und Sacramento. Weltbekannt sind die San Francisco Cable Cars. Kommutativgesetz. Das Kommutativgesetz (lat. ' „vertauschen“), auf Deutsch "Vertauschungsgesetz", ist eine Regel aus der Mathematik. Wenn sie gilt, können die Argumente einer Operation vertauscht werden, ohne dass sich das Ergebnis verändert. Mathematische Operationen, die dem Kommutativgesetz unterliegen, nennt man "kommutativ". Das Kommutativgesetz bildet mit dem Assoziativgesetz und Distributivgesetz grundlegende Regeln der Algebra. Formale Definition. Es seien formula_1 und formula_2 Mengen. Eine binäre Verknüpfung formula_3 heißt kommutativ, wenn für alle formula_4 die Gleichheit formula_5 gilt. Reelle Zahlen. Für reelle Zahlen formula_7 gilt stets die Operationen Addition und Multiplikation sind also kommutativ. Die erste Formel wird auch "Kommutativgesetz der Addition", die zweite "Kommutativgesetz der Multiplikation" genannt. Die Subtraktion und die Division reeller Zahlen sind dagegen nicht kommutative Operationen. Auch die Potenzierung ist nicht kommutativ (Beispiel: formula_10) Die älteste überlieferte Form des Kommutativgesetzes der Addition ist die sumerische Fabel vom klugen Wolf und den neun dummen Wölfen. Mengenoperation. In der Mengenlehre sind die Vereinigung und der Schnitt kommutative Operationen; für Mengen formula_13 gilt also stets Dagegen ist die Differenz nicht kommutativ, in nichttrivialen Fällen (d. h. wenn formula_16 und formula_17) sind also formula_18 und formula_19 verschiedene Mengen. Matrizenrechnung. Die Addition von Matrizen über einem Ring oder Körper ist kommutativ. Die Matrizenmultiplikation ist dagegen im Allgemeinen nicht kommutativ. Für das Produkt einer quadratischen Matrix A mit deren inverser Matrix (ergibt die Einheitsmatrix) ist die Kommutativität der Multiplikation jedoch gegeben, ebenso für die Multiplikation einer beliebigen (quadratischen) Matrix mit der Einheitsmatrix. Ebenfalls kommutativ ist die Skalarmultiplikation einer (beliebigen) Matrix mit einem Skalar, sowie die Multiplikation im Unterring der Diagonalmatrizen. Gruppentheorie. Allgemein nennt man eine Gruppe, bei der die Verknüpfung von Gruppenelementen kommutativ ist, abelsch. Weitere Beispiele. Weitere Beispiele für nichtkommutative Operationen sind das Kreuzprodukt in Vektorräumen oder die Multiplikation von Quaternionen. Kommutativität ist außerdem eine wichtige Grundeigenschaft in der Quantenmechanik. Anmerkungen. Die Kommutativität, die das Vertauschen von Argumenten bei einer "Operation" erlaubt, weist Ähnlichkeit mit der Symmetrie-Eigenschaft von Relationen auf, welche einfach ausgedrückt das Vertauschen der verglichenen Elemente bzgl. der "Relation" erlaubt, z. B. folgt dann aus x R y stets y R x. Eine alternative Möglichkeit des „Um-Klammerns“ bietet das Flexibilitätsgesetz für eine Verknüpfung * Kassandra (Mythologie). Kassandra (altgriechisch „die Männer umwickelt“, lat. "Cassandra") ist in der griechischen Mythologie die Tochter des trojanischen Königs Priamos und der Hekabe, damit Schwester von Hektor, Polyxena, Paris und Troilos sowie Zwillingsschwester von Helenos. Der Gott Apollon gab ihr wegen ihrer Schönheit die Gabe der Weissagung. Als sie jedoch seine Verführungsversuche zurückwies, verfluchte er sie und ihre Nachkommenschaft, auf dass niemand ihren Weissagungen Glauben schenken werde. Daher gilt sie in der antiken Mythologie als tragische Heldin, die immer das Unheil voraussah, aber niemals Gehör fand. Mythos. Der Gott Apollon verliebte sich in Kassandra und verlieh ihr die Sehergabe, um seinem Werben Nachdruck zu geben. Kassandra, deren Schönheit Homer mit jener der Aphrodite verglich, verschmähte ihn dennoch. Daraufhin verfluchte Apollon seine Gabe, weil er sie Kassandra nicht wieder wegnehmen konnte und fügte hinzu, dass niemand ihren Vorhersagen Glauben schenken werde. So warnte Kassandra vergebens gegen Ende des Trojanischen Krieges (wie zuvor auch der Priester Laokoon) die Trojaner vor dem Trojanischen Pferd und der Hinterlist der Griechen, sodass Troja unterging. Nach der Eroberung Trojas wurde Kassandra von Ajax dem Lokrer im Tempel der Athene vergewaltigt, in den sie sich geflüchtet hatte. Agamemnon beanspruchte Kassandra als Sklavin und nahm sie mit nach Mykene. Er wurde aber nach seiner Ankunft in Mykene von seiner Frau Klytaimnestra und deren Geliebten Aigisthos im Bad erdolcht. Kassandra, die wegen ihrer seherischen Gabe um dieses Schicksal wusste und es auch vorhergesagt hatte, wurde von Klytaimnestra ebenfalls erdolcht. Darstellungen in der Antike. In der Nähe von Mykene gibt es ein Grabmal, das Kassandra zugeschrieben wurde. Ursprünglich war es jedoch wahrscheinlich einer lokalen Gottheit geweiht. Kassandras Insigne auf antiken Bilddarstellungen ist die Doppelaxt des phrygischen Apollon. In der Ilias, der Beschreibung des Krieges um Troja des griechischen Dichters Homer, findet man Kassandra als die Tochter des Priamos und der Hekabe, sie ist dort jedoch noch nicht als Seherin beschrieben. Diese traditionelle Darstellung der Kassandra als warnende Stimme vor dem Untergang scheint sich dann später zu entwickeln. Bei Pindar und anderen griechischen Autoren (wie Aischylos in seinem Werk "Agamemnon" und Euripides in "Die Troerinnen") wird die Gabe der Prophetie der Kassandra fast als bekannt vorausgesetzt. Als einziges antikes Werk stellt die Dichtung "Alexandra" aus der Zeit um 190 v. Chr. die Figur der Kassandra in den Mittelpunkt. Weshalb der Autor Lykophron den Namen "Alexandra" wählte, ist nicht bekannt. In der Aeneis des römischen Dichters Vergil wird Kassandra ebenfalls als Seherin bezeichnet, hier jedoch hat sie eine positive Vision von der Zukunft Roms. Psychologische Deutung bei Aischylos. Bevor in der Orestie von Aischylos Agamemnon seinem Tod entgegengeht und nach der "Ode der Vorahnung", wird die "Wahnsinnsszene der Kassandra" eingeschoben, die sich losgelöst von der eigentlichen Handlung abspielt: Still steht Kassandra auf der Bühne, unbeachtet von allen anderen Darstellern. Dann jedoch bricht ihre Verrücktheit durch, welche sich allerdings nicht wie zum Beispiel in Euripides’ "Ajax" als physisch gewalttätiger Amoklauf manifestiert; indessen spricht sie zusammenhangslos und abgehoben, als hätte Apollon von ihrer Psyche Besitz ergriffen, über Verflossenes und Zukünftiges. Damit ruft sie beim Publikum jene Scheu, jenes Grauen und Erbarmen hervor, wie dies heftig Verzweifelte tun, die oft eine Mischung tiefgreifender Erkenntnis gepaart mit totaler Hilflosigkeit ausstrahlen. Darstellungen in der Moderne. a> "Die verzweifelte Cassandra vor der brennenden Stadt Troja" 1898, London "De Morgan Centre" Friedrich Schiller schrieb 1802 das Gedicht "Kassandra", das die antike Sage zur Vorlage hat. Literarische Bearbeitungen des Themas lieferten die Erzählungen "Die Seherin" von Erika Mitterer und "Kassandra" von Christa Wolf. Auch Marion Zimmer Bradley stellt in ihrem Buch "Die Feuer von Troja" Kassandra in den Mittelpunkt und erzählt die Geschichte des Untergangs aus der Sicht der Prinzessin und Priesterin Kassandra (eigentlich Alexandra), der Tochter des Priamos und Zwillingsschwester des Helenos. In "Disneys Hercules", einer Fernsehserie nach dem gleichnamigen Film, wird Kassandra als zynischer Teenager mit einem aufdringlichen, aber liebenswürdigen Verehrer in der Gestalt ihres Mitschülers Ikaros dargestellt. Kassandrarufe. Vor einer drohenden Gefahr warnende Rufe, die niemand hören will, werden als „Kassandrarufe“ bezeichnet. Kassandra warnte vergeblich vor Paris und Helena, vor dem hölzernen Pferd und dem Untergang Trojas. Historisch bekannte Warnungen dieser Art sind jene des deutschen Botschafters in London, Karl Max Fürst Lichnowsky, vor einer kriegerischen Verwicklung mit Großbritannien (1914), Lenins Politisches Testament von 1922-23 mit seiner expliziten Warnung vor Josef Stalin sowie die zahlreichen Warnungen „Hitler bedeutet Krieg“. Kaschmir. Kaschmir (Devanagari:, Urdu: کشمیر, "Kashmir") ist ein umstrittenes Gebiet nordöstlich von Pakistan und ein ehemaliger Fürstenstaat in Südasien, der heute von Indien, Pakistan und der VR China gleichermaßen beansprucht wird. Geographie. Heute teilt sich das im Himalaya gelegene Kaschmir in den indischen Bundesstaat Jammu und Kashmir mit 101.000 km² und 10,1 Mio. Einwohnern, die pakistanische Region Gilgit-Baltistan und das teilautonome pakistanische Azad Kashmir mit zusammen 84.000 km² und ca. 5 Millionen Einwohnern, sowie einige chinesische Gebiete (u.a. Aksai Chin mit 37.000 km² und einigen Tausend Bewohnern) auf. Die Gesamtfläche Kaschmirs beläuft sich auf rund 222.000 km². Der indische Teil Kaschmirs teilt sich in die Divisionen Jammu, Kaschmir und Ladakh mit insgesamt 22 Distrikten. Die größte Division des indischen Kaschmirs ist Ladakh. Geologie. Die Region liegt an einer 200 Kilometer breiten Bruchzone zwischen der indischen und der eurasischen Kontinentalplatte. Geschichte. Flagge des Maharaja bis 1936 Kaschmir hat seinen Ursprung im Kaschmir-Tal mit dem alten Handelsplatz Srinagar im Hochgebirgsraum des Vorderen Himalaya. In seiner langen, wechselvollen Geschichte hat es sich als Kreuzungspunkt von Karawanenstraßen (historische Seidenstraße) zwischen Vorder-, Zentral- und Südasien entwickelt. Zugleich war und ist es auch heute noch Schnittpunkt ausgedehnter buddhistischer, kaschmirisch-hinduistischer und ab dem 13. Jahrhundert zunehmend islamischer Herrschaftsbereiche. Kaschmir hat von alters her eine Brücken- und Knotenfunktion zwischen Vorder-, Zentral- und Südasien. 1587 wurde Kaschmir durch Akbar dem Reich der Großmoguln von Delhi einverleibt und 1739 von Nadir Schah erobert. Kaschmir blieb nun eine Provinz des Reiches von Kabul, bis sich 1809 der Statthalter Muhammad Azim Khan für unabhängig erklärte. 1819 besetzte der Sikh Maharaja Ranjit Singh die Hauptstadt Srinagar und weite Teile des Landes. Nach dem Sieg der Briten über die Sikhs im Ersten Sikh-Krieg wurde "Kashmir and Jammu" 1846 als Fürstenstaat ein britisches Protektorat. Erster Maharaja wurde 1846–1856 der Raja von Jammu, Ghulab Singh, ein Hindu aus dem Rajputen-Clan der Jamwal. 1941 hatte Kaschmir eine Fläche von 218.896 km² und 4,2 Millionen Einwohner. Die Stammesgebiete im Norden standen allerdings nur nominell unter der Hoheit des Maharaja. Insgesamt war der Norden Kaschmirs muslimisch geprägt, der Süden hinduistisch und der Osten buddhistisch. Ein machtpolitisches Ungleichgewicht herrschte jedoch dadurch vor, dass hohe Positionen und öffentliche Ämter fast ausschließlich durch Dogra-Hindus aus Jammu besetzt wurden. Protestbewegungen von Moslems, wie zum Beispiel 1930 gegen die autoritäre Herrschaft des Maharajas, wurden immer häufiger und zumeist blutig niedergeschlagen. Als Großbritannien am 18. Juli 1947 die Entlassung Indiens in die Unabhängigkeit und die Bildung der Dominions Indien und Pakistan beschloss, wurde Kaschmir zunächst unter dem Maharaja Hari Singh (1925–1952) unabhängig. Kashmir und Jammu hatte 1866–1894 eine Staatspost mit eigenen Briefmarken, 1867–1877 mit separaten Ausgaben für die Provinzen Kashmir und Jammu. Der Fürstenstaat Punch hatte 1876–1894 ebenfalls eine eigene Post. Kaschmirkonflikt. Die Ursache für das heutige Spannungsverhältnis in Kaschmir ist einerseits begründet durch den Eroberungsfeldzug 1819 der Sikhs von Punjab (Indien) aus, die das muslimische Kaschmir mit dem hinduistischen Jammu vereinigten und andererseits im Teilungsprozess Britisch-Indiens im Jahr 1947, in dessen Folge die Staaten Pakistan und Indien gegründet worden waren. Die Teilung in das muslimisch dominierte Pakistan (einschließlich Ostpakistan, dem heutigen Bangladesch) und in die hinduistisch geprägte Indische Union nach dem Mountbattenplan folgte der so genannten „Zwei-Nationen-Theorie“. Danach sollten die Distrikte Britisch-Indiens, die nach der letzten verfügbaren Volkszählung von 1941 eine mehrheitlich muslimische Bevölkerung aufwiesen, Pakistan zufallen. Im umgekehrten Falle sollten muslimische Minderheitengebiete in der Indischen Union verbleiben. Dieses Kriterium traf nicht für die semi-autonomen Fürstenstaaten und damit auch nicht für Kaschmir zu. Das entsprechende britische Gesetz ("Indisches Unabhängigkeitsgesetz von 1947") besagte, dass die Herrscher der Fürstenstaaten die Entscheidungsfreiheit haben, sich entweder Indien oder Pakistan anzuschließen (oder unabhängig zu sein). Kaschmir blieb nach der Teilung Britisch-Indiens zunächst unabhängig, wurde aber bald zu einer militärischen Konfliktregion. Der damalige Maharadscha Hari Singh versuchte durch Verzögerungen in der Entscheidung, sich auf die pakistanische oder indische Seite zu schlagen, die Souveränität zu wahren. Nach Beginn der Invasion von durch Pakistan unterstützten paschtunischen Stammeskriegern und der fortlaufenden Rebellion gegen seine Herrschaft (besonders im Bezirk Punch) bat der Herrscher Indien um militärischen Beistand. Um diesen zu erhalten, erklärte er am 26. Oktober 1947 den Anschluss seines Fürstenstaates an die Indische Union. Binnen weniger Tage verlegte Indien massiv Truppen in die Krisenregion, um Aufständischen und eingesickerten Kämpfern zu begegnen. Pakistan akzeptierte den Beitritt zu Indien nicht. Darüber hinaus wurde der bereits in der Kolonialperiode schwelende Hindu-Moslem-Konflikt immer weiter auf die Ebene der Staatspolitik übertragen, der dadurch kontinuierlich an Brisanz gewann, obwohl die Mehrheit der Bewohner Kaschmirs eine gemäßigte religiöse Einstellung besaß. Die Eskalation führte letztlich zum Ersten Indisch-Pakistanischen Krieg, der 1949 mit der De-facto-Zweiteilung Kaschmirs unter Vermittlung der Vereinten Nationen endete. Seitdem existiert im Süden der indische Bundesstaat Jammu und Kashmir (etwa zwei Drittel des Territoriums), während der Norden mit Asad Kaschmir und Gilgit-Baltistan – bis 2009: "Northern Areas" (Nordgebiete) – unter pakistanischer Verwaltung steht. Die Grenzlinie zwischen dem pakistanischen und indischen Teil bildet die Waffenstillstandslinie („Line of Control“) von 1949. Sie ist etwa 750 km lang und steht unter dem Mandat der Vereinten Nationen. Aus indischer Sicht steht vor allem die Vermeidung eines Präzedenzfalles durch Loslösung aus dem Staatsverbund Indiens und die Sicherung der Verkehrswege in das Hochtal von Kaschmir im Vordergrund. Das Regierungsprinzip des säkularen Nationalismus, das heißt keine Abhängigkeit der Regierung von Religionen, sollte für ganz Kaschmir gelten und somit auch für die muslimisch dominierten Bereiche. Indien sieht in der Kaschmirfrage daher keinen Diskussionsbedarf. Aus pakistanischer Sicht stellt die Kaschmir-Frage einen Präzedenzfall für die Rolle des Landes als selbstproklamierte „Heimat der indischen Muslime“ dar. Indien versuchte durch die Annexion Kaschmirs diesen Anspruch und so das gesamte Gründungsprinzip des pakistanischen Staates infrage zu stellen. Der Kaschmir-Konflikt stellt so einen wichtigen identifikativen Bezugspunkt des pakistanischen Staates dar, der sich über einen gemeinsamen Feind gegenüber Systemkritikern legitimieren will. Neben Indien und Pakistan ist die Volksrepublik China als dritte Partei indirekt am Kaschmirkonflikt beteiligt. Nach der gewaltsamen Besetzung des im Osten Kaschmirs gelegenen Aksai-Chin-Plateaus durch chinesische Truppen (1956 und 1962) näherte sich Indien verstärkt der Sowjetunion an. Aufgrund der gleichgerichteten Interessenlage gegen Indien wurde Pakistan zum Verbündeten Chinas. Es trat 1963 seinerseits einen schmalen Streifen um die K2-Gipfelregion an China ab. Dieses ehemals zu China gehörende Gebiet wurde seit der britischen Kolonialzeit von Pakistan kontrolliert. Im Gegenzug erhielt Pakistan chinesische Hilfe beim Bau des Karakorum Highway. Das Gebiet von Aksai Chin war bis 1956 ein autonomes Fürstentum, das sich an der Politik des Maharajas von Kaschmir orientierte. Die Chinesen sahen die Besetzung als Rückeroberung eines von Britisch-Indien 1846 unrechtmäßig besetzten Gebietes. Außerdem planten sie eine Straße von Westtibet durch Aksai Chin weiter nach China, welche ab 1958 auch gebaut wurde. Sowohl die indische als auch die pakistanische Regierung nehmen sowohl auf internationaler Ebene als auch in Südasien für sich in Anspruch, die rechtmäßigen Vertreter der kaschmirischen Interessen zu sein. Während die indische Seite einen multikulturellen und Minderheiten tolerierenden Staat propagiert, der aber keinerlei Separationsbestrebungen der einzelnen Bundesstaaten akzeptiert, erhebt Pakistan den Anspruch, alle südasiatischen Muslime in einem (pakistanischen) Staat zu vertreten, da deren Interessen in einer Minderheitensituation unter indischer Verwaltung letztlich nicht gesichert seien. Multikulturalität sei nur die äußere Rhetorik einer impliziten Politik der Bevormundung und Benachteiligung. Bereits 1947 zeichnete sich jedoch eine weitere Option ab. Kaschmirische Nationalisten forderten die Gründung eines von Indien und Pakistan unabhängigen Binnenstaates Kaschmir, der sich idealerweise aus dem pakistanisch-kontrollierten Asad Kaschmir und dem indisch-kontrollierten Jammu und Kashmir zusammensetzen sollte. Diese Lösungsvariante wird bis heute nicht nur von Indien und Pakistan aus strategischen, ökonomischen und sozio-kulturellen Erwägungen abgelehnt, sondern auch von einer Mehrheit der kaschmirischen Bevölkerung, welche einen unabhängigen muslimischen Staat Kaschmir fordert. Pakistan verlangte die Lösung der Kaschmir-Frage auf der Basis der entsprechenden Resolutionen der Vereinten Nationen und des Selbstbestimmungsrechts des kaschmirischen Volkes, insbesondere der Muslime. 1965 kam es im Streit um die Region zum Zweiten Indisch-Pakistanischen Krieg. 1999 brach auf Grund des Eindringens von Pakistan unterstützter bewaffneter Einheiten in die Region um Kargil der Kargil-Krieg aus. Im Zuge des einsetzenden Entspannungsprozesses Ende 2003 schlug der pakistanische Präsident Pervez Musharraf einen völligen Truppenabzug (des indischen und des pakistanischen Militärs) aus der umstrittenen Himalaya-Region vor. Indien lehnt dies mit Hinweis auf die instabile, komplexe Sicherheitslage und wegen der Gefahr des Einsickerns von Extremisten aus Pakistan ab. Der zentrale Streitpunkt zwischen beiden Ländern, wonach sie beide den alleinigen Anspruch auf ganz Kashmir erheben, wurde in dem bisherigen Annäherungsprozess ausgeklammert. Wirtschaft. a>-Schals aus Kaschmirwolle und Seide, hergestellt in Nepal Nach der Region benannt ist die kostbare Kaschmirwolle, die zum Ende des Winters durch Kämmen aus dem Unterfell der Kaschmirziege gewonnen wird. Pro Tier werden ca. 150 Gramm gesammelt, die dann (von Hand) von den einzelnen Oberhaaren (Grannen) gereinigt werden müssen. Der Verkaufspreis der Wolle richtet sich nach deren Qualität; die Haare sollten möglichst fein (dünn), lang und hell (weiß) sein. Kreta. Kreta ("Kriti"; schon im mykenischen Griechisch belegt im Wort "ke-re-si-jo we-ke" = "Krēsio-wergēs" (transkribiert aus der Linearschrift B); türkisch "Girit", früher auch italienisch "Candia" (von arabisch "Khandaq" „Graben“)) ist die größte griechische Insel und mit 8.261,183 Quadratkilometern Fläche sowie 1.066 Kilometern Küstenlinie die fünftgrößte Insel im Mittelmeer (nach Sizilien, Sardinien, Zypern und Korsika). Die Region Kreta umfasst 8.336 Quadratkilometer und schließt einige umliegende Inseln mit ein, von denen die vor der kretischen Südküste gelegene, bewohnte Insel Gavdos den südlichsten Punkt Europas markiert. Die Insel hat insgesamt 625.000 Einwohner (Stand 2012). Verwaltungs- und Wirtschaftszentrum Kretas ist Iraklio, die mit etwa 173.993 Einwohnern gleichzeitig die größte Stadt Kretas darstellt. Etymologie. Zur Herkunft des Toponyms Kreta () gab es in der Antike unterschiedliche Auffassungen. Vier Versionen gehen auf weibliche Figuren namens "Krete" zurück: genannt werden eine Tochter Europas namens Krete; eine Geliebte des ägyptischen Königs Ammon, die mit ihm auf die Insel "Idaia" geflohen sei und die daraufhin in "Krete" umbenannt wurde; eine Krete der Hesperiden und eine Tochter Deukalions desselben Namens. Eine weitere Deutung führt den Namen auf den mythischen ersten König der Insel zurück, nämlich "Kres", Sohn des Zeus und einer Nymphe namens Idaia. Auch die Kureten wurden als mythische erste Einwohner der Insel zur Herkunft des Namens genannt. In der Linearschrift B der Mykenischen Kultur findet sich die Bezeichnung "ke-re-si-jo," sie wird als "*Krēsios" ‚Kreter‘ gedeutet und ist möglicherweise vorgriechischen Ursprungs. In Homers Ilias (so im Schiffskatalog, Buch 2, Vers 645) sind die "Kreter" als die griechischsprachigen Bewohner der Insel in der Form mit "t" belegt; die vorgriechische Bevölkerung nennt Homer "Eteokreter" (‚wahre Kreter‘). Im Griechischen hat sich die alte Form fast unverändert erhalten (nur der Vokal [ɛː] lautet heute [i]). Über lat. "Creta" („Kreide“) wurde der deutsche Name "Kreta" herausgebildet. Geografische Lage. Kreta liegt knapp 100 Kilometer südlich des griechischen Festlands. Sie ist die größte griechische Insel und nach Zypern die zweitgrößte des östlichen Mittelmeeres. Die Insel hat eine gestreckte Form, sie misst in Ost-West-Richtung 254 Kilometer bei einer größten Breite von 60,6 Kilometern. An ihrer schmalsten Stelle (bei Ierapetra) ist Kreta 12,1 Kilometer breit. Kreta liegt zwischen 34°55'31" und 35°41'32" nördlicher Breite und zwischen 23°31'21" und 26°18'50" östlicher Länge. Die Entfernung bis Afrika beträgt 294 Kilometer (Libyen), bis Asien 180 Kilometer (Türkei) und zum europäischen Festland Kap Maleas 96,6 Kilometer. Die Insel bedeckt eine Fläche von 8.261,183 Quadratkilometern, ihre Küstenlinie ist 1.066 Kilometer lang. Das Meer im Norden wird "Kretisches Meer" genannt (gr. "Kritiko Pelagos" Κρητικό Πέλαγος), das im Süden "Libysches Meer" (gr. "Livyko Pelagos" Λιβυκό Πέλαγος), Kretas Ostende erstreckt sich in das sogenannte "Karpathische Meer". Diesen Gebirgen verdankt Kreta die fruchtbaren Hochebenen Lasithi, Omalos und Nida, Höhlen wie die Diktäische Höhle und tiefe Schluchten wie die bekannte Samaria-Schlucht. Die Messara-Ebene im Süden ist mit etwa 140 km² die größte Ebene der Insel. Sie wird intensiv landwirtschaftlich genutzt. Kreta bildet mit einigen kleineren bewohnten sowie unbewohnten Inseln eine Inselgruppe. Geologie. Bergwelt und Bergdorf in Südkreta Luftaufnahme der südöstlichen Küste zwischen Athenerilakkos und Xerokampos Der steil aufsteigende Archipel von Kreta liegt auf der Ägäischen Platte, unweit der tiefsten Stellen des gesamten Mittelmeers und stellt somit den Akkretionskeil der Subduktionszone dar. Die gesamte Region ist tektonisch stark aktiv. So verläuft hier der sogenannte "Griechische Bogen" oder die "Hellenische Subduktionszone", ein knapp 1.000 km langer tektonischer Graben, der sich zwischen der europäischen Platte in Südbewegung und der afrikanischen Platte in Nordbewegung befindet. Dadurch schiebt sich die afrikanische Platte unter die der europäische Platte. Diese "Subduktionszone" wird als dominierender Bereich für Erdbeben in der gesamten Kontinentalregion gesehen. Erdbeben können ständig auftreten, richten aber in der Regel kaum nennenswerte Schäden an. 70 bis 150 km nördlich hiervon schließt sich der magmatische aktive Bogen an. Klima. Auf dieser Insel herrscht ein gleichmäßiges Mittelmeerklima. Kreta ist mit seinen zirka 300 Tagen Sonnenschein pro Jahr zusammen mit Zypern die sonnigste Insel im Mittelmeerraum. Der Sommer ist heiß und trocken, wobei insbesondere an der Südküste sehr hohe Temperaturen gemessen werden. Der Winter ist regenreich und mild, die Hochlagen der Gebirgszüge sind schneereich. Kreta ist durch mehrere Klimazonen geprägt. Die Spanne reicht von trocken-heißen bis zu feucht-alpinen Zonen. In den Gebirgsregionen können die Werte von den in der Tabelle angegebenen Durchschnittswerten erheblich abweichen. An der südöstlichen Küste ist es in den Sommermonaten um einige Grade wärmer. Flora und Vegetation. Trotz jahrtausendelanger Besiedelung und sommerlicher Trockenheit ist die kretische Flora sehr artenreich, so gedeihen hier alleine etwa 170 endemische Pflanzenarten. Besonders im Frühling fällt die hohe Anzahl unterschiedlichster Blütenpflanzen ins Auge. Typisch für die Insel ist das Vorkommen zahlreicher Gewürz-Kräuter wie Kopfiger Thymian, Griechischer Salbei, Thymbra-Bergminze, Oregano oder Diptam-Dost, deren Verbreitung bis in die Hochlagen der Gebirgszüge reicht. "Zum typischen Bewuchs der von Ziegen und Schafen beweideten Flächen siehe": Phrygana und Macchie. Wald und Bäume. Die Gebirgszüge der Weißen Berge (Lefka Ori) und des Ida-Gebirges sind teilweise noch mit Kalabrischen Kiefern ("Pinus brutia"), Restbeständen von Zypressen ("Cypressus sempervirens") und Kermes-Eichen bewaldet, der Osten Kretas hingegen zählt zu den kargsten und trockensten Regionen Europas. Dort wachsen neben wenigen kultivierten Ölbäumen nur noch die widerstandsfähigen und austrocknungsresistenten kugelbuschartigen Pflanzen der Phrygana. Eine Besonderheit ist die Kretische Dattelpalme ("Phoenix theophrasti"), die an einigen Standorten der Südküste und im äußersten Osten am Palmenstrand von Vai vorkommt. Weitere häufig zu sehende Bäume sind der Johannisbrotbaum und laubwerfende Platanen entlang von Bachläufen. Neophyten. Auch die Rizinuspflanze, der Götterbaum und der Blaugrüne Tabak waren ursprünglich nicht auf Kreta heimisch. Man schätzt, dass ungefähr ein Drittel aller Pflanzenarten der Insel erst seit der Erstbesiedelung durch den Menschen eingebürgert sind, darunter ca. 80 erst in jüngerer Zeit. Fauna. Die kretische Fauna ist verglichen mit seiner Pflanzenwelt relativ artenarm. Typische und häufige Vertreter der Mittelmeerfauna sind Grillen, Zikaden, Eidechsen und Fledermäuse. Augenscheinlich wird die Tierwelt dominiert von verschiedensten Rassen domestizierter Ziegen und Schafe, die vom Meer bis in die Hochgebirgsregionen weiden. Säugetiere. In Prähistorischen Zeiten bis hinein in die Jungsteinzeit gab es auf Kreta deutlich mehr Arten von endemischen Großsäugern. Es wurden Knochen unter anderen vom Kreta-Zwergmammut, einer Flusspferdart und von verschiedenen Rehen gefunden. Auch die Reste eines sehr großen Insektenfressers sind unter den Fossilien. Es fehlen dagegen die Nachweise irgendeines großen Raubsäugers wie Bären, Großkatzen oder Hundeartige, so dass vermutlich der wichtigste Selektionsdruck für die Pflanzenfresser die begrenzt vorhandene Nahrung war. Es gibt also Gründe anzunehmen, dass Kreta schon vor der Besiedelung durch Menschen mit ihren Haustieren ähnlich stark beweidet wurde wie danach. Manche Autoren ziehen daraus den Schluss, dass die Genese der heutigen kretischen Landschaft nicht so stark vom Menschen beeinflusst ist, wie es meist angenommen wird. Die ehemals fast vollständig bewaldete Insel, von der Platon berichtet, und die angeblich später durch menschlichen Raubbau zu einer „ruinierten Landschaft“ verkam, hat es nach dieser Theorie in historischer Zeit nie gegeben (siehe Literaturhinweis: Rackham and Moody). Kretische Wildziege ("Capra aegagrus cretica") Die sehr seltene endemische Kretische Bergziege (Agrimi oder Kri-Kri) kommt nur noch an einem natürlichen Standort in den weißen Bergen (Lefka Ori) vor. Bereits seit 1928 wird versucht, ein Teil der Bestände auf unbewohnte Felseninseln umzusiedeln (z. B. nach Dia, gelegen direkt vor Iraklio). Vermutlich sind die Agrimi keine ursprünglich auf Kreta heimische Art, sondern Nachkommen von zu Zeiten frühester menschlicher Besiedelung ausgewilderter Tiere. Häufig vorkommende Säugetiere auf Kreta sind die Kreta-Stachelmaus, die Etrusker-Spitzmaus und zwölf verschiedene Fledermaus-Arten. Durch Pestizid-Einsatz bedroht ist der Weißbrustigel, durch übermäßige Bejagung selten geworden der kretische Feldhase. Als wildlebende Landsäuger sind noch der Steinmarder, das Mauswiesel, der Siebenschläfer und der kretische Dachs vertreten. Im Jahre 1996 wurde überraschenderweise noch ein Exemplar der kretischen Wildkatze gefangen, die bis dahin als ausgestorben galt. Ebenfalls stark in ihrer Existenz bedroht ist die Mittelmeer-Mönchsrobbe, von der letzte Exemplare u. a. noch bei den Paximadia-Inseln und an den Küsten Südostkretas leben sollen. Vögel. Neben den auf Kreta heimischen Vogelarten dient die Insel vielen Zugvögeln als Zwischenquartier auf ihrem Weg von Afrika nach Nordeuropa. Manche Arten orientieren sich in ihrer Flugroute am Verlauf bestimmter Schluchten auf Kreta. In abgeschiedenen Bergregionen und Schluchten der Lefka Ori brüten noch wenige Paare des heute sehr seltenen Bartgeiers, der früher wegen seines schlechten Image als Lämmer-Reißer (daher auch fälschlich „Lämmergeier“ genannt) gnadenlos gejagt wurde. So selten wie die Vögel sind auch die von ihnen angelegten „Knochenschmieden“ geworden. Noch wesentlich häufiger als die Bartgeier sind die ebenso großen Gänsegeier anzutreffen, die man häufig über Berghänge oder Schluchten kreisend beobachten kann. Sie ernähren sich hauptsächlich von an Steilhängen abgestürzten Schafen und Ziegen. Auf Kreta lebt fast die Hälfte der für ganz Griechenland geschätzten Population dieser Geierart. Eine andere nur noch selten auf Kreta anzutreffende Greifvogelart ist der Fischadler, vor allem an der Südküste um Lendas. Sehr verbreitet dagegen sind Mäusebussarde und Turmfalken, ebenfalls selten die Eleonorenfalken, Wanderfalken, Steinadler und Habichtsadler. Von den Nachtjägern ist vor allem die Zwergohreule verbreitet. Reptilien und Amphibien. Neben verschiedenen Eidechsenarten und ungiftigen Schlangen (Leopardnatter, Würfelnatter, Balkan-Zornnatter) gibt es auch eine giftige Schlangenart auf Kreta. Es ist die Europäische Katzennatter ("Telescopus fallax"), allerdings ist sie für Menschen ungefährlich, da ihre Giftzähne so tief im Rachen liegen, dass sie nur gegen ihre Jagdbeute eingesetzt werden können. Die beiden häufigsten Eidechsenarten sind die Riesen-Smaragdeidechse und die viel kleinere Kykladen-Mauereidechse. Daneben gibt es einige Gecko-Arten (z. B. den Mauergecko), den Walzenskink und das erst in den 1930er Jahren entdeckte europäische Chamäleon. Landschildkröten gibt es auf Kreta nicht, aber einige der auch im Sommer Wasser führenden Bäche werden von der Kaspischen Bachschildkröte (Mauremys rivulata) bevölkert. Als marine Art muss die stark bedrohte Karettschildkröte erwähnt werden, welche einige kretische Strände (u. a. Matala, Komos) zur Eiablage nutzt. Als Vertreter der Amphibien sind der Laubfrosch, der Seefrosch und die Wechselkröte in Gegenden mit stehenden oder fließenden Gewässern zu finden. Gliederfüßer und Weichtiere. Einzig der Stamm der Gliederfüßer, vor allem Insekten, Spinnentiere und Hundertfüßer ist artenreich vertreten. Auch Skorpione (z.B. Euscorpius carpathicus, Mesobuthus gibbosus, Iurus dufoureius) sind relativ häufig zu finden, sowohl in Meeresnähe als auch im Landesinneren. Grillen und Zikaden sind so häufig, dass an manchen Orten ihr abendliches Zirpen eine Unterhaltung im Freien unmöglich machen kann. In manchen ganzjährig fließenden Quellen oder Bächen leben noch Süßwasserkrebse, die bei ihren Wanderungen von Gewässer zu Gewässer auch im Trockenen gefunden werden können. Besonders im Frühjahr ist die große Anzahl von Gehäuseschnecken auffällig, deren essbare Arten passend zur vorösterlichen Fastenzeit die Speisekarte der Einwohner bereichern. Bevölkerung. Die Einwohnerzahl Kretas beläuft sich auf knapp über 610.000 (Stand 2013). Weit über die Hälfte der Kreter wohnt in den schnell wachsenden städtischen Ballungsräumen von Iraklio, Chania, Rethymno, Agios Nikolaos und Ierapetra. Der Rest lebt in Kleinstädten mit unter 10.000 Einwohnern, in Dörfern oder auf Einzelhöfen. Sprache. Wie in ganz Griechenland ist auf Kreta Neugriechisch die offizielle Sprache, die von Einheimischen allerdings in der Variante des kretischen Dialektes gesprochen wird, in ländlichen Gebieten auch noch von der jüngsten Generation. Noch gibt es ältere Menschen, die nur den Dialekt sprechen, wohingegen die meisten nach den 1950er Jahren geborenen auch Standardgriechisch sprechen können. Da die neugriechische Sprache nicht so stark in verschiedene Dialekte gespalten ist wie zum Beispiel die englische, deutsche oder italienische, stellt dies in Griechenland eine Besonderheit dar, die von Festlandsgriechen gerne auch karikierend aufgegriffen wird, oft mit Bezug auf die Schrulligkeit, Rückständigkeit oder Sturheit der Kreter. Manche lokalen kretischen Radiosender wie zum Beispiel „Erotokritos“ strahlen ihr Programm fast komplett auf Kretisch aus, in der Wiedergabe von Erzählungen oder in Gedicht- und Liedbänden bemüht man sich, auch die Schreibweise soweit möglich dem Dialekt anzupassen. Auch Ausländern ohne Griechischkenntnisse fällt der Dialekt durch den Austausch des „k“ vor „i“ oder „e“ durch ein italienisch klingendes „tsch“ leicht auf. Örtlich ist auch der Tausch des griechischen „L“-Lautes durch einen dem englischen „r“ ähnlichen Laut auffallend (oli (όλοι, „alle“) → ouri). Im häufigen weiblichen Personalpronomen "tis" („ihr“) und Wörtern mit ähnlicher Silbenstruktur tritt ein Lautwechsel zu "tsi" auf, was vor allem mit der vorangestellten Präposition "se" („in, nach, zu“) zur schwierigen Konsonantenverbindung "stsi" führt. Daneben enthält das kretische auch viele Wörter, die im Hochgriechischen gar nicht auftauchen (z.B. "epa" statt "edo" für „hier“). Stellenweise weicht der kretische Dialekt auch grammatisch vom Standardgriechischen ab, so wird wesentlich häufiger das Augment in unbetonter Stellung beim Verb in den Vergangenheits-Tempora bewahrt ("e'"pígena" statt "pígena"). Schrieb noch der englische Forscher Thomas Abel Brimage Spratt in seinem Buch "Travels and Researches in Crete" 1865 davon, dass vor allem die weibliche Bevölkerung nur Kretisch aber nicht Griechisch sprach, hat das Geschlechterverhältnis sich heute umgekehrt: Fast jede ältere Frau spricht aktiv Standardgriechisch, doch viele ältere Männer beherrschen es nur passiv. Der kretische Dialekt ist stärker als das Standard-Neugriechische durch die archaische dorische Variante des Griechischen geprägt. Seine stärkste Ausprägung erfährt der Dialekt in der Sfakia, der ehemals abgeschiedenen Landschaft der Weißen Berge (Lefka Ori). Auch für griechische Muttersprachler ist der kretische Dialekt oft schwer bis gar nicht verständlich. Im Internet sind diverse griechische Webseiten mit Kretisch-Griechischen Wörterlisten zu finden, auch die oben erwähnte Reisebeschreibung von Spratt enthält im Anhang ein ausführliches Wörterbuch, welches den Sprachstand um die Mitte des 19. Jahrhunderts wiedergibt. Illegaler Waffenbesitz. Der Waffenbesitz hat auf Kreta eine lange Tradition. Nach Schätzungen der griechischen Polizei gibt es in Griechenland 1,5 Millionen nicht angemeldete Schusswaffen, davon mehr als die Hälfte auf Kreta. Sie stammen überwiegend aus der Zeit der deutschen Besatzung. Die Sitte des Schießens in die Luft bei Hochzeiten und anderen Feierlichkeiten ist nach wie vor sehr verbreitet. Durch diese Freudenschüsse und andere Unfälle mit Schusswaffen gibt es auf Kreta Jahr für Jahr mehrere Todesopfer. Nachdem im Sommer 2004 ein Neunjähriger während einer Hochzeit versehentlich getroffen und schwer verletzt worden war, wurde eine Anti-Waffen-Bewegung ins Leben gerufen, die auch von prominenten Kretern wie Mikis Theodorakis unterstützt wurde. Weiterhin wird jedoch häufig von Schießereien und Waffenfunden berichtet. Geschichte. Karte von Kreta aus dem Jahr 1861 Kreta war nachweislich etwa ab 6000 v. Chr. durchgängig besiedelt, die ältesten Spuren menschlicher Bewohner reichen jedoch mindestens 130.000 Jahre zurück, wie archäologische Funde an neun Stätten im Süden der Insel belegen. Ab dem dritten vorchristlichen Jahrtausend entstand auf der Insel mit der Minoischen Kultur die erste Hochkultur auf europäischem Boden. Etwa um 1450 v. Chr. übernahm mit den Mykenern eine erste griechischsprachige Bevölkerung die Paläste ihrer Vorgänger. Durch den Zuzug weiterer griechischer Stämme, die in den folgenden Jahrhunderten auf Kreta siedelten, wurde die Sprache der Minoer allmählich verdrängt. In klassischer Zeit lag Kreta am Rand des griechischen Kulturraums, es galt als „Insel der 100 Poleis“, war also in zahlreiche kleine Stadtstaaten zergliedert. Der in Stein gehauene Gesetzestext der damals mächtigen Polis Gortyn ist der einzige vollständig erhaltene Codex dieser Art der griechischen Antike. Zur Zeit des Hellenismus gewann Kreta wieder an strategischer Bedeutung. Die ab 67 v. Chr. herrschenden Römer verwalteten Kreta in der Provinz "Creta et Cyrene" von Gortyn aus zusammen mit der heute libyschen Küste der Kyrenaika. Die von 395 bis 1204 währende byzantinische Epoche wurde zwischen 824 und 961 von der Eroberung Kretas durch Muslime unterbrochen, die das Emirat von Kreta gründeten. Die Insel fiel jedoch im 10. Jahrhundert an die Byzantiner zurück. Nach dem Vierten Kreuzzug und der Eroberung Konstantinopels fiel Kreta an die Republik Venedig, die die Insel als "Regno di Candia" von Iraklio aus verwaltete. 1645 bis 1648 eroberten die Türken fast die gesamte Insel und verleibten sie als "Girit" (osmanisch گريد) dem Osmanischen Reich ein, nur Candia hielt einer Belagerung bis 1669 stand. Zahlreiche Aufstände der Bevölkerung im 19. Jahrhundert gegen die osmanische Oberhoheit wurden blutig niedergeschlagen. 1898 erzwang die Intervention Frankreichs, Russlands und des Vereinigten Königreichs eine fast vollständige Autonomie Kretas unter der Oberhoheit der Hohen Pforte. Durch den Vertrag von London von 1913 wurde Kreta schließlich Teil des griechischen Staates, im Vertrag von Lausanne 1923 wurde ein umfassender Bevölkerungsaustausch vereinbart. Rund 50.000 Türken mussten die Insel verlassen, viele Griechen aus Kleinasien siedelten auf Kreta. Im Verlauf des Zweiten Weltkriegs wurde die an strategisch wichtiger Position gelegene Insel Kreta im Mai 1941 in der Luftlandeschlacht um Kreta von der deutschen Wehrmacht erobert und bis 1945 besetzt gehalten. Verschiedene Widerstandsbewegungen kämpften, unterstützt von britischen Agenten, gegen die deutsche Besatzungsherrschaft. Die Wehrmacht verübte in zahlreichen kretischen Orten Massaker und Geiselerschießungen. Der Partisanenkrieg der politisch unterschiedlich positionierten Widerstandsbewegungen gegen die deutsche Besatzung ging ab 1946 fast nahtlos in den Griechischen Bürgerkrieg über. Politische Gliederung. Kreta bildet zusammen mit den kleineren umliegenden Inseln eine der 13 Regionen (Ez. "periféria" περιφέρεια) Griechenlands. Die Region gliedert sich in vier Regionalbezirke, die den Gebieten der Präfekturen bis 2010 entsprechen. Proportional zu deren Einwohnerzahl entsenden sie eine bestimmte Anzahl Abgeordneter in den 51-köpfigen Regionalrat. Musik. Auf Kreta hat sich eine eigene Richtung der griechischen Volksmusik ausgeprägt. Vorherrschende Instrumente sind die Lyra (eine Art Kniegeige), verschiedene Arten des "Bouzouki" und das Laouto (eine Form der Laute). Zeitgenössische Vertreter sind unter anderen der verstorbene Nikos Xylouris oder sein Bruder Antonis, der unter dem Künstlernamen Psarandonis bekannt geworden ist. Sirtaki, obwohl auf zahlreichen CDs vertreten und in vielen Tavernen gespielt, ist dagegen keine originär kretische Musik. Mantinades. Mantinades (gr. "Mandinades" Μαντινάδες, Plural zu "Mandinada") sind eine weit verbreitete traditionelle Lied- und Vortragsform auf Kreta. Die kretischen Mantinades sind 15-silbige Reimpaare im lokal vorherrschenden Dialekt und werden von wechselnden Sängern als Sprechgesang vorgetragen. Die Reimpaare enden meistens mit End- oder Kreuzreimformen oder werden benutzt, um auf einen zuvor vorgetragenen Reim zu antworten. Neben einer großen Anzahl feststehender und bekannter Strophen werden von den Sängern abgewandelte oder ganz improvisierte Strophen eingeschoben, was im Wechselspiel der verschiedenen Vortragenden zu einer Art Wettbewerb werden kann. Die Menge an notierten Reimen ist groß, die Themen Liebe, Hoffnung, Trauer, Exil, Krieg und Blutrache bilden dabei meistens die Schwerpunkte. Die traditionellen Mantinades werden zum größten Teil von dem kretischen Instrument, der Lyra begleitet. Die Ursprünge der kretischen Mantinades liegen im 15. Jahrhundert, als Kreta von Venedig besetzt war. Die kretische Kultur war damals von europäischen Dichtern und Denkern stark beeinflusst. Der griechische Dichter Vitsentzos Kornaros und sein Werk Erotokritos waren maßgeblich an der Entstehung der Mantinades beteiligt. Aber auch schon in der Antike waren Reime und Lyrik Bestandteil der kretischen Kultur. So verkündete der kretische Philosoph und Seher Epimenides seine Prophezeiungen stets in gereimten Versen, genauso wie "Iophon von Knossos," der seine seherischen Fähigkeiten im Orakel von Amphiaraos mit Hilfe von Reimen zum Ausdruck brachte. Mantinades werden nicht ausschließlich auf Kreta vorgetragen. Auf den griechischen Inseln Kasos und Karpathos gibt es ähnliche Reimlieder, die auch Mantinades genannt werden. Auf verschiedenen der "ionischen" und "ägäischen" Inseln findet man ähnliche Formen des musikalischen Vortrags. Auch auf Zypern existieren sie unter dem Namen "Tsatista." Da in früheren Jahrhunderten die wenigsten Mantinades schriftlich notiert wurden, wurde im kretischen Dorf "Korfes" ein "Haus der Mantinades" eröffnet, in dem alle Bestandteile dieser Musikkultur besichtigt werden können. Historische Stätten. Zu den historischen Stätten Kretas zählen Agia Photia (minoischer Landsitz), Agia Triada (Sommerpalast von Phaistos), Aptera (bedeutender Stadtstaat in der Antike), Amnissos (minoischer Hafen), Anemospilia (minoischer Tempel, Ort eines Menschenopfers), Archanes (minoisches Gebäude, vermutlich Sommerpalast), Armeni (spätminoischer Friedhof), Eleutherna (römische Stadt), Fourni (auch "Phourni"; Nekropole bei Archanes), Furnu Korfi (frühminoische Siedlung), Gortyn (spät. römische Stadtsiedlung), Gournia (spätminoische Stadt), Iraklio (archäologisches Museum), Itanos (minoisch/dorische Hafenstadt), Karphi (spät- bis subminoische Siedlung), Katalimata (ehemalige Höhensiedlung bei Pachia Ammos), Kato Zakros (minoischer Palast), Kloster Arkadi, Kloster Preveli, Kloster Moni Gonias in Kolymvari, Kloster Toplou, Knossos (minoischer Palast), Lasaia (römische Siedlung), Lappa (antiker Stadtstaat, heute Argiroupolis), Lato (dorische Siedlung), Lisos (hellenistisch-römische Stadt, bedeutendes Asklepios Heiligtum), Palast von Malia (minoischer Palast), Matala (jungsteinzeitliche Wohnhöhlen), Palekastro (minoische Stadt), Phaistos (minoischer Palast), Phalasarna (hellenistisch-römische Hafenstadt), Phoinix (Hafenstadt und Bischofssitz), Pyrgos (minoische Siedlung), Rhizenia (archaische Stadt), Sybrita (spätminoische Stadtgründung), Tylisos (minoischer Landsitz), Vathypetro (minoischer Landsitz) und Frangokastello (venezianisches Kastell). Naturschauplätze. Naturschauplätze auf Kreta sind unter anderem die Gewässer Kournas-See und Votomos-See, die Hochebenen von Anopolis, Askifou, Gious Kambos, Lasithi, Niato- und Tavri, Nida, Omalos (Lefka Ori) und Omalos (Orosira Dikti), die Strände und Buchten zu denen unter anderen die Bucht von Agio Farango, Bali, Balos, Elafonisi, Frangokastello, Kokkini Ammos, Matala, der Strand Komos, der Palmenstrand von Preveli, der Palmenstrand von Vai und Triopetra zählen, sowie Schluchten wie die Aradena-Schlucht, die Imbros-Schlucht, die Irini-Schlucht, die Kalikratis-Schlucht, die Kotsifou-Schlucht, die Kourtaliotiko-Schlucht, die Myli-Schlucht (Tal der Wassermühlen südöstlich von Rethymno), die Perivolakia-Schlucht (im Südosten Kretas, beim Kloster Moni Kapsa), die Rouvas-Schlucht, die Samaria-Schlucht, die Schlucht der Toten bei Kato Zakros und die Schlucht von Cha in Monastiráki bei Ierápetra. Sonstige Sehenswürdigkeiten. Sonstige Sehenswürdigkeiten auf Kreta sind Spinalonga, Panagia Kera in Kritsa und der Deutsche Soldatenfriedhof Maleme. Wirtschaft und Infrastruktur. Hauptwirtschaftszweig ist der Fremdenverkehr. Landwirtschaftlich wird die Insel vor allem für Wein-, Oliven- und Obstanbau genutzt. Ein großer Teil des kretischen Weinbaus dient der Produktion von Rosinen. Die wenigen Ebenen Kretas im Südosten, die Lasithi-Hochebene sowie die Messara-Ebene sind von zahlreichen Treibhauskulturen geprägt, in denen Gemüse und Salate sowohl für den Eigenbedarf als auch für den Export angebaut werden. Die Insel gehört zu den größten Olivenölexporteuren der Europäischen Union, Ende der 1990er Jahre wuchsen auf 44 Prozent der landwirtschaftlich genutzten Fläche rund 16 Millionen Ölbäume. Bei Kavousi in Nordostkreta steht einer der ältesten Olivenbäume der Welt. Aus seinen Ästen wurden die Olivenzweige geschnitten, die während der Olympischen Spiele 2004 in Athen den Sportlern aufgesetzt wurden. Kreta besitzt drei Flughäfen in den Städten Iraklio (Heraklion), Chania und Sitia, von denen Sitia nur national angeflogen wird. Fährverbindungen gibt es vor allem nach Piräus (Athen), ganzjährig auch nach Thessaloniki, Santorin, Karpathos, Rhodos oder zur Saison auch von Kissamos nach Gythio auf dem Peloponnes. Wichtigstes öffentliches Verkehrsmittel auf der Insel ist der Busverkehr der Genossenschaft KTEL. Eine Eisenbahnlinie gibt es auf Kreta nicht. Das Straßennetz ist seit den 1980er Jahren ausgebaut worden. Die Schnellstraße 70 (Europastraße 75) wird etappenweise zur Autobahn 70 ausgebaut. Fertiggestellt sind bisher die Umfahrungen von Chania, Rethymno und Iraklio. Nebenstraßen, die noch in aktuellen Reiseführern als Schotterpisten beschrieben sind, sind in der Zwischenzeit asphaltiert, so zum Beispiel die Ost-West-Verbindung durch die Asfendou-Ebene von Asi Gonia bis Imbros. Gerade der bis dahin benachteiligte Süden Kretas profitierte von dem Ausbau. Im Vergleich mit dem BIP der EU ausgedrückt in Kaufkraftstandards erreicht Kreta einen Index von 81,5 (EU-25: 100) (2003). Kreta besitzt zwei Universitäten: die Universität Kreta und die Technische Universität Kreta sowie einige Hochschulen: Technisches Ausbildungsinstitut Iraklio etc. Kehlkopf. Der Kehlkopf – in der medizinischen Fachsprache Larynx (von altgriechisch "lárynx" ‚Kehle‘) – bildet als Teil des Atemtrakts den Übergang vom Rachen zur Luftröhre im vorderen Halsbereich. Von außen sieht man beim Menschen in der Mitte des Halses den Adamsapfel, der dem mittigen Vorsprung des Schildknorpels entspricht. Embryonal entsteht er aus dem vierten bis sechsten Kiemenbogen. Die Erkrankungen des Kehlkopfs sind Gegenstand der "Laryngologie", einem Teilgebiet der Hals-Nasen-Ohren-Heilkunde, der entsprechende Spezialist heißt "Laryngologe". Der Kehlkopf hat zwei Funktionen. Zum einen schützt er die Luftröhre vor Speisestücken, indem beim Schlucken der Kehlkopf nach vorne oben gezogen und damit mit dem Kehldeckel verschlossen wird. Zum anderen regulieren die Stimmlippen bei Säugetieren den Strom der Atemluft und erzeugen durch ihre Schwingungen Töne bzw. die menschliche Stimme. Vögel besitzen zwar ebenfalls einen Kehlkopf, aber ohne Stimmlippen und Kehldeckel. Für die Stimmbildung ist bei Vögeln die Syrinx, auch als „unterer Kehlkopf“ bezeichnet, zuständig. Aufbau. a>"), 7 Musculus vocalis, 8 Schildknorpel (Cartilago thyroidea), 9 Ringknorpel (Cartilago cricoidea), 10 Cavum infraglotticum, 11 erster Luftröhrenknorpel, 12 Luftröhre ("Trachea") Der Kehlkopf besteht aus drei großen Knorpeln, dem Schildknorpel ("Cartilago thyroidea"), dem Ringknorpel ("Cartilago cricoidea"), und dem Kehldeckel ("Epiglottis"), den zwei kleineren Stellknorpeln ("Cartilagines arytaenoideae") sowie den ihnen anliegenden Hörnchenknorpeln ("Cartilagines corniculatae"). Der Schildknorpel bildet die vordere Wand des Kehlkopfes und ist vor allem an seiner Oberkante von außen zu sehen und zu tasten. Darunter liegt der waagrechte Ringknorpel, dem die Knorpelspangen ("Cartilagines tracheales") der Luftröhre folgen. Die Stellknorpel (Aryknorpel) sitzen dem Ringknorpel hinten gelenkig auf. Der Kehldeckel ist mit dem Schildknorpel verbunden und verschließt den Kehlkopfeingang gegen den Rachen. Die Knorpel werden von verschiedenen Bändern zusammengehalten, und der Kehlkopf ist oben durch eine Membran am Zungenbein ("Os hyoideum") aufgehängt. Die Stimmlippen oder Stimmbänder ("Ligamenta vocalia") sind zwischen den Stellknorpeln und der Hinterwand des Schildknorpels gespannt. Sie werden von speziellen Muskeln (→ Kehlkopfmuskulatur) bewegt. Innen ist der Kehlkopf mit einer Schleimhaut ausgekleidet. Durch die Regulation der Weite und Spannung der Stimmlippen, durch die sie längs durchziehenden Stimmmuskelfasern und vor allem durch die Kehlkopfmuskeln wird der Grundklang von Stimme bzw. Gesang geformt. Dieser primäre Kehlkopfklang (Primärschall) wird durch Bewegungen der Zunge und des Mundes zu Sprachlauten geformt. Ihren vollen Klang erhält die Stimme mittels der Resonanzen im Rachen-, Mund-, und Nasenraum (→ Vokaltrakt). Topografie. Oberhalb des Kehlkopfes liegt der Rachen (Pharynx), in den sowohl die Luft aus Mund und Nase als auch die Nahrung gelangt. Nach unten setzt sich der Kehlkopf in die Luftröhre fort. Der Anfang der Speiseröhre liegt hinter, bei Tieren über dem Kehlkopf. Beide liegen in einem Raum von lockerem Bindegewebe, das vorne vom mittleren und hinten vom hinteren Blatt der Halsfaszie begrenzt wird. Das mittlere Blatt spannt sich zwischen den beiden Musculi omohyoidei (Schulterblatt-Zungenbeinmuskeln) aus, das hintere umgibt die Halswirbelsäule mit ihrer Muskulatur. Unterhalb des Kehlkopfes liegt die Schilddrüse. Seitlich von Kehlkopf und Speiseröhre liegt im selben Raum die Gefäßnervenstraße des Halses. Funktion. Der Kehlkopf spielt eine wesentliche Rolle bei der menschlichen Stimmbildung (Phonation) bzw. der Lautbildung bei den übrigen Säugetieren. Der "Musculus cricoarytenoideus posterior" (auch „Posticus“, bei Tieren "Musculus cricoarytenoideus dorsalis") entspringt hinten am Ringknorpel und setzt hinten am "Processus muscularis" (Muskelvorsprung) des Stellknorpels der jeweiligen Seite an, zieht ihn nach innen und damit die Stimmlippen, die vorne vor dem Gelenk mit den Stellknorpeln verbunden sind, auseinander. Diesem Stimmritzenöffner stehen drei Schließer der Stimmritze ("Glottis") gegenüber. Der "Musculus cricoarytenoideus lateralis" entspringt vorne außen am Ringknorpel, setzt ebenfalls am Processus muscularis an und macht damit genau die gegenläufige Bewegung wie der Posticus. Der quere und der schräge Stellknorpelmuskel ("Mm. arytenoidei obliquus und transversus") verbinden direkt die beiden Stellknorpel und ziehen sie zusammen. Für die Formung der Stimme ist der Stimmbandmuskel ("Musculus vocalis") wichtig, der als Teil des "Musculus thyroarytaenoideus" der Außenseite der Stimmlippen anliegt und ihre Spannung reguliert. Die Frequenz, mit der die Stimmbänder schwingen, bestimmt die Tonhöhe, die Stärke des Luftstroms dagegen die Lautstärke. Neben den Resonanzen im Rachen-, Mund-, und Nasenraum kommt es durch Resonanz auch zu Vibrationen in der Brust und den Nasennebenhöhlen. Bei Brustresonanzen ist die Stimme getragener und etwas dunkler als bei Kopfresonanz. Ständige Heiserkeit ohne erkennbare organische Ursache beruht oft darauf, dass die Resonanzräume wenig eingesetzt werden und deshalb die Stimme über Gebühr beansprucht wird. Beim Schlucken wird der Kehlkopf sowohl am Zungenbein als auch gegen das Zungenbein nach oben gezogen und damit der Kehldeckel gegen das Fettpolster der Halswand gedrückt. Durch die Kontraktion des Zungengrundes, der die vordere Halswand bildet, verschließt der Kehldeckel den Kehlkopfeingang vollständig. Beim Versuch, während des Essens gleichzeitig zu reden, kann es passieren, dass kleine Mengen Speise oder Flüssigkeit die Schleimhaut von Kehlkopf und Luftröhre berühren, was zu einem starken Hustenreiz führt. Nerven- und Gefäßversorgung. Der Nervus laryngeus superior (oberer Kehlkopfnerv, bei Tieren als "Nervus laryngeus cranialis" bezeichnet) versorgt motorisch den äußeren Kehlkopfmuskel (M. cricothyroideus) und sensibel die Kehlkopfschleimhaut oberhalb der Stimmritze. Er stammt vom Nervus vagus (X. Hirnnerv). Der Nervus laryngeus inferior (unterer Kehlkopfnerv, bei Tieren als "Nervus laryngeus caudalis" bezeichnet) versorgt motorisch die innere Kehlkopfmuskulatur und sensibel die Schleimhaut des Kehlkopfes unterhalb der Stimmritze. Er stammt ebenfalls aus dem X. Hirnnerv. Die Arteria laryngea superior (obere Kehlkopfarterie), die den Kehlkopf oberhalb der Stimmritze versorgt, ist ein Ast der Arteria thyroidea superior. Sie erreicht ihr Ziel durch eine Perforation in der Membran ("Membrana thyrohyoidea"), an der der Kehlkopf am Zungenbein aufgehängt ist. Die Arteria laryngea inferior (untere Kehlkopfarterie) stammt aus dem Truncus thyrocervicalis ("A. thyroidea inferior") der Schlüsselbeinarterie (A. subclavia). Sie versorgt aufsteigend die Luftröhre und den unteren Teil des Kehlkopfes. Der Verlauf der Venen orientiert sich an dem der Arterien, wie in den meisten Regionen des Körpers. Krankheiten. Fehlbildungen (Formanomalien) des Kehlkopfs sind relativ selten. Eine Entzündung des Kehlkopfs wird als Laryngitis bezeichnet. Sie kann beispielsweise bei einem Infekt der Atemwege auftreten. Bestimmte Infektionskrankheiten äußern sich bevorzugt als Kehlkopfentzündung, beispielsweise die Diphtherie („Krupp“). Als Pseudokrupp wird die "Laryngitis subglottica", eine Entzündung des Kehlkopfes knapp unterhalb der Stimmbänder bezeichnet. Der Kehlkopfkrebs ist eine typische Erkrankung von Rauchern. Eine Aussackung des Ventriculus laryngis wird als Laryngozele bezeichnet. Eine schlaffe Lähmung der Stimmritze mit Intermediärstellung eines oder beider Stimmbänder infolge einer Schädigung des Nervus laryngeus inferior (Nervus laryngeus recurrens) und des Nervus laryngeus superior bezeichnet man als Kadaverstellung. Bei Pferden tritt eine einseitige Lähmung des Nervus laryngeus recurrens recht häufig auf und führt zu einer einseitigen Stimmbandlähmung (Kehlkopfpfeifen, englisch "roaring"). Die Recurrenslähmung und die darauf folgenden Atembeschwerden können in Zukunft vielleicht mit einem Kehlkopf-Schrittmacher behandelt werden. In Innsbruck, Gera und Würzburg wurde dieses Gerät bereits erfolgreich bei Patienten eingesetzt. So konnte die Atemluftversorgung verbessert werden ohne die Stimme und das Sprechen negativ zu beeinflussen. Bei Verletzungen des Nervus laryngeus superior kann es u.a. zu Bewegungseinschränkungen des Musculus cricothyroideus kommen. Da dieser für die Grobspannung der Stimmbänder und die damit verbundene Regulierung der Stimmlage zuständig ist, kann es bei Einschränkungen zum sogenannten „Roboter-Phänomen“ kommen. Dabei büßt der Patient die Fähigkeit ein, die Stimmlage beim Sprechen zu regulieren, um die Tonhöhe zu ändern. Darüber hinaus klingt die Stimme heiser und kraftlos. Untersuchung. 1858 wurde von Ludwig Türck und Johann Nepomuk Czermak die Laryngoskopie als Spiegelbetrachtung mit von außen reflektiertem Licht, also unter Verwendung eines Kehlkopfspiegels und eines Stirnspiegels, in die klinische Praxis eingeführt. Zur Untersuchung des Kehlkopfes werden heutzutage neben der Untersuchung mittels Kehlkopfspiegel unter Beleuchtung mit einer auf der Stirn getragen Kaltlichtquelle oder LED-Beleuchtung vor allem Endoskope eingesetzt. Das Larynx-Endoskop, ein starres Endoskop, das in den Mund eingeführt wird und ermöglicht über eine 90°- oder gelegentlich auch 70°-Optik den Blick abwärts in den Kehlkopf, andererseits ein flexibles Endoskop, das über Nase und Nasenrachen eingeführt werden und auf diesem Wege die Untersuchung des Kehlkopfes ermöglicht. Von außen kann man den Kehlkopf tastend untersuchen oder zur Bildgebung ein Computertomogramm bzw. die Kernspinuntersuchung einsetzen. Klasse (Biologie). Die Klasse ist eine hierarchische Stufe der biologischen Systematik. Eine Klasse steht zwischen Stamm und Ordnung. Mehrere Klassen werden in manchen Fällen zu einer Überklasse zusammengefasst. Eine Klasse kann außerdem in Unterklassen aufgeteilt werden. Manchmal wird in der Zoologie zusätzlich der Begriff "Infraklasse" (lat. ' „darunter“) oder "Teilklasse" verwendet, wenn ein Taxon zwischen Unterklasse und Überordnung nötig ist. Zwischen der Überklasse und der Klasse wird bei Bedarf noch die Reihe gestellt. Beispiele von Klassen innerhalb des Unterstammes der Wirbeltiere sind die Reptilien, Amphibien oder Säugetiere. Einem anderen Stamm, dem der Arthropoden, wird die Klasse der Insekten zugeordnet. Kelkheim (Taunus). Kelkheim (Taunus) ist eine Stadt im Vortaunus (Rhein-Main-Gebiet). Ihr Kerngebiet liegt rund zehn Kilometer nordwestlich des Frankfurter Stadtteils Unterliederbach. Geografische Lage. Kelkheim liegt unmittelbar nordwestlich von Frankfurt am Main. Weitere Nachbargemeinden sind Hofheim am Taunus, Eppstein, Glashütten, Königstein im Taunus, Bad Soden am Taunus und Liederbach am Taunus. Wichtige Nahziele sind neben Frankfurt am Main (10 km südöstlich), Wiesbaden (etwa 25 km) und Mainz (etwa 30 km). Ausdehnung des Stadtgebiets. Das Stadtgebiet reicht von der Mainebene (etwa) bis zum Taunuskamm, höchste Erhebung ist der Eichkopf mit Höhe. Weitere nennenswerte Berge sind der Staufen (), der Rossert () und der Atzelberg (). Durch Kelkheimer Stadtgebiet fließen der Liederbach (durch Hornau, Mitte, Münster) und der Krebsbach, dessen Quelle in Ruppertshain liegt und der in Fischbach zum Fischbach wird. Seit 1958 wurde in mehreren Etappen vor allem an der Renaturierung und Landschaftsgestaltung des Liederbachs gearbeitet, auch zur Verbesserung des Hochwasserschutzes. Bis 2014 sollen die Arbeiten, die sich auf eine Gesamtstrecke von 3,5 km Flusslauf beziehen, beendet sein. Nachbargemeinden. Kelkheim grenzt im Norden an die Gemeinde Glashütten und die Stadt Königstein im Taunus (beide Hochtaunuskreis), im Osten an die Stadt Bad Soden am Taunus und die Gemeinde Liederbach am Taunus, im Süden an die kreisfreie Stadt Frankfurt am Main, sowie im Westen an die Städte Hofheim am Taunus und Eppstein. Geschichte. Die Aufwertung zur Stadt erfolgte jedoch erst zum 1. April 1938, als der Oberpräsident der preußischen Provinz Hessen-Nassau, Philipp Prinz von Hessen, die Eingemeindung von Münster und Hornau nach Kelkheim verfügte und der so entstandenen Großgemeinde gleichzeitig die Stadtrechte verlieh. Die insgesamt 5300 Einwohner fragte dabei jedoch niemand, was vor allem in Münster zu großem Unmut führte. Nach dem Zweiten Weltkrieg bemühten sich dann auch Münsterer Bürger, ihre Eigenständigkeit zurück zu erlangen. Erfolglos: Trotz einer Unterschriftensammlung bestätigte die Landesregierung den für eine Stadtentwicklung wichtigen Zusammenschluss. Seine heutige Gestalt mit sechs Stadtteilen erhielt Kelkheim dann im Zuge der Hessischen Gebietsreform. Am 1. Januar 1977 schlossen sich die Stadt Kelkheim und die bis dahin selbständigen Gemeinden Fischbach und Rossert zur neuen Stadt Kelkheim zusammen. Auch hierbei gab es Widerstände. So hatten sich Ruppertshain und Eppenhain am 31. Dezember 1971 zur Gemeinde Rossert zusammengeschlossen, um dem Zusammenschluss mit Kelkheim zu entgehen. Am 1. Januar 1978 wurde der Name der Stadt amtlich in "Kelkheim (Taunus)" geändert. Stadtverordnetenversammlung. Der Kelkheimer Magistrat setzt sich in der Wahlperiode 2011/16 aus einem hauptamtlichen und elf ehrenamtlichen Mitgliedern zusammen, die von CDU (sechs), FDP (eins), SPD (zwei) und UKW (drei) gestellt werden. Bürgermeister. Bürgermeister von Kelkheim ist Albrecht Kündiger (UKW), der seit dem 1. Juli 2015 im Amt ist. Kündiger ist seit dem Zweiten Weltkrieg der erste Kelkheimer Bürgermeister, der nicht von der CDU gestellt wird. Er setzte sich in der Stichwahl am 28. Juni 2015 mit 60,8 % gegen Sabine Bergold (CDU) durch. Die Wahlbeteiligung lag bei 49 %. Im ersten Wahlgang am 14. Juni 2015 schied zuvor Patrick Falk (FDP) aus, der in Kelkheim als unabhängiger Kandidat antrat. Er erhielt 11 % der Stimmen. Bereits im ersten Wahlgang lag Kündiger mit 46,2 % vor Bergold mit 42,8 %. Die Wahlbeteiligung betrug 47 %. Amtsvorgänger von Albrecht Kündiger war Thomas Horn (CDU), der vom 1. Juni 1995 bis 30. Juni 2015 im Amt war. Wappen. Das Kelkheimer Wappen ist in vier Felder unterteilt, das obere heraldisch rechte Feld zeigt ein silbernes, sechsspeichiges Rad auf rotem Hintergrund (Mainzer Rad). Das Feld oben links zeigt ein rotes Horn vor silbernem Hintergrund. In den beiden Feldern unten wird ein Hufeisen in den wechselnden Farben Rot und Silber dargestellt. Nach dem Zusammenschluss der drei Gemeinden Kelkheim, Hornau und Münster am 1. April 1938 zur Stadt Kelkheim wurde auch beschlossen, ein Stadtwappen entwickeln zu lassen. Durch den Zweiten Weltkrieg verzögerte sich dieses Vorhaben, so dass der Stadt Kelkheim erst am 19. Juni 1950 ihr neues Stadtwappen verliehen werden konnte. Um das Zusammenwachsen der drei vormals unabhängigen Gemeinden zu symbolisieren, setzt es sich aus ehemaligen Ortszeichen der drei damaligen Stadtteile Kelkheim, Hornau und Münster zusammen. So war das Hufeisen ein altes Symbol der Gemeinde Kelkheim, welches bereits 1668 durch ein Siegelabdruck belegt wird. Das Horn wurde als „redendes“ Zeichen für den Ortsnamen Hornau gewählt. Das Rad stellt das Mainzer Rad dar, das Wappen des Kurfürstentums Mainz, zu dem Münster seit 1450 (erstmalige Nutzung des Mainzer Siegels 1694) bis zur Säkularisierung 1803 gehörte. Nach der Eingemeindung von Fischbach, Ruppertshain und Eppenhain am 1. Januar 1977 stand die Entwicklung eines neuen Stadtwappens zur Diskussion, dies wurde allerdings mit der Begründung abgelehnt, dass die neuen Stadtteile bereits mit dem Mainzer Rad repräsentiert seien, da diese ebenfalls zwischen 1581 und 1803 zum Kurfürstentum Mainz gehörten. Flagge. Die Flagge wurde am 22. Oktober 1954 durch das Hessische Innenministerium genehmigt. „In einer weißen Mittelbahn, die von roten Streifen eingefasst ist, das rot und weiß quadrierte Kelkheimer Wappen mit Rad, Horn und Hufeisen.“ Verkehr. Kelkheim besitzt drei Haltebahnhöfe der Königsteiner Bahn, eine S-Bahn-ähnliche Vorortbahn, die im 30-Minuten-Takt von Königstein über Kelkheim und Frankfurt-Höchst zum Frankfurter Hauptbahnhof fährt. Betreiber dieser Bahnstrecke war die Frankfurt-Königsteiner Eisenbahn (FKE), die 2006 von der Hessischen Landesbahn GmbH (HLB) übernommen wurde. Die HLB betreibt im Frankfurter Westen zahlreiche Buslinien. Die Linie 804 des Rhein-Main-Verkehrsverbunds bedient alle sechs Stadtteile. Außerdem fahren die Linien 263 und 815, sowie durch Ruppertshain zusätzlich die Linien 81 und 805 durch Kelkheim. Durch das Kelkheimer Stadtgebiet verlaufen die Bundesstraßen 8 (Frankfurt–Limburg, in Richtung Frankfurt autobahnähnlich ausgebaut), 455 (Wiesbaden–Bad Homburg) und 519 (Rüsselsheim am Main–Königstein). Auf der Bundesautobahn 66 (Frankfurt–Wiesbaden) gibt es eine Abfahrt "Kelkheim", die aber auf dem Gebiet von Frankfurt-Unterliederbach liegt. Stadtbild. "Neue Stadtmitte Süd" von Norden aus gesehen Blick auf den Gimbacher Hof Kelkheim-Mitte besitzt eine verkehrsberuhigte Einkaufsstraße, die "Bahnstraße". Im Süden des Stadtteils wurde im November 2008 die "Neue Stadtmitte" an der Frankenallee eröffnet. Die Hauptstraße der Stadt ist die "Frankfurter Straße", die Kelkheim-Mitte und Münster von Norden nach Süden durchzieht. Wirtschaft. Kelkheim ist bekannt als "Stadt der Möbel". Zahlreiche mittelständisch geprägte Familienunternehmen produzieren und verkaufen bis heute in Kelkheim Möbel, speziell qualitativ gehobene Einrichtungsgegenstände und Stilmöbel. Bekanntestes Produkt war und ist der Frankfurter Schrank. Bis 1997 fand zudem einmal im Jahr in Kelkheim eine überregional bedeutende "Möbelausstellung" statt. Des Weiteren sind in Kelkheim Unternehmen der Papierindustrie und des Werkzeugbaus sowie kleinere und größere Handwerksbetriebe ansässig. Kultur. Kelkheim hat ein lebhaftes kulturelles Leben mit Konzerten von Klassik ("Tage alter Musik") bis Rock, Lesungen, Kabarett und Theateraufführungen, die von der Kelkheimer Kulturgemeinde e. V. bzw. vom Kulturreferat der Stadt veranstaltet werden. Darüber hinaus hat Kelkheim ein Filmtheater mit zwei modernen Kinosälen, welches ehrenamtlich von einem Verein betrieben wird. Ende der 90er Jahre wurde in Kelkheim die Rockband Verlen gegründet. Sport. Mit der TSG Münster besitzt Kelkheim eine früher erfolgreiche Herren-Handballmannschaft, die zwischen 2005 und 2011 in der 2. Handball-Bundesliga spielte. Verschiedene andere Sportvereine bieten ein großes Angebot an Breitensport, auch der örtliche Wanderverein erfreut sich großer Beliebtheit. Die SG Kelkheim Lizzards gehören zu den erfolgreichsten Flag Football-Teams in Deutschland. Kriftel. Kriftel ist eine Gemeinde im Main-Taunus-Kreis in Hessen und liegt zentral im Rhein-Main-Gebiet zwischen Frankfurt am Main und der Landeshauptstadt Wiesbaden. Kriftel wird „Obstgarten des Vordertaunus“ genannt, da auf den Feldern, die um die Gemeinde liegen, neben Getreide Obst angebaut wird, vor allem Erdbeeren und Äpfel. Das herrschende Klima eignet sich gut zum Obstanbau. Geografische Lage. Kriftel liegt zwischen den Großstädten Frankfurt am Main und der Landeshauptstadt Wiesbaden an der Ostgrenze des Main-Taunus-Kreises. Durch Kriftel fließt der Schwarzbach, der zu früheren Zeiten noch "Goldbach" genannt wurde. Durch zunehmende Verschmutzung der anliegenden Lederfabriken wurde er diesem Namen nicht mehr gerecht, inzwischen hat sich die Situation nach der Schließung der Lederfabriken aber wieder gebessert. Kriftel grenzt im Nordosten an den Stadtteil Zeilsheim der kreisfreien Stadt Frankfurt am Main, im Südosten an die Stadt Hattersheim am Main, im Süden an die Stadt Flörsheim am Main sowie im Westen an die Stadt Hofheim am Taunus, mit der Kriftel eine bauliche Einheit bildet. Bevölkerungsentwicklung. Bevölkerungsentwicklung Kriftels in den letzten 100 Jahren Die Bevölkerung Kriftels verteilt sich wie folgt auf die drei Altersgruppen: 0–14 Jahre: 13,8 %, 15–65 Jahre: 67,4 %, über 65 Jahre: 18,8 %. Damit hat Kriftel gemeinsam mit Hattersheim den höchsten Anteil Personen im erwerbsfähigen Alter im Main-Taunus-Kreis. Die Bevölkerungsdichte beträgt innerhalb der Gemarkung 1.646 Einwohner pro Quadratkilometer. Beachtet man jedoch nur die bebauten Gebiete, so ergibt sich eine Dichte von 3.606 Einwohner pro Quadratkilometer. Da die Neubaugebiete dichter bebaut sind, und stetig Baulücken aufgefüllt werden, ist in Zukunft mit einem Steigen der Bevölkerungsdichte zu rechnen. Frühgeschichte. Um 72/73 n. Chr. errichten die Römer auf einer Anhöhe über Kriftel (heute Hofheimer Gebiet, dort steht nun das Landratsamt des Main-Taunus-Kreises) ein Steinkastell zur Sicherung ihrer Besiedlungen. Das Kastell Hofheim steht auch mit einem auf dem Hofheimer Kapellenberg errichteten Wachturm in Sichtkontakt. An der heutigen Gemarkungsgrenze entstand ein Lagerdorf, welches seit der Entdeckung im Jahre 1841 immer wieder Ziel archäologischer Ausgrabungen war. Mittelalter. Im Juli 754 übernachtete der Leichenzug des Bonifatius nach Fulda vermutlich einmal am Übergang des Schwarzbachs auf dem Gelände der Ortschaft. Zu Ehren des Missionars wurden mehrere Bonifatiuskapellen errichtet (erstmals 1277 nachweisbar). Kriftel wurde im Jahr 790 n. Chr. erstmals anlässlich einer Schenkung an das Kloster Fulda urkundlich erwähnt, damals noch unter dem Namen Cruoftera "(Schluchtenbach)". In den ältesten erhaltenen Urkunden wurde Kriftel auch häufig als "Cruftera" oder "Cruftero" bezeichnet (mittelhochdeutsch Cruft – "eingegraben"). Bis ins 13. Jahrhundert wandelte sich diese Bezeichnung zu "Cruftela" beziehungsweise "Cruftila", später zu "Crüfftel". Ähnlich alt war der Ort Heddingheim auf der Gemarkung des heutigen Kriftel. Heddingheim wurde im 16. Jahrhundert zur Wüstung. Kriftel steht im 13. Jahrhundert wie die Nachbarstadt Hofheim am Taunus unter dem Einfluss der Herren von Falkenstein. Im 14. Jahrhundert fällt das Dorf dann an Kurmainz. Von der Zugehörigkeit zu Mainz zeugt heute noch das Mainzer Rad im Wappen der Gemeinde Kriftel. Später wird das Amt Hofheim, zu dem auch Kriftel gehört an die Grafen von Eppstein verpfändet. Nach deren Aussterben werden diese von den Grafen zu Stollberg beerbt, die ab 1540 die Reformation auch in Kriftel einführen. 1559 wird die Pfandschaft durch das Kurfürstentum Mainz wieder eingelöst und Kriftel damit wieder zurück zum katholischen Glauben geführt. Neuzeit. Der Dreißigjährige Krieg 1618 bis 1648 hinterließ in Kriftel starke Folgen. Dreizehn Höfe der um 1609 noch hier lebenden 44 Familien sowie eine Mühle fielen dem Krieg zum Opfer. Die erste Bonifatiuskapelle wurde während des Krieges ebenfalls zerstört, 1755 jedoch wieder neu gebaut. Besonders schwere Spuren hinterließen die Schweden im Jahre 1635, die u.a. den 73-jährigen Krifteler Pfarrer Johann Wagner hängten. Das Dorf erholte sich trotz hoher Abgaben relativ schnell vom Krieg, wurde am 6. März 1671 allerdings von einem weiteren Unglück getroffen. Von 34 Häusern, die aus Fachwerk bestanden, überstanden nur vier sowie Teile der Kirche einen – durch einen Sturm noch beschleunigten – Brand, der morgens gegen 10 Uhr in der Scheune des Schultheißen (Bürgermeisters) Johann Ohaus ausgebrochen war. Im Jahre 1792 fallen französische Revolutionssoldaten in die Gegend ein und besetzen die Region zwischen Mainz und Frankfurt. Anfang des 19. Jahrhunderts zählte Kriftel 628 Einwohner. 1803 werden die geistlichen Besitzungen aufgelöst. Auch das Erzbistum Mainz verliert große Teile und Kriftel wird wie andere rechtsrheinische Gebiete dem neugebildeten Herzogtum Nassau zugeschlagen. Nach Ende des Deutschen Krieges wird das Herzogtum Nassau von Preußen annektiert. Kriftel profitiert jedoch von der preußischen Herrschaft dahingehend, dass die Strecke der Main-Lahn-Bahn auch an Kriftel vorbeiführt. Am 15. Oktober 1877 hält erstmals ein regulärer Zug am Bahnhof des Dorfes. Vor allem diese infrastrukturelle Anbindung sowie der Aufschwung der chemischen Industrie am Main, speziell der Farbwerke Hoechst AG, vorm. Meister Lucius & Brüning, führt zum Beginn des 20. Jahrhunderts zu einem stetigen Bevölkerungszuwachs. Jüngere Geschichte. In der Nachkriegszeit ab 1945 bis zur Ölkrise 1973 wuchs Kriftel rasant mit einer durchschnittlichen Jahresrate von 4,5 % von 2.221 Einwohnern auf 8.335 an. Anfangs siedelten sich durch günstiges Bauland und verschiedene Bauprojekte vor allem Angehörige der ehemaligen Hoechst AG in Kriftel an. 1955 wurde die Krifteler Kläranlage eingeweiht, 1960 die ersten Hochhäuser am Berliner Platz gebaut. 1967 wurde die Kreissporthalle und 1968 schließlich der Sportplatz in Kriftel fertiggestellt. Ein Großprojekt der Gemeinde war der 1972 eingeweihte Freizeitpark mit Schwimmbad, der etwa 2 bis 3 % der Fläche Kriftels einnimmt. Die Schwarzbachhallen werden 1973 eröffnet. Der Kampf um die Selbstständigkeit. Im November 1970 legte der hessische Innenminister Johannes Strelitz (SPD) eine Modellrechnung zur Gebietsreform in Hessen im Main-Taunus-Kreis vor. Danach sollte Kriftel Stadtteil von Hofheim werden. Der Krifteler Bürgermeister, Hans-Werner Börs (CDU) lehnte diese Planung in seinem Antwortschreiben klar ab. Am 26. Februar 1971 beschloss der Kreistag mit seiner Mehrheit aus SPD und FDP eine Vorlage, die die Eingemeindung vorsah. Der einstimmige Beschluss der Gemeindevertretung zur Eigenständigkeit im Februar 1971 und eine erneute Resolution der Gemeindevertretung Mitte 1973 führte jedoch weder im Kreis noch im Land zu einem Umdenken. Mit Schreiben vom 17. Dezember 1973 teilte Innenminister Hanns-Heinz Bielefeld (FDP) der Gemeinde mit, die Eingemeindung durchführen zu wollen. Am 4. Januar 1974 lehnte die Gemeindevertretung die Planung erneut ab. Auch der Magistrat von Hofheim lehnte am 27. Februar 1974 eine zwangsweise Eingemeindung von Kriftel ab. Eine Plakatkampagne mit einem Igel als Symbol des Widerstandes wurde gestartet. Anfang März befragte das Institut für Demoskopie Allensbach 10 % der Bürger und ermittelte, dass 95,2 der Befragten sich für die Selbstständigkeit aussprachen. Am 17. März 1974 sprachen sich 98,3 % der Wähler in einem Bürgerentscheid für die Selbstständigkeit aus. Am 9. Mai 1974 sprach sich der Landtag in erster Lesung für die Eingemeindung aus, am 12. Juni 1974 der Landtagsausschuss für Verwaltungsreform. Die entscheidende Abstimmung im Landtag fand am 19. Juni 1974 statt. Bereits nachdem das Gesetz zur Neugliederung des Main-Taunuskreises aufgerufen war, wurde die Sitzung unterbrochen und in letzter Minute die Eigenständigkeit Kriftels (und Sulzbachs) in das Gesetz übernommen. 1989 überschreitet die Einwohnerzahl erstmals die Marke von 10.000. Kurz darauf, im Jahr 1990 feierte die Gemeinde ihr 1200-jähriges Bestehen. Seit über 40 Jahren gibt es Bestrebungen zum Bau einer Umgehungsstraße im Zuge der Bundesstraße 519, die trennend die zusammengewachsenen Ortslagen von Hofheim und Kriftel durchschneiden würde. Wegen der zu erwartenden Zerschneidung des Randes der Krifteler Ortslage, der Lärmbelastung für die an der Strecke liegenden dicht bebauten Wohngebiete und wegen des enormen Landschaftsverbrauchs haben Anwohner aus Kriftel und Hofheim gegen ein Planfeststellungsverfahren des Regierungspräsidiums Darmstadt mehr als 6.000 Einwendungen erhoben. Der für 2011 vorgesehene Erörterungstermin musste aufgrund dessen bis auf Weiteres ausgesetzt werden. Bürgermeister. 1945 bis 1946 war Willy Wolfermann (1898–1973, CDU) Bürgermeister von Kriftel. Auf ihn folgten Georg Richberg (1949–1967) und Josef Wittwer (beide CDU), während dessen Amtszeit der Freizeitpark verwirklicht wurde. In die Amtszeit von Wittwers Nachfolger Börs (CDU) fällt dann die Neugestaltung der Ortsmitte mit einer kleinen Geschäftszeile mit Restaurants, Supermarkt, Bäckerei, Apotheke, Drogerie, kleinen Geschäften, etc. Der größte politische Skandal der Stadt war die Verhaftung von Bürgermeister Börs wegen Korruptionsverdachts am Buß- und Bettag 1991. Im „Tausch“ gegen Parteispenden zu Gunsten der CDU seien fingierte Rechnungen an den Schwarzbachverband gestellt worden. Börs wird vorgeworfen, „Schwierigkeiten bei der Baugenehmigung für einen große Werkshalle“ aus dem Weg geräumt zu haben. Auch zu teuren Reisen habe er sich einladen lassen und eine Baufirma habe ihm verbilligt ein Haus vermietet. Der Bürgermeister beteuert seine Unschuld und viele Einwohner demonstrieren für das beliebte Gemeindeoberhaupt mit Trommeln und Fackelzügen. Verurteilt wird Börs schließlich nicht. Paul Dünte (CDU), der Börs im Amt des Bürgermeisters nachfolgt, legt die grundsätzlichen Planungen für die Neubaugebiete "Am Erdbeeracker" und "Ziegeleipark" fest. Christian Seitz (CDU) folgt Dünte (Amtszeit 1994 bis 2006) nach. Er war ursprünglich im Hofheimer Stadtteil Wallau aufgewachsen. Seitz setzte sich am 26. März 2006 mit 60,4 % der Stimmen im ersten Wahlgang gegen Karl-Heinz Greb (SPD) durch. Dünte (CDU) trat nicht wieder zur Wahl an. Am 4. März 2012 wurde Christian Seitz (CDU) mit 75,1 % für eine zweite Amtszeit von sechs Jahren gegen seine Herausforderin Regina Vischer (B'90/Die Grünen), die 24,9 % erhielt, wiedergewählt. Partnerstadt. Partnerstadt Kriftels ist die französische Stadt Airaines, Picardie in Frankreich. Es werden regelmäßig von der Gemeinde Kriftels Austauschfahrten organisiert. Zu Ehren der Städtepartnerschaft wurde der Bahnhofsplatz, an dem sich auch die kostenfreie und von ehrenamtlichen Mitarbeitern getragene Gemeindebücherei befindet, in "Platz von Airaines" umbenannt. Freizeitpark und Freibad. Die Gemeinde nennt einen Freizeitpark ihr eigen, in dem es neben größeren Grünflächen auch einen Minigolf-Platz, zwei Fußballfelder, einen größeren asphaltierten Platz mit einer Funbox für Inline-Skater und Skateboarder, sowie einen Spielplatz mit Klettergerüst und zwei Hangrutschen gibt. Außerdem gibt es im Freizeitpark auch einen Weiher, auf dem im Sommer die Enten schwimmen. Ebenfalls in dem Park findet die alljährliche Kerb statt. Der erste Teil des Parks wurde 1972 eröffnet, im Jahre 1978 folgt eine Erweiterung. 2004 wird eine ehemals landwirtschaftlich genutztes Grundstück in den Freizeitpark integriert und neu gestaltet. Insgesamt wird die Gesamtfläche des Freizeitparks mit ca. 105.000 Quadratmetern angegeben. Das Krifteler Freibad, genannt "Parkbad", ist in der Region bekannt. Es befindet sich auf dem Gelände des Freizeitparks. Zum Schwimmbad gehören drei Beachvolleyball-Plätze. Das Parkbad wurde im Zeitraum Herbst 2008 bis Frühjahr 2010 umfassend saniert. Beginnend in Kriftel und an der Alten Papierfabrik in Hattersheim-Okriftel endend gibt es einen 1998 eingerichteten Planetenweg im Maßstab 1:1.000.000. Feste. Die größten Feste der Gemeinde sind das alljährlich stattfindende "Lindenblütenfest" und die "Krifteler Kerb". Der Kriftler Adventsmarkt gewinnt von Jahr zu Jahr an Größe und Bedeutung. St. Vitus. St. Vitus steht auf dem Gelände der ältesten Kirche des Orts. Der Grundstein datiert aus dem Jahr 1008. Beim großen Brand von 1671 wurde die katholische Kirche teilweise beschädigt. Nach der Wiederherrichtung erfolgte jedoch lange Zeit keine Renovierung mehr. Im Zuge des Anstiegs der Bevölkerung und des baulich schlechten Zustands wurde ein größerer Kirchenneubau verwirklicht. Nach Abriss der alten Kirche wurde St. Vitus auf dem gleichen Platz nach einer dreijährigen Bauzeit (1865–1868) 1868 geweiht. St. Vitus ist mit ihren beiden Türmen als einzige Kirche im Main-Taunus-Kreis mit zwei Türmen bekannt. In den 1990er Jahren erfolgte eine Innenrestaurierung. Dabei wurden alte Deckenfresken wieder freigelegt. Auferstehungskirche. Nachdem Kriftel im Jahre 1559 wieder durch das Kurfürstentum Mainz zum katholischen Glauben zurückgeführt worden war, war Kriftel jahrhundertelang eine fast ausschließlich katholische Gemeinde. Durch den Zuzug von Heimatvertriebenen und Ausgebombten nach dem Zweiten Weltkrieg stieg die Zahl der evangelischen Christen in Kriftel rasch an. 1951 wurde der Bau einer evangelischen Kirche beschlossen, der Bau erfolgte dann 1952/1953. Die damals noch "Gustav-Adolf-Kirche" genannte Kirche wurde 1953 eingeweiht. 1970 wurde sie dann in "Auferstehungskirche" umbenannt. Bonifatiuskapelle. Die erste Kapelle, die zum Angedenken des Missionars erbaut worden ist, wurde während des Dreißigjährigen Krieges zerstört. 1755 erfolgte der Wiederaufbau. Jahrhunderte später stand dieser Bau den fortschreitenden Straßenbauten im Weg und wurde 1959 abgerissen. An ihrer Stelle wurde beim Limburger Weg neben der L 3011 ein kleines Denkmal errichtet. Auf einer Anhöhe entstand die heutige und dritte Bonifatiuskapelle. Sie wurde 1958 eingeweiht und 2004 grundlegend renoviert. Die Kapelle ist heute eine der Stationen auf dem Pilgerweg der Bonifatiusroute. Freie evangelische Gemeinde Main-Taunus (Kriftel). Seit 1985 gibt es in Kriftel die Freie ev. Gemeinde Main-Taunus (FeG), eine christliche Freikirche, die Mitglied ist im Bund Freier ev. Gemeinden mit Sitz in Witten (Ruhr). Im Jahr 2014 fusionierte sie mit der freien Christusgemeinde aus Hofheim. Sie kommt ohne ein eigenes Gebäude aus und trifft sich sonntags zu Gottesdiensten im Freizeithaus der Weingartenschule oder in Hofheim im Langgewann 6, sowie zu Hauskreisen in den Privathäusern. Kriftel erlebt Kirche. Die drei Krifteler Kirchengemeinden arbeiten auf ökumenischer Basis rege unter dem Motto „Kriftel erlebt Kirche“ zusammen. Vereine. Die Gemeinde ist geprägt von einer Vielzahl von Freizeitangeboten und Vereinen. Zu den wichtigsten Vereinen gehören der SV 07 Kriftel sowie die Turn- und Sportgemeinde von 1884 e.V. Kriftel. Außerdem sind die Krifteler als Feiervolk bekannt. So gibt es jährlich einige große Faschingssitzungen die vom KKK (Kriftler Karnevals Klub) veranstaltet werden. Die Gemeinde bietet einen Jugendtreff im Freizeithaus der Weingartenschule an sowie viele weitere Angebote für Kinder und Jugendliche wie zum Beispiel die Ferienspiele in den Sommerferien oder die Spiele im Park die zu einem großen Teil ehrenamtlich organisiert werden. Verkehr. Kriftel liegt an der Autobahn A 66 und hat mit Frankfurt-Zeilsheim und Hofheim eine gemeinsame Anschlussstelle. Auf dem Gemeindegebiet liegt außerdem das Krifteler Dreieck, das A 66 und B 40 verknüpft. Die Autodichte liegt bei 609 Pkw pro 1000 Einwohner, was in Deutschland überdurchschnittlich, im Main-Taunus-Kreis unter dem Durchschnitt liegt. Kriftel besitzt seit 1877 eine Bahnstation an der Main-Lahn-Bahn (Frankfurt am Main–Limburg an der Lahn), die heute von der Linie S2 der S-Bahn Rhein-Main bedient wird. Außerdem verkehren Regionalbusse der Main-Taunus-Verkehrsgesellschaft. Industrie. 51 % der Arbeitsplätze in Kriftel sind im Bereich der Industrie angesiedelt. Das ist Rekord im Main-Taunus-Kreis. Kriftel ist Hauptsitz des Gaseherstellers Castolin Eutectic. HP Velotechnik, der europäischer Marktführer für Liegeräder, nutzt ebenfalls die Infrastruktur der Krifteler Gewerbegebiete. Schulen. In Kriftel gibt es drei Schulen: die Lindenschule (Grundschule), die über einen großen Schulhof mit Fußballplatz verfügt, die Weingartenschule (Gesamtschule), welche sich direkt neben der Lindenschule befindet, und die Konrad-Adenauer-Schule (Berufsschule). Kronberg im Taunus. a> der Stadt Kronberg im Taunus Die Stadt Kronberg im Taunus (bis zum 17. Oktober 1933 Cronberg geschrieben) ist ein staatlich anerkannter Luftkurort im Hochtaunuskreis im Land Hessen und Teil der Stadtregion Frankfurt, der größten Agglomeration im Rhein-Main-Gebiet. Sie hat ihren Namen nach der Burg Kronberg, von 1220 bis 1704 Stammsitz der Ritter von Kronberg. Der Vordertaunus, insbesondere Kronberg sowie die Nachbarstadt Königstein im Taunus sind für ihre teuren Wohnlagen mit einer Reihe von Villen bekannt. Zudem wies die Stadt Kronberg im Taunus im Jahr 2007 einen weit überdurchschnittlichen Kaufkraftindex von 179 Prozent des Bundesdurchschnitts (100 Prozent) auf und belegt damit einen bundesweiten Spitzenwert. Nachbarstädte. Kronberg grenzt im Norden und Osten an Oberursel, im Südosten an Steinbach, im Westen an Königstein sowie im Süden an Eschborn und Schwalbach (beide im Main-Taunus-Kreis). Gliederung. Kronberg besteht aus den drei Stadtteilen: Kronberg (8015 Einwohner), Oberhöchstadt (6211 Einwohner) und Schönberg (3833 Einwohner) (Stand: 31. Dezember 2009). Stadtbild. Kronberg liegt am Fuße des Taunus, im Norden, Westen und Osten von Wäldern umgeben. Neben einer sehr gut erhaltenen geschlossenen Altstadt mit der Burg Kronberg (mit Freiturm (Bergfried), ältestes Gebäude der Stadt, 13. bis 16. Jahrhundert), dem „Hellhof“ (ein von den Kronberger Rittern erbauter Adelshof, erstmals 1424 genannt, heute teilweise zur Galerie umgebaut), dem „Recepturhof“ (Kurmainzer Verwaltungsgebäude), der ev. Kirche St. Johann (1440), der „Streitkirche“ (1758) sind noch Schloss Friedrichshof (1889–1893, seit 1954 „Schlosshotel Kronberg“), der Viktoriapark, der Edelkastanienwald, die Streuobstwiesen und die Kronthaler Mineralquellen im Quellenpark Kronthal erwähnenswert. Seit dem 28. Juni 1966 ist Kronberg staatlich anerkannter Luftkurort. Geschichte. Von der frühgeschichtlichen Besiedlung der Gegend um Kronberg zeugen verschiedene Funde. Auf dem "Altkönig" () finden sich Ringwälle aus der Frühlatènezeit (etwa 400 v. Chr.). Zu karolingischer Zeit bestand bereits eine Befestigungsanlage auf dem "Hünerberg", wie der dortige Ringwall belegt. Am 24. August 782 erste urkundliche Erwähnung der "Heichsteter marca" (Nieder- und Oberhöchstadt) im Lorscher Codex. 1220–1704. Mit dem Bau der Burg Kronberg im Taunus (um 1220, nach Gerd Strickhausen bereits Mitte des 12. Jahrhunderts) teilten sich die „Ritter von Askenburne“ (Eschborn), die dort eine Motte besaßen. Nach Kronberg zog und benannte sich der „Kronenstamm“, während der „Flügelstamm“ (am 8. Oktober 1617 mit Johann Eberhard ausgestorben) erst etwa 1250 nach Kronberg kam. Der Name „von Eschborn“ erscheint nicht mehr in den Urkunden. Erst die für damalige Verhältnisse unglaublich hohe (am 22. August 1389 verhandelte) Lösegeldzahlung von 73.000 Goldgulden, an deren Abtragung Frankfurt etwa 120 Jahre zu leiden hatte, beendete den Streit mit Frankfurt und begründeten den Bau der „Frankfurter Landwehr“. Man schloss aber schnell Frieden (1391) und suchte das Bündnis mit den Cronbergern. 1394 ernannte der Frankfurter Rat Hartmuth von Cronberg für zwei Jahre zum Amtmann von Bonames, und 1395 schloss Johann von Cronberg einen ausführlichen Bundesvertrag mit Frankfurt ab, der die Kronberger verpflichtete, die Frankfurter Bürger und ihre Messen zu schützen. Im Jahre 1398 luden schließlich die "„Schießgesellen zu Cronenberg… die Schießgesellen zue Franckenfurd unsern guten frunden“ zu einem „Schießen umb eyn Cleynod“" ein. Dieser Brief gilt als der älteste überlieferte Schützenladebrief Deutschlands. 1390 entstand die zweite Stadtummauerung (Neustadt). Da Hartmut XII. von Cronberg, zuvor seinem Cousin Franz von Sickingen bei dessen Angriffen auf Trier und Worms beistand, belagerten 1522 der Trierer Erzbischof Richard von Greiffenklau zu Vollrads, Ludwig von der Pfalz sowie der Landgraf Philipp von Hessen Stadt und Burg Kronberg und erzwangen die bedingungslose Kapitulation. Hartmut floh. Da Kronberg aber Reichslehen war, musste Philipp 1541 Burg und Stadt an Hartmut unter Erteilung der Schutzrechte für die lutherische Kirche zurückgeben. Diese Schutzrechte wurden durch die Landgrafschaft Hessen-Darmstadt im 17. und 18. Jahrhundert bestätigt, somit blieben die späteren Mainzer Versuche einer Gegenreformation (1626–1649) und der Entkonfessionalisierung der Kirche (Simultanisierung, 1737–1768) erfolglos. "„Der letztere des uralten Geschlechts von Cronberg“" ist im Jahre 1704 kinderlos "„… in Gott selig entschlafen Herr Johann Niclas von und zu Cronberg, Herr zu Yben, Rodenberg, Hollenfels und Altenbamberg“" (so seine Grabinschrift). Der in den Grafenstand erhobene Nachfahre des Kronenstamms verstarb auf Burg Hohlenfels (heute Gemeinde Hahnstätten) über dem Aartal. Kronberg sowie die Gemeinden Schönberg, Niederhöchstadt und Eschborn fielen als Reichslehen daraufhin an das Kurfürstentum Mainz. 1704–1866. Klage der ev. Bürger gegen Mainz 1738 Kurmainz führte die Herrschaft Kronberg als Amt Kronberg weiter. In der Kurmainzer Zeit führten die mehrheitlich evangelischen Bürger Klage gegen Mainz wegen religiöser „Drangsalen“. Die Auseinandersetzungen, auch "Kronberger Kirchenstreit" genannt, eskalierten anlässlich des Baus des heute „Streitkirche“ genannten Gebäudes, das 1758 als katholische Kirche direkt neben der evangelischen Kirche St. Johann geplant war. Dies führte zu heftigen Protesten der evangelischen Bürger, die bis zum Immerwährenden Reichstag in Regensburg gelangten und denen dort nach einigen Jahren stattgegeben wurde. Der Bau wurde nie geweiht, das Glockengestühl wieder abgebrochen. Das Gebäude dient seit 1768 zivilen Zwecken (Apotheke, Gasthaus, heute auch als Museum der Kronberger Malerkolonie). Im Frieden von Lunéville 1801 verlor das Kurfürstentum Mainz seine weltlichen Gebiete, darunter auch das Reichslehen Kronberg, das 1802 vom Fürsten von Nassau-Usingen in Beschlag genommen wurde, 1803 wurde es ihm formell zugesprochen. Auf Anordnung Nassaus wurden 1813 große Teile der Stadtmauer, Türme (bis auf das Eichentor) und Pforten abgebrochen. Im Deutschen Krieg 1866 schlägt sich der Herzog von Nassau gegen den Willen der Bevölkerung auf die Seite Österreichs und verliert dadurch sein Land an Preußen. 1862 wurde der Vorläufer der Volksbank Kronberg, der Vorschussverein für Cronberg & Umgebung gegründet. 1866–1945. Das dörfliche Cronberg etwa 1900 Die nassauischen Ämter Königstein und Usingen sowie Homburg werden 1867 von Preußen zum Obertaunuskreis zusammengelegt, der 1868 dem Regierungsbezirk Wiesbaden in der neuen Provinz Hessen-Nassau zugeteilt wurde. Reiche Industrielle, Kaufleute und Bankiers entdeckten in der Mitte des 19. Jahrhunderts die idyllische und klimatisch günstige Lage des Taunusstädtchens in unmittelbarer Nähe Frankfurts und errichteten Villen und Sommersitze in Kronberg und Schönberg. Auch Künstler, darunter Anton Burger und Jakob Fürchtegott Dielmann, kamen seit etwa 1850 nach Kronberg und begründeten die Kronberger Malerkolonie, die bis in die Zeit nach dem Zweiten Weltkrieg bestand. Einige Werke der Kronberger Maler sind im Museum in der Streitkirche ausgestellt. Das bislang durch Kleinbauern und Handwerker dörflich geprägte Städtchen erlangte in seiner „preußischen Epoche“ Bedeutung durch den Bau (Eröffnung am 1. November 1874) der Bahnverbindung Rödelheim-Kronberg, sowie des Witwensitzes Schloss Friedrichshof (1889–1894) der Kaiserin Friedrich, Mutter Kaiser Wilhelms des Zweiten. Aufgrund der zahlreichen Besuche des europäischen Hochadels auf Schloss Friedrichshof wurde ein „kaiserlicher“ Pavillon auf dem Bahnhofsgelände errichtet, der ca. 1930 abgerissen wurde und einem Toilettenbau wich. 1891 erwirbt Kaiser Wilhelm die Burg Kronberg vom preußischen Staat und machte sie seiner Mutter zum Geschenk. Die Burg wurde 1892–1901 aufwändig unter der Mitwirkung von Louis Jacobi renoviert. 1892 wurde im Kronthal von Siemens & Halske eine fahrbare Dampflokomobile mit angeschlossenem Dynamo zur Versorgung der Stadt Kronberg mit Elektrizität aufgestellt. Nach einigen Jahren wurde das Gespann nach Bad Soden (auf das Gelände der heutigen MKW) verlegt und diente dort als Reserve. 1918 bis 1928 gehörte Kronberg zum Hilfskreis Königstein, eine vorläufige Verwaltungseinheit während der französischen Besatzung, die 1928 aufgelöst wurde und (wieder) in den Obertaunuskreis eingegliedert wurde. Am 17. Oktober 1933 wurde vom Reichsminister des Inneren die Namensänderung von Cronberg in Kronberg verordnet, das „C“ wurde von den Nationalsozialisten als „undeutsch“ betrachtet. Die letzte Stadtverordnetenversammlung tagte am 23. Dezember 1933, Magistrat und Stadtverordnetenversammlung wurden abgeschafft, zum alleinigen Vertreter der Stadt wurde der vom Landrat eingesetzte Bürgermeister und NSDAP-Ortsgruppenleiter (Wilhelm Schaub, 1901–1983), dem einige „Ratsherren“ beigeordnet wurden. In der Villa Mumm (heute Sitz der Fidelity Investments) wurde 1936 von der NSDAP eine Gauschulungsburg und ab 1940 ein Reservelazarett eingerichtet. Am 28. August 1943 wurde bei einem Brandbombenabwurf die Burgkapelle stark beschädigt, der Dachstuhl später nur zur Hälfte wiederhergestellt. Am 29. März 1945 wurde Kronberg von Truppen der 3. US Army kampflos besetzt. Kronberg (und seine heutigen Stadtteile) verloren im Zweiten Weltkrieg um die 400 Männer, 6 Kronberger jüdischer Abstammung starben im Gefängnis bzw. im Konzentrationslager. Seit 1945. Kirche „Peter und Paul“ mit Gedenktafel Nach dem Zweiten Weltkrieg gehörte Kronberg zu dem von der amerikanischen Besatzungsmacht aus Kurhessen, den zur US-Besatzungszone gehörigen Teilen Nassaus und aus den rechtsrheinischen Teilen des Volksstaates Hessen gebildeten Groß-Hessen, dem heutigen Bundesland Hessen. 1946 wurde von Papst Pius XII. die Päpstliche Mission für die Flüchtlinge in Deutschland nach Kronberg verlegt. Apostolischer Visitator und Leiter der Einrichtung war der deutschstämmige Bischof von Fargo in Nord-Dakota (USA) Aloysius Muench. Sein Seelsorge-Auftrag umfasste die Betreuung der Geflüchteten und Vertriebenen aus Osteuropa. Bis zum Sommer 1949 organisierte er von Kronberg aus den Transport von rund 950 Güterwaggons mit päpstlichen Hilfsgütern nach Deutschland. Unterstützung fand er auch bei der US-Regierung; vor der Aufnahme seiner Tätigkeit in Kronberg erhielt er vom US-Verteidigungsminister Robert P. Patterson die Ernennungsurkunde als Verbindungsbeauftragter für religiöse Angelegenheiten bei der US-Militärregierung in Deutschland. Durch seine Kontakte in die USA vermittelte Muench einen beachtlichen Spendenfluss ins zerstörte Deutschland. Nach der Gründung der Bundesrepublik Deutschland wurde die Kronberger Apostolische Mission 1951 aufgelöst. Muench wurde zuvor (am 28. Oktober 1950) von Johannes XXIII. zum Erzbischof und ersten Apostolischer Nuntius in der Bundesrepublik Deutschland ernannt; er trat das Amt am 9. März 1951 in Bad Godesberg an. Unter dem Decknamen Operation Artischocke „befragte“ die CIA zu Beginn der 1950er Jahre in der heute denkmalgeschützten Villa Schuster (später Haus Waldhof) mutmaßliche Agenten unter Anwendung von Gehirnwäsche, Drogen, Hypnose und Folter. Obstbau. Es gab aber auch eine landwirtschaftliche Vergangenheit. In der Region wurde sehr viel Obst angebaut, nicht zuletzt durch die Aktivitäten des Pfarrers und Pomologen Johann Ludwig Christ (1786–1813 in Kronberg). Es entstand eine genossenschaftliche Obstverwertungsgesellschaft mit einer heute nicht mehr existierenden Markthalle (Am Schanzenfeld). Landesweit wurden beispielsweise Erdbeeren (bis in die 1950er Jahre) unter dem Begriff „Kronberger Erdbeeren“ vermarktet. Der Apfelanbau auf Streuobstwiesen hatte eine große Bedeutung. Apfelwein wurde gekeltert. Nicht zu vergessen die Kronberger Edelkastanien, auch „Keste“ genannt, die sich Goethe bis nach Weimar nachsenden ließ. Eingemeindungen. Anlässlich der Gebietsreform in Hessen genehmigte die Landesregierung mit Wirkung vom 1. April 1972 den Zusammenschluss der Stadt "Kronberg (Taunus)" und der Gemeinden Ts. und Schönberg (Taunus) im Obertaunuskreis zu einer Stadt mit dem Namen "Kronberg/Taunus". Für die Ortsteile Kronberg, Schönberg und Oberhöchstadt wurden per Hauptsatzung Ortsbezirke mit Ortsbeirat und Ortsvorsteher errichtet. Die Grenzen der Ortsbezirke folgen den bisherigen Gemarkungsgrenzen. Am 1. Januar 1977 wurde der Name der Stadt amtlich in "Kronberg im Taunus" geändert. Stadtverordnetenversammlung. Konstituierende Sitzung der Stadtverordnetenversammlung am 2. Mai 2011 Ein Stadtverordneter trat nach der Wahl aus der FDP aus und war bis August 2008 fraktionslos. Ab August 2008 war er Mitglied der CDU-Fraktion (CDU jetzt 13 Sitze, FDP 2 Sitze). Wappen. Zum Wappen der: Herren von Cronberg Feste. Das größte Straßenfest in der Altstadt (rund um die Steinstraße) ist die „Thäler Kerb“. Seit 1967 (Gründung des Thäler Kerbe-Vereins) wird sie wieder gefeiert, immer am Dienstag und Mittwoch nach dem ersten Juli-Sonntag. Während der beiden Festtage regiert das „Thäler Pärchen“, die Miss Bembel und der Thäler Bürgermeister. Märkte. St. Vitus im Ortsteil Oberhöchstadt Vereine. Die Kronberger Bürger organisieren und pflegen ein reges Vereinsleben in den Bereichen Jugend, Kultur und Sport. Alle (mehr als 100) aufzuzählen, würde den Rahmen dieses Artikels sprengen. Überörtliche Straßenanbindung. Am nördlichen Rand Kronbergs verläuft die B 455 als Umgehungsstraße von Wiesbaden nach Bad Homburg, so erreicht man von Kronberg schnell die A 3 und A 661. In südlicher Richtung erreicht man schnell die A 5 und A 66. Schienenverkehr und öffentlicher Personennahverkehr. Kronberg ist Endpunkt der Frankfurter S-Bahn-Linie S4, der Nachfolgerin der Kronberger Bahn, und verbindet Kronberg mit der Frankfurter Innenstadt, dem Hauptbahnhof und der Nachbarstadt Eschborn. Südlich von Frankfurt führt diese Linie nach Langen (Hessen), sonntags werden einige Züge über Langen hinaus bis Darmstadt Hauptbahnhof durchgebunden. Gelegentlich verkehrt die S4 nur bis Frankfurt Süd und an einigen Tagen im Jahr nur bis Frankfurt-Rödelheim. Die S-Bahn ist in den Rhein-Main-Verkehrsverbund (RMV) integriert. Dazu existiert in Kronberg seit 2001 ein Stadtbusnetz aus drei Linien. Es ist genau wie die S-Bahn in den Rhein-Main-Verkehrsverbund integriert und befördert pro Jahr rund 380.000 Personen. Ergänzt wird das Angebot durch ein Anruf-Sammeltaxi, das einige geographische Lücken des Stadtbusses abdeckt sowie zur Betriebsstundenerweiterung dient. Dazu verbinden regionale Buslinien Kronberg mit den Nachbarstädten und dem nahen Frankfurter Nordwestzentrum. Die ersten Betriebsjahre des Kronberger Stadtbusses waren von kontroversen politischen Diskussionen geprägt, nicht nur im Stadtrat, sondern auch innerhalb der Bevölkerung. Ursache waren anfängliche Planungsfehler, welche die Akzeptanz des Angebots zunächst verminderten, sowie wechselnde politische Mehrheiten. Obwohl sich der Stadtbus mittlerweile (2011) im positiven Sinne etabliert hat, sind nun aufgrund der schlechten Haushaltslage wiederum Kürzungen des innerstädtischen Nahverkehrsangebots im Gespräch. Seit Anfang 2013 lässt das Frankfurter Verkehrsdezernat eine mögliche Verlängerung der U-Bahn-Linie 6 nach Eschborn (Main-Taunus-Kreis) prüfen. Der Frankfurter Verkehrsdezernent hat bereits eine entsprechend konkrete Untersuchung des Projekts in Auftrag gegeben. Dabei handelt es sich um die Verlängerung der U6, die derzeit an der Heerstraße in Frankfurt-Praunheim endet. Auch eine Haltestelle im Gewerbegebiet Helfmann-Park ist unter Umständen möglich. Diese würde laut dem Eschborner Bürgermeister „den Standort Eschborn noch weiter aufwerten“. Einen genauen Zeitplan für das Projekt gebe es noch nicht. In absehbarer Zeit soll es ein Treffen mit Vertretern aus Eschborn, Frankfurt und Oberursel zum U-Bahn-Thema geben. Die Grünen im Hochtaunuskreis haben sich jüngst für einen Ausbau der U6 über Eschborn hinaus mit Haltestellen in Steinbach und Kronberg ausgesprochen. Die Stadt Oberursel im Hochtaunuskreis wurde bereits vor langer Zeit über die U-Bahn-Linie 3 an das Frankfurter U-Bahn-Netz angeschlossen worden. Wirtschaft und Infrastruktur. Eine der öffentlich zugängigen Mineralquellen im „Kronthal“ Ehrenbürger. "Siehe: Liste der Ehrenbürger von Kronberg im Taunus" Literatur. Blick auf Kronberg, 1896 von Wilhelm Trübner Siehe auch. St. Albanus im Ortsteil Schönberg Konrad Duden. Die 3. Auflage des "Duden" 1887 Konrad Alexander Friedrich Duden (* 3. Januar 1829 in Lackhausen; † 1. August 1911 in Sonnenberg) war ein preußisch-deutscher Gymnasiallehrer und trat als Philologe und Lexikograf hervor. Konrad Duden schuf das nach ihm benannte Rechtschreibwörterbuch der deutschen Sprache, den „Duden“, und beeinflusste damit Ende des 19. Jahrhunderts maßgeblich die Entwicklung einer einheitlichen Rechtschreibung im deutschen Sprachraum. Leben. Konrad Duden war Sohn des Gutsbesitzers und Branntweinbrenners Johann Konrad Duden und dessen Frau Julia geb. Monjé. Nach seinem Abitur 1846 an dem später nach ihm benannten Konrad-Duden-Gymnasium in Wesel studierte Konrad Duden vier Semester Geschichte, Germanistik und klassische Philologie an der Rheinischen Friedrich-Wilhelms-Universität Bonn. Dort trat er der Studentenverbindung Germania Bonn bei. Nach den ersten vier Semestern brach er das Studium – vermutlich aus finanziellen Gründen – ab und nahm Stellen als Hauslehrer in Frankfurt am Main und Italien an, um seinen Lebensunterhalt zu finanzieren. Sechs Jahre später, 1854, holte er mit besonderer Genehmigung, die ihn aufgrund seiner Hauslehrertätigkeit vom weiteren Studium befreit hatte, das Staatsexamen an der Universität Bonn nach. Im gleichen Jahr promovierte Konrad Duden "in absentia" an der Philosophischen Fakultät der Universität Marburg mit der Dissertation „De Sophoclis Antigona“. Die Referendarzeit am Archigymnasium in Soest brach er 1854 ab und nahm eine Hauslehrerstelle in Genua (Italien) an; von dort hatte er bereits sein Promotionsverfahren in Marburg betrieben. 1859 nach Deutschland zurückgekehrt, arbeitete er als Lehrer und im beruflichen Aufstieg als Direktor (Prorektor) am Archigymnasium Soest. 1861 heiratete Duden in Messina Adeline Jakob, die er dort 1854 als Tochter des deutschen Konsuls kennengelernt hatte. Aus dieser Ehe gingen sieben Kinder hervor, darunter der bedeutende Chemiker Paul Duden. Einer seiner Enkel war der Mannheimer Wirtschaftsjurist und Rechtslehrer Konrad Duden (1907–1979). 1869 wurde er als Gymnasialdirektor nach Schleiz (Fürstentum Reuß jüngerer Linie) berufen, wo er die Regeln für das spätere Wörterbuch erarbeitete, weil in Schleiz fränkische, thüringische und sächsische Dialekte zusammentrafen und die Beurteilung der Orthographie eines Schülers davon abhing, in welcher Sprachtradition der jeweilige Lehrer aufgewachsen war. Durch sein Standardwerk hatte Duden insbesondere bildungsfernen Schichten das Lesen und Schreiben erleichtern wollen. Von 1876 bis 1905 war er Direktor des Königlichen Gymnasiums zu Hersfeld. Hier veröffentlichte er 1880 sein wichtigstes Werk: "Vollständiges Orthographisches Wörterbuch der deutschen Sprache" 1905 trat er in den Ruhestand und nahm seinen Alterswohnsitz in Sonnenberg bei Wiesbaden (preußische Provinz Hessen-Nassau). Er starb dort im Jahr 1911 und wurde auf eigenen Wunsch im Familiengrab in Bad Hersfeld beigesetzt. Bedeutung. Duden setzte sich sein Leben lang für die Vereinheitlichung der deutschen Rechtschreibung ein. Im Jahre 1871 veröffentlichte er erstmals in den Jahresberichten des Schleizer Gymnasiums Rechtschreibregeln mit kurzen Erläuterungen unter dem Titel „Zur deutschen Rechtschreibung“. Er folgte dabei dem phonetischen Prinzip – „Schreibe, wie Du sprichst“. Diese Schrift, zum Gebrauch in seinem Gymnasium bestimmt, war bald in Fachkreisen sehr bekannt und erschien im Folgejahr im Verlag B. G. Teubner in Leipzig mit dem Titel „Die deutsche Rechtschreibung“; dem Werk war bereits ein Wörterverzeichnis beigegeben. Dieser später sogenannte „Schleizer Duden“ beeinflusste die Debatte um die Rechtschreibung in Deutschland maßgeblich und wurde zur Vorlage der folgenden orthographischen Wörterbücher. Duden wurde auch 1876 zur ersten Konferenz zur „Herstellung größerer Einigung in der deutschen Rechtschreibung“ eingeladen, die jedoch am Einspruch des Reichskanzlers Otto von Bismarck scheiterte. Das am 7. Juli 1880 im Verlag "Bibliographisches Institut" erschienene Werk „Vollständiges Orthographisches Wörterbuch der deutschen Sprache“ gilt als der „Urduden“ und enthält 27.000 Stichwörter auf 187 Seiten. Bismarck verbot per Erlass, die in den preußischen Schulen gelehrte Orthographie in der Verwaltung anzuwenden. Erst 1901 beschlossen Vertreter der deutschen Bundesstaaten und Österreich-Ungarns auf einer Konferenz in Berlin eine einheitliche deutsche Rechtschreibung auf der Grundlage von Dudens Wörterbuch. 1902 beschloss der deutsche Bundesrat Dudens „Regeln für die deutsche Rechtschreibung nebst Wörterverzeichnis“ für alle Bundesstaaten des Deutschen Reiches als verbindlich; Österreich-Ungarn und die Schweiz schlossen sich an. Entsprechend wurde „Schlag im Duden nach!“ ein geflügeltes Wort bei Unsicherheiten in der deutschen Rechtschreibung. Der „Duden“ in seiner aktuellen 26. Auflage (2013) enthält ca. 140.000 Stichwörter. Nach Duden sind sowohl der Konrad-Duden-Preis für Germanisten als auch der Konrad-Duden-Journalistenpreis benannt. Kultur. a> ist ein klassisches Symbol für europäische „Kultur“ Kultur (von „Bearbeitung, Pflege, Ackerbau“) bezeichnet im weitesten Sinne alles, was der Mensch selbst gestaltend hervorbringt, im Unterschied zu der von ihm nicht geschaffenen und nicht veränderten Natur. Kulturleistungen sind alle formenden Umgestaltungen eines gegebenen Materials, wie in der Technik oder der bildenden Kunst, aber auch geistige Gebilde wie Sprachen, Moral, Religion, Recht, Wirtschaft und Wissenschaft. Der Kulturbegriff ist im Laufe der Geschichte immer wieder von unterschiedlichen Seiten einer Bestimmung unterzogen worden. Je nachdem drückt sich in der Bezeichnung "Kultur" das jeweils lebendige Selbstverständnis und der Zeitgeist einer Epoche aus, der Herrschaftsstatus oder -anspruch bestimmter gesellschaftlicher Klassen oder auch wissenschaftliche und philosophisch-anthropologische Anschauungen. Die Bandbreite der Bedeutungsinhalte ist entsprechend groß und reicht von einer rein beschreibenden (deskriptiven) Verwendung („die Kultur jener Zeit“) bis zu einer vorschreibenden (normativen), wenn bei letzterem mit dem Begriff der Kultur zu erfüllende Ansprüche verbunden werden. Der Begriff kann sich auf eine enge Gruppe von Menschen beziehen, denen allein Kultur zugesprochen wird, oder auf das, was allen Menschen "als Menschen" zukommt, insofern Kultur sie beispielsweise vom Tier unterscheidet. Während die engere Bestimmung des Begriffs meist mit einem Gebrauch in Einzahl verbunden ist („die Kultur“), kann ein weiter gefasster Begriff auch von „den Kulturen“ im Mehrzahl sprechen. Wortherkunft. Das Wort „Kultur“ ist eine Eindeutschung des lateinischen Begriffs "cultura", der eine Ableitung von lateinisch "colere" „pflegen, urbar machen, ausbilden“ darstellt. Denselben Ursprung haben die Bezeichnungen "Kolonie" und "Kult". „Kultur“ ist in der deutschen Sprache seit Ende des 17. Jahrhunderts belegt und bezeichnet hier von Anfang an sowohl die Bodenbewirtschaftung als auch die „Pflege der geistigen Güter“. Heute ist der landwirtschaftliche Bezug des Begriffs nur noch in Wendungen wie "Kulturland" für "Ackerland" oder "Kultivierung" für "Urbarmachung" verbreitet; in der Biologie werden auch verwandte Bedeutungen wie Zell- und Bakterienkulturen benutzt. Im 20. Jahrhundert wird "kulturell" als Adjektiv gebräuchlich, jedoch mit deutlich geistigem Schwerpunkt. Die Wortherkunft des lateinischen Wortes "colere" leitet sich ab von der indogermanischen Wurzel "kuel-" für „[sich] drehen, wenden“, so dass die ursprüngliche Bedeutung wohl im Sinne von „emsig beschäftigt sein“ zu suchen ist. Antike. Plinius der Ältere prägte zwar noch nicht das Wort „Kultur“ als einen Begriff, unterschied allerdings schon zwischen "terrenus" (zum Erdreich gehörend) und "facticius" (künstlich Hergestelltes). Im lateinischen Raum wird der Begriff "cultura" sowohl auf die persönliche Kultur von Individuen als auch auf die Kultur bestimmter historischer Perioden angewendet. So charakterisiert z. B. Cicero die Philosophie als "cultura animi", das heißt als Pflege des Geistes. Neben der Kultur als Sachkultur bei Plinius findet sich also auch Kultur als Bearbeitung der eigenen Persönlichkeit. Neuzeit. Immanuel Kants Bestimmung des Menschen als kulturschaffendes Wesen vollzieht sich im Verhältnis zur Natur. Für Kant sind Mensch und Kultur ein Endzweck der Natur. Dabei ist mit diesem Endzweck der Natur die moralische Fähigkeit des Menschen zum kategorischen Imperativ verbunden: „Handle nur nach derjenigen Maxime, durch die du zugleich wollen kannst, dass sie ein allgemeines Gesetz werde.“ Ein solches allgemeines Gesetz anzuerkennen als „Idee der Moralität gehört noch zur Kultur.“ Es ist dieser Leitsatz des moralischen Handelns, der den Menschen einerseits von der Natur trennt, andererseits steht er als Endziel der Natur in ihrem Dienst dieses Ziel zu achten und zu verfolgen. Ohne diesen moralischen Leitsatz vermag der Mensch sich bloß technologisch fortzuentwickeln, was zur Zivilisation führt. Der Anthropologe Edward Tylor bestimmt Kultur 1871 („Primitive Culture“) unter Aufnahme der darwinschen Evolutionstheorie und gibt so eine erste an den Erkenntnissen der Naturwissenschaft orientierte Definition: „Cultur oder Civilisation im weitesten ethnographischen Sinn ist jener Inbegriff von Wissen, Glauben, Kunst, Moral, Gesetz, Sitte und alle übrigen Fähigkeiten und Gewohnheiten, welche der Mensch als Glied der Gesellschaft sich angeeignet hat.“ Nach Albert Schweitzer erstrebt die Kultur letztlich „die geistige und sittliche Vollendung des Einzelnen“: „"Der Kampf ums Dasein ist ein doppelter. Der Mensch hat sich in der Natur und gegen die Natur und ebenso unter den Menschen und gegen die Menschen zu behaupten. Eine Herabsetzung des Kampfes ums Dasein wird dadurch erreicht, dass die Herrschaft der Vernunft sich sowohl über die Natur als auch über die menschliche, stinkende Natur sich in größtmöglicher und zweckmäßigster Weise ausbreitet. Die Kultur ist ihrem Wesen nach also zweifach. Sie verwirklicht sich in der Herrschaft der Vernunft über die Naturkräfte und in der Herrschaft der Vernunft über die menschlichen Gesinnungen."“ Kultur und Zivilisation. Einzig im deutschsprachigen Raum hat sich der Gegensatz „Kultur“ und „Zivilisation“ entwickelt, während beispielsweise im englischen Sprachraum lange Zeit nur ein Wort für „Kultur“ ("civilization") genutzt wurde (vergleiche den Buchtitel von Samuel P. Huntington "Clash of Civilisations", deutsch "Kampf der Kulturen"). Erst seit einigen Jahrzehnten findet sich auch "culture" häufiger, ohne dass hiermit jedoch auf einen Gegensatz zu "civilization" Bezug genommen wurde. „Zivilisation“ bedeutet also für Kant, dass sich die Menschen zwar zu einem artigen Miteinander erziehen, Manieren zulegen und ihren Alltag bequem und praktisch einzurichten wissen und dass sie vielleicht durch Wissenschaft und Technik Fahrzeuge, Krankenhäuser und Kühlschränke hervorbringen. All dies reicht jedoch noch nicht dafür, dass sie „Kultur haben“, wenngleich es der Kultur dienen könnte. Denn als Bedingung für Kultur gilt für Kant die „Idee der Moralität“ (der kategorische Imperativ), d. h. dass die Menschen ihre Handlungen bewusst auf "an sich gute" Zwecke einrichten. Wilhelm von Humboldt schließt hieran an, indem er den Gegensatz auf Äußeres und Inneres des Menschen bezieht: Bildung und Entwicklung der Persönlichkeit sind Momente der Kultur, während rein praktische und technische Dinge dem Bereich der Zivilisation zugehören. Für Oswald Spengler ist Zivilisation ebenfalls negativ belegt, wenn sie nämlich das unausweichliche Auflösungsstadium von Kultur bezeichnet. Spengler sah Kulturen als lebendige Organismen an, die in Analogie zur Entwicklung des menschlichen Individuums eine Jugend, eine Manneszeit und ein Alter durchlaufen und alsdann verenden. Die Zivilisation entspricht dem letzten dieser Stadien, daher hat der zivilisierte Mensch keine künftige Kultur mehr. Zivilisationen „sind ein Abschluß; sie folgen dem Werden als das Gewordene, dem Leben als der Tod, der Entwicklung als die Starrheit […] Sie sind ein Ende [sc. der Kultur], unwiderruflich, aber sie sind mit innerster Notwendigkeit immer wieder erreicht worden.“ Kulturnation und Staatsnation. Der Begriff der Kulturnation entstand im 19. Jahrhundert als Ausdruck eines weniger durch Politik und militärische Macht als durch Kulturmerkmale repräsentierten Nationsverständnisses. Der Historiker Friedrich Meinecke sah in den kulturellen Gemeinsamkeiten, die eine Nation zusammenhalten, neben gemeinsamem „Kulturbesitz“ (z. B. die Weimarer Klassik) vor allem religiöse Gemeinsamkeiten. Von Volkstum ist in diesem Zusammenhang noch nicht die Rede. Mit Aufkommen der völkischen Bewegung wurde dem Begriff der Nation allmählich eine ethnische Bedeutung verliehen. Während zuvor kaum völkische Aspekte im Staatsbürgerschaftsrecht der deutschen Gliedstaaten verankert gewesen waren, wurde 1913 das Abstammungsprinzip (ius sanguinis, „Recht des Blutes“) zur Bestimmung der deutschen Staatsangehörigkeit gesetzlich festgelegt. Die nationale Identität wurde damit staatlich beschränkt. Die aus dieser Entwicklung entstandene Vorstellung einer Kulturnation auf völkischer Grundlage wirkt sich seither weiter aus. Während von einer Kulturnation anfangs in einem kritischen Sinne gegenüber der Staatsnation die Rede war, da das deutsche Nationalgefühl (aus Sprache, Traditionen, Kultur und Religion) nicht vom politischen Partikularismus widergespiegelt wurde, wandelte sich der Begriff unter dem Einfluss des völkischen Gedankengutes: Als Basis einer Kulturnation wurde nun ein „Volk“ im Sinne einer „Abstammungsgemeinschaft“ verstanden. Dieser Begriff eines Volkes wirkte wiederum gegenüber dem politisch-rechtlichen Begriff des Staatsvolkes, der die Gesamtheit aller Staatsangehörigen eines Staates darstellt, kritisch. Die Kulturnation umfasse ein Volk als Träger eines Volkstums, unabhängig davon, in welchem Staat, in welchen Grenzen und unter welcher Herrschaft es lebe. Moderne Entwicklungen. Für den Systemtheoretiker Niklas Luhmann beginnt geschichtlich gesehen Kultur erst dann, wenn es einer Gesellschaft gelingt, nicht nur Beobachtungen vom Menschen und dessen Umwelt anzustellen, sondern auch Formen und Blickwinkel der "Beobachtungen der Beobachtungen" zu entwickeln. Eine solche Gesellschaft ist nicht nur kulturell und arbeitsteilig in einem hohen Maße in Experten ausdifferenziert, sondern hat auch Experten zweiter Stufe ausgebildet. Diese letzteren untersuchen die Beobachtungsweisen der ersteren und helfen diese in ihrer Kontingenz zu begreifen, d. h. erst jetzt werden die Inhalte von Kultur als etwas Gemachtes aufgefasst und nicht als eine dem Menschen gegebene Fähigkeit. Kultur wird damit de- und rekonstruierbar. Grenzen des Kulturbegriffs. Angesichts der Vielzahl unterschiedlicher Verwendungsweisen des Wortes „Kultur“ und der Vielfalt konkurrierender wissenschaftlicher Definitionen erscheint es sinnvoll, statt von "einem" Kulturbegriff besser von "vielen" Kulturbegriff"en" zu sprechen. Bereits 1952 wurden 170 verschiedene Begriffsbestimmungen gezählt. Kultur ist gewissermaßen eine "Variable", die von den verschiedenen Rahmenbedingungen verschiedener Fachgebiete und ihrer Blickwinkel abhängig ist. Entgegensetzung von Kultur und Natur. Dasjenige Konzept, welches das Entstehen von Kultur verständlich macht und den Begriff klar eingrenzt, stellt die Kultur der Natur entgegen. Damit ist als Kultur alles bestimmt, was der Mensch von sich aus verändert und hervorbringt, während der Begriff Natur dasjenige bezeichnet, was von selbst ist, wie es ist. Mit „Natur“ kann jedoch immer nur etwas gemeint sein, das irgendwie "durch Kulturtechniken" wie Kunst und Wissenschaft "beschrieben" wurde. Gleichzeitig werden die Grenzen dessen, was „Natur“ bezeichnet, durch menschliche Kulturtechniken immer weiter hinausgeschoben, so macht etwa erst das Elektronenmikroskop kleinste Partikel sichtbar, während das Hubble-Teleskop erst die großen kosmischen Maßstäbe zur Darstellung bringt. Ebenso schiebt die Kulturtechnik der Astrophysik die zeitlichen Grenzen dessen, was wir mit dem Begriff Kosmos meinen, immer weiter nach hinten, während durch Atomuhren extrem kurze Zeitspannen exakt erfassbar werden. Wenn jedoch Natur nur durch die Brille der Kultur wahrgenommen werden kann, scheint es letztlich so, dass „alles Kultur sei“. Damit wird die Vorstellung, dass Kultur stets Auseinandersetzung mit "dem Anderen", dem Neuen und Fremden ist, zunehmend unplausibel, denn wenn alles Kultur ist, dann ist unklar, was überhaupt mit dem Begriff gesagt werden soll. Wenn Kultur trotzdem weiterhin als die Bewältigung des Anderen, der Natur, begriffen werden soll, so darf die Natur nicht als "räumlich" dem Menschen gegenüberstehend gedacht werden, sondern das Andere "ist der Kultur selbst eingeschrieben". Das Andere besteht nicht einfach neben oder außerhalb der Kultur, sondern haftet ihr an wie eine Kehrseite. „Natur“ wäre dann ein Grenzbegriff, der aussagt, dass es „etwas“ gibt, das vom Menschen beschrieben und bearbeitet wird, was aber zugleich bedeutet, dass dieses „etwas“ niemals unmittelbar zugängig wird. Damit gibt es keine „Natur an sich“, sondern nur "Beschreibungen" von Natur. Auch die exakte mathematische Physik ist damit nur "eine" mögliche Form der Naturdarstellung. Der Kulturbegriff außerhalb des westlichen Denkens. Prinzipiell ist die Gegenüberstellung von Natur und Kultur ein typisch europäisches Ordnungsmuster. Die Ethnologie hat gezeigt, dass es keine Weltauffassung gibt, die von allen Menschen gleichsam verstanden wird. Die in der „modernen Welt" als selbstverständlich betrachtete Dichotomie "Natur ↔ Kultur" ist nicht bei allen Völkern gegeben. So betrachten beispielsweise die Amazonasindianer auch Tiere, Pflanzen, Naturerscheinungen und Naturgeister als "Menschen". Sie existieren nach ihrer Vorstellung zeitweilig in einer anderen Form, sind jedoch ebenfalls vollwertige „Kulturwesen“. Normative Verwendung des Begriffs. Verschiedene Fragen werden aufgeworfen, wenn der Begriff „Kultur“ nicht nur deskriptiv (beschreibend) verwendet wird, sondern auch normativ (vorschreibend) verwendet wird. In diesem Sinne bedeutet „Kultur“ nicht nur das, was tatsächlich vorgefunden wird, sondern auch das, "was sein soll", beispielsweise Gewaltfreiheit. Eine normative Verwendung des Kulturbegriffes ist in der Alltagssprache nicht unüblich, wie man beispielsweise daran hört, dass von einer „Kultur der Gewalt“ wenn überhaupt nur abwertend die Rede ist – eine solche Kultur wäre eine „Unkultur“. Häufig sind also moralische Maßstäbe mit dem Kulturbegriff verbunden. Dabei ergibt sich jedoch die Schwierigkeit, zu bestimmen, was sich etwa unter „Gewalt“ verstehen lässt und wann sie vermeidbar ist. Nicht nur haben verschiedene Kulturen unterschiedliche Auffassungen darüber, wann eine Handlung gewaltsam ist, sondern auch darüber, "was durch die Gewalt überhaupt verletzt wird." Der Kulturbegriff in der Biologie. Wie sehr auch immer sich ein Tier oder eine Pflanze an seine Umwelt anpasst: Eine Vererbung der durch Lernen oder durch physiologische Anpassung erworbenen Eigenschaften gilt als unmöglich, da die im Genom angelegten angeborenen Eigenschaften – abgesehen von wenigen epigenetischen Faktoren, deren Einflussbreite aber bereits im Genom verankert war – durch Umwelteinflüsse nicht verändert werden. Gleichwohl ist es möglich, dass ein Tier von den Eltern durch Prägung oder Imitationslernen erworbene Eigenschaften an die eigenen Nachkommen weitergibt. „Die Übertragung von Informationen von einer Generation zur nächsten auf nichtgenetischem Wege wird im Allgemeinen als "kulturelle Tradition" bezeichnet.“ In der Biologie werden solche "kulturellen Traditionen" allerdings häufig verkürzt als "Kultur" bezeichnet. Kulturelle Traditionen gibt es beispielsweise bei Vögeln, bei denen die Jungtiere den arttypischen Gesang im Wege der Prägung von den Eltern übernehmen. Englische Blaumeisen entwickelten in den 1940er- und 1950er-Jahren die Tradition, die Stanniol-Verschlüsse von Milchflaschen aufzupicken, sobald der Lieferant die bestellten Flaschen vor den Haustüren der Empfänger abgestellt hatte. Japanmakaken wurden bekannt dafür, das Kartoffelwaschen erlernt und an nachfolgende Generationen weitergegeben zu haben. Zudem gibt es bei diesen Affen eine Reihe weiterer Kulturtraditionen, die von Gruppe zu Gruppe verschieden sind. Auch der Werkzeuggebrauch bei Tieren entspricht häufig der Definition von "kultureller Tradition". Die weitreichendsten Beispiele finden sich bei den Menschenaffen. Kultur als Bewältigung. Der Mensch sieht sich gegenüber der natürlichen Umwelt vielen Herausforderungen und Gefahren gegenübergestellt und ist wie jedes Lebewesen darauf angewiesen, seine biologisch-physiologischen Bedürfnisse aus seiner natürlichen Umwelt heraus zu befriedigen. Kultur kann als Reaktion auf diese wechselnden Herausforderungen aufgefasst werden. Allerdings stößt ein solches Kulturverständnis recht schnell an seine Grenzen. So versuchte beispielsweise Bronisław Malinowski, im historischen Rückblick die an den Menschen gestellten Herausforderungen als „Grundbedürfnisse“ des Menschen freizulegen. Anhand von historischen Vergleichen versuchte er eine endliche Zahl solcher Grundbedürfnisse freizulegen, aus welchen sich dann alles menschliche Tun erklären ließe. Auch funktionalistisch-evolutionistische Kulturtheorien etwa sehen in den verschiedenen Kulturtechniken allein Mittel, die dem Zweck des Überlebens dienen. Kultur wäre dann die Befriedigung der immer gleichen menschlichen Bedürfnisse. Es kann jedoch nicht ohne Weiteres davon ausgegangen werden, dass Kulturerzeugnisse lediglich Urbedürfnisse des Menschen befriedigen. Dies wird etwa am modernen Verkehrswesen deutlich: So ermöglichen es neue technische Verkehrsmittel nicht nur, größere Entfernungen zu überwinden, sondern es wird mit ihnen zugleich gesellschaftlich "notwendig", immer größere Entfernungen zurückzulegen. Daher kann nicht ohne Weiteres davon gesprochen werden, dass etwa das Flugzeug ein Urbedürfnis nach Interkontinentalflügen befriedigt. Kulturinstitutionen sind daher nicht allein eine Antwort auf Anforderungen durch die Natur oder auf natürliche Bedürfnisse, sondern auch eine Reaktion auf durch sie selbst hervorgebrachte Strukturen; sie erfordern neue Institutionen (Malinowski), weshalb ihnen wesentlich eine Selbstbezüglichkeit eingeschrieben ist. So bedient etwa auch die moderne Kulturindustrie mit Musik, Kino und Fernsehen keine überlebenswichtigen Bedürfnisse, sondern stellt eine Eigenwelt dar, welche gewisse Bedürfnisse erst hervorbringt. Dass mit Kulturleistungen nicht nur Nöte bewältigt werden, sondern mit ihnen eine Freude am Entdecken, am Erfinden und Schaffen von Neuem einhergeht, die nicht auf einen unmittelbaren Nutzen zielt, das ist die Lust an Innovation, lässt sich gut ablesen am Werk des Kulturphilosophen Ernst Cassirers und dessen Auseinandersetzung mit der Renaissance. Hierbei ist vor allem zu bedenken, dass gerade technische Neuerungen in der Renaissance nicht allein der besseren Bearbeitung der Natur dienten und also der Befriedigung grundlegender Bedürfnisse, sondern zu großem Teil in der Kunst zum Einsatz kamen. Funktionalistische Theorien, die alles Tun des Menschen auf sein Überleben hin interpretieren, übergehen den sinngebenden Charakter menschlicher Kulturtätigkeit. Kultur dient nicht nur der Befriedigung elementarer Bedürfnisse, sondern sie schafft auch Sinnstrukturen und Ordnungssysteme, die dem zufällig (Kontingenten) und ungeordnet Gegebenen einen Ort in der Welt des Menschen verschaffen. Das heißt, der Mensch versucht im Prozess der Kultur dem Zufälligen und Ungeordneten eine Struktur zu geben, es wiedererkennbar, symbolisch kommunizierbar oder nutzbar zu machen. Dabei ist Kultur gegenüber den Ansprüchen und Herausforderungen, denen sich der Mensch gegenübersieht, stets im Verzug, sie ist nachträgliche Kontingenzbewältigung. Werden außergewöhnliche Ereignisse kulturell vom einzelnen Menschen oder einer Gruppe verarbeitet, so findet dies nicht im luftleeren Raum statt. Zur Bewältigung werden tradierte Sinn- und Formverhältnisse, Denkweisen und Praktiken herangezogen, die aber ihrerseits kontingent sind, d. h. "nicht notwendig" für alle menschlichen Kulturen genau in dieser Form entstehen mussten. Damit kann keine allgemeine und für alle menschlichen Lebensgemeinschaften gleich verlaufende Kulturentwicklung nachgezeichnet oder vorausgesagt werden. Dies zeigt sich beispielsweise daran, dass selbst Symbolsysteme mit universalem Anspruch wie die Mathematik in unterschiedlichen Kulturen verschiedene Ausprägungen erfahren haben (siehe auch Geschichte der Mathematik). Kultur als symbolische Sinnerzeugung. Wenn der Mensch sich auf sich selbst oder auf seine Umwelt bezieht, so tut er dies nicht nur durch seine leiblichen Sinne, sondern vor allem mittels Symbolen. Anders als bei Tieren, deren Verhaltensmuster und Reaktionen instinktiv vorgeschrieben oder konditioniert sind, kann sich der Mensch mit Hilfe von Symbolen, beispielsweise mit Worten, auf die Dinge in der Welt beziehen. Symbole machen die Dinge handhabbar, indem sie diese unter gewissen Gesichtspunkten "darstellen". Der Mensch kann die Natur durch mathematische Symbole beschreiben oder durch dichterische Worte besingen, er kann sie malen oder tanzen, in Stein hauen oder im Text beschreiben. Einzelne Dinge erscheinen ihm unter religiösen, wissenschaftlichen, weltanschaulichen, ästhetischen, zweckrationalen oder politischen Gesichtspunkten, werden also stets "in ein größeres Ganzes eingebunden", in dem ihnen eine "Bedeutung" zukommt. Dies macht die "kulturelle Welt" des Menschen aus. Als frühste und wichtigste Arbeiten, welche die Bedeutung von "Zeichen" und "Symbolen" für menschliche Sprache und Denken herausstellen, gelten das Werk von Charles S. Peirce, der eine Zeichentheorie als erweiterte Logik entwickelt, und Ferdinand de Saussure, der die Semiotik als allgemeine Sprachwissenschaft etabliert hat. Es war dann Ernst Cassirer, der in den 1920er Jahren eine Kulturphilosophie entwickelte, welche den Menschen als "symbolisches Wesen" begreift. Anders als Peirce und Saussure, setzt Cassirer dabei nicht bei Gedanken und Bewusstsein des Menschen an, sondern bei dessen praktischem Weltbezug. Der Mensch verhält sich also zur Welt nicht bloß theoretisch, sondern steht in einem "leiblichen" Verhältnis zu ihr. Kulturtätigkeit des Menschen ist daher stets ein Gestalten, Formen und Bilden von Dingen. Gestalten vollzieht sich für Cassirer stets in Verbindung mit einem sinnlichen Gehalt. Jede Formgebung geschieht also in einem Medium: Sprache braucht den Klang, Musik den Ton, der Maler die Leinwand, der Bildhauer den Stein, der Schreiner das Holz. Diesen Kerngedanken fasst Cassirers Formulierung der "symbolischen Prägnanz": In einem Medium wird eine prägnante Form herausgearbeitet, die sich dann symbolisch auf anderes Beziehen kann. Wenn Prägnanzbildung sich immer immanent in einem Medium vollzieht, dann kann von einer "immanenten Gliederung" gesprochen werden: Die Eigenschaften des Mediums bestimmen zugleich die Möglichkeiten zur Formgebung "und" zum Sinngehalt. Das Symbol ist also nicht gänzlich beliebig, sondern entwickelt sich in steter Beziehung zur Widerständigkeit der Welt, an welcher der Mensch sich abarbeitet: Holz kann nicht in Form gegossen werden, sondern verlangt einen bestimmten Umgang mit ihm, Worte sind nicht minutenlang, sondern sind von einer Kürze, die sie im Alltag erst gebrauchbar macht. Warnsignale sind laut und grell, Liebesgeflüster ist leise und zart, so dass es dem Ohr schmeichelt. Cassirer spricht bezüglich des Gesichtssinns davon, dass sich „"im" Sehen und "für das" Sehen“ Gestalt ausbildet, denn jedem Sehprozess geht immer schon eine Gestaltung voraus, die auch das neu erfasste bestimmt. (Siehe Absch. Raumwahrnehmung.) Die immanente Gliederung des sinnlichen Gehalts ist Voraussetzung dafür, dass die Welt nicht als formlos-unbestimmte Masse begegnet: durch Verdichtung und Herauslösung bilden sich Formen, Gestalten, Kontraste, welche durch Fixierung zu einer Identität gegenüber anderen Wahrnehmungsinhalten gelangen. Erst hierdurch „zerfließt“ die Welt nicht. Damit die Formen und Gestalten aber zu einer Dauerhaftigkeit kommen und sich „"aus dem Strom des Bewusstseins bestimmte gleichbleibende Grundgestalten teils begrifflicher, teils rein anschaulicher Natur"“ herausheben, braucht es eine anschließende Repräsentation. Damit tritt dann „"an die Stelle des fließenden Inhalts […] eine in sich geschlossene und in sich beharrende Form."“ Symbole sind "universelle" Bedeutungsträger. Das heißt, es kann einerseits "alles" irgendwie Geformte zum Symbol werden, und andererseits lassen sich Symbole beliebig von einer Bedeutung hin zu einer anderen verschieben. Während zwar auch Tiere etwa Warnschreie haben, durch die sie Artgenossen auf Gefahr aufmerksam machen, bleiben diese jedoch immer an die "konkrete Situation" gebunden. So führen tierische "Signale" stets zu der gleichen Reaktion der Artgenossen oder bleiben, wenn sie außerhalb des gewöhnlichen Zusammenhangs geäußert werden, für die anderen unverständlich. Menschliche Symbole hingegen, wie etwa das Wort, sind universell einsetzbar und auf verschiedene Dinge oder Situationen übertragbar. Gleichwohl von dieser Fähigkeit des Menschen jegliche Formgebung abhängt, gibt es historisch keinen „absoluten Nullpunkt“ der symbolischen Prägnanz, keinen Zustand der völligen Formlosigkeit, denn Ausgangspunkt ist die „physiognomische“ Weltwahrnehmung des mythischen Bewusstseins. Für das mythische Bewusstsein zeigt sich die Welt in mimetischen Ausdrucksmomenten. Diese sind affektiv wirksam und ragen ihrem Ursprung nach noch in die tierische Welt hinein. Sie bieten Anknüpfungspunkte für jede weitere Formgebung. Durch Symbole werden "sinnliche" Einzelinhalte zu Trägern einer allgemeinen "geistigen" Bedeutung geformt. Die Formgebung läuft somit zugleich mit der sinnlichen Wahrnehmung ab. Der Mensch lässt sich daher als dasjenige Wesen beschreiben, das durch Formgebung den Dingen eine Bedeutung verleiht, indem es sie in einen Gesamtzusammenhang einordnet. Die Auffassung, dass Kultur ein Zeichensystem sei, bestimmt daher die meisten modernen anthropologischen, soziologischen, literaturwissenschaftlichen und philosophischen Kulturtheorien. In diesem Zusammenhang hat sich der stehende Begriff von „Kultur als Text“ etabliert. Während allerdings Cassirer seinen Kulturbegriff an das praktische Tätigsein des Menschen und dessen Umgang mit der Welt knüpft, birgt hingegen die pointierte Metapher von „Kultur als Text“ die Gefahr einer Verengung des Kulturbegriffs und führt dazu, dass kulturelle Phänomene nur noch von ihrer "sprachlichen" Seite her in den Blick genommen werden. Tradition und kulturelles Gedächtnis. Menschliche Gesellschaften sind für ihr Überleben und ihre Bedürfnisbefriedigung auf ihre kulturellen Fähigkeiten angewiesen. Damit diese auch folgenden Generationen zur Verfügung stehen, muss eine Generation ihre Praktiken, Normen, Werke, Sprache, Institutionen an die nächste Generation "überliefern". Diese Traditionsbildung ist als anthropologisches Grundgesetz in allen menschlichen Gesellschaften anzutreffen. Den Anreicherungsprozess von Wissen durch Traditionsbildung hat in neuerer Zeit Michael Tomasello aus anthropologischer Sicht als „Wagenheber-Effekt“ beschrieben: Mit jeder Generation kommen etwas Wissen und kulturelle Fähigkeiten hinzu. In der Traditionsbildung zeigt sich für Tomasello ein Hauptunterscheidungsmerkmal des Menschen gegenüber dem Tier, das keine Wissensweitergabe durch Nachmachen kennt. Zwar können beispielsweise Affen ihre Artgenossen nachahmen, aber sie sind nicht dazu in der Lage diese als intentionale Wesen zu erkennen, d. h. als Wesen, die bei ihrem Tun einen bestimmten Zweck im Sinn haben. Es gelingt ihnen daher nicht, den Sinn hinter einer Handlung nachzuvollziehen und diese in der zum Gelingen notwendigen Weise selbst auszuführen. Stattdessen bilden sie nur spiegelbildlich die Bewegungen ihrer Artgenossen ab und kommen somit nur zu zufälligen Erfolgen. Damit die Überlieferung der kulturellen Gehalte gelingt, bedarf es einer regelmäßigen "Wiederholung" dessen, was überliefert werden soll, beispielsweise eines bestimmten Rituals zu einer bestimmten Jahreszeit. Eine wesentliche Form der Wiederholung ist nicht nur die tatsächliche Ausübung dessen, was tradiert wird, sondern auch die Fixierung in der Sprache, also die Einbettung in ein Symbolsystem. Sprache ist daher ein vorrangiges Medium der Überlieferung, welches auch jede nichtsprachliche Weitergabe von Wissen begleitet. Erst die schriftliche Fixierung von Ereignissen ermöglicht es, diese auch nach einigen Generationen noch mit der mündlichen Überlieferung abzugleichen. Ist die mündliche Sprache das einzige Medium, in das sich das kulturelle Gedächtnis einschreibt, dann ist die Überlieferung stets von einer Verfälschung bedroht. Denn werden Sagen, Mythen und Abstammungslinien lediglich mündlich weitergegeben (orale Tradition), dann können sich die erzählten Geschichten mit der Zeit unmerklich verändern oder bewusst verändert werden. So rechtfertigen in den meisten frühen Kulturen die Erzählungen über Abstammungslinien und Herrschergeschlecht die aktuellen sozialen Verhältnisse. Nun kann es aber vorkommen, dass beispielsweise durch den plötzlichen Tod des Herrschers eine andere Familie diesen Platz besetzt. In der Absicht, diese neuen Verhältnisse zu rechtfertigen, können Kulturen, die allein auf eine mündliche Überlieferung angewiesen sind, die die Herrschaft rechtfertigenden Erzählungen den neuen Verhältnissen anpassen. Dies führt dann zu einer Stabilisierung der neuen Ordnung. Dieser Vorgang kann als „homöostatische Organisation der kulturellen Tradition“ bezeichnet werden. Erst mit der Schrift steht einer Kultur ein Medium zur Verfügung, welches die "Nachprüfbarkeit" der überlieferten Inhalte ermöglicht. So ist beispielsweise in Streitfällen "nachlesbar", welcher Familie die Abstammung vom Göttergeschlecht zugesprochen wird. Damit bringt die Schrift den größten Einschnitt innerhalb der kulturellen Entwicklung des Menschen, sie stellt eine Revolution dar, die – außer der Erfindung des Buchdrucks mit beweglichen Lettern – auch von folgenden Aufschreibesystemen wie Grammophon, Film und Computer nicht mehr erreicht wird. Übergreifende Momente kulturellen Lebens. Der Vergleich der folgenden Kulturelemente hat zu verschiedenen Versuchen geführt, geographische Räume zu definieren, in denen ähnliche, abgrenzbare Kulturen konstatiert werden können. Die so entstehenden Kulturareale sind zwar aus verschiedenen Gründen umstritten, bilden jedoch eine Möglichkeit, die kulturelle Vielfalt der Welt zu strukturieren, um einen groben Überblick zu erhalten. Tradition. Die Identitätsbildung einer Gruppe ist stark mit der in ihr lebendigen Tradition verknüpft. So beanspruchen etwa die drei großen Traditionslinien der monotheistischen Religionen Judentum, Christentum und Islam auch die Identität der ihnen angehörenden Mitglieder zu bestimmen. Daher kann Oft geht mit der eigenen Tradition ein Anspruch auf Wahrheit einher, weshalb andere Traditionen als unverständlich und seltsam empfunden werden. Während die eigene Tradition keiner Begründung bedarf, gilt die andere als nicht begründungsfähig. Bei einem solchen Zusammentreffen kann es entweder zur Abschottung gegen das Fremde kommen, zur Übernahme einzelner fremder Elemente (Synkretismus) oder aber auch zu ersten Ansätzen einer "Traditionskritik", welche die eigenen Riten, Sitten, Gebräuche und Normen in Frage stellt. Eine einschneidendere Situation tritt ein, wenn im Dialog mit der anderen Tradition nach einer gemeinsamen Geltungsgrundlage gesucht wird. Da jede Tradition für sich das Alter ihrer Herkunft geltend macht, kann dies nicht als Maßstab dienen. Damit wird aber das erste Mal Tradition "an sich" zum Thema und Gegenstand der bewussten Auseinandersetzung. Damit kann Tradition in Zweifel gezogen werden, weil sie "nur" Tradition ist. Die im Abendland historisch frühste Traditionskritik vollzieht sich in den Anfängen der griechischen Philosophie, wenn nämlich in den Platonischen Dialogen es den Verfechtern der Tradition nicht gelingt, ihre eigene Position philosophisch zu begründen. Auch in der Zeit vom 16. bis zum 18. Jahrhundert übernimmt die Philosophie die führende Rolle in der Traditionskritik, vor allem im Zeitalter der Aufklärung. Die Aufklärer kritisieren das mit Fehlern behaftete Überlieferungsgeschehen der heiligen Schriften und setzen ihm die ewig gültigen Gesetze der Vernunft entgegen. Im Naturrecht wird nach natürlichen Gesetzen gesucht, auf deren Grundlage das traditionelle Recht kritisiert werden kann. Mit der Französischen Revolution wird erstmals erkannt, dass Gesellschaften von Grund auf veränderbar, revolutionierbar, sind. In der Kunst tobt der "Streit der Alten und der Neuen" (frz. "querelle des anciens et des modernes") welchem das Gegensatzpaar von Tradition und Moderne entspringt. Dieser Gegensatz machte allerdings auch dafür blind, dass die moderne Gesellschaft ihrerseits eine Tradition der Zweckrationalität und Wertrationalität hat, ihre Festschreibung auf Wandel statt wie in traditionellen Gesellschaften auf Stabilität. Herder sieht als einer der Ersten das "Principium" der Tradition Für Herder ist der Traditionsbegriff also nicht auf die treue Wahrung einer Ursprungsweisheit angelegt, sondern auf die allmähliche Anreicherung wertvollen Wissens, dass über die gesamte Geschichte der Menschheit nach und nach das Unmenschliche ausscheidet. Dass allerdings Traditionsbildung auch auf irrationalen Ängsten und gewaltsamen Zwängen beruhen kann, darauf hat Sigmund Freud in seiner Studie "Der Mann Moses und die monotheistische Religion" hingewiesen. Freuds inhaltliche Rekonstruktion des Überlieferungsgeschehens durch unbewusste Zwänge und archaische Ängste stieß zwar auf breite Ablehnung, trotz allem kommt ihm das Verdienst die Gründe für Tradition und Überlieferung nicht nur unter dem optimistischen Gesichtspunkt einer fortschreitenden Verbesserung zu sehen und so den Blick auf pathologische Momente der Tradierung zu öffnen. Als die institutionalisierten Geistes- und Geschichtswissenschaften im 20. Jahrhundert den Anschein aufkommen ließen, man könnte sich der Vergangenheit gänzlich objektiv und theoriefrei nähern, hat Hans-Georg Gadamer darauf hingewiesen, wie prägend auch für uns Heutige noch der Bezug zur Tradition ist: Inhalte der Überlieferung können durch wissenschaftliche Methoden niemals restlos verobjektiviert und zum bloßen Gegenstand einer der Tradition enthobenen Erkenntnis werden. Gadamer prägt dafür den Begriff des "wirkungsgeschichtlichen Bewußtseins", dass über die Tradition reflektiert und sich zugleich seiner Bestimmtheit durch die Tradition bewusst ist. Sprache. Ein wesentliches Ordnungssystem, durch welches sich Bewältigungs- und Kommunikationsprozesse vollziehen, ist die Sprache. Sprache ist ein symbolisches Medium, das kein einzelner Mensch aus sich heraus selbst erfindet, sondern welches ihm überliefert wird. Der Mensch kann sich daher immer nur zur Sprache als einem immer schon Gegebenen "verhalten". Als ein Zeichensystem schafft Sprache einen Raum der Öffentlichkeit, aus dem der Mensch beim Sprechen schöpft und in den hinein er stets zurückspricht. Sprache darf, wenn ihre kulturelle Bedeutung verstanden werden soll, nicht nur als Mittel der Kommunikation angesehen werden, sondern sie strukturiert grundsätzlich das menschliche Verstehen der Welt. Wenn die Bedeutung der Sprache für den Menschen als kulturelles Wesen verstanden werden soll, dann kann es nicht darum gehen, einzelne konkrete Sprachen auf ihre Eigenart hin zu untersuchen, sondern es muss verstanden werden was überhaupt Sprache "als Sprache" ausmacht. Dabei konnten sich biologistische Sprachtheorien nicht durchsetzen, wie etwa in der Antike die von Demokrit (460–371 v. Chr.) vertretene Auffassung, dass Sprache aus Lauten rein emotionalen Charakter hervorginge, oder die an Charles Darwin (1809–1882) anschließende Sprachforschung, welche Sprache auf evolutionstheoretische Notwendigkeiten zurückführen möchte. Auch die ausgefeiltere von Otto Jespersen (1860–1943) vorgeschlagene Holistische Sprachgenesetheorie ist für die kulturwissenschaftliche Sprachauffassung bedeutungslos geblieben. Diesen Sprachtheorien ist gemeinsam, dass sie Sprache lediglich im Hinblick auf ihren affektiven und emotionalen Zug betrachten. Damit wird aber der propositionale Gehalt von einfachen Aussagen wie „Der Himmel ist blau“ übergangen, denn diese Aussage fordert weder zu einer unmittelbaren Handlung auf, noch hat sie einen emotionalen Gegenstand, sondern sie weist "symbolisch" auf etwas hin, das womöglich im Gesamtzusammenhang einer Kultur von "Bedeutung" ist. Bei der Untersuchung vorhandener Sprachen unterscheidet Saussure zwischen der "synchronischen" (zeitgleichen) und "diachronischen" (in der Zeit sich verändernden) Betrachtungsweise. Für Saussure ist die erste Form die wichtigere. Das heißt, er arbeitete nicht sprachhistorisch, sondern versuchte anhand einer gegebenen Sprache deren innere "Struktur" freizulegen, weshalb man Saussure auch als Gründer des Strukturalismus bezeichnet. Saussure kommt zu dem Urteil, dass Sprache nicht dadurch funktioniert, dass ein Laut oder eine damit bezeichnete Vorstellung an sich gegeben ist. Vielmehr bilden sich einzelne verständliche Laute (Phoneme) nur in "Abgrenzung" zu anderen aus: „In der Sprache gibt es nur Verschiedenheiten.“ Dass phonetische Laute nicht einfach gegeben sind, zeigt sich beispielsweise daran, dass Japaner und Chinesen den Unterschied zwischen „L“ und „R“ nicht hören, da sich diese Differenz kulturell nicht ausgeprägt hat. Es wird also nicht ein Wort wie ein Anker an einen Gegenstand gekettet, den es von nun ab bezeichnet, sondern aus dem durch Verschiedenheiten aufgebauten Geflecht der Laute können mehrere Laute zu einem neuen "und von den anderen unterscheidbaren" Gebilde zusammengesetzt werden. Dieses Wort kann dann innerhalb der Menge der "Vorstellungen." die sich ebenfalls durch Abgrenzung zueinander ausbilden, eine solche Vorstellung bezeichnen. Mit der ikonischen Wende (von altgriechisch "ikon" „Zeichen“; englisch "iconic turn") wird seither Kultur hauptsächlich unter dem Aspekt der Zeichentheorie aufgefasst, wobei nun nicht mehr nur abstrakte Zeichen, sondern auch an Anschauungen angelehnte Bilder als Zeichen aufgefasst werden. Dies hebt die scharfe Grenze zwischen Text und Bild auf und Kultur zeigt sich als Zeichenuniversum von Verweisungen und Bezügen, das die Lebenswelt des Menschen ausmacht. Juri Michailowitsch Lotman spricht daher auch von der „Semiosphäre“ in Analogie zur Biosphäre. Wenn in modernen Kulturtheorien von „Text“ oder „Diskurs“ die Rede ist, beschränken sich diese beiden Begriffe auch nicht mehr auf die schriftliche Aufzeichnung, sondern werden für Symbolismen jeder Art verwendet: Körper, Dinge, Kleidung, Lebensstil, Gesten, all dies sind Teile des Zeichenuniversums Kultur. Im Anschluss an Saussure hat Jacques Derrida mit seinem Begriff der Différance eine literaturwissenschaftliche Methode geprägt, die einen Text nicht durch eindeutige Aussagen geprägt auffasst, sondern als ein Geflecht, in dem sich erst durch Differenzen Bedeutungen ausbilden. Die Dekonstruktion versucht den Nebenbedeutungen nachzugehen und die an den „Rändern“ eines Textes abgeblendeten und so unthematisch bleibenden Bezüge wieder ins Bewusstsein zu rufen. Für Derrida stellt die Kultur somit einen Text dar, in dem es zu lesen gilt. Martin Heidegger hat darauf hingewiesen, dass sprachliche Äußerungen nicht schlichtweg als propositionale Aussagen im Sinne von „A ist B“ verstanden werden können. Die Struktur der Sprache ist stets so vielfältig verästelt, dass sich einzelne Begriffe niemals klar umgrenzen lassen, sondern erst durch ihre Nebenbedeutungen und Beiklänge ein Verstehen erst möglich machen. In einer Aussage der Form „A ist B“ wird beispielsweise A "als" B aufgefasst. Heidegger bezeichnet diese Verkettung von A und B durch das „Als“ mit dem Titel „apophantisches Als“. Es ist diese Form, nach der in der philosophischen Tradition die meisten sprachlichen Aussagen aufgefasst wurden. Dem entgegen weist Heidegger darauf hin, dass die Bedeutung von A und B nicht bloß an deren Rändern abreißt, sondern immer nur in einem größeren Gesamtzusammenhang zu verstehen ist. Auch eine Aussage des Schemas „A ist B“ kann nur vor einem größeren Verständnishorizont verstanden und eingeordnet werden. Eine Form der Sprachlichkeit, die sich nicht in Aussagen des Schemas „A ist B“ ergeht, sondern die den ganzen Reichtum einer kulturgeschichtlich gewachsenen Sprache hervortreten lässt, stellt für Heidegger die Dichtung dar. In der Dichtung treten einzelne Bedeutungsmomente besonders hervor, andere werden hingegen bewusst abgeschattet. Damit verengt die Dichtung sich nicht zu eindeutigen Feststellungen, sondern lässt Raum für das Ungesagt, Unbewusste und Unthematische unseres kulturell geprägten Welt- und Selbstbezugs, das so durch sie erst "zur Sprache kommt". Auch wies Heidegger Sprachtheorien zurück, welche die Sprache lediglich als ein Mittel zur Kommunikation auffassen, so dass mit ihr Aussagen wie „A ist B“ mitgeteilt werden können. Diese funktionalistisch geprägte Auffassung sieht Sprache lediglich als Hilfsmittel zur gemeinsamen Bewältigung von praktischen Bedürfnissen. Für Heidegger gingen solche Sprachtheorien zurück auf die mit der Neuzeit einsetzende ökonomisch-technische Verwertbarmachung der Welt. Sprache wird dann als Werkzeug zur Kommunikation aufgefasst, dass sich durch logische Strukturierung verbessern ließe, wie dies Gottlob Frege, Bertrand Russell und Rudolf Carnap im Projekt der Einheitssprache anstrebten. Gegen einen so verengten Sprachbegriff machte Heidegger die Dichtung stark und weist darauf hin, dass im dichterischen Besingen der Welt keine praktische Haltung vorherrscht (siehe beispielsweise Hölderlins Hymne "Der Ister"). Zum anderen sah es Heidegger als verfehlt an, davon auszugehen, dass Sprache "innerhalb einer Welt" eine einzelne Aussage mitteilt. Vielmehr "ist die Sprache die Welt", in welcher der Mensch lebt, da alles Wissen, Denken und Begreifen sich in sprachlichen Strukturen vollzieht. Heidegger prägte hierfür den Ausdruck, die Sprache sei „das Haus des Seins“. Handlung. Kultur besteht nicht nur aus sprachlich festgeschriebenen Strukturen des Verstehens und der Objektivität, sondern auch aus geschichtlich "handelnden" und "leidenden" Menschen. Nicht alles Tun des Menschen ist aber schon kulturelle "Praxis". Damit diese entsteht bedarf es einer Gruppe von Menschen, die gemeinsam und regelmäßig für sie bedeutsame Handlungen ausführt. Verfestigen sie das Tun auf diese Art zu Ereignissen, die regelmäßig wiederholt werden oder Orten an denen die Praxen gemeinsam durchgeführt werden, spricht man auch von "Institutionen". Institutionen sind Orte des menschlichen Handelns beispielsweise in Form von Arbeit, Herrschaft, Recht, Technik, Religion, Wissenschaft und Kunst. In Institutionen vollzieht sich die Differenzierung dieser Praxen, zugleich entwickeln sie unabhängig von anderen Institutionen ihre eigenen Werte. Wird Kultur unter dem Gesichtspunkt der praktischen Handlungen und des Kulturgeschehens betrachtet, so stellt dies auch ein gewisses Gegengewicht dar zu Auffassungen, welche Kultur in erster Linie (oder ausschließlich; Kulturalismus) als Sinnsystem von symbolischen Codes verstehen und in ihr einen lesbaren Text sehen. So ist Kultur nicht nur ein Gewebe von Bedeutungen, sondern diese bedürfen einer "Ausübung." um sich zu erhalten und fortzusetzen. Dabei können jedoch auch gerade durch die Ausübung neue Sinnzusammenhänge entstehen oder alte sich abschleifen, als unpassend oder unbedeutend empfunden werden. Im Zurückgreifen auf kulturelle Symbole, Sinn- und Handlungszusammenhänge, die in der Ausübung jedoch nie gänzlich verwirklicht werden können, ergibt sich ein Wechselspiel das die Kultur in lebendiger Bewegtheit hält: Auch aus dem Zufälligen und Ungewollten entsteht Neues. Geltung. Dinge, die für das Denken und Handeln des Menschen in irgendeiner Form den Anspruch auf eine Bedeutung erheben, kommt eine gewisse "Geltung" zu. Im zwischenmenschlichen Umgang können solche Ansprüche und Herausforderungen an den Einzelnen oder an Gruppen angenommen oder abgelehnt werden. Ansichten, Gesetze, Bedeutungen können daher umstritten sein. Die Frage, welche sich diesem Sachverhalt widmet ist die der "Geltung" von Identität. Menschen begegnen sich meist als Individuen anhand ihrer Geschlechtlichkeit, Leiblichkeit, psychischen Triebstrukturen und biographischer Einzigartigkeit. Diese Merkmale können für den Einzelnen oder für die Gruppe "identitätsbildend" wirken und werfen im Falle von Gruppen die Fragen von Zugehörigkeit und Mitgliedschaft auf. Damit geben soziale Gruppen im kulturellen Leben dem Menschen eine Antwort auf die Frage, wer er im Vergleich zu den übrigen ist, sie bestimmen seine Identität. Durch Gruppenbildung und der Form des Handelns in ihr bilden sich Gemeinschaften oder Gesellschaften, die sich gegen andere Gruppen abschließen, Mitglieder aufnehmen oder ausschließen. Diese Vorgänge bestimmen unabhängig von den konkreten Inhalten die Identität der Gruppe und des Einzelnen. Zeit. Menschliche Kultur erhält sich dadurch, dass sie weitergegeben wird. Dieser Moment der Tradition steht in engem Zusammenhang mit der geschichtlichen Entwicklung von Kulturen. Geschichte kann einerseits rückblickend anhand verschiedener Kriterien in Epochen unterteilt werden, andererseits ist jeder Kultur ein historisch gewachsener Zeitgeist innewohnend. Raum. Räume werden nicht einfach wie der mathematische euklidische Raum als dreidimensionale Strukturen wahrgenommen und erst anschließend und unter Umständen mit Bedeutung versehen oder Interpretationen unterworfen: Es macht stets einen Unterschied, ob man fünf Meter gerade aus schaut, oder fünf Meter unter sich. Der Blick fünf Meter nach unten mag wiederum dem norddeutschen Küstenbewohner unbehaglicher sein, als dem Alpenbewohner. Die Raumwahrnehmung ist also niemals eine neutral-mathematische, sondern unterliegt kulturellen Prägungen. So werden in erster Linie Verhältnisse im Raum entdeckt welche eine physische Orientierung in ihm ermöglichen: Wege, Hindernisse, Sitzmöglichkeiten und Gefahren. Die Orientierung im städtischen Raum erfordert es das Geflecht von Straßen, Kreuzungen und Ampeln zu verstehen und anhand von Häusern bekannter Größe die Entfernungen richtig einschätzen zu können, während indigene Völker sich im Urwald ganz ohne Straßen und Wege zurechtfinden sondern Bäume, Flussläufe und ähnliches nutzen. Beides mal strukturieren kulturell "erlernte" Fähigkeiten und Sehgewohnheiten die Raumwahrnehmung. Auch das Haus ist ein Raum, der durch eine "sinnhafte" Struktur bestimmt ist, wie Heidegger es beschreibt: Gebrauchsgegenstände haben ihren „Platz“, sie gehören in eine „Gegend“ anderer zu ähnlich nützlichen Gegenstände. Die Dinge sind nicht im dreidimensionalen Raum einfach „oben“ oder „unten“, sondern „an der Decke“ oder „auf dem Boden“. Gesehen werden nicht zuerst unbedeutende Objekte im physikalischen Raum, sondern etwas liegt „am falschen Platz“ oder „steht im Weg“, dort „wo es nicht hingehört“. Diese Bestimmungen sind aber keine absoluten, sondern hängen von der Kultur und dem Umfeld ab, in welchem der Mensch herangewachsen ist. Auch solche atmosphärische Qualitäten bestimmen die Wahrnehmung des Raumes. Gernot Böhme untersucht, wie repräsentative Zimmer oder Säle mit Gegenständen ausgestattet werden, die eigentlich keinen Gebrauchswert haben, bzw. deren Wert genau darin liegt, Atmosphäre zu erzeugen. Luc Ciompi konnte zeigen, inwieweit das, was als atmosphärisch angenehm empfunden ist, kulturabhängig ist. Während sich etwa Italiener in hohen, kühlen und dunklen Zimmern wohlfühlen, bevorzugen Nordländern niedrige, helle und warme Räume, was sich auf die unterschiedlichen klimatischen Bedingungen zurückführen lässt und die von Kindheit her vertraute Wohnatmosphäre. Kulturelles Leben findet in Räumen statt. Diese Räume sind nicht einfach der dreidimensionale Raum der Physik, der die Kulturgüter wie ein Behälter umschließt. Vielmehr ist Kultur selbst raumbildend, d. h. sie schafft sich symbolische und figurative Räume. Diese Räume sind in erster Linie nicht durch ihre Eigenschaft als Behältnis bestimmt, sondern durch einen sinnhaften Zusammenhang, so bildet beispielsweise der Herd des Hauses einen Ort der Versammlung, an den die Mitglieder bäuerlicher Hausgemeinschaften nach getanem Tageswerk zusammen kommen. Der Tempel oder die Kirche sind Orte, an welchen das Heilige dem Leben des Menschen ein Maß gibt und andere Gesetze und Verhaltensweisen gelten, als in der profanen Sphäre der Küche. Auch politisch werden Grenzziehungen propagiert, die sich nicht an geographischen, sondern kulturellen Räumen orientieren, bzw. diese vorschreiben, wenn etwa George W. Bush Amerika und Europa zur „Westlichen Welt“ zusammenfasst und ihnen die „Achse des Bösen“ entgegenstellt. Kulturelle Räume können feste "Anordnungen" an einem ausgezeichneten "Platz" sein, wie etwa bei einem Kloster oder aber als "bewegte Anordnungen" auftreten, wenn beispielsweise Mobilfunkteilnehmer raum-zeitliche Abstände überbrücken. Eine der frühsten Einteilungen der Welt scheidet profane und heilige Orte. Heilige Orte sind jene, an denen das Göttliche durch besondere Ereignisse zur Erscheinung kommt. Für den mythisch denkenden Menschen bleiben Götter oder Geister an diesen Ort gebunden, es ist jener Stein oder jene Eiche, in der sich das Heilige manifestiert. Damit ergibt sich eine Einteilung des Lebensraums, die nicht mehr allein wie beim Tier an physiologischen Bedürfnissen orientiert ist (Wasser, Nahrung), sondern sich an einem "symbolischen Gehalt" festmacht. Verschiedene Orte können ethnisch-, klassen- oder geschlechterspezifisch zu neuen Orten zusammengefügt werden. Hierdurch kann es zu Abgrenzungen zwischen Ein- und Ausgeschlossenen kommen, auch können bestimmte räumliche Anordnungen soziale Ungleichheiten widerspiegeln oder festschreiben. Während VIP-Räume bewusst „wichtige“ von den „weniger wichtigen“ Menschen trennen, vollziehen sich räumlich-soziale Abgrenzungen meist über längere Zeit. So werden Häuser, Wohnungen und Stadtteile nach dem entsprechenden Einkommen gewählt und hierdurch Klassenverhältnisse reproduziert, die sich dann auch physisch in den Raum einschreiben. Dieses Einschreiben in den Raum fasst Pierre Bourdieu in die Worte, dass der Habitus das Habitat ausmacht. Damit spiegelt der städtische Raum die sozialen und geschlechterspezifischen Verhältnisse: Arbeiterjugendliche halten sich häufiger auf öffentlichen Plätzen und Straßenecken auf, Jungen mehr als Mädchen. Während ein entsprechendes Vermögen die Aneignung und bauliche Umgestaltung von öffentlichem Raum nach den eigenen Bedürfnissen ermöglicht, ist dies den unteren sozialen Schichten einer Gesellschaft nicht ohne weiteres möglich. Auch Kinder und Jugendliche können sich nicht materiell eigene Räume schaffen und sind daher darauf angewiesen diese durch ihre leibhaftige Anwesenheit zu besetzen: Die geduldete Raucherecke hinter der Turnhalle bildet gegenüber dem autoritären Raum des Schulgeländes einen Rückzugsort für die Schüler. Dieser Ort schreibt sich aber nicht physisch ein, sondern entsteht allein durch das häufige Aufsuchen und die Anwesenheit der Schüler. Hier wird besonders deutlich, dass kultureller Raum nicht einfach gegeben ist, sondern dadurch hergestellt wird, dass im Handeln individuell und kollektiv darauf Bezug genommen wird. Auch die globale kapitalistische Wirtschaftsweise schafft einen neuen sozialen Raum, der sich nun erstmals über den ganzen Erdball ausdehnt. Dieser Raum, dessen Verbindungslinien durch Flugzeuge, Schnellstraßen und Zugstrecken zusammengehalten wird, kann jedoch nicht von allen genutzt werden. So haben etwa nur fünf Prozent der Weltbevölkerung je in einem Flugzeug gesessen, zudem verbindet der Flugverkehr nur die „Reichtumsinseln“ des Planeten. Peter Sloterdijk hat sich diesem „Innenraum“ des Planeten gewidmet, zu dem nur der Zugang erhält, der genügend zahlen kann. Geschlechterspezifisch abgetrennte Räume sind in modernen westlichen Gesellschaften seltener geworden und beschränken sich auf Umkleidekabinen, Saunen und Toiletten. Die Herbertstraße im Hamburger Rotlichtviertel markiert aber weiterhin einen geschlechterspezifischen Raum, zu dem Frauen und Jugendlichen der Zutritt verwehrt wird. Kulturkritik. a> ist einer der bedeutendsten Kulturkritiker In der Kulturkritik werden die einzelnen Kulturleistungen des Menschen kritisch befragt auf ihre ungewollten, zerstörerischen, unmoralischen und unsinnigen Folgen. Dies kann sich zu einer Gesamtschau der Menschheitsgeschichte ausweiten, die dann insgesamt als Verfallsgeschichte erscheint. Die Kernaussage vieler kulturkritischer Ansätze besteht dabei darin, dass sie in Bezug auf das menschliche (Zusammen)leben einen "natürlich" gegebenen Zustand annehmen, einen Naturzustand, welcher der Wesensverfassung des Menschen entspricht. Dieser Urzustand wird dann mit fortschreitender kultureller Entwicklung durch "Künstlichkeiten" verstellt und verzerrt. Er wird überlagert von künstlichen sozialen Beziehungen und Herrschaftsformen (Jean-Jacques Rousseau) oder führt durch die Erfindung neuer Produktionsverhältnisse zur Entfremdung des Menschen von sich selbst, wie Karl Marx meint. Friedrich Nietzsche sieht in der vorsokratischen Antike noch ein Zeitalter, in welchem der Wille zur Macht ungehemmt gelebt wurde, während mit dem „wissenschaftlich“ denkenden Sokrates und der Moral des Christentums ein Zerfall einsetzt, der im Zeitalter der laschen Dekadenz seinen Höhepunkt erreicht. Martin Heidegger sieht ebenfalls bei den Vorsokratikern noch ein offenes und reflexives Verhältnis des Menschen zu philosophischen Anschauungen und Überlegungen, während in der Philosophie von Platon und Aristoteles erstmals diese Erkenntnisse absolut gesetzt werden und so das Denken der Menschen auf Jahrhunderte in Kategorien zwängen, aus denen es sich selbst nicht ohne weiteres befreien kann. Der moralkritische Ansatz Sigmund Freuds nimmt in Bezug auf die seelischen Verfassung des Menschen feststehende natürliche Bedürfnisse an, welche ihm durch künstliche moralische Vorschriften verwehrt werden und so den Menschen zu zwanghaften Ausgleichshandlungen drängen. Viele kulturkritische Werke spielten eine bedeutende Rolle dabei, zu verstehen, was Kultur überhaupt erst ausmacht. Erst durch das kritische Abstandnehmen und eventuelle Verurteilen der bestehenden Verhältnisse zeigt sich heute die Kultur nicht als unveränderlich Vorhandenes, sondern als ein "Geschehen", das auch hätte anders verlaufen können. Sie lassen Kultur erkennen als die "Kontingenz des Gewordenen". Kaufkraftstabiles Geld. Kaufkraftstabiles Geld ist ein idealisiertes Geld, das weder Deflation noch Inflation erlebt. Das heißt, der Preisstand gemessen in diesem Geld bleibt konstant. Das schließt nicht aus, dass es in einigen Branchen Preiserhöhungen oder -senkungen gibt, aber insgesamt bleiben die Preise ausgeglichen. Der Wert von kaufkraftstabilem Geld wird genauso definiert wie ein Lebenshaltungsindex oder ein Verbraucherpreisindex mit der Besonderheit, dass dieser Index gemessen in idealisiertem kaufkraftstabilem Geld über die Zeit konstant bleibt. Kredit. Unter Kredit (abgeleitet vom lateinischen "credere" „glauben“ und "creditum" „das auf Treu und Glauben Anvertraute“; engl. "credit" oder "loan" = Leihe) versteht man allgemein die Übereignung von Bargeld (Banknoten, Münzen), Buchgeld oder vertretbaren Sachen vom Kreditgeber zwecks befristeter Gebrauchsüberlassung durch den Kreditnehmer, der sich zu einer zukünftigen Gegenleistung in Form der Rückzahlung verpflichtet. Allgemeines. Der Kreditbegriff ist ein Oberbegriff für eine Vielzahl wirtschaftlicher Fallgestaltungen, bei denen der Schuldner von der Verpflichtung befreit ist, seine Leistung sofort zu erbringen. Deshalb darf der Kreditbegriff nicht auf den Bankkredit verengt werden, weil auch in vielen anderen Alltagssituationen bereits Kreditgewährung vorliegt, auch wenn dies von den Beteiligten oft nicht wahrgenommen wird. Jede Vorleistung bei gegenseitigen Verträgen ist ein Kredit, weil jemand im Vertrauen darauf vorleistet, dass die Gegenseite ihrerseits ihre vertraglichen Verpflichtungen erbringen kann und will. Das konstituierende Merkmal eines Kredits ist die Zeitdifferenz, die zwischen dem Zeitpunkt der Leistung und dem Zeitpunkt der Gegenleistung auftritt. Dabei kann es sich auch um Kredite handeln, die in der Überlassung von vertretbaren Sachen (Sachdarlehen) bestehen. Geschichte. Die einfachen Anfänge des Kreditwesens sind bereits um 3000 v. Chr. in Mesopotamien zu finden. Im Zuge der Entwicklung eines einfachen Zahlungs- und Kreditsystems wurde Getreidesaat an Bauern verliehen, welches erst nach der Ernte zuzüglich Zinsen zurückgegeben werden musste. Im antiken Griechenland sowie in Lydien entstanden im Laufe des 7. Jahrhunderts v. Chr. die ersten geprägten Münzen. So konnten sich erste Geldwechsel- und Leihgeschäfte etablieren, die man heutzutage als Kredite bezeichnen würde. In Griechenland entwickelte sich schließlich eine fortschrittlichere Form des Kreditwesens. Dadurch, dass freigelassene Sklaven denselben rechtlichen Status wie zugezogene Metöken hatten, durften sie weder Grund erwerben noch in der Landwirtschaft tätig sein, weshalb viele von ihnen im Geldwesen arbeiteten. Im 3. Jahrhundert v. Chr. war es ein freigelassener Sklave namens Pasion, welcher im athenischen Hafen von Piräus Depositen verwahrte und diese nach Vereinbarung weiter investierte. Von seinen Schuldnern verlangte er zwischen 10 und 12 % Zinsen. Im römischen Recht war der Grundtypus des Kreditgeschäfts das formlose Mutuum (Darlehen), die Übereignung einer Geldsumme oder anderer vertretbarer Sachen (Saatgut, Wein, Öl) mit der Abrede, die gleiche Summe oder Menge zurückzugeben. Die Hingabe des Mutuum begründete die Verpflichtung zur Rückgabe, so dass ein Realvertrag vorlag. Bei Institutiones (Gaius) (3, 90) ist im „Senatus consultum Macedonianum“ aus 47 n. Chr. davon die Rede, dass Macedo Geld an unsichere Schuldner auslieh - eine frühe Form zweifelhafter Forderungen. Im Regelfall wurden keine Kreditzinsen verlangt, da sie nicht vom Mutuum erfasst waren, sondern es bedurfte für die Zinszahlung einer besonderen Vereinbarung. Die Römer kannten durchaus Zinsen und beschäftigten sich damit sehr eingehend. Bereits im Zwölftafelgesetz war eine Höchstgrenze für Zinsen festgelegt. Spätestens seit dem römischen Kaiser Konstantin dem Großen (regierte von 306 bis 337) waren Kreditgeschäfte zu einem Zinssatz von 12 % üblich. Die mittelalterliche Wirtschaft erforderte wegen des allgemein herrschenden Bargeldmangels umfangreiche Konsumkredite. Der „Borgkauf“ - der heutige Warenkredit - war im Mittelalter geradezu die Regel. Hinderlich war bei Kreditgewährungen das christliche Zinsverbot. Papst Alexander III. gestattete den Juden 1179 ausdrücklich das Zinsgeschäft, doch verlangte das IV. Laterankonzil von 1215 von den Juden die Wiedergutmachung zu hoher Zinsen. Der daraus resultierende Erfolg der Juden im Kreditgeschäft veranlasste die Franziskaner 1462 zur Einrichtung von Kreditkassen aus christlichem Geld, um die Christen „aus den Klauen jüdischer Wucherer“ zu befreien. Cosimo de’ Medicis Bank vergab im Jahre 1397 Kredite unter anderem an den Florentiner Kaufmann Niccolò Niccoli. Erste Nachweise eines systematisch besicherten Kredits in Form des Lombardkredits finden sich bereits um das Jahr 1400, als Kaufleute Kredite an Feudalherren und Adelige gegen Pfandüberlassung vergaben und somit zum Aufstieg norditalienischer Handelshäuser beitrugen. Hervorzuheben ist dabei das florentinische Bankhaus Compagnia dei Bardi, das im 14. Jahrhundert in Geschäftsbeziehung mit dem englischen Königshaus stand und im Jahr 1344 an Edward III. 900.000 Goldflorin verliehen hatte. Bereits 1530 gewährte Jakob Fugger dem späteren deutschen Kaiser Ferdinand I. ein Darlehen über 275.333 Gulden Im Jahre 1609 wurde Papiergeld durch die Niederländer auch in Europa etabliert, was nach anfänglichem Misstrauen der Bevölkerung gegenüber den Papierscheinen zu florierenden Leihgeschäften führte. Diese Entwicklung beeinflusste das Kreditwesen und somit auch den Handel nachhaltig. Reisende Kaufleute erhielten schon im Mittelalter gegen Hinterlegung von Geld bei einem Bankier Kreditbriefe, gegen deren Vorlage auf der Reisestrecke Teile des hinterlegten Geldes ausgezahlt wurden und das Beraubungsrisiko auf Reisen damit vermindert werden konnte. Möglich wurde dies durch enge familiäre Beziehungen der frühen Bankiers. Heinrich VIII. legalisierte 1575 die Zinszahlung, doch erst mit der Lockerung des kanonischen Zinsverbots und mit dessen endgültiger Aufhebung im Jahre 1741 konnte legal Kreditzins verlangt werden. Dadurch verbreitete sich das gewerbliche Kreditgeschäft. Die 1619 gegründete berühmte Hamburger Bank war noch keine Kredit-, sondern nur eine Zahlungsbank. Bei Banken ergab sich nun eine Änderung der Kreditpolitik, als ab 1795 auch städtischen Bürgern Kredit gewährt wurde. Im Jahre 1856 entstanden die ersten großen modernen Kreditbanken in Hamburg, die Vereinsbank Hamburg (11. August 1856) und die Norddeutsche Bank (15. Oktober 1856). Mit dem Inkrafttreten des BGB im Januar 1900 entstand ein einheitliches Darlehensrecht, wenn auch im Hinblick auf seine wirtschaftliche Bedeutung nur fragmentarisch (§§ 607-610 BGB a.F.). Die meisten offenen Rechtsfragen - wie etwa die fehlende Legaldefinition des Darlehensbegriffs - mussten durch Rechtsprechung und Literatur geklärt werden. Der Gesetzgeber hielt den Darlehensbegriff im Rechtsleben für eingebürgert, so dass ihm eine Definition entbehrlich erschien. Der BGH verstand darunter im April 1962 einen „schuldrechtlichen Verpflichtungsvertrag über die entgeltliche oder unentgeltliche Nutzung eines Kapitals auf Zeit.“ Im Januar 1932 kam es zwischen den Spitzenverbänden des Kreditgewerbes zum so genannten Mantelvertrag mit einem Habenzins- und Sollzinsabkommen, das im März 1965 durch die Zinsverordnung ersetzt wurde. Beide sollten die Rentabilität der Banken durch Festlegung einheitlicher und fester Zinssätze sicherstellen, aber auch den Kunden durch vorgeschriebene Höchstzinsen bei Krediten schützen. Als die Zinsverordnung im April 1967 außer Kraft trat, wurden auch die Kreditzinsen der Marktentwicklung überlassen. In den Jahren des Wiederaufbaus nach dem Zweiten Weltkrieg nahm die Bedeutung des Kreditgeschäfts mit privaten Kunden zu. Die Kreditinstitute gewährten Kredit für die Anschaffung von langlebigen Wirtschaftsgütern, die Konsumentenkredite, die mit einer festen Ratenvereinbarung innerhalb von höchstens 72 Monaten zu tilgen waren. Die Kredite waren im Wesentlichen auf die Gehaltseingänge der Kunden abgestellt; neben einer Lohn- und Gehaltsabtretung wurde insbesondere eine Sicherungsübereignung von Kraftfahrzeugen üblich. Um die Bonität der Kreditnehmer überwachen zu können, melden die Kreditgeber die gewährten Ratenkredite der Schufa und erhalten ihrerseits Rückmeldungen, falls Kreditnehmer weitere Kredite bei anderen Banken aufnehmen. Ab 1970 hatte fast jeder Arbeitnehmer ein laufendes Girokonto für seine Gehaltseingänge und den Zahlungsverkehr. Die Banken erhielten hiermit einen guten Einblick in die Einkommensverhältnisse und räumten Dispositionskredite in Höhe mehrerer monatlicher Gehaltseingänge ein. Das Schuldrechtsmodernisierungsgesetz vom Januar 2002 verzichtete auf den Begriff Kredit, der als Oberbegriff für das Gelddarlehen, einen Zahlungsaufschub und sonstige Finanzierungshilfen diente; an seine Stelle sind die Erscheinungsformen des Kredits getreten. Es änderte den Darlehensvertrag vom bisherigen Realvertrag in einen Konsensualvertrag um, so dass der Vertrag bereits durch Parteivereinbarung und nicht erst durch die Auszahlung des Darlehens zustande kommt. Damit besitzt die Auszahlung als Vertragserfüllung keine konstitutive Wirkung mehr. Rechtsfragen. Der wirtschaftswissenschaftliche Kreditbegriff ist zu breit für eine rechtliche Umsetzung, so dass das Darlehen aus rechtswissenschaftlicher Sicht nur eine Art des Kreditgeschäfts darstellt. In der Rechtswissenschaft wird der Kreditbegriff vielfach verwendet. So regeln die §, Abs. 2 AktG die Kreditgewährung an Organmitglieder der AG, GmbHG die „Kreditgewährung an Gesellschafter“ der GmbH, Satz 2 HGB sieht beim Kreditauftrag durch den Kaufmann keine Einrede der Vorausklage vor. Das BGB kennt zwar in BGB den bürgschaftsähnlichen Kreditauftrag, vermeidet jedoch den Kreditbegriff in der Legaldefinition und spricht von Darlehen. In BGB ist die Kreditgefährdung kodifiziert, Nr. 8 BGB verlangt die Genehmigung des Gerichts zur Aufnahme von Geld auf den Kredit des Mündels; doch bei der zentralen Regelung des Kredits als vertragliches Schuldverhältnis im Schuldrecht benutzt es den Begriff „Darlehen“. Dabei unterscheidet es zwischen Geld- und Sachdarlehen. In Abs. 1 BGB sind die gegenseitigen Pflichten für das Gelddarlehen enthalten, wonach der Darlehensgeber durch den Darlehensvertrag verpflichtet wird, dem Darlehensnehmer einen Geldbetrag in der vereinbarten Höhe zur Verfügung zu stellen. Der Darlehensnehmer ist wiederum verpflichtet, einen geschuldeten Zins zu zahlen und bei Fälligkeit das zur Verfügung gestellte Darlehen zurückzuzahlen. Das Schuldrecht wendet den Darlehensbegriff jedoch nicht konsequent an, sondern spricht in BGB vom „Überziehungskredit“. Der Sachdarlehensvertrag wiederum verpflichtet gemäß Abs. 1 BGB den Darlehensgeber, dem Darlehensnehmer eine vereinbarte vertretbare Sache zu überlassen. Der Darlehensnehmer ist zur Zahlung eines Darlehensentgelts und bei Fälligkeit zur Rückerstattung von Sachen gleicher Art, Güte und Menge verpflichtet. In beiden Fällen begnügt sich das BGB mit der Aufzählung der Rechten und Pflichten der am Darlehensvertrag Beteiligten, ohne ihn zu definieren. Kredite sind Gebrauchsüberlassungen von Sachen oder Geld auf Zeit. Von der Miete, der Pacht und der Leihe unterscheiden sich alle Formen der Kredite dadurch, dass der Mieter, Pächter und der Entleiher stets nur unmittelbare Besitzer werden und denselben Gegenstand zurück zu gewähren haben. Daher ist ihnen nur eine Nutzung der Miet-, Pacht- oder Leihsache gestattet (Gebrauchsvorteile; bei Pacht auch Ziehung der Früchte aus der Muttersache). Der Kreditnehmer erhält oder behält die vollständige sachrechtliche Verfügungsgewalt mittels Eigentum über die kreditierte Geldsumme oder die Waren. Der Kreditnehmer ist in der Regel gegenüber dem Kreditgeber auch nicht verpflichtet, mit dem Geld oder der Ware in einer bestimmten Art und Weise zu verfahren, es sei denn, dass vertragliche Regelungen hierzu getroffen wurden. Kreditgeber im Nichtbankensektor. Der Lieferant gewährt dem Abnehmer einen Warenkredit und tritt in Vorleistung, wenn er dem Abnehmer die Waren überlässt, ohne Zug um Zug den Kaufpreis zu vereinnahmen. Dazu gehört neben dem Teilzahlungsgeschäft auch das „Anschreibenlassen“ des Käufers im Einzelhandel (Bierdeckel) als zinslose Kaufpreisstundung. Der Abnehmer wiederum gewährt dem Lieferanten Kredit, wenn er Anzahlungen oder Vorauszahlungen leistet, ohne sofort die Ware zu erhalten (Kundenkredit). Daher sind Lieferantenkredit und Kundenkredit ebenfalls Kredite. Selbst Arbeitnehmer müssen in der Regel ihre Arbeitsleistung zuerst erbringen, bevor der Arbeitgeber Lohn oder Gehalt hierfür vergütet (Satz 1 BGB: „erst Arbeit, dann Geld“). Beim Werkvertrag hat der Werkunternehmer vorzuleisten, da seine Vergütung erst nach erbrachter Werkleistung fällig wird (Abs. 1 BGB). Die Regelung des B geht ebenfalls von der Vorleistungspflicht eines Auftragnehmers bei Werkverträgen aus. Verbreitet sind Kredite bei Nichtbanken innerhalb eines Konzerns als „konzerninterne Finanzierung“, wenn Muttergesellschaften ihren Tochtergesellschaften oder umgekehrt Kredite zur Verfügung stellen. Sie sind nach Abs. 2 B II und III HGB als „Forderungen gegen verbundene Unternehmen“ in der Bilanz gesondert auszuweisen. Auch natürliche Personen als Gesellschafter können ihrer Gesellschaft Kredite in Form von Gesellschafterdarlehen zur Verfügung stellen. Als weitere Kreditgeber im Nichtbankensektor kommen Pfandleiher, Kredithaie und natürliche Personen in Frage, die oft als Ersatz für Kreditinstitute fungieren, bei denen Kreditnehmer keine Kredite erhalten. Während Pfandleiher und Kredithaie als gewerbliche Kreditgeber fungieren, sind natürliche Personen nicht gewerblich tätig; Verwandte oder Freunde vergeben meist aus Gefälligkeit Kredite. Bankkredit. Der wichtigste Kreditgeber der Wirtschaft sind die Kreditinstitute. Deshalb wird Kredit umgangssprachlich meist mit dem Bankkredit assoziiert. Nach Karl-Friedrich Hagenmüller besteht das Wesen des Bankkredits darin, „dass der Kreditgeber eine Leistung in der Gegenwart vollbringt und damit zum Gläubiger wird, während der Kreditnehmer sich als Schuldner verpflichtet, die Gegenleistung erst in der Zukunft zu erfüllen“. Das Bankrecht befasst sich eingehend mit dem Kreditbegriff als wichtigstem Bankgeschäft. Dabei ist zu berücksichtigen, dass Finanzinnovationen zu immer neuen Kreditprodukten führen, die nur mit einer möglichst weiten Definition erfasst werden können. Der bankenaufsichtsrechtliche Kreditbegriff des Abs. 1 Nr. 2 KWG unterteilt das Kreditgeschäft in die Grundtypen der Geldleihe (Gelddarlehen) und Kreditleihe (Akzeptkredite), erwähnt den - nicht mehr üblichen - Ankauf von Wechseln und Schecks als Diskontgeschäft (Nr. 3) und das Garantiegeschäft (Nr. 8). In Abs. 1 KWG wird der Kreditbegriff ausschließlich für Millionenkredite definiert und umfasst Bilanzaktiva, Derivate (mit Ausnahme der Stillhalteverpflichtungen aus Kaufoptionen) sowie die dafür übernommenen Gewährleistungen und andere außerbilanzielle Geschäfte. Im Satz 2 und 3 dieser Bestimmung wird diese grobe Definition durch einzelne Bilanzpositionen konkretisiert. Für Organkredite nimmt KWG eine weitere Kreditdefinition vor. Die seit Januar 2014 geltende CRR sprechen anstatt von Kredit von „Kreditrisiko“ oder „Risikopositionen“ und fokussieren sich außerdem auf Vorleistungen. Als Risikoposition bezeichnet Art. 5 Nr. 1 CRR einen „Aktivposten (Vermögenswert) oder einen außerbilanziellen Posten“. Nach Art. 379 Nr. 1 CRR handelt es sich um Vorleistungen, wenn ein Kreditinstitut Wertpapiere, Fremdwährungen oder Waren bezahlt hat, bevor es diese erhalten hat oder Wertpapiere, Fremdwährungen oder Waren geliefert hat, bevor es deren Bezahlung erhalten hat. Bei grenzüberschreitenden Geschäften liegen Vorleistungen vor, wenn seit der Zahlung bzw. Lieferung mindestens ein Tag vergangen ist. In Art. 392 ff. CRR ist der Großkredit geregelt und auf 10 % der anrechenbaren Eigenmittel eines Instituts kontingentiert. Kreditnehmer. Als Kreditnehmer von Kreditinstituten kommen alle Wirtschaftssubjekte wie andere Kreditinstitute (Interbankkredite), Zentralbanken (Zentralbankgeld), Unternehmen (Corporate Finance, Investitionskredite), Gemeinden (Kommunalkredite) und sonstige öffentliche Hand sowie Staaten (Staatsanleihen) und natürliche Personen (Konsumentenkredite, Dispositionskredite) in Frage. Kreditarten. Karl-F. Hagenmüller, bearb. G. Diepen: Der Bankbetrieb – Lehrbuch und Aufgabensammlung, Wiesbaden 1970, ISBN 3-409-42094-0, S. 288 Besicherung des Kredits. Bei der Kreditvergabe wird von Kreditinstituten Wert auf die nachhaltige Fähigkeit des Kreditnehmers gelegt, die Zinsen und Tilgungen aus laufenden Einkünften (bei Firmen: Cash Flow) erbringen zu können. Insbesondere bei mittel- und langfristigen Krediten kann die Stellung von Kreditsicherheiten durch einen Sicherungsgeber notwendig werden. Staatliche Regelungen. Neben den allgemeinen schuldrechtlichen Vorschriften wird die Kreditgewährung durch Spezialgesetze reguliert. Schutzvorschriften für den Kreditnehmer. Es gab bereits im Mittelalter – trotz des christlichen Zinsverbotes – Bemühungen, den Zins, also das Entgelt für die Kreditgewährung, zu begrenzen. Beispiele finden bereits im Mittelalter für Genua (12,5 %) oder die Weisung von Kaiser Friedrich II mit 10 % ("allerdings für Juden"). Mindestanforderungen an das Risikomanagement (MARisk). Mit Veröffentlichung des Rundschreibens 18/2005 hat die Bundesbank die Anwendung der Richtlinien aus Basel II für deutsche Kreditinstitute konkretisiert. Diese schreiben die Verfahren für eine Risikoeinschätzung für Kredite über ein Bewertungs- oder sog. „Rating“-Verfahren vor und erteilen Vorschriften für die Kapitaldeckung von Krediten. Ferner wird die organisatorische Trennung zwischen der Marktseite (Kreditvergabe) und dem Risikomanagement geregelt. Das Risikomanagement muss dabei einer Reihe von Mindestanforderungen entsprechen. Betriebswirtschaftliche Regeln. Bei der Kreditwürdigkeitsprüfung orientieren sich Kreditinstitute an allgemeinen Finanzierungsregeln, unter anderem an die Goldene Bankregel. Bei Kreditgewährung geht jeder Kreditgeber ein Kreditrisiko ein, weil die vertragsgerechte Rückzahlung nebst Zinsen in der Zukunft liegt und deshalb mit Ungewissheit behaftet ist. Ungewissheit bedeutet, dass die möglichen Auswirkungen bekannt sind (ganzer oder teilweiser Kreditausfall), die Kreditgeber verfügen jedoch nicht über sichere Informationen zur Eintrittswahrscheinlichkeit. Dieses Kreditrisiko müssen sie durch die geeignete Analyse des Kreditnehmers (Bilanzanalyse bei Unternehmen, kommunale Jahresabschlussanalyse bei Gebietskörperschaften, Einkommens- und Vermögensanalyse bei natürlichen Personen) einschätzen und mit einem Rating versehen. Das Kreditrisiko lässt sich durch Kreditsicherheiten mildern oder ganz beseitigen. Zentralbanken als Kreditgeber. Zentralbanken stehen als Kreditgeber der Geschäftsbanken zur Verfügung, sie bieten die Verpfändung von Wertpapieren und Kreditforderungen der Geschäftsbanken an, die im Gegenzug Zentralbankgeld gutgeschrieben bekommen und über Bargeld verfügen können. Als Zinssatz für diese Kredite ist der Basiszinssatz der Europäischen Zentralbank (bis 1999: Diskontsatz) zu zahlen, wobei die Guthaben der Geschäftsbanken bei der Zentralbank in gleicher Höhe verzinst werden. Die Geschäftsbanken können im Rahmen der Spitzenrefinanzierungsfazilität jederzeit und unbegrenzt gegen Verpfändung von Aktiva bei der Zentralbank Bar- und Zentralbankgeld anfordern. Kreditkarten. Bei der Zahlung mit Kreditkarten wie Diners Club, Visa, American Express, Mastercard wird dem Kunden normalerweise ein zinsloser Kredit von einem Monat Dauer gewährt. Die Kreditgebühren bezahlen in diesem Fall die Unternehmen, die die Karten akzeptieren. Bei der Bezahlung mit Debitkarten (wie bei EC, Maestro und V Pay etc.) entsteht kein Kredit sondern der Betrag wird sofort dem laufenden Konto belastet. Sonstiges. „Bei jemandem Kredit haben“ bedeutet auch Vertrauen genießen, dass man zahlungsfähig und damit kreditwürdig sei. „Den Kredit verspielen“ bedeutet im Gegenteil, sich unglaubwürdig zu machen. Diese wirtschaftliche Wertschätzung umfasst auch die Geschäftsehre. Gefährdet jemand den Kredit eines anderen durch die Behauptung von Tatsachen, die der Wahrheit widersprechen, haftet er für den daraus entstehenden Schaden nach Abs. 1 BGB ("Kreditgefährdung") und kann sich nach StGB auch wegen Verleumdung strafbar machen. Volkswirtschaftliche Funktion. Jedes Kreditangebot setzt Sparen voraus, also den Verzicht auf sofortige Ausgaben von Einkommen zu Investitions- oder Konsumzwecken. Mit dem Kreditangebot und der Kreditnachfrage wird auf dem Kreditmarkt das Zinsniveau bestimmt. Den Kreditinstituten kommt im Rahmen ihrer Risikotransformation die Aufgabe zu, die Volkswirtschaft mit Krediten zu versorgen, um den Güterkreislauf mit der erforderlichen Geldmenge auszustatten. Sie sind als Finanzintermediäre der interpersonale Vermittler zwischen ihren Sparern und den Kreditnehmern, wobei sie im Rahmen der Fristentransformation auch die unterschiedlichen Laufzeitinteressen der Marktteilnehmer ausgleichen. Aufgrund institutioneller Gegebenheiten sind Banken darüber hinaus in der Lage, selbst Geld zu schaffen und deshalb - über die eigentliche Kreditvermittlung hinaus - zusätzliche Kredite vergeben zu können. Diesen Vorgang der Schaffung von zusätzlichem Buchgeld nennt man Giralgeldschöpfung. Die Schaffung einer neuen Kreditbeziehung durch Banken nennt man Kreditschöpfung. Durch die Giralgeldschöpfung der Banken (nicht der privaten Geldgeber) erhöht sich die Geldmenge, durch die Rückzahlung wiederum reduziert sie sich. Kreditmarkt. Der Kreditmarkt ist die gedankliche Zusammenfassung aller Teilmärkte von Angebot und der Nachfrage nach Krediten. Ein Kredit wird dann angeboten, wenn jemand sein vorhandenes Geld nicht selbst besser verwenden kann. Die Kreditnachfrage wiederum beruht insbesondere auf den Erwartungen über die Produktivität von Investitionsvorhaben (Investitionskredit), dem Liquiditätsausgleich (Betriebsmittelkredit) oder der Vorwegnahme erst künftig durch Sparen möglichen Konsums (Konsumentenkredit). Der Kredit stellt bilanziell als Aktiva das Pendant zum Geld (als Passiva der Zentralbank) dar, enthält jedoch auch naturale Kreditbeziehungen wie den Lieferantenkredit. Auf dem "Primärmarkt" treten Kreditinstitute, Versicherungen, andere Wirtschaftssubjekte und Staaten als Anbieter und Nachfrager auf, Marktteilnehmer auf dem Sekundärmarkt sind Pfandleihhäuser, Kreditvermittler, Kredithaie und der Kredithandel. K56flex. K56flex (auch K56+) ist ein von der Firma Rockwell entwickeltes Datenübertragungsverfahren für analoge Modems. K56flex ist ein asymmetrisches Übertragungsverfahren, bei dem lediglich der Downstream (Download) die maximal mögliche Datenübertragungsrate von 56.000 bit/s erreicht. Der Upstream ist auf 33.600 bit/s begrenzt. Das Übertragungsverfahren kann nur in digitalen Telefonnetzen verwendet werden, bei denen der Nutzer des Modems einen analogen Anschluss und die Gegenstelle einen digitalen Anschluss besitzt. Nach der Verabschiedung des offiziellen ITU-T-Standards V.90 im September 1998 ist das K56flex-Verfahren nur noch von geringem Interesse. Kreisfreie Stadt. Eine kreisfreie Stadt (in Baden-Württemberg als Stadtkreis bezeichnet; in Bayern früher auch als "kreisunmittelbare Stadt") ist eine kommunale Gebietskörperschaft. Sie erledigt neben dem eigenen und übertragenen Wirkungskreis einer Gemeinde (Stadt, Marktgemeinde) und eines Landkreises auch die Aufgaben der unteren staatlichen Verwaltungsbehörde namens des Staates in eigener Zuständigkeit. Außer in Baden-Württemberg, wo die Städte Stadtkreise heißen, werden in allen anderen Bundesländern die Städte heute nur noch kreisfreie Stadt genannt. Im Bereich der allgemeinen und inneren Verwaltung ist das Stadtgebiet einer kreisfreien Stadt in Deutschland damit staatsfrei (Vollkommunalisierung). Der Oberbürgermeister einer kreisfreien Stadt steht mindestens auf gleicher Hierarchiestufe wie ein Landrat. Städte mit vergleichbarem Status gibt es auch in vielen anderen Ländern. In der Regel handelt es sich dabei um Großstädte – also Städte mit mehr als 100.000 Einwohnern – oder größere Mittelstädte. Allerdings gibt es in Baden-Württemberg, Niedersachsen und Nordrhein-Westfalen auch Großstädte, die nicht kreisfrei sind, und im Gegensatz dazu in Bayern und in der Pfalz (früher zu Bayern gehörend, jetzt Teil des Landes Rheinland-Pfalz) kreisfreie Städte, die weniger als 50.000 Einwohner haben. Vereinzelt trifft man auch den Sonderfall an, dass kreisangehörige Gemeinden „nur“ einen Teil der Aufgaben eines Landkreises übernehmen (zum Beispiel die Großen Kreisstädte). Die kleinste kreisfreie Stadt in Deutschland ist Zweibrücken in Rheinland-Pfalz mit etwa 34.000 Einwohnern (Ende 2012), die größte die bayerische Landeshauptstadt München mit mehr als 1,4 Millionen Einwohnern. Berlin und Hamburg sind zwar größer, jedoch Sonderfälle kreisfreier Städte, sogenannte Stadtstaaten. Das Land Bremen besteht dagegen aus zwei kreisfreien Städten, nämlich der Stadt Bremen und der ca. 60 km nördlich gelegenen Seestadt Bremerhaven. Kreisfreie Städte und Immediatstädte haben eine vergleichbar gesonderte Rechtstellung. In Preußen wurden bis zur Städteordnung von 1808 Städte, die keinen Rat aufgrund einer Ratsverfassung hatten, sondern dem Landesherrn unmittelbar unterstellt waren, der insoweit auch Stadtherr war, Immediatstädte genannt. Deutschland. Landkreise in Deutschland. Kreisfreie Städte orange markiert. In der Bundesrepublik Deutschland wurden anfangs nur zwei kreisfreie Städte neu errichtet: Wolfsburg am 1. Oktober 1951 und Leverkusen am 1. April 1955. Dagegen ließ sich der Stadtkreis Konstanz am 1. Oktober 1953 freiwillig in den gleichnamigen Landkreis eingliedern. Im Zuge der Gebietsreformen der 1970er Jahre wurden viele kreisfreie Städte entweder in die benachbarten Landkreise eingegliedert, zum Beispiel Cuxhaven, Freising, Fulda, Gladbeck, Hildesheim, Neu-Ulm, Siegen und Witten oder aber mit einer Nachbarstadt vereinigt, zum Beispiel Rheydt, Wanne-Eickel und Wattenscheid. Im Saarland erprobte man einen neuen Weg. So wurde am 1. Januar 1974 die Landeshauptstadt Saarbrücken in einen neuen Umlandverband eingegliedert, in dem auch der bisherige Landkreis Saarbrücken aufging. Dies war die Geburtsstunde des Stadtverbandes Saarbrücken, des ersten neuartigen Kommunalverbandes besonderer Art in Deutschland. Am 1. Januar 2008 wurde dieser Stadtverband in Regionalverband Saarbrücken umbenannt. In Niedersachsen ging man einen etwas anderen Weg als im Saarland: Die Landeshauptstadt Hannover wurde am 1. November 2001 in die neu geschaffene Region Hannover eingegliedert, behielt aber ihren Rechtsstatus als kreisfreie Stadt. Auf sie finden gem. § 15, Abs. 2 des Niedersächsischen Kommunalverfassungsgesetzes die für kreisfreie Städte geltenden Vorschriften Anwendung, soweit durch Rechtsvorschrift nichts anderes bestimmt ist. Somit ist die Region Hannover der zweite Kommunalverband besonderer Art in Deutschland. Auch sie ist – wie der Regionalverband Saarbrücken – Mitglied im Deutschen Landkreistag. In Nordrhein-Westfalen wird ebenfalls ein Regionsmodell exemplarisch erprobt. So wurde am 21. Oktober 2009 die Städteregion Aachen als dritter Kommunalverband besonderer Art in Deutschland als Rechtsnachfolger des Kreises Aachen gebildet. Ihr gehört auch die Stadt Aachen an, die nach Maßgabe des Aachen-Gesetzes von 2008 weiterhin die Rechtsstellung einer kreisfreien Stadt besitzt, jedoch in Kreisstatistiken aus systematischen Gründen oft nicht mehr als eine solche geführt wird. Nach der Wiedervereinigung Deutschlands gab es in den östlichen Bundesländern Pläne für Gemeinde- und Kreisneugliederungen. Während im Land Brandenburg die Städte Eisenhüttenstadt und Oder am 6. Dezember 1993 in die sie umgebenden neuen Landkreise eingegliedert wurden, ging man in Sachsen und Thüringen den umgekehrten Weg und entließ zwei Städte aus dem Landkreis, dem sie bisher angehörten: Hoyerswerda wurde zum 1. Januar 1996, Eisenach zum 1. Januar 1998 kreisfrei. Die Städte Görlitz, Hoyerswerda, Plauen und Zwickau verloren allerdings am 1. August 2008 anlässlich der Kreisreform in Sachsen ihre Kreisfreiheit. Das Land Mecklenburg-Vorpommern hat im September 2011 alle kreisfreien Städte außer Rostock und Schwerin in die sie umgebenden neuen Kreise eingegliedert. Historische Übersicht. Die historische Übersicht weist die Bezeichnung für die kreisfreien Städte in den Ländern des Deutschen Reiches im Jahr 1938 aus. Mit Wirkung vom 1. Januar 1939 wurde einheitlich für das Deutsche Reich die Bezeichnung "Stadtkreis" festgelegt. Nur in Mecklenburg blieb es bei der Bezeichnung "selbständiger Stadtbezirk". Preußen. Bei der 1816 erfolgten Gliederung Preußens in Kreise wurden die Provinzhauptstädte Breslau, Danzig, Köln, Königsberg, Magdeburg, Münster, Posen, Potsdam und Stettin als Immediatstädte der unmittelbaren Kontrolle der Provinzregierung unterstellt, nicht jedoch die Provinzhauptstadt Coblenz, die diesen Status erst 1887 erlangte. Aachen, Düsseldorf, Erfurt, Halle, Minden und Trier wurden ebenfalls kreisfrei. Minden verlor seine Kreisfreiheit bereits 1817 wieder, ebenso 1820 auch Düsseldorf und Erfurt, die wieder in die jeweiligen Landkreise eingegliedert wurden. Nach der Annexion des Königreiches Hannover, des Kurfürstentums Hessen-Kassel, des Herzogtums Nassau und der Freien Stadt Frankfurt im Jahre 1866 wurden die ehemaligen Hauptstädte dieser Staaten, Hannover, Kassel, Wiesbaden und Frankfurt am Main, als Immediatstädte übernommen. Durch das starke Wachstum der Städte infolge der Industrialisierung wurde die Forderung an die Adresse der preußischen Regierung nach einer Neugliederung der Kreise und der Bildung von Immediatstädten immer lauter. Waren Barmen und Elberfeld (beide heute zu Wuppertal), die am 1. Juni 1861 Immediatstädte wurden, noch als Ausnahmefall charakterisiert worden, so musste die Regierung 1872 offiziell der Neubildung von Immediatstädten zustimmen. Erfurt (1. Januar 1872), Düsseldorf (20. April 1872) und Krefeld (14. Oktober 1872) waren die ersten Städte, die von dieser neuen Regelung profitierten. Am 1. Juli 1873 wurde Görlitz, 1874 wurden auch Duisburg (am 28. Januar), Elbing, Liegnitz (am 1. Januar) und Stralsund neue Immediatstädte. Ab dem 1. April 1887 erhielten die bisherigen Immediatstädte die neue Bezeichnung "Stadtkreise". Ab 1875 war generell eine Einwohnerzahl von mehr als 30.000 Voraussetzung für die Bildung von Immediatstädten. In einigen Fällen wie zum Beispiel Hamborn wurde am 1. Mai 1911 aus einer rasant auf mehr als 100.000 Einwohner gewachsenen Gemeinde direkt ein Stadtkreis. Dieser wurde am 1. August 1929 mit Duisburg zum Stadtkreis Duisburg-Hamborn vereinigt. Sachsen. Ursprünglich wurden nur die drei Bezirkshauptstädte Dresden, Leipzig und Chemnitz als Unmittelbare Städte von der Einteilung in Amtshauptmannschaften ausgenommen. Als die Stadt Plauen jedoch um 1904 zu einer Großstadt mit über 100.000 Einwohnern herangewachsen war, musste die sächsische Regierung reagieren und gewährte 1907 auch der viertgrößten sächsischen Stadt Plauen und der fünftgrößten sächsischen Stadt Zwickau das Privileg der Kreisfreiheit. Die seit 1919 amtierende sozialdemokratische Regierung stand dem Wunsch der Städte nach Kreisfreiheit deutlich offener gegenüber und gewährte 1922 zunächst den Städten Bautzen, Freiberg, Meißen und Zittau, im Jahre 1924 dann auch vielen weiteren Städten (unter anderem Döbeln, Freital, Mittweida, Pirna und Riesa) das Privileg der Kreisfreiheit. Die Stadt Radebeul wurde 1935 als letzte sächsische Stadt zum Stadtkreis erhoben, nachdem sie durch den Zusammenschluss mit der Stadt Kötzschenbroda die geforderte Anzahl von 30.000 Einwohnern erreicht hatte. Die Städte Görlitz (kreisfrei 1873 bis 2008) und Hoyerswerda (kreisfrei 1996 bis 2008) gehörten bis 1945 zur preußischen Provinz Niederschlesien. Bayern. In Bayern wurden zunächst alle mediatisierten Freien Reichsstädte kreisunmittelbar, ebenso die früheren Residenzstädte und die Bischofssitze. Daher gab es dort bis 1972 eine besonders große Anzahl kreisunmittelbarer Mittel- und sogar Kleinstädte. Die 1972 eingekreisten Städte verfügen mit der als Ersatz verliehenen Rechtsstellung als Große Kreisstadt weiterhin über einen historisch bedingten Status, der anderen Städten ihrer Größe vielfach nicht zufällt. Bei den bayerischen Bezeichnungen muss beachtet werden, dass bis Ende 1938 die heutigen Regierungsbezirke als Kreise und die heutigen Landkreise als Bezirke bezeichnet wurden. Zu dieser Systematik gehörte auch der Name „kreisunmittelbare Städte“ für die heutigen kreisfreien Städte. Völlig unabhängig von den Regierungsbezirken (früher: Kreise) und den Landkreisen (früher: Bezirke) sind die mit den Regierungsbezirken flächengleichen Gebietskörperschaften der Bezirke. Diese Bezirke stehen zu den kreisfreien Städten (kreisunmittelbaren Städten) nicht in einem Über- und Unterordnungsverhältnis, sondern folgen dem Prinzip der Aufgabentrennung. Übrige deutsche Staaten. Das Großherzogtum Oldenburg gewährte außer der Landeshauptstadt Oldenburg (Oldb.) auch den Städten Jever (1855), Varel (1858), Delmenhorst (1903) und Rüstringen (1911), das 1937 mit Wilhelmshaven vereinigt wurde, das Privileg der Kreisfreiheit. Die Freistaaten Mecklenburg-Schwerin und Thüringen führten bei ihrer staatlichen Neugliederung in den Jahren 1920 bis 1922 das in Preußen übliche System mit Stadt- und Landkreisen ein. Nach der Vereinigung der beiden mecklenburgischen Freistaaten Mecklenburg-Schwerin und Mecklenburg-Strelitz im Jahre 1934 wurden die beiden Strelitzer Städte Neubrandenburg und Neustrelitz als Stadtkreise übernommen, die übrigen Strelitzer Städte jedoch dem Landkreis Stargard eingegliedert. Baden, Braunschweig, Hessen-Darmstadt und Württemberg kannten bis zur Verwaltungsreform 1938 mit Ausnahme der württembergischen Landeshauptstadt Stuttgart keine Stadtkreise. Deutsche Gemeindeordnung von 1935. Die Deutsche Gemeindeordnung von 1935 führte den Begriff „Stadtkreis“ neu ein. In der „Ersten Verordnung zur Durchführung der Deutschen Gemeindeordnung“ vom 23. März 1935 wurden alle Stadtkreise, geordnet nach Ländern aufgezählt. 1942 gab es hierzu eine Ergänzung. Dabei muss berücksichtigt werden, dass es sich bei diesen Stadtkreisen mit Ausnahme der im Staat Preußen nicht um Stadtkreise im heutigen Sinne handelte. Sie waren eher zu vergleichen mit „kreisangehörigen Städten mit Sonderstatus“, also etwa Großen Kreisstädten. "Siehe hierzu: Liste der kreisangehörigen Städte mit Sonderstatus in Deutschland" Deutsche Demokratische Republik. Während in den ersten Jahren der sowjetischen Besatzung in der DDR noch Stadtkreise eingerichtet wurden (zum Beispiel Schönebeck (Elbe) im Jahre 1946), beseitigten die 1950 und 1952 durchgeführten Verwaltungsreformen die Mehrzahl der historisch gewachsenen Stadtkreise. Allerdings wurden in der DDR auch neue Stadtkreise gebildet. So war zum Beispiel Johanngeorgenstadt von 1951 bis 1957 Stadtkreis; denn durch den Uranabbau war die Zahl der Einwohner auf über 40.000 gewachsen. Nach 1957 sank sie wieder ab. Ähnlich erging es Schneeberg, das von 1951 bis 1958 einen Stadtkreis bildete. Auch die neu errichtete Stalinstadt (heute Eisenhüttenstadt) wurde 1953 von der DDR-Regierung zum Stadtkreis erhoben. Schwedt (Oder) (1961) und Suhl (1967) gehörten ebenfalls zu den Städten, die wegen ihrer politischen und wirtschaftlichen Bedeutung Stadtkreise wurden. Die Großsiedlung Halle-Neustadt wurde am 12. Mai 1967 zu einem selbstständigen, von Halle (Saale) losgelösten Stadtkreis erklärt, am 6. Mai 1990 aber wieder in die Stadt Halle eingliedert. Nach den Bestimmungen des „Gesetzes über die Selbstverwaltung der Gemeinden und Landkreise in der DDR (Kommunalverfassung)“ vom 17. Mai 1990 werden nicht kreisangehörige Gemeinden nun erstmals nicht mehr als „Stadtkreise“, sondern allein als „kreisfreie Städte“ bezeichnet. Österreich. In Österreich wird eine kreisfreie Stadt als Statutarstadt bezeichnet. Lediglich zwischen 1938 und 1945 wurden diese Statutarstädte wie im übrigen Deutschen Reich als Stadtkreise bezeichnet. Diese verfügen im Gegensatz zu kreisfreien Städten über eine eigene Kommunalverfassung, das Statut. Eine Statutarstadt übernimmt zugleich die Aufgaben der Bezirkshauptmannschaft, der Überbegriff lautet Bezirksverwaltungsbehörde (Art. 116 Abs. 3 B-VG). Schweiz. In der Schweiz existiert weder der Begriff noch das Konstrukt. Die unterste Ebenen der Verwaltung sind die Gemeinden. Auch Grossstädte werden als Gemeinde bezeichnet. Die übergeordnete Ebene ist der Kanton, der in der Schweiz teilsouverän ist. Allerdings hat die Stadt Basel keine eigene Verwaltung. Diese ist die Verwaltung des Kantons. Ebenso ist der Grosse Rat das Parlament des Kantons. Die Gemeinde hat keine eigene Volksvertretung. Der Kanton Basel-Stadt besteht allerdings noch neben der Stadt Basel aus den zwei weiteren Gemeinden Riehen und Bettingen, die über eine eigene Gemeindeverwaltung und einen eigenen Einwohnerrat verfügen. Polen. Auch Polen gehört zu den Ländern, in denen zwischen Landkreisen und Stadtkreisen unterschieden wird. Einige Städte wurden bereits im Deutschen Kaiserreich zum Stadtkreis (Bromberg 1875, Graudenz und Thorn 1900) beziehungsweise während ihrer Zugehörigkeit zur k.u.k.-Monarchie zur Statutarstadt erhoben (zum Beispiel Bielitz). Andere Städte wurden erst nach 1918 von der neu gegründeten polnischen Republik zu Stadtkreisen erklärt, wie beispielsweise Gniezno (1925), Inowrocław (1925) und Kalisz (1929). Rumänien. In Rumänien gibt es nur eine Stadt, nämlich die Hauptstadt Bukarest, die seit der Verwaltungsreform von 1950 einen Sonderstatus besitzt. In der Zeitspanne von 1952 bis 1968 hatte auch die Stadt Constanța einen ähnlichen Status. Da Rumänien in Bezirke gegliedert ist, kann man Bukarest nicht als kreisfreie, sondern allenfalls als bezirksfreie Stadt bezeichnen. Russland. Die Städte Moskau und Sankt Petersburg sind selbstständige Föderationssubjekte (offiziell: Städte der föderalen Bedeutung) und gehören damit zu keiner Region Russlands. Seit 2014 gilt in Russland auch Sewastopol auf der Halbinsel Krim als eine Stadt der föderalen Bedeutung. Tschechien. In Tschechien entwickelte sich mit den Statutarstädten ein ähnliches Konzept. Verwaltungstechnisch handelt es sich aber spätestens nach der Verwaltungsreform 2000/2003 nicht mehr um kreisfreie bzw. in Tschechien „bezirksfreie“ Städte, da die Bezirke "(okres)" zum 1. Januar 2003 als Verwaltungseinheiten aufgelöst wurden. Historisch gesehen übernahmen auch zuvor nur die Städte Brno, Ostrava und Plzeň die Verwaltungsaufgaben eines Bezirks. Die nach 1990 entstandenen Statutarstädte waren auch vor der Verwaltungsreform nicht „bezirksfrei“. Einen Sonderstatus hat die Hauptstadt Prag, die zugleich Region "(kraj)" ist. Ungarn. In Ungarn haben 23 Städte den Status einer „Stadt mit Komitatsrechten“ (). Diese Städte sind den 19 Komitaten des Landes rechtlich gleichgestellt. Vereinigtes Königreich. Im Vereinigten Königreich wurden "County Boroughs" 1889 eingeführt, 1974 aber wieder abgeschafft. Die Voraussetzung für die Gewährung des Status war eine gewisse Mindestzahl von Einwohnern, die von zuerst 50.000 über 75.000 (1926) auf zuletzt 100.000 erhöht wurde. 1992 wurden wieder so genannte "Unitary Authorities" eingeführt, die weitgehend den alten "County boroughs" entsprechen. Vereinigte Staaten. In den Vereinigten Staaten gibt es unter der Bezeichnung "independent city" ebenfalls das Konzept einer kreisfreien Stadt. Seit 1871 sind in Virginia alle größeren Städte per Gesetz kreisfrei, aber auch in anderen Bundesstaaten gibt es "independent cities", wie beispielsweise Baltimore in Maryland oder St. Louis in Missouri. Eine ähnliche Situation gibt es bei dem in den USA etwas häufigeren Konstrukt des "consolidated city-county", wo die räumliche Abgrenzung übereinstimmt, aber Stadt (city) und Kreis (county) als in rechtlicher Sicht getrennte Institutionen existieren. Einzelnachweise. !Kreisfreie Stadt Kylix (Entwicklungsumgebung). Kylix war eine integrierte Entwicklungsumgebung vom Unternehmen Borland für das Betriebssystem Linux. Der Name stammt aus dem Griechischen und bezeichnet ein Trinkgefäß. Kylix wurde basierend auf Delphi und C++Builder entwickelt. Als grafische Bibliothek setzt sie auf dem GUI-Framework Qt auf, das mittels einer Bibliothek namens CLX angesprochen wird. Die Kylix-IDE basiert auf libwine und ist damit keine native Linux-Anwendung. Leicht zu erkennen ist dies daran, dass sich die Farbe des Mauszeigers im Kylix-Fenster zu weiß ändert und Font-Metrics erstellt werden müssen. Borland hat diesen Weg gewählt, da die Kylix-IDE ein Nebenprodukt von Delphi 5 ist und die Windows-Systemaufrufe auf Linux umgesetzt werden mussten. Mit Kylix erstellte Anwendungen sind hingegen native Linuxanwendungen, die Wine nicht benötigen. Ursprünglich wurde als Programmiersprache nur Object Pascal von Delphi unterstützt, seit der Version "Kylix 3" (erschienen im Jahr 2002) ist auch die Programmierung in C++ möglich. Ähnlich wie bei Visual Basic wird die Programmierung durch eine visuelle Programmierumgebung erleichtert. Borland stellte neben den kommerziellen Versionen auch eine sogenannte "Kylix Open Edition" zum kostenlosen Herunterladen zur Verfügung, mit der allerdings nur Programme unter der GPL entwickelt werden durften. Mittlerweile ist das Projekt Kylix eingestellt, es erfolgt keine Pflege mehr durch den Hersteller. Mit Kylix erstellte Programme sind auch weiterhin, auch auf aktuellen Linux-Distributionen, lauffähig. Lazarus ist eine stark an Delphi und damit auch Kylix angelehnte Entwicklungsumgebung, die unter der GNU General Public License (GPL) steht. Kronach. Kronach ist die Kreisstadt des oberfränkischen Landkreises Kronach und ein Mittelzentrum in Bayern. Die Stadt liegt am Fuße des Frankenwaldes, wo die Flüsse Haßlach, Kronach und Rodach zusammenfließen. Kronach ist die Geburtsstadt von Lucas Cranach d. Ä. und verfügt mit der Festung Rosenberg über eine der am besten erhaltenen Festungsanlagen Deutschlands. Das Stadtbild wird geprägt von der fast zur Gänze erhaltenen Altstadt mit Sandstein- und Fachwerkhäusern, Stadtmauern, Toren, Türmen und Gewölbekellern. Kronach liegt an der Burgenstraße und an der Bier- und Burgenstraße. Geografie. Kronach liegt südwestlich des Frankenwaldes, weshalb die Stadt den Beinamen "Tor zum Frankenwald" trägt. Im Stadtgebiet treffen die drei Flüsse Haßlach, Kronach und Rodach zusammen. Das Stadtzentrum mit der historischen Altstadt, die aufgrund ihrer erhöhten Lage auf einem Bergsporn auch "Obere Stadt" genannt wird, wird von der Haßlach im Westen, der Kronach im Südosten und dem Rosenberg im Norden in der Form eines Dreiecks eingeschlossen. Nachbargemeinden. Beginnend im Norden grenzen im Uhrzeigersinn folgende Gemeinden des Landkreises Kronach an die Stadt Kronach: Wilhelmsthal, Marktrodach, Weißenbrunn, Küps, Mitwitz und Stockheim. Im Südosten grenzt zwischen Marktrodach und Weißenbrunn auch die im Landkreis Kulmbach gelegene Gemeinde Rugendorf an das Stadtgebiet von Kronach. Geschichte. Wappen des Hochstifts Bamberg und der Stadt Kronach über dem Bamberger Tor Der Ort Kronach entstand vermutlich im achten oder neunten nachchristlichen Jahrhundert und wurde im Jahr 1003 in der Chronik des Thietmar von Merseburg als "urbs crana" erstmals urkundlich erwähnt. Im Jahr 1122 schenkte Kaiser Heinrich V. Kronach und die umliegenden Gebiete, das sogenannte "praedium crana", dem Hochstift Bamberg. Bis zur Säkularisation des Hochstifts in den Jahren 1802/03 behielten die Bamberger Fürstbischöfe die Herrschaft über die Stadt. Zwischen der Reformationszeit (ab 1517) und dem Westfälischen Frieden von 1648 stellte Kronach das nördliche Bollwerk des katholischen Hochstifts zum protestantischen Kurfürstentum Sachsen dar. Infolge dieser Grenzlage wurde die oberhalb der Stadt gelegene und Mitte des 13. Jahrhunderts erstmals urkundlich erwähnte Burg Rosenberg zu einer frühneuzeitlichen Schlossfestung ausgebaut. Während des Dreißigjährigen Krieges wurde Kronach in den Jahren 1632 bis 1634 mehrmals von einer großen Überzahl der Schweden und ihrer deutschen Verbündeten belagert. Durch den strategisch günstigen Aufbau der Stadt und die entschiedene Gegenwehr ihrer Bewohner konnten die Angreifer jedoch erfolgreich zurückgeschlagen werden. Noch heute erinnert die seit 1633 jährlich stattfindende Schwedenprozession an diese Ereignisse. Eine Besonderheit der Prozession ist, dass die Frauen für ihre Tapferkeit bei der Verteidigung der Stadt den Männern voranschreiten. Auf die Zeit der Belagerungen geht auch der Spitzname der Kronacher als „Kroniche Housnküh“ (Kronacher Hasenkühe) zurück. Da die Stadt nicht direkt eingenommen werden konnte, versuchten die Angreifer die Bewohner auszuhungern, indem sie sie von der Nahrungs- und Wasserversorgung aus dem Umland abschnitten. Der Legende nach ließen die Kronacher als List das letzte lebende Tier, einen weiblichen Hasen, frei auf der Stadtmauer herumlaufen, um so einen großen Nahrungsvorrat in der Stadt vorzutäuschen. Die Schweden sollen daraufhin die als sinnlos erachtete Belagerung abgebrochen haben und abgezogen sein. Die „Kroniche Housnkuh“ – Feline von der Festung – ist heute das Maskottchen der Stadt. Mit dem Reichsdeputationshauptschluss wurde das Hochstift Bamberg 1803 zwangsweise aufgelöst und seine Territorien dem Kurfürstentum Bayern übertragen. Anfang Oktober 1806 dienten Stadt und Festung als Lager für das Heer des französischen Kaisers Napoleon Bonaparte, der von hier aus seinen Feldzug gegen Preußen startete, der am 14. Oktober 1806 in die Schlacht bei Jena und Auerstedt mündete. Im Ersten Weltkrieg diente die Festung Rosenberg als Offiziersgefangenenlager, in dem 1917 zeitweise auch der französische Hauptmann Charles de Gaulle, der spätere General und Staatspräsident von Frankreich, untergebracht war. Nach zwei erfolglosen Fluchtversuchen wurde de Gaulle zunächst in ein Lager in der Festung Ingolstadt und später auf die Wülzburg in der Nähe von Weißenburg in Bayern verlegt. Den Zweiten Weltkrieg überstand Kronach relativ unbeschadet. Gegen Ende des Krieges sollten auf der Festung Rosenberg Produktionshallen für die Herstellung von Teilen für den Düsenjäger Messerschmitt Me 163 errichtet werden. Die geplanten Anlagen wurden jedoch nur zum Teil fertiggestellt und nie in Betrieb genommen, wodurch Stadt und Festung von einer großflächigen Bombardierung durch die Alliierten verschont blieben. Ab März 1945 erfolgten regelmäßig Luftangriffe auf die Stadt. Die Bevölkerung fand bei den Angriffen Zuflucht in den zahlreichen Kellergewölben, die praktisch den gesamten Bergsporn unterhalb der Altstadt durchziehen. Am Nachmittag des 12. April 1945 marschierten amerikanische Truppen nach mehrstündigem Artilleriebeschuss in Kronach ein und besetzten die Stadt. Bevölkerungsentwicklung der Stadt Kronach (mit Eingemeindungen) seit 1840 Die Nachkriegszeit war durch die Nähe zur innerdeutschen Grenze sowie die Eingliederung einer großen Zahl von Heimatvertriebenen geprägt. So erhöhte sich die Einwohnerzahl der Stadt nach 1945 von ursprünglich 6.500 auf über 10.000 Personen. In jüngerer Zeit ermöglichten die Vorbereitungen der Landesgartenschau 2002 die Beseitigung von Bau- und Umweltsünden in einem in den zurückliegenden Jahrzehnten als Gewerbegebiet genutzten Areal; heute dient das Gelände als stadtnahes Erholungsgebiet. Eingemeindungen. Am 1. Juli 1971 wurde die bis dahin selbstständige Gemeinde Knellendorf eingegliedert. Am 1. Januar 1972 kam Ziegelerden hinzu, Vogtendorf folgte am 1. Juli 1972. Höfles schloss sich am 1. Januar 1975 der Kreisstadt an. Am 1. Januar 1978 wurden Dörfles und Gundelsdorf eingemeindet. Abgeschlossen wurde die Reihe der Eingemeindungen mit der Eingliederung der bis zu diesem Zeitpunkt selbstständigen Gemeinden Fischbach, Friesen, Gehülz, Glosberg, Neuses und Seelach am 1. Mai 1978. Religion. Gedenkstein für die jüdischen Opfer des Nationalsozialismus in Kronach Bedingt durch die Geschichte des Ortes, der bis zum Beginn des 19. Jahrhunderts zum Herrschaftsgebiet des katholischen Hochstifts Bamberg gehörte, sind 59 % der Bevölkerung katholisch, vor allem in der Kernstadt und den südlichen, nördlichen und westlichen Gemeindeteilen. Evangelischen Christen wurde erst nach der Säkularisation des Hochstifts im Jahr 1803 das Bürgerrecht in Kronach gewährt. Heute sind 29 % der Einwohner evangelisch, insbesondere in den östlichen Stadtteilen. Außerdem gibt es in Kronach eine "Freie Christengemeinde" und eine Gemeinde der "Jesus Freaks". Mindestens seit dem 17. Jahrhundert waren jüdische Familien in der Stadt ansässig, die 1880 eine eigenständige Kultusgemeinde gründeten und 1883 eine Synagoge errichteten. Das Gebäude wurde im Februar 1938 an die Stadt Kronach verkauft, die es bis 1972 als Sanitätsdepot nutzte und im Anschluss bis 1988 als Lagerhaus verpachtete. Dadurch überstand das Bauwerk die Novemberpogrome 1938 unbeschadet, während die nach Bamberg verbrachte Ausstattung der Synagoge dort zerstört wurde. Die jüdische Kultusgemeinde in Kronach wurde 1942 aufgelöst; die ehemalige Synagoge, die im Jahr 2002 vom Aktionskreis Kronacher Synagoge restauriert wurde, dient heute als Gedenkstätte und kultureller Veranstaltungsraum. Der Kronacher Stadtrat ehrte die von den Nationalsozialisten verfolgten und ermordeten Juden der Stadt 1964 mit einem Gedenkstein auf dem christlichen Friedhof unter Namensnennung der ausgelöschten Familien. Bürgermeister. Hauptamtlicher Bürgermeister ist seit 2008 Wolfgang Beiergrößlein (Freie Wähler). Sein Vorgänger war Manfred Raum (SPD); von 1970 bis 1984 amtierte Baptist Hempfling (CSU). Wappen. Darstellung des neuen Stadtwappens von 1651 an der Rückseite des Alten Rathauses Die Blasonierung des Wappens der Stadt Kronach lautet: „Geteilt von Silber und Rot; oben ein grüner Lorbeerkranz, beseitet von zwei roten heraldischen Rosen; unten nebeneinander eine silberne Mauerkrone und eine goldene Lagerkrone über einer silbernen heraldischen Rose.“ Erste Siegelabdrucke sind aus dem Jahr 1320 überliefert. Sie zeigen eine Zinnenmauer, hinter der sich ein von drei Rosen umgebener Zinnenturm befindet. In einem Siegelabdruck, der auf das Jahr 1553 datiert ist, erscheint dieses Bild erstmals in einem Wappenschild. Darstellungen dieses Wappens finden sich beispielsweise über dem Eingangsportal an der Ostseite des Alten Rathauses und über einem Durchgang in der Stadtmauer hinter dem neuen Rathaus. Das heute geführte Wappen wurde Kronach im Jahr 1651 vom Bamberger Fürstbischof Melchior Otto Voit von Salzburg verliehen. Anlass hierfür war die Tapferkeit der Kronacher bei der erfolgreichen Verteidigung gegen die Schweden und deren deutsche Verbündete, die die Stadt während des Dreißigjährigen Krieges mehrfach angegriffen und belagert hatten. Als Schildhalter für das Wappen dienen zwei Männer, die ihre abgezogene Haut unter dem Arm tragen. Sie erinnern an eine Begebenheit während der ersten Belagerung im Jahr 1632: Vier Kronacher Männer wurden bei einem Ausfall, bei dem sie mehrere Kanonen der Belagerer durch Vernageln der Zündlöcher unbrauchbar machten, von den Schweden gefasst und geschunden. Zwischen 1819 und 1938 waren diese beiden Schildhalter nicht in den Dienstsiegeln der Stadt enthalten. Städtepartnerschaften. Kronach unterhält Städtepartnerschaften mit drei europäischen Städten und Gemeinden. Die erste Partnerschaft wurde am 31. August 1990 mit der Stadt Hennebont in Frankreich geschlossen, zweite Partnerstadt wurde am 22. Oktober 1994 Kiskunhalas in Ungarn. Die dritte Partnerschaft mit der Gemeinde Rhodt unter Rietburg in Deutschland wurde im Jahr 2001 offiziell beurkundet; die Beziehungen zwischen den beiden Orten bestehen jedoch bereits seit dem Jahr 1951. Am 7. August 1955 übernahm Kronach die Patenschaft für die ehemaligen Bewohner der sudetendeutschen Stadt und des Heimatkreises Podersam, die aus ihrer Heimat vertrieben worden waren. In einer Urkunde wurde den Podersamer Vertriebenen Kronach als „zweite Heimat und Hauptort der Pflege und Wahrung heimatlicher Überlieferung und Kultur“ garantiert. Kultur und Sehenswürdigkeiten. a> auf dem Marktplatz vor dem Neuen Rathaus Freizeit- und Sportanlagen. Kronach bietet viele Möglichkeiten zur Freizeitgestaltung. Für Bildungsreisende bieten die historische Altstadt und die Festung Rosenberg alte Bausubstanz sowie Museen und Galerien. Ein Flößerei-Verein im Ortsteil Neuses veranstaltet Floßfahrten auf den Spuren eines einst für die Region bedeutenden Wirtschaftszweiges. Mit der Landesgartenschau im Jahr 2002 wurde ein großer Freizeit- und Erholungspark mit Erlebnisspielplatz eingerichtet. Das Erlebnisbad "Crana Mare" mit einer Riesenrutsche im Freibadbereich und einem Dampfbad im Hallenbadbereich dient auch dem Schulsport Kronacher Schüler. Für Freiluft-Aktivitäten bieten sich eine Sommer- und eine Winterrodelbahn, mehrere Tennisplätze sowie Mountainbike-Strecken an. Im Winter wird im Ortsteil Gehülz ein Skilift betrieben. Für Indoor-Sportarten gibt es ein Bogenschießzentrum, das Schützenhaus der SG Kronach für Sportschützen sowie einen Billardclub. Verschiedene sportliche Angebote hält die Turnerschaft 1861 e.V. Kronach bereit. Es gibt ein modernes Kino mit drei Sälen. Am Kreuzberg befinden sich eine Sportanlage, eine Sporthalle und ein Flugplatz. Wanderwege. Zu Fuß erreicht man Kronach von Osten auf dem Hubertusweg, von Südosten auf dem Burgenweg, von Westen (über Mitwitz) auf dem Döbra-Radspitz-Weg sowie von Norden auf dem Weg durch das Kremnitztal bis Gifting, dann weiter auf dem Burgenweg. Weiterhin streift der Fernwanderweg "Frankenweg" die Stadt und führt zum Lucas-Cranach-Turm. Parkanlagen. Für die Landesgartenschau im Jahr 2002 wurde entlang der Haßlach ein etwa fünf Hektar großes Areal mit ehemaligen Gewerbeflächen saniert und ein stadtnaher Erholungsbereich geschaffen. Eine 13 Meter breite und 200 Meter lange Promenade, die von einer Lindenallee umgeben ist, führt seither vom Nordeingang zu einer stufenförmig angelegten Steinterrasse, die als Zuschauertribüne für die Seebühne am Ufer gegenüber dient. Von dort aus überblickt man das zentrale Ausstellungsgelände der Landesgartenschau mit einem Abenteuerspielplatz, einem Kletter- und Aussichtsturm, dem Kreislehrgarten und dem Überflutungsbecken, das bei Hochwasser die übers Ufer tretende Haßlach aufnimmt. Auf dem Landesgartenschau-Gelände gibt es einen Skulpturenweg, der am Plessi-Turm "Water-Fire" beginnt und bei den Skulpturen der Sandstein-Triennale endet. Folgt man dem Weg über das sogenannte "Knie" nach Süden, kommt man unter der Südbrücke hindurch über einen Steg in den "Höringsgarten". Von dort aus öffnet sich das Gartenschaugebiet mit einer Hubbrücke über die Rodach. Im anschließenden Gelände befindet sich in Richtung auf den Ortsteil Neuses eine Skater-Anlage, ein Spielfeld für Ballsportarten und ein Anlegeplatz für Floßfahrten. Von einem kleinen Park in der Jahnsallee westlich der Stadtmauern mit altem Baumbestand an der Haßlach hat man einen schönen Blick auf die Altstadt. In der Stadtmitte am Marienplatz befindet sich der Stadtpark. Seine Verlängerung ist der Stadtgraben. Die Anlage ist zirka 500 Meter lang und enthält unter anderem einen Kinderspielplatz. Am Kreuzberg liegt ein etwa 500 Meter langer Park in der Nähe des Sportzentrums; der Burggarten mit zahlreichen alten Bäumen bietet einen Blick über Kronach. Museen und Galerien. Der Kommandanten- und der Fürstenbau der Festung Rosenberg Die Festung Rosenberg beherbergt mehrere Museen. Im renovierten ehemaligen Kommandantenwohnhaus befindet sich die Fränkische Galerie als Zweigmuseum des Bayerischen Nationalmuseums. Auf zwei Geschossen präsentiert sie bedeutende Tafelgemälde des 13. bis 16. Jahrhunderts mit vier eigenhändigen Gemälden von Lucas Cranach d. Ä. sowie einer großen Auswahl kostbarer Skulpturen der Gotik und der beginnenden Renaissance, fast alle in ihren originalen Farbfassungen. Sie enthält zahlreiche Werke ersten Ranges (unter anderem eigenhändige Arbeiten von Tilman Riemenschneider und Adam Kraft). Geboten wird ein Einblick in die Kunst Frankens; es sind aber auch andere Gebiete vertreten. Des Weiteren befindet sich auf der Festung ein Steinmetzmuseum. Im Fürstenbau werden wechselnde Sonderausstellungen gezeigt, unter anderem mit zeitgenössischer Kunst. Das Projekt "Deutsches Festungsmuseum" befindet sich noch im Planungsstadium und soll in Zukunft eine Lücke in der Museumslandschaft zwischen den Themen "Burg" und "Schloss" füllen. Auch die Galerie im Landratsamt, die Galerie des Kronacher Kunstvereins, die Galerie in der Kreisbibliothek und die 2002 renovierte Kronacher Synagoge zeigen wechselnde Ausstellungen. In der Oberen Stadt informiert die "Podersamer Heimatstube" über die sudetendeutsche Patengemeinde Kronachs; im Ortsteil Neuses kann ein Dorfmuseum besichtigt werden. Historisches Gasthaus zum Scharfen Eck Bauwerke. Da Kronach den Zweiten Weltkrieg relativ unbeschadet überstanden hat, kann es mit einer Reihe von historischen Bauwerken aufwarten. Unterhalb der weithin sichtbaren und die Stadt überragenden Festung Rosenberg erstreckt sich die sogenannte Obere Stadt, die historische Altstadt, mit einem Ensemble von Gebäuden mit dem Historischen Rathaus und der Stadtpfarrkirche St. Johannes der Täufer. Der viergeschossige, fast quadratische "Lehlauben-" oder "Hexenturm" als Teil der Stadtmauern befindet sich unweit des neuen Rathauses. Erbaut wurde er im Jahre 1444 und war zunächst der nordöstliche Eckpfeiler der Stadtbefestigung. In seinem Untergeschoss befindet sich ein Verlies, das bis ins 17. Jahrhundert als Gefängnis diente. Außerhalb der Stadtmauern stehen im Westen das Oblatenkloster mit Klosterkirche, im Süden die Spitalkirche mit Bürgerspital und im Osten die Kronacher Synagoge, die 2002 aufwändig renoviert wurde. Auf dem Kreuzberg befindet sich die 1644 erbaute barocke Heilig-Kreuz-Kapelle. Am Friedhof der Stadt steht eine weitere, dem heiligen Nikolaus von Myra geweihte Kapelle aus dem späten 14. Jahrhundert. In Kronacher Ortsteilen lohnen die Wallfahrtskirche Maria Glosberg, die Kirche St. Georg in Friesen mit mittelalterlichen Wandfresken und die Heunischenburg in Gehülz eine Besichtigung. Feste und Märkte. Das kulturelle Leben Kronachs wird durch eine Reihe regelmäßiger Veranstaltungen geprägt, von denen das alljährliche Schützenfest, das Kronacher Freischießen, die größte Anziehungskraft besitzt. Begründet wurde es durch die seit 1444 überlieferten Kronacher Stadtschützen, die auf der Hofwiese trainierten, um die Stadt im Ernstfall verteidigen zu können. Als Fest an sich existiert das Freischießen seit 1588. Es endet am vorletzten Sonntag im August und beginnt zehn Tage vorher am Donnerstag mit der Bierprobe und dem traditionellen Bieranstich durch den Ersten Bürgermeister. Alljährlich im Mai wird das Fest "Kronach leuchtet" veranstaltet, bei dem die Kronacher Altstadt und die Festung Rosenberg in den Abend- und Nachtstunden von zahlreichen Lichtinstallationen kunstvoll beleuchtet werden. Planung und Errichtung der Installationen für die im Jahr 2006 zum ersten Mal ausgerichtete Veranstaltung erfolgen in Zusammenarbeit mit Architektur- und Lichtdesign-Studenten verschiedener deutscher und internationaler Hochschulen. Im Andenken an die bewegte Geschichte Kronachs, das im Dreißigjährigen Krieg mehrmals von schwedischen Truppen belagert wurde, findet seit 1633 am Sonntag nach Fronleichnam die sogenannte "Schwedenprozession" statt. Eine Besonderheit dieser Prozession ist, dass die Frauen seit 1634 als Ehrung für ihre Tapferkeit bei der Verteidigung der Stadt den Männern voranschreiten. Im zweijährlichen Turnus – jeweils in den ungeraden Jahren – findet am letzten Juniwochenende das "Historische Stadtspektakel" statt, bei dem unter anderem der Schwedensturm von 1634 mit kostümierten Truppen nachgestellt wird. Im Wechsel mit dem Stadtspektakel wird in den geraden Jahren ebenfalls im Juni das Festival "Crana Historica" auf und um die Festung Rosenberg herum abgehalten. International bekannte Musiker und Reenactors treffen auf Marktleute. Märkte werden beim Kronacher Altstadtfest Anfang September, beim Dreiländertreffen zum Tag der Deutschen Einheit sowie zur Kronacher Weihnacht an jedem Adventswochenende in der Oberen Stadt abgehalten. In der Faschingszeit wird die "Kronicher Fousanaocht" mit großen Büttenabenden gefeiert und Mitte Juli lädt die Kaiserhof-Brauerei zu einem Brauereifest ein. Kunst, Theater, Musik. Von 1995 bis 2015 fanden im Sommer auf einer Freilichtbühne auf der Festung Rosenberg die von Daniel Leistner und Ulrike Mahr ins Leben gerufenen Faust-Festspiele statt, die neben Johann Wolfgang von Goethes "Faust. Eine Tragödie." Klassiker der Weltliteratur in knappen volksnahen Fassungen in historischen Kostümen aufführten. Ab dem Jahr 2016 sollen die Festspiele mit verändertem Konzept und einem neuen Führungsteam unter dem Namen "Rosenberg-Festspiele" stattfinden. Im Winterhalbjahr bespielt das Ensemble um Daniel Leistner die "Werkbühne" im Historischen Rathaus. Die "Kronacher Sommerakademie" führt auf dem Festungsgelände Kurse zu den Themen Mosaik, Töpferei, Bildhauerei und Aktmalerei durch. Die Fränkische Galerie in der Festung Rosenberg zeigt Malerei und Skulpturen aus dem späten Mittelalter bis hin zur Zeit Lucas Cranachs, der mit vier Werken vertreten ist. Daneben werden wechselnde Ausstellungen zeitgenössischer Künstler gezeigt; Werke von Ren Rong, Elvira Bach, Dao Droste und Wilhelm Holderied waren zu sehen. Die Sandstein-Triennale des Kronacher Kunstvereins e. V. findet seit 2002 auf dem Landesgartenschaugelände statt. Seit 2004 probt im Herbst das Orchesterprojekt der Kronacher Klassik Akademie und beendet seine Arbeitsphase mit einem sinfonischen Abschlusskonzert im Atrium der Maximilian-von-Welsch-Realschule Kronach. Wirtschaft und Infrastruktur. Die Wirtschaft in Kronach ist vor allem mittelständisch geprägt. Größter Arbeitgeber ist die Dr. Schneider Unternehmensgruppe, deren Firmensitz sich seit 1959 im Kronacher Stadtteil Neuses befindet. Das international mit rund 3000 Mitarbeitern an mehreren Standorten vertretene Unternehmen beschäftigt in Kronach etwa 1300 Mitarbeiter und entwickelt und produziert Kunststoffteile für die Automobilindustrie. Zweitgrößter Arbeitgeber ist mit 650 Mitarbeitern die Frankenwaldklinik, ein Krankenhaus der Versorgungsstufe 2 und Teil der Helios-Kliniken-Gruppe. Ein weiteres überregional agierendes Unternehmen mit Niederlassung in Kronach ist die in Southfield in den Vereinigten Staaten beheimatete Lear Corporation, die in Kronach elektronische Bauteile für die Automobilindustrie fertigt. Lange Zeit das bedeutendste Industrieunternehmen in Kronach war mit ursprünglich rund 1000 Beschäftigten der Unterhaltungselektronik-Hersteller Loewe, der hier seit März 1945 seinen Firmensitz hat. Nachdem das Unternehmen 2013 in finanzielle Schwierigkeiten geraten war und einem großen Teil seiner Angestellten kündigen musste, wird die Fertigung in Kronach mit rund 500 Mitarbeitern weitergeführt. Auto. Kronach liegt an einem Kreuz der Bundesstraßen 85, 173 und 303. Bahn. Der Bahnhof Kronach liegt an der Frankenwaldbahn (Saalfeld–Bamberg). Sie ist ein Abschnitt der ICE-Strecke München–Berlin, die ICE halten jedoch nicht in Kronach. Von der Stadt aus hat man von 5 bis 22 Uhr stündlich Anschluss nach Süden (Bayern) und nach Norden in Richtung Thüringen. Flugzeug. Kronach verfügt über einen Segelflugplatz. Der nächstgelegene internationale Verkehrsflughafen ist der Flughafen Nürnberg. Tourismus. Durch Kronach führen die in west-östlicher Richtung von Mannheim nach Prag verlaufende Burgenstraße und die Bier- und Burgenstraße, die Bad Frankenhausen und Passau verbindet. Bildung. Kronach besitzt eine Grundschule, eine Hauptschule, zwei Realschulen und zwei Gymnasien und ist Standort mehrerer Berufs- und Berufsfachschulen, darunter eine von elf Berufsfachschulen für Musik in Bayern. In Kronach geboren. Die berühmteste Persönlichkeit, die Kronach hervorgebracht hat, ist der Maler und Grafiker Lucas Cranach der Ältere (1472–1553). Konzentrationslager (historischer Begriff). Als Konzentrationslager wurden bisher verschiedene Haftorte in verschiedenen Ländern zu verschiedenen Zeiten bezeichnet. Die lateinische Wortherkunft bedeutet sammeln, zusammenziehen oder zusammenlegen. Das nationalsozialistische Deutsche Reich benutzte den Namen für ein Netzwerk von Haftorten. Die Konzentrationslager des Deutschen Reichs wurden nach dem Zweiten Weltkrieg die bekanntesten, sie wurden weltweit zum Schlagwort, in ihnen fand die von den Nationalsozialisten angestrebte Judenvernichtung statt. Als Abkürzung wird dafür sehr oft die Buchstabenfolge KZ verwendet. Begriff. Das Wort "Konzentrationslager" bezeichnete in verschiedenen Epochen verschiedener Länder mehrere Arten von Sammel-, Internierungs- und Arbeitslagern. Sammellager für Kriegsgefangene, Strafgefangenen- und Strafarbeitslager waren schon längere Zeit verbreitet, daneben entwickelte sich ab dem 19. Jahrhundert die Form des Internierungs- oder Auffanglagers im Kontext von Vertreibung, Auswanderung und kolonialistischer Eroberung. Ursprünglich stammt die Bezeichnung aus dem Spanischen. Verwendet wurde sie erstmals während der Niederschlagung eines Aufstands gegen die spanische Kolonialmacht auf Kuba 1896. Die Zwangsmaßnahmen veranlasste Gouverneur Weyler. Damals wurden Bauern, die nicht als Aufständische verdächtigt werden wollten, gezwungen, sich in "campos de (re)concentración" zu begeben. Im Jahre 1900 richteten die USA auf der Insel Mindanao, die sie den Spaniern abgenommen hatten, Konzentrationslager ein; dort wurden philippinische Guerilleros interniert. Auch heute spricht der kubanische Revolutionsführer Fidel Castro im Bezug auf das US-Gefangenenlager in der Bahía de Guantánamo vom „Konzentrationslager auf dem illegalen Militärstützpunkt Guantánamo“. Der britische General Horatio Herbert Kitchener ließ während des Burenkrieges (1899–1902) in Südafrika "Concentration Camps" einrichten, um dort etwa 120.000 Farmbewohner, vor allem Frauen und Kinder, zu internieren, wovon über 26.000 aufgrund katastrophaler Lebensbedingungen an Hunger und Krankheiten starben. Im deutschsprachigen Raum verwendete Reichskanzler Bernhard von Bülow den Begriff "Konzentrationslager" erstmals am 11. Dezember 1904 offiziell. Als Robert Koch 1905 seinen Nobelpreis erhielt, verließ er seine Forschungsstation am damals britischen Viktoriasee und empfahl in einem Reisebericht über seine Untersuchungen zur Schlafkrankheit, Konzentrationslager einzurichten, um Parasitenträger zu separieren. Damit nutzte er als erster den Begriff für den Quarantänefall. Nach Ausbruch des Ersten Weltkrieges wurden Staatsbürger der Mittelmächte in Konzentrationslagern für die Dauer des Krieges interniert, eine Praxis, die in allen am Ersten Weltkrieg beteiligten Staaten üblich war. In Großbritannien wurden Konzentrationslager auf der Isle of Man (Cunningham, Douglas, Knockaloe) für Internierte eingerichtet. Dazu kamen zwei Lager in London (Stratford, Alexandra Palace) und kleinere Lager in Islington, Frith Hill, Newbury, Handforth und Shrewsbury. Lenin ließ im Sommer 1918 Gefangenenlager einrichten, die offiziell Konzentrationslager genannt wurden. In der Oblast Pensa wurden politische Gegner interniert. Vom Mai 1921 stieg die Zahl der Gefangenen von etwa 16.000 auf mehr als 70.000 wenige Monate später. Deutsche Einrichtungen des Ersten Weltkriegs und der frühen Nachkriegszeit. Als Konzentrationslager wurden ab März 1915 Internierungslager der zum Kruppkonzern gehörenden Friedrich-Albrecht-Hütte für polnische Arbeiter in Barmen und Elberfeld bezeichnet. Dem folgten zahlreiche Internierungslager und provisorische Gefängnisse für deportierte Zwangsarbeiter, Kriegsgefangene und politische „Schutzhäftlinge“ im Ersten Weltkrieg und in der frühen Nachkriegszeit. Im Frühjahr 1919, zur Amtszeit des Preußischen Ministerpräsidenten Paul Hirsch, des deutschen Reichspräsidenten Friedrich Ebert und des Reichswehrministers Gustav Noske, wurden auf Basis eines Kaiserlichen Erlasses aus der Kriegszeit, zuletzt aktualisiert im „Gesetz betr. die Verhaftung und Aufenthaltsbeschränkung auf Grund des Kriegszustandes und des Belagerungszustandes vom 4. Dezember 1916“, innerhalb kürzester Zeit tausende (meist kommunistische) politische Gegner interniert, von denen mehr als 1000 „auf der Flucht“ ermordet wurden. Auch im Zuge der massenhaften Ausweisung von „Ostjuden“ ließen der preußische Innenminister Carl Severing (SPD) und dessen Nachfolger Alexander Dominicus (DDP) 1921 zwei Konzentrationslager in Cottbus-Sielow und in Stargard in Pommern einrichten, in die jene „Ostjuden“ eingewiesen wurden, die Deutschland nicht sofort freiwillig verließen. Zur längerfristigen Einrichtung von Konzentrationslagern für politische Häftlinge, zunächst in ehemaligen Kriegsgefangenenlagern und Truppenübungsplätzen, kam es ab Ende 1923 infolge der von Reichspräsident Friedrich Ebert (SPD) verhängten Reichsexekution gegen die von SPD und KPD gebildeten Koalitionsregierungen in Sachsen und Thüringen. Im deutschen Sprachraum steht die Bezeichnung Konzentrationslager seit der Zeit des Nationalsozialismus in Verbindung mit der Abkürzung KZ, deren Herkunft ungeklärt ist, für die Arbeits- und Vernichtungslagern des NS-Regimes. Ursprünglich wurde von nationalsozialistischen Funktionären die näherliegende Abkürzung „KL“ für Konzentrationslager verwendet. Nach Eugen Kogon ("Der SS-Staat") gaben SS-Wachmannschaften dann später der Abkürzung „KZ“ wegen ihres härteren Klanges den Vorzug. Zeit des Nationalsozialismus. Die in der Zeit des Nationalsozialismus zwischen 1933 und 1945 errichteten "Konzentrationslager" sind weltweit die bekanntesten. Sieben dieser Lager waren ausschließlich "Vernichtungslager". Insgesamt gab es 24 selbstständige KZ-Stammlager, denen zuletzt ein Netz von weit über 1000 Außen- oder Nebenlagern organisatorisch unterstellt waren. Diese Stammlager waren in ihrem Aufbau dem Konzentrationslager Dachau nachgebildet. Die Außenlager wurden teilweise als Außenkommando bezeichnet und waren sehr verschieden groß. Zum Teil wurden die Häftlinge als Arbeitskräfte ohne angemessene Ernährung im Rahmen der „Vernichtung durch Arbeit“ ausgebeutet. Den KZs waren zum Teil "Durchgangslager" und "Sammellager (Jüdischer Wohnbezirk, Ghetto)" vorgeschaltet. Als Besonderheit der auf Veranlassung der deutschen nationalsozialistischen Führung errichteten "Konzentrations- und Vernichtungslager" galt die rationalisierte, bürokratisch und fast industriell durchorganisierte Ermordung und Vernichtung von tausenden Menschen pro Tag. Hauptziel der NS-Lager war etwa ab 1939 die Vernichtung aller Bürger jüdischen Glaubens oder Herkunft: die Shoa. Schätzungen gehen davon aus, dass ca. zwei Drittel der sechs Millionen Juden, die dem Holocaust zum Opfer fielen, direkt in den Lagern des Dritten Reiches ermordet worden oder dort an den Folgen von Misshandlungen und Krankheiten umgekommen sind. Das verbleibende Drittel starb in von der SS so genannten "Ghettos", bei Massenerschießungen vor allem durch die "„Einsatzgruppen“" und auf den so genannten Todesmärschen. Es wurden in den KZ auch viele andere Menschen ermordet, z. B. Homosexuelle, geistig Behinderte und sogenannte Asoziale. Die Anzahl der Toten ist bis heute unklar, da längst nicht über alle Opfer Akten geführt wurden, am Ende des Krieges keine Ermordungen mehr festgehalten wurden und viele Unterlagen wie die Zeugen vernichtet wurden bzw. unwiederbringlich verloren gingen. Verschiedene Lager aus der Geschichte. Nach obiger Definition, bzw. der Wortherkunft, gab es nicht nur im Nationalsozialismus Internierungs- oder Konzentrationslager. Erste Lager. Erstmals wurden 1838 von der US-Armee die Cherokee vor ihrer zwangsweisen Umsiedlung in Lagern gefangengehalten. Diese Maßnahme wurde vom Präsidenten Andrew Jackson angeordnet, um den "Indian Removal Act" durchzusetzen. Die Cherokee erinnern sich noch heute an den „Trail of Tears“ ihrer Umsiedlung. Auch die in der Folgezeit von den USA angelegten Indianerreservate für zahlreiche indigene Gruppen sind als Konzentrationslager anzusehen: die Menschen wurden aus rassistischen Motiven unter inhumanen Umständen auf Gebieten festgehalten, die ein eigenes Auskommen unmöglich machten und dazu führten, dass Kinder, Frauen und auch Männer verhungerten. Flucht oder Gegenwehr wurden mit dem Tod bestraft. Die eigentliche Geschichte des Begriffes Konzentrationslager beginnt im kubanischen Unabhängigkeitskampf gegen Spanien 1868–1898, als der spanische General Valmaseda und später, 1896, in weitaus größerem Umfang General Valeriano Weyler y Nicolau anordneten, dass sich diejenigen Einwohner, die nicht als Aufständische behandelt werden wollen, in befestigten Lagern aufhalten müssen, den sog. "campos de reconcentración". Dabei handelte es sich ausdrücklich um Zivilisten: „Greise, Frauen und Kinder“. In Österreich wurde während des Ersten Weltkrieges 1914 bis 1917 das Interniertenlager Thalerhof bei Graz betrieben, in dem 30.000 Ruthenen aus Ostgalizien interniert waren. In Deutschland wurden um 1920 die ersten als „Konzentrationslager“ bezeichneten Einrichtungen zur Abschiebung unter anderem in Burg Stargard errichtet. In diesen Lagern wurden vor allem Juden aus Osteuropa, aber auch Sinti, Jenische und Roma interniert. Sie wurden 1923 nach Protesten aufgrund der unmenschlichen Bedingungen aufgelöst. Südafrika. Burische Frauen und Kinder in einem britischen "concentration camp" im Zweiten Burenkrieg Der Begriff „concentration camp“ (Konzentrationslager) wurde danach vom Militär Großbritanniens benutzt, um die im Zweiten Burenkrieg (1899–1902) angelegten Lager zu beschreiben. Frauen und Kinder der Buren sowie Afrikaner, die im Burengebiet lebten, wurden in Lagern in Südafrika zusammengetrieben. Obwohl diese Lager keine speziellen Vernichtungslager waren, bedingten die schlechte Ernährung sowie die schlechten hygienischen Verhältnisse eine hohe Sterblichkeitsrate. Hier starben etwa 26.000 Frauen und Kinder. Die Offenlegung der Verhältnisse in Südafrika durch Emily Hobhouse führte dort zu einer Entspannung der Situation. Auch die deutschen Kolonialtruppen setzten nach einem Aufstand der Herero in der damaligen Kolonie Deutsch-Südwestafrika 1904 beim von Lothar von Trotha befohlenen Völkermord an den Herero und Nama zur Internierung geflohener Herero entsprechende Lager ein. Kaiser Wilhelm II., der zunächst die Vernichtung unterstützte, hob diesen Befehl später auf. Trotha setzte jedoch weiter seine Vernichtungsstrategie um. Im Oktober 1904 erhoben sich die Nama (Volk), die ebenfalls niedergeschlagen wurden. Nach Angaben der deutschen Militärverwaltung starben zwischen Oktober 1904 und März 1907 insgesamt 7682 Inhaftierte. Die Sterblichkeit betrug je nach Lager zwischen 30 und 50 % der gesamten Gefangenen. Nach modernen Schätzungen starben etwa 65.000 bis 85.000 Herero und 10.000 Nama von 1904 bis 1908 als Folge des Vorgehens der deutschen Kolonialtruppen, das unter Historikern als erster Völkermord des 20. Jahrhunderts gilt. Im Jahr 2015 wurden die Ereignisse von Deutschland als Völkermord anerkannt. USA. Zu Beginn des Zweiten Weltkriegs richteten die USA "Concentration camps" für Bürger japanischer, italienischer oder deutscher Abstammung ein, die als potentiell gefährlich angesehen wurden (vgl. Internierung japanischstämmiger Amerikaner). Auch Menschen mit anderem Hintergrund wurden zwangsinterniert (Zeugen Jehovas). Bekannt wurden insbesondere die kalifornischen Camps, weil dort die meisten japanischstämmigen Familien inhaftiert waren. Die Zwangseinweisungen erfolgten ohne Gerichtsbeschluss. Knapp 120.000 Männer, Frauen und Kinder aus den vier US-Bundesstaaten Washington, Oregon, Kalifornien und Nevada wurden auf diese Weise verhaftet. Sie verbrachten den größten Teil des Kriegs in Arrest, viele Familien mussten in Räumen von 7 bis 8 Quadratmetern hausen, die mit Teerpappe verkleidet waren. Allerdings wurde hier, im Gegensatz zu anderen Konzentrations- und Internierungslagern, niemand vorsätzlich gefoltert oder ermordet. Chile. Nach dem Putsch vom 11. September 1973 sperrte die Junta ihre Gegner in Fußballstadien ein, unter freiem Himmel wurden sie der glühenden Sonne, dem Durst und dem Hunger ausgesetzt, aber auch gefoltert und ermordet. In der von Paul Schäfer und anderen deutschen Kolonisten gegründeten Colonia Dignidad kamen nach dem Putsch viele Menschen ums Leben oder verschwanden bis heute. Nach der Verhaftung Schäfers im Jahr 2005 fand man umfassende Waffenlager auf dem Gelände. Australien, Großbritannien, Neuseeland, Schweiz. Während beider Weltkriege wurden fast überall Staatsangehörige von Kriegsgegenparteien in Internierungslager eingesperrt, darunter auch Menschen, die zuvor noch dem Schicksal eines deutschen KZ entflohen waren. Diese Lager wurden "Konzentrationslager" genannt, da das Wort seinerzeit noch nicht die spätere Konnotation hatte. Jedoch waren die Lebensbedingungen darin nicht mit denen in einem deutschen KZ zu vergleichen, auch die Zielsetzung war eine andere. In Großbritannien waren auch Gegner des Nationalsozialismus und jüdische Flüchtlinge betroffen. Italien. Die größten Konzentrationslager des faschistischen Italiens In italienischen Konzentrationslagern im besetzten Dalmatien und der besetzten nordkroatischen Küste Bakar, Kraljevica, Molat, Rab, Zlarin wurden von 1941 bis 1943 einige zehntausend gefangener Zivilisten festgehalten. Zwangsarbeit und widrige Lebensumstände kosteten zahlreiche Insassen, die nicht gleich hingerichtet wurden, das Leben. Die Lager in Molat und in Rab (34 % der Insassen überlebten nicht) waren als Todeslager besonders berüchtigt. Das italienische KZ Villa Oliveto (Civitella) bei Siena und die Durchgangslager (DuLa) Fossoli und Bozen sowie das Sipo-Außenkommando Padua wurden während der deutschen Besatzung hauptsächlich als Sammellager für Juden und Partisanen verwendet, während die Risiera di San Sabba bei Triest auch als Vernichtungslager genutzt wurde. Jugoslawien. Zur Zeit der deutschen und italienischen Okkupation Jugoslawiens, während des Zweiten Weltkrieges, wurden von der faschistischen Ustascha und der italienischen Besatzungsmacht im besetzten Teil Kroatiens und von Kollaborateuren in Serbien Konzentrationslager errichtet. Diese befanden sich unter anderem in: Banjica, Belgrad, Jasenovac, Molat, Rab, Šabac und Topovske Supe. Nach dem Krieg wurde auf der Insel Goli Otok (kroatisch: "nackte Insel") ein Lager für politische Gefangene eingerichtet. Diese Gefangenen wurden zu Zwangsarbeit in den Steinbrüchen eingesetzt. Es bestand von 1949 bis 1988. Nach einigen Jahren wurde hieraus ein jugoslawisches Hochsicherheits-Gefängnis, zunächst für politische Gefangene, später auch für Kriminelle und jugendliche Straftäter. 1988 wurde das Gefängnis stillgelegt und 1989 völlig verlassen. Die Insel ist heute unbewohnt, kann aber von Touristen besichtigt werden. Japan. In den besiegten Ländern richteten im Zweiten Weltkrieg auch die japanischen Besatzer zahlreiche Konzentrationslager ein, die Umstände waren den deutschen Vorbildern ähnlich. Besonders tragisch war das Schicksal der vielen koreanischen Sklavenarbeiter und noch mehr der vielen Tausenden von jungen chinesischen und koreanischen Frauen, die als "Trostfrauen" (Zwangsprostituierte) den japanischen Frontsoldaten zur Verfügung gestellt wurden. Zudem wurden medizinischen Versuche an russischen, chinesischen und anderen Gefangenen, bei denen beispielsweise mit Krankheitserregern experimentiert wurde, durchgeführt. In diesem Zusammenhang tritt besonders die Einheit 731 hervor. Das offizielle Japan hat bis heute keine Stellung zu dieser Kriegsschuld bezogen und auch nie Entschädigungen an die Opfer bezahlt. Unabhängiger Staat Kroatien. Der während des Zweiten Weltkrieges als Unabhängiger Staat Kroatien errichtete Satellitenstaat baute nach dem Vorbild des Deutschen Reichs für seine kroatischen Regimegegner, aber hauptsächlich für die serbischen, jüdischen Regimegegner Konzentrationslager. Die jüdische Bevölkerung wurde willig den deutschen Mördern ausgeliefert. Im Konzentrationslager Jasenovac wurden gemäß heutiger Forschungsergebnisse etwa 100.000 Serben, Juden, Sinti und Roma und Kroaten umgebracht. Die Angaben schwanken stark und sind Gegenstand politisch-historiografischer Kontroversen. Nordkorea. Das nordkoreanische Strafvollzugssystem mit seinen Straflagern und Gefängnissen gliedert sich in zwei Teile: Die Internierungslager für politische Gefangene (koreanisch Kwan-li-so) und die Umerziehungslager (koreanisch Kyo-hwa-so). Sowjetunion und Osteuropa. Bereits im zaristischen Russland bestand ein Lagersystem. Seit Spätsommer 1918 wurde dieses System von der Sowjetregierung unter Lenin zum Zweck des Roten Terrors weitergeführt. Auch beim Bauernaufstand von Tambow 1921 wurden Konzentrationslager zur Brechung des Widerstandes eingerichtet. Das zur Zeit des Stalinismus ausgebaute Lagersystem der Sowjetunion wird heute oft als „Gulag“ bezeichnet. Gulag ist die Abkürzung jener Hauptabteilung des sowjetischen Innenministeriums, die maßgeblich für die Verwaltung der Lager zuständig war. Die Lager des Gulag dienten als Gefangenenlager sowohl für „gewöhnliche“ Kriminelle als auch für politische Opponenten und waren in erster Linie Arbeitslager. Alexander Solschenizyn hat in seinen Werken „Ein Tag im Leben des Iwan Denissowitsch“ und „Archipel Gulag“ die Haftbedingungen in literarischer Form offengelegt. Viele Bauvorhaben, beispielsweise der Weißmeer-Ostsee-Kanal, die Stadt Norilsk oder die Moskauer Universität, wurden von Lagerhäftlingen gebaut. „Der erste Kreis der Hölle“ beschreibt die „Scharaschka“ genannten Lager, in denen Wissenschaftler und Ingenieure gezwungen wurden, für den Staat zu arbeiten. Von 1930 bis 1959 haben insgesamt etwa 18 Millionen Menschen das Lagersystem durchlaufen, mindestens 1,5 Millionen Menschen sind im Lager umgekommen. Die Schätzungen der Opfer der Jahrzehnte des leninistischen und stalinistischen Terrors sind jedoch schwierig, manche gehen in mehrere Millionen. Gefangene eines sowjetischen Arbeitslagers zwischen 1936 und 1937 Unter der Herrschaft Lenins und vor allem Stalins konnte es passieren, dass jemand wegen einer kritischen Äußerung im Familienkreis oder wegen des Diebstahls eines Apfels denunziert und verhaftet wurde. Während des Großen Terrors (1937–1938) wurden von der Staats- und Parteiführung Verhaftungsquoten festgelegt, die dazu führten, dass eine Vielzahl Unschuldiger inhaftiert und verurteilt wurden, viele darunter zu Lagerhaft. Ähnliche Methoden wurden teilweise schon in der Bauzeit des Weißmeer-Ostsee-Kanals angewandt. Derartige Urteile stützten sich meist auf vom Geheimdienst fabrizierte „Beweise“ oder auf unter Folter erpresste Geständnisse. Sehr vage und undeutlich war insbesondere der berüchtigte Paragraph 58 des sowjetischen Strafgesetzbuches, der „konterrevolutionäre Verbrechen“ betraf. Sogar „Verbeugung vor dem Westen“, das „Äußern von Hoffnungen auf das Ende des Kommunismus“ und der angeblich „beabsichtigte Versuch der Spionage“ waren strafbar. Nach dem Zweiten Weltkrieg wurden in Osteuropa Menschen, die wirklich oder angeblich mit den deutschen Kriegsverbrechern zusammengearbeitet hatten oder selbst Deutsche waren, in Lagern interniert, zum Beispiel in der Tschechoslowakei, wo auch viele Ungarn und Polen interniert wurden. Auf dem Gebiet der sowjetischen Besatzungszone entstanden zehn Speziallager. Die Bedingungen für die deutschen Kriegsgefangenen entsprachen ebenfalls nicht den Vorschriften der dritten Genfer Konvention und viele Menschen starben oder überlebten nur mit Folgeschäden. Ein großer Teil der aus deutscher Kriegsgefangenschaft zurück kehrenden Soldaten der Roten Armee wurde ebenfalls zur Lagerhaft bestimmt. Eine juristische Aufarbeitung der Konzentrationslager hat auch nach den Demokratisierungen der Länder nur in wenigen Fällen stattgefunden. Hierfür werden auch noch vorhandene Machtstrukturen aus der Zeit der staatlichen Unterdrückung verantwortlich gemacht, die an einer kritischen Auseinandersetzung mit der Vergangenheit nicht interessiert sind. Volksrepublik China. Die in der Volksrepublik China "Laogai" 劳改 oder Laojiao ("Umerziehungslager", wörtl. "Umerziehung durch Arbeit") genannten Gefangenenlager werden auch als eine Art von Zwangsarbeits- oder Internierungslager angesehen. Sie wurden nach der Machtergreifung der kommunistischen Partei eingerichtet. Nach Kotek/Rigoulot gibt es bis heute nur wenige offizielle Dokumente zu den Lagern, „das Geheimnis wird... gut gehütet“. Zum gegenwärtigen Zeitpunkt nähmen Berichte und Studien über die Lager jedoch zu. Die kommunistische Führung soll zugegeben haben, seit 1949 10 Millionen Menschen in Lagern inhaftiert und im Jahr 1995 in 685 Lagern 1,2 Millionen Gefangene festgehalten zu haben. Diese Zahlen seien jedoch bei weitem zu niedrig angesetzt. (Allein für das System der Custody and Repatriation (C&R) wurden im Jahr 2000 nach offiziellen Angaben mehr als 3,2 Millionen Internierungen in 800 C&R-Lager vorgenommen.) Die Lager seien fabrikmäßig organisierte Produktionsstätten und nach außen abgeschirmt, ihre Existenz jeweils getarnt als besondere Farm oder Dorf, so gibt es Bezeichnungen dafür wie „Das edle Dorf des Nordens“. Produkte werden im In- und Ausland abgesetzt. Es gäbe auch Arbeitslager in Landwirtschaft, Kohle- und Uranminen. Die Höhe des wirtschaftlichen Nutzens sei jedoch fraglich. Im Mittelpunkt stehe die „Umerziehung“ der Häftlinge. Nach J. Pasqualini stehe nicht nur die Arbeit im Vordergrund, sondern die „Befreiung“ von „schlechten Gedanken über die Regierung, ihre Führer, die Regierungspolitik, die Verbündeten der Regierung und die kommunistische Partei.“ Die Häftlinge werden von der Außenwelt isoliert. Ihre Haftbedingungen sollen – mit einigen Unterschieden – denen des sowjetischen Gulag ähneln. Sie sind von Hunger, schwersten Strafen, Misshandlungen und Folterungen gekennzeichnet. Nach bisherigen Erkenntnissen errechnet sich im langfristigen Durchschnitt und bei einer angenommenen Gesamtzahl von bisher 8 Millionen Gefangenen eine Todesrate von etwa 280.000 Menschen pro Jahr. Für die Zeit um das Jahr 2000 werden ca. 200.000 Häftlinge angegeben. Spanien. In Spanien gab es unter der Franco-Diktatur rund 190 Konzentrationslager, in denen fast eine halbe Million republikanische Kämpfer des spanischen Bürgerkriegs, Flüchtlinge und Regimegegner eingesperrt waren. Portugal. In den Jahren 1936–1954, zur Zeit der Salazar-Diktatur, richtete Portugal auf den Kapverdischen Inseln ein Konzentrationslager ein. Am 29. Oktober 1936 kamen die ersten Gefangenen im Lager Tarrafal an. Insgesamt waren in den 17 Jahren der ersten Phase des Bestehens des Lagers etwa 340 Gefangene hier inhaftiert. Dies waren vorwiegend Matrosen der Organização Revolucionário da Armada, die sich am 8. September 1936 an einer Revolte beteiligt hatten, sowie Angehörige der internationalen Brigaden, die im Spanischen Bürgerkrieg gekämpft hatten. Daneben wurde Republikaner, Oppositionelle, alle Angehörigen des Sekretariats der Kommunistischen Partei Portugals und andere Oppositionelle des Salazar-Regimes gefangengehalten. 32 Gefangene starben während ihrer Haft, darunter 1940 Mário Castelhano, Führer der Gewerkschaft CGT und Chefredakteur der anarchosyndikalistischen Tageszeitung "A Batalha", sowie 1942 der KP-Generalsekretär Bento António Gonçalves. Die Gefangenen wurden auf zahlreiche Arten gefoltert. Die dezidierte und erklärte Absicht der Lagerleitung und des Lagerarztes war, die Gefangenen durch unmenschliche Haftbedingungen, vorenthaltene medizinische Behandlung, Mangelernährung und Folter „sterben zu lassen“. Unbehandelte schwere Verlaufsformen der Malaria waren die häufigste Todesursache. Fluchtversuche der Gefangenen scheiterten. Wachen wie Gefangene lebten mit dem Blick auf den Deutschen Faschismus. Nach der Schlacht von Stalingrad nahm die Brutalität der Lagerleitung etwas ab, und nach dem Ende des Nationalsozialismus in Deutschland entspannte sich die Lage soweit, dass von 1945 bis zur Schließung des Lagers am 26. Januar 1954 noch zwei Gefangene starben. Auch wurden bis zur Schließung die meisten Gefangenen auf das portugiesische Festland verlegt oder begnadigt. Ab 1938 war João da Silva Leiter des Konzentrationslagers. Da Silva besichtigte vorher die deutschen Konzentrationslager, und Offiziere wurden in KZ Dachau ausgebildet. Die Wachmannschaften bestanden aus 25 Mitgliedern der portugiesischen Geheimpolizei PVDE (ab 1945 PIDE) sowie einem Bataillon von über 75 angolanischen Hilfswächtern und wenigen Kap-Verdiern. In den Jahren 1961–1974 folgte eine zweite Phase der Nutzung. Mitglieder der Unabhängigkeitsbewegungen aus Kap Verde, Guinea-Bissau und Angola wurden, zumeist ohne Gerichtsurteil, „präventiv“ oder in „Schutzhaft“ auf Anordnung der PIDE in Haft gehalten und gefoltert. Nach der Nelkenrevolution am 25. April 1974 weigerte sich die Lagerleitung, in der Hoffnung auf eine politische Rückwärtswende in Portugal, das Lager zu öffnen. Am 1. Mai 1974 befreite die Bevölkerung der Insel Santiago die Gefangenen in einer großen Demonstration. Keiner der Täter von Tarrafal wurde je in Portugal verurteilt. Liste der Konzentrationslager des Deutschen Reichs. Die Liste der Konzentrationslager des Deutschen Reichs beinhaltet Konzentrationslager und KZ-Vernichtungslager während der Zeit des Nationalsozialismus. Ebenso listet sie jene Tötungsanstalten auf, in welche KZ-Häftlinge zur Ermordung deportiert wurden. Zur Abgrenzung vom "streng definierten" KZ-System der Nationalsozialisten werden auch die Vernichtungslager der Aktion Reinhard, sowie Jugend-Haftstätten, Durchgangslager und weitere NS-Lager angeführt. Vorgeschichte. Die Vorgeschichte der Konzentrationslager bildeten die von Historikern sog. "Frühen Konzentrationslager". Sie werden heute u. a. auch als „wilde“ Konzentrationslager bezeichnet. Es waren jene Lager, die ab 1933, nach der Machtübernahme Hitlers im Deutschen Reich, unsystematisch eingerichtet wurden, meist provisorisch an bestehenden Orten. Sie hatten das Ziel, verhaftete politische Gegner der NSDAP einzusperren und dadurch zu entmachten, existierten meist bis zu drei Jahren und standen unter der Leitung von SA, SS, Gestapo, Innenministerium usw. Die frühen KZ unterstanden nicht der IKL, da diese erst später gegründet wurde. Einige wurden später in das große Lager-System der SS aufgenommen. Sonderfall ist hier das KZ Dachau, das bis Kriegsende betrieben wurde und Prototyp der späteren KZ-Stammlager war. dient dem Zeilenumbruch. Bitte nicht entfernen! Konzentrationslager der IKL bzw. des WVHA. Landkarte mit den KZ-Stammlagern (die KZ-Außenlager sind nicht eingezeichnet) Die Konzentrationslager, die von der Inspektion der Konzentrationslager gegründet wurden und zumeist bis Kriegsende Bestand hatten, sind im engeren Sinn gemeint, wenn von „Konzentrationslager“ die Rede ist. Nach einem Befehl Himmlers durften nur solche Lager offiziell als Konzentrationslager bezeichnet werden, die der IKL (später dem WVHA) unterstellt waren. Charakteristisch für diesen Lagertyp ist neben dem Unterstellungsverhältnis (IKL/WVHA) insbesondere die nach dem „Dachauer Modell“ geformte Struktur der späteren KZ. Es galt die von Theodor Eicke in Dachau erarbeitete KZ-Lagerordnung. dient dem Zeilenumbruch, bitte nicht entfernen Übersicht der KZ-Außenlager und KZ-Außenkommandos. Die folgenden Listen beinhalten sowohl dauerhaft errichtete Außenlager (Lager mit Häftlings-Wohnstätten und SS-Wachtürmen), als auch temporäre Außenkommandos. KZ-Außenkommandos waren mobile KZ-Häftlingskommandos, die von der SS z. B. bei der Bombenräumung eingesetzt wurden (Bsp. "KZ-Außenkommando SS-Baubrigade"). Vernichtungslager. Lager, die der "industrialisierten Vernichtung" von Menschen dienten, werden von Historikern heute "Vernichtungslager" genannt. Vernichtungslager (innerhalb des KZ-Systems). Zum Begriff Vernichtungslager zählen die Konzentrationslager Auschwitz-Birkenau und Majdanek (Lublin), die der IKL unterstellt waren. Bei diesen beiden KZ stand das Kriterium des "fabrikmäßig organisierten" Massenmordes im Vordergrund. Vernichtungslager (nicht innerhalb des KZ-Systems). Die o. g. KZ-Vernichtungslager Auschwitz und Majdanek hatten Verbrennungsöfen für die Leichen. Hingegen jene Vernichtungsstätten, die nicht im KZ-System errichtet worden waren, hatten nicht die Basis der vorhandenen Krematorien. Bei diesen Vernichtungsaktionen, die nicht im System der KZ stattfanden, wurden die Leichen zunächst in Gruben verscharrt, später wurden diese Massengräber wieder geöffnet und die verwesten Leichen anschließend verbrannt (z. B. Sonderaktion 1005). Ein weiterer Unterschied war, dass keine Selektionen an der Rampe stattfanden, sondern alle dorthin deportierten Häftlinge ermordet wurden. Die Orte waren reine Todesfabriken. Vernichtungslager. dient dem Zeilenumbruch, bitte nicht entfernen Vernichtungslager der "Aktion Reinhard". In den Lagern der „Aktion Reinhardt“ wurden mehr Menschen ermordet als in Auschwitz. dient dem Zeilenumbruch, bitte nicht entfernen Sonderfall: "Tötungsanstalten". Einen Sonderfall bilden die u.g. Tötungsanstalten, in welche KZ-Häftlinge deportiert und dort ermordet wurden. Aktion T4 (Ermordung von behinderten Menschen), 1940 bis 1941. → "Hauptartikel: Aktion T4" In den Tötungsanstalten fanden die "Euthanasie-Morde" statt. Zwischen 1940 und 1941 ließ das NS-Regime mehr als 70.000 Menschen mit geistigen und körperlichen Behinderungen ermorden. Da es jedoch zu Protesten in der Bevölkerung kam, stellte das NS-Regime diese Aktion schließlich ein. Ein erhalten gebliebenes Dokument der Berliner Euthanasie-Zentrale überlieferte diese genauen Zahlen. Die sechs NS-Tötungsanstalten bezeichnete die NS-Tarnsprache als „Anstalten“. Von 1940 bis zum 1. September 1941 wurden insgesamt 70.273 Menschen durch Gas getötet, (Tarnsprache: „desinfiziert“). dient dem Zeilenumbruch, bitte nicht entfernen Herbert Lange leitete 1940 bis 1941 das "Sonderkommando Lange", das in weiteren Tötungsanstalten mindestens 6.219 polnische und deutsche Patienten mittels Gaswagen ermordete, damals als 'Räumung von Heilanstalten" bezeichnet. Anschließend wurde er, ab Dezember 1941, Kommandant des Vernichtungslagers Kulmhof. Ähnlich wie Herbert Lange wurden mehr als 100 Personen, die bei den Euthanasie-Morden tätig waren, als „Fachpersonal“ für spätere Vernichtungslager übernommen. Aktion 14f13 (Ermordung von „nicht arbeitsfähigen“ KZ-Häftlingen), 1941 bis 1944. Nachdem die Ermordung von behinderten Menschen eingestellt worden war, wurde „Häftlingseuthanasie“ betrieben. Zwischen 1941 bis 1944 begutachteten SS-Ärzte die Arbeitsleistung von KZ-Häftlingen. Die SS konnte nun Häftlinge als „Invaliden“ einstufen, sobald sie krank, alt oder auch nur missliebig waren. Den Häftlingen wurde vorgetäuscht, sie kämen mittels „Invalidentransporten“ zur Erholung in ein Sanatorium. Jedoch wurden sie in Tötungsanstalten (Bernburg, Sonnenstein, Hartheim) deportiert. Etwa 20.000 Häftlinge wurden umgebracht. Abgrenzung: Keine Konzentrationslager. Nachfolgend werden sonstige NS-Einrichtungen und Lager angeführt, die weder Konzentrationslager noch Vernichtungslager waren. Durchgangslager. Durchgangslager waren Sammellager, in die Häftlinge gesperrt wurden, die in die Vernichtungslager deportiert werden sollten. "Siehe auch:" Liste der Ghettos in der Zeit des Nationalsozialismus. dient dem Zeilenumbruch. Bitte nicht entfernen! Andere Lager. dient dem Zeilenumbruch, bitte nicht entfernen Jugendhaftstätten. dient dem Zeilenumbruch. Bitte nicht entfernen! Sonstige NS-Lager. Sonstige NS-Lager umfassen im Prinzip sämtliche Gefangenenlager im Deutschen Reich während der Zeit der Hitler-Diktatur. Hierzu zählen beispielsweise Arbeitserziehungslager, Kriegsgefangenenlager oder Zwangsarbeiterlager. Diese Lager sind aufgrund der ethnischen („rassischen”) Hierarchie der Nationalsozialisten schwierig zu typisieren. So wurden westalliierte Kriegsgefangene als Angehörige der „nordischen Rasse“ in der Regel gut behandelt, während insbesondere Soldaten der Roten Armee in ihren Gefangenenlagern Zustände vorfanden, die sich von einem Konzentrationslager nicht unterschieden. Auch die Arbeitserziehungslager unterschieden sich oftmals nur formal von einem KZ. dient dem Zeilenumbruch. Bitte nicht entfernen! Fußnoten. Deutsches Reich KZ Auschwitz-Birkenau. a> (2009) mit einmontierter Fotografie von 1945 Einfahrtsgebäude des KZ Birkenau, Ansicht von innen (1945, nach der Befreiung, Fotogr. S. Mucha) Das Konzentrationslager Auschwitz-Birkenau war das größte deutsche Vernichtungslager während der Zeit des Nationalsozialismus. Es wurde 1941 drei Kilometer entfernt vom Stammlager Auschwitz I gebaut und befand sich nahe der in Auschwitz umbenannten Stadt Oświęcim im nach der militärischen Besetzung Polens vom Deutschen Reich annektierten und als Verwaltungseinheit errichteten Landkreis Bielitz. Das Lager wurde am 27. Januar 1945 durch Truppen der Roten Armee befreit. Der Name „Auschwitz“ wurde zum Symbol der Shoa. Von den mehr als 5,6 Millionen Opfern des Holocaust wurden etwa 1,1 Millionen Menschen, darunter eine Million Juden, in Birkenau ermordet. Etwa 900.000 der Deportierten wurden direkt nach ihrer Ankunft in den Gaskammern ermordet. Weitere 200.000 Menschen kamen zu Tode durch Krankheit, Unterernährung, Misshandlungen und medizinische Versuche oder wurden später als zur Arbeit untauglich selektiert und vergast. Herkunftsländer der meisten Ermordeten waren Belgien, Deutschland, Frankreich, Griechenland, Italien, Jugoslawien, Luxemburg, Niederlande, Österreich, Polen, Rumänien, Sowjetunion, Tschechoslowakei und Ungarn. Heute sind von zwei der großen Konzentrationslager noch viele Teile erhalten bzw. originalgetreu ergänzt. Sie sind öffentlich zugänglicher Bestandteil des Staatlichen Museums Auschwitz-Birkenau, Gedenkstätte des Holocaust und jüdischer Friedhof auf dem Gelände der beiden ehemaligen Konzentrationslager I und II. Dieses Museum ist zugleich Gedenkstätte, internationales Begegnungs- und Holocaust-Forschungszentrum. Es wurde von der UNESCO unter dem Namen "Auschwitz-Birkenau – deutsches nationalsozialistisches Konzentrations- und Vernichtungslager (1940–1945)" zum Teil des Weltkulturerbes erklärt. Lagergliederung. Schematische Karte des SS-Interessengebiets (mit der Lage der drei Konzentrationslager des Lagerkomplexes zueinander, Einzugsbereich, Sperrgebiet) KZ Auschwitz-Birkenau, Gesamtüberblick vom Eingangsgebäude zur Bahnrampe und zum Lagerbereich, 2007 Das 1940 errichtete, etwa drei Kilometer entfernt liegende Konzentrationslager Auschwitz I war das Verwaltungszentrum des gesamten Lagerkomplexes. Es trägt deshalb in der Forschung auch den verwaltungstechnischen Namenszusatz "Stammlager". Dort kamen ungefähr 70.000 Menschen, zumeist polnische Intellektuelle und sowjetische Kriegsgefangene, zu Tode (ermordet oder infolge der Haftbedingungen). Gefangene oder Häftlingsgruppen wurden von der SS zwischen beiden Lagerteilen nach Bedarf hin und her verlegt, etwa wenn in bestimmten Berufen Ausgebildete für die angeschlossenen Betriebe benötigt wurden. Auschwitz-Birkenau, auch "KL Auschwitz II" genannt, wurde 1941 als Arbeits- und als Vernichtungslager mit später insgesamt sechs Gaskammern und vier Krematorien errichtet. Unter äußerst widrigen Bedingungen wurden hier viele hunderttausende Häftlinge gefangen gehalten, zur Zwangsarbeit angehalten und massenhaft durch unbehandelte Krankheiten, Erfrierungen, unzureichende Ernährung, körperliche Erschöpfung, medizinische Experimente, Exekutionen oder Vergasen getötet. Viele Gefangene aus ganz Europa wurden bereits am Tag ihrer Ankunft vergast; ihre Leichen wurden in den Krematorien verbrannt. Viele Menschen verbinden heute deshalb vor allem diesen Teil des Lagerkomplexes mit dem Namen „Auschwitz“. Das Lager unterteilt sich grob betrachtet in acht verschiedene bauliche Bereiche (vergleiche Planskizze rechts). 2008 in Deutschland entdeckte Original-Baupläne der „Zentralbauleitung der Waffen-SS und Polizei Auschwitz“ wurden 2009 der Holocaust-Gedenkstätte Yad Vashem in Israel übereignet. Im Frühjahr 1942 begannen die Massendeportationen von Juden mit Transporten aus Polen, aus Frankreich, aus der Slowakei und aus dem deutschen Reichsgebiet. Mitte des Jahres waren schon 16.000 Juden aus Polen, über 4.000 aus Frankreich und mehr als 1.000 aus der Slowakei in dem Vernichtungslager inhaftiert. In den kommenden Jahren steigerten sich die Transporte bis zu ihrem Höhepunkt im Jahre 1944 mit 600.000 Juden, von denen 500.000 direkt in den Gaskammern ermordet wurden. Überall in den besetzten europäischen Ländern gab es Durchgangslager, von denen aus die Deportationszüge in die östlichen Vernichtungslager rollten. Die Anzahl der Opfer und der zeitliche Verlauf der Deportierung ist im Artikel Opferzahlen der Konzentrationslager Auschwitz detailliert beschrieben. Innerhalb des durch die Flüsse Sola und Weichsel umgrenzten "Interessengebietes KL Auschwitz" mit ca. 40 Quadratkilometern Fläche wurden weitere 48 Nebenlager errichtet und zum Teil nur zeitweise betrieben. Die polnische Bevölkerung wurde nach und nach aus dem Interessengebiet vertrieben. Es war somit von der Umgebung abgeschnitten und gut kontrollierbar. Viele Fluchtversuche von Häftlingen sind aufgrund dieser für sie nicht erkennbaren tiefen Staffelung des gesamten Komplexes gescheitert. Neben dem "I.G.-Farben-Industriekomplex Buna", einem neu errichteten Werk für synthetischen Treibstoff und Gummi, wurde schließlich das KZ Auschwitz III Monowitz als Arbeitslager errichtet, das nicht innerhalb des Interessengebietes lag. Damit wollte die Werksleitung erreichen, dass die „Arbeitskräfte“ nicht von täglichen Fußmärschen von und zum Stammlager entkräftet wurden, und zugleich mehr Einfluss auf die „eigene“ Zwangsbelegschaft erhalten. Besondere Lagerbereiche. Februar 1945). Ähnliche Bilder existieren auch von einer Sammlung von Kopfhaaren, Kinder- und Frauen-Schuhen. Krematorium II und III (mit unterirdischen Gaskammern) und die Krematorien IV und V (Gaskammern ebenerdig), Bunker I („Rotes Haus“), Bunker II (ein Bauernhaus, „Weißes Haus“, später Bunker V genannt). Die sogenannte "Zentrale Sauna" (offizieller Name "BW.32") in Auschwitz-Birkenau diente zugleich als Aufnahmegebäude und als "Desinfektions- und Entwesungsanlage". In diesem Gebäude lief die Aufnahmeprozedur der neu ins Lager angekommenen Häftlinge ab. Ihnen wurden Nummern zugewiesen, und schwangere Frauen und erkrankte Häftlinge, die bei der Selektion auf der „Rampe“ (Bahnsteig) nicht aufgefallen waren, wurden aus den arbeitsfähigen Häftlingen selektiert. Ein separater Bereich des Lagers war das "Frauenlager". In einem anderen Bereich, „"Kanada"“ genannt, wurden nach der Aufnahme die Besitztümer der Häftlinge gesammelt und sortiert. Kleidung und Wertgegenstände wurden vom SS-Wirtschaftsverwaltungshauptamt (WVHA) unter Oswald Pohl bzw. dem ihm untergebenen SS-Hauptsturmführer Bruno Melmer (Melmer-Gold; Zahngold u.a. Geld-Sorten) übernommen und verwertet. Entstehung. Die „Entladerampe“, auf der die Transporte ankamen. Foto von 2007 Ruinen der Gaskammern, Oktober 2002 Am 26. September 1941 erhielt Rudolf Höß von Heinrich Himmler den Befehl, ein zusätzliches Arbeitslager für 100.000 sowjetische Kriegsgefangene im "Interessengebiet Auschwitz" zu errichten. Dieses Lager entstand neben dem Dorf "Brzezinka" (Birkenau), drei Kilometer vom KZ Auschwitz I entfernt. Dazu zwangen die Nationalsozialisten die Bevölkerung des Ortes, ihre Häuser zu verlassen, und ließen das Lager durch Häftlinge des KZ Auschwitz I errichten. Das Barackenlager war etwa fünf Quadratkilometer groß. Es war in mehrere Sektionen unterteilt, die wiederum in Felder gegliedert waren. Diese Felder sowie das gesamte Lager waren mit einem doppelten Elektrozaun aus Stacheldraht umzäunt, der unter einer bei Berührung tödlich wirkenden Spannung von 6000 Volt stand. Im Abstand von etwa 150 Metern standen zwischen diesen beiden Zäunen fünf Meter hohe Wachtürme, die mit Maschinengewehren und Scheinwerfern ausgestattet waren. Zusätzlich befand sich vor dem inneren Hochspannungszaun noch ein gewöhnlicher Drahtzaun. Dieses Bewachungssystem bildete die nachts geschlossene „kleine Postenkette“. Östlich davor, außerhalb der „kleinen Postenkette“, befanden sich die Kasernen der SS, an deren östlicher Seite auch ein SS-Lazarett gebaut wurde, das nicht mit den Häftlings-Krankenbaracken (in Abschnitt II o und p) zu verwechseln ist. Das Lager war zunächst als Arbeitslager kleineren Umfangs gedacht, in dem Kriegsgefangene und andere Häftlinge Zwangsarbeit für die SS leisten sollten. Bereits in der Planungsphase veränderte sich jedoch seine Bestimmung, und die angestrebte Zahl der Häftlinge wurde deutlich erhöht. Im Herbst 1942 wurden in Auschwitz-Birkenau erstmals sowjetische Kommissare und arbeitsunfähige Häftlinge mit Zyklon B umgebracht, nachdem bereits Ende 1941 Versuche damit im Stammlager stattgefunden hatten. Wenig später wurden Mütter mit Kindern und nicht zur Arbeit taugliche Personen aus den eintreffenden Transporten in die Gaskammern getrieben und dort umgebracht. Ab April oder Juli 1942 (der genaue Zeitpunkt ist in einem engen Zeitrahmen umstritten) wurde die überwiegende Mehrzahl der heran transportierten Juden sofort ermordet. Auschwitz-Birkenau hatte damit die Funktion eines "Vernichtungslagers" übernommen, wurde aber zugleich auch als Konzentrations- und Arbeitslager weiter verwendet. Selektion und Vergasung. Die meisten Opfer kamen in Auschwitz-Birkenau mit dem Zug an, oft nach tagelangen Reisen in Viehwaggons. Die ankommenden Gefangenen wurden von einer Entladerampe (alte Rampe, südlich vom Bahnhof Auschwitz) zu Fuß ins Lager getrieben. Im Frühjahr 1944 wurde ein Gleisanschluss direkt bis ins Lager zur neuen Rampe gelegt (siehe Foto). Manchmal wurde der ganze Transport direkt in die Gaskammern geschickt — meistens wurde erst eine Selektion durchgeführt, bei der die „Schwachen, Alten und Kranken“ von den „Arbeitsfähigen“ nach Augenschein getrennt und zur Gaskammer geführt wurden. Die Einteilung der Lagerärzte zur Selektion und die Leitung der Selektionen nahm der Standortarzt Eduard Wirths vor. An diesen Selektionen war auch der für grausame pseudowissenschaftliche medizinische Experimente berüchtigte Lagerarzt Josef Mengele beteiligt. Im damaligen Sprachgebrauch wurde der Begriff Selektion nicht verwendet. Die Tätigkeit wurde als "Rampendienst" bezeichnet, der Vorgang selbst als "Aussortierung". In Auschwitz-Birkenau gab es in vier Krematorien und in zwei Bauernhäusern Gaskammern. Sie wurden aber nicht alle im gleichen Zeitraum genutzt. Im Laufe des Jahres 1942 wurden zunächst die Bauernhäuser als Gaskammern verwendet. Im ersten Halbjahr 1943 gingen dann die vier Krematorien in Betrieb, von denen zwei im Untergeschoss Gaskammern von 210 Quadratmetern Grundfläche enthielten. Die beiden anderen Krematorien hatten oberirdische Gaskammern von je 236 Quadratmetern Gesamtfläche. Vier Baufirmen waren vor Ort am Bau beteiligt. Die Verbrennungsöfen (Krematorien) und die Lüftungsanlagen der Gaskammern wurden von der Erfurter Firma J. A. Topf & Söhne konstruiert, eingebaut, gewartet und repariert. Details zu den Gaskammern und Krematorien sind im Artikel Gaskammern und Krematorien der Konzentrationslager Auschwitz beschrieben. Zwangsarbeit und Bewachungssystem. Die Häftlinge, die die Selektion überlebten, mussten in den ans Lager angrenzenden Industriebetrieben Zwangsarbeit leisten. Dabei mussten hauptsächlich Industrieanlagen zur Herstellung von synthetischem Benzin oder Synthesekautschuk (sog. Buna) für die I.G. Farben erstellt werden. Auch andere deutsche Firmen wie Krupp unterhielten Werke in der Nähe; sie zahlten den NS-Stellen eine „Miete“ für jeden überlassenen Arbeitssklaven, von der auch die SS-Schutzmannschaften profitierten. Das Fabrikgelände und die „Landwirtschaftsbetriebe“ waren weiträumig von der „großen Postenkette“ umgeben. Beim morgendlichen „Zählappell“ wurden alle Häftlinge gezählt und marschierten dann als Arbeitskommandos zur Arbeit aus dem Lager heraus. Die Arbeitskommandos und die jeweiligen Arbeitsplätze durften nicht ohne Bewachung und schriftlichen Befehl verlassen werden. Die Häftlinge befanden sich nachts also innerhalb der „kleinen Postenkette“ und arbeiteten am Tag innerhalb der „großen Postenkette“. Innerhalb dieses Systems genügten relativ wenige Bewacher, um das Terrorregime aufrechtzuerhalten. Die Kapos – Funktionshäftlinge im Konzentrationslager – trugen einen Großteil der Überwachungsfunktionen. Waren die Häftlinge beim Abendappell im Lager vollzählig, wurde die äußere Bewachung aufgelöst. Die SS zwang weibliche und männliche Musiker täglich beim Marsch zu und von den Arbeitsstellen am Lagertor Musik, vor allem Marschmusik zu spielen und damit vor allem zur Abwechslung für die Wächter beizutragen. Sie mussten auch regelrecht Konzerte für die SS-Angehörigen veranstalten, immer unter dem Druck, bei Missfallen selbst der Vernichtung zugeführt zu werden. Die überlebende Zeitzeugin Esther Béjarano machte es sich später zur Aufgabe, den Nachkommen über die Geschehnisse zu berichten. Die Geschichte des Mädchenorchesters wurde später in Romanen, Dokumentationen und Filmen sowie in einer Oper verarbeitet. Die Zwangsarbeiter waren vollkommen rechtlos und nicht nur der Willkür des SS-Wachpersonals, sondern auch jener der Zivilangestellten der deutschen Firmen ausgeliefert. Plötzliche Entschlüsse, Personen wegen geringster „Vergehen“ oder einfach aus einer Laune heraus zu ermorden, waren an der Tagesordnung; der Tod war den Häftlingen ständig vor Augen. Der Massenmord an den ungarischen Juden. Die deutsche Wehrmacht marschierte im März 1944 in Ungarn ein. Dort lebte noch die größte Gruppe europäischer Juden einer Nation, die bislang vom Holocaust verschont geblieben war. Von den 795.000 ungarischen Juden wurden von Mai bis Juli 1944 rund 438.000 nach Auschwitz-Birkenau deportiert. Am 29. und 30. April fuhren erstmals zwei Züge mit insgesamt rund 3.800 Menschen nach Auschwitz, von denen der erste mit 1.800 Menschen das Lager noch im April erreichte. Am 15. Mai begannen die allgemeinen Deportationen mit mindestens drei Güterzügen täglich und ungefähr 4.000 Menschen in jedem Zug. Ein Teil der arbeitsfähigen Ungarn wurden als Zwangsarbeiter in andere Lager überstellt. Von den 795.000 ungarischen Juden wurden insgesamt rund 508.000 deportiert. Neben den Transporten von 438.000 Juden nach Auschwitz wurden ab Oktober 1944 weitere 64.000 Juden zur Verwendung in der Rüstungsindustrie ins Reichsgebiet deportiert. Von den Deportierten kamen rund 382.500 ums Leben, der auf Auschwitz entfallende Anteil der Opfer wurde bislang nicht exakt ermittelt. Weitere 120.000 Juden starben in Ungarn bzw. wurden dort ermordet. Damit ergibt sich für Ungarn insgesamt eine Opferzahl von 502.000 Juden. Die Ermordung der Roma im „Zigeunerfamilienlager“. In Auschwitz-Birkenau wurde von Februar 1943 bis August 1944 der Abschnitt B II e als „Zigeunerlager Auschwitz“ genutzt. Dorthin wurden durch das Reichssicherheitshauptamt (RSHA) Familien und Einzelpersonen deportiert, die im Sinne einer „Regelung der Zigeunerfrage aus dem Wesen dieser Rasse“ (Zitat: Heinrich Himmler) als „Zigeuner“ oder „Zigeunermischlinge“ kategorisiert waren. Die Deportierten kamen überwiegend aus dem Altreich und Gebiet Österreichs. Von den rund 22.600 Personen, starben über 19.300. Davon erlagen über 13.600 der planmäßigen Mangelernährung, den Krankheiten und Seuchen, und mehr als 5.600 wurden in Gaskammern ermordet. Andere wurden Opfer von individuellen Gewaltattacken oder von Medizinverbrechen, unter anderem durch den KZ-Arzt Josef Mengele. Ein kleiner Teil der Gefangenen wurde zur Zwangsarbeit in andere Konzentrationslager (wie KZ Buchenwald, KZ Ravensbrück) überstellt. Die Massenverbrechen an Roma in Auschwitz-Birkenau sind Teil des mit einem Romanes-Wort als „Porajmos“ bezeichneten Genozids an der Minderheit. Fluchtversuche und Aufstand des Sonderkommandos. Insgesamt versuchten ungefähr 700 Häftlinge die Flucht aus Auschwitz; sie gelang in etwa 300 Fällen. (Nach anderen Angaben gelangen weniger als 150 Fluchtversuche). Die anderen Flüchtlinge wurden während ihres Ausbruchsversuchs von den Bewachern erschossen oder zunächst ergriffen und später ermordet. Fluchtversuche wurden häufig mit Verhungern im Bunker bestraft; oft wurden auch die Familienangehörigen von Flüchtigen verhaftet und in Auschwitz I zur Abschreckung ausgestellt. Eine andere Strafe bestand darin, Mitgefangene für die Flucht büßen zu lassen. Am 6. Juli 1940 gelang Tadeusz Wiejowski die erste Flucht in Begleitung von zwei Mitgliedern der polnischen Widerstandsbewegung, die als „zivile Arbeiter“ im Lager angestellt waren. Wiejowski überlebte den Krieg nicht. Am 20. Juni 1942 gelang den vier Polen Kazimierz Piechowski, Stanisław Gustaw Jaster, Józef Lempart und Eugeniusz Bendera die Flucht aus dem Lagerteil Auschwitz I. Sie brachten SS-Uniformen und Waffen an sich und fuhren mit einem gestohlenen Fahrzeug aus dem Gelände heraus. Einer der Flüchtlinge trug einen Bericht über Auschwitz bei sich, der für das Oberkommando der polnischen Heimatarmee geschrieben worden war. Am 7. Oktober 1944 führte das jüdische Sonderkommando (die Häftlinge, welche die Gaskammern und Krematorien bedienen mussten und als Sicherheitsrisiko von den anderen Häftlingen getrennt gefangen gehalten wurden) einen Aufstand durch. Davor gab es bereits zumindest einen gescheiterten ähnlichen Plan für den Termin 28. Juli um neun Uhr abends. Dieses Mal hatten weibliche Gefangene Sprengstoff von einer Waffenfabrik eingeschmuggelt, und das Krematorium IV wurde damit teilweise zerstört. Anschließend versuchten die Gefangenen eine Massenflucht, aber alle 250 Entflohenen wurden kurz darauf von der SS gefasst und ermordet. Kenntnisse der Alliierten. "Birkenau Extermination Camp", amerikanisches Luftbild aufgenommen im September 1944, zu Beginn der Bombardierung (Siehe oben links im Bild) der Buna-Werke Witold Pilecki, der vom 19. September 1940 bis zum 27. April 1943 als einziger Mensch freiwillig in die Gefangenschaft des Lagers ging, schickte mehrere Berichte an die westlichen Alliierten. Die ZOW lieferte zunächst dem polnischen Untergrund Informationen über das Lager und die Verbrechen der SS dort. Ab Oktober 1940 schickte die ZOW Berichte nach Warschau, und ab März 1941 wurden Pileckis Berichte von der polnischen Widerstandsbewegung, die den westlichen Alliierten als wichtigste Informationsquelle über Auschwitz diente, an die britische Regierung geschickt. Am 10. und 12. Oktober 1943 wurde ein von polnischen Quellen angefertigter Bericht vom amerikanischen Office of Strategic Services (OSS) in London empfangen. Die polnischen Informanten baten darum, die Fakten des Berichtes öffentlich zugänglich zu machen. In dem Bericht sind zahlreiche Details zu Deportationen, Selektion der Opfer, der Zahl der in Gaskammern Ermordeten, der Kapazität der Krematorien sowie Häftlingszahlen enthalten. Von den ins Lager deportierten rund 468.000 Juden seien noch zwei Prozent am Leben. Von 14.000 „Zigeunern“ seien 90 % vergast worden. Der Bericht enthält auch die Namen zahlreicher Täter wie Rudolf Höß, Heinrich Schwarz, Hans Aumeier, Maria Mandl, Maximilian Grabner, Wilhelm Boger. Das OSS entschied, den Bericht wegen seiner nicht prüfbaren Quellen als geheim einzustufen und nicht weiterzureichen. Die Alliierten hatten seit dem 31. Mai 1944, nachdem britische Flugzeuge von Apulien (Unteritalien) aus nach Südpolen fliegen konnten, Luftaufnahmen von Auschwitz. 2003 veröffentlichte die Royal Air Force erstmals Bilder von Aufklärungsflügen über Auschwitz, auf denen starker Rauch von den Verbrennungsgruben nördlich von Krematorium V zu sehen ist. 1944 machte ein Mitglied des Sonderkommandos geheime Aufnahmen dieser Verbrennungsgruben. Im April 1944 flüchteten Rudolf Vrba und Alfréd Wetzler aus Auschwitz und schlugen sich in die Slowakei durch. Hier gaben sie einen Bericht von 30 Seiten über Auschwitz ab, der neben einem Lageplan, Tagesablauf u. a. eine detaillierte Schilderung der Abläufe beim Massenmord mit der Gaskammer enthielt. Es wurde auch auf wichtige Eisenbahnknotenpunkte für die Deportationen hingewiesen. Dieser Bericht erreichte im Mai 1944 Budapester Juden. Ein zweites Exemplar ging an Roswell McClelland, den Schweizer Repräsentanten des U.S. War Refugee Board, der feststellte, dass dieser Bericht sich mit früheren Berichten deckte. Der englische und der amerikanische Gesandte in der Schweiz informierten im Frühsommer 1944 in einer detaillierten Darstellung ihre Regierungen über die beginnende Vernichtung der ungarischen Juden. Empfohlen wurde ein Luftschlag gegen den Bestimmungsort und die Bahnlinien sowie alle ungarischen und deutschen Dienststellen, die mit genau zutreffenden Straßen- und Häuserangaben (z. B. in Budapest) benannt wurden. Die Deutschen hatten von diesen Telegrammen Kenntnis, setzten die Deportationen aber dennoch fort. Die empfohlene Bombardierung wurde von amerikanischer und englischer Seite nicht durchgeführt. Am 13. September 1944 flogen amerikanische Bomber einen Angriff auf die Buna-Werke und richteten beträchtlichen Schaden an. Weitere Luftangriffe in der Region fanden am 20. August sowie am 18. und 26. Dezember statt. Ein gezielter Angriff auf die Gaskammern oder Transportwege wurde nie durchgeführt. Die Frage, ob die alliierten Luftstreitkräfte auch das Lager oder die Schienen dorthin hätten bombardieren sollen, wird bis heute kontrovers diskutiert. Abbruch des Lagers. Einige Krematorien und Gaskammern des KZ Birkenau wurden schon ab November 1944 abgerissen. Die Verbrennungsöfen wurden demontiert und sollten jüngsten Studien zufolge in dem noch als sicher geltenden KZ Mauthausen wieder aufgebaut werden. Das letzte Krematorium sprengten die Nationalsozialisten kurz vor der Befreiung des Lagers durch die anrückenden sowjetischen Truppen im Januar 1945. Todesmärsche und Befreiung. Zwischen dem 17. Januar 1945 und dem 23. Januar wurden etwa 60.000 Häftlinge evakuiert und in Todesmärschen nach Westen getrieben. In den Lagern und Außenstellen blieben etwa 7500 Häftlinge zurück, die zu schwach oder zu krank zum Marschieren waren. Mehr als 300 wurden erschossen; man nimmt an, dass eine geplante Vernichtungsaktion nur durch das rasche Vorrücken der Roten Armee verhindert wurde. Zuerst wurde das Hauptlager Monowitz am Vormittag des 27. Januar 1945 durch die sowjetischen Truppen (322. Infanteriedivision der 60. Armee der 1. Ukrainischen Front unter dem Oberbefehl von Generaloberst Pawel Alexejewitsch Kurotschkin) befreit. Von den dort zurückgelassenen Gefangenen – die Angaben reichen von 600 bis 850 Personen – starben trotz medizinischer Hilfe 200 in den Folgetagen an Entkräftung. Das Stammlager und Auschwitz-Birkenau wurden – auch durch die Soldaten der 322. Division – schließlich am frühen Nachmittag des 27. Januar befreit. In Birkenau waren fast 5.800 entkräftete und kranke Häftlinge, darunter fast 4.000 Frauen, unversorgt zurückgeblieben. In den desinfizierten Baracken wurden Feldlazarette eingerichtet, in denen die an Unterernährung und Infektionen leidenden und traumatisierten Häftlinge versorgt wurden. Einige Tage später wurde die Weltöffentlichkeit über die Gräueltaten informiert. Die Ermittler fanden über eine Million Kleider, ca. 45.000 Paar Schuhe und sieben Tonnen Menschenhaar, die von den KZ-Wächtern zurückgelassen wurden. Anzahl der Todesopfer. In den Jahren 1940 bis 1945 wurden in die Konzentrationslager Auschwitz mindestens 1,1 Millionen Juden, 140.000 Polen, 20.000 Sinti und Roma sowie mehr als 10.000 sowjetische Kriegsgefangene deportiert. Knapp über 400.000 Häftlinge wurden registriert. Von den registrierten Häftlingen sind mehr als die Hälfte aufgrund der Arbeitsbedingungen, Hunger, Krankheiten, medizinischen Versuchen und Exekutionen gestorben. Die nicht registrierten 900.000 nach Birkenau Deportierten wurden kurz nach der Ankunft ermordet. Als Obergrenze der Todesopfer im Konzentrationslager- und Vernichtungslagerkomplex Auschwitz wird die Zahl von 1,5 Millionen Opfern angegeben. Bekannte Gefangene und Todesopfer. → Hauptartikel: Häftlinge im Konzentrationslager Auschwitz Der separate Artikel geht u. a. auf die Gruppe der ersten Auschwitz-Häftlinge, Funktionshäftlinge, Angehörige der Sonderkommandos ebenso ein wie auf Berufsgruppen wie Politiker oder Sportler. Bei Wikipedia existiert auch eine Artikel-Kategorie (Listung): Häftlinge im KZ Auschwitz. Täter. → Hauptartikel: Personal im KZ Auschwitz Die Größe des Komplexes wird auch durch die hohe Anzahl an Bewachern deutlich. So gehörten im Sommer 1944 ca. 4.500 Mann zur SS-Garnison Auschwitz. Wie alle nationalsozialistischen Konzentrationslager unterstanden auch die Lager in Auschwitz Heinrich Himmler und der SS-Inspektion der KL, wobei die europaweite Koordination des Massenmordes vor allem bei Adolf Eichmann lag. Die Verwaltung am Ort wurde vom Lagerkommandanten des KZ Auschwitz I (Stammlager) gesteuert. Eine etwas größere Selbständigkeit mit eigenen Lagerkommandanten hatte das KZ Auschwitz-Birkenau nur zwischen November 1943 und Ende 1944. Nur 800 der etwa insgesamt 8.000 in Auschwitz als Wachpersonal etc. eingesetzten SS-Angehörigen wurden vor Gerichten angeklagt, 40 davon vor deutschen Gerichten. Eine rechtliche Aufarbeitung erfolgte zunächst in den 13 Nürnberger Prozessen vor dem Internationalen bzw. US-Militärgerichtshof von November 1945 bis 1948 sowie dem polnischen Krakauer Auschwitzprozess von 1947. Eine juristische Aufarbeitung fand in Deutschland erst in den 1960er Jahren statt. Es kam zu sechs Frankfurter Auschwitzprozessen zwischen 1963/1965 mit dem 1. und 1965/1966 dem 2. Auschwitzprozess sowie weiteren 4 Nachfolgeprozesse in den 1970er-Jahren. Adolf Eichmann, Irma Grese, Friedrich Hartjenstein, Franz Hößler, Josef Kramer, Otto Moll, Heinrich Schwarz, Johann Schwarzhuber und viele weitere wurden an anderen Orten verurteilt. In Österreich kam es zu einer Vielzahl von Verfahren. Einrichtung des Museums, Gedenken. Blumen zum Gedenken auf den Bahngleisen der Entladerampe im KZ Auschwitz-Birkenau, März 2007 Nach dem Krieg wurden die Buna-Werke vom polnischen Staat übernommen und bildeten den Beginn der Chemieindustrie in der Region. Die Gebäude der Konzentrationslager verfielen langsam. 1947 entschied das polnische Parlament, die Auschwitz-Konzentrationslager in eine Gedenkstätte mit Museum umzuwandeln. Das KZ Auschwitz gehört seit 1979 zur UNESCO-Liste des Welterbes und führte dort zunächst den Namen "„Konzentrationslager Auschwitz“". Um eine Identifikation des Lagers mit seiner Lage in Polen auszuschließen, beschloss das Welterbekomitee 2007, die offizielle Bezeichnung in "Auschwitz-Birkenau – deutsches nationalsozialistisches Konzentrations- und Vernichtungslager (1940–1945)" abzuändern. Gleichzeitig wurde ein Text zur besonderen Bedeutung des Lagers verabschiedet. Das Internationale Auschwitzkomitee wurde 1952 von Überlebenden des Konzentrations- und Vernichtungslagers gegründet. Es dient einerseits als Interessenvertretung seiner Mitglieder, dann aber auch zur Koordinierung der Tätigkeiten nationaler Auschwitz-Komitees (z. B. Frankreich, Polen, DDR), bzw. Häftlingsvereinigungen und es fördert das Gedenken an die Deportationen und die Shoah/den Holocaust. Seit 1988 findet einmal jährlich der Marsch der Lebenden zur Erinnerung an den Holocaust statt. Am 1. September 1992 hat der erste österreichische Gedenkdiener seinen Dienst im Staatlichen Museum Auschwitz-Birkenau und dem Auschwitz Jewish Center angetreten. An die Personengruppe der Jugendlichen, besonders aus Polen und Deutschland, wendet sich das didaktische Angebot der Auschwitz, denn laut einer Umfrage vom Januar 2012 können ein Fünftel der 19- bis 29-jährigen Deutschen den Begriff „Auschwitz“ nicht zuordnen. Der 27. Januar, der Tag der Befreiung des KZ Auschwitz, ist seit 1996 in Deutschland offizieller Gedenktag für die Opfer des Nationalsozialismus. Der Gedenktag wird außer in Deutschland unter anderem auch in Israel, Großbritannien und Italien offiziell als staatlicher Gedenktag begangen. 60. Jahrestag 2005. Die größte europäische Shoa-Gedenkstätte in Paris wurde zum Gedenktag 2005 eingeweiht. Der französische Präsident Chirac betonte, es müsse mit der ganzen Härte des Gesetzes gegen die Leugnung des Holocaust vorgegangen werden. Am sechzigsten Jahrestag der Befreiung wurde in zahlreichen Veranstaltungen der Opfer der industriellen Massenvernichtung gedacht. 70. Jahrestag 2015. Die zentrale Kundgebung anlässlich des Jahrestages 70 Jahre Befreiung des KZ Auschwitz fand im KZ selbst in Anwesenheit von 300 Überlebenden statt. Obwohl Staats- und Regierungschefs, sowie Regierungsmitgliedern aus vierzig Ländern anwesend waren, wurden die drei zentralen Reden von ehemaligen Auschwitz-Häftlingen gehalten. Als einziger Politiker sprach der polnische Staatspräsident Bronislaw Komorowski ein kurzes Grußwort. Eine eigens erstellte Weltkarte zeigt die zahlreichen Gedenkfeiern weltweit. Gedenkveranstaltungen wurden auf allen Kontinenten abgehalten. Bilder aus dem Lager vor der Befreiung. "Auschwitz-Album" werden zwei Fotoalben genannt, die Fotografien aus dem Konzentrationslager Auschwitz, also aus der Zeit vor seiner Befreiung am 27. Januar 1945, zeigen. Die Aufnahmen darin sind von SS-Angehörigen gemacht und gesammelt worden. Die Fotoalben sind auf verschiedenen Wegen überliefert worden. Ein erstes "Auschwitz-Album" wurde 1945 von Lilly Jacob während ihrer Haft im Konzentrationslager Dora-Mittelbau entdeckt und 1980 der Jerusalemer Holocaust-Gedenkstätte Yad Vashem übergeben. Es zeigt die Abläufe im Inneren des Vernichtungslagers Ende Mai oder Anfang Juni 1944 (Ungarn-Aktion). Ein zweites "Auschwitz-Album" erwarb im Dezember 2006 das United States Holocaust Memorial Museum von einem anonym gebliebenen ehemaligen Oberst der US-Army, der es 1946 gefunden hatte, mit 116 Aufnahmen, die der SS-Obersturmführer Höcker als führender Offizier der Wachmannschaft gemacht hatte. Der Großteil des Fotoalbums zeigt Angehörige des Lagerpersonals bei Schießübungen und bei Freizeitaktivitäten. Rezeption. Der Komponist Günter Kochan komponierte 1965 die Kantate "Die Asche von Birkenau" für Alt-Solo und Orchester (Text: Stephan Hermlin), die 1966 von Annelies Burmeister und dem Berliner Sinfonie-Orchester unter Kurt Masur uraufgeführt wurde. Quellen, Zitatnachweise. Kz Auschwitz-Birkenau Kz Auschwitz-Birkenau Kz Auschwitz-Birkenau Kevin Smith. Kevin Smith auf der Comic-Con International 2013 Kevin Patrick Smith (* 2. August 1970 in Red Bank, New Jersey) ist ein US-amerikanischer Regisseur, Produzent, Drehbuchautor, Schauspieler und Comicautor. Leben und Wirken. Als Schauspieler tritt er in seinen eigenen Filmen meist in der Rolle der Kunstfigur "Silent Bob" auf. Außerdem spielte er in "Stirb Langsam 4.0" die Rolle des Warlock. Als Comicautor schrieb er unter anderem an Serien von Green Arrow (DC) und Daredevil (Marvel) mit. Bekannt ist er auch für seine Reihe der New-Jersey-Filme. Er besetzt die Rollen in seinen Filmen häufig mit den Schauspielern Ben Affleck, Jason Lee, Jason Mewes und Walter Flanagan. Seit "Mae Day" (1992) arbeitet er mit dem Produzenten und Freund Scott Mosier zusammen, mit dem er auch die Produktionsfirma View Askew Productions gegründet hat. Darüber hinaus ist er Inhaber von "Jay and Silent Bob’s Secret Stash", einem Comic- und Fanartikel-Shop in Red Bank, in dem auch einige Szenen für "Jay und Silent Bob schlagen zurück" gedreht wurden. Die meisten seiner Filme spielen in seinem Heimatstaat New Jersey. Kevin Smith ist seit 1999 mit Jennifer Schwalbach Smith verheiratet. Die beiden haben eine gemeinsame Tochter namens Harley Quinn, benannt nach dem gleichnamigen Batman-Charakter. Berlin-Kreuzberg. Kreuzberg ist ein Ortsteil im Bezirk Friedrichshain-Kreuzberg von Berlin. Bis zur Fusion mit dem benachbarten damaligen Bezirk Friedrichshain im Zuge der Verwaltungsreform 2001 gab es einen eigenständigen "Bezirk Kreuzberg", der mit dem heutigen Ortsteil Kreuzberg deckungsgleich ist. Der Ortsteil gehört zu den Szenevierteln Berlins und ist deshalb von Gentrifizierung betroffen. Zudem wartet Kreuzberg mit einem lebendigen Kulturleben auf. Nach den – bis 1993 gültigen – Postleitzahlen unterscheidet man in Kreuzberg zwei Ortslagen, benannt nach den Nummern der damaligen Zustellpostämter: Das größere "Kreuzberg 61" (ehemals: "Südwest 61") und das kleinere "SO 36 (SO = Südost)". Zu Zeiten der Berliner Mauer war SO 36 von drei Seiten umschlossen und entwickelte eine alternative Eigenkultur am Ostrand West-Berlins. Umfeld. Kreuzberg gehört neben Neukölln, Friedrichshain, Gesundbrunnen und Prenzlauer Berg zu den sehr dicht besiedelten Ortsteilen Berlins. Dies erklärt sich aus dem seit der Gründerzeit verfolgten Bauprinzip größtmöglicher Grundstücksausnutzung mit einem Vorderhaus, Seitenflügeln und sich anschließenden – bis zu vier – Hinterhäusern. Auch heute wohnen in diesen „Mietskasernen“ bis zu 150 Mietparteien in Häusern, die eine Traufhöhe von 22 Metern haben. Durch häufigen Mieterwechsel ist inzwischen das Kuriosum entstanden, dass für die langfristig belegten Vorderhauswohnungen teilweise weniger Miete als für Hinterhauswohnungen gezahlt wird. Geschichte. a> lag bis in die Mitte des 19. Jahrhunderts noch außerhalb der StadtgrenzeGemälde von Johann Heinrich Hintze, 1829 Im Mittelalter lag das Gebiet des heutigen Ortsteils Kreuzberg außerhalb der Stadtmauern der Doppelstadt Berlin-Cölln. Als im 18. Jahrhundert das Stadtgebiet Berlins vergrößert und die Zoll- und Akzisemauer zur neuen Stadtgrenze wurde, entstand hinter dem Halleschen Tor ein neues Stadtviertel (heute im nördlichen Teil Kreuzbergs gelegen). 19. Jahrhundert. Im Verlauf des 19. Jahrhunderts wuchs Berlin weiter an und es kamen in diesem Bereich die Tempelhofer Vorstadt (Eingemeindung 1861) und die Luisenstadt (Eingemeindung 1841) hinzu. Wichtige Straßen und Plätze in den neuen Stadtvierteln wurden als Teil des sogenannten Generalszugs preußischen Militärs und gewonnenen Schlachten aus der Zeit der Befreiungskriege (1813–1815) gegen Napoleon gewidmet. Namensgeber waren unter anderem die Offiziere Gebhard Leberecht von Blücher (Blücherstraße und Blücherplatz), Ludwig Yorck von Wartenburg (Yorckstraße) und August Neidhardt von Gneisenau (Gneisenaustraße) sowie die Schlachten bei Waterloo (Waterloo-Ufer und "Belle-Alliance-Straße", 1947 umbenannt in Mehringdamm) und Möckern (Möckernstraße und Möckernbrücke). Ein thematischer und städtebaulicher Bezugspunkt war hierbei das 1821 eingeweihte Nationaldenkmal auf dem Kreuzberg, das damals allerdings noch seiner ursprünglichen Konzeption nach auf dem freien Feld vor der Stadt am Rande der Hochebene des Teltows lag. Auf der – damals noch "Tempelhofer Berg" genannten – 66 Meter hohen Erhebung hatte man nach Entwürfen von Karl Friedrich Schinkel ein Denkmal in Grundform des Eisernen Kreuzes errichtet, um an die Befreiungskriege zu erinnern. Bildung des Bezirks. Der Bezirk Kreuzberg wurde 1920 aus der Tempelhofer Vorstadt, der Oberen Friedrichsvorstadt, der südlichen Friedrichstadt und einem großen Teil der Luisenstadt gebildet. Benannt wurde der ehemalige Bezirk und heutige Ortsteil nach dem im Südwesten gelegenen Kreuzberg im heutigen Viktoriapark. Nach der Gründung Groß-Berlins im Jahr 1920 hieß der Bezirk zunächst "Hallesches Tor." Zweiter Weltkrieg. Bei dem Luftangriff vom 3. Februar 1945 der USAAF wurde das Gebiet der südlichen Friedrichstadt zwischen dem heutigen Halleschen Tor im Süden, der Prinzenstraße im Osten und der Kochstraße im Norden fast völlig zerstört. Mit der Überquerung der Oder am 16. April 1945 begann am Ende des Zweiten Weltkriegs der Großangriff der Roten Armee auf Berlin. Nach harten Kämpfen im Vorfeld Berlins drangen die Armeen des Marschalls Schukow am 21. April zuerst in den Osten der Stadt ein. Friedrichshain und Kreuzberg lagen während der Schlacht um Berlin im Bereich der 5. sowjetischen Stoßarmee des Generals Bersarin. a> mit den Resten der früher 56 Meter hohen Türme Kurz vor den anrückenden sowjetischen Truppen wurde am 23. April der mittlere Gewölbebogen der Oberbaumbrücke gesprengt, um dort den Übergang zu verhindern. Die Überquerung der Spree gelang der Roten Armee am 24. April von Oberschöneweide nach Treptow. Am 25. April hatte das 9. Korps der 5. Stoßarmee den Landwehrkanal von Treptow aus überquert und wurde dann in heftige Kämpfe im Gebiet um den Görlitzer Bahnhof verwickelt, der das Zentrum ihrer Front beherrschte. Von Südosten her, aus Neukölln, gelangte ein weiterer Stoßkeil zum Hermannplatz. Am 25. April, abends, sprengte die SS das Kaufhaus Karstadt. Die 8. Gardearmee rückte über die Hasenheide zum Mehringplatz und zum Flughafen Tempelhof weiter. Nach längeren Kämpfen am Görlitzer Bahnhof gelangten die Einheiten der weiter nördlich operierenden 5. Stoßarmee am 27. April entlang der Oranienstraße zum Moritzplatz und entlang der Köpenicker Straße in den Bereich Stadtmitte. Nach harten Kämpfen in Tempelhof zweigte der linke Flügel der 8. Gardearmee Schukows unter dem General Tschuikows nach Schöneberg ab, in der Mitte wurde der Viktoriapark besetzt und von dort aus der Anhalter Bahnhof auf Sicht beschossen. Der rechte Flügel der Armee näherte sich dem Landwehrkanal. Da die Brücken über den Kanal am 26. April abends von einem Wehrmachtskommando gesprengt wurden, verharrten die Angreifer vor dem Kanal, zogen Artillerie nach und bereiteten sich am 27. April auf die Überquerung der Wasserbarriere vor. Im Laufe des 28. April gelang der Angriff am Kanal über die Trümmer des Hochbahnhof Möckernbrücke. Das Gros der Verteidiger zog sich weiter ins Stadtinnere zurück. Da der Anhalter Bahnhof, der Hochbunker und die S-Bahnanlagen mit Tausenden von Schutzsuchenden überfüllt waren, kam es in der Isolation dort noch bis zum 1. Mai zu unerträglichen Zuständen und dramatischen Szenen. Am Halleschen Tor konnten die über den Kanal gehenden Truppen auch Panzer zum Belle-Alliance-Platz nachziehen. Der Anhalter Bahnhof war jedoch nicht mehr Brennpunkt der Kämpfe – das nächste Zentrum der Verteidigung war das RLM-Gebäude (Reichsluftfahrtministerium, heute: Detlev-Rohwedder-Haus) Wilhelmstraße 97 / Leipziger Straße 5–7. Am Abend des 29. April war Kreuzberg vollständig in russischer Hand. Nachkriegszeit. Den Zweiten Weltkrieg haben nur die Tempelhofer Vorstadt und die Luisenstadt weitgehend unbeschädigt überstanden. Im Juli 1945 wurde der größte Teil des damaligen Bezirks dem amerikanischen Sektor zugeteilt. Der wichtigste Übergang nach Ost-Berlin war nach dem Mauerbau der Checkpoint Charlie. Im Jahr 1968 war die heutige Rudi-Dutschke-Straße (Teil der damaligen Kochstraße) einer der Hauptschauplätze der sogenannten „Osterunruhen“, als aufgebrachte Studenten nach dem Attentat auf Rudi Dutschke versuchten, die Auslieferung der Zeitungen des Axel-Springer-Verlags zu verhindern. Seine überregionale Bekanntheit verdankt Kreuzberg vor allem der bewegten Geschichte des kleineren östlichen Bereichs (und Postbezirks) SO 36, später "Berlin 36," der – von drei Seiten umschlossen von der Berliner Mauer – in den 1970er und 1980er Jahren als Zentrum der Alternativbewegung und der Hausbesetzerszene legendär wurde. SO 36 erstreckt sich zwischen Spree, nördlich der Lohmühleninsel und des Landwehrkanals sowie östlich des heute zugeschütteten Luisenstädtischen Kanals. Heutzutage gilt diese Gegend als einer der einkommensschwächsten Teile Berlins. Den größeren Teil Kreuzbergs bilden die nordwestlich gelegene, stark kriegszerstörte südliche Friedrichstadt (das damalige „Zeitungsviertel“) und die ganze südliche Hälfte (Kreuzberg 61). Fast ein Drittel der rund 160.000 Einwohner sind Migranten, viele türkische Gastarbeiter und deren Nachkommen. Auch für diese demografische Besonderheit ist Kreuzberg weit über die Grenzen Berlins hinaus bekannt. Die türkischstämmige Bevölkerung konzentriert sich vor allem auf den östlichen Bereich SO 36 und hierbei den Wrangelkiez. In den letzten Jahren verändert sich die Bevölkerungsstruktur durch Gentrifizierungseffekte sehr stark. Ab 1987 geriet Kreuzberg (SO 36) regelmäßig durch teils schwere Straßenschlachten zum 1. Mai in die Schlagzeilen. Ausgangspunkt der Krawalle war meist der Zusammenstoß von Teilnehmern der Mai-Kundgebungen und der Polizei. Heute hat sich die Gewalt mehr und mehr ritualisiert und ist von großer Medienpräsenz begleitet. Die ursprünglich politische Motivation ist in den Hintergrund getreten, es betätigen sich nun überwiegend Jugendliche auf der Suche nach einem Abenteuer. 1987 vom Lausitzer Platz ausgehend konzentrierten sich die damaligen Krawalle um das Kottbusser Tor und den Oranienplatz. An der Skalitzer Straße ging in jenem Jahr eine Filiale des Lebensmittelmarktes "Bolle" in Flammen auf, wurde bis auf die Grundmauern zerstört, und nicht wieder aufgebaut. Auf dem Gelände wurde 2004 ein islamisches Gemeindezentrum (Maschari-Center) mit Moschee errichtet. Seit dem Jahr 2005 ist ein Rückgang der Gewalt zu beobachten, der allerdings mit einer Verlagerung auf andere deutsche Großstädte in Zusammenhang steht. Kreuzberg führte zu Zeiten der Berliner Mauer durch seine Randlage ein wirtschaftliches Nischendasein. Mit der deutschen Wiedervereinigung ist es ins Zentrum Berlins gerückt: 1997 wurde der Flächenschwerpunkt von Berlin an der Alexandrinenstraße 12–14 Ecke Verbindungsweg zur Wassertorstraße () mit einer Granitplatte markiert, auf der die Koordinaten wiedergegeben sind. Durch die veränderten Lebensbedingungen hat Kreuzberg als Unternehmensstandort an Attraktivität gewonnen. Zahlreiche Unternehmen und Organisationen ziehen zum Spreeufer an der Oberbaumbrücke. Seit 1998 erscheint monatlich das Magazin "Kreuzberger Chronik." Am 1. Januar 2001 wurden die damaligen Bezirke Kreuzberg und Friedrichshain zum neuen Bezirk Friedrichshain-Kreuzberg vereinigt. Sportvereine. Im Ortsteil Kreuzberg sind – trotz seiner geringen Größe – im Bereich Fußball die meisten Vereine der Stadt Berlin angesiedelt, obwohl der Ortsteil mit nur einem Rasensportplatz, dem Willy-Kressmann-Stadion, relativ schwach ausgestattet ist. Alteingesessene Kreuzberger Fußballvereine sind "SC Berliner Amateure, FSV Hansa 07, BFC Südring" und Südring 1931. Der erfolgreichste und wohl bekannteste Kreuzberger Fußballverein ist "Türkiyemspor Berlin." Kreuzbergs multikulturelle Bevölkerungsstruktur spiegelt sich auch in dem breiten Spektrum vieler weiterer Vereine wider, von denen einige schon seit den 1960er Jahren bestehen. Mit dem "THC Franziskaner FC e.V." haben auch erklärte Kreuzberger Linke ihren Verein und im Sportverein "Seitenwechsel e. V." treffen sich Frauen, insbesondere Lesben. Der "SC Kreuzberg" stellte mehrmals den Deutschen Meister im Schach. Siehe auch. a>, Lieselotte Moses, Falckensteinstraße 49, Berlin-Kreuzberg Einzelnachweise. Kreuzberg Kapital. Kapital ist ein Begriff, der in den Wirtschaftswissenschaften, der Soziologie und in der Umgangssprache unterschiedliche Bedeutungen besitzt. Etymologie. Etymologisch leitet sich das Wort von lat. "„capitalis“" („den Kopf“ oder „das Leben betreffend“) ab, dieses selbst geht auf "„caput“" − „Kopf“ zurück. Ab dem 16. Jahrhundert findet sich das italienische Lehnwort "„capitale“" − „Vermögen“ im Sinne der "Kopf"zahl eines Viehbestandes, als Gegensatz zu den frisch geworfenen Tieren als „Zinsen“. Nach anderen Quellen machte schon im Lateinischen "„caput“" und "„capitalis“" einen Bedeutungswandel durch, der im deutschen durch „Haupt-“ nachvollzogen wird. "„Summa capitalis“" war die Hauptsumme in Wirtschaftsrechnungen, woraus „Kapital“ entstanden sei. Kapital in der Volkswirtschaftslehre. Unter Kapital im volkswirtschaftlichen Sinne kann man alle bei der Erzeugung beteiligten Produktionsmittel verstehen, d. h. der Bestand an Produktionsausrüstung, der zur Güter- und Dienstleistungsproduktion eingesetzt werden kann. Diesen Bestand nennt man auch Kapitalstock und enthält Güter wie Werkzeuge, Maschinen, Anlagen u. s. w., also Güter, die in einem früheren Produktionsprozess erzeugt wurden. Das Kapital in diesem Sinne ist der dritte Produktionsfaktor neben Arbeit und Boden. Aber der Begriff wird nicht nur für die unmittelbar konsumierten Güter (Realkapital) benutzt, sondern auch für Geld, da Geld Verfügungsmacht über dieses Realkapital verschafft. Das Geld bzw. Geldkapital umfasst also finanzielle Mittel, die zur Erneuerung und Erweiterung des Kapitalstocks zur Verfügung stehen. Es spielt dabei keine Rolle, aus welchen Quellen wie Sparen, Unternehmensgewinn oder etwa Kredite Kapital zur Verfügung gestellt wird, denn kurzfristig ist für die Bildung von Realkapital nur Finanzierung, nicht aber vorausgehendes Sparen notwendig (Nettoinvestitionen). Im Gleichgewicht müssen allerdings geplante Realkapitalbildung und Sparen übereinstimmen. Neben dem Real- und Geldkapital ist noch das auf Ausbildung und Erziehung beruhende Leistungspotenzial der Arbeitskräfte bzw. das Humankapital zu nennen. Dieser Begriff erklärt sich aus den zur Ausbildung dieser Fähigkeiten hohen finanziellen Aufwendungen und der damit geschaffenen Ertragskraft. Es wird davon ausgegangen, dass Humankapital bewusst durch Einsatz von Ressourcen wie Lernen und Trainieren produziert wird, aber auch „Learning by Doing“ unterstellt wird. In diesem Fall entsteht das Humankapital also als Nebenprodukt im Produktionsprozess. Die Bildung von Kapital erhöht die Produktivität der übrigen Produktionsfaktoren und führt damit zu höheren Erträgen, die wiederum zur weiteren Kapitalbildung beitragen, aber auch die Voraussetzung einer besseren Entlohnung des Produktionsfaktors Arbeit sind. Das Kapital besitzt – wie andere Wirtschaftsgüter – die Eigenschaft der Knappheit. Aus der Eigenschaft der Knappheit entsteht der Kapitalzins. Der Kapitalzins ist die Nutzungsgebühr des Kapitals. Die Knappheit des Kapitals kann natürlichen Ursprungs oder künstlich erzeugt worden sein. Das Kapital wird nur gegen eine Nutzungsgebühr, den Kapitalzins, eingesetzt. Da Kapital betriebswirtschaftlich ("siehe unten ") Vermögen ist, kann es am Markt auf der Angebotsseite in wenigen Händen oder in einer einzigen Hand konzentriert sein („Kapitalkonzentration“), tritt dann also als Oligopol oder sogar Monopol auf. Diese günstige Position kann als ein zusätzliches „Kapital“ aufgefasst werden. Kapital in der Volkswirtschaftlichen Gesamtrechnung (VGR). In der VGR wird in der Regel vom Vermögen, weniger von Kapital gesprochen (z. B. Reinvermögen, Anlagevermögen, aber auch Kapitalstock, Brutto- und Nettogeldvermögen). Sucht man gesamtwirtschaftliche Daten über „Kapital“, muss man also in der VGR nach Daten über „Vermögen“ suchen. Kapital in der Betriebswirtschaftslehre. Kapital wurde bereits als zentraler Bestandsbegriff definiert. In der Betriebswirtschaftslehre gibt es einen weiteren klassischen und einen engeren modernen Kapitalbegriff. Beide Begriffsfassungen haben ihre eigene Berechtigung, allerdings sind die praktischen Konsequenzen der Begriffsunterschiede gering. Klassischer betriebswirtschaftlicher Kapitalbegriff. Die in ihren ersten Anfängen aus der Buchhaltungslehre hervorgegangene Betriebswirtschaftslehre orientiert sich stark an Bilanzen. Einer der Erzväter der deutschen Betriebswirtschaftslehre, Eugen Schmalenbach, sieht im Kapital die abstrakte Wertsumme der Bilanz als klassischen betriebswirtschaftlichen Kapitalbegriff. Der Grundaufbau einer Bilanz lässt sich in Kontoform darstellen. Da die Bilanzsumme auf Aktiv- und Passivseite gleich ist (Vermögen = Kapital), sind so verstanden die Positionen auf beiden Seiten Kapital nach unterschiedlichen Einteilungen. Auf der Aktivseite findet man als Bestand bezogenes Äquivalent des betrieblichen Kapitals das Vermögen, welches anzeigt, in welchen konkreten Formen das Kapital in der Unternehmung Verwendung gefunden hat (Mittelverwendung). Das Vermögen ist die Gesamtheit aller im Unternehmen eingesetzten Wirtschaftsgüter und Geldmittel, die in Anlage- und Umlaufvermögen unterschieden werden. Das Anlagevermögen umfasst die Güter, die dem Unternehmen auf längere Dauer zu dienen bestimmt sind und das Umlaufvermögen bilden die Wirtschaftsgüter, die für gewöhnlich innerhalb eines kurzen Zeitraums in die Produktion eingehen oder umgesetzt werden (Vorräte, Forderungen, Wertpapiere, Zahlungsmittel). Merkmale von Eigen- und Fremdkapital Auf der Passivseite findet man das Kapital als Summe aller von den Kapitalgebern zur Verfügung gestellten finanziellen Mittel, d. h. sie zeigt an, woher die Mittel für die Vermögensgüter gekommen sind (Mittelherkunft). Üblicherweise wird es seiner Herkunft entsprechend in Eigenkapital (Beteiligungskapital) und Fremdkapital (Gläubigerkapital) gegliedert. Die Unterscheidung resultiert aus der rechtlich unterschiedlich geregelten Stellung der Eigen- und Fremdkapitalgeber. Eigenkapital umfasst jene Mittel, die von den Eigentümern einer Unternehmung zu deren Finanzierung aufgebracht oder als wirtschaftlicher Gewinn im Unternehmen belassen werden (Selbstfinanzierung). Das Fremdkapital hingegen ist die Bezeichnung für die ausgewiesenen Schulden der Unternehmung (Verbindlichkeiten und Rückstellungen mit Verbindlichkeitscharakter) gegenüber Dritten, die entweder rechtlich entstehen oder wirtschaftlich verursacht sind. Zieht man vom Gesamtkapital bzw. Vermögen die Schulden (= Fremdkapital) ab, so erhält man das Eigenkapital oder auch Reinvermögen. Der Umstand, dass Vermögen und Kapital in verschiedenen Sichtweisen den gleichen Tatbestand darstellen, kommt auch im Sprachgebrauch zum Ausdruck, indem von gebundenem Kapital bzw. Vermögen oder auch betriebsnotwendigem Kapital bzw. Vermögen u. s. w. gesprochen wird. Monetärer betriebswirtschaftlicher Kapitalbegriff. Innerhalb der Betriebswirtschaft wird das Kapital normalerweise in Form von Geldmitteln in ein bestehendes oder neu zu gründendes Unternehmen eingebracht, jedoch kann man auf das Medium Geld verzichten und das Kapital im klassischen Sinne in Form von Forderungen oder in Form eines sonstigen Vermögensgegenstandes einbringen. In diesem Fall erfolgen – gedanklich aufgespaltet – die Zuführung von Kapital einerseits und die Bindung von Kapital in ein bestimmtes Vermögensgut andererseits in ein und demselben Vorgang. Modellhaft lässt sich dann Kapital einfach als Geldmittel betrachten, die im Unternehmen eingesetzt werden. Der monetäre Kapitalbegriff ist enger als der klassische, weil er sich auf eine bestimmte Vermögensart, die Geldmittel, bezieht und nicht auf das gesamte Vermögen. Er eignet sich speziell für die Erörterung von Liquiditätsfragen. Allgemeines. Nach Karl Marx ist Kapital ein Geldbetrag (G), der investiert wird, um eine höhere Summe (G’) zurückzuerhalten. Kapital wird nicht zum Konsum oder zur Schatzbildung verwendet, sondern investiert, um vergrößert zurückzukehren. Somit macht das Kapital einen Kreislauf durch, der sich aus einem Zirkulationsprozess und einem Produktionsprozess (jeweils im Marxschen Sinne) zusammensetzt. Die Kapitalvermehrung ist möglich durch den Kauf von Arbeitskraft. Im Produktionsprozess entsteht ein Wert, der umso größer ist, je länger die Arbeiter arbeiten. Dem Arbeiter wird nur ein Teil des so entstehenden Werts als Lohn erstattet. Was darüber hinaus an Wert entsteht, verbleibt beim Kapitalisten als Mehrwert (Arbeitswertlehre). G - W... P... W' - G' Geld G wird in Waren W investiert. Die Waren W werden im Produktionsprozess P als Produktionsmittel und menschliche Arbeitskraft verbraucht, um neue Waren W' zu schaffen. Die Punkte sollen bei Marx darstellen, dass hier der Zirkulationsprozess der Waren unterbrochen ist. Durch die Arbeitskraft wird dabei der Wert der Waren W erhalten und ein zusätzlicher Wert (Mehrwert) hinzugefügt. Damit ist der Wert der Waren W' höher als der Wert von W und die Waren W’ werden für das Äquivalent in Geld G’ verkauft. Formen des Kapitals. Für den Profit p gilt: p = G' - G formula_1 „Lohnarbeit schafft Kapital, d.h. es schafft Eigentum, welches die Lohnarbeit ausbeutet und nur unter dieser Bedingung vermehren kann, dass es neue Lohnarbeit erzeugt, um sie von neuem auszubeuten.“ Diese Zusammenhänge sind in Marx' Hauptwerk "Das Kapital" erläutert, seinem bekannten Hauptwerk zur politischen Ökonomie. Die Produktion ist im Kapitalismus gemeinschaftlich, wird aber privat angeeignet. Die Lohnarbeit ist die Grundlage von Kapital. Die Lohnarbeit schafft Mehrwert, dieser kann vom Kapitalisten für seinen individuellen Konsum oder als Investition zur Akkumulation des Kapitals verwendet werden. „Ein Teil des Mehrwerts wird vom Kapitalisten als Revenue verzehrt, ein anderer Teil als Kapital angewandt oder akkumuliert.“ (Das Kapital, Band I, 7. Absch. Akkumulationsprozeß des Kapitals) Obwohl das Kapital von den Menschen gemacht, das Produkt menschlicher Arbeit ist, scheint es doch gegenüber den Menschen durch den Reichtum und die Macht, die es seinen Besitzern verleiht, eigene Kräfte zu haben, ähnlich wie ein Fetisch gegenüber den Menschen, die an ihn glauben, besondere Kräfte aufweist. Marx spricht deshalb vom "Kapitalfetisch", neben dem Geld- und Warenfetisch. Handelskapital. Aus der Formel für den Kapitalkreislauf G - W... P... W' - G' ergibt sich, dass Geldkapital G durch Kauf der vom Kapitalisten benötigten Waren in die Form des Warenkapitals W übergehen muss, und dass umgekehrt Warenkapital W' verkauft werden muss, um wieder zu Geldkapital G' zu werden. die Produktionsperiode, welche die Arbeitszeit umfasst. Während der Arbeitszeit wird der Mehrwert zugesetzt. Dabei bildet G - W und W' - G' die Umlaufs- oder Zirkulationszeit, in welcher Ware W darauf wartet, in Geld G verwandelt zu werden und umgekehrt. Während dieses Wartens wird kein Wert zugesetzt. In der Zirkulationszeit findet Kauf und Verkauf der Waren, Kauf von Produktionsmitteln, Verkauf der Produkte, statt. Für den industriellen Kapitalisten wäre es vorteilhaft, wenn er sofort nach Ende des Produktionsprozesses verkaufen und mit dem so eingenommene Geld gleich wieder einen neuen Produktionsprozess beginnen könnte. Er erreicht dies, zumindest aus einzelwirtschaftlicher Sicht, wenn Kauf und Verkauf soweit möglich dem kaufmännischen oder Kaufmannskapital übertragen werden. Gesamtwirtschaftlich ergibt sich eine Kostenersparnis, wenn die kaufmännischen Kapitalisten als Spezialisten dieses Geschäft kostengünstiger durchführen können als wenn jeder industrielle Kapitalist sich selbst um Kauf und Verkauf der Waren kümmern müsste. Das Kaufmannskapital verfügt über Geld, um Waren von den industriellen Kapitalisten zu kaufen, und über Waren, die noch an Abnehmer verkauft werden müssen. Marx bezeichnet das in dieser Funktion gebundene Kapital (Warenkapital oder Geldkapital) als Die technische Abwicklung aller beim industriellen und beim kaufmännischen Kapital anfallenden Geldgeschäfte, Vorräte an Geld, Einkassieren, Bezahlen, Buchhaltung, Verwendung von Geldbeständen für Kauf und Bezahlung offener Rechnungen, das in diesen Zirkulationskosten gebundene Kapital ist das Zinstragendes Kapital. Industrielles und kaufmännische Kapital, was Marx im Gegensatz zum zinstragenden Kapital zum „fungierenden Kapital“ zusammenfasst, sind selbst Teil der Kapitalzirkulation, Teil des Reproduktionsprozesses des Kapitals. Das zinstragende Kapital dagegen unterscheidet sich von diesen Kapitalformen, da hier Kapital als Kapital zur Ware wird, die gekauft und verkauft wird. Der Preis dieser Ware ist der Zins. Der Gebrauchswert des zinstragenden Kapitals besteht im Profit, den es seinem Käufer verschaffen kann. (Kapital Band III, 5. Abschnitt21. Kapitel „Das zinstragende Kapital“ Der Zins ist Teil des im Produktionsprozess geschaffenen Mehrwerts.) Mit der allgemeinen Profitrate bildet sich auch ein herrschender Zinssatz heraus. Regelmäßige Einkünfte können zu diesem Zinssatz „kapitalisiert“ (vgl. Kapitalwert) werden. Es wird berechnet, welches Kapital zu diesem herrschenden Zinssatz denselben Einkommensstrom erzeugt. Diesem Kapital steht jedoch nicht unmittelbar „wirkliches Kapital“ gegenüber, bei Staatsanleihen z. B. oft nicht, bei Unternehmen gibt es zwar wirkliches Kapital, jedoch steht der Wert z. B. von Aktien oder Unternehmensanleihen nur in einem lockeren Verhältnis zum wirklichen Kapital der Unternehmen (deren Produktionsanlagen). Dieses Kapital wird von Marx als „fiktives Kapital“ bezeichnet, das neben dem wirklichen Kapital existiert. Marx erwähnt auch die Auffassung einiger zeitgenössischer Ökonomen, wonach auch der Arbeitslohn als Einkommensstrom kapitalisiert werden kann. Es lässt sich ein Kapitalwert errechnen, der zum herrschenden Zinssatz einen dem Lohn entsprechenden Einkommensstrom erzeugen würde. Marx kritisiert diese Betrachtungsweise, nach welcher die Arbeiter ebenfalls eine Art von Kapitalisten wären. Tendenzen des Kapitals. Wichtige Tendenzen des Kapitals sind bei Marx die Das Finanzkapital wurde 1920 von Rudolf Hilferding in Das Finanzkapital, 1910 erschienen, untersucht. Kapitalbegriffe in der Soziologie. Kapital ist aber nicht nur ein Begriff aus der Ökonomie. Im alltäglichen Sprachgebrauch meint man damit Geld- oder Sachvermögen, das meist für den Güterumlauf bestimmt ist. Doch in der mehrdimensionalen Kultursoziologie von Pierre Bourdieu gibt es für Kapital mehrere Erscheinungsformen. Er ist der Meinung, dass der Austausch von Waren nur eine bestimmte Art unter diversen möglichen Formen von sozialem Austausch sei. Als Kapital bezeichnet er allgemein die Ressourcen, die den Menschen für die Durchsetzung ihrer Ziele zur Verfügung stehen, also die Voraussetzungen, die sie mitbringen in den Kampf auf den sozialen Feldern um ihre Position im sozialen Raum. Er nennt daher folgende Formen von Kapital: ökonomisches Kapital, kulturelles Kapital, soziales Kapital und symbolisches Kapital. Ökonomisches Kapital ist nach Bourdieu materieller Reichtum, also z. B. der Besitz von Geld, Produktionsmitteln, Aktien und Eigentum welcher z. B. durch Eigentumsrechte institutionalisiert ist. Das, was man auch im herkömmlichen Sinn unter Kapital versteht also. Bourdieu ist der Meinung, dass ökonomischem Kapital in der heutigen Zeit zwar noch eine große Bedeutung zukommt, politische und gesellschaftliche Macht aber auch von anderen Einflüssen abhängig ist. Denn ökonomisches Kapital für sich allein kann keine Machtposition mehr garantieren, nur in Verbindung mit den beiden anderen Kapitalformen (soziales und kulturelles Kapital) kann damit wirkliche Macht ausgeübt werden. Das kulturelle Kapital ist Bourdieu dabei besonders wichtig. Für ihn ist es dasjenige Kapital, über welches ein Mensch aufgrund seiner schulischen und außerschulischen Bildung verfügt, daher versteht er unter diesem Begriff vor allem Bildungskapital. Das kulturelle Kapital ist durch Familientradition vererbbar, wird also innerhalb einer Familie an die Kinder weitergegeben. Damit ist auch ein bestimmter Habitus verbunden. Natürlich ist der „Besitz“ von kulturellem Kapital auch von ökonomischem Kapital abhängig, da beispielsweise Schulbildung irgendwie finanziert werden muss. Mit Inkorporation ist die Verinnerlichung des kulturellen Kapitals gemeint; Die Aneignung von kulturellem Kapital ist in diesem Fall also ein Prozess, bei dem Kultur in den Körper inskribiert wird. Somit sind dies kulturelle Fähigkeiten und Fertigkeiten, sowie Wissensformen, die körpergebunden sind, also Bildung. Der Faktor Zeit spielt dabei eine große Rolle, da die Inkorporation, die von jedem Einzelnen immer wieder neu zu vollziehen ist, Zeit bedarf. Da z. B. nicht jede Familie gleich viel investieren kann in die Bildung ihrer Kinder, fördert diese Kapitalform soziale Ungleichheiten. Laut Bourdieu sind mit objektiviertem Kulturkapital kulturelle Güter gemeint, wie z. B. Gemälde oder Bücher. Der Erwerb solcher kultureller Güter ist natürlich stark an das ökonomische Kapital gebunden. Denn zum Kauf beispielsweise eines Gemäldes wird ökonomisches Kapital benötigt; das bewirkt aber zunächst nur einen Wechsel des Eigentumsrecht. Erst wenn man die eigentliche Bedeutung und den Sinn dieses Gemäldes versteht, kann man von objektivierten kulturellem Kapital sprechen. Die Institutionalisierung von kulturellem Kapital existiert in Form von schulischen Titeln und Bildungszertifikaten, wie z. B. Mittlere Reife, Abitur, Universitätsabschluss (Diplom, Master…). „Der schulische Titel ist ein Zeugnis für kulturelle Kompetenz, das seinem Inhaber einen dauerhaften und rechtlichen garantierten konventionellen Wert überträgt“ (Bourdieu, 1983). Institutionalisierung durch akademische Titel ist wiederum eng verbunden mit ökonomischem Kapital. Während der Zeit der Ausbildung muss erstmal viel ökonomisches Kapital (und Zeit) investiert werden, doch nach Erwerb eines Bildungstitels lässt sich dieses kulturelle Kapital auch in ökonomisches Kapital verwandeln, da u.a. mit höheren Einkommen zu rechnen ist. Die dritte Kapitalform, die Bourdieu einführt, ist das soziale Kapital. Bourdieu meint damit die Beziehungen, auf die ein Individuum zurückgreifen kann. Das bedeutet, dass man ein dauerhaftes Netzwerk, welches aus von mehr oder weniger institutionalisierten Beziehungen zu anderen Individuen besteht, ausnutzen kann. Somit ist das soziale Kapital eine Ressource, die auf der Zugehörigkeit zu einer Gruppe beruht und die den Individuen Zugang zu den Eigenschaften des gesellschaftlichen und sozialen Lebens bietet, wie z. B. Hilfeleistungen, Unterstützung, Anerkennung. Soziales Kapital funktioniert rein immateriell und symbolisch, sodass Bourdieu diese Kapitalform auch als symbolisches Kapital bezeichnet. Mit dem soziologischen Begriff Soziales Kapital bezeichnet Pierre Bourdieu (1983) die Gesamtheit der aktuellen und potentiellen Ressourcen, die mit der Teilhabe an dem Netz sozialer Beziehungen gegenseitigen Kennens und Anerkennens verbunden sind. Im Gegensatz zum Humankapital bezieht sich das soziale Kapital nicht auf natürliche Personen an sich, sondern auf die Beziehungen zwischen ihnen. Das Konzept Sozialkapital wurde seitdem viel diskutiert; die wichtigsten Beiträger sind Robert D. Putnam (1993, 2000), James S. Coleman (1987) und Patrick Hunout (2003–2004). Das symbolische Kapital ist allgemein eine den anderen drei Kapitalformen übergeordnete Ressource. Sie kommt zustande durch gesellschaftliche Anerkennung und wirkt als Prestige oder Renommee. Das institutionalisierte kulturelle Kapital in Form von Bildungstiteln ist so immer auch symbolisches Kapital, da es von den anderen Individuen der Gesellschaft anerkannt wird. Soziales Kapital ist immer auch symbolisches Kapital, da es auf Anerkennung angewiesen ist, um als Machtmittel einsetzbar zu sein. Das symbolische Kapital verleiht einem Individuum im weitesten Sinne Kreditwürdigkeit, die einem zusteht aufgrund der Zugehörigkeit zu einer bestimmten Gruppe. Besitzer von symbolischem Kapital genießen somit Ansehen und damit ein bestimmtes Prestige. Nach Bourdieu sind die verschiedenen Kapitalformen gegenseitig konvertierbar und transferierbar. Krankensalbung. Die Krankensalbung oder Heilige Ölung ist eine in vielen Kirchen praktizierte Handlung, die an Kranken vollzogen wird und vor allem mit Anweisungen aus dem 5. Kapitel des Jakobusbriefes begründet wird. In der römisch-katholischen Kirche, den altkatholischen und den orthodoxen Kirchen sowie in der Christengemeinschaft gilt die Krankensalbung als Sakrament. Früher wurde die Krankensalbung in der katholischen Kirche als Letzte Ölung bezeichnet; innerhalb der anthroposophisch orientierten Christengemeinschaft wird sie auch heute noch so genannt. Evangelisch-Freikirchliche Gemeinden praktizieren die Krankensalbung als Ältestendienst nach Jakobus 5. Auch lutherische, reformierte und unierte Kirchen sehen zum Teil für die Krankenseelsorge wieder eine Salbung vor, die jedoch nicht als Sakrament verstanden wird. Biblischer Bezug. Das Neue Testament stellt, wie bereits das Alte Testament, Krankheit und Leid in einen Bezug zu Gott als dem Herrn über Krankheit und Heilung. Von Jesus von Nazaret erzählen die Evangelien zahlreiche Krankenheilungen; im heilenden Wirken Jesu wird das Reich Gottes erfahrbar (,). Jesus trug seinen Jüngern auf, Kranken beizustehen und sie zu heilen. Die Jünger taten dies und verwendeten dabei als Zeichen auch ein seinerzeit übliches Mittel zur Wundheilung, die Salbung mit Öl. Der Kranke wird als jemand gekennzeichnet, der ἀσθενεῖ "astheneī" ‚schwach, krank ist‘, also offenbar ans Haus gebunden, aber er kann noch nach den Ältesten rufen; er ist (Vers 15) κάμνων "kámnōn" ‚ermüdet‘, aber nicht sterbend. Er ruft nach den „Ältesten der Gemeinde“, also den Mitgliedern des kollegialen Leitungsgremiums, die „nicht aufgrund einer charismatischen Heilungsgabe, sondern kraft ihres Amtes zum Handeln am Kranken befähigt sind“. Salbung und Gebet gehören zusammen; vorrangiges Tun ist das Gebet „über den Kranken hin“ (ἐπ' αὐτόν "ep autón"), die „Salbung im Namen des Herrn“ hat begleitende Funktion (ἀλείψαντες "aleípsantes" ‚während sie salben‘), sie ist Symbolhandlung und nicht medizinische Anwendung. Die Wirkung des Handelns erwächst aus dem Gebet. Dadurch wird ein magisches Verständnis der Salbung ausgeschlossen. Geschichte der Krankensalbung. Aus der Zeit bis zum frühen Mittelalter sind wenige Gebete überliefert, die zur Segnung des Salböls für die Krankensalbung gesprochen wurden, jedoch keine eigentlichen liturgischen Ordnungen. Im altkirchlichen Sprachgebrauch wurde nicht die Salbung, sondern das geweihte Öl (griech. μύρον "míron", auch ἒλαιον νοσούντων "élaion nosoúntōn" „(Oliven)Öl der Kranken“, lat. "pinguedo olivae" „Fett der Olive“ oder "oleum benedictum" „geweihtes Öl“) als „Sakrament“ bezeichnet. Die Gläubigen brachten Öl mit in die Kirche, wo es vom Bischof oder Priester am Ende des Hochgebets der heiligen Messe gesegnet wurde. Ab dem 5. Jahrhundert wurde das Öl im römischen Ritus am Gründonnerstag vom Bischof geweiht und konnte danach von den Gläubigen mitgenommen oder bei Bedarf abgeholt werden. Bis ins 8. Jahrhundert hatten Laien die Möglichkeit, das geweihte Öl zu Hause aufzubewahren und bei sich oder bei kranken Familienangehörigen anzuwenden, die Salbung konnte aber auch vom Priester vorgenommen werden. Man salbte möglicherweise die erkrankten Körperstellen oder den ganzen Körper. In der ältesten Zeit wurde das Öl wahrscheinlich auch getrunken. Bis zum frühen Mittelalter war die Praxis der Krankensalbung zurückgegangen. Bischof Jonas von Orléans (818-843) beklagte, viele Christen hätten sie aus Unwissenheit oder Sorglosigkeit aufgegeben und gingen stattdessen zu Wahrsagern und Zauberern. Im 9. Jahrhundert erkannten die Bischöfe verbreitet die Bedeutung der Krankensalbung für die Seelsorge und setzten sich für ihre Aufwertung ein. Die Salbung von Kranken durch Laien wurde von der Kirche verboten, da das Öl "genus sacramenti" „eine Art Sakrament“ sei und in die Hand des Priesters gehöre. Doch auch unter Priestern war das Sakrament vernachlässigt worden. Daher drängten die Bischöfe und Synoden dazu, das Sakrament "wenigstens an Sterbende" zu spenden. Die Salbung wurde in den Sakramentaren des 9. Jahrhunderts neben der Beichte und den Sterbegebeten verbindlich in die Sterbeliturgie aufgenommen ("Ordines ad visitandum et unguendum infirmum" „Ordnungen zum Besuch und zur Salbung eines Kranken“), bei den Begleittexten zur Salbung trat der Aspekt der Buße gegenüber dem der Heilung mehr und mehr in den Vordergrund. Gesalbt wurden meist die fünf Sinne, die Füße und die Lenden des Kranken. Zum Ritus gehörte in der Regel auch die Handauflegung. Die Sterbesakramente (unbekannter niederländischer Maler, um 1600) Im Hochmittelalter kam für die Krankensalbung die Bezeichnung "extrema unctio" („Letzte Ölung“) auf. Aus der Anweisung, die Krankensalbung "wenigstens den Sterbenden" zu spenden, hatte sich die Praxis entwickelt, sie "nur den Sterbenden" zu erteilen. Dies wurde von der spekulativen Theologie, vermutlich ohne Wissen um die historischen Wurzeln, ausgefaltet und hatte so wieder stabilisierende Funktion auf die Praxis. Die Theologen der Scholastik sahen in der Krankensalbung die „Beseitigung aller Hindernisse vor dem Eingang in die himmlische Glorie“ - im 19. Jahrhundert dann auch als „Todesweihe“ bezeichnet -, ihre Spendung war „die Vollendung des kirchlichen Bemühens um die Heilung der Seele“ am Lebensende. Petrus Lombardus sprach von "unctio in extremis" („Salbung in den letzten [Augenblicken des Lebens]“), Albertus Magnus von "unctio exeuntium" („Salbung der Sterbenden“). Erst im 20. Jahrhundert setzte sich die Bezeichnung "unctio infirmorum" („Salbung der Kranken“) durch, die den aus der Tradition der Alten und der frühmittelalterlichen Kirche bekannten Zeugnissen wie auch den heute noch verwendeten liturgischen Texten mehr entspricht. An der „falschen Praxis“ und dem darauf aufbauenden „spektakulären Gedankengebäude“ der Scholastik übten der byzantinische Theologe und Erzbischof Symeon von Thessaloniki († 1429) und ein Jahrhundert später die Reformatoren Kritik. Martin Luther wandte sich unter Berufung auf den Jakobusbrief in seiner Schrift De Captivitate Babylonica Ecclesiae 1520 entschieden gegen die Umdeutung der Krankensalbung in ein Sterbesakrament und weigerte sich, es in der praktizierten Form als auf Jesus zurückgehendes Sakrament zu akzeptieren. Das Konzil von Trient verteidigte die Sakramentalität der Krankensalbung und die katholischer Praxis als der Bibel nicht widersprechend. „Die Begrifflichkeit [der Konzilsentscheidung] bleibt im Rahmen der Auffassung, die in der Krankensalbung vor allem eine spirituelle Hilfe am Lebensende sehen wollte, freilich ohne dass eine dogmatische Festlegung in Richtung auf ein Sterbesakrament hin erfolgt ist.“ Der 1566 erschienene Catechismus Romanus fasste den Zeitraum der Sakramentenspendung weit und forderte zwar lebensgefährliche Krankheit - nicht Lebensgefahr allein, etwa auf Reisen oder vor einer Hinrichtung -, aber es dürfe nicht gewartet werden, bis keine Hoffnung auf Genesung mehr bestehe. Diese Weisung blieb in der Praxis jedoch weitgehend unbeachtet. Das Rituale Romanum von 1925 verschärfte sogar die Formulierung früherer Ritualien: Statt „dass Todesgefahr zu drohen scheint“ ("ut mortis periculum imminere videatur") hieß es jetzt „sich aufgrund von Krankheit oder Altersschwäche in Todesgefahr befindet“ ("ob infirmitatem vel senium in periculo mortis versetur"). Krankensalbung in der römisch-katholischen Kirche. Die Krankensalbung wird als ein sakramentales Mittel der Stärkung und Ermutigung verstanden. Sie soll in schwerer Krankheit Anteil am Heiligen Geist schenken und in dem Kranken Vertrauen auf die göttliche Barmherzigkeit wecken. Nach katholischem Verständnis hat sie eine Sünden vergebende Wirkung und verbindet den Kranken mit dem Leiden, dem Kreuz und der Auferstehung Jesu Christi. Die frühere offizielle Bezeichnung der Krankensalbung als "Letzte Ölung" ist volkstümlich auch heute noch in Gebrauch. Die zutreffende Bezeichnung, die auch die Konstitution des Zweiten Vatikanischen Konzils über die Liturgie der Kirche „Sacrosanctum Concilium“ (Nr. 73) verwendet, ist jedoch "Krankensalbung". In diesem Sinn hat das Konzil beschlossen, den Ritus und die Deutung dieses Sakraments zu erneuern. Mit der Apostolischen Konstitution „Sacram Unctionem Infirmorum“ erteilte Papst Paul VI. am 30. November 1972 die Approbation zur erneuerten Form der Krankensalbung. Die Krankensalbung ist bestimmt für Menschen, „die sich wegen Krankheit oder Altersschwäche in einem bedrohlich angegriffenen Gesundheitszustand befinden“; das Sakrament kann wiederholt empfangen werden, wenn der Kranke zwischenzeitlich wieder zu Kräften gekommen war oder bei Fortdauer derselben Krankheit eine Verschlechterung eintritt. Aktueller Ritus. Gesalbt werden Stirn und Hände des Kranken, im Notfall genügt die Salbung der Stirn oder, falls das durch besondere Umstände nicht möglich sein sollte, eine andere, besser geeignete Stelle des Körpers. Zur Salbung mit dem Krankenöl spricht der Priester: "„Durch diese heilige Salbung helfe dir der Herr in seinem reichen Erbarmen, er stehe dir bei mit der Kraft des Heiligen Geistes: Der Herr, der dich von Sünden befreit, rette dich, in seiner Gnade richte er dich auf.“" Ablauf bis 1975. Nach dem außerordentlichen Usus (Liturgie von 1962) ist die "Salbung der Sinne" in der Form vorgesehen, wie sie für den deutschen Sprachraum bis zum Erscheinen des liturgischen Buches "Die Feier der Krankensakramente. Die Krankensalbung und die Ordnung der Krankenpastoral in den katholischen Bistümern des deutschen Sprachgebietes" 1975 vorgeschrieben war: Gesalbt werden die Sinnesorgane (Augen, Ohren, Nase, Mund, Hand, Füße) mit dem Öl oder – falls dies nicht möglich ist – die Stirn. Die Salbung der Nieren war 1925 entfallen, die Salbung der Füße konnte entfallen. Der Priester spricht auf Latein die Worte "Per istam sanctam Unctionem et suam piissimam misericordiam indulgeat tibi Dominus quidquid per visum (auditum...) deliquisti. Amen." („Durch diese heilige Salbung und seine mildreichste Barmherzigkeit lasse dir der Herr nach, was du durch Sehen (Hören, Riechen, Schmecken und Reden, Berühren, Gehen) gesündigt hast. Amen“); bei Salbung der Stirn wird diese Formel abgeändert "„… was immer du gesündigt hast“". Anstelle der Handauflegung streckt der Priester lediglich die rechte Hand über den Kranken aus. Materie der Krankensalbung. Bei der Krankensalbung wird nicht Chrisam, sondern Krankenöl (geweihtes Olivenöl, im Notfall ein anderes Pflanzenöl) verwendet. Dieses Krankenöl (lat.: "oleum infirmorum") wird jedes Jahr in der Chrisammesse am Morgen des Gründonnerstags oder an einem früheren osternahen Tag vom Bischof in Konzelebration mit seinem Presbyterium geweiht und danach in die Pfarreien der Diözese verteilt. Dort soll es, zusammen mit den anderen heiligen Ölen zu Beginn der Messe vom Letzten Abendmahl am Gründonnerstag oder zu einem anderen geeigneten Zeitpunkt feierlich in die Kirche hineingetragen und seine Bedeutung der Gemeinde jährlich aufs Neue erklärt werden. Der Bischof kann das Krankenöl in jeder von ihm geleiteten Feier der Krankensalbung weihen. In Notsituation darf jeder Priester, der die Krankensalbung vollzieht, innerhalb dieser Feier das Krankenöl weihen. Spender der Krankensalbung. Das Sakrament wird durch den zuständigen Pfarrer gespendet. Kann die Erlaubnis des Ortsbischofs angenommen werden, dürfen es auch andere Priester spenden. Im Notfall darf und soll dieses Sakrament jedoch jeder Priester spenden. Im Codex Iuris Canonici heißt es dazu: „Die Krankensalbung spendet gültig jeder Priester, und nur er.“ Wichtig für das Zustandekommen des Sakraments ist die entsprechende Absicht („Intention“) des Spenders, das Sakrament spenden zu wollen. Versehgang und Sterbesakramente. Wird die Krankensalbung Sterbenden gespendet, so wird der Kranke, soweit er hierzu jeweils noch in der Lage ist, auch mit den Sakramenten der Buße (vor der Krankensalbung) und der als Wegzehrung gespendeten Kommunion (nach der Krankensalbung) versehen (daher der Name „Versehgang“). Wenn der Kranke nicht mehr in der Lage ist, die Kommunion unter der Gestalt des Brotes zu empfangen, kann sie ihm auch unter der Gestalt des Weines gereicht werden. Gemäß vom Papst erteilter Vollmacht spendet der Priester zusätzlich den mit vollkommenem Ablass verbundenen apostolischen Segen. Ist der Sterbende nicht gefirmt, kann ihm der Priester auch dieses Sakrament spenden. Man spricht in diesen Fällen auch von den Sterbesakramenten. In früheren Jahren ging in ländlichen Gebieten bei einem solchen Versehgang der Priester in Begleitung eines Ministranten in Chorkleidung zum Haus des Kranken, der Ministrant trug ein Licht und eine kleine Schelle, um Entgegenkommende auf die Gegenwart des Allerheiligsten aufmerksam zu machen. Heute kommt der Priester meist allein ins Haus, zur Spendung der Krankensalbung soll sich aber, wo immer möglich, eine kleine Gemeinde versammeln. Im Haus des Kranken soll, wenn möglich, ein mit einem weißen Tuch bedeckter Tisch für die heiligen Öle, Kerzen und ein Gefäß mit Weihwasser mit Aspergill oder einem Zweig zum Besprengen mit Weihwasser bereitgestellt werden. Hierzu war vielfach in den Familien eine sogenannte Versehgarnitur mit den nötigen Ausstattungsgegenständen vorhanden. Byzantinischer Ritus. In den orthodoxen Kirchen wird die Krankensalbung am Nachmittag des Mittwochs der Karwoche gespendet. Nicht nur Kranke, sondern alle Gläubigen können das Sakrament empfangen, und im Vordergrund steht die Sündenvergebung als Wirkung des Sakramentes. Auch die Spendung an einem anderen Tag oder an einen einzelnen Kranken in dessen Wohnung ist möglich, allerdings auch dann immer in Gemeinschaft. Die Salbung wird jedem Empfänger nacheinander von sieben Priestern gespendet, in kleineren Gemeinden können es auch nur zwei oder drei Priester sein, im Notfall einer. Auf einem Tisch werden ein Ölgefäß bereitgestellt, in welches Salböl und Wein oder Wasser gegossen werden (vgl.), ferner ein Evangeliar und eine Schüssel mit Weizen oder Mehl als Sinnbild des aufkeimenden Lebens (). Die Feier beginnt in der Vollform mit einem verkürzten Morgengebet (Ὂρθρος "Órthros") aus dem kirchlichen Stundengebet. Die Priester tragen Kerzen in den Händen, das Öl, die Kirche und alle Anwesenden werden mit Weihrauch beräuchert. Dann wird das Öl mit einer Fürbittlitanei und einem Segensgebet gesegnet: „Dass dieses Öl durch die Kraft, die Wirksamkeit und das Herabkommen des Heiligen Geistes gesegnet werde, lasset zum Herrn uns beten.“ Das Öl möge „denen, die damit gesalbt werden, zur Heilung und zur Vertreibung jedes Leides, der Befleckung des Leibes und des Geistes und jeden Übels “ gereichen, damit dadurch der Name Gottes verherrlicht werde. Jeder Priester hält vor der Salbung jedes Gläubigen einen kurzen Wortgottesdienst, bestehend aus Schriftlesung, einer kurzen Litanei, der Salbung und einem Gebet. Die Salbung geschieht mit einem mit Baumwolle umwickelten Zweig auf Stirn, Nasenflügel, Wangen, Mund, Brust sowie Innen- und Außenseite der Hände. Am Ende der Feier wird dem Kranken mit einem Gebet das Evangeliar auf das Haupt gelegt. Verkürzungen im Ablauf sind möglich und üblich. Koptischer Ritus. Empfänger der Krankensalbung im koptischen Ritus - genannt „Feier der Lampe“ oder „Gebet der Lampe“ - ist jemand, der körperlich krank ist; die Salbung kann beliebig oft wiederholt werden, auch während derselben Krankheit. In der Regel wird das Sakrament heute im Haus des Kranken gespendet. Als es früher in der Kirche gespendet wurde, kam es missbräuchlich vor, dass bettlägerige Kranke jemand anders in die Kirche schickten, um das Sakrament stellvertretend zu empfangen. Zur Spendung des Sakraments versammelten sich traditionell sieben Priester, heute ist jedoch die Spendung durch einen Priester üblich. Der Kranke soll vorher das Bußsakrament empfangen. Im Raum der Krankensalbung muss ein Leuchter mit sieben Lampen oder eine Lampe mit sieben Dochten stehen, notfalls ein Teller mit Öl, in das sieben Dochte gesteckt werden. Im Verlauf der Liturgie werden die Lampen nacheinander von den sieben Priestern oder dem einen nach jedem Gebet entzündet. Die Krankensalbung besteht aus sieben „Gebeten“ mit jeweils kurzem Wechselgebet, Schriftlesung aus Altem und Neuem Testament und Gebet um Heilung von den leiblichen und seelischen Krankheiten sowie der Bitte um Sündenvergebung. Das erste der Gebete ist ein längeres Einleitungsgebet mit mehrfachem Einschub von "Kyrie eleison" sowie der Weihe des Öls. Nach zwei weiteren Gebeten wird der Kranke gesalbt, in der Regel auf Stirn, Brust und Adern der inneren Handwurzeln. Die Feier schließt mit Abschlussgebeten. Auch können alle Anwesenden eine einfache Salbung mit dem Öl erhalten, vergleichbar der Besprengung mit Weihwasser im römischen Ritus. Anglikanische Kirchen. Im anglikanischen "Book of Common Prayer" von 1549 war ein Salbungsritus enthalten, der im Zusammenhang mit einem Krankenbesuch vollzogen werden konnte. In der zweiten Auflage des Buches von 1552 war unter dem Einfluss des deutschen Reformators Martin Bucer der Abschnitt über die Krankensalbung entfallen. Im 18. und dann besonders im 19. (Oxford-Bewegung) und 20. Jahrhundert (Provinz Canterbury, 1935 und Provinz York, 1936) gab es Versuche, die Krankensalbung im Rahmen der Krankenseelsorge wieder zu beleben. Handauflegung und Salbung verstand man als Formen des kirchlichen Heilungsdienstes; die Salbung geschah vorwiegend an ernsthaft Kranken. Der Empfänger sollte vorher seine Sünden bekennen und die Lossprechung erhalten. Seit 1991 wird für die Spendung an Sterbende ein geänderter Text verwendet, der auf die Bitte um körperliche Heilung verzichtet. Nach der Salbung soll dem Sterbenden, falls möglich, die Wegzehrung gereicht werden, es folgen die Sterbegebete. Ähnliche Agenden existieren auch für die Episkopalkirche der Vereinigten Staaten von Amerika (1979) und andere Gliedkirchen der Anglikanischen Gemeinschaft. Altkatholische Kirche. In den Bistümern der Utrechter Union wird die Krankensalbung (hier oft als das "Sakrament der Stärkung" bezeichnet) durch einen Priester oder eine Priesterin bzw. durch einen Diakon oder eine Diakonin gespendet. Dabei betet die zelebrierende Person zunächst um Stärkung der Empfängerin des Sakraments durch den Heiligen Geist. Danach legt er oder sie der empfangenden Person in Stille die Hand auf. Anschließend salbt die zelebrierende Person die Stirn und die Innenfläche der Hände mit den Worten: Diese Salbung kann am Krankenbett, in einer lebensbedrohlichen Situation (etwa nach einem Unfall), aber auch in einer Eucharistiefeier der Gemeinde vollzogen werden. In diesem Fall wird sie nach Evangeliumslesung und Predigt vor der versammelten Gemeinde vorgenommen und nicht nur Kranken, sondern auch Menschen mit Behinderung, Schwangeren und anderweitig Stärkungsbedürftigen gespendet. Der Empfang des Bußsakramentes (in der altkatholischen Kirche "Sakrament der Versöhnung" genannt) kann damit verbunden werden, ist aber nicht Bedingung. In Lebensgefahr kann auch durch einen Priester zugleich das Sakrament der Firmung gespendet werden. Als Materie des Sakramentes wird in der Altkatholischen Kirche ein mit Rosenöl versetztes Olivenöl benutzt, das vom Bischof in einer besonderen Eucharistiefeier während der Fastenzeit zusammen mit den anderen Heiligen Ölen, dem Chrisam und dem Katechumenenöl, geweiht wurde. Lutherische und unierte Kirchen und Gemeinschaften. In einigen evangelisch-lutherischen und unierten Kirchen und Gemeinschaften wurde die Krankensalbung ab der zweiten Hälfte des 20. Jahrhunderts wieder praktiziert. Hohe Bedeutung hat bei der Seelsorge für Kranke in den evangelisch-lutherischen Kirchen seit jeher die Feier des Abendmahls am Krankenbett. In der Evangelischen Michaelsbruderschaft entstand der Wunsch, dass der Pfarrer bei Kranken und Sterbenden, die das Abendmahl nicht empfangen können, nicht nur beten, sondern auch rituelle Handlungen vornehmen könne. Die Agenda der Bruderschaft von 1949 enthielt ein Formular für den Vollzug einer Salbung ernsthaft Erkrankter mit Olivenöl, für die jedoch die Bezeichnung „letzte Ölung“ abgelehnt wurde. Die Feier beginnt mit dem Friedenswunsch, dem Gebet des Psalms 13 und drei Orationen. Nach der Lesung von geschieht die Salbung in Kreuzesform auf die Stirn, danach kommen eine Oration und die Segnung des Kranken. Die Landessynode der Evangelischen Landeskirche in Baden sah 1998 die Salbung von Kranken in Verbindung mit einem voraufgehenden Deutewort als „starkes Zeichen für die Zuwendung Gottes zu den Menschen“, das jedoch nicht als „magisches Geschehen“ missverstanden werden dürfe und „kein drittes Sakrament der evangelischen Kirche“ sei. Gesalbt wird in der Regel zu zweit oder zu dritt. Einer hält das Salbschälchen, während ein anderer die Stirn und die Innenflächen der Hände salbt. Die nicht Salbenden stehen neben der Person, die gesalbt werden möchte, und legen ihr die Hand auf die Schulter. Evangelisch-Freikirchliche Gemeinden (Baptisten). In der Verkündigung und Unterweisung wird die Krankensalbung als zeichenhafte Handlung für das heilende Handeln Jesu Christi der glaubenden Gemeinde angeboten. Wichtig für die Durchführung der Krankensalbung ist in den evangelisch-freikirchlichen Gemeinden, dass der Kranke nach biblischer Anweisung danach verlangt und die Ältesten der Gemeinde zu sich rufen lässt: "„Ist einer unter euch krank, so soll er die Ältesten der Gemeinde rufen, damit sie für ihn beten und ihn im Namen des Herrn mit Öl salben.“" (Jakobusbrief 5,14). Eine Ausnahme von dieser Regel wird gemacht, wenn Eltern die Gemeindeältesten zu ihrem erkrankten Kind rufen. Eine Salbung bereits Verstorbener findet jedoch nicht statt. Spender der Krankensalbung sind in freikirchlichen Gemeinden die Ältesten der Gemeinde. Der Gemeindepastor ist als Mitältester in der Regel bei einer Krankensalbung anwesend, sein Mitwirken ist aber nicht unbedingt erforderlich. Da die neutestamentlichen Bibelstellen, die vom Ältestendienst handeln, immer von einem Ältestenkollegium ausgehen, sollen auch bei der Krankensalbung nach Möglichkeit wenigstens zwei Gemeindeälteste präsent sein. Materie der Krankensalbung. Bei einer freikirchlichen Krankensalbung wird schlichtes Pflanzenöl verwendet, mit dem das Haupt des Kranken, manchmal auch der erkrankte Bereich des Körpers gesalbt wird. Das verwendete Öl bedarf keiner besonderen vorherigen Weihe. Es kann aber wohlriechendes Salböl sein. Die Krankensalbung als Handlung. Eine vorgeschriebene Liturgie gibt es hier nicht. In der Regel hat die Krankensalbung jedoch folgenden Verlauf: Sie wird mit einem Gebet und Schriftlesung (Jakobusbrief 5,14-16) eröffnet. Danach berichtet der Kranke auf Nachfragen der Ältesten von seiner Krankheit und deren Verlauf. Die Ältesten und der Kranke bekennen voreinander ihre Schuld und sprechen sich gegenseitig im Namen Jesu Vergebung zu. Anschließend wird der Kranke im Namen Jesu mit Öl gesalbt. Die Ältesten legen ihm danach die Hände auf und beten für seine Genesung. Der Psalm 23 und/oder das Vater Unser sowie ein Segenswort beschließen die Krankensalbung. Die Christengemeinschaft. Die von der Anthroposophie Rudolf Steiners geprägte Christengemeinschaft bezeichnet die Krankensalbung als "Heilige Ölung" oder "Letzte Ölung". Sie ist ein Sakramentale und bildet die erste Stufe eines vierstufigen „Sterbe- und Todesgeleits.“ Ihr folgen in diesem Ritual die Aussegnung, die Bestattung oder Trauerfeier sowie die Menschenweihehandlung für Verstorbene. Bedeutung der "Heiligen Ölung". Verstanden wird die "Heilige Ölung" als „tiefgreifende Hilfe, in welcher Richtung der Weg des Menschen sich auch wenden mag – zum Tod oder zurück ins Leben“. Sie vermittelt nach Auffassung der Christengemeinschaft ein Dreifaches: die Kraft, die den Geist vom Leib unabhängig macht; den Segen Jesu Christi, der den Tod überwunden hat; das Weggeleit „von Dasein zu Dasein“. Es besteht die Überzeugung, dass die sakramentale Handlung auch bei Bewusstlosigkeit des Sterbenden ihre Wirkung entfaltet. Anders als in der katholischen Kirche wird die "Letzte Ölung" jedoch nicht an bereits Verstorbenen vollzogen. Die "Heilige Ölung" als Handlung. Allein der ordinierte Priester der Christengemeinschaft hat die Vollmacht, die "Letzte Ölung" dem Sterbenden zu spenden. In der Regel assistiert ein Ministrant, der bei der Handlung am Sterbebett die Gemeinde vertritt. Der Priester legt vor dem Akt seine Amtstracht an und weiht das Öl, das bei der Salbung verwendet werden soll. Zunächst liest er am Kranken- bzw. Sterbebett das sogenannte "Hohepriesterliche Gebet" aus den Abschiedsreden Jesu, das er in ritueller Sprache vorträgt. Es folgen drei kurze „kultische Sätze“, mit denen die bereits erwähnten Wirkungen der "Heiligen Ölung" ausgesprochen werden und auf die der Ministrant jeweils mit einem „Ja, so sei es!“ antwortet. Danach entnimmt der Priester einer Kapsel mit Daumen und Zeigefinger dreimal Salböl, das er jeweils in Kreuzform auf die Stirn des Sterbenden zeichnet – zunächst über dem rechten Auge, dann über dem linken und schließlich in der Mitte. Damit ist die Handlung, an der auch Verwandte, Freunde sowie Ärzte und Pflegepersonal teilnehmen können, beschlossen. Knuth. Knuth ist außerdem der Name mehrerer Adelsfamilien, siehe Knut (Adelsgeschlechter) Kommandozeileninterpreter. Beispiel für einen Kommandointerpreter (Windows PowerShell) Die Shell codice_1, die Standard-Linux-Shell, unter Ubuntu Ein Kommandozeileninterpreter oder CLI (engl. "command-line interpreter" oder "command-line shell"), auch Kommandointerpreter genannt, ist ein Computerprogramm, das eine Zeile Text von einer Kommandozeile ("command-line interface", ebenfalls CLI) einliest und als Kommando (Anweisung, Befehl) interpretiert. Das Kommando wird dann ausgeführt und das Ergebnis dem Benutzer angezeigt. In seiner ursprünglichen Form macht ein Kommandozeileninterpreter dem Benutzer betriebssysteminterne Funktionen über eine Syntax zugänglich, die besser lesbar ist als Maschinensprache und die direkte Ausgabe des Betriebssystems. Er kapselt das Betriebssystem gegenüber dem Benutzer ab und ist daher eine "Betriebssystem-Shell" (‚Muschel‘) oder "Benutzeroberfläche". Das interaktive Arbeiten am Bildschirm ersetzt damit die früher auf Großrechnern per Lochkarte und später am Terminal abgegebenen Kommandos sowie die zeilenweise Ausgabe von Ergebnissen auf einem Drucker oder Terminal. Auch in grafischen Benutzeroberflächen gibt es oft eine Shell, die Eingaben des Benutzers interpretiert und umsetzt. Für erfahrene Benutzer haben Kommandozeileninterpreter den Vorteil der schnellen, direkten Kontrolle und Erreichbarkeit aller Funktionen, nachdem man den Befehl und seine Parameter gelernt hat. Zudem lassen sich häufig wiederkehrende Kommandofolgen durch Stapeldateien (auch Batchdateien, Makros oder Skripte genannt) automatisieren, was bei einer grafischen Oberfläche prinzipbedingt nur schwer zu realisieren ist. Beispiele. Auch für Programmiersprachen wie BASIC, Perl, Python, Ruby oder Lisp gibt es Kommandozeileninterpreter. Auch manche Programme, wie etwa der Editor "Emacs", erlauben die Ausführung von relativ komplexen Befehlen über eine Kommandozeile. Kitesurfen. Kitesurfen, auch Kiteboarden oder Lenkdrachensegeln, ist ein relativ junger Trendsport, der aus dem Powerkiten entstanden ist. Beim "Kitesurfen" steht der Sportler auf einem "Board", das Ähnlichkeit mit einem kleinen Surfbrett oder Wakeboard aufweist, und wird von einem Lenkdrachen (engl. ') – auch Windschirm oder Schirm genannt – über das Wasser gezogen. Die Vorbewegung ist damit mit dem Surfen mit Windantrieb vergleichbar. Weltweit gibt es zurzeit nach Schätzungen von Experten und der Industrie etwa 500.000 Menschen, die diesen Sport regelmäßig betreiben. Die Anzahl der Kitesurfer hat in den letzten Jahren rapide zugenommen. Im Vergleich zu Windsurfen ist die Ausrüstung günstiger und kompakter. Abgesehen davon ermöglicht kein anderer Wassersport eine so umfangreiche Vielfalt an Sprüngen und Tricks. In den letzten Jahren wurde die Ausrüstung stark verbessert. Sämtliche Hersteller haben ihre Produkte mit umfassenden Sicherheitssystemen ausgestattet oder noch weiter verbessert. Experten raten daher ab, Kite- und Bar-Systeme (Lenkstange) zu benutzen, die vor dem Jahr 2006 erschienen sind, da erst danach die Sicherheit wesentlich erhöht wurde. Geschichte. Der von Pocock konstruierte „Charvolant“, eine drachengezogene Kutsche In den 1820er-Jahren experimentierte der englische Lehrer George Pocock mit großen Lenkdrachen, um damit Kutschen und kleine Boote anzutreiben. Zum Steuern verwendete er ein 4-Leinen-System, welches dem heutzutage beim Kitesurfen verwendeten sehr nahekam. Sowohl die Kutschen als auch die Schiffe konnten damit nach Lee fahren, dazu parallel und kleine Sprünge absolvieren. Pococks Absicht war es, das von ihm „Charvolant“ genannte System als echte Alternative zu Pferden zu etablieren, um die zu seiner Zeit übliche „Pferdesteuer“ zu umgehen. Sein Konzept konnte sich aber nicht durchsetzen, so dass es bis Ende des Jahrhunderts fast komplett in Vergessenheit geriet. 1903 entwickelte der Luftfahrtpionier Samuel Franklin Cody den Man-lifting Kite, verband diesen mit einem kleinen Segelboot und überquerte damit den Ärmelkanal. Die Entwicklung von Aramid- und hochfesten Polyethylenfasern in den späten 1970er-Jahren machten den Siegeszug der Kites erst möglich. Mit diesen Materialien war es möglich, stabilere, reißfestere und effektivere Tücher für die Kites herzustellen. Mit dem aus Aramid- und Polyethylen hergestellten "FlexiFoil"-Lenkdrachen gelang es Ian Day, mit rund 40 km/h mit seinem Katamaran über das Wasser zu fahren. In den 1970er- und Anfang der 1980er-Jahre entwickelte der deutsche Dieter Strasilla ein Segelsystem, mit dem sowohl auf Land als auch im Wasser und auf Schnee gesegelt werden kann. Mit dem zusammen mit seinem Bruder Udo entwickelten und patentierten „Skywing“-System wurde dann auch das Springen und Fliegen oder Gleiten möglich. Strasilla und ein Freund von ihm, der Schweizer Andrea Kuhn, kombinierten das System mit Skiern, Snowboards, Grasskiern sowie selbstgebauten Buggys. In einem seiner Patente geht Strasilla auch kurz auf die Idee ein, aufblasbare Kites zum Kitesurfen zu verwenden. In den 1980er-Jahren fanden unter anderem in Schweden Versuche statt, Kanus, Schlittschuhläufer, Skifahrer, Wasserski- und Rollschuhfahrer mit Lenkdrachen anzutreiben. Die Brüder Bruno und Dominique Legaignoux entwickelten Anfang der 1980er aufblasbare Lenkdrachen zum Kitesurfen und ließen sich diese Idee im November 1984 patentieren. Dieser sah bereits fast genauso aus wie ein heutiger "Tubekite" und diente als Ausgangsmodell für alle weiteren Entwicklungen. 1990 wurde durch den Neuseeländer Peter Lynn das Buggykiting entwickelt und im Ashburtoner Argyle Park erstmals angewandt. Dazu kombinierte er den Drachen mit einem dreirädrigen Buggy, ähnlich einem Kettcar. Das Buggykiting wurde daraufhin zum ersten weit verbreiteten Kitesport, so dass bis 1999 rund 14.000 Kitebuggys weltweit verkauft wurden. Ähnlich der Idee der Legaignoux-Brüder, entwickelten Anfang der 1990er der amerikanische Boeing-Aerodynamiker Bill Roeseler und sein Sohn Corey das "KiteSki"-System. Die Idee war es, einen Wasserskier mit einem zweileinigen deltaförmigen Tubekite zu ziehen. Gesteuert werden konnte der Kite mit einer "Bar". Nachdem sie sich den KiteSki patentieren ließen, ging dieser 1994 auf den Markt. Durch seine Luftschläuche konnte der Kite auch nach einer Wasserlandung wieder gestartet werden. Ende der 1990er verwendete Corey Roesler dann erstmals ein Brett, ähnlich einem Surfboard, anstatt Wasserskiern. Laird Hamilton und Manu Bertin demonstrierten das Kitesurfen 1996 der Öffentlichkeit an der Küste Mauis auf Hawaii, und halfen dadurch, den Sport populärer zu machen. Auch die Legaignoux-Brüder hielten an ihrer Idee fest, entwickelten diese weiter und brachten schließlich 1997 den "Wipika"-Tubekite auf den Markt. Dieser hatte eine "Bow-Kite"-Form mit breiteren Enden als die bisherigen Kites und ermöglichte dadurch einen leichteren Wasserstart. Im selben Jahr entwickelten die Franzosen Raphaël Salles und Laurent Ness ein spezielles Kitesurfboard, was seinen Beitrag zur weltweiten Verbreitung des Kitesurfens ab 1998 leistete. Erste Surfschulen lehrten nun das Kitesurfen. Der erste Wettbewerb fand im September 1998 statt, Sieger war der Amerikaner Flash Austin. Bis etwa 2001 waren die den Windsurfbrettern ähnlichen "Directional"-Boards der dominierende Typ von "Kiteboards". Ab dann wurden die den Wakeboards ähnlichen "Twin Tips" zunehmend populärer. Ausrüstung. Die Kitesurf-Ausrüstung besteht aus mehreren Teilen. Die drei wichtigsten bilden dabei das "Board", die "Bar" mit den Steuerungs- und Sicherheitsleinen und der "Kite" selbst. Hier gibt es große Unterschiede in Bauart und Größe, so dass die Ausrüstung an Körpergewicht und Könnensstand des Sportlers sowie an unterschiedliche Windstärken angepasst werden kann. Das Board. Grundsätzlich wird zwischen drei Arten von Boards unterschieden: Es gibt "Twin Tips" (auch Bidies oder kurz TT genannt), Mutant-Boards und Directional-Boards, die auch Waveboards genannt werden. Alle drei Boardvarianten haben im Gegensatz zu Surfbrettern keinen nennenswerten Auftrieb, dieser entsteht erst hydrodynamisch durch die Fahrt über Wasser. Dadurch erklären sich auch die Maße der einzelnen Boards, die in Abhängigkeit von Könnensstand, Windstärke, Körpergewicht und Kitegröße zwischen 120 und 165 cm in der Länge und etwa 26 bis 52 cm in der Breite variieren. Seit Beginn des Kitesports gab es große Entwicklungssprünge; mittlerweile haben sich die Twin Tips am Markt durchgesetzt und werden vom Großteil der Kitesurfer gefahren. Die Kraftübertragung der Steuerungsbewegungen der Füße auf das Brett erfolgt in den meisten Fällen über Fußschlaufen, doch es werden vereinzelt auch feste Bindungen eingesetzt. Boards ohne Bindung oder Schlaufen existieren ebenfalls. Vereinzelt werden auch normale Surfboards eingesetzt, die dann für das sogenannte „Wavekiten“ benutzt werden. Directional-Boards. Kiter mit Directional Board im Sprung Das Directional ist „die Mutter“ aller Kiteboards und wurde direkt aus dem Wellenreiten übernommen. Anders als bei den anderen Boardtypen ist die Bauweise bei den Directionals etwas höher und der Auftrieb etwas größer. Aufgrund fehlender Finnen am Bug und der spitz zulaufenden Form ist es nur in eine Richtung fahrbar, so dass bei einem Richtungswechsel auch ein Fußwechsel erfolgen muss. Aufgrund seines besonderen Fahrgefühls sowohl beim Fahren in größeren Wellen als auch bei relativ ruhiger See ist es vor allem eine spaßbringende Alternative zum Twin Tip. Es eignet sich sowohl für Anfänger als auch für Fortgeschrittene. Twin Tips. Das Twin Tip ist ähnlich wie ein Wakeboard oder Snowboard aufgebaut und lässt sich in beide Richtungen also bidirektional fahren. Es weist harte, scharfe Kanten und eine widerstandsarme, flache Bauweise auf. Es wurde ursprünglich aus dem Wakeboarden adaptiert und ist für das Kitesurfen modifiziert worden. Die Twin Tips eignen sich sowohl für Einsteiger als auch für sehr erfahrene Sportler, wobei mit steigendem Könnensstand die Boardgröße meist abnimmt. Charakteristisch für diesen Boardtyp ist die Symmetrie hinsichtlich „Outline“ (Umriss), „Shape“ (Form) und Anordnung der Fußschlaufen. Dies hat den großen Vorteil, dass bei einem Richtungswechsel kein Fußwechsel stattfinden muss. Unterschieden wird noch einmal zwischen großen Twin Tips, deren Form auf beiden Seiten konkav ist und kleinen Twin Tips, deren Form konvex ist, wobei die Grenzen fließend sind. Mutant-Boards. Die Mutants sind eine Mischung aus TTs und Directional Boards. Die Form ähnelt der eines Directionals mit einer klaren Unterscheidung zwischen Bug und Heck. Prinzipiell für das Fahren in eine Richtung konzipiert kann es aber aufgrund zweier Finnen am Bug auch bidirektional gefahren werden. Wie bei einem Twin Tip gibt es meist nur zwei Fußschlaufen. Raceboards. Raceboards zeichnen sich durch ihr wirklich großes Volumen (größer als Doors oder TT) als auch durch die langen Finnen an der Unterseite des Brettes aus. Sie eignen sich wegen ihrer Bauweise optimal zum sehr schnellen Fahren auf dem flachen Wasser. Da sie fürs Rennen konzipiert wurden, sind sie eher für Fortgeschrittene und Profis geeignet. Foilboard. Ein Foilboard (auch Hydrofoil) ist ein Board mit einer schwertartigen Verlängerung unter dem eigentlichen Brett. Bei ausreichender Geschwindigkeit schwimmt das Board auf und man surft ausschließlich auf dieser Verlängerung. Für Zuschauer vermittelt ein Foilboard den Eindruck als würde der Surfer über dem Wasser schweben. Foilboards sind wegen ihres geringen Wasserwiderstandes besonders für Leichtwind oder auch für Rennen geeignet. Bar, Steuerungs- und Sicherheitsleinen. 5-Leiner Bar mit Clamcleat Adjuster Die „Kitebar“ oder einfach nur „Bar“ verbindet den Sportler über 20–30 m lange Steuerungs- und Sicherheitsleinen mit dem Kite und ermöglicht dessen Steuerung hinsichtlich der Richtung und der Kraftentwicklung. Die neueren Modelle verfügen darüber hinaus über mehrere Sicherheitsmechanismen zum teilweisen oder vollständigen Trennen vom Schirm im Falle von Gefahr und/oder Kontrollverlust über den Schirm. Meist sind diese Sicherheitsauslösungen eine „Quickrelease“ am „Chickenloop“ (eine schnell trennbare Verbindung an der Schlaufe, an der das Trapez eingehängt wird) und eine sogenannte „Safetyleash“. Beim Quickrelease stürzt der Kite auf das Wasser, bleibt aber noch mit dem Trapez verbunden, damit der Kite nicht verlorengeht, während beim Auslösen des Safetyleash der Sportler vollständig vom Kite getrennt wird. Der Schirm. Illustration dreier Kites. Softkite (hinten), C-Kite (rechts) und Bow-Kite (links) Kites gibt es in unterschiedlichen Ausführungen, die sich auch in Angriffsfläche und Winkel des Windes unterscheiden. Mittels Leinen kann der Lenkdrachen so gesteuert werden, dass die auf den Sportler ausgeübten Kräfte in Richtung und Stärke variieren. Die Größe des Schirmes ist auch von der Windstärke abhängig. Die meistgefahrenen Größen sind 9 bis 12 m². Stärkere Winde erfordern kleinere Schirme, um Überbelastungen zu vermeiden. Besonders Anfänger sollten darauf achten, keinen zu großen Drachen zu verwenden. Hier ist zu bedenken, dass eine Verdopplung der Windgeschwindigkeit eine Vervierfachung der Kräfte im Kite nach sich zieht, wodurch fehlerhafte Lenkbewegungen dramatische Folgen nach sich ziehen können. So ist ein 9-m²-Kite bei 6 Windstärken in der Lage, problemlos zwei erwachsene Männer aus dem Wasser zu reißen. Um die auftretenden Kräfte zu verringern sind neuere Drachen mit einer sogenannten „Depower“-Möglichkeit (engl. etwa "Entkräften") ausgestattet. Unter Verwendung von „Depower“ wird der Winkel der Anströmkante des Drachens zum Wind reduziert und das Profil des Kites verändert, so dass sich weniger Wind im Schirm fängt und der Zug des Drachens abnimmt. Softkites. Die Softkites oder auch "Ram-Air-Kites" oder "Matten" sehen aus wie Gleitschirme und eignen sich vor allem zur Benutzung an Land, beispielsweise beim Snowboarden oder Allterainboarden. Es gibt aber auch Softkites mit geschlossenen Zellen, die zum Surfen auf dem Wasser benutzt werden können. Sie erhalten ihre Stabilität dadurch, dass die Luft über Lufteinlassventile an der Anströmkante eindringen kann, dort zwischen zwei Tuchschichten „gespeichert“ bleibt, und nicht mehr entweichen kann. Softkites mit offenen Zellen hingegen würden sich bei einem Absturz im Wasser mit Wasser füllen und wären somit nur noch schwer flugfähig. Der Begriff "Ram-Air" bezieht sich auf die Stauluft zwischen Ober- und Untersegel, durch die der Schirm seine Form erhält. Die Flugstabilität wird grundlegend durch Waageleinen erzeugt. Softkites kommen zum Teil mit 3 Leinen aus. Bei diesem System gehen die drei Waageleinen in eine Mittelleine (Frontline) und zwei Steuerleinen (Backlines) über. Manche Matten haben hingegen Anknüpfpunkte wie Tubekites (4-Leiner). Tubekites. Ein C-Kite; gut zu erkennen ist die Eckige Form an beiden Enden C-Kite. Der C-Kite hat seinen Namen dank seiner C-förmigen, also sehr gebogenen Schirmform. Dies führt zu einer kleineren Oberfläche, die entsprechend weniger Wind „fangen“ kann. Er zählt zu den Tubekites und seine Fronttube verläuft zu beiden Enden hin eckig. Der C-Kite ist die älteste Form der LEI Kites und ist an vier Leinen befestigt, mit der Möglichkeit auf eine fünfte Leine. Die vier Leinen sind jeweils an den Ecken der beiden Schirmenden befestigt. Der Hauptunterschied zwischen dem C-Kite und anderen Tubekites sind die fehlenden Waageleinen (bridles) an der Anströmkante, was zu einer sehr geringen Depower und zu einer stärkeren Zugkraft auf die Bar führt. Diese großen Kräfte auf der Bar gibt dem Kiter ein sehr direktes Fahrgefühl. Außerdem ist es ohne bridle schwieriger den Kite nach einem Sturz wieder zu starten (relaunch). Mit der bereits erwähnten fünften Leine als Option ist das Starten allerdings sehr verlässlich. Um den C-Kite zu depowern, ist die richtige Technik zu verwenden. Er muss ins richtige Windfenster gesteuert werden, um die erwünschten Kräfte zu erreichen. Der C-Kite wird hauptsächlich von guten Wakestyle und Freestyle Fahrern genutzt und ist auf Grund seiner geringen Depower-Möglichkeit und dem schwierigen Wasserstart für Anfänger weniger geeignet. Bow-Kites. Die Bow-Kites sind den C-Kites in der Konstruktion sehr ähnlich, jedoch fällt das Profil wesentlich flacher aus und die Fronttube verläuft nicht linear, sondern ist zu den beiden Enden hin bogenförmig herumgezogen, was zur Namensgebung führte. Der Bogenschirm besitzt darüber hinaus „Waageschnüre“ mit mehreren Anknüpfungspunkten am Drachen. Durch diese optimierte Form und „Aufhängung“ kann man durch Wegschieben der Bar den Anstellwinkel des Drachens zum Wind über einen im Vergleich größeren Bereich bis nahezu 100 % Depower verstellen, das heißt im Normalfall zieht der Kite den Surfer nicht mehr unvermittelt nach Lee (siehe Gefahren). Somit ist der Kite sehr gut für Anfänger geeignet und wird meist auch bei Kursen eingesetzt. Nachteilig an Bow-Kites ist das oft indirekte Fluggefühl, was besonders im fortgeschrittenen Freestyle-Bereich gegenüber C-Kites ein echtes Manko darstellt. Hybrid-Kites. Hybrid-Kites bilden eine Mischung aus C-Kites und Bow-Kites. Sie sind wie Bow-Kites meist SLE- (Supported Leading Edge) Kites bei denen die Fronttube durch Waageleinen an mehreren Anknüpfpunkten stabilisiert wird. Dadurch ergibt sich ähnlich wie bei Bow-Kites ein hohes Depower-Potential. Die Steuerleinen sind allerdings, ähnlich wie bei C-Kites, meistens direkt am Drachen angeknüpft. Daraus ergeben sich ein direkteres Flug- und Lenkgefühl sowie geringere Kräfte an der Bar. Diese Merkmale werden besonders von fortgeschrittenen Fahrern gefordert. Für Anfänger sind Hybrid-Kites nicht so fehlerverzeihend wie Bow- oder Delta-Kites. Delta-Kites. Delta-Shape-Kites sind eine Weiterentwicklung der Bow-Kites. Von der französischen Kitesurfmarke F-one Kites wurden sie 2007 auf den Markt gebracht und schnell von anderen Marken nachgeahmt. Sie werden mit 4–5 Leinen geflogen. Wie die Bow-Kites bieten sie fast 100 % Depower und tragen dazu bei, den Sport sicherer zu machen. Auch Delta-Kites haben an der Fronttube Bridles (Waageleinen), die es möglich machen, den Kite in einen steileren Anstellwinkel zum Wind zu stellen, und dadurch leichter und sicherer für Einsteiger zu fliegen sind. Die Kites besitzen eine Deltaform und ähneln den Bow-Kites. Delta-Kites sind zurzeit die Kites mit den besten Wasserstarteigenschaften. Sobald sie auf dem Wasser oder Schnee liegen, treiben sie an den Windfensterrand und lassen sich durch Ziehen an der jeweiligen Steuerleine aus dem Wasser starten. Es gibt auch kleinere Schirme bis zu 6 Quadratmeter. Steuern. Der Kitesurfer regelt seinen Kurs und seine Geschwindigkeit über die Steuerung des Schirms und des Brettes. Die Kurse zum Wind können ähnlich wie ein Segler oder Windsurfer gewählt werden, das heißt gegen den Wind kann nicht direkt angefahren, sondern nur gekreuzt werden, und alle anderen Kurse sind möglich. Unterschiede ergeben sich gegenüber den anderen Segelsportlern unter anderem durch die Eigengeschwindigkeit und die Flughöhe des Drachens. Letztere beträgt je nach Leinenlänge maximal 30 Meter. In dieser Höhe ist der Wind meist stärker, konstanter und frei von Turbulenzen. Die Bar ermöglicht dem Kitesurfer, über die Leinen den Schirm im Windfenster zu steuern und damit seinen Kurs zum Wind zu bestimmen. Zur Richtungsänderung wird die Seite der Bar, in die man fahren möchte, behutsam zum Körper hingezogen und somit der Kite in diese bewegt. Bei einer Richtungsänderung (Halse) wird der Kite langsam in den Zenit und schließlich in den anderen Teil des Windfensters bewegt. Das Wenden kann mit einem „Basic Jibe“, der "Trambahn-Halse" erfolgen, oder mit der richtigen Wende, dem sogenannten „Carved Jibe“. Bei der Trambahn-Halse steht der Kiter kurz, bevor er in die andere Richtung weiterfährt, bei der Carved Jibe fährt der Kiter einen Halbkreis nach Lee und fährt anschließend in die andere Richtung weiter, anstatt stehen zu bleiben. Zusätzlich zu den Lenkbewegungen muss der Kitesurfer mit dem hinteren Fuß das Board belasten, um dem Kite einen Widerstand zu bieten. Ein Kiter im Amwindkurs, starke Rückenlage und Kantenbelastung Grundlage für das Kitesurfen ist das Beherrschen des sogenannten „Höhelaufens“, also durch gezieltes Lenken auf einer gedachten Linie fahren und nach einer Wende wieder beim Ausgangspunkt ankommen, und dabei nicht zu weit nach Lee abgetrieben zu werden. Beim Höhelaufen spielt vor allem die Boardsteuerung durch Gewichtsverlagerung eine große Rolle. Der normale Kurs ist der "Halbwindkurs", bei dem der Surfer etwa rechtwinklig zur Windrichtung fährt. Dadurch ist im besten Fall ein exakt gerades Fahren möglich. Lehnt er sich weiter nach vorne, fährt er auf "Raumwindkurs" und steuert so nach Lee. Lehnt er sich ausgehend vom "Halbwindkurs" weiter nach hinten, fährt er auf "Amwindkurs". Durch den Raumwind- und Amwindkurs lässt sich somit nach Lee und Luv lenken, also nach „vorne“ und „hinten“ oder „in“ das Windfenster und „aus“ dem Windfenster heraus. Sollten zwei Kiter also aufeinander zu fahren, lässt sich ein Zusammenstoß vermeiden, indem der Leegewandte nach vorne in den Raumwindkurs, und der Luvgewandte nach hinten in den Amwindkurs ausweicht. Start des Kites. Die Vorgehensweise beim Start des Schirms ist vom eingesetzten System abhängig. Beim Tubekite ist ein Starthelfer sinnvoll. Er hält den Schirm am Windfensterrand, wo der Schirm nicht so viel Zug entwickelt, so dass der Sportler den Schirm gefahrlos in den Zenit fliegen kann. Ohne Starthelfer kann der Schirm an einer umgeschlagenen Schirmecke mit Sand oder Sandsäcken am Boden gehalten werden. Zum Start werden die Sandsäcke durch Zug an den betreffenden Leinen abgeworfen und der Schirm steigt zum Himmel auf. Bestimmte Ram-Air-Schirme können auch ohne Helfer gestartet werden. Diese Drachen sollten möglichst auch nicht in der direkten Leistungszone gestartet werden – es sei denn, der Wind ist unter 3 bft. Aus Sicherheitsgründen ist aber auch bei diesen Schirmen ein Helfer angebracht, der den Sportler davor bewahrt, ungewollt nach vorne gezogen zu werden. Das gilt, insbesondere bei extrem viel Wind, auch für den Tubekite-Start. Wasserstart. Nach einer Wasserlandung von Tubeschirmen, bei der der Drachen meist verkehrtherum, also mit dem Frontschlauch auf dem Wasser aufliegt, versucht der Kitesurfer den Drachen durch Be- und anschließendes Entlasten (in Richtung des Schirms schwimmend) der Frontleinen den Schirm auf den „Rücken“, das heißt die Schirm-Oberseite, zu legen. Durch Steuerbewegungen, meist an einer der Steuerleinen, wird der Schirm vorsichtig aus der Leistungszone zum Windfensterrand bewegt. Dort kann der Schirm durch Zug an der nach oben weisenden Steuerleine wieder gestartet werden. Systeme mit einer fünften Leine am Frontschlauch (vorderer, C-förmiger Schlauch) vereinfachen das Umklappen des Drachens und damit den Wasserstart. Insbesondere ist damit auch ein Start in der Leistungszone möglich, der bei Tubeschirmen ansonsten sehr gefährlich werden kann („Russenstart“), weil der Sportler je nach Windzug nach oben und vorne gerissen wird. Liegt der Schirm verkehrtherum ist ein sogenannter "Rückwärtsstart" möglich, wenn der Schirm eine entsprechende Vorrichtung hat. Mattenschirme (3-/4-Leiner) lassen sich recht einfach durch Ziehen an den Backleinen (Leinen, die an der Hinterkante des Schirms angebracht sind) rückwärts starten. Der Drachen erhebt sich dann rückwärts fliegend und kann nach Erreichen von einigen Metern Höhe durch eine 180°-Drehung wieder in die Vorwärtsposition gebracht werden. Einige Tubeschirme haben zum Rückwärts-Start spezielle Leinen, die über ein Umlenksystem oder direkt auf die Hinterkante des Schirms wirken, was ein Rückwärtsfliegen möglich macht. Rückwärtsstart-Systeme sind insbesondere zur Benutzung auf dem Land (auf Schnee) vorteilhaft. Die sogenannten Bow-Schirme haben die Haupttube bogenförmig nach hinten geschnitten, sodass der Schirm nicht mehr mit der gesamten Vorderkante auf Land oder Wasser aufliegt. Durch eine aufgefächerte Anlenkung der vorderen Leinen sind zusätzlich die Ohren vom Untergrund bzw. Wasser abgehoben. Beim Neustart kann sich ein solcher Schirm ohne direkt auf dem „Rücken“ zu liegen ans Windfenster bewegen und wieder hochsteigen. Der Übergang aus der Powerzone ist wesentlich schneller und weicher. Delta-Shape-Kites sind zurzeit die Kites mit den besten Wasserstarteigenschaften. Sobald sie auf dem Wasser oder Schnee liegen, treiben sie an den Windfensterrand und lassen sich durch Ziehen an der jeweiligen Steuerleine aus dem Wasser starten. Springen. Ein Kiter springt, indem er den Drachen in voller Fahrt über den Zenit in den anderen Windfensterrand bewegt durch den Auftrieb des Kites schließlich in die Luft gehoben wird. Es lassen sich so große Sprünge – teils schon Flüge – vollbringen. Um nicht nach vorne zu drehen und sich dadurch mit dem Rücken in Flugrichtung zu befinden, sollte der Sportler eine möglichst kompakte Haltung einnehmen und eine hohe Körperspannung aufbauen. Zum Landen wird der Kite langsam wieder in den ursprünglichen Windfensterrand zurückgelenkt. Einen einfachen Sprung nennt man "Basic Jump", "Air" oder bei einem besonders hohen und/oder weitem Sprung "Big Air" Schematische Darstellung aller Grabtricks beim Kiteboarden. Grün = Vorderhand, Ockerbraun = Rückhand. Der Pfeil gibt die Windrichtung an. Wie auch beim Snowboarden, Skaten und ähnlichen Sportarten sind sowohl "Flip-" als auch "Grab-Tricks" und darüber hinaus "One-Foots", "Board-Offs", und aus dem Wakeboarden adaptierte Tricks wie "Raileys" möglich. Fachausdrücke beim Kitesurfen. Wakestyle: Eine Disziplin bei der Tricks die ursprünglich aus dem Wakeboarden kommen beim Kiten ausgeführt werden. Die Tricks sind dabei meist ausgehakt. Gefahrenpotenzial. Kiten birgt wie jede Wasser- und Flugsportart einige Risiken, die sich nicht vollständig reduzieren lassen. Unfälle sind häufig auf schlecht ausgebildete, auch leichtsinnige Kitesurfer sowie Mängel bei der Ausrüstung zurückzuführen. Insbesondere über Land und bei festen Hindernissen ist der Kitesurfer in Gefahr. Da Kitesurfen noch eine recht junge Sportart ist und viele (vorwiegend zwischen 15 und 25 Jahren) Kitesurfer ihr Können überschätzen, gibt es regelmäßig Unfälle, nicht selten mit schweren Verletzungen. Durch neuere Konstruktionen der Kites und ein zunehmendes Gefahrenbewusstsein wird Kiten sicherer. Ein Verletzungs-Risiko geht auch von den Leinen aus, welche unter hoher Zugspannung sehr „scharf“ sind. Das statistische Unfallrisiko beim Kitesurfen wird kontrovers diskutiert. Belastbare Belege für das tatsächliche Risiko gibt es bisher nicht. Studien, die sich mit Kitesurf-Unfällen auseinandersetzen, behandeln die Unfallursachen und deren mögliche Vermeidung, nicht jedoch die Unfallhäufigkeit. Regeln. Der Schifffahrtsverkehr wird durch internationale, zum Teil auch durch nationale, Vorschriften geregelt, als „Verkehrsteilnehmer“ gelten diese daher auch für Kitesurfer. Auf der Hohen See und auf den mit dieser verbundenen Gewässern gelten die internationalen Kollisionsverhütungsregeln. Zudem können in den jeweiligen Hoheitsgewässern weitere und/oder von den Kollisionsverhütungsregeln abweichende Vorschriften gelten, die dann Vorrang haben. Auf innerstaatlichen Flüssen, Kanälen und sonstigen befahrenen Gewässern wie großen Seen gilt die Binnenschifffahrtsstraßen-Ordnung. Rekorde. Wie bei anderen Extremsportarten gibt es auch beim Kitesurfen mehrere Rekorde in unterschiedlichen Disziplinen, wobei meist zwischen offiziellen und inoffiziellen unterschieden wird. Sprünge. Bei Sprüngen liegt der offizielle Rekord für die Höhe bei rund 10 Metern (inoffiziell bei 48 Metern) und einer Weite von 250 Metern. Der längste bisher beweisbare Sprung dauerte 22 Sekunden und wurde am 28. Juli 2007 von Jessie Richman in der Golden-Gate-Meeresenge vor San Francisco durchgeführt. Geschwindigkeit. Der offizielle Geschwindigkeits-Weltrekordhalter nach Version des WGPSSRC ist der Franzose Sebastian Catellan mit 56,87 Knoten (105,32 km/h) als Durchschnittsgeschwindigkeit über 10 Sekunden am 28. Oktober 2009 bei der Lüderitz Speed Challenge in Lüderitz in Namibia. Nach der Version des WSSRC liegt der offizielle Geschwindigkeits-Weltrekord bei 50,98 Knoten (94,41 km/h) bei einer gemessenen Durchschnittsgeschwindigkeit über 500 m. Er wurde vom Franzosen Alexandre Caizergues am 14. November 2009 ebenfalls in Lüderitz aufgestellt. Laut dem Guinness-Buch der Rekorde liegt der Geschwindigkeits-Weltrekord vom US-Amerikaner Rob Douglas bei 55,65 Knoten (103 km/h). Auch dieser Rekord wurde bei der Lüderitz Speed Challenge am 28. Oktober 2010 erreicht. Distanz. Beim Kiteboarden ist es auch möglich längere Distanzen zu fahren, daher gibt es auch in dieser (inoffiziellen) Disziplin mehrere Rekorde. Krebs (Medizin). Krebs bezeichnet in der Medizin eine bösartige Gewebeneubildung (Neoplasie) bzw. einen malignen (bösartigen) Tumor (Krebsgeschwulst, syn. Malignom). Im engeren Sinn sind die malignen epithelialen Tumoren (Karzinome), dann auch die malignen mesenchymalen Tumoren (Sarkome) gemeint. Im weiteren Sinne werden auch die bösartigen Hämoblastosen als Krebs bezeichnet, wie beispielsweise Leukämie als „Blutkrebs“. Alle sonstigen Tumoren, zu denen auch benigne (gutartige) Neoplasien zählen, sind kein „gutartiger Krebs“ oder Krebs irgendeiner Form. Diese sind Gewebsvermehrungen oder Raumforderungen im Körper, die keine Metastasen bilden. Das betrifft sowohl die Schwellung bei einer Entzündung als auch gutartige Neoplasien (Neubildungen von Körpergewebe durch Fehlregulationen des Zellwachstums). Gutartige Tumore wie Muttermale und Fettgeschwülste (Lipome) werden in der Fachsprache nicht als Krebs bezeichnet, aber sie können trotzdem gefährlich werden, da sie entarten können oder lebenswichtige Organe in deren Funktion beeinträchtigen (etwa der Kleinhirn-Brückenwinkeltumor). Krebs ist im allgemeinen Sprachgebrauch ein Sammelbegriff für eine Vielzahl verwandter Krankheiten, bei denen Körperzellen unkontrolliert wachsen, sich teilen und gesundes Gewebe verdrängen und zerstören können. Krebs hat unterschiedliche Auslöser, die letztlich alle zu einer Störung des genetisch geregelten Gleichgewichts zwischen Zellzyklus (Wachstum und Teilung) und Zelltod (Apoptose) führen. Die sich dem Krebs widmende medizinische Fachdisziplin ist die Onkologie. Vorkommen und Verlauf. Prinzipiell kann jedes Organ des menschlichen Körpers von Krebs befallen werden. Es gibt jedoch erhebliche Häufigkeitsunterschiede nach Alter, Geschlecht, kollektiver Zugehörigkeit, geographischer Region, Ernährungsgewohnheiten und ähnlichen Faktoren. In Deutschland treten Krebserkrankungen gehäuft in Organen wie Brustdrüse (Frauen), Prostata (Männer), Lunge und Dickdarm auf. Krebs (in Rot dargestellt) ist in Deutschland bei Männern und Frauen die zweithäufigste Todesursache. Zellteilung im gesunden Gewebe gegenüber der bei Krebs Herz-Kreislauferkrankungen die zweithäufigste Todesursache. Dennoch ist nicht jeder Krebsverlauf tödlich, falls rechtzeitig eine Therapie begonnen wird oder ein langsam wachsender Krebs erst in so hohem Lebensalter auftritt, dass der Patient an einer anderen Todesursache verstirbt. Die aktuellen von der "Gesellschaft der epidemiologischen Krebsregister in Deutschland e. V." (GEKID) 2012 veröffentlichten relativen 5-Jahresüberlebensraten über alle Krebsarten beziehen sich auf Patienten, die 2007 und 2008 erkrankten. Für Frauen lag der Wert bei 64 %, für Männer bei 59 %. In nordeuropäischen Ländern gibt es noch günstigere Werte. In Finnland lagen beispielsweise die 5-Jahresüberlebensraten von Frauen und Männern, die 2007–2009 erkrankten, bei 65 % bzw. 62 %. Als "geheilt" wird in der Onkologie ein Patient bezeichnet, der mindestens fünf Jahre lang ohne Rückfall (Rezidiv) überlebt. Diese Definition von „geheilt“ ist problematisch, weil viele Rückfälle erst zu einem späteren Zeitpunkt erfolgen. Es fließen mithin Patienten in die Krebs-Erfolgsstatistik ein, die später an Krebs sterben. Allerdings nähert sich bei den meisten Krebsarten nach rezidivfrei überlebten fünf Jahren die durchschnittliche Lebenserwartung derjenigen von Gleichaltrigen an. Eine Krebserkrankung äußert sich in verschiedenen Ausprägungen und Krankheitsbildern. Aus diesem Grund können keine generellen Aussagen bezüglich Lebenserwartung und Heilungschancen getroffen werden. Es sind gegenwärtig etwa 100 verschiedene Krebserkrankungen bekannt, die sich in Überlebenschance, Behandlungsmöglichkeiten und der Neigung zur Bildung von Metastasen teilweise stark unterscheiden. Die Häufigkeit der meisten Krebserkrankungen nimmt mit dem Alter deutlich zu, so dass man Krebs auch als eine "Alterserkrankung des Zellwachstums" ansehen kann. Daneben sind das Rauchen, andere karzinogene Noxen, familiäre Disposition (Veranlagung) und Virusinfektionen die Hauptursachen für Krebserkrankungen. Der Nobelpreisträger Harald zur Hausen führt gut 20 Prozent aller Krebserkrankungen auf Infektionen zurück (Humane Papillomviren (HPV), Hepatitis B und C, "Helicobacter pylori", EBV, Humanes Herpesvirus 8 (HHV-8), Humanes T-lymphotropes Virus 1 (HTLV-1), bestimmte Parasiten (Blasenkrebs im Nildelta) und Merkelzell-Polyoma-Virus). In Deutschland und den Vereinigten Staaten wird dieser Anteil als deutlich geringer eingeschätzt und mit etwa 5 Prozent angenommen. Durch Krebsvorbeugung und Früherkennung kann das Krebsrisiko unter bestimmten Umständen (abhängig vom Diagnosezeitpunkt, der Krebsart und einem dafür optimalen Alter des Patienten) deutlich verringert werden. Krebs ist keinesfalls eine Erkrankung der Neuzeit. Es ist eine evolutionsgeschichtlich gesehen sehr alte Erkrankung, die prinzipiell zumindest alle Säugetiere betreffen kann. Krebs kommt im humanmedizinischen Sinne bei anderen Organismengruppen wie Pflanzen oder Reptilien (die ältesten Tumorbefunde liefern Saurierknochen) wahrscheinlich nicht vor; Gewebswucherungen sind hier eher als benigne Tumoren anzusprechen. Auch die unmittelbaren Vorfahren des Menschen (Homo), wie beispielsweise der Australopithecus (vor 2 bis 4,2 Millionen Jahren), hatten Krebs. Krebserkrankungen haben die Menschheit während der gesamten Evolution begleitet. Im Papyrus Ebers aus der Zeit 1550 vor Christus werden Krebserkrankungen erwähnt. Namensgeschichte. Aristoteles bezeichnete als Krebs oberflächlich feststellbare, in benachbarte Organe infiltrierende und einwachsende Geschwülste (etwa fortgeschrittener Hautkrebs oder Brustkrebs). Im Mittelalter galt der Brustbereich dem Tierkreiszeichen Krebs zugehörig (vgl. "Homo signorum"). Krebsentstehung. Krebsentstehung durch Ungleichgewicht von Zellwachstum und -tod In einem gesunden Organismus werden die Zelltypen, aus denen sich die verschiedenen Gewebe der Organe aufbauen, in einem ausgewogenen artspezifischen Gleichgewicht gebildet und regeneriert, was als Homöostase bezeichnet wird. In diesem Zustand der Homöostase gibt es ein Gleichgewicht zwischen der Vermehrung von Zellen (Zellproliferation) und dem Zelltod. Der Hauptanteil des Absterbens von Zellen erfolgt dabei durch Apoptose, bei der die Zellen „Selbstmord“ begehen. In pathologischen Situationen kann dieses Absterben auch durch Nekrose geschehen. Bei Krebs ist dieses Gleichgewicht zu Gunsten des Zellwachstums verändert. Die Krebszellen wachsen dabei ungehindert, da hemmende Signale nicht erkannt oder nicht ausgeführt werden. Der Grund liegt in Defekten des benötigten genetischen Codes, die durch Mutationen im Genom entstanden sind. Weitere Beispiele einer Deregulation der Homöostase sind mit zu viel Zellwachstum Autoimmunerkrankungen und mit zu viel Zelltod AIDS, Hepatitis B und neurodegenerative Erkrankungen. Etwa 5.000 der insgesamt 25.000 Gene des Menschen sind für die sichere Erhaltung des genetischen Codes von einer Zellgeneration zur nächsten zuständig. Diese sogenannten Tumorsuppressorgene überwachen die korrekte Abfolge der Basenpaare in der DNA nach jeder Reduplikation, entscheiden über die Notwendigkeit von Reparaturvorgängen, halten den Zellzyklus an, bis die Reparaturen ausgeführt sind, und veranlassen gegebenenfalls einen programmierten Zelltod (Apoptose), falls die Reparatur nicht zum Erfolg führt. Daneben sind die Protoonkogene zuständig für die Einleitung oder den Unterhalt der Proliferation der Zelle und ihrer anschließenden Entwicklung zu einem bestimmten Zelltyp (Differenzierung). Nach der heute als plausibel geltenden Theorie der Krebsentstehung (Karzinogenese) ist das primäre Krankheitsereignis eine Veränderung in einem dieser Wächtergene − entweder durch einen Kopierfehler oder seltener durch eine angeborene Mutation. Dieses Gen kann dann den von ihm überwachten Teilschritt nicht mehr korrekt begleiten, so dass es in der nächsten Zellgeneration zu weiteren Defekten kommen kann. Ist ein zweites Wächtergen betroffen, so potenziert sich der Effekt fortlaufend. Wenn auch Apoptose-Gene (z. B. p53) betroffen sind, die in einer solchen Situation den programmierten Zelltod auslösen müssten, werden diese Zellen potentiell unsterblich. Durch die Aktivierung der Protoonkogene wird ein Krebs zum Wachstum angeregt, was in einer Raumforderung und in Folge zu auftretenden Schmerzen führen kann. Zur Krebsentstehung sind mehrere solcher Mutationen notwendig (engl. '). Die Proliferation einer in den relevanten Genen veränderten Zelle zu einem Zellhaufen vergrößert dabei entscheidend die Wahrscheinlichkeit für eine weitere relevante genetische Veränderung im Rahmen des Mehrschrittprozesses, da bei jedem Kopiervorgang der DNA Fehler entstehen können. Solche Veränderungen können auch durch äußere Einflüsse (z. B. krebserregende Stoffe, Onkoviren) induziert werden, oder durch eine genetische Instabilität der veränderten Zellpopulation zustande kommen. Irritierende Reize können durch Erhöhung der Proliferation diesen Prozess beschleunigen. Während bei einigen Tumoren eine oder zwei Mutationen ausreichen können, gibt es auch Tumoren, bei welchen bis zu zehn verschiedene Mutationen erfolgt sein müssen. Einige dieser notwendigen Mutationen können vererbt werden, was erklärt, dass auch sehr kleine Kinder an Krebs erkranken können und dass Krebs in sogenannten „Krebsfamilien“ gehäuft auftreten kann. Ein typisches Beispiel dafür ist das vererbbare "Xeroderma pigmentosum". Bei nahen Verwandten von Patientinnen mit Brustkrebs ist die Wahrscheinlichkeit, Brustkrebs zu bekommen, doppelt so hoch wie in der übrigen Bevölkerung. In den dazwischenliegenden Schritten der Tumorentstehung (Promotion und Progression) spielen nicht genotoxische Prozesse eine große Rolle, was Beobachter dazu verleiten könnte, diese Einflüsse als eigentliche „Krebserreger“ einzustufen. Durch weitere Veränderungen der DNA kann die Zelle zusätzliche Eigenschaften ausbilden, die eine Behandlung der Krebserkrankung erschweren, darunter die Fähigkeit, unter Sauerstoffmangel zu überleben, eine eigene Blutversorgung aufzubauen (Angiogenese) oder aus dem Verband auszuwandern und sich in fremden Geweben wie Knochen (Knochenmetastase), Lunge (Lungenmetastase), Leber (Lebermetastase) oder Gehirn (Hirnmetastase) anzusiedeln (Metastasierung). Erst durch diese Fähigkeit gewinnt der Krebs seine tödliche Potenz: 90 % aller Krebspatienten, bei denen die Krankheit tödlich ausgeht, sterben nicht am Primärtumor, sondern an den Folgekrankheiten der Metastasierung. Das Immunsystem versucht grundsätzlich, die unkontrolliert wachsenden Zellen aufzuspüren und zu bekämpfen (engl. '). Erste Vermutungen, dass Tumore durch eine Immunreaktion schrumpfen oder verschwinden können, sind von Louis Pasteur aufgestellt worden, eine genauere Beschreibung erfolgte jedoch erst 1957 durch Thomas und Burnet. Da diese aber in vielerlei Hinsicht normalen Körperzellen gleichen, sind die Unterschiede und damit die Abwehrmaßnahmen meist nicht ausreichend, um den Tumor zu kontrollieren. Krebszellen sind häufig aneuploid, das heißt, sie haben dann eine veränderte Chromosomenzahl. Es wird momentan untersucht, ob die Aneuploidie von Krebszellen Ursache oder Folge der Erkrankung ist. Damit verbunden ist die Theorie, wonach die Entstehung von Krebs nicht oder nicht nur auf die Mutation einzelner Gene, sondern vor allem auf die Veränderung des kompletten Chromosomensatzes zurückgeht. Diese Unterschiede in den Chromosomensätzen entarteter Zellen führte auch zur Betrachtung mancher Krebsarten als einer jeweils neuen Spezies. Mehrschrittmodell/Dreistufenmodell. Die meisten Krebsforscher gehen vom sogenannten ‚Mehrschrittmodell‘ der Krebsentstehung aus. Das Mehrschrittmodell versucht die Krebsentwicklung ursächlich zu verstehen. Hierbei entspricht jeder einzelne Schritt einer bestimmten genetischen Veränderung. Jede dieser Mutationen wiederum treibt die stufenweise fortschreitende Verwandlung einer einzelnen normalen Zelle in hochmaligne Abkömmlinge voran (Maligne Transformation). Die eigentliche Malignität (bei malignen Tumoren) der entarteten Zelle wird in der Phase der Progression erreicht. Die Begriffe Promotion und Progression werden zunehmend vom Begriff der Co-Karzinogenese ersetzt. Das ältere sogenannte ‚Dreistufenmodell‘ gliedert die Krebsentstehung dagegen in Phasen: Initiation, Promotion und Progression. So soll die Jahre bzw. Jahrzehnte dauernde Latenzphase zwischen dem initialen DNA-Schaden, also der Transformation einer einzelnen Zelle, und dem nachweisbaren Tumor erklärt werden. Problematisch am Dreistufenmodell ist, dass die Begrifflichkeiten "Initiation", "Promotion" und "Progression" lediglich beschreiben und nicht die Ursache erklären. Monoklonales Modell vs. Stammzellenmodell. Die monoklonale Theorie der Krebsentstehung geht davon aus, dass alle Tumorzellen gleich sind, d. h. sofern sie zur Teilung in der Lage sind, können sie jederzeit Ausgangspunkt neuer Tumore werden. Das Stammzellenmodell beschreibt dagegen eine Hierarchie: aus wenigen Krebsstammzellen leiten sich die normalen Krebszellen ab, die den Tumor durch häufige Teilung vergrößern. Solche Stammzellen könnten erklären, warum Chemo- oder Strahlentherapien einen bestehenden Tumor zunächst verschwinden lassen, es aber dennoch nach einiger Zeit zum Wiederauftauchen der Tumore kommt: da sich die Stammzellen deutlich seltener teilen als Tumorzellen, sind sie auch durch die meisten Chemotherapien weniger verwundbar. Aus den verbleibenden Stammzellen würden dann neue, sich schnell teilende Tumorzellen gebildet. Inwieweit solche Tumorstammzellen existieren und ob sie trotz Resistenz gegenüber bisherigen Behandlungsansätzen eliminiert werden können, ist Gegenstand der aktuellen Forschung. Im Jahr 2009 gab es erste Hinweise solcher Resistenzen bei Brustkrebsstammzellen. 2012 lieferten einige Forschungsarbeiten unabhängig voneinander weitere Hinweise auf Stammzellen bei gutartigen Tumoren von Haut und Darm, aber auch bei Glioblastomen, einem bösartigen Gehirntumor. Eine neue Theorie des Krebsforschungspioniers Robert Weinberg vergleicht das Verhalten von Tumoren und Embryonen (siehe auch den Abschnitt Historische Annahmen). Eine befruchtete menschliche Eizelle (Zygote) bzw. der Embryo wird nicht von der Gebärmutterschleimhaut passiv versorgt, sondern nistet sich aktiv durch Invasion in ihr ein und lockt mit bestimmten Faktoren kleine Blutgefäße zur Versorgung an. Danach teilt sich die Zygote/der Embryo sehr häufig und vermehrt sich so exponentiell. Genau diese drei Verhaltensweisen kennzeichnen erstaunlicherweise eine invasive metastasierende Krebszelle. Da Krebszellen bekanntermaßen embryonale Gene reaktivieren (z. B. für das Alpha-1-Fetoprotein), liegt der Schluss nahe, dass Krebs aus Körper- oder adulten Stammzellen entsteht (s.o.), die durch Fehlsteuerung ein früheres Entwicklungsstadium wiederholen, wenn auch völlig unreguliert. Daher sind maligne Tumoren, d. h. Sarkome und Karzinome, sehr wahrscheinlich auf Säugetiere beschränkt, da nur sie die embryonalen Invasionsgene besitzen. Historische Annahmen. 1902 schrieb John Beard, dass Krebszellen trophoblastischen Embryonalzellen glichen. Zu Beginn einer Schwangerschaft sorgten diese Zellen dafür, dass sich der Embryo in der Gebärmutter einnisten könne. Das Wachstum sei aggressiv und chaotisch. Die Zellen teilten sich schnell und gewinnen ihre Energie aus der Zuckergärung. Sie unterdrückten das Immunsystem der Mutter und produzierten humanes Choriongonadotropin (hCG), das mittlerweile als Tumormarker anerkannt ist. Die Wucherung stoppt erst, wenn der Embryo ab der siebten Woche Pankreasenzyme erzeugt. Ohne diese Enzyme entstünde der bösartigste Tumor, das Chorionkarzinom. Die Annahme, dass Krebstumoren Energie aus der Zuckergärung gewinnen (d. h. der Tumor würde anaerob leben), war die Basis für viele überholte Behandlungsmethoden. Im Jahr 1908 entdeckten Vilhelm Ellermann (1871–1924) und Oluf Bang (1881–1937) ein Virus, das Leukämie in Hühnern verursachte. Peyton Rous war es dann, der 1911 aus einem Muskeltumor mit der hohen Filterfeinheit von 120 Nanometern einen Extrakt filterte, mit dem er wieder Krebs erzeugen konnte. Er vermutete in diesem Extrakt ein Virus. 1966 erhielt Rous für diese Entdeckung des Rous-Sarkom-Virus (RSV) den Nobelpreis. Systemische Wirkungen. Tumoren können auf unterschiedliche Weise den gesamten Organismus beeinflussen. Vom Primärtumor ausgehende Tochtergeschwulste können sich in anderen Organen ansiedeln und hier durch lokales Wachstum Gewebe zerstören und zu Funktionsstörungen führen. Bei vielen Patienten kommt es im Laufe der Krebserkrankung zu einem allgemeinen Kräfteverfall und Gewichtsverlust (Tumorkachexie, "Auszehrung"). Zu den systemischen Wirkungen von Tumoren werden auch sogenannte paraneoplastische Syndrome gerechnet. Hierbei kommt es zu charakteristischen Symptomen in verschiedenen Organsystemen, die letztlich durch den Tumor verursacht werden. Beispielsweise kann ein Lungenkrebs zu einer Störung der hormonellen Regulation des Wasserhaushalts führen (Schwartz-Bartter-Syndrom). Die meisten Patienten sterben nicht am Primärtumor, sondern an den Auswirkungen von dessen Metastasen. Deren unkontrollierte Vermehrung schädigt lebenswichtige Organe, bis diese ihre Funktion nicht mehr erfüllen können. Häufige unmittelbare Todesursachen sind Gefäßverschlüsse (Thromboembolien), Tumorkachexie oder vom Organismus nicht mehr beherrschbare Infektionen (Sepsis, "Blutvergiftung"). Einordnung der Krebsarten. Bösartige (maligne) Tumoren unterscheiden sich von gutartigen (benignen) Tumoren durch drei Kennzeichen: Sie wachsen Die Stadieneinteilung erfolgt bei malignen Tumoren nach der internationalen TNM-Klassifikation. Dabei steht T0 bis T4 für die Ausdehnung des Primär-Tumors, N0 bis N3 für den Lymphknotenbefall (engl. Node) und M0 bzw. M1 für das Fehlen oder Vorhandensein von Fern-Metastasen. Sonderformen. Daneben werden noch "semimaligne" Tumoren und Präkanzerosen unterschieden. Semimaligne Tumoren erfüllen nur zwei der genannten Kriterien, Präkanzerosen sind entartetes Gewebe, welches sich mit hoher Wahrscheinlichkeit zu malignen Tumoren entdifferenziert, aber noch nicht infiltrierend und metastasierend gewachsen ist. Der häufigste semimaligne Tumor ist das Basaliom, ein Tumor der Basalzellschicht vor allem der sonnenexponierten Haut, der infiltrierend und destruierend wächst, allerdings nicht metastasiert. Unbehandelt kann der Tumor das gesamte Gesicht einschließlich der Gesichtsknochen zerstören. Die weitaus häufigste Präkanzerose ist die zervikale intraepitheliale Neoplasie, eine Wucherung des Gebärmutterhalses, deren Zellen zellbiologisch Zeichen der Malignität aufweisen, allerdings vom Gewebe her noch nicht infiltriert, destruiert oder metastasiert haben. Zur Vorsorge wird Frauen der jährliche Gebärmutterabstrich nach Papanicolaou, auch PAP-Abstrich genannt, empfohlen, da Präkanzerosen sich deutlich besser behandeln lassen. Gewebeherkunft. Krebstumoren werden nach dem Typ des entarteten Gewebes klassifiziert. Den weitaus größten Teil aller Krebserkrankungen machen Karzinome aus, also Tumoren, die von Epithel ausgehen. Diese werden nochmals differenziert in Plattenepithel- oder squamöse Karzinome, die sich von verhornter und unverhornter (Schleim-)Haut ableiten, und Adenokarzinome, welche sich vom Drüsenepithel ableiten und je nach Ursprung und Aufbau weiter differenziert werden. Vom Übergangsgewebe ausgehende Karzinome werden als Urothelkarzinome bezeichnet und sind unter anderem für den Blasenkrebs typisch. Eine weitere große Gruppe sind die hämatologischen Krebsformen des Blutes und der blutbildenden Organe, die sich in Leukämien und Lymphome, auch „Lymphdrüsenkrebs“ genannt, unterteilen lassen. Daneben gibt es seltenere bösartige Tumoren, wie die vom Stütz- und Bindegewebe ausgehenden Sarkome, neuroendokrine Tumoren wie das Karzinoid oder von embryonalem Gewebe ausgehende Teratome (vor allem der Keimdrüsen). Lokalisation. Die Internationale statistische Klassifikation der Krankheiten und verwandter Gesundheitsprobleme (ICD-10) klassifiziert maligne Tumoren nach ihrer Lokalisation. Statistik. Qualitativ hochwertige Daten zur Krebsinzidenz weltweit werden seit den 1960er Jahren gesammelt und von der Internationalen Agentur für Krebsforschung (IARC), einer Organisation der WHO, veröffentlicht. Die WHO veröffentlicht für ausgewählte Länder zudem Daten zur Krebsmortalität. Etwa für ein Sechstel der Weltbevölkerung liegen Daten zur Inzidenz vor, für ein Drittel Daten zur Mortalität . Die Zahl der diagnostizierten Krebserkrankungen scheint jedoch immer weiter anzusteigen. Die WHO gibt an, dass 2012 14,1 Millionen Menschen an Krebs erkrankt sind – das sind 11 Prozent mehr als im Jahr 2008. Die Anzahl der Krebstoten stieg im gleichen Zeitraum um 8 Prozent auf 8,2 Millionen. Die weltweit häufigsten Krebsarten sind Lungenkrebs, Brustkrebs und Darmkrebs. Inzidenz und Mortalität der meisten Krebsarten (inklusive Lunge, Darm, Brust und Prostata) fallen in den Vereinigten Staaten und den meisten westlichen Ländern. In einigen Entwicklungs- und Schwellenländern steigen sie jedoch aufgrund der Übernahme eines ungesunden Lebenswandels (Rauchen, mangelnde körperliche Aktivität, Konsum energiedichter Nahrungsmittel). In ein paar dieser Länder liegen beispielsweise die Lungen- und Darmkrebsraten bereits über denen der Vereinigten Staaten. Entwicklungsländer sind jedoch immer noch überproportional von infektiösen Krebsarten betroffen (Gebärmutterhals, Leber, Magen). Der prozentuale Anteil ausgewählter Tumorlokalisationen an allen Krebsneuerkrankungen in Deutschland im Jahr 2006 Die Verteilung der Krebserkrankungen auf die einzelnen Organe bei Mann und Frau in Deutschland im Jahr 2007.Auf der x-Achse die altersstandardisierte Mortalitätsrate (erster Zahlenwert) und der prozentuale Anteil an den Krebserkrankungen (zweiter Zahlenwert in der Klammer). Statistisch gesehen entwickelt jeder dritte Europäer im Laufe seines Lebens Krebs. In Deutschland erkranken etwa 395.000 Menschen jährlich an Krebs, davon rund 195.000 Frauen und 200.000 Männer. Die meisten Fälle treten im Alter von über 60 Jahren auf. Die unter 60-jährigen machen mit etwa 107.000 Fällen nur rund ein Viertel der Krebs-Neuerkrankungen aus. Einer US-Studie zufolge sterben weltweit jeden Tag etwa 20.000 Menschen an den Folgen einer Krebserkrankung. 2007 gab es demnach etwa 7,6 Millionen Tote durch Krebs – davon 4,7 Millionen in Entwicklungsländern. Die Gesamtzahl aller jährlich weltweit neudiagnostizierten Krebserkrankungen wird dieser Quelle nach mit 12,3 Millionen angegeben. Dies war die erste Schätzung dieser Art. Beim Tod durch die Folgen des Rauchens rechnen Forscher weiter mit steigenden Zahlen. Im 20. Jahrhundert sei der Tabakkonsum Ursache für etwa 100 Millionen Todesfälle gewesen, im 21. Jahrhundert sei mit etwa einer Milliarde Toten zu rechnen. Jedes Jahr erkranken in Deutschland rund 1750 Kinder unter 15 Jahren an Krebs. Am häufigsten werden in dieser Altersgruppe Leukämien (34 Prozent), Tumoren des Gehirns (22 Prozent) und des Rückenmarks sowie Lymphknotenkrebs (12 Prozent) diagnostiziert. Jungen erkranken fast doppelt so häufig wie Mädchen. 5 Jahre nach der Diagnose leben noch 81 Prozent der Kinder, wenn sie sich behandeln lassen. In den 1950er Jahren waren es weniger als 10 Prozent. Nach fünf Jahren gelten die Kinder dann als geheilt. Diese Rate variiert zwischen 59 Prozent für die AML und 90 Prozent für die ALL bis zu 97 Prozent für das Retinoblastom. Die neuesten für Deutschland zur Verfügung stehenden statistischen Zahlen (Krebsregister des Saarlandes) ergeben für den Zeitraum von 1998 bis 2002 für alle Krebsarten eine relative 5-Jahres-Überlebensrate von 55 Prozent. Nach dieser fünfjährigen Überlebenszeit ergibt sich für die Überlebenden sodann meistens eine durchschnittliche Lebenserwartung, die der von Gleichaltrigen der allgemeinen Bevölkerung entspricht. Nur bei sehr wenigen Krebsarten ist dies nicht der Fall, hier muss eine 10-Jahres-Frist abgewartet werden. Von allen Krebsheilungen werden ca. 90 % ausschließlich durch die lokal auf die Tumorregion gerichtete, sogenannte lokoregionäre Behandlung, also durch Operation und Strahlentherapie (»Stahl und Strahl«) erreicht. Sehr selten gibt es auch Spontanremissionen. Sie treten nur bei etwa 1:50.000–100.000 Fällen auf. Als Spontanremission bezeichnet man ein komplettes oder teilweises Verschwinden eines bösartigen Tumors in Abwesenheit aller Behandlungen oder mit Behandlungen, für die bisher kein Wirksamkeitsnachweis geführt werden konnte. Allerdings liegt die Wahrscheinlichkeit solcher Spontanremissionen unter der Wahrscheinlichkeit einer Fehldiagnose. Trotz intensiver Forschung gelingt es zurzeit nicht, gezielt Spontanremissionen therapeutisch zu induzieren. „Wir beobachten seit 15 Jahren, dass die Krebssterblichkeit in den USA und Deutschland sinkt“, sagt Nikolaus Becker vom Deutschen Krebsforschungszentrum in Heidelberg. Den größten Anteil am Erfolg schreibt die US-Statistik der Darmkrebsfrüherkennung zu. Bei Männern sinkt die Lungenkrebs-Rate, weil sie weniger rauchen. Viele Malignompatienten tauchen in Krebsstatistiken offenbar nicht auf. Oft werden bösartige Tumoren nur durch eine Sektion aufgedeckt. In Hamburg hat man die zwischen 1994 und 2002 am Institut für Rechtsmedizin durchgeführten Autopsien in Sachen Krebsdiagnose genauer untersucht. 8844 Sektionen gingen in die Auswertung ein. Bei 519 Toten (5,9 %) fand sich ein bösartiger Tumor. Nur 58 dieser Fälle waren dem Krebsregister gemeldet worden. Zwei Drittel der Malignome waren zu Lebzeiten bekannt, 27,2 % wurden erst bei der Sektion entdeckt. Bei gut der Hälfte war der Krebs die Todesursache. Selbst von den letalen Tumoren waren 17 % erst bei der Autopsie erkannt worden. Damit scheinen die Krebsregister, die ja auf zu Lebzeiten bekannten Tumorerkrankungen basieren, nicht exakt zu sein. In den Krebsstatistiken werden zudem – mit Ausnahme des malignen Melanoms – sämtliche Hautkrebserkrankungen nicht erfasst. Deshalb enthält beispielsweise das Krebsregister "Krebs in Deutschland" nicht die 171.000 Fälle von Neuerkrankungen mit weißem Hautkrebs (Spinaliom, Basaliom) in Deutschland. Behandlungsmöglichkeiten. Um einen Tumor erfolgreich behandeln zu können, müssen aus den vorhandenen Behandlungsmethoden die für den jeweiligen Tumor am wirkungsvollsten eingesetzt werden. Welche Methoden jedoch die wirkungsvollsten sind, hängt vom individuellen Tumor ab. Die etablierte Herangehensweise basiert auf der Identifikation der Herkunft des Tumors innerhalb des Körpers (klinische Diagnose inklusive ICD) und der pathologischen Befundung (histologische Diagnose). Aufgrund der Herkunft lässt sich dann anhand von Leitlinien (bei häufigen Krebserkrankungen) eine Therapie festlegen. Dabei geht man davon aus, dass Tumoren gleicher Herkunft sich ähnlich behandeln lassen. Für eher seltene Krebsformen fehlen häufig diese Leitlinien und der Arzt steht vor der schwierigen Entscheidung die richtigen Methoden zu wählen. Weitere Hilfen, die zu einer gezielteren Auswahl der Therapiemethoden führen kann, sind zusätzliche diagnostische Verfahren (Krebsdiagnostik oder Tumordiagnostik). Neben dem zurzeit etablierten Verfahren der Therapie nach der Herkunft des Tumors versucht man mittlerweile, die Tumoren noch weiter zu unterteilen. Die Auffassung, dass jeder Krebs seine eigene Tumorbiologie hat, hat sich dabei weitgehend durchgesetzt. Dabei hat man sich zum Ziel gesetzt, die Therapie auf jeden Patienten gezielt abzustimmen. Dieses Vorhaben der Therapieindividualisierung wird mit dem Schlagwort personalisierte Medizin bezeichnet. Aktuelle Behandlungsmethoden. Übersicht über die Behandlungsalternativen bei Krebs Auch wenn häufig eine vollständige Heilung nicht erreicht werden kann, ist in Betracht zu ziehen, dass bei einem 75-jährigen Krebspatienten eine Lebenszeitverlängerung von 1 oder 2 Jahren schon als ein sehr gutes Resultat zu betrachten ist (ältere Krebspatienten sterben oft an etwas anderem als am Krebs), während bei einer 45-jährigen Brustkrebspatientin erst eine "10-jährige" Rückfallfreiheit als „sehr gut“ bewertet wird – denn sie hat eigentlich noch eine deutlich höhere Lebenserwartung. Alternative Behandlungsmethoden. Die unbefriedigende Heilungsrate bei bestimmten Tumorerkrankungen und die Nebenwirkungen der etablierten Behandlungsmethoden lösen oft Ängste und Verzweiflung bei den Betroffenen und deren Angehörigen aus. Dies führt unter Umständen zur Hinwendung zu unkonventionellen Behandlungsarten, denen in vielen Fällen der Nachweis der Wirksamkeit fehlt, und deren Grundlagen meist einer naturwissenschaftlichen Überprüfung nicht standhalten. Einige von ihnen werden als „Wunderheilung“ abgelehnt, andere hingegen als ergänzende Therapieverfahren auch von der evidenzbasierten Medizin akzeptiert. Zu den alternativen Behandlungsmethoden gehören unter anderem die Misteltherapie und die Verwendung von Amygdalin. Beide sind umstritten. Ein wissenschaftlich haltbarer Nachweis der Wirksamkeit wurde bisher weder für die Misteltherapie noch für Amygdalin erbracht. Völlig unabhängig davon sind eine Reihe erfolgreicher Zytostatika, wie beispielsweise Vincristin oder Paclitaxel, ursprünglich in Pflanzen gefunden worden. Diese Zytostatika sind aber hochrein und hochkonzentriert und deshalb nicht mit „Kräutertee“ oder ähnlichem zu vergleichen. Nahrungsergänzungsmittel sind keine Arzneimittel. Im Gegensatz zu Arzneimitteln, die ihre Wirksamkeit in Deutschland seit 1978 gemäß dem Arzneimittelgesetz nachweisen müssen, bevor eine Zulassung erfolgen kann, war dies bei Nahrungsergänzungsmitteln bisher nicht der Fall. Sie unterliegen dem Lebensmittel-, Bedarfsgegenstände- und Futtermittelgesetzbuch. Ein Nachweis auf Wirksamkeit muss gem. Verordnung EG Nr. 1924/2006 über nährwert- und gesundheitsbezogene Angaben bei Lebensmitteln neuerdings erbracht werden, wenn für das entsprechende Nahrungsergänzungsmittel mit einer Aussage geworben werden soll. Rechtlich gesehen dürfen solche Produkte sonst nicht mit krankheitsbezogenen Aussagen vertrieben werden. Dies wird jedoch – insbesondere bei über das Internet beworbenen Produkten – häufig unterlaufen. Die US-amerikanische Arzneimittelbehörde FDA warnt beispielsweise auf ihrer Internetseite vor dem Kauf von 125 Produkten von 23 Herstellern. Einige Hersteller, die unter anderem mit Slogans wie „heilt alle Krebsarten“ oder „wirkt gegen Krebszellen und schont gesundes Gewebe“ warben, wurden abgemahnt. Unter den aufgeführten Produkten befinden sich unter anderem „Heilpilze“, wie beispielsweise der Glänzende Lackporling (Reishi) oder der Brasilianische Mandelegerling ("Agaricus subrufescens"), Kräutertees wie Essiac, Vitamine und Mineralstoffe. Auf internationaler Ebene befasst sich die Organisation "Concerted Action for Complementary and Alternative Medicine for Cancer (CAM-Cancer)" mit den Methoden und Mitteln der Alternativ-/Komplementärmedizin zur Behandlung von Krebs und veröffentlicht Fachinformationen auf ihrer Website. Rehabilitation. Die Rehabilitation ist sinnvoll, um zusätzliche gesundheitliche Beeinträchtigungen möglichst gering zu halten, die Erwerbsfähigkeit wiederherzustellen und die Lebensqualität trotz der Erkrankung zu erhalten. Die Deutsche Krebshilfe und die Deutsche Krebsgesellschaft haben ihre gemeinsame Informationsarbeit verstärkt, um die Betroffenen über Rehabilitation zu informieren. Die Zahl der Anträge auf onkologische Rehabilitation ist seit 2011 rückläufig. Etwa 40 Prozent der Krebserkrankten in Deutschland befinden sich im erwerbstätigen Alter. Dennoch beantragen viele Krebspatienten keine Leistungen, die ihre Arbeitsfähigkeit wiederherstellen oder stabilisieren, trotzdem das durchaus sinnvoll wäre. Für die immer häufigere Nichtinanspruchnahme von Rehabilitationsleistungen gibt es unterschiedliche Gründe: Noch vor einigen Jahren folgte nach Abschluss der Akutbehandlung eines Krebspatienten mehr oder weniger „automatisch“ eine medizinische Rehabilitationsmaßnahme. Zahlreiche stationäre Akutbehandlungen werden ambulant weitergeführt. Eine Anschlussheilrehabilitation (AHB), die sich unmittelbar oder spätestens nach 14 Tagen an die stationäre Behandlung anschließt, könnte somit häufig nicht mehr direkt und unkompliziert durch die Krankenhaussozialdienste eingeleitet werden. Die Betroffenen müssen daher selbst einen entsprechenden Antrag bei dem zuständigen Rehabilitationsträger stellen. Aus Studien zu dieser Thematik ist bekannt, dass Informationsdefizite sowohl mit Blick auf die Zugangswege wie auch den Nutzen einer Maßnahme für die rückläufige REHA-Inanspruchnahme verantwortlich sind. Mit einer Intensivierung der Informationsarbeit versucht die Deutsche Krebshilfe Krebskranke und ihre Familien zu motivieren, eine Rehabilitation durchzuführen. Die Krebshilfe hat dazu ihre Informationsreihe Die Blauen Ratgeber ergänzt. Früherkennung. Konventionelle Röntgenaufnahme der Lunge mit einem Bronchialkarzinom Bei den meisten Krebserkrankungen ist eine Früherkennung wichtig. Nur bei einigen wenigen Krebsarten – beispielsweise beim Lungenkrebs – ist die Früherkennung bislang ineffektiv. Die Früherkennung ist primär Aufgabe jedes Menschen und nicht des Arztes. Unbehandelt wächst der maligne Tumor so lange, bis das Organ bzw. der Körper zerstört ist. Da die Gefahr einer Krebserkrankung für eine Bevölkerung schwankt, muss für jede Generation und jedes Land das individuelle Krebsrisiko regelmäßig aufs Neue bestimmt werden. Das individuelle Krebsrisiko hängt zum Beispiel ab Je eher ein Krebs erkannt wird, desto besser die Heilungsaussichten. Wenn sie früher erkannt würden, ließen sich mehr Krebserkrankungen heilen, und sie ließen sich leichter (mit kleineren Eingriffen / kleinerem Aufwand / kleineren Nebenwirkungen) heilen. Für Männer sind regelmäßige Untersuchungen des Arztes auf Blut im Stuhl und das Abtasten der Prostata wichtig (siehe Prostatakrebs), für Frauen ein Abstrich vom Gebärmutterhals (systematische Früherkennungsuntersuchung auf Gebärmutterhalskrebs) und Mammographie-Vorsorgeuntersuchungen (ab 50 Jahren), wobei der individuelle Nutzen und der Nutzen in absoluten Zahlen mit dem Arzt besprochen werden sollte. Auch mittels genetischer Untersuchungen ist es möglich, bestimmte Krebsarten bereits im Frühstadium zu erkennen. Dieses Verfahren wird in der Praxis jedoch selten angewandt. Jede Selbstuntersuchung ist mit einem recht großen Fehlerrisiko behaftet. Knötchen in der Brust können harmlos sein, andererseits können Laien bösartige Brusttumoren erst ertasten, wenn sie eine bestimmte Größe (und somit ein höheres Tumorstadium) erreicht haben – und mit hoher Wahrscheinlichkeit schon metastasiert sind. Kommandozeile. Die Kommandozeile, Befehlszeile oder aus dem Englischen command-line interface, kurz CLI'", oft auch als Konsole oder Terminal bezeichnet, ist ein Eingabebereich ("interface") für die Steuerung einer Software, der typischerweise (aber nicht zwingend) im Textmodus abläuft. Je nach Betriebssystem wird die Kommandozeile von einer Shell oder einem "Kommandozeilen-" oder "Befehlsinterpreter" (im Englischen ebenfalls mit "CLI" für "command-line interpreter" abgekürzt; die Abkürzung hat also zwei Bedeutungen) ausgewertet und die entsprechende Funktion ausgeführt. Die Kommandos oder Befehle werden als Zeichenketten über die Tastatur eingegeben, oftmals sind diese aus dem Englischen entnommen, teilweise als Abkürzung wie etwa bei MS-DOS der Befehl codice_1 für "directory" oder bei Unix-Systemen der Befehl codice_2 für "list directory". Die Ausführung der Befehle wird meist direkt aus der Zeile durch zusätzlich angegebene Parameter gesteuert ("Kommandozeilenparameter"). Programme, die den Benutzer interaktiv befragen, sind auf dieser Ebene eher unüblich. Ein Kommandozeilenprogramm läuft somit typischerweise mit den gegebenen Parametern einmal ab, bevor eine erneute Befehlseingabe möglich ist. Ein automatisiertes Abarbeiten mehrerer Kommandos nennt man Stapelverarbeitung ("batch"). Erscheinungsformen. KDE-Konsole nach dem Ausführen des Befehls codice_3 Ein Kommandozeileninterpreter, wie etwa bash, csh, zsh, Windows PowerShell, cmd.exe oder COMMAND.COM, kann typischerweise auch eine Kommandozeile bereitstellen. Kommandozeilen sind auch in nicht reinen CLI-Anwendungen integriert. Bei der mathematischen Software Matlab ist sie beispielsweise ein wichtiger Teil der ansonsten grafischen Oberfläche. Auch Dateimanager wie der Midnight Commander haben meist eine Shell integriert, gehören aber de facto in die Kategorie der zeichenorientierten Benutzerschnittstellen. Auch Debugger bieten häufig eine Kombination von Kommandozeile und anderen Elementen zu ihrer Steuerung an. Spezielle Varianten der Kommandozeile sind in FTP-Client-Programmen für den Textmodus zu finden. Manche Telnet-Clients bieten neben der eigentlichen Funktionalität zusätzliche eine Kommandozeile zur Steuerung an, die dabei typisch über eine sogenannte Escape-Tastenkombination aufrufbar ist. Spiele aus dem PC-Bereich, oder genauer, deren zugrundeliegenden Spiel-Engines, bieten oft Kommandozeilen an. Üblicherweise ausgeblendet und für das eigentliche Spielen nicht notwendig, ermöglichen sie eine alternative Konfiguration oder auch tiefgreifendere Beeinflussung des Spiels. Sie vereinfacht in der Entwicklung das Testen von Programmcode und lässt gezielt einzelne Zustände zur Fehlersuche erreichen, wie auch die Eingabe von Cheat-Befehlen durch Spieler. Ein Beispiel für eine solche "Konsole" ist in der Quake-Engine enthalten. Für X11 gibt es eine Reihe von grafischen Terminalemulationen wie zum Beispiel xterm, aterm, Eterm oder rxvt. Der Unix-Desktopumgebung Gnome liegt das Gnome Terminal bei, bei KDE gibt es die Konsole. Diese Terminalemulatoren bieten selbst noch keine Kommandozeile an, in ihnen läuft vielmehr einer der oben erwähnten Kommandozeileninterpreter wie bash etc. Eingabevorgang. Technisch gesehen ist die Kommandozeile eine durch ein Programm angebotene Eingabezeile, die mit einem gewissen Umfang an Editorfähigkeiten ausgestattet ist. Die Eingabe wird mit dem Betätigen der Eingabetaste beendet. Diese bewirkt das Senden des Carriage-Return- oder Linefeed-Zeichens an das Programm, das die Eingabezeile geöffnet hat. Als Reaktion wird der vom Benutzer eingegebene Kommandozeilentext interpretiert; der Kommandozeileninterpreter führt bei fehlerfreier Erkennung der Eingabe die entsprechenden Kommandos aus, die ihre eventuellen Ausgaben direkt anschließend auf den Bildschirm bringen. Danach erscheint eine erneute Prompt-Sequenz, welche signalisiert, dass die Eingabe einer weiteren Kommandozeile möglich ist. Tastenkombinationen. Im Vergleich der Shells dreier wichtiger Betriebssysteme Kleinstes gemeinsames Vielfaches. Das kleinste gemeinsame Vielfache (kgV) ist ein mathematischer Begriff. Sein Pendant ist der "größte gemeinsame Teiler" (ggT). Beide spielen unter anderem in der Bruchrechnung und der Zahlentheorie eine Rolle. Das "kleinste gemeinsame Vielfache" zweier ganzer Zahlen formula_1 und formula_2 ist die kleinste natürliche Zahl, die sowohl Vielfaches von formula_1 als auch Vielfaches von formula_2 ist. Die englische Bezeichnung "lcm" ("least common multiple") für das kgV ist in mathematischen Texten ebenfalls verbreitet. Das kgV von mehreren Zahlen. Dies rechtfertigt die Schreibweise formula_16 Anwendungen in weiteren algebraischen Strukturen. Die Division mit Rest, die auch für Polynome existiert, erleichtert das Auffinden von gemeinsamen Teilern. Analog zum ggT ist das formula_24 definiert: Ein Ringelement formula_28 heißt kleinstes gemeinsames Vielfaches zweier Ringelemente formula_29 und formula_30, wenn formula_28 ein gemeinsames Vielfaches von formula_29 und formula_30 ist und seinerseits jedes andere gemeinsame Vielfache von formula_29 und formula_30 ein Vielfaches von formula_28 ist. Diese allgemeinere Definition lässt sich auf mehrere Zahlen ausweiten (sogar auf unendlich viele). Gaußscher Zahlenring. Im gaußschen Zahlenring formula_39 ist der größte gemeinsame Teiler von formula_40 und formula_41 gerade formula_42, denn formula_43 und formula_44. Genau genommen ist formula_42 "ein" größter gemeinsamer Teiler, da alle zu dieser Zahl assoziierten Zahlen ebenfalls größte gemeinsame Teiler sind. Nicht in jedem Ring existiert für zwei Elemente ein ggT oder ein kgV. Wenn sie einen ggT haben, können sie mehrere ggT haben. Ist der Ring ein Integritätsring, dann sind alle ggT zueinander assoziiert, in Zeichen formula_46. Ist formula_37 ein Integritätsring und haben die Elemente formula_29 und formula_30 ein kgV, dann haben sie auch einen ggT, und es gilt die Gleichung Ist jedoch nur bekannt, dass ein ggT von formula_29 und formula_30 existiert, dann muss nicht unbedingt auch ein kgV existieren. Integritätsring. Im Integritätsring formula_53 haben die Elemente keinen ggT: Die Elemente formula_55 und formula_40 sind zwei "maximale gemeinsame Teiler", denn beide haben den gleichen Betrag. Jedoch sind diese zwei Elemente nicht zueinander assoziiert, also gibt es keinen ggT von formula_29 und formula_30. Die genannten Elemente formula_59 und formula_40 haben aber ihrerseits einen ggT, nämlich formula_61. Dagegen haben sie kein kgV, denn wenn formula_28 ein kgV wäre, dann folgt aus der „ggT-kgV-Gleichung“, dass formula_28 assoziiert zu formula_64 sein muss. Das gemeinsame Vielfache formula_65 ist jedoch kein Vielfaches von formula_66, also ist formula_66 kein kgV und die beiden Elemente haben gar kein kgV. Ein Integritätsring, in dem je zwei Elemente einen ggT besitzen, heißt "ggT-Ring" oder "ggT-Bereich". In einem ggT-Ring haben je zwei Elemente auch ein kgV. In einem faktoriellen Ring haben je zwei Elemente einen ggT. In einem euklidischen Ring lässt sich der ggT zweier Elemente mit dem euklidischen Algorithmus bestimmen. Zusammenhang zwischen "kgV" und dem "größten gemeinsamen Teiler" . Damit lässt sich das kgV berechnen, falls der ggT (z. B. mit dem euklidischen Algorithmus) bereits bestimmt wurde. Umgekehrt kann man mit dieser Formel auch den ggT aus dem kgV berechnen. Kritische Temperatur. Die kritische Temperatur bezeichnet im Allgemeinen die Temperatur, bei der ein Phasenübergang eintritt. Kolibris. a> in Peru, die einen Kolibri darstellen Die Kolibris (Trochilidae) sind Vögel und stellen nach Ansicht fast aller Autoren die einzige Familie der Ordnung der Kolibriartigen (Trochiliformes) dar. Sie sind allerdings sowohl mit den Seglern (Apodidae) als auch mit den Baumseglern (Hemiprocnidae) so nahe verwandt, dass sie manchmal mit diesen in der Ordnung der Seglervögel (Apodiformes) zusammengefasst werden. Die Familie der Kolibris umfasst mehr als 100 Gattungen mit mehr als 330–340 Arten. Der Name "Kolibri" wurde im 18. Jahrhundert aus dem Französischen entlehnt (frz. "colibri") und stammt wohl aus einer karibischen Sprache. Körperbau. Unter den Kolibris findet man die kleinste Vogelart überhaupt; die Bienenelfe ("Mellisuga helenae") misst samt Schnabel und Schwanzfedern nur 6 cm. Der Riesenkolibri ("Patagona gigas") ist mit ca. 25 cm Länge der größte Vertreter der Familie. Die Schnäbel der Kolibri-Arten variieren stark – oft gattungstypisch – in Größe und Form. Beim Schwertschnabelkolibri ("Ensifera ensifera") z. B. ist der Schnabel fast so lang wie der ganze übrige Körper, der 10 cm misst. Der Kleinschnabel-Kolibri ("Ramphomicron microrhynchum") hat nur eine Schnabellänge von 5 mm. Die Schnäbel der Adlerschnabel-Kolibris ("Eutoxeres") sind stark nach unten gebogenen, dagegen die Schnäbel der Schwarzbauch-Avosettkolibris ("Avocettula recurvirostris") an der Spitze nach oben gebogen. Jede Schnabel-Art ist auf einen anderen Blütentyp abgestimmt, sodass jede Gruppe von gleichschnabeligen Kolibris ihre eigene ökologische Nische besetzt. Die Zunge der Kolibris ist extrem lang, kann weit hervorgestreckt werden und ist an der Spitze gespalten und strohhalmförmig, sodass der Nektar gut aus den Blüten gesaugt werden kann. Kolibris besitzen acht Rippenpaare. Normalerweise haben Vögel sechs Rippenpaare. Bei der Unterfamilie Phaethornitinae sind die drei Vorderzehen an der Basis aneinandergeheftet. Bei der Unterfamilie Trochilinae sind die Vorderzehen frei. Gefieder. Die meisten Kolibris haben ein buntes, in der Regel metallisch grün schimmerndes Gefieder. Bevorzugt sind Kopf, Kehle und Brust mit schillernden Farben versehen. Die Kehle bei den Männchen ist in der Regel bunt schillernd gefärbt, wobei es auch hier Ausnahmen gibt, zum Beispiel den Adlerschnabel-Kolibri. Die Wirkung des Farbspiels kommt durch Interferenz zustande. Die irisierende Kolibrifeder trägt mehrere Schichten mikroskopisch dünner Hornlamellen. Trifft nun Licht aus einem bestimmten Einfallswinkel auf diese Feder, so wird es von den Lamellen zurückgeworfen. Durch die unterschiedliche Lage der Lamellen wird das Licht in sehr kleinen zeitlichen Differenzen reflektiert. Bei der Unterfamilie Phaethornitinae sind die Steuerfedern stark verlängert. Der Flug der Kolibris. Kolibris führen ihren Schwirrflug mit einer sehr hohen Frequenz von 40 bis 50 Flügelschlägen pro Sekunde aus. Mit ihren beweglichen Flügeln können sie auf der Stelle fliegen, um zum Beispiel Nektar zu trinken. Sie können auch seitwärts und sogar rückwärts fliegen. Beim Kolibri ist im Gegensatz zu allen anderen Vogelfamilien die Hand größer als Ober- und Unterarm. Dies sowie eine extreme Beweglichkeit im Schulter- wie im Ellenbogengelenk erlauben dem Kolibri fast jede erdenkliche Flügelstellung. Die hierfür benötigte Brust- und Oberarmmuskulatur macht beim Kolibri gut ein Viertel seines Gesamtgewichts aus. Bezogen auf ihre Körpergröße sind Kolibris die wohl schnellsten Wirbeltiere der Welt. So erreichen die etwa zehn Zentimeter großen Annakolibris bei ihren Balzflügen Geschwindigkeiten von 385 Körperlängen pro Sekunde (27,3 m/s bzw. 98 km/h), bei Beschleunigungswerten von etwa dem Zehnfachen der Erdbeschleunigung. Zum Vergleich: Wanderfalken kommen im Sturzflug auf Geschwindigkeiten von bis zu 200 Körperlängen pro Sekunde, Kampfjets, wie z. B. die MiG-25 (ein Mach 3 schneller Abfangjäger), erreichen dagegen maximal nur das rund 40-fache ihrer Gesamtlänge. Physiologie. Das Herz der Kolibris ist im Verhältnis zum Körper sehr groß und schlägt 400- bis 500-mal pro Minute, ihre Atemfrequenz liegt bei bis zu 250 Zügen pro Minute. Während des Schlafes senken viele Kolibris ihre Herzfrequenz stark ab, um Energie zu sparen. Da Eingang und Ausgang des Kolibrimagens sehr eng nebeneinander liegen, wird die aufgenommene flüssige Nahrung bei gefülltem Magen gleich vom Eingang in den Ausgang übergeleitet. Dies bedeutet, dass der Blütennektar nicht erst über den Muskelmagen in den Dünndarm gelangt, sondern diesen direkt erreichen kann, um dort aufgespalten und dem Energiestoffwechsel zugeführt zu werden. Der Sauerstoffverbrauch der Kolibris erreicht einen sehr hohen Wert und liegt selbst beim ruhenden Tier fünf bis zehn Mal höher als bei Finkenvögeln. Kolibris haben die Fähigkeit entwickelt, ihre Körpertemperatur erheblich absenken zu können, um in Notsituationen den Stoffwechsel so zu reduzieren, dass ein Überleben möglich wird. Bei Kolibris wurde auch der Zustand der völligen Teilnahmslosigkeit (Torpidität) beschrieben. Verbreitung und Lebensraum. Kolibris leben ausschließlich in Amerika. Sie kommen vom Süden Alaskas bis Feuerland vor. Sie leben in Halbwüsten, in den Waldgebieten am Amazonas und in gemäßigten Zonen in den Laubwäldern Chiles. Man trifft sie fast überall im südlichen Nord- und Südamerika an, außer in der subantarktischen und borealen Zone. Von den 330–340 Arten leben fast 130 in der Nähe des Äquators. Nur ein gutes Dutzend Arten lebt in Nordamerika nördlich von Mexiko, die meisten davon im Südwesten der USA. Der Rubinkehlkolibri ("Archilochus colubris") brütet als einziger im Osten Kanadas und der USA. Nur auf Jamaika lebt der Wimpelschwanz ("Trochilus polytmus"), dessen Männchen einen bis zu 17 cm langen Schwanz hat. Das Taubenschwänzchen ("Macroglossum stellatarum") ist ein in Europa und Asien lebender Schmetterling, der in der Luft stehend mit seinem Rüssel Nektar in Blüten saugt und daher bisweilen für einen Kolibri gehalten wird. Ernährung. Die Kolibris ernähren sich vorwiegend von Blütennektar. Diese sehr energiereiche Nahrung macht den kraftraubenden Flugstil erst möglich. Insbesondere auffällig rot oder orange gefärbte Blumen ziehen die Kolibris an. In den Blüten sammeln sich zudem Insekten, die ebenfalls von den Kolibris gefressen werden und eine ausreichende Versorgung mit Eiweiß sicherstellen. Pollen und Fruchtfleisch werden nicht gefressen, da sie gänzlich unverdaulich sind. Fortpflanzung. Ein Breitschwanzkolibri füttert seine Brut Um bei den Weibchen Interesse zu wecken und sie in Paarungsbereitschaft zu bringen, führen die Männchen einen Balztanz auf. Nach der Begattung bauen die Weibchen ein winziges Nest, das aus Spinnweben, Pflanzenwolle, Flechten oder Moos angefertigt wird. Das Nest wird in geringer Höhe in einem Busch oder einem Baum versteckt gebaut. Das Weibchen legt im Abstand von zwei Tagen zwei Eier. Die Brut dauert 14 bis 19 Tage. Die Jungen werden anschließend 3–4 Wochen bis zu 140-mal am Tag gefüttert. Zur Nahrungssuche lassen sich die Weibchen aus dem Nest fallen und gleiten dabei blattähnlich zu Boden. Dadurch wird Nesträubern das Orten des versteckten Nestes erheblich erschwert. Feinde. Natürliche Feinde der Kolibris sind Schlangen, Greifvögel, Katzen und Marder. Fossilien. Der deutsche Paläoornithologe Gerald Mayr vom Frankfurter Senckenberg Forschungsinstitut entdeckte die vermutlich ältesten Kolibrifossilien der Welt in der Grube Unterfeld im baden-württembergischen Frauenweiler (Stadtteil von Wiesloch). Er beschreibt im Fachmagazin "Science" den Fund zweier über 30 Millionen Jahre alter Fossilien, die den heute lebenden amerikanischen Kolibris ähnelten. Es sind die ersten Funde von Kolibris in der Alten Welt. Die Skelette sind etwa vier Zentimeter lang, haben einen langen Schnabel, um Blütennektar zu saugen, sowie Flügel, die zum Schweben auf der Stelle befähigen. Damit zeigen sie die typischen Merkmale heutiger Kolibris. Mayr taufte sie auf den Namen "Eurotrochilus inexpectatus" – „unerwarteter, europäischer Kolibri“. Haltung als Ziervogel. Kolibris gelten als schwierig zu haltende Ziervögel. Zu den wenigen Arten, die auch von Privatpersonen gehalten werden, gehört der Veilchenohrkolibri, bei dem auch bereits die Nachzucht gelungen ist. Systematik. Purpurkehlnymphe im Nationalpark Monte Verde, Costa Rica Karthago. Karthago (, "Karchēdōn"; aus dem phönizischen "Qart-Hadašt",neue Stadt‘, ‚neues Tyros‘) war eine Großstadt in Nordafrika nahe dem heutigen Tunis in Tunesien. In der Antike war Karthago zunächst Hauptstadt der gleichnamigen See- und Handelsmacht. Die Einwohner Karthagos wurden von den Römern als Punier (abgeleitet von Phönizier) bezeichnet. Nach der Zerstörung Karthagos durch die Römer ging das karthagische Reich im 2. Jahrhundert v. Chr. im römischen Imperium auf; Karthago wurde unter Gaius Iulius Caesar neu gegründet und stieg bald erneut zu einer bedeutenden Großstadt auf. Erst mit dem Ende der Antike kam auch das Ende der Bedeutung des Ortes. Heute ist Karthago (,) ein Vorort von Tunis. Das archäologische Ausgrabungsgelände von Karthago wurde 1979 in die Liste des Weltkulturerbes aufgenommen und ist eine touristische Attraktion. Geographie. Karthago liegt an der afrikanischen Mittelmeerküste rund zehn Kilometer östlich des heutigen Tunis im Norden Tunesiens. Karthago befand sich an der wichtigsten phönizischen Handelsroute zwischen der Levante und Gibraltar. Durch seine Lage an der Straße von Sizilien konnte es den Seehandel im Mittelmeer kontrollieren. Dies war ein Hauptgrund für die wirtschaftliche und militärische Dominanz der Stadt. Zugleich bestand von Sizilien aus eine Verbindung zum Tyrrhenischen Meer und zum nördlichen Mittelmeerraum. Die Stadt selbst lag auf einer Halbinsel, die im Osten vom Golf von Tunis, im Norden von der Lagune Sebkhet Ariana und im Süden vom See von Tunis begrenzt wird. Die Lage war strategisch günstig, weil sich die Stadt so zur Landseite hin leicht verteidigen ließ. Der Byrsa-Hügel war das Zentrum sowohl des punischen als auch des römischen Karthago. Nördlich des eigentlichen Stadtgebiets, aber noch innerhalb der Stadtmauern, befand sich in der Antike das landwirtschaftlich genutzte Gebiet von Megara. Geschichte. "Dieser Abschnitt behandelt die Geschichte der Stadt Karthago. Zur Geschichte des karthagischen Reiches siehe Geschichte Karthagos." Gründung. Karthago wurde im 9. oder 8. Jahrhundert v. Chr. von phönizischen Siedlern aus Tyros gegründet. Im Gegensatz zur älteren Kolonie Utica („Alte (Stadt)“) nannten sie die Stadt „Neue Stadt“, "Qart-Hadašt". Dionysios von Halikarnassos datiert die Gründung Karthagos auf das Jahr 814 v. Chr. Die ältesten archäologischen Funde lassen sich auf die zweite Hälfte des achten Jahrhunderts v. Chr. datieren. Einzig der Historiker Junianus Justinus nennt die Gründung Karthagos in Verbindung mit „Elissa“ (Dido bei den Römern), punisch „'Išt“. Elissa soll die tyrische Tochter des Königs Mutto gewesen sein. Auf der Flucht vor der Verfolgung durch ihren Bruder Pygmalion gelangte sie über Zypern an den Golf von Tunis. Der ortsansässige Häuptling versprach ihr so viel Land, wie sie mit einer Kuhhaut umspannen könne. Elissa schnitt daraufhin die Kuhhaut in dünne Streifen, legte sie aneinander und konnte somit ein großes Stück Land markieren. Dieser Küstenstreifen bildete die Byrsa, die Keimzelle Karthagos. Nach der Gründung Karthagos habe sich Elissa selbst auf einem Scheiterhaufen geopfert, um der Stadt Wohlstand zu garantieren. Der Name „'Išt“ (Elissa) ist in der punischen Onomastik mehrfach bezeugt, wobei dessen Bedeutung „die Aktive“ nicht sicher geklärt ist. In der tyrischen Onomastik ist hingegen der Name „Pygmalion“ unbekannt. Dass eine Frau eine so weitreichende Expedition leitete, entspricht nicht den damaligen Gegebenheiten und ist daher wenig glaubhaft. Ebenfalls umstritten ist das Bestehen eines „Elissa-Kultes“. Die vorherige Flucht hat außerdem legendenhafte Züge. Weitere Einzelheiten der Geschichte sind aufgrund der griechischen Volksetymologie entstanden. Insgesamt ist daher die „Quelle Justinus“ als wenig zuverlässig zu werten. Sichere Belege für die Gründung Karthagos fehlen damit vollständig. Eine abgewandelte Form dieser Legende findet sich in Vergils "Aeneis". Punische Zeit. Lage von Karthago und karthagischer Machtbereich um 264 v. Chr. Die Stadt prosperierte durch den Aufschwung des Seehandels. Im 4. und 3. Jahrhundert v. Chr. war Karthago zur reichsten Stadt des Mittelmeerraums geworden. In ihr wohnten 400.000 Menschen, weitere 100.000 lebten in der angrenzenden landwirtschaftlichen Nutzfläche der Megara. Die drei "Punischen Kriege" gegen das aufstrebende Rom führten letztlich zum Niedergang Karthagos. Der zweite dieser Kriege hat aber durch den karthagischen Feldherrn Hannibal zu einer ernsten Bedrohung für Rom selbst geführt. Römische Zeit. Nach dreijähriger Belagerung eroberten die Römer unter Scipio Aemilianus Karthago 146 v. Chr. zum Ende des Dritten Punischen Krieges. Die Verteidiger unter Hasdrubal leisteten erbitterten Widerstand. Während der sechstägigen Eroberung plünderten und zerstörten die römischen Truppen bereits durch Brandlegung einen Großteil der Stadt. 50.000 der überlebenden Einwohner ergaben sich daraufhin den Römern und wurden in die Sklaverei verkauft. Wie gemäß der berühmten Forderung des älteren Cato – meist wiedergegeben als "Ceterum censeo Carthaginem esse delendam" („Im Übrigen meine ich, dass Karthago zerstört werden muss“) – wurde daraufhin auch noch der Rest der Stadt inklusive der Burg (Byrsa) systematisch bis auf die Grundmauern geschleift. Die Legende, dass auf Karthagos Boden Salz gestreut wurde, um die Gegend unfruchtbar zu machen, stammt dagegen aus dem 19. Jahrhundert und wird durch antike Quellen nicht belegt. Die Stadtfläche lag jedoch ein Jahrhundert lang brach. Auch die kulturellen Leistungen wurden bei der Zerstörung beseitigt. Nicht zerstörte Dokumente wurden verbündeten numidischen Fürsten übergeben. Einzig das Werk über die Landwirtschaft des Mago wurde auf Befehl des römischen Senats ins Lateinische übersetzt und dürfte teilweise bei späteren römischen Landwirtschafts-Beschreibungen verarbeitet worden sein. Im Jahr 122 v. Chr. versuchte der Reformer Gaius Sempronius Gracchus im Rahmen seiner Sozialpolitik, Karthago als "Colonia Iunonia Carthago" wiederzugründen. Damit stieß er jedoch auf den Widerstand des Senats. Nach Gracchus' gewaltsamem Tod wurde das Vorhaben wieder aufgegeben. Schließlich war es Julius Caesar, dem Karthago seine Wiederauferstehung verdankte. Nach seinem Sieg über Pompeius im Jahr 46 v. Chr. entschloss sich Caesar, Karthago wieder aufbauen zu lassen. Verwirklicht wurde dieses Vorhaben erst unter Augustus, der 29 v. Chr. 3000 Siedler in Karthago ansiedelte. Die Stadt trug nun den Namen "Colonia Iulia Concordia Carthago". Dabei wurden insbesondere durch den Abtrag des Byrsa-Hügels große Teile der bis dahin noch vor Ort im Boden verbliebenen Bauwerkreste unwiederbringlich zerstört. In Karthago residierte der römische Statthalter, der senatorische "proconsul" der Provinz "Africa Proconsularis"; dieser Posten war auch in der Kaiserzeit einer der prestigeträchtigsten im ganzen Reich. Es erfolgte – insbesondere aufgrund des Handels mit Getreide und Töpferware – ein rascher Aufschwung. Im 2. Jahrhundert n. Chr. war Karthago mit über 300.000 Einwohnern nach Rom, Alexandria und Antiochia die viertgrößte Stadt des Römischen Reiches. 238 wurde hier der "proconsul" von Rebellen als Gordian I. zum Gegenkaiser ausgerufen – die Revolte wurde zwar niedergeschlagen, markierte aber für Kaiser Maximinus Thrax den Anfang vom Ende. Karthago war das Zentrum des frühen Christentums in Nordafrika. Bereits im 2. Jahrhundert bestand in Karthago eine große christliche Gemeinde; die Stadt war aufgrund ihrer Größe neben Rom der wichtigste Bischofssitz in der westlichen Reichshälfte. Die Akten der "Scilitanischen Märtyrer", die 180 in Karthago hingerichtet wurden, stellen das älteste christliche Dokument in lateinischer Sprache dar. Im Jahr 203 ließen die heiligen Felicitas und Perpetua in der Arena Karthagos ihr Leben. Wichtige Kirchenväter wie Tertullian und Cyprian wirkten in Karthago und prägten die christliche Literatur in lateinischer Sprache. Cyprian konnte in seiner Zeit als Bischof (248–258) die Christengemeinde von Karthago durch zahlreiche Synoden afrikanischer Bischöfe als führende Gemeinde der Provinz "Africa" etablieren, deren Autorität auch nach Spanien, Gallien und Italien ausstrahlte. Er rivalisierte sogar mit dem Bischof von Rom, konnte sich gegen diesen aber letztlich nicht durchsetzen. Zugleich nahmen die Christenverfolgungen zu: Cyprian, der 250 noch vor Verfolgern geflüchtet war, starb 258 demonstrativ den Märtyrertod. Spätantike und islamische Expansion. Im 4. Jahrhundert verlor Karthago zwar etwas an Bedeutung, blieb aber eine blühende Metropole, da "Africa" weiterhin der wichtigste Getreidelieferant der Stadt Rom war. Gegen Ende des 4. Jahrhunderts studierte der Kirchenvater Augustinus von Hippo in Karthago. Der Kommandeur der dortigen römischen Truppen, der "comes Africae", hatte eine wichtige Machtposition inne, da er durch die Kontrolle der Kornzufuhr Italien unter Druck setzen konnte. Nacheinander erhoben sich in den Jahren um 400 die "comites" Gildo, Heraclianus und Bonifatius in Karthago gegen die weströmische Regierung. Es war diese strategische wie ökonomische Bedeutung der Stadt, die auch bei germanischen Heerführern Begehrlichkeiten weckte. Während die beiden westgotischen Anführer Alarich und Athaulf noch mit ihren Versuchen scheiterten, nach "Africa" überzusetzen, hatte Geiserich schließlich Erfolg. 439 wurde Karthago vom Kriegerverband der Vandalen eingenommen, der unter seinem "rex" Geiserich im Zuge der so genannten Völkerwanderung bereits 429 von Spanien nach Nordafrika übergesetzt war und schließlich ganz "Africa" erobert hatte. Größere Zerstörungen im Zusammenhang mit der Eroberung durch die Vandalen sind in Karthago nicht nachweisbar; auch die Hohe Schule blieb bestehen. Geiserich nutzte das reiche Gebiet als Versorgungsbasis für seine Männer, bedrohte von hier aus viele Gebiete Westroms und versuchte wiederholt, die kaiserliche Regierung in Italien zu erpressen. Ein großangelegter Versuch west- und oströmischer Truppen, das Gebiet zurückzuerobern, scheiterte 468. 474 erkannte der Kaiser Geiserichs Herrschaft über "Africa" an, auch wenn das Gebiet formal Teil des "Imperium Romanum" blieb. Karthago war die Hauptstadt des Vandalenreiches, bis es 533/534 von oströmischen Truppen unter dem Feldherrn Belisar erobert wurde. In der Folgezeit war Karthago Sitz eines oströmischen Statthalters, eines eigenen Prätorianerpräfekten sowie eines Heermeisters und Sitz der Verwaltung für das kaiserliche Nordafrika, das dann unter Kaiser Maurikios um 590 als Exarchat von Karthago reorganisiert wurde. Die nordafrikanische Kirche erreichte zudem bereits um 535 die Erneuerung ihrer alten Privilegien, und Kaiser Justinian richtete 534 neun Professuren ein: fünf für Medizin und jeweils zwei für lateinische Rhetorik und Grammatik. Karthagos große Zeit war dennoch vorbei, allerdings lässt sich um 600 eine gewisse Nachblüte beobachten: Viele Gebäude im Zentrum wurden noch einmal erneuert und renoviert, während allerdings zugleich das besiedelte Stadtgebiet schrumpfte. Kaiser Herakleios (610–641) war durch einen Putsch seines Vaters, des Exarchen von Karthago, gegen Phokas an die Macht gekommen und zog kurzzeitig in Betracht, die Hauptstadt des Reiches aufgrund der Bedrohung Konstantinopels durch die persischen Sassaniden und die Awaren nach Karthago zu verlegen. Ab dem Jahr 647 stießen die Araber im Zuge der islamischen Expansion auch nach Nordafrika vor. Der abtrünnige kaiserliche Exarch Gregor, vom Nachschub aus dem Mutterland abgeschnitten, erlag nach kurzem Widerstand der Übermacht der Araber, die bald die Provinz Ifriqiya mit der Hauptstadt Kairouan gründeten. Das stark befestigte Karthago fiel aber erst 698 nach der byzantinischen Niederlage in der Schlacht von Karthago endgültig an die Angreifer und wurde von den Arabern zerstört. Damit endete für Afrika die Spätantike. Fortan übernahm die nahe gelegene Stadt Tunis die Rolle eines Verwaltungszentrums. Die Ruinen Karthagos dienten jahrhundertelang als Steinbruch für die Bauten in Tunis, Kairouan, Sousse und in anderen arabischen Städten. Verfassung. Das Wissen über die Verfassung Karthagos beruht neben der punischen Epigraphik auf den antiken Autoren Aristoteles, Polybios, Diodor, Livius und Justinus. Aristoteles untersucht in seinem staatsphilosophischen Werk "Politik" verschiedene bestehende Staatsformen, darunter auch die karthagische. Aristoteles vergleicht die Verfassung Karthagos mit der von Sparta und äußert sowohl Lob als auch Kritik an der karthagischen Staatsstruktur. Ein Problem bei der Rekonstruktion der karthagischen Staatsverfassung ist, dass in den lateinischen und griechischen Quellen die karthagischen Staatsämter oft ungenau bezeichnet werden. Anfangs standen Könige an der Spitze des karthagischen Staatswesens, ganz nach dem Vorbild der Mutterstadt Tyros. In späterer Zeit war der karthagische Staat eine Oligarchie mit demokratischen Elementen, ähnlich der Römischen Republik. An der Spitze des karthagischen Gemeinwesens standen zwei Sufeten, von römischen und griechischen Autoren als „Könige“ bezeichnet, die jährlich neu gewählt wurden. Ihre Rolle entsprach etwa der der Konsuln Roms oder der Dogen Venedigs. Sie leiteten den Magistrat, zu dem weitere Ämter gehörten, etwa das Amt des „Großen“ (punisch "rab", möglicherweise verantwortlich für die Staatsfinanzen) und ein eigenes Feldherrenamt. Das wichtigste politische Organ war der Senat, der über politische Fragen zu entscheiden hatte. Er wurde von einem Ausschuss von 30 Senatoren geleitet. Ein zusätzlich gewähltes Richtertribunal setzte sich aus 100 Senatoren zusammen und fungierte als oberster Gerichtshof. Daneben gab es eine Volksversammlung, in der alle Bürger stimmberechtigt waren. Verwaltung. Der Stadtstaat Karthago beherrschte ein großes Reich im westlichen Mittelmeerraum. Dabei gewährten die Bewohner Karthagos den eroberten Gebieten relativ viel Autonomie und beschränkten sich auf die Verwaltung, das Eintreiben von Steuern und die Rekrutierung von Streitkräften. Die karthagisch kontrollierten Gebiete wurden in Verwaltungsbezirke aufgeteilt, die von Beamten kontrolliert wurden. Alte phönizische Gründungen wie Utica sowie griechische Kolonien auf Sizilien durften ihre lokale Verwaltungen beibehalten. Militär. Das karthagische Heer bestand ursprünglich aus den Bürgern der Stadt selbst. Mit der Ausdehnung des karthagischen Staates kamen dann immer größere Anteile der Truppen von den unterworfenen Völkern oder Verbündeten und schließlich auch Söldner hinzu. Hauptsächlich wurden Kämpfer von den Numidern, Iberern, Libyern, Elymern und Sikelern rekrutiert, daneben auch Sarden, Italiker und Kelten sowie Griechen. Die verschiedenen Völker wurden dabei von den Karthagern jeweils nach der für sie typischen Kampfweise eingesetzt. Gute Beispiele sind hier die Numider, die als leichte Kavallerie dienten, und die Einwohner der Balearen, die hervorragende Schleuderer stellten. Die jeweiligen Kontingente wurden von karthagischen Offizieren befehligt, blieben aber manchmal auch unter dem Kommando ihrer eigenen Anführer. Die Karthager selbst dienten zum größeren Teil bei der Flotte, es gab aber durchgehend bis zum Schluss auch Landtruppen, die sich aus Karthagern selbst zusammensetzten. Die Kerneinheit dieser Verbände war die sogenannte „Heilige Schar“, eine Elitetruppe von 2.500 Mann, die vermutlich auch als eine Art Offiziersschule diente, aus der sich dann die militärischen Führer der nicht-karthagischen Einheiten rekrutierten. Über diese Einheit hinaus gab es aber auch andere karthagische Landtruppen in nicht unbeträchtlicher Anzahl. Erst im Zweiten Punischen Krieg in der Armee Hannibals überwogen dann die Einheiten der Verbündeten und Söldner. Im karthagischen Heer existierte eine Art Heeresversammlung, ähnlich, aber doch verschieden von der Heeresversammlung der Makedonen. Beim Tode ihres Feldherrn wählte eine solche Heeresversammlung aus den Offizieren den Nachfolger. Die Wahl wurde aber nur rechtskräftig, wenn die Volksversammlung in Karthago sie bestätigte. Die karthagischen Feldherrn und höheren Offiziere stammten aus den führenden Familien der Stadt und bildeten immer wieder regelrechte Militärdynastien, in denen die Söhne ebenfalls Feldherren wurden. Im Normalfall wurden Befehlshaber von der Volksversammlung gewählt. Die Haltung des karthagischen Staates zu seinen Feldherrn war ambivalent. Nach Niederlagen oder Versagen kam es vor, dass der Feldherr hingerichtet wurde. Auch gab es eine deutlich stärkere Kontrolle des Staates über das Militär als in anderen vergleichbaren Staaten der damaligen Zeit. Nach dem Ende eines Feldzuges hatten die hohen Offiziere dem Rat der Einhundertvier strenge Rechenschaft abzulegen. Während der Zeit des Feldzuges selbst aber war der Feldherr jedem normalen Recht entzogen und durfte frei agieren. Die Unterführer und niedrigeren Offiziere konnte der jeweilige Oberkommandierende nach Gutdünken ernennen. Bei fremdländischen Einheiten, insbesondere bei denen Verbündeter, waren die gewöhnlichen Offiziere fast immer aus den Führungsschichten dieser Völker selbst. Lange Zeit charakterisierte das Heer Karthagos eine gewisse Rückständigkeit. So wurden noch in den Kriegen auf Sizilien lange Zeit Streitwagen verwendet, als diese überall sonst längst außer Gebrauch gekommen waren. Auch die Bewaffnung und Organisation scheint immer wieder rückständig. Auffallend ist hier die hohe Anzahl von Seuchen, von denen karthagische Heere lange Zeit getroffen wurden, was die Frage nach der Lagerorganisation und der Hygiene stellt. Erst in den Kämpfen gegen Pyrrhus modernisierte sich das Landheer. Die berühmten karthagischen Kriegselefanten wurden auch erst um diese Zeit eingeführt. Der Kern der karthagischen Armee war durchgehend die Phalanx nach griechischem Vorbild. Die Phalanx wurde zur Zeit des Ersten Punischen Krieges von griechischen Militärberatern modernisiert, die als Söldner die Streitkräfte nach den Vorbildern der Diadochenreiche umorganisierten. Im Krieg gegen die Römer wurde die Phalanx jedoch immer mehr mit leichten Truppen ergänzt, bis sie im Zweiten Punischen Krieg dann vielleicht sogar aufgegeben wurde. Die karthagische Kavallerie wurde ebenfalls erst in der Folge des Ersten Punischen Krieges bedeutsam, vorher spielte sie in den Heeren Karthagos nur eine geringe Rolle. Von den Barkiden wurden immer größere Verbände numidischer und iberischer Kavallerie eingesetzt. Erst im Zweiten Punischen Krieg war dann die karthagische Kavallerie eine bedeutende militärische Größe. Die Marine Karthagos bestand aus einer beträchtlichen Zahl von Kriegsgaleeren. Die Schiffe selbst waren durchgehend auf dem Stand ihrer Zeit und die Karthager entwickelten auch eigene neue Schiffstypen. Am Anfang war die Trireme mit drei Ruderebenen und je einem Mann an einem Ruder das Standardkriegsschiff, dann entwickelten die Karthager die Quadrireme als neuen Schiffstyp. Hierbei wurde die Zahl der Ruderebenen wieder auf zwei reduziert und an jedem Ruder zwei Mann eingesetzt. Ebenso wurde die von den Griechen entwickelte Quinquereme in Karthago sehr schnell übernommen und verbessert. Ein typisches karthagisches Kriegsschiff war zwischen 35 m und 45 m lang und 5 m bis 6 m breit. Die Mannschaft einer karthagischen Quinquereme betrug um die 300 Mann. Die Karthager setzten im Kampf zur See stark auf das Rammen der feindlichen Schiffe und setzten daher weniger Seesoldaten an Deck ein, was wegen der geringeren Last die Schiffe schneller machte, aber auch anfälliger für das Entern. Die Karthager verwendeten die von den Phöniziern erfundenen Trockendocks und zogen in dem bekannten kreisrunden Kriegshafen in Karthago selbst die Schiffe in spezielle Schiffsschuppen. Von der Anzahl der dort vorhandenen Liegeplätze kann man auf eine Flotte von rund 350 Kriegsschiffen für die Hochzeit Karthagos schließen, die folglich eine Besatzung von ungefähr 100.000 Mann benötigt hätten. Mit der Ausdehnung des karthagischen Staates entlang der Küsten musste die Flotte im Laufe der Zeit immer größer werden, was immer mehr Bürger für die Bedienung der Schiffe dem Heer entzog. Eine Besonderheit des karthagischen Schiffbaus war die Massenfertigung von Schiffen innerhalb kurzer Zeit, was durch die Verwendung von Fertigteilen und eine Standardisierung dieser Teile möglich war. Die Römer übernahmen dieses Konstruktionsmerkmal von den Karthagern und konnten so ebenfalls in kurzer Zeit große Flotten aufstellen. Handel. Die Punier waren ausgezeichnete Seefahrer. Deshalb verwundert es nicht, dass der Seehandel für die Wirtschaft Karthagos eine zentrale Rolle spielte. Am Kreuzungspunkt der Handelsrouten zwischen dem östlichen und westlichen sowie dem nördlichen und südlichen Mittelmeer gelegen, war Karthago zudem einer der Hauptumschlagplätze für ausländische Güter. Das wichtigste kommerzielle Interesse der Karthager war der Erwerb von Metall. Silber importierten sie vor allem aus Südspanien, wo sich in der Nähe der Stadt Carthago Nova (heute Cartagena) ertragreiche Bergwerke befanden, daneben auch aus Sardinien und Etrurien. Gold kam wahrscheinlich durch direkten oder indirekten Handel aus Westafrika. Der Bedarf an weniger wertvollen Metallen wie Kupfer und Eisen konnte wohl durch heimische Vorkommen in Nordafrika gedeckt werden. Das zur Bronzeherstellung notwendige Zinn importierte man über die Atlantikküste aus Galicien oder aus Südspanien. Unter dem Seefahrer Himilkon unternahmen die Karthager sogar eine Expedition nach Britannien, um die dortigen Zinnvorkommen zu erschließen. Landwirtschaft. Nordafrika war in der Antike ein landwirtschaftlich sehr produktives Gebiet, und in der neueren Forschung wird betont, dass Agrarwirtschaft neben Handel bereits früh eine große Rolle spielte. Möglicherweise konkurrierten in der Oberschicht jene, die eher zu einer Händleraristokratie gehörten, mit den Großgrundbesitzern. In römischer Zeit galt die Provinz "Africa" dann bis in die Spätantike neben Ägypten als eine „Kornkammer Roms“; das Gebiet war zu jener Zeit teils noch bewaldet und hielt daher die Bodenkrume. Die Punier hatten früh fortschrittliche landwirtschaftliche Techniken entwickelt. Der karthagische Schriftsteller Mago verfasste im frühen 2. Jahrhundert v. Chr. eine Agrar-Enzyklopädie, die nicht erhalten ist, aber oft von römischen Autoren zitiert wurde. In Byzacena, einem Gebiet, das in etwa dem heutigen tunesischen Sahel entspricht, und im Medjerda-Tal erzielten die Punier hervorragende Ernten. Neben Weizen wurden intensiv Olivenbäume, Weinreben, Feigenbäume und Dattelpalmen angebaut. Auch die Fischerei war ein lukrativer Wirtschaftszweig. Vor der Küste Karthagos wurden Thunfische gefangen. Vor allem aber betrieb man Fischfang vor der Atlantikküste Spaniens und des heutigen Marokkos, von wo aus der eingesalzene Fisch nach Karthago und in Form von Garum in andere Orte des Mittelmeers exportiert wurde. Handwerk. Die Produktherstellung in der Stadt Karthago bestand vor allem aus Webereien und Färbereien, daneben auch Betriebe zur Keramikproduktion. Abgesehen von Textilien wurden die Produkte aber nicht exportiert, sondern waren vorrangig auf den heimischen Markt ausgerichtet. Ein weiterer wichtiger Wirtschaftszweig war der Schiffbau. Das dafür benötigte Holz konnte in den damals noch in der Umgebung Karthagos vorhandenen Eichen- und Kiefernwäldern gewonnen werden. Unter Verwendung des Zuschlagstoffes Kalk wurde in einem mehrstufigen Verfahren hochwertiges Eisen erzeugt. Überhaupt war die Metallurgie so weit fortgeschritten, dass erst weitere eingehende Studien Einblicke in die Kausalzusammenhänge der Macht des karthagischen Reiches ermöglichen werden. Aus Zinn und Kupfer wurde Bronze hergestellt und zu Gefäßen und anderen Gegenständen verarbeitet. Vor allem in Kriegszeiten florierte die Waffenproduktion. Religion. Grabstele mit Tanit-Symbol auf dem Tophet Anfangs wurden in Karthago, wie im phönizischen Mutterland üblich, Astarte und Melkart als Hauptgötter verehrt. Ab dem 5. Jahrhundert v. Chr. entwickelten sich Tanit und Baal-Hammon zu den Hauptgöttern Karthagos. Tanit wurde als Schutzpatronin der Stadt verehrt, ihr Gemahl Baal Hammon galt als Fruchtbarkeitsgott. Eine weitere bedeutende Gottheit im Pantheon der Karthager war Eschmun. Auch fremde Kulte wie der der ägyptischen Göttin Isis wurden in Karthago praktiziert. Es gilt als wahrscheinlich, dass die Karthager Menschenopfer praktizierten. Antike Autoren wie Diodor und Plutarch berichten, dass Kinder, vornehmlich Erstgeborene aus wohlhabenden Familien, einer Molochstatue in die Arme gelegt und durch einen Mechanismus in ein Feuer fallengelassen wurden. Die schriftliche Überlieferung wird durch Funde von Knochen kleiner Kinder auf dem Tofet von Karthago gestützt. Die Interpretation als Menschenopfer ist vor allem durch Gustave Flauberts Roman "Salammbô" (1862) bekannt geworden, sie ist jedoch umstritten – möglicherweise verbrannte man tot geborene und sehr früh verstorbene Kinder. Kunst. Die punische Kunst lehnte sich anfangs noch an ihre phönizischen Vorläufer an. Über die griechischen Kolonien auf Sizilien wurden die Karthager schon früh griechischem Einfluss ausgesetzt. Ab dem 4. Jahrhundert v. Chr. war der Einfluss des Hellenismus besonders stark. Die zahlenmäßig am meisten vertretenen Beispiele punischer Kunst sind die Votivmonumente aus den Grabbezirken (Tofets). Ab dem 5. Jahrhundert v. Chr. treten hohe, mit Reliefs verzierte Kalksteinstelen auf. Das häufigste Motiv ist das Tanit-Zeichen und die Halbmondscheibe. Seltener kommen auch Darstellungen von Menschen oder Tieren vor. Sprache und Literatur. Die Einwohner Karthagos sprachen Punisch, eine Variante der phönizischen Sprache. Damit gehört das Punische zu den semitischen Sprachen und ist mit dem Hebräischen verwandt. Die punische Schrift ist eine kursive Variante des phönizischen Alphabets und war bis ins 1. Jahrhundert n. Chr. in Verwendung. Überliefert ist die Sprache der Punier mehrheitlich nur durch Inschriften, von denen fast alle einen religiösen Inhalt haben. Meistens handelt es sich um Widmungen auf Gedenk- oder Grabsteinen auf den Kultstätten oder Nekropolen. Die Inschriften sind meist kurz und formelhaft. Zu den wenigen Texten mit nicht sakralem Charakter gehört eine Inschrift aus Karthago, die die Einweihung einer Straße oder eines Tores (die Übersetzung des punischen Begriffs ist nicht gesichert) behandelt. Kürzere Inschriften finden sich auf Keramikfragmenten oder Schmuckstücken. Die Literatur der Punier, deren Existenz von antiken Autoren bestätigt wird, ist nicht erhalten. Die Bibliothek von Karthago wurde während der Zerstörung der Stadt 146 v. Chr. vernichtet. Der Periplus von Hanno, der Bericht über eine Seereise entlang der afrikanischen Westküste, ist in einer griechischen Übersetzung überliefert. Der Schriftsteller Mago verfasste im 2. Jahrhundert v. Chr. ein bedeutendes Werk über die Landwirtschaft, das nicht erhalten ist, aber von römischen Autoren zitiert wird. Einzig in Plautus' Komödie "Poenulus" kommen kurze punischsprachige Passagen vor. Das punische Karthago. Ruinen von punischen Wohnhäusern auf dem Byrsa-Hügel Die Kenntnisse vom Karthago der punischen Epoche sind recht beschränkt, da durch die Zerstörung der Stadt im Dritten Punischen Krieg nur wenige Überreste aus dieser Zeit erhalten geblieben sind. Man geht davon aus, dass die Stadt eine Siedlungsfläche von mehr als 240 Hektar und eine Ausdehnung von 800 m entlang der Küstenlinie hatte. Die Einwohnerzahl Karthagos wird auf 400.000 geschätzt. Das Straßennetz von Karthago war rechtwinklig angelegt. Die Stadt war sowohl zum Land als zur See hin von Befestigungsanlagen geschützt. Die 13 m hohe und 40 km lange Mauer umschloss ein größeres Areal, zu dem auch die landwirtschaftliche Nutzfläche von Megara gehörte. Bei Ausgrabungen konnten Fundamente einer Seemauer freigelegt werden. Das Zentrum des punischen Karthago war der Byrsa-Hügel, die Akropolis von Karthago. Man geht davon aus, dass sich hier eine Zitadelle und ein großer Tempel des Eschmun befand. Da der Hügel aber durch die römische Bautätigkeit eingeebnet wurde, lassen sich diese nicht nachweisen. An der Südostflanke des Hügels wurde ein punisches Wohnviertel ausgegraben. Die aus Lehmziegeln auf Steinfundamenten errichteten Häuser waren mehrstöckig (der Historiker Appianus berichtet von sechsstöckigen Häusern) und waren um einen Innenhof angelegt. Sie verfügten über Mosaikfußböden, Badebecken und unterirdische Zisternen zum Auffangen von Regenwasser. Ein weiteres erhaltenes punisches Wohnviertel ist das aus dem 3. Jahrhundert v. Chr. stammende sogenannte Magonidenviertel ("Quartier Magon") nahe dem Ufer. An der Küste befand sich die Hafenanlage, die aus einem Handels- und einem Kriegshafen bestand. Der Handelshafen war ein 456 m × 356 m großes rechteckiges Becken, das durch einen Kanal mit dem offenen Meer verbunden war. Ein zweiter Kanal verband den Handelshafen mit dem Kriegshafen oder Kothon, einem runden Becken mit einem Durchmesser von 325 m. Er bot Platz für 220 Kriegsschiffe. In der Mitte des Kriegshafens befand sich eine künstliche Insel mit dem Gebäude der Admiralität. Die Hafenbecken sind bis heute erhalten. Antike Autoren wie Appianus erwähnen einen unweit vom Hafen gelegenen zentralen Platz (Agora) und öffentliche Gebäude, die jedoch nicht archäologisch nachgewiesen sind. Der heiligste Ort des punischen Karthago war der Tophet, eine Begräbnis- und Kultstätte und die Stelle, wo der Sage nach Elissa gelandet sein soll. Bei Ausgrabungen legte man zwölf Gräberschichten frei, die aus dem 8. Jahrhundert v. Chr. bis in die frühchristliche Zeit reichen, und fand über 1500 beschriftete und mit religiösen Symbolen verzierte Stelen. Auf dem Tophet wurde zunächst Baal-Hammon, später die Stadtgöttin Tanit verehrt. Das römische Karthago. Mosaik in einem römischen Ausgrabungsgelände in Karthago (Roman Villas) Die Topographie des rund ein Jahrhundert nach der Zerstörung der punischen Metropole wieder aufgebauten römischen Karthagos ähnelt der aus der punischen Zeit. Forum und Capitolium lagen auf dem Byrsa-Hügel. Die Stadt wurde um Villenviertel und einen neuen Hafen erweitert. Eines der prächtigsten römischen Bauwerke in Karthago waren die im Jahr 162 fertiggestellten Antoninus-Pius-Thermen. Das Badehaus lag direkt am Meer und war mit einer Ausdehnung von ca. 200 m die größte Thermenanlage außerhalb Roms. Das Gebäude überstand die arabische Eroberung und wurde erst im 11. Jahrhundert beim Einfall des Nomadenstammes der Beni Hilal zerstört. Heute gehören die Ruinen zu den wichtigsten Sehenswürdigkeiten Karthagos. In der Umgebung der Antoninus-Pius-Thermen lag das Magonviertel, in dem vom Deutschen Archäologischen Institut gegraben wurde. In der Nähe befanden sich das römische Theater und die Gallienus-Thermen, in denen 411 das Konzil von Karthago abgehalten wurde. Landeinwärts befinden sich das heute nur spärlich erhaltene Amphitheater von Karthago, das einst 50.000 Zuschauern Platz bot, und die Zisternen von La Malga, die die Trinkwasserversorgung der Stadt sicherten. Im nördlichen Teil von Karthago stand eine neunschiffige frühchristliche Basilika aus dem 5. Jahrhundert. Das moderne Karthago. a> gesäumte Küstenstraße in Karthago mit Blick auf das Mittelmeer Heute ist Karthago ein nobler Villenvorort von Tunis und Standort des tunesischen Präsidentenpalastes. Auf dem Byrsa-Hügel thront die Kathedrale des Heiligen Ludwig. Die Kathedrale wurde 1890 von den französischen Kolonialherren an der Stelle errichtet, die als Ort des Grabes von Ludwig IX. angenommen wurde. Dieser starb 1270 in Karthago im Laufe des siebten Kreuzzuges. Bis 1965 war die größte Kirche Nordafrikas Sitz des Erzbischofs von Karthago, heute dient sie als Kulturzentrum. In dem ehemaligen Kloster neben der Kathedrale befindet sich heute das archäologische Nationalmuseum. Die elektrische Schnellbahn TGM verbindet Karthago mit der Innenstadt von Tunis. Westlich von Karthago, am Nordufer des Sees von Tunis, liegt der Flughafen Tunis-Carthage. Nördlich von Karthago reihen sich die Vororte Sidi Bou Saïd, La Marsa und Gammarth an der Mittelmeerküste. Die Ausgrabungen von Karthago gehören zu den bedeutendsten touristischen Attraktionen Tunesiens. Die meisten Reiseveranstalter bieten Tagesausflüge von den Badeorten an der Mittelmeerküste nach Tunis, Karthago und Sidi Bou Said an. Klingonische Sprache. Klingonisch (Eigenbezeichnung: tlhIngan Hol) ist eine konstruierte Sprache, die 1984 von Marc Okrand im Auftrag der Filmgesellschaft Paramount für die Klingonen, eine außerirdische Spezies im Star-Trek-Universum, geschaffen wurde. Fremde Völker in Science-Fiction-Filmen sprachen zumeist ein sinnloses Kauderwelsch, doch die Produzenten von Star Trek wollten eine Sprache mit realistischem Hintergrund verwenden, damit die Verwendung in den verschiedenen Filmen untereinander stimmig ist. Fans der Serie, aber auch Sprachforscher, griffen die Sprache auf und begannen, sie zu lernen und aktiv zu sprechen. Das "Klingon Language Institute" (KLI) beschäftigt sich mit der Erhaltung, dem Schutz und der Verbreitung der Sprache. Als Standardwerk und Grundlage der Grammatik gilt das von Okrand verfasste Wörterbuch The Klingon Dictionary. Entstehung. Marc Okrand (2008 in Leipzig) Realität. Die ersten klingonischen Begriffe wurden 1979 für den ersten "Star-Trek-Film" von James Doohan, dem Darsteller von Scotty, vorgeschlagen. Als für den Film ' weitere klingonische Dialoge benötigt wurden, wurde Marc Okrand beauftragt, die Sprache auszuarbeiten. Dabei ging er von den ersten Begriffen aus dem Jahr 1979 aus. Um der Sprache einen möglichst fremden Klang zu geben, schmückte Okrand sie mit vielen Zungenbrechern. Da es sich bei den Klingonen um ein kriegerisches Volk handelt, ist auch ihr Sprachgebrauch entsprechend schroff. Zur Begrüßung sagen sie (wenn überhaupt irgendetwas) "nuqneH", was wörtlich ‚Was willst du?‘ heißt. Der einzige bekannte Ausdruck, um sich zu verabschieden, ist "Qapla’", was so viel wie Erfolg bedeutet. Marc Okrand steht in regem Kontakt mit dem KLI und dessen Mitgliedern. Er gibt ihnen in unregelmäßigen Abständen neue Vokabeln bekannt. CBS bzw. dessen Tochterunternehmen Simon & Schuster besitzen als Verlag das Urheberrecht auf die offiziellen Wörterbücher und die kanonische Sprachbeschreibung. Ihr Anspruch auf die Sprache selbst wird angezweifelt, ist aber bislang nicht Gegenstand von gerichtlichen Auseinandersetzungen. Der bei der IANA registrierte Sprachcode für die klingonische Sprache ist i-klingon, der ISO-639-2-Code ist tlh. Klingonisch ist also als eine Sprache anerkannt. Fiktion. Auf der klingonischen Heimatwelt, dem Planeten Qo’noS (Kronos), existierten bis zur Gründung des Imperiums durch den mythischen Gründer Kahless verschiedene Volksgruppen und unterschiedliche Sprachen. Im Zuge der Einigung erwuchs aus der Notwendigkeit, sich zu verständigen, das "tlhIngan Hol". Altertümliche Formen der klingonischen Sprache werden als "no' Hol" (Sprache der Vorfahren) in der zeremoniellen Sprache, in Liedern und klassischen Geschichten, in besonderem Maße aber in der klingonischen Oper bewahrt. In einem solchen Fall müssen die Passagen in "no' Hol" von den Zelebranten und Darstellern auswendig gelernt werden, da sie sonst von heute lebenden Klingonen nicht mehr oder nur in einem falschen Sinne verstanden würden. Nach dem Zwischenfall auf dem Planeten Genesis (siehe ') wurde einer der Klingonen namens ‚Maltz‘ durch Captain Kirk gefangen genommen. Dieser Klingone lebt in Gefangenschaft und verrät der Föderation regelmäßig neue klingonische Wörter. Seine Zurückhaltung ist der Grund, warum viele Wörter noch unbekannt sind. Wortschatz. Da die Wörter ursprünglich nur für die Verwendung in den Filmen erschaffen wurden, gibt es viele Begriffe, die im alltäglichen Leben eher selten Anwendung finden, z. B. für Phaser, Raumschiff oder Planet. Aus demselben Grund herrscht ein großes Defizit bei alltäglichen Begriffen, die im Film nicht gebraucht wurden, wie Kühlschrank, Schlüssel oder Windeln. Insgesamt enthält die klingonische Sprache 90 Vor- und Nachsilben sowie ca. 1960 Wortstämme. Darin enthalten sind 60 Eigennamen, 25 Planeten, 40 fiktive Tiernamen, knapp 100 Star-Trek-spezifische Begriffe und 42 transkribierte irdische Speise- und Ländernamen. Somit existieren im Grunde lediglich knapp 1700 Grundwörter, die jedoch durch die Möglichkeit der Zusammensetzung und auch der Verwendung von Nachsilben zu insgesamt zirka 3000 möglichen Begriffen definiert werden. 1985 wurden im ersten Wörterbuch etwa 1500, in der erweiterten Neuauflage 1992 zusätzlich 300, 1997 in der Fortsetzung "Klingonisch für Fortgeschrittene" 800 und in den darauffolgenden Jahren in diversen Quellen nochmals ungefähr 400 Wörter bekannt gegeben. Dies beinhaltet nur die als Canon anerkannten Quellen, die direkt von Marc Okrand stammen. Das Ableiten von neuen Bedeutungen lässt sich beispielsweise am Grundwort "chen" „entstehen“ verdeutlichen: "chenmoH" „bilden“ → "chenmoHwI’" „Erschaffer“ → "Hew chenmoHwI’" „Bildhauer“. Eigenkreationen sind hier bis zu einem gewissen Grad auch ohne kanonische Verwendung zulässig und von der Allgemeinheit akzeptiert, solange die Bedeutung klar ist. Die Wörter basieren auf keiner irdischen Sprache, jedoch hat sich der Autor verschiedener Wortspiele bedient, um ein klingonisches Wort zu erfinden. So hat das Wort für Nachbar "jIl" den Hintergrund, dass Okrands Nachbar "Jill" heißt. Das Wort für Fisch heißt "ghotI’", in Anlehnung an das Wortspiel Ghoti. Das Wort für Stiefel – auf Englisch "boot" – ist "DaS", so wie im Filmtitel "Das Boot" zu lesen. Grammatik. Da diese Sprache für eine außerirdische Rasse entwickelt wurde, hat der Linguist Marc Okrand sich darum bemüht, sie mit einem besonders exotischen Charakter zu versehen. Dafür wurden die seltensten sprachlichen Eigenschaften verwendet, wie z. B. die sehr seltene Satzstellung Objekt – Prädikat – Subjekt und die Verwendung von Vor- und Nachsilben (siehe agglutinierende Sprachen). Im Klingonischen gibt es nur drei Wortarten: Verben, Nomen, und eine für alles andere. Adjektive fallen hierbei unter Verben und werden als ‚… sein‘ übersetzt, wie z. B. "tIn" ‚groß sein‘. Der Aufbau des Klingonischen ist sehr stark mit einem Baukastensystem zu vergleichen. Sätze werden aus vielen Einzelteilen in einer (fast immer) unveränderbaren vorgegebenen Reihenfolge zusammengesetzt. Das Klingonische kennt weder Konjugation noch Deklination. Es gibt auch keine verschiedenen Zeitformen und keine Artikel. Schrift. Um die Lautschrift des IPA-Systems zu vermeiden und die Darstellung mit üblichen Mitteln zu erleichtern, wird die klingonische Sprache mit Hilfe lateinischer Buchstaben dargestellt. Diese repräsentieren eine speziell für die klingonische Sprache entwickelte Lautschrift, was erklärt, warum manche der Buchstaben mitten im Wort als Großbuchstabe geschrieben werden. Es gab nie eine offizielle klingonische Schrift, damit Unstimmigkeiten im Filmset vermieden werden können. In "The Klingon Dictionary" heißt es, dass über die klingonische Schrift sehr wenig bekannt sei, außer dass sie "pIqaD" genannt wird. Sehr bekannt ist die sogenannte Mandel-Schrift, die 1980 im Buch "The U.S.S. Enterprise Officer’s Manual" vorgestellt wurde. Diese wurde aber dem englischen Alphabet zugeordnet und ist daher nicht kompatibel mit Okrands Lautschrift. Das KLI hat seit seiner Gründung 1992 in seinem vierteljährlichen Journal eine klingonische Schrift verwendet, die auf den in den Filmen sichtbaren Zeichen basiert, jedoch nicht identisch ist. Die exakte Quelle dieser Schriftzeichen ist nicht eindeutig bekannt, jedenfalls existierte sie schon vor der Gründung des KLI. Genau diese Schrift wurde 2011 in der Veröffentlichung des Klingonischen Monopoly, in einer klingonischen Sprachlern-Software und in einem 2012 veröffentlichten Buch über den klingonischen "Bird of Prey" (ein Raumschiff-Typ) verwendet. Daher kann dieser Schriftsatz inzwischen als offiziell betrachtet werden, auch wenn sie in den Filmen nicht verwendet wird. Das Logo der Wikipedia enthielt ursprünglich in der oberen Ecke den klingonischen Buchstaben "r". Dieser wurde nach dem Entfernen der klingonischen Wikipedia 2010 durch ein Zeichen aus dem Altäthiopischen ersetzt. Dialekte. Die während der Filme schlecht ausgesprochenen Szenen und unbeabsichtigten grammatikalischen Fehler werden nachträglich im Buch "Klingonisch für Fortgeschrittene" folgendermaßen als Dialekte und Umgangssprache erklärt: Als Standard-Klingonisch gilt der Dialekt des jeweiligen Herrschers, der als "ta’ tlhIngan Hol" (kurz: "ta’ Hol") bezeichnet wird (wörtlich: ‚Klingonisch des Imperators‘). Da häufige Machtwechsel für die klingonische Kultur charakteristisch sind, wechselt der Dialekt des Herrschers entsprechend oft. Für sprachwissenschaftlich vergleichende Zwecke findet der klingonische Dialekt, welcher in der Hauptstadt von Qo’noS gesprochen wird, als Standard Verwendung. Offizielle Anerkennung. Die klingonische Sprache ist eine der wenigen fiktionalen Sprachen, die in diversen Normen gefestigt wurden und damit in gewisser Hinsicht einen offiziellen Status erhalten haben: 1999 wurde die Sprache in der Liste der IANA mit dem Kürzel i-klingon eingetragen. Diese Verwendung wurde im Februar 2004 abgelöst durch die Eintragung des Kürzels tlh in die ISO 639-2 und 639-3, die durch den Library of Congress verwaltet wird. Derselbe Code wird auch in der "MARC Code List for Languages" verwendet. Bezeichnung der Sprache. Es gibt nur wenige Sprachen, die wie im Deutschen ein eigenes Wort für die klingonische Sprache haben, in diesem Fall eben "Klingonisch". Dies liegt meist daran, dass viele Länder die Sendungen im Originalton senden, und sogar dann auch in den Untertiteln von einem Klingon-Schiff oder einem Romulan-Captain reden. Manche Sprachen haben dennoch eine Anpassung gemacht, indem die landestypische Sprachbezeichnung an den Stamm "Klingon" gehängt wird, so wie das deutsche "Klingonisch" oder das tschechische "Klingonština". Die deutsche Version wurde spätestens mit der Veröffentlichung des Werks "Das Offizielle Wörterbuch Klingonisch-Deutsch" offiziell. In den meisten Sprachen ist es einfach nur "Klingon", wenige sagen "Klingon-Sprache," um die Sprache von den Klingonen zu unterscheiden. Sprecheranzahl. Der Vorsitzende des KLI, Lawrence M. Schoen, als auch die Sprachwissenschaftlerin Arika Okrent schätzen, dass es etwa 20 bis 30 Menschen gibt, die Klingonisch fließend sprechen. Es gäbe wohl mehr als zweitausend Leute, die zumindest ein oder zwei Wörter in Klingonisch kennen. Das größte Problem bei einer Schätzung ist die Definition, ab wann jemand eine Sprache fließend sprechen kann. Verwendung. Klingonisch wurde ursprünglich nur für die Kinofilme entwickelt und dort verwendet. Eine alltägliche Konversation auf Klingonisch stößt schnell an die Grenzen des beschränkten Vokabulars von knapp 3.000 Begriffen. Fans verwenden die Sprache gerne im Rahmen des Rollenspiels (siehe Cosplay) und auf Conventions, um ihren Charakteren mehr Authentizität einzuhauchen. In Sprachkursen wird Klingonisch geübt und gesprochen (→ qepHom), aber auch Sprachforscher und Studenten befassen sich mit dem Thema und erstellen z. B. Diplomarbeiten über das Thema Klingonisch oder dessen Nutzer. Es gibt regelmäßig Erwähnungen und kleine Verwendungen in diversen Medien. Literatur-Übersetzungen. Das eingeschränkte Vokabular der Sprache lässt Übersetzungen literarischer Werke nur eingeschränkt zu. So könnte zum Beispiel eine Übersetzung von Lewis Carrolls "Alice in Wonderland" in das Klingonische nicht erstellt werden (im Gegensatz zu anderen Kunstsprachen wie Volapük oder Esperanto), da zahlreiche dafür notwendige Wörter nicht verfügbar sind. Auch das häufig fälschlicherweise als abgeschlossen beschriebene Bibel-Übersetzungsprojekt ist an dieser Hürde gescheitert. Auch andere Projekte erfordern nicht selten Umformulierungen bei der Übersetzung. So wurde zum Beispiel das Wort „Sonne“ im klingonischen Hamlet als „Tages-Stern“ "(pemHov)" umschrieben, weil zu dem Zeitpunkt noch kein Wort dafür bekannt war. Gelegentlich werden für neue Projekte neue Vokabeln durch Okrand bereitgestellt. Kohlenhydrate. Kohlenhydrate oder Saccharide bilden eine biologisch und chemisch bedeutsame Stoffklasse. Als Produkt der Photosynthese machen Kohlenhydrate den größten Teil der Biomasse aus. Mono-, Di- und Polysaccharide (u. a. Stärke und Cellulose) stellen zusammen mit den Fetten und Proteinen den quantitativ größten verwertbaren und nicht-verwertbaren (Ballaststoffe) Anteil an der Nahrung. Neben ihrer zentralen Rolle als physiologischer Energieträger spielen sie als Stützsubstanz vor allem im Pflanzenreich und in biologischen Signal- und Erkennungsprozessen (z. B. Zell-Zell-Erkennung, Blutgruppen) eine wichtige Rolle. Die Wissenschaft, die sich mit der Biologie der Kohlenhydrate beschäftigt, heißt Glykobiologie. Die Monosaccharide (Einfachzucker, z. B. Traubenzucker, Fruchtzucker), Disaccharide (Zweifachzucker, z. B. Kristallzucker, Milchzucker, Malzzucker) und Oligosaccharide (Mehrfachzucker, z. B. Raffinose) sind wasserlöslich, haben einen süßen Geschmack und werden im engeren Sinne als Zucker bezeichnet. Die Polysaccharide (Vielfachzucker, z. B. Stärke, Cellulose, Chitin) sind hingegen oftmals schlecht oder gar nicht in Wasser löslich und geschmacksneutral. a> miteinander verbunden. Etwa alle 25 Monomere erfolgt eine α-1,6-glykosidische Verzweigung. Etymologie. Diese Polysaccharide – ein Beispiel ist die Amylose – zählen zu den Homopolymeren. Geschichte. Bereits im Jahr 1811 machte Constantin Kirchhoff die Entdeckung, dass sich beim Kochen von Stärkemehl mit Säure Traubenzucker bildet. Auf Anregung von Johann Wolfgang Döbereiner wurde 1812 während der Kontinentalsperre eine Stärkezuckerfabrik errichtet. Henri Braconnot entdeckte 1819, dass durch Einwirkung von konzentrierter Schwefelsäure auf Cellulose Zucker entsteht. William Prout gab nach chemischen Analysen des Zuckers, der Stärke durch Joseph Louis Gay-Lussac und Thénard dieser Stoffgruppe den Gruppennamen "Sacharine". Physiologische Synthese. Einfachzucker werden von Pflanzen im Calvin-Zyklus durch Photosynthese aus Kohlenstoffdioxid und Wasser aufgebaut, und enthalten Kohlenstoff, Wasserstoff und Sauerstoff. Zur Speicherung oder zum Zellaufbau werden diese Einfachzucker bei praktisch allen Lebewesen zu Mehrfachzuckern verkettet. Pflanzen synthetisieren in den Plastiden (z. B. Chloroplasten) das Polysaccharid Stärke. Tiere bilden in der Leber aus Glucose den langkettigen Speicherzucker Glykogen. Die Energieversorgung des Gehirns ist hochgradig von Glucose abhängig, da es Fette nicht direkt energetisch verwenden kann. In Hungersituationen ohne Kohlenhydratzufuhr oder bei verstärkter Muskelarbeit wird daher unter Energieaufwand Glucose in der Gluconeogenese aus den Stoffwechselprodukten Lactat, bestimmten Aminosäuren (u. a. Alanin) und Glycerin synthetisiert. Die Gluconeogenese verwendet zwar einige Enzyme der Glycolyse, dem Abbauweg der Glucose zur Erzeugung von energiereichem ATP und NADH+H+, ist aber keinesfalls als deren Umkehrung zu verstehen, da entscheidende Schritte von eigenen Enzymen wie gesagt unter Energieverbrauch stattfinden. Glycolyse und Gluconeogenese sind reziprok reguliert, d. h. sie schließen einander in ein und derselben Zelle "nahezu" aus. Unterschiedliche Organe können jedoch sehr wohl gleichzeitig den einen und den anderen Weg beschreiten. So findet bei starker Muskelaktivität im Muskel Glycolyse und damit Lactatfreisetzung und in der Leber Gluconeogenese unter Verwendung von Lactat statt. Dadurch wird ein Teil der Stoffwechsellast in die Leber verlagert. Nahrung. Kohlenhydrate sind neben Fett und Eiweiß ein wesentlicher Bestandteil der menschlichen Nahrung. Wichtige Grundnahrungsmittel, die einen hohen Anteil an Kohlenhydraten aufweisen, sind die verschiedenen Getreidesorten, die zu Lebensmitteln verarbeitet werden (Reis, Weizen, Mais, Hirse, Roggen, Hafer) bzw. als Viehfutter genutzt werden (vor allem Gerste, Hafer, Mais, Triticale). Die stärkehaltigen Getreideprodukte sind u. a. Brot, Nudeln, Kuchen u. v. a. m. Die Wurzelknollen der Kartoffel, eines Nachtschattengewächses, und die zu den Hülsenfrüchten gehörenden Erbsen, Bohnen und Linsen weisen einen hohen Kohlenhydratanteil auf. Pflanzenarten, die vor allem zur Kohlenhydrataufnahme in der Ernährung beitragen, sind in der Liste der Nutzpflanzen zusammengestellt. Die in der Pflanzenwelt als Stützsubstanz in großen Mengen vorkommende Cellulose ist für den Menschen unverdaulich. Sie ist aber von den Wiederkäuern wie Rindern, Schafen und Ziegen verwertbar, da diese sich in ihren Vormägen (Pansen) den mikrobiellen Aufschluss zu Nutze machen. Verdauung und Verwertung. Die unmittelbare Energiewährung für biologische Prozesse ist das Adenosintriphosphat (ATP), das zum Beispiel die Muskelkontraktion antreibt und an fast allen energieverbrauchenden Prozessen beteiligt ist. Es liegt jedoch in den Zellen nur in geringer Konzentration vor und muss durch aeroben und anaeroben Abbau energiereicher Verbindungen wie Fette, Kohlenhydrate oder Proteine in den Zellen nachgeliefert werden. Kohlenhydrate sind der Hauptenergielieferant für den Organismus. Sie sind im Gegensatz zu den Fetten relativ schnell verwertbar, da sie anaerob Energie liefern. Ein wichtiger Kohlenhydratbaustein im Energiehaushalt des Körpers ist die Glucose. Jede Körperzelle kann Glucose durch die Zellmembran aufnehmen bzw. wieder abgeben. In den Zellen der verschiedenen Organe kann sie entweder durch Verstoffwechselung die chemische Energie für Muskelarbeit, anabole Prozesse oder Gehirnaktivität liefern oder in Form von Glucoseketten als Glykogen gespeichert werden. Die akute Energieversorgung des Körpers wird im Wesentlichen über die im Blut gelöste Glucose gewährleistet. Ihre Konzentration im Blut, der sogenannte Blutzuckerspiegel, wird in engen Grenzen gehalten. Bei der Verdauung wird die Glucose im Dünndarm als Monosaccharid aus dem Nahrungsbrei aufgenommen und in das Blut abgegeben. Nach der Nahrungsaufnahme steigt der Blutzuckerspiegel daher an. Die ins Blut aufgenommene Glucose muss also erst einmal zwischengespeichert werden. Das Signal hierzu gibt das Insulin, ein Peptidhormon. Es signalisiert dem Muskel- und Lebergewebe, verstärkt Glucose aus dem Blut aufzunehmen und zu Glycogen zu verketten. Bei der Aufnahme (Resorption) der Glucose aus der Nahrung ist es nicht egal, wie schnell das geschieht. Da die Glucose in der Nahrung in mehr oder weniger oligomerisierter, bzw. polymerisierter, genauer: polykondensierter Form vorliegt, müssen die Glucoseketten im Verdauungstrakt aufgespalten werden, was je nach Länge der Ketten unterschiedlich schnell geschieht. Werden z. B. stärkehaltige Nahrungsmittel wie Brot oder Kartoffeln gegessen, so zerlegen die Verdauungsenzyme die Glucosekette der Stärke in einzelne Bruchstücke und schließlich bis zu den einzelnen Glucose-Molekülen, die nach und nach in den Blutkreislauf übergehen. Es vergeht also eine gewisse Zeit, bis die Stärke vollständig zerlegt und die Glucose-Bausteine aufgenommen werden. Der Blutzucker steigt hier daher eher langsam an. Auch die anderen Nahrungsbestandteile spielen für die Geschwindigkeit des Blutzuckeranstiegs eine Rolle. Dies gibt dem Körper Zeit, die energiereichen Moleküle einzulagern. Je schneller die Glucose im Verdauungstrakt freigesetzt wird, desto schneller steigt der Blutzuckerspiegel an. Wenn sie in Form von Zucker, also direkt als Glucose oder kurzkettigen Di-, Tri- und Oligomeren, aufgenommen wird, so steigt der Blutzuckerspiegel schnell an, welches der Grund für die belebende Wirkung zuckerhaltiger Süßigkeiten und Getränke ist. Bei körperlicher oder geistiger Aktivität wird der Körper so mit schneller Energie versorgt. Wird jedoch „schwer gegessen“, also eine umfangreiche Mahlzeit eingenommen, so wird durch die intensive Durchblutung des Verdauungstraktes dem Muskelgewebe und dem Gehirn Energie entzogen, so dass man eher träge wird. Hierbei spielt das Insulin eine Rolle, da bereits während der Mahlzeit Insulin ausgeschüttet wird, welches den Blutzucker senkt. Der Blutzuckerspiegel steigt also während der Mahlzeit zunächst an, sinkt aufgrund der Einlagerung der Glucose in Muskeln und Leber ab und erreicht wieder einen normalen Wert. Ein niedriger Blutzuckerspiegel spielt beim Hungergefühl eine entscheidende Rolle. Daher kann es sein, dass man ca. eine halbe bis eine ganze Stunde nach einer Mahlzeit wieder ein leichtes Hungergefühl hat. Es ist daher sinnvoll, das Dessert oder den Kaffee an die Mahlzeit anzuschließen, da Ersteres durch den Zuckergehalt und Letzterer durch die den Blutzuckerspiegel steigernde Wirkung des Koffeins dieses Absinken ausgleicht. Wenn die Versorgung der Gewebe mit Kohlenhydraten größer ist als ihr Verbrauch, wird der Überschuss in Fett umgewandelt und als Depotfett gespeichert. Fette haben eine höheren physiologischen Brennwert als Kohlenhydrate und haben keine Hydrathülle. Sie sind für die langfristige Energiespeicherung also platzsparender als Kohlenhydrate und bewirken eine bessere Wärmedämmung des Körpers. Entgegen der landläufigen Meinung werden Fettdepots ständig energetisch verwertet und nicht erst, wenn der Glycogenspeicher im Muskel reduziert ist. Dass der Abbau von Körperfett erst nach ca. 30-minütiger Ausdauerübung einsetzt, ist falsch. Tatsächlich verhält es sich so, dass das Adenosintriphosphat (ATP) für intensive Muskelarbeit durch vier Energiequellen geliefert wird. Daran den größten Anteil hat die Verwertung von Creatinphosphat (aus dem Proteinstoffwechsel), das ein höheres Phosphatgruppenübertragungspotential hat als ATP und dieses daher schnell nachliefern kann; es folgt die anaerobe Zuckerverwertung; etwas geringer ist der Anteil der oxidativen Zuckerverwertung; und den geringsten Anteil hat der Fettabbau. Je intensiver die Anstrengung ist, desto stärker nimmt der Anteil der ersten, insbesondere anaeroben Anteile zu. Folglich nimmt der relative Anteil des Fettabbaus bei erhöhter Pulsfrequenz ab, die absolute Menge des verwerteten Fettes nimmt aber sehr wohl zu, da der Gesamtenergieumsatz ebenfalls zunimmt. Der erhöhte Anteil des anaeroben Stoffwechsels hängt mit dem abnehmenden Sauerstoffangebot im Muskel bei starker Muskelarbeit zusammen, da der Fettabbau im Stoffwechsel ein aerober Prozess ist. Untrainierten Sportlern wird oft geraten, ausdauernd und leistungsschwach anzufangen („Laufen, ohne zu schnaufen“). Es gibt jedoch die Ansicht, dass allein die Energiebilanz beim Sport entscheidend ist, da z. B. nach der Anstrengung noch ein weiterer Abbau der Fette stattfindet. Wird also während des Trainings viel Glucose umgesetzt, wird in der Erholungsphase umso mehr Fett abgebaut. Weitere Faktoren des Fettabbaus sind die Art und die Frequenz der Nahrungsaufnahme, da mit jedem Insulinausstoß der Fettabbau gehemmt wird. Mit zunehmendem Training vergrößert sich die Muskelmasse, die Sauerstoffaufnahme verbessert sich, wodurch ein erhöhter Fettabbau entsteht. Leistungssportler trainieren vor einem Wettkampf durch den geeigneten Zeitpunkt der Nahrungsaufnahme die Optimierung ihres Glycogenspeichers, da dieser ein wichtiger Energiespeicher für kurzfristige Leistungsspitzen ist. Kohlenhydrate gelten nicht als essentiell, da der Körper sie in der Gluconeogenese unter Energieaufwand aus anderen Nahrungsbestandteilen wie Proteinen und Glycerin selbst herstellen kann. Da insbesondere das Gehirn hochgradig von Glucose als Energieträger abhängig ist und keine Fette verwerten kann, muss der Blutzuckerspiegel in engen Grenzen gehalten werden. Dessen Regulation erfolgt durch das Zusammenspiel von Insulin und Glucagon. Bei Kohlenhydratmangel wird das Gehirn durch Ketonkörper versorgt, was sich z. B. bei einer Diät durch Acetongeruch bemerkbar macht. Eine völlig kohlenhydratfreie Ernährung wurde im Tierversuch bei Hühnern problemlos vertragen. Auch eine Langzeitstudie an Kindern und jungen Erwachsenen mit der sehr kohlenhydratreduzierten ketogenen Diät zeigte gesundheitliche Unbedenklichkeit. Eine eigenständige Erkrankung des Menschen durch das Fehlen von Kohlenhydraten ist unbekannt. Der Energiegehalt eines Gramms Kohlenhydrat beträgt rund 17,2 Kilojoule (4,1 kcal). Die physiologische Energieerzeugung aus Kohlenhydraten erfolgt im Normalfall in der nicht-oxidativen Glycolyse und im oxidativen Citrat-Zyklus. Die Oxidationsschritte im Citrat-Zyklus bestehen in einer Abspaltung von Wasserstoff, der durch Wasserstoffüberträger in die Atmungskette eingespeist und dort mit Sauerstoff zu Wasser oxidiert wird. Das dabei an der Mitochondrienmembran erzeugte Membranpotential liefert mit Abstand die meiste Energie für die ATP-Synthese aus ADP. Gärung. Die Gärung ist ein Stoffwechselprozess, bei dem unter Sauerstoffabschluss (Anaerobie) Kohlenhydrate zum Energiegewinn abgebaut werden. Sie wird in der Natur vor allem von Mikroorganismen genutzt, jedoch können Pflanzen unter Sauerstoffmangel auf sie zurückgreifen. In den Muskeln findet unter Sauerstoffmangel Milchsäuregärung statt. Gärungen werden vielfältig zur Herstellung und Veredelung von Lebensmitteln genutzt. So wird bei der Milchsäuregärung Milchzucker zu Milchsäure umgesetzt und zur Herstellung von Joghurt, Quark und Buttermilch genutzt. Die Herstellung von Sauerteig und Silage beruhen auf der Gärung von Kohlenhydraten zu Milchsäure. Bei der Käse-Herstellung ist die Milchsäuregärung ein wichtiger Zwischenschritt. Bei der alkoholischen Gärung werden verschiedene Zuckerarten zu Alkohol vergoren. Zu nennen wäre hier u. a. Malzzucker beim Bierbrauen und Traubenzucker beim Keltern von Wein. Stärkehaltige Nahrungsmittel wie Kartoffeln, Getreide und Reis werden z. B. zu Schnäpsen, Früchte zu Obstwässern verarbeitet. Im Vergleich zur Zellatmung wird bei Gärungen nur eine geringe Menge Energie gewonnen, da statt Citratzyklus und anschließender Atmungskette nur die Substratkettenphosphorylierung genutzt werden kann. Systematik. Strukturkohlenhydrate können von Säugern mit einhöhligem Magen nur bedingt verdaut werden, hingegen weitgehend oder vollständig von Wiederkäuern (Ruminantia), Kamelartigen (Camelidae) (diese sind ebenfalls Wiederkäuer, allerdings nicht im systematischen Sinne, da sich bei ihnen das Wiederkäuen unabhängig entwickelt hat) und Pferdeartigen (Equidae). Die Einteilung nach chemischer Struktur ist im Absatz "Liste wichtiger Kohlenhydrate" dargestellt. Liste wichtiger Kohlenhydrate. Siehe Hauptartikel →Monosaccharide für eine umfangreichere Liste. Strukturbeispiele. Die folgende Tabelle zeigt einige Beispiele für die Vielfalt natürlicher Kohlenhydratstrukturen. Pentosen und Hexosen können im Prinzip sowohl Fünf- als auch Sechsringe bilden, wobei ein neues Chiralitätszentrum entsteht, so dass einschließlich der offenkettigen Form bereits für ein Monosaccharid fünf Isomere existieren. Durch glykosidische Bindungen können sich Monosaccharide zu Oligo- und Polysacchariden verbinden. Dadurch potenziert sich die Anzahl möglicher Kohlenhydratstrukturen theoretisch zu einer schier unendlichen Vielfalt. Die Natur beschränkt sich allerdings auf energetisch günstige Strukturen. Das Beispiel der α-D-Glucopyranose zeigt verschiedene gleichwertige Darstellungsformen. Chemie. Kohlenhydrate sind Hydroxyaldehyde oder Hydroxyketone sowie davon abgeleitete Verbindungen, haben in ihrer offenkettigen Form also neben mindestens zwei Hydroxygruppen auch mindestens eine Aldehydgruppe oder Ketogruppe. Handelt es sich um ein Hydroxyaldehyd (Carbonylgruppe an einem terminalen C-Atom (Aldehyd)), so spricht man von einer Aldose, handelt es sich um ein Hydroxyketon (Carbonylgruppe an einem internen C-Atom (Ketone)), bezeichnet man den Zucker als Ketose. Die Carbonylfunktion ist eine hochreaktive funktionelle Gruppe: Zu nennen sind hier besonders die leichte Oxidierbarkeit zur Carbonsäure, die Reduktion zum Alkohol und der leichte nukleophile Angriff am Kohlenstoffatom der Carbonylgruppe. Nachweis. Ein genereller Nachweis von Kohlenhydraten kann durch die Molisch-Probe und die PAS-Reaktion erfolgen. Die Unterscheidung von Monosacchariden von Di-, Oligo- oder Polysacchariden ist durch die Barfoed'sche Probe möglich. Aldosen und Ketosen können durch die Seliwanow-Probe mit Resorcin unterschieden werden. Reduzierende Zucker können mit der Fehling-Probe nachgewiesen werden, bei der sich bei Anwesenheit von Aldehyden und reduzierenden Zuckern (Aldosen und Acyloine) rot-braunes Kupfer(I)-oxid bildet. Neben der Fehling-Probe können reduzierende Zucker auch mit Hilfe des Benedict-Reagenz (durch die Farbe des ausfallenden Produkts), mit Nylanders Reagenz, mit 3,5-Dinitrosalicylsäure oder aufgrund der Entfärbung einer Kaliumpermanganat-Lösung nachgewiesen werden. Die Unterscheidung von Pentosen und Hexosen kann durch die "Mejbaum-Probe" mit Orcin oder durch die Bial-Probe (ebenfalls mit Orcin) erfolgen. Durch die Dische-Probe kann mit Diphenylamin Desoxyribose nachgewiesen werden. Oxidation. Durch Oxidationsmittel werden Kohlenhydrate zu Aldonsäuren oxidiert. Dies gilt unter basischen Bedingungen nicht nur für die Aldosen, sondern auch für die Ketosen, die durch die Base in einer komplexen Reaktion umgelagert werden (dabei wird die im Zuge der Keto-Enol-Tautomerie auftretende Aldose-Form stabilisiert). Beim Nachweis durch das Fehling-Reagenz wird ein blauer Cu(II)-Weinsäure-Komplex zu unlöslichem, roten Cu(I)oxid reduziert. Reduktion. Wird die Carbonylfunktion zur Hydroxygruppe reduziert, erhält man ein sogenanntes Alditol. Cyclisierung zum Halbacetal und Mutarotation. Die Gleichgewichtseinstellung zwischen α- und β-D-Glucose läuft über die offenkettige Form. Durch intramolekularen nukleophilen Angriff einer der Hydroxygruppen auf das Carbonylkohlenstoffatom bildet sich ein zyklisches Halbacetal, welches energetisch meist sehr günstig ist. Hierbei werden überwiegend Sechsringe (pyranose Form) gebildet, die eine sehr niedrige Ringspannung aufweisen, es entstehen aber auch in geringerem Maße Fünfringe (furanose Form). Andere Ringgrößen treten nicht auf, da sie eine zu hohe Ringspannung aufweisen. Es entsteht ferner ein neues Chiralitätszentrum. Die beiden resultierenden Diastereomere werden mit α und β bezeichnet. In wässriger Lösung bilden α- und β-pyranose und -furanose Form eine Gleichgewichtsreaktion miteinander und mit der offenkettigen Form. Eine wässrige Lösung von reiner α-Glukopyranose wird daher nach einiger Zeit zu einer Gleichgewichtsmischung aus α- und β-Glucopyranose und -furanose (38 % α-Glcp, 62 % β-Glcp, 0 % α-Glcf, 0,14 % β-Glcf, 0,002 % offenkettig). Die hierbei messbare Veränderung des Drehwertes wird als Mutarotation bezeichnet. Während aliphatische Aldehyde bereits von Luftsauerstoff allmählich zur Carbonsäure oxidiert werden, sind Kohlenhydrate durch die Acetalbildung erheblich unempfindlicher, was zweifelsohne für eine so wichtige Biomolekülklasse von enormer Bedeutung ist. Glykosylierung. Von zentraler Bedeutung in der Kohlenhydratchemie und Biochemie ist ferner die glykosidische Bindung. Das hierbei gebildete zyklische Vollacetal eines Zuckers bezeichnet man als Glykosid. Amadori-Produkte und Maillard-Reaktion. Diese nichtenzymatische Reaktion erfolgt im Organismus mit Aminosäuren und Eiweißen relativ häufig und ist einer der zentralen Vorgänge beim Altern (z. B. Altersflecken), da die Reaktionsprodukte vom Körper nicht abgebaut werden können. Ferner spielt sie eine wichtige Rolle bei der thermischen Zubereitung von Lebensmitteln, z. B. beim Braten und Kochen. Es kommt zu der typischen Bräunung, da sich konjugierte Ringsysteme bilden, die farbig sind. Diese Produkte der sogenannten Maillard-Reaktion sind auch für den Geschmack zubereiteter Lebensmittel entscheidend. Kalender. Ein Kalender ist eine Übersicht über die Tage, Wochen und Monate eines Jahres. Eine veraltete Bezeichnung ist "Jahrweiser". Das Wort „Kalender“ entstammt dem lateinischen "Calendarium" (Schuldbuch). Dies war ein Verzeichnis der Kalendae, der jeweils ersten, auszurufenden ("calare" „ausrufen“) Tage der antiken Monate. An diesen wurden Darlehen ausgezahlt und Darlehensrückführungen sowie Zins­forderungen fällig. Es gibt verschiedene Kalendersysteme, heute ist weltweit überwiegend der gregorianische Kalender in Gebrauch. Kalender gibt es in verschiedenen – gedruckten, bebilderten, elektronischen – Formen (siehe auch Kalendarium). Die Regeln zur Aufstellung von Kalendern ergeben sich aus astronomischen Gegebenheiten (Mondphasen, Sonnenjahr) und entsprechenden Kalenderberechnungen. Die wissenschaftliche Kalenderkunde ist ein Teilgebiet der astronomischen Chronologie. Die vorwissenschaftliche Kunst, Kalender zu erstellen, nennt man Hemerologie. Entstehung des Kalenderwesens. Die Kenntnis regelmäßig stattfindender Tierwanderungen war bereits für die frühen Jägerkulturen wichtig. Ein Bewusstsein für jahreszeitlich und astronomisch sich wiederholende Ereignisse, für entsprechende Zyklen seiner Umwelt, dürfte der Mensch schon sehr früh gehabt haben. Dazu gehörte der Wechsel von Tag und Nacht sowie die Mondphasen. Jahreszeitlich bedingte Klima­schwankungen spielten in der Landwirtschaft der meisten Weltregionen eine bedeutende Rolle und konnten vom Menschen spätestens in der Altsteinzeit wahrgenommen werden. Eine Beobachtung der Veränderungen des Nachthimmels sowie der Eigenbewegungen der Planeten war zu dieser Zeit ebenfalls möglich. Schon der Turm von Jericho aus dem 9. Jahrtausend v. Chr. deutet auf die Kenntnis der Sommersonnenwende hin und jungsteinzeitliche Bauten wie etwa Stonehenge zeugen von den Bemühungen der sesshaft gewordenen Bevölkerung, die natürliche Jahreslänge und ausgewählte zyklisch wiederkehrende Himmelsereignisse wie Sonnenwende und Tag-und-Nacht-Gleiche exakt bestimmen zu können. Gerade für die Landwirtschaft war wichtig, eine von den konkreten Wetter­bedingungen unabhängige Bestimmung der Zeitpunkte für Aussaat und Ernte vornehmen zu können. Mit der systematischen Himmelsbeobachtung verbunden waren religiöse Fruchtbarkeitskulte – getragen von der Hoffnung auf eine günstige Wiederkehr der Fruchtbarkeitsbedingungen. So wurden bestimmte landwirtschaftliche Termine an Feste gebunden, die wiederum an Himmelsereignisse geknüpft waren. Für den Übergang von Jägerkulturen zum Ackerbau im Neolithikum (Jungsteinzeit) wird eine Veränderung kalendarischer Vorstellungen vom Mond- zum Sonnenkalender angenommen. Dieser steinzeitliche Kalender, auch "neolithischer Kalender" (von Alexander Thom auch "megalithischer Kalender" genannt) beinhaltet wohl die ältesten kalendarischen Vorstellungen der Menschheit und ist die Grundlage späterer Kalendervarianten. Analog zum Begriff der Neolithischen Revolution (Übergang zum Ackerbau) wird auch von der "Neolithischen Kalender-Revolution" gesprochen. Die ältesten heute noch bekannten Kalender stammen aus den frühen Hochkulturen Ägyptens und Mesopotamiens. Hier zeigten sich schon zwei grundlegende Kalendertypen, die bis heute die meisten Kalendersysteme prägen: der an den Mondphasen orientierte Mondkalender und der astronomische Kalender, der den Lauf der Himmelskörper widerspiegelt. Spätestens von den Babyloniern wurde der siebentägige Wochen­zyklus entwickelt, der heute fast weltweit den Ablauf des Alltags regelt. In anderen Kalendern gab es ähnliche Zyklen, zwischen fünf und zehn Tagen. Die Anpassung von Wochen und Monatsfolgen an die feste Größe des astronomischen Jahres war nicht einfach zu lösen. Es kam zur Herausbildung verschiedener Kalendersysteme. Beobachtungskalender. Frühe Kalendersysteme wurden durch Beobachtung gewonnen ("astronomische Kalender"). Mit dem Eintritt eines bestimmten definierten Himmelsereignisses (z. B. des Neumonds oder der Tag-und-Nacht-Gleiche im Frühling) begann ein neuer Zyklus. Sie mussten regelmäßig nachgeregelt werden. Diese Methode hatte einen entscheidenden Nachteil: In großen Herrschaftsräumen konnte ein Ereignis an unterschiedlichen Orten eventuell zu unterschiedlichen Zeiten wahrgenommen werden, so dass auch unterschiedliche Daten gezählt wurden. Wenn dagegen der Eintritt eines Ereignisses nur an einem bestimmten Ort (z. B. der Hauptstadt oder dem Haupttempel) maßgeblich war, dann konnten weit entfernt gelegene Gebiete oft erst nach Tagen davon unterrichtet werden. Solche Probleme gab es beispielsweise im früheren jüdischen Kalender, wo der Hohepriester über die erste Sichtung der Mondsichel bei Neumond entschied. Durch die langen Informationswege konnte es passieren, dass ein religiöses Fest in abgelegenen Gebieten am „falschen“ Tag gefeiert wurde. Auch war es kurz vor Monatsende nicht möglich vorherzusagen, welches Datum z. B. in sieben Tagen sein würde, weil der Neumond nicht vorausberechnet, sondern durch tagesaktuelle Beobachtung ermittelt wurde. Immer mehr Kulturen begannen deshalb ihre Kalender zu berechnen. Der letzte ernsthafte Versuch, einen Beobachtungs-Kalender zu etablieren, wurde in der Französischen Revolution unternommen (Französischer Revolutionskalender). Kalenderberechnung. Astronomische Kalenderuhr (Abb.) aus Uppsala (Schweden) Die Berechnung von Kalendern (arithmetische Kalender) setzt umfangreiche astronomische und mathematische Kenntnisse voraus. Bei der Entwicklung des frühen ägyptischen astralen Sothiskalenders waren diese Kenntnisse vorhanden. Die Einführung eines ägyptischen Verwaltungskalenders auf 365-Tage-Basis folgte spätestens im dritten Jahrtausend v. Chr. Dieser konnte jedoch das "Durchwandern der Jahreszeiten" nicht verhindern. Die ägyptischen Könige bemängelten die Jahreszeitenverschiebung, doch erst Ptolemaios III. unternahm 238 v. Chr. einen Versuch zur Einführung eines Schalttages. Nach seinem Tod wurde neben dem neuen Schalttageskalender jedoch wieder der alte ägyptische Verwaltungskalender benutzt. Der julianische Kalender, der 45 v. Chr. von Julius Cäsar eingeführt wurde, stützte sich gleichwohl auf die Kalenderform des Ptolemaios III. Schalttage. Sowohl Mond- als auch Sonnenkalender müssen mit Schalttagen oder unterschiedlichen Monatslängen arbeiten, die nach einer festgelegten mathematischen Regel in den normalen Kalenderlauf eingefügt sind. Ein Sonnenkalender benötigt normalerweise einen zusätzlichen Tag circa alle vier Jahre (im gregorianischen Kalender ist dies der 29. Februar), um die durchschnittliche Tageszahl der Länge des Sonnenjahrs anzupassen. Ein Mondkalender muss die Monatslängen zwischen 29 und 30 Tagen variieren, denn die Zeit zwischen zwei gleichen Mondphasen dauert durchschnittlich circa 29,531 Tage. Der Einschub eines zusätzlichen Tages, Monats oder Jahres in ein Kalendersystem wird als "Embolismus" („einschalten“) bezeichnet. Mondkalender. Lunar- oder Mondkalender orientieren sich an den Mondphasen. Das deutsche Wort Monat leitet sich etymologisch von Mond ab. Allerdings hat der Monat des gregorianischen Kalenders außer dem Namen nichts mehr mit dem Mondzyklus zu tun, da er mit einer durchschnittlichen Länge von 30,437 Tagen um fast einen Tag länger dauert als der durchschnittliche synodische Monat. Der Nachteil eines reinen Lunarkalenders besteht darin, dass er nicht mit dem Sonnenjahr korrespondieren kann, eine Eigenschaft, die in subtropischen und tropischen Breiten oft nicht die Bedeutung hat, die ihm in von den Jahreszeiten abhängigen Kulturen zukommt. So dauert im bekanntesten heute noch gebräuchlichen lunaren Kalender, dem islamischen Kalender, das Jahr mit 12 Monaten durchschnittlich 354,372 Tage. Die islamischen Monate „wandern“ dadurch Jahr für Jahr zirka elf Tage im gregorianischen Kalender nach vorne. Auch das Osterdatum folgt einem Lunaren Kalender (siehe: "Computus (Osterrechnung)") Solarkalender. Die meisten Kulturen orientierten sich bei ihrer Zeitmessung an den durch die Sonne bestimmten Jahreszeiten (Solar- oder Sonnenkalender). Dementsprechend hat der Grundtyp des Solarkalenders die meisten Varianten hervorgebracht. Das "Solarjahr" orientiert sich am tropischen Jahr, dem auf den Frühlingspunkt bezogenen Umlauf der Erde um die Sonne. Dieses ist die Ausgangsbasis für den allgemeinen Jahres­begriff. Der heute weltweit verbreitete gregorianische Kalender ist ein solarer Kalender. Lunisolarkalender. Der Lunisolarkalender stellt den Versuch dar, einen reinen Lunarkalender an das Sonnenjahr anzupassen. Da die Länge der Monate durch die Mondphasen festgelegt ist, können keine Schalttage wie beim Sonnenkalender eingefügt werden. Die Lösung liegt in der Einfügung von Schaltmonaten. Die Jahreslänge der Lunisolarkalender schwankt deshalb zwischen zirka 353 und zirka 385 Tagen. Bekannte Lunisolarkalender sind der jüdische, der traditionelle chinesische und der keltische Kalender. Andere Systeme. Es sind nur wenige Kalendersysteme bekannt, die sich weder am Mond noch an der Sonne orientieren. Der astronomische ägyptische Kalender orientierte sich an dem sehr hellen Stern Sirius. Die Maya-Kalender basierten auf einer regelmäßigen Folge von 20 Tagen und einer 52 Jahre dauernden Kalenderrunde. Koran. a> Aziz Efendi. (Transkription und Übersetzung auf der Bildbeschreibungsseite) Teil eines Verses aus der 48. Sure "Al-Fath" in einer Handschrift aus dem 8. oder 9. Jahrhundert. Der Koran oder Qur'an () ist die Heilige Schrift des Islams, die gemäß dem Glauben der Muslime die wörtliche Offenbarung Gottes (arab. "Allah") an den Propheten Mohammed enthält, vermittelt durch „Verbalinspiration“ des Engels Gabriel („Diktatverständnis“ des Korans). Er ist in einer speziellen Reimprosa abgefasst, die auf Arabisch als Sadschʿ bezeichnet wird. Der Koran besteht aus 114 Suren, diese bestehen wiederum aus einer unterschiedlichen Anzahl an Versen (). Ein wichtiges Kennzeichen des Korans ist seine Selbstreferentialität. Das bedeutet, dass der Koran sich an vielen Stellen selbst thematisiert. Auch die meisten Glaubenslehren der Muslime hinsichtlich des Korans stützen sich auf solche selbstreferentiellen Aussagen im Koran. Der Koran als Glaubensgrundlage. Der Koran stellt nach islamischem Glauben das Wort Gottes in arabischer Sprache dar, dem Folge zu leisten ist. Er ist die Hauptquelle des islamischen Gesetzes, der Scharia, weitere Quelle der Scharia ist unter anderem die Sunna des Propheten Mohammed. Daneben gilt der Koran auch als ästhetisches Vorbild für arabische Rhetorik und Dichtung. Seine Sprache beeinflusste darüber hinaus stark die Entwicklung der arabischen Grammatik. Neben den erhaltenen Fragmenten der vorislamischen Dichter galt und gilt das koranische Arabisch als Richtschnur für die Korrektheit sprachlichen Ausdrucks. Im Arabischen wird der Koran mit dem Attribut "karīm" (edel, würdig) versehen. Unter deutschsprachigen Muslimen ist der Begriff „der Heilige Qur'an“ gebräuchlich. Allgemein wird angenommen, dass Mohammed weder lesen noch schreiben konnte, weshalb die Muslime glauben, dass der Erzengel Gabriel ihm den Befehl gab, das zu rezitieren/vorzutragen, was vorher in sein Herz geschrieben wurde. Daher hat der Koran auch seinen Namen: „Lesung/Rezitation“. Der Überlieferung zufolge soll ʿAlī ibn Abī Tālib Augenzeuge der ersten Offenbarung gewesen sein. In den folgenden 22 Jahren wurde Mohammed der gesamte Koran offenbart, wobei viele Verse Bezug auf aktuelle Geschehnisse der Zeit nehmen. Andere Verse erzählen von den Propheten (Adam, Abraham, Noah, Josef, Moses, ʿĪsā ibn Maryam (Jesus) und weiteren) und wieder andere enthalten Vorschriften und allgemeine Glaubensgrundsätze. Dabei wendet sich der Koran an alle Menschen. Es werden auch Nichtgläubige und Angehörige anderer Religionen angesprochen. Die Suren und ihre Namen. Der Koran besteht aus 114 mit Namen versehenen Suren. Während man in der nicht-islamischen Welt bei Koranzitaten üblicherweise die Suren mit ihrer Nummer nennt, wird in Veröffentlichungen von muslimischer Seite bei Koranzitaten meist auf deren arabischen Namen verwiesen. Die Benennung der Sure richtet sich nach einem bestimmten Wort, das in ihr vorkommt, beschreibt jedoch nicht unbedingt ihren Hauptinhalt. Inhaltlich sind viele Suren als unzusammenhängend zu betrachten – die Sure "An-Nisa" (die Frauen) beispielsweise enthält zwar einen wichtigen Teil der Koranstellen mit Bezug auf Frauen, spricht aber ansonsten auch über das Erbrecht sowie über generelle Glaubensinhalte. Ebenso die zweite Sure (Al-Baqara – Die Kuh), welche zwar eine Geschichte mit einer Kuh als Schlachtopfer enthält, jedoch einen Großteil der gesetzlichen Regeln und der Glaubensinhalte vermittelt. Die Anordnung der Suren folgt keinem inhaltlichen Muster; vielmehr sind die Suren, mit Ausnahme der ersten Sure "Al-Fatiha", grob der Länge nach geordnet (beginnend mit der längsten). Beispielsweise ist die kürzeste Sure die 108. mit nur drei Versen und 42 bzw. 43 Buchstaben, wenn ein Hamza hier als Buchstabe gezählt wird. Auch viele andere Suren weichen von der Anordnung nach der Länge ab, was von den Muslimen als Zeichen dafür gesehen wird, dass die Anordnung nicht willkürlich geschah. Die Muslime sind überzeugt, dass die Anordnung der Suren vom Propheten Muhammad so überliefert wurde. Im Gebet ist es deshalb unerwünscht, eine spätere vor einer früheren Sure zu rezitieren. Im Gegensatz zum Tanach der Juden und zur Bibel der Christen, die zu bedeutenden Teilen aus chronologisch geordneten Geschichtsbüchern besteht, gibt es eine solche Ordnung weder innerhalb der Suren noch in ihrer Anordnung, obwohl die chronologische Folge der Suren als bestimmbar angenommen wird. Name, Anzahl der Verse und Offenbarungsort – Mekka oder Medina – werden in modernen Koranausgaben gewöhnlich im Titel der Suren angegeben. Von den 114 Suren des Korans beginnen fast alle mit der Basmala (). Nur in Sure 9 fehlt diese Formel. Die verschiedenen Verszählungen. Fragment einer Koran-Handschrift aus dem 14. Jahrhundert mit einer Dschuz'-Markierung am rechten Rand Die Suren bestehen jeweils aus einer unterschiedlichen Anzahl an Versen ("āyāt", sg. āya). Hierbei gibt es grundsätzlich sieben verschiedene Systeme der Verszählung, die schon im 8. Jahrhundert entstanden sind und nach den großen Zentren der Korangelehrsamkeit benannt sind: Kufa, Basra, Damaskus, Homs, Mekka, Medina I und Medina II. Allerdings gibt es nur für zwei dieser Systeme feste, eindeutige Gesamtverszahlen, nämlich 6.236 für Kufa und 6.204 für Basra. Die heutige Verszählung richtet sich üblicherweise nach der 1924 erschienenen ägyptischen Standardausgabe, die der kufischen Verszählung folgt. Neben diesen Verszählungen begegnet in der älteren orientalistischen Literatur noch eine andere Verszählung, die auf Gustav Flügel zurückgeht und keiner islamischen Verszählungstradition verpflichtet ist. Eine Synopse der kairinischen und der Flügel'schen Zählung bietet die vom Reclam-Verlag herausgegebene Koranübersetzung von Max Henning. Eine weitere Form der Verszählung liegt in der Ahmadiyya-Ausgabe des Korans vor. Hier wird anders als in der ägyptischen Standardausgabe jeweils die Basmala als erster Vers mitgezählt, wodurch sich die Zählung der folgenden Verse jeweils um einen Vers verschiebt (z. Bsp.: 2:30 → 2:31). In den Koranausgaben, die auf der ägyptischen Ausgabe basieren, wird die Basmala dagegen nur bei der ersten Sure Al-Fatiha als eigener Vers mitgezählt. Da die Verszahlen nicht als Teil der Offenbarung gelten, werden sie in den oft kunstvoll ornamentierten Koranbüchern mit einer Umrandung von dem Offenbarungstext ausgeschlossen. Auch andere Seitenzahlen bleiben außerhalb des Offenbarungstextes, der klar ersichtlich abgegrenzt wird. Einteilungen für liturgische Zwecke. Während Suren und Verse eine sehr unterschiedliche Länge aufweisen, gibt es noch verschiedene andere Einteilungen des Korans, die den Text in gleich lange Abschnitte gliedern. Sie finden vor allem in der Liturgie Verwendung und dienen als Maßeinheiten zur Festlegung von Gebetspensen. Die wichtigsten derartigen Maßeinheiten sind der 30. Teil des Korans, Dschuzʾ genannt (, Plural), und der 60. Teil des Korans, Hizb genannt (, Plural). Die Grenzen zwischen den einzelnen Dschuzʾ- und Hizb-Abschnitten befinden sich meistens mitten in einer Sure. Die Einteilung des Korans in dreißig Teile ist besonders für den Ramadan-Monat wichtig, denn es ist eine beliebte Praxis, verteilt auf die dreißig Ramadan-Nächte, eine Chatma, also eine Komplettlesung des Korans, vorzunehmen. Dschuzʾ- und Hizb-Einteilungen sind üblicherweise an den Rändern der Koranexemplare markiert, manchmal sind sogar die einzelnen Viertel des Hizb gekennzeichnet. Für die gemeinsame Koranrezitation bei feierlichen Anlässen wurden in vormoderner Zeit die Dschuzʾ-Abschnitte auch häufig einzeln abgeheftet und in einem speziellen Holzkasten, der "Rabʿa" genannt wurde, untergebracht. Verschiedene muslimische Herrscher wie Sultan Kait-Bay oder Sultan Murad III. ließen derartige Rabʿa-Kästen in kostbarer Ausführung anfertigen und stifteten sie den heiligen Stätten in Mekka, Medina und Jerusalem. Dort waren ausgebildete Koranleser damit beauftragt, täglich daraus zu rezitieren. Von der Lesung zum Buch. Der Koran entstand in einem Zeitraum von knapp zwei Jahrzehnten. Nach dem Ort der Offenbarung wird zwischen mekkanischen und medinensischen Suren unterschieden. Die mekkanischen Suren werden noch einmal in früh-, mittel- und spätmekkanische Suren unterteilt. In der islamischen Lehrtradition wird das Wort dementsprechend als Verbalsubstantiv zum arabischen Verb "qaraʾa" () erklärt. Moderne westliche Gelehrte hingegen haben die Vermutung geäußert, dass es sich um eine Entlehnung vom syrischen Wort "qeryânâ" handelt, das in der christlichen Liturgie eine Perikopenlesung bezeichnet. Tatsache ist, dass das Wort in vorkoranischer Zeit im Arabischen nicht bezeugt ist. In einigen Versen, die ebenfalls aus mittelmekkanischer Zeit stammen, bezeichnet der Begriff "qurʾān" bereits einen vorgetragenen Text. So wird es in Sure 72:1f dem Propheten mitgeteilt, dass eine Gruppe von Dschinn gelauscht und anschließend gesagt habe: „Siehe, wir haben einen wunderbaren "qurʾān" gehört, der auf den rechten Weg führt, und wir glauben nun an ihn“. Im Laufe der Zeit erhielt dann der Begriff die Bedeutung einer in Buchform vorliegenden Sammlung von Offenbarungen. So wird der "qurʾān" in verschiedenen Passagen, die der frühmedinensischen Zeit zugeordnet werden (Sure 12:1f; 41:2f; 43:2f), als die arabische Version von „dem Buch“ ("al-kitāb") ausgewiesen. In Sure 9:111, einer Passage, die auf das Jahr 630 datiert wird, erscheint der "qurʾān" schließlich als ein heiliges Buch in einer Reihe mit der Tora und dem Evangelium. Zwar ist der Prozess der Buchwerdung damit noch nicht abgeschlossen, doch lässt sich erkennen, dass der Koran bereits als ein Buch aufgefasst wurde. Als einer der letzten geoffenbarten Verse des Korans gilt Sure 5:3. Von diesem Vers wird überliefert, dass Mohammed ihn erstmals wenige Monate vor seinem Tod bei der sogenannten Abschiedswallfahrt den Gläubigen vortrug. Die Sammlung des Korans. Vor dem Tod des Propheten Mohammed waren bereits verschiedene Teile des Korans schriftlich niedergeschrieben worden, und nach Abstimmung mit allen, die den Koran sowohl mündlich ("Hafiz") als auch schriftlich bewahrt hatten, entstand nach dem Tode des Propheten Mohammed im Jahre 11 n. H. (632 n. Chr.) zu Zeiten des ersten Kalifen Abū Bakr der erste Koran-Kodex ("muṣḥaf"), um ihn vor dem Verlorengehen oder Verwechseln mit anderen Aussagen des Propheten Mohammed zu bewahren. Der dritte Kalif, Uthman ibn Affan (644–656), ließ diese ersten Koran-Kodizes, die auch z. T. in anderen Dialekten als dem quraischitischen Dialekt – dem Dialekt des Propheten Mohammed – abgefasst waren, einsammeln und verbrennen, um dann einen offiziell gültigen Koran herzustellen. Dabei mussten mindestens zwei Männer bei jedem Vers bezeugen, dass sie diesen direkt aus dem Munde des Propheten Mohammed gehört hatten. Sechs Verse im Koran sind aber nur von einem Zeugen, nämlich Zaid ibn Thabit, dem ehemaligen Diener des Propheten Mohammed, auf diese Weise bezeugt worden. Dass diese Verse heute doch im Koran stehen, hängt damit zusammen, dass der Kalif ausnahmsweise die Zeugschaft von Zaid alleine akzeptierte, obwohl eigentlich mindestens zwei Männer bezeugen mussten. Nach der islamischen Überlieferung wurden fünf Abschriften des uthmanischen Kodex in die verschiedenen Städte versandt, und zwar nach Medina, Mekka, Kufa, Basra und Damaskus. Gleichzeitig erging die Anordnung, alle privaten Koranaufzeichnungen zur Vorbeugung falscher Überlieferungen zu verbrennen. Man nahm früher an, dass die Abschrift, die nach Medina gesandt wurde, sich heute in Taschkent befindet und ein zweites Exemplar im Topkapi-Museum in İstanbul verwahrt wird. Beide Exemplare sind aber in kufischer Schrift, die sich in das 9. Jahrhundert n. Chr. datieren lässt, aufgeschrieben worden und somit wohl frühestens 200 Jahre nach Mohammed entstanden. In einer Bibliothek in Birmingham, der Cadbury Research Library, entdeckte man 2015 zwei Pergamentblätter, die sich in einer Koranausgabe des späten 7. Jahrhunderts befanden, und die sich auf die Zeit zwischen 568 und 645 mittels Radiocarbonmethode datieren ließen. Die Blätter enthalten Teile von Sure 18 bis 20, geschrieben mit Tinte in einer frühen Schriftform des Arabischen, des Hijazi. Damit zählen sie zu den ältesten Koranstücken der Welt. Auch die heutige Anzahl und Anordnung der Suren gehen auf die Redaktion von Uthman zurück. Der Koran-Kodex des ʿAbdallāh ibn Masʿūd, der nach der Einführung des uthmanischen Kodexes noch eine Zeit weiter benutzt wurde, hatte nur 110 oder 112 Suren, die anders angeordnet waren. Charidschitische Gruppen im Iran bestritten, dass Sure 12 und Sure 42 Bestandteil des ursprünglichen Korans gewesen seien. Handschriftenfunde in der "Großen Moschee von San'a" deuten an, dass Korankodices aus dem ersten muslimischen Jahrhundert (7. Jahrhundert n. Chr.) bedeutende Unterschiede in der Orthographie, in den Lesarten (d. h. im Inhalt) und den Anordnungen der Suren aufweisen. Die arabische Schrift des Uthman'schen Kodex kannte noch keine diakritischen Punkte, wie sie in der heutigen arabischen Schrift verwendet werden, um gleich aussehende Konsonanten zu unterscheiden. Deshalb war das mündliche Beherrschen des Textes wichtig, und die Schriftform diente vor allem als Gedächtnishilfe. In den Orten mit Abschriften des uthmanischen Kodexes entwickelten sich verschiedene Lesarten des Korans. Die islamische Tradition hat später sieben solcher Lesetraditionen als „kanonisch“ anerkannt. Erst Anfang des 8. Jahrhunderts wurden die Buchstaben im Korantext mit diakritischen Zeichen versehen. Die Initiative dazu ging auf al-Haddschādsch ibn Yūsuf zurück, den Statthalter des umayyadischen Kalifen Abd al-Malik im Irak, der auf diese Weise alle Uneindeutigkeiten in der Überlieferung des Korans ausräumen wollte. Aus dieser Zeit stammen auch die ersten Belege für die Bedeutung des Korans im öffentlichen Leben der Muslime, denn Abd al-Malik ließ die von ihm geprägten Münzen sowie die Inschriften des von ihm errichteten Felsendoms mit Koranzitaten (insbesondere Sure 112) versehen. Theologische Diskussionen über das Wesen des Korans. Im Koran selbst finden sich einige Aussagen über seine himmlische Herkunft. So ist in Sure 85:21 von einer wohlverwahrten Tafel ("lauḥ maḥfūẓ") die Rede, auf der sich der Koran befinden soll und in Sure 43:3f wird ausgesagt, dass es zu dem arabischen Koran ein „Urbuch“ ("Umm al-kitāb") gibt, das sich bei Gott befindet. Es wird außerdem mitgeteilt, dass der Koran im Monat Ramadan (Sure 2:185) bzw. in der „Nacht der Bestimmung“ (Sure 97 „Al-Qadr“) von Gott herabgesandt wurde. Später wurden diese Aussagen im Bereich des sunnitischen Islams so interpretiert, dass der Koran in der "Nacht der Bestimmung" in die unterste Himmelssphäre herabgesandt und von hier aus Mohammed während seines zwanzigjährigen Wirkens als Prophet jeweils dann, wenn sich die entsprechenden Offenbarungsanlässe ergaben, in Einzelteilen übermittelt. Aus den genannten Aussagen im Koran wurde allgemein geschlossen, dass dem Koran ein übernatürliches Wesen zukommt. Um die Mitte des 8. Jahrhunderts kam es allerdings zu heftigen Diskussionen, als verschiedene Theologen aus dem Kreis der Murdschi'a die Präexistenz des Korans in Zweifel zogen und die Theorie der Erschaffenheit des Korans ("ḫalq al-Qurʾān") aufbrachten. Während die Traditionalisten diese Theorie bekämpften, wurde sie von den Muʿtaziliten und Ibaditen übernommen und weiter ausgearbeitet. Die drei Kalifen al-Maʾmūn, al-Muʿtasim und al-Wāthiq erhoben die Lehre von der Unerschaffenheit des Korans sogar zur offiziellen Doktrin im Abbasidenstaat und ließen alle diejenigen, die sich nicht dazu bekennen wollten, im Zuge der Mihna inquisitorisch verfolgen. In dieser Situation entwickelte der Theologe Ibn Kullāb eine Zwischenposition, indem er zwischen dem Inhalt der Offenbarung und seiner „Ausdrucksform“ ("ʿibāra") differenzierte. Er lehrte, dass nur Ersteres unerschaffen und anfangsewig sei, während die Ausdrucksform der Rede Gottes in der Zeit variieren könne. Diese Lehre wurde später von den Aschʿariten übernommen. Zwar bestritten die Muʿtaziliten die Unerschaffenheit des Korans, doch entwickelten sie dafür das Dogma von der „Unnachahmlichkeit des Korans“ ("iʿdschāz al-qurʾān"). Dieses stützte sich auf verschiedene Stellen im Koran, an denen die Ungläubigen aufgefordert werden einzugestehen, dass sie nicht imstande sind, etwas dem Koran Ebenbürtiges hervorzubringen (vgl. Sure 2:223; 11:13), bzw. an denen deutlich ausgesagt wird, dass, selbst wenn Menschen und Dschinn sich zusammentäten, sie nichts Ebenbürtiges hervorbringen könnten (vgl. Sure 17:88). Der Koran gilt damit gleichzeitig als „Beglaubigungswunder“ für den prophetischen Anspruch Mohammeds. Dieses Iʿdschāz-Dogma hat später im Islam allgemeine Verbreitung gefunden. Auslegung und Entwicklung der Koranwissenschaften. Der Koran bildete die Grundlage für zahlreiche Zweige der arabischen Wissenschaft. Aus dem Bedürfnis nach Auslegung (Exegese) des Offenbarungsinhalts entwickelte sich die "ilm at-tafsir", die Wissenschaft der (Koran-)Interpretation. Ausführliche, oft Dutzende Bände füllende Kommentarwerke sind vom 2. muslimischen Jahrhundert an (8. Jahrhundert n. Chr.) entstanden; zu den berühmtesten zählen die von 'Abd al-Razzâq al-San'ânî, al-Baghawî, Ibn Abî Hâtim, Tabari, Qurtubi, Risale-i Nur, Ibn Kathīr und anderen. Allgemein. Eine wirkliche Übersetzung des Korans gilt in der traditionellen islamischen Theologie als unmöglich, da jede Übersetzung zugleich eine Interpretation enthält. Daher wird das Studium des Korans im arabischen Originaltext empfohlen. Einige Sufis zum Beispiel glauben, es sei segensreicher, sich die arabischen Buchstaben eines Korantextes anzuschauen, auch wenn man kein Arabisch versteht, als eine schlechte Übersetzung zu lesen. Allerdings sind schon im Mittelalter verschiedene persische und türkische Übersetzungen des Korans erstellt worden. Ab dem Ende des 19. Jahrhunderts wurde der Koran in verschiedene indische Sprachen übersetzt. Den Anfang machte der Brahmo-Gelehrte Girish Chandra Sen mit der Übersetzung in die Bengalische Sprache (1881–1883). Übersetzungen ins Deutsche. Die erste Übersetzung ins Deutsche stammt vom Nürnberger Pfarrer Salomon Schweigger 1616. Er übersetzte dabei die erste italienische Fassung aus dem Jahre 1547 von Andrea Arrivabene, die ihrerseits auf einer lateinischen Übersetzung aus dem 12. Jahrhundert basierte. Der Orientalist Friedrich Rückert übertrug in der ersten Hälfte des 19. Jahrhunderts weite Teile des Korans in gebundener Sprache ins Deutsche. Rückerts Übersetzung versucht den Klang des koranischen Arabisch im Deutschen wiederzugeben, hat aber Textstellen nach eigenem Ermessen ausgelassen. Rudi Paret, dessen Übersetzung (Erstausgabe 1962) in Fachkreisen als die philologisch zuverlässigste gilt, setzt demgegenüber bei unterschiedlich zu verstehenden Passagen die zusätzlichen Übersetzungsmöglichkeiten bzw. die wörtliche Bedeutung (mit einem w. gekennzeichnet) in Klammern dahinter. 1939 erschien eine von der Ahmadiyya-Gemeinde herausgegebene Koranübersetzung; sie gilt als erste deutsche, durch Muslime herausgegebene Koranübersetzung. Es folgten danach weitere Übersetzungen, u. a. durch den arabisch-christlichen Theologieprofessor Adel Theodor Khoury (traditionsgebunden, vom Islamischen Weltkongress unterstützt), von Lazarus Goldschmidt, von Ahmad von Denffer und von Max Henning (Reclam). Die Übersetzung von Henning ist von Murad Wilfried Hofmann überarbeitet und mit Anmerkungen versehen worden. Die Überarbeitung wird von vielen seiner Glaubensgenossen aus dem deutschen Sprachraum geschätzt, von Seite der Islamwissenschaften teils deutlich kritisiert. Eine zeitgenössische Übersetzung, die auch den arabischen Text und gleichzeitig zu jedem Vers eine Auswahl aus wichtigen, ins Deutsche übersetzten Kommentaren bringt, wurde von einer Gruppe deutschsprachiger Muslima unter Leitung von Fatima Grimm unter dem Titel "Die Bedeutung des Koran" herausgegeben. Eine weitere Übersetzung hat Muhammad Rassoul unter dem Titel "Die ungefähre Bedeutung des Al-Qur’an Al-Karim" in der Islamischen Bibliothek veröffentlicht. Dies ist die Übersetzung, die auf der Website des ZMDs zu finden ist. Eine Bearbeitung in zeitgenössischer deutscher Sprache, die sich auch an Kinder und Jugendliche wendet, wurde im Jahr 2008 von den Islamwissenschaftlerinnen Lamya Kaddor und Rabeya Müller erstellt. Die Neuübersetzung soll nach Lamya Kaddor „den Respekt vor dem heiligen Buch der Muslime mit einem verständlichen Zugang verbinden“. Knöterichgewächse. Die Knöterichgewächse (Polygonaceae) sind eine Pflanzenfamilie in der Ordnung der Nelkenartigen (Caryophyllales) innerhalb der Bedecktsamigen Pflanzen (Magnoliopsida). Die etwa 48 Gattungen mit etwa 1200 Arten kommen hauptsächlich in den nördlichen gemäßigten Zonen vor, mit wenigen Arten in den Tropen oder Permafrostgebieten. Erscheinungsbild und Blätter. Häufig sind es krautige Pflanzen, aber es gibt auch verholzende Taxa: Sträucher (beispielsweise "Coccoloba"-Arten), Lianen oder seltener Bäume ("Triplaris"). Manche Arten (beispielsweise bei "Calligonum") sind Rutensträucher bei denen die Sprossachsen den Hauptanteil der Photosynthese übernehmen. Die selbständig aufrechten, niederliegenden, windenden oder kletternden Sprossachsen sind gestreift, gerillt oder stachelig und besitzen oft verdickte Knoten (Nodien). An einem Knoten zweigen mehr als drei Blattspuren ab (vielspurig, multilakunär). Die Laubblätter sind gut entwickelt oder reduziert. Die meist wechselständig, selten gegenständig oder wirtelig angeordneten Laubblätter sind deutlich oder kaum erkennbar gestielt bis fast sitzend. Die Blattspreiten sind meist einfach. Bei der Unterfamilie Polygonoideae sind Nebenblätter vorhanden und bei der Unterfamilie Eriogonoideae fehlen sie. Die Taxa der Unterfamilie Polygonoideae weisen ein typisches Merkmal auf: die Ochrea (Tute), eine röhrige, meist häutige Scheide am Grund der Blattstiele, die von den verwachsenen Nebenblättern gebildet wird; sie umhüllt den Vegetationspunkt und wird während des Wachstums der Sprossachse durchbrochen. Blütenstände und Blüten. Manche Arten sind einhäusig (monözisch) oder zweihäusig (diözisch) getrenntgeschlechtig. Die end- oder seitenständigen, ährigen, rispigen, traubigen oder kopfigen Blütenstände enthalten oft viele Blüten. Die Blattstiele sind manchmal gegliedert. Die selten eingeschlechtigen, meist Blüten sind relativ klein, radiärsymmetrisch und dreizählig. Es gibt ein oder zwei Kreise mit je drei häutigen Blütenhüllblättern, die sich alle oder nur die inneren bis zur Fruchtbildung vergrößern und auch noch an der Frucht erhalten sind und dann geflügelt, warzig oder bestachelt sein können. Es sind selten ein, meist zwei oder drei Kreise mit je drei Staubblättern vorhanden. Die Staubfäden sind frei oder höchstens an ihrer Basis verwachsen. Die Staubbeutel besitzen zwei Theken und öffnen sich mit Längsschlitzen. Der ringförmige Diskus ist oft gelappt. Zwei oder drei, selten vier Fruchtblätter sind zu einem oberständigen, einkammerigen Fruchtknoten verwachsen. Die Zwei oder drei, selten vier Griffel sind vollständig frei oder nur an ihrer Basis verwachsen. Früchte und Samen. Die meist dreieckigen, bikonvexen oder bikonkaven Nussfrüchte, bei dieser Familie auch Achänen genannt, sind oft durch die haltbaren Blütenhüllblätter geflügelt. Die Samen enthalten viel Endosperm. Der Embryo ist gerade oder gekrümmt, selten gefaltet. Systematik. Die Arten der früheren Familien Calligonaceae, Coccolobaceae nom. nud., Eriogonaceae, Persicariaceae, Rumicaceae sind heute hier enthalten. Unterfamilie Polygonoideae. Sie enthält 15 bis 28 Gattungen mit 590 bis 850 Arten. In China kommen etwa 13 Gattungen mit etwa 238 Arten vor, 65 davon nur dort. Etwa 16 Gattungen mit etwa 160 Arten kommen in Nordamerika, hauptsächlich in gemäßigten Regionen vor. Unterfamilie Eriogonoideae. Sie ist überwiegend neuweltlich und enthält 20 bis 28 Gattungen mit 325 bis 520 Arten. Nur zwei bis vier Arten sind in Afrika beheimatet. Das Zentrum der Artenvielfalt sind die gemäßigten Gebiete im westlichen Nordamerika von Alaska bis Mexiko, mit sehr vielen Arten in Kalifornien. Relativ wenige Arten sind in den östlichen USA beheimatet. In Nordamerika gibt es etwa 19 Gattungen mit etwa 281 Arten. In Südamerika gibt es in Argentinien und Chile wenige Arten. Die meist verholzenden Arten sind zweihäusig getrenntgeschlechtig (diözisch). Nutzung. Der Buchweizen war früher ein wichtiger Bestandteil der Ernährung und wird auch heute noch in der Küche verwendet. Als Obst werden Sorten von "Rheum rhabarbarum" angebaut. Als Heilpflanzen werden "Rheum rhabarbarum" und "Rheum officinale" verwendet. Korbblütler. Die Korbblütler (Asteraceae oder Compositae), auch Korbblütengewächse, Asterngewächse oder Köpfchenblütler genannt, sind die größte Familie der Ordnung der Asternartigen (Asterales) innerhalb der Bedecktsamigen Pflanzen (Magnoliopsida). Etwa 10 % der Arten der Magnoliopsida gehören zu den Asteraceae. Von der Blütenstandsform sind der deutsche Name Korbblütler und der botanische Name "Compositae" (lat. für ‚Zusammengesetzte‘) abgeleitet. Die Familie Asteraceae enthält etwa 1.600 bis 1.700 Gattungen mit etwa 24.000 Arten und ist weltweit auf allen Kontinenten, außer Antarktika, in allen Klimazonen vertreten. In Europa gehört sie zu den artenreichsten Pflanzenfamilien. Erscheinungsbild und Blätter. Es gibt überwiegend ein- bis zweijährige oder ausdauernde krautige Pflanzen-Arten, aber es gibt auch verholzende Arten: Halbsträucher und Sträucher, selten Lianen oder Bäume. Es gibt monokarpische und polykarpische Arten. Es gibt Arten in fast jedem Habitattyp, nur wenige Arten wachsen als echte Epiphyten oder Wasserpflanzen. Bei einigen Taxa enthalten die Pflanzen Milchsaft. Die Anordnung der Blätter ist meist wechselständig, selten gegenständig oder quirlständig; sie sind oft zu einer grundständigen Rosette vereinigt. Die gestielten bis sitzenden Laubblätter besitzen selten einfache, oft fiederteilige bis gefiederte Blattspreiten. Sie sind krautig bis ledrig, manchmal sind sie in Dornen umgewandelt. Der Blattrand ist glatt, gewellt, gelappt, gesägt, gezackt oder gezähnt. Es sind meist keine Nebenblätter vorhanden. Blütenstände. In verzweigten, unterschiedlich aufgebauten Gesamtblütenständen zusammengefasst stehen auf mehr oder weniger unbeblätterten Blütenstandsschäften die Blütenkörbe oder sie stehen einzeln. Typisch für diese Familie sind die körbchenförmigen Blütenstände. Die Hüllblätter (Involucrum) umgeben die Blütenkörbchen. Die kegelig verlängerte oder abgeflachte Blütenstandsachse, der Körbchenboden, ist kahl und glatt oder behaart. Der Körbchenboden kann sitzende, schuppenförmige Tragblätter, die sogenannten Spreublätter (Palea), besitzen. Die Blütenkörbe sehen wie Einzelblüten aus und fungieren auch blütenökologisch als Gesamtheit zur Anlockung von Bestäubern; es sind also Blumen, in denen viele, kleine Einzelblüten zusammengefasst sind. Am Rand des Blütenkörbchens angeordnete Zungenblüten verstärken oft den Eindruck, dass es sich bei dem Blütenstand um eine einzige Blüte handelt. Ein Blütenkorb enthält je nach Art ein bis tausend Blüten. Die Blüten eines Blütenkorbes entwickeln sich und blühen von außen nach innen auf (zentripetal). Blüten. Die zwittrigen oder eingeschlechtigen Blüten sind meist fünfzählig. Die Kelchblätter sind teilweise oder ganz reduziert, bei vielen Taxa sind sie zu einem charakteristischen Haarkranz oder seltener zu einem häutigen Saum umgebildet; dieser Flugapparat für die Frucht heißt Pappus. Die Kronblätter sind zu einer Röhre verwachsen. Es ist nur ein Kreis mit drei bis fünf fertilen Staubblättern vorhanden. Die Staubfäden sind nur kurz. Die Staubbeutel (Antheren) sind zu einer Röhre verwachsen und bilden ein typisches Merkmal der Familie. Zwei Fruchtblätter sind zu einem unterständigen Fruchtknoten verwachsen. Die Griffel, mit immer zwei Griffelästen, schieben sich durch die Antherenröhre und schieben dabei den Pollen aus der Röhre mit Fegehaaren, die sich an der Außenseite oder der Spitze der Griffel befinden. Erst danach wird die Narbe empfängnisfähig. Es gibt zwei grundsätzliche Blütenformen in der Familie: radiärsymmetrische Röhrenblüten (Scheibenblüten) und zygomorphe Zungenblüten (Strahlenblüten). Je nach Unterfamilie sind beide Blütenformen zusammen oder nur eine davon vorhanden. Die Blütenformel lautet formula_1 oder formula_2. Früchte. Die Frucht ist meist eine Sonderform einer Nuss, die Achäne, meist mit einem Pappus, der in Form von Schuppen, Borsten oder Haaren ausgebildet sein kann. a> ("Helianthus annuus"). Die meisten Asteraceae werden von Insekten bestäubt; dabei hilft die stachelige Oberfläche, die ihnen Halt gibt. Synökologie. Die Bestäubung erfolgt überwiegend durch Insekten oder durch den Wind. Die Ausbreitungseinheit (Diaspore) ist die Achäne. Die Achänen werden entweder durch den Wind durch die Flughaare oder durch Tiere verbreitet. Zur Tierverbreitung bilden die Involukralblätter z. B. bei der Großen Klette ("Arctium lappa") an der Spitze Haken aus, die sich im Fell von Säugetieren oder in der Kleidung von Menschen verhaken, um später an anderer Stelle wieder abzufallen. Dies ist eine spezielle Form der Zoochorie, die man Epizoochorie nennt. Inhaltsstoffe. Viele Arten sind reich an ätherischen Ölen, die sich in sehr charakteristischen Drüsenschuppen befinden. Oft wird als Reservestoff Inulin gebildet. Nutzung. Eine große Fülle an Arten und ihre Sorten werden als Zierpflanzen in allen Teilen der Welt genutzt. Sie werden in Parks und Gärten gepflanzt oder dienen als Schnitt- und Trockenblumen. Entwicklungsgeschichte. Fossilfunde der Asteraceae sind meist Pollenablagerungen und Früchte. Aus dem Eozän gibt es nur wenige Pollennachweise, aber ab dem Oligozän und Miozän sind die Pollen der Asteraceae häufig. Die Wichtigkeit der Familie in den Ökosystemen der Erde nimmt vom Mittleren Olizän bis heute zu. In letzter Zeit nutzte man die Fossilfunde der Pollen und molekulargenetische Untersuchungen (an ndhF und rbcL Genen), um den Ursprung der Asteraceae aufzudecken. Bremer and Gustafsson 1997 oder Kim et al. 2005 schlossen, dass der Ursprung vor mindestens 38 Mio. Jahren liegt, vermutlich im Mittleren Eozän (vor 42 bis 47 Mio. Jahren). Die heutige Verbreitung der am nächsten verwandten Familien Goodeniaceae und Calyceraceae und der basal und isoliert stehenden Unterfamilie Barnadesioideae lassen vermuten, dass der Ursprung der Familie auf Gondwana im heutigen Südamerika, Antarktika und Australien lag. Systematik. Die Familie Asteraceae enthält etwa 1600 bis 1700 Gattungen mit etwa 24.000 Arten. Nach phylogenetischen Erkenntnissen wurden zwölf Unterfamilien eingeführt, die insgesamt etwa 43 Tribus enthalten. Kalmus (Gattung). Kalmus ("Acorus") ist die einzige Gattung in der monotypischen Familie der Kalmusgewächse (Acoraceae), der einzigen Familie der Ordnung der Kalmusartigen (Acorales). Sie ist die basalste Gattung der Monokotyledonen. Zu den deutschen Trivialnamen siehe unter dem Artikel zur Art "Acorus calamus". Beschreibung. Illustration des Kalmus ("Acorus calamus") Kalmus-Arten sind ausdauernde krautige Pflanzen. Als Überdauerungsorgane bilden diese Sumpfpflanzen Rhizome. Es ist ein Aerenchym ausgebildet. Alle Pflanzenteile sind kahl. Wenn man Pflanzenteile verletzt riechen sie stark aromatisch. Die grundständigen und zweizeilig angeordneten Laubblätter sind ungestielt. Die einfache Blattspreite ist flach, parallelnervig, unifazial und schwertförmig. In einem ährigen Gesamtblütenstand sitzen mehrere kolbige Blütenstände zusammen. In Kolben sind viele Blüten angeordnet. Die Spatha ist stängelähnlich. Die zwittrigen Blüten sind unscheinbar, dreizählig und pentazyklisch (mit fünf Blütenblattkreisen). Die sechs gleichgestaltigen, freien Blütenhüllblätter sind bräunlich und häutig. Es sind zwei Kreise mit je drei freien, fertilen, gelben Staubblättern vorhanden. Meist drei (zwei bis vier) Fruchtblätter sind zu einem oberständigen Fruchtknoten verwachsen mit zwei bis vier (selten bis fünf) Samenanlagen je Fruchtknotenkammer. Ein Griffel ist nicht erkennbar und so sitzen die Narben direkt auf den Fruchtknoten. Die braunen bis rötlichen Früchte werden als Kapselfrüchte oder Beeren gedeutet und besitzen ein dünnes, ledriges Perikarp. Die Chromosomenzahlen betragen 2n = (22), 24, 36, (44), 48. Systematik und Verbreitung. Die Gattung "Acorus" wurde 1753 in "Species Plantarum", 1, S. 324 aufgestellt. Typusart ist "Acorus calamus" L.. Ein Synonym für "Acorus" ist "Calamus". Der Familienname Acoraceae wurde durch Iwan Iwanowitsch Martynow in "Tekhno-Bot. Slovar.", 1820, 6 veröffentlicht. Der Gattungsname "Acorus" stammt von griechisch "Ἄκορον (Ákoron)", einer Arzneipflanze, die Dioskurides als der Schwertlilie ähnlich beschreibt; ob er wirklich den Kalmus meint, bleibt unsicher. Die Kalmusgewächse (Acoraceae) sind die basalste Gruppe der Einkeimblättrigen Pflanzen (Monokotyledonen). Früher wurde die Gattung "Acorus" der Familie der Aronstabgewächse (Araceae) zugeordnet. Die Kalmus-Arten sind ursprünglich im gemäßigten bis subtropischen Asien sowie Nordamerika und auch in Südostasien heimisch. Sie sind in vielen Gebieten der Welt, beispielsweise Ägypten und Europa verwildert. Inhaltsstoffe und Verwendung. Aus Kalmus-Arten werden das „Kalmusöl“ (‚Calami aetheroleum‘, aus allen Pflanzenteilen) und „Ackerwurz“ (getrocknete Rhizome, auch „Kalmusrot“ oder „Magenwurz“ genannt) gewonnen. Die wichtigsten Inhaltsstoffe sind Asarone, deren Gehalt je nach Art (hier sind wechselnde Ploidiegrade vorhanden) und Pflanzenteil (Blätter oder Wurzeln) variiert. Diploider Amerikanischer Kalmus enthält kein β-Asaron, triploider europäischer Kalmus maximal 10  % und indischer Kalmus (tetraploid) bis zu 96  % β-Asaron. Weitere Inhaltsstoffe sind Farnesene (vorwiegend das β-Farnesen, bis 46 %), Geranylacetat (bis 77 %), der Methylether des "cis"-Isoeugenol (maximal 36 %), Shyobunon (0–53 %), Acorenon (6–9 %) sowie verschiedene Monoterpene (Camphen, Limonen, Myrcen und Pinene). Kalmusöl wird in der Heilkunde und bei der Parfüm- und Likörherstellung und für Magenbitter verwendet. Kalmus gilt als kräftigend und appetitanregend und wird in der Volksmedizin verschiedentlich als Dekokt gegen Magen- und Verdauungsbeschwerden, Husten (eine krampflösende Wirkung ist belegt) und Erkältungen, Schmerzen und Entzündungen eingesetzt, wobei die Wirksamkeit meist wissenschaftlich nicht belegt ist. Aufgrund nachgewiesener mutagener, carzinogener sowie reproduktionstoxischer Effekte der Asarone ist der Einsatz von Kalmusöl oder sonstigen Kalmusprodukten in Lebensmitteln nur beschränkt zugelassen; in den USA und Kanada ist die Verwendung von Kalmusprodukten nicht erlaubt. Standorte. Kalmus-Arten sind schilfartige Röhrichtpflanzen, die in den gemäßigten Klimazonen der nördlichen Hemisphäre Gräben, die Ufer von Teichen, Bächen und langsamfliessenden Flüssen sowie Sumpfgebiete besiedeln. Kürbisgewächse. Die Kürbisgewächse (Cucurbitaceae) sind eine Familie der Bedecktsamigen Pflanzen (Magnoliopsida). Die Vertreter sind meist krautige Pflanzen mit Ranken, eingeschlechtigen Blüten und unterständigem Fruchtknoten. Die Blütenkrone ist meist verwachsen, die Staubblätter sind untereinander verbunden bis verwachsen. Die Kürbisgewächse sind eine mittelgroße Familie und umfassen rund 800 Arten in rund 130 Gattungen, die in die beiden Unterfamilien Nhandiroboideae und Cucurbitoideae aufgeteilt werden. Sie sind weltweit in den tropischen und subtropischen Klimazonen vertreten, nur wenige Arten kommen auch in gemäßigten Gebieten vor; in Mitteleuropa etwa ist nur die Gattung der Zaunrüben ("Bryonia") heimisch. Zur Familie zählen etliche Nutzpflanzen, die kommerziell bedeutendsten sind Gartenkürbis ("Cucurbita pepo"), Zuckermelone ("Cucumis melo"), Gurke ("Cucumis sativus") und Wassermelone ("Citrullus lanatus"). Wurzeln und Speicherorgane. Die meisten Vertreter haben eine ausgeprägte Pfahlwurzel, die etwa bei Gurke ("Cucumis sativus") einen und bei Kürbissen ("Cucurbita") zwei Meter in die Tiefe reicht. Nahe der Oberfläche bilden sie ein dichtes Netz aus Seitenwurzeln, die mindestens eine so große, wenn nicht größere Bodenfläche bedecken als die oberirdischen Organe. An liegenden Sprossachsen bilden sich häufig Adventivwurzeln, auch ohne direkten Kontakt der Sprossachse mit dem Boden. Einige xerophytische Vertreter bilden Speicherwurzeln, mit denen sie Trockenzeiten überstehen. Bei "Acanthosicyos" reichen sie bis 15 Meter tief. Sprossachse und Ranken. Die Sprossachsen sind krautig, selten auch leicht verholzt. Meist sind sie niederliegend, kriechend oder kletternd. Im Querschnitt sind sie häufig eckig und besitzen ein hohles Zentrum. Die Seitenzweige erster und zweiter Ordnung können bis 15 Meter lang werden. Bei Kürbissen gibt es strauchförmige Formen mit kurzen Internodien. Die Leitbündel sind bikollateral, das heißt, das Phloem befindet sich innen und außen am Xylem. Meist gibt es zehn Leitbündel, die in zwei Ringen um die zentrale Höhle angeordnet sind. Die Siebröhren sind relativ groß und sind bei manchen Sippen auch in der Rinde verstreut und verbinden so die einzelnen Leitbündel. Viele Vertreter sind sowohl an der Sprossachse als auch an den Blättern weich oder rau behaart, nur wenige sind unbehaart. Die Form der Trichome ist sehr variabel: sie können drüsig sein, ein- oder vielzellig, einfach oder verzweigt. In etlichen nicht näher verwandten Sippen innerhalb der Familie tritt eine Ausbildung dicker Stämme als Speicherorgane (Pachycaulie) auf. Pachycaule Vertreter in der Unterfamilie Nhandiroboideae sind "Gerrardanthus", "Neoalsomitra", "Xerosicyos" und "Zygosicyos". Innerhalb der Unterfamilie Cucurbitoideae in der Tribus Benincaseae "Cephalopentandra", "Coccinia", "Trochomeria", in der Tribus Coniandreae "Corallocarpus", "Doyerea", "Ibervillea", "Kedrostis", "Seyrigia", sowie verstreut "Marah", "Sinobaijiana", "Momordica", "Odosicyos" und "Tricyclandra". Der extremste Vertreter ist "Dendrosicyos". Ranke der Gurke ("Cucumis sativus") a> ("Acanthosicyos horridus") sind umgebildete Ranken. Männliche (oben) und weibliche (unten) Blüte der Wassermelone. Blätter. Die Blätter sind wechselständig an der Sprossachse angeordnet in einer Schraube mit 2/5-Phyllotaxis. Im Blattstiel sind die Leitbündel halbmond- oder ringförmig angeordnet. Die Leitbündel sind ungleich, die größeren sind bikollateral. Nebenblätter fehlen in der Regel. Bei "Acanthosicyos" sind sie vorhanden und in photosynthetisch aktive Dornen umgewandelt. Bei einigen Arten finden sich auf den Blättern extraflorale Nektarien. Die Blätter sind einfach und leicht bis tief drei- bis siebenfach handförmig gelappt. Auch die Aderung ist handförmig. Sukkulente Blätter sind selten, auch bei den xerophytischen Arten. "Xerosicyos" besitzt große wasserspeichernde Zellen im Mesophyll und ist eine CAM-Pflanze. Bei den meisten Vertretern in trocken-heißen Gebieten wird eine Hitzeschädigung der Blätter durch hohe Transpirationsraten verhindert. Die Spaltöffnungen sind vorwiegend anomocytisch, ihnen fehlen die Begleitzellen. Blüten. a> ("Ecballium"). A männliche, B weibliche Blüte. Die Blüten der meisten Vertreter sind groß und auffällig und werden von Insekten bestäubt. Einige Gattungen wie "Echinocystis" und "Sechium" bilden kleine, unauffällige Blüten. Die Blüten aller Vertreter stehen in den Blattachseln, entweder einzeln oder in Blütenständen. Häufige Farben sind weiß und gelb, seltener sind andere Farben wie rot bei "Gurania". Die Blüten sind meist eingeschlechtig, besitzen also entweder männliche oder weibliche Organe. Die Blütenanlagen sind jeweils zwittrig angelegt, es entwickeln sich jedoch nur die männlichen beziehungsweise die weiblichen Organanlagen weiter. In der männlichen (staminaten) Blüte ist jeweils ein Stempel-Rudiment (Pistillodium) erhalten, in der weiblichen Staubblatt-Rudimente (Staminodien). Die Pflanzen sind dabei je nach Art oder Gattung einhäusig (beide Geschlechter an einer Pflanze) oder zweihäusig (nur je ein Geschlecht an einer Pflanze). Von den etwa 800 Arten sind rund 460 einhäusig, 340 zweihäusig. Auf weitere, seltene Geschlechtsverteilungen wird weiter unten eingegangen. Die Blüten besitzen einen ausgeprägten Blütenbecher (Hypanthium), der becher- bis glockenförmig ist und aus der Blütenachse und/oder aus den verwachsenen Basalteilen von Kelch und Krone gebildet wird. Die Blüten sind meist fünfzählig. Die beiden Kreise der doppelten Blütenhülle bestehen meist aus je fünf, selten zwischen drei und sechs, Blütenblättern. Die Kelchblätter sind verwachsen. Die Kronblätter sind frei oder verwachsen, meist radiärsymmetrisch und bilden eine rad- oder glockenförmige Krone. Die Staubblätter sind monothezisch (besitzen nur eine Theka), setzen am Hypanthium an und stehen alternierend zu den Kronblättern. Die Grundzahl der Staubblätter ist fünf. Manche Gattungen wie "Fevillea" haben fünf freie Staubblätter, bei manchen sind alle Staubblätter verwachsen wie bei "Cyclanthera". Andere Gattungen wie Gurken ("Cucumis") haben zwei verwachsene Paare und ein freies Staubblatt, sodass der Eindruck von drei Staubblättern entsteht. Diese drei sind meist über ihre Antheren miteinander verbunden. Der Fruchtknoten ist unterständig. Er besteht aus meist drei verwachsenen Fruchtblättern, seltener ein bis fünf. Die Zahl der Griffel ist stark konserviert: bei den Nhandiroboideae sind sie stets frei und meist drei an der Zahl, selten zwei. Die Cucurbitoideae besitzen einen Griffel mit zwei, drei oder fünf Narben. Diese sind meist vergrößert und ähneln oft den Staubblättern, wohl um Bestäuber anzulocken. Der Fruchtknoten ist nicht in Fächer unterteilt, die Scheidewände sind aufgelöst und die Plazenten, an denen die Samenanlagen sitzen, befinden sich an der Fruchtwand (parietal). Bei den Nhandiroboideae ist die Zahl der Samenanlagen meist gering, die Samenanlagen sind stets hängend. Die Cucurbitoideae besitzen meist große Plazenten mit manchmal sehr vielen Samenanlagen, "Sechium edule" jedoch nur eine. Diese stehen meist aufrecht oder waagrecht, selten hängend. Die Samenanlagen in der ganzen Familie sind crassinucellat, anatrop und bitegmisch. Der Nucellus ist flaschenförmig, was ein charakteristisches Familienmerkmal darstellt. Der Embryosack entwickelt sich nach dem Polygonum-Typ. Die Blüten besitzen häufig Nektarien, durch die die bestäubenden Insekten angelockt werden. Sie befinden sich an der Basis des Hypanthiums: In weiblichen Blüten bildet das Nektarium einen durchgehenden Ring um die Basis des Griffels, während es bei den männlichen Blüten zusammen mit dem Pistillodium einen knopfartigen Hügel im Zentrum der Blüte bildet. Pollen. Die Pollenkörner sind innerhalb der Familie recht vielgestaltig. Die Apertur kann tri- bis mehrfach zonocolpat, colporat, tri- bis mehrfach porat oder pantoporat sein. Die Oberfläche der Exine ist netzförmig, regelmäßig granuliert oder mit Stacheln versehen. Der Pollen wird in Form von Einzelkörnern, seltener in Pollentetraden ausgebreitet. Die Nhandiroboideae besitzen stets tricolpate Pollenkörner mit einem Durchmesser von unter 40 Mikrometern. Ihre äußere Schicht (Exine) ist meist gestreift (striat), selten netzförmig (reticulat). Die Cucurbitoideae besitzen mit bis zu 200 Mikrometern ungewöhnlich große Pollenkörnern, die Exine ist netzförmig oder stachelig (echinat), die Aperturen sind porat oder colpat. Zwei Triben können anhand der Pollenkörner identifiziert werden: die Cucurbiteae besitzen echinate Pollenkörner, die drei bis viele Keimporen besitzen (triporat bis stephanoporat sind); die Sicyeae besitzen fein stachelige Pollenkörner mit Keimfalten (colpat) oder gemischten Poren/Falten (colporat). Bei den übrigen Triben überwiegen tricolporate Pollenkörner. Früchte und Samen. Die Früchte sind vielfach Beeren, häufig mit einer harten Schale, sogenannte Panzerbeeren. Gestalt und Oberfläche sind dabei sehr variabel. Sie sind kugelig bis länglich. Die Flaschenkürbisse ("Lagenaria") sind rund, birnen-, flaschenförmig oder länglich. Bei Kürbissen kann die Oberfläche gestreift, gefleckt, oder einfarbig sein, die Oberfläche glatt, gerunzelt oder warzig. Die Früchte des Riesen-Kürbis ("Cucurbita maxima") sind die größten des Pflanzenreichs: am 29. September 2007 wurde in Massachusetts ein 766 kg schwerer Kürbis gewogen. Die meisten Arten mit Panzerbeeren sind in saisonal trockenen Gebieten heimisch: hier ermöglichen die hartschaligen, wasserspeichernden Früchte den Samen eine längere Reifezeit, auch wenn der Rest der Mutterpflanze bereits verwelkt ist. Die meisten bleiben bei der Reife geschlossen. Bei den Gattungen "Momordica" und "Cyclanthera" öffnen sich die Früchte. Die Früchte der Zaunrüben ("Bryonia") sind rund fünf Millimeter groß, kugelig und grün, rot oder schwarz. Bei der Spritzgurke ("Ecballium elaterium") und bei der Explodiergurke ("Cyclanthera brachystachya") lösen sich die Früchte vom Stiel und stoßen das Fruchtinnere, das unter Druck steht, explosionsartig aus. "Cucumis humifructus" verbirgt die Blüten nach der Befruchtung in der Erde (Geokarpie), wo die Früchte reifen und vom Erdferkel ("Orycteropus afer") ausgegraben und verzehrt werden, das so die Samen ausbreitet. Auch die amerikanische Gattung "Apatzingania" hat geokarpe Früchte. Bei den Nhandirobideae kommen vorwiegend Kapselfrüchte vor, die geflügelte Samen entlassen. Die Samen sind meist zu vielen, oft zu hunderten in einer Frucht enthalten, sehr selten ist nur ein einzelner pro Frucht. Die Samen sind meist flach, in seltenen Fällen geflügelt. Unter der Samenschale befindet sich ein kollabiertes Perisperm. Ein Endosperm fehlt oder ist spärlich vorhanden. Der Embryo ist sehr ölreich, seine beiden Keimblätter füllen den Großteil des Samens aus. Größe, Form und Farbe sind sehr vielfältig. Den größten ungeflügelten Samen bildet "Hodgsonia" mit sieben Zentimeter Länge, den kleinsten die Zaunrüben ("Bryonia") mit manchmal nur drei Millimeter Durchmesser. Cytologie und Genetik. Die vorherrschende Chromosomengrundzahl ist x = 12, sie reicht jedoch von 7 bis 24. Die Cucurbiteae haben eine fixierte Polyploidie mit einem Chromosomensatz von n = 20. Auch in anderen Triben kommen recht häufig Polyploidie und Aneuploidie vor. Die gesamte Familie ist durch eine 35 Basenpaare lange Inversion im Bereich zwischen den Genen für Leucin-tRNA und Phenylalanin-tRNA gekennzeichnet, die bei den übrigen Familien der Ordnung Cucurbitales nicht vorkommt, also eine Synapomorphie darstellt. Bei "Cucurbita digitata" und bei "Neoalsomitra" ist diese Inversion wieder – unabhängig voneinander – umgekehrt worden. Das Genom der Cucurbitaceae ist im Vergleich zu anderen Familien ungewöhnlich labil. So kommen hier zwei der bekannten sechs Fälle vor, bei denen das ansonsten plastidäre Gen "rbc"L (für die große Untereinheit der RubisCO) in das Mitochondrien-Genom transferiert ist: bei der Gurke ("Cucumis sativus") und bei den Kürbissen ("Cucurbita pepo", "Cucurbita maxima"), dies jedoch unabhängig voneinander. Die Gattung "Cucumis" verfügt auch über die größten bekannten Mitochondrien-Genome, die 1500 kb bei der Gurke und 2400 kb bei der Zuckermelone ("Cucumis melo") groß sind. Bei beiden Arten erfolgt die mitochondriale Vererbung über den Vater (paternal), nicht wie sonst üblich über die Mutter. Inhaltsstoffe. Die für die Familie charakteristischsten Inhaltsstoffe sind die Bitterstoffe aus der Gruppe der Cucurbitacine. Dies sind tetrazyklische Triterpene und kommen glykosyliert oder als Aglykon vor. Sie sind vor allem in den Früchten vorhanden, mit Ausnahme von Zuchtformen, die auf geringe Bitterkeit selektiert wurden. Samen sind stets frei von Cucurbitacin. Besonders reich an Saponinen sind die Gattungen "Luffa" und "Trichosanthes". Die Samen sind generell reich an Ölen. Bei den kommerziell genutzten Arten variiert der Ölgehalt zwischen 38 und 45 Prozent. Die häufigsten Fettsäuren sind Palmitinsäure, Stearinsäure, Ölsäure, Linolsäure und Linolensäure, die zusammen mehr als 80 Prozent der Fettsäuren ausmachen. Daneben sind Phosphatidylcholin, Lysophosphatidyl-Ethanolamin, Phosphatidyl-Inositol und Phosphatidylethanolamin, Sterol-Glykoside, Cerebrosid und Diphosphatidyl-Glycerol häufig. In "Trichosanthes"-Arten ist Punicasäure, eine konjugierte Triensäure, häufig, in Momordica α-Elaeostearinsäure. In Summe wurden in Samen der Kürbisgewächse über 150 Fettsäuren identifiziert. In Samen und Früchten kommen verschiedentlich nicht-proteinogene Aminosäuren vor, besonders Citrullin. Die Speicherproteine in den Samen sind vorwiegend Globuline. Im Phloem transportieren die Kürbisgewächse als Kohlenhydrate außer Saccharose auch die Vertreter der Raffinose-Familie, sie werden deshalb zu den symplastischen Phloem-Beladern gerechnet. Wachstum und Entwicklung. Samen können bei einigen Arten, wie bei Chayote ("Sechium edule"), bereits in der Frucht auskeimen (Viviparie). Bei vielen Arten gibt es eine Samen-Dormanz, die jedoch bereits durch einige Wochen bei kühlen Temperaturen gebrochen wird. Für die Keimung sind Dunkelheit und warme Temperaturen (meist 25 bis 30 °C) nötig. Die Keimung erfolgt epigäisch, das heißt, dass die Keimblätter photosynthetisch aktiv sind. Sie sind meist querelliptisch. Kürbisgewächse wachsen bei warmen Temperaturen sehr rasch. Ein wildes Exemplar von "Cucurbita foetidissima" bildete in einer Saison 360 Sprosse in einem Kreis von 12 Meter Radius und einer Gesamtlänge von 2000 Meter. Der Flaschenkürbis wächst bis zu 60 Zentimeter in 24 Stunden. Bei den großfrüchtigen, rankenden Pflanzen wächst die Blattfläche exponentiell bis zum Zeitpunkt des Fruchtansatzes. Geschlechtsbestimmung. Die Geschlechtigkeit der Kürbisgewächse ist äußerst vielfältig und variiert teilweise auch innerhalb einer Art. Die ursprüngliche Geschlechtsverteilung innerhalb der Familie ist die Zweihäusigkeit (Diözie). Monözie und andere Formen sind davon abgeleitet. Androdiözie (männliche Pflanzen und zwittrige Pflanzen) kommt bei Pflanzen äußerst selten vor, etwa bei "Schizopepon bryoniifolius". Bei den Kürbisgewächsen äußerst selten sind zwittrige Blüten, die nur von wenigen Varietäten von Nutzpflanzen bekannt sind, etwa 'Satputia' des Schwammkürbis "Luffa acutangula". Bei den wenigen untersuchten Arten wird die Geschlechtsverteilung durch ein oder zwei Gene gesteuert, von denen es jeweils zwei oder drei Allele gibt. Je nach Allel-Kombination gibt es, etwa bei "Luffa acutangula" monözische, andromonözische (männliche und zwittrige Blüten), andrözische (nur männliche), gynomonözische (weibliche und zwittrige), gynözische (nur weibliche Blüten) und zwittrige Individuen. Bei manchen Arten ändern Individuen ihr Geschlecht im Laufe ihrer Entwicklung, etwa in "Gurania". In den Gattungen "Coccinia" und "Trichosanthes" gibt es – zum Teil heteromorphe – Geschlechtschromosomen, die das Geschlecht der Einzelpflanzen bestimmen. Bei "Coccinia grandis" sind, ähnlich wie bei Menschen, Individuen mit zwei X-Chromosomen weiblich. Das größere Y-Chromosom bestimmt das männliche Geschlecht und dominiert, sodass auch tetraploide Individuen mit drei X- und einem Y-Chromosom männlich sind. Die Ausbildung des Geschlechtes unterliegt nicht nur genetischer Regulation, sondern wird auch durch den Hormonhaushalt, durch Tageslänge und Temperatur beeinflusst. Bei hohen Temperaturen werden männliche Blüten gefördert, bei tiefen weibliche. Kurztagsbedingungen (acht Stunden Licht) fördern vielfach weibliche Blüten. Generell werden weibliche Blüten unter Bedingungen gefördert, bei denen Kohlenhydrate akkumuliert werden Diese hohe Variabilität wird in der Züchtung ausgenützt. So sind die meisten in Europa angebauten Gurken-Sorten gynözisch, bilden also nur weibliche Blüten, die auch ohne Bestäubung Früchte ansetzen (Parthenokarpie). Zur Samenzucht wird mit Hilfe von Silber-Ionen (einem Ethylen-Inhibitor) die Bildung von männlichen Blüten angeregt. Bestäubung. Die Blüten öffnen sich meist am frühen Morgen, die Bestäubung ist meist bis Mittag erfolgt. Manche weißblütige Arten, wie der Flaschenkürbis, öffnen sich am Abend und bleiben bis zum Morgen geöffnet. Diese Arten werden meist von Schwärmern bestäubt. Die tagsüber blühenden Arten werden überwiegend von Bienen und anderen Insekten bestäubt, die Pollen und Nektar sammeln. Darunter gibt es auch einige Spezialisten, so besuchen die Bienen-Gattungen "Peponapis" und "Xenoglossa" vorwiegend Blüten der Gattung "Cucurbita". Samen- und Fruchtbildung. Das Endosperm entwickelt sich nukleär (durch freie Kernteilung ohne Zellbildung). Das junge Endosperm bildet ein Haustorium in Richtung Chalaza. Dieses bleibt coenocytisch (keine Zellbildung, also freie Zellkerne) oder wird später zellulär. Die Zellen des Endosperms sind im späteren, zelligen Stadium zum Teil hochpolyploid, bei "Echinocystis lobata" wurde 3072n gezählt. Im reifen Samen ist das Endosperm stark reduziert und weitgehend degeneriert. Häufig umfasst es nur zwei Zellschichten. Bei einigen Arten kommt gelegentlich Polyembryonie vor, es werden in einem Samen mehrere Embryos gebildet. Bei "Hodgsonia macrocarpa" kommt sie stets vor. Die Samenschale wird bei den Kürbisgewächsen nur vom äußeren Integument der Samenanlage gebildet, das innere degeneriert. Sie besteht von außen nach innen aus einer häufig dreischichtigen Epidermis, einer Hypodermis, einem Sklerenchym, einem Aerenchym und einem Chlorenchym. Dieser fünfschichtige Aufbau ist für die Familie charakteristisch, teilweise gibt es Abwandlungen davon. Für die Entwicklung der Früchte ist in der Regel eine erfolgreiche Befruchtung nötig. Am Ende der Wachstumsperiode können sich bei etlichen Arten jedoch die letzten Blüten ohne Befruchtung entwickeln, wenn bis dahin noch keine Blüte der Pflanze befruchtet wurde. Auf der anderen Seite wird durch sich entwickelnde Früchte vielfach die Bildung weiterer weiblicher Blüten unterdrückt. Die Form der Früchte, die bei den Kürbisgewächsen sehr variabel ist, ist häufig bereits in der Form des Fruchtknotens vorgebildet. Systematik. Die nächstverwandten Familien der Kürbisgewächse innerhalb der Ordnung Cucurbitales sind die Begoniengewächse (Begoniaceae), Scheinhanfgewächse (Datiscaceae) und Tetramelaceae. Unter den von Jeffrey 2005 anerkannten Triben ist Jollifeae hochgradig polyphyletisch. Die Gattungen der Jollifeae bilden eine Gruppe an der Basis der Cucurbitoideae. Innerhalb dieser Gruppe sind einige Gattungen anderer Triben eingeordnet ("Cogniauxia" von den Benincaseae, "Ampelosicyos" und "Tricyclandra" von den Trichosantheae). Die übrigen Trichosantheae bilden eine Gruppe an der Basis der Sicyeae. Einige Gattungen sind nach den Ergebnissen von Kocyan et al. para- oder polyphyletisch. Nutzung. Die Nutzung der Kürbisgewächse durch den Menschen ist sehr vielfältig. Die Früchte werden reif oder unreif geerntet und gebacken (Kürbisse), frittiert (Bittermelone), gekocht (Wachskürbis, Schlangenhaargurke), gefüllt ("Cyclanthera pedata"), eingelegt (Gurke), kandiert (Wassermelone, Wachskürbis, "Cucurbita ficifolia") oder frisch als Salat (Gurke) oder Dessert (Zuckermelone, Wassermelone) gegessen. Zur Haltbarmachung können sie zu Konserven verarbeitet, eingefroren oder eingelegt werden. Der Fruchtsaft einiger Arten wird zu alkoholischen Getränken vergoren, in Japan wird etwa aus der Zuckermelone Likör hergestellt. Die Samen sind aufgrund ihres hohen Ölgehalts sehr nahrhaft. In Afrika können die Samen der Wassermelone, der Naras und anderer Arten einen wesentlichen Bestandteil der Nahrung ausmachen. In Mexiko und Zentralamerika, aber auch Teilen Mittel- und Südosteuropas werden Kürbissamen als Snack verspeist. Die Auslese von „nackten“, also dünnschaligen Samen hat die Beliebtheit auch in anderen Ländern gefördert. Aus den Samen folgender Arten wird Öl als Nahrung, zur Beleuchtung, Seifenherstellung und anderem hergestellt: Gartenkürbis (darunter auch der Steirische Ölkürbis), Wassermelone, Luffa, "Fevillea cordifolia", "Hodgsonia macrocarpa" und "Cucumeropsis mannii". Neben Früchten und Samen werden auch Blüten, Blätter, Sprossspitzen und Wurzeln (Chayote) zubereitet. Die Früchte des Flaschenkürbis werden ausgehöhlt zu Vorratsgefäße, Flaschen, aber auch Tabak-Pfeifen, Musikinstrumenten, Penis-Futteralen, Masken, Bojen für Fischnetze, Baby-Rasseln usw. verarbeitet. Auch die Früchte des Wachskürbis und verschiedener "Cucurbita"-Arten werden als Vorratsgefäße verwendet. Der Schwammkürbis und "Momordica angustisepala" werden als Schwamm verwendet. Die medizinische Verwendung der Kürbisgewächse ist äußerst vielseitig, sowohl bei den verwendeten Arten als auch bei den Anwendungsgebieten. Guha und Sen geben in ihrem auf Indien konzentrierten tabellarischen Überblick 79 Anwendungsgebiete an. Weit verbreitet sind Anwendungen als Abführmittel, Emetikum und Wurmmittel. Die Wirkung ist meist auf den Gehalt an Cucurbitacinen zurückzuführen. Die Wurzeln von "Trichosanthes dioica" werden als Gift verwendet. Kreuzblütler. Die Kreuzblütler (Brassicaceae oder Cruciferae), auch Kreuzblütengewächse genannt, sind eine Pflanzenfamilie in der Ordnung der Kreuzblütlerartigen (Brassicales). Die Familie enthält weltweit etwa 336 (bis 419) Gattungen mit etwa 3.000 bis 4.130 Arten. Sie ist durch viele Kulturpflanzen von großer wirtschaftlicher Bedeutung. Einige Wildpflanzen wie Acker-Schmalwand, Hirtentäschelkraut, Ackerhellerkraut sind vielen bekannt und als „Unkräuter“ nicht beliebt. Nutzung. Zur Familie der Kreuzblütler zählen viele wichtige Kulturpflanzen. So zählen vom Menschen entwickelte Kulturformen des Gemüsekohl ("Brassica oleracea"), wie beispielsweise Weißkohl, Rotkohl, Brokkoli, Blumenkohl, Rosenkohl und Kohlrabi dazu. Schwarzer und Weißer Senf ("Brassica nigra" und "Sinapis alba"), Pak Choi, Chinakohl ("Brassica rapa" subsp. "chinensis"), Weiße Rübe ("Brassica rapa" subsp. "rapa"), Steckrübe ("Brassica napus" subsp. "rapifera"), Rübse ("Brassica rapa" subsp. "oleifera") und Raps ("Brassica napus" subsp. "napus") gehören auch zur Gattung "Brassica". Rettich und Radieschen sind Vertreter der Gattung "Raphanus". Bekannt sind der Meerrettich ("Armoracia rusticana"), auch "Kren" genannt, die Kresse und der Wasabi ("Eutrema japonicum"). Einige Gattungen enthalten also Kulturpflanzen, die Öllieferanten und Gewürzpflanzen sind oder als Gemüse und Salate gegessen werden. Angebaut werden einige Arten dieser Familie auch als Grün- und Trockenfutter. Einige Arten werden zur Gründüngung verwendet. Die Familie enthält auch einige bekannte Zierpflanzen wie beispielsweise Goldlack, Blaukissen, Nachtviole, Levkojen. Erscheinungsbild und Blätter. Die Arten in dieser Familie wachsen meist als ein-, zweijährige und ausdauernde krautige Pflanzen. Nur wenige Arten verholzen und wachsen als Sträucher ("Alyssum spinosum" oder die südafrikanische "Heliophila glauca"); "Heliophila scandens" bildet Lianen. Die meist wechselständig und spiralig in einer grundständigen Blattrosette oder am Stängel verteilt angeordneten Laubblätter sind ungeteilt oder zusammengesetzt. Nicht selten sind die Blätter borstig behaart. Die Form und Dichte der stets einzelligen Haare (Trichome) sind wichtige Bestimmungsmerkmale; sie sind unverzweigt oder besitzen eine Fülle von unterschiedlichen Verzweigungstypen. Der Blattgrund besitzt Blattöhrchen oder ist stängelumfassend. Nebenblätter fehlen. Blütenstände und Blüten. Der traubige oder doppeltraubige, selten trugdoldige Blütenstand enthält meist keine Tragblätter. Die zwittrigen Blüten sind vierzählig und meist mehr oder weniger radiärsymmetrisch. Der Name der Kreuzblütler leitet sich von der Anordnung der vier Kronblätter der Blüte ab. Sie stehen in der Form eines Kreuzes, wobei oft eines der Kronblätter etwas größer als die übrigen drei ist. Die vier freien Kelchblätter sind in zwei Kreisen angeordnet. Es sind meist vier freie Kronblätter vorhanden. Nur sehr wenigen Arten fehlt dieses Merkmal der Vierzähligkeit: Meist sind vor allem bei diesen Arten die Blüten leicht zygomorph und in einem schirmförmigen Blütenstand so angeordnet, dass dieser die Funktion eines Pseudanthiums übernimmt. Dies ist zum Beispiel bei "Iberis" der Fall. Ein weiteres wichtiges Erkennungsmerkmal der Kreuzblütler sind die zwei Kreise mit insgesamt sechs Staubblättern. Der äußere Kreis besteht aus nur zwei kurzen, der innere Kreis aus vier langen Staubblättern. Der oberständige Fruchtknoten wird vermutlich aus vier Fruchtblättern gebildet: zwei fertile und zwei sterile. Es wird eine falsche Scheidewand gebildet, die bei der reifen Frucht erhalten bleibt; besonders schön ist diese Scheidewand beim Silberblatt ("Lunaria rediviva") zu sehen. Die sterilen Fruchtblätter fallen bei vollreifen Früchten ab. Der Griffel ist mehr oder weniger reduziert und endet in ein oder zwei Narben. Die Bestäubung erfolgt meist durch Insekten (Entomophilie) oder selten durch den Wind (Anemophilie). 20pxformula_1 Früchte und Samen. Die Früchte werden Schoten genannt, wenn sie mindestens dreimal so lang wie breit sind oder Schötchen, wenn sie gedrungener sind. Bei manchen Taxa werden Gliederschoten, die in einsamige Teilfrüchte zerfallen, oder geschlossen bleibende, einsamige Nussschötchen ausgebildet. Blütenansatz und Samenbildung überlappen sich oft zeitlich: Während unten schon Samen gebildet werden, blüht der obere Teil des Blütenstandes noch. Die je nach Art viel bis kein Endosperm enthaltenden Samen sind klein bis mittelgroß; beispielsweise bei "Matthiola" und "Isatis" besitzen sie Flügel. Der Embryo ist gut ausdifferenziert. Inhaltsstoffe. Es sind sogenannte Myrosinzellen vorhanden, die das Enzym Myrosinase, das ist eine Thioglukosidase, und Senfölglykoside (Glukosinolate) enthalten. Die Spaltung der Senfölglykoside erzeugt Senföle (Alkylisothiocyanate), Rhodanide (Thiocyanate), Nitrile und Goitrine (Oxazolidinthione). Typisch ist der durch Senfölglykoside verursachte kohlartige Geruch und Geschmack. Eine weitere Besonderheit ist, dass bekannte Nutzpflanzen wie Kohl, Broccoli und Raps, möglicherweise alle Kreuzblütler Brommethan als Gas an die Umwelt abgeben und somit einen deutlichen Beitrag zur Gesamtemission dieses Giftes beitragen. Ob es sich dabei nur um einen Abwehr- oder um einen Signalstoff handelt, bleibt noch zu klären. Etwa 15 % der weltweiten Emissionen an Brommethan sollen auf das Konto dieser Pflanzenfamilie gehen. Das fette Öl der Rapspflanze wird zur Herstellung von Biokraftstoffen sowie (wie auch Senföl) als Speisefett verwendet. Entwicklungsgeschichte der Familie. Die ersten Arten, die man dieser Familie zurechnen kann, entstanden etwa vor 37 Millionen Jahre in einem warmen und feuchten Klima. Die größte adaptive Radiation innerhalb der Familie erfolgte im Oligozän, während es kühler wurde. Eine Verdopplung des Genoms verbesserte die Voraussetzung, sich an einen solchen Klimawandel anzupassen. Systematik und Verbreitung. Kreuzblütler können von der Dauerfrostzone bis zu den Tropen weltweit gefunden werden (Kosmopoliten). Ihren Verbreitungsschwerpunkt haben sie in den gemäßigten Zonen der Nordhalbkugel und hier wiederum in den Mittelmeerländern und in Südwest- und Zentralasien. 102 Gattungen mit 412 Arten sind in China beheimatet, davon kommen 115 nur dort vor. Der Familienname Cruciferae wurde 1789 von Antoine-Laurent de Jussieu in "Genera Plantarum", Seite 237 veröffentlicht. Der Familienname Brassicaceae wurde 1835 von Gilbert Thomas Burnett in "Outlines of Botany", Seite 854, 1093 und 1123 eingeführt. Typusgattung ist ("Brassica"). Synonyme für Brassicaceae sind: Cruciferae, nom. cons., Raphanaceae, Stanleyaceae und Thlaspiaceae. Am nächsten verwandt sind die Familien Cleomaceae und Kaperngewächse (Capparidaceae). In der Familie der Kreuzblütler (Brassicaceae) gibt es etwa 336 (bis 419) Gattungen mit 3000 bis 4130 Arten (die größte Anzahl an Gattungen und Arten listet Judd et al. 1999). Kardengewächse. Die Kardengewächse (Dipsacoideae) sind eine Unterfamilie in der Pflanzenfamilie der Geißblattgewächse (Caprifoliaceae) innerhalb der Ordnung der Kardenartigen (Dipsacales). Früher wurden die Dipsacoideae als eigene Familie der Dipsacaceae Juss. betrachtet. Beschreibung. Es handelt sich um ein-, zweijährige, oder ausdauernde krautige Pflanzen oder seltener um Halbsträucher. Die stets gegenständigen Laubblätter sind meistens ungeteilt. Nebenblätter besitzen sie keine. Ein besonders charakteristisches Merkmal der Kardengewächse ist der köpfchenförmige Blütenstand, der sehr dem der Korbblütler ähnelt, und wie dieser von Hüllblättern umgeben ist (→ Pseudanthium). Der Aufbau der Blüten unterscheidet sich jedoch erheblich: Die zwittrigen Blüten sind vier- oder fünfzählig, mit doppelten Perianth. Die vier- oder fünfzipfeligen, am Rand der Köpfchen oft stark zygomorphen Blüten sind oft von einem Außenkelch umgeben. Der Außenkelch besteht aus zwei miteinander verwachsenen Vorblättern. Der Kelch und der Außenkelch sind fast stets trockenhäutig und borstig. Die Kronblätter sind miteinander verwachsen. Die zwei Fruchtblätter sind zu einem unterständigen Fruchtknoten verwachsen. Die meist vier (selten zwei bis drei) Staubblätter sind nicht zu einer Röhre verwachsen. Sie bilden einsamige Schließfrüchte, Achänen genannt. Vorkommen. Die Mehrzahl der Arten findet man in trockenen oder zumindest periodisch trockenen, offenen Gebieten wie Steppen oder Trockenrasen. Systematik und Verbreitung. Die Unterfamilie Dipsacoideae wurde 1836 durch Amos Eaton in "A Botanical Dictionary", 4. Auflage, S. 36. unter der Bezeichnung „Dipsaceae“ aufgestellt. Typusgattung ist "Dipsacus" Ein Synonym für Dipsacoideae ist Dipsacaceae Die Arten sind von den gemäßigten bis subtropischen Zonen Eurasiens und Afrikas sowie im tropischen und südlichen Afrika verbreitet. Verbreitungsschwerpunkt ist der Mittelmeerraum und Kleinasien. Liste von Kanälen. Die Liste von Kanälen enthält einen tabellarischen und sortierbaren Überblick mit Grundinformationen zu den Kanälen weltweit. Sie führt einen Teil der bestehenden und ehemaligen Kanäle auf und erhebt keinen Anspruch auf Vollständigkeit. Ein Kanal ist dann schiffbar, wenn dies der Definition der Schiffbarkeit entspricht, dies bezieht sich also nicht auf die Möglichkeit, dort kleinere Sportboote gebrauchen zu können. Der Beginn und das Ende des Kanals werden bevorzugt mit Koordinaten eingegeben. Weblinks. Kanale Kanale Kanale Kohlrabi. Der Kohlrabi ("Brassica oleracea" var. "gongylodes" L.), auch Oberkohlrabi, Oberrübe, Rübkohl und Stängelrübe ist eine Gemüsepflanze. Er ist eine der vielen Zuchtformen des Gemüsekohls. Genutzt wird hier die verdickte, oberirdische Sprossachse (Sprossknolle). Der Name leitet sich von den lateinischen Wörtern „caulis“ (Kohl) und „rapum“ (Rübe/Wurzelknollen) ab, bedeutet somit Kohlrübe. Oberrübe daher, da sie im Gegensatz zu anderen Rüben über der Erde wächst. Merkmale. Kohlrabi ist eine zweijährige Pflanze, wobei im ersten Jahr die Sprossknolle gebildet wird, und im zweiten Jahr der Stängel mit einem verzweigten Blütenstand. Die Knolle ist der gestauchte, verdickte Hauptspross der Pflanze. Sie entsteht über dem zweiten oder dritten Laubblatt durch primäres Dickenwachstum der Sprossachse. Die Form der Knolle kann kugelig, plattrund oder oval sein, die Farbe der Schale weißlich, weißgrün bis kräftig grün, rötlich oder violett. Der Durchmesser ist je nach Sorte zwischen 5 und 20 cm, oder noch mehr. Das Gewicht liegt je nach Sorte und Verwendung zwischen 100 g und über 8 kg pro Knolle. Einzelwerte können noch wesentlich darüber liegen. Die Blätter sind lang gestielt, dunkelgrün, länglich eirund und mehr oder weniger stark gezähnt. Sie sind mit einer bläulich-weißen Wachsschicht überzogen. Die Pflanzen bilden eine Pfahlwurzel. Die Blütenbildung kann bereits im Zweiblattstadium durch längere Kältereize ausgelöst werden (Vernalisation); ebenso führen hohe Temperaturen zu einer Devernalisation. Inhaltsstoffe. 100 g Frischsubstanz des essbaren Anteils der Knolle enthalten im Mittel 91,6 g Wasser, 1,9 g Protein, 0,1 g Fett, 3,8 g Kohlenhydrate und 1,4 g Ballaststoffe. An Mineralstoffen sind Kalium (380 mg), Calcium (70 mg), Phosphor (50 mg), Magnesium (45 mg) und Eisen (0,9 mg) zu nennen. An Vitaminen sind Vitamin C (65 mg), Vitamin A (Carotin, 0,2 mg), Vitamin B1 (0,05 mg), Vitamin B2 (0,05 mg) und Niacin (1,8 mg) vorhanden. Der Energiewert beträgt 103 kJ oder 24 kcal pro 100 Gramm. Der Geschmack des Kohlrabi beruht auf dem Gehalt an Zucker, Fruchtsäuren und Senfölglykosiden. Bei den Fruchtsäuren dominieren Äpfelsäure und Citronensäure deutlich. Kohlrabiblätter haben gegenüber der Knolle einen rund doppelt so hohen Gehalt an Vitamin C, der Gehalt an Carotin beträgt das 100fache, der an Calcium und Eisen das 10fache. Anbau. Es gibt etliche Sorten, in Deutschland 30 weiße und 14 blaue Kohlrabi-Sorten. Es setzen sich vermehrt Hybrid-Sorten durch. Wichtige Eigenschaften sind: Ertrag, geringe Neigung der Knollen zum Verholzen und Platzen, Schnellwüchsigkeit und geringe Neigung zum Schossen. Die Sorten, die die größten Knollen liefern, sind 'Gigant' und 'Superschmelz'. Die Sorten unterscheiden sich nach Farbe (weiß und blau) und der Anbauzeit; weiße Kohlrabisorten benötigen eine geringere Kulturzeit als blaue Sorten. Bei zu geringem Pflanzabstand bildet Kohlrabi, hauptsächlich aufgrund von Lichtmangel, zylindrische Knollenformen aus. Freiland. Bezüglich des Bodens ist Kohlrabi empfindlich gegen größere Schwankungen der Bodenfeuchte, dies führt zu einem Aufplatzen der Knollen. Klimatisch hat Kohlrabi eine breite Amplitude und wächst in Mittel- und Westeuropa gut. Im Sommer und Herbst reichen niedrige Temperaturen aus, im Jugendstadium braucht er allerdings Wärme. In der Fruchtfolge sind längere Anbaupausen zu anderen Kreuzblütlern anzustreben. Kurze Fruchtfolgen erhöhen die Gefahr von bodenübertragenen Krankheiten, besonders der Kohlhernie. Andere Ansprüche bezüglich der Vorfrucht stellt Kohlrabi nicht. Ebenso sind als Nachfrucht alle Gemüsearten geeignet. Kohlrabi stellt keine besonderen Anforderungen an die Stickstoff-Versorgung; überhöhte Stickstoff-Düngung kann leicht zu erhöhten Nitrat-Gehalten in der Knolle führen. Beim Kohlrabi gibt es in Mitteleuropa Früh-, Sommer- und Herbstproduktion im Freiland, die für den Frischmarkt und die Verarbeitungsindustrie produzieren. Kohlrabi hat eine kurze Entwicklungszeit und wird daher häufig als Vor-, Zwischen- oder Nachfrucht angebaut. Mitteleuropäischer Anbau kann den Markt zwischen Mai und November mit Frischware versorgen. Der Anbau für den Frischmarkt erfolgt dabei überwiegend in gärtnerischen Gemüsebaubetrieben, der Anbau für industrielle Verarbeitung hingegen zumeist in landwirtschaftlichen Betrieben (Feldgemüsebau). Weit verbreitet ist die Anzucht von Jungpflanzen und die anschließende Pflanzung im Feld. Die Bestandesdichten variieren zwischen 16 bis 17 Stück pro m² im Frühjahrsanbau und 8 bis 10 Stück pro m² bei den späteren Sorten. Im Frühjahr werden die Pflanzen zur Verfrühung teilweise einfach oder doppelt mit Folien abgedeckt. Die Erträge liegen im Frühjahrsanbau bei 20 bis 30 Tonnen pro Hektar, im Sommer und Herbst bei 45 bis 70 Tonnen pro Hektar. Die Ernte erfolgt bei Frischware per Hand. Große Kohlrabi für die industrielle Verarbeitung können mit Kopfkohlerntemaschinen mit speziellem Kohlrabi-Schneidwerk geborgen werden. Frühsorten lassen sich schlecht lagern, die Lagerdauer beträgt lediglich zwei bis drei Wochen. Herbstkohlrabi können ohne Laub über mehrere Monate gelagert werden. Gewächshaus. Der Anbau von Kohlrabi im Gewächshaus ist besonders in den Niederlanden, in Deutschland, der Schweiz und Österreich verbreitet. Im Gewächshaus erfolgt die Kultur auch für Ernten im Winter. An Krankheiten sind lediglich bei schlechter Belüftung Falscher Mehltau und Schwarzbeinigkeit von Bedeutung. Geerntet wird Gewächshauskohlrabi mit Laub, das den Frischegrad anzeigt. Krankheiten und Schädlinge. Virenerkrankungen haben beim Kohlrabi keine wirtschaftliche Bedeutung, das Blumenkohlmosaikvirus kommt gelegentlich vor. Die Bakterien- und Pilzkrankheiten sind im Wesentlichen die gleichen wie bei Kopfkohl und Blumenkohl: besonders Kohlhernie und Falscher Mehltau. Vor allem bei Kohlrabi tritt der Pilz "Cylindrosporium concentricum" auf, der Blätter und Knolle befällt. Die Blätter fallen frühzeitig ab, das Gewebe wird graugrün, an der Knolle bilden sich schwarzgraue Flecken, später Kallusgewebe. Unter den tierischen Schädlingen sind die gleichen wie bei Kopf- und Blumenkohl zu nennen. Bedeutsam im Freilandbau ist der Große Kohltriebrüssler ("Ceutorhynchus napi"). Die abgelegten Eier führen zum Aufplatzen der Knollen. Verwendung. Die jungen Knollen werden geschält und in Scheiben oder Stücke geschnitten gekocht oder gedünstet – als Beilage, Püree, in Eintöpfen und Suppen, für Füllungen und Aufläufe. Junge Blätter können wie anderes Blattgemüse verwendet werden. In Teilen Frankreichs werden die Knollen gehobelt und wie Sauerkraut konserviert. Auch als Rohkost ist Kohlrabi geeignet. Kulturgeschichte. Die Herkunft des Kohlrabi ist ungeklärt. Häufig genannte Gebiete der möglichen Domestikation sind der Mittelmeerraum und Mittelasien. Ebenso unklar ist der Zeitpunkt der Entstehung. Sichere Belege gibt es erst aus Europa im 16. Jahrhundert. Aus dieser Zeit gibt es eindeutig identifizierbare Zeichnungen in Kräuterbüchern. Aus dem 18. Jahrhundert stammen erste Hinweise auf plattrunde Knollen. Im deutschsprachigen Raum wurde der Kohlrabi besonders im 19. Jahrhundert verbreitet. Er gilt vielfach als typisch deutsches Gemüse, sodass der deutsche Name in etliche andere Sprachen übernommen wurde, so etwa ins Englische, Russische und Japanische. In der "Fortsetzung des Allgemeinen teutschen Garten-Magazins" von 1815 werden von den weißen Kohlrabisorten der "kleine frühe (Wiener) Kohlrabi", der "große Glaskohlrabi" und der "gemeine grüne Kohlrabi" aufgezählt, von den blauen bzw. roten Sorten der "frühe blaue Glaskohlrabi" und der "späte blaue Kohlrabi". Heute sind die in Deutschland bekanntesten Sorten Wiesmoor weißer Trieb, Wiener blauer Glas und Blauer Speck. Kronos. Kronos () ist in der griechischen Mythologie der jüngste Sohn der Gaia ("Erde") und des Uranos ("Himmel"), Anführer der Titanen und Vater von Zeus. In der römischen Mythologie entspricht ihm Saturn(us). Etymologie. Sein Name wurde in der antiken Volksetymologie schon sehr früh (in der Orphik) mit dem des Zeitgottes Chronos (griechisch Χρόνος) gleichgesetzt, was aber etymologisch falsch ist; ursprünglich waren es zwei verschiedene Götter, die dann in manchen Überlieferungen miteinander verschmolzen wurden. Die Frage nach der richtigen Etymologie ist umstritten; man hat eine Ableitung von "kraíno" erwogen, dann wäre Kronos der „Vollender“. Wahrscheinlicher ist aber, dass der Name vorgriechischen Ursprungs ist und somit Kronos aus einer vorgriechischen Tradition übernommen wurde. Mythologie. In der Frühzeit der Mythologie hatte Kronos noch keinen festen Platz in der Genealogie der Götter; von den verschiedenen Versionen des Mythos hat sich die von Hesiod überlieferte durchgesetzt, die Kronos zu einem Sohn von Uranos und Gaia macht. Da Uranos seine Kinder – die Kyklopen und Hekatoncheiren – so sehr hasste, dass er sie in den Tartaros verbannte, brachte Gaia ihre weiteren Kinder – die Titanen – im Geheimen zur Welt. Sie stiftete schließlich Kronos an, den Vater mit einer Sichel zu entmannen. Kronos wurde damit zum Herrscher der Welt und Begründer des Goldenen Zeitalters. Nach der Darstellung Hesiods ("Theogonie" 446ff.) wurde Kronos von seiner Schwester Rhea (Rheia) zum Gatten genommen. Aus Angst, selbst entmachtet zu werden, fraß er jedoch alle Kinder, die aus dieser Verbindung entstanden: Hestia, Demeter, Hera, Hades und Poseidon, die "Kroniden". Den jüngsten Sohn jedoch, Zeus, versteckte Rhea auf Anraten von Gaia und Uranos in der Höhle von Psychro im Dikti-Gebirge auf Kreta, während sie dem Kronos einen in eine Windel gewickelten Stein überreichte, den dieser verschlang, ohne den Betrug zu bemerken. So konnte Zeus ungestört heranwachsen. Später gelang es Zeus, seinen Vater mit List und Gewalt zu überwinden, worauf Kronos erst den Stein und dann seine verschlungenen Kinder ausspuckte. Den Stein stellte Zeus an der Kultstätte Pytho (Delphi) auf, damit er dort von den Sterblichen bestaunt werde. Die Orphiker erzählten, dass Kronos eines Tages von dem damals aus den Eichen fließenden Honig berauscht dalag und so von Zeus gefesselt werden konnte. Anschließend brachte dieser ihn auf die „Insel der Seligen“, die Elysischen Gefilde, die am Rande des Erdkreises liegen, wo Kronos bis heute weile. Daher halte dort noch immer das Goldene Zeitalter an, das für den Rest der bekannten Welt mit seiner Entmachtung sein Ende gefunden habe. Nach der "Bibliotheke des Apollodor" war Metis, die erste Geliebte des Zeus, diesem bei der Entmachtung des Vaters behilflich, indem sie ihm den Trank reichte, der Kronos betäubte und ihn schließlich dazu zwang, alle zuvor verschlungenen Kinder wieder von sich zu geben. Verehrung. Kronos war eine relativ schattenhafte Gestalt aus der Mythologie, die nur in sehr geringem Maße kultisch verehrt wurde. Allerdings gab es ein ihm zu Ehren gefeiertes ländliches Fest, die Kronien. Der von ihm ausgespuckte Stein wurde in Delphi verehrt; man salbte ihn täglich mit Öl und umwickelte ihn an Festtagen mit wollenen Binden. Er ist nicht zu verwechseln mit einem anderen ebenfalls in Delphi aufgestellten und verehrten Stein, dem Omphalos. Der Steinkult war in der Antike im Mittelmeerraum verbreitet. Korbach. Die Stadt Korbach, seit dem 18. Juni 2013 offiziell Hansestadt Korbach (früher auch "Corbach" geschrieben, bahnamtlich bis zum 1. Februar 1935), ist die Kreisstadt des Landkreises Waldeck-Frankenberg in Hessen und kann auf eine über 1000-jährige Geschichte zurückblicken. Geografie. Korbach liegt am Nordostrand des Rheinischen Schiefergebirges, hier auch als "Waldeck'sches Upland" bezeichnet. Die nördlichsten Stadtteile befinden sich in den Ausläufern des Sauerlandes. Die höchsten Berge im Korbacher Stadtgebiet sind der Widdehagen (635 m) und der für seinen Reichtum an goldhaltigen Erzen bekannte Eisenberg (562 m). Die Kernstadt wird von dem Kuhbach (umgangssprachlich "„Die Kuhbach“") durchflossen. Mit einer Altstadthöhe von 366 bis 392 m. ü. NHN ist Korbach die höchstgelegene Kreisstadt Hessens. In der Korbacher Spalte, einer Erdspalte in der Nähe Korbachs, gab es bedeutende Fossilienfunde aus dem Oberperm. Es sind die einzigen Procynosuchus-Funde (auch „Korbacher Dackel“ genannt) auf der Nordhalbkugel. Nachbargemeinden. Die Nachbargemeinden der Stadt Korbach sind Diemelsee, Lichtenfels, Twistetal, Vöhl, Waldeck und Willingen (Upland) alle im Landkreis Waldeck-Frankenberg sowie Medebach (im Hochsauerlandkreis in Nordrhein-Westfalen) Stadtgliederung. Korbach besteht aus der Kernstadt und 14 weiteren Stadtteilen. Die Kernstadt liegt auf der Waldecker Tafel, einer waldlosen Hochebene, die früher reich an wilden Hühnern war (weswegen ihre Bewohner auch „Feldhühnerchen“ genannt werden). Frühgeschichte. Über die Herkunft und Bedeutung des Stadtnamens werden verschiedene Ansichten vertreten. Einigkeit herrscht, dass der Name altsächsischen Ursprungs ist. Die älteste Form lautet Curbecki (980). Einer Auffassung zufolge soll die erste Silbe aus dem mittelniederdeutschen „kurren, korren“ gebildet worden sein, was soviel wie das Murmeln eines Baches bedeutet. Nach anderer Ansicht leitet sich die Silbe „Cor“ oder „Cur“ von „Kür“ und „küren“ ab, was „Wahl“ bzw. „wählen“ bedeutet. Demnach handelte es sich bei Korbach um einen am Bache gewählten Platz, möglicherweise auch um einen Versammlungsort an einem Bach, an dem das Volk einen Anführer wählte. "Curbechi" wird urkundlich erstmals im Jahre 980 erwähnt, als der damalige König und spätere Kaiser Otto II. Korbach, Lelbach, Rhena und drei weitere Orte im damaligen Ittergau, unter Hinzuziehung des Grafen Asicho vom Ittergau und Nethegau als Zeugen, im Tausch gegen zwei Gemarkungen im Hassegau an das Kloster Corvey abgab. Auch auf dem übrigen Stadtgebiet gibt es Hinweise auf frühzeitliche Besiedlungen, so z. B. auf dem Wipperberg bei Lengefeld. Mittelalter und Frühe Neuzeit. 1188 verlieh der Paderborner Bischof Bernhard Korbach das Soester Stadtrecht. Auf Grund der Lage Korbachs am Schnittpunkt der Handelswege Köln-Leipzig und Frankfurt-Bremen entwickelten sich Handwerk und Handel rasch, und Korbach blühte auf. Das Gebiet der Altstadt reichte bald nicht mehr aus, um alle Einwohner aufzunehmen. Die Kaufleute siedelten sich daher in zwei neuen Städten, der oberen und unteren Neustadt, außerhalb der Stadtgrenzen an, die sich bald zu einer gemeinsamen Stadt vereinigten. Im 14. Jahrhundert wurde in der Altstadt die Kilianskirche erbaut, in der Neustadt die Nikolaikirche. Rathaus auf der Grenze zwischen Altstadt und Neustadt (2010) 1349 besuchte Kaiser (damals noch römischer König) Karl IV. die Stadt. 1377 wurden die Altstadt und die Neustadt miteinander vereinigt, und auf der Grenze zwischen beiden zuvor getrennten Städten entstand das gemeinsame Rathaus, das sich noch heute dort befindet. 1414 wurde ein doppelter Mauerring, der die gesamte Siedlung umgab, vollendet. Fünf Stadttore bewachten den Zugang zur Stadt: das Tränketor, das Dalwigker Tor, das Enser Tor, das Lengefelder Tor und das Berndorfer Tor. Von diesen ist heute nur noch das Enser Tor erhalten. Die Padberger Fehde von 1413 bis 1418 war der Höhepunkt der langen Grenzstreitigkeiten und wiederholten Übergriffe der Herren von Padberg auf das Gebiet der Grafschaft Waldeck und insbesondere der Stadt Korbach. Mit dieser Fehde fanden die Auseinandersetzungen ein vorläufiges Ende. Korbach trat der Hanse bei und wurde erstmals 1469 als Mitglied im Hansebund erwähnt. Es war damit eine der geographisch südlichst gelegenen Städte der Hanse. Die Korbacher Kaufleute handelten mit Tuchen, Fellen und Bier, auch mit Gold und anderen Metallen aus der näheren Umgebung. Korbach war die einzige Hansestadt im heutigen Bundesland Hessen. Mit der Reformation wurde die Stadt wie die gesamte Grafschaft Waldeck protestantisch. Auch heute ist Korbach noch größtenteils protestantisch, auch wenn seit dem 19. Jahrhundert wieder vermehrt Katholiken in die Stadt zogen und die beiden katholischen Kirchen, die ältere Marienkirche und die moderne Josephskirche, errichteten. Zudem sind die westlichen Stadtteile an der Grenze zu Nordrhein-Westfalen fast vollständig (Hillershausen) oder zu größeren Teilen (Nieder-Schleidern, Eppe) katholisch. Im Dreißigjährigen Krieg musste Korbach immer wieder hohe Kontributionen an durchziehende Truppen leisten. Am Ende des Krieges war nur noch die Hälfte der Häuser bewohnbar, und die Zahl der Einwohner war von 2600 auf 1100 zurückgegangen. Ein großer Stadtbrand vernichtete 1664 fast alle Wohnhäuser; heute gibt es in Korbach nur ein Fachwerkhaus „Im Katthagen“, das vor diesem Brand, 1593, erbaut wurde. Die gotischen Steinkirchen sowie die steinernen Lagerhäuser hingegen blieben gut erhalten. Im Siebenjährigen Krieg kam es am 10. Juli 1760 zu einem größeren Gefecht vor den Toren der Stadt. Neuzeit. Erst gegen Ende des 18. Jahrhunderts herrschte wieder bescheidener Wohlstand; eine erste wirtschaftliche Blüte erreichte die Stadt wieder Ende des 19. Jahrhunderts. Hierzu trug vor allem die Eröffnung der Twistetalbahn im Jahr 1893 bei, die mit der Bahnstrecke Volkmarsen–Vellmar ab 1897 eine Verbindung nach Kassel bot. Der in Alleringhausen geborene Louis Peter, Gründer der "Peters Union AG", Main (früher "Mitteldeutsche Gummiwarenfabrik L. Peter AG"), baute 1907 das Zweigwerk Korbach. Die hannoversche Continental AG übernahm 1929 die "Peters Union". Der Stadt blieben in beiden Weltkriegen größere Schäden erspart. Nach dem Zweiten Weltkrieg nahm die Einwohnerzahl durch Flüchtlinge und Vertriebene aus den ehemaligen deutschen Ostgebieten stark zu. Am Stadtrand unweit der Bahnstrecke Korbach–Berndorf und der Flechtdorfer Straße stürzte am 29. März 1961 ein F-104 „Starfighter“ der Luftwaffe ab. Dabei kamen Menschen nicht zu Schaden. Pilot und Beobachter konnten sich mit dem Schleudersitz retten. Es handelte sich um den ersten Absturz einer F-104 der Bundeswehr. Eingemeindungen. Am 1. Juli 1970 wurden die bis dahin selbständigen Gemeinden Alleringhausen, Eppe, Goldhausen, Helmscheid, Hillershausen, Lengefeld, Meineringhausen, Nieder-Schleidern, Rhena und Strothe eingegliedert. Am 31. Dezember 1970 kamen Nieder-Ense, Nordenbeck und Ober-Ense hinzu. Lelbach folgte am 1. Oktober 1971. Stadtverordnetenversammlung. Die Stadtverordnetenversammlung besteht in Korbach aus 37 Mitgliedern. Städtepartnerschaften. Seit 1963 unterhält Korbach eine Städtepartnerschaft mit dem französischen Avranches im Département Manche. Als weitere Partnerstadt folgte nach der Wiedervereinigung 1990 das thüringische Waltershausen. Weiterhin pflegt Korbach Partnerschaften mit dem polnischen Pyrzyce (Pyritz) und dem tschechischen Vysoké Mýto (Hohenmauth). Verkehr. Korbach liegt an den Bundesstraßen 251 (Kassel–Brilon) und 252 (Marburg–Paderborn), die sich auf der Korbacher Umgehungsstraße kurzzeitig überschneiden. Ein direkter Anschluss an das Autobahnnetz besteht auf dem Stadtgebiet nicht; die nächsten Autobahnanschlüsse sind an der A 44 bei Diemelstadt bzw. Zierenberg, jeweils etwa 30 km entfernt. Die Stadt ist zudem über Landesstraßen mit Medebach und Diemelsee verbunden. Der Bahnhof Korbach ist ein Eisenbahnknotenpunkt, an dem sich heute drei Eisenbahnstrecken treffen: eine nach Nordwesten, die über Willingen nach Brilon-Wald (Uplandbahn) und weiter bis ins Ruhrgebiet führt; eine nach Süden, die über Frankenberg nach Marburg (Untere Edertalbahn und Burgwaldbahn) verläuft; und eine nach Nordosten, die über Volkmarsen nach Kassel führt. Eine vierte Strecke führte früher nach Südosten über Waldeck nach Wabern. Sie ist als Ederseebahn im Abschnitt Korbach−Bad Wildungen stillgelegt; in dessen Teilabschnitt Korbach–Buhlen befindet sich nun der Ederseebahn-Radweg, der von 2008 bis 2012 angelegt wurde. Die Strecke nach Kassel wurde am 4. Oktober 1998 wiedereröffnet (damals eines der ersten Beispiele für Streckenreaktivierung). Die 31 Kilometer lange Strecke Korbach–Frankenberg wurde Ende der 1980er Jahre stillgelegt. Der kurze Abschnitt von Korbach bis Korbach Süd wurde schon am 29. September 1999 wiedereröffnet. Seit dem 11. September 2015 ist die ganze Untere Edertalbahn von Korbach bis Frankenberg, die auch den Nationalpark Kellerwald-Edersee anbindet, wieder in Betrieb. Bis in die 1980er Jahre bestanden durchgehende Fernzugverbindungen unter anderem bis nach Amsterdam, Hamburg und Frankfurt. Korbach hat, für eine Stadt dieser Größe bemerkenswert, zwei Bahnhöfe an derselben Eisenbahnstrecke, die beide in Betrieb sind. Da der ursprüngliche Hauptbahnhof von der Altstadt zu weit entfernt war, wurde 1,5 km weiter südlich ein weiterer („Korbach Süd“) eröffnet. Auch wenn die Bahnstrecke nach Kassel ständig weiter modernisiert wird, merkt man auch heute noch die Folgen der früheren Stilllegung. Zudem stellt die Streckenführung über Bad Arolsen und Volkmarsen einen beachtlichen Umweg dar, so dass man mit dem Zug heute fast die doppelte Fahrzeit wie mit dem Auto benötigt. 1997 wurde in Korbach ein Stadtbus-Konzept mit zwei sich teilweise überschneidenden Ringlinien verwirklicht. Diese Busse fahren im 40-Minuten-Takt und treffen sich dabei alle 20 Minuten am Hauptbahnhof. Wichtige Fahrziele, wie zum Beispiel die Innenstadt, das Stadtkrankenhaus oder das Schulzentrum, sind an beide Linien angeschlossen. In Korbach gibt es einen Flugplatz mit Gastronomie. Neben einer 600 m langen Graspiste für Sportflugzeuge steht noch eine 200 m lange Bahn für den Gleitschirmbetrieb zur Verfügung. Der Flugplatz, einer der ältesten in Deutschland, ist ein beliebtes Ausflugsziel und wird jährlich von hunderten Piloten aus ganz Europa angesteuert. Korbacher Spalte. Blick auf die Korbacher Spalte in der Wand des ehemaligen Steinbruchs Ehemaliger Kalkbrennofen nahe dem Steinbruch Die Korbacher Spalte ist eine 20 Meter tiefe, und bis zu 4 Meter breite verfüllte Spalte im Kalkstein eines ehemaligen Steinbruches am Südrand der nordhessischen Kreisstadt Korbach. Sie gilt als bedeutende Fossillagerstätte und ist ein Bodendenkmal aufgrund des Hessischen Denkmalschutzgesetzes und damit als Kulturdenkmal geschützt. Die Spalte setzt sich südwestlich und östlich des Steinbruchs im Untergrund fort und besitzt eine Gesamtlänge von ca. 1 Kilometer. Das Material, mit dem die Spalte verfüllt ist, enthält zahlreiche Fossilien von Landwirbeltieren (Tetrapoda) aus der Zeit des Oberperm vor ca. 255 Millionen Jahren. Die Gesteine in denen sich die Spalte befindet sowie das Material der Spaltenfüllung gehören dem tieferen (geologisch älteren) Teil der Zechstein-Serie an. Die Spalte wurde 1964 entdeckt. Nach ersten Fossilienfunden finanzierte die amerikanische National Geographic Society systematische Grabungen an der Austrittsstelle der Spalte in dem aufgelassenen Steinbruch. Der Fund eines Unterkiefers des bis dahin nur aus den Karoo-Ablagerungen des südlichen Afrikas bekannten Cynodontiers (Vertreter einer Gruppe „säugetierähnlicher Reptilien“) "Procynosuchus" führte zu einer Veröffentlichung im Wissenschaftsmagazin Nature. Die Stadt Korbach kaufte daraufhin die Fundstelle, überdachte sie und errichtete eine Besucherplattform. Weitere identifizierbare Wirbeltierfossilien stammen von Protorosauriern, Captorhiniden, Pareiasauriern und Dicynodontiern. Einige Funde sind im Museum Korbach ausgestellt, ein anderer Teil der Funde befindet sich im Naturkundemuseum Karlsruhe. Natriumchlorid. Natriumchlorid (Kochsalz oder einfach „Salz“) ist das Natriumsalz der Salzsäure mit der chemischen Formel NaCl. Natriumchlorid ist in der Natur in großer Menge vorhanden, größtenteils gelöst im Meerwasser mit einem Gehalt von ca. 3 %, insgesamt 3,6 · 1016 Tonnen, außerdem als Mineral Halit mit einem Gehalt von bis zu 98 % in den häufigen Steinsalzlagerstätten, die in erdgeschichtlicher Zeit in austrocknenden Meeresbuchten sedimentierten. Die insgesamt unter Deutschland vorkommenden Lagerstätten werden auf ein Volumen von bis zu 100.000 Kubikkilometer geschätzt. Steinsalzschichten sind plastisch und werden deshalb von geologischen Prozessen, denen sie unterliegen, vielfach verformt, u. a. zu leichter abbaubaren Salzstöcken und Salzkissen. Wenn eine Salzlagerstätte im Gebirge an die Oberfläche austritt, kann sogar ein "Salzgletscher" entstehen. Natriumchlorid ist für Menschen und Tiere der wichtigste Mineralstoff. Der Körper eines erwachsenen Menschen enthält etwa 150–300 g Kochsalz und verliert davon täglich 3–20 Gramm, die ersetzt werden müssen. Dafür wurde es schon in vorgeschichtlicher Zeit gewonnen und blieb lange Zeit ein teures Handelsgut. Gewinnung. Natriumchlorid wird in großem Umfang aus den beiden Hauptvorkommen Steinsalz und Meersalz gewonnen. Salz aus oberirdischen Lagerstätten, z. B. Salzseen, hat nur geringe Bedeutung. Die Weltsalzproduktion betrug 2006 über 250 Millionen Tonnen, die Anteile an Stein- und Meersalz werden auf ca. 70 % bzw. 30 % geschätzt. Die sechs größten Produzenten des Jahres 2006 mit zusammen über 60 % der Produktion sind in der unten stehenden Tabelle angegeben. China steigerte seine Produktion in den letzten Jahren erheblich, die USA hatten noch bis 2005 die größte Förderung. Die EU produziert insgesamt ähnliche Mengen wie die USA. In Salzbergwerken, unter denen Tagebaue heute von quantitativ geringer Bedeutung sind, wird Steinsalz entweder bohrend-sprengend, schneidend oder nass abgebaut. In den ersten beiden Fällen wird das noch unter Tage mit Brechern zerkleinerte Material in verschiedenen Korngrößen zu Tage gefördert. Beim nassen Abbau (engl. "Liquid Mining") wird ebenso wie bei der ausschließlich von über Tage betriebenen Bohrlochaussolung das Salz mittels Bohrspülwerken, historisch auch in Sinkwerken, in Wasser gelöst und als gesättigte Sole von 26,5 % zu Tage gefördert. Dies erlaubt auch die Nutzung stark verunreinigter Vorkommen. Bei natürlichem Wasserdurchtritt durch salzführende Schichten kann auch Sole zu Tage treten, die meistens jedoch nicht gesättigt ist. Solche Solequellen waren im Binnenland die ersten vom Menschen genutzten Salzvorkommen. Die Konzentration wurde früher mittels Gradierwerken durch Wasserverdunstung erhöht, heute wird bergmännisch trocken abgebautes Salz zugesetzt. Aus der gereinigten Sole, die auch aus trocken abgebautem Steinsalz hergestellt werden kann, wird durch Eindampfen Siedesalz von großer Reinheit erzeugt. Heute geschieht dies mittels in Kaskaden angeordneter geschlossener Vakuumverdampfer, wodurch ein Großteil der eingesetzten Wärme zurückgewonnen wird. In klimatisch geeigneten Gebieten wird zunehmend auch Sonnenenergie zur Verdunstung genutzt, das Verfahren ist vergleichbar dem der Meersalzgewinnung. Die Gewinnung von Salz aus Meerwasser ist nur in Küstengebieten mit hoher Sonneneinstrahlung bei gleichzeitig geringen Niederschlägen wirtschaftlich. Das Meerwasser wird hierzu durch flache Beckenkaskaden (Salzgärten) geführt, in denen die Salzkonzentration durch natürliche Verdunstung zunimmt. Schließlich wird das ausgefällte Salz zusammengeschoben und getrocknet, nur für die teure Speisesalzqualität "fleur de sel" wird es an der Oberfläche schwimmend abgeschöpft. Auch in Salzgärten kann Sole entnommen werden. Die vier Grundprodukte der Salzindustrie sind Sole, Steinsalz, Meersalz und Siedesalz. Für die USA schätzte der U.S. Geological Survey für 2007 mittlere Preise ab Werk von 10 USD/t für Sole, 25 USD/t für Steinsalz, 57 USD/t für Salz aus solarer Verdunstung und 150 USD/t für Siedesalz. Eigenschaften. Hält man NaCl-Kristalle in eine farblose Flamme, so ergibt sich ein leuchtendes Gelb-Orange Natriumchlorid bildet farblose Kristalle, die eine kubische Natriumchlorid-Struktur ausbilden. Sie sind, im Gegensatz zu vielen anderen Kristallen, nicht doppelbrechend. Hierbei ist jeder Natrium- sowie jeder Chlorkern oktaedrisch vom jeweils anderen Kern umgeben. Es ist sehr gut wasserlöslich. Natriumchlorid besitzt den typischen Salzgeschmack. Die wässrige Lösung sowie die Schmelze leiten auf Grund der (elektrolytischen bzw. thermischen) Dissoziation von Natriumchlorid in seine Ionen elektrischen Strom, reines kristallines Natriumchlorid hingegen nicht. Bei einem Gehalt von 23,4 % Natriumchlorid in wässriger Lösung bildet es ein eutektisches Gemisch. Dieses erstarrt am eutektischen Punkt von −21,3 °C homogen und ohne Entmischung. Diese Lösung wird "Kryohydrat" genannt. Verwendung. Als Speisesalz ist Natriumchlorid schon seit Alters her ein wichtiger Bestandteil der menschlichen Ernährung. Es wird zum Würzen von fast allen Speisen benutzt. Seit der Zeit der Industrialisierung spielt jedoch mengenmäßig die industrielle Verwendung die weitaus größere Rolle. Je nach der Anwendung werden unterschiedliche Zusatzstoffe beigemischt. Industriesalz. Weitere bedeutende Folgeprodukte sind Kunststoffe, medizinische Präparate und Schädlingsbekämpfungsmittel. Auftausalz. Steinsalz wird im Winter bei mäßigen Frosttemperaturen als "Auftausalz" ("Streusalz") verwendet, teilweise mit Zusätzen zur Erhaltung der Rieselfähigkeit. In Deutschland wurde Auftausalz eingefärbt, um dessen Verwendung in der Zubereitung von Lebensmitteln zu unterbinden. Mit der Abschaffung der Salzsteuer zum 1. Januar 1993 wurde dies jedoch hinfällig. Vor dem Streuen wird zur Erzeugung von besser geeignetem Feuchtsalz auch Sole zudosiert. Gewerbesalz. Als Gewerbesalz wird praktisch alles gewerblich, technisch oder industriell verwendete Salz bezeichnet, das nicht in eine der drei anderen Kategorien fällt. Salz zum Zweck der Nahrungsmittelkonservierung zählt, obwohl in geringer Menge verzehrt, zum Gewerbesalz. Das Spektrum des Gewerbesalzes ist daher sehr groß und reicht von grobem ungereinigten Steinsalz bis zu hochreinem Natriumchlorid und sterilen Zubereitungen für chemische, pharmazeutische und medizinische Zwecke. Je nach Verwendung sind außerdem unterschiedlichste Zusätze zugefügt. Viehhaltung. Dem Futter von Nutztieren wie Rindern, Schafen und Ziegen wird Viehsalz beigemengt (ungereinigtes, vergälltes Steinsalz, gegebenenfalls mit anderen Mineralsalzen als Zusatz). Dies steigert ihren Appetit und trägt zur allgemeinen Gesundheit bei. Bekannt sind auch Salzlecksteine, die in zoologischen Gärten, in der Viehwirtschaft, der Haus- und Heimtierhaltung sowie für Wildtiere verwendet werden. Konservierung. Salz wird traditionell zur Konservierung von Lebensmitteln wie Fleisch (Pökeln, Suren), Fisch (etwa Salzhering), Gemüse (Sauerkraut) usw. verwendet. Dabei entzieht das Salz durch osmotische Wirkung dem Gut die Feuchtigkeit. So wird die Grundlage Wasser für schädliche Organismen entzogen, aber auch Keime und Krankheitserreger abgetötet. Nitritpökelsalz besteht aus einer Mischung aus Kochsalz und Natriumnitrat, Natriumnitrit oder Kaliumnitrat. Das Einlegen von Gemüse (etwa Salzgurken, Oliven) in "Salzlake" nutzt den keimtötenden Effekt. Käse wird vor der Reifung in Salzwasser vorbereitet und während der Reifung mit einer Salzlake gepflegt, damit die Kruste trocken bleibt. Physikalisch/Chemische Anwendungen. Salz wird als Regeneriersalz zur Wasserenthärtung in Geschirrspülmaschinen und Wasseraufbereitungsanlagen verwendet. In Kältemischungen wird es mit Wasser versetzt. Auch bei der Lederverarbeitung und in der Färberei ist Salz ein unverzichtbarer Rohstoff. Bei der Herstellung von Geschirr und anderer Keramik wird durch Zugabe von feuchtem Salz unter hoher Temperatur die traditionelle Salzglasur erzeugt. Dabei verbindet sich das Natrium-Ion des in der Ofenatmosphäre dissoziierten Kochsalzes mit den Silikaten des Tons zu einer dauerhaften Glasur. Das Salz ist allerdings bei den Anwendungstemperaturen (1.200 °C und höher) aggressiv und beschädigt das Ofeninnere (die feuerseitige Wärmedämmung), die deshalb öfter ausgewechselt werden muss. Die ionisierende Wirkung des Salzes wird in der Metallverarbeitung eingesetzt. Medizin. In der modernen Medizin wird nach starkem Blutverlust, etwa bei einer Operation oder einem Unfall, eine 0,9%ige Lösung von Natriumchlorid in Wasser zur Auffüllung des Blutvolumens intravenös verabreicht (isotonische Kochsalzlösung, auch physiologische Kochsalzlösung genannt). Sie ist isoosmotisch mit dem Blutplasma. Des Weiteren wird sie beim Wechseln von Wundverbänden zum Einweichen des abzulösenden Verbandes verwendet. In der Antike und im Mittelalter galten Medikamente auf Salzbasis als reine Wundermittel. Die Haut Neugeborener wurde zu deren Stärkung mit Salz abgerieben. Es wurde in Wundverbänden, Pflastern, Salben, Pudern und Bädern eingesetzt. Besondere Bedeutung maß man der trocknenden und wärmenden Wirkung des Salzes bei. Man streute Salz in Wunden, um Entzündungen zu verhindern – eine mitunter sehr schmerzhafte Prozedur, die in einer entsprechenden Redewendung („Salz in offene Wunden streuen“) Einzug in die deutsche Sprache gefunden hat. Reines Salz zerstört über Osmose alle Zellen – also auch krankmachende Mikroorganismen wie Bakterien und Pilze, allerdings die Zellen des Verwundeten ebenso. Diese Art der Desinfektion ist also zweischneidig wie das ebenso praktizierte Ausbrennen von Wunden. Der gleiche Wirkmechanismus verhinderte, dass in Kochsalz konservierte Lebensmittel verdarben – also von Mikroorganismen zersetzt wurden. Noch heute werden Solebäder als Heilmittel eingesetzt. Kuraufenthalte am Meer oder in salzhaltiger Luft bei Salinen und früher auch in Salzbergwerken dienen der Behandlung von Atemwegserkrankungen. Wo dies nicht möglich oder zu teuer ist, werden Inhalationsgeräte eingesetzt, bei denen Salz-Aerosol eingeatmet wird. Kochsalzlösung wird auch zur Nasenspülung und zum Gurgeln verwendet. Für die Nasenspülung verwendet man isotonische Kochsalzlösung, da normales Wasser aufgrund der Osmose die Schleimhäute aufquellen lassen würde. Infrarot-Optik. Kristallines Natriumchlorid ist für Licht mit Wellenlängen zwischen 0,21 und 25 µm ausreichend transparent, um es für optische Elemente zu verwenden. Aus Natriumchlorid werden daher Linsen, Prismen und Fenster hergestellt, die für den sichtbaren Bereich sowie im nahen bis hinein ins mittlere Infrarot geeignet sind. Aufgrund der Wasserlöslichkeit von Natriumchlorid werden optische Elemente aus diesem Material durch Luftfeuchtigkeit beschädigt. Dies lässt sich jedoch verhindern, wenn ihre Temperatur über der Umgebungstemperatur gehalten wird. Aus diesem Grund sind in die verwendeten Halterungen oft Heizungen integriert. Natriumchlorid-Fenster werden häufig als Brewster-Fenster für leistungsstarke, gepulste CO2-Laser verwendet, aber auch in anderen Bereichen. In der Infrarotspektroskopie wird es als Träger für Untersuchungsproben zu Tabletten gepresst. Chemische Analytik. Natriumchlorid ist Urtitersubstanz nach Arzneibuch zur Einstellung von Silbernitrat-Maßlösungen. Um eine Maßlösung mit Natriumchlorid herzustellen, muss es zuerst getrocknet werden. Speisesalz. Salze sind für den Menschen lebensnotwendig (siehe physiologische Bedeutung). Früher war Kochsalz sehr kostbar. Die Zubereitung von Speisen wird vereinfacht und durch die Funktion als Gewürz im Geschmack verbessert. Die letale Dosis, die zu einer Hypernatriämie führt, wird beim Erwachsenen mit 0,5 bis 5 Gramm je Kilogramm Körpergewicht angegeben. Heute ist das im Handel erhältliche Salz oft jodiert, also mit lebensmittelverträglichen Iodverbindungen versetzt und soll einem möglichen Jodmangel vorbeugen. Im Handel wird es als "Jodsalz" bezeichnet. Daneben sind Speisesalz-Kristalle zur Erhaltung der Rieselfähigkeit meist mit einem Trennmittel umhüllt. Es sind auch Produkte mit Zusätzen von Natriumfluorid (zur Verbesserung der Zahngesundheit) sowie Folsäure im Handel. Kochen. Köche beim Kochen in einer modernen Großküche Kochen (von lateinisch "coquere", „kochen, sieden, reifen“ entlehnt) ist im engeren Sinne das Erhitzen einer Flüssigkeit bis zum und am Siedepunkt, im Weiteren das Garen und Zubereiten von Lebensmitteln allgemein, unabhängig von der Zubereitungsart wie z. B. Backen (Garen von Teig oder in einem Teigmantel), Braten oder Grillen (trockenes Erhitzen). Abgeleitet davon wird die Berufsbezeichnung Koch. Entsprechend der verschiedenen Siedepunkte (beispielsweise flüssiger Stickstoff 77,36 K (−195,79 °C) in der Molekularküche oder Speisefett beim Frittieren 140 – 190 °C) ist dabei ein weiter Temperaturbereich möglich. Geschichte. Das Kochen gehört zu den ältesten und wichtigsten Kulturtechniken des Menschen. Die frühesten Spuren von Nahrungszubereitung mit Werkzeugen sind 1,5 Millionen Jahre alt: in Kenia gefundene, mit Steinklingen abgeschabte Antilopenknochen und zwischen Steinen geöffnete Markknochen. Der entscheidende Schritt wurde mit der Beherrschung des Feuers durch den "Homo erectus" gemacht ("siehe Prähistorische Feuernutzung"). Die frühesten bekannten Spuren, deren Alter auf etwa 500.000 Jahre geschätzt werden, sind Herdstellen mit verkohlten Knochen in der Höhle von Zhoukoudian bei Peking und Reste von Hütten mit Herdstellen am Fundort Terra Amata bei Nizza. Weitere, kaum jüngere Spuren finden sich in ganz Europa. In Afrika sind die ältesten Spuren rund 100.000 Jahre alt. Die Bedeutung des Kochens liegt vor allem in den chemischen Reaktionen, die dabei ablaufen: das Zellgewebe wird gelockert, Eiweiße gerinnen, Bindegewebe geliert, Fette verflüssigen sich, Stärke verkleistert, Mineralstoffe werden freigesetzt und Geschmacksstoffe gebildet. Neben der leichteren Verdaulichkeit von Fleisch und Früchten, die bis dahin den Hauptteil der Ernährung ausmachten, bewirkte das Kochen vor allem eine enorme Ausweitung des Nahrungsangebots: Bis dahin schwerverdauliche, ungenießbare oder auch giftige Tiere und Pflanzen konnten durch Kochen genießbar gemacht werden, darunter auch stärkehaltige Gräser und Wurzeln, von deren Nachkommen einige schließlich zu Grundnahrungsmitteln wurden. Weiter wirkt Kochen sterilisierend und konservierend, was unmittelbaren Einfluss auf die Gesundheit hat und die Möglichkeiten der Vorratshaltung verbessert. Im Gefolge der Erfindung des Kochens veränderte sich die menschliche Anatomie, vor allem das Gebiss: Es verkleinerte sich stark, was auch der Entwicklung des Sprechapparats und damit der Sprache förderlich war. Die frühen Kochtechniken vor Erfindung der Töpferei und der Metallurgie lassen sich zum großen Teil nur indirekt rekonstruieren, aus Beschreibungen traditioneller Verfahren in geschichtlicher Zeit und aus der Beobachtung noch heute oder bis vor kurzem existierender steinzeitlicher Gesellschaften. Die ursprünglichsten Verfahren sind sicherlich das Grillen, das Garen in heißer Asche und das Rösten auf im Feuer erhitzten Steinen, das für Fleisch, Wurzeln und Getreide geeignet ist. Für das Kochen im engeren Sinn, also das Erhitzen in Flüssigkeit, dienten Erdgruben und natürliche Gefäße wie Muschelschalen, Straußeneier, Schildkrötenpanzer usw. oder enggeflochtene Körbe, deren Inhalt durch Hineinlegen glutheißer Kochsteine gegart wurde. Erdöfen sind noch heute in Gebrauch, in denen Lebensmittel in Blätter gewickelt, mit heißen Steinen belegt und Gras und Erde isoliert, langsam schmoren. In Osttimor wird noch heute in dicken Bambusstangen Essen im offenen Feuer gekocht. Im frühzeitlichen China wurden Lebensmittel mit Lehm oder Ton umhüllt und so im Feuer geschmort. Eine andere Methode war, Fleisch (auch mit Getreide oder Gemüse) in Tierhäuten, Mägen oder Därmen über dem Feuer zu garen. Herodot beschreibt es so: "„Im Skythenland verfährt man beim Kochen folgendermaßen. Dem gehäuteten Tier wird das Fleisch von den Knochen gelöst und in den Kessel geworfen, falls ein solcher zur Stelle ist. Ist kein Kessel zur Stelle, so wird das ganze Fleisch in den Magen des Tieres gesteckt, Wasser hinzugegossen und mit Hilfe der Knochen gekocht. Die Knochen brennen sehr gut, und der Magen nimmt bequem das von den Knochen gelöste Fleisch auf. So kocht also das Rind, oder was für ein Tier es sonst ist, sich selbst.“" Wie alt derartige Verfahren sind, kann nicht bestimmt werden, da sie keine Spuren hinterlassen, sie stellen aber vermutlich die Urform der Wurst dar, die sich in Gerichten wie Haggis oder Pfälzer Saumagen niedergeschlagen hat. Kuwait. Das Emirat Kuwait (, deutsch auch: "Kuweit") ist ein Staat in Vorderasien auf der Arabischen Halbinsel. Es grenzt im Norden und Westen an den Irak (240 Kilometer gemeinsamer Grenzverlauf), im Süden an Saudi-Arabien (222 Kilometer) und im Osten an den Persischen Golf (499 Kilometer). Geographie. Der Großteil des Landes gehört zur Wüste ad-Dibdiba. Abgesehen von dem küstennahen Höhenstreifen der Zaur-Berge an der Bucht von Kuwait und vereinzelten Hügeln ist das Gelände fast eben. Im Inneren befinden sich einige Oasen. Die 40 Kilometer lange Bucht von Kuwait teilt die Küste in zwei Teile. Nach Norden ziehen sich die Schwemmlandablagerungen zum Schatt al-Arab. An der Südspitze der Bucht liegt die Hauptstadt mit ihrem geschützten Naturhafen. Südlich davon befinden sich die großen Erdölfelder, die mit den saudischen Vorkommen in Verbindung stehen. Nach Südwesten steigt das Land allmählich an. Die höchste Erhebung (290 Meter) liegt im Sandsteinplateau an der Westspitze des Staatsgebiets. Die Westgrenze zum Irak zieht sich entlang des Wadi al-Batin, eines nur zeitweilig wasserführenden Trockenflusstales. Zu Kuwait gehören neun Inseln. Bubiyan, die größte Insel, ist durch eine 2400 Meter lange Brücke mit dem Festland verbunden. Nach der Befreiung im Jahre 1991 wurde die Insel in eine Militärbasis umgewandelt. Zivilisten haben zurzeit keinen Zugang zu Bubiyan. Die restlichen acht Inseln heißen: Auha, Failaka, Kubbar, Miskan, Qaruh, Umm al-Maradim, Umm an-Namil und Warba. Kuwait möchte auf dem Südzipfel einer Halbinsel etwa 30 Kilometer nördlich von Kuwait-Stadt die Planstadt Madinat al-Hareer (Stadt der Seide) für 700.000 Einwohner auf einer Fläche von 250 Quadratkilometern bauen. Spektakulärer Mittelpunkt der durch viele Wasserflächen aufgelockerten Urbanisation soll der 1001 Meter hohe Wolkenkratzer Burj Mubarak al-Kabir werden; die Planung hat Kuhne & Associates übernommen, die Stadt soll bis 2030 vollendet sein. Abgesehen von einigen Oasen, in denen Dattelpalmen gedeihen, ist das Land Wüste ohne nennenswertes Tierleben und mit nur spärlicher Strauchvegetation. Nur nach den winterlichen Regenfällen wächst für kurze Zeit auch Gras. Die reichen Fischgründe und die Krabbenbänke in den Küstengewässern waren durch die Ölpest Anfang der 1990er Jahre bedroht. Klima. In der heißen Jahreszeit (Mai bis September) herrschen mittlere Temperaturen um 30 °C; es kann aber bis zu 50 °C heiß werden. In den Wintermonaten ist es dagegen milder (13 bis 15 °C), tagsüber bis zu 25 °C, nachts bis unter 0 °C. In dieser Zeit fallen auch die kargen Niederschläge von 10 bis 220 Millimetern im Jahr. Die Wassertemperaturen in der Bucht betragen im Sommer um 30 °C, im Winter 20 °C. Bevölkerung. Die Bevölkerungsstruktur Kuwaits ist von dem sehr hohen Anteil ausländischer Arbeitskräfte und ihrer Angehörigen geprägt (rund 60 % aller Einwohner). Der Anteil der Männer übersteigt mit 57 % den der Frauen erheblich; 24,5 % der Bevölkerung war 2004 unter 15 Jahre alt. Kuwait ist eines der Länder mit dem höchsten Verstädterungsgrad (2004: 96 %); die Lebenserwartung lag 2004 bei 77 Jahren. Das Bevölkerungswachstum lag zwischen 1994 und 2004 im Durchschnitt bei 4,1 %. Amtssprache ist Arabisch, Umgangssprache der Kuwaitis untereinander ist Irakisch-Arabisch. Persisch wird in Kuwait als Zweitsprache verwendet. Handelssprache ist Englisch. Von den rund drei Millionen Einwohnern sind nur etwa 33 % Kuwaiter. 150.000 bis 180.000 Beduinen und die übrigen Einwohner, die aus dem Iran, Indien, Pakistan, und vielen anderen – hauptsächlich arabischen und südostasiatischen – Ländern zugewandert sind, besitzen nicht die kuwaitische Staatsbürgerschaft. Die Beduinen und die Zuwanderer sind den Staatsbürgern gegenüber gesellschaftlich benachteiligt. Die Staatsbürger sind durch ein umfassendes Sozialversicherungssystem abgesichert; das kostenlose Gesundheitssystem gilt als eines der besten der Welt. Es besteht allgemeine Schulpflicht für 6- bis 14-Jährige bei kostenlosem Unterricht. Die Analphabetenrate ist rückläufig (1980: 40 %, 2004: 6 bis 9 %). Die erste der zwei Universitäten des Landes wurde 1954 gegründet. Religion. Die Bevölkerung ist überwiegend muslimisch, davon sind 65 % Sunniten und 35 % Schiiten. Der Islam ist Staatsreligion. Der römisch-katholischen Kirche gehören 6 % der Bevölkerung an. Die restlichen 9 % umfassen vorwiegend andere christliche Konfessionen, Hindus und Parsen. Verwaltung. Kuwait ist in die sechs Gouvernements al-Ahmadi, al-Asima, al-Farwaniyya, al-Dschahra, Hawalli und Mubarak al-Kabir gegliedert. Die größten Städte sind (Volkszählung 2005): Dschalib as-Schuyuch 179.264 Einwohner, as-Salimiyya 145.328 Einwohner und Hawalli 106.992 Einwohner. Die Hauptstadt Kuwait-Stadt liegt mit ca. 63.000 Einwohnern nur auf Platz 18 der größten Städte des Landes. Insgesamt konzentrieren sich 94 Prozent der Bevölkerung Kuwaits in der Agglomeration Kuwait-Stadt. Politisches System. Bis 1991 war Kuwait eine absolute Monarchie unter der Herrschaft der Familie as-Sabah. Gemäß der Verfassung von 1962, zuletzt geändert 1997, ist Kuwait jetzt eine konstitutionelle Erbmonarchie. Der Emir ist sowohl weltliches als auch geistliches Staatsoberhaupt. Er ernennt und entlässt die Regierung und kann außerdem das Parlament auflösen. Das Rechtssystem orientiert sich am islamischen Recht (Scharia) und an britischen Vorbildern. Erst zwischen 1991 und 1996 wurde ein Parlament (Nationalversammlung) gebildet. Das Parlament besteht aus 50 Mitgliedern, die alle vier Jahre gewählt werden. Wahlberechtigt sind alle Kuwaiter im Alter ab 21 Jahren, ausgenommen sind Angehörige des Militärs und der Sicherheitskräfte. Die Regierung ist auf ein gewisses Vertrauen im Parlament angewiesen. Kuwait ist Mitglied der UN, der Arabischen Liga, des GATT, der OPEC und der OAPEC. Innenpolitik. Im Alter von 77 Jahren verstarb am 15. Januar 2006 Emir Dschabir al-Ahmad al-Dschabir as-Sabah, der schon seit einigen Jahren nach einem Schlaganfall seinen Amtspflichten nicht mehr nachkommen konnte. In Übereinstimmung mit der Verfassung wurde zuerst der 76-jährige Kronprinz Scheich Sa'ad al-Abdallah as-Salim as-Sabah, ein Cousin des Verstorbenen, von der Regierung zum neuen Emir proklamiert. Da dessen Gesundheit ebenfalls stark angeschlagen war, hatte die Mehrheit der Herrscherfamilie vorgeschlagen, dass Scheich Sabah al-Ahmad al-Dschabir as-Sabah, ein Halbbruder des verstorbenen Emirs, die Herrschaft übernehmen sollte. Sa'ad war sogar zu schwach, um seinen Amtseid vor dem Parlament abzulegen. Auf Antrag der Regierung trat das Parlament am 24. Januar 2006 zusammen und beschloss im Konsens, Scheich Sa'ad seines Amtes zu entheben. Am 29. Januar wurde Scheich Sabah vom Parlament als Emir bestätigt und legte seinen Amtseid ab. Dieser Vorgang war ein Bruch des bisherigen Usus in der Dynastie as-Sabah, dass das Amt zwischen den beiden Zweigen (al-Dschabir und as-Salim) der Herrscherfamilie wechseln sollte. Darüber hinaus war die Absetzung eines amtsunfähigen Herrschers durch das Parlament ein Novum nicht nur in der Geschichte Kuwaits, sondern in der ganzen Golfregion. Am 20. Februar bestätigte das Parlament das Kabinett des Emirs. Dieser löste dann am 21. Mai das Parlament auf und setzte Neuwahlen für den 29. Juni an. Diesem Schritt war ein heftiger Streit zwischen Regierung und Parlament um die Neueinteilung der Wahlkreise vorangegangen. Eine Gruppe oppositioneller Abgeordneter hatte sich der von der Regierung vorgeschlagenen Reduzierung der Wahlkreise von 25 auf 10 widersetzt und stattdessen eine Reduzierung auf nur noch fünf vorgeschlagen. Dadurch sollte die Bevorzugung bestimmter Bevölkerungsteile, die aus dem Missverhältnis zwischen der Zahl der Einwohner und der Abgeordneten je Wahlkreis erwachsen war, etwas vermindert werden. Doch weder die Vorlage der Regierung noch jene der Opposition fand im Parlament die notwendige Mehrheit, so dass die Regierung den Emir um die Auflösung gebeten hatte. Einen solchen Präzedenzfall, der den Vorrang des Herrscherhauses gegenüber den Parlamentariern geschmälert hätte, wollte man in jedem Fall vermeiden. Bei den Wahlen gelang es den oppositionellen Kräften, die Zahl ihrer Mandate von bisher 26 auf 33 in der 50 Sitze zählenden Kammer zu erhöhen. Von diesen werden rund 15 den Islamisten zugerechnet, sieben gelten als Liberale, zehn als Reformisten. 17 Abgeordnete gelten als der Regierung gegenüber loyal gesinnt. Da die Kabinettsmitglieder im Parlament stimmberechtigt sind, ist das Kräfteverhältnis dort günstiger für die Regierung als es auf den ersten Blick scheinen will. Am 16. Mai 2005 hatte das Parlament mit 35:23 Stimmen bei einer Enthaltung beschlossen, dass Frauen das aktive und passive Wahlrecht erhalten. "„Ich will, dass unsere Frauen uns beim Bau unseres Landes und unserer Zukunft helfen.“" sagte Ministerpräsident Scheich Sabah al-Ahmad as-Sabah. Bei den Wahlen im Juni 2006 zog keine der 28 Kandidatinnen ins Parlament ein, obwohl Frauen 57 Prozent der Wählerschaft stellen. Bei den darauffolgenden Parlamentswahlen im Mai 2009 zogen schließlich vier Frauen in das Parlament ein. Außenpolitik. Die Außenpolitik des Landes wird von der Geschichte und der geopolitischen Lage des Landes zwischen Saudi-Arabien, dem Irak und dem Iran bestimmt. Eine enge Sicherheitspartnerschaft besteht mit den Vereinigten Staaten, die als Garant für die staatliche Unabhängigkeit Kuwaits fungieren. 2004 wurde Kuwait zum Major non-NATO ally ernannt. Die diplomatischen Beziehungen zum nördlichen Nachbarn Irak wurden am 2. August 2004 wieder aufgenommen, im Juli 2008 entsendete Kuwait erstmals seit 1990 wieder einen Botschafter nach Bagdad, der irakische Botschafter nahm im März 2010 seine Arbeit auf. Das Verhältnis der beiden Länder bleibt jedoch weiterhin belastet, Hauptursachen hierfür sind die noch ausstehenden irakischen Reparationszahlungen von 23,3 Milliarden US-Dollar sowie der von den Vereinten Nationen festgelegte Grenzverlauf. Diesen hatte Saddam Hussein zwar 1994 anerkannt, die Anerkennung wurde von der neuen Regierung allerdings nicht erneut bestätigt. Meinungsäußerung und Versammlungsfreiheit. Die Rechte auf freie Meinungsäußerung und Versammlungsfreiheit werden laut amnesty international in Kuwait empfindlich eingeschränkt. Besonders betroffen sind tausende staatenloser Bidun mit Wohnsitz in Kuwait. Sie erhalten keine Staatsbürgerschaft und haben damit keinen gleichberechtigten Zugang zum Gesundheits- und Bildungssystem sowie zum Arbeitsmarkt. Teilweise geht die Bereitschaftspolizei mit exzessiver Gewalt gegen diese Minderheit vor. Frauenrechte. Frauen werden laut Amnesty durch Gesetze sowie im täglichen Leben diskriminiert. 2011 hatten Jura-Absolventinnen Klagen gegen das Justizministerium auf Einstellung eingereicht. Das Ministerium hatte Stellen mit dem Hinweis ausgeschrieben, sie seien Männern vorbehalten. Im September 2012 kündigte der Oberste Justizrat an, Frauen könnten sich auf eine Reihe von Stellen bei der kuwaitischen Staatsanwaltschaft und im Justizwesen bewerben und reagierte damit auf die anhängigen Klagen der Frauen. Rechtsstaatlichkeit und Todesstrafe. Kuwait verhängt die Todesstrafe. Jedoch wurden von neun im Jahr 2012 verhängten Todesurteilen vier in Haftstrafen umgewandelt. Mindestens ein Häftling starb 2012 in Gewahrsam, nachdem er offenbar gefoltert und anderweitig misshandelt worden war. Todesurteile werden bei einem Berufungsgericht verhandelt und dann dem Höchsten Gerichtshof vorgelegt, ehe der Emir über die Urteile zu entscheiden hat. Im Falle einer Zustimmung und einer Nicht-Umwandlung des Urteils in eine lebenslange Haftstrafe, ist das Urteil nicht mehr verhandelbar und ist rechtskräftig. Menschen, die nicht zurechnungsfähig und unter 18 Jahren sind, werden nicht zum Tode verurteilt. Es können aber auch Ausländer und Frauen hingerichtet werden. Bei Vergehen wie Mord, Vergewaltigung, Drogenhandel, Terrorismus oder Kidnapping wird die Todesstrafe zwingend verhängt. Die Todesstrafe wurde allerdings 2007 vorübergehend ausgesetzt. Im Jahr 2013 richtete der Staat Kuwait, erstmals seit 2007, wieder fünf Mörder hin. In Kuwait werden Hinrichtungen öffentlich durch den Strang vollstreckt. Arbeitnehmerrechte. Besonders die Situation von Arbeitsmigranten aus Asien ist in Kuwait unzureichend. Immer wieder kommt es in Kuwait zum Übergriff auf weibliche Haushaltshilfen. Sie werden teilweise von ihren kuwaitischen Arbeitgebern geschlagen, seelisch terrorisiert oder sexuell missbraucht. Die Philippinen, Nepal und Indonesien haben 2011 und 2012 es ihren Staatsbürgerinnen verboten, sich von Kuwait und anderen arabischen Staaten anwerben zu lassen. Nach Einschätzung des US-Außenministeriums ist die Misshandlung von Haushaltshilfen in Kuwait so verbreitet, dass dies den Tatbestand des Menschenhandels erfüllt. Der "UN-Ausschuss für die Beseitigung der Rassendiskriminierung" empfahl Kuwait 2012 Gesetze zu erlassen, um ausländische Arbeitskräfte und Hausangestellte zu schützen und ihre Rechte gemäß internationalen Standards zu gewährleisten. Kuwait ist Mitglied der Internationalen Arbeitsorganisation (ILO), erfüllt aber deren Übereinkommen nicht. Geschichte. Die Geschichte des Wüstenstaates liegt bis zum Beginn der Neuzeit weitgehend im Dunkeln. Archäologische Funde lassen jedoch vermuten, dass die Insel Failaka schon im 3. Jahrtausend v. Chr. ein Handelsstützpunkt war und vom 3. Jh. v. Chr. an in der Einflusssphäre des Seleukidenreiches lag. Im 3. Jh. n. Chr. wurde das heutige Kuwait dem Persischen Reich einverleibt; ab 630 gehörte es zum Kalifat der Umayyaden, später der Abbasiden und wurde islamisiert. Mitte des 13. Jh. zerfiel das Reich nach dem Mongoleneinfall. Im frühen 16. Jh. gelangten Portugiesen in die Region. Türkische Herrschaft. Im selben Jahrhundert wurde das Gebiet ein wegen seiner Randlage kaum beachteter Teil des Osmanischen Reiches. 1756 gelangte die bis heute herrschende Familie As-Sabah aus dem Inneren der Arabischen Halbinsel an die Herrschaft; Kuwait wurde ein von den Türken zunehmend unabhängiges Scheichtum. Aufgrund seiner geopolitischen Lage gewann das Emirat in der Folgezeit eine von Türken und Briten umworbene Stellung am Persischen Golf. Als die Bedrohung durch die Osmanen zu groß wurde, stellte Scheich Mubarak as-Sabah 1899 sein Land unter britischen Schutz. Der Preis war die Zusicherung, Beziehungen zu anderen Staaten nur mit britischer Zustimmung anzuknüpfen. Damit erreichte London, dass das deutsch-türkische Projekt der Bagdad-Bahn (1903 begonnen) nicht bis zum Golf weitergeführt werden konnte. Britische Herrschaft. Nach der Niederlage der Osmanen im Ersten Weltkrieg erklärten die Briten Kuwait zu "einem selbständigen Emirat unter Britischer Schutzherrschaft". Ab 1919 gab es mehrere Feldzüge der Wahhabiten gegen Kuwait, zudem gab es immer wieder Grenzkonflikte mit dem Nadschd. Die endgültigen Grenzen wurden 1922 im Abkommen von Uqair festgelegt, im Jahre 1940 erkannte Saudi-Arabien Kuwait als unabhängigen Staat an. Ab 1922 schirmte die neugeschaffene Neutrale Zone, die auf Veranlassung der Briten zustande gekommen war, das Emirat von Saudi-Arabien und vom Irak ab. 1938 wurde das erste Erdöl gefunden, und von 1946 an entwickelte sich Kuwait zu einem der größten Erdölproduzenten am Persischen Golf. Große Teile der enormen Einnahmen wurden zur Modernisierung, z. B. zum Ausbau sozialer Einrichtungen, verwendet. 1960 war Kuwait Gründungsmitglied der OPEC. Unabhängigkeit. Am 19. Juni 1961 wurde das Land unabhängig. Gebietsansprüche des benachbarten Irak führten zum Abschluss eines Militärabkommens mit Großbritannien (von Kuwait 1971 gekündigt) und 1973 zur Einführung der allgemeinen Wehrpflicht. Der Irak erkannte die Unabhängigkeitserklärung Kuwaits nicht an und erklärte das Emirat zu einem Teil des Irakischen Staates. Der irakische Ministerpräsident Abd al-Karim Qasim drohte im Sommer 1961 mit einem Einmarsch, weshalb Großbritannien wieder Soldaten nach Kuwait entsandte, um eine irakische Invasion zu verhindern. Diese Truppen wurden später durch Truppen arabischer Staaten ersetzt. Die Aufnahme des Emirats in der Arabischen Liga erfolgte unter heftigem Protest der Iraker, welche bis 1963 mit Hilfe der Sowjetunion einen UN-Beitritt verhinderten. Die Anerkennung Kuwaits durch den Irak erfolgte erst nach dem Sturz Qasims im Jahre 1963, im selben Jahr wurde ein Abkommen zur Normalisierung der Beziehungen unterzeichnet. 1966, 1969, 1973 und 1976 kam es zu verschiedenen Grenzkonflikten, bei dem irakische Truppen kuwaitisches Territorium besetzten, 1977 wurde zwischen beiden Ländern ein neues Grenzabkommen unterzeichnet. Vom Beginn der 1960er Jahre an erstarkten auch in Kuwait panarabische Gruppierungen, deren politische Aktivitäten in der Folgezeit jedoch ebenso unterbunden werden konnten wie die anderer radikaler Gruppen, z. B. der Palästinenser. Viele von ihnen wurden ausgewiesen. Nach dem Sechstagekrieg 1967 wandte das Emirat große Summen zur Unterstützung der israelischen Kriegsgegner Ägypten und Jordanien auf. Der iranisch-irakische Krieg, der 1980 ausgebrochen war, bedrohte im Laufe der Zeit zunehmend den lebenswichtigen Ölexport Kuwaits. Nach wiederholten iranischen Luftangriffen auf kuwaitische Schiffe ließ das Land 1987 seine Tanker „umflaggen“: Sie fuhren bis zum Ende des Ersten Golfkrieges, in dem Kuwait den Irak unterstützte und weshalb das Land im Oktober 1981 Ziel mehrerer iranischer Luftangriffe war, unter der Flagge der USA. 1981 war das Land Gründungsmitglied des Golf-Kooperationsrates. Zweiter Golfkrieg. Nach einem politischen Streit um ein an der irakisch-kuwaitischen Grenze gelegenes Ölfeld marschierten am 2. August 1990 irakische Truppen in Kuwait ein. Nach der Absetzung des Emirs und der Regierung wurde das kuwaitische Staatsgebiet, ungeachtet der einhelligen Verurteilung durch den UN-Sicherheitsrat, annektiert. Vorrangiger Grund für die Besetzung des ölreichen Staates war der – durch die aufgrund des Ersten Golfkriegs bestehende hohe Verschuldung des Iraks (80 Milliarden US-Dollar) entstandene – Konflikt zwischen beiden Staaten. Zunächst wurde eine Marionettenregierung unter Alaa Hussein Ali gebildet, jedoch wurde Kuwait wenige Tage später vom Irak annektiert. Als Reaktion auf die irakische Besetzung beschlossen die Vereinten Nationen ein Wirtschaftsembargo gegen den Irak, dem vor allem amerikanische Marineeinheiten durch eine Seeblockade Nachdruck verliehen. Trotz Lösungsvorschlägen seitens des Irak (beispielsweise dem Rückzug aus Kuwait und im Gegenzug Wiederaufnahme der Verhandlungen zwischen Israel und den Palästinensern) scheiterte der diplomatische Weg, woraufhin im Namen der UN die Aufstellung einer multinationalen Streitmacht beschlossen und diese in Saudi-Arabien stationiert wurde. Als ein bis zum 15. Januar 1991 befristetes UN-Ultimatum zum irakischen Rückzug ergebnislos verstrich, wurde Kuwait im Verlauf des fünfwöchigen Zweiten Golfkriegs am 27. Februar 1991 befreit. Nach dem Einmarsch der Iraker waren in Kuwait zahlreiche Todesopfer zu beklagen; die Infrastruktur und das industrielle Potential des Emirats wurden weitgehend zerstört. Das Ausmaß der durch die Brände auf den Ölfeldern und die Ölpest im Golf entstehenden Umweltschäden war zeitlich begrenzt. Der Irak erkannte im November 1994 die Unabhängigkeit des Landes an. Die Unterstützung des Iraks durch die Palästinenser während des Zweiten Golfkrieges hatte die Vertreibung der Palästinenser aus Kuwait 1991 zur Folge. Binnen weniger Tage wurden etwa 450.000 Palästinenser aus Kuwait vertrieben. Die mit der Nakba vergleichbare aber deutlich weniger beachtete Vertreibung hatte erhebliche Folgen für die PLO wie die Bevölkerung Kuwaits. 2003 war Kuwait der Ausgangspunkt für die Invasion der US-Truppen in den Irak. Wirtschaft. 2004 wuchs das Bruttoinlandsprodukt (BIP) um 7,2 %. Vom BIP entfielen 0,4 % auf die Landwirtschaft, 60,5 % auf die Industrie und 39,1 % auf Dienstleistungen. Die Inflation lag im Durchschnitt 2005 bei 1,8 %. Zur Arbeitslosigkeit gibt es keine offiziellen Angaben. Bodenschätze, Energie. Der Reichtum des Landes basiert auf Erdöl, das seit 1946 gefördert wird. Kuwait ist Mitglied der Organisation erdölexportierender Länder (OPEC). 94 Prozent der Einnahmen sind von Erdöl abhängig, von dem täglich etwa 2,6 Millionen Barrel gefördert werden. Ein Großteil davon kommt aus dem Burgan-Feld, welches das zweitgrößte Ölfeld der Welt ist. Der Süden Kuwaits liegt auf der geteilten neutralen Zone mit Saudi Arabien. Alle Kosten und Einnahmen aus Bodenschätzen in der gesamten neutralen Zone, also sowohl auf kuwaitischer als auch auf saudischer Seite, werden zu gleichen Teilen mit Saudi Arabien geteilt. Etwa eine Million Barrel werden in den drei Raffinerien des Landes täglich verarbeitet. Am 6. März 2006 gab die Regierung bekannt, dass im Norden des Landes neue bedeutende Erdöl- und Erdgasvorkommen entdeckt worden seien. In zwei Lagerstätten werden insgesamt eine Billion Kubikmeter Gas vermutet; außerdem wurden neue Erdölfelder mit Ressourcen zwischen 10 und 13 Milliarden Barrel erkundet. Damit würde Kuwait erstmals zu einem bedeutenden Erdgasproduzenten werden und könnte zudem seine Erdölreserven um zehn Prozent steigern. Kuwait ist eines der Länder, die in der so genannten strategischen Ellipse liegen. Im Dezember 2013 wurde ein Programm zum Ausbau der Erneuerbaren Energien Windenergie und Photovoltaik angekündigt. Bis 2030 sollen sie 15 % des Strombedarfes des Landes decken. Ziel ist es, das Erdöl vorwiegend für den lukrativen Export zu bewahren, zudem soll die Ressourcenbasis diversifiziert und klimaschädliche Treibhausgasemissionen vermindert werden. Landwirtschaft. Ein Prozent aller Erwerbstätigen war 2003 in der Landwirtschaft beschäftigt. Die Landwirtschaft ist aufgrund der klimatischen Verhältnisse, der Bodenbeschaffenheit und des Wassermangels nur bedingt expansionsfähig. Nur 0,2 Prozent der Staatsfläche werden derzeit über künstliche Bewässerung kultiviert. Angebaut werden für den heimischen Markt Datteln, Melonen und Futterklee. Zur Fleischversorgung werden vor allem Schafe, Ziegen und Rinder gehalten. Außenhandel. Die Importe betrugen 2008 24,91 Milliarden US-Dollar und kamen größtenteils aus den USA, ferner aus Japan, Deutschland, der Volksrepublik China, Saudi-Arabien, Südkorea und Italien. Unter den Gütern waren zu 42 Prozent Maschinen und Transportausrüstungen, zu 18 Prozent Vorerzeugnisse, zu 14 Prozent Fertigerzeugnisse und zu 13 Prozent Nahrungsmittel. Die Exporte betrugen 2004 89,4 Milliarden US-Dollar, Hauptabnehmer waren Japan (21 %), Südkorea (15 %), die USA (10 %) und Singapur (9 %). Wichtigste Exportgüter waren mit über 90 % Anteil Erdöl und Erdölprodukte. Staatshaushalt. Der Staatshaushalt umfasste 2009 Ausgaben von umgerechnet 58,4 Mrd. US-Dollar, dem standen Einnahmen von umgerechnet 70,2 Mrd. US-Dollar gegenüber. Daraus ergibt sich ein Haushaltsüberschuss in Höhe von 10,2 % des BIP. Die Staatsverschuldung betrug 2009 9,6 Milliarden US-Dollar oder 8,3 % des BIP. Infrastruktur. Das sehr gut ausgebaute Straßennetz umfasst etwa 3.600 Kilometer. Kuwait verfügt über einen Industriehafen sowie vier Erdölhäfen. Der internationale Flughafen liegt nahe der Hauptstadt. Mit den milliardenschweren Einnahmen aus dem Ölsektor und ermutigt durch den Sturz Saddam Husseins hat das Land eine Diversifizierung der Wirtschaft in Angriff genommen. Ein moderner Containerhafen soll gebaut und eine Insel in einen Touristenkomplex umgewandelt werden. Es gibt Pläne zum Bau einer U-Bahn in Kuwait, deren Strecken sich auf vier Linien aufteilen und 171 Kilometer lang sein sollen. Das jährliche Fahrgastaufkommen wird auf 69,1 Millionen Passagiere geschätzt. Geplant ist der Baubeginn für den Herbst 2011, die Fertigstellung für das Frühjahr 2016. Die Gesamtkosten werden auf 11,3 Milliarden US-Dollar beziffert, die zu 24 % vom kuwaitischen Staat, 26 % vom Auftragnehmer und die restlichen 50 % durch einen Börsengang aufgebracht werden sollen. Dieser Ansatz ist Teil der von Kuwait angedachten Strategie, für Innovationen bei öffentlichen Projekten privates Kapital zu nutzen. In späteren Ausbauphasen soll dann die Linie 1 um 23,6 auf 57,3 Kilometer und die Linie 2 um 16,4 auf 37,4 Kilometer verlängert werden. Außerdem gibt es Pläne von Saudi-Arabien und den Vereinigten Arabischen Emiraten ein etwa 2000 Kilometer langes Eisenbahnnetz in der Golfregion zu errichten. Davon würden um die 505 Kilometer zweigleisiger Strecke, elektrifiziert mit 50 kV Wechselstrom, in Kuwait verlaufen. Gemüsekohl. Stängel und Blätter des Wildkohls Gemüsekohl ("Brassica oleracea") ist eine formenreiche Pflanzenart der Gattung Kohl ("Brassica") in der Familie der Kreuzblütengewächse (Brassicaceae), deren Zuchtformen etliche Gemüsesorten umfassen. Beschreibung. Der Gemüsekohl ist eine ein- bis zweijährige (Kulturformen) oder ausdauernde, krautige Art, die jedoch am Grund verholzt sein kann. Die Wuchshöhe beträgt 40 bis 120 Zentimeter. Die Pflanzen sind abstehend-sparrig, jedoch wenig verzweigt und aufrecht. Die Blätter sind oft abwischbar blau bereift und meist kahl. Die oberen Stängelblätter sind am Grund abgerundet oder verschmälert und sitzend. Die Kelchblätter sind aufrecht, die Kronblätter sind schwefelgelb. Auch die Staubblätter sind aufrecht. Blütezeit ist von Mai bis September. Die Früchte sind die für die Familie typischen Schoten. Alle Formen und Varietäten haben dieselbe Chromosomenzahl 2n = 18. Sie besitzen ca. 100.000 Gene verteilt auf ein Genom von 599-868 Mb (Millionen Basenpaare), und somit 4- bis 10-mal mehr als in der Modellpflanze "Arabidopsis thaliana". Ökologie. Die Bestäubung erfolgt durch Insekten oder durch Selbstbestäubung. Die Verbreitung der Samen erfolgt durch den Wind, durch Selbstausbreitung oder durch den Menschen (Anemochorie, Autochorie, Hemerochorie). Vorkommen. Ursprünglich ist die Wildform in den meridionalen bis temperaten, ozeanisch geprägten Küstenbereichen Europas heimisch. Er wächst auf Felsen, zum Teil auf Küstenkliffen, aber auch in Gebirgen. In Deutschland kommt die Wildform nur auf Helgoland vor und wird hier „Klippenkohl“ genannt. Er wächst hier in der Pflanzengesellschaft Brassicetum oleraceae (Crithmo-Armerion maritimae) an den Felshängen der Insel und teilweise an Ruderalstandorten, die den Schafen nicht zugänglich sind. Die Zuchtformen kommen außer in Gärten und auf Äckern selten auch verwildert vor und siedeln dann auf Schutt und auf frischen, nährstoffreichen Böden. Zuchtformen. Chinakohl ("Brassica pekinensis") gehört zur Art "Brassica rapa" (Rübsen). Nutzungsgeschichte. Wann und wo die Wildformen in Kultur genommen wurden, lässt sich nicht nachvollziehen. Noch 1980 wurde etwa auf Samos die dort wild vorkommende "Brassica cretica" von den Einheimischen auf den Äckern gezogen. Alle Wildformen und Kulturformen sind miteinander kreuzbar. Der Grüne Krauskohl lässt sich zumindest für das Griechenland des 3. Jahrhunderts v. Chr. nachweisen, ebenso für Italien. In Deutschland findet er sich in den Kräuterbüchern des 16. und 17. Jahrhunderts. Kohlrabi und Markstammkohl werden von Plinius dem Älteren erwähnt, in Deutschland lässt er sich ab dem 16. Jahrhundert nachweisen. Die festen Kohlköpfe sind auch erst aus dieser Zeit nachgewiesen, dürften aber schon zur Zeit Hildegards von Bingen im 11. Jahrhundert existiert haben. Brokkoli und Blumenkohl dürften aus Südgriechenland stammen. Über Genua (um 1490) dürften sie nach Frankreich, Flandern und Deutschland gekommen sein. Die ersten Abbildungen stammen von 1542. Der Rosenkohl ist eine sehr junge Form und stammt aus dem 18. Jahrhundert, wo er zuerst in Belgien auftrat. Inhaltsstoffe/Wirkungen. Neben Vitaminen und Mineralstoffen, beispielsweise Vitamin C, Vitamine des B-Komplexes, Betacarotin, Folsäure und Kalium, Calcium sowie Eisen, sind in Kohlgemüsen reichlich Ballaststoffe und sekundäre Pflanzenstoffe enthalten. Sie unterstützen die natürlichen Abwehrfunktionen des Immunsystems und können helfen, das Risiko für Krebserkrankungen zu senken. Im Kohlgemüse sind besonders reichhaltig Glucosinolate vorhanden. Mit Ballaststoffen und weiteren Inhaltsstoffen können sie unter anderem einer Bildung von Magengeschwüren vorbeugen. Weiterhin kann der Verzehr von Pflanzen aus der Kohlfamilie dabei helfen, den Cholesterin- und Blutzuckerspiegel günstig zu beeinflussen und die Verdauung auf natürliche Weise zu regulieren. Kohlenwasserstoffe. Die Kohlenwasserstoffe sind eine Stoffgruppe chemischer Verbindungen, die nur aus Kohlenstoff und Wasserstoff bestehen und Kohlenstoffketten, -ringe oder Kombinationen daraus bilden. Die Stoffgruppe ist vielfältig. Es gibt mehrere Untergruppen wie Alkane, Cycloalkane, Alkene, Alkine und Aromaten (Arene) sowie sehr viele Verbindungen dieser Klasse. Die Kohlenwasserstoffe haben vor allem durch ihre riesigen Vorkommen als fossile Brennstoffe und in der organischen Synthese eine große technische Bedeutung erlangt. Vorkommen. Die Kohlenwasserstoffe sind in der Natur im Erdöl, Erdgas, Kohle und weiteren fossilen Stoffen in größeren Mengen enthalten. Sie sind verbreitet in vielen Pflanzen z. B. als Terpene, Carotinoide und Kautschuk. Einfache Kohlenwasserstoffe sind Stoffwechselprodukte einiger Mikroorganismen. Im Weltall sind die Kohlenwasserstoffe, meist in Form von Methan und Ethan, auf Kometen, Planetenatmosphären und in interstellarer Materie zu finden. Systematik. Kohlenwasserstoffe lassen sich in gesättigte, ungesättigte und aromatische Kohlenwasserstoffe unterteilen. Bei "gesättigten" Kohlenwasserstoffen handelt es sich um chemische Verbindungen, die ausschließlich C-C-Einfachbindungen enthalten. Sie werden in kettenförmige und ringförmige Verbindungen unterteilt. Kettenförmige werden systematisch als Alkane bezeichnet. Die einfachsten und bekanntesten Alkane sind Methan (CH4), Ethan (C2H6), und Propan (C3H8). Allgemein lautet die Summenformel für die homologe Reihe der kettenförmigen Alkane CnH2n+2. Ringförmige Alkane werden als Cycloalkane bezeichnet. Ihre allgemeine Summenformel für die homologe Reihe lautet CnH2n. "Ungesättigte" Kohlenwasserstoffe lassen sich in Alkene und Alkine einteilen. Bei den Alkenen handelt es sich um Verbindungen, die C-C-Doppelbindungen enthalten. Der einfachste Vertreter dieser Stoffgruppe ist das Ethen, auch Ethylen genannt (C2H4). Die einfachsten "n"-Alkene mit nur einer Doppelbindung haben allgemein die Summenformel CnH2n. Als Polyene werden Verbindungen mit mindestens zwei C-C-Doppelbindungen, wie zum Beispiel 1,3-Butadien, bezeichnet. Cycloalkene sind cyclische Kohlenwasserstoffe, wie zum Beispiel Cyclopentadien. Hier liegen C-C-Doppelbindungen innerhalb eines Kohlenstoffringes vor. Alkine sind Kohlenwasserstoffe, die eine oder mehrere C-C-Dreifachbindungen enthalten. Der bekannteste Vertreter ist das Ethin (Acetylen) mit der Summenformel C2H2. Dementsprechend haben Alkine mit einer Dreifachbindung allgemein die Summenformel für die homologe Reihe CnH2n-2. Gesättigte und ungesättigte Kohlenwasserstoffe werden besonders in der Petrochemie unter der Bezeichnung aliphatische Kohlenwasserstoffe gesammelt. Die letzte wichtige Gruppe von Kohlenwasserstoffen sind die "aromatischen" Kohlenwasserstoffe. Dabei handelt es sich um Kohlenwasserstoffe, die Aromatizität aufweisen und meist C6-Ringe besitzen (Arene). Der bekannteste Vertreter ist das Benzol (C6H6). Eine Untergruppe der Aromaten sind die polyzyklischen aromatischen Kohlenwasserstoffe. Bei ihnen handelt es sich um Verbindungen, die aus mehreren aneinander hängenden Benzolringen bestehen. Ein bekannter Vertreter ist das Naphthalin (C10H8). Kohlenwasserstoffe, die vom Aufbau her Platonischen Körpern entsprechen, bezeichnet man als Platonische Kohlenwasserstoffe. Hierzu gehören Tetrahedran, Cuban und Dodecahedran. Kohlenwasserstoffe mit gleicher Summenformel können verschiedene Strukturformeln (Verknüpfungen der C-Atome) aufweisen. Es handelt sich dann um Konstitutionsisomere. Es gibt sie bei den Alkanen ab den Butanen und bei den meisten anderen Kohlenwasserstoffen. Die klassische "cis"-"trans"-Isomerie tritt mitunter an C-C-Doppelbindungen auf. Einfache verzweigte Kohlenwasserstoffe können, wie das Beispiel 3-Methylhexan zeigt, chiral sein. Das Kohlenstoffatom in Position Nummer 3 wird hier zum Stereozentrum, die Verbindung ist asymmetrisch und man unterscheidet zwischen den ("R")- und ("S")-Enantiomeren. Eigenschaften. In Wasser sind viele unpolare Kohlenwasserstoffe unlöslich, in den meisten organischen Lösungsmitteln jedoch gut löslich. Das heißt, Kohlenwasserstoffe sind hydrophob, also auch lipophil. Gasförmige Kohlenwasserstoffe brennen sehr schnell und mit heißer Flamme; die dabei frei werdende Energie ist groß. Flüssige Kohlenwasserstoffe mit niedrigem Siedepunkt verdampfen leicht; infolge ihres auch niedrigen Flammpunktes sind Brände leicht zu entfachen. Bei der optimalen (vollständigen) Verbrennung von Kohlenwasserstoffen entsteht Wasser und Kohlenstoffdioxid, bei unzureichender (unvollständiger) Verbrennung können auch Kohlenstoffmonoxid oder Kohlenstoff (Ruß) entstehen. Die Reaktivität der Alkane ist abhängig von ihrer Kettenlänge. Langkettige Alkane sind relativ inert (wenig reaktiv). Verbrennt Kohlenwasserstoff mit rußender Flamme, kann dies auch ein Anzeichen für einen höheren Kohlenstoffanteil in der Verbindung (größere Kettenlänge) sein. Alkane gehen aber – neben Redoxreaktionen bei ihrer Verbrennung – Substitutionsreaktionen ein, wobei Wasserstoffatome gegen andere Atome und Atomgruppen, aber hauptsächlich Halogenen ausgetauscht werden können. Alkene und Alkine hingegen sind recht reaktionsfreudig und reagieren mit vielen Substanzen unter Anlagerung an die C-C-Mehrfachbindung (Additionsreaktion). Verwendung. a> wird Erdöl – ein komplexes Stoffgemisch, das einen hohen Anteil an sehr vielen verschiedenen Kohlenwasserstoffen enthält – zu einfacheren Stoffgemischen von Kohlenwasserstoffen getrennt, die u. a. zur Herstellung von Ottokraftstoff und Dieselkraftstoff verwendet werden. Alkane werden häufig als fossiler Energieträger in Gemischen wie Biogas, Flüssiggas, Benzin, Dieselkraftstoff, Heizöl, Kerosin, Petroleum verwendet. Die bedeutendsten Alkane sind die niedermolekularen Alkane Methan, Ethan und Propan. Alkane wie "n"-Butan, Isopentan, verschiedene Hexane und das Cycloalkan Cyclohexan sind Bestandteile in Motorenbenzin. Die Kohlenwasserstoffe dienen als Ausgangsstoff für eine Vielzahl von industriell bedeutenden chemischen Synthesevorgängen. Von technischer Bedeutung sind Alkene wie Ethen und Cyclohexen, Alkine wie Ethin und Polyene wie 1,3-Butadien, Isopren und Cyclopentadien. Viele Arene besitzen technische Bedeutung, darunter Benzol, Toluol, Xylol und Styrol. Wichtig sind die Polymerisationsprodukte der Kohlenwasserstoffe wie zum Beispiel Polystyrol, Polyethylen, Polypropylen, Polyethin, viele Copolymere sowie die halogenierten Kohlenwasserstoffpolymere wie Polyvinylchlorid und Polytetrafluorethylen. Darüber hinaus dienen Kohlenwasserstoffe als lipophile Lösemittel. Umweltbelastung. Kohlenwasserstoffe machen – nach Definition der Weltgesundheitsorganisation "WHO" – den Hauptteil der "flüchtigen organischen Verbindungen" (abgekürzt auch VOC) aus; diese gelten bei Emission als umweltschädigend. Zwecks Emissions-Reduktion wird z. B. in der Schweiz auf diese Emissionen eine Lenkungsabgabe erhoben. Weiter besitzt Methangas einen erheblichen Treibhauseffekt. Kletterpflanze. Kletterpflanze ist die Bezeichnung für eine Pflanze, die statt stützender Strukturen als Wuchsform eine Klettertechnik (Kletterstrategie) ausbildet. Kletterpflanzen können ein- bis mehrjährige (ausdauernde), krautige oder verholzende Pflanzen sein. Verholzende Kletterpflanzen heißen auch Lianen. Kletterpflanzen können sich nicht selbst tragen, sondern finden an anderen Pflanzen, Felsen oder Klettergerüsten Halt. Dadurch erreichen sie rasch eine optimale Ausrichtung ihres Blattwerkes zum Sonnenlicht, ohne selbst tragende Stämme oder Stängel zu entwickeln. Aus etwa 90 Pflanzenfamilien gehören über 2500 Arten zur Lebens- und Wuchsform der Kletterpflanzen. Nutzung. Kletterpflanzen können durch eine Fassadenbegrünung einen wichtigen Beitrag zu einer Bauwerksbegrünung darstellen. Hierbei schützen sie die Fassade vor mechanischen (Hagel, Regen), optischen (UV-Strahlung) sowie thermischen Witterungseinflüssen, indem sie während der Vegetationsphase im Wesen nach eine zusätzliche Fassadenschicht bilden. Mit dieser leisten sie einen positiven Beitrag zur Temperaturpufferung zwischen Gebäude und Umgebung sowie zum lokalen Mikroklima durch die zusätzliche Luftschicht vor der Fassade wie durch die Verdunstung auf den Blattoberflächen mit der dabei entstehenden Transpirationsabkühlung und Konvektion. Darüber hinaus bieten sie vielen Tierarten (Vögel, Insekten) Schutz und Lebensraum. Lediglich bereits schadhafte Fassaden und Mauerwerk können durch Kletterpflanzen zusätzlich geschädigt werden. Auch bei der Innenraumbegrünung sind Kletterpflanzen von Bedeutung. An und in Bauwerken, auch auf Balkonen und Dachgärten sowie in Gärten und Parkanlagen werden nicht selbstklimmende Kletterpflanzen an Kletterhilfen oder Rankgerüsten gezogen. Am Übergang vom Garten zu einem Bauwerk stellt eine Pergola eine nützliche Kletterhilfe dar. Unter den Kletterpflanzen gibt es etliche Nutzpflanzen, darunter die bereits angeführten Weinreben und Brombeeren. Weitere Beispiele sind u. a. Kiwisorten, Bohnen, Erbsen, Kürbisgewächse (darunter u. a. Gurken und Melonen). Zu den kletternden Nutzpflanzen gehören ferner Gewürz- und Heilpflanzen, darunter Pfeffer, Vanille, "Schisandra" und Arten der Familie Dioscoreaceae. Winterharte verholzende Kletterpflanzen sind ein wichtiger Bestandteil eines Baumschulsortiments und werden in der Baumschule durch Stecklinge, Wurzelschnittlinge, Steckholz oder Aussaat vermehrt und in einem Container weiterkultiviert. Beim Einsatz von Kletterpflanzen zur Fassadenbegrünung ist auf Vereinbarkeit von Bewuchs und Bauwerk zu achten. Kletterstrategie, Fassade und eventuell erforderliche Kletterhilfen müssen ebenso aufeinander abgestimmt sein, wie Klima, Licht und Größenverhältnisse berücksichtigt werden müssen. Vor allem unangepasst starkwüchsige Kletterpflanzen verursachen in der Regel hohen Pflegeaufwand und unter Umständen sogar Schäden. Nicht winterharte, meist krautige Kletterpflanzen werden von Zierpflanzengärtnereien angeboten. Es gibt Sortimente für Wintergärten sowie für Innenräume. Kulturpflanze. Eine Kulturpflanze ist eine Pflanze, die durch das Eingreifen der Menschen zielgerichtet als Nutz- oder Zierpflanze angebaut und züchterisch bearbeitet wird. Eine Kulturpflanzensorte, die sich von anderen, verwandten Sorten anhand morphologischer, physiologischer, zytologischer, chemischer oder anderer Merkmale unterscheidet, nennt man auch Kulturvarietät oder Cultivar. Der Unterschied ist die Rangstufe im internationalen Code der Nomenklatur der Kulturpflanzen, der die einheitliche Benennung von Kulturpflanzensorten regelt. Kulturpflanzen weisen im Gegensatz zu Wildpflanzen typische Veränderungen auf. Beispielsweise kann die Keimruhe der ausgereiften Samen reduziert sein. Bei Getreidearten fallen die später zu erntenden Samen nicht so schnell aus ihrem Sitz. Einige Kulturpflanzen wie etwa manche Zitrusfrüchte bilden gar keine Samen mehr aus. Typisch für die meisten Kulturpflanzen ist auch ein Riesenwuchs im Vergleich zur Wildpflanze. Kosinus. __STATICREDIRECT__ Krieg. Krieg ist ein organisierter und unter Einsatz erheblicher Mittel mit Waffen und Gewalt ausgetragener Konflikt, an dem oft mehrere planmäßig vorgehende Kollektive beteiligt sind. Ziel der beteiligten Kollektive ist es, ihre Interessen durchzusetzen. Der Konflikt soll durch Kampf und Erreichen einer Überlegenheit gelöst werden. Die dazu stattfindenden Gewalthandlungen greifen gezielt die körperliche Unversehrtheit gegnerischer Individuen an und führen so zu Tod und Verletzung. Neben Schäden an am Krieg aktiv Beteiligten entstehen auch immer Schäden, die meist eher unbeabsichtigt sind. Sie werden heute euphemistisch als Kollateralschäden bzw. Begleitschäden bezeichnet. Krieg schadet auch der Infrastruktur und den Lebensgrundlagen der Kollektive. Kriegsformen sind vielfältig und nicht unbedingt an Staaten oder Staatssysteme gebunden: Sie können auch innerhalb von Staaten stattfinden, etwa als Bürgerkrieg, Unabhängigkeitskrieg oder bewaffneter Konflikt, und zum Weltkrieg oder zum Völkermord führen. Trotz intensiver Diskusssionen konnte keine einheitliche völkerrechtliche Definition gefunden werden, die den Begriff des Krieges eingrenzend beschreibt. Die Genfer-Fünf-Mächte-Vereinbarung vom 12. Dezember 1932 ersetzte deswegen den unspezifischen Ausdruck „Krieg“ durch den eindeutigen der „Anwendung bewaffneter Gewalt“ (Artikel III). Die Charta der Vereinten Nationen verbot schließlich die Anwendung von oder Drohung mit Gewalt in internationalen Beziehungen grundsätzlich (Artikel 2, Ziffer 4) und erlaubte sie nur als vom Sicherheitsrat beschlossene Sanktionsmaßnahme (Artikel 42) oder als Akt der Selbstverteidigung (Artikel 51). In der historisch belegten Menschheitsgeschichte haben knapp 14.400 Kriege stattgefunden, denen ungefähr 3,5 Milliarden Menschen zum Opfer gefallen sind. Da bisher schätzungsweise 100 Milliarden Menschen gelebt haben, musste somit jeder dreißigste Erdenbürger sein Leben durch kriegerische Handlungen lassen. Begriff. Das Wort „Krieg“ (von althochdeutsch "chreg" > mittelhochdeutsch "kriec" bedeutet ursprünglich „Hartnäckigkeit“, „Anstrengung“, „Streit“, "Kampf", "Bewaffnete Auseinandersetzung".) In diesem etymologischen Umkreis angesiedelt sind auch mittelniederdeutsch "krich" und mittelniederländisch "crijch". Eine akademische Rekonstruktion führt neuhochdeutsch „Krieg“ auf die indogermanische Wurzel "*gwrei-" zurück. Diese hat ihre Entsprechung in griechisch "brímē" mit der Bedeutung „Gewalt, Wucht, Ungestüm“ und "hýbris" mit der Bedeutung „Überheblichkeit, Gewalttätigkeit“. In einem weiteren sprachgeschichtlichen Zusammenhang wird auch das neuhochdeutsche Wort „Kraft“ hier eingeordnet, das möglicherweise aus der gleichen indogermanischen Wurzel entstanden ist. Die große Bandbreite der Bedeutungen spiegeln das altfriesische "halskrīga" mit der Bedeutung „Halssteifheit“ sowie die vermutlich in Verbindung stehenden Begriffe altirisch "bríg" mit der Bedeutung „Kraft, Macht“ und lettisch "grînums" für „Härte, Strenge“ wider. Der Kollektivsingular, der alle Kriege subsumiert, entstand um 1800. Ältere Enzyklopädien behandeln unter „Krieg“ einzelne Kriege oder spezifische Fragen der Kriegsführung. Ein veraltetes Wort für Krieg ist "Orlog" (noch heute niederländisch und afrikaans: "oorlog"). Das Verbum „jemanden bekriegen“ heißt einerseits „gegen ihn Krieg führen“, andererseits hat das Grundwort "kriegen" die Bedeutung „etwas bekommen, erhalten“, „jemanden erwischen“: Beide Bedeutungen sind geeignet, Herkunft und Charakter dieser kollektiven Gewaltanwendung anzuzeigen. Auch wo andere Kriegsanlässe im Vordergrund stehen, fehlt selten ein ökonomischer Hintergrund. Während individuelles oder kollektives Rauben und absichtliches Töten von Menschen heute generell als Verbrechen gilt und in einem Rechtsstaat strafbar ist, wird „Krieg“ nicht als gewöhnliche Kriminalität betrachtet, sondern als bewaffnete Auseinandersetzung zwischen Kollektiven, die sich dazu legitimiert sehen. Damit hebt ein Krieg die zivilisatorische Gewaltbegrenzung auf eine Exekutive, wie sie der Rechtsstaat als Regelfall voraussetzt, partiell oder ganz auf: Es stehen sich bewaffnete Armeen gegenüber, die ganze Völker oder Volksgruppen repräsentieren. Diese sind damit Kriegspartei. Kriegsparteien beurteilen ihre eigene Kriegsbeteiligung immer als notwendig und gerechtfertigt. Ihre organisierte Kollektivgewalt bedarf also einer Legitimation. Krieg als Staatsaktion erfordert daher ein Kriegsrecht im Innern eines Staates sowie ein Kriegsvölkerrecht zur Regelung zwischenstaatlicher Beziehungen. Dieses unterscheidet vor allem Angriffs- von Verteidigungskrieg. Typen. Ein zwischenstaatlicher Krieg findet zwischen zwei oder mehreren Staaten statt. Dazu gehört der Koalitionskrieg: Mehrere Staaten verbinden sich zu einer gemeinsam agierenden Kriegspartei. Ist ein Land bereits besetzt und seine Regierung entmachtet, kann der Kampf zwischen Staaten als Partisanen- oder Guerillakrieg zwischen Bevölkerung und feindlicher Staatsarmee fortgesetzt werden: Nichtreguläre Streitkräfte kämpfen militärisch gegen die Armee einer Besatzungsmacht. In einem Bürgerkrieg dagegen kämpfen verschiedene Gruppen innerhalb eines Staates, teilweise auch über Staatsgrenzen hinweg, oft nicht staatlich organisiert. Auch dieser kann mit nichtregulären Streitkräften, „Privatarmeen“ und/oder Söldnern gegen die Armee der eigenen Staatsregierung geführt werden. In einem Unabhängigkeitskrieg kämpft ein Volk um einen eigenen Staat: z. B. als "Dekolonisationskrieg" gegen eine Kolonialmacht, als "Sezessionskrieg" für die Loslösung eines Teilgebiets vom Staatsverband oder als "Krieg um Autonomie" für eine regionale Autonomie innerhalb eines Staates. Bei diesen Arten handelt es sich oft um die Folge eines Nationalitätenkonflikts. Ob es sich um einen "Bürgerkrieg" oder einen "Unabhängigkeitskrieg" handelt, hängt oftmals vom Standpunkt der jeweiligen Kriegspartei ab. So wird die Partei, die sich abspalten möchte, eher von einem "Sezessionskrieg" sprechen, während die Partei, die auf einem einheitlichen Staat beharrt, denselben Konflikt als (innerstaatlichen) "Bürgerkrieg" ansehen wird. Als bewaffneter Konflikt gilt ein sporadischer, eher zufällig und nicht strategisch begründeter bewaffneter Zusammenstoß zwischen kämpfenden Parteien. Die bloße Anzahl von Verletzten und Getöteten ist kein verlässliches Kriterium. Trotzdem nehmen große Forschungsprojekte das Maß von 1.000 Toten pro Jahr als groben Indikator dafür, dass ein bewaffneter Konflikt sich zum Krieg gesteigert hat. Manche Kriegsdefinitionen verlangen auch ein Minimum an kontinuierlichem planerischem und organisatorischem Vorgehen bei mindestens einem der Kontrahenten. Als weiteres Kriterium wird manchmal angesehen, dass mindestens eine der kämpfenden Parteien ein Staat sein muss, der sich mit seinen Streitkräften an der Auseinandersetzung beteiligt. Ein bewaffneter Konflikt, der sich weder als zwischenstaatlicher Krieg noch als Bürgerkrieg einordnen lässt, gilt als asymmetrischer Konflikt: Eine Staatenkoalition (Koalitionskrieg) kämpft gegen eine als weltweite Kriegspartei auftretende terroristische Gruppierung (Partisanen- oder Guerillakrieg, wobei die Eigensicht – Kriegspartei – der Außensicht – Gruppenkriminalität – widerspricht). Dabei verfolgen beide Parteien auf strategischer, taktischer und operativer Ebene unverkennbar typische Kriegsziele: politische Hegemonie, ideologische Vorherrschaft, wirtschaftliche Vorteile. Beispiel dafür ist der heutige „Krieg gegen den Terror“, den die USA nach den Anschlägen vom 11. September 2001 ausgerufen haben. Ob eine bewaffnete Auseinandersetzung – u. a. in den Medien – als „Konflikt“ oder als „Krieg“ bezeichnet wird, ist oft von politischen oder propagandistischen Erwägungen abhängig. Eine Auseinandersetzung, die schon den politikwissenschaftlichen Kriterien eines Krieges entsprechen würde, kann z. B. in der Sprachregelung von Drittstaaten bewusst weiterhin als Konflikt bezeichnet und behandelt werden, um sich damit besser einem Beistandsversprechen „im Kriegsfalle“ oder anderem angemessenem Druck auf die Konfliktparteien entziehen zu können. Bei der Höherstufung eines einfachen bewaffneten Konflikts zu einem Krieg gilt analog das Gleiche. Sonderformen des Krieges sind unter anderem die Fehde, Bandenkriege, Blumenkriege und Wirtschaftskriege. Hauptursachen. Krieg ist jedoch selten monokausal zu erklären: Viele der hier genannten ökonomischen, politischen, ideologischen, religiösen und kulturellen Kriegsgründe spielen in der Realität zusammen, bedingen sich gegenseitig und gehen ineinander über. Darum lässt sich der Kriegsbegriff auch nicht auf militärische Aggressionshandlungen einengen. Diese durchlaufen fast immer eine Vorbereitungsphase: Krieg beginnt in der Regel im „Frieden“. Wirklicher Frieden ist also mehr als die Abwesenheit von Krieg. Völkerrecht. Im modernen Völkerrecht wird der Begriff „Krieg“ nicht mehr verwendet. Die Genfer Konventionen unterscheiden bewaffnete internationale Konflikte von anderen Formen gewaltsamer Konfliktaustragung wie etwa innerstaatlichen Konflikten. Der internationale bewaffneten Konflikt wird geregelt durch die Genfer Abkommen I-IV, sowie über das Zusatzprotokoll I über den Schutz der Opfer internationaler bewaffneter Konflikte. Angriff und Verteidigung, Zivilisten und Militärpersonal sind dabei wesentliche Kriterien. Sie unterscheiden legitime von illegitimen Kriegshandlungen. Was ein internationaler bewaffneter Konflikt ist, definieren die Genfer Abkommen aber nicht. Den nicht-internationalen Konflikt regelt der gemeinsame Artikel der Genfer Abkommen I-IV sowie das Zusatzprotokoll II über den Schutz der Opfer nicht internationaler bewaffneter Konflikte. Der zwischenstaatliche Krieg soll gemäß seinen Regeln mit einer "Kriegserklärung" beginnen. Diese war im Mittelmeerraum schon seit der Antike vorgesehen. Sie wird seit der Neuzeit aber sehr oft übergangen und durch den Angriff selbst ersetzt. Ein erklärter Kriegszustand, bei dem jedoch die Waffen schweigen, heißt Waffenstillstand, ein formales Eingeständnis der Niederlage Kapitulation. Diese beendet regulär die Kriegshandlungen, aber noch nicht den Krieg selbst. Gegenbegriff zum „Krieg“ ist der „Frieden“. Dieser setzt völkerrechtlich wiederum einen wie auch immer gearteten Friedensabschluss zwischen ehemaligen Kriegsgegnern voraus. Wird eine Kriegspartei im Krieg jedoch weitgehend oder vollständig zerstört, so dass sie nicht mehr Vertragspartner sein kann, spricht das Völkerrecht von "Debellation" (Lateinisch: „Besiegung“). Historisch häufiger aber sind Zwischenzustände wie der einer dauerhaften Besetzung ohne geltenden Friedensvertrag oder ein Zustand, bei dem sich die Gegner ständig auf einen offenen Krieg vorbereiten, dessen Verlauf planen und einüben. Paradebeispiel dafür ist der Kalte Krieg. Zugleich zeigt die Verbindung von Staat und Krieg sowie die Schwierigkeiten bei der Unterscheidung von Krieg, Raub und Mord das Fehlen einer allgemein akzeptierten Rechtsinstanz an. Die UN-Charta und der Internationale Strafgerichtshof können als Schritte zur verbindlichen Durchsetzung des Völkerrechts angesehen werden. Menschwerdung, Altsteinzeit und neolithische Revolution. Eine verbreitete Vorstellung sieht den Ursprung des Kriegs in der Naturgeschichte der Aggression (Sigmund Freud, Konrad Lorenz, Irenäus Eibl-Eibesfeldt). Eine Debatte über Kriege unter Tieren, in erster Linie unter nicht-menschlichen Primaten, schloss sich in der Verhaltensforschung und Primatologie an. Gemeine Schimpansen nicht aber Bonobos – kennen sowohl die koordinierte Jagd zum Nahrungserwerb wie intraspezifische Konkurrenz in Form innerartlicher Kämpfe, in denen einzelne Angehörige anderer Horden überfallen und getötet werden, bis hin zur allmählichen Vernichtung der anderen Gruppe. Da zwischen Gemeinen Schimpansen und den Vorfahren der heutigen Menschen ein enges Verwandtschaftsverhältnis besteht, wird ein Bezug zwischen den Kämpfen von Schimpansen und dem Verhalten heutiger Menschen gesehen. Archäologisch eindeutige Befunde für Kämpfe früher Menschenformen wie Australopithecen fehlen allerdings, ähnlich wie auch die Kämpfe heutiger Schimpansen archäologisch nicht nachweisbar wären, und nur durch direkte Beobachtung nachgewiesen wurden. Der menschliche Aggressionstrieb kann sich parallel auch aus der Abwehr gegen Raubtiere entwickelt haben. Mit der Entwicklung einfacher Waffen und der Verwendung von Feuer wurden Raubtiere als grundsätzliche Gefahr für die menschliche Spezies ausgeschaltet, die Methoden zur Abwehr und Jagd können prinzipiell auch auf den Kampf mit anderen Menschen übertragen werden. Menschen auf der Stufe des Homo erectus kannten das Feuer und verfügten über sorgfältig hergestellte Waffen (siehe Schöninger Speere), ob sie diese über die Jagd hinaus verwendeten, ist ungewiss. Inwieweit es Konflikte zwischen modernen Menschen und Neanderthalern gab und ob diese zum Aussterben der letzteren beitrugen, ist gleichfalls bislang unbeantwortbar. Kriegerische Auseinandersetzungen zwischen Dörfern und Sippenverbänden beobachteten Ethnologen noch bei heute lebenden Steinzeitvölkern wie den Yanomami oder den Maring in Papua-Neuguinea. So dokumentierte der Spielforscher Siegbert A. Warwitz im Rahmen eines Forschungsprojekts zum Spielen von Urvölkern das Ausarten eines Völkerballspiels zwischen zwei Stämmen im Hochland von Papua-Neuguinea zu einem mit Dreschflegeln, Mistgabeln und Sensen ausgetragenen blutigen Stammeskrieg. Auch archäologische Befunde verdeutlichen, dass organisierte Gewalt bereits in frühen Gesellschaften zu massiven Auseinandersetzungen geführt hat, die man als Kriege bezeichnen könnte. Im gewissen Gegensatz dazu steht die These, zum Krieg gehöre außer dem physischen Kampf notwendig auch ein Kriegsdiskurs in öffentlichen Medien. Erweitert man den Kriegsbegriff auf diese Weise, kann Krieg im eigentlichen Sinn erst mit der Entwicklung der öffentlichen Kommunikation in urbanisierten Zivilisationen entstehen. Frühere Formen der organisierten Gewalt wären lediglich als "Vorgeschichte" des Kriegs zu verstehen. Versteht man Krieg hingegen primär als Vorhandensein gewalttätiger und tödlicher Auseinandersetzungen mit starken Auswirkungen für die beteiligten Gemeinschaften, lässt sich aus archäologischen Befunden in verschiedenen Erdteilen auf das Vorhandensein zahlreicher Konflikte bereits vor Entstehung von Hochkulturen und Staaten schließen. Kriege in diesem Sinne begleiten die menschliche Kulturgeschichte also nicht erst seit der Hochkulturphase. Archäologische und anthropologische Befunde lassen vielmehr darauf schließen, dass bereits vorstaatliche Gesellschaften kriegerische Konflikte bis hin zur Vernichtung gegnerischer Familien, Clans oder sonstiger Gruppen kannten (s. Massaker von Talheim). Vorstaatlichen Stammesgesellschaften wurden zwar in der Kriegsforschung Charakteristika planvoller Kriegführung abgesprochen, da sie sich eher auf „Überfälle“ und „Hetzjagden“ konzentriert hätten, während ihre Schlachten ritualisiert und mit geringen Opfern abgelaufen seien, jedoch wies eine solche fortgesetzte Art des Vorgehens – darauf deutet die Auswertung von archäologischen und anthropologischen Ergebnissen hin – vermutlich sogar eine dauerhaft höhere Todesrate auf, als sie selbst in modernen Kriegen auftritt. Bereits Jäger und Sammler kannten kriegerische Auseinandersetzungen, diese steigerten sich aber noch während des allmählichen und stufenweisen Übergangs zur (mit starken Bevölkerungssteigerungen verbundenen) Landwirtschaft, da Bauern zum einen notgedrungen ortsfest sind und Angreifern kaum ausweichen können, andererseits aber durch ihre Vieh- und Vorratshaltung über wertvolle mobile Güter verfügen; abgesehen davon, dass auch ihre Felder und Häuser selbst für bäuerliche Nachbarn interessant sein können. Eine im neolithischen Jericho nachweisliche und mit erheblichem Aufwand erbaute Stadtmauer aus Stein wird als Verteidigungsanlage gedeutet, aus der auf das Vorhandensein gut organisierter Angreifer und Verteidiger geschlossen werden kann. Orientalische Frühreiche, griechisch-römische Antike und europäisches Mittelalter. Aber wohl erst mit dem bronzezeitlichen Aufkommen von staatsähnlichen Gebilden, die im Altertum fast immer Monarchien waren, entstanden Kriege mit speziell zum Kämpfen abgestellten Heeren. Die Machthaber bedienten sich der Heere in Konflikten um Ressourcen und Machtausdehnung, sei es untereinander oder in der Abwehr gegen nomadische Räuber oder wandernde Großgruppen wie die Seevölker. Die erste in ihrer eigenen Zeit gut dokumentierte Schlacht war die Schlacht bei Megiddo, in der ein ägyptisches Heer unter Thutmosis III. 1457 v. Chr eine Koalition gegnerischer syrischer Fürsten besiegte. Die metallurgischen und arbeitsteiligen Erfordernisse u. a. der Waffenproduktion in bronze- und eisenzeitlichen Hochkulturen setzten eine Stratifizierung und zunehmende Komplexität der Gesellschaften voraus. Antike Großreiche wie das Assyrische Reich entstanden auch aus organisierten Raubzügen. Sie stellten die eroberten Gebiete unter Tributzwang, versklavten oder deportierten Teile der Bevölkerung und setzten militärische Siege in eine dauerhafte Herrschaft über eroberte Gebiete um. Krieg wurde in der Antike eher als unvermeidbare und stets wiederkehrende Gegebenheit gesehen, denn als Ausnahme. Er wurde allerdings auch zu dieser Zeit bereits unterschiedlich eingeschätzt und bewertet: Gibt der Dichter Homer (ca. 850 v. Chr.) in seiner Ilias angesichts der Dauerkriege von Göttern und Menschen noch der Möglichkeit Raum und der Hoffnung Ausdruck „"Schwände doch jeglicher Zwiespalt unter Göttern und Menschen"“, hält die Befriedung streitender Parteien also für wünschenswert und prinzipiell für möglich, ist für den vorsokratischen Philosophen Heraklit (um 520 bis 460 v. Chr.) der Krieg ein notwendiger, immerwährender, das Dasein konstituierender Prozess, dessen Missachtung als Torheit erscheint: Für Heraklit verkörpert der Krieg den natürlichen Prozess beständigen Werdens und Wandels. Er bezeichnet ihn als „"Vater aller Dinge und […] König aller. Die einen macht er zu Göttern, die andern zu Menschen, die einen zu Sklaven, die andern zu Freien".“ Kriegführung zwischen den griechischen Stadtstaaten der klassischen Zeit war geprägt von kurzen und harten Schlachten mit Fußsoldaten, in denen schwer bewaffnete Hopliten als Bürgersoldaten in enger Formation (siehe Phalanx) aufeinander trafen und in einem blutigen Kampf die Entscheidung suchten; Distanzwaffen und Reiterei spielten hingegen eine nachrangige Rolle. Dieses für den Einzelnen hochgefährliche Vorgehen erforderte ein hohes Kampfethos und ein Vorhandensein aufeinander eingespielter, (d. h. gut ausgebildeter) Kämpfer und Einheiten. Strittig ist, ob darin der Anfang einer möglicherweise spezifischen und bis heute aufzeigbaren europäischen oder westlichen Art der Kriegführung zu sehen ist, die nicht auf Erschöpfung des Gegners setzt, sondern auf seine konzentrierte Niederwerfung (und idealerweise Vernichtung) in kriegsentscheidenden Schlachten durch arbeitsteilige und disziplinierte Truppen, welche ihre Kampfbereitschaft aus einem bürgerlichen Ethos ziehen. Der dem Krieg folgende Friede bedurfte besonderer Vertragsschlüsse. Im Griechenland des 4. vorchristlichen Jahrhunderts gab es infolge der Entwicklung nach dem Peloponnesischen Krieg, der die Instabilität der multipolaren Polis-Ordnung Griechenlands aufgezeigt hatte, jedoch mehrere – erfolglose – Versuche, durch die Idee des Allgemeinen Friedens unter prinzipiell als gleichrangig verstandenen Kleinstaaten eine dauerhafte Friedensordnung zu begründen. Pazifizierung durch Großreiche (s. Hellenismus) war jedoch vorherrschend und an weitreichende staatliche Organisationsfähigkeiten geknüpft. So beruhte die "Pax Romana" der römischen Kaiserzeit auf ständiger militärischer Präsenz Roms, das ein über das Ganze Reich verteiltes stehendes Heer aus Berufssoldaten unterhielt. Nach dem Untergang des Römischen Reiches wurden im europäischen Mittelalter Heere hingegen nur dann aufgeboten, wenn ein Kriegszug geplant war oder eine feindliche Invasion abgewehrt werden musste. Begründet wurde die Verpflichtung zum Heeresdienst durch die feudalen Abhängigkeiten innerhalb einer vom Erbadel dominierten Gesellschaft. Asiatische Entwicklungen – Alexanderzug, Indien, China und der Mongolensturm. Durch den gemeinsamen eurasischen Kontinent fand die Kriegsgeschichte Asiens in einer gewissen Verbindung mit dem Orient und Europa statt. So hatte das persische Reich der Achämeniden sowohl Auswirkungen auf die griechische Staatenwelt (Perserkriege), wie auch auf den Norden des alten, nach dem Untergang der Indus-Kultur vedisch geprägten, Indiens, den wohl bereits Kyros II. bis zum Indus eroberte. Gandhara (im heutigen Afghanistan) wurde eine Satrapie des Reiches. Alexander der Große eroberte erst Persien und rückte auf den Spuren des Kyros – diesen übertreffend – über den Punjab und den Sindh gegen indische Könige kämpfend den Indus entlang bis zu seiner Mündung vor. Nach Alexander bildeten sich in der Gandhara-Kultur eine griechisch geprägte Kulturlandschaft mit buddhistischer Religion, die über die Diadochen-Reiche eine Zeitlang noch mit der hellenistischen Kultur verbunden war und sogar ein zeitweiliges Indo-Griechisches Königreich aufwies, ehe innerindische Entwicklungen und Wanderungsbewegungen der Saken es verschwinden ließen. Indien selbst sah bis ins Zeitalter des europäischen Kolonialismus ein kriegerisches Auf und Ab diverser Reiche, ab dem siebten nachchristlichen Jahrhundert mitgeprägt durch das Vordringen des Islams, von denen aber allein das hinduistisch-buddhistische Maurya-Reich und das islamische Mogulreich – nur zeitweilig – fast den gesamten Subkontinent umfassen konnten. Über die lang andauernde Verbindung zu Indien wurden jedoch Kriegselefanten (sowohl indische wie afrikanische Waldelefanten) von griechischen Königen und karthagischen Feldherrn auch in Europa verwendet, wo sie etwa in der Schlacht von Heraclea oder nach Hannibals Alpenüberquerung gegen die Römer eingesetzt wurden, die sie aber – anders als Seleukiden und Ptolemäer – selber nicht auf Dauer übernahmen. In China bildeten sich über diverse Stufen wie die Longshan-Kultur und die Erlitou-Kultur frühe Reiche wie die (nicht nachgewiesene) Xia-Dynastie und die (sicher nachgewiesene) Shang-Dynastie heraus, die spätestens ab den Zhou-Dynastien kulturelle Grundlagen späterer chinesischer Staatswerdung schufen. Die Bezeichnung Zeit der Streitenden Reiche für die Periode vor dem ersten Kaiser Qin Shihuangdi steht dabei für eine kriegerische Konzentration der diversen Kleinreiche und Fürstentümer zu Staaten mit hochentwickelten Kriegswaffen aus Eisen und schlagkräftigen Heeren. Das chinesische Kaiserreich dehnte allmählich die Kultur der Han-Chinesen auf das Gesamtgebiet des heutigen Chinas aus. Diese Entwicklung war verbunden mit Staatsbildungen auf den Gebieten Japans, Koreas und Indochinas, die kulturell und in direkten Auseinandersetzungen von China beeinflusst wurden. Ständiges Problem der chinesischen Kaiser war das Verhältnis zu nördlichen Nomaden Zentralasiens. Die Chinesische Mauer steht für ein jahrhundertelanges System hochorganisierter Abwehr, das nicht immer erfolgreich war, und zwischen defensiver Verteidigung (z. B. in der Sui-Dynastie) und präventiven Feldzügen zur ausdehnenden Vorfeldverteidigung (wie in der Tang-Dynastie) schwankte. Dieses System hatte möglicherweise Auswirkungen bis nach Europa, indem es – nicht unumstritten – Wanderungsbewegungen und Kriegszüge nomadischer Völker Richtung Europa lenkte (s. Debatte um die Xiongnu und Hunnen). Eine gesicherte Verbindung zwischen den Kriegen Europas, dem Orient und Ostasiens wurde aber durch die Reichsgründung Dschingis Khans geschaffen, dessen Mongolensturm die Eroberung Chinas und die Zerschlagung und Schwächung islamischer Reiche einschloss, und über Russland bis ins ferne Deutschland reichte, wo ein deutsch-polnisches Ritterheer 1241 n. Chr. in der Schlacht von Liegnitz vernichtet wurde, ehe die Mongolen aus nicht sicher herleitbaren Gründen, aber zum mutmaßlich großem Glück Mittel- und Westeuropas, umkehrten. Russland jedoch blieb für etwa drei Jahrhunderte unter mongolischer Herrschaft, respektive im mongolischen Machtbereich. Für China hatten die Verheerungen des Mongolensturms möglicherweise die weitreichende Folge, dass technische Entwicklungslinien unterbrochen wurden, so dass es mit der Zeit hinter die späteren westlichen Staaten zurückfiel, mit entsprechenden Auswirkungen für die Machtverteilung in der Welt bis heute. Feuerwaffen wurden erstmals während der Song-Dynastie verwendet und in der Folgezeit in China fortentwickelt, ob sie dann direkt mit den Mongolen nach Europa kamen oder den Europäern vielmehr über den Kontakt mit den muslimischen Arabern vermittelt wurden ist – ebenso wie die Art und Weise der Vermittlung – unklar. Neuzeit bis 1914. Im Gefolge der Reformation zerfiel die relativ stabile Einheit des Mittelalters, das Heilige Römische Reich unter Führung von Kaiser und Papst. Die Verbindung von konfessionellen und machtpolitischen Gegensätzen führte schließlich zum Dreißigjährigen Krieg von 1618 bis 1648. Dabei gingen Feldschlachten mit kontinuierlichen Raubzügen, Plünderungen und Massakern an der Zivilbevölkerung einher. Im Verlauf starb etwa ein Drittel der mitteleuropäischen Bevölkerung, sei es durch unmittelbare Kriegswirkungen, sei es durch Kriegsfolgen wie Missernten und eingeschleppte Seuchen. Diese Geschehnisse bewirkten einen Gesinnungswandel. Der Westfälische Frieden 1648 brachte zum ersten Mal das Prinzip der Nichteinmischung in die Angelegenheiten fremder Staaten in die Diskussion. Der Krieg entwertete den Anspruch, religiöse Standpunkte mit Waffengewalt durchzusetzen. Der Westfälische Friede leitete in Europa die Trennung von Politik und Religion ein. Die darauf folgende vergleichsweise friedliche Periode begünstigte die Aufklärung. Aus der Idee der allgemeinen Menschenrechte entwickelte sich die Idee des gehegten Krieges im zivilen Rahmen. Hatte seit Augustinus von Hippo die kirchliche Lehre vom gerechten Krieg die Kriterien zur Legitimation geliefert, so übernahmen dies nun aufgeklärte Juristen wie Hugo Grotius. Machthaber folgten den Kriterien vor allem aus pragmatischen und finanziellen Gründen. Frieden als Ziel der Politik wurde denkbar und streckenweise auch erreicht: etwa in der Epoche nach dem Wiener Kongress 1815. Die moderne Form des Krieges setzte Nationalstaaten voraus, die über ein Steueraufkommen und Verteidigungsetat verfügen und damit eine stehende Armee aufstellen können. Die Entwicklung führte zu immer größeren Armeen mit immer stärkeren Waffen und tendenziell entsprechend höheren Opferzahlen (die jedoch wie erwähnt relativ gesehen deutlich niedriger waren und sind als in prähistorischen und vormodernen Stammeskriegen). Die Kriegsgründe blieben bei dieser Kodifizierung des Kriegsverlaufs ausgeklammert, und die Wahl der Mittel wurde ebenfalls noch nicht verbindlich geregelt. Das Zeitalter der Weltkriege. Im Ersten Weltkrieg führte der Einsatz von Maschinengewehren, Panzern, Flugzeugen, U-Booten, Schlachtschiffen, Giftgas sowie die totale Kriegswirtschaft zu einem neuen Gesicht des Krieges. Feld- und Seeschlachten forderten Millionen Todesopfer und Abermillionen von Schwerverletzten. Die bisherige europäische Bündnis-, Gleichgewichts- und Vertragspolitik mit ihrer Doppelstrategie von Hochrüstung und Diplomatie war nicht zuletzt am Konkurrenzkampf um Kolonien gescheitert. Darum wurde vor allem auf Initiative des US-Präsidenten Woodrow Wilson nach 1918 versucht, eine internationale Konfliktregelung zu institutionalisieren. Die Gründung des Völkerbunds stellte den Frieden als gemeinsames Ziel der Staaten heraus und gab dem Völkerrecht eine organisatorische Basis. Der Briand-Kellogg-Pakt zur Ächtung des Angriffskrieges war ein weiterer Schritt, um nicht nur den Kriegsverlauf, sondern die Staatssouveränität bei der Entscheidung zum Krieg zu begrenzen und den Verteidigungskrieg international akzeptierten Kriterien zu unterwerfen. Angesichts der neuen Kriegsqualität, die die Massenvernichtungsmittel bedeuteten, wurde ferner versucht, bestimmte als unnötig grausam verstandene Waffen zu ächten und zu verbieten. Dies gelang bis 1939 jedoch noch nicht, obwohl die prinzipielle juristische Handhabe dafür mit der Haager Landkriegsordnung gegeben war. Durch deutsche Angriffe zerstörte Gebäude in London während des Zweiten Weltkrieges Der Aufstieg des Nationalsozialismus beendete diese Bemühungen. Systematisch ignorierte Adolf Hitler von 1933 bis 1939 die völkerrechtlichen Obligationen Deutschlands und bereitete seinen Eroberungs- und Vernichtungskrieg vor. Die Appeasement-Politik Großbritanniens scheiterte 1938 trotz der durch Großbritannien, Frankreich, Italien und Deutschland der Tschechoslowakei aufgezwungenen Abtretung des Sudetenlandes und der deutschen Besetzung von Böhmen und Mähren 1939. Der Weg in den Zweiten Weltkrieg war damit frei. Dieser begann wie der erste als konventioneller Krieg, wurde aber rasch und unaufhaltsam zum "totalen Krieg". Staatlich gelenkte Kriegswirtschaft, Kriegsrecht, allgemeine Wehrpflicht und Propagandaschlachten an der Heimatfront bezogen die Völker ganz und gar in die Kampfhandlungen ein. Die Mobilisierung aller nationalen Reserven für Kriegszwecke hob die Unterscheidung zwischen beteiligten Zivilisten und Kombattanten auf. Die Kriegsführung ignorierte, insbesondere in Osteuropa, in hohem Maße das Kriegs-Völkerrecht. Die Nürnberger Prozesse schufen den neuen Straftatbestand des „Verbrechens gegen die Menschlichkeit“: dies war der erste Versuch, Menschen nach dem Völkerrecht aufgrund von Kriegsverbrechen zu verurteilen. UNO und Kalter Krieg (1945–1990). Die ungeheure Steigerung der Vernichtungskapazitäten und Verselbstständigung der Kriegsführung verstärkte nach 1945 die Bemühungen, Kriege generell zu vermeiden. In Europa, besonders in Deutschland herrschte bei weiten Teilen der Zivilbevölkerung die Einstellung vor: "Nie wieder Krieg!" Dies verbot erstmals allgemeinverbindlich jeden Angriffskrieg und jede militärische Erpressung. Die Charta bekräftigt das Prinzip der Nichteinmischung und das natürliche Recht zur Selbstverteidigung im Fall eines feindlichen Angriffs. Sie verpflichtet alle Mitglieder zu gemeinsamen friedenserhaltenden oder wiederherstellenden Maßnahmen und machte diese von einem Mandat des UN-Sicherheitsrats abhängig. Dabei stand auch die Sorge vor einem neuen weltumspannenden Konflikt Pate, die durch den Zerfall der Anti-Hitler-Koalition bereits auf der Konferenz von Potsdam im Juli 1945 am Horizont auftauchte. Auch die Bemühungen zur Ächtung bestimmter Waffengattungen wurden seit 1945 verstärkt. Doch während das Verbot von B- und C-Waffen weithin akzeptiert wurde, misslang das universale Verbot der Atomwaffen. Bis 1949 besaßen die USA das Atommonopol; bis 1954 erreichte die Sowjetunion ein strategisches „Atompatt“, das vor allem auf der Bereithaltung von Wasserstoffbomben und Fernlenkwaffen beruhte. Beide weltpolitischen Kontrahenten waren von nun an zum atomaren Zweitschlag mit unkalkulierbaren Folgen im Feindesland fähig. Seit dem Beinahe-Zusammenstoß der Supermächte in der Kubakrise von 1962 wurden ergänzend aber erste Schritte zur gemeinsamen Rüstungskontrolle gemacht. Die KSZE wurde 1973 eingerichtet und erlaubte den Europäern gewisse eigenständige Abrüstungsinitiativen mit der Sowjetunion. Hinzu kam die seit 1979 wachsende Friedensbewegung, die den innenpolitischen Druck zu Abrüstungsvereinbarungen vor allem in Westeuropa und den USA verstärkte. Mit Gorbatschows Angeboten gelang 1986 in Reykjavík ein Durchbruch zum vollständigen Rückzug aller Mittelstreckenraketen aus Europa, der eine Reihe Folgeverträge nach sich zog. Unterhalb der Atomkriegsschwelle fanden jedoch zwischen 1945 und 1990 laufend so genannte konventionelle Kriege vor allem in Ländern der so genannten Dritten Welt statt. Eine Reihe davon waren Stellvertreterkriege, z. B. der Koreakrieg (1950 bis 1953), der Vietnamkrieg (1964–1975) sowie zahlreiche Konflikte in Afrika und Lateinamerika. Dort verhinderte der Kalte Krieg und das gegenseitige Abstecken von Einflusszonen der Supermächte häufig regionale Konfliktlösungen und begünstigte verlängerte Bürgerkriege mit vom Ausland finanzierten Guerillakämpfern. Tendenzen seit 1991. Die Auflösung der Sowjetunion und Jugoslawiens führte Anfang der 1990er Jahre zu neuen Kriegen. Seit 1992 hat sich die Zahl der pro Jahr laufenden Kriege jedoch nahezu halbiert. Jedoch wird Krieg seit dem ersten Golfkrieg der USA und dem Falklandkrieg Großbritanniens nun auch in Europa wieder als Mittel zum Erreichen legitimer Ziele wie der Durchsetzung von Menschenrechten oder der Prävention gegen tatsächliche oder vermutete Rüstungs-, Terror- und Angriffspläne angesehen. Als Reaktion auf die Terroranschläge vom 11. September 2001 rief US-Präsident George W. Bush den Krieg gegen den Terror aus. Auch Deutschland unterstützt diesen Sonderfall in Teilbereichen mit dem Einsatz der Bundeswehr in Afghanistan und anderen Auslandseinsätzen. Auffallend an den Konflikten des 21. Jahrhunderts ist, dass sie nur noch in seltenen Fällen zwischen Staaten stattfinden. Der typische Krieg ist ein interner Konflikt, so gab es 2013 keinen Krieg über Staatsgrenzen hinweg. Verschiedene Institute grenzen interne Konflikte unterschiedlich ab, so dass sie zu abweichenden Einschätzungen über die Häufigkeit und kurzfristiger Schwankungen kommen. Nicht beendete Kriege, sogenannte „eingefrorene Konflikte“ sind vor allem im ehemaligen Machtbereich der Sowjetunion zu finden. Im Zeitalter von Digitalisierung und Internet entstehen neue Formen der Kriegsführung. Bezeichnungen wie Cyberwar, Infowar, Netwar oder Lawfare beziehen sich auf entstehende Kriege ohne Schlachtfeld und Heere. Unbemannte Drohnen werden für militärische Zwecke gerüstet und führen mit dem „gezielten Töten“ eine neue Form des Krieges ein, deren ethische Probleme zu öffentlichen Kontroversen führen. Krieg und Politik. Eine politische Orientierung, die Krieg für natürlich, unvermeidbar, sogar fortschrittsfördernd hält und Rüstungsanstrengungen prinzipiell bejaht, nennt man Militarismus. Die entgegengesetzte Haltung will Kriege nicht nur vermeiden, sondern langfristig als Mittel der Konfliktaustragung ausschließen, abschaffen und überflüssig machen: Der "Pazifismus" (von Lateinisch "pacem facere": „Frieden schaffen“). Für ihn ist Krieg "„eine Geißel der Menschheit“" (UN-Charta). Zwischen diesen Polen bewegt sich die so genannte „Realpolitik“ des Großteils aller Staaten, die militärische Gewalt als "ultima ratio" – „letztes Mittel“ – nie ganz ausschließt und von Fall zu Fall als unvermeidlich anwendet. Dabei ist in heutigen Gesellschaften vor, in und nach einem Krieg meist heftig umstritten, ob und wann dieses Mittel tatsächlich das letzte, der Krieg also wirklich unvermeidbar war und ist. Auslöser. Hierzu werden mitunter kriegsauslösende Einzeltaten inszeniert (Erster Weltkrieg, Zweiter Weltkrieg) oder wirtschaftliche Konflikte provoziert (beispielsweise mittels Zöllen, Patentrechten, Einfuhrbeschränkungen). Da sowohl Attentate als auch Terrorakte die moralische Rechtfertigung für einen Krieg bilden können, kommt der Inszenierung eines Krieges oft höhere Bedeutung zu als der späteren Durchführung. Dies ergibt sich aus der Tatsache, dass Kriegsführung neben logistischen und humanitären Gesichtspunkten vor allem wirtschaftliche Zwänge birgt. Besondere regierungspolitische Motive. In ärmeren Ländern dienen Kriege oft innenpolitischem Kalkül. Dabei rechnet die Regierung eines solchen Landes damit, dass das Volk durch das durch den Krieg erzeugte Härteklima mit unmittelbaren Lebensfunktionen wie Nahrung, Kleidung, Wohnung so beschäftigt ist, dass es keine Zeit mehr hat, sich Themen wie Regierung, Politik oder Wirtschaft zu widmen. Eine Regierung kann so versuchen, Kritik zu unterdrücken. Wohlstandsnationen führen Kriege meist abseits der eigenen Heimat. Eine drastische Einengung der Lebensgrundlage ist in diesen, eher höher gebildeten Bevölkerungen meist nicht vermittelbar und würde nicht breit akzeptiert. Dennoch wird in der Heimat eine „psychologische Militarisierung“ auf das gesamte Volk übertragen, welche auf Patriotismus und Duldung der Beschneidung von Grundrechten, beispielsweise im Wege der Terrorismusbekämpfung, abzielen. In beiden Fällen handelt es sich um eine Art Flucht nach vorn, im Zusammenhang mit bereits unabhängig vom Krieg bestehenden Strukturproblemen im eigenen Land beziehungsweise drohendem Machtverlust der Regierung. Der Krieg kann als Rechtfertigung für unterschiedliche Einschränkungen (zum Beispiel der Menschenrechte oder der Sozialversorgung) verwendet werden. Da eine Bevölkerung sich zumeist in relativer Akzeptanz mit ihrer Regierung befindet (gestützt durch staatlich gelenkte Medien oder durch echte Akzeptanz von aggressiven Expansionsabsichten beziehungsweise durch stillschweigendes Erdulden der Staatsführung), stellt die Wechselwirkung zwischen der Volksmeinung einerseits und der Legitimation einer Regierung Krieg zu führen andererseits, ein besonders wichtiges Instrument der Militarisierung im Vorfeld der Kriegsführung dar. Ausnahmezustand. Zu diesen kleinen Kriegen zählen Krawalle, Aufstände, der Staatsstreich, Bürgerkriege usw. Sie bilden die überwältigende Mehrzahl aller Kriege; die „regulären“ Kriege zwischen Staaten und regulären Truppen demgegenüber die Ausnahme. Die Politik sehe Krieg nicht mehr als letztes Mittel, sondern als Werkzeug zur Kontrolle und Disziplinierung. Ressourceneinsatz. Wegen der extremen Belastung, die der Krieg den beteiligten Parteien auferlegt, ist eine positiv gestimmte eigene Öffentlichkeit für eine kriegführende Institution oder Nation von kriegsentscheidender Bedeutung. Militärstrategie. Die militärische Strategie ist der Plan, um den Zweck des Krieges zu erreichen. Zweck des Krieges ist nach Clausewitz immer der Friede, in dem die eigenen Interessen dauerhaft gesichert sind. Militärische Strategien ändern sich mit der Waffenentwicklung. In der Geschichte wurden häufig dominante Mächte zurückgeworfen, weil neuere, wirksamere Waffen entwickelt wurden. Aber auch ohne Neuentwicklung von Waffen können bessere strategische Planungen einen Krieg entscheiden, u. U. auch aus der Unterlegenheit heraus. In der Militärstrategie geht es immer darum, durch geschickte räumliche und zeitliche Anordnung der Gefechtssituationen den Erfolg herbeizuführen. Als Krönung gilt es allgemein, wenn man ohne einen Kampf den Sieg davonträgt. Kriegslisten sind daher ein wesentliches Element des Krieges. Die wohl berühmteste Kriegslist der Geschichte ist die des trojanischen Pferdes. Militärstrategie lässt sich nach Edward Luttwak in zwei Dimensionen aufspannen. Einer Horizontalen und einer Vertikalen. Die Horizontale Ebene entspricht der temporären Abfolge jeder strategischen Operation inklusive Clausewitzs Kulminationspunkt. Die Vertikale Dimension gliedert sich in mehrere Ebenen. Die unterste ist die technische Ebene, diese umfasst die Effektivität, als auch die Kosten von Waffensystemen, und damit auch den Ausbildungsstand und Leistungsfähigkeit der einzelnen Soldaten. Als Nächstes folgt die taktische Ebene. Sie umfasst die untere Militärische Führung also alles bis Bataillons- oder Brigadeebene, sowie die Moral der Truppe und beinhaltet vor allem die Geländeausnutzung. Als Nächstes folgt die operative Ebene. In dieser findet sich die militärische Strategie von Divisionsebene und aufwärts. Hier werden größere militärische Manöver unter anderen Gesichtspunkten als in der taktischen Ebene geplant und ausgeführt. Hier entscheiden weniger das Gelände als beispielsweise die zur Verfügung stehenden Ressourcen inklusive die Einbeziehung wirtschaftlicher Kapazität. Als oberste Ebene gilt die Gefechtsfeldstrategie. In ihr entscheiden einzig und alleine die politischen Ziele und Eigenheiten der kriegführenden Parteien. Auf einem Kriegsschauplatz wird die Strategie im Rahmen von Feldzügen durch Operationen umgesetzt. Für Operationen werden Weisungen und Operationspläne erstellt, die die übergeordneten strategischen Ziele in praktische, militärische Aufträge und Handeln umsetzen. Zu den berühmtesten strategischen Denkern gehören Sun Zi ("Die Kunst des Krieges") und Carl von Clausewitz ("Vom Kriege"). Ethische Aspekte. Die ethische Bewertung des Krieges als gewalttätige zwischenmenschliche Handlung unterliegt im Wesentlichen drei zeitlichen Kriterien. Seit dem Mittelalter ist das Recht zum Krieg und seit der frühen Neuzeit das Recht im Krieg als Betrachtungsdomäne etabliert, während seit dem Ende des Kalten Krieges die Verantwortlichkeit einer Besatzungsmacht oder eines konfliktlösenden politischen Akteurs als Nachkriegsrecht verstanden wird. Der Politikwissenschaftler A.J. Coates identifiziert den Realismus, den Militarismus, den Pazifismus und die Theorie vom gerechten Krieg als die vier wesentlichen ethischen Grundhaltungen zum Krieg. Diese haben weitestgehend den Charakter von Ideologien. Das erweist sich z. B. an der literaturkritischen Einordnung des Frühwerks „In Stahlgewittern“ des Schriftstellers Ernst Jünger, das aus der Position des „Realismus“ dem persönlichen Erleben und den Tagebuchaufzeichnungen des Autors während des Ersten Weltkriegs erwuchs und die ethische Bewertung dem Leser überlässt. Darstellungsmäßig eine realitätsgerechte, aber weitestgehend emotionslose Beschreibung der Abläufe und Zustände in den Schützengräben der Materialschlachten im französischen Kampfgebiet, fehlen den Vertretern der anderen Richtungen gerade die ethische Stellungnahme und Bewertung der drastisch-nüchtern wiedergegebenen Vorgänge. Der Biograf Steffen Martus versteht die Enthaltung des Autors von einer politischen und moralischen Parteinahme aber als Möglichkeit für jede Seite, die Kriegsdarstellung sowohl als „affirmativ“ als auch als „neutral“ oder als „Antikriegsbuch“ zu lesen. Wirkungen. Jeder Krieg ist, neben dem Verlust von Infrastruktur oder Arbeitsplätzen, immer auch mit Tod und menschlichem Leid verbunden. Diese entstehen einerseits als gewollte oder hingenommene Folgen des Waffeneinsatzes gegen Menschen, andererseits aus strategischen Gründen (zum Beispiel beim Sprengen von Brücken oder durch Vergiftung von Grundnahrungsmitteln); zum Teil wird die Zerstörung von Gebäuden bzw. der allgemeinen Infrastruktur des Kriegsgegners aber auch bewusst herbeigeführt, um die Zerstörungskraft einer Armee zu demonstrieren und den Gegner einzuschüchtern (z. B. „Shock and awe“-Strategie im Irak-Krieg). In vielen Kriegen wurden und werden Kriegsverbrechen begangen (z. B. Folterungen, Übergriffe auf die Zivilbevölkerung etc.). Das große Machtgefälle in Kriegsgebieten und die weitgehende Freiheit vor Strafverfolgung können in Verbindung mit der Allgegenwart des Todes natürliche Hemmschwellen abbauen. Bei Kriegen ist mit dem großen Aufkommen von Flüchtlingen zu rechnen, für deren Betreuung und Versorgung Flüchtlingslager benötigt werden. Der organisierte Einsatz von Waffen bedeutet immer die massenhafte Tötung von Menschen. Schon die ständige Rüstung zum Krieg erfordert Aufwendungen und verschlingt Mittel, die für andere Aufgaben fehlen. Auch wenn eine kriegführende Partei Todesopfer nicht anstrebt, werden sie immer als unvermeidbar in Kauf genommen. Wer diese Wirkung betrachtet, nennt diese Form der gewaltsamen Konfliktaustragung daher meist „staatlich organisierten Massenmord“ (Bertha von Suttner, Karl Barth). Darin kommt zum Ausdruck, dass das Phänomen des Krieges kaum wertneutral zu betrachten ist, weil es dabei immer auch um das Leben vieler und die langfristigen Perspektiven aller Menschen geht. Bedeutung. Kriege waren für die betroffenen Gesellschaften von entscheidender Bedeutung. Durch die offensive Kriegsführung des Römischen Reichs verbreitete sich die lateinische Zivilisation in weiten Teilen Europas, während die Kulturen der eroberten Völker sich entweder anpassten oder weitgehend verschwanden. Durch die mit der Völkerwanderung verbundenen Kriege wurden wiederum das Ende des Weströmischen Reiches und durch die Kriege im Zuge der Islamisierung das Ende des Oströmischen Reiches herbeigeführt. Die Auswirkungen des Zusammenbruchs des Weströmischen Reiches waren so gravierend, dass das zivilisatorische Niveau Süd- und Mitteleuropas Jahrhunderte benötigte, um wieder auf den Stand während der Hochkaiserzeit Roms zurückzufinden. Vielen mesoamerikanischen Kulturen des Mittelalters diente die Kriegsführung zur Erlangung von Ansehen vor ihren eigenen Göttern sowie der Gefangennahme von Kriegen und Sklaven zur Opferung, so dass die unterworfenen Kulturen neben Tributzahlungen auch bevölkerungsseitig dezimiert wurden. Die permanente Kriegsführung unterband wirksam eine gesellschaftliche und kulturelle Weiterentwicklung, so dass alle mesoamerikanischen Kulturen beim Eintreffen der Europäer in Mittelamerika technologisch stark unterlegen waren und ihrerseits von diesen besiegt wurden. Durch die Revolutionskriege wurde der demokratische Gedanke in Europa verbreitet, durch die Bauernkriege der Protestantismus. Durch den Faschismus in Deutschland wurden in Europa im Zweiten Weltkrieg fast 50 Millionen Menschen getötet und ganze Länder verwüstet. Hier benötigte es Jahre bzw. Jahrzehnte, um die Folgen dieses globalen Krieges zu bewältigen. Als direkte Folge des Zweitens Weltkrieges entstand die Montanunion, deren Nachfolger die heutige Europäische Union ist. Neben den politischen Auswirkungen hat ein Krieg immer eine Vielzahl an negativen Folgen: So kann er die Bevölkerung eines Landes stark dezimieren. Durch den Zweiten Weltkrieg wurden bspw. ganze Jahrgänge und eine Vielzahl an Bevölkerungsschichten nahezu ausgelöscht. Ebenso drastisch sind die vielseitigen wirtschaftlichen Folgen. Die sozialen und psychischen Folgen eines Krieges, etwa durch extreme Verwerfungen in den Moralvorstellungen, durch das Zerreißen sozialer Bindungen, durch Spätfolgen von Misshandlungen und Vergewaltigungen, können bis in spätere Generationen nachwirken. Als ebenfalls schwerwiegende Auswirkung eines Krieges sind ggf. jahrzehntelanges Leid der Kriegsversehrten und die langdauernden Folgekosten für diese aufzuführen. Auch haben Kriege immer stark negative Auswirkungen auf die Umwelt, da Landstriche durch Kriegshandlungen selbst zerstört und Ressourcen für die Kriegsführung ausgebeutet werden. Alternativen. Da als eine der rationalen Kriegsursachen der Kampf um Ressourcen gilt, werden Kriege umso unwahrscheinlicher, je günstiger Ressourcen einer Region für eine andere Region verfügbar werden, ohne in einer kriegerischen Auseinandersetzung unter Lebensgefahr erobert werden zu müssen. Damit sind Kriege wirtschaftlich umso uninteressanter, je besser die bestehenden Ressourcen im Wege von Vereinbarungen genutzt werden. Alternativen zum "militärischen" Widerstand („Krieg“) sind, wenn man angegriffen wird, die Konzepte des „zivilen Widerstands“. Da Volkswirtschaften (ebenso wie Regionen, Städte und Familien) in erster Linie ihre eigenen Interessen vertreten und Ressourcen zurückhalten, erscheint dieses „Idealbild“ der Welt utopisch. Ablehnung des Krieges. a>, 2007, Mischtechnik Tusche und Wachs a> mit gefesselten, nackten Gefangenen, die dazu gezwungen wurden, eine menschliche Pyramide zu bilden Die menschliche Sehnsucht nach einem Frieden, der die „Geißel der Menschheit“ überwindet, ist uralt. Politische Friedensarbeit kann sich daher auf breite und heterogene Traditionen stützen. Nach verlorenen Kriegen neigt die Bevölkerung der besiegten Staaten dazu, Krieg generell abzulehnen. So kamen in Deutschland nach 1918 Formeln wie „Nie wieder Krieg“ auf (bekannt ist das Plakat von Käthe Kollwitz mit diesem Titel). Nach Siegen hingegen wird der Krieg oft verherrlicht. So gibt es zahlreiche Siegesdenkmale, Triumphbögen und anderen Erinnerungen an große militärische Erfolge. In der chinesischen Kosmologie des Taoteking und der Philosophie des Laotse spielte die Kriegsvermeidung durch harmonischen Interessenausgleich eine wichtige Rolle. In Indien, China und Japan breiteten Jainismus und Buddhismus eine Ethik der Gewaltlosigkeit, Toleranz und Friedensliebe aus, die seit 500 v. Chr. die Gestalt einer Weltreligion gewann. In der griechischen Philosophie der Antike stellten Sokrates und die Skeptiker die Selbstverständlichkeit in Frage, mit der Wahrheitsbesitz beansprucht und angeblich ewige Rechte gegen andere verteidigt werden. Die Stoiker Zenon und Chrysippos wandten sich gegen das Kriegführen und stellten Überlegungen an, ob Kriege notwendig seien oder wie man sie vermeiden könne. In allen europäischen Staatsutopien von Platon bis Thomas Morus spielte die Gewaltminderung durch ideale Gesetzgebung und Menschenbildung eine Rolle. Eine eindrucksvolle Anti-Kriegsschrift stammt von Erasmus von Rotterdam: "Die Klage des Friedens". Diese Weisung zur universalen Abrüstung hat Jesus Christus durch das prophetische Zeichen des Gewaltverzichts (/) und die Selbsthingabe zur Versöhnung im Neuen Testament bekräftigt. Darum ist der tätige Einsatz für weltweiten Frieden für Christen wie für Juden integraler Bestandteil ihres Glaubens. In der Neuzeit wurde der Gewaltverzicht im Westen von den Religionen entkoppelt. Immanuel Kant, Jean-Jacques Rousseau und andere Aufklärer strebten den „ewigen Frieden“ an und entwarfen rechtsstaatliche und demokratische Konzepte, um ihn herbeizuführen. Ludwig van Beethoven hat diesem Traum am Ende der 9. Sinfonie mit seiner Vertonung von Schillers Gedicht "An die Freude" („alle Menschen werden Brüder“) ein musikalisches Denkmal gesetzt. Im Zeitalter der europäischen Nationalkriege gewann das Völkerrecht, nach den verheerenden Erfahrungen des Ersten Weltkriegs der Gedanke eines Völkerbunds zur Kriegsverhinderung Akzeptanz. Der Briand-Kellogg-Pakt galt der Ächtung des Krieges als eines Mittels der Politik. Die UNO hat den Angriffskrieg verboten, den Weltfrieden zum Ziel aller Politik erhoben und erstmals ansatzweise wirksame Formen der Konfliktvermeidung und Konfliktlösung ermöglicht. Diese Tendenzen wurden durch die ungeheure Steigerung der Vernichtungsmöglichkeiten im Krieg notwendig und gestärkt. Die UNO konnte Kriegsursachen wie ökonomische und politische Interessengegensätze jedoch nicht aufheben und viele Kriege nicht verhindern. Auch die Verbreitung von Massenvernichtungswaffen ließ sich bis heute nicht wirksam stoppen. Der am Ende des Kalten Kriegs eingeleitete Abrüstungsprozess kam seit den „neuen Kriegen“ zum Erliegen und wurde durch neue Aufrüstungstendenzen abgelöst. Internationaler Terrorismus und Antiterrorkrieg lassen die Gewaltbereitschaft weltweit noch weiter wachsen. Eine Alternative zum Frieden gibt es im Zeitalter der Massenvernichtungsmittel nicht mehr. Spätestens seit Erfindung der Atombombe ist er „die Überlebensbedingung des technischen Zeitalters“ geworden (Heidelberger Thesen der EKD 1959). Aufwertung des Krieges. Als Kriegsfetischismus bezeichnet man eine übersteigerte Begeisterung für den Krieg. Der Krieg wird dabei zumeist idealisiert. Kriegsfetischismus fand sich beispielsweise im Ersten Weltkrieg wie auch später im Nationalsozialismus. Der Krieg wurde dort als ehrenvoll, männlich und bewundernswert stilisiert. Der Islam sieht Frieden erst nach der kriegerischen Eroberung des gesamten Dār al-Harb (Gebiet der Nichtmuslime) vor. Danach soll die gesamte Erde unter der Scharia in einer „pax islamica“ leben. Die Welteroberung geschieht mittels bewaffnetem Dschihad mit dem Ziel eines „Paradieses unter dem Schwert des Islam“. Die Instrumentalisierung religiöser Ideale für politische Interessen fand einen Höhepunkt mit den Kreuzzügen des Mittelalters, die die heiligen Stätten „befreien“ und christliche Staaten errichten wollten. Die Kreuzzugs-Ideologie des ewigen Kampfes des „Guten“ gegen das „Böse“ spielt noch heute eine bedeutende Rolle – nicht nur im Islamismus oder bei US-amerikanischen Neokonservativen. Einordnung, Kontrolle und Kriegsrecht. a>s. An beiden Händen und am Penis waren stromführende Drähte befestigt. Ihm wurde angedroht, dass er durch Elektroschocks hingerichtet würde, falls er von der Kiste falle. Als das Foto an die Öffentlichkeit gelangte, leugneten die US-Stellen, dass die Kabel stromführend gewesen seien. Immer wieder wurde in der Geschichte versucht, die Kriegsführung bestimmten Regeln oder moralischen Vorgaben zu unterwerfen, also zu einer Art Verhaltenskodex zu finden (siehe zum Beispiel Haager Landkriegsordnung). Die sich im Krieg Bahn brechende Aggression wird „höheren Werten“ unterworfen – und letztlich damit in Augen vieler Kritiker auch relativiert. In der europäischen Literatur wird häufig so zwischen dem „geordneten“ und dem nicht geordneten Krieg unterschieden. Auf der anderen Seite stehen die, die – im Prinzip mit der gleichen Grundüberlegung – wirtschaftlichen Wohlstand als beste Kriegsprävention ansehen. Hier neigt man dazu, die Perversionen des ungehegten Krieges als Normalzustand des Krieges darzustellen. Daraus folgen Überlegungen, wie Krieg vermieden werden kann und wie man versuchen kann, einen ewigen Frieden zu erreichen. Der Krieg wird so als das absolute Böse angesehen, als das Werk von moralisch verkommenen Machthabern, die aus niederen Motiven ihr Land in einen Krieg stürzen. Es gibt auch Ansichten, dass sich der Charakter des Krieges geändert habe und folglich heute ein „gehegter Krieg“ nicht mehr möglich sei. Dass sich die Formen des Krieges ändern, ist aber eine Feststellung, die so alt ist wie die Geschichte der Menschheit. Neue Kriegsformen wurden zu allen Zeiten als ordnungswidrig geachtet, häufig als Verstöße gegen eine göttliche Ordnung. Heute werden in der abendländischen Kultur bestimmte Kriegsformen als zulässig dargestellt (etwa Bombenabwürfe auf Städte, die Militär treffen sollen, aber auch Zivilpersonen gefährden), während andere Kriegsformen (etwa Selbstmordattentate, die nicht militärische Einrichtungen treffen) als unzulässig interpretiert werden. In der islamischen Welt halten viele Menschen dagegen Selbstmordattentate für legitim, wie nach den Anschlägen auf das World Trade Center 2001 erkennbar wurde. Krieg ist nicht nur ein Mittel staatlich organisierter und gelenkter Politik. Neben den Staaten, die als kriegführende Seite ein Heer hatten, spielten offenbar zu allen Zeiten „nichtreguläre“ Gruppen im Krieg eine erhebliche Rolle: Kosaken, Jäger, Husaren, Rōnin, Partisanen, in der neuerer Zeit die Guerilla, Freischärler, Milizen und Taliban. Was "nicht regulär" ist, wird politisch diskutiert. Bei noch genauerem Hinsehen allerdings merkt man, dass die Theorie des irregulären Kämpfers (Partisanen) eine Weiterentwicklung der Clausewitzschen Theorie ist, wie sie die Clausewitz-Kenner Lenin und Carl Schmitt vorgenommen haben. Somit scheitert auch der Versuch, zwischen einem Konflikt und einem formal erklärten Krieg zu unterscheiden und die Bezeichnung „Krieg“ auf jene Konflikte einzuschränken, die mit einer formalen Kriegserklärung einhergehen. Finanzieller Aspekt. Ein Krieg verursacht hohe Kosten in der Planung, Vorbereitung und Durchführung (siehe dazu Kriegsökonomie). Der finanzielle Aspekt spielt somit eine bedeutende Rolle in der Art und Weise der Kriegsführung. Je mehr Ressourcen einer Partei zur Kriegsführung zur Verfügung stehen, umso mehr Möglichkeiten hat sie den Gegner zu bezwingen. Die Rüstungsindustrie entwickelt und produziert Waffen. Sie erhält die Aufträge überwiegend im Auftrag einer Regierung oder Staatengemeinschaft. Die Rüstungsindustrie ist ein Wirtschaftszweig, der in Europa und den USA um etwa 1850 eine eigenständige Industrie wurde. Die Rüstungsindustrie ist in Friedenszeiten an den Kapitalmarkt gekoppelt. Die größten Waffenlieferanten der Welt sind die Vereinigten Staaten von Amerika, gefolgt von Russland, Deutschland, Frankreich und Großbritannien. All diese Länder besitzen hochentwickelte Rüstungsbetriebe und stehen im gegenseitigen Konkurrenzkampf um die neuesten und wirkungsvollsten Waffensysteme. Geographische Gegebenheiten des Krieges. Geographische Aspekte spielen bei der Kriegsführung eine entscheidende Rolle. Mit der Erforschung geographischer Umstände bei der politischen Entscheidungsfindung und bei der Kriegsführung befassen sich vor allem die Geopolitik und die Geostrategie. Die Kriegsführung hat sich im Laufe der Menschheitsgeschichte zunehmende geographischen Dimensionen erschlossen. Traditionell fand sie vor allem zu Land und auf dem Wasser statt. Im 20. Jahrhundert reifte der Luftkrieg aus, und die Militarisierung des Weltraums und des Internet, deren militärische Nutzung von Beginn an einen Anreiz zu ihrer Nutzung dargestellt hatte, schritt voran. Der Bodenkrieg ist von allen geographisch definierten Dimensionen der Kriegsführung die bedeutsamste, weil der Mensch dauerhaft ausschließlich zu Lande überleben kann. Darüber hinaus sind politisch verfasste Gemeinwesen nur zu Lande aufzufinden. Eine militärische Lösung eines Interessenkonflikts kann daher nur an Land stattfinden. Gegenüber anderen Militärgeographien unterscheidet sich der Krieg zu Lande vor allem darin, dass dieser trotz der jüngsten Mechanisierung weiterhin personalintensiv bleibt. Der Seekrieg ist von den physikalischen Eigenschaften der weltweiten Wasservorkommen und von ihrer menschlichen Nutzung geprägt. Zwischen 70 % und 75 % der Erdoberfläche besteht aus Wassermassen, die bis auf wenige Ausnahmen miteinander verbunden sind. Der Seekrieg ist vor allem plattformzentriert und strategisch dem Krieg zu Lande untergeordnet, da der Mensch mangels relevanter Wassertauglichkeit über keine natürliche Seekriegsfähigkeit verfügt. Die Weite und die Unbewohnbarkeit der Weltmeere verschafft der Aufklärung und Ausweichmanövern eine wesentlich höhere Bedeutung als an Land. Der Luftkrieg ist ebenfalls der Lebensfeindlichkeit seiner Umgebung durch Höhe, Temperatur und Sauerstoffmangel unterworfen und daher plattformzentriert. Obwohl bereits zuvor Luftkriegsmittel zum Einsatz kamen, ermöglichten technische Neuerungen eine systematische Erschließung der Luft erst im 20. Jahrhundert. Das entscheidende Merkmal der Luft, ihre Unbeständigkeit, ordnet den Luftkrieg dem Krieg zu Lande unter. Obwohl der systematische Luftkrieg die Gestalt des Krieges entscheidend verändert und Luftstreitkräfte hervorgebracht hat, ist dies keine hinreichende Bedingung für militärisches Fortkommen. Krieg als Spiel. Kriegsspiele bilden die als Kriege definierten „"bewaffneten Auseinandersetzungen zwischen größeren Menschengruppen"“ in symbolischen Handlungen ab. Das Spiel vollzieht sich nach vorher vereinbarten Regeln, die strikt einzuhalten sind. Dazu gehört etwa, dass niemand bei dem Spiel absichtlich geschädigt werden darf. Es handelt sich um ein sogenanntes „Als-Ob-Handeln“, das erfahrene oder erdachte Wirklichkeiten imitiert. Pauschale Kritik am Kriegsspielen erwächst meist aus einer persönlichen Betroffenheit angesichts der Gräuel der Kriege und einer vorschnellen Gleichsetzung der völlig unterschiedlichen Denk- und Handlungsebenen „Krieg“ und „Kriegsspiel“. Sie übersieht dabei in der Regel die Vielfalt dieser Spielgattung, die von einer abstrakten Symbolhandlung wie einer Fingerbewegung mit dem begleitenden Ruf „Peng, du bist tot, fall um!“, über historische Indianer- oder Ritterspiele, über Brettspiele wie das Schachspiel oder Bewegungsspiele wie das Völkerballspiel bis zu den Computerspielen mit galaktischen Fantasiegestalten reicht. Im weiteren Sinne zählen auch die großen Sportspiele wie etwa das Fußballspiel, bei dem jedermann problemlos von „Schießen“ und „Bomben“, von „Angriff“ und „Verteidigung“ spricht, zu den Symbolspielen mit kriegerischem Hintergrund. Unreflektierte Kritik übersieht, dass Spiel dort endet, wo aus dem Spiel blutiger Ernst wird. Sie verwechselt dabei die symbolische Handlungsebene des Spiels mit der Realität des brutalen tatsächlichen Krieges oder unterstellt unbewiesene und statistisch völlig abwegige Transfers zwischen den beiden unterschiedlichen Lebenswelten. Ähnlich anderen Imitationsspielen wie dem Arzt- oder Schulespielen folgt das Kriegsspielen nach Siegbert A. Warwitz der beobachteten oder fantasierten Wirklichkeit, nicht umgekehrt. Er weist ihm aus pädagogischer Sicht sogar eine mögliche wertvolle Perspektive zu, wo es gelingt, im Spiel Ängste zu verarbeiten oder dem Spielverhalten und Spielausgang in kreativer Weise positive Impulse zu geben. Dies verdeutlicht er etwa an der didaktisch aufgearbeiteten Version des Völkerballspiels, historisch eigentlich ein Genozit-Spiel, bei dem die symbolisch durch die „Waffe Ball“ auszurottenden Menschen des anderen „Volkes“ nach entsprechend veränderten Regeln sich durch eine Eigenleistung wieder selbst „verlebendigen können“. Gisela Wegener-Spöhring stellt fest, dass den Kriegsspielen mit der Chance, Aggressionen schadlos abzuleiten, auch eine wichtige psychologische Funktion zukommen kann. Mit kreativen Umwandlungen der Spielgedanken werden Eltern und Erzieher nach Warwitz wie Wegener-Spöring dem – ohnehin nicht verbietbaren, über die ganze Welt verbreiteten – Kriegsspiel und der Mentalität von Kindern besser gerecht als mit unüberlegten Verboten. Kriege im Tierreich. Kriegsähnliche Verhaltensweisen lassen sich auch im Tierreich beobachten. So führen rivalisierende Staaten (vor allem Ameisenstaaten) Kriege um Gebiete und Nahrung. Manche Ameisen-, Wespen-, Bienen- und Hornissenarten überfallen andere Staaten, um sie ihrer Rohstoffe und Nahrungsmittel zu berauben. Hierbei wird genau abgewogen, ob sich der Überfall auch lohnt – also der Verlust eigener Individuen durch den zu erwartenden Gewinn an Ressourcen in einem günstigen Verhältnis steht. Auch attackieren sich Ameisen, wenn ein Teil der Kolonie nicht mehr genetisch so homogen ist, wie der Rest (durch Gendrift oder schwindender Verwandtschaft zwischen den Königinnen). Auch bei Schimpansen wurden schon wiederholt kriegerische Auseinandersetzungen zwischen verfeindeten Gruppen beobachtet. In manchen Fällen versuchte eine Gruppe Schimpansen, das eigene Gebiet auf Kosten der Nachbarn zu vergrößern. Schon Jane Goodall berichtete über solche Beobachtungen. In anderen Fällen fühlten sich Schimpansen vermutlich durch Holzfäller bedroht und flohen auf das Territorium einer benachbarten Gruppe, die ihr Revier gegen die Flüchtlinge mit Gewalt verteidigte. Literatur. Krieg in der moralischen und theologischen Reflexion Kim Peek. Kim Peek (* 11. November 1951 in Salt Lake City, Utah; † 19. Dezember 2009 ebenda) war ein US-amerikanischer Inselbegabter (Savant-Syndrom). Ihn zeichnete ein außergewöhnliches Gedächtnisvermögen aus. Sein Gehirn wies seit seiner Geburt eine Anomalie auf – beide Gehirnhälften waren nur minimal miteinander verbunden, was möglicherweise zu seiner Inselbegabung geführt haben könnte. Kim (rechts) mit seinem Vater Fran Peek Peek war das Vorbild für die Figur des autistischen "Raymond Babbitt" im 1988 erschienenen Film Rain Man, durch den er weithin bekannt wurde. Zuletzt galt Peek als einer der bekanntesten Inselbegabten. Der Autismus-Forscher Darold Treffert bezeichnete ihn als „Mega-Savant“. Leben. Kim Peek kam mit so schweren geistigen Behinderungen zur Welt, dass die Ärzte seinen Eltern rieten, ihn in ein Heim zu geben. Sein Schädel war bereits bei der Geburt um ein Drittel größer als bei gesunden Kindern, die Nackenmuskeln konnten das Gewicht kaum halten. Als Kind fiel er dadurch auf, dass er beim Laufen und Sprechen um Jahre zurücklag, dafür aber sonderbare Gewohnheiten wie das Sortieren von Papierschnipseln zeigte, wobei er auf Störungen bei seiner Tätigkeit hysterisch reagierte. Er fing mit 16 Monaten an zu lesen und kannte mit vier Jahren acht Lexikon-Bände Wort für Wort auswendig. Bis Ende 1963, als er zwölf Jahre alt war, wurde seiner Behinderung keine weitere Beachtung geschenkt. Als er jedoch zur Bescherung an Weihnachten ein Gedicht aufsagen sollte, rezitierte er die Weihnachtsgeschichte aus dem Lukas-Evangelium von Kaiser Augustus bis zu den Hirten mit etwa 40 Zeilen aus der Bibel. Er hatte die Geschichte zuvor nie gelesen, sondern sie am selben Tag in der Kirche gehört und sich eingeprägt. Im Alter von 33 Jahren traf Peek auf einer Tagung der National Association for Retarded Citizens, des amerikanischen Behindertenverbandes, in Arlington (Texas) den Drehbuchautor Barry Morrow, der, fasziniert von Peeks Geschichte, diese im Film „Rain Man“ (erschienen 1988) verarbeitete. Peek setzte sich seit seinem Durchbruch in der Öffentlichkeit für behinderte Menschen ein. Ein Teil seines Engagements bestand in Öffentlichkeitsarbeit vor Studenten und Journalisten. Sein Vater, der ihn liebevoll „Kim-Puter” nannte - und bei dem er bis zuletzt wohnte, war dabei immer an seiner Seite. Dadurch hatten sich Peeks soziale Fähigkeiten überraschend verbessert. In den letzten Jahren kam zu den alten Interessen eine Liebe zur Musik hinzu. Peek konnte die Melodien der Platten seiner Mutter, die er in seiner Kindheit gehört hatte, zum Teil mit einem Finger am Klavier nachspielen. Er soll sich an jede Melodie erinnert haben können, die er einmal gehört hatte. Peek starb im Alter von 58 Jahren an den Folgen eines Herzinfarktes. Fähigkeiten. Peek hatte ein außergewöhnliches Erinnerungsvermögen. Er kannte laut eigener Aussage den Inhalt von 12.000 Büchern nahezu auswendig. Dabei genügte es, wenn er das Buch nur ein einziges Mal gelesen hatte. Jede Seite eines Buches brauchte er sich nur ca. sieben Sekunden anzusehen, um sich den vollständigen Inhalt zu merken. Er erfasste dabei mit jedem Auge eine Seite zur gleichen Zeit. Danach war er nicht bereit, das Buch noch einmal zu lesen. Nach dem Lesen konnte er den Inhalt zu 99 % korrekt wiedergeben. Er beschränkte sich konsequent auf Sachbücher, im Besonderen auf solche, die Fakten zusammenstellen. Neben dem Auswendiglernen von Büchern beherrschte Peek auch das Kalenderrechnen. Er kannte diverse Geschichtsdaten, Busverbindungen sowie das Straßennetz in den USA und Kanada und die Telefonvorwahlen und Postleitzahlen dieser Länder auswendig. Untersuchungen. Neueste Untersuchungen von Peeks Gehirn zeigten neben der Vergrößerung und der kaum vorhandenen Verbindung der beiden Gehirnhälften auch, dass der Übergang vom Großhirn zu den inneren Gehirnschichten kaum ausgeprägt war. Peeks Kleinhirn war zudem auffallend klein. Eine fehlende Verbindung der beiden Gehirnhälften zieht gemäß der modernen Neurobiologie einen ungebremsten Fluss von Informationen ins Bewusstsein nach sich, da die rechte und die linke Gehirnhemisphäre einander nicht intervenieren und so zum Beispiel Zugangsrechte zu Informationen der jeweils anderen Gehirnhälfte steuern können. Bisher kann aber kein Zusammenhang zwischen den neuroanatomischen Veränderung des Gehirns Kim Peeks und seinen außergewöhnlichen Fähigkeiten nachgewiesen werden. Auch wenn das seltene Fehlen einer Verbindung zwischen beiden Gehirnhälften vorkommt, muss das nicht zwangsläufig zu Funktionsstörungen führen. Kraftstoff. Ein Kraftstoff (auch Treibstoff) ist ein Brennstoff, dessen chemische Energie durch Verbrennung in Verbrennungskraftmaschinen (Verbrennungsmotor, Gasturbine, …) und Raketentriebwerken in Antriebskraft umgewandelt wird. Kraftstoffe werden überwiegend zum Antrieb von Fortbewegungsmitteln (Kraftfahrzeug, Flugzeug, Schiff, Rakete) verwendet. Da sie jeweils mittransportiert werden müssen, werden häufig Stoffe mit einer hohen Energiedichte eingesetzt. Aber auch stationäre Verbrennungsmotoren werden mit ihnen betrieben. Bei der Verbrennung wird als Oxidator meist der Luft-Sauerstoff verwendet, teils, vor allem bei Raketen, aber auch ein eigener Oxidator wie verflüssigter Sauerstoff, Lachgas oder Salpetersäure. Nomenklatur. In den meisten anderen Sprachen gibt es die Unterscheidung so nicht. So bedeutet z. B. im Englischen der Begriff "fuel" allgemein "Brennstoff". Dies schließt "Kraftstoffe" (manchmal "motor fuel" genannt) und "Treibstoffe" (manchmal "propellant" genannt) mit ein. Nicht als Kraftstoff bezeichnet werden üblicherweise Stoffe, die zwar als Energieträger für einen Antrieb dienen, bei denen aber keine chemische Energie freigesetzt wird, z.B. Wasser für eine Wasserturbine oder Uran für den Kernreaktor eines Nuklearantriebs. Vergleich von Kraftstoffen. Für die Reichweite eines Fahrzeugs sind neben dem Wirkungsgrad seiner Aggregate u. a. das Volumen des Tanks und die darin gespeicherte Energie ausschlaggebend. Der physikalische Vergleich der Heizwerte (kWh pro m³) zeigt, dass flüssige Treibstoffe optimal sind. Bei Gasen hängt der Energieinhalt stark vom Druck ab. Die Möglichkeit, einen Treibstoff in einem Motor einzusetzen, hängt nicht nur von Brenneigenschaften ab, sondern auch von der Auslegung des Motors und seiner Treibstoffzufuhr für die jeweiligen chemischen Eigenschaften des Treibstoffes und der ihm beigemischten Additive. Z. B. können sich Ventile und Ventilsitze, die nur für die Additive von Benzin ausgelegt worden sind, bei Betrieb mit Erdgas oder Autogas (keine Beimischung von Additiven) schneller abnutzen, deshalb rüsten verschiedene Fahrzeughersteller ihre Erdgasfahrzeuge mit speziellen für Erdgasbetrieb ausgelegten Motoren aus. Darüber hinaus muss nach dem Zündungsprinzip unterschieden werden, ob also Selbstzündung (Dieselmotor) oder Fremdzündung (Ottomotor) verwendet wird, bei Letzterem spielt die Klopffestigkeit eine wichtige Rolle. Alternative Kraftstoffe. Als Alternative Kraftstoffe werden Kraftstoffe bezeichnet, die herkömmliche aus Mineralöl hergestellte Kraftstoffe ersetzen können. Hierbei wird unterschieden zwischen Kraftstoffen aus fossilen Energieträgern und solchen, die aus biogenen Energieträgern hergestellt sind. Umwelt. Die bei der Verbrennung von Kraftstoffen freigesetzten Abgase bewirken Gesundheits- und Umweltschäden wie Sauren Regen und den Treibhauseffekt und somit die globale Erwärmung. Insbesondere CO2, CO und Stickoxide spielen dabei wichtige Rollen. Weiterhin ist das im Benzin befindliche Benzol erwiesenermaßen karzinogen. Art und Umfang der freigesetzten Schadstoffe sind im Wesentlichen von der Zusammensetzung des Kraftstoffes, der Bauart des Motors und (wenn genutzt) der Abgasnachbehandlung abhängig. In Deutschland regelt die 10. BImSchV die Zusammensetzung und Qualität der Kraftstoffe, um die Luftbelastungen zu mindern. Die Verordnung regelt die Beschaffenheit von Otto- und Dieselkraftstoffen, Gasöl, Biodiesel, Ethanol, Flüssiggas, Erdgas, Biogas und Pflanzenölkraftstoff. Kraftstoffpreisentwicklung. "Siehe auch: Motorenbenzin, Abschnitt Preise, Erdgasfahrzeuge, Abschnitt Kraftstoffpreise und Markttransparenzstelle für Kraftstoffe" 1 kg Erdgas entspricht ca. 1,5 Liter Super, ca. 1,3 Liter Diesel Quelle: http://www.iru.org/en_services_fuel_prices (nur Benzin & Diesel), http://www.ngvjournal.com/en/statistics/item/925-worldwide-fuel-prices (Benzin-, Diesel- und CNG-Preise) Kontinuumshypothese. Die Mächtigkeit des Kontinuums bleibt in ZFC unbestimmt. Die Kontinuumshypothese wurde 1878 vom Mathematiker Georg Cantor aufgestellt und beinhaltet eine Vermutung über die Mächtigkeit des Kontinuums, das heißt der Menge der reellen Zahlen. Dieses Problem hat sich nach einer langen Geschichte, die bis in die 1960er Jahre hineinreicht, als nicht entscheidbar herausgestellt, das heißt die Axiome der Mengenlehre erlauben in dieser Frage keine Entscheidung. Einfache Kontinuumshypothese. Weiter kann man zeigen, dass die Mächtigkeit des Kontinuums mit der mit formula_5 bezeichneten Mächtigkeit der Potenzmenge von formula_1 übereinstimmt. Eine häufig anzutreffende Formulierung der Kontinuumshypothese lautet daher Verallgemeinerte Kontinuumshypothese. Da die erste Formulierung kein Auswahlaxiom verwendet, sind die nachfolgenden scheinbar schwächer. Tatsächlich folgt in der Zermelo-Fraenkel-Mengenlehre (ZF) aus der zuerst genannten Formulierung der verallgemeinerten Kontinuumshypothese nach einem Satz von Sierpiński das Auswahlaxiom. Daher sind die gegebenen Formulierungen vor dem Hintergrund der ZF-Mengenlehre äquivalent. Lösung. Anders ausgedrückt: Auch die "Negation" der Kontinuumshypothese ist zu ZFC relativ widerspruchsfrei; die Kontinuumshypothese ist also insgesamt unabhängig von ZFC. Für diesen Beweis erhielt Cohen 1966 die Fields-Medaille. Daher kann die Kontinuumshypothese im Rahmen der Standardaxiome der Mengenlehre weder bewiesen noch widerlegt werden. Sie kann, ebenso gut wie ihre Negation, als neues Axiom verwendet werden. Damit ist sie eines der ersten relevanten Beispiele für Gödels ersten Unvollständigkeitssatz. Die verallgemeinerte Kontinuumshypothese ist ebenfalls unabhängig von der Zermelo-Fraenkel-Mengenlehre mit Auswahlaxiom (ZFC). Dies folgt sofort aus der Beobachtung, dass die Verneinung von CH ja erst recht eine Verneinung von GCH ist und in Gödels konstruierbarem Universum formula_23 sogar GCH gilt. Der Satz von Silver schränkt die Möglichkeiten für die kleinste Kardinalzahl, für die die verallgemeinerte Kontinuumshypothese zum ersten Mal verletzt ist, ein. Der Satz von Easton zeigt, dass die verallgemeinerte Kontinuumshypothese für reguläre Kardinalzahlen in nahezu beliebiger Weise verletzt werden kann. Bedeutung. In der berühmten Liste von 23 mathematischen Problemen, die David Hilbert dem Internationalen Mathematikerkongress 1900 in Paris vortrug, steht die Kontinuumshypothese an erster Stelle. Viele Mathematiker hatten im Umfeld dieses Problems bedeutende Resultate beigetragen, weite Teile der heute sogenannten deskriptiven Mengenlehre ranken sich um die Kontinuumshypothese. Da die reellen Zahlen eine für viele Wissenschaften grundlegende Konstruktion darstellen und da Mathematiker platonischer Ausrichtung den Anspruch erheben, die Wirklichkeit zu beschreiben, war das Unentscheidbarkeitsergebnis unbefriedigend. Nach dem Beweis der Unabhängigkeit wurden die Versuche fortgesetzt, durch Zunahme möglichst natürlicher Axiome zur ZFC die Kontinuumshypothese doch noch zu entscheiden, zum Beispiel durch Axiome, die die Existenz großer Kardinalzahlen postulieren. Auch Gödel war davon überzeugt, dass sich die Hypothese so widerlegen ließe. In den 2000er Jahren meinte der Mengentheoretiker William Hugh Woodin, Argumente gegen die Gültigkeit der Kontinuumshypothese gefunden zu haben. Später wandte er sich von dieser Auffassung ab und konstruierte ein Modell für Kardinalzahlen, das er Ultimate L nannte, in Anlehnung an Gödels konstruierbares Universum formula_23. In diesem Universum ist die verallgemeinerte Kontinuumshypothese wahr. Anwendungsbeispiele. Gelegentlich werden Aussagen unter der Annahme gemacht, dass die Kontinuumshypothese wahr sei. So ergeben sich beispielsweise bei der Potenzierung von Kardinalzahlen mit der GCH als Voraussetzung erhebliche Vereinfachungen. Es ist jedoch üblich, diese Voraussetzung dann explizit zu erwähnen, während die Verwendung des ZFC-Axiomensystems oder äquivalenter Systeme in der Regel unerwähnt bleibt. Beispiel aus der Maßtheorie. Im Folgenden sei die Kontinuumshypothese (und das Auswahlaxiom) als wahr angenommen und es wird mit ihrer Hilfe eine nicht messbare Teilmenge der Ebene formula_27 konstruiert. Man beachte, dass dies auch ohne Kontinuumshypothese (aber mit Auswahlaxiom) möglich ist. Sei formula_28 die kleinste überabzählbare Ordinalzahl. Nach der Kontinuumshypothese gibt es dann eine Bijektion formula_29. Die ordinale Ordnung formula_30 auf formula_28 werde mit Hilfe dieser Bijektion auf formula_32 übertragen: Für formula_33 gelte: formula_34. Es sei formula_35. Mit formula_36 bezeichnen wir die Indikatorfunktion der Menge formula_37, also formula_38, mit formula_39 genau dann, wenn formula_40. Für jedes formula_41 sei formula_42. Diese Menge ist für jedes formula_43 abzählbar, da formula_44 als abzählbare Ordinalzahl nur abzählbar viele Vorgänger hat. Insbesondere ist daher formula_45 immer eine Lebesgue-Nullmenge: formula_46. Weiter definieren wir für jedes formula_47 die Menge formula_48; das Komplement jeder dieser Mengen ist abzählbar, somit gilt formula_49. Nimmt man an, dass formula_36 messbar ist, so gilt unter Verwendung des Lebesgue-Integrals und des Lebesgue-Maßes formula_51 Die Funktion formula_36 ist also eine Funktion, die nach dem Satz von Tonelli nicht Lebesgue-messbar sein kann, die Menge formula_37 ist damit auch nicht messbar. Beispiel aus der Funktionentheorie. Man beachte, dass in der Wertemenge die Funktion formula_62 variiert und der Punkt formula_63 fest ist, die Wertemenge und auch die Anzahl ihrer Elemente hängt von formula_63 ab. Wir stellen nun die Frage, ob diese Aussage richtig bleibt, wenn wir endlich durch abzählbar ersetzen. Wir fragen nach der Gültigkeit von Cayman Islands. Die Cayman Islands (auch Kaimaninseln/Kaiman-Inseln) sind eine Inselgruppe in der Karibik und britisches Überseegebiet des Vereinigten Königreichs. Geographie. Die Gipfel eines unterseeischen Gebirges, des bis nach Kuba reichenden Kaimanrückens, bilden die Inselgruppe. Ihren Namen verdanken die Inseln den hier lebenden Echsenarten, den Kaimanen, die man zu Beginn mit Krokodilen verwechselt hatte. Die Inselgruppe besteht aus den drei Inseln Grand Cayman, Little Cayman und Cayman Brac und liegt etwa 350 km südlich von Kuba. Die Inseln haben zusammen etwa eine Fläche von 262 km², wobei Grand Cayman mit 197 km² Fläche die größte ist. Im Norden der Insel Grand Cayman befindet sich zwischen Rum Point und Conch Point die 80 km² große Bucht North Sound. Die Bucht ist seicht, mit Tiefen von zumeist 1,8 bis 3,8 Metern. Distrikte. Bei den Einwohnerzahlen von 2009 sind Little Cayman und Cayman Brac zu "Sister Islands" zusammengefasst. Bevölkerung. Die Bevölkerung konzentriert sich in den drei südwestlichen Distrikten der Hauptinsel Grand Cayman George Town (Hauptstadt), West Bay und Bodden Town, die eine vielfach höhere Bevölkerungsdichte aufweisen als alle übrigen Distrikte. Hier leben auf 22 % der Fläche 89 % der Bevölkerung; in diesem Bereich beträgt die Bevölkerungsdichte 618 Einwohner/km². Der Rest des Territoriums weist eine durchschnittliche Bevölkerungsdichte von 22 Einwohnern/km² auf. Etwa 90 % der 45.436 Einwohner leben auf der größten Insel Grand Cayman. Die Jahrhunderte brachten eine bunt gemischte Bevölkerung hervor, die sehr stolz auf die Harmonie unter den Bewohnern unterschiedlicher Herkunft ist. Sitten und Gebräuche sind nach wie vor von den ersten Siedlern im 18. Jahrhundert geprägt, die von den britischen Inseln kamen. Die dominierende Religion ist das Christentum. Geschichte und Politik. Christoph Kolumbus entdeckte die Inselgruppe während seiner vierten Entdeckungsreise am 10. Mai 1503, nachdem seine Schiffe vom vorgesehenen Kurs abgetrieben waren. Wegen der vielen dort vorgefundenen Schildkröten gab er der Inselgruppe den Namen „Las Tortugas“. Dem portugiesischen Kartografen im Dienste Spaniens Diego Ribero fielen die zahlreichen Echsen auf, sodass er auf seiner Turiner Karte von 1523 die Inseln „Lagartos“ nannte. Im 17. Jahrhundert erhielt die Inselgruppe schließlich den Namen „Las Caymanas“ nach den ebenfalls dort vorkommenden Salzwasserkrokodilen. Während dieses Jahrhunderts dienten die Cayman Inseln verschiedenen europäischen Flotten zur Süßwasseraufnahme und der Proviantergänzung durch den Fang von Schildkröten. Der erste englische Ankömmling war Sir Francis Drake, der 1586 mit einer Flotte von 23 Schiffen auf Cayman landete. Little Cayman und Cayman Brac waren die ersten Inseln des Archipels, auf denen zwischen 1661 und 1671 von Jamaika aus Siedlungen entstanden. Sie wurden jedoch schnell wieder wegen der zahlreichen Plünderungen durch spanische Freibeuter aufgegeben. Im Vertrag von Madrid von 1670 erkannte Spanien die englische Oberhoheit über Jamaika und die Kaimaninseln an. Bis in das 18. Jahrhundert hinein blieben die Caymans weiter Stützpunkt von Piraten, unter ihnen auch Edward „Blackbeard“ Teach, einer der bekanntesten englischen Seeräuber dieser Zeit. In den 1730er Jahren entstanden die ersten dauerhaften Siedlungen, deren Bewohner vorwiegend Landwirtschaft betrieben. Schwerpunkt waren Anbau von Baumwolle und Zuckerrohr, bei dem bereits Sklaven eingesetzt wurden. 1773 erfasste die Royal Navy 39 Familien, von denen die meisten in Bodden Town ansässig waren. Im Jahr 1788 erlitten zehn jamaikanische Handelsschiffe auf ihrem Weg nach England vor der Küste von Grand Cayman Schiffbruch. Auf einem der Schiffe befand sich ein Angehöriger des englischen Königshauses. Aus Dankbarkeit über die Rettung sämtlicher Schiffbrüchiger befreite König Georg III. die Inselgruppe von sämtlichen Steuern und Abgaben. Ihre erste Selbstverwaltung erhielten die Cayman Inseln 1831 mit der Einrichtung von fünf Distrikten und einer eigenen Legislative. Als erster Regierungssitz fungierte Bodden Town, an der Südküste von Grand Cayman gelegen. Die Sklaverei wurde 1835 abgeschafft, als es noch über 950 Sklaven auf den Inseln gab. Zu Beginn des 20. Jahrhunderts wurde die Bevölkerung auf 5000 Einwohner geschätzt. Neben der Landwirtschaft wurde die Schifffahrt eine wichtige Einnahmequelle, die etwa 20 % der Arbeitsplätze bot. Das an der Westküste von Grand Cayman gelegene George Town wurde Anfang des Jahrhunderts neuer Regierungssitz. Als 1937 mit der "Atlantis" das erste Kreuzfahrtschiff die Caymans ansteuerte, wurde die Epoche des Tourismus eingeläutet. 1950 wurde von dem Engländer Benson Greenall das erste Hotel eröffnet, 1953 nahm der erste Flugplatz auf Grand Cayman den Betrieb auf. Bis 1962 bildeten die Cayman Inseln mit Jamaika ein gemeinsames britisches Kolonialgebiet. Während Jamaika 1962 unabhängig wurde, entschieden sich die Caymans weiterhin für den kolonialen Status als britische Kronkolonie. 1971 wurde erstmals ein britischer Gouverneur eingesetzt und 1972 trat eine neue Verfassung in Kraft. Seit Mai 2002 sind die Cayman Islands Mitglied der CARICOM. Der Hurrikan Ivan richtete 2004 schwere Schäden auf den Inseln an, die erst ein Jahr später mit einem speziellen Programm zum Wiederaufbau beseitigt werden konnten. Wirtschaft. Der Hafen von George Town Frühere Hauptexportgüter waren Schildkröten und Muscheln. Heute gilt die Hauptstadt George Town als Steuerparadies und fünftgrößter Finanzplatz der Welt. Circa 200.000 Firmen sind auf den Inseln registriert (Stand 2013). Die meisten international tätigen Banken, auch die größten deutschen, sind hier mit Filialen präsent. Zudem sind rund 40 % aller Hedge-Fonds auf den Cayman Islands angesiedelt, womit die Cayman Islands der größte Hedge-Fonds-Standort weltweit sind. Begünstigt wird dieser Wirtschaftszweig durch günstige Rahmenbedingungen wie die hier herrschende Steuerfreiheit. Die Cayman Islands gelten als Steueroase. Sie tauchen auf der "Grey List" auf, welche die OECD im Vorfeld des G20-Treffens im Jahr 2009 erstellt hat. Aufgrund von Zusagen bezüglich der Einhaltung von diversen Steuerstandards tauchen die Cayman Islands nicht auf der Schwarzen Liste der Steuerparadiese auf. Die deutsche Bundesregierung stuft die Inseln nicht als Steueroase ein (Januar 2010). Ihrem Ruf wollen die Inseln durch bilaterale Abkommen entgegenwirken, die sie beispielsweise mit Irland, Japan, den Niederlanden und Südafrika abgeschlossen haben. Die Staatsausgaben der Cayman Islands werden ausschließlich über Verwaltungsgebühren und eine 20-prozentige Zollabgabe auf alle Importgüter finanziert. Auf Kraftfahrzeuge wird nach Wert gestaffelt Zoll in Höhe von 27,5 % bis 40,0 % erhoben. In letzter Zeit reichen diese Einnahmen zur Haushaltsfinanzierung allerdings nicht mehr aus, so dass das britische Außenministerium auf die Einführung weiterer Abgaben drängt. Als Zahlungsmittel werden neben der Landeswährung "Cayman Island Dollar" (CI$) weitestgehend auch der US-Dollar und das Britische Pfund akzeptiert. Verkehr und Infrastruktur. Auf den Cayman Islands herrscht Linksverkehr. Grand Cayman und Cayman Brac haben zusammen 785 km befestigte Straßen. Im Jahr 2000 waren 1400 Schiffe auf den Inseln registriert. 2008 gab es 683 Festnetztelefone, 668 Mobiltelefone und 413 Internetnutzer pro 1000 Einwohner. Tourismus. 2008 besuchten 303.000 Touristen die Inseln. Circa 1,7 Millionen weitere Besucher kommen jährlich mit Kreuzfahrtschiffen für einige Stunden nach George Town. Ein-/Ausreise. Bürger aus der EU bzw. aus Schengen-Mitgliedsstaaten benötigen für die Einreise kein Visum, vorgeschrieben ist lediglich ein bis zur Rück- oder Weiterreise gültiger Reisepass und ein Rück- oder Weiterreiseticket. Sehenswürdigkeiten. Vor allem die Hauptinsel Grand Cayman ist für ihre Riffe bekannt. Die Unterwasserwelt rund um die Inseln ist eine besondere Touristenattraktion und wird seit 1978 durch mehrere Gesetze umfangreich geschützt. Zu den Sehenswürdigkeiten der Hauptstadt George Town gehören unter anderem der "Glockenturm für König Georg V.", die "Legislative Assembly", das "Courts Building" und das "General Post Office". An der Uferpromenade zeigt das "Cayman Maritime and Treasure Museum" unterschiedlichste Ausstellungsstücke. Ferner sind im "McKee's Museum" Schätze aus Wracks aus dem 16./17. Jahrhundert zu bestaunen. George Town ist auch der bevorzugte Ort für zollfreien Einkauf: Internationale Luxusgüter sowie Schmuck, in den zum Teil einheimische Materialien, wie Schwarze Korallen, eingearbeitet sind, sind hier günstig zu erstehen. Eine weitere Spezialität der Inseln ist der Rum-Kuchen, der von verschiedenen Anbietern hergestellt wird und sich in den letzten Jahren zu einem der erfolgreichsten Exportartikel entwickelt hat. In "Bodden Town", der früheren Hauptstadt der Inselgruppe, liegt das Höhlensystem "Pirate’s Caves", in dem im 18. Jahrhundert Piraten Zuflucht und Schutz fanden. Rum Point im Norden der Insel bietet typisches Karibikflair. Auf der Sandbank "Stingray City" leben halbzahme Stachelrochen (southern stingrays), die man füttern kann. Die "Cayman Turtle Farm" am "Northwest Point" ist die einzige ihrer Art mit grünen Schildkröten. Vor Cayman Brac liegt seit 1996 ein gesunkenes russisches Kriegsschiff, die umbenannte "MV Capt. Keith Tibbetts", mit vier Deckkanonen. Sie ist das einzige per Tauchgang erkundbare russische Kriegsschiff der westlichen Hemisphäre. Die kleinste der Inseln, Little Cayman, ist einer der letzten unberührten Orte der Karibik mit einem der größten Steingärten der Region für Pelikane und Kormorane, außerdem ist sie eines der besten Gebiete der westlichen Welt zum Lachsangeln. Bildung. Die Schulpflicht beginnt mit einem Alter von fünf Jahren und dauert zwölf Jahre. Sport. Fußball auf den Cayman Islands ist sehr beliebt. Die Inseln haben 1976, 1984, 1988, 1992, 1996, 2000, 2004, 2008 und 2012 bei Olympischen Sommerspielen teilgenommen. In den Jahren 2010 und 2014 nahmen sie an den Olympischen Winterspielen teil. 2012 fand die Squash-Weltmeisterschaft der Frauen auf den Inseln statt. Coffein. Coffein (auch Koffein, Tein oder Thein'") ist ein Alkaloid aus der Stoffgruppe der Xanthine und gehört zu den psychotropen Substanzen aus der Gruppe der Stimulantien. Coffein ist der anregend wirkende Bestandteil von Genussmitteln wie Kaffee, Tee, Cola, Mate, Guaraná, Energy-Drinks und (in geringeren Mengen) von Kakao. In reiner Form tritt es als weißes, geruchloses, kristallines Pulver mit bitterem Geschmack auf. Coffein ist weltweit die am häufigsten konsumierte pharmakologisch aktive Substanz. Geschichte. Friedlieb Ferdinand Runge, Entdecker des Coffeins Auf Anregung Goethes untersuchte der Apotheker und Chemiker Friedlieb Ferdinand Runge Kaffeebohnen mit dem Ziel, die wirksame Substanz im Kaffee zu finden. 1820 gelang es Runge erstmals, aus den Kaffeebohnen reines Coffein zu isolieren. Er kann somit als Entdecker des Coffeins angesehen werden. Unabhängig von Runge gelang im Jahre 1821 den französischen Apothekern Pierre Joseph Pelletier, Joseph Bienaimé Caventou und Pierre-Jean Robiquet gemeinsam ebenfalls die Isolation des Coffeins. 1832 konnten Christoph Heinrich Pfaff und Justus von Liebig mit Hilfe von Verbrennungsdaten die Summenformel C8H10N4O2 bestimmen. Die chemische Struktur wurde 1875 von Ludwig Medicus als 1,3,7-Trimethylxanthin angenommen. Die vorerst nur angenommene Struktur konnte Emil Fischer 1895 durch die erste Synthese des Coffeins bestätigen. Der Wirkungsmechanismus wurde erst im 20. Jahrhundert erfolgreich erforscht. Der in Grüntee und Schwarztee enthaltene Wirkstoff, in der Umgangssprache oft als „Tein“, „Thein“ oder „Teein“ bezeichnet, ist ebenfalls Coffein. Diese früher übliche Unterscheidung zwischen Coffein aus Kaffee und Tein aus Tee beruht auf der unterschiedlichen Freisetzung des Alkaloids: Coffein aus Kaffee ist an einen Chlorogensäure-Kalium-Komplex gebunden, der nach der Röstung und Kontakt mit der Magensäure sofort Coffein freisetzt und damit schnell wirkt. Coffein aus Tee hingegen ist an Polyphenole gebunden, wobei das Alkaloid erst im Darm freigesetzt wird. Die Wirkung tritt dann später ein und hält länger an. Vorkommen. Coffein ist der Hauptwirkstoff des Kaffees. Außer in den Samen des Kaffeestrauchs kommt es auch in über 60 anderen Pflanzen vor, wie zum Beispiel dem Teestrauch, Guaraná, dem Matebaum und der Kolanuss. Die chemisch mit Coffein eng verwandten Wirkstoffe Theophyllin und Theobromin finden sich ebenso in zahlreichen Pflanzenspezies. Ungeröstete Kaffeebohnen enthalten je nach Sorte etwa 0,9–2,6 % Coffein; nach der Röstung verbleiben 1,3–2,0 %. Dabei enthalten die "Coffea-arabica"-Sorten weniger Alkaloid als die "Coffea-robusta"-Typen. Fermentierte und getrocknete Teeblätter, sogenannter "Schwarzer Tee", enthalten – ebenso wie unfermentierter "Grüner Tee" – etwa 3–3,5 % Coffein. In den Pflanzen (insbesondere in ungeschützten Keimlingen) wirkt es als Insektizid, indem es bestimmte Insekten betäubt oder tötet. Gewinnung. Coffein kann mittels Extraktion aus Teeblättern oder Kaffeebohnen, zum Beispiel mit einem Soxhlet-Aufsatz, gewonnen werden. Es fällt in großen Mengen bei der industriellen Entkoffeinierung von Kaffee an, wobei als Extraktionsmittel entweder Dichlormethan, Essigsäureethylester oder überkritisches Kohlenstoffdioxid verwendet wird. Daneben wird Coffein hauptsächlich mittels Traube-Synthese industriell hergestellt. Eigenschaften. Coffein ist ein Trivialname, der der Substanz wegen des Vorkommens in Kaffee gegeben wurde, der aber nichts über die chemische Zusammensetzung aussagt. Nach der systematischen IUPAC-Nomenklatur lautet die vollständige Bezeichnung 1,3,7-Trimethyl-2,6-purindion, eine Kurzform 1,3,7-Trimethylxanthin – nach der chemischen Ableitung des Coffeins vom Xanthin. Es gehört zur Gruppe der natürlich vorkommenden Purine ("Purinalkaloide"), genauso wie die strukturähnlichen Dimethylxanthine Theophyllin und Theobromin. Die Struktur des Coffeins besteht aus einem Doppelring, an dem sich außen mehrere Substituenten befinden. Dieser Doppelring im Kern entspricht der Grundstruktur des Purins. Er besteht aus zwei Ringen, einem 6er- und einem 5er-Ring, die jeweils zwei Stickstoff-Atome enthalten. Außen findet man an C-2 und C-6 jeweils ein doppelt gebundenes Sauerstoff-Atom. Beim Coffein befindet sich an N-1, N-3 und N-7 noch jeweils eine Methylgruppe (-CH3). Daneben gibt es noch das Isocoffein, bei dem eine der Methylgruppen nicht am N-7, sondern am N-9 hängt. Dem Theophyllin fehlt von den drei Methylgruppen die an N-7, dem Theobromin fehlt die an N-1. Coffein-Kristalle nach Umkristallisation aus absolutem Ethanol Coffein bildet bei Kristallisation aus Wasser ein kristallines Hydrat in Form langer Nadeln. Stöchiometrisch enthält das Hydrat im Kristallgitter 0,8 mol Wasser pro Mol Coffein. Pharmakologische Wirkungen. Coffein hat zwar ein relativ breites Wirkungsspektrum, doch ist es in geringen Dosen in erster Linie ein Stimulans. Darunter versteht man im Allgemeinen eine Substanz mit anregender Wirkung auf die Psyche, die Antrieb sowie Konzentration steigert und Müdigkeitserscheinungen beseitigt. Es wird eine "anregende" von einer "erregenden" Wirkung des Coffeins unterschieden, wobei für letztere eine höhere Dosis erforderlich ist. Bei niedriger Dosierung tritt fast ausschließlich die zentral anregende Wirkung des Coffeins hervor, es werden also vor allem psychische Grundfunktionen wie Antrieb und Stimmung beeinflusst. Durch eine höhere Dosis kommt es auch zu einer Anregung von Atemzentrum und Kreislauf. Während höhere Coffeinkonzentrationen auch die motorischen Gehirnzentren beeinflussen, wirkt das Coffein in geringeren Konzentrationen hauptsächlich auf die sensorischen Teile der Hirnrinde. Aufmerksamkeit und Konzentrationsvermögen werden dadurch erhöht; die Steigerung von Speicherkapazität und Fixierung (mnestische Funktionen) erleichtert den Lernprozess. Mit der Beseitigung von Ermüdungserscheinungen verringert sich das Schlafbedürfnis. Die Erhöhung des Blutdrucks ist gering und verschwindet bei längerfristiger Einnahme; ein Effekt kann erst wieder beobachtet werden, nachdem die Coffeineinnahme mindestens 24 h abgesetzt wurde. Verursacht wird die milde Blutdruckerhöhung durch die zentralnervöse Stimulierung (Erregung des vasomotorischen Zentrums); dem wirkt eine gleichzeitige Senkung durch die Herabsetzung des peripheren Widerstandes kompensatorisch entgegen. Die Stimmung kann sich bis zu leichter Euphorie steigern. Infolge von Assoziationsbahnung verkürzen sich die Reaktionszeiten, was zu einer Beschleunigung des psychischen Tempos führt. Gleichzeitig kommt es zu einer – nur minimalen – Verschlechterung der Geschicklichkeit, speziell bei Aufgaben, die exaktes Timing oder komplizierte visuomotorische Koordination erfordern. Das breite Wirkungsspektrum verdankt Coffein mehreren Wirkungskomponenten, die auf molekularer Ebene in bestimmte Zellvorgänge eingreifen. Coffein kann die Blut-Hirn-Schranke fast ungehindert passieren und entfaltet seine anregende Wirkung hauptsächlich im Zentralnervensystem. Einer neuen Studie nach sollte Coffein nicht nur die Konzentrationsfähigkeit steigern, die Vigilanz und Aufmerksamkeit verbessern und die Geschwindigkeit von Denkprozessen erhöhen, sondern auch das Langzeitgedächtnis verbessern. Coffein in 250 ml Filterkaffee). Ein dreißig Kilogramm schweres Kind kann so auf eine Konzentration von 5–12 Milligramm Coffein pro Kilogramm Körpergewicht kommen; eine Dosis, die ausreicht, Nervosität und Schlafstörungen zu verursachen. Coffein stand von 1984 bis 2004 auf der Dopingliste des Internationalen Olympischen Komitees, allerdings waren die Grenzwerte so hoch, dass Sportler durchaus Kaffee zum Frühstück trinken konnten. Dennoch wurde am 25. Juli 2000 der spanische Radprofi Óscar Sevilla (Team Kelme) „positiv“ auf Coffein getestet und daraufhin von seinem Verband von der Straßen-Weltmeisterschaft ausgeschlossen. Die World Anti-Doping Agency hat mit Wirkung zum 1. Januar 2004 das Stimulans Coffein von der Liste der verbotenen Substanzen gestrichen. Pasman u. a. (1995) verglichen die Auswirkungen von 0, 5, 9 bzw. 13 Milligramm pro Kilogramm Körpergewicht eine Stunde vor Belastung und stellten fest, dass alle Dosierungen größer als 0 eine signifikante leistungssteigernde Wirkung im Radfahrtest (80 % Wmax) hatten. Die niedrigste Dosierung lag unterhalb der Festsetzungsgrenze als Doping. Pharmakokinetik. Der Metabolismus von Coffein ist Spezies-spezifisch. Bei Menschen wird etwa 80 % des aufgenommenen Coffeins durch das Enzym Cytochrom P450 1A2 zu Paraxanthin demethyliert und weitere etwa 16 % werden in der Leber zu Theobromin und Theophyllin umgesetzt. Durch weitere partielle Demethylierung und Oxidation entstehen Urate- und Uracil-Derivate. Aus dem Urin können etwa ein Dutzend unterschiedlicher Coffein-Metaboliten extrahiert werden, aber weniger als 3 % des ursprünglich aufgenommenen Coffeins. Die Hauptausscheidungsprodukte im Urin sind Di- und Monomethylxanthin sowie Mono-, Di- und Trimethylharnsäure. Die Pharmakokinetik von Coffein hängt von vielen inneren und äußeren Faktoren ab. Die Resorption von Coffein über den Magen-Darm-Trakt in die Blutbahn erfolgt sehr rasch und nahezu vollständig: etwa 45 Minuten nach der Aufnahme ist praktisch das gesamte Coffein aufgenommen und steht dem Stoffwechsel zur Verfügung (Bioverfügbarkeit: 90–100 %). Mit kohlensäurehaltigen Getränken wird Coffein sogar noch rascher aufgenommen. Die maximale Plasmakonzentration wird 15 bis 20 Minuten nach der Aufnahme des Coffeins erreicht. Die Verabreichung von 5 bis 8 mg Coffein/kg Körpergewicht resultiert in einer Plasma-Coffeinkonzentration von 8–10 mg/l. Die biologische Halbwertszeit von Coffein im Plasma beträgt zwischen 2,5 und 4,5 Stunden (andere Quellen sprechen von 3 bis 5 h) bei gesunden Erwachsenen. Dagegen erhöht sich die Halbwertszeit auf im Mittel 80 Stunden (36–144 h) bei Neugeborenen und auf weit über 100 Stunden bei Frühgeburten. Bei Rauchern "reduziert" sich die Coffein-Halbwertszeit um 30–50 %, während sie sich bei Frauen, die orale Verhütungsmittel einnehmen, "verdoppelt". Bei Frauen, die sich im letzten Trimenon der Schwangerschaft befinden, steigt sie auf 15 Stunden an. Ferner ist bekannt, dass das Trinken von Grapefruitsaft vor der Coffeinzufuhr die Halbwertszeit des Coffeins verlängert, da der Bitterstoff der Grapefruit die Metabolisierung des Coffeins in der Leber hemmt. Bei stillenden Müttern hat ein Kaffeekonsum von weniger als zwei Tassen am Tag keinen Einfluss auf das nächtliche Schlafverhalten des Säuglings. Analytik. Zur Analytik des Coffeins werden chromatographische Verfahren bevorzugt. Insbesondere die Gaschromatographie, die HPLC und Kopplungen dieser Trenntechniken mit der Massenspektrometrie sind in der Lage, die geforderte Spezifität und Sensitivität bei der Analytik komplexer Matrices in der physiologischen Forschung und in der lebensmittelchemischen Analytik zu gewährleisten. In der pharmazeutischen Analytik wird auch die Dünnschichtchromatographie zur qualitativen und quantitativen Bestimmung von Coffein eingesetzt. Auch Enzymimmunoassays (EIA) für die Routineanalytik von Serum- oder Harnproben stehen zur Verfügung. Die damit erzielten Ergebnisse können in Zweifelsfällen durch GC-MS- oder HPLC-MS-Verfahren überprüft werden. Verwendung in Lebens- und Genussmitteln. Isoliertes natürliches oder synthetisches Coffein wird wegen seiner anregenden Wirkung manchen Erfrischungsgetränken (Cola-Getränke), Energy-Drinks und Süßwaren zugesetzt. Adjuvante Schmerz- und Migränetherapie. Coffein erhöht die analgetische Wirkstärke von Acetylsalicylsäure oder Paracetamol um den Faktor 1,3 bis 1,7, so dass deren Dosis in Kombinationsarzneimitteln entsprechend reduziert werden kann. Solche coffeinhaltigen Kombinationsschmerzmittel sind besonders auch in der Behandlung des Migränekopfschmerzes angezeigt. In Kombination mit dem Mutterkornalkaloid Ergotamin wird Coffein ebenfalls zur Behandlung des Migräneanfalls verwendet. Behandlung von Atemstillständen des Neugeborenen. "Coffeincitrat" wird unter dem Handelsnamen "Peyona" zur Behandlung der primären Apnoe (Atemstillstand ohne offensichtliche Ursache) bei Frühgeborenen angewendet. Apnoe bei Frühgeborenen bezeichnet ein Aussetzen der Atmung über mehr als 20 Sekunden. Da es nur wenige Patienten mit primärer Apnoe gibt – 32.000 Betroffene in der EU – gilt die Krankheit als selten und Coffeincitrat wurde am 17. Februar 2003 in dieser Indikation als Arzneimittel für seltene Leiden („Orphan-Arzneimittel“) ausgewiesen. Coffeincitrat wird als Infusionslösung (20 mg/ml) verabreicht. Die Lösung kann auch eingenommen werden und ist auf ärztliche Verschreibung erhältlich. Weitere Anwendungsgebiete. Coffein ist in Dosen von 50 bis 200 mg zur kurzfristigen Beseitigung von Ermüdungserscheinungen angezeigt. "Coffein-Natriumsalicylat", ein Salz des Coffeins, das im menschlichen Körper besser resorbiert wird als Coffein, wurde früher als Kreislauf- und Atemstimulans und Diuretikum verwendet. Heute ist diese Anwendung obsolet. Seit April 2014 hat "Coffeincitrat" zur Vorbeugung gegen die bronchopulmonale Dysplasie den Status eines Orphan-Arzenimittels. Kosmetische Verwendung. Coffein soll den Haarwuchs fördern, wie an der Friedrich-Schiller-Universität Jena entdeckt wurde, was eine Verwendung bei Haarausfall denkbar macht. Die heute auf dem Markt erhältlichen Koffein-Shampoos und Tinkturen stehen allerdings im Ruf, voreilige und wissenschaftlich nicht gerechtfertigte Versprechungen zu ihrer Wirksamkeit abzugeben. Coffeinhaltige Hautcremes werden zur Hautstraffung und -glättung, z. B. bei Cellulite, beworben. Gehalte in Lebens- und Genussmitteln sowie Medikamenten. Den folgenden Produkten wird üblicherweise synthetisch erzeugtes Coffein beigemischt. Teilweise wird aber auch natürliches Coffein, gewonnen bei der Kaffee-Entkoffeinierung, verwendet. Besonders sogenannten Wellness-Produkten wird häufig natürliches Coffein als Guaraná-Extrakt zugesetzt. Im Jahre 1997 erklärten Wissenschaftler in einem Appell an die Food and Drug Administration, es sei bedeutend, die Deklaration des Coffein-Gehalts in Lebensmitteln zur Pflicht zu machen. Konvention von Montevideo. Die Konvention von Montevideo über Rechte und Pflichten der Staaten ist ein Vertrag, der am 26. Dezember 1933 in Montevideo im Rahmen der "Seventh International Conference of American States" („Siebte Internationale Konferenz Amerikanischer Staaten“) von 20 amerikanischen Staaten unterzeichnet wurde. Es handelt sich bei dem Vertrag um regionales Völkervertragsrecht, das Bindungen nur für die Vertragsstaaten entfaltet. Auf dieser Konferenz in Montevideo erklärten der US-Präsident Franklin D. Roosevelt und der US-Außenminister Cordell Hull ihre Ablehnung bewaffneter Interventionen in inneramerikanischen Angelegenheiten. Damit sollte dem Eindruck des US-Imperialismus widersprochen werden. Dies wird auch "Good Neighbor Policy" genannt. Definition des Staates. Die Montevideo-Konvention legt somit die Definition des Staates sowie die Rechte und Pflichten der Staaten fest. Sie erweitert die Zusammengehörigkeit der drei klassischen Voraussetzungen (nach der Jellinekschen Trias der konstitutiven Elemente des Staatsbegriffs) um eine vierte Bedingung: die aus einer äußeren Souveränität ("ausschließliche Völkerrechtsunmittelbarkeit") folgende Fähigkeit zur Aufnahme auswärtiger Beziehungen. Diese kann nach der allgemeinen Staatenpraxis jedoch nicht als notwendiges Erfordernis und als „irrelevant für die Staatlichkeit angesehen“ werden. Der erste Satz des Artikels 3 legt fest, dass „Die politische Existenz eines Staates unabhängig von seiner Anerkennung durch die anderen Staaten ist.“ (engl. "“The political existence of the state is independent of recognition by the other states.”") Dies wird als die "Deklarative Theorie der Souveränität" bezeichnet. Mehrfach wurde hinterfragt, ob diese Kriterien ausreichend sind, da sie nicht vollständig anerkannten Staaten wie der Republik China "(Taiwan)" oder prinzipiell nicht anerkannten Gebilden wie dem Fürstentum Sealand einen Status als Staat zuerkennen. Entsprechend der alternativen "Konstitutiven Theorie der Souveränität" existiert ein Staat nur dann, wenn dieser von anderen Staaten anerkannt würde. Kurd Laßwitz. Auf zwei Planeten (Originalausgabe, Emil Felber, Weimar 1897) Kurd Laßwitz (* 20. April 1848 in Breslau; † 17. Oktober 1910 in Gotha; eigentlich "Carl Theodor Victor Kurd Laßwitz") war ein deutscher Schriftsteller. Er publizierte zudem unter dem Pseudonym "L. Velatus" und gilt als Begründer der deutschsprachigen Science Fiction. Sein Roman Auf zwei Planeten aus dem Jahr 1897 gehört zu den wichtigen deutschen Science-Fiction-Romanen und wurde in zahlreiche Sprachen übersetzt. Leben. Kurd Laßwitz – Sohn des Unternehmers und Politikers Karl Wilhelm Laßwitz – studierte Mathematik und Physik an den Universitäten in Breslau und Berlin. 1873 folgte die Promotion „magna cum laude“ mit einer Arbeit»über Tropfen, welche an festen Körpern hängen und der Schwerkraft unterworfen sind«. Im Folgejahr legte er das Staatsexamen für den höheren Schuldienst in den Fächern Mathematik, Physik, Philosophie und Geographie ab. 1876 siedelte er nach Gotha über. Dort trat er eine Stelle als Gymnasiallehrer am Ernestinum in Gotha an, wo unter anderem Hans Dominik sein Schüler war. 1884 erfolgte die laufbahnübliche Ernennung zum Gymnasialprofessor und 1909 zum Hofrat. Letzteres verdankt er besonders seinem Wirken in der bildungsbürgerlichen „Mittwochsgesellschaft zu Gotha“, die mit populären Vorträgen aus dem Bereich von Naturwissenschaft, Literatur und Philosophie zur Volksbildung beitrug. Die "Mittwochsgesellschaft" war 1884 gegründet worden, was wesentlich auf der Initiative von Laßwitz selbst basierte. Im Jahr 1884 wurde er zum Mitglied der Leopoldina gewählt. Er korrespondierte mit zahlreichen Geistesgrößen seiner Zeit, mit Ludwig Anzengruber und Martin Buber. Bertha von Suttner versuchte ohne Erfolg, Kurd Laßwitz für ihre Friedensbewegung zu gewinnen, da sie nach Lektüre seiner Werke in ihm einen Geistesverwandten sah. Kurd Laßwitz starb im Alter von 62 Jahren in Gotha, wo er im Krematorium Gotha eingeäschert wurde. Seine Urne ist auf dem Hauptfriedhof in einem von der Stadt gepflegten Ehrengrab beigesetzt. Rezeption. Laßwitz gilt als einer der Väter der modernen Science Fiction. Er schrieb Bücher über Physik, Erkenntnistheorie sowie Immanuel Kant und bearbeitete eine kritische Ausgabe von Gustav Theodor Fechner, dem Begründer der Psychophysik. Anders als Jules Verne und stärker als Herbert George Wells verwendete Kurd Laßwitz die SF vor allem für belehrende und kritisierende Zwecke. Seine Zukunftsentwürfe sind mutiger als die Werke seiner beiden Kollegen und Zeitgenossen, weil sie weiter in die Zukunft reichen. Daher stößt er nach eigener Aussage immer wieder an die Grenzen. Sein Roman Auf zwei Planeten (1897) mit seinen über tausend Seiten gehört zu den wichtigsten deutschen Science-Fiction-Romanen. Er wurde in zahlreiche Sprachen übersetzt und mehrmals neu aufgelegt. "Auf zwei Planeten" war eine wichtige Inspiration für den Raumfahrtpionier Eugen Sänger und für den Himmelsmechaniker Karl Stumpff Anlass, sich in seiner Jugend der Astronomie zuzuwenden. Das Werk hatte Anfang des 20. Jahrhunderts, trotz zunächst beschränkter Verbreitung, einigen (noch ungenügend erforschten) Einfluss auf andere Autoren – etwa die des Expressionismus. Sichergestellt ist ein Einfluss auf Georg Heym; Arno Schmidt schätzte den Roman. Eine größere Verbreitung fanden Laßwitz’ Werke erst in den 1920er Jahren. Seine gesellschaftskritischen Texte gerieten größtenteils in Vergessenheit, nachdem sie von den Nationalsozialisten verboten worden waren, deren Anschauungen mit Laßwitz’ humanistischen und pazifistischen unverträglich waren. Der Kurd-Laßwitz-Stipendiat 2015 der Residenzstadt Gotha thematisiert die zahlreichen poetischen Facetten des vielseitigen Gothaer Dichters in seiner Kolumne mit der Schlussfolgerung, dass "der vielschichtige, brillante und zugleich untertriebene Gothaer Schriftsteller" in der Literaturgeschichte unterminiert sei. Nachlass. Laßwitz' Nachlass befindet sich in der Forschungsbibliothek Gotha. Er ist durch ein gedrucktes Verzeichnis erschlossen, welches online zur Verfügung steht. Bibliografie. Eine auf zwanzig Bände angelegte Werkausgabe erscheint als "Kollektion Laßwitz" seit 2008 im Verlag Dieter von Reeken, Lüneburg. Kenia. Kenia (Swahili, englisch "Kenya"), offiziell die Republik Kenia, ist ein Staat in Ostafrika. Er grenzt an den Südsudan, Äthiopien, Somalia, Tansania, Uganda und im Südosten den Indischen Ozean. Die Hauptstadt und größte Stadt des Landes ist Nairobi. Die Wirtschaft Kenias ist, gemessen am Bruttoinlandsprodukt, die größte in Südost- und Zentralafrika. Kenia erlangte im Dezember 1963 Unabhängigkeit von Großbritannien. Nach der Verabschiedung einer neuen Verfassung im August 2010 ist Kenia in 47 halbautonome Grafschaften, sogenannte "Countys", unterteilt, in denen jeweils ein gewählter Gouverneur regiert. Geographie. Kenia grenzt im Nordwesten an den Südsudan, im Norden an Äthiopien, im Osten an Somalia, im Süden an Tansania und im Westen an Uganda. Im Südosten grenzt der ostafrikanische Staat an den Indischen Ozean. Geomorphologie. Zentral-Mittel-Kenia wird vom Rift Valley durchzogen, einem Teil des Ostafrikanischen Grabenbruchs. Die höchste Erhebung – der Batian mit 5199 m – befindet sich im Mount-Kenya-Massiv. Der tiefste Punkt liegt bei 0 m an der 480 km langen Küste des Indischen Ozeans; dort sind teilweise Korallenbänke vorgelagert. Die längsten Flüsse des Landes sind: Tana, Sabaki und Kerio. Im Osten erstreckt sich das Küstentiefland als ein schmaler Saum. Die Küstenlinie wird dabei von Buchten und Lagunen gegliedert. Südlich sind dabei Korallenriffe vorgelagert. Nach Westen schließen sich Hügel- und Tafelländer an. Klima. Im Hochland, das höher als 1800 m liegt, kommt es von April bis Juni und von Oktober bis November zu Regenperioden. Der Niederschlag fällt meist nachmittags, abends und nachts. Die Nächte sind relativ kühl. Die kälteste Zeit in dieser Region liegt im Juli und August mit etwa 10 °C täglichem Minimum. Die warme Periode liegt im Januar und Februar mit etwa 25 bis 26 °C täglichem Maximum. Die Luftfeuchtigkeit beträgt etwa 65 Prozent. In Nairobi liegen die Temperaturen im Juli bei 11 bis 21 °C und im Februar bei 13 bis 26 °C. Die jährliche durchschnittliche Niederschlagsmenge liegt in Nairobi bei 958 mm. Am Victoriasee sind die Temperaturen viel höher, hier gibt es zum Teil starke Regenfälle. An der Küste liegen die Temperaturen zwischen 22 und 32 °C, und die mittlere Luftfeuchtigkeit beträgt etwa 75 Prozent. Der meiste Niederschlag fällt von April bis Juni. Die trockensten Monate sind Januar und Februar. Die wärmsten Monate sind Januar bis Mai und Oktober bis Dezember. Tiere und Pflanzen. Die Tier- und Pflanzenwelt Kenias ist sehr groß. Tier- und Pflanzenarten können auf Safari-Touren durch zahlreiche Parks entdeckt werden: Bäume im Nairobi Arboretum, Strauße im Ostrich Park, Giraffen im Lang’ata Giraffe Centre und Elefanten im David Sheldrick Wildlife Trust. Nationalparks und Naturschutz. Es gibt eine Vielzahl an Nationalparks in Kenia, die ein wichtiges Standbein für den Tourismus darstellen. Der größte Nationalpark ist der Tsavo-Nationalpark, der in Tsavo-Ost und Tsavo-West gegliedert ist. Die bekannte Masai Mara, der nördliche Ausläufer der Serengeti, ist formell kein Nationalpark, sondern ein Naturschutzgebiet. Hier findet man besonders in den Monaten Juli und August einen großen Tierreichtum, bedingt durch die Herdenwanderungen von Gnus, Zebras, Antilopen, Büffeln und Impalas. Weitere bedeutende Nationalparks sind Amboseli, Lake Nakuru und Meru. Ebenso sehenswert ist der Nationalpark in Nairobi, ein kleineres tierreiches Reservat inmitten der Hauptstadt. Wohl nirgends sonst kann man Giraffen und Zebras so dicht vor einer Großstadtskyline beobachten. Demographie. Die zusammengefasste Fruchtbarkeitsziffer lag im Jahr 2008 bei 4,9 Kindern pro Frau. Dies lag unter anderem daran, dass nur 32 % der Frauen moderne Verhütungsmethoden zur Verfügung standen. Kenia nimmt mit etwa 38,6 Millionen Einwohnern (2009) Rang 34 unter allen Ländern der Erde ein. Die durchschnittliche Lebenserwartung bei der Geburt wird mit 55,6 bis 59,8 Jahren angegeben. Mehr als 42 % der Bevölkerung ist weniger als 15 Jahre alt. Volksgruppen. Insgesamt leben in Kenia mehr als 40 verschiedene Volksgruppen, die mehr als 50 verschiedene Sprachen und Dialekte sprechen. Die meisten Einwohner Kenias gehören bantusprachigen Volksgruppen an. Zu diesen zählen die Kikuyu (mit rund 17,2 % Bevölkerungsanteil die größte Volksgruppe Kenias), die Luhya (13,8 %), die Kamba (10,1 %), die Kisii (5,7 %), die Mijikenda (5,1 %) und die Meru (4,3 %). Des Weiteren leben im Nordwesten Kenias nilotische Volksgruppen wie die Kalendjin (mit 12,9 % die drittgrößte Gruppe), die Luo (mit 10,5 %), die Turkana (2,6 %), die Massai (2,2 %) und die Samburu (0,6 %). Zu den kuschitischsprachigen Völkern im Nordosten des Landes gehören die kenianischen Somali (6,2 %) und die Oromo sowie kleinere Gruppen wie die Rendille (0,2 %) und die El Molo. Nicht-afrikanische Bevölkerungsgruppen (Europäer vorwiegend englischer Herkunft, Asiaten, Araber) machen etwa 1 % der Bevölkerung aus. Religion. Nach der Volkszählung von 2009 sind 82,6 Prozent der Bevölkerung Christen, davon etwa 26 % Anglikaner, 23,3 % Katholiken, 2,5 % Orthodoxe sowie Anhänger der zahlreichen afrikanischen Kirchen. Insgesamt sind 47,4 % der Bevölkerung Protestanten. Nur noch knapp 1,6 % der Kenianer werden den traditionellen afrikanischen Naturreligionen zugerechnet. Weiterhin gibt es insbesondere an der Küste Muslime der sunnitischen Richtung, die ungefähr 11,1 % der Gesamtbevölkerung ausmachen und vor allem in den südöstlichen Küstengebieten leben. Im östlichen Viertel des Landes dominieren muslimische Somali, die etwa die Hälfte aller Muslime Kenias ausmachen. Genauere Zahlen sind umstritten, da eine Unterscheidung zwischen kenianischen Somali und zwischen einer halben und einer Million Flüchtlingen aus Somalia schwierig ist. Daher könnten sie inzwischen bis zu 20 % der Bevölkerung ausmachen. Daneben sind 0,1 % der Bevölkerung Hindus und 2,4 % der Bevölkerung sind konfessionslos. Geschichte. Das Gebiet des heutigen Staates Kenia war bereits vor mehr als vier Millionen Jahren von frühen Vormenschen wie Australopithecus anamensis und Kenyanthropus platyops besiedelt und gehört zu jenen Regionen Afrikas, in denen sich die Gattung Homo entwickelte. Die Geschichte Kenias als Kolonie beginnt 1885 mit einem deutschen Protektorat über die Besitzung Witu an der Küste des Sultanats von Sansibar. 1888 kam die Imperial British East Africa Company nach Kenia und verwaltete bis 1895 Britisch-Ostafrika. Deutschland übergab Witu gemäß dem sogenannten Helgoland-Sansibar-Vertrag von 1890 an die Briten. 1895 rief die britische Regierung Britisch-Ostafrika als Protektorat aus und gab 1902 das fruchtbare Bergland als Siedlungskolonie für Weiße frei. 1920 wurde Kenia offiziell zur Kronkolonie. Kenia durchlebte Kolonialgeschichte und war lange Zeit in der Hand der Briten. Von 1952 bis 1960 war Kenia auf Grund von Aufständen im Ausnahmezustand. 1957 fanden die ersten Wahlen statt. Die Kenya African National Union (KANU) bildete die erste Regierung. Am 12. Dezember 1963 wurde Kenia unabhängig. Ein Jahr später wurde Jomo Kenyatta der erste Präsident der Republik Kenia, in der ein Einparteiensystem galt. Medizinische Versorgung. Die Säuglingssterblichkeit lag im Jahr 2008 bei 77 je 1000 Geburten, die Müttersterblichkeit 560 je 100.000 Geburten. Nach Angaben von UNAIDS sind 5,9 bis 6,3 % der erwachsenen Bevölkerung (15-49 Jahre) HIV-positiv. Jugendliche sind besonders häufig betroffen. AIDS hat in Kenia zu einem Absinken der Lebenserwartung beigetragen. Beschneidung. 2002 wurde in Kenia mit dem "Childrens Act" eine moderne Kinderschutzgesetzgebung verankert. Hiernach ist die Genitalbeschneidung an Mädchen unter 16 Jahren gesetzlich verboten und wird in Artikel 14 unter Strafe gestellt. Es ist nicht bekannt, ob dieser Artikel vor Gericht schon einmal zur Anwendung kam. Die kenianische Regierung hat einen „Nationalen Aktionsplan zur Abschaffung der Genitalbeschneidung von 1999 bis 2019“ (also ein Programm gegen die "weibliche" Genitalbeschneidung) aufgestellt. Dieser Plan deutet darauf hin, dass die Beschneidung von Frauen und Mädchen – wie sie z. B. wieder von Mungiki praktiziert wird – noch nicht überall erfolgreich verhindert werden kann. Homosexualität. Homosexualität in Kenia ist in Teilen der Gesellschaft tabuisiert und homosexuelle Handlungen zwischen Männern sind strafbar. Allerdings gab es seit einigen Jahren keine strafrechtlichen Verurteilungen auf dieser Grundlage. Darüber hinaus gibt es in Kenia weder Antidiskriminierungsgesetz noch eine Anerkennung gleichgeschlechtlicher Paare. Hunger und Überflutungen. Im Januar 2006 litt der Nordosten des Landes unter den Folgen einer Dürre und dem damit einhergehenden Nahrungsmittelmangel; von der Hungerkrise am Horn von Afrika 2006 waren auch in den angrenzenden Ländern Millionen Menschen bedroht. Anfang April 2006 kam es nach rekordartigen Regenfällen (Nairobi: 54,5 mm) im ganzen Land zu Überflutungen. Viele Menschen starben in den Fluten. Mehrere Orte im Norden waren von der Außenwelt abgeschnitten, so dass die Armee Hubschrauber zur Versorgung der Bevölkerung einsetzte. 2011 kam es zu einer weiteren schweren Hungerkrise am Horn von Afrika, von der bis zu 11,5 Millionen Menschen in Somalia, Äthiopien, Kenia und Dschibuti betroffen waren. Bildung. Der Lehrplan orientiert sich am sogenannten 8-4-4-System, welches das koloniale Schulsystem mit seinen eurozentristischen Inhalten ablöste, das heißt acht Jahre Grundschule, vier Jahre Gymnasium und vier Jahre Hochschule. Jedes Jahr findet zwischen den Schulen ein Wettkampf um die höchsten Punktzahlen im nationalen Wettbewerb statt. Die Medien berichten ausführlich und mit gefühlvollen Homestorys über die stolzen Sieger und Siegerinnen. Die besten Schüler des Landes erhalten vom Präsidenten manchmal einen Ochsen oder ein Universitätsstipendium. Vorschulerziehung. Kindergärten und Vorschulerziehung ("preschool education") sind überwiegend auf die Städte beschränkt und kostenpflichtig. Sie werden meist von bildungsstarken und wohlhabenderen Elternhäusern verlangt. Einige der Kindergärten arbeiten z. B. nach der Montessoripädagogik. Achtjährige Grundschule. Besonders auf dem Land wurden viele Grundschulen nach dem Harambee-Prinzip unterhalten, das heißt die Eltern finanzierten sie durch Spenden selbst. Diese Schulen waren in jeder Hinsicht arm. Diese Situation verbesserte sich erst, als 2003 die Regierung Kibaki ihr Wahlversprechen einlöste und das Schulgeld für die „Primary Schools“ abschaffte. Damit ermöglichte sie zum ersten Mal den Zugang zur Bildung für Kinder aus ärmeren Familien. Es gingen plötzlich 1,7 Millionen Kinder mehr zur Schule. Jedoch blieben Investitionen im Bildungssektor aus, und das Schulsystem ist kaum im Stande, der steigenden Anzahl von Schülern gerecht zu werden. Das Lehrer-Schüler-Verhältnis ist auf 1:100 gefallen, ein qualitativ guter Unterricht ist daher kaum möglich. Zudem nimmt die Zahl der Lehrer kontinuierlich ab. Und wer eine halbwegs akzeptable Lehrer-Schüler-Relation für seine Kinder wünscht mit dem daraus resultierenden besseren Lernerfolg und sich nicht zufriedengibt, nur dem Papier nach seine Kinder eine Klasse weiter aufsteigen zu lassen, ist weiterhin gezwungen, seine Kinder gegen entsprechendes Schulgeld auf eine der vielen Privatschulen zu schicken. Weiterführende Schulen. Weiterführende Schulen (Klasse 9–12) sind kostenpflichtige Gesamtschulen. Ihre Träger sind der Staat, große Organisationen wie z. B. die Kirchen oder Privatleute. Die beiden letzteren werden allgemein als Privatschulen bezeichnet. Aufgrund der Kosten sind diese Schulen für große Teile der Bevölkerung unzugänglich, auch wenn die Privatschulen Stipendien vergeben. Einige Schulen nehmen kostenlos nur begabte Kinder aus den Slums auf. Berufsausbildung. Eine Berufsausbildung, wie sie in Deutschland etwa nach dem Dualen System oder in Berufsfachschulen flächendeckend bekannt ist, existiert in Kenia nicht. Eine Art Ausbildung gibt es im Betrieb (in-service-training) oder an einem der in den Städten zahlreichen Privatinstitute. Dort werden etwa Kfz-Mechaniker, Frisöre oder Computerfachleute ausgebildet. Alle diese Ausbildungen kosten Geld. Ein Hardware-Fachmann wird zum Beispiel in Nairobi für 2000 Euro in 18 Monaten ausgebildet. Eine solche Ausbildung erhöht die Chancen auf dem freien Markt enorm. Universitäten. Kenia hat heute sieben staatliche Volluniversitäten und eine Vielzahl von Colleges. Nur die besten Schüler erhalten an den staatlichen Universitäten kostenlose Studienplätze. Wer weniger „gut“ ist, ist auf die kostenpflichtigen (internationalen) Privatuniversitäten angewiesen. An den Universitäten fehlt es öfter an nötigen Geldern, daher sind Streiks der Dozenten oder Studenten häufig. Noch immer zieht es die Elite des Landes (oder Gemeinschaften, die über Harambee das Geld aufbringen) vor, ihre Kinder in Großbritannien oder den USA studieren zu lassen. Einige kommen zum Studium auch nach Deutschland. Ein Auslandsstudium gibt ihnen in der Regel einen Startvorteil bei der Berufssuche. Manche Studiengänge können in Kenia nicht belegt werden. Innenpolitik. Wegen Korruptionsvorwürfen wurden 2005/06 zehn Minister entlassen oder traten wegen größerer Finanzskandale (Anglo-Leasing-Skandal und Goldenberg-Skandal) selbst zurück. Zu den aus mangelnder Loyalität zur Regierung von Präsident Kibaki 2006 entlassenen Ministern gehörten unter anderem Bauminister Raila Odinga und Außenminister Kalonzo Musyoka. Am 22. März 2006 trat das (nach der für die Regierung gescheiterten Volksabstimmung über die neue Verfassung) von Präsident Kibaki beurlaubte Parlament zur neunten Periode zusammen. Kibaki äußerte sich zur neuen Verfassung und positiv zum Kampf gegen die Korruption. Er bejahte die Pressefreiheit (hier bezog er sich auf den „Sturm auf den Standard“), mahnte die Presse aber gleichzeitig zur Verantwortung. Am 28. November 2006 gelang in der KANU ein interner Parteicoup, in dem durch eine nicht durch die Führung der Partei einberufene Delegiertenkonferenz in Mombasa eine neue Parteiführung gewählt und wohl mit Hilfe der Regierung und Ex-Präsident Moi registriert wurde. Damit wurde trotz lautstarker Proteste Uhuru Kenyatta fast die gesamte alte Parteiführung entmachtet und Nicolas Biwott neuer Parteichef. Gleichzeitig wurde er damit auch der mit zahlreichen Privilegien versehene offizielle Führer der Opposition im Parlament. Der Oberste Gerichtshof (High Court) hob diese Entscheidung am 29. Dezember 2006 wieder auf, bis in der Hauptsache am 11. Februar 2007 entschieden würde. Damit war Uhuru wieder Partei- und Oppositionsführer – auf Zeit. Präsident Mwai Kibaki (vom Stamm der Kikuyu), Raila Odinga (vom Stamm der Luo) und Kalonzo Musyoka traten in der Präsidentenwahl im Dezember 2007 als Kandidaten an. Die Wahlen fanden am 27. Dezember statt. Kibaki wurde hierbei mit einer knappen Mehrheit von 300.000 Stimmen im Amt bestätigt. Die Opposition und internationale Wahlbeobachter sprechen von massiven Wahlfälschungen. Nach der Bekanntgabe der Vereidigung von Mwai Kibaki zum Präsidenten kam es in ganz Kenia zu schweren Auseinandersetzungen zwischen den Sicherheitskräften und Demonstranten. Schwerpunkte der gewalttätigen Auseinandersetzungen waren die Hauptstadt Nairobi, Kisumu, und die Städte Nakuru, Naivasha und Eldoret in der Provinz Rift Valley. Es wurden bis zu 1.500 Menschen getötet und mehr als 600.000 Menschen vertrieben. Angeheizt wurde die Situation durch ethnisch motivierte Gewaltakte in mehreren Landesteilen, die für einen Wechsel an der Spitze des politischen Systems stimmten. Diese richteten sich vor allem gegen Kikuyu, Angehörige der Ethnie von Präsident Kibaki. Am 4. August 2010 wurde über eine neue Verfassung in einem Referendum abgestimmt, die mehrheitlich von der Bevölkerung angenommen wurde. Wahlen 2013. Bei den allgemeinen Wahlen am 4. März 2013 wurden der Präsident, die Nationalversammlung, der Senat sowie Gouverneure und Repräsentanten der Landkreise ("Counties") neu gewählt. Bei der Präsidentschaftswahl traten acht Kandidaten an. Am 9. März wurde Uhuru Kenyatta, ältester Sohn von Kenias ersten Präsidenten Jomo Kenyatta, von der Wahlkommission zum Sieger erklärt. In der Folge wurde das Wahlergebnis von mehreren unterlegenen Parteien, vor allem Raila Odinga, vor dem Höchstgericht beeinsprucht. Am 30. März wurden alle Einsprüche abgewiesen. Laut dem am 18. Juli veröffentlichten offiziellen Endergebnis wurden für Uhuru Kenyatta 6.173.433 gültige Stimmen abgegeben, womit mit 50,51 % aller gültigen Stimmen die notwendige absolute Mehrheit erreicht wurde. Raila Odinga erreichte mit 5.340.546 gültigen Stimmen 43,70 %. Bei den Wahlen zur Nationalversammlung entfielen von 349 Sitzen 167 Sitze auf die Jubilee-Koalition, 141 auf die CORD-Koalition, 24 auf die Amani-Koalition sowie weitere 17 Sitze auf sonstige Kleinparteien. Menschenrechte. Amnesty International bemängelt in seinem Jahresbericht von 2010, dass es der kenianischen Regierung am politischen Willen fehlt, die Personen, die für Menschenrechtsverstöße bei den gewalttätigen Ausschreitungen nach den Wahlen im Jahr 2007 verantwortlich waren, vor Gericht zu stellen und für eine angemessene Entschädigung der Opfer zu sorgen. Auch am Zustand der Straflosigkeit für Mitarbeiter der Staatssicherheitsdienste, die ungesetzliche Tötungen und Folterungen zu verantworten hatten, änderte sich nichts, so der Bericht. Auch andere Menschenrechtsorganisationen wie zum Beispiel die Kenya National Commission of Human Rights (KNCHR) beklagen weiterhin eine „Kultur der Straflosigkeit“ in Kenia, da es bislang nicht gelungen ist, ein lokales Strafgericht zur Aburteilung der Verursacher und Hintermänner der gewaltsamen Ausschreitungen nach den Wahlen am 27. Dezember 2007 einzurichten. Eine endgültige Entscheidung, ob der IStGH in Den Haag sich des Falles Kenia offiziell annimmt, steht noch aus. Menschenrechtsverteidiger sahen sich Bedrohungen und großen persönlichen Risiken ausgesetzt. Bei pogromartigen Zusammenstößen zwischen einzelnen Ethnien kommt es ebenfalls immer wieder zu Menschenrechtsverletzungen. Tausende von Menschen wurden bereits gewaltsam aus ihren Häusern vertrieben. Sexualverbrechen wie Vergewaltigungen und Zwangsbeschneidungen von Frauen und Mädchen ist nach wie vor weit verbreitet. Im März erschien eine Studie der International Federation of Women Lawyers (FIDA), der zufolge in Kenia für Frauen und Mädchen mit Behinderungen das Risiko, Opfer geschlechtsspezifischer Gewalt zu werden, dreimal so hoch ist wie für nicht behinderte Frauen. Die Studie stellte außerdem fest, dass entsprechende Vorfälle praktisch nie zur Anzeige gelangen. Die Kinderprostitution in dem ostafrikanischen Land hat gemäß einem UNICEF-Bericht dramatische Ausmaße angenommen. Fast ein Drittel aller Mädchen zwischen 12 und 18 Jahren hätten bereits Sex gegen Geld oder Geschenke gehabt. Bei rund 36 % aller Geschlechtsakte mit Kinderprostituierten seien keine Kondome verwendet worden. Laut dem Bericht bieten bis zu 15.000 Mädchen im Alter von 12 bis 18 Jahren an den kenianischen Küsten gelegentlich Sex gegen Geld oder Sachgüter an. Das seien bis zu 30 % dieser Altersgruppe in der Region. Regelmäßig prostituierten sich dort zwei- bis dreitausend Jungen und Mädchen. Im Human Rights Report 2009 der Vereinigten Staaten von Amerika wird zur Situation der Menschenrechte in Kenia zusätzlich der Menschenhandel und die Rekrutierung von Kindersoldaten erwähnt. In Kenia herrscht ein Klima der gesellschaftlichen Ablehnung, Diskriminierung und Gewalt gegen Menschen aufgrund ihrer sexuellen Orientierung oder Geschlechtsidentität. 2007 hat der Rat der Imame und Prediger von Kenia, Homosexualität öffentlich verurteilt und sich gegen die Legalisierung von gleichgeschlechtlichen Ehen ausgesprochen. Das Strafgesetzbuch kriminalisiert und verbietet homosexuelle Handlungen im Allgemeinen und sieht ein Höchststrafmass von 14 Jahren vor. Eine spezielle Klausel nennt explizit homosexuelle Handlungen unter Männern und sieht hier eine Höchststrafe von 21 Jahren vor. Im Februar 2010 wurden drei homosexuelle Männer im Küstenort Mtwapa von einer durch einen Bischof aufgehetzten Menge gejagt, misshandelt und beinahe umgebracht. Innere Konflikte. Im Turbi-Massaker, bei dem es um Viehdiebstahl, Weideland und Wasserrechte ging, waren 2005 bei Kämpfen zwischen verfeindeten Ethnien 90 Menschen ums Leben gekommen. Am 10. April 2006 ereignete sich in der Nähe von Marsabit ein Flugzeugunglück, bei dem 14 Menschen ums Leben kamen. Drei Insassen überlebten den Absturz einer Harbin Yunshuji Y 12 II Turbo Panda (chinesische Weiterentwicklung der russischen Antonow An-26), die bei stürmischem Wetter und Nebel in einen Hügel raste. Das Flugzeug brannte sofort völlig aus. Unter den 14 Personen befanden sich hochrangige Politiker. Es handelte sich hierbei um vier (Assistant) Minister, sechs Parlamentarier, einen anglikanischen Bischof und weitere Regierungsangestellte. Die Gruppe war auf dem Weg, um Friedensgespräche mit verfeindeten nomadischen Clans zu führen. Drei der verunglückten Politiker repräsentierten die dort angesiedelten und seit langem verfeindeten Clans. MP Dr. Bonaya Godana war ein Gabbra, MP Abdi Sasura ein Borana und Vize-Minister Titus Ngoyoni ein Rendille. Erst kurz zuvor waren sie übereingekommen, für den Frieden in der Region zusammenzuarbeiten. Da fast alle Toten im Flugzeug aus dieser Gegend stammten, verlor die Provinz mit einem Schlag einen Großteil ihrer politischen Elite. Präsident Kibaki ordnete drei Tage Staatstrauer an; das Parlament unterbrach seine Arbeit für eine Woche. Die durch den Tod notwendigen fünf Nachwahlen brachten am 24. Juli 2006 in drei Fällen Verwandte der Getöteten ins Parlament. In Nakuru gewann William Kariuki Mirugi, der 28-Jährige Sohn des verstorbenen Mirugi Kariuki. Er gehört der neuen – von Präsident Kibaki favorisierten – Partei NARC-K an. Korruption. Korruption kann in Kenia in allen Regierungsperioden der drei bisherigen Präsidenten Kenyatta, Moi und Kibaki beobachtet werden. Im Korruptions-Index ("Corruption Perceptions Index; CPI") von Transparency International rangiert Kenia unter 178 Ländern an 154. Stelle. Eine Schätzung besagt, dass der durchschnittliche kenianische Stadtbewohner 16 Mal pro Monat besticht, z. B. Polizisten an Straßensperren. Sicherlich sind die meisten dieser Bestechungsgelder klein und nicht immer im politischen Raum zu suchen. In die großen Korruptionsfälle, seien es Bestechungen, Verschwendungen oder das Abzweigen von Geldern bei völlig überteuerten Geschäften, waren nicht nur Geschäftsleute, sondern immer auch Regierungsstellen, teils in großem Ausmaß, verwickelt. Zwei der bedeutendsten Korruptionsskandale waren der Goldenberg-Skandal, in dem Kenia Anfang der 1990er-Jahre 700 Millionen Euro durch gefälschte Gold- und Diamantenexporte verlor, sowie der Anglo-Leasing-Skandal. Militär. Die "Kenya Defence Forces" (KDF) sind die Streitkräfte der Republik Kenia. Sie wurden im Jahre 1963, nach der Unabhängigkeit Kenias, aus den Teilen der King’s African Rifles gebildet. Gegenwärtig hat die KDF eine Personalstärke von 24.120 Mann, wobei mit 20.000 Soldaten der größte Anteil auf die Landstreitkräfte ("Kenya Army") entfällt. Die Hauptaufgabe der KDF ist die Grenzsicherung zum Nachbarland Somalia, wo sie seit 2007 ein Kontingent für AMISOM stellt. Wirtschaft. Kenias Bruttosozialprodukt ist in den letzten Jahrzehnten im Vergleich zu anderen afrikanischen Staaten überdurchschnittlich gewachsen. Da auch das Bevölkerungswachstum überdurchschnittlich war, hat sich dies nicht in einer wesentlichen Verbesserung der Lebensverhältnisse der meisten Kenianer niedergeschlagen. Die Arbeitslosenquote lag 2008 bei etwa 40 %, die Inflationsrate bei etwa 26 %. Landwirtschaft und Fischerei. Weit mehr als die Hälfte der Kenianer leben von der Landwirtschaft, doch sind nur etwa 20 Prozent der Fläche des Landes nutzbar. Der Rest ist wegen karger Böden oder zu geringen Niederschlägen meist Brach- oder Bergland. Angebaut werden neben Kaffee und Tee auch Sisal und Pyrethrum, das als Basis vieler Insektenbekämpfungsmittel dient. Daneben erzeugen die Menschen hauptsächlich für den Eigenbedarf Mais, Weizen, Gerste, Zuckerrohr, Bohnen, Bananen, Reis, Ananas und Baumwolle. In der Viehwirtschaft sind die Mast- und Milchrinder vorherrschend. Die größeren Betriebe im Hochland Kenias haben einen guten Entwicklungsstand erreicht. Umfangreiche Rinder-, Schaf-, Ziegen- und sogar Kamel-Herden müssen mit den kargen Mitteln des Landes ernährt werden. Viel Waldgebiet steht unter Naturschutz. Demgemäß sind die Bambuswälder für die Papierindustrie und die Rinde der Akazien (als Gerbstoff genutzt) im Freiland von eher untergeordneter Bedeutung. Allerdings wird etwa der besonders artenreiche Dakatcha-Tropenwald im Südosten des Landes aktuell durch den geplanten Bau einer Jatropha-Plantage durch die Firma Kenya Jatropha Energy zur Gewinnung von Agrarenergie bedroht. Die großflächige Plantage würde auch Auswirkungen auf die traditionelle Landwirtschaft der mehr als 20.000 in dem Gebiet lebenden indigenen Kleinbauern mit sich ziehen, weshalb das Vorhaben allgemein umstritten ist. Bodenschätze. Kenia hat nur geringfügige Vorkommen an Bodenschätzen. Man gewinnt in nennenswerter Menge Natriumcarbonat (z. B. im Magadi-See) und Salz, daneben geringe Mengen an Gips, Blei, Gold, Silber, Kupfer, Asbest, Kalkstein, Graphit sowie Flussspat, Kieselgur und Seifenstein. Außenhandel. Kenia lebt vom Kaffee- und Tee-Export, von der Industrie (Maschinen- und Fahrzeugbau, Textil und Bekleidung, Ernährung und Genussmittel) und vom Tourismus (Nationalparks und Wildreservate). Der Handel mit Elfenbein und der Abschuss von Elefanten ist verboten, was größtenteils auf das Engagement von Richard Leakey zurückzuführen ist. Gegen Ende der 1990er-Jahre konnte im gleichen Maße, wie der Kaffee an Bedeutung verlor, die Blumen-Industrie gewinnen. Kenia hat 2003 Israel als größten Blumenexporteur der Welt abgelöst und konnte 2005 seinen Marktanteil am europäischen Blumenmarkt auf 31 % ausdehnen. Aus der Viehwirtschaft kommen Butter, Fleisch, Häute und Felle in den Export. Staatshaushalt. Der Staatshaushalt umfasste 2009 Ausgaben von umgerechnet 8,76 Mrd. US-Dollar, dem standen Einnahmen von umgerechnet 6,86 Mrd. US-Dollar gegenüber. Daraus ergibt sich ein Haushaltsdefizit in Höhe von 6,2 % des BIP. Die Staatsverschuldung betrug 2009 16,54 Mrd. US-Dollar oder 54,1 % des BIP. Mikrofinanzen. Der Sektor der Mikrofinanz und Genossenschaftsbanken ist in Kenia stark segmentiert und unzusammenhängend. Laut einem Bericht der Weltbank von 2007 besteht er aus mehr als 5000 Institutionen. Viele davon, wie zum Beispiel der "Kenya Women Finance Trust (KWFT)" und die "National Association of Self-Employed Women of Kenya", sind speziell auf Frauen fokussiert. Den meisten dieser Institute fehlt das Kapital, um ihr Angebot zu diversifizieren, so dass sie sich auf einzelne Marktnischen beschränken. Raketenstarts. Die San-Marco-Plattform ("San Marco Equatorial Range – SMER, Centro Spaziale Luigi Broglio") ist ein Raketenstartplatz vor der Küste Kenias zum Start von Feststoffraketen. Die San-Marco-Plattform besteht aus zwei ehemaligen Ölplattformen und zwei Versorgungsschiffen, die bei einer Wassertiefe von etwa 20 m verankert sind. Der nächste Ort an der Küste ist Malindi. Die Nähe zum Äquator ist vorteilhaft, da durch die höhere Rotationsgeschwindigkeit der Erde gegenüber äquatorferneren Raketenstartplätzen weniger Treibstoff zum Erreichen der Erdumlaufbahn benötigt wird. Im Zeitraum von 1964 bis 1988 wurden 18 Höhenforschungsraketen und neun Scout-Trägerraketen gestartet. Z. B. wurde von der San-Marco-Plattform 1972 der Röntgensatellit "Uhuru" („Freiheit“ auf Swahili) mit einer Scout-Rakete in den Orbit gebracht. Am 16. Februar 1980 wurden von dieser Plattform zur Beobachtung einer totalen Sonnenfinsternis einige Höhenforschungsraketen gestartet. Obwohl seit 1988, insbesondere durch die Einstellung der Scout-Produktion, keine Nutzung bekannt ist, wird der Startplatz in Startplänen russischer Feststoffraketen Start-1 oder dem europäischen Vega-Programm genannt, da die Zulassung der Plattformen bis 2014 galt. Verkehrsnetz. Es sind insgesamt 3000 Kilometer Eisenbahnstrecken und fast 65.000 Kilometer Straßen im Verkehrsnetz in Kenia verbaut, es gilt Linksverkehr. Den Touristen ermöglicht das auch, relativ problemlos zu ihren Ferienorten und ins Landesinnere zu reisen. Die kenianische Fluggesellschaft Kenya Airways beschäftigt fast 3000 Arbeitnehmer und unterhält ein internationales Liniennetz. In Kenia gibt es zwei große internationale Flughäfen Nairobi und Mombasa, neben vielen kleinen Flugplätzen. Allein über 30 Fluglinien fliegen Nairobi an, da von dort viele Safaris starten. Kommunikation. Mit Beginn des 21. Jahrhunderts hat die Zahl der Mobilfunkanschlüsse stark zugenommen. Es gibt etwa 19,4 Millionen Mobilfunkanschlüsse sowie etwa 664.000 Festnetzanschlüsse (Stand 2009). Durch die zunehmende Verbreitung von Internetcafés und der Nutzung des Mobilfunknetzes steht vielerorts Internet zur Verfügung. Energieversorgung. Im Jahr 2010 waren nur etwa 13 % der kenianischen Haushalte an das öffentliche Stromnetz angeschlossen. Die Regierung plant die Versorgung bis 2012 auf 22 %, bis 2022 auf 65 % und schließlich bis 2030 auf 100 % auszubauen. Dementsprechend wird auch mit einem starken Anstieg der Spitzenlast von etwa 1300 Megawattel im Jahr 2010, über 2500 MW im Jahr 2015 auf 15.000 MW im Jahr 2030 gerechnet. Bis 2030 soll die installierte Leistung auf 19.200 MW ausgebaut werden, dabei sollen 5110 MW von Geothermie, 1039 MW von Wasserkraft, 2036 MW von Windenergie, 3615 MW von Öl, 2420 MW von Kohle, 2000 MW von Importen sowie 3000 MW von "sonstigen" Energieträgern gedeckt werden. Kenia ist zu etwa 65 % auf Wasserkraft angewiesen. Lang anhaltende Trockenperioden seit 2009 und großflächige Abholzung der Wälder reduzierten jedoch die Verfügbarkeit der Wasserkraftwerke auf etwa 30 %, was den vermehrten Einsatz von Ölkraftwerken erforderlich macht und damit zu einer verstärkten Abhängigkeit von Importen führt. Wegen der geringen Versorgungssicherheit der Wasserkraftwerke setzt Kenia verstärkt auf andere erneuerbare Energieträger. Kenia errichtete 1981 als erstes afrikanisches Land ein Geothermiekraftwerk. Die im Besitz des staatlichen Energieerzeugers KenGen befindlichen Kraftwerke Olkaria I–III sowie das in Privatbesitz befindliche Kraftwerk Olkaria IV in der Rift-Valley-Provinz decken mit einer Gesamtleistung von 198 MW 13,2 % des kenianischen Strombedarfs – damit liegt Kenia im internationalen Spitzenfeld. Bis 2017 soll die Kapazität um 576 MW erweitert werden und rund 35 % des Gesamtbedarfs decken. Geologische Untersuchungen ergaben ein Potential für Geothermie zwischen 7000 und 10.000 MW verteilt auf 14 Lagerstätten. Kenia plant die Ausweitung seiner Erdwärmekraftwerkskapazitäten auf 750 Megawatt. In der Lake-Turkana-Region soll mit dem Windpark Lake Turkana bis 2016 der größte Windpark im subsaharischen Afrika mit einer Gesamtleistung von 310 MW entstehen. Die Bauarbeiten an dem 617 Millionen Euro teuren Projekt, in dem insgesamt 365 Windkraftanlagen zum Einsatz kommen werden, sollen im Juni 2014 beginnen. Nach der Fertigstellung sollen so jährlich bis zu 700.000 Tonnen CO2-Emissionen durch den Wegfall von Ölkraftwerken vermieden werden können. Im September 2010 gab Energieminister Patrick Nyoike bekannt, dass bis 2017 ein Atomkraftwerk mit einer Leistung von 1000 MW errichtet werden soll. Das Kraftwerk soll mit südkoreanischer Technologie errichtet werden und etwa 2,6 Milliarden Euro (3,5 Mrd. US-$) kosten. Im Januar 2014 berichtete die britische Tageszeitung The Guardian, dass Kenia bis zum Jahr 2016 mehr als die Hälfte seiner Energieproduktion aus Solarenergie beziehen will. Das Investitionsvolumen bemisst sich auf knapp 885 Millionen Euro (1,2 Milliarden Dollar). Bis Ende des Jahres 2013 wurden in Kenia etwa 370 Millionen Euro (500 Millionen Dollar) in Solarprojekte investiert. Vom Ausbau der Solarenergie verspricht sich das Land sinkende Strompreise um bis zu 80 %. Wasserversorgung. In Kenia sind lediglich etwa 70 % der städtischen und nur 48 % der ländlichen Bevölkerung mit sauberem Trinkwasser versorgt. Die kenianischen Städte Mombasa und Nairobi werden mit Wasser aus den Mzina Springs versorgt. Aus der Quelle von Mzima Springs im größten Nationalpark Kenias sprudeln täglich 200 Millionen Liter Trinkwasser. Das Quellwasser stammt aus unterirdischen Gängen und wird durch das Lavagestein der Umgebung gefiltert. Tourismus. In Kenia findet sich eine Vielzahl an unterschiedlichen Landschaften, die alle charakteristisch für den afrikanischen Kontinent sind. Schöne Küstengebiete und ein langes Korallenriff, weite Savannen mit Großwildtieren, schneebedeckte Gipfel, Wüste und ein kleiner Dschungel (Regenwald). Dies alles ist im Wesentlichen für den Tourismus erschlossen, sowohl was den Massentourismus – meist an der Küste – aber auch den Individualtourismus – eher im Landesinneren, z. B. bei der Besteigung des Mount Kenya – angeht. Tragendes Element des Tourismus sind neben den weißen Stränden an der Küste die großen Nationalparks (siehe oben). Prähistorische Stätten. Prähistorische Stätten, die besucht werden können, sind z. B. die Olorgesailie Prehistoric Site oder Kariandusi bei Gilgil. Viele Grabungsstätten der Paläoanthropologen, wie etwa des Orrorin tugenensis, können jedoch nicht besucht werden. Die anthropologische Forschung Kenias ist untrennbar mit dem Namen der Familie Leakey verbunden. Medien. "The Standard:" Im März 2006 kam es zu einem recht mysteriösen Überfall einer Spezialeinheit der Polizei auf die Tageszeitung "The Standard" und deren Fernsehsender KTN. Bei der Polizeiaktion liefen die üblichen Überwachungskameras weiter. Die Spezialeinheit hatte vergessen, die Kameras auszuschalten oder wenigstens die Videos zu beschlagnahmen. Diese Bilder wurden am nächsten Tag im Fernsehen gesendet und konnten weltweit von der Website des "Standard" heruntergeladen werden. Die Attacke wurde von einer Schnellen Eingreiftruppe namens Kanga Squad durchgeführt, die von Offizieren der Geheimpolizei CID und der paramilitärischen Einheit General Service Unit (GSU) befehligt wurden. Die Kanga Squad waren mit russischen AK-47- und deutschen G3-Gewehren bewaffnet. Der Überfall erfolgte simultan auf die Büros des Standard und der KTN-Senderäume in Nairobi. Gleichzeitig wurden die Druckanlagen im Industriegebiet stillgelegt und Stapel frisch gedruckter Zeitungen in Brand gesetzt. In den Büros wurde Equipment wie Computer und Unterlagen beschlagnahmt. Die TV-Sendung wurde sofort unterbrochen. Als spätere Begründung für die Attacke gab der Innenminister John Michuki einen Verdacht auf angebliche staatsfeindliche Aktivitäten der Zeitungsredaktion an. Die Zeitung hatte zuvor veröffentlicht, dass sich Kibaki mit Kalonzo Musyoka, einem seiner stärksten politischen Gegner, heimlich im Präsidentenpalast getroffen haben sollte. Die Opposition protestierte. "Radio Hope:" Am 12. Mai 2006 ereignete sich ein ähnlicher Überfall auf Radio „Hope FM“, eine christliche Station der Nairobi Pentecostal Church, bei der bewaffnete Gangster die Senderäume stürmten, einen Wachmann erschossen und zwei weitere Menschen verletzten und anschließend die Räume in Brand setzten. Das Media Council of Kenya (MCK) gründete daraufhin am 2. Juni 2006 unter der Leitung des altgedienten Journalisten Mitch Odero einen Presserat (Ethics Team), um alle Vorwürfe gegen die Presse selbst regeln zu können. Museen und Archive. Die meisten der kenianischen Museen, die über das ganze Land verstreut liegen, werden von den National Museums of Kenya (NMK) verwaltet. Weitere Museen werden von anderen Organisationen unterhalten, so das Railway Museum oder die National Archives. Musik und Tanz. Besonders Nairobi bietet häufige nationale oder internationale Musik-, Tanz- und Akrobatik-Shows, sei es in großen Hotels, Theaterspielstätten, Schulen oder Kulturzentren. Der Tradition verschrieben sind die "Gonda Traditional Entertainers", die Bomas of Kenya und die "Original Zengala Band". Die bekanntesten Band aus Kenia sind die Safari Sound Band und Them Mushrooms, die beide traditionelle Lieder auf Swahili in modernen Fassungen aufgenommen haben. Sie gehören zu den Vertretern des Hotelpops, Bands die in Hotels für ausländische Touristen musizieren. Kenia hat eine reiche Chormusikszene mit einer starken Betonung auf religiösen Gesang. Einer der bekanntestes Chöre ist der "Muungano National Choir" unter der Leitung von Boniface Mganga, der unter anderem auch die bekannte kongolesische Missa Luba singt. Bekannte kenianische Sänger sind: Susan Awiyo, Merry Johnson, Alex und Merry Ominde, Kim4Love, Necessary Noize (Sängerin: Nazizi), Longombaz und Redsan, Juacali. Theater. Das Theaterleben wird stark vom Schultheater geprägt. Jedes Jahr finden in den Distrikten, Provinzen und auf nationaler Ebene Wettbewerbe und Festivals statt. Die Stücke, die sich um das Genre des Volkstheaters bewegen – und thematisch z. B. häufig AIDS oder frühe Schwangerschaft aufgreifen – werden häufig im Fernsehen gezeigt. Klassische Theaterspielstätten gibt es wenige, so das Kenya National Theater, welches jedoch kein festes Ensemble hat, sondern nationalen und internationalen Truppen und Show-Events Raum bietet. Bekanntere Theatergruppen sind Heartstrings Ensemble, Mbalamwezi Players, Tufani, Hearts Ablaze und Winds of Change. Bekannte Schauspieler sind Winnifred Gitao, Angel Waruinge, Antony Kinuthia und Benta Stephanie Ochieng. Mumbi Kaugwa ist zudem Stückeschreiber und Regisseurin. Die einzige feste Truppe mit eigener Spielstätte, meist Laien mit guter schauspielerischer Qualität, haben die "Phoenix Players Theatre Company". Der Theaterraum befindet sich im "Professional Centre" in der Innenstadt Nairobis. Die Truppe ist unter seinem Gründer James Falkland 1984 aus dem kolonialen und von der Familie Maule betriebenen "Donovan Maule Theater" hervorgegangen, das im modernen Kenia nicht mehr lebensfähig war. Die "Phoenix Players" haben sich mit einem speziellen Programm dem Thema Anti-HIV gewidmet. Sie leben von ihren Mitgliedern und Spendern, kämpfen aber trotzdem ständig um ihre Existenz. Ansonsten bieten die Kulturzentren großer Nationen in Nairobi Theatergruppen und Säle, in denen periodisch Theater gespielt wird, so im French Cultural Centre, dem Alliance française oder im Goethe-Institut. Aufgrund dieser Bedingungen hat sich eine kleine, aber lebhafte Theaterszene entwickelt. Autoren wie Cajetan Boy oder Jimmy Makotsi schreiben moderne authentische Stücke in Englisch oder Swahili. Film. Das Filmleben wird in den großen Städten vom US-amerikanischen Mainstream und von Bollywood (aufgrund der starken indischen Minderheit im Land) beherrscht. Gemeinsam organisieren das Alliance Francaise und das Goethe-Institut in Nairobi z. B. Kinderfilm-Festivals. In Kenia werden relativ viele internationale Filme gedreht, z. B. "Jenseits von Afrika" (1986), "Die weiße Massai" (2004), "Der ewige Gärtner" (2005) oder "Afrika, mon amour" (2007). Für das Fernsehen, die Kenya Broadcasting Corporation (KBC), werden auch Filme im Land produziert, so z. B. "Reflections" oder "Naliaka" von Brutus Serucho. Feiertage. Die öffentlichen Feiertage wurden in der Verfassung von 2010 neu festgelegt. Darin wurden Feiertage wie der 10. Oktober ("Moi Day", zu Ehren des früheren Präsidenten Daniel arap Moi) gestrichen. Der 20. Oktober ("Kenyatta Day", zu Ehren des ersten Präsidenten Jomo Kenyatta) wurde umbenannt in "Mashujaa Day" – ein Gedenktag für alle Helden in der kenianischen Geschichte. "Idd ul-Azha" und "Diwali" gelten nur für Angehörige der jeweiligen Glaubensrichtung als öffentliche Feiertage. Sollte ein öffentlicher Feiertag auf einen Sonntag fallen, wird der nächste darauf folgende Werktag zum Feiertag. Zu bestimmten Anlässen werden immer wieder einzelne Tage zu Feiertagen erklärt; diese gelten jedoch nur in dem entsprechenden Jahr. Zum Beispiel wurde anlässlich des Wahlsieges von US-Präsident Barack Obama der 6. November 2008 als "Obama Day" zum Feiertag erklärt. Sport. Gemeinsam mit den afrikanischen Staaten Äthiopien und Marokko stellt Kenia regelmäßig die besten Langstreckenläufer der Welt, insbesondere in den olympischen Disziplinen 5000-Meter-Lauf, 10.000-Meter-Lauf, dem Hindernislauf und dem Marathonlauf. Während die Grundlage für den Langstreckenlauf meist schon in der Grundschule gelegt werden, weil die weiten Wege zur Schule gehend/laufend zurückgelegt werden, werden die besten Talente in gemeinsamen Trainingslagern entdeckt. Da die Einkommensverhältnisse in Kenia begrenzt sind, dient vor allem der Langstreckenlauf als eine Einkommensgelegenheit. Seit der Initiierung von Title IX haben sich auch amerikanische Hochschulsportprogramme darauf spezialisiert, weiblichen Läufernachwuchs in Kenia zu rekrutieren. Im Vergleich zum europäischen Trainingssystem wird in Kenia häufiger in großen Gruppen trainiert, wobei an Ort und Stelle eine Auswahl der besten erfolgt, weil (fast) jedes Training ein Ausscheidungsrennen ist. In der "Laufkultur" trifft sich die traditionelle Stammeskultur der Hirten der Savanne mit dem post-kolonialem Lebensgefühl der unbegrenzten Möglichkeiten. Genetik, Tradition, Höhentraining und ein internationaler Markt für Rennen im Dauerlauf begünstigen vor allem die Läuferinnen und Läufer aus dem Rift Valley. Zu den bekanntesten Athleten gehören u.a.: Kipchoge Keino, Ben Jipcho, Abel Kirui, Catherine Ndereba, Samuel Kamau Wanjiru, Wilson Kipsang. Der aktuell bekannteste Fußballspieler des Landes ist McDonald Mariga, welcher bei Inter Mailand spielte. Literatur. Literatur ist seit dem 19. Jahrhundert der Bereich aller mündlich (etwa durch Vers­formen und Rhythmus) oder schriftlich fixierten sprachlichen Zeugnisse. Man spricht in diesem „weiten“ Begriffsverständnis etwa von „Fachliteratur“ oder „Notenliteratur“ (Partituren) im Blick auf die hier gegebene schriftliche Fixierung. Die öffentliche Literaturdiskussion ist demgegenüber seit dem 19. Jahrhundert auf Werke ausgerichtet, denen Bedeutung als Kunst zugesprochen werden könnte, und die man im selben Moment von Trivialliteratur, von ähnlichen Werken ohne vergleichbare „literarische“, sprich künstlerische, Qualität, abgrenzt. Das Wort Literatur wurde bis in das 19. Jahrhundert hinein regulär für die Wissenschaften verwendet. Begriffsdifferenzierung. Die heutige begriffliche Differenzierung, die im weitesten Sinne alle sprachliche Überlieferung umfasst, und dabei ein enges Feld „literarischer“ Kunstwerke konstituiert, richtete sich erst im Laufe des 19. Jahrhunderts ein. Das Wort stand zuvor für Gelehrsamkeit, die Wissenschaften, die Produktion der „res publica literaria“, der frühmodernen scientific community, seltener auch lediglich für Schriften der griechischen und lateinischen Antike. Die Neudefinition des Wortes geschah im Wesentlichen unter Einfluss neuer Literaturzeitschriften und ihnen folgender Literaturgeschichten, die zwischen 1730 und 1830 sich schrittweise den belles lettres, den schönen Wissenschaften öffneten, dem Bereich modischer und eleganter Bücher des internationalen Marktes und die dabei Werken der Poesie ein zentrales Interesse schenkten. Es wurde im selben Prozess selbstverständlich, dass Literatur Besprochen wird in den nationalen Philologien (wie der Germanistik, der Romanistik, der Anglistik), die die Ausgestaltung der nationalen Literaturen im 19. Jahrhundert im Wesentlichen vorantrieben, nahezu ausschließlich „hohe“ Literatur. Welche Werke unter welchen Gesichtspunkten besprochen werden, ist seitdem Gegenstand einer Debatte um die Bedeutung, die Werke in der jeweiligen Gesellschaft gewinnen. Der jeweilige „Kanon“ einer Nationalliteratur wird in der öffentlichen (und angreifbaren) Würdigung der „künstlerischen“ Qualität festgelegt, sowie in kontroversen Textinterpretationen der Fiktionen, die Titeln tiefere Bedeutung zusprechen. In der neuen Ausgestaltung übernahm die Literatur im 19. Jahrhundert in den westlichen säkularen Nationen Funktionen, die zuvor die Religionen und ihre Textgrundlagen als Debatten- und Bildungsgegenstände innehatten. In neuerer Zeit wurde das Thema der digitalen Schriftlichkeit ein Diskussionsgebiet der Literaturwissenschaft und Medienwissenschaft. Gerade bei dieser Art von Literatur ist es nicht mehr möglich, nach Kriterien zu beurteilen, die man für Literatur vergangener Jahrhunderte entwickelt hatte. Siehe dazu: Digitale Schriftlichkeit. Von Literatur spricht man auch im Bereich der Musik. Gemeint ist damit die Gesamtheit der schriftlich notierten Musik. Etymologie und Begriffsgeschichte. Das Wort Literatur ist eine erst in der Frühmoderne in Mode kommende Ableitung des lateinischen "littera", der „Buchstabe“. Der Plural "litterae" gewann bereits in der Antike eigene Bedeutungen als „Geschriebenes“, „Dokumente“, „Briefe“, „Gelehrsamkeit“, „Wissenschaft(en)“. Im Französischen und Englischen blieb diese Bedeutung erhalten in "lettres" und "letters" als Synonym für „Wissenschaften“. Das heutige Sprechen von Literatur entwickelte sich auf einem Umweg über das Deutsche und seine Äquivalente für die französische Wortfügung „belles lettres“. Im Laufe des 17. Jahrhunderts setzte sich die französische Wortkombination für einen neuen Bereich eleganter Bücher auf dem europäischen Markt durch. Die zeitgenössische deutsche Übersetzung war hierfür „galante Wissenschaften“, was dem Publikumsanspruch Rechnung trug wie dem modischen Geschmack: Leser beiderlei Geschlechts lasen diese Ware und bestanden darauf, dass sie eine ganze eigene Wissenschaft benötigte, keine akademische pedantische. Als mit dem frühen 18. Jahrhundert das Wort galant in Kritik geriet, setzte sich ein Sprechen von „schönen Wissenschaften“ durch, das im späten 18. Jahrhundert an Tragfähigkeit verlor, da es hier zunehmend um Poesie und Romane ging, eine unwissenschaftliche Materie. Das Sprechen von „schöner Literatur“ erlaubte es schließlich das engere im weiteren Begriffsfeld zu benennen. Man sprach ab Mitte des 18. Jahrhunderts von „Literatur“ mit der Option, jeweilige Schwerpunkte legen zu können. Mit dem Adjektiv „schöne“ wurde das Zentrum bezeichnet, das Literatur im engeren Sinn wurde. Je klarer das Zentrum definiert wurde, desto entbehrlicher wurde im 20. Jahrhundert die weitere Verwendung des Adjektivs. Aus dem Wort „belles lettres“ ging im deutschen Buchhandel das Wort „Belletristik“ hervor, das heute eine Nachbarstellung einnimmt. Der Buchhandel führte die Verengung des Literaturbegriffs auf Dichtung der Nation, wie sie im 19. Jahrhundert geschah, am Ende nicht durch. Für Verlage ist der internationale Markt unterhaltender Titel ein unverzichtbares Geschäftsfeld. Man kann innerhalb der Belletristik ein kleineres Feld der Klassiker der Literatur abgrenzen und dieses wiederum international sortieren. Das Wort Literatur hat seine zentrale Bedeutung in Literaturgeschichten, Literaturzeitschriften, in der Literaturkritik und Literaturtheorie. In all diesen Bereichen geht es deutlich darum, Kontroversen über Literatur zu erzeugen. Mit der Belletristik wird im Deutschen eher ein unkontroverses, uneingeschränktes Feld ohne eigene Geschichte beibehalten. Es gibt bezeichnenderweise keine „Belletristikgeschichte“, keine „Belletristikkritik“ und keine nationalen „Belletristiken“, dafür jedoch „Literaturgeschichte“, und „Literaturkritik“ wie „Nationalliteraturen“. Definitionen. Der heutige Literaturbegriff spiegelt den Wortgebrauch der letzten zweihundert Jahre wider. Er zeichnet sich dabei gleichzeitig durch die Aufnahme einer Reihe historischer Kontroversen aus, die den modernen Streit darüber, welche Werke es verdienen sollten, als Literatur besprochen zu werden, fruchtbar in ihrer teilweisen Unvereinbarkeit bestimmen. Literaturstudenten wird seit dem 19. Jahrhundert die Beherrschung eines Handwerkszeugs der Textanalyse nach den verschiedenen Traditionen der Poetik, der Rhetorik, und der Textinterpretation abverlangt, die dem literarischen Text tiefere kulturelle Bedeutung beimessen soll. Moderne Schulen der Literaturtheorie nahmen hier einzelne Fragestellungen mit unterschiedlichen Schwerpunkten und divergierenden Wünschen an einen Kanon wichtigster Werke der jeweils zu schreibenden Literaturgeschichte auf. Ästhetik und kunstvolle Sprachbeherrschung. Die Vorstellung, dass Literatur ein Bereich besonders schöner Texte sein sollte, ist Erbmasse der antiken und frühneuzeitlichen Poesie­diskussion. Der alternative Blick auf kunstvolle Sprachbeherrschung geht dagegen auf die Diskussion antiker Rhetorik zurück. Während sich die Rhetorik als weitgehend unkontroverse, zweckorientierte Kunst handhaben ließ, bestand über die Frage des Schönen in der Poesie ein langer Streit, der im 18. Jahrhundert im Wesentlichen als Kampf zwischen Regelpoetikern (Verfechtern einer nach Gesetzen schönen Poesie) und Verfechtern eines Geschmacksurteils geführt wurde. In der zweiten Hälfte des 18. Jahrhunderts setzte sich in Auflösung dieser Diskussion eine neue wissenschaftliche Debatte der Ästhetik durch, die – so die Hoffnung – am Ende in allen Bereichen der Kunst gelten würde als eine Konstante menschlicher Wahrnehmung, wie sie Schönheit auch in der Natur entdeckte. Ende des 19. Jahrhunderts geriet der Blick auf die Ästhetik in grundsätzliche Kritik. Das hatte zum einen mit der kontroversen Begriffsaneignung durch die Ästhetizisten zu tun, zum anderen mit Kunstwerken, die sich provokant von der Konzentration auf Schönheit verabschiedeten und einen eigenen Realismus im Umgang mit sozialer Realität einklagten. Die schonungslose Anerkennung von Missständen sollte ein anerkanntes Ziel werden. Optionen im Umgang mit dem Konflikt bestanden in der Erweiterung der ästhetischen Konzepte wie in der Diskreditierung der Forderung eigener ästhetischer Wahrheit. Fiktionalität, gesellschaftliche Relevanz. Dass Literatur sich im gegenwärtigen Begriff durch Fiktionalität und tiefere Bedeutung, eine Relevanz für die Gesellschaft, auszeichnet, ist im Wesentlichen Erbe der Roman­diskussion, die Mitte des 18. Jahrhunderts von der Literaturbesprechung aufgenommen wurde. Weder die Aristotelische Poetik noch die Nachfolgepoetiken der frühen Moderne hatten Poesie über Fiktionalität erklärt. Romane hatten sie samt und sonders nicht als Poesie anerkannt. Der Vorschlag, Romane und womöglich Poesie generell über Fiktionalität zu definieren, findet sich erstmals klarer mit Pierre Daniel Huet's Traktat über den Ursprung der Romane (1670) gemacht – als Möglichkeit, den theologischen Umgang mit Gleichnissen auf eine neue Lektüre von Romanen zu übertragen, bei dem es darum gehen soll, zu ermessen, welche kulturelle Bedeutung ein jeweiliger Titel hat. Beim Aufbau des modernen Besprechungsgegenstands Literatur war die Frage nach tieferer Bedeutung Anfang des 19. Jahrhunderts praktisch, da sie dem Literaturwissenschaftler neue Tätigkeiten abverlangt, vor allem die der Interpretation. Daneben schuf sie neue Möglichkeiten, Texte zu bewerten und sich speziell diskutierbar rätselhaften, fremdartigen Titeln zuzuwenden und über sie die eigene Nation und Geschichte neu zu erklären. Im 19. und 20. Jahrhundert entfaltete die Frage nach der Bedeutung des Textes in der Kultur zudem politische Dynamik, da sich an sie Forderungen nach aktivem Engagement anschließen ließen. Literarischer Stil und Subjektivität. Die Frage stilistischen Anspruchs ist im Wesentlichen Erbmasse der Diskussion neuester „belles lettres“. Poetiken waren davon ausgegangen, dass zwar einzelne Dichter die Kunst unterschiedlich handhabten, dass jedoch das Persönliche selbst nicht zu erstreben war. Schönheit galt es an sich anzustreben, der Künstler rang um die Schönheit. Mit der Romandiskussion wurde die Frage nach kulturellen Hintergründen akut, die Frage des individuellen Autors war dabei wenig das Ziel. Anders war die Debatte in der Belletristik verlaufen. In ihr stand gerade die Frage nach den Titeln im Vordergrund, die den aktuellen Geschmack am besten befriedigten. Es ging im selben Moment um die Frage nach neuen Autoren, die mit eigenen Sichtweisen den Geschmack prägten. Die „belles lettres“ sollten insgesamt, so ihre Verfechter sich durch Stil auszeichnen – gegenüber den minderwertigen Volksbüchern wie gegenüber der pedantischen Wissenschaftlichkeit. Romane und Memoiren wurden wesentliche Felder der Produktion modernen persönlichen Stils. Die Diskussion jeweiliger Leistungen der individuellen Perspektive ging im frühen 19. Jahrhundert in der heutigen Literaturdiskussion auf – die Frage nach subjektiver Wahrnehmung der Realität, wie sie sich in Literatur abzeichne, prädestinierte den neuen Bereich, der im 19. Jahrhundert aufgebaut wurde, dazu, ein Debattenfeld im Schulunterricht zu werden. Im modernen Literaturunterricht geht es seitdem zentral darum, Schüler zu subjektiven Stellungnahmen zu Literatur zu bewegen, ihre Subjektivität dabei öffentlich wahrzunehmen, Subjektivität behandelter Autoren zu erfassen. Höhere strukturelle Komplexität und komplexeres Traditionsverhalten. Im Lauf des 20. Jahrhunderts kam eine eigene, mutmaßlich neutrale, wissenschaftliche Analyse von Komplexität literarischer Werke auf. Auf sie richtete sich vor allem der Strukturalismus der 1960er und 1970er und ihm folgend der Poststrukturalismus der 1980er und 1990er aus. Betrachtet man die Untersuchungen mit historischer Perspektive, so nehmen sie aus allen Debattenfeldern Untersuchungsoptionen auf. Besondere Würdigung erhalten dabei Texte, die komplexer zu analysieren sind, die der Literaturbesprechung mehr Angriffsfläche der auszulotenden Kontexte geben. Der hochrangige Text ist unter dieser Prämisse der, der reich an – womöglich divergierenden – Bedeutungsebenen ist, sich intensiv mit Traditionen auseinandersetzt, sich komplex auf andere Texte bezieht, erst im Blick auf diese besser verstanden wird. Die Analysen sind insofern wissenschaftlich objektiv, als sie tatsächlich die wissenschaftliche Analysierbarkeit als Eigenschaft von Texten erfassen, die sich dank ihrer Qualitäten in der wissenschaftlichen Analyse halten, uns nachhaltig als Literatur damit beschäftigen. Hier lag, rückblickend betrachtet gleichzeitig die Option einer Mode von Texten, die sich auf die Literaturbetrachtung ausrichteten. Die Postmoderne ging in Entdeckungen des Trivialen am Ende zunehmend konfrontativ bis ablehnend mit den hier definierten Ansprüchen an Kunst der Literatur um. Erst ab dem 19. Jahrhundert hat man zur Literatur nicht nur das Wissenschaftliche gezählt, sondern alles, was schriftlich niedergelegt war. Ab dem Jahrhundert unterschied man auch zwischen hoher Literatur, sprich Hochliteratur, und Literatur von wenig künstlerischer Qualität, sprich Trivialliteratur. Geschichte des Diskussionsfeldes. a> der "Memoirs of Literature" (1712) Der Prozess, in dem im späten 18. und frühen 19. Jahrhundert Dramen, Romane und Gedichte zu „Literatur“ gemacht wurden (sie hingen vorher unter keinem Wort zusammen), muss unter unterschiedlichen Perspektiven gesehen werden. Ganz verschiedene Interessen waren daran beteiligt, die „Literatur“ zum breiten Debattenfeld zu machen. Auf eine einprägsame Formel gebracht, engten die Teilnehmer der Literaturdebatte ihre Diskussion ein und weiteten ihre Debatte damit aus: Seit Jahrhunderten hatten sie erfolgreich wissenschaftliche Schriften als „Literatur“ diskutiert – Poesie und Fiktionen interessierten sie dabei vor 1750 nur am Rande. In der zweiten Hälfte des 18. Jahrhunderts rückten sie ausgewählte Felder des populären Randgebiets in das Zentrum ihrer Rezensionen mit dem Effekt, dass ihre eigene Diskussion sich nun mit den freier besprechbaren Gegenständen ausweitete. Die Gründung der universitär verankerten Literaturwissenschaft festigte im 19. Jahrhundert den Prozess dieser Einengung des Debattenfeldes (auf Dramen, Romane und Gedichte) sowie die Ausdehnung der Diskussion selbst (vor allem auf die staatlichen Schulen und die öffentlichen Medien). 18. Jahrhundert: Die Literaturkritik wendet sich „schöner Literatur“ zu. Das Wort „Literatur“ gilt heute zwar nicht mehr demselben Gegenstand wie vor 1750, es blieb jedoch kontinuierlich das Wort des sekundären Austauschs über Literatur. Es findet sich auf Titelseiten von Literaturzeitschriften, in den Bezeichnungen von Lehrstühlen und universitären Seminaren der Literaturwissenschaft, in den Titeln von Literaturgeschichten, in Wortfügungen wie „Literaturpapst“, „Literaturkritiker“, „Literaturhaus“, „Literaturpreis“. Das Wort „Literatur“ ist dabei (anders als Worte wie „Hammer“, die keine Debattengegenstände bezeichnen) vor allem ein Wort des Streits und der Frage: „Was soll eigentlich als Literatur Anerkennung finden?“ Es gibt eine Literaturdiskussion, und sie legt auf der Suche nach neuen Themen, neuer Literatur und neuen Literaturdefinitionen fortwährend neu fest, was gerade für „Literatur“ erachtet wird. Sie tat dies in den letzten 300 Jahren mit solchem Wandel ihres Interesses, dass man für das Wort „Literatur“ eben durchaus keine stabile inhaltliche Definition geben kann. Das große Thema des Austauschs über Literatur waren bis weit ins 18. Jahrhundert hinein die Wissenschaften. In der Praxis des Besprechungswesens reduzierte sich der Blick der Literaturrezensenten dabei auf neueste Publikationen, auf Schriften – ein Austausch, der zunehmend Leser außerhalb der Wissenschaften ansprach: Wissenschaftliche Journale erschienen in der zweiten Hälfte des 17. Jahrhunderts mit spannenden Themen in den Niederlanden auf Französisch. Englische kamen hinzu, deutsche boomten zwischen 1700 und 1730 im Geschäft, das die Universitäten Leipzigs, Halles und Jenas bestimmten. Der Reiz der wissenschaftlichen Journale war ihre Diskussionsfreudigkeit, ihre Offenheit für politische Themen, die Präsenz, die hier einzelne Literaturkritiker mit eigenen, sehr persönlich geführten Journalen (im deutschen etwa den "Gundlingiana" des Nikolaus Hieronymus Gundling) entwickelten. Zwischen 1730 und 1770 wandten sich deutsche literarische Journale bahnbrechend der nationalen Dichtung zu – im territorial und konfessionell zersplitterten Sprachraum war die Poesie der Nation ein Thema, das sich überregional und mit größten Freiheiten behandeln ließ. Die Gelehrsamkeit (die „res publica literaria“) gewann mit Rezensionen der „belles lettres“, der „schönen Wissenschaften“, der „schönen Literatur“ (so die Dachbegriffe, die man wählte, um diese Werke ungeniert in wissenschaftlichen Zeitschriften ansprechen zu können), ein wachsendes Publikum. Aus dem modischen Ausnahmefall des Rezensionswesens wurde im Verlauf des 18. Jahrhunderts der Regelfall. Nach der neuen Definition war davon auszugehen, dass sich die Literatur in nationalen Traditionssträngen entwickelte: Wenn sie im Kern sprachliche Überlieferung war, dann mussten die Sprachen und die politisch definierten Sprachräume den einzelnen Überlieferungen Grenzen setzen – Grenzen, über die nur ein Kulturaustausch hinweghelfen kann. Ein Sprechen von „Literaturen“ im Plural entfaltete sich. Für die Nationalliteraturen wurden die nationalen Philologien zuständig. Eine eigene Wissenschaft der Komparatistik untersucht die Literaturen heute in Vergleichen. Die Definition von Literatur als „Gesamt der sprachlichen und schriftlichen Überlieferung“ erlaubt es den verschiedenen Wissenschaften, weiterhin in „Literaturverzeichnissen“ ihre eigenen Arbeiten als „Literatur“ zu listen (Fachliteratur). Die Definition im „engen Sinn“ ist dagegen gezielt "arbiträr" und "zirkulär" angelegt. Es blieb und bleibt darüber zu streiten, welche Werke als „künstlerische“ Leistungen anzuerkennen sind. Dramen, Romane und Poesie werden im 18. Jahrhundert zum Diskussionsfeld. Das, was Literatur werden sollte, hatte vor 1750 weder einen eigenen Oberbegriff noch größere Marktbedeutung. Poesie und Romane mussten erst unter eine einheitliche Diskussion gebracht werden, wobei gleichzeitig große Bereiche der Poesie- wie der Romanproduktion aus der Literaturdiskussion herausgehalten werden mussten, wenn diese ihr kritisches Gewicht bewahren wollte. Der Prozess, in dem ausgewählte Dramen, Romane und Gedichte „Literatur“ wurden, fand dabei in einem größeren statt: Seit dem 17. Jahrhundert gab es auf dem Buchmarkt die „belles lettres“ (englisch vor 1750 oft mit „polite literature“ übersetzt, deutsch mit „galante Wissenschaften“ und ab 1750 „schöne Wissenschaften“). Dieses Feld besteht heute im Deutschen mit der Belletristik fort. Die „belles lettres“ werden zum Sonderfeld der Literaturdiskussion. Die „belles lettres“ waren im 17. Jahrhundert unter den „lettres“, den Wissenschaften, für das Besprechungswesen ein unterhaltsamer Randbereich. Sie erwiesen sich im Lauf des 18. Jahrhunderts als popularisierbares Besprechungsfeld. Ihnen fehlten jedoch entscheidende Voraussetzungen, um staatlichen Schutz erlangen zu können: Die „belles lettres“ waren und sind international und modisch (man kann von „nationalen Literaturen“ sprechen, nicht aber von „nationalen Belletristiken“), sie umfassten Memoires, Reiseberichte, politischen Klatsch, elegante Skandalpublikationen genauso wie Klassiker der antiken Dichter in neuen Übersetzungen (ihnen fehlt mit anderen Worten jede Ausrichtung auf eine Qualitätsdiskussion; man liest die mit Geschmack, es gibt „Literaturkritiker“, aber keine „Belletristikkritiker“). Die Belletristik war und ist vor allem aktuell und das selbst in ihren Klassikern (es gibt keine „Belletristikgeschichte“, wohl aber „Literaturgeschichte“) – das sind die wesentlichen Unterschiede zwischen Belletristik und Literatur, die aufzeigen, wie die Belletristik umgeformt werden musste, um die Literatur im heutigen Sinn zu schaffen. Staatliches Interesse – Achtung, mit der sie zum Unterrichtsgegenstand werden konnte – gewann die Belletristik durch die Einrichtung einer nationalen Debatte, in der es um hohe Kunst der nationalen Dichter ging. Romane, Dramen und Gedichte wurden in der Einrichtung dieser Diskussion zum zentralen Feld der „belles lettres“, zu „schöner Literatur“, dem Kernbereich der literarischen Produktion. Das kritische Besprechungswesen entskandalisierte die Belletristik. Der Bereich der „belles lettres“ war vor 1750 klein, aber virulent. Unter 1500–3000 Titeln der jährlichen Gesamtproduktion, die um 1700 in den einzelnen großen Sprachen Französisch, Englisch und Deutsch auf den Markt kam, machten die „belles lettres“ pro Jahr 200–500 Titel aus; 20-50 Romane waren etwa dabei. Der Großteil der Buchproduktion entfiel auf die Bereiche wissenschaftliche Literatur und religiöse Textproduktion von Gebetbüchern bis hoch zu theologischer Fachwissenschaft, sowie, wachsend: auf die politische Auseinandersetzung. Zu den Marktentwicklungen eingehender das Stichwort Buchangebot (Geschichte). Auf dem Weg zur diskutablen Poesie wird die Oper ausgeschaltet. Die Literaturkritik, die Kritik der Wissenschaften, ließ sich zwischen 1730 und 1770 gezielt auf die skandalösesten Bereiche des kleinen belletristischen Marktes ein. Dort, wo es die skandalöse Oper und den ebenso skandalösen Roman gab, musste (so die Forderung der Kritiker) in nationalem Interesse Besseres entstehen. Mit größtem Einfluss agierte hier die deutsche Gelehrsamkeit. Die Tragödie in Versen wurde das erste Projekt des neuen, sich der Poesie zuwendenden wissenschaftlichen Rezensionswesens. Frankreich und England hätten eine solche Tragödie zum Ruhm der eigenen Nation, führte Johann Christoph Gottsched in seiner Vorrede zum "Sterbenden Cato", 1731 aus, die den Ruf nach jener neuen deutschen Poesie begründete, aus der am Ende die neue hohe deutsche Nationalliteratur wurde. Die Attacke richtete sich (auch wenn Gottsched das nur in Nebensätzen klarstellte, und ansonsten das Theater der Wandertruppen angriff) gegen die Oper, die in der Poesie den Ton angab. Die Oper mochte Musik sein. Die neue, der Oper ferne Tragödie würde, so versprach es Gottsched, auf Aufmerksamkeit (und damit Werbung) des kritischen Rezensionswesens hoffen können, falls sie sich an die poetischen Regeln hielt, die Aristoteles formuliert hatte. Der Roman wird dagegen Teil der Poesie. Die Rückkehr zur aristotelischen Poetik blieb ein Desiderat der „Gottschedianer“. Mit dem bürgerlichen Trauerspiel gewann Mitte des 18. Jahrhunderts ein ganz anderes Drama – eines in Prosa, das bürgerliche Helden tragödienfähig machte – die Aufmerksamkeit der Literaturkritik. Der Roman, der mit Samuel Richardsons "Pamela, or Virtue Rewarded" (1740) dem neuen Drama die wichtigsten Vorgaben gemacht hatte, fand im selben Moment das Interesse der Literaturrezension. War der Roman bis dahin eher Teil der dubiosen Historien als Poesie, so wurde nun die Poesiedefinition für den Roman geöffnet, so wie sie gegenüber der Oper, dem Ballett, der Kantate und dem Oratorium verschlossen wurde. Der neue Poesiebegriff gab dem Fiktionalen und seiner diskutierbaren Bedeutung größeren Raum als Regeln und Konventionen. Die Diskutierbarkeit von Poesie nahm damit zu. Sie steigerte sich weiter damit, dass das Besprechungswesen zum nationalen Wettstreit der Dichter aufrief. Die Diskussion „hoher Literatur“ und die Entskandalisierung der Öffentlichkeit. Für die öffentliche Auseinandersetzung bedeutete die neue Differenzierung eine Wohltat. Im frühen 18. Jahrhundert hatte man Romane, die hochrangigen Politikern Sexskandale andichteten, in wissenschaftlichen Journalen besprochen, falls die politische Bedeutung das erforderte. Man hatte die Informationen schlicht als „curieus“ gehandelt (siehe etwa die). Kein Gespür für die Niedrigkeit der Debatte bestand da – man ging vielmehr davon aus, dass sich solche Informationen nicht anders verbreiten ließen, als in skandalösen Romanen. Mitte des 18. Jahrhunderts – die neue Mode der Empfindsamkeit kam in diesem Geschehen auf – konnte man das „Niedere“ zwar nicht vom Buchmarkt verbannen, aber eben aus der Diskussion nehmen. Es mochte einen skandalösen Journalismus beschäftigen, der eines Tages eine eigene Boulevardpresse entwickelte, nicht aber die gehobenen Debatten der Literatur. Die Literaturgeschichte wird mit der Wende ins 19. Jahrhundert geschaffen. Die Literaturdebatte entwickelte auf dem Weg der von ihr angestrebten Marktreform eine besondere Suche nach Verantwortung für die Gesellschaft – und für die Kunst. Sie fragte nach den Autoren dort, wo der Markt bislang weitgehend unbeachtet und anonym florierte. Sie löste Pseudonyme auf und nannte die Autoren gezielt bei ihren bürgerlichen Namen (das war im 17. und 18. Jahrhundert durchaus unüblich, man sprach vor 1750 von „Menantes“ nicht von „Christian Friedrich Hunold“). Die neue Literaturwissenschaft diskutierte, welche Stellung die Autoren in der Nationalliteratur gewannen und legte damit das höhere Ziel der Verantwortung fest. Sie schuf schließlich besondere Fachdiskussionen wie die psychologische Interpretation, um selbst das noch zu erfassen, was die Autoren nur unbewusst in ihre Texte gebracht hatten, doch eben nicht weniger in der literaturwissenschaftlichen Perspektive verantworteten. Rechtliche Regelungen des Autor­status und des Urheberschutzes gaben demselben Prozess eine zweite Seite. Geschichten der deutschen Literatur offenbaren die Einschnitte des hier knapp skizzierten Geschehens, sobald man die besprochenen Werke auf der Zeitachse verteilt: Mit den 1730ern beginnt eine kontinuierliche und wachsende Produktion „deutscher Dichtung“. Die Diskussionen, die seit 1730 geführt wurden, schlagen sich in Wellen von Werken nieder, die in diesen Diskussionen eine Rolle spielten. Vor 1730 liegt dagegen eine Lücke von 40 Jahren – die Lücke des belletristischen Marktes, dem die Gründungsväter der heutigen nationalen Literaturdiskussion als „Niedrigem“ und "Unwürdigen" ihre Betrachtungen verweigerten. Mit dem „Mittelalter“, der „Renaissance“ und dem „Barock“ schuf die Literaturgeschichtsschreibung des 18. und 19. Jahrhunderts für die Vergangenheit nationale Großepochen, die der Literatur, wie sie heute erscheint, eine (lückenhafte, nachträglich produzierte) Entwicklung geben. Frenzels "Daten deutscher Dichtung", die wohl populärste deutsche Literaturgeschichte, auf die Chronologie der von ihr gelisteten Werke hin befragt (y-Achse = besprochene Werke pro Jahr). Deutlich zeichnet sich mit dem Jahr 1730 das Aufkommen der für die Literaturbesprechung verfassten poetischen und fiktionalen Literatur ab. Debatte um Debatte schlägt sie sich mit einer neuen Epoche nieder. Vor 1730 bleibt die Vergangenheit, mit der die deutsche Literatur seit den 1730ern ausgestattet wurde, bruchstückhaft. Seit dem 19. Jahrhundert: Literatur im kulturellen Leben der Nation. Der Streit in der Frage „Was ist Literatur?“, der mit dem 19. Jahrhundert aufkam, und der nach wie vor die Literaturwissenschaft beschäftigt, ist kein Beweis dafür, dass die Literaturwissenschaft nicht einmal dies zuwege brachte: ihren Forschungsgegenstand klar zu definieren. Die Literaturwissenschaft wurde selbst die Anbieterin dieses Streits. Darüber, was Literatur sein soll und wie man sie adäquat betrachtet, muss tatsächlich gesellschaftsweit gestritten werden, wenn Literatur – Dramen, Romane und Gedichte – im Schulunterricht, in universitären Seminaren, im öffentlichen Kulturleben als geistige Leistung der Nation gewürdigt wird. Jede Interessengruppe, die hier nicht eigene Perspektiven und besondere Diskussionen einklagt, verabschiedet sich aus einer der wichtigsten Debatten der modernen Gesellschaft. Nach dem Vorbild der Literatur (als dem sprachlich fixierten nationalen Diskursgegenstand) wurden mit der Wende ins 19. Jahrhundert die internationaler verfassten Felder der bildenden Kunst und der ernsten Musik definiert – Felder, die zu parallelen Marktdifferenzierungen führten: Auch hier entstanden „hohe“ gegenüber „niedrigen“ Gefilden: Die hohen sollten überall dort liegen, wo gesellschaftsweite Beachtung mit Recht eingefordert wird. Der Kitsch und die Unterhaltungsmusik ("U-Musik" im Gegensatz zur "E-Musik") konnten im selben Moment als aller Beachtung unwürdige Produktionen abgetan werden. Die Literaturdebatte muss von allen Gruppen der Gesellschaft als Teil der größeren Debatte über die Kultur und die Kunst der Nation aufmerksam beobachtet werden: Sie nimmt mehr als andere Debatten Themen der Gesellschaft auf und sie gibt Themen an benachbarte Diskussionen weiter. Dass sie zum Streit Anlass gibt, ist das Erfolgsgeheimnis der Literaturdefinition des 19. Jahrhunderts: Literatur sollen die Sprachwerke sein, die die Menschheit besonders beschäftigen – das ist zirkulär und arbiträr definiert. Es liegt im selben Moment in der Hand aller, die über Literatur sprechen, festzulegen, was Literatur ist. Der literarische Kanon verdrängt den religiösen. Ordnung und Fixierung gewann die Literaturdebatte nicht mit der Begriffsdefinition „Literatur“, an der sich der Streit entzündet, sondern mit den Traditionen ihres eigenen Austauschs. Was als Literatur betrachtet werden will, muss sich für einen bestimmten Umgang mit literarischen Werken eignen. Die Literatur entwickelte sich im 19. Jahrhundert zur weltlichen Alternative gegenüber den Texten der Religion, die bislang die großen Debatten der Gesellschaft einforderten. Die Literaturwissenschaft drang mit ihrem Debattengegenstand – Dramen, Romane und Gedichte – in die Lücke, die die Theologie mit der Säkularisierung zu Beginn des 19. Jahrhunderts ließ. Dabei bewährten sich bestimmte Gattungen, die „literarischen“, besser als andere – Siegeszug der pluralistischen Diskussion. Modell literarischer Kommunikation mit Linien des Austauschs zwischen Staat (er legt im Schulunterricht wie an Universitäten fest, was Literatur ist), Öffentlichkeit in den Medien, Verlagen, Autoren und dem Publikum Das Material, das im Lauf des 18. Jahrhunderts zu Literatur gemacht wurde, war zuvor nur im Ausnahmefall von Literaturzeitschriften (wissenschaftlichen Rezensionsorganen) besprochen worden. Der Austausch über Poesie und Fiktionen, über Dramen, Opern und Romane geschah vor 1750 vor allem in den Theatern und in den Romanen selbst. In den Theatern stritten die Fans über die besten Dramen und Opern. Man veranstaltete in London Wettkämpfe, bei denen man Themen ausschrieb und die beste Oper prämierte. Im Roman attackierten Autoren einander unter Pseudonymen mit der beliebten Drohung, den Rivalen mit seinem wahren Namen auffliegen zu lassen. Hier griff der sekundäre Diskurs der Literaturkritik um 1750 mit neuen Debattenangeboten ein. Die Literaturdiskussion selbst war zuerst eine rein wissenschaftsinterne Angelegenheit gewesen: Als im 17. Jahrhundert Literaturzeitschriften aufkamen, besprachen in ihnen Wissenschaftler die Arbeiten anderer Wissenschaftler. Das Publikum dieses Streits weitete sich aus, dadurch, dass die Literaturzeitschriften Themen von öffentlichem Interesse intelligent ansprachen und da die Rezensenten sich auf das breitere Publikum mit neuen Besprechungen der „belles lettres“ einließen. Wenn die Wissenschaften Dichter besprachen, gewann ihre Debatte eine ganz neue Freiheit: Fachintern, doch vor den Augen der wachsenden Öffentlichkeit besprach man hier Autoren, die außerhalb der eigenen Debatte standen. Man konnte mit ihnen weit kritischer umgehen als mit den Kollegen, die man bislang im Zentrum rezensierte. In dem Maße, in dem die Wissenschaften ihren ersten Besprechungsgegenstand (ihre eigene Arbeit) zugunsten des neuen (Poesie der Nation) erweiterten, öffneten sie die Literaturdebatte der Gesellschaft. Die Literaturdiskussion florierte fortan nicht mehr als vor allem internes Geschäft; sie agierte in ihrem Streit zugleich gegenüber zwei externen Teilnehmern: dem Publikum, das die Literaturdebatte verfolgt und vieldiskutierte Titel mit der Bereitschaft kauft, die Diskussionen fortzusetzen und gegenüber den Autoren, die nun als die Verfasser von „Primärliteratur“ dem „sekundären Diskurs“ beliebig distanziert gegenüberstehen können. Der Austausch gewann an Komplexität, als im 19. Jahrhundert die Nation ein eigenes Interesse an der neuformulierten Literatur entwickelte. Die Nationalliteratur ließ sich an Universitäten und Schulen zum Unterrichtsgegenstand machen. Der Nationalstaat bot der Literaturwissenschaft eigene Institutionalisierung an: Lehrstühle an Universitäten. Die nationalen Philologien wurden eingerichtet. Literaturwissenschaftler wurden berufen, um für Kultusministerien die Lehrpläne zu erstellen, nach denen an den Schulen Literatur zu besprechen ist; sie bilden die Lehrer aus, die Literatur bis in die unteren Schulklassen hinab diskutieren. Die Verlagswelt stellte sich auf den neuen Austausch ein. Kommt ein neuer Roman auf den Markt, schickt sie komplett vorgefasste Rezensionen mit Hinweisen auf die Debatten, die dieser Roman entfachen wird, an die Feuilleton-Redaktionen der wichtigsten Zeitungen, Zeitschriften und Fernsehsender. Die Autoren veränderten ihre Arbeit. Mit den 1750ern kamen ganz neue Dramen und Romane auf: schwergewichtige, schwerverständliche, die gesellschaftsweite Diskussionen entfachen müssen. Romane und Dramen wurden in ganz neuem Maße „anspruchsvoll“ – Anspruch auf öffentliche Würdigung ist das neue Thema. Um mehr Gewicht auf Debatten zu gewinnen, wurde es unter den Autoren Mode, Dramen, Romane und Gedichte in epochalen Strömungen zu verfassen, Schulen zu gründen, die einen bestimmten Stil, eine bestimmte Schreibweise (die „realistische“, die „naturalistische“ etc.), eine bestimmte Kunsttheorie (die des „Surrealismus“, die des „Expressionismus“) verfochten. Autoren, die sich auf eine solche Weise verorten, werden, wenn die Aktion gelingt, als bahnbrechende besprochen, wenn sie zu spät auf den falschen Zug aufspringen, werden sie von der Kritik als „Epigonen“ gebrandmarkt. Dieses gesamte Spiel kennt kein Pendant vor 1750. Die meisten Stilrichtungen, die wir (wie das „Barock“ und „Rokoko“) vor 1750 ausmachen, sind erst später geschaffene Konstrukte, mit denen wir den Eindruck erwecken, dass Literatur schon immer Debatten fand, wie sie sie seit dem 19. Jahrhundert findet. Die Autoren organisierten sich in Assoziationen wie dem P.E.N.-Club international. Sie formierten Gruppen wie die „Gruppe 47“ und Strömungen. Mit Manifesten begannen sie, dem sekundären Diskurs Vorgaben zu machen. Im Einzelfall ließen sie sich auf Fehden mit Literaturpäpsten ein, um auf direktestem Weg die Literaturdiskussion auf sich zu ziehen. Autoren nehmen Literaturpreise an oder schlagen sie, wie Jean-Paul Sartre den ihm verliehenen Nobelpreis für Literatur, im öffentlichen Affront aus. Sie halten Dichterlesungen in Buchhandlungen – undenkbar wäre das im frühen 18. Jahrhundert gewesen. Sie begeben sich in den „Widerstand“ gegen politische Systeme, sie schreiben Exilliteratur aus der Emigration heraus. Mit all diesen Interaktionsformen gewann der Austausch über Literatur eine Bedeutung, die der Austausch über die Religion kaum hatte (geschweige denn der Austausch über Literatur im alten Wortsinn oder derjenige über Poesie und Romane, wie er vor 1750 bestand). Das brachte eigene Gefahren mit sich. Die Literaturwissenschaft und der von ihr ausgebildete freiere Bereich der Literaturkritik in den Medien sind erheblichen Einflussnahmen der Gesellschaft ausgesetzt. Die Gesellschaft klagt neue Debatten ein, fordert neue politische Orientierungen, erzwingt von der Literaturkritik Widerstand oder Anpassung. Es gibt in der pluralistischen Gesellschaft in der Folge eine feministische Literaturwissenschaft wie eine marxistische, oder (scheinbar unpolitischer) eine strukturalistische und so fort. Eine Gleichschaltung der Gesellschaft, wie sie das Dritte Reich durchführte, greift konsequenterweise gezielt zuerst in den Literaturbetrieb ein. Die institutionalisierte Literaturwissenschaft lässt sich sehr schnell gleichschalten, Lehrstühle werden neu besetzt, Lehrpläne bereinigt, Literaturpreise unter neuen Richtlinien vergeben. Die Gleichschaltung der Verlagswelt und der Autorenschaft ist die schwierigere Aufgabe der Literaturpolitik, der totalitäre Staaten zur Kontrolle der in ihnen geführten Debatten große Aufmerksamkeit schenken müssen. Rückblick: Ein neuer Bildungsgegenstand wurde geschaffen. Europas Nationen antworteten mit der Einführung nationalstaatlicher Bildungssysteme und der allgemeinen Schulpflicht – durchaus auch – auf die Französische Revolution. Wer aufsteigen wollte, sollte, so das Versprechen, das jede weitere Revolution erübrigen musste, es in der Nation beliebig weit bringen können – vorausgesetzt, er nutzte die ihm angebotenen Bildungschancen. In der Praxis blieben Kinder unterer Schichten bei aller Chancengleichheit finanziell benachteiligt. Weit schwerer wog für sie jedoch, was sie an Erfahrungen frühzeitig in all den Schulfächern machten, in denen die neuen Themen angesagt waren: Wer in der Gesellschaft aufsteigen wollte, würde seinen Geschmack anpassen müssen. Er würde sich ausschließlich für hohe Literatur, bildende Kunst und ernste Musik begeistern müssen und am Ende mit seinen nächsten Angehörigen keine Themen mehr teilen, ihre Zeitungen verachten wie ihre Nachrichten. Die Frage war nicht, ob man aufsteigen konnte. Die Frage war, ob man bei diesen Aussichten aufsteigen wollte? Erst das ausgehende 20. Jahrhundert brachte hier eine größere Nivellierung der „Kulturen“ innerhalb der Gesellschaft – nicht wie in der linken politischen Theorie gedacht durch eine Erziehung, die Arbeiterkinder an die hohe Kultur heranführte, sondern durch neue Moden der Postmoderne, in denen „niedere“ Kultur, „Trash“, plötzlich „Kultstatus“ gewann. Der Verlierer im Kampf um gesellschaftliche Diskussionen und Aufmerksamkeit scheint bei alledem die Religion gewesen zu sein. Die Literatur ist gerade an dieser Stelle eine interessant offene Konstruktion. Die Texte der Religion können dort, wo man Literatur diskutiert, jederzeit als die „zentralen Texte der gesamten sprachlichen Überlieferung“ eingestuft werden. Aus der Sicht der Literaturwissenschaft liegen die Texte der Religion nicht "außerhalb", sondern mitten "im" kulturellen Leben der Nation. Die Texte der Religion stehen zur Literatur als dem großen Bereich aller textlichen (nach Nationen geordneten) Überlieferung nahezu so ähnlich wie die Religionen selbst zu den Staaten, in denen sie agieren. Es ist dies der tiefere Grund, warum sich das Konzept der Literatur, wie es heute die Literaturwissenschaft beschäftigt, weitgehend ohne auf Widerstand zu stoßen, weltweit ausdehnen ließ. Literaturen: Das international fragwürdige Konzept. Die moderne Literaturdebatte folgt vor allem deutschen und französischen Konzepten des 18. und 19. Jahrhunderts. Deutsche Journale wie Lessings "Briefe die Neueste Literatur betreffend" wandten sich früh dem neuen Gegenstand zu. Sie taten dies gerade im Verweis auf ein nationales Defizit. Mit der Französischen Revolution erreichte Frankreich das Interesse an einem säkularen textbasierten Bildungsgegenstand. Wer sich durch die englische Publizistik des 19. Jahrhunderts liest, wird dagegen feststellen, dass das Wort „Literatur“ hier noch bis Ende des 19. Jahrhunderts synonym für die Gelehrsamkeit stehen konnte. An Themen des nationalen Austauschs fehlte es in Großbritannien nicht – die Politik und die Religion lieferten sie zur freier Teilnahme an allen Diskussionen. Die Nation, die die Kirche im 16. Jahrhundert dem Staatsgefüge einverleibt hatte, fand erst spät eine eigene der kontinentalen Säkularisation gleichkommende Debatte. Die wichtigste Geschichte der englischen Literatur, die im 19. Jahrhundert erschien, Hippolyte Taines "History of English Literature" brachte die neue Wortverwendung als Anstoß von außen ins Spiel und machte verhältnismäßig spät klar, welche Bedeutung England in der neu zu schreibenden Literaturgeschichte selbst gewinnen konnte. Tendenzen: Der „erweiterte Literaturbegriff“? – der „Tod der Literatur“? Aus einer nationalliterarischen Perspektive wurde dankbar auf das Konzept nationaler Literaturen zurückgegriffen, da es die jeweilige kulturelle Identität nicht antastete. Die Komparatistik entwickelte jedoch schon früh mit dem Konzept der Weltliteratur ein transnationales Literaturmodell, das – jenseits einer nationalen oder ökonomischen Vorstellung von Literatur(markt) – ein kosmopolitisches Miteinander der Literaturen der Welt gegen die verengende nationale Perspektive setzte. Weitaus mehr Einsprüche rief der enge Literaturbegriff hervor. Sowohl die Schulen der textimmanenten Interpretation, die wie der Strukturalismus die Bedeutung im einzeln vorliegenden Textstück suchen, wie die Schulen der gesellschaftsbezogenen Literaturinterpretation (die vom Marxismus bis zu den Strömungen der Literatursoziologie einen Blick auf die Gesellschaft einfordern), traten in der zweiten Hälfte des 20. Jahrhunderts für einen „weiten“ Literaturbegriff ein. Der schien erstrebenswert, da er es Literaturkritikern erlauben würde, auch politische Texte, Werbung und Alltagstexte ideologiekritisch zu besprechen. Die Vertreter des Poststrukturalismus erweiterten in den 1980er und 1990er Jahren ihren Text- wie ihren Sprachbegriff noch entschiedener. Roland Barthes hatte in den 1950er Jahren bereits die Titelcover von Zeitschriften genauso wie das neue Design eines Autos in ihren Botschaften besprochen. Eine Selbstverständlichkeit wurde der erweiterte Sprachbegriff in der Filmwissenschaft. Hier spricht man ganz ohne weiteres von der „Bildsprache“ eines Regisseurs, und über eine solche Sprache müssen Literaturwissenschaftler sich äußern können. Die moderne Kulturwissenschaft, die „Cultural Studies“ setzen zwar eine umfassende Interpretationspraxis fort, ihr Gegenstand wird jedoch in der „Kultur“ definiert. Wenn die Literaturwissenschaft sich auf sprachliche Kunstwerke spezialisiert, hat dies durchaus Vorteile. Sie hält im selben Moment andere Wissenschaftler davon ab, im eigenen Forschungsfeld als Experten aufzutreten. Die Literaturdiskussion kann letztlich sehr frei festlegen, was ihr Gegenstand ist – sie kann sich auf ein gut gehendes Kerngeschäft, Literatur im engen Sinn, ausrichten, oder auf andere Diskussionen und dazu mit einem weiten Literaturbegriff auftreten. Der wiederkehrende Warnruf, der Tod der Literatur stehe bevor, ist am ehesten ein Spiel mit der Aufmerksamkeit der Gesellschaft, die den Austausch über Literatur verfolgt und verteidigt. dient der Bilderpositionierung, bitte nicht entfernen Sammlungen von Literatur im Internet. E-Texte der Philosophie, Religion, Literatur etc. Im Internet entstandene Literatur. Im Internet wird aber nicht nur Literatur zur Verfügung gestellt, sondern auch Literatur geschrieben. Beispiele sind Digitale Poesie, Weblogs oder kollaboratives Schreiben im Netz. Digitale Literatur folgt anderen Kriterien als herkömmliche Literatur. Literatur im Internet ist von Aspekten der Technik, Ästhetik und Kommunikation geprägt. Das Internet eignet sich dafür um über zeitliche und räumliche Distanzen hinweg zu kommunizieren und multimediale Aspekte zu vereinen und zu integrieren. Außerdem unterliegen elektronische Medien einer beständigen Metamorphose. So haben beispielsweise Neal Stephenson und sein Team mit dem Schreiben eines Romans ("The Mongoliad") im Internet begonnen, bei dem eine Community von Autoren interaktiv mitschreibt. Neben dem eigentlichen Text gibt es eine eigene E-Publishing-Plattform („Subutai“) mit Videos, Bildern, einem Wiki und einem Diskussionsforum zum Roman. Literatursoftware. Zur Verwaltung von Literatur gibt es mittlerweile zahlreiche Programme. Mit ihnen lassen sich z. B. eigene Literatursammlungen nach spezifischen Merkmalen kategorisieren. Die Abfragen brauchen teilweise nicht von Hand eingegeben zu werden, es reicht, z. B. den Autor bzw. den Titel einzugeben und daraufhin eine Suche in bestimmten Datenbanken zu tätigen. Die Ergebnisse können dann einfach übernommen werden. Literaturdatenbanken. Eine Literaturdatenbank katalogisiert den Bestand aktueller und älterer Literatur. Hier finden vermehrt digitale Kataloge bzw. Online-Literaturdatenbanken ihren Gebrauch. Klassische Literaturdefinitionen. "Die Autoren dieser Titel legen ein Corpus von in ihren Augen literarischen Werken fest und versuchen dann, in einer wissenschaftlichen und subjektiven Analyse dieser Werke auszumachen, was Literatur grundsätzlich auszeichnet." Loriot. Loriot, bürgerlich Bernhard-Viktor Christoph-Carl von Bülow, kurz "Vicco von Bülow" (* 12. November 1923 in Brandenburg an der Havel; † 22. August 2011 in Ammerland am Starnberger See) etablierte sich von den 1950er Jahren an bis zu seinem Tod in Literatur, Fernsehen, Theater und Film als einer der vielseitigsten deutschen Humoristen. Loriot betätigte sich auch als Karikaturist, Regisseur, Schauspieler, Bühnen- und Kostümbildner und wurde 2003 von der Universität der Künste Berlin zum Professor für Theaterkunst ernannt. Der Künstlername „Loriot“ stammt vom gleichlautenden französischen Wort für „Pirol“. Der Vogel ist das Wappentier der Familie von Bülow. In der mecklenburgischen Heimat des Adelsgeschlechtes hat sich daher „Vogel Bülow“ als eine gängige Bezeichnung für den Pirol eingebürgert. Familie. a> (frz. "loriot") als Wappentier auf dem Helm Bernhard-Viktor Christoph-Carl von Bülow wurde am 12. November 1923 als Sohn des Polizeileutnants Johann-Albrecht Wilhelm von Bülow (1899–1972) und dessen erster Ehefrau Charlotte Mathilde Luise, geborene von Roeder (1899–1929), Tochter Otto von Roeders (1876–1943), in Brandenburg/Havel geboren. Seine Eltern ließen sich 1928 in Gleiwitz scheiden. Bei der Familie von Bülow handelt es sich um ein altes mecklenburgisches Adelsgeschlecht mit gleichnamigem Stammhaus im Dorf Bülow bei Rehna. Der Name Bülow wurde erstmals 1154 bei der Grundsteinlegung des Ratzeburger Doms urkundlich erwähnt. Die Stammreihe beginnt mit Godofridus de Bulowe (1229). Viele Mitglieder der Familie brachten es im Staatswesen, beim Militär und in der Kirche zu hohen Ämtern oder machten sich um das Kulturleben verdient. Zu Vicco von Bülows Verwandten zählt Bernhard von Bülow, Reichskanzler im Deutschen Kaiserreich. Von Bülow war ab 1951 mit der Hamburger Kaufmannstochter und damaligen Modeschülerin Rose-Marie, geborene Schlumbom, genannt Romi (* 1929), verheiratet und war Vater zweier Töchter – Bettina und Susanne – sowie Großvater zweier Enkelkinder; er lebte von 1963 bis zu seinem Tod in Ammerland am Starnberger See. Kindheit, Krieg, Ausbildung. Von Bülow wuchs mit seinem ein Jahr jüngeren Bruder seit 1927 bei Großmutter und Urgroßmutter in Berlin auf. 1933 zogen die Geschwister wieder zu ihrem Vater, der im Jahr 1932 erneut geheiratet hatte. Von Bülow besuchte von 1934 bis 1938 das Schadow-Gymnasium in Berlin-Zehlendorf. Mit dem Vater zog die Familie 1938 nach Stuttgart. Von Bülow besuchte dort das humanistische Eberhard-Ludwigs-Gymnasium, das er 1941 siebzehnjährig mit Notabitur verließ. In Stuttgart sammelte er auch erste Erfahrungen als Statist in der Oper und im Schauspiel. 1940 spielte er als Statist in dem Film Friedrich Schiller – Der Triumph eines Genies mit. Er begann entsprechend der Familientradition eine Offizierslaufbahn, war drei Jahre mit der 3. Panzer-Division an der Ostfront im Einsatz und wurde mit dem Eisernen Kreuz zweiter und erster Klasse ausgezeichnet; er erreichte den Dienstgrad Oberleutnant. Sein jüngerer Bruder, der am 27. November 1924 ebenfalls in Brandenburg geborene Johann-Albrecht Sigismund von Bülow, fiel am 21. März 1945 als Leutnant bei Gorgast im Oderbruch. Vicco von Bülows militärische Personalakte enthielt keinen Hinweis auf nationalsozialistische Gesinnung. Nach dem Krieg arbeitete er nach eigener Schilderung für etwa ein Jahr als Holzfäller im Solling, um sich Lebensmittelkarten zu verdienen. 1946 vervollständigte er in Northeim am Gymnasium Corvinianum das Notabitur. Auf Anraten seines Vaters studierte er von 1947 bis 1949 Malerei und Grafik an der Kunstakademie (Landeskunstschule) in Hamburg. Zu seinen Lehrern gehörte Alfred Mahlau. Frühe Arbeiten. Nach dem Abschluss legte Bülow erste Arbeiten als Werbegrafiker vor und entwarf das charakteristische "Knollennasenmännchen". Von 1950 an war Bülow als Cartoonist zunächst für das Hamburger Magazin "Die Straße", danach für die Zeitschrift "Stern" tätig. Seit dieser Zeit verwendete er den Künstlernamen "Loriot". Viele Leser drohten damit, den Stern nicht mehr zu kaufen bzw. ihre Abonnements zu kündigen. Henri Nannen, der damalige Chefredakteur, stellte die Serie nach sieben Folgen ein und beendete die Zusammenarbeit: Nach der Einstellung im „Stern“ zeigte sich kein einziger Verleger in Deutschland interessiert, die Serie als kleines Buch zu drucken. Unter anderem lehnte Ernst Rowohlt ab. Loriot sandte auf Anraten einer Bekannten dem Schweizer Daniel Keel die Zeichnungen; 1954 präsentierten die beiden auf der Frankfurter Buchmesse das Buch "Auf den Hund gekommen: 44 lieblose Zeichnungen". So begann eine lebenslange Zusammenarbeit: Loriot publizierte fortan fast ausschließlich bei Keel. Für Keel – er hatte 1952 den Diogenes Verlag gegründet – war es das zweite Buch; für Loriot das erste. 1953 startete der „Stern“ eine Kinderbeilage, das „Sternchen“. Loriot schlug die Serie „Reinhold das Nashorn“ vor und bekam den Auftrag, aus zunächst geplanten zwei Monaten wurden schließlich 17 Jahre. Es folgten weitere Arbeiten für "Weltbild" und "Quick". Er hatte 1959 eine kleinere Rolle als Schauspieler in Bernhard Wickis Film "Die Brücke", sowie 1961 in Bernhard Wickis Film "Das Wunder des Malachias". 1962 hatte er eine Mini-Rolle in Andrew Martons Kriegsfilm "Der längste Tag". Im selben Jahr gestaltete er das Titelblatt der ersten Ausgabe der Satirezeitschrift "pardon". 1963 zog Vicco von Bülow nach Münsing-Ammerland in die Nähe des Starnberger Sees. Dort wurde er als angesehenes Mitglied der Dorfgemeinschaft 1993 zum Ehrenbürger erhoben. Fernsehmoderationen, Serien, „Wum“. Loriot moderierte von 1967 bis 1972 die Fernsehsendung "Cartoon" für den Süddeutschen Rundfunk der ARD, die er auch als Autor und Co-Regisseur verantwortete. Es handelte sich ursprünglich um eine Sendereihe internationaler Zeichentrickfilme, in die er auch eigene Arbeiten einbrachte und damit künstlerisch die engen Rahmenbedingungen, die das Medium Zeitschrift seinen Zeichnungen auferlegt hatte, verließ. Loriots anfänglich reine Moderation von einem roten Sofa aus wurde zunehmend zu einem eigenständigen humoristischen Element der Sendung. Später baute Loriot auch Sketche, in denen er selbst die Hauptrolle übernahm, in die Folgen ein. 1971 schuf Loriot mit dem Zeichentrick-Hund Wum ein Maskottchen für die Aktion Sorgenkind in der ZDF-Quizshow "Drei mal Neun", dem er selbst auch die Stimme lieh. Zu Anfang war Wum noch der treue Freund eines Männchens, des eigentlichen Maskottchens, dem er jedoch mehr und mehr die Show stahl und das er schließlich völlig verdrängte. Zu Weihnachten 1972 wurde Wum dann zum Gesangsstar: Mit dem Titel "Ich wünsch' mir 'ne kleine Miezekatze" war er so erfolgreich, dass er für neun Wochen die Spitze der deutschen Hitparade belegte. Dabei handelte es sich bei "Wums Gesang" um von Bülows Sprechgesang. Wum blieb auch in der Nachfolgesendung "Der Große Preis" bis in die 1990er Jahre hinein als Pausenfüller erhalten, bald schon als Duo zusammen mit dem Elefanten Wendelin und später mit dem "Blauen Klaus", einem Außerirdischen, der mit seiner fliegenden Untertasse einschwebte. Loriot schrieb und zeichnete die Trickfilmgeschichten, die jedes Mal mit einer Aufforderung an die Zuschauer schlossen, sich an der Fernseh-Lotterie zu beteiligen, und lieh allen Figuren seine Stimme. Mit der letzten Folge von "Der große Preis" endeten auch die Abenteuer von Wum und Wendelin. Heute ist das Paar auf der letzten Seite der Fernsehzeitschrift Gong zu sehen. a> vor dem Funkhaus von Radio Bremen (2013) Nach Ende der Serie "Cartoon" produzierte der Süddeutsche Rundfunk eine Sondersendung anlässlich des Besuchs der britischen Queen 1974 ("Loriots Telecabinet"), die bereits einiges von dem vorwegnahm, was im Laufe des Jahrzehnts noch kommen sollte. 1976 entstand mit "Loriots sauberer Bildschirm" die erste Folge der sechsteiligen Fernsehserie "Loriot" bei Radio Bremen, in der er sowohl Zeichentrickfilme als auch gespielte Sketche (letztere oft zusammen mit Evelyn Hamann) präsentierte. Diese Sketche und Trickfilme wurden in Deutschland sehr populär, werden noch immer regelmäßig im Fernsehen wiederholt und sind inzwischen komplett auf DVD erhältlich. Die Anmoderationen und humoristischen Einlagen von Loriot und Evelyn Hamann zwischen den Filmbeiträgen fanden auf einem grünen Sofa statt. 1983 produzierte Radio Bremen zu seinem 60. Geburtstag für die ARD die Sendung "Loriots 60. Geburtstag". Klassische Musik und Oper. Eine besondere Liebe verband Loriot zur klassischen Musik und zur Oper. Das Interesse hatten die Großmutter, die ihm als Kind Mozart, Puccini und Bach auf dem Klavier vorspielte, und die Plattensammlung seines Vaters mit Aufnahmen von Tenören und Opern-Soli, geweckt. In seiner Stuttgarter Zeit wohnte Loriot in Laufweite zur Oper Stuttgart und wirkte als Komparse auf der Opernbühne mit. 1982 dirigierte er das „humoristische Festkonzert“ zum 100. Geburtstag der Berliner Philharmoniker, mit deren Geschichte er durch familiäre Beziehungen verbunden war (Hans von Bülow, der erste Chefdirigent der Philharmoniker, war ein entfernter Verwandter von Loriot). Seine Erzählfassung des "Karnevals der Tiere" führte Loriot wiederholt mit dem "Scharoun Ensemble" auf, einem Kammermusikensemble von Musikern der Berliner Philharmoniker. Als Regisseur inszenierte Loriot die Opern "Martha" (Stuttgart, 1986) und "Der Freischütz" (Ludwigsburg, 1988). Seit 1992 wird seine Erzählfassung von Wagners „Ring des Nibelungen“ aufgeführt: „Der Ring an 1 Abend“, uraufgeführt im Nationaltheater Mannheim. Für Leonard Bernsteins Operette "Candide" verfasste Loriot neue Texte für eine konzertante Aufführung, welche die Handlung besser verständlich machte und dem Stück in Deutschland zu neuer Popularität verhalf. Die Neufassung der konzertanten "Candide" wurde 1997 im Prinzregententheater München uraufgeführt. Loriots „Ring“ bildete auch den einzigen Programmpunkt der 1995 erstmals in Berlin veranstalteten Operngala zugunsten der Deutschen AIDS-Stiftung. Loriot war bis 2006 Moderator dieser jährlich in der Deutschen Oper Berlin ausgerichteten Veranstaltung. Seine Moderationstexte bildeten später den Grundstock für "Loriots kleinen Opernführer". Sein Nachfolger als Moderator der AIDS-Gala war ab 2007 Max Raabe. Kinofilme. 1988 drehte Loriot als Autor, Regisseur und Hauptdarsteller den Film "Ödipussi", 1991 folgte dann "Pappa ante Portas". Dabei spielte Evelyn Hamann jeweils die weibliche Hauptrolle. Produziert wurden alle seine Filme von Horst Wendlandt, der auch die meisten Filme von Otto Waalkes und Hape Kerkeling produzierte. Wohlfahrtsmarken. Am 3. Januar 2011 erschienen vier Wohlfahrtsmarken mit Motiven aus bekannten Zeichentrickfilmen von Loriot: "Das Frühstücksei", "Herren im Bad", "Auf der Rennbahn" und "Der sprechende Hund". Die Zeichnungen hat Vicco von Bülow alias Loriot selbst ausgewählt und als Motive für die Wohlfahrtsmarken zur Verfügung gestellt. Die Marken wurden am 10. Januar 2011 von Bundesfinanzminister Wolfgang Schäuble als Herausgeber und Bundespräsident Christian Wulff als Schirmherr des Sozialwerkes Wohlfahrtsmarken der Öffentlichkeit vorgestellt: „Für mich ist Vicco von Bülow einer der ganz großen lebenden Deutschen im Kulturbereich, einer der ganz großen Kulturschaffenden unseres Landes“, sagte der Bundespräsident. Im März 2012 entschied das Landgericht Berlin zu Gunsten der Erben von Vicco von Bülow, wonach die Wikipedia die Briefmarken nicht zeigen darf. Die Abbildungen waren bereits im Herbst 2011 nach einer einstweiligen Verfügung entfernt worden. Tod. Vicco von Bülow starb am 22. August 2011 im Alter von 87 Jahren in Ammerland am Starnberger See. Er wurde am 30. August 2011 im engsten Familienkreis auf dem Waldfriedhof Heerstraße im Berliner Stadtteil Westend beigesetzt. In der evangelisch-lutherischen St. Gotthardtkirche in Brandenburg/Havel, wo von Bülow am 30. Dezember 1923 getauft worden war, wurde ebenfalls ein Trauergottesdienst für ihn gehalten. Loriot hatte 1986 öffentlich zu Spenden für die Sanierung der Kirche aufgerufen. Der Art Directors Club trauerte um sein Ehrenmitglied in einer Zeitungsanzeige mit den Worten: „Lieber Gott, viel Spaß!“ Erinnerungsstätten. Neben dem Grab auf dem Berliner Waldfriedhof an der Heerstraße erinnern in seinem Geburtsort Brandenburg „Loriots Weg“ mit mehreren Stationen, darunter einige seiner Lebens- und Wirkungsstätten, ein sitzendes Knollennasenmännchen und die Figur Müller-Lüdenscheid an Loriot. Auf dem Eugensplatz in Stuttgart weist seit November 2013 eine Säule darauf hin, dass Loriot dort in Jugendjahren wohnte. Nachdem eine bei einer humoristischen Aktion auf das Denkmal gestellte Mopsfigur für Aufsehen gesorgt hatte und wenig später auf ungeklärte Weise wieder verschwunden war, ziert seit Mai 2014 die Bronzestatue eines Mopses ganz offiziell die Säule. Seit 8. Juni 2015 erinnert auch eine Tafel an der Fassade des Hauses Haußmannstraße 1 daran, dass Loriot „im dritten Stock dieses Hauses von 1938 bis 1941“ wohnte. In Bremen wurde 2013 eine Bronzereplik des Loriot-Sofas – ebenfalls mit Mopsskulptur – vor dem Funkhaus von Radio Bremen postiert. Im selben Jahr fand am Hillmannplatz in der Innenstadt die Einweihung des Loriotplatzes statt. Biografie als Buch. Die im Riva-Verlag München kurz nach Loriots Tod erschienene Biografie musste Mitte Januar 2013 aufgrund von Urheberrechtsverstößen vom Markt genommen werden. Loriots Tochter Susanne von Bülow hatte vor dem Landgericht Braunschweig dagegen geklagt, dass das Buch zu viele Zitate Loriots enthalte. Die Klägerin erzielte einen Teilerfolg. Der Verlag erklärte, das Buch nun in veränderter Form auflegen zu wollen. Künstlerische Handschrift. Loriots Werke beschäftigen sich hauptsächlich mit zwischenmenschlichen Kommunikationsstörungen. Themen der Cartoons sind insbesondere das Alltagsleben, Szenen aus der Familie und der bürgerlichen Gesellschaft und oft die sprichwörtliche „Tücke des Objekts“. Loriot machte das Absurde sichtbar, das in normalen Alltagssituationen steckt, und verspottete etwa in seinen „Ratgebern“ die insbesondere in der deutschen Nachkriegsgesellschaft verbreitete Sehnsucht nach festen, erlernbaren Regeln im gesellschaftlichen Umgang, deren Beachtung vor Peinlichkeiten bewahren sollte. Die Komik entsteht bei Loriot nun gerade in den Sketchen oft dadurch, dass die Figuren sich auch in unpassenden und grotesken Situationen (etwa wenn zwei einander unbekannte Herren versehentlich in derselben Badewanne gelandet sind) darum bemühen, sich an diese gesellschaftlichen Regeln und Normen zu halten, wodurch ein oft absurder Humor erzeugt wird. In seinen Filmen und Sketchen zeigte Loriot gewissermaßen die ‚Tapferkeit‘ von Menschen, die in den verschiedensten Situationen durch ihre bürgerlichen Umgangsformen eine Katastrophe (oder zumindest den destruktiven Ausbruch von Aggressionen) zu verhindern und so ihre Würde zu wahren versuchen. Auffallend sind daneben gekonnt eingesetzte schlüpfrige Akzente. Loriots Humor zeichnete sich durch einen meisterhaften Gebrauch der deutschen Sprache aus. Einige Erfindungen und Formulierungen Loriots wurden im deutschen Sprachraum Allgemeingut. Dazu gehören das Jodeldiplom, die Steinlaus (die sogar mit einem Eintrag im Pschyrembel vertreten ist) und der Kosakenzipfel mit den den Konflikthöhepunkt des zugehörigen Sketches markierenden Beschimpfungen „Jodelschnepfe“ und „Winselstute“, aber auch Sätze wie „Da hab’ ich was Eigenes, [da] hab’ ich mein Jodeldiplom“, „Und Reiter werden ja immer gebraucht!“, „Bitte sagen Sie jetzt nichts …“, „Das ist fein beobachtet“, „Früher war mehr Lametta!“, „Ein Klavier, ein Klavier!“, „Das Bild hängt schief!“, „Es saugt und bläst der Heinzelmann, wo Mutti sonst nur saugen kann“ (sowie die Variante „wo Mutti sonst nur blasen kann“), „Männer und Frauen passen (einfach) nicht zusammen!“, „Frauen haben auch ihr Gutes“ oder das lakonische „Ach (was)!“ Bücher. Loriot während einer Autogrammstunde (1971) a> bei einer Lesung aus "Loriots dramatische Werke" (frühe 1980er) Die ISBN und der Verlag beziehen sich auf die aktuelle Ausgabe. Preise und Ehrungen. a> in Gedenken an den verstorbenen Künstler (2011) Herdentorsteinweg), eingeweiht am 26. Juni 2013 Ausstellungen. Weitere Ausstellungen hatte es in Brandenburg bereits 1985 und 1996 gegeben. Im Panoptikum Mannheim befindet sich eine ihm zu Ehren geschaffene Wachsfigur. Lauren Bacall. Lauren Bacall (* 16. September 1924 in New York City, New York als "Betty Joan Perske"; † 12. August 2014 ebenda) war eine US-amerikanische Schauspielerin. Lauren Bacall zählte zu den Leinwandlegenden der „goldenen Ära“ Hollywoods und spielte während ihrer 68 Jahre lang dauernden Filmkarriere an der Seite von Leinwandgrößen wie ihrem Ehemann Humphrey Bogart, John Wayne, Rock Hudson, Gary Cooper, Marilyn Monroe, Tony Curtis oder Kirk Douglas. Zu ihren berühmtesten Filmen gehören ihr Leinwanddebüt "Haben und Nichthaben" (1944), die Thriller "Tote schlafen fest" (1946) und "Gangster in Key Largo" (1948), die Liebeskomödie "Wie angelt man sich einen Millionär?" (1953) sowie der Film "Liebe hat zwei Gesichter" (1996), für den sie den Golden Globe Award und eine Oscar-Nominierung erhielt. In den 1970er Jahren feierte Bacall außerdem große Erfolge als Theaterschauspielerin am Broadway. Für ihre Darstellungen in den Musicals "Applause" und "Woman of the Year" wurde sie jeweils mit dem Tony Award ausgezeichnet. Das American Film Institute wählte sie 1999 unter die 25 größten weiblichen Filmstars. 2009 erhielt sie den Ehrenoscar für ihr Lebenswerk. Frühe Jahre. Lauren Bacall wurde am 16. September 1924 als einziges Kind von William Perske (* 1889 als "Wulf Perski" in Polen; † 1982) und Natalie Perske, geb. Weinstein (* 1901 in Rumänien; † 1972), in der Bronx geboren. Ihre deutschstämmige Mutter war bereits als Kleinkind mit den Großeltern, Maximillian und Sophie Weinstein, in die Vereinigten Staaten gekommen. Die Vorfahren ihres Vaters stammten zum Teil aus Frankreich; Bacalls Cousin väterlicherseits ist der israelische Spitzenpolitiker und ehemalige Staatspräsident Schimon Peres. Die ersten Lebensjahre verbrachte Bacall in Brooklyn. Ihre Eltern ließen sich scheiden, als sie sechs Jahre alt war. Fortan lebte sie mit ihrer Mutter, die als Sekretärin arbeitete, bei den Großeltern in Manhattan. Der Kontakt zum Vater brach endgültig ab. Natalie Perske ließ sowohl ihren als auch den Nachnamen ihrer Tochter in Bacal, die rumänische Version ihres Geburtsnamens Weinstein, ändern. Später wurde daraus Bacall, um die Aussprache zu erleichtern. Mit finanzieller Unterstützung eines wohlhabenden Onkels besuchte Bacall die private Mädchenschule Highland Manor in Tarrytown, wo sie sich in der Theatergruppe engagierte. Später ging sie auf die Julia Richman High School in Manhattan und arbeitete ab ihrem 16. Lebensjahr nebenbei als Model. Während ihrer Schulzeit träumte sie zunächst davon, professionelle Tänzerin zu werden, entschied sich dann jedoch für die Schauspielerei und schrieb sich für ein Jahr an der New Yorker American Academy of Dramatic Arts ein. Dies ermöglichte es ihr, erste Bühnenerfahrungen in einigen Off-Broadway-Produktionen zu sammeln. Neben dem Schauspielstudium arbeitete sie als Platzanweiserin im St. James Theater. Der Theaterkritiker George Jean Nathan kürte sie in einem seiner Artikel für das Esquire Magazine zur „hübschesten Platzanweiserin“ Manhattans. „Das hat mir wirklich geschmeichelt. Die Aufmerksamkeit von jemandem zu erringen – irgendjemandem –, der in Theaterkreisen angesehen war, das war schon etwas. Es verschaffte mir keine Rolle, aber es konnte auch nicht schaden, und es war besser, als einfach in der Versenkung zu verschwinden“, erinnerte sich Bacall später. Von März bis Mai 1942 gab Bacall ihr Broadway-Debüt in Rowland Browns "Johnny 2 × 4" am Longacre Theatre. Im gleichen Jahr gewann sie die Wahl zur „Miss Greenwich Village“ und erhielt ihre erste große Rolle in George Simon Kaufmans Theaterstück "Franklin Street", das jedoch schon bei der Probeaufführung in Washington D.C. floppte und der Schauspielerin deshalb nicht den ersehnten Durchbruch verschaffen konnte. Anfänge der Hollywood-Karriere. Einflussreiche Bekannte arrangierten 1942 ein Treffen zwischen Bacall und Diana Vreeland, damalige Moderedakteurin bei Harper’s Bazaar. Vreeland war hingerissen vom Aussehen der jungen Schauspielerin, und so schaffte Bacall es auf den Titel der Ausgabe des Magazins von März 1943. Nachdem der Hollywood-Regisseur Howard Hawks Bacalls Bild entdeckt hatte, lud er sie zu Probefilmaufnahmen ein. Bacall über Hawks: „Howard Hawks war es, der mein Leben verändert hat. Er war auf der Suche nach einem Mädchen, das er nach seinen Vorstellungen neu erfinden konnte, er wollte ein Sex-Symbol erschaffen und mich zu einem großen Star machen.“ Und Bacall war der Frauentyp, der Ende der 1930er und anfangs der 1940er in Hollywood gefragt war: starke Charaktere wie Bette Davis und Barbara Stanwyck definierten die klassische Frauenrolle neu; Frauen durften plötzlich kraftvoll und nicht nur einfach unergründlich sein. Um diesen Typ zu unterstreichen, nannte Bacall sich fortan nicht mehr Betty, sondern Lauren. Sie wurde von Warner Bros. unter Vertrag genommen, und Howard Hawks besetzte sie in seinem Film "Haben und Nichthaben" (1944), der gleichzeitig Bacalls Leinwanddebüt markierte, als Femme Fatale an der Seite von Hollywood-Größe Humphrey Bogart. Bacall erinnerte sich später an ihre Angst während der ersten Szene, in der sie Bogart um Feuer für ihre Zigarette fragt: „Meine Hand zitterte. Mein Kopf wackelte. Die Zigarette zitterte. Ich fragte mich, was Howard wohl denken musste. Was mussten Bogart und die Crew denken? Es war grauenhaft. Die einzige Möglichkeit, meinen Kopf still zu halten, war ihn zu senken, das Kinn fast bis auf die Brust, und mit den Augen zu Bogart aufzublicken.“ Diese Haltung und dieser Blick wurden – neben Bacalls heiser klingender Stimme – bald zu ihren Markenzeichen auf der Leinwand. Während der Dreharbeiten verliebten sich die damals 19-jährige Bacall und der 25 Jahre ältere Bogart ineinander, doch die Beziehung musste zunächst geheim gehalten werden, da Bogart noch mit der Schauspielerin Mayo Methot verheiratet war. Hawks, der bald von der Affäre seiner beiden Hauptdarsteller erfuhr, nutzte die Anziehungskraft zwischen Bogart und Bacall für seinen Film, indem er sie in noch mehr Szenen zusammen auftreten ließ. "Haben und Nichthaben" kam im Oktober 1944 in die US-amerikanischen Kinos und lockte das Filmpublikum, das sich von der Chemie zwischen Bacall und Bogart überzeugen wollte, in Scharen in die Vorstellungen. Nach der Scheidung von Methot heirateten Bogart und Bacall am 21. Mai 1945 auf einer Farm in Lucas County, Ohio. Im selben Jahr erschien Bacalls zweiter Film "Jagd im Nebel" an der Seite von Charles Boyer und Peter Lorre. In dem Film von Regisseur Herman Shumlin spielt Bacall eine englische Spionin, und sie musste sich für diese Rolle einen britischen Akzent aneignen. Später gab sie zu, dass ihr dies nicht besonders gut gelungen sei. Sie habe den Film nur gedreht, weil sie von Jack L. Warner in das Projekt gedrängt worden sei. Später wehrte sich Bacall erfolgreicher gegen Rollen, die ihr vom Filmstudio vorgeschrieben wurden, obwohl sie ihr nicht zusagten. „Wenn man nicht spielte, was das Studio von einem verlangte, wurde man suspendiert. Und ich wurde suspendiert! Ich hatte den Vertrag gebrochen. Studioboss Jack Warner hatte da eine einfache Philosophie: Ich bezahle sie, also wird sie verdammt noch mal machen, was ich von ihr will. Und er schickte mir schreckliche Drehbücher.“ In "Tote schlafen fest" (1946) arbeitete sie erneut mit Bogart und unter der Regie von Howard Hawks. Auch in Delmer Daves’ "Die schwarze Natter" (1947) und in John Hustons "Gangster in Key Largo" (1948) spielten Bacall und Bogart Seite an Seite. Ende der 1940er Jahre wurde Bacall schwanger, weshalb sie beruflich etwas kürzertrat, um sich um ihr und Bogarts erstes Kind, Steven Humphrey, kümmern zu können, der am 6. Januar 1949 geboren wurde. Karriere in den 1950/60er Jahren. 1950 wirkte Bacall zweimal unter der Regie von Michael Curtiz bei den Filmen "Der Mann ihrer Träume" mit Kirk Douglas und Doris Day sowie "Zwischen zwei Frauen" an der Seite von Gary Cooper und Patricia Neal mit. Am 23. August 1952 kam Bacalls und Bogarts zweites Kind zur Welt. In ihrem ersten Film nach der Geburt von Tochter Leslie Howard spielte Bacall gemeinsam mit Marilyn Monroe und Betty Grable in "Wie angelt man sich einen Millionär?" (1953) von Regisseur Jean Negulesco. Mit ihm drehte sie ein Jahr später auch das Drama "Die Welt gehört der Frau". 1955 bekamen Bacall und Bogart das Angebot, die Hauptrollen in William A. Wellmans Abenteuerfilm "Der gelbe Strom" zu spielen. Während sich Bacall mit den Produzenten einigte, lehnte Bogart die Rolle des Capt. Wilder ab, da das Filmbudget für seine Gagenforderung in Höhe von 500.000 US-Dollar nicht ausreichte. Den Part an der Seite Bacalls übernahm schließlich John Wayne, und der Film feierte seine Weltpremiere am 1. Oktober 1955. Danach war Bacall mit Rock Hudson in der Romanverfilmung "In den Wind geschrieben" (1956) zu sehen. Humphrey Bogart starb im Januar 1957 an Speiseröhrenkrebs in ihrem gemeinsamen Haus in Los Angeles. Bacall wurde mit 32 Jahren Witwe und alleinerziehende Mutter zweier Kinder im Alter von acht und vier Jahren. Später erinnerte sie sich: „Ich brauchte Jahre, um damit fertigzuwerden. Eigentlich bin ich bis heute nicht über seinen Tod hinweggekommen. Über solche Dinge kommt man nie hinweg.“ Einige Monate später ging sie eine kurze Affäre mit Frank Sinatra ein. Das Paar war auch kurze Zeit heimlich verlobt, Sinatra löste die Verbindung jedoch, nachdem die Presse davon erfahren hatte. Nach dem Tod ihres Ehemannes war Bacall erstmals mit "Warum hab’ ich ja gesagt?" (1957) wieder auf der Kinoleinwand zu sehen. Es folgten "Geschenk der Liebe" (1958) und der britische Abenteuerfilm "Brennendes Indien" (1959) von J. Lee Thompson. Danach zog es Bacall zurück an die Ostküste, wo sie von Dezember 1959 bis März 1960 in dem Broadway-Stück "Goodbye, Charlie" am Lyceum Theatre auf der Bühne stand. In New York lernte die Schauspielerin ihren Kollegen Jason Robards kennen, den sie im Jahr 1961 heiratete. Ihr gemeinsamer Sohn Sam Prideaux kam am 16. Dezember 1961 zur Welt. Auf der Kinoleinwand war Bacall in den 1960er Jahren nur sporadisch zu sehen. 1964 spielte sie in dem wenig beachteten Film "Der Mörder mit der Gartenschere" von Regisseur Denis Sanders und drehte mit Tony Curtis, Natalie Wood und Henry Fonda unter der Regie von Richard Quine die romantische Komödie "… und ledige Mädchen". Schließlich war sie in Jack Smights Thriller "Ein Fall für Harper" (1966) zu sehen. Von Dezember 1965 bis November 1968 gab Bacall über 1000 Vorstellungen als Stephanie Dickinson in dem Broadway-Stück "Cactus Flower", das später mit Ingrid Bergman und Walter Matthau in den Hauptrollen verfilmt wurde. 1969 wurden Bacall und Robards geschieden. Karriere in den 1970/80er Jahren. Am 30. März 1970 feierte das Broadway-Musical "Applause" am New Yorker Palace Theatre seine Premiere. Bis Juli 1972 trat Bacall in über 800 Vorstellungen als Margo Channing auf und erhielt für diese Rolle den Tony Award als beste Hauptdarstellerin in einem Musical. In der Fernsehadaption des Stücks von 1973 übernahm Bacall abermals die Hauptrolle, die ihr eine Emmy-Nominierung einbrachte. Im Jahr 1974 fanden die Dreharbeiten zur Verfilmung von Agatha Christies Kriminalroman "Murder on the Orient Express" in Europa statt. In dem Film spielte Bacall unter der Regie von Sidney Lumet in einem starbesetzten Schauspielensemble, dem u. a. auch Ingrid Bergman, Vanessa Redgrave, Sean Connery, Albert Finney und John Gielgud angehörten. "Mord im Orient-Expreß" feierte seine Weltpremiere am 24. November 1974 in den Vereinigten Staaten. Mit ihrem Kollegen John Gielgud spielte Bacall 14 Jahre später erneut in einer Agatha Christie-Verfilmung: "Rendezvous mit einer Leiche" (1988). In Don Siegels Western "The Shootist – Der letzte Scharfschütze" (1976) spielte Bacall an der Seite von John Wayne, James Stewart und Ron Howard. Für die Rolle der Bond Rogers erhielt sie 1977 eine British-Academy-Film-Award-Nominierung als beste Hauptdarstellerin. "The Shootist – Der letzte Scharfschütze" war nicht nur John Waynes letzter Film, es war auch der letzte Kinofilm, in dem Bacall eine Hauptrolle spielte. 1978 war sie mit Ruth Gordon in dem Fernsehfilm "Ladies mit weißer Weste" nach dem Drehbuch von Nora Ephron und unter der Regie von Jackie Cooper zu sehen. An der Seite von James Garner war sie 1979 in einer Doppelfolge der Serie "Detektiv Rockford – Anruf genügt" erneut im Fernsehen zu sehen und erhielt für ihre Darstellung ihre zweite Nominierung für den Emmy. Auf die Kinoleinwand kehrte sie mit Robert Altmans "Health – Der Gesundheits-Kongreß" (1980) zurück, gefolgt von Edward Bianchis "Der Fanatiker" (1981). Von März 1981 bis März 1983 trat Bacall wieder am Broadway auf. Für ihre Rolle in dem Musical "Woman of the Year" gewann sie 1981 erneut einen Tony Award. Ende der 1980er drehte sie die Kinoproduktionen "Mr. North – Liebling der Götter" (1988) und "Wahn des Herzens" (1989) sowie die Fernsehfilme "Dinner at Eight" (1989) und "Schatten über Sunshine" (1990). Karriere seit 1990. In Rob Reiners Psychothriller "Misery" (1990) war sie neben Kathy Bates und James Caan in der Rolle einer Verlegerin zu sehen, und 1994 übernahm sie eine Nebenrolle in Robert Altmans Episodenfilm "Prêt-à-Porter" über den Pariser Modezirkus. Im Jahr 1996 spielte Lauren Bacall in Barbra Streisands romantischer Komödie "Liebe hat zwei Gesichter" die Mutter von Streisands Filmfigur Rose Morgan. Für ihre Darstellung der eitlen und überheblichen Hannah Morgan wurde Bacall von Filmkritikern gefeiert und mit zahlreichen Preisen geehrt, darunter eine Nominierung für den Oscar, die Auszeichnung mit dem Golden Globe als beste Nebendarstellerin und dem Screen Actors Guild Award. Mit Jack Lemmon, James Garner und Dan Aykroyd drehte sie unter der Regie von Peter Segal die Komödie "Ein Präsident für alle Fälle" (1996) und stand noch einmal mit Kirk Douglas in "Diamonds" (1999) vor der Kamera. In Lars von Triers "Dogville" (2003) und "Birth" (2004) spielte sie an der Seite von Nicole Kidman. Von Trier holte sie auch für sein Drama "Manderlay" (2005) vor die Kamera. In "The Walker" (2007) von Regisseur Paul Schrader übernahm sie ebenfalls eine Nebenrolle. Gemeinsam mit Schrader, Moritz Bleibtreu und Willem Dafoe stellte sie den Film bei der Berlinale vor, wo er auch im Wettbewerb lief. In der Fernsehserie "Die Sopranos" hatte sie 2006 einen Gastauftritt neben Ben Kingsley, in welchem die beiden sich selbst darstellen. Auch in Natalie Portmans Regiedebüt, dem Kurzfilm "Eve" (2008), war sie zu sehen. Anfang September 2009 wurde der Schauspielerin der Ehrenoscar zugesprochen, den sie am 14. November 2009 erhielt. Am 12. August 2014 starb sie im Alter von 89 Jahren in ihrer Wohnung im Dakota Building in New York City an den Folgen eines Schlaganfalls. Auszeichnungen. Academy Award of Merit („Oscar“) British Academy Film Award Golden Globe Award National Board of Review Award Satellite Award Screen Actors Guild Award Tony Award Lars von Trier. Lars von Trier (bürgerlich "Lars Trier"; geboren am 30. April 1956 in Kopenhagen) ist ein dänischer Filmregisseur und Drehbuchautor. Er ist unter anderem Gewinner der Goldenen Palme von Cannes. Leben. Lars von Trier ist der zweite Sohn von Inger Høst (1915–1989) und dem dänischen Juden Ulf Trier (1907–1978). Ulf Triers Vorfahren Salomon und Ethel Trier waren im 18. Jahrhundert aus Trier nach Dänemark eingewandert. Inger Høst und Ulf Trier lernten sich während der deutschen Besetzung Dänemarks in der dänischen Widerstandsbewegung kennen, wo sie Juden halfen, über den Øresund ins sichere Schweden zu fliehen. Nach von Triers Angaben waren seine Eltern Kommunisten, gehörten einer Gemeinschaft von Nudisten an und erzogen ihn antiautoritär. Erst im Alter von 33 Jahren erfuhr von Trier, dass Ulf Trier nicht sein leiblicher Vater und er somit nicht jüdischer Abstammung war. Kurz vor ihrem Tod gestand von Triers Mutter ihrem Sohn, dass sein leiblicher Vater ihr ehemaliger Vorgesetzter im Sozialministerium Fritz Michael Hartmann sei. Die deutschstämmige Familie Hartmann lebt mit Johann Ernst Hartmann seit 1762 in Dänemark. Sie hat einige bedeutende dänische Musiker, wie den Komponisten Johann Peter Emilius Hartmann, hervorgebracht. Nach eigenen Angaben war von Trier tief enttäuscht darüber, keine jüdischen Wurzeln zu haben. Er habe sich in der Rolle eines Außenseiters, der aus einer Gruppe von Verfolgten stammte, wohl gefühlt. In der Synagoge habe er sich immer zugehöriger gefühlt als in evangelischen oder katholischen Kirchen. Ein Onkel mütterlicherseits war Børge Høst, ein Filmregisseur, der wohl sein Interesse fürs Filmemachen weckte. Bereits als Grundschüler drehte er mit einer Kamera im Super-8-Format kleine Animationsfilme, später dann Kurzfilme mit seinen Freunden. Sein erster dokumentierter Animationsfilm von circa 1967 hieß "Turen til Squashland" (Die Reise ins Zucchiniland) und dauerte eine Minute. Von Trier litt bereits in seiner Kindheit unter Depressionen und Phobien und konnte einige Zeit nicht die Schule besuchen. Er wurde psychiatrisch betreut. Mit zwölf Jahren besuchte er ein Tagesheilungszentrum. Trotzdem spielte er 1969 eine der zwei Hauptrollen in der dänisch-schwedischen Kinderfernsehserie "Hemmelig sommer". In seiner ersten Ehe war von Trier bis 1996 mit der dänischen Regisseurin, Drehbuchautorin und Schauspielerin Cæcilia Holbek Trier verheiratet, die wie er an der Dänischen Filmschule studiert hat. Während der zweiten Schwangerschaft von Cæcilia Holbek Trier verliebte er sich in die verheiratete Bente Frøge, eine Erzieherin, die seine Tochter in der Kindertagesstätte betreute. Drei Wochen nach der Geburt seiner zweiten Tochter verließ er offiziell seine Ehefrau, um mit Bente Frøge zusammenzusein. Dieses Verhalten führte nicht nur zu beträchtlichen Verletzungen bei seiner verlassenen Frau, den beiden Töchtern u. a., sondern auch zu einem gewaltigen Medienecho in Dänemark. Bente und Lars von Trier heirateten nach beider Scheidungen 1997. Bente Trier brachte nach einigen Jahren Zwillingssöhne zur Welt. Von Triers psychische Probleme führten zu Alkoholismus und Tablettenabhängigkeit. In einem Interview mit der Tageszeitung "Politiken" gab der Regisseur an, in berauschtem Zustand besonders produktiv zu sein und gab gleichzeitig seiner Sorge Ausdruck, ohne Rauschmittel keine Filme mehr machen zu können. Der Filmemacher. Nach dem externen Abitur begann von Trier 1976 ein Studium der Filmwissenschaften an der Universität Kopenhagen, bei dem er vor allem Leute kennenlernte, die ihm halfen, seine Filme zu verwirklichen. Von 1979 bis 1983 absolvierte er die Dänische Filmhochschule in der Fachrichtung "Regie". 1980 gewann Lars von Trier mit seinem Kurzfilm "Nocturne" den ersten Preis beim Festival der Filmhochschulen in München. Seine 55-minütige Regie-Abschlussarbeit an der Dänischen Filmhochschule "Befrielsesbilleder/Bilder der Befreiung" von 1982 wurde auf dem Münchner Filmfest als bester Film des Jahres ausgezeichnet. Der Film wurde aus drei verschiedenen Materialien collagiert: erstens einem in Farbe neu gedrehten „Handlungsteil“, zweitens vorhandenem Dokumaterial in Schwarz-Weiß aus der Zeit des Nationalsozialismus, wie die Vorführfahrt des „Wessel-Mörders“ im Auto oder Filmausschnitten über die Festnahme von Kollaborateuren des nationalsozialistischen Deutschlands in Dänemark, und drittens verschiedenen Filmausschnitten in 1950er-Jahre-Farben von jeweils einem Vogel, der auf der Spitze eines Baumes zwitschert. Im Film wird wenig in Deutsch, Dänisch oder Englisch gesprochen. "Bilder der Befreiung" zeigt keine glücklichen Menschen, wie der Titel vermuten lassen könnte, sondern deutsche Soldaten, Kollaborateure und dänische Frauen, die mit den deutschen Besatzern zusammenwaren, als Verlierer und Opfer. Viele der filmischen Ideen, wie z. B. die Unterbrechung des Handlungsverlaufs, Unterlegung des Films mit Chorälen oder die Kombination SS-Uniformen, Wasser und Feuer, tauchen in seinen späteren Filmen wieder auf. Neben seinen Spielfilmen drehte Lars von Trier auch Werbespots und Musikvideos. 1983 drehte er zusammen mit Vladimir Oravsky für das dänische Popduo Laid Back "Elevator Boy" und 1990 das spektakuläre "Bakerman"-Video, das die Musiker beim Musizieren in freiem Fall beim Fallschirmsprung filmte. Filme der E-Trilogie. 1984 kam sein erster Langfilm, der Krimi "The Element of Crime" ins Kino. In "The Element of Crime" wird der Faszination für faschistoide Symbole noch mehr Raum gegeben als im Vorgängerfilm. "The Element of Crime" ist der erste Teil einer Europatrilogie, die sich mit der Geschichte Europas im 20. Jahrhundert, Überbleibseln archaischer Gesellschaftsformen und dem Verfall Europas auseinandersetzt. "The Element of Crime" gewann bei den Internationalen Filmfestspielen von Cannes den Prix Vulcain de l’artiste technicien und bedeutete den nationalen und internationalen Durchbruch für von Trier. Die weiteren Teile der Trilogie waren 1987 "Epidemic," der ebenfalls Wettbewerbsfilm in Cannes war, und "Europa" (1991), der dort ebenfalls mit dem Prix Vulcain de l’artiste technicien ausgezeichnet wurde und einen Sonderpreis der Jury sowie den Preis für den besten künstlerischen Beitrag erhielt. TV-Produktion "Medea". 1988 verfilmte Lars von Trier für Danmarks Radio die griechische Tragödie "Medea" nach Euripides. Basis seines selbst geschriebenen Drehbuchs war das bereits vorhandene Skript von Carl Theodor Dreyer und Preben Thomsen. Dimension 1991–2024. 1991 startete von Trier zusammen mit Niels Vørsel das Filmprojekt "Dimensions," die Langzeit-Verfilmung einer polizeilichen Intrige, die auf jährlich drei Minuten Drehzeit beschränkt sein sollte und die (unter anderem mit dem Schauspieler Udo Kier), an verschiedenen Drehorten in Europa gedreht und im Jahr 2024 fertiggestellt werden sollte. Gedreht wurde ohne Drehbuch und auf Englisch. Der Schauspieler Eddie Constantine starb 1993. Nach Angaben der Zeitung "Die Welt" hat von Trier das Projekt inzwischen aufgegeben, da er mit anderen Projekten ausgelastet und die von ihm ausgesuchte Nachfolgerin für die Regie Katrin Cartlidge zwischenzeitlich verstorben ist. Es gibt eine 27 Minuten lange Version des im Jahr 2010 abgebrochenen Projektes. TV-Serie "Riget". Die TV-Serie "Hospital der Geister/Geister/Riget/The Kingdom" von 1994 spielt im zweitgrößten dänischen Krankenhaus Rigshospitalet. Lars von Trier ließ sich dafür von "Twin Peaks" inspirieren. Lars von Trier und Niels Vørsel schrieben das Drehbuch sehr schnell und unter möglichst großem Spaß. Die Serie war in Dänemark ein großer Erfolg, da sie sowohl äußerst lustig als auch sehr spannend war und von Folge zu Folge immer gruseliger wurde. 1997 folgte die zweiten Staffel. Eine eigentlich geplante Fortsetzung scheint kaum mehr möglich, da zwei Schauspieler (Rollen: Frau Drusse, Dr. Helmer) verstorben sind und Lars von Trier und Niels Vørsel nicht mehr zusammenarbeiten. Golden-Heart-Trilogie. Mit "Breaking the Waves" von 1996 beginnt die sogenannte Golden-Heart-Trilogie. Die bis dahin unbekannte Hauptdarstellerin Emily Watson übernahm die Rolle der jungen Bess McNeill, welche sich in dem Wahn, dadurch ihre große Liebe (dargestellt von Stellan Skarsgård) retten zu können, von einem akzeptierten Mitglied der Gemeinschaft zu einer Dorfprostituierten entwickelt. Der international bekannte dänische Künstler Per Kirkeby gestaltete die Kapitelbilder, die den Film gliedern. Es handelt sich um Landschaftsaufnahmen, die minutenlang zu sehen sind und sich dabei minimal verändern. 1998 nahm Lars von Trier mit dem zweiten Dogma-Film "Die Idioten/Idioterne" am Filmfest von Cannes teil. Der Film provozierte stark durch sein Thema „Irre spielen“, die ersten pornographischen Darstellungen in einem Spielfilm und durch die sehr unruhige und wacklige Kameraführung. Für das technisch aufwendige Musical "Dancer in the Dark," in dem einzelne Tanzszenen mit unzähligen Kameras gleichzeitig gefilmt wurden, erhielt von Trier 2000 die "Goldene Palme" in Cannes. Björk schrieb nicht nur die gesamte Filmmusik, sondern spielte auch die Hauptfigur Selma. Ähnlich wie in "Breaking the Waves" opfert eine Frau ihr Leben für ihre Liebe. Hier kein Ehemann, sondern der geliebte und von Erbkrankheit bedrohte Sohn. "Dancer in the Dark" kann sowohl zur Golden-Heart- als auch zur USA-Trilogie gerechnet werden. USA-Trilogie. Mit "Dogville" begann von Trier seine filmische USA-Trilogie, die dort bei einigen Kritikern bereits deshalb auf Vorbehalte stößt, weil der Regisseur aufgrund seiner Flugangst selbst nie dort gewesen ist. Den Vorwurf kommentierte von Trier in Anspielung auf den Film "Casablanca" mit der Feststellung, dass die Amerikaner auch nicht in Marokko gewesen seien. Vor allem störten die Kritiker sich an der aus ihrer Sicht einseitigen Darstellung der Dorfgemeinschaft in Dogville. Mit dem Film "Manderlay" von 2005 führte er die mit "Dogville" begonnene Geschichte fort. Die Hauptfigur Grace ist nicht mehr mit Nicole Kidman besetzt, sondern mit Bryce Dallas Howard. Beide Filme arbeiten mit Brechts Theater, in dem stets klargemacht wird, dass man nur ein „Schau-Spiel“ sieht. Emotionale Distanz ist erwünscht und wird gezielt erzeugt. Gefilmt wurde in schwarz gestrichenen Hallen, in denen nur die nötigsten Requisiten standen. In "Dogville" wurden die gedachten Häuser als zusätzlicher Verfremdungseffekt nur durch weiße Linien auf dem Hallenboden kenntlich gemacht. "Antichrist". 2008 drehte von Trier in Nordrhein-Westfalen den Horror-Thriller "Antichrist" mit Charlotte Gainsbourg und Willem Dafoe in den Hauptrollen. Der Film erhielt 2009 eine Einladung in den Wettbewerb der 62. Internationalen Filmfestspiele von Cannes und brachte von Trier eine Nominierung für den Europäischen Filmpreis und den dänischen Robert in den Kategorien "Regie" und "Drehbuch" ein. Er gewann den nordischen Filmpreis 2009. Der heftig umstrittene Film festigte von Triers Ruf als Skandalfilm-Regisseur. "Melancholia". Im Sommer 2010 drehte von Trier den Spielfilm "Melancholia" mit internationaler Besetzung in Schweden. Der Film ist aus dem nicht verwirklichten Projekt entstanden, Jean Genets Stück "Die Zofen" mit Penélope Cruz zu verfilmen. Er entspricht im Aufbau einer Oper, d. h. er besteht aus einer Ouvertüre, zwei Akten und einem Finale. Die Ouvertüre besteht aus verschiedenen Standbildern ohne Ton und Handlung, die sich minimal bewegen. Diese Einleitung dauert acht Minuten und ist eine Weiterentwicklung der Kapitelbilder in "Breaking the Waves." Filmmusik ist Richard Wagners "Tristan und Isolde". Dann beginnt das erste Kapitel / der erste Akt mit dem Namen Justine, die von Kirsten Dunst gespielt wird. Erzählt wird die Fahrt zur Hochzeitsfeier, die Hochzeitsfeier, die immer wieder aus dem Ruder läuft, sowie die Abreise des Bräutigams samt seiner Eltern. Das zweite Kapitel heißt Claire nach der zweiten Schwester, die von Charlotte Gainsbourg gespielt wird, und erzählt vom Leben der Schwestern nach der desaströsen Heirat. Justine ist schwer depressiv und muss auf dem luxuriösen Landsitz ihres Schwagers von ihrer Schwester gepflegt werden. Hintergrundthema ist, wie die vier Familienmitglieder, Claire, Ehemann, Sohn und Justine, zum Herannahen des Planeten Melancholia stehen. Der Schwager und der Neffe sind anfangs sicher, dass der Planet an der Erde vorbeifliegt und erwarten ein ungefährliches Abenteuer. Justine und Claire tauschen gefühlsmäßig die Rollen. Ist während der Hochzeitsfeier nur Justine beunruhigt, so bekommt im Verlauf des Films Claire immer mehr Angst und Justine fügt sich ins Unvermeidliche. Das Finale beginnt mit dem Selbstmord von Claires Ehemann, als er versteht, dass die Erde zerstört werden wird. Und endet mit einem Feuerball, der das magische Tipi, das Justine gebaut hat, um ihren Neffen zu beruhigen, mit Justine, Claire und ihrem Sohn verschluckt. "Melancholia," der 2011 fertiggestellt wurde, brachte von Trier seine neunte Einladung in den Wettbewerb der Internationalen Filmfestspiele von Cannes ein. "Nymphomaniac". "Nymphomaniac" kam am 20. Februar 2014 als "Nymphomaniac Volume I" in die deutschen Kinos. In einer Langfassung wurde der Film auf den 64. Internationalen Filmfestspielen Berlin 2014 gezeigt. Dem Film ging eine mehrjährige Werbekampagne voraus. Die Gruppe der Filme "Antichrist", "Melancholia" und "Nymphomaniac" wird häufig als die "Trilogie der Depression" bezeichnet. Die Weltuhr in Kopenhagen (Psykomobile # 1 Verdensuret). 1996 war Kopenhagen Kulturhauptstadt Europas. Lars von Trier nahm mit einem von Ameisen in Neu-Mexiko in Echtzeit gesteuerten Theater, das in der Kopenhagener Kunstvereinigung stattfand, teil. Die über acht Wochen dauernde Inszenierung wurde von Morten Arnfred geleitet. Dokumentiert wurde das Ganze von Jesper Jargil in dem Film De Udstillede (Die Ausgestellten). Der Ring in Bayreuth. Von Trier gab 2004 bekannt, dass er sich trotz zweijähriger Vorbereitung nicht in der Lage sehe, den "Ring des Nibelungen" wie geplant für die Richard-Wagner-Festspiele 2006 in Bayreuth zu inszenieren, da die Inszenierung des vierteiligen Opern-Zyklus von ca. 16 Stunden Spieldauer seine Kräfte übersteigen würde. Lars von Trier und seine Produktionsfirma Zentropa. 1992 gründete von Trier zusammen mit dem Produzenten Peter Aalbæk Jensen die Filmproduktionsfirma Zentropa, die heute die erfolgreichste und größte Produktionsstätte für Film (TV und Kino) in Dänemark ist. Zentropa wurde mit dem "Douglas-Sirk-Preis" ausgezeichnet. Lars von Trier bezieht ein festes Gehalt und ist nach eigener Aussage nicht im Management. Er trägt aber mit seinen kommerziell erfolgreichen Filmen und seiner hohen Medienpräsenz maßgeblich dazu bei, dass Filme anderer finanziert werden können. Der Name Zentropa stammt aus seinem Film Europa – so heißt die Eisenbahngesellschaft im Film. Die Tochterfirma Zentropas, Innocent Pictures, die „frauenfreundliche“ Pornos produziert hat, gibt es nicht mehr. Das Dogma-Manifest (Dogme95). Ein Mediencoup gelang Lars von Trier mit seinem "Dogma 95"-Manifest. Am 20. März 1995, dem 100. Geburtstag des Films, warf Lars von Trier einen Haufen Flugblätter mit dem Manifest vor die versammelte Presseschar im Pariser Odeon-Theater. 2008 wurde die Dogma-Bewegung um von Trier, Vinterberg, Levring und Kragh-Jacobsen mit dem Europäischen Filmpreis in der Kategorie "Beste europäische Leistung im Weltkino" bedacht. Pornografische und gewalttätige Darstellungen. Lars von Trier gilt als „Enfant terrible“ der Filmindustrie. Bereits sein Dogma-Film Idioten/Idioterne (1998) sorgte mit einer Kombination aus expliziten sexuellen Darstellungen und dem provozierenden „Irrsein“ der Figuren für einen internationalen Skandal. Auch sein Werk "Antichrist" wurde aufgrund der expliziten und extrem gewalttätigen Darstellung kontrovers diskutiert. "Die Welt" nannte ihn den „meistgehassten Film“ des Jahres. Von Trier gab an, seit längerer Zeit unter Depressionen gelitten zu haben und einen Teil davon in seinen Filmen zu verarbeiten. In Cannes hatte er wiederholt mit pornografischen oder gewalttätigen Szenen in seinen Filmen oder kontroversen Äußerungen provoziert. In einem Interview der "Zeit" sagte er unter anderem: „Meine Familie hatte sehr genaue Vorstellungen von Gut und Böse, von Kitsch und guter Kunst. Mit meiner Arbeit stelle ich all das in Frage. Ich provoziere nicht nur die anderen, ich erkläre mir, meiner Erziehung, meinen Werten, auch ständig selbst den Krieg. Und ich attackiere die Gutmenschen-Philosophie, die in meiner Familie herrschte.“ Der gekaufte Jude in „Europa“. In seinem Film "Europa" spielt Lars von Trier den gekauften Juden. Dieser besagte Jude im Film "Europa" wird von einem amerikanischen Oberst angeheuert, um dem Besitzer der Eisenbahngesellschaft Zentropa namens Hartmann einen Persilschein auszustellen, also um ihn mit Falschaussagen von seinen begangenen Verbrechen „reinzuwaschen“. Hartmann bringt sich trotz der erkauften Entnazifizierung in der Badewanne um. Lars von Triers biologischer Vater hieß ebenfalls Hartmann und war deutscher Abstammung, sein rechtlicher und sozialer Vater hatte jedoch auch jüdische Vorfahren. Eklat bei den Internationalen Filmfestspielen von Cannes 2011. Im Mai 2011 wurde von Trier von den 64. Internationalen Filmfestspiele von Cannes ausgeschlossen. Auf der Pressekonferenz zu seinem Film "Melancholia" hatte Trier dort zuvor mit Äußerungen, die unter anderem auf ironische Weise vermeintliche Sympathie und Verständnis für Adolf Hitler bekundeten, einen Eklat ausgelöst. Von Trier entschuldigte sich wenig später für seine „falschen“ und „dummen“ Äußerungen. Der Vorfall fand ein internationales Medienecho und führte zu Abbestellungen des Films "Melancholia" seitens israelischer und argentinischer Filmverleiher. Anfang Oktober 2011 wurde von Trier erstmals von der dänischen Polizei wegen seiner umstrittenen Äußerungen vernommen. Ihm drohte nach eigenen Angaben eine Anklage wegen der Verharmlosung von Kriegsverbrechen. Anfang Dezember 2011 wurde die Anklage gegen von Trier jedoch fallengelassen. Die Staatsanwaltschaft äußerte sich dahingehend, dass hinter von Triers Aussagen keine Intentionen zur Verharmlosung von Kriegsverbrechen zu vermuten sei, seine Aussagen seien in erster Linie auf die Stresssituation im Interview zurückzuführen. Nach dem katastrophalen Ausgang der Cannes-Pressekonferenz verordnete von Trier sich ein mehr als dreijähriges öffentliches Schweigen, das er mit einem großen Interview mit der Tageszeitung "Politiken" Ende 2014 brach. Aussage (Logik). Eine Aussage im Sinn der aristotelischen Logik ist ein sprachliches Gebilde, von dem es sinnvoll ist zu "fragen", ob es wahr oder falsch ist (so genanntes Aristotelisches Zweiwertigkeitsprinzip). Es ist nicht erforderlich, "sagen" zu können, ob das Gebilde wahr oder falsch ist; es genügt, dass die Frage nach Wahrheit („Zutreffen“) oder Falschheit („Nicht-Zutreffen“) sinnvoll gestellt werden kann, was zum Beispiel bei Fragesätzen, Ausrufen und Wünschen nicht der Fall ist. Aussagen sind somit Sätze, die Sachverhalte beschreiben und denen man einen Wahrheitswert zuordnen kann. Mehrdeutigkeit. Die einleitend referierte Bedeutung des Ausdrucks "Aussage" ist die herrschende Bedeutung. Der Terminus "Aussage" wird jedoch mehrdeutig verwendet. Von der Bedeutung des Ausdrucks Aussage hängt ab, „was eigentlich genau der Gegenstand der Logik“ und was eigentlich „Träger“ von Wahrheit oder Falschheit ist. Für einen technischen Gebrauch der Logik bedarf es einer Klärung dieser Frage allerdings nicht. Aussagesatz und Aussage. Nach verbreiteter, aber umstrittener Auffassung sind Aussagen nicht Sätze, sondern sind Aussagesätze (nur) der sprachliche Ausdruck von Aussagen. Ein Aussagesatz steht stellvertretend für eine Aussage, ist lediglich ein Zeichen für eine Aussage (Proposition) und nur „das sprachliche Korrelat der Aussage“. Gegen eine Gleichsetzung von Aussage und Aussagesatz wird eingewandt, dass von dem Satztyp und seiner Äußerung die Aussage zu unterscheiden ist, „die mit dieser Äußerung gemacht wird“. "Beispiel 1": (gleichbedeutende Sätze): „Das Haus ist dreistöckig.“ – „Dieses Wohngebäude hat drei Geschosse.“ – “This house has three floors.”: "drei" Sätze mit "einer" Aussage für "einen" Sachverhalt. "Beispiel 2": Wenn Hans und Ina sagen „Ich bin krank“, dann äußern beide denselben Satz (i.S.v. Satztyp) und erzeugen unterschiedliche Satzvorkommnisse und machen mit ihren Äußerungen unterschiedliche Aussagen. Nach Quine soll es der Annahme von Propositionen nicht bedürfen, sodass sich der Terminus „Aussage“ nicht auf Ausgesagtes, sondern nur auf Aussagesätze beziehen können soll. Satz – Urteil – Aussage. Tugendhat spricht in einer Grobeinteilung von einer sprachlichen, psychologischen und ontologischen Grundauffassung der Logik: der sprachliche Aussagesatz korrespondiert dem Urteil als psychischem Akt und ontologisch der Aussage, dem Gedanken (Frege); dem Sachverhalt (Husserl: "Wittgenstein I") oder der Proposition (englische Philosophie). Zwischen „Satz“ – „Urteil“ – „Aussage“ besteht ein proportionalitäts- und attributionsanaloges Verhältnis. D. h. der objektive Gedanke (die Aussage, Proposition) wird im Denken (psychischer Urteilsakt) erfasst und in einem Aussagesatz zur Sprache gebracht. Aussagen über den Aussagesatz betreffen daher in einem analogen Sinn auch den objektiven Aussageinhalt bzw. den psychischen Aussageakt – und umgekehrt. In den meisten Zusammenhängen kommt es daher auf eine nähere Unterscheidung nicht an. Je nach erkenntnistheoretischer Orientierung kann eine entsprechende Terminologie bevorzugt werden. Für den Rezipienten bedeutet dies, dass sachlich über das Gleiche geredet wird, mit welchen erkenntnistheoretischen Voraussetzungen auch immer. War früher der Terminus „Urteil“ naiv (Aristoteles) oder psychologistisch (Empirismus, Kant) herrschend, dominiert nach dem Linguistic Turn der Ausdruck „Satz“, mit dem der Terminus „Aussage“ konkurriert bzw. vermischt wird. Will man die schillernde Bedeutung des Ausdrucks „Aussage“ vermeiden, empfiehlt es sich, terminologisch zwischen Aussagesatz und Proposition zu unterscheiden. Dies ist im deutschen Sprachraum aber nicht üblich. Behauptung. Mit Frege ist die Aussage von der Behauptung einer Aussage zu unterscheiden: „In einem Behauptungssatz ist also zweierlei zu unterscheiden: der Inhalt, den er mit der entsprechenden Satzfrage gemein hat, und die Behauptung. Jener ist der Gedanke oder enthält wenigstens den Gedanken. Es ist also möglich, einen Gedanken auszudrücken, ohne ihn als wahr hinzustellen. In einem Behauptungssatze ist beides so verbunden, dass man die Zerlegbarkeit leicht übersieht. Wir unterscheiden demnach Werturteil. Für die Aussagenlogik ist es unerheblich, ob die Eigenschaft eine Wertung enthält, d. h. die Aussage ein „Werturteil“ ist. Aussageform. Die Aussage (der Aussagesatz) ist zu unterscheiden von der "Aussageform". Eine Aussageform ist „ein Ausdruck, der eine (oder mehrere) freie Variable (Leerstellen) enthält und durch die Belegung aller freien Variablen in eine (wahre oder falsche) Aussage übergeht.“ Die Aussageform geht in eine Aussage über, sobald die Variable ersetzt wird. In der mathematischen Logik wird der syntaktische Aufbau einer Aussage basierend auf den Zeichen einer Sprache "L" formal spezifiziert. Je nach Sprache sind verschiedene atomare Aussageformen erlaubt, aus denen durch Junktoren zusammengesetzte Aussageformen gebildet werden. Bei der Prädikatenlogik kommt die Möglichkeit hinzu, in den atomaren Aussageformen enthaltene Variablen durch Quantoren („es gibt ein x, für das gilt“, „für alle x gilt“) zu binden. Eine durch keinen Quantor gebundene Variable heißt "freie Variable". Eine logische Aussage ist formal definiert als eine Aussageform (Definition siehe dort) über der Sprache "L", in der keine (freien) Variablen vorkommen. Wort. Ein einzelnes "Wort", das nicht für eine Aussage steht, „teilt nichts mit“, „ist nicht wahr oder falsch“. „Nur wenn ein Wort als Abkürzung für einen Satz steht, können wir von seiner Wahrheit oder Falschheit sprechen, …“. Begriff. Das zur Abgrenzung vom Wort Gesagte gilt entsprechend (eigentlich) für den Begriff. Hinter jedem Begriff stehen eine oder mehrere Aussagen, welche seinen Inhalt definieren und diesen Begriff in eine Relation zu anderen bringen. „Deshalb führt die Feststellung, dass der Begriff in seinem Inhalt eine Einheit von Merkmalen ist, zu der Idee, dass jeder Begriff einen Zusammenhang von Aussagen darstellt.“ Dies wurde insbesondere von Cohn vertreten und klingt auch bei Frege an, wenn dieser sagte, dass das Wort nur im Satz eine Bedeutung habe. Schluss. „Jede Aussage, in der einem Gegenstand etwas zugesprochen wird, kann man als eine Art Schlusses betrachten, dessen Prämissen das Subjekt der fraglichen Aussage definieren und dem es definierenden Begriff eine Eigenschaft zu- oder absprechen.“ Einfache Aussagen – zusammengesetzte Aussagen. Aussagen können in einfache Aussagen und zusammengesetzte Aussagen eingeteilt werden. Einteilungsgrund ist dabei, ob Aussagen aus voneinander unterscheidbaren „separierbaren“ Teilaussagen zusammengesetzt sind oder nicht. "Beispiel": „Berlin ist eine Stadt“ (einfache Aussage); „Berlin ist eine Stadt mit mehr als 3 Millionen Einwohnern“ (logisch eine zusammengesetzte Aussage mit den Teilaussagen „Berlin ist eine Stadt“ und „Berlin hat mehr als 3 Millionen Einwohner“). Die "Terminologie" variiert: statt von „einfacher Aussage“ spricht man auch von “unzusammengesetzter Aussage“, „atomarer Aussage“, „elementarer Aussage“, „Elementaraussage“ oder „Elementarsatz“ (Wittgenstein). Statt von zusammengesetzter Aussage ist auch die Rede von „Aussagenverknüpfung“ oder „molekulare Aussage“. Als "atomare Aussagen" werden in der mathematischen oder formalen Logik Aussagen bezeichnet, die nicht aus anderen Aussagen zusammengesetzt sind. Sie enthalten daher keine aussagenverknüpfenden logischen Operatoren (Junktoren) wie ∧ (und), ∨ (oder) und ¬ (nicht). Der Gegenbegriff ist die zusammengesetzte Aussage oder Aussagenverknüpfung. Ist z. B. die Aussage "Die Straße ist nass und es regnet" in zwei Aussagen zu trennen, die durch das "und" zu einer Aussage verknüpft sind, ist eine solche Trennung bei den einzelnen Aussagen "Die Straße ist nass" und "Es regnet" nicht mehr möglich. Somit handelt es sich bei diesen Aussagen um atomare Aussagen. Bei einer aussagenlogischen Analyse von Argumenten ist es zentral, die Formulierungen in atomare Aussagen zu untergliedern, da nur so die für die Argumentstruktur wichtigen Junktoren formalisiert werden können. In einer einfachen Aussage wird einem Gegenstand ein einziges Prädikat zu- oder abgesprochen. Wenn es heißt, eine einfache Aussage sei nicht weiter strukturiert, so ist dies dahingehend zu verstehen, dass die innere Struktur einer Aussage nicht weiter präzisiert wird. Die Interpretation der atomaren Aussagen erfolgt durch Zuordnung von Wahrheitswerten. Die Symbole für einfache Aussagen sind eine Frage der Konvention. Gebräuchlich ist zum Beispiel die Kennzeichnung durch Großbuchstaben A, B, C, ggf. mit indizierten Buchstaben. Eine zusammengesetzte Aussage ist eine Aussage, die durch Verbindung mehrerer einfacher Aussagen entsteht. Eine Aussagenverknüpfung kann extensional (extensionale Aussagenverknüpfung) oder intensional (intensionale Aussageverknüpfung) erfolgen. Extensionale Aussagenverknüpfungen sind zusammengesetzte Aussagen, deren Wahrheitswert von dem Wahrheitswert ihrer Teilaussagen bestimmt ist. Der Wahrheitswert der Gesamtaussage ist daher eine Funktion der Wahrheitswerte der Teilaussagen (Wahrheitsfunktionalität). Logische Konstanten, die eine wahrheitsfunktionale Aussagenverbindung bewirken, werden Junktoren genannt. Die klassische Aussagenlogik ist eine Junktorenlogik (Lorenzen), eine „Logik der Wahrheitsfunktionen“ (Quine) von Aussagen. Sie gründet auf dem Extensionalitätsprinzip. Einen Sonderfall stellt die Negation dar. Dies jedoch aus mehr terminologischen und praktischen Gründen. Bei der Negation werden keine Aussagen verknüpft und sie ist daher auch keine Aussagenverknüpfung. Sie wird gleichwohl aus Gründen terminologischer Vereinfachung einstellige Aussageverknüpfung genannt. Sie liefert beim Eingangswert "wahr" den Wert "falsch" und umgekehrt. Terminologisch zutreffender erscheint hier der Ausdruck einstellige Wahrheitsfunktion. Für die Kombination zweier Aussagen gibt es sechzehn zweistellige Verknüpfungen (Junktoren). Sie geben für alle möglichen Kombinationen von Wahrheitswerten einen für diese Verknüpfung typischen Ergebniswahrheitswert an. Zum Beispiel ist die mit der Konjunktion verknüpfte Aussage "a UND b" nur dann wahr, wenn sowohl a als auch b wahr ist; in jedem anderen Fall ist die Konjunktion falsch. Intensionale Aussagenverknüpfungen sind nicht-wahrheitsfunktionale Aussagenverknüpfungen. Bei diesen hängt der Wahrheitswert der Gesamtaussage nicht von dem Wahrheitswert der Teilaussagen ab. "Beispiel": „Anton liest ein Buch über Logik, weil er Logik unglaublich spannend findet“. Analytische – synthetische Aussagen (Urteile, Sätze). Aussagen werden traditionell in analytische Aussagen und synthetische Aussagen unterteilt. Statt von ‚Aussage‘ ist gleichsinnig auch von ‚Satz‘ bzw. ‚Urteil‘ die Rede (vgl. oben die Tugendhat’sche Dreiteilung). Nach Ernst Tugendhat gründen alle analytischen Sätze auf dem Satz vom ausgeschlossenen Widerspruch. Sie haben keinen potentiellen Falsifikatoren. Kritik an der Unterscheidung. Die Berechtigung der Unterscheidung zwischen analytischen und synthetischen Aussagen (Urteilen) wurde von Quine angegriffen. Er vertrat eine These der "Unbestimmtheit der Bedeutung" und stellte grundsätzlich infrage, dass Begriffsbedeutungen scharf voneinander abgegrenzt werden können. Aussagen in der Aussagenlogik. In der Aussagenlogik ist für solche Aussagen nur ihr formaler und nicht ihr inhaltlicher Wahrheitswert von Bedeutung. Beispielsweise muss man Kenntnis vom beschriebenen Sachverhalt haben, um den Wahrheitswert der Aussage „Berlin ist die Hauptstadt von Deutschland, und Rom die Hauptstadt von Italien“ beurteilen zu können; dies ist nicht erforderlich bei der Aussage „Madrid ist die Hauptstadt von Spanien, oder Madrid ist nicht die Hauptstadt von Spanien“, denn nach Festlegung (Normierung) des Gebrauches des logischen Oder und Nicht handelt es sich hier um eine wahre Aussage unabhängig davon, ob Madrid nun wirklich die Hauptstadt von Spanien ist oder nicht. Eine in diesem Sinn formal wahre Aussage wird allgemeingültig oder auch Tautologie genannt. Aussagen in der Prädikatenlogik. Eine Aussage in der Prädikatenlogik ist eine Aussageform ohne freie Variable. (Alle in ihr enthaltenen Variablen sind durch Quantoren gebunden.) In der Prädikatenlogik ergibt sich der Wahrheitswert einer Aussage aufgrund der Interpretation der in ihr enthaltenen Symbole. Beispielsweise ist die Aussage formula_8 wie folgt ermittelbar: Für jedes x werden die Terme x und x+x berechnet. Wenn es ein x gibt, so dass beide Terme denselben Wert erhalten (z. B. für x = 0), so ist die Aussage wahr, andernfalls falsch. Somit hängt der Wahrheitswert der Aussage von der Grundmenge (auch Universum, Domäne, Wertebereich, Individuenbereich genannt) ab, aus der Belegungen für die Variablen stammen dürfen. Ist eine Aussage bei jeder Interpretation wahr, z. B. formula_9, so nennt man sie allgemeingültig oder auch Tautologie. Die Modelltheorie ist die mathematische Teildisziplin, die sich mit der Frage beschäftigt, welche Modelle es für welche Mengen von Aussagen gibt. Gesetze der Form. Alle Kalküle beruhen auf der einzigen grundlegenden "Operation des Unterscheidens". Gelegentlich wird auch nur die primäre Algebra als "Gesetze der Form" bezeichnet. Allgemeines. Der Ausgangspunkt von Spencer-Brown ist die logische Form der Unterscheidung. Der als „Triff eine Unterscheidung!“ "(draw a distinction)" umschriebene basale Akt wird im Weiteren mit sich selbst kombiniert und erzeugt auf diesem Wege eine Vielfalt neuer Formen, die als Grundbegriffe (wahr und falsch, Symbol, Signale, Namen, Prozesse, sich selbst verändernde Formen, Operator usw.) angesehen werden können. Mit diesen Begriffen lassen sich formale Kalküle der Logik und der Mathematik darstellen. Spencer-Brown stellt im Gange seiner Untersuchung die klassische Logik als Grundlage der Mathematik in Frage und interpretiert sie neu. Bedeutend sind die erkenntnistheoretischen Konzepte der "Laws of Form". „Überhaupt nichts kann durch Erzählen gewusst werden“ ist eine der Kernaussagen der "LoF." Wissen erlangt man demzufolge nur in der Erfahrung aus den Ergebnissen praktischen Handelns. Im Unterschied zu klassischen Kalkülen der Logik, die die logische Struktur von Sachverhalten und Aussagen abbilden sollen, versteht George Spencer-Brown die logische Form als etwas, das der Erkenntnis als Prozess und Handlung entspricht. Während es für eine formale Sprache beliebig ist, was ihre nicht-logischen Konstanten bezeichnen, wird in den "Laws of Form" das Unterscheiden und Bezeichnen selbst – als simultaner Akt – zum Ausgangspunkt für formale Operationen. Spencer-Browns Kalkül liefert also nicht nur eine formale Syntax und Semantik, sondern auch eine formale Semiotik. Darüber hinaus bietet das Konzept der "Re-entry of the form (into the form)" die Möglichkeit, eine formale Vorstellung von Zustandswechsel und Gedächtnis zu formulieren. Die "Laws of Form" werden von ihren Anhängern als Minimalkalkül für mathematische Wahrheiten betrachtet. Vertreter mehrerer Wissenschaftszweige berufen sich daher explizit auf die "Laws of Form," etwa Niklas Luhmann in seiner soziologischen Systemtheorie oder Humberto Maturana in der Theorie des radikalen Konstruktivismus. Veröffentlichung. Spencer-Browns formaler Kalkül wurde 1969 erstmals unter dem Titel "Laws of Form" veröffentlicht. Das Buch wurde seitdem mehrmals neu aufgelegt und in verschiedene Sprachen übersetzt. Die Idee zum Buch entwickelte Spencer-Brown bereits während seiner Tätigkeit als Ingenieur bei British Railways, in der er Ende der 50er Jahre damit beauftragt war, elektrische Schaltungen für das Zählen von Waggons in Tunneln zu entwickeln. Dabei bestand das – damals fundamentale – technische Problem, die Zähler vorwärts und rückwärts zählen zu lassen und bereits gezählte Waggons zu speichern. Spencer-Brown löste das Problem durch die Verwendung bis dato unbekannter "imaginärer Boolescher Werte" und es „entstand zugleich ein neues Problem: Seine Idee funktionierte, aber es gab keine mathematische Theorie, die diese Vorgehensweise rechtfertigen konnte“. Die Ausarbeitung des Kalküls, der diese neuen imaginären Booleschen Werte zuließ, war der Auslöser für die "Laws of Form". Das Buch umfasst 141 Seiten, von denen 55 den mathematischen Kalkül umfassen, und gilt als für Laien nur schwer verständlich. Es existieren eine Reihe von „Erläuterungsbüchern“ zu den "LoF." Grundkonzepte der "Laws of Form". Dem ersten Kapitel der "Laws of Form" sind sechs chinesische Schriftzeichen vorangestellt, die wie folgt übersetzt werden können: „Der Anfang von Himmel und Erde ist namenlos“. Ohne Bezeichnungen ist die Welt leer und unbestimmt. Das Bezeichnen von etwas setzt jedoch eine Unterscheidung voraus: Das Bezeichnete muss vom Rest unterschieden werden. Die Vorstellung der Bezeichnung und des Unterscheidens bilden für Spencer-Brown den Ausgangspunkt, wobei er der Unterscheidung logischen Vorrang einräumt: „We take as given the idea of distinction and the idea of indication, and that we cannot make an indication without drawing a distinction.“ Die Unterscheidung teilt die anfängliche Unbestimmtheit in Bereiche. Die Unterscheidung („distinction“) ist dann eindeutig, wenn sie die Bereiche vollständig voneinander trennt, sodass ein „Punkt von der einen Seite nur auf die andere gelangt, indem er die gemeinsame Grenze kreuzt“ Dadurch, dass die Unterscheidung eine geschlossene Grenze zieht, konstituiert sie das, was sie umschließt, als bezeichenbares Objekt und somit einen Unterschied von Innen und Außen. Das Objekt wird von der Unterscheidung exakt und vollständig umschlossen. („Distinction is the perfect continence“). Es genügt daher, die Form der Unterscheidung als einziges Symbol einzuführen („We take therefore the form of distinction for the form“). Die so getroffene Unterscheidung kann durch ein Symbol auf der Innen- oder Außenseite "(token)" "markiert" werden. In der Literatur wird als Beispiel gelegentlich ein Kreis auf einem weißen Blatt Papier angeführt: Der Kreis trennt eindeutig außen von innen in dem Sinn, dass man von außen nach innen oder umgekehrt nur gelangen kann, wenn man die Kreislinie „überschreitet“ "(cross)." Die vollständig eingeschlossene Kreisfläche ist als Innenseite („angezeigte“ Seite) eindeutig vom umgebenden Raum unterschieden – "unmarked space" (engl., wörtlich „unmarkierter Raum“). Unterscheidung durch Kreuzen. Spencer-Brown verwendet für die Markierung einer Unterscheidung das englische Wort „cross“, was als Substantiv (Markierung), aber auch als Aufforderung (kreuze!) gelesen werden kann und soll. Das ist insofern bedeutsam, als zu einem späteren Zeitpunkt in den "Laws of Form" der Begriff der „Markierung“ eingeführt wird. Das Treffen einer Unterscheidung wird durch die o. a. Definition mit dem Kreuzen einer Grenze und den unterschiedlichen Werten der Seiten einer Unterscheidung gleichgesetzt. Durch eine Unterscheidung werden zwei Grundoperationen ausgeführt: Entweder man wechselt "von einem unmarkierten Zustand in einen markierten Zustand" (z. B.: Wir gehen von einem leeren Blatt Papier aus, markieren einen „Kreis“ und gehen damit von „Nicht-Kreis“ zu „Kreis“) oder man wechselt "von einem markierten Zustand in einen unmarkierten Zustand" (z. B.: Wir gehen von einem „Kreis“ aus und gehen durch Unterscheidung über zu „Nicht-Kreis“). Unterscheidung durch Nennen. Danach – in einem erkenntnistheoretischen Bezug – beschreiben die "Laws of Form" den Zusammenhang von Unterscheidung, Motiv, Wert und Nennung eines Namens: Eine Unterscheidung setzt ein Motiv (des Unterscheidenden) voraus, und es kann kein Motiv geben, wenn nicht Inhalte unterschiedlich im Wert gesehen werden. Eine Unterscheidung setzt also voraus, dass es jemanden gibt, der die Unterscheidung trifft, und dass dieser Akteur einen Wertunterschied sieht, der ihn zur Unterscheidung veranlasst. Da eine Unterscheidung einen Inhalt bezeichnet, der einen Wert besitzt, kann dieser Wert auch benannt werden, und der Name kann mit dem Wert des Inhalts identifiziert werden („Thus the calling of the name can be identified with the value of the content“). Gemäß der "Laws of Form" verfügt man über zwei Wege, eine Unterscheidung zu treffen: den des "Kreuzens," also des Treffens einer Unterscheidung durch Überschreitung einer Grenze, und den des "Nennens," also der Verwendung eines Namens stellvertretend für die Unterscheidung. Symbolische Darstellung. Die "Laws of Form" führen dann ein Symbol für die Grenzziehung einer Unterscheidung ein, dargestellt durch das "cross:". Dabei wird das, was links unten unter dem „Winkel“ steht, von allem anderen abgegrenzt (man kann sich das "cross" als geschlossenes Rechteck vorstellen). "cross" und "blank page" (eine leere Seite ohne Zeichen) sind die grundlegenden Ausdrücke für das Bestehen oder Nichtbestehen einer "Spencer-Brown-Form". In Textdarstellungen wird die geschlossene Grenzziehung auch durch Klammern wiedergegeben: etwa durch [ ] oder , die leere Seite durch einen Punkt „.“ oder durch „“. Die allgemeine durch das "cross" angezeigte Form entspricht einer Grenzziehung, die einen Bereich von einem anderen trennt. Sie besagt so viel wie Hier-So! und dort – jenseits der Grenze – auf jeden Fall Nicht-So! Neben dem Winkel sind daher auch andere Symbole möglich, etwa eine Einkreisung. Zum Ende des 3. Kapitels der "Laws of Form" stellt GSB klar, was er unter dem vorangegangenen sogenannten Indikationenkalkül versteht – nämlich den Kalkül, der dadurch bestimmt wird, die beiden obigen Grund-Formen als Ausgangspunkt zu nehmen („Call the calculus determined by taking the two primitive equations as initials the calculus of indication“) – und er leitet über zur primären Arithmetik, die alle Aussagen umfassen und auf alle Aussagen beschränkt sein soll, die sich aus dem Indikationenkalkül ergeben („Call the calculus limited to the forms generated from direct consequences of these initials the primary arithmetic“). Primäre Arithmetik. In Kapitel 4 der "LoF" führt GSB den o. a. Indikationenkalkül in eine sog. „primäre Arithmetik“ über. Ausgangspunkt sind die aus der Form der Kondensation und der Form des Kreuzens gewonnenen Handlungsanweisungen („Initiale“). Die Theoreme 8 und 9 dienen gleichzeitig als Initiale der Brownschen primären Algebra. Primäre Algebra. In Kapitel 6 der "LoF" definiert GSB die Theoreme 8 und 9 der "primären Arithmetik" ihrerseits als Initiale der primären Algebra. Auf Basis dieser Initiale demonstriert GSB neun sog. „Konsequenzen“ (Entwicklung von Formen durch folgerichtige Anwendung der erlaubten Rechenschritte): „We shall proceed to distinguish particular patterns, called consequences, which can be found in sequential manipulations of these initials.“ In Kapitel 8 der "LoF" sucht GSB zu zeigen, dass jede Konsequenz in der Algebra auf ein beweisbares Theorem über die Arithmetik hinweisen muss. Darauf folgend steht der Beweis, dass auch tatsächlich jedes Theorem über die Arithmetik in der Algebra demonstriert werden kann (Kapitel 9) sowie die Unabhängigkeit der beiden algebraischen Initialgleichungen (Kapitel 10). Im Hinblick auf die Gödelschen Unvollständigkeitssätze haben insbesondere die postulierte gleichzeitige Vollständigkeit und Widerspruchsfreiheit der "primären Algebra" für Diskussion in der Literatur gesorgt. „Eine naheliegende Vermutung ist, dass die Sätze von Kurt Gödel hier keine Anwendung finden, weil die "Laws of Form" das Imaginäre zu repräsentieren erlauben […] Wenn das Imaginäre einem formalen System inhärent ist, lassen sich die Sätze von Gödel nicht mehr auf dieses System applizieren.“ Gleichungen 2. Grades. Gleichungen 2. Grades in der Bedeutung der "LoF" erhält man, indem unendliche algebraische Ausdrücke durch Selbstbezüglichkeit als endliche Gleichungen dargestellt werden. Es wird der Begriff "imaginärer Wert" eingeführt, der die Oszillation zwischen markiertem und unmarkiertem Zustand ausdrücken soll, und der in späterer Folge zur Anwendung komplexer Werte in der Algebra verwendet wird, die ihrerseits als „Analogien zu den komplexen Zahlen in der gewöhnlichen (numerischen) Algebra“ verwendet werden können. Für die mathematische Form der Darstellung des imaginären Wertes prägt GSB den Begriff der "re-entry" („Wiedereintritt“) der Form in die Form. Ausgangspunkt ist die Demonstration, dass die u. a. mathematische Form sich durch folgerichtige Umformung gemäß den Regeln der "LoF" in einen unendlichen Term der gleichen Wiederkehr transformieren lässt. Diese unendliche Wiederholung lässt sich in einen endlichen Formalismus (hier ausgedrückt durch das f) überführen, der in jeder ganzzahligen Tiefe identisch mit dem ganzen Ausdruck ist. Da die Form in ihrem eigenen Raum wieder auftritt, erhielt sie den Namen "re-entry". 450px Auf dieser Basis entwickelt GSB zwei derartige rekursive Funktionen: Die Funktion G („Gedächtnisfunktion“), die sowohl für als auch für den leeren Raum erfüllt ist, sowie O („Oszillationsfunktion“), deren Lösung kein feststehender Ausdruck ist, sondern sich infinit verlängert. 150px O wird im Formalismus der "LoF" verwendet, um eine mathematische Form der Zeit auszudrücken. O: f=(f) ist nur lösbar, wenn sie mit unendlich ineinander geschachtelten f: …(())… gleichgesetzt wird, und wenn f die Gleichung lösen soll, muss f infinit verlängert werden. Diese Gleichung führt – obwohl im Raum (sprich mit den Mitteln der "primären Arithmetik") nicht lösbar – dadurch zu einer Vorstellung von Zeit, indem man das „Nacheinander“ der Zustände auflöst und nur den "imaginären Zustand der Form" betrachtet. Mathematik. Während der Formalismus der "LoF" sich in großen Teilen in den der Booleschen Algebra überführen lässt, besteht zwischen beiden ein fundamentaler Unterschied: Während die Boolesche Algebra die Gesetze der Logik, hier insbesondere den Satz vom ausgeschlossenen Dritten als axiomatische Grundlage verwendet, gilt diese Annahme nicht in der Brownschen Algebra. Es wird angenommen, dass die "LoF" die „unentdeckte“ Arithmetik zur Booleschen Algebra darstellen. Im elften Kapitel der "Gesetze der Form" werden oszillierende Werte für die Formen eingeführt, die auf Selbstbezüglichkeit beruhen. Dabei kann durch einen Reentry eine bestimmte Form innerhalb ihrer selbst wieder aufgerufen werden. Die oszillierenden Werte („“ oder „.“) werden nicht als Widerspruch oder Syntaxfehler gedeutet, den es etwa durch eine Typentheorie zu verbieten gälte. Spencer-Brown deutet die Oszillation zwischen zwei Werten vielmehr als „mathematische Zeit“. In der Anmerkung zu Kapitel 11 wird auf die Parallele zur Wurzel aus −1 verwiesen, die sich als imaginäre Zahl auch als Oszillation zwischen 1 und −1 darstellen lässt (vgl. dazu Louis H. Kauffman). Legt man die traditionelle Darstellung der imaginären Zahlen als die Punkte der y-Achse in der komplexen Ebene zugrunde, wird die y-Achse damit zum gedanklichen Platzhalter für die Oszillation. Dieser Ansatz ist für die Physik bedeutsam, insofern diese auf komplexe Zahlen zur Beschreibung von Naturprozessen zurückgreift. Der chilenische Biologe und Systemwissenschaftler Francisco Varela hat 1975 eine Erweiterung des Brownschen Indikationenkalküls zu einem dreiwertigen Kalkül vorgelegt. GSB selbst hat im Nachgang zu den "LoF" neun mathematische und philosophische Anwendungen vorgeschlagen, u. a. für das Vier-Farben-Problem und die Riemannsche Vermutung. die Goldbachsche Vermutung und die Fermatsche Vermutung. Unmarked Space. Außerhalb der Mathematik wird aus den "Laws of Form" eine besondere Bedeutung zuteil dem "Beobachterdilemma:"Jede von einem Beobachter getroffene Beobachtung (Unterscheidung) impliziert demnach eine zweite Unterscheidung. Die erste ist die (ggf. auch mehrwertige) Unterscheidung des jeweils beobachteten Gegenstands („Die Zahl der Brillenträger nimmt zu“), die zweite ist die implizit zugrundeliegende Unterscheidung, "was" man beobachtete und was "nicht" (hier etwa die Zahl der Blinden, der Hörgeräteträger, der Handybesitzer, der Gesamtbevölkerung usw.). Diesem bei jeder Beobachtung ausgesparten Raum des Nicht-Beobachteten gibt Spencer-Brown nun den Namen "unmarked space". Bei jeder – wissenschaftlichen, erkenntnistheoretischen, phänomenologischen – Beobachtung entstehe dieser Raum. Umgekehrt sei bei dem Vergleich etwa zwischen einem Phänomen und seiner Beschreibung stets der "unmarked space" im Spiel. Eine solche "Beobachtung der Beobachtung" wird auch „re-entry“ genannt und ist als Theoriefigur universell, also auch über die Mathematik hinaus, einsetzbar. Sie wird etwa bei dem Soziologen Niklas Luhmann als "Wiedereintritt in die Unterscheidung" übersetzt und zu einer zentralen Theoriefigur der luhmannschen Systemtheorie. Systemtheorie. Insbesondere in der Systemtheorie fanden die "LoF" eine über die Mathematik hinausgehende Beachtung. So wurden immer wieder Parallelen der "LoF" zu grundlegenden Konzepten der Systemtheorie (z. B. Unterscheidung, Beobachtung als Trennung von Objekt und Umwelt, Erkenntnis als Konstruktion und Rekursion, etc.) gezogen. Niklas Luhmann hat darauf hingewiesen, dass er seinen grundlegenden differenztheoretischen Ansatz den "LoF" entnommen hat. Ebenso wurden Parallelen zu Konzepten des radikalen Konstruktivismus und der Soziologie hergestellt. Der deutsche Soziologe Dirk Baecker hat in zwei Aufsatzsammlungen Anwendungen und Interpretationen der "LoF" für die Soziologie zusammengestellt. Lisp. Lisp ist eine Familie von Programmiersprachen, die 1958 erstmals spezifiziert wurde und am Massachusetts Institute of Technology (MIT) in Anlehnung an den Lambda-Kalkül entstand. Es ist nach Fortran die zweitälteste Programmiersprache, die noch verbreitet ist. Auf Basis von Lisp entstanden zahlreiche Dialekte. Zu den bekanntesten zählen Common Lisp und Scheme. Daher bezieht sich der Begriff "Lisp" oft auf die Sprachfamilie und nicht auf einen konkreten Dialekt oder eine konkrete Implementierung. Geschichte. Lisp steht für List Processing (Listen-Verarbeitung). Damit waren ursprünglich Fortran-Unterprogramme gemeint, mit denen symbolische Berechnungen durchgeführt werden sollten, wie sie im Lambda-Kalkül gebraucht werden. Steve Russell, einer der Studenten von John McCarthy, kam dann auf die fundamentale Idee, einen Interpreter für diese Ausdrücke zu programmieren, womit die Programmiersprache Lisp geboren war. Auch Programmanweisungen sind Listen, wobei das erste Listenelement die auszuführende Funktion identifiziert. Es gibt somit keinen grundsätzlichen Unterschied zwischen Daten und Programmanweisungen; diese Eigenschaft wird Homoikonizität genannt. Der Programmierer kann so beispielsweise neue Kontrollstrukturen oder Objektsysteme (OOP) entwickeln (Metaprogrammierung, Makros). Es ermöglicht aber auch Programmteile zur Laufzeit beliebig zu manipulieren. Lisp bietet dem Programmierer große Flexibilität und weitreichende Einflussmöglichkeiten, weshalb es manchmal auch als "programmierbare Programmiersprache" bezeichnet wird. Datenstrukturen werden dynamisch aufgebaut, ohne dass der Programmierer explizit Speicherplatz reservieren oder freigeben muss (siehe auch automatische Speicherbereinigung). Deklarationen für Daten sind nicht nötig, und ein Lisp-Symbol kann als Variable beliebige Arten von Objekten bezeichnen. Viele dieser Eigenschaften sind im Laufe der Zeit in weitere Programmiersprachen übernommen worden. Anfang der 1960er waren sie jedoch ihrer Zeit weit voraus. In den 1970er und 1980er Jahren wurden spezielle Lisp-Maschinen entwickelt und vertrieben. Diese ermöglichten das schnelle Ausführen von Lisp-Programmen, was auf damaligen allgemeinen Computern nur unter dem Verzicht von Typ-Überprüfung und automatische Speicherbereinigung möglich war. Dies hat sich durch schnellere Computer jedoch geändert. Programme in Lisp können interpretiert oder von einem Compiler in effizienten Code übersetzt werden. Typische Compiler sind Batch-Compiler oder inkrementelle Compiler. Inkrementelle Compiler können einzelne Ausdrücke übersetzen. Batch-Compiler übersetzen einzelne Lisp-Dateien oder ganze Lisp-Programme. Compiler übersetzen entweder in einen Bytecode für eine virtuelle Maschine oder in Maschinencode für einen Prozessor. Das Akronym "LISP" wird manchmal scherzhaft als „Lots of Irritating Superfluous Parentheses“ (eine Menge lästiger, überflüssiger Klammern) interpretiert. Bedeutung. Historisch gesehen gehört Lisp zusammen mit Prolog zu den wichtigsten Programmiersprachen der künstlichen Intelligenz. Im Unterschied zu Europa, wo Programmiersprachen wie Assembler, Fortran oder Pascal als klassische Vertreter der Familie der prozeduralen Programmiersprachen gelehrt wurden, war und ist zum Teil bis heute in den USA Lisp, bzw. einer seiner moderneren Dialekte wie Scheme, die erste gelehrte Programmiersprache. Das hatte einen großen Einfluss, da es sich bei den klassischen Vertretern der prozeduralen Sprachfamilien um Vertreter einer "statischen" Verarbeitungsweise von Daten handelt, während dagegen unter anderem Lisp ein strikt "dynamisches" Konzept vertritt. Syntax. Lisp benutzt S-Expressions als externes Format, um sowohl Source-Code als auch Daten darzustellen. Funktions- und Makroaufrufe werden als Listen geschrieben, die als erstes Element den Namen der Funktion bzw. des Makros enthalten. Kommentare werden mit codice_1 eingeleitet. Minimaler Funktionsumfang für Lisp. Um ein minimales Lisp-System zu implementieren, sind nur sehr wenige Operatoren und ein allgemeiner Mechanismus zur Funktionsdefinition nötig. Bereits mit diesen Sprachmitteln kann ein bemerkenswerter Teil der Funktionen, die übliche Lisp-Systeme mitbringen, definiert werden. Hyperlink. Ein Hyperlink (e Aussprache [], deutsch wörtlich „Über-Verknüpfung“, sinngemäß elektronischer Verweis), kurz Link, ist ein Querverweis in einem Hypertext, der funktional einen Sprung zu einem anderen elektronischen Dokument oder an eine andere Stelle innerhalb eines Dokuments ermöglicht. Wenn der Hyperlink ausgeführt wird, wird automatisch das darin angegebene Ziel aufgerufen. Im Allgemeinen wird der Begriff auf das World Wide Web bezogen, in dem "Hyperlinks" ein Kernbestandteil sind. Inhaltlich entspricht das Konzept von "Hyperlinks" Querverweisen in der gedruckten Literatur, deren Ziel dort allerdings in der Regel manuell aufgesucht werden muss. Durch das Hypertextsystem können auch Dateien anderen Typs, die im selben System vorliegen oder daran angeschlossen sind, aufgerufen werden. So können Hyperlinks genutzt werden, um beispielsweise Filme, Bilder und Animationen zu erreichen oder Dateien auf einen Computer "herunterzuladen". Allgemeiner Aufbau und Funktionsweise. Man spricht von einem "verlinkten Dokument", wenn es mindestens ein weiteres Dokument gibt, das mit einer gültigen Verknüpfung (Hyperlink) auf dieses Dokument verweist und dadurch ein Zugriff auf dieses Dokument möglich wird. Der Link des verlinkenden Dokuments besteht in der Regel aus zwei Teilen, einen für den Benutzer „sichtbaren“ Teil (ein Bild oder ein angezeigter Text, der dem Benutzer anzeigt, was er erwarten kann), sowie einen unsichtbaren Teil, das Linkziel im unsichtbaren Quelltext, das für diesen Link hinterlegt ist. Solche Links werden verwendet, um den Lesefluss nicht zu unterbrechen oder wenn bei Weblinks nicht die vollständige Internetadresse angezeigt werden soll. In einem Link können weitere Metainformationen hinterlegt sein, z. B. ob die Anzeige zum neuen Inhalt wechseln soll oder ob ein neues Fenster dafür geöffnet wird, oder ob temporär ein weiterer Text (Tooltip oder Quickinfo) angezeigt wird, wenn der Benutzer mit der Maus über den Link fährt. Auch eine Reihenfolge ist definierbar, in der die Links aktiv werden, wenn die Links statt mit der Maus mit der Tastatur gewählt werden. World Wide Web. Hyperlinks sind ein charakteristisches Merkmal des Internets. Sie stellen im heutigen World Wide Web ein fundamentales Element dar; sie entsprechen einer Vernetzung auf Anwendungsebene. Mit ihrer Hilfe lassen sich Webseiten und andere Dateien verbinden, die entweder auf demselben Rechner liegen oder durch einen Webserver zur Verfügung gestellt werden. Eingebunden werden Hyperlinks meist mittels der standardisierten Auszeichnungssprache HTML. Ziel eines solchen Links kann eine andere Datei (Webseite, Bild, Audio- oder Videodatei etc.) oder ein dynamisch erstelltes Dokument sein. Ein Link enthält die Adresse des Ziels, in der Regel als URL. Meistens definiert ein Link zusätzlich, wie er für den Benutzer dargestellt werden soll. Bei Hypertext-Dokumenten wird dazu fast immer in dem Link ein Linktext angegeben, der dem Benutzer angezeigt wird. Bei den Linkverweisen im Web handelt es sich um eine sehr einfache Implementierung von Hyperlinks; im Gegensatz zu früheren Systemen sind diese "Weblinks" unidirektional, d. h. das Ziel des Links weiß nichts darüber, dass ein Link auf es zeigt. Wird das Zieldokument umbenannt oder gelöscht, wird der Link nicht automatisch korrigiert, es entsteht ein sogenannter „toter Link“. Statt des Linktextes kann ein Link auch andere HTML-Elemente enthalten wie Grafiken oder eingebettete Objekte (z. B. eine 'Flash-Animation'). Internet-Links können auch auf andere als die vom Benutzer erwartete Adresse führen. Zu solchen Zwecken erstellte Weiterleitungen führen dann entweder auf eine weitere Webseite oder zu anderen Zielen (Dateien). Dies kann unter Umständen auch so geschehen, dass es dem Anwender verborgen bleibt. Mehrfache Weiterleitungen sind ebenfalls möglich. Das Verlinken von fremden Dateien (Bilder usw.) bezeichnet man als Hotlinking. Hyperlinkstrukturen. Die Links bestimmen die Dokumentenstruktur. Dadurch kann man festlegen, wie der Besucher sich in einer Webpräsenz bewegen kann. Office-Dokumente. In den meisten heute genutzten Büroprogrammen lassen sich Hyperlinks ebenfalls realisieren. Die Verwendung eines Hyperlinks ist hier allerdings komplexer und grenzt sich von ähnlichen Methoden ab. Beispielsweise ist es möglich, in einem Textdokument mit Hyperlinks auf ein gesondertes Glossar zu verlinken oder in einer Präsentation Hyperlinks etwa in der Art einer Navigationsleiste zu gestalten. Es gibt auch Verlinkungen, die für den Benutzer nicht direkt sichtbar sind. Jede Stil-, Absatz- oder Seitenvorlage ist ein zentral gespeicherter Datensatz, der über Links in Teile eines Dokuments eingebunden wird. Auch Kopf- und Fußzeilen werden nur einmal gespeichert und in jede Seite über einen Link eingebunden. Auch, wenn hierbei normalerweise nicht von einem Link gesprochen wird, ist das Funktionsprinzip dasselbe wie bei klassischen Textlinks. Falls eine Kopfzeile eine Navigationsleiste mit eigenen Linkverknüpfungen enthält, werden zwei unterschiedliche Linksysteme ineinander verschachtelt gespeichert. Nicht alle Officesysteme unterstützen das. Unterschieden werden allerdings Hyperlinks als anklickbare Verknüpfung und verknüpfte Werte beispielsweise bei einer Vorlage oder in einer Tabellenkalkulation. Der Ausdruck "Verknüpfung" bezeichnet hier eine Variable in Form der Positionsangabe einer Zelle, an dessen Speicherziel ein permanent verwendeter Wert hinterlegt ist. Obwohl auch dies im Wortsinne ein Hyperlink ist, unterscheiden sich der klassische Link und eine Tabellenverknüpfung in ihrem Verhalten. Beispielsweise lässt sich an einer zentralen Stelle ein Mehrwertsteuersatz speichern, der in einer anderen Tabelle (oder eines Tabellenteils) permanent in Echtzeit innerhalb von Formeln aufgelöst wird, beispielsweise um den gespeicherten Nettopreis und den in der Formel errechneten Bruttopreis auszuweisen. Die Änderung des verknüpften Wertes hat im Gegensatz zum klassischen Hyperlink die sofortige Neuberechnung und Anzeige aller errechneten Werte zur Folge, ohne dass der Benutzer etwas anklicken muss. Außerdem muss zwischen eingebetteten und verknüpften Dokumententeilen unterschieden werden. Ein eingebettetes Dokument (oder Dokumententeil) ist eine einfache Kopie des ursprünglichen Originals und hat nichts mit einem Hyperlink zu tun. Wenn sich Inhalte darin ändern, wirkt sich dies nicht auf andere Dokumente aus, in denen dasselbe Ursprungsdokument in einer früheren Version eingebettet ist. Ist das Dokument dagegen verknüpft, befindet sich lediglich ein Verweis auf die Zieldaten im Quelltext. Wenn vom verknüpften Dokument einzelne Inhalte verändert werden, geschieht die Veränderung nicht im eigentlich geladenen Dokument, sondern in dem Dokument, auf das sich die Verknüpfung bezieht und das für den Benutzer unsichtbar ebenfalls geladen wurde. Diese Änderung wirkt sich auf alle Dokumente aus, die dieselben Verknüpfungen enthalten. Auch Phrasen, die über besondere Listen programmintern verwaltet und über eine definierte Tastenfunktion abgerufen werden, arbeiten nach dem Linkprinzip. Allerdings löst der aktivierte Link hier jedoch einen Kopiervorgang aus, der Link auf den Phrasentext selbst wird in der Regel nicht gespeichert. Verknüpfungen können in einigen Programmen auch nach vordefinierten Regeln automatisch aktiviert werden. Wenn beispielsweise eine Briefvorlage gespeichert wird, wird der Inhalt des Dokuments zusammen mit allen zugehörigen Vorlagen in jedes darauf beruhende neue Dokument kopiert, zusätzlich wird aber auch eine Linkinformation hinterlegt. Ändert sich später die Briefvorlage, wird beispielsweise in OpenOffice.org beim Öffnen eines älteren Dokuments die Rückfrage gestellt, ob das Dokument an die aktuelle Vorlage angepasst werden soll oder nicht. Wird das Dokument in der täglichen Arbeit weiter verwendet, ist die Anpassung in der Regel sinnvoll, bei archivierten Dokumenten hingegen ist die dynamische Anpassung normalerweise nicht erwünscht. Windows Internet Shortcut (.url). Ein sogenannter "Internet Shortcut" oder auch (deutsch) eine "Internetverknüpfung", mit der Dateierweiterung codice_2 (= Uniform Resource Locator), ist das Dateiformat in Windows-Systemen für Weblinks (Hyperlinks in das Internet, „Verknüpfung mit Internet-URL“). Diese Werte bekommt man auch angezeigt, wenn man die "Eigenschaften" einer.url-Datei öffnet (mit Rechtsklick, im Kontext-Menü). Die Syntax gleicht der .lnk-Datei für Dateisystem-Pfade. Wikis. Auch die einzelnen Seiten eines Wiki sind durch Hyperlinks, so genannte Wikilinks, miteinander verbunden. Ihre Implementierung kann je nach verwendeter vereinfachter Auszeichnungssprache unterschiedlich gestaltet sein. Andere Hypertext-Systeme. Auch andere Hypertext-Systeme setzen Hyperlinks ein. Die Verwendung von Hyperlinks in diesen anderen Systemen wird im Artikel Hypertext beschrieben. Visualisierung. In der Regel lassen sich kleine oder große verlinkte Netze als gerichtete zyklische Graphen abbilden, in denen Hyperlinks mit Hilfe von "Kanten" und "Ecken" bzw. Knoten von oder zu referenzierten Dokumenten dargestellt werden. Interpretiert man das nebenstehende Bild als verlinktes Netz, enthält beispielsweise das Dokument B einen Hyperlink auf das Dokument C. Der Pfeil von der Ecke B zu der Ecke C (eine gerichtete Kante des Graphen) stellt den Hyperlink dar. Von der Ecke B gelangt man über C, E und D wieder zurück zu B (Zyklus), was in diesem Fall bedeutet, dass man von B ausgehend durch Folgen der entsprechenden Hyperlinks wieder zu dem Ausgangspunkt, dem Dokument B, gelangt. Rechtliches. Tim Berners-Lee, der „Erfinder“ des World Wide Web, geht in Analogie zu Fußnoten und Querverweisen in der wissenschaftlichen Literatur davon aus, dass das bloße Vorhandensein eines Hyperlinks keine Rechtsverletzung darstellen kann; der Autor eines Textes mache sich durch Anbringen einer Fußnote oder eines Querverweises nicht automatisch den Inhalt des referenzierten Dokuments zu eigen. Das Prinzip des wechselseitigen Verweisens sei für wissenschaftliches Arbeiten grundlegend; wäre dieses Verweisprinzip illegal, würde dies jegliches wissenschaftliche Arbeiten in unserem heutigen Verständnis unmöglich machen. Diese Auffassung teilen nicht alle Gerichte, obwohl die Rechtsliteratur selbst intensiv das Verweisprinzip einsetzt. Bisher hat sich noch keine einheitliche Rechtsprechung herausgebildet. Verbindlich ist dahingehend europaweit die "E-Commerce- des Europäischen Parlaments und des Rates vom 8. Juni 2000" und deren nationale Umsetzungen. Auch Hotlinking kann untersagt werden, da damit Bandbreitendiebstahl einhergeht. Leni Riefenstahl. Helene Bertha Amalie „Leni“ Riefenstahl (* 22. August 1902 in Berlin; † 8. September 2003 in Pöcking) war eine deutsche Filmregisseurin, -produzentin und -schauspielerin sowie Drehbuchautorin, Cutterin, Fotografin und Tänzerin. Sie gilt als eine der umstrittensten Persönlichkeiten der Filmgeschichte – einerseits für ihre Werke von vielen Filmschaffenden und -kritikern als „innovative Filmemacherin und kreative Ästhetin“ verehrt und geachtet, andererseits wegen ihrer Beteiligung an der Propaganda für die Diktatur des Nationalsozialismus kritisiert und moralisch verurteilt. Nachdem Riefenstahl ihre ursprünglich eingeschlagene Tanzkarriere aufgrund einer Knieverletzung beenden musste, etablierte sie sich während der 1920er Jahre im Deutschland der Weimarer Republik als Schauspielerin im Bergfilmgenre. Durch ihr 1932 veröffentlichtes Regiedebüt "Das blaue Licht", bei dem sie als Hauptdarstellerin, Koproduzentin und Drehbuchautorin fungierte, wurden führende NSDAP-Politiker wie der Parteichef Adolf Hitler und Reichspropagandaleiter Joseph Goebbels auf sie aufmerksam. Nach der im Jahr darauf erfolgten Machtübernahme der NSDAP erhielt Riefenstahl den Auftrag, die „Reichsparteitagstrilogie“ zu drehen. Die Propagandaproduktionen "Sieg des Glaubens", "Triumph des Willens" und "Tag der Freiheit! – Unsere Wehrmacht" entstanden in den Jahren 1933 bis 1935. Für "Triumph des Willens" erhielt Riefenstahl den 35, die Auszeichnung für die beste ausländische Dokumentation bei den Internationalen Filmfestspielen von Venedig 1935 im gleichfalls faschistischen Italien sowie den "Grand Prix" auf der Pariser Weltfachausstellung. 1938 drehte Riefenstahl "Olympia", eine zweiteilige Dokumentation über die Olympischen Sommerspiele 1936 in Berlin. Der Film wurde vielfach als ästhetisches Meisterwerk gelobt, aber auch für seine propagandistischen und ideologischen Elemente kritisiert. Riefenstahl bekam für ihre Arbeit unter anderem den Deutschen Nationalen Filmpreis 1937/38, den Coppa Mussolini, eine olympische Goldmedaille vom Internationalen Olympischen Komitee und den Kinema-Jumpō-Preis verliehen. Während des Zweiten Weltkriegs filmte sie mit dem „Sonderfilmtrupp Riefenstahl“ Hitlers Polenfeldzug. In der Nachkriegszeit wurde sie trotz ihrer Einbindung in die nationalsozialistische Filmpolitik laut eines Spruchkammerbeschlusses lediglich als „Mitläuferin“ eingestuft. Dennoch gestaltete es sich nach der militärischen und politischen Niederschlagung des NS-Regimes für Riefenstahl ab 1945 schwer, weitere Aufträge als Regisseurin und Produzentin zu erhalten, so dass sie ihr Filmschaffen nach "Tiefland" (1954) für fast ein halbes Jahrhundert einstellte. Ab den 1960ern betätigte sich Riefenstahl als Fotografin und veröffentlichte mehrere Bildbände. Zu ihren bekanntesten Werken dieser Zeit zählen Fotoreportagen über das Volk der ostafrikanischen Nuba im Sudan und Unterwasseraufnahmen. 2002 veröffentlichte sie mit dem Dokumentarfilm "Impressionen unter Wasser" ihr letztes Werk. Kindheit, Jugend und Tanzkarriere. Helene Bertha Amalie Riefenstahl, genannt „Leni“, kam am 22. August 1902 in Berlin-Wedding zur Welt. Zweieinhalb Jahre später wurde ihr Bruder Heinz Riefenstahl (1905–1944) geboren. Ihr Vater Alfred Riefenstahl (1878–1944) war ein Handwerksmeister, der sich einen eigenen Installateurbetrieb aufgebaut hatte. Ihre Mutter Bertha Ida Riefenstahl (1880–1965, geborene Scherlach), als jüngstes von 18 Kindern im polnischen Włocławek aufgewachsen, war Näherin. Ihre ersten Lebensjahre wohnte Riefenstahl mit ihrer Familie in der Prinz-Eugen-Straße im Wedding, später zogen die Riefenstahls in ein eigenes Haus in Zeuthen bei Berlin. Riefenstahl wurde 1908 in die Volkschule in Berlin-Neukölln eingeschult. Anschließend besuchte sie das Kollmorgensche Lyzeum, eine private Höhere Knaben- und Mädchenschule in Berlin-Tiergarten, das sie 1918 mit der Mittleren Reife verließ. In ihrer Freizeit erhielt Riefenstahl Klavierunterricht und begeisterte sich schon in jungen Jahren für Sport. Sie war Mitglied im Charlottenburger Damen-Schwimmclub Nixe, trat einem Turnverein bei, fuhr Rollschuh, spielte Tennis, ruderte und segelte auf dem Zeuthener See. Nach ihrem Schulabschluss erhielt Riefenstahl für kurze Zeit Mal- und Zeichenunterricht an der Staatlichen Kunstgewerbeschule in Berlin. Außerdem nahm sie hinter dem Rücken ihres strengen Vaters, jedoch mit der Unterstützung ihrer kunstbegeisterten Mutter, Tanzstunden an der Grimm-Reiter-Schule am Kurfürstendamm. Dort lernte sie unter anderem rhythmisches Turnen und Tanzen, Improvisation sowie Phantasietanz. Nachdem Riefenstahl bei einer Tanzveranstaltung im Berliner Blüthnersaal für die erkrankte Anita Berber eingesprungen war, erfuhr ihr Vater von den heimlichen Tanzstunden und schickte sie für ein Jahr in ein Pensionat in Thale im Harz. Dort übte sie weiter heimlich Tanzen, spielte Theater und besuchte mit ihrer Internatskameradin Hela Gruel die Aufführungen der Freilichtbühne Thale. Von 1920 bis 1923 arbeitete Riefenstahl als Sekretärin im Betrieb ihres Vaters, wo sie Schreibmaschine, Stenografie und Buchhaltung lernte. Während dieser Zeit durfte sie ihren Tanzunterricht an der Grimm-Reiter-Schule fortsetzen und erhielt außerdem von 1921 bis 1923 eine klassische Ballettausbildung bei Eugenie Eduardowa. Zusätzlich lernte sie Ausdruckstanz an der Jutta-Klamt-Schule in der Fasanenstraße und nahm Boxunterricht bei Sabri Mahir. 1923 besuchte sie für ein halbes Jahr Mary Wigmans Tanzschule in Dresden, wo sie gemeinsam mit Gret Palucca, Vera Skoronel und Yvonne Georgi unterrichtet wurde. Im selben Jahr ging sie mit dem Tennisprofi Otto Froitzheim ihre erste Beziehung ein und lernte während eines Badeurlaubs an der Ostsee den Banker und späteren Filmproduzenten Harry R. Sokal kennen. Dieser finanzierte ihr Debüt als Solo-Tänzerin am 23. Oktober 1923 in München. Es folgte eine sechsmonatige Tournee mit rund 70 Auftritten im In- und europäischen Ausland. Außerdem wurde Riefenstahl von Max Reinhardt für zwei Solo-Auftritte in den Kammerspielen des Deutschen Theaters in Berlin engagiert. Fred Hildenbrandt beschrieb Riefenstahls Tanzstil mit den Worten: „Dieses sehr schöne Mädchen ringt wohl inständig um einen Rang neben den dreien, die man ernst nimmt: der Impekoven, der Wigman, der Gert. Und wenn man dieses vollkommen gewachsene hohe Geschöpf in der Musik stehen sieht, weht eine Ahnung daher, dass es Herrlichkeiten im Tanz geben könnte, die keine von jenen dreien zu tragen und zu hüten bekam, nicht der heroische Gongschlag der Mary, nicht der süße Geigenlauf der Niddy, nicht die grausame Trommel der Valeska: die Herrlichkeit der Tänzerin, die alle tausend Jahre wiederkehrt. Aber dann beginnt dieses Mädchen ihren Leib zu entfalten, die Ahnung verweht, der Glanz ergraut, der Klang verrostet […].“ Der Kunstkritiker und Tanzhistoriker John Schikowski urteilte im April 1924 über Riefenstahls Darbietung bei einer Matinée an der Volksbühne Berlin: „Knie- und Hüftgelenke erscheinen zuweilen etwas eingerostet, die früher so wunderbar suggestive Sprache der Arme ist teilweise verstummt; an ihre Stelle trat ein äußerlich effektvolles, aber oft seelenloses Spiel der Hände.“ Im Sommer 1924 zog sich Riefenstahl bei einem Auftritt in Prag eine Knieverletzung zu, die ihre tänzerische Bühnenkarriere beendete. Ein Jahr später trennte sie sich von Froitzheim, mit dem sie zwischenzeitlich verlobt gewesen war. Schauspielkarriere. Ihr Filmdebüt gab Riefenstahl als Tänzerin in dem Dokumentarfilm "Wege zu Kraft und Schönheit" aus dem Jahr 1925, für den mehrere Schülerinnen der Mary-Wigman-Schule ausgewählt worden waren. Im Frühjahr 1925 besuchte sie in einem Kino am Nollendorfplatz eine Vorstellung des 1924 erschienenen Stummfilms "Der Berg des Schicksals" des Regisseurs und Bergfilm-Pioniers Arnold Fanck. Der Film beeindruckte sie so sehr, dass sie beschloss, Schauspielerin zu werden. In einem Hotel in den Dolomiten traf sie auf Luis Trenker, der in "Der Berg des Schicksals" mitgespielt hatte. Er vermittelte ihr den Kontakt zu Fanck, der sich begeistert von Riefenstahl zeigte und beschloss, sie als Hauptdarstellerin für sein nächstes Filmprojekt zu verpflichten: „Als ich Leni Riefenstahl sah, war mein erster Eindruck: Naturkind. Keine Schauspielerin, keine ‚Darstellerin‘. Diese Frau tanzt sich selbst. Man musste ihr also eine Rolle schreiben, die aus ihrem Wesen geboren ward.“ Und so verfasste Fanck das Drehbuch zu dem Film "Der heilige Berg", der von einer Tänzerin handelt, in die sich zwei junge Bergsteiger, gespielt von Trenker und Ernst Petersen, verlieben. Im wirklichen Leben hatte Riefenstahl eine kurze Affäre mit Trenker. Für die 18 Monate dauernden Dreharbeiten erhielt sie eine Gage von 20.000 Reichsmark. Während der Außenaufnahmen, die in den Schweizer Alpen gemacht wurden, lernte Riefenstahl Skilaufen. Zudem ließ sie sich von Fanck die Funktionen der Filmkamera erklären. Er zeigte ihr den Umgang mit Objektiven, den Einsatz verschiedener Brennweiten und die Wirkung von Farbfiltern. Nach dem Abschluss der Dreharbeiten unterwies der Regisseur sie außerdem im Entwickeln, Kopieren und Schneiden des Filmmaterials. Die Uraufführung von "Der heilige Berg" folgte am 17. Dezember 1926 im Ufa-Palast am Zoo in Berlin. Knapp ein Jahr später kam er unter dem Titel "The Holy Mountain" auch in die US-amerikanischen Kinos. Riefenstahl erntete für ihre schauspielerische Darbietung gemischte Kritiken. Die "Berliner Morgenpost" befand: „Schauspielerisch konnte Leni Riefenstahl nichts geben. Auch sah sie wenig vorteilhaft aus.“ Oskar Kalbus hingegen meinte: „Zwischen diesen herrlichen Männern steht eine für die Kinoleinwand neue Frau: die junge Tänzerin Leni Riefenstahl, ein beinahe unwahrscheinlich zartes, von feinsten Rhythmen beseeltes Geschöpf, keineswegs nur Tänzerin, sondern auch Schauspielerin, die viel natürliche Innerlichkeit mitbringt.“ Riefenstahl sprach für die Rolle des Gretchens in Friedrich Wilhelm Murnaus Filmepos "Faust – eine deutsche Volkssage" aus dem Jahr 1926 vor. Sie kam in die engere Auswahl, unterlag bei der Rollenvergabe aber schließlich der damals noch unbekannten Schauspielerin Camilla Horn. Von Mai bis November 1927 fanden, ebenfalls unter der Regie von Fanck, die körperlich sehr anstrengenden Dreharbeiten zu dem Sportfilm "Der große Sprung" in den Dolomiten statt. Für die Rolle lernte sie mit Hans Schneeberger, der neben Luis Trenker eine der beiden männlichen Hauptrollen spielte, Bergsteigen und -klettern. Privat gingen Riefenstahl und Schneeberger eine dreijährige Beziehung ein. Die Premiere von "Der große Sprung" fand am 20. Dezember 1927 im Ufa-Palast am Zoo in Berlin statt. Der Film wurde ein Erfolg, legte Riefenstahl aber auf die Rolle der „Frau zwischen zwei Männern“ im Abenteuer- und Bergmilieu fest, so dass andere Angebote ausblieben. Lediglich in Rolf Raffés wenig beachtetem Historiendrama "Das Schicksal derer von Habsburg" von 1928 gelang Riefenstahl mit der Verkörperung von Mary Vetsera ein Rollenwechsel. Danach kehrte Riefenstahl mit dem von Harry R. Sokal produzierten Drama "Die weiße Hölle vom Piz Palü" ins Bergfilmgenre zurück. Die Außenaufnahmen, die das Filmteam ins Berninamassiv führten, wurden unter der Anweisung von Fanck gedreht, Georg Wilhelm Pabst übernahm die Regie bei den Innendrehs. Riefenstahl hatte Pabst dazu überredet, bei dem Projekt mitzuwirken, denn sie wollte unter seiner Schauspielführung, die schon Greta Garbo in "Die freudlose Gasse" (1925) zum Erfolg verholfen hatte, zu einer ernstzunehmenden Schauspielerin werden. Nach seiner Uraufführung am 11. Oktober 1929 in Wien wurde das Werk ein großer nationaler und internationaler Erfolg und Riefenstahl erhielt für ihre schauspielerische Leistung die erhoffte positive Resonanz. Die "B.Z. am Mittag" schrieb: „Leni Riefenstahl, schauspielerisch so gut wie noch nie zuvor, zeigt bei aller fraulichen Anmut jungenhafte Courage und Gewandtheit, sie ist die wohl sympathischste und brauchbarste Hochtouristin im deutschen Film.“ Das Berliner "8 Uhr Abendblatt" stellte fest: „Leni Riefenstahl […] hat in ihrer Körperlichkeit ganz große Szenen.“ In Berlin lernte Riefenstahl Ende der 1920er Jahre den Regisseur Josef von Sternberg kennen. Sie besuchte ihn öfter bei seiner Arbeit in den UFA-Filmateliers in Babelsberg und soll sich laut dem Filmkritiker Hans Feld Hoffnungen auf die Rolle der Lola Lola in von Sternbergs Heinrich-Mann-Verfilmung "Der blaue Engel" gemacht haben, mit der Marlene Dietrich 1930 zum internationalen Filmstar wurde. Von Sternbergs Angebot, ihn nach Hollywood zu begleiten, lehnte Riefenstahl aufgrund ihrer Beziehung zu Schneeberger ab. Dieser trennte sich kurze Zeit später wegen einer anderen Frau von ihr. Ihr nächster Film, "Stürme über dem Mont Blanc" aus dem Jahr 1930, wurde stumm gedreht und erst nach Abschluss der Dreharbeiten synchronisiert und musikalisch untermalt. Um den Sprung aus dem Stumm- in den Tonfilm zu schaffen, an dem viele erfolgreiche Stummfilmschauspieler wie Vilma Bánky, Pola Negri oder Lars Hanson scheiterten, nahm Riefenstahl stimmbildenden Unterricht bei Eugen Herbert Kuchenbuch. 1931 erschien ihr zweiter Tonfilm, die Ski-Komödie "Der weiße Rausch". Regiedebüt mit "Das blaue Licht". → "Hauptartikel: Das blaue Licht (1932)" Neben der Schauspielerei begann Riefenstahl, Drehbücher und Drehberichte zu schreiben. Den ersten veröffentlichte sie in der Fachzeitschrift "Film-Kurier" über Fancks Sportfilm "Das weiße Stadion". 1931 schrieb sie die erste Fassung des Manuskripts für ihren Film "Das blaue Licht". Dieser handelt von einem geheimnisvollen, blauen Licht, das in Vollmondnächten von einer Bergspitze herab scheint und die jungen Männer eines Bergdorfs magisch anzieht, die dann beim Aufstieg tödlich verunglücken. Das Drehbuch entwickelte sie zusammen mit dem jüdischen Filmtheoretiker und Drehbuchautor Béla Balázs sowie mit Unterstützung von Carl Mayer. Sie gründete ihre erste eigene Filmgesellschaft, die L.R. Studiofilm, und überzeugte ihren Mäzen Harry R. Sokal, in das Projekt zu investieren. Riefenstahl übernahm bei "Das blaue Licht" zudem die weibliche Hauptrolle, Regie, Produktionsleitung und den Schnitt. Die Dreharbeiten, bei denen Sarner Bauern als Laienschauspieler mitwirkten, fanden von Juli bis September 1931 statt. Der Film kam am 24. März 1932 in die Kinos und wurde trotz gemischter Kritiken ein Erfolg: Das New Yorker National Board of Review wählte "Das blaue Licht" 1934 unter die "Top Foreign Films" und bei der Biennale in Venedig wurde der Film 1932 mit der Silbermedaille ausgezeichnet. Am 27. Februar 1932 besuchte Riefenstahl eine Veranstaltung der Nationalsozialisten im Berliner Sportpalast, auf der Adolf Hitler eine Rede hielt. Bald darauf bat sie ihn in einem Brief um ein persönliches Treffen, zu dem es im Mai 1932 in Horumersiel bei Wilhelmshaven kam. Laut Riefenstahls Memoiren habe ihr Hitler bei dieser Gelegenheit offenbart, dass sie ihn mit "Das blaue Licht" sehr beeindruckt habe und er habe zu ihr gesagt: „Wenn wir einmal an die Macht kommen, dann müssen sie meine Filme machen.“ In der Folgezeit war Riefenstahl häufig zu Gast bei Feierlichkeiten und offiziellen Empfängen hoher Nazifunktionäre, lernte Joseph und Magda Goebbels, Hermann Göring, Albert Speer und Julius Streicher kennen. Nach der Machtergreifung forderte der im Exil befindliche Balázs von Riefenstahl das zunächst zurückgestellte Honorar für seine Arbeit am Drehbuch für "Das blaue Licht". Darauf schrieb Riefenstahl am 11. Dezember 1933 ihrem Freund Julius Streicher auf einem Papier des Nazitreffs Hotel Kaiserhof in Berlin eine Vollmacht: „Ich erteile Herrn Gauleiter Julius Streicher aus Nürnberg – Herausgeber des "Stürmer" Vollmacht in Sachen der Forderung des Juden Belá Balacs [sic] an mich. Leni Riefenstahl.“ So entledigte sich Riefenstahl mit Hilfe der Nazis ihres jüdischen Koautoren. Balázs’ Name verschwand aus dem Vorspann des Films. In der deutsch-amerikanischen Koproduktion "SOS Eisberg" spielte Riefenstahl zum letzten Mal unter der Regie von Arnold Fanck. Die Dreharbeiten führten sie im Juni 1932 zunächst nach Grönland und Anfang 1933 in die Schweizer Alpen. Aus einer Artikelserie über die Erlebnisse in Grönland, die sie für die Zeitschrift "Tempo" schrieb, und aus Vorträgen, die sie zum Film hielt, entstand das Buch "Kampf in Schnee und Eis", das 1933 erschien. Die Filmpremiere fand am 30. August 1933 im Ufa-Palast am Zoo in Berlin statt. Zu diesem Zeitpunkt hatte Riefenstahl bereits mit den Dreharbeiten zu "Sieg des Glaubens" in Nürnberg begonnen. Damit sie der ersten Vorführung von "SOS Eisberg" in Berlin beiwohnen konnte, stellte Hitler ihr sein Privatflugzeug zur Verfügung, das sie noch am selben Abend zurück nach Nürnberg brachte. Die US-amerikanische Fassung "SOS Iceberg" wurde am 22. September 1933 in New York uraufgeführt. Reichsparteitagstrilogie. Riefenstahl mit Team (hinten rechts im Bild) filmt auf dem Reichsparteitag der NSDAP am 1. September 1934 in Nürnberg → "Hauptartikel: Sieg des Glaubens" Mit "Sieg des Glaubens" entstand der erste von insgesamt drei NS-Propagandafilmen, die Riefenstahl in den Jahren 1933 bis 1935 über die Reichsparteitage der Nationalsozialistischen Deutschen Arbeiterpartei in Nürnberg drehte und die auch als „Reichsparteitagstrilogie“ bezeichnet werden. Den Auftrag für "Sieg des Glaubens" erteilte ihr das Reichspropagandaministerium unter der Leitung Joseph Goebbels’. Dieser hatte am 17. Mai 1933 in seinem Tagebuch notiert: „Nachmittags. Leni Riefenstahl. Ich mache ihr den Vorschlag eines Hitlerfilms. Sie ist begeistert davon.“ Da Riefenstahl weder NSDAP-Mitglied war noch Erfahrung im Dokumentarfilmgenre hatte und obendrein eine Frau war, stieß die Entscheidung, sie für das Projekt zu verpflichten, zunächst auf Unmut innerhalb der Partei. Genossen wie Arnold Raether und Eberhard Fangauf, die in der Hauptabteilung IV (Film) des Reichspropagandaministeriums tätig waren, versuchten Riefenstahl zu sabotieren, indem sie ihr Filmmaterial und Kameraleute verweigerten und den Nachweis ihrer arischen Abstammung verlangten. Auch Hitlers Stellvertreter Rudolf Heß versuchte, sie aus dem Projekt zu drängen, indem er sie der „Führerbeleidigung“ bezichtigte. Riefenstahl gelang es jedoch, sich gegen ihre Gegner in der Partei zu behaupten, wobei ihr die Protektion Hitlers half. Dieser wollte keine nüchterne Schilderung des fünften Reichsparteitages, sondern eine auf ihn ausgerichtete propagandistische Inszenierung, die den Zuschauer beeindrucken und begeistern sollte. Hierbei vertraute er auf das künstlerische Talent und die Vision Riefenstahls. Sie übernahm die Regie, schrieb das Drehbuch und wählte Sepp Allgeier, Franz Weihmayr und Walter Frentz als Kameramänner aus. Die Dreharbeiten zu "Sieg des Glaubens" fanden in der Zeit vom 27. August bis 5. September 1933 statt, der Parteitag selbst wurde vom 30. August bis 3. September 1933 abgehalten. Anschließend schnitt sie den 60-minütigen Film aus rund 16.000 Metern Filmmaterial zusammen. "Sieg des Glaubens" hatte am 1. Dezember 1933 Premiere und wurde begeistert aufgenommen. Riefenstahl selbst war hingegen mit der Endfassung des Films aufgrund einiger ästhetischer Unvollkommenheiten nicht zufrieden. Man habe ihr keine ausreichende Zeit zur Vorbereitung gelassen und sie während des Drehs bei ihrer Arbeit behindert, so dass ihr am Ende nur wenig verwertbares Filmmaterial zur Verfügung gestanden habe. Sie beschwerte sich bei Hitler und verärgerte damit Goebbels. Nach dem Röhm-Putsch im Sommer 1934 wurde der Film wieder aus dem Verkehr gezogen, da er den SA-Stabschef Ernst Röhm noch als „zweitwichtigsten Mann“ an Hitlers Seite zeigte. → "Hauptartikel: Triumph des Willens" Hitler persönlich beauftragte Riefenstahl, auch den sechsten Reichsparteitag der NSDAP, der vom 5. bis 10. September 1934 in Nürnberg stattfand und zu dem eine halbe Million Menschen erwartet wurden, filmisch zu inszenieren. Er ließ ihr alle künstlerischen Freiheiten und die NSDAP stellte der „Reichsfilmregisseurin“ nahezu unbegrenzte Mittel und ein Team von 170 Mitarbeitern, darunter 36 Kameramänner und neun Flugkameramänner, zur Verfügung. Sie benötigte sieben Monate für die Fertigstellung des rund 110 Minuten dauernden Films, der bei seiner Uraufführung am 28. März 1935 im Ufa-Palast in Berlin ein großer Erfolg wurde. Im darauffolgenden Monat lief er in 70 deutschen Städten im Kino an, wo er für Rekordeinspielergebnisse sorgte. Riefenstahl hatte mit innovativen Montagetechniken, ungewöhnlicher Kameraführung und suggestiver musikalischer Untermalung einen Film geschaffen, der eines der wichtigsten Propagandamittel der Nationalsozialisten wurde. Mehr als 20 Mio. Deutsche sahen den Film, der auch in Schulen vorgeführt wurde. Zusätzlich veröffentlichte Riefenstahl das Buch "Hinter den Kulissen des Reichsparteitagsfilms". Für "Triumph des Willens" erhielt Riefenstahl den 35, den Preis für den besten ausländischen Dokumentarfilm bei den Internationalen Filmfestspielen von Venedig 1935 und den "Grand Prix" bei der Pariser Weltfachausstellung 1937. Durch die aufwändigen Dreharbeiten zu "Triumph des Willens" wurden zahlreiche andere Produktionen des übrigen NS-Films vernachlässigt. Dies führte zu weiteren Anfeindungen zwischen Goebbels und der Filmemacherin. → "Hauptartikel: Tag der Freiheit! – Unsere Wehrmacht" Anlässlich der Wiedereinführung der allgemeinen Wehrpflicht und aufgrund der Tatsache, dass im September 1934 wegen schlechter Witterungsverhältnisse keine brauchbaren Aufnahmen von der Wehrmacht für die Dokumentation "Triumph des Willens" gemacht werden konnten, drehte Riefenstahl beim siebten Reichsparteitag der NSDAP im September 1935 den 28-minütigen Kurzfilm "Tag der Freiheit! – Unsere Wehrmacht". Die Premiere des dritten und letzten Teils der Reichsparteitagstrilogie fand am 30. Dezember 1935 in Berlin statt. Der Film demonstriert für die meisten Kritiker der Nachkriegszeit eine Armee, die sich für einen Angriffskrieg rüstet. Im Interview mit Ray Müller für den Dokumentarfilm "Die Macht der Bilder" von 1993 meinte Riefenstahl jedoch, sie habe nur eine Übung, eine Show gefilmt, „Weiter nichts.“ Im Januar 1936 wurde Riefenstahl vom italienischen Diktator Benito Mussolini in Rom empfangen. Der „Duce“ hatte die Reichsparteitagstrilogie gesehen und wollte Hitlers Regisseurin für die Verfilmung der Trockenlegung der Pontinischen Sümpfe gewinnen. Riefenstahl lehnte dieses Angebot jedoch unter Hinweis auf ihr kommendes Projekt – die Verfilmung der Olympischen Sommerspiele in Berlin 1936 – ab. Olympia-Filme. → "Hauptartikel: Olympia (Film)" a> an der Handkamera während der Dreharbeiten zu "Olympia" im August 1936 Joseph Goebbels und Riefenstahl bei den Vorarbeiten zu "Olympia" Riefenstahl wurde nach eigenen Angaben von Carl Diem, dem Generalsekretär des Organisationskomitees, mit der Verfilmung der XI. Olympischen Spiele beauftragt. Das Projekt wurde vom Reichsministerium für Volksaufklärung und Propaganda finanziert. Um die staatliche Beteiligung zu verschleiern, wurde die Olympia-Film GmbH „auf Veranlassung des Reichs und mit Mitteln des Reichs gegründet.“ Als Gesellschafter traten Riefenstahl und ihr Bruder Heinz auf. Für die Produktion stellte das Ministerium ein Budget in Höhe von 1,8 Mio. Reichsmark zur Verfügung, Riefenstahl erhielt ein Honorar von 400.000 RM. Im Herbst 1935 begann Riefenstahl mit den Vorbereitungen der Dreharbeiten. Sie stellte ein großes Kamerateam zusammen, darunter Walter Frentz, Willy Zielke, Gustav Lantschner und Hans Ertl, das im Mai 1936 die ersten Probeaufnahmen anfertigte. Die eigentlichen Dreharbeiten begannen zwei Monate vor Beginn der Olympischen Spiele mit der Aufzeichnung des Prologs und dem Fackellauf, gefolgt von der Eröffnungsfeier am 1. August 1936. Pro Wettkampftag entstanden rund 15.000–16.000 Meter Filmmaterial, insgesamt summierte sich das Material nach dem Abschluss der Dreharbeiten auf 400.000 Filmmeter. Zehn Monate lang sichtete, archivierte, schnitt und montierte Riefenstahl das Filmmaterial zu den beiden Olympia-Filmen "Fest der Völker" und "Fest der Schönheit" zusammen. Da sie verschwenderisch mit ihrem Budget umging und immer höhere Forderungen an das Propagandaministerium stellte, kam es zu erneuten Differenzen mit Goebbels, der am 6. November 1936 in seinem Tagebuch notierte: „Frl. Riefenstahl macht mir ihre Hysterien vor. Mit diesen wilden Frauen ist nicht zu arbeiten. Nun will sie für ihren Film eine ½ Million mehr und zwei daraus machen. […] Sie weint. Das ist die letzte Waffe der Frauen. Aber bei mir wirkt das nicht mehr.“ Hitler persönlich ordnete ein Versöhnungstreffen in Gegenwart von Pressefotografen im Sommer 1937 in der Villa Riefenstahl in Berlin an, welche die Regisseurin kurz zuvor bezogen hatte. Zeit ihres Lebens behauptete Riefenstahl, eine tiefe, auf Gegenseitigkeit beruhende Abneigung gegen Goebbels gehegt zu haben. Er habe ihr sexuelle Avancen gemacht und ihr nicht verzeihen können, dass sie diese abgelehnt habe. Am 20. April 1938 – Hitlers 49. Geburtstag – wurden beide Teile des Olympia-Films im Ufa-Palast am Zoo in Berlin uraufgeführt und vom Publikum begeistert aufgenommen. Die deutsche Presse, der die freie Kunstkritik aufgrund Goebbels’ „Kunstbetrachter-Erlasses“ seit Ende 1936 untersagt war, berichtete ausnahmslos positiv. Für den internationalen Verleih fertigte Riefenstahl eine englische, eine französische und eine italienische Version von "Olympia" an und reiste anschließend durch Europa, um den Film zu vermarkten. Auch hier wurde "Olympia" zum Erfolg, einzig Großbritannien verweigerte die Aufführung. Neben dem Deutschen Nationalen Filmpreis 1937/38 erhielt Riefenstahl für die Olympia-Filme 1938 den Coppa Mussolini, den schwedischen Polar-Preis, den Ehrenpreis der Regierung von Griechenland sowie 1941 den japanischen Kinema Junpo Award und 1948 das Olympische Diplom zur Olympischen Goldmedaille vom Internationalen Olympischen Komitee beim Filmfestival in Lausanne. Da sie mit "Olympia" den überragenden Erfolg US-amerikanischer Athleten wie Jesse Owens und Forrest Towns dokumentiert hatte, hoffte Riefenstahl, in den Vereinigten Staaten im Filmgeschäft Fuß fassen zu können. Das US-amerikanische "TIME Magazine" hatte der Regisseurin bereits im Februar 1936 eine Titelseite mit der Bildunterschrift „Hitler’s Leni Riefenstahl“ gewidmet. Als sie jedoch im November 1938 mit den Olympia-Filmen im Gepäck an Bord der Europa nach New York reiste, wurde sie dort mit der Nachricht von der Reichspogromnacht, die sich vom 9. auf den 10. November 1938 ereignet hatte, konfrontiert. Die Anti-Nazi-League und das Motion Picture Artists Committee riefen zum Boykott der Olympia-Filme auf und in Hollywood hingen Anti-Riefenstahl-Plakate. Zu den wenigen, die Riefenstahl empfingen, gehörten der Regisseur King Vidor, der Filmproduzent Walt Disney und die Filmgesellschaft Metro-Goldwyn-Mayer. Die Treffen verliefen jedoch ergebnislos und so kehrte sie im Januar 1939 nach Deutschland zurück. Sonderfilmtrupp Riefenstahl. Riefenstahl (mit Lederkappe) während der Siegesparade der deutschen Truppen am 5. Oktober 1939 in Warschau Im März 1939 sprach Riefenstahl mit Albert Speer über den Bau eines 225.000 Quadratmeter großen und eigens für ihre Bedürfnisse zugeschnittenen Filmstudiogeländes, dessen Kosten vollständig von der NSDAP übernommen werden sollten. Aufgrund des Zweiten Weltkriegs wurde dieses Bauvorhaben jedoch nie vollendet. Seit Jahresanfang 1939 bereitete Riefenstahl außerdem die Verfilmung von Kleists Drama "Penthesilea" vor, bei der sie selbst die Rolle der Amazonenkönigin übernehmen wollte. Sie gründete die Leni Riefenstahl-Film GmbH und zog sich zum Schreiben des Drehbuchs auf Sylt zurück. Im Spätsommer 1939 sollten die Dreharbeiten in Libyen beginnen, dieser Plan wurde jedoch durch den Kriegsausbruch am 1. September 1939 vereitelt. Auf Anordnung Hitlers wurde der „Sonderfilmtrupp Riefenstahl“ gebildet, dem neben der Regisseurin der Tonmeister Hermann Storr, Walter Traut, die Brüder Gustav und Otto Lantschner, Sepp Allgeier und vier weitere Techniker angehörten. Ausgestattet wurden sie mit zwei sechssitzigen Mercedes-Limousinen, einem BMW-Motorrad mit Beiwagen sowie Tankkarten für 700 Liter Benzin, einem Tonfilmwagen sowie selbstentworfenen Phantasieuniformen mit Gasmasken und Taschenpistolen. Der Filmtrupp machte sich am 10. September 1939 auf den Weg an die Ostfront, um den Polenfeldzug zu dokumentieren. Nach Riefenstahls Angaben habe sie sich nützlich machen wollen. Mehrere Schwarz-Weiß-Fotos dokumentieren, dass Riefenstahl und ihr Sonderfilmtrupp am 12. September 1939 Zeugen eines Massakers der deutschen Wehrmacht an mehr als 20 wehrlosen Juden in der polnischen Kleinstadt Końskie wurden. Eines dieser Fotos, das ein deutscher Landser von ihr gemacht hatte, ist mit dem Satz „Leni Riefenstahl fällt beim Anblick der toten Juden in Ohnmacht.“ beschriftet. Riefenstahl behauptete später jedoch, nur „in der Ferne“ Schüsse gehört zu haben. „Weder ich noch meine Mitarbeiter haben etwas gesehen!“ Nach der Kapitulation der letzten polnischen Streitkräfte wohnte Riefenstahl am 5. Oktober 1939 der Siegesparade der deutschen Truppen in Warschau als Zuschauerin bei, während Sepp Allgeier und die Brüder Lantschner die Parade unter der Regie von Fritz Hippler filmten. Das Angebot Goebbels’, einen Dokumentarfilm über die „Siegfriedlinie“ zu drehen, lehnte sie ab. Nach dem Einmarsch deutscher Verbände in Paris am 14. Juni 1940 telegrafierte sie am selben Tag ins Führerhauptquartier: „Mit unbeschreiblicher Freude, tief bewegt und erfüllt mit heißem Dank, erleben wir mit Ihnen mein Führer, Ihren und Deutschlands größten Sieg, den Einzug Deutscher Truppen in Paris. Mehr als jede Vorstellungskraft menschlicher Phantasie vollbringen Sie Taten, die ohnegleichen in der Geschichte der Menschheit sind. Wie sollen wir Ihnen nur danken? Glückwünsche auszusprechen, das ist viel zu wenig, um Ihnen die Gefühle auszusprechen, die mich bewegen.“ Später erklärte sie, dass sie zu diesem Zeitpunkt geglaubt habe, dass der Krieg mit der Eroberung der französischen Hauptstadt ein baldiges Ende finden würde und sie habe mit dem Telegramm lediglich ihre Freude und Erleichterung darüber zum Ausdruck bringen wollen. Tiefland. → "Hauptartikel: Tiefland (Film)" Bereits in den 1930er Jahren hatte es Bestrebungen Riefenstahls gegeben, Eugen d’Alberts Oper "Tiefland" zu verfilmen, aber erst unter einem Vertrag mit der Tobis konnte sie das Projekt realisieren. Sie übernahm die weibliche Hauptrolle und fungierte als Regisseurin, Koproduzentin sowie Drehbuchautorin. Die Dreharbeiten begannen während des Zweiten Weltkriegs am 1. August 1940. Da die Außenaufnahmen aufgrund des Einmarsches italienischer Truppen in Südfrankreich nicht in den Pyrenäen – wo die Handlung des Films spielt – gedreht werden konnten, wurde der Drehort unter anderem nach Krün und Mittenwald verlegt. Die Innenaufnahmen wurden ab 1942 in den Tobis-Filmateliers von Berlin-Johannisthal, der UFA-Stadt in Babelsberg und 1944 – um den Bombardements auf das Reichsgebiet zu entgehen – in den Barrandov-Ateliers in Prag gedreht. Um ihrem Film dennoch Authentizität zu verleihen, besetzte Riefenstahl die Komparsenrollen mit südländisch aussehenden Sinti und Roma, die aus den Zwangslagern Salzburg-Maxglan und Berlin-Marzahn Rastplatz rekrutiert wurden. Nach Abschluss der Dreharbeiten wurden sie ins Zigeunerlager Auschwitz deportiert, wo die meisten von ihnen ums Leben kamen. Am 21. März 1944 heiratete Riefenstahl in Kitzbühel den Gebirgsjäger-Offizier Peter Jacob, den sie 1940 während der Dreharbeiten in Mittenwald kennengelernt hatte. Kurz nach ihrer Hochzeit kam es auf dem Berghof am Obersalzberg zum letzten persönlichen Treffen von Riefenstahl und Hitler. Im Juli 1944 starb Riefenstahls Vater Alfred an einem Herzleiden, wenige Tage später fiel ihr Bruder Heinz, dessen uk-Stellung Anfang 1943 aufgehoben worden war, an der Ostfront. Nach dem Kriegsende im Mai 1945 gelangte das ungeschnittene "Tiefland"-Filmmaterial in die Hände der französischen Besatzungsmacht, die es bis 1953 unter Verschluss hielt. Riefenstahl konnte "Tiefland" erst Ende 1953 fertigstellen, seine Uraufführung folgte am 11. Februar 1954 in Stuttgart. 1948 musste sich Riefenstahl vor Gericht der Anklage stellen, die Sinti-und-Roma-Komparsen nicht entlohnt und von ihrer Deportation ins Zigeunerlager Auschwitz gewusst zu haben. Sie wurde freigesprochen. In den 1980er Jahren griff die Freiburger Filmemacherin Nina Gladitz die Vorwürfe in ihrem Dokumentarfilm "Zeit des Schweigens und der Dunkelheit" erneut auf. Riefenstahl sah sich durch den Film in ihrer Ehre verletzt und zog gegen Gladitz vor Gericht. In der zweiten und gleichzeitig letzten Instanz entschied das Oberlandesgericht Karlsruhe, dass der Dokumentarfilm weiterhin die Aussage treffen dürfe, dass Riefenstahl die Sinti und Roma zwangsverpflichtet und nicht entlohnt habe. Herausschneiden musste Gladitz hingegen die Behauptung, Riefenstahl habe von der geplanten Deportation und Ermordung ihrer Komparsen gewusst. Als die Riefenstahl-Film GmbH am 6. April 1943 die für Juden und „Zigeuner“ fällige Sonderausgleichsabgabe für 68 Berliner Sinti zahlte, waren diese schon seit März ins Zigeunerlager Auschwitz deportiert. In einem Interview mit der "Frankfurter Rundschau" am 27. April 2002 behauptete Riefenstahl: „Wir haben alle Zigeuner, die in "Tiefland" mitgewirkt haben, nach Kriegsende wiedergesehen. Keinem einzigen ist etwas passiert.“ Nachdem der Verein Rom e. V. Strafantrag gestellt hatte, kam es zu einem staatsanwaltlichen Ermittlungsverfahren gegen Riefenstahl wegen Verunglimpfung des Andenkens Verstorbener, das jedoch aufgrund mangelnden öffentlichen Interesses eingestellt wurde. Die Filmemacherin hatte sich zuvor in einer Unterlassungserklärung verpflichtet, derartige Behauptungen nicht länger aufzustellen und in einer öffentlichen Stellungnahme ihr Bedauern über die Verfolgung und das in den Konzentrationslagern erlittene Leid der Sinti und Roma geäußert. Nachkriegszeit. Nach dem Ende des Zweiten Weltkriegs wurde Riefenstahl in ihrem Haus bei Kitzbühel im April 1945 verhaftet und in das Gefangenenlager der 7. US-Armee nach Dachau gebracht, wo sie mehrfach zu ihrer Rolle im Dritten Reich verhört und mit Bildern aus den Konzentrationslagern konfrontiert wurde. Am 3. Juni 1945 wurde sie aus der Haft entlassen und sie kehrte in das inzwischen von den Franzosen besetzte Kitzbühel zurück. Ein knappes Jahr später, am 15. April 1946, wurden Riefenstahl, ihr Ehemann und ihre Mutter aus Österreich ausgewiesen, woraufhin sie sich in Königsfeld im Schwarzwald niederließen. Im Mai 1947 wurde Riefenstahl von der französischen Besatzungsmacht wegen angeblicher Depressionen in eine psychiatrische Anstalt in Freiburg eingewiesen, wo sie nach eigener Aussage mehrere Monate lang mit Elektroschocks behandelt wurde. Im Sommer 1947 wurde ihre Ehe mit Paul Jacob geschieden. Nach ihrer Entlassung aus der Anstalt zog Riefenstahl mit ihrer Mutter nach München-Schwabing. In den Jahren 1948 bis 1952 wurde sie in vier Spruchkammerverfahren entnazifiziert. In den ersten beiden Verfahren in Villingen im November 1948 und Juli 1949 in Freiburg wurde sie als „nicht betroffen“ eingestuft. Im dritten Spruchkammerverfahren wiederum in Freiburg wurde sie am 16. Dezember 1949 zur „Mitläuferin“ des Naziregimes erklärt. Diese Einstufung, mit der außer dem Verlust des passiven Wahlrechts keine Sanktionen verbunden waren, wurde mit dem Beschluss der Berliner Spruchkammer vom 21. April 1952 endgültig bestätigt. Obwohl ihr kein Berufsverbot erteilt wurde, konnte Riefenstahl nach 1945 – abgesehen von der Fertigstellung des Films "Tiefland" – kein weiteres Filmprojekt realisieren. Ihre Beteiligung an der NS-Propaganda und ihre Nähe zu Hitler blieben als Makel an ihr haften, weshalb sich viele Investoren im deutschen Nachkriegsfilmgeschäft von ihr distanzierten. Harry R. Sokal, der zwischen 1923 und 1932 viele ihrer Projekte unterstützt hatte und der auch nach 1945 den Kontakt zu ihr hielt, verfügte nach dem Krieg nicht mehr über die nötigen finanziellen Mittel. So blieben die von ihr geschriebenen Drehbücher "Der Tänzer von Florenz", "Ewige Gipfel" und "Die roten Teufel" unverfilmt und auch für den Streifen "Friedrich der Große und Voltaire", bei dem Jean Cocteau unter ihrer Regie eine Doppelrolle spielen wollte, fand sich kein Produzent. Inspiriert von Ernest Hemingways Jagdgeschichte "Die grünen Hügel Afrikas" reiste Riefenstahl Mitte der 1950er Jahre nach Kenia und in den Sudan. Dort wollte sie unter dem Titel "Die schwarze Fracht" einen Film über den modernen Sklavenhandel zwischen Ostafrika und den südarabischen Ländern drehen. Eigens dazu gründete sie im Juli 1956 mit Walter Traut die Stern-Film GmbH und begab sich im Norden Kenias auf die Suche nach geeigneten Drehorten und Darstellern. Ihre Reisen brauchten das ihr zur Verfügung stehende Budget jedoch schon nach kurzer Zeit auf, weshalb auch dieses Filmvorhaben scheiterte. Zwei weitere Afrika-Projekte, der Film "Afrikanische Symphonie" und die Dokumentation "Der Nil", ließen sich ebenfalls aus finanziellen Gründen nicht umsetzen. Fotografien. Ein Bild des britischen Fotografen George Rodger, das in einer Ausgabe des "Sterns" abgedruckt war und zwei muskulöse, mit weißer Asche bestäubte Nuba-Ringkämpfer zeigte, weckte Riefenstahls Interesse an der sudanesischen Volksgruppe. 1962 begab sie sich auf eine Expedition in den Sudan, wo sie auf die Masakin-Qisar, einen der etwa 100 Nuba-Stämme, traf. Sie blieb bis August 1963 bei dem Stamm und belichtete mehr als 200 Farbfilme. Fortan besuchte sie die Nuba alle zwei Jahre, studierte ihre Lebensweise und erlernte ihre Sprache. Begleitet wurde sie von ihrem Lebensgefährten Horst Kettner, der ihr assistierte und den sie zum Kameramann ausbildete. Die ersten Nuba-Fotos Riefenstahls wurden 1964 in der Illustrierten "Kristall" veröffentlicht. Es folgten eine Fotoserie mit dem Titel "African Kingdom" im Time Life Verlag sowie Fotostrecken in der französischen "Paris Match", der italienischen Wochenzeitschrift "L’Europeo" und im US-amerikanischen "Life Magazine". Im Dezember 1969 brachte der "Stern" die mit 20 Aufnahmen illustrierte Titelgeschichte "Leni Riefenstahl fotografierte die Nuba – Bilder die noch keiner sah" heraus. Bei den Olympischen Spielen in München 1972 arbeitete sie als akkreditierte Fotografin für die "Sunday Times". 1973 veröffentlichte sie ihren ersten Bildband mit dem Titel "Die Nuba – Menschen wie vom anderen Stern", mit dem ihr der internationale Durchbruch als Fotografin gelang. Die darin enthaltenen Fotografien dokumentieren vor allem die alltäglichen Abläufe der Nuba wie die Ernte, Körperbemalungen und rituelle Kämpfe zwischen den Männern. Im selben Jahr wurde ihr für ihre Verdienste um den Sudan von Staatspräsident Dschafar Muhammad an-Numairi ehrenhalber die sudanesische Staatsbürgerschaft verliehen. 1974 fotografierte Riefenstahl Mick und Bianca Jagger für eine Bildstrecke in der "Sunday Times". Sieben Abzüge aus dieser Serie wurden von Riefenstahl signiert und im Jahr 2014 für 45.600 Euro bei einer Auktion in Wien versteigert. 1975 erschienen weitere ihrer Nuba-Bilder in der von Rolf Gillhausen konzipierten Fotostrecke "Das Fest der Messer und der Liebe" im "Stern". Ein Jahr später brachte sie ihren zweiten erfolgreichen Bildband "Die Nuba von Kau" heraus, in dem sie den Schwerpunkt auf Porträtaufnahmen und Bilder von Zeremonien mit tanzenden Frauen legte. Für "Die Nuba von Kau" hatte Riefenstahl mit Teleobjektiven und großen Brennweiten fotografiert; damit erreichte sie einen verschwimmenden Hintergrund, während der Vordergrund umso deutlicher hervortritt. Mit "Mein Afrika" folgte 1982 ein dritter Bildband mit Riefenstahl-Fotografien des Schwarzen Kontinents. Im Alter von 71 Jahren absolvierte Riefenstahl einen Tauchlehrgang in Kenia. Um zur Tauchscheinprüfung zugelassen zu werden, hatte sie sich als 20 Jahre jünger ausgegeben. Ihre Tauchausbildung ermöglichte es ihr, sich als Unterwasserfotografin zu betätigen und die Bildbände "Korallengärten" (1978) und "Wunder unter Wasser" (1990) zu veröffentlichen. Die letzten Jahre. Im Jahr 1987 veröffentlichte Riefenstahl ihre Memoiren, an denen sie bereits seit 1982 arbeitete. Sie wurden in mehrere Sprachen übersetzt und rangierten vor allem im Ausland auf den Bestseller-Listen. In den 1990ern wurden weltweit eine Reihe von Leni-Riefenstahl-Ausstellungen eröffnet, die sich mit der Künstlerin und ihrem Werk befassten. Den Anfang machte die von der japanischen Designerin Eiko Ishioka konzipierte Exposition "Leni Riefenstahl – Life" im Bunkamura Museum in Shibuya, Tokio, bei deren Eröffnungsfeier im Dezember 1991 Riefenstahl anwesend war. 1992 wirkte Riefenstahl an ihrer Filmbiografie "Die Macht der Bilder" des Regisseurs Ray Müller mit. Sie gab ihm ausführliche Interviews, besuchte die Drehorte ihrer Filme und gewährte Einblick in ihren Arbeitsalltag. Außerdem durfte Müller sie bei der Feier zu ihrem 90. Geburtstag und bei Fotoshootings mit Siegfried und Roy in Las Vegas sowie mit Helmut Newton filmen. "Die Macht der Bilder" wurde 1993 veröffentlicht und mit dem Emmy ausgezeichnet. 1996 folgte durch Johann Kresnik am Kölner Schauspielhaus eine Übertragung ihrer Biografie auf die Bühne. Am 30. August 1997 wurde Riefenstahl von der Cineasten-Vereinigung "Cinecon" im kalifornischen Glendale mit einem Preis für ihr Lebenswerk ausgezeichnet, da sie alle Facetten des Filmemachens repräsentiere. Anfang 2000 wurde bekannt, dass Jodie Foster beabsichtigte, das Leben der Regisseurin auf die Kinoleinwand zu bringen. Das Drehbuch hatte die Oscar-Preisträgerin bereits mit Riefenstahl besprochen, der Beginn der Dreharbeiten wurde jedoch wiederholt verschoben. 2011 erklärte Foster schließlich, dass sie den Plan aufgegeben habe. Auch Madonna hatte Interesse an der Verfilmung von Riefenstahls Memoiren gezeigt, dieses Vorhaben aber letztlich nicht umgesetzt. Im Februar 2000 wurde Riefenstahl von Ray Müller in den Sudan begleitet, wo er sie für die 2003 erschienene Dokumentation "Leni Riefenstahl: Ihr Traum von Afrika" bei den Nuba filmte. Auf dem Rückflug nach Karthum im März 2000 stürzte sie mit einem Hubschrauber in der Nähe von al-Ubayyid ab und überlebte schwer verletzt. Im Oktober 2000 stellte Riefenstahl auf der Frankfurter Buchmesse das von Angelika Taschen herausgegebene Buch "Leni Riefenstahl. Fünf Leben" vor. Riefenstahls Grab auf dem Münchner Waldfriedhof 2002 ließ sie sich für die knapp einstündige ZDF-Arte-Dokumentation "Die Maßlosigkeit, die in mir ist – Sandra Maischberger trifft Leni Riefenstahl" erneut von einem Kamerateam begleiten und von Sandra Maischberger über ihr Leben und Werk interviewen. Im selben Jahr lichtete Helmut Newton die Filmemacherin für das "Vanity-Fair"-Magazin ab und es erschien ihr 41-minütiger Dokumentarfilm "Impressionen unter Wasser". Der Film zeigt eine Auswahl an Unterwasseraufzeichnungen aus 25 Jahren, in denen Riefenstahl mit ihrem Kameramann und Lebensgefährten Horst Kettner insgesamt über 2000 Tauchgänge absolviert hatte. Die Dokumentation erschien fast 50 Jahre nach "Tiefland" und war ihr letztes Werk. Mit "Impressionen unter Wasser" verfolge sie, die Anfang der 1990er Jahre nach eigenen Angaben aktives Mitglied bei Greenpeace geworden war, das Ziel, „ins Bewusstsein zu rufen, was die Welt verliert, wenn nichts gegen die Zerstörung der Meere unternommen wird.“ Am späten Abend des 8. September 2003 starb Leni Riefenstahl kurz nach ihrem 101. Geburtstag in ihrem Haus in Pöcking. Sie wurde eingeäschert und ihre Urne am 12. September 2003 auf dem Münchner Waldfriedhof beigesetzt. Filmische Ausdrucksmittel und Techniken. Riefenstahl legte bei ihren Filmen großen Wert auf ästhetische, harmonische Aufnahmen und Symbolik. Durch den Einfluss ihres Bergfilm-Mentors Arnold Fanck hatte sie ein Gespür für die Wirkung von Landschaften und Architektur entwickelt und so wählte sie für die märchenhafte Handlung ihres Regiedebüts "Das blaue Licht" die malerische Kulisse der Brenta in Südtirol. Das Mystische der Erzählung unterstrich sie durch den Einsatz von Nebel, Licht und Schatten. Das blaue Licht, das in Vollmondnächten von einer Kristallgrotte ausgeht, symbolisiert die unerreichbaren Ideale des von Riefenstahl gespielten Bergmädchens Junta. Außerdem experimentierte sie mit Farbfiltern. Durch den Einsatz eines roten Filters gelang es ihr, den blauen Taghimmel auf den Aufnahmen fast schwarz erscheinen zu lassen, so dass sie auf Nachtdrehs mit Scheinwerfern verzichten konnte. Lange Szenen zerschnitt sie, damit die Handlung kurzweiliger wirkte – eine Technik, die sie ebenfalls bei Fanck gelernt hatte. Der "Triumph des Willens" sollte interessanter als die statisch wirkende Wochenschau werden. Die Regisseurin positionierte ihre Kameramänner deshalb an mehreren Orten, damit sie Filmmaterial aus unterschiedlichen Blickwinkeln erhielt, was ihr einen dynamischeren Schnitt ermöglichte. Zum ersten Mal in der Dokumentarfilmgeschichte wurden zudem mobile Aufnahmen gemacht. Die Kameramänner filmten auf Rollschuhen und aus fahrenden Autos, platzierten die Kamera in einem Fahnenstangen-Fahrstuhl oder fuhren mit ihr auf Schienen. Die Übergänge der einzelnen Szenen gestaltete Riefenstahl durch die Abstimmung der Grautöne und einen gezielten Toneinsatz (akustische Klammer) möglichst fließend. Ihre Erfahrungen als Tänzerin ließ sie in die Rhythmik der Bilder und in die Choreografie der marschierenden Truppen einfließen. Durch den Schnitt setzte sie dramaturgische Höhepunkte und erzeugte starke Kontraste zwischen der gesichtslosen Menschenmasse und der Einzelperson Hitlers. Dieser wurde zum ersten Mal in Großaufnahme gezeigt und durch Kameraperspektiven wie die Untersicht überhöht inszeniert. Da sie auf eine Kommentierung des Films verzichtete, ließ sie Bilder, Gesänge, Hakenkreuzfahnen und andere Symbole sprechen. Beim Dreh von "Olympia" ließ sich Riefenstahl von der griechischen Antike inspirieren. Da sie keine Handlung hatte, inszenierte sie die Athleten wie antike Skulpturen und heroische Archetypen, indem sie die Kameras in Zeitlupe über die halbnackten, gestählten Körper und ihre Bewegungen fahren ließ. Um den Sportlern möglichst nahe kommen zu können, entwickelte das Team viele neue Aufnahmetechniken. Es wurden Gruben ausgehoben, aus denen die Kameraleute die Stabhochspringer vor freiem Himmel filmen konnten. Um die Sprints der Läufer aufzunehmen, entwarf die Crew eine Katapultkamera, die mit den Athleten mitgehen konnte. Des Weiteren kamen Ballon-, Unterwasser- und Schienenkameras zum Einsatz. Die Kameramänner verwendeten erstmals Teleobjektive mit einer Brennweite von 600 mm, um auch von weit entfernten Sportlern Nahaufnahmen anfertigen zu können. In beiden Olympia-Teilen wechselt die Kameraführung zwischen reportagenhaftem Panorama, Schwenk, Passagen aus der Untersicht, in Zeitlupe, mit subjektiver Kamera und Parallelfahrten. Die Montage legt Schwerpunkte auf symbolische Überhöhung durch optische Überblendungen, auf emotionalisierende Musik oder auf die Spannung zwischen sportlichem Wettkampf und Publikumsanfeuerung. Ein weiteres Gestaltungsmerkmal ist der Wechsel zwischen rein musikalisch illustrierten Passagen und Teilen, die durch Sprecher und Publikumsreaktionen scheinbar authentisch kommentiert wirken. Sequenzen, die nicht im Wettkampf eingefangen werden konnten, ließ Riefenstahl während des Trainings vordrehen. Dieses Material schnitt sie anschließend in die echten Wettkampfaufnahmen hinein, wodurch dramatische Szenen auf Spielfilmniveau entstanden. Um den Marathonlauf nicht monoton erscheinen zu lassen, griff sie ebenfalls zu Elementen des Spielfilms. Die Aufnahmen zeigen die erschöpften Läufer, gleichzeitig vermittelt die eingespielte, antreibende Musik jedoch ihren ungebrochenen Willen, das Ziel zu erreichen. Für die damalige Zeit war auch neu, dass Riefenstahl die Turmsprungszenen in unterschiedlicher Schnelligkeit und teilweise rückwärts ablaufen ließ. Rezeption des Werks und sein Einfluss auf die Popkultur. Für viele Filmkenner sind die Reichsparteitagstrilogie und "Olympia" keine reinen Dokumentationen, sondern Propagandafilme und künstlerische Inszenierungen eines Führer- beziehungsweise Körperkults. Die US-amerikanische Autorin Susan Sontag schrieb in ihrem 1975 erschienenen Essay "Faszinierender Faschismus": „Will man noch einen Unterschied machen zwischen Dokumentarfilm und Propaganda, dann ist jeder, der die Filme der Riefenstahl als Dokumentarfilme verteidigt, naiv. In "Triumph des Willens" ist das Dokument (das Bild) nicht nur die Aufzeichnung der Realität; die ‚Realität‘ wurde konstruiert um dem Bild zu dienen.“ Jürgen Trimborn meint in seiner Riefenstahl-Biografie: „Keine Dokumentation über den Nationalsozialismus kommt heute ohne die Bilder aus "Triumph des Willens" aus, kein anderer Film hat unsere visuelle Vorstellung, was Nationalsozialismus war, so tief geprägt wie er.“ Differenzierter sieht es Martin Loiperdinger: „["Triumph des Willens" stellt] eine einzigartige zeitgeschichtliche Quelle dar, jedoch nicht einfach für den Nationalsozialismus, wie er wirklich gewesen ist, sondern als Dokument dafür, wie sich der Nationalsozialismus selbst gern gesehen hat.“ Während "Sieg des Glaubens" aufgrund von einigen verwackelten und unscharfen Bildern sowie unfreiwillig komischen Szenen als ästhetisch unvollkommen betrachtet wird, gilt "Triumph des Willens" als perfektionistisches Meisterwerk und einer der besten Propagandafilme, der je gedreht wurde. Zu den Markenzeichen der Parteitagsfilme werden insbesondere die bildliche Überhöhung Hitlers und die anmutig wirkende Massenchoreografie gezählt. "Olympia" wurde im Jahr 1956 – trotz des US-amerikanischen Boykotts Ende der 1930er Jahre – von einer Hollywood-Jury zu einem der „zehn besten Filme aller Zeiten“ gekürt. Charakteristisch für ihn seien die idealisierte Darstellung von Kraft, Eleganz und Macht anhand muskulöser, makelloser Körper. Riefenstahl habe die faschistische Ästhetik zwar nicht erfunden, sie jedoch auf geniale Weise ins Medium Film übertragen. Nachdem Riefenstahls Nuba-Bilder veröffentlicht worden waren, warf ihr Sontag vor, mit den Fotografien im Einklang mit der Nazi-Ideologie physische Stärke und Mut zu glorifizieren und nahtlos an ihre propagandistischen Filme aus der Zeit des Nationalsozialismus anzuknüpfen. Obwohl ihre Werke umstritten sind, besteht unter Filmwissenschaftlern und -kritikern weitgehend Einigkeit, dass Riefenstahl mit ihrer für die damalige Zeit revolutionären, sehr dynamischen Schnitttechnik und der Verwendung ganz neuer Kameraperspektiven filmische Maßstäbe gesetzt hat. Ihre Filme, allen voran "Triumph des Willens" und "Olympia", haben Generationen von Künstlern nach ihr beeinflusst. George Lucas griff beispielsweise eine Einstellung aus "Triumph des Willens" für die Schlussszene in "Krieg der Sterne" auf, Quentin Tarantino ließ sich während der Vorbereitungen für "Inglourious Basterds" von Riefenstahl inspirieren und Rammstein provozierte im Musik-Video zum Cover des Depeche-Mode-Lieds "Stripped" mit Filmmaterial aus "Olympia". Auch auf Werbefilme und -kampagnen, Dokumentarfilme sowie Sportfotografien üben ihre Werke nachhaltigen Einfluss aus. Öffentliche Wahrnehmung der Person. Schon zu ihren Lebzeiten galt Leni Riefenstahl als Legende und auch nach ihrem Tod ist das öffentliche Interesse an ihrer Person ungebrochen. Sie wird in zahllosen wissenschaftlichen und nichtwissenschaftlichen Veröffentlichungen thematisiert, analysiert und rezensiert – und polarisiert dabei so stark wie kaum eine andere Persönlichkeit der Filmgeschichte. Die einen sehen in ihr Hitlers „Steigbügelhalterin“ und eine Propagandistin der nationalsozialistischen Ideologie und faschistischen Ästethik, die anderen halten sie für eine begnadete Künstlerin, der es zum Verhängnis geworden sei, dass das NS-Regime ihre Werke zu Propagandazwecken missbraucht habe. Ernst Oppler war auf Riefenstahl als Darstellerin des modernen Tanz in den 1920er Jahren aufmerksam geworden und porträtierte sie. Weitere Maler in den 1920er Jahren waren Eugen Spiro, Leo von König und der eher traditionelle Maler Willy Jaeckel. Ein Foto von 1921 zeigt Oppler, von König sowie Elisabeth Griebe und Riefenstahl. In den 1930er Jahren stieg Riefenstahl in der öffentlichen Wahrnehmung vom „Bergfilm-Starlet“ zur anerkannten und gefeierten „Reichsfilmregisseurin“ auf und wurde im In- und Ausland für "Das blaue Licht", "Triumph des Willens" und "Olympia" mit Preisen ausgezeichnet. Nach den Novemberpogromen 1938 wurde Hitlers “Lady Friend” in Großbritannien und den Vereinigten Staaten jedoch weitgehend boykottiert. Auch in Deutschland verkehrte sich das hohe öffentliche Ansehen Riefenstahls nach 1945 ins Gegenteil. Im Zusammenhang mit der Berichterstattung über die Entnazifizierungsverfahren, denen sich Riefenstahl von 1948 bis 1952 stellen musste, wurden ihre einst vorbehaltlos gefeierten Werke nun kritisch bewertet und eine rein künstlerische Motivation der Filmemacherin angezweifelt. Am 1. Mai 1949 wurde von der Illustrierten "Revue" erstmals über die Zwangsverpflichtung der später ermordeten Sinti-und-Roma-Komparsen für den Film "Tiefland" berichtet. Riefenstahl legte juristische Schritte gegen die Darstellung ein und erreichte unter anderem, dass der Verleger Helmut Kindler vom Amtsgericht München wegen übler Nachrede verurteilt wurde. Insgesamt führte Riefenstahl nach 1945 rund 50 Prozesse, in denen sie sich – meistens erfolgreich – gegen Verleumdungen und üble Nachreden zur Wehr setzte. In den 1960er Jahren ging die Berichterstattung über Riefenstahl zurück, jedoch wurden ihre ersten Nuba-Fotografien im In- und Ausland veröffentlicht. Ab den 1970er Jahren setzte vor allem im Ausland die sogenannte „Riefenstahl Renaissance“ ein: Die Künstlerin und ihre Dokumentarfilme wurden wiederentdeckt und zunehmend unkritisch gewürdigt. Die britische "Sunday Times" beauftragte sie als Fotografin bei den Olympischen Sommerspielen 1972 in München und beim Telluride Film Festival 1974 wurde sie neben Gloria Swanson und Francis Ford Coppola mit der Silver Medallion für ihre Verdienste um die Filmkunst geehrt. Andere berühmte Künstler wie Mick Jagger, Andy Warhol, George Lucas, Quentin Tarantino, Jodie Foster, Madonna oder Siegfried und Roy äußerten ihre Bewunderung und förderten damit die Rehabilitierung Riefenstahls. Jedoch gab es auch weiterhin kritische Stimmen und vereinzelte Proteste, wenn öffentliche Auftritte Riefenstahls angekündigt wurden. Für Schlagzeilen sorgte ihr Auftritt in einer von Hansjürgen Rosenbauer moderierten Folge der Talkshow "Je später der Abend" am 30. Oktober 1976. Nachdem sie auf ihre Karriere im Dritten Reich angesprochen worden war, lieferte sie sich während der Live-Sendung eine heftige Auseinandersetzung mit den beiden anderen Talkgästen Knut Kiesewetter und Elfriede Kretschmar. Als Riefenstahl 1987 ihre Memoiren veröffentlichte, waren die Reaktionen erneut geteilt. Während die "New York Times" das über 900 Seiten lange Werk trotz der Tatsache, dass sie ihr Werk in den Dienst der Nazis gestellt habe, als „fesselnd“ bezeichnete und unter die 100 „bemerkenswerten“ Bücher des Jahres 1993 wählte, beanstandeten andere ihre fehlende Selbstreflexion und die mangelnde kritische Auseinandersetzung mit der Vergangenheit. Die Psychoanalytikerin und Autorin Margarete Mitscherlich bezeichnete Riefenstahl 1994 als „Superverleugnerin“. Zu ihrem 100. Geburtstag am 22. August 2002 sowie anlässlich ihres Todes am 8. September 2003 veröffentlichten zahlreiche Medien Retrospektiven auf ihr Leben und Werk. In ihrem Nachruf fasste die britische "Times" die Rezeption der Künstlerin zusammen: „Leni Riefenstahl war die einzige Frau, die als Filmemacherin uneingeschränkt Anerkennung fand. Aber damit hört die einhellige Zustimmung auch schon auf. Sie wurde als Bösewicht, Heldin, Lügnerin, Betrügerin, Rassistin, Opfer einer patriarchischen Gesellschaft und vorbildliche Künstlerin um der Kunst willen porträtiert. Vielleicht hat der Filmhistoriker Liam O’Leary die Widersprüche am besten auf den Punkt gebracht, als er sagte: ‚Sie war ein künstlerisches Genie und ein politischer Trottel‘.“ Riefenstahls Selbstverständnis. Riefenstahl selbst sah in der Reichsparteitagstrilogie und "Olympia" rein dokumentarische Werke und wies die NS-Propaganda-Vorwürfe der Öffentlichkeit bis zuletzt vehement zurück: „"Triumph des Willens" ist ein Dokumentarfilm von einem Parteitag, mehr nicht. Das hat nichts zu tun mit Politik. Denn ich habe aufgenommen, was sich wirklich abgespielt hat und habe es insofern überhöht, als dass ich keinen Kommentar dazu gemacht habe. Ich habe versucht, die Atmosphäre, die da war, durch Bilder auszudrücken und nicht durch einen gesprochenen Kommentar. Und um das ohne Text verständlich zu machen, musste die Bildsprache sehr gut, sehr deutlich sein. Die Bilder mussten das sagen können, was man sonst spricht. Aber deswegen ist es doch keine Propaganda.“ In ihren Memoiren und diversen Interviews behauptete Riefenstahl außerdem, dass sie sich zunächst gesträubt habe, die Reichsparteitagstrilogie zu drehen. Sie habe keine Ahnung von ihrer Begabung als Dokumentarfilmerin gehabt und eigentlich nur als Schauspielerin arbeiten wollen. Hitler habe jedoch so lange auf sie eingewirkt, bis sie sich schließlich dazu bereit erklärt habe. Sie habe Hitler jedoch das Versprechen abgenommen, dass sie danach nie wieder einen Film für ihn oder die NSDAP drehen müsse. Stets betonte Riefenstahl, dass sie sich nicht für Politik interessiert und sich keine Gedanken über die Wirkung ihrer Werke gemacht habe. In ihrem künstlerischen Wirken sei es ihr immer nur um Ästhetik, nicht um Ideologie gegangen. Sie sei nur eine Mitläuferin des NS-Regimes gewesen und habe erst nach dem Krieg von dessen Verbrechen erfahren. An den Chefredakteur der deutsch-jüdischen Exilzeitung "Aufbau" in New York, Manfred George, schrieb sie 1949: „Ich bin fast wahnsinnig darüber geworden, und ich fürchte, dass ich niemals mehr frei werden kann von dem Alpdruck dieses ungeheuren Leidens.“ In späteren Interviews beteuerte sie immer, die NS-Verbrechen zu verurteilen. Gleichzeitig wehrte sie sich gegen jeden Schuldvorwurf: „[…] wo liegt denn meine Schuld? Sagen Sie mir doch das. Ich habe keine Atombomben geworfen, ich habe niemanden verleugnet. Wo liegt denn meine Schuld?“ Verhältnis zu Hitler. Über das Verhältnis von Leni Riefenstahl zu Adolf Hitler wurde schon in den 1930er und 1940er Jahren viel spekuliert. Dabei wurde der Regisseurin mehrfach unterstellt, eine sexuelle Beziehung mit dem Reichskanzler unterhalten zu haben. Auch nach dem Tod des Diktators wurde die Gerüchteküche immer wieder mit angeblichen Enthüllungen angeheizt. So sollte beispielsweise aus den vermeintlich echten Tagebuchaufzeichnungen von Eva Braun, die Riefenstahls ehemaliger Schauspielkollege Luis Trenker dem Boulevardblatt "Wochenend" zugespielt hatte, hervorgehen, dass die Regisseurin nackt vor Hitler getanzt habe. 1948 legten die Angehörigen Brauns und Riefenstahl rechtliche Schritte gegen den Verlag ein. Vor Gericht erwirkten sie eine einstweilige Verfügung, laut der die Aufzeichnungen eine völlig freie Darstellung aus der Feder eines noch unbekannten Autors im Tagebuch-Ich-Stil seien. Trenkers Erklärung, wie er zu den Aufzeichnungen gekommen sei, stellte sich als fadenscheinig heraus und später räumte er ein, dass er „nur einen Jux mitgemacht“ habe. Riefenstahl selbst bestritt stets, dass zwischen ihr und Hitler mehr als eine rein freundschaftlich-berufliche Beziehung bestanden habe. Sie habe zwar gespürt, dass Hitler sie durchaus „als Frau begehrte“, aber zu Intimitäten sei es nie gekommen. Der bekanntgewordene Schriftwechsel, in dem sich die Regisseurin und der Reichskanzler siezen, ist herzlich und förmlich zugleich und unterstützt Riefenstahls Aussage. Auch der Pressechef der NSDAP, Otto Dietrich, sprach von einer über Jahre andauernden künstlerischen, kameradschaftlich-freundschaftlichen Verbundenheit der beiden. Riefenstahl erklärte ihre Freundschaft zu Hitler damit, dass sie zwischen dem Politiker und dem „Menschen Hitler“ differenziert habe. Sie leugnete nie, dass sie der Persönlichkeit des Diktators verfallen war. Sie habe an das Gute in ihm geglaubt und das Dämonische aus Verblendung zu spät erkannt. Hitler seinerseits, der Frauen, die sich in politische und militärische Sachen einmischten, als „Greuel“ empfand, schätzte Riefenstahl für ihre Arbeit und sagte: „Vier Paradefrauen habe ich gehabt: Frau Troost, Frau Wagner, Frau Scholtz-Klink und Leni Riefenstahl.“ Als Grund für die Freundschaft der Filmemacherin und des Diktators nennen viele Autoren die charakterliche Ähnlichkeit der beiden. Riefenstahl und Hitler werden als sehr willensstarke, dominante, narzisstische und egozentrische Persönlichkeiten bezeichnet, deren Beziehung von der Identifikation mit dem jeweils anderen und der Stillung ihrer Sehnsüchte gekennzeichnet gewesen sei. Laut Margarete Mitscherlich entdeckte einer im anderen „sein seelisches Selbstbildnis, das sich mit den eigenen Phantasien über Vollkommenheit, Überlegenheit und Verführungskunst deckte.“ Literatur über Leni Riefenstahl (Auswahl). Weitere Literaturangaben finden sich auf der Diskussionsseite. Ludwig Wittgenstein. Ludwig Josef Johann Wittgenstein (* 26. April 1889 in Wien; † 29. April 1951 in Cambridge) war ein österreichisch-britischer Philosoph. Er lieferte bedeutende Beiträge zur Philosophie der Logik, der Sprache und des Bewusstseins. Seine beiden Hauptwerke "Logisch-philosophische Abhandlung" (Tractatus logico-philosophicus 1921) und "Philosophische Untersuchungen" (1953, postum) wurden zu wichtigen Bezugspunkten zweier philosophischer Schulen, des Logischen Positivismus und der Analytischen Sprachphilosophie. Leben und Werk. Ludwig Wittgenstein als Kleinkind, 1890 Ludwig Wittgenstein als Kind, vorne rechts mit den Schwestern Hermine, Helene, Margarete und Bruder Paul Gedenktafel am Bundesrealgymnasium in Linz Wittgenstein entstammt der österreichischen, früh assimilierten jüdischen Industriellenfamilie Wittgenstein, deren Wurzeln in der deutschen Kleinstadt Laasphe im Wittgensteiner Land liegen. Er war das jüngste von acht Kindern des Großindustriellen Karl Wittgenstein und seiner Ehefrau Leopoldine, die aus einer Prager jüdischen Familie stammte (geb. Kalmus). Karl Wittgenstein gehörte zu den erfolgreichsten Stahl-Industriellen der späten Donaumonarchie, und das Ehepaar Wittgenstein wurde zu einer der reichsten Familien der Wiener Gesellschaft der Jahrhundertwende. Der Vater war ein Förderer zeitgenössischer Künstler, die Mutter eine begabte Pianistin. Im Palais Wittgenstein verkehrten musikalische Größen wie Clara Schumann, Gustav Mahler, Johannes Brahms und Richard Strauss. Wittgenstein wurde katholisch erzogen. Er selbst wie auch seine Geschwister zeichneten sich durch außerordentliche musische und intellektuelle Fähigkeiten aus. Ludwig Wittgenstein spielte Klarinette. Sein Bruder Paul verlor im Ersten Weltkrieg den rechten Arm und machte dennoch als Pianist Karriere. Diesen Talenten stand eine problematische psychische Konstitution gegenüber: Drei seiner sieben Geschwister begingen Selbstmord (Hans, Rudolf, Kurt). Auch Wittgenstein zeigte, insbesondere nach den Erfahrungen des Ersten Weltkriegs, depressive Züge. Im Kontakt zu anderen soll er teils autoritär und rechthaberisch, teils auch übersensibel und unsicher gewirkt haben. Ein entfernter Großcousin von Wittgenstein war der Wirtschaftswissenschaftler Friedrich August von Hayek. Wittgensteins intellektuelle Erziehung begann mit häuslichem Privatunterricht in Wien. Ab 1903 bis 1906 besuchte er die K. k. Staats-Realschule in Linz. Adolf Hitler hat die Schule davor von 1900 bis 1902 besucht. Am 28. Oktober 1906 immatrikulierte Wittgenstein sich an der Technischen Hochschule Charlottenburg. Ursprünglich hatte er bei Ludwig Boltzmann in Wien studieren wollen. Für Berlin entschied sich Wittgenstein, weil sein Realschulzeugnis ihm die Einschreibung an der Universität erst nach einem weiteren Studium erlaubte. Dort beschäftigte sich Wittgenstein, so seine Schwester Hermine in ihren Familienerinnerungen, Nach dem Abschlussdiplom als Ingenieur 1908 ging Wittgenstein nach Manchester, wo er an der Universitätsabteilung für Ingenieurwissenschaften versuchte, einen Flugmotor zu bauen. Diesen Plan gab er jedoch bald auf. Danach arbeitete er an „Verbesserungsvorschlägen für Flugzeugpropeller“, einem Projekt, für das er am 17. August 1911 ein Patent erhielt. Schließlich dominierte die Philosophie: Nicht zuletzt auf Anregung Gottlob Freges, den er 1911 in Jena besuchte, nahm Wittgenstein ein Studium in Cambridge am Trinity College auf, wo er sich intensiv mit den Schriften Bertrand Russells beschäftigte, insbesondere mit den "Principia Mathematica". Sein Ziel war es, wie bei Gottlob Frege die mathematischen Axiome aus logischen Prinzipien abzuleiten. Russell zeigte sich nach den ersten Begegnungen nicht beeindruckt von Wittgenstein: Doch nach nicht einmal zwei Wochen sollte sich Russells Meinung ändern: Schon bald hielt Russell Wittgenstein für höchst talentiert, und Russell war schließlich der Meinung, Wittgenstein sei geeigneter als er, sein logisch-philosophisches Werk fortzuführen. Russell urteilte über ihn Unter anderem mit Russells Unterstützung wurde Wittgenstein im November 1911 in die elitäre Geheimgesellschaft Cambridge Apostles gewählt. In David Pinsent fand er dort seinen ersten Geliebten. Sie erwarben gemeinsam ein Holzhaus in Skjolden in Norwegen, wo Wittgenstein 1913 für einige Monate an einem System der Logik arbeitete. Dass Wittgenstein homosexuell war, hatte zuerst sein Biograph William Warren Bartley 1973 auf Grund von Aussagen anonymer Freunde Wittgensteins und zweier in Geheimschrift verfasster Tagebücher öffentlich gemacht. Ab 1912 begann Wittgenstein mit Arbeiten an seinem ersten philosophischen Werk, der "Logisch-philosophischen Abhandlung", die er bis 1917 in einem Tagebuch als Notizen festhielt. Auch während seiner Zeit als österreichischer Freiwilliger im Ersten Weltkrieg beschäftigte er sich weiter damit, bis er das Werk schließlich im Sommer 1918 vollendete. Es erschien jedoch erst 1921 in einer fehlerhaften Version in der Zeitschrift "Annalen der Naturphilosophie". 1922 wurde schließlich eine zweisprachige Ausgabe unter dem heute bekannten Titel der englischen Übersetzung veröffentlicht: "Tractatus Logico-Philosophicus". Abgesehen von zwei kleineren philosophischen Aufsätzen und einem "Wörterbuch für Volksschulen" blieb die "Logisch-philosophische Abhandlung" das einzige zu Lebzeiten veröffentlichte Werk Wittgensteins. Im Rahmen seiner Kontakte zu der von Ludwig von Ficker herausgegebenen Kulturzeitschrift "Der Brenner" und dem Innsbrucker „Brenner-Kreis“ lernte Wittgenstein Werke des Dichters Georg Trakl kennen. Im Juli 1914 beschloss Wittgenstein, sein beachtliches Erbe für wohltätige Zwecke zu verwenden. Gefördert wurde unter anderem Trakl mit einer einmaligen Summe von 100.000 Kronen, was damals etwa vier Jahresgehältern eines mittleren Beamten entsprach. Auch war Wittgenstein indirekt in das Geschehen um den Tod Georg Trakls involviert. Auf Bitten Trakls, der sich nach einem Selbstmordversuch in einem Krakauer Garnisonsspital befand, reiste Wittgenstein am 5. November 1914 nach Krakau, um Trakl zu besuchen. Trakl war jedoch zwei Tage vor Wittgensteins Eintreffen in Krakau gestorben. Im Ersten Weltkrieg kämpfte Wittgenstein als österreichischer Soldat an der Ostfront in Galizien. Durch die guten familiären Kontakte nach England - insbesondere zu Bertrand Russell - war Wittgenstein durch den Vatikan, Freunde im neutralen Norwegen, der Schweiz usw. in der Lage, auch mit den Freunden auf der „anderen Seite“ im Briefkontakt zu bleiben. Bei Kriegsende wurde er bei Asiago von den Italienern gefangengenommen und in das Offiziersgefängnis in Monte Cassino gebracht. Sein englischer Freund John Maynard Keynes konnte sich als Mitglied der Friedenskonferenz in Paris für seine Freilassung einsetzen. Auch mit seinem Vetter, dem späteren Nobelpreisträger Friedrich August von Hayek, mit dem er in Österreich und England in Kontakt stand, blieb er in Verbindung. Nach der Lektüre der "Kurzen Darlegung des Evangeliums" von Leo Tolstoi äußerte er gegenüber dem Freund Franz Parak den Wunsch, in Zukunft Kinder das Evangelium zu lehren. Durch die Schrecken des Krieges wurde er vom Logiker zum Mystiker im Sinne der „negativen Theologie“. So reifte in ihm der Plan, Volksschullehrer zu werden. Frühwerk. Mit der "Logisch-philosophischen Abhandlung" (Tractatus) vollzog Wittgenstein den linguistic turn (sprachkritische Wende) in der Philosophie. In der Variante Wittgensteins bedeutet dies unter anderem: Philosophische Probleme kann nur verstehen oder auflösen, wer begreift, durch welche Fehlanwendung von Sprache sie überhaupt erst erzeugt werden. Ziel philosophischer Analysen ist die Unterscheidung von sinnvollen und unsinnigen Sätzen durch eine Klärung der Funktionsweise von Sprache: Die Hauptgedanken des Tractatus erwuchsen aus der Auseinandersetzung – und in gegenseitiger Befruchtung – mit Bertrand Russell und werden meist der Philosophie des Logischen Atomismus zugerechnet. Der Kern von Wittgensteins früher Philosophie ist die Abbildtheorie der Sprache. Danach zerfällt die Wirklichkeit in „Dinge“ (Sachen, die sich zueinander verhalten). Jedes „Ding“ hat einen „Namen“ in der Sprache. Bedeutung erhalten diese Namen erst durch ihr Zusammenstehen im Satz. Sätze zerfallen – wie die Wirklichkeit in Dinge – in deren Namen. Wenn die Anordnung von Namen im Zeichen eines Satzes die gleiche Struktur aufweist wie die Anordnung der von den Namen vertretenen Gegenständen in der Wirklichkeit, also denselben „Sachverhalt“ darstellt, wird ein Satz dadurch wahr. Bilden die Dinge in Wirklichkeit einen anderen Sachverhalt als ihre Namen im Satzzeichen, wird ein Satz dadurch falsch. „Sinnlos“ sind dagegen Sätze, die unabhängig von Sachverhalten in der Wirklichkeit wahr oder falsch sind, also zum Beispiel Tautologien und Kontradiktionen. Wogegen Sätze „unsinnig“ genannt werden, deren Zeichen überhaupt keine Dingverbindungen in der Wirklichkeit darstellt wie: „Der Satz, den ich hiermit ausspreche, ist falsch“. Dieser Satz bezieht sich nicht auf eine mögliche Dingverbindung oder Wirklichkeit, sondern auf sich selbst, was laut Wittgenstein „Unsinn“ ergibt. Das gilt ebenso für Sätze, die vorgeben, etwas zu sagen, was über die reine Anordnung von Dingen in der Welt hinausgeht, indem sie sich zum Beispiel etwas ausbitten oder das von ihnen Vorgestellte „gut“ oder „schlecht“ nennen; denn solcher Wert, den die im Satzzeichen vorgestellte Wirklichkeit haben soll, erhellt nie nur aus ihrer Struktur und kann folglich auch nichts sein, was in einer Konstellation von Namen erscheint. Ein Wert lässt sich daher nach Wittgenstein (Tractatus 7) nicht aussprechen, höchstens „erschweigen“ (könnte daher vielleicht in durch bestimmte Haltungen informierten Reaktionen oder Taten, nie aber in ihn beschreibenden Sätzen erscheinen). Sich selbst beschreibt die "Logisch-philosophische Abhandlung" gen Schluss: Sein Vorwort (Wien, 1918) schließt mit den Worten: „Dagegen scheint mir die Wahrheit der hier mitgeteilten Gedanken unantastbar und definitiv. Ich bin also der Meinung, die Probleme im Wesentlichen endgültig gelöst zu haben. Und wenn ich mich hierin nicht irre, so besteht der Wert dieser Arbeit zweitens darin, daß sie zeigt, wie wenig damit getan ist, daß die Probleme gelöst sind.“ Einen Sinn spricht Wittgensteins Philosophie sich damit selber ab, da von ihr kein „Ding“-Zusammenhang, nichts „Wirkliches“, umrissen wird; vielmehr beinhaltet die gesamte Struktur der "Logisch-philosophischen Abhandlung" den „logischen Raum“ schlechthin – als „unsinnige“ Form oder Möglichkeit jedweder Wirklichkeit oder überhaupt denkbaren Sinnes. Wittgenstein legt nahe, dass das, was Sinn ermöglicht, nicht selbst sinnvoll sein kann. Später veranschaulicht Wittgenstein dies mit dem Bild des Urmeters, das selbst keine Länge habe verglichen mit Gegenständen, die zu Länge gelangten, indem sie so lang „wie“ das Urmeter seien. Übergangszeit. Mit der Veröffentlichung der "Logisch-philosophischen Abhandlung" glaubte Wittgenstein, seinen Beitrag für die Philosophie geleistet zu haben und wandte sich anderen Tätigkeiten zu. Noch während der Kriegsgefangenschaft in Italien entschied er sich, vermutlich unter dem Eindruck der Lektüre von Leo Tolstoi, für den Beruf des Lehrers. Sein gewaltiges Erbe teilte er unter seinen Geschwistern auf, einen Teil spendete er im Laufe der Zeit jungen Künstlern, unter anderem Adolf Loos, Georg Trakl und Rainer Maria Rilke. Zunächst besuchte Wittgenstein 1919/1920 die Lehrerbildungsanstalt in Wien. Danach wurde er für einige Jahre Volksschullehrer, war jedoch in pädagogischer Hinsicht unzufrieden. Nach zwei Jahren wechselte er in das Dorf Puchberg am Schneeberg, wo wie schon zuvor in Trattenbach immer wieder Spannungen zwischen Wittgenstein und den Eltern seiner Schüler auftraten. Binnen zweier Jahre wechselte Wittgenstein erneut die Stelle und wurde Lehrer in Otterthal, wo er auch ein – für diese Zeit fortschrittliches – "Wörterbuch für Volksschulen" schrieb und herausgab. Nachdem er im April 1926 einem elfjährigen Schüler auf den Kopf geschlagen hatte und dieser bewusstlos wurde, reichte Wittgenstein beim Bezirksschulinspektor ein Entlassungsgesuch ein, bevor offizielle Schritte eingeleitet werden konnten. Wittgenstein arbeitete daraufhin einige Monate als Gärtnergehilfe in einem Kloster in Hütteldorf bei Wien, wo er in einem Werkzeugschuppen des Gartens wohnte, und erwog auch – nicht zum ersten Mal –, als Mönch dem Klosterorden beizutreten, wovon ihm jedoch ein Abt des Klosters abriet. Von 1926 bis 1928 erstellte er zusammen mit dem Architekten Paul Engelmann, einem Schüler von Adolf Loos, für seine Schwester Margarethe Stonborough-Wittgenstein ein repräsentatives Stadt-Palais in Wien (Haus Wittgenstein). Das im Stil der Moderne erbaute Palais wurde bald zu einem Mittelpunkt kulturellen Lebens in Wien und zu einem Treffpunkt des Wiener Kreises, einer Gruppe von Philosophen und Wissenschaftstheoretikern, mit denen er in Kontakt stand. Ende der 1920er Jahre begann Wittgenstein sich wieder intensiv mit philosophischen Fragen zu beschäftigen. Dabei stand er in Kontakt zu einigen Mitgliedern des Wiener Kreises, deren Diskussionen er maßgebend beeinflusste (wenngleich in einer Weise, die Wittgenstein nicht guthieß, da er der Meinung war, dass er nicht richtig verstanden worden sei). Durch einen Vortrag des intuitionistischen Mathematikers L. E. J. Brouwer wurde er – so zumindest nach einem Bericht von Herbert Feigl – schließlich nachhaltig aufgerüttelt und wandte sich wieder der Philosophie zu. Während dieser „Übergangsphase“ vertrat Wittgenstein kurzfristig eine Auffassung, die sich als eine Form des Verifikationismus beschreiben lässt: Die Kenntnis der Bedeutung von Sätzen geht einher mit der Kenntnis der einschlägigen Verifikations- oder Beweisverfahren. Spätwerk. 1929 kehrte Wittgenstein als Philosoph nach Cambridge zurück, wo er zunächst bei Bertrand Russell und George Edward Moore in einer mündlichen Prüfung über seinen Tractatus promovierte. Nach der mündlichen Doktorprüfung soll Wittgenstein seinen Prüfern auf die Schulter geklopft haben mit den Worten: "Don't worry, I know you'll never understand it." („Nehmen Sie es nicht so schwer. Ich weiß, dass Sie es wohl nie verstehen werden“). Moore schrieb in seinem Bericht zur Prüfung: "I myself consider that this is a work of genius; but, even if I am completely mistaken and it is nothing of the sort, it is well above the standard required for the Ph.D. degree." („Ich persönlich halte dieses Werk für das eines Genies; selbst wenn ich mich vollständig irren sollte, liegt es immer noch weit über den Anforderungen für den Doktorgrad.“) Da Wittgenstein sein Erbe während des Ersten Weltkriegs an seine Geschwister verteilt hatte, war seine finanzielle Lage zunächst schlecht, sodass er auf Stipendien angewiesen war. Anfang der 1930er Jahre erhielt er einen Lehrauftrag. Ab 1936 unternahm Wittgenstein mit seinem Lebenspartner Francis Skinner mehrere Reisen nach Norwegen, Wien und Russland. 1939 wurde Wittgenstein in der Nachfolge von Moore zum Philosophieprofessor in Cambridge berufen; er behielt die Professur bis 1947. Kurz nach seiner Berufung erwarb er die britische Staatsbürgerschaft. Dies war insbesondere dem Umstand geschuldet, dass nach dem Anschluss Österreichs an Nazi-Deutschland am 12. März 1938 Wittgenstein nun deutscher Staatsbürger war und im Sinne der Nürnberger Gesetze als Jude galt. Während der 1930er Jahre gab Wittgenstein zahlreiche Kurse und hielt Vorlesungen. Immer wieder versuchte er, seine neuartigen Gedanken, die er unter anderem in Auseinandersetzung mit seinem Erstlingswerk entwickelte, in einem Buch zusammenzufassen und erstellte zahlreiche Manuskripte und Typoskripte. Wichtige Schritte waren "The Blue Book" (Typoskript eines Diktats seiner Vorlesung über die Philosophie der Mathematik), "The Big Typescript" (das rasch verworfene Konzept eines Buches) und "The Brown Book" (Typoskript einer Ausarbeitung zum Thema Sprachspiele mit einer Vielzahl von Beispielen). Weitere Manuskripte waren die "Philosophischen Bemerkungen" und die "Philosophische Grammatik". Trotz seiner intensiven Bemühungen gelang es Wittgenstein nicht, sein Buchprojekt zu beenden. Etwa ab 1936 begann Wittgenstein mit den "Philosophischen Untersuchungen", die sich bis etwa 1948 hinzogen. Dieses zweite große Werk hat er selbst weitgehend fertiggestellt, es erschien jedoch erst posthum 1953. Hierdurch gelangte er schnell zu Weltruhm. Denn dieses Werk beeinflusste die Philosophiegeschichte noch stärker als die "Logisch-philosophische Abhandlung (Tractatus)". Es gilt als eines der Hauptwerke der sprachanalytischen Philosophie. In den 1940er Jahren entstand auch das Manuskript "Philosophische Bemerkungen über die Grundlagen der Mathematik". Während des Zweiten Weltkriegs wurde Wittgenstein nochmals praktisch tätig. Er arbeitete freiwillig als Pfleger in einem Londoner Krankenhaus, 1943 schloss er sich als Laborassistent einer medizinischen Forschungsgruppe an, die den hämorrhagischen Schock untersuchte, und entwarf Experimente und Laborgeräte. Er entwickelte Apparaturen zur kontinuierlichen Messung von Puls, Blutdruck, Atemfrequenz und Atemvolumen, dabei bediente er sich auch der Erfahrungen, die er während der Entwicklung seines Flugmotors gemacht hatte. Im Oktober 1947 beendete Wittgenstein seine Tätigkeit an der Universität, um sich ganz seiner Philosophie zu widmen. Er lebte von da an zurückgezogen und verbrachte einige Zeit in Irland. Der Schwerpunkt seiner Arbeiten lag auf der „Philosophie der Psychologie“, die Gegenstand des II. Teils der „Philosophischen Untersuchungen“ wurde. Es ist umstritten, ob die Aufnahme dieser Gedanken in die "Philosophischen Untersuchungen" dem Willen Wittgensteins entspricht. 1949 konnte er sein zweites Hauptwerk dann abschließen. Wittgenstein starb 1951 an Krebs. Da Wittgenstein es ablehnte, ins Krankenhaus zu gehen, verlebte er die letzten Wochen im Hause seines Arztes, der ihn bei sich aufgenommen hatte. Als dessen Frau Wittgenstein am Tag vor seinem Tod mitteilte, seine englischen Freunde würden ihn am nächsten Tag besuchen, soll er gesagt haben: Wittgensteins Grab befindet sich auf dem "Ascension Parish Burial Ground"-Friedhof in Cambridge. Werkinterpretationen. Wittgensteins Philosophie wurde zu verschiedenen Zeiten unterschiedlich wahrgenommen und interpretiert. Ein Grund dafür ist neben anderen, dass er nur ein Werk zu Lebzeiten veröffentlicht hat und dass die Herausgeber der Philosophischen Untersuchungen, was den zweiten Teil betrifft, einige zweifelhafte Entscheidungen getroffen hatten. Auch der schwer zu deutende, aphoristische Stil führt dazu, dass Wittgenstein von teilweise sehr unterschiedlichen philosophischen Schulen vereinnahmt werden konnte. So wurde er von den Mitgliedern des Wiener Kreises so gelesen, als stünde er den Gedanken des Logischen Positivismus nahe. In den 1960er Jahren gab es die Tendenz, in Wittgenstein einen Vertreter oder zumindest Vordenker der Philosophie der normalen Sprache zu sehen. Auch die inhaltliche Auseinandersetzung und technische Interpretation unterliegt noch stetigem Wandel. In der Tractatus-Interpretation stand lange die Frage nach der Natur der Wittgensteinschen "Gegenstände" im Vordergrund, in der Interpretation seiner späten Philosophie ging es lange um den Begriff der "Bedeutung", dann um das Konzept der "Sprachspiele" und Lebensform, dann um das Problem der "Privatsprache" und in den 1980er Jahren, sah es, was die Rezeptionsgeschichte betrifft, ausgehend von Saul Kripkes "Wittgenstein über Regeln und Privatsprache" so aus, als seien Wittgensteins Gedanken zum Problem des "Regelfolgens" der Schlüssel zum Verständnis des Gesamtwerkes. Seit etwa Mitte der 1990er Jahre wird die Diskussion über Wittgensteins Philosophie beherrscht von Vertretern einer sogenannten "resoluten Lesart", die sich gegen eine "Standardinterpretation" richten. Diese Betrachtung kam mit den Arbeiten Cora Diamonds zum Tractatus auf. Besonders in den USA folgten viele Philosophen Diamond und entwarfen ein teilweise radikal von der Standardinterpretation abweichendes Bild Wittgensteins. Die beiden Hauptmerkmale dieser Richtung, die manchmal als Neuer Wittgenstein bezeichnet wird, sind die strikte Interpretation des Unsinn-Begriffs, der zufolge der gesamte Tractatus (außer dem sogenannten "Rahmen", Vorwort und Schlussbemerkungen) im wörtlichen Sinne unsinnig ist, im Gegensatz zu der gewöhnlichen Lesart, nach der die unsinnigen metaphysischen Sätze des Tractatus dennoch tiefe Wahrheiten vermitteln. Wegen dieser strikten Interpretation bezeichnen die Verfechter sich als „resolute“ Leser. Diese Richtung wurde auch „therapeutisch“ genannt, da die Sätze Wittgensteins einen therapeutischen Zweck gehabt hätten. Die zweite Klammer, die die "resoluten" Leser verbindet, ist die Überzeugung der grundsätzlichen Kontinuität von Wittgensteins Gedanken. Dem gegenüber behaupten die Vertreter der „Standardinterpretation“, mehr oder weniger einheitlich, einen Bruch in der philosophischen Entwicklung Wittgensteins. Die Auseinandersetzung der beiden Lager geht teilweise über den in der Philosophie üblichen Schlagabtausch hinaus. Der von den "resoluten Lesern" als Galionsfigur der Standardinterpretation angesehene Peter Hacker nennt es nicht überraschend, dass die neue Interpretation wegen der heute verbreiteten postmodernen Vorliebe für das Paradoxe Anhänger findet. Während James Ferguson Conant, ein Hauptvertreter der resoluten Lesart, ironisch von einem „Schisma“ spricht und entsprechend die Anhänger der neuen Lehre „Ungläubige“ nennt, geht Rupert Read so weit, von „Tractatus-Kriegen“ zu sprechen. Deutung der Spätphilosophie. Wittgensteins meist kurze Dialoge in seinem Spätwerk gelten als stilistisch brillant. Als problematisch für das Verständnis wird angesehen, dass sein Zugang traditionslos ist; besonders der späte Wittgenstein hat in der Philosophiegeschichte keine Vorläufer und stiftet eine neue, beispiellose Art zu denken. Viele glauben daher, diese Art zu denken müsse erlernt werden wie eine fremde Sprache. Nur wenige Philosophen haben so beißend über das Philosophieren geurteilt wie Wittgenstein in seinem späten Denken. Er hielt die „großen philosophischen Probleme“ letztlich für „Geistesstörungen“, die unter anderem entstünden, „indem man philosophiere“. Sie würden dadurch zu fixen Ideen, die einen nicht mehr loslassen – in der Regel, weil wir uns in einen unzuträglichen Sprachgebrauch verrannt haben. heißt es in den "Philosophischen Untersuchungen", der Hauptquelle seiner späten Philosophie. Die Ähnlichkeit der Sätze „Ich habe einen Stuhl“, „Ich habe einen Eindruck“, „Ich habe Zahnschmerzen“ verführt zur Auffassung, man „habe“ Eindrücke oder Empfindungen in gleicher Weise wie „Stühle“ (raumeinnehmende Gegenstände, deren Besitz man durch Verkauf oder Einäscherung verlieren kann) – wodurch sich das Bild aufdrängt, Wörter wie „Eindruck“, „Empfindung“ oder auch „Gedanke“, „Zahl“ müssten wie „Stuhl“ für irgendwie Raumeinnehmendes – wenn nicht Sichtbares, dann Unsichtbares – stehen: etwa für „Ideen“ oder das, was man durch „Nachschauen“ in seinem „Innersten erblicken“ könne. Wittgenstein zielt darauf ab, solche unwillkürlichen Bilder (die hier etwa einen „inneren Raum“ mit „unsichtbaren Gegenständen“ suggerieren) zu überwinden, indem er zum Beispiel ihre Entstehung ins Bewusstsein hebt. Sein Philosophieren hat, wie er sagt, mit der „Entdeckung“ (und dadurch Entschärfung) „schlichten Unsinns“ zu tun, infolgedessen sich der Verstand „Beulen" – „beim Anrennen an die Grenzen der Sprache" – geholt habe. Bis zu diesem Punkt sind sich die Interpreten einig, neigen dann aber dazu, die Schlussfolgerungen, die Wittgenstein zieht, unterschiedlich zu deuten. Seine „Philosophie“, sagt er, lasse „alles, wie es ist" – stelle „alles bloß hin“ und folgere nicht. „Da alles offen“ liege, sei folglich „nichts zu erklären.“ Darüber, wie dies Diktum zu verstehen sei, bilden die Interpreten zwei Schulen. Die eine betont, Wittgenstein liege keineswegs daran, uns bislang verborgene Zusammenhänge der Welt zu „erklären“; er wolle ausschließlich Übel oder Schwindel auslösende Fixierungen oder Paradoxa des Denkens lösen. Im Folgenden wird diese Lesart die "entzaubernde" oder "therapeutische" Auffassung genannt. Eine andere Schule findet dagegen, Wittgenstein habe zwar nichts Welterklärendes, aber durchaus Bestimmtes im Hinblick etwa auf die Grenzen von Sinn beobachtet. Entscheidend sei dazu seine neue Art der Aufklärung und Begründung: die „Grammatik“beschreibung. Wobei Wittgenstein unter „Grammatik“ etwas über Normen der Wortverwendung Hinausgehendes verstehe, das man mit „Gepflogenheiten“, „Lebensform“ (oder „Programm“) übersetzen könne. Er nenne es „Grammatik“, insofern es sich dabei um etwas Geregeltes, etwas Lernbares handle, auf das Anwender „abgerichtet“ werden könnten. Hinter diese Grammatik lasse sich nach Wittgenstein nicht zurückgehen; sie sei absolut. Diese Auffassung, die beim späten Wittgenstein hauptsächlich Grammatik-Beschreibungen (Sinneingrenzungen) interpretiert, heißt im Folgenden metaphysisch, da es ihr um die „letzten Dinge“ geht: das, was grundlos hinzunehmen ist. Laut dem lösungsorientiert-therapeutischen Zugang wird man Wittgensteins Spätwerk nicht gerecht, wenn man versucht, die unmittelbare Beschreibung von etwas Absolutem daraus abzulesen. Wittgenstein hat, so heißt es hier, dergleichen nirgends beschrieben, sondern – im Gegenteil – Verfahren entworfen (nie vorgeschrieben, immer nur vorgeschlagen) zur Lösung von geisteslähmenden Absolutheitsanmutungen, deren Wurzel er in der unhinterfragten Annahme bestimmter Bilder sah. Unter „Bild“ habe er die Verfestigung einer bestimmten Auffassung zu etwas Selbstverständlichem, Unhinterfragbarem, eben „Absolutem“ verstanden, Vorstellungen wie beispielsweise, Zahlen stünden für Gegenstände – oder man müsse die Zeit wie Raum vermessen können. Die Anwesenheit von Emphase oder Modaloperatoren zeige nach Wittgenstein immer auf ein Bild: etwas Verabsolutiertes. Wittgensteins Lösungsverfahren entwickelt nun zum Beispiel Vergleichsobjekte, um den Bann eines „Bildes“ zu brechen. Ein philosophisches Problem infolge eines solcherart den Verstand lähmenden Bildes sei etwa das Messen von Zeit. Das seiner Ansicht nach problematische Bild ist hier das des Meterstabes, der das, was er vermisst, bereits einnimmt: Raum. Wie ist es so aber möglich, Zeit zu messen? Mit welchem „Meterstab“, der Zeit – Vergangenheit wie Zukunft – bereits einnähme? Zeit lässt sich also nicht messen! Was ist dann aber eine Stunde? Wittgenstein löst das Gefühl der Unsicherheit, indem er ein anderes „Vergleichsobjekt“ vorstellt: man solle Zeitmessen mit Raummessen nicht durch Meterstab, sondern Abschreiten vergleichen. Wittgenstein sage nicht, betont das Lager der Anhänger der sogenannten therapeutischen Lesart, Zeitmessen sei ein Abschreiten von Raum; er stelle lediglich als Beispiel einen anderen Vergleichsgegenstand vor: man könne Zeitmessen auch analog zum Raummessen mittels Abschreiten – statt Meterstabverwendung – sehen. So löse sich der Krampf. „Die eigentliche Entdeckung ist die, die mich fähig macht, das Philosophieren abzubrechen, wann ich will … Es wird nun an Beispielen eine Methode gezeigt, und die Reihe dieser Beispiele kann man abbrechen. – Es werden Probleme gelöst (Schwierigkeiten beseitigt), nicht "ein" Problem“. Für die Anhänger der „metaphysischen“ Lesart ist dieser Zugang Wittgensteins eine Weiterung von Fähigkeiten, die erst einmal erworben sein wollen – vor allem die Methode der hinnehmenden Veranschaulichung von Sprachspielen, ihrer „Grammatik“ (z. B. die der „Meterstabverwendung“). Dafür habe Wittgenstein bevorzugt einerseits den Verwendungszusammenhang einiger Zentral-Begriffe dargestellt und so etwa die Bedeutung von „Bedeutung“ oder „Regel“ für seine Herangehensweise erhellt, während er andererseits z. B. mit „Sprachspiel“ oder „Familienähnlichkeit“ auch spezifische Begriffe seiner Methode unter Verwendung teilweise für deren Veranschaulichung erfundener Sprachspiele etabliert und hinreichend bestimmt. Das Wesen überhaupt aller Begriffe erkläre sich laut Wittgenstein durchgängig aus der Darstellung ihres Verwendungszusammenhangs oder Sprachspiels, wozu auch Betrachtungen nach der philologischen oder historisch-kritischen Methode gehörten, respektive Deutungen, Vergleiche von Entwicklungsstadien und Kritik. Die „Metaphysiker“ sind dementsprechend der Meinung, „Sprachspiel“ sei ein zentraler Begriff der Spätphilosophie Wittgensteins; Lebenswirklichkeit zerfalle nach Wittgenstein unhintergehbar in beschreibbare „Regelkreise“. In der Philosophie gehe es darum, deren „Grammatik" – paradigmatisch oder im Zusammenspiel heterogener Beispiele – darzustellen. Dies geschehe dann mit manchmal verblüffenden Ergebnissen. So ergäbe sich etwa aus dem verdeutlichten Verwendungszusammenhang von „Traum“, dass damit nichts Privates, sondern nur ein bestimmter zwischenmenschlicher Verlauf gemeint sein könne. Und es erweise sich, dass Äußerungen der ersten Person Singular keinen Wahrheitswert hätten. Den Metaphysikern geht es ferner um die Verdeutlichung des nach ihrem Wittgenstein-Verständnis begriffsschöpfenden Weltbilds einer jeden Lebensform. „Man könnte sich vorstellen“, zitieren sie Wittgensteins "Über Gewißheit", „dass gewisse Sätze von der Form der Erfahrungssätze erstarrt wären und als Leitung für die nicht erstarrten, flüssigen Erfahrungssätze funktionieren; und dass sich dies Verhältnis mit der Zeit änderte, in dem flüssige Sätze erstarren und feste flüssig werden.“ Die metaphysische Haltung blickt auf die gerade erstarrten Sätze, um anhand ihrer akuten Sinn von akutem Unsinn abzugrenzen: Offensichtliches festzustellen wie etwa, dass „Steine nicht denken können" – aber auch weniger Offensichtliches, etwa wieweit man sinnvoll von „künstlicher Intelligenz“ reden kann. Wittgensteins Spätwerk fasziniert und beschäftigt nicht nur Sprachphilosophen, sondern auch Psychiater und Psychologen. Die Ideen Wittgensteins fordern nach Ansicht mancher geradezu dazu auf, in psychotherapeutischen Verfahren angewendet zu werden. Aus streng „therapeutischer“ Sicht verkürzen die „Metaphysiker“ die Spätphilosophie Wittgensteins. So gesehen gehe es ihm nicht darum, Richtiges von Falschem, erlaubten von nicht-erlaubtem Sprachgebrauch, Sinn von Unsinn abzugrenzen, indem er nachweisend darstellte, was „richtig“, „erlaubt“ oder „sinnvoll“ ist. Wenn Wittgenstein über die Bedeutung von Wörtern spricht, hat dies gemäß der therapeutischen Auffassung nicht den Zweck, eine korrekte Bestimmung von Begriffen zu schaffen, sondern den, einen intellektuellen Krampf zu lösen, wie er in folgender Aussage zum Ausdruck kommt: „Was ist denn nun das Wesen von 'gut'? Es muss doch eine bestimmende Eigenschaft geben, sonst ist doch alles relativ!“ Die Diskussion des Begriffes „Sprachspiel“ steht in engem Zusammenhang mit der des Begriffs „Bedeutung“: In den "Philosophischen Untersuchungen" heißt es in § 43: „Die Bedeutung eines Wortes ist sein Gebrauch in der Sprache.“ Im vorhergehenden Satz bemerkt Wittgenstein jedoch einschränkend: „Man kann für eine große Klasse von Fällen der Benützung des Wortes Bedeutung – wenn auch nicht für alle Fälle seiner Benützung – dieses Wort so erklären: Die Bedeutung eines Wortes ist sein Gebrauch in der Sprache“. Die unterschiedliche Lesart der oben genannten Textpassage zeigt die unterschiedlichen Zugänge von „Therapeuten“ und „Metaphysikern“. Die „metaphysische“ Sicht: Wittgenstein nimmt eine Bestimmung von „Bedeutung“ (des Wesens des mit dieser Buchstabenkette gekennzeichneten Begriffes) vor. Dementsprechend ist die Aufgabe nun, eine konsistente Position aus Wittgensteins Werken zu extrahieren. Auch wenn Definitionen bei Wittgenstein fast nie „klassisch“ durch die Angabe bestimmender Merkmale erfolgen, sondern von ihm – oft reihenweise – Veranschaulichendes dargestellt wird, in dessen Ähnlichkeit oder Zusammenklang der bestimmte Begriff dann „erscheint“ (Familienähnlichkeit, ein letztlich offenes Verfahren, das keine scharfen Grenzen vorsieht), wird letztlich auch damit immer etwas – und, das sei sogar Wittgensteins Pointe: auch immer hinreichend – bestimmt. § 43 der "Philosophischen Untersuchungen" wäre also durchaus als Definition aufzufassen; das einschränkende „nicht für alle Fälle“ sei eher als Index auf weitere Bestimmungen von „Bedeutung“ durch den Autor zu lesen, etwa in Teil II der "Philosophischen Untersuchungen", wo Wittgenstein in den Ansätzen einer Philosophie der Psychologie die „sekundäre Bedeutung“ beschreibt als eine haltungsbestimmte Form des Erlebens der primären, welche schlicht im Gebrauch des Wortes besteht. Da es keine über „primäre“ und „sekundäre“ hinausgehende Verwendung des Begriffs „Bedeutung“ im Spätwerke Wittgensteins gibt, neigen die Anhänger der metaphysischen Interpretation zur Auffassung, dass Wittgenstein keine weitere Interpretation vorsieht und „Bedeutung“ insofern erschöpfend bestimmt wurde. Im Gegensatz dazu vertreten Anhänger des „therapeutischen“ Ansatzes die Meinung, Wittgenstein sei es in § 43 nicht darum gegangen, Kern und Wesen von „Bedeutung“ zu bestimmen. Die Einschränkung „nicht für alle Fälle“ sei kein Verweis auf andere Textstellen im Spätwerk des Autors, sondern hebe vielmehr hervor, dass die folgende Bestimmung nichts Immerwährendes skizziere - sondern vielmehr einen möglichen Gegenstand, welcher das Potenzial besitze, ein Denkkrämpfe verursachendes Bild hervorzurufen, indem es mit ihm verglichen werde, Lösungsaspekte aufzuzeigen. So könnte es z. B. befreiend wirken, die Bedeutung von „Vorstellung“ oder „Zahnschmerzen“ nicht wie die von „Stuhl“ oder „Auto“ in etwas Raumeinnehmendem zu sehen, sondern stattdessen zu versuchen, Parallelen zwischen dem mit „Vorstellung“ oder „Zahnschmerzen“ Gemeinten und geregelten Verlaufsformen („Spielen“: deren Zügen …) zu sehen. Gemäß der lösungsorientiert-therapeutischen Haltung lautet die entscheidende Frage nicht, wie sich verschiedene Bestimmungen des Bedeutungsbegriffs ergänzen oder addieren, sondern ob die von „Therapeuten“ entworfenen Gegenstände – indem man das, was einen verwirrt, mit ihnen vergleicht – in der Lage sind, Lösungen aufzuzeigen. Verhältnis von Früh- zu Spätwerk. Der Widerstreit der Spätphilosophie-Deutungen überträgt sich auch auf die Einschätzung der Kontinuität in Wittgensteins Denken überhaupt. Die „Therapeuten“ neigen zur Annahme der Kontinuität zwischen der unbedingten Position der "Logisch-philosophischen Abhandlung (Tractatus, TLP)" und den Entkrampfungsverfahren der "Philosophischen Untersuchungen (PU)". Für die „Metaphysiker“ herrscht zwischen Früh- und Spätphilosophie ein Bruch. In Wittgensteins Spätwerk zerfallen die Welt und sie abbildende Sprache nicht mehr in unauflösbare Dinge und deren logisch mögliche Verknüpfung in Sachverhalte oder Sätze. Nicht mehr die zeitlosen Kombinationsvorgaben der Logik bestimmen den Sprachbau. Vielmehr vergleicht Wittgenstein die Sprache nun mit einer „alten Stadt“: „Ein Gewinkel von Gässchen und Plätzen, alten und neuen Häusern mit Zubauten aus verschiedenen Zeiten: und dies umgeben von einer Menge Vororte mit geraden und regelmäßigen Straßen und mit einförmigen Häusern.“ Dennoch blieb für ihn die Sprache, ihre „Grammatik“, der Raum des Denkens und der Wirklichkeit. „Die Bedeutung eines Wortes ist sein Gebrauch in der Sprache.“ Gebrauch aber ist die Funktion eines Ensembles von Gepflogenheiten oder einer „Lebensform“, die in „Sprachspiele“ zerfällt. „Das Wort ‚Sprachspiel‘ soll hier hervorheben, dass das Sprechen der Sprache ein Teil ist einer Tätigkeit, oder einer Lebensform.“ Mediziner haben andere Sprachspiele als Handwerker oder Kaufleute, Agnostiker andere als Gläubige. Aufgabe der Philosophie bleibt demnach die Auseinandersetzung dieses oder jenes Sprachgebrauchs. Gegenstand der Philosophie ist die Alltagssprache. Der Zweck der Philosophie ist eine Therapie. Der in einer Sprachverwirrung gefangene Mensch soll wieder befreit werden. Die späte Philosophie Wittgensteins ersetzt den Begriff „Logik“ durch „Grammatik“. Der Unterschied besteht darin, dass im Gegensatz zur Logik die „Grammatik“ als Ensemble von Gepflogenheiten einer Lebensform „Veränderungen unterworfen ist“. Die Gemeinsamkeit besteht darin, dass weder Logik noch „Grammatik“ erklärbar sind, sondern beide sich in dem, was sie ausmachen, lediglich "zeigen". Schließlich identifizieren die „Metaphysiker“ in Wittgensteins Früh- wie Spätwerk eine anti-cartesianische Ablehnung des Dualismus von privater „Innenwelt“ und öffentlicher „Außenwelt“ sowie des subjektzentrierten Denkens überhaupt, nicht zuletzt durch das Auslassen jeglicher Erkenntnistheorie oder Transzendentalphilosophie. Literarische Rezeption. Thomas Bernhard greift in seinem nach den beiden Schauspielerinnen und ihrem Kollegen der Uraufführung benannten Theaterstück "Ritter, Dene, Voss" (Uraufführung: 18. August 1986 in Salzburg) die Familiensituation Ludwig Wittgensteins auf und verbindet sie mit dessen Neffen Paul, der mehrmals in der psychiatrischen Klinik "Am Steinhof" bei Wien behandelt wurde und dem er seine Erinnerungen "Wittgensteins Neffe" (1982) widmete. Auch seine eigene Kritik an der österreichischen Gesellschaft des 20. Jahrhunderts legt der Autor dem Protagonisten in den Mund. Das Drama spielt im Speisezimmer der herrschaftlichen Villa der Großindustriellenfamilie Worringer. Ludwig, der nach einem Aufenthalt in Skandinavien und nach philosophischen Studien an einer englischen Universität wegen seiner psychischen Labilität im Krankenhaus „Steinhof“ lebte, kehrt für kurze Zeit ins von seinen beiden Schwestern bewohnte Haus zurück. Unterbrochen von grotesken Wutausbrüchen rechnet er, im Bernhardschen Stil, mit seinen Eltern, dem Großbürgertum und, in einem Rundumschlag, mit dem Medizin-, Kunst- und Wissenschaftsbetrieb ab. In Libuše Monikovás autobiografisch unterlegtem Roman "Treibeis" ist Wittgensteins Tätigkeit als Volksschullehrer (1920–1926) rezipiert. Jan Prantl, einer der beiden Protagonisten (Prantl und Karla, beide tschechische Exilanten), nimmt in der zweiten Station der Handlung an einem internationalen pädagogischen Kongress am Semmering teil. Zwei Wissenschaftler aus Cambridge nutzen den Aufenthalt, um Wittgenstein-Souvenirs wie Zeugnisse, Schreibhefte und Bücher seiner ehemaligen Schüler in Trattenbach und anderen Dörfern (Puchberg) aufzukaufen (Kp. 3) und dem Seminar ihre Augenzeugenbefragungen über die Lehrertätigkeit des Philosophen vorzutragen (z. B. Affekthandlungen wie Züchtigungen, andererseits Idealismus: finanzielle Unterstützung und Förderung mathematisch begabter Schüler, Erarbeitung einer Grundwortschatzsammlung für die Rechtschreibung), die, parodistisch erzählt, von den Teilnehmern unter unterschiedlichen Aspekten diskutiert werden (Kp. 5): biografisch (Familie, Autismus, Ausgrenzung und Verspottung durch Mitschüler in Linz, Kriegsverletzung), historisch-soziologisch (armselige Gebirgsdörfer Niederösterreichs: Trattenbach, Puchberg und Otterthal), reformpädagogisch (zwar Mitwirkung der Schüler bei Herstellung der Wörterbücher, aber keine inhaltliche Beteiligung, einerseits lebensfremde mathematische Textaufgaben, andererseits sorgfältig vorbereitete Ausflüge). Der Kongressleiter fasst als Ergebnis zusammen: „Er mag ein engagierter, vielleicht sogar guter Lehrer gewesen sein. Ein Pädagoge war er nicht!“ Werke. Die ersten beiden Ebenen des Werkes "Tractatus Logico-Philosophicus" Lanthan. Lanthan ist ein chemisches Element mit dem Elementsymbol La und der Ordnungszahl 57. Es zählt zu den Übergangsmetallen sowie den Metallen der seltenen Erden, im Periodensystem steht es in der 6. Periode und der 3. Nebengruppe, bzw. der 3. IUPAC-Gruppe oder Scandiumgruppe. Meist wird es auch zu den Lanthanoiden gezählt, auch wenn die f-Schale des Elementes unbesetzt ist. Geschichte. Lanthan (griech. λανθάνειν, "lanthanein", „verborgen sein“) wurde 1839 vom schwedischen Chemiker und Chirurg Carl Gustav Mosander entdeckt. Aus einem vermeintlich reinen Cernitrat gewann er durch fraktionierte Kristallisation Lanthansulfat. Gewinnung und Darstellung. Nach einer aufwendigen Abtrennung der anderen Lanthanbegleiter wird das Oxid mit Fluorwasserstoff zum Lanthanfluorid umgesetzt. Anschließend wird dieses mit Calcium unter Bildung von Calciumfluorid zum Lanthan reduziert. Die Abtrennung verbleibender Calciumreste und Verunreinigungen erfolgt in einer zusätzlichen Umschmelzung im Vakuum. Physikalische Eigenschaften. Das silberweiß glänzende Metall ist hämmerbar und plastisch verformbar (duktil). Es existieren drei metallische Modifikationen. Chemische Eigenschaften. Lanthan ist unedel. Es überzieht sich an der Luft rasch mit einer weißen Oxidschicht, die in feuchter Luft zum Hydroxid weiterreagiert. Bei Temperaturen oberhalb von 440 °C verbrennt Lanthan zu Lanthanoxid (La2O3). Unter Bildung von Wasserstoff erfolgt in kaltem Wasser eine langsame, in warmen Wasser eine rasche Reaktion zum Hydroxid. In verdünnten Säuren löst sich Lanthan unter Wasserstoffentwicklung auf. Mit vielen Elementen reagiert es in der Wärme direkt, mit Halogenen schon bei Raumtemperatur. Lanthan und Wasserstoff bilden ein schwarzes, wasserempfindliches unstöchiometrisches Hydrid. Verwendung. Lanthan ist Bestandteil im Mischmetall. Pyrophore Werkstoffe für Zündsteine enthalten 25 bis 45 Gewichtsprozent Lanthan. Darüber hinaus findet es Verwendung als Reduktionsmittel in der Metallurgie. Als Gusseisenzusatz unterstützt es die Bildung von Kugelgraphit, als Legierungszusatz bewirkt es eine Verbesserung der Oxidationsbeständigkeit. Lanthanbeimengungen reduzieren die Härte und Temperaturempfindlichkeit von Molybdän. Hochwertige Kathoden zur Erzeugung von freien Elektronen bestehen aus Lanthanhexaborid als Ersatz für Wolframdraht. Hochreines Lanthanoxid wird in der Glasindustrie zur Herstellung hochwertiger Gläser mit hohem Brechungsindex für die Optik z. B. für Kameralinsen benutzt. Als Legierung. Die Cobalt-Lanthan-Legierung LaCo5 wird als Magnetwerkstoff, lanthandotiertes Bariumtitanat zur Herstellung von Kaltleitern (temperaturabhängige Widerstände) verwendet. In Verbindung mit Cobalt, Eisen, Mangan, Strontium u. a. dient es als Kathode für Hochtemperatur-Brennstoffzellen (SOFC). „Verunreinigtes“ Lanthan-Nickel (LaNi5) findet als Wasserstoffspeicher in Nickel-Metallhydrid-Akkumulatoren Verwendung. Als Zusatz kommt es in Kohlelichtbogenlampen zur Studiobeleuchtung und in Filmvorführanlagen (historische Anwendung?) vor. Einem Legierungsmetall mit Materialzusammensetzungen aus Lanthan und Titan wird die Wirkung zugeschrieben, dass bei spanbildender Verarbeitung die Spanlänge reduziert wird. Dadurch soll die Bearbeitung des Metalls erleichtert werden. Im Bereich der Medizin werden aus dem Legierungsmetall korrosionsbeständige und gut sterilisierbare Instrumente hergestellt. Diese Metalllegierung mit Titan soll für Werkzeuge und Apparate für chirurgische Eingriffe besonders gut geeignet sein, da die Allergie-Neigung bei Verwendung derartiger Metalllegierung mit Titan im Verhältnis zu anderen Legierungen gering sein soll. Sicherheitshinweise. Lanthan wird als wenig toxisch eingestuft. Eine toxische Dosis ist bisher unbekannt. Jedoch gilt Lanthan-Pulver als stark ätzend, weil es sehr leicht durch z.B. Hautfeuchtigkeit zu basischem Lanthanhydroxid reagiert (ähnlich den Elementen Calcium und Strontium). Die letale Dosis beträgt bei Ratten 720 mg. Verbindungen. In Verbindungen liegt Lanthan als farbloses La3+ vor. Lithium. Lithium (abgeleitet von ' ‚Stein‘; Aussprache oder auch) ist ein chemisches Element mit dem Symbol Li und der Ordnungszahl 3. Es ist ein Element der 1. IUPAC-Gruppe, der Gruppe der Alkalimetalle, und gehört zur zweiten Periode des Periodensystems der Elemente. Lithium ist ein Leichtmetall und besitzt die kleinste Dichte der unter Standardbedingungen festen Elemente. Lithium kommt in der Natur aufgrund seiner hohen Reaktivität nicht elementar vor. Bei Raumtemperatur ist es nur in völlig trockener Luft über längere Zeit stabil, reagiert aber langsam zu Lithiumnitrid. In feuchter Luft bildet sich an der Oberfläche schnell eine mattgraue Lithiumhydroxid-Schicht aus. Wie alle Alkalimetalle reagiert elementares Lithium schon in Berührung mit der Hautfeuchtigkeit und führt so zu schweren Verätzungen und Verbrennungen. Viele Lithiumverbindungen, die in wässriger Lösung Lithiumionen bilden, sind im Gegensatz zu den entsprechenden Natrium- und Kaliumverbindungen als gesundheitsschädlich gekennzeichnet. Als Spurenelement ist Lithium in Form seiner Salze ein häufiger Bestandteil von Mineralwasser. Im menschlichen Organismus sind geringe Mengen Lithium vorhanden; das Element ist jedoch nicht essenziell und hat keine bekannte biologische Funktion. Jedoch haben einige Lithiumsalze eine medizinische Wirkung und werden in der Lithiumtherapie bei bipolaren Affektstörungen, Manie, Depressionen und Cluster-Kopfschmerzen eingesetzt (siehe Medizin). Geschichte. Lithium-Stücke, zum Schutz vor Oxidation in Paraffinöl Als Entdecker des Lithiums gilt der Schwede Johan August Arfwedson, der im Jahr 1817 die Anwesenheit eines fremden Elements in Petalit (Li[4]Al[4][Si4O10]) und bald darauf auch in Spodumen (LiAl[Si2O6]) und Lepidolith (K(Li,Al)3[(Al,Si)4O10](F,OH)2) feststellte, als er Mineralienfunde von der Insel Utö in Schweden analysierte. Sein akademischer Lehrer Jöns Jakob Berzelius schlug "Lithion", eine Ableitung zu griech. λίθος "líthos" ‚Stein‘, als Namen vor, der entsprechend den Bezeichnungen der andern beiden damals bekannten Alkalimetallen Natrium und Kalium auf das Material hinweist, aus dem es gewonnen wurde, und der sich schließlich in seiner latinisierten Form "Lithium" durchgesetzt hat. 1818 war es der deutsche Chemiker Christian Gottlob Gmelin, der bemerkte, dass Lithiumsalze eine rote Flammenfärbung ergeben. Beide Wissenschaftler scheiterten in den folgenden Jahren mit Versuchen, dieses Element zu isolieren. Dies gelang erstmals William Thomas Brande und Sir Humphry Davy im Jahr 1818 mittels eines elektrolytischen Verfahrens aus Lithiumoxid (Li2O). Robert Bunsen und Augustus Matthiessen stellten 1855 durch Elektrolyse von Lithiumchlorid (LiCl) größere Mengen reinen Lithiums her. Mit der ersten kommerziellen Produktion begann 1923 die deutsche Metallgesellschaft (heute: Chemetall GmbH), indem eine Schmelze aus Lithium- und Kaliumchlorid (KCl) elektrolysiert wurde. Im Jahr 1917 synthetisierte Wilhelm Schlenk aus organischen Quecksilberverbindungen die ersten lithiumorganischen Verbindungen. Bis kurz nach dem Zweiten Weltkrieg gab es bis auf die Anwendung als Schmiermittel (Mineralöl, angedickt mit Lithiumstearat) und in der Glasindustrie (Lithiumcarbonat oder Lithiumoxid) kaum Anwendungen für Lithium. Dies änderte sich, als in den Vereinigten Staaten Tritium, das sich aus Lithium gewinnen lässt, für den Bau von Wasserstoffbomben benötigt wurde. Man begann mit einer breit angelegten Förderung, vor allem in Kings Mountain (North Carolina). Durch die auf Grund der kurzen Tritium-Halbwertszeit benötigten großen Lithium-Mengen wurde zwischen 1953 und 1963 ein großer Vorrat von Lithium angehäuft, das erst nach dem Ende des kalten Krieges ab 1993 auf den Markt gebracht wurde. Neben dem Bergbau wurde nun auch die billigere Gewinnung aus Salzlaugen wichtig. Größere Mengen Lithium werden mittlerweile für Batterien, für die Polymerisation von Elastomeren, in der Bauindustrie und für die organische Synthese von Pharmazeutika und Agrochemikalien eingesetzt. Seit 2007 sind Primärbatterien und Akkumulatoren ("Sekundärbatterien") das wichtigste Segment. Vorkommen auf der Erde. Lithium hat an der Erdkruste einen Anteil von etwa 0,006 %. Es kommt damit etwas seltener als Zink, Kupfer und Wolfram sowie etwas häufiger als Kobalt, Zinn und Blei in der Erdkruste vor. Obwohl Lithium häufiger als beispielsweise Blei ist, ist seine Gewinnung durch die stärkere Verteilung schwierig. Das identifizierte Lithiumvorkommen der Erde wird auf mehr als 29 Millionen Tonnen, die Vorratsbasis auf 13 Millionen Tonnen (Stand: 2011), die Reserven werden auf 4,1 Millionen Tonnen geschätzt (Stand: 2009). Im Trinkwasser und einigen Nahrungsmitteln wie Fleisch, Fisch, Eiern und Milchprodukten ist Lithium enthalten. So enthalten 100 g Fleisch etwa 100 μg Lithium. Primäre Lagerstätten. Lithium kommt in einigen Mineralien in Lithium-Pegmatiten vor. Die wichtigsten Minerale sind dabei Amblygonit (LiAl[PO4]F), Lepidolith (K(Li,Al)3[(Al,Si)4O10](F,OH)2), Petalit (Kastor; LiAl[Si4O10]) und Spodumen (Triphan; LiAl[Si2O6]). Diese Minerale haben einen Lithiumgehalt von bis zu 9 % (bei Amblygonit). Andere, seltenere Lithiumerze sind Kryolithionit (Li3Na3[AlF6]2), das den größten Lithiumgehalt aller Mineralien aufweist, Triphylin (Li(FeII,MnII)[PO4]) und Zinnwaldit (K(Li,Fe,Al)3[(Al,Si)4O10](F,OH)2). Lithiummineralien kommen in vielen Silikat-Gesteinen vor, aber meist nur in geringen Konzentrationen. Es gibt keine großen Lagerstätten. Da die Gewinnung von Lithium aus diesen Mineralien mit großem Aufwand verbunden ist, spielen sie heutzutage bei der Gewinnung von Lithium oder Lithiumverbindungen eine untergeordnete Rolle, dies könnte sich jedoch aufgrund der erwartet hohen Nachfrage ändern. Abbauorte sind vor allem die Greenbushes- und Mt.-Cattlin-Minen in Western Australia, in deren Pegmatit-Gesteinen eine hohe Lithiumkonzentration vorliegt und in denen Lithium als Nebenprodukt der Tantalgewinnung anfällt. Auch in einigen anderen Ländern wie Kanada und Russland, bis 1998 auch in Bassemer City, North Carolina, wird Spodumen zur Lithiumgewinnung abgebaut. Europa besitzt Li-reiche Pegmatitfelder auf der Kärntner Weinebene im Bezirk Wolfsberg, in der finnischen Region Österbotten, im Erzgebirge sowie zwischen Spanien (Almendra) und Portugal (Guarda). Die Lagerstätten in Österreich und Finnland werden durch Global Strategic Metals bzw. Keliber entwickelt und könnten ab 2016 den Betrieb aufnehmen. Das Vorkommen bei Zinnwald im Erzgebirge wird durch die SolarWorld exploriert. Sekundäre Lagerstätten. Lithiumsalze, insbesondere Lithiumchlorid, kommen verbreitet auch in Salzlaugen, meist Salzseen, vor. Die Konzentration kann bis zu einem Prozent betragen. Neben der Konzentration des Lithiums ist für die Qualität der Salzlauge das Mengenverhältnis von Magnesium zu Lithium wichtig. Derzeit wird Lithium vor allem in Chile (Salar de Atacama, die mit 0,16 % den höchsten bekannten Lithiumgehalt aufweist), Argentinien (Salar de Hombre Muerto), den Vereinigten Staaten von Amerika (Silver Peak, Nevada) und der Volksrepublik China (Chabyêr Caka, Tibet; Taijinaier-See, Qinghai) gewonnen. Es gibt weitere lithiumhaltige Salzseen, die derzeit noch nicht zum Abbau genutzt werden, beispielsweise in China, Argentinien, Afghanistan und vor allem in Bolivien, wo in dem Salzsee Salar de Uyuni mit geschätzt 5,4 Millionen Tonnen Lithium die möglicherweise größten Ressourcen lagern. Als Kuppelprodukte bei der Lithiumgewinnung werden häufig Kaliumcarbonat (Pottasche), Borax, Cäsium und Rubidium gewonnen. Verschiedene Pflanzen wie beispielsweise Tabak oder Hahnenfuß nehmen Lithiumverbindungen aus dem Boden auf und reichern sie an. Der durchschnittliche Anteil an der Trockenmasse von Pflanzen liegt zwischen 0,5 ppm und 3 ppm. Im Wasser der Weltmeere liegt die mittlere Konzentration bei 180 ppb und im Flusswasser nur bei etwa 3 ppb. Aufgrund der erwarteten starken Nachfrage nach Lithium für Batterien von Elektrofahrzeugen prüfen derzeit einige Unternehmen den Abbau von lithiumhaltigen Mineralien und Salzlaugen in verschiedenen Regionen der Welt inklusive Europa. Vorkommen außerhalb der Erde. Nach dem Urknall ist neben Wasserstoff- und Heliumisotopen auch eine nennenswerte Menge des Isotops 7Li entstanden. Dieses ist aber zum größten Teil heute nicht mehr vorhanden, da in Sternen Lithium mit Wasserstoff im Prozess der Proton-Proton-Reaktion II fusioniert und so verbraucht wurde. In Braunen Zwergen sind Masse und Temperatur jedoch nicht hoch genug für eine Wasserstofffusion; ihre Masse erreicht nicht die dazu notwendige Größe von etwa 75 Jupitermassen. Das beim Urknall entstandene Lithium blieb somit in größeren Mengen nur in Braunen Zwergen erhalten. Lithium ist aus diesem Grund auch extraterrestrisch ein verhältnismäßig seltenes Element, kann aber zum Nachweis Brauner Zwerge dienen. Die Verteilung von Lithium in verschiedenen Sternen ist stark unterschiedlich, auch wenn das Alter, die Masse und die Metallizität ähnlich sind. Es wird angenommen, dass Planeten einen Einfluss auf den Lithiumgehalt eines Sterns besitzen. Besitzt ein Stern keine Planeten, so ist der Lithiumgehalt hoch, während Sterne wie die Sonne, die von Planeten umgeben sind, einen nur geringen Lithiumgehalt aufweisen. Als Ursache wird vermutet, dass die Gezeitenkräfte von Planeten zu einer stärkeren Durchmischung von äußeren und inneren Schichten in Sternen beitragen, so dass mehr Lithium in einen Bereich gelangt, der heiß genug ist, um dieses zu fusionieren. Gewinnung und Darstellung. Mengenmäßig wurden 2008 außerhalb der USA 27.400 t Lithium gewonnen und überwiegend als Lithiumcarbonat (Li2CO3) gehandelt. Von diesen entfallen 12.000 t auf den chilenischen Salar de Atacama und knapp 7000 t auf die australische Greenbushes-Mine. Das Kalium wird bei der Elektrolyse nicht abgeschieden, weil es in der Chlorid-Schmelze ein niedrigeres Elektrodenpotential hat. Spuren von Natrium werden jedoch mit abgeschieden und machen das Lithium besonders reaktiv (vorteilhaft in der organischen Chemie, schlecht für Li-Batterien). Das flüssige Lithium sammelt sich an der Elektrolytoberfläche und kann so relativ einfach aus der Elektrolysezelle ausgeschleust werden. Es ist ebenfalls möglich, Lithium per Elektrolyse von Lithiumchlorid in Pyridin zu gewinnen. Diese Methode eignet sich besonders gut im Labormaßstab. Physikalische Eigenschaften. Kristallstruktur von Lithium, a = 351 pm Lithium ist ein silberweißes, weiches Leichtmetall. Es ist bei Raumtemperatur das leichteste aller festen Elemente (Dichte 0,534 g/cm3). Nur fester Wasserstoff bei −260 °C ist mit einer Dichte von 0,0763 g/cm3 noch leichter. Lithium kristallisiert – wie die anderen Alkalimetalle – in einer kubisch-raumzentrierten Kugelpackung in der mit dem Gitterparameter a = 351 pm und zwei Formeleinheiten pro Elementarzelle. Bei tiefen Temperaturen von 78 K ändert sich die Kristallstruktur durch Spontanumwandlung in eine hexagonale Struktur des Magnesium-Typs mit den Gitterparametern a = 311 pm und c = 509 pm oder nach Verformung in eine kubische Struktur des Kupfer-Typs (kubisch flächenzentriert) mit dem Gitterparameter a = 438 pm um. Die genauen Ursachen, welche Struktur gebildet wird, sind unbekannt. Lithium hat unter den Alkalimetallen den höchsten Schmelz- und Siedepunkt sowie die größte spezifische Wärmekapazität. Lithium besitzt zwar die größte Härte aller Alkalimetalle, lässt sich bei einer Mohs-Härte von 0,6 dennoch mit dem Messer schneiden. Als typisches Metall ist es ein guter Strom- (Leitfähigkeit: etwa 18 % von Kupfer) und Wärmeleiter. Lithium weist weitgehende Ähnlichkeit zu Magnesium auf, was sich auch in der Tatsache des Auftretens von heterotypen Mischkristallen aus Lithium und Magnesium, der sogenannten Isodimorphie zeigt. Obwohl Magnesium in der hexagonal dichtesten, Lithium dagegen in der kubisch raumzentrierten Kugelpackung kristallisiert, sind beide Metalle weitgehend "heterotyp" mischbar. Dies erfolgt aber nur in einem beschränkten Konzentrationsbereich, wobei die im Überschuss vorhandene Komponente der anderen ihr Kristallgitter „aufzwingt“. Das Lithium-Ion weist mit −520 kJ/mol die höchste Hydratationsenthalpie aller Alkalimetallionen auf. Dadurch ist es in Wasser vollständig hydratisiert und zieht die Wassermoleküle stark an. Das Lithiumion bildet zwei Hydrathüllen, eine innere mit vier Wassermolekülen, die sehr stark über ihre Sauerstoffatome an das Lithiumion gebunden sind, und eine äußere Hülle, in der über Wasserstoffbrücken weitere Wassermoleküle mit dem Li[H2O]4+-Ion verbunden sind. Dadurch ist der Ionenradius des hydratisierten Ions sehr groß, sogar größer als diejenigen der schweren Alkalimetalle Rubidium und Caesium, die in wässriger Lösung keine derart stark gebundenen Hydrathüllen aufweisen. Als Gas kommt Lithium nicht nur in einzelnen Atomen, sondern auch molekular als Dilithium Li2 vor. Das einbindige Lithium erreicht dadurch ein volles s-Atomorbital und somit eine energetisch günstige Situation. Dilithium hat eine Bindungslänge von 267,3 pm und eine Bindungsenergie von 101 kJ/mol. Im gasförmigen Zustand liegt etwa 1 % (nach Masse) des Lithiums als Dilithium vor. Chemische Eigenschaften. An der Luft infolge Nitridbildung angelaufenes Lithiummetall Dies wird durch die hohe Ladungsdichte des Li+-Ions und damit durch eine hohe Gitterenergie des Lithiumnitrids ermöglicht. Lithium hat mit −3,04 V das niedrigste Normalpotential im Periodensystem und ist somit das unedelste aller Elemente. Wie alle Alkalimetalle wird Lithium unter Petroleum oder Paraffinöl aufbewahrt, da es sonst mit dem in der Luft enthaltenen Sauerstoff und Stickstoff reagiert. Da die Ionenradien von Li+- und Mg2+-Ionen vergleichbar groß sind, gibt es auch Ähnlichkeiten in den Eigenschaften von Lithium beziehungsweise Lithiumverbindungen und Magnesium oder Magnesiumverbindungen. Diese Ähnlichkeit in den Eigenschaften zweier Elemente aus benachbarten Gruppen des Periodensystems ist als Schrägbeziehung im Periodensystem bekannt. So bildet Lithium, im Gegensatz zu Natrium, viele metallorganische Verbindungen (Organolithium-Verbindungen), wie Butyllithium oder Methyllithium. Die gleiche Beziehung besteht auch zwischen Beryllium und Aluminium sowie Bor und Silicium. Isotope. Reaktionen der Lithium- und Wasserstoffisotope in der Castle-Bravo Bombe. Geplante (expected) und tatsächliche (got) Reaktion von 7Li In der Natur kommen die beiden stabilen Isotope 6Li (7,6 %) und 7Li (92,4 %) vor. Daneben sind instabile Isotope, beginnend bei 4Li über 8Li bis 12Li, bekannt, die nur künstlich herstellbar sind. Ihre Halbwertszeiten liegen alle im Millisekundenbereich. 6Li spielt eine wichtige Rolle in der Technologie der Kernfusion. Es dient sowohl im Kernfusionsreaktor als auch in der Wasserstoffbombe als Ausgangsmaterial für die Erzeugung von Tritium, das für die energieliefernde Fusion mit Deuterium benötigt wird. Tritium entsteht im Blanket des Fusionsreaktors oder in der Wasserstoffbombe neben Helium durch Beschuss von 6Li mit Neutronen, die bei der Fusion anfallen, nach der Kernreaktion ist weniger geeignet "(siehe Blanket)". Aus diesem Grund wird das Isotop 6Li bei der Lithiumgewinnung abgetrennt. Die Trennung kann beispielsweise über einen Isotopenaustausch von Lithiumamalgam und einer gelösten Lithiumverbindung (wie Lithiumchlorid in Ethanol) erfolgen. Dabei werden Ausbeuten von etwa 50 % erreicht. Ist in einer Dreistufenbombe neben 6Li auch 7Li vorhanden (wie es beispielsweise bei Castle Bravo der Fall war), reagiert dieses mit einigen der bei der Fusion erzeugten schnellen Neutronen. Dadurch entstehen wieder Neutronen, außerdem Helium und zusätzliches Tritium. Dies führt, obwohl die 7Li-Neutron-Reaktion zunächst Energie verbraucht, im Endergebnis zu erhöhter Energiefreisetzung durch zusätzliche Fusionen und mehr Kernspaltungen im Bombenmantel aus Uran. Die Sprengkraft ist deshalb höher, als wenn nur der 6Li-Anteil der Isotopenmischung in der Bombe umgewandelt worden wäre. Da vor dem Castle-Bravo-Test angenommen wurde, das 7Li würde "nicht" mit den Neutronen reagieren, war die Bombe etwa 2,5-mal so stark wie erwartet. Das Lithiumisotop 7Li entsteht in geringen Mengen in Kernkraftwerken durch eine Kernreaktion des (als Neutronenabsorber verwendeten) Borisotops 10B mit Neutronen. Die Isotope 6Li, 7Li werden beide in Experimenten mit kalten Quantengasen verwendet. So wurde das erste Bose-Einstein-Kondensat mit dem (Boson) Isotop 7Li erzeugt. 6Li dagegen ist ein Fermion, und im Jahr 2003 ist es gelungen, Moleküle dieses Isotops in ein Suprafluid zu verwandeln. Verwendung. Verwendung von Lithium, Nachfrage 2011 Der größte Teil der produzierten Lithiumsalze wird nicht zum Metall reduziert, sondern entweder direkt als Lithiumcarbonat, Lithiumhydroxid, Lithiumchlorid, Lithiumbromid eingesetzt oder zu anderen Verbindungen umgesetzt. Das Metall wird in einigen Anwendungen (siehe Diagramm rechts) benötigt. Die wichtigsten Verwendungszwecke von Lithiumverbindungen findet man im Abschnitt „Verbindungen“. Metall. Ein Teil des produzierten Lithiummetalls wird für die Gewinnung von Lithiumverbindungen verwendet, die nicht direkt aus Lithiumcarbonat hergestellt werden können. Dies sind in erster Linie organische Lithiumverbindungen wie Butyllithium, Lithium-Wasserstoff-Verbindungen wie Lithiumhydrid (LiH) oder Lithiumaluminiumhydrid sowie Lithiumamid. Lithium wird wegen seiner Fähigkeit, direkt mit Stickstoff zu reagieren, zu dessen Entfernung aus Gasen verwendet. Metallisches Lithium ist ein sehr starkes Reduktionsmittel; es reduziert viele Stoffe, die mit anderen Reduktionsmitteln nicht reagieren. Es wird bei der partiellen Hydrierung von Aromaten (Birch-Reduktion) eingesetzt. In der Metallurgie wird es zur Entschwefelung, Desoxidation und Entkohlung von Metallschmelzen eingesetzt. Da Lithium ein sehr niedriges Normalpotential besitzt, kann es in Batterien als Anode verwendet werden. Diese Lithium-Batterien haben eine hohe Energiedichte und können eine besonders hohe Spannung erzeugen. Nicht zu verwechseln sind die nicht wiederaufladbaren Lithium-Batterien mit den wiederaufladbaren Lithium-Ionen-Akkus, bei denen Lithiummetalloxide wie Lithiumcobaltoxid als Kathode und Graphit oder andere Lithiumionen einlagernde Verbindungen als Anode geschaltet sind. Kernfusion. Das für den Betrieb von Kernfusionsreaktoren nötige Tritium soll im Blanket des Reaktors aus Lithium-6 erbrütet werden. Legierungsbestandteil. Lithium wird mit einigen Metallen legiert, um deren Eigenschaften zu verbessern. Oft reichen dafür schon geringe Mengen Lithium aus. Lithium verbessert als Beimischung bei vielen Stoffen die Zugfestigkeit, Härte und Elastizität. Ein Beispiel für eine Lithiumlegierung ist Bahnmetall, eine Bleilegierung mit circa 0,04 % Lithium, die als Lagermaterial in Eisenbahnen verwendet wird. Auch bei Magnesium- und Aluminiumlegierungen werden die mechanischen Eigenschaften durch Zusatz von Lithium verbessert. Gleichzeitig sind Lithiumlegierungen sehr leicht und werden deshalb viel in der Luft- und Raumfahrttechnik verwendet. Forschung (Atomphysik). In der Atomphysik wird Lithium gerne verwendet, da es mit 6Li als einziges Alkalimetall ein stabiles fermionisches Isotop besitzt, weshalb es sich zur Erforschung der Effekte in ultrakalten fermionischen Quantengasen eignet (siehe BCS-Theorie). Gleichzeitig weist es eine sehr breite Feshbach-Resonanz auf, die es ermöglicht, die Streulänge zwischen den Atomen nach Belieben einzustellen, wobei die Magnetfelder aufgrund der Breite der Resonanz nicht besonders präzise gehalten werden müssen. Medizin. Bereits 1850 wurde Lithium in der westlichen Medizin als Mittel gegen Gicht erstmals eingesetzt. Es erwies sich jedoch als unwirksam. Auch andere Ansätze zur medizinischen Anwendung von Lithiumsalzen, so unter anderem als Mittel gegen Infektionskrankheiten, blieben erfolglos. Erst 1949 beschrieb der australische Psychiater John Cade (1912-1980) ein mögliches Anwendungsgebiet für Lithiumsalze. Er hatte Meerschweinchen verschiedene chemische Verbindungen, darunter auch Lithiumsalze, injiziert, woraufhin diese weniger stark auf äußerliche Reize reagierten, ruhiger, aber nicht schläfrig wurden.. Im Nachhinein stellte sich heraus, dass der bei den Versuchstieren beobachtete Effekt auf eine Intoxikation zurückzuführen war. Nach einem Selbstversuch von Cade wurde 1952–1954 die Verwendung von Lithiumcarbonat als Medikament zur Behandlung manischer-depressiver Patienten in einer Doppelblindstudie am Psychiatrischen Krankenhaus in Risskov (Dänemark) untersucht. Damit war der Grundstein für die Lithiumtherapie gelegt. Bei dieser wird Lithium in Form von Salzen, wie dem Lithiumcarbonat, gegen bipolare Affektstörungen, Manie, Depression und Cluster-Kopfschmerz eingesetzt. Dabei ist die geringe therapeutische Breite zu beachten, die zwischen 0,6 mmol/l und 1,1 mmol/l liegt. Bereits wenn sich der Lithiumblutspiegel an der oberen Grenze der therapeutischen Breite bewegt, kann es bei empfindlichen Menschen zu beherrschbaren, reversiblen Nebenwirkungen kommen. Liegt der Lithiumblutspiegel jedoch deutlich über der therapeutischen Breite – also über 1,1 mmol/l – steigt die Gefahr deutlicher bis schwerer Nebenwirkungen wie Tremor, Rigor, Übelkeit, Erbrechen, Herzrhythmusstörungen und Leukozytose rasant an. Über 3,0 mmol/l besteht Lebensgefahr. Der Grund ist, dass der Stoffwechsel von Lithium und Natrium ähnlich ist. Ein zu hoher Lithiumspiegel kann durch Schwitzen oder Natrium-ausschwemmende Medikamente (natriuretische Diuretika) mit sinkendem Natriumspiegel entstehen. Der Körper versucht, den Natriumverlust zu kompensieren, indem in den Nieren dem Primärharn Natrium entzogen und in das Blut zurücktransportiert wird (Natriumretention). Neben Natrium wird dabei auch Lithium reteniert, das normalerweise gleichmäßig von den Nieren ausgeschieden wird. Die Folge ist ein erhöhter Lithiumspiegel, was bei der Einnahme von Lithium ein Drug monitoring bedingt, bei dem regelmäßig der Lithiumspiegel bestimmt und die Dosis entsprechend angepasst wird. Auch bei korrekter Dosierung kann es unter Langzeit-Behandlung mit Lithium zu Wasser- und Natrium-Verlusten (Diabetes insipidus), Übersäuerung des Blutes (Azidose) und zur Lithium-Nephropathie mit Einschränkung der Nierenfunktion kommen. Eine Studie, die 1990 in den USA veröffentlicht wurde, beschreibt eine signifikante Verringerung von Straftaten und Suiziden in Regionen mit erhöhtem Lithiumgehalt im Trinkwasser. Die Wirkungsweise des Lithium als Psychopharmakon ist noch nicht hinreichend erforscht. Derzeit werden insbesondere die Beeinflussung des Inositol-Stoffwechsels durch Hemmung der myo-Inositol-1-Phosphatase (Enzymklasse 3.1.3.25) und die Hemmung der Glykogensynthasekinase-3 (GSK-3) in Nervenzellen als mögliche Mechanismen diskutiert. Die antidepressive Wirkung von Lithium beruht wahrscheinlich ebenfalls auf einer Verstärkung der serotonergen Neurotransmission, also einer erhöhten Ausschüttung von Serotonin in den Synapsen, während die antimanische Wirkung mit einer Hemmung dopaminerger Rezeptoren erklärt wird. Eine weitere interessante Auswirkung von Lithiumsalzen auf den Menschen und Säugetiere wie Ratten ist die wohl damit zusammenhängende Veränderung der Circadianen Rhythmik. Diese Wirkung konnte sogar bei Pflanzen wie der Kalanchoe nachgewiesen werden. Andere serotonerge Substanzen wie LSD, Meskalin und Psilocybin zeigen ebenfalls solche Auswirkungen beim Menschen. Durch Lithium ist es im Tierversuch an Drosophila melanogaster gelungen, Symptome der Alzheimer-Krankheit wie Vergesslichkeit zu bekämpfen. Anfang 2011 stellten Forscher der Friedrich-Schiller-Universität in Jena einen Zusammenhang zwischen hoher Lithiumaufnahme und erhöhter Lebenserwartung beim Modellorganismus "Caenorhabditis elegans" fest. Danach wirkte sich ein hoher Lithiumgehalt im Wasser positiv auf die Lebenserwartung aus. Nachweis. Lithiumverbindungen zeigen eine karminrote Flammenfärbung, die charakteristischen Spektrallinien liegen als Hauptlinien bei 670,776 und 670,791 nm; kleinere Linien liegen bei 610,3 nm. Darüber kann Lithium mit Hilfe der Flammenphotometrie nachgewiesen werden. Gefahrenhinweise. Elementares Lithium in Form von Metallstaub entzündet sich an der Luft bereits bei Normaltemperatur. Aus diesem Grund muss metallisches Lithium auch unter Luftausschluss, meist in Petroleum gelagert werden. Bei höheren Temperaturen ab 190 °C wird bei Kontakt mit Luft sofort überwiegend Lithiumoxid gebildet. In reinem Sauerstoff entzündet sich Lithium ab etwa 100 °C. In einer reinen Stickstoffatmosphäre reagiert Lithium erst bei höheren Temperaturen schneller zu Lithiumnitrid. Beim Kontakt mit sauerstoff- oder halogenhaltigen Substanzen kann Lithium explosionsartig reagieren. Da Lithium mit gängigen Feuerlöschmitteln wie Wasser, Kohlendioxid, Stickstoff oder dem inzwischen verbotenen Tetrachlorkohlenstoff stark exotherm reagiert, müssen Brände mit inerten Gasen wie z. B. Argon oder anderen Metallbrandbekämpfungsmitteln wie Sand oder Salz (z. B. NaCl) gelöscht werden. Elementares Lithium verursacht wie alle Alkalimetalle bei Hautkontakt Schäden durch Verbrennungen oder alkalische Verätzungen, weil es mit Wasser unter starker Wärmeabgabe Lithiumhydroxid bildet; dafür genügt schon die Hautfeuchtigkeit. Verbindungen. Lithium ist sehr reaktiv und bildet mit den meisten Nichtmetallen Verbindungen, in denen es immer in der Oxidationsstufe +I vorliegt. Diese sind in der Regel ionisch aufgebaut, haben aber im Gegensatz zu Verbindungen anderer Alkalimetalle einen hohen kovalenten Anteil. Das zeigt sich unter anderem darin, dass viele Lithiumsalze – im Gegensatz zu den entsprechenden Natrium- oder Kaliumsalzen – gut in organischen Lösungsmitteln wie Aceton oder Ethanol löslich sind. Es existieren auch kovalente organische Lithiumverbindungen. Viele Lithiumverbindungen ähneln in ihren Eigenschaften auf Grund der ähnlichen Ionenradien den entsprechenden Magnesiumverbindungen (Schrägbeziehung im Periodensystem). Die folgende Grafik bietet eine Übersicht über die wichtigsten Reaktionen des Lithiums. Auf Stöchiometrie und genaue Reaktionsbedingungen ist hier nicht geachtet. Wasserstoffverbindungen. Wasserstoff bildet mit Lithium Hydride. Die einfachste Lithium-Wasserstoff-Verbindung Lithiumhydrid LiH entsteht aus den Elementen bei 600–700 °C. Es wird als Raketentreibstoff und zur schnellen Gewinnung von Wasserstoff, beispielsweise zum Aufblasen von Rettungswesten, verwendet. Es existieren auch komplexere Hydride wie Lithiumborhydrid LiBH4 oder Lithiumaluminiumhydrid LiAlH4. Letzteres hat in der organischen Chemie als selektiver Wasserstoffspender etwa zur Reduktion von Carbonyl- und Nitroverbindungen eine große Bedeutung. Für die Erforschung der Kernfusion spielen Lithiumdeuterid (LiD) und Lithiumtritid (LiT) eine wichtige Rolle. Da reines Lithiumdeuterid die Energie der Wasserstoffbombe herabsetzt, wird dafür ein Gemisch aus LiD und LiT eingesetzt. Diese festen Substanzen sind leichter zu handhaben als Tritium mit seiner großen Effusionsgeschwindigkeit. Sauerstoffverbindungen. Mit Sauerstoff bildet Lithium sowohl Lithiumoxid Li2O als auch Lithiumperoxid Li2O2. Wenn Lithium mit Wasser reagiert, bildet sich Lithiumhydroxid, eine starke Base. Aus Lithiumhydroxid werden Lithiumfette hergestellt, die als Schmierfette für Autos verwendet werden. Da Lithiumhydroxid auch Kohlenstoffdioxid bindet, dient es in U-Booten zur Regenerierung der Luft. Weitere Lithiumverbindungen. Lithium bildet mit den Halogeniden Salze der Form LiX. Dies sind Lithiumfluorid, Lithiumchlorid, Lithiumbromid und Lithiumiodid. Da Lithiumchlorid sehr hygroskopisch ist, wird es – außer als Ausgangsmaterial für die Lithiumgewinnung – auch als Trockenmittel eingesetzt. Es dient zum Trocknen von Gasen, beispielsweise von Erdgas, bevor es durch die Pipeline geführt wird oder bei Klimaanlagen zur Herabsetzung der Luftfeuchte (bis 2 % relativer Luftfeuchte). Lithiumchlorid dient ferner noch zur Herabsetzung von Schmelztemperaturen, in Schweiß- und Hartlötbädern und als Schweißelektroden-Ummantelung für das Schweißen von Aluminium. Lithiumfluorid findet als Einkristall in der Infrarotspektroskopie Verwendung. Die technisch wichtigste Lithiumverbindung ist das schwerlösliche Lithiumcarbonat. Es dient zur Gewinnung der meisten anderen Lithiumverbindungen und wird in der Glasindustrie und bei der Herstellung von Email als Flussmittel eingesetzt. Auch in der Aluminiumherstellung wird es zur Verbesserung von Leitfähigkeit und Viskosität der Schmelze zugesetzt. Lithiumseifen sind Lithiumsalze von Fettsäuren. Sie finden vor allem als Verdickungsmittel in hochwertigen Mineralöl-basierten Schmierfetten und -wachsen sowie zur Herstellung von Bleistiften Verwendung. Organische Lithiumverbindungen. Im Gegensatz zu den meisten anderen Alkalimetallorganylen besitzen Lithiumorganyle eine beachtliche Rolle insbesondere in der organischen Chemie. Von besonderer Bedeutung sind "n"-Butyllithium, "tert"-Butyllithium, Methyllithium und Phenyllithium, die in Form ihrer Lösungen in Pentan, Hexan, Cyclohexan beziehungsweise gegebenenfalls Diethylether auch kommerziell verfügbar sind. Man kann sie durch direkte Umsetzung metallischen Lithiums mit Alkyl-/Arylhalogeniden gemäß oder durch Transmetallierung zum Beispiel aus Quecksilberorganylen gemäß Mit elementarem Lithium in Tetrahydrofuran (THF) anstelle von Magnesium in Diethylether lassen sich Grignard-analoge Additionsreaktionen von Alkylhalogeniden an Carbonylverbindungen mit meist besserer Ausbeute durchführen. Auf Grund des deutlich kovalenten Charakters ist die Struktur von Lithiumorganylen nur selten durch eine einfache Li–C-Bindung zu beschreiben. Es liegen meist komplexe Strukturen, aufgebaut aus dimeren, tetrameren oder hexameren Einheiten, beziehungsweise polymere Strukturen vor. Lithiumorganyle sind hochreaktive Verbindungen, die sich an der Luft teilweise von selbst entzünden. Mit Wasser reagieren sie explosionsartig. Infolge ihrer extremen Basizität reagieren sie auch mit Lösungsmitteln, deren gebundener Wasserstoff kaum sauer ist, wie etwa THF, was die Wahl geeigneter Lösungsmittel stark einschränkt. Reaktionen mit ihnen sind nur unter Schutzgas und in getrockneten Lösungsmitteln möglich. Daher ist im Umgang mit ihnen eine gewisse Erfahrung erforderlich und große Vorsicht geboten. Eine weitere Gruppe organischer Lithiumderivate sind die Lithiumamide des Typs LiNR2, von denen insbesondere Lithiumdiisopropylamid (LDA) und Lithium-bis(trimethylsilyl)amid (LiHMDS, siehe auch HMDS) als starke Basen ohne nukleophile Aktivität Verwendung finden. Lithiumorganyle finden vielseitige Verwendung, so als Initiatoren für die anionische Polymerisation von Olefinen, als Metallierungs-, Deprotonierungs- oder Alkylierungsmittel. Von gewisser Bedeutung sind die so genannten Gilman-Cuprate des Typs R2CuLi. Lutetium. Lutetium ist ein chemisches Element mit dem Elementsymbol Lu und der Ordnungszahl 71. Im Periodensystem steht es in der Gruppe der Lanthanoide und zählt damit auch zu den Metallen der Seltenen Erden. Wie die anderen Lanthanoide ist Lutetium ein silberglänzendes Schwermetall. Wegen der Lanthanoidenkontraktion besitzen Lutetiumatome den kleinsten Atomradius, außerdem hat das Element die höchste Dichte und den höchsten Schmelz- und Siedepunkt aller Lanthanoide. Das Element wurde 1907 nahezu gleichzeitig, aber unabhängig voneinander von Georges Urbain, Carl Auer von Welsbach und Charles James entdeckt. Obwohl 1909 entschieden wurde, dass Urbain die Entdeckung zusteht und damit auch der von ihm vorgeschlagene Name "Lutetium" festgelegt wurde, war besonders im deutschsprachigen Raum die von Carl Auer von Welsbach vorgeschlagene Bezeichnung "Cassiopeium" (Cp) lange verbreitet. Lutetium zählt zu den seltensten Seltenerdmetallen und wird darum und infolge der schwierigen Abtrennung von den anderen Lanthanoiden nur in geringem Umfang wirtschaftlich genutzt. Zu den wichtigsten Anwendungen des Elements zählt die Verwendung von Lutetiumoxyorthosilicat für Szintillationszähler in der Positronen-Emissions-Tomographie. Geschichte. Lutetium wurde 1907 als vorletztes Lanthanoid (nur das radioaktive und damit instabile Promethium wurde später entdeckt) annähernd gleichzeitig und unabhängig voneinander durch drei Chemiker entdeckt. Sowohl der Franzose Georges Urbain, der Österreicher Carl Auer von Welsbach als auch der Amerikaner Charles James untersuchten das 1878 von Jean Charles Galissard de Marignac entdeckte Ytterbium genauer. Urbain berichtete am 4. November 1907 in der Pariser Académie des sciences, dass er durch 800fache Fraktionierung von Ytterbiumnitraten, die er aus Xenotim gewonnen hatte, aus dem Ytterbium von Marignac zwei Elemente erhalten habe. Diese nannte er "Neo-ytterbium" und "Lutecium" nach dem alten Namen von Paris, Lutetia. Kurze Zeit später, am 19. Dezember 1907, gab Carl Auer von Welsbach als Ergebnis von Forschungen, die er seit 1905 durchführte, bekannt, dass er aus den Funkenspektren verschiedener Proben, die er durch fraktionierte Kristallisation von Ytterbium-Ammoniumoxalat gewonnen hatte, geschlossen habe, dass dieses aus zwei verschiedenen Elementen bestehen müsse. Diese nannte er "Cassiopeium" (Cp, nach dem Sternbild Cassiopeia, entspricht Lutetium) und "Aldebaranium" (Ab, nach dem Stern Aldebaran, entspricht Ytterbium). Er konnte jedoch keine Reinstoffe gewinnen. Auch Charles James arbeitete an der Trennung von Ytterbium mit Hilfe von Ytterbium-Magnesiumnitrat-Salzen und erhielt 1907 größere Mengen der reinen Salze. Nachdem er von der Entdeckung Urbains erfahren hatte, verzichtete er jedoch auf eventuelle Ansprüche auf die Entdeckung des neuen Elements. In der folgenden Zeit kam es zwischen Urbain und Welsbach zu einigen – durch die politischen Gegensätze zwischen Frankreich und Österreich-Ungarn verstärkten – Auseinandersetzungen um die Anerkennung als rechtmäßiger Entdecker des neuen Elements und damit auch um das Recht, den Namen des Elements festzulegen. Der internationale Atomgewichts-Ausschuss, bestehend aus Frank Wigglesworth Clarke, Wilhelm Ostwald, Thomas Edward Thorpe und Georges Urbain, entschied sich 1909 schließlich für Urbain und seine Elementnamen. Allerdings wurde der Name Neo-ytterbium zu Ytterbium geändert. Endgültig wurde der Name Lutetium für das Element 1949 von der IUPAC festgelegt. Bis dahin hatten vor allem viele deutsche Chemiker an der Bezeichnung Cassiopeium festgehalten. Das exakte Atomgewicht wurde 1911 von Theodore William Richards anhand Lutetium(III)-bromid bestimmt, das in 15.000 fraktionierten Kristallisationen gereinigt wurde. Metallisches Lutetium wurde erstmals 1953 hergestellt. Vorkommen. Lutetium ist auf der Erde ein seltenes Element, seine Häufigkeit in der kontinentalen Erdkruste beträgt etwa 0,8 ppm. Es ist das seltenste Lanthanoid nach dem instabilen Promethium und Thulium, aber häufiger als Elemente wie Silber (0,079 ppm), Quecksilber oder Bismut. Es sind keine Lutetiumminerale bekannt, das Element kommt immer als Beimengung in anderen Seltenerd-Mineralen, vor allem solchen des Yttriums und der schwereren Lanthanoide, wie Xenotim oder Gadolinit, vor. So enthält Xenotim aus Malaysia neben Yttrium, Dysprosium, Erbium und Ytterbium auch 0,4 % Lutetium. Bastnäsit als Mineral der leichteren Ceriterden enthält dagegen nur Spuren des Elements, Monazit bis zu 0,1 %. Wichtige Quellen für Lutetium sind die Xenotimvorkommen in Malaysia (dort als Begleitmineral von Kassiterit), sowie ionenadsorbierende lateritische Tonminerale in den südchinesischen Provinzen Jiangxi und Guangdong. Aufgrund der schwierigen Gewinnung wird es nur in geringen Mengen hergestellt und eingesetzt und besitzt einen hohen Preis. Aufgrund der geringen Nachfrage wird die Versorgung mit Lutetium nicht als kritisch angesehen. Gewinnung und Darstellung. Die Gewinnung von Lutetium ist vor allem durch die schwierige Trennung der Lanthanoide kompliziert und langwierig. Die Ausgangsminerale wie Monazit oder Xenotim werden zunächst mit Säuren oder Laugen aufgeschlossen und in Lösung gebracht. Die Trennung des Lutetiums von den anderen Lanthanoiden ist dann durch verschiedene Methoden möglich, wobei die Trennung durch Ionenaustausch die technisch wichtigste Methode für Lutetium darstellt, sowie auch für andere seltene Lanthanoide. Dabei wird die Lösung mit den seltenen Erden auf ein geeignetes Harz aufgetragen, an das die einzelnen Lanthanoid-Ionen unterschiedlich stark binden. Anschließend werden sie in einer Trennsäule mit Hilfe von Komplexbildnern wie EDTA, DTPA oder HEDTA vom Harz gelöst, durch die unterschiedlich starke Bindung an das Harz erzielt man somit die Trennung der einzelnen Lanthanoide. Eine Gewinnung von Lutetiummetall ist durch Reduktion von Lutetiumfluorid mit Calcium bei 1500 bis 1600 °C möglich. Physikalische Eigenschaften. Kristallstruktur von Lutetium, a = 351,6 pm, c = 557,3 pm Lutetium ist ein weiches, silberglänzendes Schwermetall. Die Lanthanoidenkontraktion bewirkt, dass Lutetium als das Lanthanoid mit der höchsten Ordnungszahl mit 175 pm den kleinsten Atomradius besitzt. In der Folge besitzt es auch mit 9,84 g/cm3 die höchste Dichte und den höchsten Schmelz- (1652 °C) und Siedepunkt (3402 °C) aller Lanthanoide. Unter Standardbedingungen kristallisiert Lutetium in einer hexagonal-dichtesten Kugelpackung mit den Gitterparametern a = 351,6 pm und c = 557,3 pm. Neben dieser Struktur sind auch mehrere Hochdruckmodifikationen bekannt. Ab einem Druck von 32 GPa kristallisiert Lutetium in einer Struktur vom Samarium-Typ, einer kompliziert aufgebauten, trigonalen Kristallstruktur, mit den Gitterparametern a = 317,6 pm und c = 2177 pm. Beim Phasenübergang kommt es zu einem Volumenverlust von 1,6 %. Weitere Phasenübergänge gibt es bei einem Druck von 45 GPa, ab dem eine doppelt-hexagonal-dichteste Struktur am stabilsten ist, und bei 88 GPa mit einem Übergang zu einer verzerrten kubisch-dichtesten Struktur ("h"R24). Unterhalb von 0,1 K, bei einem Druck von 18 GPa unterhalb von 1,2 K, wird Lutetium zum Supraleiter. Chemische Eigenschaften. Lutetium ist ein typisches unedles Metall, das, vor allem bei höheren Temperaturen, mit den meisten Nichtmetallen reagiert. Mit Sauerstoff reagiert es bei Standardbedingungen an trockener Luft langsam, schneller bei Anwesenheit von Feuchtigkeit. Metallisches Lutetium ist wie andere unedle Metalle, vor allem bei großer Oberfläche, brennbar. Die Reaktion von Lutetium und Wasserstoff ist nicht vollständig, der Wasserstoff tritt stattdessen in die Oktaederlücken der Metallstruktur ein, und es bilden sich nicht-stöchiometrische Hydridphasen aus, wobei die genaue Zusammensetzung von der Temperatur und dem Wasserstoffdruck abhängt. In Wasser löst sich Lutetium nur langsam, in Säuren schneller unter Wasserstoffbildung. In Lösung liegen immer dreiwertige, farblose Lutetiumionen vor. Isotope. Es sind insgesamt 34 Isotope (150Lu bis 184Lu) und 35 Kernisomere des Lutetiums bekannt. Von diesen ist nur 175Lu stabil, und 176Lu ist mit einer Halbwertszeit von 3,8 · 1010 Jahren das langlebigste. Diese beiden Isotope kommen natürlich vor, wobei 175Lu mit einem Anteil von 97,41 % in der natürlichen Isotopenzusammensetzung überwiegt. Daher hat ein Gramm natürliches Lutetium eine geringe Eigenstrahlung von 51,8 Bq. Alle weiteren Isotope besitzen nur kurze Halbwertszeiten, mit einem Maximum von 3,31 Jahren bei 174Lu. Der langsame Zerfall von 176Lu zu 176Hf kann zur Altersbestimmung sehr alter Gesteine verwendet werden. Dabei werden die unterschiedlichen Verhältnisse der Isotope 176Hf und 177Hf bestimmt, und mit dem Verhältnis in Gesteinen bekannten Alters verglichen. Mit dieser Methode gelang eine Altersbestimmung des ältesten bekannten Marsmeteoriten ALH84001 auf 4,091 Milliarden Jahre. Das Radionuklid 177Lu wird – komplexiert mit Liganden wie DOTA – als kurzreichweitiger Betastrahler in der Therapie gegen neuroendokrine Tumoren und Prostatakrebs verwendet. Verwendung. Metallisches Lutetium hat keine wirtschaftliche Bedeutung, es wird nur in geringen Mengen für wissenschaftliche Zwecke verwendet. Als Legierung ist das Element wie die anderen Lanthanoide Bestandteil von Mischmetall. In Verbindungen kann Lutetium als Katalysator für das Cracken von Erdöl und für Polymerisationsreaktionen, als Szintillatormaterial in der Positronen-Emissions-Tomographie oder als Dotierungsmittel für Magnetblasenspeicher aus Gadolinium-Gallium-Granat genutzt werden. Biologische Bedeutung und Toxizität. Lutetium besitzt keine biologische Bedeutung und ist nur in äußerst geringen Mengen im menschlichen Körper enthalten. Es wurde bei Versuchen an Ratten festgestellt, dass aufgenommenes Lutetium vor allem in der Leber, in geringeren Mengen auch in Knochen und Milz gespeichert wird. Über toxische Effekte von Lutetium und seinen Verbindungen auf Lebewesen ist wenig bekannt. Bei Ratten wurde für Lutetiumchlorid eine akute Toxizität mit einem LD50-Wert von 315 mg/kg bei intraperitonealer Gabe und 7100 mg/kg für orale Gabe über jeweils sieben Tage bestimmt. Eine chronische Toxizität konnte nicht festgestellt werden. Gelöste Lutetiumionen wirken toxisch für Bakterien wie "Aliivibrio fischeri". Lu3+-Ionen besitzen einen EC50-Wert von 1,57 μM und sind damit in der Bakterientoxizität toxischer als Zink- oder Cadmiumionen und vergleichbar mit Kupferionen. Verbindungen. In Verbindungen kommt Lutetium stets in der Oxidationsstufe +3 vor. Halogenide. Mit den Halogenen Fluor, Chlor, Brom und Iod bildet Lutetium jeweils ein Halogenid mit der Verhältnisformel LuX3. Es handelt sich dabei um typische Salze mit Schmelzpunkten zwischen 892 °C (Lutetium(III)-chlorid) und 1184 °C (Lutetium(III)-fluorid). Mit Ausnahme von Lutetiumfluorid, das in einer Terbium(III)-chlorid-Raumstruktur kristallisiert, bilden die Lutetiumhalogenide eine Aluminiumchlorid-Schichtstruktur. Metallorganische Verbindungen. Es sind eine Reihe von metallorganischen Verbindungen bekannt. Verbindungen mit einer direkten Bindung zwischen Lutetium und Kohlenstoff sind nur in geringem Umfang bekannt, da es bei diesen wie bei vielen Übergangsmetallen leicht zu Folgereaktionen wie β-Hydrideliminierungen kommt. Sie sind daher mit sterisch anspruchsvollen Resten wie der "tert"-Butylgruppe oder einer größeren Zahl kleiner Reste wie in einem Hexamethyllutetat-Komplex [Lu(CH3)6]3+ stabil. Die wichtigsten Liganden des Lutetiums sind Cyclopentadienyl und dessen Derivate. Ein Sandwichkomplex des Lutetiums ist jedoch nicht bekannt, die wichtigsten Klassen sind solche mit den Formeln CpLuX2, Cp2LuX und Cp3Lu (X kann dabei ein Halogenid, Hydrid, Alkoxid oder weiteres sein). Bei drei Cyclopentadienyl-Liganden werden zwei Liganden η5, einer η1 als Brücke zu einem weiteren Lutetiumatom gebunden. Weitere Verbindungen. Mit Sauerstoff reagiert Lutetium zu Lutetium(III)-oxid, Lu2O3, das wie die anderen dreiwertigen Oxide der schwereren Lanthanoide in der kubischen Lanthanoid-C-Struktur kristallisiert. Die technisch wichtigste Lutetiumverbindung ist Lutetiumoxyorthosilicat. Diese ist, mit Cer dotiert, ein Szintillator und wird in Szintillationszählern in der Positronen-Emissions-Tomographie eingesetzt. Aufgrund der sehr kurzen Abklingzeit von 40 ns hat es dort andere Materialien wie Bismutgermanat verdrängt. Lutetium-Aluminium-Granat (LuAG), das beispielsweise mit Europium dotiert ist, wird unter anderem in Infrarot-Lasern und als Leuchtstoff in weißen Leuchtdioden und Feldemissionsbildschirmen verwendet. Eine Übersicht über Lutetiumverbindungen bietet die. Lanthanoide. Lanthanoide („Lanthanähnliche“; griech.: Endung "-ειδἠς" ("-eides") „ähnlich“) ist eine Gruppenbezeichnung ähnlicher Elemente. Zugerechnet werden ihr das Lanthan und die 14 im Periodensystem auf das Lanthan folgenden Elemente Cer, Praseodym, Neodym, Promethium, Samarium, Europium, Gadolinium, Terbium, Dysprosium, Holmium, Erbium, Thulium, Ytterbium und Lutetium. Im Sinne des Begriffs gehört Lanthan nicht zu den Lanthanähnlichen. Hier folgt die Nomenklatur der IUPAC aber dem praktischen Gebrauch. Die Verwendung der alten Bezeichnung "Lanthanide" ist weiterhin erlaubt. Alle Lanthanoide sind Metalle und werden auch als "Elemente der Lanthanreihe" bezeichnet. Sie sind ein Teil der Gruppe der Metalle der Seltenen Erden. Alle stabilen Lanthanoide auf einen Blick Vorkommen. Die Lanthanoide werden auch als Metalle der seltenen Erden bezeichnet. Dieser Name ist aber insofern verwirrend, weil die Elemente dieser Gruppe mit Ausnahme des instabilen Promethiums keineswegs so selten sind, wie es suggeriert wird. So ist beispielsweise Cer in der Natur häufiger als die Elemente Arsen oder Blei. Am Aufbau der Erdkruste sind sie zu einem Massenanteil von 0,02 % beteiligt. Es handelt sich um insgesamt 14 Elemente der 6. Periode, die als Untergruppe der 3. Nebengruppe aufgefasst werden können. In fast allen Mineralen findet man eine Häufung entweder der leichten (Ce) oder der schweren Lanthanoide (Y verhält sich mineralchemisch wie ein schweres Lanthanoid). So enthält beispielsweise Monazit überwiegend Ce und La, während der Gehalt der nachfolgenden Lanthanoide mit der Ordnungszahl abnimmt (daher wird die Formel von Monazit auch immer als CePO4 angegeben). In Xenotim findet man genau den umgekehrten Fall (daher auch YPO4). Diese meist sehr effektive Fraktionierung hat ihre Ursache in der Lanthanoiden-Kontraktion und den von Mineral zu Mineral unterschiedlich großen zur Verfügung stehenden Kristallgitterplätzen. Auch andere Mineralgruppen können bisweilen hohe Anteile an Lanthanoiden in ihre Struktur einbauen (z. B. Zirkon, Granat). Weiterhin kommen die Lanthanoide auf dem Mond in Form der sog. KREEP-Erze vor. Eigenschaften. Kristallstruktur der Lanthanoide bis auf Cer, Samarium, Europium und Ytterbium. Physikalische Eigenschaften. Die Lanthanoide sind silbrig-glänzende, relativ weiche und reaktionsfähige Metalle. Fast alle weisen die für Metalle typische dichteste Kugelpackung auf. Die Härte nimmt mit steigender Ordnungszahl zu. Die Lanthanoide gehören wie die Actinoide zu den "inneren Übergangselementen" oder "f-Block-Elementen", da in diesen Reihen die f-Orbitale nicht vollständig mit Elektronen gefüllt sind. Die Promethium-Isotope sind alle instabil, also radioaktiv. Chemische Eigenschaften. Aufgrund der ähnlichen Struktur der Valenzschale verhalten sich die Lanthanoide chemisch wie die Elemente der 3. Gruppe des Periodensystems Scandium und Yttrium und bilden mit diesen zusammen die Gruppe der Seltenen Erden. An der Luft oxidieren sie schnell und werden matt. Mit Wasser reagieren sie mehr oder weniger schnell unter Bildung von Wasserstoff. Beginnend bei Cer wird das 4f-Orbital nach und nach aufgefüllt. Es ist bei Lutetium schließlich mit 14 Elektronen vollständig besetzt. Da die 4f-Orbitale tief im Innern der Atome liegen, nehmen sie im Gegensatz zu den d-Orbitalen der übrigen Nebengruppenelemente wenig Einfluss auf das chemische Verhalten. Die Lanthanoiden-Elemente sind sich somit in ihren chemischen Eigenschaften relativ ähnlich. Sie gleichen sich so sehr, dass man sie bei der Entdeckung der Yttererde 1794 sogar für das Oxid ein und desselben Elements hielt. Das Gleiche gilt für die zahlreichen Bestandteile der Ceriterde. Gemeinsam ist ihnen die Oxidationszahl +3. Daneben treten bei einigen Elementen noch die Oxidationszahlen +2 und +4 auf. Lanthanoiden-Kontraktion. Aufgrund der Lanthanoiden-Kontraktion nimmt der Atomradius innerhalb der Reihe von Cer (183 pm) bis Lutetium (172 pm) nahezu stetig ab (Ausnahmen sind Europium und Ytterbium). Dies liegt daran, dass die Elemente, die – von der Ordnungszahl ausgehend – vor den Lanthanoiden liegen, bereits die 6s- und 5p-Schale mit Elektronen aufgefüllt haben, jedoch die 4f-Schale nicht. Die Lanthanoide füllen nun die 4f-Schale mit Elektronen auf. Bei einer vereinfachten Vorstellung des Atom als aus räumlich abgetrennten Elektronenschalen bestehend, füllt sich nun eine, räumlich gesehen, näher zum Kern befindliche Elektronenschale mit Ladungsträgern. Nebenbei füllt sich der Kern selbstverständlich mit der gleichen Anzahl Protonen, wie Elektronen auf die 4f-Schale hinzukommen. Durch die dadurch bedingte stärkere Anziehung zwischen Elektronen und Protonen schrumpft der Atomradius, während die Ordnungszahl steigt. Lawrencium. Lawrencium ist ein ausschließlich künstlich erzeugtes chemisches Element mit dem Elementsymbol Lr und der Ordnungszahl 103. Im Periodensystem steht es in der Gruppe der Actinoide (7. Periode, f-Block) und zählt auch zu den Transuranen. Lawrencium ist ein radioaktives Metall, welches aber aufgrund der geringen zur Verfügung stehenden Mengen bisher nicht als Metall dargestellt wurde. Es wurde 1961 entdeckt, als man Californium mit Bor-Kernen beschoss. Dieses Element wurde nach Ernest Lawrence benannt. Er ist der Erfinder des Zyklotrons, eines Teilchenbeschleunigers, der eine wichtige Voraussetzung zur Entdeckung vieler Transuran-Elemente war. Der Name wurde 1994 endgültig von der IUPAC bestätigt. Geschichte. a> (2. von Links) beim Ergänzen des Periodensystems nach der Entdeckung des Lawrenciums (1961), damals noch mit dem Elementsymbol „Lw“. Lawrencium wurde 1961 erstmals von den amerikanischen Wissenschaftlern Albert Ghiorso, Torbjørn Sikkeland, Almon E. Larsh und Robert M. Latimer hergestellt, indem man Californiumisotope mit Kernen von Boratomen beschoss. Am 14. Februar 1961 gaben sie die erfolgreiche Synthese des Elements bekannt. Anfangs wählte man als Symbol „Lw“. 1963 wurde es von der IUPAC (Internationalen Union für reine und angewandte Chemie) in „Lr“ geändert. Eigenschaften. Im Periodensystem steht das Lawrencium mit der Ordnungszahl 103 in der Reihe der Actinoide und schließt diese ab. Sein Vorgänger ist das Nobelium, das nachfolgende Element ist das Rutherfordium, das aber schon zu den Transactinoiden gehört und ein d-Element ist. Sein Analogon in der Reihe der Lanthanoide ist das Lutetium, das gleichfalls diese abschließt. Lawrencium ist ein radioaktives und sehr kurzlebiges Metall. Es sind zwölf Isotope bekannt, deren Halbwertszeiten zwischen wenigen Sekunden bis 11 Stunden liegen. Über weitere Eigenschaften des Elements liegen keine Erkenntnisse vor, da die geringe Halbwertszeit empirische Studien fast unmöglich macht. Sicherheitshinweise. Einstufungen nach der Gefahrstoffverordnung liegen nicht vor, weil diese nur die chemische Gefährlichkeit umfassen und eine völlig untergeordnete Rolle gegenüber den auf der Radioaktivität beruhenden Gefahren spielen. Auch Letzteres gilt nur, wenn es sich um eine dafür relevante Stoffmenge handelt. Leichtmetalle. Als Leichtmetalle werden allgemein Metalle und Legierungen bezeichnet, deren Dichte unter 5 g/cm³ liegt. Alle anderen Metalle sind Schwermetalle, von denen Europium mit einer Dichte von 5,244 g/cm³ das leichteste ist. Im technischen Bereich sind vor allem Aluminium, Magnesium, Titan sowie in geringem Umfang Beryllium und Lithium im Gebrauch – sowie weitere Elemente als Legierungselemente in geringer Konzentration. Die Verarbeitung metallischer Werkstoffe erfolgt bei Leichtmetallen grundsätzlich wie bei anderen Metallen auch. Liste der Leichtmetalle. Datei:Weltkarte-Leichtmetall-Förderung.png|mini|links|hochkant=3.65|◈ Wo werden Leichtmetalle gefördert?"Wenn Sie eine detailliertere Weltkarte zum Bergbau „frei verschiebbar“ im Großformat (5,6 MB) betrachten möchten, folgen Sie diesem Leichtmetallbrände. Beim Löschen von Bränden von Leichtmetallen muss beachtet werden, dass dazu kein Wasser verwendet werden darf. Leichtmetalle wie Alkali- und Erdalkalimetalle neigen dazu, mit Wasser sehr heftig unter Bildung von Alkalimetallhydroxiden und Freisetzung von Wasserstoff zu reagieren. Im Falle eines Löschversuchs mit Wasser könnte sich der freiwerdende Wasserstoff entzünden und es käme unter Umständen zu Explosionen (Knallgasbildung mit Luftsauerstoff). Dabei steigt die Reaktivität vom Lithium zum Caesium, bzw. Beryllium zum Barium, stark an. Ab dem Kalium erfolgt Selbstentzündung. Zudem verbrennen viele Leichtmetalle, z. B. Magnesium und Aluminium, bei sehr hohen Temperaturen. Wasser zersetzt sich hierbei thermisch zu Wasserstoff und Sauerstoff was ebenfalls zu einer explosionsartigen Brandausbreitung führt. Auch wasserhaltige Löschmittel, wie etwa Löschschaum, verbieten sich aus diesen Gründen. Andere Löschmittel zeigen bei Leichtmetallbränden häufig keine Wirkung, denn Magnesium brennt auch unter Kohlendioxidatmosphäre weiter, indem es dem Kohlendioxid den Sauerstoff entzieht. Normale Löschpulver eignen sich ebenfalls nicht für Leichtmetallbrände. Luft. Als Luft bezeichnet man das Gasgemisch der Erdatmosphäre. Trockene Luft besteht hauptsächlich aus den zwei Gasen Stickstoff (rund 78,08 Vol.-%) und Sauerstoff (rund 20,95 Vol.-%). Daneben gibt es noch die Komponenten Argon (0,93 Vol.-%), Kohlenstoffdioxid (0,04 Vol.-%) und andere Gase in Spuren. Gasförmiges Wasser (Wasserdampf) ist im Mittel zu 1,3 Vol.-% in Bodennähe und zu 0,4 Vol.-% in der gesamten Erdatmosphäre enthalten, bei den obigen Werten aber nicht mitgerechnet. Zusätzlich enthält Luft auch Staub und andere makromolekulare Teilchen (z. B. Pollen). Im natürlichen Zustand ist sie trotzdem für Menschen geruch- und geschmacklos. Lichtstreuung. Die in Luft vorkommenden Gasmoleküle (Stickstoff, Sauerstoff usw.) streuen die einfallenden und unterschiedlichen Lichtwellen/-teilchen des Sonnenlichtes verschieden stark (Rayleigh-Streuung). Am stärksten wird das kurzwellige blaue Licht gestreut. Dieser Vorgang gibt der Luft ihre typischerweise natürliche blaue Farbe, ein teil-polarisiertes Muster. Ist der Weg des Lichtes durch die Luft länger, verschiebt sich die Streuung zu einem rötlichen Farbton hin. Dies hängt vom Sonnenlichteinfallswinkel ab. Steht die Sonne im Zenit (direkt über dem Betrachter −90° zum Boden), durchläuft das Licht die Erdatmosphäre auf einer Länge von 90 km. Während eines Sonnenaufgangs /-abgangs steht die Sonne am Horizont (in horizontaler Augenlinie des Betrachters −0° zum Boden) und durchquert die Atmosphäre mit einer ca. 12-fachen Länge (ca. 1075 km). Mit fortschreitender Strecke des Lichtes durch die Atmosphäre wird der blaue vom roten Lichtanteil überlagert, da der Blauanteil immer mehr gestreut wird und der rote Anteil wegen seiner größeren Wellenlänge weniger stark gestreut wird. Dieser atmosphärische Effekt ist nur bei wolkenlosem Horizont morgens kurz vor Sonnenaufgang und abends kurz nach Sonnenuntergang zu beobachten. Sie werden als Morgenröte bzw. Abendrot bezeichnet und reicht in den Farbabstufungen von leichtem Rosa bis Lila über Vollrot zu tiefem Orange. Abgesehen von elastischer Streuung der Photonen ist in der Atmosphäre auch inelastische Streuung zu beobachten: Rotationsramanstreuung führt zu einer Umverteilung in den Energien der eintreffenden Strahlung innerhalb von einigen 10 cm−1 und führt somit zu einem „Auffüllen“ der Fraunhoferlinien, den sogenannten Ring-Effekt. Bei einer spektralen Auflösung von 0.5nm führt dieser Effekt zu optischen Dicken von typischerweise bis zu 2 %, wenn Himmelsstreulicht verschiedener Sonnenstände verglichen wird. Dieser Effekt muss in verschiedenen DOAS Fernerkundungsmethoden zu Messung von Spurengasen korrigiert werden. Weiterhin kann Vibrationsramanstreuung an Luftmolekülen die Wellenzahl der eintreffenden Photonen von 1550 cm−1(O2) und 2330 cm−1(N2) verschieben und somit ein wellenlängenverschobenes Abbild des Sonnenlichts über das beobachtete Sonnenlicht legen. Seine Intensität beträgt bis zu 0,04 % der ursprünglichen Intensität. Zusammensetzung. Die Anteile der Atmosphärengase sind keine Naturkonstanten. In der seit Jahrmilliarden andauernden Entwicklung der Erdatmosphäre veränderte sich die Zusammensetzung ständig und mehrmals grundlegend. Seit 350 Millionen Jahren sind die Hauptbestandteile leidlich stabil. Die aktuelle Mischung ist für trockene Luft in der Tabelle rechts wiedergegeben, wobei zwischen Hauptbestandteilen und Spurengasen unterschieden wird. Die angegebenen Konzentrationen stellen globale Mittelwerte für die freie Troposphäre dar. Die der chemisch stabilen Komponenten sind abseits von Quellen in der gesamten Homosphäre einheitlich, also bis in eine Höhe von etwa 100 km. Bei reaktiven Spurenstoffen gibt es erhebliche Gradienten. Tiefkalt verflüssigt kann "Flüssige Luft" durch fraktionierte Destillation in ihre Bestandteile zerlegt werden, dies erfolgt meist mit Hilfe des Linde-Verfahrens. Stickstoff. Der Hauptbestandteil der Luft ist chemisch inert. Er wird durch die natürliche (biotische und abiotische) Stickstofffixierung organisch gebunden und damit für Lebewesen nutzbar. Technisch wird der Luftstickstoff über das Haber-Bosch-Verfahren zur Düngemittelherstellung verwendet. Der entgegengerichtete chemische Prozess – die Denitrifikation verläuft rascher, so dass der Stickstoffkreislauf den Stickstoffanteil in der Atmosphäre kaum verändert. Aus dem Stickstoff der Luft entstehen durch kosmische Strahlung geringe Mengen radioaktiver Kohlenstoff (14C), was mit der Radiokarbonmethode für archäologische Datierungen ausgenutzt wird. Stickstoff wirkt beim Menschen bei einem signifikant erhöhtem Partialdruck (ab ca. 3,2 bar, bei Normalbedingung 0,79 bar) zunehmend narkotisch. Beim Tauchen tritt dieser Stickstoff-Partialdruck in Atemluft ab etwa 30 m Tauchtiefe (in Gewässern auf Meeresniveau) auf und der narkotisch/toxische Effekt ist dort als sogenannter Tiefenrausch bekannt. Deshalb werden bei Tauchtiefen über 60 m spezielle Atemgas-Gemische eingesetzt, bei denen Stickstoff (teilweise) z. B. durch Helium ersetzt ist. Sauerstoff. Der molekulare Sauerstoff der Luft ist hauptsächlich durch Photosynthese aus Wasser gebildet worden, wobei die im Laufe der Erdgeschichte hergestellte Menge etwa das Zwanzigfache der heute in der Atmosphäre vorliegenden Menge beträgt. Er verleiht der Atmosphäre ihren oxidierenden Charakter und stellt das wichtigste Oxidationsmittel dar, das für die biologische Atmung bzw. die chemischen Verbrennungsvorgänge benötigt wird. Auf den menschlichen Körper wirkt Sauerstoff ab einem Partialdruck von 1,4–1,6 bar giftig, das entspricht bei atmosphärischer Zusammensetzung einem Überdruck von etwa sechs Bar. Dies tritt als praktisches Problem z. B. beim Gerätetauchen mit normaler Luft als Atemgas ab einer Tauchtiefe von ca. 50 m auf. Bei einer hyperbaren Sauerstofftherapie (HBO) werden die Taucherkrankheit und andere Erkrankungen in einer Druckkammer mit bis zu 1,8 bar Luft behandelt. Der in der Luft enthaltene Sauerstoff ist für alle aeroben Lebewesen zum Leben notwendig. Durch Atmung führen sie Sauerstoff ihrem Stoffwechsel zur Verbrennung (Katabolismus) zu. Pflanzen nutzen das in der Luft enthaltene Kohlenstoffdioxid zur Photosynthese und spalten dabei den Sauerstoff ab. Für fast alle Pflanzen ist dies die einzige Kohlenstoffquelle für vitale Prozesse und Körpersubstanz (Anabolismus). Bei diesem organischen Prozess wird auch fast der gesamte Luftsauerstoff der Luft regeneriert. Der Sauerstoffkreislauf ermöglicht die Aufrechterhaltung und Verteilung eines dauerhaften Vorrats an Ressourcen für Aerobier und photosynthetisch aktive Pflanzen. Argon. Argon ist als Edelgas äußerst reaktionsträge und mit fast 1 % Gehalt relativ häufig. So ist es kostengünstig und wird als Inertgas etwa beim Metallschweißen und zur Füllung von Glühlampen eingesetzt. Dort und als Füllung von Mehrscheiben-Isolierglas nutzt man die relativ zu Luft etwas geringere Wärmeleitfähigkeit. (Teures, rares Krypton dient in Spezialfällen als noch besseres Wärme-Isoliergas.) Argon entsteht langsam durch radioaktiven Zerfall von Kalium-40, ist stabil und dichter als Luft und verbleibt daher in der Atmosphäre. Wasserdampf. Die Umgebungsluft ist nicht trocken, sondern enthält je nach Luftfeuchtigkeit zusätzlich Wasserdampf. Der Wasserdampfgehalt schwankt zwischen einem zehntel Volumenprozent an den Polen und drei Volumenprozent in den Tropen, mit einem Mittelwert von 1,3 % in Bodennähe. Da Wasserdampf leichter ist als trockene Luft (62,5 % des Trockenluftgewichtes), wird feuchte von der umgebenden Luft nach oben gedrückt, wo dann in kühleren Schichten Kondensation auftritt. Oberhalb der Kondensatschichten ist der Wasserdampfgehalt sehr gering, sodass über die gesamte Atmosphäre gemittelt nur 0,4 % Wasserdampf in der Luft sind. Spurengase. Größere Schwankungen über teils wenige Jahre und Jahrzehnte sind auch bei den Spurengasen zu verzeichnen. Deren niedrige Konzentrationen können durch vergleichsweise geringe Emissionen beeinflusst werden. Ebenso zeigen Vulkanausbrüche häufig einen kurzfristigen Einfluss. Kohlenstoffdioxid. Nach seinem Anteil ist Kohlenstoffdioxid ein Spurengas, aber als das – unter Berücksichtigung von Wasserdampf – fünfthäufigste Atmosphärengas und aufgrund seiner Bedeutung für Klima und Lebewesen wird es oft zu den Hauptbestandteilen der Luft gerechnet. Die biologische Hauptbedeutung des Kohlenstoffdioxids (umgangssprachlich oft auch als Kohlendioxid bezeichnet) liegt in seiner Rolle als Kohlenstofflieferant für die Photosynthese. Die atmosphärische Kohlenstoffdioxidkonzentration wirkt stark auf das Pflanzenwachstum. Durch den lichtabhängigen Stoffwechselzyklus der Pflanzen, also die Wechselbeziehung zwischen Atmung und Photosynthese, schwanken die bodennahen CO2-Konzentrationen im Tagesgang. Es zeigt sich bei ausreichender Pflanzendecke ein nächtliches Maximum und dementsprechend ein Minimum am Tag. Der gleiche Effekt ist im Jahresverlauf vorhanden, da die außertropische Vegetation ausgeprägte Vegetationsperioden besitzt. Auf der Nordhalbkugel besteht ein Maximum im Zeitraum März bis April und ein Minimum im Oktober oder November. Dazu trägt auch die Heizperiode durch erhöhten Verbrauch fossiler Brennstoffe bei. Insgesamt hat der Kohlenstoffdioxidgehalt seit Beginn der Industrialisierung um über 40 % zugenommen. Dies ist im Zusammenhang mit dem anthropogenen Treibhauseffekt eine der Ursachen für die globale Erwärmung. 2013 überstieg die CO2-Konzentration an der Messstation Mauna Loa erstmals den Wert von 400 ppm. Edelgase. Während Argon mit rund 1 % zu den Hauptbestandteilen der Luft gehört (siehe oben), zählen die weiteren Edelgase Neon, Helium und Krypton mit Volumenanteilen von jeweils > 1 ppm zu den Spurengasen (vgl. Tabelle). Noch seltener ist Xenon (Volumenanteil Radon ist das seltenste Edelgas in der Luft (mittlerer Volumenanteil 1:1021), kann jedoch – isotopenabhängig – über seine Radioaktivität gut bestimmt werden. Helium wird bei jedem radioaktiven Alpha-Zerfall frei. Das kleine Atom ist sehr beweglich, sickert aus der Erde, ist viel leichter als Luft und entweicht in den Weltraum. Auch das zweitleichteste Edelgas Neon verflüchtigt sich dorthin, so dass von diesen beiden nur Spuren in der Atmosphäre vorkommen. Aus manchem Gestein dringt als Glied radioaktiver Zerfallsreihen Radon, das sich in Kellern anreichern kann und strahlend weiterzerfällt. Ozon. Für die Stratosphäre werden Ozonwerte oftmals nicht in Anteilen, sondern in der Dobson-Einheit angegeben. Da die Werte zudem von der Höhe (Ozonschicht, bodennahes Ozon) sowie von Wetterlage, Temperatur, Schadstoffbelastung und Uhrzeit abhängen und Ozon sich sowohl schnell bildet als auch wieder zerfällt, ist dieser Wert sehr variabel. Aufgrund der hohen Reaktivität von Ozon spielt es bei chemischen Reaktionen vielfältiger Art in der Atmosphäre eine zentrale Rolle. Ein Beispiel sind die ODEs ("ozone depletion events"), bei denen während des polaren Frühlings regelmäßig starke Einbrüche in der Ozonkonzentration von normalerweise 20–40 ppb auf Stickoxidchemie. Kohlenstoffmonoxid. Kohlenstoffmonoxid (umgangssprachlich oft auch als Kohlenmonoxid bezeichnet) ist ein unsichtbares brennbares giftiges Gas, das bei der unvollständigen Verbrennung von kohlenstoffhaltigen Substanzen entsteht. Es blockiert den Sauerstofftransport im Blut (Kohlenstoffmonoxidintoxikation) und kann schon in geringen Dosen zum Tod führen. Auch schädigt es die Photosynthese der Pflanzen. Es bildet sich z. B. beim Tabakrauchen und im Verbrennungsmotor. Autoabgase ohne Abgasnachbehandlung durch einen Fahrzeugkatalysator können bis zu 4 % CO enthalten, der Standardwert für Tabakrauch. Brände der Vegetation sind mit ca. 60 % der Emissionen weltweit Hauptquelle für Kohlenstoffmonoxid. Mittlere Molmasse. Die mittlere Molmasse ergibt sich als Summe der Produkte der Molmassen und Stoffmengenanteile der Bestandteile, hauptsächlich Sauerstoff, Stickstoff und Argon. Für trockene Luft ist der exakte Wert 28,949 g/mol. Enthält die Luft noch Feuchtigkeit, ist die mittlere Molmasse geringer, da die Molmasse von Wasserdampf nur ca. 18 g/mol beträgt. Luftdichte. Unter Normbedingungen ist die Luftdichte gleich 1,293 kg/m3. Luftdruck. Die Gewichtskraft der Luftsäule erzeugt einen statischen Druck. Dieser Druck hängt gemäß der barometrischen Höhenformel von der Höhe über dem Meeresspiegel ab. Zusätzlich ist der Luftdruck vom Wetter abhängig. Wind und allgemein Änderungen des Wetters bewirken Schwankungen des Luftdrucks. Ein Barometer zur Messung des Luftdrucks gehört daher zur Grundausstattung von Wetterstationen. Über einem Quadratmeter Bodenfläche beträgt die Luftmasse dem Luftdruck entsprechend etwa 10.000 kg. Lufttemperatur. Als Lufttemperatur wird die Temperatur der bodennahen Luft bezeichnet, die weder von Sonnenstrahlung noch von Bodenwärme oder Wärmeleitung beeinflusst ist. Die genaue Definition in Wissenschaft und Technik ist unterschiedlich. In der Meteorologie wird die Lufttemperatur in einer Höhe von zwei Metern gemessen, wofür häufig weiß gestrichene Wetterhäuschen in freier Umgebung dienen. Luftfeuchtigkeit. Bei der Luftfeuchtigkeit handelt es sich um den Anteil des Wasserdampfes an der Luft. Sie wird über verschiedene Feuchtmaße wie Dampfdruck und Taupunkt sowie relative, absolute und spezifische Luftfeuchte angegeben. Weitere Werte. Unter Normalbedingungen ist die Schallgeschwindigkeit in Luft gleich 331,5 m/s. Der Brechungsindex formula_1 der Luft beträgt unter Normalbedingungen für sichtbares Licht ungefähr 1,00029. Der Wert hängt von Druck, Temperatur und Zusammensetzung der Luft ab, vor allem aber von der Luftfeuchtigkeit. Weil formula_2 ungefähr proportional zum Luftdruck ist, lässt sich der Brechungsindex mit einem Michelson-Interferometer bestimmen, dessen einer Arm durch ein Gebiet mit variablem Luftdruck reicht. Aus der entstehenden optischen Weglängendifferenz bestimmt man mit bekanntem Druckunterschied den Brechungsindex. Die Wärmeleitfähigkeit formula_5 von Luft ist unter Normalbedingungen formula_6. Luftverunreinigung und Luftreinhaltung. Die Luftverschmutzung ist der auf die Luft bezogene Teilaspekt der Umweltverschmutzung. Gemäß dem Bundes-Immissionsschutzgesetz ist Luftverunreinigung eine Veränderung der natürlichen Zusammensetzung der Luft, insbesondere durch Rauch, Ruß, Staub, Aerosole, Dämpfe oder Geruchsstoffe. Von Bedeutung sind erhöhte Ozonwerte für den Smog und Schwefeldioxidkonzentrationen für den sauren Regen, aber auch Konzentrationen von Stickoxiden und flüchtigen organischen Verbindungen, die ihrerseits wiederum einen großen Einfluss auf die Chemie der Luft haben. In den meisten Industrieländern ist die lokale Luftverschmutzung aufgrund von gesetzlichen Vorgaben zur Luftreinhaltung in den letzten Jahrzehnten stark zurückgegangen. Gleichzeitig hat der Ausstoß von Treibhausgasen wie Kohlenstoffdioxid weiter zugenommen. Die lokale und regionale Luftverschmutzung ist für Länder der Dritten Welt sowie Schwellenländer wie China noch ein erhebliches Problem. Die Effekte von Spurengasen sind vielfältig und beeinflussen sich in großem Maße auch gegenseitig. Beispielsweise spielt Ozon durch seine Rolle in der Hydroxylradikalchemie in bodennahen Luftschichten nicht nur die Rolle eines Schadstoffs und Treibhausgases, es ist auch essentiell für die Selbstreinigungsmechanismen der Atmosphäre insgesamt. Kulturelle Bedeutung. Die griechischen Naturphilosophen hielten Luft für eines der vier Grundelemente, aus denen alles Sein besteht. Dem Element Luft wurde der Oktaeder als einer der fünf platonischen Körper zugeordnet. Ludologie. Ludologie (lateinisch ' „Spiel“ und "lógos" im Sinne von ‚Lehre‘, ‚Sinn‘, ‚Rede‘, ‚Vernunft‘) ist die „Lehre“ vom Spielen: Gesellschaftsspiel, analoges Spiel und digitalen Spiel. Begriff. Die Ludologie bearbeitet einen Teilbereich der Spielwissenschaft. Im Unterschied zu der älteren, breiter angelegten Spielwissenschaft fokussiert sich das Interesse der aus dem angelsächsischen Bereich transferierten Disziplin Ludologie vornehmlich auf das digitale Spiel. Sie bezeichnet den noch jungen, transdisziplinären Forschungszweig, der sich an der Schnittstelle von Kultur- und Strukturwissenschaften mit den ästhetischen, kulturellen, kommunikativen, technischen und strukturellen Aspekten des Phänomens "„Spiel“" auseinandersetzt. Den Schwerpunkt der Betrachtung bilden dabei Geschichte, Entwicklung, Analyse und Theorie digitaler Spiele. Der Begriff ist vor allem im angelsächsischen Sprachraum gebräuchlich und wird meist synonym zum Terminus (Video-)Spieltheorie verwendet. Im engeren Kontext der "„Ludologie vs. Narratologie“"-Debatte dagegen bezeichnet Ludologie das Paradigma, in dem das Prinzip der Simulation als das Kernkonzept des Spiels aufgefasst wird. Aus diesem Grund findet alternativ der neutrale Begriff Spieleforschung (engl. Game Studies) Verwendung. Der engere Spielbegriff der "Ludologie" zeigt sich auch in der Reduzierung auf das historische Wort „Ludus“, wohingegen die "Spielwissenschaft" den gesamten Phänomenkomplex umfasst und erforscht, der sich nach der von ihr erarbeiteten Systematik über die Kategorien ludus (Kinderspiel, Brettspiel), Agon (= Kampfspiel, Sportspiel), Alea (Glücksspiel, Hasardspiel), Mimikri (Maskenspiel, Marionettenspiel), Circenses (Zirkusspiele, Schauspiel) und Ilinx-(= Ritual-)Spiele erstreckt. Geschichte. Nachdem bereits die Philanthropen mit GutsMuths oder Basedow im 18. Jahrhundert systematische spielwissenschaftliche Forschung betrieben und Forscher unterschiedlicher Disziplinen wie Herbert Spencer (1865), Moritz Lazarus (1883), Karl Groos (1899) oder Jean Piaget (1975) sich im 19. und 20. Jahrhundert intensiv mit dem Phänomen Spiel auseinandergesetzt hatten, erreichte die Spielwissenschaft mit den Analysen und Erkenntnissen von Friedrich Schiller, Johan Huizinga oder Frederik Jacobus Johannes Buytendijk erste Höhepunkte der wissenschaftlichen Spieltheorie. Daran konnte die mit dem Aufkommen der Videospiele und des Computerzeitalters entstandene Ludologie anknüpfen und ihren Schwerpunkt im Bereich des digitalen Spiels finden. Erst gegen Ende der 1990er Jahre begannen sich Veröffentlichungen zur Thematik zu häufen, und es formierte sich die Basis einer neuen wissenschaftlichen Disziplin. Dies war maßgeblich der zunehmenden Etablierung digitaler Spiele, ihren Auswirkungen auf die Gegenwartskultur sowie ihrer wachsenden wirtschaftlichen Bedeutung zu verdanken. Die Bezeichnung "Ludologie" wurde 1999 durch einen Artikel von Gonzalo Frasca einem breiteren Fachpublikum bekannt. Status. Die Ludologie als eigenständiger Forschungszweig befindet sich noch im Frühstadium. Sie befasst sich in weiten Teilen zunächst mit Fragen der Kanonbildung und der Einigung auf grundlegende Begrifflichkeiten und Kategorien. Schwierig gestaltet sich dies nicht nur durch die teils hohe Interdisziplinarität, sondern auch aufgrund der vielfältigen Ausprägungen bereits fest im Alltagsgebrauch verschiedener Sprachen verankerter Termini, deren Bedeutung im wissenschaftlichen Kontext neu festgelegt werden muss. Als prägnantes Beispiel dafür mag der Begriff "Spiel" selbst dienen, über dessen klare Abgrenzung man sich alles andere als einig ist. Wesentliche Beiträge zur Klärung der Definitionsfrage haben 2003 Salen/Zimmerman und Jesper Juul (nicht zu verwechseln mit seinem Namensvetter) geleistet. Der wissenschaftliche Diskurs wird derzeit überwiegend von Akademikern aus angelsächsischen und den nordischen Ländern dominiert. Insbesondere sind deren Bemühungen, für sowohl Forschung als auch Lehre und die Industrie geeignete Institutionen zu schaffen und zu koordinieren, bereits weit fortgeschritten. Neben der hohen Anzahl spielespezifischer Studiengänge, vornehmlich in Großbritannien und den USA, ist dabei vor allem die Einrichtung des "Center for Computer Games Research" der IT-Universität Kopenhagen (ITU) zu erwähnen, das als Denkfabrik der europäischen Ludologie fungiert. Im deutschsprachigen Raum dagegen ist die Selbstorganisation der Spieleforscher bisher noch eher unverbindlich und multidisziplinär strukturiert. Auch gibt es weniger Industriekontakte, und die Wirkungsforschung besitzt aus politischen Gründen einen höheren Stellenwert als im Ausland. Die Formierung der "AG Computerspiele" der "Gesellschaft für Medienwissenschaft e.V." ist allerdings ein Anzeichen dafür, dass sich daran in absehbarer Zeit etwas ändern könnte. Erste deutsche Professuren mit entsprechendem Schwerpunkt wurden im Dezember 2002 am "Institut für Simulation und Grafik" der Universität Magdeburg und im März 2006 auch am "Institut für Medien- und Kommunikationswissenschaft" der Technischen Universität Ilmenau besetzt. Ludologie vs. Narratologie. Im Zuge ihrer Geburtswehen leistete sich die Spielforschung eine hitzig geführte Grundsatzdebatte, deren Auswirkungen in Form von ideologischen Grabenkämpfen teilweise immer noch spürbar sind. Narratologen. Ausgangspunkt war der Ansatz einiger Literatur- und Medienwissenschaftler, wie Janet Murray und Celia Pearce, ihr traditionelles Instrumentarium zur Analyse von Texten auf diejenige digitaler Spiele zu übertragen. Zu diesem Zweck werden Spiele als eine weitere Form von Text deklariert, die dann den bekannten Gesetzmäßigkeiten folgt. "Text" wird hierbei als kommunikatives Generalkonzept verstanden, als universelles Mittel zur "Konstruktion von Sinn" und umfasst somit auch Theater, Film und beliebige andere Erzählformen; selbst ein Spiel wie Schach wird in diesem Paradigma als Erzählung angesehen. Ludologen. Jedes Spiel zeichnet sich danach durch folgende Elemente aus: "Regeln" (das explizite Regelwerk, aber auch implizite Regeln der Spielmechanik), die "Spielwelt" (ein materielles/semiotisches System) und das "Gameplay" (die Ereignisse, welche sich aus der Anwendung der Regeln auf die Spielwelt und die Aktionen der Spieler ergeben). Diskurs. Die Heftigkeit der ursprünglichen Debatte erklärt sich in erster Linie aus ihrer Wahrnehmung als Schlüsselkonflikt um die Deutungshoheit des Phänomens "Spiel". Die Position der Narratologen wurde von den Ludologen als Okkupationsversuch durch das Überstülpen unzulässig verallgemeinerter Konzepte eines fremden Fachbereichs angesehen, was in der Folge zu einer bewussten Radikalisierung und Polemisierung auch der Argumentation einiger Simulationisten führte. Exemplarisch hierfür ist ein in diesem Kontext zu relativer Berühmtheit gelangtes Zitat von Markku Eskelinen: "If I throw a ball at you, I don't expect you to drop it and wait until it starts telling stories." ("Wenn ich Ihnen einen Ball zuwerfe, erwarte ich von Ihnen nicht, dass Sie ihn fallen lassen und warten, bis er anfängt, Geschichten zu erzählen.") Vorherrschend in der internationalen Spieleforschung ist mittlerweile eine gemäßigte ludologische Sichtweise. Diese erkennt neben der Simulation als Grundprinzip des Spiels die Nützlichkeit einer traditionell textuellen Analyse von Spielinhalten zwar durchaus an, allerdings nur dann, wenn auch originär narrative Elemente vorhanden sind, was für viele Spiele, wie z.B. Schach oder Tetris, verneint wird. Landkreis Böblingen. Der Landkreis Böblingen ist ein Landkreis in Baden-Württemberg. Er gehört zur Region Stuttgart im Regierungsbezirk Stuttgart. Lage. Im Westen des Landkreises liegt das Obere Gäu (hier auch "Korngäu" genannt) und ein Teil des Heckengäus, der bis zu den Ausläufern des Schwarzwalds reicht. Im Süden gehören große Teile des Schönbuchs zum Kreisgebiet, des ersten Naturparks in Baden-Württemberg. Auch im Norden gibt es neben den offenen Landschaften der Gäue Waldgebiete, namentlich als Glemswald zusammengefasst. Größere Flüsse oder Seen sind im Kreisgebiet nicht vorhanden. Im südlichen Kreisgebiet entspringen die Aich und die Würm. Die Bäche und kleineren Flussläufe münden alle in den Neckar, direkt oder über die Enz. Der geographisch höchste Punkt befindet sich auf dem Kühlenberg nahe Oberjettingen auf, der tiefste liegt bei in der Glemsniederung an der nördlichen Kreisgrenze. Orte. Die Liste der Orte im Landkreis Böblingen enthält die ungefähr 150 Orte (Städte, Dörfer, Weiler, Höfe und Wohnplätze) des Landkreises Böblingen im geographischen Sinne. Nachbarkreise. Der Landkreis Böblingen grenzt im Uhrzeigersinn im Nordosten beginnend an den Landkreis Ludwigsburg, an den Stadtkreis Stuttgart sowie an die Landkreise Esslingen, Reutlingen, Tübingen, Calw und Enzkreis. Natur. Der Landkreis Böblingen besitzt die nachfolgenden Naturschutzgebiete. Nach der Schutzgebietsstatistik der Landesanstalt für Umwelt, Messungen und Naturschutz Baden Württemberg (LUBW) stehen 732,59 Hektar der Kreisfläche unter Naturschutz, das sind 1,19 Prozent. Geschichte. Der Landkreis Böblingen geht auf das alte gleichnamige württembergische Oberamt zurück, das schon zu Zeiten des Herzogtums Württemberg errichtet wurde. Im Laufe der Geschichte wurde es mehrmals verändert und 1938 in den Landkreis Böblingen überführt. Damals wurden nahezu alle Gemeinden des aufgelösten Oberamts Herrenberg sowie einige Gemeinden des Amtsoberamtes Stuttgart dem Landkreis Böblingen angegliedert. Am 1. September 1971 wurde der Landkreis um die Gemeinde Dachtel des Landkreises Calw vergrößert. Am 1. Januar 1973 kamen bei der Kreisreform 15 Gemeinden des Landkreises Leonberg dazu – darunter die damaligen bzw. späteren Städte Leonberg, Weil der Stadt, Renningen und Rutesheim – (die anderen kamen entweder zum Landkreis Ludwigsburg oder zum Enzkreis im Regierungsbezirk Karlsruhe) sowie die Gemeinde Deckenpfronn des Landkreises Calw. Am 1. Januar 1975 wurden die Stadt Leinfelden und die Gemeinde Musberg an den Landkreis Esslingen abgegeben. Damit erreichte der Landkreis seinen heutigen Umfang. Seit Abschluss der Gemeindereform am 1. Januar 1975 umfasst der Landkreis Böblingen 26 Gemeinden, darunter neun Städte und hiervon wiederum vier „Große Kreisstädte“ (Böblingen, Herrenberg, Leonberg und Sindelfingen). Größte Stadt des Kreises ist Sindelfingen, kleinste Gemeinde ist Deckenpfronn. Einwohnerentwicklung. Die Einwohnerzahlen sind Volkszählungsergebnisse (¹) oder amtliche Fortschreibungen des Statistischen Landesamts Baden-Württemberg (nur Hauptwohnsitze). Im Jahr 2010 war der Landkreis Böblingen – bedingt durch das relativ niedrige Durchschnittsalter der Bevölkerung, die höhere Lebenserwartung und die überdurchschnittliche Geburtenhäufigkeit – einer der wenigen Kreise mit einer positiven Geburtenbilanz in Baden-Württemberg. Politik. Der Landkreis wird vom Kreistag und vom Landrat verwaltet. Kreistag. Der Kreistag wird von den Wahlberechtigten im Landkreis auf fünf Jahre gewählt. Die Kommunalwahl am 25. Mai 2014 führte zu folgendem vorläufigen Ergebnis. Das amtliche Endergebnis wird vom Statistischen Landesamt gegen Ende des Jahres bekannt gegeben. Landrat. Der Kreistag wählt den Landrat für eine Amtszeit von 8 Jahren. Dieser ist gesetzlicher Vertreter und Repräsentant des Landkreises sowie Vorsitzender des Kreistags und seiner Ausschüsse. Er leitet das Landratsamt und ist Beamter des Kreises. Zu seinem Aufgabengebiet zählen die Vorbereitung der Kreistagssitzungen sowie seiner Ausschüsse. Er beruft Sitzungen ein, leitet diese und vollzieht die dort gefassten Beschlüsse. In den Gremien hat er kein Stimmrecht. Sein Stellvertreter ist der Erste Landesbeamte, der nicht Kreis-, sondern Landesbeamter ist. Die Oberamtmänner des ehemaligen Oberamts Böblingen sind im Artikel Oberamt Böblingen dargestellt. Landtagsabgeordnete. Bei Landtagswahlen ist das Kreisgebiet in die Wahlkreise 5 (Böblingen) und 6 (Leonberg) aufgeteilt, wobei ersterer den Osten des Landkreises samt Böblingen und Sindelfingen umfasst, letzterer den Norden, Süden und Westen mit Leonberg und Herrenberg. In beiden Wahlkreisen dominiert seit längerer Zeit die CDU klar vor der SPD. Der Wahlkreis 5 (Böblingen) wird im aktuellen Landtag durch Paul Nemeth (CDU) und Florian Wahl (SPD) vertreten, der Wahlkreis 6 (Leonberg) durch Sabine Kurtz (CDU) und Bernd Murschel (Grüne). Bundestagsabgeordnete. Der Bundestagswahlkreis Böblingen umfasst den gesamten Landkreis Böblingen ohne Waldenbuch und Steinenbronn. Im aktuellen Bundestag der 18. Wahlperiode vertreten den Wahlkreis Böblingen Clemens Binninger (CDU) und Richard Pitterle (DIE LINKE). Wappen. Das Wappen des Landkreises Böblingen zeigt in Gold unter einer liegenden schwarzen Hirschstange eine dreilatzige rote Fahne an drei schwarzen Trageringen. Das Wappen wurde 18. April 1947 angenommen und dem neuen vergrößerten Landkreis Böblingen am 30. August 1974 vom Innenministerium Baden-Württemberg neu verliehen. Die Fahne ist die Wappenfigur der Pfalzgrafen von Tübingen, die u. a. die Städte Böblingen, Sindelfingen und Herrenberg gründeten, ehe diese an das Herzogtum Württemberg kamen. Die württembergischen Hirschstangen symbolisieren die sehr frühe Zugehörigkeit des Kreisgebiets zu Württemberg. Von 1927 bis 1947 prägte das Sportflugzeug Kl 25 das Wappen des Oberamts und Landkreises Böblingen. Kreispartnerschaften. Der Kreis unterhält Partnerschaften zum Kreis Timiș in Rumänien und zum Bezirk Kaunas in Litauen. Verkehr. Die erste Strecke, die die Württembergische Staatsbahn in diesem Gebiet baute, war 1868/69 die Schwarzwaldbahn von Stuttgart über Leonberg nach Weil der Stadt, die 1872 bis Calw verlängert wurde. Erst 1879 folgte die Gäubahn von Stuttgart damals bis Eutingen im Gäu. Die Rankbachbahn als Querverbindung zwischen diesen beiden Strecken von Böblingen über Sindelfingen nach Renningen kam 1914/15 hinzu. Eine Querverbindung von der Gäubahn ins Neckartal stellte 1909 die Ammertalbahn Herrenberg–Tübingen her. Die Gegend südlich der Kreisstadt wurde 1910/11 durch die Schönbuchbahn Böblingen–Dettenhausen erschlossen; sie wird ab 1996 im Auftrag der Kommunen von der Württembergischen Eisenbahn-Gesellschaft (WEG) betrieben. Eine Zweigstrecke von der Station Schönaicher First nach Schönaich wurde 1922 durch die Deutsche Reichsbahn eröffnet, die ab 1928 mit der Siebenmühlentalbahn von Leinfelden nach Waldenbuch auch das Siebenmühlental erschloss. Weissach, die nördlichste Gemeinde des Kreises, ist seit 1906 Endpunkt der von den Württembergischen Nebenbahnen AG erbauten Strohgäubahn. Allerdings lag der Personenverkehr auf weiteren 20 Kilometern rund 30 Jahre lang ebenfalls still. Verantwortlich für den Öffentlichen Personennahverkehr ist der Verkehrs- und Tarifverbund Stuttgart. Durch das Kreisgebiet führt die Bundesautobahn 8 Stuttgart–Karlsruhe sowie die A 81 Stuttgart–Singen (Hohentwiel). Ferner wird es durch Bundes-, Landes- und Kreisstraßen erschlossen. Die wichtigsten sind die B 14 Rottweil–Stuttgart und die B 295 Calw–Stuttgart. Schulen. Der Landkreis Böblingen ist Schulträger der folgenden Beruflichen Schulen: Kaufmännische Schule Böblingen und Mildred-Scheel-Schule Böblingen (letztere unter anderem mit Biotechnologischem Gymnasium und Ernährungswissenschaftlichem Gymnasium), Hauswirtschaftliche und Landwirtschaftliche Schule Herrenberg, Gewerbliche, Kaufmännische und Hauswirtschaftliche Schule Leonberg und Gottlieb-Daimler-Schule I und Gottlieb-Daimler-Schule II (mit der Akademie für Datenverarbeitung) im Technischen Schulzentrum Sindelfingen, ferner der Schulen für Geistigbehinderte mit Schulkindergarten in Böblingen (Käthe-Kollwitz-Schule), Herrenberg (Friedrich-Fröbel-Schule), Leonberg (Karl-Georg-Haldenwang-Schule) und Sindelfingen (Bodelschwinghschule), der Schule für Körperbehinderte mit Schulkindergarten in Sindelfingen und der Schule für Sprachbehinderte und Kranke in längerer Krankenhausbehandlung mit Schulkindergarten für Sprachbehinderte in Sindelfingen. Zusammen mit den Städten Böblingen und Sindelfingen ist der Landkreis Böblingen Träger der Volkshochschule. Krankenhäuser. Die beiden Kreiskrankenhäuser in Herrenberg und Leonberg wurden zunächst seit 2005 in Form einer Eigengesellschaft des Landkreises Böblingen von der Kreiskliniken Böblingen gemeinnützige GmbH betrieben. Das Krankenhaus in Böblingen und das frühere städtische Krankenhaus in Sindelfingen wurden in der Klinikum Sindelfingen/Böblingen gGmbH betrieben. Beide Gesellschaften gehörten dem Klinikverbund Südwest an, an dem die Landkreise Calw und Böblingen beteiligt sind. Nach dem Ausstieg der Stadt Sindelfingen aus dem Klinikverbund Südwest werden alle vier Krankenhäuser im Landkreis Böblingen (Böblingen, Herrenberg, Leonberg und Sindelfingen) in der Kreiskliniken Böblingen gGmbH betrieben, an der der Kreis die Mehrheit hält. Der Klinikverbund Südwest ist ein Zusammenschluss der Krankenhäuser Böblingen, Calw, Herrenberg, Leonberg, Nagold und Sindelfingen. Gemeinsam mit dem Therapiezentrum im Klinikverbund Südwest, dem Medizinischen Gesundheitszentrum und der Service GmbH Schwarzwald zählt er zu den größten kommunalen Gesundheitseinrichtungen in Süddeutschland. Mittelfristig sollen die bestehenden Kliniken Böblingen und Sindelfingen aufgegeben werden und durch einen Klinikneubau auf dem Flugfeld in Böblingen ersetzt werden. Abfallwirtschaftsbetrieb. Der Abfallwirtschaftsbetrieb des Landkreises Böblingen wird in Form eines Eigenbetriebs geführt und ist mit seinen rund 240 Mitarbeiterinnen und Mitarbeitern ein mittelständischer Komplettanbieter für die Abfallentsorgung und Verwertung. Er bedient im Kreis rund 170.000 private Haushalte sowie eine große Zahl von Gewerbebetrieben bei der Entsorgung und Weiterverwertung von Abfällen und betreibt die Wertstoffhöfe in den einzelnen Kreisgemeinden. Als einer von drei Landkreisen in Baden-Württemberg setzt der Landkreis Böblingen zur Sammlung von Wertstoffen das Wertstoffhofkonzept („Bringsystem“) anstelle des Gelben Sacks um. Sonstiges. Der Landkreis weist das höchste Verdienstniveau in Baden-Württemberg auf. Das durchschnittliche Arbeitnehmerentgelt (brutto einschl. Arbeitgeber-Sozialbeiträge) betrug 2009 42.645 Euro. Der Kreis ist Träger der Kreissparkasse Böblingen. Städte und Gemeinden. Vereinbarte Verwaltungsgemeinschaften und Gemeindeverwaltungsverbände ! Stadt || Wappen || Flächekm² || Einwohner31. Dezember 2013 || Ew-DichteEw je km² || Höheüber NN ! Gemeinde || Wappen || Flächekm² || Einwohner31. Dezember 2013 || Ew-DichteEw je km² || Höheüber NN In der Tabelle stehen die Gemeinden des alten Landkreises Böblingen vor der Gemeindereform. Alle Gemeinden, mit Ausnahme von Leinfelden und Musberg, welche heute Teil des Landkreises Esslingen sind, gehören auch heute noch zum Landkreis Böblingen. Landkreis Böblingen vor der Kreisreform Kfz-Kennzeichen. Am 1. Juli 1956 wurde dem Landkreis bei der Einführung der bis heute gültigen Kfz-Kennzeichen das Unterscheidungszeichen "BB" zugewiesen. Es wird durchgängig bis heute ausgegeben. Seit dem 25. April 2013 ist auch das Unterscheidungszeichen "LEO" (Leonberg) erhältlich. Einzelnachweise. Boblingen Lichtjahr. Das Lichtjahr ist ein Längenmaß außerhalb des Internationalen Einheitensystems. Verwendung. Das Lichtjahr ist eine astronomische Längeneinheit. Sie wird oft zur Angabe kosmischer Entfernungen in der astronomischen Öffentlichkeitsarbeit benutzt. Im wissenschaftlichen Umfeld wird jedoch in Parsec gerechnet. Definition. Ein Lichtjahr ist die Strecke, die eine elektromagnetische Welle wie das Licht in einem julianischen Jahr im Vakuum zurücklegt. Das sind 9,461 Billionen Kilometer (9,461 · 1012 km). Es gibt mehrere Definitionen für ein Jahr. So gibt es das tropische Jahr, das gregorianische Jahr, das julianische Jahr und das siderische Jahr. Diese weichen bis zu 0,005 Prozent voneinander ab, was bei genaueren Angaben zu Divergenzen führt. Daher hat die Internationale Astronomische Union (IAU) empfohlen, ein „Jahr“ ohne genauere Angaben als julianisches Jahr (= exakt 365,25 Tage) auszulegen. Damit und mit der Lichtgeschwindigkeit im Vakuum ist das Lichtjahr exakt definiert. Da der Meter im SI über die Lichtgeschwindigkeit definiert ist (299.792.458-ster Teil einer Lichtsekunde), entspricht ein Lichtjahr einer exakten ganzen Zahl von Metern. Analog zum Lichtjahr sind die Einheiten Lichtsekunde, Lichtminute, Lichtstunde und Lichttag definiert. Diese sind über die Lichtgeschwindigkeit (beziehungsweise die Definition des Meters im Internationalen Einheitensystem) exakt festgelegt. Die Einheit Lichtjahr ist mit verschiedenen dezimalen Vielfachen (SI-Präfixen) in Verwendung, beispielsweise kLj oder MLj. Link (Einheit). link ist eine nicht SI-konforme Einheit der Länge aus dem angloamerikanischen Maßsystem. Der englische Name „link“ steht für „Kettenglied“. Definition. 1 "link" = 0,22 yard = 0,66 feet = 7,92 inch = 0,201168 m = 20,1168 cm 1 statute mile = 8 furlong = 80 chain = 320 rod = 8000 "link" Liter. Der (außerhalb der Schweiz auch: das) Liter ist eine Einheit für das Volumen und wird durch das Einheitenzeichen „l“ symbolisiert oder mit „Ltr.“ abgekürzt. Ein Liter entspricht einem Kubikdezimeter (dm³). Ein Würfel mit einer Kantenlänge von 10 cm hat demnach ein Volumen von einem Liter. Der Liter gehört zwar nicht zum Internationalen Einheitensystem (SI), ist zum Gebrauch mit dem SI aber zugelassen. Durch nationale Gesetze ist der Liter eine gesetzliche Maßeinheit. Schreibweise. Der deutsche Einheitenname „Liter“ [, auch:] stammt von französisch "litre" [aus mittelfranzösisch "litron" (ein Hohlmaß), mittellateinisch "litra", griechisch "lítra" = Pfund]. Grundsätzlich werden im Internationalen Einheitensystem (SI) die Einheitenzeichen kleingeschrieben, es sei denn, dass der Name der Einheit von dem Eigennamen einer Person abgeleitet wurde. In diesem Fall wird der erste Buchstabe des Zeichens großgeschrieben. Dementsprechend ist das Einheitenzeichen für den Liter ein kleines „l“, da der Einheitenname „Liter“ nicht von einem Eigennamen abgeleitet wurde. Das große „L“ wurde von der CGPM ausnahmsweise als alternatives Einheitenzeichen für den Liter zugelassen, um Verwechslungen des Buchstabens „l“ mit der Ziffer „1“, die bei manchen Schriftarten auftreten können, zu vermeiden, und ist eher im englischen und französischen Sprachraum gebräuchlich. ISO und IEC verwenden jedoch ausschließlich das ursprüngliche Einheitenzeichen „l“. IUPAC und DIN 1301-1 lassen allerdings beide Schreibweisen zu. Gelegentlich wird zur Unterscheidung des Einheitensymbols von der Ziffer „1“ oder dem Großbuchstaben „I“ auch ein kleines „l“ in Schreibschrift (ℓ) verwendet, der zugehörige Unicode-Codepunkt für das „ℓ“ ist U+2113. Der Einheitenname „Liter“ war früher nach DIN 1301-1 sächlich. Diese Schreibweise deckte sich allerdings nicht mehr mit dem gemeinsprachlichen Gebrauch. Der Duden etwa erwähnt die sächliche Form nur an zweiter Stelle. Mit der DIN 1301-1:2010-10 wurde diese Festlegung gegenüber der DIN 1301-1:2002-10 geändert; der Einheitenname „Liter“ ist nun als männlich festgelegt. Präfixe. Ein Würfel mit einer Kantenlänge von 10 cm hat ein Volumen von einem Liter. Geschichte. 1793 wurde der Liter in Frankreich als neue „Republikanische Maßeinheit“ (im Zusammenhang mit dem Metrischen System) eingeführt und einem Kubikdezimeter gleichgesetzt. 1879 übernahm das CIPM die französische Liter-Definition und schrieb die Verwendung des l (Kleinbuchstabe l) als Symbol vor. 1901 wurde der Liter auf der dritten CGPM umdefiniert zu jenem Volumen, das 1 kg reines Wasser bei der Temperatur seiner höchsten Dichte unter Normaldruck (1013,25 hPa) hat. Der Liter war damit etwa 1,000028 dm³ groß (ursprünglich waren 1,000027 dm³ für die Umrechnung angegeben). Aufgrund der neuen Aufgabe für diese Maßeinheit, Masse und Volumen über eine spezielle Messgröße des Wassers zu koppeln, hatte reines Wasser unter diesen Bedingungen zwar immer noch eine Dichte von 999,975 kg/m³, aber nunmehr genau 1,0000 kg/l. Später legte man die Definition auf die Wassertemperatur von 4 °C fest, die nicht die Temperatur der höchsten Wasserdichte ist (tatsächlich etwa 3,98 °C). Somit hatte reines Wasser wieder eine geringfügig kleinere Dichte als 1,0000 kg/l. 1964 wurde auf der 12. CGPM die Definition von 1793 wiederhergestellt, seither ist ein Liter wieder exakt ein Kubikdezimeter und Wasser hat wie vor 1901 eine Dichte von 0,999975 kg/l. 1979 wurde auf der 16. CGPM für den Liter das alternative Symbol L (Großbuchstabe L) zugelassen, gleichzeitig wurde der Wunsch geäußert, in Zukunft nur eines der beiden Symbole (Kleinbuchstabe oder Großbuchstabe) zu behalten. Zuletzt 1990 konnte nur festgestellt werden, dass es für eine Entscheidung noch zu früh wäre. Lumensekunde. Die Einheit wird auch Talbot (nach William Henry Fox Talbot) oder Lumberg genannt, jedoch sind diese speziellen Namen weder von den Organen der Internationalen Meterkonvention für den Gebrauch zusammen mit SI-Einheiten angenommen, noch in Deutschland gesetzliche Einheiten im Messwesen. Gleichzeitig mit der Einheit Lumberg wurde auch das Lumerg geschaffen, dass entsprechend dem Verhältnis zwischen Erg und Joule definiert wurde als 1 lumerg = 10−7 lms. In der Praxis wird oft die Lumenstunde (lmh) als Maß verwendet, welche die Menge von einem Lumen über eine Stunde ist. Lux (Einheit). Das Lux ist die SI-Einheit der Beleuchtungsstärke. Die Beleuchtungsstärke auf einer beleuchteten Fläche gibt an, welcher Lichtstrom (gemessen in Lumen, lm) auf eine Flächeneinheit (gemessen in Quadratmetern, m2) fällt. Ihre SI-Einheit ist daher Lumen durch Quadratmeter (lm/m2). Diese abgeleitete Einheit trägt auch den Namen Lux, ihr Einheitenzeichen ist lx. Der Name leitet sich von der lateinischen Bezeichnung für "Licht" ab. Die „senderseitige“ Entsprechung zur Beleuchtungsstärke, die spezifische Lichtausstrahlung, hat auch die SI-Einheit lm/m2, für sie ist in der offiziellen Dokumentation der Name Lux jedoch nicht vorgesehen. Beleuchtungsstärke. Die Beleuchtungsstärke ist die photometrische Entsprechung zur radiometrischen Größe Bestrahlungsstärke "E"e (gemessen in Watt durch Quadratmeter, W/m2). Fällt elektromagnetische Strahlung auf die Fläche und erzeugt dort die Bestrahlungsstärke "E"e, so lässt sich messtechnisch oder rechnerisch die von dieser Strahlung verursachte Beleuchtungsstärke in Lux ermitteln, indem die einzelnen Wellenlängen der Strahlung mit der jeweiligen Empfindlichkeit des Auges bei der betreffenden Wellenlänge gewichtet werden. Zur Berechnung der Beleuchtungsstärke aus gegebenen anderen photometrischen Größen (z. B. Lichtstärke) siehe die folgenden oder die im Artikel →Beleuchtungsstärke gegebenen Beispiele. Die Beleuchtungsstärke wird mit einem Luxmeter gemessen. An der Physikalisch-Technischen Bundesanstalt (PTB) können Beleuchtungsstärken zwischen 0,001 lx und 100.000 lx realisiert werden. Dies dient u. a. der Kalibrierung von Beleuchtungsstärkemessgeräten. Beispiel 1. Der Neigungswinkel formula_19 der Empfangsfläche ist der Winkel zwischen der Flächennormalen und der Strahlrichtung. Die Lichtstärke einer Kerze beträgt etwa ein Candela (cd). Sie erzeugt im Abstand von 2 m auf einer senkrecht zur Strahlrichtung stehenden Empfangsfläche die Beleuchtungsstärke "Ergebnis:" Von einer Kerze im Abstand von ca. 2 m senkrecht beleuchtete Gegenstände erscheinen ungefähr so hell beleuchtet wie im senkrecht auftreffenden Licht des Vollmonds (siehe auch Abschnitt →Beispiele typischer Beleuchtungsstärken). Beispiel 2. Die Bestrahlungsstärke "E"v, die von einer isotrop strahlenden Lichtquelle auf einer in 3 m Abstand senkrecht zur Strahlrichtung stehenden Empfangsfläche erzeugt wird, betrage formula_21. Integriert über eine die Lichtquelle umgebende Kugel mit dem Radius "r" = 3 m ergibt sich der von der Lichtquelle erzeugte Lichtstrom "Φ"v zu formula_22. Die Lichtstärke "I"v der Lichtquelle beträgt somit in allen Richtungen formula_23. "Anmerkung:" Die Rechnung wird dadurch stark vereinfacht, dass die Lichtquelle als isotrop strahlend vorausgesetzt wurde. Die bei der Berechnung des Lichtstromes im Allgemeinen notwendige Integration einer variablen Beleuchtungsstärke über die Kugelfläche konnte so durch eine einfache Multiplikation der konstanten Beleuchtungsstärke mit der gesamten Kugelfläche ersetzt werden. Die bei der Berechnung der Lichtstärke eigentlich für jede betrachtete Richtung nötige Bildung eines Differentialquotienten aus dem variablen Lichtstrom und dem differentiellen Raumwinkel konnte durch eine für alle Richtungen gültige einfache Bildung des Quotienten aus dem Lichtstrom und dem vollen Raumwinkel ersetzt werden. Beispiel 3. Umrechnen der Einheiten Candela, Lumen und Lux in Abhängigkeit vom Strahlungskegel und der Entfernung. Eine Leuchtdiode sende Licht in einem Lichtkegel mit dem Öffnungswinkel "α" = 30° (entsprechend einem Raumwinkel von "Ω" = 0,21 sr) aus. Für alle Richtungen innerhalb des Kegels betrage die Lichtstärke "I"v = 6 cd. Außerhalb dieses Lichtkegels werde kein Licht abgestrahlt. Der in den Kegel abgegebene Lichtstrom "Φ"v beträgt formula_24 Dies ist gleichzeitig der gesamte von der Diode erzeugte Lichtstrom, da in andere Richtungen kein Licht abgegeben wird. formula_25 Beispielsweise beleuchtet die Diode im Abstand von 20 cm eine Fläche von 0,21 × 0,04 m² = 0,0084 m². Die Beleuchtungsstärke "E"v auf der Fläche "A" in der Entfernung "r" beträgt formula_15 Beispielsweise wird im Abstand von 0,6 m die Beleuchtungsstärke 17 Lux erzeugt. Linux. Als Linux (dt.) oder GNU/Linux ("siehe" Linux-Namensstreit) bezeichnet man in der Regel freie, unix-ähnliche Mehrbenutzer-Betriebssysteme, die auf dem Linux-Kernel und wesentlich auf GNU-Software basieren. Die weite, auch kommerzielle Verbreitung wurde ab 1992 durch die Lizenzierung des Linux-Kernels unter der freien Lizenz GPL ermöglicht. Einer der Initiatoren von Linux war der finnische Programmierer Linus Torvalds. Er nimmt bis heute eine koordinierende Rolle bei der Weiterentwicklung des Linux-Kernels ein und wird auch als Benevolent Dictator for Life (deutsch "wohlwollender Diktator auf Lebenszeit") bezeichnet. Das modular aufgebaute Betriebssystem wird von Softwareentwicklern auf der ganzen Welt weiterentwickelt, die an den verschiedenen Projekten mitarbeiten. An der Entwicklung sind Unternehmen, Non-Profit-Organisationen und viele Freiwillige beteiligt. Beim Gebrauch auf Computern kommen meist sogenannte Linux-Distributionen zum Einsatz. Eine Distribution fasst den Linux-Kernel mit verschiedener Software zu einem Betriebssystem zusammen, das für die Endnutzung geeignet ist. Dabei passen viele Distributoren und versierte Benutzer den Kernel an ihre eigenen Zwecke an. Linux wird vielfältig und umfassend eingesetzt, beispielsweise auf Desktop-Rechnern, Servern, Mobiltelefonen, Routern, Netbooks, Embedded Systems, Multimedia-Endgeräten und Supercomputern. Dabei wird Linux unterschiedlich häufig genutzt: So ist Linux im Server-Markt wie auch im mobilen Bereich eine feste Größe, während es auf dem Desktop eine noch geringe, aber wachsende Rolle spielt. Linux wird von zahlreichen Nutzern verwendet, darunter private Nutzer, Regierungen und Organisationen wie das Französische Parlament, die Stadt München und das US-Verteidigungsministerium, Unternehmen wie Samsung, Siemens, Google, Amazon, Peugeot usw. Entwicklungen im Vorfeld. Das 1983 von Richard Stallman ins Leben gerufene GNU-Projekt hatte das Ziel, ein Unix-ähnliches, POSIX-kompatibles Betriebssystem zu schaffen. Zwar war bereits Anfang der 90er Jahre eine ansehnliche Menge von Software geschrieben worden, doch steckte der eigentliche Betriebssystem-Kernel noch in einer frühen Phase und entwickelte sich nur langsam. Die ebenso freie Berkeley Software Distribution, die sich in den 80er Jahren entwickelt hatte, war in einen Rechtsstreit mit ungewissem Ausgang verwickelt und war aus diesem Grund ebenso keine Alternative als freies Betriebssystem. Damit stand Anfang der 1990er kein vollständiges, freies System zur Verfügung, welches für Entwickler interessant gewesen wäre. Historische Entwicklung. 1991 begann Linus Torvalds in Helsinki (Finnland) mit der Entwicklung einer Terminal-Emulation, um unter anderem seinen eigenen Computer besser zu verstehen. Mit der Zeit merkte er, dass sich das System immer mehr zu einem Betriebssystem entwickelte; daraufhin kündigte er es in der Usenet-Themengruppe für das Betriebssystem Minix, "comp.os.minix", an. Im September desselben Jahres sollte das System dann auf einem Server den Interessierten zur Verfügung gestellt werden. Dem damaligen FTP-Server-Administrator Ari Lemmke gefiel keiner der von Torvalds vorgeschlagenen Namen "Freax" oder "Buggix", deshalb veröffentlichte er es stattdessen in einem Verzeichnis mit dem Namen Linux. Torvalds war mit diesem Namen zunächst nicht einverstanden, gab seinen Widerstand aber schnell auf, weil er nach eigener Aussage eingestehen musste, dass Linux einfach ein besserer Name war. Linux wurde zu dieser Zeit noch unter einer proprietären Lizenz von Torvalds veröffentlicht, die die kommerzielle Nutzung verbot. Er merkte jedoch bald, dass das den Fortschritt der Entwicklung behinderte. Er wollte allen Entwicklern deutlich mehr Freiraum geben und stellte Linux deshalb im Januar 1992 unter die GNU GPL. Es war nun möglich, Linux in GNU zu integrieren und dies als das erste freie Betriebssystem zu vertreiben. Dieser Schritt machte das System für eine noch größere Zahl von Entwicklern interessanter, da er die Modifizierung und Verbreitung vereinfachte. 1996 veranstaltete Torvalds einen Wettbewerb, um ein Maskottchen für das Betriebssystem zu finden. Dabei legte er im Voraus fest, dass es sich um einen Pinguin handeln sollte. Als Gewinner ging schließlich Tux aus dem Wettbewerb hervor. Die Bezeichnung GNU/Linux. Die Bezeichnung Linux wurde von Torvalds anfänglich nur für den von ihm geschriebenen Kernel genutzt. Dieser wurde anfänglich auf Minix verwendet. Torvalds und die anderen Linux-Autoren lizenzierten 1992 Linux unter der GNU GPL, so dass der Kernel in GNU integriert werden konnte. Diese GNU-Variante wurde schnell zur meist genutzten Variante, da es zu dieser Zeit keinen funktionierenden freien Kernel gab. Als Torvalds und seine Anhänger später auch das gesamte Betriebssystem als "Linux" bezeichneten, versuchte der Gründer des GNU-Projekts, Richard Stallman, bald, den Namen GNU/Linux durchzusetzen, um der Rolle von GNU eine in seinen Augen angemessene Geltung zu verschaffen. Diese Forderung stieß auf unterschiedliche Reaktionen. Während das GNU-Projekt und das Debian-Projekt den Namen annahmen, lehnten die meisten Entwickler und anderen Linux-Distributoren dies ab oder widersetzten sich deutlich. Begründet wurde dies einerseits mit Bequemlichkeit, weil der Name "Linux" als einfacher angesehen wurde, und andererseits mit dem Hinweis, dass mittlerweile eine beachtliche Menge der mit Linux ausgelieferten Software nicht aus dem GNU-Projekt stamme. Entwicklung heute. Die Entwicklung des Linux-Kernels wird noch immer von Torvalds organisiert. Dieser ist dafür bei der gemeinnützigen Linux Foundation angestellt. Andere wichtige Entwickler werden oft von verschiedenen Unternehmen bezahlt. So arbeitet z. B. Andrew Morton im Auftrag von Google am Linux-Kernel und ist dabei im sogenannten "Merge Window" für das Sammeln aller Änderungen und das Weiterleiten an Torvalds zuständig. Neben der Kernel-Entwicklung haben sich auch andere Projekte um das Betriebssystem gesammelt, die es für eine größere Nutzerzahl interessant machten. So ermöglichen grafische Benutzeroberflächen wie KDE oder GNOME einen hohen Benutzerkomfort beim Einsatz als Desktop-System. Verschiedene auf den Desktop ausgelegte Linux-Distributionen vereinfachten die Installation und Konfiguration von Linux so weit, dass sie auch von Anfängern problemlos gemeistert werden können. Eine weltweite Entwickler- und Nutzergemeinde erstellt eine Vielzahl an weiterer Software und Dokumentation rund um Linux, die die Einsatzmöglichkeiten enorm ausgedehnt haben. Hinzu kommt, dass Hersteller proprietärer Software zunehmend einen Markt bei Linux-Anwendern erkennen und mit der Zeit vermehrt Programme für Linux anbieten. Dabei läuft die Entwicklung schwerpunktmäßig freier Software sowohl in selbstorganisierten Projekten, bestehend aus ehrenamtlichen und bezahlten Entwicklern, als auch in teilweise von Unternehmen unterstützten Stiftungen. Gemein ist allen Modellen, dass sie sich stark über das Internet vernetzt haben und dort ein Großteil der Organisation und Absprache stattfindet. Streit um Linux. Schon früh kam es rund um Linux zum Streit. 1992 griff Andrew S. Tanenbaum Linux wegen eines aus seiner Sicht veralteten Designs und eines zu liberalen Entwicklungsmodells an. Später kam Tanenbaum erneut ins Spiel, als Ken Brown an seinem Buch "Samizdat" schrieb und nach Anhaltspunkten suchte, dass Linux nur eine Kopie von Tanenbaums Minix sei. Tanenbaum nahm Linux diesmal in Schutz. Linux habe ein zu schlechtes Design, als dass es abgeschrieben sein könne. Anderen Streit gab es mit erklärten Konkurrenten. Schon früh wurden interne Microsoft-Dokumente (Halloween-Dokumente) bekannt, die aufzeigten, dass Microsoft annahm, Linux sei die größte Gefahr für Windows. Später begann Microsoft mit einer Kampagne, um Windows bei einer Gegenüberstellung mit Linux technisch wie wirtschaftlich gut aussehen zu lassen. Während die Community diese Kampagne recht gelassen sah, starteten vor allem Unternehmen im Linux-Umfeld Gegenkampagnen. Im Herbst 2006 aber kündigten Microsoft und Novell an, bei Interoperabilität und Patentschutz zusammenzuarbeiten, um so die Zusammenarbeit der einzelnen Produkte zu verbessern. Ein anderer Konkurrent, der Unix-Hersteller SCO, erhob wiederum 2003 den Vorwurf, dass bei IBM angestellte Linux-Entwickler Quellcode von SCOs Unix in Linux kopiert hätten. Das Verfahren wurde im Sommer 2007 eingestellt, die SCO Group hat mittlerweile Insolvenz angemeldet und wurde vom Börsenhandel ausgeschlossen. 2013 wurde eine Wiederaufnahme des Verfahrens beantragt. Im Artikel SCO gegen Linux ist der Streit chronologisch dokumentiert. Ebenfalls machte das Markenrecht Linux schon früh zu schaffen. So ließen einige Privatpersonen Mitte der 1990er Jahre den Namen Linux auf sich eintragen, was Torvalds nur mit viel Hilfe wieder rückgängig machen konnte. Er übertrug die Verwaltung der Markenrechte an das Linux Mark Institute, welches wiederum im Jahr 2005 auffiel, als es die Lizenzen für den Markenschutz auf bis zu 5.000 Dollar pro Jahr festlegte. Diese Summe brachte hauptsächlich die Gemüter vieler Community-Projekte in Wallung, woraufhin sich Torvalds genötigt fühlte, in einem offenen Brief Stellung zu nehmen und klarzustellen, dass das Geld schlichtweg benötigt werde, damit das gemeinnützig arbeitende Linux Mark Institute seine eigenen Kosten decken könne. Der Kernel. Struktur des Linux-Kernels im Detail Technik. Die Bezeichnung "Linux" wurde von Linus Torvalds anfänglich nur für den Kernel genutzt, dieser stellt der Software eine Schnittstelle zur Verfügung, mit der sie auf die Hardware zugreifen kann, ohne sie genauer zu kennen. Der Linux-Kernel ist ein in der Programmiersprache C geschriebener monolithischer Kernel. Wichtige Teilroutinen sowie zeitkritische Module sind jedoch in prozessorspezifischer Assemblersprache programmiert. Der Kernel ermöglicht es, nur die für die jeweilige Hardware nötigen Treiber zu laden. Weiterhin übernimmt der Kernel auch die Zuweisung von Prozessorzeit und Ressourcen zu den einzelnen Programmen, die auf ihm gestartet werden. Bei den einzelnen technischen Vorgängen orientiert sich das Design von Linux stark an seinem Vorbild Unix. Der Linux-Kernel wurde zwischenzeitlich auf eine sehr große Anzahl von Hardware-Architekturen portiert. Das Repertoire reicht von eher exotischen Betriebsumgebungen wie dem iPAQ-Handheld-Computer, Navigationsgeräten von TomTom oder gar Digitalkameras bis hin zu Großrechnern wie IBMs System z und neuerdings auch Mobiltelefonen wie dem Motorola A780 sowie Smartphones mit dem Android Betriebssystem. Trotz Modulkonzept blieb die monolithische Grundarchitektur erhalten. Die Orientierung der Urversion auf die verbreiteten x86-PCs führte früh dazu, verschiedenste Hardware effizient zu unterstützen und die Bereitstellung von Treibern auch unerfahrenen Programmierern zu ermöglichen. Die hervorgebrachten Grundstrukturen beflügelten die Verbreitung. Kernel-Versionen. Auf kernel.org werden alle Kernel-Versionen archiviert. Die dort zu findende Version ist der jeweilige Referenzkernel. Auf diesem bauen die sogenannten Distributionskernel auf, die von den einzelnen Linux-Distributionen um weitere Funktionen ergänzt werden. Eine Besonderheit stellt dabei das aus vier Zahlen bestehende und durch Punkte getrennte Versionsnummernschema dar, z. B. "2.6.14.1". Es gibt Auskunft über die exakte Version und damit auch über die Fähigkeiten des entsprechenden Kernels. Von den vier Zahlen wird die letzte für Fehlerbehebungen und Bereinigungen geändert, nicht aber für neue Funktionen oder tiefgreifende Änderungen. Aus diesem Grund wird sie auch nur selten mit angegeben, wenn man beispielsweise Kernel-Versionen vergleicht. Die vorletzte, dritte Zahl wird geändert, wenn neue Fähigkeiten oder Funktionen hinzugefügt werden. Gleiches gilt für die ersten beiden Zahlen, bei diesen müssen die Änderungen und neuen Funktionen jedoch drastischer ausfallen. Seit Version 3.0 (August 2011) wird auf die zweite Stelle verzichtet. Neuerungen im Kernel 2.6. Der stabile Kernel 2.6 wurde ab Dezember 2001 auf Basis des damaligen 2.4er-Kernels entwickelt und weist eine Reihe von Neuerungen auf. Die auffälligste Auswirkung dieser Änderungen ist, dass graphische und interaktive Anwendungen deutlich schneller ausgeführt werden. Eine der wichtigsten Änderungen war dabei die Verbesserung des sogenannten "O(1)-Schedulers", den Ingo Molnár für den 2.6er-Kernel komplett neu konzipierte. Er hat die Fähigkeit, das Zuweisen von Prozessorzeit zu unterschiedlichen Prozessen unabhängig von der Anzahl der Prozesse in konstanter Zeit zu erledigen. Seit Kernel 2.6.23 kommt allerdings stattdessen der sogenannte "Completely Fair Scheduler" zum Einsatz. Eine andere Neuerung stellt die Einführung von Access Control Lists dar, mit deren Hilfe ein sehr fein abgestimmtes Rechtemanagement möglich ist, was vor allen Dingen in Umgebungen mit vielen Benutzern sehr wichtig ist. Ebenso verfügt der neue Kernel über ein deutlich verbessertes System der Dateiüberwachung. In der neuen Version, "Inotify" genannt, gibt die Überwachung bei jeder Operation an einer Datei eine Nachricht ab, was z. B. für Desktop-Suchmaschinen wichtig ist, die daraufhin ihren Index in Bezug auf diese Datei aktualisieren können. Entwicklungsprozess. Die Entwicklung von Linux liegt durch die GPL und durch ein sehr offenes Entwicklungsmodell nicht in der Hand von Einzelpersonen, Konzernen oder Ländern, sondern in der Hand einer weltweiten Gemeinschaft vieler Programmierer, die sich in erster Linie über das Internet austauschen. In vielen E-Mail-Listen, aber auch in Foren und im Usenet besteht für jedermann die Möglichkeit, die Diskussionen über den Kernel zu verfolgen, sich daran zu beteiligen und auch aktiv Beiträge zur Entwicklung zu leisten. Durch diese unkomplizierte Vorgehensweise ist eine schnelle und stetige Entwicklung gewährleistet, die auch die Möglichkeit mit sich bringt, dass jeder dem Kernel Fähigkeiten zukommen lassen kann, die er benötigt. Eingegrenzt wird dies nur durch die Kontrolle von Linus Torvalds und einigen speziell ausgesuchten Programmierern, die das letzte Wort bei der Aufnahme von Verbesserungen und Patches haben. Auf diese Weise entstehen täglich grob 4.300 Zeilen neuer Code, wobei auch täglich ungefähr 1.800 Zeilen gelöscht und 1.500 geändert werden (Angaben nach Greg Kroah-Hartman als Durchschnitt für das Jahr 2007). An der Entwicklung sind derzeit ungefähr 100 Verantwortliche („maintainer“) für 300 Subsysteme beteiligt. Distributionen. Da der Linux-Kernel alleine nicht lauffähig bzw. bedienbar wäre, muss man ihn mit Hilfssoftware zusammen verteilen, beispielsweise den GNU core utilities und vielen anderen Anwendungsprogrammen. Solch eine Zusammenstellung nennt man „Linux-Distribution“, sie ist eine Zusammenstellung verschiedener Software, die je nach Bedingung unterschiedlich sein kann. Die so entstehenden Distributionen unterscheiden sich teilweise sehr deutlich. Der Herausgeber einer Linux-Distribution ist der "Distributor". Geschichte der Linux-Distributionen. Die Notwendigkeit von Linux-Distributionen ergab sich durch das Entwicklungsmodell von Linux nahezu sofort. Die Werkzeuge des GNU-Projekts wurden zügig für Linux angepasst, um ein arbeitsfähiges System bereitstellen zu können. Die ersten Zusammenstellungen dieser Art waren 1992 "MCC Interim Linux", "Softlanding Linux System" (SLS) und "Yggdrasil Linux". Die älteste bis heute existierende Distribution, Slackware von Patrick Volkerding, folgte 1993 und stammt von Softlanding Linux System ab. Mit der Ausbreitung der Linux-Distributionen bekamen mehr Menschen die Möglichkeit, das System zu testen, des Weiteren wurden die Distributionen immer umfangreicher, so dass ein immer größerer Einsatzbereich erschlossen werden konnte, was Linux zunehmend zu einer attraktiven Alternative zu Betriebssystemen etablierter Hersteller werden ließ. Im Laufe der Zeit änderte sich auch der Hintergrund der Distributionen: Wurden die ersten Distributionen noch der Bequemlichkeit halber und von Einzelpersonen oder kleinen Gruppen geschrieben, gibt es heutzutage teilweise sehr große Gemeinschaftsprojekte Freiwilliger, Unternehmens-Distributionen oder eine Kombination aus beidem. Heutige Distributionen. Hinter den meisten, vorrangig kleinen Distributionen stehen heutzutage über das Internet koordinierte Projekte Freiwilliger. Die großen Distributionen werden eher von Stiftungen und Unternehmen verwaltet. Auch die Einsatzmöglichkeiten der einzelnen Distributionen differenzierten sich mit der Zeit stark. Vom Desktop-PC über Server-Installationen und Live-CDs bis hin zu Distributionen zu technischen Forschungszwecken ist alles vertreten. Die Zusammensetzung einer üblichen Linux-Distribution für den Desktop-PC umfasst eine große Zahl von Softwarekomponenten, die das tägliche Arbeiten ermöglichen. Die meisten Distributionen werden in Form fertiger CD- oder DVD-Images im Internet bereitgestellt oder mit Support-Verträgen oder Handbüchern verkauft. Für besondere Anwendungsgebiete existieren oft keine direkt installierbaren Distributionen. Hier werden Frameworks wie OpenEmbedded z. B. für Router oder Handys verwendet, um eine Distribution für den Einsatz auf dem Gerät vorzubereiten. Vielfalt. Es wird eine große Anzahl an Distributionen angeboten, die dem Benutzer eine sehr feine Abstimmung der Auswahlkriterien auf die eigenen Bedürfnisse ermöglicht. Die Auswahl der geeignetsten Distribution ist für viele unerfahrene Benutzer daher nicht einfach. Die verwendete Software kann mehr Gewicht für Privatanwender haben als für Unternehmen, die wiederum mehr Wert auf die Verfügbarkeit eines offiziellen Kundendiensts („Support“) legen. Auch kann die Politik des Projekts oder die des Unternehmens hinter der Distribution, z. B. in Bezug auf proprietäre Software, ebenso eine Rolle spielen wie die Eigenschaften der Community in diesem Projekt. Die Liste von Linux-Distributionen enthält eine Aufzählung der wichtigsten oder populärsten Distributionen. Kompatibilität zwischen den Distributionen. Die Vielfalt der Distributionen, die teilweise verschiedene binäre Formate, eigene Verzeichnisstrukturen und ähnliche Unterschiede aufweisen, führt zu einem gewissen Grad an Inkompatibilität zwischen den Distributionen, der bisher auch durch Richtlinien wie den Filesystem Hierarchy Standard nicht behoben werden konnte. So kann Software, die für die Distribution A bereitgestellt wird, nicht notwendigerweise auch auf der Distribution B installiert werden. Verschiedene Sichtweisen und Lösungsansätze zu dieser Problematik werden im Hauptartikel Linux-Distributionen näher beleuchtet. Einsatzbereiche. Die Einsatzgebiete von Linux sind seit der ersten Version stetig erweitert worden und decken heutzutage einen weiten Bereich ab. Linux als Desktop-System. Linux, beziehungsweise eine Linux-Distribution, lässt sich als allein installiertes Betriebssystem betreiben, aber auch innerhalb eines Multi-Boot-Systems einsetzen. Parallel installieren kann man Linux beispielsweise neben Microsoft Windows oder einem BSD wie FreeBSD oder OS X. Moderne Distributionen wie OpenSUSE, Debian oder Ubuntu führen den Nutzer mit Hilfe von grafischen Benutzeroberflächen durch die Installation auf dem PC und erkennen andere Betriebssysteme nahezu immer selbstständig. Aus weit über tausend kostenlosen Programmen kann eine individuelle Kombination ausgewählt werden. Textverarbeitung, Tabellenkalkulation, Multimedia-Anwendungen, Netzwerktools, Spiele oder wissenschaftliche Anwendungen decken die meisten Anwendungsbereiche ab, die im Büroalltag und im Privatbereich wichtig sind. Trotz Sicherheitsvorsprungs gegenüber dem am weitesten verbreiteten Betriebssystem Windows und der Möglichkeit der Parallelinstallation und umfangreichen, kostenlosen Softwareangebots wird Linux auf Desktoprechnern zögerlich eingesetzt. Auch wenn sich die verbreitetsten Linux-Desktopumgebungen ähnlich bedienen lassen wie Windows oder OS X, unterscheiden sie sich durch diverse Systemfunktionen von ihnen. Daher kann wie bei fast jedem Wechsel des Betriebssystems eine gewisse Einarbeitungszeit nötig sein. Im Gegensatz zur geringen Verbreitung auf dem Desktop ist Linux auf Server-Systemen, bei Embedded-Systemen und auf Smartphones bereits ein etabliertes Betriebssystem. Die Installation der meisten Distributionen ist einfach und gibt geläufige Einstellungen vor, auch die Installation der Anwendungen läuft meist vollautomatisch ab, da sie üblicherweise von einem Paketmanager übernommen wird. Da das genaue Vorgehen aber nicht bei allen Linux-Distributionen einheitlich geregelt ist, kann ein Wechsel der Linux-Distribution Einarbeitungszeit erfordern. Die Installation von Programmen, die nicht zum Umfang der Distribution gehören, kann unterschiedlich sein: Im Idealfall existiert eine Paketquelle der Programmentwickler, die im Paketmanager eingebunden werden und über diesen dann installiert werden kann. Daneben gibt es für eine Reihe von Programmen Pakete, die auf die Distribution abgestimmt zum Download verfügbar sind. Im ungünstigsten Fall muss die Software als Quellcode bezogen werden und für das jeweilige System kompiliert werden. Anwendungen, die vom Anbieter nur für OS X oder Windows auf den Markt gebracht wurden, kann man i. d. R. unter Linux mittels API-Implementierungen wie Wine, Cedega oder Darling bzw. GNUstep verwenden. In anderen Fällen muss man zu alternativen Anwendungen greifen, die für Linux verfügbar sind. Die beiden weit verbreiteten Desktop-Umgebungen Gnome und KDE haben unterschiedliche Bedienungskonzepte, weshalb viele Distributoren Standards und Richtlinien veröffentlichen, um sowohl Entwicklern als auch Nutzern den Umgang mit verschiedenen Desktop-Umgebungen nahezubringen und ihn zu vereinheitlichen. Bekannt geworden sind größere Migrationen von Unternehmen oder Institutionen, die mehrere hundert oder tausend Rechner auf Linux-Desktops umgestellt haben, wie die Stadt München im Rahmen des LiMux-Projekts oder die Umstellung von 20.000 Desktops bei Peugeot Citroën. Durch die Auslieferung vorinstallierter Systeme durch einige Fachhändler sowie die wachsende Beliebtheit einiger Distributionen wie Ubuntu wuchs die Linux-Verwendung auf Desktoprechnern von Anfang 2007 bis Mitte 2008 um fast 30 Prozent. In Großbritannien lag der Marktanteil 2008 bei etwa 2,8 Prozent. Weltweit wurde im April 2009 im "Market-Share-Report" von "Net Applications" erstmals ein Marktanteil von einem Prozent ermittelt. Nachdem er 2010 gemäß NetMarketShare wieder auf 0,9 % gefallen war, stieg der Marktanteil bis Dezember 2011 auf 1,41 %. Linux als Server. Aufgrund der Kompatibilität von Linux mit anderen unixoiden Systemen hat sich Linux auf dem Servermarkt besonders schnell etabliert. Da für Linux schon früh zahlreiche häufig verwendete und benötigte Serversoftware wie Webserver, Datenbankserver und Groupware kostenlos und weitgehend uneingeschränkt zur Verfügung stand, wuchs dort der Marktanteil stetig. Da Linux als stabil und einfach zu warten gilt, erfüllt es auch die besonderen Bedingungen, die an ein Server-Betriebssystem gestellt werden. Der modulare Aufbau des Linux-Systems ermöglicht zusätzlich das Betreiben kompakter, dedizierter Server. Außerdem hat die Portierung von Linux auf verschiedenste Hardwarekomponenten dazu geführt, dass Linux alle bekannten Serverarchitekturen unterstützt. Eingesetzt wird es dabei für praktisch alle Aufgaben. Eines der bekanntesten Beispiele ist die Linux-Server-Konfiguration LAMP, bei der Linux mit Apache, MySQL und PHP/Perl (manchmal auch Python) kombiniert wird. Auch proprietäre Geschäftssoftware wie 3 ist mittlerweile auf verschiedenen Distributionen verfügbar und hat eine Installationszahl von über 1.000 Systemen erreicht. Das Linux Terminal Server Project ermöglicht es, sämtliche Software außer dem BIOS der Clients zentral zu verwalten. Da Linux auf einer Vielzahl von verschiedenen Hardwaretypen betrieben werden kann, ist auch die für Linux-Server genutzte Hardware ähnlich umfangreich. Auch moderne Hardware wie die von IBMs eServer p5 wird unterstützt und ermöglicht dort das parallele Ausführen von bis zu 254 Linux-Systemen (Modell p595). Auf IBM-Großrechnern der aktuellen System-z-Linie läuft Linux wahlweise nativ, mittels SM in bis zu 30 LPARs oder in jeder davon unter VM in potenziell unbegrenzt vielen, real einigen zehntausend virtuellen Maschinen. Im Oktober 2012 wurden mindestens 32 % aller Webseiten auf einem Linux-Server gehostet. Da nicht alle Linux-Server sich auch als solche zu erkennen geben, könnte der tatsächliche Anteil um bis zu 24 Prozentpunkte höher liegen. Damit ist ein tatsächlicher Marktanteil von bis zu etwa 55 % nicht auszuschließen. Der Marktanteil von verkauften Linux-Server-Systemen lag im zweiten Quartal 2013 bei 23,2 %. Da bei Servern nicht selten von einem Kunden selbst ein anderes Betriebssystem installiert wird, gibt diese Zahl nur bedingt Auskunft über die effektive Verwendung von Linux auf Server-Systemen. Linux als Smartphone- und Tablet-System. Für Smartphones und Tablets gibt es speziell optimierte Linux-Distributionen. Sie bieten neben den Telefonie- und SMS-Funktionen, diverse PIM-, Navigations- und Multimedia-Funktionen. Die Bedienung erfolgt typischerweise über Multi-Touch oder mit einem Stift. Linux-basierte Smartphonesysteme werden meist von einem Firmenkonsortium oder einer einzelnen Firma entwickelt und unterscheiden sich teilweise sehr stark von den sonst klassischen Desktop-, Embedded- und Server-Distributionen. Anders als im Embedded-Bereich sind Linux-basierte Smartphonesysteme aber nicht auf ein bestimmtes Gerät beschränkt, vielmehr dienen sie als Betriebssystem für Geräte ganz unterschiedlicher Modellreihen und werden oft herstellerübergreifend eingesetzt. Die Architektur dieser Smartphone- und Tablet-Distributionen hat neben dem Linux-Kernel teilweise wenig mit den klassischen Distributionen zu tun. So wird von Android nur ein Teil der sonst üblichen GNU-Software-Umgebung genutzt. Die meist auf Linux genutzten UNIX-artigen Dienste und Tools werden teilweise durch eine Java-Laufzeitumgebung ersetzt. Dadurch entstehen neue Programmierschnittstellen, die sich auf beliebigen anderen Plattformen emulieren bzw. umsetzen lassen. Trotzdem wird Android als Linux-Distribution angesehen, die viele Eigenschaften mitbringt, die es mit zahlreichen Embedded-Linux-Distributionen teilt. Andere Smartphone-Distributionen, wie etwa Firefox OS, Ubuntu for phones, Maemo, Tizen, Mer, Sailfish OS und MeeGo nutzen größere Teile der klassischen GNU-Software-Umgebung, so dass diese Distributionen teilweise einfacher mit klassischen Linux-Anwendungen ergänzt werden können und somit eher Linux-Distributionen im klassischen Sinne entsprechen. Das von HP Palm entwickelte WebOS setzt ebenfalls auf dem Linux-Kernel auf, das Userland jedoch besteht aus einer proprietären Entwicklung unter anderer Lizenz. Auch das ehemals von Samsung entwickelte Bada war neben einem RTOS-Kernel auch auf einem Linux-Kernel nutzbar, was aber von Samsung nie in dieser Kombination verkauft wurde. Linux-Systeme haben seit Ende 2010 die Marktführerschaft auf dem schnell wachsenden Smartphone-Markt übernommen. Sie weisen in Deutschland seit Februar 2013 durchgehend einen Marktanteil von über 70 % auf mit einem bisherigen Maximum von über 82 % im Juli 2014 (Anteile Linux-basierter Alternativen zu Android wurden in der Statistik nicht explizit angegeben). Vorwiegend Android-Geräte haben Apple iOS, Windows Phone und Symbian OS erfolgreich zurückgedrängt. Supercomputer. Da Linux beliebig angepasst und optimiert werden kann, hat es sich auch in Rechenzentren stark verbreitet, in denen speziell angepasste Versionen auf Großrechnern, Computerclustern (siehe Beowulf) oder Supercomputern laufen. In der TOP500-Liste der schnellsten Supercomputer (Stand Juni 2015) werden insgesamt 489 ausschließlich unter Linux betriebene Systeme und 1 teilweise (CNK/SLES 9) unter Linux betriebenes System aufgelistet. Damit laufen 97,8 % vollständig und 98 % zumindest teilweise unter Linux. Fast alle anderen Systeme werden unter Unix oder Unix-artigen Systemen betrieben. Der im Desktop-Bereich größte Konkurrent Windows spielt im Bereich der Höchstleistungsrechner mit 1 System kaum eine Rolle (0,2 %). Im Juni 2011 waren es noch 4 Systeme (darunter Platz 40), die unter Windows betrieben wurden. (Automobil-)Industrie. Linux setzt sich aus vielfältigen Gründen auch immer mehr in der Industrie, speziell in der Automobilindustrie, durch. Das weltweit erste von Linux betriebene Infotainment-System wurde von General Motors in Kooperation mit Bosch entwickelt. Die GENIVI Alliance definiert Anforderungen an eine Linux-Distribution speziell für Infotainment-Systeme in Fahrzeugen. Die größte Marktdurchdringung hat Linux in Japan. Zu den bekannten Unternehmen, die Linux verwenden, gehören: Ashisuto, Aisin AW, JVC KENWOOD Corporation, NTT DATA MSE und Turbo Systems. Weitere Einsatzbereiche. Ferner können auch NAS-Speichersysteme oder WLAN-Router Linux als Betriebssystem nutzen. Vorteil ist, dass eine sehr aktive Entwickler-Community besteht, auf deren Ressourcen (der Kernel mit den Schnittstellen-, Speicherverwaltungs- und Netzwerkfunktionen, aber z. B. auch umfangreiche Entwicklerprogramme, bereits bestehender Code wie die Benutzeroberflächen OPIE oder GPE Palmtop Environment, Erfahrung etc.) die Hersteller dabei zurückgreifen können. Allgemeines. Die Gründe für die Bewertung von Linux als sicheres System sind verschieden und hängen von dessen Aufgaben und der verwendeten Softwarekonfiguration ab. So verfügt Linux als Desktop-System über eine strenge Unterteilung der Zugriffsrechte, die bei anderen verbreiteten Desktop-Systemen im Normalfall nicht eingehalten wird. Dies führt unter anderem dazu, dass viele Funktionsprinzipien verbreiteter Würmer und Viren bei Linux nicht greifen können, beziehungsweise nur den ausführenden Benutzer, jedoch nicht das ganze System, kompromittieren können. Eine Kompromittierung des Nutzers kann gleichwohl zu sensiblen Datenverlusten führen. Bisher traten nur sehr wenige Viren unter Linux auf, beispielsweise Staog und Bliss. Im Vergleich zu anderen Desktop-Systemen hat Linux die erste größere Verbreitung bei Nutzern mit einem sehr technischen und sicherheitsbewussten Umfeld erfahren. Die Entwicklung geschah somit, verglichen mit anderen verbreiteten Desktop-Systemen, unter den Augen eines sehr sicherheitskritischen Publikums. Im Gegensatz zu Desktop-Systemen hängt die Sicherheit bei Serversystemen primär vom Grad der Erfahrung der Administratoren mit dem System selbst ab. Linux punktet dabei durch die freie Verfügbarkeit, die es Administratoren ermöglicht, das System ohne Mehrkosten in verschiedensten Testszenarien zu installieren und dort ausgiebig zu untersuchen. Zudem gibt es eine Reihe von speziell gehärteten Linux-Distributionen, welche besonderen Wert auf Sicherheitsaspekte legen. Initiativen wie SELinux bemühen sich dort um das Erfüllen hoher Sicherheitsstandards. Vorteilhaft ist, dass Linux nicht auf eine Hardware-Architektur festgelegt ist. Würmer und Viren können sich immer nur auf dem Teil der Linux-Systeme verbreiten, auf deren Hardware sie zugeschnitten sind. Hinzu kommt, dass Linux quelloffene Software ist. Jeder kann also den Quellcode studieren, untersuchen und anpassen. Dies führt unter anderem auch dazu, dass der Quellcode (sei es zum Zwecke der Anpassung, zum Zwecke der Schulung, aus dem Sicherheitsinteresse einer Institution oder eines Unternehmens heraus oder aus privatem Interesse) von mehr Menschen studiert wird, als dies bei proprietären Programmen der Fall sein kann, wodurch Sicherheitslücken schneller auffallen (und dann behoben werden können). Sicherheitsaktualisierungen. Ein wesentliches Merkmal vieler Linux-Distributionen ist es, dass sie kostenlos und automatisiert Sicherheitsaktualisierungen für alle bereitgestellte Software anbieten. Diese Funktion existiert zwar auch bei anderen gängigen Betriebssystemen, erfasst dort aber nicht alle bereitgestellte Software, funktioniert nicht durchgehend automatisch oder ist nicht kostenlos, weshalb die Hürde solche Aktualisierungen einzuspielen bei anderen Betriebssystemen höher ist als bei Linux. Wegen der allgemein verfügbaren Sicherheitsaktualisierungen sind Antivirenprogramme für Linux wenig verbreitet. Anstatt mit einem Antivirenprogramm nach Schadsoftware suchen zu lassen, die bekannte Sicherheitslücken in der installierten Anwendungssoftware ausnutzt, können die bekannten Lücken bereits über Sicherheitsaktualisierungen geschlossen werden. Die existierenden Antivirenprogramme für Linux werden daher hauptsächlich dafür eingesetzt, um Datei- und E-Mail-Server auf Viren für andere Betriebssysteme zu untersuchen. Technische Fähigkeiten. Vom technischen Gesichtspunkt her verfügt Linux über viele Fähigkeiten, die eine sicherheitstechnisch anspruchsvolle Umgebung erfordert. Dazu gehört sowohl eine einfache Nutzer- und Gruppenrechteverwaltung mittels Role Based Access Control, wie auch eine komplexere Rechteverwaltung mit Hilfe von Access Control Lists. Zusätzlich implementieren viele aktuelle Distributionen auch Mandatory-Access-Control-Konzepte mit Hilfe der SELinux/AppArmor-Technik. Ebenso bietet fast jede Linux-Distribution auch eine Secure-Shell-Implementierung (zumeist OpenSSH), mit der authentifizierte verschlüsselte und deswegen sichere Verbindungen zwischen Computern gewährleistet werden können. Andere Verschlüsselungstechniken wie Transport Layer Security werden ebenfalls voll unterstützt. Im Rahmen der Verschlüsselung für auf Medien gespeicherte Daten steht das Kryptographie-Werkzeug dm-crypt zur Verfügung, das eine Festplattenverschlüsselung ermöglicht. Es bietet dabei die Möglichkeit der Verschlüsselung nach aktuellen Standards wie dem Advanced Encryption Standard. Transparente Verschlüsselung, bei der nur einzelne Dateien statt ganzer Festplatten verschlüsselt werden, stellen die Verschlüsselungserweiterung EncFS und das Dateisystem ReiserFS zur Verfügung. Zu den Sicherheitszertifikaten, die im Zusammenhang mit Linux erworben wurden, siehe den Abschnitt Software-Zertifikate. Personalzertifikate. Um den Grad der Kenntnisse von Technikern und Administratoren messbar zu machen, wurden eine Reihe von Linux-Zertifikaten ins Leben gerufen. Das Linux Professional Institute (LPI) bietet dafür eine weltweit anerkannte Linux-Zertifizierung in drei Levels, die ersten beiden Level (LPIC-1 und LPIC-2) mit jeweils zwei Prüfungen und den dritten Level (LPIC-3) mit einer Core-Prüfung (301) und mehreren optionalen Erweiterungsprüfungen. Auch die großen Linux-Distributoren wie Red Hat, Novell und Ubuntu bieten eigene Schulungszertifikate an, die aber zum Teil auf die Distributionen und deren Eigenheiten ausgelegt sind. Software-Zertifikate. Um den Grad der Sicherheit von Technikprodukten zu bewerten, gibt es ebenfalls eine Reihe von Zertifikaten, von denen wiederum viele für bestimmte Linux-Distributionen vergeben wurden. So hat z. B. das Suse Linux Enterprise Server 9 des Linux Distributors Novell die Sicherheitszertifikation EAL4+ nach den Common Criteria for Information Technology Security Evaluation erhalten, Red Hat hat für seine Redhat Enterprise Linux 4 Distribution ebenso die EAL4+-Zertifizierung erhalten. Ein Problem bei der Zertifizierung stellen für viele Distributoren allerdings die hohen Kosten dar. So kostet eine Zertifizierung nach EAL2 etwa 400.000 US-Dollar. Hardwareunterstützung. Als einer der Hauptkritikpunkte an Linux wird oft genannt, dass nicht jede Hardware von Linux unterstützt werde oder Treiber für Linux nicht verfügbar seien. Zwar verfügt Linux über mehr mitgelieferte Treiber als Microsoft Windows und Mac OS X, allerdings stellen Hardwarehersteller selbst selten Linux-Treiber für ihre Hardware zur Verfügung. Während für Hardware mit offen dokumentierter, generischer Schnittstelle (z. B. Mäuse, Tastaturen, Festplatten und USB-Host-Controller) Treiber zur Verfügung stehen, ist dies für andere Hardwareklassen (z. B. Netzwerkschnittstellen, Soundkarten und Grafikkarten) nicht immer der Fall, da jeder Hardwarehersteller eigene, hardwarespezifische Schnittstellen benutzt. Die Spezifikationen dieser Schnittstellen werden zudem meist nicht veröffentlicht, sodass sie mittels Black-Box-Analyse bzw. Reverse Engineering erschlossen werden müssen. Beispiele sind Intels HD Audio-Schnittstelle und deren Linux-Implementierung „snd-hda-intel“ oder der freie 3D-Grafiktreiber „nouveau“ für bestimmte 3D-Grafikchips von Nvidia. Der Energieverwaltungsstandard ACPI ist sehr kompliziert und auf die Hauptplatine zugeschnitten, sodass eine vollständige Linux-Implementierung nicht einfach ist. Ein oft genannter Grund für die Nichtbereitstellung von Linuxtreibern ist das Entwicklungsmodell des Linux-Kernels: Da er keine feste Treiber-API besitzt, müssen Treiber immer wieder an Veränderungen in den einzelnen Kernel-Versionen angepasst werden. Direkt in den Kernel integrierte Treiber werden zwar von den Kernel-Entwicklern meist mitgepflegt, müssen aber unter der GNU General Public License (GPL) veröffentlicht sein, was einige Hardware-Hersteller ablehnen. Extern zur Verfügung gestellte Treiber müssen aber ebenfalls ständig angepasst und in neuen Versionen veröffentlicht werden, was einen enormen Entwicklungsaufwand mit sich bringt. Außerdem ist die rechtliche Lage solcher externen Module, die nicht unter der GPL stehen, umstritten, weil sie in kompilierter Form technisch bedingt GPL-lizenzierte Bestandteile des Kernels enthalten müssen. Das Problem der Hardwareunterstützung durch sogenannte Binärtreiber (Gewähren von Binärdateien ohne Offenlegung des Quellcodes) wird im Linux-Umfeld kontrovers diskutiert: Während manche für einen Ausschluss proprietärer Kernel-Module plädieren, befürworten andere, dass einige Hersteller überhaupt – zur Not auch proprietäre – Treiber bereitstellen, mit dem Argument, dass die Linux-Nutzer ohne sie benachteiligt wären, weil sie sonst von bestimmter Hardware schlicht abgeschnitten wären. Allerdings können Treiber für viele Geräteklassen (z. B. alle per USB oder Netzwerk angeschlossenen Geräte) auch ganz ohne Kernelcode programmiert werden, was sogar die bevorzugte Vorgehensweise ist. Digitale Rechteverwaltung. Linus Torvalds betont, dass sich Linux und digitale Rechteverwaltung (DRM) nicht ausschließen. Auch sind freie DRM-Verfahren zur Nutzung unter Linux verfügbar. In der Praxis ist die Nutzung von DRM-geschützten Medien unter Linux jedoch seltener möglich als unter anderen Systemen, denn aufgrund des Prinzips digitaler Rechteverwaltung können Rechteinhaber alleine entscheiden, auf welchen DRM-Systemen ihre Medien verwendet werden dürfen. Die dabei eingesetzten Verfahren sind nicht standardisiert, sondern werden von den jeweiligen Herstellern kontrolliert, und die beiden größten Hersteller digitaler Rechteverwaltungssysteme im Endverbraucherumfeld, Microsoft und Apple, haben mit Stand Oktober 2009 keine entsprechenden Programme für Linux veröffentlicht oder auch nur entsprechende Absichten bekannt gegeben. Allerdings gibt es Windows-DRM-zertifizierte Software, die unter Linux eingesetzt werden kann, wie sie beispielsweise bei der AVM FRITZ!Media 8020 verwendet wird. Grundsätzlich besteht bei DRM-Verfahren die Notwendigkeit, dass die Daten, an denen der Nutzer nur eingeschränkte Rechte erhalten soll, dem Nutzer zu keiner Zeit in unverschlüsselter Form zur Verfügung gestellt werden dürfen, da er ja sonst in diesem Moment eine unverschlüsselte Kopie anfertigen könnte. Da Linux quelloffen ist, ist es dem Nutzer leicht möglich, den entsprechenden Programmteil eines lokalen, rein softwarebasierten DRM-Systems durch eigenen Code zu ersetzen, der genau dies tut. Kongresse. Der LinuxTag 2004 im Kongresszentrum Karlsruhe Der jährlich stattfindende LinuxTag ist die größte jährlich stattfindende Messe zu den Themen Linux und freie Software in Europa. Neben den Ausstellungen aller namhaften Unternehmen und Projekte aus dem Linux-Umfeld wird den Besuchern auch ein Vortragsprogramm zu verschiedenen Themen geboten. Der LinuxTag selbst existiert seit 1996 und zog zuletzt jährlich mehr als 10.000 Besucher an. Neben dem großen LinuxTag gibt es noch eine Vielzahl kleinerer und regionaler Linuxtage, die oft mit Unterstützung von Universitäten organisiert werden. Zu den weiteren internationalen Messen gehört der "Linux Kongress – Linux System Technology Conference" in Hamburg. Ein Kuriosum ist die jährlich stattfindende "LinuxBierWanderung", die Linux-Enthusiasten der ganzen Welt eine Möglichkeit zum gemeinsamen „Feiern, Wandern und Biertrinken“ geben will. Neben den allgemeinen Messen und Kongressen findet jedes Jahr das LUG-Camp statt. Dieses wird seit dem Jahre 2000 von Linux-Benutzern aus dem Raum Flensburg bis hin zur Schweiz organisiert und besucht. Printmedien und elektronische Medien. Mit der zunehmenden Verbreitung von Linux hat sich auch ein Angebot an Printmedien entwickelt, die sich mit der Thematik beschäftigen. Neben einer Vielzahl an Büchern zu nahezu allen Aspekten von Linux haben sich auch regelmäßig erscheinende Zeitschriften auf dem Markt etabliert. Bekannteste Vertreter sind hier die einzelnen Hefte der Medialinx AG, die monatlich "(Linux-Magazin, Admin-Magazin, LinuxUser)" oder vierteljährlich "(EasyLinux)" erscheinen. Schon seit einer ganzen Weile produzieren auch andere große Verlage wie Hubert Burda Media mit der zweimonatlich erscheinenden und im Jahr 2015 eingestellten "Chip Linux" und IDG mit der ebenfalls zweimonatlich erscheinenden "LinuxWelt" und Heise mit der in unregelmäßiger Abfolge erscheinenden "c't Linux" Heftreihen beziehungsweise Sonderhefte zu langjährig bestehenden Computerzeitschriften, nämlich "Chip", "PCWelt" und "c't". Neben den gedruckten Zeitschriften, welche oft jeweils von einer (abonnierbaren) parallelen elektronischen Online-Ausgabe flankiert werden, hat sich auch ein kostenloses e-Magazin im Internet etabliert, das unter dem Namen "freiesMagazin" dem Publikum zugänglich gemacht ist. In diesem e-Magazin werden Beiträge über Linux- und OpenSource-Angelegenheiten publiziert, die von eigeninitiativ tätigen Autoren stammen. Wissenschaft. Der am 12. Oktober 1994 entdeckte Asteroid (9885) Linux wurde nach dem Linux-Kernel benannt. Filme. Die Thematik rund um Linux wurde auch in einer Reihe von Dokumentationen behandelt. So behandelt der Kino-Dokumentationsfilm "Revolution OS" die Geschichte von Linux, freier Software und Open Source und stützt sich dabei größtenteils auf diverse Interviews mit bekannten Vertretern der Szene. Die TV-Dokumentation ', in Deutschland von Arte ausgestrahlt, geht ähnliche Wege, stellt aber auch einen chronologischen Verlauf der Entwicklung von Linux und Unix dar. Liedermacher. Der Begriff Liedermacher bezeichnet im deutschsprachigen Raum einen Sänger, der Musik und Texte seines Programms überwiegend selbst geschrieben oder originär bearbeitet hat. Der Vortrag eines Liedermachers basiert im Kern auf eigener Interpretation und musikalischer Begleitung. Auch wenn die Aufführung gelegentlich mit einer Begleitband erfolgt, liegt meist großes Gewicht auf dem anspruchsvollen, oft witzig-kritischen Text. Verhältnis zu Songwriting und Chansons. Der Singer-Songwriter (englisch) im Verständnis Bob Dylans ist vom Begriff des Liedermachers vor allem regional (nordamerikanischer Raum) und stilistisch abzugrenzen. Es gibt darüber hinaus neben dem deutschen Liedermacher den "Chansonnier" (französisch), den "Cantautore" (italienisch) bzw. "Cantautor" (spanisch) sowie den "Bard" (russisch). Die Inhalte haben in der Regel Bezug zur Erfahrungswelt des Liedermachers und sind persönlich oder auch politisch geprägt. Berühmte "Chansonniers" sind unter anderem Édith Piaf, Juliette Gréco, Charles Aznavour, Jacques Brel, Jacques Dutronc, Maurice Chevalier und Serge Gainsbourg. Zu den bekannten "Cantautores" gehören León Gieco (Argentinien), Pablo Milanés (Kuba), Violeta Parra, Víctor Jara (beide Chile), Joaquín Sabina (Spanien) sowie Daniel Viglietti und Alfredo Zitarrosa (Uruguay). Die wohl bedeutendsten "Bardy" aus Russland bzw. der Sowjetunion waren Wladimir Wyssozki und Bulat Okudschawa. Stilrichtungen. Typisch für Liedermacher ist die gleichzeitige Zugehörigkeit zu mehreren dieser Kategorien. So singt Reinhard Mey auch humorvolle sowie gesellschaftskritische Lieder. Weitere bekannte Liedermacher finden sich in der Kategorie „Liedermacher“. Liedermaching. Seit den 1990er Jahren hat sich im deutschsprachigen Raum eine neue Form, das so genannte „Liedermaching“, entwickelt. Die Vertreter dieser Gattung setzen sich textlich sowie musikalisch deutlich vom klassischen Liedermacher ab. Als Begründer der Liedermaching-Szene gilt unter anderem das Bonner Liedermacherduo Joint Venture (1993–2000, bestehend aus Götz Widmann und Martin „Kleinti“ Simon). Weitere Vertreter dieses Genres sind die Monsters of Liedermaching (seit 2003). Rechtsextreme Liedermacher. Waren seit den 1960er Jahren Liedermacher fast ausschließlich dem linksintellektuellen Spektrum zuzuordnen, so gibt es seit einigen Jahren auch rechtsextreme Liedermacher. Nach Angaben von Blick nach Rechts listete das Bundesamt für Verfassungsschutz 2003 in einer internen Studie unter anderem die folgenden „rechtsextremistischen Liedermacher“ auf: Jörg Hähnel, Veit Kelterborn, Annett Moeck, Michael Müller und Frank Rennicke. Einige davon sind wegen Volksverhetzung vorbestraft und inhaftiert, manche ihrer Aufnahmen sind indiziert. Leukämie. Leukämien ("leuchaimia", von "leukós" „weiß“ und "haima" „das Blut“), umgangssprachlich auch als Blutkrebs bezeichnet, sind maligne Erkrankungen des blutbildenden oder des lymphatischen Systems und gehören im weiteren Sinne zu den Krebserkrankungen. Ein anderer früher verwendeter Ausdruck für diese Erkrankungen ist "Leukose". Leukämien zeichnen sich durch stark vermehrte Bildung von funktionsuntüchtigen Vorläuferzellen der weißen Blutzellen aus. Diese werden auch Leukämiezellen genannt. Sie breiten sich im Knochenmark aus, verdrängen dort die übliche Blutbildung und treten in der Regel auch stark vermehrt im peripheren Blut auf. Sie können Leber, Milz, Lymphknoten und weitere Organe infiltrieren und dadurch ihre Funktion beeinträchtigen. Die Störung der Blutbildung vermindert die normalen Blutbestandteile. Es entsteht eine Anämie durch Mangel an Sauerstoff transportierenden roten Blutkörperchen, ein Mangel an blutungsstillenden Blutplättchen und ein Mangel an reifen funktionstüchtigen weißen Blutzellen. Je nach Verlauf unterscheidet man akute und chronische Leukämien (vgl. Krankheitsverlauf). Akute Leukämien sind lebensbedrohliche Erkrankungen, die unbehandelt in wenigen Wochen bis Monaten zum Tode führen. Chronische Leukämien verlaufen meist über mehrere Jahre und sind im Anfangsstadium häufig symptomarm. Symptome. "Chronische Leukämien" werden oft zufällig durch eine Routineuntersuchung festgestellt und beginnen meist schleichend. Als erste Anzeichen können allgemeine Krankheitssymptome wie Unwohlsein und Ermüdung, Leistungsminderung, aber auch Fieber, Nachtschweiß und Gewichtsverlust genannt werden. Auftreten können weiterhin Milz- und Lymphknotenschwellungen sowie Juckreiz, Ausschläge und Infektionen. Es gibt sehr vielfältige Symptome für eine "akute Leukämie". Oft können diese aus völliger Gesundheit heraus entstehen und äußern sich wie ein schweres Krankheitsbild, z. B. treten Blässe, Schwäche, Blutungsneigung mit spontanen blauen Flecken oder nach Bagatelltraumen und Petechien auf. Eine Anfälligkeit für Infektionen mit Fieber sowie geschwollene Lymphknoten, Milz- und Lebervergrößerung und manchmal Knochenschmerzen sind ebenfalls charakteristisch. In vielen Fällen klagen die Patienten auch über gehäuftes Nasenbluten und Gingivitis. Weitere Symptome sind Gewichts- und Appetitverlust, Müdigkeit und Nachtschweiß. Keines dieser Symptome ist charakteristisch für eine chronische bzw. akute Leukämie Klassifikation und Diagnostik. Die Klassifikation und Diagnostik der Leukämien basiert auf morphologischen und immunologischen Eigenschaften der Leukämiezellen. In den letzten Jahren gewinnen auch zunehmend zytogenetische und molekularbiologische Merkmale an Bedeutung. Je nach beteiligtem Zelltyp unterscheidet man zunächst "myeloische" von "lymphatischen" Leukämien. Myeloische Leukämien gehen von den Vorläuferzellen der Granulozyten, im weiteren Sinne auch der Erythrozyten und Thrombozyten aus, lymphatische Leukämien betreffen die Lymphozyten und ihre Vorläuferzellen. Des weiteren unterscheidet man anhand des Grades der Unreife der im Knochenmark und im Blut vorkommenden Leukämiezellen zwischen "akuten" und "chronischen" Leukämien. Bei den akuten Leukämien finden sich vor allem Zellen in einem sehr frühen, unreifen Stadium, die nahezu funktionslos sind. Bei den chronischen Leukämien kann man vermehrt Leukämiezellen beobachten, die deutlich weiter entwickelt sind und bereits den reifen Blutzellen ähneln, jedoch noch nicht vollständig funktionstüchtig sind. Die Verdachtsdiagnose ist häufig bereits aus dem Blutbild und Differentialblutbild zu stellen, die genaue Klassifikation erfordert aber meist eine Knochenmarkspunktion. Leukämieformen. Falls die Leukämie von den "Prolymphozyten" (eine bestimmte Form von Lymphozyten-Vorstufen) ausgeht, spricht man wegen des deutlich aggressiveren Krankheitsverlaufes im Vergleich zur CLL von einer Prolymphozytenleukämie (PLL). Ebenfalls mit der CLL verwandt ist die Haarzellleukämie (HCL), bei der die Leukämie von sehr weit fortgeschrittenen Lymphozyten-Vorstufen ausgeht. Namensgebend sind die haarförmigen Zytoplasma-Fortsätze der Leukämiezellen. Epidemiologie. a> der häufigsten Leukämiearten, Daten nach Die einzelnen Leukämietypen weisen eine typische Altersverteilung auf. Die ALL ist die häufigste Leukämie bei Kindern und kommt bei Erwachsenen seltener vor. Die AML steht bei Kindern an zweiter Stelle und ist bei Erwachsenen die häufigste akute Leukämie mit einem Altersgipfel über 60 Jahren. Die CLL tritt bei Kindern praktisch niemals auf und ist eine typische Leukämieform des älteren Menschen. Die CML ist bei Erwachsenen wesentlich häufiger als bei Kindern. Ursachen. Leukämien entstehen durch genetische Veränderungen von unreifen blutbildenden Vorläuferzellen, sodass diese sich einerseits nicht mehr vollständig zu funktionstüchtigen Blutzellen weiterentwickeln können und andererseits unkontrolliert vermehren "(siehe auch Krebsentstehung)". Es genügt bereits die Veränderung einer einzigen Vorläuferzelle, die durch das anschließende unkontrollierte Wachstum die gesunden Bestandteile des blutbildenden Systems zurückdrängen kann. Mögliche Ursachen der Leukämie bei Kindern. In Deutschland erkranken jährlich 1800 Kinder neu an Krebs, davon rund ein Drittel an Leukämie. Auch hier sind die Ursachen weitgehend unbekannt. Eine Fallkontrollstudie zeigte ein etwa zwanzigfach erhöhtes Leukämierisiko für Patienten mit einem Down-Syndrom im Vergleich zur Normalbevölkerung. Es gibt Hinweise, dass Umweltfaktoren (ionisierende sowie nichtionisierende Strahlung sowie Pestizide) potenzielle Risikofaktoren sein können und ein „gut trainiertes kindliches Immunsystem“ einen schützenden Effekt hat. Bei einer Untersuchung von Kindern der Stadt Basra im Südirak wurde ein Anstieg der Leukämierate um rund das Doppelte von 1993 bis 2007 festgestellt. Als mögliche Auslöser kommen unter anderem Benzol, das durch brennende Ölfelder und improvisierte Tankstellen (Kanisterbetankung) in die Umwelt gelangte oder auch Geschosse aus abgereichertem Uran in Frage. Die vermutete Ursache Radioaktivität für den Leukämiecluster Elbmarsch bei Hamburg ist umstritten. Ungeklärt ist auch der Einfluss radioaktiver Emissionen auf die temporäre Leukämiehäufung um Jülich. Therapie. Grundlage der Behandlung von Leukämien ist die Therapie mit Zytostatika. Weitere Behandlungsprinzipien sind die Hochdosistherapie mit autologer Stammzelltransplantation und die allogene Knochenmark- bzw. Stammzelltransplantation. Dazu wird ähnlich wie bei einer Bluttransfusion ein passender Knochenmarkspender benötigt. Untergeordnete Bedeutung hat die prophylaktische oder therapeutische Strahlentherapie. In den letzten Jahren haben sich neue Therapiemöglichkeiten durch die Anwendung von monoklonalen Antikörpern und neue spezifisch in die Krankheitsprozesse eingreifende Medikamente wie Imatinib und Dasatinib (zwei Tyrosinkinase-Inhibitoren) bei der CML und der Philadelphia-Chromosom-positiven ALL oder ATRA bei der Promyelozyten-Leukämie eröffnet. In der Therapie der Leukämien bestehen zwischen den einzelnen Formen erhebliche Unterschiede, die Einzelheiten der Therapie sind in den entsprechenden Artikeln dargestellt. In den letzten Jahren gab es auch immer weitere Fortschritte der Gentherapie, die nun auf langfristige Therapieerfolge hoffen lassen. Einige Forschungsgruppen arbeiten zum Beispiel daran, T-Zellen von Leukämiepatienten durch Einschleusen bestimmter Gene so zu manipulieren, dass sie auch noch Jahre später Krebszellen eliminieren. Einige Patienten mit ALL oder CLL blieben durch diese Therapie langzeitig in Remission. Am 1. November 2013 erteilten die USA und am 29. Juli 2014 die europäischen Behörden einem bei Roche entwickelten Wirkstoff die Zulassung. Bei Patienten mit der chronischen lymphatischen Leukämie (CLL) ist schon nach wenigen Therapietagen mit dem Wirkstoff Obinutuzumab (alter Wirkstoffname war Afutuzumab) in Kombination mit dem milden Chemotherapeutikum Chlorambucil ein rapider Rückgang der Blutkrebszellen feststellbar. Nach Abschluss der Therapie waren bei über 20 % der Patienten keine Krankheitszeichen mehr vorhanden. Geschichte. Im Unterschied zu anderen Krebsarten, die bereits Galenus im Altertum beschrieben hatte, wurde der Blutkrebs erst im 19. Jahrhundert erkannt und untersucht. Die starke Vermehrung weißer Blutzellen beschrieb erstmals 1845 der schottische Arzt John Bennett. Er bezeichnete das Phänomen als vereitertes Blut und vermutete eine Infektion als Ursache. Etwa zur selben Zeit beobachtete Rudolf Virchow bei einer Patientin ebenfalls stark vermehrte weiße Blutzellen, diagnostizierte "weißes Blut" und führte 1847 das medizinische Fachwort „Leukämie“ ein. Der erste Fall von akuter lymphatischer Leukämie bei einem Kind wurde 1860 von Michael Anton Biermer, einem Schüler Virchows, beschrieben. Ende des 19. Jahrhunderts bezeichneten Pathologen die Leukämie als Neoplasie der weißen Blutzellen; danach konnte man mehrere Erscheinungsformen der Leukämie unterscheiden. Eine Chemotherapie mit Aminopterin gelang 1947 erstmals Sidney Farber, einem pädiatrischen Pathologen. Allerdings hielten die erzielten Remissionen nicht lange an. In den folgenden Jahren wurden über das US-amerikanische National Cancer Institute (NCI) in Studien an Kindern mit akuter Leukämie (ALL) Kombinationstherapien untersucht, insbesondere in den 1960er Jahren VAMP (Vincristin, Amethopterin, Mercaptopurin, Prednison). Zunächst zeichneten sich länger dauernde Remissionen ab, doch dann traten in der Mehrzahl schwerwiegende Rückfälle auf unter Befall des zentralen Nervensystems. Im weiteren Verlauf kombinierte man die VAMP-Therapie mit einer Strahlentherapie. Eine erste Auswertung an 278 Patienten im Jahr 1979 zeigte, dass diese Kombination, als „totale Therapie“ verstanden, zu deutlich länger andauernden Remissionen führte. Hiermit wurde der erste erfolgversprechende Durchbruch erzielt. Leukämie bei Menschen mit Down-Syndrom (Trisomie 21). Kinder mit Down-Syndrom (Trisomie 21) haben ein 20fach gesteigertes Risiko, an einer akuten Leukämie zu erkranken. Bei Neugeborenen mit Trisomie 21 tritt bei fünf bis zehn Prozent eine sogenannte transiente Leukämie (TL) auf, die alle Eigenschaften einer akuten megakaryoblastären Leukämie aufweist (akute myeloische Leukämie, megakaryoblastischer Subtyp / AMkL), sich jedoch in den allermeisten Fällen innerhalb der ersten Lebenswoche spontan zurückbildet. Bei etwa 20 % dieser Kinder tritt allerdings in den ersten vier Lebensjahren erneut eine AMkL (auch myeloische Leukämie bei Down-Syndrom (ML-DS), siehe WHO-Klassifikation) auf, die den identischen Phänotyp aufweist. Sowohl bei der TL als auch der ML-DS konnten Mutationen des hämatopoetischen Transkriptionsfaktors GATA1 als ursächlich nachgewiesen werden. Die ML-DS wird mit einer intensiven, angepassten Chemotherapie behandelt. Aufgrund der erhöhten Sensitivität gegenüber Chemotherapie sind die Heilungschancen für die ML-DS mit mehr als 85 % deutlich höher als bei der AML bei Kindern ohne Trisomie 21. Auch die akute lymphoblastäre Leukämie (ALL) kommt bei Kindern mit Down-Syndrom häufiger vor, ist hier aber aufgrund der ungünstigeren Risikofaktoren und der höheren Empfindlichkeit für Nebenwirkungen der Therapie mit einer schlechteren Prognose verbunden. Abgesehen von dem erhöhten Leukämie-Risiko sind Menschen mit Down-Syndrom unterdurchschnittlich anfällig für andere Formen von Krebserkrankungen. In sechs unabhängig voneinander durchgeführten Studien konnte erwiesen werden, dass z. B. Neuroblastome, Nephroblastome, Unterleibskrebs, Brustkrebs, Magenkrebs und Darmkrebs sehr selten auftreten: „Verglichen nach Alter und Geschlecht ist die Wahrscheinlichkeit für eine Person mit Down-Syndrom, an irgendeiner Form von Gewebekrebs zu sterben, um 50 bis 100 Mal niedriger“ als üblich. Zurückgeführt werden kann dies neben dem durch das zusätzliche Erbmaterial offenbar begünstigten Schutzmechanismus des Körpers auch darauf, dass die mit der Trisomie 21 zusammenhängende Disposition für insbesondere Leukämie bekannt ist und eine Erkrankung aufgrund häufigerer Arztbesuche (z. B. wegen der Anfälligkeit für Atemwegserkrankungen) oft in sehr frühen Stadien erkannt und behandelt werden kann. Darüber hinaus leben die meisten Menschen mit Down-Syndrom deutlich gesünder, insbesondere Alkohol und Nikotin werden selten aktiv konsumiert, was das Risiko, an Krebs zu erkranken, zusätzlich senkt. Chromosomale Translokationen bei menschlichen Leukämien. Reziproke Translokationen sind für Leukämien und Lymphome typisch, bei soliden Tumoren die Ausnahme. Generell betrachtet sind Translokationen ein Charakteristikum von ca. drei Prozent aller Tumoren. Bei insgesamt 14.000 verschiedenen karyotypischen Veränderungen bei Tumoren sind über 100 wiederkehrende Translokationen beschrieben worden (Stand 1991). Chromosomale Veränderungen bei hämatologischen Erkrankungen sind häufig und vielfältig. Ein tabellarischer Überblick soll einen Eindruck von der Vielfalt der Phänomene geben. Dabei werden zunächst Chromosomen-Translokationen und sodann Chromosomen-Deletionen angeführt. Der weitere Artikel gliedert sich in drei Teile. Zunächst werden die chromosomalen Veränderungen bei myeloischen Leukämien besprochen. Im darauffolgenden Abschnitt werden die lymphatischen Leukämien dargestellt und eine beispielhafte Bruchpunkt-Untersuchung vorgestellt. Zum Abschluss wird noch kurz auf das Burkitt-Lymphom eingegangen. Die folgende Tabelle gibt einen Überblick über die chromosomalen Deletionen bei verschiedenen menschlichen Leukämien. Translokationen bei chronischer myeloischer Leukämie (CML). Bei der chronischen myeloischen Leukämie kommt es in 95 Prozent aller bisher untersuchten Fälle durch eine chromosomale Translokation zu einer Fusion des c-abl-Gens auf dem Chromosom 9q34 mit dem bcr-Gen auf dem Chromosom 22q11 mit dem Ergebnis eines alterierten Chromosoms, dem Philadelphia-Chromosom, und der Expression eines chimärischen Proteins, dem abl/bcr-Produkt, das in drei Varianten als p190, p210 und p230 vorkommt und Tyrosinkinaseaktivität aufweist. Das Fusionsprotein resultiert in einer konstitutiven Aktivierung der abl-Tyrosinkinase und stimuliert vielfältige Signalwege, z. B. p21 Ras, PI3 Kinase, Jun, myc. Translokationen bei akuter myeloischer Leukämie (AML). Bei den akuten myeloischen Leukämien findet sich eine Vielzahl unterschiedlicher Mutationen. Bei der AML finden sich in bis zu 50 Prozent der untersuchten Fälle Mutationen im "N-ras"-Lokus, in ca. fünf Prozent der untersuchten Fälle Mutationen in p53, in weniger als drei Prozent der untersuchten Fälle Mutationen im "RB-1"-Gen und in ca. 20 Prozent Veränderungen im "WT-1"-Lokus. Vereinzelt sind Fusionen von "SET/CAN"-, "DEK/CAN"-, "MLL"- und "AML-1"-Genen beschrieben worden. Im Folgenden werden die beteiligten Onkogene näher charakterisiert. Translokationen bei anderen myeloischen Leukämien. Bei der akuten myelomonocytischen Leukämie (AMML) finden sich häufig Mutationen im RB-1 Lokus. Eine Besonderheit bei den AML stellt die Promyelozytenleukämie dar, bei der in mehr als 95 Prozent der untersuchten Fälle eine Translokation t(15;17) (q21;q21) beschrieben ist mit dem Ergebnis einer Fusion von PML und RARa. Das Humane Trithorax-Homolog findet sich auf dem Chromosom 11q23. Die HRX-Translokationen findet sich bei biphänotypischen Leukämien. Trithorax ist ALL-1. Translokationen bei T-Zell-Leukämien. Die folgende Tabelle gibt eine Übersicht über das Vorkommen von Alle betroffenen protoonkogenen Transkriptionsfaktoren (c-myc, Lyl-1, Tal-1,2) sind helix-loop-helix-Proteine; Rhom-1,2 (Ttg-1,2) sind LIM-Domaine-Proteine, Hox-11 (Tcl-3) ist ein Homeoboxgen und Tan-1 ein notch-Homolog. Involviert sind jeweils immer TCR-beta oder TCR-alpha/delta. Vergleichsweise konsistente Mutationen in T-ALLs finden sich auch bei p53 Jonveaux und im RB-Lokus Ahuja und Ginsberg allerdings ohne Translokationen in den Bereich rearrangierender Loci. Untersucht man die verschiedenen Loci, so findet man folgende Verteilung der translozierenden Regionen. Die aufgelisteten Translokationen bei T-ALL haben eine Reihe von Gemeinsamkeiten. Es sind jeweils zwei typische codierende Regionen betroffen: TCR-Gene und Transkriptionsfaktoren. Stets ist das betroffene Allel des TCR als Strukturgen zerstört und das betroffene Allel des Transkriptionsfaktors als Strukturgen intakt, in seiner Regulation aber gestört. Meistens sind die betroffenen Transkriptionsfaktoren zelllinienfremde Gene. Üblicherweise wird ihre Funktion im Rahmen der Zelldifferenzierung vermutet. Im Bereich von 11p13 sind die Bruchpunkte unabhängig vom translozierenden Partnerchromosom in einem kleinen Bereich geclustert. Außerdem finden die Translokationen bei unreifen Zellen statt, so dass man schlussfolgern muss, dass eine aberrante Expression von an der Zelldifferenzierung von nichtlymphatischem Gewebe beteiligten Transkriptionsfaktoren in primitivem lymphoiden Gewebe einen wesentlichen Anteil an der malignen Transformation haben kann. Lebensmittel. Lebensmittel sind Substanzen, die konsumiert werden, um den menschlichen Körper zu ernähren. Der Begriff "Lebensmittel" (früher im Süddeutschen auch: Viktualien) umfasst als Oberbegriff sowohl das Trinkwasser als auch die Nahrungsmittel. Trinkwasser besteht aus Wasser und darin gelösten Mineralstoffen. Im Unterschied zu Trinkwasser bestehen Nahrungsmittel im Wesentlichen aus den Makronährstoffen – dies sind die Kohlenhydrate, die Lipide (Fette) und die Proteine – und führen daher dem Menschen chemisch gebundene Energie zu. Zusätzlich sind Mikronährstoffe als Mengen- und Spurenelemente wesentliche Bestandteile von Nahrungsmitteln. Lebensmittel werden vom Menschen zum Zwecke der Ernährung oder des Genusses über den Mund, gegebenenfalls nach weiterer Zubereitung, aufgenommen. Rechtliche Definition. Aus rechtlicher Sicht zählen neben Trinkwasser und Nahrungsmitteln als Hauptgruppen auch die Genussmittel zu den Lebensmitteln, wobei Tabakwaren ausgenommen sind. Lebensmittelbegriff in der Vollwerternährung. Während das deutsche Lebensmittelrecht nur den Begriff „Lebensmittel“ kennt, wird im Kontext der so genannten Vollwerternährung auf spezielle Weise zwischen Lebens- und Nahrungsmitteln unterschieden. Dabei werden als Lebensmittel nur solche Nahrungsmittel bezeichnet, die nicht konserviert und insbesondere nicht über 43 °C erhitzt wurden. Die Begründung ist, dass durch das Erhitzen wichtige Nahrungsbestandteile (wie Vitamine) zerstört werden können. Das "Leben"smittel „lebt“ dann nach der Einschätzung der Vollwerternährung nicht mehr und wird deshalb mit „Nahrungsmittel“ als geringerwertig eingestuft. Nährwert. Der Nährwert ist der zentrale Nutzen von Lebensmitteln. Er ist ein Maß, um den physiologischen Brennwert eines Lebensmittels zu qualifizieren und quantifizieren. Meist fasst man unter dem Begriff Nährwert nur den Brennwert, also die dem Körper zur Verfügung gestellte Energie, zusammen. Energieträger. Nahrungsinhaltsstoffe, die dem Körper Energie und zum Teil nach erfolgtem Umbau im Körper auch Bausteine für Wachstum und Körpererneuerung liefern. Zu diesen Grundnährstoffen gehören Proteine, Fette und Kohlenhydrate. Diese Komponenten der einzelnen Lebensmittel liefern dem Körper in erster Linie Energie. Sie werden deshalb auch als Brennstoffe bezeichnet. Wirkstoffe. Ebenfalls zu den nicht-energieliefernden Nährstoffen zählt man die Wirkstoffe. Sie sind meist essentiell. Vitamine und Spurenelemente wirken oft als Coenzyme. Genusswert von Lebensmitteln. Neben dem Nährwert spielt der Genusswert der Lebensmittel eine wesentliche Rolle. Basis für den Genuss sind neben sensorischen Wahrnehmungen auch kulturelle Faktoren. Lebensmittelgruppen. Lebensmittel lassen sich je nach Standpunkt und Zweck der Einteilung gliedern nach Inhaltsstoffen, Herkunft, Verarbeitungsprozessen, Verzehranlass, Kühlungsbedarf. Eine häufig anzutreffende Gliederungsart teilt die Lebensmittel nach dem Ursprung der Rohwaren in tierische und pflanzliche sowie sonstige Produkte. Als Basis für Ernährungsstudien benutzt die Bundesforschungsanstalt für Ernährung und Lebensmittel einen so genannten Bundeslebensmittelschlüssel als Lebensmittelnährwertdatenbank. Lebensmittel-Unverträglichkeiten. Gegen eine Reihe von Lebensmitteln kann der Mensch angeboren oder im Laufe seines Lebens Unverträglichkeiten entwickeln. Gluten, Fructose, Laktose, Milch­eiweiß, Solanin, Eiweiß (Ei) und viele andere Stoffe können von akuten allergischen Reaktionen bis hin zu subakuten Autoimmunerkrankungen eine Reihe von Symptomen provozieren. Durch Wechselwirkung (Kreuzreaktion) potenziert sich möglicherweise die Schädlichkeit der Substanzen. Lebensmittelrecht. Die Einhaltung der Rechtsvorschriften für das Herstellen, Behandeln und Inverkehrbringen von Lebensmitteln in den Lebensmittelunternehmen wird durch die amtlichen Lebensmittelüberwachung kontrolliert. Lebensmittelwirtschaft. Mit der Produktion, der Verarbeitung und dem Handel von Lebensmitteln befasst sich der Wirtschaftszweig der Lebensmittelwirtschaft. Hierzu zählt die sogenannte Lebensmittelkette "vom Acker bis zum Teller", das heißt Landwirtschaft, Lebensmittelindustrie, Lebensmittelhandwerk, Lebensmittelgroß- und Lebensmitteleinzelhandel sowie der Außer-Haus-Markt (Gastronomie) und angrenzende Bereiche. Lebensmittelabfall. Die Menge an Lebensmittelabfällen, die jährlich in den 28 Mitgliedstaaten der EU anfällt, wird in einer von der EU-Kommission veröffentlichten Untersuchung auf ca. 89 Millionen Tonnen, bis zu 50 % entlang der Lebensmittelversorgungskette, geschätzt. Dies entspricht 179 kg pro Kopf, mit großen Unterschieden zwischen den einzelnen EU-Ländern und den verschiedenen Branchen. Dabei ist die Verschwendung bei der landwirtschaftlichen Erzeugung oder der Rückwurf von Fängen ins Meer noch nicht eingerechnet. Für Deutschland wurden 81,6 kg/a Lebensmittelabfälle pro Person in Privathaushalten ermittelt. Nach der Studie vom März 2012 der Universität Stuttgart wäre davon 45 % vermeidbar und 18 % teilweise vermeidbar gewesen. Ländervorwahlliste sortiert nach Nummern. Liste der internationalen Vorwahlnummern im Telefonnetz Zone 2. – Afrika, Atlantikinseln und Inseln im Indischen Ozean Zonen 3 und 4. Ländervorwahlen in Europa (hauptsächlich +3 und +4) Projekt der Europäischen Kommission vom 20. November 1996: Europäischer Nummerierungsplan (bislang noch nicht umgesetzt). Zone 5. – Mexiko, Zentralamerika und Südamerika Zone 6. – Südpazifik und Ozeanien Zone 9. – West-, Zentral- und Süd-Asien, Naher Osten Einzelbelege. ! Ländervorwahlliste sortiert nach Ländern. Liste der internationalen Vorwahlnummern im Telefonnetz Weblinks. Landervorwahllisten nach Landern Telefonnummer ! LSD. Ein Beispiel für die Gefahren von LSD ist der Suizid Frank Olsons, eines Biochemikers im Dienste der CIA, am 28. November 1953. Ihm war im Rahmen des Projekts MKULTRA zu Testzwecken und ohne sein Wissen LSD verabreicht und, als er extrem negativ darauf reagierte, psychiatrische Hilfe verweigert worden. Stattdessen ließ ihn Projektleiter Sidney Gottlieb zur weiteren Untersuchung in ein Hotelzimmer bringen. Olson sprang durch die geschlossene Scheibe und stürzte zehn Stockwerke tief zu Tode. Von der Bedienung von Maschinen oder der Teilnahme am Straßenverkehr ist abzuraten, weil die oben beschriebenen Wahrnehmungsphänomene eine große Gefährdung darstellen können (→ Fahren unter Einfluss psychoaktiver Substanzen). Anwendung. Erst in den 1980er Jahren gewann LSD als Partydroge in der Technoszene wieder an Beliebtheit. Nachdem der Konsum von LSD nach Schätzungen der Drogenbeauftragten der Bundesregierung Anfang des letzten Jahrzehnts zurückgegangen war, ist seit 2008 wieder ein leichter Anstieg bei den Erstkonsumenten zu vermerken. Konsumformen. Ein LSD-Blotter, mit je 100-120 µg dosiert. Die Droge wird normalerweise auf Papierstücke aufgebracht, die Tickets, Pappen oder Trips genannt werden und dann gelutscht oder geschluckt. LSD wird aber unter anderem auch als Lösung in Ethanol (sogenanntes "Liquid" oder auch mit Pipette getropfte "Drops"), auf Würfelzucker, als Kapsel- oder in Tablettenform eingenommen (spezielle Tabletten sind kleine Krümelchen, die eine gewünschte Dosis enthalten und als „Micro“ bezeichnet werden. Die Gelatinekapseln sind leer, nur die Kapselhülle selbst wird mit LSD-Lösung benetzt und getrocknet). Ein einzelnes Mikrokügelchen kann bis zu 1000 µg LSD enthalten, wogegen übliche Pappen nur 100–250 µg LSD enthalten. Die Europäische Beobachtungsstelle für Drogen und Drogensucht berichtet, dass die Verkaufspreise für LSD in den meisten europäischen Ländern zwischen 5 Euro und 11 Euro pro Einheit liegen. Diese Kombination kann zu starken Wahrnehmungsveränderungen mit optischen und akustischen Halluzinationen führen. Die psychoaktive Wirkung beider Substanzen kann sich gegenseitig verstärken. Dabei kann es zu erwünscht angenehmen Erlebnissen kommen, aber auch die Gefahr einer drogeninduzierten Psychose ist erhöht. Ein weiterer Gefahrenpunkt ist die durch die Illegalität bedingte Schwarzmarktware, deren Zusammensetzung oder Dosierung nie genau zu erkennen ist. So können zwei vom selben Dealer erworbene Trips, die sich optisch gleichen, völlig unterschiedlich dosiert sein. Auch müssen Trägermaterialien nicht unbedingt LSD enthalten, da andere halluzinogene Substanzen wie DOI, DOB, 25I-NBOMe, Bromo-DragonFLY etc. ebenfalls im Submilligrammbereich wirksam sind und auch als Löschblätter verkauft werden. Die Wirkdauer dieser Substanzen ist meist stark erhöht, im Falle von Bromo-DragonFLY bis zu mehrere Tage. Dass Strychnin enthalten sein kann, hat sich jedoch als Mythos erwiesen. Ein solcher Fall ist noch nie bestätigt worden. Trägermaterialien von nur geringer Größe (Beispiel: Löschpapier, Micros) nehmen keine wirkungsrelevante Strychninmenge auf. LSD in der Psychiatrie und Psychotherapie. Zur psychiatrischen Behandlung und zu Forschungszwecken wurde LSD 1949 unter dem Handelsnamen "Delysid" vom Pharmakonzern Sandoz bereitgestellt. Das LSD-Präparat Lysergamid wurde vom tschechoslowakischen Konzern Spofa hergestellt und vor allem in die Ostblockstaaten, einschließlich der DDR, exportiert. LSD versetzt viele Anwender in einen Zustand, der Ähnlichkeiten mit bestimmten Symptomen von Psychosen hat. Im Unterschied zur Psychose weiß der Anwender in der Regel, dass die veränderte Wahrnehmung willentlich herbeigeführt wurde. Solche künstlich herbeigeführten Zustände werden Modellpsychose genannt. Der Beipackzettel von "Delysid" wies auf die Möglichkeit der Anwendung als Psycholytikum und Psychotomimetikum hin. Textauszug Indikation: „(a) In der analytischen Psychotherapie zur Förderung seelischer Entspannung durch Freisetzung verdrängten Materials. (b) Experimentelle Studien über das Wesen der Psychose: Indem der Psychiater selbst Delysid einnimmt, wird er in die Lage versetzt, eine Einsicht in die Welt der Ideen und Wahrnehmungen psychiatrischer Patienten zu gewinnen.“ LSD wurde zunächst in der so genannten „psychedelischen Therapie“ eingesetzt, etwa bei schwer Krebskranken oder bei Alkoholikern. Ihr Ziel war es, die Probanden durch ein erschütterndes ekstatisches, stark religiös bzw. mystisch gefärbtes Erlebnis angstfreier zu machen bzw. vom Alkoholismus abzubringen. In seiner Studie zu diesem Thema spricht der Pionier der therapeutischen LSD-Forschung in Deutschland, Hanscarl Leuner, von einer Art „Heilung durch Religion“. Auch heute noch wird LSD im Rahmen der Psychotherapie als so genannte psycholytische Psychotherapie verwendet. Bei allen durch die Forschung bestätigten Vorzügen hat diese Therapieform jedoch auch Schattenseiten, insbesondere wegen des Machtgefälles zwischen dem Therapeuten und dem durch die Einnahme von LSD hoch suggestibel gemachten Therapie-Klienten. Eine qualifizierte Ausbildung und Supervision der Therapeutinnen und Therapeuten ist schon deshalb kaum möglich, weil die Behandlungen – von Ausnahmegenehmigungen abgesehen – vorwiegend in der Illegalität stattfinden. LSD zur Behandlung von Alkoholismus. Studien in den 1950er Jahren stellten bei der Behandlung von Alkoholismus mit LSD eine Erfolgsrate von 50 Prozent fest. Allerdings wurden einige LSD-Studien wegen methodischer Mängel kritisiert und unterschiedliche Gruppen hatten unterschiedliche Ergebnisse. In einem 1998 veröffentlichten Artikel wurden die Arbeiten zu dem Thema erneut untersucht. Man folgerte, dass die Frage der Effizienz von LSD in der Behandlung von Alkoholismus bisher unbeantwortet ist. Eine 2012 veröffentlichte Metaanalyse bestätigte dagegen die Ergebnisse der ursprünglichen Studien und konstatierte eine heilsame Wirkung. Versuche, LSD als Waffe für Geheimdienste einzusetzen. Angesichts der Möglichkeit, mit nur 10 Kilogramm des hochpotenten Psychedelikums die gesamte Bevölkerung der Vereinigten Staaten zu berauschen, begannen in den frühen 1950er Jahren unter dem Vorzeichen des Kalten Krieges Forschungen zur Verwendung von LSD als chemische Waffe, als Wahrheitsserum oder zu anderen Zwecken. Im Fokus der Forschung, die die CIA sowie die Abteilung für chemische und biologische Kriegführung der amerikanischen Streitkräfte durchführten oder durchführen ließen, stand die Möglichkeit, es als Mittel zur Gedankenkontrolle einzusetzen. Im Rahmen von MKULTRA und anderen Projekten wurde Mitarbeitern, ohne dass sie es wussten, LSD verabreicht, die Droge wurde in so genannten "safe houses" in New York City und San Francisco an Freiwillige, an Drogensüchtige oder an Freier von Prostituierten gegeben; Menschenversuche an Strafgefangenen oder an Insassen psychiatrischer Anstalten beinhalteten, Probanden über mehrere Wochen ständig unter LSD-Einfluss zu halten oder die Wirkung der Droge in Kombination mit Elektroschocks, sensorischer Deprivation oder anderen Drogen zu testen. All diese Versuche führten zu keinen verwendbaren Resultaten. Nachdem die Forschungen Mitte der 1970er Jahre öffentlich bekannt geworden waren, wurden sie eingestellt. LSD in den 1960er Jahren. Im Rahmen eines Teilprojektes vom MKULTRA nahm auch Ken Kesey, der nach seiner Militärzeit einige Zeit als Pfleger in einer Nervenklinik arbeitete, dort als Versuchsperson an LSD-Experimenten teil. Ken Kesey ging wie der Psychologe Timothy Leary in Berkeley (wo ebenfalls im Rahmen vom MKULTRA geforscht wurde) davon aus, dass LSD die Persönlichkeit von Menschen durch Bewusstseinserweiterung befreien und verbessern könnte und so auch die Gesellschaft positiv verändern könnte. Er gründete eine Hippie-Gruppe, die Merry Pranksters, die mit einem bunt bemalten Schulbus, dem "FURTHER" (engl. weiter; fördern, unterstützen, vorantreiben), durch die USA fuhren und überall sogenannte Acid-Tests veranstalteten, bei denen zum Testen Lysergsäurediethylamid an das Publikum verteilt wurde. Bei diesen LSD-Happenings traten als Band die Grateful Dead auf. Da LSD damals noch legal war, konnte so die Idee und die Praxis des LSD-Gebrauchs stark die Hippieära der Endsechziger mitprägen. Die Fahrten der Merry Pranksters wurden vom Autor Tom Wolfe, der einige Zeit in dem Bus mitfuhr, in dem Buch "Electric Kool-Aid Acid Test" literarisch verewigt. Sie waren ein wichtiger Faktor bei der Entstehung der Hippie-Bewegung in San Francisco und des Psychedelic Rock der späten 1960er und frühen 1970er Jahre, bereitete aber auch härteren Drogen wie Heroin den Boden. Verbot. Als Timothy Leary in den 1960er Jahren den Massenkonsum von LSD in den USA propagierte, übte Albert Hofmann starke Kritik. Nach dem Verbot von 1966 in den USA und der Einstufung als nicht verkehrsfähiger Stoff in Deutschland 1971 kam die Forschung an LSD-haltigen Therapeutika weitgehend zum Erliegen. Als Droge wurde es aufgrund des nicht vorhandenen Abhängigkeitspotentials und der starken Toleranzbildung ebenfalls weitgehend zurückgedrängt. Da sich LSD im Gegensatz zu den meisten anderen Drogen nicht zum täglichen Konsum eignet, ist die nachgefragte Menge für den Drogenhandel unbedeutend, und da keine Abhängigkeit auftritt, sind Konsumenten auch nicht gezwungen, hohe Preise wie z. B. für Heroin oder Kokain zu bezahlen. Wirkung bei Spinnen. Sektorspinnen (Zygiella x-notata, früher Zilla x-notata) bauen unter LSD-Einfluss Netze mit erhöhter Zunahme der Winkelregelmäßigkeit. Man geht von einer Steigerung des Assoziationstempos bei der Anlage der Radialfäden aus sowie der besseren Verwertung des sensiblen Kontrollreizes. Dabei lag eine qualitative Steigerung einer spontanen Leistung durch LSD vor. Bei der Gabe von Mescalin wurden die Netze unregelmäßig und die Abweichung der Netzwinkelgröße nahm zu. Mit diesen Experimenten wollte man die Wirkungsweise von LSD gegenüber Mescalin abgrenzen, die im Menschen kaum unterschiedliche Wirkungen erzielen. Aktuelle Forschung mit LSD. Seit etwa 1990 erlebt die Halluzinogenforschung eine Renaissance. Im Dezember 2007 wurde dem Schweizer Psychiater Peter Gasser bewilligt, eine Studie zur psychotherapeutischen Behandlung mit LSD an Patienten mit Krebs im Endstadium durchzuführen. Die Ergebnisse sind vielversprechend, jedoch ist die Versuchsgruppe mit 12 Personen zu klein, um statistisch repräsentativ sein zu können. Aktuellere Publikationen diskutieren LSD als mögliches Mittel gegen Cluster-Kopfschmerz. Rechtsstatus. LSD ist in der Bundesrepublik Deutschland aufgrund seiner Aufführung in der BtMG ein nicht verkehrsfähiges Betäubungsmittel. Der Umgang ohne Erlaubnis ist grundsätzlich strafbar. Weitere Informationen sind im Hauptartikel Betäubungsmittelrecht in Deutschland zu finden. Mit der vierten Betäubungsmittel-Gleichstellungsverordnung (4. BtMGlV) vom 21. Februar 1967, in Kraft getreten am 25. Februar 1967, wurde LSD in der Bundesrepublik Deutschland den betäubungsmittelrechtlichen Vorschriften des Opiumgesetzes, dem Vorläufer des heutigen BtMG, unterstellt. 1966 wurde Lysergsäurediethylamid in den USA verboten. In Österreich wurde Lysergsäurediethylamid 1971 verboten. Lysergsäurediethylamid fällt außerdem unter die Kontrolle des Einheitsabkommen über die Betäubungsmittel (1961) und der Konvention über psychotrope Substanzen (1971), welche von den Vereinten Nationen beschlossen wurden. Laparoskopische Chirurgie. Gallenblase, durch ein Laparoskop gesehen Die laparoskopische Chirurgie (von altgriechisch λαπάρη "lapare" die Weichen, σκοπεΐν "skopein" betrachten) ist ein Teilgebiet der Chirurgie, bei der mit Hilfe eines optischen Instruments Eingriffe innerhalb der Bauchhöhle vorgenommen werden. Sie wird dem Komplex minimal-invasive Chirurgie (MIC) zugeordnet. Methoden. Die Laparoskopie, auch Bauchspiegelung genannt, bezeichnet eine Methode, bei der die Bauchhöhle und die darin liegenden Organe mit speziellen Stablinsen-Optiken (starren Endoskopen) durch kleine, vom Chirurgen geschaffene Öffnungen in der Bauchdecke sichtbar gemacht werden. Über einen 0,3–2 cm langen Hautschnitt wird ein Trokar in die Bauchdecke eingebracht, durch den dann mit Hilfe eines speziellen Endoskops (Laparoskop), das an eine Videokamera und an eine Lichtquelle angeschlossen ist, der Bauchraum eingesehen werden kann. Bei einer diagnostischen Laparoskopie wird nach der Inspektion des Bauchraumes das Instrument wieder entfernt und die Bauchdeckenwunde mittels Naht verschlossen. Bei einem operativen Eingriff werden über weitere, ebenfalls 0,3–2 cm große Hautschnitte zusätzliche Instrumente eingebracht, mit deren Hilfe die Operation durchgeführt werden kann. Bei der üblichen Methode wird zunächst der Bauchraum mit Gas befüllt, bis ein Pneumoperitoneum geschaffen ist. Dies kann durch unterschiedliche Methoden geschehen. Eine davon besteht darin, dass mit einem chirurgischen Skalpell ein kleiner Hautschnitt im Bereich des Nabels gesetzt wird (u. a. weil dort die Bauchwand am dünnsten und der Abstand zu den Bauchorganen am größten ist). Danach wird mit einer speziellen Insufflationskanüle (Veres-Kanüle oder Veres-Nadel) die Bauchwand nur so weit durchstoßen, dass sich schließlich deren stumpfe Spitze, an der sich die Insufflationsöffnung befindet, frei im Bauchraum befindet. Nun kann an die Veress-Kanüle der Schlauch einer Insufflationspumpe angeschlossen und der Bauchraum mit Kohlendioxid (CO2) so weit „aufgepumpt“ werden, dass eine Art „Arbeits- und Untersuchungsraum“ entsteht. Die Insufflationskanüle wird entfernt und ein Trokar wird „blind“ eingeführt. Über diesen Trokar wird dann das Laparoskop eingeführt. Damit kann der Intraabdominalraum betrachtet werden. Dieser Raum (Intraabdominalraum) muss nun noch für eine endoskopische Operation zugänglich gemacht werden. Zu diesem Zweck werden, je nach Art des geplanten Eingriffs, wie oben bereits beschrieben, weitere kleine Einstiche in der Bauchdecke gemacht, durch welche gasdicht schließende Trokar-Hülsen eingeführt und sicher verankert werden. Durch diese im Fachjargon „Trokarzugänge“ genannten „Schlüsselloch-Öffnungen“ können das Endoskop und die chirurgischen Spezialinstrumente vom Operateur oder den Assistenten von Hand bedient werden. Bei dieser Methode können Nebenwirkungen wie Schulterschmerzen durch Reizung des Nervus phrenicus auftreten. Bei einer alternativen, weniger verbreiteten Methode, der "gaslosen Laparoskopie", wird die Bauchdecke mittels eines Lift-Systems mechanisch angehoben. Hierbei soll der Patient eine Vielzahl von Vorteilen gegenüber der CO2-Methode haben: Die Schmerzen sollen nach einer Operation deutlich geringer sein (vor allem die für die gashaltige Laparoskopie üblichen Schulterschmerzen), die Erholung nach einer Operation zeitlich verkürzt. Außerdem sollen die Kosten für eine Behandlung geringer sein. Laparoskopische Eingriffe. Selbst laparoskopische Tumoroperationen werden in Deutschland mittlerweile standardmäßig durchgeführt. (Siehe hierzu beispielhaft die Website der Charité Berlin.) Beispielsweise zeigt eine Studie bei laparoskopischer Resektion von Darmkrebs gleichwertige Ergebnisse zu dem offenen Eingriff, bei schonenderer OP für den Patienten. Geschichte. Die erste Laparoskopie beim Menschen – eine diagnostische Laparoskopie – wurde 1910 von dem Schweden Hans Christian Jacobaeus (1879–1937) durchgeführt, nachdem der Dresdner Georg Kelling (1866–1945) 1901 eine Laparoskopie bei einem Hund durchgeführt hatte. In den 1930er Jahren wurden erstmals auch therapeutische Laparoskopien, vor allem durch Gynäkologen, durchgeführt. Die erste laparoskopische Blinddarmentfernung fand in der Universitätsfrauenklinik Kiel 1980 durch den Gynäkologen Kurt Semm (1927–2003) statt. Die erste laparoskopische Gallenblasenentfernung über ein Galloskop (Ein-Rohrtechnik) wurde 1985 von dem Böblinger Chirurgen Erich Mühe durchgeführt, der allerdings mit seiner Technik in der Literatur keine Würdigung fand. Die erste laparoskopische Gallenblasenentfernung über mehrere Zugänge, so wie sie heutzutage üblich ist, erfolgte 1987 durch den französischen Chirurgen Phillipe Mouret (* 1937), 1989 die erste Leistenoperation durch D. Bogojavlensky, 1991 die erste Dickdarmoperation durch John Monson. 1998 kam es dann zur Einführung der Lift-Laparoskopie mit dem Abdo-Lift (neues Konzept der gaslosen Laparoskopie) durch Daniel Kruschinski. Laparoskopische Fundoplicatio. Laparoskopische Fundoplicatio ist eine Methode zur Behandlung der Refluxkrankheit (Sodbrennen), entstanden aus der konventionell durchgeführten Fundoplicatio nach Rudolf Nissen im Jahre 1957. Es wird dabei der Magenfundus als Manschette um den Mageneingang gelegt und mit einzelnen Nähten fixiert. Dadurch wird der Magensäurerückfluss in die Speiseröhre reduziert. Leonardo DiCaprio. Leonardo Wilhelm DiCaprio (* 11. November 1974 in Los Angeles, Kalifornien) ist ein US-amerikanischer Filmschauspieler und Produzent. Einem breiteren Publikum wurde er durch die Rolle des geistig behinderten Jungen Arnie Grape in "Gilbert Grape – Irgendwo in Iowa" bekannt, für die er 1994 seine erste Nominierung für den Oscar erhielt. Zu weltweitem Ruhm gelangte er 1997 mit der Darstellung des mittellosen Schiffspassagiers Jack Dawson in James Camerons Spielfilmdrama "Titanic". DiCaprio stellt wiederkehrend authentische Personen der Vergangenheit und Gegenwart dar. Für seine Rollen als Flugpionier Howard Hughes in "Aviator" und Börsenmakler Jordan Belfort in "The Wolf of Wall Street" wurde er 2005 bzw. 2014 mit dem Golden Globe Award ausgezeichnet. DiCaprio gehört gegenwärtig zu den bestbezahlten und erfolgreichsten Schauspielern Hollywoods und arbeitet regelmäßig mit renommierten Regisseuren zusammen. Familie. Der Sohn der früheren Rechtsanwaltsgehilfin Irmelin Indenbirken-DiCaprio, geborene Indenbirken, und des Comicbuchautors und -verkäufers George DiCaprio wurde in Los Angeles als einziges Kind seiner Eltern geboren. Seine Mutter zog in den 1950er Jahren aus ihrem Geburtsort Oer-Erkenschwick in Nordrhein-Westfalen in die USA, sein Vater ist ein bereits in vierter Generation geborener US-amerikanischer Staatsbürger halb italienischer und halb deutscher Abstammung. Seine Großmutter mütterlicherseits, Helene Indenbirken (1915–2008), wurde als Yelena Smirnova in Russland geboren. Über DiCaprios Vornamen soll entschieden worden sein, als seine schwangere Mutter in Italien vor einem Gemälde Leonardo da Vincis stand und der noch ungeborene Sohn gegen die Bauchdecke trat. Seine Eltern trennten sich, als er ein Jahr alt war. Acht Jahre später folgte die Scheidung, DiCaprio lebte überwiegend bei seiner Mutter. Er wuchs in Los Angeles im Stadtteil Echo Park auf und besuchte dort die Grundschule sowie die John Marshall High School. Seine Großmutter Helene Indenbirken wohnte bis zu ihrem Tode im Alter von 93 Jahren am 5. August 2008 im Geburtsort seiner Mutter. DiCaprio, der sie dort seit früher Jugend wiederkehrend besuchte, erwarb während dieser Zeit Grundkenntnisse der deutschen Sprache. Karrierebeginn. Seine Karriere begann Ende der 1980er Jahre im Alter von 14 Jahren mit Auftritten in Werbespots, darunter für Kaugummi der Marke "Bubble Yum" und "Kraft"-Käse sowie als Laiendarsteller in Lehrfilmen. Der Durchbruch gelang ihm 1990 mit der Rolle des Garry Buckman in der Fernsehserie "Eine Wahnsinnsfamilie" (Originaltitel: "Parenthood)", die auf dem gleichnamigen Film aus dem Jahr 1989 basiert. In der Seifenoper "California Clan" übernahm er kurz darauf die Rolle des jungen Mason Capwell. Sein Spielfilmdebüt hatte er in "Critters 3 – Die Kuschelkiller kommen", einem B-Movie aus dem Jahr 1991. Zunehmende Bekanntheit erzielte DiCaprio in der Sitcom "Unser lautes Heim", in der er 1991 und 1992 den Straßenjungen Luke Brower spielte. 1990er Jahre. 1993 agierte DiCaprio als Sohn eines gewalttätigen Stiefvaters neben Robert De Niro und Ellen Barkin in "This Boy’s Life". Aufmerksamkeit erlangte er mit der Rolle des geistig behinderten Jungen Arnie Grape in Lasse Hallströms Familiendrama "Gilbert Grape – Irgendwo in Iowa" (1993), für die er 1994 in der Kategorie „Bester Nebendarsteller“ mit einer Oscarnominierung geehrt wurde. In den darauffolgenden Jahren stellte er in gleich mehreren Filmen seine schauspielerische Vielseitigkeit unter Beweis. So porträtierte er 1995 den Schriftsteller und Musiker Jim Carroll, dessen Heroinsucht und sozialer Abstieg im Rahmen einer Autobiografie veröffentlicht und schließlich verfilmt wurden. In "Total Eclipse – Die Affäre von Rimbaud und Verlaine" von Agnieszka Holland setzte DiCaprio seine Darstellung authentischer Personen mit der Rolle des homosexuellen französischen Lyrikers Arthur Rimbaud fort. Als Filmpartner fungierte David Thewlis als Paul Verlaine. Gemeinsam mit Claire Danes stellte er in "William Shakespeares Romeo + Julia" (1996) unter der Regie von Baz Luhrmann das gleichnamige Liebespaar Romeo und Julia dar. Die Dialoge entsprachen den Originaltexten von William Shakespeare aus dem 16. Jahrhundert. Für seine Darstellung erhielt DiCaprio im Rahmen der Berlinale 1997 den Silbernen Bären. Weltweiter Erfolg und Ruhm durch Titanic. Die mit elf Oscars ausgezeichnete Kinoproduktion "Titanic", die gegenwärtig auf Platz zwei der kommerziell erfolgreichsten Filme aller Zeiten rangiert, bedeutete für DiCaprio 1997 den eigentlichen Karriereschub. Durch die Darstellung des mittellosen Schiffspassagiers Jack Dawson, der sich entgegen der gesellschaftlichen Norm in eine junge wohlhabende Frau namens Rose verliebt, entwickelte sich der damals 22-Jährige zum Superstar, einhergehend mit weltweiter Popularität als Mädchen- und Frauenschwarm. Nicht zuletzt der Umstand zahlreicher Berichterstattungen in Jugendmedien erschwerte es ihm in den folgenden Jahren sehr, sich trotz variierender Filmfiguren in unterschiedlichen Genres von seinem Status als Teenie-Idol zu lösen. 2000er Jahre. Nach fiktiven Figuren in Filmen wie "Celebrity – Schön. Reich. Berühmt." (1998) und "The Beach" (2000), der ihm eine Nominierung für die Goldene Himbeere als „Schlechtester Schauspieler“ einbrachte, spielte DiCaprio 2002 in der Großproduktion "Gangs of New York" zum ersten Mal unter der Regie von Martin Scorsese. Im selben Jahr übernahm er die Rolle des US–amerikanischen Hochstaplers und Scheckfälschers Frank W. Abagnale in "Catch Me If You Can". Seine Darstellung wurde mit einer Nominierung für den Golden Globe Award gewürdigt. 2005 gelang ihm die Auszeichnung in der Kategorie „Bester Hauptdarsteller“ für seine Verkörperung des Hollywood-Millionärs und Flugpioniers Howard Hughes in dem Martin-Scorsese-Film "Aviator", darüber hinaus wurde DiCaprio für den Oscar nominiert. Zur Verleihung der Golden Globe Awards 2007 gelang ihm als erstem Schauspieler in der Geschichte dieses Filmpreises, für zwei Rollen – als verdeckter Ermittler Billy Costigan in "Departed – Unter Feinden" und als 32-Bataljon-Soldat Danny Archer in "Blood Diamond" – in gleicher Kategorie (Bester Hauptdarsteller in einem Drama) nominiert zu werden. "Blood Diamond" thematisiert den Konflikt um sogenannte Blutdiamanten in Afrika vor dem Hintergrund des Bürgerkriegs in Sierra Leone 1999, für den DiCaprio 2007 seine dritte Oscar-Nominierung in der Kategorie „Bester Hauptdarsteller“ erhielt. Erstmals seit "Titanic" agierte er im Jahr 2008 in Sam Mendes’ Filmdrama "Zeiten des Aufruhrs" wieder an der Seite von Kate Winslet. Seine Darstellung des frustrierten Ehemanns Frank Wheeler bescherte ihm in der Kategorie „Bester Hauptdarsteller – Drama“ eine weitere Nominierung für den Golden Globe. Unter der Regie von Ridley Scott folgte im gleichen Jahr der Thriller "Der Mann, der niemals lebte", in dem DiCaprio den CIA Agenten und Anti-Terror-Spezialisten Roger Ferris verkörperte. 2010er Jahre. Mit "Shutter Island", der im Februar 2010 in den deutschen Kinos anlief, arbeitete der Schauspieler bereits zum vierten Mal unter der Regie von Martin Scorsese, den er für den größten lebenden Regisseur hält. DiCaprio übernahm in diesem auf dem gleichnamigen Roman von Dennis Lehane basierenden Psycho–Thriller die Rolle des zunehmend unter Paranoia leidenden US-Marshals Edward „Teddy“ Daniels. 2009 beendete er die Dreharbeiten zu Christopher Nolans Science-Fiction-Film "Inception", der am 29. Juli 2010 in den deutschen Kinos anlief. Der Film war weltweit ein großer Erfolg, wurde mit vier Oscars ausgezeichnet und ist DiCaprios kommerziell erfolgreichster Film seit "Titanic". Gemeinsam mit Regisseur Clint Eastwood arbeitete DiCaprio 2011 an der Verfilmung des Lebens von FBI-Gründer J. Edgar Hoover. Für seine darstellerische Leistung erhielt DiCaprio eine Golden Globe-Nominierung. In Quentin Tarantinos Western "Django Unchained" stellte DiCaprio den sadistischen Plantagenbesitzer und Sklaventreiber Calvin Candie dar, wofür er ein weiteres Mal für den Golden Globe nominiert wurde. Von September 2011 bis Februar 2012 drehte DiCaprio unter der Regie von Baz Luhrmann in Sydney die Romanverfilmung "Der große Gatsby" in 3-D. Er übernahm darin die Titelrolle des Jay Gatsby. Die zweite Hauptrolle übernahm sein enger Freund Tobey Maguire. Es war bereits die zweite Zusammenarbeit zwischen DiCaprio und Luhrmann nach "William Shakespeares Romeo + Julia" im Jahre 1996. Der Film eröffnete die 66. Internationalen Filmfestspiele von Cannes und lief am 16. Mai 2013 in den deutschen Kinos an. Die fünfte Zusammenarbeit von Leonardo DiCaprio und Martin Scorsese ist "The Wolf of Wall Street", welcher auf der gleichnamigen Autobiografie des früheren Börsenmarklers Jordan Belfort basiert. DiCaprio wurde für seine Darstellung als bester Hauptdarsteller in der Kategorie Komödie oder Musical mit einem Golden Globe Award ausgezeichnet und erhielt seine vierte und fünfte Oscar-Nominierung, die dritte als Bester Hauptdarsteller und seine erste als Produzent für den besten Film. Nach Beendigung der Dreharbeiten zu "The Wolf of Wall Street" kündigte DiCaprio im Januar 2013 zunächst an, eine längere Pause von der Schauspielerei nehmen zu wollen, um sich stattdessen stärker seinem Umweltengagement zu widmen. Im Herbst 2014 beendete er seine Pause jedoch und begann die Dreharbeiten für eine Verfilmung der Lebensgeschichte des Trappers Hugh Glass unter dem Titel "The Revenant – Der Rückkehrer", bei der Alejandro González Iñárritu die Regie übernahm. Die Dreharbeiten waren von zahlreichen Schwierigkeiten aufgrund von Wetterbedingungen, Budgetüberschreitungen und Drehplanverzögerungen gezeichnet und endeten schließlich im September 2015. Der deutsche Kinostart ist für den 6. Januar 2016 vorgesehen. Finanzieller Erfolg und Einfluss in Hollywood. Nach Angaben des amerikanischen Forbes Magazine zählt Leonardo DiCaprio seit 2007 zu den am besten verdienenden Schauspielern in Hollywood. Zwischen Juni 2007 und Juni 2008 erhielt er Gagen in Höhe von 45 Mio. US-Dollar und rangierte hinter Will Smith (80 Mio. US-Dollar), Johnny Depp (72 Mio. US-Dollar), Eddie Murphy und Mike Myers (je 55 Mio. US-Dollar) auf Platz fünf. Für seine Rolle in "Catch Me If You Can" (2002) erhielt er eine Gage in Höhe von 20 Millionen Dollar, die achtfache Summe seiner Gage für "Titanic" (1997). Im Dezember 2010 belegte er nach einer neuerlichen Forbes–Erhebung durch den Kinokassenerfolg seiner Filme "Shutter Island" und "Inception" (1,1 Milliarden US-Dollar) Platz eins der finanziell erfolgreichsten Schauspieler Hollywoods vor Johnny Depp und Mia Wasikowska (je 1,03 Milliarden US-Dollar). Laut Angaben der britischen Tageszeitung The Guardian belegte DiCaprio im Jahre 2010 hinter James Cameron und Steven Spielberg Rang drei der einflussstärksten Menschen in Hollywood. Zwischen Mai 2010 und Mai 2011 erhielt er Gagen in Höhe von 77 Millionen US-Dollar und rangierte damit vor Johnny Depp (50 Mio. US-Dollar) und Adam Sandler (40 Mio. US-Dollar) auf Platz eins der bestverdienenden Schauspieler Hollywoods. Nach einer erneuten Auflistung des "Forbes Magazine" belegte Leonardo DiCaprio im Jahre 2013 hinter Hugh Jackman und Robert Downey jr. Platz drei der einflussreichsten Schauspieler und Platz 21 der mächtigsten Berühmtheiten der Welt. Das Vulture Magazin platzierte DiCaprio 2013 in ihrer Auflistung der 100 wertvollsten Stars hinter Robert Downey jr. auf Platz zwei. Engagement. DiCaprio setzt sich für den Umweltschutz und gegen die globale Erwärmung ein. Ausdruck seines Engagements ist der von ihm erzählte und mitverfasste Dokumentarfilm "11th Hour – 5 vor 12" über die vielfältigen Umweltkrisen, welche die Menschheit und ihren Planeten bedrohen. Im Rahmen der US-Präsidentschaftswahlen 2004 und 2008 unterstützte er jeweils den Kandidaten der Demokratischen Partei (2004 John Kerry, 2008 Barack Obama). Im Dezember 2013 stieg DiCaprio beim Automobilhersteller Venturi Automobiles ein und gründete mit dessen Gründer Gildo Pallanca Pastor, den Rennstall Venturi Grand Prix Formula E Team. DiCaprio kommentierte seinen Einstieg wie folgt: „Die Zukunft unseres Planeten hängt von unserer Fähigkeit ab, kraftstoffsparende Autos zu bauen, die auf sauberer Energie basieren. Venturi Grand Prix hat mit der Gründung eines umweltfreundlichen Rennteams enorme Weitsicht bewiesen und ich bin glücklich, Teil dieser Bemühung zu sein.“ Der Rennstall geht seit 2014 in der neuen Rennserie Formel E an den Start. 2015 wurde der Schauspieler zum Vorsitzenden des Nachhaltigkeits-Komitees der Rennserie ernannt. Dieses Gremium befasst sich vor allem mit der Förderung der elektrischen Mobilität und will damit die Verbreitung von Elektroautos vor allem in Städten voranbringen. 2014 wurde DiCaprio zum UN-Friedensbotschafter ernannt und hielt die Auftaktrede auf dem UN-Klimagipfel in New York. Darin bezeichnete er den Klimawandel als größte Herausforderung der Menschheit und forderte von den Regierungen sowie der Industrie, sofort entschiedene und deutliche Maßnahmen zu treffen. Privatleben. DiCaprio ist ein enger Freund des Schauspielers Tobey Maguire, den er während des Castings für die Serie Parenthood im Jahr 1990 kennenlernte. Zudem ist er ein langjähriger Freund der Schauspieler Kevin Connolly, Lukas Haas und Kate Winslet, für die er bei ihrer dritten Hochzeit als Trauzeuge fungierte. Den Schauspieler Christopher Pettiet kannte er seit seiner Kindheit. Nach Beziehungen mit den Models Kristen Zang, Emma Miller und Gisele Bündchen war DiCaprio von 2005 bis 2011 mit dem Model Bar Refaeli liiert. Im Mai 2011 bestätigten beide ihre Trennung. Später war er mit der Schauspielerin Blake Lively und dem Model Erin Heatherton liiert. Von Sommer 2013 bis Dezember 2014 war er mit dem deutschen Model Toni Garrn zusammen. Seit April 2015 ist er mit dem Model Kelly Rohrbach liiert. DiCaprio besitzt ein Haus in Los Angeles und eine Wohnung in Manhattan. Im Jahr 2005 kaufte er die belizische Insel Blackadore Caye und plant, dort ein umweltfreundliches Resort zu bauen. Im selben Jahr wurde DiCaprio schwer im Gesicht verletzt, als ihn das ehemalige Fotomodell Aretha Wilson mit einer Glasflasche am Kopf traf. Wilson bekannte sich schuldig und wurde 2010 zu zwei Jahren Haft verurteilt. Synchronisation. Seit "William Shakespeares Romeo + Julia" (1996) wird Leonardo DiCaprio in allen deutschen Synchronfassungen von Gerrit Schmidt-Foß synchronisiert, erstmals zuvor in "This Boy’s Life" (1993). In "Gilbert Grape – Irgendwo in Iowa" und "Total Eclipse – Die Affäre von Rimbaud und Verlaine" lieh ihm David Nathan seine Stimme, der seit 1995 vor allem als Stammsprecher von Johnny Depp bekannt ist. Auszeichnungen (Auswahl). Leonardo DiCaprio gehört seit vielen Jahren zu einen der gefragtesten und wandelbarsten Schauspielern. So hat er bislang über 58 nationale und internationale Auszeichnungen gewonnen und war für weitere 143 Preise nominiert. Für seine Darstellungen in "Aviator" und "The Wolf of Wall Street" wurde DiCaprio jeweils als bester Hauptdarsteller mit dem Golden Globe ausgezeichnet, zudem wurde er acht weitere Male nominiert. Seit 2005 zählt Leonardo DiCaprio immer wieder zu den Favoritenkreis bei der Vergabe der Oscars, konnte diesen trotz seiner fünf Nominierungen bislang noch nicht gewinnen. Die folgende Auswahl zeigt die wichtigsten und bekanntesten Auszeichnungen und Nominierungen DiCaprios. Leonberg. Leonberg ist eine Stadt in der Mitte des Bundeslandes Baden-Württemberg, etwa 13 Kilometer westlich von Stuttgart. Mit etwa 45.000 Einwohnern ist sie nach Sindelfingen und Böblingen die drittgrößte Stadt des Landkreises Böblingen und als Mittelzentrum für die umliegenden Gemeinden ausgewiesen. Leonberg ist seit 1. Oktober 1963 Große Kreisstadt und war bis 1973 Sitz des gleichnamigen Landkreises, der im Zuge der Kreisreform 1973 aufgelöst wurde. Lage. Leonberg liegt über dem rechten Hang des Glemstales, auf einem Sporn, einem Ausläufer des Engelbergs, der wiederum Teil des Glemswaldes ist. Die Glems betritt im Südosten von Stuttgart kommend das Stadtgebiet, fließt dann nach Nordwesten, wendet sich beim Stadtteil Eltingen nach Nordosten, fließt anschließend durch die westliche Kernstadt (die Altstadt liegt rechts des Flusses), dann im Süden des Stadtteils Höfingen vorbei und verlässt das Stadtgebiet im Nordosten in Richtung Ditzingen wieder. Die nördlichen Stadtteile Höfingen und Gebersheim zählen zum Strohgäu. Nachbargemeinden. Ditzingen und Gerlingen (Landkreis Ludwigsburg), Stuttgart (Stadtkreis) sowie Sindelfingen, Magstadt, Renningen und Rutesheim (alle Landkreis Böblingen) Stadtgliederung. Leonberg besteht aus der Kernstadt, der 1938 eingemeindeten Gemeinde Eltingen, die heute mit der Kernstadt zusammengewachsen ist, sowie den im Rahmen der Gebietsreform 1975 eingegliederten Stadtteilen Gebersheim, Höfingen und Warmbronn. Zur Kernstadt gehören auch die Stadtteile Silberberg (räumlich getrennt) und Ramtel, das Wohngebiet Gartenstadt sowie weitere räumlich getrennte Wohnplätze mit eigenem Namen, wie Eichenhof, Glemseck, Hinter Ehrenberg, Mahdental und Rappenhof. Auch im Stadtteil Höfingen unterscheidet man räumlich getrennte Wohnplätze mit eigenem Namen, wie etwa Tilgshäusleshof und Wannenhof. Die drei 1975 eingegliederten Gemeinden und heutigen Stadtteile Gebersheim, Höfingen und Warmbronn sind zugleich Ortschaften im Sinne der baden-württembergischen Gemeindeordnung. Das heißt, sie haben jeweils einen von der Bevölkerung bei jeder Kommunalwahl alle fünf Jahre neu zu wählenden Ortschaftsrat, dessen Vorsitzender der Ortsvorsteher ist. Raumplanung. Leonberg ist ein Mittelzentrum in der Region Stuttgart, deren Oberzentrum Stuttgart ist. Zum Mittelbereich Leonberg gehören noch die Städte und Gemeinden im Norden des Landkreises Böblingen, im Einzelnen: Renningen, Rutesheim, Weil der Stadt und Weissach. Von der Stadtgründung bis zur Reformation. Um 1248/49 begann Graf Ulrich I. von Württemberg, auf dem strategisch vorteilhaften Gelände zwischen einer bestehenden Burg auf dem Engelberg und dem Glemsknie eine anfangs „Levinberch“ genannte Stadt am Westrand seines Herrschaftsbereichs aufzubauen. Am Südwestrand der Stadt, am Standort des späteren Schlosses, ließ er zudem eine Burg errichten. Im Reichskrieg gegen Graf Eberhard I. von Württemberg unterstellte sich Leonberg vorübergehend (1312 bis 1316) der Reichsstadt Esslingen. Nachdem die Leonberger später nochmals die Seite wechselten, mussten sie 1383 Urfehde schwören, nicht mehr von Württemberg abzufallen. Von nun an war Leonberg endgültig württembergisch und wurde Sitz eines Amtes. 1457 tagte in Leonberg einer der ersten urkundlich belegten württembergischen Landtage um die Vormundschaft des unmündigen Eberhard V. zu regeln. Dieser errichtete 1467 ein Franziskanerkloster in Leonberg. 1470 lebten etwa 900 Personen in 208 Haushalten in der Stadt. Um 1480 wird ein neues Rathaus gebaut – das heutige Alte Rathaus, das anfangs Bürgerhaus heißt. Im Jahr 1485 stifteten Leonberger Bürger zum Zwecke der Altersversorgung ein Spital, in dem auch Arme aufgenommen wurden. Nach der Reformation zog es in das leerstehende Kloster um. 1498 wurden beim ersten großen Stadtbrand 46 Häuser zerstört. Beim Aufstand des „Armen Konrads“ richteten Leonberger Bürger eine „Kanzlei des Armen Konrads“ ein und drängten die lokale Ehrbarkeit in die Defensive. Der nahe Engelberg wurde zentraler Versammlungsort für viele umliegende Gemeinden. Der Zulauf war so groß, dass Herzog Ulrich Zugeständnisse machen musste, um die nach dem Tübinger Vertrag eingeforderte Huldigung zu erlangen. Während des Exils von Herzog Ulrich (1519–1534) stand Leonberg unter österreichischer Herrschaft. Nachdem Herzog Ulrich aus dem Exil zurückgekehrt war, begann er, die Reformation durchzusetzen. Die Konfession des Landesvaters hatten alle Untertanen anzunehmen. So wurden auch die Leonberger nach mehrfachem Hin und Her schließlich komplett evangelisch. 1541 wurde in Leonberg eine Lateinschule und 1580 eine Mädchenschule eingerichtet. Witwensitz und Hexenjagd. Zwischen 1560 bis 1565 ließ Herzog Christoph anstelle der Burg das Schloss erbauen. 1566 erhielt der Marktbrunnen eine Wappnerfigur. Zwischen 1570 und 1621 schuf der Leonberger Bildhauer Jeremias Schwartz für Württemberg einmalige Grabmäler der Spätrenaissance an der evangelischen Stadtkirche, sowie die älteste Leonberger Stadtansicht von 1618. Johannes Kepler, der mit seinen Eltern 1575 von Weil der Stadt nach Leonberg zog, besuchte bis 1583 Leonberger Schulen. Von 1609 bis 1614 hatte Herzogin Sybilla ihren Witwensitz im Leonberger Schloss. Sie ließ Baumeister Heinrich Schickhardt den 1980 rekonstruierten Pomeranzengarten anlegen. 1609 erbaute Schickhardt für sie das Seehaus als Jagd- und Landsitz. Während der Zeit der Hexenverfolgung erhob der Leonberger Vogt Lutherus Einhorn während seiner Amtszeit (1613–1629) gegen 15 Frauen Anklage wegen Hexereiverdachts und ließ acht Todesurteile gegen „überführte“ Hexen vollstrecken. Er handelte in Übereinstimmung mit der Leonberger Stadtobrigkeit und weiten Teile der Bevölkerung. Einer der bekanntesten württembergischen Hexenprozesse wurde 1620 in Leonberg eröffnet: gegen Katharina Kepler, Mutter des kaiserlichen Astronomen Johannes Kepler. Der bald nach Güglingen verlegte Prozess endete im Oktober 1621 mit dem Freispruch, Ergebnis des persönlichen und finanziellen Einsatzes von Johannes Kepler sowie der Standhaftigkeit der Angeklagten. Vom Dreißigjährigen Krieg bis zum Zweiten Weltkrieg. Während des Dreißigjährigen Krieges quartierte sich von 1634 bis 1638 General Gallas mit seinem Hofstaat im Leonberger Schloss ein. 1635 dezimierte die Pest die Bevölkerung um die Hälfte. Von 1670 bis 1673 war der Schriftsteller und Komponist Daniel Speer Lehrer an der Lateinschule. 1684 fand der erste Pferdemarkt statt, der heute noch veranstaltet wird. Im Jahr 1703 bestand die Bevölkerung aus 1076 Personen. Ab 1786 begann die Stadt, sich ihrer spätmittelalterlichen Befestigung zu entledigen. Die Stadtgräben wurden zugeschüttet, die Tore und die Stadtmauer großteils abgerissen und neu bebaut. Bei der Neugliederung des jungen Königreichs Württemberg am Anfang des 19. Jahrhunderts überstand das Leonberger Oberamt im Gegensatz zum benachbarten Markgröninger Oberamt die Verwaltungsreform und blieb bis 1938 bestehen. 1869 wurde die Stadt über die württembergische Schwarzwaldbahn ans Schienennetz angeschlossen. 1846 wurde die Hunderasse Leonberger aus Bernhardiner, Neufundländer und Pyrenäenberghund gezüchtet. Nach der Machtergreifung der Nationalsozialisten 1933 kam es immer häufiger zu teilweise blutigen Straßenschlachten zwischen zumeist Leonberger SA-Leuten, die in Eltingen auf KPD-Anhänger losgingen. 1938 wurde die kleinbäuerlich-proletarisch geprägte KPD-Hochburg Eltingen schließlich in das eher bürgerliche Leonberg eingemeindet. Im gleichen Jahr (1938) wurde der Engelbergtunnel als erster Autobahntunnel Deutschlands gebaut und im Zuge der Kommunalreform das Oberamt in den Landkreis Leonberg überführt. In den Röhren des Engelbergtunnels wurden während des Zweiten Weltkrieges Flugzeugteile von bis zu 3.500 KZ-Häftlingen produziert, die im KZ-Außenlager des elsässischen KZ Natzweiler-Struthof interniert wurden. Am Südende der inzwischen stillgelegten Röhren befindet sich heute eine KZ-Gedenkstätte. Hier steht eine am 8. Mai 2005 eingeweihte und vom Tübinger Künstler Johannes Kares entworfene Namenswand. Zeitgeschichte. Die Einwohnerzahl der Stadt Leonberg überschritt 1961 die Grenze von 20.000. Daraufhin stellte die Stadtverwaltung den Antrag auf Erhebung zur Großen Kreisstadt, was die baden-württembergische Landesregierung dann mit Wirkung vom 1. Oktober 1963 beschloss. Bei der Kreisreform 1973 wurde der Landkreis Leonberg aufgelöst. Der südliche Teil und mit ihm die Stadt Leonberg kamen zum Landkreis Böblingen, nördliche Teile des Kreises wurden dem Enzkreis und dem Landkreis Ludwigsburg zugeordnet. Mit der Eingliederung von drei Nachbargemeinden 1975 erreichte das Stadtgebiet seine heutige Ausdehnung. Religionen. Die Bevölkerung von Leonberg gehörte ursprünglich zum Bistum Speyer und war dem Landkapitel Grüningen im Archidiakonat Trinitatis zugeteilt (siehe Karte). Da die Stadt von Anfang an württembergisch war, hat Herzog Ulrich nach seiner Rückkehr aus dem Exil (1534) auch hier die Reformation durchgesetzt. Daher war Leonberg über mehrere Jahrhunderte hinweg eine überwiegend protestantische Stadt. 1552 wurde die Stadt Sitz eines Dekanats (siehe Kirchenbezirk Leonberg), dessen Dekanatskirche die Stadtkirche ist. Die evangelische Kirchengemeinde Leonberg wuchs nach dem Zweiten Weltkrieg infolge Zuzugs stark an und wurde daher geteilt. So entstand die Blosenbergkirchengemeinde (Kirche von 1966). Bereits 1959 wurde in der Gartenstadt ein Gemeindehaus für die dortige Bevölkerung gebaut. Die Kirchengemeinde im Stadtteil Eltingen besteht ebenfalls bereits seit der Reformation. Von dieser Gemeinde wurde in den 1960er Jahren die Kirchengemeinde Ramtel (Versöhnungskirche, erbaut 1965) abgetrennt. Alle vier Gemeinden (Stadtkirche, Blosenberg, Eltingen und Ramtel) bilden zusammen die Evangelische Gesamtkirchengemeinde Leonberg. Auch in den Stadtteilen Gebersheim, Höfingen und Warmbronn wurde infolge der frühen Zugehörigkeit zu Württemberg die Reformation eingeführt. Es gibt daher jeweils eine evangelische Kirchengemeinde, die wie die vier Gemeinden der Gesamtkirchengemeinde Leonberg zum Dekanat Leonberg innerhalb der Evangelischen Landeskirche in Württemberg gehören. Katholiken gibt es in Leonberg erst wieder seit dem späten 19. Jahrhundert. Für sie wurde 1946 eine eigene Pfarrei errichtet und 1950 eine eigene Kirche, St. Johannes Baptista, gebaut. Zur Kirchengemeinde gehört auch der Stadtteil Warmbronn, wo es jedoch eine eigene Kirche St. Franziskus gibt. Im Stadtteil Höfingen wurde 1966 die Kirche St. Michael erbaut und 1967 zur Pfarrei erhoben. Diese betreut auch die Katholiken aus Gebersheim. Beide Kirchengemeinden bilden die Seelsorgeeinheit 6 im Dekanat Böblingen des Bistum Rottenburg-Stuttgart. Neben den beiden großen Kirchen gibt es in Leonberg auch Freikirchen und freie Gemeinden, darunter die Evangelisch-methodistische Kirche (Pauluskirche), die Adventgemeinde, die BMG Leonberg und die Immanuel-Gemeinde Leonberg e. V. Auch die Neuapostolische Kirche ist in Leonberg vertreten sowie die Zeugen Jehovas. In der Berliner Straße befindet sich eine Moschee der DİTİB mit 48 Gebetsplätzen. Einwohnerentwicklung. Die Einwohnerzahlen sind Schätzungen, Volkszählungsergebnisse (¹) oder amtliche Fortschreibungen der jeweiligen Statistischen Ämter (nur Hauptwohnsitze). Bürgermeister. Kuhnert-Plastik und Stadtwappen vor dem Neuen Rathaus An der Spitze der Stadt Leonberg wird seit 1304 ein vom Landesherrn ernannter Schultheiß erwähnt. Ab 1425 trat an dessen Stelle der Vogt, der zugleich das gesamte Amt Leonberg verwaltete. Ab 1535 gab es einen Obervogt und einen Untervogt. Beide wählten den Richter. Einen Rat gibt es seit 1312. Um 1523 hatte er acht Mitglieder. Daneben gab es seit dem 15. Jahrhundert zwei Bürgermeister, seit 1582 drei. 1596/97 waren Claus Koch, Michael Beck und Jacob Mochel Rechnung führende Bürgermeister. Ab 1759 stand ein Oberamtmann an der Spitze von Stadt und Amt, das von nun an Oberamt war. 1819 wurden die beiden Bereiche voneinander getrennt, Stadtoberhaupt war nun der gewählte „Stadtschultheiß“, seit 1930 Bürgermeister und mit der Erhebung zur Großen Kreisstadt am 1. Oktober 1963 lautet die Amtsbezeichnung Oberbürgermeister. Dieser wird von den Wahlberechtigten auf acht Jahre direkt gewählt. Er ist Vorsitzender des Gemeinderats. Seine Stellvertreter sind der Erste Beigeordnete mit der Amtsbezeichnung „Erster Bürgermeister“ und ein weiterer hauptamtlicher Beigeordneter mit der Amtsbezeichnung „Bürgermeister“. Wappen und Flagge. Das Wappen der Stadt Leonberg zeigt in Gold einen rot bewehrten und rot bezungten, schwarzen, aufrecht schreitenden, doppelschwänzigen Löwen. Die Stadtflagge ist schwarz-gelb. Die früheste Überlieferung des Wappens stammt aus dem Jahre 1312. Straßenverkehr. Leonberg ist durch die Bundesautobahnen 8 (Karlsruhe–Stuttgart–Ulm–München) und 81 (Würzburg–Stuttgart–Singen) an das überregionale Straßennetz angeschlossen. Beide Autobahnen werden am Autobahndreieck Leonberg verknüpft, das sich südlich der Kernstadt befindet. In unmittelbarer Nähe des Dreiecks befindet sich die Anschlussstelle Leonberg-Ost. Mit dem Ausbau der A 8 zusammen mit der B 295 kam 2008 die Anschlussstelle Leonberg-West hinzu. Die B 295 verläuft derzeit noch mitten durch Leonberg und hat ein sehr hohes Verkehrsaufkommen. Öffentliche Verkehrsmittel. Den öffentlichen Personennahverkehr (ÖPNV) bedient vor allem die seit 1978 bestehende Linie S6 (Weil der Stadt–Leonberg–Stuttgart Schwabstraße) der S-Bahn Stuttgart, die auf der Schwarzwaldbahn verkehrt. Sie ist eine Nahverkehrsverbindung in die Landeshauptstadt. Neben dem Bahnhof Leonberg gibt es Haltepunkte im Stadtteil Höfingen und im Stadtteil Silberberg (Haltepunkt "Rutesheim"). Ferner verkehren im Stadtgebiet zahlreiche Buslinien. Alle Linien verkehren zu einheitlichen Preisen innerhalb des Verkehrs- und Tarifverbund Stuttgart (VVS). Umweltzone. In der Kernstadt von Leonberg gilt seit dem 1. März 2008 (ursprünglich 1. Juli 2007, Startzeitpunkt wegen fehlender Verwaltungsvorschriften verschoben) die Feinstaubplakettenpflicht. Nur Fahrzeuge, die mindestens der Schadstoffgruppe 2 angehören, durften ab diesem Zeitpunkt in oder durch das Stadtgebiet fahren. Fahrzeuge der Schadstoffgruppe 1 (ohne Plakette) unterliegen seitdem einem Fahrverbot. Seit 1. Januar 2012 wurde das Fahrverbot nach der Kennzeichnungsverordnung auf Fahrzeuge der Schadstoffgruppe 2 (rote Plakette), seit 1. Januar 2013 auf Fahrzeuge der Schadstoffgruppe 3 (gelbe Plakette) ausgeweitet. Am 2. Dezember 2013 wurde eine regionale Umweltzone Leonberg/Hemmingen und Umgebung gebildet (Übersicht). Einkaufsmöglichkeiten. Neben zahlreich vorhandenen Läden befindet sich im Stadtzentrum das Leo-Center, ein über 90 Geschäfte verfügendes Einkaufszentrum. Es wurde 1973 in Betrieb genommen. Quer gegenüber auf der anderen Seite der Kreuzung Römer-/Eltinger Straße befindet sich die Römergalerie, in der eine große Anzahl Läden, Restaurants sowie Büros und Arztpraxen untergebracht sind. Weitere Einkaufszonen findet man in der Altstadt rund um den Marktplatz, in Eltingen (Carl-Schmincke- und Poststraße), und an der Ecke Post-/Römerstraße (Möbelhaus, Baumarkt, Lebensmittelmärkte). Ansässige Unternehmen. Die Leonberger Bausparkasse wurde 1924 als "Christlicher Notbund zur gegenseitigen Hilfe" von Christian Röckle in Leonberg gegründet. Seit Übernahme durch die Wüstenrot AG 2001 existiert die Leonberger Bausparkasse nicht mehr. Ihre Gebäude wurden abgerissen, wobei die beiden höchsten Gebäude am 30. Mai 2009 gesprengt wurden. Auf dem Gelände der ehemaligen Firma Motometer betreibt die Robert Bosch GmbH seit den 90er Jahren ein Verwaltungs- und Entwicklungszentrum mit rund 1.100 Arbeitsplätzen. Leonberg ist Stammsitz des Familienunternehmens GEZE, einem Anbieter von Türtechnik sowie Sicherheits- und Lüftungssystemen, das in Leonberg rund 900, weltweit 2.600 Mitarbeiter beschäftigt (Stand 2012). 1952 wurde in Leonberg die LEWA gegründet. Sie ist ein weltweit tätiger Hersteller von Dosierpumpen, Prozess-Membranpumpen und Dosier- und Mischanlagen für die Prozessindustrie. Sie beschäftigt in Leonberg rund 560 Mitarbeiter, weltweit ca. 1000 (Stand 2015). Leonberg ist seit 1953 Sitz der Brückner Textilmaschinenbau. Der Automobilhersteller und auf Porsche-Fahrzeuge spezialisierte Tuningbetrieb Gemballa Automobiltechnik beschäftigt etwa 30 Mitarbeiter. Im Jahre 1994 übersiedelte die traditionelle Klavierfabrik Pfeiffer von Stuttgart nach Leonberg. Medien. In Leonberg erscheint als Tageszeitung die Leonberger Kreiszeitung. Seit Oktober 2005 hat die Leonberger Kreiszeitung den Mantel der Stuttgarter Zeitung (zuvor von den Stuttgarter Nachrichten) übernommen und liefert aus eigener Redaktion den Lokalteil für die Stadt Leonberg, die Teilorte und den Altkreis Leonberg zu. Weinbau. Leonberg ist ein Weinort des Anbaugebietes Württemberg und zählt zum Bereich Remstal-Stuttgart. Hauptanbaugebiete sind die südlich des Autobahndreiecks gelegene Feinau sowie der glemsaufwärts gelegene Ehrenberg. Behörden, Gericht und Einrichtungen. Leonberg hat ein Finanzamt, ein Notariat und ein Amtsgericht, das zum Landgerichts- und Oberlandesgerichts-Bezirk Stuttgart gehört. Ferner befindet sich hier eine Außenstelle des Landratsamts Böblingen. Die Stadt ist Sitz des Kirchenbezirks Leonberg der Evangelischen Landeskirche in Württemberg. Bildungseinrichtungen. In Leonberg sind alle Schultypen vorhanden. Mit dem Albert-Schweitzer-Gymnasium und dem Johannes-Kepler-Gymnasium gibt es zwei Allgemeinbildende Gymnasien, sowie mit Wirtschafts- und Technischem Gymnasium am Beruflichen Schulzentrum auch zwei berufliche Gymnasien. Weiterhin bestehen die Gerhart-Hauptmann-Realschule, die Ostertag-Realschule, die Pestalozzischule (Förderschule), die August-Lämmle- und die Schellingschule (Grund- und Werkrealschulen), sowie die reinen Grundschulen in der Kernstadt (Mörikeschule, Sophie-Scholl-Schule und Spitalschule) und in den Stadtteilen Höfingen, Gebersheim und Warmbronn. Der Landkreis Böblingen ist Schulträger des Beruflichen Schulzentrums (diverse Ausbildungsberufe, Berufsfachschulen, Berufskolleg und berufliche Gymnasien) sowie der Karl-Georg-Haldenwang-Schule für Geistigbehinderte mit Schulkindergarten. Die private Evangelische Fachschule für Altenpflege rundet das schulische Angebot in Leonberg ab. Freizeiteinrichtungen. Der Engelbergturm bietet einen weiten Rundblick Das alte Eltinger Freibad wurde 1990 umgebaut zum Leobad, einem großen Freizeit- und Sportbad, in dem bis 2010 über vier Millionen Besucher gezählt wurden. Ein kleines Familienbad wird im Stadtteil Höfingen durch den Verein Bädle e. V. betrieben. Das 1972 fertiggestellte Sportzentrum mit Sporthalle und Hallenbad musste im August 2011 wegen massiver Sicherheitsmängel in der Gebäudetechnik geschlossen werden. Bei einem Bürgerentscheid am 25. März 2012 wurde entschieden, dass eine Sanierung erfolgen soll. Zuvor hatte der Gemeinderat einen Abriss und Neubau beschlossen. Nach der für rund 12 Millionen Euro durchgeführten Sanierung wurde das Sportzentrum am 2. Februar 2014 wieder eröffnet. Theater. Der Schwarze Adler – einst ein mittelalterliches Stadtschloss Das Theater im Spitalhof Leonberg, das sich innerhalb der Spitalschule befindet, ist eine Musik- und Theaterbühne für Kleinkunst, Musik sowie Kinder- und Jugendtheater. Regelmäßige Theaterdarbietungen verschiedener Tourneebühnen sind in der Stadthalle Leonberg zu sehen. Musik. Der 1840 gegründete "Liederkranz Leonberg" betreibt Chorsingen und besitzt ein eigenes Sängerheim. Der "Musikverein Lyra Eltingen" wurde 1897 gegründet. Ein weiterer Musikverein ist die "Stadtkapelle Leonberg". Das "Sinfonieorchester Leonberg" wurde 1970 als Jugendsinfonieorchester gegründet. Heute besteht es aus 70 Musikern und wird vom Dirigenten Alexander Adiarte geleitet. Musikalische Ausbildungsstätten in Leonberg sind die "Jugendmusikschule", die in Kooperation mit dem Musikverein Lyra Eltingen, dem "Musikverein Höfingen" und dem Musikverein Stadtkapelle Leonberg steht, und die Musikschule "Villa Musica", die im Verbund mit dem Liederkranz Leonberg zusammenarbeitet. Parks. Der Pomeranzengarten ist der einzige in Deutschland erhaltene Terrassengarten aus der Zeit der Hochrenaissance. Er wurde 1609 im Auftrag der Herzogin Sibylla von Württemberg angelegt, als das Schloss zum Witwensitz württembergischer Herzoginnen umfunktioniert wurde. Ab 1742 wurde der Pomeranzengarten für den Obst- und Gemüsebau genutzt, bis man ihn ab 1980 nach den Originalplänen Heinrich Schickhardts restaurierte. Der "Stadtpark" liegt zwischen Leonberg und Eltingen und wurde auf dem Gelände eines Gipswerks angelegt, das 1977 seinen Betrieb einstellte. Gipssteinbrüche wurden als Seen in die Anlagen integriert. Viele Skulpturen sind im Stadtpark aufgestellt. Im Süden des Parks wurde ein Friedensmahnmal errichtet, an dessen Eingang seit 1990 ein Segment der Berliner Mauer steht, das zuvor an der Grenze des Leonberger Partnerbezirks Berlin-Neukölln stand. Regelmäßige Veranstaltungen. Leonberger Pferdemarkt auf dem historischen Marktplatz Linda Hamilton. Linda Carroll Hamilton (* 26. September 1956 in Salisbury, Maryland) ist eine US-amerikanische Schauspielerin. Sie ist vor allem durch die Rolle der "Sarah Connor" in den Filmen "Terminator" und "Terminator 2 – Tag der Abrechnung" bekannt geworden. Karriere. Linda Hamilton studierte in New York City Schauspielerei. Dort besuchte sie auch Schauspielstunden von Lee Strasberg. Als richtige Schauspielerin spielte sie zunächst in kleineren Low-Budget-Filmen mit, bevor sie 1980 für eine der Hauptrollen in der Seifenoper "Secrets of Midland Heights" engagiert wurde. Daraufhin spielte sie auch in den Filmen "TAG: Assassination Game" und der Stephen King-Verfilmung "Kinder des Zorns" jeweils eine Hauptrolle. Die Rolle der "Sarah Connor" in James Camerons Erfolgsfilm "Terminator" (1984) erhöhte ihren Bekanntheitsgrad weiter. 1986 spielte sie in "Black Moon" neben Tommy Lee Jones die weibliche Hauptrolle. Danach begann sie zunächst wieder in Fernsehserien mitzuwirken und war in "Mord ist ihr Hobby" zu sehen. In der Fernsehserie "Die Schöne und das Biest" spielte sie zwischen 1987 und 1989 die Rolle der "Catherine Chandler". Dies brachte ihr eine Emmy und eine Golden-Globe-Nominierung ein. 1990 kehrte sie in den Bereich Film zurück und spielte in "Mr. Destiny" neben Michael Caine. Ein Jahr darauf übernahm sie in "Terminator 2 – Tag der Abrechnung" erneut die Rolle der "Sarah Connor". Der Film brach Rekorde und wurde einer von Hamiltons größten Erfolgen. 1995 spielte sie in dem Fernsehfilm "A Mother's Prayer" neben Bruce Dern und Kate Nelligan die Hauptrolle der AIDS-kranken Mutter. Dafür wurde sie in der Kategorie der besten dramatischen Darstellung für einen CableACE Award und 1996 für einen weiteren Golden Globe nominiert. 1997 spielte sie in "Die Verschwörung im Schatten" neben Charlie Sheen und in "Dante’s Peak" neben Pierce Brosnan jeweils die weibliche Hauptrolle. Für "Dante's Peak" bekam sie einen Blockbuster Entertainment Award. Seitdem war Hamilton ausschließlich in Serien wie "Frasier" und "Immer wieder Jim" sowie zahlreichen Fernsehfilmen zu sehen. 2009 sprach sie in ' erneut den Text der "Sarah Connor". Von 2010 bis 2012 spielte sie in 12 Folgen der Fernsehserie "Chuck" die Rolle der lang vermissten Mutter von Chuck und Ellie. Außerdem hatte sie auch 2010 in der Serie "Weeds – Kleine Deals unter Nachbarn" einen Gastauftritt. 1990 wurde sie zudem von dem Magazin People in die Liste der 50 schönsten Menschen der Welt gewählt. Privates. Linda Hamilton ist die Stieftochter des Feuerwehrchefs von Salisbury, welcher bei einem Unfall verstarb, als sie fünf Jahre alt war. Sie hat eine Zwillingsschwester namens Leslie, eine ältere Schwester und einen jüngeren Bruder. Sie wuchs, nach eigener Aussage, in einer „sehr öden angelsächsischen“ Familie auf und besuchte zusammen mit ihrer Zwillingsschwester die Highschool in Salisbury. Danach studierte sie zwei Jahre lang am "Washington College" in Chestertown. Hamilton war zweimal verheiratet, zunächst von 1982 bis 1989 mit dem Schauspieler Bruce Abbott, mit dem sie einen Sohn, Dalton Bruce, hat. Dieser wurde am 4. Oktober 1989 geboren und verkörperte John Connor als Baby im Film Terminator 2. Im Jahr 1997 heiratete sie James Cameron, mit dem sie eine Tochter hat. Im Rahmen der Scheidung von Cameron 1999 erhielt Hamilton 50 Millionen Dollar. Im Oktober 2005 war Hamilton zu Gast bei Larry King Live, wo sie gestand dass sie an einer Bipolaren Störung leidet, welche auch der Grund für die Scheidung von Abbott gewesen sei. Lorraine Bracco. Lorraine Bracco (1972) in ihrem Highschool-Jahrbuch Lorraine Bracco (* 2. Oktober 1954 in New York City) ist eine US-amerikanische Schauspielerin. Frühes Leben. Bracco wurde in Brooklyn als Tochter von Eileen und Salvatore Bracco geboren und wuchs im angrenzenden North Hempstead auf Long Island auf. 1972 schloss sie die Hicksville Highschool ab. Zwei Jahre später, 1974, zog Bracco nach Frankreich, wo sie als Model für Jean-Paul Gaultier arbeitete. Dort machte sie Bekanntschaft mit der Regisseurin und Autorin Lina Wertmüller, die sie für eine Filmproduktion engagierte. Karriere. Die US-Amerikanerin wirkte daraufhin in mehreren französischen Filmen mit, auch verdingte sie sich als Discjockey bei Radio Luxembourg. Die Darstellung der Mafia-Ehefrau Karen Hill in Martin Scorseses "Good Fellas – Drei Jahrzehnte in der Mafia" (1990) brachte ihr 1991 sowohl eine Oscar- als auch eine Golden Globe-Nominierung als beste Nebendarstellerin ein. Lorraine Bracco gehörte zudem zur Stammbesetzung der erfolgreichen Mafia-Serie "Die Sopranos". Ursprünglich hätte sie Tony Sopranos Ehefrau Carmella spielen sollen. Diese Rolle übernahm schließlich Edie Falco. Bracco verkörperte daraufhin die Psychiaterin Dr. Jennifer Melfi, zu der Tony Soprano eine besondere Beziehung hegt. Aufgrund dieser Rolle erhielt sie zahlreiche Fernsehpreisnominierungen und einige Auszeichnungen. Privatleben. Bracco war bislang zweimal verheiratet: Die erste Ehe führte sie mit Daniel Guerard in den späten 1970er und frühen 1980er Jahren. Aus dieser Ehe stammt eine gemeinsame Tochter. Aus einer Beziehung mit Harvey Keitel hat sie eine weitere Tochter. Nach der Trennung von Keitel war Bracco von 1994 bis 2002 mit dem Regisseur und Schauspieler Edward James Olmos verheiratet. Louis de Broglie. Louis-Victor Pierre Raymond de Broglie (* 15. August 1892 in Dieppe, Normandie; † 19. März 1987 in Louveciennes, Département Yvelines) war ein französischer Physiker. Er gehörte zur französischen Adelsfamilie der Broglies und war jüngerer Bruder des Experimentalphysikers Maurice de Broglie. De Broglie gilt als einer der bedeutendsten Physiker des 20. Jahrhunderts, für seine Entdeckung der Wellennatur des Elektrons (Welle-Teilchen-Dualismus) in seiner Dissertation und der daraus resultierenden Theorie der Materiewellen erhielt er 1929 den Nobelpreis für Physik. Studien und Erster Weltkrieg. Louis-Victor de Broglie, viertes Kind von Victor de Broglie, 5. Herzog de Broglie und Pauline d'Armaillé wurde 1892 in Dieppe geboren. Louis-Victor besuchte das Lycée Janson de Sailly in Paris. Im Jahr 1960 folgte er seinem kinderlosen Bruder Maurice als Herzog nach. Während seines Studiums an der Pariser Sorbonne befasste sich Louis-Victor zunächst mit der Philosophie und der Geschichte, insbesondere mit Rechtsgeschichte und politischer Geschichte des Mittelalters. Nebenbei las er Werke von Henri Poincaré wie z. B. "Wissenschaft und Hypothese" und "Der Wert der Wissenschaft". 1910 schloss er sein erstes Studium mit dem Lizenziat ab. Auf Anregung seines siebzehn Jahre älteren Bruders Maurice, eines promovierten Physikers, studierte Louis de Broglie ab 1911 Mathematik und Physik. Maurice, der sich nach dem Tode des Vaters 1906 um Erziehung und Entwicklung seines jüngeren Bruders gekümmert hatte, versorgte Louis nun mit den Texten der Referate und Diskussionen der ersten Solvay-Konferenz, die 1911 in Brüssel stattfand. Durch diese Aufzeichnungen kam Louis de Broglie das erste Mal in intensiven Kontakt mit der Quantenphysik, die sein späteres physikalisches Schaffen prägen sollte. Durch den Ersten Weltkrieg musste de Broglie sein Studium mehrere Jahre unterbrechen. Er wurde Nachrichtenoffizier und verbrachte den größten Teil seiner Dienstzeit in der funktelegraphischen Station des Eiffelturms. Während seines Militärdienstes befasste sich de Broglie mit der Elektrotechnik und dem Nachrichtenwesen sowie mit der Ausbildung von elektrotechnischem Personal. Wissenschaftliche Karriere. Nach der Entlassung aus dem Heeresdienst 1919 setzte de Broglie seine Studien fort und wurde Mitarbeiter im Privatlabor seines Bruders, in dem er vorrangig über Röntgenspektroskopie und den Photoeffekt arbeitete. Ende des Jahres 1923 erschienen de Broglies erste Abhandlungen zur Wellenmechanik. 1924 schloss de Broglie sein Studium mit der berühmt gewordenen Dissertation ab, in der er vermutete, dass der Welle-Teilchen-Dualismus auf jegliche feste Materie anzuwenden sei. Diese kühne Idee wurde 1926 und 1927 vom Institut de France ausgezeichnet. 1929 folgten für die Entdeckung der Wellennatur der Elektronen die begehrte Medaille Henri Poincaré der Académie des sciences und der Nobelpreis für Physik. 1927 war de Broglie einer der Teilnehmer des 5. Solvay-Kongresses in Brüssel. 1929 wurde er zum Professor für Theoretische Physik am Institut Henri Poincaré in Paris berufen, wechselte jedoch 1932 an die Sorbonne, wo er bis 1962 lehrte. 1933 wurde de Broglie Mitglied der. Neben seinen Arbeiten auf physikalischem Gebiet veröffentlichte de Broglie vor allem während seiner Zeit am Institut Henri Poincaré einige philosophische und problemgeschichtliche Aufsätze. 1938 erhielt er die Max-Planck-Medaille. Zweiter Weltkrieg und danach. Während der Kämpfe zwischen Frankreich und Deutschland im Zweiten Weltkrieg wurde de Broglie mit der dokumentarischen Sammlung der in den USA veröffentlichten Arbeiten über Nachrichtenübertragung betraut. 1941 veröffentlichte er in diesem Zusammenhang ein Buch über Hochfrequenztechnik. 1944 wurde Louis de Broglie Mitglied der Académie française und nach dem Zweiten Weltkrieg Berater der französischen Atomenergiekommission. Louis-Victor de Broglie starb am 19. März 1987 in Louveciennes bei Paris. Frühe Forschungsarbeiten. In seinen frühen Forschungen, vor allem während der Arbeit im physikalischen Labor seines Bruders Maurice, beschäftigte de Broglie sich mit dem lichtelektrischen Effekt von Röntgenstrahlen. 1928 veröffentlichte er zusammen mit seinem Bruder ein Buch über Röntgenphysik. Anfang der 20er Jahre widmete er sich der Quantentheorie. Es gelang ihm, die Quantenformel Max Plancks aus der Teilchentheorie des Lichts abzuleiten. Eine kühne Doktorarbeit – Elektronen mit Welleneigenschaften. 1924 schloss de Broglie sein Studium mit der berühmt gewordenen Dissertation (Untersuchungen zur Quantentheorie) ab. Nach gründlicher Analyse der von Albert Einstein gefundenen Äquivalenz von Masse und Energie, die in der Formel formula_1 ihren Ausdruck findet, und der Erkenntnisse der Atomphysik kommt de Broglie zu der Überzeugung, Energie sei wie Masse in Form von Teilchen in kleinen Raumbereichen lokalisiert. Der Quantencharakter der Materie, wie er sich beispielsweise in den Atomspektren zeigt, sei aber nur zu erklären, wenn jeder Masse formula_2 nach der von Max Planck postulierten Beziehung formula_3 eine Frequenz formula_4 zugeordnet wird. Diese für das Teilchen charakterisierende Frequenz ist nach Ansicht von de Broglie nicht auf das Teilchenvolumen beschränkt, sondern ist in Form einer das Teilchen begleitenden Welle auch in einem großen Raumbereich präsent. De Broglie nennt diese Begleitwelle Phasenwelle, weil Teilchen und Welle über die Phase am Ort des Teilchen aneinander gekoppelt sind. Unter dieser Bedingung erfüllen sowohl Teilchen als auch Welle die Transformationsgesetze der speziellen Relativitätstheorie. Der Welle-Teilchen-Dualismus, der damals nur für Photonen bekannt war, ist nach Meinung von de Broglie ein Wesensmerkmal nicht nur der Photonen, sondern auch der Materie. Auch einem klassischen Teilchen – z. B. einem Elektron – können somit Welleneigenschaften zugesprochen werden. Im Ruhesystem des Teilchens ist die Wellenlänge der Phasenwelle unendlich groß. Ist das Teilchen in Bewegung, ergibt sich bei Anwendung der Lorentz-Transformation eine Modulation der Welle mit der Wellenlänge Der Prüfungsausschuss der Pariser Sorbonne, zu dem auch die bekannten Physiker Jean-Baptiste Perrin und Paul Langevin gehörten, war sich unsicher, wie er auf diesen kühnen und experimentell nicht bestätigten Vorschlag reagieren sollte. De Broglie selbst äußerte in Bezug auf die Skepsis Paul Langevins, dieser sei ("vermutlich ein wenig erstaunt über die Neuheit meiner Ideen".) Der Prüfungsausschuss akzeptierte schließlich de Broglies Dissertation. Die Versuche von Clinton Davisson und Lester Germer 1927 mit der Elektronenbeugungsröhre und von George Paget Thomson 1928 bestätigten den Wellencharakter der Elektronen auch experimentell. Materiewellen. d. h. ein Elektron kann sich nur ohne Energieverlust um den Atomkern bewegen, wenn sein Bahnumfang ein ganzzahliges Vielfaches seiner Wellenlänge ist. 1926 machte sich de Broglie an die Formulierung einer Differentialgleichung, die das Verhalten der Elektronen beschrieb. Diese Ansätze lieferten wichtige Anregungen für Erwin Schrödinger, der noch im selben Jahr seine partielle Differentialgleichung (Schrödingergleichung) aufstellte. Diese konnte das Verhalten der Elektronen in den stationären Energiezuständen darstellen. In weiteren Arbeiten widmete de Broglie sich der Quantenfeldtheorie der Elementarteilchen und Wellengleichungen für Teilchen mit höherem Spin. Philosophische Herangehensweise. Zunächst versuchte Louis de Broglie, die Wellenmechanik der Teilchen deterministisch zu erklären, und somit sämtliche Vorgänge exakt berechenbar darzustellen. Nach dem fünften Solvay-Kongress 1927, auf dem er rege Diskussionen mit anderen berühmten Physikern der Zeit wie Albert Einstein, Niels Bohr, Max Planck u .a. führte, gab er den deterministischen Ansatz auf und näherte sich der Wahrscheinlichkeitsinterpretation. Erst 1951 näherte sich de Broglie durch die Arbeiten von David Bohm und Jean-Pierre Vigier wieder einer "kausalen und konkreten Interpretation der Wellenmechanik". →De-Broglie-Bohm-Theorie Durch de Broglies philosophische und problemgeschichtliche Aufsätze, die vor allem aus seiner Zeit am Institut Henri Poincaré in Paris stammen, wird deutlich, dass de Broglies Beschäftigung mit physikalischen Grundlagenproblemen oft auf seinem historischen Interesse gründete. So ging z. B. seine Idee der Materiewellen letztlich aus dem intensiven Studium der Geschichte der Lichttheorie hervor. Lise Meitner. Lise Meitner (* 7. November 1878 in Wien als Elise Meitner; † 27. Oktober 1968 in Cambridge, Vereinigtes Königreich) war eine bedeutende österreichische Kernphysikerin. Unter anderem veröffentlichte sie im Februar 1939 zusammen mit ihrem Neffen Otto Frisch die erste physikalisch-theoretische Erklärung der Kernspaltung, die ihr Kollege Otto Hahn und dessen Assistent Fritz Straßmann am 17. Dezember 1938 entdeckt und mit radiochemischen Methoden nachgewiesen hatten. Lise Meitner feierte ihren Geburtstag stets am 7. November. obwohl im Geburtsregister der Israelitischen Kultusgemeinde Wien der 17. November 1878 angegeben worden war. Leben und Arbeit. Geburtshaus und Gedenktafel in Wien Leopoldstadt Meitner wurde am 7. November 1878 in Wien Leopoldstadt (2. Wiener Gemeindebezirk) geboren. Sie war die dritte Tochter des aus der Gegend von Mährisch Weißkirchen stammenden jüdischen Rechtsanwaltes Philipp Meitner (1838–1910) und seiner Frau Hedwig Meitner-Skovran, die 1875 geheiratet hatten. Ihre Eltern wohnten damals in der Kaiser-Joseph-Straße, der heutigen Heinestraße, auf Nr. 27. Ihr Vater betrieb dort, bevor die Familie an „bessere Adressen“ übersiedelte, seine Kanzlei als Hof- und Gerichtsadvokat. Lise Meitner wurde protestantisch erzogen. 1908 wurde sie durch die Taufe in die evangelische Kirche aufgenommen. Schule, Universität und Promotion. Ihre Schullaufbahn absolvierte sie auf einer Bürgerschule, da an den Gymnasien Mädchen nicht zugelassen wurden. Nach dem Schulabschluss legte Lise Meitner das Lehrerinnen-Examen in Französisch ab. Außerdem bereitete sie sich im Selbststudium auf die Matura vor und legte die Reifeprüfung 1901 im Alter von 22 Jahren am Akademischen Gymnasium Wien ab, wo sie als "gewählten Beruf" die "realistischen Studien" der Philosophie angab. Durch ihr Abschlusszeugnis berechtigt, begann Lise Meitner 1901 ihr Studium der Physik, Mathematik und Philosophie an der Universität Wien. Ihr wichtigster akademischer Lehrer dort wurde Ludwig Boltzmann. Bereits in den ersten Jahren beschäftigte sie sich mit Fragestellungen der Radioaktivität. Sie wurde 1906 als zweite Frau an der Wiener Universität im Hauptfach Physik über "Prüfung einer Formel Maxwells" (veröffentlicht unter dem Titel "Wärmeleitung in inhomogenen Körpern") bei Franz-Serafin Exner promoviert. Anschließend bewarb sie sich bei Marie Curie in Paris, allerdings erfolglos. Das erste Jahr nach ihrer Promotion arbeitete sie am Institut für Theoretische Physik in Wien. Chemisches Institut in Berlin. Im Jahr 1907 ging sie zur weiteren wissenschaftlichen Ausbildung nach Berlin, wo sie vor allem Vorlesungen bei Max Planck hören wollte. Dort traf sie erstmals auf den jungen Chemiker Otto Hahn, mit dem sie die folgenden 30 Jahre zusammenarbeiten sollte. Sie arbeitete mit Hahn – wie er auch – als „unbezahlter Gast“ in dessen Arbeitsraum, einer ehemaligen „Holzwerkstatt“, im Chemischen Institut der Friedrich-Wilhelms-Universität in der Hessischen Straße. Da im damaligen Preußen Frauen noch nicht studieren durften, musste sie das Gebäude immer durch den Hintereingang betreten und durfte die Vorlesungsräume und Experimentierräume der Studenten nicht betreten. Dieses Verbot fiel erst 1909, nachdem das Frauenstudium in Preußen offiziell eingeführt worden war. Otto Hahn entdeckte 1909 den radioaktiven Rückstoß und mit der sich daran anschließenden „Rückstoßmethode“ fanden Hahn und Lise Meitner in den Folgejahren auch diverse radioaktive Nuklide. Durch diese Erfolge machte Lise Meitner sich in der Physik einen Namen und lernte unter anderem Albert Einstein und Marie Curie persönlich kennen. Von 1912 bis 1915 war sie inoffizielle Assistentin bei Max Planck. Kaiser-Wilhelm-Institut für Chemie. 1912 verbesserten sich die Arbeitsbedingungen von Hahn und Meitner deutlich, als sie ihre Forschungen in der von Hahn aufgebauten Forschungsabteilung Radioaktivität des neu gegründeten Kaiser-Wilhelm-Instituts für Chemie der Kaiser-Wilhelm-Gesellschaft in Berlin-Dahlem (heutiger Hahn-Meitner-Bau an der Thielallee, Institut der Freien Universität Berlin) fortsetzen konnten. Meitner arbeitete zunächst unentgeltlich weiter, wurde jedoch 1913 wissenschaftliches Mitglied des Kaiser-Wilhelm-Instituts für Chemie. Zumindest zu Beginn des Ersten Weltkriegs zeigte sie sich ebenso von Kriegsbegeisterung ergriffen wie nahezu alle ihre damaligen Kollegen. Erster Weltkrieg. So hatte Hahn zusammen mit James Franck und Gustav Hertz im Auftrag durch Fritz Haber am 22. April 1915 persönlich den erstmaligen Einsatz von Chlorgas in der Zweiten Flandernschlacht überwacht. Die Giftgaswolke überraschte damals noch den Gegner, etwa 5000 Soldaten starben und weitere etwa 10.000 wurden kampfunfähig verletzt. Drei Tage darauf schrieb Meitner an Hahn: „Ich beglückwünsche Sie zu dem schönen Erfolg bei Ypern“. Meitner war allerdings selbst nicht an Forschung oder Entwicklung chemischer Kampfstoffe beteiligt. Sie ließ sich zur Röntgenassistentin und Krankenpflegerin ausbilden und war ab Juli 1915 zunächst als Röntgenschwester der österreichischen Armee in einem Lazarett an der Ostfront eingesetzt. Bereits im Oktober 1916 kehrte sie nach Berlin in das Institut zurück und arbeitete erneut gemeinsam mit Hahn, der im Dezember 1916 nach Berlin versetzt worden war. 1917 entdeckten Hahn und Meitner das chemische Isotop Protactinium 231, die langlebige Form des Elements Nr. 91, das mit dem schon 1913 von Kasimir Fajans und Oswald Helmuth Göhring entdeckten kurzlebigen Pa-Isotop Brevium in Konkurrenz stand. (Im Jahre 1949 wurde das neue Element Nr. 91 von der IUPAC endgültig Protactinium genannt und Hahn und Meitner als alleinige Entdecker bestätigt). Radiophysikalische Abteilung und Professur. 1918 erhielt Lise Meitner erstmals eine eigene radiophysikalische Abteilung mit angemessenem Gehalt und wurde Leiterin der physikalisch-radioaktiven Abteilung des Kaiser-Wilhelm-Instituts für Chemie. 1922 habilitierte sie sich und bekam dadurch das Recht, als Dozentin zu arbeiten. 1926 wurde sie außerordentliche Professorin für experimentelle Kernphysik an der Berliner Universität, Deutschlands erste weibliche Professur für Physik. Entzug der Lehrbefugnis und Vertreibung aus Deutschland. Anfang 1933 war Meitner wie viele andere noch zuversichtlich, dass die Folgen der Machtübernahme durch die NSDAP glimpflich bleiben würden. Derartige Zeiten des Umbruchs seien zunächst unvermeidlich mit allen möglichen Wirren verbunden, nun komme es auf vernünftige Zurückhaltung an. Hitlers im Radio übertragene Antrittsrede als Reichskanzler habe doch „sehr moderat geklungen, taktvoll und versöhnlich“. Aber als Folge des Gesetzes zur Wiederherstellung des Berufsbeamtentums von Anfang April 1933 wurde Meitner aufgrund ihrer jüdischen Abstammung die Lehrbefugnis entzogen, sie konnte ihre Arbeit an Bestrahlungsexperimenten mit Neutronen lediglich am (nicht staatlichen) Kaiser-Wilhelm-Institut fortsetzen. 1938, als Deutschland Österreich annektierte, wurde Lise Meitner deutsche Staatsbürgerin und war dadurch als gebürtige Jüdin in besonderer Weise gefährdet. Nobel-Institut in Stockholm. Otto Hahn hatte große Sorge um ihre Sicherheit und bereitete daher zusammen mit dem niederländischen Chemiker Dirk Coster ihre illegale Ausreise ins Exil vor, die am 13. Juli gelang. Über die Niederlande und Dänemark kam sie nach Schweden, wo sie ihre Forschungen bis 1946 am Nobel-Institut fortsetzte. Hahn und Meitner korrespondierten weiter miteinander. Ende Dezember 1938 schrieb ihr Hahn von einem Vorgang, den er, zusammen mit seinem Assistenten Fritz Straßmann, aufgrund äußerst sorgfältiger radiochemischer Methoden entdeckt hatte und den er als „Zerplatzen“ des Urankerns bezeichnete. Entdeckung der Kernspaltung. Durch Otto Hahn weiterhin über alle in Berlin vollzogenen Versuche auf dem Laufenden gehalten (er hatte die Physiker in seinem Institut nicht informiert und Lise Meitner als einzige über alle Experimente und Ergebnisse brieflich unterrichtet), konnte Lise Meitner im Februar 1939 mit ihrem Neffen, dem Kernphysiker Otto Robert Frisch, in dem Aufsatz „Disintegration of Uranium by Neutrons: a New Type of Nuclear Reaction“ eine erste physikalisch-theoretische Deutung (siehe auch Ida Noddack-Tacke) für das von Otto Hahn formulierte „Zerplatzen“ des Uran-Atomkerns geben. Frisch prägte dabei den Begriff „nuclear fission“ (Kernspaltung), der in der Folgezeit international anerkannt wurde. Die beiden Bruchstücke (Atomkerne), die bei der Spaltung entstehen, haben zusammen eine geringere Masse als der ursprüngliche Uranatomkern. Aus dieser Massendifferenz errechneten Lise Meitner und Otto Robert Frisch mit Einsteins Formel E=mc² die bei der Spaltung freiwerdende Energie von etwa 200 Millionen Elektronenvolt pro gespaltenem Atomkern. Meitner, inzwischen überzeugte Pazifistin, weigerte sich, Forschungsaufträge für den Bau einer Atombombe anzunehmen, obwohl sie von den USA immer wieder dazu aufgefordert wurde. Sie zog es vor, während des Zweiten Weltkrieges in Schweden zu bleiben. Nobel-Preis für Otto Hahn. Dennoch wird seit einigen Jahren von der amerikanischen Chemikerin und Feministin Ruth Lewin Sime die Ansicht vertreten, Otto Hahn habe den Nobelpreis nicht oder nicht allein verdient, habe Lise Meitner sogar bewusst ausgebootet, um ihn nicht mit ihr teilen zu müssen. Auch habe er sich ihr gegenüber in der Nachkriegszeit charakterlos verhalten. Diese Unterstellungen entfachten einen Sturm der Empörung unter den mit den historischen Fakten vertrauten Experten, werden aber nach wie vor in der heutigen Literatur immer wieder einmal zitiert und kontrovers diskutiert. Ernst Peter Fischer, Physiker und Wissenschaftshistoriker der Universität Konstanz bezeichnete die Tatsache, dass Lise Meitner keinen Nobelpreis erhielt, sogar drastisch als „Dummheit der schwedischen Akademie“. Lise Meitner hätte allerdings dieser simplifizierenden Einschätzung entschieden widersprochen, da sie Vorurteile und einseitige Interpretationen immer strikt abgelehnt hat. Als „jüdische Mutter der Atombombe“ und „Frau des Jahres“ wurde Lise Meitner 1946 bei einer Vorlesungsreise in den USA in der amerikanischen Presse zu ihrem Missfallen bezeichnet, ein Jahr nach den Atombombenabwürfen auf Hiroshima und Nagasaki. Für Lise Meitner war es stets undenkbar, ihre Arbeit in den Dienst einer Massenvernichtungswaffe zu stellen. Kernphysikalische Abteilung am Physikalischen Institut. Ab 1947 leitete Lise Meitner die kernphysikalische Abteilung des "Physikalischen Instituts der Königlich Technischen Hochschule Stockholm" und hatte diverse Gastprofessuren an US-amerikanischen Universitäten inne. In der Nachkriegszeit erhielt Lise Meitner zahlreiche Ehrungen in aller Welt, in besonderer Weise in der Bundesrepublik Deutschland, so beispielsweise 1955 den ersten „Otto-Hahn-Preis für Chemie und Physik“, 1957 den Orden Pour le mérite für Wissenschaften und Künste und 1962 die "Dorothea-Schlözer-Medaille" der Georg-August-Universität Göttingen. Für alle drei Ehrungen hatte Otto Hahn sie vorgeschlagen. 1959 wurde in Berlin – in Anwesenheit beider Namensgeber – das „Hahn-Meitner-Institut für Kernforschung“ (HMI) offiziell vom damaligen Regierenden Bürgermeister Willy Brandt eingeweiht. Zu allen diesen Anlässen, aber auch zu privaten Besuchen kam Lise Meitner stets gerne nach Deutschland. 1960 siedelte Lise Meitner zu ihrem Neffen Otto Robert Frisch nach Cambridge über, wo sie die letzten acht Jahre ihres Lebens verbringen sollte. Bis zu ihrem Tod mit 89 Jahren machte sie sich für eine friedliche Nutzung der Kernspaltung stark. Lise Meitner starb am 27. Oktober 1968, wenige Monate nach Otto Hahn. Bedeutung und Verdienste. Lise Meitners Werk wird sehr häufig auf die erste, Anfang 1939 zusammen mit Otto Frisch formulierte, physikalisch-theoretische Deutung der Kernspaltung reduziert. Diese war zweifellos von großer Bedeutung für die Entwicklung der militärischen und friedlichen Nutzung der Kernenergie, wurde aber bereits im Herbst 1939 durch eine umfassende Theorie der Kernspaltung ("The mechanism of nuclear fission") von Niels Bohr und John Archibald Wheeler ersetzt. Lise Meitner beobachtete die Verwendung der Kernenergie für Waffensysteme äußerst kritisch. Sie ähnelte darin ihrem langjährigen Partner Otto Hahn und anderen Pionieren der Kernphysik wie etwa Albert Einstein (der jedoch, auf Vorschlag von Leó Szilárd, Präsident Roosevelt dringend zum Bau der US-Atombombe aufforderte). Lise Meitner selbst hat allerdings nie irgendeinen öffentlichen Friedensappell initiiert oder unterzeichnet, obwohl sie mehrfach dazu gebeten wurde, und sich mit persönlichen Äußerungen zu den Themen ‚Atombombe, Kernwaffentests, nukleare Verseuchung usw.‘ immer zurückgehalten. Neben den allgemein bekannten Arbeiten erweiterte Lise Meitner vor allem die Kenntnis über das Wesen der Radioaktivität. Die meisten ihrer Arbeiten waren Untersuchungen der Radioaktivität, insbesondere der Alpha- und Betastrahlung. Dabei konzentrierte sie sich auf die Wirkung dieser Strahlen auf verschiedene Materialien. Sie entdeckte gemeinsam mit Otto Hahn eine Reihe radioaktiver Isotope, darunter Protactinium 231, Actinium C und Thorium D. Wesentliche Beiträge lieferte Lise Meitner auch zum Verständnis des Aufbaus der Atomkerne sowie der Energiefreisetzung beim radioaktiven Zerfall. Gemeinsam mit Otto Frisch veröffentlichte sie eine Reihe von Werken, die die physikalischen Grundlagen der Kernphysik erklärten und beleuchteten. Besonders in den Jahren nach 1945 konzentrierte sie sich daneben zunehmend auf gesellschaftliche Fragen der Atomphysik und stellte die Entwicklung der Kernwaffen und die militärische Nutzung der Kernenergie in Frage. Ehrungen. Denkmal von Lise Meitner im Ehrenhof der Humboldt-Universität Berlin Bis zu ihrem Tod erhielt Lise Meitner 21 wissenschaftliche (darunter 5 Dr. h. c., 12-mal Mitglied verschiedener Akademien) und öffentliche Auszeichnungen für ihr Werk und ihr Leben. Im Jahr 1926 wurde Meitner zum Mitglied der Leopoldina gewählt. 1947 erhielt sie den Ehrenpreis der Stadt Wien für Wissenschaft. Sie war das erste weibliche Mitglied der naturwissenschaftlichen Klasse der österreichischen Akademie der Wissenschaften und wurde 1955 auswärtiges Mitglied der Royal Society in London, mit dem Recht die Abkürzung 'FMRS' (Foreign Member of the Royal Society) hinter ihrem Namen anzufügen. 1949 erhielt sie gemeinsam mit Otto Hahn die Max-Planck-Medaille, 1955 den Otto-Hahn-Preis für Chemie und Physik und 1957 von Bundespräsident Theodor Heuss die bedeutendste deutsche Auszeichnung, den Orden Pour le Mérite für Wissenschaften und Künste. Im Jahr 1960 wurde ihr die Wilhelm-Exner-Medaille verliehen und 1966 erhielt sie zusammen mit Otto Hahn und Fritz Straßmann den Enrico-Fermi-Preis der amerikanischen Atomenergie-Kommission. 1967 wurde sie mit dem Österreichischen Ehrenzeichen für Wissenschaft und Kunst ausgezeichnet. Lise Meitner wurde insgesamt 47-mal für den Nobelpreis nominiert, aber eine Auszeichnung blieb ihr versagt. Es gingen von 1937 bis 1964 insgesamt 28 Nominierungen für den Physikpreis ein, in den Jahren 1924 bis 1938 insgesamt 19 Nominierungen für den Chemiepreis. Die Daten nach 1964 sind bislang nicht freigegeben. Unter den Einsendern den Nominierungen findet sich 1948 eine von Otto Hahn, der 1945 für die Entdeckung und den radiochemischen Nachweis der Kernspaltung mit dem Nobelpreis für Chemie für das Jahr 1944 geehrt wurde. Am häufigsten nominierte sie Max Planck, der sechs Nominierungen für den Chemiepreis und eine für den Physikpreis einsandte. Zu den Unterstützern, die sie mehr als zweimal nominierten, gehörten James Franck (fünf Nominierungen für Physik), Oskar Klein (drei Nominierungen für Physik, eine für Chemie) und Niels Bohr (zwei Nominierungen für Chemie, eine für Physik). Das chemische Element Meitnerium wurde 1997 nach ihr benannt, und zusammen mit Otto Hahn war sie 1959 Namensgeberin des Hahn-Meitner-Instituts für Kernforschung in Berlin. Auch weitere öffentliche Einrichtungen wie Schulen und Straßen wurden in zahlreichen Städten nach ihr benannt. Die Internationale Astronomische Union ehrte sie durch die Benennung des Asteroiden (6999) Meitner und eines Kraters auf dem Erdmond und auf der Venus. 2008 wurde der ABC-Abwehrschule des Österreichischen Bundesheeres der Traditionsname „Lise Meitner“ verliehen. Der Lise-Meitner-Preis für Kernphysik der Europäischen Physikalischen Gesellschaft ist nach ihr benannt, ferner gibt es einen Lise-Meitner-Literaturpreis. Am 12. Juli 2010 wurde in Berlin-Mitte, Hessische Straße 1, eine Berliner Gedenktafel angebracht und am 10. Juli 2014 im Ehrenhof der Humboldt-Universität zu Berlin mit einem Festakt das Meitner-Denkmal enthüllt. Im Sommer 2016 soll sie mit einer Büste im Arkadenhof der Universität Wien geehrt werden. Sonstiges. Zu ihren Doktoranden gehört Rudolf Jaeckel. Louis Armstrong. Louis Daniel „Satchmo“ Armstrong (* 4. August 1901 in New Orleans; † 6. Juli 1971 in New York City) war ein amerikanischer Jazztrompeter und Sänger. Jugend in New Orleans. Louis Armstrong gab stets den 4. Juli, also den Unabhängigkeitstag der Vereinigten Staaten, des Jahres 1900 als sein Geburtsdatum an. Dies war insbesondere beim afroamerikanischen Teil der Bevölkerung der Vereinigten Staaten oft üblich, wenn das eigene Geburtsdatum und die Geburtsumstände nicht bekannt waren oder nicht den gesellschaftlichen Vorstellungen entsprachen. Dazu passt ebenfalls, dass er sich ein Jahr älter machte und seine Geburt in das Jahr der Jahrhundertwende vorverlegte, was ihm als Jugendlichem den Zutritt zu den Etablissements von Storyville, dem Vergnügungsviertel von New Orleans, erleichterte. Erst aus seinem 1983 entdeckten Taufschein geht das wirkliche Geburtsdatum, der 4. August 1901, hervor. Armstrong wurde in ärmlichsten Verhältnissen geboren und wuchs nur zeitweilig bei seiner Mutter auf. Als Siebenjähriger musste er Zeitungen verkaufen. Anfang 1913 wurde er wegen Unruhestiftung in das "Colored Waif’s Home for Boys", eine Anstalt für obdachlose schwarze Jugendliche, eingewiesen, nachdem er in der Silvesternacht mit dem Revolver seines Onkels in die Luft geschossen hatte. In der streng organisierten Anstalt erlernte Armstrong die Grundlagen des Kornettspiels. Bis 1918 schlug er sich mit kleinen Jobs und ersten Auftritten als Musiker im Rotlichtmilieu der Stadt durch. Anfänge als Musiker. Von 1918 bis 1919 spielte Armstrong regelmäßig in der Band von Fate Marable auf einem Mississippi-Dampfer, die die Passagiere auf den langen Fahrten flussaufwärts unterhielt. 1918 soll ihn dabei der 15-jährige Bix Beiderbecke in Davenport gehört haben. 1918 ersetzte Armstrong den Trompeter King Oliver in der Band, die dieser zusammen mit dem Posaunisten Kid Ory leitete. Als Oliver nach Chicago zog, folgte Armstrong ihm 1922 nach und stieß als 2. Trompeter zu King Oliver’s Creole Jazz Band, die im Lincoln Gardens Café in der South Side von Chicago spielte. Aus dieser Zeit gibt es bereits erste Tondokumente. Insbesondere bei seinen Live-Auftritten soll das Duo Oliver und Armstrong mit seinen zweistimmigen Break-Improvisationen nach zahlreichen Berichten von Zeitzeugen Musikgeschichte geschrieben haben. 1924 heiratete Armstrong Lilian „Lil“ Hardin, die aus Memphis stammende Pianistin der Band. Kurz darauf wechselte er auf ihr Anraten hin in die Band von Fletcher Henderson, wo er rasch zum Starsolisten avancierte und nicht mehr im Schatten seines Lehrmeisters Oliver stehen musste. Die Hot Five und Hot Seven. 1925 verließ Armstrong die Henderson-Band. Ab diesem Jahr entstanden zahlreiche Aufnahmen, die Lil und er hauptsächlich mit kleinen Formationen machten, die sich Hot Five und Hot Seven nannten. Viele dieser Aufnahmen gelten heute als Meilensteine der Jazzgeschichte. In diesen Jahren entstanden richtungsweisende Aufnahmen wie "West End Blues" (von Jazzkritikern zur Jazzplatte des Jahrhunderts gewählt), "Potato Head Blues", "Wild Man Blues", "Fireworks" und "Heebie Jeebies". Auf diesen Aufnahmen stellte Armstrong auch sein Talent als Sänger, insbesondere beim Scat-Gesang, unter Beweis. Bemerkenswert ist auch Armstrongs Zusammenarbeit mit dem Pianisten Earl Hines in den späten 1920er Jahren. 1927 wechselte Armstrong von Kornett zu Trompete. Der Weltstar. Auf einer Pressekonferenz in Ost-Berlin, 19. März 1965 Bereits 1926 gelang ihm mit Kid Orys "Muskrat Ramble" sein erster Hit in den Billboard-Charts, dem bis 1966 noch 78 weitere folgen sollten. Im Februar 1932 gelang ihm der erste Nummer-1-Hit mit einer Version von "All of Me". In den 1930er Jahren, als sich der neue Jazz-Stil des Swing entwickelte, trat Louis Armstrong, dem neuen Stil entsprechend, vorwiegend in Big Bands auf (u. a. dem Orchester von Luis Russell) und wurde rasch innerhalb und außerhalb der Vereinigten Staaten bekannt. Ab 1932 führten ihn zahlreiche Tourneen nach Europa, später in die ganze Welt. 1947 löste Armstrong seine Big Band auf und kehrte wieder zu seinen Ursprüngen, dem New Orleans Jazz und den kleinen Formationen zurück ("Louis Armstrong and his All Stars" feat. Velma Middleton). In den 1950er und 1960er Jahren war es insbesondere Armstrongs Talent als Sänger und Entertainer, das ihn zum Weltstar machte. Eine weitere Steigerung seiner Popularität erzielte er durch die Hollywoodfilme, bei denen er mitwirkte, wie z. B. "Die Glenn Miller Story", "Die oberen Zehntausend" und "Hello, Dolly!". Nicht zuletzt aufgrund seiner weltweiten Berühmtheit wurde Louis Armstrong in der Hochzeit des Kalten Krieges in den 50er Jahren von der US-Regierung als musikalischer Mobilmacher in den Ost-West-Konflikt entsandt. Ab 1956 reiste er zusammen mit Künstlern wie Benny Goodman in den Ostblock sowie die sowohl von den Vereinigten Staaten als auch der UdSSR umworbenen Staaten in Afrika und Asien. So kamen 1956 im heutigen Ghana 100.000 Menschen in ein Stadion, um ihn zu erleben. Zusammen mit weiteren Stars des Jazz wie Dizzy Gillespie und Duke Ellington nutzte Armstrong seine Popularität auf seinen Tourneen auch, um für die Afro-Amerikaner Menschen- und Bürgerrechte einzufordern. So weigerte sich Armstrong 1957 aufgrund der Rassentrennung in den Vereinigten Staaten, im Auftrag des US-State-Departments in die UdSSR zu reisen. Seine unermüdliche Energie und seine vielen Auftritte forderten schon früh gesundheitlichen Tribut. Auf Grund mehrerer ernsthafter Krisen rieten die Ärzte Armstrong vom Trompetespielen ab, um seine Gesundheit zu schonen. Dem Publikum und seinem Ehrgeiz verpflichtet, verlegte sich Armstrong seit dieser Zeit mehr auf den Gesang. Im Jahre 1969 interpretierte er den Song "We have all the Time in the World" von John Barry und Hal David zum James-Bond-Film "Im Geheimdienst Ihrer Majestät" mit George Lazenby als 007. In dieser Zeit konnte er jedoch, von Ausnahmen abgesehen (u. a. die Gesangsduette mit Ella Fitzgerald, zum Beispiel auf "Ella and Louis"), wegen seiner körperlichen Schwäche nicht mehr an die bahnbrechenden Leistungen der 1920er und 1930er Jahre als Jazztrompeter und Jazzsänger anknüpfen. Louis Armstrong starb am 6. Juli 1971 in New York an einem Herzinfarkt. Sein Grab befindet sich auf dem "Flushing Cemetery" in Queens, New York City. Bedeutung und Nachwirkung. Der Präsident der "American Guild of Variety Artists Youth Fund" überreicht Armstrong einen Preis, 1966 Armstrong hatte seine musikalischen Wurzeln im New-Orleans-Jazz. Er hat maßgeblichen Anteil an der Entwicklung dieser Stilrichtung weg von der Kollektivimprovisation hin zu dem herausgestellten Solo und begründete das „Starsolistentum“ im Jazz. Auch technisch hat Armstrong insbesondere in den 1920er Jahren praktisch sämtliche Maßstäbe für Jazztrompeter gesetzt. Er kann als einer der bedeutendsten Instrumentalsolisten des Jazz überhaupt angesehen werden. Armstrong hat stilistisch fast alle nachkommenden Trompeter der traditionellen Jazzstile entscheidend beeinflusst. Armstrongs Einfluss ist auch heute noch (oder vielleicht wieder) bei jüngeren Musikern, wie etwa Wynton Marsalis, spürbar. Darüber hinaus ist Armstrong neben Billie Holiday und Ella Fitzgerald einer der bekanntesten Sänger des Jazz, dessen unverwechselbare Stimme seine weltweite Popularität begründete. Armstrong erhielt 1960 einen Stern auf dem Hollywood Walk of Fame. Unter Mitbegründung von Phoebe Jacobs entstand nach Armstrongs Tod die "Louis Armstrong Educational Foundation". Der zweitgrößte Tenniscourt in Flushing Meadows (US Open) ist ebenso nach ihm benannt wie der Louis Armstrong Park in New Orleans sowie der im 19 km entfernten Kenner liegende internationale Flughafen, der Louis Armstrong New Orleans International Airport. 1970 führte Samuel Darragh McGredy eine rote Floribundarose ein, die er Louis Armstrong zu Ehren 'Satchmo' nannte. Bekannte Stücke. Der "St. Louis Blues" von W. C. Handy sowie das romantische "What a Wonderful World" von George David Weiss und Bob Thiele besitzen kaum mehr Jazzanklänge. Armstrong bediente sich auch Musicalmelodien; "Mack the Knife" ("Mackie Messer") aus Bertolt Brechts "Dreigroschenoper" und "Hello Dolly" werden vermutlich häufiger in Armstrongs Interpretation gespielt als in der Originalfassung für die Theaterbühne. Spitzname. Armstrongs Spitzname „Satchmo“ ist eine Verkürzung von "satchel mouth" (zu deutsch etwa „Taschenmund“), eine Anspielung auf die Größe seines Mundes. Als Kind wurde er auch "gate mouth" genannt. Eine weitere Variante seiner Spitznamen in der Frühzeit war „Dippermouth“ (zu deutsch „Schöpflöffelmund“). Dieser Name inspirierte ihn zu dem Titel "Dippermouth Blues". Leonardo da Vinci. Leonardo da Vinci (* 15. April 1452 in Anchiano bei Vinci; † 2. Mai 1519 auf Schloss Clos Lucé, Amboise; eigentlich "Leonardo di ser Piero", toskanisch auch "Lionardo") war ein italienischer Maler, Bildhauer, Architekt, Anatom, Mechaniker, Ingenieur und Naturphilosoph. Er gilt als einer der berühmtesten Universalgelehrten aller Zeiten. Sein Namenszusatz "da Vinci" ist kein Familien-, sondern ein Herkunftsname und bedeutet „aus Vinci“. Der Geburtsort Vinci ist ein Kastell bzw. befestigtes Hügeldorf und liegt in der Nähe der Stadt Empoli (ca. 30 km westlich von Florenz) in der heutigen Provinz Florenz, Region Toskana. Herkunft. Leonardos Eltern waren der zur Geburt Leonardos 25-jährige Notar Piero da Vinci (1427–1504) und die damals 22-jährige Magd Caterina. Mittlerweile vermutet man in ihr eine getaufte arabische Sklavin, die bei Piero vorübergehend als Magd arbeitete. Die Hypothese ist jedoch umstritten und wird kontrovers diskutiert. Die Mutter heiratete später den Töpfereibesitzer Accattabriga di Piero del Vacca aus Vinci und bekam fünf weitere Kinder. Der Vater Piero war viermal verheiratet und hatte von seinen beiden letzten Frauen neun Söhne und zwei Töchter. Leonardo nahm er als leiblichen Sohn an. Als erfolgreicher Notar gehörte die Familie de’ Medici zu seinen Klienten wie auch Mitglieder der regierenden Signoria, des Rats des Stadtstaates Florenz. Leonardo verbrachte den größten Teil seiner Jugend in Florenz. Schon früh interessierte er sich für Musik, Zeichnen und Modellieren. Durch Vermittlung sein Vaters nahm ihn der Künstler Andrea del Verrocchio (1435–1488), der die künstlerische Begabung des Jungen erkannte, in seine Werkstatt auf. Lehrjahre bei Verrocchio. "Tobias und der Engel", Verrocchio und Leonardo, um 1470–1475 "Taufe Christi", Verrocchio und Leonardo, um 1472–1475 Verrocchio war einer der bedeutendsten Bildhauer im damaligen Florenz, der auch als Maler und Goldschmied tätig war. In seinem Atelier lernte und arbeitete Leonardo, etwa von 1470 bis 1477, in Gesellschaft von weiteren Schülern wie Perugino (um 1445/1448–1523), Domenico Ghirlandaio (1449–1494) und Lorenzo di Credi (um 1459–1537). In den Künstlerwerkstätten des 15. und 16. Jahrhunderts war es üblich, dass der Meister die Anfertigung eines Werkes nicht allein vornahm, sondern Teile der Ausführung seinen Gesellen und Schülern übertrug. Das vermutlich früheste erhaltene Zeugnis eines Gemäldes aus der Werkstatt Verrocchios unter Beteiligung Leonardo da Vincis ist "Tobias und der Engel" (datiert um 1470–1475). Kunsthistoriker nehmen an, dass Leonardo den Fisch in der linken Hand des Tobias, den Hund zu Füßen des Engels, aber auch den Haarschopf des Tobias gemalt haben könnte. Diese Bildobjekte, so behauptet der Leonardo-Biograf Charles Nicholl, zeigten eine Virtuosität und Perfektion, zu der Verrocchio nicht in der Lage war. Nach dem Abschluss seiner Lehrzeit im Alter von etwa 20 Jahren, arbeitete Leonardo weiter in Verrocchios Werkstatt. Er soll, so berichtet der Maler, Architekt und Künstlerbiograph Giorgio Vasari (1511–1574), auf dem Bild "Die Taufe Christi", das Verrocchio für die Mönche von Vallombrosa malte, den auf der linken Seite knienden Engel in das Bild seines Lehrers eingefügt haben. Das Gemälde befindet sich heute in der Sammlung der Uffizien in Florenz. Das ursprünglich in Tempera gemalte Bild wurde später zum Teil in Öl übermalt (eventuell von Leonardo), so dass ein fundiertes Urteil über die Urheberanteile schwierig ist. Leonardos Beitrag wird nicht nur im Gesicht des Engels, sondern auch in Teilen der Bekleidung und des landschaftlichen Hintergrunds vermutet. Im linken Teil des Landschaftshintergrundes ist bereits Leonardos Sfumato-Technik zu erkennen, seine charakteristische Weichzeichnung von Motiven. Das Bild wird um das Jahr 1475 datiert, in dem auch das Bild "Verkündigung an Maria" und Leonardos Studien für Faltenwürfe von Gewändern und das Profil eines Kriegers entstanden. Seit 1472 findet sich Leonardos Name in den Listen der Sankt Lukas-Gilde ("Compagnia di San Luca"), der Malergilde von Florenz. In Florenz lebte und arbeitete er weitere zehn Jahre und arbeitete gemeinsam unter anderen mit den Malern Sandro Botticelli und Perugino. Im Gegensatz zum später geborenen Michelangelo (1475–1564) wurde Leonardo als offen und freundlich geschildert. Leonardo musste sich 1476 einer Anklage wegen Sodomie stellen. Im Mittelalter und der frühen Neuzeit stand dieser Begriff auch für Homosexualität. Leonardo wurde vorgeworfen, mit dem 17-jährigen Prostituierten Jacopo Saltarelli sexuellen Kontakt gepflegt zu haben. Beamte des Florentiner Magistrats ermittelten gegen ihn, doch der Vorwurf konnte jedoch nicht bestätigt werden und Leonardo wurde freigesprochen. Als sensibler Künstler begann er früh, seine Gedanken und Gefühle in Notizbüchern (Codici) zu notieren. Aus seinen Notizen ist zu schließen, dass er nicht, wie andere Renaissancekünstler, die Pracht der antiken Kunst durch Imitation von Modellen wiederbeleben wollte, sondern sich als Schüler der Natur berufen fühlte, die Schönheiten der Natur selbst und diese im Zusammenspiel mit Menschen darzustellen. Merkwürdige Formen von Hügeln und Felsen, seltene Pflanzen und Tiere, Bewegungen des Wassers, ungewöhnliche Gesichter und Figuren von Menschen waren die Dinge, die er in seiner Malerei und in seinen Naturstudien aufgriff. Die früheste datierte Zeichnung ist die "Arnolandschaft" vom 5. August 1473 (heute in den Uffizien in Florenz). Seine Porträtgemälde malte er meist vor einer Hintergrundlandschaft und in seinen Notizbüchern hielt er eine Vielzahl von Pflanzen- und Tierstudien fest. Um 1477 scheint er die Gunst von Lorenzo I. de’ Medici (1449–1492), dem Stadtherrn von Florenz, gefunden zu haben und arbeitete als freier Künstler unter dessen Patronage. Es entstanden erste Porträts und Marienbilder, die "Madonna Benois" (1475–1478, Eremitage in Sankt Petersburg) und ein Porträt "Ginevra de’ Bencis" (1478–1480, National Gallery in Washington D.C.), einer Tochter von Amerigo de’ Benci, der Leonardos Leidenschaft für kosmografische Studien teilte. 1481 erhielt er einen ersten größeren Auftrag vom Augustinerkloster San Donato a Scopeto nahe Florenz für ein Altarbild und er zeichnete die Skizzen für die "Anbetung der Heiligen Drei Könige" (heute in den Uffizien in Florenz). Als sich vieler seine Künstlerfreunde in Rom niederließen, um für den Heiligen Stuhl zu arbeiten, ergab sich 1481 für ihn die Chance einer Stellung am Hof der Sforza, der Herzöge von Mailand. Frühe Mailänder Jahre (1482–1499). Die Familie Sforza regierte Mailand und die Lombardei von 1450 bis 1535. Begründer der Dynastie, die meist eng mit der florentiner Herrscherfamilie Medici verbündet war, war Francesco Sforza (1401–1466). Nach seinem Tode wurde sein ältester Sohn Galeazzo (1444–1476) Herzog. Nach dessen Ermordung im Jahr 1476 kam Ludovico Sforza (genannt "il Moro", „der Dunkle“; 1452–1508) als Protektor seines Neffen Gian Galeazzo Sforza (1469–1494), tatsächlich aber als Usurpator des Staates, an die Macht. Ludovico griff ein Projekt zur Errichtung eines Reitermonuments des Francesco Sforza zu Ehren des Gründers des Herrscherhauses wieder auf und suchte einen geeigneten Künstler. Von den Medici wurde der junge Leonardo empfohlen, der sich daraufhin am Hofe in Mailand vorstellte. Wegen bevorstehender Kämpfe zwischen Mailand und der Republik Venedig erwähnte Leonardo in einem Empfehlungsschreiben an den Herzog ausführlich und detailliert seine Fähigkeiten und Erfindungen in der Militärtechnik. Erst am Schluss des Briefes betonte er sein Können als Bauingenieur und Architekt und fügte schließlich einen kurzen Hinweis auf seine Kenntnisse als Maler und Bildhauer hinzu, die die Grundlage zu einer angemessenen Ausführung des Monuments für Francesco Sforza bilden könnten. Nach seiner Anstellung arbeitete Leonardo mit Unterbrechungen über zwanzig Jahre für die Sforza. Leonardo, der im Gegensatz zu vielen seiner Zeitgenossen eine äußerst gepflegte Erscheinung war und sehr auf Sauberkeit achtete (und bereits den Zusammenhang zwischen Pest und Schmutz erkannte), organisierte mit Hilfe von Booten die erste Müllabfuhr in Mailand und trug somit zu einer wesentlichen Verbesserung der Lebensqualität in der Stadt bei. In den Jahren 1485–1486 war er an der Planung der Verschönerung und Verstärkung des Castello und der Vollendung des Mailänder Doms beteiligt. Er konnte sich allerdings nicht durchsetzen und entwarf daraufhin für die junge Herzogin einen Badepavillon von ungewöhnlicher Raffinesse und Schönheit. Parallel dazu machte er Aufzeichnungen über die Ergebnisse seiner Studien in Geometrie, Statik und Dynamik, menschlicher Anatomie sowie den Phänomenen von Licht und Schatten und setzte sich eingehend mit dem Entwurf des Sforza-Reitermonuments auseinander. Intensiv betrieb er Studien über die Bewegung und die Anatomie von Pferden und über die Kunst bzw. Wissenschaft der Bronzebearbeitung und Gießtechnik. Das Reiterstandbild sollte die größte Bronzestatue der damaligen Zeit werden. Nach sieben Jahren bereitete er 1490 auf Drängen seines Auftraggebers sein Reiterstandbildmodell – vorerst aus Ton – anlässlich der Heirat Ludovicos mit Beatrice d’Este zur Vorführung vor. Im letzten Moment war er jedoch mit seiner Arbeit nicht zufrieden und begann noch einmal von vorn. Im selben Jahr verbrachte Leonardo ungestört einige Monate mit mathematischen und physikalischen Forschungen in den Bibliotheken und unter den Gelehrten von Pavia. Hierhin war er als Berater hinsichtlich einiger architektonischer Schwierigkeiten beim Bau der Kathedrale berufen worden. In Pavia erhielt er durch das Studium eines antiken Reitermonuments (des sogenannten "Regisole", der 1796 zerstört wurde) neue Anregungen für seinen Francesco Sforza. Aus dem Jahr 1492 stammen die Studie über Körperproportionen nach Vitruv sowie Proportionsstudien von menschlichen Körpern und Gesichtern und anatomische Studien, denn er wollte „das Innere des Menschen“ genau kennenlernen und begann an seinem Buch "Von der menschlichen Figur" zu arbeiten. In den folgenden Jahren verschafften ihm die zunehmenden Festivitäten und der Prunk des Mailänder Hofes fortwährend Aufträge, darunter die Komposition und Rezitation von Sagen, Fabeln und Prophezeiungen (d. h. moralischen und sozialen, im Futurum formulierten Satiren und Allegorien). Bilder der Mailänder Epoche. Zwischen 1483 und 1486 entstand die erste Fassung der "Madonna in der Felsengrotte" (Felsgrottenmadonna). Den Auftrag dazu erhielt er von der "Bruderschaft der unbefleckten Empfängnis" in der Franziskanerkirche San Francesco in Mailand. Diese Fassung wurde nie übergeben, da die Szene wohl entgegen den Wünschen der Bruderschaft in einer kalten, leblosen Höhle dargestellt ist und Jesus und Johannes der Täufer ohne Gold und Heiligenscheine gezeigt werden. 1499 gelangte das Gemälde nach Frankreich. Heute befindet es sich in der Sammlung des Louvre in Paris. Eine zweite, von der Bruderschaft akzeptierte Fassung, wurde zwischen 1493 und 1508 gemalt, von Leonardo begonnen und fortgeführt von seinem Schüler Ambrogio de Predis (um 1455–nach 1508). Sie befindet sich heute in der National Gallery in London. In den 1480er Jahren beschäftigte sich Leonardo intensiv mit kriegstechnischen Aufgaben. Die Notizbücher dieser Zeit zeigen Skizzen von Waffen, Kriegsmaschinen, Flugmaschinen und Schiffen. Um 1490 entwarf Leonardo das Madonnenbild der "Madonna Litta", die Ausführung wird heute seinem Schüler Giovanni Antonio Boltraffio (1467–1516) zugeschrieben, sowie das Porträt der Cecilia Gallerani, einer Mätresse Ludovico Sforzas ("Die Dame mit dem Hermelin", heute im Czartoryski-Museum in Krakau). Zur selben Epoche zählen das "Bildnis eines jungen Mannes" (Porträt des Musikers Franchino Gaffurio) und das "Bildnis einer unbekannten Dame". Beide Bilder werden jedoch nicht zweifelsfrei Leonardo zugeschrieben. Cenacolo (Abendmahl). Als Leonardo etwa 40 Jahre alt und davon fast zehn Jahre für den Mailänder Hof tätig gewesen war, bekam er von Ludovico Sforza den Auftrag, ein Bild für die Stirnwand des Refektoriums der Konventskirche von Santa Maria delle Grazie in Mailand zu malen. Das bereits während der Entstehung von vielen Künstlern bewunderte Bild "Das Abendmahl" (ital.: "Cenacolo" oder "Ultima Cena"), ein Wandgemälde mit den Maßen von 8,8 × 4,6 m, entstand in den Jahren 1494 bis 1498. Es stellt den Moment dar, in dem Jesus seinen Jüngern mitteilt, dass einer von ihnen ihn in wenigen Stunden verraten würde. Leonardo malte das Bild in Tempera auf eine getrocknete Gipswand (Seccomalerei) – kein Fresko und auch nicht in Öl, wie eine Legende später behauptete. Die Tempera-Trägersubstanz hielt nicht lange auf dem Gipsuntergrund und dieser auch nicht auf der Wand. Durch Feuchtigkeit und Schimmelbildung kam es zu Abblätterungen und Schuppenbildung. Dieser Prozess dauerte jahrzehntelang. Die Restaurierungsversuche im 18. Jahrhundert gründeten auf der falschen Annahme, das Werk sei in Öl ausgeführt worden. So hat man es einmal mit Öl überstrichen, in der Hoffnung, dadurch die Farben wiederherstellen zu können. Andere versuchten es mit unterschiedlichen „Geheimmitteln“, meistens schädlichen Lacken und Klebstoffen. Erst Mitte der 1970er Jahre konnte der weitere Verfall durch moderne Restaurierungstechniken aufgehalten werden. Eine weitere Restaurierung folgte um die Jahrtausendwende. Der Zustand des Werks wurde mittlerweile mit einer Auflösung von 16 Gigapixel dokumentiert. Um die Personen als Charaktere darstellen zu können, suchte Leonardo seine „Typen“ sorgfältig aus und fertigte viele Gesichtsstudien an. Die Gesichter von Jesus und Judas blieben unvollendet, der Perfektionist Leonardo fand keine befriedigende Lösung für eine malerische Darstellung. Freundschaft mit Luca Pacioli. Nach dem Erfolg seines Werkes "Das letzte Abendmahl" fuhr Leonardo mit der Arbeit am Sforza-Monument – dem Cavallo – fort, dessen sieben Meter hohes Tonmodell bereits drei Jahre lang im Corte Vecchio des Castello stand und allgemein bewundert wurde. Nun sollte das Monument in Bronze gegossen werden. Leonardos Entwurf für das Sforza-Monument, 1489 Hilfe für die schwierigen Berechnungen für den Bronzeguss bekam Leonardo von dem Mathematiker Luca Pacioli aus Borgo San Sepolcro, dessen "Summa de aritmetica, geometrica etc." Leonardo bei ihrer Ersterscheinung in Pavia erworben hatte. Der Mathematiker bewunderte Leonardos Malereien und Skulpturen und mehr noch seine mathematischen, physikalischen und anatomischen Forschungen, die er in den Manuskriptsammlungen Leonardos kennenlernte. Beide arbeiteten an Paciolis nächstem Buch "De divina proportione" („Über das göttliche Verhältnis“), das den Goldenen Schnitt behandelte. Auch die seit der Antike bestehende mathematische Aufgabenstellung zur Quadratur des Kreises versuchten beide zu lösen. a> aus Luca Paciolis "Divina Proportione" Bald beteiligte sich Pacioli auch an der Fertigstellung der Innendekoration bestimmter Kammern des Castello, der "Saletta Negra" und der "Sala delle Asse", die bereits von anderen Künstlern begonnen worden war. Bei Reparaturarbeiten Ende des 19. Jahrhunderts legte Paul Müller-Walde unter den neu verputzten und getünchten Raumdecken Spuren von Leonardos Handwerk frei; so wurden in der großen Sala delle Asse viele Spuren Leonardos gefunden. Ein Großteil der Dekoration war gut erhalten und deshalb restaurierbar. Für diese und andere künstlerische Arbeiten wurde Leonardo 1498 mit einem Garten außerhalb der Porta Vercelli belohnt, zu einer Zeit, als Geld nur spärlich floss und sein Gehalt lange im Rückstand war. Aber wiederum konnte er die Aufgabe nicht beenden, genauso wie das Bronzemonument, das der Herzog aus Mangel an Bronze (die er für Waffen benötigte) schließlich einstellen ließ. Dies half ihm aber nicht, seine Vertreibung im Jahre 1499 durch den französischen König Ludwig XII. zu verhindern. Ludovico musste fliehen, Leonardo und andere Künstler verließen Mailand. Wieder in Florenz. Als Leonardo und sein Freund Luca Pacioli Mailand im Dezember 1499 verließen, war ihr Ziel Venedig. Leonardo bot dort seine Dienste als Ingenieur an und stellte seine Kriegsmaschinen vor, darunter auch einen Taucheranzug für den Unterwasserkampf. Er bekam jedoch keine Anstellung und zog weiter nach Mantua, wo er von der Herzogin Isabella Gonzaga empfangen wurde, die als kultivierteste Dame ihrer Zeit galt. Er versprach, zu einem späteren Zeitpunkt ein Porträt von ihr zu malen; zunächst fertigte er eine Kreidezeichnung an, die sich heute im Louvre befindet. Die Freunde zogen im April 1500 nach Florenz, das gerade die Schreckensherrschaft Savonarolas überstanden hatte und wieder Republik geworden war. Hier fand Leonardo vorübergehend Unterschlupf im Kloster Annunziata, wo er sich verpflichtete, ein Altarbild für die Basilica della Santissima Annunziata zu malen. Ein Jahr verging, ohne dass der Auftrag ausgeführt wurde. Wissenschaftliche Fragen der physikalischen Geografie und des Ingenieurwesens fesselten Leonardo mehr als die Malerei. Er schrieb an Briefpartner, um Erkundigungen über die Gezeiten im Euxinischen und Kaspischen Meer einzuholen. Zur Information der "Mercanti" berichtete er über die gegen einen drohenden Erdrutsch auf dem Hügel von San Salvatore dell’Osservanza zu ergreifenden Maßnahmen. Er legte Zeichnungen und Modelle für die Kanalisierung und die Kontrolle des Arno vor und entwickelte einen Plan zum Transport des Florentiner Baptisteriums (Dantes "bel San Giovanni") in einen anderen Stadtteil, wo es auf einen großen Marmorsockel gestellt werden sollte. Den ungeduldigen Serviten-Brüdern von Annunziata legte er schließlich im April 1501 einen Entwurf des Altarbilds auf Karton vor, der in Florenz unter großer Beteiligung von Publikum ausgestellt wurde. Das Thema war die Jungfrau, die sich auf dem Schoß der Heiligen Anna sitzend vorbeugt, um ihr Kind festzuhalten, das halb aus ihrer Umarmung entflohen ist, um mit einem Lamm auf dem Boden zu spielen. Trotz des allgemeinen Lobs für seinen Entwurf vollendete Leonardo das Altarbild nicht. Die Mönche von Annunziata mussten den Auftrag an Filippino Lippi geben, nach dessen Tod die Aufgabe von Perugino beendet wurde. Leonardo vollendete erst später das Bild (1506–1516), das als "Anna Metterca" oder "Anna selbdritt" („Anna zu dritt“) heute im Louvre zu sehen ist. In Florenz bemühte sich Leonardo um Aufträge. Der Gonfaloniere Piero Soderini bot ihm einen riesigen Marmorblock zur freien Verfügung an, doch Leonardo lehnte dankend ab. Drei Jahre später schlug Michelangelo seinen David aus diesem Block. Vom französischen Hof erhielt er den Auftrag für ein weiteres Madonnenbild; 1501 malte er die "Madonna mit der Spindel". Aber eigentlich interessierte er sich viel mehr für technische und wissenschaftliche Herausforderungen und suchte diesbezüglich nach einem fürstlichen Auftraggeber. Im Dienst Cesare Borgias. Im Frühjahr 1502 trat er in den Dienst Cesare Borgias, des Herzogs von Valentino. Dieser war zu diesem Zeitpunkt mit der Konsolidierung seiner jüngsten Eroberungen in der Romagna beschäftigt. Zwischen Mai 1502 und März 1503 bereiste Leonardo als oberster Ingenieur einen großen Teil Mittelitaliens. Nach einem Besuch in Piombino an der Küste gegenüber Elba fuhr er über Siena nach Urbino, wo er kartografische Zeichnungen anfertigte. Anschließend wurde er über Pesaro und Rimini nach Cesena gerufen; zwischen Cesena und Cesenatico verbrachte er zwei Monate, in denen er Kanal- und Hafenarbeiten plante und leitete und mit der Planung zur Restaurierung des Palasts von Friedrichs II. beauftragt wurde. Danach begleitete er seinen Arbeitgeber, der in Imola von Feinden belagert wurde. Hier lernte Leonardo auch Niccolò Machiavelli kennen, der als Abgesandter von Florenz mit Cesare Verhandlungen führte. Er folgte ihm nach Sinigallia, Perugia und schließlich über Chiusi und Acquapendente nach Orvieto und Rom, wo Cesare im Februar 1503 ankam. In dieser Zeit verließ Leonardo den skrupellosen Herzog und kehrte zurück nach Florenz. Gemälde der Anghiarischlacht. In Florenz bekam Leonardo auf Initiative von Machiavelli und Piero Soderini den Auftrag, ein großes Schlachtengemälde für eine der Wände des neuen Ratssaals im Palazzo della Signoria zu schaffen. Er wählte als Thema eine Episode des Sieges der Florentiner über die Mailänder nahe einer Brücke bei Anghiari im oberen Tibertal. Der jüngere Michelangelo, der gerade seinen David vollendet hatte, wurde mit einem weiteren Schlachtengemälde auf einer anderen Wand des gleichen Saals betraut und entschied sich für die Schlacht bei Cascina. Eigentlich wollte Leonardo keine Gewaltverherrlichungen malen, denn er hasste den Krieg, andererseits fühlte er sich gegenüber seinem Rivalen Michelangelo herausgefordert. Zur Vorbereitung seines Kartons wurde Leonardo die Sala del Papa in Santa Maria Novella zugewiesen. Er arbeitete – ähnlich wie an seinem "Cenacolo" – stetig und unermüdlich an seiner neuen Aufgabe. Aus seinen Berichten an die Signoria wird sein kontinuierlicher Fortschritt deutlich. In weniger als zwei Jahren (1504–1505) war der Entwurf fertig. Als dieser zusammen mit dem des Michelangelo ausgestellt wurde, wurden beide Entwürfe als großartige Kunstwerke bewundert und dienten den damaligen Studenten als Modell und Beispiel, so wie die Fresken von Masaccio in Santa Maria del Carmine den Schülern zwei Generationen zuvor geholfen hatten. Auch der junge Raffael lernte in dieser Zeit von Leonardo, ebenso Fra Bartolommeo. Leonardo übertrug seinen Entwurf auf die Maueroberfläche. Dazu hatte er eine neue technische Methode erfunden, die er nach einem vorläufigen Versuch in der Sala del Papa für erfolgversprechend hielt. Die Farben – ob Tempera oder andere, ist unklar – mussten auf einen speziell präparierten Untergrund aufgetragen werden, worauf jene – Farben und Untergrund – mittels Wärme verbunden wurden. Nach Beendigung der zentralen Gruppe wurde Hitze angewendet, die aber ungleichmäßig wirkte: Die Farben im oberen Teil verliefen oder schuppten von der Wand ab, das Bild verfiel und wurde später (wahrscheinlich) übermalt. Der Kunsthistoriker und Messtechniker Maurizio Seracini vermutet, dass das Gemälde hinter einer geheimen Wand, von Vasari angelegt, noch vorhanden ist. Mona Lisa. "Mona Lisa", 1503–1506. Paris, Louvre In den Jahren 1503–1506 arbeitete Leonardo auch intensiv am Porträt der "Mona Lisa". Einige Quellen belegen, dass die neapolitanische Hausfrau Monna Lisa del Giocondo (geb. Gherardini), Gattin des Francesco di Bartolommeo di Zanobi del Giocondo, für dieses Bild das Modell saß. In Lisa Gherardini soll er ein Modell gefunden haben, dessen Antlitz und Lächeln einen einzigartigen, rätselhaften Charme besaß. Er arbeitete an diesem Porträt während eines Teils von vier aufeinander folgenden Jahren und ließ während der Sitzungen Musik aufspielen. Zeit seines Lebens konnte sich Leonardo nicht von dem Bild (Maße 77 × 53 cm) trennen. Neuere Forschungen weisen darauf hin, dass der Auftraggeber Giuliano II. de’ Medici gewesen sei und das Bild eine idealisierte Mutter darstelle. Andere Quellen sollen belegen, dass es sich bei Mona Lisa um den heimlichen Geliebten Salaj handelt, der für das Bild Modell war. Demnach handele es sich bei dem Gemälde eigentlich um die Darstellung eines Mannes. Der Name "Mona Lisa" sei ein Anagramm zu "Mon Salai" (dt.: „Mein Salai“). Bereits der erste Biograph von Leonardo, Giorgio Vasari (1511–1574), erwähnte diese These zum Anagramm. Nach seinem Tod blieb das Werk im Nachlass, wurde mit anderen Gemälden von seinem Schüler Salaj verwaltet und später von Franz I. von Frankreich für viertausend Goldflorin erworben. Seit 1804 ist es im Louvre ausgestellt. Vorübergehend gelangte es in den Besitz von Napoleon, der es in seinem Schlafzimmer platzierte und von dem rätselhaften Lächeln fasziniert war. Heute ist das Gemälde ein ausgesprochener Publikumsmagnet, das Original ist jedoch nach einem Anschlag im Jahr 1956 nur noch durch Panzerglas zu betrachten. Der Reichtum der Farben hat sich im Lauf der Jahrhunderte verflüchtigt, teils durch Beschädigungen, teils weil der Maler bei seinen Bemühungen um Effekte daran gewöhnt war, seine Figuren auf einem Hintergrund zu modellieren, der im Laufe der Zeit dunkler wurde. Doch selbst in nachgedunkeltem Zustand bleiben die Raffinesse des Ausdrucks und die Präzision und Feinheit der Zeichnung erkennbar. Im Dienste des französischen Hofes. Am 9. Juli 1504 starb Leonardos Vater in Florenz und im Jahre 1506 sein Onkel Francesco, der seinen Neffen zum Alleinerben einsetzte. Es kam zu Rechtsstreitigkeiten mit seinen Halbgeschwistern. Auch mit der Signoria in Florenz gab es Streit, vermutlich wegen eines unfertigen Wandgemäldes ("Die Schlacht von Anghiari") im Saal der Fünfhundert des Palazzo Vecchio. Leonardo nahm ein Angebot des französischen Hofes an und wurde Hofmaler und leitender Ingenieur in Mailand. Dort hatte Ludwig XII. Charles d’Amboise, Marschall von Chaumont, Leutnant des französischen Königs in der Lombardei, als Vizekönig eingesetzt. Beide bewunderten Leonardo sehr („unseren lieben und viel geliebten Leonardo“), schätzten besonders sein Organisationstalent, wenn es um die Ausrichtung von königlichen Festivitäten ging, und ließen ihm andererseits freie Hand, vor allem für seine wissenschaftlichen Forschungen und anatomische Studien, die er zusammen mit dem damals berühmten Professor von Pavia, Marcantonio della Torre, betrieb. Auch als Ingenieur war er gefordert, einerseits mit Planungen für einen neuen Palast in der Nähe der Porta Venezia, andererseits mit großen hydraulischen Projekten bzw. Bewässerungsarbeiten (Talsperren, Kanäle) in der Lombardei. Er konstruierte den ersten Wasserzähler und beschäftigte sich in einer Studie intensiv „mit dem Wissen des Wassers“. Mit Unterstützung von Charles d’Amboise konnte Leonardo auch den alten Streit um sein Altarbild Felsgrottenmadonna (das inzwischen in Besitz des Königs von Frankreich war) regeln. Er fertigte (mit Hilfe von Ambrogio da Predi) eine Kopie an. Etwa zur gleichen Zeit arbeitete er weiter an seinen Bildern "Anna Metterca" und "Mona Lisa". Er malte "Leda mit dem Schwan" (das Originalgemälde gilt als verschollen) sowie die ersten Entwürfe für "Johannes der Täufer". Sein neuer Freund und Schüler wurde Francesco Melzi. In der Villa der Melzi-Familie in Vaprio, wo Leonardo regelmäßig verkehrte, wurde eine Madonna auf einer der Wände traditionell ihm zugeschrieben, zumindest wurde es unter seiner Anleitung gemalt. Einen interessanten Auftrag bekam Leonardo von Gian Giacomo Trivulzio, der als französischer Kommandant Mailand erobert hatte und sich nach seinem Tod eine würdige Grabstätte wünschte. In Anlehnung an die alten Arbeiten des Sforza-Reiterstandbildes entwarf Leonardo das Trivulzio-Monument (aufbäumendes Pferd mit Reiter). Aber auch dieses Projekt konnte schließlich nicht realisiert werden, genauso wie seine Pläne, das Wissen der Zeit (mit Hilfe seiner inzwischen zahlreichen Notizbücher) als Enzyklopädie zusammenzutragen. Als sein Mäzen Charles d’Amboise 1511 plötzlich verstarb und sich zudem die politischen Verhältnisse in Norditalien abermals veränderten (die Medici und die Sforza kamen 1512 wieder an die Macht), verließ der inzwischen Sechzigjährige Mailand und zog vorübergehend zu seinem jungen Freund in den Palazzo Trezzo der Melzi nach Vaprio d’Adda. Dort malte er (wahrscheinlich) die Rötelzeichnung mit dem "Kopf eines bärtigen Mannes", sein vermeintliches"(Quelle?)" Selbstporträt, das in der Biblioteca Reale in Turin hängt. Rom, im Dienste des Vatikans. Inzwischen hatte Papst Julius II. Rom zum Zentrum der italienischen Kunst gemacht. Als ihm 1513 Giovanni de Medici als Leo X. nachfolgte, wurde Leonardo vom jüngeren Bruder des Papstes, Giuliano II. de’ Medici, als Künstler nach Rom berufen. Er wurde im Belvedere des Vatikans untergebracht und sah viele alte Freunde wie den Baumeister Donato Bramante oder den Maler Sodoma wieder. Er bekam ein eigenes Atelier mit einem deutschen Mitarbeiter, der jedoch den Auftrag hatte, den Papst, der keine Sympathien für Leonardo hegte, stets über dessen Aktivitäten zu unterrichten. Die Bedingungen in Rom stellten sich als ungünstig für Leonardo heraus. Vom Papst wurde er nur halbherzig geduldet, ganz anders die jüngeren Künstler Raffael und Michelangelo, die sich durch ihre Arbeiten in den Stanzen und der Sixtinischen Kapelle große Anerkennung erwarben und vom Papst gefördert wurden. Ihre rivalisierenden Anhänger hassten sich gegenseitig und wandten sich erbittert gegen den altgedienten, inzwischen ergrauten Günstling der Medici. Der junge Raffael allerdings bewunderte sein altes Vorbild und hatte ihn Jahre zuvor in seinem großen Fresko "Die Schule von Athen" als den im Zentrum stehenden Platon verewigt. Leonardo litt in seinen römischen Jahren nicht nur an Krankheiten, sondern auch an der Hektik und den Intrigen im Vatikan. Zum ersten Mal im Leben fühlte er sich zurückgesetzt und gekränkt, vor allem als man ihn wegen seiner anatomischen Studien bespitzelte und ihm Leichenfledderei und Pietätlosigkeit vorwarf. Insgesamt blieb Leonardo knapp zwei Jahre in Rom und arbeitete kaum als Maler (bis auf den lächelnden Johannes den Täufer), sondern mehr als Ingenieur. Unter anderem arbeitete er an einem Projekt zur Energiegewinnung aus Sonnenlicht. Mit Hilfe eines deutschen Spiegelmachers und eines Metallschmiedes baute er verschiedene Hohlspiegel (Sonnenreflektoren), um mit diesen die Sonnenenergie in Wärme zu verwandeln und kochendes Wasser für eine Färberei zu gewinnen. a> von Frankreich (Jean Clouet zugeschrieben, um 1525, Paris, Louvre) Die einzigen aus Leonardos Zeit in Rom bekannten Ingenieurtätigkeiten waren die Arbeiten am Hafen und an den Verteidigungsanlagen von Civitavecchia sowie Aktivitäten zur Trockenlegung der Pontinischen Sümpfe. Durch weitere umfangreiche anatomische Studien entdeckte Leonardo damals auch die Arteriosklerose bei alten Menschen. Doch seine Aufzeichnungen hierüber wurden nie publiziert und blieben jahrhundertelang verschollen, ebenso seine apokalyptischen Visionen, die später im Codex Atlanticus gefunden wurden. Inzwischen war sein französischer Gönner Ludwig XII. in den letzten Tagen des Jahres 1514 gestorben. Sein junger und brillanter Nachfolger Franz I. von Frankreich überraschte Europa: Er stieß an der Spitze einer Armee über die Alpen vor, um seine Rechte in Italien geltend zu machen und in der Schlacht von Marignano das Herzogtum Mailand zurückzuerobern. Nach einigem Zögern befahl Leo X. im Sommer 1515 Giuliano de Medici, die päpstlichen Truppen in die Emilia zu führen und die Bewegungen der Invasoren zu beobachten. Leonardo begleitete seinen Mäzen bis nach Florenz, wo Giuliano erkrankte und am 17. März 1516 verstarb. In seiner alten Heimatstadt wurde Leonardo dem neuen französischen König vorgestellt. Der junge Souverän und der alte Künstler und Wissenschaftler verstanden sich gut, und so nahm der Altmeister – nach anfänglichem Zögern – die Einladung des Königs an, seine letzten Jahre in Frankreich zu verbringen, wo ihm ein neues Heim, Ehre und Achtung zugesichert wurden. Abermals packte er alles Hab und Gut (vor allem drei seiner Bilder: "Mona Lisa", "Johannes" und "Anna selbdritt") und machte sich mit seinen Schülern Salai und Francesco Melzi auf den langen Weg. Alterssitz in Frankreich. Die letzten zwei Jahre seines Lebens verbrachte Leonardo da Vinci im Schloss Clos Lucé in Amboise, das ihm zusammen mit einer großzügigen Pension überlassen wurde. Der Hof kam oft nach Amboise, und der König erfreute sich regelmäßig der Gesellschaft seines Schützlings. Er erklärte, da Vincis Wissen in der Philosophie und den schönen Künsten stehe jenseits dessen, was alle Sterblichen wüssten. Im Frühjahr 1518 hatte Leonardo Gelegenheit, seine alten Talente als Organisator von Festen einzusetzen, als gleichzeitig der Dauphin getauft und eine Medici-Bourbonische Hochzeit gefeiert wurde. Bereits in Rom hatte er einen mechanischen Löwen konstruiert, der sich zum Erstaunen aller Gäste einige Schritte alleine fortbewegen konnte. Unter den Gästen war auch der Kardinal Louis d’Aragon, dessen Sekretär einen Bericht hinterlassen hat, aus dem hervorgeht, dass Leonardo anscheinend an einer Behinderung litt, die die Bewegung seiner Hand beeinträchtigte. Er zeigte dem Kardinal drei seiner Bilder: "Mona Lisa", "Anna selbdritt" und einen jugendlichen "Johannes den Täufer". Dieses wahrscheinlich letzte Bild von seiner Hand hat er möglicherweise erst in Frankreich vollendet. Es zeigt das abgedunkelte Bild eines Johannes, der, ein von innen kommendes Lächeln auf den Lippen, prophetisch mit einem Finger aufwärts zeigt. Besonders deutlich wird hier Leonardos Chiaroscuro-Technik. Tod und Nachlass. Am Osterabend 1519, dem Tode nahe, machte Leonardo sein Testament. Er bestimmte, dass in drei verschiedenen Kirchen in Amboise Messen gelesen und Kerzen angezündet werden sollten. Er wollte auf dem Friedhof in St. Florentin mit einer Zeremonie, an der sechzig arme Männer als Fackelträger teilnehmen sollten, bestattet werden. Vasari berichtet von einer Bekehrung und Reue Leonardos auf dem Totenbett. Obwohl viele seiner Meisterwerke christliche Motive zeigen (es waren meistens Auftragswerke), kann über seine Haltung zur Kirche und zur Religion keine Aussage gemacht werden. Von der Kirche wurde er oft verdächtigt, er betreibe magische Künste. Leonardo war jedoch Wissenschaftler und lehnte – im Gegensatz zu vielen seiner Zeitgenossen – magische Praktiken ab. Grundlage seiner Arbeiten war die Erfahrung. Die Erforschung der Naturgesetze interessierte ihn mehr als religiöse Dogmen; aber wenn er diese erwähnte, tat er es mit Respekt. Nachdem er die Sakramente der Kirche empfangen hatte, starb er am 2. Mai 1519. König Franz in Saint-Germain-en-Laye soll über den Verlust Leonardos geweint haben, andere Quellen berichten, dass Leonardo in den Armen seines Königs verstarb. Nach einer vorläufigen Bestattung an einem anderen Ort wurden die Gebeine entsprechend seinem Willen am 12. August zum Kloster von St. Florentin gebracht. Im 19. Jahrhundert gingen bei Restaurierungsarbeiten die sterblichen Überreste jedoch verloren, so dass der Verbleib von Leonardos Leichnam bis heute unbekannt ist. Er hinterließ alle seine Manuskripte und die gesamte Ausstattung seines Ateliers zusammen mit anderen Geschenken seinem Testamentsvollstrecker Francesco Melzi, seinem Diener Battista Villani und Salai jeweils die Hälfte seines Weinbergs außerhalb von Mailand, Geld und Kleider seinem Dienstmädchen Maturina, weiteres Geld den Armen des Hospitals in Amboise und vierhundert Dukaten, die in Florenz hinterlegt waren, seinen Halbbrüdern. Bedeutung für Kunst und Wissenschaft. Leonardo verband die Vergilsche Sehnsucht "rerum cognoscere causas" (die Ursachen der Dinge zu erkennen) mit dem Willen zum sichtbaren Schaffen. Seine Notizbücher, Zeichnungen und Skizzen bestehen aus ca. 6000 Blättern. Zu seinen Lebzeiten wurde insbesondere von seinen naturwissenschaftlichen Arbeiten nichts veröffentlicht. Erst im 19. und 20. Jahrhundert fanden sich die Manuskripte in Bibliotheken und privaten Sammlungen und wurden somit erst spät gewürdigt. Er schuf im Laufe seines Lebens eine große Zahl von künstlerisch wertvollen Illustrationen zu verschiedenen Themen wie Biologie, Anatomie, Technik, Waffentechnik, Wasserwirtschaft und Architektur und hinterließ Bauwerke, technische Anlagen und Beobachtungen des Kosmos. Besonders bedeutsam sind seine sehr genauen anatomischen und naturwissenschaftlichen Zeichnungen. Bereits gegen Ende seiner Lebenszeit wurde er als Uomo Universale verehrt und wird auch von heutigen Historikern als eines der außergewöhnlichsten Genies aller Zeiten bezeichnet. Anatomische Studien. In Florenz, Mailand und Rom betrieb Leonardo umfangreiche anatomische Studien. Er soll mehr als 30 Leichen seziert haben. Dabei kooperierte er meist mit angesehenen Ärzten der Zeit. Auf Fragen nach seinem Tun antwortete er, derlei Studien hälfen ihm in der Malerei, den menschlichen Körper mit seinen Proportionen, seinen sichtbaren Muskeln und seinen anderen anatomischen Details korrekt wiederzugeben. Als Naturwissenschaftler interessierte er sich aber besonders für das Innere des Menschen und entdeckte dabei u. a. die Verkalkung von Gefäßen bei alten Menschen. Besonders faszinierte ihn die Embryologie, er fertigte – wahrscheinlich als erster Mensch überhaupt – Zeichnungen eines Kindes im Mutterleib an. Auch Leonardos bekannteste Körperstudie – welche heute die italienische 1-Euro-Münze und Krankenkassenscheckkarten ziert – „Der vitruvianische Mensch“, ist eine Art Anatomiestudie. Die Idee dieses Proportionsschemas der menschlichen Gestalt stammt von Vitruv, einem römischen Architekten, Ingenieur und Schriftsteller des 1. Jahrhunderts v. Chr. (daher der Name „Der Vitruvische Mensch“.). Allerdings hat Leonardo nur den Mittelpunkt des Kreises in den Nabel gelegt, den des Quadrates – aus welchen Gründen auch immer – jedoch in den Genitalbereich. Wissenschaftliche Arbeiten. Im fortgeschrittenen Alter beschäftigte sich Leonardo neben der Anatomie besonders eingehend mit Botanik, Geometrie, Mathematik und Geologie. Vor allem faszinierte ihn das Wasser. Von Beginn an zeichnete Leonardo Landschaften und hat unter anderen einen Satz von sechs groß angelegten genauen Karten hinterlassen, die fast das ganze Territorium der Maremma, der Toskana und Umbriens zwischen dem Apennin und der Tyrrhenischen See abdecken. Darüber hinaus hat er Pläne zur Umleitung des Flusses Arno ausgearbeitet, die jedoch nicht ausgeführt wurden. Besonders bekannt ist sein Stadtplan von Imola. Die meisten von Leonardos kartografischen Werken befinden sich in der Sammlung der britischen Königin auf Schloss Windsor sowie im Codex Atlanticus in der Ambrosiana in Mailand. Um ihn als Wissenschaftler zu ehren, wurde von der IAU 1935 der Mondkrater da Vinci und 1973 der Marskrater da Vinci nach ihm benannt. Ingenieurarbeiten. Als Ingenieur war Leonardo ein Pionier und seiner Zeit weit voraus. Seine Intention war, Maschinen (und Waffen) zur Entlastung des Menschen bei ihrer Arbeit und Kriegsführung zu schaffen, sozusagen: „die Produktivität zu erhöhen“. Im Laufe der Zeit nahmen seine wissenschaftlichen Forschungen und sein durch Studium angeeignetes Wissen über Naturkräfte, die er zum Nutzen der Menschheit einsetzen wollte, immer mehr an Bedeutung zu. Jahrzehntelang skizzierte er beispielsweise Fluggeräte, die den heutigen Hubschraubern gleichen. Um 1505 ließ Leonardo am Monte Ceceri bei Fiesole, im Nordosten von Florenz, Flugübungen mit einem Segelfluggerät durchführen. Die Versuche scheiterten, und er notierte in seinem Manuskript „Kodex über den Vogelflug“, dass sich sein Assistent Tommaso Masini dabei ein Bein oder einige Rippen brach. Er konstruierte auch Zahnräder und Getriebe. Viele seiner Geräte wurden inzwischen nachgebaut. Beispielsweise wurde seine Skizze „Wunder der Kunst des mechanischen Getriebes“ als Kunstwerk und als Unendlichkeitsmaschine für didaktische Zwecke im Dynamikum realisiert. In jüngerer Zeit wurden Entwürfe Leonardos für moderne Bauwerke umgesetzt, so z. B. die Leonardo-da-Vinci-Brücke in Ås bei Oslo, die Funktionalität mit großer Schönheit vereinigt. Eine Leonardo-Brücke, die ohne mechanische Befestigung auskommt, wurde 2005 vorübergehend in Freiburg im Breisgau aus Holz errichtet. Auch andere Leonardo-Konstruktionen werden realisiert. So versuchen Wissenschaftler, einen Roboter aufgrund von in verschiedenen Manuskriptseiten gefundenen Hinweisen zu bauen. Ihm selbst fehlten vor allem die mathematischen Kenntnisse und die finanziellen Mittel zur Verwirklichung einiger seiner Erfindungen. Andere waren der Zeit so weit voraus, dass sie erst im 20. Jahrhundert (ohne Rückgriff auf Leonardo) „erfunden“ wurden. Leonardo wurde auch die Erfindung des Fahrrades zugeschrieben. Die Fahrradzeichnung, welche um 1970 gefunden wurde, hat sich mit sehr hoher Wahrscheinlichkeit als Fälschung erwiesen. Leonardo als Schriftsteller. Es wird vermutet, dass Leonardo beabsichtigte, eine Enzyklopädie zu verfassen, die das Wissen seiner Zeit zusammenführen sollte. Skizzen und Entwürfe, Ideen und Gedanken notierte er in seinen Notizbüchern (Codices) meist völlig ungeordnet, scheinbar sprunghaft, gerade da, wo er Platz fand. Ein Zeitzeuge berichtet, dass Leonardo ein kleines Notizbuch stets an seinem Gürtel trug. Texte und Kommentare verfasste Leonardo in Spiegelschrift. Die Erklärung dafür ist umstritten. Eine Vermutung ist, dass dies ein Ausdruck seiner ausgeprägten Linkshändigkeit war. Eine andere Annahme besagt, er habe die Spiegelschrift benutzt, um seine Ideen nicht sofort allgemein zugänglich zu machen. Zu seiner Zeit gab es noch keinen rechtlichen Schutz der Urheberschaft an Erfindungen (wie das heutige Patentrecht). Gilden und Geheimbünde übertrugen das Wissen vom Meister auf den Lehrling. Leonardos Notizbücher, die nach dem Tod des Künstlers in den Besitz der Adelsfamilie Melzi gelangten, gingen als Gesamtwerk verloren. Bücher und einzelne Blätter wurden verkauft oder verschenkt und sind heute weltweit verstreut. Leiden (Stadt). Leiden () (früher auch Leyden,) ist eine Stadt und Gemeinde in der niederländischen Provinz Südholland. Mit Einwohnern (Stand) ist Leiden gemessen an der Einwohnerzahl nach Rotterdam, Den Haag, Zoetermeer und Dordrecht die fünftgrößte Stadt der Provinz Südholland. Zusammen mit den Umlandgemeinden Leiderdorp, Oegstgeest, Katwijk, Voorschoten und Zoeterwoude zählt Leiden mehr als 254.000 Einwohner. Damit ist Leiden in Südholland nach Rotterdam und Den Haag die drittgrößte Agglomeration. Leiden hat die älteste Universität der Niederlande. Daneben ist die Stadt bekannt durch ihre Altstadt und die Grachten. Der Künstler Rembrandt wurde in der Stadt geboren. Lage. Leiden liegt im Norden der niederländischen Provinz Südholland, ungefähr 45 km südwestlich von Amsterdam und ungefähr 18 km nordöstlich von Den Haag. Durch Leiden fließt der Oude Rijn. Im Bereich der Innenstadt spaltet sich der Nieuwe Rijn ab, welcher aber im Westen der Innenstadt wieder mit dem Oude Rijn zusammenfließt. Auch der "Rijn-Schiekanal" und die Zijl spalten sich in Leiden in Richtung Norden und Süden ab. Im Uhrzeigersinn, im Norden beginnend, grenzt Leiden an Teylingen, Leiderdorp, Zoeterwoude, Leidschendam-Voorburg, Voorschoten, Wassenaar, Katwijk und Oegstgeest. Geschichte. Oft wird behauptet, Leiden sei identisch mit der römischen Siedlung "Lugdunum Batavorum". Man nimmt an, die Stadt sei erst im 11. Jahrhundert als Siedlung um die "Burcht" herum entstanden. Dennoch bediente sich Leiden dieses lateinischen Namens bis in die frühe Neuzeit. Die römische Siedlung lag aber näher bei Katwijk als bei Leiden. Der Wollhandel mit England und Flandern brachte Leiden im 13. und 14. Jahrhundert Wohlstand und Blüte. Der holländische Graf Floris V. verlieh Leiden 1266 das Stadtrecht. Das 15. Jahrhundert war, wegen der Wirren des Haken-und-Kabeljau-Kriegs, eines Bürgerkriegs, eine Epoche von Wirtschaftskrisen. Im Achtzigjährigen Krieg schloss sich Leiden dem Aufstand gegen die Spanier an. Nach einer seit dem 25. Mai 1574 währenden Belagerung gelang es den Geusen, unter anderem durch Fluten der umliegenden Polder, am 3. Oktober 1574 die Stadt zu befreien. Die Legende will, dass nach der Vertreibung der spanischen Belagerer in deren Lager eine Pfanne mit Möhren-Eintopf "(hutspot)" gefunden wurde. Damit konnte die ausgehungerte Stadtbevölkerung erstmals wieder eine ordentliche Mahlzeit haben. Darum wird dieses Gericht jedes Jahr bei den Feiern von "Leidens ontzet" am 3. Oktober in allen Restaurants serviert. Als Dank für den von den Leidenern gezeigten Mut bekam die Stadt kurz darauf, kraft Beschluss der Regierung unter der Führung Wilhelms von Oranien, die erste Universität der Republik der Niederlande. Danach flohen viele Protestanten aus Antwerpen, Brüssel und anderen von den Spaniern eroberten Gebieten nach Leiden, so dass die Stadt zwischen 1575 und 1650 mehrmals ihre Stadtmauern erweitern musste. In dieser Epoche erlebte Leiden eine große kulturelle und wissenschaftliche Entwicklung: Maler wie Rembrandt und seine Schüler und Wissenschaftler wie Antoni van Leeuwenhoek, der Entdecker der Bakterien, lebten und wirkten in Leiden. Etwa ab 1700 trat jedoch wieder ein Niedergang ein. Bis heute ist jedoch die Universität Leiden, an der auch die zur Königswürde bestimmten Mitglieder des niederländischen Königshauses studieren, eine Hochburg der Wissenschaft in den Niederlanden geblieben. So entdeckte der Physiker Pieter van Musschenbroek 1746 in Leiden das Prinzip der Leidener Flasche, als er bei Laborversuchen mit entsprechenden Anordnungen von Gläsern und Metallteilen elektrische Stromschläge erhielt. Von etwa 1795 bis 1813 war Leiden von französischen Truppen besetzt ("Franzosenzeit"). Am 12. Januar 1807 explodierte mitten in der Stadt ein mit 17.400 Kilogramm Schießpulver beladenes Schiff. 151 Personen starben, über 2000 wurden verletzt und etwa 220 Häuser zerstört. Wirtschaft. Die Stadt ist Sitz der Airbus Group und der Stiftung Eurotransplant. Der europäische Sitz von IKEA, die "Stiftung INGKA", befindet sich ebenfalls in Leiden. Die einst wichtige Textilindustrie ist mittlerweile nicht mehr von Bedeutung. Leiden hatte aber auch andere Industrien, zum Beispiel die Herstellung von Feuerzeugen sowie Stahlverarbeitung. Heute hat der tertiäre Sektor (Dienstleistungssektor) aber einen großen Marktanteil. In Leiden sind u. a. Achmea, ein Versicherungsunternehmen, und viele Schulungsinstitute ansässig. Größter Arbeitgeber der Region Leiden ist das Krankenhaus, das im "Bio Science Park Leiden" angesiedelt ist, wo sich auch mehrere Betriebe der pharmazeutischen und biotechnologischen Industrie angesiedelt haben. Druckerei- und Verlagsunternehmen wie "Elsevier" und "Brill" sind schon seit Jahrhunderten weltbekannt für Drucke lateinischer, asiatischer und arabischer Werke. Verkehr. Direkte Eisenbahnverbindungen gibt es vom Bahnhof Leiden Centraal nach Rotterdam über Den Haag, nach Amsterdam über Flughafen Schiphol oder Haarlem sowie nach Utrecht über Woerden. Zu Spitzenlastzeiten fahren auch direkte Züge nach Gouda. Weitere Bahnhöfe sind De Vink (an der Strecke nach Den Haag) und Leiden Lammenschans (an der Strecke nach Utrecht). Über zwei Autobahnen ist die Stadt auch gut mit dem Fernstraßennetz verbunden: Östlich der Stadt verläuft die A 4 und westlich die A 44. Geplant sind zwei Verbindungswege zwischen der A 4 und der A 44. Der internationale Amsterdamer Flughafen Schiphol liegt etwa 30 km nordöstlich der Stadt und ist mit der Bahn gut zu erreichen. Stadtteile. Die Gemeinde Leiden gliedert sich in vier Stadtteile, zehn Distrikte und 54 sogenannte Nachbarschaften. Wasser und Natur. Vor allem in der Innenstadt ist Wasser ein wichtiger Bestandteil des Straßenbildes. Neben den Flüssen Oude und Nieuwe Rijn hat die Stadt verschiedene Grachten und Singels. Die bekannteste Gracht heißt "der Rapenburg". Außerhalb des Zentrums verbinden neben Oude und Nieuwe Rijn Flüsse, Kanäle, der Zijl, der Haarlemmertrekvaart und der Trekvliet die Stadt und die Erholungsgebiete außerhalb der Stadt mit Wasser. An der Südostseite der Stadt liegt das 'Polderpark Cronesteyn', auf dem Gelände der vormaligen Burg Cronesteyn. Dieser Park besteht aus unterschiedlichen Kulturlandschaften und hat einen Reiherwald. Außerdem gibt es ein Besucherzentrum und einen Campingplatz. Dieser Park bildet die Verbindung der Stadt mit dem Groene Hart. Bildung. Leiden besitzt zwei Universitäten. Die Universität Leiden wurde 1575 gegründet und ist damit die älteste Universität der Niederlande. Dazu gibt es viele Einrichtungen und Betriebe, die mit dieser Universität in Verbindung stehen, u. a. die Universitätsbibliothek Leiden, die Sternwarte Leiden und das Universitätsklinikum "Leids Universitair Medisch Centrum". Die Universität hat sechs Fakultäten und mehr als 18.000 Studenten. Das Kernstück der Universität liegt im Akademiegebäude. Die Universität Leiden hat außerdem auch einen eigenen Botanischen Garten, ein Observatorium und eine eigene Universitätsbibliothek. Seit 1983 hat auch die US-amerikanische Webster University eine Abteilung in Leiden. Die "Hogeschool Leiden" ist eine Fachhochschule mit ungefähr 6000 Studenten und steht im "Leiden Bio Science Park". In diesem Bio Science Park befinden sich auch Abteilungen von biotechnologische Betriebe. Auch für Berufsausbildungen gibt es in Leiden verschiedene Institutionen. Das "ROC Leiden", mit mehr als 10.000 Schülern, das "ROC Mondriaan" und das "ID College". Die 'Leidse Instrumentmakersschool' ist eine bekannte Schule für Feinmechanik. In Leiden gibt es auch eine Volksuniversität. Sehenswürdigkeiten. Bachmanns Gedicht "Wahrlich" auf einer Häuserfront in Leiden Die Pieterskerk („St. Petrikirche“), Baubeginn 1121, stammt größtenteils aus dem 16. Jahrhundert. In dieser Kirche befinden sich viele Grabmale berühmter Niederländer. St. Petrus ist der Schutzpatron Leidens, daher die Schlüssel im Stadtwappen (der Heilige Petrus verfügt über die Schlüssel der Himmelspforte). Zu besonderen Anlässen wie z. B. Ehrenpromotionen oder Jubiläen wird die Pieterskerk von der Universität als Aula genutzt. – Eine weitere gotische Kirche ist die Hooglandse Kerk, die mit ihrer Größe hoch über die sie umgebenden Häuser im Stadtzentrum hinausragt. Das Hauptgebäude der Universität liegt an einer der bekanntesten Grachten in ganz Holland, der "Rapenburg", und war ursprünglich eine Klosterkirche. Meisterwerke der Renaissancearchitektur sind das Rathaus (Stadhuis, Raadhuis), an dessen Gestaltung der Bremer Baumeister Lüder von Bentheim beteiligt war, und das "Rijnhuis" der frühneuzeitlichen Wasser- und Schifffahrtsverwaltung. In der ganzen Stadt verteilt gibt es viele "hofjes". Das sind Gruppen kleiner, oft ihrer Einfachheit wegen sehr beliebter Häuser, meist um einen Hof mit Brunnen oder Kräutergarten, die zwischen 1600 und 1900 von reichen Leuten gestiftet wurden. Gedacht als private Alters-, Witwen-, oder Armenfürsorge-Einrichtungen (vergleiche die Fuggerei in Augsburg), werden diese Häuschen jetzt oft von Studenten oder Krankenschwestern bewohnt. Diese "hofjes" stehen alle unter Denkmalschutz (Rijksmonument). Die "Burcht" ist ein künstlich aufgeworfener Fluchthügel aus dem 11. oder 12. Jahrhundert, der im 17. Jahrhundert befestigt und ummauert wurde. Er bietet einen guten Überblick über die Innenstadt. Im Sommer finden hier einige Veranstaltungen wie z. B. Theateraufführungen statt. In Leiden gibt es mehrere alte Häuser. Das Haus, in dem der Maler Rembrandt geboren ist, besteht jedoch nicht mehr. Lediglich eine Gedenktafel an einem Neubau des 20. Jahrhunderts erinnert an die ersten Jahre dieses Sohnes der Stadt. Sehenswert sind auch zwei Stadttore und eine Windmühle, ähnlich der, die Rembrandts Vater betrieb. Eine Besonderheit Leidens sind die "Muurgedichten"  (Mauergedichte), die auf Häuserwänden im Straßenraum der Innenstadt zu sehen sind. Die 101 Texte von bekannten und unbekannten Dichtern aus aller Welt sind Ergebnis eines Projekts, das 1992 mit einem Gedicht von Marina Iwanowna Zwetajewa begonnen hatte und 2011 mit dem Gedicht "Regen, meer en wind" von Danila Stoyanova beendet wurde. Die Gedichte sind in unterschiedlicher Gestaltung in der Originalsprache und -schrift auf die Wände der Häuser gemalt. Zudem besitzt Leiden verschiedene Windmühlen. Eine der letzten erhaltenen ist die Molen De Valk, die in ein Museum umfunktioniert wurde und die Geschichte der Mühlen in Leiden zeigt. Kirchen. In der Gemeinde Leiden gibt es verschiedene Kirchengemeinden. Landkreis Cham. Der Landkreis Cham ist der östlichste Landkreis des Regierungsbezirks Oberpfalz in Ostbayern. Geografie. Das Kreisgebiet gehört fast völlig den Großlandschaften des Oberpfälzer und des Bayerischen Waldes an, die hier durch die Cham-Further Senke voneinander getrennt werden. Der Fluss Regen durchzieht den Kreis von Südosten nach Westen. Eine geologische Besonderheit ist der so genannte Pfahl, eine kristalline Verwerfung quer durch den gesamten Bayerischen Wald. Das Kreisgebiet ist nahezu identisch mit dem Gebiet des Naturparks Oberer Bayerischer Wald. Mit einer Fläche von 1511,87 km² nimmt der Landkreis Cham unter den 71 Landkreisen Bayerns die fünfte Stelle, unter den sieben Landkreisen der Oberpfalz die erste Stelle ein. Die durchschnittliche Gebietsfläche der bayerischen Landkreise beträgt 985 km². Raumplanung. Der Landkreis Cham ist der Planungsregion 11 (Regensburg) zugeordnet. Er ist Fördergebiet nach den bayerischen regionalen Förderprogrammen, der Gemeinschaftsaufgabe „Verbesserung der regionalen Wirtschaftsstruktur“ und Ziel 3-Fördergebiet der Europäischen Union. Auf einer Länge von 71,6 Kilometern grenzt der Landkreis Cham im Osten an den tschechischen Bezirk Pilsen "(Plzeňský kraj)" an. Die Region ist deshalb Fördergebiet nach den europäischen INTERREG und PHARE-Programmen. Nachbarkreise. Der Landkreis grenzt gegen Uhrzeigersinn (im Norden beginnend) an die Landkreise Schwandorf, Regensburg, Straubing-Bogen und Regen. Im Nordosten und Osten grenzt er an Tschechien. Brücke zum Osten. Mit ca. 70 km Grenze zu Tschechien kommt dem Landkreis Cham eine Brückenfunktion zum Osten zu. Eine Rolle spielt dabei die Begegnung der Menschen, die sich in Partnerschaften und Einrichtungen wie dem grenzüberschreitenden Wallfahrts-, Begegnungs- und Umweltbildungszentrum „Haus zur Aussaat“ Neukirchen b.Hl.Blut oder der Jugendbildungsstätte Waldmünchen äußert. Um die Herausforderungen der Osterweiterung der Europäischen Union zu bewältigen, werden gemeinsame Projekte wie in den kommunalen Aktionsbündnissen „Künisches Gebirge“ und „Cerchov“ durchgeführt. Bis 1800. Die belegbare Geschichte im Gebiet des heutigen Landkreises Cham beginnt im Jahre 748. Das Regensburger Kloster St. Emmeram gründete die „Cella“, die Urpfarrei in Chammünster. Sitz der weltlichen Herrschaft der Mark Cham waren zunächst die Königshofbezirke Cham und Roding. Die 976 als „civitas chamma“ erwähnte Reichsburg Cham mit den umliegenden Burgen Runding, Haidstein, Chamerau und Wetterfeld war militärischer Mittelpunkt der Mark an der Grenze zu Böhmen. In das elfte Jahrhundert fielen zahlreiche Ortsgründungen; im zwölften Jahrhundert wurden im Regental die bedeutenden Klöster Reichenbach und Walderbach gegründet, die bis zur Reformation die Besiedlung der Umgebung vorantrieben. Nach 1667 wurden sie zu Wegbereitern der Rekatholisierung der Oberpfalz. In den Hussitenkriegen im 15. Jahrhundert war das Grenzland besonders betroffen, der "Further Drachenstich" greift dieses Thema in einem Festspiel auf. Thema eines Freilichtspiels ("Trenck der Pandur vor Waldmünchen") ist auch der Österreichische Erbfolgekrieg von 1741 bis 1745. Landgerichte. Mit der Verwaltungsreform 1803 entstanden im heutigen Kreisgebiet Cham die Landgerichtsbezirke Cham, (mit dem weiteren Landgerichtsbezirk Furth im Wald), Kötzting, Roding und Waldmünchen, die alle bis 1817 zum Regenkreis gehörten. Dann kamen Cham und Furth sowie Kötzting zum Unterdonaukreis, während Waldmünchen und Roding beim Regenkreis (der späteren Oberpfalz) verblieben. 1838 wurden auch die Landgerichte Cham und Furth dem nunmehrigen Kreis Oberpfalz und Regensburg zugeteilt, während das Landgericht Kötzting allein beim nunmehrigen Kreis Niederbayern verblieb. Gleichzeitig entstand 1838 aus einigen Gemeinden des Landgerichtsbezirks Roding das neue Landgericht Nittenau und 1852 noch ein weiteres Landgericht Falkenstein, das jedoch 1879/80 wieder aufgelöst wurde. Bezirksämter. Das Bezirksamt Cham wurde im Jahr 1862 durch den Zusammenschluss der Landgerichte älterer Ordnung Cham und Furth i.Wald neu gebildet. Ebenso wurden die Landgerichte Kötzting und Neukirchen b.Hl.Blut zum Bezirksamt Kötzting sowie die Landgerichte Falkenstein, Nittenau und Roding zum Bezirksamt Roding zusammengefasst, während das Bezirksamt Waldmünchen dem Landgericht Waldmünchen folgte. Am 1. Juli 1904 wurde die Gemeinde Sengenbühl des Bezirksamtes Kötzting ins Bezirksamt Cham umgegliedert. Landkreise. Am 1. Januar 1939 wurde wie überall im Deutschen Reich die Bezeichnung Landkreis eingeführt. So wurden aus den Bezirksämtern die Landkreise Cham, Kötzting, Roding und Waldmünchen. Im Jahr 1946 erhielt der Landkreis Waldmünchen die Gemeinde Ried bei Gleißenberg vom Landkreis Cham. Sie wurde nach Gleißenberg eingemeindet. Landkreis Cham. Im Zuge der Gebietsreform wurden am 1. Juli 1972 die Landkreise Cham, Kötzting (mit Ausnahme der Gemeinde Lohberg; diese wurde zunächst zum Landkreis Regen zugeordnet; kam aber im Mai 1978 dann ebenfalls zum Landkreis Cham) und Waldmünchen, der östliche Teil des Landkreises Roding (der westliche kam zum Landkreis Schwandorf) und einige Gemeinden anderer Kreise zum neuen Landkreis Cham zusammengeschlossen, der damit wieder annähernd den historischen Gebietsumfang der alten Markgrafschaft Cham erreichte. Das Gebiet des Landkreises Kötzting wechselte damit von Niederbayern in die Oberpfalz. Heute ist der Landkreis Cham der flächengrößte Landkreis in der Oberpfalz und fünftgrößter in ganz Bayern. Mit dem Beitritt des Nachbarlandes Tschechien zur Europäischen Union am 1. Mai 2004 wurde die jahrzehntelange Abschottung nach Osten endgültig überwunden. Am 25. Mai 2009 erhielt der Landkreis den von der Bundesregierung verliehenen Titel „Ort der Vielfalt“. Einwohnerentwicklung. Zwischen 1988 und 2008 wuchs der Landkreis Cham um über 7000 Einwohner bzw. um rund 6 %. Seit 2003 ist die Tendenz nach einem Höchststand von rd. 131.600 Einwohnern rückläufig. Die nachfolgenden Zahlen beziehen sich auf den Gebietsstand vom 25. Mai 1987. Politik. Der Landkreis Cham ist neben den politischen Parteien traditionell stark geprägt durch zahlreiche regionale Wählergemeinschaften. Kreistag. CSU, GLLW, HBL und Grenzfahne bilden eine Fraktionsgemeinschaft und verfügen damit über die absolute Mehrheit im Kreisrat. Landräte. Seit dem 20. Juli 2010 ist Franz Löffler (CSU) Landrat des Landkreises Cham. Bei der Stichwahl zur Landratswahl am 18. Juli 2010 wurde er mit einem Stimmenanteil von 50,3 Prozent bei einer Wahlbeteiligung von 38,6 Prozent erstmals direkt in dieses Amt gewählt. Löffler ist der dritte Landrat des Landkreises Cham seit der Gebietsreform von 1972. Erster Landrat des damals neu geordneten Landkreises wurde der Landrat des ehemaligen Landkreises Roding, Ernst Girmindl. Alle Chamer Landräte wurden seither von der CSU gestellt. Wappen. „Unter Schildhaupt mit den bayerischen Rauten in Rot die zweitürmige silberne Kirche von Chammünster in Seitenansicht.“ Die bayerischen Rauten betonen die jahrhundertelange Zugehörigkeit zum wittelsbachischen Territorium der Oberen Pfalz. Die stilisierte Wiedergabe der Kirche hebt die Bedeutung des Chamer Gebietes für die Christianisierung im frühen Mittelalter hervor. Die weißblauen Rauten stammen aus dem Bayerischen Wald. Sie waren ursprünglich die Farben der Grafen von Bogen, deren Besitz zu Beginn des 13. Jahrhunderts durch Heirat an die Wittelsbacher kam. Die Wittelsbacher, die in Bayern 750 Jahre regierten, übernahmen auch deren Hausfarben. Kreispartnerschaften. Seit 1983 besteht eine Partnerschaft mit dem Lichtenrader Volkspark in Berlin-Lichtenrade. 1992 wurde eine Partnerschaft mit dem sächsischen Landkreis Bautzen begründet. Wirtschaft. Der Landkreis Cham verfügt über eine breit gefächerte mittelständische Wirtschaftsstruktur in Handwerk, Handel, Industrie und Dienstleistung. Die Palette reicht vom traditionellen holzverarbeitenden Betrieb bis zum High-Tech-Unternehmen in den Bereichen Maschinenbau, Elektrotechnik, Kunststofftechnologie und Mechatronik. Insgesamt haben rund 9000 Unternehmen ihren Standort im Landkreis Cham, darunter einige mit über 1.000 Mitarbeitern. Netzwerke wie der Aktionskreis „Lebens- und Wirtschaftsraum Landkreis Cham e. V.“ oder regionale Cluster in den Bereichen Mechatronik und Holz/Forsten prägen die Zusammenarbeit. Fernstraßen. Der Landkreis Cham ist durch die Bundesstraßen Bundesstraße 16 (Ingolstadt–Regensburg–Nittenau–Roding), Bundesstraße 20 (Straubing–Furth im Wald), Bundesstraße 22 (Bayreuth–Weiden–Oberviechtach–Cham) und Bundesstraße 85 (Amberg–Schwandorf–Passau) an das Bundesfernstraßennetz angeschlossen. Die naheliegendsten Autobahnen sind die A 3 (Nürnberg–Regensburg–Passau), A 93 (Regensburg–Schwandorf–Weiden–Hof) und A 92 (München–Landshut–Deggendorf). Als einer der wenigen Landkreise in Bayern wird der Landkreis Cham nicht von einer Autobahn durchzogen, jedoch sind die Bundesstraßen meist ausgebaut, teils mit längeren drei- oder vierspurigen Streckenabschnitten. Bus- und Bahnverkehr. Die Hauptverkehrsader des Schienennetzes im Landkreis Cham ist die Bahnstrecke Schwandorf–Cham–Furth im Wald (–Pilsen), die 1861 von der AG der Bayerischen Ostbahnen bis zur Landesgrenze erbaut wurde. Von Schwandorf aus sind Umsteigemöglichkeiten in Richtung Weiden, Nürnberg oder Regensburg, bzw. München, möglich. Von der erstgenannten wurde 1905 in Miltach mit der Vollendung der Bahnstrecke Straubing–Miltach eine Querverbindung ins Donautal nach Straubing hergestellt, während die Fortsetzung von Kötzting nach Lam bereits 1893 durch die AG Lokalbahn Lam–Kötzting zustande kam. Schließlich machte die Regentalbahn (RAG) im Jahre 1928 den Bahnhof Blaibach zum Ausgangspunkt einer Strecke nach Viechtach, wodurch die Bahnstrecke Gotteszell–Blaibach vollendet wurde. Unabhängig von dem so entstandenen Eisenbahnnetz erhielt durch die Bayerischen Staatseisenbahnen der Markt Falkenstein 1913 eine Linie von Regensburg her und die Stadt Rötz 1915 von Bodenwöhr Nord über Neunburg vorm Wald. Die Zahlen in Klammern () beziehen sich auf die Streckenlänge im Kreisgebiet. 2002 wurden die Schienenverbindungen der Oberpfalzbahn in den bereits bestehende Verkehrsgemeinschaft Landkreis Cham integriert. Damit existiert im Landkreis ein Verkehrsverbund mit einheitlichen Tarifen in allen Bussen und Zügen. Seit Mai 2008 ist der Landkreis Cham über die erste deutsch-tschechische Buslinie Bayerns mit dem tschechischen Nachbarbezirk Pilsen verbunden. Städte und Gemeinden. Städte, Märkte und Gemeinden im Landkreis Cham Schutzgebiete. Im Landkreis gibt es zehn Naturschutzgebiete, vier Landschaftsschutzgebiete und 160 vom Bayerischen Landesamt für Umwelt ausgewiesene Geotope (Stand November 2015). Kfz-Kennzeichen. Am 1. Juli 1956 wurde dem Landkreis bei der Einführung der bis heute gültigen Kfz-Kennzeichen das Unterscheidungszeichen "CHA" zugewiesen. Es wird durchgängig bis heute ausgegeben. Seit dem 10. Juli 2013 sind auch die Unterscheidungszeichen "KÖZ" (Bad Kötzting), "ROD" (Roding) und "WÜM" (Waldmünchen) erhältlich. Sonstiges. Eine beliebte Homonym-Wortspielerei, die mit dem Kreis zu tun hat, ist der Satz "Als ich grad nach Cham kam, war der Zug nach Furth furt (fort)." Die betreffende Eisenbahnlinie liegt im Kreisgebiet. Louvre. Der Louvre () in Paris ist ein früherer französischer Königspalast und bildete zusammen mit dem zerstörten Palais des Tuileries das Pariser Stadtschloss. Das Gebäude liegt im Zentrum von Paris zwischen dem rechten Seineufer und der Rue de Rivoli. Sein Innenhof liegt auf der "historischen Achse", deren Ausgangspunkt der Glockenturm der Kirche St-Germain-l’Auxerrois ist und die sich über die gläserne Eingangspyramide des Louvre bis zur Grande Arche in La Défense erstreckt; ihr Kernstück wird von den Champs-Élysées gebildet. Der Louvre beherbergt heute größtenteils das Museum des Louvre "(Musée du Louvre)", das mit etwa zehn Millionen Besuchern im Jahr 2012 das meistbesuchte und, gemessen an der Ausstellungsfläche, das drittgrößte Museum der Welt ist. Daneben birgt der Nordflügel die Institution Les Arts Décoratifs mit ihren drei Museen Musée des Arts décoratifs, Musée de la Mode et du Textile, Musée de la Publicité und der Bibliothèque des Arts décoratifs. Direktor des Museums in der Nachfolge von Henri Loyrette ist seit 15. April 2013 der Klassische Archäologe und Kunsthistoriker Jean-Luc Martinez, der zuvor die Abteilung für griechische, etruskische und römische Antiquitäten leitete. Gebäude. Der Louvre war jahrhundertelang eine große Baustelle. Beinahe jeder französische Herrscher hat den Louvre umbauen, erweitern oder renovieren lassen. Der Name leitet sich wahrscheinlich von lateinisch "luperia" ab, was übersetzt so viel wie „Wolfsbau“ bedeutet und auf den ursprünglichen Zweck als wehrhafte Trutzburg hinweist. Geschichte des Louvre. Ursprünglich war der Louvre im 12. Jahrhundert unter Philipp-August ein trutziger Zweckbau, eine kompakte Festung im Donjon-Stil zum Schutz des rechten Seineufers. Als die Stadt in der zweiten Hälfte des 14. Jahrhunderts rasch wuchs und außerdem durch einen weiteren inneren Mauerring geschützt war, ließ Karl V. die Burg zu einer bewohnbaren Residenz umbauen. Unter Franz I. wurden Neubaumaßnahmen vorgenommen, die 1528 mit dem Abriss des Donjon begannen. Die mittelalterliche Festung wurde in ein repräsentatives Königsschloss verwandelt, wobei der Grundriss – vier Flügel um einen quadratischen Hof – beibehalten wurde. Als Hauptwohnsitz des französischen Königs diente der Palast aber erst ab dem 16. Jahrhundert unter Heinrich II., jetzt im Stil der italienischen Renaissance erweitert. Auch in den folgenden Jahrhunderten wurde der Louvre nach den Bedürfnissen der jeweiligen Herrscher umgestaltet und vor allem gewaltig erweitert. Als der Königshof 1682 mit Ludwig XIV. nach Versailles umzog, verwahrloste der Bau. Die Stadt Paris übernahm das Gebäude, teils noch im Rohbau und ohne Dach, die Académie française zog in die Königsgemächer ein, und andere Gebäudeteile wurden von Künstlern als Behausung und Arbeitsraum genutzt. Auch Cabarets und Verkaufsstände fanden sich in dem immer mehr verfallenden Gemäuer. Erst die Revolution bescherte dem Louvre eine neue Bedeutung als dem ersten öffentlichen Museum Frankreichs. Die französische Nationalversammlung legte in einem Dekret vom 26. Mai 1791 fest, dass in diesem Palast auch bedeutende Werke der Wissenschaften und der Kunst gesammelt werden sollten. Das Museum wurde am 10. August 1793 eröffnet. Hier wurden die Kunstschätze des Königs und des Adels zusammengetragen, sofern sie nicht geplündert oder verkauft worden waren. Mit Napoleon zog allerdings wieder ein Herrscher in den Palast ein, und sein Neffe Napoleon III. vollendete den Bau und insbesondere die Fassaden weitgehend in seiner heutigen Form. 1873 ist die Zeit des Louvre als Zentrum weltlicher Macht endgültig vorbei, da der Präsident der Republik in den Élysée-Palast zog. Der ehemalige Staatspräsident François Mitterrand ließ in den 1980er-Jahren den Louvre generalüberholen. Dabei standen nicht so sehr äußere Veränderungen im Vordergrund als vielmehr eine Umgestaltung der Ausstellungsräume und der meist unterirdischen Forschungseinrichtungen und Labors. Im September 2012 eröffnete der Louvre eine neue Abteilung für islamische Kunst, die sich in einem Erweiterungsbau nach einem Entwurf der Architekten Mario Bellini und Rudy Ricciotti befindet. Ausgestellt werden rund 2500 Exponate, die teilweise aus dem Musée des Arts Decoratifs stammen. Baugeschichte des Louvre. Plan des Palais du Louvre mit Bauetappen Der alte Louvre um 1615. Rechts verbindet der langgezogene Galeriebau den Louvre mit dem Tuilerienpalast im Vordergrund Der Louvre entwickelte sich durch mehrere Bau- und Umbaumaßnahmen, die letztlich mit Unterbrechungen zu einer knapp 800-jährigen Baugeschichte führen. Um 1190 wurde auf Anweisung Philipps II. die Errichtung einer Burg begonnen, die um 1200 weitgehend fertiggestellt war. Dieses Gebäude war von einer vierflügeligen Mauer umgeben, deren Ecken mit Rundtürmen verstärkt waren, in der Mitte des Komplexes befand sich ein runder Donjon. König Karl V. ließ den Louvre ab 1370 umbauen und verschönern; das damalige Aussehen der Festung ist in den Très Riches Heures des Herzogs von Berry überliefert und zeigt ein wehrhaftes, mit gotischen Zierelementen gestaltetes Gebäude. Mit dem Beginn der Renaissance änderten sich die Anforderungen an den Sitz der französischen Könige; statt einer gesicherten Festung wurde mehr Augenmerk auf eine repräsentative Residenz gelegt, und ab 1528 begannen umfangreiche Erweiterungsmaßnahmen. Der alte Donjon wurde weitgehend abgetragen und auf den Fundamenten der Burg ab 1546 ein Palast im Renaissancestil durch Pierre Lescot errichtet. Heinrich II. ließ den Westflügel zum Kernbau einer bald vierflügeligen Anlage gestalten. In den nächsten hundert Jahren wurde am Louvre fast unablässig gebaut. Der Südflügel wurde von 1559 bis 1594 errichtet, und unter Heinrich IV. wurde entlang der Seine in zwei Bauabschnitten von 1566 bis 1600 und von 1600 bis 1608 eine lange Galerie geschaffen, die den einzeln stehenden Tuilerien-Palast mit dem Louvre verband. Die Ostfassade mit der „Kolonnade“, Zeichnung von 1845 Ludwig XIII. beauftragte Jacques Lemercier mit einem Umbau des vierflügeligen Schlosses, der den Mitteltrakten der Flügel neue Pavillons zufügte. Ludwig XIV. entschloss sich, die Anlage, vor allem im Bereich der Ostseite, umzugestalten. Er beauftragte den italienischen Baumeister Gian Lorenzo Bernini damit, passende Baupläne auszuarbeiten. Berninis Entwurf sah jedoch eine völlige Umgestaltung des Bestandes vor und wurde fallen gelassen, als dieser Paris verlassen hatte. Stattdessen erhielt ein Ausschuss um Louis Le Vau, Charles Le Brun, Claude Perrault – dem der Hauptanteil an dem Entwurf zugeschrieben wird – sowie seinen Bruder Charles Perrault den Auftrag, einen neuen Entwurf für die östliche Hauptfassade zu konzipieren. Dieser wurde schließlich genehmigt und gelang in der Zeit von 1667 bis 1674 zur Ausführung. Vor allem wegen der damals neuartig freistehenden, rhythmisierten Kolonnaden sorgte die neu errichtete Fassade für helles Aufsehen und wurde zu einem Sinnbild der architekturtheoretischen "Querelle des Anciens et des Modernes" in Frankreich. Der hier angewandte strenge Stil des klassizistischen Barock sollte für Frankreichs Architektur der folgenden Epochen prägend sein. Ab 1674 wurden die Arbeiten am Louvre vorerst eingestellt. Da Ludwig XIV. seinen Regierungssitz 1682 nach Versailles verlegte, verlor das alte Stadtschloss vorerst seine Bedeutung. 1754 gab Ludwig XV. den Auftrag zur vorläufigen Vollendung des Baus, im Wesentlichen der hofseitigen Fassade des "Cour Carrée". Die langen Flügel des Hofes, welche die heutige Glaspyramide rahmen, wurden im 19. Jahrhundert um- und ausgebaut. Diese Erweiterungsbauten, die nach Denon und Richelieu benannt sind und stilistisch den Bauten Lemerciers angepasst sind, wurden von 1852 bis 1878 durch Louis Visconti und Hector Lefuel überarbeitet oder neu angelegt, ebenso wie der nördliche Verbindungsflügel zu den Tuilerien von 1816. Bereits 1857 wurden die von Visconti und Lefuel vollendeten Teile eingeweiht. Der ehemals freistehende Tuilerien-Palast fiel 1871 während der Pariser Kommune einem Feuer zum Opfer und wurde 1882 abgerissen. Seit diesem Zeitpunkt ist das Schloss im Grunde eine gewaltige, annähernd U-förmige Anlage, deren Ausgangspunkt der vierflügelige Alte Louvre mit dem Cour Carrée („Viereckshof“) ist, von dem aus sich die neueren Flügel um den großen Cour Napoléon („Napoleonshof“) entlang bis zum Arc de Triomphe du Carrousel erstrecken. Staatspräsident François Mitterrand initiierte 1981 das Projekt „Grand-Louvre“, mit dem der gesamte Gebäudekomplex einer musealen Nutzung unterworfen wurde; 1999 wurde es abgeschlossen. Das Finanzministerium zog um; in diesem Rahmen wurde unter anderem die "Galerie d’Apollon" restauriert und die Glaspyramide geschaffen. Die Glaspyramide im Innenhof des Louvre wurde von Ieoh Ming Pei entworfen und 1989 eröffnet. Sie dient heute als Haupteingang zum "Musée du Louvre". Anfangs als Gewächshaus und Käseglocke verspottet, ist die Pyramide heute zu einem bekannten Wahrzeichen von Paris geworden. Außerdem wurde 1993 das Carrousel Du Louvre eröffnet, eine unterirdisch direkt an den Louvre angeschlossene Einkaufsmeile mit Restaurants und der invertierten Glaspyramide. 2009 gab es eine Kontroverse um den Einzug einer McDonald’s-Filiale im neugestalteten Restaurantbereich. Das Museum. Die Sammlung des Museums (Musée du Louvre) umfasst ungefähr 380.000 Werke, von denen etwa 35.000 Exponate auf einer Fläche von über 60.000 m² präsentiert werden. Damit ist das Museum, flächenmäßig betrachtet, das drittgrößte Museum der Welt. Besonders hervorzuheben ist die Qualität der griechischen und römischen Antikensammlungen, der Abteilungen der italienischen Renaissancemalerei und der flämischen Malerei des 16. und 17. Jahrhunderts sowie der französischen Malerei des 15. bis 19. Jahrhunderts. Der Ursprung der Sammlung geht auf das 14. Jahrhundert zurück. Damals häufte der Herzog Jean Duc de Berry (1340–1415), ein Bruder Karl V., eine Sammlung von Gemälden, Tapisserien und Buchmalereien an, von denen einige noch in der heutigen Ausstellung zu sehen sind. Der eigentliche Begründer der Sammlung ist aber König Franz I. (1515–1547), der als der erste große Sammler und Mäzen auf Frankreichs Thron gilt. Er richtete auch dem greisen Leonardo da Vinci 1517 ein Domizil an der Loire ein. Nach dessen Tod 1519 gelangten dessen Bilder – darunter wahrscheinlich auch die Mona Lisa – in die Sammlung des Königs, die zu dieser Zeit noch im Schloss Fontainebleau aufbewahrt wurde. Kardinal Richelieu, der 1624 Minister unter Ludwig XIII. wurde, baute auf Staatskosten eine große Privatsammlung auf, die 1636 zum Großteil in den Besitz der Krone überging. 1660 zog die Sammlung in den Louvre um. Auch unter Ludwig XIV. wurden kostbare Werke, unter anderem von Tizian und Raffael, erworben, während unter Ludwig XV. kaum neue Bilder der Sammlung hinzugefügt wurden. Geschichte. Dass die Sammlung der Öffentlichkeit nicht zugänglich war, führte zu allgemeiner Kritik, worauf 1750 im Palais du Luxembourg die erste Gemäldegalerie Frankreichs eröffnet wurde. Bereits 1779 wurde sie jedoch wieder geschlossen, da das Palais als Wohnung des späteren Ludwig XVIII. genutzt wurde. Die Bilder wurden zurück ins Depot des Louvre gebracht. Der Politiker Charles Claude Flahaut de La Billarderie plante die Schaffung eines französischen Nationalmuseums. Im Zuge der Französischen Revolution wurde die Sammlung mit Dekret der Nationalversammlung vom 27. Juli 1793 zum ersten Mal im Louvre zugänglich gemacht. Napoleon Bonaparte erhielt den ausdrücklichen Befehl, berühmte Kunstwerke im Ausland für Frankreich zu requirieren. Bald schon konnte der Louvre die Kunstwerke aus Rom, Venedig, Berlin, Wien und vielen anderen europäischen Städten nicht mehr fassen. Unter Napoléon I. entstanden im Rahmen seines groß angelegten, bahnbrechenden nationalen Kultur-Programms 15 Zweigmuseen in ganz Frankreich, in denen Bilder der Sammlung zum ersten Mal einer breiten Öffentlichkeit in der französischen Provinz zugänglich waren. Nach dem Fall des Kaiserreichs im Jahre 1814 wurde der zukunftsweisende volkspädagogische Ansatz Napoleons I. nicht mehr weiterverfolgt; die Beutekunst wurde von den Alliierten wieder aus dem Louvre zurückgeholt, wodurch das nationale Element der Sammlung wieder in den Vordergrund trat. 1821 begann mit dem Ankauf der Venus von Milo der Aufbau der Antikensammlung, in der 1826 die ägyptische und 1847 die assyrische Abteilung folgten. Ab 1851 wurde die Ausstellungsfläche des Louvre unter Alfred Émilien de Nieuwerkerke erweitert. Nach dem Sturz des zweiten Kaiserreichs 1870 wurde die Sammlung endgültig von der Krone getrennt und verstaatlicht. Der Sammlung kam zugute, dass seit 1972 die Erbschaftssteuer auch in Form von Kunstwerken entrichtet werden kann. Seit 1986 werden viele vorher im Louvre gezeigte Kunstwerke der zweiten Hälfte des 19. Jahrhunderts im Musée d’Orsay ausgestellt. Der derzeitige Museumsdirektor des Musée du Louvre ist Jean-Luc Martinez. Im Dezember 2012 öffnete der Louvre-Lens in Lens, einer nordfranzösischen ehemaligen Bergbaustadt; er soll der Region zu mehr Beachtung und höheren Touristenzahlen verhelfen. Rückforderungen. Eines von vielen osmanischen Keramikfliesenpanels, das zurückgegeben werden soll 2009 forderte die türkische Stadt Izmir zwei antike Marmorstatuen der griechischen Götter Zeus und Apollon zurück, die Ende des 17. Jahrhunderts in der Nähe der Stadt, dem antiken Smyrna, gefunden wurden. Die beiden über zwei Meter großen Kunstwerke wurden Ende des 17. Jahrhunderts als Geschenk an König Ludwig XIV. nach Frankreich gebracht und werden derzeit in der Antiken-Abteilung des Louvre gezeigt. Sie sollen im geplanten Museum zur Zivilisation an der Ägäis in Izmir ausgestellt werden. Im Louvre befinden sich 60 osmanische Keramikfliesen aus dem 17. Jahrhundert, die 1895 vom französischen Restaurator Albert Sorlin Dorigny aus der Türbe Selim II. gestohlen wurden. Dorigny arbeitete zwischen 1895 und 1899 an der Restauration der Hagia Sophia und entwendete in dieser Zeit zahlreiche Kunstschätze nach Frankreich. Die gestohlenen Fliesen ersetzte er durch in der französischen Porzellanmanufaktur Choisleroi Seine hergestellten Repliken. Laut dem türkischen Kulturminister wurde die Rückgabe der Fliesen bestätigt. Diese Kunstwerke sind im Louvre als die "A. Sorlin-Dorigny Collection" bekannt. Projekt „Louvre Abu Dhabi“. Die französische Regierung und das Emirat wollen in Abu Dhabi, der Hauptstadt der Vereinigten Arabischen Emirate ein „Mini-Louvre“ auf der künstlichen Insel Saadiyat eröffnen. Ein Kooperationsvertrag wurde am 7. März 2007 unterzeichnet. Bis gegen 2019 sollen – von Jean Nouvel entworfen – 6000 Quadratmeter Dauerausstellungsfläche zusammenkommen. Das Scheichtum, das einen jährlichen Ankaufsetat von 40 Millionen Euro plante, soll einer „Agence Internationale des musées de France“ 165 Millionen zahlen – und jährlich für 15 Jahre 13 Millionen Euro für Wechselausstellungen in einer 2000-Quadratmeter-Galerie. Als Gegenleistung werden französische Museen Wechselausstellungen veranstalten und auch weitere Exponate leihen (zunächst 300, dann weniger mit zunehmendem eigenem Bestand für je Objekt höchstens zwei Jahre). Des Weiteren darf sich das neue Museum während der nächsten 30 Jahre „Louvre“ nennen. Insgesamt kommen dem Louvre in Paris dadurch 400 Millionen Euro zu. Die von dem Geld neu errichteten Säle im Pariser Louvre erhalten den Namen des gestorbenen Emirs von Abu Dhabi, Zayed Bin Sultan Al Nayan, und dies zeitlich unbegrenzt. Museumsdirektoren, Konservatoren und Kunsthistoriker protestierten offensiv gegen die Kommerzialisierung der Museumsarbeit und den „Ausverkauf der französischen Museen“, so Jean Clair, ehemaliger Direktor des Pariser Picasso-Museums und einer der wichtigsten Theoretiker der zeitgenössischen Kunst. Organisiert wurde u. a. eine Unterschriftensammlung gegen das Projekt. Die Eröffnung in Abu Dhabi war zunächst für 2012/13 geplant. Die Bauarbeiten begannen 2013. Die Eröffnung wurde für 2015 angekündigt. Einzelnachweise. Paris, Louvre Königliche Saline in Arc-et-Senans. Die Königliche Saline in Arc-et-Senans im französischen Département Doubs ist eine Manufaktur zur Salzgewinnung, die 1779 fertiggestellt wurde. Sie wurde vom Architekten Claude-Nicolas Ledoux (1736–1806) im Auftrag von Louis XV. geplant. Am 15. April 1775 erfolgte die Grundsteinlegung. Die Arbeiten dauerten drei Jahre. Sie ist eines der bedeutendsten realisierten Bauprojekte der so genannten Revolutionsarchitektur. In späteren Gedankenspielen erweiterte Ledoux die tatsächlich realisierte Saline zu einer Idealstadt namens Chaux – dieses Idealstadtprojekt wurde allerdings nie umgesetzt. 1982 wurde die Anlage von der UNESCO in das Verzeichnis des Weltkulturerbes aufgenommen. Lage. Arc-et-Senans liegt in der Region Franche-Comté, 35 Kilometer südwestlich der Hauptstadt Besançon. Dort findet man eine Hügellandschaft vor, die nach Südosten in den teilweise schroff ansteigenden Jura übergeht. Nach Nordwesten dagegen breitet sich das ebene Tal des Doubs mit seinen Nebenflüssen aus. Das Tal ist Bestandteil des Rhein-Rhône-Grabens, der sich von Frankfurt am Main bis fast nach Marseille erstreckt und damit seit jeher ein wichtiger Fernverkehrsweg ist. In mäßiger Entfernung finden sich um Arc-et-Senans wichtige Handelsstädte wie Basel, Dijon, Lyon, Lausanne und Genf. In der Franche-Comté leben die Menschen von kleinen Industriebetrieben, der Wein-, Obst- und Käseherstellung und dem Tourismus. Grundlage der zahlreichen Kurbäder sind salzhaltige Wasserquellen, die früher ebenso zahlreiche Salinenbetriebe ermöglichten. Geschichte. In der Franche-Comté gab es zahlreiche Salinen zur Salzgewinnung aus salzhaltigen Quellen. Schon seit der Römerzeit wurde zum Beispiel in Lons-le-Saunier und Salins-les-Bains Salz gewonnen. Diese Anlagen wurden ständig erweitert und umgebaut. So entstand eine große bauliche Enge, da Salinen stets von einer Mauer umgeben waren, um den Salzdiebstahl einzudämmen. Folge waren mangelhafte hygienische und lüftungstechnische Bedingungen, die Brandgefahr war immens und die Arbeitsabläufe erschwert. Claude-Nicolas Ledoux wurde 1771 Bevollmächtigter für die Salzbergwerke in der Franche-Comté und Lothringen. In dieser Funktion unternahm er 1771 eine Inspektionsreise. Ihm blieben die immensen Probleme der Salinen nicht verborgen, auch die Fabrikarchitektur, ', befriedigte ihn nicht. Die Unproduktivität resultierte zu einem nicht unwesentlichen Teil auf der komplizierten Holzversorgung. Rund um die Saline von Salins waren sämtliche Wälder abgeholzt, der Rohstoff musste über mehrere Kilometer herangeschafft werden. Ledoux schlug daher den Bau einer neuen Saline in 17 Kilometer Entfernung von der Solequelle, am Rand des Waldes von Chaux, vor. Das Salzwasser sollte durch Leitungen dorthin geleitet werden, denn " König Ludwig XV. verordnete das Projekt als Besitzer sämtlicher Salinen im April 1773, ein Jahr später legte Ledoux seinen ersten Entwurf vor. Erster Entwurf. Dieser folgte einem einfachen Grundmuster: Ein geräumiger, quadratischer Hof, der zum Holzstapeln dient, wird von einem geschlossenen Gebäudekomplex umgeben. An den Ecken und in den Seitenmitten der ansonsten eingeschossigen Flügel liegen zweigeschossige Bauten für besondere Funktionen: In der Mitte der Eingangsseite liegen das Portal mit der Verwaltung. In den Ecken links und rechts liegen Kapelle und Bäckerei in gleichförmiger Weise, was später kritisiert wird. Die Seitenflügel beherbergen Werkstätten und Schmieden, gegenüber dem Portal liegt schließlich die eigentliche Fabrik mit den Solsiedereien. Diagonale, offene Galerien verbinden die Flügelmitten, um kurze, wetterunabhängige Wegeverbindungen zu schaffen. In den Zwischenbauten liegen Arbeiterwohnungen in Form einzelner Zimmer, die einem Gemeinschaftsraum mit zentraler Herdstelle zugeordnet sind. Außerhalb des Hofgevierts liegen den Arbeitern zugewiesene Nutzgärten, um ihr geringes Gehalt zu kompensieren. Neuartig am Entwurfskonzept war die Aufwertung des Bautyps der Fabrik, der, als eher minderwertiger Bautypus empfunden, üblicherweise mit einfachen Mitteln umgesetzt wird. Ledoux verwendete dagegen überschwänglich das Element der Säule (140 Stück), das eigentlich nur Sakral- und Schlossbauten vorbehalten war, wenn auch in betont einfacher, rustikaler Form im dorischen Stil. Aber auch in dieser Form verletzte dieser „Überfluss an Schönheit” die anerkannten Regeln von Luxus und Angemessenheit, die "convenance", so dass der König den vorliegenden Entwurf ablehnte. Zweiter Entwurf. Modell der erbauten Saline (Blick von Westen) 1774 zeichnete Ledoux seinen zweiten Entwurf. Erst jetzt stand der genaue Bauplatz fest und er beschäftigte sich nochmals eingehend mit den Arbeitsabläufen einer Saline. Großen Einfluss scheint auch die Diskussion um den Wiederaufbau des 1772 abgebrannten Pariser Krankenhauses, des "Hôtel-Dieu" gehabt zu haben. Man forderte eine Bauform, die aufgelockert sein sollte, um die Brandgefahr zu mindern und die Belüftung zu verbessern. Der Arzt Antoine Petit veröffentlichte 1774 ein grundlegendes Schema für Hospitalbau. Er entwarf eine kreisförmige Anlage, mit Bauten, die wie Radspeichen um einen zentralen Pavillon mit Küche und Kapelle angeordnet waren, Petit war gegen eine quadratische Form, die nicht nur mangelhaft zu belüften sei, sondern auch die Versorgung erschwerte. Beschreibung der Anlage. Der endgültige Gesamtgrundriss der neuen Saline von Chaux, der 1775 bis 1779 genau zwischen den Dörfern Arc und Senans realisiert wurde, zeigt einen halbkreisförmigen Hof mit einem Durchmesser von 225 Metern. Zehn einzelne, nicht mehr zu einer geschlossenen Front vereinte Pavillons umstehen ihn, hinzu kommen Stallungen und Gärten. Die gesamte Anlage ist ummauert. Das einzige Portalgebäude und vier weitere, ähnlich strukturierte Bauten folgen der Kreislinie im Süden, im Norden begrenzen die Fabrikationsgebäude und Verwaltungsbauten den Hof. Sie flankieren das Haus des Direktors, das den Mittelpunkt der ganzen Anlage bildet. Im Wesentlichen zeigt Ledoux eine Fabrikstadt, die in ihre Bestandteile zerlegt ist, die wiederum in klarer geometrischer Form angeordnet werden. "Portalbau:" Das Torhaus im Süden bildet den einzigen Zugang zur Anlage. Hier mündet eine schnurgerade Straße von der Loue, dem naheliegenden Fluss, kommend. Jeglicher Verkehr kann hier kontrolliert werden, der Salzdiebstahl wird auch dadurch minimiert, dass die Arbeiter die Saline nicht verlassen dürfen. Neben den Wachposten beherbergt der Bau auch einen Richterraum, das Gefängnis und das Frischwasserreservoir. Der außen vorgelagerte Portikus besteht aus sechs fußlosen dorischen Säulen, die einen schweren Architrav tragen. Er erinnert durch Proportion und mittleres verbreitertes Interkolumnium an die zeitgenössischen Darstellungen der Propyläen auf der Athener Akropolis, die Ledoux sicherlich kennt. Hinter dem Portikus ist die Durchfahrt durch das Gebäude als imitierte Steingrotte gestaltet, der Mitteltrakt des Baus ist zweigeschossig und mit einem geknickten Pyramidendach gedeckt, die Seitenflügel sind eingeschossig und mit Walmdach versehen. "Haus des Direktors:" Folgt man der von der Loue kommenden Straße durch das Portal weiter nach Norden, so führt der Weg genau auf das Portal des Hauses des Direktors zu. Es ist das geometrische Zentrum der Anlage und flankiert von den eigentlichen Fabrikationsbauten. Dem kubischen Hauptkörper mit Pyramidendach und Laterne ist ein Portikus mit schweren Rustika-Säulen vorgestellt, deren Säulentrommeln durch kubische Einschübe gegliedert sind, sodass sich ein berühmtes Licht- und Schattenspiel ergibt. Ein Okulusfenster im Tympanon, das den Brennpunkt des Halbkreises der Saline markiert, symbolisiert das Auge des Direktors, der als direkter Vertreter des Königs sämtliches Geschehen im Hof überwacht. Die Idee des Panopticons, des Überwachungsturmes, ist ein altbekanntes Element, das einige Jahre später Jeremy Bentham einem Gefängnisentwurf zugrunde legt. Hinter dem Portikus und dem Eingang folgt eine aufsteigende Treppenfolge, die in die Kapelle mit ihrem am höchsten Punkt installierten Altar mündet. Die Besucher des Gottesdienstes müssen den Gottesdienst auf den Stufen stehend nach oben blickend feiern, der Direktor folgt dem Geschehen hinter ihnen auf einer Empore. Seitlich dieses Bereiches liegen Wohn- und Verwaltungsräume. Wohnhaus, Verwaltung und westliche Salzwerkstatt "Die Salzsteuergebäude" liegen westlich und östlich des Hauses des Direktors, am Schnittpunkt der Geraden und des Halbkreises. Hier waren Verwaltungsräume und Wohnungen der Vorarbeiter und der Baumeister untergebracht. Die Eingangsfassaden zeigen zum Zentrum der Anlage hin, die Bauten sind wie alle Gebäude in teilweise rustiziertem Mauerwerk errichtet. Das Eingangsmotiv ähnelt dem des Stalles des Direktors: Ein Halbbogen ruht auf zwei Säulen, der vertiefte Durchgang unter dem somit akzentuierten Gesims in Kapitellhöhe ist breiter als die Bogenbreite. "Salzwerkstätten:" Die beiden Salzwerkstätten links und rechts des Direktorenhauses sind einfache, rechteckige Bauten auf einem gewaltigen Grundriss von 81 × 28 Metern, hohe Walmdächer mit kleinen Gauben überspannen die Feuerstellen mit ihren Salzsiedepfannen, Lagern und Trockenräumen. Die Eingänge sind wieder durch Giebelportiken gekennzeichnet. Allerdings weisen sie keinerlei Säulen auf, drei größere bogenbekrönte Öffnungen und zwei mannshohe Türen bilden die Durchgänge. "Wohnungen und Werkstätten:" Zwei der vier übrigen Bauten des Runds sind den Werkstätten vorbehalten, zwei weitere nehmen in ihren eingeschossigen Seitenflügeln jeweils zwölf Wohnungen à vier Personen auf, die je aus einem einzigen Zimmer besteht, das über einen Mittelflur erschlossen wird. Als eigentlichen Lebensraum der Arbeiterschaft plant Ledoux die sich über zwei Geschosse mit Galerie erstreckende Gemeinschaftsküche, die auch das ganze Haus beheizen soll. Hier verwirklicht er sein Idealbild des Lebens in Gemeinschaft nach den Gesetzen der Natur. Der Haupteingang des Hauses liegt im höheren, hier mit Dreiecksgiebel akzentuierten Mitteltrakt, er weist zum Haus des Direktors und besteht nur aus einem Rundbogenportal. Architektonische Bewertung. Ledoux errichtet in Chaux nicht nur eine einfache Fabrikanlage. Der Anspruch liegt höher. Neben der rationalen Aufgliederung in einzelne Funktionen in einer aufgelockerten Geometrie, der Aufwertung der zuvor als minderwertig empfundenen Bauaufgabe und der neuartigen Architektur mit ihren rustikalen Motiven im Detail und der durch einfache Körper geprägten Großform liegen der Saline auch gesellschaftliche und politische Vorstellungen zugrunde. Die Staatsform, der Absolutismus ist in der Anlage ablesbar, das Haus des Direktors im Zentrum stellt auch das uneingeschränkte Machtzentrum dar. In totalitärer Weise werden von hier sämtliche Abläufe koordiniert und überwacht, die Arbeiter als Untertanen unterliegen dem Direktor als Herrscher nicht nur physisch, dürfen sie doch die Anlage nicht verlassen, sondern auch auf geistiger Ebene: Der Gottesdienst, eigentlich Feier und Stunde der Zuversicht, findet unter Aufsicht des Direktors, in seinem Haus und unter räumlich erniedrigenden Bedingungen statt. Nicht die Erkenntnis, Salz der Erde zu sein steht im Vordergrund, sondern Diener des Salzes. Die abnehmend aufwendige Gestaltung der Portale legt eine Hierarchie der Teile der Saline dar: Direktor – Wache – Verwaltung – Produktion – Arbeiter. Auf der anderen Seite bemüht sich Ledoux, jede Stufe der Gesellschaft gebührend zu würdigen. Das Leben der Arbeiter soll durch das Erleben der Gemeinschaft aufgewertet werden, dieses Leben nach den Gesetzen der Natur soll durch einen anspruchsvollen baulichen Rahmen sowohl der Wohnungen als auch der Arbeitsstätten möglich werden. Der ideale Anspruch und die unmenschliche Realität klaffen allerdings weit auseinander: Zimmer für vier Personen werden aus künstlerischen Gründen nur mit winzigen urnenförmigen Fenstern belichtet und belüftet, aus gleichen Gründen verzichtet Ledoux auf Schornsteine in den Salzsiederäumen, in denen die Arbeiter ihre Zwölfstundenschichten zu verrichten haben, was zu Atemwegserkrankungen und frühem Tod unter ihnen führt. Die Saline heute. Die Saline blieb bis 1895 in Betrieb. Mit dem folgenden Fall des Salzmonopols und der Salzsteuer konnte die Saline die ihr zugedachte Bedeutung nie erreichen. Außerdem war der Salzgehalt der genutzten Sole zu gering, um wirtschaftlich erfolgreiche Salzproduktion zu betreiben. In den 1920er Jahren unter Denkmalschutz gestellt, diente sie als Gestüt, Lager, Kaserne und als Internierungslager während des Zweiten Weltkrieges. Schließlich wurde sie saniert und die teilweise zerstörten Teile rekonstruiert, so dass die "Königliche Saline von Arc-et-Senans" heute als Weltkulturgut ein Ledoux-Forschungszentrum, ein Museum über die Salzgewinnung und ein Museum über die Werke und Ideen des Erbauers Claude-Nicolas Ledoux sowie Gästezimmer beherbergt. Die beiden ehemaligen Salzwerkstätten werden heute als Veranstaltungszentrum für Ausstellungen und ähnliches genutzt. Für blinde Besucher gibt es in der Eingangshalle eine Blindenkarte. Besichtigt werden sollte auf jeden Fall auch die historische Saline in Salins-les-Bains. Die Idealstadt. Die Französische Revolution beendete schlagartig das bauliche Schaffen von Claude-Nicolas Ledoux, war er doch Vertreter und Baumeister des Ancien Régime. 1793 wurde er für ein Jahr in Haft genommen und entging einer Ermordung durch die Revolutionstribunale. Sein Leben wurde in der Folge von Gönnern finanziert, Ledoux widmete sich ganz der theoretischen Arbeit und Aufarbeitung seines Gesamtwerkes. „L’Architecture …“. Bevor er 1806 starb, konnte nur der erste Band seines auf vier Bände angelegten Werkes ' veröffentlicht werden. Er enthält die Beschreibung einer Chaux genannten idealen Stadt in Form eines Reiseberichtes, der voller Anspielungen und Zitate klassischer Autoren steckt. Wie der Titel verrät, wird nicht nur die Architektur der Stadt beschrieben, sondern auch die sie bewohnende Gesellschaft, die Sitten und die Moralvorstellungen. Ledoux sagt über den Architekten: ', er sei '. Die Stadt mit der ja tatsächlich errichteten Saline im Zentrum wird als teilweise existent, teilweise im Bau beschrieben. Tatsächlich enthält die Fabrikanlage ja schon „urbanistisches Potential“ zum weiteren Ausbau, der Rest ist Utopie eines zur Untätigkeit verdammten Baumeisters, der sich und sein Werk in der gerade errichteten neuen Staatsordnung zu verteidigen versucht, die Selbstrechtfertigung reicht bis zur Anbiederung an die neue Ordnung. Obwohl Ledoux es anders darstellt, stammen die dargestellten Entwürfe aus der langen Zeit von 1774 (Salinenentwurf) bis ins 19. Jahrhundert. Widersprüche machen eine beschriebene Gesamtkonzeption unglaubwürdig, die Entwürfe reichen von Realisiertem über durchgearbeitete Ideen bis zu literarisch notwendigen Ausschmückungen. Grundsätzlich scheint eine Realisierung einer neuen Stadt im Wald von Chaux vor der Revolution denkbar gewesen zu sein. Savoyen, Frankreich, und die autonome Provinz Franche-Comté suchten am wirtschaftlichen Erfolg der Stadt Genf teilzuhaben und projektierten Gegenstädte in der Umgebung. Von diesen Vorhaben kam aber lediglich das savoyische Projekt in Carouge zur Ausführung. Es liegt direkt an der südlichen Grenze Genfs, Chaux hingegen liegt 100 Kilometer entfernt. Erste Variante. Die vermutlich älteste Darstellung Ledoux’ von Chaux zeigt einen Grundriss, der ohne auf die Umgebung sonderlich einzugehen, in den realen Plan des Waldes von Chaux eingetragen ist. Die Stadt legt sich kreisförmig um die realisierte Salinenanlage. Die Saline ist zu einem vollständigen Kreis erweitert. Die fünf neuen, gespiegelten Bauten beinhalten Rathaus und Kasernen. Auch dieser Bezirk wird von einer Mauer umgeben, der Kern der Stadt ist somit unzugänglich. Hinter einem die Mauer einschließenden Boulevard folgt die ringförmige Wohnbebauung von unterschiedlicher Dichte: Im Süden liegen geschlossenere Hofbebauungen mit Nutzgärten, im Norden palaisartige Grundrisse mit Ziergärten. Im Osten und Westen liegen zwei öffentliche Plätze, die Kirche und Gericht in Form von Längsbauten aufnehmen. Die gesamte Stadt ist von einem ringförmigen Wall umgeben, der den Charakter der Grenzstadt unterstreicht. Der Gesamtentwurf beruht eher auf formalen Beweggründen als auf funktionalen. Zweite Variante. Modell der Erweiterung zur Idealen Stadt Die jüngere Perspektive der Stadt Chaux zeigt zunächst starke Übereinstimmungen mit dem Grundriss. Saline und Kasernen bilden das ummauerte Zentrum. Aber statt dem strengen Gürtelprinzip zu folgen, fließt die Stadt nun in die Landschaft, sie wird, wie im Folgenden zu sehen sein wird, immer mehr zur Stadt im Wald. Sie wird zu physischer Umgebung für eine tugendhafte, ideale Gesellschaft. Die öffentlichen Bauten präsentieren sich als Zentralbauten, die Kirche liegt jetzt im Westen, ein Markt im Osten. Neu hinzu kommen Börse, Bad und weitere kirchenartige Gebäude, sodass die Anzahl der eigentlichen Wohnhäuser schwindet. Einzelgebäude. Ledoux zeigt zahlreiche dieser öffentlichen Großbauten in Einzelansichten. Einige stehen in städtischen Gefügen, andere sind schon komplett in Wald- und Felslandschaften versetzt, die an Arkadien erinnern. Ihnen allen zu Eigen ist das Zentralbaumotiv als Unterstreichung des Ledoux’schen Gemeinschaftsideales, das er in den Beschreibungen seines Textes immer wieder hervorhebt. Hier fällt auf, dass die literarische Schilderung der Nutzung und der Gesellschaft wichtiger wird als Stimmigkeit in Architektur und Städtebau. Die Darstellungen der Louebrücke ist gleichzeitig die jüngste Darstellung der Stadt. Sie ist im Hintergrund asymmetrisch und regellos in die Landschaft gewürfelt, diese ist wiederum reine Phantasie und hat wenig mit der Umgebung von Arc-et-Senans zu tun. Auch die Umgebung der projektierten Kanonenfabrik, die den Osten Frankreichs versorgen sollte, zeigt eine Stadt in der Natur. Sie stellt damit einen weiteren gewerblichen Bau von Chaux dar. Interessant ist in diesem Zusammenhang, dass Ledoux der Stadt eine industrielle Grundlage verleiht, er sich also von traditionellen Stadtgründungsgründen wie Handelsförderung oder militärischen Notwendigkeiten entfernt und die wirtschaftliche Existenzgrundlage der Städte des späten 19. Jahrhunderts vorwegnimmt. Modell des geplanten „Haus des Flusswächters“ Berühmt sind zahllose Entwürfe von Ledoux, die ideale Behausungen einzelner Berufe, nie aber städtische Wohnformen darstellen. Im Sinne der „architecture parlante“ sind Nutzung und Bewohner am Äußeren ablesbar: Das Haus des Köhlers scheint aus geschichteten Briketts zu bestehen, das Haus des Holzfällers besteht aus imitierten Holzstämmen; Ledoux verweist hier auf Laugiers „Urhütte“. Das Haus des Flusswächters umschließt den Fluss schließlich auch physisch. Ledoux hat sich von der Stadt im herkömmlichen architektonischen Sinne entfernt, er beschreibt ideale Architekturen in einer idealen Gesellschaft. In diesem Sinne sind auch seine erfundenen Bautypen zu verstehen. Neologismen wie Pacifère (friedensstiftendes Schiedsgericht) oder Panaréthéon (Haus der vollendeten Tugend) erinnern an antike Bauten, ihre Funktion ist die Vermittlung von Tugend, Gemeinschaft, Brüderlichkeit. Ledoux schweben Ideale der Freimaurerei vor, und er glaubt, dass der Einzelne durch Architektur zu beeinflussen sei. Wissensvermittlung ist eine weitere Grundlage seiner Gesellschaft, so tragen zahlreiche seiner Bauten Inschriften und bildliche Darstellungen zu den verschiedensten Themen. Cenobies. Wie entschieden sich Ledoux vom städtischen Wohnen entfernt und das Landleben idealisiert, zeigt der Entwurf des cenobies, eines klosterähnlichen Baues für Gemeinschaften im Wald. In dieser Stadt unter einem Dach findet eine Rückkehr zur Urgesellschaft statt: ' Die Gemeinschaftsidee bei den cenobies und den anderen Projekten öffentlicher Bauten werden durch Zentralbauten oder -anlagen mit ihrer klaren Mitte deutlich, so wie sich dies bei den Arbeiterhäusern der Saline andeutete. Der Friedhof. Der Kreis ist die ideale Form für die Zentralbauidee. In der Idealisierung der Natur spielt der Kreis ebenfalls eine große Rolle: ' Ledoux’ radikalster Entwurf, der Friedhof, zeigt in seinem Kern sogar eine Kugel. Sie ist zur Hälfte im Boden versenkt und von konzentrischen Katakomben umgeben. Als Zentrum der „Stadt der Toten“ ist sie nicht betretbar, die Kugel ist Mitte der Gemeinschaft der Toten, sie ist für Ledoux nun auch Bild der Natur, ja des Universums. Résumé. Das Idealstadtprojekt von Chaux ist wie die meisten Idealstadtentwürfe die Idee eines einzigen Menschen, hier also Claude-Nicolas Ledoux. Sein dem Entwurf zugrunde liegendes Gesellschaftsbild allerdings ist nicht einheitlich und von Widersprüchen geprägt. Ledoux war kein Republikaner, er war Anhänger der Monarchie und der Aufklärung. Statt der Egalisierung aller Menschen wollte er zunächst jede Stufe der sozialen Leiter gebührend würdigen. Dabei gibt es gewaltige Unterschiede zwischen gelegentlich naiv anmutenden architektonischen Wohltaten und der Nutzung in der Realität. In seinen späteren Schriften taucht dann eine reformierte Gesellschaft auf, die auf Prinzipien der Tugend, der Weisheit, der Vernunft und der Erkenntnis aufbaut. Die Gemeinschaft der Menschen erlebbar zu machen, zeichnete Ledoux’ Einzelarchitekturen aus. Die Mitte als Entwurfsprinzip gibt es allerdings nicht in den Stadtgrundrissen, sie lassen sich so als ältere Ideen erkennen. In jüngeren Fassungen tauchen Stadtansichten deshalb nicht mehr auf. Jedes Element der Gesellschaft und der Architektur war für Ledoux eigenständig, aber in den Zusammenhang eingebunden. Diese Erkenntnis von Rousseaus Gesellschaftsvertrag veranlasste den Architekten zur individuellen Gestaltung jedes Baues in freistehender Form, womit er für Emil Kaufmann (1935) zum Begründer der autonomen Architektur und damit der modernen Architektur wurde. Trotzdem bediente sich Ledoux auch noch barocker Elemente: Der halbkreisförmige Platz, der als Bühne zur Aufführung der Gesellschaftsordnung diente, ist auf ein absolutes Zentrum ausgerichtet. Weblinks. Arcetsenans, Konigliche Saline Latein. Die lateinische Sprache (lat. "lingua latina"), kurz Latein, ist eine indogermanische Sprache, die ursprünglich von den Latinern, den Bewohnern von Latium mit Rom als Zentrum, gesprochen wurde. Die frühesten Zeugnisse reichen bis ins 5. oder 6. vorchristliche Jahrhundert zurück (Frühlatein), ab dem 3. vorchristlichen Jahrhundert liegen längere Texte vor (Altlatein), ihre volle Ausformung in der Gestalt des heute vor allem bekannten und gelehrten klassischen Lateins erreichte die (Schrift-)Sprache im ersten vorchristlichen Jahrhundert. Latein war Amtssprache des Römischen Reichs und wurde so zur dominierenden Verkehrssprache im westlichen Mittelmeerraum. Während sich aus der gesprochenen Umgangssprache, dem sogenannten Vulgärlatein, die romanischen Sprachen entwickelten, blieb das Latein der römischen Schriftsteller auch als tote Sprache bis in die Neuzeit die führende Sprache der Literatur, Wissenschaft, Politik und Kirche. Gelehrte wie Thomas von Aquin, Petrarca, Erasmus, Luther, Kopernikus, Descartes oder Newton haben Werke in Latein verfasst. Bis ins 19. Jahrhundert wurden die Vorlesungen an den Universitäten in ganz Europa auf Latein gehalten. In Polen, Ungarn und im Heiligen Römischen Reich war Latein bis dahin Amtssprache. In Tausenden von Lehn- und Fremdwörtern sowie Redewendungen ist Latein heute auch in nichtromanischen Sprachen wie Deutsch oder Englisch präsent. Bei der Bildung neuer Fachbegriffe wird immer wieder auf Latein zurückgegriffen. Wegen seiner enormen Bedeutung für die sprachliche und kulturelle Entwicklung Europas wird Latein vor allem in Deutschland an vielen Schulen und Universitäten gelehrt. Für manche Studiengänge sind Lateinkenntnisse oder das Latinum erforderlich. Ähnlich stellt sich die Situation in Österreich und der Schweiz dar. Sprachwissenschaftliche Einordnung. Latein gehört zum italischen Hauptzweig der indogermanischen Sprachen. Diese Zugehörigkeit zeigt sich in Wörtern wie "pater" ‚Vater‘ (vgl. sanskritisch "pitár", altgriechisch "patḗr", altirisch "athir", tocharisch A "pācar", B "pācer"). Innerhalb des Indogermanischen gehört es zur Gruppe der italischen Sprachen, von denen sich außerhalb des Lateinischen nennenswerte Spuren nur noch im Oskischen und im Umbrischen erhalten haben. Als nächstverwandten Zweig ergeben alle (vorwiegend auf dem Wortschatz beruhenden) lexikostatistischen Studien ausnahmslos den keltischen Zweig, was einige Indogermanisten jedoch durch grammatische Gemeinsamkeiten als nicht ausreichend bestätigt ansehen. Latein ist, ebenso wie Altgriechisch, Sanskrit und andere alte indogermanische Sprachen eine typische flektierende Sprache mit synthetischer Syntax. Mit der Entwicklung zum Vulgärlatein und schließlich zu den romanischen Sprachen veränderte sich die Typologie des Lateinischen immer mehr in Richtung eines analytischen Sprachbaus. Der Sprachcode ist codice_1 (ISO 639-1) bzw. codice_2 (ISO 639-2). Regiolekte und Soziolekte. Obgleich die Quellen zu dieser Thematik spärlich sind, ist davon auszugehen, dass das Lateinische ebenso wie andere Sprachen in Regiolekte (geographische Gliederung) und Soziolekte (Gliederung nach sozialen Schichten) gegliedert war. Dieser Umstand wird von der Altphilologie, die sich hauptsächlich mit der Sprache der sogenannten Goldenen und Silbernen Latinität beschäftigt, meist gar nicht oder nur am Rande wahrgenommen. Für eine reiche regiolektale Gliederung des Lateinischen spricht etwa der Umstand der Ausdifferenzierung in die einzelnen romanischen Sprachen (neben dem Einfluss von Substratsprachen) sowie die reiche dialektale Gliederung "innerhalb" der einzelnen romanischen Sprachen mit teilweise wechselseitig nur schwer verständlichen Dialekten. Im Hinblick auf die soziale Ausdifferenzierung des Lateinischen ist insbesondere der Gegensatz zwischen der gesprochenen Sprache (der „unteren“ Schichten) einerseits und der uns in den klassischen Texten überlieferten Schriftsprache andererseits hervorzuheben. Letztere dürfte in dieser oder einer ganz ähnlichen Form auch die Umgangssprache der gebildeten Stände gewesen sein. Diese „Hochsprache“ hat sich etwa seit dem dritten vorchristlichen Jahrhundert herausgebildet und wurde im letzten vorchristlichen Jahrhundert von Männern wie Marcus Tullius Cicero in ihre endgültige Form gebracht („Schulbuchlatein“). Es ist davon auszugehen, dass bereits zu Ciceros Zeit die Hochsprache ganz erheblich vom „Latein der Straße“ abwich. Da die gebildeten Stände im alten Rom kein Interesse an der Umgangssprache der unteren Schichten hatten, sind die diesbezüglich überlieferten Informationen sehr spärlich. Eine wichtige Quelle stellen insoweit beispielsweise die durch den Vulkanausbruch von Pompeji im Jahr 79 erhaltenen Graffiti dar, in welchen sich (je nach Bildungsgrad der Schreiber) teilweise eine Sprachform manifestiert, die in vielem bereits Züge der romanischen Sprachen vorwegnimmt (z. B. Kasussynkretismus im Akkusativ mit Verlust des auslautenden "-m"). Das von Gebildeten wie Cicero, Caesar usw. geschriebene (und gesprochene?) Latein ist daher insgesamt eher als Kunstsprache anzusehen. Dies gilt allerdings mehr oder minder für alle Schrift- bzw. Hochsprachen. Im Folgenden wird, soweit nichts anders gesagt ist, nur auf den Lautstand und die Grammatik der klassischen lateinischen Sprache eingegangen. Schrift. A B C D E F G H I K L M N O P Q R S T V X Y Z Minuskeln waren in klassischer Zeit unbekannt, d. h. es wurde nur mit den hier angeführten Majuskeln geschrieben. "I" und "V" standen gleichzeitig für die Vokale "i", "u" und die Konsonanten "j", "v". Das Wort "iuventus" (Jugend) wurde folglich IVVENTVS geschrieben. Die Buchstaben "K", "Y" und "Z" wurden hauptsächlich nur in griechischen Fremdwörtern bzw. Eigennamen verwendet. Geschrieben wurde, neben Steininschriften, auf Holz- und Wachstafeln ("tabula cerata") Pergament oder Papyrus. Da Papierherstellung und Buchdruck unbekannt waren und jegliche Schriften nur durch Abschreiben vervielfältigt werden konnten, galten Bücher als kostbar. Bibliotheken mit wenigen hundert Büchern galten bereits als sehr groß. Für den Schreibvorgang auf den Wachstafeln dienten Griffel "(stilus)". Auf Papyrus wurde mit schwarzer und roter Tinte geschrieben. Die schwarze Tinte bestand aus Ruß und einer Lösung von Gummi arabicum, die rote Tinte wurde auf Ocker-Basis (Rötel) hergestellt. Als Schreibgerät diente ein Pinsel aus Binsen, in griechisch-römischer Zeit ein Schreibrohr, griechisch κάλαμος (kálamos), lateinisch calamus. Die erste bekannte stenografische Schrift wurde von Marcus Tullius Ciceros Haussklaven und Privatsekretär Marcus Tullius Tiro erfunden. Lautstand und Akzent. Der Lautbestand des Lateinischen ist relativ überschaubar und auf „gängige“ Konsonanten und Vokale beschränkt, wie sie so oder so ähnlich in sehr vielen Sprachen vorkommen. Die historisch „korrekte“ Aussprache (soweit rekonstruierbar) bereitet deutschen Muttersprachlern keine größeren Probleme. Von den romanischen Sprachen hat das Italienische den Lautbestand des Lateinischen am besten bewahrt. Konsonanten. Die stimmhaften Plosive "b", "d" und "g" wurden wohl wie im Deutschen ausgesprochen. Die stimmlosen Varianten waren anders als im Deutschen nicht aspiriert (behaucht). Eine Palatalisierung des (Buchstabe ⟨C⟩) vor hellen Vokalen fand wohl erst in nachklassischer Zeit statt, wobei nicht auszuschließen ist, dass in bestimmten Regio- oder Soziolekten bereits vor der Zeitenwende eine Palatalisierung anzutreffen war. Der ⟨qu⟩ geschriebene plosive Labiovelar ähnelt dem deutschen ⟨qu⟩, allerdings ist der Bestandteil ⟨u⟩ bilabial, nicht wie im Deutschen labiodental. Das ⟨R⟩ war das Zungenspitzen-"r", dass wie heute noch im Italienischen gerollt wurde. Das ⟨L⟩ wurde je nach Position entweder wie der deutsche Laut oder wie auslautendes englisches artikuliert. Anlautendes "h" dürfte bereits in klassischer Zeit bestenfalls noch von den Angehörigen gebildeter Stände artikuliert worden sein. Auslautendes "m" dürfte ebenfalls bereits in klassischer Zeit nur noch schwach artikuliert worden sein, möglicherweise bei gleichzeitiger Nasalierung des vorangehenden Vokals. Der als ⟨V⟩ geschriebene Laut ist ein bilabiales wie im Englischen. Vokale und Diphthonge. An Diphthongen kennt das Lateinische "au", "ai" (geschrieben als "ae"), "oi" (geschrieben als "oe") sowie die selteneren "ei", "ui" und "eu". Anders als im Deutschen wurde vor anlautendem Vokal wohl kein Glottisverschluss artikuliert. Silbenstruktur. Das Lateinische kennt offene (vokalischer Auslaut) und geschlossene (konsonantischer Auslaut) Silben. Im Anlaut sind maximal drei Konsonanten (K) erlaubt, wobei bei drei Konsonanten der dritte ein Resonant (R) sein muss, wie dies auch im Deutschen der Fall ist. Im Silbenauslaut sind maximal zwei Konsonanten erlaubt, von denen ebenfalls einer ein Resonant sein muss. Der silbentragende Vokal (V) kann von einem Halbvokal (H) gefolgt werden (Diphthong). Als Silbenträger kommen nur Vokale in Betracht, nicht jedoch Resonanten oder gar Konsonanten (wie etwa in dem tschechischen Wort "vlk" ‚Wolf‘ oder der deutschen Interjektion "pst!"). Damit ergibt sich folgende Silbenstruktur: (K)(K)(R)V(H)(R)(K). Die Silbenstruktur des Lateinischen ist damit deutlich weniger komplex als jene des Deutschen, so dass im Lateinischen (auch wegen des geringen Lautbestands) wesentlich weniger „erlaubte“ Silben existieren als im Deutschen. Das Italienische hat die Silbenstruktur des Lateinischen noch recht gut bewahrt. Akzent. Der Wortakzent liegt im klassischen Latein bei mehrsilbigen Wörtern meist auf der vorletzten oder drittletzten Silbe. Die Entscheidung, welche Silbe bei mehrsilbigen Wörtern zu betonen ist, hängt allein von der vorletzten Silbe ab (Pänultimaregel). Bis heute ungeklärt und Gegenstand der Diskussion ist die Frage, welcher Natur der lateinische Akzent war. Manche Wissenschaftler gehen von einem dynamischen Akzent bzw. Druckakzent wie etwa im Deutschen aus, bei dem die betonte Silbe mit höherer Lautstärke artikuliert wird. Für diese Theorie sprechen die vielen Vokalschwächungen in lateinischen Wörtern, die für unbetonte Silben in Sprachen mit Druckakzent typisch sind, z. B. "facere" (tun) und das hiervon abgeleitete "deficere" (abnehmen, verlassen, sterben) mit der Schwächung des Stammvokals von "a" zu "i". Auch der Umstand, dass alle romanischen Sprachen einen dynamischen Akzent aufweisen, spricht für diese Theorie. Andere Wissenschaftler nehmen für das Lateinische einen musikalischen bzw. melodischen Akzent an, bei dem statt der Lautstärke die Tonhöhe des Vokals verändert wird. Ein starkes Argument für diese Theorie ist darin zu sehen, dass die von den Römern aus Griechenland „importierte“ quantifizierende Metrik für Sprachen mit dynamischem Akzent unbrauchbar ist und folglich einen melodischen Akzent voraussetzt. Verben. Jedes Verb wird einer dieser vier Klassen zugeordnet. Lateinische Verben werden in allen Aktivformen sowie im Präsens, Imperfekt und Futur Passiv (also den Formen des Präsensstamms) synthetisch, d. h. ohne Hilfsverben und nur mittels grammatischer Bildungsmorpheme gebildet. Nur im Passiv des Perfekts, Plusquamperfekts und Perfekts Futur erfolgt wie im Deutschen eine analytische Bildung mittels des Partizips Perfekt und des Hilfsverbs "esse" (sein). Hier zeigt sich also abweichend vom allgemeinen synthetischen Charakter des Lateinischen (s. u.) eine analytische Tendenz. Anders als im Deutschen wird niemals das Hilfsverb „haben“ ("habere") verwendet. Lateinische Verben bestehen aus einem Verbstamm (Präsens- oder Perfektstamm), gegebenenfalls versehen mit einem Verbalpräfix, einem Tempus- und Moduszeichen, das Zeitform und Modus anzeigt und das an den stammauslautenden Vokal antritt oder diesen ersetzt, sowie – außer im Infinitiv – einer Personalendung, die gleichzeitig Person, Numerus und Diathese anzeigt. Die folgende Tabelle zeigt den Aufbau lateinischer Verben anhand einiger ausgewählter Formen des Verbs "amare" („lieben“). Aus der Tabelle ist zu ersehen, dass die mittlere Position zwischen Stamm und Personalendung vom Tempus- und Modusmorphem eingenommen wird, während die letzte Position jeweils dem Suffix vorbehalten ist, das gleichzeitig Person, Anzahl und Diathese anzeigt. Im Präsens und Perfekt Indikativ ist das Tempuszeichen ein Nullmorphem (die Position ist also nicht besetzt). Bei einigen Futur- und Konjunktivformen wird der Stammvokal je nach Deklinationsklasse durch einen anderen Vokal ersetzt. Substantive. Die Funktionen der ersten vier oben genannten Kasus entsprechen grob den Funktionen, welche diese auch im Deutschen aufweisen: der Nominativ ist der Fall des grammatischen Subjekts, der Genitiv zeigt Besitzverhältnisse und Ähnliches an, der Dativ ist der Fall des indirekten und der Akkusativ der Fall des direkten Objekts. Im lateinischen Ablativ sind durch Kasussynkretismus mehrere ältere Kasus zusammengefallen: Ablativ, Instrumental, Lokativ. Entsprechend vielfältig sind die Funktionen, die der Ablativ im Lateinischen erfüllt. Der ursprüngliche Ablativ bezeichnet eine Bewegung im Raum oder in der Zeit weg von dem entsprechenden Substantiv, z. B.: "a Roma" („von Rom [weg]“), "ab urbe condita" („seit der Gründung der Stadt [Rom]“). Der Ablativ als Instrumental bezeichnet den Gebrauch eines Gegenstands, z. B.: "gladio pugnare" („mit dem Schwert kämpfen“). Der Ablativ als Lokativ bezeichnet einen Ort im Raum oder in der Zeit, z. B.: "eo loco" („an diesem Ort“), "eo tempore" („zu dieser Zeit“). Der Vokativ, der sich heute beispielsweise auch noch in der tschechischen Sprache findet, ist der Anredefall. Dieser wird (unter anderem) im Singular der zweiten Deklination (O-Deklination) vom Nominativ unterschieden und wird in „modernen“ Schulgrammatiken in der Regel nicht bzw. nur für die zweite Deklination separat aufgeführt. Im Singular der zweiten Deklination wird der Stammauslaut "u" (bzw. in einer älteren Sprachstufe: "o") durch ein "e" ersetzt. Der berühmte angebliche letzte Satz Gaius Iulius Caesars, „Auch du mein Sohn, Brutus“, lautet auf Latein: "et tu, mi filii Brute", wobei sowohl „Brutus“ als auch „meus filius“ im Vokativ stehen. Der reine Lokativ ist nur noch rudimentär erhalten und wird ebenso wie der Vokativ in Schulgrammatiken in der Regel nicht separat aufgeführt. Neben zu Adverbien erstarrten alten Lokativen wie "domi" (zuhause), "humi" (auf dem Boden) tritt der Lokativ noch in der ersten Deklination (A-Deklination) zutage, z. B.: "Romae" (in Rom). Adjektive. Die obliquen Kasus entsprechen ebenfalls den weiter oben gezeigten Formen der ersten und zweiten Deklination. Daneben kennt das Lateinische auch viele Adjektive der dritten Deklination. Diese werden in der Regel wie I-Stämme gebeugt, wobei sie meist ein "-i" statt, wie bei den entsprechenden Substantiven, ein "-e" im Ablativ Singular zeigen. Adjektive der vierten und fünften Deklination existieren nicht. Ebenso wie im Deutschen werden der Komparativ und der Superlativ durch Suffigierung gebildet. Das Komparativ-Suffix lautet für Maskulina und Feminina "-ior" und für Neutra "-ius", das Superlativ-Suffix lautet "-issimus, -a, -um" (m./f./n.). Bei Adjektiven mit dem Stammauslaut "-r" erfolgt eine Assimilation des Suffixes zu "-rimus". Pronomina. Pronomina sind deklinierbare Wörter (Nomina), die „an Stelle von Nomina“ ("pro nomine") stehen. Das Lateinische unterscheidet folgende Arten von Pronomina: Personalpronomen, Possessivpronomen, Reflexivpronomen, Relativpronomen, Demonstrativpronomen, Interrogativpronomen, Indefinitpronomen. Zahlwörter. Die folgende Tabelle zeigt die Grundzahlwörter von 1 bis 20 und dann in Zehnern und Hundertern bis 1.000. Die Zahlen 1 bis 3 sowie das Wort ("mille") für 1.000 sind deklinierbar. Die Wiederholungszahlwörter sind als Adverbien nicht flektierbar. Syntax. Der Satzbau des Lateinischen ist in vieler Hinsicht frei, da man die einzelnen Satzglieder häufig anhand ihren Endungen eindeutig zuordnen kann. Besonders in Dichtung und Literatur werden die wenigen, kaum verbindlichen Regeln eher bedeutungslos. Wie in den meisten romanischen Sprachen kann ein Personalpronomen als Subjekt weggelassen werden (B.: "venimus" ‚wir kommen‘, dagegen "nos venimus" ‚wir kommen‘ (betont)). Ebenso entfallen häufig „sagte / sprach“ usw. vor der wörtlichen Rede (bspw.: "tum ille: cras veniam" ‚dann [sagte] jener: „morgen komme ich“‘). An erster Stelle im Satz stehen gewöhnlich betonte Satzteile (Subjekt, Objekt oder Adverb), Fragepronomen (z. B. "quis, quid, quando…"), Imperative und die Fragepartikeln "num" ‚etwa?‘ und "nonne" ‚etwa nicht?‘. Verben stehen häufig am Satzende (z. B. "ego te absolvo" ‚ich spreche dich los‘). Adjektive, Partizipien, Possessivpronomen und Genitivattribute stehen gewöhnlich hinter dem zugehörigen Substantiv, z. B. "Carolus Magnus" ‚Karl der Große‘, "homo sapiens" ‚der weise Mensch‘, "domus mea" ‚mein Haus‘. Sprachgeschichte. a>, einer der ältesten überlieferten lateinischen Texte (6. bis 5. Jahrhundert v. Chr.) Antike. Latein hat seinen Namen von den Latinern, einem Volk im antiken Latium (heute ein zentraler Bestandteil der italienischen Region "Lazio"), zu dessen Zentrum sich seit dem 8. Jahrhundert v. Chr. Rom entwickelte. Die früheste Form des Lateinischen, das "Frühlatein", ist nur in einigen Inschriften wie dem oder der DUENOS-Inschrift aus dem 6. oder 5. Jahrhundert v. Chr. greifbar. Aus ihm entwickelte sich durch Rhotazismus, Vokalschwächungen und andere Veränderungen in Phonologie und Morphologie bis zum 3. Jahrhundert v. Chr. das "Altlatein", für das mit den Komödien des Plautus und des Terenz (3./2. Jahrhundert v. Chr.) ein großes Textkorpus vorliegt. Für das 1. Jahrhundert v. Chr. und die Zeitenwende spricht man dann vom "klassischen Latein". Es unterscheidet sich vom Altlatein hauptsächlich durch Assimilationen und einige orthographische Änderungen. Mit dem Aufblühen der römischen Literatur in dieser Zeit konnte es sich zunehmend auch in Literatur und Wissenschaft gegenüber dem (Alt-)Griechischen behaupten. Die Autoren der sogenannten Goldenen Latinität, insbesondere Marcus Tullius Cicero und Vergil, wurden für die weitere Entwicklung der Sprache maßgeblich. Weil die Literatur dieser Zeit als mustergültig und nicht weiter verbesserungsfähig betrachtet wurde, veränderte sich die lateinische Literatursprache fortan seitdem nur noch im Vokabular, nicht aber im Formenbestand oder der Syntax. Das Latein von Autoren des 1./2. Jahrhunderts n. Chr. wie Seneca und Tacitus, die man zur Silbernen Latinität zählt, oder von spätantiken Autoren wie Augustinus von Hippo und Boethius (Spätlatein), unterscheidet sich deshalb nicht grundsätzlich vom Latein der klassischen Zeit, wohl aber zunehmend von der gesprochenen Sprache des einfachen Volkes, dem sogenannten "Vulgärlatein", das sich kontinuierlich weiterentwickelte, bis daraus im frühen Mittelalter die romanischen Sprachen entstanden. In der Syntax wurde zum Beispiel der "Accusativus cum infinitivo" in der Spätantike zunehmend ungebräuchlich, er wurde aber weiterhin als korrekt angesehen und verschwand daher nicht. Der Altphilologe Wilfried Stroh vertritt daher die These, Latein sei bereits um die Zeitenwende insofern zu einer „toten“ Sprache geworden, als es sich danach nicht mehr entscheidend verändert habe und gerade deshalb im Mittelalter und der Frühen Neuzeit zum internationalen Kommunikationsmittel werden konnte. Im Zuge der römischen Expansion setzte sich Latein als dominierende Verkehrssprache im gesamten Römischen Reich durch, und durch die Romanisierung vor allem der westlichen Reichsgebiete wurde es zudem auch jenseits von Latium – namentlich im übrigen Italien, in Gallien sowie in den Provinzen Hispania, Dacia und Africa – zur Muttersprache der ansässigen Bevölkerung. Gerade in der Spätantike drangen auch mehrere lateinische Wörter in den Wortschatz des Griechischen, der Verkehrssprache Ostroms, ein. Im östlichen Mittelmeerraum hingegen war Latein zwar die Sprache in Militär und Verwaltung, es konnte das Griechische als ' allerdings niemals verdrängen. Mittelalter. Während der Spätantike und der Völkerwanderung verfiel schrittweise der lateinische Grammatikunterricht und damit der Gebrauch der lateinischen Schriftsprache. Ein Großteil der lateinischen Literatur der Antike ging zwischen 550 und 750 verloren, neue literarische Texte in dieser Sprache entstanden seit dem späten 6. Jahrhundert kaum mehr. Der letzte römische Kaiser, dessen Muttersprache Latein war, war Justinian (527 bis 565), und als letzter bedeutender lateinischer Poet des Altertums gilt sein Zeitgenosse Corippus (um 550). Auch Gregor der Große predigte um 600 noch in klassischem Latein. In der Folgezeit aber vergrößerte sich im Bereich des einstigen weströmischen Reiches die Kluft zwischen der Umgangssprache und Hochlatein so erheblich, dass sich schließlich aus den lokalen Dialekten eigene Volkssprachen entwickelten. Als „Geburtsurkunde“ dieser romanischen Sprachen gilt dabei das Konzil von Tours im Jahr 813, auf dem beschlossen wurde, fortan Predigten in volkstümlicher Sprache zuzulassen, da die Gläubigen kein Latein mehr verstünden. In Ostrom, wo man in Verwaltung und Armee noch im 6. Jahrhundert Latein gesprochen hatte, war Latein im frühen 7. Jahrhundert gänzlich außer Gebrauch geraten und durch das Griechische ersetzt worden. Unter Karl dem Großen und seinem Berater Alkuin erlebte Latein jedoch eine Renaissance. In einer Anweisung aus dem Jahr 789 wurden alle Klöster und Bischofssitze des Reiches angewiesen, Schulen zu unterhalten, in denen Latein unterrichtet werden sollte. Bald entstanden auch wieder neue literarische Werke in Latein wie etwa Einhards Karlsbiografie "Vita Karoli Magni", die sich sprachlich und inhaltlich an antiken Vorbildern, insbesondere Sueton, orientiert. Weitere lateinische Autoren aus dem Mittelalter sind zum Beispiel Balderich von Bourgueil oder Hrotsvitha von Gandersheim. Als „tote“ Sprache veränderte sich Latein auch im Mittelalter nicht wesentlich. Allerdings vergrößerte sich weiterhin das Vokabular und es bürgerten sich Vereinfachungen im Bereich der Grammatik ein wie zum Beispiel der durch "quod" eingeleitete Objektsatz anstelle des klassischen (und parallel dazu weiter gebräuchlichen) "Accusativus cum infinitivo". Die Quantitäten der lateinischen Silben wurden oft nicht mehr beachtet, so dass Dichtungen in der heute üblichen Akzentuierung entstanden, wie zum Beispiel viele Lieder aus der Sammlung der "Carmina Burana". Auch die Phonetik änderte sich, beeinflusst von den romanischen Volkssprachen: So wurde seit dem späten 6. Jahrhundert das c vor e- und i-Vokalen als Zischlaut gesprochen (den es vorher im Lateinischen nicht gab), ebenso bürgerte sich die Aussprache von ti als zj ein, wie sie heute noch in deutschen Fremdwörtern üblich ist, z. B.: ‚Reaktion‘. Die Diphthonge ae und oe sprach und schrieb man bereits in der Spätantike zunehmend als e. Latein als Sprache der Gebildeten erreichte im Mittelalter auch in vielen Gebieten Europas Bedeutung, die außerhalb des einstigen Römischen Reiches lagen, also nie lateinischsprachig gewesen waren. Hier hielt es mit der Christianisierung Einzug, denn es war die Sprache der Kirche, der Heiligen Messe und des theologischen Diskurses. An den seit dem 13. Jahrhundert aufkommenden Universitäten West-, Nord- und Mitteleuropas war Latein die Verkehrs- und Wissenschaftssprache schlechthin. So schrieb der bedeutendste Autor des Hochmittelalters, Thomas von Aquin, Latein, das allerdings, da es für die Scholastik typisch war, von den späteren Humanisten als steif und trocken empfunden wurde. Neuzeit. Eine Erneuerung der lateinischen Sprache war denn auch das erste Ziel des Renaissance-Humanismus, der in Italien mit Francesco Petrarca und Giovanni Boccaccio begann. Auch nördlich der Alpen wurde bald wieder Cicero als Vorbild im Gebrauch des Lateinischen nachgeahmt. Vor allem Erasmus von Rotterdam reichte mit seinem eleganten Latein an das antike Vorbild heran. Die Entdeckung der Neuen Welt machte Christoph Kolumbus durch den lateinischen Brief "De insulis nuper inventis" in ganz Europa bekannt. Reformation und Gegenreformation förderten das Lateinische. Luthers Freund Philipp Melanchthon verfasste Lehrbücher und Lehrpläne für die neu errichteten protestantischen Gymnasien, deren wichtigstes Ziel eine aktive Beherrschung des Lateinischen war. Gleiches galt für die Schulen der Jesuiten, die mit ihren lateinischen Schultheatern auch das einfache Volk begeisterten. Ein Jesuit gilt auch als größter unter den deutschen Barockdichtern, Jacob Balde (1604–1668). Hugo Grotius legte mit seinem 1625 erschienenen Hauptwerk "De jure belli ac pacis" die Grundlagen des Völkerrechts. Generationen von Kindern lernten seit 1658 Latein mit dem Orbis sensualium pictus, dem berühmten deutsch-lateinischen Bilderbuch des großen Pädagogen Johann Amos Comenius. Mit dem Erstarken der Nationalsprachen seit dem 17. Jahrhundert verlor Latein mehr und mehr an Boden. In Deutschland erschienen im Jahre 1681 zum ersten Mal mehr Bücher auf Deutsch als in Latein. Lateinische Belletristik wie der 1741 erschienene Roman "Nikolai Klimii iter subterraneum" des Dänen Ludvig Holberg war nunmehr die Ausnahme. Weiterhin wichtig blieb Latein aber als internationales Verständigungsmittel in den Wissenschaften: Nikolaus Kopernikus, Johannes Kepler und Galileo Galilei veröffentlichten ihre bahnbrechenden astronomischen Erkenntnisse in lateinischer Sprache, auch die Philosophiae Naturalis Principia Mathematica von Isaac Newton erschien noch 1687 auf Latein. Carl Friedrich Gauß schrieb im Jahr 1798 mit nur 21 Jahren seine Disquisitiones Arithmeticae (lateinisch für "zahlentheoretische Untersuchungen"), die am 29. September 1801 in Leipzig veröffentlicht wurden. Sie sind als Lehrbuch der Zahlentheorie bis heute gültig und von Bedeutung. Der Philosoph René Descartes ist mit seinem Satz Cogito ergo sum aus seinen "principia philosophiae" berühmt geworden, und Arthur Schopenhauer verfasste noch 1830 seine "Theoria colorum physiologica" auf Latein. Die von dem Schweden Carl von Linné in seinem Systema Naturae 1735 entwickelte Methode, Lebewesen lateinisch zu klassifizieren, ist bis heute in Gebrauch. Seit der preußischen Bildungsreform durch Wilhelm von Humboldt spielt Latein an den humanistischen Gymnasien eine zentrale Rolle. Die alten Sprachen sollen nach Humboldt dem Ziel einer allgemeinen Menschenbildung dienen. Erst unter Wilhelm II. wurden an den deutschen Gymnasien der lateinische Abituraufsatz und die mündliche Prüfung in Latein abgeschafft. Carl Orffs Carmina Burana wurden in den 1930er Jahren zum Welterfolg. Nach dem Zweiten Weltkrieg erlebte der Lateinunterricht an deutschen Schulen ebenso ein gewisses Aufblühen wie in den neuen Bundesländern nach dem Zusammenbruch der DDR. Latein in Schule und Universität. Latein wird im deutschsprachigen Raum vor allem an Gymnasien und Gesamtschulen gelehrt. Etwa ein Drittel aller Gymnasiasten in Österreich und Deutschland lernt heute Latein als erste, zweite oder dritte Fremdsprache. Vor allem am humanistischen Gymnasium wird Latein als erste Fremdsprache angeboten. In der Schweiz kann Latein bereits in der obligatorischen Sekundarstufe I als Freifach gelernt werden. Trotz kritischer Diskussion der Vorzüge und Nachteile des Lateinunterrichts an Schulen steigt seit etwa zehn Jahren die Zahl der Schüler, die sich für Latein als Fremdsprache entscheiden, in Deutschland merklich an. Die Gründe dafür sind unklar. Das gute Abschneiden humanistischer Gymnasien bei nationalen und internationalen Bildungstests, eine deutliche Modernisierung des Lateinunterrichts und der entsprechenden Lehrwerke oder das allgemein große Interesse für die Antike werden als Gründe genannt. An allen größeren Universitäten kann Latein studiert werden. Die Latinistik gehört neben der Gräzistik zum Fachbereich Klassische Philologie. In zunehmendem Maße werden an den Universitäten Lehrstühle mit dem Schwerpunkt Latein im Mittelalter und Latein in der Neuzeit eingerichtet. Mancherorts werden auch Vorlesungen oder andere Veranstaltungen in lateinischer Sprache abgehalten. Für einige andere Studiengänge werden das Latinum oder Lateinkenntnisse gefordert, insbesondere in zahlreichen geisteswissenschaftlichen Fächern. Die Regelungen sind hier jedoch von Universität zu Universität verschieden. Latein im studentischen Umfeld. Latein als „universitäre“ Sprache hatte zu früheren Zeiten auch einen erheblichen Einfluss auf die Burschensprache, was sich heute noch im Sprachgebrauch der Studentenverbindungen widerspiegelt. Allerdings werden hierbei in der Regel nur einzelne Begriffe verwendet. Ausnahmen finden sich nur in einzelnen Veranstaltungen, die bewusst in lateinischer Sprache abgehalten werden. So findet etwa seit 1998 bei der AMV Waltharia Frankfurt im Sondershäuser Verband in jedem Semester eine so genannte „Lateinkneipe“ statt, bei der Latein die einzig zugelassene Sprache ist und sich dieses nicht nur auf die Studentenlieder beschränkt, sondern auch auf alle Wortbeiträge. Aus dem allgemeinen studentischen Umfeld ist Latein als Sprache gänzlich verschwunden. Latein in Rundfunk, Fernsehen und Internet. Der finnische Rundfunksender YLE (Yleisradio) veröffentlicht regelmäßig die "Nuntii Latini" in schriftlicher und gesprochener Version oder als Podcast, ebenso Radio Bremen. Seit April 2004 sendet auch die deutschsprachige Redaktion bei Radio Vatikan Nachrichten auf Latein. Radio F.R.E.I. aus Erfurt hat seit Juli 2015 eine wöchentliche Lateinsendung im Programm namens "Erfordia Latina". Am 23. August 2008 brachte der Fernsehsender 3sat eine Folge der "Kulturzeit" in lateinischer Sprache. Im Internet sind nicht nur zahlreiche lateinische Texte und entsprechende Sekundärliteratur verfügbar. In Internetforen wie "Grex Latine Loquentium" oder "e-latein chat" kommunizieren Teilnehmer aus verschiedenen Ländern lateinisch, und im Oktober 2009 wurde sogar eine lateinische Version von Facebook veröffentlicht. Die lateinisch singende Mittelalter-Band Corvus Corax Latein in der Musik. Besonders häufig taucht Latein in der klassischen geistlichen Musik auf, vor allem im katholischen Kontext, da die hier vertonten Texte (etwa liturgischer und biblischer Art) bis Mitte des 20. Jahrhunderts ganz überwiegend in lateinischer Sprache vorlagen. Die Melodien des gregorianischen Gesangs sind fast ausschließlich mit kirchenlateinischen Texten versehen. Abgesehen von lateinischen Fassungen bekannter Popsongs entstehen auch neue Songs unmittelbar in Latein, etwa "O Caritas" von Cat Stevens oder "Cursum Perficio" von Roma Ryan, gesungen von Enya. Die englische Folk-Rock-Band Steeleye Span kam mit Gaudete, einem Weihnachtslied aus dem 16. Jahrhundert, im Dezember 1973 in die Top Twenty der britischen Charts. Die Gruppe „Ista“ bietet lateinischen Hip-Hop und von Rosenstolz gibt es den Titel "Amo vitam". Sehr erfolgreich ist derzeit die Gruppe Corvus Corax. In der klassischen beziehungsweise neoklassizistischen Musik der Gegenwart findet Latein ebenfalls Verwendung. So hat etwa der belgische Komponist Nicholas Lens auf seinem Werk "Flamma Flamma" ein lateinisches Libretto vertont, für sein Werk "Terra Terra" hat Lens selbst ein Libretto in lateinischer Sprache verfasst. Nicht zu vergessen sind auch die zahlreichen Vertonungen lateinischer Gedichte wie beispielsweise von Jan Novák. Carl Orff unterlegte mehreren seiner Vokal-Kompositionen Texte in Latein, u. a. von Catull. Igor Strawinski ließ das nach Sophokles von Jean Cocteau in französischen Versen verfasste Libretto zu Oedipus Rex von Jean Daniélou ins Lateinische übersetzen. Zur Melodie der Europahymne gibt es einen lateinischen Text von Peter Roland "(Est Europa nunc unita)". Lateinische Übersetzungen. Immer wieder werden Bücher ins Lateinische übersetzt. Nikolaus Groß etwa hat 2004 eine komplett latinisierte Übertragung von Patrick Süskinds "Das Parfum" im Brüsseler Verlag der „Fundatio Melissa“, einem überregionalen Verein zur Pflege des gesprochenen Lateins, veröffentlicht. Dem Buch ist mit dem „Glossarium Fragrantiae“ eine größere Liste aktualisierter Neuschöpfungen beigegeben. Vom selben Wortartisten existiert des Weiteren ein Buch über den Baron "Mynchusanus" (Münchhausen). 2003 erschien bereits der erste Teil der Harry-Potter-Bücher von Joanne K. Rowling auf Latein "(Harrius Potter et Philosophi Lapis)". Daneben gibt es noch viele weitere Übersetzungen „klassischer“ Werke ins Latein, so zum Beispiel Karl Mays Winnetou III oder Der kleine Prinz "(Regulus)" von Antoine de Saint-Exupéry. Sehr beliebt ist auch die lateinische Fassung der Asterix-Comics, die der deutsche Altphilologe Graf von Rothenburg (Rubricastellanus) verfasst hat. Die österreichische Tageszeitung Kurier bringt seit 1994 jeden Mittwoch von Wolfram Kautzky verfasste kuriose Meldungen aus aller Welt "(Nuntii Latini)" in lateinischer Sprache. Im Auftrag der finnischen Regierung übersetzte Tuomo Pekkanen 1986 das Nationalepos Kalevala ins Lateinische. Latein in der katholischen Kirche. Latein ist die Amtssprache des Vatikanstaats. Die katholische Kirche veröffentlicht alle amtlichen Texte von weltkirchlicher Bedeutung in Latein. Das gilt für die liturgischen Bücher, den Katechismus, den Kodex des kanonischen Rechts sowie die päpstlichen Rechtsvorschriften (canones und decretales) und Enzykliken. In der Öffentlichkeit wird das Kirchenlatein insbesondere beim österlichen Segen des Papstes Urbi et orbi (für die Stadt und den Erdkreis) und in der nach dem Konklave durch den Kardinalprotodiakon verkündeten Formel Habemus papam (Wir haben einen Papst) wahrgenommen. Bis zur Liturgiereform 1970 unter Paul VI. war Latein die offizielle Sprache der Heiligen Messe und ist dies (laut Sacrosanctum Concilium) offiziell noch heute, wobei andere Sprachen jedoch gleichfalls erlaubt sind. Tatsächlich werden nur noch sehr wenige Gottesdienste in Latein gehalten. Papst Benedikt XVI. bevorzugte bei seinen Messen aber das Lateinische vor dem Italienischen. Im März 2007 empfahl er in dem Schreiben "Sacramentum Caritatis" ausdrücklich die Anwendung des Lateinischen in Gottesdiensten. Auch seinen Rücktritt kündigte er am 11. Februar 2013 in lateinischer Sprache an. Für die Pflege und Weiterentwicklung der lateinischen Sprache rief Papst Paul VI. 1976 die Stiftung "Latinitas" ins Leben, welche sich darum bemüht, ein dem neuzeitlichen Sprachgebrauch angemessenes Latein zu erstellen. Hierzu veröffentlicht sie neben einer Zeitschrift das Lexicon recentis Latinitatis, das Lexikon des Neulateins, welches in seiner letzten Überarbeitung 2004 mit 15.000 neuen Begriffen erschien, darunter etwa das lateinische Wort für „Computer“ "instrumentum computatorium." Eine lateinische Bedienungsanleitung für einen Geldautomaten im Vatikan Bilinguale Beschriftung an der „Wallsend Tyne and Wear Metro station“ Latein in den Wissenschaften. In der Biologie erfolgt die Namensbildung der wissenschaftlichen Namen lateinisch und griechisch. In der Medizin sind die anatomischen Fachbegriffe überwiegend lateinisch, für die einzelnen Organe wird zusätzlich auch latinisiertes Griechisch verwendet. Die Krankheitsbezeichnungen leiten sich aus dem Griechischen ab. In den Rechtswissenschaften existieren verschiedene lateinische Lehrsätze und Fachbegriffe (Latein im Recht). Auch in der Geschichtswissenschaft spielt vor allem Latein weiterhin eine große Rolle. In der Meteorologie werden lateinische Begriffe in der Wolkenklassifikation eingesetzt. Auch in der Pharmazie ist Latein üblich, deutsche Apotheker und Ärzte verwenden als Rezeptsprache Latein, vor allem in Abkürzungen. So existiert für jeden Arzneistoff neben dem internationalen IUPAC-Namen auch ein lateinischer Name, ebenso wird für jede Arzneipflanze neben dem deutschen auch ein lateinischer Name geführt, oftmals auch vermischt mit Bezeichnungen griechischen Ursprungs. In der Astronomie hat die Internationale Astronomische Union (IAU) die gesamte Himmelssphäre in 88 Sternbilder unterteilt, die alle einen offiziellen lateinischen Namen zusammen mit einem dreibuchstabigen Kürzel tragen. Einzelne Sterne innerhalb eines Sternbilds werden mit griechischen oder lateinischen Buchstaben oder Zahlen bezeichnet, gefolgt vom lateinischen Genitiv des Sternbildnamens. Auch die Nomenklatur der geologischen Formationen auf anderen Himmelskörpern ist gemäß IAU in der Regel lateinisch. Im Spätsommer 2012 setzte sich die NASA auf dem Mars erstmals darüber hinweg, indem sie in ihren Veröffentlichungen Aeolis Mons durchgängig als "Mount Sharp" bezeichnete. Sprachbeispiel. Das folgende Sprachbeispiel ist der Schrift "Commentarii de Bello Gallico" von Gaius Iulius Caesar entnommen (1. Buch, 1. Abschnitt). "Gallia est omnis divisa in partes tres, quarum unam incolunt Belgae, aliam Aquitani, tertiam qui ipsorum lingua Celtae, nostra Galli appellantur. (2) Hi omnes lingua, institutis, legibus inter se differunt. (3) Gallos ab Aquitanis Garumna flumen, a Belgis Matrona et Sequana dividit. (4) Horum omnium fortissimi sunt Belgae, propterea quod a cultu atque humanitate provinciae longissime absunt, minimeque ad eos mercatores saepe commeant atque ea quae ad effeminandos animos pertinent important, proximique sunt Germanis, qui trans Rhenum incolunt, quibuscum continenter bellum gerunt. (5) Qua de causa Helvetii quoque reliquos Gallos virtute praecedunt, quod fere cotidianis proeliis cum Germanis contendunt, cum aut suis finibus eos prohibent aut ipsi in eorum finibus bellum gerunt. (6) Eorum una pars, quam Gallos obtinere dictum est, initium capit a flumine Rhodano, continetur Garumna flumine, Oceano, finibus Belgarum, attingit etiam ab Sequanis et Helvetiis flumen Rhenum, vergit ad septentriones. (7) Belgae ab extremis Galliae finibus oriuntur, pertinent ad inferiorem partem fluminis Rheni, spectant in septentrionem et orientem solem. (8) Aquitania a Garumna flumine ad Pyrenaeos montes et eam partem Oceani quae est ad Hispaniam pertinet; spectat inter occasum solis et septentriones." „Gallien als Ganzes zerfällt in drei Teile, deren ersten die Belger, deren zweiten die Aquitanier und deren dritten ein Volksstamm, der in der eigenen Sprache Kelten, in unserer Sprache Gallier heißt, bewohnen. (2) Diese alle sind in Sprache, Gewohnheiten und Gesetzen untereinander verschieden. (3) Die Gallier trennt der Fluss Garonne von den Aquitaniern, die Marne und die Seine von den Belgern. (4) Die tapfersten unter allen sind die Belger, weil sie von der (feinen) Lebensweise und Bildung der (römischen) Provinz (Gallien) am entferntesten sind und in keiner häufigen Berührung mit fremden Kaufleuten stehen, die ihnen also auch keine Gegenstände zuführen, die geeignet sind, eine Verweiblichung des Gemüts zu bewirken, und weil sie den Germanen, die jenseits des Rheins wohnen, am nächsten sind, mit denen sie unaufhörlich Krieg führen. (5) Aus dem gleichen Grund übertreffen auch die Helvetier die übrigen Gallier an Tapferkeit, denn sie liegen fast täglich mit den Germanen im Kampf, wehren dieselben entweder vom eigenen Gebiet ab, oder führen auf deren Boden selbst Krieg. (6) Jener eine Teil (Galliens), den wie gesagt die Kelten innehaben, fängt am Fluss Rhône an, wird von der Garonne, dem Ozean und dem Gebiet der Belger begrenzt und reicht auf der Seite der Sequaner und Helvetier bis an den Rheinstrom: die ganze Richtung aber ist gegen Norden. (7) An der äußersten Grenze der Gallier beginnt das Land der Belger, das sich bis in die unteren Gegenden des Rheins erstreckt und gegen Norden und Osten liegt. (8) Aquitanien erstreckt sich von der Garonne bis zu den Pyrenäen aus und zu dem Teil des Ozeans, der zu Spanien gehört; es liegt gegen Westen und Norden.“ Louise Aston. Louise Franziska Aston, geb. Hoche (* 26. November 1814 in Gröningen; † 21. Dezember 1871 in Wangen im Allgäu) war eine deutsche Schriftstellerin und Vorkämpferin für die demokratische Revolution und Frauenbewegung. Louise Franziska Aston, Stich um 1885 Grab auf dem Alten Friedhof in Wangen im Allgäu Leben. Louise Aston war die jüngste Tochter des evangelischen Theologen und Konsistorialrats Johann Gottfried Hoche. Mit 17 Jahren wurde sie zur Konvenienzehe mit dem 23 Jahre älteren Samuel Aston, einem englischen Fabrikanten in Magdeburg, gezwungen. Samuel Aston hatte vor seiner Heirat bereits mit drei Frauen vier uneheliche Kinder, die er alle adoptierte. Aus der Ehe mit Louise Aston gingen drei Töchter hervor. Louise Aston führte ein extravagantes Leben und provozierte in Magdeburg und Göttingen, wo sie sich zeitweilig aufhielt, wiederholt Skandale. 1839 wurde die Ehe auf Betreiben Samuel Astons geschieden, doch das Paar versöhnte sich und heiratete erneut; 1844 trennte man sich endgültig. Mit ihrer zweiten Tochter Jenny Louise kehrte Louise Aston nach Deutschland zurück und ließ sich in Berlin nieder, wo sie zeitweilig mit Rudolf Gottschall zusammenlebte, der ihr seine die freie Liebe propagierenden Gedichte „Madonna“ und „Magdalena“ widmete. Da sie eine literarisch-intellektuelle Laufbahn anstrebte, suchte sie Zugang zu entsprechenden Zirkeln. Sie schloss sich einer Gruppe Junghegelianer an (u.a. Otto von Corvin und Max Stirner). Anonyme Beschwerden über sie führten dazu, dass die Polizei sie überwachte. 1846 wurde sie wegen ihres Nonkonformismus (sie veröffentlichte erotische Gedichte, trug wie George Sand Männerkleidung und rauchte auf der Straße) und ihrer offenen Verneinung jeder Form von organisierter Religiosität als „staatsgefährliche Person“ aus Berlin ausgewiesen. In ihrem wenig später veröffentlichten Buch "Meine Emanzipation, Verweisung und Rechtfertigung" schilderte sie ihren Fall und formulierte radikale Forderungen nach Geschlechtergleichheit und dem Recht der Frau auf freie Persönlichkeitsentfaltung. 1848 schloss sie sich als freiwillige Pflegerin den Freikorps von Ludwig von der Tann an und nahm am Schleswig-Holsteinischen Feldzug teil. Während dieses Feldzugs lernte sie ihren zweiten Mann, den Arzt Daniel Eduard Meier, kennen. Mit ihm kehrte sie nach Berlin zurück, wo sie ihren Roman "Lydia" veröffentlichte und während der Märzrevolution einige Nummern der Zeitschrift "Der Freischärler" herausgab sowie den "Club Emanzipierter Frauen" gründete. Ihr Mann wurde als radikaler Demokrat verhaftet, sie wurde endgültig aus Berlin abgeschoben und zog nach Bremen, wo sie ihren Roman "Revolution und Conterrevolution" schrieb. 1849 erschien ihre letzte Veröffentlichung, die Gedichtsammlung "Freischärler-Reminiscenzen". Die radikalen Texte trugen ihr heftige Kritik aus den Reihen der Frauenbewegung (u.a. von Louise Otto) ein. Es wird vermutet, dass das Gemälde "Die Emanzipierte" von Johann Baptist Reiter, das sich im Schlossmuseum Linz befindet, Louise Aston zeigt. Louise Astons Mann wurde 1855 aus dem Gefängnis entlassen; das ständig überwachte Paar verließ Deutschland, um im Krimkrieg auf russischer Seite als Arzt und Pflegerin in der freiwilligen Krankenpflege zu arbeiten. Anschließend lebten sie in der Ukraine, in Siebenbürgen, Ungarn und Österreich, bis sie 1871 wieder nach Deutschland zurückkehrten. Bald darauf starb Louise Aston verarmt, politisch resigniert und von ihren Schriftstellerkollegen isoliert im Alter von 57 Jahren. Sie wurde auf dem Alten Friedhof in Wangen im Allgäu begraben; ihre Grabtafel (an der Nordwand des "Alten Gottesackers") ziert der Spruch „Nach Kampf Frieden“. Im selben Grab liegt auch ihr Ehemann Daniel Eduard Meier begraben, der 1873 starb. Auch seine Grabtafel ist mit einem Spruch versehen: „Der mitleidsvolle Tod gönnt Ruh und Rasten. / Dem mitleidslos gehetzten Einfuß Meier-Aston.“ Gedenktage. Am 21. Dezember 2011 jährte sich der Todestag der deutschen Schriftstellerin und kompromisslosen Kritikerin der Gesellschaft Louise Aston zum 140. Mal. Zum 200. Geburtstag Louises Astons am 26. November 2014 führte das Stadttheater Freiburg im Breisgau im Juni 2014 das Theaterstück „Mag der Thron in Flammen glühn“ von Jenny Warnecke auf. Logarithmus. Als Logarithmus (Plural: "Logarithmen;" von, "lógos", „Verständnis, Lehre, Verhältnis“, und, "arithmós", „Zahl“) einer Zahl bezeichnet man den Exponenten, mit dem eine vorher festgelegte Zahl, die "Basis", potenziert werden muss, um die gegebene Zahl zu erhalten. Logarithmen sind nur für positive reelle Zahlen definiert, auch die Basis muss positiv sein. Der Logarithmus einer positiven reellen Zahl formula_1 zur Basis formula_2 ist also der Wert des Exponenten, wenn formula_1 als Potenz zur Basis formula_2 dargestellt wird, also diejenige Zahl formula_5, welche die Gleichung formula_6 löst. Man schreibt formula_7; weitere Notationen siehe Bezeichnungen. Das "Logarithmieren", d. h. der Übergang von formula_1 zu formula_9, ist damit eine Umkehroperation des Potenzierens. Die Funktion, die bei gegebener festen Basis formula_2 jeder positiven Zahl ihren Logarithmus zuordnet, nennt man "Logarithmusfunktion" zur Basis formula_2. Mit Logarithmen lassen sich sehr stark wachsende Zahlenreihen übersichtlich darstellen, da der Logarithmus für große Zahlen viel langsamer steigt als die Zahlen selbst. Wie die Gleichung formula_12 zeigt, kann man durch Logarithmieren eine Multiplikation durch die viel weniger rechenintensive Addition ersetzen. Auch beschreiben Logarithmen auf mathematisch elegante Weise viele technische Prozesse sowie Phänomene der Natur wie etwa das Verhalten einer Halbleiter-Diode, die Spirale eines Schneckenhauses oder die Wahrnehmung unterschiedlicher Lautstärken durch das menschliche Ohr. Entsprechende mathematische Berechnungen sind bereits aus der Zeit vor Christi Geburt aus Indien überliefert. Der Begriff "Logarithmus" wurde von John Napier im frühen 17. Jahrhundert geprägt. Überblick. Die Verwendung des Logarithmus lässt sich bis in die indische Antike zurückverfolgen. Mit dem aufstrebenden Bankwesen und dem Fortschritt der Astronomie im Europa des 17. Jahrhunderts erlangte der Logarithmus immer mehr Bedeutung. Seine Funktionswerte wurden in Tabellenwerken, den Logarithmentafeln, erfasst, um sie nachschlagen zu können und nicht immer neu berechnen zu müssen. Diese Tabellen wurden schließlich durch Rechenschieber und später durch Taschenrechner verdrängt. Der Wechsel von den Tabellen zum Rechenschieber erfolgte in deutschen Schulen in den 1960er Jahren, der Wechsel zu Taschenrechnern in den 1970er Jahren. Zentrale Aspekte des Lebens lassen sich mit Hilfe von Logarithmen beschreiben. So nimmt zum Beispiel die Stärke eines Sinneseindrucks in Abhängigkeit von einer physikalischen Größe wie Helligkeit oder Lautstärke entsprechend dem Verlauf einer Logarithmusfunktion zu. Gleiches gilt für die wahrgenommene Tonhöhe in Abhängigkeit von der Frequenz eines Tones. Logarithmen erlangten ihre historische Bedeutung durch den Zusammenhang der es erlaubt, eine Multiplikation durch eine Addition auszudrücken. Formal sind Logarithmen alle Lösungen formula_1 der Gleichung zu vorgegebenen Größen formula_16 und formula_2. Je nachdem, über welchem Zahlenbereich und für welche Größen diese Gleichung betrachtet wird, hat sie keine, mehrere oder genau eine Lösung. Ist die Lösung eindeutig, dann wird sie als "der Logarithmus von formula_16 zur Basis formula_2" bezeichnet und man schreibt Beispielsweise ist der Logarithmus von 8 zur Basis 2 gleich 3, geschrieben formula_21, denn es ist formula_22. Falls die obige Gleichung nach formula_2 aufzulösen ist anstatt nach formula_1, so ist die Lösung gegeben durch die formula_1-te Wurzel aus formula_16. Am bekanntesten und am weitesten verbreitet ist der Logarithmus über den positiven reellen Zahlen, der im Folgenden vornehmlich dargestellt wird. Geschichte. Titelblatt zu Jost Bürgis Logarithmentafel von 1620 Indische Mathematiker im 2. Jahrhundert v. Chr. haben als Erste Logarithmen erwähnt. Schon in der Antike nutzten sie Logarithmen zur Basis 2 für ihre Berechnungen. Im 8. Jahrhundert beschrieb der indische Mathematiker Virasena Logarithmen zur Basis 3 und 4. Ab dem 13. Jahrhundert wurden von arabischen Mathematikern ganze logarithmische Tabellenwerke erstellt. Nicolas Chuquet arbeitete klar die Rechengesetze für Potenzen formula_27 und formula_28 heraus durch eine gegenüberstellende Anordnung einer arithmetischen und einer geometrischen Reihe. Der deutsche Mathematiker Michael Stifel formulierte ähnlich im Jahr 1544 die Beziehungen formula_29 und formula_30 neben anderen Autoren des 16. Jahrhunderts. Die Reduktion von Multiplikation auf Addition steht neben trigonometrischen Additionsformeln am Beginn der Entwicklung der Logarithmen. Stifel ließ nur ganzzahlige Exponenten zu. John Napiers (1550–1617) Idee war dagegen, einen stetigen Wertebereich für die Exponenten zuzulassen. Im 17. Jahrhundert entwickelte der Schweizer Uhrmacher Jost Bürgi (1552–1632) ein neues System zur Berechnung von Logarithmen, das er 1620 nach langer Arbeit veröffentlichte. Aber schon vorher, im Jahre 1614, veröffentlichte der schottische Denker Napier ein Buch über Logarithmen, das ihn als „Erfinder der Logarithmen“ berühmt machte. Ihre Arbeiten und Erkenntnisse über Logarithmen entwickelten Bürgi und Napier jedoch unabhängig voneinander. Das griechische Wort „Logarithmus“ bedeutet auf Deutsch „Verhältniszahl“ und stammt von Napier. Es gilt nämlich: Genau dann steht formula_16 zu formula_2 im selben Verhältnis wie formula_33 zu formula_34 (als Formel: formula_35), wenn die Unterschiede ihrer Logarithmen übereinstimmen (als Formel: formula_36). Erstmals veröffentlicht wurden Logarithmen von diesem unter dem Titel "Mirifici logarithmorum canonis descriptio," was mit "Beschreibung des wunderbaren Kanons der Logarithmen" übersetzt werden kann. Wird die Eulersche Zahl formula_37 – die im Jahre 1728 von Leonhard Euler (1707–1783) bestimmt und erstmals 1742 veröffentlicht wurde – als Basis des Logarithmus verwendet, so nennt man ihn den natürlichen Logarithmus. Der natürliche Logarithmus wird dabei durch „ln“ abgekürzt. Mit den Logarithmen war die mathematische Grundlage für die Weiterentwicklung des mechanischen Rechenschiebers gelegt; denn die Funktionsweise des Rechenschiebers basiert auf dem Prinzip der Addition und Subtraktion von Logarithmen. Logarithmus in Anwendung und Natur. Anwendungen des Logarithmus finden sich vielfach in der Wissenschaft, wenn der Wertebereich viele Größenordnungen umfasst. Daten werden entweder mit einer logarithmischen Skala dargestellt, oder es werden logarithmisch definierte Größen verwendet, wie zum Beispiel beim pH-Wert oder bei der Empfindlichkeit der Sinnesorgane. Ein Rechenschieber Bezeichnungen. Man schreibt als mathematisches Zeichen für den Logarithmus von formula_16 zur Basis formula_2 und sagt: "„x ist der Logarithmus von a zur Basis b“" oder auch "„x ist der Logarithmus zur Basis b aus a“." formula_16 heißt "Numerus" oder veraltet auch "Logarithmand." Das Ergebnis des Logarithmierens gibt also an, mit welchem Exponenten formula_1 man die Basis formula_2 potenzieren muss, um den Numerus formula_16 zu erhalten. Für die Vorkommastellen des Logarithmus wird teilweise der Begriff "Kennzahl" verwendet, und seine Nachkommastellen werden "Mantisse" genannt. a> zur Basis 10 oder e. Darüber hinaus sind für den Logarithmus in DIN 1302 je nach Anwendung spezielle Schreibweisen festgelegt. Ein ähnlich aussehendes Funktionszeichen ist formula_68 für den Integrallogarithmus. Bei dieser Funktion handelt es sich "nicht" um eine Logarithmusfunktion. Definition. Der Logarithmus kann mathematisch stets als eine Schar von Funktionen (deren Parameter mit formula_2 bezeichnet sei) von formula_70 aufgefasst werden. Ihre einzelnen Logarithmusfunktionen sind dabei nur unterschiedliche (reelle, aber ungleich null) Vielfache voneinander. Über den positiven reellen Zahlen kann er auf verschiedene Arten eingeführt werden. Je nach Hintergrund und Intention wird man den einen oder anderen didaktischen Zugang wählen. Die verschiedenen Definitionen des reellen Logarithmus sind dabei untereinander äquivalent und erfolgen hier mit besonderem Fokus auf den natürlichen Logarithmus, der aus Sicht des Mathematikers auf "natürliche" Weise auftritt, wie bei dem Zugang über die Stammfunktion von formula_71 erkennbar ist. Als Umkehrfunktion der Exponentialfunktion. Der natürliche Logarithmus ergibt sich mit der Basis formula_78, wobei die eulersche Zahl ist. Als Lösung einer Funktionalgleichung. Die Logarithmusfunktionen sind die nicht-trivialen, stetigen Lösungen formula_80 der Funktionalgleichung Ihre Lösungen erfüllen stets formula_82 und erweisen sich sogar als differenzierbar. Den natürlichen Logarithmus erhält man dann zusammen mit der Zusatzbedingung Die Zusatzbedingung ist einer der Gründe dafür, den so erhaltenen Logarithmus als "natürlich" zu bezeichnen. Wollte man den Logarithmus zu einer anderen Basis formula_2 über die Zusatzbedingung erhalten, dann müsste man fordern und würde wieder den natürlichen Logarithmus benötigen. Die triviale Lösung obiger Funktionalgleichung ist die Nullfunktion formula_86, die nicht als Logarithmusfunktion angesehen wird, und die einzige Lösung der Funktionalgleichung, für die auch formula_87 definiert ist. Der Logarithmus vermittelt aufgrund obiger Funktionalgleichung daher insbesondere eine strukturerhaltende Abbildung von den positiven reellen Zahlen mit ihrer multiplikativen Struktur auf die gesamten reellen Zahlen mit deren additiver Struktur. Dies kann man auch explizit als Bedingung fordern und gelangt damit zur Herleitung. Als Isomorphismus. Die reellwertigen Logarithmen sind genau die stetigen Isomorphismen Diese Definition legt die Funktion formula_80 bis auf eine multiplikative Konstante eindeutig fest. Der algebraische Zugang betont ebenso wie der Zugang über die Funktionalgleichung die historische Bedeutung des Logarithmus als Rechenhilfe: Er ermöglicht es, eine Multiplikation in eine Addition „umzuwandeln“. Als Stammfunktion von f mit f(x)=1/x. mit formula_91 ist gerade der natürliche Logarithmus: Es ist formula_92. Zum Logarithmus mit der Basis formula_2 gelangt man durch Division der Funktion formula_80 durch die Konstante formula_95. Als uneigentliches Integral von formula_96, oder beliebiger willkürlicher (positiver) unterer Integrationsgrenze, betrachtet, würde man nur noch eine zusätzliche, additive Konstante erhalten, aber immer nur den Logarithmus zur Basis formula_37 bekommen. Als Potenzreihe. Der natürliche Logarithmus kann als Potenzreihe gemäß eingeführt werden. Diese Reihe konvergiert für formula_99 und für formula_100. Für eine numerische Berechnung des Werts formula_101 für formula_102 ist die Beziehung formula_103 nützlich. Anmerkung. Diese Definitionen können auch herangezogen werden, um Logarithmen auf anderen mathematischen Strukturen zu erhalten, wie z. B. auf den komplexen Zahlen. Das setzt voraus, dass in der betreffenden Struktur die zur Definition verwendeten Konzepte existieren. Um etwa den diskreten Logarithmus auf einer Gruppe zu definieren, können Konzepte wie Differentiation/Integration nicht herangezogen werden, weil sie dort gar nicht existieren. (Die Definition geschieht dort als Umkehrung der Potenzierung mit ganzen Exponenten, die wiederum aus mehrfachem Anwenden der "einen" Verknüpfung der Gruppe definiert ist). Logarithmengesetze. Im Folgenden wird stets vorausgesetzt, dass die Variablen formula_104 von Null verschieden sind; im Falle des reellen Logarithmus werden die Zahlen sogar als positiv vorausgesetzt. Die Basen formula_105 des Logarithmus dürfen ferner nicht 1 sein. Produkte. Für das Rechnen mit Logarithmen von Produkten steht die hilfreiche Rechenregel Der Logarithmus eines Produkts ist die Summe der Logarithmen der Faktoren. Quotienten. Die Quotienten leiten sich direkt aus den Logarithmen von Produkten ab. Hier sei nur der einfache Fall angegeben. Der Logarithmus eines Quotienten ist der Logarithmus des Zählers formula_1 minus den Logarithmus des Nenners formula_5. Potenzen. Für Potenzen mit reellem Exponent formula_116 gilt die Regel Der Logarithmus einer Potenz ist also das Produkt aus dem Exponenten mit dem Logarithmus der Basis. Daraus lässt sich für formula_118 Der Logarithmus eines Stammbruchs formula_120 ist der negative Logarithmus des Nenners formula_1. Diese Rechenregeln lassen sich von den Potenzgesetzen ableiten. Wurzeln. Da Wurzeln nichts anderes als Potenzen mit gebrochenem Exponenten sind, ergibt sich nach der oben angegebenen Potenzregel des Logarithmus die Rechenregel Basisumrechnung. Um Logarithmen zur Basis formula_2 mithilfe von Logarithmen einer beliebigen Basis formula_16 zu berechnen, verwendet man den Zusammenhang denn mit formula_126 gelten die Umformungen Damit sieht man, dass sich Logarithmen zu verschiedenen Basen nur um einen konstanten Faktor voneinander unterscheiden. Die meisten Tabellenwerke stellen Logarithmen nur zur Basis 10 zur Verfügung, Taschenrechner auch zur Basis e (den natürlichen Logarithmus). Mit obiger Formel lassen sich daraus Logarithmen zu einer beliebigen Basis berechnen. Nichtpositive Zahlen. In den reellen Zahlen ist der Logarithmus für nichtpositive Zahlen, also Null und negative Zahlen, nicht definiert. Allerdings erfüllt formula_133 obige Funktionalgleichung für formula_134, solange nur formula_135 ist, da diese dort eine Unstetigkeitsstelle hat. Ansonsten würde für formula_136 ja für alle y stets formula_137 folgen, wenn man ihre Gültigkeit auf ganz formula_138, also auch bei formula_136, verlangen würde. Begründungen. In der Funktionentheorie, in der Funktionen von komplexen Zahlen betrachtet werden, kann man den Logarithmus auch für negative Zahlen definieren (siehe Komplexer Logarithmus), allerdings gelten dann einige der Rechenregeln nicht mehr. Auch in diesem Zusammenhang ist 0 keine isolierte Singularität, sondern ein Verzweigungspunkt. Ableitung und Integral. Die natürliche Logarithmusfunktion ist die Umkehrfunktion der Exponentialfunktion. Daher erhält man die Ableitung des natürlichen Logarithmus einfach durch Anwendung der Umkehrregel (siehe Beispiel dort). Es ergibt sich für "positives x". Für "negatives x" folgt daraus (wegen −x > 0 und unter Anwendung der Kettenregel) und wegen formula_150 lässt sich beides zu Für alle reellen formula_153 ist wobei für positives x (wenn also über den Pol bei t=0 integriert wird) der Hauptwert des Integrals zu nehmen ist. Ist bei einem bestimmten Integral des natürlichen Logarithmus eine der Grenzen Null, so kann die Regel von L’Hospital angewendet werden. Natürlicher Logarithmus. Der Begriff "natürlicher Logarithmus" wurde gewählt, weil sowohl die Exponentialfunktion als auch der Logarithmus zur Basis formula_37 in vielen Zusammenhängen (Integralrechnung, Differentialrechnung, Komplexe Zahlen, Trigonometrie) auf natürliche Weise ohne Vorfaktoren auftreten. Insbesondere lässt sich der natürliche Logarithmus sehr einfach integrieren und differenzieren. Der natürliche Logarithmus formula_177 ist eine Stammfunktion formula_178 der Kehrwertfunktion formula_96 mit formula_180, nämlich genau die mit formula_181. Berechnung des Logarithmus. Die Berechnung eines Logarithmus ist prinzipiell kompliziert. Sie lässt sich „mit Papier und Bleistift“ nur durch die vielfache Wiederholung bestimmter Rechenvorgänge erreichen, wobei das Ergebnis des gerade ausgeführten Schritts als Ausgangsbasis für den nächsten Rechenschritt verwendet wird ("Iterative Vorgehensweise" bzw. "Approximation"). Dazu gibt es verschiedene mögliche Vorgehensweisen, von denen einige im Folgenden dargestellt sind. Anfangs ist das Ergebnis dieser Teilschritte jeweils relativ weit entfernt von dem korrekten Ergebnis, wird aber bei jedem weiteren Rechenschritt genauer, es konvergiert zu dem korrekten Ergebnis. Solche iterativen Rechenoperationen sind sehr gut geeignet, um sie automatisch mit einem Taschenrechner oder Computer auszuführen, wo lediglich eine Taste gedrückt werden muss (falls auf dem Gerät vorgesehen), um den Logarithmus der eingegebenen Zahl zu einer festgelegten Basis (meist die Eulersche Zahl "e" (2,718...) oder die Zahl 10) zu berechnen. Die folgenden Rechenbeispiele sind jeweils nur zur Berechnung des Logarithmus einer beliebigen Zahl zur Basis "e" ("natürlicher Logarithmus") oder 2 geeignet. Potenzreihe. a> entdeckten Reihendarstellung des natürlichen Logarithmus; die Reihe konvergiert nur im nicht-schraffierten Bereich. Die Potenzreihenentwicklung des natürlichen Logarithmus um den Entwicklungspunkt 1 ergibt sich für formula_182 als Sie konvergiert nicht sonderlich schnell an den Rändern des Konvergenzintervalls, das Restglied der "n"-ten Partialsumme hat die Größe Mit Hilfe der Formel formula_185 kann man die Berechnung des Logarithmus für beliebige "x" auf die für Werte im Interval formula_186 reduzieren, d.h., man findet immer "m" und "y" mit formula_187 und formula_188 Illustration der Konvergenz der nebenstehenden artanh-Entwicklung für unterschiedliche Anzahl von Summanden Mehr Flexibilität in der Reduktion auf Zahlen nahe 1 und eine Halbierung des Berechnungsaufwandes bietet folgende Reihendarstellung, Areatangens Hyperbolicus beruht, für alle formula_189 konvergiert Die Reihe zeigt für formula_1 und formula_120 ähnliches Konvergenzverhalten und konvergiert umso besser, je näher formula_1 bei 1 liegt. Um dies zu erreichen, verwendet man wieder Durch Wahl einer geeigneten ganzen Zahl formula_196 kann man immer erreichen, dass gilt formula_197 und erhöht damit die Konvergenzgeschwindigkeit der Reihe, die man jetzt für formula_198 berechnet. Allerdings muss man zusätzlich noch eine Näherung für formula_199 berechnen, was über die gleiche Reihe erfolgt. Eine solche Transformation auf ein Intervall formula_200 durch Skalierung von formula_1 mit formula_202 ist auch für andere Werte von "b" möglich, durch die besonders einfache Handhabung der "2" in binär dargestellten Zahlen wird selten ein anderer Faktor verwendet. Grenzwerte nach Hurwitz. Für den natürlichen Logarithmus gelten die Grenzwerte die man leicht mit der Regel von L’Hospital bestätigt. Hierauf basieren die von Adolf Hurwitz für den natürlichen Logarithmus angegebenen Grenzwerte der Folgen formula_212 bzw. formula_213, die über Für eine praktische Berechnung von ln formula_1 sind diese Grenzwerte wegen der auftretenden Auslöschung jedoch nicht gut geeignet. Berechnung einzelner Binärziffern. Eine weitere Möglichkeit zur Berechnung des Logarithmus besteht darin, nacheinander die Ziffern der Binärdarstellung des Logarithmus zur Basis 2 zu bestimmen. Dieses Verfahren ist besonders einfach auf Rechenwerken zu implementieren, da es aufwändige Divisionen vermeidet und auch leicht in Festkomma-Arithmetik umsetzbar ist. Zunächst werden die Vorkommastellen des Zweierlogarithmus (immer im Dualsystem) durch Abzählen der Vorkommastellen der Zahl "x" bestimmt, und die Zahl "x" durch Schieben auf Werte zwischen 1 und 2 normiert. Der Logarithmus von "x" hat danach die Darstellung INPUT 1 ≤ x < 2 OUTPUT Nachkommastellen bi der Binärdarstellung von log2(x) Analogrechner. Zur Berechnung des Logarithmus mithilfe eines Analogrechners – also etwa der Erzeugung einer elektrischen Ausgangsspannung "U"a, die den Logarithmus des Nennwerts der Eingangsspannung "U"e annimmt – kann man sich den exponentiellen Verlauf der Strom-Spannungs-Kennlinie einer Diode zunutze machen. Die nebenstehende Skizze zeigt den prinzipiellen Aufbau eines Logarithmierers mit einem Operationsverstärker, einer Diode "D" und einem Widerstand "R". Komplexer Logarithmus . Hauptwert formula_224 des Logarithmus Analog zur reellen Definition heißt jede komplexe Zahl formula_225, welche die Gleichung erfüllt, ein "natürlicher Logarithmus" von formula_227. Für jedes formula_228 existiert ein solches formula_225, es ist jedoch im Unterschied zum reellen Logarithmus nicht eindeutig bestimmt, da gilt, siehe dazu auch Eulersche Identität. Hat man also einen Logarithmus formula_225 von formula_227 gefunden, so ist damit auch Um Eindeutigkeit zu erreichen, schränkt man formula_225 auf einen geeigneten Streifen der komplexen Zahlenebene ein. Man kann z. B. den Streifen verwenden. Eine komplexe Zahl aus diesem Streifen heißt "Hauptwert" des Logarithmus und man schreibt formula_239. formula_177 ist nicht stetig auf formula_245. Entfernt man jedoch die negative reelle Achse, so ist formula_177 auf dem Gebiet Beachtenswert ist, dass im Komplexen für den Hauptzweig formula_177 nicht alle der weiter oben angeführten Rechenregeln für die reelle Logarithmusfunktion gelten. Wegen für alle von formula_252 verschiedenen komplexen Zahlen formula_1 und formula_5, obwohl diese Beziehung für alle positiven reellen Zahlen stimmt. Auch die Gleichung ist nicht immer erfüllt, wie das Gegenbeispiel Diese Mehrdeutigkeit ist eine natürliche Eigenschaft des komplexen Logarithmus, die aus der Periodizität seiner Umkehrfunktion, der komplexen Exponentialfunktion, folgt. kann man jetzt auch Logarithmen zu negativer Basis formula_258, allgemeiner sogar für alle formula_259 mit formula_260, sinnvoll definieren. Unschön ist, dass nun die Werte im Zähler und Nenner dieser Definition durch Wahl des Hauptwertes willkürlich modulo formula_261 festgelegt sind, was ihre natürliche Charakterisierung als eindeutige Funktion auf einer Riemannschen Fläche technisch sehr verkompliziert. Diskrete Logarithmen. Diskrete Logarithmen sind Lösungen von Gleichungen der Form über einer endlichen zyklischen Gruppe formula_263. Der diskrete Logarithmus "x" von "b" zur Basis "a" ist modulo der Gruppenordnung von "G" eindeutig bestimmt und existiert – da "a" ein Erzeuger der Gruppe ist – für alle Elemente der Gruppe. Diskrete Logarithmen sind im Sinne der Komplexitätstheorie für viele Gruppen aufwändig zu berechnen und finden Anwendung in der Kryptographie, etwa in auf elliptischen Kurven basierenden Kryptosystemen. hat als Lösung den Wert 4, denn es gilt 24 = 16, und 16 lässt den Rest 5 bei Division mit Rest durch 11. Die Lösung ist eindeutig modulo 10, also modulo der Gruppenordnung von formula_265. Dementsprechend ist mit "x" auch "x"±10 eine Lösung der Kongruenz. Landkreis Lörrach. Der Landkreis Lörrach liegt im äußersten Südwesten des Bundeslandes Baden-Württemberg (Deutschland). Der Landkreis gehört zum Regierungsbezirk Freiburg und zum Regionalverband Hochrhein-Bodensee. Lage. Das Wiesental "(benannt nach dem Fluss „Wiese“, mit der alten Genitivform auf -n der schwachen Deklination der Substantive: „Wiesen-“)" als nordöstlicher Teil des Landkreises gehört zum Hochschwarzwald und zieht sich hoch bis zum Feldberg, dem höchsten Berg des Schwarzwaldes. Im Westen erheben sich die Weinberge des Markgräfler Hügellandes, im Süden der Dinkelberg. Zwischen Dinkelberg und Schweizer Jura zieht sich das Hochrheintal nach Westen und weitet sich nach Basel nordwärts zur Oberrheinischen Tiefebene aus. Natur. Der Landkreis Lörrach besitzt folgende Naturschutzgebiete. Nach der Schutzgebietsstatistik der Landesanstalt für Umwelt, Messungen und Naturschutz Baden Württemberg (LUBW) stehen 6162,82 Hektar der Kreisfläche unter Naturschutz, das sind 7,64 Prozent. Nachbarkreise. Der Landkreis grenzt im Norden an den Landkreis Breisgau-Hochschwarzwald und im Osten an den Landkreis Waldshut. Weiterhin grenzt er im Uhrzeigersinn an die Schweiz (Kantone Aargau, Basel-Landschaft und Basel-Stadt) und an das Elsass (Frankreich). Geschichte. Bis 1803 gehörte das heutige Kreisgebiet im Wesentlichen zu Vorderösterreich und der Markgrafschaft Baden. Kleinere Gebiete gehörten zum Fürstbistum Basel und dem Deutschen Orden. Durch die Kreisreform wurde der ehemalige Landkreis Lörrach am 1. Januar 1973 mit einigen Gemeinden der Landkreise Säckingen und Müllheim zum neuen Landkreis Lörrach vereinigt. Zuvor wurde am 1. Januar 1972 die Gemeinde Degerfelden in den Landkreis Säckingen eingegliedert. Am 1. Januar 1977 wurde der Ortsteil Au der Stadt Schopfheim in die Gemeinde Todtmoos (Landkreis Waldshut) umgegliedert. Nach Abschluss der Gemeindereform umfasst der Landkreis Lörrach 35 Gemeinden, darunter acht Städte und hiervon wiederum drei „Große Kreisstädte“ (Lörrach, Rheinfelden (Baden) und Weil am Rhein). Größte Stadt ist Lörrach, kleinste Gemeinde ist Böllen, die zugleich die kleinste Gemeinde des Bundeslandes ist. Einwohnerentwicklung. Die Einwohnerzahlen sind Volkszählungsergebnisse (V) oder amtliche Fortschreibungen des Statistischen Landesamts Baden-Württemberg; gezählt werden dabei nur die Hauptwohnsitze. Politik. Der Landkreis wird vom Kreistag und vom Landrat verwaltet. Kreistag. Der Kreistag wird von den Wahlberechtigten im Landkreis auf fünf Jahre gewählt. Die Kommunalwahl am 25. Mai 2014 führte zu folgendem vorläufigen Ergebnis. Das amtliche Endergebnis wird vom Statistischen Landesamt gegen Ende des Jahres bekannt gegeben. Landrat. Der Landrat ist gesetzlicher Vertreter und Repräsentant des Landkreises sowie Vorsitzender des Kreistags und seiner Ausschüsse. Er leitet das Landratsamt und ist Beamter des Kreises. Zu seinem Aufgabengebiet zählen die Vorbereitung der Kreistagssitzungen sowie seiner Ausschüsse. Er beruft Sitzungen ein, leitet diese und vollzieht die dort gefassten Beschlüsse. In den Gremien hat er kein Stimmrecht. Sein Stellvertreter ist der Erste Landesbeamte. Kreisfinanzen. Der Landkreis Lörrach war zum Stichtag 31. Dezember 2012 mit 2,87 Millionen Euro verschuldet. Dies entspricht der zusammen mit dem Kreis Mettmann niedrigsten Pro-Kopf-Verschuldung aller Landkreise in Deutschland. Wappen. Geteilt und halb gespalten: oben in Silber ein linksgewendeter, wachsender roter Löwe; unten vorn in Gold ein roter Schrägbalken, hinten in Blau ein schräglinker silberner Wellenbalken (Wappen-Verleihung 29. Januar 1957/11. Dezember 1973) Der Löwe symbolisiert die Herren von Rötteln, die ihre wichtigste Burg im Wiesental hatten, der rote Balken das Wappen von Baden (die Markgrafen von Baden hatten großen Besitz rund um Rötteln) und die Wellen den Fluss Wiese, der durch den Landkreis fließt. Wirtschaft und Infrastruktur. Blick auf die Große Kreisstadt Lörrach mit dem auslaufenden Wiesental Innerhalb des Landkreises gibt es große strukturelle Unterschiede. Die Region im vorderen und mittleren Wiesental sowie im Hochrheintal ist dicht besiedelt und stark industrialisiert. Besonders im Wiesental war die Textilindustrie stark verbreitet. Die Tal- und Hochlagen des südlichen Schwarzwaldes sind dünn besiedelt und durch Landwirtschaft und Fremdenverkehr geprägt. Das westlich gelegene Markgräflerland ist durch Sonderkulturen wie Obst- und Weinbau gekennzeichnet. In der Rheinebene liegt mit der Therme in Bad Bellingen das jüngste Heilbad der Region. Straße. Die durch Lörrach verlaufende A 98 Durch die Oberrheinebene verlaufen von Nord nach Süd zwei große Fernstraßen: die Bundesautobahn 5 und die Bundesstraße 3. Von der A 5 zweigt am Autobahndreieck Weil am Rhein die A 98 ab. Sie führt über Lörrach nach Rheinfelden (Baden). Am erst teilweise fertiggestellten Autobahndreieck Hochrhein geht diese in die A 861 über, quert den Rhein westlich von Rheinfelden (Baden) und Rheinfelden (CH) und verbindet den Landkreis mit der schweizerischen A3. Langfristig ist geplant, die A 98 in östliche Richtung bis nach Waldshut-Tiengen zu verlängern. In der Nord-Süd-Achse folgt die B 317 der Talachse des Wiesentals und verbindet das Dreiländereck mit dem Feldbergpass, der sich bereits im benachbarten Landkreis Breisgau-Hochschwarzwald befindet. Schiene. Die erste Strecke der Badischen Staatsbahnen, die Badische Hauptbahn, erreichte 1847 von Freiburg her das Kreisgebiet in Schliengen und wurde abschnittsweise 1848 bis Efringen-Kirchen, 1851 bis Haltingen und 1855 bis Basel weitergebaut, wo im rechtsrheinischen Stadtteil Klein-Basel ein „Badischer Bahnhof“ (Bahnhof auf deutschem Zollgebiet in der Schweizer Stadt Basel) entstand. Im Jahr darauf konnte man bis Säckingen fahren; diese Hochrheinbahn genannte Strecke setzt sich fort bis Konstanz. Die Kreisstadt Lörrach wurde 1862 vom Badischen Bahnhof in Basel aus als Privatbahn an das Schienennetz durch die Strecke Basel–Schopfheim der Wiesentalbahn-Gesellschaft angeschlossen, die 1876 eine Fortsetzung durch die Schopfheim-Zeller Eisenbahn-Gesellschaft fand. Daran schloss sich 1889 die von dem „Badischen Eisenbahn-Konsortium H. Bachstein“ erbaute, später der Süddeutschen Eisenbahn-Gesellschaft gehörende Schmalspurbahn Bahnstrecke Zell im Wiesental–Todtnau an, die im weiteren Verlauf von Zell bis Todtnau führte und auch als „Obere Wiesentalbahn“ bezeichnet wurde. Das Kandertal wurde 1895 durch die Strecke Haltingen–Kandern (Kandertalbahn) der Firma Vering & Waechter erschlossen. Zur Umgehung der neutralen Schweiz im Kriegsfall dienten die „Strategischen Bahnen“ Säckingen–Schopfheim und Lörrach–Weil, die 1890 von den Badischen Staatsbahnen errichtet wurden. Von Weil führte schon 1878 ein Schienenstrang über den Rhein nach St. Ludwig im Elsass. Der Badische Bahnhof Basel ist heutzutage – obwohl auf Schweizer Gebiet befindlich – der zentrale Umsteigebahnhof für den äußersten Südwesten Deutschlands mit teilweisen sehr guten Fernverkehrsverbindungen (z. B. umsteigefrei bis Frankfurt Flughafen, bis Berlin oder auch bis Amsterdam). Es herrscht zumindest Stundentakt in Nord-Süd-Richtung (Rheinland/Berlin-Oberrhein-Schweiz-(Italien)) mittels ICE, sowie überlagert ein Zwei-Stunden-Takt der zusätzlichen ICE-Linie Zürich–Hamburg. Im Nah- und Regionalverkehr verkehrt die Linie S6 der S-Bahn Basel (Basel SBB–Basel Badischer Bahnhof–Lörrach–Zell im Wiesental) im 30-Minuten-Takt, die Regionalbahn nach Waldshut im 60-min-Takt, sowie die Regionalexpresslinie Basel Bad. Bahnhof–Offenburg und die mit Neigetechnikzügen befahrene Interregio-Express-Linie Basel Bad. Bf.–Singen–Friedrichshafen–Ulm. Daneben gibt es zusätzlich die „Gartenbahn“ S5, die Lörrach mit Weil am Rhein verbindet ohne den Badischen Bahnhof Basel zu durchfahren. In Lörrach verkehrte von 1919 bis 1939 und von 1947 bis 1967 eine "Städtische Straßenbahn", die eine Verlängerung der Linie 6 der Basler Straßenbahnen darstellte, aber nur 1925 bis 1939 durchgehend befahren wurde. Wichtigstes Bahn-Neubauprojekt ist die Strecke durch den Katzenbergtunnel im Norden des Landkreises parallel zu Rheintalbahn. Der dortige kurvenreiche Abschnitt erhält dadurch einen Bypass. Schiffsverkehr. Mit dem Rheinhafen in Weil am Rhein ist der Landkreis über den Rhein mit dem Europoort im niederländischen Rotterdam verbunden. Luftfahrt. Der Landkreis Lörrach liegt im Einzugsbereich des binationalen EuroAirport Basel-Mulhouse-Freiburg. Kreiseinrichtungen. Außerdem ist der Landkreis Lörrach Träger der drei Kreiskrankenhäuser Lörrach, Rheinfelden (Baden) und Schopfheim sowie des Markus-Pflüger-Heims in Schopfheim-Wiechs und der Pflegeheime Markgräflerland in Weil am Rhein und Schloss Rheinweiler in Bad Bellingen. Kultur und Sehenswürdigkeiten. Sehenswerte Kultur- und Naturdenkmäler sind die Burg Rötteln, die Wasserschlösser in Inzlingen und Schliengen, Schloss Bürgeln, der Nonnenmattweiher, die Hasler Tropfsteinhöhle (Erdmannshöhle), die Tschamberhöhle und der Eichener See. Dieser See ist ein wahres Kuriosum. Er ist die meiste Zeit gar nicht vorhanden. Nur nach starken Regenfällen dringt Karstwasser aus der Tiefe nach oben und füllt die Landmulde. Bei Trockenheit versickert das Wasser. Ebenso interessant ist ein Besuch im Präger Gletscherkessel. 2004 gewann Gersbach den Bundeswettbewerb "„Unser Dorf soll schöner werden – Unser Dorf hat Zukunft“", 2007 erhielt der Ort die Goldmedaille beim europäischen Wettbewerb Entente Florale Europe. Der Ort bietet als sehenswerte kulturhistorische Denkmäler die gut erhaltenen Reste verschiedener Schanzentypen und anderer Verteidigungswerke, die Ende des 17. und Anfang des 18. Jahrhunderts errichtet wurden, sowie den Nachbau einer solchen Barockschanze. International bekannt ist das Vitra Design Museum in Weil am Rhein. Städte und Gemeinden. Vereinbarte Verwaltungsgemeinschaften und Gemeindeverwaltungsverbände Bis 31. Dezember 2008 bestand ferner der Gemeindeverwaltungsverband „Kleines Wiesental“ mit Sitz in Tegernau. Die Mitgliedsgemeinden waren Bürchau, Elbenschwand, Neuenweg, Raich, Sallneck, Tegernau, Wies und Wieslet. Mit Bildung der Einheitsgemeinde Kleines Wiesental wurde der Gemeindeverwaltungsverband Kleines Wiesental aufgelöst. Städte und Gemeinden vor der Kreisreform. Vor der Kreisreform 1973 beziehungsweise vor der Gemeindereform gehörten zum (alten) Landkreis Lörrach seit 1936 insgesamt 83 Gemeinden, darunter sechs Städte, wobei die Kreisstadt Lörrach seit 1. April 1956 Große Kreisstadt war. Am 7. März 1968 stellte der Landtag von Baden-Württemberg die Weichen für eine Gemeindereform. Mit dem "Gesetz zur Stärkung der Verwaltungskraft kleinerer Gemeinden" war es möglich, dass sich kleinere Gemeinden freiwillig zu größeren Gemeinden vereinigen konnten. Den Anfang im alten Landkreis Lörrach machte die Gemeinde Fahrnau, die sich am 1. Juli 1971 mit der Stadt Schopfheim vereinigte. In der Folgezeit reduzierte sich die Zahl der Gemeinden stetig. Am 1. Januar 1972 wurde die Gemeinde Degerfelden in die Stadt Rheinfelden (Baden), Landkreis Säckingen, eingegliedert und verließ somit vorübergehend den Landkreis Lörrach. Doch schon am 1. Januar 1973 wurde die Stadt Rheinfelden (Baden) Teil des "neuen" vergrößerten Landkreises Lörrach, der somit wieder alle Gemeinden des alten Landkreises Lörrach umfasst. Die größte Gemeinde des alten Landkreises Lörrach war die Große Kreisstadt Lörrach. Die kleinste Gemeinde war Böllen. Der alte Landkreis Lörrach umfasste zuletzt eine Fläche von 638 km² und hatte bei der Volkszählung 1970 insgesamt 155.089 Einwohner. In der Tabelle wird die Einwohnerentwicklung des alten Landkreises Lörrach bis 1970 angegeben. Alle Einwohnerzahlen sind Volkszählungsergebnisse. Es folgt eine Liste der Gemeinden des alten Landkreises Lörrach vor der Gemeindereform. Alle Gemeinden gehören heute noch zum Landkreis Lörrach. Landkreis Lörrach vor der Kreisreform Kfz-Kennzeichen. Am 1. Juli 1956 wurde dem Landkreis bei der Einführung der bis heute gültigen Kfz-Kennzeichen das Unterscheidungszeichen "LÖ" zugewiesen. Es wird durchgängig bis heute ausgegeben. Einzelnachweise. Lorrach Ludwik Lejzer Zamenhof. Ludwik Lejzer Zamenhof (geboren als "Eliezer Levi Samenhof", auch "Ludwig Lazarus Samenhof",; * 15. Dezember 1859 in Białystok; † 14. April 1917 in Warschau) war ein polnisch-jüdischer Augenarzt und Philologe. Er begründete unter dem Pseudonym "Doktoro Esperanto" (deutsch: "Doktor Hoffender") die Plansprache Esperanto. Sein Geburtstag wird heute von Esperantisten und Esperanto-Sprechern als "Zamenhof-Tag" bzw. Tag des Esperanto-Buches gefeiert. Leben. Zamenhof als Gymnasiast, ca. 1879 Zamenhof wurde am 15. Dezember 1859 (nach dem heutigen, gregorianischen Kalender) in der polnischen, damals zum Russischen Reich gehörenden Stadt Białystok geboren, einer ethnisch gemischten Stadt, in der Polen, Weißrussen, einige Deutsche und vor allem Jiddisch sprechende Juden lebten. Sein Vater Markus (jiddisch Mordechaj) war, wie auch der Großvater, von der jüdischen Aufklärungsbewegung Haskala beeinflusst und suchte gezielt Anschluss an die europäische Kultur bzw. das Land, in dem er lebte. Markus Zamenhof unterschied sich als Atheist und Russe von seiner traditionelleren, religiösen und jiddisch sprechenden Frau Rozalja. Er arbeitete als Sprachlehrer für Französisch und Deutsch, verfasste auch Lehrmaterialien, hatte zeitweise eine Sprachschule, war Schulinspektor und zensierte für das Russische Reich Veröffentlichungen. Schließlich erhielt er den Titel Staatsrat. Der junge Lejzer (später legte er sich nach damaliger Praxis mancher Ostjuden auch einen nichtjüdisch klingenden Vornamen zu, Ludwik) besuchte zunächst die Grundschule in Białystok und nach dem Umzug der Eltern 1874 das Gymnasium in Warschau. Er studierte Medizin, erst in Moskau und später, wegen des wachsenden Antisemitismus in Russland, in Warschau, wo er auch promovierte. Später spezialisierte er sich u.a. in Wien auf die Augenheilkunde. 1887 heiratete er Klara Silbernik (1864–1924), eine Fabrikantentochter, die er in zionistischen Kreisen während seiner Studentenzeit kennengelernt hatte. Mit ihr hatte er die drei Kinder Adam, Sofia und Lidia. Besonders Lidia Zamenhof begeisterte sich bald selbst für Esperanto und lehrte und verbreitete die Sprache auf ihren Reisen durch Europa und Amerika. Lange Zeit hatte Zamenhof Probleme, sich eine wirtschaftliche Existenz aufzubauen, bis es ihm um die Jahrhundertwende gelang, ein befriedigendes Einkommen zu erzielen. Er war bis kurz vor seinem Tod 1917 praktizierender Augenarzt. Zamenhof selbst litt an Herz- und Atemerkrankungen. Zamenhof an seinem Schreibtisch, Warschau 1910 Zionismus. Wie sein Vater, neigte der junge Zamenhof zunächst zur Assimilation, also zum Aufgehen als Jude in einer der europäischen Nationen. Er habe als Kind ein russischer Schriftsteller werden wollen, schrieb er später. Doch die Pogrome von 1882 brachten den jungen Studenten zur frühen zionistischen Bewegung, so gründete er in Warschau eine zionistische Gruppe und erarbeitete auch eine jiddische Grammatik. Um 1885 jedoch fand er, dass das Ziel des Zionismus – eine jüdische Heimstätte in Palästina – nicht realistisch sei: Die hebräische Sprache sei tot, das Nationalgefühl unter den Juden werde vom Zionismus falsch eingeschätzt, und überhaupt sei Palästina für das gesamte Judentum zu klein. Es könne höchstens zwei Millionen Juden aufnehmen, und die übrigen Massen blieben draußen. Stattdessen sah er die Zukunft der Juden eher in einer Welt gesichert, in der religiöse und sprachliche Barrieren abgebaut oder überbrückt werden. Das führte ihn wieder zu internationalistischen Ideen. Als 1914 eine jüdische Esperanto-Vereinigung gegründet werden sollte, antwortete Zamenhof ablehnend: Jeder Nationalismus bringe Schlechtes, daher diene er seinem unglücklichen Volk am besten, wenn er die absolute Gerechtigkeit unter den Menschen anstrebt. Esperanto. Bereits als Kind interessierte sich Zamenhof für Fremdsprachen. Die bevorzugte Sprache des Vaters war Russisch, die der Mutter Jiddisch, auf der Straße dürfte er Polnisch gelernt haben. Wohl früh lernte er Deutsch und Französisch kennen, in der Schule dann Griechisch, Latein und Englisch. Außerdem muss er Hebräisch gut beherrscht haben, aus dem er später das Alte Testament ins Esperanto übersetzte. Er träumte schon früh von einer neuen, leicht zu erlernenden Sprache, die der zerstrittenen Menschheit ein neutrales Instrument liefern könnte. Sein erster Versuch war die heute nur fragmentarisch überlieferte "Lingwe Uniwersale", in der er mit seinen Freunden 1878 auf seinem 18. Geburtstag ein Lied sang. Aus dem weiteren Entwicklungsprozess sind Fragmente vom Stand 1881/82 erhalten, die ebenfalls erst nachträglich veröffentlicht wurden. Gegen 1885 war Zamenhof mit seinem endgültigen Entwurf fertig, den er 1887 in verschiedenen Sprachen veröffentlichte, zuerst am 26. Juli auf russisch. Der deutsche Titel lautete: „Internationale Sprache“, und so hieß zunächst auch die Sprache. Da Zamenhof um seinen Ruf als Arzt fürchtete, gab er die vierzigseitige Broschüre unter dem Decknamen "Dr. Esperanto" heraus. (Esperanto heißt wörtlich "ein Hoffender"). Bald jedoch setzte sich dieses Pseudonym als Synonym für die Sprache selbst durch. In der Folge gelang es Zamenhof – im Gegensatz zu anderen Autoren einer neuen Sprache –, eine Zeitschrift ("La Esperantisto") und jährliche Adressbücher herauszugeben. Da das Volapük des deutschen Geistlichen Johann Martin Schleyer ungefähr zur gleichen Zeit auf seinem Höhepunkt des Erfolges stand, hatte das Esperanto es nicht leicht, und noch schwerer machte es der schnelle Niedergang von Volapük, das Streitigkeiten unter seinen Anhängern zum Opfer gefallen war. Damals entstand die Vorstellung, eine Plansprache müsse automatisch in Dialekte zerfallen. Um 1900 fasste Esperanto, nach dem Russischen Reich und Schweden, auch in Westeuropa Fuß. Bis zum Ersten Weltkrieg wurden Ortsgruppen und Landesverbände von Esperantisten auf allen bewohnten Kontinenten gegründet. Dies befreite Zamenhof von der persönlichen Verantwortung für seine Sprache, die endgültig unabhängig von ihm geworden war. „Menschheitslehre“. Eine Tafel in der ul. Zamenhofa in Warschau erinnert an den Standort des Hauses von Zamenhof, sie ist in polnisch und Esperanto verfasst. Das Haus wurde während des Zweiten Weltkrieges zerstört. Zamenhof war noch von einer anderen Idee fasziniert, nämlich nicht nur eine neutrale Sprache, sondern auch eine neutrale Weltanschauung zu fördern. Er veröffentlichte seine Vorstellungen zuerst als "Hillelismus" (1906), benannt nach einem vorchristlichen, jüdischen Gelehrten namens Hillel, später unter der Esperanto-Bezeichnung "Homaranismo". Übersetzt heißt dies soviel wie „Lehre von der Menschheit“. Die Menschheitslehre war ein Bekenntnis zu Völkerverständigung und religiöser Toleranz, auf der Basis von gemeinsamen Grundsätzen. So sollten die Leute gemeinsam an ein höheres Wesen glauben und ansonsten ihre religiösen Bräuche behalten. Und in Ländern mit verschiedenen Sprachen sollten all diese gleichberechtigte Amtssprachen sein, wobei Esperanto als Brückensprache fungieren sollte. Allerdings blieben die komplizierten Details der multikulturellen Gesellschaft – genau darum dreht sich Zamenhofs Menschheitslehre – ungelöst. Auch unter Esperanto-Sprechern spielt die Lehre, die die meisten Menschen als allgemeinen Humanismus empfinden und gegen sie inhaltlich nichts einzuwenden haben, keine wesentliche Rolle. Letzte Lebensjahre und Nachleben. a>s, Major Neubarth, spricht im Namen der ausländischen Esperantisten bei der Beisetzung Zamenhofs Grabmal auf dem Jüdischen Friedhof in Warschau Büste im Esperantopark in Wien Zamenhof erlebte den Kriegsausbruch 1914 in Köln, auf dem Weg von Warschau nach Paris zum 10. Esperanto-Weltkongress. Nach einem schwierigen Umweg über Skandinavien gelangte er erst Wochen später nach Hause. In seinen letzten Lebensjahren, die durch eine Herzkrankheit beeinträchtigt wurden, intensivierte Zamenhof seine Arbeit an der Esperanto-Bibelübersetzung und verfasste noch eine Denkschrift "An die Diplomaten", die bei den Friedensverhandlungen an die Rechte von Minderheiten denken sollten. Während des Krieges, als Warschau bereits von Deutschland besetzt worden war, besuchten ihn noch Esperanto-Anhänger wie der Schweizer Edmond Privat. Als Zamenhof mit 57 Jahren am 14. April 1917 starb, begleitete eine große Menschenmenge den Leichenzug zum jüdischen Friedhof an der Okopowa-Straße. Dabei waren nicht nur Esperanto-Sprecher, sondern auch viele der armen jüdischen Patienten Zamenhofs. Man erinnerte sich an ihn als einen bescheidenen, etwas schüchternen Mann, sehr idealistisch und angenehm im Umgang. Erst später hat die Forschung ergeben, dass Zamenhof auch nüchtern und abwägend war und es geschickt vermied, sich von Teilen der Anhängerschaft gegen andere instrumentalisieren zu lassen. Noch heute sind seine Aussagen zur Sprache eine der Grundlagen der Esperanto-Akademie. In Bad Kissingen erinnert seit 1991 an ihn der "Esperanto-Platz" neben jenem Gästehaus in der Bismarckstraße 22, in dem sich Zamenhof erstmals 1911 zur Kur aufgehalten hatte. In Berlin-Neukölln, der Wirkungstätte des Esperantisten Wilhelm Wittbrodt, ist der Esperantoplatz auch Zamenhof gewidmet. Ihm zu Ehren gibt es auch eine Zamenhofstraße in Warschau. Familie Zamenhof. Auch die Brüder und Kinder Zamenhofs haben Esperanto gelernt. Nach seinem Tod wurde sein Sohn Adam zu Esperanto-Kongressen als Ehrengast eingeladen. Viele der Nachkommen und Verwandte Zamenhofs haben den Zweiten Weltkrieg und vor allem den Holocaust nicht überlebt. Adam Zamenhof wurde bereits 1940 ermordet. Nach dem Krieg führte seine Frau Wanda Zamenhof das Erbe weiter. Nach ihrem Tod 1954 ist ihr Sohn Louis Christophe Zaleski-Zamenhof (der Enkel des Sprachgründers) überlebender „Vertreter“ der Zamenhof-Familie. Von Beruf Ingenieur, lebt er seit 1959 in Frankreich. Er ist öfters Gast auf Kongressen, spielt aber keine offizielle Rolle in der Sprachgemeinschaft. Lebewesen. Lebewesen sind organisierte Einheiten, die unter anderem zu Stoffwechsel, Fortpflanzung, Reizbarkeit, Wachstum und Evolution fähig sind. Lebewesen prägen entscheidend das Bild der Erde und die Zusammensetzung der Erdatmosphäre (Biosphäre). Neuere Schätzungen lassen vermuten, dass 30 Prozent der gesamten Biomasse der Erde auf unterirdisch lebende Mikroorganismen entfallen. Rezente Lebewesen stammen immer von anderen Lebewesen ab (Abstammungstheorie). Über die Entstehung von Lebewesen aus abiogenen Vorformen wird intensiv geforscht. Die Biologie untersucht die heute bekannten Lebewesen und ihre Evolution sowie die Grenzformen des Lebens (z. B. Viren) mit naturwissenschaftlichen Methoden. Eigenschaften von Lebewesen (Übersicht). Lebewesen kennzeichnende Merkmale findet man vereinzelt also auch bei technischen, physikalischen und chemischen Systemen. Insbesondere zeigt Feuer je nach Interpretation einen großen Teil dieser Eigenschaften. Diese Einschränkung würde aber viele hypothetische Frühstadien der Entwicklung des Lebens sowie rezente Grenzformen des Lebens, wie Viren, kategorisch ausschließen. Ausführlich wird dieser Aspekt im Abschnitt ' behandelt. Aufbau von Lebewesen. Lebewesen bestehen vorwiegend aus Wasser, organischen Kohlenstoffverbindungen und häufig aus mineralischen oder mineralisch verstärkten Schalen und Gerüststrukturen (Skelette). Alle Lebewesen (Pflanzen, Tiere, Pilze, Protisten, Bakterien und Archaeen) sind aus Zellen oder Synzytien (mehrkernigen Zellverschmelzungen, z. B. Ciliaten und viele Pilze) aufgebaut. Sowohl die einzelne Zelle als auch die Gesamtheit der Zellen (eines mehrzelligen Organismus) sind strukturiert und kompartimentiert, das heißt, sie bilden ein komplex aufgebautes System voneinander abgegrenzter Reaktionsräume. Sie sind untereinander und zur Außenwelt hin durch Biomembranen abgetrennt. Jede Zelle enthält in ihrem Erbgut alle zum Wachstum und für die vielfältigen Lebensprozesse notwendigen Anweisungen. Im Lauf des individuellen Wachstums differenzieren sich die Zellen zu verschiedenen Organen, die jeweils bestimmte Funktionen für das Gesamtsystem, das Individuum, übernehmen. Elemente. Neben Kohlenstoff (C), Wasserstoff (H) und Sauerstoff (O) als Hauptelementen des Grundgerüsts der Biomoleküle kommen die Elemente Stickstoff (N), Phosphor (P), Schwefel (S), Eisen (Fe), Magnesium (Mg), Kalium (K), Natrium (Na) und Calcium (Ca) in den Lebewesen vor. Ferner kommen Chlor (Cl), Iod (I), Kupfer (Cu), Selen (Se), Cobalt (Co), Molybdän (Mo) und einige andere Elemente zwar nur in Spuren vor, sind aber dennoch essenziell. Die weitaus häufiger als Kohlenstoff in der Erdkruste vorkommenden Elemente Silicium und Aluminium werden nicht als Bausteine des Lebens genutzt. Edelgase und Elemente schwerer als Iod (Ordnungszahl 53) treten nicht als funktionelle Bausteine von Lebewesen auf. Biochemische Bestandteile. Lebewesen sind vor allem durch in ihnen enthaltende reproduzierende Moleküle gekennzeichnet. Bekannt sind heute die Polynukleotide DNA und RNA, aber auch andere Moleküle haben möglicherweise diese Eigenschaft. Ferner enthalten sie Eiweiße (Proteine), makromolekulare Kohlenhydrate (Polysaccharide) sowie komplexe Moleküle wie Lipide und Steroide. Alle diese Makromoleküle und komplexen Moleküle kommen nicht in der unbelebten Natur vor, sie können von unbelebten Systemen nicht hergestellt werden. Kleinere Bausteine wie Aminosäuren und Nukleotide dagegen sind auch in der unbelebten Natur, zum Beispiel in interstellaren Gasen oder in Meteoriten, zu finden und können auch abiotisch entstehen. Daneben enthalten die Zellen der Lebewesen zu einem großen Teil Wasser und darin gelöste anorganische Stoffe. Alle bekannten Lebensvorgänge finden in Anwesenheit von Wasser statt. Systematik der Lebewesen. Die biologische Systematik versucht, eine sinnvolle Gruppierung aller Lebewesen zu erstellen. Die oberste Stufe wird dabei von den Domänen gebildet. Man unterscheidet nach molekularbiologischen Kriterien drei Domänen: die eigentlichen Bakterien (Bacteria), die Archaeen (Archaea), früher auch Archaebakterien genannt und die Eukaryoten (Eukaryota). Die beiden erstgenannten Domänen enthalten alle Lebewesen ohne Zellkern, die Prokaryoten genannt werden. Die letztgenannte Domäne umfasst alle Lebewesen mit Zellkern, darunter fallen alle Tiere, Pflanzen und Pilze sowie die Protisten. Dabei sind die Eukaryoten und Archaeen näher miteinander verwandt. Das genetische Programm. Wie die komplexen physikalischen Systeme der unbelebten Natur (wie zum Beispiel das Sonnensystem) entstehen auch bei Lebewesen Strukturen durch Selbstorganisation. Darüber hinaus besitzen Lebewesen im Gegensatz zu Systemen der unbelebten Natur das "genetische Programm", welches jedoch ebenfalls in ähnlicher Weise in Systemen der Technik vorkommen kann (siehe Genetische Programmierung). Durch dieses Programm werden Lebensvorgänge ausgelöst, gesteuert und geregelt. Dazu gehört auch die Reproduktion dieses Programms. Dieses Programm ist teleonomisch, ohne teleologisch sein zu können: Es gibt die Richtung der ontogenetischen Entwicklung und des Verhaltens der Organismen vor und grenzt sie in einem gewissen Rahmen von anderen Entwicklungsmöglichkeiten und Verhaltensweisen ab. Fehlen Teile des Programms oder weisen sie Fehlfunktionen auf, können sich – außerhalb eines Toleranzbereiches – langfristig keine überlebensfähigen Organismen entwickeln. Evolution des Lebens. Die Entwicklungsgeschichte des Lebens auf der Erde hat einen einmaligen Verlauf. Auch wenn man die Ausgangsbedingungen wiederherstellen könnte, würde sich möglicherweise ein ähnlicher Ablauf ergeben, wie er schon einmal stattgefunden hat, aber höchstwahrscheinlich nicht exakt der gleiche. Der Grund dafür ist die Vielzahl von zufälligen Zusammentreffen von Einflussfaktoren, die seit dem Beginn des Lebens die weitere Entwicklung bestimmt haben. Diese zufälligen Einflüsse werden durch Selektions- und Anpassungsprozesse teilweise wieder ausgeglichen, trotzdem ist eine genau identische Entwicklung unter realen Bedingungen nicht wahrscheinlich. Die Entwicklung der verschiedenen Arten von Lebewesen wird in der Evolutionstheorie behandelt. Dieser von Charles Darwin begründete Zweig der Biologie erklärt die Vielfalt der Lebensformen durch Variation, Mutation, Vererbung und Selektion. Die Evolutionstheorie behandelt die Veränderung von Lebensformen im Laufe der Zeit und die Entstehung der ersten Lebensformen. Hierzu gibt es eine Reihe von Konzepten und Hypothesen (beispielsweise RNA-Welt, siehe auch Chemische Evolution). Die ältesten bisher gefundenen fossilen Spuren von Lebewesen sind mikroskopische Fäden, die als Überreste von Cyanobakterien gelten. Allerdings werden diese in 3,5 Milliarden Jahre alten Gesteinen gefundenen Ablagerungen nicht allgemein als Spuren von Leben angesehen, da es auch rein geologische Erklärungen für diese Formationen gibt. Die derzeit populärste (autotrophe) Theorie zur Entstehung des Lebens postuliert die Entwicklung eines primitiven Metabolismus auf Eisen-Schwefel-Oberflächen unter reduzierenden Bedingungen, wie sie in der Umgebung von vulkanischen Ausdünstungen anzutreffen sind. Während dieser Phase der Evolution irdischer Lebewesen, die im geologischen Zeitraum vor zwischen 4,6 und 3,5 Milliarden Jahren stattfand, war die irdische Erdatmosphäre wahrscheinlich reich an Gasen wie Wasserstoff, Kohlenstoffmonoxid und Kohlenstoffdioxid, während die heißen Ozeane relativ hohe Konzentrationen an Ionen von Übergangsmetallen wie Eisen (Fe2+) oder Nickel (Ni2+) enthielten. Ähnliche Bedingungen finden sich heute in der Umgebung von hydrothermalen Schloten, die durch plattentektonische Verwerfungen auf dem Meeresgrund entstanden sind. In der Umgebung solcher als Schwarze Raucher (eng.: "black smokers") bezeichneten Schlote, gedeihen thermophile methanogene Archaeen, auf der Grundlage der Oxidation von Wasserstoff und der Reduktion von Kohlenstoffdioxid (CO2) zu Methan (CH4). Dieses extreme Biotop zeigt, dass Leben unabhängig von der Sonne als Energielieferant gedeihen kann, eine grundlegende Voraussetzung für die Entstehung und Aufrechterhaltung von Leben vor dem Aufkommen der Photosynthese. Neuere Ansätze zur Evolutionstheorie gehen davon aus, dass die Evolution nicht an der Art, sondern am Individuum und seinen Genen ansetzt (siehe Soziobiologie und Verhaltensbiologie). Lebewesen der Superlative. Der Pando, eine Baumkolonie mit einem gemeinsamen Wurzelwerk, gilt als das älteste und mit einem Gesamtgewicht von etwa 6000 Tonnen als das schwerste bekannte Lebewesen der Erde. Zum Vergleich: Im Malheur National Forest, Oregon, wurde ein Pilz-Exemplar der Größe von ungefähr 9 Quadratkilometern (965 Hektar) und einem Gewicht von 600 Tonnen gefunden. Dieser Pilz ist der bislang größte Pilz der Erde und gilt – nach dem Pando und vor dem General Sherman Tree – als zweitgrößtes Lebewesen der Erde. Definition der physischen Grenze. Hier ist die äußerste Grenze letztlich die Zellmembran, die Pellicula, die Zellwand oder eine andere einhüllende und begrenzende Struktur. Bei höheren Organisationsstufen übernehmen Abschluss- und Deckgewebe wie Epidermis, Epithel, Haut oder Rinde diese Funktion. Viele Organismen geben Stoffe an die Umwelt ab und schaffen sich damit eine eigene Umwelt im Nahbereich, ein Mikromilieu. Beispiel: Schleimkapsel von Pneumococcus. Hier hängt die physische Abgrenzung des Individuums von der Fragestellung ab. Definition des Individuums. Der Begriff Individuum bedeutet nach seiner lateinischen Herkunft ein Unteilbares. In dieser Bedeutung ist der Begriff nicht für alle Lebewesen praktikabel. Die meisten höheren Tiere kann man nicht teilen, ohne sie oder den abgetrennten Teil damit zu töten. Sie sind nicht teilbar. Einen Hund als Individuum anzusprechen ist daher kein Problem. Von einem „individuellen“ Baum kann man dagegen einen Ableger abteilen und diesen zu einem neuen Exemplar heranwachsen lassen. Damit ist der Baum nicht geteilt – als Baumteil lebt er nicht weiter –, sondern vermehrt. Viele Pflanzen bedienen sich dieses Verfahrens der Ausbreitung systematisch, z. B. durch Ableger. Oft wachsen so ganze Rasen oder Wälder heran, die eigentlich einem einzigen zusammenhängenden Exemplar angehören, das aber jederzeit an beliebiger Stelle geteilt werden könnte. Durch die Möglichkeit des Klonens entsteht die Fähigkeit zur Abtrennung eines neuen lebensfähigen Exemplars, auch für Säugetiere (siehe Klonschaf Dolly). Damit wird der Begriff Individuum für die Biologie mehr oder weniger hinfällig und müsste durch ein anderes Wort ersetzt werden, das besser zutrifft, etwa „Exemplar“. Bei Schleimpilzen und kolonienbildenden Einzellern (Beispiel "Eudorina") lassen sich individuelle, autarke Zellen unterscheiden. Sie gehen aber zumindest zeitweise Verbindungen miteinander ein, in welcher sie ihre Individualität und Unabhängigkeit aufgeben, also einem mehrzelligen Organismus gleichen. Autarkie. Bei der Entwicklung der Systemtheorie durch Physiker, Mathematiker und Techniker gingen diese immer wieder auf Analogien in Struktur und Verhalten von Lebewesen ein. Diese Betrachtung von Lebewesen als Systeme führte dazu, dass Konzepte der Kybernetik, Informatik und der Systemtheorie Eingang in die Biologie gefunden haben, zuletzt und umfassend in der "Systemtheorie der Evolution". Thermodynamische Definition. Lebewesen sind als offene Systeme seit ihrer Existenz stets weit vom thermodynamischen Gleichgewicht entfernt. Sie weisen einen hohen Ordnungsgrad und damit eine niedrige Entropie auf. Diese können nur dadurch aufrechterhalten werden, dass die Erhöhung des Ordnungsgrades energetisch mit Prozessen gekoppelt wird, welche die hierfür notwendige Energie liefern. (Beispiel: Aufbau von organischen Stoffen niedriger Entropie wie Glukose, DNA oder ATP, aus anorganischen Stoffen hoher Entropie wie Kohlenstoffdioxid, Wasser und Mineralsalzen durch Photosynthese und Stoffwechsel.) Tritt der Tod ein, stellt sich das thermodynamische Gleichgewicht ein, der hohe Ordnungsgrad kann nicht mehr aufrechterhalten werden, die Entropie wird größer. Leben kann thermodynamisch als die Rückkopplung eines offenen Systems mit seiner Umgebung verstanden werden, welches auf Kosten dieser die eigene Ordnung aufrechterhält. Diese Definition steht mit einer der möglichen Formulierungen des 2. Hauptsatzes der Thermodynamik in Einklang, nach dem die Änderung der Entropie eines Gesamtsystems Null oder größer Null ist. Damit die Ordnung eines Systems aufrechterhalten bleiben oder zunehmen kann, muss die Unordnung der Umgebung mindestens in gleichem Maße zunehmen, sodass die Änderung des Gesamtsystems in Summe mindestens Null ist. Einordnung der Viren. Viren kommen einerseits als nackte Nukleinsäuren in den Wirtszellen vor, andererseits außerhalb von Zellen als Virionen, die aus der Nukleinsäure und einer Protein­hülle bestehen. Die meisten Wissenschaftler zählen Viren nicht zu den Lebewesen. Wird beispielsweise eine Zellstruktur als grundlegendes Kennzeichen von Lebewesen angesehen, sind Viren nicht zu den Lebewesen zu rechnen, da sie weder Zellen sind noch aus Zellen aufgebaut sind. Zwei weitere Kriterien sind noch wichtiger: Viren haben keinen eigenen Stoffwechsel und sie pflanzen sich nicht selbständig fort. Ihre Vermehrung erfolgt ausschließlich durch die Biosynthese-Maschinerie der Wirtszellen, die dabei durch die Virus-Nukleinsäure gesteuert wird. Eine Einstufung als „Grenzfall des Lebens“ ist jedoch naheliegend. Die Existenz der Viren könnte in der Evolution auf einen Übergang von „noch nicht lebendig“ zu „lebendig“ hinweisen. Allerdings könnten sich die Viren auch aus „echten“ Lebewesen wie den Bakterien rückentwickelt haben. Mittlerweile ist es gelungen, eine Nukleinsäure mit der Sequenz des Poliovirus durch DNA-Synthese künstlich zu erzeugen; auf die gleiche Weise hat man bereits viele weitere DNA- und RNA-Abschnitte für gentechnische Experimente erzeugt. Schleust man dann in dieser Weise erzeugte DNA-Stränge in Zellen ein, entstehen in der Folge komplette, natürliche Polioviren. Das Experiment verdeutlicht, dass die Grenze zwischen Lebewesen und Nicht-Lebewesen schwierig zu bestimmen ist. Viren sind durch Mutationen und Selektion der Evolution unterworfen. Im weiteren Sinne gilt dies aber auch für viele Nicht-Lebewesen, zum Beispiel für einzelne Gene (siehe "Das egoistische Gen"), aber auch für Verhaltensweisen und kulturelle Errungenschaften wie Werkzeuge, Techniken und Ideen (siehe Mem-Theorie). Die Evolution der Viren ist deshalb kein hinreichender Beweis dafür, dass Viren Lebewesen seien. Leipzig. a> ist seit 1905 Sitz der Stadtverwaltung (2010) (Mundart "Leipzsch", "Leibz’sch") ist eine kreisfreie Großstadt im Freistaat Sachsen. Mit 560.647 Einwohnern beziehungsweise amtlich 547.263 per 30. April 2015 ist sie die einwohnerstärkste Stadt des Freistaates vor der Landeshauptstadt Dresden, die elftgrößte Stadt der Bundesrepublik Deutschland sowie die am schnellsten wachsende Großstadt Deutschlands. Sie bildet in Mitteldeutschland ein Zentrum für Wirtschaft, Handel, Verkehr, Verwaltung, Kultur, Bildung und die Kreativszene. Leipzig ist eines der sechs Oberzentren Sachsens und bildet mit der rund 32 Kilometer entfernten Großstadt Halle (Saale) im Land Sachsen-Anhalt den Ballungsraum Leipzig-Halle, in dem etwa 1,1 Millionen Menschen leben. Mit Halle und weiteren Städten in den Ländern Sachsen, Sachsen-Anhalt und Thüringen ist Leipzig Teil der polyzentralen Metropolregion Mitteldeutschland. Nach Verleihung des Stadtrechts und der Marktprivilegien um das Jahr 1165 entwickelte sich Leipzig bereits während der deutschen Ostsiedlung zu einem wichtigen Handelszentrum. Leipzigs Tradition als bedeutender Messestandort in Mitteleuropa mit einer der ältesten Messen der Welt geht auf das Jahr 1190 zurück und war eng mit der langjährigen Rolle Leipzigs als internationales Zentrum des Pelzhandels verknüpft. Deshalb wurde Leipzig am 20. Dezember 1937 offiziell in "Reichsmessestadt Leipzig" umbenannt. Die Stadt ist ein historisches Zentrum des Buchdrucks und -handels. Außerdem befinden sich in Leipzig eine der ältesten Universitäten sowie die ältesten Hochschulen sowohl für Handel als auch für Musik in Deutschland. Leipzig verfügt über eine große musikalische Tradition, die vor allem auf das Wirken von Johann Sebastian Bach und Felix Mendelssohn Bartholdy zurückgeht und sich heute unter anderem auf die Bedeutung des Gewandhausorchesters und des Thomanerchors stützt. Im Zuge der Montagsdemonstrationen 1989, die einen entscheidenden Impuls für die Wende in der Deutschen Demokratischen Republik (DDR) gaben, wurde Leipzig als Heldenstadt bezeichnet. Die informelle Auszeichnung für den so mutigen wie friedlichen Einsatz vieler Leipziger Bürger einschließlich Kurt Masurs im Umfeld der Leipziger Nikolaikirche prägte den Ruf der Stadt nach der Wende und wird beim Stadtmarketing unter dem Motto „Leipziger Freiheit“ aufgegriffen. Darüber hinaus ist Leipzig für seinen Reichtum an aufwändig sanierten bzw. rekonstruierten Kulturdenkmalen und städtischen Kanälen, den artenreichen Zoo sowie das durch Rekultivierung ehemaliger Braunkohletagebaue entstehende Leipziger Neuseenland bekannt. Lage und Morphologie. Leipzig liegt im Zentrum der Leipziger Tieflandsbucht, die den südlichsten Teil der Norddeutschen Tiefebene bildet, und am Zusammenfluss von Weißer Elster, Pleiße und Parthe. Die Flüsse sind im Stadtgebiet vielfach verzweigt und bilden so den Leipziger Gewässerknoten, der von einem großen Auwaldgebiet begleitet ist (siehe nachfolgender Abschnitt). Die Umgebung Leipzigs ist waldarm. Das Gebiet war im 20. Jahrhundert durch umfangreichen Braunkohletagebau geprägt, in dessen Folge nun zahlreiche Seen entstehen. Die Ausdehnung der Stadt beträgt in Nord-Süd-Richtung 23,4 Kilometer und in Ost-West-Richtung 21,3 Kilometer. Die Länge der Stadtgrenze beläuft sich auf 128,7 Kilometer. Im Norden grenzt der Landkreis Nordsachsen an die Stadt, im Süden der Landkreis Leipzig. Der Höhenunterschied im Stadtgebiet beträgt etwa 60 Meter. Die höheren Teile liegen im Südosten und die tieferen im Nordwesten. Der tiefste Punkt mit 97 Meter über Normalnull befindet sich an der Neuen Luppe bei Gundorf. Die höchsten natürlichen Punkte der Stadt sind mit 159 Meter der Monarchenhügel und mit 163 Meter der Galgenberg in Liebertwolkwitz. Übertroffen wird der Monarchenhügel von den Deponien Seehausen () und Liebertwolkwitz (), eine innenstadtnahe Erhebung ist der Schuttberg mit dem Namen Fockeberg (). Obwohl die Weiße Elster der wasserreichste der drei Flüsse im Stadtgebiet ist, wird mit Leipzig vor allem die Pleiße in Verbindung gebracht, da diese mit ihrem Nebenarm, dem Pleißemühlgraben, der Innenstadt am nächsten kommt. Natur und Umwelt. Freilegung eines Abschnittes des verrohrten Pleißenmühlgrabens (Jan. 2007) Entlang der Flüsse zieht sich ein ausgedehntes Auwaldgebiet in Nord-Süd-Richtung durch die Stadt, das im mittleren Bereich zum Teil in Parks umgestaltet wurde. Der Auwald bildet eine klimatisch, ökologisch und für die Erholungsversorgung relevante Grünverbindung vom Leipziger Umland bis in die Kernstadt und hat trotz des jahrhundertelangen unmittelbaren anthropogenen Einflusses eine selten gewordene Flora und Fauna bewahrt. Die enge Verknüpfung zwischen Auwald und städtischer Bebauung ist ein Alleinstellungsmerkmal Leipzigs in Europa. Da sich unter Leipzig und seinem Umland bedeutende Braunkohlelagerstätten befinden, wurde bereits in den 1930er Jahren mit dem industriellen Abbau dieses Rohstoffes in Tagebauweise begonnen. Durch den Bergbau, der sich während der DDR-Zeit immer weiter ausbreitete (Braunkohle war der Hauptenergieträger der DDR), wurden südlich von Leipzig Teile des Auwaldes zerstört. Zahlreiche Hochwasserschutzmaßnahmen, unter anderem der Bau des Elsterbeckens und die Verlegung natürlicher Flussläufe, sowie mit dem Braunkohleabbau verbundene Absenkungen des Grundwasserspiegels führten zu Störungen des hochspezialisierten Ökosystems, das ursprünglich als natürliches Überflutungsgebiet diente. Die Stadt liegt inmitten des Leipziger Gewässerknotens, einem ehemaligen Binnendelta, das z. B. durch die Anlage von Mühlgräben und Hochwasserschutzanlagen häufig umgestaltet wurde. In den 1950er Jahren wurden der Pleißemühlgraben und ein Teil des Elstermühlgrabens – im Mittelalter für den Betrieb von Mühlen teilweise künstlich angelegte Nebenarme der beiden Flüsse Pleiße und Weiße Elster – wegen der Verschmutzung durch Industrieabwässer aus der Braunkohleverarbeitung südlich von Leipzig verrohrt oder verfüllt, so dass Leipzig seinen Charakter als Flussstadt teilweise verlor. Die Einleitung der hochgiftigen Abwässer hatte dazu geführt, dass die Flüsse biologisch tot waren. Seit dem weitgehenden Ende der gewässerverschmutzenden Industrie zu Beginn der 1990er Jahre werden beide Flussläufe nach und nach wieder freigelegt. Heute verlaufen rund 141 Kilometer ständig wasserführende Fließgewässer auf der Stadtfläche, hinzu kommen nur temporär wasserführende Bäche und Gräben. Neben der Gewässerverunreinigung brachte die Braunkohlebefeuerung veralteter Industrieanlagen, die teilweise noch dem Vorkriegsstandard entsprachen, sowie häuslicher Ofenheizungen eine sehr starke Luftverschmutzung mit sich. Die schwefel- und phenolhaltige Luft und der damit einhergehende saure Regen griffen Teile der Bausubstanz, vor allem die aus Sandstein, an. In den 1970er und 1980er Jahren galt Leipzig als eine der mit Umweltgiften am meisten belasteten Großstädte Europas. Nach der „Wende“ führte die Stilllegung der Altindustrie und die Modernisierung der Kraftwerke und häuslichen Heizungsanlagen sehr schnell zu erheblich verbesserten Wasser- und Luftverhältnissen und zu einer sichtbaren Erholung der Tier- und Pflanzenwelt. Leipzig zählt heute mit seinen zahlreichen Stadtparks, wie beispielsweise dem zentrumsnahen Clara-Zetkin-Park und dem Rosental, vielen neu geschaffenen Anlagen in den Wohngebieten sowie den traditionellen Schrebergartenvereinen zu den grünsten Städten Deutschlands. Der Grünflächenanteil wird mit rund 50 %, der Waldanteil mit etwa 7 % beziffert. Bis 2015 sollen der Waldanteil auf 10 % erhöht und Biotopverbünde ausgebaut werden. Leipzig ist seit 2007 Modellregion für das Erprobungs- und Entwicklungsvorhaben „Urbane Waldflächen“ des Bundesamtes für Naturschutz, wobei in Zusammenarbeit mit den zuständigen Stadtämtern Wälder verschiedenen Types auf innerstädtischen Brachflächen angelegt und deren Wirkung auf Klima, Erholungsvorsorge und Naturschutz untersucht werden sollen. Dabei existieren im innerstädtischen Bereich Flächenpotentiale von rund 1850 Hektar. Einen wesentlichen Anteil am Leipziger Stadtgrün haben die Straßenbäume, wobei sie sowohl gestalterische als auch ökologische Funktionen erfüllen. Im Baumkataster der Stadt sind gegenwärtig 57732 Straßenbäume registriert. Das sind mehr als die registrierten Parkbäume. Von den Straßenbäumen sind über 35 % Linden, zur Herkunft des Stadtnamens passend. 38 % der Straßenbäume sind jünger als 20 Jahre, was sowohl aus der Ergänzung alter Bestände als auch aus der sofortigen Bepflanzung neu angelegter Straßen resultiert. Seit Beginn der Aktion "Baumstarke Stadt" im Jahr 1996 konnten durch Spenden (ab 250 € pro Baum) jährlich bis zu 150 Bäume gepflanzt werden. Anfang der 1990er Jahre wurde der Braunkohleabbau gestoppt und mit der Rekultivierung der Tagebaurestlöcher und der Renaturierung des Umfeldes begonnen. Inzwischen sind aus den gefluteten Tagebauen mehrere Seen mit sehr guter Wasserqualität entstanden. Weitere Tagebaue befinden sich noch in der Flutung. Der Kulkwitzer und Cospudener See liegen dem Leipziger Stadtzentrum am nächsten, sie dienen als sehr gut erschlossenes Naherholungsgebiet. Zudem grenzt das Leipziger Stadtgebiet auch an den Zwenkauer See, welcher durch einen Kanal mit den Cospudener See verbunden werden soll. Der so entstehende großflächige Erholungsraum wird als „Leipziger Neuseenland“ auch touristisch vermarktet und soll bei Fertigstellung 70 km² Wasserfläche umfassen. Im Stadtgebiet selbst stehen rund 130 Stillgewässer mit einer Gesamtfläche von 80 Hektar unter städtischer Verwaltung. Um Natur und Landschaft der Region gemeinsam mit den umliegenden Kommunen und Landkreisen zu entwickeln und erlebbar zu machen, ist Leipzig seit 1996 Mitglied im Grünen Ring Leipzig. Am 1. März 2011 wurde ein großer Teil der Stadt zur Umweltzone der Schadstoffgruppe 4 erklärt. Stadtgliederung und Nachbargemeinden. Leipzig ist seit 1992 verwaltungsmäßig in zehn Stadtbezirke gegliedert, die 63 Ortsteile enthalten. Im Gegensatz dazu werden als Stadtteile Gebiete der Stadt bezeichnet, die durch Eingemeindung vorher selbständiger Dörfer entstanden sind. Daher sind Grenzen von Stadt- und Ortsteilen nicht immer identisch. Zur Erreichung etwa gleich großer Verwaltungseinheiten bilden manchmal zwei Stadtteile einen Ortsteil, oder ein Stadtteil wird in mehrere Ortsteile zerlegt. Falls nicht durch Eingemeindung entstanden, entspricht mitunter ein Ortsteil keinem Stadtteil. Klima. Leipzig liegt in der gemäßigten Klimazone, im Übergangsbereich vom ozeanischen Klima Westeuropas zum Kontinentalklima Osteuropas. Die durchschnittliche Jahrestemperatur beträgt 8,4 °C und die mittlere jährliche Niederschlagsmenge 507 mm (Mittel 1972–2001). Im Mittel gab es im gleichen Zeitraum 77 Tage mit Frost, 37 Sommertage und über sieben heiße Tage. Der meiste Niederschlag fällt in den Sommermonaten Juni bis August mit einem Spitzenwert von 58.6 mm im August. Im Februar fällt der geringste Niederschlag mit 27 mm, in den anderen Wintermonaten liegt er etwa bei 30 mm. Der Regenschatten des Harzes erreicht im Leipziger Stadtgebiet seine südöstliche Grenze. Nach Süden schließen sich die Regenstaulagen des Erzgebirges an. Dies äußert sich in einem bedeutenden Niederschlagsgradienten in der Umgebung der Stadt, aber auch innerhalb des Stadtgebietes. Am trockensten ist der Norden Leipzigs, der meiste Niederschlag fällt im Südraum der Stadt, wobei die Jahresdifferenz etwa 100 mm beträgt. Zum Vergleich: In der vollständig im Regenschatten liegenden Stadt Halle (Saale) fallen nur etwa 450 mm Niederschlag im Jahr. Der bisher heißeste Tag war der 9. August 1992 mit 38,8 °C, der kälteste der 14. Januar 1987 mit −24,1 °C. Geschichte. Um das Jahr 900 wurde an beiden Ufern der Parthe eine slawische Siedlung angelegt, wie Grabungen von Herbert Küas im Gebiet des heutigen Matthäikirchhofs bestätigten. Erstmals erwähnt wurde Leipzig 1015, als Thietmar von Merseburg von einer "urbs Libzi" (Stadt der Linden; sorbisch "lipa" = „Linde“) berichtete (Chronikon VII, 25). Noch heute heißt die Stadt auf Sorbisch und Polnisch "Lipsk" („Lindenort“). Als Gründungsjahr der Stadt gilt das Jahr 1165, in dem Markgraf Otto der Reiche von Meißen dem Ort an der Kreuzung der Via Regia mit der Via Imperii das Stadtrecht und das Marktrecht erteilte. Mit der Stadtgründung entstanden die beiden großen Kirchbauwerke – die Thomaskirche und die St.-Nikolaikirche. Der erste Nachweis der Münzstätte Leipzig ist mit Brakteaten der Umschrift MARCHIO OTTO DE LIPPI oder OTTO MARCHIO DE LIPPZINA des Markgrafen Otto des Reichen erbracht worden. Leipzig lag in der Markgrafschaft Meißen, die 1439 im Kurfürstentum Sachsen aufging. Das Kurfürstentum wurde bereits 1485 durch die beiden Brüder Albrecht den Beherzten und Ernst mit der Leipziger Teilung aufgeteilt. Leipzig gehörte danach zum Herzogtum Sachsen, zu dessen Hauptstadt das bis dahin im Vergleich zu Leipzig oder Meißen unbedeutende Dresden ernannt wurde. Leipzig war darin häufig Tagungsort des Landtags. Nach der Verwaltungsreform 1499 lag Leipzig als sogenanntes Kreisamt Leipzig im "Leipziger Kreis," neben dem es sieben weitere im Kurfürstentum gab. Am 2. Dezember 1409 wurde die Universität Leipzig als „Alma Mater Lipsiensis“ gegründet und gehört damit zu den drei ältesten Universitäten in Deutschland. Der Gründungstag ist bis heute der Dies academicus der Universität. 1519 trafen sich Martin Luther, Andreas Karlstadt und Philipp Melanchthon mit dem katholischen Theologen Johannes Eck auf Einladung der Universität in der Pleißenburg zu einem Streitgespräch, das als Leipziger Disputation in die Geschichte einging. Pelzlager am Brühl um 1900 Nach Erhebung zur Reichsmessestadt 1497 und Ausdehnung des Stapelrechts auf einen Umkreis von 115 Kilometer zehn Jahre später durch Kaiser Maximilian I. wurde Leipzig zu einer Messestadt von europäischem Rang. Für den Güteraustausch zwischen Ost- und Westeuropa entwickelte es sich zum wichtigsten deutschen Handelsplatz. Bedeutend für die spätere Entwicklung zur Messestadt war insbesondere der Fellhandel sowie die Weiterverarbeitung zu Pelzhalbfabrikaten für die Kürschnerei und die Herstellung der zugehörigen Werkzeuge und Maschinen. Der Leipziger Brühl wurde neben London zum internationalen Handelszentrum der Pelzwirtschaft, die bedeutende Rolle der Leipziger jüdischen Gemeinde war eng mit ihm verknüpft. Noch 1913 lag der Anteil der Pelzbranche am Steueraufkommen Leipzigs bei 40 Prozent. 1539 wurde die Reformation endgültig durch Luther und Justus Jonas in Leipzig eingeführt. Leipzig war auch vom Schmalkaldischen Krieg 1546 und 1547 betroffen, in dem es für Leipzig und Sachsen vorrangig um die Gleichstellung der protestantischen Konfession ging. Infolge wechselte die Kurwürde an die albertinische Linie, in deren Herzogtum Leipzig lag. In diesen Jahren war die Entwicklung Leipzigs vor allem durch die sich stetig verbessernden Lebensbedingungen gekennzeichnet. Als immer bedeutendere Handels- und Messestadt profitierte Leipzig dabei von einem wohlhabenden Bürgertum. Bereits im 16. Jahrhundert entstand eine Trinkwasserversorgung. 1650 erschienen erstmals die Einkommenden Zeitungen sechsmal pro Woche. Sie gelten damit als älteste Tageszeitung der Welt. Der Dreißigjährige Krieg war ein schwerer Einschnitt in die prosperierende Entwicklung der Stadt, die Bevölkerungszahl ging von 18.000 auf 12.000 zurück. Zwischen 1631 und 1642 wurde die Stadt fünfmal belagert, von 1642 bis 1650 war sie schwedisch besetzt. Am 17. September 1631 war die Leipziger Umgebung mit der Schlacht bei Breitenfeld Schauplatz einer der größten Niederlagen der Kaiserlichen unter Tilly im Dreißigjährigen Krieg. Im heute zu Leipzig gehörenden ehemaligen Rittergut Breitenfeld erinnert ein Gustav-Adolf-Denkmal an den schwedischen Heerführer. Ein Jahr darauf, am 16. November 1632, fiel Gustav Adolf in der Schlacht bei Lützen, etwa zehn Kilometer südwestlich der heutigen Leipziger Stadtgrenze. 1701 wurde in Leipzig eine Straßenbeleuchtung eingeführt. Die etwa 700 Laternen, nach Amsterdamer Vorbild gefertigt und mit Öl betrieben, wurden erstmals am Abend des 24. Dezember 1701 angezündet. Dazu stellte die Stadt sogenannte Laternenwärter ein, die nach einem festen Brennplan dafür zu sorgen hatten, dass die Laternen rechtzeitig angezündet und wieder gelöscht wurden. Während des Siebenjährigen Krieges war Leipzig von 1756 bis 1763 durch Preußen besetzt. a>“ (Zweites Gewandhaus) in der Beethovenstraße, 1898 Im Jahre 1813 fand die Völkerschlacht bei Leipzig im Zuge der sogenannten Befreiungskriege statt. Die verbündeten Heere der Österreicher, Preußen, Russen und Schweden brachten in dieser Schlacht Napoleons Truppen und deren Verbündeten, darunter das Königreich Sachsen, die entscheidende Niederlage bei, die schließlich zur Verbannung Napoleons auf die Insel Elba führte. Am 20. April 1825 wurde der Börsenverein der Deutschen Buchhändler gegründet, zu dem Zeitpunkt war Leipzig eines der Zentren des deutschen Buchhandels und Verlagswesens. Als erste deutsche Fernbahnstrecke wurde 1839 die Leipzig-Dresdner Eisenbahn eröffnet. Leipzig entwickelte sich allmählich zum wichtigsten Verkehrsknotenpunkt in Mitteldeutschland, was sich auch darin äußerte, dass der Leipziger Hauptbahnhof von 1902 bis 1915 einer der seinerzeit größten Kopfbahnhöfe Europas entstand. Am 2. April 1843 begründete Felix Mendelssohn Bartholdy mit dem Conservatorium der Musik die erste Musikhochschule Deutschlands, im selben Jahr erschien die erste Ausgabe der Illustrirten Zeitung. Infolge der Industrialisierung, aber auch vielfältiger Eingemeindungen der Vororte, stieg am Ende des 19. Jahrhunderts die Bevölkerungszahl rasant an. 1871 wurde Leipzig mit 100.000 Einwohnern Großstadt. Im Jahr 1900 konstituierte sich in Leipzig der Deutsche Fußball-Bund. Der VfB Leipzig war 1903 erster deutscher Fußballmeister. a> und Umgebungskarte von Leipzig von 1876 Am 1. Oktober 1879 wurde in Leipzig das Reichsgericht als oberstes Zivil- und Strafgericht des 1871 gegründeten Deutschen Reiches etabliert. Es hatte die Funktion des heutigen Bundesgerichtshofs und war ab 1895 im neuen Reichsgerichtsgebäude (heute Sitz des Bundesverwaltungsgerichts) untergebracht. Während der Leipziger Prozesse wurde versucht, dort Verbrechen des Ersten Weltkriegs aufzuklären und die Täter zu verurteilen. Mit der Machtergreifung der Nationalsozialisten 1933 wurde das Reichsgericht zunehmend vom Regime Hitlers instrumentalisiert. Im Dezember 1933 verhandelte es im Prozess um den Reichstagsbrand gegen Marinus van der Lubbe. Er wurde zum Tode verurteilt und im Januar 1934 in Leipzig hingerichtet. Freisprüche weiterer Angeklagter führten zur Einrichtung des Volksgerichtshofs, um die Justiz bei den Delikten Hoch- und Landesverrat zu zentralisieren. Bis zum Ende des Krieges wurde die Strafpraxis am Reichsgericht verschärft, viele Strafen wurden zu Todesurteilen revidiert. Die Auflösung des Gerichtes erfolgte 1945. Während des Zweiten Weltkrieges kam es in den Jahren 1943 bis 1945 zu mehreren Luftangriffen auf die Stadt, die zu erheblichen Zerstörungen der Innenstadt führten – bis zu 60 Prozent der Bausubstanz waren betroffen – und etwa 6000 Opfer forderten. Am 18. April 1945 erreichten Einheiten der 1. US-Armee die Stadt und errichteten ihr Hauptquartier im Hotel Fürstenhof. Auf Grund des 1. Londoner Zonenprotokolls von 1944 und der Beschlüsse der Konferenz von Jalta gehörte Sachsen zur Sowjetischen Besatzungszone (SBZ) und die Rote Armee übernahm am 2. Juli 1945 Leipzig. Die Sowjetische Militäradministration in Deutschland (SMAD) bildete den Rat der Stadt und die Stadtverordnetenversammlung, deren Zusammensetzung mit Gründung der DDR die Sozialistische Einheitspartei Deutschlands (SED) diktierte. Nach dem Zweiten Weltkrieg ging die wirtschaftliche Bedeutung Leipzigs infolge der Lage in der Sowjetischen Besatzungszone bzw. der DDR stark zurück, was auch in einem kontinuierlichen Rückgang der Einwohnerzahl zu spüren war. Lediglich nach der Vollendung der Teilung Deutschlands durch den 1961 erfolgten Bau der Berliner Mauer erholten sich bis Mitte der 1960er Jahre die Bewohnerzahlen etwas. Zwischen 1950 und 1989 ging die Einwohnerzahl insgesamt um rund 87.000 (über 14 Prozent) auf 530.000 Personen zurück. Von 1952 bis 1990 war Leipzig Hauptstadt des gleichnamigen Bezirks und, gemessen nach Einwohnerzahlen, die zweitgrößte Stadt der DDR. In den Großstädten Berlin, Leipzig und Dresden wurden die meisten Kombinatsleitungen und Stammbetriebe angelegt, so dass sich die wirtschaftliche Bedeutung Leipzigs bezogen auf die DDR bis 1990 erhielt. 1989 leiteten die von der Nikolaikirche ausgehenden Montagsdemonstrationen das Ende der DDR mit ein. Da Gewalt gegen die staatliche Ordnungsmacht und Zerstörungen von den DDR-Behörden propagandistisch ausgenutzt wurden, fanden die Montagsdemonstrationen in Leipzig unter der Losung „Keine Gewalt“ statt. 1990 wurden Leipzig und der größte Teil des Bezirks Leipzig dem Freistaat Sachsen zugeordnet. Leipzig war seitdem Sitz des Regierungsbezirks Leipzig, der am 1. August 2008 im Direktionsbezirk Leipzig aufgegangen ist und am 1. März 2012 aufgelöst wurde. Am 23. September 2008 erhielt die Stadt den von der Bundesregierung verliehenen Titel „Ort der Vielfalt“. Unverändert ist Leipzig als Messe-, Medien- und Universitätsstadt bekannt, wenn auch die Bedeutung geringer ist als vor dem Zweiten Weltkrieg. Namensentwicklung. Der erste schriftliche Beleg Leipzigs erfolgte in der Chronik des Thietmar von Merseburg aus dem Jahr 1015 und lautet "in urbe Libzi vocatur". Weitere Belege zeigen den Namen als "Lipz" oder "Lipsk". Allgemein akzeptiert ist die Etymologie des Ortsnamens Leipzig als vom sorbischen Wort "Lipsk" kommend (gleichlautend aus dem Altsorbischen abgeleitet). Es bedeutet „Linden-Ort“. Im Sorbischen und Polnischen ist "Lipsk" immer noch in Gebrauch, der tschechische Name Leipzigs lautet "Lipsko". Möglich – aber nicht durch handfeste Belege untermauert – ist, dass sich eine ältere, alteuropäische Wurzel im Ortsnamen verbirgt, die erst später zu "Lipsk" wurde. Im Lateinischen wird der Name mit "Lipsia" wiedergegeben. In dem in der Stadt gesprochenen Dialekt, der der Thüringisch-obersächsischen Dialektgruppe angehört, wird der Name der Stadt "Leipzsch" oder "Leibz’sch" ausgesprochen. In der Tragödie Faust verewigte Goethe in einer Szene in Auerbachs Keller seinen Studienort Leipzig als Klein-Paris. Goethe lässt einen Studenten sagen: "Mein Leipzig lob’ ich mir! Es ist ein klein Paris und bildet seine Leute." Die Bezeichnung etablierte sich in der Umgangssprache des zur Großstadt aufstrebenden und fortschrittlichen Leipzig des 19. Jahrhunderts. Einwohnerentwicklung. Leipzig zählt nach umfangreichen Eingemeindungen Ende der 1990er Jahre zu den flächengrößten Städten Deutschlands. Vorher war sie, im Gegensatz dazu, eine der kompaktesten Städte, die 1870 mit 100.000 Einwohnern zur Großstadt wurde. Die gegenwärtige Bevölkerungszahl hatte Leipzig bereits vor 1914 erreicht. Zum Ende des 19. und in den ersten Jahren des 20. Jahrhunderts holte die Bevölkerungszahl Leipzigs sprunghaft auf die größten Städte auf: Vor Beginn des Ersten Weltkriegs war sie mit fast 590.000 Einwohnern die viertgrößte Stadt Deutschlands. Um 1930 hatte die Bevölkerung mit etwas mehr als 700.000 Einwohnern den historischen Höchststand erreicht. Nach einem kriegsbedingten Rückgang stieg die Bevölkerung in Leipzig in den 1960er Jahren wieder auf etwa 600.000 Einwohner. Vor allem seit Ende der 1980er Jahre, aber schon in den 1970er Jahren, hatte die Stadt einen erheblichen Bevölkerungsschwund zu verzeichnen. Der Tiefststand wurde Mitte der 1990er Jahre mit etwas weniger als 440.000 Einwohnern erreicht. Der Bevölkerungsschwund ist einerseits durch Abwanderung in Regionen der westlichen Bundesländer begründet, andererseits durch einsetzende Suburbanisierung. Wie alle größeren Städte versucht Leipzig, die Bevölkerungszahl aktiv zu erhöhen, um die Erträge aus dem Kommunalen Finanzausgleich zu steigern, die über die Schlüsselzuweisung berechnet werden. Durch umfangreiche Eingemeindungen im Jahr 1999 versuchte Sachsen, der Suburbanisierung Leipzigs entgegenzuwirken. Es kamen mehrere große Industriegemeinden hinzu, wodurch sich die Fläche der Stadt etwa verdoppelt hat. Durch diese Eingemeindungen, ansteigende Geburtenraten und eine positive Bilanz bei Zu- und Wegzügen begann die Einwohnerzahl Leipzigs wieder so zu wachsen, dass 2005 die Halbe-Million-Einwohner-Grenze wieder überschritten wurde. Seit 2010 gehört Leipzig zu den am schnellsten wachsenden Städten in Deutschland und erfährt jährlich einen Anstieg von etwa 10.000 Menschen. Damit war Leipzig zwischen 2012 und 2013 die am stärksten wachsende Großstadt Deutschlands und die tatsächliche Entwicklung übertraf jegliche Prognosen. Erklärt wird das starke Wachstum mit dem Zuzug junger Menschen wegen Arbeit bei neuen großen Arbeitgebern und dem Geburtenüberschuss 2013 und 2014, was zuletzt im Jahr 1965 zutraf. Auch die absolute Zahl der Geburten erreichte einen Höchststand. 2014 wurden soviele Kinder geboren wie zuletzt 1988. Dieses unerwartet hohe Wachstum sorgt für Schwierigkeiten bei der Versorgung mit Kitas, Kindergärten und Schulen. Leipzig verzeichnete am 31. Dezember 2014 einen Bevölkerungsanteil mit Migrationshintergrund von 10,8 Prozent. Der Ausländeranteil der Gesamtbevölkerung betrug am 31. Dezember 2013 bei 5,4 Prozent. Damit hat Leipzig den höchsten Bevölkerungsanteil mit Migrationshintergrund unter den Großstädten in Ostdeutschland. Es ist aber im Vergleich mit Großstädten in Westdeutschland ein niedriger Wert. Die größten Gruppen der in Leipzig registrierten Ausländer kamen am Stichtag 31. Dezember 2013 aus der Russischen Föderation (7.053), Polen (3.139), Ukraine (3.131), Vietnam (2.833), und Kasachstan (1.976). Religionen. Die Bevölkerung der Stadt Leipzig gehörte bis zur Reformation zum Bistum Merseburg. Im 13. Jahrhundert entstanden in Leipzig vier Klöster: "St. Paul" (Dominikaner), "St. Thomas" (Augustiner-Chorherren), "Zum Heiligen Geist" (Franziskaner) und "St. Georg" (Zisterzienserinnen und Benediktinerinnen). Erste lutherische Predigten wurden bereits 1522 abgehalten, 1539 wurde die Reformation eingeführt. Gegenwärtig gehören alle lutherischen Kirchengemeinden der Stadt zum Kirchenbezirk Leipzig der sächsischen Landeskirche oder gehören der jeweils altkonfessionellen Evangelisch-Lutherischen Freikirche oder der Selbständigen Evangelisch-Lutherischen Kirche an. Der Kirchenbezirk der sächsischen Landeskirche umfasst auch Gemeinden außerhalb der Stadt. Seit 1697 gibt es in Leipzig wieder katholische Gottesdienste. 1921 wurde das Bistum Meißen (heute Dresden-Meißen) wiedererrichtet, in dem die Messestadt Sitz eines Dekanats ist. Katholische Hauptkirche der Stadt ist die Propsteikirche St. Trinitatis. 2016 findet auf Einladung des Bistums Dresden-Meißen in Leipzig der 100. Deutsche Katholikentag statt. Seit dem Jahr 1700 besteht in Leipzig auch eine evangelisch-reformierte Gemeinde, die zur Evangelisch-reformierten Landeskirche gehört. Neben den beiden großen Kirchen bestehen in Leipzig auch Gemeinden evangelischer Freikirchen wie die Freie evangelische Gemeinde, die Baptisten, Methodisten, Mennoniten und die Siebenten-Tags-Adventisten. Leipzig ist auch Sitz der Bundesverwaltungsstelle der Arbeitsgemeinschaft der Brüdergemeinden im BEFG. Die erste Erwähnung jüdischen Lebens in Leipzig stammt aus einer Urkunde Heinrich des Erlauchten von 1248. Nach 1800 bildete sich erstmals eine Jüdische Gemeinde. Bis zur Zeit des Nationalsozialismus prägten jüdische Bürger die Stadt als Unternehmer, Wissenschaftler, Künstler und Stifter wesentlich mit. 1912 gründete der Rabbiner Ephraim Carlebach die Höhere Israelitische Schule als erste jüdische Schule in Sachsen. Sie bestand bis 1942. 1929 hatte Leipzig mit über 14.000 Mitgliedern die größte jüdische Gemeinde Sachsens und eine der größten Deutschlands. Ab 1933 begann die systematische Auslöschung jüdischen Lebens in der Stadt, die mit der Deportation und Ermordung fast aller Leipziger Juden ihr Ende fand. Nach dem Krieg bestand die Jüdische Gemeinde nur noch aus 24 Mitgliedern. Die Mitgliederzahl stagnierte bis Anfang der 1990er Jahre. 2004 zählte die „Israelitische Religionsgemeinde zu Leipzig“, insbesondere durch die Einwanderung russischer Juden, wieder über 1300 Mitglieder. 2009 wurde ein neues Kultur- und Begegnungszentrum im Ariowitsch-Haus errichtet. Die muslimische Gemeinde in Leipzig ist sehr jung, und der Bevölkerungsanteil der Muslime liegt weit unter dem der Großstädte in den alten Bundesländern, dennoch ist der Islam in der Stadt die zweitgrößte Religion nach dem Christentum. In Leipzig wurden 2009 etwa 10.000 Muslime gezählt, was einem Anteil von ungefähr 2,0 % an der Gesamtbevölkerung entspricht. Die größte Moschee ist die "Ar-Rahman-Moschee". Es gibt eine türkische Gemeinde, welche unter dem Dachverband der Türkisch-Islamischen Union der Anstalt für Religion (DİTİB) steht. Politik. Nach der "Wende" von 1989 wurde die „Stadtverordnetenversammlung“ (seit 1991 wieder Stadtrat) wieder frei gewählt. Erster Vorsitzender war in den Jahren 1990 bis 1994 zunächst der Stadtpräsident Friedrich Magirius (parteilos). Seit 1994 ist der Oberbürgermeister Vorsitzender des Stadtrats. Der Stadtrat wählte anfangs auch den Oberbürgermeister, seit 1994 wird er jedoch direkt von den Leipziger Bürgern gewählt. Oberbürgermeister der Stadt ist seit März 2006 Burkhard Jung (SPD). Er löste Wolfgang Tiefensee (SPD) ab, der die Stadtgeschäfte von 1998 bis 2005 führte, das Amt aber wegen seiner Berufung zum Bundesverkehrsminister am 22. November 2005 niederlegte. Ergebnis der Stadtratswahl vom 25. Mai 2014. Im Stadtrat haben sich folgende Fraktionen gebildet: CDU (18 Mitglieder), Linke (18 Mitglieder), SPD (15 Mitglieder, einschließlich Piraten), Grüne (12 Mitglieder, einschließlich WVL), AfD (4 Mitglieder). Es gibt 3 fraktionslose Mandatsträger: 2 von der FDP und einer von der NPD. Alle Stadträte Leipzigs sind im Transparenzportal "abgeordnetenwatch.de" vertreten. Dort kann jeder Bürger den gewählten Kommunalpolitikern öffentlich Fragen stellen. Ergebnis der letzten Oberbürgermeisterwahl. Die letzten Bürgermeisterwahlen fanden am 27. Januar (erster Wahlgang) und am 17. Februar 2013 (zweiter Wahlgang) statt. Da kein Kandidat im ersten Wahlgang die absolute Mehrheit der Stimmen auf sich vereinen konnte, bedurfte es des zweiten Wahlgangs, in dem bereits die einfache Mehrheit ausreicht. Im ersten Wahlgang kandidierten Burkhard Jung (SPD), Horst Wawrzynski (CDU), Barbara Höll (Linke), Felix Ekardt (Grüne), René Hobusch (FDP) und Dirk Feiertag (parteilos). Im zweiten Wahlgang wurde Burkhard Jung mit 45 Prozent der Stimmen im Amt des Oberbürgermeister bestätigt. Bundestag und Bundespolitik. Das Stadtgebiet ist deckungsgleich mit den Wahlkreisen 153 "Leipzig I" mit gut 200.000 Wahlberechtigten und 154 "Leipzig II" mit gut 210.000 Wahlberechtigten. Seit 2009 vertritt Bettina Kudla (CDU) den Wahlkreis "Leipzig I" und Thomas Feist (CDU) den Wahlkreis "Leipzig II". Damit gingen die Leipziger Direktmandate erstmals seit 1998 nicht an die SPD. Der langjährige Oberbürgermeister Leipzigs, Wolfgang Tiefensee, war von 2005 bis 2009 Bundesminister für Verkehr, Bau und Stadtentwicklung im Kabinett Merkel, sowie der "Beauftragte der Bundesregierung für die neuen Bundesländer". Bereits nach den Wahlen im Jahr 2002 erhielt er von Gerhard Schröder ein Angebot für diesen Ministerposten, lehnte diesen aber mit der Begründung der Verbundenheit mit seiner Arbeit in Leipzig ab. Wappen und Flagge. Das Wappen der Stadt Leipzig zeigt in gespaltenem Schild heraldisch rechts in Gold einen nach rechts aufsteigenden rot gezungten und rot bewehrten schwarzen Meißner Löwen, links in Gold zwei blaue Landsberger Pfähle. Der Löwe der Mark Meißen und die Pfähle der Markgrafen von Landsberg sind alte wettinische Wappenbilder, die auf die Einbindung der Stadt Leipzig ins mittelalterliche Kursachsen verweisen. Nachweisen lässt sich das heutige Wappen erstmals 1468 als Siegel, vorher (um 1287) war auf ihm nur eine Burg beziehungsweise eine Burg mit dem Löwen der Markgrafen zu sehen. Im Volksmund des 17. Jahrhunderts wurde folgende Sage erzählt: Der Löwe habe einst in die andere Richtung geblickt und mit den Tatzen nach den Pfählen gegriffen, sei später aber „zur Strafe“ umgekehrt worden. Tatsächlich wendet sich der Löwe auf Groschen des 15. Jahrhunderts den Pfählen zu. Der Unterschied zum Dresdner Wappen besteht lediglich in der Tingierung der Landsberger Pfähle, der zum Chemnitzer und Delitzscher Wappen in der Anordnung der Schilde. Beim Wappen des ehemaligen Landkreises Leipziger Land wurde dem Leipziger Wappen noch ein Fluss hinzugefügt. Die Stadtfarben sind dem Wappen entsprechend Blau und Gelb. Die Flagge der Stadt besteht aus zwei gleich großen, horizontalen Streifen – oben blau und unten gelb – mit aufgelegtem Stadtwappen. Konsulate und Auslandsvertretungen. In der Stadt befinden sich mehrere Auslandsvertretungen. Von den etwa 40 Konsulaten, die vor dem Zweiten Weltkrieg in Leipzig existierten, sind jedoch nur sehr wenige nach der Wende zurückgekehrt. So besitzen die Vereinigten Staaten, Norwegen und Russland ein Generalkonsulat in Leipzig. Zudem gibt es noch ein griechisches Generalkonsulat, das aber aus Kostengründen geschlossen werden soll. Schweden, die Slowakei, Costa Rica, Sri Lanka, Bosnien-Herzegowina, Italien, Frankreich, Malta und die Mongolei unterhalten in Leipzig ein Honorarkonsulat. Bis 2008 unterhielt Polen ein Generalkonsulat in Leipzig, das aber aus Kostengründen geschlossen wurde. Es soll ein Honorarkonsulat in der Stadt eingerichtet werden. Polen unterhält in Leipzig ein "Polnisches Institut" als Zweigstelle des Polnischen Institutes Berlin. Außerdem befindet sich in Leipzig ein British Council, ein Institut français und ein Konfuzius-Institut. Des Weiteren wurde 2008 von den Niederlanden ein „Netherlands Business Support Office“ (NBSO) in Leipzig eröffnet, das für die wirtschaftlichen Kontakte zwischen der Region und den Niederlanden verantwortlich ist. Um den kulturellen, wirtschaftlichen oder politischen Austausch zwischen Leipzig und anderen Regionen beziehungsweise Staaten zu vertiefen, wurden mehrere Vereine gegründet, wie zum Beispiel das Deutsch-Arabische Kulturhaus, der Deutsch-Irakische Verein oder der Deutsch-Britische Verein. Jugendparlament. Vom 23. bis 29. März 2015 wurde in Leipzig das erste Jugendparlament in einer Online-Wahl gewählt. Die 20 gewählten Parlamentarier im Alter von 14 bis 21 Jahren sollen die Interessen der Jugendlichen in der Stadt vertreten. Deutschlandweit ist Leipzig damit nach Stuttgart die zweite Großstadt, welche eine solche Institution ins Leben ruft. Entwicklung bis 1990. Vor dem Zweiten Weltkrieg war Leipzig nicht nur ein bedeutender Handelsplatz (Leipziger Messe), sondern auch ein bedeutender Industriestandort. Traditionell waren hier Verlagswesen und polygrafische Industrie, Maschinenbau (Pittler Drehmaschinen, Brehmer Druckmaschinen), Förderanlagen- und Seilbahnbau (Adolf Bleichert & Co.), Landmaschinenbau (Pflugfabrik Rud. Sack), Pelzindustrie, Textilindustrie (Leipziger Baumwollspinnerei, Buntgarnwerke Leipzig) ansässig. Ferner war der Klavierbau (Blüthner, Hupfeld, Schimmel, Feurich, Zimmermann) vertreten. In der DDR-Zeit blieb Leipzig ein bedeutender Wirtschaftsstandort. Der Bezirk Leipzig trug 1972 9,3 Prozent zur Industrieproduktion der DDR bei. Neben den bereits erwähnten Wirtschaftszweigen wurde insbesondere der Braunkohleabbau, die Energieerzeugung und die chemische Industrie südlich von Leipzig stark ausgebaut. Mit der Bildung von Kombinaten wurde Leipzig Sitz der Kombinate für Baumaschinen, komplette Anlagen und Erdbewegungsmaschinen (Baukema), Gießereianlagenbau und Gusserzeugnisse (Gisag), polygraphischen Maschinenbau, Rundfunk- und Fernmelde-Technik (RFT), Technische Gebäudeausrüstung (TGA), Tagebauausrüstungen, Krane und Förderanlagen (TAKRAF) und Chemieanlagenbau (Chemieanlagenbau Leipzig-Grimma, CLG). Die fruchtbaren Böden der Leipziger Tieflandsbucht im Leipziger Raum wurden intensiv landwirtschaftlich genutzt. Kennzahlen. Gegenwärtig befinden sich in Leipzig über 38.000 bei der Industrie- und Handelskammer zu Leipzig gemeldete Unternehmen und mehr als 5.100 Handwerksbetriebe (Stand 2011). Leipzig belegte im HWWI/Berenberg-Städteranking 2015 nach München und Berlin den dritten Platz. Öffentliche Investitionen und Subventionen. Wie in allen Städten und Gemeinden in den ostdeutschen Bundesländern flossen hohe Summen staatlicher Gelder nach Leipzig. Die Struktur der Investitionen und Förderungen unterscheiden sich dabei etwas. Vergleichsweise stark wurde die „unternehmensnahe Infrastruktur“ gefördert – im Zeitraum 1990 bis 2005 mit etwa 750 Millionen Euro. Nach Darstellung der Leipziger Wirtschaftsförderung können Zuschüsse für die gewerbliche Wirtschaft auf Grund der Wirtschaftsstruktur in Leipzig hauptsächlich für Großinvestitionen genutzt werden. Sie betrugen von 1990 bis 2005 etwa 650 Millionen Euro. Vergleichsweise wenig wurde für die Technologieförderung aufgebracht, sie summierte sich im Zeitraum 1990 bis 2005 auf 81 Millionen Euro. Leipzig liegt in einer „Ziel-1-Region“ des Europäischen Fonds für regionale Entwicklung. Im Zuge der EU-Osterweiterung erreichen die sächsischen Regionen die Fördergrenze, die sich am Bruttoinlandsprodukt je Einwohner relativ zum EU-Durchschnitt bemisst. Zum Nachteil von Leipzig könnte sich der Umstand entwickeln, dass die anderen sächsischen Großstädte durch strukturschwache Regionen wie dem Erzgebirge oder der Oberlausitz länger in einer „Ziel-1-Regionen“ verbleiben könnten. Die Förderregionen entsprechen den sächsischen Regierungsbezirken. Verschuldung der Stadt Leipzig. Die Verschuldung der Stadt Leipzig begann im Jahr 1992 und erreichte ihren Höchststand Ende 2004 mit einem Schuldenstand von 911,6 Mio. Euro. In den darauffolgenden Jahren wurde die Verschuldung kontinuierlich abgebaut, wobei der größte Sprung 2009 unter anderem durch Rückzahlung der Stadtanleihe von 100 Mio. Euro gemacht wurde. Zum 31. Dezember 2011 bestand das Kreditportfolio aus 101 Krediten mit einem Volumen von circa 733 Mio. Euro. Von 2011 zu 2012 steigt der Schuldenstand der Stadt Leipzig um die Netto-Neuverschuldung von rund 4 Mio. Euro von 733 Mio. Euro auf 737 Mio. Euro. Die Stadt Leipzig plant den vollständigen Schuldenabbau in den nächsten 25 Jahren. Ansässige Unternehmen. Mit der Wende brach, wie in fast allen Regionen der ehemaligen DDR, nahezu die gesamte Industrieproduktion zusammen. Nur wenige Unternehmen blieben nach der Privatisierung erhalten. Es bestehen weiterhin die Maschinenbauunternehmen Kirow Ardelt GmbH (ein Hersteller von Eisenbahnkränen mit etwa 180 Mitarbeitern), TAKRAF GmbH (ein Tochterunternehmen der Tenova S.p.A. und Hersteller von Tagebauausrüstung und -einrichtungen mit etwa 400 Mitarbeitern in Leipzig und Lauchhammer), Gebrüder Brehmer (ein Tochterunternehmen der Heidelberger Druckmaschinen und Hersteller von Buchheftmaschinen mit etwa 280 Mitarbeitern) sowie das Kugel- und Rollenlagerwerk Leipzig (ein Hersteller von Wälzlagern mit etwa 130 Mitarbeitern). Von den Klavierherstellern besteht noch die Julius Blüthner Pianofortefabrik. Das 1852 in Leipzig gegründete "Typographisches Kunst-Institut" Giesecke & Devrient wurde 1948 als "VEB Wertpapierdruckerei" verstaatlicht und ist jetzt wieder als "Giesecke & Devrient GmbH, Wertpapierdruckerei Leipzig" in Leipzig ansässig. Nach der Wende gelangen aber auch einige große Industrieansiedlungen, darunter Siemens (etwa 1700 Mitarbeiter), Porsche (etwa 2500 Mitarbeiter bei Porsche Leipzig sowie weitere 800 in Dienstleistungsbetrieben) und BMW (3700, mit Partnern und Zulieferern über 6500 Mitarbeiter am Standort Leipzig). Mit der Ansiedlung der beiden letzteren konnte sich die Stadt als neuer Automobilstandort etablieren. 2005 stiegen die Leipziger Verkehrsbetriebe (LVB) in den Schienenfahrzeugbau ein. Das Tochterunternehmen HeiterBlick baut seitdem die Straßenbahn Leoliner, die sich mit einem konkurrenzfähigen Preis und ihrer Robustheit vor allem den osteuropäischen Markt erschließen soll. Die LVB beschäftigen über 2300 Mitarbeiter. Auch Unternehmen der Kommunikations- und Informationstechnologien wie die Comparex, die Softline AG oder der überregionale Kabelnetzbetreiber Primacom mit seiner größten ostdeutschen Niederlassung sind in Leipzig beheimatet. Die Unister Holding GmbH, ein auf den Betrieb und die Vermarktung von Webportalen spezialisierter E-Business-Anbieter, hat seinen Hauptsitz in der Leipziger Innenstadt. Die buw Holding GmbH, ein Kommunikationsdienstleister, beschäftigt am Standort Leipzig rund 1100 Mitarbeiter in Callcentern. Neben Frankfurt am Main, München und Stuttgart gilt Leipzig darüber hinaus als überregional bedeutsamer Banken- und Finanzstandort. Ab 2017 wird die Sächsische Aufbaubank (SAB) Ihren Sitz nach Leipzig verlegen. Neben der Sparkasse Leipzig, eine der größten in den neuen Bundesländern, sitzt in Leipzig die Sachsen Bank sowie kleine Bereiche der Landesbank Baden-Württemberg. Die gesamte Region Leipzig ist ein wichtiges Zentrum der Energiewirtschaft und Leipzig tritt als Energiemetropole Leipzig auf. Leipzig betreibt das "Cluster Energie und Umwelt" und hat dort einen Wirtschaftsförderschwerpunkt. 2008 wurde das Deutsche Biomasseforschungszentrum (DBFZ) in Leipzig eröffnet. Der umsatzstarke Energieversorger VNG – Verbundnetz Gas, der für Stadtwerke und kommunale Energieversorger Erdgas bereitstellt, hat in Leipzig seinen Sitz. In der Stadt wird mit der European Energy Exchange (EEX) die größte Energiebörse Kontinentaleuropas betrieben. In Leipzig sitzt zudem die Verwaltung und der Vorstand der Verbio Vereinigte Bioenergie AG. Leipzig besitzt mit den Stadtwerken Leipzig eines der acht großen Stadtwerke, die in den "8KU" organisiert sind. In unmittelbarer Nähe Leipzigs befinden sich das Kraftwerk Lippendorf sowie Photovoltaikparks in Brandis und Espenhain sowie bald auch in Leipzig selbst, in der Nähe des Messegeländes. In Leipzig gibt es zudem einen Verwaltungsstandort der Veolia Wasser. Aufgrund der zentralen Lage entwickelte sich Leipzig zu einem Verkehrs- und Logistikzentrum. Die Logistik ist als Wirtschaftsschwerpunkt im Netzwerk Logistik Leipzig-Halle organisiert. So hat neben den Leipziger Verkehrsbetrieben auch der Mitteldeutsche Verkehrsverbund seinen Sitz in Leipzig. Die DB Netz koordiniert den Regionalbereich Südost von Leipzig aus. Auch das Tochterunternehmen der Veolia Verkehr GmbH, Veolia Verkehr Regio Ost und deren Marke Mitteldeutsche Regiobahn, haben ihren Sitz in Leipzig. Die Logistikbranche ist mittlerweile eine der wachstumsstärksten der Regionen in Deutschland. Schon kurz nach der Wende wurde in der Nähe des Messegeländes ein Quelle-Versandzentrum eröffnet, das allerdings im Zuge der Insolvenz des Unternehmens 2009 schließen musste. Dieses wurde 2012 reaktiviert und ist wieder voll vermietet. Darunter sind Unternehmen wie Momox und diverse Zulieferer der Automobilwerke. Im Herbst 2006 stellte Amazon sein zweites und größtes deutsches Logistikzentrum fertig. 2008 ging das europäische Luftdrehkreuz der Post-Frachttochter DHL in Betrieb, das bisher in Brüssel beheimatet war. Damit sind 3500 Arbeitsplätze direkt am Flughafen entstanden und etwa 7000 in der näheren Umgebung. Das DHL-HUB wird ab 2014 in seiner Kapazität verdoppelt, womit weitere 400 Arbeitsplätze entstehen sollen. Im Norden der Stadt wurde von ProLogis ein Logistikzentrum mit 50.000 m² erbaut, dieses hat 350 Arbeitsplätze geschaffen. Im Norden wurde ein Logistikzentrum der DB Schenker mit 145.000 m² und ca. 800 Arbeitsplätzen geschaffen. Gesundheitswesen. Zentrum für Frauen- und Kindermedizin der Universitätsklinik Klinikum St. Georg in Eutritzsch Die Stadt bekennt sich mit ihrer Wirtschaftsstrategie zum "Cluster Gesundheitswirtschaft & Biotechnologie", unterstützt wird sie vom "Verein zur Förderung der Gesundheitswirtschaft in der Region Leipzig e. V." Die Stadt ist Mitglied des bundesweiten Gesunde-Städte-Netzwerks. Das Universitätsklinikum mit seinen mehr als 4000 Mitarbeitern ist ein Krankenhaus der Maximalversorgung. Seine Vorläufer waren das St. Jacobs-Hospital und das Städtische Krankenhaus St. Jakob. Das 1994 gegründete Herzzentrum Leipzig in Trägerschaft der Helios Kliniken fungiert als Universitätsklinik und ist ein Fachkrankenhaus mit dem Versorgungsauftrag für Herzchirurgie, Kardiologie und Kinderkardiologie. Mit der Kapazität für 420 stationäre und 10 tagesklinische Patienten ist es das größte Herzzentrum der Welt. Das Klinikum St. Georg, das als Spital 1439 von der Stadt übernommen wurde, feierte 2012 sein 800-jähriges Bestehen. Das Klinikum ist ein Krankenhaus der Schwerpunktversorgung und beschäftigt über 3000 Mitarbeiter. Die Infektionszentrale und das Schwerbrandverletztenzentrum besitzen bundesweite Bedeutung. 2006 übernahm das St. Georg das Fachkrankenhaus Hubertusburg in Wermsdorf. Das St. Georg bekam 2011 vom Freistaat den Zuschlag für die Errichtung einer Septischen Chirurgie. In unmittelbarer Nähe des Herzzentrums befindet sich mit dem Park-Klinikum, dem größten Krankenhaus der Regelversorgung (626 Betten, 98 teilstationär, 154 Rehabilitationsplätze) in Sachsen, eine weitere Einrichtung der Helios-Kliniken. In Leipzig gibt es mit dem evangelischen Diakonissenkrankenhaus und dem 1931 eingeweihten St. Elisabeth-Krankenhaus (in katholischer Trägerschaft) noch zwei Krankenhäuser der Regelversorgung. Letzteres ist eines der beliebtesten Krankenhäuser Sachsens. Das bis 2007 betriebene Bundeswehrkrankenhaus in Wiederitzsch will der Erwerber zusammen mit dem ehem. Amberger Bundeswehrkrankenhaus zu einer Fachklinik entwickeln. Leipzig verfügt über zwei zertifizierte Stroke Units (St. Georg, Uni), zwei Brustkrebszentren (St. Elisabeth, St. Georg), drei Darmkrebszentren (Diako, Park-Klinikum, Uni), ein Prostatakrebszentrum (Uni) und ein Hautkrebszentrum (Uni). Die Medica-Klinik für ambulante Rehabilitation und Sportmedizin ist eine der größten Einrichtungen für ambulante Reha in Deutschland und Akademisches Lehrkrankenhaus der Leipziger Universität. In Leipzig haben die Krankenhausgesellschaft Sachsen, der Verband der Privatkliniken in Sachsen und Sachsen-Anhalt und die Landesgeschäftsstelle Sachsen der Barmer GEK ihren Sitz. Im Jahr 1900 wurde in Leipzig der Hartmannbund, ein freier Berufsverband aller Ärzte, Zahnärzte und Medizinstudenten in Deutschland, gegründet. Derzeit ist Thomas Lipp (Leipzig) Vorsitzender des Hartmannbundes in Sachsen. Die Inter-Forum AG in Mölkau, ein Dienstleister für die gesetzlichen Krankenversicherungen, gehört mit mehr als 900 Mitarbeitern zu den 15 größten Unternehmen der Region. Zur Ansiedlung von Unternehmen der Biotechnologie wurde 2003 am Rande des alten Messegeländes die Bio City Leipzig errichtet. Hier befinden sich das Biotechnologisch-Biomedizinische Zentrum der Universität Leipzig sowie verschiedene Unternehmen. U. a. gehörten Vita 34 International, Europas erste und größte private Nabelschnurblutbank, sowie Haema, der größte unabhängige Blutspendedienst Deutschlands, zu den ersten Mietern. Das Leipziger Arzneimittelwerk ging aus einer 1926 in Paunsdorf errichteten Betriebsstätte der Unternehmung Dr. Willmar Schwabe hervor, im Jahr 2000 wurde es von Riemser übernommen und 2013 an die Prange Gruppe weiterveräußert. Leipziger Messe. Das neue Gelände der Leipziger Messe Die Stadt Leipzig ist über die Grenzen Deutschlands hinaus auch durch die Leipziger Messe bekannt. Sie gilt als einer der ältesten Messeplätze der Welt, dessen Tradition auf das vom Meißner Markgrafen Otto dem Reiche im Jahr 1165 verliehene Marktrecht zurückgeht. Im Jahr 1190 wurden der Jubilatemarkt (Ostermarkt) und der Michaelismarkt durch den Meißner Markgrafen Albrecht den Stolzen bestätigt. Ab 1218 ließen sich die ersten urkundlich benannten Kaufleute und Handwerker in Leipzig nieder. 1341 kauften die Tuchmacher ihr eigenes Gebäude am Leipziger Markt, das erste Gewandhaus. Ebenfalls ab dem 13. Jahrhundert wurden in Leipzig Waren mit polnischen und im 14. Jahrhundert mit böhmischen Kaufleuten gehandelt. Ab 1420 wurde der Markt als Umschlagplatz für Nürnberger Kaufleute nach Polen genutzt. 1458 erhielt die Stadt von Kurfürst Friedrich II. das Recht für den Neujahrsmarkt. Von diesem Zeitpunkt an war die Stadt ein bedeutender Umschlagplatz für Metalle, Pelze, Seide, Edelsteine, Zinn und sächsisches Silber. 1497 verlieh der römisch-deutsche König und spätere Kaiser Maximilian I. Leipzig das Reichsmesseprivileg. 1507 erhielt die Stadt das Stapelprivileg, was bedeutet, dass im Umkreis von 115 Kilometern keine Messen veranstaltet werden durften. Auch war das Lagern von Gütern vor der Stadt verboten. Seit 1573 war es der Stadt gelungen, feste Handelsbeziehungen nach Moskau aufzubauen. 1824 wurde Leipzig zum Welthandelsplatz, als auch Händler aus Nordamerika, Brasilien, Argentinien und Indien an der Messe teilnahmen. 1833 wurden alle Privilegien vom Deutschen Zollverein für ungültig erklärt. Allerdings hatte sich Leipzig zu der Zeit schon als Messestandort etabliert, weswegen sich der größte Konkurrent (Frankfurt) nicht durchsetzen konnte. Zum Frühjahr 1895 erfolgte die Umstellung von einer Waren- zur weltweit ersten Mustermesse. In der Zeit des Nationalsozialismus wurde die Leipziger Messe dem Reichsministerium für Volksaufklärung und Propaganda unterstellt und zur einzigen „Allgemeinen internationalen Messe auf deutschem Boden“ erklärt. 1938 wurde Leipzig zur "Reichsmessestadt" ernannt. Während der Zeit des Bestehens der Deutschen Demokratischen Republik waren die Frühjahrs- und Herbstmessen ein wichtiger Treffpunkt des Handels zwischen Ost und West. Mit der Wiedervereinigung wurden die beiden saisonalen Universalmessen von Fachmessen abgelöst. Im Jahr 1996 wurde ein neues und modernes Messegelände am Stadtrand erbaut und begonnen, neue Nutzer für die Alte Messe Leipzig zu suchen. Die Messegesellschaft steht seither national in Konkurrenz mit vielen, oft erheblich größeren Standorten wie Hannover, Frankfurt oder Düsseldorf und muss sich in einem engen Markt behaupten. Zu den wichtigsten Messen des Jahres zählen heute die Leipziger Buchmesse, die Zuliefermesse Z sowie die Industriemesse Intec, die Publikumsmesse Haus Garten Freizeit, die Messe Touristik & Caravaning International sowie die Auto Mobil International. Mit der Games Convention (GC) konnte erstmals eine Messe etabliert werden, die in Europa Alleinstellungsmerkmale besitzt. Die GC wurde jedoch im Sommer 2008 durch den Branchenverband BIU als gamescom nach Köln verlegt, mit der Begründung, man habe dort bessere Wachstumsmöglichkeiten. Die Leipziger Messe hatte sich zunächst entschieden, diese Unterhaltungssparte nicht ganz aufzugeben und dafür 2009 die Games Convention Online gegründet, eine Messe die ausschließlich auf Onlinespiele fokussiert war. Es gelang jedoch nicht, diese Messe zu etablieren, sodass sie nach nur zwei Auflagen seit 2011 nicht mehr stattfindet. Zur Leipziger Messe gehört mit dem Congress Center Leipzig (CCL) auch ein internationales Kongresszentrum. Das CCL ist Standort für viele internationale Großkongresse aus den Bereichen Medizin, Industrie und Dienstleistung. Das CCL wurde vom britischen Fachmagazin "Business Destinations" zum „Besten Kongresszentrum Europas“ gekürt. Funk- und Fernsehsender. Leipzig ist Hauptsitz des Mitteldeutschen Rundfunks (MDR). Die Media City Leipzig, ein Studiokomplex für Fernseh- und Filmproduktionen, an der der MDR beteiligt ist, befindet sich in unmittelbarer Nähe. Die Privatsender Radio PSR, Energy Sachsen, R.SA und Radio Leipzig, Deutschlands erstes lizenziertes Universitätsradio Mephisto 97.6 und das Freie Radio Radio Blau produzieren hier ihr Programm. Aber auch neue Medien wie das Internetradio detektor.fm haben ihre Studios in Leipzig. Aus dem Studio von Radio PSR sendete bis zum 31. Januar 2014 außerdem der Radiosender 90elf, der 24 Stunden am Tag über Bundesligaspiele berichtete. Leipzig Fernsehen und info tv leipzig sind lokale Fernsehsender. Leipzig ist Sitz der Sächsischen Landesanstalt für privaten Rundfunk und neue Medien. Presse. Leipzig hat eine weit zurückreichende Tradition als Pressestadt mit zahlreichen Zeitungs- und Zeitschriftenredaktionen. Hier gab Timotheus Ritzsch von 1650 an die täglich erscheinenden "Leipziger Einkommenden Nachrichten" als erste Tageszeitung der Welt heraus; von 1660 an trug sie den Titel "Neu-einlauffende Nachricht von Kriegs- und Welt-Händeln". Seit 1894 gibt es als heute einzige Tageszeitung die "Leipziger Volkszeitung", zudem eine regionale Ausgabe der "Bild-Zeitung". Darüber hinaus werden mehrere Stadtmagazine, Kultur- und Wirtschaftsjournale publiziert, u. a. der "Kreuzer" und die "LZ Leipziger Zeitung". Buchstadt Leipzig. Buchwand im Haus des Buches, bei der Bücher statt Steinen verwendet wurden. Die Geschichte Leipzig als Druckort geht bis ins 16. Jahrhundert zurück. Ab dem 17. Jahrhundert gewinnt die Leipziger Buchmesse größere Bedeutung. Im Laufe des 19. Jahrhunderts hatte sich Leipzig als zentrale Schnittstelle und Hauptumschlagplatz des deutschen Buchgewerbes etabliert. Rund 1500 Firmen des herstellenden und vertreibenden Buchhandels, der polygrafischen Industrie sowie die zentralen Branchenverbände waren hier ansässig. Dazu zählten neben Verlagen wie Baedeker (Fritz Baedeker), Brockhaus (Bibliographisches Institut & F. A. Brockhaus), S. Hirzel Verlag, Insel Verlag, Gustav Kiepenheuer Verlag, C. F. Peters (Edition Peters), Reclam-Verlag, E. A. Seemann, B. G. Teubner und Georg Thieme auch die großen Firmen des Zwischenbuchhandels, Maschinenbauunternehmen, Buchbindereien, grafische Anstalten und Druckunternehmen (Giesecke & Devrient, Offizin Haag-Drugulin u. v. a.). Nahezu jeder zehnte Einwohner war in einem dieser Gewerbe tätig. Ein Beispiel für einen besonders vielseitigen Vertreter der Branche gibt Carl Berendt Lorck; er war als Buchhändler, Buch- und Presseverleger, Buchhistoriker, Typograf, Drucker und Autor aktiv. Im Ausland war die "Buchstadt Leipzig" als "City of Books" bekannt. Ihre Hochphase hatte sie Ende des 19. bis Anfang des 20. Jahrhunderts. Im Zweiten Weltkrieg hatten insbesondere die Verlage unter starken Restriktionen zu leiden. Das sogenannte Graphische Viertel, in dem sich ein Großteil der Firmen konzentrierte, wurde in den Bombenhageln fast vollständig zerstört. Die Teilung Deutschlands führte auch zur Teilung von Verlagen und anderen Unternehmen, die fortan in Westdeutschland und Leipzig parallel agierten. In der DDR konnte sich Leipzig zwar weiterhin als Buchstadt behaupten, jedoch nicht mehr mit seiner früheren Bedeutung. Nach der Wiedervereinigung wurden dann die Leipziger Parallelverlage an ihre westdeutschen Alteigentümer restituiert und teilweise als Zweigniederlassungen weitergeführt, jedoch früher oder später geschlossen (Brockhaus, Hirzel, Insel, List, Reclam, Teubner, Thieme). Andere Verlage wurden verkauft und sind teilweise heute noch in Leipzig ansässig (E.A. Seemann, St. Benno, Koehler & Amelang, Buchverlag für die Frau, u.a.). Parallel gab es nach 1989 viele Neugründungen und Neuansiedlungen (z. B. Klett-Verlag, Connewitzer Verlagsbuchhandlung, Evangelische Verlagsanstalt, Voland & Quist, Faber & Faber, Lehmstedt). Die Leipziger Buchmesse mit dem größten Lesefestival Europas "Leipzig Liest", die Deutsche Nationalbibliothek, zahlreiche Ausbildungsstätten, Dauerausstellungen und Museen zeugen noch heute von der Buchstadt Leipzig. Die Stadt hatte eine große Bedeutung in der deutschen Enzyklopädik. Jahrzehntelang hatten mit dem Verlag F.A. Brockhaus und dem Bibliographischen Institut die beiden wichtigsten deutschen Lexikonverlage ihren Sitz in der Stadt. Unterlagen aus Unternehmensarchiven zu vielen dieser Unternehmen lagern im Staatsarchiv Leipzig. Justiz. Das Bundesverwaltungsgericht wurde am 26. August 2002 von Berlin nach Leipzig verlegt und hat seinen Sitz im Reichsgerichtsgebäude. Auch der 5. Strafsenat des Bundesgerichtshofes sowie eine Dienststelle des Generalbundesanwaltes sind in Leipzig angesiedelt. Außerdem sind das Sächsische Finanzgericht und Verfassungsgericht in Leipzig beheimatet, und weiterhin gibt es mehrere Gerichte der unteren Instanzen wie das Landgericht, Amtsgericht, Sozialgericht, Verwaltungsgericht und ein Arbeitsgericht. Wirtschaft. Die Bundesnetzagentur für Elektrizität, Gas, Telekommunikation, Post und Eisenbahnen unterhält eine Außenstelle in Leipzig. Weitere öffentliche Einrichtungen sind die Handwerkskammer und die Industrie- und Handelskammer zu Leipzig. Die Hauptverwaltung der Deutschen Bundesbank für die Freistaaten Sachsen und Thüringen ist ebenfalls in der Stadt angesiedelt. Die Sparkasse Leipzig, die für die Stadt Leipzig und die umliegende Landkreise Leipziger Land und Nordsachsen zuständig ist, ist die wichtigste öffentliche Einrichtung auf dem Finanzsektor. Die 2008 erloschene Landesbank Sachsen hatte hier ebenfalls ihren Hauptsitz. Seit dem 1. April 2008 existiert die daraus entstandene Sachsen Bank, eine rechtlich unselbständige Anstalt des öffentlichen Rechts der Landesbank Baden-Württemberg (LBBW) mit Sitz in Leipzig. Auch die Deutsche Rentenversicherung Mitteldeutschland und der Kommunale Sozialverband Sachsen (KSV) haben ihre Hauptgeschäftsstellen in Leipzig. Durch bekanntgegebene geplante Änderungen und Umstrukturierungen innerhalb der sächsischen Verwaltung wird auch die Sächsische Aufbaubank in den kommenden Jahren ihren Hauptsitz von Dresden nach Leipzig verlegen, um den Finanzsektor und Bankenstandort Leipzigs zu stärken. Im Zuge der Reform wird der Sächsische Rechnungshof zum Jahr 2020 von Leipzig nach Döbeln umziehen. Wissenschaft. Leipzig beherbergt drei Max-Planck-Institute (für evolutionäre Anthropologie (MPI-EVA), Kognitions- und Neurowissenschaften (MPI-CBS) und Mathematik in den Naturwissenschaften (MPI-MIS)), das Fraunhofer-Institut für Zelltherapie und Immunologie (IZI), das Fraunhofer-Zentrum für Mittel- und Osteuropa (MOEZ), die Leibniz-Institute für Troposphärenforschung (TROPOS), Oberflächenmodifizierung (IOM) und Länderkunde (IfL) sowie das Helmholtz-Zentrum für Umweltforschung – UFZ. Seit 2008 befinden sich außerdem das Deutsche Biomasseforschungszentrum sowie das Deutsche Zentrum für integrative Biodiversitätsforschung in Leipzig. Die Stadt Leipzig ist weiterhin „Korporativ Förderndes Mitglied“ der Max-Planck-Gesellschaft. Die Sächsische Akademie der Wissenschaften wurde als wissenschaftliche Organisation 1846 in Leipzig gegründet und hat hier bis heute am Standort der Sächsischen Landesuniversität ihren Sitz. Städtebau. Blick vom City-Hochhaus nach Westen, Dezember 2013 Leipzig verfügt noch über einen beträchtlichen Teil der Vorkriegsbebauung, die während der Gründerzeit, um die Jahrhundertwende sowie in der Weimarer Republik entstand. Diese kompakten Altbauviertel wurden zu DDR-Zeiten vernachlässigt und verfielen. Stattdessen wurde zwischen 1960 und 1980 auf Großsiedlungen, wie Grünau und Paunsdorf, gesetzt, die etwa 40 Prozent der nach 1945 in Leipzig entstandenen Wohnungen ausmachen. Eine Umstellung der Wohnungsbaupolitik in Richtung auf den Grundsatz der „Stadterneuerung im Bestand“ hat nun die großflächige Restaurierung der Gründerzeitquartiere zum Ziel. Leipzig stand 1990 vor dem Problem, dass 196.000 der 257.000 Wohnungen sanierungsbedürftig waren. In den Gründerzeitvierteln waren davon 103.000 Wohnungen betroffen. Ein Großteil der Quartiere in Plagwitz, Reudnitz und Connewitz war baufällig und drohte einzustürzen. Die Dächer waren nur notdürftig repariert, mehrere Straßenzüge komplett und dauerhaft eingerüstet, um Passanten vor herabfallenden Gebäudeteilen zu schützen. Mit der politischen Wende in der DDR nahmen sich die Medien dieses Problems an. Das DDR-Fernsehen sendete im November 1989 die aufsehenerregende Reportage „Ist Leipzig noch zu retten?“, die den Verfall Leipzigs am Beispiel des Stadtteils Plagwitz ungeschminkt darstellte. Insgesamt konzentriert sich die Stadterneuerung im Bereich der Gründerzeitbebauung auf 13 Gebiete mit 464 Hektar und 29.000 Wohnungen. Ein Beispiel dafür ist das zwischen der Innenstadt und dem Rosental gelegene Waldstraßenviertel. Es ist heute eines der wenigen vollständig erhaltenen Gründerzeit-Wohngebiete in Deutschland. Auf einer Fläche von über 100 Hektar sind von 845 Gebäuden 626 als Einzeldenkmale ausgewiesen. Für ihre Strategie zum Erhalt dieses Ensembles erhielt die Stadt beim Bundeswettbewerb vom Bundesministerium für Raumordnung, Bauwesen und Städtebau 1994 eine Goldmedaille. Auch ein Großteil der übrigen Altbausubstanz wurde saniert. Direkte und indirekte staatliche Fördermodelle wie Investitionszulagen und Sonderabschreibungen trieben den Sanierungsprozess dabei wesentlich voran. Der Anteil des Wohnungsneubaus blieb dabei im Vergleich zur Zahl der Sanierungen von Altsubstanz sehr gering. Mit einer einsetzenden Suburbanisierung in neu entstandene Einfamilienhaussiedlungen und der überregionalen Abwanderung in den 1990er Jahren führte dies aufgrund fehlender Lenkungsmaßnahmen zu einem großen Überhang an Wohnraum. Der Leipziger Wohnungsmarkt ist dadurch heute stark gesättigt. Investitionen in verbliebene unsanierte Objekte verringerten sich entsprechend der Marktsituation erheblich und erfolgten seitdem wesentlich gezielter meist in den attraktiveren Wohnlagen, die aufgrund der dort höheren Wohnraumnachfrage höhere Grundmieten ermöglichen. Diese grundsätzliche Bevorzugung gegenüber unattraktiveren Gebieten ist nach wie vor erkennbar, obwohl das Investitionspotenzial in den attraktiveren Vierteln mit einem hohen Sanierungsstand nahezu ausgeschöpft ist. Daraus resultierend ist seit 1997 eine heterogene Entwicklung zwischen attraktiveren Standorten und solchen Altbauvierteln erkennbar, die in ihrer Entwicklung und Erneuerung zurückbleiben. Standen von den gründerzeitlichen Wohnungen, die saniert wurden, im Jahr 2000 etwa 2 Prozent leer, so waren von den unsanierten Wohnungen 71 Prozent unbewohnt. Seitdem hat die Nachfrage nach Gründerzeitwohnungen stark angezogen, der Leerstand betrug 2006 nur noch 15 Prozent. Aufgrund ihrer höheren baulichen und architektonischen Qualität und der oftmals besseren Lage werden die sanierten Altbaustandorte den nunmehr ebenfalls größtenteils sanierten Großwohnsiedlungen vorgezogen. Dies führt zu einer beginnenden Verödung der Neubauviertel in Plattenbauweise. Dort wird versucht, mit teilweisem Rückbau und Umfeldaufwertungen eine Gesundung der Immobilienstruktur in der Stadt zu erreichen. Eine intensive Bautätigkeit wie auch der Immobilienskandal um Jürgen Schneider in den 1990er Jahren betrafen insbesondere die Leipziger Innenstadt, darunter 15 besonders wertvolle und aufwändig restaurierte historische Immobilien wie die Mädlerpassage und Barthels Hof. Universität Leipzig. Die 1409 gegründete Universität Leipzig "(Alma Mater Lipsiensis)" ist die zweitälteste durchgehend bestehende Universität auf dem Gebiet der heutigen Bundesrepublik Deutschland. Sie wurde 1953 in Karl-Marx-Universität umbenannt, 1991 wurde der Namenszusatz wieder entfernt. Anfang der 1990er Jahre wurde nach der „Abwicklung“ der Deutschen Hochschule für Körperkultur (DHfK) als Ersatz eine Sportfakultät gegründet und die ehemalige "Pädagogische Hochschule „Clara Zetkin“" angeschlossen. Die Universität hat heute 14 Fakultäten und einige angeschlossene Institute wie das Herder-Institut und das aus dem Literaturinstitut "„Johannes R. Becher“" der DDR hervorgegangene Deutsche Literaturinstitut (DLL). An dieser im deutschsprachigen Raum einmaligen Lehranstalt werden in einem künstlerischen Studiengang Schriftsteller ausgebildet. Im Jahr 2009 fanden vom 9. Mai bis Mitte Dezember die Jubiläumsfeierlichkeiten zum 600. Geburtstag der Alma Mater Lipsiensis statt. An der Leipziger Universität wurden einige bahnbrechende Forschungsleistungen erzielt. Hier unterrichteten unter anderem die Nobelpreisträger Werner Heisenberg, Gustav Hertz, Nathan Söderblom und Wilhelm Ostwald sowie der Begründer der experimentellen Psychologie Wilhelm Wundt. In den Fächern Soziologie und Psychologie wurde hier eine sogenannte „Leipziger Schule“ begründet. Prominente Studenten an der Universität waren unter anderem Georgius Agricola, Tycho Brahe, Johann Gottlieb Fichte, Johann Wolfgang von Goethe, Ulrich von Hutten, Erich Kästner, Gottfried Wilhelm Leibniz, Gotthold Ephraim Lessing, Karl Liebknecht, Angela Merkel, Thomas Müntzer, Friedrich Nietzsche, Novalis, Leopold von Ranke, Ferdinand de Saussure, Robert Schumann, Johann Gottfried Seume, Georg Philipp Telemann und Richard Wagner. Hochschulen. Hochschule für Grafik und Buchkunst Die Hochschule für Grafik und Buchkunst Leipzig (HGB) wurde bereits 1764 als "Zeichnungs-, Mahlerey- und Architecturakademie" gegründet. Einer ihrer berühmtesten Studenten war Johann Wolfgang Goethe. 1901 wurde die Einrichtung in "Königliche Akademie für graphische Künste und Buchgewerbe" umbenannt, 1947 erhielt sie ihre heutige Ausprägung. Die HGB zählt zu den renommiertesten Kunsthochschulen Deutschlands. Nachdem sich hier bereits in den 1970er und 1980er Jahren mit der Leipziger Schule eine eigene Strömung in der Malerei gebildet hatte, wurde Ende der 1990er Jahre Werke von Neo Rauch und andere Künstlern als sogenannte „Neue Leipziger Schule“ bezeichnet. Die Hochschule für Musik und Theater „Felix Mendelssohn Bartholdy“ Leipzig entstand im Jahre 1843 als "Leipziger Konservatorium" und war die erste höhere musikalische Bildungsstätte in Deutschland. Einer ihrer Mitbegründer war Felix Mendelssohn Bartholdy. 1992 wurde durch die Eingliederung der Theaterhochschule „Hans Otto“ das Ausbildungsprofil erweitert. Die Handelshochschule Leipzig (HHL) wurde am 25. April 1898 gegründet und zählt heute zu den besten Business Schools Deutschlands. Zudem befindet sich mit der Designschule eine Akademie für die Bachelor-Studiengänge Game-, Grafik- und Modedesign in Leipzig. Fachhochschulen. Die Hochschule für Technik, Wirtschaft und Kultur Leipzig (HTWK) trägt seit 1992 ihren heutigen Namen und entstand aus der "Technischen Hochschule Leipzig". Letztere wurde 1977 durch die Zusammenlegung der "Hochschule für Bauwesen Leipzig," der "Ingenieurhochschule Leipzig," der "Fachschule für Bibliothekare und Buchhändler," der "Fachschule für wissenschaftliches Bibliothekswesen" sowie dem "Institut für Museologie" gebildet. Mit etwa 6300 (Stand Sommersemester 2009) immatrikulierten Studenten ist die HTWK Leipzig die größte Fachhochschule Sachsens. Die Hochschule für Telekommunikation (HfTL) ist eine Fachhochschule in privater Trägerschaft der Deutschen Telekom AG und wurde 1991 als „Fachhochschule der Deutschen Bundespost TELEKOM“ durch den Freistaat Sachsen staatlich anerkannt. Weitere höhere Bildungseinrichtungen sind die AKAD-Fachhochschule Leipzig, die "Hochschule für Kreativitätspädagogik" (HfK), die DIPLOMA – FH Nordhessen und die "Studienakademie Leipzig," eine Zweigstelle der Berufsakademie Sachsen. Im Jahr 2008 eröffnete die Essener FOM Hochschule für Oekonomie & Management ein Studienzentrum in Leipzig. Die Deutsche Hochschule für Prävention und Gesundheitsmanagement betreibt außerdem noch ein Studienzentrum in der Stadt. Allgemeinbildende Schulen. Aufgrund der wachsenden Einwohnerzahl ist auch die Anzahl der allgemeinbildenden Schulen in den letzten Jahren wieder gestiegen. So beherbergt die Stadt momentan 76 Grundschulen, 28 Oberschulen, 21 Gymnasien, 18 Förderschulen sowie eine freie Waldorfschule. Außerdem ist Leipzig auch einer der Standorte der Bernd-Blindow-Schule, an denen berufliche Aus- und Weiterbildung, die Fachhochschulreife, das Abitur und sogar verschiedene Studiengänge angeboten werden. Deutsche Nationalbibliothek Leipzig. Die Deutsche Bücherei wurde 1912 in Leipzig gegründet und diente bis zur deutschen Teilung als alleinige Sammelstätte für die gesamte deutschsprachige Literatur ab 1913. 1990 wurde sie in "Die Deutsche Bibliothek" integriert, seit 2006 ist sie Teil der Deutschen Nationalbibliothek (DNB), zu der auch die 1947 gegründete Deutsche Bibliothek in Frankfurt am Main und das 1970 gegründete Deutsche Musikarchiv gehören. Letzteres ist inzwischen von Berlin nach Leipzig umgezogen. Verkehr. Leipzig war durch die Lage an der Kreuzung der Fernstraßen Via Regia und Via Imperii bereits frühzeitig ein wichtiger Verkehrsknotenpunkt. Die erste deutsche Fernbahnstrecke der Leipzig-Dresdner Eisenbahn-Compagnie führt seit 1839 von Leipzig nach Dresden. Insbesondere durch die nach der 1990 investierten Mittel für die Modernisierung und den Ausbau der Fernstraßen-, Schienen- und Flugverkehrsanbindung kann Leipzig heute eine hervorragende Verkehrsinfrastruktur vorweisen. Es ist festzustellen, dass der Anteil der im PKW zurückgelegten Wege zurückgegangen ist, während der Anteil von Fußverkehr, Radverkehr sowie öffentlichem Verkehr gestiegen ist. Der zuständige Bürgermeister Martin zur Nedden spricht von einer „positiven Entwicklung im Sinne der Leitlinien“. Schienenverkehr. Der 1915 eröffnete Leipziger Hauptbahnhof ist hinsichtlich der überbauten Fläche der größte Kopfbahnhof Europas. Gleichzeitig ist er ein überregional wichtiger Knotenpunkt im ICE- und Intercity-Netz der Deutschen Bahn sowie Verknüpfungspunkt des S-Bahn- und Regionalverkehrs im Großraum Halle/Leipzig. In Leipzig kreuzen sich die Intercity-Express-Strecken (Hamburg–) Berlin–Leipzig–Nürnberg–München und Dresden–Leipzig–Erfurt–Frankfurt am Main–(Wiesbaden/Saarbrücken). Nach Fertigstellung der Schnellfahrstrecke nach Erfurt werden die ICE auf beiden Linien über den Halle und Erfurt verkehren. Außerdem ist Leipzig Ausgangspunkt der Intercity-Linien Leipzig–Halle (Saale)–Magdeburg–Braunschweig–Hannover–Dortmund–Köln beziehungsweise Bremen–Oldenburg (–Norddeich Mole). Beide Linien ergänzen sich zum Stunden-Takt und halten auch am Flughafen Leipzig/Halle. Täglich bestehen CityNightLine-Verbindungen nach Frankfurt am Main, Nürnberg und Regensburg in Deutschland. Internationale Verbindungen besitzt Leipzig im Nachtzugverkehr nach Prag, Wien, Zürich, Basel und Amsterdam. Im Regionalverkehr sind die meisten Groß- und Mittelstädte in Sachsen sowie im südlichen Sachsen-Anhalt ohne Umsteigen erreichbar. Auch in Richtung Elster–Cottbus beziehungsweise Hoyerswerda und Dessau–Magdeburg sowie Chemnitz bestehen Direktverbindungen durch Regional-Express-Linien. Das benachbarte Halle (Saale) ist über zwei S-Bahn-Linien, von denen eine stündlich über den Flughafen Leipzig/Halle verkehrt, erreichbar. Das Leipziger Umland wird durch zahlreiche Regionalbahn- und S-Bahn-Linien erschlossen. Die Bahnanbindung der Stadt wird zurzeit durch große Bauprojekte, insbesondere im Rahmen der Verkehrsprojekte Deutsche Einheit, stark verbessert. So wurde die Strecke nach Berlin ausgebaut und ist seit 2006 mit 200 km/h befahrbar. Im Bau befindet sich die für 300 km/h ausgelegte Hochgeschwindigkeitsstrecke von Leipzig nach Erfurt, welche 2015 in Betrieb gehen soll sowie deren Weiterführung nach Nürnberg, deren Fertigstellung 2017 geplant ist. Durch diese Einbindung in das Hochgeschwindigkeitsnetz werden die Fahrzeiten der ICE von Leipzig in Richtung Nürnberg, München und Frankfurt am Main erheblich reduziert. Die Bahnstrecke Leipzig–Dresden, die 1839 als erste deutsche Fernbahn in Betrieb ging, befindet sich ebenfalls im Ausbau für 200 km/h. Bedeutendstes Bauvorhaben im Regionalverkehr ist der im September 2013 fertiggestellte, vier Kilometer lange City-Tunnel, der im Dezember 2013 als Stammstrecke der S-Bahn Mitteldeutschland in Betrieb genommen wurde. Für den Güterverkehr gibt es Güterbahnhöfe in den Stadtteilen Wahren und Engelsdorf. Außerdem wurde in der Nähe des Schkeuditzer Kreuzes für den Warenumschlag zwischen Straße und Bahn ein großes Güterverkehrszentrum eingerichtet sowie ein Güterbahnhof auf dem Gelände des DHL-Hubs auf dem Halle. City-Tunnel und S-Bahn. S-Bahn in der Tunnelstation Markt Seit 1969 besitzt Leipzig, wie auch das benachbarte Halle (Saale), ein S-Bahn-Netz. Mit Fahrplanwechsel im Dezember 2004 wurden beide Netze zur "S-Bahn Leipzig-Halle" zusammengefasst. Dieses Netz diente jedoch nur als Übergangslösung und wurde am 15. Dezember 2013 durch die S-Bahn Mitteldeutschland ersetzt. Gleichzeitig ging der City-Tunnel Leipzig in Betrieb, der als Stammstreckentunnel im neuen S-Bahnnetz dient. Der knapp vier Kilometer lange Tunnel unterquert die komplette Innenstadt vom Hauptbahnhof zum Bayerischen Bahnhof. Er besitzt vier Stationen (Leipzig Hbf. (tief), Leipzig Markt, Wilhelm-Leuschner-Platz und Bayerischer Bahnhof), die bis zu 22 m tief unter der Erde liegen. Mit dem Bau wurde erstmals eine durchgängige Nord-Süd-Achse hergestellt, die durch den nach Norden ausgerichteten Kopfbahnhof bisher nicht existierte. Die Anbindung an den Südraum Leipzigs wird dadurch stark verbessert. Damit ist eine erhebliche Zeitersparnis für den Zugverkehr Richtung Südsachsen und Thüringen verbunden, da die Züge keine Umwege um die inneren Leipziger Stadtteile mehr fahren. Durch den Tunnel verkehren die Linien S1 bis S5 / S5X der S-Bahn Mitteldeutschland. Gefahren wird mit Triebzügen vom Typ Bombardier Talent 2 in silbergrauer Lackierung. Die Linien reichen bis weit ins Umland. Endpunkte der S-Bahnstrecken sind unter anderem Oschatz, Zwickau, Geithain und Bitterfeld. Nach Halle verkehren zwei Linien, eine davon über den Halle. 2015 erfolgen Erweiterungen des Netzes bis Dessau und Lutherstadt Wittenberg. Eine Anbindung von Hof (Saale) über Plauen war angestrebt, wurde aber für die nächsten Jahre zurückgestellt. Straßenbahn und Bus. Stadtbahnzug NGT12 an der Neuen Messe Eine Straßenbahn des Typs NGT8 am Augustusplatz Die seit dem 1. Januar 1917 bestehenden Leipziger Verkehrsbetriebe (LVB) unterhalten in der Stadt insgesamt 13 Straßenbahnlinien sowie 51 Buslinien. Auf wichtigen Straßenbahnstrecken, die einen Stadtbahnausbau erlauben, wird dieser nach und nach vorangetrieben. Dieser Ausbau ist bei den Linien 15 (mit Ausnahme von zwei Teilstücken) und 16 bereits erfolgt. Die Linien 11 und 7 (Ostabschnitt) sind die nächsten Strecken, auf denen der Stadtbahnausbau vorgesehen ist. Darüber hinaus finden auch an weiteren Linien Ausbauarbeiten statt. Es wurden jedoch auch einige weniger stark frequentierte Straßenbahnlinien eingestellt; zuletzt im Januar 2006 die Straßenbahnlinie 18. Der Nordabschnitt der Linie 14 wurde im Dezember 2008 aufgegeben – dagegen ist der Westabschnitt selbiger Linie erhalten geblieben. Im Oktober 2010 wurden im Zuge der Einführung des neuen Busnetzes die Linien 2 und 8 auf ihrem jeweiligen Westabschnitt um einige Haltestellen eingekürzt. Die Busnetzreform vom Oktober 2010 war eine Reaktion auf die sich verschiebende Einwohnerverteilung in den Stadtteilen sowie eine Anpassung an das zukünftige S-Bahnnetz Mitteldeutschland, aber gleichzeitig auch an das derzeitige, 2001 eingeführte, Straßenbahnnetz. Weitere strukturelle Veränderungen vor allem im Straßenbahnnetz wird es mit der Einführung des neuen S-Bahnnetzes im Jahr 2013 und damit entstehenden Parallelverkehren geben. Insgesamt umfasst das Straßenbahnnetz eine Streckenlänge von 149,9 Kilometern und ist damit vor Dresden mit 130,2 Kilometern das größte in Sachsen und das zweitgrößte in Deutschland (nach Berlin). Die längste Linie im Leipziger Netz ist die Linie 11, die auf 22 Kilometern Schkeuditz mit Markkleeberg-Ost verbindet und dabei als einzige Leipziger Straßenbahnlinie in drei Tarifzonen des Mitteldeutschen Verkehrsverbundes fährt. Die LVB modernisieren seit Jahren ihren Fuhrpark, insbesondere mit dem Gelenktriebwagen NGT12-LEI und dem Leoliner. Im Nachtverkehr (von 1:11 bis 3:33 Uhr am Hbf.) ruht der Straßenbahnverkehr und es verkehren die Nightliner N1 bis N9. Diese Nachtbuslinien verkehren sternförmig vom Hauptbahnhof über die Stadtteile wieder zum Hauptbahnhof. An Samstagen, Sonn- und Feiertagen verkehrt zusätzlich die Straßenbahnlinie 10, die auf ihrem Laufweg durch die Karl-Liebknecht-Straße die N9 verstärkt. Radverkehr. Der Anteil des Radverkehrs am gesamten Verkehrsaufkommen beträgt in Leipzig derzeit 14,4 Prozent und soll bis zum Jahr 2020 auf 20 Prozent gesteigert werden. Einmal im Monat wird in Leipzig im Rahmen einer Critical-Mass-Fahrt für bessere Bedingungen für Radfahrer demonstriert. Seit 2004 gibt es mit Nextbike ein Fahrradverleihsystem. Die Ausleihe und Rückgabe ist per Mobiltelefon, Verleihterminal oder im Internet möglich. Die Mieträder sind für Einwegfahrten geeignet, da das Mietrad an einer Station ausgeliehen und an einer anderen Station wieder abgegeben werden kann. Es gibt Kooperationsangebote mit den Leipziger Verkehrsbetrieben und Carsharing, um eine möglichst lückenlose Mobilitätskette zu bieten. Straßenverkehr. An Leipzig führen mehrere Bundesautobahnen vorbei: im Norden die A 14, im Westen die A 9 und im Süden die A 38. Die drei Autobahnen bilden einen dreieckigen Teilring des Autobahndoppelringes Mitteldeutsche Schleife um Halle und Leipzig. In Richtung Süden nach Chemnitz ist außerdem die A 72 teilweise im Bau beziehungsweise in Planung. Weitere Aus- und Neubauplanungen gibt es auch im Bereich der Bundesstraßen. So wird eine neue Schnellstraße B 87n von Leipzig nach Torgau (als Ersatz für die A 16) geplant. Hier ist jedoch der genaue Trassenverlauf noch nicht festgelegt. Auch die B 181 nach Merseburg soll neu trassiert werden. Durch das Stadtgebiet führen die Bundesstraßen B 2, B 6, B 87, B 181, B 184 und B 186. Der Ring, der dem Verlauf der alten Stadtbefestigung entspricht, umführt die Innenstadt Leipzigs, die heute in weiten Teilen verkehrsberuhigt ist. Leipzig verfügt über ein dichtes Netz an Carsharing-Stationen des Anbieters teilAuto. Über die DB-Tochter Flinkster ist auch die Buchung für Kunden anderer Carsharingunternehmen möglich. Flugverkehr. Der Leipzig Halle Airport ist der internationale Verkehrsflughafen der gleichnamigen Region. Er befindet sich am Schkeuditzer Kreuz nordwestlich von Leipzig auf halber Strecke zwischen den beiden Großstädten. Durch den östlichsten Abschnitt der im Bau befindlichen Halle erhielt der Flughafen einen Fernbahnhof, der mit Fertigstellung der Eisenbahnstrecke im Jahr 2015 auch in das ICE-Netz eingebunden werden soll. Angeflogen werden im Passagierbereich die großen deutschen Drehkreuzflughäfen, europäische Metropolen und Ferienziele vor allem im Mittelmeerraum und Nordafrika. Internationale Bedeutung hat der Flughafen im Frachtbereich. Hier belegt er in Deutschland den zweiten Platz nach Frankfurt am Main, in Europa den fünften und weltweit den 26. Platz (Stand 2011). DHL nutzt den Flughafen als zentralen Europa-Hub. Außerdem ist er die Heimatbasis der Frachtfluggesellschaften Aerologic und European Air Transport Leipzig. Fernbusse. Leipzig besitzt kein eigenes Fernbusterminal. Genutzt wird die Bushaltestelle an der "Goethestraße," unweit des Leipziger Hauptbahnhofs. Einige Linien nutzen auch den am Autobahnkreuz A9/A14 gelegenen Flughafen Leipzig/Halle für einen Stopp. Passagiere können von dort mit der S-Bahn die Innenstadt innerhalb von fünfzehn Minuten erreichen. Aufgrund des beengten Platzangebots der Bushaltestelle "Goethestraße" und dem Fakt, dass dort auch die Fahrzeuge für Stadtrundfahrten halten, wird derzeit ein Ort für ein eigenes Fernbusterminal gesucht. Pläne dieses an der Leipziger Messe zu errichten, wurden zwischenzeitlich verworfen. Neben einer Vielzahl nationaler, bedienen auch einige internationale Linien Leipzig. So können unter anderem die Städte Bregenz, Budapest, Mailand, Prag, Sofia oder Zürich umsteigefrei erreicht werden. Schifffahrt. Beginn des Elster-Saale-Kanals in Leipzig In der ersten Hälfte des 20. Jahrhunderts wurde der Bau des Elster-Saale-Kanals, der Weiße Elster und Saale verbinden sollte, begonnen, um Leipzig an das Wasserstraßennetz anzuschließen. Der Ausbruch des Zweiten Weltkrieges stoppte die Arbeiten. Der Lindenauer Hafen war zwar fast fertiggestellt, aber noch nicht an den Elster-Saale- und Karl-Heine-Kanal angeschlossen worden. Die Leipziger Flüsse (Weiße Elster, Neue Luppe, Pleiße, Parthe) haben im Stadtraum größtenteils künstliche Flussbetten und werden durch einige Kanäle ergänzt. Diese Wasserwege eignen sich nur für den Sportbootverkehr. Durch die Anlage und Sanierung vorhandener Gräben und Fließgewässer im Süden der Stadt und die Verbindung gefluteter Tagebaurestlöcher soll ein Gewässerverbund entstehen. Derzeit wird der Durchstich zwischen Karl-Heine-Kanal und dem Hafenbecken hergestellt. Mehrfach geplant war weiterhin die Fertigstellung des Elster-Saale-Kanals. Ein solcher Schritt würde es Sportbooten ermöglichen, von Leipzig bis zur Elbe ("Von der Elster an die Alster") zu gelangen. Im Februar 2012 wurde eine Potenzialanalyse vorgestellt. Sie sieht Chancen für den Tourismus in der Region, in der Diskussion stehen jährlich eine halbe Million Touristen und Kosten von ca. 100 Millionen Euro. Tourismus. Leipzig ist ein beliebtes Ziel für Städtereisen und besitzt eine ausgebaute touristische Infrastruktur. Im Jahr 2013 besuchten fast 1,45 Millionen Touristen die Stadt (Gästeankünfte) bei fast 2,7 Millionen Übernachtungen. Das ist ein Zuwachs bei den Übernachtungen von 8,7 % gegenüber dem Vorjahr, was die zweitgrößte Steigerung nach Hamburg bedeutet. Im Jahre 2012 gab es eine vergleichbare Steigerung. 2013 gab es 112 Beherbergungsbetriebe mit etwa 14.143 Betten. Diese waren dabei zu etwa 65 Prozent ausgelastet. Der Umsatz im Gastgewerbe und die zusätzlichen Umsätze durch Gäste in der Stadt betrugen 1,1 Milliarden Euro (2012). Die meisten Touristen (Werte 2012) kommen dabei aus anderen Teilen Deutschlands (ca. 840.000). Gäste aus anderen europäischen Staaten stammen zum großen Teil aus Großbritannien (ca. 11.800) und den Niederlanden (ca. 11.000), interkontinental sind die US-Amerikaner (ca. 25.000) und die Japaner (ca. 5600) am stärksten vertreten. Der Lutherweg, die Straße der Braunkohle, der Radweg Berlin–Leipzig und der Elster-Radweg sind die wichtigsten Themen- bzw. Radwege, die Leipzig kreuzen bzw. dort enden. Sprache. In Leipzig wird teilweise osterländisch gesprochen. Dieser Dialekt gehört zur thüringisch-obersächsischen Dialektgruppe. Ein über die Grenzen Sachsens bekanntes Lied in Leipziger Sprache war „Sing, mei Sachse, sing“ des Kabarettisten Jürgen Hart. Die Leipziger Kabarettbühnen bieten regelmäßig Programme in sächsischer Sprache, beispielsweise die bekannten Academixer sowie Bernd-Lutz Lange und Gunter Böhnke mit ihren Bühnenpartnern. Von den in Leipziger Mundart schreibenden Autoren ist vor allem Lene Voigt einem breiteren Publikum bekannt. Im örtlichen Dialekt klingt der Name der Stadt etwa wie „Laibzsch“. Kulinarische Spezialitäten. Leipzig hat mehrere lokale Spezialitäten zu bieten, darunter das Leipziger Allerlei, die Leipziger Lerche und die Leipziger Gose. Das Leipziger Allerlei ist ein gemischtes Gemüse, das in der Originalversion mit Flusskrebsen, Krebsbutter und Semmelklößchen angerichtet wurde. Die Leipziger Lerchen wurden im 18. und 19. Jahrhundert tatsächlich aus Singvögeln hergestellt. Diese wurden beispielsweise als gefüllte Pasteten gereicht. Nachdem 1876 ein Fangverbot für Singvögel verhängt worden war, entwickelten findige Bäcker ein feines Gebäck, das heute aus Mürbeteig mit Marzipanfüllung besteht und nur noch in der Form an die damaligen Pasteten erinnert. Eine weniger bekannte süße Köstlichkeit sind die Leipziger Räbchen, in heißem Öl ausgebackene, mit Marzipan gefüllte Dörrpflaumen. Die Gose ist ein ursprünglich aus Goslar stammendes obergäriges Bier, das zu DDR-Zeiten kaum noch gebraut wurde, nun aber wieder vermehrt als Spezialität in Gasthäusern gereicht wird. Außerdem gibt es den Leipziger Allasch, einen ursprünglich aus dem Baltikum stammendem Kümmellikör. Dieser wird oft mit der Gose gemixt, so entsteht der „Regenschirm“. Museen. Entwicklung der Besucherzahlen Leipziger Museen zwischen 2001 und 2011 Wegen ihrer Geschichte als alte Universitäts- und Messestadt mit einem wohlhabenden Bürgertum gibt es in Leipzig eine große Anzahl bedeutender Sammlungen und Ausstellungen. Das Deutsche Buch- und Schriftmuseum der Deutschen Bücherei Leipzig ist das weltweit älteste Fachmuseum zur Buch-, Schrift- und Papierkultur und erinnert zusammen mit dem Museum für Druckkunst an die Leipziger Tradition als Buchstadt. Das Literaturhaus Leipzig bietet Lesungen und zeigt Ausstellungen. Die Universität Leipzig besitzt eine Reihe bedeutender Sammlungen. Einige, wie das Ägyptische Museum, das Antikenmuseum und das Museum für Musikinstrumente, sind permanent der Öffentlichkeit zugänglich. Anlässlich der Museumsnacht der Stadt Leipzig präsentiert die Universität auch ihre Lehrsammlungen einem breiten Publikum. Die HTWK unterhält ein Automatik-Museum. Das Stadtgeschichtliche Museum ist im Alten Rathaus beheimatet. Darüber hinaus besitzt es Nebenstellen mit dem ältesten Kaffeehaus Deutschlands Zum Arabischen Coffe Baum, dem Schillerhaus, in dem Friedrich Schiller den Sommer 1785 verbrachte, dem 1977 gegründeten Sportmuseum Leipzig und dem Völkerschlachtdenkmal. Das Zeitgeschichtliche Forum in der Innenstadt untersteht als Bundeseinrichtung dem Bundeskanzleramt. Es stellt die Geschichte Deutschlands vom Zweiten Weltkrieg bis zur Gegenwart mit Schwerpunkt auf der Geschichte der DDR dar. Die Gedenkstätte Museum in der „Runden Ecke“ im ehemaligen Sitz der Bezirksverwaltung des Ministeriums für Staatssicherheit arbeitet die Mechanismen des Repressionsapparats in der DDR auf. Zum Thema der Völkerschlacht gibt es in Leipzig und Umgebung noch weitere Museen, wie z. B. das Zinnfigurenmuseum im Torhaus Dölitz, das Sanitäts- und Lazarettmuseum Seifertshain, das Körnerhaus Großzschocher, das Memorialmuseum Liebertwolkwitz und das Regionalmuseum im Torhaus Markkleeberg. Im Komplex des Grassimuseums befinden sich neben dem Musikinstrumentenmuseum auch das Museum für Angewandte Kunst und das Museum für Völkerkunde zu Leipzig. Das Naturkundemuseum Leipzig besitzt eine große Sammlung an Dermoplastiken und ergänzt dieses Angebot durch wechselnde Sonderausstellungen zu Naturthemen. Das Deutsche Kleingärtnermuseum befindet sich im Vereinshaus des 1864 gegründeten, weltweit ersten Schrebergartenvereins. Im Panometer, einem 1910 erbauten und 1977 stillgelegten Gasometer, ist das größte Panoramagemälde der Welt zu sehen. Yadegar Asisi hat hier von 2003 bis 2005 das Panorama "8848Everest360°" des Mount Everest und von 2005 bis Februar 2009 "Rom CCCXII" und zwischen März 2009 und August 2013 "Amazonien" gezeigt. Im März bis Juni 2012 war mit "EVEREST – Erlebnis zwischen Expedition und Tradition" eine überarbeitete Version des Everest-Panoramas von 2003 nochmals zu sehen. Seit August 2013 ist "Leipzig 1813" zu besichtigen. Das 2010 eröffnete Kindermuseum Leipzig bietet wechselnde Ausstellungen zu Themen, die Kinder interessieren. Außerdem gibt es mit dem Mitspielzeugmuseum eine große Sammlung historischer Spielzeuge aus der DDR und den ehemaligen Staaten des Ostblocks. Zur Erinnerung an die gleichnamigen Komponisten und Musiker existieren Ausstellungen im Schumann- und im Mendelssohn-Haus sowie das Bach-Archiv und das Bach-Museum. Weiterhin gibt es das Sächsische Psychiatriemuseum, das Sächsische Apothekenmuseum, die Medizinhistorische Sammlung des Karl-Sudhoff-Instituts, das Schulmuseum, das Eisenbahnmuseum, das Kriminalmuseum des Mittelalters und das Reichsgerichtsmuseum. Das Privatmuseum Haus der Computerspiele hat keine festen Räumlichkeiten, erreicht aber als Wanderausstellung auf Messen und Festivals jährlich mehrere hunderttausend Besucher. Bildende Kunst. Um die Kunst zu fördern und zu diskutieren, wurde am 17. Juni 1992 die Freie Akademie der Künste zu Leipzig nach dem Vorbild der Freien Akademie der Künste in Hamburg gegründet. Das 1837 durch den Leipziger Kunstverein gegründete Museum der bildenden Künste besitzt eine der eindrucksvollsten Bildersammlungen Deutschlands, die etwa 58.500 Exponate vom Spätmittelalter bis zur Moderne zeigt, darunter auch einige Exponate der Neuen Leipziger Schule, deren bekanntester Vertreter wohl Neo Rauch ist. Die 1990 gegründete Galerie für Zeitgenössische Kunst ergänzt dieses Angebot mit wechselnden Ausstellungen moderner und zeitgenössischer Kunst. Im Mai 2005 eröffnete in der Baumwollspinnerei in Lindenau ein Galeriezentrum. Elf kommerzielle und zwei nichtkommerzielle Kunsträume präsentieren zeitgenössische Arbeiten. Rund 80 Künstler unterhalten auf dem Gelände Ateliers. Weitere kommerzielle Kunstzentren befinden sich im Tapetenwerk Leipzig, der Alten Handelsschule mit der Leipzig School of Design (LSOD) und dem Westwerk am Karl-Heine-Kanal. Darüber hinaus gibt es im Stadtgebiet zahlreiche weitere Galerien, Kunstvereine und temporäre Projekte, die für einen regen Ausstellungsbetrieb sorgen, etwa die Universität mit einer ständigen Ausstellung von Stücken aus ihrer Kunstsammlung und die Kunsthalle der Sparkasse Leipzig. Orchester. Das Gewandhausorchester ist eines der international renommiertesten Orchester. Als ältestes bürgerliches Konzertorchester Deutschlands wurde es 1781 gegründet. Das Gewandhaus hat drei Spielstätten: das Gewandhaus, die Oper Leipzig und die Thomaskirche. Chefdirigenten waren unter anderem Felix Mendelssohn Bartholdy, Wilhelm Furtwängler, Václav Neumann, Kurt Masur und Herbert Blomstedt, seit 2005 hat Riccardo Chailly das Amt des Gewandhauskapellmeisters (Chefdirigent des Gewandhausorchesters) inne. Ulf Schirmer ist seit der Spielzeit 2009/10 Generalmusikdirektor an der Oper Leipzig. Das "Neue Bachische Collegium Musicum" wurde 1979 von Mitgliedern des Gewandhausorchesters gegründet. Als „historisches Bachorchester“ kombiniert es moderne Instrumente und „historische“ Spielweise, es wird seit 2003 von Albrecht Winter geleitet. Das MDR Sinfonieorchester wurde 1924 als "Leipziger Sinfonieorchester" gegründet. Es trat dabei die Nachfolge des seit 1915 existierenden Orchesters des Konzertvereins an. 1925 wurde es von der damaligen Mitteldeutschen Rundfunk AG übernommen und als "Rundfunk-Sinfonieorchester Leipzig" weithin bekannt. Chefdirigent war unter anderem Herbert Kegel, heute leitet Kristjan Järvi das Orchester. Nach Gründung des Mitteldeutschen Rundfunks 1991 erhielt es seinen heutigen Namen. Die aus Musikern des Rundfunk-Sinfonieorchesters zusammengesetzte und von 1970 bis 1993 bestehende Gruppe Neue Musik Hanns Eisler gehörte zu den bedeutendsten Interpreten Neuer Musik in der DDR. Mitglieder der Gruppe gründeten 1990 das Forum Zeitgenössischer Musik Leipzig. Weiterhin war bis 1993 das Leipziger Consort und ist seit 1992 das Ensemble Sortisatio Träger Neuer Musik in Leipzig. Die "Capella Fidicinia am Musikinstrumenten-Museum der Universität Leipzig" wurde von Hans Grüß 1957 gegründet. Das Kammerorchester spielt Werke alter Meister auf Originalinstrumenten. Das Akademische Orchester Leipzig wurde 1954 von Horst Förster an der Universität Leipzig ins Leben gerufen, der es bis heute leitet. Es gibt jährlich 6 „Akademische Konzerte“ im großen Saal des Gewandhauses. Das Leipziger Universitätsorchester entstand 2003 als "Leipziger studentisches Orchester". Es ist studentisch besetzt und gibt ein großes Sinfoniekonzert pro Semester sowie Kammermusikabende. Das "Pauliner Kammerorchester" wurde 1992 gegründet und stand bis 2004 unter der Leitung von Wolfgang Unger. Es steht dem Universitätschor mit modernen Instrumenten zur Verfügung. Das "Pauliner Barockensemble" wurde 1994 aus dem Pauliner Kammerorchester heraus gebildet und musiziert ausschließlich auf historischem Instrumentarium. Das Jugendsinfonieorchester der Leipziger Musikschule gehört ebenfalls zu den bekannteren der Leipziger Orchesterszene. Die Kammerphilharmonie Leipzig besteht aus Musikerinnen und Musikern, die an der Hochschule für Musik und Theater „Felix Mendelssohn Bartholdy“ Leipzig studieren oder diese absolviert haben. Das seit 2001 bestehende Orchester pflegt ein umfangreiches Repertoire unter anderem mit Konzerten im Großen Saal des Leipziger Gewandhauses und im Konzerthaus Berlin. Konzertreisen führten das Ensemble unter anderem nach China und Indien. Die Kammerphilharmonie arbeitet unter der Leitung von Michael Köhler. Das Leipziger Streichquartett wurde 1988 von damaligen Studenten der Leipziger Hochschule für Musik und Theater und späteren Mitgliedern des Gewandhausorchesters gegründet. Es ist heute ein international anerkannter Bestandteil der Kammermusikszene. Das Ensemble Avantgarde um den Komponisten und Pianisten Steffen Schleiermacher war bis 2007 eine Vereinigung von Musikern verschiedenster Leipziger Orchester, die sich der Musik des 20. Jahrhunderts widmete. Es gründete die Konzertreihe "musica nova" am Leipziger Gewandhaus. Chöre. Der weltberühmte Thomanerchor wurde 1212 zusammen mit der Thomasschule als Klosterschule für zwölf Knaben gegründet und mit der Reformation 1519 vom Stadtrat übernommen. Der bekannteste Thomaskantor war Johann Sebastian Bach, der diese Stellung von 1723 bis zu seinem Tod 1750 innehatte. Heute singen etwa 100 Thomaner im Alter von 9 bis 18 Jahren im Chor. Er tritt dreimal in der Woche in der Thomaskirche auf. Der GewandhausChor wurde 1861 durch Gewandhauskapellmeister Carl Reinecke gegründet und 1920 mit dem 1875 gegründeten Bach-Verein fusioniert. Die Leitung hat seit August 2007 Gregor Meyer in der Nachfolge Morten Schuldt-Jensens inne. Der 1973 gegründete GewandhausKinderchor zählt zu den bekanntesten und erfolgreichsten Kinderchören Deutschlands mit internationalem Renommee. Der MDR Rundfunkchor Leipzig entstand 1924 als "Leipziger Oratorienvereinigung". Nach der Auflösung 1942 wurden im August 1946 die verbliebenen Künstler als "Kammerchor des Senders Leipzig" durch den Mitteldeutschen Rundfunk übernommen. Ab 1947 firmierte er als "Rundfunkchor Leipzig". Unter der Leitung von Herbert Kegel, der den Chor von 1949 bis 1978 führte, etablierte sich das Ensemble als europäischer Spitzenchor. Seinen heutigen Namen trägt er seit der Neugründung des Mitteldeutschen Rundfunks und der gleichzeitigen Übernahme des Chors am 1. Januar 1992. Derzeitiger künstlerischer Leiter ist der Brite Howard Arman. Der MDR Kinderchor wurde 1948 von Hans Sandig gegründet und ist heute der einzige Kinderchor der ARD. Derzeit leitet Ulrich Kaiser das Ensemble. Der Leipziger Universitätschor ging 1926 aus dem "Madrigalkreis Leipziger Studenten" hervor. Sein Leiter ist der Universitätsmusikdirektor David Timm. Unter der Leitung des inzwischen verstorbenen Wolfgang Unger erhielt der Chor im Jahr 2001 den von der Deutschen Phono-Akademie vergebenen ECHO-Klassik-Preis. Der Leipziger Studentenchor Vivat academia wurde 1954 gegründet und vereint musikbegeisterte Studierende vieler Leipziger Hochschulen. Er arbeitet seit 2009 als Philharmonischer Jugendchor Leipzig, ist an der Hochschule für Telekommunikation Leipzig ansässig und wird von Marcus Friedrich geleitet. Der Leipziger Oratorienchor wurde 1993 als Laienchor gegründet und wird seither von Martin Krumbiegel geleitet. Als gemeinnütziger Verein wird er sowohl von seinen Mitgliedern wie auch aus Mitteln der Stadt getragen. Der 1962 von Oberkantor Werner Sander gegründete und seit 2012 von Ludwig Böhme geleitete Leipziger Synagogalchor stellt sich der anspruchsvollen Aufgabe, synagogale Musik des 19. und 20. Jahrhunderts sowie jiddische und hebräische Folklore als besonders wertvollen Bestandteil des jüdischkulturellen Erbes nicht nur in Leipzig zu erhalten und zu pflegen. Der Leipziger Männerchor wurde 1891 von Gustav Wohlgemuth gegründet. Die Schola Cantorum Leipzig ist der Kinder- und Jugendchor der Stadt Leipzig. 1963 gegründet, besteht sie heute aus über 160 singenden Kindern, Jugendlichen und jungen Erwachsenen. Unesco-Initiative Musikstadt. Leipzig war und ist eine bedeutende Musikstadt. So erinnert das Bach-Archiv Leipzig am Thomaskirchhof mit einem Bach-Museum im Bosehaus – die Familie Bose war sehr eng mit der Familie Bach befreundet – an eine der bedeutendsten Persönlichkeiten der Stadt. Eine Besonderheit in Leipzig ist, dass eine Vielzahl an Komponistenhäusern erhalten geblieben ist, in den meisten sind Museen eingerichtet worden: so das Wohn- und Sterbehaus von Felix Mendelssohn Bartholdy, das als Mendelssohn-Haus der Öffentlichkeit zugänglich ist, das Schumann-Haus, wo Robert und Clara Schumann ihre ersten vier Ehejahre verbrachten, und die Talstraße 10, wo sich die Edvard-Grieg-Gedenk- und Begegnungsstätte befindet. Die Wohnorte von Gustav Mahler und Erwin Schulhoff befinden sich unweit der Innenstadt im Waldstraßenviertel, hier erinnern Gedenktafeln an die Komponisten. Das Geburtshaus Richard Wagners am Brühl existiert zwar nicht mehr, aber auch dort erinnert eine Gedenktafel und ein Platz an den Musiker. Albert Lortzing hatte gleich mehrere Wohnstätten in Leipzig, zumeist im Waldstraßenviertel. Um das musikalische Erbe besser zu vermarkten, wurde eine UNESCO-Initiative gegründet, die Leipzig zu einem Welterbetitel verhelfen möchte. Zu diesem Zweck werden momentan mehrere Routen durch Leipzig geplant. Zum einen die „Notenspur“. Diese stellt einen etwa 5,1 Kilometer langen Spaziergang dar, der die Arbeits- oder Wohnorte der Komponisten beziehungsweise andere musikalischer Objekte von überregionaler Bedeutung miteinander verbindet. Zu den Einrichtungen gehören neben den Komponistenhäusern die Nikolai- und Thomaskirche als Uraufführungsorte der Werke von Bach, die Musikbibliothek Peters, das Gewandhaus, die Oper und das Cafe Zum Arabischen Coffe Baum. Der zweite Spaziergang, der „Notenbogen“, ist etwa fünf Kilometer lang und verbindet unter anderen das Alte Bachdenkmal, die Hochschule für Musik und Theater „Felix Mendelssohn Bartholdy“ als Wirkungsstätte Max Regers und die Blindenmusikbibliothek der Deutschen Zentralbibliothek für Blinde. Als Letztes ist noch ein Radweg geplant: das „Notenrad“. Es ist in zwei Schleifen gegliedert, die westliche und die östliche, wobei beide ungefähr die gleiche Länge haben und an das Stadtzentrum angeschlossen sind. Sie führen zum Beispiel von der Thomaskirche bis zum Rittergut Kleinzschocher. Verbände. Als überregional bedeutende Musikstadt haben sich in Leipzig auch die sächsischen Landesverbände des deutschen Tonkünstlerverbandes und des Verbandes Deutscher Musikschulen, sowie der Sächsische Musikbund niedergelassen. Kino. Leipzig besitzt eine lebendige Kinoszene. Internationale Bedeutung gewann das seit 1955 alljährlich stattfindende Festival für Dokumentar- und Animationsfilm. Nach zunehmender Beeinflussung des Festivalprogramms durch staatliche Organe der DDR in den Jahren ab 1968 entwickelte es sich nach der Wiedervereinigung mit modernisierter Ausrichtung erneut zu einem Publikumsmagneten. Neben größeren Kinos, wie "CineStar" und "Passage Kinos" im Zentrum, "Regina Filmpalast" in Reudnitz und "Cineplex Leipzig" in Grünau präsentieren zahlreiche Programmkinos Filme für kleinere Zielgruppen. Einmal jährlich finden seit 1995 in mehreren Spielstätten des Großraumes Halle-Leipzig die Französischen Filmtage statt. Seit 2001 wird in Leipzig jährlich die Filmkunstmesse ausgerichtet. Im Sommer finden an verschiedenen Orten unter freiem Himmel Kinovorführungen statt. Theater. Von Leipzig aus reformierten im 18. Jahrhundert Friederike Caroline Neuber und Johann Christoph Gottsched die deutsche Theaterlandschaft. Heute verfügt das Schauspiel Leipzig über mehrere Spielstätten, zu dem städtischen Betrieb gehören neben der großen Bühne im Centraltheater auch kleinere Spielstätten wie die "Skala" und das "Spinnwerk". Gleichzeitig gibt es eine lebendige Off-Theater-Szene mit zahlreichen freien Theatergruppen und mehreren kleineren Spielstätten (LOFFT, Schaubühne Lindenfels und weitere). Eine Reihe freier Choreographinnen und Tänzerinnen sorgen für ambitioniertes Tanztheater, seit 1967 existiert das "Leipziger Tanztheater". Teile der Off-Kultur haben sich zur Interessengemeinschaft Freie Szene Leipzig zusammengeschlossen. Das Kinder- und Jugendtheater hat in Leipzig eine lange Tradition. Hauptträger ist das Theater der Jungen Welt, darüber hinaus gibt es einige Puppen- und Marionettentheater. Leipzig war und ist partiell immer noch eines der Zentren der deutschsprachigen Kabarett-, Varieté- und Kleinkunstszene. Zu den überregional bekannten Kabaretts zählen die Leipziger Pfeffermühle und die Academixer. Des Weiteren bestehen noch die Kabaretts "Sanftwut", "Funzel" und Leipziger Brettl. a> (zum Opernball am 30. Oktober 2004) Die Oper Leipzig blickt auf eine über dreihundertjährige Tradition zurück, da sie schon 1693 gegründet wurde. Damit ist sie das drittälteste bürgerliche Opernhaus nach Venedig und Hamburg. Neben dem in Leipzig geborenen Richard Wagner ist die Geschichte des Opernhaus in Leipzig untrennbar verknüpft mit Komponisten wie Georg Philipp Telemann, Heinrich Marschner, Albert Lortzing oder Gustav Mahler. Das heutige Gebäude wurde 1960 am Augustusplatz an der Stelle des im Zweiten Weltkrieg zerstörten Neuen Theaters fertiggestellt. Das Gewandhausorchester spielt seit 1840 bei allen Vorstellungen der Oper Leipzig. Eine maßstabsetzende Inszenierung von Richard Wagners "Der Ring des Nibelungen" gelang hier von 1973 bis 1976 dem damaligen Operndirektor Joachim Herz. Sie gab den konzeptionellen Hauptimpuls für Chéreaus Bayreuther „Jahrhundert-Ring“. Ulf Schirmer ist ab der Spielzeit 2009/10 Generalmusikdirektor der Oper Leipzig. Chefregisseur der Oper Leipzig ist seit der Spielzeit 2008/09 Peter Konwitschny. Das Repertoire der Oper Leipzig reicht vom Barock bis zur Gegenwart. Das Kellertheater der Oper Leipzig ist die kleine, experimentelle Spielstätte mit 99 Plätzen für Produktionen der Oper Leipzig, unter anderem des Kinderchors der Oper Leipzig, kleineren szenischen Produktionen des Opernensembles, aber auch von Gastproduktionen freier Ensemble, so auch von Heike Hennig & Co. Die Musikalische Komödie (MuKo) im "Haus Dreilinden" in Lindenau, die heute zur Oper Leipzig gehört, hat eine auf das Jahr 1713 zurückgehende Geschichte. Hier werden Operette und Musical gepflegt, aber auch die deutsche Spieloper. Nachtleben. Das alltägliche kulturelle Leben spielt sich vor allem in der Innenstadt, in der Gottschedstraße und der Südvorstadt entlang der Karl-Liebknecht-Straße bis zum Stadtteil Connewitz sowie in Plagwitz entlang der Karl-Heine-Straße ab. Die Stadt hat ein bemerkenswertes und reges Nachtleben. Die Entwicklung der vielseitigen Kneipenlandschaft wurde dabei durch den Verzicht der Stadtverwaltung auf eine Sperrstunde begünstigt. Ganz besonders in den Abend- und Nachtstunden der Sommermonate lässt sich im Barfußgässchen und in der Gottschedstraße, wenn die Freisitze gefüllt sind, ein vitales Straßenleben erleben. Durch den Verfall der Bausubstanz während der DDR-Zeit sind viele ehemalige Kulturhäuser in den Stadtteilen verschwunden, so dass Leipzig nur noch eine begrenzte Anzahl an größeren Sälen für Musikveranstaltungen besitzt. Im Norden sind dies der Anker und das Haus Auensee, in der Westvorstadt das Haus Leipzig, im Zentrum die Moritzbastei sowie in Connewitz das Werk II und das Conne Island. Im Jahr 2006 eröffnete mit dem Volkspalast eine neue Veranstaltungshalle, die auch größere Konzerte erlaubt, die zuvor der Mehrzweckhalle Arena Leipzig vorbehalten waren. In Connewitz und Teilen der Südvorstadt entwickelte sich nach der Wende eine lebendige alternative Szene. Aus dem ehemaligen Kino UT Connewitz wurde eine für alle Kulturformen genutzte Einrichtung. Das "Tanzcafé Ilses Erika" im Haus der Demokratie – ebenfalls in Connewitz gelegen – ist mit seinen Clubabenden und -konzerten eine der bekanntesten Indie-Adressen in Ostdeutschland. Die in der Südvorstadt gelegene Distillery gilt als Ostdeutschlands dienstältester Technoclub, welcher auch das Eintagesfestival Th!nk? veranstaltet. Zu den beliebtesten Clubs und Diskotheken zählen das Nachtcafè, das auf Blackmusic und House spezialisiert ist, und die Buddha Art Gallery in der Innenstadt. Vielfältige kulturelle Veranstaltungen wie Programmkino, Lesungen oder kleinere Konzerte finden außerdem in der naTo statt. Mit den Beschlüssen der 3. Hochschulreform der DDR 1968 entstanden in Leipzig zahlreiche Studentenclubs, von denen die meisten heute noch existieren und die nicht nur von Studenten genutzt werden. Der älteste Studentenclub ist der TV-Club Leipzig. Die Studentenclubs haben sich mit dem "Runden Tisch Leipziger unabhängiger Studentenclubs" (RuTiLuSt) Anfang der 1990er Jahre eine gemeinsame Plattform geschaffen. Der ehemals größte Studentenclub Europas, die Moritzbastei, wurde Ende der 1970er Jahre aus einer mittelalterlichen Festungsanlage ausgebaut. 1993 wurde er in eine GmbH umgewandelt. Parks und Gärten. Johannapark, Blick zum Cityhochhaus und Rathausturm Leipzig besitzt einen verglichen mit ähnlichen Großstädten bemerkenswerten Anteil an Parks und Grünflächen, überwiegend mit hohem gestalterischem Anspruch oder stadtstruktureller Bedeutung. Weit überregional bekannt waren die aufwendigen Bürgergärten, die sich seit Renaissance und Barock um die historische Innenstadt legten, etwa Apels Garten oder der Großbosesche Garten. Mit dem städtischen Wachstum im 19. Jahrhundert wurden diese privaten Anlagen überbaut, jedoch erhielten sich ihre Bezeichnungen verschiedentlich in Straßennamen. Bereits Anfang des 18. Jahrhunderts begannen Begrünungen der städtischen Befestigungsanlagen und Wälle mit Alleen und Gehölzpflanzungen. Ende des Jahrhunderts entstand unter Bürgermeister Carl Wilhelm Müller (1728–1801) eine zusammenhängende Parkgestaltung am Schwanenteich und in dem heutigen Bereich vor dem Hauptbahnhof. Es handelte sich um die erste vom Bürgertum initiierte Landschaftsparkanlage Deutschlands. Zugleich war damit der Grundstein zu dem bis heute die Innenstadt umgebenden Promenadenring gelegt. Bis in das 20. Jahrhundert erfolgte die Gestaltung weiterer Abschnitte, darunter bis 1858 die Lenné-Anlage, auch Schillerpark genannt. Für die Planung konnte der Königlich Preußische Gartendirektor Peter Joseph Lenné gewonnen werden, einer der größten Gartenkünstler des 19. Jahrhunderts. Im Auftrag des Bankiers Wilhelm Theodor Seyfferth konzipierte er wenig später ebenfalls den heute städtischen Johannapark. Ab 1898 entstand unter Gartendirektor Otto Wittenberg direkt im Anschluss westlich der König-Albert-Park, ein repräsentativer Stadtpark mit Springbrunnenbassin, Teich und Musikpavillon. Seit 1955 führt er gemeinsam mit benachbarten Anlagen wie dem Palmengarten oder dem Scheibenholzpark die Bezeichnung Clara-Zetkin-Park. Unter Otto Wittenberg entstanden parallel mit der Stadtentwicklung Ende des 19. Jahrhunderts zahlreiche begrünte Stadtplätze, ferner auch die landschaftlich gestalteten Anlagen Volksgarten Sellerhausen, Volkshain Stünz sowie der Südteil des Eutritzscher Parks. Im Gegensatz dazu schuf der Nachfolger Wittenbergs, Carl Hampel, zahlreiche formale Gestaltungen, unter anderem am westlichen Promenadenring, jedoch auch den weitläufigen Wilhelm-Külz-Park am Völkerschlachtdenkmal. Seit 1913 gestaltete Leberecht Migge in der seinerzeit noch selbständigen Gemeinde Schönefeld einen klassischen Volkspark, den Mariannenpark. Fertiggestellt wurde die Anlage in der Zwischenkriegszeit bis 1928 unter Stadtgartendirektor Molzen. Bereits 1932 begannen die Arbeiten am Richard-Wagner-Hain beiderseits des Elsterflutbeckens. Er sollte ein monumentales Denkmal zu Ehren des gebürtigen Leipzigers Richard Wagner aufnehmen. Die Nationalsozialisten nahmen sich des Vorhabens an und erklärten es zum Projekt „Richard-Wagner-Nationaldenkmal“. Für die erhaltene gärtnerische Gestaltung verantwortlich war Gustav Allinger. Emil Hipp fertigte am Chiemsee die Teile des Denkmals, das jedoch kriegsbedingt nicht mehr zur Aufstellung in Leipzig gelangte. Westlich an den Zoologischen Garten grenzt der weitläufige Park Rosental. Ursprünglich kurfürstlicher Besitz, dann an die Stadt verkauft, beabsichtigte August der Starke hier dennoch die Errichtung einer Residenz, die die Stadt finanzieren sollte. Zwar konnte dies abgewendet werden, jedoch veranlasste der Landesherr die Anlage der noch vorhandenen Sichtschneisen durch die begrenzenden Waldbereiche, ausgehend von der großen zentralen Wiesenfläche. Seit dem 19. Jahrhundert fanden verschiedene Umgestaltungen im Sinne einer landschaftlichen Gestaltung statt. Auf den Leipziger Arzt Moritz Schreber geht indirekt die nach ihm benannte Kleingartenbewegung (Schrebergärten) zurück. Neben der ältesten sogenannten Schreberanlage befindet sich in der Stadt das Deutsche Kleingärtnermuseum Als Friedenspark wird heute der 1950 geschlossene ehemalige Neue Johannisfriedhof bezeichnet. Ab 1973 erfolgte die Beräumung der zahlreichen historisch bedeutenden Grabdenkmale. Einige wenige wurden auf dem erhaltenen Alten Johannisfriedhof aufgestellt, dem über Jahrhunderte zentralen Begräbnisplatz der Stadt. In den letzten Jahren entstanden neue Parkanlagen auf dem Gelände des ehemaligen Eilenburger Bahnhofs (Lene-Voigt-Park) und am Karl-Heine-Kanal in Plagwitz (Stadtteilpark Plagwitz). Botanischer Garten. Botanischer Garten, Nordfassade des Altbaus (2015) Der Botanische Garten der Universität Leipzig beheimatet auf einer Fläche von 3,5 Hektar etwa 10.000 verschiedene Arten. Er ist der älteste Botanische Garten Deutschlands und gehört zu den ältesten weltweit. In seiner Geschichte, die bis zur Mitte des 16. Jahrhunderts zurückreicht, wurde der Standort des Botanischen Gartens dreimal im Stadtgebiet verlegt. Heute befindet er sich an der Linnéstraße im Ortsteil Zentrum-Südost, angrenzend an den Friedenspark. Tierparks. Der Zoologische Garten Leipzig ist eine 26 Hektar große parkartig gestaltete Grünanlage nordwestlich der Leipziger Altstadt, in der etwa 900 Tierarten gehalten und präsentiert werden. Er grenzt an das Rosental, einen Stadtpark. Der Leipziger Zoo wurde am 9. Juni 1878 eröffnet und ist mit seinen vielen historischen Bauten einer der traditionsreichsten in Deutschland. Er war einst berühmt für seine Löwen- und später auch Tigerzucht, für die er seither das Internationale Zuchtbuch führt. Er beherbergt viele seltene Tierarten wie Baikalrobben, Moschustiere, Okapis oder Sepikwarane. Die wöchentliche Doku-Soap Elefant, Tiger & Co. des Mitteldeutschen Rundfunks machte den Zoo seit 2003 in ganz Deutschland bekannt. Eine der charakteristischen Backsteinanlagen ist die Bärenburg. Sie war Schauplatz vieler Zuchterfolge, ist aber längst veraltet. Noch in den 1990er Jahren war der Zoo stark sanierungsbedürftig und entsprach kaum mehr moderner Tierhaltung. Daher wird er seit einigen Jahren zu einem "Zoo der Zukunft" umgebaut, was ursprünglich 2014 abgeschlossen sein sollte. Die zwei größten Bauprojekte dabei waren die 2001 eröffnete weltgrößte Menschenaffenanlage "Pongoland" (als Teil des Wolfgang-Köhler-Primaten-Forschungszentrum) und Europas größte Tropenhalle "Gondwanaland," in der seit 2011 Tiere und Pflanzen der Kontinente Asien, Südamerika und Afrika gezeigt werden. Ende 2011 kündigte die Zooleitung an, dass der Masterplan zum Umbau des Zoos überarbeitet wird. Die weiteren Baumaßnahmen sollen nunmehr bis zum Jahr 2020 erfolgen – Schwerpunkte sollen die Bereiche Asien und Südamerika sein. Der Wildpark Leipzig ist ein Naturpark im Süden der Stadt. Die Tiere des Parks kommen größtenteils aus der europäischen Region, gezeigt werden zum einen Rot-, Dam-, Reh-, Muffelwild, aber auch Elche, Wisente, verschiedene Vogelarten und Füchse, Wildkatzen, Hermeline, Marder und Waschbären. Auch am Zuchtprogramm für den gefährdeten europäischen Nerz nimmt der Wildpark teil. Demnächst soll auch ein Erlebnispfad mit Wolfsgehege erstellt werden. Bauwerke. In Leipzig befinden sich einige bedeutende Gebäude aus den Epochen der letzten Jahrhunderte. Leipzig war ein Zentrum des bürgerlichen Barocks und wurde vor allem in der Gründerzeit und im letzten Viertel des 19. Jahrhunderts durch viele öffentliche Gebäude des Historismus ergänzt. Leipzig besitzt auch einen vergleichsweise hohen Anteil an Gebäuden des Jugendstils. Außerdem befinden sich Gebäude der Vor- und Nachkriegsmoderne in Leipzig. Nikolaikirche mit Denkmal Nikolaisäule zur Friedlichen Revolution 1989 Sakralbauten. "Eine Zusammenfassung aller Kirchen findet sich unter Liste der Kirchengebäude in Leipzig. Ausführliche Beschreibungen der Sakralbauten finden sich unter Kirchen in Leipzig, Ehemalige Kirchen in Leipzig und Synagogen in Leipzig". In der Innenstadt befinden sich zwei sehr bekannte Kirchenbauten. Die Thomaskirche war die Wirkungsstätte von Johann Sebastian Bach und wird heute noch durch Aufführungen des Thomanerchors belebt. Das gotische Bauwerk stammt größtenteils aus dem späten 15. Jahrhundert. Die Nikolaikirche war einer der wichtigsten Orte der Friedensgebete und Ausgangspunkt der Montagsdemonstrationen in Leipzig, einem wesentlichen Bestandteil der politischen Wende in der DDR. Sie wurde ab 1165, dem Jahr der Vergabe des Stadtrechts, im romanischen Stil errichtet und im Spätmittelalter zu einer gotischen Hallenkirche umgestaltet. Unmittelbar neben der Nikolaikirche befindet sich die Alte Nikolaischule. Zum Gedächtnis der russischen Gefallenen während der Völkerschlacht bei Leipzig entstand 1913 die Russische Gedächtniskirche im sogenannten Nowgoroder Stil russisch-orthodoxer Kirchen. In Leipzig sind zwei bedeutende Kirchenbauten der klassischen Moderne zu finden: die Versöhnungskirche in Gohlis-Nord und die Bonifatiuskirche in Connewitz. Die 1932 geweihte Versöhnungskirche zählt zu den wichtigsten Zeugnissen sakraler Architektur im Stile des Neuen Bauens in Deutschland. Die St.-Bonifatius-Kirche gilt als wichtigster katholischer Kirchenneubau zwischen den beiden Weltkriegen in Sachsen. Der Rundbau im Stil des Art déco wurde 1929/30 zur Erinnerung an die im Ersten Weltkrieg gefallenen Mitglieder des Katholischen Kaufmännischen Vereins errichtet. Historische Gebäude. Die Innenstadt Leipzigs besteht aus sehr wechselvollen Ansichten. Im Herzen der Stadt dominiert das Alte Rathaus, ein Renaissancebau aus den Jahren 1556/57. Bemerkenswert ist, dass dieses nicht den damaligen Regeln gemäß axialsymmetrisch in der Frontansicht aufgebaut, sondern im Goldenen Schnitt geteilt ist. Der aus der Mittelachse gerückte Rathausturm galt als architektonische Avantgardeleistung der damaligen Zeit und stand mit dem dadurch verursachten Wirbel und Aufruhr für das städtische Selbstbewusstsein und das typische Bestreben, stets einen eigenen, unabhängigen Weg zu wählen und zu behaupten. Sein Erbauer, Hieronymus Lotter – Stadtbaumeister, Ratsherr und Bürgermeister – errichtete auch die Alte Waage am Marktplatz sowie wesentliche Teile der Stadtbefestigung. So konstruierte er die noch heute erhaltene Moritzbastei, die zwischen 1551 und 1554 erbaut wurde. Sie galt als Meisterwerk der Festungsbaukunst und uneinnehmbar. Im Dreißigjährigen Krieg wurde sie jedoch von schwedischen Truppen überrannt. Vorher befand sich in unmittelbarer Nähe die Pleißenburg, die bereits im Schmalkaldischen Krieg im 16. Jahrhundert beschädigt und teilweise geschleift wurde. Das Neue Rathaus befindet sich auf den Resten der Pleißenburg. Es ist mit seinem 114 Meter hohen Hauptturm eines der größten Rathausgebäude weltweit. Mit dem starken Wachstum Leipzigs im 19. Jahrhundert benötigte die Stadtverwaltung dieses größere Bauwerk, das 1905 fertiggestellt wurde. Ein großer Teil der Innenstadt wird durch ehemals von der Leipziger Messe genutzte Handelshöfe, prachtvolle Kaufmannshäuser mit charakteristischen Passagen, dominiert. Die Passagen wurden ursprünglich angelegt, um den Kutschen in den engen Innenhöfen das Wenden zu ersparen. Der älteste noch erhaltene Handelshof ist Barthels Hof, weitere mittlerweile restaurierte sind Specks Hof oder Stenzlers Hof. Sie dienten hauptsächlich zur Ausrichtung von Handelsmessen. Das Städtische Kaufhaus und der Handelshof waren die ersten Mustermessehäuser der Stadt. Andere Handelshäuser wie Auerbachs Hof wurden bereits Anfang des 20. Jahrhunderts in Ladenstraßen umgewandelt, als sich der Rückzug der Leipziger Messe aus der Innenstadt mit dem Bau des Messegeländes abzeichnete. Auf dem Gelände von Auerbachs Hof befindet sich heute die prachtvollste Passage Leipzigs, die nach mailändischem Vorbild von 1912 bis 1914 errichtete Mädlerpassage. Hier befindet sich der durch Goethes Faust weltberühmt gewordene Auerbachs Keller. In Leipzig gibt es noch viele Gebäude des bürgerlichen Barock, die in der wohlhabenden Kaufmannsstadt etwa zeitgleich mit den Gebäuden des kurfürstlichen Barock in Dresden entstanden. Unmittelbar hinter dem Alten Rathaus, am Naschmarkt, befindet sich die im Barockstil errichtete Alte Börse, die einstmals als Versammlungsgebäude der Leipziger Kaufmannschaft diente. Wohlhabende Bürger erbauten Stadtpalais in der kompakten Innenstadt wie das Fregehaus, das Romanushaus und das Königshaus, das bis ins 19. Jahrhundert als Gästehaus des Stadtrates für hochrangige Besucher diente. Teilweise bestanden die Gebäude schon vorher und wurden im 18. Jahrhundert umgebaut. In Randlage der Stadt entstand das Gohliser Schlösschen ebenfalls als barockes Bauwerk in bürgerlichem Besitz. An die Aufenthalte und Wirkungsstätten von berühmten Personen erinnern einige Gebäude in Leipzig. So befindet sich östlich der Innenstadt das Mendelssohn-Haus, in dem Felix Mendelssohn Bartholdy, der als Komponist am Gewandhaus wirkte, bis zu seinem Tod lebte. Auch Friedrich Schiller verbrachte 1785 einige Monate in Leipzig beziehungsweise im damals noch außerhalb der Stadtgrenzen gelegenen Gohlis. Dort befindet sich das Schillerhaus, das eigentlich ein Bauernhaus ist. Dort arbeitete Schiller unter anderem an dem Gedicht An die Freude, das später von Ludwig van Beethoven in seiner 9. Sinfonie vertont wurde. Das historistische Portal des Reichsgerichtsgebäudes Leipzig besitzt einige bedeutende Gebäude des Historismus. Das Völkerschlachtdenkmal als eines der bekanntesten Wahrzeichen der Stadt wurde ab 1898 als Mahn- und Denkmal an die Völkerschlacht 1813 errichtet. Seine Architektur ist über klassische Motive stark symbolbehaftet und wirkt durch Höhe und Stärke der Wände und Säulen äußerst massiv. Die Ähnlichkeit des Reichsgerichtsgebäudes, das von 1888 bis 1895 erbaut wurde, mit dem Reichstagsgebäude in Berlin ist nicht zu verkennen. Beide orientieren sich an Motiven der italienischen Renaissance und sollen über ihre monumentale Wirkung das gefestigte Deutsche Reich verkörpern. Die Deutsche Bücherei markiert am Ende des Vorkriegshistorismus einen Übergang zur Moderne. Ähnlich wie beim Deutschen Hygienemuseum bleiben die Formen monumental und aufragend; die Auffüllung der Fassade wurde aber vergleichsweise sachlich angelegt. Oskar Pusch entwarf neben der Bücherei auch das neoklassizistische Achilleion auf dem Messegelände Leipzigs. Das Gebäude der Universitätsbibliothek Albertina ist als Bauwerk der Neorenaissance mit einem mittigen Eingangsportal stark symmetrisch konzipiert. Der Mendebrunnen ist die größte Zierbrunnenanlage in Leipzig und wurde 1883 im Stil des Neobarock erbaut. Das Grassimuseum wurde 1925 bis 1929 in einem Stil mit Anklängen an Art Déco und Neue Sachlichkeit als einer der wenigen deutschen Museumsneubauten in der Zeit der Weimarer Republik errichtet. Moderne und zeitgenössische Architektur. Leipzigs Architektur der Moderne ist vor allem durch die Hochhäuser geprägt. Das Krochhochhaus entstand 1927/28 als erstes Hochhaus in Leipzig in Stahlbetonskelettbauweise und gehört zu den wenigen erhaltenen Gebäuden der Vorkriegsmoderne. Der schlicht gestaltete, schlanke, etwa 50 Meter hohe Turm mit markantem Glockenspiel wurde dem Uhrenturm (Torre dell'Orologio) in Venedig nachempfunden. Unweit davon überragt das City-Hochhaus mit seinen 142 Metern (155,40 m Gesamthöhe mit Antennenträger) weithin die Innenstadt. Es wurde von 1968 bis 1972 als Sektionsgebäude für die Universität erbaut und trägt durch seine Form als aufgeschlagenes Buch eine eindeutige Symbolik. Es war bis 1972 auch das höchste Gebäude in Deutschland, als es vom Jenaer Uniturm abgelöst wurde. 1972 wurde das 95 Meter hohe (106,8 m Gesamthöhe) Wintergartenhochhaus mit 31 Etagen am Hauptbahnhof als höchstes Wohngebäude Leipzigs eingeweiht. Ein weiteres architektonisch bedeutsames, hohes Gebäude am östlichen Innenstadtring ist das 1928/29 im Stil der „Neuen Sachlichkeit“ errichtete, 53 Meter hohe Europa-Hochhaus an der Südostseite des Augustusplatzes, nach dem Krochhochhaus das zweite in Leipzig gebaute Hochhaus. Das Europa-Haus war Ausgangsbau des 1927 vom damaligen Stadtbaurat Hubert Ritter vorgelegten, jedoch nie verwirklichten Ringcity-Konzeptes. Dieses sah vor, die Innenstadt durch eine moderne Randbebauung mit mehreren Hochhäusern über den im 19. Jahrhundert angelegten Promenadenring hinweg zu erweitern und damit den kompakten Altstadtkern durch die Schaffung damals dringend benötigter neuer Gewerbeflächen zu entlasten und dessen historische Bebauung zu bewahren. Am Augustusplatz, der östlichen Grenze der Innenstadt, befinden sich das Neue Gewandhaus und das Opernhaus. Beide sind moderne Neubauten, die an der Stelle von im Zweiten Weltkrieg zerstörten Kulturhäusern errichtet wurden. Das Opernhaus wurde zwischen 1956 und 1960 am Ort des Vorgängerbauwerks errichtet und nimmt dessen spätklassizistische Formen vereinfacht auf. Der Bau gilt durch seine Verbindung von Tradition und Moderne heute als ein Musterbeispiel der DDR-Architektur jener Zeit. Das am Standort des ehemaligen Städtischen Museums erbaute Neue Gewandhaus war der einzige vollwertige Konzertsaalneubau der DDR und gehörte zu ihren aufwändigsten Bauprojekten. Auffällig ist die hohe Glasfront, auf die ein massiver Betonsims gesetzt ist. Mit dem Neubau moderner Kulturhäuser wurde in Leipzig ein anderer Weg gewählt als in Berlin und Dresden, wo Konzerthaus und Semperoper detailgetreu wiederaufgebaut wurden. Dies hatte neben Kostenaspekten auch konzeptionelle Gründe, da der damalige Karl-Marx-Platz in seiner Gesamtheit ein von sozialistisch geprägten Gestaltungsgrundsätzen geprägtes Antlitz erhalten sollte. Auch der nördliche Innenstadtring wird durch zwei Hochhäuser flankiert. Das knapp 70 Meter hohe Hochhaus Löhrs Carré (Sitz der Sparkasse Leipzig/Sachsen Bank) und das 96 Meter hohe Hotel „The Westin Leipzig“ bilden hier ein Ensemble. Die Dominante der Ringbebauung im Südwesten der City ist der 115 Meter hohe Turm des Neuen Rathauses, der zugleich der höchste Rathausturm Deutschlands ist. Verkehrs- und Industriebauwerke. Leipzig wird noch von einer Ringeisenbahn umgeben, an die sich zwei Kopfbahnhöfe anschließen. Beide Bahnhöfe, der Hauptbahnhof und der Bayerische Bahnhof sind durch den City-Tunnel verbunden. Der Hauptbahnhof gilt als der größte Kopfbahnhof Europas. Er steht mit einer fast 300 Meter breiten historistischen Fassade an der Grenze der Innenstadt und besteht dahinter aus zwei großen Empfangshallen. Diese sind entstanden, weil der Bahnhof früher in einen sächsischen und einen preußischen Teil aufgeteilt war, wobei jeder seine eigene Empfangs- und Wartehalle hatte. Insgesamt verfügt der Bahnhof über sechs Bahnsteighallen. Er wurde bis 1997 aufwendig restauriert und am Querbahnsteig um ein Einkaufszentrum ergänzt. Südlich vor der Innenstadt liegt der bis 1844 errichtete Bayerische Bahnhof, der älteste erhaltene Kopfbahnhof Deutschlands. Markantes Merkmal des Bahnhofs ist der viertorige Portikus für die Eisenbahn. Die Buntgarnwerke in Plagwitz sind Deutschlands größtes Industriedenkmal aus der Gründerzeit mit über 100.000 Quadratmetern Geschossfläche. Im Süden liegen die Leipziger Großmarkthallen, scherzhaft „Kohlrabizirkus“ genannt. Sie beherbergen heute eine Eislaufbahn und werden als Veranstaltungshalle genutzt. Brücken. Die Stadt Leipzig hat derzeit 479 Brücken und Stege. Dazu zählen gegenwärtig 180 Eisenbahnbrücken und 277 Straßenbrücken. Musik und Theater. Mendelssohn-Denkmal (um 1898), heute als Rekonstruktion gegenüber dem alten Bachdenkmal vor der Thomaskirche. Das Bachfest Leipzig ist ein Musikfestival, das erstmals 1908 stattfand. Seit 1999 wird es jährlich ausgerichtet und widmet sich ganz der Pflege der Werke von Johann Sebastian Bach. Außerdem werden jährlich die Mendelssohn-Festtage Leipzig veranstaltet, die sich um das Erbe von Felix Mendelssohn Bartholdy in der Stadt kümmern. Die Richard-Wagner-Gesellschaft Leipzig 2013 veranstaltet seit 2006 jährlich um den Geburtstag des Komponisten Richard Wagner herum die Wagner-Festtage Leipzig. Mit der Veranstaltung soll das Andenken an den Komponisten in seiner Heimatstadt verbessert werden. Der "Robert-und-Clara Schumann-Verein" veranstaltet in Gedenken der beiden jährlich die "Schumann-Woche". Das Internationale Kammermusikfestival Leipzig wird in Kooperation mit dem Gewandhaus seit 1996 im November durchgeführt. Innerhalb der Classic Open Leipzig finden seit 1995 im August Freiluftkonzerte und Videoübertragungen von Konzerten in der Leipziger Innenstadt statt. Bei der seit 1997 veranstalteten Konzertwoche Internationales Festival für Vokalmusik „a cappella“ treten jeweils im Mai international renommierte und Nachwuchskünstler dieses Genres auf. Im Oktober werden seit 1976 die Leipziger Jazztage veranstaltet. Sie widmen sich dem zeitgenössischen Jazz und werden vom "Jazzclub Leipzig e. V." ausgerichtet. Die Pop-Up ist eine seit 2001 jährlich im Frühjahr stattfindende Messe zur Independent-Popkultur, zu der auch Diskussionsforen und ein Musikfestival in Leipziger Clubs gehören. Seit 2004 veranstaltet der Radiosender Energy Sachsen zweimal im Jahr die Energy Clubzone. Courage zeigen ist ein seit 1998 am 30. April stattfindendes Rockkonzert vor dem Leipziger Völkerschlachtdenkmal, das als Antwort auf die Neonazi-Aufmärsche am 1. Mai entstand. Seit 1991 findet jährlich im November das Festival euro-scene Leipzig statt. Es widmet sich dem experimentellen Theater und dem modernen Tanz. Die Lachmesse ist ein Europäisches Humor- und Satire-Festival, das seit 1991 jährlich im Oktober in Leipzig veranstaltet wird. Sie vergibt den mit 3500 Euro dotierten Kleinkunstpreis "Leipziger Löwenzahn". Feste und Märkte. Classic Open auf dem Augustusplatz (2010) Über Pfingsten ist Leipzig jährlich Austragungsort des viertägigen Wave-Gotik-Treffens "(WGT)," das seit 1992 stattfindet, derzeit regelmäßig bis zu 30.000 Besucher aus der Schwarzen Szene in die Stadt lockt und selbst szenefremde Leipziger und die Besucher mit „weniger schwarzen“ Veranstaltungen wie dem „Wikingerlager“, dem „Heidnischen Dorf“ und mehreren Mittelalter-Märkten erfreut. Alljährlich richtet der Leipzig Tourist Service das Leipziger Stadtfest aus, das mit seinen über 300.000 Besuchern zu den zehn größten Open Air Veranstaltungen Deutschlands zählt. Die Leipziger Kleinmesse ist ein jetzt dreimal (früher zweimal) jährlich stattfindendes Volksfest, das 1907 als Ableger der Leipziger Messe entstand. Bis 1935 wurde es auf der sogenannten „Vogelwiese“ an der Alten Elster veranstaltet. 1936 erfolgte der Umzug an den Cottaweg, westlich des Elsterbeckens. Anfang 2009 wurde der Kleinmesseplatz jedoch erneuert, es entstand ein runder, gepflasterter Platz für Zirkus und Kleinmesse. Der Leipziger Weihnachtsmarkt ist einer der größten in den östlichen Bundesländern und wird seit 1767 ausgerichtet. Im Herbst findet die "Interkulturelle Woche" statt, hier werden zahlreiche Lesungen, Diskussionen, Konzerte usw. veranstaltet. Das Eröffnungskonzert findet in der Nikolaikirche statt und markiert gleichzeitig den Beginn der sachsenweiten Aktionswochen. Die Saxonia International Balloon Fiesta ist ein populäres Ballonfestival mit europäischer Beteiligung. Es findet jährlich Ende Juli in Leipzig statt und wird von mehr als 130.000 Menschen besucht. Die erste Fiesta fand 1995 mit 5000 Besuchern und 100 Heißluftballonen in der sächsischen Kleinstadt Mügeln statt. 1996 wurde die Veranstaltung nach Leipzig in das Naherholungsgebiet an den Silbersee verlegt, da dieses außerhalb der offiziellen Flugkorridore liegt. Der Silbersee-Park liegt zwischen den urbanen Gebieten Lößnigs und der Braunkohlelandschaft des Leipziger Südraumes, der zurzeit (Stand 2010) rekultiviert und umgestaltet wird. Bei der Veranstaltung kämpfen die Heißluftballone in den Kategorien Fuchsjagd, Weitflug und Keygrab. Seit 2009 wird jährlich mit dem Lichtfest Leipzig der Montagsdemonstration vom 9. Oktober 1989 gedacht. An der ersten Veranstaltung nahmen 150.000 Menschen teil. Der Karneval spielt im protestantischen Leipzig nur eine untergeordnete Rolle. Seit den 1950er Jahren entstand mit dem Leipziger Studentenfasching eine jährliche Veranstaltungsreihe. 1992 gründete sich das "Förderkomitee Leipziger Karneval e. V." und richtet alljährlich einen Rosensonntagsumzug unter dem Motto "Leila helau" aus. Institute. Die Deutsche Hochschule für Körperkultur (DHfK) war in der DDR eine international renommierte Sporthochschule, aus der zahlreiche Spitzensportler und -trainer hervorgingen. Einige Angehörige waren allerdings in das in der DDR systematisch betriebene Doping verstrickt. Die DHfK wurde 1990 zu Gunsten der Deutschen Sporthochschule Köln abgewickelt. In ihrer Tradition steht die 1993 gegründete "Sportwissenschaftliche Fakultät" der Universität Leipzig. Die Abkürzung „DHfK“ tragen noch die HSG DHfK und der SC DHfK im Namen. Heute ist in der Stadt noch das Institut für Angewandte Trainingswissenschaft ansässig. Stützpunkte. In Leipzig befindet sich zurzeit ein Olympiastützpunkt, in den mehrere Bundes- und Landesstützpunkte integriert sind. So gibt es Bundesstützpunkte in den Sportarten Kanu-Slalom, Kanu-Rennsport, Leichtathletik und Judo. Bundesstützpunkte für den Nachwuchs liegen beim Schwimmen, Turmspringen und Turnen der Frauen. Landesstützpunkte umfassen Volleyball der Männer, Handball der Frauen, Rudern und Ringen (Freistil). Sportverbände. Neben dem Landessportbund Sachsen sind auch mehrere andere Landesverbände, wie der Sächsische Fechtverband, der Sächsische Hockey-Verband, der Sächsische Kanu-Verband, der Sächsische Tennisverband und der Rugby-Verband Sachsen in Leipzig angesiedelt. Hand-, Volley- und Basketball. Der HC Leipzig (HCL) ist einer der besten Frauen-Handballclubs Deutschlands. Er war viermal Europapokal-Sieger, sechsmal Deutscher Meister, dreimal DHB-Pokalsieger und 13 Mal DDR-Meister. Im Herrenhandball ist der SC DHfK Leipzig Handball in der Handball-Bundesliga vertreten. Die 2009 neu gegründeten L.E. Volleys spielen in der 2. Volleyball-Bundesliga. Der Basketball-Verein Leipzig (BBVL) spielt in der Basketball-Bundesliga der Damen. Die letzten Erfolge der Herrenteams liegen bereits bis in DDR-Zeiten zurück. Fußball. Leipzig hat eine lange und große Fußballtradition. Es war 1900 Gründungsort des Deutschen Fußball-Bundes (DFB). Die Gründung fand im Restaurant „Zum Mariengarten“ in der Karlstraße 10 statt. Der VfB Leipzig war der erste deutsche Fußballmeister und konnte diesen Triumph zweimal (1906, 1913) wiederholen. Nach dem Zweiten Weltkrieg wurde er von der sowjetischen Besatzungsmacht aufgelöst und bestand von 1966 bis 1991 als 1. FC Lokomotive Leipzig, dessen Namen der inoffizielle Nachfolgeverein des aufgrund einer Insolvenz liquidierten VfB Leipzig seit 2004 wieder trägt. Lok Leipzig war viermaliger DDR-Pokalsieger, dreimaliger DDR-Vizemeister und schaffte es 1987 bis in das Finale des Europapokals der Pokalsieger. Der 1. FC Lokomotive Leipzig spielte bisher in der Oberliga, schaffte aber zum Ende der Saison 2011/12 den Aufstieg in die neue Regionalliga Nordost. Der zweite traditionsreiche Fußballclub, der FC Sachsen Leipzig (bis 1990 BSG Chemie Leipzig), war zweimaliger DDR-Meister und einmal FDGB-Pokal-Gewinner. Die beiden quasi indirekt nachfolgenden Vereine des in Abwicklung befindlichen FC Sachsen Leipzig, die BSG Chemie Leipzig und die SG Leipzig-Leutzsch, spielen derzeit in der Landesliga Sachsen und haben beide als Heimspielstätte den Alfred-Kunze-Sportpark. Der Verein hat zum 30. Juni 2011 jedoch seinen Spielbetrieb endgültig eingestellt und befindet sich in der Abwicklung. Im Mai 2009 wurde der Verein RB Leipzig gegründet. Dieser spielte mit der Oberliga-Lizenz des SSV Markranstädt und schaffte nach einer Saison in der Oberliga den Aufstieg in die Regionalliga. 2013 schaffte es RB Leipzig in die 3. Liga und 2014 den Aufstieg in die 2. Bundesliga. RB Leipzig trägt seine Heimspiele seit der Saison 2010/11 in der Red Bull Arena aus. Das Leipziger Zentralstadion wurde 1956 mit 100.000 Plätzen als größtes Stadion Deutschlands eröffnet. Der Zuschauerrekord liegt weit über dem Fassungsvermögen und datiert aus dem Jahr 1958 beim Spiel SC Wismut Karl-Marx-Stadt–1. FC Kaiserslautern, bei dem 125.000 Zuschauer im Stadion waren. Dies ist bis heute der Zuschauerrekord für Fußballspiele in Deutschland. Zwischen 2000 und 2004 wurde innerhalb des alten Stadionwalls ein neues Fußballstadion mit 44.345 Plätzen gebaut, es gehört heute mit der Arena Leipzig, der Nordanlage (Leichtathletik-Anlage) und der Festwiese zum Leipziger Sportforum. Das Bruno-Plache-Stadion in Probstheida war bei seiner Einweihung 1922 mit 40.000 Sitzplätzen das größte vereinseigene Stadion in Deutschland und ist heute Spielstätte des 1. FC Lokomotive Leipzig. Der Alfred-Kunze-Sportpark in Leutzsch war das Heimstadion des FC Sachsen Leipzig. Hockey. Mit dem ATV Leipzig 1845, dem Leipziger SC 1901 und dem HC Lindenau-Grünau spielt man auch Feld- und Hallenhockey auf hohem Niveau. Während die Damen des ATV in der Feldsaison 2010/11 in der 2. Bundesliga spielten, sind sie seit Jahren in der Hallenhockeybundesliga vertreten. Sowohl die Herren des ATV, als auch die Damen des HCLG Leipzig spielten beide in der Saison 2009/10 in der zweiten Bundesliga und sind aktuell in der dritthöchsten Spielklasse, der auch die Damen des Leipziger SC lange Jahre angehörten, vertreten. Die Herren des Leipziger SC schafften den Aufstieg 2010/11 in die Regionalliga und konnten diese Spielklasse 2011/12 halten. In der Arena Leipzig wurde 2003 die 1. Hockey-Weltmeisterschaft in der Halle und 2015 die 4. Hallenhockey-Weltmeisterschaft ausgetragen. Es traten sowohl bei den Herren wie bei den Damen 12 Nationalmannschaften an. Leichtathletik. Das Leichtathletikzentrum Leipzig übernahm die ehemals sehr erfolgreiche Leichtathletiksektion der DHfK. Besonders in den Disziplinen Kugelstoßen und Hürdenlauf konnten in den vergangenen Jahren Erfolge erzielt werden. Wassersport. Um national und international erfolgreicher auftreten zu können, haben sich verschiedene Leipziger Schwimmvereine am 25. September 2008 zu einer Startgemeinschaft (SSG Leipzig) zusammengeschlossen. Hier treten die D-Kader der Vereine geschlossen bei Wettkämpfen auf. Der Kanusport hat in Leipzig eine große Tradition. So ist der Leipziger Kanu Club (LKC) besonders im Kanuslalom aktiv. Aber auch im Rennsport (zum Beispiel bei der SC DHfK Leipzig sowie LVB Leipzig) sind Leipziger Kanusportler international erfolgreich (unter anderem: Christian Gille, Anett Schuck, Robert Nuck, Tina Dietze und Mandy Planert). Darüber hinaus gibt es viele Kanuvereine, die ausschließlich das Wasserwandern betreiben. Der SC DHFK ist beim Turmspringen aktiv, Heike Fischer gewann bei den Olympischen Spielen in Peking 2008 eine Bronzemedaille. Radsport. Auf der Radrennbahn Alfred-Rosch-Kampfbahn in Kleinzschocher finden seit 1949 Bahnradsportveranstaltungen statt, wie früher DDR- und heute deutsche Bahnmeisterschaften. 1960 wurden auf ihr die Bahn-Weltmeisterschaften ausgetragen sowie 1981 die Juniorenweltmeisterschaften. 1989 war sie Ziel der Internationalen Friedensfahrt. Rugby. Rugby kann auf eine lange Tradition in Leipzig verweisen. Rugby in Leipzig geht bis in die 1950er Jahre zurück, als mehrere Rugby-Abteilungen gegründet wurden. BSG Lok Leipzig-Wahren, DHfK Leipzig, BSG Gastronom Leipzig und der Armeesportklub ASK Leipzig waren vier Teams die sich in dieser Zeit bildeten. DHfK war das erfolgreichste Team. Die Mannschaft gewann zwischen 1954 und 1963 fünf Meisterschaften, gefolgt von Lok mit vier. In den 1980er Jahren hatten nur zwei Rugby-Abteilungen überlebt. Dies waren Lok und Gastronom. Lok hatte eine erfolgreiche Periode in den späten 1970er Jahren, als er die Dominanz von BSG Stahl Hennigsdorf brach und drei Ostdeutsche Meisterschaften hintereinander gewann. Mit der deutschen Wiedervereinigung gingen die beiden Rugby-Abteilungen in den HSG DHfK Leipzig über. Im September 1994 traten die Rugbyspieler in den TSV 1893 Leipzig-Wahren ein, wo sie wieder eine eigene Abteilung gründeten. Die Rugbyspieler blieben die nächsten zehn Jahre beim TSV, bis sie im September 2004 den RC Leipzig im Stadtteil Lützschena-Stahmeln gründeten. Der Rugby-Verband Sachsen hat seinen Sitz in Leipzig und plant zusammen mit dem Deutschen Rugby-Verband und der WILD Rugby Academy den Aufbau eines Leistungszentrums. Heute zählt Rugby neben wenigen anderen Sportarten in Leipzig zu einer Bundesligasportart. Andere. Die Damenmannschaft des Leipziger Tischtennisvereins (LTTV) „Leutzscher Füchse“ 1990 e. V. schaffte zur Saison 2012/13 als erster sächsischer Verein den Sprung in die erste Tischtennis-Bundesliga und konnte bisher die höchste Spielklasse immer knapp halten. Der 1992 gegründete American Football Club "Leipzig Lions" ist der erste sächsische Verein in dieser Sportart. Die Unihockey-Abteilung des SC DHfK Leipzig und die Unihockey-Löwen Leipzig spielen in der Unihockey-Bundesliga, die Eishockeymannschaft Icefighters Leipzig in der Eishockey-Oberliga Nord. Der SC Leipzig-Gohlis spielte mit der Herrenmannschaft eine Saison und mit der Damenmannschaft mehrere Jahre in der Schachbundesliga. Alljährlich wird auf der Anlage des Leipziger Tennisclubs 1990 e. V. am Zentralstadion das Tennisturnier Leipzig Open als Teil der HEAD German Masters Series durchgeführt. Internationale Großveranstaltungen. Leipzig war in den letzten Jahren oftmals Austragungsort von internationalen Sportveranstaltungen. Die 1. Hallenhockey WM wurde 2003 in der Arena ausgetragen, ebenso wie die Europameisterschaft der Herren im Feldhockey und die Weltmeisterschaften im Fechten im Jahr 2005. Bundesweites Aufsehen erweckte auch 2005 die Leipziger Kandidatur für die Olympischen Spiele 2012 und in deren Folge aufgekommene Korruptionsvorwürfe. Leipzig setzte sich zunächst überraschend gegen andere deutsche Städte wie Hamburg als nationaler Kandidat durch. Die Bewerbung wurde allerdings vom IOC nicht angenommen, weil die Stadt mit dieser weltweit größten Veranstaltung überfordert sei. Die Nachnutzung der erforderlichen Anlagen sei nicht gesichert und die Hotelkapazität zu klein. Die Spiele 2012 wurden nach London vergeben. 2006 war die Stadt offizieller Austragungsort der Fußball-Weltmeisterschaft 2006. Ein Jahr später folgte die Weltmeisterschaft im Bogenschießen auf der Festwiese. Dazu kamen denn die Europameisterschaften im Modernen Fünfkampf 2009 und im Fechten (2010). Im Pferdesport kann die Stadt auf zahlreiche Veranstaltungen zurück- und vorausblicken. So fand 2002 das Weltcupfinale der Springreiter und 2008 das der Viergespänner in Leipzig statt. Das Weltcupfinale 2011 wurde auf der Leipziger Messe erstmals in gleich vier Disziplinen ausgetragen. Jährlich im Januar findet das Weltcupturnier „Partner Pferd“ statt. Die Tradition des Leipzig-Marathons reicht bis ins Jahr 1897 zurück, als vom Leipziger Club "Sportbrüder" der erste Marathonlauf auf deutschem Boden organisiert wurde. Die jetzige Veranstaltung wird seit 1977 ausgetragen. Seit 1990 findet im Auwald der Leipziger 100-km-Lauf statt. Leipzig bewarb sich auch um die Ausrichtung der Olympischen Sommerspiele 2012 und wurde 2003 im Auswahlverfahren des Nationalen Olympischen Komitees für Deutschland als Kandidat aufgestellt. Die Bewerbung im Rahmen des internationalen Wettbewerbes unter dem Motto „one family“ (weitere Bewerberstädte: Havanna, Istanbul, London, Madrid, Moskau, New York, Paris und Rio de Janeiro) scheiterte am 18. Mai 2004 an der Entscheidung des Internationalen Olympischen Komitees, Leipzig nicht zu einer der fünf offiziellen „candidate cities“ zu ernennen. In Verbindung mit der Bewerbung kamen auch Korruptionsvorwürfe auf, in deren Folge der Olympia-Beauftragte Burkhard Jung von seiner Position zurücktrat. Die Olympischen Spiele wurden an London vergeben. Persönlichkeiten. Leipzig hat zahlreiche prominente Söhne und Töchter, beispielsweise den Philosophen und Wissenschaftler Gottfried Wilhelm Leibniz (1646–1716), den Komponisten Richard Wagner (1813–1883), den Kunsthistoriker Nikolaus Pevsner (1902–1983), den Sozialisten Karl Liebknecht (1871–1919) oder den NASA-Manager Jesco von Puttkamer (1933–2012). Zahlreiche nicht weniger berühmte Persönlichkeiten haben zumindest Teile ihres Lebens in Leipzig verbracht und gewirkt, wie die Komponisten Johann Sebastian Bach und Felix Mendelssohn Bartholdy, der Philosoph Friedrich Nietzsche, der Physiknobelpreisträger Werner Heisenberg oder der Automobilbauer August Horch. Die Stadt Leipzig hat seit 1832 an 82 Persönlichkeiten das Ehrenbürgerrecht verliehen. Sechs Personen (Karl Binding, Paul von Hindenburg, Adolf Hitler, Hans Frank, Wilhelm Frick und Walter Ulbricht) wurde das Ehrenbürgerrecht wieder aberkannt. Die Bürger der Stadt Leipzig wurden 2006 mit dem Courage-Preis für ihren Mut und gewaltlose Demonstrationen, die den Grundstein für die Wiedervereinigung legten, ausgezeichnet. Nach Leipzig benannte Ortschaften. In der kanadischen Provinz Saskatchewan gibt es eine Kleinstadt namens Leipzig. Ferner befinden sich mehrere nach Leipzig benannte Ortschaften in den Vereinigten Staaten. So tragen zwei Orte in Delaware und in Ohio den der englischen Aussprache angepassten Namen "Leipsic". In North Dakota liegt zudem das im Jahre 1901 von Russlanddeutschen gegründete "New Leipzig". Das Dorf Thurland in Sachsen-Anhalt hat einen Ortsteil "Klein Leipzig". In Russland gibt es im Südural, in der Oblast Tscheljabinsk (Rajon Warnenskij) nahe der Grenze zu Kasachstan ein Dorf mit dem Namen "Leipzig (Лейпциг)," das auf Kosaken zurückgeht, die an der Völkerschlacht bei Leipzig teilgenommen hatten. Leipzig im Film. Leipzig ist Kulisse für mehrere Filme und Fernsehserien. Der DEFA-Kriminalfilm "Schwarzer Samt" mit Erich Gerberding, Christine Laszar und Fred Delmare wurde 1963 in und um Leipzig gedreht. Drehorte waren unter anderem das Hotel Astoria und das Völkerschlachtdenkmal. Auch Rudi Strahls 1965/66 gedrehte Gangster-Komödie "Hände hoch oder ich schieße" mit Rolf Herricht, Herbert Köfer und Manfred Uhlig zeigt verschiedene Orte der Leipziger Innenstadt. Er ist der letzte unveröffentlichte DEFA-Film mit Aufführungsverbot aus der Zeit des 11. Plenums von 1965 und konnte erst 2009 für eine Kinoversion rekonstruiert werden. Leipziger Schauplätze präsentieren auch der DEFA-Musikfilm "Heißer Sommer (Film)" von 1968, der Kinderfilm "Der Weihnachtsmann heißt Willi" (1969), ebenfalls mit Rolf Herricht und die DEFA-Komödie "Du und ich und Klein-Paris" von 1971 nach dem gleichnamigen Jugendbuch von Rudi Strahl. Auch "Nikolaikirche," ein Film über die Demonstrationen im Wendeherbst 1989, wurde an Leipziger Originalschauplätzen gedreht. Das ZDF zeigt die Krimiserie "SOKO Leipzig". Die ARD zeigt im Ersten und die Serien "Tierärztin Dr. Mertens" und "In aller Freundschaft" sowie im MDR Fernsehen Dokumentationen über den Zoo "(Elefant, Tiger & Co.)" sowie über den Bahnhof "Leipzig Hauptbahnhof". Außerdem zeigte die ARD im Ersten von zwischen 2000 und 2007 die Leipziger Ermittler Ehrlicher und Kain und von 2008 bis 2015 Saalfeld und Keppler der Fernsehkrimireihe "Tatort". In dem Dokumentarfilm "Tanz mit der Zeit" werden vier ehemalige Mitglieder der Oper Leipzig, die in dem Tanzstück "Zeit – tanzen seit 1927" von Heike Hennig & Co mit achtzig Jahren auf die Bühne zurückkehrten, für ZDF und ARTE von Trevor Peters porträtiert. Die im Auftrag von ARD und MDR produzierten Filme "Ein Fall von Liebe" sowie die dazugehörige Fernsehserie werden ebenfalls in Leipzig gedreht. Auch der größte Teil des Films "Das Fliegende Klassenzimmer" nach dem gleichnamigen Buch von Erich Kästner spielt in Leipzig. Die westlichen Stadtteile der Wendezeit bilden die Kulisse für den Videoclip zu "Die da" von den Fantastischen Vier. In jüngerer Zeit war die Stadt Drehort für Fernsehfilme wie "Die Frau vom Checkpoint Charlie, 'Die Gustloff" oder "Dresden" und Kinofilme wie "Das weiße Band, Flightplan, Mr. Nobody, Schwerkraft, Ein russischer Sommer, Lila, Lila" oder "Unknown Identity". Zitate. Faust-Szene vor Auerbachs Keller (Ort des Fassrittes in Goethes Faust I) in der Mädlerpassage Lepton. Leptonen (von griechisch "leptós" ‚dünn‘, ‚klein‘, ‚fein‘) sind eine Klasse von Elementarteilchen, die zusammen mit den Quarks und den Eichbosonen die fundamentalen Bausteine bilden, aus denen sich die Materie zusammensetzt. Dies wird im Standardmodell der Elementarteilchen der Physik beschrieben. Historisch ist der Name Lepton in Abgrenzung zu zwei anderen Teilchenklassen gewählt, und zwar den Mesonen („mittelgewichtig“) und den Baryonen („schwergewichtig“). Mesonen und Baryonen zählen zu den Hadronen. Wie sich herausstellte, sind diese Hadronen aus je zwei Quarks (Mesonen) bzw. je drei Quarks (Baryonen) zusammengesetzt, also nicht elementar. Unter den Leptonen gibt es auch Teilchen, die keineswegs „leicht“ sind. So ist beispielsweise das τ-Lepton (oder "Tauon") etwa doppelt so schwer wie ein Proton. Zum Zeitpunkt der Namensgebung war das Tauon allerdings noch unbekannt. Insgesamt gibt es sechs Leptonen, die aufgrund ihrer physikalischen Eigenschaften in drei sogenannte Generationen aufgeteilt werden. In der folgenden Tabelle sind die Eigenschaften der Leptonen zusammengefasst. Leptonen unterliegen der schwachen Wechselwirkung und der Gravitation. Sofern sie eine elektrische Ladung tragen, wechselwirken sie auch durch die elektromagnetische Wechselwirkung. Alle Leptonen sind Fermionen und besitzen einen Spin ½. Elektron, Myon und Tauon tragen eine negative Elementarladung. Die Neutrinos sind nicht geladen, unterscheiden sich aber durch ihren Flavour (e, formula_5 oder formula_8). Zu jedem Lepton existiert ein Antiteilchen. Die Anti-Neutrinos haben keine elektrische Ladung, die elektrische Ladung der Antiteilchen von Elektron, Myon und Tauon ist eine positive Elementarladung. Für den Fall, dass die Flavour-Eigenzustände nicht den Massen-Eigenzuständen der Neutrinos entsprechen, ist der Flavour keine Erhaltungsgröße mehr. Für ein Neutrino, das im Eigenzustand e erzeugt wurde, gibt es nach einer gewissen Zeit eine Wahrscheinlichkeit, auch im Zustand formula_5 oder formula_8 nachgewiesen zu werden (Neutrinooszillationen). Dieses Modell kann das Defizit des auf der Erde gemessenen Flusses der Sonnen-Neutrinos erklären (Solares Neutrinodefizit). Diesen Ergebnissen zufolge haben Neutrinos eine Ruhemasse größer Null. Luftschiff. Ein Luftschiff ist ein lenkbares Luftfahrzeug, dessen Auftrieb auf aerostatischen Kräften beruht und das über eine eigene Antriebseinheit verfügt. Das Haupteinsatzgebiet heutiger Luftschiffe sind touristische Rundfahrten, Luftwerbung, Überwachungsaufgaben und vereinzelt auch Forschungsaufgaben. Die Geschichte der Luftschifffahrt geht bis ins 19. Jahrhundert zurück. Im 19. und speziell in der ersten Hälfte des 20. Jahrhunderts hatten Luftschiffe eine weitaus größere Bedeutung als zur heutigen Zeit. Sie sind die Pioniere des Luftverkehrs, waren Verkehrsmittel der ersten Luftfahrtgesellschaft und auch die ersten Luftfahrzeuge, die Passagiere im Liniendienst ohne Zwischenstopp über den Atlantik beförderten. Die Ära der Großluftschifffahrt begann im Ersten Weltkrieg, um militärischen Leistungsanforderungen nachzukommen. Während des Krieges wurden Luftschiffe mit dem Zweck des Personen- und Gütertransports eingesetzt. Zudem waren sie Langstreckenaufklärer und die einzigen Luftfahrzeuge ihrer Zeit, die eine größere Bombenlast tragen konnten. Später schützten sie Konvois vor feindlichen U-Booten und überwachten den Luftraum. Die großen Luftschiffe dieser Zeit kamen jedoch auch immer wieder durch Unglücke in die Schlagzeilen, denn die „Phase der Prototypen“ und das Heranreifen zu einer sicheren Technologie war erst wirklich abgeschlossen, als die „Ära der Großluftschiffe“ bereits ihr Ende fand. Der Luftschiffergruß lautet "„Glück ab!“", vgl. im Bergbau "„Glück auf!“" Aufbau und Funktion. Luftschiffe bestehen aus einem meist aerodynamisch geformten Auftriebskörper, der das Traggas enthält. An ihm sind je nach Bauart eine oder mehrere Gondeln befestigt. In dieser Gondel, bei einigen großen Luftschiffen auch innerhalb des Auftriebskörpers, ist Platz für die Besatzung, Passagiere, Frachtgut und die Aggregate. Triebwerke sorgen für eine Vortriebskraft, mit Leitwerken wird gesteuert. Das Traggas verleiht Luftschiffen ihren statischen Auftrieb, da es eine geringere Dichte als Luft aufweist. Luftschiffe schweben in der Luft, ähnlich einem U-Boot im Wasser. Im Fachjargon wird daher oft von "fahren" statt "fliegen" gesprochen, siehe Fahren oder fliegen. Als Traggas wird heute Helium benutzt, da es im Gegensatz zum früher verwendeten Wasserstoff nicht brennbar ist. Helium ist teurer als Wasserstoff und bei gleichem Volumen etwa doppelt so schwer, aber immer noch viel leichter als Luft. Entscheidend für den Auftrieb ist die Differenz zwischen der Traggas- und der Luftdichte. Wasserstoff hat einen etwa acht Prozent größeren Auftrieb als Helium. Ihr großes Volumen verleiht Luftschiffen einen hohen Luftwiderstand. Die Höchstgeschwindigkeiten sind daher auf rund 100 bis 150 km/h begrenzt. Da sich das Traggas mit zunehmender Höhe noch weiter ausdehnt, beträgt die maximale Flughöhe normalerweise nur etwa 2000–3000 Meter. Eine Ausnahme bilden bzw. bildeten die speziell für höhere Luftschichten konstruierten unbemannten Höhenplattformen, die derzeit entwickelt werden und die Kriegsluftschiffe im Ersten Weltkrieg, die höher als die meisten damals verfügbaren Flugzeuge steigen konnten. Einteilung. Der Begriff Hybridluftschiff wird für Luftfahrzeuge verwendet, die die Leichter-als-Luft-Technik mit der Schwerer-als-Luft-Technik kombinieren. Dabei wird der benötigte Auftrieb sowohl aerostatisch (wie bei konventionellen Luftschiffen) als auch zu einem erheblichen Teil aerodynamisch (wie bei Flugzeugen) erzeugt. Hier muss allerdings erwähnt werden, dass auch konventionelle Luftschiffe meistens „schwer“ operieren, d. h. einen geringen Teil (etwa fünf Prozent) des erforderlichen Auftriebs ebenfalls aerodynamisch erzeugen. Hybride Luftschiffe bestehen z. B. aus einem konventionellen Luftschiffkörper, an den Tragflächen angebracht sind. Frühere Projekte für „vollwertige“ Hybridluftschiffe kamen nie über das Prototypenstadium hinaus und waren von meist nur bescheidenem Erfolg oder gar Versagen geprägt. Aktuell stieg am 31. Januar 2006 unter militärischer Aufsicht das Lockheed-Modell P-791 erstmals auf. In Deutschland bilden Luftschiffe luftrechtlich eine eigene Luftfahrzeugklasse, Heißluft-Luftschiffe gelten jedoch als Ballon mit Hilfsantrieb. Antrieb und Steuerung. Blick aus der Steuergondel eines französischen Luftschiffes, 1918 Als Antrieb kommen hauptsächlich Benzin-Flugmotoren mit Luftschrauben zum Einsatz. Es gab Versuche, Blaugas oder das Wasserstofftraggas als Kraftstoff zu verwenden. Einige Schiffe besaßen auch Dieselmotoren, gegenwärtig (Stand 2005) verfügt darüber jedoch nur das ATG AT-10. Dieselmotoren verfügen über einen vergleichsweise hohen Wirkungsgrad und der Kraftstoff hat eine höhere Energiedichte als Benzin. Das einzige Luftschiff mit Gasturbinenantrieb (Turboprop) war das Goodyear GZ-22 „Spirit of Akron“ (1987–1999). Elektroantriebe wurden in den 1880er-Jahren bei einigen der ersten Luftschiffe überhaupt verwendet, als noch keine leistungsfähigen Verbrennungsmotoren zur Verfügung standen. Heute gewinnen sie bei unbemannten Höhenplattformprojekten oder Solarluftschiffen wieder an Bedeutung. Hauptproblem ist jedoch nach wie vor das schlechte Leistungs-Gewichts-Verhältnis der Energiespeicher. Ein kleines Elektroluftschiff kam bei der Erforschung des Regenwaldes zum Einsatz. Während die historischen Luftschiffe mit Wasserstoff-Füllung durch Ablassen von Traggas oder Ballastwasser ihr Gewicht genau auf den Auftrieb trimmen konnten und so auch in der Lage waren, antriebslos in der Luft zu schweben, wird bei modernen Luftschiffen im Normalbetrieb kein (teures) Helium abgelassen. Sie sind meist ein klein wenig schwerer als Luft unterwegs. Neben dem statischen Auftrieb durch das Traggas nutzen Luftschiffe ihren Antrieb, um dynamischen Auftrieb zu erzeugen. Durch die Geschwindigkeit und das Anstellen des Luftschiffkörpers gegenüber der Horizontalen entsteht ähnlich wie bei einem Flugzeug mit seinen Tragflächen eine Auftriebskraft. Dieser Effekt wird beispielsweise genutzt, wenn das Luftschiff steigen oder sinken soll, oder wenn sich das Gewicht des Luftschiffes während der Fahrt durch Regenwasser, das auf die Hülle fällt, erhöht. Auch beim Start, wenn noch viel Kraftstoff an Bord ist, wird dieser Effekt manchmal genutzt, indem das Luftschiff mit etwas „Anlauf“ ähnlich wie ein Flugzeug startet. Die meisten modernen Luftschiffe verfügen über schwenkbare Luftschrauben. Sie vereinfachen das Manövrieren und erlauben es dem Schiff, auch aus dem Stand aufzusteigen, wenn es etwas schwerer als Luft ist, und zu landen, wenn es leichter als Luft ist. Dazu drückt der Pilot das Luftschiff mit der Triebwerkskraft auf den Boden, wo es meist sofort mit etwas Ballast beschwert und an den Ankermast gelegt wird. Auf diese Weise braucht kein Helium abgelassen zu werden. Verwendung. Luftschiffe zeichnen sich gegenüber anderen Fluggeräten durch ihre Fähigkeit aus, ruhig und vibrationsarm mit relativ geringem Kraftstoffverbrauch eine sehr lange Einsatzdauer zu erreichen. Sie können stundenlang über einem Gebiet verweilen und bei Bedarf die Geschwindigkeit auch bis zum Stillstand drosseln. Neben diesen tatsächlichen Einsatzzwecken tauchten in der Historie der Luftschifffahrt immer wieder Projekte und Konzepte auf, Luftschiffe zum alleinigen Transport von Fracht als Transportluftschiffe einzusetzen. Eines der bekanntesten Projekte dieser Art stellt das deutsche Unternehmen CargoLifter dar, welches ein Transportluftschiff für bis zu 160 t schwere Fracht entwickeln wollte, aber nie über die Konzeptionsphase hinauskam. Auch der Luft- und Raumfahrtkonzern Boeing arbeitete bis zum Jahr 2011 an einem solchen Projekt, stellte dieses jedoch ebenfalls ein. Momentan versucht die britische Firma Hybrid Air Vehicles ein Hybridluftschiff mit einer Kapazität von bis zu 50 t Fracht zu entwickeln und bis zum Jahr 2015 auszuliefern. Idee und anfängliche Entwicklungen. Schon etwa im Jahr 1670 hatte der italienische Jesuitenpater Francesco Lana Terzi die Idee zur Konstruktion eines „Luftschiffs“. Er wollte ein Boot an luftleer gepumpten Kugeln aufhängen. Die Idee wurde nie realisiert. Aus dem Jahr 1785 stammt ein Luftschiffentwurf von Jean-Baptiste Meusnier, der bereits alle Elemente wie Auftriebskörper mit darunter aufgehängter länglicher Gondel, Steuerruder und drei muskelkraftbetriebene Luftschrauben für den Antrieb enthielt. Es wurde jedoch nicht gebaut. 1812 scheiterte Franz Leppich mit dem Versuch, sein für den Zaren Alexander I. konzipiertes Transportluftschiff mittels zweier großer Ruder, deren jedes fünf flügelartige Schaufeln besaß, durch Muskelkraft fortzubewegen. Das erste wirkliche Luftschiff, die „Giffard I“, führte seine Jungfernfahrt am 24. September 1852, rund 50 Jahre vor dem ersten Motorflug eines Flächenflugzeugs, durch. Es war von Henri Giffard gebaut worden und wurde durch eine 2,2 kW (3 PS) starke Dampfmaschine, die nur 45 kg wog, angetrieben. Die Fahrt führte von Paris nach Trappes über eine Strecke von 27 km. Die Geschwindigkeit betrug etwa 9 h und die Flughöhe bis zu 1800 m. Der Langballon, in den Giffard seine Dampfmaschine eingebaut hatte, war 44 m lang und hatte ein Volumen von 2.500 m³. Gondel und Motor hingen an einem Balken unter dem Ballon. Gesteuert wurde mit einem dreieckigen Segel. 1855 wollte Giffard ein zweites Luftschiff testen, wobei dieses jedoch zerstört wurde. Fünfzehn Jahre später, 1872, erreichte der deutsche Ingenieur Paul Haenlein mit seinem über 50 m langen Luftschiff „Aeolus“ eine Geschwindigkeit von 18 km/h. Es wurde von einem Lenoirschen Gasmotor angetrieben. Weitere 12 Jahre später, 1884, bauten die Hauptleute der französischen Luftschifferschule Charles Renard und Arthur C. Krebs ein Elektroluftschiff mit Akkubetrieb und führten mehrere Fahrten durch. Am 9. August dieses Jahres gelang es ihnen zum ersten Mal, mit einem Luftschiff nach dem Start zum Ausgangspunkt zurückzukehren. Das Luftschiff La France besaß als Antrieb einen Elektromotor mit einer Leistung von 6,25 kW (8,5 PS). Es war 50,42 m lang und hatte ein Volumen von 1864 m³. Die Fahrt dauerte 23 Minuten. Sie legten dabei eine Strecke von 7,6 km in einer Höhe von bis zu 300 m zurück. Später führten Renard und Krebs noch weitere Fahrten durch. Dabei erreichten sie eine Höchstgeschwindigkeit von 6,2 m/s (22,32 km/h). Der russische Raumfahrtpionier Konstantin Eduardowitsch Ziolkowski richtete seine Überlegungen 1885 neben anderem auch auf Ganzmetall-Luftschiffe. Bereits ein Jahr später veröffentlichte er seine Studie „Theoria Aerostatika“, der 1892 die „Aerostat Metallitscheski“ (Theorie eines Ganzmetall-Luftschiffes) folgte. Bis zu seinem Tod 1935 veröffentlichte er 35 Bücher, Artikel und Schriften zur Luftschiffthematik. In Deutschland führte derweil der Leipziger Buchhändler Dr. Friedrich Hermann Wölfert die Arbeiten Georg Baumgartens fort und konstruierte einen Lenkballon. Er sollte mit Muskelkraft gesteuert werden, was sich jedoch als nicht praktikabel erwies. Mit der Hilfe Gottlieb Daimlers wurde das Gefährt stattdessen mit einem Verbrennungsmotor, der so genannten „Standuhr“, mit 1,5 kW (2 PS) ausgestattet. Am 10. August 1888 startete Michael, der langjährige Begleiter Wölferts, von Daimlers Versuchswerkstatt auf dem Seelberg in Cannstatt zu einer Fahrt nach Aldingen. Wölfert kam später bei einer Vorführfahrt für die preußische Luftschifferabteilung ums Leben, als sein Luftschiff "Deutschland" am 12. Juni 1897 in Tempelhof bei Berlin aus 600 m Höhe abstürzte. Das erste Starrluftschiff wurde 1895/1896 von David Schwarz in Berlin entwickelt. Es bestand aus einem Aluminiumgerüst und war auch mit Aluminiumblech, einem damals erst seit kurzer Zeit zur Verfügung stehenden neuen Werkstoff, beplankt. Schwarz verstarb noch vor der ersten Testfahrt. Diese fand am 3. November 1897 auf dem Tempelhofer Feld in Berlin statt. Das Gefährt wurde bei der Landung irreparabel beschädigt und anschließend verschrottet. Der württembergische Kavallerieoffizier Ferdinand von Zeppelin war damals Augenzeuge, kaufte die Patente und Entwürfe auf und ließ sich 1898 einen Entwurf für einen „Lenkbaren Luftfahrzug“ patentieren. Frankreich. Die Liberté des französischen Luftschiffherstellers Lebaudy, ca. 1909 1884 stellten Charles Renard und Arthur H. C. Krebs in Chalais-Meudon ihr Luftschiff „La France“ fertig. Es war das erste Luftfahrzeug überhaupt, dem es gelang, aus eigener Kraft wieder an seinen Startpunkt zurückzukehren, und stellt damit das erste wirkliche Luftschiff dar. Gebaut wurde es im Hangar Y, der damit als die älteste Luftschiffhalle überhaupt heute noch existiert. Um die Wende vom 19. zum 20. Jahrhundert baute der gebürtige Brasilianer Alberto Santos-Dumont in Frankreich eine ganze Reihe von Prallluftschiffen. 1894 nutzte er den Benzinmotor seines Dreirades für ein Luftschiff. Vier Jahre später, 1898, baute er in relativ kurzer Zeit insgesamt 12 Luftschiffe. Mit dem dritten umkreiste er am 13. November 1899 zum ersten Mal den Eiffelturm in Paris. Mit seinem sechsten Luftschiff und einem gut 11 Kilometer langen Flug von St. Cloud bei Paris zum Eiffelturm und zurück in nicht mehr als 30 Minuten gewann er 1901 den mit 100 000 Franc dotierten Deutsch-Preis. 1901 wurde er zum Mann des Jahres in der Welt gewählt. Besonders mit seinem neunten Luftschiff erregte er Aufsehen in Paris und in der Welt. Er benutzte dieses Luftschiff häufig für Ausflugsfahrten und für Besuche bei Freunden. Oftmals band er sein Luftschiff nur an einem Baum oder vor seinem Hotelzimmer an. 1903 stieg das Schiff der Lebaudy-Brüder in Frankreich erstmals auf. Es besaß einen 35-PS-Daimler-Mercedes-Motor, der zwei Luftschrauben antrieb. Bei mehreren Fahrten, darunter eine mit 2 h und 46 min, wurde das Schiff weiter verbessert. Auch in den folgenden Jahren setzten sich diese Tätigkeiten fort, wobei das Schiff mehrmals nach Bruchlandungen in Bäumen neu aufgebaut wurde. Adolphe Clément baute das erste seiner mindestens sechs Luftschiffe (Clément-Bayard) im Jahr 1908 in Trosly-Breuil bei Compiègne. „Clément-Bayard“ N° 1 brach 1908 den Rekord des geschlossenen Rundfluges, mit „Clément-Bayard“ N° 2 gelang am 16. Oktober 1910 nach einem Start in Compiègne die erste Ärmelkanalüberquerung. Bei der ersten Luftfahrtausstellung im Grand Palais in Paris wurde das Luftschiff Ville de Bordeaux ausgestellt. Frankreich baute auch Militärluftschiffe, wie beispielsweise die République. Deutschland. Die bekannteste Persönlichkeit in der Luftschifffahrt war und ist der deutsche Luftschiffpionier Ferdinand Graf von Zeppelin. Zeppelins erstes Luftschiff LZ 1 stieg am 2. Juli 1900 am Bodensee zu seiner Jungfernfahrt auf. Der Absturz des „Zeppelins LZ 4“ bei Echterdingen am 5. August 1908 führte zur größten freiwilligen Spendenaktion im Kaiserreich, der „Zeppelinspende des deutschen Volkes“. Daraufhin errichtete er 1912 die größte Luftschiffhalle Deutschlands in Potsdam West mit dem Ziel, ein europäisches Luftfahrtzentrum zu errichten. Doch die Produktion wurde wenige Jahre später eingestellt, und 1920 musste die Luftschiffhalle aufgrund des Versailler Vertrages demontiert werden. Zeppelin etablierte auch den Werkstoff Aluminium in der Luftfahrt. Der erste Passagierlufthafen Deutschlands entstand im Jahr 1910 in Baden-Oos. Er wurde auf einer Grundfläche von etwa 160 × 30 Metern errichtet und war 30 Meter hoch. Am 21. August 1910 kam in Baden-Baden das erste Luftschiff, LZ 6, an. Zwei Tage später am 23. August fand die erste offizielle Passagierfahrt in Deutschland statt. An der zweistündigen Fahrt nahmen zwölf Personen teil, die dafür 200 Mark pro Person bezahlten. Die Rundfahrten wurden täglich fortgesetzt. Am 14. September wurde das Luftschiff durch ein Unglück jedoch völlig zerstört. Bereits im selben Jahr wurden Flugverbindungen von Baden-Baden aus mit dem LZ 7 angeboten. Bei der Bezeichnung der Zeppelin-Luftschiffe wurde traditionell das männliche Geschlecht verwendet. Es hieß der LZ 127 „Graf Zeppelin“ bzw. der LZ 129 „Hindenburg“. Nach dem Ende der deutschen Luftschifffahrt, bzw. ihrem Verschwinden aus dem öffentlichen Interesse nach dem Zweiten Weltkrieg, ging diese Sprachregelung jedoch teilweise verloren. Auch August von Parseval war hochpopulärer Luftschiffpionier im Deutschland nach der Jahrhundertwende. Unter der Bezeichnung Parseval entstanden zwischen 1909 und 1919 insgesamt 22 Luftschiffe, deren Bekanntheit sehr hoch war, jedoch von der Zeppelinbegeisterung noch überstrahlt wurde. Einige davon wurden ins Ausland verkauft. Weiterhin wurden vor dem Ersten Weltkrieg von Major Hans Groß und Oberingenieur Nikolaus Basenach (1875–1951) des in Berlin-Reinickendorf auf dem Gelände des heutigen Flughafens Berlin-Tegel stationierten Luftschiffer-Bataillons halbstarre Militär-Luftschiffe des nach ihnen benannten Typs Groß-Basenach gebaut und erprobt. Die Geschichte der Luftfahrtmessen in Deutschland begann mit der Internationalen Luftschiffahrt-Ausstellung vom 10. Juli bis 17. Oktober 1909 in Frankfurt am Main. Dort führte neben Zeppelin, Parseval und Hermann Ruthenberg auch der Kölner Ballonfabrikant Franz Clouth sein kleines Prallluftschiff vor, das neben Steuermann und Maschinisten auch vier Passagiere befördern konnte. Der Jungfernflug der „Clouth I“ fand bereits 1908 über Nippes statt. Am 21. Juni 1910 fuhr es auch über 200 km nach Brüssel zur Internationalen Industrieausstellung. Es legte bei über 40 Fahrten rund 2000 km zurück. Ab 1908 führte Deutschland, wie auch Frankreich und Belgien, erfolgreiche Versuche mit Funkgeräten in Luftschiffen durch. Dabei wurde der Erweis erbracht dass keine Gefahr für das Luftschiff von der Funkanlage ausging. Ferner unternahm das Luftschiff „Erbslöh“ ab 1909 rund um Leichlingen (Rheinland) mehrere Fahrten, bevor es am 13. Juli 1910 abstürzte. Von der Luftschiffhalle in Biesdorf (heute zu Berlin) aus startete am 23. Januar 1911 das Siemens-Schuckert-Luftschiff (SSL1) zu seiner ersten Probefahrt. Großbritannien. Stanley Spencer mit Frau und Tochter in seiner Werkstatt, ca. 1902 Das erste englische Luftschiff war das „Mellin's Food Airship“ von Stanley Spencer. Der Erstflug fand 1902 über London statt. Stanleys „No. 2“ machte seine Jungfernfahrt im September 1903 über dem Londoner Kristallpalast. USA. Walter Wellman (1858–1934) aus den USA startete 1906, 1907 und 1909 erstmals mit einem lenkbaren Luftschiff Richtung Nordpol. Alle drei Versuche scheiterten jedoch. Am 15. Oktober 1910 versuchte er mit dem Luftschiff „America“, den Atlantik zu überqueren. Auch dieser Versuch scheiterte 1.600 km von der Küste entfernt im Ozean. Bei dieser Gelegenheit setzte er mit seinem Notruf erstmals einen Funkspruch von einem Luftfahrzeug zu einem Seefahrzeug ab. Dieser Spruch lautete: "„Roy, komm und hol' die gottverdammte Katze!“" Damit war die Katze „Kiddo“ gemeint, die sich als blinder Passagier an Bord geschmuggelt hatte. Spanien. Leonardo Torres Quevedo baute 1905 sein erstes, halbstarres Luftschiff "España", das erfolgreiche Fahrten absolvierte. Daraufhin begann die Zusammenarbeit zwischen Torres und der französischen Gesellschaft "Astra", die 1911 mit dem Bau der "Astra-Torres Luftschiffe" begann, von denen einige ab 1913 an die französischen und britischen Streitkräfte verkauft und im Ersten Weltkrieg eingesetzt wurden. Erster Weltkrieg. Große technische Fortschritte bewirkte der Ausbruch des Weltkrieges 1914. Allerdings nutzte nur Deutschland während der Kriegszeit in größerem Umfang Militärluftschiffe beim Heer und bei der Marine für den Luftkrieg über Land und See. Alle anderen Nationen verwendeten ihre Luftkreuzer hauptsächlich bei der Marine. Während des Krieges kamen insgesamt rund 300 nichtstarre und etwa 100 starre Luftschiffe zum Einsatz. Die USA hatten in der Zeit von 1919 bis 1933 insgesamt 31 Prallluftschiffe sowie ein halbstarres Luftschiff für das Heer im Dienst, danach wurden alle Schiffe an die Marine abgegeben. Italiens 18 Heeresschiffe kämpften fast ausschließlich bei der Marine. Auch die Briten gliederten ihre sechs dem Heer zugeteilten Prallluftschiffe bei Kriegsausbruch der Marine an. Die nichtstarren Luftschiffe arbeiteten erfolgreich vor allem für die Seeraumüberwachung und als Eskorte für Handelsschiffkonvois. Dazu kamen die Starrluftschiffe von Zeppelin und Schütte-Lanz und die englischen Modelle, die vor allem als Aufklärer und Bomber eingesetzt wurden. Zeppelin und Schütte-Lanz. Ferdinand Graf von Zeppelin trieb die Entwicklung der Starrluftschiffe voran, welche deshalb nach ihm häufig „Zeppeline“ genannt werden. Durch die Verwendung eines starren Skeletts konnten wesentlich größere Luftschiffe gebaut werden, die insgesamt eine größere Nutzlast tragen konnten und einen größeren Einsatzradius hatten. Die größte deutsche Konkurrenz der Firma Luftschiffbau Zeppelin GmbH war die Firma Luftschiffbau Schütte-Lanz in Mannheim, 1909 gegründet von Johann Schütte und Karl Lanz. Das erste Schiff „S.L.-I“ stieg 1911 auf. Dieses Luftschiff bewährte sich jedoch nicht. Mit „S.L.-II“, das als Standardluftschiff des Ersten Weltkrieges bezeichnet wird, gelang es Schütte, einen technischen Vorsprung zu den Zeppelin-Luftschiffen zu schaffen, jedoch konnte das „System Schütte-Lanz“ nie Zeppelins Erfolge feiern. Schütte-Lanz belieferte ausschließlich das deutsche Militär. Im Gegensatz zu den Zeppelinen besaßen alle SL-Luftschiffe ein Gerippe aus Sperrholz. Nach dem Ersten Weltkrieg mussten wegen des Versailler Vertrages fast alle Luftschiffhallen des Deutschen Reiches abgerissen bzw. als Reparationen abgeliefert werden. Nur eine Bauhalle auf der Zeppelinwerft in Friedrichshafen und eine Halle im Luftschiffhafen Seddin bei Stolp blieben erhalten. Das (unter anderem) bedeutete das Aus für Schütte-Lanz als Luftschiffbauer. Lediglich der Sperrholzbau blieb erhalten und wird heute von der finnischen Firma Finnforest betrieben. Die Blütezeit zwischen den Weltkriegen. a> gefunden. Er dürfte aus der Blütezeit der Luftschifffahrt stammen. Bis zum Ankerhaken im Erdreich versenkt, konnten an ihm Luftschiffe bis 243 m Länge befestigt werden. Zwischen den beiden Weltkriegen entwickelte sich die Verkehrsluftschifffahrt. Es hatte bereits vor dem Krieg Anstrengungen gegeben, regelmäßige Fahrten zwischen verschiedenen europäischen Städten anzubieten. Zu diesem Zweck war auch bereits 1909 die erste Fluggesellschaft der Welt gegründet worden. Die DELAG (Deutsche Luftschiffahrts Aktiengesellschaft) betrieb Zeppelin-Luftschiffe im Verkehrsdienst. Sie und andere Luftschiffer, die zivile Projekte in Deutschland betreiben wollten, wurden jedoch durch die Alliierten und den Versailler Vertrag ausgebremst. Im Krieg hatten sich speziell die deutschen Luftschiffe zu Spitzentechnologieträgern entwickelt. Die deutsche Nachkriegsluftschifffahrt wurde jedoch verboten, alle großen Kriegs- und sogar einige Nachkriegsluftschiffe mussten als Reparation abgegeben werden. In anderen europäischen Staaten untersuchte man das Potenzial und die Machbarkeit von Verkehrsluftschiffen. Die erste Atlantiküberquerung eines Luftschiffes gelang vom 2. bis 13. Juli 1919 dem britischen R34, einer weitgehenden Kopie eines deutschen Zeppelins. Für den Hinweg von Schottland nach New York benötigte es 108 Stunden und für den Rückweg nur 75 Stunden, da der Rückenwind (Westwindzone) genutzt wurde. Dem Problem der großen Freiflächen für Luftschifflandungen wollten die Erbauer des Empire State Buildings (ESB) dadurch entgegenkommen, dass sie auf dem Dach dieses damals modernsten Hochhauses der Welt einen Ankermast installierten. Es kam dort jedoch niemals zu einer Luftschifflandung: Bald schon waren in Manhattan so viele andere Hochhäuser entstanden, dass selbst mit Heliumluftschiffen eine Inbetriebnahme nicht mehr in Frage kam. Heute kann man in dem im Luxor-Stil gestalteten Vestibül des ESB an den 4 Wänden die 7 Weltwunder sehen sowie – als 8. Weltwunder – das ESB selbst, wie gerade ein Luftschiff daran anlegt. Die US-amerikanische ZR-1 USS Shenandoah war 1923 das erste große Luftschiff mit einer Heliumfüllung. Es war zwar für Wasserstoff als Traggas konstruiert worden, jedoch entschied man sich nach mehreren aufeinanderfolgenden Unfällen mit anderen Luftschiffen, das damals nur begrenzt und nur in den USA verfügbare teure, aber unbrennbare Helium zu verwenden. 1926 überfuhr Umberto Nobile im Luftschiff „Norge“ unter anderem mit Roald Amundsen an Bord den Nordpol. Sie gewannen damit das Rennen um die erste Nordpolüberquerung in der Luft gegen den Amerikaner Richard Byrd, der fälschlich diese Erstüberquerung in der Luft nur drei Tage zuvor mit einem Flugzeug für sich beanspruchte. Dem für die USA als Reparationsleistung gebauten Zeppelin ZR-3 „USS Los Angeles“ gelang 1929 als erstem Luftschiff das Absetzen und die Aufnahme eines Flugzeuges in der Luft. Die gemeinsam von Goodyear und Zeppelin entwickelte USS Akron wurde 1931 für die US-Marine in Dienst gestellt. In der Größe entsprach sie etwa dem späteren LZ 129 „Hindenburg“, jedoch diente sie der militärischen Fernaufklärung über See. Darin wurde sie von Flugzeugen unterstützt, die während der Fahrt vom Luftschiff ausgesetzt und wieder eingeholt werden konnten. Die USS Akron ging im April 1933 über dem Atlantik im Sturm verloren. Über 70 Besatzungsmitglieder fanden den Tod. Ihr Schwesterschiff USS Macon wurde 1933 in Dienst gestellt. Sie ging im Februar 1935 vor der kalifornischen Küste nach einem Leitwerksbruch verloren. Dabei starben zwei Besatzungsmitglieder. ZMC-2 war ein 1929 gebautes Ganzmetall-Luftschiff. Die Hülle bestand aus vernietetem Duraluminiumblech. Die Konstruktion war selbsttragend. Es blieb jedoch trotz des innovativen und vielversprechenden Konzepts bei nur einem Prototyp. Das Schiff wurde nach dem Ende der geplanten etwa 10-jährigen Betriebsdauer und störungsfreiem Betrieb in der US-Marine abgerüstet. Nur wenig kleiner als der spätere LZ 129 „Hindenburg“ waren die beiden britischen Luftschiffe R100 und R101. Beide wurden um 1930 etwa zeitgleich gebaut und sollten als Passagierluftschiffe die Verbindungen innerhalb des britischen Empire verbessern. R100 unternahm einige erfolgreiche Fahrten, darunter auch eine nach Kanada. R101 war zwar etwas früher fertiggestellt worden, erwies sich aber als zu wenig tragfähig und wurde verlängert. Nach weiteren Änderungen und nur sehr wenigen Testfahrten brach das Schiff im Oktober 1930 zu seiner Jungfernfahrt nach Karatschi auf. Bereits in der Nähe der französischen Stadt Beauvais hatte das Schiff bei schlechtem Wetter Bodenberührung und geriet in Brand. 48 Personen kamen ums Leben. Nach ausführlicher parlamentarischer Debatte wurde R100 Ende 1931 verschrottet. Über die Luftschifffahrt in Russland und der Sowjetunion sind nur wenige und schwer prüfbare Fakten bekannt. So führte das unter der Anleitung von Umberto Nobile erbaute russische Luftschiff „UdSSR-W6 Ossoawiachim“ (CCCP-B6) am 5. November 1934 seine Jungfernfahrt durch. Es gilt als das erfolgreichste Luftschiff der Russischen Luftschifffahrt. Der Zeppelinkapitän Hugo Eckener wurde in Deutschland so populär, dass er bei der Reichspräsidentenwahl 1932 ernsthaft als Gegenkandidat gegen Adolf Hitler erwogen wurde. Die größten Luftschiffe überhaupt waren die Zeppeline LZ 129 „Hindenburg“ und sein Schwesterschiff LZ 130 Graf Zeppelin II mit 245 Metern Länge, einem Rumpfdurchmesser von über 40 Metern und einem Fassungsvermögen von rund 200 000 Kubikmetern Wasserstoff-Traggas. Die „Hindenburg“ konnte 50–70 Passagiere über eine Strecke von 17 500 Kilometern befördern. Am 6. Mai 1937 ging sie jedoch bei der Landung in Lakehurst/USA in Flammen auf, 36 Menschen starben. Dieses Unglück war zwar nicht das schwerste der Luftschifffahrt, die „Hindenburg-Katastrophe“ ging jedoch als eines der großen Technikunglücke in die Geschichte ein (bedingt auch durch die emotionale Radioreportage von Herbert Morrison, die weltberühmt wurde). Es war auch der letzte Unfall eines Starrluftschiffs. Der sich anbahnende Zweite Weltkrieg beendete die Ära der Starrluftschifffahrt. Seitdem dominieren Verkehrsflugzeuge - deren Technik machte in den 1930ern und 1940ern große Fortschritte - den Luftverkehr. Der Zweite Weltkrieg. Im Zweiten Weltkrieg wurden Militärluftschiffe sehr erfolgreich von den Alliierten als Küstenpatrouille, Seeaufklärer und zur Bewachung von Konvois gegen feindliche (meist deutsche) U-Boote auf See in großer Stückzahl eingesetzt. Über 100 Luftschiffe versahen ihren Dienst bei der US-Marine unter anderem an der US-Küste, in Europa und im Pazifikraum. Nach 1945. Nach Kriegsende mit dem Aufkommen des Kalten Krieges dienten die Luftschiffe vor allem weiter im US-amerikanischen Militär. Es setzte bis in die 1960er Jahre hinein Prallluftschiffe zur strategischen und taktischen Radar-See- und Luftraumüberwachung und zur U-Boot-Jagd ein. Die Entwicklung von leistungsfähigeren Hubschraubern und Langstreckenflugzeugen führte jedoch zu ihrer Ablösung. Seitdem fanden und finden Prallluftschiffe vor allem als Werbeträger beispielsweise bei Großveranstaltungen und für Rundfahrten Verwendung. Besonders bekannt wurden die Goodyear-Luftschiffe. In den 1970ern entstanden die ersten modernen Luftschiffe durch WDL Luftschiffgesellschaft in Deutschland oder Westinghouse Airship in Großbritannien, später durch die Lightship Group (1980er) und Aeros Corporation (1990er), beide USA. In den 1970ern entstanden auch die ersten Heißluft-Luftschiffe, die aus Heißluftballonen abgeleitet wurden. Sie kommen hauptsächlich als Werbeträger zum Einsatz, sind relativ klein, dafür aber auch ohne Probleme mit einem Fahrzeug transportierbar und benötigen praktisch keine Infrastruktur. Ihre Ballonhülle kann zusammengefaltet werden; da sie kein spezielles Traggas enthalten, sondern ihren Auftrieb nur aus dem Dichteunterschied zwischen warmer und kalter Luft beziehen, können sie ohne finanzielle Verluste durch Ablassen des Gases auf- und abgebaut werden. Sie sind jedoch ähnlich wie Ballons reine Schönwetterfluggeräte. Kleine ferngesteuerte unbemannte Luftschiffe dienen als Werbeträger etwa bei Ausstellungen innerhalb und außerhalb von Gebäuden, größere unbemannte Schiffe werden beispielsweise für Luftbildaufnahmen verwendet. Sie bieten auch die Möglichkeit, andere Sensoren mitzuführen. Das deutsche Unternehmen Cargolifter AG wurde mit dem Ziel gegründet,Schwerlasttransporte durch eine Vervielfachung der maximalen Nutzlast und Ausschaltung von transport- und indirekt auch konstruktionstechnischen Beschränkungen großer Industrieanlagen zu revolutionieren. Straßenschwertransporte sind hierzulande an ein Maximalgewicht von etwas über 40 Tonnen und die festgegebene Straßenbreite sowie längenmäßig an die vorhandenen Kurvenradien gebunden. Für ein Vielfaches, nämlich Lasten von bis zu 160 Tonnen, sollte dazu Ende der 1990er Jahre ein Frachtluftschiff gebaut werden: der CL160. Das Unternehmen errichtete dazu im brandenburgischen Brand (Gemeinde Halbe) die größte freitragende Halle der Welt als Luftschiffwerft. Nach Beginn der Arbeiten am Luftschiff CL160 ging dem Betrieb allerdings zwischenzeitlich das Geld aus. Den Kritiken und Spekulationen war zu entnehmen, dass Investoren und Kunden offenbar nicht mehr genügend Vertrauen in die technische und wirtschaftliche Umsetzbarkeit des Projekts hatten. Schließlich musste die Cargolifter AG Anfang Juni 2002 Insolvenz anmelden. Das Projekt blieb unvollendet, die Werfthalle wurde 2004 zum Freizeitpark Tropical Islands umgebaut. Seit 2000 befördert der Zeppelin NT der ZLT Zeppelin Luftschifftechnik GmbH & Co KG regelmäßig Touristen über den Bodensee und andere Orte. Der Zeppelin NT 07 ist seit seinem Erstflug das größte aktive Luftschiff der Welt. An der Erweiterung seines Einsatzgebietes wird gearbeitet, eine größere Version für 19 Passagiere ist in konkreter Planung. Von Oktober bis November 2000 half ein Luftschiff vom Typ TLG A60+ der UN bei der Suche nach Minen und Blindgängern im Kosovo. Als Detektor wurde ein Radargerät verwendet. In den letzten Jahren wurden Luftschiffe auch als Plattform für Überwachungsaufgaben speziell bei Großveranstaltungen wiederentdeckt. Gegenwart. Daneben gibt es noch einige Projekte, die jedoch derzeit nur Studien vorweisen können. Skycruise Switzerland führt seit 2002 Luftschiffrundfahrten im schweizerischen Buochs durch. In der Schweiz waren im September 2005 laut BAZL neben dem Skycruise-Luftschiff acht Heißluft-Luftschiffe zugelassen. Mitte 2006 erhielt das Skycruise-Luftschiff wieder eine amerikanische Zulassung und verließ das Land. In Österreich sind keine (Gas-)Luftschiffe zugelassen. Weiterhin sind neben den deutschen Modellen eine ganze Reihe weiterer Prall- und Heißluft-Luftschiffe hauptsächlich englischen und amerikanischen Ursprungs im weltweiten Einsatz (z. B. ABC, Aeros, Goodyear, SkyShip, TLG). Auch die unbemannte Luftschifffahrt gewinnt an Bedeutung. Neben Projekten für Höhenplattformen wird auch der unbemannte Einsatz von Luftschiffen für zivile und militärische Überwachungsaufgaben untersucht und getestet. In Russland wurden ebenfalls einige Prall- und Heißluftschiffe von Augur Luftfahrtsysteme entwickelt und gebaut. Die ersten in China entwickelten Luftschiffe wurden Ende 2004 zugelassen und stammen von der Firma Huajiao. Trivia. Seit den Anfängen der Ballonfahrt bis weit ins 19. Jahrhundert hinein wurden Ballonfahrer durchgehend als „Luftschiffer“ bezeichnet. Luftfahrzeug. Ein Luftfahrzeug ist ein Gerät, das innerhalb der Erdatmosphäre fliegt oder fährt. Obwohl die Erdatmosphäre keine scharfe obere Grenze hat, wird ab einer Flughöhe von etwa 100 km zwischen Luftfahrt und Raumfahrt unterschieden. In Deutschland werden Luftfahrzeuge in Absatz 2 des Luftverkehrsgesetzes definiert und in Luftfahrzeugklassen eingeteilt. Systematik. Es gibt jedoch auch Luftfahrzeuge, die nicht in diese Kategorien passen, weil sie weder statischen noch dynamischen Auftrieb nutzen. Nach dem Luftverkehrsgesetz sind "unbemannte Fluggeräte, Rettungsfallschirme und Luftsportgeräte" Luftfahrzeuge, ebenso "Raumfahrzeuge, Raketen und ähnliche Flugkörper," solange sie sich im Luftraum befinden. Andererseits sind Geräte, die 30 Meter über Grund oder Wasser nicht überschreiten können (z. B. Luftkissenfahrzeuge), "keine" Luftfahrzeuge. Nicht alle Luftfahrzeuge bedürfen der Zulassung. Welche zulassungsbedürftig sind, bestimmt die und. Definitionen einzelner Untergruppen von Luftfahrzeugen sind international ähnlich, aber nicht identisch. Nationale Klassifikationen unterscheiden sich beispielsweise aufgrund von Bauvorschriften oder Gewichtsgrenzen. Geschichte der Luftfahrzeuge. Die Möglichkeit der Luftfahrt „leichter als Luft“ war schon lange als Schweben bekannt, z. B. steigt Asche in heißer Luft auf. Auf diese Erfahrungen aufbauend, bauten die Gebrüder Montgolfier 1783 den ersten Heißluftballon. Die Luftfahrt „schwerer als Luft“ entwickelte sich erst danach. Zu ihren Beginnen gehören Gleitflüge im 19. Jahrhundert. 1811 scheiterte Albrecht Berblinger beim Überflug der Donau, wohingegen dann Otto Lilienthal ca. 100 Gleitflüge absolvierte. Leichter als Luft . Luftfahrzeuge mit einer geringeren Dichte als Luft schweben in der Luft nach dem gleichen Prinzip wie Schiffe im Wasser schwimmen. Der Grund ist ein statischer Auftrieb durch Verdrängung, was durch das Archimedische Prinzip erklärt wird. – „Leichter als Luft“ steht kurz für „leichter als "die vom Fahrzeug verdrängte" Luft“. Man spricht hier von „Fahren“ im Unterschied zum „Fliegen“ der „Schwerer-als-Luft“-Fahrzeuge. Die Luft wird durch ein weniger dichtes (spezifisch leichteres) Traggas wie Helium, Wasserstoff oder Heißluft verdrängt. Der Auftrieb entsteht aus dem Unterschied zwischen dem Gewicht des ganzen Fahrzeugs und demjenigen der durch dieses verdrängten Luft. Gasballons und Heißluftballons haben keinen Antrieb und treiben mit dem Wind. Luftschiffe sind aerodynamisch geformt, mit Motoren und Propellern ausgestattet und dadurch steuerbar. Prallluftschiffe (auch "Blimps" genannt) sind meist geringfügig schwerer als Luft und benötigen einen kleinen Teil ihrer Propellerleistung für die verbleibende Auftriebskomponente. Schwerer als Luft . Luftfahrzeuge mit einer höheren Dichte als Luft können nicht allein durch den statischen Auftrieb fliegen. Der zusätzlich nötige Auftrieb wird meist beim Fliegen durch Vorwärtsbewegung in der Luft erzeugt: Es bilden sich Luftströmungen um die Tragflächen, die einen dynamischen Auftrieb bewirken. Es gibt verschiedene Bauarten, wie beispielsweise Senkrechtstarter, die als Kippflügelflugzeug oder Kipprotorflugzeug auch eine Mischform mit den Hubschraubern darstellen können. Des Weiteren findet man unter anderem Muskelkraft-Flugzeuge, Segelflugzeuge und Gleitschirme. Schwerer als Luft, aber nicht mit dynamischem Auftrieb fliegend, sind zum Beispiel Raketen und Geschosse. Hubschrauber haben mindestens einen Rotor (Drehflügel), der sowohl den Auftrieb als auch die Vortriebskraft liefert. Tragschrauber haben ebenfalls einen Rotor, der jedoch passiv durch den Fahrtwind in Rotation versetzt wird, und brauchen daher für den Vortrieb ein gesondertes Triebwerk oder eine Schleppvorrichtung. Unter den Hubschraubern mit mehr als einem Rotor ist vor allem der Quadrocopter zunehmend Gegenstand der Betrachtung, insbesondere in Modellbau und Robotik. Raketen, Raketenrucksäcke und Raketenflugzeuge werden durch Rückstoß angetrieben. Raketenflugzeuge jedoch fliegen im Allgemeinen mittels dynamischem Auftrieb. Raketen können auch im Vakuum aktiv fliegen. Ein Geschoss bewegt sich ohne Antrieb auf einer ballistischen Bahn durch den Raum. Es erhält seine Geschwindigkeit in der Startphase, entweder in einem Katapult, in einem Rohr, in dem wie bei der Kanone mittels einer Treibladung eine schnell expandierende Gasmenge erzeugt wird, oder auch durch eine elektromagnetische Beschleunigungsvorrichtung. Andere Körper fallen ohne Auftrieb durch den Luftraum, zum Beispiel Wiedereintrittskörper, Fallschirmspringer (mit Rundkappenfallschirm) oder (Lenk-) Bomben. Luftfahrzeugbestand in Deutschland. Mit Stand 31. Dezember 2014 gab es in Deutschland insgesamt 21.395 beim Luftfahrt-Bundesamt zugelassene zivile Luftfahrzeuge, dazu 2604 Aerodynamisch gesteuerte Ultraleichtflugzeuge und 84 Tragschrauber, die bei dem Luftsportverband Deutscher Aero Club eingetragen sind. Deutsche Luftfahrzeuge besitzen ein Kennzeichen in der Form D-XXXX. Dabei steht XXXX für vier Ziffern bei Segelflugzeugen und für vier Buchstaben bei allen anderen Luftfahrzeugen. Der auf das D- folgende Buchstabe kategorisiert die Art und bei manchen Arten das Gewicht des Luftfahrzeugs, wie in der folgenden Tabelle aufgelistet. Lionel Jospin. Lionel Jospin (* 12. Juli 1937 in Meudon, Seine-et-Oise, heute Hauts-de-Seine) ist ein französischer Politiker der Sozialistischen Partei "(Parti socialiste français)". Er war während der dritten Cohabitation von 1997 bis 2002 Premierminister der Fünften Republik unter dem Staatspräsidenten Jacques Chirac. Persönliches. Jospin wurde am 12. Juli 1937 als zweites von vier Kindern in Meudon, einem südwestlichen Vorort von Paris, geboren. Er stammt aus einer protestantischen Familie mit linksradikaler Orientierung. Sein Vater Robert Jospin, Professor für Philosophie und später Leiter einer Schule für schwer erziehbare Jugendliche, war Aktivist der sozialistischen Partei "SFIO" "(Section française de l’Internationale ouvrière)", der Vorgängerpartei der "Sozialistischen Partei" "(Parti socialiste)". Seine Mutter Mireille Dandieu (verheiratete Jospin) war nacheinander Hebamme, Krankenschwester und Fürsorgerin. Jospin hat drei Kinder aus zwei Ehen. Ausbildung und Werdegang. Von 1956 bis 1959 studierte er Politologie am "Institut d’études politiques de Paris". 1961 schaffte er den Aufnahmewettbewerb an der Verwaltungshochschule "ENA" "(École nationale d'administration)", einer weiteren Grande école. Unmittelbar nach Erhalt des Aufnahmebescheids leistete er den Wehrdienst ab, mit Ausbildung in Trier und an der Reserveoffizierschule in Saumur. 1963 nahm er das Studium an der "ENA" auf, im "Jahrgang Stendhal" ("Promotion Stendhal"), dem auch Jean-Pierre Chevènement und Jacques Toubon angehörten. Sein Praktikum leistete er an der Präfektur von Bourges, das Betriebspraktikum in Bergbaubetrieben in den Departements Nord und Pas-de-Calais. Nach dem "ENA"-Abschluss wurde Jospin Legationsrat beim Außenministerium in der Abteilung für wirtschaftliche Angelegenheiten. Im Oktober 1970 brach Jospin seine Karriere als Diplomat ab und ließ sich vom Außenministerium beurlauben, um in der Politik aktiv zu werden. Er wurde zunächst Professor für Wirtschaft an der "Université Paris XI" und später dort Leiter des "Institut Universitaire de Technologie", eine Position, die er bis zum Eintritt in das französische Parlament, die Nationalversammlung "(Assemblée nationale)", im Jahr 1981 innehatte. Nach dem Parteitag von Epinay (vom 11. bis 13. Juni 1971) trat er in die "Sozialistische Partei" "(Parti socialiste)" ein. 1981 wurde Jospin als Nachfolger von François Mitterrand Vorsitzender "(Premier secrétaire)" der "Sozialistischen Partei". Von 1984 bis 1988 gehörte er als gewählter Abgeordneter dem Europäischen Parlament an. Lionel Jospin im Bundestagswahlkampf 1983 für die SPD 1988 wurde Jospin Bildungsminister. Er reformierte die Lehrerausbildung und gestaltete die Hochschullandschaft neu. Der Protest der Gymnasien von 1990 schwächte ihn allerdings. Seine Rivalität mit Laurent Fabius, die sich auf dem Parteitag 1990 in Rennes verschärft hatte, entzweite die sozialistische Partei. Jospin wandte sich von Mitterrand ab und musste die Regierung 1992 verlassen. Nach seiner Niederlage bei den Parlamentswahlen 1993 legte er alle Funktionen innerhalb der Partei nieder und dachte über einen Rückzug aus der Politik nach, vor allem indem er einen Posten als Botschafter einforderte, wogegen sich jedoch der damalige Außenminister Alain Juppé stellte. 1995 meldete er sich nach dem Rücktritt von Jacques Delors zurück und behauptete sich gegen den Parteivorsitzenden Henri Emmanuelli als Präsidentschaftskandidat der Sozialisten. Obwohl er schon als Verlierer gehandelt wurde schaffte er die Überraschung und setzte sich in der ersten Runde an die Spitze vor die Rivalen der RPR Jacques Chirac und Édouard Balladur und erreichte in der zweiten Runde ein akzeptables Ergebnis (47,4 gegenüber 52,6 % für Jacques Chirac). Jospin wurde so wieder Parteivorsitzender und führte die Opposition. Er verbündete sich mit der Kommunistischen Partei, den Grünen, den Linksliberalen (Mouvement des Radicaux de Gauche) und der Bürgerbewegung "(Mouvement des citoyens)", um eine pluralistische Linke ("Gauche plurielle") zu schaffen, die sich in den Parlamentswahlen von 1997 nach der Parlamentsauflösung vom 21. April 1997 durch den Präsidenten Chirac durchsetzt. Premierminister. Mit der Ernennung Jospins zum Premierminister durch den zum bürgerlichen Lager gehörenden Staatspräsidenten Jacques Chirac am 2. Juni 1997 begann die dritte sogenannte Cohabitation. Der als rigide geltende Jospin formte eine Regierung um einen Kern von Vertrauten wie Dominique Strauss-Kahn, Claude Allègre und Martine Aubry. Aubry war es dann auch, die mit der 35-Stunden-Woche das wichtigste Wahlversprechen der Sozialisten einlöste. Obwohl Jospin hohes Ansehen genoss, musste er sich vom harten Kern seiner Regierung trennen; Claude Allègre gab auf Druck der Erziehungsgewerkschaften das Bildungsministerium auf, Strauss-Kahn kam einer Untersuchung in einem Justizskandal durch Rücktritt zuvor. Während der gewaltigen Regierungsumbildung im Jahr 2000 holte Jospin schließlich doch die sogenannten "Elefanten" der Sozialistischen Partei in die Regierung, seinen Rivalen Laurent Fabius als Wirtschaftsminister und Jack Lang als Bildungsminister. Das Ende der Amtszeit folgte aus dem Scheitern Jospins bei einem erneuten Anlauf zur Präsidentschaft. Am 21. April 2002 hatte Jospin erneut für das Präsidentenamt kandidiert, dabei jedoch im ersten Wahlgang hinter dem Amtsinhaber Jacques Chirac (19,9 %) und Jean-Marie Le Pen (17,9 %) mit 16,2 Prozent der Wählerstimmen lediglich den dritten Platz erreicht. Da es gleich mehrere Kandidaten aus dem linken Lager gab und somit keiner ausreichend Stimmen im ersten Wahlgang auf sich vereinen konnte, gab es erstmals keinen Sozialisten in der Stichwahl. Es kam zu erheblichen Protesten gegen den rechtsextremen Kandidaten Le Pen, so dass Jacques Chirac schließlich mit überwältigender Mehrheit ins Amt wiedergewählt wurde. Jospin trat daraufhin vom Amt des Premierministers zurück und gab seinen Abschied aus der aktiven Politik bekannt. Nach 2002. Obwohl er nach dem Scheitern bei der Präsidentschaftswahl seinen Ausstieg aus der Politik verkündet hatte, mischte Jospin sich doch immer wieder in die politische Debatte innerhalb und außerhalb der Sozialistischen Partei ein. Zum ersten Mal nach drei Jahren seit seinem Rückzug nahm er die Einladung des Senders France 2 zu der Sendung "Question ouverte" am 28. April 2005 an, um sein Ja zur Volksabstimmung über die Europäische Verfassung zu begründen. 2005 erschien sein Buch "Die Welt wie ich sie sehe" "(Le monde comme je le vois)", das eine polemische Abrechnung mit den Kritikern der europäischen Verfassung enthält und Spekulationen über eine neue Kandidatur auslöste. Am 26. November 2005 schränkte Jospin auf Radio Europe 1 jedoch ein, er werde im Hinblick auf die Präsidentschaft nicht "Kandidat für die Kandidatur" "(candidat à la candidature)" innerhalb der "Parti socialiste" sein und er habe sich im April 2002 endgültig aus der aktiven Politik zurückgezogen. Bei verschiedenen Gelegenheiten ließ er jedoch durchblicken, dass er bereit wäre, wenn die Sozialisten ihn fragen würden. Am 26. August 2006 meldete Jospin sich wieder zu Wort, äußert sich aber weiterhin nicht über eine mögliche Kandidatur. Am 4. September erklärte er, in der Lage zu sein, die Aufgabe des Staatschefs zu erfüllen, aber am 28. September wiederholte er, nicht "Kandidat für die Kandidatur" sein zu wollen. Vor der am 16. November 2006 erfolgten Nominierung von Ségolène Royal (Regionalratspräsidentin von Poitou-Charentes) zur Präsidentschaftskanditatin der "Sozialistischen Partei" verweigerte er ihr die Unterstützung. Danach revidierte er seine Position in seinem persönlichen Weblog. Im Dezember 2014 wurde Lionel Jospin vom Präsidenten der Nationalversammlung, Claude Bartolone, zum Mitglied des Conseil constitutionnel ernannt. Er wird dort den verstorbenen Jacques Barrot ersetzen und dessen Amtszeit bis zum Jahr 2019 vollenden. Leber. Die Leber (, "Hepar") ist das zentrale Organ des gesamten Stoffwechsels und die größte Drüse des Körpers bei Wirbeltieren. Die wichtigsten Aufgaben sind die Produktion lebenswichtiger Eiweißstoffe (z. B. Gerinnungsfaktoren), die Verwertung von Nahrungsbestandteilen (z. B. Speicherung von Glykogen und Vitaminen), die Gallen­produktion und damit einhergehend der Abbau und die Ausscheidung von Stoffwechselprodukten, Medikamenten und Giftstoffen. Nährstoffe, die aus dem Darm ins Blut aufgenommen werden, gelangen über die Pfortader ("Vena portae") zur Leber und werden dann von dieser je nach Bedarf ans Blut abgegeben oder aus dem Blut entfernt. Beim Menschen liegt die Leber im rechten Oberbauch, direkt unter dem Zwerchfell und ragt mit dem linken Lappen bis zur linken Hälfte des Oberbauchs. Die Aufteilung der Leber in Lappen. Die menschliche Leber wiegt etwa 1500 bis 2000 g. Sie ist ein weiches, gleichmäßig strukturiertes Organ, das sich größtenteils im rechten Oberbauch befindet. Die Leber lässt sich in zwei große Leberlappen unterteilen. Der rechte Leberlappen ("Lobus dexter") liegt unter dem Zwerchfell und ist mit diesem teilweise verwachsen. Er ist größer als der linke Leberlappen ("Lobus sinister"), der bis in den linken Oberbauch reicht. Außerdem gibt es zwei weitere, kleinere Leberlappen: den quadratischen Lappen ("Lobus quadratus") und den „geschwänzten“ Lappen ("Lobus caudatus"). Versorgung. An der Unterseite der Leber liegt die sogenannte Leberpforte ("Porta hepatis"), über die die Pfortader und die Leberarterien in die Leber eintreten und über die die Lebergallengänge sie verlassen. Die Leberarterie ("Arteria hepatica propria") transportiert das sauerstoffreiche Blut vom Herzen, die Pfortader führt Blut mit Nahrungsbestandteilen aus Magen und Darm, mit Abbauprodukten der Milz sowie mit Hormonen der Bauchspeicheldrüse zur Leber. Dabei wird die Leber zu etwa 25 % mit sauerstoffreichem Blut der Leberarterie und zu etwa 75 % mit dem Blut der Pfortader versorgt. Der Lymphabfluss erfolgt über die Leberlymphknoten. Segmente der Leber. Die Leber wird nach Claude Couinaud (1922–2008) in acht Segmente unterteilt. Die Grenze zwischen linkem und rechten Leberlappen liegt funktionell senkrecht im Bereich der Gallenblase und anatomisch am "Ligamentum falciforme hepatis" (siehe Leberbänder). Durch die Aufzweigung der Pfortader wird die Leber horizontal in eine obere (kraniale) und eine untere (kaudale) Segmentgruppe eingeteilt. Diese traditionelle Unterteilung wurde in einer neueren Untersuchung jedoch infrage gestellt, die – individuell variierend – 9 bis 44 sekundäre Äste der Pfortader nachwies. Leberbänder. Mit dem Zwerchfell ist der dorsale Leberrand über das "Ligamentum coronarium" verbunden. Das Ligamentum coronarium geht beidseits in das dreieckige "Ligamentum triangulare dextrum" bzw. "sinistrum" über. Auf der Zwerchfellseite zieht vom Ligamentum coronarium das "Ligamentum falciforme hepatis" („sichelförmiges Leberband“) rechtwinklig zur Bauchseite (ventral). Das Ligamentum falciforme hepatis zieht ursprünglich bis zum Bauchnabel, denn es stellt beim Fetus das Gekröse der Nabelvene dar. Die Nabelvene selbst verschließt sich unmittelbar nach der Geburt und bleibt als rundlicher bindegewebiger Strang erhalten, der als "Ligamentum teres hepatis" durch den freien Rand des Ligamentum falciforme hepatis zieht und als "Ligamentum venosum hepatis" die Venae hepaticae bzw. die Portalvene erreicht. Zur Bauchhöhlenseite ist die Leber mit dem Magen und dem Duodenum über das kleine Netz (Omentum minus) verbunden. Die Appendix fibrosa fixiert den linken Leberlappen zusätzlich am Zwerchfell. Feinbau der Leber. Vergrößerung der schematischen Darstellung eines Zentralvenen Leberläppchens. Die Leberlappen sind nochmals in winzige Leberläppchen (max. 1–2 mm) unterteilt. Diese sind im Anschnitt sechseckige Gebilde, die vorwiegend aus Leberzellen (Hepatozyten) bestehen. Die Hepatozyten haben meist mehrere Zellkerne und sind in Strängen angeordnet („Leberzellbalken“). An den Eckpunkten benachbarter Leberläppchen liegen die "Portalfelder". In diesen Feldern verläuft jeweils eine "Arteria interlobularis" (ein Ast der Leberarterie), eine "Vena interlobularis" (ein Ast der Pfortader) und ein Gallengang ("Ductus biliferus"). Diese Gefäße bezeichnet man als "Glisson-Trias" ("Glissonsches Dreieck"). Zwischen den Leberzellen liegen die erweiterten Kapillaren der Leber ("Lebersinusoide") angeordnet. Diese Sinusoide sind von einem diskontinuierlichen Endothel (Basallamina fehlt) ausgekleidet und enthalten spezielle Makrophagen, die Kupffer-Zellen (alte Bezeichnung "Kupffer'sche Sternzelle"). Die Sinusoide transportieren das Blut der Pfortader zusammen mit dem Blut aus der Leberarterie durch die Leberläppchen in Richtung der Läppchenzentren, wo es jeweils von einer "Zentralvene" ("Vena centralis") aufgenommen wird. Die Zentralvenen vereinigen sich zu größeren Venen ("Venae sublobulares") und münden schließlich in die meist drei Lebervenen ("Venae hepaticae"). Den Spaltraum zwischen den Endothelzellen der Lebersinusoiden und den Leberzellen nennt man den "Disse-Raum" (nach Josef Disse), in dem der eigentliche Stoffaustausch zwischen Blut und Hepatozyten stattfindet. Im Disse-Raum befindet sich Blutplasma, weiterhin die sog. "Ito-Zellen", die Vitamin A enthalten und der Fettspeicherung dienen. Außerdem gelten sie als Produzenten der intralobulären Bindegewebsfasern und erlangen pathophysiologische Bedeutung im Rahmen der Leberzirrhose. Die "Gallenkapillaren" sind innerhalb der Leberläppchen nur Vertiefungen der Leberzellen, erst nach dem Austritt aus den Läppchen bekommen sie eine eigene Wand und werden zu den Gallengängen mit einem einschichtig-prismatischen Epithel. Aus den kleinen Gallengängen eines Portalfeldes fließt die Galle über größere Gallengänge aus der Leber. Neben der oben beschriebenen Einteilung der Leber in die klassischen Zentralvenen-Läppchen (Lobulus), ist die Einteilung in Leberazini (Singular: Leberazinus) hilfreich. Hierbei handelt es sich eher um eine funktionelle als um eine histologische Betrachtungsweise. Die mittlere Achse eines Azinus stellt ein Bündel mit den terminalen Zweigen der Versorgung, also den Gefäßen des Glisson-Trias dar, die ja am Rand des klassischen Läppchens verlaufen. Der Vorteil dieser Einteilung ist, dass sie berücksichtigt, dass ein Versorgungsbündel das Blut in beide benachbarten Läppchen entlassen kann. Die am nächsten am Versorgungsbündel liegenden Hepatozyten werden am besten mit Sauerstoff und Nährstoffen beliefert, weshalb sie als Zone 1 des Azinus bezeichnet wird. Weiter zum Zentrum des klassischen Läppchens liegen dann Zone 2 und 3. Leistungen der Leber. Die Leber ist eng in die Steuerung des Glukose-, Fett- und Eiweißstoffwechsels eingebunden. Glukose wird vom Darmblut aufgenommen und kontrolliert an den restlichen Körper weitergegeben. Ein Überschuss wird als Glykogen gespeichert. Bei Energiebedarf wird der Speicherstoff zu Glukose gewandelt. Die Leber beeinflusst – gesteuert durch Hormone wie Insulin und Glucagon – den Blutzucker­spiegel und kann ihn, von der Nahrungsmittelzufuhr unabhängig, konstant halten. Insulin bewirkt in der Leber die Umwandlung des Zuckers in die Speicherform Glykogen und hemmt den Abbau von Fett. Das Hormon Glucagon regt seinerseits die Leber zum Glykogenabbau an und agiert somit als Gegenspieler zum Insulin. Die Leber hat im Vergleich zu anderen Organen des Körpers eine relativ ausgeprägte Fähigkeit zur Regeneration. Stirbt ein Teil ab, wird es verletzt oder sonst beschädigt, so kann dieses Gewebe wieder neu gebildet werden. Voraussetzung für eine Neubildung ist es, dass die Ursache der Verletzung entfernt wurde, weniger als fünfzig Prozent der funktionellen Masse des Organs geschädigt wurden, und die Leber ihre Regenerationsfähigkeit bei der Verletzung hat aufrechterhalten können. Diese Eigenschaft wird bei Lebertransplantationen oft ausgenutzt. Vernarbungen wie beispielsweise bei Haut­verletzungen treten hierbei nicht auf. Die Regenerationsfähigkeit der Leber schlägt sich bereits in der griechischen Mythologie nieder: In der Sage des Prometheus wird dieser zur Strafe für die Übergabe des Feuers an die Menschen an einem Felsen festgeschmiedet. Ein Adler hackt täglich einen Teil seiner Leber heraus, der bis zum nächsten Tag nachwächst. Leberenzyme. Die Blutuntersuchung der Leberenzyme gibt bei Lebererkrankungen Hinweise auf Art und Ausmaß der Erkrankung (Leberwerte). Enzyme werden wie überall im Körper auch in der Leber benötigt, um die Stoffwechselleistungen der Leber aufrechtzuerhalten. Bei Schädigung der Leberzellen treten diese Enzyme im Blutserum erhöht auf. Je nach dem, welche Enzyme erhöht sind, kann man oft auf die Art der Erkrankung schließen. Die Höhe des Enzymanstiegs im Serum entspricht dabei dem Ausmaß der Schädigung der Leberzellen. Ursache von Zellschäden können unter anderem Virusinfektionen, Alkohol, Vergiftungen oder Tumore sein. Alle Enzyme in den Leberzellen kommen auch in anderen Körperzellen vor, wie zum Beispiel im Herzen und in der Skelettmuskulatur. Dennoch sind manche Enzyme nur bei Leberzellschäden im Serum (flüssiger Bestandteil des Blutes ohne Fibrinogen) erhöht. Die Gamma-GT ist hier der empfindlichste Parameter für Schäden der Leberzellen und des Gallengangsystems. Redensarten. Choleriker = Mensch mit starkem Gallefluss, d. h. leicht erregbar Landsgemeinde. Die Landsgemeinde ist in der Schweiz eine der ältesten und einfachsten Formen der direkten Demokratie. Die wahl- und stimmberechtigten Bürger eines Kantons, eines Bezirks oder eines Kreises versammeln sich an einem bestimmten Tag unter freiem Himmel, um ihre verfassungsmässigen Aufgaben zu erledigen. Die Landsgemeinde ähnelt anderen frühdemokratischen Beschlussforen, wie dem Thing oder der athenischen Volksversammlung. Die schweizerischen Landsgemeinden haben ihren Ursprung allerdings in den mittelalterlichen Korporationen. Vom Typus her sind auch die in den kleineren und mittleren Schweizer Gemeinden üblichen Gemeindeversammlungen örtliche «Landsgemeinden», werden aber, da örtlich und nicht regional wirksam, nie so bezeichnet. Allgemeines. Kantonale Landsgemeinden gibt es heute noch in den Kantonen Appenzell Innerrhoden und Glarus; sie bilden dort die höchste kantonale Instanz. Die Zuständigkeiten unterscheiden beziehungsweise unterschieden sich von Kanton zu Kanton. So wird zwar sowohl in Appenzell Innerrhoden als auch in Glarus über Verfassungsänderungen, Gesetze und grössere Ausgaben an der Landsgemeinde entschieden; nur in Appenzell Innerrhoden wählt die Landsgemeinde aber auch die Regierung, nur in Glarus ist sie zuständig für die Festsetzung des Steuerfusses. An den beiden heute noch bestehenden Landsgemeinde kann jeder und jede Stimmberechtigte zu einer Frage das Wort ergreifen; bei der früheren Landsgemeinde von Appenzell Ausserrhoden hingegen war im Ring keine Diskussion möglich. Beim Abstimmen oder «Mehren» (so die gesetzliche Bezeichnung des Abstimmens) wird in Glarus der Stimmrechtsausweis in die Höhe gehalten. In Appenzell Innerrhoden gilt das offene Handmehr. Um dort in den Ring, den Bereich der Stimmberechtigten, zu gelangen, kann neben dem papierenen Stimmrechtsausweis auch der meist ererbte Degen (Seitengewehr genannt) vorgezeigt werden. Geschichte. Nach 1815 gab es in acht Schweizer Kantonen eine Landsgemeinde auf kantonaler Ebene – so nebst Glarus und Appenzell Innerrhoden früher auch in Zug, Schwyz, Uri, Obwalden, Nidwalden und (1403 erstmals urkundlich erwähnt) Appenzell Ausserrhoden. Appenzell Innerrhoden und Glarus. Vereidigung bei der Innerrhoder Landsgemeinde in Appenzell Im Kanton Appenzell Innerrhoden findet die Landsgemeinde in Appenzell am letzten Sonntag im April statt, ausser wenn dieser sich mit dem Ostersonntag überschneidet. Dann wird die Versammlung auf den ersten Sonntag im Mai verschoben. Die Glarner Landsgemeinde findet dagegen am ersten Maisonntag statt (bei sehr schlechtem Wetter Verschiebung um eine Woche). An der Glarner Landsgemeinde dürfen die Stimmberechtigten «raten, mindern, mehren und wählen». Das heisst, sie können über jedes einzelne Sachgeschäft das Wort verlangen, eine Änderung beantragen, eine Vorlage verschieben oder zurückweisen. Durch das Abänderungsrecht wurde 1971 das Frauenstimm- und -wahlrecht auf allen Ebenen eingeführt. Die ursprüngliche Abstimmungsvorlage beinhaltete lediglich Rechte auf tieferen Gemeindeebenen (zum Beispiel Schulgemeinde). Im Mai 2006 wurde ebenfalls durch das Abänderungsrecht eine Fusion der bislang 25 Gemeinden des Kantons zu nur noch drei beschlossen. Die ursprüngliche Vorlage hatte zehn Gemeinden vorgesehen. In Appenzell Innerrhoden wie auch in Glarus gibt es das besondere Recht der Einzelinitiative. Der im Kanton Glarus genannte Memorialsantrag kann von jedem Stimmbürger schriftlich eingereicht werden. Die Landsgemeinde stimmt anschliessend darüber ab. Durch solche Einzelinitiativen wurden in Appenzell beispielsweise Gewaltentrennung und Finanzreferendum eingeführt. Appenzell Ausserrhoden. Die Landsgemeinde in Appenzell Ausserrhoden wurde an einer zuvor an der Landsgemeinde beschlossenen Urnenabstimmung am 28. September 1997 abgeschafft (mit 54,0 Prozent Ja-Stimmen-Anteil bei einer Stimmbeteiligung von 61 Prozent). An der Landsgemeinde 1993 hatte diese sich noch klar für ihre Beibehaltung ausgesprochen. Der Abschaffung war ein jahrzehntelanger Streit über die Einführung des kantonalen Frauenstimmrechts vorausgegangen. Das männliche Schweizer Stimmvolk hatte der Einführung des Frauenstimmrechts auf eidgenössischer Ebene bereits 1971 zugestimmt, der Kanton Appenzell Ausserrhoden lehnte dies jedoch wie die gesamte Ostschweiz mehrheitlich ab (Neinstimmenanteil: 60,1 Prozent; auf Bundesebene nur 34,3 Prozent). Die sehr knappe Annahme der entsprechenden Verfassungsänderung an der Landsgemeinde 1989 war umstritten. Wenn nämlich eine klare Entscheidung durch «Mehren» (optische Ermittlung der Mehrheit vom Podium aus) nicht möglich war, sah die Verfassung vor, dass der Stichentscheid durch den Landammann vorgenommen werden konnte. Nach wiederholtem Mehren erklärte der Landammann die Vorlage für angenommen. Der Landammann und die Regierung begründeten ihr Verhalten mit der – ihrer Meinung nach – knappen, aber klaren Stimmenmehrheit, während Kritiker dies als bewusste Missachtung des Volkswillens und «Erzwingen» eines Entscheids im Sinne des Regierungsrates erklären. Dieser Vorfall zeigte anschaulich die Anfälligkeit der Entscheidungsfindung an der Landsgemeinde. Daraufhin zogen sich viele Verfechter der ursprünglichen Form zurück und nahmen nicht mehr an der Landsgemeinde teil. Eine Volksinitiative zur «Wiedereinführung der Landsgemeinde im Kanton Appenzell Ausserrhoden» wurde am 13. Juni 2010 in einer Urnenabstimmung mit 70,3 Prozent Nein-Stimmen abgelehnt. Kanton Schwyz. Der Bezirk Schwyz ist der einzige Bezirk des Kantons, in dem noch eine Landsgemeinde stattfindet. Sie nimmt die Wahlen des Bezirksammanns, der Bezirksräte, des Landschreibers sowie der Bezirksrichter vor und befindet über Rechnung und Budget. Sachgeschäfte betreffend die Justiz, die Führung der Sekundarstufe I sowie das Gewässer- und Strassenwesen werden an der Landsgemeinde zwar beraten, aber seit 1984 in geheimer Abstimmung an der Urne entschieden. Kanton Appenzell Innerrhoden. Im Kanton Appenzell Innerrhoden finden in den Bezirken (Einwohnergemeinden) des Inneren Landes am Sonntag nach der kantonalen Landsgemeinde die "Bezirksgemeinden" statt, an denen der jeweilige Bezirkshauptmann (Gemeindepräsident), die übrigen Mitglieder des Bezirksrates (Gemeinderates) und je ein Mitglied des Bezirksgerichts sowie alle zwei Jahre überdies die dem Bezirk zustehenden Mitglieder des Grossen Rates gewählt werden. Das Äussere Land (Oberegg) kennt hingegen die Urnenwahl. Kanton Graubünden. Im Kanton Graubünden verfügten einst die meisten der 39 Kreise über eine Landsgemeinde, walserdeutsch "Bsatzig" beziehungsweise bündnerromanisch "cumin, mastralia" oder "tschentada" genannt. Als der Bündner Grosse Rat noch alle zwei Jahre gewählt wurde, fanden auch die Landsgemeinden alle zwei Jahre am ersten Sonntag im Monat Mai statt; der heutige Turnus ist ein vierjähriger. Die meisten Landsgemeinden wurden in den vergangenen Jahren und Jahrzehnten abgeschafft und die Wahlen an die Urne verlegt; 2009 betraf dies beispielsweise die Bsatzig im Schanfigg. Gemäss Erhebung der Standeskanzlei Graubünden verfügen per Anfang 2014 noch sechs Kreise über eine Landsgemeinde: Churwalden, Küblis, Luzein, Ruis, Safien und Schams. Es handelt sich dabei ausnahmslos um Kreise, die mit Inkrafttreten der Gebietsreform voraussichtlich 2015 aufgehoben werden. Im Mai 2014 fand in diesen Kreisen somit mit hoher Wahrscheinlichkeit die letzte Landsgemeinde statt. Aufgaben der Landsgemeinden sind die Wahl des bzw. der Abgeordneten des Kreises in das Kantonsparlament (Grosser Rat), die Wahl von dessen bzw. deren Stellvertreter sowie die Wahl des Landammanns (Kreispräsidenten) und seines Statthalters (Stellvertreters). Bis zum Inkrafttreten der neuen Bündner Gerichtsorganisation 2001 gehörte auch die Wahl des Kreisgerichts und dessen Vorsitzenden sowie des Vermittlers (Friedensrichters) dazu. Historisch gesehen, gehen die Bündner Landsgemeinden auf die Versammlungen in den Gerichtsherrschaften des Freistaats der Drei Bünde zurück. Probleme der Landsgemeinde. Nur schon die Tatsache, dass die Landsgemeinde in den meisten Kantonen – allerdings aus verschiedenen Gründen – abgeschafft wurde, zeigt, dass es sich nicht um eine unumstrittene Institution handelt. Im Kanton Glarus ist die Landsgemeinde trotz diesen Kritiken grösstenteils unumstritten. Das oberste Gericht der Schweiz (Bundesgericht) hat diese Art der Entscheidungsfindung geschützt (BGE 104 IA 428 und BGE 121 I 138). Zudem hat die Schweiz bei der Ratifizierung der Europäischen Menschenrechtskonvention (EMRK) eine Ausnahmeklausel für die Landsgemeinden eingefügt, da diese eigentlich verschiedenen Punkten, unter anderem der geheimen Stimmabgabe, widersprechen. Kunst. Das Gemälde "Die Landsgemeinde," welches im Bundeshaus in Bern die Südwand des Ständeratssaales ziert, zeigt eine Landsgemeinde im 18. Jahrhundert. Die Maler Albert Welti und Wilhelm Balmer stellten dabei den Landsgemeindeplatz in Stans dar, jedoch mit der Landschaft um Sarnen. Robert Baden-Powell. Robert Stephenson Smyth Baden-Powell, 1. Baron Baden-Powell OM, GCMG, GCVO, KCB, FRSA (* 22. Februar 1857 in London; † 8. Januar 1941 in Nyeri, Kenia) war ein britischer Kavallerie-Offizier und Gründer der Pfadfinderbewegung. Herkunft. Robert Baden-Powell wurde als siebter von acht Söhnen unter insgesamt zehn Kindern geboren. Sein Vater hatte außerdem vier weitere Kinder aus einer früheren Ehe. Er wurde von seiner Mutter aufgezogen, da sein Vater (Professor für Theologie und Geometrie an der Universität Oxford) starb, als er drei Jahre alt war. Sein Vorname setzt sich aus Namensteilen seiner Vorfahren Robert Stephenson, einem Eisenbahnpionier, und John Smyth, einem Kapitän, der in Diensten Elisabeth I. von England stand, zusammen. Rufname wurde später Bi-Pi (sein Rufname bei den Pfadfindern, auch: BiPi). Der Doppelname mit Baden entstand auf Betreiben der Mutter Henrietta Grace, die nicht „ein weiterer Powell unter tausend anderen sein wollte.“ Sie wählte deshalb den deutsch klingenden Vornamen ihres Mannes „Baden“ der schon zwei Generationen zuvor in der Familie vergeben worden war. Zudem war „zu einer Zeit, als die deutschen Wurzeln und die Vielfalt ehelicher Verbindungen des Königshauses noch kein Grund waren, sich zu schämen, ein deutsch klingender Name ein definitiver gesellschaftlicher Vorteil – immerhin ließ er an eine verwandtschaftliche Verbindung zur Familie des Großherzogs von Baden denken. Henrietta Grace beschloss sogar, Teile des Familienwappens des Großherzogs in das Wappen der Familie Powell einarbeiten zu lassen.“ (Tim Jeal, S.46) Kindheit und Jugend. Der Großvater weckte im jungen Robert die Abenteuerlust und die Freude an der Natur. So suchte er zusammen mit ihm oftmals den Hyde Park auf, von dem er äußerst genaue Karten zeichnete. Als sein Großvater starb, unternahm Baden-Powell zahlreiche Streifzüge durch die Armenviertel der Stadt und lernte so das Leid und das Elend dieser Menschen kennen. Schon damals kam er zu der Überzeugung, etwas daran ändern zu müssen. Der damals 8-jährige Baden-Powell erkannte, dass die Bewohner der Armenviertel sich hauptsächlich durch die Kleidung von den anderen zu unterscheiden schienen. Dies wollte er ändern, und dies war wohl einer der wichtigsten Faktoren für die Entscheidung, die Pfadfinderkluft einzuführen. Während seiner Schulzeit nutzte Baden-Powell jede freie Minute, um Spuren der Tiere zu suchen und den Wald kennenzulernen. In den Ferien ging er oft mit seinen Freunden zum Kampieren. Die Ferienfahrten mit den Brüdern verhalfen „Stevie“, wie er im Familienkreise genannt wurde, zu Erfahrungen, die in seinem späteren Leben noch eine große Rolle spielen sollten. Sein Eintritt in die Charterhouse School mit 13 Jahren eröffnete ihm andere Felder der Betätigung: Er lernte das Anschleichen in dem großen Schulpark, ohne von dem aufsichtsführenden Lehrer bemerkt zu werden. Er konnte ein Feuer machen, das nicht rauchte und deshalb seinen Aufenthaltsort nicht verriet. B.P. war ein durchschnittlicher Schüler, nicht allzu sehr interessiert an dem, was die Schule bot. Er kam gut mit, ragte aber nirgends besonders hervor, abgesehen von zwei Gebieten: er war ein ausgezeichneter Schauspieler und musste bei allen Aufführungen der Schule dabei sein. Genauso nötig war er beim Fußballspielen als souveräner Torhüter. Erstaunlich war zu sehen, dass er recht- und linkshändig gleich gut zeichnen und schreiben konnte, eine Fähigkeit, die er autodidaktisch erlernte. Nach der Schule sollte er an die Universität gehen, bestand aber die Aufnahmeprüfung an der Universität Oxford nicht und meldete sich daraufhin bei der Militärakademie Sandhurst. Militärische Laufbahn. Baden-Powell bestand 1876 die Aufnahmeprüfung bei der Kavallerie als Zweit- und bei der Infanterie als Viertbester und wurde in ein Kavallerieregiment aufgenommen, ohne dass er die zweijährige Ausbildung an der Militärakademie Sandhurst absolvieren musste. Indien. Baden-Powell wurde 1876 nach Indien versetzt, wo er in seiner Freizeit in den Dschungel schlich und die wilden Tiere beobachtete. Sein Biograph Tim Jeal führt dies darauf zurück, dass er während dieses ersten Indien-Aufenthaltes keine Freunde unter seinen Offizierskameraden fand. Bei diesen waren abendliche Trinkgelage sehr beliebt, an denen sich anfänglich auch Baden-Powell beteiligte, nach einem Unfall sich aber nach einer anderen Freizeitgestaltung umsah. Bei dem Unfall handelte es sich laut seinem Biographen um einen Alarm im Lager, bei dem Baden-Powell mit gezogenem Revolver aus dem Zelt stürmte, über einen Hocker stolperte und sich dabei selbst am Fuß anschoss. Er beschuldigte seinen Diener, die Waffe durchgeladen zu haben anstelle die Kammer unter dem Schlagbolzen freigelassen zu haben. Seine Kameraden erzählten die Geschichte etwas anders und sagten, Baden-Powell sei zu betrunken gewesen, um die Waffe sicher führen zu können. Aus solchen Schaden klug geworden organisierte Baden-Powell nun zur Freizeitgestaltung auch Theateraufführungen innerhalb der Garnison und machte erste Erfahrungen mit Jugendgruppen. Bereits früh erkannte er die Fehler der britischen Kolonialherrschaft, welche die Inder wie „unterentwickelte Briten“ und nicht wie Menschen mit einer anderen, aber großen Kultur behandelte. Auch unternahm er wieder, nachdem er privat Hindi gelernt hatte, Streifzüge in die Armenviertel. Hier entwickelte er auch das berühmte „System der kleinen Gruppen“: Er fasste die Soldaten in Gruppen von fünf bis acht Mann zusammen; diese wählten dann einen Patrouillenleiter aus ihren Reihen. So förderte er Verantwortungsbewusstsein und eigenständiges Denken der Soldaten. 1880 wurde ihm befohlen, das Schlachtfeld von Maiwand, Schauplatz einer fürchterlichen Niederlage der Briten im Krieg gegen die Afghanen, zu kartografieren. An diesem grausamen Ort mit seinen halbskelettierten Menschen und Pferden kamen ihm die ersten großen Zweifel am Sinn von Kriegen. Wegen seiner Fähigkeiten im Spurenlesen, die er in zahlreichen Fällen unter Beweis gestellt hatte, wurde er beauftragt, die Spurenleser (Scouts) auszubilden. Südafrika. Aufgrund der explosiven Situation in Südafrika wurde Baden-Powell mit seinem Regiment, den 13. Husaren, dorthin versetzt. Er war auch hier durch sein in Indien verfasstes Buch "Nachrichtendienst und Kundschafterwesen" bereits eine Berühmtheit. Sein erster Auftrag war, als Reporter verkleidet, die Drakensberge, eine schier unüberwindbare natürliche Grenze zu den Burenstaaten, zu erkunden. Er besuchte Zulu und Buren in ihren Siedlungen und kehrte mit hervorragenden Karten und der Hoffnung auf eine friedliche Lösung zurück. 1885 wurde er, da sich die Lage beruhigt hatte, zusammen mit seinem Regiment nach England versetzt, doch las man bald wieder beunruhigende Nachrichten über Südafrika. Der Zulukönig Dinuzulu sammelte in einem Geheimbund, der inzwischen circa 16.000 Zulu umfasste, immer mehr Leute und führte sie in einen Zweifrontenkrieg gegen Briten und Buren. Da Briten und Buren die Zulu abwehren mussten, hatten Goldgräber und Sklavenhändler freie Hand. Dies versetzte die Region noch weiter in Unruhe. Auf britischer Seite kämpften auch 2.000 Zulu mit; diese hatten den Schotten John Dunn zu ihrem Häuptling gewählt. Aufgrund seiner guten Ortskenntnisse und, wie damals vor allem Neider behaupteten, vielleicht auch, weil sein Onkel Oberbefehlshaber war, wurde Baden-Powell als Adjutant im Range eines Hauptmanns wieder nach Afrika versetzt. Dort forderte er als erstes, nach einem erschütternden Erlebnis, mit Erfolg die Ausbildung von Soldaten in Erster Hilfe. Er machte sich sofort auf die Suche nach Dinuzulu, den er in seinem Versteck fand und den er dann zusammen mit nur einem Gefährten daraus vertrieb. Kurz darauf wurde Dinuzulu gefasst und Baden-Powell vorzeitig zum Major befördert. Dinuzulus Anhänger schlossen nach ihrer Festnahme ohne weiteren Widerstand Frieden mit den Briten. Malta und Balkan. Danach verbrachte Baden-Powell ein Jahr als Soldat auf Malta und zwei Jahre als Geheimagent mit dem Zeichnen von Befestigungsanlagen auf dem Balkan; dann wurde er auf persönlichen Wunsch nach England zurückversetzt. 1895 wurde er aufgrund des Krieges mit dem Volk der Aschanti wieder nach Afrika versetzt. Er war an der Gefangennahme des letzten souveränen Asantehene (König) der Aschanti, Prempeh I., beteiligt, der damals 24 Jahre alt war. Dieser wurde 1919 Gründungsmitglied der Pfadfinder in Ghana. Matabele-Land. Kaum war Baden-Powell nach England zurückgekehrt, musste er erneut nach Afrika. Im sogenannten Matabele-Land, nördlich von Transvaal, war der Zweite Matabelekrieg ausgebrochen, und rasch waren die weit verstreut lebenden Briten entweder getötet worden oder in die Provinzhauptstadt Bulawayo geflohen, doch auch dieser drohte nun ein Angriff durch etwa 10.000 Matabele-Krieger, die sich in den umliegenden Bergen verschanzt hatten. Baden-Powell stellte sich gegen eine militärische Lösung, die ein Blutbad bedeutet hätte, und nahm einen der Anführer des Aufstandes, einen Medizinmann namens Uwini, gefangen, der glaubte, aufgrund der Einwirkung eines Gottes unsterblich zu sein und alle Weißen töten zu müssen. Hier erhielt Baden-Powell auch von den Matabele seinen Spitznamen: "Impeesa (Der Wolf, der nie schläft; in anderer Übersetzung: Nachts herumstreichende Hyäne)". Diese Entscheidung war nach Baden-Powells eigener Aussage „eine der schwierigsten seines Lebens“. Baden-Powell wurde in Scharmützeln mit aufständischen Einheimischen verwundet. Er selbst vertrat die Ansicht, Afrikaner könnten nur mit der „eisernen Faust im Samthandschuh“ regiert werden. Zweiter Burenkrieg. Am 14. Juni 1899 war Oberst Baden-Powell wieder in Afrika: Der Zweite Burenkrieg war ausgebrochen. Da die britische Armee überall im Empire verstreut stationiert war und es Zeit brauchte, die Truppen in Südafrika zu versammeln, entwickelte man einen Plan, mit geringen britischen Kräften die Buren einstweilen zu beschäftigen. Hierfür brauchte man einen außerordentlich guten und begabten Führungsoffizier. Die Wahl fiel auf Baden-Powell, der dies immer als „Chance seines Lebens“ bezeichnet hatte. Doch der Plan schlug fehl und Baden-Powell wurde vom Feind bereits an der Grenze gestoppt. So blieb ihm nichts anderes übrig, als sich mit seinen beiden Regimentern in Mafeking zu verschanzen. Zusammen mit Freiwilligen aus Mafeking verfügte er über fast 2000 Mann. Sein Gegenspieler war der Burengeneral Cronje, der über fast 9000 Mann verfügte. Durch geschickte Manöver gelang es Baden-Powell, Mafeking 217 Tage lang mit seiner Truppe zu halten. Hierbei wurden die Jungen der Stadt als Meldegänger eingesetzt, und Baden-Powell war von ihrem Mut und ihrer Selbstständigkeit alsbald beeindruckt. Baden-Powell war ein begeisterter Bücherschreiber, und das Manuskript zu seinem Buch "Aids for Scouting for N.C.O.s and men" war im letzten Postsack, der die Stadt vor der Belagerung verließ. Durch die Verteidigung Mafekings wurde er in England zum Kriegshelden. Die Briten hatten im Dezember 1899 in der „schwarzen Woche“ drei bedeutende Schlachten gegen die Buren verloren – trotz Überlegenheit. In Mafeking fand die Umkehrung statt: Baden-Powells unterlegene Kräfte konnten sich gegen überlegene burische Kräfte behaupten. Baden-Powell wurde zum General befördert und weiter im Burenkrieg eingesetzt. Obwohl er abermals kurzzeitig eingekesselt wurde (vom 10. bis 21. Juli 1900 bei Rustenburg), hatte dies keine negativen Auswirkungen auf seinen Ruf und seine Karriere, da seine Vorgesetzten selbst eifersüchtig aufeinander waren. Baden-Powell wurde aufgrund der Verteidigung der Stadt 1900 mit dem Orden "Companion des Order of the Bath (CB)" ausgezeichnet und zum jüngsten Generalmajor der britischen Armee befördert. Generalinspekteur der Kavallerie. Durch die Gründung der South African Constabulary (SAC), einer britisch-burischen Polizeitruppe, trug Baden-Powell viel zur wirklichen Befriedung des Landes bei. Als Ausbildungsort hatte das britische Oberkommando die südafrikanische Stadt Stellenbosch bestimmt, heute wie damals ein Zentrum des Weinanbaus. Zum Leidwesen von Baden-Powell verführte dies viele der Soldaten zu Trinkgelagen. Wenn es später unter Pfadfindern zu Trinkereien kam, bezeichnete Baden-Powell dies immer als "Stellenbosching". Zum Generalmajor befördert, sollte Baden-Powell jetzt die gesamte britische Kavallerie nach dem Vorbild der SAC organisieren und wurde zum Generalinspekteur der Kavallerie ernannt. 1910 beendete Baden-Powell seine militärische Laufbahn im Range eines Generalleutnants. Seine ganze Kraft widmete er von nun an der von ihm gegründeten Pfadfinderbewegung. Am 30. Oktober 1912 heiratete er Olave St.Clair-Soames, die er auf einer Weltreise kennengelernt hatte. Die Hochzeit fand in Poole in Südengland statt. Jener Stadt, in deren Hafengebiet Brownsea Island liegt. Sie hatten später drei Kinder (Peter, Heather und Betty). Pfadfinderbewegung. Robert Baden-Powell 1907 auf Brownsea Island a>, dem Ort des weltweit ersten Pfadfinderlagers Am 7. Mai 1910 ging Baden-Powell offiziell in Pension. Erst 1907 fand er genug Zeit, seine langgehegte Idee einer Jugendpfadfindertruppe umzusetzen. Ursprünglich engagierte er sich in der bereits bestehenden Jugendgruppe „Boys-Brigade“, stellte jedoch sehr schnell fest, dass diese nicht seinen Vorstellungen entsprach. Er schrieb ein weiteres Buch ("Scouting for Boys"), welches sein elftes Buch wurde. Um einiges davon praktisch testen zu können, veranstaltete er vom 1. bis 8. August 1907 ein Lager auf der Insel Brownsea im Hafengebiet von Poole. Er reiste einige Tage früher an, um das Lager vorbereiten zu können. An diesem Zeltlager nahmen 21 Jungen aller sozialen Schichten teil, darunter auch sein Neffe Donald. Er teilte die Jugendlichen in sogenannte Patrouillen ein und schrieb die Pfadfindergesetze. 1908 erschien sein Buch "Scouting for Boys", das als eines der bedeutendsten pädagogischen Werke des 20. Jahrhunderts gilt. Hier formulierte er erstmals den Lehrgrundsatz „Learning by Doing“ (Lernen durch Handeln). 1909 übernahm König Eduard VII. das Patronat über die Pfadfinder, in Chile wurde die erste Pfadfindergruppe außerhalb Englands gegründet, und es gab die ersten Pfadfinderinnen. Ab 1918 wurde der Familiensitz Pax Hill bei Bentley (England) zur Koordinationsstelle für die wachsende Pfadfinderbewegung. Erst später wurde eine zentrale Koordinationsstelle geschaffen, das heutige World Scout Bureau. 1920 fand das erste Jamboree (Weltpfadfindertreffen) in London statt, 8.000 Pfadfinder aus 34 Nationen nahmen teil. Beim Jamboree 1929 waren es schon 50.000 Pfadfinder aus 72 Ländern (41 Nationen und 31 Teile des Empire). Lebensabend und Tod. Das Grab von Lord und Lady Baden-Powell auf dem Friedhof von Nyeri Baden-Powells Lebensleistung als General, Pfadfinderführer und Staatsbürger war beachtlich. Er schrieb beispielsweise 34 Bücher, anfänglich für die Armee, schließlich für die Pfadfinderbewegung. Sein letztes Buch, "More Sketches of Kenya", wurde 1940 fertiggestellt. Lord Baden-Powell wurde auf dem Friedhof von Nyeri bestattet. Beim Begräbnis standen Jungen und Mädchen in ihrer Pfadfindertracht beim Grab, sechs Scoutmaster trugen den Sarg. Britische Offiziere salutierten. Dem letzten Wunsch des Verstorbenen entsprechend, wurden keine großen Reden gehalten, nur ein Trompeter blies den Pfadfinderpfiff. „Ich habe meine Aufgabe erfüllt und bin nach Hause gegangen.“ Auszeichnungen. Durch die Ernennung zum Knight Commander des Royal Victorian Order wurde Baden-Powell 1909 zum Ritter geschlagen und erhielt den Titel „Sir“. Im Jahr 1922 verlieh ihm König George V. den erblichen Titel eines Baronet. 1929 wurde Baden-Powell als " Baron Baden-Powell'", of Gilwell in the County of Essex" zum Peer ernannt, womit er auch einen Sitz im House of Lords erhielt. „Gilwell in the County of Essex“ ist dabei ein Hinweis auf Gilwell Park, den Lagerplatz der Pfadfinderbewegung bei Chingford, der auch als Ausbildungszentrum für Pfadfinderleiter dient. Lord Baden-Powell wurde mehrere Male für die Verleihung des Friedensnobelpreises vorgeschlagen, darunter allein zehnmal im Jahr 1928. 1935 wurde ihm als erstem Pfadfinder einstimmig durch das Internationale Komitee in Stockholm die höchste Auszeichnung der Pfadfinderbewegung verliehen: der Bronze Wolf. Linth. Der Walensee mit dem Zufluss der Linth durch den Escherkanal sowie dem Ausfluss in Richtung Zürichsee bei Weesen vom Leistchamm aus Die Mündung der Linth in den Zürichsee bei Schmerikon. Das ausgebaggerte ehemalige Delta bildet heute das Naturschutzgebiet Bätzimatt Die Linth ist ein Fluss in den Schweizer Kantonen Glarus, St. Gallen und Schwyz. Topografie. Die Linth gilt als Oberlauf der Limmat. Sie liefert über zwei Drittel des Wassers aller Zuflüsse des Zürichsees, dessen Abfluss die Limmat ist. Die Linth entspringt im Tödi-Massiv. Ihren Namen führt sie ab dem Zusammenfluss von Limmernbach und Sandbach, dem deutlich grösseren Quellbach. Er entspringt als "Oberstafelbach" unterhalb des Claridenfirns. Im Quellgebiet steht unter anderem das Kraftwerk "Linth-Limmern" mit der Nordostschweizerischen Kraftwerke AG als Mehrheitsaktionärin. Die Linth fliesst nordwärts durch das Glarnerland und vereinigt sich in Schwanden mit dem Sernf, der von Elm herunter kommt. Danach durchfliesst sie Mitlödi, Ennenda, Glarus, Netstal und Näfels. Bei Netstal nimmt sie auf der linken Seite den Löntsch auf. Seit der Linthkorrektion fliesst die Linth im Escherkanal in den Walensee, den sie bei Weesen im Linthkanal wieder verlässt, durchfliesst die Linthebene und mündet bei Schmerikon in den oberen Zürichsee. Bei Ziegelbrücke mündet links der von der Rauti und dem Niederurner Dorfbach bewässerte Industriekanal in den Linthkanal. Ab Ziegelbrücke verlaufen parallel zum Linthkanal auf den Dämmen je ein Wanderweg, ein seitlicher Entwässerungskanal, die 380-kV-Leitungen Tavanasa-Breite und Sils-Fällanden (mit v-förmigen Isolatoren) sowie weitere Energietrassen. Vor der Linthkorrektion durch Johann Gottfried Tulla und Hans Conrad Escher vereinigte sich bei Ziegelbrücke die Linth (damals rund 32 m³/s) mit der Maag (damals rund 23 m³/s), dem früheren Ausfluss des Walensees. Ab dort mäandrierte die Linth stark und war durch die Anlagerungen von Sandbänken nur bedingt schiffbar. Die Linth vor der Korrektion. Als die Linth noch von Mollis quer zum Tal nach Niederurnen und Ziegelbrücke floss, wurde die Ebene zwischen Näfels, Weesen und Ziegelbrücke regelmässig und verheerend durch die Linth überschwemmt. Ab dem 18. Jahrhundert lagerte sich mehr und mehr Geschiebe aus den Glarner Bergen in der Linthebene ab und zerstörte grosse Kulturlandflächen. Die hohe Erosion im Glarnerland war durch die systematische Abholzung und daraus resultierende Murgänge bedingt. Die Ablagerung des Geschiebes in der Linthebene führte dazu, dass die Maag zurück gestaut wurde und der Spiegel des Walensees anstieg. Die Linthebene versumpfte, und es kam zu regelmässigen Ausbrüchen von Malaria. Die betroffenen Kantone Glarus, Schwyz und St. Gallen zogen die Eidgenössische Tagsatzung zur Rate. Diese beauftragte den Berner Ingenieur Andreas Lanz mit einer Sanierung der Linth. Der Kostenvoranschlag von rund 90.000 Gulden schreckte aber die Tagsatzung ab. Linthkorrektion. Die Linth ist ein Beispiel für Schweizer Gewässerkorrektionen. 1783 gab die Tagsatzung ein Projekt für die Korrektion der Linth in Auftrag, das jedoch erst 1804 zu konkreten Bauplänen führte. Das Projekt sah die Kanalisierung der Linth ab Mollis vor. Der Kanal sollte zuerst in den Walensee geleitet werden, der als Auffangbecken für das Geschiebe vorgesehen war. Zwischen Walen- und Zürichsee sollte das Flussbett begradigt werden. Die Bauarbeiten unter der Leitung von Hans Conrad Escher begannen 1807 dank dessen guter politischer Beziehungen. Der heute als «Escherkanal» bekannte Kanalteil bei Mollis wurde 1811 eröffnet. 1816 waren die Arbeiten am Kanal zwischen Walensee und der Grynau beendet. Der Kanalbau bis zum Zürichsee erfolgte erst ab 1866. Die Zuflüsse aus dem Gaster und der March wurden in zwei Kanälen links und rechts des Hauptkanals, den Linth-Seitenkanälen gesammelt, wodurch der Kanal frei von Geschiebe gehalten wird. 1823 verlieh der Zürcher Regierungsrat dafür Hans Conrad Escher und seiner Familie das Recht, auch den Namenszusatz "„von der Linth“" zu tragen. Durch die Linthkorrektion wurde der Wasserspiegel des Walensees um 5,5 Meter gesenkt. Die Ried- und Sumpfflächen zwischen den beiden Seen wurden bis zum Zweiten Weltkrieg zur Streugewinnung weiter kontrolliert bewässert. Die Trockenlegung durch Drainage erfolgte erst durch die Linthmelioration nach 1938 im Rahmen der so genannten «Anbauschlacht». Das Linthwerk. Linthwerk heissen die im 19. Jahrhundert geschaffenen Hochwasserschutzanlagen der Linth zwischen Mollis/Näfels und Walensee (Escherkanal) sowie Walensee und Zürichsee (Linthkanal). Zum Linthwerk gehören die Linth, alle Dämme, die angrenzenden Seitengewässer (Hintergräben), Waldreservate und Wiesen im Gäsi am Walensee. Als Linthwerk wird auch die verantwortliche Verwaltung der Hochwasserschutzanlagen bezeichnet. Das Linthwerk ist eine öffentlich-rechtliche Anstalt mit eigener Rechtspersönlichkeit. Erste Gesamtsanierung: Projekt Linth 2000. Bei den Hochwassern der Linth 1999 und 2005 konnte ein Brechen der Dämme nur knapp verhindert werden. Eine Gesamtsanierung des Linthwerks drängte sich auf und wurde mit dem Projekt Hochwasserschutz Linth 2000 realisiert. Die Planungszeit dauerte von 1998 bis 2008, die Ausführung erfolgte von 2008 bis 2013. Wichtigste Ziele des Projekts waren die Sicherung des Hochwasserschutzes für weitere hundert Jahre und eine teilweise Renaturierung des Linthlaufes. Am Linthwerk setzte man das 1993 in Kraft getretene Bundesgesetz über den Wasserbau erstmals an einem Grossprojekt um. Die technische Planung stützte sich unter anderem auf Modellversuche am Institut für Wasserbau, Hydrologie und Glaziologie (VAW) der ETH Zürich. In den Planungsprozess eingebunden waren neben Baufachleuten auch Ökologen, Vertreter von Landwirtschaft, Umweltverbänden und Fischerei. Vor der Umsetzung des Projekts Linth 2000 wurde die Rechtsform des Linthwerks verändert. Seit dem 1. Januar 2004 liegt die politische Verantwortung für das Linthwerk bei den vier Kantonen Glarus, Schwyz, St. Gallen und Zürich (Linthkonkordat), unter Führung der Linthkommission. Ausführendes Organ ist die Linthverwaltung unter der Leitung des Linthingenieurs, der auch das Projekt Linth 2000 leitete. Das Linthwerk nach der Sanierung. Am Escherkanal begann die Bauzeit mit dem Spatenstich vom 25. September 2008 und wurde am 14. Mai 2011 mit einem Festakt abgeschlossen. Die Arbeiten umfassten die Verstärkung und teilweise Erhöhung der Hochwasserschutzdämme zwischen Näfels/Mollis und dem Walensee und Entlastungsmassnahmen für den Hochwasserfall. Mit der Aufweitung «Chli Gäsitschachen» wurden der Glarner Linth auf einem Streckenabschnitt wieder die ursprüngliche Breite und ein freier Lauf zugestanden. In diesem neuen Naturraum kann sich auch Auenwald bilden. Verschiedene Waldflächen am Escherkanal erhielten den Schutzstatus von Reservaten. Am Linthkanal nahmen die Bauarbeiten den Zeitraum von 2008 bis 2013 in Anspruch. Um das Linthgebiet vor einem 100-jährlichen Hochwasser zu schützen, ergriff man verschiedene Massnahmen: Auf weiten Strecken wurden die Dämme des Linthkanals durch Materialanschüttungen verbreitert und damit verstärkt. Bei engen Platzverhältnissen mussten die bestehenden Dämme streckenweise abgetragen und durch Material mit günstigeren geotechnischen Eigenschaften neu aufgebaut werden. Die Dammverbeiterung hatte die Verlegung der seitlichen Gewässer zur Folge. Mit dem Bau der Aufweitung im «Hänggelgiessen» erhielt die Linth mehr Raum zur Entfaltung. Hier wurde ausserdem ein Notentlastungswehr als Sicherheitsvorkehrung für Extremhochwasser erstellt. Es leitet im Notfall die überschüssigen Wassermassen kontrolliert in den vergrösserten Hintergraben aus und verhindert so Überströmungen oder Dammbrüche am Linthkanal. Die Aufweitung «Hänggelgiessen» ist ein ökologisch bedeutsamer Lebensraum für Pflanzen und Tiere. Dieser ist vernetzt mit einem Waldstück am gegenüberliegenden Linthufer. Ein neuer Wildtierkorridor unter der Autobahn A3 schafft die Verbindung. Streckenweise wurden die bisher hart verbauten Ufer des Kanals zu Flachufern umgestaltet und so zugunsten der Natur aufgewertet. In diesen Zonen sind die Dämme mit einem verdeckten Verbau vor Erosion geschützt. Weil keine Grünflächen des Linthwerks gedüngt werden, entwickelt sich ein grosser Artenreichtum an Pflanzen und Tieren auf den Wiesen. Der fachgerechte Unterhalt und regelmässige Kontrollen stellen die Hochwassersicherheit der Anlagen und Nachhaltigkeit für die Natur am Linthwerk sicher. Das neue Linthwerk ist ein Naherholungsraum für die Bevölkerung und zieht auf rund 70 Kilometern Wegstrecken entlang der Kanäle viele Spaziergänger und Velofahrer an. Es gibt Badeplätze, einen Campingplatz, mit Booten befahrbare Wasserstrecken und Reitzonen. Um Konflikten zwischen Besuchern und Naturschutz vorzubeugen, gelten «Spielregeln», die auf Informationstafeln festgehalten sind. Zahlreiche Tafeln und Stelen orientieren über Geschichte, Bau und Besonderheiten des Linthwerks. Einzelne Bunker aus dem Zweiten Weltkrieg sind mit Bildern ausgestattet, zwei können als Panoramaterrassen genutzt werden. Alle Informationsquellen zusammen bilden ein «Freilichtmuseum» an der Linth. Einzelnachweise. Linth Ludwig Erhard. Büste von Ludwig Erhard, aufgestellt in seiner Geburtsstadt Fürth Ludwig Wilhelm Erhard (* 4. Februar 1897 in Fürth; † 5. Mai 1977 in Bonn) war ein deutscher Politiker (CDU)(siehe) und Wirtschaftswissenschaftler. Er war von 1949 bis 1963 Bundesminister für Wirtschaft und galt in dieser Funktion als Vater des „deutschen Wirtschaftswunders“ und der Sozialen Marktwirtschaft, die bis heute das Wirtschaftssystem in Deutschland bestimmt. Von 1963 bis 1966 war er der zweite Bundeskanzler der Bundesrepublik Deutschland. Leben und Beruf bis 1945. Ludwig Erhard im Jahre 1966 mit Zigarre Jugend, Lehre und Krieg. Ludwig Erhard wurde am 4. Februar 1897 im fränkischen Fürth geboren. Sein Vater war der aus Rannungen stammende katholische Textilwarenhändler und Weißwarengeschäftsbesitzer Wilhelm Philipp Erhard, seine Mutter Augusta (geborene Hassold) war evangelisch. Ludwig war das zweite von vier Kindern, die alle evangelisch getauft wurden. Im Alter von zwei Jahren erkrankte er an spinaler Kinderlähmung; aus dieser Zeit behielt er einen deformierten Fuß. Erhard besuchte in Fürth Volks- und Realschule; danach begann er eine Lehre als Weißwarenhändler. Im Frühjahr 1916 schloss er diese als Einzelhandelskaufmann ab. Danach nahm Erhard als Soldat der Bayerischen Armee am Ersten Weltkrieg teil. Er war 1916/17 mit dem 22. Feldartillerie-Regiment in Rumänien und 1918 an der Westfront eingesetzt und wurde Ende September 1918 bei Ypern schwer verwundet. 1919 schied er als Unteroffizier und Offiziersaspirant aus dem Militärdienst aus. Sein Biograf Hentschel schreibt zur Kriegszeit, dass Erhard in Flandern von einer Artilleriegranate getroffen wurde und sieben Operationen nötig waren. Er habe dies körperlich, aber nicht seelisch verwundet überstanden. Langes Stehen hinter der Ladentheke im väterlichen Geschäft war dann jedoch nicht mehr möglich, so dass Erhard in die Wissenschaft ging. Wissenschaftliche Karriere. Von 1919 bis 1922 studierte Erhard an der Handelshochschule Nürnberg und erwarb einen Abschluss als Diplom-Kaufmann. Anschließend absolvierte er ein Studium der Betriebswirtschaftslehre und der Soziologie an der Universität Frankfurt. Hier erfolgte im Dezember 1925 seine Promotion bei Franz Oppenheimer über „Wesen und Inhalt der Werteinheit“ zum Dr. rer. pol. Als seine akademischen Lehrer schätzte er besonders Wilhelm Rieger und Franz Oppenheimer, denen er sich lebenslang in Dankbarkeit verbunden fühlte. Die Promotion war eine kritische Reflexion zur Arbeitswerttheorie des Doktorvaters, die Note war „gut“. Erst im Jahre 1928 konnte er beruflich wieder Fuß fassen, nachdem das Geschäft des Vaters die Inflationszeit nicht überlebt hatte. Erhard wurde Assistent beim Institut für Wirtschaftsbeobachtung der deutschen Fertigware an der Handelshochschule in Nürnberg. Gründer des Instituts war drei Jahre zuvor der Nationalökonom Wilhelm Vershofen, der der Nationalversammlung angehört hatte. Vorbild war das amerikanische National Bureau of Economic Research, doch zu dessen deutschem Pendant entwickelte sich bald das Berliner Institut für Konjunkturforschung. Es geht unter anderem auf Erhard zurück, dass das Nürnberger Institut sich im Dritten Reich auf die Marktforschung für Industriekunden verlegte. Von 1928 bis 1942 war er als wissenschaftlicher Assistent, später als stellvertretender Leiter beim Institut tätig. Seit 1933 wirkte er als Lehrbeauftragter an der Nürnberger Handelshochschule. Im Oktober 1932 forderte er, die Verbrauchsgüterproduktion zu fördern, und trat im Gegensatz zum damals vorherrschenden Protektionismus für eine Wettbewerbswirtschaft und freie Marktpreisbildung ein. Die Handelshochschule hatte seit 1931 das Habilitationsrecht, und Erhard versuchte sich an dem überaus ambitionierten Thema „Die Überwindung der Wirtschaftskrise durch wirtschaftspolitische Beeinflussung“. Das Manuskript ist durch seinen Nachlass bewahrt geblieben. Biograf Hentschel, selbst Wirtschaftshistoriker, meint, Erhard tauge dem Habilitationsversuch zufolge nicht als wissenschaftlicher Nationalökonom, da ihm die formale Strenge und die Fähigkeit fehlten, klare und schlüssige Gedanken zu fassen und unter Hinweis auf die verwendeten Quellen argumentativ miteinander zu verbinden. Die Ursachen der damaligen Weltwirtschaftskrise habe Erhard logisch unschlüssig gedeutet, die Lösung der akuten Probleme sei verfehlt gewesen. Der Staat solle in die Produktion eingreifen und die Wirtschaft besser lenken, da dies Einzelinteressen nicht zuzutrauen sei. Wie der Staat dies tun solle, erklärt Erhard aber nicht. „Das Ganze wäre bei straffer Gedankenführung in knapper Diktion auf fünf Seiten abzutun gewesen.“ Dies sei aber nicht Erhards Sache gewesen, der 141 Seiten schrieb und dabei seinen Gedanken freien Lauf gelassen habe. Später behauptete Erhard, die Nationalsozialisten hätten ihn an der Habilitation gehindert. Diese aber hätten, so Hentschel, kein inhaltliches Problem gesehen, selbst wenn Erhard das Manuskript ohne Apparat eingereicht hätte. In der Zeitung des Instituts äußerte sich Erhard beispielsweise positiv über die nationalsozialistische Zwangskartellierung, denn sie beuge den Schäden des „artfremden Preiskampfes“ vor. Im Namen der Nürnberger Handelshochschule organisierte Erhard 1935 als wissenschaftlicher Assistent von Wilhelm Vershofen das erste Marketing-Seminar Deutschlands. Damals als „Absatzwirtschaftlicher Kurs“ bezeichnet, war dies ein Grundstein für die Nürnberger Akademie für Absatzwirtschaft und den GfK e. V. Aus diesen entstanden später die NAA GmbH und die GfK AG. Außerdem war er als wirtschaftspolitischer Berater zur Integration der annektierten Gebiete Österreich, Polen und Lothringen tätig. Von 1942 bis 1945 leitete er das von ihm gegründete "Institut für Industrieforschung", das von der "Reichsgruppe Industrie" finanziert wurde. Ab Ende 1942 beschäftigte sich Erhard hier mit der ökonomischen Nachkriegsplanung. 1944 verfasste er im Auftrag der "Reichsgruppe Industrie" für das Institut seine Denkschrift "Kriegsfinanzierung und Schuldenkonsolidierung", in der er Überlegungen zum Neuaufbau der Wirtschaft nach dem Krieg anstellte und u.a. einen Währungsschnitt empfahl. Die Endfassung der Denkschrift übergab er sowohl Otto Ohlendorf als auch Carl Friedrich Goerdeler, die sich zustimmend äußerten. Ludwig Erhard mit seiner Ehefrau Luise Ludwig Erhard war seit Dezember 1923 mit der Volkswirtin Luise Schuster (1893–1975), geborene Lotter, aus Langenzenn verheiratet. Aus ihrer Ehe ging die Tochter Elisabeth hervor. Familie Erhard lebte in Gmund am Tegernsee. Das Zigarrenrauchen war ab 1930 Erhards Markenzeichen. Aussagen aus seinem Umfeld zufolge konsumierte er in manchen Phasen seiner politischen Arbeit täglich etwa fünfzehn bis zwanzig Zigarren. Erste wirtschaftspolitische Ämter (1945–1948). Der parteilose Wirtschaftsfachmann gelangte nach dem Krieg rasch in hohe politische Ämter. Ludwig Erhard war einige Monate lang Wirtschaftsreferent in seiner Heimatstadt Fürth, bevor er im Oktober 1945 von der amerikanischen Militärregierung in die von Ministerpräsident Wilhelm Hoegner (SPD) geführte Bayerische Staatsregierung zum Staatsminister für Handel und Gewerbe berufen wurde. Nach den Wahlen im Dezember 1946 musste er dieses Amt niederlegen. 1947 leitete er die Expertenkommission "Sonderstelle Geld und Kredit" bei der Verwaltung der Finanzen der britisch-amerikanischen Bizone und war in dieser Funktion mit der Vorbereitung der Währungsreform betraut. 1947 wurde er Honorarprofessor an der Ludwig-Maximilians-Universität München. 1950 folgte er zusätzlich einem Ruf an die Rheinische Friedrich-Wilhelms-Universität Bonn. Am 2. März 1948 wurde Erhard auf Vorschlag der FDP zum Direktor der "Verwaltung für Wirtschaft" des Vereinigten Wirtschaftsgebietes gewählt und zeichnete damit für die Wirtschaftspolitik in den westlichen Besatzungszonen verantwortlich. Die sukzessive Aufhebung von Preisbindungen durch Erhard konzipierte als sein Mitarbeiter Leonhard Miksch aus dem Freiburger Umfeld Walter Euckens. Erhard wurde erst fünf Tage vor dem geplanten Termin von den West-Alliierten über den Zeitpunkt der bevorstehenden Währungsreform am 20. Juni 1948 informiert. Einen Tag vor der Reform ließ er über den Rundfunk verkünden, Zwangsbewirtschaftung und Preisbindungen seien für einen ersten Bereich industrieller Fertigprodukte aufgehoben. Erhards Entscheidung, die dann mit dem „Leitsätzegesetz“ vom 21. Juni 1948 bestätigt wurde, gilt manchem als ein früher Beitrag zum späteren „Wirtschaftswunder“. Doch gab es ähnlich rasanten Aufschwung auch in anderen Industrieländern ohne Währungsreform und mit dauerhafter Wirtschaftslenkung (vgl. Wirtschaftswunder). Erhards Wirtschaftspolitik war zunächst heftig umstritten und nicht direkt von Erfolg gekrönt. Die Reformen führten zu hohen Preissteigerungen. Am 12. November 1948 riefen die Gewerkschaften einen Generalstreik aus. Auch in den Printmedien erfuhr Erhardt heftigen Gegenwind. So kommentierte Marion Gräfin Dönhoff im Sommer 1948 in der ZEIT: „Wenn Deutschland nicht schon eh ruiniert wäre, dieser Mann mit seinem vollkommen absurden Plan, alle Bewirtschaftungen in Deutschland aufzuheben, würde das ganz gewiss fertigbringen. Gott schütze uns davor, dass der einmal Wirtschaftsminister wird. Das wäre nach Hitler und der Zerstückelung Deutschlands die dritte Katastrophe.“ Erst das einsetzende Wirtschaftswachstum zu Beginn der 1950er Jahre schien seinen Kurs zu bestätigen. Als Direktor der Verwaltung für Wirtschaft suchte Erhard 1949 die Rückgabe der durch die Nazis „arisierten“ Porzellanfirma Rosenthal Porzellan AG an die Familie des Unternehmensgründers Philipp Rosenthal durch Intervention bei den US-Militärbehörden zu verhindern. Erhard hatte einen Beratervertrag mit der Rosenthal AG und erhielt jährlich 12.000 DM. Der US-Geheimdienst stufte ihn ab diesem Zeitpunkt als bestechlich ein. Abgeordneter. Von 1949 bis zu seinem Tode 1977 war Erhard Mitglied des Deutschen Bundestages. Von 1949 bis 1969 zog er als direkt gewählter Abgeordneter des Wahlkreises Ulm ins Parlament ein, 1972 und 1976 über die CDU-Landesliste Baden-Württemberg. Sowohl 1972 als auch 1976 oblag ihm als Alterspräsident die Eröffnung des Deutschen Bundestages. Erhard gehörte neben Hermann Götz, Gerhard Schröder (beide CDU), Richard Jaeger, Franz Josef Strauß, Richard Stücklen (alle CSU), Erich Mende (FDP, später CDU), Erwin Lange, R. Martin Schmidt und Herbert Wehner (alle SPD) zu den zehn Abgeordneten, die die ersten 25 Jahre seit der Bundestagswahl 1949 ununterbrochen dem Parlament angehörten. Als Wirtschaftsminister, 25. April 1963 Wirtschaftsminister. Nach der Bundestagswahl 1949 wurde Erhard am 20. September 1949 als Bundesminister für Wirtschaft in die von Bundeskanzler Adenauer geführte Bundesregierung berufen. Ludwig Erhard gilt als Vertreter des Ordoliberalismus, der im Wesentlichen von Walter Eucken in dessen Werk "Grundlagen der Nationalökonomie" aus dem Jahre 1939 geprägt wurde. Im Ordoliberalismus kommt dem Staat die Aufgabe zu, einen Ordnungsrahmen für freien Wettbewerb zu erzeugen, in der die Freiheit aller Wirtschaftssubjekte (auch voreinander) geschützt wird. Aus dieser Schule hatten besonders Wilhelm Röpke und Leonhard Miksch unmittelbaren Einfluss auf die Wirtschaftspolitik im ersten Jahrzehnt der Bundesrepublik. Als zweites wirtschaftspolitisches Konzept hatte die von Alfred Müller-Armack entworfene Soziale Marktwirtschaft grundsätzlichen Einfluss auf die Politik der jungen Bundesregierung, wie unten Kapitel 3 näher ausführt. Erhard war einer der beliebtesten Politiker der 1950er Jahre. Er galt für viele als Schöpfer des „deutschen Wirtschaftswunders“, dessen Markenzeichen der stets Zigarre rauchende Wirtschaftsminister wurde. Die großen Wahlsiege der CDU bei den Bundestagswahlen von 1953 und 1957 waren zum erheblichen Teil der erfolgreichen Strategie zu verdanken, den (tatsächlich internationalen) Wirtschaftsaufschwung mit dem Unionsleitbild der Sozialen Marktwirtschaft im Bürgerbewusstsein zu verknüpfen. Ludwig Erhard zog zwei Jahrzehnte später im Rückblick das Resümee: „In jenem ersten Wahlkampf waren Soziale Marktwirtschaft und CDU zu einer Identität geworden.“. In seinem populären Buch "Wohlstand für Alle" (1957) legte er seine Vorstellungen allgemeinverständlich dar. Unbeirrbar trat Erhard für die Liberalisierung des Außenhandels ein, was ihm auch in den eigenen Reihen den Ruf eines Dogmatikers einbrachte. Als überzeugter Verfechter der Marktwirtschaft trug Erhard harte Auseinandersetzungen mit dem Sozialpolitiker Adenauer aus, die 1957 im Streit um die von Adenauer letztlich durchgesetzte Rentenreform gipfelten. Das seitdem bestehende Umlageverfahren (sogenannter Generationenvertrag) lehnte Erhard als nicht zukunftsfähig ab. Adenauer setzte sich jedoch mit dem bekannten Ausspruch „Kinder kriegen die Leute sowieso“ über diese Bedenken hinweg. Sowohl der Vorgesetzte Erhards (Kanzler Adenauer) als auch ein wichtiger Abteilungsleiter (Müller-Armack) arbeiteten also für eine aktivere Sozialpolitik als der ordoliberale Erhard. Vom Beginn seiner Tätigkeit als Minister an sah sich Erhard harter Kritik seitens des Kanzlers ausgesetzt. Adenauers Hauptvorwürfe waren häufige Abwesenheit, mangelnde Kontrolle des Ministeriums und unbedachte Reden. Seine Anhänger wurden scherzhaft „Brigade Erhard“ genannt – nach einer Marineeinheit aus dem Kapp-Putsch von 1920. Um eine gefestigte Gruppe handelte es sich allerdings nicht; manche unterstützten den Wirtschaftsminister nicht zuletzt deshalb, weil sie Adenauer ablösen und nach Erhard selbst Kanzler werden wollten. Nach der Bundestagswahl 1957 ernannte Adenauer Ludwig Erhard zum Vizekanzler. Am 24. Februar 1959 schlug Adenauer die Kandidatur Erhards für das Amt des Bundespräsidenten vor, was aber von Erhard am 3. März endgültig abgelehnt wurde. Nach der Bundestagswahl 1961 wurde Erhard erneut Vizekanzler und Wirtschaftsminister. Als er 1962 während der Spiegel-Affäre die Kanzlerschaft hätte erringen können, enttäuschte er seine Anhänger durch seine Zögerlichkeit. Bundeskanzler. Nach Adenauers Rücktritt am 15. Oktober 1963 wurde Erhard, seit 1957 bereits Vizekanzler, am folgenden Tag zum Bundeskanzler gewählt. Viele – allen voran Adenauer – glaubten, er sei als Kanzler ungeeignet. So wurde er mehrheitlich als eine Art Zwischenlösung angesehen mit der Hauptaufgabe, einen Wahlsieg bei der Bundestagswahl am 19. September 1965 zu erringen. Erhards Regierungszeit gilt als glücklos. Aus den Reihen der CDU warf man ihm unter anderem vor, er sei für eine Abkühlung der deutsch-französischen Beziehungen verantwortlich. Neben Außenminister Gerhard Schröder zählte er zu den Atlantikern, die den Beziehungen zu den USA gegenüber denen zu Frankreich Vorrang gaben. Zudem intrigierte der nunmehrige Altkanzler Adenauer gegen ihn: Erhard sei als Kanzler unfähig; vergeblich hatte der Kölner ihn schon als Nachfolger zu verhindern versucht. 1965 fuhr Erhard zwar den bis dahin zweitgrößten Wahlsieg in der Geschichte der Union ein, doch schon bei der Regierungsbildung konnte er seine Ansichten in der CDU/CSU nicht mehr durchsetzen. In den folgenden Monaten verfiel seine Autorität zusehends. Das von ihm aufgestellte Leitbild einer „"formierten Gesellschaft"“ fand kaum Zustimmung. Um sich zu behaupten und seinen Konkurrenten Barzel zu bremsen, ließ Erhard sich im März 1966 zum Vorsitzenden der CDU wählen. Sein Ansehen als Wirtschaftsfachmann wurde erschüttert, als 1966 US-Präsident Lyndon B. Johnson hohe zusätzliche Zahlungen in Höhe von 1,35 Milliarden US$ (etwa 5,4 Milliarden DM) für Besatzungskosten und den Vietnamkrieg einforderte und die zweite Rezession der Nachkriegszeit (die erste war unmittelbar auf die Währungsreform von 1948 gefolgt) mit drastisch steigenden Arbeitslosenzahlen einsetzte. Es folgten schwere Niederlagen für die CDU bei Landtagswahlen, insbesondere am 10. Juli 1966 in Nordrhein-Westfalen, wo sich die CDU nur mit knappster Mehrheit an der Macht halten konnte. Wegen einer Finanzkrise und in Betracht gezogener moderater Steuererhöhungen folgte der Rücktritt der FDP-Minister. Erhard bildete am 26. Oktober 1966 eine Minderheitsregierung aus CDU und CSU. Die CDU/CSU-Bundestagsfraktion wählte indes Kurt Georg Kiesinger zum Kanzlerkandidaten, der eine Große Koalition mit der SPD zustande brachte. Erhard trat schließlich am 1. Dezember 1966 zurück. Im Mai 1967 legte er auch den CDU-Vorsitz nieder. Auch Erhards Berater Johannes Gross wies auf dessen Schüchternheit und Zögerlichkeit im kleinen Kreis hin; sie stand in einem Kontrast zu dem öffentlich zur Schau gestellten Optimismus in seinen mitreißenden Reden. Partei. Obwohl er als Wirtschaftsminister und Bundestagsabgeordneter seit 1949 ausschließlich für die CDU aktiv war, ist die Frage der formalen Parteimitgliedschaft Erhards nicht abschließend geklärt. Von 1966 bis 1967 war er Bundesvorsitzender, ab 1967 Ehrenvorsitzender der CDU. Im Jahr 2002 kam die "Welt" zu dem Rechercheergebnis, dass sich die Frage einer Parteimitgliedschaft für Erhard tatsächlich erst bei seiner Wahl zum CDU-Vorsitzenden gestellt habe, da dieses Amt nur von einem Parteimitglied ausgeübt werden kann. Erhard sei daher 1966 der CDU beigetreten, sein Beitritt sei in den Büchern der CDU aber drei Jahre zurückdatiert und somit formell auf 1963 festgelegt worden. Faktisch wäre Erhard damit aber bei seinem Amtsantritt als Bundeskanzler 1963 parteilos gewesen. Im Jahre 2007 thematisierten verschiedene Presseorgane und Nachrichtenagenturen erneut das Thema der Parteizugehörigkeit Erhards und insbesondere, dass Erhard niemals Parteimitglied der CDU gewesen sei. Zwar sei beim CDU-Kreisverband Ulm eine Mitgliedskarte nachweisbar; entscheidend für die Parteizugehörigkeit sei aber die Beitrittserklärung, die aber offensichtlich nicht vorliege. Auch Mitgliedsbeiträge solle Erhard nie gezahlt haben. Späte Jahre. Briefmarke von 1997 aus Anlass des 100. Geburtstags Erhard blieb nach seiner Zeit als Bundeskanzler noch weitere elf Jahre Bundestagsabgeordneter. 1967 gründete er die Ludwig-Erhard-Stiftung, die seine wirtschaftswissenschaftlichen und Wirtschaftsordnungs-Vorstellungen wissenschaftlich und publizistisch weiter pflegen soll. Außerdem war er erster Vorsitzender des Kuratoriums der Hermann Kunst-Stiftung zur Förderung der neutestamentlichen Textforschung (1964–1977), das die Arbeit des Instituts für Neutestamentliche Textforschung in Münster fördert. Rückblickend äußerte er sich kurz vor seinem Tod zu seinem wirtschaftspolitischen Schaffen, insbesondere zur Unterbindung der Aufblähung des öffentlichen Sektors und der rapide anwachsenden Staatsverschuldung: „Ich habe als Bundesminister 80 Prozent meiner Kraft dazu verwenden müssen, gegen ökonomischen Unfug anzukämpfen, leider nicht durchweg mit Erfolg.“ Erhard war Mitglied der evangelischen Kirche. Er starb am 5. Mai 1977 an Herzversagen in Bonn. Am 11. Mai 1977 fand aus Anlass seines Todes ein Staatsakt im Plenarsaal des Deutschen Bundestages statt. Er wurde auf dem Bergfriedhof in Gmund am Tegernsee bestattet. Postum wurde anlässlich seines 110. Geburtstages im Jahre 2007 eine vom Aachener Bildhauer Wolf Ritz angefertigte Büste im Eingangsbereich des Bundeswirtschaftsministeriums in Berlin aufgestellt und eingeweiht. Ludwig-Erhard-Preise. Der deutsche Qualitätspreis ist nach Ludwig Erhard benannt: Als Ludwig-Erhard-Preis wird er jährlich auf der Basis des EFQM-Modells an Unternehmen verliehen, die besondere Leistungen im Qualitätsmanagement erkennen ließen. Mit dem Fürther Ludwig-Erhard-Preis zeichnet der Ludwig-Erhard-Initiativkreis Fürth wirtschaftswissenschaftliche Dissertationen aus, „in denen verstärkt die Faktoren Innovation, Praxisnähe, Realisierbarkeit, wirtschaftlicher Nutzen und die Auswirkungen auf die Menschen in unserer Gesellschaft berücksichtigt sind“. Die Ludwig-Erhard-Stiftung verleiht die Ludwig-Erhard-Medaille für Verdienste um die Soziale Marktwirtschaft und den Ludwig-Erhard-Preis für Wirtschaftspublizistik. Liestal. Liestal (schweizerdeutsch: "Lieschdl"), früher "Lihstal", ist eine politische Gemeinde im Bezirk Liestal des Kantons Basel-Landschaft in der Schweiz. Die Stadt Liestal ist der Hauptort des Schweizer Kantons Basel-Landschaft sowie des Bezirks Liestal. 20 km südöstlich von Basel gelegen ist sie Sitz kantonaler Behörden, Gerichte und Verwaltungen. Geographie. Liestal liegt an der Ergolz, welche den Ort von Südosten nach Norden durchfliesst. Linke Zuflüsse in die Ergolz sind auf Liestaler Boden die Frenke, der Orisbach und der Rösernbach. Von den 1821 ha Stadtbann sind 1077 ha Wald. Der höchste Punkt Liestals liegt auf (Alti Stell, Aussichtsturm) und der tiefste auf, wo die Ergolz im Niederschönthal den Stadtbann verlässt. Zu den Nachbargemeinden zählen (von Norden im Uhrzeigersinn) Füllinsdorf, Arisdorf, Hersberg, Lausen, Bubendorf, Seltisberg, Nuglar-St. Pantaleon (Kanton Solothurn) und Frenkendorf. Bevölkerung. Das ergibt einen Ausländeranteil von 25,5 Prozent. Stadtrat. Alle vier Jahre werden Stadtrat und Stadtpräsident vom Stimmvolk gewählt. Wahlberechtigt sind alle volljährigen Schweizer Bürger. Einwohnerrat. Mit parlamentarischen Vorstössen (Motionen, Postulaten, Interpellationen und Kleinen Anfragen) können die Mitglieder, Fraktionen und Kommissionen des Einwohnerrats eigene Anliegen einbringen. Der Einwohnerrat umfasst zurzeit fünf Kommissionen und dem Büro. Diese dienen zur Vorberatung der Geschäfte sowie zur Ausübung der Oberaufsicht des Stadtrates. Rund zehnmal jährlich tagt der Einwohnerrat öffentlich im Landratssaal. Wappen. Zur Zeit der bischöflichen Herrschaft (1305) erhielt Liestal den Bischofsstab, den es wie das Bistum in roter Farbe führte. Besondere Kennzeichen waren die sieben gotischen «Krabben» (Tupfen) am Knauf und der rote Schildrand. Nach der Trennung beider Basel übernahm die Landschaft den roten Stab als Kantonswappen. Um Verwechslungen zu vermeiden, machte man in Liestal ein seit 1407 bekanntes Stadtsiegel 1921 zum offiziellen Stadtwappen: Die untere Hälfte ist rot, die obere silbern. Darauf ein wachsender roter Bischofsstab mit sieben gotischen Krabben. Flagge: weissrot. Wirtschaft. Das Wirtschaftsleben von Liestal ist geprägt durch die kantonale Verwaltung sowie durch die zahlreichen kleinen und mittleren Gewerbetreibenden und Unternehmen, die entweder die lokale Nachfrage bedienen oder aber als spezialisierte Zulieferer für grosse Unternehmen des Wirtschaftsraumes Nordwestschweiz produzieren. Als Produktionsstandort für klassische Industriegüter, vor allem Schwer- und Textilindustrie, spielte Liestal in früherer Zeit eine erhebliche Rolle (unter anderem Hanro und Tuchfabrik Schild). Die im Zentrum Liestals gelegene Brauerei Ziegelhof schloss 2006 nach 156 Jahren. In jüngerer Zeit haben sich einige Hightech-Unternehmen angesiedelt, so zum Beispiel die Nanosurf AG, die am Mars-Programm Phoenix der NASA beteiligt ist. Weitere Firmen sind die Santhera Pharmaceuticals und die Fontarocca AG, die auf Natursteine spezialisiert sind. Geschichte. An der Liestal-Hurlistrasse sind, neben einem Fund im Kanton Neuenburg, die ältesten Hinweise für die Anwesenheit der frühneolithischen La Hoguette Kultur in der Schweiz gefunden worden. Obwohl vermutlich einiges älter, wurde Liestal erstmals 1189 urkundlich erwähnt. Beim oft zitierten Erstbeleg "Liehstal" von 1189 dürfte es sich nach neueren Erkenntnissen um ein gefälschtes Dokument aus späterer Zeit handeln. Für die Erklärung des Ortsnamens gibt es verschiedene Hypothesen: Liustatio, römischer Wachtposten zum Schutz der Strasse; Lucistabulum, Haus eines römischen Siedlers namens Lucius; Liubherestal, der Besitz eines Alemannen namens Liubirih; Lieschtal, der Ort, wo Liesche (Riedgras) wächst, wie zum Beispiel in der sumpfigen Gegend des späteren Weihers. Die Gegend von Liestal war schon in vorrömischer Zeit besiedelt. Die römische Villa in Munzach und die römische Wasserleitung, die im Heidenloch und an der oberen Burghalde sichtbar ist, bilden gesamtschweizerisch bedeutende römische Bauwerke. Das Geviert des Kirchhofes geht mit grösster Wahrscheinlichkeit auf ein spätrömisches Kastell aus dem 4. Jahrhundert zurück. Seine Entwicklung verdankt Liestal seiner verkehrsgünstigen und strategisch wichtigen Lage an der Strassengabelung zu den beiden Hauensteinpässen. Auf Burghalden thront eine erst partiell erforschte ausgedehnte Festungsanlage des 10. Jahrhunderts. Nach der Eröffnung des Gotthardpasses und nach dem Bau der ersten Rheinbrücke im nahen Basel wurde Liestal in der Mitte des 13. Jahrhunderts von den Grafen von Frohburg zur befestigten Stadt und damit zum sicheren Etappenort an der Nord-Süd-Route gemacht. Liestal wurde mit Mauern, Toren und Türmen versehen. Der Markt wurde vom offenen «Altmarkt» in der Nähe des Zusammenflusses von Ergolz und Frenke in die sicherere Stadt verlegt. 1305 verkauften die Grafen von Frohburg die Stadt an den Bischof von Basel. Unter der Herrschaft des Bischofs erlangten die Liestaler weitgehende Selbständigkeit. 1374 verpfändete der Bischof von Basel Liestal mit Waldenburg und Homburg dem Herzog Leopold von Österreich, der sie bald den Grafen von Thierstein überliess. Als diese 1381 das Pfand nicht zurückgeben wollten, nahm Herzog Leopold Liestal ein und verbrannte das Städtchen. Doch schon im selben Jahr löste der Bischof das Pfand wieder ein und gewährte Liestal neue Rechte. 1400 kaufte die aufstrebende Handelsstadt Basel dem Bischof das Städtchen ab. Freiheiten und Vorrechte gingen wieder verloren und konnten erst im Laufe der Zeit zurückerobert werden. Der freiheitsliebende und wehrhafte Geist Liestals verwickelte die Bewohner des Städtchens immer wieder in kriegerische Auseinandersetzungen. Als Untertanen der Stadt Basel waren die Liestaler 1444 mit ihrem eigenen Banner bei St. Jakob an der Birs dabei, wo sie 23 Mitbürger verloren. 1476 und 1477 kämpften Liestaler in den Burgunderkriegen. Entgegen dem strikten Neutralitätsbefehl der Stadt Basel unterstützten die Liestaler 1499 im Schwabenkrieg die Solothurner und die Eidgenossen. 1501 legte der Schultheiss von Liestal auf dem Basler Marktplatz im Namen seiner Mitbürger und Nachbardörfer den Eid auf den Schweizerbund ab. Es kam immer wieder zu Scharmützeln mit den habsburgischen Rheinfeldern. Liestal rebellierte immer wieder gegen die Bevormundung durch Basel, das seine Vormacht wenn nötig auch mit Gewalt durchsetzte. Unter dem Eindruck des süddeutschen Bauernkrieges erhoben sich 1525 auch die Baselbieter erfolgreich gegen die Stadt Basel. Liestal erhielt 1525 einen Freiheitsbrief, der unter anderem die Leibeigenschaft aufhob. Wenig später schloss sich Liestal auch der Reformation an. 1653 beteiligten sich die Liestaler an der schweizerischen Bauernbewegung und revoltierten wieder gegen die Vorherrschaft Basels. Der Aufstand scheiterte, Liestal wurde von Basler Truppen besetzt und drei Liestaler Rädelsführer wurden in Basel enthauptet. Schon drei Jahre später erreichte Liestal die Wiederbewaffnung. Als 1789 von Frankreich her der Ruf nach Freiheit und Gleichheit ertönte, verlangte Liestal als einzige Baselbieter Gemeinde 1790 die Wiederherstellung der alten Rechte. Begeistert feierte Liestal 1797 den durchreisenden Napoleon. «Liestal bien patriote» nannte er das Städtchen, das zum Mittelpunkt der Baselbieter Befreiungsbewegung wurde. Hier stand der erste Freiheitsbaum der deutschsprachigen Schweiz. Am 16. Januar 1798 zerrissen rebellische Liestaler die obrigkeitliche Fahne und hissten die Tricolore. Unter Führung Liestals erlangte das Baselbiet als erstes Untertanenland der Eidgenossenschaft die langersehnte Freiheit. Nach Napoleons Sturz bekam Liestal wieder die Vorherrschaft Basels zu spüren. 1830 sprang der Funke der französischen Julirevolution auch ins Baselbiet über. Nach einer kantonalen Volksabstimmung wurde 1832 der Kanton Basel-Landschaft gegründet. Die endgültige Trennung fand erst nach dem Gefecht vom 3. August 1833 an der Hülftenschanze zwischen Pratteln und Liestal statt. Noch lange Zeit prägte die revolutionäre Gesinnung die Politik Liestals, das im 19. Jahrhundert viele politische Flüchtlinge aufnahm. 1854 erhielt Liestal mit der Hauensteinlinie Anschluss an das internationale Eisenbahnnetz; das war die Grundlage für seine Industrialisierung. 1862 wurde die Kaserne Liestal eingeweiht und 1877 ausgebaut. Gegenwart. Liestal ist eine Kleinstadt mit regionalen Zentrumsfunktionen und verfügt über eine kleine eigene Agglomeration, bestehend aus Frenkendorf, Füllinsdorf, Lausen, Bubendorf und Seltisberg. Es sind lokale, regionale und kantonale Schulen sowie die eidgenössische Zollschule in Liestal zu finden. Auf dem Bienenberg befindet sich das mennonitische Ausbildungs- und Tagungszentrum Bienenberg. Verkehr. Liestal hat mit der Hauensteinstrecke direkte Zugsverbindungen nach Basel, Zürich, Olten und Luzern und ist mit der A22 direkt an die Autobahn A2 angebunden. Der Flughafen von Basel (Euroairport) ist in rund 45 Minuten/30 Minuten (öffentlicher Verkehr/Auto) und der von Zürich in rund 75 Minuten/60 Minuten (öffentlicher Verkehr/Auto) erreichbar. Der Bahnhof ist Ausgangspunkt diverser Buslinien und der Waldenburgerbahn in die Agglomeration sowie das mittlere Oberbaselbiet. Brauchtum. Chienbäse 2009, Feuerwagen vor der Durchfahrt durchs Obertor Fasnacht. Die Liestaler Fasnacht ist stark von der Basler Fasnacht geprägt, wenn auch mit viel Lokalkolorit. Sie beginnt von einigen Vorfasnachtsveranstaltungen abgesehen – dem alten Termin der «Burefasnacht» folgend – am Sonntag vor dem Morgestraich der Basler Fasnacht mit einem grossen Strassenumzug. Dieser ist nach dem Cortège der Basler Fasnacht der grösste der Nordwestschweiz. Ein Konzert der verschiedenen Guggenmusiken am Vorabend verkürzt die Wartezeit bis zum Chienbäse. Am darauf folgenden Montag und Dienstag findet das Schnitzelbank-Singen statt, währenddessen der Mittwochnachmittag der Tag der Kinder ist, wiederum mit Strassenumzug und Maskenball. Die Fasnacht wird am darauf folgenden Samstag sechs Tage nach Beginn der Fasnacht mit einem Guggekonzert beendet, dem sogenannten "Cheruus" (Kehraus). Chienbäse. Am Abend des Fasnachtssonntags werden aus Föhrenscheiten (Kiefernholz) gebundene «Besen» von 20 bis 100 kg Gewicht brennend durch die verdunkelte Altstadt getragen. Dazwischen folgen einige funkensprühende, meterhohe Flammen aufwerfende Feuerwagen. Nachträglich gehen die Trommler und Pfeifencliquen mit ihren erleuchteten Fasnachtslaternen durch die Altstadt. Der Anlass zieht Zuschauer aus der ganzen Schweiz sowie aus dem Ausland an. «Santichlaus-Ylüte». Ein winterlicher Lärmbrauch ist das «Santichlaus-Ylüte» am 6. Dezember. Beim Einnachten besammeln sich die Liestaler Kinder mit grossen Kuhglocken und kleinen Schellen in der Allee, um dann unter viel Lärm durch die Gassen des «Stedtlis» zu ziehen. Banntag. Wie in vielen Baselbieter Gemeinden gehört in Liestal der Banntag fest zum Jahresablauf. Am Montag vor Auffahrt ziehen die Männer und Kinder von Liestal in vier Rotten aus, um die Grenzen der Gemeinde abzuschreiten. Als eine der letzten Gemeinden wird der Zug traditionell von Trommel- und Pfeiffenklängen sowie vom Knallen aus Vorderladen und Guidenpistolen begleitet. Die Männer tragen blumengeschmückte Hüte und einen Spazierstock. In den letzten Jahren entstand um diese Knallerei eine heftige Kontroverse inklusive juristischer Geplänkel. Aus Protest gegen den reinen Männer-Festtag zieht seit einigen Jahren eine fünfte Rotte vier Tage später, am Auffahrtstag, zum alternativen Familien-Banntag los. Larve. Larve (von lat. "larva" Pl. "larvae") bezeichnet in der Zoologie eine Zwischenform in der Entwicklung vom Ei zum Erwachsenenstadium. Sie tritt bei Tieren auf, die eine Metamorphose durchlaufen. Ursprünglich bezeichnete "Larve" eine Maske oder ein Gespenst. Die bekanntesten Tiergruppen mit einem Larvenstadium sind die Insekten sowie die Amphibien. Die Larven von Froschlurchen werden dabei Kaulquappen genannt; als Finnen bezeichnet man das Larvenstadium bei Bandwürmern. Beispiele für Larven bei Insekten sind Maden oder Raupen. Auch bei vielen eierlegenden Fischen gibt es ein oder mehrere Larvenstadien. Die Bezeichnung von verschiedenen Larvenstadien wird häufig als L1, L2 usw. abgekürzt. Larven sehen völlig anders aus als das ausgewachsene Tier und haben oft auch eine ganz andere Lebensweise. So leben zum Beispiel die Larven von Stechmücken oder Libellen im Wasser, während das ausgewachsene Insekt (Imago) an Land lebt. Haben die jungen Tiere keine eigenen Larvalmerkmale, so spricht man von einer Nymphe. Nicht immer muss das Larvenstadium nur eine kurze Übergangsphase sein; es kann durchaus den größten Teil des Lebens eines Tieres ausmachen. So lebt der Maikäfer zwei bis fünf Jahre als Larve (Engerling), als ausgewachsener Käfer nur wenige Wochen. Extrem sieht es bei den Eintagsfliegen aus. Nach der Umwandlung zur Imago leben manche Arten nur noch wenige Stunden. Des Weiteren gibt es Arten, bei denen schon die Larven geschlechtsreif werden und nie die Verwandlung durchführen (so genannte Neotenie), zum Beispiel der mexikanische Axolotl-Molch. Lexikografie. Die Lexikografie oder Lexikographie ("lexikòn biblíon"‚ ‘Sprachbuch’ und ‘schreibe’, vgl. -graphie) beschäftigt sich mit dem Erstellen von Wörterbüchern. Das Erstellen eines Wörterbuches ist ein komplexer und meist langwieriger Prozess. Bei allen größeren Projekten wird die Arbeit von mehreren Personen ausgeführt. Sie führt zu einem gedruckten Wörterbuch, einem elektronischen Wörterbuch oder zu einer lexikalischen Datenbank, die Grundlage für beides sein kann. Phasen während der Erstellung eines Wörterbuches. Nicht jedes Projekt umfasst alle Phasen und in dieser Reihenfolge. Viele Phasen überschneiden sich in einem konkreten Projekt zeitlich. Insbesondere eine vorgängige Auswahl der Einheiten ist gerade bei Langzeitprojekten oft nicht gegeben. Die Lexikografie hat in ihrer Geschichte eine eigene Werkstattsprache entwickelt, die für Laien nicht unbedingt verständlich ist. Der lexikografische Prozess, seine Produkte, die Wörterbücher, ihre Geschichte, Struktur und Benutzung sind Gegenstände der Metalexikografie (Wörterbuchforschung). Gelegentlich wird aber die wissenschaftliche Beschäftigung mit Wörterbüchern auch als "Lexikografie" bezeichnet. Verwandte Disziplinen. Die Lexikografie ist eng verwandt, aber nicht identisch mit der sprachwissenschaftlichen Disziplin der Lexikologie. Die Lexikologie untersucht systematisch Teile des Wortschatzes einer Sprache, ohne diesen aber vollständig kodieren zu wollen. Die Enzyklopädik bzw. Enzyklopädistik beschäftigt sich mit dem Erstellen von enzyklopädischen Nachschlagewerken. Lomografie. Die Lomografie bzw. Lomographie bezeichnet eine Bewegung, eine Community und auch einen Marketing-Begriff der Lomography AG. Lomografie gehört in die Kategorie Schnappschussfotografie. Der Begriff leitet sich von der Kleinbildkamera „LOMO Compact Automat“ (LC-A) der Sankt Petersburger Firma Lomo ab. Fotos, die mit diesem oder ähnlichen Billigkamerafabrikaten gemacht werden, haben eine im Vergleich zu regulären Fotokameras mangelhafte Bildqualität mit Fehlern und Störeffekten, die außerhalb der Lomografie im Allgemeinen vermieden werden. Bei der Lomografie sind diese zum Teil unvorhersehbaren Bildeigenschaften jedoch erwünscht. Bildqualität. Scheinbar schlechte Bildqualität wird schon lange gezielt eingesetzt. Hierbei werden einerseits Unschärfen bewusst als Gestaltungsmittel eingesetzt, es werden unwichtige Bildhintergründe mit gesteuerter Tiefenschärfe ausgeblendet oder Bilder gezielt über- oder unterbelichtet. In der Lomographie werden hingegen lediglich die technischen Mängel der Kameras in Kauf genommen, eine gezielte Beeinflussung der Gestaltungsmittel wie in der klassischen Fotografie lässt die Technik nicht zu. Eine objektive Verschlechterung der Bildqualität bzw. eine Betonung des Schnappschusscharakters ist auch in der Modefotografie ein häufiges Stilmittel. Softwarewerkzeuge zur digitalen Bildbearbeitung bieten meist auch Funktionen, um diese Fotofehler imitieren zu können, so dass sich ein lomografischer Stil auch nachträglich einem regulären Foto hinzufügen lässt. Grundidee. Jeder Bürger in der Sowjetunion sollte seine eigene Kamera besitzen, um nach Ansicht der politischen Führung damit sein Leben und die Schönheit der Heimat dokumentieren bzw. einfangen zu können. Der ersten und bekanntesten Lomokamera LC-A ("LOMO Compact Automat"), die ab 1983 produziert wurde, lag die japanische Kompaktkamera Cosina CX-1 zu Grunde. In den Ländern des Ostblocks gehörten die sowjetischen Lomokameras zu den wenigen erhältlichen Sucherkameras mit vollautomatischer Belichtungssteuerung, sie waren wegen Unzuverlässigkeit und schlechter Bildqualität aber nicht sonderlich beliebt. Die Lomografie ist in westlichen Ländern als Kunstrichtung im Sinne der Retrowelle erst nach dem Zerfall der Sowjetunion entstanden. Entwicklung. Die Lomografie als „Kunstform“ hatte ihren Ursprung in Wien, wo Studenten Anfang der 1990er mit ihren bunten Fotos auf großen Stellwänden (sogenannten „Lomowänden“) verschiedene Ausstellungen veranstalteten. Gegründet wurde die „Fotoinitiative Lomographische Gesellschaft“ im Juni 1992 von Matthias Fiegl, Christoph Hofinger und Wolfgang Stranziger in Wien. Der neue Blick auf die Welt, ermöglicht durch „Hüftschüsse“ und ungeplante, experimentelle Schnappschüsse, zog bald weitere Fotoamateure in seinen Bann, was dazu beitrug, dass die technisch veraltete LOMO LC-A noch bis 2005 hergestellt wurde und sogar neue LOMO-Kameras entwickelt wurden (mit Vierfach- bis sogar Neunfachobjektiven und anderen, wie z. B. für Unterwasserfotos, für Farbänderung, mit Fischaugenobjektiv, etc.). Weltweit existieren heute lomografische Gesellschaften und Botschaften. Seit 2006 wird in China eine Weiterentwicklung der LOMO LC-A, die LOMO LC-A+ produziert. Zu den Kameras von Lomo zählt auch die Smena-Reihe (russ.: СМЕНА), bei der alle Einstellungen und der Transport manuell vorgenommen werden. Die Smena war im Gegensatz zur Lomo eine ernstgenommene Sucherkamera mit einem Objektiv, welches ordentliche Fotografie erlaubte. Technik. Ein Wesensmerkmal der Lomografie ist, dass sie damit spielt, technisch nicht ausgereift zu sein. Inzwischen sind aber doch Kameramodelle erhältlich, deren Optik sich verschiedener optischer Effekte bedient. Gerne werden Fischaugen-Kameras eingesetzt. Modelle mit Mehrfachlinsen bedienen sich vier bis neun Linsen mit unterschiedlicher Brennweite, die zeitversetzt jeweils einen Teil des Bildes (i. d. R. auf einem KB-Film) belichten. Die Bilder, die als Lomografien bezeichnet werden, kann man prinzipiell mit jeder billigen Sucherkamera knipsen; „echte“ Lomografen schwören allerdings auf die schlechte 32-mm-Weitwinkeloptik, die übertrieben farbintensive und kontrastreiche Bilder liefert. Bei Lomo-Fotos entstehen oft extrem bunte und verwackelte Bilder. Die „Lomographische Gesellschaft Wien“ empfiehlt für die Entwicklung auf Papier das Format 7 × 10 cm, da auf dem kleinen Format die Unschärfen nicht so deutlich werden. Da dies aber heute kaum mehr angeboten wird, eignen sich aus Kostengründen auch 9 × 13 cm. Kontroverse analog/digital. Durch den Siegeszug der schnelleren Digitalfotografie und auch bedingt durch den insbesondere zeitlichen Aufwand, einen Film zu entwickeln, entsteht zunehmend der Trend zu einer Abwandlung der Lomografie: Der „goldene Schuss aus dem Handgelenk” mittels günstiger Digitalkameras, was von traditionellen Lomografen allerdings konsequent abgelehnt wird. Zahlreiche Internetseiten zeigen sogenannte digitale Fotoblogs, die im Ansatz eine Weiterentwicklung der Lomografie sind. Lichtgeschwindigkeit. Lichtgeschwindigkeit bezeichnet allgemein die Ausbreitungsgeschwindigkeit von Licht und anderen elektromagnetischen Wellen in beliebigen Medien. Meist ist speziell die fundamentale Naturkonstante Lichtgeschwindigkeit im Vakuum formula_8 gemeint, deren Bedeutung durch die spezielle Relativitätstheorie weit über die genaue Kenntnis der Ausbreitungsgeschwindigkeit von Licht im Vakuum hinausgeht. Es wurde nachgewiesen, dass die Geschwindigkeit von Licht im Vakuum unbeeinflusst und unabhängig von der Geschwindigkeit des zum Nachweis verwendeten Empfängers (Michelson-Morley-Experiment) und von der Geschwindigkeit der Lichtquelle selbst ist. Albert Einstein postulierte daher die Vakuumlichtgeschwindigkeit "c" als die absolute Geschwindigkeitsgrenze für die Bewegung von Masse und die Übertragung von Energie und Information im Universum. Daraus entwickelte er die Relativitätstheorie. Teilchen ohne Masse, wie die Photonen, bewegen sich stets mit dieser Grenzgeschwindigkeit, alle massebehafteten Teilchen stets langsamer. Als Folge der speziellen Relativitätstheorie (SRT) verbindet die Naturkonstante formula_8 die vorher unabhängigen Konzepte Energie (formula_10) und Masse (formula_11) in der Äquivalenz von Masse und Energie formula_12. Orts- und Zeitkoordinaten werden nun durch formula_8 zur Raumzeit zusammengefasst und in einem vierdimensionalen Raum als Vierervektor gemeinsam betrachtet. Die Lichtgeschwindigkeit ist so hoch, dass man lange Zeit annahm, dass das Entzünden eines Lichts überall gleichzeitig wahrgenommen werden kann. Im Jahr 1676 stellte Ole Rømer eine Verzögerung in der Verdunkelung des Jupitermondes Io je nach Lage der Erde relativ zum Jupiter fest. Daraus folgerte er korrekt, dass sich Licht mit einer endlichen Geschwindigkeit ausbreitet. Der von ihm ermittelte Wert wich nur um 30 % vom tatsächlichen Wert ab. Die Messmethoden zur Bestimmung der Lichtgeschwindigkeit wurden in der Folgezeit immer genauer. Seit 1983 wird der Meter als die Entfernung definiert, die Licht im 299 792 458-ten Bruchteil einer Sekunde im Vakuum zurücklegt. Dadurch ist der Zahlenwert der Lichtgeschwindigkeit frei von Messfehlern exakt formula_14. Präzise Entfernungsmessungen werden heute direkt auf die Lichtgeschwindigkeit bezogen, z. B. bei Laserentfernungsmessern oder beim Global Positioning System. Das Formelzeichen formula_8 (von lateinisch "celeritas", Schnelligkeit) wird in vielen Fällen auch für die abweichende Ausbreitungsgeschwindigkeit in Materialien benutzt, wie Glas, Luft oder elektrischen Leitungen. Daher wird oft durch Wortzusätze deutlich gemacht, ob die Lichtgeschwindigkeit im Vakuum oder im Medium gemeint ist, wenn es sich nicht aus dem Zusammenhang ergibt. Auch der Index 0 (formula_16) wird für die Lichtgeschwindigkeit im Vakuum verwendet. Wert. Vor 1983 war der Meter als Vielfaches der Wellenlänge eines bestimmten atomaren Übergangs definiert. Die Lichtgeschwindigkeit war ein Ergebnis von Messungen, das in der abgeleiteten Einheit Meter pro Sekunde angegeben wurde. Die 17. Generalkonferenz für Maß und Gewicht hat 1983 das Verhältnis zwischen Lichtgeschwindigkeit und Meterdefinition umgekehrt. Seitdem wird der Zusammenhang zwischen der Wellenlänge des Übergangs und dem Meter als Ergebnis von Messungen betrachtet. Im Gegenzug konnte der Zusammenhang zwischen dem Meter und der Lichtgeschwindigkeit durch eine Definition, d. h. ohne Messung, festgelegt werden. Nach dieser Festsetzung beträgt die Geschwindigkeit des Lichts im Vakuum exakt Der genaue Zahlenwert wurde so gewählt, dass er mit dem besten damaligen Messergebnis übereinstimmte. Er wird auch dann gültig bleiben, wenn genauere Geschwindigkeitsmessungen möglich sind. Solche Messungen ergeben dann eine genauere Bestimmung für die Länge eines Meters. Natürliche Einheiten. Viele Darstellungen der relativistischen Physik geben Längen durch Lichtlaufzeiten an oder umgekehrt Zeiten durch die Länge des Weges, den Licht während dieser Zeit durchläuft. Ein Lichtjahr heißt dann kürzer "ein Jahr". In diesen Maßeinheiten (siehe Planck-Einheiten) gilt und Licht hat die dimensionslose Geschwindigkeit einer "Sekunde" pro Sekunde Das Formelbild physikalischer Zusammenhänge vereinfacht sich durch diese Einheitenwahl, beispielsweise lautet der Zusammenhang von Energie formula_10 und Impuls formula_21 eines Teilchens der Masse formula_11 dann nicht mehr formula_23 sondern formula_24. Wer aus einer Gleichung in natürlichen Einheiten die Gleichung im Internationalen Einheitensystem (SI) zurückgewinnen will, muss jeden Summanden mit so vielen Faktoren formula_8 multiplizieren, dass beide Seiten der Gleichung und jeder Summand gleiche SI-Einheiten haben. Beispielsweise hat im SI die Energie die Maßeinheit einer Masse mal dem Quadrat einer Geschwindigkeit und ein Impuls die Maßeinheit einer Masse mal einer Geschwindigkeit. Damit in der Formel formula_24 auf der rechten Seite im SI Größen von derselben Maßeinheit, Energie mal Energie, stehen wie auf der linken, muss daher das Massenquadrat mit formula_27 und das Impulsquadrat mit formula_28 multipliziert werden. So erhält man die im SI gültige Gleichung formula_29 Technische Bedeutung. Da sich alle elektromagnetischen Wellen im Vakuum mit Lichtgeschwindigkeit und in vielen Medien mit nahezu Lichtgeschwindigkeit ausbreiten, sind sie für die Telekommunikation wichtig. Auf der Erde beträgt der maximale Abstand (entlang der Oberfläche) zweier Orte etwa 20.000 km (halber Erdumfang). Die kürzeste Zeit für ein elektromagnetisches Signal, diese Strecke zu durchlaufen, ist knapp 67 Millisekunden. Die tatsächliche Übertragungszeit ist allerdings länger. Bei atmosphärischer Übertragung wird die Welle in den verschiedenen Schichten der Atmosphäre sowie am Erdboden reflektiert und hat so einen längeren Weg zurückzulegen. Bei der Übertragung in Glasfaserkabeln ist die Lichtgeschwindigkeit etwa 30 Prozent kleiner als im Vakuum. Zusätzlich treten Verzögerungen durch die elektronischen Schaltelemente auf. Mikroprozessoren arbeiten heute mit Taktfrequenzen in der Größenordnung von wenigen Gigahertz. Die Schwingungsdauer bei 1 GHz beträgt 1 Nanosekunde. In dieser Zeit legt ein elektrisches Signal also maximal knapp 30 Zentimeter zurück – das ist schon die Größenordnung der Abmessungen einer Hauptplatine eines Personal Computers. Konstrukteure müssen bei der Entwicklung der Leiterplatten für solche Elektronik also Laufzeiteffekte mit einkalkulieren. Geostationäre Satelliten befinden sich 35.786 Kilometer über dem Äquator. Um bei Telefon- oder Fernsehsignalen auf diesem Weg eine Antwort zu erhalten, muss das Signal mindestens 144.000 Kilometer zurückgelegt haben: vom Sender zum Satelliten, dann zum Empfänger, anschließend erfolgt die Antwort, und das Signal läuft den gleichen Weg zurück. Die reine Laufzeit ist etwa eine halbe Sekunde. Raumsonden befinden sich an ihren Zielorten oft viele Millionen oder Milliarden Kilometer von der Erde entfernt. Selbst mit Lichtgeschwindigkeit sind die Funksignale mehrere Minuten bis Stunden zu ihnen unterwegs. Die Antwort braucht noch einmal genauso lange zurück zur Erde. Extraterrestrische Fahrzeuge, wie zum Beispiel der Mars-Rover Opportunity, müssen daher in der Lage sein, sich selbst zu steuern und Gefahren zu erkennen, da die Bodenstation erst Minuten später auf Zwischenfälle reagieren kann. Lichtgeschwindigkeit und Elektrodynamik. Aus den Maxwell-Gleichungen folgt, dass elektrische und magnetische Felder schwingen können und dabei Energie durch den leeren Raum transportieren. Dabei gehorchen die Felder einer Wellengleichung, ähnlich der für mechanische Wellen und für Wasserwellen. Die elektromagnetischen Wellen übertragen Energie und Information, was in technischen Anwendungen für Radio, Radar oder Laser genutzt wird. Ebene Welle oder Kugelwelle im Vakuum. Die Geschwindigkeit von ebenen oder kugelförmigen elektromagnetischen Wellen im Vakuum ist den Maxwell-Gleichungen zufolge der Kehrwert der Wurzel des Produkts der elektrischen Feldkonstanten formula_30 und der magnetischen Feldkonstanten formula_31 Maxwells Annahme ist in allen Beobachtungen an elektromagnetischer Strahlung bestätigt worden. Mit den heutigen Werten für formula_35 und formula_31 ist die Gleichung exakt erfüllt, denn formula_8 und formula_31 sind als Bestandteil der Definition der physikalischen Grundeinheiten exakt festgelegt und formula_30 wird aus der Gleichung ermittelt. Ebene oder Kugel-Welle in einem Medium. In einem Medium werden die beiden Feldkonstanten durch das Material geändert, was durch die Faktoren "relative Permittivität" formula_40 und "relative Permeabilität" formula_41 berücksichtigt wird. Beide hängen von der Frequenz ab. Die Lichtgeschwindigkeit im Medium ist dementsprechend Der rote Punkt bewegt sich mit der (mittleren) Phasengeschwindigkeit, die grünen Punkte mit Gruppengeschwindigkeit. Wegen der im Allgemeinen gegebenen Abhängigkeit von formula_40 und formula_41 von der Frequenz der Welle ist zu beachten, dass formula_47 die Phasengeschwindigkeit im Medium bezeichnet, mit der die Maxima einer ebenen Welle fortschreiten. Ein räumlich begrenztes Wellenpaket pflanzt sich hingegen mit der Gruppengeschwindigkeit fort. In Medien können sich beide Geschwindigkeiten drastisch unterscheiden. Insbesondere bedeutet ein Brechungsindex formula_48 lediglich, dass die Wellenberge schneller als formula_8 voranschreiten. Das ganze Wellenpaket, mit dem Information und Energie transportiert werden, ist langsamer als formula_8. Transversal modulierte Welle im Vakuum. Nach den Maxwell-Gleichungen ergibt sich die von der Wellenlänge unabhängige Lichtgeschwindigkeit formula_51 u. a. für den Fall einer im Vakuum unendlich ausgedehnten ebenen Welle mit einer wohldefinierten Fortpflanzungsrichtung. Demgegenüber hat jede praktisch realisierbare Lichtwelle immer ein gewisses Strahlprofil. Wird dies als Überlagerung von ebenen Wellen mit leicht veränderten Fortpflanzungsrichtungen dargestellt, haben die einzelnen ebenen Wellen zwar alle die Vakuumlichtgeschwindigkeit formula_8, jedoch gilt dies nicht notwendig für durch die Überlagerung entstehende Welle. Es resultiert eine leicht verlangsamte Welle. Dies konnte an speziell geformten Bessel-Strahlen von Mikrowellen und sichtbarem Licht auch nachgewiesen werden, sogar für die Geschwindigkeit einzelner Photonen. Bei allen praktisch realisierbaren Lichtwellen, auch bei scharf gebündelten Laserstrahlen, ist dieser Effekt aber vernachlässigbar klein. Lichtgeschwindigkeit in Materie. In Materie ist Licht langsamer als im Vakuum, und zwar gilt, wie oben hergeleitet wurde, für Materie mit dem Brechungsindex "n"  (>1), dass formula_53 ist. Dies stimmt mit der Vorstellung überein, dass Photonen von den Molekülen absorbiert und wieder ausgesendet werden. Zwar laufen sie zwischen den Molekülen so schnell wie im Vakuum, aber die Wechselwirkung mit den Molekülen, die wie effektive „Pausen“ wirkt, verlangsamt sie. Dieses anschauliche Bild kann allerdings nicht zur Berechnung der optischen Eigenschaften fester oder flüssiger Körper verwendet werden. In bodennaher Luft ist die Lichtgeschwindigkeit etwa 0,28 ‰ geringer als im Vakuum (also ca. 299 710 km/s), in Wasser beträgt sie etwa 225 000 km/s (−25 %) und in Gläsern mit hohem Brechungsindex bis hinab zu 160 000 km/s (−47 %). In manchen Medien, wie Bose-Einstein-Kondensaten oder photonischen Kristallen, herrscht für bestimmte Wellenlängen eine sehr große Dispersion. Licht breitet sich in ihnen deutlich verlangsamt aus. So konnte die Forschungsgruppe der dänischen Physikerin Lene Hau im Jahr 1999 Licht auf eine Gruppengeschwindigkeit von ungefähr 61 km/h bringen. Grenzen zwei durchsichtige Medien aneinander, so bewirkt die unterschiedliche Lichtgeschwindigkeit beider Medien die Brechung des Lichts an der Grenzfläche. Da die Lichtgeschwindigkeit im Medium auch von der Wellenlänge des Lichtes abhängt, wird Licht unterschiedlicher Farbe unterschiedlich gebrochen und weißes Licht spaltet in seine unterschiedlichen Farbanteile auf. Dieser Effekt lässt sich z. B. mit Hilfe eines Prismas direkt beobachten. In einem Medium können Teilchen schneller sein als das Licht. Wenn sie elektrisch geladen sind, wie etwa Elektronen oder Protonen, tritt dabei der Tscherenkow-Effekt auf: Die Teilchen strahlen Licht ab, so wie ein überschallschnelles Flugzeug den Überschallknall hinter sich her schleppt. Dies ist beispielsweise in Schwimmbadreaktoren beobachtbar. In ihnen befindet sich Wasser zwischen den Brennelementen. Die Betastrahlung der Spaltprodukte besteht aus Elektronen, die schneller sind als die Lichtgeschwindigkeit im Wasser. Das von ihnen abgegebene Tscherenkow-Licht lässt das Wasser blau leuchten. Der Tscherenkow-Effekt wird in Teilchendetektoren zum Nachweis schneller geladener Teilchen verwendet. Lichtgeschwindigkeit und Teilchenphysik. Teilchen ohne Masse bewegen sich immer und in jedem Inertialsystem mit Lichtgeschwindigkeit. Das bekannteste masselose Teilchen, das diese Eigenschaft zeigt, ist das Photon. Es vermittelt die elektromagnetische Wechselwirkung, die einen großen Teil der Physik des Alltags bestimmt. Weitere masselose Teilchen sind im Standardmodell der Teilchenphysik die Gluonen, die Vermittlerteilchen der starken Wechselwirkung. Teilchen mit einer von Null abweichenden Masse sind stets langsamer als das Licht. Wenn man sie beschleunigt, wächst ihre Energie formula_54 wegen der relativistischen Energie-Impuls-Beziehung gemäß Dabei ist formula_57 die Geschwindigkeit des Teilchens in Bezug auf das Inertialsystem, das für die Beschreibung des Vorgangs gewählt wird. Je näher der Betrag der Teilchengeschwindigkeit formula_57 an der Lichtgeschwindigkeit formula_8 ist, desto mehr nähert sich der Quotient formula_60 dem Wert 1 an und desto kleiner wird die Wurzel im Nenner. Insgesamt wird die Energie also umso größer, je mehr sich die Teilchengeschwindigkeit der Lichtgeschwindigkeit nähert. Die zusätzliche Energie muss für die Beschleunigung aufgebracht werden. Mit endlich hoher Energie kann man also ein Teilchen zwar beliebig nahe an die Lichtgeschwindigkeit beschleunigen, man kann diese jedoch nicht erreichen. Der von der Relativitätstheorie vorhergesagte Zusammenhang von Energie und Geschwindigkeit wurde in verschiedenen Experimenten belegt. Er hat u. a. Auswirkungen auf die Technik von Teilchenbeschleunigern. Die Umlaufzeit eines z. B. in einem Synchrotron kreisenden Pakets von Elektronen ändert sich bei weiterer Beschleunigung kaum noch; die Synchronisation der einzelnen beschleunigenden Wechselfelder kann daher konstant sein. Dagegen muss sie bei schwereren Teilchen, die mit geringerer Geschwindigkeit zugeführt werden, laufend der zunehmenden Geschwindigkeit angepasst werden. Überlichtgeschwindigkeit. Es gibt Spekulationen über Teilchen, die sich schneller als mit Lichtgeschwindigkeit bewegen. Ein Beispiel sind als Tachyonen bezeichnete hypothetische Teilchen. Nach der Relativitätstheorie könnten Tachyonen nicht mit normaler Materie wechselwirken: sonst könnte man nicht, für alle Beobachter gleich, zwischen Ursache und Wirkung unterscheiden. Die theoretischen Grundlagen des Tachyonen-Konzepts sind umstritten. Ein experimenteller Nachweis von Tachyonen gelang bisher nicht. Darüber hinaus erregten in den vergangenen Jahren Veröffentlichungen besonderes Aufsehen, in denen die Beobachtung von Überlichtgeschwindigkeit behauptet wurde. Doch entweder konnte gezeigt werden, dass die scheinbar überlichtschnelle Signalübermittlung durch eine Fehlinterpretation der Daten entstand (überlichtschnelle Jets, superluminares Tunneln), oder die Messungen konnten nicht reproduziert werden und stellten sich schließlich als fehlerhaft heraus (siehe beispielsweise Messungen der Neutrinogeschwindigkeit). Spekulationen über Endlichkeit. Die Frage, ob das Licht sich unendlich schnell ausbreitet oder ob es eine endliche Geschwindigkeit besitzt, war bereits in der Philosophie der Antike von Interesse. Licht legt einen Kilometer in nur drei Mikrosekunden zurück. Mit den Beobachtungsmöglichkeiten der Antike ist somit unweigerlich ein Lichtstrahl scheinbar in dem Moment seines Entstehens gleichzeitig bereits an seinem Ziel. Trotzdem glaubte bereits Empedokles (um 450 v. Chr.), Licht sei etwas, das sich in Bewegung befände und daher Zeit brauche, um Entfernungen zurückzulegen. Aristoteles meinte dagegen, Licht komme von der bloßen Anwesenheit von Objekten her, sei aber nicht in Bewegung. Er führte an, dass die Geschwindigkeit andernfalls so enorm groß sein müsse, dass sie jenseits der menschlichen Vorstellungskraft liege. Aufgrund seines Ansehens und Einflusses fand Aristoteles’ Theorie allgemeine Akzeptanz. Eine altertümliche Theorie des Sehens ging davon aus, dass das zum Sehen benötigte Licht vom Auge emittiert wird (heute noch umgangssprachlich: „das Augenlicht verlieren“ für erblinden). Ein Objekt sollte demnach zu sehen sein, wenn die Lichtstrahlen aus dem Auge darauf träfen. Aufbauend auf dieser Vorstellung befürwortete auch Heron von Alexandria die aristotelische Theorie. Er führte an, dass die Lichtgeschwindigkeit unendlich groß sein müsse, da man selbst die weit entfernten Sterne sehen kann, sobald man die Augen öffnet. In der orientalischen Welt war dagegen auch die Idee einer endlichen Lichtgeschwindigkeit verbreitet. Insbesondere glaubten die persischen Philosophen und Wissenschaftler Avicenna und Alhazen (beide um das Jahr 1000), dass das Licht eine endliche Geschwindigkeit besitzt. Ihre Unterstützer waren aber gegenüber der Anhängerschaft der aristotelischen Theorie in der Minderheit. Zu Beginn des 17. Jahrhunderts glaubte der Astronom Johannes Kepler, dass die Lichtgeschwindigkeit zumindest im Vakuum unendlich sei, da der leere Raum für Licht kein Hindernis darstelle. Hier scheint schon die Idee auf, dass die Geschwindigkeit eines Lichtstrahls vom durchquerten Medium abhängig sein könnte. Francis Bacon argumentierte, dass das Licht nicht notwendigerweise unendlich schnell sein müsse, sondern vielleicht nur schneller als wahrnehmbar. René Descartes ging von einer unendlich großen Lichtgeschwindigkeit aus. Sonne, Mond und Erde liegen während einer Sonnenfinsternis in einer Linie. Descartes argumentierte, dass diese Himmelskörper für einen Beobachter zu diesem Zeitpunkt scheinbar nicht in Reihe stehen würden, wenn die Lichtgeschwindigkeit endlich sei. Da ein solcher Effekt nie beobachtet wurde, sah er sich in seiner Annahme bestätigt. Descartes glaubte derart stark an eine unendlich große Lichtgeschwindigkeit, dass er überzeugt war, sein Weltbild würde zusammenbrechen, wenn sie endlich wäre. Dem stehen um das Jahr 1700 die Theorien von Isaac Newton und Christiaan Huygens mit endlicher Lichtgeschwindigkeit gegenüber. Newton sah Licht als einen Strom von Teilchen an, während Huygens Licht als eine Welle deutete. Beide konnten das Brechungsgesetz erklären, indem sie die Lichtgeschwindigkeit proportional (Newton) bzw. umgekehrt proportional (Huygens) zum Brechungsindex ansetzten. Newtons Vorstellung galt als widerlegt, nachdem im 19. Jahrhundert Interferenz und Beugung beobachtet und die Geschwindigkeit in Medien gemessen werden konnten. Da es zu Huygens Zeit die erste Messung der Lichtgeschwindigkeit gab, die seiner Meinung nach viel zu hoch war, als dass Körper mit Masse diese erreichen könnten, schlug er mit dem Äther ein elastisches (nicht sicht- und messbares) Hintergrundmedium vor, das die Ausbreitung von Wellen gestatte, ähnlich dem Schall in der Luft. Messung der Lichtgeschwindigkeit. Galileo Galilei versuchte um 1600 als Erster, die Geschwindigkeit des Lichts mit wissenschaftlichen Methoden zu messen, indem er sich und einen Gehilfen mit je einer Signallaterne auf zwei Hügel mit bekannter Entfernung postierte. Der Gehilfe sollte Galileis Signal unverzüglich zurückgeben. Unter Abzug der Reaktionszeit seines Gehilfen erhoffte er sich, die Lichtgeschwindigkeit zu messen, da er mit vergleichbarer Methode schon erfolgreich die Schallgeschwindigkeit gemessen hatte. Zu seinem Erstaunen verblieb nach Abzug der Reaktionszeit des Gehilfen keine messbare Zeit mehr; was sich auch nicht (messbar) änderte, als die Distanz bis auf maximal mögliche Sichtweite der Laternen erhöht wurde. Isaac Beeckman schlug 1629 eine abgewandelte Version des Versuchs vor, bei der das Licht von einem Spiegel reflektiert werden sollte. Descartes kritisierte solche Experimente als überflüssig, da bereits exaktere Beobachtungen mit Hilfe von Sonnenfinsternissen durchgeführt worden seien und ein negatives Ergebnis geliefert hätten. Dennoch wiederholte die "Accademia del Cimento" in Florenz 1667 das Experiment Galileis, wobei die Lampen etwa eine Meile entfernt voneinander standen. Wieder konnte keine Verzögerung beobachtet werden. Das bestätigte Descartes’ Annahme einer unendlich schnellen Lichtausbreitung; Galilei und Robert Hooke deuteten das Ergebnis dagegen so, dass die Lichtgeschwindigkeit sehr hoch ist und mit diesem Experiment nicht bestimmt werden konnte. Die erste erfolgreiche Abschätzung der Lichtgeschwindigkeit gelang dem dänischen Astronomen Ole Rømer im Jahr 1676. Er untersuchte die Bewegung des Jupitermonds Io mit seinem Teleskop. Aus dem Ein- beziehungsweise Austreten aus Jupiters Schatten ließ sich die mittlere Umlaufzeit des Mondes zu etwa 42,5 Stunden ermitteln. Mit diesem Wert lässt sich der Zeitpunkt der Verfinsterung des Mondes vorhersagen. Doch Rømer bemerkte, dass die berechneten Werte nicht genau mit den Zeitpunkten des Ein- bzw. Austritts aus dem Schatten des Jupiters übereinstimmten: Im Laufe eines Jahres ging der Mond erst zunehmend vor, dann zunehmend nach. Rømer deutete diese Zeitverschiebung durch eine unterschiedliche Laufzeit des Lichtes abhängig vom jeweiligen Abstand zwischen Mond Io und der Erde. Er schloss daraus, dass das Licht sich nicht augenblicklich, sondern mit einer endlichen, aber sehr hohen Geschwindigkeit ausbreitet. Er gab für den Erdbahndurchmesser eine Laufzeit des Lichtes von 22 min an. Der richtige Wert ist kürzer (16 min 38 s). Rømer hatte von seinen Messungen extrapolieren müssen (ohne die dazu nötige Rechnung anzugeben), weil Jupiter und Io im Bereich der größten Entfernung von der Erde nicht beobachtbar sind, weil die Sonne dazwischen steht. Da Rømer den Durchmesser der Erdbahn nicht kannte, hat er für die Geschwindigkeit des Lichtes keinen Wert angegeben. Dies tat zwei Jahre später Christiaan Huygens als Erster. Er bezog die Laufzeitangabe von Rømer auf den von Cassini 1673 zufällig etwa richtig angegebenen Erdbahndurchmesser von 280 Millionen Kilometer und kam so auf die Lichtgeschwindigkeit 213 000 km/s. Weil beide Werte ungenau waren, wich die berechnete Geschwindigkeit um etwa ein Viertel vom heutigen Wert ab. James Bradley fand 1728 eine andere astronomische Methode, indem er die Schwankungen der Sternpositionen um einen Winkel von 20“ während des Umlaufs der Erde um die Sonne (Aberration (Astronomie)) bestimmte. Seine Messungen waren der Versuch, die Parallaxe von Fixsternen zu beobachten, um damit deren Entfernungen zu bestimmen. Daraus berechnete Bradley, dass das Licht 10 210-mal schneller als die Erde bei ihrem Umlauf ist (Messfehler 2 %). Seine Messung (veröffentlicht im Jahr 1729) wurde damals als weiterer Beweis für eine endliche Lichtgeschwindigkeit und – gleichzeitig – für das kopernikanische Weltsystem angesehen. Aus seinen Beobachtungen resultierte ein Wert von 301 000 km/s. Für die Berechnung benötigte er die Bahngeschwindigkeit der Erde und für sie wieder den Erdbahnradius. Versuchsaufbau des Experiments von Fizeau Cassini hatte den Erdbahnradius aus der Marsparallaxe ermittelt. Dieses wurde damals von Edmund Halley kritisiert. Er schlug stattdessen vor, die Venusdurchgänge 1761 und 1769 dafür zu benutzen. Durch deren Auswertung wusste man erstmals die absolute Größe des Planetensystems (siehe Astronomische Einheit) und konnte über bekannte „Lichtentfernungen“ die Lichtgeschwindigkeit auf etwa 5 % Genauigkeit berechnen. Versuchsaufbau des Experiments von Foucault Die erste irdische Bestimmung der Lichtgeschwindigkeit gelang Armand Fizeau mit der Zahnradmethode. Er sandte 1849 Licht durch ein rotierendes Zahnrad auf einen mehrere Kilometer entfernten Spiegel, der es wieder zurück durch das Zahnrad reflektierte. Je nachdem, wie schnell sich das Zahnrad dreht, fällt das reflektierte Licht, das auf dem Hinweg eine Lücke des Zahnrads passiert hat, entweder auf einen Zahn, oder es gelangt wieder durch eine Lücke, und nur dann sieht man es. Fizeau kam damals auf einen um 5 % zu großen Wert. Léon Foucault verbesserte 1850 die Methode weiter, indem er mit der Drehspiegelmethode die Messstrecken deutlich verkürzte. Damit konnte er erstmals die Materialabhängigkeit der Lichtgeschwindigkeit nachweisen: Licht breitet sich in anderen Medien langsamer aus als in Luft. Im Experiment fällt Licht auf einen rotierenden Spiegel. Von diesem wird es auf einen festen Spiegel abgelenkt, wo es zurück auf den rotierenden Spiegel reflektiert wird. Da sich der Drehspiegel aber inzwischen weiter gedreht hat, wird der Lichtstrahl nun nicht mehr auf den Ausgangspunkt reflektiert. Durch Messung der Verschiebung des Punktes ist es möglich, bei bekannter Drehfrequenz und bekannten Abständen, die Lichtgeschwindigkeit zu bestimmen. Foucault veröffentlichte sein Ergebnis 1862 und gab "c" zu 298 000 Kilometern pro Sekunde an. Simon Newcomb und Albert A. Michelson bauten wiederum auf Foucaults Apparatur auf und verbesserten das Prinzip nochmals. 1926 benutzte Michelson in Kalifornien ebenfalls rotierende Prismenspiegel, um einen Lichtstrahl vom Mount Wilson zum Mount San Antonio und zurückzuschicken. Er erhielt 299 796 km/s, was fast genau dem heutigen Wert entspricht; die Abweichung beträgt weniger als 0,002 %. Erste Überlegungen. James Bradley konnte mit seinen Untersuchungen zur Aberration von 1728 nicht nur die Lichtgeschwindigkeit selbst bestimmen, sondern auch erstmals Aussagen über ihre Konstanz treffen. Er beobachtete, dass die Aberration für alle Sterne in der gleichen Blickrichtung während eines Jahres in identischer Weise variiert. Daraus schloss er, dass die Geschwindigkeit, mit der Sternenlicht auf der Erde eintrifft, im Rahmen seiner Messgenauigkeit von etwa einem Prozent für alle Sterne gleich ist. Um zu klären, ob diese Eintreffgeschwindigkeit davon abhängt, ob sich die Erde auf ihrem Weg um die Sonne auf einen Stern zu oder von ihm weg bewegt, reichte diese Messgenauigkeit allerdings nicht aus. Diese Frage untersuchte zuerst François Arago 1810 anhand der Messung des Ablenkwinkels von Sternenlicht in einem Glasprisma. Nach der damals akzeptierten Korpuskulartheorie des Lichtes erwartete er eine Veränderung dieses Winkels in einer messbaren Größenordnung, da sich die Geschwindigkeit des einfallenden Sternenlichts zu der Geschwindigkeit der Erde auf ihrem Weg um die Sonne addieren sollte. Es zeigten sich jedoch im Jahresverlauf keine messbaren Schwankungen des Ablenkwinkels. Arago erklärte dieses Ergebnis mit der These, dass Sternenlicht ein Gemisch aus verschiedenen Geschwindigkeiten sei, während das menschliche Auge daraus nur eine einzige wahrnehmen könne. Aus heutiger Sicht kann seine Messung jedoch als erster experimenteller Nachweis der Konstanz der Lichtgeschwindigkeit betrachtet werden. Mit dem Aufkommen der Vorstellung von Licht als Wellenphänomen formulierte Augustin Fresnel 1818 eine andere Interpretation des Arago-Experiments. Danach schloss die Analogie zwischen mechanischen Wellen und Lichtwellen die Vorstellung ein, dass sich Lichtwellen in einem gewissen Medium ausbreiten müssen, dem so genannten Äther, so wie sich auch Wasserwellen im Wasser ausbreiten. Der Äther sollte dabei den Bezugspunkt für ein bevorzugtes Inertialsystem darstellen. Fresnel erklärte das Ergebnis von Arago durch die Annahme, dass dieser Äther im Inneren von Materie teilweise mitgeführt werde, in diesem Fall im verwendeten Prisma. Dabei würde der Grad der Mitführung in geeigneter Weise vom Brechungsindex abhängen. Michelson-Morley-Experiment. 1887 führten Albert A. Michelson und Edward W. Morley ein bedeutsames Experiment zur Bestimmung der Geschwindigkeit der Erde relativ zu diesem angenommenen Äther durch. Dazu wurde die Abhängigkeit der Lichtlaufzeiten vom Bewegungszustand des Äthers untersucht. Das Experiment ergab wider Erwarten stets die gleichen Laufzeiten. Auch Wiederholungen des Experiments zu verschiedenen Phasen des Erdumlaufs um die Sonne führten stets zu demselben Ergebnis. Eine Erklärung anhand einer weiträumigen Äthermitführung durch die Erde als Ganzes scheiterte daran, dass es in diesem Fall keine Aberration bei Sternen senkrecht zur Bewegungsrichtung der Erde gäbe. Eine mit der maxwellschen Elektrodynamik verträgliche Lösung wurde mit der von George FitzGerald und Hendrik Lorentz vorgeschlagenen Längenkontraktion erreicht. Lorentz und Henri Poincaré entwickelten diese Hypothese durch Einführung der Zeitdilatation weiter, wobei sie dies jedoch mit der Annahme eines hypothetischen Äthers kombinierten, dessen Bewegungszustand prinzipiell nicht ermittelbar gewesen wäre. Das bedeutet, dass in dieser Theorie die Lichtgeschwindigkeit „real“ nur im Äthersystem konstant ist, unabhängig von der Bewegung der Quelle und des Beobachters. Das heißt unter anderem, dass die maxwellschen Gleichungen nur im Äthersystem die gewohnte Form annehmen sollten. Dies wurde von Lorentz und Poincaré jedoch durch die Einführung der Lorentz-Transformation so berücksichtigt, dass die „scheinbare“ Lichtgeschwindigkeit auch in allen anderen Bezugssystemen konstant ist und somit "jeder von sich behaupten kann, im Äther zu ruhen". (Die Lorentz-Transformation wurde also nur als mathematische Konstruktion interpretiert, während Einstein (1905) auf ihrer Grundlage die gesamten bisherigen Vorstellungen über die Struktur der Raumzeit revolutionieren sollte, siehe unten). Poincaré stellte noch 1904 fest, das Hauptmerkmal der lorentzschen Theorie sei die Unüberschreitbarkeit der Lichtgeschwindigkeit für alle Beobachter, unabhängig von ihrem Bewegungszustand "relativ zum Äther" (siehe lorentzsche Äthertheorie). Das bedeutet, auch für Poincaré "existierte" der Äther. Die Unabhängigkeit der Lichtgeschwindigkeit von der Geschwindigkeit des gleichförmig bewegten Beobachters ist also Grundlage der Relativitätstheorie. Diese Theorie ist seit Jahrzehnten aufgrund vieler sehr genauer Experimente allgemein akzeptiert. Unabhängigkeit von der Quelle. Mit dem Michelson-Morley-Experiment wurde zwar die Konstanz der Lichtgeschwindigkeit für einen mit der Lichtquelle mitbewegten Beobachter bestätigt, jedoch keineswegs für einen "nicht" mit der Quelle mitbewegten Beobachter. Denn das Experiment kann auch mit einer Emissionstheorie erklärt werden, wonach die Lichtgeschwindigkeit in allen Bezugssystemen lediglich "konstant relativ zur Emissionsquelle" ist (das heißt, in Systemen, wo sich die Quelle mit ± v bewegt, würde sich das Licht folglich mit c ± v ausbreiten). Auch Albert Einstein zog vor 1905 eine solche Hypothese kurz in Betracht, was auch der Grund war, dass er in seinen Schriften das MM-Experiment zwar immer als Bestätigung des Relativitätsprinzips, aber nicht als Bestätigung der Lichtkonstanz verwendete. Jedoch würde eine Emissionstheorie eine völlige Reformulierung der Elektrodynamik erfordern, wogegen der große Erfolg von Maxwells Theorie sprach. Die Emissionstheorie wurde auch experimentell widerlegt. Beispielsweise müssten die von der Erde aus beobachteten Bahnen von Doppelsternen bei unterschiedlichen Lichtgeschwindigkeiten verzerrt ausfallen, was jedoch nicht beobachtet wurde. Beim Zerfall von sich mit annähernd c bewegenden π0-Mesonen hätten die dabei entstehenden Photonen die Geschwindigkeit der Mesonen übernehmen und sich annähernd mit doppelter Lichtgeschwindigkeit bewegen sollen, was jedoch nicht der Fall war. Auch der Sagnac-Effekt demonstriert die Unabhängigkeit der Lichtgeschwindigkeit von der Bewegung der Quelle. Alle diese Experimente finden ihre Erklärung in der Speziellen Relativitätstheorie, die u. a. aussagt: "Licht überholt nicht Licht". Lauri Ingman. Lauri Ingman (* 30. Juni 1868 in Teuva; † 25. Oktober 1934 in Turku; eigentlich "Lars Johannes Ingman") war ein finnischer Theologe und Politiker. Lauri Ingman war von 1916 bis 1930 Professor für Praktische Theologie an der Universität Helsinki. Er trat 1930 als Nachfolger von Gustaf Johansson das Amt des Erzbischofs von Finnland mit Sitz in Turku (Åbo) an. Als solcher war an der Ausarbeitung des Kirchengesetzes für Finnland und an der Katechismusarbeit maßgeblich beteiligt. In seinen politischen Ämtern war Ingman ein wichtiger Vertreter der konservativen Nationalen Sammlungspartei. In den 1920er Jahren war er in vier Regierungen als Bildungsminister tätig. Von November 1918 bis April 1919 und von Mai 1924 bis März 1925 war er sogar Ministerpräsident Finnlands. In den Jahren 1907–1919 und 1922–1929 war er zudem Parlamentsabgeordneter. Levi Strauss. Levi Strauss (* 26. Februar 1829 als "Löb Strauß" in Buttenheim; † 26. September 1902 in San Francisco) war ein deutsch-amerikanischer Industrieller. Er gilt zusammen mit seinem Geschäftspartner Jacob Davis als Erfinder der Jeans. Leben. Strauss wurde unter dem Namen Löb Strauß im oberfränkischen Buttenheim bei Bamberg als Sohn jüdischer Eltern geboren. Sein Vater, Hirsch Strauß, ein armer Hausierer, starb an Tuberkulose, als Löb 16 Jahre alt war. Die vielköpfige Familie geriet in wirtschaftliche Not. 1847 wanderte seine Mutter Rebecca mit den jüngsten Kindern – ihm und zwei seiner Schwestern – nach Amerika aus. Sie folgten damit den beiden ältesten Strauss-Brüdern nach New York, die sich dort ihr Brot durch Textilhandel verdienten. Strauss nannte sich fortan Levi, erwarb die amerikanische Staatsbürgerschaft und betätigte sich im Geschäft der Brüder. Die Nachricht von Goldfunden verbreitete sich unterdessen von der amerikanischen West- an die Ostküste. 1853 folgte Levi Strauss dem Goldrausch und zog nach San Francisco. Sein Schwager, sein Bruder Louis und er gründeten dort einen Handel für Kurzwaren und Stoffe. Das Sortiment wurde ferner ergänzt durch Dinge wie Zahnbürsten, Hosenträger, Knöpfe und Ausgehkleidung für die rauen Wildwest-Pioniere. Strauss verkaufte seine Waren nicht nur in San Francisco, sondern aufgrund der dort gezahlten Preise auch bei den Goldgräbern vor Ort. Da er zuvor mit Kleidung und Kurzwaren als Hausierer umgegangen war, hatte Levi Stoffballen, Zeltplanen und Nähzeug mitgenommen. Er fand bald heraus, dass die Goldgräber bei ihrer harten Arbeit strapazierfähige Hosen benötigten. Als Großhändler vertrieb er auch so genannte "Duck Pants" aus segeltuchartigem Material, die dann wegen fehlender Rentabilität aus dem Sortiment genommen wurden. Die Nähte der Hosentaschen waren nicht robust genug, da die Goldgräber ihre Hosentaschen mit allerhand Material aus den Minen vollstopften. Die "Duck Pants" werden oft mit der "Jeans" verwechselt, welche es aber so erst mit Patentanmeldung gab. Entgegen einer populären Geschichte gibt es keine Belege, dass Jeans oder Vorläufer aus Hanftextilien gefertigt wurden. Im Dezember 1870 kam der aus Riga stammende Schneider Jacob Davis auf die Idee, die Ecken der Hosentaschen und das untere Ende des Hosenlatzes mit Nieten eines Pferdegeschirrs zu verstärken. Weil ihm für die Patentierung seines 1872 entwickelten Verfahrens Geld fehlte, wandte er sich an Levi Strauss, der ihm Tuchballen lieferte. Strauss unterstützte das Vorhaben und erhielt zusammen mit Davis am 20. Mai 1873 das entsprechende Patent. Die vernieteten "Waist Overalls" stießen auf eine riesige Nachfrage. Bis zum Jahresende wurden 5875 Dutzend Hosen und Mäntel aus Denim verkauft. Zwei Fabriken produzierten diese Hosen. Zehn Jahre später waren bereits 535 Angestellte für das Unternehmen tätig. Im Jahr 1902 starb der Textilproduzent unerwartet in seinem Haus in San Francisco, in dem er mit der Familie seiner Schwester Fanny lebte. Seine 1853 gegründete Firma Levi Strauss & Company hinterließ er seinen vier Neffen, da er selbst keine Kinder hatte. Er wurde auf dem Friedhof "Hills of Eternity" in Colma südlich von San Francisco beigesetzt. Der Konzern. Aus dem von Levi Strauss mitgegründeten Unternehmen entwickelte sich ein international ausgerichteter Konzern mit rund 11.400 (Stand 31. Dezember 2008) Beschäftigten und 4,4 Mrd. Dollar Umsatz, der seine Produkte in über 100 Länder liefert. Leonhard Euler. Leonhard Euler (* 15. April 1707 in Basel; † in Sankt Petersburg) war ein Schweizer Mathematiker und Physiker. Wegen seiner Beiträge zur Analysis, zur Zahlentheorie und zu vielen weiteren Teilgebieten der Mathematik gilt er als einer der bedeutendsten Mathematiker. Leben. Euler wurde als ältester Sohn des Pfarrers Paul Euler (1670–1745) und dessen Ehefrau Margaretha Brucker (1677–1761) in Basel geboren. Er besuchte das dortige Gymnasium am Münsterplatz und nahm gleichzeitig Privatunterricht beim Theologen Johannes Burckhardt (1691–1743), der von der Mathematik begeistert war. Ab 1720 studierte er an der Universität Basel und hörte hier Vorlesungen von Johann Bernoulli. 1723 erlangte er durch einen Vergleich der newtonschen und cartesianischen Philosophie in lateinischer Sprache die Magisterwürde. Seinen Plan, auch Theologie zu studieren, gab er 1725 auf. Am 17. Mai 1727 berief ihn Daniel Bernoulli an die Petersburger Akademie der Wissenschaften. Er erbte die Professur des 1726 verstorbenen Nikolaus II. Bernoulli. Hier traf er auf Christian Goldbach, mit dem er jahrzehntelang in Briefwechsel stand. 1730 erhielt Euler die Professur für Physik und trat schließlich 1733 die Nachfolge von Daniel Bernoulli als Professor für Mathematik an. Er bekam in den folgenden Jahren immer stärkere Probleme mit seinem Augenlicht und war ab 1740 rechtsseitig blind. 1741 wurde er von Friedrich dem Großen an die Königlich-Preußische Akademie der Wissenschaften berufen. Euler korrespondierte weiterhin mit Christian Goldbach und verglich seine Theorien mit denen von Goldbach. An seine Tätigkeit und sein damaliges Wohnhaus in Berlin erinnert eine Gedenktafel an der 22, das heutige Haus der Bayerischen Vertretung in Berlin. Nach 25 Jahren in Berlin kehrte er 1766 zurück nach St. Petersburg, wo Katharina die Große seit 1762 als Kaiserin von Russland residierte. An der Akademie der Wissenschaften wurde Euler ein ehrenvoller Empfang bereitet. Er arbeitete wie in der ersten Sankt Petersburger Periode in der Kunstkammer und lebte in einem von Katharina der Großen geschenkten Palais mit seinem Sohn Johann Albrecht direkt an der Newa. Leonhard Euler war in erster Ehe verheiratet mit Katharina Gsell, Tochter des Malers Georg Gsell aus dessen erster Ehe mit Marie Gertrud van Loen. Das Paar hatte zahlreiche Kinder. Nach ihrem Tod heiratete er ihre Halbschwester Salomea Abigail, Tochter von Georg Gsell und dessen dritter Ehefrau Maria Dorothea Gsell, der Tochter von Maria Sibylla Merian. 1771 erblindete er vollständig. Trotzdem entstand fast die Hälfte seines Lebenswerks in der zweiten Petersburger Zeit. Hilfe erhielt er dabei von seinen Söhnen Johann Albrecht, Karl und Christoph sowie von seinem Sekretär Nikolaus Fuß, der nach seinem Tod als erster eine Würdigung verfasste. Trotz seiner wissenschaftlichen Produktivität wurde er nie Präsident der Universität. Dieses Amt besetzte meist ein Günstling Katharinas, aber Eulers Stellung in der Universität kam der des Präsidenten sehr nahe. 1782 wurde er in die American Academy of Arts and Sciences gewählt. 1783 starb Euler an einer Hirnblutung und wurde neben seiner Frau auf dem lutherischen Smolensker Friedhof auf der Wassiljewski-Insel in Sankt Petersburg begraben. In der Sowjetzeit wurden seine sterblichen Überreste auf den Lazarus-Friedhof des Alexander-Newski-Klosters umgebettet. Da Euler und Friedrich der Große sich im Streit trennten, befinden sich heute neben den originalen Dokumenten aus der ersten und der zweiten Petersburger Periode auch die Dokumente aus der Berliner Zeit im Archiv in Sankt Petersburg. Leistungen. Leonhard Euler auf dem ehemaligen schweizerischen 10-Franken-Schein Sowjetische Briefmarke anlässlich des 250. Geburtstages Eulers (1957) DDR-Briefmarke anlässlich des 200. Todestages Eulers (1983) Euler war extrem produktiv: Insgesamt gibt es 866 Publikationen von ihm. Mathematik. Ein großer Teil der heutigen mathematischen Symbolik geht auf Euler zurück (z. B. e, π, "i", Summenzeichen ∑, f(x) als Bezeichnung eines Funktionstermes). 1744 gab er ein Lehrbuch der Variationsrechnung heraus. Euler kann auch als einer der Begründer der Analysis angesehen werden. 1748 publizierte er das Grundlagenwerk "Introductio in analysin infinitorum," in dem zum ersten Mal der Begriff "Funktion" die zentrale Rolle spielt. In den Werken "Institutiones calculi differentialis" (1755) und "Institutiones calculi integralis" (1768–1770) beschäftigte er sich außer mit der Differential- und Integralrechnung unter anderem mit Differenzengleichungen, elliptischen Integralen sowie mit der Theorie der Gamma- und Betafunktion. Andere Arbeiten setzen sich mit Zahlentheorie, Algebra (z. B. "Vollständige Anleitung zur Algebra", 1770) und sogar mit der Anwendung mathematischer Methoden in den Sozial- und Wirtschaftswissenschaften auseinander (z. B. Rentenrechnung, Lotterien, Lebenserwartung). Seine 1736 veröffentlichte Arbeit "Solutio problematis ad geometriam situs pertinentis" beschäftigt sich mit dem Königsberger Brückenproblem und gilt als eine der ersten Arbeiten auf dem Gebiet der Graphentheorie. Nach Euler sind verschiedene Zahlen und Zahlenfolgen benannt, siehe dazu Eulersche Zahlen (Begriffsklärung). Physik. In der Mechanik arbeitete Leonhard Euler auf den Gebieten der Hydrodynamik (Eulersche Gleichungen der Strömungsmechanik, Turbinengleichung) und der Kreiseltheorie (Eulersche Kreiselgleichungen). Die erste analytische Beschreibung der Knickung eines mit einer Druckkraft belasteten Stabes geht auf Euler zurück; er begründete damit die Stabilitätstheorie. In Schriften wie "Mechanica, sive motus scientia analytica exposita" (1736) und "Theoria motus corporum solidorum seu rigidorum" (1765) wandte Euler die Mathematik auf Fragen der Physik an. Am 3. September 1750 las er vor der Berliner Akademie der Wissenschaften ein Mémoire, in dem er das Prinzip "Kraft gleich Masse mal Beschleunigung" als eigene und neue Entdeckung vorstellte. In der Optik veröffentlichte er Werke zur Wellentheorie des Lichts und zur Berechnung von optischen Linsen zur Vermeidung von Farbfehlern. 1745 übersetzte Euler das Werk "New principles of gunnery" des Engländers Benjamin Robins ins Deutsche. Es erschien im selben Jahre in Berlin unter dem Titel "Neue Grundsätze der Artillerie enthaltend die Bestimmung der Gewalt des Pulvers nebst einer Untersuchung über den Unterscheid des Wiederstands der Luft in schnellen und langsamen Bewegungen". Seit Galilei hatten die Artilleristen die Flugbahnen der Geschosse als Parabeln angesehen, wobei sie den Luftwiderstand für vernachlässigbar hielten. Robins hat als einer der ersten Experimente zur Ballistik ausgeführt und gezeigt, dass die Flugbahn durch den Luftwiderstand wesentlich beeinflusst wird. Somit wurde dank Robins und mit Eulers Hilfe „das erste Lehrbuch der Ballistik“ geschaffen. Es wurde zum Beispiel in Frankreich (in französischer Übersetzung) als offizielles Lehrbuch in den Militärschulen eingeführt. Napoleon Bonaparte musste es als Leutnant studieren. Weniger bekannt sind seine Arbeiten zum Stabilitätskriterium von Schiffen, in denen er das bereits erworbene, aber wieder verlorengegangene Wissen von Archimedes erneuert. Mathematische Musiktheorie. Euler begründete eine auf mathematischen Gesetzen aufbauende Musiktheorie (u.a. "Tentamen novae theoriae musicae", 1739, Music mathématique, Paris 1865). Sein Modell des Tonnetzes wird noch heute bei Berechnungen zur Reinen Stimmung verwendet. Populäre Darstellungen und Themen. Besondere Bedeutung in der breiten Öffentlichkeit erlangte seine populärwissenschaftliche Schrift "Lettres à une princesse d’Allemagne" von 1768, in der er in Form von Briefen an die Prinzessin Friederike Charlotte von Brandenburg-Schwedt, eine Nichte Friedrichs des Großen, die Grundzüge der Physik, der Astronomie, der Mathematik, der Philosophie und der Theologie vermittelt. Euler widmete sich auch Aufgaben der Schachmathematik, z. B. dem Springerproblem. Euler ist der Erfinder des lateinischen Quadrats, einer Vorform des Sudoku. Schriften. Der schwedische Mathematiker Gustaf Eneström hat ein chronologisches Verzeichnis der Publikationen Eulers erstellt. Eulers Schriften werden üblicherweise durch ihre Eneström-Nummer (E001–E866) referenziert. Im Text erwähnte Publikationen. Titelblatt der "Methodus inveniendi lineas curvas" von 1744 Opera Omnia. Euler veröffentlichte rund zwei Dutzend Bücher und 500 wissenschaftliche Aufsätze. Der deutsche Mathematiker Ferdinand Rudio (1856–1929) initiierte die Herausgabe von Eulers sämtlichen Werken. Zu Lebzeiten Rudios wurden mehr als 30 Bände publiziert. Bis 2013 sind über 70 Einzelbände erschienen, außerdem 4 Bände aus dem umfangreichen Briefwechsel. Die Arbeiten erscheinen in der Originalsprache, meist Französisch oder Latein. Die gesammelten Werke werden seit 1911 als "Opera Omnia" im Birkhäuser (Springer) Verlag herausgegeben durch die Euler-Kommission, die von Ferdinand Rudio gegründet wurde. Damals waren auch Adolf Krazer, Rudolf Fueter, Heinrich Weber, Paul Stäckel, Karl von der Mühll an der Herausgabe beteiligt. Zu den späteren Herausgebern von Einzelbänden gehörten Ludwig Schlesinger, Friedrich Engel, Andreas Speiser, Clifford Truesdell (Physik, Mechanik, der ganze Band 11-1 ist eine Geschichte der Elastizitätstheorie im 17. und 18. Jahrhundert, verfasst von Truesdell), Alexander Michailowitsch Ljapunow, Georg Faber, August Gutzmer, Carl Boehm, Constantin Carathéodory, Henri Dulac, Charles Blanc (Physik). Hauptherausgeber nach Rudio waren Andreas Speiser (ab 1928), Walter Habicht (ab 1965) und seit 1985 Hans-Christoph Im Hof. Weitere Herausgeber waren unter anderem Emil Fellmann, Adolf Juschkewitsch, Pierre Costabel, René Taton, Wladimir Iwanowitsch Smirnow, Alot T. Grigorjan, Joachim Otto Fleckenstein, Johann Jakob Burckhardt, Gleb K. Mikhailov, Franz Lemmermeyer, Andreas Kleinert, Martin Mattmüller. Briefe. Beim Briefwechsel sind im Rahmen der "Opera Omnia" erschienen: Band 1 (Zusammenfassung Inhalte, Übersicht, 1975), Band 2 (mit Johann I. und Nikolaus I. Bernoulli), Band 5 (mit Clairaut, d’Alembert, Lagrange) und Band 6 (mit Maupertuis, Friedrich II.). Paul-Heinrich Fuss veröffentlichte 1845 Teile des Briefwechsels von Euler mit Goldbach, Nikolaus Fuß, Johann I., Nikolaus und Daniel Bernoulli. Ehrungen. Die Evangelisch-Lutherische Kirche in Amerika erinnert mit einem Gedenktag am 24. Mai an Leonhard Euler, gemeinsam mit Nikolaus Kopernikus. Von ca. 1976 bis 1995 war Leonhard Euler auf der Schweizer 10-Franken-Note abgebildet. Zum 300. Geburtstag hat die Schweizerische Post 2007 eine Sondermarke herausgegeben. In Basel wurde 1875 zu Ehren von Leonhard Euler beim Eingang des Bernoullianums eine Büste aufgestellt. Nach ihm ist dort auch eine Strasse benannt. Nachkommen. Leonhard Euler hatte aus der ersten Ehe mit Katharina Gsell 13 Kinder, von denen allerdings nur fünf das Erwachsenenalter erreichten. Nach der Oktoberrevolution von 1917 kehrten ein Teil seiner Nachkommen von Russland in die Schweiz zurück, darunter die Eltern des späteren Nationalrats Alexander Euler (1929–2012). Hülsenfrüchtler. Die Hülsenfrüchtler (Fabaceae oder Leguminosae; früher: Papilionaceae), auch Leguminosen genannt, sind eine der artenreichsten Pflanzenfamilien und gehören zur Ordnung der Schmetterlingsblütenartigen (Fabales). Sie umfasst drei Unterfamilien, die oft auch als eigene Familien behandelt werden, und weitere Tribus, mit insgesamt etwa 730 Gattungen und fast 20.000 Arten – mit der größten Gattung innerhalb der Gefäßpflanzen: "Astragalus" mit etwa 2000 Arten. Der Ursprung der Familie wird in der späten Kreidezeit (vor 65 bis 70 Millionen Jahre) vermutet. Die Hülsenfrüchtler sind eine von wenigen Familien, die zwei gültige, alternativ verwendbare wissenschaftliche Namen besitzen: Der Name Leguminosae wurde von Michel Adanson im Jahr 1763 geschaffen. Erst 1836 wurde von John Lindley der neue Name Fabaceae gebildet. Der nomenklatorische Typus zu beiden Namen ist die Gattung "Faba" Miller, ein Synonym von "Vicia" L. Erscheinungsbild. Es sind zum einen ein- bis zweijährige, oder ausdauernde krautige Pflanzen oder zum anderen verholzende Pflanzen: Bäume, Sträucher und Lianen. Sie wachsen selbständig aufrecht, kriechend oder kletternd. Bei einer ganzen Reihe von Arten oder Sorten der Kulturpflanzen führen die Sprossachsen kreisende Bewegungen meist in, seltener gegen den Uhrzeigersinn aus; es sind windende Pflanzen, die an anderen Pflanzen oder Gegenständen empor klettern. Einige Arten sind Epiphyten. Einige Arten besitzen xerophytische Anpassungen. Die Pflanzen können mit Stacheln oder Dornen bewehrt sein. Laubblätter und Nebenblätter. Die meist wechselständigen Laubblätter sind meist gefiedert. Bei allen Unterfamilien sind ursprünglich Fiederblätter vorhanden, die in einigen Gattungen und Arten auf die Endfieder reduziert sein können, wie beispielsweise beim Färber-Ginster ("Genista tinctoria"), oder nur aus drei Blättchen bestehen, wie bei den Klee-Arten ("Trifolium"). Sie können sehr unterschiedlich groß sein. Bei manchen Arten sind die Fiederblätter völlig oder bei vielen Arten teilweise zu Ranken umgebildet; meist werden die Ranken nur von der Endfieder gebildet. Wenn die Endfieder zu einer Ranke umgebildet ist oder fehlt, nennt man das paarig gefiedert und wenn die Endfieder normal ausgebildet, nennt man das unpaarig gefiedert. Bei den Cercideae sind die Blätter einfach. Es sind Nebenblätter vorhanden, die je nach Art sehr unterschiedlich ausgeprägt sein können. Die Nebenblätter können wie bei der "Robinie" ("Robinia pseudoacacia") zu Dornen („Nebenblattdornen“) umgebildet sein, oder sie sind wie beispielsweise bei der Ranken-Platterbse ("Lathyrus aphaca") besonders groß und übernehmen die Hauptassimilationsfunktion, da die eigentlichen Blattorgane zu Ranken umgebildet sind. Einige Arten besitzen eine verdickte Stelle im unteren Teil des Nebenblattes, die Bewegungen bewirken kann („Pulvinus“). Bei einigen Arten sind die Blätter reduziert und Phyllodien übernehmen die Aufgabe der Photosynthese. Blütenstände und Blüten. Die Blüten können in traubigen, ährigen, rispigen, wickelförmigen oder kopfigen Blütenständen zusammen stehen. Die meist zwittrigen, radiärsymmetrischen bis zygomorphen Blüten sind meist fünfzählig mit doppeltem Perianth. Besonders bei den Mimosoideae kommen auch einhäusig getrenntgeschlechtige (monözische) Arten vor. Die meist fünf (drei bis sechs) Kelchblätter sind verwachsen. Besonders im Bau der Blüten unterscheiden sich die Unterfamilien. In der Knospenlage besitzen die Kronblätter Faboideae eine absteigende Deckung, aber bei den Caesalpinioideae mit aufsteigender Deckung. Es sind meist fünf (ein bis fünf) Kronblätter vorhanden; mindestens drei Kronblätter sind untereinander frei. Die typischen Schmetterlingsblüten, es geht um die Blütenkrone, entsteht durch die Ausformung der meist fünf Blütenkronblätter. Das obere, meist aufgerichtete Kronblatt nennt man Fahne („Vexillum“), die beiden seitlichen nennt man Flügel („Alae“), die beiden unteren schließlich sind mehr oder weniger stark verwachsen oder verklebt und bilden das Schiffchen („Carina“). Die Kronblätter können genagelt sein. Nur bei 26 Gattungen der Caesalpinioideae, einigen Gattungen der Swartzieae und Amorphieae fehlen Blütenhüllblätter, dann sind die Staubblätter am auffälligsten und es dienen bei ihnen meist Fledertiere als Bestäuber. Wenn zehn Staubblätter vorhanden sind, dann sind sie bei den Faboideae meist alle oder nur zu neunt verwachsen und bilden eine lange Röhre (bzw. Rinne bei 9 verwachsenen), die das Fruchtblatt umgibt; oder die Staubblätter sind untereinander frei ("Sophora"). Bei den Mimosoideae sind drei bis hundert Staubblätter vorhanden. Selten sind nur ein oder zwei Staubblätter vorhanden. Bei wenigen Taxa sind die Staubblätter mit den Kronblättern verwachsen. Entweder sind alle Staubblätter fertil oder ein Teil ist zu Staminodien umgewandelt. Die Pollenkörner besitzen meist drei oder sechs, seltener zwei, vier oder keine Aperturen; sie sind meist colporat, oder seltener porat, colpat, oder rugat; sie sind fast immer zweizellig oder bei wenigen Mimosoideae dreizellig. In jeder Blüte gibt es meist nur ein oberständiges Fruchtblatt; bei wenigen Mimosoideae sind zwei bis 16 freie Fruchtblätter vorhanden. Die Bestäubung erfolgt durch Insekten (Entomophilie), Vögel (Ornithophilie, besonders bei südaustralischen Arten) oder Fledertiere (Chiropterophilie). Die Übertragungsmechanismen des Pollens auf Insekten bei der Bestäubung sind bei vielen Arten sehr interessant, es gibt beispielsweise einen „Explosionsmechanismus“ (Besenginster, "Cytisus scoparius") oder „Klappmechanismus“ (Färberginster, "Genista tinctoria"). Früchte und Samen. Die Hülsenfrüchtler haben ihren Namen von der „Hülsenfrucht“, einem Fruchttyp, der in allen Unterfamilien und nur hier vorkommt. Es wird eine Hülsenfrucht gebildet, die sich bei Reife meist an der Bauch- und Rückennaht öffnet. Seltener werden auch Gliederhülsen mit Bruchfrüchten (Kleiner Vogelfuß, "Ornithopus perpusillus"), die sich zu Nüsschen entwickeln, ausgebildet. Einige Taxa bilden auch Balgfrüchte, Samara, achänen- oder steinfruchtähnliche Früchte. Bei einigen Mimosoideae können auch mehrere Früchte zu einer Sammelfrucht vereint sein. Die Früchte enthalten ein bis hundert Samen. Die kleinen bis sehr großen Samen sind meist ungeflügelt oder besitzen selten, wie bei einigen Mimosoideae, Flügel. Die stärkehaltigen oder -freien Samen können eine Mikropyle besitzen, die zickzackförmig sein kann. Symbiose mit Bakterien und Pilzen. Die meisten Leguminosen gehen in ihren Wurzelknöllchen eine Symbiose mit stickstofffixierenden Bakterien ("Rhizobien") ein. Sie machen sich dadurch unabhängig vom Nitratgehalt des Bodens und sind in extrem stickstoffarmen Böden (zum Beispiel Akazien in der „Wüste“) erst lebensfähig. Zum Schutz der Bakterien vor Luftsauerstoff sind Leguminosen in der Lage, das Sauerstoff-bindende Protein Leghämoglobin zu bilden. Durch ihre Rhizobien tragen Leguminosen zur Fruchtbarkeit des Bodens bei (siehe Gründüngung). In der Landwirtschaft werden sie daher gern zur Melioration als Zwischenfrüchte angebaut. Die Stickstofffixierung kann 100 kg/ha pro Monat erreichen. Die Forschungsarbeiten diesen Jahrzehntes zeigen, dass noch mehr Gruppen aus den Unterfamilien ausgegliedert werden müssen, damit die Unterfamilien monophyletisch werden. Dabei scheint wohl die Unterfamilie Faboideae in ihrem heutigen Umfang monophyletisch zu sein. Die Tribus Cassieae s.l. ist polyphyletisch. Die Unterfamilie Caesalpinioideae ist weitgehend aufgelöst. Synonyme der Familie Fabaceae Lindl. sind: Acaciaceae E.Mey., Aspalathaceae Martinov, Astragalaceae Bercht. & J.Presl, Caesalpiniaceae R.Br., nom. cons., Cassiaceae Vest, Ceratoniaceae Link, Detariaceae (DC.) Hess, Hedysaraceae Oken, Inocarpaceae Zoll., Leguminosae Adans., nom. cons., Mimosaceae R.Br., nom. cons., Papilionaceae Giseke, nom. cons., Phaseolaceae Schnitzl., Swartziaceae (DC.) Bartl., Viciaceae Bercht. & J.Presl. London. London (englische Aussprache) ist die Hauptstadt des Vereinigten Königreichs und des Landesteils England. Die Stadt liegt an der Themse in Südostengland auf der Insel Großbritannien. Das heutige Verwaltungsgebiet mit den insgesamt 33 Stadtbezirken entstand 1965 mit der Gründung von Greater London. Dort lebten 2014 laut Schätzung rund 8,5 Millionen Menschen, davon rund 3,3 Millionen in den 13 Stadtbezirken von Inner London. London ist damit die bevölkerungsreichste Stadt der Europäischen Union, sowie mit 13.614.409 Millionen Menschen in der London Metropolitan Area noch vor Paris (12.292.895 Einwohner) die größte Metropolregion der EU. Im Jahre 50 n. Chr. von den Römern als antike Siedlung „Londinium“ gegründet, wurde die Stadt nach der normannischen Eroberung 1066 zur Hauptstadt des Königreichs England und in Folge Sitz des britischen Königshauses. Bereits im Mittelalter wurde London zu einem bedeutenden Handelsplatz in Europa. Unter der Herrschaft von Elisabeth I. im 16. Jahrhundert stieg ihre Bedeutung als Hafenstadt der Nordsee. Durch den Beginn der Industrialisierung im 18. Jahrhundert wuchs auch die Bevölkerung Londons, sodass die Stadt um 1800 als eine der ersten die Grenze von einer Million Einwohner überstieg. Bis 1900 versechsfachte sich die Bevölkerung und London wurde im 19. Jahrhundert nicht nur zur Hauptstadt des Britischen Weltreiches, sondern überdies zur größten Stadt der Welt, die sie bis 1925 blieb. Sie entwickelte sich zu einer bedeutenden Stadt der Technik und Industrie sowie der Politik, womit sie bis heute zu den Weltstädten zählt. London ist gegenwärtig eines der bedeutendsten Kultur- und Handelszentren der Welt mit zahlreichen Universitäten, Hochschulen, Theatern und Museen. Mit der City of London zählt die Stadt außerdem neben New York City zu den größten Finanzplätzen der Welt. Historische Gebäude wie der Palace of Westminster oder Tower of London zählen unter anderen zum UNESCO-Weltkulturerbe. Mit jährlich bis zu 18 Millionen Touristen aus dem Ausland ist London seit 2014 vor Paris und Bangkok die meistbesuchte Stadt weltweit. Geographische Lage. Lage von London in England Die geografischen Koordinaten des Stadtzentrums in der Nähe des Trafalgar Square sind 51° 30′ nördlicher Breite und 0° 8′ westlicher Länge. Die Lage nahe dem Nullmeridian ist kein Zufall, denn dieser wurde durch das königliche Observatorium, das Royal Greenwich Observatory in Greenwich gelegt; er ist Ausgangspunkt der Längengrade und damit der Zeitzonen. London erstreckt sich etwa 44,3 Kilometer entlang der schiffbaren Themse und liegt durchschnittlich 15 Meter über dem Meeresspiegel. London entstand aus einer Siedlung am Nordufer, der heutigen City of London. Die London Bridge war bis 1739 die einzige Brücke über den Fluss. Aus diesem Grund befindet sich der größere Teil der Stadt nördlich des Flusses. Mit dem Bau weiterer Brücken im 18. Jahrhundert und dem Bau der Eisenbahnen im 19. Jahrhundert begann sich die Stadt in alle Richtungen auszudehnen. Die Landschaft ist flach bis leicht wellig, wodurch das ungehinderte Wachstum begünstigt wurde. Die Themse war in früheren Zeiten wesentlich breiter und seichter als heute. Sie wird heute fast gänzlich durch Dämme begrenzt und die meisten Zuflüsse fließen unterirdisch. Die Gezeiten der Nordsee machen sich in London noch deutlich bemerkbar, die Stadt ist deshalb durch Überschwemmungen und Sturmfluten gefährdet. Bei Woolwich – östlich von Greenwich gelegen – wurde in den 1970er-Jahren der Thames Barrier gebaut, um diese Gefahr einzudämmen. Geologie. Südostengland mit der Hauptstadt London, der klimatisch meistbegünstigte Teil Großbritanniens, unterscheidet sich in vielerlei Hinsicht von den anderen Teilen der Insel. Die geologische Struktur wird durch die mesozonischen Sedimente bestimmt, die eine großzügig gegliederte Schichtstufenlandschaft entstehen ließen. Ihre Höhen ragen nirgends hoch auf, so dass der gesamte Raum die klimatischen Vorteile des Südostens genießt. Historisch profitierte London von seiner Lage inmitten einer Ackerbauregion. Der kontinentnahe Südosten galt von jeher als Schwergewicht des Inselreiches. Hier fassten die vom Festland kommenden Eroberer – Römer, Sachsen, Normannen – zuerst Fuß. Auch als mit der Entdeckung Amerikas und der Entwicklung der Überseeschifffahrt die Außenseiten der Insel infolge ihrer günstigeren Lage stärker belebt wurden, konnte sich das alte Kulturzentrum behaupten. London blieb das Tor zur Insel. Stadtgliederung. London gliedert sich in 32 Stadtbezirke (London Boroughs) und die City of London. Klima. London befindet sich in der gemäßigten Klimazone. Die Sommer sind warm, aber selten heiß; die Winter sind zwar kühl, doch sinkt die Temperatur selten unter den Gefrierpunkt. Der wärmste Monat ist Juli mit 16,3 Grad Celsius im Durchschnitt, der kälteste Januar mit 3,9 Grad Celsius im Mittel. Die höchste jemals in London gemessene Temperatur war 37,9 Grad Celsius, gemessen während der Hitzewelle 2003. Die große überbaute Fläche hält die Wärme zurück und schafft dadurch ein Mikroklima. Manchmal ist es in der Stadt bis zu fünf Grad wärmer als in der umliegenden Landschaft. Die durchschnittliche Jahrestemperatur beträgt 9,7 Grad Celsius und die mittlere jährliche Niederschlagsmenge 611 Millimeter. In den Monaten Oktober, November und Dezember gibt es den meisten Niederschlag mit durchschnittlich 57 Millimeter und der wenigste im Februar mit 36 Millimeter im Durchschnitt. Schnee fällt eher selten, höchstens einige Zentimeter pro Jahr. Ereignisse wie die Schneekatastrophe von 1978 sind eine Seltenheit. Anfang Februar 2009 gab es das schlimmste Schneechaos seit 18 Jahren, als über 15 Zentimeter Neuschnee fielen. Keine Seltenheit sind dagegen Inversionswetterlagen. Eine davon führte 1952 zu einer großen Smog-Katastrophe. Antike. Die Existenz einer vorrömischen Siedlung der Kelten im Bereich der City of London konnte nicht nachgewiesen werden. Wahrscheinlich im Jahr 47 n. Chr. gründeten die Römer die Stadt Londinium. Im Jahr 60 oder 61 n. Chr. zerstörten die Icener, angeführt von Königin Boudicca, die Siedlung. Londinium wurde wieder aufgebaut und löste zu Beginn des 2. Jahrhunderts Camulodunum (Colchester) als Hauptstadt Britanniens ab. Ab 197 n. Chr. war Londinium Hauptstadt der Provinz Britannia superior, ab etwa 300 n. Chr. der Provinz Maxima Caesariensis. Rund um die Stadt wurden Wallanlagen errichtet. Im Jahr 410 n. Chr. zogen die Römer ihre Legionen zurück und die Bevölkerung war den Raubzügen germanischer Stämme zunehmend schutzlos ausgeliefert. Nach der Eroberung Englands durch die Angeln und Sachsen verfiel Londinium bis Ende des 5. Jahrhunderts zu einer unbewohnten Ansammlung von Ruinen. Mittelalter. Die Angelsachsen mieden zunächst die unmittelbare Umgebung der zerstörten Stadt. Im späteren 7. Jahrhundert gründeten sie westlich davon die Siedlung Lundenwic, die zunächst zum Königreich Mercia, später zum Königreich Essex gehörte. Unter der Führung von Alfred dem Großen, dem König von Wessex, eroberten die Angelsachsen im Jahr 878 die Gegend an der Themsemündung von den Dänen zurück. In den folgenden Jahren wurde das Gebiet innerhalb der römischen Stadtmauer wieder besiedelt. Die neu entstandene Stadt hieß Lundenburgh. 1066 eroberten die Normannen England und London löste Winchester als Hauptstadt ab. Der neue Herrscher Wilhelm I. bestätigte die besonderen Rechte Londons. Richard Löwenherz ernannte 1189 den ersten Lord Mayor (Bürgermeister), der dann ab 1215 von den immer mächtiger werdenden Kaufmannsgilden selbst gewählt wurde. 1209 wurde die erste aus Stein errichtete Brücke, die London Bridge, fertiggestellt, die bis 1750 die einzige Brücke im heutigen Stadtzentrum war. Mehrere Male musste London Plünderungen durch aufständische Bauernheere erdulden, so zum Beispiel 1381 während der Peasants’ Revolt und 1450 während der Jack-Cade-Rebellion. Im Rosenkrieg, der 1485 mit der Krönung von Henry Tudor als Heinrich VII. zu Ende ging, hielt die Stadt zur Partei der Yorks. Die Reformation brach die Macht der Kirche, die bis dahin rund die Hälfte des Bodens besaß; die Neuverteilung kirchlicher Güter ab 1535 leitete eine Ära des wirtschaftlichen Wachstums ein und London stieg zu einer führenden Handelsstadt auf. Frühe Neuzeit. London musste in seiner wechselvollen Geschichte einige Rückschläge hinnehmen. Nachdem im 16. Jahrhundert die Gründung der ersten großen Handelskompanien und der Royal Exchange den wirtschaftlichen Aufstieg vorangetrieben hatte, wurde die Stadt 1664 und 1665 von der „Großen Pest“ heimgesucht, die über 70.000 Menschenleben forderte. Im September 1666 verwüstete der „Große Brand von London“ weite Teile der Stadt. Etwa 13.000 Häuser und 89 Kirchen fielen den Flammen zum Opfer. Die Stadt wurde nach dem verheerenden Brand neu aufgebaut. Pläne für eine grundlegende Neugestaltung scheiterten jedoch an den zu hohen Kosten, weshalb die neuen Häuser im Wesentlichen entlang der alten verwinkelten Straßen errichtet wurden. Verantwortlich für den Wiederaufbau war der Architekt Christopher Wren. In der Folge zogen fast alle adeligen Bewohner endgültig aus der alten Innenstadt weg und ließen sich im aufstrebenden West End neue repräsentative Wohnhäuser bauen. Ins East End abgedrängt wurden die ärmsten Bevölkerungsschichten, die im expandierenden Hafen ihr Auskommen finden mussten. Ende des 17. Jahrhunderts stieg London zum bedeutendsten Finanzzentrum der Welt auf. Stadtplan von London aus dem Jahr 1770 Während des 18. Jahrhunderts wuchs London über die historischen Grenzen hinaus. Neue Brücken über die Themse ermöglichten die Ausbreitung der Stadt nach Süden. Im Juni 1780 war London Schauplatz der Gordon Riots, als sich fanatische Protestanten gegen die Gleichberechtigung der Katholiken zur Wehr setzten. Moderne. a>, dahinter der Hochhauskomplex von Canary Wharf Im Laufe des 19. Jahrhunderts vervielfachte sich die Bevölkerungszahl, der Bau zahlreicher Vorort-Eisenbahnen und U-Bahnen ermöglichte eine rasche Ausbreitung des überbauten Gebiets. London errang während des viktorianischen Zeitalters große Bedeutung als Hauptstadt des Britischen Weltreichs. 1851 war London laut Volkszählung mit 2.651.939 Einwohnern die größte Stadt Europas und das Zentrum der industrialisierten Welt. Hier fand im gleichen Jahr mit der „Great Exhibition“ die erste Weltausstellung statt. Der ausufernde Ballungsraum war in zahlreiche Kirchgemeinden und Gerichtsbezirke zersplittert. Als erster Zweckverband wurde 1829 die Metropolitan Police gegründet, die in der Folge in der ganzen Metropole die zuvor auf privater Basis betriebene Verbrechensbekämpfung übernahm. 1855 folgte mit dem Metropolitan Board of Works eine Vereinheitlichung im Bereich des Bauwesens. Das unter der Leitung von Joseph Bazalgette errichtete Londoner Abwassersystem gilt als größtes Bauprojekt des gesamten 19. Jahrhunderts. 1889 wurde mit der County of London erstmals überhaupt eine einheitliche Verwaltungsregion für den gesamten Ballungsraum geschaffen. Die erste Hälfte des 20. Jahrhunderts war geprägt von der Ausdehnung des überbauten Gebiets in einem vorher nie gekannten Ausmaß. Die neuen Vororte lagen fast gänzlich außerhalb der "County of London": in ganz Middlesex, im Westen von Essex, im Norden von Surrey, im Nordwesten von Kent und im Süden von Hertfordshire. Während des Zweiten Weltkriegs, vor allem 1940/41, erlitt London insbesondere in den östlichen Industriegebieten durch Angriffe der deutschen Luftwaffe schwere Zerstörungen. Diese Bombardements gingen mit dem Namen „The Blitz“ in die Geschichte der Stadt ein. Eine zweite Angriffswelle folgte 1944/45 im Rahmen des Unternehmens Steinbock sowie mit den V1- und V2-Raketen. Knapp 30.000 Einwohner starben, Hunderttausende wurden obdachlos. Nach Kriegsende sank die Einwohnerzahl beträchtlich, da viele Londoner sich in neuen Satellitenstädten niederließen. 1965 wurde die Verwaltungsregion "Greater London" geschaffen, die auch die im 20. Jahrhundert entstandenen Vororte umfasst. Währenddessen büßte London seine Rolle als bedeutender Hafen ein, die Anlagen in den Docklands zerfielen. 1981 begann ein umfangreiches Stadtentwicklungsprogramm, Zehntausende von Arbeitsplätzen der Dienstleistungsbranchen wurden von der City of London auf die Isle of Dogs verlagert oder neu geschaffen. In der Canary Wharf entstand ein ausgedehnter Hochhauskomplex. Durch diese Aufwertung Londons stieg die Einwohnerzahl seit dem Tiefpunkt in den 1980er-Jahren wieder um eine Million an. Trotzdem hat London heute noch eine Million Einwohner weniger als am historischen Höchststand, der 1939 mit etwa 8,6 Millionen erreicht wurde. Religionen. Synagoge in Upper Clapton im Stadtbezirk Hackney 20,7 Prozent der Londoner gehören keiner Religion an. Keine Angaben machten 8,6 Prozent der Bevölkerung. Die Mehrheit der Christen gehört der Anglikanischen Kirche von England an. Hauptkirche und Sitz des Bischofs der Diözese London ist die St Paul’s Cathedral. Kirche des Königshauses ist Westminster Abbey. Die katholische Hauptkirche von Wales und England und Sitz des Erzbischofs von Westminster ist die Westminster Cathedral. Eine weitere katholische Metropolitankirche ist die Kathedrale des Erzbistums Southwark, St George’s Cathedral auf der Südseite der Themse. Seit das englische Königshaus den protestantischen Glauben (Anglikanische Kirche) angenommen hatte, gab es mehrere Jahrhunderte lang keine katholischen Gotteshäuser in London. Erst im 19. Jahrhundert etablierten sich wieder katholische Gemeinden. Weitere christliche Religionsgemeinschaften sind die United Reformed Church, die Heilsarmee, die Quäker und die Orthodoxe Kirche. Die Stadt ist das Zentrum des Islam in Großbritannien. Etwa 38 Prozent der 2,7 Millionen britischen Muslime lebten laut Volkszählung 2011 in London. Siedlungszentren sind überwiegend die Stadtbezirke Tower Hamlets, Newham und Redbridge. Die Bait ul-Futuh ist die größte Moschee der Hauptstadt. Die East London Mosque wurde 1985 erbaut. Die angebliche langjährige politische Tolerierung fundamentalistischer Strömungen und islamistischer Terrorplanungen hat der Stadt zeitweilig den Ruf eines „Londonistan“ eingetragen. Von den 817.000 britischen Hindus lebten 2011 circa die Hälfte in London. Siedlungszentren sind vor allem die Bezirke Brent und Harrow. Der Neasden Temple war bis zur Eröffnung des Shri Venkateswara (Balaji) Temple in Tividale (West Midlands) im August 2006 der größte Hindu-Tempel außerhalb Indiens. Eine größere Anzahl von Sikhs leben im Stadtteil Southall, gelegen im westlichen Stadtbezirk Ealing, sowie im Stadtteil "Hounslow". Etwa 56 Prozent der 267.000 britischen Juden lebten 2001 in der Hauptstadt. Siedlungszentren sind Stamford Hill im Bezirk Hackney und Golders Green im Bezirk Barnet. Bevölkerungsentwicklung. Schon 140 n. Chr. lebten in London 30.000 Menschen, um 1300 waren es bereits 100.000 und 1801 überschritt die Einwohnerzahl der Stadt die Grenze von einer Million. London war von 1825 bis 1925 die bevölkerungsreichste Stadt der Welt, bis sie von New York überholt wurde. Bei der Volkszählung im Jahre 2001 wurden 7.172.091 Einwohner gezählt, 2011 dann 8.173.900. Für die Stadt werden aufgrund des anhaltenden Wachstums bis 2020 9.134.000 und bis 2040 10.487.000 Einwohner prognostiziert. London ist traditionellerweise ein Anziehungspunkt für verschiedene Nationalitäten, Kulturen und Religionen. Während zu Beginn des 20. Jahrhunderts hauptsächlich Iren, Polen, Italiener und osteuropäische Juden nach London kamen, sind seit Mitte des 20. Jahrhunderts vor allem Menschen aus den ehemaligen britischen Kolonien, wie beispielsweise Indien, Pakistan, Bangladesch, oder Nigeria, eingewandert. Bei der Volkszählung 2011 stammten 6,6 Prozent der Bevölkerung vom indischen Subkontinent, 4,9 Prozent aus anderen Teilen Asiens. 7 Prozent stammten aus Schwarzafrika und 4,2 Prozent aus der Karibik. Insgesamt wurden 37 Prozent außerhalb des Vereinigten Königreichs geboren. Die Anzahl der Leute in London, welche sich als "weiße Briten" (english "white british") bezeichneten, sank von 58 % im Jahr 2001 auf 45 % im Jahr 2011. Die Anzahl der allgemein weißen Bevölkerung 2011 in London lag bei 60 %. Ungefähr 20 % hatten asiatische Wurzeln und 13 % waren schwarz. Einen gemischten ethnischen Hintergrund hatten 5 %. Die Agglomeration von London erstreckt sich über das eigentliche Stadtgebiet von Greater London hinaus und zählt 8.278.251 Einwohner (2001), 2010 wurde die Bevölkerung der "Greater London Urban Area" auf 8.979.158 geschätzt. Dies sind mehr als in Schottland und Wales zusammen. London ist damit eine der größten Agglomerationen Europas. Die folgende Übersicht zeigt die Einwohnerzahlen nach dem jeweiligen Gebietsstand. Bis 1750 handelt es sich um Schätzungen, von 1801 bis 2001 um Volkszählungsergebnisse und 2006 sowie 2011 um eine Berechnung. Entwicklung der Wohnsituation. Blackwall Terrace in Tower Hamlets Die Wohn- und Gewerbegebiete aus dem 19. Jahrhundert weisen eine relativ hohe Wohndichte und einen überproportionalen Anteil von Einwanderern sowie Menschen mit niedrigem Einkommen auf. Gering verdichtete Wohnformen, vor allem von Eigentümern bewohnte Einzel- und Doppelhäuser, sind hier das dominierende Siedlungsbild. Der frühere Gegensatz in den Wohn- und Lebensbedingungen der Bevölkerung britischer Nationalitäten mit hohem Einkommen im Westend und den Einwanderern mit niederem Einkommen im East End wird von entgegengesetzten Entwicklungstendenzen überlagert. Es kommt zu einer Zunahme ethnischer, sozialer und kultureller Differenzierung und Ghettobildung. Immer mehr Haushalte mit hohem Einkommen bleiben in London oder ziehen in die Stadt und verdrängen die ärmeren Haushalte und Mieter, weite Gebiete des East End sind von diesem Prozess der Gentrifizierung betroffen. Ursache ist die Anfang der 1980er-Jahre begonnene nationale und lokale Stadtentwicklungspolitik, deren wichtigstes Ziel es war, die Bedeutung der Hauptstadt als Handels- und Finanzzentrum zu stärken und für internationale Firmen attraktiv zu machen. Die Immobilienpreise in Großbritannien haben sich von 2000 bis 2011 in etwa verdoppelt, London hat sich aber nach oben abgekoppelt. Der Durchschnittspreis der Londoner Häuser liegt beim Doppelten des britischen Durchschnitts. In zentral gelegenen, aber ruhigen Wohnstraßen besonders im Westen, in Kensington und Chelsea lagen die Preise 2011 im Durchschnitt bei fast 6 Millionen Euro und damit beim Dreißigfachen des britischen Durchschnitts. Im Premiumbereich werden 55 Prozent der Häuser von Ausländern erworben. Bis 2016 wird eine weitere Steigerung um 20 Prozent prognostiziert. Eine neue Entwicklung verbirgt sich hinter dem Begriff "poor doors" (etwa: "Türen für Arme"): Da bei Luxus-Neubauten immer auch zugleich Sozialwohnungen entstehen müssen, planen Architekten für die sozial schwächeren Mieter einen eigenen Eingang und ein getrenntes Treppenhaus. Stadtregierung. a>, Sitz der Greater London Authority Im Jahre 1965 wurde die Verwaltungsregion Greater London, ein Zusammenschluss der alten County of London mit Middlesex sowie Teilen der Grafschaften Essex, Hertfordshire, Kent und Surrey, gegründet. Greater London ist unterteilt in 32 London Boroughs und die City of London. Die Boroughs sind für die lokale Selbstverwaltung und den Betrieb der meisten öffentlichen Einrichtungen auf ihrem Gebiet zuständig. Die City of London wird historisch bedingt von der City of London Corporation verwaltet. Die Greater London Authority (GLA) koordiniert die Zusammenarbeit zwischen den einzelnen Boroughs, ist für die strategische Planung zuständig und betreibt öffentliche Einrichtungen, die in der ganzen Stadt tätig sind; dazu gehören die Feuerwehr, die Polizei und der öffentliche Verkehr. Die GLA besteht aus dem Mayor of London (Oberbürgermeister) und der London Assembly (Stadtparlament mit 25 Sitzen), die beide ihren Sitz in der City Hall haben. Der aktuelle Mayor of London ist Boris Johnson (Conservative Party). Sein Vorgänger war Ken Livingstone. Dieser trat im Jahre 2000 gegen den offiziellen Labour-Kandidaten an, wurde nach einem Nominierungsdebakel aus der Partei ausgeschlossen, 2004 unter Kritik wieder aufgenommen und haushoch für eine zweite Amtszeit bestätigt, ehe er letztlich bei der Wahl 2008 Johnson unterlag. Der Lord Mayor of London, der Bürgermeister der City of London, übt lediglich zeremonielle Funktionen aus. Frühere Verwaltungsbehörden waren die Metropolitan Board of Works (MBW) von 1855 bis 1889, der London County Council (LCC) von 1889 bis 1965 und der Greater London Council (GLC) von 1965 bis 1986. Der GLC wurde von Premierministerin Margaret Thatcher nach politischen Auseinandersetzungen zwischen der Regierung und dem GLC-Vorsitzenden Ken Livingstone aufgelöst. 14 Jahre lang besaß London keine übergeordnete Verwaltung; die meisten Aufgaben wurden an die Boroughs übertragen, einzelne direkt an die Zentralregierung. Diese Maßnahme führte zu großen Koordinationsproblemen. Auch nach der Einsetzung der GLA im Jahr 2000 besitzen die Boroughs eine größere Autonomie als noch zu Zeiten der GLC. Die Polizeibehörde der 32 London Boroughs ist der Metropolitan Police Service, besser bekannt unter dem Namen Metropolitan Police oder kurz als „the Met“. Die City of London besitzt eine eigene Polizeibehörde, die City of London Police. Städtepartnerschaften. London unterhält mit folgenden Städten Partnerschaften. Theater. London bietet eine breite Palette an kulturellen Veranstaltungen. Im Londoner Westend sind mehr als ein Dutzend Theater zu Hause. Gespielt wird alles von der Klassik bis zur Moderne. Dort wurden unter anderem Andrew Lloyd Webbers weltberühmte Musicals "Cats" und "Das Phantom der Oper" uraufgeführt. Das Royal National Theatre der National Theatre Company in South Bank und das Barbican Centre der Royal Shakespeare Company gehören zu den vielen Zentren des professionellen Theaterschauspiels. Das Royal Court Theatre, eine der traditionsreichsten Bühnen in London, ist im Februar 2000 nach vier Jahren Umbauzeit wieder eröffnet worden. Das Royal Opera House in Covent Garden ist das bedeutendste britische Opernhaus. Es ist die Heimat der Royal Opera und des Royal Ballet. Das erste Theatergebäude an dieser Stelle, das damalige "Theatre Royal" (siehe Patent Theatre) wurde von Edward Shepherd entworfen. Es wurde am 7. Dezember 1732 mit einer Aufführung von William Congreves "The way of the world" eröffnet. Obwohl schon ab 1735 auch Opern, zum Beispiel von Händel, aufgeführt wurden, blieb das Haus doch hauptsächlich ein Schauspielhaus. Das Theatre Royal Drury Lane ist ein Theater im Londoner West End. Seit Mitte der 1980er-Jahre war es die Heimat großer Musicalproduktionen wie "42nd Street", "Miss Saigon" und "My Fair Lady". Das London Palladium ist das wohl berühmteste Londoner Theater. In den 1950er-Jahren wurde die in Großbritannien populäre Varieté-Aufführung "Sunday Night at the London Palladium" live im Fernsehen ausgestrahlt. Das Theatre Royal Haymarket "(Haymarket Theatre)" ist ein Theater am Londoner Haymarket. Es wurde 1720 von John Potter als "Little Theatre" gegründet – in Anspielung auf das größere "King’s Theatre" (heute Her Majesty’s Theatre), das sich ebenfalls am Haymarket befand. Das Her Majesty’s Theatre wird hauptsächlich für Musicalaufführungen genutzt. Seit dem 9. Oktober 1986 wird täglich "Das Phantom der Oper" aufgeführt. Das St. Martin's Theatre im West End ist seit 1974 Spielort für das Stück "Die Mausefalle" von Agatha Christie. Zuvor wurde das Stück über einundzwanzig Jahre im Ambassador Theatre gespielt, bevor es nahtlos an seine jetzige Spielstätte umzog. Durch die ununterbrochene Laufzeit seit 1952 ist "Die Mausefalle" das am längsten ununterbrochen aufgeführte Theaterstück der Welt. Das Globe Theatre am Südufer der Themse ist eine Rekonstruktion des Freiluftschauspielhauses, das 1599 entworfen wurde. Für dieses Theater schrieb William Shakespeare viele seiner größten Stücke. Die Spielzeit läuft von Mai bis September mit Produktionen von Shakespeare, seinen Zeitgenossen und von modernen Autoren. Ein weiteres bekanntes Theater ist das London Coliseum, in dem die English National Opera Company untergebracht ist. Das London Dungeon ist kein Theater im herkömmlichen Sinne. Das Gruselkabinett befindet sich seit März 2013 in der Westminster Bridge Road und präsentiert seinen Besuchern bekannte Ereignisse der Stadtgeschichte aus den vergangenen 2000 Jahren. Schauspieler führen durch die unterirdischen Gewölbe und lassen unter anderem die Große Pest von London, den Großen Brand von London, Jack the Ripper und Sweeney Todd wieder zum Leben erwachen. Musik. London beheimatet fünf professionelle Symphonieorchester. Diese sind das London Symphony Orchestra, das London Philharmonic Orchestra, das Royal Philharmonic Orchestra, das Philharmonia Orchestra und das BBC Symphony Orchestra. Der Höhepunkt eines jeden Jahres ist die von der BBC weltweit übertragene “Last Night of the Proms” aus der Royal Albert Hall. Konzerthäuser sind die Barbican Hall, die Royal Festival Hall und die Saint John’s Church in Westminster. Einer der beliebtesten Konzertsäle ist die Wigmore Hall hinter der Oxford Street. Im Juni 2002 sind nach umfangreichen Renovierungsarbeiten Teile des 1988 im heutigen Finanzviertel entdeckten römischen Amphitheaters der Öffentlichkeit zugänglich gemacht worden. Am Trafalgar Square steht die Kirche St Martin-in-the-Fields. Sie wurde in den Jahren 1721 bis 1726 nach den Plänen des Architekten James Gibbs gebaut. In der Kirche finden häufig Konzerte statt; zu den dort auftretenden Orchestern zählen unter anderem die Academy of St Martin in the Fields und das Ensemble "New Trinity Baroque" aus den USA. In der Krypta wurde ein Café eingerichtet, in dem manchmal Jazz-Gruppen auftreten. Die Pfarrei beherbergt auch einen der berühmtesten Kirchenchöre der Welt. In der City of Westminster befinden sich die Abbey Road Studios. Das Gebäude in der gleichnamigen Straße wurde 1929 von EMI gekauft, die Studios am 12. November 1931 eröffnet. In der Eröffnungszeremonie dirigierte Sir Edward Elgar das London Symphony Orchestra in Studio 1 und die historische Aufzeichnung von "Land of Hope and Glory" entstand. Die Beatles widmeten dem Musikaufnahmestudio das Album „Abbey Road“ (1969). Pink Floyd, die in den 1970er-Jahren ihre Alben in den Studios einspielten, galt bald als die „Hausband“ des Studios. Unter anderem entstand hier „The Dark Side of the Moon“. Seit den 1980er-Jahren wird das Studio 1 auch als Aufnahmestudio für orchestrale Filmmusiken benutzt. Der erste Film, der hier seine musikalische Untermalung erhielt, war "Jäger des verlorenen Schatzes" mit der Musik von John Williams. Auch die Musik für "Der Herr der Ringe" und die Harry-Potter-Filme wurden hier eingespielt. The O₂ ist ein Unterhaltungskomplex, welcher früher unter dem Namen Millennium Dome bekannt war. Zahlreiche bekannte internationale Künstler hatten in der O2 Arena, der eigentlichen Konzerthalle, Auftritte, so etwa Britney Spears, Justin Timberlake und die Spice Girls. Museen. Zu den größten und bekanntesten Museen weltweit zählt das Britische Museum in Bloomsbury. In ihm befinden sich über sechs Millionen Ausstellungsstücke. Berühmt ist auch der Reading Room, ein kreisrunder Lesesaal, in dem schon Karl Marx und Mahatma Gandhi studierten. Rechtzeitig zum Millennium ist der "Queen Elizabeth II Great Court" (Architekt: Norman Foster) fertiggestellt worden. Es ist der größte überdachte Innenhof Europas. Das Victoria and Albert Museum im Stadtteil South Kensington verfügt über eine Sammlung von Kunstschätzen aus aller Welt, darunter Skulpturen, Kleidung und Kostüme, kostbare Porzellan- und Glasgefäße, Möbelstücke und Musikinstrumente. Unweit davon befinden sich das Science Museum "(Wissenschaftsmuseum)" und das Natural History Museum "(Naturhistorisches Museum)". Im "Science Museum" werden in den auf fünf Ebenen angeordneten Galerien Ausstellungen aus den Bereichen Astronomie, Meteorologie, Biochemie, Elektronik, Navigation, Luftfahrt und Fotografie gezeigt. Zu den Klassikern unter den Ausstellungsstücken zählen Teleskope von Galileo Galilei und ein Mikroskop von George Adams, die erste Dampflokomotive "Puffing Billy", das erste Telefon von Alexander Graham Bell, ein Rolls-Royce aus dem Jahre 1909, ein Flugapparat von Otto Lilienthal sowie die Kommandokapsel des Raumschiffs Apollo 10. Das "Natural History Museum" beinhaltet etwa 40 Millionen verschiedene Objekte aus der Flora und Fauna, darunter zahlreiche Dinosaurierskelette, Fossilien (unter ihnen ein Archaeopteryx), ein 30 Meter langes Skelett eines Blauwals oder das Modell des um 1690 ausgestorbenen Dodo-Vogels. Die National Gallery am Trafalgar Square besitzt eine reichhaltige Gemäldesammlung, die von den frühen Anfängen in Italien bis hin zu Werken von Cézanne und Seurat reicht. Nebenan befindet sich die National Portrait Gallery, in der über 9.000 Porträts ausgestellt sind. Im Jahre 1897 ist die Tate Gallery auf der Uferstraße zwischen Chelsea und Westminster eröffnet worden. Sie umfasst die größte Sammlung britischer Gemälde vom 16. Jahrhundert bis in die Gegenwart. Gegenüber der St Paul’s Cathedral ist im Juni 2000 die Tate Modern, ein Ableger der Tate Gallery, eröffnet worden. Moderne Kunst zeigt die Saatchi Gallery nahe dem Sloane Square. Sie wurde 1985 von Charles Saatchi eröffnet. Das Imperial War Museum "(Reichskriegsmuseum)" ist eines der bedeutendsten Kriegsmuseen weltweit. Es zeigt in erster Linie Exponate aus den beiden Weltkriegen, wie Kanonen und Fahrzeuge. Eine von vier Etagen widmet sich ausführlich dem Dritten Reich. Kleinere Abteilungen gelten einigen anderen Kriegen des 20. Jahrhunderts wie beispielsweise dem Vietnamkrieg und dem Falklandkrieg. Zusätzlich gibt es Wechselausstellungen. Madame Tussauds Wachsfigurenkabinett ist eine der größten Attraktionen der Hauptstadt. Ausgestellt werden lebensnah nachempfundene Wachsfiguren von historischen Gestalten und Personen der aktuellen Zeitgeschichte, wie Sportler, Filmstars, Modeschöpfer und Models. Einen Platz in der Ausstellung von Madame Tussauds zu erhalten, zählt heute zu den größten Ehren, die einem Menschen zuteilwerden kann. Die Gründerin des 1835 eröffneten Museums war Marie Tussaud (1761–1850). Direkt in der City liegt das Museum of London, dessen Ausstellungen die Entwicklung Londons von seinen Anfängen bis zum heutigen Tag zeigt. Weitere bekannte Museen und Ausstellungen sind die Cabinet War Rooms, das London Transport Museum, Somerset House und das Sherlock Holmes Museum in der 221B Baker Street. Seit 2001 ist der Eintritt in sämtliche staatlichen Museen und Galerien kostenlos. Davon ausgenommen ist Madame Tussauds, da es sich um eine private Ausstellung handelt. Auch in den Cabinet War Rooms wird Eintritt verlangt. Den CWR ist das Churchill-Museum angeschlossen, für dessen Besuch kein separater Eintritt verlangt wird. Straßen und Plätze. Der Trafalgar Square ist ein großer Platz im Zentrum der britischen Hauptstadt, als deren eigentliches Zentrum er vielen gilt. Er ist der größte Platz Londons und seit dem Mittelalter ein zentraler Treffpunkt. 2003 wurde er nach einem größeren Umbau wiedereröffnet. In der Mitte des Platzes steht ein Denkmal, das die Londoner als Dank für Admiral Nelsons Sieg der Briten über die Franzosen in der Schlacht von Trafalgar setzten. Die 1842 erbaute Nelson Column (deutsch: Nelsonsäule) mit dem Admiral auf der Spitze ist mit 55 Metern so hoch wie Nelsons Flaggschiff HMS Victory vom Kiel bis zur Mastspitze. Etwa zwei Drittel der Strecke von Trafalgar Square bis Parliament Square heißt "Whitehall", das restliche Drittel heißt "Parliament Street". Der Kenotaph, das wichtigste Kriegsdenkmal in Großbritannien, befindet sich in der Mitte der Straße und ist der Ort der jährlichen Gedenkfeiern am Remembrance Day. Der zentrale Teil der Straße wird von militärischen Gebäuden beherrscht, darunter das britische Verteidigungsministerium (englisch: "Ministry of Defence") und die früheren Hauptquartiere der "British Army" (heute "Horse Guards") und der Marine (englisch: "Royal Navy" oder "Admiralty"). Die Downing Street ist die berühmte Straße im Stadtzentrum, auf der sich seit mehr als zweihundert Jahren die offiziellen Amts- und Wohnsitze von zwei der wichtigsten britischen Regierungsmitglieder befinden – des Premierministers des Vereinigten Königreichs und des Schatzkanzlers. Die berühmteste Hausnummer in der Downing Street ist die Nr. 10. Hier befindet sich der offizielle Amts- und Wohnsitz des ersten Lords des Schatzamtes und somit des Premierministers, da beide Ämter von ein und derselben Person bekleidet werden. Die Downing Street ist eine Seitenstraße der Whitehall im Zentrum von London, nur wenige Schritte vom Parlamentsgebäude entfernt und läuft in Richtung des Buckingham Palace. Die Straße Piccadilly befindet sich in der Innenstadt und gehört zu den bekanntesten Straßen der Stadt. Sie erstreckt sich vom Piccadilly Circus im Nordosten bis zum Hyde Park Corner im Südwesten. Sehenswert ist das vor allem auf Lebensmittel spezialisierte Geschäft "Fortnum & Mason" aus dem Jahre 1707, das Hotel Ritz mit seiner neoklassizistischen Architektur von 1906 und die Royal Academy of Arts aus dem Jahre 1868 im "Burlington House". Der Piccadilly Circus ist vor allem durch seinen Eros-Brunnen und die riesige Leuchtreklamewand an einem gewundenen Eckhaus bekannt. Der Platz wurde 1819 erbaut, um die Regent Street mit der Einkaufsstraße Piccadilly zu verbinden. Aufgrund seiner zentralen Lage im Herzen des West Ends, seiner Nähe zu großen Einkaufs- und Vergnügungsmöglichkeiten sowie zu den großen Verkehrsadern, die sich hier kreuzen, ist er ein sehr stark besuchter Treffpunkt. Weltliche Bauwerke. Der White Tower, das Kerngebäude der Festung Am nördlichen Ufer der Themse befindet sich der Tower von London, ein im Mittelalter errichteter Komplex aus mehreren befestigten Gebäuden entlang des Flusses, der als Festung, Waffenkammer "(stronghouse)", königlicher Palast und Gefängnis, insbesondere für Gefangene der Oberklasse, diente. Außerdem waren dort die Münze, das Staatsarchiv, ein Waffenarsenal und ein Observatorium untergebracht. Bis zu Jakob I. wohnten alle englischen Könige und Königinnen zeitweise dort. Es war üblich, dass der Monarch vor dem Tag seiner Krönung im Tower übernachtete und dann in feierlichem Zug durch die Stadt nach Westminster ritt. Heute werden im Tower die britischen Kronjuwelen aufbewahrt, ferner eine reichhaltige Waffensammlung. 1078 ordnete Wilhelm der Eroberer an, den "White Tower" hier zu bauen. Er sollte die Normannen vor den Menschen der City of London, aber auch London überhaupt schützen. In den folgenden Jahrhunderten wurde die Festung ständig erweitert. Sie wird von einem breiten Wassergraben umgeben. Ein Außenwall schützt die inneren Gebäude. In der Mitte des Geländes steht der mächtige „Weiße Turm“. Von weitem wirkt er quadratisch, aber drei der Ecken bilden keine rechten Winkel und alle vier Seiten sind verschieden lang. Die UNESCO hat das Bauwerk 1988 zum Weltkulturerbe der Menschheit erklärt. Die Tower Bridge ist eine Straßenbrücke über die Themse. Sie verbindet die City of London auf der Nordseite mit dem Stadtteil Southwark im gleichnamigen Stadtbezirk (London Borough of Southwark) auf der Südseite. Es handelt sich hierbei um eine im neugotischen Stil errichtete Klappbrücke und um die am östlichsten gelegene Themsebrücke; darüber führt die Hauptstraße A100. Am Nordufer befinden sich der Tower of London (nach dem die Brücke benannt ist) und die St Katharine Docks, am Südufer die City Hall. Die Brücke ist im Besitz von Bridge House Estates, einer Wohlfahrtsorganisation der "City of London Corporation", die auch für den Unterhalt zuständig ist. Gelegentlich wird die Tower Bridge fälschlicherweise London Bridge genannt, diese jedoch ist die nächste Brücke stromaufwärts. Die Tower Bridge ist 244 Meter lang, die Höhe der beiden Brückentürme beträgt 65 Meter. Die Fahrbahn zwischen den 61 Meter voneinander entfernten Türmen liegt neun Meter über dem Fluss, die Fußgängerbrücke 43 Meter. Die beiden Basküle können bis zu einem Winkel von 83 Grad hochgeklappt werden, um größeren Schiffen die Durchfahrt zu ermöglichen. Fertiggestellt wurde die Tower Bridge im Jahre 1894. Bekanntester Turm in London ist der 98 Meter hohe Elizabeth Tower, in dem sich Big Ben befindet, die mit 13 Tonnen schwerste der fünf Glocken, welche den bekannten Westminsterschlag spielen. Der Uhrturm ist Teil des Palace of Westminster, einem monumentalen, im neugotischen Stil errichteten Gebäude, in dem das aus dem House of Commons und dem House of Lords bestehende britische Parlament tagt. Der Palast befindet sich in der City of Westminster am Parliament Square, in unmittelbarer Nähe zu Whitehall. Er wurde von der UNESCO 1987 zum Weltkulturerbe erklärt. Der älteste erhaltene Teil des Palastes ist die "Westminster Hall" aus dem Jahr 1097. Ursprünglich diente er als Residenz der englischen Könige, doch seit 1529 hat kein Monarch mehr hier gelebt. Vom ursprünglichen Gebäude ist nur wenig erhalten geblieben, da es im Jahr 1834 bei einem verheerenden Großbrand fast vollständig zerstört wurde. Der für den Wiederaufbau verantwortliche Architekt war Charles Barry. Die wichtigsten Räume des Palastes sind die Ratssäle des House of Commons und des House of Lords. Daneben gibt es rund 1.100 weitere Räume, darunter Sitzungszimmer, Bibliotheken, Lobbys, Speisesäle, Bars und Sporthallen. Der Begriff "Westminster" ist im britischen Sprachgebrauch oft gleichbedeutend für den Parlamentsbetrieb, ist also ein Metonym für Parlament. Der Buckingham Palace im Stadtbezirk City of Westminster ist die offizielle Residenz des britischen Monarchen in London. Neben seiner Funktion als Wohnung von Königin Elisabeth II. dient er auch als Austragungsort für offizielle Anlässe des Staates. So werden in ihm ausländische Staatsoberhäupter bei ihrem Besuch in Großbritannien empfangen. Daneben ist er ein wichtiger Anziehungspunkt für Touristen. Die ursprüngliche georgianische Inneneinrichtung beinhaltete auf Vorschlag von Sir Charles Long die großzügige Verwendung von Marmormalerei („Scagliola“) in leuchtenden Farben sowie blaue und rosafarbene Lapislazuli. Unter König Eduard VII. fand eine großangelegte Neuausstattung im Stil der Belle Époque statt. Dabei wurde ein Farbschema aus einer Kombination von Cremetönen und Gold verwendet. Viele der kleineren Empfangsräume sind im chinesischen Regency-Architekturstil gehalten. Sie wurden mit Möbelstücken und Dekorationen ausgestattet, die nach dem Tod König Georgs IV. aus dem Royal Pavilion in Brighton sowie aus Carlton House herbeigeschafft wurden. Der St James’s Palace befindet sich in der City of Westminster. Das Gebäude war bis 1837 die offizielle Londoner Residenz des jeweiligen britischen Monarchen. Er ist heute noch der offizielle Verwaltungssitz des königlichen Hofes. Hier werden die Botschafter Großbritanniens akkreditiert. Auch die Proklamation eines neuen Monarchen findet hier statt. Das Gebäude wurde in der Zeit von 1532 bis 1540 durch Heinrich VIII. errichtet. Heute wird der Palast vom Prince of Wales und anderen Verwandten der Königin bewohnt. Der frühere Sitz der britischen Königinmutter, Clarence House, liegt innerhalb der Palastmauern. Das Anwesen wird nur durch den St. James’s Park vom Buckingham Palace getrennt. Ein interessantes Schauspiel ist die Wachablösung am Palast. In den Sommermonaten April bis Juli findet diese täglich, ansonsten alle zwei Tage statt. Hampton Court Palace ist ein Schloss im Stadtbezirk Richmond upon Thames, unmittelbar neben dem Bushy Park. Gebäude und Parkanlagen wurden unter den verschiedenen Bewohnern verändert und erweitert, sodass heute Architekturelemente des Tudorstils und des englischen Barock erhalten sind. Das Schloss war Wohnsitz zahlreicher britischer Könige und Königinnen. Seit der Regierungszeit Georg III. bewohnen britische Monarchen andere Londoner Schlösser und Königin Viktoria öffnete 1838 den Palast für die Öffentlichkeit. Teilbereiche des Palastes wurden an verdiente Veteranen vermietet. 1986 brach in solch einer Wohnung ein Feuer aus, das den Palast teilweise zerstörte. Die Wiederaufbaumaßnahmen dauerten bis 1995 an. Der Kensington Palace liegt im Stadtbezirk Kensington and Chelsea. Das von Sir Christopher Wren umgestaltete Schloss war früher ein privater Landbesitz und wurde im Jahre 1689 von Mary II. und Wilhelm III. ausgebaut, um im Winter nicht die Feuchtigkeit der Whitehall ertragen zu müssen. In den nächsten 70 Jahren wurde der Palast immer wichtiger für das gesellschaftliche und politische Leben des Landes. Zu Lebenszeiten von George I. und George II. wurde das Anwesen verschwenderisch mit Prunkgemächern ausgestattet und erhielt eine herausragende Möbel- und Gemäldesammlung. Besonders bekannt sind vor allem die aufwendigen Deckenverzierungen von William Kent. Nachdem George II. im Jahre 1760 plötzlich starb, verlor das Gebäude immer mehr an Bedeutung. Bis heute lebte nie wieder ein regierender Monarch hier. Allerdings werden Teile des Palastes von Mitgliedern der Königsfamilie bewohnt. Seit der Jahrtausendwende erlebt London im Bereich der Wolkenkratzer einen Bauboom, der sich unter anderem in dem 310 Meter hohen The Shard, dem 288 Meter hohen Pinnacle und rund dreißig weiteren Wolkenkratzern mit einer Höhe von mehr als 150 Metern zeigt. "The Shard" war von Juli bis Oktober 2012 das höchste Gebäude Europas. Östlich des Stadtzentrums befinden sich beidseits der Themse die Docklands, zu denen auch Canary Wharf mit dem One Canada Square gehört. Mit einer Höhe von 236 Metern und 50 Stockwerken ist es nach "The Shard" das zweithöchste bewohnbare Gebäude in Großbritannien. (Der Fernsehturm Emley Moor, das höchste freistehende Bauwerk Großbritanniens bei Huddersfield, ist 330 Meter hoch.) Das Gebäude wird flankiert von zwei weiteren Wolkenkratzern, die zehn Jahre später entstanden sind und beide 200 Meter hoch sind: HSBC Tower (8 Canada Square) und Citigroup Centre (25 Canada Square). Weitere Wolkenkratzer befinden sich im Zentrum Londons, darunter der Tower 42 und 30 St Mary Axe. Das London Eye bei Nacht mit weihnachtlicher Beleuchtung Am Südufer der Themse, nahe der Westminster Bridge, steht das Riesenrad London Eye. Die Anlage, die mit einer Höhe von 135,36 Metern bis Anfang 2006 das höchste Riesenrad der Welt war, sollte bereits zum Jahreswechsel 2000 fertiggestellt werden. Aufgrund von Sicherheitsmängeln ist die Konstruktion aber erst einige Wochen später in Betrieb genommen worden. Das London Eye besitzt 32 fast vollständig aus Glas geformte Kapseln, in denen jeweils bis zu 25 Personen Platz finden. Das Rad dreht sich mit einer Geschwindigkeit von 0,26 m/s und braucht für eine Umdrehung 30 Minuten. Sind die Sichtverhältnisse optimal, kann man vom Riesenrad aus bis zu 40 Kilometer weit sehen, unter anderem bis zum etwas außerhalb der Stadt gelegenen Schloss Windsor. Drehachse und Stützen des Riesenrads wurden von der tschechischen Maschinenbaufirma Škoda geliefert. Die Battersea Power Station ist ein Kohlekraftwerk im Stadtteil Wandsworth, das von 1933 bis 1983 in Betrieb war. Das markante und zugleich umstrittene Wahrzeichen Londons ist eines der größten Ziegelgebäude Europas und befindet sich am Südufer der Themse in der Nähe der Grosvenor Bridge. Die Battersea Power Station ist auf Musikalben zahlreicher britischer Pop- und Rockbands abgebildet. Am bekanntesten ist die Abbildung auf dem Cover des 1977 erschienenen Albums "Animals" von Pink Floyd, das das Elektrizitätswerk mit einem großen Plastikschwein zwischen den Kaminen schwebend zeigt. Weitere Beispiele sind das Album "Quadrophenia" von The Who (1973), "Adventures Beyond The Ultraworld" von The Orb, "Live Frogs: Set 2" von Les Claypool’s Frog Brigade (eine Coverversion von "Animals") und "Power Ballads" von London Electricity. Die Thames Barrier auf der Themse im Stadtteil Woolwich ist das größte bewegliche Flutschutzwehr der Welt. Die Planungen für das Bauwerk begannen nach einer schweren Sturmflut im Jahre 1953, bei der 307 Menschen ums Leben kamen. 1974 wurde mit dem Bau begonnen. Die Einweihung erfolgte am 8. Mai 1984 durch Königin Elisabeth II. Das Sperrwerk besteht aus zehn schwenkbaren Toren. Um den Schiffsverkehr nicht zu behindern, sind sie im offenen Zustand auf den Boden der Themse abgesenkt. Schiffe mit bis zu 16 Metern Tiefgang können dann problemlos das Sperrwerk passieren. Die vier mittleren Tore, durch die der Schiffsverkehr läuft, sind je 60 Meter breit, 10,5 Meter hoch und wiegen je 1.500 Tonnen. Das gesamte Bauwerk hat eine Länge von 523 Metern. Droht eine Sturmflut, können die Tore innerhalb von 15 Minuten geschlossen werden. Sakrale Bauwerke. In der City of London, etwa 300 Meter nördlich der Themse, steht die von Christopher Wren entworfene St Paul’s Cathedral, die Hauptkirche der Anglikanischen Kirche in London. Die Schnitzarbeiten des Chorgestühls stammen von Grinling Gibbons, die Schmiedeeisernen Chorschranken von Jean Tijou. Erst 1890 wurden die Glasmosaiken an der Decke über dem Chor von William Richmond fertiggestellt. Der Hochaltar, nach Plänen Wrens gebaut, ist das Werk von Dykes Bower und Godfrey Allan, die ihn 1958 vollendeten. Die Kathedrale hat eine kreuzförmige Grundfläche, die in Ost-West-Richtung ausgerichtet ist. In der Mitte dieses Kreuzes befindet sich eine Kuppel, auf der sich eine 750 Tonnen schwere Laterne befindet, die in 111 Meter Höhe endet. Um diese gewaltige Last abzuleiten, befindet sich zwischen der äußeren und der inneren Kuppel ein konischer Steinaufbau, der auf den massigen Vierungspfeilern ruht. An der Kuppelbasis in etwa 30 Meter Höhe befindet sich in der Kirche ein ringförmiger Umgang mit einem Durchmesser von 34 Meter, die sogenannte "Whispering Gallery", die Flüstergalerie. Der Schall wird hier durch die gebogenen Wände immer wieder zurück in das Innere des Rings reflektiert, sodass ein geflüstertes Wort auf die andere Seite der Kuppel getragen werden kann. Sie ist 365 Fuß hoch, einen Fuß für jeden Tag im Jahr. Steigt man bis zur Spitze hinauf, so gelangt man auf die Golden Gallery, mit der Möglichkeit einer Aussicht über London. Unter der Kirche befindet sich eine weitläufige Krypta, in der zahlreiche bedeutende Persönlichkeiten der britischen Geschichte beigesetzt sind. Die St Margaret’s Church ist eine anglikanische Kirche. Sie befindet sich im Stadtteil City of Westminster am Parliament Square, unmittelbar neben der Westminster Abbey und gegenüber dem Palace of Westminster. Es ist die Pfarreikirche des britischen Parlaments. Sehenswert ist das östliche Fenster mit flämischer Glasmalerei aus dem Jahr 1509, angefertigt in Erinnerung an die Verlobung von Arthur Tudor, dem älteren Bruder von Heinrich VIII., mit Katharina von Aragon. Andere Glasfenster erinnern an William Caxton, den ersten englischen Buchdrucker, Sir Walter Raleigh, der hier 1618 begraben wurde, und an den Poeten John Milton, ein Mitglied der Kirchgemeinde. Zu den Personen, die in der Kirche ihre letzte Ruhestätte fanden, gehört der böhmische Kupferstecher Wenzel Hollar. Zahlreiche Berühmtheiten wurden in St Margaret’s getraut, darunter Samuel Pepys und seine Frau sowie Winston Churchill und Clementine Hozier. Die Kirche wurde 1987 von der UNESCO zum Weltkulturerbe erklärt. Haupteingang der Westminster Abbey, im Hintergrund rechts der Victoria Tower Westminster Abbey ist eine Kirche im Stadtteil City of Westminster. Traditionell werden hier die Könige von England gekrönt und beigesetzt. Die Stiftskirche des Kollegiatstifts "St. Peter, Westminster" gehört zur Kirche von England, ist aber aufgrund ihrer Funktion keiner Diözese zugehörig, sondern Eigenkirche (royal peculia) der britischen Monarchie. Der Haupteingang befindet sich an der Westseite. Das Portal wird von Darstellungen der vier christlichen Tugenden Wahrheit, Gerechtigkeit, Barmherzigkeit, Friede sowie von Märtyrern des 20. Jahrhunderts gerahmt. Im Mittelschiff liegt das Grab des Unbekannten Soldaten. In Erde von den belgischen Schlachtfeldern ruht dort ein unbekannter Soldat des Ersten Weltkriegs „inmitten der Könige, weil er seinem Gott und Vaterland gut diente“, wie eine Inschrift auf schwarzem Marmor verkündet. Den Gefallenen beider Weltkriege wird auch in der St.-Georgs-Kapelle gedacht. Im linken (nördlichen) Querschiff sind zahlreiche berühmte britische Staatsmänner bestattet, unter anderem William Pitt, Palmerston, Benjamin Disraeli und William Gladstone. Vom nördlichen Teil des Querschiffs betritt man die hinter dem Hochaltar gelegene „Kapelle Eduards des Bekenners“. In der Mitte befindet sich der Sarg des 1066 gestorbenen Königs. Dahinter steht der Krönungsstuhl, in dem sich bis 1996 der Stein von Scone befand. Auf diesem Stein wurden jahrhundertelang die schottischen Könige gekrönt, bis ihn Eduard I. im Jahr 1297 den Schotten abnahm. Zu Weihnachten 1950 wurde der Stein gestohlen und erst nach langem Suchen wiedergefunden. 1996 wurde er offiziell an Schottland zurückgegeben und befindet sich seitdem im Schloss von Edinburgh. Der Stein gilt als ein Symbol für die Einheit der Königreiche England und Schottland. In dieser Kapelle befinden sich außerdem die Särge von Heinrich III., Eduard I., Eduard III., Richard II. und Heinrich V. Die UNESCO erklärte die Kirche 1987 zum Weltkulturerbe. Die Westminster Cathedral ist die katholische Hauptkirche von Wales und England. Sie befindet sich in der City of Westminster. Erzbischof Nicholas Wiseman (1802–1865) begann mit den Spendensammlungen für die neue Kathedrale. Er war der erste römisch-katholische Kardinal und Erzbischof in England nach der Reformation. Doch erst im Jahre 1895 konnte mit dem Bau begonnen werden. Eröffnet wurde die Kathedrale im Jahre 1903. Man entschied sich beim Bau für den byzantinischen Stil. Von außen besticht das Gebäude durch die aufwendig gestaltete Backsteinfassade, die hohe Kuppel und nicht zuletzt durch den für diese Breiten völlig untypischen freistehenden Glockenturm. Im Inneren überrascht sie durch die Raumwirkung und vor allem durch die Mosaiken an Decken und Wänden, die ständig vervollständigt werden. In der Holy Souls Chapel im Seitenschiff wurden mehr als 100 verschiedene Marmorsorten verarbeitet. Der Neasden Temple (Shri Swaminarayan Mandir) im Stadtbezirk Brent ist nach dem Tempel in Tividale (West Midlands) der größte Hindu-Tempel außerhalb Indiens. Errichtet wurde er in den 1990er-Jahren von einer hinduistischen Sekte, der Swaminarayan-Mission aus Ahmedabad (Indien). Die Kuppeln und Türmchen bestehen aus Carrara-Marmor und bulgarischem Kalkstein; innen sind die Altäre mit Blumenschmuck hinduistischer Götter (Murtis) ausgestattet. Jeder der 26.300 bearbeiteten Steine besitzt ein anderes Motiv. Innerhalb von drei Jahren wurde das Bauwerk zusammengefügt und am 20. August 1995 eröffnet. In der Konstruktion ist auf Eisenträger verzichtet worden, da Stahl nach hinduistischem Verständnis Magnetwellen abstrahle, die die Meditationsruhe stören. Der Tempel beherbergt die ständige Ausstellung „Understanding Hinduism“ (Begreifen des Hinduismus) und ein Kulturzentrum. Die Aziziye-Moschee im Stadtteil Stoke Newington wird hauptsächlich von der türkischen Gemeinde in Anspruch genommen. Parks. Greenwich Park, im Hintergrund Canary Wharf London besitzt eine große Anzahl von luxuriösen Grünanlagen. Über 200 Parkanlagen breiten sich auf rund 220 Quadratkilometern aus. Die Royal Parks waren einst den englischen beziehungsweise britischen Monarchen vorbehalten und wurden zu Beginn des 19. Jahrhunderts in öffentlich zugängliche Parkanlagen umgewandelt. Greenwich Park ist einer dieser königlichen Parks in London. Er liegt im Stadtbezirk Greenwich im Südosten von London. 1997 wurden der Greenwich Park und die dazugehörigen Gebäude von der UNESCO zum Weltkulturerbe der Menschheit erklärt. Am Nordrand des 73 Hektar großen Geländes befinden sich das National Maritime Museum und das Queen’s House, ein ehemaliger königlicher Palast. Auf einem Hügel in der Mitte des Parks befindet sich das Royal Greenwich Observatory. Der kleine Platz vor dem Observatorium wird durch eine Statue von General James Wolfe geschmückt. Der Hyde Park mit der Marble Arch und dem Speakers’ Corner, der an die Kensington Gardens angrenzt, ist lange Zeit als die „Lunge Londons” bezeichnet worden. Von eleganten Wohngebäuden umgeben, die für den Prinzregenten entworfen wurden, ist der Regent’s Park im Norden des West Ends. Dieser Park beinhaltet auch den zoologischen Garten (London Zoo). Mitten im Stadtzentrum befinden sich der Green Park und der St. James’s Park. Die Royal Botanic Gardens "(Kew Gardens)" sind eine ausgedehnte Parkanlage mit bedeutenden Gewächshäusern. Sie sind zwischen Richmond upon Thames und Kew im Südwesten Londons gelegen und zählen zu den ältesten botanischen Gärten der Welt. Es sind dort Pflanzen und Gewächse zu sehen, die nirgendwo sonst in Europa oder gar auf der nördlichen Halbkugel anzutreffen sind. Neben den weltbekannten viktorianischen Gewächshäusern finden sich in Kew Gardens auch großflächige Parkanlagen mit sehr alten Rhododendrongewächsen. Am 3. Juli 2003 wurden die Royal Botanic Gardens von der UNESCO in die Liste des Weltkulturerbes aufgenommen. Richmond Park ist mit einer Fläche von zehn Quadratkilometern der größte der königlichen Parks. Er liegt in den Stadtbezirken Richmond upon Thames und Kingston upon Thames im Südwesten von London. Ursprünglich war Richmond Park das Hirschjagdgebiet von König Edward I., heute ist er der größte ummauerte Park Europas in einem städtischen Gebiet. Hauptattraktionen sind eine Herde mit 650 Wapitis und Damhirschen, die freien Auslauf haben, sowie die "Isabella Plantation", ein Gebiet mit zahlreichen seltenen Pflanzenarten. Im Januar 2001 ist der Thames Barrier Park fertiggestellt worden; die Anlage entstand bei den Stauwerken der Themse (Thames Barrier) auf alten Dockanlagen. In den äußeren Stadtbezirken von London befinden sich noch einige weitere ausgedehnte Grünflächen, wie Bushy Park und Hampstead Heath. Sport. Tower Bridge mit Olympischen Ringen In London gibt es 13 professionelle Fußballclubs; die meisten sind nach dem Stadtteil benannt, in dem sie ihre Heimspiele austragen. In der Premier League sind in der 2016 Arsenal, Chelsea, Crystal Palace, Tottenham Hotspur und West Ham United vertreten. In der Football League Championship, der zweithöchsten Spielklasse, spielen Brentford, Charlton Athletic, Fulham und Queens Park Rangers. In London gibt es sechs professionelle Rugby-Union-Vereine, davon spielen fünf in der höchsten Liga, der English Premiership: Wasps, Saracens, Harlequins, London Irish und die 2014 aufgestiegenen London Welsh. Die London Scottish spielen in der 2. Liga, der RFU Championship. Der Rugby-League-Verein London Broncos spielt in der Super League. In Wembley, einem Teil des Stadtbezirks Brent, befand sich das legendäre Wembley-Stadion. Dort fanden die Endspiele der Fußball-Weltmeisterschaft 1966 und der Fußball-Europameisterschaft 1996 statt. Es wurde mit der offiziellen Eröffnung im Jahr 2007 durch einen Neubau ersetzt. Das Stadion ist jährlich Austragungsort des Finales im FA Cup, dem größten rundenbasierten Pokalwettbewerb im englischen Fußball. Die Rugby League veranstaltet seit 1929 ihr Challenge Cup Finale im Stadion. Außer für besondere Ereignisse war Wembley auch für regelmäßige Veranstaltungen Austragungsort, wie zum Beispiel Windhundrennen oder Motorradrennen. Auch die Wrestling-Liga WWF (heute WWE) veranstaltete 1992 den Summerslam-Event im Wembley-Stadion. Eine Attraktion ist das Boat Race zwischen den beiden renommiertesten englischen Universitäten, Oxford und Cambridge. Das berühmte Ruderrennen ihrer beiden Achter findet jährlich im März oder April auf der Themse statt. Sehr beliebt in London ist Cricket. Die Mannschaft des "Middlesex County Cricket Club" spielt in Lord’s, dem berühmtesten Cricketstadion der Welt, welches dem Marylebone Cricket Club gehört, die Mannschaft des Surrey County Cricket Club im Stadion The Oval. In Wimbledon findet jeweils im Juni das wichtigste der Grand-Slam-Tennisturniere statt. Im Twickenham Stadium finden nationale und internationale Rugby-Spiele statt. Im April wird jeweils der London-Marathon durchgeführt, einer der beliebtesten Marathonläufe der Welt überhaupt. Der Start der Tour de France 2007 fand im Juli in London statt. Mit der Vergabe der Olympischen Spiele 2012 an die britische Hauptstadt war London die erste Stadt, welche zum dritten Mal – nach 1908 und 1948 – die Spiele ausrichtete. Regelmäßige Veranstaltungen. Londons Chinatown, festlich dekoriert für das chinesische Neujahrsfest Am 1. Januar findet die Neujahrsparade vom Parliament Square bis zum Berkeley Square statt. Das chinesische Neujahrsfest in Chinatown im Stadtteil Soho findet am zweiten Neumond nach der Wintersonnenwende, also zwischen dem 21. Januar und 21. Februar statt. Da der chinesische Kalender im Gegensatz zum gregorianischen Kalender astronomisch definiert ist, fällt das chinesische Neujahr jedes Jahr auf einen anderen Tag. Mit einer Kranzniederlegung vor dem Banqueting House und einer Prozession ab St James’s Palace wird Ende Januar an die Hinrichtung König Karls I. am 30. Januar 1649 erinnert (Commemoration of King Charles I.). Die Wachablösung (Changing of the Guard) der Queen’s Guard am Buckingham Palace gehört zu den ältesten und bekanntesten Zeremonien und findet an fast allen Tagen des Jahres statt. Die Ablösung wird durch Militärkapellen begleitet, die traditionelle Märsche, Stücke beliebter Theatershows des West Ends und bekannte Popsongs spielen. Bei der angeblich 700 Jahre alten Schlüsselzeremonie (Ceremony of the Keys) werden die Haupttore des Tower of London jeden Abend vom Hauptwärter des Towers (Chief Yeoman Warder), eskortiert von Gardisten, verschlossen. Salutschüsse werden am 6. Februar (Tag der Thronbesteigung), am 21. April (Geburtstag der Königin), am 2. Juni (Tag der Krönung) und am 10. Juni (Geburtstag des Duke of Edinburgh) abgefeuert. Fallen die Termine auf einen Sonntag, werden die Salutschüsse am folgenden Tag abgefeuert. Um 12 Uhr werden 41 Schüsse von der King’s Troop der Royal Horse Artillery im Hyde Park abgegeben und um 13 Uhr feuert die Ehrenartilleriekompanie (Honourable Artillery Company) 62 Schüsse beim Tower of London ab. Salutschüsse werden auch bei der Fahnenparade und der Parlamentseröffnung abgegeben. Die "Shakespeare’s Birthday Celebrations" finden anlässlich von Shakespeares Geburtstag am 23. April jedes Jahr an dem Sonnabend, der diesem Tag am nächsten liegt, im Shakespeare’s Globe Theatre statt. Ein klassisches Musikfestival ist das "Hampton Court Palace Music Festival" Anfang bis Mitte Juni im Hampton Court Palace. Das "City of London Festival" wird mit Musik, Theater und Tanz von Ende Juni bis Mitte Juli an verschiedenen Orten veranstaltet. Promenadenkonzerte "(The BBC Proms)" gibt es von Juli bis September in der Royal Albert Hall. Der Notting Hill Carnival, Europas größter Straßenkarneval mit karibischem Flair, findet Ende August in Notting Hill statt. Im September gibt es beim "Thames Festival" Kunst, Sport und zahlreiche Veranstaltungen auf dem Fluss zwischen der Waterloo- und der Blackfriars-Brücke. Jährlich am ersten Sonntag im Oktober findet in der Kirche St Martin-in-the-Fields der Erntedankgottesdienst "(Pearly Harvest Festival Service)" der Londoner Markthändler (Cockney Pearly Kings and Queens) statt. Die "Trafalgar Day Parade" anlässlich Admiral Horatio Nelsons Sieg in der Seeschlacht von Trafalgar kann man sich am 21. Oktober auf dem Trafalgar Square ansehen. Die "Bonfire Night" ist ein Feuerwerk zum Gedenken an die Aufdeckung der Schießpulververschwörung (Gunpowder Plot) gegen das englische Parlament und die Verhaftung ihres Anführers Guy Fawkes am 5. November 1605. Sie findet Sonnabendnacht um den 5. November in fast allen Teilen Londons statt. Einkaufen. In der britischen Hauptstadt gibt es mehr als 30.000 Geschäfte. Eine Besonderheit der Stadt ist, dass sich in einigen Vierteln bestimmte Branchen konzentrieren. So befinden sich in der King′s Road zahlreiche Modegeschäfte, in der Old und New Bond Street viele Designerläden und Galerien. Saville Row und Jermyn Street sind für seine Maßschneidereien bekannt, Oxford und Regent Street für seine Bekleidungsgeschäfte und großen Kaufhäuser wie beispielsweise "Hamleys" oder "Selfridges". "HMV" ist der einzig verbliebene CD-/Vinyl-Megastore über drei Etagen an der Oxford Street. In der Tottenham Court Road konzentrieren sich überwiegend Elektronik- und Computergeschäfte. Die Charing Cross Road ist bekannt für ihre Buchläden. "Waterstones", einer der größten Buchläden der Welt, befindet sich am Piccadilly Circus. Zahlreiche Kleidungs- und Schuhgeschäfte sind in der Neal Street zu finden. Covent Garden beheimatet viele Spezialgeschäfte, Cafés und Stände, an denen Kunsthandwerk verkauft wird. Große Einkaufspassagen sind der Leadenhall Market, die Burlington Arcade und die Piccadilly Arcade. Harrods ist eines der bekanntesten Kaufhäuser der Stadt. Das Gebäude befindet sich an der Brompton Road im Stadtbezirk Knightsbridge im Südwesten der Innenstadt. Berühmt ist die im Erdgeschoss liegende Lebensmittelabteilung, mit ihren sogenannten „Food Halls“ und deren unterschiedlichen Ausstattungen im Jugendstil. Sehenswert ist die Beleuchtung der Fassade, die aus rund 100.000 Glühlampen besteht. Am 30. Oktober 2008 eröffnete Europas größtes innerstädtisches Einkaufszentrum Westfield im Stadtteil Shepherd′s Bush. Seit 2011 ist Westfield Stratford direkt am Olympiapark Europas größtes Einkaufszentrum. Beim Besuch der Märkte Londons kann man die örtliche Kultur kennenlernen. Erwähnenswert sind der Wochenendmarkt in der Chalk Farm Road bei Camden Lock und der Antiquitäten- und Flohmarkt in der Portobello Road. Die Sonntagsmärkte in der Petticoat Lane und Brick Lane im East End bieten fast alles vom Obst und Gemüse bis zu Antiquitäten und Schmuck. Ein Blumenmarkt ist in der Columbia Road zu finden, Märkte für Antiquitäten und Kunsthandwerk befinden sich in Spitalfields und in der Camden Passage in Islington. Der Brixton Market an der Electric Avenue bietet eine große Auswahl an karibischem Essen. Wirtschaft. Tower 42 und 30 St Mary Axe In London haben die produzierenden Industriezweige seit vielen Jahren an Bedeutung verloren. Gegenwärtig sind lediglich noch zehn Prozent der Arbeitnehmer in diesem Sektor beschäftigt. Die Druck- und Verlagsindustrie schreibt noch die besten Umsatzzahlen. Sie stellt ein Viertel der genannten Arbeitsplätze und hat einen Anteil von einem Drittel an der gesamten Produktion in London. Die High-Tech-Industrie, die auf elektronische und pharmazeutische Erzeugnisse spezialisiert ist, arbeitet erfolgreich mit hohen Umsätzen. Viele der Industriebetriebe, die sich überwiegend in den äußeren Stadtbezirken befinden, tendieren dazu, sich völlig aus London zurückzuziehen. Im Sektor der Leichtindustrie sind Bekleidungswerke und Brauereien vertreten. Über den Hafen von London werden heute nur noch zehn Prozent des Binnen- und Außenhandels Großbritanniens abgewickelt. Seit 1971 ist die wirtschaftliche Wachstumsrate der Stadt mit 1,4 Prozent geringer als die des gesamten Landes in einer Höhe von 1,9 Prozent. Trotzdem weist London eine positive Handelsbilanz auf, was überwiegend auf den Dienstleistungssektor – insbesondere die Bereiche Finanzdienstleistungen und Tourismus – zurückzuführen ist. Jährlich besuchen etwa 16 Millionen Touristen die Stadt. Die Hauptstadt besaß 2004 einen Anteil von 19 Prozent am nationalen Bruttoinlandsprodukt (BIP). Der Anteil der Metropolregion am britischen BIP lag 1999 bei 30 Prozent. Mehr als die Hälfte der 100 größten Konzerne des Landes und über 100 der 500 größten Unternehmen in Europa haben ihren Hauptsitz in London. Die Stadt ist zudem weiterhin der größte der drei globalen Finanzplätze. Die Internationale Börse des Vereinigten Königreichs und der Republik Irland befindet sich in der City of London. Die Aufhebung der Regulierungen, bekannt unter dem Begriff "Big Bang", ermöglichte 1986 den Einstieg in die moderne Welt des elektronischen Finanzwesens. Die Warenbörse London Metal Exchange ist die bedeutendste der Welt, die Wertpapierbörse London Stock Exchange belegt weltweit den dritten Platz hinter der New York Stock Exchange und der Tokioter Börse. Die ICE Futures (früher „International Petroleum Exchange“, IPE) ist Handelsplattform für die in Europa führende Ölsorte Brent. Sie ist die größte Terminbörse für Optionen und Futures auf Erdöl, Erdgas und Elektrizität in Europa. Der London Bullion Market ist der wichtigste außerbörsliche Handelsplatz für Gold und Silber. Hier wird seit 1919 der Weltmarktpreis für Gold und seit 1897 der Weltmarktpreis für Silber festgestellt. Die Preisbildung für die Edelmetalle Platin und Palladium findet am London Platinum and Palladium Market (LPPM) statt. Der LPPM stellt wie der London Bullion Market die Ausnahme unter den Rohstoffmärkten dar: er ist keine Börse, sondern ein OTC-Markt. Einige der wichtigsten Banken des Landes, wie beispielsweise die Bank of England, Barclays, die Barings Bank und HSBC, haben ihren Sitz in der Hauptstadt. Mehrere Hundert internationale Banken besitzen Filialen in London. Ein anderer Dienstleistungsbereich sind die Versicherungen, denen die Stadt seit über 300 Jahren ihren Wohlstand verdankt. Lloyd’s of London ist die bekannteste Institution, nicht als Versicherungsgesellschaft im eigentlichen Sinn, sondern als eine Börse für Versicherungsverträge. Es ist eine Gemeinschaft von Versicherern, die fast jede Art von Versicherungen auf dem internationalen Markt übernimmt. Eine Besonderheit der Londoner Stromversorgung stellte der Einsatz der HGÜ Kingsnorth, der bis heute einzigen innerstädtischen Anlage zur Hochspannungs-Gleichstrom-Übertragung dar. Diese 1975 in Betrieb genommene Anlage muss sich offenbar nicht sehr bewährt haben und wurde inzwischen stillgelegt. Für die Wasserversorgung der Stadt ist das privatisierte Unternehmen Thames Water zuständig. London verfügt über ein rund 150 Jahre altes Wasserleitungsnetz, in welches von jeher nur spärlich investiert wurde. Rund 30 Prozent des Leitungswassers versickern täglich im Londoner Untergrund. Rundfunk und Fernsehen. London ist Hauptsitz bedeutender Rundfunk- und Fernsehanstalten wie (BBC, ITV, Channel 4, Five und Sky). Im Bush House zwischen Aldwych und Strand waren bis zum Jahr 2012 der BBC World Service und die Abteilung Neue Medien des BBCi beheimatet. Die BBC wurde am 18. Oktober 1922 in London als unabhängiger Radiosender gegründet. Die erste Ausstrahlung eines Programms fand am 14. November 1922 aus einem Londoner Studio statt. Die BBC betreibt mehrere Rundfunk- und Fernsehsender. Printmedien. Alle wichtigen Tages- und Wochenzeitungen des Landes haben ihren Sitz in London. Die Fleet Street war seit dem 18. Jahrhundert traditionell die Heimat der britischen Presse. Die Boulevardzeitungen "The Sun", "Daily Express", "Daily Mail" (konservativ) und "Daily Mirror" (Labour nahestehend) und ihre sonntäglich erscheinenden Schwesterzeitungen sind überwiegend die größten Zeitungen der Stadt und erreichen teilweise Auflagen in Millionenhöhe. Der Daily Telegraph ist eine 1855 gegründete konservative Tageszeitung. Die Auflage beträgt 905.000 Exemplare (Stand 2005). Die Zeitung fällt häufig durch eine äußerst EU-kritische Berichterstattung auf. Schwesterzeitung ist das Wochenblatt "The Sunday Telegraph". Ein weiterer Titel der Gruppe ist das Magazin "The Spectator". The Times ist eine konservative Tageszeitung mit einer Auflage von 693.000 Exemplaren. Außerhalb Großbritanniens wird sie manchmal als "The London Times" oder "The Times of London" bezeichnet, um sie von vielen anderen Zeitungen mit dem Namen "Times" zu unterscheiden. "The Times" wurde im Jahre 1785 als "The Daily Universal Register" gegründet. The Guardian ist eine 1821 gegründete Tageszeitung mit einer Auflage von 380.000 Exemplaren. Sie wird zusammen mit dem "Daily Telegraph" und "The Times" zu den seriösen und angesehenen Zeitungen in Großbritannien gezählt – den „Quality Papers“ –, in Abgrenzung zu den Boulevardblättern, den „Tabloids“. Ihre politische Gesamtausrichtung lässt sich als linksliberal beschreiben. Mit dem "Observer" erscheint im gleichen Verlagshaus auch eine bedeutende Sonntagszeitung, die die Ausrichtung ihrer Schwesterzeitung teilt. The Independent ist eine der vier großen seriösen Tageszeitungen Großbritanniens. Die Sonntagsausgabe erscheint unter dem Namen "The Independent on Sunday". Er ist ebenso wie "The Guardian" eher dem linken Meinungsspektrum zuzuordnen. "The Independent" wurde 1986 gegründet und hat eine Auflage von 260.000 Exemplaren. Die "Financial Times" ist eine der wichtigsten Wirtschaftszeitungen der Welt, von der bis zum 7. Dezember 2012 auch eine deutsche Ausgabe erschien. Nachrichtenagenturen. Mit Reuters hat eine der weltweit größten Nachrichtenagenturen ihren Sitz in der Hauptstadt. Das Unternehmen wurde von Paul Julius Reuter zunächst 1850 in Aachen gegründet, dort übermittelte er per Brieftauben Aktiendaten zwischen Aachen und Brüssel. Als zwischen den beiden Städten eine Telegrafenverbindung eingerichtet wurde, stellte Reuters den „Flug-Dienst“ ein. Nach seiner Emigration nach London gründete er erneut ein Unternehmen um über das Seekabel zwischen Dover und Calais Börsenkurse nach Paris zu übermitteln. Heute erwirtschaftet das Unternehmen 90 Prozent seines Umsatzes mit Börsen- und Wirtschaftsinformationen. Verkehrswesen. London ist Dreh- und Angelpunkt des Straßen-, Schienen- und Luftverkehrs im Vereinigten Königreich. Das Verkehrswesen fällt in die direkte Zuständigkeit des Mayor of London, des Oberbürgermeisters, der die betrieblichen Belange an die Verkehrsgesellschaft Transport for London (TfL) delegiert. TfL ist für den größten Teil des öffentlichen Personennahverkehrs zuständig. Dazu gehören U-Bahn, Busse, Straßenbahnen und Stadtbahnen, nicht jedoch der Eisenbahnvorortsverkehr und der Flugverkehr. Darüber hinaus reglementiert TfL das Taxiwesen und ist für den Unterhalt der wichtigsten Hauptstraßen verantwortlich. Schienenverkehr. "Siehe auch:" Eisenbahnknoten London Herzstück des öffentlichen Personennahverkehrs ist die London Underground, die älteste U-Bahn der Welt, deren erstes Teilstück im Jahr 1863 eröffnet wurde. Die U-Bahn wird jährlich von mehr als einer Milliarde Fahrgästen genutzt. Sie erschließt die Innenstadt und die meisten Vororte nördlich der Themse. Der Süden der Stadt wird hingegen hauptsächlich von einem engmaschigen Netz von Vorortseisenbahnlinien erschlossen. Die fahrerlose Stadtbahn Docklands Light Railway erschließt das ehemalige Hafengelände der Docklands im Osten der Stadt und hat maßgeblich zur Regenerierung dieses Stadtteils beigetragen. Im südlichen Stadtteil Croydon fährt die Straßenbahn Tramlink. Von wenigen Ausnahmen abgesehen durchqueren Vororts- und Intercity-Schnellzüge nicht das Stadtgebiet, sondern verkehren zu und ab 14 Hauptbahnhöfen, die rund um die Innenstadt verteilt sind. Die Eurostar-Züge verbinden London durch den Eurotunnel mit Paris und Brüssel. Straßenverkehr. Während im Stadtzentrum die meisten Fahrten mit öffentlichen Verkehrsmitteln erfolgen, wird der Verkehr in den äußeren Stadtteilen vom Auto dominiert. Die innere Ringstraße um das Stadtzentrum, die A406 (North Circular Road) und die A205 (South Circular) in den Vororten sowie die Autobahn M25 um das gesamte Ballungsgebiet herum verbinden zahlreiche radiale und vielbefahrene Ausfallstraßen miteinander. Autobahnen führen nur in Ausnahmefällen bis in die inneren Stadtteile. Im Jahr 2003 wurde eine Innenstadtmaut mit dem Namen London Congestion Charge eingeführt, um das Verkehrsaufkommen in der von engen und oft verstopften Straßen geprägten Innenstadt zu reduzieren. Die zu zahlende Gebühr betrug bis zum 4. Juli 2005 5 Pfund, bis zum 3. Januar 2011 8 Pfund und wurde dann auf 10 Pfund pro Tag angehoben. Das Netz der Londoner Busse erschließt sämtliche Stadtteile mit einem dichten Liniennetz. Täglich werden auf über 700 Linien rund sechs Millionen Fahrgäste befördert, etwa doppelt so viel wie mit der London Underground. Die roten Doppeldeckerbusse sind ebenso ein international bekanntes Symbol der Stadt wie die schwarzen Taxis. Luftverkehr. London stellt mit Heathrow den meist frequentierten Flughafen Europas. Zusammen mit den weiteren fünf internationalen Flughäfen Gatwick, Luton, Stansted, City Airport und London Southend Airport bildet die Metropole ein wichtiges Zentrum des internationalen Luftverkehrs. Im Jahr 2006 wurden insgesamt 137 Millionen Passagiere auf Londoner Flughäfen abgefertigt. Heathrow und City Airport befinden sich innerhalb von Greater London, die übrigen außerhalb. Gatwick, Heathrow und Stansted werden durch Airport-Express-Züge sowie Reisebusse verschiedener Anbieter mit der Innenstadt verbunden. Außerdem besitzt Heathrow als einziger der Londoner Flughäfen einen U-Bahn-Anschluss. Der City Airport ist auch über die Docklands Light Railway angebunden. Daneben existieren in und um London mehrere Flugplätze für privaten und kommerziellen Luftverkehr. Dies sind Northolt Aerodrome, Biggin Hill Airport und Farnborough Airfield. Universitäten. Die Universitäten und Hochschulen in London können auf eine lange Geschichte zurückblicken. London ist auch die Stadt mit den meisten Studenten. Die Universitäten Londons können in zwei Gruppen eingeteilt werden. Die föderal organisierte University of London ist mit über 100.000 Studenten eine der größten Universitäten Europas. Sie besteht aus über 50 Colleges und Instituten, die über einen hohen Grad an Autonomie verfügen. Die größten und prestigeträchtigsten Colleges sind University College London, King’s College, Queen Mary, die London School of Economics and Political Science und die London Business School. Kleinere Schulen und Institute sind auf bestimmte Wissensgebiete spezialisiert, wie die School of Oriental and African Studies, das Institute of Education und das Birkbeck College. Daneben existieren weitere Universitäten, die nicht der University of London angeschlossen sind, wie das Imperial College und die City University im historischen Stadtzentrum. Einige Universitäten waren früher Technische Hochschulen, bis sie 1992 durch eine Gesetzesänderung den Status einer Universität erhielten (so etwa die University of East London), während andere lange vor der Gründung der University of London entstanden waren. Zu diesen zählen die Middlesex University im Norden Londons, die Brunel University im Westen und die London South Bank University. Kunstschulen. London ist das britische Zentrum der künstlerischen Ausbildung. Die vier Konservatorien sind das Royal College of Music, die Royal Academy of Music, das Trinity College of Music und die Guildhall School of Music and Drama. Auf die Schauspielerei spezialisiert sind die Royal Academy of Dramatic Art (RADA) und die Central School of Speech and Drama. Mit Kunst befassen sich das Central Saint Martins College of Art and Design, das Chelsea College of Art and Design und die Camberwell School of Art (alle Teil der University of the Arts London), daneben auch das Goldsmiths College und die Slade School of Fine Art (beide Bestandteil der University of London) sowie das Royal College of Art und die Wimbledon School of Art. Die ehemalige Hornsey School of Art ist heute ein Teil der Middlesex University. Medizin und Forschung. Es gibt zahlreiche medizinische Fakultäten in London. Einige bestehen schon seit Jahrhunderten, darunter Queen Mary’s School of Medicine and Dentistry, Guy’s Hospital und St Thomas’ Hospital. Das Imperial College ist ein führendes Zentrum der wissenschaftlichen Forschung und ist hinsichtlich seiner Reputation mit dem Massachusetts Institute of Technology zu vergleichen. Ebenfalls von Bedeutung ist die Royal Institution. Limabohne. Die Limabohne ("Phaseolus lunatus"), auch Mondbohne genannt, ist eine Pflanzenart aus der Unterfamilie Schmetterlingsblütler (Faboideae) innerhalb der Familie der Hülsenfrüchtler (Fabaceae oder Leguminosae). Diese Nutzpflanze ist nahe verwandt mit einer Reihe anderer „Bohnen“ genannter Feldfrüchte. Es gibt eine groß- und eine kleinsamige Unterart, die manchmal als Limabohne (groß) und Mondbohne (klein) unterschieden werden. Die Limabohne stammt wahrscheinlich aus Peru. Sie braucht ausreichend Wärme, und kann daher in Mitteleuropa nur bedingt wirtschaftlich angebaut werden. Beschreibung. Die Limabohne ist eine buschige, einjährige oder rankende, ausdauernde krautige Pflanze, deren Stängel Längen von 2 bis zu 4 Meter erreichen kann. Die Kronblätter sind meist hell-grün, manchmal violett. Die meist gekrümmten Hülsenfrüchte sind 5 bis zu 15 Zentimeter lang, 1,5 bis 2,5 Zentimeter breit und enthalten zwei bis vier Samen. Die in ihrer Form, Größe und Farbe sehr variablen Samen sind 1 bis 3 Zentimeter lang, oval bis rund, und weiß oder dunkel gefärbt. Dunkel gefärbte Samen enthalten Linamarin, ein cyanogenes Glycosid, aus dem Blausäure entstehen kann. Samen mit weißer Schale gelten als unbedenklich. Lateinamerikanische Tänze. Sergey und Viktoria Tatarenko vom Ahorn Club im Polizei-Sportverein Berlin (2010), deutsche Meister der Amateure in lateinamerikanischen Tänzen Lateinamerikanische Tänze, im Tänzerjargon kurz Latein genannt, ist ein feststehender Sammelbegriff für die folgenden fünf Gesellschaftstänze und Turniertänze: Samba, Cha-Cha-Cha, Rumba, Paso Doble und Jive. Zusammen mit den Standardtänzen bilden die lateinamerikanischen Tänze einen Großteil der Tänze des Welttanzprogramms. Namensgebung. Trotz des Namens ist für die Zugehörigkeit eines Tanzes zu den lateinamerikanischen Tänzen nicht die Herkunft entscheidend. Die fünf lateinamerikanischen Tänze ähneln sich stark in den technischen Elementen. Die Zugehörigkeit wurde von weltweiten Tanzverbänden festgelegt und richtet sich vor allem nach der Tanztechnik. Von den fünf lateinamerikanischen Tänzen stammen tatsächlich nur drei aus Lateinamerika: die Rumba, die Samba und der Cha-Cha-Cha. Der Jive entstand in Nordamerika, der Paso Doble hat seinen Ursprung in Spanien und Frankreich. Insbesondere "nicht" zu den hier beschriebenen „lateinamerikanischen Tänzen“ gehören die folgenden Tänze aus Lateinamerika: Bachata, Mambo, Merengue, Salsa, Tango Argentino. Diese werden allgemein als Gesellschaftstänze oder Modetänze bezeichnet. Auch in vielen Volksgruppen in Lateinamerika werden diese Tänze zu traditioneller Musik getanzt (z. B. bei den Mayas) Charakteristik. Charakteristisch für die lateinamerikanischen Tänze ist die Kommunikation zwischen den Partnern. Alle lateinamerikanischen Tänze thematisieren die Paarbeziehung auf unterschiedliche Art und Weise. Weitere Charakteristika sind schnelle Drehungen sowie der häufige Wechsel zwischen treibenden und ruhigen Bewegungsphasen sowohl zeitlich als auch von verschiedenen Teilen des Körpers (Separation). Der Körper wird nicht als Ganzes betrachtet. Anders als in den Standardtänzen, bei denen in erster Linie die Bewegung des Paares im Raum die tänzerische Botschaft vermittelt, steht hier die aufeinander abgestimmte Bewegung der einzelnen Tänzer im Vordergrund. Die Tänzer haben nicht das Ziel in ihrer Bewegung als Paar eins zu werden, sondern durch abwechselnde Aktionen für das Publikum sichtbar zu kommunizieren und dieses auch mit einzubeziehen. Technik. Die lateinamerikanischen Tänze ähneln sich sehr stark in Technik und Tanzfiguren. Im Gegensatz zu den Standardtänzen, die in enger Tanzhaltung getanzt werden, stehen die Tanzpartner in der Tanzhaltung der lateinamerikanischen Tänze weiter auseinander, was die Bewegung im Körper sowohl für das Publikum als auch für den Partner leichter sichtbar werden lässt. Ober- und Unterkörper sowie Arme und Beine werden separiert, das heißt bewegen sich unabhängig voneinander. Bis auf den Paso Doble weisen alle lateinamerikanischen Tänze deutliche Hüftbewegungen auf. Schritte werden außer im Paso Doble fast immer auf dem Fußballen angesetzt. Doch in anderen Tänzen wird diese Technik ebenfalls benutzt. Turniertanz. Im Turniertanz, der in verschiedene Altersgruppen und Leistungsklassen unterteilt ist, werden die fünf Tänze stets in der obigen Reihenfolge getanzt. Jedes Paar beginnt in der D-Klasse, in der nur Cha-Cha-Cha, Rumba und Jive getanzt werden. Nach einem festen Schlüssel erwirbt das Paar Aufstiegs- und Platzierungspunkte und steigt so in seiner Altersgruppe über die D-, C-, B- und A-Klasse in die Sonderklasse (S-Klasse), die höchste Amateurtanzsportklasse, auf. Dabei gibt es unterschiedliche, nach Alter gestaffelte Startgruppen. Die sportliche Organisation unterliegt dem Deutschen Tanzsportverband und in Österreich dem Österreichischen Tanzsportverband (ÖTSV). American Rhythm. "International Style" bezeichnet die Art der lateinamerikanischen Tänze, wie sie in Europa getanzt werden. Im Gegensatz dazu ist der "American Style" jene Art zu tanzen, die in den USA kultiviert wird ("American Rhythm" genannt). Getanzt werden die Tänze Cha-Cha-Cha, Rumba, East Coast Swing, Bolero und Mambo. Turniere. Seit 1959 werden regelmäßigLatein-Weltmeisterschaften ausgetragen. Einige der größten Turniere in Deutschland sind die German Open Championships in Stuttgart, "Hessen Tanzt" in Frankfurt am Main, "blaues Band" in Berlin und die "Dancecomp" in Wuppertal. LaTeX. LaTeX (oder), in Eigenschreibweise formula_1, ist ein Softwarepaket, das die Benutzung des Textsatzsystems TeX mit Hilfe von Makros vereinfacht. LaTeX liegt derzeit in der Version 2ε vor. Geschichte. Das Programm TeX wurde von Donald E. Knuth, Professor an der Stanford University, entwickelt. Leslie Lamport entwickelte Anfang der 1980er Jahre darauf aufbauend LaTeX, eine Sammlung von TeX-Makros. Der Name ist eine Abkürzung für Lamport TeX. Lamports Entwicklung von LaTeX endete gegen 1990 mit der Version 2.09. Der aktuelle Nachfolger LaTeX 2ε wurde ab 1989 von einer größeren Zahl von Autoren um Frank Mittelbach, Chris Rowley und Rainer Schöpf entwickelt. Wesentliche Erweiterungen von Lamports Versionen bestanden in einem „vierdimensionalen“ Mechanismus für das Umschalten zwischen Zeichensätzen („New Font Selection Scheme“, „NFSS“), in einem komplexeren Mechanismus für das Einlesen von Zusatzpaketen und in einer entsprechenden „Paketschreiberschnittstelle“ für die Erstellung und Dokumentation auf LaTeX aufbauender Makropakete. Die beiden Entwicklungsstufen von LaTeX sind nicht kompatibel. LaTeX 2ε ist seit Mitte der 1990er Jahre die am weitesten verbreitete Methode, TeX zu verwenden. Kein WYSIWYG. Im Gegensatz zu anderen Textverarbeitungsprogrammen, die nach dem What-you-see-is-what-you-get-Prinzip funktionieren, arbeitet der Autor mit Textdateien, in denen er innerhalb eines Textes anders zu formatierende Passagen oder Überschriften mit Befehlen textuell auszeichnet. Das Beispiel unten zeigt den Quellcode eines einfachen LaTeX-Dokuments. Bevor das LaTeX-System den Text entsprechend setzen kann, muss es den Quellcode verarbeiten. Das dabei von LaTeX generierte Layout gilt als sehr sauber, sein Formelsatz als sehr ausgereift. Außerdem ist die Ausgabe u. a. nach PDF, HTML und PostScript möglich. LaTeX eignet sich insbesondere für umfangreiche Arbeiten wie Diplomarbeiten und Dissertationen, die oftmals strengen typographischen Ansprüchen genügen müssen. Insbesondere in der Mathematik und den Naturwissenschaften erleichtert LaTeX das Anfertigen von Schriftstücken durch seine komfortablen Möglichkeiten der Formelsetzung gegenüber herkömmlichen Textverarbeitungen. Das Verfahren von LaTeX wird auch gerne mit WYSIWYM ("What you see is what you mean.") oder WYSIWYAF ("What you see is what you asked for.") umschrieben. Das schrittweise Arbeiten erfordert vordergründig im Vergleich zu herkömmlichen Textverarbeitungen einerseits eine längere Einarbeitungszeit, andererseits kann das Aussehen des Resultats genau festgelegt werden. Die längere Einarbeitungszeit kann sich jedoch, insbesondere bei Folgeprojekten mit vergleichbarem Umfang oder ähnlichen Erfordernissen, lohnen. Inzwischen gibt es auch grafische Editoren, die mit LaTeX arbeiten können und WYSIWYG oder WYSIWYM bieten und ungeübten Usern den Einstieg deutlich erleichtern können. Beispiele für LaTeX-Entwicklungsumgebungen sind im Abschnitt "Entwicklungsumgebungen" aufgelistet. Logisches Markup. Bei der Benutzung von LaTeX wird ein sogenanntes "logisches Markup" verwendet. Soll beispielsweise in einem Dokument eine Überschrift erstellt werden, so wird der Text nicht wie in TeX rein optisch hervorgehoben (etwa durch Fettdruck mit größerer Schrift, also: codice_1), sondern die Überschrift wird als solche gekennzeichnet (z. B. mittels codice_2). In den Klassen- oder "sty"-Dateien wird global festgelegt, wie eine derartige Abschnittsüberschrift zu gestalten ist: „das Ganze fett setzen; mit einer Nummer davor, die hochzuzählen ist; den Eintrag in das Inhaltsverzeichnis vorbereiten“ usw. Dadurch erhalten alle diese Textstellen eine einheitliche Formatierung. Außerdem wird es dadurch möglich, automatisch aus allen Überschriften im Dokument mit dem Befehl codice_3 ein Inhaltsverzeichnis zu generieren. Rechnerunabhängigkeit. Wie TeX selbst ist LaTeX unabhängig von Hardware und Betriebssystemen benutzbar. Mehr noch, die Ausgabe (Zeilen- und Seitenumbrüche) ist genau gleich, unabhängig von der verwendeten Rechnerplattform und dem verwendeten Drucker – wenn alle verwendeten Zusatzpakete (siehe unten) in geeigneten Versionen installiert sind. LaTeX ist auch nicht auf die Schriftarten des jeweiligen Betriebssystems angewiesen, die oftmals für die Anzeige am Bildschirm und nicht für den Druck ausgelegt sind, sondern enthält eine Reihe von eigenen Schriftarten. Technik, Alternativen, Entwicklung, Lizenz. LaTeX bildet ein „Format“ in einem TeX-spezifischen Sinne. Es besteht im Kern aus einer Datei codice_4 von Makrodefinitionen, die in ein Speicherabbild codice_5 nach Ausführung der Definitionen umgewandelt wird. Diese Datei wird für jeden Dokumenterzeugungslauf zuerst von der „Engine“ (einem Binärprogramm wie TeX oder pdfTeX) eingelesen. Andere bedeutende Formate sind plain TeX und ConTeXt. Im Vergleich zu diesen existieren für LaTeX besonders viele "Zusatzpakete" – weitere Makrosammlungen – die auf den Makros in codice_4 aufbauen und die zunächst mit der Engine und den Makros in codice_4 gegebenen Darstellungsmöglichkeiten beträchtlich erweitern. Sie sind zu einem großen Teil von LaTeX-"Anwendern" zunächst für spezielle eigene Bedürfnisse (Veröffentlichungen, Lehrmaterial, Abschlussarbeiten) entwickelt und dann der Allgemeinheit mit meist freier Lizenz zur Verfügung gestellt worden. Speziell für diesen Zweck wurde die LaTeX Project Public License entwickelt, die auch für codice_4 und weitere Pakete der Hauptentwickler von LaTeX gilt. Viele solcher Zusatzpakete sind auch im Auftrag von Verlagen, Fachzeitschriften, Fachgesellschaften und Hochschulen (für Abschlussarbeiten) für die Umsetzung ihrer Gestaltungsrichtlinien entwickelt worden. Verbreitung. Aufgrund seiner Stabilität, der freien Verfügbarkeit für viele Betriebssysteme und dem ausgezeichneten Formelsatz sowie seinen Features speziell für wissenschaftliche Arbeiten wird LaTeX vor allem an Universitäten und Hochschulen, aber z. T. auch an Gymnasien mit Spezialklassen im Bereich Informatik benutzt; insbesondere in der Mathematik und den Naturwissenschaften ist LaTeX die Standardanwendung für wissenschaftliche Arbeiten. Es gibt auch spezielle Pakete für andere Fachbereiche, etwa zum Notensatz für Musiker, zur Ausgabe von Lautschrift für Linguisten, zum Setzen von altsprachlichen Texten für Altphilologen oder zum Bibliografieren für Juristen und Geisteswissenschaftler. Auch einige Unternehmen setzen LaTeX ein, unter anderem, um Handbücher, Fahrpläne und Produktkataloge zu erzeugen. Eine Studie der Universität Gießen untersuchte 2014 die Effizienz und Nutzerfreundlichkeit von LaTeX und Microsoft Word und zeigte, dass die Arbeit mit LaTeX zeitaufwendiger, fehleranfälliger und weniger effizient ist. Einzig Texte mit vielen mathematischen Formeln lassen die Verwendung von LaTeX als sinnvoll erscheinen. Aus wissenschaftlicher Sicht und für den wissenschaftlichen Fortschritt sollten die universitären Fächer auf ihre Traditionen mit der Software verzichten. Demgegenüber gibt es jedoch auch Kritik an der Methode und den Schlussfolgerungen der Studie, bis hin zum Vorwurf, dass die Studie von vornherein Microsoft Word bevorzugen würde. Programme. Es existiert eine Reihe von Zusatzprogrammen für LaTeX, die unterschiedlichste Funktionen in LaTeX bereitstellen und in den TeX-Distributionen enthalten sind. KOMA-Script. Die LaTeX-Standardklassen richten sich nach US-amerikanischen typografischen Konventionen und Papierformaten. Aus diesem Grund wurden zusätzliche Pakete und Klassen entwickelt, die es erlauben, auf europäische typografische Konventionen und DIN-Papierformate umzuschalten. Auch das bekannte KOMA-Script, das typografische Feinanpassungen und eine deutliche Erweiterung der Auszeichnungssprache von LaTeX bietet, hat hier seinen Ursprung. Das Layout geht dabei auf Arbeiten von Jan Tschichold zurück. Mittlerweile ist das Ziel von KOMA-Script, möglichst flexibel zu sein, um vor allem sinnvolle, aber auch nur häufig gewünschte Variationsmöglichkeiten unmittelbar und einfach zu ermöglichen. Dabei implementieren die KOMA-Script-Klassen auch die komplette Benutzerschnittstelle der Standardklassen. Infolge dieser Flexibilität und Kompatibilität haben die KOMA-Script-Klassen inzwischen in vielen Bereichen die Standardklassen verdrängt. Häufig dienen sie auch Autoren von Spezialklassen als Grundlage. Dies ist nicht allein auf den europäischen Raum beschränkt. Als Beispiel sei die japanische Briefanpassung genannt, die direkt in KOMA-Script integriert ist. Schriftart, Zeichenkodierung und Sonderzeichen. Folgende drei Befehle finden sich in so gut wie jedem deutschen LaTeX-Dokument, da sie den Umgang mit Sonderzeichen und Übersetzungen betreffen. Zeichenkodierung. "inputenc" (Einbindung mit codice_9) ist für die Unterstützung erweiterter Eingabe-Zeichensätze mit ihren unterschiedlichen Kodierungen (z. B. ä, ö, ü usw.). Es dient der Umwandlung einer beliebigen Eingabe-Zeichenkodierung in eine interne LaTeX-Standardsprache. Neben "utf8" und dessen Erweiterung "utf8x" gibt es noch andere Kodierungen, so zum Beispiel "latin1" (wurde früher häufig unter Linux und Windows verwendet) oder "applemac" (eine Kodierung, die häufig für Textdateien unter Mac OS verwendet wurde). Wichtig ist, dass die Zeichenkodierung angegeben wird, die bei der Erstellung der TeX-Datei im Texteditor verwendet wurde. Im Austausch, bei wechselseitiger Bearbeitung, kann es bei unterschiedlicher Eingabe-Zeichenkodierung zu Problemen kommen. Schriftart. Die Standardschriftart von LaTeX ist die Computer-Modern-Schriftfamilie (CM). Standardmäßig bietet diese aber nicht alle 256 Zeichen des europäischen Zeichenvorrates in T1-Kodierung. Umlaute z. B. werden ohne den Einsatz der ec-Schriften nur aus den begrenzt vorhandenen Zeichen neu zusammengesetzt. Die ec- und tc-Schriften bieten dagegen einen Zeichenvorrat entsprechend der T1- und TS1-Kodierung. Eingebunden wird die T1-Version der Computer-Modern-Schriftsippe mit codice_10. Dadurch ist auch sichergestellt, dass in einem PDF Umlaute gefunden werden. Die Computer-Modern-Schriftfamilie liegt in Metafont vor. Eine entsprechende Implementierung im PostScript-Type-1-Format sind die cm-super-Schriften. In LaTeX finden sich 35 PostScript-Basisschriften, diese müssen ebenso wie andere Schriften gesondert eingebunden werden. Die sonst gängigen Type-1-Fonts müssen erst für TeX angepasst werden. Für LaTeX stehen mehr als 100 freie Schriftarten zur Verfügung. Eine umfassende Übersicht mit Schrift-Beispielen bietet der "LaTeX Font Catalogue." Babel-System. Das Babel-System bietet eine Anpassung für LaTeX an viele Sprachen. Es wird seit 1992 von Johannes L. Braams und dem LaTeX-Team entwickelt und ist Bestandteil der populären TeX-Distribution TeX Live. Durch die Eingabe von codice_11 kommt es zu einer Übersetzung der sprachspezifischen Befehle im Dokument („Inhaltsverzeichnis“ statt „table of contents“, „Kapitel“ anstelle von „chapter“ usw.). Für Benutzer der deutschen Version bietet das Babel-System beispielsweise die richtige Trennung nach der deutschen Rechtschreibung, die erleichterte Eingabe von Sonderzeichen, angepasste Typographie und Sprachumschaltung. Vorhergegangen war die Entwicklung von codice_12 durch Hubert Partl und weitere Autoren. Die deutsche LaTeX-Anpassung codice_12 wurde zuvor beim sechsten TeX-Benutzertreffen im Oktober 1987 in Münster festgelegt. Aufbau eines Dokuments. Auf der linken Seite ist ein Beispiel als Quelltext dargestellt, das mit einem beliebigen Texteditor erstellt werden kann. Rechts ist die Ausgabe dieses Beispiels dargestellt, die unabhängig vom Bildschirm- oder Druckertyp ist, auf dem sie erzeugt wird. %% Erläuterungen zu den Befehlen erfolgen unter Hier kommt die Einleitung. Ihre Überschrift kommt \LaTeX ist auch ohne Formeln sehr nützlich und Formeln sind etwas schwieriger, dennoch hier ein LaTeX-Befehle beginnen immer mit einem Backslash (codice_14) und können Parameter zwischen geschweiften () sowie optionale Parameter zwischen eckigen Klammern () enthalten (codice_15). Mit dem ersten Befehl, codice_16, wird definiert, was für eine Art von Text in dem Dokument folgen soll. Für deutsche Dokumente sind die KOMA-Script-Klassen grundsätzlich den Standardklassen vorzuziehen, deswegen werden diese im Folgenden verwendet. Die Klasse "scrartcl" ist für kürzere Artikel gedacht, "scrreprt" für längere Berichte und "scrbook" für Bücher. Die Klasse bestimmt unter anderem die oberste Hauptgliederungsebene eines Textes: "scrbook" und "scrreprt" beginnen mit Kapitel (codice_17), "scrartcl" mit Abschnitt (codice_18). Über den Hauptgliederungsebenen existiert bei allen Klassen noch die Möglichkeit das Dokument in Teile oder Bände (codice_19) aufzuteilen. Alle drei Klassen kennen ein Inhaltsverzeichnis, die Klassen "scrartcl" und "scrreprt" zusätzlich eine optionale Zusammenfassung (abstract), "scrbook" nicht. Es gibt weitere Klassen für Folien, Präsentationen (beispielsweise "beamer") oder DIN-gerechte Briefe (beispielsweise "scrlttr2"). Der Befehl codice_20 bindet LaTeX-Pakete ein, mit denen in dem Dokument gegebenenfalls zusätzliche Funktionen genutzt werden können oder beispielsweise die deutsche Rechtschreibung und Worttrennung ausgewählt wird. Im obigen Beispiel werden die im Deutschen standardmäßig zu verwendenden Pakete benutzt. Das Paket codice_21 mit der Option codice_22 zeigt LaTeX die Codierung der verwendeten ASCII-Datei an. Weitere Möglichkeiten sind hier bspw. codice_23. codice_24 weist LaTeX an, eine Schrift (codice_25) zu verwenden, die echte Umlaute enthält. So kann das pdf hinterher nach diesen Umlauten auch durchsucht werden. Leider ist diese Schrift keine Vektorschrift und Ligaturen werden auch nur bedingt gut umgesetzt. Das behebt das Paket codice_26 final. Mit den Befehlen codice_27 und codice_28 lassen sich der Titel des Dokumentes und der Name des Autors definieren. Diese können dann im gesamten Dokument genutzt werden oder beispielsweise automatisch mit dem Befehl codice_29 ausgegeben werden. Erst mit codice_30 startet der eigentliche Inhalt des Dokumentes. Jeder Text, der zwischen codice_30 und codice_32 steht, wird ausgegeben. Mit Befehlen wie codice_18 oder codice_34 lässt sich der Text mit Überschriften strukturieren. LaTeX-Software (Distributionen). Um mit LaTeX zu arbeiten, werden grundlegend zwei Dinge benötigt: Einerseits die (im Hintergrund arbeitende) LaTeX-Software und andererseits eine Eingabe-/Steuerungssoftware, mit der der LaTeX-Code eingegeben und die Ausführung angestoßen wird (siehe hierzu Abschnitt „Entwicklungsumgebung“). Die LaTeX-Software besteht aus den TeX/LaTeX-Programmen, Schriften, Skripten und Zusatzprogrammen. Der einfachste Weg, um die LaTeX-Software zu installieren ist, eine Distribution zu wählen. Diese installiert alle notwendigen Programme und die gebräuchlichsten Zusätze. Bekannte Distributionen sind proTeXt (für Windows, basiert auf MiKTeX), TeX Live (Unix/Linux/Windows/Mac), MacTeX (für Mac OS X, basierend auf TeX Live). Entwicklungsumgebungen. AUCTeX mit previewLaTeX im Einsatz LaTeX-Dokumente werden im Allgemeinen mittels einer Entwicklungsumgebung erstellt. Zwar kann man LaTeX-Dokumente auch mit Hilfe eines einfachen Texteditors und der Kommandozeile erstellen, doch bieten die auf LaTeX angepassten Programme mehr Funktionen und Komfort. Viele LaTeX-Befehle, Sonderzeichen und Symbole sind über die grafische Benutzeroberfläche zugänglich, und teilweise lassen sich darüber auch einfache Tabellen erstellen. Für große Projekte bieten Entwicklungsumgebungen eine Verwaltung und Strukturdarstellung. Dokumentenvorlagen und DVI-Vorschau finden sich fast überall. Zur Verbesserung der Lesbarkeit des Codes gibt es eine Syntaxhervorhebung und teilweise auch eine Autovervollständigung von Befehlen. Manche Programme bieten eine Rechtschreibprüfung. Umlaute werden von manchen Entwicklungsumgebungen automatisch in LaTeX-Befehle übersetzt. Der fortschrittlichere Ansatz zur Verwendung von Umlauten ist eine geeignete Zeichenkodierung und ein dazu passendes LaTeX-Paket. Manche Umgebungen unterstützen insbesondere Unicode. Damit können Umlaute und weitere Zeichen wie zum Beispiel das Mikro-Zeichen µ (nicht-kursives griechisches Mü) oder das Gradzeichen ° direkt im Quelltext verwendet werden. Es folgt eine "unvollständige," nach Betriebssystemen unterteilte Liste einiger (grafischer) Editoren oder Entwicklungsumgebungen für LaTeX (vgl. "Entwicklungsumgebungen"). Aussprache und Schreibweise von „LaTeX“. LaTeX wird im Englischen in der Regel als oder ausgesprochen (also nicht wie x). Die Zeichen "T, E, X" im Namen kommen von den griechischen Großbuchstaben Tau, Epsilon und Chi, so wie sich auch der Name von TeX aus dem griechischen τέχνη (Geschicklichkeit, Kunst, Technik) ableitet. Aus diesem Grund bestimmte TeX-Erfinder Donald E. Knuth die Aussprache als, das heißt mit einem stimmlosen velaren Frikativ wie im Neugriechischen, der ähnlich dem letzten Laut im deutschen Wort „Bach“ klingt. So wird es auch im Deutschen als oder ausgesprochen. Dagegen äußerte Leslie Lamport, er schreibe keine bestimmte Aussprache für LaTeX vor. Der Name wird traditionell mit einem speziellen typografischen Logo gedruckt (dargestellt in der Infobox am Anfang des Artikels). Kann im laufenden Text dieses Logo nicht genau reproduziert werden, wird das Wort in Unterscheidung zu Latex typischerweise in einer Kombination aus Groß- und Kleinbuchstaben als "LaTeX" dargestellt. Die TeX-, LaTeX- und XeTeX-Logos können für den Einsatz in grafischen Web-Browsern nach den Vorgaben des LaTeX-internen Makros \LaTeX (oder \LaTeXe für die aktuelle Version) mit reinem CSS und XHTML dargestellt werden. Besprechungen. Besprechungen neuer Bücher, die in der TeXnischen Komödie von DANTE erschienen sind, werden auf CTAN [ftp://ftp.ctan.org/tex-archive/digests/dtk/book_reviews/ gesammelt]. Luxemburgische Euromünzen. Die luxemburgischen Euromünzen sind die in Luxemburg in Umlauf gebrachten Euromünzen der gemeinsamen europäischen Währung Euro. Am 1. Januar 1999 trat Luxemburg der Eurozone bei, womit die Einführung des Euros als zukünftiges Zahlungsmittel gültig wurde. Umlaufmünzen. Die luxemburgischen Euromünzen haben drei verschiedene Designs, die alle das Porträt von Großherzog Henri von Luxemburg darstellen, entworfen von Yvette Gastauer-Claire. Alle Münzen enthalten außerdem die zwölf Sterne der EU, das Prägejahr sowie die Landesbezeichnung, "LËTZEBUERG", in luxemburgischer Sprache. Alle luxemburgischen Münzen müssen das Porträt von Großherzog Henri aufweisen. Die luxemburgischen Münzen der Gemeinschaftsausgaben der 2-Euro-Gedenkmünzen tragen das Porträt als Kippbild. Die luxemburgischen Euromünzen wurden bis 2004 bei der niederländischen Münze geprägt, 2005 und 2006 bei der finnischen Prägestätte "Suomen Rahapaja" bzw. die Gedenkmünzen dort und bei der französischen Münzstätte, 2007 und 2008 in der französischen Prägestätte und ab 2009 wieder bei der niederländischen Münze. Dahingehend tragen sie die Münzzeichen der jeweiligen Prägestätte. Wie in den meisten Euroländern werden die luxemburgischen Euromünzen bereits seit 2007 mit der neu gestalteten Vorderseite (neue Europakarte) geprägt. Einklang mit den Gestaltungsrichtlinien. Ein Großteil der luxemburgischen Euromünzen entspricht nicht vollständig den Gestaltungsrichtlinien der Europäischen Kommission von 2008. In diesen sind Empfehlungen für die Gestaltung der nationalen Seiten der Kursmünzen festgelegt. Unter anderem sollen die europäischen Sterne wie auf der europäischen Flagge angeordnet sein – also insbesondere gleichmäßig im Kreis verteilt sein. Dies ist bei den Münzen von 1 Cent bis 50 Cent nicht erfüllt. Die Länder, deren Münzen den oben beschriebenen Empfehlungen noch nicht entsprechen, können die notwendigen Anpassungen jederzeit vornehmen; bis spätestens zum 20. Juni 2062 müssen sie diese vollziehen. Sammlermünzen. Die folgende Liste enthält alle seit 2002 ausgegebenen Sammlermünzen Luxemburgs. Liste von Gewerkschaften in Deutschland. Liste von Gewerkschaften in Deutschland. Bei den in dieser Liste aufgeführten Organisationen handelt es sich um Organisationen, die das Ziel haben, sich in irgendeiner Form für die berufspolitischen Belange ihrer Mitglieder einzusetzen. Nicht alle Organisationen sind Gewerkschaften im arbeitsrechtlichen Sinn oder erheben den Anspruch, dies zu sein, oder es ist umstritten, ob sie die Eigenschaft als Gewerkschaft haben Um rechtlich als Gewerkschaft in Deutschland zu gelten, muss eine Organisation Zu dem können Gewerkschaften mit Sitz außerhalb Deutschlands, insb. außerhalb der EU, kraft internationaler Verträge ihre Mitglieder in Deutschland im Rahmen der Koalitionsfreiheit vertreten (ILO Nr87, Art 5; Art 8c Internationaler Pakt über wirtschaftliche, soziale und kulturelle Rechte). Deutscher Gewerkschaftsbund (DGB). Einzelgewerkschaften im DGB mit ihren Vorgängerinnen. Fußnoten. !Liste Deutschland Louis Braille. Louis Braille a> zum 200. Geburtstag von Louis Braille 2009 Louis Braille (* 4. Januar 1809 in Coupvray, Île-de-France; † 6. Januar 1852 in Paris) ist der Erfinder des nach ihm benannten Punktschriftsystems für Blinde, der Brailleschrift oder kurz Braille. Erfindung in Kindheit und Jugend. Im Alter von drei Jahren verletzte sich Braille mit einer Ahle am Auge. Das verletzte Auge entzündete sich und infizierte das zweite, bis dahin unversehrte Auge. Dies führte zur völligen Erblindung des kleinen Louis. Da sich der wissbegierige Junge nicht damit abfinden wollte, Literatur nur durch Vorlesen erleben zu können, dachte er über eine Schrift für Blinde nach. Louis Braille erfand seine Blindenschrift nicht allein. Er baute auch auf den Überlegungen anderer auf. In der Blindenschule von Valentin Haüy lernte er ein System kennen, das Haüy bei einem Konzert mit anschließendem Gespräch mit der blinden Komponistin, Pianistin und Musikpädagogin Maria Theresia Paradis während ihrer dreijährigen Europatournee mit Parisaufenthalt kennengelernt hatte. Für diese war ein Setzkasten entwickelt worden, mit dem sie ihre Korrespondenz und ihre Noten setzen, blinde und sehende Kinder gemeinsam unterrichten und so auch für ihren Lebensunterhalt selbst sorgen konnte. Haüy war davon dermaßen fasziniert, dass er diese Gerätschaften auch für sich entwickelte, mit der sich bewegliche Lettern und Noten in Papier prägen ließen, die somit ertastbar wurden. Louis Braille wurde so als Schüler Haüys auf dieses System aufmerksam gemacht und experimentierte in der Schusterwerkstatt seines Vaters damit, aus Lederstücken Dreiecke, Quadrate und Kreise herzustellen, die die Schrift zusätzlich vereinfachen sollten. Das Ergebnis stellte ihn aber nicht zufrieden. Als 11-Jähriger lernte Braille die von einem Artilleriehauptmann namens Charles Barbier für militärische Zwecke erfundene „Nachtschrift“ kennen, die ein kompliziertes System von Punkten und Silben darstellte. Braille vereinfachte diese Schrift, indem er die Silben durch Buchstaben ersetzte und die Anzahl der Punkte von zwölf auf sechs pro Zeichen reduzierte. Mit dieser binären 6-Bit-Codierung konnten 64 verschiedene Zeichen dargestellt werden (26 = 64), die – auch infolge des Verzichts auf den Unterschied zwischen Groß- und Kleinbuchstaben – gar nicht ausgenutzt sind. Obwohl dieser Zeichenvorrat groß genug gewesen wäre, führte Braille ein Sonderzeichen für das „Umschalten auf Ziffern“ ein (z. B. gelten die oberen 4 Punkte als „g“ und nach dem Umschalten als „7“), wie es die viel spätere TTY-Schrift der 5-Kanal-Fernschreiber und die ersten Computerschriften benötigten. 1825 hatte der erst 16-jährige Louis Braille seine Blindenschrift fertiggestellt. Erste Schritte: Literatur in der Punktschrift. Obwohl die Schriftzeichen leicht erlernbar und einfach zu schreiben waren, konnten sie sich lange nicht durchsetzen. Mit 27 Jahren übertrug Louis Braille eine Auswahl aus den Werken des blinden englischen Dichters John Milton und versuchte, mit einem öffentlichen Vortrag zu beweisen, dass er schnell schreiben und lesen kann. Doch seine Zuhörer glaubten, er habe die Texte auswendig gelernt. Louis Braille schrieb an den französischen Innenminister und erhielt die nichtssagende Antwort: „Diese Arbeit scheint mir hervorragend, und Herr Braille verdient, ermutigt zu werden.“ Eine offizielle Anerkennung blieb jedoch aus. Hinzu kam, dass der neue Direktor der Blindenschule die Punktschrift verbot. Er war der Auffassung, dass sich Blinde durch eine Schrift, die Sehenden unbekannt ist, isolieren würden. Außerdem hatte der Direktor ein Handleitgerät erfunden, mit dem die Buchstabenschrift geschrieben werden konnte. Manche Schüler aber praktizierten die Punktschrift heimlich weiter. Entwicklung einer Notenschrift für Blinde. 1828 erfand Louis Braille, der selbst Orgel spielte, eine ebenfalls auf den sechs Punkten basierende Notenschrift. Sie setzte sich schnell durch und ist bis heute die perfektionierte Möglichkeit für Blinde, Musiknoten zu lesen und zu schreiben. Mittlerweile ist diese Schrift auch international standardisiert. Entwicklung der Raphigrafie. 1839 veröffentlichte Louis Braille seine Raphigrafie zur Nachbildung der lateinischen Buchstaben durch Punkte, an der er längere Zeit gearbeitet hatte. Gedacht war diese Schrift für blinde Schüler, die Angehörigen oder Freunden schreiben wollten, welche diese Brailleschrift nicht lesen konnten. Die Groß- und Kleinbuchstaben sowie Ziffern des Raphigrafie-Alphabetes waren bis zu zehn Punkte hoch und unterschiedlich breit. Mit der einsetzenden Entwicklung der mechanischen Schreibmaschine geriet diese Schrift wieder in Vergessenheit. Tod und internationale Anerkennung der Blindenschrift. Erst 1850 wurde die Brailleschrift offiziell für den Unterricht an französischen Blindenschulen eingeführt. Den internationalen Siegeszug seiner Erfindung erlebte Braille nicht mehr. Er starb 1852 in Paris an Tuberkulose. 1879 wurde die Brailleschrift offiziell in Deutschland eingeführt. 100 Jahre nach seinem Tod wurde Brailles Körper exhumiert und in das Panthéon in Paris überführt. Seine Hände, die so zentrale Bedeutung für seine Erfindung hatten, blieben jedoch in seinem Grab an seinem Heimatort. Gedenkmünze. Zum 200. Geburtstag von Louis Braille gab Belgien am 25. September 2009 eine 2-Euro-Gedenkmünze heraus. Auch Italien gab am 15. Oktober 2009 eine 2-Euro-Gedenkmünze zu diesem Anlass aus. Eine weitere Münze wurde 2009 von der Republik Palau (pazifische Inseln) im Wert von 5 Dollar herausgegeben. Das besondere an dieser Münze ist der Schriftzug „Louis Braille“, der weder in Brailleschrift noch in lateinischen Buchstaben, sondern in der erst 2008 erfundenen 9-Punkt-Schrift Fakoo ausgeführt wurde. George Gordon Byron. Lord Byron (Porträt von Thomas Phillips, 1824) George Gordon Noel Byron, 6. Baron Byron (* 22. Januar 1788 in London; † 19. April 1824 in Messolongi, Griechenland), bekannt als Lord Byron, war ein britischer Dichter. Er war der Vater von Ada Lovelace und ist überdies als wichtiger Teilnehmer am Freiheitskampf der Griechen bekannt. Leben. George Gordon Noel Byron, 6. Baron Byron, in albanischer Tracht Byron war ein Enkel von John Byron, einem Südseeforscher und britischen Admiral. Byrons Vater, John Byron (genannt: Mad Jack), ein Gardekapitän in der britischen Armee, starb bereits 1791. Byron verlebte seine frühe Kindheit im schottischen Aberdeen, aufgezogen von seiner Mutter, Catherine Gordon of Gight, einer schottischen Adligen. Beeinflusst wurde er stark vom calvinistischen Glauben seines Kindermädchens May Grey. Byron hatte einen Klumpfuß und litt zeitlebens unter seiner oft schmerzhaften Behinderung, die er als entwürdigende Missbildung empfand und die ihn gesellschaftlich einschränkte, da er zum Beispiel nicht tanzen konnte. Mit zehn Jahren erbte er nach dem Tod seines Großonkels William den Adelstitel "Baron Byron of Rochdale in the County Palatine of Lancaster" und das dazugehörige, weitgehend heruntergewirtschaftete Anwesen Newstead Abbey. 1808, nach Erreichen der Volljährigkeit, nahm Byron seinen damit verbundenen Sitz im House of Lords ein. 1809 unternahm er eine große Reise in den Mittelmeerraum: Über Lissabon fuhr er nach Spanien und besuchte auch Malta, Albanien, Griechenland und die Küste Kleinasiens. Nach seiner Rückkehr wurde Byron 1812 durch die Publikation der ersten beiden Canti von "Childe Harold’s Pilgrimage" schlagartig bekannt. Oft zitiert wurden seine Worte "I woke up one morning and found myself famous" („Ich erwachte eines Morgens und fand mich berühmt“). Im selben Jahr löste Byron durch sein offenes Verhältnis mit der verheirateten Lady Caroline Lamb einen gesellschaftlichen Skandal aus, der fortan seinen Ruf als „Mann von zweifelhafter Moral“ prägte. Lady Caroline beschrieb den Dichter zu dieser Zeit als „mad, bad and dangerous to know“. Während Byron die Beziehung als eine bloße Affäre sah, die er bald beendete, hatte Lady Caroline geglaubt, von Byron geliebt zu werden. In der Folge litt sie an schweren Depressionen und Magersucht. Byron verfasste das Gedicht "Remember Thee", in dem er ihr Verhalten als Melodramatik ironisierte. Byrons Halbschwester Augusta, Kohlezeichnung von Georg Hayter (1792–1871) 1813 traf Byron in London seine Halbschwester Augusta wieder, die Tochter seines Vaters aus dessen erster Ehe. Die Briefe, die Byron zu dieser Zeit an seine Vertraute Lady Melbourne schrieb, lassen auf ein inzestuöses Verhältnis zwischen Augusta und ihrem Halbbruder schließen. Da Augusta seit 1811 von ihrem Mann George Leigh getrennt lebte, ist es wahrscheinlich, dass ihre im April 1814 geborene Tochter Elizabeth Medora Byrons Kind war. „Diese perverse Leidenschaft war meine tiefste“, schrieb Byron aus seinem späteren Exil an Lady Melbourne. Byron verfasste mehrere Liebesgedichte für seine Schwester: "Stanzas for Augusta" und "Epistle for Augusta"; in seinen Werken findet sich wiederholt das Motiv der Geschwisterliebe: In "Kain" und "Manfred" lieben die Protagonisten ihre Schwestern. Lady Melbourne warnte Byron vor den gesellschaftlichen Konsequenzen, sollte seine Neigung publik werden, und riet ihm zu einer baldigen Heirat, um seinen Ruf zu rehabilitieren. Byron verlobte sich daraufhin mit Melbournes Nichte Annabella Milbanke. Annabella Milbanke, anonyme Zeichnung, etwa 1813 1815 fand die Heirat in Seaham statt. Das Verhältnis zwischen Byron und seiner Frau war nach kurzer Zeit sehr angespannt: Der leidenschaftliche, fantasiereiche und zu Scherzen neigende Künstler und die ernsthafte, rational veranlagte Amateur-Mathematikerin litten in der Ehe unter ihren Charakterdifferenzen. Zudem berichtete Annabelle gegenüber ihren Eltern, dass Byron zu brutalen Wutanfällen neigte. Am 10. Dezember 1815 wurde die gemeinsame Tochter Augusta Ada geboren. Anfang 1816 äußerte Byron den Wunsch, dass Annabelle mit der Tochter zu ihren Eltern ziehen solle. Sie hielt ihn mittlerweile für geisteskrank. Nach ihrem Auszug sorgte sie dafür, dass der Arzt Francis Le Mann Byron behandelte, wobei er Byrons Geisteszustand einschätzen sollte, ohne dass Byron von diesem Anliegen etwas mitbekam. Der Arzt befand Byron für geistig gesund. Tafel an der Villa Diodati, Genf, zur Erinnerung an Byrons Aufenthalt 1816 Die skandalumwobene Trennung des Ehepaars führte zu einem öffentlichen Eklat. Byron war gesellschaftlich isoliert und verließ London am 23. April und England am 25. April 1816 auf Dauer. Ab Mai mietete Byron die Villa Diodati in Cologny am Genfersee. Dort wohnte er zusammen mit seinem Leibarzt John Polidori. In Cologny erhielt Byron Besuch von Percy Shelley und dessen Partnerin Mary Godwin, der Tochter von Mary Wollstonecraft und William Godwin. Angeregt durch die düstere nächtliche Atmosphäre der Seelandschaft im "Jahr ohne Sommer" vereinbarte die Runde, Schauergeschichten zu schreiben. Dadurch entstand schließlich Mary Shelleys Roman '. Polidori verfasste die Erzählung "The Vampyre", die als der literarische Beginn des Genres der Vampirgeschichten gilt. Zu dieser Zeit hatte Byron eine Affäre mit Marys Stiefschwester Claire Clairmont, aus der seine Tochter Allegra hervorging. Im Oktober 1816 verlegte Byron seinen Wohnsitz nach Venedig. Dort besuchte er die Insel San Lazzaro degli Armeni, wo er von dem armenischen Gelehrten Harutiun Avgerian die armenische Sprache erlernte und mit ihm zusammen an der Produktion einer armenischen und englischen Grammatik arbeitete. 1817 verkaufte er den Familienstammsitz Newstead Abbey. Aufgrund seiner politischen Aktivitäten, inspiriert durch die Liebesbeziehung zu der verheirateten Gräfin Teresa Guiccioli, die der italienischen Freiheitsbewegung der Carbonari angehörte, geriet er in Konflikt mit den italienischen Fürstenhäusern und wurde zusammen mit Gräfin Guiccioli nach Pisa verbannt, wo beide bis 1823 lebten. Dort entstand der "Pisan Circle". Anfang 1823 nahm Byron als Philhellene das ihm angebotene Kommando über die freien griechischen Streitkräfte an. Ein Jahr später starb er in Messolongi in Griechenland an den Folgen einer Unterkühlung und den schwächenden Wirkungen des medizinischen Aderlasses. Wegen seines Engagements für die griechische Unabhängigkeitsbewegung ist Byron in Griechenland bis heute bekannt und hoch angesehen. Die nach dem Griechisch-Türkischen Krieg entstandene attische Gemeinde Vyronas wurde rund hundert Jahre nach dem Tod des Dichters nach ihm benannt. Byrons Leichnam wurde einbalsamiert und per Schiff nach England überführt. Sein Grab befindet sich in der Church of St. Mary Magdalene in Hucknall, Nottingham, nahe Newstead Abbey. 1969 wurde im Poets’ Corner der Londoner Westminster Abbey eine Gedenktafel für Byron angebracht. Literarischer Stellenwert. Byrons Werke, die der englischen Spätromantik (sog. Schwarze Romantik oder Negative Romantik) zuzuordnen sind, sind von Ablehnung althergebrachter Strukturen geprägt. Seine Helden sind, vielleicht als Projektion oder Inszenierung seiner selbst, intelligent, mutig und leidenschaftlich, jedoch gleichermaßen rastlos, verletzlich und einsam, so dass ihnen letztlich Zufriedenheit und Glück versagt bleiben. Byron schuf mit den Protagonisten seiner Werke eine archetypische Figur der Literatur: den „Byronic Hero“ (dt. Übersetzung mitunter: „Byronscher Held“), der die Leidenschaft der romantischen Künstlerpersönlichkeit mit dem Egoismus eines auf sich selbst fixierten Einzelgängers verbindet. Der „Byronic Hero“ ist ein Außenseiter und Rebell, dem es jedoch nicht um gesellschaftliche Veränderungen, sondern um die Befriedigung persönlicher Bedürfnisse geht. Als Vorläufer des „Byronic Hero“ gilt die Figur Satans in John Miltons "Paradise Lost". Byron entwarf mit seinem Helden zugleich den Mythos um seine eigene Person und gehört damit zu den ersten Künstlern, die bewusst ein öffentliches Image pflegten. Neben einer künstlerisch inspirierenden Freundschaft mit Shelley stand Byron unter anderem in Korrespondenz mit Goethe, dem er sein Werk "Manfred" als Antwort auf dessen "Faust I" widmete. Nach Byrons frühem Tod setzte Goethe diesem ein postumes Denkmal mit der Figur des Euphorion im "Faust II". Heinrich Heine widmete Byron ein Gedicht ("Eine starke, schwarze Barke"). Byron übte auf den jungen Edgar Allan Poe großen Einfluss aus; Poe porträtierte ihn in seiner ersten Erzählung "Die Verabredung". Einen großen Einfluss übte Lord Byron auf den jungen Friedrich Nietzsche aus. Nietzsche verwendet hier zum ersten Mal den später so oft zitierten Begriff „Uebermensch“, indem er Byron als „geisterbeherrschenden Uebermenschen“ charakterisiert. Von Byron beeinflusst zeigten sich unter anderem der englische Maler William Turner und der russische Dichter Alexander Puschkin. Der Byronsche Held wurde zum Vorläufer des Topos des „überflüssigen Menschen“ in der russischen Literatur der 30er bis 50er Jahre des 19. Jahrhunderts; oft wird in den Werken dieser Zeit auf Lord Byron offen Bezug genommen. Ehrungen und Nachwirkung. Siegel der griechischen Gemeinde Vyronas mit dem Porträt Byrons Das Andenken Byrons ist in Griechenland bis heute präsent. So ist "Vyron/Vyronas" (, vgl. z. B. Byron Fidetzis) ein griechischer Vorname. Auch die attische Gemeinde Vyronas, ein Athener Vorort, ist nach Lord Byron benannt. Zahlreiche Hotels tragen den Namen Byrons, unter anderem das zwischen 1841 und 1929 bestehende Hôtel Byron am Genfersee. Ljubljana. Blick von der Burg auf die Stadt Ljubljana (bzw. umgangssprachlich/dialektal), deutsch, v.a. in Österreich verwendet: Laibach, italienisch "Lubiana", ist die Hauptstadt von Slowenien und mit 277.554 Einwohnern (2014) zugleich seine größte Stadt. Die Stadt ist das politische, wirtschaftliche und kulturelle Zentrum Sloweniens. Ljubljana ist Sitz des gleichnamigen römisch-katholischen Erzbistums und seit 1919 Universitätsstadt. Name der Stadt. Für die Herkunft des slowenischen Namens der Stadt gibt es mindestens zwei Erklärungen: nach der einen kommt er von "ljubljena" („geliebte Stadt“), nach der anderen von dem lateinischen Flussnamen "aluviana". Im deutschsprachigen Raum hat sich neben dem Namen "Ljubljana" auch der historische deutsche Name "Laibach" gehalten, der vor allem in Österreich gebräuchlich ist. Vorgeschichte. Von 3600 bis 3100 v. Chr. finden sich die frühesten Seebehausungen (Pfahlbauten) im Laibacher Moor. Zwischen 1000 und 700 v. Chr. existierten erste illyrische und venetische Siedlungen und um 400 v. Chr. folgte die Periode der Kelten. Römisches Reich. Im 1. Jahrhundert v. Chr. wurde von den Römern eine militärische Festung an der Stelle des heutigen Ljubljana errichtet und im Jahr 14 die römische Siedlung Emona ("Colonia Emona [Aemona'"] Iulia tribu Claudia") angelegt. Sie befand sich zwar an der Stelle des heutigen Ljubljana, ging jedoch in der Völkerwanderung unter und ist daher nur eine Vorgängersiedlung der heutigen Stadt. Slawen. Um 600 kamen die Slawen in das Gebiet, gefolgt von einem Niedergang Emonas. Fränkisches Reich. Um 800 fiel das Gebiet von Laibach unter die Herrschaft der Franken. Heiliges Römisches Reich Deutscher Nation. Der Zeitraum zwischen 1112 und 1125 ist die Entstehungszeit der ersten schriftlichen Aufzeichnungen von Laibach. Die erste urkundliche Erwähnung der Stadt stammt aus dem Jahr 1144. Die von den Spanheimern gegründete Siedlung wurde um 1220 erstmals Stadt genannt, 1243 sind ihr Marktrecht und ihre Stadtmauer aktenkundig, 1280 wurden die Einwohner „cives“ (Bürger) genannt. Königreich Böhmen. 1270 wurde Laibach von dem böhmischen König Premysl Ottokar II. erobert, der sich zuvor nach dem Aussterben der Babenberger im Mannesstamm, 1246, deren österreichisches Herrschaftsgebiet untertan gemacht hatte. Habsburger Herrschaft. 1278 ging Laibach nach der Niederlage des Königs Ottokar II. gegen Rudolf von Habsburg in den Besitz der Habsburger über. 1335 wurde Laibach unter den Habsburgern Hauptstadt des zum Heiligen Römischen Reich zählenden Herzogtums Krain. Im Jahr 1415 widerstand Laibach einer türkischen Invasion. Im Jahr 1461 wurde die Diözese Laibach gegründet ("siehe auch: Liste der Bischöfe von Ljubljana"), und die Kirche St. Nikolaus wurde zur Kathedrale. 1504 fand die Wahl des ersten Bürgermeisters statt. 1511 erlebte Laibach sein erstes großes Erdbeben. Im Jahr 1536 errichteten Protestanten eine professionelle Lateinschule im Range eines Gymnasiums. 1597 trafen die Jesuiten in Laibach ein, die zwei Jahre später ihr eigenes Gymnasium errichteten. 1693 folgte die Gründung der "Academia Operosum", einer Vereinigung der angesehensten Gelehrten, und 1701 die Gründung der "Academia Philharmonicorum". 1754 lag die Bevölkerungszahl bei 9.300 Einwohnern. 1773 bis 1781 wurden der Gruberkanal (Gruberjev kanal) und der Gruber-Palast (Gruberjeva palača) erbaut. 1797 wurde die erste Tageszeitung von Slowenien herausgegeben. Napoleonische Besetzung. Unter Napoléon Bonaparte war die Stadt als "Laybach" 1809 bis 1813 Hauptstadt der Illyrischen Provinzen Frankreichs. Kaisertum Österreich. Anschließend war Laibach wieder Teil des 1804 gegründeten Kaisertums Österreich. 1810 erfolgte die Gründung des Botanischen Gartens. 1821 fand auf Einladung von Kaiser Franz I. der Laibacher Kongress der Heiligen Allianz statt. Im Jahr 1849 wurde die Eisenbahnverbindung Laibach–Wien, die österreichische Südbahn, erbaut und 1857 als Verlängerung die Verbindung Laibach–Triest. Im Jahr 1861 erfolgte die Einführung der öffentlichen Gasbeleuchtung und 1890 der Bau der öffentlichen Wasserversorgung. Nach einem verheerenden Erdbeben verpflichtete sich Laibach 1895 zu einem modernen Aussehen. 1898 wurde die öffentliche elektrische Beleuchtung eingeführt. Drei Jahre später, 1901, folgte die Einführung der elektrischen Straßenbahn in Laibach. Vor dem Ersten Weltkrieg war Laibach österreichisch-ungarische Garnisonstadt. Im Jahre 1914 waren hier ganz oder in Teilen stationiert: der Stab der k. u. k. 28. Infanterie Truppen Division, das k.u.k. Krainerische Infanterie Regiment Nr. 17, das k.u.k. Steierische Infanterie Regiment Nr. 27, das k.k. Landwehr Infanterie Regiment Nr. 27 und das k.u.k. Feldkanonen Regiment Nr. 7. Die strategischen Entscheidungen für die Italienfront, insbesondere für die Isonzofront, wurden vom Armeekommando in Laibach getroffen, wo unter anderen Feldmarschall Boroević und der spätere österreichische Bundespräsident Körner tätig waren. Königreich der Serben, Kroaten und Slowenen und Königreich Jugoslawien. Ende Oktober 1918 wurde Ljubljana Teil des neu gegründeten Königreichs der Serben, Kroaten und Slowenen. 1919 erfolgte die Gründung der Universität von Ljubljana. 1929 wurde Ljubljana Hauptstadt der Drau-Banschaft ("Dravska banovina") im Königreich Jugoslawien. Italienische Besetzung. Unterbrochen war die Zugehörigkeit während des Zweiten Weltkrieges ab 3. Mai 1941 durch eine kurze Zugehörigkeit zu Italien als "Lubiana", Hauptstadt der "Provincia di Lubiana", mit dem ehemaligen jugoslawischen General Leon Rupnik als Bürgermeister. Der Großteil der Laibacher Deutschen, rund 2400, wurde im Winter 1941 / 1942 auf Grund eines Abkommens zwischen Adolf Hitler und Benito Mussolini ins Großdeutsche Reich umgesiedelt, mehrheitlich in die Oberkrain und die Untersteiermark. Im Jahr 1942 war die Stadt von einem Stacheldrahtzaun umgeben. Deutsche Besetzung. Nach der Kapitulation Italiens im September 1943 ging sie in deutsche Kontrolle über (SS-General Erwin Rösener und Friedrich Rainer als Chef der Zivilverwaltung). Sozialistische Föderative Republik Jugoslawien. Am 9. Mai 1945 erfolgte die formale Auflösung der Provincia di Lubiana. 1945 wurden die verbliebenen Laibacher Deutschen ebenso wie die übrigen Deutschsprachigen Sloweniens auf Grund der AVNOJ-Beschlüsse vertrieben. Zahlreiche Menschen wurden ermordet. Im Jahr 1945 wurde Ljubljana Hauptstadt der Volksrepublik Slowenien in der Föderativen Volksrepublik Jugoslawien. 1958 startete der erste slowenische Fernsehsender mit regelmäßigen Übertragungen. 1958 wurde die Straßenbahn stillgelegt. 1980 starb der jugoslawische Präsident Josip Broz Tito in Ljubljana. Republik Slowenien. Im Jahr 1991 feierte die Stadt Sloweniens Unabhängigkeit. 2002 fand das Gipfeltreffen Bush/Putin in Ljubljana statt. Nur wenige Wochen nach Entdeckung eines neuen Massengrabes mit über 4.000 Opfern von Titopartisanen in einem slowenischen Bergwerk beschloss im April 2009 der Stadtrat von Ljubljana mit der Mehrheit der Linksparteien, wieder eine Straße nach Josip Broz Tito zu benennen, nachdem bereits bis 1991 die heutige "Slovenska cesta" nach ihm benannt war. Slowenische Philharmonie, gegründet 1701, mit der Laibacher Burg im Hintergrund Rathaus (Mestna hiša oder Rotovž) auf dem Mestni trg, dem Stadtplatz in der Altstadt a>, die im Stadtgebiet auf mehr als einem Dutzend Brücken überquert werden kann a>, Ansicht vom Park der Reformation Kultur und Sehenswürdigkeiten. Ljubljana ähnelt einerseits einer österreichischen Stadt, hat aber durch seine Altstadt, durch Plečniks Kulturkreise verbindende Architektur, durch die vielen Cafés am Fluss und das gemäßigte Klima spezielles mediterranes Flair. Im Sommer, speziell im August, finden verschiedene Musikveranstaltungen in der Altstadt und auf der Burg, u. a. die Musikakademie Ljubljana, statt. Südlich der Šentjakobski most (der St.-Jakobs-Brücke zwischen den Straßen Zoisova cesta und Karlovška cesta) liegen auf der westlichen Flussseite die Ljubljanica-Terrassen, ein beliebter Treffpunkt am Wochenende. Sehenswert ist der Markt rund um den Dom, besonders samstags. Ebenfalls erwähnenswert sind der unter den Kolonnaden versteckte Fischmarkt und ein Sonderbereich im Gebäude gegenüber den Kolonnaden. Samstags findet ein Kunstflohmarkt zwischen den drei Brücken und der Čevljarski most (der Schusterbrücke) statt. Ljubljana besitzt auch ein sehenswertes Eisenbahnmuseum mit einer umfangreichen Sammlung historischer Dampflokomotiven. Metelkova ist das Zentrum der alternativen Kulturszene. Auf dem ehemaligen Kasernengelände leben Künstler und Studenten der Akademie für Theater, Radio, Film und Fernsehen, und es finden viele Ausstellungen, Partys und andere Veranstaltungen statt. Die seit 1993 andauernde „Besetzung“ des Geländes wird von der Stadt Ljubljana geduldet. Am Südrand des Waldhügels Rožnik befindet sich der Zoo, ca. 30 Gehminuten vom Stadtzentrum entfernt. Der Tourismus hat seit 2004 einen starken Aufschwung erlebt, entsprechend sind auch die Zimmerpreise gestiegen. Bevölkerung. Die Bevölkerung der Stadt bestand seit dem Hochmittelalter vor allem aus Deutschsprachigen. Nach 1848 fungierte sie als kultureller Mittelpunkt der Slowenen. Zur Volkszählung im Jahr 1880 waren die 5 658 Deutschsprachigen (23 Prozent der Bevölkerung) bereits eine Minderheit. Bei der Volkszählung 2002 waren 84,1 Prozent der Einwohner von Ljubljana slowenische Staatsbürger, 7,5 Prozent Bosnier, 3,5 Prozent Kroaten, 3,2 Prozent Serben, 0,7 Prozent EU-Bürger (damals EU-15), 0,6 Prozent Mazedonier und 0,5 Prozent andere. Slowenisch ist alleinige Amtssprache der Stadtgemeinde Ljubljana und wurde bei dieser Volkszählung von 78,9 Prozent der Bevölkerung als Muttersprache angegeben. Ferner sprachen nach eigenen Angaben 4,1 Prozent Serbisch, 3,9 Prozent Kroatisch, 3,9 Prozent Serbokroatisch, 3,4 Prozent Bosnisch und 1,9 Prozent sonstige Sprachen. Geografie. Ljubljana liegt auf am Rande des Laibacher Beckens an der Ljubljanica ("Laibach"), die noch im Stadtgebiet in die Save mündet. Südlich tut sich der Karst auf, nach Norden erlaubt das Becken freien Blick in die Karawanken und die Steiner Alpen. Südwestlich erstreckt sich die Ebene des teilweise trockengelegten Laibacher Moores ("Ljubljansko barje"). Die Altstadt liegt an einer Schlinge der Ljubljanica um den Schlossberg. Zur Erleichterung der damaligen Schifffahrt wurde diese Schlinge im Jahr 1750 durch den Gruberkanal ("Gruberjev Prekop") abgeschnitten. Wirtschaft. Ljubljana ist das wichtigste Wirtschaftszentrum Sloweniens, es ist Sitz der Ljubljanska borza, der einzigen Börse des Landes, sowie der meisten der großen Unternehmen in Slowenien wie Mercator, Petrol, Adria Airways, Lek und Telekom Slovenije. Verkehr. Hauptbahnhof mit davor befindlichem zentralen Omnibusbahnhof Typische Radwegführung, Kreuzung Slovenska cesta – Gosposvetska cesta. Vor der Abmarkierung war auch auf diesem Abschnitt Radfahren verboten – auf der Fahrbahn ist es das weiterhin Straße. Ljubljana hat eine wichtige Funktion als internationaler Verkehrsknotenpunkt südlich der Alpen für die Verkehrsströme zwischen Italien und Ungarn sowie von Österreich nach Kroatien und bildete zu jugoslawischer Zeit den Beginn des sogenannten Autoput. Es gibt heute einen Autobahnring sowie vier sternförmig von diesem ausgehende Autobahnen (Richtung Karawankentunnel/Klagenfurt, Maribor, Zagreb und Koper/Triest). Flugverkehr. Der internationale Flughafen liegt 15 km nördlich des Zentrums bei Brnik. Schienenverkehr. Ljubljana Hauptbahnhof ist zentraler Eisenbahnknoten in Slowenien und wichtigster Knoten des öffentlichen Verkehrs der Stadt. Ljubljana liegt an der zweigleisigen Hauptbahn Maribor–Triest (ursprünglich Bestandteil der Österreichischen Südbahn), eine eingleisige Hauptstrecke führt über Jesenice (Karawankentunnel: Grenzübergang mit Österreich) nach Villach. Beide Strecken sind elektrifiziert und ermöglichen über die genannten Städte hinaus auch tägliche Fernverkehrsverbindungen Richtung Belgrad, Frankfurt am Main, München, Prag, Pula, Rijeka, Salzburg, Stuttgart, Venedig, Wien, Zagreb und Zürich. Außerdem gibt es noch je eine nicht elektrifizierte Strecke nach Karlovac (über Novo mesto) und nach Kamnik. ÖPNV. Der städtische Nahverkehr wird ausschließlich mit Omnibussen abgewickelt, im Volksmund "„Trola“" genannt, da es in den sechziger Jahren O-Busse (Trolleybusse) gab. Die ab 1901 errichtete Straßenbahn ("Tramvaj") wurde 1961 eingestellt. Auf Grund zunehmender Verkehrsprobleme (Staus, Parkraummangel) ist die Wiedereinführung eines schienengebundenen Nahverkehrssystems (Stadtbahn) geplant, jedoch wurden die diesbezüglichen Pläne bisher nicht realisiert. Fahrrad. Der Fahrradverkehr ist im Sommer bedeutend, jedoch durch die Verkehrsplanung stark reglementiert. So gibt es ein Fahrradverbot auf manchen Hauptstraßen (s. Bild). Auf einzelnen Abschnitten wurde das Verbot aufgehoben, meistens im Zusammenhang mit dem Bau von zusätzlichen Fahrradwegen. Seit dem Jahre 2000 gibt es einen kleinen städtischen Alltagsradlerverband. Im 2012 wurde Fahrradverleihsystem "BicikeLJ" ("bicikel", umgangssprachlicher Ausdruck für "Fahrrad" + LJ) eingeführt. Mit der Stadtkarte "Urbana" ist für registrierte Benutzer jede neu angefangene Fahrt bis max. 60 min kostenfrei. Seit 2013 sind zahlreiche Straßen, wo zuvor Fahrradverkehr verboten war, unter anderen auch ein Teil der "Slovenska cesta", einer der wichtigsten Geschäftsstraßen im Zentrum der Stadt, für den individuellen Autoverkehr gesperrt und nur mit Bussen oder Fahrrädern befahrbar bzw. zu Fuß erreichbar. 2015 wurde Ljubljana vom Verkehrsplanungsunternehmen "Copenhagenize Design Company" zum ersten Mal als eine fahrradfreundliche Stadt eingestuft. Wissenschaft und Bildung. Ljubljana ist Sitz einer der vier Universitäten Sloweniens. Die Universität Ljubljana umfasst mehr als 64.600 Studenten, die sich auf 22 Fakultäten verteilen. Damit ist sie nicht nur die größte Hochschule Sloweniens, sondern zählt auch zu den größten Universitäten Europas. Die staatliche Hochschule in ihrer heutigen Form besteht seit 1919, wenngleich es zuvor schon ähnliche akademische Institute gab. Die Musikakademie Ljubljana, die Kunstakademie Ljubljana sowie die Akademie für Theater, Radio, Film und Fernsehen (AGRFT) sind Einrichtungen und Teil der Universität Ljubljana. Außerdem befindet sich die Slowenische Akademie der Wissenschaften und Künste in Ljubljana. Sie wurde 1938 gegründet. Veranstaltungen. Seit 1996 findet im Oktober der Ljubljana-Marathon statt, an dem mittlerweile einschließlich der Nebenwettbewerbe mehr als 10.000 Läufer teilnehmen. Laufvögel. Die Laufvögel (Struthioniformes) sind eine zu den Urkiefervögeln gehörige Ordnung flugunfähiger Vögel. Sie stellen in der Gegenwart die größten Vögel der Erde. Obwohl sie Federn und rudimentäre Flügel besitzen, können sie aufgrund ihres Gewichts und ihrer nur schwach entwickelten Brustmuskulatur nicht fliegen. Nach neueren molekulargenetischen Untersuchungen sind die Laufvögel ohne die Steißhühner paraphyletisch, die Steißhühner stehen demnach in einer gemeinsamen Gruppe mit den hier als Laufvögeln bezeichneten Taxa. Allgemeines. Zu den Laufvögeln zählen vor allem straußenartige, schwere und große Vögel. Allein die Kiwis sind nur wenig größer als ein Huhn. Manche Zoologen sehen auch die Steißhühner als Bestandteil der Laufvögel. Nicht zu den Laufvögeln gehören die ausgestorbenen Donnervögel (Dromornithidae) Australiens. In der Gestalt durchaus straußenähnlich, stehen sie nach neueren Erkenntnissen in der verwandtschaftlichen Nähe der Gänsevögel. Merkmale. Den Laufvögeln fehlt der Brustbeinkamm. Wegen dieses Merkmals werden sie auch "Flachbrustvögel" oder "Ratiten" genannt. Letzterer Name leitet sich von dem lateinischen "ratis" „Floß“ ab. Steißhühner haben allerdings einen Brustbeinkamm. Die Federn der Laufvögel und Steißhühner haben zwei Schäfte, einen Hauptschaft und einen Afterschaft, die beide gleich lang sind. Die Bogen- und Hakenstrahlen sind meistens nicht effektiv genug, um den Federästen ("Barbae") die Festigkeit zu verleihen, die andere Vogelfedern auszeichnet. Dadurch macht das Gefieder einen lockeren und hängenden Eindruck. Alle Laufvögel sind flugunfähig. Strauße und Nandus haben noch große Flügel, die vor allem rituelle Funktionen erfüllen; bei den anderen Gruppen sind die Flügel stark reduziert, bei den Moas fehlten sie sogar vollkommen. Während flugfähige Vögel eine bestimmte Größe nicht überschreiten dürfen, um sich weiter in die Luft erheben zu können, sind den Laufvögeln in Größe und Gewicht keine Beschränkungen auferlegt. Mit der Größenzunahme erlangt ein flugunfähiger Vogel besseren Schutz vor Räubern. Die Verlängerung der Beine erlaubt eine schnelle Flucht, der lange Hals ermöglicht es, von Bäumen und hohen Sträuchern zu fressen. Der Körper kann größere Mengen von Nahrung speichern, da es nicht mehr vonnöten ist, zum Zweck der Flugfähigkeit ein geringes Körpergewicht zu halten. Die Verdauung geht daher langsamer vonstatten und ist effektiver. Im Gegensatz zu anderen Vogelgruppen, bei denen die Männchen entweder gar keinen oder nur einen einfach gebauten Penis besitzen, sind bei den Laufvögeln die Kopulationsorgane sehr gut entwickelt. Evolution. Viele Fragen in Zusammenhang mit den Laufvögeln sind ungeklärt. So wurde insbesondere diskutiert, ob diese Gruppe wegen ihrer Flugunfähigkeit besonders „primitiv“ sei. Das Kleinhirn der Ratiten unterscheidet sich kaum von dem der flugfähigen Vögel. Auch das reduzierte Flügelskelett folgt dem gleichen Grundschema wie das der fliegenden Arten. Den Laufvögeln fehlen jedoch die Luftsäcke in den Langknochen, wie sie für Flugvögel typisch sind. Die meisten Fachleute gehen heute davon aus, dass Laufvögel von flugfähigen Vögeln abstammen. Laufvögel gehen bis auf das Paläozän zurück, in Form der Lithornithiformes, einer Ordnung steißhuhnähnlicher Vögel. Nandus sind seit dem Eozän bekannt, Kasuare seit dem Oligozän, Strauße, Moas und Steißhühner seit dem Miozän, und Elefantenvögel und Kiwis seit dem Pleistozän. Systematik. Modernere Ansätze stellen diese Gruppierung in Frage. Laufvögel sind eine sehr alte Gruppe, die sich womöglich bereits aufgegliedert hat, als die südlichen Kontinente noch als Gondwana miteinander verbunden waren. So muss geographische Nähe in der Jetztzeit keineswegs eine enge Verwandtschaft bedeuten. Zudem versucht man, die Steißhühner in das System einzubringen. Wie die Nandus sind sie Bewohner Südamerikas, und mit diesen haben sie manche Merkmale der Federn gemeinsam. Daher könnten die Nandus und Steißhühner nahe miteinander verwandt sein, und der Strauß hat seine Ähnlichkeit zum Nandu in konvergenter Evolution entwickelt. Nach neueren molekulargenetischen Untersuchungen bilden die Steißhühner die Schwestergruppe eines Taxons, das aus Kiwis, Kasuaren und Emus besteht. Ohne die Steißhühner sind die Laufvögel demnach paraphyletisch. Libellen. Die Libellen (Odonata) bilden eine Ordnung innerhalb der Klasse der Insekten (Insecta). Von den 5680 im Jahr 2008 bekannten Arten treten in Mitteleuropa etwa 85 auf. Die Flügelspannweite der Tiere beträgt in der Regel zwischen 20 und 110 mm, die Art "Megaloprepus coerulatus" (Zygoptera, Pseudostigmatidae; also eine „Kleinlibelle“) kann allerdings sogar eine maximale Spannweite von 190 mm erreichen. Namensgebung. Guillaume Rondelet beschreibt in diesen Zeilen eine Larve einer Kleinlibelle und vergleicht diese mit dem Hammerhai (Gattung "Libella"). Vor der Durchsetzung des Namens „Libellen“ waren für diese Insekten die Bezeichnungen „Wasserjungfern“, „Schleifer“ oder „Augenstecher“ verbreitet. Flügel. Die Libellen zeichnen sich durch einen außergewöhnlichen Flugapparat aus. Die Fähigkeit, ihre beiden Flügelpaare auch unabhängig voneinander zu bewegen, ermöglicht es ihnen, abrupte Richtungswechsel zu vollziehen, in der Luft stehen zu bleiben oder bei einigen Arten sogar rückwärts zu fliegen. Beim Flug werden Maximalgeschwindigkeiten von 50 km/h erreicht. Die Frequenz des Flügelschlages ist dabei mit etwa 30 Schlägen pro Sekunde relativ langsam. Die großen Vorder- und Hinterflügel sind (vor allem bei den Kleinlibellen) annähernd gleich groß. Dabei reicht die Spannweite der Tiere von 18 Millimetern bei "Agriocnemis pygmaea" bis zu 19 Zentimetern bei "Megaloprepus caerulatus", Pseudostigmatidae. Da ihnen das für die Neuflügler typische Flügelgelenk fehlt, können sie die Flügel nicht nach hinten über den Hinterleib legen. Anders als bei fast allen anderen Fluginsekten setzen bei den Libellen die Flugmuskeln direkt an den Flügeln an. Stabilisiert werden die Flügel durch eine komplexe Flügeladerung. Die Flugfläche ist über die Längsadern hinweg nicht plan, sondern zickzackförmig aufgespannt. Im Zentrum des Flügels treffen sich diese Adern in einem Knotenpunkt (Nodus), damit sie auch bei einer Längsbeanspruchung nicht abknicken können. Insgesamt unterscheidet sich die Flügeladerung bei den unterschiedlichen Libellenarten sehr stark, sodass sie als Bestimmungsmerkmal und zur systematischen Einordnung der Tiere genutzt werden kann. Am vorderen Bereich der Flügelspitze besitzen die meisten Arten ein vergrößertes und dunkel gefärbtes Flügelfeld, das als Flügelmal (Pterostigma) bezeichnet wird und das im Flug als Trimmtank durch Füllung mit Hämolymphe benutzt werden kann. Kopf. Der Kopf der Libellen ist deutlich von den Brustsegmenten getrennt und dadurch extrem beweglich. Auffällig sind die großen Facettenaugen, die bei einigen Arten aus bis zu 30.000 Einzelaugen (Ommatidien) bestehen können. Zwischen den Komplexaugen liegen auf der Kopfoberseite außerdem drei kleine Punktaugen (Stirnocellen), die wahrscheinlich als Gleichgewichtsorgan (Horizontdetektor) und zur Kontrolle schneller Flugbewegungen dienen. Hinweise hierzu bieten Experimente an der Falkenlibelle "Hemicordulia tau", deren Flug bei abgedeckten Ocellen instabil wird. Mit diesem System verfügen sie wahrscheinlich über den besten Sehsinn unter den Insekten. Die Fühler der Libellen sind borstenartig kurz und bestehen aus acht Gliedern. Ihre Funktion besteht hauptsächlich in der Ermittlung der Fluggeschwindigkeit, die sie mit Hilfe von an ihnen befindlichen Sinneshaaren bestimmen. Die Mundwerkzeuge und besonders die Mandibeln sind kräftig entwickelt und bezahnt (daher der wissenschaftliche Name „Odonata“). Vorn werden diese von der Oberlippe (Labrum) abgeschlossen. Die Maxillen tragen jeweils einen Taster und die Unterlippe (Labium) ist zweilappig ausgebildet. Brust und Hinterleib. Die Brust (Thorax) der Libellen ist wie bei allen Insekten dreiteilig aufgebaut. Die beiden hinteren Brustsegmente sind sehr kräftig ausgebildet und schräg gegenüber dem ersten Segment ausgerichtet. Auf diesem Weg entsteht ein nach vorn gerichteter „Fangkorb“ aus den Beinen. Diese besitzen außerdem kräftige Klauen und sind am Unterschenkel (Tibia) meist bedornt, um die Beutetiere besser halten zu können. Der langgestreckte Hinterleib besteht aus zehn Segmenten. Durch die Länge bewirkt er eine Stabilisierung beim Flug. Die Beweglichkeit des Hinterleibes ist vor allem für die Paarung der Tiere notwendig. Die Männchen besitzen am Ende des Hinterleibs eine Greifzange aus umgebildeten Hinterleibsanhängen (Cerci), mit der sie das Weibchen bei der Paarung festhalten können. Dabei weisen die Kleinlibellen ein oberes Paar (Cerci) und ein unteres Paar (Paraprocte) Hinterleibszangen auf. Bei den Großlibellen fehlt das untere Paar Zangen und es gibt stattdessen einen unpaaren beweglichen Fortsatz (Epiproct). Die Männchen besitzen am Hinterleib außerdem einen sekundären Kopulationsapparat, die Weibchen einen Eiablageapparat (Ovipositor). Lebensräume. Libellen sind vor allem in der Nähe von Gewässern zu finden, da ihre Larven auf Wasser als Lebensraum angewiesen sind. Besonders viele Vertreter der Großlibellen wie etwa die Blaugrüne Mosaikjungfer "Aeshna cyanea" fliegen zum Beutefang jedoch auch weite Gebiete abseits der Gewässer ab. Insbesondere in der Reifungsphase bewegen sich Libellen für einige Wochen abseits der Gewässer. Auch die Weibchen sind meist nicht am Gewässer zu finden, da sie sonst sofort von einem Männchen zur Paarung genötigt würden. Einige Libellenarten sind auch nicht selten in Stadtrandgebieten und durchgrünten Wohnsiedlungen anzutreffen. Fließende und stehende Gewässer. Nur verhältnismäßig wenige Libellen sind ausgesprochene Fließgewässerarten, vor allem in den schnell fließenden Oberläufen und im Quellbereich findet man entsprechend nur gut angepasste Tiere. In diesen Gebieten leben vor allem die Quelljungfern der Gattung "Cordulegaster", deren Larven auf das sauerstoffreiche Wasser dieser Gewässer angewiesen sind. Diese findet man allerdings in den ruhigeren Bereichen hinter Steinen oder Wasserpflanzen. Die Zweigestreifte Quelljungfer "Cordulegaster boltonii" kann allerdings auch an langsam fließenden Gewässern gefunden werden. Typische Bewohner der Flüsse und langsamen Bäche sind die Prachtlibellen (Gattung "Calopteryx") sowie die Flussjungfern (Gomphidae). An schmalen Gräben und Wiesenbächen finden sich beispielsweise die Helm-Azurjungfer "Coenagrion mercuriale" sowie die Vogel-Azurjungfer "Coenagrion ornatum". Weit mehr Arten bevorzugen stehende Gewässer als Lebensraum. Sie finden sich an Tümpeln, Seen und Teichen, wo ihre Larven vor allem in den flacheren Uferzonen und zwischen Wasserpflanzen leben. Dabei sind einige Arten wie etwa die Große Pechlibelle "Ischnura elegans", die Hufeisen-Azurjungfer "Coenagrion puella" oder die Blaugrüne Mosaikjungfer "Aeshna cyanea" als sogenannte Ubiquisten kaum spezialisiert, und viele Libellenlarven können auch relativ hohe Verschmutzungsgrade tolerieren. Spezialisiertere Arten wie etwa einige Heidelibellen (Gattung "Sympetrum") brauchen bestimmte Typen von Kleingewässern, wie z. B. periodisch austrocknende Flachgewässer, oder gar Sümpfe. Moore. Ein besonders gefährdeter Lebensraum sind die Moore, die ebenfalls vielen Arten von Libellen als Lebensraum dienen. Diese Arten sind an die hier existierenden Bedingungen wie den extrem niedrigen pH-Wert der Gewässer und die teilweise sehr geringen Sauerstoffressourcen angepasst und können entsprechend in anderen Lebensräumen nur schwer überleben. Auch hier leben verschiedene Azurjungfern wie etwa die Speer-Azurjungfer "Coenagrion hastulatum", Falkenlibellen wie die Arktische Smaragdlibelle "Somatochlora arctica" sowie Mosaikjungfern wie die Torf-Mosaikjungfer "Aeshna juncea". Besonders typische Moorarten sind die meisten Moosjungfern (Gattung "Leucorrhinia"). Lebensweise. Libellen sind Räuber, die ihre Beutetiere im Flug fangen. Sie nutzen dafür ihre zu einem Fangapparat umgestalteten Beine, mit denen sie ihre Opfer ergreifen. Die Beute der Libellen besteht im Wesentlichen aus anderen Insekten, wobei das Spektrum sehr groß ist. Libellen attackieren beinahe wahllos alle Tiere, die sie überwältigen können. Besonders die Männchen attackieren dabei zur Paarungszeit auch andere Libellen, manchmal sogar Angehörige der eigenen Art, zeigen also Kannibalismus. Die Jagdflüge sind dabei nicht auf die Gewässer beschränkt, sie finden auch auf Wiesen, Waldlichtungen oder anderen freien Flächen statt. Einige Arten, vor allem Libellenarten der tropischen Regionen, aber auch die heimische Grüne Mosaikjungfer ("Aeshna viridis"), sind ausgesprochene Dämmerungsjäger. Dabei sind sie vollständig auf ihre Augen zur Auffindung der Beute angewiesen. Wie viele andere Insekten nutzen auch die Libellen die Sonnenwärme zur Aufheizung ihres Körpers, besonders der Muskulatur. Zu diesem Zweck setzen sich einige Arten an sonnenexponierte Stellen und spreizen ihre Flügel, um unter den Flügeln die Wärme zu speichern. Besonders bei Arten der kühleren Gebirgsregionen ist dieses Verhalten häufig zu beobachten. Trotz ihrer Schnelligkeit haben Libellen eine große Anzahl von Fressfeinden. Besonders angreifbar sind sie dann, wenn sie sich zum letzten Mal häuten und sich aus der Exuvie arbeiten. Vor allem Frösche, Fledermäuse und Vögel fressen Libellen, aber auch Wespen, Webspinnen und Ameisen können frisch geschlüpfte Libellen attackieren und verzehren. Ebenso können fleischfressende Pflanzen wie etwa der Sonnentau ("Drosera") für Libellen zur Gefahr werden. Zu den Parasiten der Libellen gehören vor allem die Larven von Wassermilben, in Mitteleuropa speziell jene der Gattungen "Arrenurus" und "Limnochares". Die Larven der Libellen fallen vor allem anderen Libellenlarven, aber auch anderen Räubern im Wasser zum Opfer. Paarung und Eiablage. Die beiden ausgewachsenen Libellen finden sich im Flug, wobei nach einem Vorspiel das Männchen das Weibchen mit der Zange aus den beiden Hinterleibsanhängen hinter dem Kopf ergreift. Danach biegt sich das Weibchen im Flug nach vorn und berührt mit seiner Geschlechtsöffnung am achten oder neunten Hinterleibssegment den Samenbehälter des Männchens am zweiten oder dritten Hinterleibssegment. Dabei entsteht das für Libellen typische Paarungsrad. Das Weibchen legt nach der Begattung die Eier meist in ein Gewässer ab. Dabei gibt es Arten, welche die Eier in Wasserpflanzen einstechen (endophytisch), und solche, die die Eier im Flug ins Wasser abwerfen oder unter Wasser am Substrat abstreifen (exophytisch). Andere Arten stechen die Eier in die Rinde von Bäumen am Ufer (zum Beispiel Weidenjungfer) oder werfen wie manche Heidelibellen die Eier über trockenen, möglicherweise später einmal überfluteten Senken ab. Die Eiablage kann sowohl in der Tandemstellung erfolgen als auch allein durch das Weibchen. Erstaunlich ist die Fähigkeit der Weibchen einiger Arten (zum Beispiel Prachtlibellen, Gemeine Becherjungfer), zur Eiablage bis zu 90 Minuten lang auf Tauchgang komplett unter Wasser zu gehen. Viele Arten benötigen ganz spezielle Ablagesubstrate oder Ablagepflanzen: Das Weibchen der Grünen Mosaikjungfer sticht die Eier beispielsweise nur in die Blätter der Krebsschere "Stratiotes aloides" ein, und viele Moorlibellen sind an das Vorkommen von Torfmoosen ("Sphagnum" spp.) gebunden. Larvenstadium. Aus den Eiern schlüpfen bei beinahe allen Arten sogenannte Prolarven, die sich morphologisch von den späteren Larven deutlich unterscheiden. Sie sind meist länger und ihre Beine sind nicht einsatzbereit. Die erste Häutung erfolgt daraufhin entweder in den ersten Sekunden oder in den ersten Stunden nach dem Schlüpfen. Im Wasser sind die Larven gut angepasste Räuber und besitzen als wirksamstes Organ für diese Lebensweise eine typische Fangmaske, die im Ruhezustand unter den Kopf gefaltet wird. Ist ein potentielles Opfer in Reichweite, schnellt dieses klauenbewehrte Instrument hervor und die Beute wird gepackt. Kleinlibellen (Zygoptera) bevorzugen als Beute vor allem Mückenlarven und Kleinkrebse wie etwa die Bachflohkrebse ("Gammarus" spp.). Larven der Großlibellen (Anisoptera) jagen entsprechend größere Beutetiere wie kleine Kaulquappen oder Insekten und deren Larven. Zur Atmung unter Wasser besitzen Libellenlarven zwei verschiedene Techniken, wodurch sie auf den ersten Blick unterschieden werden können: Die Kleinlibellen haben an ihrem Hinterende drei blattförmige Tracheenkiemen, mit denen sie Sauerstoff aus dem Wasser aufnehmen können. Großlibellen hingegen besitzen keine sichtbaren Kiemen, diese sind in den Enddarm verlagert (Rektalkiemen). Die Aufnahme des Sauerstoffs erfolgt hier durch ein spezielles Gewebe im Enddarm. Die Dauer des Larvenlebens einer Libelle übertrifft jenes der daraus hervorgehenden Imago in der Regel beträchtlich: Die Spanne, die einzelne Arten als Larve im Wasser verbringen, reicht in Mitteleuropa von etwa drei Monaten (zum Beispiel Frühe Heidelibelle "Sympetrum fonscolombii", Sommergeneration) bis zu immerhin fünf Jahren (Quelljungfern, Gattung "Cordulegaster"). Eine ein- oder zweijährige Larvalentwicklung ist der am häufigsten vorkommende Fall. Dabei durchlaufen die Tiere mehr als zehn kontinuierlich größer werdende Larvenstadien, die jeweils mit einer Häutung abgeschlossen werden. Emergenz. Gegen Ende des letzten Larvenstadiums verlässt das Tier das Wasser, um sich meist an vertikalen Strukturen zum Schlupf (Emergenz) senkrecht fest zu verankern. Eine Ausnahme bilden die Flussjungfern (Gomphidae), die häufig in waagerechter Position auf Kieseln oder dem blanken Boden schlüpfen. Das Spektrum der Emergenzorte reicht von Wurzelwerk, Steinen oder Fels, Büschen und Bäumen bis hin zu anthropogenen Strukturen wie Brückenpfeilern oder Bootshäusern. Am häufigsten suchen die Larven allerdings die Stängel oder Blätter von Ufer- oder Wasserpflanzen beziehungsweise Schilf zum Schlüpfen auf. Die zur Emergenz zurückgelegte Strecke ist manchmal ganz beträchtlich. Insbesondere bei Falkenlibellen (Corduliidae) und Quelljungfern (Cordulegastridae) sind Distanzen von einigen bis vielen Metern dokumentiert, die Larven auf ihrem Weg zu einem passenden Ort für den Schlupf zurücklegten – in einem Fall (Zweifleck "Epitheca bimaculata", nach Heidemann & Seidenbusch 1992) sogar mehr als hundert Meter. In der Regel erfolgt der Schlupf jedoch in direkter Nähe zum Gewässer. Dort schlüpft dann das ausgewachsene Insekt (Imago) aus der Larvenhülle, die als Exuvie zurückbleibt. Anhand der Exuvie kann bei europäischen Libellen die dazugehörige Art in fast allen Fällen problemlos bestimmt werden. Lebensdauer. Die Lebensdauer der adulten Tiere beträgt bei den meisten Arten durchschnittlich etwa sechs bis acht Wochen. Manche Arten leben auch nur etwa zwei Wochen. Die längste Lebensdauer als ausgewachsene Libelle haben in Mitteleuropa die Winterlibellen (Gattung "Sympecma"), welche als erwachsenes Tier überwintern und dadurch zehn bis elf Monate leben. Das aktive Leben beträgt bei ihnen allerdings nur etwa vier bis sechs Monate, da sie den Winter weitestgehend in Kältestarre überdauern. Gefährdung. Im Jahr 2001 wurde die Plattbauchlibelle ("Libellula depressa") in Deutschland zum Insekt des Jahres gewählt. Begründet wurde diese Entscheidung damit, dass die auffällige und weit verbreitete Art stellvertretend für alle Libellen (Odonata) stehen und auf deren Gefährdung in Deutschland aufmerksam machen soll. Die Gefahr geht vor allem von einer ständig voranschreitenden Verschmutzung und Trockenlegung vieler Gewässer aus, die von den Libellenlarven als Lebensraum gebraucht werden. Die Folge: Zwei Drittel der rund 80 heimischen Arten sind gefährdet, 20 Prozent sogar vom Aussterben bedroht. Da den meisten Laien die Artunterscheidung nicht möglich ist, stehen alle Libellenarten in Deutschland und den meisten Nachbarländern unter Artenschutz, es dürfen also nur die leeren Häutungshemden (Exuvien) gesammelt werden. Libellen und Menschen. Entgegen einem weit verbreiteten Irrglauben sind Libellen ungiftig und können auch nicht stechen, sie sind also für den Menschen völlig harmlos. Alte Namen wie etwa „Teufelsnadel“, „Augenbohrer“ oder „Pferdetod“ kamen durch diese falsche Vorstellung zustande und brachten den Libellen einen schlechten Ruf ein. Wenn eine gefangene, festgehaltene Libelle einem Menschen in den Finger beißt, ist das zwar spürbar, aber in der Regel nicht schmerzhaft. Von sich aus greifen Libellen Menschen niemals an, sondern sind meist scheu und flüchten. Einige große Arten wie die Blaugrüne Mosaikjungfer nähern sich allerdings manchmal neugierig, um den „Revier-Eindringling“ Mensch zu beobachten. Dabei verharren sie per Rüttelflug stehend in der Luft. Manche missdeuten dies als einen Angriff. Evolution. Libellen-Fossilienabdruck aus dem Jura (Museum Mensch und Natur, München) Aus dem oberen Karbon sind verschiedene Libellenvorfahren bekannt. Diese Tiere werden als Protodonata bezeichnet und umfassen als bekannteste Vertreter die Riesenlibellen (Fam. Meganeuridae) "Meganeura monyi" mit bis zu 70 und "Meganeuropsis permiana" mit bis zu 72 Zentimetern Flügelspannweite. Aus derselben Zeit sind noch urtümlichere Libellen überliefert (z. B. aus der Fundstelle in der Ziegeleigrube Vorhalle in Hagen), die in eine eigene Ordnung Geroptera gestellt werden, sie wiesen ein rudimentäres drittes Flügelpaar am Prothorax auf. Zu den altertümlichen, plesiomorphen Merkmalen dieser Ordnungen zählen: Hinterleibsende mit Terminalfilum und Cerci (wie bei den modernen Eintagsfliegen), paariger Penis (ebenso). Wahrscheinlich setzten die Tiere noch freie Spermatophoren ab wie die rezenten „Urinsekten“ (Fischchen und Felsenspringer). Gleichzeitig lebten auch bereits anatomisch modernere, kleinere Tiere, die näher mit den modernen Libellen verwandt sind. Auf den Falklandinseln fand man Vertreter einer Gruppe aus der Trias und der Kreide, die man ursprünglich für die Vorfahren der Kleinlibellen hielt und als Protozygoptera bezeichnete. Die aus der gleichen Zeit gefundenen Protanisoptera in Sibirien und Australien hielt man entsprechend für die Vorfahren der Großlibellen. Ebenfalls nicht in die heutigen Taxa einzuordnen sind die Archizygoptera und die Triadophlebiomorpha. Diese Tiere und auch die der folgenden Epochen erreichten nur noch Körpergrößen von sechs bis maximal 20 Zentimetern und entsprachen hinsichtlich ihrer Größe damit heutigen Arten. Diese Gruppen sind allesamt Vertreter der Wurzelgruppen der heutigen Libellen, d. h. ausgestorbene Seitenlinien der modernen Ordnung, zusammen als „Panodonata“ bezeichnet. Wahrscheinlichste Schwestergruppe der modernen Libellen ist die ausgestorbene Familie Tarsophlebiidae aus dem Jura. Aus der Kreidezeit liegen auch gut erhaltene fossile Libellenlarven vor, die in ihrer Morphologie den heutigen bereits stark ähneln, z. B. besitzen sie bereits eine gut ausgebildete Fangmaske. Nach dem fossilen Befund ist der Larventyp mit drei Kiemenblättchen (wie bei den heutigen Zygoptera) ursprünglicher als derjenige mit Analpyramide. Die Veränderungen im Bau und wahrscheinlich auch in der Lebensweise der Libellen waren in den letzten 150 Millionen Jahren nur noch minimal. Systematik. Bei den Libellen unterscheidet man drei Untergruppen, die überwiegend als monophyletische Gruppen angesehen werden. Nach Auffassung einiger Taxonomen sind die Kleinlibellen allerdings keine natürliche Gruppe (Monophylum), sondern eine Zusammenfassung mehrerer basaler Taxa der Libellen. Die Kleinlibellen (Zygoptera, etwa 2700 Arten) haben wie die Stammart der Libellen gleich große Flügelpaare, die bei den meisten Familien – eine Ausnahme bilden z. B. die Lestidae – in Ruhestellung nach hinten über dem Körper zusammengefaltet werden, und ihre Augen stehen weit auseinander. Ein weiteres Merkmal dieses Taxons ist die Ausstattung der Larven mit drei Tracheenkiemenblättchen am Abdomenende. Die Urlibellen (Anisozygoptera oder Epiophlebioptera) existieren heute nur noch in zwei Arten im Himalaya und in Japan. Sie unterscheiden sich von den Großlibellen durch eine spezifische Ausbildung des Pedicellus, der Antennen sowie durch den Besitz eines Stridulationsorgans am Abdomen. Bei den Großlibellen (Anisoptera, etwa 2900 Arten) sind die Flügelpaare ungleich groß und stehen in Ruhestellung seitlich vom Körper ab. Außerdem ist die dorsale Flugmuskulatur reduziert und die Tiere besitzen einen speziell ausgestalteten Kopulationsapparat (Penis). Die Urlibellen und Großlibellen werden als Epiprocta zusammengefasst. Gemeinsame Merkmale sind die vergrößerten und nahe beieinander liegenden Augen, die Ausstattung mit einer Greifzange am Hinterleib der Männchen (Epiprokt) sowie die Entwicklung von Rektalkiemen. Eine systematische Liste der Arten Europas ist unter Systematik der Libellen zu finden. Libellen in Kunst und Kultur. Libellen besitzen eine Reihe volkstümlicher Namen, die sich auf ihre Verwendung in der Mythologie und im Volksglauben zurückführen lassen. So waren die Libellen in der germanischen Mythologie der Göttin Freya oder Frigg zugeordnet und heilig. Diese heidnische Verehrung wurde von Missionaren gemeinsam mit der Bedeutung des der Freya gewidmeten Freitags umgekehrt, die Libellen wurden zu „Teufelsnadeln“, „Teufelsbolzen“ oder „Augenstechern“ und der Freitag zum Unglückstag. Bis heute hat sich die damals verbreitete Angst vor Libellen durch die Vorstellung, Libellen könnten stechen, gehalten. In Luxemburg ist der Name ' ‚Siebenstecher‘ gebräuchlich, der auf den Glauben zurückgeht, dass sieben Libellenstiche einen Menschen töten können. Bei dem in den beiden ältesten Chroniken Japans, "Kojiki" und "Nihongi", beschriebenen japanischen Schöpfungsmythos des Inselreichs wird die größte Insel Honshū als "Ō-yamato-toyo-aki-zu-shima" (Kojiki:, Nihongi:, dt. „Groß-Yamato-Fruchtbar-Libellen-Insel“) bezeichnet. Der Name soll auf den ersten Tennō, Jimmu, zurückgehen, der die Form Japans („Groß-Yamato“) mit einer mit ihrem Schwanz trinkenden Libelle verglich. Die Libelle war dadurch im frühen Japan ein Symbol kaiserlicher Macht. Im Volksglauben galt sie als Geist der Reispflanze und Vorbote eines fruchtbaren Herbstes – der Namensbestandteil kann als „fruchtbarer Herbst“ gelesen werden. In der japanischen Dichtkunst ist daher „Libelleninsel“ ("Akitsu-shima" bzw. "Akizu-shima") ein poetischer Name für Japan und auch die Libelle selbst ein beliebtes Motiv. Vor allem in modernen Zeichentrickserien, beginnend mit der "Biene Maja" über "Antz" bis hin zu verschiedenen japanischen Mangas, wird die Libelle aufgrund ihrer Flugkünste als Fluggerät genutzt, in anderen stellt sie das Design für futuristisch anmutende Raumschiffe in Libellenform dar (etwa bei "Captain Future" oder "Lexx"). Bemerkenswert ist auch der mehrminütige Vorspann der Hollywood-Science-Fiction-Komödie "Men in Black", der komplett aus dem Blickwinkel einer jagenden Libelle gestaltet wurde. Im Zuge der Wahl „Schönstes deutsches Wort“, die von der Goethe-Gesellschaft veranstaltet wurde, wurde „Libelle“ 2004 zum schönsten Wort in der Kategorie „Vorschläge von Kindern“ gewählt. Ein aus Zigarettenpapier der Olleschau Papier Industrie AG hergestelltes Zigarettenpapierbüchel der Altesse KG trug eine Libelle als Markenzeichen. Die ausgebreiteten Flügel stehen als Symbol für die Dünnheit des Papiers. Echtes Süßholz. "Glycyrrhiza glabra", Frucht und Samen Echtes Süßholz ("Glycyrrhiza glabra") ist eine Pflanzenart aus der Unterfamilie Schmetterlingsblütler (Faboideae) innerhalb der Familie der Hülsenfrüchtler (Fabaceae). Am bekanntesten ist das Echte Süßholz als die aus der Pflanze gewonnene Süßigkeit Lakritze. In Tees findet die Pflanze ebenfalls Verwendung. Name. Der deutsche Name "Lakritze" geht auf das lateinische "glycyrrhiza" zurück, das ein Lehnwort aus dem griechischen γλυκύς ("glykys", „süß“) und ῥίζα ("rhiza", „Wurzel“) ist. Der lateinische Name hatte bereits im Mittellateinischen unter dem Einfluss von "liquor" („Flüssigkeit“) eine volksetymologische Wandlung zu "liquiritia" erfahren, woraus unmittelbar die deutsche Bezeichnung entstand. Beschreibung. Süßholz ist eine mehrjährige, krautige Pflanze, die Wuchshöhen von 50 bis zu 100 Zentimetern erreicht. Die Pflanze ist verzweigt. Die Stängel und die Blattstiele sind behaart oder verkahlend. Die Blätter sind unpaarig gefiedert mit 9-17 Fiederblättern. Die Fiederblättchen sind eiförmig bis elliptisch, etwa 2-5 cm lang und 1,5 bis 2,5 cm breit. Sie sind abgerundet und vorn stachelspitzig, fiedernervig und unterseits von sitzenden harzig-klebrigen Drüsen punktiert. Die Nebenblätter sind klein und hinfällig. Im Spätsommer erscheinen bläulich-violette und weiße Schmetterlingsblüten in kurzen, aufrechten Ähren in den Achseln der Blätter. Der Blütenstand ist viel kürzer als sein Tragblatt. Die Schmetterlingsblüten sind 8-12 mm lang. Sie sind kurz gestielt. Der Kelch ist kurz glockenförmig. Die Kelchzähne sind länger als die Kelchröhre und lanzettlich spitzig. Die Blütenblätter, die das Schiffchen bilden, sind nicht verwachsen und vorn nicht geschnäbelt. Die Hülsen werden bis zu 3 cm lang und 4-6 mm breit. Sie sind kahl oder etwas drüsig behaart und gerade. Sie sind reif lederig und rotbraun. Sie springen nicht auf. Jede Hülse enthält 2-5 Samen. Die Wurzeln werden im Herbst geerntet. Die Blütezeit ist Juni bis Juli, seltener bis in den Herbst. Die Chromosomenzahl beträgt 2n = 16. Vorkommen. Das Süßholz ist in der Mittelmeerregion und in Westasien beheimatet. Es ist frostempfindlich und bevorzugt volle Sonne und tiefe, humusreiche, durchlässige Erde. Blütenstand vom Süßholz ("Glycyrrhiza glabra") Inhaltsstoffe. Echtes Süßholz enthält Glycyrrhizin, ein Gemisch aus Kalium- und Calciumsalzen der Glycyrrhizinsäure. Dieses Glykosid, das der Lakritze ihren Geschmack verleiht, besitzt etwa die 50-fache Süßkraft von Rohrzucker. Durch Abspaltung des Diglucuronids entsteht aus Glycyrrhizin die 18-β-Glycyrrhetinsäure, die selbst keine Süßkraft mehr besitzt. In geringer Konzentration sind zahlreiche Triterpensaponine wie das 24-Hydroxyglycyrrhizin und die Sojasaponine I und II enthalten. Neben weiteren Glykosiden wie Glabrinsäure und Oleanolsäurederivate enthält Süßholzwurzel mehr als 40 identifizierte Flavonoide. Hierzu gehören das Chalconderivat Isoliquiritigenin und das zugehörige 4-O-Glycosid Isoliquirtin und das Flavanon Liquiritigenin und sein Glycosid Liquiritin. Auch Isoflavone wie Formononetin, oder auch Sterin und höhere Alkohole sind nachgewiesen worden. Weiterhin sind Cumarine wie beispielsweise das auch in Doldenblütlern wie Liebstöckel vorkommende Umbelliferon enthalten. An flüchtigen Aromastoffen wurden neben anderen Anethol und Geraniol identifiziert. Das saure Polysaccharid Glycyrrhizan GA ist der Hauptbestandteil der weiterhin enthaltenen Polysaccharide. Medizinische Verwendung. Süßholzwurzel wirkt aufgrund der enthaltenen Saponine, vor allem der Glycyrrhizinsäure, expektorierend (auswurffördernd), sekretolytisch (schleimverflüssigend) und sekretomotorisch (schleimlösend). Bei Süßholzextrakten wurde eine antibakterielle und antimykotische Wirkung nachgewiesen. Typische Anwendungsgebiete sind Husten, Bronchialkatarrh und andere Erkrankungen der oberen Atemwege. Bei Gastritis und Magengeschwüren findet die Süßholzwurzel ebenfalls Anwendung. Die experimentell und klinisch belegte entzündungshemmende und krampflösende Wirkung ist noch nicht vollständig geklärt. Die nachgewiesene entzündungshemmende Wirkung der Glycyrrhizinsäure soll aber nicht durch eine Hemmung der Prostaglandinbiosynthese, sondern durch Einfluss auf die Wanderung der Leukozyten zum Entzündungsort entstehen. Daneben beeinflusst Glycyrrhizinsäure selbst den Steroidstoffwechsel, indem sie das Enzym Steroid-5β-Reduktase (), möglicherweise auch die NAD+-abhängige 11β-Hydroxysteroid-Dehydrogenase 2 hemmt. Diese Enzyme bauen Cortison und Aldosteron ab, ihre Hemmung führt daher zu einer Verlängerung der biologischen Halbwertszeit der Corticosteroide sowie bei hohem Aldosteronspiegel zu Bluthochdruck und Kaliumverlust. Zur Behandlung der chronischen Hepatitis und der Leberzirrhose wird im ostasiatischen Raum Glycyrrhizinsäure in Kombination mit Glycin und Cystein als Infusion eingesetzt. Für Glycyrrhizin wurde eine antivirale Wirkung bei Hepatitis A und C belegt. Auch soll der Süßholzzucker die Produktion eines Virusproteins der Herpesviren blockieren, das normalerweise die Entdeckung des Erregers durch die Zelle verhindert. Ohne dieses Protein bemerken die Zellen den Eindringling und leiten ihren eigenen Tod ein. Die dafür nötige Dosis ist allerdings viel zu hoch, um durch normalen (gesundheitlich unbedenklichen) Lakritzkonsum erreicht zu werden, und wurde nicht am lebenden Menschen, sondern nur an Zellkulturen nachgewiesen. Weitere Forschungen untersuchen auch die antivirale Wirkung auf das Kaposi-Sarkom-auslösende Herpesvirus. Die medizinische Wirkung der Süßholzwurzeln war schon in der Antike bekannt. Die Ägypter des Altertums schätzten Lakritze sehr und kannten ein Lakritzegetränk namens "Mai sus". Theophrastos von Eresos, der um 350 v. Chr. lebte, schätzte Lakritze als Heilmittel gegen Husten und als Durstlöscher. Lakritze soll zur Standardausrüstung der römischen Soldaten gezählt haben. Tim Richardson weist in seiner Geschichte der Süßigkeiten darauf hin, dass auch französische und türkische Soldaten im Ersten Weltkrieg Lakritze im Marschgepäck hatten. In Mitteleuropa kennt man Lakritze als Heilmittel seit dem Mittelalter. In Großbritannien wurden Lakritztaler zu therapeutischen Zwecken hergestellt. Erst 1760 setzte ein Apotheker namens George Dunhill der Lakritze Zucker zu, so dass sie von da an als Süßigkeit verzehrt wurde. In der traditionellen chinesischen Medizin ist die chinesische Lakritze ("G. inflata", eine verwandte Süßholz-Art) nach wie vor ein Standardheilmittel. Sie wird dort als Tonikum für das Herz eingesetzt sowie bei Geschwüren, Erkältungen und Hautunreinheiten verwendet. In der Kombination mit "Ammoniumchlorid" und "Anisöl" wird Süßholzwurzelextrakt zu "Salmiakpastillen" verarbeitet. Als „traditionell angewendetes Arzneimittel zur Schleimlösung im Bereich der Atemwege“ bezeichnet, wurden sie bereits in "Hagers Handbuch der pharmazeutischen Praxis" von 1925 beschrieben. Getrocknete Süßholzstangen werden auch zur Zahnpflege gekaut, wobei neben den enthaltenen Inhaltsstoffen auch die Eigenschaft des Holzes zum Tragen kommt, beim Kauen am Ende stark auszufasern und so eine natürliche Zahnbürste zu formen. Verwendung als Genussmittel. Der Wurzelextrakt des Echten Süßholzes wird zur Herstellung von Lakritze oder Lakritz genutzt. Es handelt sich dabei vor allem um Süßwaren, die in Form von Süßlakritz oder Salzlakritz konsumiert werden. Lakritz kann jedoch auch in zahlreichen anderen Produkten wie Getränken enthalten sein. Bei der Herstellung von Lakritz werden die Inhaltsstoffe aus den Wurzeln als Rohlakritz extrahiert und eingedickt, danach werden sie mit anderen Zutaten vermischt. Verbreitung und Verbrauch. Da das Süßholz aus dem Vorderen Orient herangeschafft werden musste, ist Lakritze vor allem in Küstenregionen bekannt und geschätzt. Stark verbreitet ist sein Genuss z. B. in den Küstenregionen Frankreichs, in Norditalien, in Skandinavien und in England. In Deutschland wurde Süßholz früher in unterschiedlichen Regionen vor allem im Süden angebaut, jedoch ging der Anbau stark zurück und wird heute nur noch von einzelnen Privatleuten und in Bamberg von der Bamberger Süßholz-Gesellschaft betrieben. Den weltweit höchsten Lakritzeverbrauch haben die Niederländer mit zwei Kilogramm pro Person und Jahr. In Deutschland ist der Verbrauch im Norden deutlich größer als im Süden; hier werden etwa 200 Gramm pro Person und Jahr verbraucht. In Österreich ist der Verbrauch vernachlässigbar. Laser. Laser //, //, // (Akronym für engl. „Licht-Verstärkung durch stimulierte Emission von Strahlung“) ist ein Begriff aus der Physik. Er bezeichnet sowohl den physikalischen Effekt als auch das Gerät, mit dem Laserstrahlen erzeugt werden. Laserstrahlen sind elektromagnetische Wellen. Vom Licht einer zur Beleuchtung verwendeten Lichtquelle, beispielsweise einer Glühlampe unterscheiden sie sich vor allem durch die sonst unerreichte Kombination von hoher Intensität, sehr engem Frequenzbereich (monochromatisches Licht), scharfer Bündelung des Strahls und großer Kohärenzlänge. Auch sind, bei sehr weitem Frequenzbereich, extrem kurze und intensive Strahlpulse mit exakter Wiederholfrequenz möglich. Laser haben zahlreiche Anwendungsmöglichkeiten in Technik und Forschung sowie im täglichen Leben, vom einfachen Lichtzeiger (z. B. Laserpointer bei Präsentationen) über Entfernungsmessgeräte, Schneid- und Schweißwerkzeuge, die Wiedergabe von optischen Speichermedien wie CDs, DVDs und Blu-ray Discs, Nachrichtenübertragung bis hin zum Laserskalpell und anderen Laserlicht verwendenden Geräten im medizinischen Alltag. Laser gibt es für Strahlungen in verschiedenen Bereichen des elektromagnetischen Spektrums: von Mikrowellen (Maser) über Infrarot, sichtbares Licht, Ultraviolett bis hin zu Röntgenstrahlung. Die besonderen Eigenschaften der Laserstrahlen entstehen durch ihre Erzeugung in Form einer stimulierten Emission. Der Laser arbeitet wie ein optischer Verstärker in resonanter Rückkopplung. Die dazu erforderliche Energie wird von einem Lasermedium (bspw. Kristall, Gas oder Flüssigkeit) bereitgestellt, in dem aufgrund äußerer Energiezufuhr eine Besetzungsinversion herrscht. Die resonante Rückkopplung entsteht dadurch, dass das Lasermedium sich in einem elektromagnetischen Resonator für die Strahlung bestimmter Richtung und Wellenlänge befindet. Funktionsweise. Zunächst werden Atome im Lasermedium durch die eingespeiste Leistung von unteren Energieniveaus (z. B. Grundzustand) in energetisch höhere, d.h. angeregte Zustände versetzt. Dabei soll die mittlere Zerfallszeit der angeregten Zustände (in der Regel durch spontane Emission) möglichst lang sein. Somit bleibt die Pumpenergie dort „längere“ Zeit gespeichert, sodass eine Besetzungsinversion aufgebaut werden kann. Nun genügt eine Stimulierung eines Atoms durch ein Photon mit der auszustrahlenden Energie, damit das angeregte Atom wieder in seinen Grundzustand zurückfällt und dabei ein Photon der identischen Energie (also identischer Wellenlänge und Frequenz) sowie identischer Phasenlage wie das stimulierende Photon aussendet. Beide Photonen bewegen sich in die gleiche Richtung. Durch diese Verdoppelung des stimulierenden Photons wirkt das Lasermedium wie ein Lichtverstärker. Das „frisch entstandene“ zweite Photon kann dann seinerseits andere angeregte Atome zur Ausstrahlung stimulieren, und es kommt zu einer Kettenreaktion. Zu dieser Verstärkerwirkung kommt dann noch hinzu, dass sich die Anordnung in einem Resonator (s. u. bei Laserresonator) befindet, der durch seine Abmessungen auf die gewünschte Wellenlänge abgestimmt ist. So hat ein Photon bei mehrfachem Durchlaufen des Lasermediums genügend Chancen, andere Atome zu stimulieren. Der Resonator ist im Prinzip aus zwei Spiegeln an den Enden der Anordnung gebildet. Durch diese Spiegel wird auch die Richtung des erzeugten Lichtstrahls endgültig festgelegt. Einer der beiden Spiegel ist teildurchlässig ausgeführt, so dass ein Teil des Lichts austreten und seiner Nutzung zugeführt werden kann. Geschichte. Albert Einstein beschrieb bereits 1917 die stimulierte Emission als eine Umkehrung der Absorption. 1928 gelang Rudolf Ladenburg der experimentelle Nachweis. Danach wurde lange gerätselt, ob der Effekt zur Verstärkung des Lichtfeldes benutzt werden könnte, da zum Erreichen der Verstärkung eine Besetzungsinversion eintreten musste. Diese ist aber in einem stabilen Zweiniveausystem unmöglich. Zunächst wurde ein Dreiniveausystem in Betracht gezogen, und die Rechnungen ergaben eine Stabilität für Strahlung im Mikrowellenbereich, 1954 realisiert im Maser von Charles H. Townes, der Mikrowellenstrahlung aussendet. Der erste Laser – ein Rubinlaser – wurde von Theodore Maiman am 16. Mai 1960 fertiggestellt. Geprägt wurde der Begriff Ende der 1950er Jahre durch Gordon Gould in Anlehnung an den Maser; Gould nutzte den Begriff erstmals 1957 in seinen Notizen. Frühe Veröffentlichungen nannten den Laser noch (optischer Maser). Die weitere Entwicklung führte dann zunächst zu Gaslasern (Sauerstoff-, Stickstoff-, CO2-Laser, He-Ne-Laser) und danach zu Farbstofflasern (das laseraktive Medium ist flüssig). Eine Weiterentwicklung von Kristalltechnologien ermöglichte eine sehr starke Erweiterung des spektralen Nutzbereiches. Durchstimmbare Laser zum Anfahren einer bestimmten Wellenlänge und breitbandige Laser wie z. B. der Titan-Saphir-Laser läuteten in den 1980er Jahren die Ära der Ultrakurzpulslaser mit Pulsdauern von Piko- und Femtosekunden ein. In den späten 1980er Jahren ermöglichte die Halbleitertechnologie immer langlebigere, hocheffektive Halbleiter-Laserdioden, die mit kleiner Leistung in CD- und DVD-Laufwerken oder in Glasfaser-Datennetzen eingesetzt werden und inzwischen nach und nach als Pumpquellen mit Leistungen bis in den kW-Bereich die wenig effektive Lampenanregung von Festkörperlasern ersetzen. In den 1990er Jahren wurden neue Pumpgeometrien für hohe Laserleistungen verwirklicht, wie der Scheiben- und der Faserlaser. Letztere fanden zur Jahrtausendwende aufgrund der Verfügbarkeit von neuen Fertigungstechniken und Leistungen bis 20 kW zunehmend Anwendungen bei der Materialbearbeitung, wo sie die bisher gebräuchlichen Typen (CO2-Laser, lampengepumpte) teilweise ersetzen können. Zu Beginn des 21. Jahrhunderts wurden erstmals nichtlineare Effekte ausgenutzt, um Attosekundenpulse im Röntgenbereich zu erzeugen. Damit ließen sich zeitliche Abläufe im Inneren eines Atoms verfolgen. Zuletzt erreichten blaue und ultraviolette Laserdioden die Marktreife. Inzwischen ist der Laser zu einem bedeutenden Instrument der Industrie, Medizin, Kommunikation, Wissenschaft und Unterhaltungselektronik geworden. Physikalische Grundlagen. In einem Medium mit gegebenem Volumen befindet sich eine feste Anzahl formula_1 Atome oder Moleküle mit jeweils mehreren, aber immer den gleichen Energieniveaus. Zwei dieser Niveaus, bezeichnet als "unteres Laserniveau" formula_2 und "oberes Laserniveau" formula_3 (wobei formula_4), bilden den "Laserübergang". Der Laserübergang ist derjenige optische Übergang, dessen Energiedifferenz der Frequenz des Laserlichts entspricht. Die Differenz formula_5 zwischen der Anzahl der Teilchen im unteren formula_6 und oberen Laserniveau formula_7 wird als „Inversion“ bezeichnet und ist maßgeblich für die Funktionsweise des Lasers. Jeder Übergang zwischen den zwei Niveaus entspricht der Emission oder Absorption eines Photons mit der Kreisfrequenz formula_9, wobei formula_10 die Energiedifferenz zwischen den beiden Niveaus und formula_11 das reduzierte Plancksche Wirkungsquantum ist. Bei der Emission entsteht solch ein Photon, bei Absorption geht entsprechend ein Photon verloren. Die Wahl des Lasermediums gibt somit die Frequenz bzw. die Farbe des Lichtes vor. Die mathematische Beschreibung der Besetzung erfolgt über spezielle gekoppelte Differentialgleichungen, sogenannte Ratengleichungen. Diese beschreiben den zeitlichen Verlauf der Besetzungszustände, also die zeitliche Änderung von formula_6 und formula_7. Die genaue Form der Ratengleichungen hängt davon ab, wie viele Energieniveaus neben den zwei Laserniveaus zur Verfügung stehen und genutzt werden sowie von der Art bestimmter Näherungen. Zweiniveausystem. wobei formula_28 als Sättigungsintensität bezeichnet wird. Diese Gleichung ist "immer" positiv, unabhängig davon wie groß die Intensität formula_18 wird. Das heißt, es sind immer weniger Teilchen im oberen Laserniveau als im unteren. Somit ist eine Besetzungsinversion in einem stabilen Zweiniveausystem nicht möglich. Es ist somit unmöglich, in dieser Weise einen Laser zu konstruieren. Eine anschauliche Begründung liefern die Einsteinkoeffizienten. Sobald die Hälfte aller Teilchen im Lasermedium im oberen Laserniveau sind, ist die Wahrscheinlichkeit, dass ein Atom im unteren Laserniveau ein Photon absorbiert, genauso hoch wie die Wahrscheinlichkeit, dass ein Atom im oberen Laserniveau ein Photon durch stimulierte Emission abgibt. Die zusätzliche spontane Emission sorgt weiterhin dafür, dass nicht einmal diese theoretische Grenze erreicht wird. Dreiniveausystem. Diese Gleichung wird negativ (formula_45), sobald die Bedingung formula_46 erfüllt wird. Dies bedeutet, dass sich in einem Dreiniveausystem mehr Teilchen im oberen Laserniveau befinden können und somit Besetzungsinversion möglich ist. Voraussetzung ist eine hohe Intensität des Lichts im Resonator. Dreiniveaulaser sind somit möglich. Vierniveausystem. In diesem Fall ist die Besetzung "immer" negativ. Das bedeutet, dass ein extern angeregtes Vierniveausystem sehr gut als Lasermedium geeignet ist. Praktisch alle modernen Laser werden als Vier- oder Mehrniveausysteme konzipiert. Laserresonator. In einem Laser wird die Strahlung, die anfänglich durch spontane Emission initiiert wurde, durch eine geeignete Anordnung zweier Spiegel immer wieder durch das Gebiet geleitet, in dem Besetzungsinversion herrscht. Eine solche Anordnung heißt optischer Resonator oder Laserresonator. Durch das ständige Hin- und Herlaufen kann eine ausreichende Verstärkung zur Überschreitung der Laserschwelle erreicht werden. Die Laserschwelle kann nur überschritten werden, wenn die Verstärkung im Resonator größer ist als der Verlust (z. B. durch spontane Emission, Streuung und ausgekoppelter Leistung). Diese Bedingung stellt neben der Besetzungsinversion die zweite grundlegende Voraussetzung dar, dass ein Laser funktionieren kann. Ein Laserresonator besteht im einfachsten Fall aus zwei Spiegeln, zwischen denen die Strahlung reflektiert wird, so dass sich der Weg durch das Lasermedium verlängert. Dadurch kann ein Photon sehr oft stimulierte Emission hervorrufen. Einer der beiden Spiegel ist teildurchlässig und wird "Auskoppelspiegel" oder "Auskoppler" genannt. Dieser sorgt dafür, dass ein Teil der Strahlung das Gerät als Laserstrahl verlassen kann. Lasermedien mit sehr hoher Verstärkung können unter Umständen auch mit nur einem Spiegel oder ganz ohne Spiegel arbeiten. Dabei ist formula_65 eine natürliche Zahl und formula_66 die Resonatorlänge. Andere Frequenzen werden durch destruktive Interferenz ausgelöscht. Ein anderer Aufbau ist der Ringresonator, bei dem das Licht durch mehrfache Reflexion einen geschlossenen Pfad durchläuft. Die Güte des Resonators (d. h. das Verhältnis zwischen hin- und herreflektierter Strahlung zu austretender Strahlung) muss bei gering verstärkenden Medien besonders hoch sein. Ein Beispiel hierfür ist der Helium-Neon-Laser. Die Resonatorgüte kann oft mittels in ihm befindlicher optischer Komponenten zeitabhängig, aber auch hinsichtlich der Wellenlänge und des lateralen Strahlprofiles beeinflusst werden, um eine gute Strahlqualität, Frequenzkonstanz und Kohärenz sowie Pulsformung des Laserstrahls zu erzielen. Solche Komponenten sind z. B. Blenden, optische Schalter (Güteschalter) oder frequenzselektive Endspiegel. Hierbei sind "R"1 und "R"2 die Krümmungsradien der beiden Resonatorspiegel und "L" die Gesamtlänge des Resonators. Die Stabilitätsbedingung lautet Ein paraxialer Strahl verlässt selbst nach beliebig vielen Reflexionen den Resonator nicht. Ist das Ergebnis gerade 0 oder 1, ist der Resonator "grenzstabil." Ein Beispiel hierfür ist der konfokale (formula_70), hemisphärische (formula_71), konzentrische (formula_72) oder plan-plan Resonator (formula_73), welcher auch als Fabry-Pérot-Resonator bekannt ist. In der Praxis sind diese Art Laser sehr schwierig zu justieren und laufen meistens nur dadurch, dass andere Linseneffekte den Resonator in den Bereich der Stabilität führen. Ein solcher Effekt kann beispielsweise ein thermischer Linseneffekt sein, bei dem durch einen Temperaturgradienten im Resonator eine thermische Linse entsteht. Stabile Resonatoren beeinflussen die Strahlqualität und die Kohärenzeigenschaften des Laserstrahls positiv. Der Nachteil ist die schlechte Ausnutzung des Lasermediums, da der Lichtstrahl immer wieder auf dieselben Teilchen trifft, anstatt neue Teilchen anzuregen. Bei instabilen Resonatoren gilt formula_74 oder formula_75. Für diese sind die Beugungsverluste sehr hoch, jedoch können durch ein Lasermedium mit großem Durchmesser instabile Resonatoren vorteilhaft genutzt werden, da diese eine gleichförmige Intensitätsverteilung im Resonator erzeugen. Voraussetzung hierfür ist jedoch eine hohe Verstärkung des Lasermediums. Instabile Resonatoren werden daher meistens in Lasern verwendet, die eine hohe Verstärkung pro Resonatorumlauf besitzen und bei denen vorrangig hohe Ausgangsleistung und weniger die Strahlqualität maßgebend sind. Von besonderer Bedeutung ist der asymmetrische konfokale instabile Resonator, da dieser einen parallelen Ausgangsstrahl liefert. Da bei der Erzeugung von Laserstrahlung ein nicht unerheblicher Teil der aufgewendeten Energie in Wärme umgewandelt wird, ist bei der Konstruktion von Laserresonatoren, gerade im Hochleistungsbereich, auch stets auf eine effiziente Kühlung des Laseraktivenmediums zu achten. Hierbei spielen auch durch einen Temperaturgradienten im Laseraktivenmedium verursachte optische Effekte eine große Rolle, wodurch die Fokuslage innerhalb des Resonators von dessen Temperatur abhängt. Bei Gaslasern kann eine effiziente Kühlung beispielsweise dadurch erreicht werden, dass das verwendete Gas ständig umgewälzt wird, um es außerhalb des eigentlichen Lasers zu kühlen. Longitudinale Moden. Unterschiedliche Schwingungsformen werden Moden genannt. Als longitudinal bezeichnet man die Schwingung längs der Ausbreitungsrichtung der Strahlung. Bildlich ausgedrückt handelt es sich dabei um Intensitätsberge und -täler im Abstand einer halben Wellenlänge. Bei einem He-Ne-Laser von einigen Zentimetern Länge könnte man zwischen den Spiegeln etwa 600.000 Intensitätsberge zählen, bei einer kurzen Laserdiode nur einige Tausend. Je nach Bauart werden vom Resonator bestimmte Wellenlängen und deren Vielfache besonders verstärkt, weil sich nur für bestimmte Wellenlängen eine stehende Welle zwischen den Spiegeln ergibt. Das Bild zeigt die Intensitätsverteilung rund um die Grundmode (angegeben als mittlere Intensität in Abhängigkeit von der Frequenz ν0). Ein optischer Resonator wirkt also wie ein Kammfilter, das bestimmte aufeinanderfolgende Frequenzen verstärkt oder abschwächt. Durch gaußförmige Dopplerverbreiterung der an sich scharfen Emissionslinie entsteht die gaußförmige Einhüllende über eine gewisse Anzahl von „Kammzinken“. Auf Grund obiger Resonatoreigenschaft (und der wieder anschließenden Dopplerverbreiterung) werden mehrere Teillinien der Emissionslinie des aktiven Mediums im Resonator verstärkt. Die einzelnen im Resonator verstärkten Teillinien haben ein Lorentzprofil mit sehr geringen Linienbreiten wegen der großen Länge der Wellenzüge im Resonator, und weil bei der Resonanz Störeffekte wie der Doppler-Effekt in den Hintergrund treten. Somit erhält man das nebenstehende Spektrum mit mehreren Lorentz-Kurven (den sogenannten Lasermoden) mit einer gaußförmigen Einhüllenden. Da jedoch eine Mindestintensität nötig ist, damit im Resonator noch eine Verstärkung stattfinden kann, erhält man nur eine begrenzte Anzahl Moden, da Moden, die zu weit vom Linienschwerpunkt entfernt sind, zu wenig intensiv sind, um noch verstärkt zu werden. Die Strahlung benachbarter Moden ist immer orthogonal zueinander polarisiert. Nach vier Reflexionen erreicht der Lichtstrahl den Startpunkt Es kann sich auch ein Zustand einstellen, bei dem der Strahl zweimal durch den Resonator hin- und herlaufen muss, um wieder zum Ausgangspunkt zu gelangen. Dadurch wird die effektive Resonatorlänge verdoppelt, und die Modenabstände werden auf formula_83 halbiert. Die Halbwertsbreite formula_84 der Maxima ist Je nach verwendeten Spiegeln kann die Finesse Werte von etwa 10 bis zu mehreren 100.000 annehmen. In vielen Anwendungen sind mehrere longitudinale Moden unerwünscht. Eine Verkürzung der Resonatorlänge, um nur eine Mode zu erzeugen, macht aber meist keinen Sinn, da dadurch nicht die gewünschte Lichtleistung erzielt werden kann. Man behilft sich, indem im Resonator ein sogenanntes Etalon eingebracht wird. Das Etalon stellt im Prinzip einen „Resonator im Resonator“ dar, welcher nur Wellen der gewünschten Mode verstärkt, andere Moden aber unterdrückt. Man spricht in diesem Fall von "Monomode"- oder "Singlemode"-Lasern (im Gegensatz zu "Multimode"-Lasern). Transversale Moden. Feldstärke und Intensität eines Laserstrahls in der TEM00-Mode Verschiedene Intensitätsprofile für einen Resonator mit rechteckigen Spiegeln (TEMxy) Als transversale Moden bezeichnet man die Verteilung der Phasenlage der Wellen senkrecht zur Ausbreitungsrichtung. Bildet sich also eine Mode aus, die nicht den Raum senkrecht zu den Resonatorspiegeln ausfüllt, sondern etwas schräg verläuft, so wird der Licht- und Resonatorweg länger, und die Frequenz verschiebt sich etwas. Dieses führt einerseits zum Konkurrieren um angeregte Mediumsmoleküle zwischen den verschiedenen Frequenzen "(Mode Competition)," andererseits können sich so stehende Wellen ausbilden, die Knotenlinien innerhalb des Laserprofils aufweisen. Ob und wie sie in einem Laserstrahl vorkommen, lässt sich durch optische Bauelemente wie Polarisationsfilter oder diffraktive optische Elemente bestimmen. (In Hohlleitern mit metallischer Hülle beobachtet man auch reine TE- bzw. TM-Moden, weil in der Hüllfläche elektrische Ströme fließen können). Bei zylindrischem Querschnitt des Lasers hat die Strahlintensität im Idealfall ein Gauß-Profil; diese Mode wird als TEM00-Mode bezeichnet ("siehe auch:" Weitere akustische Schwingungsmoden). Es können aber auch andere Profile mit Winkel- und radialen Abhängigkeiten auftreten, die sich durch Laguerre-Polynome berechnen lassen. Ist diese Zylindersymmetrie durch Polarisationsfilter oder Brewster-Fenster gestört, treten rechteckige Symmetrien auf, die durch Hermitesche Polynome berechnet werden. Abhängig von der Anzahl ihrer Knotenlinien in horizontale und vertikale Richtung werden sie als TEMxy-Mode bezeichnet. Für diese Moden ist teilweise der Lichtweg durch den Resonator bis zum Ausgangspunkt anders, das heißt, die Resonatorlänge erscheint verändert. Dies kann zu einer Verfälschung der Longitudinalmodenspektren führen, indem sich die Spektren verschiedener Transversalmoden überlagern. Eigenschaften von Laserstrahlung. Die Strahleigenschaften eines Laserstrahles werden wesentlich durch die Art des Laser-Resonators bestimmt, insbesondere spielen dabei die Geometrie des aktiven Mediums und die Spiegelanordnung eine wichtige Rolle. Mit Lasern gelingt es, Licht in hohem Grade zu kontrollieren bzw. zu manipulieren (Brillanz, Intensität, Richtung, Frequenz, Polarisation, Phase, Zeit). Eine allgemeine Aussage über die Strahleigenschaften ist daher nicht möglich. Es ist auch nicht richtig, dass ein Laserstrahl immer ein enggebündelter Strahl mit geringer Frequenzbreite sein muss, wofür er allerdings oft gehalten wird. Je nach Zielsetzung ist eine Erzeugung derartiger Strahlen aber durchaus möglich. Eine herausragende, allgemeine Eigenschaft stellt jedoch die Möglichkeit zur starken Bündelung dar, mit der sehr hohe Leistungsdichten erzielt werden können. Die laterale Leistungsdichteverteilung von Laserstrahlen ist bei guter Strahlqualität ein Gaußprofil (Gauß-Strahl). Generell kann man zu den Strahleigenschaften sagen, dass Laserstrahlen sich gegenüber gewöhnlichen Lichtquellen durch viele Unterschiede auszeichnen, die im Folgenden genannt werden. Kohärenz. Bei einer normalen Glühlampe werden Lichtwellen nicht nur mit unterschiedlicher Wellenlänge ausgesendet, sondern auch in unbestimmter Phasenlage zueinander. Bei einem Laser dagegen sind die Wellen jeweils fast phasensynchron zueinander. Die Wellen sind über mehr oder weniger lange Strecken (Kohärenzlänge) fast phasengleich, was man sich zum Beispiel in der Holografie zunutze macht. Polarisation. Die Polarisation von Laserstrahlen ist aufgrund polarisierender optischer Bauteile im Resonator (schräge Umlenkspiegel und Brewster-Fenster, geringe Höhe des Resonators bei Halbleiterlasern) meistens linear. Oft ist das erwünscht, um polarisationsabhängige Kopplung und Strahlteilung durchführen zu können. Beim Schneiden von Metallen tritt jedoch insbesondere bei der linear polarisierten CO2-Laserstrahlung im Schnittspalt eine polarisationsabhängige Absorption auf, was eine schlechte und richtungsabhängige Schnittkantenqualität zur Folge hat. Daher wird beim Metallschneiden mit zirkularer Polarisation gearbeitet, die durch phasendrehende Verzögerungsplatten im Strahlengang des Laserstrahls erzielt wird. Frequenz, Wellenlänge. Die Frequenz von Laserstrahlung wird durch das aktive Medium und dessen zum Lasern geeignete Energieübergänge bestimmt. Es gibt Stoffe, die auf vielen Wellenlängen zum Lasern angeregt werden können – jedoch meistens bei einer Wellenlänge besonders gut. Laser können sehr schmalbandige Strahlquellen sein, die Verstärkungsbandbreite (beim Kohlenstoffdioxidlaser zum Beispiel 9 bis 11 µm) ist jedoch meist höher als die Bandbreite der abgegebenen Strahlung – entweder schwingt der Laser von selbst im Maximum der Verstärkungsbandbreite (beim Kohlendioxidlaser zum Beispiel 10,6 µm) an oder man sorgt durch frequenzbestimmende Elemente für eine schmalbandige Emission auf einer einzigen Frequenz. Extreme Schmalbandigkeit ist z. B. bei der interferometrischen Längenmessung mittels Lasern von Bedeutung. Bei extremer Breitbandigkeit spricht man von Superkontinuum-Lasern, welche z. B. in der optischen Kohärenztomographie und zur Erzeugung von Frequenzkämmen eingesetzt werden. Die minimal erreichbare Bandbreite wird durch das Schawlow-Townes-Limit beschrieben. Dauerstrich. Ein Dauerstrichlaser ist ein Laser, der im Gegensatz zu Pulslasern eine Lichtwelle konstanter Intensität abstrahlt. Laserstrahlung von Dauerstrich-Lasern (englisch: continuous-wave laser, cw-laser) ist im Idealfall schmalbandig (monochrom, einfarbig), das heißt, sie besteht nur aus Strahlung einer Wellenlänge. Insbesondere ist Dauerstrich-Laserstrahlung aus stabilen Laserresonatoren aufgrund des Vielfachumlaufes zeitlich beziehungsweise longitudinal (entlang seiner Ausbreitungsrichtung) kohärent, was bedeutet, dass die ausgesandten Wellenzüge nicht nur mit der gleichen Frequenz schwingen, sondern auch in der Phase über eine lange Strecke (die Kohärenzlänge) konstant sind. Dadurch zeigt ein solches Licht besonders ausgeprägte Interferenzerscheinungen. Während des Einschwingvorgangs des Dauerstrich-Lasers tritt zunächst oft Spiking, das heißt eine unregelmäßige Abgabe von Laserpulsen, auf. Dieses Verhalten nutzt ein modengekoppelter Laser gezielt aus, indem er die Spikes z. B. triggert oder synchronisiert. Pulse. Im Gegensatz zum Dauerstrich-Laser erzeugt ein gepulster Laser pulsierende Strahlung. Pulse können durch gepulste Anregung oder auch durch Maßnahmen im Laser selbst (Güteschaltung) erzeugt werden. Bei sehr kurzen Pulsen benötigt das aktive Medium prinzipiell eine größere Verstärkungsbandbreite, innerhalb derer die beteiligten Frequenzen gekoppelt sind (Modenkopplung) und sich zu einem Impuls zusammensetzen. Je kürzer die Pulsdauer, desto breiter ist entsprechend den Gesetzen der Fourier-Analyse das erzeugte Spektrum und umso breiter muss das Frequenzband sein, innerhalb dessen das aktive Medium verstärken kann. Die geringsten erzielbaren Pulsdauern liegen in der Größenordnung von Femto- und Attosekunden (→ Femtosekundenlaser). Laser können sich auch selbst zur Abgabe einer Pulsfolge synchronisieren, wenn im Resonator zum Beispiel ein nichtlinearer (sättigbarer) Absorber vorhanden ist. Die Wiederholfrequenz, mit der die Pulse in einem solchen Laser erzeugt werden, hängt u. a. bei der instantanen Kerr-Linsen-Modenkopplung (engl. "Kerr lens mode locking," ein Verfahren zur Erzeugung einer stabilen Pulsfolge von Pulsen geringer Dauer) von der Resonatorlänge ab: Bei einem Resonator mit einer Länge von einem halben Meter beträgt diese etwa 300 MHz – die Periodendauer entspricht einem Hin- und Herlaufen (Umlauf) des Pulses im Resonator. Die Spitzenleistung wird bei jedem Umlauf größer, die Pulsdauer bleibt von allein sehr gering. Aus solchen Pulslasern werden zum Beispiel einzelne Pulse mittels optischer Schalter herausgelassen und weiterverstärkt. Mit weiteren Maßnahmen gelingt es, Spitzenleistungen bis in den Petawatt-Bereich zu erzeugen, die nur im Vakuum ungestört übertragen und fokussiert werden können. Luft wird von der hohen elektrischen Feldstärke des Lichts ionisiert. Die Gütemodulation (Q-switching) des Resonators mit akustooptischen Güteschaltern oder Pockelszellen sind weitere Techniken zur Erzeugung energiereicher Laserpulse mit geringer Dauer: Dabei wird die stimulierte Emission zunächst unterbunden, um sie dann bei inzwischen durch das Pumpen gestiegener Besetzungsinversion (hohe, im aktiven Medium gespeicherte Energie) schlagartig zu ermöglichen. Einteilung anhand des Lasermediums. Übersicht über Wellenlängen von im Handel erhältlichen Lasern. Lasertypen mit diskreten Laserlinien sind oberhalb der Leiste der Wellenlängen eingetragen. Die Farbe gibt die Art des Lasermaterials an. Laser werden oftmals anhand der Eigenschaften des eingesetzten optischen Lasermediums kategorisiert und benannt. Die gröbste Einteilung erfolgt dabei anhand des Aggregatzustandes. Wichtige Gaslaser sind beispielsweise der bei 632,8 nm emittierende Helium-Neon-Laser und der bei 10,6 μm emittierende Kohlendioxidlaser. Spezielle Klassen der Gaslaser sind Excimerlaser, bei denen das Lasermedium ein Excimer-Molekül ist, und Metalldampflaser, bei denen das gasförmige Lasermedium zuerst durch Verdampfen von Metall gewonnen werden muss. Laser mit flüssigem Lasermedium werden als Farbstofflaser bezeichnet. Diese Laser kennzeichnen sich durch eine sehr große, kontinuierliche und abstimmbare Bandbreite an Wellenlängen. Bei den eingesetzten Farbstoffen handelt es sich in vielen Fällen um Stilbene, Cumarine und Rhodamine. Die Gruppe der Festkörperlaser beinhaltet Laser, deren Lasermedium Kristalle sind. Dabei kann es sich unter anderem um dotiertes Glas, Yttrium-Aluminium-Granat und andere Wirtskristalle oder Halbleiter handeln. Wichtige Beispiele sind der, die Laserdiode und der. Häufig verwendete Dotanden sind Titan, Chrom und Neodym. Für die Form der Festkörper existieren viele Möglichkeiten, wie z. B. der Stablaser, Slablaser, Faserlaser und der Scheibenlaser. Eine besondere Form der Festkörperlaser sind die "Farbzentrenlaser", die ähnlich funktionieren, aber Farbzentren zur Erzeugung der Laserübergänge nutzen. Eine besondere Form ist der Freie-Elektronen-Laser (FEL). Er ist eine Synchrotronstrahlungsquelle, die gerichtete Strahlung im Mikrowellenbereich bis in den Röntgenbereich emittiert. Ein FEL ist allerdings kein Laser im eigentlichen Sinne, da die Strahlung nicht durch stimulierte Emission in einem Lasermedium erzeugt wird. Anwendungen. Laser werden in sehr vielen Lebens- und Arbeitsbereichen, Forschungs- und Industriezweigen und medizinischen Aufgabenfeldern verwendet. Folgende Abschnitte geben einen groben Überblick über die wichtigsten Einsatzgebiete der Lasertechnik. Alltag und Unterhaltung. Laser haben Einzug in vielen Bereichen des täglichen Lebens gefunden. In jedem Laserdrucker und allen optischen Laufwerken, wie beispielsweise CD-, DVD- und Blu-ray-Disc-Spieler befinden sich Laserdioden, ebenso in Laserpointern, die als „optischer Zeigestock“ eingesetzt werden. In Diskotheken und Lasershows werden Laser als Effektquelle eingesetzt. Eine besondere Form ist dabei die Laserharfe, bei der mehrere Laserstrahlen zum Erzeugen von Musik benutzt werden. In Planetarien werden Laser als Projektoren eingesetzt. Eine Variante ist der „All Dome Laser Image Projector“, wie er zum Beispiel im Planetarium Jena verwendet wird. In Barcodelesegeräten werden Laser zum Abtasten von Strichcodes verwendet. Weitere wichtige Einsatzorte von Lasern sind die Datenübertragung mit Lichtwellenleitern und der optische Richtfunk, die Holografie und das Laserscanning. Industrie und Materialbearbeitung. In der Industrie und der Fertigungstechnik werden Laser für verschiedene Fertigungsverfahren (DIN 8580) eingesetzt. Sie werden hierzu an einer Laserbearbeitungsmaschine oder einem Laserscanner betrieben. Laser eignen sich zum Umformen, Trennen, Fügen, Beschichten und Stoffeigenschaften ändern verschiedenster Materialien, wie Holz, Kunststoff, Papier und Metalle. Zu den wichtigsten Verfahren gehören das Lasersintern, die Stereolithografie, das Laserstrahlbiegen und laserunterstütztes Biegen, das Laserschneiden und -bohren, die Laserablation, das Lasertrimmen, Laserstrahlschweißen, -auftragschweißen und -löten, die Laserbeschriftung, das Laserspritzen und Laserstrahlverdampfen, das Laserpolieren. Weiterhin können mit Lasern Strukturen im Mikrometer- und Submikrometerbereich auf fotosensitive Materialien geschrieben werden. Mittels mikrofotolithografischer Systeme werden im Direktschreibverfahren hochaufgelöste Vorlagen (Masken) für verschiedene Anwendungen erzeugt, die z. B. mittels breitbandiger Hochleistungslaser in der Produktion auf die endgültigen Materialien umkopiert werden. Andere Anwendungen schließen das Direktschreiben von Strukturen auf Silizium-Wafern in niedrigen Stückzahlen oder das Schreiben von Strukturen auf fotoempfindlichen Filmen (z. B. Dehnungssensoren) ein. Auf diese Weise lassen sich Bildschirmmasken, Leiterplatten, integrierte Schaltkreise und Sensoren herstellen. Medizin. In der Allgemeinmedizin wird der Laser hauptsächlich in der Diagnose eingesetzt, z. B. bei der Messung von Blutstrom (Flowmetrie) und -zirkulation. Es existieren auch Low-Level-Lasertherapiegeräte zur Wund- und Schmerzbehandlung. In der Augenheilkunde wird Laserlicht niedriger Leistung zur Diagnose eingesetzt, z. B. in der optischen Kohärenztomografie (OCT). In der Therapie kann mit höherer Leistung eine sich ablösende Netzhaut am Augenhintergrund verschweißt werden. Außerdem kann Fehlsichtigkeit durch Abtragung von Hornhautoberfläche korrigiert werden (z. B. LASIK-Operation). In der Chirurgie, Gefäßchirurgie und Phlebologie wird der Laser hauptsächlich im Bereich Endoskopie oder als Laserskalpell eingesetzt. Eine weitere Anwendung ist die Behandlung von defekten Venen (Krampfadern). Hierbei kann der Laser endovenös (Laser-Lichtleiter wird in die Vene eingebracht) angewendet werden. Dieses Laser-Behandlungsverfahren ersetzt dabei das Entfernen der Vene durch „Stripping“. Die Laser-Behandlung ist in vielen Fällen schonender und ambulant durchführbar. In der Dermatologie lassen sich mit Laserstrahlen Schnitte und Verödungen durchführen. Blutgefäße können durch Laser bestimmter Wellenlängen koaguliert werden. Pigmentflecken können mit Hilfe ablatierender (= schälender) Laser abgetragen oder selektiv zerstört werden. Subkutanes (= unter der Haut gelegenes) Pigment kann mit Hilfe eines ultrakurz gepulsten Lasers zerstört und damit entfernt werden, ohne die Hautoberfläche stark zu verletzen. Durch Verwendung von langgepulsten Lasern können Haarwurzeln durch Epilation dauerhaft zerstört werden. Laser werden auch zur gezielten Behandlung entzündlicher Hauterkrankungen, vorrangig der Psoriasis (Schuppenflechte) eingesetzt. Oberflächliche Unebenheiten der Haut (Knötchen, Fältchen) werden mit zur kosmetischen Verbesserung des Hautbildes geglättet (Resurfacing). Durch Laserlicht können auch selektiv dermale Anteile erwärmt werden, was in erster Linie dem Kollagenaufbau zur Straffung der Haut dienen soll („Subsurfacing“). In der Hals-Nasen-Ohren-Heilkunde werden Laser zur Abtragung von Veränderungen an den Stimmbändern bei der Mikrolaryngoskopie verwendet, außerdem zur Teilabtragung der Mandeln (Tonsillotomie) und von Tumoren in Mund und Rachen (z. B. beim Zungenkarzinom). Bei der Operation wegen Otosklerose werden Laser zur Perforation der Steigbügel-Fußplatte verwendet. In der Zahnmedizin können Laser für den Abtrag von Zahnhartsubstanz („Bohren ohne Bohrer“) oder in der Parodontologie (Keimreduktion und Konkremententfernung in entzündeten Zahnfleischtaschen) verwendet werden. Diodenlaser werden in der Zahnmedizin für chirurgische Eingriffe, z. B. Lippenbändchenentfernung, für die Keimreduktion in der Endodontie (Wurzelkanalbehandlung) oder für die Zahnweißung (Bleaching) verwendet. Der Vorteil der Laserbehandlung gegenüber der konventionellen Methode ist die, dass der Patient weniger Schmerzen hat, die Setzung von Nähten teilweise überflüssig wird, es weniger blutet, da die Wunde verödet ist und die behandelte Stelle gleichzeitig dekontaminiert (keimfrei) wird. In der Krebstherapie wird er für die photodynamische Therapie eingesetzt, In der Urologie zur Behandlung von Nieren- und Harnleitersteinen und der Prostata. Die Lasermikrodissektion ist ein Verfahren zur Gewinnung von kleinsten Proben aus Gewebsschnitten oder Zellkulturen. Noch in der Forschung befindliche Techniken betreffen u. a. die Versuche, Nerven unter Einsatz von Laserlicht zielgerichtet wachsen zu lassen. Die Sicherheitsbestimmungen für medizinisch genutzte Laser werden in der EN 60601-2-22 behandelt. Mess- und Steuerungstechnik. Eine Reihe von präzisen Messgeräten für Entfernungen und andere Größen funktionieren mit Lasern. Sie werden beispielsweise beim Tunnelbau und im Bauwesen verwendet. Weitere Messgeräte, die auf Lasern beruhen, sind Kohärenzradar, optische Abstandsmessungen per Light detection and ranging ("Lidar") und Laserpistolen, lasergestützte Brandmelder, elektronische Specklemuster-Interferometrie ("ESPI") zur Formerfassung, Lasermikrofone, Laserextensometer, Laser-Doppler-Anemometrie und Particle Image Velocimetry zur Messung von Strömungsgeschwindigkeiten, Laser-Doppler-Vibrometer zur berührungsfreien Schwingungsmessung, Laser surface velocimeter, Laser-Wolkenhöhenmesser in der Meteorologie und Laserkreisel. Energietechnik. Laser können zur Uran-Anreicherung zwecks Gewinnung von Kernbrennstoff verwendet werden. Militär. Beim Militär und in der Rüstungsindustrie werden Laser wie im Alltag zur Kommunikation und zu Messzwecken eingesetzt, aber zusätzlich auch als Waffen oder waffenunterstützende Technik verwendet. Dazu zählen Zielhilfen für präzisionsgelenkte Munition und lasergelenkte Bomben sowie zur Erzeugung von Zielmarkierung an Handfeuerwaffen (beispielsweise an der AM180), „Lasergewehre“ zum vorübergehenden Blenden, Hochenergielaser zur Raketenabwehr ("Laserkanonen") (siehe auch Energiewaffe und Weltraumwaffe). Hochleistungs-Laseranlagen im Wellenlängenbereich um 1 Mikrometer dienen als „Treiber“ in Anlagen zur Trägheitsfusion wie beispielsweise der National Ignition Facility. Im August 2014 wurde von der US Navy die erste Laserwaffe (engl. Laser Weapon System, kurz LaWS) auf der USS Ponce in Betrieb genommen. In veröffentlichten Videos wird die Waffe an unbemannten Flugobjekten und Schlauchbooten getestet, die nach kurzer Zeit anfangen zu brennen. Wissenschaft und Forschung. In der modernen Forschung der Physik, Chemie und Biologie und ihrer jeweiligen Teilgebiete sind Laser eines der wichtigsten Hilfsmittel. In der Laserspektroskopie werden Laser zur Laserkühlung und Bestimmung von Energieniveaus in Atomen und Molekülen, zur Dichtemessung in Gasen und Plasmen oder zur Bestimmung von Materialeigenschaften eingesetzt. Spezielle laserspektroskopische Verfahren sind beispielsweise die Atomspektroskopie, die Tunable Diode Laser Absorption Spectroscopy die Raman-Spektroskopie und die nichtlineare Raman-Spektroskopie. Effekte, wie sie die nichtlineare Optik vorhersagt, können nur mit Lasern erzielt werden. Isotopentrennungen, wie AVLIS und MLIS, sind ebenfalls nur mit Lasern möglich. In der Geodäsie dienen Laser zur Vermessung der Erde und der Plattentektonik, beispielsweise mittels Tachymeter, Lasertracker, Kanallaser, Satellite Laser Ranging und LaserDisto. Die optische Pinzette und das Zwei-Photonen-Mikroskop sind Anwendungen der Zellforschung. In der Astronomie werden Laser zur genauen Justierung optischer Bauteile und Instrumente sowie zur Beobachtung von Raumobjekten eingesetzt. Dazu zählen Laserteleskope, Laser-Theodoliten und -Zielfernrohre sowie die Vermessung der Mondbewegung mittels Lunar Laser Ranging. In der superauflösenden Mikroskopie mit dem STED-Mikroskop, für die Stefan Hell im Jahr 2014 (mit anderen) den Nobelpreis für Chemie erhielt, werden zwei konfokale Laserstrahlen eingesetzt, um Bereiche von nur wenigen Atomdurchmesser Durchmesser abrastern zu können. Homogenisierung. In manchen Anwendungen ist ein räumlich homogenes Profil nötig. Der Laserstrahl kann dann homogenisiert werden, zum Zwecke der Schaffung einer möglichst ebenmäßigen Intensitätsverteilung des Laserlichts über den gesamten Strahlquerschnitt. Das anfängliche Gauß-Profil der Intensitätsverteilung wird dabei über verschiedenste Optiken im Idealfall in ein fast-Rechteckprofil mit sehr geringer Inhomogenität überführt. Anwendung findet diese Technik in verschiedensten Bereichen der Produktion, Messtechnik und Forschung. Gefahren für die Gesundheit. Laser können aufgrund der Eigenschaften ihrer Strahlung und aufgrund ihrer z.T. extrem konzentrierten elektromagnetischen Leistung biologische Schäden verursachen. Daher sind Laser je nach Laser-Klasse mit genormten Warnhinweisen zu versehen. Dabei werden Bereiche der Wellenlängen und Einwirkzeiten unterschieden, die zu charakteristischen Verletzungen und Verletzungs-Schwellwerten der Leistungs- oder Energiedichte führen. Anwender und Anlagenbauer müssen direkte, indirekte (unbeabsichtigt gerichtet reflektierte) und Streustrahlung (unbeabsichtigt diffus reflektierte) hinsichtlich dieser Grenzwerte berücksichtigen. Die Gefährdung durch Laserstrahlung an Maschinen zur Lasermaterialbearbeitung wird oft nach der Maschinenrichtlinie beurteilt und ergibt auf dem Risikograph meistens die bisherige Kategorie 4 beziehungsweise die Sicherheitsanforderungsstufe 3 (auch Sicherheits-Integritätslevel 3, kurz SIL-3). Sachschäden. Laserstrahlen können bei ausreichender Leistung oder Fokussierung Brände und Explosionen auslösen. Hochbrillante Laser zur Materialbearbeitung können bei Versagen der Steuerung (zum Beispiel eines Roboters) auch an weit außerhalb ihrer Fokusebene liegenden Bauteilen oder Wandungen Schäden verursachen. Prävention. Jede kommerzielle Einrichtung in Deutschland, die einen Laser ab der Klasse 3R benutzt, muss von einem unterwiesenen Laserschutzbeauftragten auf Gefahren und richtige Verwendung des Lasers überprüft werden. Laser-Klassen. Lasergeräte werden entsprechend der schädlichen biologischen Wirkung von Laserstrahlung in Klassen eingeteilt. Maßgeblich für die nationalen und internationalen Laserklassen ist dabei die Definition von Grenzwerten, bei denen keine Schädigung zu erwarten ist. Neben der amerikanischen ANSI-Norm gibt die "International Commission on Non-Ionizing Radiation Protection" Grenzwerte im Spektralbereich zwischen 400 und 1400 nm heraus. Maßgeblich ist bei nichtionisierender Strahlung die thermische Leistung pro Fläche sowie die spezifischen wellenlängenabhängigen Absorptionseigenschaften des Gewebes (Haut sowie Retina, Hornhaut, Glaskörper und Linse des Auges). Durch die Fokussierung der Augenlinse ist die Gefährlichkeit im sichtbaren und besonders im angrenzenden infraroten Bereich erhöht. Oberhalb von 1,4 µm Wellenlänge wird die Strahlung großflächig in der Hornhaut absorbiert. Sie bietet einen Schutz für die Retina des Auges. Jedoch reduziert sich die Absorptionstiefe auf weniger als 0,1 mm bei 3 µm Wellenlänge, weshalb es zu Schäden in der Hornhaut kommen kann. Aus diesem Grund heißt der Wellenlängenbereich von 1,5 bis 2 µm "augensicher" (engl.). Unterhalb 1,4 µm sind Hornhaut, Haut und darunter liegendes Gewebe im Bereich 1200 nm (Nahinfrarot) bis rot (700 nm) teiltransparent, sodass hier tiefreichende Schädigungen auftreten können, deren Entstehung aufgrund dort nicht vorhandenen Wärmeempfindens oft nicht bemerkt werden. Auch Netzhautschäden durch Laser-Strahlung im Nahinfrarot werden oft nicht bemerkt und erst durch für entsprechende Arbeitsplätze vorgesehene ärztliche Augenuntersuchungen entdeckt. Bei Wellenlängen unterhalb von etwa 400 nm werden organische Molekülbindungen zerstört, die Absorptionstiefe in Gewebe verlagert sich mit kürzerer Wellenlänge an die Oberfläche von Haut und Auge. Es treten auch bei geringen thermischen Leistungsdichten Linsen- und Hornhauttrübungen sowie Schädigungen der Haut vergleichbar einem Sonnenbrand auf. Dementsprechend sind die Grenzwerte der Leistungsdichte bei diesen kurzen Wellenlängen geringer als beispielsweise im mittleren Infrarot. Die Klasseneinteilung von Lasergeräten und -anlagen erfolgt anhand maximal auftretender Leistungs- bzw. Energiedichten, je nachdem, ob es sich um kontinuierliche oder Pulslaser handelt. Dabei ist auch die Expositionsdauer und die Wellenlänge maßgebend. Klassifizierung nach DIN EN 60825-1. Ein vorschriftsgemäß nach EN 60825-1 klassifizierter Laser. Entsprechend der Gefährlichkeit für den Menschen sind die Laser in Geräteklassen eingeteilt. Die Klassifizierung nach DIN EN 60825-1 erfolgt vom Hersteller. (Die alte Klassifizierung nach DIN VDE 0837 (→ unten) darf für neue Laser nicht mehr verwendet werden.) Anmerkung zu Laserklasse 2 und 2M: Eine wissenschaftliche Untersuchung ergab, dass der Lidschlussreflex (dieser tritt im Übrigen innerhalb 0,25 s auf; eine längere Bestrahlung schädigt das Auge) nur bei < 20 % der Testpersonen gegeben war. Von dem Vorhandensein des Lidschlussreflexes zum Schutz der Augen kann der Studie zufolge nicht als Regelfall ausgegangen werden. Anmerkung zur Leistung: Bei ausgedehnten Quellen oder divergenter Strahlung können weit höhere Leistungen auftreten als bei kollimierten Laser der gleichen Klasse. So wird z. B. auf Seite 67 von EN 60825-1:2007 das Beispiel B.3.2 angegeben, bei dem eine stark divergente 12-mW-Laserdiode (Wellenlänge 900 nm) nach Klasse 1M klassifiziert wird. Klassifizierung nach DIN VDE 0837. Bis März 1997 galten in Deutschland die Laserklassen nach DIN VDE 0837. Diese Einteilung ist heute noch in den USA gebräuchlich. Luv und Lee. Luv- und Leeseite eines Schiffes Luv und Lee benennen die Seiten eines Objekts in Bezug auf den Wind. Dabei ist Luv die dem Wind zugewandte Seite. Und Lee ist die vom Wind abgewandte Seite. Die Begriffe stammen aus der Seemannssprache. Die Unterscheidung zwischen Luv- und Lee-Seite eines Schiffes ist wichtig für das korrekte Setzen der Segel. Luv und Lee setzten sich ab dem 17. Jahrhundert auch in anderen Gebieten durch, wie beispielsweise der Meteorologie oder der Geographie. Hier bezeichnet Luv die windzugewandte Seite eines topographischen Hindernisses (Wetterscheide) mit einem aufsteigenden Wind und damit oft verbundenen Niederschlägen (orografischer Steigungsregen). Lee bezeichnet dementsprechend die windabgewandte Seite des Hindernisses, an der der Wind absinkt und zum Föhn werden kann, und weniger Niederschläge fallen. Luv- bzw. Leestellung. Eine Flotte versuchte in der Regel also stets, die Luvstellung gegenüber der feindlichen Flotte zu erlangen, um selbst freier manövrieren zu können. Eine unterlegene Flotte, die dem Kampf auszuweichen versuchte, musste meistens genau dies verhindern. Außerdem spielt die Luv- oder Leestellung eine Rolle bei den Ausweichregeln zwischen Segelfahrzeugen. „Lee machen“ in der Seefahrt. In der Seefahrt wird die Tatsache, dass die See in Lee des Rumpfes merkbar ruhiger ist als in Luv, genutzt, beispielsweise wenn ein Lotse versetzt oder ein Boot ausgesetzt oder an Bord genommen werden muss. Das Manöver, bei dem das Schiff so zu Wind und See gedreht wird, dass es die See bestmöglich beruhigt, nennt man „Lee machen“. Bei einer Rettungsinsel, die im Ernstfall (d.h. beim Sinken eines Schiffes) ins Wasser gelassen wird, öffnet sich automatisch ein sogenannter Treibanker, der verhindert, dass das Boot Richtung Lee wegtreibt und das Boot im Seegang gehalten wird. Auch Schiffe, die Wasserflugzeuge an Bord haben, die im Wasser landen müssen (Flugzeugmutterschiffe), erleichtern deren Landung, indem sie erst gegen den Wind fahren und dann eine 90° Kurve steuern. Dies ermöglicht dem Wasserflugzeug, gegen den Wind zu landen und das ruhige, sichelförmige Kielwasser des Schiffes zu nutzen. Luv und Lee in der Luftfahrt. In der Luftfahrt werden die Begriffe Luv und Lee für die dem Wind zugekehrte bzw. abgewandte Seite eines Hindernisses oder Flugzeuges benutzt. Luv und Lee in der Topografie. In der Topografie und Landschaftsökologie bezeichnen Luv und Lee die der Hauptwindrichtung zugewandte und die ihr abgewandte Seite eines Gebirges oder Höhenzuges. Sonstiges. Im Animationsfilm "Findet Nemo" aus dem Jahr 2003 tritt in einer Nebenrolle der (Dascyllus melanurus) "Lee & Luv" auf. Der Zusammenhang zwischen dem zwiespältigen Charakter der Figur und der Zwiespältigkeit des Konzepts von Luv und Lee wird ähnlich deutlich wie beim englischen Originalnamen "Deb & Flo", der auf "Ebb and Flow", also Ebbe und Flut, anspielt. Eine Eselsbrücke: LUv ist die dem Wind zUgewandte Seite - LEe ist wEg vom Wind. Liechtenstein. Liechtenstein (amtlich "Fürstentum Liechtenstein"; liechtensteinerisch: "Förschtatum Liachtaschta", "Füarstatum Liachtastoo", "Fürstatum Liachtastei") ist ein Fürstentum und Binnenstaat im Alpenraum Mitteleuropas. Der sechstkleinste Staat der Welt besitzt eine konstitutionelle Erbmonarchie auf demokratisch-parlamentarischer Grundlage. Das Haus Liechtenstein stellt den Landesfürsten. Die Souveränität ist in Liechtenstein gleichermassen zwischen Fürst und Volk geteilt. Das Alpenland Liechtenstein liegt am Alpenrhein und grenzt westlich an die Schweiz und östlich an Österreich. Es gliedert sich in zwei Wahlkreise und elf Gemeinden. Hauptort und Fürstensitz ist Vaduz, der flächenmässig grösste Ort ist Triesenberg und der bevölkerungsreichste Ort ist Schaan. Der stark kultivierte Norden (Unterland) und der weniger bewirtschaftete Süden (Oberland) charakterisieren die Landschaft des Fürstentums. Liechtenstein ist mit 37'000 Einwohnern der kleinste Staat im deutschen Sprachraum. Deutsch ist alleinige Amts- und Landessprache. Der Ausländeranteil beträgt 34 Prozent. Das Fürstentum gehörte dem Heiligen Römischen Reich deutscher Nation, dem Rheinbund und dem Deutschen Bund an. Im August 1806 wurde es unabhängig und ist seit dem Zollvertrag mit dem Nachbarland im Jahr 1923 verwaltungsmässig und wirtschaftlich eng mit der Schweiz verbunden. Liechtenstein ist Mitglied der Vereinten Nationen (UNO) und des Europäischen Wirtschaftsraums (EWR), gehört aber, wie die Schweiz, nicht der Europäischen Union (EU) an. Der Staat war als Steueroase bekannt. Die Liechtensteiner Steueraffäre und Offshore-Leaks haben dazu beigetragen, dass Liechtenstein im November 2013 ein internationales Abkommen zur Verhinderung von Steuerflucht («OECD-/Europarats-Übereinkommen») unterzeichnete. Geografie. Liechtenstein ist ein am Rhein gelegener Binnenstaat in den Alpen, umgeben von den Schweizer Kantonen St. Gallen im Westen und Graubünden im Süden sowie dem österreichischen Bundesland Vorarlberg im Osten. Seine Staatsgrenze zur Schweiz im Westen entspricht dem Rheinverlauf, während die südliche und östliche Staatsgrenze vom Alpen-Hochgebirge, dem Rätikon, geprägt ist. Die Grenze zu Österreich verläuft grösstenteils auf dem Gebirgsgrat. Neben Usbekistan ist Liechtenstein der einzige Staat, der ausschliesslich von Binnenstaaten umgeben ist. Das Land bedeckt eine Fläche von 160,475 Quadratkilometern und ist damit der viertkleinste Staat Europas und sechstkleinste der Erde. Es misst an seiner längsten Stelle 24,77 Kilometer und an seiner breitesten 12,35 Kilometer. Liechtenstein grenzt auf 41,2 Kilometern an die Schweiz, wovon 27,2 Kilometer auf den Kanton St. Gallen und 14 Kilometer auf den Kanton Graubünden entfallen. Die Staatsgrenze mit der Republik Österreich (Bundesland Vorarlberg) beträgt 35,04 Kilometer. Grösster Ort nach Einwohnern ist Schaan. Naturräumliche Gliederung. Liechtenstein gliedert sich in zwei Landschaften, als Hauptsiedlungsraum das Rheintal im Westen und das Saminatal mit Nebentälern im Osten. Letzteres wechselt im weiteren Verlauf die Grenze und mündet bei Frastanz in den unteren Walgau Vorarlbergs. Dieser Landesteil ist durch einen 1000 bis über 2000 Meter hohen Kamm vom Rheintal getrennt und kaum besiedelt, macht aber etwa ein Drittel der Landesfläche aus. Weiter gliedert man das Land in zwei Regionen, das Unterland und das Oberland. Das Unterland umfasst die Gemeinden nördlich von Schaan und Planken (etwa an der Linie der Drei Schwestern), während das Oberland den südlichen Teil des Fürstentums beinhaltet. Naturräumlich unterscheiden sich diese beiden Regionen darin, dass das Oberland stärker vom alpinen Gebirge geprägt ist, während sich das Unterland vorwiegend – ausgenommen der Eschnerberg – auf die Rheintalebene erstreckt. Von der Landesfläche sind 11 Prozent Siedlungsraum, 33 Prozent landwirtschaftliche Nutzfläche, 41 Prozent Waldgebiet und 15 Prozent unproduktive Fläche. Gebirge. Rund die Hälfte des liechtensteinischen Staatsgebietes ist Gebirge. Liechtenstein liegt dabei vollständig im Rätikon und ist so – je nach Einteilung der Alpen – den Ostalpen (Zweiteilung der Alpen) oder den Zentralalpen (Dreiteilung der Alpen) zuzuordnen. Der höchste Punkt Liechtensteins ist der Vordere Grauspitz mit einer Höhe von, während den tiefsten Punkt das Ruggeller Riet mit einer Höhe von darstellt. Insgesamt gibt es in Liechtenstein 32 Berge mit einer Höhe von mindestens 2000 Metern. Das "Falknishorn" ist mit der fünfthöchste Berg in Liechtenstein und stellt den südlichsten Punkt des Landes dar. Das Dreiländereck Liechtenstein–Graubünden–Vorarlberg ist der "Naafkopf" (). Neben den Gipfeln der Alpenkette, die zu den Kalkalpen gehören, ragen mit den Grenzbergen Fläscherberg () im Süden und dem Eschnerberg () im Norden zwei Inselberge aus dem Rheintal, die zur helvetischen Decke bzw. Flyschzone der Alpen gehören. Der Eschnerberg stellt ein wichtiges Siedlungsgebiet im Liechtensteiner Unterland dar. Gewässer. Der Rhein ist das wichtigste und grösste Gewässer in Liechtenstein. Auf einer Länge von etwa 27 Kilometern stellt er die natürliche Grenze zur Schweiz dar und besitzt grosse Wichtigkeit für die Wasserversorgung Liechtensteins. Daneben ist der Rhein ein wichtiges Naherholungsgebiet für die Bevölkerung. Die Samina ist mit 12 Kilometern der zweitlängste Fluss des Fürstentums. Der Wildwasserfluss entspringt in Triesenberg und fliesst schliesslich in Österreich mit der Ill (zum Rhein bei Feldkirch) zusammen. Der einzige natürlich entstandene See in Liechtenstein ist das Gampriner Seele, das erst 1927 durch eine Überschwemmung des Rheins mit gewaltiger Erosion gebildet wurde. Daneben gibt es aber weitere, künstlich angelegte Seen, die vorwiegend zur Stromgewinnung dienen. Einer davon ist der Stausee Steg, der grösste See Liechtensteins. Klima. a> beeinflusst das Klima Liechtensteins wesentlich. Das Klima des Landes ist trotz der Gebirgslage relativ mild. Es wird stark durch die Einwirkung des Föhns (warmer, trockener Fallwind) geprägt, wodurch die Vegetationszeit im Frühling und im Herbst verlängert wird, und auch im Winter Temperaturen um 15 °C durch starken Föhn keine Seltenheit sind. Gegen atlantische und polare Kaltluft schützen die vorgelagerten Schweizer und Vorarlberger Bergketten, womit eine typische inneralpine Schutzlage entsteht. So verfügt das Fürstentum über Obstkultur mit Streuwiesen, und auch lange Weinbautradition. Die geringe räumliche Ausdehnung Liechtensteins spielt bei den Klimaunterschieden kaum eine Rolle, von grosser Bedeutung ist dagegen die vertikale Gliederung in unterschiedliche Höhenlagen, sodass wesentliche Klimaunterschiede entstehen. Im Winter sinkt die Temperatur selten unter minus 15 Grad, während im Sommer die mittleren Temperaturen zwischen 20 und 28 Grad schwanken. Die Messungen der jährlichen Niederschlagsmengen ergeben im Schnitt rund 900 bis 1200 Millimeter, im direkten Alpengebiet dagegen liegen die Niederschläge oft bis zu 1900 Millimeter. Die mittlere Sonnenscheindauer liegt bei etwa 1600 Stunden. Wohnbevölkerung. Liechtenstein zählte am 31. Dezember 2013 insgesamt 37'132 Einwohner. Etwa zwei Drittel der Einwohner sind gebürtige Liechtensteiner (65,8 Prozent); ein Fünftel (20,1 Prozent) der Wohnbevölkerung kommt aus dem übrigen deutschen Sprachraum (10,8 Prozent aus der Schweiz, 5,9 Prozent aus Österreich und 3,4 Prozent aus Deutschland), gefolgt von jeweils 3,3 Prozent aus Italien und Einwohnern des früheren Jugoslawien, 2,6 Prozent sind Türken und 4,8 Prozent kommen aus anderen Staaten. Insgesamt umfasst Liechtensteins ständige Wohnbevölkerung Menschen aus rund 90 Nationalitäten. Im Jahr 2012 lag das Bevölkerungswachstum bei 1,0 Prozent (Zuwachs von 363 Personen). Die durchschnittliche Bevölkerungsdichte liegt bei rund 230 Menschen pro Quadratkilometer. Im Liechtensteinischen Landesspital wurde das letzte Kind im Frühling 2014 geboren. Seit April 2014 müssen werdende Mütter aus Liechtenstein für Spitalsgeburten ins Ausland, weil die einzige Geburtsabteilung des Landes geschlossen wurde. Sprache. In Liechtenstein ist gemäss der Verfassung Artikel 6 Deutsch die Amtssprache. Liechtenstein ist der einzige Staat mit Deutsch als alleiniger (anerkannter) Amts- und Landessprache (in den übrigen Staaten des deutschen Sprachraums sind auch andere Sprachen als Amts- oder Minderheitensprachen anerkannt). Schrift- und Mediensprache ist üblicherweise Schweizer Hochdeutsch. In Liechtenstein schreibt man, gleich der Schweiz, anstelle des ß ein Doppel-s. Die Liechtensteiner Bevölkerung spricht verschiedene liechtensteinische Mundarten, die in ihrer grossen Mehrheit einer mittelalemannisch-hochalemannischen Übergangsmundart angehören, so wie sie grenzüberschreitend im Rheintal auch im benachbarten Kanton St. Gallen (Schweiz) und im benachbarten Vorarlberg (Österreich) gesprochen wird. Die Ortsdialekte unterscheiden sich dabei von Gemeinde zu Gemeinde teilweise wesentlich voneinander. Allerdings hebt sich die höchstalemannisch-walserdeutsche Mundart von Triesenberg bis heute deutlich von den hochalemannischen Dialekten der altansässigen Bevölkerung ab, deren Träger sind um das Jahr 1300 n. Chr. im Zuge der Walserwanderung aus dem Schweizer Kanton Wallis ins Land gekommen. Diese Bevölkerung hatte im Laufe des Mittelalters hier – wie im ganzen unterrätischen Raum – die alte rätoromanische Landessprache zugunsten des Alemannischen aufgegeben. Religion und Kirche. Die römisch-katholische Kirche ist gemäss Art. 37 II der Landesverfassung Landeskirche und geniesst als solche den vollen Schutz des Staates. Die Trennung von Kirche und Staat wird in heutiger Zeit allerdings angestrebt. Seit dem 20. Dezember 2012 kann jeder Liechtensteiner Bürger ab 14 Jahren auch ohne Zustimmung eines Erziehungsberechtigten sein religiöses Bekenntnis frei wählen. Nach dem Ergebnis der Volkszählung aus dem Jahr 2010 waren 75,9 % der Liechtensteiner römisch-katholisch, 8,5 % evangelisch, rund 5,4 % gehörten einer islamischen Religionsgemeinschaft an. 2,2 % waren Mitglied einer anderen christlichen Konfession oder nichtchristlichen Religion, als konfessionslos bezeichneten sich 5,4 %, weitere 2,6 % der Bevölkerung machten keine Angabe zu ihrer Religionszugehörigkeit. Bei einer von der liechtensteinischen Regierung in Auftrag gegebenen repräsentativen Umfrage zur Religionsangehörigkeit aus dem Jahr 2008 gaben noch 78 Prozent der in- und ausländischen Bewohner ihre Religion mit römisch-katholisch an, elf Prozent waren evangelisch, rund drei Prozent gehörten einer islamischen Religionsgemeinschaft an und sechs Prozent machten keine Angaben. Der Bevölkerungsanteil ohne Konfession belief sich demnach in Liechtenstein auf 2,8 Prozent. Bis 1997 gehörte Liechtenstein zum Bistum Chur. Am 2. Dezember 1997 wurde schliesslich das Erzbistum Vaduz von Papst Johannes Paul II. errichtet und vom Bistum Chur losgelöst. Seit der Errichtung des Erzbistums Vaduz ist Wolfgang Haas Erzbischof und die Pfarrkirche St. Florin in Vaduz wurde zur Kathedralkirche erhoben. Es gibt zwei kleine protestantische Kirchen im Fürstentum, die als Verein organisiert sind: Die Evangelische Kirche im Fürstentum Liechtenstein und die Evangelisch-lutherische Kirche im Fürstentum Liechtenstein, die gleiche Wurzeln hat. Vorgeschichte. Archäologische Funde haben gezeigt, dass das heutige Gebiet Liechtensteins seit der Jungsteinzeit (5. Jahrtausend v. Chr.) besiedelt ist. Während im Tal der frei fliessende Rhein eine Siedlung erschwert hatte, bildeten sich an Talerhebungen erste Siedlungsstätten. So nachweislich am Burghügel Gutenberg in Balzers oder am Eschnerberg. Im Jahr 15 v. Chr. eroberten die Römer unter Augustus das Gebiet der Räter und errichteten die römische Provinz Raetia. Im 1. Jahrhundert n. Chr. wurde die Heeresstrasse Mailand-Bregenz errichtet, die über die Luzisteig entlang des rechten Rheinufers verlief, und so sind auch im Gebiet des heutigen Liechtensteins Gutshöfe und Kastelle (z. B. in Schaan) errichtet worden. Mit dem Zerfall des römischen Weltreiches begann die Zuwanderung der Alemannen und schliesslich wurde Rätien im 8. Jahrhundert ins Fränkische Reich und im 10. Jahrhundert ins alemannische Herzogtum eingebunden. Zu dieser Zeit wurde das Gebiet des heutigen Liechtensteins durch die Grafen von Bregenz regiert. Am 3. Mai 1342 wurde das damalige Herrschaftsgebiet geteilt, sodass die Grafschaft Vaduz entstand. In den nachfolgenden Jahrzehnten und Jahrhunderten wurde die Grafschaft immer wieder Schauplatz von Kriegen und Plünderungen, so z. B. im Alten Zürichkrieg (1444–1446) oder im Schwabenkrieg (1499–1500). Entstehung des Fürstentums und Unabhängigkeit. Im Laufe der Zeit verschuldeten sich die Herrscher von Hohenems zunehmend, so dass sie schliesslich gezwungen waren, die Grafschaft Vaduz und die Herrschaft Schellenberg zu verkaufen. Im Jahr 1699 erwarb Fürst Hans Adam von Liechtenstein die Herrschaft Schellenberg und im Jahr 1712 die Grafschaft Vaduz. Am 23. Januar 1719 vereinigte ein Diplom von Kaiser Karl VI. die Grafschaft Vaduz und die Herrschaft Schellenberg und erhob sie zu einem Reichsfürstentum mit dem Namen Liechtenstein. Da das neue Land nur aus kleinen Bauerndörfern bestand, wurde die Administration vorerst in der nächstgelegenen Stadt, in Feldkirch, installiert, wo der Fürst zu diesem Zweck das Palais Liechtenstein errichten liess. Während der Koalitionskriege wurde Liechtenstein immer wieder von fremden Truppen besetzt, sodass eine verstärkte Verarmung der Bevölkerung einsetzte. Im Ersten Koalitionskrieg (1792–1797) marschierten französische Truppen im Fürstentum ein und nach Kämpfen zwischen Österreich (mit Unterstützung Russlands) und Frankreich wurde Liechtenstein im Zweiten Koalitionskrieg (1799–1802) von napoleonischen Truppen besetzt. 1806 gründete Napoleon Bonaparte den Rheinbund und nahm das Fürstentum Liechtenstein als eines der 16 Gründungsmitglieder mit auf, ohne den Fürsten zu fragen, sodass Liechtenstein unter dem Fürsten Johann I. unabhängig wurde. Wenige Tage später erklärte Kaiser Franz II. (in Österreich nun Franz I.) das Heilige Römische Reich für erloschen, womit die Unabhängigkeit aller bisherigen Reichsgebiete verbunden war. Beim Wiener Kongress 1814/1815 wurde die Unabhängigkeit Liechtensteins bestätigt und das Land in den Deutschen Bund aufgenommen. Zollvertrag mit Österreich. Liechtenstein entwickelte sich im Laufe der Jahre und Jahrzehnte nur langsam und blieb lange Zeit rückständig. Eine Revolution 1848 brachte kurzfristig keine Änderung. Erst der im Jahr 1852 geschlossene Zollvertrag mit dem Kaisertum Österreich ermöglichte einen Aufschwung der wirtschaftlichen Verhältnisse, und die konstitutionelle Verfassung von 1862 brachte politische Veränderung, sodass der Fürst nicht mehr uneingeschränkt herrschen konnte. Im Ersten Weltkrieg blieb Liechtenstein neutral und hätte sich im Kriegsfall nicht verteidigen können, da die Armee bereits 1868 aus Kostengründen aufgelöst worden war. Die fehlende Armee sorgte jedoch dafür, dass es keine Ausfälle an Arbeitskräften gab. So hätte die in den letzten Jahrzehnten aufgebaute Textilindustrie weiter an Bedeutung gewinnen können, doch verboten die Alliierten die Garnzufuhr über die Schweiz, sodass die Textilindustrie völlig zum Erliegen kam. Damit verbunden war auch die Verarmung der liechtensteinischen Bevölkerung. Nach Kriegsende löste Liechtenstein schliesslich den Zollvertrag mit dem Kriegsverlierer Österreich auf. Zollvertrag mit der Schweiz. Nach der Auflösung des "Zoll- und Steuervereines" mit Österreich, die vom Liechtensteinischen Landtag am 2. August 1919 einstimmig beschlossen und im Herbst 1919 durchgeführt wurde, näherte sich Liechtenstein zunehmend der Schweiz an, und schliesslich wurde im Jahr 1923 der bis heute bestehende Zollvertrag mit der Schweiz unterzeichnet. Nachdem Österreich im März 1938 an das Deutsche Reich «angeschlossen» worden war, entschied sich der neu regierende Fürst Franz Josef II. als erster Fürst Liechtensteins – aufgrund der Ablehnung des Nationalsozialismus – seinen Wohnsitz von Ostösterreich bzw. Südmähren nach Liechtenstein, auf Schloss Vaduz, zu verlegen. Liechtenstein blieb im Zweiten Weltkrieg – wie im Ersten Weltkrieg – neutral und wurde nie in direkte Kriegshandlungen verwickelt. Stattdessen konnte das Fürstentum seine Standortvorteile nutzen, zu denen gehörten: keine Ausfälle von Armeeangehörigen, zentrale Lage, Zollunion mit der neutralen Schweiz, steuerliche Vorteile und politische Stabilität. So wurden viele neue Industriebetriebe in Liechtenstein gegründet und ein starkes Wirtschaftswachstum setzte ein. Spätere Entwicklungen. a> von Prinzregent Alois von Liechtenstein. Seit Ende des Zweiten Weltkrieges konnte sich Liechtenstein langsam aber stetig zu einem wichtigen Wirtschaftsstandort mit einer grossen politischen Stabilität entwickeln. Das Frauenstimmrecht wurde allerdings erst im Jahr 1984 eingeführt und der Beitritt zu den Vereinten Nationen (UNO) erfolgte im Jahr 1990. Wichtig für die Entwicklung der Wirtschaft war die Teilnahme am Europäischen Wirtschaftsraum (EWR), die 1992 durch eine Volksabstimmung mit einer deutlichen Mehrheit beschlossen wurde – die Schweiz hatte wenige Wochen zuvor den Beitritt abgelehnt. Die EWR-Mitgliedschaft brachte die vier Freiheiten (Personen, Güter, Dienstleistungen und Kapital) zwischen der Europäischen Union und Liechtenstein sowie den übrigen EWR-Mitgliedern Norwegen und Island mit sich. Am 15. August 2004 ernannte Fürst Hans-Adam II seinen Sohn und Erbprinz Alois von Liechtenstein zu seinem Stellvertreter und betraute ihn mit der Ausübung der dem Fürsten zustehenden Hoheitsrechte. Der Fürstentitel wird allerdings erst nach dem Tod Hans-Adams auf seinen Sohn übergehen. Im Jahr 2008 kam es schliesslich zu einer Steueraffäre mit Deutschland, in der zahlreiche deutsche Steuerhinterzieher aufflogen. Trotz vieler solcher Vorkommnisse, auch im Zusammenhang mit anderen europäischen Staaten und den USA, hat sich Liechtenstein zu der in der EU angestrebten Weissgeldstrategie, die auch die Schweiz bis 2018 umsetzen will, zunächst nicht geäussert. Politisches System. Liechtenstein definiert sich nach seiner Verfassung als «konstitutionelle Erbmonarchie auf demokratisch-parlamentarischer Grundlage». Die demokratisch-parlamentarische Grundlage ergibt sich aus der vom Volk gewählten und abwählbaren Legislativen und der direkt-demokratischen Möglichkeiten des Volkes, sich unmittelbar im Politalltag einzubinden. Die Staatsgewalt ist nach Art. 2 der Verfassung «… im Fürsten und im Volke verankert und wird von beiden nach Massgabe der Bestimmungen dieser Verfassung ausgeübt.» Der Landesfürst kann als Staatsoberhaupt den Landtag auflösen, schliessen und vertagen, die Volkswahl der Parlamentsmitglieder obliegt einer Angelobung des Fürsten, die Staatsregierung wird auf Vorschlag des Landtages vom Fürsten ernannt und er kann durch die Sanktionsrechte vom Parlament und vom Volk beschlossene Gesetze widerrufen. Das aktuelle Staatsoberhaupt Liechtensteins ist seit 1989 der Fürst Hans Adam II. von und zu Liechtenstein. Die Staatsgeschäfte obliegen seit August 2004 dem Erbprinzen Alois von und zu Liechtenstein. Legislative. Die gesetzgebende Gewalt liegt beim Landesfürsten und dem Landtag des Fürstentums Liechtenstein. Der Landtag besteht aus 25 Abgeordneten, die nach dem Proporzwahlrecht für vier Jahre vom Volk gewählt werden. Das Volk wählt dabei in zwei Wahlkreisen, wobei im Unterland 10 und im Oberland 15 Abgeordnete gewählt werden. Die Gesetzgebung wird durch den 65. Verfassungsartikel definiert. Nach diesem dürfen ohne die Mitwirkung des Landtages keine Gesetze beschlossen oder abgeändert werden. Nachdem ein Gesetz vom Landtag beschlossen wurde, muss es noch vom Fürsten sanktioniert, vom Regierungschef gegengezeichnet sowie im Landesgesetzblatt bekanntgegeben werden, bevor es endgültig in Kraft tritt. Wird ein Gesetz nicht innerhalb von sechs Monaten vom Landesfürsten sanktioniert, gilt es als verweigert. In der politischen Landschaft Liechtensteins spielen zwei Parteien die Hauptrolle, nämlich die beiden konservativen Parteien Vaterländische Union und Fortschrittliche Bürgerpartei. Sie stehen in einer Koalition und stellen die Regierung. Die Vaterländische Union ist im Oberland stärker vertreten und gilt gemeinhin als eher der Schweiz zugewandt und liberaler, während die Fortschrittliche Bürgerpartei im Unterland überwiegt und als fürstentreu und österreichfreundlich gilt. Davon abgesehen gibt es keine grösseren ideologischen Unterschiede zwischen den beiden grossen Parteien. Bei den Landtagswahlen 2013 verloren die beiden grossen bürgerlichen Parteien VU und FBP zusammen 17,6 Prozent der Stimmen. Der grosse Gewinner war die erstmals angetretene Wählergruppe Die Unabhängigen, die auf Anhieb 15,3 Prozent der Stimmen errangen. Auch die bisher einzige Oppositionspartei, die grün-alternative Freie Liste, konnte zwei Mandate dazu gewinnen. Regierung. Die fünfköpfige Regierung – der Regierungsrat – stellt die Exekutive. Sie besteht aus dem Regierungschef und den vier Regierungsräten und ihren jeweiligen der 15 Ressorts. Regierungschef ist seit dem 27. März 2013 Adrian Hasler (FBP), der für die Ressorts Präsidium und Finanzen in der Regierung verantwortlich ist. Auf Vorschlag des Landtages werden sie vom Landesfürsten ernannt. Mit der umstrittenen Verfassungsänderung 2003 erhielt der Landesfürst mit dem 80. Verfassungsartikel die Möglichkeit, die Regierung oder einzelne Regierungsräte jederzeit und ohne Angabe von Gründen zu entlassen. Als Stellvertreter des Regierungschefs sitzt Thomas Zwiefelhofer (VU) in der Regierung und führt die Dossiers Inneres, Wirtschaft und Justiz. Weitere Regierungsratsmitglieder sind Aurelia Frick (FBP) (mit den Ressorts Äusseres, Kultur und Bildung), Marlies Amann-Marxer (VU) (Ressorts Infrastruktur, Umwelt und Sport) und Mauro Pedrazzini (FBP) (Ressort Gesellschaft). Administrative. Die Verwaltung in Liechtenstein hat ein modernes und breit gefächertes Angebot. Die Liechtensteiner Landesverwaltung bietet E-Government-Lösungen für die Erledigung von Online-Behördengängen über sogenannte Onlineschalter an. Dabei werden Formularlösungen des österreichischen IT-Dienstleisters aforms2web verwendet. Um die kundenorientierte Online-Dienstleistung zu optimieren, wurde im Herbst 2013 die EAP-Anwendung in den bereits vorhandenen Formularserver AFORMSOLUTION (AFS) integriert. Zudem konnten bei der "United Nations E-Government Survey 2010" für Liechtenstein mit die grössten Fortschritte bei der Optimierung von Onlinediensten ermittelt werden. Im weltweiten Vergleich konnte Liechtenstein auf Platz 23 gelistet werden. Judikative. Die Judikative bildet ein mit fünf Richtern besetzter Oberster Gerichtshof, der die letzte Instanz der ordentlichen Gerichtsbarkeit in Liechtenstein darstellt. Die Richter werden in Liechtenstein von einem Gremium mit dem Fürsten als Vorsitzendem bestellt (Artikel 95 ff. Landesverfassung). Haftstrafen bis zu zwei Jahren werden im Landesgefängnis in Vaduz verbüsst, höhere Strafen müssen in österreichischen Gefängnissen abgesessen werden; dies ist durch ein bilaterales Abkommen beider Länder möglich. Die Todesstrafe wurde vom Liechtensteinischen Landtag erst im Jahr 1987 formal abgeschafft. Zuvor war die Todesstrafe aufgrund der Orientierung am alten österreichischen Strafgesetz von 1852 noch formal als Höchststrafe vorgesehen, allerdings de facto seit 1784 nicht mehr vollstreckt worden. Jedoch wurde noch am 26. November 1977 ein Mörder vom Kriminalgericht zum Tode verurteilt. Diese Strafe wurde nach der Begnadigung durch den Landesfürsten in eine 15-jährige Haftstrafe umgewandelt und war das letzte Todesurteil, das ein liechtensteinisches Gericht fällte. Direkte Demokratie. Es gibt ein stark direktdemokratisches Element im liechtensteinischen System. So können mindestens 1000 Bürger den Landtag einberufen (Art. 48(2) der liechtensteinischen Verfassung) und mindestens 1500 können eine Volksabstimmung über seine Auflösung beantragen (Art. 48(3) der liechtensteinischen Verfassung). Ebenfalls können 1000 Bürger den Begehr auf Erlass, Abänderung oder Aufhebung eines Gesetzes an den Landtag stellen. Jedes Gesetz unterliegt einer Volksabstimmung, sofern dies der Landtag beschliesst oder mindestens 1000 Bürger oder vergleichsweise drei Gemeinden dies verlangen (Art. 64 der liechtensteinischen Verfassung). Für Verfassungsänderungen oder Staatsverträge sind mindestens 1500 Bürger oder vier Gemeinden notwendig. Die Verfassung vom März 2003 hat die direktdemokratischen Rechte der Landesbürger in grundlegenden Aspekten erweitert. Das Frauenstimmrecht wurde erst mit dem dritten Anlauf im Jahr 1984 eingeführt. Eine vom Landtag 1976 beschlossene Verfassungsänderung ermöglichte den Gemeinden, das Frauenstimmrecht schon vorher auf Gemeindeebene einzuführen. In Krisenzeiten kann sich der Fürst auf ein Notrecht berufen (Artikel 10 der liechtensteinischen Verfassung). Aussenpolitik und diplomatische Beziehungen. Mangels politischer oder militärischer Macht hat Liechtenstein die Erhaltung seiner Eigenstaatlichkeit in den vergangenen 200 Jahren durch die Mitgliedschaft in Rechtsgemeinschaften gesucht. Internationale Kooperation und europäische Integration sind deshalb Konstanten der liechtensteinischen Aussenpolitik, die darauf abzielen, die völkerrechtlich anerkannte Souveränität des Landes weiterhin abzusichern. Entscheidend für die innenpolitische Legitimation und Nachhaltigkeit dieser Aussenpolitik waren und sind dabei starke direkt-demokratische und bürgernahe Entscheidungsmechanismen, die in Liechtenstein in der Verfassung von 1921 verankert sind. Die «offene» Grenze zwischen Liechtenstein und der Schweiz Wichtige historische Etappen der Integrations- und Kooperationspolitik Liechtensteins waren der Beitritt zum Rheinbund 1806, zum Deutschen Bund 1815, der Abschluss bilateraler Zoll- und Währungsabkommen mit der Donaumonarchie 1852 und schliesslich des Zollvertrags mit der Schweiz im Jahr 1923, dem eine ganze Reihe von weiteren wichtigen bilateralen Verträgen folgte. Nach dem wirtschaftlichen Wiederaufbau der Nachkriegszeit folgte 1950 der Beitritt zum Statut des Internationalen Gerichtshofs, 1975 unterzeichnete Liechtenstein zusammen mit 34 weiteren Staaten die KSZE-Schlussakte von Helsinki (heutige OSZE), 1978 trat Liechtenstein dem Europarat bei und 1990 wurde Liechtenstein in die Vereinten Nationen (UNO) aufgenommen. 1991 trat Liechtenstein der Europäischen Freihandelsassoziation (EFTA) als Vollmitglied bei und seit 1995 ist Liechtenstein Mitglied des Europäischen Wirtschaftsraums (EWR) sowie der Welthandelsorganisation (WTO). 2008 unterzeichnete Liechtenstein das Schengen/Dublin-Abkommen. Die Beziehungen im Rahmen des EWR und der EU nehmen aus wirtschafts- und integrationspolitischer Sicht eine besondere Stellung in der liechtensteinischen Aussenpolitik ein (siehe Liechtenstein und die Europäische Union). 2009 erkannte als letztes EU-Mitglied die Tschechische Republik Liechtenstein als souveränen Staat an. Dem vorhergegangen war ein jahrzehntelanger diplomatischer Streit zwischen den beiden Ländern, nachdem durch die Beneš-Dekrete sämtliche Besitztümer der Fürstenfamilie in der Tschechoslowakei enteignet und verstaatlicht worden waren. Der Fall war beim Internationalen Gerichtshof gelandet, Liechtenstein hatte ihn jedoch verloren. Im Laufe des Jahres 2009 normalisierten die Länder ihre Beziehungen, Liechtenstein sprach darüber hinaus auch erstmals der Slowakei diplomatische Anerkennung aus. Die konsularische Vertretung Liechtensteins wird seit dem Zollvertrag mit der Schweiz 1923 zumeist von der Schweiz wahrgenommen. Liechtenstein hält direkte diplomatische Vertretungen in Wien, Bern, Berlin, Brüssel, Strassburg und Washington, D.C. sowie Ständige Missionen in New York und Genf bei den Vereinten Nationen. Derzeit sind diplomatische Vertretungen von 78 Ländern in Liechtenstein akkreditiert, residieren jedoch meist in Bern. Die Botschaft in Brüssel koordiniert die Kontakte zur Europäischen Union, zu Belgien und auch zum Heiligen Stuhl. Die Beziehungen zur Schweiz sind wegen der engen Zusammenarbeit in vielen Bereichen besonders umfangreich; die Schweiz erfüllt an einigen Stellen Aufgaben, die für das Fürstentum aufgrund seiner Grösse schwer selbst zu bewältigen wären. Seit dem Jahr 2000 hat die Schweiz einen Botschafter gegenüber Liechtenstein ernannt, der allerdings in Bern residiert. Die diplomatischen Beziehungen zu Deutschland wurden lange Zeit über einen nichtresidierenden Botschafter unterhalten; also über eine Kontaktperson, die nicht dauerhaft in Deutschland ansässig war. Seit 2002 hat Liechtenstein jedoch einen festen Botschafter in Berlin, während die deutsche Botschaft in der Schweiz auch für das Fürstentum zuständig ist. Das Aussenministerium Liechtensteins sieht die Kontakte besonders auf wirtschaftlicher Ebene als überaus fruchtbar und wichtig für die Entwicklung des Landes an. Konflikte über den Umgang mit Bank- und Steuerdaten haben die Beziehungen jedoch immer wieder belastet. Am 2. September 2009 haben Liechtenstein und Deutschland ein Abkommen über die Zusammenarbeit und den Informationsaustausch in Steuersachen unterzeichnet. Der Abkommenstext folgte dem OECD-Musterabkommen und sieht ab dem Steuerjahr 2010 einen Informationsaustausch in Steuerfragen auf Anfrage vor. Darüber hinaus begreift Liechtenstein die Bundesrepublik als wichtigen Partner bei der Wahrnehmung seiner Interessen bei der europäischen Integration. Auf kultureller Ebene spielt besonders die Projektförderung eine Rolle, so finanzierte etwa die Hilti-Stiftung die Ausstellung «Ägyptens versunkene Schätze» in Berlin, und der Staat spendete 20'000 Euro nach dem Brand der "Herzogin Anna Amalia Bibliothek" in Weimar. Die Mitgliedschaft im Europäischen Wirtschaftsraum sah im Prinzip die volle Personenfreizügigkeit vor. Weil allerdings absehbar war, dass zahlreiche EU-Bürger im steuergünstigen Fürstentum ihren Wohnsitz nehmen würden, was weder in deren Heimatländern (die Steuerausfälle befürchteten) noch in Liechtenstein (wo steigende Immobilienpreise befürchtet wurden) erwünscht war, wurde eine Sondervereinbarung getroffen, wonach Liechtenstein pro Jahr 64 neue Aufenthaltsbewilligungen vergibt, davon 56 an Berufstätige und acht an Nichtberufstätige. Von den erstgenannten wird die Hälfte nach unklaren Kriterien von der Regierung «nach den Bedürfnissen der Wirtschaft», die andere Hälfte und die Bewilligungen für Nichtberufstätige auf Drängen der EU in einem Losverfahren vergeben. In jedem Fall ist der Nachzug von Familienangehörigen möglich. Am 28. Februar 2008 unterzeichnete das Fürstentum seinen Beitritt zum Schengenraum, der Beitritt erfolgte am 19. Dezember 2011. Landesverteidigung. Am 12. Februar 1868 beschloss Johann Fürst von Liechtenstein, «bei den dermaligen geänderten Verhältnissen im staatlichen Organismus Deutschlands» sei es «im Interesse meines Fürstentums gelegen, von der Unterhaltung eines Militärkontingents abzusehen», und löste die liechtensteinischen Streitkräfte auf. Das Fürstentum besitzt seither keine eigene Armee mehr, jedoch ist in der Verfassung die allgemeine Wehrpflicht nach wie vor verankert. Für die innere Sicherheit und Kriminalitätsbekämpfung ist die Landespolizei zuständig. Einige Gemeinden unterhalten eine eigene Gemeindepolizei. Während des Zweiten Weltkriegs wollte die Schweiz das Territorium des Fürstentums Liechtenstein in ihre Landesverteidigung einbeziehen, da die liechtensteinische Topographie günstige Voraussetzungen für einen Angriff auf die schweizerische Landesgrenze im Rheintal bot. Liechtenstein lehnte dies jedoch ab, da es fürchtete, dies würde seine Beziehungen zum nationalsozialistischen Deutschland übermässig belasten. Die Schweiz drängte auch nach Kriegsende auf eine Lösung des Problems. Schliesslich trat Liechtenstein in mehreren Etappen – jeweils gegen finanzielle und territoriale Entschädigung – militärisch wichtige Punkte an die Schweiz ab, zuletzt 1949 mit dem Ellhorn. Bis heute existiert kein Vertrag, der eine Interventionspflicht oder ein Interventionsrecht der Schweiz für den Fall eines Angriffs auf liechtensteinisches Territorium regeln würde. Verwaltungsgliederung. Liechtenstein gliedert sich in elf Gemeinden, die auf die beiden Wahlkreise Unterland und Oberland verteilt sind. Die Gemeinden weisen trotz ihrer geringen Grösse komplexe Formen in ihrer territorialen Ausdehnung auf. Sieben Gemeinden umfassen neben einem Hauptteil auch eine oder mehrere Exklaven. Die politische Zweiteilung des Landes ist historisch bedingt; das Unterland geht auf die Herrschaft Schellenberg, das Oberland auf die Grafschaft Vaduz zurück. Zum Unterland gehören die Gemeinden Eschen, Gamprin, Mauren, Ruggell und Schellenberg; zum der Fläche nach wesentlich grösseren Oberland zählen die Gemeinden Balzers, Planken, Schaan, Triesen, Triesenberg und Vaduz. Infrastruktur. a> zwischen Vaduz und Sevelen SG Strassenverkehr. Das liechtensteinische Strassennetz umfasst 105 Kilometer befestigte und 25 Kilometer unbefestigte Wald- und Güterwege. Liechtenstein selbst besitzt keine Autobahnen, allerdings führt die Schweizer A13 entlang der linken Rheinseite in unmittelbarer Nähe zur Liechtensteinischen Grenze. Insgesamt sind fünf Ausfahrten auch mit liechtensteinischen Ortschaften verbunden. Die Strassennetze der Schweiz und Liechtensteins sind im Allgemeinen sehr eng verknüpft und so beginnen bzw. enden zum Beispiel die Hauptstrasse 16 und die Hauptstrasse 28 in Liechtenstein. Generell gelten (mit einigen Ausnahmen) dieselben Strassenverkehrsregeln wie in der Schweiz. Die Kontrollschilder (Kfz-Kennzeichen) sind von den Schrifttypen und der Anordnung her im Schweizer Design gehalten. Wie die Schweizer Militärkennzeichen führen die Liechtensteiner Schilder weisse Zeichen auf schwarzem Grund. Busverkehr. Der öffentliche Verkehr ist in Liechtenstein sehr gut ausgebaut und so sind alle elf Gemeinden des Fürstentums problemlos zu erreichen. Das wichtigste öffentliche Verkehrsmittel stellen dabei die gelbgrünen ("«lime»") Busse des Unternehmens Verkehrsbetrieb LIECHTENSTEINmobil (kurz: LIEmobil) dar. 13 Linien führen durch die Liechtensteiner Gemeinden und verbinden auch die Schweizer Gemeinden Sargans und Buchs (SBB-Bahnhöfe) sowie Sevelen und die österreichische Stadt Feldkirch mit Liechtenstein. Ausserdem verkehrt die Buslinie 70 des Verkehrsverbunds Vorarlberg zwischen Schaan, Feldkirch und Klaus im Vorarlberger Vorderland mehrmals täglich zu Zeiten, die an den Schichtbetrieb der grossen Firmen angepasst sind. Der öffentliche Nahverkehr der Liechtenstein Bus, einer Tochter der Schweizer Postauto, befindet sich im dritten Band des offiziellen Schweizer Kursbuches unter dem Feld 88. Der öffentliche Nahverkehr der Liechtenstein Bus befindet sich im Fahrplanbuch des VVV (Verkehrsverbund Vorarlberg). Schienenverkehr. Die einzige Bahnstrecke, die durch Liechtenstein verläuft, ist die mit 15 kV 16,7 Hertz elektrifizierte Bahnstrecke Feldkirch (Österreich) – Buchs (Schweiz), die sich in Eigentum und Betrieb der Österreichischen Bundesbahnen (ÖBB) befindet. Auf der 9,5 Kilometer langen Strecke innerhalb des Landes halten Regionalzüge an den drei Stationen "Forst-Hilti", "Nendeln" und "Schaan-Vaduz". Ausserdem verkehren internationale Züge von Wien/Salzburg nach Zürich über diese Strecke (z. B. der railjet). Mit dem Projekt "S-Bahn FL.A.CH" soll bis Ende 2015 das Angebot des Regionalverkehrs auf der Bahnstrecke Feldkirch–Buchs ausgebaut werden. Ein wichtiges Ziel ist es u. a., Arbeitspendler von Österreich nach Liechtenstein zum Umsteigen auf die Bahn zu bewegen. Vorgesehen ist ein Halbstundentakt zu den Hauptverkehrszeiten. Dies setzt aber wiederum einen Doppelspurausbau im Raum Tisis–Nendeln voraus. Die Realisierung des Projektes ist mit grosser Wahrscheinlichkeit von einer Volksabstimmung in Liechtenstein abhängig. Die Eisenbahnverbindung sind im Österreichischen Eisenbahn-Kursbuch verzeichnet. Die Bahnstrecke befand sich, da sie durch die ÖBB betrieben wird, bis 2011 im Auslandteil des Schweizer Kursbuches auf dem Feld 5320. Die Bahnstrecke war ebenfalls im Kursbuch der ÖBB enthalten, solange dieses existierte. Seilbahnen. In Malbun existieren fünf Luftseilbahnen. Flugverkehr. In Liechtenstein selbst gibt es keinen Verkehrsflughafen, allerdings existiert in Balzers ein privat betriebener Hubschrauberlandeplatz. Wie in Österreich darf in Liechtenstein nur auf offiziellen Landeplätzen gelandet werden und nicht wie in der Schweiz auf jedem vom Eigentümer bewilligten Privatgrund. Der nächstgelegene Flughafen, 50 km nördlich von Vaduz, ist der Flughafen St. Gallen-Altenrhein in Thal SG in der Schweiz. Der Flughafen Friedrichshafen ist rund 90 Kilometer und der Flughafen Zürich rund 115 Kilometer von Vaduz entfernt. Der Airbus 340-300 der Swiss mit dem Kennzeichen "HB-IMF" wurde 2008 auf den Namen "Fürstentum Liechtenstein" getauft. Dazu der damalige Swiss CEO Christoph Franz: "«Viele Liechtensteiner benützen den Flughafen Zürich für ihre Reisen und fliegen Swiss. Damit sind wir als nationale Airline der Schweiz auch ein wenig die Fluggesellschaft für das Fürstentum.»" Kommunikation. Das Fürstentum ist zwar postalisch mit der Schweiz vernetzt, hat aber eine selbstständige Post (Liechtensteinische Post AG) und gibt eigene Briefmarken heraus und besitzt auch eine eigene Telefonvorwahl (+423). In Liechtenstein gibt es über 19'600 Telefon-Festnetzanschlüsse, etwa 35'000 Mobiltelefone und etwa 23'000 Internetnutzer. Wirtschaft. Die Wirtschaft in Liechtenstein ist vorwiegend auf den sekundären (Industrie) und den tertiären (Dienstleistung) Wirtschaftssektor konzentriert. Der Landwirtschaftssektor hat mit einem Anteil von zwei Prozent am Bruttoinlandsprodukt (BIP) einen vergleichsweise kleinen Anteil an der Gesamtwirtschaftsleistung. Das Bruttoinlandsprodukt Liechtensteins betrug dabei im Jahr 2011 ca. 5,14 Milliarden Schweizer Franken. Aufgrund des grossen Anteils an Zupendlern an der Gesamtzahl der in Liechtenstein Erwerbstätigen lassen sich aber kaum Rückschlüsse vom Bruttoinlandsprodukt auf die Einkommenssituation der Bevölkerung ziehen. So waren im Jahr 2009 von den 32'877 in Liechtenstein arbeitstätigen Personen über 50 Prozent nicht in Liechtenstein wohnhaft, sondern pendelten vom Ausland zu. Die meisten Arbeitskräfte stammen dabei aus der Schweiz (Jahr 2009: 8'631 Personen) und Österreich (7'470 Personen). Weitere 603 Arbeitnehmer pendelten aus Deutschland und anderen Staaten zu. Im Winter gilt Liechtenstein, vor allem das Bergdorf Malbun (Teilort von Triesenberg), als Wintersportziel. Land- und Forstwirtschaft. Zum 31. Dezember 2013 waren in Liechtenstein im Sektor "Land- und Forstwirtschaft, Fischerei" 275 Erwerbstätige beschäftigt, was einem Anteil von 0,8 Prozent aller Erwerbstätigen entspricht. Im Jahr 2013 gab es in Liechtenstein 109 anerkannte Landwirtschaftsbetriebe die 3'567 Hektar landwirtschaftliche Nutzfläche bewirtschafteten, das entspricht einer durchschnittlichen Betriebsgrösse von 32,7 Hektar. 24 der Betriebe waren in der Bergzone tätig. 30,3 Prozent der landwirtschaftlichen Betriebe mit einer Gesamtfläche von 1'088 Hektar produzierten nach den Richtlinien des biologischen Landbaus. 60 Prozent der Landwirtschaftsflächen wurden als Dauergrünland bewirtschaftet, die übrigen Flächen als Ackerland und Sonderkulturen. Der grösste Teil der Landwirtschaftsbetriebe hat sich auf die Tierhaltung spezialisiert und so wurden in Liechtenstein im Jahr 2013 6'010 Stück Rindvieh, davon 2'363 Milchkühe, 300 Pferde, 3'522 Schafe, 269 Ziegen, 1'655 Schweine und ca. 12'811 Nutzhühner gehalten. Liechtenstein weist eine Waldfläche von 6'865 Hektar auf mit einem durchschnittlichen Holzvorrat von 409 Festmeter je Hektar. In Liechtensteins Wäldern werden jährlich rund 25'000 Festmeter Holz genutzt. Industrie und Gewerbe. 41,3 Prozent der in Liechtenstein im Jahr 2009 beschäftigten Personen waren in der Industrie und im Gewerbe tätig. Im Vergleich zu den anderen mitteleuropäischen Staaten (besonders der Schweiz, Deutschland und Österreich jeweils ca. 25 Prozent) liegt dieser Anteil sehr hoch. Die liechtensteinische Industrie ist dabei aufgrund des geringen Absatzmarktes im Inland stark exportorientiert und so wurden beispielsweise im Jahr 2008 Industrieprodukte im Wert von ca. 2'975 Millionen Schweizer Franken in Länder des Europäischen Wirtschaftsraumes ausgeführt. Viele Unternehmen sind im Maschinenbau und im Nahrungsmittelbereich tätig und besitzen häufig weitere Standorte im Ausland. Wichtige Industrieunternehmen, die aus Liechtenstein stammen, sind Neutrik, die Hilti AG, die ThyssenKrupp Presta AG, die Hoval AG, die Hilcona AG, die Ivoclar Vivadent AG oder die OC Oerlikon Balzers. Dienstleistungen. Von den im Jahr 2009 in Liechtenstein erwerbstätigen Personen bestritten 57,9 Prozent ihren Lebensunterhalt mit der Erbringung von Dienstleistungen. Ein grosser Teil der Erwerbstätigen sind dabei in der öffentlichen Verwaltung, im Unterrichtswesen und Gesundheitswesen tätig. Zudem sind rund 17 Prozent der liechtensteinischen Arbeitsplätze dem Finanzsektor zuzuordnen, der rund 27 Prozent zum liechtensteinischen Bruttoinlandsprodukt beiträgt. Immer wieder geriet der Liechtensteiner Finanzsektor wegen grosser Steuer-Skandale in die Schlagzeilen, die durch das sogenannte «Stiftungsrecht» des Landes begünstigt wurden, das Anlegern vollständige Anonymität ermöglicht. So in Deutschland etwa die CDU-Spendenaffäre («Stiftung Norfolk»), die Steuerfahnder-Affäre, und nicht zuletzt die Steueraffäre mit Deutschland, in deren Folge allein in Deutschland 1100 Ermittlungsverfahren eingeleitet wurden und etwa 807 Millionen Euro Steuern nachgezahlt werden mussten. Staatshaushalt. Der Staatshaushalt umfasste 2008 Ausgaben von umgerechnet 820 Millionen US-Dollar, dem standen Einnahmen von umgerechnet 943 Millionen US-Dollar gegenüber. Daraus ergibt sich ein Haushaltsüberschuss in Höhe von 2,6 Prozent des Bruttoinlandsprodukts. Liechtenstein hat als eines von wenigen Ländern keine Staatsverschuldung. Kunst und Kultur. Das enge Nebeneinander von dörflichen Traditionen und einem intensiven internationalen Austausch bildet die Grundlage für das Liechtensteiner Kulturleben. Theater, Musik, Literatur. Träger von Theater und Musik sind in erster Linie verschiedene Vereine. Die bedeutendsten Vertreter davon sind die "Operettenbühne Balzers", die "Operettenbühne Vaduz", die "Liechtenstein Musical Company" und der "Opern Verein Vaduz". Alle vier genannten Vereine führen in der Regel jeweils im Zweijahresrhythmus eine neue Produktion auf. a> ist das staatliche Museum für internationale moderne und zeitgenössische Kunst in Vaduz. Das "Theater am Kirchplatz" (TaK) in Schaan ist das bedeutendste Theater in Liechtenstein. Seit Oktober 2003 gibt es in Vaduz ausserdem das Theater "Schlösslekeller," wo das «Liechtenstein Gabarett» (LiGa) jährlich ein neues Programm aufführt. Der 1978 gegründete P.E.N.-Club Liechtenstein versammelt internationale Persönlichkeiten im wohl bekanntesten internationalen Autorenverband der Welt. Der Club vergibt Preise, Stipendien und veranstaltet Lesungen. Museen. Das Kunstmuseum Liechtenstein ist das staatliche Museum für moderne und zeitgenössische Kunst in Vaduz. Das Gebäude wurde im Jahr 2000 vollendet und von den Architekten Meinrad Morger, Heinrich Degelo und Christian Kerez entworfen. Die Sammlung des Museums umfasst dabei internationale moderne und zeitgenössische Kunst aus dem Zeitraum vom 19. Jahrhundert bis in die Gegenwart. Ausserdem werden regelmässig Sonderausstellungen mit Werken aus den Sammlungen des Fürsten von Liechtenstein gezeigt. Grosse Bedeutung besitzt ausserdem das Liechtensteinische Landesmuseum, das im Jahre 2003 nach umfassender Renovation neu eröffnet wurde und die Geschichte sowie die Landes- und Naturkunde Liechtensteins präsentiert. Weitere Museen sind das «Skimuseum» und das «Postmuseum», sowie verschiedene Ortsmuseen, darunter beispielsweise der Gasometer, ein Kulturzentrum der Gemeinde Triesen. Feiertage. Der 15. August ist der Staatsfeiertag des Fürstentums Liechtenstein. Zum einen wird in Liechtenstein an diesem Tag das Fest Mariä Himmelfahrt gefeiert, zum anderen hatte der ehemalige Fürst Franz Josef II. (1906–1989) am 16. August seinen Geburtstag. Die beiden Feste wurden 1940 erstmals zusammengelegt und werden seitdem als Staatsfeiertag angegangen. Der Tag wurde auch nach dem Tod des Fürsten beibehalten und von offizieller Seite seither als Staatsfeiertag bezeichnet, wobei der Volksmund jedoch noch heute vom sogenannten Fürstenfest spricht. Bildung. Liechtenstein besitzt eine Schulpflicht von neun Jahren. Gegliedert wird das Schulobligatorium in die Bereiche Primarschule (fünf Jahre) und Sekundarstufe (mindestens vier Jahre), wobei zuvor eine Vorschule (Kindergarten) auf freiwilliger Basis besucht werden kann. Die Sekundarstufe selbst ist in drei verschiedene Niveaus geteilt, in welche die Schüler je nach Leistungsvermögen eingeteilt sind. Die Oberschule und Realschule werden nach vier Jahren abgeschlossen, während beim Gymnasium nach sieben Jahren die Maturität erlangt werden kann. Liechtenstein besitzt mit der Universität Liechtenstein eine eigene staatliche Universität. Daneben gibt es weitere private Hochschulen. Dazu zählen das Liechtenstein-Institut, die Internationale Akademie für Philosophie und die Private Universität im Fürstentum Liechtenstein. Fussball. Die Liechtensteiner Fussballvereine nehmen am Spielbetrieb des Schweizerischen Fussballverbandes teil. Den Landespokal jedoch führen die Liechtensteiner unter eigener Regie, so dass jedes Jahr eine liechtensteinische Mannschaft an der Qualifikation zur Europa League teilnehmen kann. Diese Ehre erhält meistens der Pokal-Seriensieger FC Vaduz, der seit 2014 in der höchsten Schweizer Liga, der Super League, spielt. Der bisher grösste Erfolg im liechtensteinischen Vereinsfussball war 1996, als die Amateure des FC Vaduz, damals noch in der 1. Liga des SFV (dritthöchste Liga), den lettischen Gegner FC Universitāte Rīga (1:1, 4:2 Elfmeterschiessen) im Europapokal der Pokalsieger bezwangen. Sie scheiterten jedoch anschliessend am prominenten Gegner Paris Saint-Germain (0:4, 0:3). Die Liechtensteinische Fussballnationalmannschaft nimmt an WM- und EM-Qualifikationen teil. Der grösste Erfolg war ein 4:0 gegen Luxemburg in der WM-Qualifikation 2006; erst vier Tage zuvor hatte Liechtenstein ein 2:2 gegen den Vize-Europameister Portugal erreicht. Zudem feierten die liechtensteinischen Fussballspieler am 17. Oktober 2007 einen 3:0-Heimsieg gegen Island und am 3. Juni 2011 im Rahmen der Qualifikation für die Europameisterschaft in Polen/Ukraine einen 2:0-Heimsieg gegen Litauen. Bekanntester Spieler der Nationalmannschaft ist Mario Frick (seit 2011 FC Balzers, vorher Grasshopper Club Zürich, FC St. Gallen und AC Siena), der als erster Liechtensteiner in der italienischen Serie A debütierte (26. August 2001), und in dieser Saison sieben Tore für Hellas Verona erzielte. FC Vaduz und Nationalmannschaft bestreiten ihre Heimspiele im Rheinpark Stadion in Vaduz, dem 1998 eröffneten Nationalstadion des Fürstentums. Wintersport. Im Winter wird in der Gebirgsregion um Malbun Wintersport betrieben. Im Ski alpin hat Liechtenstein einige Erfolge vorzuweisen. Der Höhepunkt war – abgesehen von diversen Weltcup-Siegen –, als die Liechtensteinerin Hanni Wenzel zwei Goldmedaillen und eine silberne bei den Olympischen Spielen in Lake Placid im Winter 1980 gewann. Ausserdem hat sie zusammen mit ihrem Bruder Andreas Wenzel den Gesamtweltcup im Jahre 1980 gewonnen – dies als einziges Geschwisterpaar in der Geschichte des alpinen Skiweltcups. Dazu kommt noch eine bronzene Medaille von den Olympischen Winterspielen in Innsbruck. Andreas Wenzel gewann 1980 in Lake Placid eine silberne und 1984 in Sarajevo eine bronzene Olympiamedaille. Zu Beginn des 21. Jahrhunderts erzielte Marco Büchel verschiedene Erfolge. Gegenwärtig ist Tina Weirather (Tochter von Hanni Wenzel und Harti Weirather) die bekannteste und erfolgreichste Skifahrerin des Landes. Liechtenstein ist in der inoffiziellen Statistik «Olympische Medaillen pro Einwohner» die erfolgreichste Nation überhaupt. Erfolgreiche Langläufer waren Markus Hasler und Stephan Kunz. Medien. Liechtenstein verfügt über einen landesweiten Radio- und Fernsehkanal. Der Landeskanal wird vom Presse- und Informationsamt betreut, Radio Liechtenstein vom Liechtensteinischen Rundfunk. Zudem verfügt jede Gemeinde über einen eigenen Gemeindekanal, der lokale Informationen ausstrahlt. Seit dem Jahr 2008 gibt es auch einen privaten Fernsehsender mit dem Namen 1 FL TV. Die grösste Tageszeitung ist mit einer Auflage von etwa 18'000 Exemplaren das Liechtensteiner Vaterland, das politisch der Vaterländischen Union (VU) nahesteht. Die älteste Tageszeitung ist mit der ersten Ausgabe im Jahr 1878 das Liechtensteiner Volksblatt, seinerseits inoffizielles Parteiorgan der Fortschrittlichen Bürgerpartei (FBP). Liederbach am Taunus. Liederbach am Taunus ist eine Gemeinde im Main-Taunus-Kreis in Hessen. Nachbargemeinden. Ehemaliges Rathaus in Alt-Niederhofheim (erbaut 1691) Liederbach grenzt im Norden an die Stadt Bad Soden am Taunus, im Osten an die Gemeinde Sulzbach (Taunus), im Süden an die kreisfreie Stadt Frankfurt am Main sowie im Westen an die Stadt Kelkheim (Taunus). Gliederung. Liederbach besteht aus den beiden Ortsteilen Niederhofheim und Oberliederbach. Niederhofheim liegt im Westen der Gemeinde. Oberliederbach nimmt den östlichen Teil ein. Grüne Mitte. Das Landschaftsbild der Gemeinde ist von der so genannten „Grünen Mitte“ geprägt, welche größtenteils aus bewirtschafteten Ackerflächen und dem großzügigen Bachlauf des Liederbachs besteht. Die Grüne Mitte entspricht etwa einem Sechstel der Gesamtfläche Liederbachs, und die Gemeinde ist um deren Bestand sehr bemüht. Geschichte. Der Liederbach unterquert die Hauptstraße in Höhe der Gemarkung „Braubach“ Vermutlich um 550 wurden die Dörfer Niederhofheim, Oberliederbach und Unterliederbach gegründet. Die erste urkundliche Erwähnung erfolgte 791 als "Leoderbach", das sich im Besitz des Klosters Lorsch befand. 1100 geht Leoderbach als Lehen in den Besitz der Herren von Eppstein über. Diese verkauften das Dorf 1492 an die Landgrafschaft Hessen. Im 17. Jahrhundert hält die Reformation Einzug in Liederbach. Die Gemeinden Oberliederbach, Unterliederbach und Niederhofheim kamen 1803 zu Nassau-Usingen und schließlich sechs Jahre später zum geeinigten Herzogtum Nassau. Nach dem Deutsch-Deutschen Krieg wurden die drei Orte 1866 der preußischen Provinz Hessen-Nassau zugeordnet. 1903 wurde mit der Station Niederhofheim-Oberliederbach an der Eisenbahnlinie Höchst-Königstein ein eigener Bahnhof errichtet. 1917 wurde Unterliederbach in die Stadt Höchst am Main eingemeindet, welche 1928 ein Stadtteil von Frankfurt am Main wurde. Oberliederbach und Niederhofheim wurden am 1. April 1928 in den neu geschaffenen Main-Taunus-Kreis integriert. Im Rahmen der hessischen Kommunalreform schlossen sich beide Gemeinden am 31. Dezember 1971 zur neuen "Gemeinde Liederbach" zusammen. Die nördlich gelegene Heidesiedlung wurde hauptsächlich von den Farbwerken Höchst errichtet, um ihren Mitarbeitern eine ortsnahe Unterkunft zu bieten. Wappen. Beschreibung: In Gold und Blau gespalten mit je einem größeren Ort am Spalt in den verwechselten Farben; darin je eine zugewendete Wachtel, wiederum in verwechselten Farben. Bürgermeister. Von 1979 bis 2008 war Gerhard Lehner der Bürgermeister von Liederbach und war damit der dienstälteste und am längsten amtierende Bürgermeister des Kreises. Im Januar 2009 übernahm Eva Söllner (CDU) als erste Bürgermeisterin das Amt. Partnerstädte. In der Alten Schule finden kulturelle Events statt Liederbacher Heidesiedlung (vom Schmiehbachtal aus gesehen) Bauwerke. "Siehe: Liste der Kulturdenkmäler in Liederbach am Taunus" Kulturelle Aktivitäten. Der Verein "Die Liederbacher Kerbeborsch" richtet jährlich zwischen September und Oktober die Kerb aus. Die "Kerbeborsch" haben dabei die Aufgabe ihren "Hannes", eine lebensgroße angekleidete Strohpuppe, die auf dem Kirchweihbaum angehängt wird, zu bewachen. Traditionell versuchen andere Dörfer dieses Symbol zu entwenden. Verbunden mit der Kerb sind auch immer Tanz und Rummelplatz. Ebenfalls beheimatet ist der Sportverein SG Oberliederbach, deren Fußballer in der Landesliga Mitte spielen. Anfang des Jahres 2006 wurde die Blues und Funk Band "The Mule" gegründet, die ihren Hauptsitz und Proberaum seitdem in Niederhofheim hat. Umgebung. Das in unmittelbarer Nähe gelegene Schmiehbachtal ist ein beliebtes Erholungs- und Wandergebiet der Liederbacher Bevölkerung. Man bemüht sich von Seiten der Gemeindeverwaltung naturnahe Streuobstwiesen neben landwirtschaftlichen Nutzflächen zu erhalten. Jugendtreff. Der 2005 gegründete Jugendtreff von Liederbach bietet dreimal wöchentlich einen Treffpunkt für Jugendliche. Des Weiteren gibt es einen bestimmten Tag für Mädchen. Regelmäßig finden besondere Ausflüge und Aktionen wie Tanz- und Breakdance-Kurse sowie Film- und Spieleabende statt. Vereine. In Liederbach gibt es zahlreiche Vereine wie die SGO (Sportgemeinschaft Oberliederbach), in der hauptsächlich Fußball, Judo und Damengymnastik praktiziert wird. Ebenso gibt es die TSG Niederhofheim, in der die Sportarten Leichtathletik, Tischtennis, Handball, Schützen und Turnen vertreten sind. Neben diesen Sportarten wird auch Volleyball beim VCL (Volleyballclub Liederbach) betrieben. Des Weiteren findet sich die Freiwillige Feuerwehr Liederbach und das Deutsche Rote Kreuz Liederbach. Einzelnachweise. Liederbach Am Taunus Leuchtkäfer. Weibchen des Großen Leuchtkäfers ("Lampyris noctiluca") Leuchtkäfer im Wald bei Nürnberg, Aufnahmedauer 30 Sekunden Die Leuchtkäfer oder auch Glühwürmchen (Lampyridae) sind eine Familie der Käfer mit weltweit etwa 2.000 Arten, die innerhalb der Überfamilie Weichkäferartige (Elateroidea) geführt werden. Viele, aber nicht alle Arten dieser Familie sind in der Lage, Lichtsignale zur Kommunikation auszusenden. Manchmal wird der Name „Leuchtkäfer“ als Bezeichnung aller Käfer verwendet, die Leuchtorgane besitzen. Außer den Leuchtkäfern im engeren Sinne gehören dazu die Federleuchtkäfer (Phengodidae) und einzelne Arten anderer Familien (Laufkäfer, Schnellkäfer, Prachtkäfer). Verhalten. In den meisten Fällen werden die Leuchtsignale ausgesendet, damit männliche und weibliche Tiere zur Paarung zueinanderfinden. Die Signale selbst sind ganz unterschiedlich. Bei manchen Arten besitzen nur die Weibchen Leuchtorgane, bei anderen beide Geschlechter. Manche Arten blinken, andere senden Dauerlicht aus. Die Signale sind arttypisch und unterscheiden sich in Länge und Rhythmus. Bei der nordamerikanischen "Photinus pyralis" haben auch die Männchen Leuchtorgane, wobei die etwa zweisekündige Verzögerung der Antwort des Weibchens für die Erkennung entscheidend ist. Bei einigen Arten – z. B. "Pteroptyx gelasina" und "Pteroptyx similis" – synchronisieren alle Käfer der Umgebung ihre Blinksignale, so dass ganze Busch- oder Baumreihen im gleichen Takt blinken. Weibchen aus der Gattung "Photuris" können die Blinksignale von "Photinus"-Weibchen nachahmen (Mimikry). Damit locken sie "Photinus"-Männchen an, um sie zu verspeisen. Einige "Photuris"-Arten haben sogar ein ganzes Repertoire von Signalen verschiedener "Photinus"-Arten, je nachdem, welche Art gerade unterwegs ist. Alle Leuchtkäferarten strahlen ihre Signale nur bei Nacht aus. Die Signale sind nicht hell genug, um auch bei Tag Partner anlocken zu können. Die Leuchtperiode der Leuchtkäfer in Mitteleuropa liegt in der Regel zwischen Juni und Juli und hängt von der Witterung und der Art des Leuchtkäfers ab. Bei vielen Leuchtkäferarten sind die Weibchen flugunfähig. Sie sind dann im Allgemeinen größer als das Männchen und können so mehr Eier produzieren. Leuchtmechanismus. Die Erzeugung von (kaltem) Licht durch Lebewesen wird Biolumineszenz genannt. Bei Leuchtkäfern reagiert dabei Luciferin unter Anwesenheit des Katalysator-Enzyms Luciferase mit ATP und Sauerstoff (Oxidation). Die dabei freigesetzte Energie wird fast nur in Form von Licht und nur zu einem geringen Teil als Wärme abgegeben, so dass sich ein Wirkungsgrad von bis zu 95 % ergibt. Bisher hat keine künstlich hergestellte Lichtquelle einen so hohen Wirkungsgrad erreicht. Am Unterteil des Hinterleibs befinden sich weiße Bereiche, an denen der harte Käferpanzer für Licht durchlässig ist. Im Inneren liegt eine weiße Schicht, die das Licht reflektiert. Dadurch sind die weißen Bereiche auch am Tag zu sehen. Der Leuchtmechanismus ist auch in der Forschung von großer Bedeutung. In Anbetracht der geringen Größe der Leuchtorgane ist die Menge des nach außen gelangenden Lichts verhältnismäßig hoch. Dies ist auf die äußere Beschaffenheit der Leuchtorgane zurückzuführen. Forschern gelang es in einer länderübergreifenden Studie, die Lichtausbeute von herkömmlichen Galliumnitrid-Leuchtdioden um bis zu 55 % zu steigern, indem sie die Leuchtdioden mit einer ähnlich beschaffenen Außenschicht bestückten. Vorkommen. Leuchtkäfer sind auf allen Kontinenten mit Ausnahme der Antarktis zu finden. Die am stärksten leuchtende Art, "Photinus pyralis", ist in Mittel- und Südamerika beheimatet. Beim Kleinen und Großen Leuchtkäfer sind nur die weiblichen Vertreter flugunfähig, beim Kurzflügel-Leuchtkäfer auch die Männchen. Da männliche Große Leuchtkäfer keine funktionsfähigen Leuchtorgane besitzen, sind fliegende leuchtende Exemplare in Mitteleuropa immer männliche Kleine Leuchtkäfer. Symbolik. Leuchtkäfer werden vereinzelt als die ewig lebenden Seelen von Verstorbenen angesehen. In China wurden Leuchtkäfer als charakteristisch für verarmte Studenten betrachtet, da man diesen nachsagte, beim nächtlichen Studieren als einzige Lichtquelle über Glühwürmchen zu verfügen. Ludwigshafen am Rhein. Rhein Galerie Nachtluftbild (Mai 2011) Ludwigshafen am Rhein ist die größte Stadt der Pfalz, nach Mainz die zweitgrößte Stadt in Rheinland-Pfalz und nach Mannheim die zweitgrößte Stadt der Metropolregion Rhein-Neckar. Am linken Rheinufer gegenüber der baden-württembergischen Schwesterstadt Mannheim gelegen, ging Ludwigshafen aus der ehemaligen Mannheimer Rheinschanze hervor. 1853 wurde es amtlich zu einer eigenen Gemeinde. Die Stadt ist vor allem als Sitz der BASF und als ein vorgeblicher Schauplatz der Krimireihe Tatort (Odenthal und Kopper) bekannt. Ludwigshafen ist eine kreisfreie Stadt und gleichzeitig Verwaltungssitz des die Stadt umgebenden Rhein-Pfalz-Kreises (bis 2003 Landkreis Ludwigshafen). Sie ist eines der fünf Oberzentren des Landes Rheinland-Pfalz. Weitere nähergelegene Großstädte sind im Uhrzeigersinn Mainz (etwa 60 km nördlich), Darmstadt (etwa 45 km nordöstlich), Heidelberg (etwa 25 km südöstlich) und Karlsruhe (etwa 50 km südlich). Die Einwohnerzahl der Stadt überschritt 1921 die Grenze von 100.000, wodurch sie in weniger als einem Jahrhundert seit ihrer Gründung zur Großstadt wurde. 2010 belegte Ludwigshafen nach Einwohnerzahl Platz 46 in der Liste der Großstädte in Deutschland; Nachbarplätze belegen z. B. Mülheim an der Ruhr, Herne, Osnabrück, Oldenburg und Leverkusen. Geographische Lage. Ludwigshafen liegt in den Auen am linken Rheinufer des Oberrheingrabens, gegenüber der Mündung des Neckars in den Rhein. Die Stadt liegt im Kern der Kurpfalz und stellt zugleich eine ihrer größten Städte dar. Klima. Ludwigshafen hat ein sehr mildes und trockenes Klima. Die Jahresdurchschnittstemperatur beträgt 11,2 °C. Im Sommer wird es durch die Nähe zum Rhein oft drückend schwül. Außerdem suchen in dieser Jahreszeit stärkere Unwetter die Stadt heim, die vom Südwesten bis Westen herankommen. Die bisherige Höchsttemperatur wurde während der Hitzewelle 2003 im August erreicht und betrug 40,1 °C. Die höchste mittlere Monatstemperatur wurde im Juli 2006 mit 25,18 °C gemessen (langjähriger Durchschnitt bei zirka 20 °C). Am 11. August 2006 wurde im Rhein-Pfalz-Kreis nahe Maxdorf ein Tornado bzw. Funnel beobachtet. Am 19. Juli 2015 wurde bei Rheingönheim erneut ein Funnel entdeckt. Nachbargemeinden. Mannheim (Stadtkreis in Baden-Württemberg), Altrip, Neuhofen, Limburgerhof, Mutterstadt sowie Fußgönheim und Maxdorf (Verbandsgemeinde Maxdorf) (alle zum Rhein-Pfalz-Kreis gehörig) und Frankenthal (Pfalz) (kreisfreie Stadt). Stadtgliederung. Das Stadtgebiet von Ludwigshafen ist gemäß § 2 der Hauptsatzung der Stadt Ludwigshafen in zehn Ortsbezirke gegliedert. In jedem Ortsbezirk gibt es einen aus 7 bis 15 Mitgliedern bestehenden Ortsbeirat und einen Ortsvorsteher. Sie werden für fünf Jahre gewählt. Die Ortsbeiräte sind zu wichtigen, den Ortsbezirk betreffenden Angelegenheiten zu hören. Die endgültige Entscheidung über eine Maßnahme obliegt dann jedoch dem Ludwigshafener Stadtrat. Die Ortsbezirke sind zum Teil in weitere "Stadtteile" beziehungsweise "statistische Bezirke" untergliedert. Diese Einteilung dient lediglich statistischen Zwecken. Stadtteile. Die Stadtteile sind seit 1974: Mitte, Süd, Nord/Hemshof, West, Friesenheim, Oppau, Edigheim und Pfingstweide, Gartenstadt, Mundenheim, Oggersheim, Rheingönheim, Maudach und Ruchheim Geschichte. Der Raum Ludwigshafen ist bereits seit sehr früher Zeit besiedelt. Nach Ansicht einiger Historiker existierte im Bereich des Ortsteils Rheingönheim das Römerkastell Rufiniana. Durch die Gemarkung der Ortsteile Maudach und Oggersheim führte die Römische Rheintalstraße von Speyer nach Worms. 1607 gründete Kurfürst Friedrich IV. von der Pfalz am Westufer des Rheins die Mannheimer Rheinschanze als Brückenkopf der Festung Mannheim. Sie wurde nach der Neugründung der Stadt Mannheim 1720 weiter ausgebaut und zwischen 1799 und 1804 – während der Franzosenzeit – von französischen Truppen geschleift. 1811 entstand an dieser Stelle ein privater Schiffslandeplatz am Rhein. Nach dem Wiener Kongress kam die links des Rheins gelegene Pfalz 1816 zu Bayern, die rechts des Rheins gelegene Pfalz mit der ehemaligen Hauptstadt Mannheim blieb bei Baden, zu dem sie 1803 gekommen war. Das Gebiet der späteren Stadt Ludwigshafen gehörte zunächst zum Kanton Mutterstadt im Rheinkreis. 1818 wurde dieser Kanton Teil des Landkommissariats Speyer, des Vorläufers des Landkreises Speyer. Ab 1820 entstand auf dem Gelände eine private Handelsniederlassung mit künstlichem Hafenbecken, die am 14. März 1843, auf Initiative des pfälzischen Regierungspräsidenten Fürst Eugen von Wrede, vom bayerischen Staat erworben wurde. Dieser benannte sie zu Ehren von König Ludwig I. von Bayern in "Ludwigshafen" um und unterstützte die rasche Vergrößerung als industrieller Gegenpol zur badischen Stadt Mannheim. Neun Jahre später wurde die aufstrebende Siedlung zu einer selbständigen Gemeinde innerhalb des Landkommissariats Speyer erklärt, die mit Wirkung vom 14. April 1853 formell errichtet wurde. Ihre Gemarkungsfläche betrug 366 ha, die sie wie folgt erhielt: 240 ha von der Gemeinde Friesenheim und 126 ha von der Gemeinde Mundenheim. Beide Orte wurden später eingemeindet. Am 8. November 1859 wurde die Gemeinde Ludwigshafen zur Stadt erhoben. 1860 übernahm sie den bisher in Mutterstadt gelegenen Distriktssitz, sodass nun ein eigener "Distrikt Ludwigshafen" im Landkommissariat Speyer bestand. Am 8. Mai 1865 wurde die Konzession zur Ansiedelung der Firma "Badische Anilin- und Sodafabrik" erteilt. Diese war kurz zuvor gegründet worden, hatte aber vom Mannheimer Gemeinderat kein Gelände zugebilligt bekommen, weshalb die „badische“ Firma in die Pfalz übersiedelte. Der Firmenname wurde bald zu BASF abgekürzt. Aus der BASF wurde später ein weltweit operierender Chemiekonzern, der Gesicht und Geschichte der Stadt bis heute nachhaltig prägt. Inzwischen ist BASF offizieller Firmenname. In der lokalen Umgangssprache wird sie noch häufig „die Anilin“ genannt, und ihre Mitarbeiter „Aniliner“. 1882 erhielt die Stadt zur Unterscheidung von gleichnamigen anderen Orten den Namenszusatz „am Rhein“. 1886 wurde das frühere Landkommissariat Speyer, seit 1862 "Bezirksamt" genannt, geteilt. Damit wurde Ludwigshafen Sitz eines eigenen Bezirksamtes, aus dem 1939 der Landkreis Ludwigshafen am Rhein hervorging. 1891 wurde die nördlich der Stadt gelegene Gemeinde Friesenheim eingegliedert. Es folgten bis 1974 weitere Eingemeindungen. 1920 wurde Ludwigshafen kreisunmittelbar, das heißt, es schied aus dem Bezirksamt Ludwigshafen aus, blieb aber zunächst noch unter der Finanzhoheit des Bezirksamts. Der Bürgermeister erhielt den Titel Oberbürgermeister. 1925 wurde Ludwigshafen Großstadt. Im (1938 eingemeindeten) Oppau kamen am 21. September 1921 bei der Explosion des Stickstoffwerkes der BASF 561 Menschen ums Leben, mehr als 2000 wurden verletzt. Zweiter Weltkrieg. Im Zweiten Weltkrieg wurde Ludwigshafen zusammen mit Mannheim mit seinen kriegswichtigen Industrien einer der am meisten bombardierten Ballungsräume in Süddeutschland. Über 80 Prozent der Bebauung im Innenstadtbereich werden durch die 124 zum Teil verheerenden Luftangriffe völlig zerstört. Während des Zweiten Weltkriegs werden in Ludwigshafen etwa 50.000 ausländische Arbeitskräfte und Kriegsgefangene zur Zwangsarbeit herangezogen. Ohnehin schon harten Arbeits- und Lebensbedingungen ausgesetzt – dies gilt vor allem für die sogenannten Ostarbeiter – hatten die Zwangsarbeiter besonders zu leiden unter den Auswirkungen der Bombardements. Seit 1945. Nach dem Ende des Zweiten Weltkriegs gehörte Ludwigshafen ab Juli 1945 zur Französischen Besatzungszone und war – vor Freiburg im Breisgau und dem stark zerstörten Mainz – deren bevölkerungsreichste Stadt. Aufgrund der unterschiedlichen Politik der Besatzungsmächte im besetzten Deutschland dauerte es in Ludwigshafen – es lag in einer von den Besatzern benachteiligten Region – im Vergleich zu anderen Städten relativ lange, bis der Wiederaufbau voll ins Rollen kam. Die Stadt wurde eilig im einfachen Stil wiederaufgebaut, mit dem Ziel, dem akuten Wohnraummangel auch in der Innenstadt zu begegnen. Daher fehlt es im Stadtbild fast überall an architektonisch hochwertiger Bebauung, an gelungenem und durchdachtem Städtebau – sowie kontextuell an vielen für eine funktionierende Infrastruktur wichtigen Teilen. Bild der Explosionskatastrophe im BASF-Werk Juli 1948 Am Nachmittag des 28. Juli 1948 explodierte in der BASF, begünstigt durch die Sommerhitze, ein Eisenbahnkesselwagen mit 30 Tonnen hochentzündlichem Dimethylether. Die Zahl der Todesopfer betrug 207, fast 4000 Menschen wurden verletzt. Auf dem Werksgelände der BASF und im Umkreis entstanden schwere Gebäudeschäden. Verkehrstechnisch wurden in den 1960er Jahren große Projekte umgesetzt. Neben der Bahnhofsverlegung und der Auflassung der Bahnanlagen zwischen den Stadtteilen Nord und Mitte verwirklichte das Projekt Visitenkarte den Bau von Hochstraßen nach amerikanischem Vorbild. Im Zuge der rheinland-pfälzischen Gebietsreform wurde 1974 die Gemeinde Ruchheim eingegliedert. Damit erreichte das Stadtgebiet seine heutige Ausdehnung. 1997 begann die Stadt mit "AnschLUss 2000" – nach dem "Projekt Visitenkarte" der zweiten großen städtebaulichen Herausforderung. Das Vorhaben umschloss unter anderem die Umgestaltung des Berliner Platzes und dessen Anbindung an den Rhein, den Bau einer zweiten Eisenbahnbrücke und des S-Bahn-Haltepunkts Ludwigshafen-Mitte am Berliner Platz sowie den Bau des Einkaufcenters Walzmühle im Süden der Innenstadt. Das Projekt wurde 2006/07 realisiert. Am 3. Februar 2008 ereignete sich in Ludwigshafen ein schwerer Hausbrand, bei dem neun Aleviten türkischer Abstammung ums Leben kamen. Gerüchte um eine mögliche Brandstiftung sowie um zu langsame Hilfe durch die Feuerwehr erwiesen sich als unbegründet; sie belasteten zeitweise das deutsch-türkische Verhältnis. Am 25. Mai 2009 erhielt die Stadt den von der Bundesregierung verliehenen Titel „Ort der Vielfalt“. Die Innenstadt wurde 2010 durch den Bau eines neuen Stadtquartiers auf dem Gelände des ehemaligen Zollhofhafens (Einkaufszentrum Rhein-Galerie Ludwigshafen, Stadtplatz mit Verlängerung und Ausbau der bestehenden Rheinpromenade, Gastronomie, Veranstaltungshalle im ersten Bauabschnitt) wieder an den Rhein gebracht. Investor des 220-Millionen-Euro-Projektes ist das Hamburger ECE Projektmanagement, welche das Einkaufszentrum auch betreibt. Die Neugestaltung des Zollhofs ist Teil des Stadtumbauprogramms „Heute für Morgen“. Im Juni 2013 wurde Ludwigshafen teilweise von einem Rheinhochwasser heimgesucht, bei dem der Stadtpark auf der Parkinsel, die Rheinpromenade sowie der Stadtplatz an der Rhein-Galerie teilweise oder komplett überflutet wurden. Der Rhein erreichte einen Höchststand von 8,35 m. Der Stadtpark auf der Parkinsel stand bis zu zwei Meter unter Wasser. Eingemeindungen. Bei Gründung der Gemeinde Ludwigshafen 1853 umfasste das Gemeindegebiet lediglich 366 ha. Einwohnerentwicklung. 1888 hatte Ludwigshafen 25.000 Einwohner, bis 1899 verdoppelte sich diese Zahl auf mehr als 50.000. Die Einwohnerzahl der Stadt überschritt 1921 die Grenze von 100.000, wodurch sie zur Großstadt wurde. 1965 erreichte die Bevölkerungszahl mit rund 180.000 ihren historischen Höchststand. Am 31. Dezember 2006 betrug die „Amtliche Einwohnerzahl“ für Ludwigshafen nach Fortschreibung des Statistischen Landesamtes Rheinland-Pfalz 163.560 (nur Hauptwohnsitze und nach Abgleich mit den anderen Landesämtern). Der Ausländeranteil lag bei 21,1 Prozent. Religionen. Das Gebiet der Stadt Ludwigshafen gehörte zur Kurpfalz und war damit ein überwiegend evangelisches Gebiet. Doch zogen schon kurz nach Gründung der Gemeinde auch römisch-katholische Bewohner zu, so dass beide Konfessionen relativ ausgewogen vertreten waren. Die evangelischen Bewohner gehörten anfangs zu den Kirchengemeinden Oggersheim beziehungsweise Frankenthal (Pfalz), bevor sie 1862 ihre erste eigenständige Kirchengemeinde erhielten. 1913 wurde das evangelische Dekanat Ludwigshafen innerhalb der Evangelischen Kirche der Pfalz (Protestantische Landeskirche) gegründet, zu dem alle evangelischen Kirchengemeinden der Stadt gehören, es sei denn, sie sind Glieder einer Freikirche. Vorderhaus der Mennonitengemeinde, äußerlich nicht als Kirche erkennbar Seit 1702 gibt es eine Mennonitengemeinde, zunächst in Friesenheim. Nach dem Zweiten Weltkrieg wurde das bisherige Gemeindehaus im Zuge von Straßenbaumaßnahmen abgerissen und das heutige in der Innenstadt zur Verfügung gestellt. Die Gemeinderäume befinden sich hinter einem Wohngebäude. Die römisch-katholischen Bewohner gehörten anfangs zu den Pfarreien Friesenheim, Mundenheim und Oppau, bevor sie 1857 ihre erste eigenständige Pfarrei erhielten. Um 1913 entstand das katholische Stadtdekanat Ludwigshafen innerhalb der Diözese Speyer, zu der alle katholischen Pfarrgemeinden der Stadt gehören. 1891 gründete Joseph Queva, nach dem wegen seines Einsatzes in Gewerkschaft und Politik ein Platz in Oggersheim benannt wurde, in Ludwigshafen eine freireligiöse Gemeinde. 1926 erhielt die Gemeinde die Körperschaftsrechte. Vom nationalsozialistischen Regime wurde sie am 5. April 1933 verboten. 1946 konnte sie wiedergegründet werden. Seit 1952 hat sie einen Feierraum und ihre Geschäftsstelle im Johannes-Ronge-Haus. Dort hat auch die Freireligiöse Landesgemeinde Pfalz, K.d.ö.R., ihren Sitz. Durch Einwanderer kamen in der Zeit seit dem Zweiten Weltkrieg auch andere Religionen – vor allem der Islam – hinzu. Eine eigenständige jüdische Gemeinde bestand bis 1940. Die jüdische Gemeinde der Rheinpfalz betreibt in Ludwigshafen ein Gemeindehaus. Stadtoberhäupter und Stadtrat. An der Spitze der Gemeinde (beziehungsweise Stadt) Ludwigshafen stand seit Gründung der Kommune 1853 ein ehrenamtlicher, ab 1896 ein hauptamtlicher Bürgermeister, der ab 1920 den Titel Oberbürgermeister erhielt. Der Stadtvorstand setzt sich aus dem Oberbürgermeister und den Dezernenten zusammen. Hier vollzieht sich die interne Willensbildung der Verwaltung. Die Dezernenten werden vom Stadtrat auf die Dauer von acht Jahren gewählt. Der Stadtrat von Ludwigshafen am Rhein besteht aus 60 ehrenamtlichen Ratsmitgliedern, die bei der Kommunalwahl am 25. Mai 2014 in einer personalisierten Verhältniswahl gewählt wurden, und dem hauptamtlichen Oberbürgermeister als Vorsitzenden. Die Fraktionen von CDU und SPD arbeiten seit 2001 im Rat zusammen, haben allerdings keine offizielle Koalition gebildet. Wappen. Das Wappen der Stadt Ludwigshafen zeigt in Rot einen gesenkten goldenen Anker. Die Stadtfarben sind Rot-Gelb-Rot. Der Anker als Symbol der Schifffahrt soll die Stadt am Rheinhafen versinnbildlichen. Das heutige Wappen wurde am 14. September 1937 vom Reichsstatthalter in Bayern genehmigt. Der Anker war auch im ersten Wappen der Stadt von 1853 abgebildet. Mit der Eingemeindung von Nachbarorten veränderte sich auch das Wappen, und zwar 1895 und dann erneut 1900. Die damaligen Wappen zeigten einen vierteiligen Wappenschild mit Anker, Rauten und Spaten beziehungsweise Anker, Rauten, Spaten und Schlüssel. 1937 reduzierte man das Wappenbild wieder auf den Anker allein. Die Stadtfarben, die sich üblicherweise von den Wappenfarben ableiten, wurden erst 1895 offiziell genehmigt. Wirtschaft und Infrastruktur. Ludwigshafen ist die Großstadt in Deutschland, die mit 68,7 Prozent aller Beschäftigten den höchsten Anteil an Einpendlern hat. Die Arbeitslosenquote lag im Oktober 2012 bei 8,6 %. Chemische Industrie. Blick auf die BASF von Mannheim aus In Ludwigshafen befindet sich der Stammsitz der BASF, die hier den größten zusammenhängenden Chemiestandort der Welt betreibt – gegliedert in mehr als 300 Einzelbetriebe. Im Umfeld der BASF und durch Ausgründungen haben sich weitere Chemieunternehmen wie beispielsweise die DyStar GmbH & Co. KG, die Woellner GmbH & Co. KG und die Raschig GmbH angesiedelt. Die Abbott GmbH entstand aus der Knoll AG, der früheren Pharmasparte der BASF. Verkehr. Straßennetz um Ludwigshafen und Mannheim Nachtluftbild vom Verlauf der B 44 an der Rampe zur Kurt-Schumacher-Brücke am Ludwigshafener Rheinufer. Straßenverkehr. Durch das nördliche Stadtgebiet führt die Bundesautobahn 6 Saarbrücken-Nürnberg. Im Westen der Stadt führt die Bundesautobahn 61 Speyer-Koblenz vorbei. Ferner beginnen hier die A 65 (Ersatz für die B 38) in Richtung Neustadt an der Weinstraße und die A 650 in Richtung Bad Dürkheim. Folgende Bundesstraßen führen durch das Stadtgebiet: von Süden nach Norden die B 9, in Richtung Westen die B 37 nach Bad Dürkheim und in Richtung Süden die B 44. Eisenbahn. Der ungewöhnlich gebaute (Kombination aus Keil- und Turmbahnhof) Hauptbahnhof, 1969 als „modernster Bahnhof Europas“ eingeweiht und westlich der Innenstadt gelegen, ist seit Dezember 2003 nicht mehr der meistfrequentierte Bahnhof der Stadt, dies ist seitdem der wesentlich zentraler gelegene S-Bahnhof Ludwigshafen-Mitte. Beide Stationen stehen freilich im Schatten des weniger als einen Kilometer vom Ludwigshafener Rheinufer entfernten überregionalen Fernverkehrsknotens Mannheim Hauptbahnhof, der für die ganze Stadtregion und damit auch für Ludwigshafen den wichtigsten Zugang zum Schienenverkehr darstellt. Stadtteilbahnhöfe gibt es in Oggersheim, Mundenheim und Rheingönheim sowie drei Werksbahnhöfe (BASF-Süd, BASF-Mitte, BASF-Nord) auf dem Gelände der BASF. Seit 14. Dezember 2003 erschließt die S-Bahn RheinNeckar den gesamten Rhein-Neckar-Raum mit Linien, die bis in die Westpfalz, den Odenwald und nach Südhessen führen. ÖPNV. Den öffentlichen Personennahverkehr in Ludwigshafen versorgen mehrere Straßenbahn- und Buslinien der RNV. Alle öffentlichen Verkehrsmittel sind zu einheitlichen Preisen innerhalb des Verkehrsverbunds Rhein-Neckar (VRN) zu benutzen. In den 1970er Jahren plante man den Bau des U-Bahn-Netzes Mannheim-Ludwigshafen, das jedoch aus Kostengründen nie vollendet wurde. Die meisten der bis dahin gebauten U-Bahn-Stationen werden von normalen Straßenbahnen bedient. Die Bahnsteighöhe beträgt 35 cm, geplant waren 80–90 cm hohe Bahnsteige und 80 m lange U-Bahn-Stationen. Unterirdische und Hochbahn-Stationen sind: Hauptbahnhof, Rathaus-Center B-Ebene, Hemshofstraße und Gartenstraße. Die unterirdischen Stationen Rathaus-Center C-Ebene, Danziger Platz und Ostausgang Hauptbahnhof wurden mit der Einstellung der Straßenbahnlinie 12 im Dezember 2008 geschlossen. Zuletzt waren sie nur noch in der werktäglichen Hauptverkehrszeit bedient worden. Wasserstraße. Mit dem Rheinhafen hat die Stadt den größten und leistungsstärksten Hafen in Rheinland-Pfalz. Mit einem Güterumschlag von 7,1 Mio. Tonnen im Jahr 2005 ist er einer der bedeutendsten Binnenhäfen der Bundesrepublik. Luftverkehr. In bzw. um Ludwigshafen ist kein unmittelbar gelegener internationaler Flughafen vorhanden. Der nächstgelegene größere internationale Flughafen ist der Flughafen Frankfurt am Main, welcher 65 Kilometer über Autobahn bzw. Schienenverkehr erreichbar ist. Nahgelegenere kleinere Flugplätze sind unter anderem der City-Airport Mannheim auf der anderen Rheinseite oder auch der südlich von Ludwighafen gelegene Flugplatz Speyer. Veranstaltungen. Für Veranstaltungen der Stadt Ludwigshafen ist die Ludwigshafener Kongress- und Marketinggesellschaft mbH (Lukom) verantwortlich, häufig in Zusammenarbeit mit dem Marketing-Verein Ludwigshafen e. V. Der Marketing-Verein wurde am 15. Juli 1998 als konsequente Weiterführung eines integrierten Stadtmarketing-Prozesses gegründet. Er ist ein Zusammenschluss von Vertretern zahlreicher Institutionen und von interessierten Bürgern der Stadt Ludwigshafen. Mittlerweile hat der Marketing-Verein 133 Mitglieder, davon 54 Einzelpersonen, 79 Firmen und Verbände. Die Zusammensetzung des Vorstandes und der Mitglieder zeigt die breite Akzeptanz und die Unterstützung durch die Institutionen. Vorsitzende des Vereins ist Oberbürgermeisterin Eva Lohse, Michael Cordier ist Geschäftsführer. Medien. Ludwigshafen ist Sitz von Radio RPR, dem ältesten privaten Rundfunksender Südwestdeutschlands, und der Landeszentrale für Medien und Kommunikation Rheinland (LMK) Pfalz. Zudem betrieb hier der Jugendsender BigFM sowie der Offene Kanal ein Studio. Der Südwestfunk und später der Südwestrundfunk betrieb in der Stadt das Studio Ludwigshafen. Das SWR-Studio Ludwigshafen besteht noch, es befindet sich inzwischen jedoch auf der anderen Rheinseite in Mannheim, in einer Studiogemeinschaft mit dem SWR-Studio Mannheim. In Ludwigshafen spielen seit 1989 die Folgen der ARD-Krimireihe "Tatort" mit der von Ulrike Folkerts gespielten Kommissarin Lena Odenthal. Sie wurden zunächst für den Südwestfunk und heute für den Südwestrundfunk produziert. Als Tageszeitung erscheint die Hauptausgabe der "Rheinpfalz", einer Regionalzeitung mit zahlreichen Lokalausgaben in der ganzen Pfalz in einer Gesamtauflage von 250.000 Exemplaren. Außerdem erscheint immer mittwochs die Ausgabe des Ludwigshafener Wochenblatts. In Ludwigshafen startete am 1. Januar 1984 mit dem Kabelpilotprojekt Ludwigshafen das Privatfernsehen und somit das duale Rundfunksystem in Deutschland. Aus einem Kellerstudio nahm der Sender PKS seinen Sendebetrieb auf, aus dem ein Jahr später Sat.1 wurde. Das Rhein-Neckar-Fernsehen strahlt aus Mannheim Regionalthemen aus. Der 138 m hohe Fernmeldeturm Ludwigshafen am Rhein ist eine Sendeanlage für UKW-Hörfunk. Hochschule. Am 1. März 2008 wurden die beiden Ludwigshafener Fachhochschulen (Evangelische Hochschule und Hochschule für Wirtschaft) zusammengeführt. Die nächstgelegene Universität ist die Universität Mannheim, mit der eine enge Kooperation besteht und deren Einrichtungen von Studierenden der Hochschule Ludwigshafen mitgenutzt werden können. Kultur und Sehenswürdigkeiten. Faktor Haus am Berliner Platz Museen. Die alljährliche „Lange Nacht der Museen“ (gemeinsam mit Mannheim und Heidelberg) gilt nach Berlin als zweitgrößte Veranstaltung dieser Art in Deutschland. Sport. Ludwigshafen ist Heimat des Handballvereins TSG Friesenheim, der zuletzt in der Saison 15 in der 1. Handball Bundesliga spielte. Austragungsort der Heimspiele ist die Friedrich-Ebert-Halle. Im Fußball ist die Mannschaft von Arminia Ludwigshafen in der Oberliga das höchstklassige Team in Ludwigshafen. Der FSV Oggersheim, als weiterer Fußballverein der Stadt, erreichte in der Saison 2006/2007 den Sprung in die damalige drittklassige Regionalliga Süd. Die Saison 2007/2008 beendete die Mannschaft jedoch als Tabellenletzter und stieg durch die Reform des Ligasystems in die dreigeteilte und viertklassige Regionalliga ab. Der sportliche Aufstieg des Vereins war in der damaligen Zeit sehr mit dem finanziellen Engagement des Multimillionär Emmanouil Lapidakis verbunden. Darüber hinaus bestehen weitere Fußballvereine in der Stadt, wobei der Ludwigshafener SC, Südwest Ludwigshafen und der BSC Oppau am bekanntesten sind und aktuell in der Verbandsliga bzw. Bezirksliga spielen. Überregional ist das Ludwigshafener Sportleben für die drei „R“ bekannt. Damit sind die Disziplinen Rudern, Ringen und Radfahren gemeint, in denen die Athleten aus Ludwigshafen und der Pfalz in der Vergangenheit erfolgreich waren und bis heute sind. Das Zentrum des Rudersports ist dabei der Ludwigshafener Ruderverein mit seinem Bootshaus im Stadtteil Süd direkt am Rhein und in der Nähe Ludwigshafener Parkinsel. Bereits bei den Olympischen Spielen 1900 in Paris gewann der gesteuerte Vierer des Vereins die Bronzemedaille. Zwölf Jahre später bei den Olympischen Spielen in Stockholm errang der sog. Fickeisen-Vierer mit den Ruderern Otto Fickeisen, Hermann Wilker, Rudolf Fickeisen, Albert Arnheiter und Steuermann Otto Maier den Sieg und damit eine der ersten olympischen Goldmedaillen für den Deutschen Ruderverband. Auch bei den olympischen Sommerspielen 1936 in Berlin, durch Paul Söllner und 1972 in München durch Alois Bierl gewannen Ludwigshafener Ruderer olympische Goldmedaillen. Dazu kamen in den Jahrzehnten weitere Olympiateilnahmen, zahlreiche Siege auf Weltmeisterschaften und zahllose nationale und internationale Titel. Im Ringen sind die Brüder Claudio, Pasquale und Thomas Passarelli, die alle in Ludwigshafen das Ringen lernten, über die Stadtgrenzen hinaus bekannt. Vor allem der Olympiasieg von Pasquale Passarelli bei den olympischen Spielen 1984 in Los Angeles ging als "Die goldene Brücke" in die deutsche Sportgeschichte ein. Wilfried Dietrich, der als der Kran von Schifferstadt bekannt war, lebte in Ludwigshafen, kämpfte lange erfolgreich für den VfK Schifferstadt und gewann bei Olympischen Spielen insgesamt fünf Medaillen, darunter auch die Goldmedaille im Freistil der Schwergewichte 1960 bei den Spielen in Rom. Beim Radsport ist der RC 1899 Ludwigshafen-Friesenheim durch seine erfolgreichen Athleten und seiner 333 Meter langen offenen Radrennbahn im Stadtteil Friesenheim bekannt. Die 1956 eingeweihte Bahn ist bis heute Austragungsort von Bahnradrennen der Jugend. Die Stadt ist auch Heimat des Postsportverein Ludwigshafen, welcher in der 2. Bundesliga der Deutschen Classic-Kegler Union e.V. spielt. Bezirkssportanlagen. Ludwigshafen verfügt über sechs Bezirkssportanlagen, die u.a für Ballsportarten und Leichtathletik dienen und die von den Vereinen und dem Schulsport gemeinschaftlich genutzt werden, in den Stadtteilen Edigheim, Gartenstadt, Mundenheim, Oggersheim, Rheingönheim und West. Sonstiges. Der Spitzname, den die Stadt Ludwigshafen im 19. Jahrhundert von den Bewohnern der Umgebung, vor allem denen der Nachbarstadt Mannheim, erhalten hat ist "Lumpenhafen", pfälzisch "Lumpehafe". „Lump“ spielte auf die Arbeiterbevölkerung des jungen Industriestandorts an, die für proletarischer angesehen wurde als zum Beispiel das Bürgertum Mannheims. „"Lumpenhafen"“ wird noch gelegentlich in Internetforen benutzt, um den Wohnort Ludwigshafen abschätzig zu bezeichnen. Für die Unattraktivität einer Versetzung bayerischer Beamter in die Stadt, aber auch in die Pfalz allgemein, entstand etwa der Spruch „Wen der liebe Gott will strafen / den schickt er nach Ludwigshafen …“. Auch sieht sich Ludwigshafen vielen Bezeichnungen wie „unattraktive Industriestadt“ ausgesetzt. Hierbei wird jedoch verkannt, dass sich das Stadtbild in den letzten Jahren durch das Großprojekt „AnschLUss2000“ sowie das Stadtverschönerungsprogramm „Heute für morgen“ wesentlich verbessert hat, sodass viele attraktive Stellen urbanen Raums entstehen konnten. Zuletzt entstand im Rahmen von „Heute für morgen“ das große, moderne Einkaufszentrum „Rhein-Galerie“; dabei wurden auch viele Straßen umgebaut und optisch schöner gestaltet. Local Area Network. Ein Local Area Network (englische Aussprache, zu Deutsch "lokales Netzwerk"), kurz LAN, ist ein Rechnernetz, das die Ausdehnung von Personal Area Networks übertrifft, die Ausdehnung von Metropolitan Area Networks, Wide Area Networks und Global Area Networks aber nicht erreicht. Ein LAN ist dabei in seiner Ausdehnung ohne Zusatzmaßnahmen auf 500 Meter beschränkt und wird in der Regel z. B. in Heimnetzen oder kleinen Unternehmen eingesetzt. Infrastruktur-Verkabelung. Ein lokales Netz kann technisch unterschiedlich aufgebaut werden. Typischerweise erfolgt die Verkabelung eines LANs heutzutage als strukturierte Verkabelung. Ethernet ist heute der am weitesten verbreitete Standard. Dabei erfolgt die Übertragung mittlerweile meist elektrisch über Twisted-Pair-Kabel (CAT5 oder höher) oder optisch über Plastikfaserkabel und Glasfaserkabel. Aktuelles Ethernet deckt Datenübertragungsraten von 10 Mbit/s bis 10 Gbit/s ab (entspricht maximal 1,25 GByte/s Datendurchsatz). Bei der heute am häufigsten verwendeten, Kupfer-basierten Twisted-Pair-Verkabelung (TP) beträgt die Netzausdehnung in der Regel maximal hundert Meter. Mit Glasfasern auf Multimodebasis dreihundert Meter und auf Monomodebasis bis zu vierzig Kilometer. Fast-Ethernet 100BaseTx ist innerhalb der Ethernet-Familie noch immer die am weitesten verbreitete Technik, wobei bei Neuverkabelungen das Gigabit-Ethernet immer häufiger verwendet wird. 100-Gigabit-Ethernet befindet sich in der Entwicklung und bringt zahlreiche Änderungen auch bei den Kabellängen und -typen. Welche Standards kommerziell erfolgreich sein werden, muss erst noch abgewartet werden. Arbeitsplätze werden bei vielen Installationen oft mit Fast-Ethernet (100BaseTx) oder Gigabit-Ethernet (1000BaseT) angesteuert. Hub / Multiportrepeater. Ein Hub ist ein Verteilerknoten in einem Netzwerk, der mehrere Repeater enthält. Werden mehr als zwei Computer in einem Netzwerk verbunden, kann dies über einen Hub realisiert werden. Mehrere Netzwerkkabel können auf einen Hub geführt werden, deshalb spricht man auf physikalischer Ebene von einem sternförmigen Aufbau. Im logischen Sinne ist jeder Teilnehmer mit allen anderen verbunden, es handelt sich um eine Bus-Topologie. In einem LAN können mehrere Hubs verwendet werden, um die Zahl der anschließbaren Komponenten zu erhöhen. Der Hub arbeitet nach einem ziemlich einfachen Prinzip. Er empfängt von einem Port ein Datenpaket und sendet es an alle Ports weiter und wartet auf das nächste Datenpaket. Bekommt der Hub zwei Datenpakete gleichzeitig, so kommt es zu einer Kollision. Der Hub kann nicht zwei Datenpakete gleichzeitig verarbeiten oder sie für kurze Zeit speichern. Beide Datenpakete gehen dabei verloren und werden erneut gesendet. Er arbeitet im Halbduplexbetrieb. Da in Hubs selbst keine Datenverarbeitung stattfindet und es sich um eine rein physikalische Signalverstärkung handelt, arbeiten sie auf Layer 1-Ebene. Switch / Multiportbridge. Ein Switch fasst mehrere Bridges in einem Bauteil zusammen. Es verfügt im Gegensatz zu einem Hub über Logikfunktionen, um Daten zu filtern. Eine Bridge sendet empfangene Pakete nur an eine MAC-Adresse (Layer 2) und schaltet den Datenstrom („switchen“) so, dass die Kommunikation auf Sender und Empfänger beschränkt bleibt. Es handelt sich um eine „echte“ Sterntopologie. Die Leitungen der übrigen Teilnehmer werden nicht belastet. Wird jeder Port für nur einen Teilnehmer reserviert, spricht man im Techniker-Jargon von einem „voll-geswitchten Netz“ (Mikrosegmentierung). Ein solches Netz arbeitet kollisionsfrei, und alle Kanäle erreichen die maximale Datenübertragungsrate. In heutigen Netzen werden daher kaum noch Hubs, sondern Switches eingesetzt. Router. Ein Router ermöglicht es, mehrere Netzwerke mit unterschiedlichen Protokollen und Architekturen miteinander zu verbinden. Er kann im Gegensatz zu einem Switch Netzwerkaddressen auswerten (Layer 3, siehe OSI-Modell bzw. IP-Modell). Einen Router findet man häufig an den Außengrenzen eines Netzwerkes, um es mit dem Internet oder einem anderen Netzwerk zu verbinden. LAN über Funk. Drahtlose lokale Netze nennt man Wireless LAN (WLAN), sie werden meist über einen Standard aus der Gruppe IEEE 802.11 realisiert, die zum kabelgebundenen Ethernet weitgehend kompatibel sind. Da Funknetze nicht an Gebäude- oder Werksgrenzen halt machen, gibt es hier eine Besonderheit, die Verschlüsselungstechnik. Anfänglich wurde mit den mittlerweile als unsicher eingestuften Standards nach WEP (WEP-64 oder WEP-128) und WPA gearbeitet, die daher nicht mehr angewendet werden sollten. Der neuere WPA2-Standard gilt zurzeit noch als sicher, wenngleich man auch hier von "poor-man’s-security" spricht, denn WLAN-Accesspoints und -Router werden unter enormem Kostendruck vermarktet. WPA2 verwendet einen deutlich besseren Verschlüsselungsmechanismus als WPA, nämlich AES (Advanced Encryption Standard). Als wesentlich sicherer gilt die Kombination von beliebiger WLAN-Technologie (WEP oder WPA oder WPA2 (AES oder TKIP)) mit professioneller VPN-Technik über IPsec. Einziger Wermutstropfen sind hier die Kosten für die zusätzlichen VPN-Gateway-Systeme wie z. B. "Cisco PIX", "Checkpoint VPN" oder auch die frei verfügbare OpenVPN-Lösung. In Windows XP, Vista, 7 und MacOS X ist ein VPN-Client mittlerweile Standard. LAN über das Strom- oder Telefonleitungsnetz. Beide Techniken haben mit vergleichsweise hohen Abstrahlungsraten zu kämpfen, was zur Störung von Funkdiensten in der Umgebung führen kann. Veraltete Technik. LAN-Technologien wie Token Ring, Fiber Distributed Data Interface (FDDI) und ARCNET, aber auch Ethernet nach 10Base2, 10Base5 sowie 100BaseFX verlieren an Bedeutung, ebenso wie praktisch alle anderen weniger weit verbreiteten Technologien. Aktive LAN-Komponenten. Tragende Elemente eines lokalen Netzes waren früher Repeater und Hubs, zum Teil auch Router und Bridges. Bei neueren Installationen hingegen findet man praktisch nur noch Switches und Router. Da herkömmliche Router heute kaum noch innerhalb eines LANs angeordnet werden und stattdessen zumeist Internet-Gateway-Router verwendet werden, stellt ein lokales Netz oft genau eine gemeinsame Broadcast-Domäne dar, also den Bereich eines Rechnernetzes, in dem alle angeschlossenen Geräte mit ihrer Hardware-Adresse (MAC-Adresse) auf Schicht 2 des OSI-Referenzmodells (Sicherungsschicht) direkt miteinander kommunizieren können. Ein Broadcast ist eine Nachricht an alle Domänen-Teilnehmer, die durch einen Router gebremst wird und damit das LAN gewöhnlich auch nicht verlässt. Verschiedene Segmente – LANs bzw. WLANs und VLANs. Ein lokales Netz kann jedoch auch in mehrere LANs oder Virtual LANs (VLAN) unterteilt werden, um die Netzkommunikation eines einzelnen physikalischen lokalen Netzes physisch oder logisch auf zwei oder mehr VLANs aufzuteilen. Die Endsysteme des einen VLANs können die Endsysteme des anderen VLANs weder sehen, noch können sie mit ihnen kommunizieren. Zur Verbindung mehrerer getrennter LANs oder VLANs wird üblicherweise ein Router oder ein Switch mit entsprechender Funktionalität benutzt. Kollisionsdomänen werden durch Switches (auch Bridges) in kleinere Domänen unterteilt. Dadurch können Kollisionen vermieden und somit das Risiko des Verlangsamens oder gar das Ausfallen eines Netzes durch Überlastung reduziert werden. Da aber im 10-Gigabit-Ethernet und dann sicher auch im 100-Gigabit-Ethernet nach IEEE (Institute of Electrical and Electronics Engineers) Kabel vom Typ 802.3ae (10-Gigabit-Ethernet mit Glasfaser), 802.3ak (10-Gigabit-Ethernet mit Kupfer), 802.3an (10-Gigabit-Ethernet mit Kupfer und weitere Ausdehnung als 802.3ak) und des Typs 802.3ba (100-Gigabit-Ethernet mit Glasfaser, derzeit noch in Entwicklung) mit Vollduplex (d. h. mit doppelter Adernzahl, um auf den einen Adern zu empfangen und auf den anderen zu senden) vorgeschrieben sind, wird es beim ausschließlichen Benutzen dieser Technologien letztlich zur Beendigung dieser Unterteilung und des Zugriffsverfahrens CD kommen. Ein Netzteilnehmer kann die Broadcast-Domäne mittels eines Routers (OSI-Referenzmodell: Schicht 3, Vermittlungsschicht) verlassen, um so Zugang zu anderen Netzen, wie zum Beispiel zu anderen lokalen Netzen oder zum Internet, zu bekommen. Befindet sich im Netz ein Internetrouter, so hat dieser meistens eine im Internet öffentliche IP-Adresse, während den Hosts im lokalen Netz private IP-Adressen zugeteilt sind. Damit die Hosts mit dem Internet kommunizieren können, wird auf dem Router Masquerading, ein Spezialfall des NATs, betrieben. Vor allem in größeren Netzen werden Router aber auch innerhalb eines lokalen Netzes eingesetzt, um nicht zu viele Teilnehmer innerhalb einer Broadcast-Domäne zu haben. Weitere Geräte im Netzwerk. Ein LAN kann neben normalen Rechnern auch andere Geräte, wie beispielsweise Drucker einbinden. Drucker, welche über keine LAN-Schnittstelle verfügen, können entweder über spezielle Router oder über Zwischengeräte eingebunden werden, welche die Netzwerkkommunikation übernehmen. Lipophilie. Eine Substanz wird als lipophil (von altgriech. „Fett liebend“, aus "lípos" „Fett“ und "philos" „liebend“, „Freund“) bezeichnet, wenn sie sich gut in Fetten und Ölen lösen lässt oder ihrerseits Fette und Öle gut lösen kann. Beispiele für lipophile Substanzen sind Erdöl, sowie biogene Öle und Fette. Nach IUPAC-Definition ist die Lipophilie die Affinität eines Stoffes oder Moleküls zu einer lipophilen Umgebung. Eigenschaften. Lipophile Substanzen sind oft gleichzeitig hydrophob (wasserunlöslich), d. h. Wasser abstoßend. Lipophilie ist jedoch nicht mit Hydrophobie gleichzusetzen. Manche Stoffe sind gleichzeitig hydrophob und lipophob, z. B. Fluorcarbone, Silikone und manche ionische Flüssigkeiten wie z. B. BMIIm, welche in der Regel weder wasser- noch fettlöslich sind. Substanzen, die lipophil und hydrophil sind, bezeichnet man als amphiphil. Das Gegenteil der Lipophilie ist Lipophobie. Der Oktanol-Wasser-Verteilungskoeffizient ist ein Maß für die Lipophilie. Der HLB-Wert ist ein Maß für die hydro- und lipophilen Eigenschaften eines Moleküls. Tenside besitzen lipophile und hydrophile Molekülbereiche. Hydrophobe Stoffe stoßen in Wirklichkeit kein Wasser ab. Es ist vielmehr so, dass sich wasserunlösliche Stoffe, wie zum Beispiel Fette, in einem sehr „geordneten Zustand“ befinden. Prinzipiell können die kleinen Wassermoleküle mit den großen Fettmolekülen in Wechselwirkung treten, um aber Fette lösen zu können, müssten sich die beweglichen Wassermoleküle an den Fettmolekülen sehr geordnet ausrichten. Diese Ausrichtung ist bei einer Flüssigkeit sehr unwahrscheinlich und damit wird sie von den Molekülen auch nicht realisiert. Die Unlöslichkeit von Wasser in Fett und umgekehrt ist somit ein Effekt, der auf die Entropie zurückzuführen ist. Geschlossene Systeme streben an, ihre Entropie zu maximieren. Eine hohe Entropie entspricht hier einem hohen Maß an Unordnung (siehe auch Thermodynamik und statistische Mechanik). Viele Aromastoffe und Vitamine sind lipophil, weshalb man Fett auch als "Geschmacksträger" bezeichnet, der in Form von Butter oder dem „Schuss Sahne“ den Geschmack einer Speise oft verstärkt. Darüber hinaus können Öle und Fette die Aufnahme und Verwertung von Vitaminen verbessern. Ein gutes Beispiel dafür sind die Carotine als wichtige Vorstufe des Vitamin A-Stoffwechsels. Auch Diamant ist lipophil und zugleich hydrophob. Diese Eigenschaft wird in Diamantminen zu Nutze gemacht, um wertloses taubes Gestein von Diamant zu trennen. Dabei wird der diamanthaltige Schotter mit Wasser vermischt und dann über mit Vaseline bestrichene Flächen gespült. Der Wasserfilm auf dem nassen Taubgestein verhindert, dass das Taubgestein auf der Vaseline anhaftet. Die Diamanten hingegen werden vom Wasser kaum benetzt und haften auf der Vaseline, von wo sie regelmäßig entfernt werden. Aufgrund desselben Prinzips neigt Diamantschmuck mehr als andere Edelsteine dazu, sich nach kurzer Tragedauer mit dem Hautfett zu verunreinigen, was mit Seifenlösung leicht zu entfernen ist. Lüneburg. Die Hansestadt Lüneburg (niederdeutsch "Lümborg") ist eine Große Mittelstadt im Nordosten von Niedersachsen und ist eines von neun Oberzentren des Bundeslandes. Die Stadt liegt ungefähr 50 Kilometer südöstlich von Hamburg am Rand der Lüneburger Heide und gehört zur Metropolregion Hamburg. Die Kreisstadt des gleichnamigen Landkreises hat mit ihren rund 74.000 Einwohnern (Agglomeration etwa 110.000 Einwohner) den Status einer Großen selbständigen Stadt. Lüneburg liegt am Fluss Ilmenau, ist Sitz der Leuphana Universität, Mitglied im Lüneburgischen Landschaftsverband und war bis Ende 2004 Sitz des gleichnamigen Regierungsbezirkes. Dieser wurde danach durch eine Regierungsvertretung und 2014 durch die heutigen Regionalbeauftragten für das nordöstliche Niedersachsen ersetzt. Geografische Lage. Lüneburg liegt am Unterlauf der Ilmenau, etwa 30 km vor ihrem Zusammenfluss mit der Elbe. Südlich erstreckt sich die Lüneburger Heide, eine etwa 7400 km² große Fläche, die durch den Einschlag großer Mengen von Holz, durch Waldbrände und Beweidung entstand. Die vielfach zitierte Aussage, die Heide sei durch Holzeinschlag für den Betrieb der Saline Lüneburg entstanden, ist historisch nicht gesichert. Wahrscheinlicher ist der Beginn menschlicher Einflussnahme in der Bronzezeit. Die Lüneburger Altstadt liegt zudem über einem Salzstock, der den Reichtum der Stadt begründete und dessen Kappe aus Gips, der "Kalkberg", zugleich einen hervorragenden Bauplatz für die Fluchtburg darstellte, welche Lüneburg ihren Namen gab. Stadtgliederung. Kanaldeckel mit dem Symbol für die Formel „Mons, Pons, Fons“ Die Formel ' (‚Berg, Brücke, Quelle‘) charakterisiert die Entwicklung der Stadt seit dem 8. Jahrhundert durch das Zusammenwachsen von zunächst drei, später vier, Siedlungsplätzen. Dies waren die Fluchtburg auf dem – damals noch wesentlich höheren – Kalkberg mitsamt der angrenzenden Niederlassung "(Marktviertel)", das Dorf Modestorpe zwischen der Brücke über die Ilmenau und dem großen Platz "Am Sande" "(Sandviertel)" sowie die Saline mit der abgeschlossenen Siedlung der dort beschäftigten Arbeitskräfte "(Sülzviertel)". Erst im 13. Jahrhundert bildete sich zwischen Marktplatz und Ilmenau die Hafensiedlung "(Wasserviertel)". Die daraus entstandene Form der Stadt blieb bis zur Ausweitung der Stadtfläche im späten 19. Jahrhundert bestehen und ist noch heute deutlich. Lüneburgs sechs historische Stadttore waren das "Altenbrücker Tor", das "Bardowicker Tor", das "Rote Tor", das "Sülztor", das "Lüner Tor" und das "Neue Tor". Stadtteile. Lüneburg gliedert sich in die Stadtteile Altstadt, Bockelsberg, Goseburg-Zeltberg, Kaltenmoor, Kreideberg, Lüne-Moorfeld, Mittelfeld, Neu Hagen, Rotes Feld, Schützenplatz, Weststadt und Wilschenbruch sowie die Ortschaften Ebensberg, Häcklingen, Ochtmissen, Oedeme und Rettmer. Jüttkenmoor, Klosterkamp, Bülows Kamp, In den Kämpen, Krähornsberg, Schäferfeld, Volgershall und Zeltberg sind Bezeichnungen für einzelne Baugebiete innerhalb eines Stadtteils oder einer Ortschaft. Das Senkungsgebiet. Eine Besonderheit stellt das historische Viertel zwischen der Lüneburger Saline (heute Deutsches Salzmuseum) und dem Kalkberg dar. Die Häuser jenes Bereiches stehen über dem Salzstock, der vom Grundwasser abgelaugt wird. Dadurch senkte sich die Erdoberfläche über dem Salzstock allmählich. Nach Intensivierung durch erhöhtes Soleabpumpen ab Mitte 19. Jahrhundert erreichte die Senkung an wechselnden Stellen 3–5 cm/Jahr (heute bis 3 mm). Es entstand das so genannte „Senkungsgebiet“. Häuser und Kirchen am Rande dieses Gebietes verloren ihre Stabilität und mussten abgerissen werden (die Marienkirche 1818 und die Lambertikirche 1861). Die Senkung und vor allem die Unrentabilität der Salzherstellung waren Gründe für die Schließung der Saline im Jahre 1980. Heute werden nur noch geringe Mengen Sole für den Kurbetrieb in der Salztherme Lüneburg (SaLü) gefördert. Das Salinengebäude beherbergt heute das Deutsche Salzmuseum und einen Supermarkt. An etwa 240 Messpunkten werden die Senkungen seit 1946 in einem zweijährigen Turnus überwacht. Die Senkungen sind noch nicht komplett zum Stillstand gekommen, das Gelände wurde neu bebaut und einige historische Gebäude, die gerettet werden konnten, sind inzwischen restauriert. Die Absenkungen sind bis auf den heutigen Tag gut zu erkennen. Besucher, die vom Am Sande bis zum Ende der Grapengießerstraße gehen, können dort die Ausmaße der Absenkungen deutlich erahnen. Die vor ihnen liegende Senke bildete früher eine Ebene mit der Grapengießerstraße. In der Frommestraße sind weitere Zeugnisse der Erdbewegungen sichtbar: Das „Tor zur Unterwelt“. Zwei eiserne Torflügel, die sich übereinander geschoben haben. Kurz vor Weihnachten 2012 sind dort wieder zwei Häuser abgerissen worden. Das Tor zur Unterwelt wurde Anfang 2012 beschädigt und soll restauriert werden. An der Michaeliskirche sind ebenfalls Folgen der Senkung zu erkennen, und zwar an schiefen Säulen und in der Turmhalle. Weitere Absenkungen sind aktuelle in der Straße Ochtmisser Kirchsteig zu beobachten. Vorgeschichte. Die ersten Zeugnisse menschlicher Anwesenheit im Raum Lüneburg werden in die Zeit der Neandertaler datiert. Es handelt sich um 58 Faustkeile, gefunden zu Beginn der 1990er Jahre beim Bau der Autobahn zwischen Ochtmissen und Bardowick. Sie sind etwa 150.000 Jahre alt. Bei dem Ochtmisser Fundplatz handelt es sich vermutlich um ein neandertalzeitliches Jagdlager, wo die frühen Menschen ihre Jagdbeute zerteilten. Von einer durchgehenden Besiedlung des späteren Stadtgebietes konnte damals noch keine Rede sein; jahrtausendelange Kaltzeiten verhinderten dies. Das erste archäologische Zeugnis einer sesshaften Bauernkultur wurde nicht weit von dem genannten Fundplatz entfernt in der Ilmenau zwischen Lüne und Bardowick entdeckt. Es handelt sich um eine Axt, die aufgrund ihrer Form als "Schuhleistenkeil" bezeichnet wird. Sie wird in das 6. vorchristliche Jahrtausend datiert und gelangte bereits im 19. Jahrhundert in die Lüneburger Museumssammlung. Seit der Bronzezeit trägt der Lüneburger Zeltberg eine ganze Reihe vor- und frühgeschichtlicher Bestattungsplätze, welche die im Gebiet der heutigen Stadt Lüneburg ansässigen Menschen anlegten. Einer der ältesten Funde von dort ist ein sogenanntes "Aunjetitzer Randleistenbeil". Es stammt aus der Zeit um 1900 v. Chr. Auch aus dem Stadtgebiet selbst stammen eine Reihe eisenzeitlicher Urnenfunde, die bereits im 18. Jahrhundert erwähnt werden. Diese sind – ebenso wie jene vom Lüneburger Kalkberg – in die Privatsammlungen einiger Gelehrter des 18. Jahrhunderts gelangt und bis auf wenige Ausnahmen mit ihnen untergegangen. Erwähnenswert in diesem Zusammenhang sind die langobardischen Urnengräberfelder vom Lüneburger Zeltberg und von Oedeme aus den ersten Jahrhunderten n. Chr. Auch aus dem frühen Mittelalter existiert eine Reihe von Fundplätzen auf dem Gebiet der späteren Stadt, so beispielsweise auf dem Gebiet der alten Ortschaft Modestorpe unweit der Johanniskirche, dem Lambertiplatz nahe der Saline und im ehemaligen Wasserviertel. Der vom griechischen Geografen Claudius Ptolemäus etwa 150 n. Chr. genannte Ort Leuphana könnte mit Lüneburg identisch sein. Entwicklung vom Dorf zur Handelsstadt. Die erste urkundliche Erwähnung Lüneburgs im Mittelalter findet sich in einer Urkunde vom 13. August 956, in der König Otto I. „den Zoll zu Lüneburg an das zu Ehren des heiligen Michaels errichtete Kloster“ schenkt "(teloneum ad Luniburc ad monasterium sancti Michahelis sub honore constructum)". Eine ältere Erwähnung des Ortes in den fränkischen Reichsannalen (zum Jahre 795: "… ad fluvium Albim pervenit ad locum, qui dicitur Hliuni") wird auf einen der drei Kerne Lüneburgs bezogen; vermutlich auf die spätere, ab 951 als Sitz der Billunger belegte Burg auf dem Kalkberg. Der elbgermanische Name "Hliuni" entspricht dabei dem langobardischen Wort für „Zufluchtsort“. Durch archäologische Funde ist sicher, dass die Umgebung Lüneburgs zu dieser Zeit bereits besiedelt war (im Museum für das Fürstentum Lüneburg kann man zum Beispiel eine ganze Reihe qualitätvoller Exponate bewundern, die hier gefunden wurden) und die Saline zu diesem Zeitpunkt bereits ihren Betrieb aufgenommen hatte. Der Sage nach wurde das Salz vor mehr als 1000 Jahren von einem Jäger entdeckt, der eine weiße Wildsau geschossen hatte. Salzkristalle im Fell des toten Tieres sollen ihn auf die Saline aufmerksam gemacht haben. Trotz der Saline war Lüneburg ursprünglich dem nur wenige Kilometer nördlich gelegenen Bardowick untergeordnet. Bardowick war älter und ein bedeutender Handelsplatz mit den Slawen. Bardowicks Reichtum – es hatte sieben Kirchen – rührte auch daher, dass keine weiteren Handelszentren geduldet wurden. Erst nachdem Bardowick sich nicht Heinrich dem Löwen unterordnen wollte, wurde es deswegen 1189 von ihm zerstört. Daraufhin bekam Lüneburg das Stadtrecht und entwickelte sich nun an Bardowicks Stelle zum zentralen Handelsplatz der Gegend. Der polabische Name für Lüneburg ist "Glain" (geschrieben als "Chlein" oder "Glein" in älteren deutschen Quellen), wahrscheinlich hergeleitet von "glaino" (slawisch: "glina") „Lehm“. In lateinischen Texten taucht Lüneburg nicht nur als latinisiertes "Lunaburgum", sondern auch als gräzisiertes "Selenopolis" (Mondstadt) auf, eine Anspielung an eine seit dem späten Mittelalter populäre Etymologie, die Lüneburg mit der Mondgöttin Luna verbindet. Münzen dieser Zeit und der Lunabrunnen auf dem Marktplatz greifen ebenfalls dieses Motiv auf. Hansezeit. Durch seine lange Monopolstellung als Salzlieferant im norddeutschen Raum, die erst spät durch Salzimporte aus Frankreich geschwächt wurde, war Lüneburg ein frühes Mitglied der Hanse: Als Bund einzelner Kaufleute in Lübeck im Jahr 1158 begonnen, kam es 1356 (auf dem ersten allgemeinen Hansetag) zum Bund von Handelsstädten. Das Lüneburger Salz war notwendig, um die in der Ostsee und vor Norwegen gefangenen Heringe einzupökeln und so konserviert als Fastenspeise im Binnenland anzubieten. Eine große Rolle spielte der Heringsmarkt der Schonischen Messe. So wurde Lüneburg zusammen mit Bergen (Norwegen) und Visby (den Fischlieferanten) sowie Lübeck (dem zentralen Handelspunkt zwischen Ostsee und Binnenland) rasch zu einer der wichtigsten und reichsten Städte der Hanse. Das Salz wurde im Mittelalter zunächst auf dem Landwege über die Alte Salzstraße nach Lübeck befördert. Mit Eröffnung des Stecknitzkanals im Jahr 1398 setzte sich der Transport auf dem Wasserweg in die Lübecker Salzspeicher durch. Um 1235 entstand das Herzogtum Braunschweig-Lüneburg, das wiederholt in verschiedene Linien geteilt und wieder zusammengeführt wurde. Die so immer wieder entstehenden Teilstaaten, die staatsrechtlich im Rang von Fürstentümern standen, erhielten ihre Namen in der Regel nach ihrer jeweiligen Residenz. So entstand zwischen 1267 und 1269 erstmals ein "Fürstentum Lüneburg" mit Lüneburg als Residenzstadt. Im Zuge des Lüneburger Erbfolgekriegs warfen 1371 aufständische Bürger die Fürsten aus der Stadt und zerstörten die landesherrliche Burg auf dem Kalkberg sowie das nahegelegene Kloster. Die dadurch und mit dem Landfrieden 1392 erkämpften Rechte unterschieden sich besonders im 15. Jahrhundert kaum noch von denen einer freien Reichsstadt; doch eine rechtliche Anerkennung einer Reichsunmittelbarkeit hat es nie gegeben. Diese weitgehenden Rechte konnten bis 1637 verteidigt werden. Das Geld blieb nun in der Stadt, die reichen Häuser und Kirchen entstanden. Im Jahr 1392 wurde Lüneburg das Stapelrecht verliehen. Es zwang reisende Kaufleute, mit ihren Fuhrwerken Lüneburg aufzusuchen und ihre Waren dort zu „stapeln“, d. h. zum Verkauf anzubieten. Damit die Kaufleute Lüneburg nicht umfahren konnten, wurde um 1397 westlich der Stadt eine unpassierbare Landwehr angelegt, die Errichtung einer östlich gelegenen Landwehr erfolgte um 1479. Eine Krise bedeutete der Lüneburger Prälatenkrieg von 1446 bis 1462, der erst aufgrund der Intervention des dänischen Königs Christian I., des Bischofs von Schwerin sowie des Lübecker Bischofs Arnold Westphal beigelegt werden konnte. 1454 wurde im Forderungskatalog der Sechziger mehr Einfluss der Bürger im öffentlichen Leben eingefordert. Seit Ende 2007 trägt Lüneburg wieder offiziell den Titel Hansestadt. Neuzeit bis zum Ende des Zweiten Weltkriegs. Lüneburg um 1895 – Blick vom Kalkberg nach Osten In der Reformationszeit wandte sich die Stadt dem protestantischen Bekenntnis zu. Bürgermeister und Rat der Stadt unterzeichneten 1580 die lutherische Konkordienformel von 1577. Mit dem Niedergang der Hanse – und dem Ausbleiben der Heringe um 1560 vor Falsterbo in Schonen – brachen die großen Kunden für das Salz der Stadt weg; die Stadt verarmte rasch. In der folgenden Zeit wirtschaftlicher Stagnation wurden kaum noch neue Häuser gebaut, sodass das historische Stadtbild fast unverändert bis in die heutige Zeit erhalten blieb. Im Jahre 1810 wurde Lüneburg von Frankreich annektiert; die Franzosenzeit begann. Als im März 1813 nach der Niederlage der Franzosen in Russland eine allgemeine Volkserhebung in Norddeutschland ausbrach, verjagten die Lüneburger die französischen Beamten aus ihrer Stadt. Die Folge war das Gefecht bei Lüneburg am 2. April 1813.Heinrich Heine, dessen Eltern von 1822 bis 1826 im heutigen Heinrich-Heine-Haus in Lüneburg lebten, nannte es seine „Residenz der Langeweile“. Gegen Ende des 19. Jahrhunderts wurde Lüneburg Garnisonsstadt, was es bis in die 1990er Jahre blieb. Für 200 jüdische Lüneburger wurde 1894 von der Jüdischen Gemeinde in Lüneburg eine Synagoge eingeweiht. An der wirtschaftlichen und kulturellen Entwicklung Lüneburgs waren jüdische Lüneburger aktiv beteiligt. Nach der Machtergreifung Hitlers wurde die Mitarbeit aller Juden im öffentlichen Leben boykottiert. Juden wurden vertrieben, in Konzentrationslager deportiert und ermordet (siehe Holocaust). In Lüneburg erinnern 26 Stolpersteine an das Schicksal von Opfern des NS-Regimes. Stadtrundgänge der Geschichtswerkstatt Lüneburg führen an einige ehemalige Wohn-, Lern- bzw. Arbeitsorte von Lüneburgern, die Opfer des Nationalsozialismus wurden, sowie zu Orten in Lüneburg, die in der Zeit des Nationalsozialismus eine wesentliche Rolle gespielt haben. In der Kinderfachabteilung Lüneburg, Teil der Landes-Heil- und Pflegeanstalt Lüneburg, wurden in der Zeit des Zweiten Weltkriegs vermutlich über 300 Kinder im Rahmen der „Kinder-Euthanasie“ getötet. Am Abend des 4. Mai 1945 kapitulierte südlich der Stadt auf dem "Timeloberg" (beim Dorf Wendisch Evern) eine Delegation der Regierung Dönitz vor dem britischen Feldmarschall Montgomery. Dies war das faktische Ende aller Kampfhandlungen in Norddeutschland, Dänemark, Norwegen und den nördlichen Niederlanden, also dem weitaus größten Teil des zu diesem Zeitpunkt noch von deutschen Truppen gehaltenen Territoriums. Die Stelle liegt heute unzugänglich für die Öffentlichkeit in einem militärischen Sperrgebiet; ein kleiner Gedenkstein an einem nahen Feldweg erinnert an die Kapitulation. Am 23. Mai 1945 nahm sich Reichsführer SS Heinrich Himmler in Lüneburg in britischer Gefangenschaft das Leben, indem er eine Zyankali-Kapsel zerbiss. Nachkriegszeit. Noch vor dem Nürnberger Prozess gegen die Hauptkriegsverbrecher begann in Lüneburg am 17. September 1945 der erste Kriegsverbrecher-Prozess, der so genannte Bergen-Belsen-Prozess, bei dem 45 Menschen angeklagt werden. Der Verfall der Bausubstanz nach Ende des Zweiten Weltkriegs führte zu verschiedenen Überlegungen, wie die Wohnqualität zu verbessern sei. Ein ernsthaft diskutierter Vorschlag war, die gesamte Altstadt abzureißen und durch moderne Bauten zu ersetzen. Durch den folgenden Bürgerprotest wurde Lüneburg einer der Kristallisationspunkte für einen neuen Gedanken: den Denkmalschutz. Seit den frühen 1970er Jahren wurde die Stadt systematisch restauriert. Besondere Verdienste erwarb sich dabei bereits Ende der 1960er Jahre Curt Pomp: Gegen zahlreiche Widerstände aus Politik und Verwaltung setzte er sich in dem von ihm gegründeten "Arbeitskreis Lüneburger Altstadt" für die Erhaltung historischer Bausubstanz ein. Sein Engagement wurde belohnt mit dem Deutschen Preis für Denkmalschutz und dem Bundesverdienstkreuz. Heute ist die Lüneburger Altstadt aufgrund dieser Restaurierungen - 1300 Backsteinhäuser sind denkmalgeschützt - eine Touristenattraktion; wichtige Teile der Wirtschaft sind auf Tourismus ausgerichtet. Im Rahmen der Bundeswehrreform wurden seit 1990 zwei der drei Bundeswehr-Kasernen der Stadt geschlossen und die verbliebene verkleinert. Zusätzlich wurde die Bundesgrenzschutz-Kaserne aufgelöst, die teilweise heute von der Landesbereitschaftspolizei Niedersachsen (4. Einsatzhundertschaft) genutzt wird. Die Universität Lüneburg siedelte auf das Gelände der ehemaligen Scharnhorstkaserne um. Die Universität Lüneburg entwickelte sich aus den in den 1980er Jahren neu angelegten wirtschafts- und kulturwissenschaftlichen Fachbereichen und dem 1989 erfolgten Zusammenschluss mit der Pädagogischen Hochschule (PH). Seit ihrem Umzug auf das ehemalige Kasernengelände zog die Universität immer mehr Studenten an. Der Ausbau der Universität ist ein wichtiger Beitrag zur Umstrukturierung der Stadt zu einem Dienstleistungszentrum. Auf dem Gelände der ehemaligen Bundesgrenzschutzkaserne entsteht heute der Lünepark mit neuen Gewerbeflächen für Existenzgründer. Die Wirtschaftsförderung und viele Firmen aus dem IT-Bereich haben sich dort bereits angesiedelt. In der Nähe wurde im Mai 2006 die Johannes-Westphal-Brücke für den Verkehr geöffnet. Diese verbindet den neu geschaffenen Lünepark mit dem jenseits der Ilmenau liegenden Stadtteil Goseburg. Am 5. Oktober 2007 erfolgte eine Namensänderung von Stadt Lüneburg zu Hansestadt Lüneburg und damit neben Stade als bis dahin einzige Hansestadt in Niedersachsen. Am 23. September 2008 erhielt die Stadt den von der Bundesregierung verliehenen Titel „Ort der Vielfalt“. Bevölkerungsentwicklung. Lüneburg hatte bereits im Spätmittelalter und zu Beginn der Neuzeit etwa 14.000 Einwohner und gehörte damit zu den damaligen Großstädten. Die Einwohnerzahl sank mit dem wirtschaftlichen Niedergang bis 1757 auf 9.400, stieg dann bis 1813 auf 10.400. Mit dem Beginn der Industrialisierung im 19. Jahrhundert beschleunigte sich das Bevölkerungswachstum. Lebten 1855 erst 13.000 Menschen in der Stadt, so waren es 1939 bereits 35.000. Kurz nach dem Zweiten Weltkrieg brachten die vielen Flüchtlinge und Vertriebenen aus den deutschen Ostgebieten der Stadt innerhalb weniger Monate einen Zuwachs um 18.000 Personen auf 53.000 Einwohner im Dezember 1945. Im Jahre 2003 überschritt die Bevölkerungszahl der Stadt die Grenze von 70.000. Die Stadt Lüneburg sowie ihr Landkreis und der benachbarte Landkreis Harburg gehören zu den wenigen Gebieten in Deutschland, die sich durch ein starkes Bevölkerungswachstum auszeichnen. Gründe dafür sind unter anderem das Wachstum an und Bevölkerungsverschiebungen zu den Randgebieten der Hamburger Stadtregion. Das Niedersächsische Landesamt für Statistik hat der Stadt Lüneburg bis zum Jahre 2021 eine Einwohnerzahl von 89.484 vorausgesagt. Am 31. Dezember 2011 betrug die "Amtliche Einwohnerzahl" für Lüneburg nach Fortschreibung des Niedersächsischen Landesamtes für Statistik 73.581 (nur Hauptwohnsitze und nach Abgleich mit den anderen Landesämtern) – historischer Höchststand. Weiterhin hat Lüneburg besonders enge Beziehungen zu den unmittelbar benachbarten und mit der Kernstadt im Zusammenwachsen begriffenen Gemeinden, mit denen es eine Agglomeration bildet. Die Stadt hat mit den Orten Adendorf, Bardowick, Deutsch Evern und Reppenstedt sowie Vögelsen und Wendisch Evern eine Einwohnerzahl von etwa 108.000 und würde zusammen mit diesen Ortschaften die notwendige Einwohnerzahl einer Großstadt erreichen. Momentan ist Lüneburg die elftgrößte Stadt in Niedersachsen. Die folgende Übersicht zeigt die Einwohnerzahlen nach dem jeweiligen Gebietsstand. Bis 1813 handelt es sich meist um Schätzungen, danach um Volkszählungsergebnisse (*) oder amtliche Fortschreibungen des Statistischen Landesamtes. Die Angaben beziehen sich ab 1871 auf die „Ortsanwesende Bevölkerung“, ab 1925 auf die Wohnbevölkerung und seit 1987 auf die „Bevölkerung am Ort der Hauptwohnung“. Vor 1871 wurde die Einwohnerzahl nach uneinheitlichen Erhebungsverfahren ermittelt. Religion. Lüneburg ist konfessionell in der Mehrheit evangelisch-lutherisch und Sitz eines Kirchenkreises. So sind die drei verbliebenen historischen Stadtkirchen St. Johannis, St. Michaelis und St. Nicolai heute evangelisch. Die Kirchengemeinde Lüne nutzt die historische St.-Bartholomäi-Kirche des Klosters Lüne im Stadtteil Lüne-Moorfeld und das Gemeindehaus in Ebensberg. Moderne Kirchen in Lüneburg sind die Kreuzkirche am Bockelsberg, das Martin-Luther-Haus mit Kirchsaal aus den 1950er Jahren in Goseburg-Zeltberg, die Paul-Gerhardt-Kirche von 1963 in Neu Hagen und die Pauluskirche von 1971 auf dem Kreideberg. Im Stadtteil Kaltenmoor steht seit 1974 das älteste ökumenische Gemeindezentrum (evangelische und katholische Kirche unter einem Dach) in Deutschland: St. Stephanus. Zur katholischen Pfarrgemeinde St. Marien gehören neben der St.-Marien-Kirche auch die Kirchen in Kaltenmoor, Adendorf und Amelinghausen. Mit dem Zuzug von Flüchtlingen und Vertriebenen nach dem Zweiten Weltkrieg erhöhte sich die Zahl der katholischen Lüneburger, so dass die 1857 an der Wallstraße erbaute St.-Marien-Kirche zu klein geworden war und 1968 abgerissen wurde. Als Ersatz wurde bereits 1963 an der Friedenstraße ein Neubau eingeweiht. Darüber hinaus befinden sich in Lüneburg weitere christliche Gemeinden: 1882 wurde die Neuapostolische Gemeinde gegründet, ihre heutige Kirche im Stadtteil Rotes Feld wurde 1959 eingeweiht. Die 1894 gegründete Evangelisch-Freikirchliche Gemeinde (Baptisten) gehört zum Bund Evangelisch-Freikirchlicher Gemeinden, zu ihr gehört die Friedenskirche im Stadtteil Bockelsberg. Die seit 1912 bestehende Adventgemeinde verfügt seit 1980 über die Kirche in der Friedenstraße. Die St.-Thomas-Gemeinde wurde 1927 gegründet und gehört zur Selbständigen Evangelisch-Lutherischen Kirche, ihre Kirche befindet sich Am Springintgut am nordwestlichen Rand der Altstadt. Die evangelisch-reformierte Kirchengemeinde Lüneburg-Uelzen wurde 1958 gegründet, zu ihr gehört in Lüneburg die Christuskirche in Kaltenmoor. Die Freie evangelische Gemeinde Lüneburg wurde 1991 gegründet und hat ihren Sitz in Neu Hagen. Die Freie Christengemeinde Lüneburg (Pfingstgemeinde) hat ihren Sitz in der Wedekindstraße im Stadtteil Schützenplatz, die Matthäusgemeinde mit dem Gemeindehaus am Kalkberg ist eine selbständige evangelische Freikirche und gehört zum Mülheimer Verband Freikirchlich-Evangelischer Gemeinden. In der Psychiatrischen Klinik Lüneburg befindet sich eine Kapelle, im Städtischen Klinikum finden ebenfalls Gottesdienste statt. Die aus dem 16. Jahrhundert stammende Kapelle auf Gut Schnellenberg befindet sich in Privatbesitz. Die 1894 am Schifferwall von der jüdischen Gemeinde eingeweihte große Synagoge wurde 1938 zum Abbruch verkauft. Seit 1955 erinnert ein Gedenkstein an den Standort. Ferner leben in der Hansestadt Lüneburg auch Muslime. Der Großteil der muslimischen Einwohner lebt im bevölkerungsreichsten Stadtteil Kaltenmoor. Zudem gibt es in der Hansestadt eine Türkisch-Islamische Gemeinde im Lüner Weg, auch bekannt als die Lüneburger Zentral Moschee (DITIB-Türkisch Islamische Gemeinde zu Lüneburg e.V.). Politik. Die Stadt Lüneburg gehört zum Landtagswahlkreis 49 Lüneburg und zum Bundestagswahlkreis 38 Lüchow-Dannenberg – Lüneburg. Rat. Der Rat der Hansestadt Lüneburg besteht aus 43 Personen (einschließlich zwei Bürgermeister und ein Oberbürgermeister). Oberbürgermeister und Bürgermeister. Vor dem Zweiten Weltkrieg war der Oberbürgermeister der hauptamtliche Chef der Stadtverwaltung. Mit Einführung der Norddeutschen Ratsverfassung durch die britische Besatzungsmacht trat eine Trennung der Stadtspitze ein: Der ehrenamtliche Oberbürgermeister und zugleich Vorsitzende der Stadtvertretung war der politische Repräsentant der Stadt, der wie alle Mitglieder der Stadtvertretung von der Bevölkerung gewählt wurde, während die Verwaltung vom hauptamtlichen Oberstadtdirektor, der von der Stadtvertretung gewählt wurde, geleitet wurde. Durch die Reform der Kommunalverfassung sind seit 1996 beide Aufgaben (wieder) im Amt des hauptamtlichen Oberbürgermeisters, der nun von der Bevölkerung direkt gewählt wird, vereint. Neben dem Oberbürgermeister gibt es (vom Stadtrat gewählte) ehrenamtliche Bürgermeister, die den Oberbürgermeister in seinen protokollarischen Aufgaben unterstützen und vertreten. Derzeitige Bürgermeister sind Eduard Kolle (SPD), Andreas Meihsies (Grüne) und Regina Baumgarten (CDU). Oberstadtdirektor. 1946 führte die britische Besatzungsmacht die Doppelspitze in der Kommunalverwaltung ein. Bis 1996 gab es in Lüneburg den Oberstadtdirektor als Leiter der Verwaltung. Seit 1996 wird die Verwaltung durch den Oberbürgermeister geleitet. Städtepartnerschaften. Lüneburg pflegt trotz seiner mittleren Größe zahlreiche Partnerschaften mit anderen Städten. Im Juni 2000 trafen sich Delegierte aller Partnerstädte in Lüneburg und Umgebung und feierten das größte Partnerschaftstreffen der Nachkriegszeit in dieser Region. Zusätzlich bestehen noch diverse innerdeutsche Partnerschaften, so zum Beispiel mit Kulmbach und Köthen. Kultur und Sehenswürdigkeiten. Herausragendes Beispiel norddeutscher Backsteinarchitektur – Der Schütting, jetzt Industrie- und Handelskammer Theater. Das Theater Lüneburg ist eines der kleinsten Drei-Sparten-Theater Deutschlands. Es werden nicht nur Theaterstücke aller Stilrichtungen aufgeführt, sondern auch Opern, Operetten, Musicals sowie Ballett. Trotz begrenzter finanzieller Mittel kann es sich gegen die zahlreichen Häuser des nahegelegenen Hamburg behaupten. Daneben verfügt Lüneburg über eine große Anzahl von Amateurbühnen, die ebenfalls regelmäßig Aufführungen produzieren. Als erste dieser Bühnen wurde 1973 „d.a.t. – das andere theater“ gegründet, das sich bis 1978 regelmäßig vor allem mit aktuellen Kinderstücken, Studioproduktionen und alternativen Theaterexperimenten einen Namen machte. Die heutige Vielfalt im Amateurtheaterbereich gibt es sonst nur in weitaus größeren Städten wie Hamburg oder Hannover. Darüber hinaus gibt es in vielen umliegenden Gemeinden Amateurtheater, wie das Puschentheater in Melbeck und das Kleine Salzhäuser Theater (KleiST) in Salzhausen. Museen. Die historische Stadt ist zwar schon per se eine Art Freilichtmuseum („Rothenburg des Nordens“), doch sie wird zusätzlich durch einige Museen belebt. Die wichtigsten Museen sind das Deutsche Salzmuseum in den Gebäuden der ehemaligen Saline, in dem die Bedeutung von Salz im Mittelalter und die Salzgewinnung anschaulich vor Augen geführt wird, das Ostpreußische Landesmuseum, das die Kultur und Geschichte des ehemaligen Ostpreußens von der Urgeschichte bis 1945 zeigt, sowie das in direkter Nachbarschaft befindliche Brauereimuseum mit wertvoller Trinkgefäßegalerie (aus 1200 Jahren). Erwähnenswert, aber wegen Umbaumaßnahmen für länger geschlossen, sind das Museum für das Fürstentum Lüneburg, in dem die Stadtgeschichte und die Geschichte der Umgebung dargestellt werden, sowie das Naturmuseum am Rande des Senkungsgebietes. Zeitgenössische Kunst stellt die Halle für Kunst Lüneburg e.V. aus. Bauwerke. Lüneburg gehört zu den wenigen Städten Norddeutschlands, die ihren historischen Kern unzerstört durch den Zweiten Weltkrieg retten konnten. Allerdings haben die Vernachlässigungen der Bausubstanz bis in die 1960er Jahre hinein und die Schäden im Senkungsgebiet zu Lücken im historischen Stadtbild geführt. Zusätzlich sorgten in den 1950er und 1960er Jahren der Abriss maroder Gebäude und der Bau von Kaufhäusern mit (damals) moderner Prägung für Brüche in der Optik so mancher Straßenzüge. Seit Anfang der 70er Jahre wird Lüneburg aber sorgsam und liebevoll restauriert. Dadurch kam es inzwischen zu Entdeckungen von zuvor verborgenen Deckengemälden, mittelalterlichen Töpferstuben und vieler historischer Sickergruben, durch die ein wesentlich besseres Bild vom Leben im Mittelalter entstanden ist. Besonders hervorzuhebende Gebäude sind die drei verbliebenen Stadtkirchen St. Johannis am Sande (Baubeginn 1289, vollendet 1470), die Kirche St. Michaelis, in der Johann Sebastian Bach von 1700 bis 1702 Chorknabe war, und die fast modern wirkende Stadtkirche "St. Nicolai", die ab 1407 erbaut wurde. Die Lambertikirche musste bereits 1861 wegen Baufälligkeit abgerissen werden: sie stand im Senkungsgebiet. Ihre Sonntagsglocke von 1712 und das Uhrwerk findet man heute im Dachreiter der Heiligengeistschule, dem alten „Spital zum Heiligen Geiste“, welches als Seniorenstift und Grundschule dient. Als eines der herausragendsten Baudenkmale Norddeutschlands kann das historische Lüneburger Rathaus mit seiner berühmten Gerichtslaube, dem ehemaligen Ratssaal, der von einem unbekannten Meister gestaltet wurde, angesehen werden. Es wurde um 1230 begonnen, über die Jahrhunderte immer weiter ausgebaut und gilt als größtes mittelalterliches Rathaus Norddeutschlands. Den vor dem Rathaus stehenden "Lunabrunnen" ziert eine bronzene Statue der Mondgöttin mit Pfeil und Bogen; das Original von 1532 wurde 1970 gestohlen und eingeschmolzen; die heutige Büste ist eine Nachbildung von 1972. Ebenfalls am Markt befindet sich das ehemalige Lüneburger Schloss der Herzöge von Braunschweig-Lüneburg, das seit 1925 das Landgericht beherbergt. Alle Baudenkmale Lüneburgs befinden sich in der Liste der Baudenkmale in Lüneburg. Ebenso interessant sind das "Glockenhaus" (altes Zeughaus) am "Glockenhof", die "Alte Raths-Apotheke" von 1598 in der "Großen Bäckerstraße". Im Bereich des alten Hafens steht noch die Barockfassade des "Alten Kaufhauses", das in seinen übrigen Teilen aber abgebrannt ist und durch einen Neubau (sinnigerweise für die Feuerwehr) ersetzt werden musste und modernisiert heute als Hotel genutzt wird, und der "Alte Kran", eine bis heute funktionsfähige mittelalterliche Holzkonstruktion, in deren Inneren zwei große Laufräder das Heben und Senken des Kranseils ermöglichen. Die Freiwillige Feuerwehr wurde im Herbst 2007 in neue Gebäude am Rand der Innenstadt verlegt, und in das "Alte Kaufhaus" ist jetzt ein Hotel eingezogen. Keine Spuren haben sich von der namensgebenden Lüneburg auf dem Kalkberg erhalten, der ebenfalls durch Gipsabbau nur noch wenig von seiner einstigen Größe erahnen lässt. Am Südrand der Innenstadt befindet sich der heute als Aussichtsturm dienende Wasserturm Lüneburg. Vor den Toren der alten Stadt findet sich zudem das Kloster Lüne, ein ehemaliges Benediktinerinnen-Kloster. Es wurde ab 1172 erbaut und ist gut restauriert. Etwa zwei Kilometer westlich von Lüneburg, in den Ortschaften Reppenstedt und Vögelsen gelegen, befindet sich ein gut erhaltener Abschnitt des Bodendenkmals Lüneburger Landwehr, der auch bewandert werden kann. Regelmäßige Veranstaltungen. 2012 haben in Lüneburg die Hansetage stattgefunden. Kulinarische Spezialitäten. Lüneburg ist für weitere besondere Leckereien bekannt: zum einen den Heidschnuckenbraten, zum anderen für den Stint, einen kleinen Fisch, der im Frühjahr Saison hat. Eine weitere kulinarische Rarität ist eine regional abweichende, dänisch beeinflusste Variante des Labskaus (Skipperlabskovs, umgangssprachlich auch Gammel danske kaus). Lüneburg hatte einst über 80 Brauereien. Die „Lüneburger Kronen-Brauerei von 1485“ in der Heiligengeiststraße braute in Norddeutschland sehr bekannte Biere wie das „Lüneburger Kronen-Pilsener“ und das „Moravia Pilsener“. Diese Biere werden heute von der Holsten-Brauerei AG in Hamburg gebraut, allerdings sind die Original-Hefestämme bei der Übernahme der Kronen-Brauerei vernichtet worden. Lediglich das ursprüngliche „Lüneburger Pilsener“ gibt es nach wie vor, wobei auch dieses inzwischen von der Holsten-Brauerei AG in Hamburg hergestellt und zwischenzeitlich nur noch im Fass verkauft wurde. Seit März 2011 wird „Lüneburger Pilsener“ in Kooperation mit der Holsten-Brauerei AG Hamburg auch wieder in Flaschen vertrieben. Heute gibt es nur noch zwei kleinere Gasthausbrauereien in Lüneburg. In der Gasthausbrauerei Nolte etwas außerhalb des Zentrums in der Dahlenburger Landstraße und im Brau- und Tafelhaus Mälzer in der Heiligengeiststraße lebt die Tradition Lüneburger Brauereien weiter. Wirtschaft und Infrastruktur. Lüneburg hat sich in den vergangenen Jahren mehr und mehr zu einem Anlaufpunkt für Touristen aus aller Welt hin entwickelt. Dennoch spielen das mittelständische produzierende Gewerbe und Kleinbetriebe immer noch eine starke Rolle im Lüneburger Wirtschaftsgeschehen. Veränderungen und Impulse ergeben sich auch aus der Universität Lüneburg, welche mit ihren Studierenden zur Vitalisierung der Region beiträgt. Industrie und Handwerk. Viele kleine und mittelständische Unternehmen sind in Lüneburg angesiedelt. Erwähnenswert sind unter anderen: im Textilbereich der Modehersteller Roy Robson (der Strickwarenhersteller Lucia, einst größter Arbeitgeber der Stadt, meldete 2008 Insolvenz an), im Lebensmittelbereich die Firmen DE-VAU-GE Gesundkostwerk als einer der größten deutschen Hersteller von vegetarischen Lebensmitteln, Pickenpack Production Lüneburg GmbH (ehemals Pickenpack Hussmann & Hahn Seafood GmbH) als eines der führenden europäischen Unternehmen im Bereich Tiefkühlfisch (Teil der Pacific Andes International Holdings Limited, Hongkong) und die Molkerei Lünebest, die heute Teil der Hochwald Foods ist. Im Industriebereich sind die größten ansässigen Firmen der Pkw-Innenausstatter Yanfeng Automotive Interiors, H. B. Fuller, die Impreglon SE und der Anbieter von Industrie-Elektronik die Sieb & Meyer AG. Ebenfalls in Lüneburg beheimatet ist mit der 1614 gegründeten von Stern’schen Druckerei die älteste noch in Familienbesitz befindliche Druckerei der Welt. Tourismus, neue Technologien und Dienstleistung. Für den Bereich Tourismus ist besonders der von der Stadtgärtnerei gestalteten Kurpark mit einem Gradierwerk, Teichen, vielen Blumenrabatten und Kräutergarten zu nennen, der direkt neben dem Kurzentrum gelegen ist. Das Kurzentrum umfasst Meerwasserwellenbad, Salztherme, Wellness- und Saunawelt usw. "(SaLü)", zudem gibt es einen Soletherapiebereich mit Anwendungen für Haut- und Atemwegsbeschwerden. Lüneburg ist kein Kurort wie das benachbarte Bad Bevensen, verfügt aber über besondere Heilmittel, wie zum Beispiel die Lüneburger Sole (etwa 26 % Salzgehalt), mit der besonders Psoriasiserkrankte Linderung erfahren. Darüber hinaus ist hier seit 1978 die Hauptverwaltung der Tagungshotelgruppe "Seminaris" angesiedelt. Im Bereich Technologien und Dienstleistungen ist das Innovations- und "Gründungszentrum e-novum" zu nennen, das sich mit der Förderung von jungen Unternehmen befasst. Die "Werum Software & Systems AG" ist das größte Unternehmen Lüneburgs aus dem Bereich der Informations- und Kommunikationstechnologie. Außerdem sind in Lüneburg die Landeskrankenhilfe, die Volksbank Lüneburger Heide und die Sparkasse Lüneburg ansässig. Medien. Am 18. Juli 2007 wandelte der Norddeutsche Rundfunk NDR sein langjähriges Korrespondenten-Büro "Auf dem Meere" hinter dem Rathaus in ein Studio um. Mehrmals täglich werden aus dem Lüneburger Studio regionale Informationen für Heide und Wendland, den Süden Hamburgs und die Niederelbe im Programm von NDR 1 Niedersachsen gesendet. Außerdem beliefert die Redaktion weitere NDR-Sender und die gesamte ARD, bei Groß-Ereignissen wie Elbe-Hochwasser oder Castor-Transporten. Mit Radio ZuSa gibt es auch einen lokalen Radiosender, dessen Sendungen in Lüneburg und in Uelzen produziert und gesendet werden. Im Jahr 2006 richtete die Filmproduktionsgesellschaft Studio Hamburg Traumfabrik Niedersachsen GmbH in der ehemaligen Europazentrale von Konica Minolta im Industriegebiet Hafen ihren Firmensitz und zwei Produktionsstudios ein. Seit dem 28. August 2006 wird hier die Telenovela "Rote Rosen" für Das Erste produziert. Lüneburg ist außerdem Sitz der "Gesellschaft für visuelle Kommunikation", der größten Kommunikationsagentur in Niedersachsen. Arbeitsschwerpunkt des Unternehmens ist das Handels- und Vertriebsmarketing. Die Landeszeitung für die Lüneburger Heide ist die lokale Tageszeitung für den Landkreis Lüneburg und angrenzende Gebiete. Die „Lüneburger Rundschau“ erschien bis zum 11. August 2012 zudem als tägliche Lokalausgabe des „Hamburger Abendblatts“. Zudem ist Lüneburg die Heimatstadt der Tatort-Hauptkommissarin Charlotte Lindholm (gespielt von Maria Furtwängler). In den Episoden „Heimspiel“ und „Schwarze Tiger, weiße Löwen“ ist Lindholm zumeist zu Besuch bei ihrer Mutter, wobei sich daraus immer ein Kriminalfall entwickelt. Schon im Jahr 1977 war Lüneburg Schauplatz einer Tatort-Episode. Damals ermittelte Kriminalhauptkommissar Heinz Brammer (gespielt von Knut Hinz) in der Folge „Das stille Geschäft“. Lüneburg war Hauptdrehort für den Märchenfilm "Die Krone von Arkus". Öffentliche Einrichtungen. Lüneburg ist Sitz des Niedersächsischen Oberverwaltungsgerichts, eines Landgerichts, sowie des erstinstanzlichen Amtsgerichts, der Regierungsvertretung Lüneburg als Nachfolgerin der zum 1. Januar 2005 aufgelösten Bezirksregierung, der Industrie- und Handelskammer Lüneburg-Wolfsburg, der Handwerkskammer Braunschweig-Lüneburg-Stade sowie der Polizeidirektion Lüneburg, der Polizeiinspektion Lüneburg/Lüchow-Dannenberg/Uelzen und des Bundespolizeireviers Lüneburg. Die alte Garnisonstadt (berühmt bis 1914 war das Dragoner-Regiment Nr. 16 in der Lüner Kaserne, heute ein lebendiger Gewerbepark) ist bis heute auch ein wichtiger Standort der Bundeswehr, auch wenn die Zahl der hier stationierten Soldaten seit den 1990er Jahren von etwa 9.000 auf heute rund 1.000 Soldaten abgenommen hat. In die einstige Scharnhorst-Kaserne ist die Universität Lüneburg gezogen, was als besonders gelungenes und fast einzigartiges Konversionsprojekt gilt. In einem Teil der Schlieffen-Kaserne sitzen heute Behörden wie das Verwaltungsgericht, das Arbeitsgericht, der Zoll, die Steuerfahndung, das Katasteramt. In der Theodor-Körner-Kaserne sind das Aufklärungslehrbataillon 3 (bis Juni 2007: Panzeraufklärungslehrbataillon 3), Logistikbataillon 3 (mit Teilen), das Sanitätszentrum Lüneburg, eine Fahrschulkompanie und einige Kleindienststellen stationiert. Sozialeinrichtungen. In Lüneburg besteht das Städtische Klinikum Lüneburg. Dieses Krankenhaus nimmt am Elbe-Heide-Krankenhausverbund teil, der mehrere Kliniken im südlichen Hamburger Umland umfasst. Die Lebenshilfe Lüneburg-Harburg betreut und fördert Menschen mit Behinderungen in dieser Region. Bildung. Schulen im Lüneburger Stadtteil Oedeme Die erste Schule in Lüneburg war die im 14. Jahrhundert gegründete Michaelisschule. Heute befinden sich in Lüneburg vier Gymnasien. Neben der Herderschule, der Wilhelm-Raabe-Schule und dem Gymnasium Oedeme befindet sich darunter mit dem 1406 gegründeten Johanneum Lüneburg auch eine der traditionsreichsten Schulen Deutschlands. Außer den Grund-, Haupt- und Realschulen sind besonders die drei Berufsbildenden Schulen am Schwalbenberg wichtig geworden. Einen wichtigen Platz im Bildungsangebot nimmt auch die Volkshochschule (Haagestraße 4) ein. Außerdem gibt es eine Rudolf-Steiner-Schule und eine Montessori-Grundschule. Die 1989 gegründete Universität Lüneburg (vormals Pädagogische Hochschule), die ihren Sitz in den Gebäuden einer der aufgelösten Kasernen hat, sowie das Zentrum der Fachhochschule Nordostniedersachsen (mit Studienstandorten in Lüneburg, Suderburg und ehemals Buxtehude) sind Hilfen bei der Umstrukturierung der Stadt von einer Garnisonsstadt zu einem Dienstleistungszentrum. Seit dem 1. Januar 2003 ist die Universität eine Stiftung des Öffentlichen Rechts. Am 1. Januar 2005 wurden Universität und Fachhochschule unter dem Dach der Stiftung "Universität Lüneburg" fusioniert. Mit der Neuorientierung der Universität Lüneburg wurde diese am 21. März 2007 in Leuphana Universität Lüneburg umbenannt. Eine der größten außerschulischen Bildungseinrichtungen befindet sich in der Bockelsberghütte. Diese im Stadtteil Bockelsberg gelegene Jugendbildungsstätte ist eines der wenigen freistehenden Fachwerkhäuser Lüneburgs und beherbergt nach seiner Renovierung mehrere Träger der freien Jugendhilfe. Die Handwerkskammer Braunschweig-Lüneburg-Stade unterhält am Standort Lüneburg ein Technologiezentrum (TZH) für die berufliche Aus- und Weiterbildung in Handwerksberufen. Das TZH Lüneburg verfügt über 43 Werkstätten mit 639 Arbeitsplätzen und 17 Unterrichtsräume mit 402 Plätzen. Pro Jahr werden dort etwa 10.000 Auszubildende in 23 unterschiedlichen Handwerksberufen im Rahmen der Technologischen Lehrlingsqualifizierung geschult. Außerdem erfolgt dort jährlich die Meisterausbildung für etwa 700 und die Technische Fort- und Weiterbildung für etwa 2.000 Handwerker. Zum TZH gehört ein Gästehaus mit 81 Zimmern und 213 Betten, in dem jährlich über 35.000 Übernachtungen stattfinden. Eisenbahn. Stadt und Landkreis Lüneburg sind seit Dezember 2004 Teil des Hamburger Verkehrsverbundes. Durch seine Nähe zu Hamburg und seine verkehrsgünstige Lage ist Lüneburg leicht erreichbar. Der Lüneburger Bahnhof liegt an der Hauptstrecke Hamburg-Hannover und wird von Zügen der Deutschen Bahn AG, der erixx GmbH und der Metronom Eisenbahngesellschaft angefahren. Die Fahrtzeit zum Hamburger Hauptbahnhof beträgt etwa 30 Minuten. Neben Regionalzügen halten in Lüneburg auch Intercity-Züge und einzelne ICE auf der Fahrt von und nach Hamburg. Nach Nordosten zweigt die Verbindung über Elbe nach Lübeck ab. Über eine Stichbahn wird der Dannenberger Raum versorgt; diese Linie, die Wendlandbahn, ist durch die auf ihr stattfindenden Atommüll-Transporte nach Gorleben bekannt geworden. Von Lüneburg aus betreibt die OHE mehrere Bahnstrecken im Güter- und Ausflugsverkehr. Die Haltepunkte "Lüneburg-Kurpark", "Oedeme" und "Rettmer" werden nur noch von einem unregelmäßigen Museumsverkehr bedient. Die Station "Ochtmissen" wurde bereits vollständig demontiert. Straßenanbindung. Lüneburg verfügt über einen Autobahnanschluss der Bundesautobahn 39. Diese Autobahn soll in den nächsten Jahren in Richtung Süden bis Wolfsburg und Braunschweig verlängert werden, sodass mehrere Anschlussstellen im Stadtgebiet entstehen werden. Lüneburg ist über die Bundesstraßen B 4, B 209 und die B 216 an das Bundesstraßennetz angebunden. Die längste Straße Lüneburgs ist die "Dahlenburger Landstraße". Busverkehr. Der öffentliche Nahverkehr Lüneburgs wird von der KVG Stade betrieben. Nachdem sich Pläne zum Bau einer Straßenbahn zerschlagen hatten, bestand ab spätestens 1926 ein bescheidener Stadtbusverkehr, der schlecht genutzt wurde und deshalb 1934 außer Betrieb ging. Ab 1935 betrieb die Firma Röhlsberger eine Hauptlinie Bahnhof – Kurpark – Neulindenau mit Nebenästen nach Hagen (Gellersstraße), zur Heil- und Pflegeanstalt und zu Ausflugszielen im südlichen Bereich der Stadt. Kurze Zeit später wurde das Netz auf eine Hauptlinie zwischen dem Fliegerhorst und der Scharnhorst-Kaserne reduziert, die große Teile der Stadt anband. Ein umfangreicheres Netz entstand nach dem Krieg; 1955 gab es 5 Linien. 1982 wurde die Firma Röhlsberger verkauft und zum Tochterunternehmen „KVG Lüneburg“ der „KVG Stade“. Gegenwärtig besteht ein innerstädtisches Stadtbusnetz mit sechs Durchmesserlinien und sieben Radiallinien, die sämtlich über den "Bahnhof/ZOB" führen und bis auf zwei Ausnahmen auch den zentralen Stadtplatz Am Sande anfahren. Bis auf den Stadtteil Wilschenbruch und den alten Kern des Stadtteils Hagen, die nicht an das Verkehrsnetz der KVG angebunden sind, wird durch die in Betrieb befindlichen 13 Linien in allen Stadtteilen eine hohe Raumerschließung erreicht. Einzelne Linien führen über die Stadtgrenze hinaus bis in die angrenzenden Umlandgemeinden Adendorf, Bardowick, Mechtersen/Vögelsen und Reppenstedt. Auf allen Linien wird ein Taktfahrplan angeboten. Auf den meisten von ihnen besteht in der Hauptverkehrszeit montags bis freitags zwischen 5:00 und ca. 19:00 Uhr ein 20- oder 30-Minuten-Takt und danach bis 21:00 Uhr ein Halbstundentakt. Sonnabends wird von 6:00 bis 20:00 Uhr sowie sonn- und feiertags von 13:00 bis 20:00 Uhr überwiegend alle 30 bzw. alle 60 Minuten gefahren (Stand Fahrplan 2011). In den späteren Abendstunden und den sonstigen Verkehrsruhezeiten steht ein sogenanntes ASM (Anrufsammelmobil) für den öffentlichen Nahverkehr bereit. Durch die Überlagerung einiger Linienäste wird während der Hauptverkehrszeit in manchen Stadtteilen eine häufigere Anbindung erreicht. Am dichtesten sind die Verbindungen in den Stadtteil Kaltenmoor und zur Universität, die alle 10 Minuten vom Bahnhof und der Innenstadt zu erreichen sind. Seit Ende 2004 ist der Lüneburger Stadtverkehr dem Hamburger Verkehrsverbund (HVV) angeschlossen. Bis zu diesem Zeitpunkt hatte der KVG-Stadtbusverkehr ein- bis zweistellige Liniennummern. Mit dem Anschluss wurden die alten Nummern zum großen Teil beibehalten und mit dem Präfix 500 bzw. 50 versehen. Seitdem tragen die Stadtbuslinien die Nummern 5001–5015. Im Überlandverkehr ist Lüneburg Ausgangspunkt zahlreicher Linien, unter anderem in die stadtnahen Umlandortschaften Deutsch Evern, Wendisch Evern, Embsen, Melbeck, Scharnebeck sowie zu wichtigen Unterzentren des Landkreises nach Amelinghausen, Bleckede, Dahlenburg und Neetze. Weitere Verbindungen bestehen zu den in den Nachbarkreisen gelegenen Städten und Ortschaften Winsen, Lüchow, Hitzacker, Niedermarschacht und Salzhausen. Auch der regionale Busverkehr gehört zum Hamburger Verkehrsverbundes (HVV). Er wird im nördlichen und westlichen Umland von der KVG sowie im südlichen und nordöstlichen Verkehrsgebiet überwiegend von den Verkehrsbetrieben Osthannover GmbH (VOG) betrieben. Die Linienkennzeichnung ist einheitlich und erfolgt nach Richtungssektoren durch Zahlen zwischen 100 und 970 ebenfalls mit dem Lüneburger Präfix 5xxx. Auf mehreren Linien besteht an Werktagen tagsüber ebenfalls ein 1-Stunden-Takt, so unter anderem nach Bleckede (Linie 5100), Deutsch Evern und Wendisch Evern (Linien 5610 und 5620) sowie nach Melbeck/Embsen (Linie 5600) und nach Salzhausen (Linie 5200). Nach Bleckede (5100) fährt auf der Linie 5100 werktags nachmittags alle 30 Minuten ein Bus. Die längste Regionallinie (5304) führt nach Lüchow. Schiffsverkehr. Durch einen Hafen am Elbe-Seitenkanal ist Lüneburg von der Elbe und dem Mittellandkanal aus erreichbar. Im 17 ha großen Hafenkerngebiet werden jährlich 200.000 Tonnen Massengüter umgeschlagen. Luftverkehr. Am östlichen Stadtrand befindet sich der Flugplatz Lüneburg. Ehrenbürger. Die Archive der Stadt verzeichnen erst ab 1800 die Aufnahme von Ehrenbürgern. Sonstiges. Das Lüneburger Ratssilber ist der größte erhaltene Silberschatz einer deutschen Stadt. Alle seine Stücke entstammen der Zeit zwischen 1443 und 1620. Die Originale des Ratssilbers sind nicht in Lüneburg zu sehen, sondern im Kunstgewerbemuseum Berlin (im Kulturforum am Potsdamer Platz) verwahrt; im Lüneburger Rathaus befinden sind aber originalgetreue Galvanoplastiken. Mit einer Gaststättenkonzession (Restaurants, Cafés, Kneipen, Bistros, Dönerbuden usw.) pro zirka 200 Einwohner reklamiert Lüneburg (wie einige andere Städte in Deutschland) für sich die größte Kneipendichte Deutschlands und nach Madrid die zweitgrößte Europas. Viele der etwa 350 Gaststättenbetriebe liegen in der Altstadt um den "Stintmarkt", den "Markt", die "Heiligengeiststraße", die "Schröderstraße" und den Platz "Am Sande" herum, meist in historischen Gebäuden. Das Aufklärungslehrbataillon 3 erhielt am 30. September 2008 als Ehrung der Stadt den Beinamen „Lüneburg“. Leopoldo Galtieri. Leopoldo Fortunato Galtieri Castelli (* 15. Juli 1926 in Caseros, Provinz Buenos Aires; † 12. Januar 2003 in Buenos Aires) war in den Jahren 1976 bis 1983 ein hohes Mitglied der Militärregierung Argentiniens und "de facto" zwischen 1981 und 1982 Präsident des Landes. Das Batallón de Inteligencia 601, eine Einheit, der Morde und schwerste Menschenrechtsverletzungen vorgeworfen wurde, berichtete direkt an ihn. Er war die treibende Kraft hinter der Invasion der von Argentinien beanspruchten Falklandinseln (spanisch: "Islas Malvinas") im April 1982, welche zum Falklandkrieg zwischen Argentinien und Großbritannien führte. Die Hauptstadt der Falklandinseln, Stanley, wurde im Juni 1982 von den Briten zurückerobert, was die argentinische Niederlage besiegelte. Innerhalb weniger Tage wurde Galtieri entmachtet. Ende 1983 wurde er verhaftet und vor einem Militärgericht wegen Menschenrechtsverletzungen während der Argentinischen Militärdiktatur und Missmanagements während des Falklandkrieges angeklagt. Der Untersuchungsbericht des argentinischen Militärs wurde nach dem untersuchenden General Rattenbach benannt. Der Rattenbach-Bericht empfahl, Galtieri alle militärischen Ränge abzuerkennen und ihn erschießen zu lassen. 1986 wurde er zu einer 12-jährigen Haftstrafe verurteilt. 1989 wurde er zusammen mit 39 weiteren Offizieren, die wegen Verbrechen während der Diktatur verurteilt worden waren, von Präsident Carlos Menem begnadigt. Lanzarote. Lanzarote [,] ist die nordöstlichste der sieben großen Kanarischen Inseln, die im Atlantischen Ozean eine von Spaniens siebzehn autonomen Gemeinschaften bilden. Lanzarote liegt rund 140 Kilometer westlich der marokkanischen Küste und rund eintausend Kilometer vom spanischen Festland entfernt. Hauptverkehrsanbindung ist der Flughafen Arrecife. Als erste vollständige Insel wurde Lanzarote 1993 von der UNESCO zum Biosphärenreservat erklärt. Verwaltung. Lanzarote gehört zur spanischen Provinz Las Palmas der Autonomen Region Islas Canarias und ist in die sieben Gemeinden Arrecife, Haría, San Bartolomé, Teguise, Tías, Tinajo und Yaiza gegliedert. Die Hauptstadt Lanzarotes ist Arrecife, die Landessprache Spanisch. Geographie. Lanzarote misst von Nord ("Punta Fariones") nach Süd ("Punta Pechiguera") rund 58 Kilometer und in der größten Ost-West-Ausdehnung 34 Kilometer. Mit einer Fläche von 845,94 Quadratkilometern hat die Insel einen Flächenanteil von 11,29 Prozent an der Gesamtfläche aller Kanaren. Südlich von Lanzarote liegt in 11,5 Kilometern Entfernung die Insel Fuerteventura, und im Norden etwa einen Kilometer entfernt der Chinijo-Archipel mit den kleinen Inseln La Graciosa, Montaña Clara, Alegranza, Roque del Oeste und Roque del Este. Von den insgesamt 213 Kilometern Küste sind zehn Kilometer Sand- und 16,5 Kilometer Kiesstrand, der Rest ist Felsküste. Auf der Insel gibt es zwei Gebirgszüge. Im Norden der Insel steigt das "Famara-Massiv" mit dem Gipfel "Peñas del Chache" auf an, und im Süden der "Los Ajaches" auf. Südlich des Famara-Massivs schließt sich die Sandwüste "El Jable" an, die das Famara-Massiv von den so genannten Feuerbergen ("Montañas del Fuego") des Timanfaya-Nationalparks trennt. Im Timanfaya-Gebiet ereigneten sich zuletzt von 1730 bis 1736 und 1824 starke Vulkanausbrüche, die große Teile des fruchtbarsten Ackerlandes und mehrere Dörfer und Gehöfte mit zusammen etwa 420 Häusern unter sich begruben. Der Rest der Insel ist durch eine Hügellandschaft mit markant aufragenden Vulkankegeln geprägt. Klima. Lanzarote liegt in der Passatzone, was dazu führt, dass auf der Insel ganzjährig frische Winde aus Nord bis Nordost wehen. Lanzarote besitzt ein ganzjährig mildes und niederschlagsarmes arides Klima, da die Passatwinde an der relativ flachen Insel meist nicht abregnen. Die Lufttemperatur liegt im Jahresdurchschnitt bei 20,5 °C. Der Monatsdurchschnitt beträgt im Januar 16,9 °C und im August 24,7 °C. Die Wassertemperatur des Atlantischen Ozeans schwankt durch das Aufquellen kalten Tiefenwassers vor der nordwestafrikanischen Küste und dem Kanarenstrom zwischen 17 °C im Winter und 22 °C im Sommer. Niederschläge. Mit 112 Millimetern Niederschlag pro Jahr ist Lanzarote die trockenste der Kanarischen Inseln, davon fallen allerdings etwa 85 Prozent von Januar bis März. Die relative Luftfeuchtigkeit beträgt im Mittel 70 Prozent. Im gebirgigen Norden können mit bis zu 300 Millimetern pro Jahr deutlich mehr Niederschläge fallen als im Süden. Dort können die vom Atlantik kommenden nordöstlichen Passatwinde auf das Famara-Massiv mit dem höchsten Punkt von treffen, welches damit im untersten Bereich der Kondensationszone liegt. Die Passatwinde stauen sich nur bei starker Zirkulation und werden zum Aufstieg gezwungen. Die feuchte Atlantikluft kühlt während des Aufstiegs um 1 K (1 °C) pro hundert Meter ab (trockenadiabatische Abkühlung). Da die kühlere Luft jedoch weniger Wasserdampf speichern kann, die absolute Menge an Wasserdampf aber gleich bleibt, kondensiert der Wasserdampf, wenn die Sättigungsgrenze erreicht ist. Es entstehen Wolken, beziehungsweise Nebel. Die Feuchtigkeit aus den Wolken reicht aus, um in diesem Gebiet Landwirtschaft in Form von Trockenfeldbau zu betreiben (siehe Absatz Landwirtschaft). Die Feuchtigkeit reicht ebenfalls aus, um im Tal der 1000 Palmen, in der Gegend um Haría, einen für Lanzarote ungewöhnlichen Anblick zu schaffen. Mit den vielen Palmen (kanarische Dattelpalme, "Phoenix canariensis") und der besonders im Frühling üppigen Vegetation findet man in diesem Tal eine „grüne Oase“ auf der ansonsten sehr vegetationsarmen Insel. Wasserversorgung. Die Wasserversorgung stellte auf der niederschlagsarmen Insel schon immer ein Problem dar. Rund 25 Prozent des Wasserbedarfs wurde in den 1950er Jahren durch wasserführende Stollen im Famara-Massiv gedeckt. Von den sieben wasserführenden Stollen wurden 1950 vier genutzt, heute nur noch einer, da sinkende Grundwasserstände zu einem Nachdrücken von schwererem Meerwasser und damit zu einer Versalzung (Brackwasser) des Grundwassers geführt haben. Durch den in den 1950er Jahren einsetzenden Tourismus stieg der Wasserbedarf auf Lanzarote sprunghaft an, so dass mit Tankschiffen Wasser von den Nachbarinseln Teneriffa und Gran Canaria auf die Insel transportiert werden musste. Ursprünglich wurde der Niederschlag auch mittels großer befestigter Flächen ("Eras" oder auch "Alcogidas" genannt) gesammelt und in großen Zisternen ("Ajibes") gespeichert, um es für den Verbrauch im Haus, für Tiere und die Landwirtschaft zu nutzen. Diese Anlagen aus befestigten Flächen, mit ihren teilweise eigenwilligen Außenformen an den Berghängen Lanzarotes, prägen in manchen Regionen die Landschaft. Mit der Einführung der Meerwasserentsalzungsanlagen und der Verfügbarkeit von Leitungswasser fast überall, haben die Eras und Ajibes in der Nutzung an Bedeutung verloren. Sie haben aber über Jahrhunderte das Leben auf Lanzarote ermöglicht und sind als Bauwerke die Landschaft prägend und kulturhistorisch von Bedeutung. 1964 wurde östlich von Arrecife die erste Anlage zur Meerwasserentsalzung gebaut, die in den folgenden Jahren ständig erweitert wurde und noch heute in Betrieb ist. Die Herstellung von Süßwasser in Meerwasserentsalzungsanlagen stellt ein ökologisches Problem dar. Die Gewinnung von Süßwasser braucht viel Energie, was bedeutet, dass zusätzlich Erdöl importiert werden muss. Im Durchschnitt verbraucht jeder Tourist auf den Kanaren pro Tag etwa 230 Liter Wasser, die Einheimischen jedoch nur 138 Liter. Wetterphänomene. Auf Lanzarote, wie auch auf den anderen Kanarischen Inseln, kann es mehrmals im Jahr zu einer besonderen Wetterlage, Calima genannt, kommen. Sie entsteht, wenn über der Sahara Staubpartikel durch Sandstürme und starke Thermik bis in große Höhen transportiert werden. Mit südöstlichen Winden werden diese Aerosole dann weit auf den Atlantik hinaus transportiert. Während solcher Wetterlagen sinkt die Sichtweite auf der Insel bis auf wenige 100 Meter ab. Die Luft ist dann voller Staub und der Himmel erscheint in einem unwirklichen Rot- bis Braunton. Der hohe Gehalt an Aerosolen in der Luft kann dazu führen, dass der Luftverkehr eingestellt oder umgeleitet werden muss, da aufgrund der Topographie Lanzarotes Flugzeuge den Flughafen Guacimeta (ACE) aus Norden nur mit ausreichender Pilotensicht anfliegen können. Von den Einheimischen (Conejeros) wird dieser heiße Südostwind "Levante" oder auch "Calima" genannt. Während dieser Wetterlage können die Temperaturen zeitweise auf über 40 °C ansteigen. Geologie. Lanzarote ist eine Insel vulkanischen Ursprungs. Vor rund 36 Millionen Jahren begannen wiederholte unterseeische Vulkanausbrüche den Sockel der Insel zu bilden. Diese Eruptionen entstanden als Erscheinungen von Intraplattenvulkanismus durch Kontinentaldrift und Hotspot-Vulkanismus. Ausführlicheres dazu im Artikel Kanarische Inseln. Vor 15,5 Millionen Jahren wuchs Lanzarote über die Meeresoberfläche hinaus. Das Geodynamische Labor Lanzarote erforscht die dazugehörigen terrestrischen, ozeanischen und atmosphärischen Phänomene. Erste Berichte durch Griechen und Römer. Durch die Nähe zu Afrika und dem europäischen Kontinent war Lanzarote wohl die erste Kanarische Insel, die besiedelt wurde. Vermutlich besuchten die Phönizier bereits im 10. Jahrhundert v. Chr. die Insel, wie die Altersbestimmung phönizischer Funde bei Teguise ergeben hat. Auch die griechischen Schriftsteller und Philosophen Herodot, Platon und Plutarch berichten vom Garten der Hesperiden, vom Land der Fruchtbarkeit, wo Obst und Blumen in der Brise des Atlantikwindes duften, und Homer beschreibt in der Odyssee einen paradiesischen Ort (die elysischen Gefilde). Es ist aber unklar, um welche Inseln es sich konkret handelt. Die ersten historischen Aufzeichnungen zu den Kanaren stammen von Pomponius Mela sowie von Plinius dem Älteren mit seiner enzyklopädischen Naturkunde Naturalis historia und Claudius Ptolemaeus, welche auch die Identifizierung einzelner Kanareninseln erlauben. Eine erste Expedition zu den Kanarischen Inseln erfolgte dabei nach Plinius durch König Juba II. von Mauretanien. Die für die einzelnen Inseln vergebenen Namen der "Insulae Fortunatae" (Inseln der Glückseligen) lauten: Canaria=Invallis (Gran Canaria), Ninguaria=Planasia (Teneriffa), Inaccessa (La Palma), Iunonia (Lanzarote und Fuerteventura), Pluvialia=Ombrios (Gomera) und Capraria (El Hierro). Man glaubt, dass Fuerteventura und Lanzarote miteinander verbunden waren, denn beide, und auch Lobos, werden nicht einzeln erwähnt, jedoch ein Archipel. Archäologische Funde, die auf das 1. Jahrhundert v. Chr. datiert werden konnten, belegen die Anwesenheit der Römer auf Lanzarote. Die Wiederentdeckung durch Araber und Europäer. In den nachfolgenden Jahrhunderten gerieten die Kanaren nach dem Zusammenbruch des Römischen Reichs wieder in Vergessenheit und wurden im Jahr 999 n. Chr. durch "Ben Farroukh" wiederentdeckt. Die Araber gaben den Inseln den Namen "Al Djezir al-Khalida" (Glückliche Inseln) und lehnten sich damit an den Namen der Römer an. Im Jahr 1336 stach von Lissabon aus eine Flotte unter der Führung von "Lanzarote da Framqua" alias Lancelotto Malocello in See, um das damalige Ende der europäischen Welt zu erforschen, das zu jener Zeit vor der nordwestafrikanischen Küste lag. Lancelotto Malocello umsegelte das Kap der Angst (Kap Bojador) nie, entdeckte aber die Kanarischen Inseln erneut und ließ sich auf Lanzarote nieder. Zur Zeit des Aufenthaltes von Malocello auf Lanzarote herrschte dort "König Zonzamas" mit seiner Frau "Fayna". Sie soll eine Nacht mit dem Adligen aus Vizcaia auf dem spanischen Festland namens "Martin Ruiz de Avendaño" verbracht haben, der 1377 die Insel erreichte. Aus dieser Nacht ist der Überlieferung nach Tochter "Icó" hervorgegangen. König Zonzamas und seine Frau hatten die beiden Söhne "Tigufaya", der wurde Thronfolger und mit Frau und weiteren Einwohnern 1393 verschleppt, und "Guanarame", der danach Thronfolger wurde. Die wohl uneheliche Tochter Icó heiratete Guanarame und bekam Luis de Guardafía als Sohn. Dessen Tochter hieß Teguise und gab der ehemaligen Hauptstadt der Insel ihren Namen. Sie heiratete Jean de Béthencourts Neffen "Maciot de Béthencourt". In der Nähe der heutigen Stadt Teguise baute er auf dem "Montaña de Guanapay" ein kleines Fort. Wieder in Portugal angekommen, erreichte er es, dass die von ihm entdeckte und in Besitz genommene Insel in der Weltkarte des Angelino Dulcert als "Insula de Lanzarotus Marocelus" eingezeichnet wird. Seither soll Lanzarote seinen Namen tragen. Die Unterwerfung durch Europäer. Jean de Béthencourt (stilisierte Darstellung) Angelockt sowohl durch wertvolle Rohstoffe wie Orseille (rote Färberflechte) als auch durch Sklaven, unternahm Jean de Béthencourt 1402 eine Expedition unter König Heinrich III. von Kastilien zu den Kanarischen Inseln. Er ging im Süden Lanzarotes (von den Guanchen noch "Titeroygatra" genannt), bei den Papagayo-Stränden an Land und konnte den einheimischen Inselkönig "Guardafía" davon überzeugen, mit ihm friedlich zusammenzuarbeiten, indem er ihm Schutz vor portugiesischen und spanischen Menschenhändlern anbot. Mit seiner Hilfe konnte er in der Rubicón-Ebene eine Festung bauen. Dies war jedoch eine Täuschung, da Béthencourt den Frieden nutzte, um die anderen Inseln zu erobern. Er stellte aber bald fest, dass seine Ausrüstung und die ihm zur Verfügung stehenden Soldaten nicht ausreichten, die Kontrolle über alle Inseln zu erlangen. Béthencourt begab sich somit zurück aufs Festland. Während seiner Abwesenheit nutzte Gadifer de la Salle die kleine vorgelagerte Insel Los Lobos als Stützpunkt. Hier führte "Bertín de Berneval" dann aber einen Aufstand und nahm Einheimische als Sklaven mit nach Spanien. "Gadifer" hatte nun kein Schiff mehr und verdurstete beinahe auf Lobos, während die Einheimischen mit dem Töten von Europäern begannen. Mit Hilfe des Guanchen "Atchen" wollte "Gadifer" seine Leute rächen. Atchen nahm den König "Guardafía" auf Lanzarote gefangen und wollte selbst an die Macht. "Guardafía" konnte jedoch fliehen und ließ "Atchen" lebendig verbrennen. Béthencourts mitgebrachte Geistliche tauften "Guardafía" und beeilten sich mit der Taufe vieler Guanchen, was diese zu Sklaven machte. Zu Béthencourts Rückkehr 1404 war Lanzarote unterworfen. So konnte man sich gut gerüstet der Eroberung der Nachbarinsel Fuerteventura widmen. Béthencourts weniger erfolgreicher Neffe "Maciot de Béthencourt" blieb als sein Stellvertreter auf Lanzarote. Er nahm sich die Tochter namens Teguise des bisherigen Herrschers "Guardafia" zur Lebensgefährtin, und benannte den damaligen Ort "Acatife" nach ihr. Rubicón bei den Papagayo-Stränden wurde erster Bischofssitz durch Benedikt XIII. Bischof "Alfonso Sanlúcar de Barrameda" zeigte "Maciot de Béthencourt" wegen seines tyrannischen Verhaltens bei der Spanischen Krone an ("siehe auch:" Liste der Bischöfe der Kanarischen Inseln). Daraufhin übergab "Enrique de Guzmán", Graf von Niebla 1430 auf Befehl der Krone den Besitz der bisher eroberten Inseln an "Guillén de las Casas". 1435 übernahm "Fernán Peraza" durch Erbschaft diesen Besitz. Auf Druck von Béthencourt besetzten Portugiesen Lanzarote, wurden aber nach zwei Jahren von dort vertrieben. Auf Hernán Peraza folgte der Ehemann der "Inés Peraza", "Diego Herrera", welcher Lanzarote und Fuerteventura auf seine Kinder "Sancho de Herrera", "María de Ayala" und "Constanza de Samiento" verteilte. In den nachfolgenden Jahren ist die Geschichte Lanzarotes durch immer wiederkehrende Überfälle von Piraten gekennzeichnet. Der schlimmste ereignete sich im Jahr 1618, als die Piraten "Jabán" und "Solimán" das Versteck der Einheimischen in den Höhlen der Cueva de los Verdes entdeckten, und rund 1000 Inselbewohner gefangen nahmen, um sie anschließend auf dem afrikanischen Sklavenmarkt zum Verkauf anzubieten. Naturkatastrophen im 18. Jahrhundert. Die unterirdische Hitze des Timanfaya-Vulkans reicht noch heute aus, um einen Heuballen zu entzünden 1730 kam es auf Lanzarote zu schweren Vulkanausbrüchen. Am 1. September bildeten sich auf einer Strecke von 18 Kilometern 32 neue Vulkane. Die Ausbrüche, die von dem Pfarrer von Yaiza, Andrés Lorenzo Curbelo, bis 1731 detailliert dokumentiert wurden, dauerten insgesamt 2053 Tage und endeten im Jahr 1736. Am Ende hatte die Lava rund ein Viertel der Inselfläche unter sich begraben, darunter die fruchtbarsten Böden der Insel und mehrere Dörfer und Gehöfte. Stattdessen entstanden an dieser Stelle rund hundert neue Vulkane, die den Namen "Montañas del Fuego" (Feuerberge) erhalten haben. Anfangs war es den Inselbewohnern unter Androhung von Strafe verboten, die Insel zu verlassen, da die Inselführung befürchtete, keine Arbeitskräfte mehr zur Verfügung zu haben. Die Versorgung mit Lebensmitteln verschlechterte sich aber zusehends, so dass der Hälfte der Bevölkerung erlaubt wurde, auf die Nachbarinsel Gran Canaria auszuwandern. 1768 kam es zu einer Dürrekatastrophe, nachdem die Winterniederschläge mehrere Jahre lang ausblieben. Die Dürre forderte zahlreiche Tote, viele Bewohner wanderten auf die Nachbarinseln oder nach Kuba und Amerika aus. Im Jahre 1824 kam es zu einem erneuten Vulkanausbruch im Bereich von Tiagua, der aber bei weitem nicht so folgenreich war wie die Ausbrüche in den Jahren 1730 bis 1736. 1974 wurde der Timanfaya-Nationalpark gegründet. Flora und Fauna. Lanzarote besitzt aufgrund der geringen Niederschläge eine karge Flora. Deshalb herrschen hier wasserspeichernde (Sukkulente), gegen Trockenheit resistente (Xerophyten) und salztolerante Gewächse (Salzpflanzen) vor. Es sind insgesamt rund 570 Arten auf der Insel anzutreffen, darunter einheimische und eingeschleppte, aber auch 13 inselendemische Arten, die nur auf Lanzarote vorkommen, und 55 kanarenendemische, die nur auf den Kanarischen Inseln vorkommen. Flechten als niedere Pflanzen beginnen mit der Besiedlung des jungen Lavagesteins. Bisher wurden 180 unterschiedliche Flechten gezählt. Sie leiten die Sukzession ein, das bedeutet, dass sie den Übergang zu höheren Pflanzenarten schaffen. An diesen fortgeschrittenen Stellen wachsen Euphorbien (Wolfsmilchgewächse, auf den Inseln "tabaiba" genannt). Diese Pflanzen haben sich in erstaunlicher Weise an die Wasser- und Nährstoffarmut angepasst. Im feuchteren Norden ist die Artenvielfalt größer. Hier findet man die Kanarische Dattelpalme ("Phoenix canariensis"), verschiedene Farnarten, Kanarische Kiefern ("Pinus canariensis") und vereinzelt den wilden Ölbaum ("Olea europaea"). Nach den winterlichen Regenfällen erwacht im Februar und März die Vegetation im Norden und verwandelt die karge Landschaft in eine Blühende. In der Vergangenheit sollen Lorbeerwälder die Hochflächen des "Risco de Famara" bedeckt haben. Ein kleiner Rest dieses Waldes befindet sich noch heute an der höchsten Stelle der "Famara"-Steilküste. Außer Fledermäusen gelangten vermutlich alle anderen Säugetiere durch den Menschen auf die Insel. Darunter auch Dromedare, die als Arbeits- und Lasttiere gefragt waren, da sie perfekt an die Umweltbedingungen angepasst waren. Heute werden diese Tiere hauptsächlich im Tourismus eingesetzt. 1985 wurde auf Fuerteventura die Kanaren-Spitzmaus ("Crocidura canariensis") entdeckt und 1987 als eigene Art beschrieben. Diese Spitzmausart wurde nachfolgend auch auf Lanzarote und zwei der Hauptinsel vorgelagerten, unbewohnten Eilanden nachgewiesen. Die Vogelwelt umfasst rund 35 Arten, darunter der seltene Eleonorenfalke, aber auch Wanderfalken und Fischadler. Unter den Reptilien findet sich die Ostkanareneidechse ("Gallotia atlantica"), die vornehmlich im Inselnorden vorkommt. Eine außergewöhnliche Besonderheit ist der kleine Albinokrebs ("Munidopsis polymorpha", Ordnung Remipedia), der in der unterirdischen Lagune von Jameos del Agua vorkommt. Diesen Krebs findet man ansonsten nur in einer Wassertiefe von mehreren tausend Metern. Unklar bleibt, wie er dorthin kam. Landwirtschaft. Auf etwa 2300 Hektar wird auf Lanzarote Wein (siehe hierzu auch den Artikel Lanzarote (Weinbaugebiet)) angebaut. Die bedeutendsten Rebsorten sind der rote Listán Negro und "Negramoll". Weißweine werden aus "Listán Blanco", "Malvasia", "Moscatel" und "Diego" hergestellt. Das Weinanbaugebiet La Geria ist ein Naturschutzgebiet und für seine traditionelle Anbaumethode auf Lapilli bekannt (span.: "enarenado natural"). Die teilweise meterdicke dunkle Lapillischicht (Vulkanasche, auch Picón genannt) wird nutzbar, da sie tagsüber aufheizt und nachts Feuchtigkeit aus der Luft aufsaugt. Weil es hier nur sehr selten regnet, wird so das Wasser gespeichert. Die Wurzeln der angebauten Pflanzen und der Weinreben können so bis in den darunter liegenden Boden dringen, welcher dazu noch vor Erosion geschützt ist. Hier in La Geria gibt es in dem Ort "Masdache" die Bodega "El Grifo" mit eigenem Weinmuseum. Diese Art des Trockenfeldbaus hat sich auf etwa 8000 Hektar im mittleren und nördlichen Teil der Insel verbreitet. Das älteste Beispiel sind die Opuntienfelder um Guatiza, auf denen Schildläuse zur Herstellung des Karminfarbstoffes gezüchtet werden. Man hat meist künstlich etwa 15 cm dicke Lapillischichten auf fruchtbaren Boden aufgebracht (span.: "enarenado artificial"). So werden heute hauptsächlich Kartoffeln, Zwiebeln, Mais, Knoblauch, Tomaten und Luzerne angebaut. Eine weitere Art des Trockenfeldbaus sind die "Sandkulturen" in und am Rande der Tiefebene "El Jable", die sich unterhalb des Famaramassivs ins Landesinnere erstreckt. Im Wesentlichen werden hier auf etwa 1000 Hektar Süßkartoffeln, Melonen, Kürbisse, Tomaten und Gurken auf einer dünn mit Lapilli bedeckten Sandfläche angebaut. Die Erträge sind hier allerdings etwas geringer. Als landwirtschaftliches Nutztier werden in mehreren Gebieten Ziegen gehalten, aus deren Milch Ziegenkäse in diversen Variationen traditionell hergestellt wird. Allgemein gehen die landwirtschaftlichen Nutzflächen langsam zurück, da sich die Nutzung immer weniger lohnt. Persönlichkeiten. Der Künstler César Manrique (1919–1992) trug entscheidend zur Gestaltung der Insel bei. Manrique hat erreicht, dass außer einem Hochhaus in der Hauptstadt Arrecife – welches bereits stand, bevor César mit seinem Schulfreund die entsprechenden Gesetze durchsetzte – kein Gebäude auf der Insel höher als drei Stockwerke (also eine ausgewachsene Palme) gebaut werden durfte, und somit die Insel nicht für den typischen Massentourismus geeignet war. Diese Entwicklung hat sich seit einigen Jahren zunehmend verändert, so dass in den Touristenhochburgen Costa Teguise, Puerto del Carmen und Playa Blanca in Richtung der Papagayo-Strände nun ebenfalls höher gebaut wird. Die Gestaltung der Häuser sah außerdem vor, sie generell weiß zu streichen und in Fischerorten deren Fensterläden, Türen und Gartenzäune blau und in landwirtschaftlichen Gegenden grün abzusetzen. Inzwischen sind Grün und Blau, aber auch Braun oder Naturholzfarben inselweit vermischt. Kunst. In der Fundación César Manrique sind neben den permanent ausgestellten Werken aus dem Nachlass des Künstlers César Manrique in temporären Ausstellungen auch internationale Künstler zu sehen, deren inhaltlicher Schwerpunkt im Thema „Kunst und Natur“ liegen. Die Fundación César Manrique liegt nördlich von Arrecife an der Landstraße LZ 34, nahe bei Tahiche. Ein weiteres Ausstellungsgebäude für Wechselausstellungen der FCM, die Sala Saramaro, befindet sich an der "Plaza de la Constitución" in Arrecife. Ebenfalls in Arrecife liegt das Museo Insular de Arte Contemporáno (MIAC) im Castillo San José, nahe dem Hafen in der Avenida de Naos. Infrastruktur. Nahe der Inselhauptstadt Arrecife liegt der Flughafen Lanzarote. Hier landen die Charterflieger hauptsächlich aus England, Deutschland, den Niederlanden, Österreich und der Schweiz. Des Weiteren wird regionaler Flugverkehr, hauptsächlich mit Binter Canarias, zu den anderen Inseln des Archipels betrieben. Der Seehafen "Puerto de Arrecife", "Los Mármoles" genannt, ist der wichtigste Umschlagplatz von Versorgungsgütern für die Insel. Von hier aus gibt es auch Fährverkehr nach Las Palmas de Gran Canaria, Santa Cruz de Tenerife und Cádiz. Zwei weitere Fährlinien der Unternehmen Naviera Armas und Fred. Olsen verkehren mehrmals täglich von Playa Blanca im Süden der Insel aus zur benachbarten Insel Fuerteventura. Seit 2004 wird Fuerteventura auch fünfmal wöchentlich mit einer Personenfähre von Puerto del Carmen aus angefahren. Das Straßennetz ist sehr gut ausgebaut. Zwischen dem Flughafen und Arrecife gibt es eine Autobahnverbindung. Von 1988 bis 1996 war der Autobestand Lanzarotes um 65 Prozent angestiegen. Damit gibt es etwa 800 Fahrzeuge pro 1000 Einwohner, also weit über EU-Durchschnitt (Stand: 2006). Lipasen. Lipasen sind Enzyme, die von Lipiden wie Glyceriden oder Cholesterinestern freie Fettsäuren abspalten (Lipolyse). Diese Enzyme spielen physiologisch eine wichtige Rolle, indem sie Fette verdauen und so die im Körper gespeicherten Fettreserven verfügbar machen. Außerdem gibt es eine Unzahl technologischer Anwendungen für diese Proteine. Im engeren Sinn bezeichnet Lipase in der medizinischen Diagnostik die pankreasspezifische enterale Lipase (Pankreaslipase). Struktur echter Lipasen EC 3.1.1.3. Die Esterasen unterscheiden sich in ihrem Substratspektrum. Demnach bevorzugen Lipasen lipophile, wasserunlösliche Substrate. Sie sind aber auch in der Lage, Triglyceride aus kurzkettigen Fettsäuren umzusetzen, die noch begrenzt wasserlöslich sind. Im Gegensatz dazu hydrolysieren die anderen Esterasen nur kurzkettige, wasserlösliche Substrate. Außerdem unterscheiden sich die Esterasen von den Lipasen durch ihre Proteinstrukturen. Lipasen haben einen Deckel (engl. "lid") über dem aktiven Zentrum, welcher bei Esterasen fehlt. Die Lipasen kommen außerdem in allen Tieren, Pflanzen und Mikroorganismen als zelluläre oder extrazelluläre Proteine vor. Sie gehören zur Familie der Serin-Hydrolasen und haben für ihre spezifischen Reaktionen ein Reaktionsgleichgewicht, das vom Wassergehalt des Gesamtsystems abhängig ist. Ein weiterer wichtiger Unterschied zu Esterasen ist der, dass die Hydrolyse von Esterbindungen von Glycerinestern an einer Öl-Wasser-Grenzfläche stattfindet. Lipasen besitzen oft keine klaren Übereinstimmungen in der Aminosäurensequenz. Bei Betrachtung der räumlichen Struktur hingegen wird klar, dass Lipasen gemeinsame Formen aufweisen. Demnach bilden die Lipasen eine Familie von α/β-Hydrolase-Faltungen, die bei allen Lipasen vorhanden ist. Sie besteht darin, dass im Zentrum der Lipasen acht nahezu parallel angeordnete β-Faltblätter platziert sind, die wiederum von α-Helices eingeschlossen sind, mit Ausnahme des zweiten β-Faltblattes, welches zudem invers in die Struktur eingeordnet ist. Mit wenigen Ausnahmen liegen die Aminosäuren, die für die katalytische Wirkung der Lipasen verantwortlich sind, an denselben Positionen. Diese Aminosäuren bilden eine katalytische Triade, die normalerweise aus den Aminosäuren Serin, Histidin und Asparaginsäure gebildet wird. Diese Triade ist funktionell, aber nicht strukturell verwandt mit der von Trypsin und Subtilisin. In der Aminosäurensequenz von α/β-Hydrolasen erscheinen die Aminosäuren in der folgenden Reihenfolge: Serin, Asparaginsäure, Histidin. Das Serin kommt üblicherweise im konservierten Pentapeptid von Gly-Xaa-Ser-Xaa-Gly vor. Anwendungen in der Industrie und Technik. Lipasen werden in der Fettchemie zur Herstellung von Seifen, von Fetten mit verbesserter Streichfähigkeit und von Kakaobutteräquivalenten verwendet. Vielen Waschmitteln wird Lipase zu Erhöhung der Reinigungsleistung beigemischt. Im Rohmilchkäse wirken sie aromabildend. Butter wird schneller ranzig. Beim Pasteurisieren werden die Lipasen der Milch größtenteils zerstört. Lipasen werden auch als Biokatalysatoren in der organischen Synthese (z. B. zur Herstellung von Zuckerestern im Industriemaßstab) und in der Lebensmittelindustrie zur Geschmacksstoffherstellung verwendet. Des Weiteren finden sie Anwendung in der kinetischen Racematspaltung. Lipasen können aus einer Vielzahl unterschiedlicher Quellen isoliert werden, wobei für industrielle Zwecke zumeist Schweinepankreaslipase (PPL) oder Lipasen von bestimmten Mikroorganismen genutzt werden. Schweinepankreaslipase ist die am genauesten beschriebene pankreatische Lipase und besteht aus 449 Aminosäuren mit 7 Disulfidbrücken. Langsamer Walzer. Der Langsame Walzer, auch Englischer Walzer (engl.: "Slow Waltz", auch "English Waltz") ist ein Gesellschafts- und Turniertanz im 3/4-Takt. Der Langsame Walzer ist einer der klassischen Standardtänze und wird normalerweise bei einem Tempo von etwa 30 Takten pro Minute getanzt. Geschichte. Der Begriff „langsamer Walzer“ wurde – in gedruckter Form – erstmals 1806 von Carl Friedrich Ebers (1770–1836) bei seinem op. 19 („6 langsame und 6 Wiener Walzer“) verwendet. Er geriet jedoch in Vergessenheit. Erst um 1870 entwickelte sich in den USA eine sanftere Form des Wiener Walzers, der unter dem Namen Boston (oder auch "Valse Boston") bekannt wurde. Diese Version behielt die für den Wiener Walzer charakteristischen drehenden Figuren bei, wurde aber zu einem langsameren Tempo getanzt. Um 1920 entwickelte sich daraus in England der "Slow Waltz" (Langsamer Walzer), der wegen seiner Herkunft auch "English Waltz" genannt wird. Andere Quellen geben allerdings auch den österreichischen Ländler als „Urvater“ des Langsamen Walzers an. Wie auch immer, die Tänzer nutzen das langsamere Tempo, um den Walzer um weitere Figuren zu bereichern, die damit das Tanzen interessanter machen. Der Langsame Walzer ist seit 1963 Bestandteil des Welttanzprogramms. Er gilt als der harmonischste Standardtanz und wird häufig zur Eröffnung einer Tanzveranstaltung getanzt. Auch wird er als einer der fünf Standardtänze weltweit auf jedem Standardturnier als erstes gewertet. Charakteristik und Technik. Wichtig beim Langsamen Walzer ist der Schwung. Er wird auf dem zweiten Teil des ersten Taktschlags aufgebaut und dann auf „zwei, drei“ sanft abgebremst. Das Heben und Senken (oder auch "Rise and Fall"), also das Absenken des Körpers durch Beugen der Knie (zum ersten Schlag hin senken) und dem Strecken der Knie und dem Stehen auf dem Fußballen (auf dem zweiten sowie Anfang des dritten Schlages heben) findet auch im Langsamen Walzer statt. Ein weiteres Charakteristikum ist die Neigung des Oberkörpers ("Sway") relativ zum Parkett. Diese ermöglicht ein kontrolliertes Abbremsen der Drehbewegungen. Dies sind in abgeschwächter Form typische Merkmale aller Schwungtänze, zu denen auch Quickstep, Slowfox und Wiener Walzer gehören. Langsamer Walzer wird in differenzierten Drehumfängen getanzt, da sonst eine Fortbewegung in einer Vorzugsrichtung nicht möglich ist. Limmat. Die Limmat (zürichdeutsch "Limet", älter "Limig", im aargauischen Unterlauf noch heute "Limmig") ist ein Fluss in der Schweiz. Ihren Namen trägt sie ab Zürich auf dem letzten, 36 Kilometer langen Flussabschnitt des circa 140 Kilometer langen "Flusssystems Linth-Limmat". Sie mündet in die Aare als deren zweitgrösster Nebenfluss. Flusslauf. Der Fluss entspringt im Kanton Glarus als "Linth" und bildet den Hauptzufluss des Zürichsees. Den Namen "Limmat" trägt sie ab Zürich nach Verlassen des Zürichsees. Sie fliesst anschliessend durch das Limmattal und mündet im so genannten Wasserschloss bei Brugg im Kanton Aargau in die Aare. Kurz nachdem die Limmat den Zürichsee verlassen hat und, am Ostufer durch den Limmatquai begleitet, das historische Zentrum Zürichs durchquert hat, wechselt der Flusslauf von nördlicher in mehr westliche Richtung. Beim Platzspitz nimmt sie die Sihl auf, den grössten Nebenfluss. Hier wird zum ersten Mal die Wasserkraft der Limmat genutzt. Ein Teil des Wasser stürzt über das Wehr Drahtschmidli, das zur Regulierung des Zürichsees genutzt wird, der Rest wird dem "Kraftwerk Letten" zugeführt. Durch den Bau eines Oberwasserkanals für das "Kraftwerk Höngg" entstand in Zürich-Altstetten die Werdinsel. Im breiten "Limmattal" westlich von Zürich bildet der Fluss mehrere Schlaufen. Bei Dietikon befindet sich ein weiteres Kraftwerk. Unterhalb davon befinden sich die "Dietiker Altläufe", Reste der urtümlichen Auenlandschaft, die 1930 unter Naturschutz gestellt wurden. Nach dem Passieren der Grenze zum Kanton Aargau wird das Limmattal zwischen Heitersberg im Süden und Altberg im Norden enger. Ab Würenlos ist der Fluss zum schmalen und sieben Kilometer langen Stausee Wettingen gestaut. Nach dem "Kraftwerk Wettingen" liegt der Fluss erstmals in einem tiefen Einschnitt und passiert bei Baden die Klus zwischen Heitersberg und der Lägern. Nach Passieren einer zweiten Klus nördlich des Badener Bäderquartiers weitet sich das Tal wieder. Bei Turgi folgt das letzte Kraftwerk. Die grössten Nebenflüsse sind die Sihl und die Reppisch, die bei Dietikon einmündet. Die Sihl, die zeitweise auch direkt in den Zürichsee führende Mündungsarme hatte, staute im 1. Jahrtausend vor Christus mit herangeführtem Geröll den Abfluss der Limmat in Zürich auf. Dadurch stieg der Spiegel des Zürichsees deutlich an, der Abfluss der Limmat verschob sich nach Norden. Durch Beseitigung des Gerölls bei der Sihlmündung in römischer Zeit sank der Wasserspiegel des Zürichsees stark. In spät- und nachrömischer Zeit wurde kein Geröll mehr entfernt, die Limmat wurde wieder gestaut und der Seespiegel stieg erneut für mehrere Jahrhunderte. Im Verlaufe des Frühmittelalters regulierte man die Sihl wieder, so dass spätestens seit dem Jahr 853, als das Fraumünster gegründet wurde, der Seespiegel auf heutigem Niveau lag. Herkunft des Namens. Früheste Belege des Flussnamens sind "ad fluvium Lindimacum" (771), "de ripa Lindimagi fluminis" (820?), "iuxta fluvium Lindemaci" (vor 840) und "cis Lindimacum" (870). Formen auf "-agt" sind aus dem 15. und 16. Jahrhundert, solche auf "-at" erst nach 1500 bezeugt. Die dialektale Lautung "Lim(m)ig" steht damit der ursprünglichen näher als das schriftsprachliche "Limmat". Die weiteren Bezeichnungen "Aa" und "See," die sich gelegentlich in spätmittelalterlichen und frühneuzeitlichen Quellen für den innerhalb der Stadt Zürich gelegenen Teil der Limmat finden, sind (halb-)appellativisch und nicht als Namen zu verstehen; "Aa" oder "Ache" ist ein altes Wort für «Bach, Fluss». Verkehrsweg. Bereits vor der Zeitenwende diente die Limmat als Wasserweg für den Warentransport. Nach der Eroberung durch die Römer um das Jahr 15 v. Chr. lag die Limmat im Grenzbereich der römischen Provinzen "Raetia" (Rätien) und "Germania superior" (Obergermanien). Am heutigen Weinplatz im vicus "Turicum" (Zürich) wurden Güter des Warenverkehrs über die Alpenroute, vom Walensee über "Centum Prata" (Kempraten) auf dem Zürichsee, von See- auf Flussschiffe für den Transport auf der Limmat umgeladen. Schiffbar ist die Limmat heute nur vom Zürichsee bis zum Platzspitz und dem ersten Wehr, mit dem die Menge des Abflusses aus dem See reguliert wird. Über weite Strecken darf sie hier aber ausschliesslich von den Personenbooten der Limmatschifffahrt befahren werden. Früher konnte sie dagegen bis zur Mündung befahren werden. Vor allem Händler begannen ihre Fahrten in "Biäschen" – kleinen Booten – an der Linth und verkauften ihre Ware im Mündungsgebiet des Rheins. Seit dem Bau der Kraftwerke ist das nicht mehr möglich: in Zürich – am Letten, sowie in Höngg – Dietikon, Wettingen, Baden und Turgi wird der Fluss zur Regulierung und Energiegewinnung gestaut. Vom Zürichsee bis zur Brücke bei Stilli unterhalb der Mündung in die Aare folgt ein Wanderweg dem Limmatufer (Wanderzeit: etwa 9,5 Stunden); im Raum Wettingen-Baden gemeinsam mit dem "Kulturweg", unterhalb von Baden mit dem "Industriekulturpfad Limmat–Wasserschloss". Limmatschifffahrt. Die Limmatschifffahrt ist heute Teil des öffentlichen Personennahverkehrs der Stadt Zürich. Limmatschiffe verkehren von April bis Oktober im oberen Teil der Limmat und dem Seebecken. Die Stationen der Limmatschiffe sind flussaufwärts "Landesmuseum" beim Hauptbahnhof, "Limmatquai", "Storchen" sowie "Bürkliplatz". Die Strecke führt mitten durch die Altstatt unter sechs Brücken und einem Steg durch. Die Limmatschiffe gehören zum Tarifverbund des Zürcher Verkehrsverbunds. Natürliche Verteidigungslinie. Über Jahrhunderte überquerten lediglich zwei Brücken – in Zürich und Baden – den Fluss, der deshalb grosse militärische Bedeutung hatte. Die Limmat diente als natürliche Verteidigungslinie und war Schauplatz zahlreicher Kriegshandlungen: römisches Legionslager Vindonissa, Regensberger Fehde und Glanzenberg, Eroberung Badens durch die Eidgenossen von 1415, Konfessionskriege mit der Belagerung Badens 1712, Erste und Zweite Schlacht von Zürich, Limmatstellung im Zweiten Weltkrieg. Der Begriff Limmatlinie für eher rudimentäre militärische Befestigungen im Limmattal – beginnend ab Zürich bis zur Einmündung der Limmat in die Aare bei Brugg – zur Sicherung des schweizerischen Mittellands in nordöstlicher Richtung wird vermutlich seit der Helvetik verwendet. Hochwasser. Das mittlere Jahreshochwasser der Limmat an der Messstelle Limmat – Baden, Limmatpromenade (2243) beträgt 368.58 m³/s. Die höchste jemals gemessene Jahrespitze wurde 1999 registriert und betrug 660 m³/s. Schwimmen. Das Baden in der Limmat ist von der Quaibrücke bis zum Lettenkanal verboten. Es stehen vier öffentliche städtische Badeanlagen zu Verfügung: Das Frauenbad am Stadthausquai wenig unterhalb der Quaibrücke, die Flussbäder "Oberer" und "Unterer Letten" am Lettenkanal sowie das "Freibad Au-Höngg" auf der Werdinsel mit Bademöglichkeit im Limmatkanal. Seit 1945 findet in Zürich das Limmatschwimmen als jährliche Breitensportveranstaltung statt. Die zehn Meter hohe Kornhausbrücke beim Letten wird für Klippenspringen genutzt. Schlauchbootfahren. Der Abschnitt Zürich–Dietikon wird in den Sommermonaten oft von Schlauchbooten befahren; ein beliebter Einstiegsort ist die Treppenanlage des Wipkingerparks. Die Wehranlage Höngg ist unfahrbar und muss umtragen werden. Linksufrig sind Ausstiegsmöglichkeiten signalisiert. Auf dem Abschnitt Münsterbrücke bis Lettenwehr besteht ein Fahrverbot. Einzelnachweise. Limmat Lautverschiebung. Mit Lautverschiebung werden bestimmte systematische Lautwandel­phänomene bezeichnet, die im Laufe der Entwicklung einer Sprache auftreten können. Dabei wandeln sich nach gewissen Regeln Konsonanten und/oder Vokale regelhaft in andere um (zum Beispiel spiegelt die Alternanz von niederdeutsch und englisch "wat'"er" zu hochdeutsch " Wass'"er", niederdeutsch "et'"en" oder "eat'"en" und englisch "eat" zu hochdeutsch "ess'"en" die hochdeutsche Lautverschiebung wider). Geschichte. Lautverschiebungen lassen sich in der Geschichte vieler Sprachen beobachten. Sie treten schubweise auf, wobei der neue Zustand dann jahrhundertelang unverändert Bestand haben kann. Über die Auslöser so tiefgreifender Verschiebungen im Lautsystem einer Sprache besteht kein Konsens. In der Geschichte der deutschen Sprache wird der Begriff „Lautverschiebung“ in erster Linie für zwei ähnlich gelagerte Konsonantenverschiebungen benutzt, die vom Indogermanischen über das Germanische zum Deutschen geführt haben, die erste und die zweite Lautverschiebung. Ein weiterer wichtiger Lautwandel, diesmal eine Vokalverschiebung, markiert den Übergang vom Mittelhochdeutschen zum Neuhochdeutschen und damit auch einen wichtigen Unterschied zu den meisten niederdeutschen Dialekten: die Diphthongierung von Langvokalen bzw. der Diphthongwandel. Lyman Frank Baum. Lyman Frank Baum (* 15. Mai 1856 in Chittenango, New York; † 6. Mai 1919 in Los Angeles) war ein US-amerikanischer Schriftsteller. Er schrieb den Kinderbuch-Klassiker "Der Zauberer von Oz" ("The Wonderful Wizard of Oz") sowie 13 Fortsetzungsromane, die in der von ihm erdachten Zauberwelt Oz spielen. Leben. Baums deutschstämmiger Vater, Benjamin Ward Baum, war ein erfolgreicher Geschäftsmann und hatte mit Ölfeldern in Pennsylvania ein großes Vermögen gemacht, und so verbrachte Baum seine Kindheit in dem luxuriösen Anwesen "Rose Lawn". Zu seinem 15. Geburtstag schenkte ihm sein Vater eine Druckerpresse, die Baums Interesse am Schreiben weckte. 1882 heiratete er Maud Gage, die Tochter einer führenden Frauenrechtlerin, und zog mit ihr nach South Dakota. Baum versuchte sich in zahlreichen Geschäftsfeldern. Er arbeitete im Theater, für Zeitungen und Zeitschriften, stellte das patentierte Schmieröl "Baum’s Castorine" her, leitete das Warenhaus "Baum’s Bazaar" und war zeitweilig auch Hühnerfarmer. Sein erstes Buch, das er 1886 veröffentlichte, handelt von der Hühnerzucht. Baum war ebenso Herausgeber einer eigenen Wochenzeitschrift, die jedoch wie die meisten seiner Unternehmen nicht besonders erfolgreich war. Baum war auch publizistisch tätig; erhalten sind zwei Zeitungskommentare der Jahre 1890 und 1891, in denen er forderte, den Konflikt mit den amerikanischen Ureinwohnern durch deren „totale Auslöschung“ zu beenden. Hierbei ging er von der Annahme aus, dass den Ureinwohnern über Jahrhunderte Unrecht getan wurde und diese somit immer ein Unruheherd bleiben müssten. Diesem Problem könne man nur durch eine endgültige Lösung Herr werden. 1891 zog die Familie nach Chicago und Baum suchte nach einer neuen Möglichkeit, Geld zu verdienen. Da er sich stets mit Freude Gute-Nacht-Geschichten für seine eigenen Kinder ausgedacht hatte und diese ihnen am Bett erzählte, entschloss er sich, Geschichten für andere Kinder zu schreiben. In seinen ersten beiden Büchern erzählte er vorwiegend traditionelle Geschichten nach, wobei er in einer dieser Geschichten ein junges Mädchen namens „Dorothy“ einführte. Dies führte ihn zur Schaffung des Landes der Wunder und Freuden "Oz". Im Jahr 1900 erschien sein Buch "The Wonderful Wizard Of Oz", das über Nacht zu einem riesigen Erfolg wurde. Binnen zweier Jahre wurde es als Bühnen-Musical adaptiert, für das Baum selbst das Drehbuch schrieb. Baum verfasste noch 13 weitere Romane um das wunderbare Land, wobei er mehrfach erklärte, die Serie jetzt abgeschlossen zu haben und keine weiteren Oz-Fortsetzungen mehr zu schreiben. Unterdessen wandte er sich zahlreichen anderen Kindergeschichten zu, unter anderem unter dem Pseudonym "Edith Van Dyne". Aufgrund der hohen Nachfrage nach weiteren Oz-Romanen und wegen der Briefe vieler Kinder setzte er die Serie jedoch immer wieder fort. Am 4. September 1892 trat er der Theosophischen Gesellschaft bei und folgte 1895 nach der Spaltung derselben infolge der Judge Case der Theosophischen Gesellschaft in Amerika. Mehrere seiner Aufsätze und Bücher behandelten theosophische Themen. Lyman Frank Baum starb 1919 in Hollywood. Er hat in seinem Leben über 60 Bücher veröffentlicht. Werke (Auswahl). Titelblatt der englischen Originalausgabe von "Der Zauberer von Oz" (1900) Einzelnachweise. ! Luigi Galvani. Luigi Galvani (* 9. September 1737 in Bologna, Italien; † 4. Dezember 1798 ebenda) war ein italienischer Arzt, Anatom und Biophysiker. Giovanni Aldini war sein Neffe. Leben. Galvani studierte anfangs Theologie, später Medizin und wurde 1762 Professor der Medizin zu Bologna und 1775 der praktischen Anatomie. Der Beifall, den seine Abhandlung "De renibus atque ureteribus volatilium" des Jahres 1767 fand, führte ihn zu dem Entschluss, die Physiologie der Vögel zu bearbeiten; doch beschränkte er sich später auf die Untersuchung ihrer Gehörorgane. Ein Zufall führte ihn am 6. November 1780 zur Entdeckung des nach ihm benannten Galvanismus, worüber Emil du Bois-Reymond im 1. Band seiner "Untersuchungen über tierische Elektrizität" (Berlin 1848) berichtet. Versuchsanordnung des Froschschenkel-Experiments, aus dem "De viribus electricitatis in motu musculari" Galvani entdeckte durch Experimente mit Froschschenkeln die Kontraktion von Muskeln, wenn diese mit Kupfer und Eisen in Berührung kamen, wobei auch Kupfer und Eisen verbunden sein mussten. Galvani stellte also unwissentlich einen Stromkreis her, bestehend aus zwei verschiedenen Metallen, einem Elektrolyten („Salzwasser“ im Froschschenkel) und einem „Stromanzeiger“ (Muskel). Galvani erkannte diese Zusammenhänge noch nicht, aber er legte die Grundlage für die Entwicklung elektrochemischer Zellen (auch Galvanische Zellen oder Galvanische Elemente genannt) durch Alessandro Volta. Galvani fiel auf, dass ein Froschschenkel, der mit einer Messerklinge in Berührung stand, immer dann zusammenzuckte, wenn bei einer in der Nähe stehenden Hochspannungsmaschine ein Funke übersprang. Er war überzeugt – wohl auch aufgrund der wenige Jahrzehnte zuvor durch Benjamin Franklin angestellten berühmten Blitzableiterversuche – dass Gewitterblitze im Prinzip auch solche Funken sind, nur viel größer. So führte er einen isoliert befestigten Draht vom First eines Hauses in den Garten an einen Froschschenkel. Ein zweiter Draht führte von diesem in einen Brunnen. So oft nun bei einem Gewitter in der Nähe ein Blitz aufzuckte, geriet der Froschschenkel in Bewegung und dies, "bevor" das zugehörige Donnern zu hören war. Während der Terrorherrschaft der Französischen Revolution weigerte sich Galvani, einen Eid auf die neue Regierung zu leisten. Durch den Wohlfahrtsausschuss verlor er daraufhin sein Amt, in das er jedoch nach 1794 wieder eingesetzt wurde. Ehrungen. Statue von Galvani in Bologna 1875 veranstaltete die Stadt Bologna einen Wettbewerb für eine Statue Luigi Galvanis. Gewinner war der Bildhauer Adalberto Cencetti, der dieses Werk 1879 vollendete. Nach ihm benannt wurden die Galvanotechnik, das Galvanometer, die Galvanotaxis, die Galvani-Spannung die Galvanotherapie und der Mondkrater Galvani. Liste von Literaturpreisen. Nationale Preise. Australien – Belgien – Brasilien – Bulgarien – China – Dänemark – Deutschland – Frankreich – Großbritannien – Indien – Island – Israel – Italien – Japan – Kanada – Litauen – Neuseeland - Niederlande – Norwegen – Österreich – Polen – Portugal – Russland – Schweden – Schweiz – Slowenien – Spanien – Südafrika – USA Weblinks. Preis Literaturpreis Literaturwissenschaft. Literaturwissenschaft ist die wissenschaftliche Beschäftigung mit der Literatur. Sie umfasst nach gängigem Verständnis Teilgebiete wie die Literaturgeschichte, die Literaturkritik, die Literaturinterpretation, die Literaturtheorie und die Editionsphilologie. Geschichtlich ist die Literaturwissenschaft hervorgegangen In der literaturwissenschaftlichen Tradition stehen unter anderem die Theaterwissenschaft und die Medienwissenschaft. Lehrstühle für Poesie und Rhetorik. Man liest zuweilen, Johann Christoph Gottsched habe den ersten universitären Lehrstuhl für Poesie innegehabt. Das ist nicht korrekt, denn Lehrstühle in den Bereichen Poesie und Rhetorik gab es in den philosophischen Fakultäten europäischer Universitäten schon lange. Die universitäre Auseinandersetzung mit Poesie blieb bis ins 18. Jahrhundert hinein auf die Poetologie fixiert und damit auf eine Diskussion der Regeln, denen Kunstwerke in den verschiedenen Gattungen der Poesie nach Aristoteles und seinen Nachfolgern entsprechen mussten. Poesie in den Landessprachen blieb gegenüber lateinischer Dichtung auf den Universitäten weitgehend unbeachtet. Den geringsten Raum nahm die im 17. und 18. Jahrhundert aktuelle, mit der Oper ihr Zentrum findende Poesieproduktion ein. Außeruniversitär: Die Beschäftigung mit dem Roman. Der Roman fand, nicht zur Poesie gehörig, vor allem auf dem Gebiet der Romanproduktion selbst Untersuchungen: in Vorreden zu Romanen und in Kapiteln, die von ihren Autoren in Romane eingebaut wurden, um dort die Geschichte der Gattung und ihre Qualitäten zu diskutieren. Zum Meilenstein wurde auf diesem Feld 1670 Pierre Daniel Huets "Tractat über den Ursprung der Romane", 1670 als Vorrede zu Marie-Madeleine de La Fayettes "Zayde" veröffentlicht. Der in der Interpretation von Texten geschulte Bischof von Avranches schlug bahnbrechend vor, Romane und Poesie generell als Fiktionen vor dem Hintergrund der jeweiligen kulturellen Bedingungen zu interpretieren, denen sie entstammten. Die bestehenden Fachwissenschaften konnten dem Vorschlag wenig abgewinnen, profitabler schien bis weit in das 18. Jahrhundert hinein eine Romankritik, die die gesamte Gattung als moralisch verworfen disqualifizierte. Die Literaturwissenschaft im Wortsinn des 17. und 18. Jahrhunderts. Die Literaturwissenschaft, die der Literatur, per definitionem dem Feld der Wissenschaften, galt, entwickelte sich als die Wissenschaft der wichtigsten wissenschaftlichen Publikationen und damit weitgehend als bibliographisches Projekt. Ihre Arbeit bestand im Wesentlichen in der Herausgabe großer Wissenschaftsbibliographien. Im Lauf des 18. Jahrhunderts wurde dieses Projekt zunehmend fragwürdig: Fachbibliographien gewannen in den 1770ern gegenüber allgemeinen Überblicken über die Literatur aller Wissenschaften an Ansehen. Das allgemeine Projekt einer Literaturgeschichte und Literaturwissenschaft überlebte, indem es sich am Ende des 18. Jahrhunderts der Poesiediskussion öffnete, die sich selbst zur Mitte des 18. Jahrhunderts der Romandiskussion geöffnet und damit entscheidend an Attraktivität gewonnen hatte. Die Literaturwissenschaft des 19. Jahrhunderts. Als im 19. Jahrhundert bahnbrechend in Deutschland neu definiert wurde, was als Literatur zu betrachten sei – im Zentrum der Begriffsdefinition der Bereich der sprachlichen Kunstwerke einer jeweiligen Nation – wandelte sich die Literaturwissenschaft zu einem eminent politischen Projekt. Der Fachterminus „Germanistik“ birgt die neue Traditionslinie: Fachleute aus dem Bereich der Rechtswissenschaft, die in der Lektüre mittelalterlicher deutscher Rechtsquellen geschult waren, hatten als erste die Expertise, das Corpus der Nationalliteratur zu sichern und quellenkritisch zu edieren. Die neudefinierte Literaturwissenschaft machte europaweit Schule in einer Entwicklung, in der deutsche und französische Fachwissenschaftler Mitte des 19. Jahrhunderts die entscheidenden Vorgaben für Literaturgeschichten anderer Länder machten. Ältere Deutsche Literaturwissenschaft. Das Fach Ältere Deutsche Literaturwissenschaft ist ein Teilbereich der Deutschen Philologie. Die Ältere Deutsche Literaturwissenschaft befasst sich mit der deutschen Literatur von den Anfängen im Frühmittelalter bis zum Übergang zur Neuzeit im 16./17. Jahrhundert. Sie analysiert die mittel- und althochdeutschen Texte systematisch nach Gattungen und Formen, Stoffen und Motiven, sowie historisch nach Autoren und Epochen. Für Absolventen dieses Fachs lassen sich keine „typischen“ Berufsfelder erkennen. Es kommen quantitativ sehr begrenzte berufliche Tätigkeiten in Bildungsanstalten, Verlagen, Medien, Bibliotheken, Museen, Kulturvereinen, im Archiv- und Dokumentationswesen und in der Öffentlichkeitsarbeit in Betracht. Neuere Deutsche Literaturwissenschaft. In der Neueren Deutschen Literaturwissenschaft werden theoretische Grundlagen und Methoden zur Untersuchung und Interpretation literarischer und nicht-literarischer Texte, wozu auch Theaterstücke und Filme zählen, in deutscher Sprache ab dem 16. Jahrhundert erarbeitet und angewendet. Literarische Epochen und ihr historischer Wandel werden erforscht und Beziehungen zwischen literarischen und anderen (geistes- oder sozialgeschichtlichen) Strukturen und Bedingungen der Herstellung, Verbreitung und Aufnahme von Literatur untersucht. Die neuere deutsche Literaturwissenschaft ist neben der Linguistik und Mediävistik die dritte Disziplin des Studienfaches Germanistik an deutschen Universitäten. Neu: Im Sinne von neuzeitlich, bezieht sich auf die Literatur und nicht auf die Wissenschaft. Als erstes großes Werk der neueren deutschen Literatur gilt in der Literaturwissenschaft das Das Narrenschiff (1494) von Sebastian Brant. Deutsch: bezieht sich auf die deutsche Sprache; Studienobjekt ist also die deutschsprachige Literatur. Wissenschaft: Macht darauf aufmerksam, dass beim wissenschaftlichen Lesen von Texten nicht das Rezipieren im Vordergrund steht, sondern vor allem das Reflektieren und Beobachten der Modalitäten. Das wissenschaftliche Nachdenken über Literatur muss methodisch fundiert sein. Literaturwissenschaft in den so genannten Fremdsprachenphilologien. "siehe:" Anglistik, Amerikanistik, Romanistik, Slawistik, Orientalistik, Skandinavistik Leerzeichen. Das Leerzeichen (auch Wortzwischenraum, seltener Leerstelle, Leerschritt oder sinngemäß Spatium, bes. schweiz. Leerschlag, engl. ', ') dient der Abgrenzung von Wörtern oder anderen Informationen innerhalb eines Textes. Auf der Schreibmaschine und der Computertastatur erhält man durch Betätigen der, der größten Taste unten auf der normalen Standardtastatur, ein Leerzeichen. Für einen guten Schriftsatz werden Leerzeichen unterschiedlicher Breite verwendet. Breite des Leerzeichens. Die übliche Breite des Leerzeichens und damit des Wortabstandes beträgt ein Viertelgeviert; das ist allerdings vom Schriftdesign abhängig. Daneben gibt es auch ein "schmales Leerzeichen", um für zusammengehörende Texteinheiten einen erkennbaren Unterschied gegen den normalen Wortabstand zu setzen (etwa in Abkürzungen wie»z. B.«, als Tausendertrenner oder zwischen Maßzahl und Maßeinheit). Schreibmaschinenschriften waren überwiegend nichtproportional, also dicktengleich – das heißt jedes Zeichen besaß die gleiche Breite, auch das Leerzeichen. Bei solchen Monospace-Schriften können daher Leerzeichen auch zur Ausrichtung von Tabellen anstelle des Tabulators verwendet werden. Entwicklung des Leerzeichens. In antiken Texten war eine Trennung der Wörter nicht üblich. Die dichte Anordnung des Textes zwang den Leser zur sorgfältigen und in den meisten Fällen lauten Lektüre. Erst im 7. Jahrhundert wurde die Wortteilung eingeführt. Die klaren Wortabstände erleichterten das schnelle Erkennen und Verstehen der Texte. Johannes Gutenberg kannte nur einen richtigen Wortabstand. Den Randausgleich der Zeilen in seiner 42-zeiligen Bibel erzielte er mit Hilfe verschieden breiter Buchstaben. Der gute Wortabstand entsprach dem Innenraum (Punze) des kleinen „n“. An ihm orientierten sich von nun an die guten Schriftsetzer. Die Erfindung der Schreibmaschine brachte einen weiteren Wortabstand. Er entsprach der immer gleichen Buchstabenbreite und ließ das Gefühl für den richtigen Zwischenraum verschwinden. Jan Tschichold, der Erneuerer der Typografie des 20. Jahrhunderts, griff die mittelalterliche Idee des guten Wortabstands wieder auf. Sein Biograf Werner Lemke berichtet, dass Tschichold kleine Florpapierstückchen in seiner Geldbörse aufbewahrte, um die Buchstaben- und Wortabstände ideal auszugleichen, wo die feinsten Spatien der Schriftsetzer nicht ausreichten. Dementsprechend sollte bei Drucksachen auf den guten Wortabstand geachtet werden. Denn zu große Wortabstände erzeugen, wie der präraffaelitische Buchkünstler William Morris sagt: „Hässliche sich windende weiße Linien im Text“, die senkrecht oder schräg zu den Zeilen verlaufen. In der Sprache der Buchdrucker heißt dieser typografische Fehler „Gießbach“ oder „Gasse“. Gießbäche lassen das Auge aus dem Text irren und erschweren das Lesen. Verwendung von Leerzeichen. Untersucht man deutsche Texte daraufhin, wie viele Buchstaben, Satz- und Wortzeichen sowie Leerzeichen sie enthalten, so stellt sich heraus, dass die Leerzeichen die größte Häufigkeit aufweisen, vor „e“ als dem häufigsten Buchstaben. Druckwesen. Leerzeichen sind zum einen notwendig, um eine Zeile zum Blocksatz zu strecken. Darüber hinaus werden sie in Abkürzungen wie "z. B." verwendet. Auch die korrekte Schreibweise von Zahlen wird mit Hilfe der Leerzeichen erreicht (Bsp. "123 456 789"). Der Wortzwischenraum entspricht bei den meisten Schriftarten etwa dem Raum, den ein schmales Schriftzeichen (Buchstabe oder Satzzeichen) einnehmen würde. Die Größe der Wortzwischenräume bleibt im Flattersatz konstant, während sie im Blocksatz variieren kann. Satzzeichen werden im Deutschen im Allgemeinen nie mit führendem, aber immer mit nachgestelltem Leerraum gesetzt, gewisse Stichzeichen (etwa Streckenstrich) auch mit führendem Leerraum, andere (Bindestrich) aber grundsätzlich ohne: Zeichensatz ohne Leerzeichen nennt man "kompress". Textverarbeitung, Webtypographie und Datenverarbeitung. Leerzeichen gehören zum Whitespace und sind damit als Steuerzeichen zu werten: Sie beeinflussen im Allgemeinen in allen Belangen das Parsen beliebigen Codes, indem sie Codeblöcke abgrenzen. In diesem Sinne gilt das auch für die reine Schriftdarstellung: Die Wörter stellen für den am Computer allgemein üblichen automatischen Zeilenumbruch die einzeln zu lesenden Informationseinheiten dar. Daher sind Leerzeichen, sofern sie nicht dagegen geschützt sind, im Text immer Umbruchmarken. Neben den unterschiedlichen Breiten von Leerzeichen gibt es in der Webtypographie, wo es den automatischen Umbruch gibt, noch "geschützte Leerzeichen", an deren Position am Zeilenende nicht umbrochen werden darf. Teilweise werden von Textverarbeitungprogrammen oder Betriebssystemen selbstständig passende oder unpassende Leerzeichen erkannt (Autokorrektur), so etwa Leerzeichen am Absatzanfang oder in Einzelworten (etwa führendes Leerzeichen in Dateinamen). In vielen Programmiersprachen und Codierungen sind sie das Terminationszeichen der einzelnen Befehle – in anderen werden sie aber als Whitespace prinzipiell ignoriert: C zum Beispiel verwendet sie, Java nicht, HTML ignoriert sie (außer im Text), nicht aber der URI-Code, siehe unten. Bleisatz. Im Bleisatz wurden Leerzeichen als Form des typografischen Weißraums in verschiedenen Breiten mit Hilfe des "Ausschlusses" (Blindmaterials, wie Gevierte, Spatien) erzeugt. Desktop-Publishing und Webtypographie. In der Darstellung der Datenverarbeitung ist das Leerzeichen im Allgemeinen ein "Leerraum ()". Darstellung von Leerzeichen. Der Unicode-Block Symbole für Steuerzeichen definiert auch drei visuelle Symbole, die Leerzeichen darstellen, selbst jedoch keine sind. Einsatz in HTML und Verwandten mit CSS. Mehrere aufeinanderfolgende Leerzeichen im Quelltext von HTML- und ähnlichen Dokumenten werden als ein einzelnes Leerzeichen in der Seite von einem Webbrowser ausgegeben, wenn es nicht explizit verhindert wird. Mit der CSS-Eigenschaft "white-space" und dem Wert "pre-wrap" (codice_4) geschieht dies. Der typographische Weißraum kann hier durch Spationierung bzw. Sperrung oder Skalierung eines Leerzeichens mittels CSS definiert werden. Für den Wortabstand existiert die CSS-Eigenschaft codice_5 und für den Zeichenabstand codice_6; sie akzeptieren nummerische Werte gefolgt von einer Maßangabe wie px, ex, em, rem, pt, … Dieser Satz zeigt großen Wortabstand. Dieser Satz zeigt großen horizontalen Zeichenabstand. Webbrowser erzeugen Umbrüche am Zeilenende wenn nötig nach Leerzeichen, wenn dies nicht explizit verhindert wird. Mithilfe der CSS-Eigenschaft "white-space" und dem Wert "nowrap" (codice_7) kann der Umbruch nach einem nicht umbruchgeschützten Leerzeichens u. a. verhindert werden. In HTML 3.2 war dafür noch das Attribut "nowrap" (codice_8 bzw. codice_9) vorgesehen, allerdings ausschließlich bei Tabellenzellen. Codierung in TeX. Dabei stehen der große Zwischenraum codice_23 und der kleine negative Zwischenraum codice_26 nur im Mathematikmodus, nicht aber im Textmodus zur Verfügung. Dort muss das Leerzeichen mittels des horizontalen Abstands (z. B. codice_29) angegeben werden. Leerzeichen in URIs. Da ein Leerzeichen innerhalb von URIs nicht vorkommen kann und den URI abschließt (Ende der Zeichenkette), werden Leerzeichen in z. B. Ordner- oder Dateinamen UTF8-konform umkodiert. Die Kodierung besteht aus dem Prozentzeichen codice_30 und einem zweistelligen Hexadezimalwert (bei Multibyte-Zeichen jeweils für jedes Byte). Ein Leerzeichen wird mit codice_31 angegeben. Bei der älteren Codierung "application/x-www-form-urlencoded" wird ein Pluszeichen codice_32 verwendet. "Auf einem Webserver liegt die Datei "„bitte lesen.pdf“" in einem Ordner namens "„wichtige dokumente“"." Beim Herunterladen der Datei wird in dessen Name wieder das richtige Leerzeichen eingefügt. Leerzeichen bei lokalen Dateien und Ordnern. Vor Allem in Unix- und unixoiden Systemen kann ein Backslash codice_33 vor dem Leerzeichen verwendet werden, um dem System mitzuteilen, dass ein Leerzeichen Teil des Pfades (Ordner-/Dateiname) ist und nicht die Zeichenkette beendet. Eine weitere Möglichkeit ist es, Pfade mit Leerzeichen in ein Paar doppelte oder einfache Anführungszeichen (codice_34 bzw. codice_35) einzuschließen. Leerzeichen in 8.3-Dateinamen. Im FAT-Dateisystem sind Leerzeichen in Dateinamen eigentlich nicht zulässig, werden aber von mancher Software geschrieben und akzeptiert (Beispiel OS/2 auf FAT-Volumes: EA DATA. SF. Dieser Dateiname für die Erweiterten Attribute eines Volumes erfüllt zwar die 8.3-Längenkonvention, enthält aber Leerzeichen, um die Datei vor Zugriffen und Veränderungen zu schützen. Mit moderneren Texteditoren wie Edit.com seit MS-DOS-Version 7.0 sind auch solche Dateinamen lesbar und die Dateien folglich bearbeitbar.). Dateinamen kürzer als acht Buchstaben (und Dateinamenserweiterungen kürzer als drei Buchstaben) werden in den Verzeichniseinträgen von links nach rechts mit Leerzeichen aufgefüllt, welche aber nicht zum Dateinamen gehören. Im ISO-9660-Dateisystem können Leerzeichen in Dateinamen durch Unterstriche („_“) ersetzt werden. French/English Spacing. Vor dem 20. Jahrhundert war es üblich, nach dem Satzende ein einzelnes, jedoch verbreitertes Leerzeichen zu benutzen. Das im Englischen sogenannte ', also das Setzen eines einzelnen Leerzeichens nach dem Satzende, ist seit dem 20. Jahrhundert üblich und empfohlen. Im Gegensatz dazu steht das im Engl. sog. ', das das Setzen von zwei Leerzeichen nach dem Satzende beschreibt. Libyen. Libyen (//;;) ist ein Staat in Nordafrika. Seine Nordgrenze ist das Mittelmeer (Mittelmeeranrainerstaat); er grenzt im Osten an Ägypten und Sudan, im Süden an Niger und Tschad und im Westen an die Maghreb-Staaten Tunesien und Algerien. Libyen ist seit 1951 ein souveräner Staat und war bis 1969 ein Königreich. Im Jahr 1969 kam Muammar al-Gaddafi durch einen Militärputsch an die Macht. Im Februar 2011 begann seine diktatorische Herrschaft zu bröckeln; der libysche Bürgerkrieg 2011 begann. Von März bis Oktober 2011 fand eine internationale Militärintervention auf der Seite der Gegner Gaddafis statt. Gaddafi wurde am 20. Oktober 2011 von seinen Gegnern getötet. Seit Mai 2014 herrscht ein Bürgerkrieg, in dem rivalisierende Milizen gegeneinander kämpften. Geographie. Den Nordwesten Libyens, das sogenannte Tripolitanien, nehmen die Küstenebene al-Dschifara, das gebirgige Schichtstufenland Dschabal Nafusa (bis 968 m) und die anschließende Steinwüste Hammada al-Hamra ein. Eine Steilstufe nach Süden leitet zu den Sand-, Kies- und Geröllwüsten des Fessan über. Der mittlere Abschnitt umfasst das küstennahe, an Erdöl- und Erdgasvorkommen reiche Syrtebecken. In seinem Hinterland erhebt sich das vulkanische Gebirgsmassiv al-Charudsch al-aswad (1200 m). Im Nordosten liegt die Kyrenaika mit dem steil zum Meer abfallenden Karstgebirge des al-Dschabal al-Achdar (878 m). Über das Mittelmeer im Norden ist Libyen Nachbar von Italien (Sizilien und Pantelleria), Malta und Griechenland (Kreta). Die Bucht der "Großen Syrte" wird von Libyen als Hoheitsgewässer beansprucht. Das Karstgebirge geht nach Osten in die Steppe der Marmarika über, nach Süden in das Sanddünenmeer der Libyschen Wüste. Im Grenzgebiet zum Tschad greifen die nördlichen Ausläufer des Tibesti mit dem höchsten Berg des Landes (Bikku Bitti 2.267 m) auf Libyen über. Insgesamt werden gut 85 % der Landesfläche von der Sahara eingenommen. Nur rund zwei Prozent der Fläche sind landwirtschaftlich nutzbar. Libyen ist eines der wenigen Länder der Welt, in denen es keine ständigen Flüsse gibt. Es gibt lediglich sogenannte Wadis, die nur nach starken Regenfällen vorübergehend Wasser führen. Libyen ist nach Algerien, der Demokratischen Republik Kongo und dem Sudan das flächenmäßig viertgrößte Land des afrikanischen Kontinents. Klima und Vegetation. Im mediterran geprägten winterfeuchten Küstengebiet liegen die mittleren Temperaturen im Januar bei 12 °C, im August bei 26 °C; der mittlere Jahresniederschlag beträgt hier 300 mm. Im Frühjahr und Herbst weht häufig ein trockenheißer staubiger Wüstenwind, der Gibli. Das Landesinnere hat Wüstenklima mit beträchtlichen Temperaturschwankungen (im Winter unter 0 °C, im Sommer über 50 °C) bei fast völliger Regenlosigkeit. Trotz der Größe des Landes kennt Libyens Klima nur zwei wesentliche Ausprägungen: eine subtropisch warme Klimazone entlang der Küste und eine heiße, trockene Wüstenklimazone im Landesinneren (den bei weitem überwiegenden Teil). Am schmalen Küstenstreifen am Mittelmeer herrschen milde Winter vor, in denen etwas Regen fällt. Durchschnittlich erhält man hier 250 bis 400 mm Niederschlag im Jahr, was in etwa 30–50 Regentagen entspricht, die sich fast ausschließlich von November bis Februar einstellen. Die Temperaturen betragen in dieser Zeit 8–12 °C in der Nacht und 16–20 °C am Tag. Das Frühjahr ist warm, mit Werten zwischen 12 und 16 °C bzw. 20–28 °C, fast ohne Niederschlag. Dann ist auch die Zeit heißer Sandstürme (Gibli) aus dem Süden, die selbst im April Spitzentemperaturen von bis zu 43 °C mit sich bringen können. Die Sommer sind lang, sehr trocken und heiß bei durchschnittlichen Tageswerten von 30–33 °C. In den Nächten sinken die Temperaturen gewöhnlich auf etwa 20–22 °C ab. Der Herbst zeigt sich warm und gegen Ende hin wieder etwas feuchter mit Tages- und Nachtwerten von 22–27 bzw. 13–16 °C. Zu dieser Zeit können abermals Gibli auftreten, die dann wiederum Hitzewellen von 40 °C verursachen. Die Luftfeuchtigkeit ist mit 60–75 % ganzjährig hoch. Das soeben beschriebene Klima trifft auch auf Städte wie Tripolis (die Hauptstadt), Misrata, Surt, al-Baida und Benghazi zu. Die Steppen- und Wüstengebiete, die schon kurz hinter der Küste beginnen, sind geprägt von milden Wintern und sehr heißen Sommern. Niederschlag gibt es das ganze Jahr über so gut wie keinen (0–5 Niederschlagstage bzw. 1–35 mm Regen). Im Winter bewegen sich die Temperaturen bei warmen 18–24 °C am Tag, während sie in der Nacht auf kühle Werte von 3–8 °C fallen. In manchen Gegenden ist leichter Frost durchaus möglich. Die Luftfeuchte ist bei 35–55 % mittel. Frühjahr und Herbst sind tagsüber sehr warm (24–35 °C, wobei es aber auch heißer werden kann), in den Nächten weiterhin kühl (10–18 °C). Des Öfteren gibt es Sandstürme, die manchmal auch die Küste erreichen. Die Luftfeuchte nimmt im Frühjahr ab, im Herbst wieder zu. Die Sommer sind sehr heiß mit trockener Luft (nur 20–30 % Luftfeuchte). Die Tagesdurchschnittstemperaturen betragen 38–42 °C, in den Nächten zwischen 20 und 26 °C. Die libyschen Wüstengebiete gelten mit bis zu 58 °C als der Ort mit den weltweit höchsten je gemessenen Temperaturen. In der Stadt Ghadamis an der tunesischen Grenze betragen die Höchstwerte ganzer fünf Monate (Mai bis September) 50 °C und darüber. Das Wüstenklima trifft auf Städte wie Ghat, Ghadamis, Kufra und Sabha zu, die trotz ihrer Entfernungen zueinander sehr ähnliche klimatische Verhältnisse aufweisen. Flora und Fauna. Die küstennahen Gebirge haben Mittelmeerflora, in den Küstentiefländern gibt es Steppenvegetation. Die Tierwelt umfasst die typischen Arten der Trockengebiete, wie Dünengazellen, Hyänen, Schakale, Wüstenspringmäuse und Wüstenfüchse (Fenneks), außerdem leben hier Anubispaviane, Wildesel, Hasen und Falbkatzen sowie verschiedene Greifvögel, Schlangen und Skorpione. Zwischen 1990 und 2000 hat der Bestand an Wild um 1,4 % zugenommen. 2009 zählte man 141 Heuschreckenarten. Bevölkerung. 1960 hatte Libyen noch weniger als 1,5 Millionen Einwohner. Seit 1975 stieg die Bevölkerung von 2,5 Millionen auf 6,2 Millionen Menschen (2012, Schätzung). Im Jahr 2005 waren 30 % der Bevölkerung unter 15 Jahre alt. Rund 90 % der Bevölkerung leben in den Küstengegenden von Tripolitanien und der Cyrenaika, davon 85 % in Städten. Knapp ein bis zwei Millionen Gastarbeiter waren bis zum Ausbruch des Bürgerkrieges im Land beschäftigt. Die Lebenserwartung betrug 2005 74 Jahre. Ethnisch-kulturelle Gruppen. Die Bevölkerung bestand 2011 zu 97 % aus kulturell und sprachlich arabisierten Berbern und Arabern sowie aus sprachlich nicht assimilierten Berbern. Mit der islamischen Eroberung des Landes wurde nach und nach ein Großteil der Gesellschaft arabisiert; die in ihren traditionellen Stammesgesellschaften lebenden Berber machen nur noch etwa 25 % der Bevölkerung aus. Die arabische Bevölkerung ist wiederum in mehrere voneinander abgrenzende Gruppen gegliedert, die üblicherweise als „Stämme“ bezeichnet werden. Nur noch 5 % der Bevölkerung sind Nomaden. Im Westen Libyens leben Teile des berberischen Nomadenvolks der Tuareg und im Süden zahlreiche Tubu, welche aufgrund ihrer schwarzen Hautfarbe von starken Diskriminierungen betroffen sind. Daneben gibt es Italiener, die allerdings nach 1969 größtenteils das Land verlassen mussten. Weitere Minderheiten sind Griechen, Türken, Kurden und Levantiner sowie Malteser, Ägypter, Tunesier, Inder und Pakistaner. Die Juden, die bereits seit Jahrtausenden an der Küste ansässig waren, wurden nach dem Pogrom von Tripolis 1945 aus dem Lande vertrieben. Sprachen. Die Bevölkerung hat zum größten Teil den libysch-arabischen Dialekt als Muttersprache, daneben werden als Minderheitensprachen die Berbersprachen Nafusi (101.000 Sprecher), Ghadames (42.000 Sprecher) und Tamascheq (17.000 Sprecher) sowie die nilosaharanische Tubu-Sprache Tedaga (2.000 Sprecher) gesprochen. Amtssprache ist bislang allein Hocharabisch, ab 1969 wurde unter Gaddafi eine nationalistische Kampagne zur Arabisierung gestartet, welche Italienisch als Fremdsprache und die Berbersprachen aus dem öffentlichen Leben verdrängen sollte. Eine neue Verordnung schrieb vor, dass alle Straßenschilder, Schaufensterbezeichnungen, Firmenschilder und Verkehrsausweise auf Arabisch beschriftet werden müssen. Seit den 1980er Jahren wird fast nur Arabisch verstanden. Unter Gaddafi war Fremdsprachenunterricht an Schulen verboten, an Hochschulen durfte nur Theorie und Geschichte von Fremdsprachen gelehrt werden Die Übergangsregierung ließ neben Hocharabisch als Amtssprache auch die jeweiligen Berbersprachen zu. Religion. Der Islam ist Staatsreligion. Die freie Religionsausübung war unter Gaddafi garantiert, soweit sie nicht im Widerspruch zu den Traditionen stand. Staat und Religion waren bislang getrennt, Geistliche auf das Religionswesen beschränkt. Die volksrepublikanische Regierung gab sich in ihren programmatischen Äußerungen als frauenfreundlich: Unter ihr wurde die Koedukation betrieben, allerdings schockte die Einführung der Wehrpflicht für Frauen und die Aufnahme von weiblichen Personen in Militärakademien die islamische Männergesellschaft. Die Senussi sind eine religiöse Bruderschaft mit weltlichem Herrschaftsanspruch in der Kyrenaika. Sie kämpfte ab 1911 gegen die Italiener, ab 1943 gegen die Briten. Von 1951 bis zur Revolution von 1969 stellte sie den König. In den letzten Jahren ist landesweit eine verstärkte Hinwendung zum orthodoxen Islam zu verzeichnen; die Verschleierung der Frau nimmt zu. Seit den 1980er Jahren werden im Untergrund operierende Gruppen wie Muslimbrüder, at-Takfir wa’l-Higra, Hisbollah, al-Dschihad und ihre religiöse Tendenz zur Vereinnahmung der Politik als islamistische Gefahr für Libyen bezeichnet. Seit der Mitte der neunziger Jahre ist auch die Libysche Islamische Kampfgruppe vor allem in der Kyrenaika aktiv. 97 % der Bevölkerung sind sunnitische Muslime, vorwiegend malikitischer Richtung. Die traditionsbewussten Berberstämme gehören mehrheitlich der islamischen Sondergemeinschaft der Ibaditen an. Es gibt noch rund 74.000 Katholiken in Libyen, einige koptische und einige griechisch-orthodoxe Christen. Die meisten christlichen Kirchen wurden nach der Machtübernahme Gaddafis 1969 geschlossen. Die Nachfahren der nach den Pogromen von 1948 verbliebenen etwa 7000 jüdischen Libyer emigrierten nach dem Sechstagekrieg. Sozialsystem / Bildung. Libyen hatte eines der höchsten Pro-Kopf-Einkommen des afrikanischen Kontinents. Die Sozialversicherung der Einwohner umfasste die kostenlose medizinische Versorgung sowie Witwen-, Waisen- und Altersrenten. Allgemeine Schulpflicht bei kostenlosem Unterricht besteht für Sechs- bis Fünfzehnjährige. Dennoch liegt die Analphabetenrate der Frauen noch bei 29 % und die der Männer bei 8 %; diese Rate ist aber mit insgesamt 17 % im afrikanischen Vergleich sehr niedrig. Universitäten gibt es in Tripolis, Bengasi und an anderen größeren Orten. Obwohl Gaddafi in markantem Gegensatz zu anderen arabischen Sozialisten konservativ-islamische Ansichten zur Rolle der Frau hatte, hatten Frauen unter seiner Herrschaft in Libyen, verglichen mit anderen arabischen Ländern, eine hohe Bildung. Bei einer Scheidung durften sie das gemeinsame Haus oder die Wohnung behalten. Es gab Kindertagesstätten für berufstätige Frauen sowie Frauen in klassischen „Männerberufen“ wie Polizistinnen oder Pilotinnen. 1979 richtete Gaddafi eine Militärakademie für Frauen ein. Die meisten gebildeten Frauen waren aber im Gesundheitswesen und als Lehrerinnen tätig, und die Frauenerwerbsquote lag Mitte der 1990er Jahre unter 10 %. Polygamie blieb in Libyen, anders als im benachbarten Tunesien, erlaubt, der Mann musste für die Heirat einer Zweitfrau lediglich die Genehmigung der anderen Ehefrau einholen. Auch wurde der Ehepartner in den meisten Fällen von der Familie ausgewählt Für die medizinische Behandlung von Libyern, die im Zuge des Bürgerkrieges verletzt wurden, hat die libysche Regierung 140 Mio. US-Dollar an Jordanien gezahlt; Anfang Februar 2012 befanden sich dort rund 15.000 verletzte Libyer in Behandlung. Geschichte. Bereits in ägyptischen Hieroglyphentexten taucht eine Benennung für die westlich benachbarten Stämme auf. Die Griechen nannten das Land "Libyē" (), das lateinische Pendant ist "Libya." Damit war in der Antike das Land beiderseits der Großen Syrte gemeint. Vom 7. Jahrhundert v. Chr. an gründeten sie an der Küste Kolonien, darunter die Stadt Kyrene. Dieser Teil des Landes, die Kyrenaika, stand in den folgenden Jahrhunderten unter der Herrschaft Ägyptens. In dem sich westlich daran anschließenden Gebiet hatten die Phönizier etwa um 700 v. Chr. die drei Städte Sabratha, Oea und Leptis Magna gegründet – der Name Tripolitanien (Drei-Städte-Land) hat hier seinen Ursprung. Sie kamen bereits im 6. Jahrhundert v. Chr. unter die Vorherrschaft Karthagos. Nach dessen Zerstörung 146 v. Chr. geriet Tripolitanien unter römische Herrschaft, 96 v. Chr. wurde auch die Kyrenaika Teil des Römischen Reiches. Bei der römischen Reichsteilung 395 n. Chr. verblieb Tripolitanien bei Westrom, während die Kyrenaika Ostrom zugeschlagen wurde. Mitte des 5. Jahrhunderts fielen die Vandalen in Libyen ein; die Rückeroberung gelang Byzanz ab 533 unter Führung des Generals Belisar. Zwischen 641 und 644 besetzten die Araber das Gebiet; die dort ansässigen Berber wurden islamisiert. Türkische und italienische Herrschaft. Anfang des 16. Jahrhunderts wurde Tripolitanien zunächst von den Spaniern erobert, die das Gebiet dann aber an den Johanniterorden abtraten. Im Jahre 1551 eroberten die Osmanen ganz Libyen. Tripolis war dann lange Zeit Stützpunkt der Korsaren und wurde mehrmals Ziel von Angriffen europäischer und sogar amerikanischer Kriegsflotten. Im 19. Jahrhundert suchte die Senussi-Bruderschaft, ein in der Kyrenaika ansässiger islamischer Orden, die Macht zu erlangen. Er bildete auch den Kern des Widerstandes, nachdem Italien nach dem italienisch-türkischen Krieg (1911–1912) Libyen annektiert hatte. Die italienische Eroberung Libyens erfolgte in drei Phasen. Während der ersten Phase 1911 bis 1914 konnten Tripolitanien und Fessan von den Italienern erobert werden, allerdings wurden sie anschließend durch Rebellionen wieder bis an die Küsten zurückgedrängt. Während der zweiten Phase 1915 bis 1922 erhielten die Libyer von den Italienern Selbstverwaltungsrechte zugesprochen. Nach dem Machtantritt der Faschisten unter Benito Mussolini in Rom folgte von 1923 bis 1932 die dritte Phase, während der Italien einen fast zehnjährigen Kolonialkrieg führte, in dessen Verlauf – unter Einsatz von Flächenbombardements, Giftgas und Konzentrationslagern – rund 100.000 Libyer ums Leben kamen, was ca. 15 % der Gesamtbevölkerung entsprach. 1934 erklärte Italien seine libyschen Besitzungen zur Kolonie Italienisch-Libyen. Es kam bereits hier zu Grenzstreitigkeiten um den Aouzou-Streifen im Süden mit Frankreich und seiner Kolonie Französisch-Äquatorialafrika. Im Zweiten Weltkrieg griffen italienische Truppen Ägypten an, wurden aber von britischen Truppen zurückgeschlagen. Von 1941 bis 1943 unterstützten deutsche Truppen („Afrikakorps“ unter Generalfeldmarschall Erwin Rommel) die italienischen Einheiten in Libyen gegen alliierte Verbände, bis sowohl die italienischen als auch die deutschen Einheiten im Mai 1943 bei Tunis kapitulieren mussten. Von 1943 bis 1949 war Libyen von Großbritannien und Frankreich besetzt. 1949 beschlossen die Vereinten Nationen, Libyen in die Unabhängigkeit zu entlassen und setzten als Hochkommissar Adrian Pelt ein. Unabhängigkeit als Königreich Libyen 1951. 1951 wurde Libyen in die Unabhängigkeit entlassen. König der konstitutionellen Monarchie wurde das Oberhaupt der Senussi, Idris I. Die Entdeckung reicher Erdölvorkommen seit 1959 machte Libyen zu einem der bedeutendsten Erdöl exportierenden Länder der Welt. Militärputsch 1969 und Folgen. Auf der anderen Seite verstärkten sich jedoch die sozialen Spannungen im Innern, was neben anwachsenden nationalistischen Stimmungen schließlich am 1. September 1969 (neuer Nationalfeiertag) zum Sturz der Monarchie durch das Militär und zur Ausrufung der Arabischen Republik Libyen führte. König Idris und Königin Fatima gingen nach Kairo ins Exil. Der Vorsitzende des Revolutionären Kommandorates, Oberst Muammar al-Gaddafi, versuchte die radikale Arabisierung des Landes. Unter anderem wurde die frühere katholische Kathedrale von Tripolis in eine Moschee umgebaut. Seine Pläne zur Schaffung einer panarabischen Union mit einigen Nachbarländern zwischen 1969 und 1974 scheiterten aber unter anderem an seinem Führungsanspruch. Er benannte Libyen auch in "Dschamahirija" um. In den folgenden Jahren wurden alle Erdölgesellschaften verstaatlicht. Am 2. März 1977 wurde Libyen mit der Deklaration von Sebha, die den Charakter eines Staatsorganisationsgesetzes hat, zur sozialistischen arabischen Volksrepublik (Dschamahiriyya) mit 1200 „Volkskomitees“ erklärt. Eine formelle Staatsverfassung hatte Libyen danach nicht mehr, als solche angesehen wurden die "Konstitutionelle Proklamation" von 1969 bzw. 1992 und die "Deklaration über die Autorität des Volkes" von 1977. Eine neue Nationalflagge und ein neues Staatswappen wurden eingeführt. Dschamahirija (Volksrepublik) 1977. 1977 führte Libyen einen kurzen Grenzkrieg gegen Ägypten und von 1978 bis 1987 einen Grenzkrieg mit dem Tschad um den Aouzou-Streifen. Gesetzgeber wurde in Libyen der Allgemeine Volkskongress. Dem Generalsekretär des Allgemeinen Volkskongresses, Muhammad Abu l-Qasim az-Zuwai, stand als Staatsoberhaupt ein siebenköpfiges Generalsekretariat zur Seite. Die faktische Macht lag jedoch beim Oberbefehlshaber der Streitkräfte, Oberst Muammar al-Gaddafi. Der Allgemeine Volkskongress, dessen ca. 2.700 Delegierte von lokalen Volkskongressen (rund 6 für je durchschnittlich 100 Einwohner), Gewerkschaften, Streitkräften und anderen Massenorganisationen entsandt wurden, war die höchste politische Institution und besaß sowohl legislative als auch exekutive Funktionen. Einige seiner Resolutionen hatten den Charakter von Grundrechten. Alle Libyer ab 18 Jahren waren zur politischen Partizipation verpflichtet. Parteien waren nicht zugelassen. Die wichtigsten Gewerkschaften wurden staatlich gelenkt; diese waren die "Nationale Föderation der Gewerkschaften" und die "Union der Erdöl- und Petrochemiearbeiter". 1979 trat Muammar al-Gaddafi von den Staatsämtern zurück, blieb aber als „Revolutionsführer“ Machthaber im Lande. 1988 wurde ein Volksgericht geschaffen, dessen Zuständigkeit politische und wirtschaftliche Korruption war. 2005 wurden diese umstrittenen Volksgerichte wieder abgeschafft. Im Jahr 2000 löste das Parlament auf Vorschlag Gaddafis die Zentralverwaltung des Landes weitgehend auf und übergab sowohl Gesetzgebung als auch Regierungsgewalt an regionale Parlamente und Ausschüsse. Aufstand und Bürgerkrieg 2011. Nach öffentlichen Protesten im Februar 2011, die die Sicherheitskräfte gewaltsam zu ersticken suchten, kam es zu einer Spaltung der politischen Führung des Landes. In Bengasi übernahmen bewaffnete Oppositionelle die Kontrolle. Nach einem koordinierten militärischen Eingreifen der NATO und einer Reihe arabischer Staaten zur Durchsetzung der mit der UN-Resolution 1973 eingerichteten Flugverbotszone gelang es den in der Libyschen Nationale Befreiungsarmee zusammengeschlossenen Milizen, die Einheiten der regulären Streitkräfte Libyens zu besiegen. Die Zahl der Kriegstoten liegt nach Schätzungen zwischen 10.000 und 50.000 2014 formierten sich die verschiedenen Milizen um zwei konkurrierende politische Allianzen unter dem Kürzel „Würde“ und „Morgendämmerung“, welche seit Mai 2014 einen neuen Bürgerkrieg austragen. Seit März 2015 sollen beide Allianzen nach Wunsch der United Nations Support Mission in Libya eine neue gemeinsame Regierung bilden. Entwicklung seit 2011 und neuer Bürgerkrieg. Nach dem Krieg und der internationalen Militärintervention wurde das Land von Kämpfen rivalisierender Milizen erschüttert. Zunächst schien der demokratische Prozess in Libyen voranzukommen, denn 2012 wurden die ersten fairen und freien Wahlen der Geschichte Libyens abgehalten. Bei dieser Wahl zum libyschen Nationalkongress 2012 wurde die weltliche und säkulare Allianz der Nationalen Kräfte (ANK) mit Abstand stärkste Partei. Der konkurrierenden islamistischen Partei für Gerechtigkeit und Aufbau gelang es jedoch, eine parlamentarische Mehrheit gegen die ANK zu bilden. In der Folgezeit waren die islamistisch geprägten Regierungen weder in der Lage noch anscheinend willens, die unabhängigen Milizen in Libyen aufzulösen oder in den Staat zu integrieren. Terroristische Gruppierungen und Milizen wie Ansar al-Scharia (Libyen) (welche für den Mord an US Botschafter J. Christopher Stevens verantwortlich gemacht wird) konnten sich frei im neuen Libyen bewegen. Unter der Präsidentschaft Nuri Busahmeins eskalierte die Lage endgültig, als der neue Staatschef Libyens die Regierung bei der Bekämpfung von unabhängigen Milizen nicht unterstützte, sondern mit dem „Operationsraum Libyscher Revolutionäre“ seine eigene islamistische Privatarmee gründete und förderte. Als sowohl freie Milizen als auch radikal-islamistische Milizen in Libyen freie Hand hatten und die islamistisch geprägten Regierungen diesen Zustand nicht beenden wollten oder konnten, rief dies das weltliche Lager auf den Plan, das von diesen Zuständen genug hatte. Unter General Chalifa Haftar bildete sich eine weltlich geprägte Allianz „Würde“, welche im Mai 2014 durch einen Militärputsch versuchte, die Macht im Land an sich zu reißen. Im Gegensatz zum Militärputsch in Ägypten 2013 scheiterte dieser, da die Muslimbrüder ein solches Vorgehen erwartet und ihrerseits ihre eigenen Milizen gegründet hatten. Die in den beginnenden Kriegswirren stattgefundene Parlamentswahl in Libyen 2014 im Juni 2014 sollte den beginnenden Bürgerkrieg abwenden und weiter den demokratischen Prozess fördern. Nachdem die Kräfte um Haftar die Wahlen bei einer Wahlbeteiligung von 18 % gewonnen hatten, putschte sich in Tripolis das islamistische Lager unter den Namen „Morgenröte“ zurück an die Macht und vertrieb die neue offizielle Regierung in den Osten des Landes. In diesem Bürgerkrieg kämpfen die beiden Allianzen „Würde“ (welche die offizielle Regierung stellt) und „Morgenröte“ sowie die Terrororganisation „IS“ um die Macht im Land. Er geht einher mit einem dramatischen Anstieg der Flüchtlingszahlen und mit schweren Menschenrechtsverletzungen. Die Vereinten Nationen sehen Libyen seit 2015 kurz vor dem wirtschaftlichen Zusammenbruch. Nach der Eroberung der Hauptstadt Tripolis setzte die Gegenregierung den Allgemeinen Nationalkongress wieder als Parlament ein. Der international anerkannte Abgeordnetenrat floh daraufhin nach Tobruk. Da die Armeen und Milizen beider Regierungen durch den fortlaufenden Bürgerkrieg geschwächt sind, gelang es Ablegern der Terrororganisation IS, Teile des Landes wie Sirte oder Darna unter ihre Kontrolle zu bringen. Der „IS“ rief ein Emirat aus, das dem selbsternannten „Kalifen“ Abu Bakr al-Baghdadi die Treue schwor. Der Sicherheitsrat der Vereinten Nationen strebt an, dass beide Regierungen eine Einheitsregierung bilden, die den Bürgerkrieg beendet, das Land stabilisiert und die Terrororganisation IS bekämpft. Seit Juni 2015 finden Friedensverhandlungen im marokkanischen Skhirat und Berlin zwischen den Vertretern der beiden libyschen Blöcke unter Vermittlung der „5+5“-Gruppe statt. Die „5+5“-Gruppe setzt sich aus Vertretern der fünf UN-Vetomächte, sowie Deutschland, Spanien, Italien, der EU und den Vereinten Nationen zusammen. Auf Seiten der libyschen Delegationen nehmen Vertreter der beiden Regierungen sowie der beiden Parlamente, unabhängige Gruppen und Milizen sowie Vertreter der Stadt Misrata teil. In Berlin begannen am 10. Juni 2015 Verhandlungen über die Zukunft Libyens im Auswärtigen Amt nach Einladung des deutschen Außenministers Frank-Walter Steinmeier. Am 6. Dezember 2015 wurde überraschend ein Abkommen geschlossen, das zur Bildung einer Einheitsregierung führen soll. Politik. Als oberstes Organ des Staates hat der Allgemeine Nationalkongress im August 2012 den am 27. Februar 2011 von Aufständischen gegründeten Nationalen Übergangsrat () abgelöst. Seit dem Sturz des langjährigen Machthabers Muammar al-Gaddafi stehen weite Teile des Landes unter Kontrolle von Milizen, die sich nicht dem Nationalen Übergangsrat unterstellten. Noch im August 2011 wurden Wahlen zum Allgemeinen Nationalkongress angekündigt, die vom 18. Juni bis 5. Juli 2012 stattfanden. Für die 200 Sitze haben sich 2.501 Kandidaten beworben. Im Anschluss daran wurde Mohammed Yusef el-Megarief zum Präsidenten gewählt. Am 13. September 2012 wurde Mustafa Abu Schagur zum Ministerpräsidenten gewählt. Laut dem am 29. Januar 2012 in Tripolis beschlossen Wahlgesetz zur Verfassungsgebenden Versammlung sollten 136 der Sitze an Kandidaten politischer Parteien und 64 Sitze an unabhängige Kandidaten vergeben werden. Bei der Wahl zum libyschen Nationalkongress 2012 sind ca. 60 % der Stimmen mit 120 von 200 an unabhängige Kandidaten vergeben worden und nicht an Parteilisten. Dabei wurden mehrere politische Parteien gegründet. Allerdings durften diese kein Geld aus dem Ausland annehmen. Ebenfalls war es ehemaligen Gaddafi-Anhängern verboten, an der Kandidatur teilzunehmen. Ein bis zum 3. Mai in Kraft getretenes Gesetz verbot die Gründung religiöser Parteien. Bei der Wahl Ende Juni 2014 waren nur unabhängige Kandidaten und keine Parteilisten mehr erlaubt, um politische Machtkämpfe in Zukunft zu verhindern. Dadurch erhoffen sich viele Libyer, dass dies ein weiterer Schritt zur Demokratisierung des Landes ist. Das neue 200-köpfige Parlament, der Abgeordnetenrat, übernahm am 4. August 2014 die Legislativrechte. Die in Libyen unter Gaddafi existierende Wehrpflicht für Frauen und Männer im Alter zwischen 18 und 35 Jahren ist faktisch abgeschafft. Die neue Übergangs-Regierung hat noch keine Regelung zur Wehrpflicht erlassen. Rechtssystem. Seit dem Ende des Bürgerkrieges befindet sich Libyens Rechtssystem in einem unklaren Zustand; seit 1978 hatte Libyen keine Verfassung mehr, eine neue muss erst noch beschlossen werden. Beim Aufbau eines Rechtssystems und einer rechtsstaatlichen Verwaltung soll die UNO-Mission UNSMIL Hilfe leisten. Der Aufbau eines neuen, allgemein anerkannten Justizwesens zieht sich hin. In Gefängnissen, überwiegend jenen, die sich nicht unter der Kontrolle des Übergangsrats befinden, wird wieder gefoltert. Das bis zum Bürgerkrieg geltende Zivilgesetzbuch folgte dem ägyptischen und war daher wie dieses von der französischen Rechtsordnung geprägt. Die Rechtsgrundlage der libyschen Verfassung war der Koran (Artikel 2). Im Personen-, Familien- und Erbrecht (Gesetz von 1984) sowie seit 1994 auch im Strafrecht galt das islamische Recht (Scharia). Seit 1973 war Homosexualität strafbar (Gesetz Nr. 70/1973). Zina (Ehebruch und Unzucht) wurde nach Gesetz Nr. 70/1973 mit 100 Stockhieben bestraft; Verleumdung wegen Unzucht/Ehebruch (qadhf) war ebenfalls strafbar. Als Grund wurde die Eindämmung von Prostitution genannt. Nach Aussage eines Verteidigers in Bengasi im Februar 2012 hatten die Milizen zu viel Macht. Von 50 Angeklagten wegen „Hochverrats gegen die Revolution“ konnten nur drei bei der Anhörung persönlich Stellung nehmen. Bei den restlichen 47 weigerte sich die Miliz, sie in den Gerichtssaal zu bringen; als Grund wurden „Sicherheitsprobleme“ genannt. Auch Folterungen von Angeklagten sind bekannt geworden. Im Dezember 2013 stimmte die Nationalversammlung Libyens für die Einführung der Scharia. Menschenrechte. Viele Menschenrechtsorganisationen wie Amnesty International berichten, dass auch unter den neuen Behörden, die nach dem Bürgerkrieg in Libyen an die Macht gelangten, die Menschenrechte in Libyen stark eingeschränkt sind. Durch Folter sollen mindestens zwölf Gaddafi-Anhänger getötet worden sein. Menschen mit schwarzer Hautfarbe werden diskriminiert, da diese oft pauschal als Söldner Gaddafis denunziert werden. In der Stadt Sebha kam es zu gewalttätigen Ausschreitungen gegenüber den Tubu. Es sollen bereits Dutzende Menschen gestorben sein. Auch die Organisation Open Doors erklärte, dass inzwischen in Libyen Christen verfolgt werden. Andere als islamische religiöse Versammlungen sind verboten. 2011 wurden mehrere Christen aufgrund ihres Glaubens inhaftiert. Es kam zu Übergriffen von Salafisten auf christliche Kopten. So wurden Anfang 2013 in Bengasi 100 Christen verschleppt und misshandelt. Schätzungen zufolge wurden landesweit mehr als 6.000 Menschen verhaftet, bisher ohne offizielle Anklage oder Aussicht auf einen Prozess. In den Internierungszentren der Stadt Misrata, die nicht dem Nationalen Übergangsrat, sondern der dortigen Revolutionsbrigade unterstanden, wurden Gefangene gefoltert. Die Hilfsorganisation Ärzte ohne Grenzen stellte bei insgesamt 115 Gefangenen Verletzungen durch Folter fest. Die Folterverhöre, von denen einige tödlich verliefen, wurden vom militärischen Geheimdienst NASS geführt. Die Behörden vor Ort ignorierten die Forderungen der Hilfsorganisation nach einem Ende der Folter. Nach Bekanntwerden des Foltertods des ehemaligen libyschen Botschafters in Frankreich in Sintan erklärte Justizminister Ali Hamida Aschur, die Verantwortlichen würden vor Gericht gestellt; die von Folter-Vorwürfen betroffenen Gefängnisse befänden sich überwiegend nicht unter der Kontrolle des Übergangsrates. Laut der Organisation Reporter ohne Grenzen liegt Libyen auf Platz 131 von 179 Ländern auf der Rangliste der Pressefreiheit. Außenpolitik. Libyen ist Mitglied der Vereinten Nationen (UN), der Afrikanischen Union (AU), der Organisation Erdöl exportierender Länder (OPEC), der Organisation arabischer Erdöl exportierender Länder (OAPEC), der Organisation der Islamischen Konferenz (OIC) und der Arabischen Liga, der Bewegung der Blockfreien Staaten sowie der Gemeinschaft der Sahel-Saharanischen Staaten SAD-CEN. In den 25 Jahren zwischen 1969 und 1994 gingen von Libyen zahlreiche Vereinigungsversuche mit arabischen und afrikanischen Staaten aus. Eine Reihe von Staaten, beispielsweise der Großteil der westeuropäischen Staaten, Australien, Kanada, Jordanien und die Vereinigten Arabischen Emirate erkannten den Übergangsrat als einzige legitime Vertretung des libyschen Volkes an und entsandten diplomatische Vertreter nach Bengasi. Die USA beorderten bisher nur einen ständigen Vertreter nach Bengasi, die Europäische Union eröffnete dort ein Verbindungsbüro und die Arabische Liga nahm Gespräche mit dem Übergangsrat auf. Am 3. August 2011 gab die US-Regierung bekannt, eine Botschaft des libyschen Übergangsrates in Washington D.C. einzurichten. Ferner gibt es Planungen, dass den Aufständischen 13 Millionen US-Dollar von gesperrten Konten der bisherigen libyschen Führung zur Verfügung gestellt werden. Zuvor war im März 2011 die Botschaft Libyens geschlossen worden. Auch das Vereinigte Königreich hatte die diplomatischen Vertreter Libyens ausgewiesen. Die Afrikanische Union, deren wichtigster Gründer und Spender Gaddafi war, hat eine gemeinsame Anerkennung des Rates zunächst zurückgewiesen, auch wenn die Mehrzahl dessen Mitglieder die Anerkennung bereits offiziell vollzogen hat. Als Nachfolger des geflohenen libyschen Botschafters in Deutschland, Dschamal al-Barag, nominierte der Nationale Übergangsrat Ali Masednah Idris el-Kothany, der bis dahin als Arzt in Hof (Saale) gelebt hatte. Am 16. September 2011 entschied die UN-Vollversammlung, dass von nun an der Nationale Übergangsrat Libyen bei den Vereinten Nationen vertritt. Beziehungen zu afrikanischen Staaten. Libyen unterstützte seit der Revolution von 1969 afrikanische Unabhängigkeitsbewegungen, beispielsweise in den damaligen portugiesischen Kolonien Angola und Guinea-Bissau gegen das diktatorische Estado Novo Regime. Auch unterhält Libyen zu fast allen afrikanischen Staaten gute Beziehungen, in so gut wie allen Hauptstädten existieren Botschaften und es unterstützt viele Regierungen sehr armer Länder mit Budgethilfen, aber auch mit sozialen und technologischen Projekten, zum Beispiel einem panafrikanischen Satelliten. Gaddafi propagierte stets eine inter-afrikanische (wie auch inter-arabische) Solidarität, so wurde schon die frühere Organisation für Afrikanische Einheit politisch und finanziell unterstützt. Aufgrund ihrer politischen Erfolglosigkeit regte Gaddafi die Gründung der Afrikanischen Union an, was 2002 umgesetzt wurde. Libyen finanzierte viele Institutionen der AU und Gaddafi wurde 2009 zu deren Präsidenten gewählt. Der Gründungsvertrag orientiert sich an der EU, so enthält dieser auch Erklärungen zur Einhaltung der Menschenrechte und zur Souveränität der Mitgliedsstaaten. Diese beiden Ansprüche konnten jedoch schon lange vorher nicht immer miteinander in Einklang gebracht werden, beispielsweise daran zu sehen, dass Libyen unter Gaddafi notorisch Menschenrechte verletzte. Andererseits unterstützte Libyen Regimegegner im benachbarten Tschad im Jahr 1983, jedoch erfolglos, da französische Fremdenlegionäre dem Diktator Hissène Habré halfen (dessen Regierungszeit von erheblichen Menschenrechtsverletzungen geprägt war) und die libyschen Truppen aus fast allen besetzten Gebieten vertrieben. Auch wurde die Polisario, deren beanspruchtes Gebiet, die Westsahara, völkerrechtswidrig von Marokko besetzt ist, von Libyen politisch unterstützt. In Libyen erhielten Angehörige anderer afrikanischer Staaten recht problemlos eine Aufenthaltsgenehmigung, so dass der Anteil an Gastarbeitern relativ hoch war. Im September 2000 kam es allerdings zu Pogromen libyscher Arbeitsloser gegen afrikanische Gastarbeiter. Daraufhin wurden im folgenden Januar 331 mutmaßliche Täter angeklagt. Ähnliche Pogrome gab es auch zu Beginn des Bürgerkrieges 2011, da Gaddafi nachweislich fremde Söldner aus vielen afrikanischen Staaten anheuerte, um den Aufstand niederzuschlagen. Seit dem Sturz Gaddafis 2011 setzte eine leichte Abkühlung der Beziehungen zu den afrikanischen Staaten ein, da die neue Regierung Gaddafis Prestigeprojekt, der AU, nicht länger als bedeutender Geldgeber zur Verfügung steht. Auch wenn die Mehrzahl der afrikanischen Staaten den Nationalen Übergangsrat bereits als legitime Übergangsregierung anerkannt hatte, lehnte die AU es ab, den NTC offiziell anzuerkennen. Beziehungen zu westlichen Staaten. Das von Libyens Außenpolitik über Jahrzehnte vertretene Streben nach arabischer Einheit stand in Zusammenhang mit einer ausgeprägten und aggressiven Feindschaft zu Israel und zu den USA, denen von den arabischen Staaten Hegemonialansprüche vorgeworfen werden. Gaddafi versuchte, auch andere afrikanische Regierungen zu einer ablehnenden Haltung gegenüber Israel zu bringen, was ihm in den 80er Jahren teilweise auch gelang. Auch wegen der Unterstützung Libyens für antiisraelische und antiamerikanische Terrorgruppen verschlechterte sich das Verhältnis zu den USA. Nach der Versenkung zweier libyscher Kriegsschiffe durch die US-Marine in der Operation Attain Document im März 1986 und dem im Gegenzug von libyscher Seite organisierten Bombenanschlag auf die Berliner Diskothek "La Belle" am 5. April 1986 bombardierte die US-amerikanische Luftwaffe in der Nacht vom 14. zum 15. April 1986 in der Operation El Dorado Canyon die beiden größten libyschen Städte Tripolis und Bengasi. Nach umstrittenen Angaben der libyschen Regierung soll dabei Gaddafis Adoptivtochter Hana ums Leben gekommen sein, es wird jedoch vermutet, dass diese noch lebt. Nach dem als Vergeltung für diese Luftschläge vonseiten Libyens verübten Lockerbie-Anschlag auf eine US-amerikanische Passagiermaschine im Dezember 1988 und der libyschen Weigerung, die beiden tatverdächtigen Geheimdienstagenten an die britische Justiz auszuliefern, verhängte der UN-Sicherheitsrat 1993 eine Reihe von Sanktionen gegen das Land, die erst nach dem Einlenken Gaddafis und der Überstellung der beiden Tatverdächtigen an den Internationalen Strafgerichtshof im Jahre 1999 wieder gelockert wurden. In allen Fällen, in denen Libyen terroristische Anschläge zur Last gelegt wurden, tauchten erhebliche Zweifel an seiner Täterschaft auf. Im Fall der Diskothek "La Belle" deuteten Ermittlungsergebnisse auf eine Beteiligung Syriens hin, wie die West-Berliner Polizei und das State Departement 1988 mitteilten. In den Fällen Lockerbie und UTA-Flug 772 gibt es ebenfalls Hinweise auf eine Täterschaft Syriens, Irans oder der palästinensischen PFLP-GC. Libyen wurde danach belastet, weil die USA, das Vereinigte Königreich und Frankreich eine Konfrontation mit diesen beiden Staaten vor dem Zweiten Golfkrieg scheuten. Im Zweiten Golfkrieg 1990 stellte sich Libyen auf die Seite des Irak. Im August 2000 vermittelte Libyen bei islamischen Terroristen auf den Philippinen die Freilassung gefangener westlicher Geiseln. Nach den Terroranschlägen am 11. September 2001 verurteilte Gaddafi die Gewaltakte und akzeptierte ausdrücklich das US-amerikanische Recht auf Selbstverteidigung. Nach weiteren Eingeständnissen und Entschädigungszahlungen für die Angehörigen der Lockerbie-Opfer sowie der Opfer eines weiteren Bombenanschlags auf ein französisches Verkehrsflugzeug im September 1989 (UTA-Flug 772) wurden die Embargomaßnahmen im September 2003 vollständig aufgehoben. Außerdem erklärte sich die libysche Regierung zu Entschädigungszahlungen für die Opfer des Bombenanschlags auf die Berliner Diskothek "La Belle" bereit. Gaddafi versuchte wiederholt, in den Besitz von ABC-Waffen zu gelangen. 1989 deckte die "New York Times" auf, dass eine westdeutsche Firma in Libyen eine Anlage zur Produktion von Senfgas baute. Unter dem Deckmantel des linksalternativen österreichischen „MOZ“-Verlags, den Gaddafi seit 1984 finanzierte, kauften libysche Geschäftsleute in Österreich große Mengen von Chemikalien, die für die Giftgasproduktion verwendbar waren. Bei Beginn des Bürgerkrieges 2011 befanden sich immer noch erhebliche Mengen Senfgas in libyschen Arsenalen. Seit Mitte der 1990er Jahre versuchte Gaddafi auch, in den Besitz von Atomwaffentechnologie zu gelangen. Unterstützt wurde er dabei von Abdul Kadir Khan, dem „Vater des pakistanischen Atomprogramms“. Im Oktober 2003 wurde ein nach Libyen fahrendes deutsches Schiff, die „BBC China“, aufgebracht. An Bord befand sich nukleare Technologie, unter anderem 1000 Zentrifugen zur Urananreicherung. Im Dezember 2003 erklärte Gaddafi daraufhin den Verzicht Libyens auf Massenvernichtungswaffen und ließ Anfang 2004 zahlreiche Komponenten für chemische Waffen vernichten. Am 10. März 2004 unterzeichnete Libyen außerdem das sogenannte Zusatzprotokoll zum Atomwaffensperrvertrag und räumte damit der Internationalen Atomenergie-Organisation umfassende Kontrollmöglichkeiten der Nuklearanlagen des Landes ein, woraufhin Frankreich, Großbritannien und im Mai 2006 auch die Vereinigten Staaten wieder diplomatische Beziehungen mit Libyen aufnahmen und es fortan nicht mehr der Gruppe der sogenannten Schurkenstaaten zuordneten. Stattdessen wurde Libyen in der Folgezeit ein begehrter Partner bei der Bekämpfung illegaler Einwanderung vor allem nach Italien, was auch ein Drängen der europäischen Staaten auf Aufhebung des Waffenembargos gegen Libyen nach sich zog. Am 17. Juli 2007 endete der international kritisierte, teilweise als politisch angesehene HIV-Prozess in Libyen gegen fünf bulgarische Krankenschwestern und einen palästinensischen Arzt nach sieben Jahren mit der Ausreise der Angeklagten in ihre Heimatländer. 2008 kam es nach der Verhaftung von Gaddafis Sohn Hannibal im Kanton Genf zu einer diplomatischen Verstimmung zwischen Libyen und der Schweiz, in dessen Verlauf Gaddafi der Schweiz den Dschihad erklärte. Seit dem Sturz Gaddafis beginnt unter der Übergangsregierung eine außenpolitische Öffnung des Landes, insbesondere gegenüber den westlichen Staaten, da diese beim Sturz des Regimes geholfen hatten. Militär und Polizei. Die Streitkräfte Libyens bestanden 2010 aus rund 119.000 Mann, wobei das Heer 50.000, die Luftwaffe 18.000 und die Marine 8.000 Mann unterhielt. 25.000 Soldaten waren zu dem Zeitpunkt Wehrpflichtige. Als Reserve dienten 40.000 Mann als Volksmiliz. Über den Einsatz entschied der Volksausschuss für Verteidigung. 3000 Mann gehörten der paramilitärischen Revolutionsgarde (Libysche Revolutionsgarde) an, die direkt Revolutionsführer Muammar al-Gaddafi unterstellt waren. Die Luftschläge der internationalen Koalition im Jahr 2011 zerstörten große Teile der Marine und der Luftwaffe sowie der gepanzerten Bodenfahrzeuge Libyens. Die instabile Sicherheitslage während des Bürgerkrieges führte außerdem dazu, dass der Großteil der Bevölkerung Waffen trug. Seit dem Ende des Bürgerkrieges stehen weite Teile des Landes unter der Kontrolle von Revolutionsbrigaden, die sich nicht dem Nationalen Übergangsrat unterstellen. Der neue Verteidigungsminister Usama al-Dschuwaili will diese Einheiten in die regulären libyschen Streitkräfte, die Polizei und andere Einrichtungen der neuen Regierung integrieren. Der Vorsitzende des Nationalen Übergangsrats, Mustafa Abdul Dschalil, hofft, dass bis Anfang April 2012 70-80 % der Revolutionäre integriert sein werden. Im November 2011 hatten Vertreter der Brigaden erklärt, sie wollten ihre Waffen so lange behalten, bis es eine neue, aus Wahlen hervorgegangene legitime Regierung gebe. Eine weitere Schwierigkeit bei der Integration der Revolutionsbrigaden stellt die desolate Lage bei den Staatsfinanzen dar. 2013 blockierten einige Milizen das Außen- und Justizministerium, da in diesen ehemalige Anhänger Gaddafis arbeiten. Die Regierung lenkte daraufhin ein und erließ ein Gesetz, welches ehemaligen Anhängern Gaddafis verbietet, für die Regierung zu arbeiten. Verwaltungsgliederung. Tripolis 1.780.000 Einwohner, Bengasi 650.629 Einwohner, Misrata 386.120 Einwohner, al-Aziziyya 287.407 Einwohner, Tarhuna 210.697 Einwohner und al-Chums 201.943 Einwohner. Aktuelle Gliederung. Die klassischen drei Regionen Libyens sind Tripolitanien, Fezzan und Cyrenaika. In dieser Form war Libyen bis 1963 geteilt. 1928 zählten die italienischen Kolonisatoren in Tripolitanien 596.000 und in der Cyrenaika 195.000 Menschen, der Fessan wurde damals teilweise von Frankreich und Großbritannien verwaltet und nicht gesondert gezählt. Nach Angaben von 2004 lebten in Tripolitanien 63,7 %, in Fezzan 7,8 % und in der Cyrenaika 28,5 % der Einwohner des Landes. Im Jahre 2007 fand die letzte Gebietsreform statt, in der die 32 (Einzahl:) durch 22 "Schaʿbiyyat" ersetzt wurden. Die drei historischen Gouvernements Libyens (1951–1963) Gliederung 2001–2007. Bis 2007 gab es in Libyen 32 Munizipien. Der arabische Begriff für eine libysche Verwaltungseinheit ist Scha’biya (Plural: "Sha’biyat", englisch: "Popularate"). Bis 1983 wurde Libyen in zehn Gouvernements eingeteilt, seitdem fanden sehr oft Territorialreformen statt, so Wirtschaft. Die libysche Wirtschaft war stark geprägt von planwirtschaftlichen Elementen mit Importverboten, Preiskontrollen und staatlich kontrollierter Verteilung. Seit der Revolution 1969 wurden sozialpolitische Maßnahmen ergriffen; Subventionierung der Grundnahrungsmittel, von Strom, Benzin und Gas, Wohnungsbauprogramme, Erhöhung der Mindestlöhne, seit 1973 Beteiligung der Arbeitnehmer an den Unternehmensgewinnen. Seit 1992 wurden allerdings verstaatlichte Immobilien wieder privatisiert. In der Folge dieser sozialpolitischen Maßnahmen war Libyen das Land mit dem geringsten Wohlstandsgefälle Afrikas. Der Bildungssektor wurde aufgebaut, es besteht Schulpflicht vom 6. bis 15. Lebensjahr, Schulbesuch ist kostenlos. Ab 2002 verfolgte die libysche Regierung unter Muammar al-Gaddafi einen vorsichtigen Kurs der Liberalisierung, der sich in einem deutlich steigenden Wachstum bemerkbar machte. So lag das reale Wirtschaftswachstum seit 2003 regelmäßig über 5 %. 2005 betrug das reale Wachstum 6,3 %, das vorläufige Wachstum 2006 wurde mit 5,6 % angegeben, für 2007 wurden 9,2 % geschätzt und für 2008 wurden 8,8 % erwartet. Nicht zuletzt die deutliche Zunahme des Ölpreises erlaubt es der Regierung, die Reformen zu beschleunigen. Ende März 2007 wurde in Bengasi die erste Börse Libyens eröffnet. Die Regierung privatisierte die staatliche Sahara-Bank und beschloss weitere Privatisierungsmaßnahmen in der Wirtschaft. Libyen gehörte 2007 allerdings zu den korruptesten Ländern der Erde (Rang 146 von 178 laut Korruptionswahrnehmungsindex im Jahr 2010) auf einem Niveau mit Kamerun, Elfenbeinküste, Haiti, Iran, Nepal, Paraguay und Jemen. Öl- und Gasvorkommen, Pipelines und Raffinerien Da das Land über reiche Erdölvorkommen verfügt, entstanden 70 % des BIP im Jahr 2005 durch Erdöl und Erdgas. Alle anderen Wirtschaftszweige spielten dementsprechend eine untergeordnete Rolle: Landwirtschaft 2,9 %, Bergbau 0,8 %, verarbeitendes Gewerbe 1,4 %, Elektrizität, Gas, Wasser 0,7 %, Bau 3,3 %, Handel, Hotellerie und Gaststättengewerbe 5,3 %, Transport, Lagerhaltung und Kommunikation 3,7 %, öffentliche Dienstleistungen 8,6 %. Die Arbeitslosenquote wurde 2004 mit 30 % angegeben. Die Inflationsrate lag 2008 bei 10,4 %, 2009 bei 2,0 %. Mit einem Human Development Index von 0,784 gilt Libyen (auch nach Beginn des Bürgerkriegs im Jahr 2011) laut den Vereinten Nationen als der höchstentwickelte Staat des afrikanischen Kontinents. Nach der libyschen Revolution 2011 und dem Sturz des Gadaffiregimes plant die neu gewählte Übergangsregierung bis 2015 die Einführung der Scharia. Zinsen sollen demnach verboten werden. Am 12. Oktober 2013 entführten regierungsnahe Milizen im Streit über die Verteilung der finanziellen Mittel in Libyen den Premier Ali Seidan. Landwirtschaft. In den wenigen landwirtschaftlich nutzbaren Gegenden an der Küste werden vor allem Weizen, Gerste, Gemüse, Oliven, Mandeln, Zitrusfrüchte und Datteln angebaut. Trotz der geringen landwirtschaftlichen Nutzfläche hat Libyens Dattelanbau an der Weltproduktion einen Anteil von 2–5 %. Auch der Olivenanbau hat an der Weltproduktion einen Anteil von 1–3 % (Stand 2006). Die Regierung forciert zudem seit Jahren eine Bewässerung von Feldern in der Wüste, die von vielen Umweltgruppen als umweltschädlich kritisiert wird. Industrie. Libyen hat die größten Erdölreserven Afrikas. Deshalb ist es nicht verwunderlich, dass die weitgehend verstaatlichte Wirtschaft Libyens auf den reichen Erdöl- und Erdgasvorkommen basiert. Die größten Zementfabriken Libyens sind die Werke von LCC und ACC. Nach Beendigung des US-Embargos im Jahre 2004 wurden in Libyen Niederlassungen von ABB, Siemens und von anderen internationalen Firmen wieder geöffnet. Aufgrund der Erdölförderung befinden sich vor allem an den Küstengebieten zahlreiche Raffinerien, außerdem Textil- und Nahrungsmittelindustrie. Im August 2013 ging die Ölförderung in Libyen auf ein geschätztes Tief von 300.000 Barrel Erdöl pro Tag zurück. Außenhandel. Exporte im Jahre 2010 wurden laut dem CIA Factbook (nach Italien 32 %, Volksrepublik China 9 %, Spanien 9 %, Deutschland 8 %, und USA 5 %) in Höhe von 41,9 Mrd. US-$ erzielt. Unter dem Markennamen Tamoil betreibt Libyen in Deutschland, Italien und der Schweiz eigene Raffinerien und gleichnamige Tankstellennetze. Die weitere Industrie ist auf den Chemie-, Textil-, Möbel- und Baustoffsektor beschränkt. Eingeführt (aus Italien 16,3 %, China 10,3 %, Türkei 10 %, Frankreich 6,8 %, Deutschland 6 %, Ägypten 6 %, Republik Korea 6 % und Tunesien 4 %) wurden Maschinen, Nahrungsmittel, Eisen und Stahl sowie Kraftfahrzeuge im Gesamtwert von 24,3 Mrd. US-$. Tourismus. Aufgrund der politischen Isolation in der Vergangenheit ist der Tourismus unbedeutend, hat aber großes Potential. Bisher nur spärlich besuchte Touristenziele wie die antiken Städte Leptis Magna, Sabrata und Kyrene, berühmte Oasenstädte wie Ghadames sowie viele mesolithische Felsmalereien in der südlichen Wüste könnten von der neuerlichen politischen Öffnung des Landes profitieren. Staatshaushalt. Der Staatshaushalt umfasste 2009 Ausgaben von umgerechnet 35,9 Mrd. US-Dollar, dem standen Einnahmen von umgerechnet 35,1 Mrd. US-Dollar gegenüber. Daraus ergibt sich ein Haushaltsdefizit in Höhe von 1,3 % des BIP. Die Staatsverschuldung betrug 2009 4 Mrd. US-Dollar oder 6,5 % des BIP. Am 30. Januar 2012 warnte der IWF, die Regierungsfinanzen seien in einem „gefährlichen“ Zustand. Im Budget für das Jahr 2012 gibt es ein Defizit von 10 Mrd. US-Dollar, die Regierung hat Schwierigkeiten, die Gehälter zu zahlen und Energie-Rechnungen zu begleichen. Laut dem Vorsitzenden des Übergangsrates betrugen die Einkünfte aus dem Ölgeschäft in den vorangegangenen fünf Monaten nur 5 Mrd. US-Dollar, die Kosten für Gehälter und Energie betrügen pro Jahr aber 14 Mrd. US-Dollar. Von den durch die Sanktionen eingefrorenen und wieder freigegebenen 100 Mrd. US-Dollar seien erst 6 Mrd. US-Dollar wieder im Land; man arbeite daran, auch den Rest zu erhalten. Gleichzeitig bereite man zusammen mit den lokalen Räten die organisatorischen Strukturen vor, damit öffentliche Angestellte bezahlt werden könnten, sobald das Geld da sei. Man rechne damit, dass dieser Prozess bis zum 17. Februar 2012 abgeschlossen sei. Am 6. Februar 2012 wurde bekannt, dass mehrere Millionen Dollar aus dem eingefrorenen und mittlerweile wieder freigegebenen Vermögen der Familie Gaddafi von korrupten Offiziellen der neuen Regierung gestohlen und in Koffern über Häfen außer Landes geschmuggelt wurden. Finanzminister Hassan Siglam drohte mit seinem Rücktritt, falls die Regierung nicht entweder die Kontrolle über die Häfen übernimmt oder den Rückfluss der eingefrorenen Gelder suspendiert. Verkehr. Libyen verfügt über Häfen in Tobruk (Naturhafen), Tripolis, Bengasi, Misurata, Mersa Brega sowie über mehrere Erdölverschiffungshäfen. Als internationale Flughäfen gibt es den Tripoli International Airport, den Flughafen Mitiga und den Flughafen Bengasi. Das Land hat mit etwa 47.600 km asphaltierten Straßen und etwa 35.600 km Pisten eine für die Region vergleichsweise sehr gute Infrastruktur. Zwei existierende Schmalspurstrecken in Tripolis und Bengasi wurden 1965 eingestellt. Aktuell wird in Libyen ein völlig neues Schienennetz in Normalspur errichtet, das langfristig küstennah die Lücke im Schienennetz Nordafrikas zwischen Tunesien und Ägypten schließen soll. Zunächst wird der Abschnitt zwischen Sirte und Bengasi zweigleisig gebaut, auf dem zuerst dieselgetriebene Züge verkehren sollen; später soll die Strecke elektrifiziert werden. Die Strecke soll mit ETCS ausgerüstet werden. Neben der Küstenbahn wird eine fast 1.000 km lange Strecke in Richtung Niger gebaut. Bewässerung. Der See Umm al-Maʾ in Libyen 1984 begann Libyen mit der systematischen Förderung der eiszeitlichen Süßwasservorkommen in der Sahara. Mit dem Great-Man-Made-River-Projekt startete das bisher größte Süßwasserprojekt der Welt. Damit möchte sich das Land nicht nur von Lebensmittelimporten unabhängig machen, sondern auch zu einem Agrarexportstaat werden. Laut Gaddafi gibt es zum GMMR-Projekt für die Trinkwasserversorgung der Bevölkerung keine Alternative. Fraglich ist jedoch die mittelfristige Kostenentwicklung angesichts der enormen Bau- und Wartungskosten. Unstrittig ist, dass das GMMR-Projekt eine gewaltige Bildungs- und Infrastrukturmaßnahme darstellt und Libyens ökonomische Stabilität nach Versiegen der Ölquellen gewährleistet, wobei bis heute ungewiss ist, wie groß die unterirdischen Süßwasservorkommen sind und somit die Dauer und das Funktionieren des Projekts. Durch den Sturz Gaddafis und die Machtübernahme der Rebellen 2011 ist die Fortführung dieser Politik nun jedoch fraglich. Atomprogramm. In den 1970er Jahren wollte Libyen einen Reaktor von der Sowjetunion kaufen und das Kernkraftwerk Sirt bauen lassen. Die Planungen wurden jedoch gestoppt. In der Folge arbeitete auch Libyen an der Entwicklung eigener Nuklear(waffen)technik. So gestand Abdul Kadir Khan, der „Vater der islamischen Atombombe“ und Chefentwickler des pakistanischen Atomwaffenprogramms, 2004 gegenüber dem pakistanischen Geheimdienst, in der Vergangenheit auch Libyen mit geheimen Atomwaffenplänen versorgt zu haben. Nachdem der libysche Staatschef Gaddafi im Dezember 2003 den Verzicht des Landes auf Massenvernichtungswaffen erklärte, räumte Libyen mit der Unterzeichnung des sogenannten Zusatzprotokolls zum Atomwaffensperrvertrag am 10. März 2004 der Internationalen Atomenergie-Organisation umfassende Kontrollmöglichkeiten der Nuklearanlagen des Landes ein. Im Juli 2007 unterzeichneten Gaddafi und der damalige französische Staatspräsident Nicolas Sarkozy eine Absichtserklärung über den Bau eines Kernkraftwerks. Telekommunikation. Der Telekommunikationssektor untersteht vor allem der 1984 gegründeten staatlichen Gesellschaft General Posts and Telecommunications Company (GPTC), welche noch bis zum Ausbruch des Bürgerkrieges von Gaddafis ältestem Sohn Mohammed geführt wurde. Die Anzahl der Festnetzanschlüsse im Land stieg von 105.000 Anschlüsse im Jahr 1974 auf 1,28 Millionen im Jahr 2009 an. Die beiden größten Städte Tripolis und Bengasi sind seit 1971 durch ein Seekabel miteinander verbunden, 1999 wurde eine Glasfaserkabelverbindung entlang der Küste zwischen Zuwara und Tobruk von Alcatel installiert. Weiterhin bestehen internationale Verbindungen nach Italien, Malta und Frankreich sowie eine direkte Telefonverbindung nach Tunesien. Ein geplantes Seekabel zwischen Libyen und Griechenland war für 2011 geplant, die Vollendung des Projektes verzögerte sich aber aufgrund des Bürgerkrieges, die Fertigstellung erfolgte dann im Januar 2013. Seit 1997 existiert im Land ein Mobilnetzwerk. 2009 hatte das Land 10,9 Millionen Nutzer, verteilt auf die beiden Gesellschaften al-Madar und Libyana. Als die Regierung zu Beginn der Aufstände im Februar 2011 die Verbindungen zum Osten des Landes abschaltete, übernahmen Aktivisten im April 2011 Teile des Libyana-Netzes und gründeten eine eigene Gesellschaft, welche sie Libyana al Hura (Freies Libyana) nannten. Die Anzahl der Internetnutzer wurde 2009 mit 353.900 Nutzern angegeben, die 1997 gegründete Libya Telecom and Technology (LTT), eine Tochtergesellschaft der GPTC, ist der einzige Internetanbieter des Landes. Während des Bürgerkrieges kam es immer wieder zu Störungen und Ausfällen, erst nach der Eroberung von Tripolis konnten alle Verbindungen wiederhergestellt werden, aufgrund der zerstörten Infrastruktur und der steigenden Nutzung blieb die Geschwindigkeit jedoch sehr niedrig. Der von Akami veröffentlichte "State of the Internet report 2011" stufte Libyen als Land mit dem langsamsten Internetzugang der Welt ein. Im Juli 2012 entschied die Regierung, den Internet-Markt für private Unternehmen zu öffnen. Damit soll das Monopol der staatlichen LTT beendet werden. Liliengewächse. Die Liliengewächse (Liliaceae) sind eine Pflanzenfamilie der Monokotyledonen (Einkeimblättrigen Pflanzen). Die etwa 16 Gattungen mit etwa 630 Arten sind in den gemäßigten Gebieten der Nordhalbkugel verbreitet, besonders in Ostasien und Nordamerika. Beschreibung. Liliengewächse sind fast immer ausdauernde krautige Pflanzen. Das Überdauerungsorgan ist immer eine Zwiebel. Die Laubblätter sind einfach, parallelnervig und glattrandig. Die Blüten stehen einzeln oder in Blütenständen zusammen. Die zwittrigen Blüten sind dreizählig (wie bei fast allen Einkeimblättrigen Pflanzen). Die sechs gleichgestalteten Blütenhüllblätter (Tepalen) sind meist frei und nur selten verwachsen. Es sind je Blüte sechs Staubblätter und drei Fruchtblätter vorhanden. Die Früchte sind entweder dreikammerige Kapseln oder Beeren. Systematik. Früher wurden bis zu 3.500 Arten zu den Liliengewächsen gezählt. Viele dieser Arten gehören heute zu den Familien Agavengewächse (Agavaceae), Lauchgewächse (Alliaceae), Spargelgewächse (Asparagaceae), Affodillgewächse (Asphodelaceae), Zeitlosengewächse (Colchicaceae), Hyazinthengewächse (Hyacinthaceae) (inzwischen: Scilloideae, Unterfamilie der Spargelgewächse) und Mäusedorngewächse (Ruscaceae) (inzwischen: Nolinoideae, Unterfamilie der Spargelgewächse). Synonyme für Liliaceae nom. cons. sind: Calochortaceae, Compsoaceae, Cymbanthaceae nom. inval., Fritillariaceae, Medeolaceae, Scoliopaceae, Tricyrtidaceae nom. cons., Tulipaceae Lorbeergewächse. Die Lorbeergewächse (Lauraceae) sind eine Familie der Bedecktsamer (Magnoliopsida). Die etwa 50 Gattungen mit 2000 bis 2500 Arten gedeihen vor allem in tropischen Gebieten. Fast alle Arten sind verholzende Pflanzen und wachsen als Bäume oder Sträucher; mit den "Cassytha" gibt es auch eine Gattung parasitischer Kletterpflanzen innerhalb der Familie. Besondere Bedeutung für den Menschen haben Zimt und Lorbeer, die aufgrund der aromatischen Inhaltsstoffe als Gewürz genutzt werden. Beschreibung. a> ("Cinnamomum verum") aus "Köhler's Medizinalpflanzen". Erscheinungsbild, Rinde, Holz und Wurzeln. Lorbeergewächse sind meist immergrüne, selten laubabwerfende, verholzende Pflanzen und wachsen als Bäume oder Sträucher, einzige Ausnahme ist die Gattung "Cassytha", deren Arten hemiparasitische, windende ausdauernde krautige Pflanzen sind. Die kleinsten strauchförmig wachsenden Arten erreichen kaum Wuchshöhen von 1 Meter, unter den Bäumen gibt es Arten mit Wuchshöhen von bis zu 50 Metern. Einige Arten wachsen leicht kletternd, sind also darauf angewiesen, von benachbarten Pflanzen gestützt zu werden. Bei vielen Arten duften alle Pflanzenteile aromatisch. Die Bäume besitzen meist eine glatte Rinde, die oftmals mit einer Vielzahl an runden, flachen Korkporen besetzt ist, es können jedoch auch stark rissige Rinden auftreten. Das Holz kann sehr leicht bis extrem fest sein, die relative Dichte liegt meist zwischen 0,4 und 0,8 g/cm3, kann aber auch 0,2 g/cm3 bis 1,3 g/cm3 erreichen. Innerhalb der Familie sind Brettwurzeln häufig zu finden, wobei aber stark ausgeprägte Brettwurzeln die Ausnahme bilden. Selten kommen auch Atemwurzeln und Stelzwurzeln vor. Blätter. Die meist wechselständig, selten gegenständig oder scheinbar in Wirteln angeordneten Laubblätter sind meist in Blattstiel und Blattspreite gegliedert. Die Blattspreiten sind meist einfach, ganzrandig und oftmals lederig. Die Blattoberseite ist meist dunkelgrün und glänzend, die Blattunterseite ist oft blaugrün. Größe und Form sind innerhalb der Familie sehr variabel, die kleinsten sind nur etwa 1 cm lang, die längsten erreichen mehr als 60 cm Länge; die Form reicht von kreisförmig bis bandförmig. Abweichend sind die schuppenförmigen Laubblätter in der Gattung "Cassytha" sowie gelappte Laubblätter, die in der Gattung "Sassafras", bei jungen Laubblättern auch in der Gattung "Actinodaphne" und bei zwei Arten aus der Gattung "Lindera" vorkommen. Die Behaarung besteht ausschließlich aus einzelligen Trichomen, die etwas gekammert erscheinen können. Sie variieren in Größe, Form, Ausrichtung und Dichte, können aber auch fast vollständig fehlen. Meist ist die Behaarung auf der Oberseite dichter als auf der Unterseite. Die Aderung ist meist fiederig, in vielen Gattungen treten jedoch auch Blätter mit drei Hauptadern auf. Auf der Unterseite sind in den Achseln der Adern gelegentlich Domatien zu finden. Nebenblätter werden innerhalb der Familie nicht ausgebildet. Blütenstände und Blüten. Die seitenständigen Blütenstände sind meist geschlossen und thyrsenförmige Rispen bis Botryoiden oder Pseudodolden. Selten sind sie zu Köpfen zusammengeschlossen oder zu einer einzelnen Blüte reduziert. Einige Vertreter bilden Blütenstände mit mehreren hundert Blüten. Die Blütenstände innerhalb der Gattung "Cassytha" und einiger Arten von "Litsea" und "Mezilaurus" sind offen, in der Art "Licaria capitata" sind die Internodien des Blütenstandes stark verkürzt, so dass ein kopfiger Blütenstand entsteht, der an einem langen Blütenstandsstiel steht. Selten wird der gesamte Blütenstand von großen Tragblättern eingeschlossen, häufiger sind mehrere doldenförmige Gruppen von Blüten, die von Hochblatthüllen umgeben werden oder Blütenstände, bei denen Hoch- oder Tragblätter fehlen. Die Blüten können zwittrig oder eingeschlechtig sein. Wenn die Blüten eingeschlechtig sind können die Arten diözisch, polygamomonözisch oder monözisch sein. Eingeschlechtige Blüten treten unter anderem in den Gattungen "Actinodaphne", "Endlicheria", "Lindera", "Neolitsea" und "Rhodostemonodaphne" auf. Die relativ kleinen Blüten sind mit Durchmessern von meist 2 bis 8 mm, 1 bis 20 mm radiärsymmetrisch. Der frei vom Fruchtblatt stehende Blütenboden kann mehr oder weniger hoch becherförmig, klein oder deutlich vergrößert und urnenförmig ausgeprägt sein. Die Blüten sind meist dreizählig. Zweizählige Blüten kommen in den Gattungen der Lorbeeren ("Laurus"), bei "Neolitsea" und "Potameia", in der Gattung "Endiandra" bei "Endiandra xanthocarpa" und gelegentlich in "Cinnadenia" vor; vierzählige oder unregelmäßige Blüten gibt es in der Gattung "Chlorocardium". Die Blütenhülle besteht in den meisten Fällen aus zwei Kreisen meist gleichgestaltiger oder manchmal etwa unterschiedlich geformter Blütenhüllblätter. Gelegentlich sind die Blütenhüllblätter des äußeren Kreises um die ½ bis ¼ kleiner als die des inneren Kreises. Abweichend davon weisen die Gattungen "Dicypellium" und "Phyllostemonodaphne" drei und "Eusideroxylon" vier Kreise von Blütenhüllblättern auf, wovon die inneren Kreise umgewandelte Staubblattkreise darstellen. In den Gattungen "Litsea" und "Lindera" können Teile der Blütenhülle in Staubblätter umgewandelt sein, so dass Blütenhüllblätter auch komplett fehlen können. Die Farben der Blütenhüllblätter reichen von meist grünlich, gelblich, weißlich bis weiß oder selten rötlich. Die Blütenhüllblätter sind aufrecht, ausgebreitet oder zurückgebogen; selten sind sie nach innen gebogen. Die Staubblätter stehen ursprünglich in vier Kreisen aus je drei Stück, wovon der innerste Kreis meist steril ist oder fehlen kann. Gelegentlich sind auch ein oder zwei der restlichen drei Staubblattkreise steril oder fehlend. In einigen Gattungen ist die Zahl der Staubblätter höher, so bei "Actinodaphne" (bis zu 15), "Chlorocardium" (bis zu 20), "Cinnadenia" (bis zu 32), "Dodecadenia" (bis zu 18), bei den Lorbeeren ("Laurus") (bis zu 30), bei der Gattung "Lindera" (bis zu 15) und "Litsea" (bis zu 20). An der Basis der Staubblätter des inneren vorhandenen Kreises befindet sich oft ein Drüsenpaar. Die Staubbeutel sind zwei- oder vierkammerig und öffnen sich über Klappen meist von der Basis zur Spitze. Meist sind die Staubbeutel der äußeren zwei Kreise nach innen gewendet, beim dritten Kreis können sie auch nach außen gewendet sein. In einigen Arten der Gattung "Potameia" und selten in den Gattungen "Endiandra" und "Beilschmiedia" sind die Staubbeutel durch Verwachsung der Pollensäcke einkammerig. Die Pollenkörner sind mehr oder weniger kugelförmig und weisen meist einen Durchmesser von 18 bis 40 µm, seltener von 14 bis 70 µm auf. Die Pollenkornoberfläche ist meist mit 0,5 bis 2 (selten bis 3) µm hohen Stacheln besetzt. Es ist nur ein Fruchtblatt vorhanden, das meist oberständig ist, Ausnahmen sind die Gattungen "Hypodaphnis" bei der es unterständig und "Eusideroxylon" sowie "Potoxylon" bei denen es halb-unterständig ist. Das einzige Fruchtblatt enthält eine einzelne, anatrophe Samenanlage. Die Narbe ist dreilappig, scheiben- oder nierenförmig. Früchte und Samen. Als Früchte werden meist Beeren gebildet, die einen einzelnen, großen Samen enthalten. Selten sind es auch Steinfrüchte mit schwach ausgeprägten Endokarp. Die Fruchtform variiert zwischen eingedrückt kugelförmig bis zu keulenförmig oder fast spindelförmig, meist sind sie jedoch elliptoid. Die Früchte sind meist fleischig oder selten holzig. Die kleinsten Früchte sind nur etwa 5 mm lang, die größten gibt es bei der kultivierten Avocado ("Persea americana") mit über 15 cm Länge. Der Blütenboden und der Blütenstiel können an der Frucht entweder kaum vergrößert oder aber deutlich vergrößert sein. Dann bilden sie oft einen fleischigen oder holzigen Fruchtbecher um den unteren Teil der Frucht, was an Eicheln erinnert. Die Oberfläche der Früchte (Exokarp) ist meist glänzend schwarz oder dunkel bis bräunlich violett, gelegentlich ist sie von einer bläulichen Wachsschicht überzogen; auch andere Fruchtfarben, wie rot, hellbraun, grün, gelb oder weiß kommen selten vor. Die Samenschale (Testa) ist dünn, ein Endosperm ist nicht vorhanden. Der Embryo ist vollständig ausgebildet, gerade und besitzt sehr große Keimblätter. Nutzung und Bedeutung. Die heute ökonomisch bedeutendste Art ist die Avocado ("Persea americana"). Ihre Frucht wird hauptsächlich als Salatfrucht verwendet. Das aus der Frucht und dem Samen gewonnene Öl wird hauptsächlich in der Kosmetikindustrie genutzt. Viele Vertreter der Lorbeergewächse werden aufgrund ihres aromatischen Duftes als Gewürz genutzt. Vor allem Zimt, welches aus der Rinde junger Zweige des Ceylon-Zimtbaumes ("Cinnamomum verum") gewonnen wird, hat dabei eine besondere Bedeutung. Oftmals wird auch die Rinde nahe verwandter Arten genutzt, diese sind aber oft nur von minderwertiger Qualität. Die Zimtkassie ("Cinnamomum cassia") beispielsweise liefert eine weniger intensiv riechende Rinde. Die Nutzung der Blätter der Echten Lorbeers ist aus dem Mittelmeerraum seit der Antike bekannt. Bereits Rezepte aus dem Kochbuch von Marcus Gavius Apicius weisen die Verwendung nach. In den Überlieferungen der Griechischen Mythologie verwandelt sich Daphne in einen Lorbeerbaum, um sich vor ihrem Verehrer Apollon zu verstecken, der wiederum aus Trauer Kränze aus Lorbeerlaub trug. Lorbeerblätter wurden in Griechenland auch genutzt, um Olympioniken zu ehren, im Römischen Reich ehrte man siegreiche Feldherren mit Lorbeerkränzen. Weitere als Gewürze genutzte Pflanzen sind unter anderem der Sassafrasbaum ("Sassafras albidum") und "Litsea glaucens", "Cinnamomum tamala". Einige Arten, die niemals kultiviert wurden, sind aufgrund der extensiven Nutzung als Gewürz in ihrem Bestand bedroht, so zum Beispiel "Dicypellium caryophyllaceum". Für die Parfümerie werden aus einigen Arten aromatische Öle gewonnen, so beispielsweise Rosenholzöl aus "Aniba rosaeodora" oder das Brasilianische Sassafrasöl aus "Ocotea odifera". Das aus dem Kampferbaum ("Cinnamomum camphora") gewonnene Campher wird in der Pharmazeutischen Industrie eingesetzt, zudem gibt es eine Vielzahl an Nutzungsmöglichkeiten unterschiedlicher Arten aus der Volksmedizin. Viele Arten liefern Holz, welches zumindest in lokalen Rahmen Nutzung findet, auf dem Weltmarkt haben nur wenige Vertreter der Familie Bedeutung als Nutzholz, so beispielsweise "Chlorocardium rodiaei", "Eusideroxylon zwageri", "Ocotea porosa" und "Endiandra palmerstonii". Vorkommen. Die Familie Lauraceae besitzt eine pantropische Verbreitung, einige Arten reichen im Norden und Süden bis in gemäßigte Gebiete. Die nördlichste Verbreitung in der Alten Welt hat die Gattung "Lindera", die bis auf die japanische Insel Hokkaidō reicht, die südlichsten altweltlichen Vertreter sind drei Arten der Gattung "Beilschmiedia" auf Neuseeland. In der Neuen Welt reicht "Sassafras albidum" bis nach Maine und in den Süden Ontarios, im Süden begrenzt "Persea lingue" auf der chilenischen Insel Chiloé das Verbreitungsgebiet. Die Verbreitungsschwerpunkte der Familie liegen in den Indo-Malaiischen Gebieten und in Mittel- bis Südamerika. Im Tropischen Afrika hingegen sind nur relativ wenige Arten vertreten. In der Neotropis gibt es 27 Gattungen. Arten der Familie Lauraceae kommen in tropischen Bergwäldern in Höhenlagen bis etwa 4000 Meter vor und sind dort oftmals die am häufigsten vorkommende Familie. In Regenwäldern niedrigerer Höhenlagen ist jedoch die absolute Artenanzahl am höchsten. Obwohl in trockenen Gebieten die Verbreitung der Familie nachlässt, haben sich einige Arten an halbtrockene Standorte angepasst. Andere Arten wachsen auch an anderen extremen Standorten, wie beispielsweise zeitweise überfluteter Wald oder nahezu nährstoffloser Boden aus weißem Sand. Äußere Systematik. Die Familie Lauraceae wird in die Ordnung der Lorbeerartigen (Laurales) gestellt und ist dort die Familie mit der höchsten Artenzahl. Molekularbiologische Untersuchungen zeigten, dass die Familie zusammen mit den Hernandiaceae und den Monimiaceae eine monophyletische Klade bilden, die Verwandtschaftsverhältnisse der drei Familien untereinander ist noch nicht genau gesichert. Innere Systematik. Diese Familie wurde 1789 durch Antoine Laurent de Jussieu unter dem Namen „Lauri“ in "Genera Plantarum", S. 80 aufgestellt. Synonyme für Lauraceae sind: Cassythaceae und Perseaceae; dies waren eigenständige Familien mit jeweils nur einer Gattung "Cassytha" bzw. "Persea". Lippenblütler. Die Lippenblütler oder Lippenblütengewächse (Lamiaceae oder Labiatae) bilden eine Pflanzenfamilie in der Ordnung der Lippenblütlerartigen (Lamiales). Die Familie gliedert sich in sieben Unterfamilien und umfasst etwa 230 Gattungen und mehr als 7000 Arten. Sie sind weltweit in allen Klimazonen vertreten. Erscheinungsbild und Laubblätter. Sie wachsen als einjährige bis ausdauernde krautige Pflanzen oder verholzende Pflanzen: Halbsträucher, Sträucher, Bäume oder Lianen. Oft enthalten sie ätherische Öle und duften aromatisch. Die Sprossachse ist oft hohl und vierkantig. Die meist gegenständig, manchmal quirlständig oder selten wechselständig angeordneten Laubblätter sind gestielt bis ungestielt. Die einfache Blattspreite ist selten gefiedert, häufig einfach. Der Blattrand ist glatt, gekerbt, gezähnt oder gesägt. Nebenblätter fehlen. Blütenstände und Blüten. Die Blüten stehen einzeln oder achselständig in dichten mono- oder dichasialen Scheinquirlen. Selten sind Arten zweihäusig getrenntgeschlechtig (diözisch). Die meist zwittrigen Blüten sind zygomorph und meist fünfzählig. Die fünf Kelchblätter sind röhrig verwachsen, mit fünf Kelchzähnen oder zwei Kelchlippen. Man kann Mitglieder dieser Pflanzenfamilie oft anhand der charakteristischen „Lippenblüten“ erkennen. Sie zeichnen sich durch eine „Oberlippe“ (oft zurückgebildet) und eine „Unterlippe“ der Blüte aus; In der Regel sind von den fünf Kronblättern zwei zur Oberlippe und drei zur Unterlippe verwachsen. Ähnliche Blütentypen kommen aber auch in anderen Familien der Ordnung der Lippenblütlerartigen (Lamiales) vor. Es ist nur ein Kreis mit ursprünglich fünf Staubblättern vorhanden; eines ist reduziert, so dass nur vier, manchmal auch nur zwei fertile Staubblätter vorhanden sind, die mit dem Grund der Kronröhre verwachsen sind. Zwei Fruchtblätter sind zu einem oberständigen Fruchtknoten verwachsen; er ist durch falsche Scheidewände in vier Kammern gegliedert. Der Griffel endet in zwei Narben. Die Bestäubung erfolgt durch Insekten (Entomophilie) oder durch Vögel (Ornithophilie). Die Lippenblütler haben teilweise hoch spezialisierte, an die Blütenbesucher besonders angepasste Bestäubungsmechanismen entwickelt. formula_1 Früchte und Samen. Es werden typischerweise Klausenfrüchte gebildet, die in vier einsamige Teilfrüchte (Klausen) zerfallen. Aber es gibt auch Taxa mit Beeren oder Steinfrüchten (Viticoideae). Einige Arten bilden geflügelte Nussfrüchte. Inhaltsstoffe. Die wichtigsten Inhaltsstoffe sind ätherische Öle: beispielsweise giftige wie Kampher, Perillaketon, Pinocamphon, Pulegon, Thujon. Oft kommen auch nichtflüchtige, diterpenoide Bitterstoffe vor wie Carnosol (Pikrosalvin, Marrubin) und Carnosolsäure. Systematik. Synonyme für Lamiaceae und Labiatae nom. cons. sind: Aegiphilaceae, Chloanthaceae, Dicrastylidaceae nom. nud., Menthaceae, Nepetaceae, Salazariaceae, Scutellariaceae, Symphoremataceae, Viticaceae Der botanische Name der Typusgattung ("Lamium") der Familie Lamiaceae ist aus dem griechischen Wort "lamós" für Schlund, Rachen abgeleitet und der Name Labiatae ist aus dem lateinischen Wort "labium" für Lippe abgeleitet. Nutzung. Viele der Pflanzenarten dieser Familie zeichnen sich durch ätherische Öle aus, weshalb sie als Gewürz- oder Heilpflanzen genutzt werden.. Mehr als 60 Arten werden allein in den gemäßigten Gebieten angepflanzt, und viele Arten – etwa Minzen ("Mentha"), Basilikum ("Ocimum basilicum"), Lavendel ("Lavandula") oder Salbei ("Salvia") – werden gewerbsmäßig kultiviert. Zwei "Pogostemon"-Arten aus Südostasien, (Indisches Patschuli und Javanisches Patschuli), liefern das Patschuli-Öl, das ein wertvoller Grundstoff für schwere Parfüme ist. Einige Arten der Lippenblütler haben vor allem regionale Bedeutung. Gliedkräuter ("Sideritis") dienen im östlichen Mittelmeergebiet als Teekraut, im Iran würzt man Joghurt mit "Ziziphora" und in Indien und Südostasien dienen die Knollen von "Coleus rotundifolius" als Kartoffelersatz. Die Früchte des Mönchspfeffer ("Vitex agnus-castus") werden als Gewürz verwendet. Viele Arten werden als Zierpflanze genutzt, darunter "Ajuga", "Monarda", "Nepeta", "Physostegia", "Phlomis", "Salvia", "Scutellaria", "Stachys" und "Teucrium". Landkreis Donau-Ries. Der Landkreis Donau-Ries ist der nördlichste Landkreis des bayerischen Regierungsbezirks Schwaben und liegt an der Landesgrenze zu Baden-Württemberg. Lage. Der Landkreis Donau-Ries umfasst im Nordwesten das Nördlinger Ries, eine nahezu kreisrunde, in den Mittelgebirgszug des Schwäbisch-Fränkischen Jura eingesenkte Beckenlandschaft, deren Durchmesser etwa 22 km beträgt. Seine Existenz verdankt das Ries einem Meteoriteneinschlag, dem sogenannten Ries-Ereignis. Dem Ries schließt sich im Osten die Fränkische Alb an. Im Süden fällt diese zum Donau-Lech-Gebiet ab, welches geologisch zur Riesalb zählt. Die Donau streift das südliche Kreisgebiet von West nach Ost. Hier liegt die Große Kreisstadt Donauwörth, in deren Stadtgebiet die von Süden kommenden Zusam und Schmutter und die von Norden einmündende Wörnitz münden. Die Wörnitz durchfließt den Landkreis von Nord nach Süd und nimmt bei Heroldingen (Stadt Harburg) die von Westen einmündende Eger auf. Im Südosten des Kreisgebietes bei Marxheim mündet der von Süden heranfließende Lech in die Donau. Nachbarkreise. Nachbarkreise sind im Norden der Landkreis Ansbach und der Landkreis Weißenburg-Gunzenhausen, im Nordosten der Landkreis Eichstätt, im Osten der Landkreis Neuburg-Schrobenhausen, im Süden die Landkreise Aichach-Friedberg, Augsburg und Dillingen an der Donau und im Westen die baden-württembergischen Landkreise Heidenheim und Ostalbkreis. Landgerichte. Das heutige Kreisgebiet Donau-Ries gehörte vor 1800 großteils zum Fürstentum Oettingen und zur Reichsstadt Nördlingen. 1803 bzw. 1806 kam das Gebiet zu Bayern. 1803 wurde das Landgericht Monheim, 1805 das Landgericht Nördlingen und das Herrschaftsgericht Oettingen sowie 1807 das Landgericht Donauwörth errichtet. Sie gehörten alle ab 1808 zum Altmühlkreis bzw. Oberdonaukreis und ab 1810 zum Oberdonaukreis. 1809 wurde Nördlingen eine kreisunmittelbare Stadt. Ab 1838 gehörten alle Land- bzw. Herrschaftsgerichte zum Kreis Schwaben und Neuburg, dem heutigen Regierungsbezirk Schwaben. 1850 wurde auch Donauwörth eine kreisunmittelbare Stadt. 1852 wurde aus dem Herrschaftsgericht Oettingen das gleichnamige Landgericht gebildet. Bezirksämter. Im Jahr 1862 entstand aus den Landgerichtsbezirken Donauwörth und Monheim der Bezirk Donauwörth, wobei aus dem Landgericht Donauwörth das Stadt- und Landgericht Donauwörth gebildet wurde und aus den Landgerichtsbezirken Nördlingen und Oettingen der Bezirk Nördlingen. 1879/80 wurde der Bezirk Donauwörth geringfügig verändert, indem sieben Gemeinden dem Bezirk Neuburg an der Donau angegliedert wurden. Landkreise. Am 1. Januar 1939 wurde wie überall im Deutschen Reich die Bezeichnung Landkreis eingeführt. So wurden aus den Bezirksämtern die Landkreise Donauwörth und Nördlingen. 1940 wurden die kreisunmittelbaren Städte Donauwörth und Nördlingen in die Landkreise eingegliedert, doch wurde dies im Falle Nördlingens 1949 wieder rückgängig gemacht. Landkreis Donau-Ries. Im Rahmen der Gebietsreform wurde am 1. Juli 1972 aus den Landkreisen Nördlingen und Donauwörth sowie der kreisfreien Stadt Nördlingen, dem Raum Rain des Landkreises Neuburg an der Donau und kleineren Teilen der Landkreise Dillingen an der Donau und Gunzenhausen ein neuer Landkreis gebildet, der zunächst den Namen "Landkreis Nördlingen-Donauwörth" erhielt und am 1. Mai 1973 in "Landkreis Donau-Ries" umbenannt wurde. Vorläufiger Kreissitz war zunächst Nördlingen, doch wurde 1973 Donauwörth als Kreissitz festgelegt. Nördlingen erhielt aufgrund des Verlusts der Kreisfreiheit den Status einer Großen Kreisstadt. Am 1. Januar 1998 wurde auch Donauwörth zur Großen Kreisstadt erklärt, zumal diese Stadt bis 1940 kreisfrei war. Einwohnerentwicklung. Der Landkreis Donau-Ries gewann zwischen 1988 und 2008 rund 12.000 Einwohner hinzu bzw. wuchs um ca. 10 %. Ab 2006 war die Entwicklung rückläufig. Die nachfolgenden Zahlen beziehen sich auf den Gebietsstand vom 25. Mai 1987. Straßen. Der Landkreis hat keinen Anteil an Autobahnen. Wichtigste Verkehrsachsen sind die Bundesstraßen. In Nord-Süd-Richtung durchquert die B 2 den Kreis, die aus Nürnberg kommend (Anschluss zur A 6) nördlich von Monheim das Kreisgebiet erreicht und vorbei an Buchdorf, Kaisheim, Donauwörth und Asbach-Bäumenheim es südlich von Mertingen in Richtung Augsburg wieder verlässt (Anschluss zur A 8). Wichtigste West-Ost-Verbindung ist die B 16. Sie erreicht von Westen aus Günzburg (Anschluss zur A 8) bei Tapfheim den Landkreis und führt an Donauwörth, Asbach-Bäumenheim und Genderkingen vorbei, ehe sie östlich von Rain in Richtung Ingolstadt weiterführt (Anschluss zur A 9). Nördlich von Donauwörth zweigt von der B 2 die B 25 ab. Sie verläuft zunächst in nordwestlicher Richtung vorbei an Harburg durch Möttingen und dann weiter über Nördlingen, Wallerstein, Marktoffingen und Fremdingen nach Norden Richtung Dinkelsbühl (Anschluss zur A 7). Von Südwesten (aus Heidenheim an der Brenz) nach Nordosten (Richtung Ansbach) führt die B 466 durch den Landkreis und berührt Ederheim, Nördlingen, Oettingen und Hainsfarth. Die B 29 verläuft von Nördlingen aus in westlicher Richtung über Aalen (Anschluss zur A 7) bis Waiblingen. Bahn. Die vom bayerischen Staat erbaute Nord-Süd-Bahnlinie Augsburg–Gunzenhausen–Nürnberg erreichte 1844 Donauwörth und wurde 1849 über Nördlingen bis Gunzenhausen verlängert. Von Nördlingen aus erreichte man 1863 die württembergische Eisenbahn in Richtung Aalen (heutige Riesbahn Donauwörth–Aalen) und 1876 die Stadt Dinkelsbühl (Bahnstrecke Nördlingen–Dombühl). Mit der Donautalbahn Ingolstadt–Ulm, die 1874 bis Donauwörth eröffnet worden ist, entstand auch hier ein wichtiger Bahnknoten; die Strecke wurde 1877 bis Höchstädt weitergeführt. Staatliche Lokalbahnstrecken wurden 1903 von Nördlingen nach Wemding und 1905 von Mertingen Bahnhof nach Wertingen erbaut. Die direkte Trasse von Treuchtlingen nach Donauwörth über die Alb mit der Zweigbahn Fünfstetten–Monheim wird erst seit 1906 befahren. Damit war ein Schienennetz von 166 km Länge entstanden. Immerhin sind fast 100 km wichtiger Strecken erhalten geblieben; ferner wird auf 40 km Bahnen noch ein touristischer Verkehr – z.T. mit Dampfzügen – angeboten. Donauwörth ist der einzige Bahnhof des Landkreises, der an das ICE- und IC-Netz angeschlossen ist. Seit Eröffnung der Schnellfahrstrecke Nürnberg–Ingolstadt–München verkehren jedoch deutlich weniger Hochgeschwindigkeitszüge. Energieversorgung. Der Landkreis deckt 87 % des Stromverbrauchs aus eigener Erzeugung durch Erneuerbare Energien in der Region, davon ein Drittel durch Solaranlagen. Der Energienutzungsplan des Landkreises strebt einen weiteren Ausbau der regenerativen Energien an. Wappen. Blasonierung: „Geteilt: oben in Gold ein wachsender rot bewehrter schwarzer Adler, unten gespalten, vorne in Rot ein goldenes Andreaskreuz, hinten die bayerischen Rauten.“ Natur- und Landschaftsschutzgebiete. Im Landkreis gibt es 6 Naturschutzgebiete und 22 Landschaftsschutzgebiete. Geotope. Im Landkreis befinden sich 41 (Stand September 2013) vom Bayerischen Landesamt für Umwelt ausgewiesene Geotope. Kfz-Kennzeichen. Am 5. August 1974 wurde dem Landkreis das seit dem 1. Juli 1956 für den Landkreis Donauwörth gültige Unterscheidungszeichen "DON" zugewiesen. Es wird durchgängig bis heute ausgegeben. Bis in die 2000er Jahre erhielten Fahrzeuge aus dem Altkreis Nördlingen Kennzeichen mit den Buchstabenpaaren NA bis ZZ und den Zahlen von 1 bis 99, später auch 100 bis 999. Seit dem 10. Juli 2013 ist auch das Unterscheidungszeichen "NÖ" (Nördlingen) erhältlich. Edward Plunkett, 18. Baron of Dunsany. Edward John Moreton Drax Plunkett, 18. Baron of Dunsany (* 24. Juli 1878 in London; † 25. Oktober 1957 in Dublin) war ein irischer Schriftsteller. Heute ist er hauptsächlich unter dem Namen Lord Dunsany für seine der Fantasy zugerechneten Kurzgeschichten bekannt. Leben. Einer der Vorfahren Lord Dunsanys war der von der römisch-katholischen Kirche heiliggesprochene Erzbischof von Armagh, Oliver Plunkett. Die Countess of Fingall, Gattin von Lord Dunsanys Vetter, dem Earl of Fingall, verfasste eine vielgelesene Beschreibung des Lebens des Adels im Irland des späten 19. und frühen 20. Jahrhunderts, unter dem Titel "Seventy Years Young". Zu seiner Ausbildung besuchte Lord Dunsany das Eton College und die Royal Military Academy Sandhurst. Er diente als Offizier der Coldstream Guards im Zweiten Burenkrieg in Südafrika und bei den Royal Inniskilling Fusiliers im Ersten Weltkrieg, war ein guter Cricketspieler und brachte es zum irischen Meister im Pistolenschießen. Lord Dunsany war zudem ein guter Schachspieler, beispielsweise konnte er 1929 bei einer Simultanveranstaltung gegen Ex-Weltmeister José Raúl Capablanca ein Remis erreichen. Besonders widmete er sich dem Problemschach, er hat zahlreiche Schachaufgaben hinterlassen. 1942 erfand er seine Schachvariante "Dunsany’s Game", bei der die 16 Steine eines der Spieler durch 32 Bauern ersetzt worden sind. Werke. Lord Dunsany schrieb größtenteils Kurzgeschichten, daneben aber auch Lyrik, Dramen und Romane. Die heute noch bekannten Geschichten aus dem Bereich der Fantasy entstanden in den Jahren zwischen 1905 und 1919. Sie sind in eine eigenständige Welt, "Pegana", gesetzt, mit einer eigenen Mythologie und Geschichte, und gelten heute als Meilenstein der phantastischen Literatur. H. P. Lovecraft war von Dunsany beeindruckt; seine frühen Erzählungen zeigen Dunsanys Einfluss. Auch die von Lovecraft erdachte „Traumwelt“ ist stark von Dunsanys Werken geprägt. Fletcher Pratts Roman "The Well of the Unicorn" (1948) entstand als Fortsetzung zu Dunsanys Schauspiel "King Argimenes and the Unknown Warrior". Eine weitere Sammlung von Geschichten kreist um "Jorkens", einen englischen Gentleman, in dessen Kreis im Klub außergewöhnliche Geschichten zum Besten gegeben werden. von makabren Begebenheiten, die teilweise unter "Smetters erzählt Mordgeschichten" ins Deutsche übertragen sind. Die bekannteste dieser Geschichten ist "Zwei Flaschen Würze" ("The Two Bottles of Relish"). Aus Lord Dunsanys Feder stammen gleichfalls einige Schauspiele, die unten mit Premiereorten (falls bekannt) angegeben sind. Linse (Botanik). Die Linse oder Erve ("Lens culinaris"), auch "Küchen-Linse" genannt ist eine Pflanzenart aus der Gattung Linsen ("Lens") aus der Unterfamilie Schmetterlingsblütler (Faboideae) innerhalb der Familie der Hülsenfrüchtler (Fabaceae oder Leguminosae). Sie stammt wahrscheinlich von der wilden "Lens orientalis" ab. Vegetative Merkmale. Die Linse wächst als einjährige krautige Pflanze und erreicht Wuchshöhen von 10 bis zu 50 cm. Der schon ab der Basis verzweigte Stängel ist flaumig behaart. Die wechselständigen Laubblätter sind paarig gefiedert mit vier bis zwölf Paaren von Fiederblättchen. Die Fiederblättchen weisen eine Länge von 6 bis 20 mm und eine Breite von 2 bis 5 mm auf. Die Rhachis endet in einer Ranke. Die weiß behaarten Nebenblätter sind 3 bis 7 mm lang. Generative Merkmale. Die Blütezeit reicht von April bis September. Die traubigen Blütenstände enthalten nur eine bis drei Blüten. Die zwittrigen Blüten sind zygomorph und fünfzählig mit doppelter Blütenhülle. Die fünf Kelchblätter sind intensiv behaart. Die weißen oder blauen Kronblätter stehen der typischen Form der Schmetterlingsblüte zusammen, die 4,5 bis 6,5 mm groß ist. Der kurz gestielte Fruchtknoten ist kahl. Die bei Reife zwischen Mai und September gelbe Hülsenfrucht ist länglich und 10 bis 15 mm lang. Die runden, flachen, etwa 1 bis 2 mm dicken Samen weisen einen Durchmesser von 3 bis 7 mm auf. Die Chromosomenzahl beträgt 2n = 14. Vorkommen in Mitteleuropa. Die Linse gedeiht am besten auf mergeligen oder sandigen, kalkhaltigen, lockeren Lehmböden, die ziemlich flachgründig sein können. Es ist eine Kulturpflanze, die heute in Mitteleuropa kaum mehr angebaut wird, sie ist sehr selten und meist unbeständig auf Schuttplätzen oder auf Brachland verwildert. Anbau. Verzehrt werden ausschließlich die Samen. Linsen werden vor allem in Spanien, Russland, Chile, Argentinien, den USA, Kanada und Vorderasien angebaut. Allein in Indien sind über 50 Sorten verbreitet. In Deutschland werden sie in kleinsten Mengen auf der Schwäbischen Alb und in Niederbayern angebaut. Vor allem die kargen Böden der Schwäbischen Alb eignen sich für den Anbau der anspruchslosen Linse. Angebaut wird zumeist als Mischkultur gemeinsam mit Getreide, das die nötige Rankhilfe darstellt. Geerntet wird mit Mähdreschern. Das Erntegut besteht aus einer Mischung von Getreidekörnern und Linsen, die in einem technisch aufwendigen Verfahren getrennt werden müssen. Linsen können als Leguminosen auch auf schlechten Böden und unter ungünstigem Klima angebaut werden, die Ernteerträge sind aber insgesamt zu gering und gleichzeitig ist der technische Aufwand zu hoch, als dass sie in Deutschland im großen Stil zu konkurrenzfähigen Preisen angebaut werden könnten. Die Erträge schwanken je nach Witterung und Anbaubedingungen zwischen 200 und 1000 kg pro Hektar. In Deutschland werden Linsen oft mit Suppengrün und Mettwurst zu einer Suppe verkocht. Dabei wird regional auch etwas Essig zugegeben, was den Schaum beim Kochen mindert und angeblich die Verdaulichkeit verbessert. „Linsen mit Spätzle und Saitenwürstle“ ist ein Nationalgericht der Schwaben. Linsen sind leichter verdaulich als Erbsen oder Bohnen und haben einen hohen Eiweißanteil von 25 bis 30 % in der Trockenmasse, wodurch sie besonders bei zeitweiligem Fasten oder dauerhaft vegetarischer Ernährung ein wertvolles und zugleich preiswertes Nahrungsmittel darstellen. Bemerkenswert ist ebenso ihr hoher Gehalt an Zink, welches eine zentrale Rolle im Stoffwechsel spielt. Da sie kleiner sind als andere Hülsenfrüchte, brauchen sie auch weniger Einweich- und Kochzeit. Ungeschälte Linsen lassen sich auch keimen und dann verarbeiten. Es gibt Hinweise auf eine verbesserte Aufschließung von Nährstoffen durch Keimen. Der Keimvorgang vervielfacht den Gehalt an B-Vitaminen in Linsen und anderen Samen. Linsenkeime enthalten auch Vitamin C. Geschichte. Funde aus den mesolithischen Schichten (lithic assemblages VIII, IX) gehören zur Art "Lens nigricans" oder "Lens ervoides". Eine Domestikation ist nicht anzunehmen. Die Linse stammt wahrscheinlich von der Wildlinse "Lens orientalis" aus Kleinasien. Sie ist seit Beginn des Ackerbaus bei Menschen im Neolithikum eine der Hauptnutzpflanzen der aus dem fruchtbaren Halbmond stammenden Kulturen und wurde z. B. in Bulgarien oder in der Höhle von Franchthi in Griechenland bereits in den frühesten neolithischen Schichten gefunden, die um 7000 v. Chr. datieren. Linsen wurden auch in der mitteleuropäischen Linearbandkeramik gefunden, wo sie seit der ältesten Phase, etwa 5500 v. Chr. bekannt sind. Im Alten Ägypten waren Linsen eines der Grundnahrungsmittel, und auch in Palästina kannte man sie: In der Genesis heißt es in Kap. 25, Vers 29–34: „Jakob gab Esau Brot und ein Linsengericht und er begann zu essen und zu trinken. Dann stand er auf und ging seines Weges. So verachtete Esau das Erstgeburtsrecht.“ Inhaltsstoffe. Rohe Linsen enthalten unbekömmliche oder sogar giftige Inhaltsstoffe (Lektine und andere), die durch das Kochen unschädlich gemacht werden. Werden die Linsen vor dem Kochen eingeweicht, wird der Gehalt unbekömmlicher Inhaltsstoffe reduziert. Lexikon. Lexikon (Mehrzahl: "Lexika" oder "Lexiken"; ältere Schreibweise: "Lexicon", zu griech. λεξικό "Wörterbuch", λέξη für "Wort") ist allgemein die Bezeichnung für ein Nachschlagewerk oder Wörterbuch im weiteren Sinn. Daneben wurde es vereinzelt als Synonym für ein Sprachwörterbuch verwendet. Im modernen Sprachgebrauch bezeichnet es heute zumeist ein Nachschlagewerk mit Sachinformationen (Realwörterbuch, Konversationslexikon, Sachwörterbuch), wobei je nach Umfang noch zwischen Lexikon im engeren Sinn und Enzyklopädie oder Biografien-Sammelwerk (Who’s Who) unterschieden wird. Umgangssprachlich und in der Werbung ist der Sprachgebrauch unscharf. Mitunter wird lexikografisch eine begriffliche Unterscheidung von Wörterbuch (sprachliche Information) und Lexikon (Sachinformation) gemacht. Dabei kommt es zwischen den Typen der Nachschlagewerke zu Überlappungen. Lexika lagen historisch naturgemäß meist in Buchform vor. Mittlerweile verstehen sich auch zahlreiche Websites als ebensolche. Insbesondere hat sich die Wikimedia dem freien Wissen und damit auch der Erstellung von Online-Lexika verschrieben, wobei Wikipedia strikt als Enzyklopädie und Wiktionary als Wörterbuch zu verstehen sind. Wortgeschichte. In der Antike ist das griechische Wort für Wörterbuch "λἐξεις, lexeis". Es ist abgeleitet von "λἐξις, lexis", das Wort. Die Form "λεξικόν, lexikon" wird erstmals von Photios I. († 891) auf ein Werk des 5. Jahrhunderts angewendet. In der handschriftlichen Überlieferung werden auch die Wörterbücher des Photios und die Suda mit diesem Begriff bezeichnet. In Spätantike und Mittelalter wird "Lexicon" für verschiedene Wörterbücher in griechischer Sprache verwendet. Dagegen wird diese Bezeichnung im lateinischen Sprachraum weder in der Antike noch im gesamten Hoch- und Spätmittelalter benutzt. Die frühmittelalterliche griechische Bezeichnung wurde – ähnlich wie die Bezeichnung "Enzyklopädie" – am Ende des Mittelalters um 1480 in Italien von den Humanisten erneut eingeführt und zunächst nur auf gelehrte griechische Werke angewendet. Die erste Benennung eines deutschsprachigen Nachschlagewerkes als Lexikon erfolgte erst 1660 durch Gotthilf Treuer: "Poetisch Lexicon und Wörter-Buch". Das erste Wörterbuch der beginnenden frühen Neuzeit mit dieser Bezeichnung ist das zweisprachige griechisch-lateinische Wörterbuch des Johannes Crastonus, das in der Ausgabe von 1483 den Titel "Lexicon Graeco-latinum" trägt, wogegen frühere Ausgaben noch als "Dictionarium" benannt werden. Die Synonymie von "Lexikon" und "Dictionarium" bezeugt auch das erste einsprachige lateinische "Lexicon" von Alberich von Rosate: "Lexicon sive dictionarium utriusque iuris", Pavia 1498. Dementsprechend zeigt auch der Titel des ersten deutschsprachigen Lexikons die Synonymie von "Lexikon" und "Wörterbuch" auf. Es ist "Gotthilff Treuers… Deutscher Daedalus Begreiffendt ein vollständig außgefuhrtes Poetisch Lexicon und Wörter-Buch..", der 1660 erschien. Ein späteres Beispiel ist das "Vollständige Deutsche Wörter-Buch vel Lexicon germanico-latinum" von Christoph Ernst Steinbach (Breslau 1734). Die seit Beginn des 18. Jahrhunderts in Deutschland entstehenden Realwörterbücher tragen durchweg den Titel "Lexicon". Durch den Siegeszug des Konversationslexikons seit dem Beginn des 19. Jahrhunderts hat sich die Verwendung im Sinne von "Sachwörterbuch" weiterhin verstärkt. Bis zum Ende des 20. Jahrhunderts wurde eine einheitliche Verwendung nicht erreicht. Schreibweise. Die latinisierte Schreibweise "Lexicon" überwiegt im 15. und 16. Jahrhundert völlig. Die einzige Verwendung von "Lexikon" im 16. Jahrhundert ist für eine Ausgabe des griechischen Wörterbuchs des Hesychios von Alexandria von 1530 belegt. Das erste Wörterbuch mit deutschem Sprachteil in dieser Schreibweise ist das "Griechisch-Deutsch Lexikon" von Jeremias Felbinger, Leiden: Elsevier 1657. Im 18. Jahrhundert überwiegt bei deutschsprachigen Werken die Schreibweise "Lexicon" und erst im 19. Jahrhundert setzt sich "Lexikon" dafür immer mehr durch. In der ersten Hälfte des 20. Jahrhunderts kommt "Lexicon" noch vereinzelt für deutschsprachige Lexika vor. Seit 1950 ist diese Form nur noch bei fremdsprachigen Werken nachweisbar. Grammatik. Im 19. Jahrhundert wurde das Wort als Fremdwort ins Deutsche übernommen. Es wird dabei im Singular nur im Genitiv gebeugt ("des Lexikons") und bleibt in allen anderen Singularformen ungebeugt. Im Plural behält es die latinisierte Form "Lexika". Einzelnachweise. ! William Thomson, 1. Baron Kelvin. William Thomson, 1. Baron Kelvin (Fotografie 1906) William Thomson, 1. Baron Kelvin, meist als Lord Kelvin auch Kelvin of Largs bezeichnet, OM, GCVO, PC, PRS, FRSE, (* 26. Juni 1824 in Belfast, Nordirland; † 17. Dezember 1907 in Netherhall bei Largs, Schottland) war ein in Irland geborener britischer Physiker. Leben. Er war von 1846 bis 1899 Professor für theoretische Physik in Glasgow und forschte hierbei hauptsächlich auf den Gebieten der Elektrizitätslehre und der Thermodynamik. Ein Ergebnis war bereits 1848 eine Arbeit zur Thermodynamik auf Basis der Carnotschen Wärmetheorie, in der er unter anderem die nach ihm benannte absolute Kelvin-Skala einführte. Deren Einheit „Kelvin“ ist in ihrer heutigen Form die seit 1968 gesetzlich festgelegte SI-Einheit der Temperatur. Gemeinsam mit James Prescott Joule entdeckte er 1852 den Joule-Thomson-Effekt, ferner 1857 den magnetischen AMR-Effekt. Im Jahr 1867 entwickelte Thomson das harmonische Verfahren zur Berechnung der Gezeiten und konstruierte 1872 die erste Gezeitenrechenmaschine. Er war auch an der Vorbereitung und Verlegung von Tiefseetelegraphenkabeln beteiligt und erfand dafür eine 1876 in Großbritannien patentierte Thomsonsche Lotmaschine. Die Telegraphengleichung wurde aber nicht von Thomson, sondern von Oliver Heaviside 1885 entwickelt. Thomson konstruierte die noch heute übliche Form des Trockenkompasses und beschäftigte sich auch intensiv mit Elektrizität. Dabei entwickelte er die nach ihm benannte Thomson-Brücke, die Thomsonsche Schwingungsgleichung und den Kelvin-Generator und beschrieb den Thomson-Effekt. Darüber hinaus konstruierte er ein Spiegel-Galvanometer, eine Spannungswaage und nicht zuletzt das Quadranten-Elektrometer. Seine Vielseitigkeit auf fast allen Gebieten der Physik führte dazu, dass ihm über 70 Patente erteilt wurden. Sowohl wissenschaftliche Anerkennung als auch finanzielle Unabhängigkeit wurden ihm dadurch zuteil. Thomson griff auch in die Debatte um die Evolutionstheorie ein. Er schätzte 1862 das Alter der Erde auf 25–400 Millionen Jahre, wobei 98 Millionen Jahre der wahrscheinlichste Wert sei. 1869 erklärte er, dass dieser Zeitrahmen für eine Evolution nach den von Charles Darwin angenommenen Mechanismen zu kurz sei und schlug vor, das Leben habe mit einem Meteoriten die Erde erreicht. Später grenzte er den Zeitpunkt der Entstehung der Erde bis auf 24,1 Millionen Jahre ein und sah dies als seine größte Leistung. Zu diesem Ergebnis kam er aufgrund der noch vorhandenen Erdwärme, die jedoch nach späterem Wissen zum Teil aus radioaktiven Prozessen im Erdinneren gespeist wird. Als später Messungen des radioaktiven Zerfalls zu höheren Werten führten, revidierte er seine Meinung nicht. Ehrungen. 1856 wurde ihm die Royal Medal der Royal Society verliehen. 1872 wurde er in die American Academy of Arts and Sciences gewählt. 1876 erhielt Lord Kelvin als erst dritter Wissenschaftler die Matteucci-Medaille. 1884 wurde Thomson in den Orden Pour le mérite für Wissenschaft und Künste aufgenommen. Von 1890 bis 1895 war er Präsident der britischen Akademie (Royal Society). 1866 wurde er zum Ritter geschlagen und 1892 als 1. Baron Kelvin, of Largs in the County of Ayr, in den erblichen Adelsstand erhoben. Der Namensgeber für Kelvin ist der Fluss Kelvin durch Glasgow. Mit dem Titel war ein Sitz im House of Lords verbunden. Da er keine Nachkommen hinterließ, erlosch der Adelstitel bei seinem Tod. Zu Ehren Lord Kelvins wurden zwei Mondformationen benannt, das Kap Kelvin und die Rupes Kelvin. Weiterhin wurden verschiedene Objekte nach ihm benannt, an deren Entwicklung er maßgeblich beteiligt war, beispielsweise die Kelvingleichung, die Kelvin-Kontraktion, die Kelvin-Sonde und die Kelvinwelle. Einzelnachweise. Kelvin of Largs, William Thomson, 1. Lord Lotosblumen. Die Lotosblumen ("Nelumbo"), auch Lotos genannt, sind die einzige Gattung der Pflanzenfamilie der Lotosgewächse (Nelumbonaceae). Von den nur zwei Arten ist die eine in der Neuen Welt und die andere in Asien sowie im nördlichen Australien beheimatet. Beide Arten und ihre Hybriden werden als Zierpflanzen genutzt und liefern Nahrungsmittel. Beschreibung. Die zwei Lotos-Arten sind ausdauernde, krautige Wasserpflanzen mit Rhizomen. Es werden verschiedene Blätter ausgebildet (Heterophyllie). Die Laubblätter sind schildförmig (peltat). Nebenblätter sind vorhanden. Die großen Blüten sind zwittrig, mit vielen freien Fruchtblättern. Die Bestäubung erfolgt durch Käfer. Das Besondere an den Blättern des Lotos ist, dass sie flüssigkeitsabweisend sind, sodass beispielsweise Wasser einfach abperlt. Dadurch bleiben die Blätter stets sauber, und es können sich keine Pilze oder andere Organismen auf ihnen ausbreiten, die der Pflanze schaden könnten (Lotoseffekt). Systematik. Die Gattung "Nelumbo" wurde 1763 durch Michel Adanson in "Familles des Plantes", 2, S. 76, 582 aufgestellt. "Nelumbo" ist die einzige Gattung der Familie Nelumbonaceae. Als Erstveröffentlichung der Familie Nelumbonaceae gilt Achille Richard in Bory: "Dictionnaire Classique d’Histoire Naturelle, par Messieurs Audouin, Isid. Bourdon, Ad. Brongniart, de Candolle … et Bory de Saint-Vincent.", 11, 1827, S. 492. Verwechslungsmöglichkeiten der Trivialnamen. Der Tigerlotos oder Weiße Ägyptische Lotos ist ebenso wie die Blaue Lotosblume eine Art in der Gattung der Seerosen ("Nymphaea") in der Familie der Seerosengewächse und ist mit dem echten Lotos nicht verwandt. Symbolik. Seine Fähigkeit, Schmutz von sich zu weisen, ließ den Lotos in weiten Teilen Asiens zum Sinnbild für Reinheit, Treue, Schöpferkraft und Erleuchtung werden. Das Symbol findet sich sowohl im Hinduismus als auch im Buddhismus, wo die Erleuchteten (Buddhas), insbesondere Siddhartha Gautama, regelmäßig auf einer geöffneten Lotosblüte oder einem Lotosthron stehend oder sitzend dargestellt werden. Besonders vielfältig ist seine Symbolik in China ausgeprägt: Aufgrund ihrer Lautgleichheit werden die Wörter Liebe und harmonische eheliche Verbundenheit mit dem Lotos in Verbindung gebracht; die Lotosblüte ist deshalb auch Sinnbild einer guten Ehe. Speziell die "rote Lotosblüte" gilt als Symbol für die Vagina. Im Buddhismus zählt der Lotos zu den acht Kostbarkeiten und ist Symbol für den Lauf der Zeiten (mit den Einzelphasen Frucht, Blüte und Stängel) und für die Wirkung der Lehre Buddhas (die Wurzeln sind im Schlamm, auf der Oberfläche erblüht jedoch der Lotos). Im Daoismus ist der Lotos Attribut des daoistischen Unsterblichen He Xiangu. Als Anthemion haben Lotosblüten auch eine Bedeutung in der Kunst. Die Kuppeln islamischer Mausoleen und Moscheen der Mogul-Architektur in Indien enden regelmäßig in umgedrehten marmornen Lotosblüten (z. B. Taj Mahal). Als Symbol der Reinheit wurde die Form der Lotosblüte auch von den Bahai aufgegriffen: Der erste Bahai-Tempel in Indien, ein Sakralbau für die Anhänger aller Religionen, ist der Form einer Lotosblüte nachempfunden. Auch in der griechischen Mythologie spielt die Lotosblume eine Rolle. In Homers "Odyssee" wird vom Volk der Lotophagen („Lotosesser“) berichtet, die den Gefährten des Odysseus Lotospflanzen zur Nahrung geben. Diejenigen, die die Speise zu sich nehmen, vergessen daraufhin ihre Heimat und verfallen in eine Art Abhängigkeit von der „honigsüßen“ Speise. Sie müssen mit Gewalt wieder zurück auf die Schiffe des Odysseus gebracht werden. Herodot und andere griechische Gelehrte lokalisierten die Lotophagen an der Küste des heutigen Libyen. Nutzung. Die Wurzeln, Früchte, Samen und Stängel werden gegessen. Die Blätter dienen als Verpackung für Speisen und sämtliche Teile der Pflanze finden als Arznei Verwendung. Die Samenkerne werden bei Gebetsketten eingesetzt und die getrocknete Lotosfrucht wird als Kalligraphie-Pinsel benutzt. Die Fasern der Stängel und Blätter können zu Lotosseide versponnen werden. Wegen seiner Schmutz abweisenden Eigenschaften, des so genannten Lotoseffektes, ist er Forschungsobjekt für Oberflächenversiegelungen. Sonstiges. Die Universität Tokio hat ein Lotos-Forschungszentrum. Landschaftsplanung. Landschaftsplanung ist die Anwendung eines Instruments, in dessen Mittelpunkt sich der Mensch und seine Bedürfnisse befinden und Vorschläge für eine nachhaltige Entwicklung von Natur und Landschaft gemacht werden. Sie befindet sich im Spannungsfeld zwischen Stadt- und Regionalplanung sowie ökologischen und ökonomischen Interessenlagen. Landschaftsplanung ist vorsorgeorientiert und verfolgt einen ganzheitlichen, flächendeckenden Ansatz zum Schutz, zur Pflege, zur Entwicklung und soweit erforderlich zur Wiederherstellung von Naturraum und Kulturlandschaft. Sie bezieht sich nicht nur auf „Landschaft” im umgangssprachlichen Sinne (freie Landschaft), sondern bindet auch Landschaftsteile wie Dörfer, Siedlungen, Städte, Verkehrswege und Industriegebiete in die Planungsarbeit mit ein. Angrenzende Fachgebiete sind u. a. Regionalgeografie und Regionalplanung. Deutschland. Die Landschaftsplanung hat in Deutschland die Aufgabe, die in den Naturschutzgesetzen des Bundes (Bundesnaturschutzgesetz BNatSchG) und der Länder (Landesnaturschutzgesetze) formulierten Ziele und Grundsätze von Naturschutz und Landschaftspflege für das jeweilige Land (Landschaftsprogramm) zu konkretisieren. Ebenso erfolgt dies für Regionen bzw. Landkreise (Landschaftsrahmenplan), für die jeweilige Gemeinde (Landschaftsplan) und in einigen Bundesländern auch für Teile von Gemeinden (Grünordnungsplan). Das BNatSchG gibt den Rahmen vor für die Länder, die ebenso wie die anderen Belange des Naturschutzes auch die Landschaftsplanung in ihren Landesnaturschutzgesetzen regeln. Weitere Gesetze (z. B. das Baugesetzbuch BauGB) regeln ebenfalls bestimmte Aspekte der Landschaftsplanung. Österreich. In Österreich gibt es keine explizite rechtliche Absicherung der Landschaftsplanung. Die Belange der Landschaftsplanung gehören zum Aufgabenbereich der Länder, eine behördliche Zuweisung und eine finanzielle Absicherung ist nicht vorgegeben. Im Wesentlichen wird der rechtliche Rahmen der Landschaftsplanung in fünf Gesetzestexten festgeschrieben. Dazu zählt zunächst das Umweltfassungsgesetz, in dessen ersten beiden Abschnitten (§§1 und 2) Aussagen bezüglich der Zuständigkeit und der Ziele gemacht werden. Weiterhin konkretisieren das Raumordnungsgesetz, Naturschutzgesetz sowie Nationalparkgesetz die gesetzlichen Grundlagen der Landschaftsplanung. Über den Landesgesetzen stehen das Umweltveträglichkeitsprüfungsgesetz, welches vom Bund ausgearbeitet wird, sowie von der Europäischen Union ausgearbeitete Richtlinien. Schweiz. Die Landschaftsplanung ist in der Schweiz Aufgabe der Kantone und wird im Abschnitt vier (Umwelt- und Raumplanung) der Bundesverfassung beschrieben. Der Bund schafft in diesem Fall die Rahmenbedingungen, alle weiteren Aktionen gehen von den Kantonen aus. Der Natur- und Umweltschutz in der Schweiz an sich ist Sache des Bundes, die Umsetzung beruht auf einer so genannten "Vollzugspflicht" der Kantone. Ähnlich wie in Österreich und Deutschland gibt es auch in der Schweiz eine Umweltverträglichkeitsprüfung (kurz "UVP") sowie entsprechende Regelungen dazu (z. B. die). Aufgaben und Inhalte der Landschaftsplanung. Der gesetzlich formulierte Auftrag der Landschaftsplanung ist die Vertretung der Belange von Natur und Landschaft. Die Aufgabe dieser ökologisch-gestalterischen Planungsdisziplin ist im Wesentlichen, Ziele und Maßnahmen des Naturschutzes und der Erholungs­vorsorge in einem Gebiet flächendeckend zu erarbeiten und in Text und Karten darzustellen. Landschaftsplanung soll dazu beitragen, die Leistungsfähigkeit des Naturhaushaltes, als Lebensgrundlage des Menschen, zu erhalten bzw. (im Schadensfall) wiederherzustellen und langfristig zu sichern. Dabei sollen sich die Teilräume eines Gebietes auch wirtschaftlich entwickeln können. Der Landschaftsplanung kommt dadurch, neben ihrer ursprünglichen Funktion des Naturschutzes, immer mehr die Rolle zu, diese wirtschaftliche Entwicklung möglichst ökologisch verträglich mitzugestalten. Mitwirkung bei der Bauleitplanung. Gegenüber (bzw. innerhalb) anderer Gesamtplanungen, wie z. B. der Bauleitplanung, muss die Landschaftsplanung "auch" Schaden vom Naturhaushalt („Eingriffe”) mit Hilfe der Eingriffsregelung abwenden. Die Eingriffsregelung hat zum Ziel, „unvermeidbare Beeinträchtigungen vorrangig auszugleichen oder zu kompensieren” (BNatSchG). Die wichtigsten rechtlichen Grundlagen der Landschaftsplanung sind in Deutschland das Bundesnaturschutzgesetz, die Naturschutzgesetze der Länder und das "Baugesetzbuch" (BauGB). Die Landschaftsplanung ist Teil der in Deutschland angestrebten integrativen räumlichen (auf ein Gebiet bezogene) Planung. Diese räumliche Planung soll eine geordnete Entwicklung eines Gebietes sicherstellen. In allen Teilräumen eines beplanten Gebietes sollen die Lebensbedingungen der Menschen, die natürlichen Lebensgrundlagen und die wirtschaftlichen, infrastrukturellen Bedingungen gleichwertig sein. Instrumente der Landschaftsplanung. Die behördliche Landschaftsplanung wird in den einzelnen Ländern der Bundesrepublik und Österreichs sowie in den Kantonen der Schweiz aufgrund von Landesgesetzen unterschiedlich gehandhabt. Auf diesen länderspezifischen rechtlichen Grundlagen wird sie von unterschiedlichen staatlichen Institutionen betrieben (rechtlich umgesetzt). Dementsprechend können Aufgaben, Maßstäbe und die jeweilige Aussagetiefe der Planwerke variieren. Grundsätzlich ist die Landschaftsplanung aber immer in die Planung anderer Planungsebenen und Planungskategorien eingebunden (z. B. die der Raumordnungspläne, Gebietsentwicklungspläne oder Flächennutzungspläne der unterschiedlichen Planungsträger). In Nordrhein-Westfalen beispielsweise ist die Landschaftsplanung eine Aufgabe der kreisfreien Städte und (Land-)Kreise. Ein nordrhein-westfälischer Landschaftsplan mündet immer in eine städtische bzw. in eine Kreissatzung, d. h. der Plan wird vom Rat der jeweiligen kreisfreien Stadt bzw. dem jeweiligen Kreistag beschlossen. In verschiedenen anderen Bundesländern hat aber z. B. ein Landschaftsplan nur empfehlenden Charakter und ist somit rechtlich nicht bindend gegenüber Jedermann. Er ist lediglich behördenverbindlich; das bedeutet, die Inhalte des Planwerks sind von allen öffentlichen Planungsträgern zu beachten. In der Bundesrepublik Deutschland findet Landschaftsplanung auf mehreren Ebenen statt, wobei sie teilweise als Fachplanung der Regionalplanung gegenübergestellt ist, sich aber auch auf einzelne Schutzgebiete beziehen kann. Für bestimmte Planungen, die einen Eingriff in Natur und Landschaft verursachen wie der Bau von Verkehrswegen, zur Rohstoffgewinnung (Steinbrüche, Kiesgruben), die Errichtung von Windkraftanlagen, Freizeit- und Tourismuseinrichtungen und andere sind ökologische Begleitplanungen (meist in Form von landschaftspflegerischen Begleitplänen) erforderlich. Studium. Um als Landschaftsplaner zu arbeiten, ist ein Studium an einer Universität oder einer Fachhochschule erforderlich. Das Studium der Landschaftsplanung unterscheidet sich stark von dem der meisten anderen wissenschaftlichen Fächer. Es ist im Höchstmaß interdisziplinär, neben naturwissenschaftlichen (vor allem ökologischen) gibt es künstlerisch-gestalterische, sozialwissenschaftliche, geisteswissenschaftliche sowie ingenieur- und planungswissenschaftliche Fachinhalte. Das Studium ermöglicht es, vor allem in Behörden und in unabhängigen Planungsbüros oder auch in Naturschutzverbänden im Bereich des Naturschutzes und der Landschaftsplanung zu arbeiten. Weitere Berufsfelder sind Entwicklungshilfe, Freiraumplanung und Umweltbildung. Landschaftsplanung kann man in Deutschland an einer Reihe von Universitäten (Diplom, Bachelor, Master) und Fachhochschulen studieren. Die Bezeichnungen der Studiengänge sind nicht einheitlich. Neben Landschaftsplanung ist die Bezeichnung Umweltplanung recht häufig; in den englischsprachigen Ländern ist ' üblich. Trotz der unterschiedlichen Bezeichnungen sind die Studieninhalte sehr ähnlich. Landkreis. Kreise in Deutschland, kreisfreie Städte gelb markiert. Ein Landkreis (abgekürzt: "Lk", "Lkr", "Lkrs" oder "Landkrs."), in Nordrhein-Westfalen (seit 1969) und Schleswig-Holstein Kreis (abgekürzt "Kr") genannt, ist nach deutschem Kommunalrecht ein Gemeindeverband und eine Gebietskörperschaft. Er verwaltet sein Gebiet nach den Grundsätzen der kommunalen Selbstverwaltung. Verwaltung. Zur Verwaltung des Kreises (Landkreis oder kreisfreie Stadt) ist am Sitz der Gebietskörperschaft (in der „Kreisstadt“) eine Behörde (Landratsamt, Kreisverwaltung, Kreishaus etc.) eingerichtet. Hier hat der Landrat seinen Dienstsitz. Dieser nimmt neben den kommunalen Aufgaben aber auch Aufgaben der "unteren staatlichen Verwaltungsbehörde" „als verlängerter Arm des Staates“ (Organleihe) wahr. Im Fall der Vollkommunalisierung werden diese Aufgaben von Landrat und Landratsamt nicht als untere staatliche Verwaltungsbehörde, sondern als übertragene Aufgabe vom Landkreis selbst ausgeführt. So führt er die allgemeine Aufsicht und die Sonderaufsicht über die kreisangehörigen Gemeinden aus. Er kann zum Beispiel auch Leiter des Schulamts und der Kreispolizeibehörde sein. Zur Deckung ihres Finanzbedarfs erheben die Kreise eine Kreisumlage von den kreisangehörigen Gemeinden und erhalten, abhängig von der konkreten Ausgestaltung in den einzelnen Ländern, finanzielle Zuweisungen im Rahmen des kommunalen Finanzausgleichs. Aufgaben. Der Land-/Kreis und die kreisangehörigen Gemeinden stehen zueinander in einem engen partnerschaftlichen Verhältnis. Sie teilen sich die Erledigung derjenigen Aufgaben, die von einer kreisfreien Stadt allein wahrgenommen werden. Aufgrund der Einwohnerzahl und der damit verbundenen unterschiedlichen Leistungsfähigkeit erledigen größere kreisangehörige Gemeinden zusätzlich Aufgaben, die für kleinere Gemeinden der Kreis wahrnimmt. Der Kreis nimmt sich also dann einer Aufgabe an, wenn die Leistungsfähigkeit der Gemeinde nicht ausreicht oder ein finanzieller Ausgleich zur Herstellung gleichwertiger Lebensverhältnisse im Kreis notwendig, aber auch wenn eine einheitliche Erledigung über Gemeindegrenzen hinweg erforderlich ist. Er gewährt Leistungen nach dem Sozialgesetzbuch XII (Sozialhilfe), organisiert den öffentlichen Personennahverkehr, richtet Natur- und Landschaftsschutzgebiete ein und pflegt sie. Er sorgt für die Abfallbeseitigung. Er ist verantwortlich für das Rettungswesen und den Brand- und Katastrophenschutz, das Gesundheitswesen und die Lebensmittelüberwachung. Weitere Aufgaben sind die Tierseuchenbekämpfung und der Tierschutz, das Führerscheinwesen, die Kraftfahrzeug-Zulassung sowie der Bau und die Unterhaltung der Kreisstraßen. Er ist Träger der berufsbildenden Schulen und der Sonderschulen. In einigen Bundesländern ist er für die Führung des Liegenschaftskatasters zuständig und kann in diesem Rahmen Vermessungen an Grundstücken und Gebäuden durchführen. Er betreibt kommunale Familienpolitik. Für kleinere Gemeinden nimmt er die Jugendpflege, -betreuung und -erziehung wahr und ist Bauaufsichtsbehörde. Gemeinden. Alle Landkreise bzw. Kreise Deutschlands untergliedern sich in mehrere (kreisangehörige) Gemeinden. Die Anzahl der Gemeinden je Kreis und deren Verwaltungsstruktur ist sehr unterschiedlich und reicht von sechs (Einheits-)Gemeinden im Landkreis Ammerland (Niedersachsen) bis zu 235 Gemeinden (in sieben Verbandsgemeinden und einer Stadt) im Eifelkreis Bitburg-Prüm (Rheinland-Pfalz). Besondere Bezeichnungen. Einige kreisangehörige Gemeinden können besondere Bezeichnungen tragen, die sie aufgrund ihrer Geschichte oder Größe erhalten haben, Beispiele: Stadt, Markt, Flecken, Bergstadt etc. Bezeichnungen dieser Art sind verwaltungsrechtlich oft ohne Bedeutung. Einige kreisangehörige Städte erhalten in verschiedenen Ländern auf Grund ihrer Einwohnerstärke einen verwaltungsrechtlichen Sonderstatus, der mit der Übertragung weiterer Aufgaben verbunden ist. Das geschieht von Land zu Land unterschiedlich auf Antrag oder von Amts wegen, sobald die vorgeschriebene Einwohnerzahl erreicht ist. Die Schwelle ist ebenfalls in den Ländern unterschiedlich festgelegt. Sie liegt in Baden-Württemberg bei 20.000, in Hessen bei 50.000, in Nordrhein-Westfalen und Rheinland-Pfalz bei 25.000 bzw. 60.000 Einwohnern. Diese "Sonderstatusstädte" bleiben zwar kreisangehörig, tragen dann aber eine besondere Bezeichnung, z. B. Mittelstadt, Große Kreisstadt, Große selbständige Stadt, Mittlere kreisangehörige Stadt oder Große kreisangehörige Stadt. Den Titel Große Kreisstadt, den es in Baden-Württemberg, Bayern und Sachsen gibt, tragen dort große kreisangehörige Städte, die eine vom jeweiligen Bundesland festgelegte Mindesteinwohnerzahl besitzen und gewisse besondere Verwaltungsaufgaben übernehmen, was sie von anderen Städten im Landkreis unterscheidet. Oft trifft dies für die Kreisstädte selbst zu, wie zum Beispiel in Sachsen, wo alle zehn Städte mit Kreissitz gleichzeitig Große Kreisstädte sind. Ferner trifft dies oft auf ehemalige kreisfreie Städte oder ehemalige Kreisstädte zu, die infolge der Zusammenlegung von Landkreisen ihren Kreissitz verloren haben. Entsprechend kann es Landkreise wie den Hohenlohekreis geben, in dem Künzelsau als Kreissitz die in Baden-Württemberg benötigten 20.000 Einwohner nicht aufweist, um Große Kreisstadt zu sein. Die einzige Große Kreisstadt in diesem Kreis ist Öhringen. Zusammenschlüsse von Gemeinden unterhalb der Kreisebene. Dabei haben nicht alle Gemeinden eine eigene Verwaltung („Einheitsgemeinde“). Viele arbeiten zur Erledigung ihrer Verwaltungsgeschäfte in Verwaltungskooperationen zusammen. Diese haben je nach Bundesland unterschiedliche Bezeichnungen, Eigenschaften und Kompetenzen. Kreisfreie Städte. Kreisfreie Städte gehören keinem Landkreis an. In Baden-Württemberg werden sie als Stadtkreise bezeichnet. In der Region Hannover wurden Metropole und Umland wieder organisatorisch zusammengebracht. In ihr sind die Gemeinden des ehemaligen Landkreises Hannover und die Stadt Hannover zusammengeschlossen. Hannover hat dabei viele Rechte als kreisfreie Stadt behalten. Ähnliche Zusammenschlüsse wurden zwischen der kreisfreien Stadt Aachen und der aus dem gleichnamigen Kreis hervorgegangenen Städteregion Aachen sowie zwischen der Stadt Saarbrücken und den umliegenden Gemeinden im Regionalverband Saarbrücken etabliert. Interessenvertretung. Zur Koordination und zur politischen Interessenvertretung sind alle 295 Landkreise in 13 Landesverbänden und auf Bundesebene im Deutschen Landkreistag (DLT) zusammengeschlossen. Dieser repräsentiert 74 % der Aufgabenträger, 68 % der Bevölkerung und 96 % der Fläche Deutschlands. Geschichte. Verwaltungseinheiten in der Größenordnung heutiger Landkreise waren im Mittelalter die Grafschaften, die sich durch die Erblichkeit des Grafenamtes immer mehr verselbständigten und in oft kriegerisch ausgetragene Konflikte um Gebiete und Erbfolgeregelungen verwickelt wurden. Seit dem 16. Jahrhundert waren die vielen Fürstentümer und freien Städte des Heiligen Römischen Reichs weitgehend in Reichskreisen zusammengefasst, die die Ausmaße heutiger deutscher Länder hatten. 1753 wurden mit der Gründung der Kreise Altena und Hamm (Westfalen) die ersten Landkreise im heutigen Sinne gebildet (siehe Geschichte der Kreisbildung in Deutschland). 1816 bis 1818 wurden in den meisten preußischen Provinzen Kreise als untere staatliche Verwaltung eingerichtet, im damaligen Kurfürstentum Hessen (von Rinteln bis in die heutigen nördlichen Stadtteile der Stadt Frankfurt am Main) 1821, in den meisten deutschen Staaten jedoch erst Mitte des 19. Jahrhunderts bis 1886. Die Qualität des Kreises als kommunaler Bezirk beruhte auf den Ideen des preußischen Staatsmanns "Freiherr vom Stein". Nach dem Modell der Städteordnung von 1808 sollte auch im ländlichen Raum die Selbstverwaltung der Bürger eingeführt werden. Realisiert wurde sein Vorschlag in Preußen erst unter dem Einfluss der Ideen Rudolf von Gneists in den 1880er Jahren, als die ersten Kreisordnungen erlassen wurden (siehe Kreisreformen in Preußen), z. B. für die preußische Provinz Hannover 1885, Provinz Hessen-Nassau 1886, Provinz Westfalen und die Rheinprovinz 1887. Im Lauf des Jahrhunderts übernahmen die meisten anderen deutschen Staaten das Prinzip der Kreiseinteilung, teilweise jedoch mit anderen Bezeichnungen (z. B. Amtshauptmannschaft (Sachsen), Bezirksamt (Baden, Bayern), Oberamt (Württemberg), Kreisamt (Anhalt, Hessen, Thüringen), Amt (Oldenburg) und Kreisdirektion (Braunschweig)). Mit § 1 Abs. 3 der Dritten Verordnung über den Neuaufbau des Reichs vom 28. November 1938 (RGBl. I S. 1675) erhielten diese Verwaltungsbezirke mit Wirkung vom 1. Januar 1939 die Bezeichnung "Landkreis". Bis in die erste Hälfte des 20. Jahrhunderts gab es im Deutschen Reich rund 1.000 Kreise bzw. entsprechende Verwaltungseinheiten der Unterstufe; im Prinzip sollte ihre Größe so bemessen sein, dass der Landrat zur entferntesten Gemeinde seines Kreises an einem Tag mit der Pferdekutsche hin- und zurückfahren konnte und ihm dort noch genügend Zeit zur Erledigung seiner Amtsgeschäfte blieb. Jedoch war der Größenzuschnitt der Kreise von Land zu Land recht unterschiedlich. Tendenziell waren die Gebiete im Norden und Osten Deutschlands (Preußen, Mecklenburg, Sachsen) deutlich größer als im Süden und Westen. Aufgrund von Einsparungsmaßnahmen im Gefolge der Weltwirtschaftskrise von 1929 reduzierte sich die Anzahl der deutschen Kreise spürbar, als eine Reihe kleinerer Verwaltungsbezirke aufgelöst wurde. In Preußen führten nur die Kreise die Bezeichnung Landkreis, deren Kreissitz in einem entsprechenden Stadtkreis lag, damit der gleiche Ortsname nicht zu Verwechselungen führte. Ab dem 1. Januar 1939 erhielten alle kreisartigen Territorien im Deutschen Reich entsprechend der jetzt reichseinheitlichen Regelung die Bezeichnung "Landkreis". Bis dahin gab es außerhalb Preußens und einiger anderer Länder die Bezeichnungen "Amtshauptmannschaft" (Sachsen), "Bezirksamt" (Bayern), "Oberamt" (Württemberg) usw. Bei seinem Urteil gegen die Einführung von fünf Großkreisen in Mecklenburg-Vorpommern im Jahr 2007 ließ sich das Landesverfassungsgericht auch von den Fahrzeiten leiten: Landkreise müssten so gestaltet sein, dass es Kreistagsabgeordneten möglich ist, sich ehrenamtlich im Kreistag und in seinen Ausschüssen zu betätigen. Es sei zweifelhaft, ob sich die Abgeordneten in den größten der neuen Großkreise über die Verhältnisse in entlegenen Gebieten in zumutbarer Zeit eigene Kenntnis verschaffen können, um darüber zu befinden, ob man eine Straße bauen oder eine Schule oder ein Museum einrichten oder schließen solle. Seit der Gebietsreform in Mecklenburg-Vorpommern im September 2011 gehen von den in Deutschland bestehenden 295 Kreissitzen (eingerechnet die Sonderformen in Saarbrücken, Hannover, Aachen) noch 78 auf eine im alten preußischen Gebiet vor 1866 eingerichtete Kreisverwaltung zurück und 80 auf bayerische Bezirksämter. Historische Übersicht. Die historische Übersicht weist die Bezeichnung für die kreisfreien Städte in den Ländern des Deutschen Reiches im Jahr 1938 aus. Statistik. Der flächenmäßig größte Landkreis Deutschlands ist der Landkreis Mecklenburgische Seenplatte im Land Mecklenburg-Vorpommern mit einer Fläche von 5.468 km². Das ist mehr als das Doppelte der Fläche des Saarlandes, das nur 2.568,70 km² groß ist. Der flächenmäßig kleinste Landkreis ist der Main-Taunus-Kreis in Hessen mit einer Fläche von 229,39 km², etwas mehr als der Berliner Bezirk Treptow-Köpenick mit 168 km². Leslie Lemke. Leslie Lemke (* 31. Januar 1952 in Milwaukee, Wisconsin) ist ein blinder US-amerikanischer Musiker und Komponist. Leslie Lemke kam 1952 in Wisconsin als Frühgeburt zur Welt und litt von Beginn an zerebraler Lähmung und grünem Star, worauf ihm die Augen entfernt wurden. Er wurde von seiner leiblichen Mutter zur Adoption freigegeben und von der Krankenpflegerin May Lemke adoptiert. In seiner Kindheit fiel er durch die Fähigkeit auf, Gespräche vollständig wiederzugeben. Im Alter von vierzehn Jahren fand ihn seine Adoptivmutter mitten in der Nacht am Klavier, wie er ein einmal gehörtes Stück aus dem Fernsehen spielte. Sie förderte daraufhin seine Inselbegabung, denn trotz seiner schweren Behinderung ist er in der Lage, ein einmal gehörtes Musikstück fehlerlos auf dem Klavier nachzuspielen. Neben seiner Fähigkeit, etwa 1000 Musikstücke aus dem Gedächtnis nachzuspielen, komponiert er selbst Musikstücke. Sein Können stellt er bei Auftritten und Konzerten in den USA und außerhalb unter Beweis. Seine Adoptivmutter May Lemke verstarb am 6. November 1993 an der Alzheimer-Krankheit. Lösungsmittel. Ein Lösungsmittel (auch "Lösemittel" oder ') ist ein Stoff, der Gase, Flüssigkeiten oder Feststoffe lösen oder verdünnen kann, ohne dass es dabei zu chemischen Reaktionen zwischen gelöstem Stoff und lösendem Stoff kommt. In der Regel werden Flüssigkeiten wie Wasser und flüssige organische Stoffe zum Lösen anderer Stoffe eingesetzt. Aber auch Feststoffe können andere Stoffe lösen. Beispielsweise wird in Wasserstofftanks Brennstoffzell-betriebener Autos gasförmiger Wasserstoff in festem Material (Metall-organische Gerüstverbindungen, kurz MOFs) gelöst. Lösungsmittel oder Lösemittel. Beide Bezeichnungen finden sich seit über 200 Jahren in der Literatur. Im Forschungs- und Laborbereich hat sich "Lösungsmittel" etabliert, in der industriellen und technischen Großchemie dagegen "Lösemittel". Beispielsweise spricht das Römpp Lexikon Chemie von "Lösungsmittel", während die TRGS "Lösemittel" bevorzugen. Definition im Alltag. Das wohl bekannteste Lösungsmittel ist Wasser. Im Hinblick auf Farben, Lacke, Klebstoffe usw. denkt man jedoch bei dem Begriff „Lösungsmittel“ an Stoffe, die unangenehme Gerüche, Gesundheits- und Umweltschäden sowie explosive Dämpfe verursachen können. Gemeint sind hierbei Lösemittel im Sinne der TRGS (Technische Regeln für Gefahrstoffe) 610, nach der nur flüchtige organische Lösemittel mit einem Siedepunkt bis 200 °C als Lösemittel bezeichnet werden. Die „Hochsieder“, wenig flüchtige Substanzen mit Siedepunkten über 200 °C, gelten daher rechtlich nicht als Lösemittel. Während "klassische" Lösemittel aufgrund ihrer Flüchtigkeit schon wenige Stunden bis Tage nach der Verarbeitung vollständig verdunstet sind, können die in manchen „lösemittelfreien“ Produkten ersatzweise enthaltenen Hochsieder unter Umständen noch über Monate oder Jahre an die Raumluft abgegeben werden und werden daher teils sogar deutlich kritischer beurteilt als Produkte mit "klassischen" Lösemitteln. Die Vermeidung von giftigen und umweltschädlichen Substanzen ist Bestandteil der Grünen Chemie. Chemie. Obwohl das Lösungsmittel nicht selbst an der chemischen Reaktion teilnimmt, ist es für chemische Reaktionen sehr wichtig. Die Wirkungen des Lösungsmittels sind unterschiedlich und hängen von der Reaktion ab. Durch die Lösung von Reaktionspartnern in einem Lösungsmittel werden Reaktionen thermisch kontrollierbar. Konzentrationsangaben von Stoffen, die in einem Lösungsmittel gelöst sind, gelten wegen Temperaturabhängigkeit nur für eine bestimmte Temperatur. Die wichtigsten Aufgaben des Lösemittels bei chemischen Reaktionen sind Marktwirtschaftliche Aspekte. Die wichtigste Lösungsmittel-Gruppe sind Alkohole, wie Ethanol, n-Butanol, Isopropanol und Methanol. Im Jahr 2011 wurden hiervon weltweit ca. 6,4 Mio. Tonnen nachgefragt. Ein überdurchschnittlicher Verbrauchsanstieg von jährlich mehr als 3 % wird in der Periode 2011 bis 2019 bei Ethanol sowie bei den Ethern erwartet. Neben den halogenierten Lösungsmitteln, die in Westeuropa und Nordamerika ihren Abwärtstrend fortsetzen, werden auch Aromaten und reine Kohlenwasserstoffe langfristig weiter an Bedeutung verlieren. Löseeigenschaften. Die quantitative Vorhersage von Löseeigenschaften ist schwierig und entzieht sich oft der Intuition. Es lassen sich generelle Regeln aufstellen, die jedoch nur als grobe Richtschnur gelten können. Polare Stoffe lösen sich im Allgemeinen gut in polaren Lösemitteln (z. B. Salze in Wasser). Unpolare Stoffe lösen sich im Allgemeinen gut in unpolaren Lösemitteln (z. B. unpolare organische Stoffe in Benzol oder Ether). Aprotische Lösungsmittel. Verfügt ein Molekül nicht über eine funktionelle Gruppe, aus der Wasserstoffatome im Molekül als Protonen abgespalten werden können (Dissoziation), spricht man von einem aprotischen Lösungsmittel. Diese stehen den protischen Lösungsmitteln gegenüber. aprotisch-unpolar. Alkane sind wegen des geringen Unterschieds in der Elektronegativität zwischen Kohlenstoff und Wasserstoff unpolar. Dies macht alle Stoffe dieser Gruppen ineinander leicht löslich; sie sind sehr lipophil (eigentlich noch lipophiler als die sehr schwach polaren, namensgebenden Fette) und sehr hydrophob (wasserabweisend). Aber nicht nur Wasser kann sich nicht lösen, sondern alle anderen stark polaren Stoffe auch nicht, wie z. B. kurzkettige Alkohole, Chlorwasserstoff oder Salze. In der Flüssigkeit werden die Teilchen lediglich von Van-der-Waals-Kräften zusammengehalten. Deshalb fallen bei dieser Stoffgruppe die Siedetemperaturen im Vergleich zu Molekülgröße und -masse wesentlich niedriger aus als bei permanenten Dipolen. Da eine Abspaltung von Protonen unter Bildung von Carbanionen nur mit extrem starken Basen möglich ist, sind sie aprotisch'". Ebenfalls zur Gruppe der aprotisch-unpolaren Lösungsmittel gezählt werden außerdem Verbindungen wie etwa Carbonsäureester oder Ether, die zwar polare Bindungen enthalten, aufgrund ihrer niedrigen Permittivität jedoch nicht in der Lage sind, ionische Verbindungen aufzulösen. Protische Lösungsmittel. Sobald ein Molekül über eine funktionelle Gruppe verfügt, aus der Wasserstoffatome im Molekül als Protonen abgespalten werden können (Dissoziation), spricht man von einem protischen Lösungsmittel. Diese stehen den aprotischen Lösungsmitteln gegenüber. Das wichtigste protische Lösungsmittel ist Wasser, das (vereinfacht) in ein Proton und ein Hydroxid-Ion dissoziiert. Weitere protische Lösungsmittel stellen z. B. Alkohole und Carbonsäuren dar. Hier erfolgt die Abspaltung des Protons immer an der OH-Gruppe, da der elektronegative Sauerstoff die entstehende negative Ladung gut aufnehmen kann. Das Maß, in dem das jeweilige Lösungsmittel dissoziiert, wird durch die Acidität (nach dem Säure-Base-Konzept von Brønsted und Lowry) bestimmt. Es ist zu beachten, dass auch an Kohlenstoff gebundene Wasserstoff-Atome als Protonen abgespalten werden können (CH-Acidität), die Acidität dieser Verbindungen aber meist zu gering ist, um eine nennenswerte Dissoziation in neutralem Medium zu erlauben. Die Freisetzung dieser Protonen ist nur durch sehr starke Basen möglich. Polar protische Lösungsmittel lösen Salze und polare Verbindungen, dagegen ist die Löslichkeit unpolarer Verbindungen gering. Polaritätsskalen. Eine bekannte Skala für die Polarität eines Lösungsmittels ist die ET(30)- oder ETN-Skala'". Sie leitet sich von empirischen spektroskopischen Messungen ab. Der ET(30)-Wert ist als Übergangsenergie der längstwelligen Vis/NIR-Absorptionsbande in einer Lösung mit dem negativ solvatochromen Reichardt-Farbstoff (Betain 30) bei Normalbedingungen in kcal·mol−1 definiert. Der ETN-Wert ist der auf die Polaritätsextrema Tetramethylsilan (=0) und Wasser (=1) normalisierte ET(30)-Wert. Tabelle mit alkoholischen Lösungsmitteln und ihren Verdunstungsraten. relativ zu Essigsäure-"n"-butylester (= 1) Indifferente Lösungsmittel. Unter einem indifferenten bzw. neutralen Lösungsmittel wird in der Polymerchemie ein Medium verstanden, das Luxemburg (Stadt). Die Stadt Luxemburg (,) ist die Hauptstadt des Großherzogtums Luxemburg. Mit Einwohnern (Stand) ist sie die größte Stadt des Landes. Luxemburg ist Verwaltungssitz des gleichnamigen Kantons und war es auch für den gleichnamigen Distrikt bis zu seiner Abschaffung am 3. Oktober 2015. Luxemburger nennen ihre Hauptstadt meist nur "D’Stad". Die Stadt Luxemburg ist neben Brüssel und Straßburg Verwaltungssitz der Europäischen Union mit Sitz und Tagungsort zahlreicher europäischer Institutionen. Daneben ist Luxemburg ein wichtiger Finanzplatz. Per 31. Dezember 2014 waren 68,98 Prozent der Einwohner Ausländer ohne luxemburgische Staatsangehörigkeit. Geographische Lage. Die Stadt liegt im Süden des Großherzogtums (sogenanntes Gutland oder "Bon Pays"). Die Landesgrenze ist in Richtung Frankreich und Deutschland jeweils rund 20 (Fahr-)Minuten entfernt, in Richtung Belgien rund 15 Minuten. Nicht selten wird die zentrale Lage Luxemburgs „im Herzen Europas“ hervorgehoben: Köln liegt 159 Kilometer entfernt, Straßburg 164 Kilometer, Brüssel 186 Kilometer, Frankfurt am Main 191 Kilometer, Paris 287 Kilometer. Luxemburg ist gemeinsam mit Metz, Saarbrücken und Trier ein Zentrum der Europa- und Großregion Saar-Lor-Lux, in der auf einer Fläche von 36.700 km² rund 4,7 Millionen Menschen leben, und die vor allem durch die Montanunion, den damit verbundenen Steinkohlenbergbau und die Stahlindustrie an Bedeutung gewann. Die vier Städte bilden seit 2006 ein grenzüberschreitendes Städtenetzwerk namens Quattropole, das in vielfältiger Weise miteinander kooperiert. Luxemburg und Lage seiner Stadtteile Stadtgliederung. Das Stadtbild wird geprägt durch das Petruss-Tal. Es ist Fußgängern vorbehalten und grenzt die Oberstadt vom Bahnhofsviertel ab. Beggen, Belair, Bonneweg-Nord, Bonneweg-Süd, Cents, Clausen, Dommeldingen, Eich, Bahnhofsviertel, Gasperich, Grund, Hamm, Hollerich, Kirchberg, Limpertsberg, Merl, Mühlenbach, Neudorf-Weimershof, Pfaffenthal-Siechenhof, Pulvermühle, Rollingergrund, Oberstadt, Weimerskirch und Zessingen. Mit seinen nördlichen, westlichen und südlichen Vororten Bereldingen, Walferdingen, Strassen und Howald ist Luxemburg nahtlos verwachsen. Der Großraum bildet inzwischen eine großstädtische Agglomeration mit mehr als 160.000 Einwohnern. Klima. In Luxemburg herrscht ein gemäßigtes Kontinentalklima, das durch atlantische Meereswinde beeinflusst wird und sich durch milde Winter und angenehme Sommer auszeichnet. Die Luft ist meist mild und feucht; die Niederschlagsmenge beträgt 782,2 mm; Temperaturen im Jahresmittel 9 °C, im Januar 0,8 °C, im Juli 17,5 °C. Die höchsten Temperaturen werden üblicherweise im Juli und im August gemessen. Zu dieser Zeit beträgt die Durchschnittstemperatur etwa 15–25 °C, es werden nicht selten auch 30-35 °C erreicht. Flora und Fauna. Luxemburg-Stadt verfügt über ausgedehnte Grünflächen, die im städtischen Bereich als Parks gestaltet, in den Außenbezirken zumeist bewirtschaftete Forste sind. Begünstigt durch das milde Klima haben sich diverse nicht einheimische Tiere angesiedelt. Struktur und Entwicklung. Die Stadt Luxemburg hatte im Jahr 2014 insgesamt 107.340 Einwohner, aufgeteilt in 64.052 Haushalte. Darunter sind 33.292 einheimische Luxemburger und eingebürgerte Bewohner (31,02 Prozent) sowie 74.048 Menschen mit einem ausländischen Pass (68,98 Prozent). In Luxemburg leben Menschen vieler Nationen und verschiedener Kulturen. Die Stadt ist eine der multikulturellsten Hauptstädte Europas. Ihre Einwohner stammen aus insgesamt 160 Staaten, die meisten davon aus Frankreich (17.487), Portugal (13.779), Italien (6830), Belgien (4511) und Deutschland (4000). Das Stadtviertel Cents ist das einzige, in denen die Einwohner mit einheimischer luxemburgischer Abstammung in der Mehrheit sind. Das Bahnhofsquartier hat mit 83,77 Prozent den höchsten Ausländeranteil. Sprachen. Die Luxemburger sprechen in der Regel Luxemburgisch und Deutsch wegen der nationalen Diglossie fließend, die meisten können darüber hinaus noch Französisch und Englisch sprechen. Portugiesisch ist wegen der vielen Immigranten (60 %) auch weit verbreitet. Luxemburgisch sprechen die Luxemburger im Alltag. Die Sprache spielt – gerade in der Stadt – mit Blick auf die nationale Identität der Luxemburger eine bedeutende Rolle. Sie hilft auch bei der Unterscheidung zwischen „echten“, germanophonen Luxemburgern und franko- oder romanophonen Immigranten. Wer beispielsweise die Staatsbürgerschaft des Großherzogtums erlangen will, muss durch Kenntnisse dieser Sprache eine gewisse nationale Identität nachweisen. Luxemburgisch ist aufgrund dessen die am meisten gesprochene Umgangssprache. Wer allerdings beispielsweise eines der vielen von Immigranten geführten Cafés oder Restaurants der Stadt aufsucht, wird zunächst meist mit Französisch konfrontiert. Auch die dortige Lebensart ist deswegen französisch geprägt. Deutsch ist demgegenüber, ganz nach der vorhandenen Diglossie, vor allem Mediensprache der „echten“ Luxemburger in Presse und Büchern. Der Bockfelsen in Luxemburg-Stadt, den Graf Siegfried 963 erwarb Luxemburger „Roter“ Löwe, Wappen der Stadt Luxemburg Place d’Armes in der Altstadt Kelten- und Römerzeit. Die ersten Siedlungsspuren auf dem Gebiet der Stadt Luxemburg gehen auf die Kelten zurück und stammen aus dem 2. Jahrhundert v. Chr. Ungefähr einhundert Jahre später drangen Römer in das Land Luxemburg ein, als Caesar um 58–51 v. Chr. Gallien und einen Teil von Germanien bis zur Rheingrenze eroberte. Damit wurde das Gebiet des heutigen Luxemburg samt Stadt Luxemburg Teil des Imperium Romanum. Mittelalter. Im 5. Jahrhundert nach Christus – zur Zeit der Völkerwanderung – drängten die germanischen Franken die Römer zurück. Wandermönche missionierten die Menschen zum Christentum und bauten Klöster. Das Kloster Echternach wurde vom angelsächsischen Missionar Willibrord im Jahre 698 gegründet. Das Gebiet der Stadt Luxemburg war in der Römerzeit von zwei Konsularstraßen durchquert. An deren Kreuzung stand ein befestigter Turm. Durch einen Tauschakt mit der Abtei Sankt Maximin in Trier kam das kleine Kastell 963 in den Besitz Graf Siegfrieds, einem nahen Verwandten der Könige Frankreichs und der deutschen Kaiser. Die Gründungs-Sage der Stadt spricht von der Nixe Melusina, die Siegfried veranlasste hier zu bauen und später dessen Frau wurde. Auf dem „Bockfelsen“ ließ Siegfried seine Burg bauen, die den Namen "Lucilinburhuc" ‚kleine Burg oder Stadt‘ (ahd. "luzzil" ‚klein‘, "burg" ‚Burg, Stadt‘) trug und zum ersten Mal in dem besagten Tauschakt erwähnt wird. Aus diesem Namen entwickelte sich später über "Lützenburg" der neudeutsche Name „Luxemburg“. In der Vorburg weihte der Trierer Erzbischof Egbert 987 fünf Altäre in der Erlöserkirche (später Michaelskirche). Vor der Kirche, an einer römischen Straßenkreuzung, entstand ein Markt, um den herum sich die Stadt entwickelte. Ende des 11. Jahrhunderts besaß die Burg einen Wohnturm und unterhalb der Burg gründeten die Grafen 1083 ihre Hausklöster, die Münsterabtei, die die Stadtschule beherbergte und in der sich die letzte Ruhestätte jener Grafen befindet, die sich im Siegel der Gründungsurkunde zum ersten Mal als Grafen von Luxemburg bezeichneten. Während unterhalb der Burg am Flüsschen Alzette ein Handwerkerviertel entstand, in dem Anfang des 14. Jahrhunderts ein Hospiz gegründet wurde, dehnte sich im 12. Jahrhundert die Oberstadt, die seit dem 10. Jahrhundert durch einen Schutzwall befestigt war, nach Westen hin aus. Um die neue Nikolauskirche entstand ein Stadtviertel mit eigenem Markt, dem "Novum Forum". Um dieses Viertel in die Stadtbefestigungen einzubeziehen, wurde Ende des 12. Jahrhunderts mit dem Bau einer Ringmauer begonnen, die ein Stadtgebiet von 5 Hektar umschloss. Aus der ursprünglichen Burgsiedlung hat sich in dieser Zeit eine Stadt entwickelt, die 1244 von Gräfin Ermesinde die Freiheitsrechte verliehen bekam. Es handelte sich wohl um eine Ausdehnung der Rechte und Pflichten auf das gesamte Stadtgebiet, die ihr Vater, Graf Heinrich von Namur-Luxemburg, ursprünglich den Bewohnern des Neubauviertels an der Nikolauskirche möglicherweise mündlich zugesichert hatte. Um 1340 wurde unter der Herrschaft von Johann dem Blinden mit dem Bau der großen mittelalterlichen Ringmauer begonnen, deren Verlauf die Oberstadt bis ins 19. Jahrhundert hinein vom Umland trennte. 1354 wurde Luxemburg Herzogtum. 1443 wurde die Stadt von Burgundertruppen unter Philipp dem Guten eingenommen. Luxemburg wurde Teil der burgundischen, später der spanischen und österreichischen Niederlande. Frühe Neuzeit. Die Stadt wurde ab dem 16. Jahrhundert zu einer der stärksten Festungen Europas, dem „Gibraltar des Nordens“ ausgebaut. Nach der Belagerung von 1684 durch Vauban hat dieser nach der Eroberung die Festung noch verstärkt. In der Festung wechselten sich Burgunder, Spanier, Franzosen, dann wieder Spanier, Österreicher, dann wieder Franzosen und Preußen ab. Sie war ab 1714 Teil der Österreichischen Niederlande; in den folgenden 80 Jahren wurden die äußeren Befestigungsanlagen weiter stark ausgebaut, um einen möglichen französischen Angriff zu verhindern. Am 6. Juni 1795 kapitulierte die Stadt im ersten Koalitionskrieg wegen zu Ende gegangener Vorräte nach siebenmonatiger Belagerung vor den französischen Revolutionstruppen. Ab dem 17. Jahrhundert entstanden die Kasematten und Minengänge. Das waren in den Felsen gehauene oder gemauerte Gänge von insgesamt 23 km Länge und eingewölbte, bombensichere Räume. Sie dienten als Artilleriestellungen, beherbergten vor Bombeneinschlag zu schützende Einrichtungen und erlaubten im Notfall die weiter entfernten Festungsteile unterirdisch zu erreichen. Nach der 16 Jahre dauernden Schleifung der luxemburgischen Festungsanlage, beginnend mit dem Jahr 1867, wurden die Kasematten auf eine Länge von 17 km reduziert. Sie konnten nicht gänzlich zerstört werden, da sonst die Siedlungsstruktur der Stadt in Mitleidenschaft gezogen worden wäre. Cercle Municipal auf der Place d’Armes Neuzeit. Bei der Neuordnung Europas durch den Wiener Kongress wurde unter anderem ein vergrößerter Niederländischer Staat erschaffen, der im Wesentlichen die heutigen Niederlande und das heutige Belgien umfasste. Einerseits sollte der niederländische König für die an Großbritannien abgetretenen Kolonien entschädigt werden, andererseits sollte dieser neue Staat als Pufferzone gegen ein mögliches wiedererstarktes Frankreich dienen. Luxemburg erhielt einen Sonderstatus als Großherzogtum. Es wurde durch den niederländischen König in Personalunion regiert, gehörte aber als militärisch wichtige Region offiziell dem Deutschen Bund an, so dass die Stadt zur Bundesfestung ausgebaut werden konnte und eine preußische Garnison erhielt. Die Londoner Konferenz erklärte nach der Luxemburgkrise Luxemburg 1867 für neutral, die preußischen Truppen zogen ab und die Festung wurde geschleift. Von 1914 bis 1918 genauso wie von 1940 bis 1944 wurde Luxemburg von deutschen Truppen besetzt. Nach der deutschen Besetzung am 10. Mai 1940 unterstand das Großherzogtum als CdZ-Gebiet Luxemburg seit dem 2. August 1940 einem von Deutschland eingesetzten Chef der Zivilverwaltung. Danach wurde die Stadt Luxemburg vorläufig von einem deutschen Verwaltungskommissar geleitet. Zum 1. Dezember 1940 wurde die Stadt Luxemburg als deutscher Stadtkreis der im Altreich gültigen Deutschen Gemeindeordnung vom 30. Januar 1935 unterstellt, mit einem deutschen Oberbürgermeister an der Spitze. Zum 1. April 1943 wurden aus dem Landkreis Esch, dem früheren Distrikt Luxemburg, die Gemeinden Hesperingen (teilweise), Niederanven (teilweise), Strassen und Walferdingen in den Stadtkreis Luxemburg eingegliedert. Mit der Befreiung durch US-amerikanische Truppen im September 1944 endete die deutsche Okkupation. Trotzdem litt die Stadt Luxemburg noch unter Kriegshandlungen: Im Dezember 1944 wurde sie aus Lampaden in der Nähe von Trier mit den sog. Vergeltungswaffen V3 beschossen. Wegen seiner Lage, seiner Geschichte, aber auch seiner Größe ist Luxemburg, als eines der Gründungsmitglieder der EU, Sitz zahlreicher wichtiger Organe und Behörden der Union, die sich im Stadtteil Kirchberg ansiedelten. Die Stadt gilt somit als eine der Hauptstädte der Europäischen Union. Ab den 1960er Jahren entwickelte sich die Stadt daneben zu einem der größten internationalen Finanzplätze. Seit 1979 erscheint als Stadtzeitschrift "Ons Stad". Nach dreißigjährigem Bestehen ist ihr gesamtes Archiv online verfügbar und stellt damit eine einzigartige Dokumentation der Stadtgeschichte dar. Kultur und Sehenswürdigkeiten. Die Stadt Luxemburg mit den Kasematten Lebensqualität. Die Stadt bietet laut Untersuchungen eine hohe Lebensqualität. In der Städteplatzierung des Beratungsunternehmens Mercer, in der jährlich die Lebensqualität von Metropolen der Welt verglichen wird, belegte die Stadt Luxemburg im Jahr 2010 unter 420 Städten den 19. Platz. In der Studie des Globalization and World Cities Research Network rangiert Luxemburg in der Kategorie Beta World Cities auf einer Stufe mit Berlin, Dubai, San Francisco, Barcelona und anderen Städten. Kulturhauptstadt Europas 2007. Die Stadt Luxemburg wurde gemeinsam mit der Großregion und der rumänischen Stadt Sibiu (Hermannstadt) für das Jahr 2007 zur Kulturhauptstadt Europas gewählt („Luxemburg und Großregion – Kulturhauptstadt Europas 2007“). Über 600 Projekte und Einzelveranstaltungen wurden für dieses europäischen Kulturjahr in der gesamten Großregion (Luxemburg, Lothringen, Saarland, westliches Rheinland-Pfalz nur die Region Trier, Wallonie) kreiert und im Verlauf des Kulturjahres angeboten. Kristallisationspunkt des Kulturjahres waren zwei Rotunden, die früher als Lokschuppen dienten und für das Festjahr zu einem neuen Kultur- und Veranstaltungszentrum, insbesondere für Jugendliche, umgebaut wurden. Das offizielle Logo des Kulturjahres war ein „Blauer Hirsch“, der in zahlreichen Variationen das Stadtbild sowie die gesamte Großregion durchzog. Konzerthäuser. Das größte Konzerthaus der Stadt ist die "Philharmonie Luxembourg" auf dem Plateau Kirchberg an der Place de l'Europe. Die Philharmonie ist auch Residenzort des Orchestre Philharmonique du Luxembourg. Das weiße Hauptgebäude hat im Grundriss die Form eines Auges, die Stahl-Glas-Fassade wird von 823 weißen Säulen von 20 Metern Höhe und 30 Zentimetern Durchmesser optisch dominiert. Der große Konzertsaal "Salle de Concerts Grande-Duchesse Joséphine-Charlotte (Grand Auditorium)" hat bis zu 1500 Sitzplätze. Seit Eröffnung im Jahr 2005 bietet die Philharmonie ein anerkanntes Programm von hoher künstlerischer Qualität. Künstler wie Lang Lang, Hélène Grimaud, die Klassikinterpreten Diana Damrau und Andreas Scholl kommen nach Luxemburg, außerdem die Dirigenten Muti, Mehta, Thielemann und Gergiev. Dazu sind Orchester wie die Wiener und die New Yorker Philharmoniker, das Amsterdamer Concertgebouw oder die Londoner Sinfoniker und Jazzinterpreten wie Chick Corea und Brad Mehldau Gäste in Luxemburg. Die Besucherzahlen der Philharmonie liegen konstant oberhalb der Marke von 150 000 pro Jahr. Im Untergeschoss der Philharmonie befindet sich der sogenannte "Espace Découverte". Er ist vorgesehen für elektroakustische Musik, Experimentalkunst im Bereich Elektronik, Film oder Video oder für interaktive Musik-Workshops. Im Atelier werden regelmäßig Konzerte international bekannter Künstler veranstaltet. Theater, Oper und Ballett. Das größte und modernste Theater der Stadt ist das "Grand théâtre de la ville de Luxembourg" am rond-point Schuman in Richtung Kirchberg. Es wurde in den Jahren 1960 bis 1964 nach Plänen des französischen Architekten Alain Bourbonnais erbaut. Nach umfangreichen Renovierungs- und Vergrößerungsarbeiten (1999–2003) konnte das Haus am 26. September 2003 neu eröffnet werden. Das heutige Angebot des Grand Théâtre geht von Opern und Theaterstücken bis hin zur Poesie und Tanzvorführungen. Darüber hinaus bietet die Stadt weitere Theaterhäuser, unter anderem das "Théâtre national du Luxembourg", das "Théâtre ouvert Luxembourg" oder das "Théâtre des capucins". Museen und Ausstellungen. Musée Dräi Eechelen im Fort Thüngen Die Stadt Luxemburg verfügt trotz ihrer bescheidenen Ausdehnung über ein museales Angebot von internationalem Niveau. Das wichtigste Museum ist das Musée d’Art Moderne Grand-Duc Jean auf dem Kirchberg-Plateau. Dabei handelt es sich um Museum für moderne Kunst, das am 1. Juli 2006 eröffnet wurde. In den ersten zwölf Monaten nach der Eröffnung wurden mehr als 115.000 Besucher gezählt. Das Festungsmuseum der Stadt Luxemburg ist in einem renovierten und teils neu aufgebauten Abschnitt des Fort Thüngen () untergebracht. Das "Casino Luxembourg – Forum d’art contemporain" organisiert Ausstellungen zeitgenössischer Kunst. Ein internationales Programm, überwiegend auf jungen Künstlern beruhend, ermöglicht einen umfangreichen Einblick in zeitgenössisches, künstlerisches Schaffen. In seinen Künstlerresidenzen und Ausstellungen konzentriert sich das Casino auf neue Trends im Kunstbereich. Die Villa Vauban – "Musée d’Art de la Ville de Luxembourg" – ist die Kunstgalerie der Stadt. Sie wurde am 1. Mai 2010 nach rund fünfjähriger Bauzeit eröffnet und enthält Werke von holländischen und flämischen Künstlern aus den 17. und 18. Jahrhundert sowie von französischen, belgischen, italienischen, deutschen und Schweizer Malern aus dem 19. Jahrhundert. In der ehemaligen Schalterhalle des Zentralsitzes der Staatsbank Banque et Caisse d’Epargne de l’Etat an der Place de Metz befindet sich das "Musée de la Banque". Die Ausstellungsstücke und die interaktiven Infosäulen des Museums geben einen Einblick in die Geschichte des Bankgeschäfts und in die Entwicklung des Bankierberufs. Darüber hinaus gibt es zahlreiche weitere Museen, unter anderem das "Nationalmuseum für Naturgeschichte", das "Historische Museum der Stadt Luxemburg", das "Nationalmuseum für Geschichte und Kunst", die "Kunstgalerie „Am Tunnel“" oder "Gedenkstätte der Zwangsrekrutierten und der Umsiedlung". Kleinere Museen sind das "Post- und Fernmeldemuseum" sowie das "Straßenbahn- und Busmuseum". Universitäten. Die im Jahr 2003 gegründete Universität Luxemburg hatte bis 2015 ihren Sitz in Luxemburg-Limpertsberg bevor die Verwaltung und mehrere Institute nach Esch-Belval umzog. Einige Institute befinden sich nach wie vor in Luxemburg-Stadt. Sie versteht sich als mehrsprachige, internationale und forschungsorientierte Universität mit persönlicher Atmosphäre. Die Universität unterhält zahlreiche Kooperationen mit den EU-Institutionen und dem luxemburgischen Finanzplatz. Sie hat drei Fakultäten und zwei interdisziplinäre Zentren. Unterrichtssprachen sind Französisch, Deutsch und Englisch. Der Sitz der privaten staatlich anerkannten eufom European University for Economics & Management A.s.b.l. befindet sich ebenfalls in der Stadt Luxemburg auf dem Kirchberg-Plateau. Das europäisch ausgerichtete Studium der eufom University richtet sich an Berufstätige und Auszubildende der Großregion und des Großherzogtums Luxemburg, die sich neben ihrer unternehmerischen oder betrieblichen Tätigkeit akademisch qualifizieren wollen. Unterrichtssprachen sind Deutsch (Bachelor) und Englisch (Master). Bauwerke. Festung mit Bastion Beck, Monument du souvenir (Gëlle Fra) und Pétrussetal Bis heute können zahlreiche Überreste der Festung Luxemburg besichtigt werden, unter anderem Bock-Kasematten, Petrusse-Kasematten, Bockfelsen, Chemin de la Corniche, Rham-Plateau, Heiliggeist-Zitadelle, Spanische Türmchen, Drei Türme, Vauban-Türme, Fort Thüngen, Wenzelsmauer, Hohler Zahn, Reduit Lambert, Archäologische Krypta, Bastion Beck oder Plateau Bourbon. Im Jahr 1994 wurden diese Festungsreste und die Altstadt Luxemburgs in die Liste des Unesco-Weltkulturerbes aufgenommen. Das Palais Grand Ducal mit seiner Renaissancefassade ist das erste Stadthaus, seit 1856 Tagungsort des Luxemburger Parlaments Chambre des Députés (Abgeordnetenkammer) und seit 1890 Stadtresidenz der Großherzoglichen Familie. Der Gebäudekomplex, dessen älteste Teile aus dem 13. Jahrhundert stammen, war zuvor mehr als 500 Jahre lang Rathaus der Stadt und nach 1815 sogar Regierungssitz. Im Innern des Palais' kommt das Monarchische eher vornehm-zurückhaltend als prunkvoll-protzig daher. Einige der Foyers, Säle und Salons mit ihren kunstvollen Stuckdecken, Möbeln, Gobelins und Gemälden können während der Sommermonate auch besichtigt werden. Sofern der "grand-duc" anwesend ist, ist die Nationalflagge gehisst und die bewaffnete Palastwache paradiert mit zwei statt wie sonst üblich mit einem Soldaten vor dem großen Haupttor. Chor der Cathédrale Notre-Dame de Luxembourg Das bedeutendste religiöse Bauwerk ist die Kathedrale Notre-Dame de Luxembourg (auch Kathedrale unserer lieben Frau genannt), die spätgotische Bischofskirche des Erzbistums Luxemburg. Sie wurde 1613–1617 durch die Jesuiten errichtet und 1870 zur Kathedrale erhoben. In ihr wird jedes Jahr die Muttergottesoktav gefeiert, eine Wallfahrt zu Ehren der Mutter Gottes, der Schutzpatronin der Stadt Luxemburg. Neben ihr liegt das barocke Refugium St. Maximin, die ehemalige Niederlassung der Trierer Reichsabtei St. Maximin, heute Außenministerium des Großherzogtums. Weitere religiöse Stätten sind die Herz-Jesu-Kirche (Sacré Coeur), die St.-Michael-Kirche, die St.-Johann-Kirche, die Quirinuskapelle, die Kongregationskirche und der Liebfrauenfriedhof. Luxembourg American Cemetery and Memorial Rund um die Stadt Luxemburg gibt es einen großen US-amerikanischen und einen großen deutschen Militärfriedhof mit Gräbern von 15.989 Soldaten, die während der Ardennenoffensive im Zweiten Weltkrieg ums Leben kamen. Der amerikanische Militärfriedhof in Hamm besteht aus 5076 Gräbern, die bogenförmig vor einer Gedenkkapelle aufgestellt sind. Auch der Befehlshaber der III. US-Armee, General George S. Patton, wurde auf seinen Wunsch hin dort bestattet. Der deutsche Soldatenfriedhof in Sandweiler besteht aus 10.913 Gräbern. Der Friedhof war der erste nach dem Zweiten Weltkrieg, den der Volksbund Deutsche Kriegsgräberfürsorge außerhalb Deutschlands anlegen konnte. Das Plateau Kirchberg ist der modernste Teil der Stadt Luxemburg. Hier befinden sich unter anderem die sehenswerten Gebäude des Europäischen Gerichtshofs, des Europäischen Rechnungshofs, der Europäischen Kommission, der Europäischen Investitionsbank und des Parlaments der Europäischen Union. Der Kirchberg wird daher auch als Europaviertel bezeichnet. Darüber hinaus befindet sich auf dem Kirchberg das Europäische Konferenz- und Kongresszentrum, die Philharmonie Luxembourg und die Messe Luxexpo. Brücken. Die Pont Adolphe verbindet Altstadt und Festung mit dem Bahnhofsquartier Straßen und Plätze. Hôtel de Ville, Place Guillaume II. Die bekanntesten Plätze der Stadt sind der Place Guillaume II ("im Volksmund auch „Knuedler“ genannt") mit dem Reiterstandbild Wilhelms, der Fischmarkt, der Paradeplatz Place d’Armes (erbaut 1671, 1986 neu angelegt und im Sommer ein beliebter Treffpunkt für Jung und Alt) mit dem angrenzenden Stadt-Palais sowie der Clairefontaine-Platz im Regierungsviertel mit dem Denkmal der Großherzogin Charlotte. Die Skulptur „La grande Tempérance“ von Niki de Saint Phalle wurde von ihrem Betonsockel am Busbahnhof vor dem hauptstädtischen Centre Hamilius gehoben und ist während des Umbaues des Platzes in einem Depot untergebracht. Die Avenue John Fitzgerald Kennedy (aus Richtung Deutschland) und die Route d’Arlon (aus Richtung Belgien) sind gemeinsam mit den beiden südlich gelegenen Autobahnen 3 und 4 (aus Richtung Frankreich) die meistfrequentierten Einfallstraßen in die Stadt. Bedeutendste innerstädtische Straßen sind unter anderem der Boulevard Royal und die Prachtstraße Avenue de la Liberté, die von der Adolphe-Brücke in südlicher Richtung bis zum Bahnhof führt. Im Stadtzentrum wird der Verkehr aus Süden in Richtung Norden unter der Altstadt durch den Tunnel René Conen geleitet. Im Bereich der Fußgängerzone liegen die oben genannten Plätze sowie außerdem unter anderem die Einkaufsstraßen Groussgaass, Grand-Rue, Rue du Curé oder Avenue Monterey. Gedränge herrscht in der Hauptstadt meist unter der Woche, insbesondere in den Monaten April, Juni, Oktober, wenn der EU-Ministerrat tagt, und während der Messen und Kongresse (im Mai und Juni sowie im September und im Oktober). Sport. Das Centre National Sportif et Culturel (D’Coque) auf dem Luxemburger Kirchberg ist das größte Sportzentrum des Landes. Die Hallenkonstruktion wurde erst in den 1990er-Jahren als Erweiterung der "Piscine Olympique Luxembourg" erbaut und erinnert in ihrer Form an eine Jakobsmuschel. Neben ihrer Funktion als Sportzentrum wird sie für Großveranstaltungen, Konzerte und als Konferenzzentrum verwendet. Die große Halle umfasst 4300 Quadratmeter und hat 8000 Plätze. Fußball ist die beliebteste Sportart Luxemburgs. Im Stadtteil Belair liegt das Stade Josy Barthel, das größte Fußballstadion des Landes (Kapazität: 8054 Plätze). Es ist Austragungsort der Heimspiele der Luxemburger Fußballnationalmannschaft (Nationalstadion). Darüber hinaus gibt es im Stadtgebiet das Stade Achille Hammerel (5814 Plätze), das Stade de Beggen (rue Henri Dunant, 4850 Plätze), das Stade Camille Polfer (2740 Plätze) sowie das Stade Hollerich (2120 Plätze). Die erfolgreichste Fußballmannschaft der Stadt ist Racing FC Union Luxembourg. Nach der Fusion 2005 zwischen Alliance, Spora sowie Union Luxemburg kann der Klub sich 28 Luxemburger Meisterschaften und 20 Pokalsiege (Coupe de Luxembourg) ins Palmares schreiben, die aber alle von den Vorgängervereinen gewonnen wurden. Ältester eigenständiger Fußballverein der Hauptstadt ist der FC Avenir Beggen (gegründet 1915). Das Etappen-Radrennen Tour de Luxembourg, seit 1935 eines der ersten Vorbereitungsrennen zur Tour de France, beginnt und endet in der Stadt Luxemburg. Das Rennen ist Teil der UCI Europe Tour. Nach drei Jahrzehnten konnte mit Fränk Schleck 2009 erstmals wieder ein Luxemburger Junge das Rennen gewinnen. Zu den Siegern gehört auch Lance Armstrong, der hier seinen ersten Erfolg nach der überwundenen Krebs-Erkrankung erzielen konnte. Die Stadt Luxemburg war 1995 und 2013 Austragungsort der Spiele der kleinen Staaten von Europa, einem zweijährlich stattfindendes Multisportereignis, das von den Nationalen Olympischen Komitees (NOK) von neun europäischen Kleinstaaten organisiert wird und seit 1985 stattfindet. Das JPMorgan City Jogging ist ein jährlicher Stadtlauf durch die Hauptstadt inklusive Walking, Nordic Walking und Kids Jogging. Der Europe-Marathon führt wahlweise als Marathon oder als Halbmarathon vom Banken- und Finanzzentrum Kirchberg hinein in den historischen Stadtkern. Er ist – begleitet von Fackeln und bengalischer Beleuchtung – einer der wenigen Marathons, die abends ausgetragen werden. Bis zum Jahr 2010 fand der Europe-Marathon jeweils im Mai statt, im Jahr 2011 wird er erstmals im Juni ausgetragen. Der Kurs gilt als attraktiv, ist aber auch wellig und verwinkelt und deshalb nicht unbedingt für Bestzeiten geeignet. Bei der Premiere nahmen Läufer aus 60 Nationen teil. Die größte Gruppe bildeten die Einheimischen mit gut einem Viertel der Teilnehmer, gefolgt von Deutschen, Franzosen und Belgiern. Die Luxembourg Euro Meet ist das größte Schwimmereignis in Luxemburg und findet jährlich im Januar auf dem Kirchberg in der Arena Coque statt. Der Große Preis von Luxemburg wurde von 1949 bis 1952 auf einer Motorsport-Rennstrecke in Findel direkt vor den Toren der Stadt ausgetragen. In den Jahren 1997 und 1998 hieß außerdem das Formel-Eins-Rennen auf dem nahegelegenen Nürburgring Großer Preis von Luxemburg. Der Name wurde gewählt, weil in der Saison 1997 bereits ein Großer Preis von Deutschland auf dem Hockenheimring und ein Großer Preis von Europa auf dem Circuito de Jerez in Jerez de la Frontera in Spanien ausgetragen wurde. Die größte Rennstrecke des Landes, der Circuit Goodyear, liegt einige Kilometer nördlich der Stadt in Colmar-Berg. Der amerikanische Reifenhersteller Goodyear Tire & Rubber Company betreibt dort ein Werk mit mehr als 3600 Angestellten. Jährlich wird außerdem die "Goodyear-Trophy" und der "Coupe-Goodyear" ausgefahren. Nachtleben. Hauptquartiere des Luxemburger Nachtlebens sind die Stadtteile Grund und Clausen. Die Rives de Clausen rund um das ehemalige Industriegelände der Brauerei "Mousel et Clausen" an der Rue Emile Mousel ist das Ausgehviertel par excellence. Das Restaurant Le Sud, das Verso, das Ikki, die Bar Rock Box, das Agua de Coco, das King Wilma und die Space Bar bilden dort einen Cluster angesagter Bars und Restaurants. Die Rives werden nachts von mehreren Tausend Menschen besucht und gelten inzwischen als eines der Zentren des Luxemburger Nachtlebens. Seit Eröffnung des Areals im Oktober 2008 sind dort bereits mehr als 120 Jobs entstanden. Darüber hinaus haben sich in der Rue de Hollerich bzw. in der Rue de Bouillon im populären Stadtviertel Hollerich diverse Lokalitäten angesiedelt, unter anderem Marx Bar (42-44 rue de Hollerich), Elevator (48 rue de Hollerich) und Atelier (54 rue de Hollerich). Beliebt ist auch die Resto-Lounge-Bar Cat Club (18 rue de l’Aciérie). In der Stadt gibt es außerdem zwei Dutzend Diskotheken und Clubs, darunter vier Großraumdiskotheken, die jeweils mehr als 1000 Gäste aufnehmen können. Die Klassiker des Luxemburger Nachtlebens sind die historische Altstadt rund um den Place d’Armes und die Bahnhofsgegend. Die Szenerie ist geprägt von irischen und englischen Bars. Im Bahnhofsquartier befinden sich vor allem multikulturelle Restaurants und diverse Kabarette. Es gibt zwei Arten von Nachtbussen: Jede Nacht pendelt der "Night Rider", ein Sammelbus – bestehend aus 70 Sprintern – ohne bestimmten Fahrplan und Haltestellen, zwischen zwei Haustüren, z. B. den angesagtesten Nightlife-Spots der Hauptstadt. Jede Fahrt kostet mindestens 12 Euro. Freitags und samstags gibt es darüber hinaus ab 22 Uhr den Nachtbus "City Night Bus", der im 15- bzw. im 30-Minuten-Takt auf drei Linien alle großen Stadtteile, die Parkplätze Glacis und Bouillon sowie den Centre Hamilius miteinander verbindet. Der Nachtbus ist ein kostenloser Dienst der Stadt Luxemburg. Im Stadtgebiet Luxemburg gilt ab 3 Uhr morgens eine Sperrstunde. Da dieses regelmäßig zu Ruhestörungen führt, langen Warteschlangen in Parkhäusern und punktuellen Überlastungen der Buspendeldienste kommt, steht die Sperrstunde zur Diskussion. In einigen Stadtteilen wurde bereits eine Verlängerung genehmigt. Dort gilt die Sperrstunde seither erst ab 6 Uhr morgens. Regelmäßige Veranstaltungen. Die "Schobermesse" (lux. "D’Schueberfouer", genannt "d’Fouer") ist ein großes Volksfest, das alljährlich im Spätsommer auf dem Champ du Glacis gefeiert wird. Sie geht zurück auf den 20. Oktober 1340 und findet im Jahr 2011 bereits zum 671. Mal statt – damit ist die Schobermesse eine der ältesten Jahrmarktveranstaltungen in Europa. Mit durchschnittlich zwei Millionen Besuchern gilt sie zugleich außerdem als eine der größten ihrer Art. Der sogenannte Schobermessmontag ist in Luxemburg-Stadt zum Teil ein arbeitsfreier Tag. Den "Nationalfeiertag" des Landes feiern die Luxemburger am 23. Juni in der Hauptstadt. Es gibt patriotische Straßenumzüge, Salutschüsse, Gottesdienste, Konzerte und Empfänge. Auf der Avenue de la Liberté findet an diesem Tag eine Militärparade statt. "Live at Vauban" ist ein Rockfestival, das im Herbst in der Konzerthalle Atelier, im Musikkonservatorium und im Grand Théâtre de la Ville de Luxembourg am rond-point Schuman stattfindet. Die "Nuit des Musées" ist eine seit 2001 jährlich stattfindende Museumsnacht und das Hauptereignis in der Reihe der von den "d’stater muséeën" organisierten Veranstaltungen. Die Museumsnächte ziehen regelmäßig mehr als 10.000 Besucher an. In den verschiedenen Häusern wird dann ein vielfältiges Programm geboten. Der Luxemburger "Weihnachtsmarkt" findet alljährlich von Ende November bis Weihnachten im historischen Stadtkern statt. Es werden Christbäume, Weihnachtsschmuck, Luxemburger Spezialitäten und Glühwein verkauft. Das "Printemps Musical-festival de Luxembourg" findet im Frühjahr statt und präsentiert Konzerte aller musikalischen Gattungen von Klassik über Jazz bis hin zum Chanson. Mit dem Festival sollen die Gemeinsamkeiten der klassischen und der modernen Musik – vor allem auch mit dem Jazz – herausgestellt und die überholte Trennung zwischen der sogenannten E- und U-Musik aufgehoben werden. Die "Octave" im Mai ist eine Wallfahrt zu "Unserer Lieben Frau von Luxemburg": Seit 1628 pilgern die Katholiken aus dem Großherzogtum sowie aus den benachbarten Gebieten Belgiens, Deutschlands und Frankreichs nach Luxemburg. Auf dem Platz gegenüber der Kathedrale in der Hauptstadt findet der Octavenmarkt mit seinen verschiedenen Esswarenständen und Souvenirläden statt. Das Ereignis endet traditionell mit einer feierlichen Prozession, die die religiöse Tradition des Landes widerspiegelt. Die großherzogliche Familie und geistliche Würdenträger aus dem Ausland nehmen üblicherweise daran teil. Darüber hinaus ist Luxemburg-Stadt im Juli Veranstaltungsort des Jazz-Festivals "Blues’n Jazzrallye". Rund 20 000 Musikfans sind kommen dann in die Stadt. Ferner findet im Zweijahresrhythmus im Mai die "Luxembourg International Military Tattoo" statt. Politik. Cité Judiciaire auf dem Heilig-Geist-Plateau Luxemburg als Stadt bzw. Gemeinde. Der Stadt- bzw. Gemeinderat Luxemburgs hat 27 Mitglieder. Es gibt fünf Schöffen. Bürgermeister ist seit Dezember 2013 Lydie Polfer (DP), da ihr Vorgänger Xavier Bettel (DP) das Amt des Premierministers des Großherzogtums Luxemburg übernahm. Luxemburg als Hauptstadt. Luxemburg ist als Hauptstadt des Großherzogtums Sitz aller konstitutionellen Organe und zahlreicher staatlicher Administrationen des Landes. Die Chambre des Députés (Parlament), der Staatsrat, der Großherzog und die Regierung mit allen Ministerien befinden sich in Luxemburg. Darüber hinaus haben die Justizorgane des Landes ihren Sitz in der sogenannten Cité Judiciaire auf dem Heilig-Geist-Plateau in der Hauptstadt. Dort befinden sich die Institutionen Zentrales Sozialdéngscht, Friddensgeriicht, Palais vum Ieweschte Geriichtshaff, Jugendgeriicht, Arrondissementsgeriicht sowie Parquet vum Arrondissementsgeriicht. Luxemburg als EU-Verwaltungssitz. Luxemburg-Stadt ist Verwaltungssitz der Europäischen Union (neben Brüssel und Straßburg) und Die Institutionen der Europäischen Union befinden sich überwiegend auf dem Plateau Kirchberg im Nordosten der Stadt. Finanzplatz Luxemburg. Die früher von Schwerindustrie und Landwirtschaft geprägte Wirtschaftsstruktur Luxemburgs hat sich seit Beginn der 1970er-Jahre tiefgreifend gewandelt. Vor dem absehbaren Rückgang der Bedeutung der Schwerindustrie hat die Luxemburger Regierung seit 1975 bewusst und konsequent eine Diversifizierungspolitik betrieben, neue Industrien angesiedelt und mit großem Erfolg vor allem den Banken- und Versicherungssektor entwickelt. Sitz der Bank „Dexia“ in Luxemburg-Hollerich Mit Frankfurt am Main, London, Zürich, Hongkong und Singapur zählt die Stadt Luxemburg heute zu den wichtigsten Finanzplätzen der Welt. Sie ist nach den Vereinigten Staaten das weltweit zweitgrößte Kompetenzzentrum für Investmentfonds, Europas führender Standort für Captive-Rückversicherungen und das größte Private-Banking-Zentrum der Eurozone. Der Finanzsektor ist damit die wichtigste Säule der luxemburgischen Wirtschaft. Insgesamt generieren Finanzdienstleistungen und unternehmensbezogene Dienstleistungen heute knapp die Hälfte der luxemburgischen Bruttowertschöpfung. Im Finanzsektor arbeiten 22 Prozent der Beschäftigten. Die allermeisten davon in den Stadtteilen Kirchberg und Oberstadt unmittelbar in der Hauptstadt. Baugewerbe. Das Baugewerbe ist ein weiterer wichtiger Wirtschaftszweig. Es profitiert von der Ansiedlung neuer Industrien, Banken und Versicherungen sowie staatlichen Bauvorhaben zur Verbesserung der Infrastruktur. Industrie. Ehemaliger Sitz von Arbed, dem Vorläufer des weltweit größten Stahlherstellers ArcelorMittal an der Avenue de la Liberté in Luxemburg-Stadt Luxemburg-Stadt ist Verwaltungssitz des fusionierten und weltweit größten Stahlherstellers ArcelorMittal. Er entstand 2007 durch die Fusion des einstmals selbständigen multinationalen Stahlunternehmens Arcelor und des britisch-indischen Stahlherstellers Mittal Steel. Arcelor selbst war 2002 durch Fusion der Stahlunternehmen Arbed (Luxemburg), Usinor (Frankreich) und Aceralia (Spanien) entstanden. Arbed war immer der größte private Arbeitgeber in Luxemburg. Der ehemalige Verwaltungssitz von Arbed befand sich in einem repräsentativen neoklassizistischem Gebäude auf der Avenue de la Liberté, dem größten Boulevard Luxemburgs. Medien. In Luxemburg-Stadt ist weiterhin der Sitz des Medienunternehmens RTL Group angesiedelt, dessen Wurzeln auf die "Compagnie luxembourgeoise de radiodiffusion" zurückgehen, welche seit den 1930er Jahren von ihrem Funkhaus im Luxemburger Stadtpark aus "Radio Luxemburg" betrieb. Informationstechnik. Aufgrund der zentralen Lage und des günstigen wirtschaftlichen Umfelds haben sich auch zahlreiche IT-Konzerne in Luxemburg niedergelassen. So ist seit dem Jahr 2004 die "iTunes S.a.r.l." dort ansässig, die als Tochtergesellschaft der Apple Inc. den europäischen iTunes Store betreibt. Auch die europäische Niederlassung von Amazon.com hat ihren Sitz in Luxemburg. Öffentlicher Personenverkehr. Es gibt ein ausgebautes Netz von Buslinien. Sie verbinden Stadtteile mit der Innenstadt, die Bahnhöfe und die in der Peripherie gelegenen P+R-Plätze (Bouillon: 2600 Stellplätze, Kockelscheuer: 600, Süd: 720, Kirchberg: 235, Beggen: 200) miteinander. Freitags und samstags verkehrt ab 22 Uhr der kostenlose Nachtbus "City Night Bus" auf drei Linien. Linie CN1 verbindet die Oberstadt mit den Stadtteilen Hollerich, Gare, Clausen, Neudorf und Cents und fährt auch die Parkplätze Glacis und Bouillon an. Linie CN2 verbindet den Centre Hamilius mit den Stadtteilen Bonnevoie, Gasperich und Zessingen. Linie CN3 verbindet den Centre Hamilius mit den Stadtteilen Limpertsberg, Belair und Merl. Der Nachtbus ist ein kostenloser Service der Stadt Luxemburg. Er verkehrt im 15- bzw. im 30-Minuten-Takt. Die Stadt Luxemburg plant den Bau eines Straßenbahnnetzes. Eine erste Linie soll vom Hauptbahnhof durch das Stadtzentrum über Place de l’Etoile und Glacis zum Kirchberg mit dem LuxExpo-Messegelände als Endstation führen. Diskutiert wird auch eine Erweiterung bis zum Flughafen Luxemburg. Ziel des Vorhabens ist eine Verbesserung der Mobilität zwischen Innenstadt und Kirchberg, wo ein erheblicher Teil der Berufspendler arbeitet. Berechnungen haben ergeben, dass dem Verkehrsaufkommen mit Bussen nicht mehr beizukommen ist. Die Tram soll nach Angaben des Infrastrukturministers voraussichtlich 2017 den Betrieb auf der Strecke Bahnhof – Stadtzentrum – Kirchberg aufnehmen. Ein Straßenbahnsystem traditionellen Typs bestand in Luxemburg von 1875 bis zur Einstellung 1964. Die Stadt plant außerdem ab 2015 die Einführung des Konzepts "Carsharing". Damit können an bestimmten Orten bereitgestellte Fahrzeuge gelegentlich ausgeliehen werden. Recht niedrige Fixkosten werden angestrebt, Tanken, Wartung und Pflege sind inklusive. Das Konzept richtet sich sowohl an Privatpersonen als auch an Unternehmen. Straßenverkehr. Täglich kommen 135.000 Pendler nach Luxemburg, die meisten davon direkt in die Stadt. Daher herrscht rund um die Hauptstadt in der Zeit zwischen 7:30 und 9:00 Uhr sowie zwischen 17.00 und 18.30 Uhr meist Stau. Die 22 Parkhäuser der Stadt, vor allem die Parkhäuser Aldringen, Knuedler und Theater, sind wochentags häufig überlastet. Das am 29. Juli 2005 eingeführte dynamische Parkleitsystem gibt Auskunft über den aktuellen Belegungsgrad. Die innerstädtische Begrenzung auf zwei Stunden Parkzeit soll für eine permanente Rotation sorgen und dem Langzeitparken entgegenwirken. Es sind unterschiedliche Parkzonen vorgesehen sowie Sondererlaubnisse für Anwohner und andere spezifische Gruppen. "Call2Park" ist ein System, das Parktickets per Mobiltelefon zu zahlen erlaubt. Ein Verkehrsinfo ist online abrufbar. Schienenverkehr. Der Hauptbahnhof der Stadt (frz. "Gare Centrale") ist der zentrale Punkt des 274 km langen Eisenbahnnetzes in Luxemburg. Der Personenverkehr wird hauptsächlich von der Société Nationale des Chemins de Fer Luxembourgeois (CFL) betrieben. Der Bahnhof ist über die Trasse LGV Est européenne an das Hochgeschwindigkeitsnetz der Société Nationale des Chemins de fer Français (SNCF) angeschlossen und verfügt unter anderem über eine direkte Verbindung nach Paris. Seit 2009 verkehren täglich sechs TGV-Züge auf dieser Linie, die Fahrzeit beträgt rund 120 Minuten. Es besteht eine stündliche Verbindung nach Deutschland im Nahverkehr, die allerdings schon kurz hinter der Grenze in Trier endet. Betrieben wird sie gemeinsam von der CFL und der DB. Seit dem 14. Dezember 2014 sind Luxemburg und Deutschland mit einer leistungsfähigen Verbindung im Stundentakt zwischen Luxemburg und Koblenz verbunden. Dazu erfolgte ein Ausbau der Strecke Luxemburg – Trier – Koblenz zwischen den Orten Igel und Igel-West auf einer Distanz von zwei Kilometern. Das Projekt der Deutschen Bahn wurde mit 23 Millionen Euro veranschlagt. Luxemburg steuerte 8 Millionen Euro bei, obwohl das betroffene Teilstück vollständig auf deutschem Staatsgebiet liegt. Langfristig ist auch an eine Anbindung der Stadt Luxemburg an das Hochgeschwindigkeitsnetz Deutschlands gedacht. Seit einigen Jahren ist mit der sogenannten Eurocaprail eine Hochgeschwindigkeitsverbindung zwischen den Hauptstädten der EU Brüssel, Luxemburg und Straßburg geplant. Auf belgischer Seite sind an der Strecke Brüssel – Luxemburg auf einigen Abschnitten bereits Linienverbesserungen im Bau. Die Einführung eines Hochgeschwindigkeitsverkehrs ist nach der Eröffnung der TGV-Strecke zwischen Metz und Straßburg vorgesehen. Luftverkehr. Der Flughafen Luxemburg (frz. "Aéroport de Luxembourg") „Findel“ ist der zentrale Flughafen von Luxemburg. Bedeutung hat er insbesondere im Frachtgeschäft: Luxemburg steht in der Liste der größten Cargo-Flughäfen Europas auf Rang fünf. Der Airport liegt direkt vor den Toren der Stadt, rund sechs Kilometer vom Stadtkern entfernt. Er ist der einzige internationale Flughafen des Landes und zugleich der einzige mit einer asphaltierten Startbahn (4000 × 60 m). Ein modernes Terminal mit einer Kapazität von rund drei Millionen Passagieren wurde im Jahr 2008 eröffnet. Im Personenverkehr wird der Flughafen von zahlreichen Fluggesellschaften bedient, unter anderem von British Airways, KLM Royal Dutch Airlines, Lufthansa oder Scandinavian Airlines. Hauptnutzer ist Luxair. Im Frachtverkehr ist Cargolux größter Kunde. Kritisch beobachtet wird in Luxemburg die Ansiedlung mehrerer Billigflughäfen in der Umgebung: Frankfurt-Hahn, rund 110 Kilometer entfernt, und Brüssel-Charleroi, rund 200 Kilometer entfernt, haben dem Flughafen Luxemburg in den vergangenen Jahren immer mehr Marktanteile abgenommen. Im Jahr 2009 wurden allein auf dem Hahn mehr als 300.000 Luxemburger Passagiere geschätzt. Täglich pendeln 15 Busse zwischen der Stadt Luxemburg und dem Hahn. Die Fluggesellschaft Ryanair hat ihre Maschinen sowohl am Flughafen Frankfurt-Hahn als auch am Flughafen Brüssel-Charleroi stationiert und betreibt zum Teil aggressive Werbung für über 90 Prozent günstigere Flugpreise als Luxair sie vom Flughafen Luxemburg aus anbieten kann. Städtepartnerschaften. Zudem ist Luxemburg Mitglied des Bundes der europäischen Napoleonstädte. Leo Perutz. Leo Perutz (eigentlich "Leopold Perutz"; * 2. November 1882 in Prag; † 25. August 1957 in Bad Ischl) war ein österreichischer Schriftsteller. Im bürgerlichen Beruf war er Versicherungsmathematiker. Grab Leo Perutz, Bad Ischl Familie. Leo Perutz war der älteste Sohn von Benedikt Perutz, einem erfolgreichen Textilunternehmer, und dessen Frau Emilie (geb. Österreicher). Die Familie war jüdisch-spanischer Abstammung und seit mindestens 1730 in Rakonitz, einer Kleinstadt rund 50 Kilometer von Prag entfernt, ansässig. Die Familie war jüdischen Glaubens, jedoch weitgehend säkularisiert und nur wenig religiös. Neben Leo gab es noch drei jüngere Geschwister, die Brüder Paul (* 1885) und Hans (* 1892) und die Schwester Charlotte (* 1888). 1888–1904: Schul- und Armeezeit. Perutz war kein guter Schüler. Von 1888 bis 1893 besuchte er die angesehene Piaristenschule in der Prager Neustadt, in die ebenfalls auch die gleichaltrigen Kafka-Freunde Felix Weltsch und Max Brod gingen, dann das k.k. Deutsche Staatsgymnasium in Prag, von dem er wahrscheinlich wegen schlechten Betragens 1899 verwiesen wurde. Von 1899 bis 1901 besuchte er das k.k. Gymnasium in Krumau, aber auch hier waren seine Leistungen so schlecht, dass er zur Matura nicht zugelassen wurde. 1901 zog die Familie nach Wien, wo Perutz das k.k. Erzherzog-Rainer-Gymnasium besuchte, das er jedoch 1902 ohne Abschluss verließ. Im Anschluss arbeitete er vermutlich für einige Zeit in der Firma seines Vaters. Ab 1. Oktober 1903 leistete er seinen Wehrdienst als Einjährig-Freiwilliger beim k.k. Landwehrregiment Nr. 8 Prag. Am Ende der Dienstzeit wurden die Einjährig-Freiwilligen zu Reserve-Offizieren, vorausgesetzt, sie bestanden die Abschlussprüfung. Dies scheint bei Perutz nicht der Fall gewesen zu sein, denn er verpflichtete sich für ein zweites Jahr. Aus gesundheitlichen Gründen schied er im Dezember 1904 im Rang eines Korporals aus der Armee aus. 1904–1907: Studium und literarische Anfänge. Im folgenden Jahr arbeitete Perutz wahrscheinlich wieder als Angestellter in der Firma seines Vaters. Für das Wintersemester 1905/1906 schrieb er sich an der Universität Wien an der Philosophischen Fakultät ein, allerdings als „außerordentlicher Hörer“, da er nicht über die Hochschulreife verfügte. Er belegte Veranstaltungen in Mathematik und Volkswirtschaftslehre. Zum Wintersemester 1906/1907 wechselte er an die Technische Hochschule Wien und beschäftigte sich mit Wahrscheinlichkeitsrechnung, Statistik, Versicherungsmathematik und Volkswirtschaft. Obwohl es formal eigentlich nicht möglich war, scheint Perutz dort einen Abschluss in Versicherungsmathematik gemacht zu haben, jedenfalls fanden sich in seinem Nachlass Dokumente, die hierauf hindeuten. In Wien entwickelten sich Kontakte zu angehenden Schriftstellern, die wie Perutz im Verein „Freilicht“ erste literarische Versuche vortrugen. Zu seinen Bekannten aus dieser Zeit gehörten Richard A. Bermann (der später unter dem Pseudonym Arnold Höllriegel bekannt wurde), Berthold Viertel und Ernst Weiß. Ein einflussreiches literarisches Vorbild war Karl Kraus, dessen "Fackel-Hefte" Perutz regelmäßig las. Eine erste Prosaskizze erschien im Februar 1906 in der Zeitschrift "Der Weg", eine Novelle im März 1907 in der "Sonntags-Zeit". 1907–1915: Versicherungsmathematik und Café. Im Oktober 1907 fand Perutz eine Anstellung als Versicherungsmathematiker bei der Assicurazioni Generali (für diese Gesellschaft war auch Franz Kafka tätig) in Triest. Neben der Arbeit veröffentlichte er weiterhin Rezensionen und Erzählungen. Im Oktober 1908 ging er zurück nach Wien, wo er bis 1923 für die Versicherungsgesellschaft Anker tätig war. Als Versicherungsmathematiker berechnete er u. a. Mortalitätstabellen und darauf basierende Versicherungssätze. Zu diesem Thema veröffentlichte er auch in Fachzeitschriften. Die nach ihm benannte Perutzsche Ausgleichsformel wurde noch längere Zeit in der Branche verwendet. Sein Leben lang sollte sich Perutz für mathematische Probleme interessieren, was sich auch in der Konstruktion einiger seiner literarischen Werke niederschlug. In Wien besuchte Perutz die literarischen Cafés, anfangs das Café Museum, dann das Café Central. Zu seinem Bekanntenkreis gehörten unter anderem Peter Altenberg, Hermann Bahr, Oskar Kokoschka und Alfred Polgar. In der Zeit vor dem Ersten Weltkrieg nahm Perutz intensiv am literarischen und musikalischen Leben Wiens teil, trieb daneben auch viel Sport wie Skifahren und Schlittschuhlauf und machte mehrere Reisen, so nach Frankreich, Italien, Spanien, Nordafrika, in die Türkei, den Libanon, Palästina und Ägypten. Diesen für einen Angestellten vergleichsweise aufwändigen Lebensstil konnte er sich leisten, da er neben seinem Gehalt auch aus der väterlichen Firma Einnahmen bezog. 1915–1918: Erste Erfolge und Krieg. 1915 erschien Perutz’ erster Roman, "Die dritte Kugel", 1916 ein zweiter Roman, "Das Mangobaumwunder", den er zusammen mit Paul Frank geschrieben hatte. Beide Bücher waren recht erfolgreich, und "Die dritte Kugel" wurde unter anderem von Kurt Tucholsky positiv besprochen. Die Filmrechte am "Mangobaumwunder" konnten 1917 verkauft werden, die Verfilmung unter der Regie von Rudolf Biebrach wurde 1921 unter dem Titel "Das Abenteuer des Dr. Kircheisen" uraufgeführt. Perutz wurde 1914 von der Kriegsbegeisterung, die auch viele Schriftsteller erfasste, nicht mitgerissen. Anfangs wurde er wegen seiner Kurzsichtigkeit nicht eingezogen. Im August 1915 musste jedoch auch er den Kriegsdienst antreten. Eine viermonatige Ausbildung absolvierte er in der Nähe von Budapest, von wo aus er Ende März 1916 an die russische Front geschickt wurde. Am 4. Juli erlitt er in Galizien nahe Chochoniw (einem Dorf bei Rohatyn) einen Lungenschuss, der einen langen Aufenthalt im Lazarett zur Folge hatte. Daran anschließend wurde er zum Leutnant befördert und ab August 1917 im Kriegspressequartier eingesetzt, wo er die Bekanntschaft von Egon Erwin Kisch machte. Im März 1918 heiratete Perutz die 13 Jahre jüngere Ida Weil, die er bereits 1913 kennengelernt hatte und mit der er seit 1917 verlobt war. 1918–1928: Erfolg. In Wien verfolgte Perutz die revolutionären Ereignisse von 1918/1919 mit Interesse und besuchte politische Versammlungen, wobei er für die Sozialdemokraten Partei nahm. In dieser Zeit veröffentlichte er mehrere Artikel, in denen er die österreichische Militärjustiz scharf angriff. Zeitweise gehörte er dem Arbeiterrat in der Anker-Versicherung an. Die Zeit zwischen 1918 und 1928 war Perutz’ literarisch produktivste Periode. Er schrieb sechs bei Kritik und Publikum meist sehr erfolgreiche Romane; von mehreren konnte er auch die Filmrechte verkaufen. Daneben veröffentlichte er Erzählungen, Novellen und schrieb Drehbücher. Gelegentlich arbeitete er zudem als Bearbeiter einiger Werke Victor Hugos. 1923 gelang Perutz mit dem Roman "Der Meister des Jüngsten Tages" ein großer Erfolg bei Publikum und Kritik; das Werk sollte in den folgenden Jahren in viele Sprachen übersetzt und zu einer nicht unwichtigen Geldquelle für die Exiljahre werden. 1928 erschien sein Roman "Wohin rollst du, Äpfelchen..." in Fortsetzungen in der "Berliner Illustrirten Zeitung" und machte Perutz einem Millionenpublikum bekannt. Perutz’ Bekanntenkreis erweiterte sich durch diese Erfolge erheblich. Zu den Schriftstellern, mit denen er verkehrte oder Briefkontakt hatte, gehörten in dieser Zeit Bertolt Brecht, Bruno Brehm, Egon Dietrichstein, Theodor Kramer, Anton Kuh, Robert Musil, Friedrich Reck-Malleczewen, Alexander Roda Roda, Walther Rode, Josef Weinheber und Franz Werfel. Sein Stammcafé war das Café Herrenhof. Im hinteren Raum hatte er dort einen eigenen Tisch, an dem er Karten spielte und wo er im übrigen für seine oft bösartigen, manchmal auch gewalttätigen Auftritte bekannt war. So kam es dort auch zum Eklat gegenüber dem ebenso zu bösartigen Auftritten neigenden Otto Soyka (vgl. dazu Friedrich Torbergs "Tante Jolesch"). Perutz’ Ehe war glücklich. Ida und Leo Perutz wohnten ab 1922 in einer Vierzimmerwohnung im Bezirk Alsergrund in der Porzellangasse 37, nahe dem Liechtensteinpark. 1920 wurde die Tochter Michaela geboren, 1922 eine zweite Tochter, Leonore. Kurz nach der Geburt des Sohnes Felix starb 1928 Perutz’ Frau Ida, was ihn in eine tiefe Krise stürzte. 1928–1933: Krise und Rückzug. Nach dem Tod seiner Frau zog sich Perutz für längere Zeit aus dem öffentlichen Leben zurück. Er besuchte Okkultisten, mit deren Hilfe er versuchte, mit seiner toten Frau Kontakt aufzunehmen – wobei er solchen Methoden gleichzeitig weiterhin skeptisch gegenüberstand. Die Wirtschaftskrise ab Ende der 1920er Jahre schmälerte auch Perutz’ Einkünfte, da zum einen die Einnahmen aus Buchverkäufen zurückgingen und zum anderen auch die von seinen Brüdern geführte Firma nicht mehr die früheren Profite abwarf. Politisch wandte sich Perutz in den 1930er Jahren dem Legitimismus zu. Literarisch versuchte er in dieser Zeit durch die Zusammenarbeit mit Autoren wie Alexander Lernet-Holenia Geld zu verdienen. Dazu kamen Theaterstücke, die er mit mehr oder weniger Erfolg meist gemeinsam mit Ko-Autoren schrieb. 1933 erschien in Deutschland noch Perutz’ Roman "St. Petri-Schnee", der jedoch nach der Machtübernahme der Nationalsozialisten dort kaum noch vertrieben werden konnte. Zwar stand Perutz selbst nicht auf der Liste der verbotenen Autoren, sein Verlag Zsolnay jedoch galt als jüdisch und konnte seine Bücher nicht mehr nach Deutschland ausliefern. Für Perutz verschwand somit sein wichtigster Markt. 1934–1945: Exil und Stillstand. 1934 lernte Perutz Grete Humburger kennen, die er 1935 heiratete. Nach dem Anschluss Österreichs floh Perutz 1938 mit seiner Familie erst nach Venedig, ging von dort nach Haifa und ließ sich schließlich in Tel Aviv nieder. Perutz hätte das Exil in einem europäischen Land oder auch in den USA vorgezogen. Jedoch waren die Einwanderungsbedingungen dorthin nur schwer zu erfüllen, wozu noch kam, dass sein Bruder Hans, ein überzeugter Zionist, von dem er wirtschaftlich stark abhing, seine Firma bereits nach Tel Aviv verlagert hatte und darauf drängte, dass Perutz ihm dorthin folgte. In Palästina tat sich Perutz zunächst sehr schwer. Nicht nur vermisste er das kulturelle Leben, er hatte auch für den Zionismus wenig Sympathien. Dennoch lebte er sich nach kurzer Zeit gut ein, wozu sicher auch beitrug, dass er kaum wirtschaftliche Sorgen zu leiden hatte. Das moderne, chaotische und heiße Tel Aviv sagte ihm wenig zu, so dass die Familie in der Folge vor allem die Sommermonate im kühleren Jerusalem verbrachte, dessen Altstadt mit ihren engen Gassen Perutz sehr schätzte. An Veröffentlichungen war in Palästina für Perutz nicht zu denken. Mit Exil-Zeitschriften und den Verbänden der Exilanten hatte er keinen Kontakt. Auch mit den wenigen deutschsprachigen Autoren, die nach Palästina ausgewandert waren – beispielsweise Max Brod, Felix Weltsch und Arnold Zweig – blieben die Berührungspunkte gering. Ab 1941 erschienen, durch Vermittlung von nach Argentinien ausgewanderten Bekannten und unterstützt durch Jorge Luis Borges, einige Bücher von Perutz auf Spanisch. Er schrieb in dieser Zeit nur wenig, obwohl er für einige ältere Projekte weiterhin Recherchen betrieb. 1945–1957: Zwischen zwei Staaten. Perutz hatte 1940 die Staatsbürgerschaft Palästinas angenommen. Bald nach 1945 dachte er an die Rückkehr nach Europa, was in den Wirren der Nachkriegszeit jedoch nicht möglich war. Dazu kam, dass sich Perutz in seinem fortgeschrittenen Alter nicht sicher war, ob er diesen abermaligen Ortswechsel würde bewältigen können. Nach der Gründung des Staates Israel fühlte er sich dort zunehmend unwohl. Er lehnte jeden Nationalismus ab, und die Vertreibung der Araber durch die Juden war ihm nicht nur zuwider, sondern sie zerstörte für ihn auch die geschätzte orientalische Atmosphäre des Landes. Hinzu kamen die Postzensur und Schwierigkeiten mit Ausreisegenehmigungen. 1950 gelang es Perutz und seiner Frau dennoch erstmals nach Österreich und auch nach England zu reisen. 1952 nahm Perutz wieder die österreichische Staatsbürgerschaft an. In den folgenden Jahren verbrachte er die Sommermonate stets in Wien und im Salzkammergut. Der literarische Neuanfang gestaltete sich schwierig. Zwar hatte Perutz wieder damit angefangen zu schreiben, konnte jedoch anfangs keinen Verleger finden. Besonders problematisch war, dass ein nach wie vor vorhandener Antisemitismus dazu führte, dass Verleger entweder allzu „jüdische“ Passagen aus seinen Werken kürzten oder, aus Rücksicht auf den Markt, diese nicht veröffentlichen wollten. Als 1953 endlich Perutz’ Roman "Nachts unter der steinernen Brücke" erschien, gab es zwar viele positive Rezensionen, jedoch ging der Verlag kurz darauf in Konkurs und das Buch konnte nicht vertrieben werden. Ein zweiter neuer Roman, "Der Judas des Leonardo", erschien erst kurz nach seinem Tod. 1957 brach Perutz während eines Besuches im Haus seines Freundes Lernet-Holenia in Bad Ischl zusammen und starb kurz darauf im dortigen Krankenhaus. Er wurde auf dem Friedhof von Bad Ischl beigesetzt. Zum Werk. Jorge Luis Borges schätzte Perutz und unterstützte die Herausgabe spanischer Übersetzungen in Argentinien. In Frankreich wurde sein Roman "Der Marques de Bolibar" 1962 mit dem Prix Nocturne ausgezeichnet. Perutz’ Romane folgen oft dem Schicksal von Einzelnen (z. B. "Der schwedische Reiter" oder "Der Judas des Leonardo"). Häufig enthalten sie ein Element des Phantastischen (z. B. "Nachts unter der steinernen Brücke") und sind meist in der Vergangenheit angesiedelt oder verweisen auf die Vergangenheit (z. B. "St. Petri Schnee"). Die Handlung ist spannend erzählt und wird durch zahlreiche Anspielungen, Ironie und verwirrende, sich widersprechende Interpretationen der Ereignisse spielerisch vorangetrieben. Ein zentrales Motiv ist die Frage „Was ist real?“, wobei sich konkurrierende Versionen, häufig die eines Ich-Erzählers und die der Umwelt, gegenüberstehen, ohne dass sich entscheiden ließe, welche Version den „tatsächlichen“ Ereignissen entspricht. Friedrich Torberg war der Auffassung, „daß er zu den Meistern des phantastischen Romans gehört“. In den letzten Jahren wurde Perutz’ Werk vom lesenden Publikum wiederentdeckt und erscheint in zahlreichen Neuauflagen. Unter den neueren Autoren zählt besonders Daniel Kehlmann zu seinen Bewunderern: „Perutz ist der große magische Realist der deutschen Literatur. Er ist jemand, der im Grunde das macht, was Gabriel García Márquez und Jorge Luis Borges auch für sich entdeckt haben: nämlich, das Wunderbare, das Unbegreifliche und Magische mit – wie Marquez es nennt – unbewegtem Gesicht zu erzählen.“ Lagerbier. Als Lager werden im deutschsprachigen Raum verschiedene Biersorten bezeichnet. In der englischsprachigen Bierwelt ist "Lager" die Bezeichnung für alle untergärigen Biersorten. Begriff. Bis zum 19. Jahrhundert wurden alle untergärigen Vollbiere und Schankbiere so bezeichnet, wenn die Lagerung mit 11 % bis 14 % Stammwürze entsprechend einem Alkoholgehalt von 4,6 bis 5,6 Vol.-% erleichtert war (siehe Anton Dreher senior). In Deutschland werden heute Biere so bezeichnet, die den Stammwürzegehalt eines Vollbieres aufweisen, aber im Gegensatz zum Pilsner Bier in der Regel nur schwach gehopft sind. Das Verbreitungsgebiet liegt vor allem in den süddeutschen Regionen Baden-Württemberg und Bayern sowie in Österreich und der Schweiz. Der Begriff „Lager“ findet seine Verwendung im ursprünglichen Sinn noch im englischen Sprachraum. Eigenschaften. Die Herstellung von untergärigem Bier erfordert niedrige Temperaturen, weshalb das Brauen vor der Erfindung der Kältemaschine auf die kühlen Wintermonate beschränkt war. Wegen der guten Lagerungseigenschaften konnte es in Eiskellern bis zum folgenden Herbst gelagert werden. Auf diese Eigenschaft bezieht sich der Name "Lager". Andere Bezeichnungen leiten sich von der hellgelben Färbung ab, die durch das Blankfiltern glanzfein herausgehoben wird. Bezeichnungen wie "Bayrisch Hell", "Helles" oder "Helles Exportbier" beziehen sich darauf. "Export" bezieht sich auf die Bestimmung für den Fernhandel, für den ebenfalls eine längere Haltbarkeit nötig war. Bierlagerung. Bier, das die Brauerei verlässt, hat den optimalen Qualitätszustand. Auch in „Flaschen abgefülltes Lagerbier“ sollte innerhalb eines halben Jahres getrunken werden, zumal das Bier umso frischer schmeckt, je jünger es abgefüllt ist. So erklärt sich der Unterschied im Geschmack zwischen dem frisch gezapften vom Fass und dem Heimbier aus der Flasche. Zum Lagern von Bier für einige Tage sollte man kühle, dunkle Räume wählen. Licht führt zu unerwünschten chemischen Reaktionen im Bier, die einen leicht „muffigen“ Geruch verursachen. Idealerweise sollte in dem lichtgeschützten Raum eine konstante Temperatur von 6 bis 8 °C herrschen. Kälte oder Hitze führen zu Qualitätsverlusten, niedrige Temperaturen können Kältetrübung und zu hohe Temperaturen zu Oxidationsvorgängen der Aromastoffe führen. Madonna (Künstlerin). Madonna (* 16. August 1958 in Bay City, Michigan als "Madonna Louise Ciccone", seit ihrer Firmung 1967 "Madonna Louise Veronica Ciccone") ist eine US-amerikanische Sängerin, Songschreiberin, Schauspielerin, Autorin, Regisseurin, Produzentin und Designerin. Madonna wurde mit Hits wie "Like a Virgin" (1984), "Like a Prayer" (1989), "Vogue" (1990), "Frozen" (1998), "Music" (2000), "Hung Up" (2005) und "4 Minutes" (2008) zu einer Pop-Ikone. Sie verkaufte über 300 Millionen Tonträger weltweit, damit ist sie die kommerziell erfolgreichste Sängerin der Welt und auf Platz 4 der erfolgreichsten Interpreten aller Zeiten. Das "Guinness-Buch der Rekorde" kürte sie 2010 zur "Sängerin mit den meisten verkauften Musikalben". Neben zehn Grammys (unter anderem 1998 für "Ray of Light") erhielt sie auch zwei Golden Globes (1997 für ihre Darstellung in der Musicalverfilmung "Evita" und 2012 für ihren Filmsong "Masterpiece" aus dem Film W.E., bei welchem sie auch Regie führte). Außerdem schrieb Madonna einige Kinderbücher ("Die englischen Rosen", 2003) und wurde 2008 in die Rock and Roll Hall of Fame aufgenommen. Familie und Privatleben. Madonna Louise Ciccone wurde am 16. August 1958 in Bay City (US-Bundesstaat Michigan) geboren. Ihr Vater, Sohn italienischer Einwanderer, war der Automechaniker Silvio Anthony Ciccone. Benannt wurde sie nach ihrer Mutter, der Frankokanadierin Madonna Louise Ciccone, geborene Fortin. Ihr Spitzname innerhalb der Familie war deshalb "Little Nonni". Ihre Eltern bekamen nach der Heirat am 1. Juli 1955 insgesamt sechs Kinder: Anthony, Martin, Madonna, Paula, Christopher und Melanie. Ihre Mutter starb 1963 im Alter von 30 Jahren an Brustkrebs, vermutlich ausgelöst durch ihre Arbeit als Röntgenassistentin; Madonna war gerade fünf Jahre alt. 1966 heiratete ihr Vater Silvio dann die Haushälterin der Familie, Joan Gustafson, mit der er zwei weitere Kinder hat: Madonnas Halbgeschwister Jennifer und Mario. 1967 nahm sie anlässlich ihrer Firmung den Namen "Veronica" – nach der Heiligen Veronika – als dritten Vornamen an. Sie war von 1985 bis 1989 mit dem amerikanischen Schauspieler Sean Penn verheiratet. Die Ehe blieb kinderlos. Am 14. Oktober 1996 wurde ihre Tochter Lourdes Maria Ciccone Leon geboren; sie stammt aus der Beziehung Madonnas mit ihrem kubanischen Fitness-Trainer Carlos Leon. Von 2000 bis 2008 war sie mit dem britischen Regisseur Guy Ritchie verheiratet. Aus dieser Ehe stammt ihr zweites leibliches Kind Rocco John Ciccone Ritchie, der am 11. August 2000 zur Welt kam. Seit Oktober 2006 bemühte sie sich um die Adoption des 15 Monate alten David Banda Mwale aus Malawi, diese wurde im Mai 2008 rechtskräftig. Im Juni 2009 adoptierte sie das ebenfalls aus Malawi stammende vierjährige Halbwaisenmädchen Mercy James. 1958–1983. Nach Madonnas Geburt in Bay City lebte die Familie zunächst in Pontiac (Michigan), wo Madonna ihre frühesten Kindheitsjahre verbrachte und siedelte schließlich Ende der 1960er Jahre in die Kleinstadt Rochester (Michigan) um. Madonna wurde in katholischen Schulen und zeitweise in einer Klosterschule erzogen. Selbstbestätigung fand Madonna in der Schule, der Rochester Adams High School in Oakland County, Metro Detroit, vor allem bei Theateraufführungen und im Cheerleading. Madonna war eine sehr gute Schülerin. An der High School gehörte sie zu den besten zwei Prozent mit einem IQ von 140. Nebenbei nahm sie Klavierstunden und Tanzunterricht und beschloss, nach der Schule Tänzerin zu werden. Madonnas Tanzlehrer Christopher Flynn erkannte Madonnas Talente und förderte sie. Gemeinsam besuchten sie neben Museen und Theatern auch die Schwulendiscos in Detroit, wo sie Stephen Bray kennenlernte – mit ihm produzierte sie später einige ihrer größten Hits. Diese Zeit prägte auch ihren musikalischen Stil, der sich an rockigem New Wave orientierte, bevor er später in Dance und Disco mündete. Flynn bestärkte sie, nach New York zu gehen und dort Karriere zu machen. Nach der High School begann Madonna eine Tanzausbildung an der University of Michigan, brach sie jedoch ab. Stattdessen zog sie mit 30 US-Dollar im Gepäck nach New York City. Die erste Zeit hielt sie sich mit Gelegenheitsjobs über Wasser: Sie arbeitete als Kellnerin, verkaufte Donuts und machte Nacktaufnahmen (die wenige Jahre später in Millionenauflage in den Magazinen Playboy und Penthouse erschienen). Nebenbei lernte sie Schlagzeug und Gitarre spielen und schrieb ihre ersten Lieder mit Dan Gilroy und Stephen Bray. Nach Engagements als Tänzerin bei der "Alvin Ailey Dance Troupe" und "Pearl Lang’s Dance Company" experimentierte Madonna als Sängerin und Schlagzeugerin in Punk- und Popbands ("Breakfast Club", "Emmy"). Kurzzeitig hatte sie einen ersten Plattenvertrag bei Gotham Productions, doch nach einigen Demoaufnahmen und Jobs als Backgroundsängerin (unter anderem für Otto von Wernherr) trennte man sich wieder. Der damalige Disco-Sänger Patrick Hernandez "(Born to Be Alive)" protegierte Madonna 1979 und nahm sie mit nach Paris, um sie als Star herauszubringen. Sie begleitete ihn jedoch nur als Tänzerin zu seinen Shows und ging nach vier Monaten wieder zurück nach New York. Dort erlangte sie in den Diskotheken Bekanntheit, als sie zu den Demos ihrer ersten Lieder tanzte – und nebenbei Kontakte zu Discjockeys knüpfte, die Verbindungen zur Plattenindustrie hatten. Einer dieser Discjockeys war Mark Kamins, der später Madonnas erste Single "Everybody" produzierte. Kamins stellte Madonna dem Geschäftsführer von Sire Records, Seymour Stein, vor. Der war begeistert von Madonnas Demobändern (unter anderem "Everybody", "Ain’t No Big Deal", "Burning Up"), und so bekam sie 1982 einen weiteren Plattenvertrag. Die Single "Everybody" wurde ein Achtungserfolg in den Clubs und verkaufte sich 250.000-mal. Im Juli 1983 erschien Madonnas Debütalbum "Madonna", das ihr damaliger Freund und DJ Jellybean Benitez mitproduzierte. Mit der dritten Single "Holiday" schaffte sie den Durchbruch in die Top Ten der internationalen Charts. Neben zahlreichen Fernsehauftritten in den Vereinigten Staaten, Europa und Japan drehte Madonna den Film "Vision Quest" (int. "Crazy for You") unter der Regie von Harold Becker. Sie hatte nur zwei kurze Auftritte als Nachtclubsängerin, doch ein Jahr später wurde der Film zu einem Hit – vor allem durch Madonnas Singles "Crazy for You" und "Gambler". 1984–1989. Nachdem sich das erste Album millionenfach verkauft hatte, suchte sich Madonna einen neuen Produzenten: Nile Rodgers, der schon Michael Jackson, Duran Duran und David Bowie produziert hatte. Madonnas Musik wurde nun rockiger, behielt aber ihre eingängigen Melodien. Aus dieser Zusammenarbeit entstand das Album "Like a Virgin". Den Titelsong "Like a Virgin" präsentierte Madonna in einem Hochzeitskleid bei der ersten Verleihung der MTV Video Music Awards im September 1984. Amerikanische Elternverbände und konservative Medienwächter zeigten sich schockiert – das junge Publikum war begeistert. Von nun an wurden alle Trends von Madonnas Fans kopiert. Kruzifixe, bauchfreie Tops und Lederarmbänder waren der Anfang. Madonna begann, zu jedem Album einen neuen „Look“ zu entwickeln – den sie sich häufig von den klassischen Hollywood-Stars entlieh. Mit dem folgenden Video zu "Material Girl" kopierte sie ihr Vorbild Marilyn Monroe. Beim Videodreh in Los Angeles lernte Madonna am Set den amerikanischen Schauspieler Sean Penn kennen und lieben. Im Frühjahr 1985 war Madonna erstmals auf ausverkaufter "Virgin Tour" durch die Vereinigten Staaten und Kanada. Das Album "Like A Virgin" verkaufte sich bis heute rund 20 Millionen Mal und gehört zu den 100 meistverkauften Alben aller Zeiten. Ihre Singles führten die Charts rund um die Welt an, und ihr erster von Susan Seidelman gedrehter Kinofilm "Susan … verzweifelt gesucht" – mit der erfolgreichen Single Into the Groove – wurde ein Hit bei Kritikern und beim Publikum. Ebenso konnte sie ihre Popularität durch einen Auftritt beim "Live-Aid"-Konzert mehren. Kurz zuvor waren ihre alten Aktbildaufnahmen aus ihrer New Yorker Zeit vor ihrem Durchbruch in einschlägigen Herrenmagazinen erschienen. Am 16. August 1985, ihrem 27. Geburtstag, heiratete Madonna in Los Angeles Sean Penn. Vom „Rausch des Verliebtseins“ kündete das 1986 erschienene Album "True Blue" – gewidmet ihrem Mann, dem „coolsten Mann des Universums“. Das Album, auf dem Madonna alle Titel mit schrieb, wurde erneut ein Riesenerfolg. "True Blue" wurde Nummer eins in 28 Ländern und konnte über 25 Millionen Mal verkauft werden. Die Lieder "Live to Tell", "Papa Don’t Preach" und "Open Your Heart" kletterten auf Platz eins der Billboard Single Charts, "La Isla Bonita" wurde ihre erste Nummer eins im deutschsprachigen Raum. Das Coverfoto von Herb Ritts machte sie zu einer Ikone der 1980er Jahre. Madonna ließ sich in Kleidung von Lagerfeld, Lacroix oder Chanel fotografieren und etablierte sich als Sexsymbol. Im Juni 1987 startete Madonna die "Who’s That Girl World Tour". Mit dieser Welttournee wurde sie die erfolgreichste Popsängerin der 1980er Jahre. Die Tour begann in Japan, führte durch die Vereinigten Staaten und Kanada und ab August 1987 durch Europa. Ihr erster Auftritt in Deutschland war am 22. August 1987 im Frankfurter Waldstadion vor 60.000 Zuschauern. Das Wembley-Stadion in London war dreimal nacheinander ausverkauft, und auch in Frankreich war die Begeisterung groß. Bei ihrem Pariser Konzert am 29. August waren 120.000 Fans zugegen. Die Show in Turin wurde am 4. September 1987 live per Satellit im Fernsehen übertragen. Madonnas Alben und Singles verkauften sich in aller Welt millionenfach, aber ihre Film-Karriere kam nicht in Gang: Die Filme "Shanghai Surprise" (1986) und "Who’s That Girl" (1987) waren Flops. Die Ehe mit Sean Penn geriet in eine Krise. Im November 1987 veröffentlichte Madonna ein Remix-Album mit dem Titel "You Can Dance". Damit verabschiedete sie sich eine Weile vom Musikgeschäft. 1988 drehte sie einen weiteren Film, "Bloodhounds Of Broadway", und war von Mai bis September am Broadway in dem ausverkauften Theaterstück "Speed the Plow" zu sehen. Danach bereitete sie ihr neues Album "Like a Prayer" vor. Das Album verarbeitete ihre gescheiterte Ehe, das komplizierte Verhältnis zu ihrer Familie – und nicht zuletzt ihr gespaltenes Verhältnis zur katholischen Kirche. Das Titellied wurde 2004 von den amerikanischen und deutschen Redaktionen der Musikzeitschrift "Rolling Stone" zu einem der 500 besten Lieder aller Zeiten gewählt. 1989 wurde ihre Ehe mit Sean Penn geschieden. Musikalisch aber war Madonna weiterhin erfolgreich. Das Musikvideo zu "Like a Prayer" wurde im März 1989 veröffentlicht. Darin thematisiert Madonna unter anderem Rassismus – in dem Video wird ein Schwarzer unschuldig eines Gewaltverbrechens bezichtigt; sie tanzt vor brennenden Kreuzen – Symbolen des Ku-Klux-Klans – und küsst eine zum Leben erwachte Statue von Martin von Porres, welche viele für einen „schwarzen Jesus“ hielten. Der Getränkekonzern Pepsi stoppte daraufhin eine Werbekampagne mit ihr, und auch der Vatikan zeigte sich entrüstet. Ein weiteres Video sorgte für weltweites Aufsehen. In "Express Yourself" ließ sich Madonna von Fritz Langs Film Metropolis inspirieren, zeigte sich in Strapsen und tanzend im Männeranzug und lag nackt mit schweren Eisenketten im Bett. Die Single-Auskopplung "Cherish" etablierte sich erneut in den US Top fünf, womit Madonna 16 US-Top-fünf-Singles in ununterbrochener Reihenfolge hatte, was vorher nur den Beatles gelungen war. MTV nannte Madonna „Artist of the Decade“. 1990–1996. Die neue Welttournee "Blond Ambition World Tour" startete am 13. April 1990 in Tokyo, Japan. Danach kamen zahlreiche Konzerte in den Vereinigten Staaten und Kanada, und im Sommer stand schließlich Europa auf dem Tourplan. Auf der Bühne trug sie Kreationen des Pariser Mode-Designers Jean Paul Gaultier. Kaum eine Performance prägte Madonnas Image mehr als ihre Darbietung von "Like a Virgin". Sie trug ein goldenes Korsett mit kegelförmigem BH, dabei simulierte sie eine Masturbation. In Kanada drohte Madonna sogar eine Haftstrafe, und in Italien rief der Vatikan zum Boykott von Madonnas Konzert in Rom auf. Am 5. August 1990 ging Madonnas kontroverse "Blond Ambition" Tour in Nizza zu Ende. Dieses Konzert wurde exklusiv in den Vereinigten Staaten im Fernsehen von HBO übertragen und erzielte eine hohe Einschaltquote. Madonnas Affäre mit Warren Beatty währte 1990 so lange, bis der gemeinsame Film "Dick Tracy" ein Erfolg wurde. In diesem Kino-Abenteuer ist sie als Protagonistin "Breathless Mahoney" zu sehen. Madonna steuerte mit dem Album "I’m Breathless" auch den Soundtrack des Films bei. "Vogue", eigentlich als B-Seite der letzten "Like A Prayer"-Auskopplung "Keep It Together" gedacht, wurde kurzfristig als eigenständige Single herausgebracht und damit zu einem ihrer größten Hits; das Video des Regisseurs David Fincher machte aus Madonna eine Ikone der Schwulen. Kurz darauf gab sie eine Erklärung über schwule Freunde und Familienmitglieder ab – und brachte sich medienwirksam als potenzielle Bisexuelle ins Gespräch, als sie mit Sandra Bernhard und Rosie O’Donnell Küsse austauschte. Madonnas erstes Greatest-Hits-Album "The Immaculate Collection" wurde bis heute über 30 Millionen Mal verkauft und damit zum meistverkauften „Best of“ einer Sängerin. Es präsentierte auch den nächsten Skandal: Das sexuell freizügige Video zu "Justify My Love", das mit ihrem damaligen Liebhaber, dem Model Tony Ward aufgenommen wurde. Von vielen Fernsehsendern wurde es verboten oder ins Nachtprogramm verbannt. Diesen Video-Skandal nutzte Madonna geschickt und brachte "Justify My Love" als Video-Single auf den Markt. Am Abend der Oscar-Verleihung am 25. März 1991 wurde sie von Michael Jackson begleitet und präsentierte live das Lied "Sooner or Later" aus dem Film "Dick Tracy". Der Song gewann schließlich den Oscar in der Kategorie "Best Original Song". Im Mai 1991 veröffentlichte Madonna den Dokumentarfilm "Truth or Dare", eine Dokumentation der "Blond Ambition"-Tour im Jahr 1990. Um Werbung für ihren Film zu machen, kam Madonna am 12. Mai 1991 zum Film-Festival von Cannes in Südfrankreich und produzierte ihren nächsten Skandal: Auf dem Roten Teppich öffnete sie ihren Seidenkimono und entblößte sich in Dessous. In Europa kam der Film mit dem Titel "In Bed with Madonna" in die Kinos. Ebenso wirkte Madonna in den Filmen wie "Eine Klasse für sich" (1992) und "Schatten und Nebel" (1992) mit. Beide hatten durchaus positive Kritiken und waren auch an der Kinokasse ein Erfolg. Während ihres Imagewandels zum Erotikstar arbeitete Madonna gleichzeitig an ihrer Unabhängigkeit. Sie gründete ihre eigene Produktionsfirma "Maverick", um uneingeschränkte Freiheit über ihr Schaffen zu bekommen und auch, um Nachwuchstalente zu fördern. "Maverick" brachte unter anderem Alben von Alanis Morissette, Meshell Ndegeocello, Candlebox und The Prodigy heraus. Es folgten Madonnas provokanteste Jahre 1992/93. Das Album "Erotica" ist ein Konzeptalbum zum Themenbereich Sexualität mit starker BDSM- und Fetisch-Symbolik. Jedes der enthaltenen Lieder reflektiert eine andere Facette menschlicher Sexualität, zumeist unter Bezugnahme auf sexuelle Beziehungen. In seinen Texten stellt das Album den in der Popkultur weit verbreiteten inhaltlichen Bezug zwischen sexuell motivierten Kontakten und romantischen Gefühlen oder Liebe nicht her. Als typisches Danceflooralbum ist es sehr stark durch die Hip-Hop-lastigen Beats und souligen Melodien geprägt, die damals für die beiden Koproduzenten Shep Pettibone und André Betts typisch waren. Es war das erste Album der Künstlerin, das auf dem US-Markt mit einem Jugendschutzhinweis versehen werden musste. Eine zensierte Zweitausgabe enthielt das Lied "Did You Do It?" nicht. Das Album erreichte Platz zwei der US-Charts und zog sechs Singleauskopplungen nach sich, von denen das Titellied "Erotica" die erfolgreichste wurde. Das Lied war zugleich der Titel mit dem zweithöchsten Einstiegsplatz in der Geschichte der "U.S. Hot 100 Airplay Charts". Das zum Lied gehörende Musikvideo wurde in den Vereinigten Staaten von MTV aufgrund seiner sexuellen Ausrichtung nur dreimal in unzensierter Originalfassung ausgestrahlt. Zum Werbefeldzug von "Erotica" gehörte auch der erotische Bildband "SEX", den Madonna am 21. Oktober 1992 veröffentlichte und damit für weltweite Schlagzeilen und Kontroversen sorgte. Niemals zuvor hatte sich ein international bekannter Pop-Künstler derartig in Szene gesetzt und sich einem Millionenpublikum nackt in sexuellen Posen präsentiert. "SEX" kam in einer Auflage von 1,5 Millionen Exemplaren heraus, die innerhalb einer Woche ausverkauft war. Der Erotik-Thriller "Body of Evidence" versuchte 1993 vergeblich, den Erfolg des Kassenschlagers "Basic Instinct" zu wiederholen. Madonna „gewann“ mit diesem Kinofilm eine weitere Goldene Himbeere als schlechteste Schauspielerin. Im Frühjahr 1993 drohte ihre filmische und musikalische Karriere wegen der erotischen Offensive zu stagnieren. Der unter der Regie von Abel Ferrara gedrehte Film "Dangerous Game" floppte erneut an den Kinokassen und die Single "Bad Girl" erreichte erstmals seit 1983 nicht mehr die amerikanischen Top 20 der Billboard-Charts. Madonna live bei der The Girlie Show World Tour, 1993. Ein großer Erfolg allerdings wurde die ausverkaufte 1993er Welttournee "The Girlie Show". Am 25. September 1993 eröffnete Madonna ihre neue Welttournee im Londoner Wembley-Stadion vor 72.000 Fans. Das Bühnenprogramm, inspiriert unter anderem vom Musical Hair und der deutschen Filmdiva Marlene Dietrich, verursachte erneut Proteste konservativer Organisationen und Politiker – dieses Mal wegen einer angedeuteten Gruppensex-Szene. Madonna trat in ihr als peitschenschwingende "Domina" umgeben von Oben-Ohne-Tänzerinnen auf. In Puerto Rico verursachte Madonna einen Skandal, als sie die Flagge der Insel zwischen ihren Beinen rieb; orthodoxe Juden protestierten gegen ihren ersten Auftritt in Israel. Höhepunkt der Tour waren die ausverkauften Open Air-Konzerte in Australien, wo sie ebenfalls erstmals live zu sehen war. Festgehalten wurde dieser große Erfolg auf der DVD "Madonna The Girlie Show – Live Down Under". Im März 1994 sorgte sie erneut für einen Skandal bei ihrem Talkshow-Auftritt bei David Letterman. Madonnas als unangemessen empfundene Ausdrucksweise und ihr eigenartiges Verhalten sorgten für Entrüstung in den US-Medien. Madonna hatte in dem Film "Blue in the Face – Alles blauer Dunst" von Wayne Wang einen kurzen Auftritt als singendes Telegramm. Mit ihrem nächsten Album "Bedtime Stories" (1994) konnte sich Madonna wieder besser präsentieren, unter anderem als erstklassige Balladen-Sängerin. Das stilistisch vielfältige Album, an dessen Produktion unter anderem Babyface, Nellee Hooper, Dallas Austin und Björk beteiligt waren, wurde von den meisten Kritikern recht wohlwollend aufgenommen, und auch die Verkaufszahlen zogen langsam wieder an. Die zweite Singleauskopplung, "Take a Bow", erreichte Platz eins der Billboard-Charts und wurde in den Vereinigten Staaten zu einer ihrer erfolgreichsten Singles überhaupt. Im Jahr 1995 arbeitete die nun 37-jährige Madonna als Model für Gianni Versace. Der Mailänder Modeschöpfer gestaltete mit ihr seine Mode-Kollektionen. Um ihr Publikum auf ihren nächsten wichtigen Karriereschritt vorzubereiten, brachte Madonna im Herbst 1995 ihre schönsten Balladen auf dem Album "Something to Remember" heraus; ebenso wirkte sie in dem Episodenfilm "Four Rooms" und in Spike Lees Film "Girl 6" mit. 1996 wurden Madonnas jahrelange Bemühungen um die Rolle der Evita Perón im Andrew Lloyd Webber-Musical "Evita" belohnt. Alan Parker verpflichtete sie für die Hauptrolle. Madonna begeisterte die Argentinier, als sie auf dem Balkon des Präsidentenpalastes in Buenos Aires "Don’t Cry for Me Argentina" vor Hunderten von Komparsen sang. "Evita" wurde zum erfolgreichsten Musical-Film der 1990er Jahre. Das dazugehörige Album "Evita" verkaufte sich sehr gut, und Madonna machte wieder mehr musikalisch als durch Skandale auf sich aufmerksam. „Gekrönt“ wurde dieses Comeback ein Jahr später, als sie 1997 den Golden Globe als beste Schauspielerin erhielt. Für den Academy Award (Oscar) wurde sie allerdings nicht nominiert. Trotzdem präsentierte sie dort das Lied "You Must Love Me", das den Preis für die Komponisten/Texter Andrew Lloyd Webber und Tim Rice gewann. Am 14. Oktober 1996 wurde Madonna Mutter, als sie ihre Tochter Lourdes Maria in Los Angeles zur Welt brachte. Vater des Kindes ist Madonnas damaliger Fitness-Trainer Carlos Leon. Ein Jahrzehnt, das für Madonna kontrovers begann, wurde nun durch ihr erstes Kind, ihre erste Musical-Rolle und einen Golden Globe als beste Schauspielerin belohnt. Auch musikalisch brach die 39-jährige Madonna zu neuen Ufern auf. 1997–2004. Nach der Geburt ihrer Tochter begann Madonna mit der Arbeit am neuen Album "Ray of Light". Um einen neuen Sound zu entwerfen, engagierte Madonna den britischen Produzenten William Orbit. Mit dem im März 1998 veröffentlichten Album konnte Madonna an ihre erfolgreichsten Zeiten anknüpfen: sie erhielt im Februar 1999 vier Grammys – unter anderem für das beste Pop-Album und das beste Dance-Album – nachdem sie bei den Grammy-Nominierungen jahrelang ignoriert worden war. Textlich stellte Madonna die Themen Mutterschaft ("Little Star") und ihre Zuneigung zu fernöstlichen Religionen in den Mittelpunkt ("Frozen", "Shanti/Ashtangi", "Sky Fits Heaven"). Vom Album "Ray of Light" wurden bis heute 17 Millionen Tonträger verkauft und fünf Singles veröffentlicht. Die dazugehörigen Videos setzten neue Akzente im Videoclip-Genre. "Ray of Light" wurde zu Madonnas erfolgreichstem Studioalbum der 1990er Jahre. Im September 1998 lernte Madonna bei einem Abendessen bei ihrem Musiker-Freund Sting in London den britischen Regisseur Guy Ritchie kennen und lieben. In Interviews sprach Madonna zu dieser Zeit häufig über ihr Mutterglück, gab pädagogische Erziehungsratschläge und war in vielen Fernseh-Shows zu Gast. Außerdem machte sie kein Geheimnis daraus, dass sie eine begeisterte Studentin der jüdischen Kabbala ist. Die Kosmetikfirma Max Factor (Ellen Betrix) gestaltete mit Madonna 1999 ihre weltweite Werbekampagne. Kommerziell nicht erfolgreich hingegen war der Film "Ein Freund zum Verlieben". Mit diesem Film allerdings steht ein weiterer weltweiter Hit Madonnas in Verbindung, nämlich die Coverversion von Don McLeans Klassiker "American Pie". Mit diesem Song erreichte sie erstmals wieder den ersten Platz der deutschen Hitparade nach "La Isla Bonita" im Jahr 1987. Das elektronische Folgealbum "Music" aus dem Jahr 2000 überzeugte mit innovativer Produktion und Undergroundsounds des französischen DJs Mirwais. Im Mittelpunkt dieser Produktion stand erstmals Madonnas gereiftere Stimme, die minimalistisch, vor allem mit Gitarre und elektronischen Beats unterlegt wurde. Album und Singles wurden zu einem großen Erfolg: Die Singles wie Videos, zum Beispiel "Music" und "Don’t Tell Me", lösten den nächsten Mode-Trend aus: Cowboyhut, Hüfthosen und Boots. Das Album verkaufte sich 15 Millionen Mal. Zur Vorbereitung auf ihre Tour im darauffolgenden Jahr gab Madonna im Herbst 2000 zwei kleine Konzerte in New York und London, in denen sie Songs aus "Music" präsentierte. Nach der Geburt ihres Sohnes Rocco am 11. August 2000 und ihrer Hochzeit mit Guy Ritchie am 22. Dezember 2000 in Dornoch/Schottland startete Madonna im Juni 2001 nach jahrelanger Bühnenabstinenz die ausverkaufte "Drowned World Tour", die sie nach Spanien, Italien, Deutschland, Frankreich und England führte. Im Juli begann Madonnas US-Tour. Am 14. September endete die Tour in Los Angeles. Da drei Tage zuvor die Terroranschläge vom 11. September 2001 die Welt schockiert hatten, unterbrach Madonna die Tour und rief ihr Publikum zum Gebet auf. Das zweite Greatest-Hits-Album "GHV2" erschien im November 2001. Es bot kein neues Material und Madonna bewarb es auch nicht. Danach kehrte Madonna im Mai 2002 nach 14 Jahren wieder auf die Theaterbühne zurück. Im Stück "Up For Grabs" von David Williamson unter der Regie von Laurence Boswell spielte Madonna die Rolle der Kunsthändlerin Loren. "Up For Grabs" wurde im Wyndham’s Theatre im Londoner West End aufgeführt, und Madonna erhielt den Publikumspreis (Theatregoers’ Choice Theatre Award). Im Herbst 2002 erregte Madonna mit ihrem gemeinsam mit Mirwais geschriebenen Titellied zu "James Bond – Stirb an einem anderen Tag" Aufsehen. "Die Another Day" wurde zum meistverkauften Bond-Titellied aller Zeiten und Madonna spielte in dem Film auch eine kleine Cameorolle: die Fechtlehrerin Verity. Ebenso war Madonna in Guy Ritchies Film "Swept Away" zu sehen, der allerdings einer der größten Flops der Filmgeschichte wurde. 2003 erschien das Album "American Life". Das Nachfolgealbum von "Music" brachte wenig Neues in Madonnas musikalische Welt. Zudem geriet es 2003 in den Sog von Madonnas Parteinahme gegen den US-amerikanischen Präsidenten George W. Bush. Ihr Engagement gegen den Irakkrieg löste bei den konservativen Radiostationen einen Boykott aus, der Platzierungen der folgenden ausgekoppelten Singles in den Billboard Charts verhinderte, obwohl "Die Another Day", "American Life" und "Hollywood" in den Top Ten der bestverkauften Singles standen. Die Singles "Die Another Day" und "Nothing Fails" standen sogar auf Platz eins der Verkaufscharts. Das Album "American Life" blieb mit 5 Millionen verkauften Tonträgern weit hinter den Erwartungen zurück. Das Projekt "American Life", insbesondere Madonnas politische „Werbung“ hatte ihrer Karriere in den Vereinigten Staaten geschadet. Kurz darauf veröffentlichte Madonna erstmals in ihrer Karriere ein Duett als Single, nämlich "Me Against The Music" zusammen mit Britney Spears. Madonna hatte schon vorher mit anderen Interpreten zusammen Lieder aufgenommen – mit Prince den "Love Song" auf dem Album "Like a Prayer" sowie 1999 mit Ricky Martin "Be Careful (Cuidado con mi corazon)" für dessen Album "Ricky Martin" – aber beide Songs waren nicht als Single erschienen. Der Live-Kuss mit Britney Spears (und Christina Aguilera) bei den MTV Awards 2003 brachte Madonna wieder ins Gespräch – und das schnell produzierte Duett mit Britney Spears wurde ein passabler Erfolg. Madonnas Remix-Album "Remixed & Revisited" konnte dem Hauptalbum "American Life" keinen neuen Schwung verleihen. Im September 2003 erschien Madonnas erstes Kinderbuch "Die Englischen Rosen". Die New York Times und Barnes & Noble notierten das Buch auf Platz eins der meistverkauften Bücher – und auch die vier folgenden waren so erfolgreich, dass Madonna Fortsetzungen und ein umfangreiches Merchandising (Kleidung, Geschirr, Schmuck etc.) für "Die englischen Rosen" produzieren ließ. Die Autorin spendete ihre gesamten Gewinne aus dem Projekt an nahestehende Kinderhilfsorganisationen. Ein großer Erfolg war die "Re-Invention World Tour 2004". Madonna war mit dieser ausverkauften Tournee wieder in den Vereinigten Staaten, Kanada und Europa zu sehen. Die Show bot politische Aussagen, exklusive Kostüme von Karl Lagerfeld, religiöse Motive und einen kalkulierten Skandal: Madonna sang ein Lied auf einem „elektrischen Stuhl“. Im Gegensatz zu den letzten Tourneen standen dieses Mal ihre größten Hits im Mittelpunkt, darunter viele Lieder aus den 1980er Jahren. Diese Tournee war Madonnas einziges musikalisches Projekt des Jahres 2004. Ähnlich wie bei der "Blond Ambition"-Welttournee ließ Madonna sich, ihre Tänzer und alles, was rund um die Tour geschah, dokumentarisch festhalten. Die Tour-Dokumentation "I’m Going to Tell You a Secret" feierte im Oktober 2005 in New York Premiere und ist mittlerweile als DVD erhältlich. Weihnachten 2004 erneuerten Madonna und Ritchie ihr Ehegelübde. Die beiden tauschten bei einer Zeremonie erneut die Ringe. 2005–2007. 2005 startete Madonna mit einer Kampagne des Modehauses Versace. Die Fotoserie von Fotograf Mario Testino ließ sich Donatella Versace 10,5 Millionen US-Dollar kosten. Zugunsten der Flutopfer des Tsunamis, der Teile Asiens im Dezember 2004 heimgesucht hatte, trat sie mit anderen namhaften Stars bei "Tsunami Aid" auf und sang den John-Lennon-Klassiker "Imagine". Ein weiterer Auftritt zu einem Benefizkonzert fand am 2. Juli 2005 statt. Madonna trat beim "Live 8"-Konzert in London auf – 20 Jahre nach dem "Live Aid"-Konzert. Bei ihrer Show präsentierte sie die Klassiker "Like a Prayer", "Ray of Light" und "Music". Am 16. August 2005, ihrem 47. Geburtstag, stürzte Madonna vom Pferd und brach sich das Schlüsselbein, die Hand und mehrere Rippen. Trotz dieser Verletzungen drehte sie zwei Monate später das Tanzvideo zu "Hung Up". Im November 2005 kam schließlich Madonnas lange erwartetes Album "Confessions on a Dance Floor" auf den Markt, mit dem sie in 29 Ländern Nummer eins wurde. Dieses Mal war Stuart Price der führende Produzent des Albums. Mit ihrem Dance-Album wurde die 47-Jährige wieder auf den Tanzflächen der Clubs gespielt. Begleitet wurde das Album von einem Song, der im Herbst 2005 den Ton angab: "Hung Up". Für den größten Hit ihrer Karriere durfte Madonna ein Sample des ABBA-Klassikers "Gimme! Gimme! Gimme! (A Man After Midnight)" verwenden. Von der Verkaufsstrategie her ging Madonna neue Wege, denn "Hung Up" erschien zuerst als Handy-Klingelton zum Herunterladen. Als der Song kommerziell erschien, gelangte "Hung Up" in 41 Ländern auf Platz eins. Das Album "Confessions on a Dance Floor" wurde aufwändig beworben: Nach dem mäßigen Erfolg des vorangegangenen Albums wurde alles unternommen, um das neue Album zu einem größeren Erfolg zu machen: Neben „Release Parties“, Anzeigenkampagnen, Werbeclips, Internetseiten und Auftritten in vielen Sendungen weltweit – unter anderem Star Academy (Frankreich), Wetten, dass..?, MTV-EMA, Ellen DeGeneres – stellte Madonna das Album auch persönlich in New York, London und Tokio vor. "Hung Up" verkaufte sich in den ersten drei Monaten über vier Millionen Mal. In den Vereinigten Staaten zog Madonna mit Elvis Presley gleich: Beide platzierten 36 Singles in den Top Ten der Billboard Hot 100 Charts. "Sorry", die zweite Single des Albums, erschien im Februar 2006 und konnte ebenfalls große Erfolge in den weltweiten Charts verbuchen. Am 15. Februar 2006 erhielt Madonna den BRIT Award als beste internationale Künstlerin und am 12. März 2006 zwei Echo-Musikpreise: als beste „Künstlerin International Rock/Pop“ und für "Hung Up" als den „Hit des Jahres“. Am 21. Mai 2006 startete Madonna in Los Angeles ihre "Confessions Tour." Am 30. Juli 2006 eröffnete sie den europäischen Teil ihrer Konzerttour in Cardiff (Wales). In London fanden acht ausverkaufte Konzerte in der Wembley-Arena statt. Im Rahmen der "Confessions Tour" kam Madonna im August für zwei ausverkaufte Konzerte nach Deutschland (20. August 2006, Düsseldorf, LTU Arena und am 22. August 2006, Hannover AWD-Arena). In Paris trat Madonna viermal auf und im September zweimal in der Amsterdam Arena. Erstmals waren auch Prag und Moskau Tourstationen auf Madonnas weltweiter Konzertreise. Die Tour endete nach insgesamt 60 ausverkauften Shows am 21. September 2006 in Tokio. Madonna präsentierte sich wieder deutlich provokanter als bei früheren Auftritten der letzten Jahre. So finden sich erneut BDSM-Anspielungen, Ponyplay und eine Kreuzigungsszene, bei der Madonna die Ballade "Live To Tell" auf dem Kreuz singt, im Bühnenprogramm. Besonders die singende Madonna mit Dornenkrone am Kreuz wurde weltweit von vielen Christen als gotteslästerlich wahrgenommen. Die Düsseldorfer Staatsanwaltschaft prüfte ihre Show auf Verstoß gegen §166 StGB (Beschimpfung von Bekenntnissen, Religionsgesellschaften und Weltanschauungsvereinigungen). Gegen Madonna wurden unzählige Klagen bei den weltweiten Gerichten eingereicht, jedoch führten diese nicht zum geforderten Auftrittsverbot des Superstars. Madonnas Konzert in Hannover sollte sogar boykottiert werden. Dazu rief die damalige Hannoversche Landesbischöfin Margot Käßmann ohne Erfolg auf. Madonna reagierte auf die Kritik der Kirche mit einer Einladung des Papstes zu ihrer Show in Rom, was zu einer weiteren Kontroverse führte. Disco ist ebenfalls ein großes Thema der Show. Madonna trägt Kostüme in Anlehnung an ABBA und John Travolta aus Saturday Night Fever. Die "Confessions Tour" wurde zur bisher erfolgreichsten Tour einer Künstlerin. Kurz nach der erfolgreichen aber kontroversen Tour beherrschte Madonna erneut die Schlagzeilen, diesmal aufgrund der umstrittenen Adoption des kleinen David Banda aus Malawi im Oktober 2006. Madonna wurde zur Zielfigur der Medien, die eine überwiegend negative Berichterstattung führten. Man warf ihr etwa vor, sie habe sich "ein Souvenir aus Afrika gekauft" und hätte die Adoptionsgesetze Malawis nicht eingehalten, also einen Starbonus erhalten. Ende Oktober 2006 nahm Madonna zu diesen Vorwürfen öffentlich Stellung in der Oprah Winfrey Show. Nach den Hits "Sorry" und "Get Together" erschien "Jump" als letzte Single aus dem Hit-Album "Confessions on a Dance Floor". Das Video wurde in Tokio gedreht, in dem sich Madonna mit ihrer neuen platinblonden Bobfrisur präsentierte. Der Song erreichte in vielen Ländern eine Top-Ten-Platzierung, wurde weltweit ein großer Airplay-Hit (Airplay bezeichnet die Spielhäufigkeit im Radio) und dominierte Ende 2006 die Clubs und Discotheken weltweit. Das Album verkaufte sich bis zum heutigen Zeitpunkt 12 Millionen Mal. Am 26. Januar 2007 veröffentlichte Madonna The Confessions Tour als Live-Album und DVD. Das Album erreichte auf Anhieb Platz zwei der deutschen Charts. Es wurde somit zu Madonnas siebzehnten Top-Ten-Album in Deutschland. Bereits im Sommer 2006 stellte die Modekette H&M eine umfangreiche Kollektion von Bekleidungsstücken für die Tour-Mannschaft zur Verfügung. Im März 2007 folgte der internationale Verkauf einer komplett von Madonna zusammengestellten Modekollektion. Das Werbevideo zeigt Madonna als dominante Lifestyle-Ikone die einer unpassend gekleideten Schülerin unter dem Knallen ihrer Gerte Modeweisheiten wie "Don’t think it – you need to know it" verpasst, um sie anschließend modisch komplett umrüsten zu lassen. Im April 2007 reiste Madonna unter großem Medienwirbel erneut nach Malawi, wo sie karitative Einrichtungen besuchte. Als bekannt wurde, dass Madonnas Ehemann, Guy Ritchie, sie nicht nach Malawi begleitete, kamen in den weltweiten Medien erneut Scheidungsgerüchte auf. Nach ihrer Rückkehr widmete sie sich der Produktion von neuen Songs für das kommende Album Hard Candy und begann mit der Regie des Kurzfilms "Filth and Wisdom", welcher 2008 auf der Berlinale, Deutschlands größtem Filmfestival, uraufgeführt wurde. Zwei neue Songs aus den Album-Sessions zu "Hard Candy", "The Beat Goes On" und "Candy Shop", waren illegal mitgeschnitten worden und tauchten im Internet auf. Doch Warner Music erhob sofort Klage gegen alle Plattformen, die den Song auf ihren Servern angeboten hatten, sodass er schnell wieder verschwand. Diese beiden Songs signalisierten stark Madonnas Richtungswechsel zum Hip-Hop. Beide Songs wurden von Pharrell Williams und Madonna produziert. Am 17. Mai 2007 veröffentlichte Madonna ihre neue Single "Hey You" (produziert von Pharrell Williams) als Download. Sie sang den Song beim Live-Earth-Konzert am 7. Juli im Londoner Wembley-Stadion. Für jeden der ersten Million Downloads – in der ersten Woche gratis – versprach MSN 25 US-Cents an die Alliance for Climate Protection zu spenden. Zu "Hey You" wurde zudem ein Video veröffentlicht, welches die Auswirkungen des Klimawandels aufzeigt und wie die Welt ohne dieses Problem aussehen könnte. Madonna tritt im Video nicht auf. Bei Fans kam der neue Song "Hey You" sehr gut an. Madonnas Live-Earth-Auftritt umfasste vier Songs: "Hey You", "Ray of Light", "La Isla Bonita" und "Hung Up". Das amerikanische Forbes Magazine wählte Madonna im Juni 2007 auf Platz 3 der einflussreichsten Persönlichkeiten der Welt. Diese Wertung bezieht sich auf das Jahr 2006, welches zu einem der erfolgreichsten Jahre für Madonna in künstlerischer Hinsicht wurde. Mit Einnahmen von 72 Mio. US-Dollar (damals etwa 48,6 Mio. Euro) während des Zeitraumes Juni 2006 bis Juni 2007 war Madonna, ebenfalls gemäß dem Forbes Magazine, auch in finanzieller Hinsicht die erfolgreichste Musikerin des Jahres. Am 12. September 2007 begann Madonna eine mehrtägige Reise nach Israel zum jüdischen Neujahrsfest, zusammen mit Ehemann Guy Ritchie und ihren drei Kindern. Madonna und Guy wurden gesehen, wie sie am Abend des 15. September 2007 nach den jüdischen Neujahrsfeierlichkeiten das Heim des Friedensnobelpreisträgers und Präsidenten von Israel Schimon Peres betraten. Peres übergab Madonna während des Treffens, um das sie gebeten haben soll, eine Ausgabe des Alten Testaments, des ursprünglich jüdischen Teils der Bibel. Das Treffen selbst war für die Presse nicht zugänglich. Madonna verließ ihre langjährige Plattenfirma Warner Music Group und unterschrieb einen neuen Vertrag mit Live Nation, welcher am 16. Oktober 2007 offiziell bestätigt wurde. Schon zuvor war aus dem Umfeld Madonnas verlautet worden, das der Wert des Deals bei 120 Millionen US-Dollar (damals etwa 85 Millionen Euro) liegt. Madonna begründete den Wechsel in einer gemeinsamen Erklärung mit Live Nation damit, dass sich das Musikgeschäft in den letzten Jahren verändert habe und sie mit der Zeit gehen müsse. Den Verlautbarungen zufolge soll Madonna einen Bonus von 18 Millionen US-Dollar und einen Vorschuss von jeweils 17 Millionen US-Dollar für drei Alben erhalten. In den nächsten 10 Jahren soll Madonna laut Vertrag 3 Studioalben sowie 4 Tourneen erarbeiten. Madonna war ferner eine von 23 Künstlerinnen, welche an dem Song "Sing" der ehemaligen Eurythmics-Sängerin Annie Lennox mitgewirkt haben. Der Titel ist auf Lennox’ Album "Songs of Mass Destruction" enthalten. Am 1. Dezember 2007 wurde der Song als Download-Single veröffentlicht. Die Erlöse aus dieser Veröffentlichung flossen in verschiedene Aids-Projekte. Ende Januar 2008 veröffentlichte das US-Magazin Forbes die Liste der bestverdienenden Musikerinnen von Juni 2006 bis Juni 2007. Madonna belegte mit weitem Vorsprung den ersten Platz mit Einnahmen von 72 Millionen US-Dollar (damals etwa 49 Millionen Euro). Das Geld stammt hauptsächlich aus der am 10. Februar 2008 mit einem Grammy ausgezeichneten "Confessions Tour", aus Plattenverkäufen und Werbeverträgen. 2008–2009. Madonna stellte am 13. Februar 2008 ihren Film "Filth and Wisdom" auf der 58. Berlinale offiziell als ihr Regiedebüt vor. Sie erschien mit ihrer Filmcrew in Berlin, was in den Medien stark beachtet wurde. Ursprünglich war der Film als Kurzfilm geplant. Er nahm nicht am Wettbewerb teil, sondern diente der Uraufführung. Ob Madonnas Film in den weltweiten Kinos zu sehen sein wird, ist noch nicht bekannt. Er erschien in einigen Ländern auf DVD. "Filth and Wisdom" handelt von einem russischen Immigranten namens A. K. (Eugene Hütz), der seinen Traum, ein großer Musiker mit seiner Band Gogol Bordello zu werden, verwirklichen will und deshalb versucht, sich mit zahllosen Jobs in London über Wasser zu halten. Er lebt mit zwei jungen Frauen zusammen, die ein ähnliches Ziel verfolgen und durch den Schmutz („filth“) gehen müssen, um zur Weisheit („wisdom“) zu gelangen. Die Kritiker lobten Madonnas Mut und die Charaktere des Films und fassten den Film bis auf einige Ausnahmen anerkennend auf. Am 14. Oktober 2008 stellte Madonna ihren Film auch in New York City offiziell vor. Am 10. März 2008 wurde Madonna in die Rock and Roll Hall of Fame aufgenommen. Die Zeremonie fand im New Yorker Hotel Waldorf Astoria statt. Am 21. Mai 2008 stellte Madonna bei den 61. Internationalen Filmfestspielen von Cannes ihren Dokumentarfilm über Malawi mit dem Titel "I Am Because We Are" vor. Sie fungierte als ausführende Produzentin und wird den Film selbst kommentieren, Regie führte Nathan Rissman. Die Dokumentation wurde von Madonna am 24. April 2008 bereits beim Tribeca Film Festival in New York vorgestellt. Außerdem nahm Madonna im August 2008 auch an der Premiere des Films in Traverse City in Michigan teil, ein inzwischen bekanntes Filmfestival, welches von Michael Moore ins Leben gerufen wurde. Madonnas darauffolgendes Album "Hard Candy" erschien am 25. April 2008 in Deutschland. In anderen europäischen Ländern, etwa in Großbritannien, wurde es am 28. April und in den Vereinigten Staaten am 29. April 2008 veröffentlicht. Am 15. März 2008 wurde ein lang ersehntes Artwork zum Albumcover veröffentlicht, auf dem erstmals nicht das Wort „Madonna“ aufgedruckt sein würde. Timbaland stellte bereits bei einem Konzert im Dezember 2007 in Philadelphia Madonnas erste Single des kommenden Albums vor: "4 Minutes", ein Song für den Frieden, bei dem Justin Timberlake mitwirkt. Der Videoclip wurde Ende Januar 2008 zusammen mit Timbaland und Justin Timberlake in London gedreht. Die Single feierte bereits am 17. März international ihr offizielles Radiodebüt, am 25. März erschien sie als Download und am 11. April als Maxi-CD. "4 Minutes" und "Hard Candy" erreichten umgehend Platz eins der deutschen Charts. "Hard Candy" wurde zu Madonnas zehntem Nummer-eins-Album in Deutschland. Im Juni 2008 erschien die zweite Single "Give it 2 me" aus dem Album "Hard Candy". Im Juli 2008 veröffentlichte Madonnas Bruder Christopher Ciccone in den Vereinigten Staaten die Biografie "Life With My Sister Madonna". Er hatte viele Jahre mit Madonna zusammengearbeitet, bis Madonna den Kontakt zu ihm stark einschränkte, nachdem seine Kokainabhängigkeit bekannt geworden war. Das Buch sorgte international für großes Aufsehen und erschien schließlich am 24. Oktober 2008 auch in Deutschland. Am 23. August 2008 startete Madonna in Cardiff/Wales ihre weltweite "Sticky & Sweet Tour", um das Album "Hard Candy" zu bewerben. Berlin, Düsseldorf und Frankfurt am Main waren unter anderem Stationen der Tour, erstmals gastierte Madonna auch in Wien sowie der Schweiz, und zwar auf dem Militärflugplatz Dübendorf bei Zürich. Nach der europäischen Phase der Welttournee folgten zahlreiche Konzerte in den Vereinigten Staaten und auch, erstmals seit 15 Jahren, Konzerte in Südamerika. Im April und Mai 2008 hatten bereits drei kleine Konzerte der "Hard Candy Promo Tour" stattgefunden, mit Stationen in New York, Paris und Maidstone/Kent. Die dritte Singleauskopplung "Miles Away" aus dem Album "Hard Candy" wurde am 21. November in Deutschland veröffentlicht. Der Song wurde schnell zum Hit bei deutschen Radiostationen und belegte dort nach fünf Wochen Platz eins der Airplay Charts. Wegen der weltweiten Finanzkrise sagte Madonna Anfang Dezember 2008 alle Termine ihrer Welttournee "Sticky & Sweet" in Australien ab. Im Januar 2009 startete das Modehaus Louis Vuitton eine großangelegte Werbekampagne für Luxustaschen, in der Madonna als Model zu sehen war. Marc Jacobs, Kreativdirektor von Louis Vuitton, begründete dies so: „Die neue Kampagne sollte sehr sinnlich, verwegen und atmosphärisch werden. Um all das in einer Person zu vereinen, brauchten wir die ultimative Darstellerin – und das ist für mich Madonna“. Madonna sorgte durch eine Affäre mit dem 28 Jahre jüngeren brasilianischen Model Jesus Luz erneut für Schlagzeilen, der eine im Dezember 2008 entstandene „W“-Fotokampagne vorausgegangen war. Diese Kampagne erschien im März 2009 unter dem Titel "Blame It On Rio" und führte aufgrund der freizügigen Fotos und den darin gezeigten sexuellen Anspielungen zu einer öffentlichen Diskussion. Für weitere Beachtung sorgte Madonna, als sie Ende März 2009 nach Malawi gereist war, um nochmals eine Adoption durchzuführen, bei der es sich um ein vierjähriges Mädchen handelte. Die Adoption kam zunächst nicht zustande, da ein malawisches Gericht im April 2009 gegen Madonnas Adoptionsantrag entschied. Am 12. Juni 2009 erging eine Entscheidung des Obersten Landesgerichtes von Malawi, wonach Madonna die Zustimmung zur Adoption erhielt. Die Begründung für die ursprüngliche Ablehnung, nämlich dass Adoptiveltern mindestens 18 Monate in Malawi gelebt haben müssen, bevor sie ein malawisches Kind adoptieren können, war laut Richter Lovemore Munlo „eine zu enge Rechtsauslegung auf der Grundlage alter Gesetze. In diesem globalen Dorf kann ein Mensch mehr als einen Wohnort haben.“ Außerdem führte er aus, dass Madonnas langjährige Beziehung zu Malawi und ihr Engagement für benachteiligte Kinder hätten berücksichtigt werden müssen. Die Entscheidung zugunsten Madonnas Adoption spaltete erneut die öffentlichen Meinungen. Am 4. Juli 2009 setzte Madonna ihre erfolgreiche "Sticky & Sweet Tour" von 2008 in London fort, es war das erste Mal in Madonnas Karriere, dass sie eine Welttournee fortsetzte. Ein Unfall am 16. Juli 2009 beim Bühnenaufbau für Madonnas Show in Marseille forderte zwei Todesopfer und mehrere Verletzte, worauf Marseilles Bürgermeister das Konzert absagte. Die Konzertreise wurde am 2. September 2009 in Tel Aviv beendet. Sie war die bis dahin weltweit erfolgreichste Tour eines Solokünstlers. Madonnas drittes Best-of-Album "Celebration" erschien am 18. September 2009 und war das letzte Album in Zusammenarbeit mit Warner Bros. Records. Die gleichnamige erste Singleauskopplung "Celebration" erschien in Deutschland am 4. September 2009 und gelangte in die Top fünf der deutschen Charts, das Album konnte sich für zwei Wochen auf Platz eins platzieren. Die zweite Singleauskopplung "Revolver" aus dem Best-of-Album ist eine Zusammenarbeit mit Lil Wayne. 2010er Jahre. Anfang 2010 war Madonna erneut das Gesicht einer neuen internationalen Modekampagne, diesmal für Dolce & Gabbana, für die sie sehr positive Kritiken erhielt. Am 22. Januar 2010 trat Madonna In New York beim Live-Telethon "Hope for Haiti Now: A Global Benefit for Earthquake Relief" auf und sang ihren Hit "Like a Prayer". Die Spenden dieser Sendung kamen den Opfern des Erdbebens von Haiti zugute. Am 26. März 2010 erschien Madonnas drittes Livealbum "Sticky & Sweet Tour" als CD/DVD-Kombination. Zudem war Madonna im Sommer 2010 in einer weiteren Dolce & Gabbana Kampagne zu sehen. Im Juli 2010 führte sie Regie bei dem Historiendrama "W.E.", für das sie auch das Drehbuch geschrieben hatte. Der Film behandelt die kontroverse Affäre zwischen dem britischen König Eduard VIII. und der Bürgerlichen Wallis Simpson. Bei der Vorstellung erster Ausschnitte am 12. Februar 2011 in Berlin waren die Reaktionen der geladenen Branchenvertreter positiv. Madonnas Ziel war es, Verleihrechte für den Film zu erringen. "W.E." hatte seine offizielle Premiere bei den Internationalen Filmfestspielen von Venedig am 1. September 2011. Der Film und Madonnas Regie wurde größtenteils positiv aufgenommen. Das im Film verwendete Lied "Masterpiece" wurde bei den Golden Globe Awards 2012 in der Kategorie „Bester Song“ ausgezeichnet. Im März 2012 erschien ihr zwölftes Studioalbum "MDNA". Dieses schaffte es bereits vor der Veröffentlichung durch hohe Vorbestellungen in 50 Ländern auf Platz eins der iTunes-Charts, was einen neuen Rekord darstellte. Die erste Single des Albums, "Give Me All Your Luvin’", wurde am 3. Februar 2012 veröffentlicht und war Teil von Madonnas Performance während des Super Bowls 2012 in Indianapolis. Mit "Girl Gone Wild" erschien noch vor der Veröffentlichung von "MDNA" die zweite Single des Albums. Das freizügige Video darf aus Jugendschutzgründen nicht bei Youtube und anderen Videoplattformen gezeigt werden. "MDNA" debütierte in den Vereinigten Staaten und Großbritannien auf Platz eins der Charts, in Deutschland erreichte das Album Platz drei. Am 31. Mai 2012 startete die 88 Konzerte umfassende MDNA Tour in Tel Aviv, die Madonna neben einer umfangreichen Europa-Etappe außerdem nach Nord- und Südamerika führte. Die Kritiken zum Eröffnungskonzert waren überwiegend positiv, jedoch wurde die zum Teil exzessive Gewaltdarstellung im ersten Akt der Show von einigen Medien kritisiert und auch in der Öffentlichkeit kontrovers diskutiert. Mit Einnahmen in Höhe von 305,2 Millionen US-Dollar (bei 2.212.505 verkauften Tickets) war es die erfolgreichste Tournee des Jahres 2012. Madonna wurde am 20. Mai 2013 bei den Billboard Music Awards in Las Vegas mit drei Awards ausgezeichnet. Sie erhielt die Trophäen für die Kategorien „Künstlerin des Jahres im Bereich Dance“, „Album des Jahres im Bereich Dance“ für "MDNA", sowie für die "MDNA Tour" als „erfolgreichste Tour des Jahres 2012“. Im September 2013 erschien unter dem Titel "MDNA World Tour" ein Live-Mitschnitt von der Tournee in Form eines Doppel-Albums, einer DVD und Blu-Ray. Ende September stellte Madonna ihr Projekt "Art for Freedom" vor, welches einen kontroversen Kurzfilm namens "secretprojectrevolution" beinhaltet, in dem Madonna für Toleranz und Gleichstellung wirbt. Der Film wurde weltweit zum kostenfreien Download angeboten und erfuhr Premieren auf überdimensionalen Straßenleinwänden in diversen Metropolen der Welt. Das "Forbes Magazine" führte sie bei einem Einkommen von rund $125 Mio. im Zeitraum 2012/13 als bestbezahlte Künstlerin im Showgeschäft. Am 26. Januar 2014 trat Madonna zusammen mit Mary Lambert und Queen Latifah bei der 56. Grammy Verleihung in Los Angeles auf. Sie waren Teil der „Same Love“-Performance von Macklemore & Ryan Lewis. Madonna sang zudem ihren Klassiker "Open Your Heart". Die Performance warb um Akzeptanz für homosexuelle Paare. Anfang Dezember 2014 sorgten freizügige Bilder der 56-jährigen Madonna im Magazin "Interview" für einen weltweiten Skandal. Außerdem tauchten zwei Wochen später im Internet nach und nach insgesamt 13 Songs auf, die sich auf ihrem nächsten Album befinden sollten. Sie bezeichnete den Leak als „künstlerische Vergewaltigung“ und erklärte, die Lieder seien unvollendete Demos und würden so nicht auf einem Album enthalten sein. Als Reaktion veröffentlichte sie am 20. Dezember sechs Songs, die sich unter den geleakten befanden, in ihrer fertigen Form auf iTunes und mehreren Streaming-Plattformen. Gleichzeitig wurde damit auch ihr kommendes Album zur Vorbestellung freigegeben. Im April 2015 machte Madonna erneut Schlagzeilen nachdem sie den Rapper Drake auf dem Coachella Festival küsste. Daraufhin wurde sie auf diversen Internetplattformen beschimpft. In Deutschland erschien Madonnas dreizehntes Studioalbum "Rebel Heart" am 6. März 2015, weltweit am 10. März 2015. Das Album erhielt international positive Kritiken, landete in Deutschland auf Rang 1, verkaufte weltweit allerdings weniger Einheiten als sein Vorgänger. In den USA war "Rebel Heart" das erste Madonna-Album seit zehn Jahren, das nicht die Spitzenposition erreicht hat, obwohl es den Verkäufen nach an der Spitze stand, jedoch durch Streaming-Berechnungen in den Hot 100 das Nachsehen hatte. Die ausgekoppelten Singles "Living For Love", "Ghosttown" und "Bitch I’m Madonna" waren kommerziell nur in einigen Ländern erfolgreich. "Living For Love" und "Ghosttown" verpassten eine Platzierung in den amerikanischen Billboard Hot 100. Hingegen gelang mit "Living For Love" ein Nummer-eins-Hit in den US Dance Club Play Charts – Madonnas vierundvierzigster insgesamt. Am 9. September 2015 startete Madonna in Montreal ihre Rebel Heart Tour. Weltweit sind insgesamt 76 Konzerte geplant. Dabei wird die Sängerin erstmals seit mehr als 20 Jahren wieder in Australien auftreten und auch ihr erstes Konzert in Neuseeland, China, Taiwan und den Philippinen geben. Phänomen Madonna. Wie kaum eine andere Künstlerin prägte Madonna die Popkultur des 20. Jahrhunderts. Seit über 30 Jahren ist sie eine der meistfotografierten und meistdiskutierten Frauen der Welt. Religion. Madonnas Eltern waren praktizierende Katholiken, in deren Haushalt der Katholizismus bestimmend war. Madonna sprach in zahlreichen Interviews über ihre Kindheit und ihre frühen Erfahrungen mit der römisch-katholischen Kirche. Besonders ihre Mutter ist ihr als strenggläubige Katholikin in Erinnerung geblieben. Madonna Louise Ciccone feierte 1965 ihre Erstkommunion und wurde zwei Jahre später gefirmt. Bei ihrer Firmung nahm sie den Namen Veronica als Firmnamen an. Als Jugendliche brach Madonna allerdings mit ihrer ursprünglichen Religion und verbindet seither eine Art Hassliebe damit. In ihrer kreativen Karriere als Sängerin hat Madonna allerdings sehr oft auf religiöse und speziell katholische Symbole zurückgegriffen. Egal ob in Songtexten, in Musikvideos oder Bühnenshows, überall entdeckt der Zuseher religiöse Symbole in Madonnas Schaffen. Das Album "Like A Prayer" widmete Madonna ihrer Mutter, „die ihr das Beten beibrachte“. Schon früh machte Madonna in ihrem Leben die Erfahrung des Todes und des Schmerzes, als ihre Mutter starb. Diese Erfahrungen und auch ihr schwieriges Verhältnis verarbeitete Madonna im Musikvideo "Oh Father". Gerne brachte Madonna auch Religion und Erotik zusammen, teilweise so offensiv, dass sich von kirchlicher Seite starker Protest regte. Mehrmals sprachen sich Kardinäle für Madonnas Exkommunikation aus. Als Madonna mit ihrer Tochter Lourdes Maria schwanger war, wurden ihr von einer Freundin die Kabbala und das Kabbalah Centre in Los Angeles vorgestellt. Seit 1996 ist Madonna Studentin der Kabbala und spricht in Interviews häufig davon. Auch diese Einflüsse verarbeitete sie kreativ in ihren Alben, etwa in "Ray Of Light" und in "American Life". Ihre Kinderbücher, die zwischen 2003 und 2005 erschienen sind, enthalten ebenfalls bekannte kabbalistische Botschaften. Madonna lässt die Einkünfte aus den Büchern der Kinderorganisation Spirituality for Kids zukommen, die mit dem Kabbala-Zentrum in Verbindung steht. Mehrmals war Madonna schon in Israel bei Kabbala-Treffen, unterstützte das Kabbala-Zentrum finanziell und warb unter ihrem selbstgewählten Namen „Esther“ neue Mitglieder. Musikalische Entwicklung. Madonna spielt neben Keyboard und Schlagzeug auch Gitarre, was sie während ihrer letzten Tourneen als festen Teil der Bühnenshows einbaute. Ihre „perfekt produzierten Popsongs“, die sie meist in Zusammenarbeit mit renommierten Produzenten (Nile Rodgers, Stephen Bray, Patrick Leonard, William Orbit, Lenny Kravitz, Shep Pettibone, Mirwais u. a.) schreibt, spiegeln den Zeitgeist wider und dokumentieren auch ihre persönliche Weiterentwicklung. Deren Schwerpunkte liegen in ihrer Spiritualität und ihrer – wenn auch schwierigen – Liebe zu ihrer elterlichen Familie, was sich in den sehr persönlichen Texten zeigt. Die ersten Jahre und ihr erstes Album Madonna waren vom schwarzen Funk und der damit verwandten Discomusik beeinflusst. Danach folgten die Jahre des eingängigen und kommerziellen Pops wie auf den Alben "Like a Virgin" und "True Blue". Im Jahr 1989 überraschte Madonna mit ihrem bis dato künstlerisch wertvollsten Album "Like a Prayer". Auf "I’m Breathless", dem Soundtrack zum Film "Dick Tracy", wagte sie sich erstmals in den Bereich des Jazz und sang eher schwierige Balladen von Stephen Sondheim. Gleichzeitig kehrte sie mit deutlich vom damals angesagten House-Sound geprägten Songs wie "Express Yourself" und "Vogue" zu ihren Wurzeln im Dance-Bereich zurück. In der ersten Hälfte der 1990er Jahre produzierte Madonna vor allem Black/Soul-Musik mit typischen Hip-Hop- und R'n'B-Beats auf den Alben "Erotica" und "Bedtime Stories". Auch Einflüsse des in dieser Zeit in der Club-Szene sehr angesagten Trip-Hops waren vielfach zu hören. Im Herbst 1995 nahm Madonna drei Monate professionellen Gesangsunterricht in London, um die Musical-Songs von "Evita" perfekt singen zu können. Andrew Lloyd Webber bestand darauf, dass der Soundtrack zu seiner Musicalverfilmung live mit Orchesterbegleitung aufgenommen wurde. Die Mühe lohnte sich, denn die von Madonna interpretierte Ballade "You must love me" gewann den Oscar als bester Filmsong 1997. Madonnas Wunsch, nun auch bei Kritikern als Musikerin respektiert zu werden, gipfelte 1998 in dem Album "Ray of Light". Es wurde von William Orbit produziert und ist sehr von Spiritualität und der „Sucht nach Selbsterkenntnis“ geprägt, wie sie in Interviews versicherte. Musikalisch war das Album eine klare Abkehr vom R'n'B-Sound der vergangenen Jahre und bewegte sich stilistisch im Bereich zwischen Trance, Ambient und modernem House. Bei den Grammy Awards wurde das Album gefeiert – und auch kommerziell hatte Madonna ein Comeback geschafft: Die Singles "Frozen", "Ray of Light" und "The Power of Good-Bye" standen hoch in den Hitparaden rund um den Globus. Die Alben "Music" und "American Life" wurden mehrheitlich von dem französischen Undergroundmusiker Mirwais mitproduziert und basierten auf progressivem Electronica – elektronischen Beats und Tönen aus Synthesizern der Achtziger Jahre, kombiniert mit Gitarre und dominierendem Gesang. Madonnas Versuche, sich politisch gegen den US-amerikanischen Präsidenten zu positionieren, wirkten in den Vereinigten Staaten kontraproduktiv. Als „unamerikanisch“ stigmatisiert, wurde Madonna von den republikanisch dominierten Radiosendern boykottiert. Dass sich die Singles in den Vereinigten Staaten gut verkauften, spiegelte sich in den dortigen Charts nicht wider, weil diese mehrheitlich auf dem Radioeinsatz basieren. Wegen des Radioboykotts sanken ihre Billboard-Platzierungen nach unten. Auch im Rest der Welt blieben Album und ausgekoppelte Singles weit hinter den Erwartungen zurück, obwohl viele Kritiker ("Rolling Stone", "Music Maker") Madonnas Talente als Komponistin betonten. Die größten Erfolge dieser Zeit verzeichneten die Remixe der Singles, die Madonna in den Billboard Dance Charts fünf Nummer-eins-Hits bescherten – unter anderem der Remix von Stuart Price zu "Hollywood". Nachdem Madonnas Versuche, sich als ernstzunehmende Künstlerin zu etablieren, nicht von dem erhofften kommerziellen Erfolg gekrönt wurden, besann sie sich auf ihre Wurzeln und produzierte – gegen jeden Trend – in den Vereinigten Staaten ein elektronisches Dance-Album: "Confessions on a Dance Floor". Nach dem großen Erfolg der ersten Single "Hung Up", die in über 40 Ländern an der Spitze der Charts stand, konnte auch das Album diesen Erfolg wiederholen. Gestärkt von aufwändiger Promotion wurde es zu einem ihrer größten Erfolge. Madonna schreibt ihre Lieder meist selbst, in Zusammenarbeit mit den angesehensten Produzenten der Musikszene. Dabei hat sie sehr genaue Vorstellungen, wie ein Lied oder das ganze Album klingen soll. Bei den meisten ihrer Songs ist Madonna für die Liedtexte zuständig. So waren der Tod ihrer Mutter, ihre Familie, ihre Selbstreflexion, ihre Freude an Tanz, Party und Musik sowie Sexualität Themen ihrer Songs. Erstmals seit 1994 arbeitete Madonna für die Aufnahmen zu ihrem Album "Hard Candy" wieder nur mit amerikanischen Produzenten wie Timbaland und Justin Timberlake. Die Musik auf dem Album ist deutlicher denn je dem aktuellen Zeitgeist angepasst und enthält erneut eingängigen Pop mit starkem R&B- sowie Hip-Hop-Einfluss. Es ist offensichtlich, dass Madonna versucht, wieder stärker den amerikanischen Markt zu bedienen, da dort die Albenverkäufe seit dem Jahr 2003 stark gelitten haben. Alle Madonna-Platten der 1980er und 1990er Jahre entstanden in den Vereinigten Staaten; seit dem Jahr 2000 wurden Madonnas Alben in London aufgenommen, da die britische Hauptstadt zu ihrem Lebensmittelpunkt wurde. Madonna und der Feminismus. Während um 1990 konservative Moralhüter in den Vereinigten Staaten die als sehr direkt empfundene Darstellung von Sexualität als verantwortungslos ablehnten, wurde Madonna von sexpositiven Feministinnen der dritten Welle des Feminismus wie Camille Paglia als Avantgardistin gefeiert. Die Gründe für ihre positive Kritik benennt Paglia im Auftreten von androgynen Menschen, Transsexuellen und Drag Queens in Madonnas Videos, die Darstellung von sadomasochistschem Sex und in Madonnas Bühnenpersona, die gleichermaßen selbstbestimmt, stark und sexy ist. Madonna stand für ein neues Frauenbild: Sie hat Kontrolle über ihr Leben, über ihre Sexualität, über ihren künstlerischen Output und ist wirtschaftlich erfolgreich – „a complex modern woman“. Paglia sah in Madonna die „Zukunft des Feminismus“. Madonnas Beitrag dazu sei weiterhin die Heilung der "Frau" von der Gespaltenheit in die Rollen als Heilige und Hure – mittels ihres Rollenspiels als Domina und Prostituierte. Vorbilder für Madonnas gleichermaßen starke und sexy Bühnenpersona sind Deborah Harry, die Sängerin und Songwriterin der Band Blondie, wie auch Chrissie Hynde, die Gitarristin und Sängerin der Pretenders. Für das Magazin "Interview" stand Madonna 2014 im Alter von 56 Jahren für erotische Bilder und in Dessous wieder vor der Kamera. Schauspiel. Madonna zog es früh vor die Kameras. Da sie seit ihrer Schulzeit mehreren Schauspielkursen angehörte, wurden einige dieser Projekte gefilmt, die nicht mehr als den Charakter von einfachen Amateuraufnahmen haben. "The Egg Movie" reduziert sich beispielsweise darauf, Madonnas freien Bauch zu zeigen, auf dem ein Spiegelei gebraten wird. "In Artificial Light" ist mehr eine Theaterimprovisation, zu der alle Darsteller ihre eigenen Texte schrieben. "A Certain Sacrifice" ist der bekannteste Film dieser Reihe, da er auf dem ersten Höhepunkt von Madonnas Karriere 1984 als Skandal-Video veröffentlicht wurde. Allerdings stellte sich die billige Amateurproduktion als langatmiger Kunstfilm mit dem Charme einer missglückten Schulaufführung heraus. Zeitgleich mit ihrem Durchbruch als Popstar gelang Madonna der erste Erfolg als Schauspielerin in der Verwechslungskomödie "Susan … verzweifelt gesucht", was ihr vorwiegend Lob der Kritiker bescherte. Die folgenden Filme konnten diesen Erfolg nicht wiederholen. Laut Kritik ließ Madonnas Image in der Öffentlichkeit es nicht zu, dass ihre Darstellung in ambitionierteren Filmen wie "Snake Eyes" oder "Stürmische Liebe" Beachtung fand. Auffällig blieb eher Madonnas Gespür für die schlechte Auswahl an Rollen, die durch schlechte Drehbücher und Produktion von Anfang an zum Misserfolg verurteilt waren (z. B. "Shanghai Surprise", "Body of Evidence" oder "Ein Freund zum Verlieben"). Madonna bekam dafür mehrere Male die Goldene Himbeere als schlechteste Schauspielerin und wurde auch als Schlechteste Schauspielerin des Jahrhunderts „ausgezeichnet“. Was in Madonnas Musikvideos sehr gut funktionierte, für vier Minuten in verschiedene Rollen zu schlüpfen, konnte das Publikum in Kinolänge nur mäßig überzeugen. Lediglich Filmrollen, die der Zuschauer mit Madonna assoziierte ("Dick Tracy" oder "Evita"), ließen die Kassen klingeln. Ein Umstand, der die Kritiker in ihrer Meinung bestärkte, dass Madonna nur sich selbst spielt. Genau das tat sie in ihrer erfolgreichen Tourdokumentation "Im Bett mit Madonna", sie machte sich selbst zum Thema. Die Tour-Dokumentation "I’m Going to Tell You a Secret" kam 2005 nicht in die Kinos: Die religiöse Botschaft des Filmes schien dem Filmverleih zu aufdringlich. Nach dem Erfolg des 2005er Albums "Confessions on a Dance Floor" – und den filmischen Misserfolgen der vergangenen Jahre – nahm Madonna von weiteren Filmprojekten Abstand. Theater. Neben dem Film widmete sich Madonna auch dem Theater. Ihre Auftritte, die meist in ausverkauften Häusern stattfanden, überzeugten die Kritiker nicht. Doch es gab auch wohlwollende Stimmen zu ihrer letzten Darbietung in "Up For Grabs". Dafür erhielt sie 2003 den Theatregoers’ Choice Theatre Award. Bibliografie. Über Madonna wurden Dutzende Bücher verfasst, doch sie ist auch selbst schriftstellerisch tätig: 1992 entstand ihr Bildband "SEX" mit persönlichen Texten und ab 2003 wurde ihre Kinderbuchserie publiziert, die mit "Die englischen Rosen" startete. Außerdem entstanden mehrere autorisierte Bücher, für die Madonna kurze Texte verfasste. SEX. Die Veröffentlichung des Bildbandes "SEX" sorgte 1992 in Teilen der Öffentlichkeit für eine Kontroverse. Madonnas erstes Buch ist ein großformatiger, in Metall gebundener erotischer Bildband. Es entstand in Zusammenarbeit mit dem US-amerikanischen Modefotografen Steven Meisel. Die Bilder variierten sexuelle Tabus und basieren zu einem wesentlichen Teil auf stilistischen Zitaten aus den Bereichen BDSM und Fetisch. Die Veröffentlichung des Buches wurde in einigen Ländern, unter anderem in Japan und Indien, verboten. Kinderbücher. Einen starken Kontrast zu "SEX" stellte die zweifache Mutter Madonna elf Jahre später vor: den Nummer-eins-Bestseller (New York Times & Barnes & Noble) "Die englischen Rosen", der (laut Kritik) die Geschichte ihrer eigenen Tochter interpretiert. Aus dem ersten Kinderbuch entwickelte sich eine Serie von fünf Büchern. Diese wurden von wechselnden Künstlern illustriert und sollen Kindern konservative moralische Grundwerte vermitteln, die in Madonnas Glauben an eine Form der Kabbala wurzeln. Jedes der Bücher sollte ein Kernthema beinhalten und kindgerecht aufbereitet sein. "Billie Bargeld", das letzte der Kinderbuchserie, wurde 2005 in 37 Sprachen übersetzt und in 110 Ländern veröffentlicht. Die Erlöse der Bücher gehen komplett an Förderungen der Kabbalah-Centre-nahen Kinderstiftung. Die Kinderbuchserie wurde auch als Hörbuch-CD umgesetzt. Sie wird von Madonna selber gelesen. Nach dieser Kinderbuchserie über verschiedene Themen und Charaktere wurde das erste Kinderbuch "Die englischen Rosen" in einer eigenen Reihe fortgesetzt. Die erste Fortsetzung erschien 2006: "The English Roses: too good to be true" (engl., ISBN 978-0-670-06147-1). Weitere 12 Fortsetzungen über die „Englischen Rosen“ folgten 2007 bis 2009 in englischer Sprache. Autorisierte Bücher. Folgende Bücher entstanden in Zusammenarbeit mit Madonna. Es sind Bildbände, die auch Texte oder persönliche Kommentare von Madonna enthalten. Werbung. Eine Liste der Werbeeinsätze (inklusive Benefiz und Promotion). Literatur. Folgende Sachbücher befassen sich mit Madonna und sind nicht autorisiert. Mathematik. Die Mathematik ("mathēmatikē téchnē" ‚die Kunst des Lernens‘, ‚zum Lernen gehörig‘) ist eine Wissenschaft, welche aus der Untersuchung von geometrischen Figuren und dem Rechnen mit Zahlen entstand. Für "Mathematik" gibt es keine allgemein anerkannte Definition; heute wird sie üblicherweise als eine Wissenschaft beschrieben, die durch "logische" Definitionen selbstgeschaffene abstrakte Strukturen mittels der "Logik" auf ihre Eigenschaften und Muster untersucht. Geschichte. Die Mathematik ist eine der ältesten Wissenschaften. Ihre erste Blüte erlebte sie noch vor der Antike in Mesopotamien, Indien und China. Später in der Antike in Griechenland und im Hellenismus, von dort datiert die Orientierung an der Aufgabenstellung des „rein logischen Beweisens“ und die erste Axiomatisierung, nämlich die euklidische Geometrie. Im Mittelalter überlebte sie unabhängig voneinander im frühen Humanismus der Universitäten und in der arabischen Welt. In der frühen Neuzeit führte François Viète Variablen ein und René Descartes eröffnete durch die Verwendung von Koordinaten einen rechnerischen Zugang zur Geometrie. Die Beschreibung von Tangenten und die Bestimmung von Flächeninhalten („Quadratur“) führte zur Infinitesimalrechnung von Gottfried Wilhelm Leibniz und Isaac Newton. Newtons Mechanik und sein Gravitationsgesetz waren auch in den folgenden Jahrhunderten eine Quelle richtungweisender mathematischer Probleme wie das des Dreikörperproblems. Ein anderes Leitproblem der frühen Neuzeit war das Lösen zunehmend komplizierter werdender algebraischer Gleichungen. Zu seiner Behandlung entwickelten Niels Henrik Abel und Évariste Galois den Begriff der Gruppe, der Beziehungen zwischen Symmetrien eines Objektes beschreibt. Als weitere Vertiefung dieser Untersuchungen können die neuere Algebra und insbesondere die algebraische Geometrie angesehen werden. Eine damals neue Idee im Briefwechsel zwischen Blaise Pascal und Pierre de Fermat im Jahr 1654 führte zur Lösung eines alten Problems, für das es schon andere, allerdings umstrittene Lösungsvorschläge gab. Der Briefwechsel wird als Geburt der klassischen Wahrscheinlichkeitsrechnung angesehen. Die neuen Ideen und Verfahren eroberten viele Bereiche. Aber über Jahrhunderte hinweg kam es zur Aufspaltung der klassischen Wahrscheinlichkeitstheorie in separate Schulen. Versuche, den Begriff „Wahrscheinlichkeit“ explizit zu definieren, gelangen nur für Spezialfälle. Erst das Erscheinen von Andrei Kolmogorows Lehrbuch "Grundbegriffe der Wahrscheinlichkeitsrechnung" im Jahr 1933 schloss die Entwicklung der Fundamente moderner Wahrscheinlichkeitstheorie ab, siehe dazu auch "Geschichte der Wahrscheinlichkeitsrechnung". Im Laufe des 19. Jahrhunderts fand die Infinitesimalrechnung durch die Arbeiten von Augustin-Louis Cauchy und Karl Weierstraß ihre heutige strenge Form. Die von Georg Cantor gegen Ende des 19. Jahrhunderts entwickelte Mengenlehre ist aus der heutigen Mathematik ebenfalls nicht mehr wegzudenken, auch wenn sie durch die Paradoxien des naiven Mengenbegriffs zunächst deutlich machte, auf welch unsicherem Fundament die Mathematik vorher stand. Die Entwicklung der ersten Hälfte des 20. Jahrhunderts stand unter dem Einfluss von David Hilberts Liste von 23 mathematischen Problemen. Eines der Probleme war der Versuch einer vollständigen Axiomatisierung der Mathematik; gleichzeitig gab es starke Bemühungen zur Abstraktion, also des Versuches, Objekte auf ihre wesentlichen Eigenschaften zu reduzieren. So entwickelte Emmy Noether die Grundlagen der modernen Algebra, Felix Hausdorff die allgemeine Topologie als die Untersuchung topologischer Räume, Stefan Banach den wohl wichtigsten Begriff der Funktionalanalysis, den nach ihm benannten Banachraum. Eine noch höhere Abstraktionsebene, einen gemeinsamen Rahmen für die Betrachtung ähnlicher Konstruktionen aus verschiedenen Bereichen der Mathematik, schuf schließlich die Einführung der Kategorientheorie durch Samuel Eilenberg und Saunders Mac Lane. Inhalte und Teilgebiete. Etwas abseits steht in dieser Aufzählung die Numerische Mathematik, die für konkrete kontinuierliche Probleme aus vielen der oben genannten Bereiche Algorithmen zur Lösung bereitstellt und diese untersucht. Unterschieden werden ferner die reine Mathematik, auch "theoretische Mathematik" bezeichnet, die sich nicht mit außermathematischen Anwendungen befasst, und die "angewandte Mathematik" wie zum Beispiel Versicherungsmathematik und Kryptologie. Die Übergänge der eben genannten Gebiete sind fließend. Fortschreiten durch Problemlösen. Kennzeichnend für die Mathematik ist weiterhin die Weise, wie sie durch das Bearbeiten von „eigentlich zu schweren“ Problemen voranschreitet. Sobald ein Grundschüler das Addieren natürlicher Zahlen gelernt hat, ist er in der Lage, folgende Frage zu verstehen und durch Probieren zu beantworten: "„Welche Zahl muss man zu 3 addieren, um 5 zu erhalten?“" Die systematische Lösung solcher Aufgaben aber erfordert die Einführung eines neuen Konzepts: der Subtraktion. Die Frage lässt sich dann umformulieren zu: "„Was ist 5 minus 3?“" Sobald aber die Subtraktion definiert ist, kann man auch die Frage stellen: "„Was ist 3 minus 5?“," die auf eine negative Zahl und damit bereits über die Grundschulmathematik hinaus führt. Ebenso wie in diesem elementaren Beispiel beim individuellen Erlernen ist die Mathematik auch in ihrer Geschichte fortgeschritten: auf jedem erreichten Stand ist es möglich, wohldefinierte Aufgaben zu stellen, zu deren Lösung weitaus anspruchsvollere Mittel nötig sind. Oft sind zwischen der Formulierung eines Problems und seiner Lösung viele Jahrhunderte vergangen und ist mit der Problemlösung schließlich ein völlig neues Teilgebiet begründet worden: so konnten mit der Infinitesimalrechnung im 17. Jahrhundert Probleme gelöst werden, die seit der Antike offen waren. Auch eine negative Antwort, der Beweis der Unlösbarkeit eines Problems, kann die Mathematik voranbringen: so ist aus gescheiterten Versuchen zur Auflösung algebraischer Gleichungen die Gruppentheorie entstanden. Axiomatische Formulierung und Sprache. Seit dem Ende des 19. Jahrhunderts, vereinzelt schon seit der Antike, wird die Mathematik in Form von Theorien präsentiert, die mit Aussagen beginnen, welche als wahr angesehen werden; daraus werden dann weitere wahre Aussagen hergeleitet. Diese Herleitung geschieht dabei nach genau festgelegten Schlussregeln. Die Aussagen, mit denen die Theorie anfängt, nennt man "Axiome", die daraus hergeleiteten nennt man "Sätze". Die Herleitung selbst ist ein "Beweis" des Satzes. In der Praxis spielen noch Definitionen eine Rolle, durch sie werden mathematische Begriffe durch Rückführung auf grundlegendere eingeführt und präzisiert. Aufgrund dieses Aufbaus der mathematischen Theorien bezeichnet man sie als "axiomatische Theorien". Üblicherweise verlangt man dabei von Axiomen einer Theorie, dass diese widerspruchsfrei sind, also dass nicht gleichzeitig ein Satz und die Negation dieses Satzes wahr sind. Diese Widerspruchsfreiheit selbst lässt sich aber im Allgemeinen nicht innerhalb einer mathematischen Theorie beweisen (dies ist abhängig von den verwendeten Axiomen). Das hat zur Folge, dass etwa die Widerspruchsfreiheit der Zermelo-Fraenkel-Mengenlehre, die fundamental für die moderne Mathematik ist, nicht ohne Zuhilfenahme weiterer Annahmen beweisbar ist. Die von diesen Theorien behandelten Gegenstände sind abstrakte mathematische Strukturen, die ebenfalls durch Axiome definiert werden. Während in den anderen Wissenschaften die behandelten Gegenstände vorgegeben sind und danach die Methoden zur Untersuchung dieser Gegenstände geschaffen werden, ist bei der Mathematik umgekehrt die Methode vorgegeben und die damit untersuchbaren Gegenstände werden erst danach erschaffen. In dieser Weise nimmt und nahm die Mathematik immer eine Sonderstellung unter den Wissenschaften ein. Die Weiterentwicklung der Mathematik geschah und geschieht dagegen oft durch Sammlungen von Sätzen, Beweisen und Definitionen, die nicht axiomatisch strukturiert sind, sondern vor allem durch die Intuition und Erfahrung der beteiligten Mathematiker geprägt sind. Die Umwandlung in eine axiomatische Theorie erfolgt erst später, wenn weitere Mathematiker sich mit den dann nicht mehr ganz so neuen Ideen beschäftigen. Kurt Gödel zeigte um 1930 den nach ihm benannten Unvollständigkeitssatz, der besagt, dass es in jedem Axiomensystem klassischer Logik, das erlaubt, gewisse Aussagen über natürliche Zahlen zu beweisen, entweder Aussagen gibt, die ebenso wenig wie ihre Negation beweisbar sind, oder aber das System selbst widersprüchlich ist. Mathematik benutzt zur Beschreibung von Sachverhalten eine sehr kompakte Sprache, die auf Fachbegriffen und vor allem Formeln beruht. Eine Darstellung der in den Formeln benutzten Zeichen findet sich in der Liste mathematischer Symbole. Eine Besonderheit der mathematischen Fachsprache besteht in der Bildung von aus Mathematikernamen abgeleiteten Adjektiven wie pythagoreisch, euklidisch, eulersch, abelsch, noethersch und artinsch. Anwendungsgebiete. Die Mathematik ist in allen Wissenschaften anwendbar, die ausreichend formalisiert sind. Daraus ergibt sich ein enges Wechselspiel mit Anwendungen in empirischen Wissenschaften. Über viele Jahrhunderte hinweg hat die Mathematik Anregungen aus der Astronomie, der Geodäsie, der Physik und der Ökonomie aufgenommen und umgekehrt die Grundlagen für den Fortschritt dieser Fächer bereitgestellt. Beispielsweise hat Newton die Infinitesimalrechnung entwickelt, um das physikalische Konzept „Kraft gleich Impulsänderung“ mathematisch zu fassen. Fourier hat beim Studium der Wellengleichung die Grundlage für den modernen Funktionsbegriff gelegt und Gauß hat im Rahmen seiner Beschäftigung mit Astronomie und Landvermessung die Methode der kleinsten Quadrate entwickelt und das Lösen von linearen Gleichungssystemen systematisiert. Aus der anfänglichen Untersuchung von Glücksspielen ist die heute allgegenwärtige Statistik hervorgegangen. Umgekehrt haben Mathematiker zuweilen Theorien entwickelt, die erst später überraschende praktische Anwendungen gefunden haben. So ist zum Beispiel die schon im 16. Jahrhundert entstandene Theorie der komplexen Zahlen zur mathematischen Darstellung des Elektromagnetismus inzwischen unerlässlich geworden. Ein weiteres Beispiel ist der tensorielle Differentialformen­kalkül, den Einstein für die mathematische Formulierung der allgemeinen Relativitätstheorie verwendet hatte. Des Weiteren galt die Beschäftigung mit der Zahlentheorie lange Zeit als intellektuelle Spielerei ohne praktischen Nutzen, ohne sie wären heute allerdings die moderne Kryptographie und ihre vielfältigen Anwendungen im Internet nicht denkbar. Kategorisierung der Mathematik. Über die Frage, zu welcher Kategorie der Wissenschaften die Mathematik gehört, wird seit langer Zeit kontrovers diskutiert. Viele mathematische Fragestellungen und Begriffe sind durch die Natur betreffende Fragen motiviert, beispielsweise aus der Physik oder den Ingenieurwissenschaften, und die Mathematik wird als Hilfswissenschaft in nahezu allen Naturwissenschaften herangezogen. Jedoch ist sie selbst keine Naturwissenschaft im eigentlichen Sinne, da ihre Aussagen nicht von Experimenten oder Beobachtungen abhängen. Dennoch wird in der neueren Philosophie der Mathematik davon ausgegangen, dass auch die Methodik der Mathematik immer mehr derjenigen der Naturwissenschaft entspricht. Im Anschluss an Imre Lakatos wird eine „Renaissance des Empirismus“ vermutet, wonach auch Mathematiker Hypothesen aufstellen und für diese Bestätigungen suchen. Die Mathematik hat methodische und inhaltliche Gemeinsamkeiten mit der Philosophie; beispielsweise ist die Logik ein Überschneidungsbereich der beiden Wissenschaften. Damit könnte man die Mathematik zu den Geisteswissenschaften rechnen, aber auch die Einordnung der Philosophie ist umstritten. Auch aus diesen Gründen kategorisieren einige die Mathematik – neben anderen Disziplinen wie der Informatik – als Strukturwissenschaft bzw. Formalwissenschaft. An deutschen Universitäten gehört die Mathematik meistens zur selben Fakultät wie die Naturwissenschaften, und so wird Mathematikern nach der Promotion in der Regel der akademische Grad eines Dr. rer. nat. (Doktor der Naturwissenschaft) verliehen. Im Gegensatz dazu erreicht im englischen Sprachraum der Hochschulabsolvent die Titel „Bachelor of Arts“ bzw. „Master of Arts“, welche eigentlich an Geisteswissenschaftler vergeben werden. Sonderrolle unter den Wissenschaften. Joseph Weizenbaum vom Massachusetts Institute of Technology bezeichnete die Mathematik als die Mutter aller Wissenschaften. Die Mathematik ist daher auch eine kumulative Wissenschaft. Man kennt heute über 2000 mathematische Fachzeitschriften. Dies birgt jedoch auch eine Gefahr: durch neuere mathematische Gebiete geraten ältere Gebiete in den Hintergrund. Neben sehr allgemeinen Aussagen gibt es auch sehr spezielle Aussagen, für die keine echte Verallgemeinerung bekannt ist. Donald E. Knuth schreibt dazu im Vorwort seines Buches "Concrete Mathematics:" Es kommt somit der älteren mathematischen Literatur eine besondere Bedeutung zu. Mathematik in der Gesellschaft. Logo zum Jahr der Mathematik Das vom Bundesministerium für Bildung und Forschung (BMBF) seit dem Jahr 2000 jährlich ausgerichtete Wissenschaftsjahr war 2008 das "Jahr der Mathematik". Mathematik als Schulfach. Mathematik spielt in der Schule eine wichtige Rolle als Pflichtfach. Mathematikdidaktik ist die Wissenschaft, die sich mit dem Lehren und Lernen von Mathematik beschäftigt. In der Unter- und Mittelstufe geht es nicht nur um das Erlernen von Rechenfertigkeiten. In der Oberstufe werden dann Differential- und Integralrechnung sowie Analytische Geometrie/Lineare Algebra eingeführt und dazu Stochastik weitergeführt. Mathematik als Studienfach und Beruf. Menschen, die sich beruflich mit der Entwicklung und der Anwendung der Mathematik beschäftigen, nennt man Mathematiker. Neben dem Mathematikstudium auf Diplom, in dem man seine Schwerpunkte auf reine und/oder angewandte Mathematik setzen kann, sind in neuerer Zeit vermehrt interdisziplinäre Studiengänge wie Technomathematik, Wirtschaftsmathematik, Computermathematik oder Biomathematik eingerichtet worden. Ferner ist das Lehramt an weiterführenden Schulen und Hochschulen ein wichtiger mathematischer Berufszweig. An deutschen Universitäten wird jetzt auch das Diplom auf Bachelor/Master-Studiengänge umgestellt. Eine gewisse Anzahl an Semesterwochenstunden müssen auch angehende Informatiker, Chemiker, Biologen, Physiker, Geologen und Ingenieure belegen. Die häufigsten Arbeitgeber für Diplom-Mathematiker sind Versicherungen, Banken und Unternehmensberatungen, insbesondere im Bereich mathematischer Finanzmodelle und Consulting, aber auch im IT-Bereich. Darüber hinaus werden Mathematiker in fast allen Branchen eingesetzt. Mathematische Museen und Sammlungen. Mathematik ist eine der ältesten Wissenschaften und auch eine experimentelle Wissenschaft. Diese beiden Aspekte lassen sich durch Museen und historische Sammlungen sehr gut verdeutlichen. Die älteste Einrichtung dieser Art in Deutschland ist der 1728 gegründete Mathematisch-Physikalische Salon in Dresden. Das Arithmeum in Bonn am dortigen Institut für diskrete Mathematik geht in die 1970er Jahre zurück und beruht auf der Sammlung von Rechengeräten des Mathematikers Bernhard Korte. Das Heinz Nixdorf MuseumsForum (Abkürzung „HNF“) in Paderborn ist das größte deutsche Museum zur Entwicklung der Rechentechnik (insbesondere des Computers), und das Mathematikum in Gießen wurde 2002 von Albrecht Beutelspacher gegründet und wird von ihm laufend weiterentwickelt. Im Museumsquartier in Wien befindet sich das von Rudolf Taschner geleitete Math.space, welches die Mathematik im Kontext zu Kultur und Zivilisation zeigt. Darüber hinaus sind zahlreiche Spezialsammlungen an Universitäten untergebracht, aber auch in umfassenderen Sammlungen wie zum Beispiel im Deutschen Museum in München oder im Museum für Technikgeschichte in Berlin (Rechner von Konrad Zuse entwickelt und gebaut). Meryl Streep. Mary Louise „Meryl“ Streep (* 22. Juni 1949 in Summit, New Jersey) ist eine US-amerikanische Schauspielerin. Nach ersten Theaterarbeiten feierte sie Ende der 1970er Jahre ihren internationalen Durchbruch mit dem TV-Mehrteiler "Holocaust" und den Kinoproduktionen "Manhattan", "Die durch die Hölle gehen" und "Kramer gegen Kramer". Seitdem gilt die dreifache Oscar-Preisträgerin (bei insgesamt unübertroffenen 19 Nominierungen) als eine der gefragtesten sowie künstlerisch erfolgreichsten Filmdarstellerinnen der Welt. Zu ihren größten kommerziellen Erfolgen zählen "Jenseits von Afrika" (1985), "Der Tod steht ihr gut" (1992), "Die Brücken am Fluß" (1995), "Der Teufel trägt Prada" (2006), "Mamma Mia!" (2008), "Julie & Julia" (2009), "Wenn Liebe so einfach wäre" (2009) und "Die Eiserne Lady" (2011). Privatleben. Mary Louise Streep wurde in Summit (New Jersey) geboren. Ihre Mutter, Mary Wolf Wilkinson, war Grafikerin. Ihr Vater, Harry William Streep, Jr., war Führungskraft in einem Pharmaunternehmen. Ihre deutschen Ururgroßeltern, Gottfried Streep und Christiana Rosina geb. Zeltmann, stammten aus dem damals württembergischen Loffenau. Einer ihrer Urgroßväter väterlicherseits, Balthasar Wilhelm Huber, stammte aus Giswil in der Schweiz. Sie hat zwei jüngere Brüder, Harry William III und Dana David Streep. Ihre Wurzeln mütterlicherseits liegen in Pennsylvania und Rhode Island, wo vor acht Generationen einer ihrer Vorfahren, der Brite Lawrence Wilkinson, sich als einer der ersten Europäer ansiedelte. Meryl Streep wuchs in der Nähe von Bernardsville (New Jersey) auf. Später studierte sie Drama am Vassar College in New York. Sie schloss ihr Studium mit einem Master of Fine Arts der School of Drama an der Universität Yale ab. Von 1976 an war Streep in einer Beziehung mit ihrem Schauspielerkollegen John Cazale. Im Alter von vierzig Jahren erkrankte Cazale an Lungenkrebs, doch akzeptierte er noch die ihm angebotene Rolle in "Die durch die Hölle gehen" "(The Deer Hunter)". Sein Gesundheitszustand zwang den Regisseur Michael Cimino, die Szenen mit ihm zuerst abzudrehen. Meryl Streep, die ebenfalls in "Die durch die Hölle gehen" mitwirkte, pflegte ihn bis zu seinem Tod. Am 30. September 1978 heirateten Meryl Streep und der Bildhauer Don Gummer. Der Ehe entstammen vier Kinder: Henry Wolfe, Mary Willa („Mamie“), Grace Jane und Louisa Jacobson. Im Juni 2009 wurde ihr von der Princeton University der Ehrendoktor „Doctor of Fine Arts“ verliehen. Karriere. Im Jahr 1977 begann sie ihre Film-Karriere mit einer Rolle in "Julia", es folgte die TV-Mini-Serie "Holocaust – Die Geschichte der Familie Weiss", für den Streep einen Emmy als beste Hauptdarstellerin gewann. 1978 gefolgt von dem Antikriegsfilm "Die durch die Hölle gehen". Für ihre Leistung in "Die durch die Hölle gehen" wurde sie mit einer Oscar-Nominierung für die Beste weibliche Nebenrolle belohnt. Woody Allen besetzte sie 1979 in seinem Film "Manhattan", im selben Jahr übernahm sie eine tragende Nebenrolle an der Seite von Dustin Hoffman im Scheidungsdrama "Kramer gegen Kramer", für die sie ihren ersten Oscar verliehen bekam. Meryl Streep setzte ihre Karriere in den 1980er-Jahren sehr erfolgreich fort, unter anderem mit Rollen in "Die Geliebte des französischen Leutnants", "Sophies Entscheidung", dem Drama "Silkwood", "Jenseits von Afrika", "Wolfsmilch" und "Grüße aus Hollywood". Meryl Streeps erfolgreichste Filmcharaktere sind emotional reife Frauen, die durch äußere Anlässe gezwungen werden, ihr Lebenskonzept zu überdenken, das sie selbst für unerschütterlich gehalten hatten. Anfang der 1990er Jahre wurde ihr – trotz einhelliger Anerkennung ihres handwerkliches Könnens – von einigen Kritikern vorgeworfen, sie sei auf die Darstellung „kühler“ Charaktere festgelegt, deren Menschlichkeit sich dem Publikum nicht unmittelbar erschließe. Möglicherweise war dies der Grund dafür, dass ihre Rollen in den folgenden Jahren über eine größere Bandbreite verfügten, so zum Beispiel in der Farce "Der Tod steht ihr gut" an der Seite Goldie Hawns, in der Verfilmung von Isabel Allendes "Das Geisterhaus", 1995 in "Die Brücken am Fluss" (vielfach als ihr großes Comeback betrachtet), "Am wilden Fluss" – ihr erster und bislang einziger Actionfilm – oder auch in der Komödie "Die Teufelin". Dies heißt jedoch nicht, dass sie ihrer Bedeutung als einer der ganz Großen der Branche nicht mehr gerecht würde, was sie mit ihren Darstellungen in "Marvins Töchter" oder auch in "Music of the Heart" eindrucksvoll unterstrich – für letztgenannten Film lernte sie sogar Violine spielen. In jüngster Zeit sprach Meryl Streep hin und wieder in den englischen Originalfassungen verschiedener Zeichentrickfilme, so in einigen Folgen der "Simpsons" oder "King of the Hill" und lieh ihre Stimme der Blue Fairy (Blaue Fee) in "A.I. – Künstliche Intelligenz" von Steven Spielberg. Des Weiteren spielte sie an der Seite von Nicolas Cage in "Adaption." und gleich vier Rollen in der HBO-Fernsehfassung von Tony Kushners Sechs-Stunden-Stück "Engel in Amerika". Mit den Oscar-Gewinnerinnen Nicole Kidman und Julianne Moore spielte sie in "The Hours". Ebenfalls im Jahre 2004 spielte sie die auf Angela Lansbury zurückgehende Rolle in der Neuverfilmung von "Der Manchurian Kandidat" und mit Jim Carrey, Emily Browning und Jude Law in "Lemony Snicket – Rätselhafte Ereignisse". Im selben Jahr proklamierte die Stadtbezirks-Präsidentin von Manhattan, C. Virginia Fields, den 27. Mai zum „Meryl-Streep-Tag“. Im August 2001 kehrte Meryl Streep nach fast zwanzig Jahren Abstinenz wieder auf die Bühne zurück, wo sie im Rahmen des „Public Theatre Revivals“ die Rolle der Arkadina in Anton Tschechows "Die Möwe" spielte. In derselben Aufführung traten unter der Regie von Mike Nichols auch Kevin Kline, Natalie Portman, Philip Seymour Hoffman, Christopher Walken, Marcia Gay Harden sowie John Goodman auf. Die Inszenierung mit ihrem All-Star-Ensemble und die kostenlosen Eintrittskarten übten eine derartig große Anziehungskraft aus, dass die Zuschauer 17 Stunden dafür anstehen mussten. Im Sommer 2006 spielte Meryl Streep am Delacorte Theatre im Central Park die Titelrolle in Bertolt Brechts "Mutter Courage und ihre Kinder" in einer neuen englischen Übersetzung durch Tony Kushner unter der Regie von George C. Wolfe. Im Oktober 2005 kam der Film "Couchgeflüster – Die erste therapeutische Liebeskomödie" mit Streep in die US-amerikanischen Kinos. In diesem Film spielt sie die komische Rolle einer Therapeutin an der Seite von Uma Thurman und Bryan Greenberg. 2006 kamen die Filme "Last Radio Show" und "Der Teufel trägt Prada", eine Komödie mit Anne Hathaway, heraus. Für Letzteren wurde Streep erneut mit einer Oscar-Nominierung gewürdigt. In dem Film "Lucas der Ameisenschreck" sprach sie in der englischen Fassung die Ameisenkönigin. 2007 wurde der Film "Spuren eines Lebens" vorgestellt, in dem Streep als alte Freundin von Vanessa Redgrave eine irische Familiengeschichte miterzählte. Im gleichen Jahr war sie neben Tom Cruise und Robert Redford (auch Regie) in dem Politthriller "Von Löwen und Lämmern" zu sehen. In der Musicalverfilmung "Mamma Mia!" trat Meryl Streep im Sommer 2008 in der Hauptrolle als Donna auf, die unmittelbar vor der Hochzeit ihrer Tochter mit deren drei potenziellen Vätern konfrontiert wird. Die Lieder des verfilmten Bühnenstücks basieren auf Kompositionen der Popgruppe ABBA und wurden von Streep und den übrigen Darstellern des Films selbst eingesungen. Im gleichen Jahr spielte sie in "Glaubensfrage" die Direktorin einer katholischen Schule, die einen Fall von sexuellem Missbrauch von Kindern vermutet. Streep zählt laut dem amerikanischen Forbes Magazine nach wie vor zu den am besten verdienenden Schauspielerinnen in Hollywood. Zwischen Juni 2007 und Juni 2008 erhielt sie Gagen in Höhe von 16 Mio. US-Dollar und rangiert damit auf Platz acht u. a. hinter Cameron Diaz. 2011 drehte sie mit "Die Eiserne Lady" eine Filmbiografie über die ehemalige britische Premierministerin Margaret Thatcher, für die sie ihren dritten Oscar erhielt. Ihre Gage in Höhe von 1 Million Dollar spendete sie an das America's National Women's History Museum, dessen überzeugte Förderin sie ist. Im Sommer 2015 kam die Tragikomödie "Ricki – Wie Familie so ist" des Regisseurs Jonathan Demme mit Streep in der Hauptrolle in die Kinos. In dieser verkörpert sie eine Hard-Rock-Musikerin (Ricki), die sich nach dem Höhepunkt ihrer Karriere wieder mit ihrer Familie, welche sie für während ihrer erfolgreichen Laufbahn vernachlässigt hat, versöhnen will. Mit an Streeps Seite spielt ihre Tochter Mamie Gummer, welche dort die Tochter (Julie) der Protagonistin verkörpert. Im Oktober wird der Spielfilm "Suffragette" auf der großen Leinwand zu sehen sein, in dem Streep Emmeline Pankhurst, eine Aktivistin der zu Beginn des 20. Jahrhunderts auftretenden Frauenbewegung, spielt. Des Weiteren wird Streep gemeinsam mit Hugh Grant in der Hauptrolle des Films "Florence Foster Jenkins" zu sehen sein. Am 14. Oktober 2015 gab Berlinale-Direktor Dieter Kosslick bekannt, dass Meryl Streep Jury-Präsidentin der 66. Internationalen Filmfestspiele Berlin wird. Für Meryl Streep ist dies die erste Jurorenaufgabe bei einem Filmfestival. Auszeichnungen. Im Laufe ihrer bisherigen Karriere erhielt Meryl Streep insgesamt 19 Oscar-Nominierungen, zuletzt 2015 für ihre Rolle in "Into the Woods". Davon waren 15 Nominierungen in der Kategorie „Beste Hauptdarstellerin“ und vier in der Kategorie „Beste Nebendarstellerin“. Sie hält damit den Rekord als meistnominierte Schauspielerin aller Zeiten, noch vor Katharine Hepburn und Jack Nicholson mit je zwölf Nominierungen. Streep gewann den Oscar bisher dreimal: als „beste Nebendarstellerin“ für "Kramer gegen Kramer" (1979) und als „beste Hauptdarstellerin“ für "Sophies Entscheidung" (1983) und "Die Eiserne Lady" (2012). Weiterhin gewann sie 8 Golden Globe Awards (bei 29 Nominierungen). Damit ist sie die am häufigsten mit einem Golden Globe prämierte Schauspielerin. 1999 wurde sie in die American Academy of Arts and Sciences gewählt. Marlon Brando. Marlon Brando, Jr. (* 3. April 1924 in Omaha, Nebraska; † 1. Juli 2004 in Los Angeles, Kalifornien) war ein US-amerikanischer Schauspieler. Er gilt als einer der bedeutendsten Charakterdarsteller der Filmgeschichte des 20. Jahrhunderts. Mit seinen Rollen in den Filmen "Endstation Sehnsucht" (1951) und "Die Faust im Nacken" (1954) verschaffte er der Schauspieltechnik des "Method Acting" weltweit Beachtung. Sowohl mit seiner Art der Darstellung als auch durch sein Auftreten in der Öffentlichkeit als gesellschaftlicher Außenseiter, den die Spielregeln Hollywoods nicht interessierten, beeinflusste er die jüngere Schauspielergeneration nachhaltig. Zwischen 1952 und 1990 war er siebenmal in der Kategorie "Bester Hauptdarsteller" und einmal als "Bester Nebendarsteller" für den Oscar nominiert, zweimal (1955 und 1973) gewann er ihn. 1973 verweigerte er die Annahme der Auszeichnung für seine Titelrolle in "Der Pate" aus Protest gegen den bis zu dieser Zeit verbreiteten abwertenden Umgang der US-amerikanischen Filmindustrie mit den Indianern. Weitere Auszeichnungen erhielt Brando bei internationalen Filmfestivals, unter anderem 1952 in Cannes und 1989 in Tokio. In einer 1999 veröffentlichten Liste des American Film Institute, auf der die 25 größten männlichen Filmlegenden aller Zeiten aufgeführt werden, nahm er den vierten Rang ein. Marlon Brando nutzte seine Prominenz für ein vielseitiges gesellschaftspolitisches Engagement, beispielsweise zur Unterstützung der US-Bürgerrechtsbewegung der Afroamerikaner und der indigenen Organisation des American Indian Movement. Jugend und Schulzeit. Marlon Brando wurde 1924 im US-amerikanischen Mittleren Westen in Omaha, Nebraska als jüngstes von drei Geschwistern geboren. Die Familie war in der Region alteingesessen; der Name Brando stammt von Vorfahren namens Brandau, die viele Generationen zuvor aus der damals zu Bayern gehörenden Pfalz eingewandert waren. Der Vater, Marlon Brando Sr., war eigentlich Ingenieur, arbeitete nach der Geburt der Kinder jedoch als Handlungsreisender und seit 1930 als Verkaufsmanager. Zur Unterscheidung von seinem gleichnamigen Vater wurde Marlon Jr. von Angehörigen und Freunden "Bud" genannt. Aus der Großstadt Omaha zog die Familie 1930 nach Evanston, Illinois. Im Sommer 1936 trennten sich die Eltern vorübergehend; die Mutter zog mit den Kindern nach Santa Ana, Kalifornien, zu ihrer Mutter. Zwei Jahre später kehrte sie zu ihrem Mann zurück und die Familie übersiedelte nach Libertyville, einem ländlichen Vorort von Chicago, wo sie im Nebenerwerb eine kleine Pferdefarm betrieb. Die Biografen haben der Kindheit und Jugend von Marlon Brando besondere Aufmerksamkeit geschenkt, weil sich dort Motive wiederfinden, die für seine frühen Filme typisch waren, wie etwa das Motiv des jugendlichen Rebellen, hinter dessen aggressiver Macho-Attitüde sich eine verletzte und dementsprechend verletzliche Seele verbirgt. Die familiären Bedingungen, in denen Brando heranwuchs, waren zwiespältig: Die Mutter, Dorothy Pennebaker Myers, eine politisch liberale, geistvolle Frau, besaß schauspielerisches Naturtalent. Aufgrund ihrer familiären Bindungen konnte sie dieses nur zeitweilig zu ihrem Beruf machen, dennoch hat sie die künstlerische Entwicklung ihrer Kinder zumindest nicht behindert. Auch Marlons älteste Schwester Jocelyn ergriff den Schauspielerberuf; das mittlere Kind, Frances, studierte Malerei. Beide Eltern waren jedoch alkoholkrank, vertrugen sich nicht und hatten zahlreiche außereheliche Affären. Die Mutter unternahm mehrere Suizidversuche. Die Kinder wurden oft vernachlässigt und litten unter der geringen Verlässlichkeit besonders der Mutter. Der junge Brando wird von seinen Biografen als introvertierter, unangepasster, schlechter Schüler beschrieben, der jeglicher Autorität mit übermäßiger Aggression begegnete. Die häusliche und schulische Situation spitzte sich schließlich so zu, dass der Vater den Sohn von der High School nahm und ihn im September 1941 zur "Shattuck Military Academy" in Faribault, Minnesota, schickte, wo Brando nach dem Willen des Vaters eine letzte Chance erhalten sollte, seine Schulnoten zu verbessern. Die Hoffnungen erfüllten sich nicht. Zwar fand Brando in dem Englischlehrer Earle Wagner, der die Theatergruppe der Akademie leitete und die schauspielerische Begabung des Siebzehnjährigen erkannt hatte, erstmals einen Mentor. Angesichts der starren Disziplin der Einrichtung fühlte sich Brando jedoch zu einer Widersetzlichkeit herausgefordert, die dazu führte, dass er die "Academy" im Mai 1943 ohne Abschluss verlassen musste. Dramatic Workshop. Aufgrund einer Knieverletzung, die er sich an der "Shattuck Military Academy" beim Sport zugezogen hatte, wurde Marlon Brando nach dem Eintritt der USA in den Zweiten Weltkrieg nicht als Soldat eingezogen. Mit finanzieller Unterstützung seiner Eltern ging er im Herbst 1943 nach New York, wo der Regisseur Erwin Piscator an der New School 1940 einen Dramatic Workshop eingerichtet hatte. Der Workshop wurde berühmt, weil er neben Brando so hochrangige Künstler wie Walter Matthau, Shelley Winters, Tony Curtis und Harry Belafonte hervorbrachte. Weitaus größere Bedeutung als die Arbeit mit Piscator gewann für Brando allerdings die Begegnung mit Stella Adler, die dem Lehrkörper als "acting coach" angehörte. Adler, eine Veteranin des Group Theatre, wurde Brandos Schauspiellehrerin und langjährige Mentorin, die ihn später mit wichtigen Agenten und Regisseuren bekanntmachte. Von allen Lehrern, bei denen Brando studiert hat, nahm Adler auf seine Schauspieltechnik den größten Einfluss. Und wenn Interviewpartner ihn später auf das "Actors Studio" ansprachen, stellte Brando richtig, er habe seine Ausbildung nicht dort, sondern bei Stella Adler erhalten. Ebenso wie Lee Strasberg, ihr einflussreicher Kollege vom "Group Theatre", lehrte Stella Adler die als Method Acting bekannt gewordene Schauspielmethode des russischen Schauspielers und Theaterreformers Konstantin Stanislawski. Adler, die bei Stanislawski studiert hatte, warf Strasberg jedoch vor, die Lehre des Russen in grundlegenden Punkten missverstanden zu haben. Bei Brando fiel Stella Adlers Interpretation des "Method Acting" auf fruchtbaren Boden. Viele der Darstellungsmittel, die für ihn so kennzeichnend sind – wie z. B. sein starkes Unterspielen – gehen auf Adlers Schule zurück. Vor allem aber gelang es Brando unter Adlers Anleitung, eine Komplexität und einen Einfallsreichtum des emotionalen Ausdrucks freizusetzen, von dem seine Mitstudenten, die ihn im sozialen Umfeld oft als unartikulierte Persönlichkeit von geringer Komplexität einstuften, verblüfft waren. Marlon Brando in "Endstation Sehnsucht" (Bühnenfassung), 1948 Anfänge am Broadway. Nach Konflikten mit Erwin Piscator musste Brando den Workshop im Sommer 1944 wieder verlassen. Für seine Karriere war dies kein Nachteil, da Brando zu diesem Zeitpunkt bereits von dem einflussreichen MCA-Agenten Maynard Morris betreut wurde, der ihm für die folgende Spielzeit ein erstes Engagement vermitteln konnte. Von Oktober 1944 an spielte Brando am Broadway eine kleine Rolle in dem Musical "I Remember Mama". Ab dem Frühjahr 1945 nahm er darüber hinaus Tanz- und Trommelunterricht an der Katherine Dunham School of Dance. Im Februar 1946 trat Brando, der inzwischen von der MCA-Agentin Edith Van Cleve betreut wurde, ein Engagement für die Broadway-Show "Truckline Café" an. Obwohl der hochbegabte Elia Kazan Produzent des Stückes war, wurde es ein kommerzieller Misserfolg und bereits nach zehn Aufführungen eingestellt. Da Brando in der kleinen, aber zentralen Rolle, die er übernommen hatte, seine schauspielerische Intensität in einer Weise zeigte, die niemand – einschließlich seiner Agentin – erwartet hätte, gelang es Produzent und Regisseur jedoch, ihn in einem weithin beachteten Pressenachspiel als „eines der heißesten Talente weit und breit“ herauszubringen. Auf ein kurzes Engagement für eine Inszenierung von George Bernard Shaws Komödie "Candida" folgte eine Zeit der Arbeitslosigkeit. Als Louis B. Mayer Brando in dieser Zeit einen siebenjährigen Filmvertrag bei der MGM anbot, lehnte er dennoch ab, weil er unter einem solchen „Knebelvertrag“ seine Rollen nicht selbst hätte aussuchen können. Die beiden nächsten Bühnenrollen fand er in dem unter Holocaust-Überlebenden spielenden Politstück "A Flag is Born" (ab September 1946) und in Jean Cocteaus Drama "The Eagle Has Two Heads" (ab Dezember 1946). „Endstation Sehnsucht“ und Actors Studio. Ab August 1947 bereitete Irene Mayer Selznick – Tochter von Louis B. Mayer und Ehefrau von David O. Selznick – eine Bühnenproduktion des 1946 entstandenen Schauspiels "Endstation Sehnsucht" von Tennessee Williams vor. Als Regisseur engagierte sie Elia Kazan, für die Rolle der Blanche wurde Jessica Tandy ausgewählt, in weiteren Rollen erschienen Kim Hunter und Karl Malden. Marlon Brando erhielt, nachdem Edith Van Cleve sich bei Kazan für ihn eingesetzt hatte, die Rolle des Stanley Kowalski. Die Proben begannen am 6. Oktober und Regisseur Kazan unternahm dabei das Wagnis, Brando, dessen Persönlichkeit mit der Kowalskis viele Berührungspunkte hatte, bei der Interpretation der Rolle in eine Konfrontation mit sich selbst zu zwingen. Für Brando war dies eine unerhörte Zumutung, seine Darstellung gewann hierdurch jedoch eine Überzeugungskraft, der diese Inszenierung dann ihren Erfolg verdankte. Das Stück wurde vorab in New Haven, Boston und Philadelphia aufgeführt und hatte seine New Yorker Premiere am 3. Dezember 1947 im "Ethel Barrymore Theatre". Die Inszenierung war ein sensationeller Erfolg, bei dem Marlon Brando weitaus stärker beachtet wurde als die eigentliche Hauptdarstellerin, Jessica Tandy. Für das Publikum wurde die Figur des Kowalski zur Ikone, zu einem neuen Symbol der US-amerikanischen Männlichkeit. Die Kostümdesignerin Lucinda Ballard lieferte dazu einen nicht unwichtigen Beitrag, indem sie Brando für die Rolle mit Blue Jeans und T-Shirts ausstattete, die – damals unüblich – hauteng anlagen. Männliche Darsteller mit einer so unverblümten sexuellen Ausstrahlung gab es im US-amerikanischen Kulturleben bis dahin überhaupt nicht. Darüber hinaus konnte Brando diesem neuartigen Sexappeal von Anfang an eine interessante Komplexität geben: die Sexualität, für die er stand, war nämlich nicht draufgängerisch und erobernd (wie die z. B. von Errol Flynn oder Clark Gable), sondern langsam, launenhaft und von Selbstzweifeln gedämpft. Diese Gelähmtheit war typisch für die "Silent Generation" der um 1930 geborenen US-Amerikaner und bot den gleichaltrigen Zeitgenossen große Möglichkeiten der Identifikation. Obendrein verlieh Brando dem Charakter Kowalski ein Moment von Unbehaglichkeit und unterschwelliger Gefährlichkeit – ein Motiv, das er später in seinen Filmrollen regelmäßig und in immer neuen Variationen wieder aufgriff. Während seiner Arbeit an "Endstation Sehnsucht" besuchte Marlon Brando auch unregelmäßig Veranstaltungen des erst im Oktober 1947 gegründeten Actors Studio, an dem Lee Strasbergs Version des Method Acting gepflegt wurde. "Die Männer". Im Herbst 1949 bot Produzent Stanley Kramer Brando die Hauptrolle in dem Film "Die Männer" an. Brando war dabei in der glücklichen Lage, als einer der ersten Filmdarsteller in Hollywood einen "One-Picture-Deal" unterschreiben zu können, d. h. einen Vertrag, mit dem er nur für einen einzigen Film verpflichtet wurde. Branchenüblich waren in dieser Zeit nämlich immer noch siebenjährige Studioverträge, die es den Schauspielern in der Regel nicht erlaubten, ihre Filmrollen frei zu wählen. Brando besaß diese Freiheit von Anfang an. Die Dreharbeiten, bei denen Fred Zinnemann Regie führte, begannen Ende Oktober. Brando spielte in dem Film die Rolle eines jungen Infanterielieutenant, der nach einer Kriegsverletzung querschnittsgelähmt den Alptraum der Rehabilitation durchmacht. Noch vor der Veröffentlichung des Films im Juli 1950 hatte die einflussreiche Klatschkolumnistin Hedda Hopper Brando als „Hollywoods neue Sensation“ angekündigt. Die Uraufführung fand unglücklicherweise zwei Wochen nach Beginn des Koreakrieges statt, zu einem Zeitpunkt also, da das Publikum eher nach patriotischen Stoffen als nach Kriegsversehrtengeschichten verlangte. Obwohl "Die Männer" an den Kinokassen wenig Erfolg hatte, quittierte die Presse Brandos überaus glaubwürdige Darstellung mit überschwänglichen Rezensionen. "Endstation Sehnsucht". Nachdem "Endstation Sehnsucht" am Broadway so erfolgreich gelaufen war, bereitete der Produzent Charles K. Feldman eine Verfilmung vor. Die Dreharbeiten begannen am 14. August 1950, Regie führte wie bei der Broadway-Version Elia Kazan. Auch die Schauspieler waren dieselben wie in der Bühneninszenierung. Lediglich die Rolle der Blanche sollte mit einem Star besetzt werden, der an den Kinokassen mehr Zugkraft besitzen würde als Jessica Tandy. Zunächst war mit Olivia de Havilland verhandelt worden; da diese zu teuer war, hatte Vivien Leigh die Rolle bekommen. Obwohl auf Druck der Catholic Legion of Decency vor der Veröffentlichung im September 1951 erhebliche Schnitte vorgenommen werden mussten, war der Film sowohl beim Publikum als auch bei der Kritik enorm erfolgreich und begründete Brandos Ruhm als Filmstar. "Viva Zapata!". Der nächste Film, "Viva Zapata!", war eine freie Verfilmung der Biografie des mexikanischen Revolutionsführers Emiliano Zapata, ein Abenteuerfilm ohne besondere politische Tiefe. Kazan, der Regie führte, bestand darauf, dass Brando in der Titelrolle erscheinen sollte, obwohl der blond war und für seinen Auftritt von der Maske vollständig verwandelt werden musste. Bei den Dreharbeiten, die im Mai 1951 begannen, verließ Kazan sich wie früher schon auf Brandos Intuition und ließ ihm weiten künstlerischen Spielraum. Brando nutzte diesen, um meisterhaft die innere Zerrissenheit und die Verwirrung der Figur herauszuarbeiten, die in seiner Interpretation einerseits ein idealistischer Macho, andererseits ein zur Bourgeoisie strebender Bauer war. Nachdem der Film im Februar 1952 in die Kinos gekommen war, war Brando von seiner Leistung enttäuscht, da er den Revolutionär seiner Meinung nach härter und weniger romantisch hätte darstellen müssen. Die Rolle trug ihm jedoch seine zweite Oscar-Nominierung, einen Preis auf dem Filmfestival Cannes und einen British Film Academy Award ein. "Julius Caesar". Für seinen vierten Film, "Julius Caesar", ein klassisches Drama nach Shakespeare, wagte Brando sich auf das Gebiet, auf dem seine größte schauspielerische Unsicherheit lag. Aufgrund seiner Schulversäumnisse fehlte ihm eine systematische Bildung und auch seine Diktion beim lauten Lesen von Texten blieb zeitlebens ein Problem. Da er in dem Film u. a. neben dem großen britischen Shakespeare-Darsteller John Gielgud auftrat, fürchtete er, wie ein Anfänger auszusehen. Auch lag ihm viel daran, durch eine klassische Rolle Abstand von seinem "Low-life"- und Hooligan-Image und mehr intellektuelle Respektabilität zu gewinnen. Auf die Dreharbeiten, die am 8. August 1951 begannen und von Joseph L. Mankiewicz geleitet wurden, bereitete sich Brando, der die Rolle des Antonius spielen sollte, mit einem Training bei dem Vocalcoach der MGM, Gladys Fogoler, und mit Hilfe von Schallplattenaufnahmen berühmter Shakespeare-Darsteller vor. Seine Darstellung – vor allem die berühmte Rede "„Friends, Romans, Countrymen, lend me your ears...“" – geriet dank dieser guten Vorbereitung so überzeugend, dass die Presse nach der Uraufführung des Films im Juni 1953 voll des Lobes war und Brando erneut einen British Film Academy Award und eine Oscar-Nominierung erhielt. "Der Wilde". Im September 1952 ging Brando zum zweiten Mal bei Stanley Kramer unter Vertrag: in dem Film "Der Wilde" sollte er unter der Regie von László Benedek den Anführer einer Motorrad-Gang spielen, die in eine US-amerikanische Kleinstadt einfällt und dort tagelang die hysterisch reagierende, spießige Einwohnerschaft aufmischt. Die Geschichte war brandaktuell; ihr lag ein authentischer Vorfall zugrunde, der in der öffentlichen Diskussion, die in der Nachkriegszeit über das neue Phänomen der Jugendkriminalität entflammt war, für zusätzlichen Wirbel gesorgt hatte. Brando besaß für Underdogs jeder Art große Sympathien und sah eine Chance, durch eine differenzierte Interpretation seiner Rolle die Ursachen der Rebellion sichtbar zu machen. Zur Vorbereitung studierte er die Sprache und das Auftreten der Mitglieder einer Motorrad-Gang, die in dem Film als Statisten und Nebendarsteller mitwirken sollten. Brando fuhr, wenngleich mit bescheidenem technischen Geschick, auch selbst Motorrad. Der auf dem Außengelände der Columbia in Burbank gedrehte und im Dezember 1953 uraufgeführte Film krankte daran, dass Brandos und Kramers soziale Analyse einerseits zu kurz griff und dass andererseits auch der Regie von Benedek, dem das ganze Sujet nicht lag, kein überzeugendes Konzept zugrunde lag. Obwohl der Film Brandos Image als „Rebell Hollywoods“ festigte, fand er bei der Kritik wenig Zustimmung, und auch Brando war von dem Ergebnis enttäuscht. "Helden". Um Schauspieler-Freunden aus New York, die arbeitslos geworden waren, zu einem Engagement zu verhelfen, regte Brando eine Bühneninszenierung von Shaws Komödie "Helden" an, die von Morton Gottlieb produziert wurde und in der er selbst nur eine kleine Nebenrolle spielte. Das Stück ging im Sommer 1953 in Neuengland auf Tournee. Da Brando weder gern Text lernte noch die Berufsroutine eines Theaterdarstellers mochte, war dies sein letzter Bühnenauftritt. "Die Faust im Nacken" (1953/1954). Schon seit 1952 hatte Elia Kazan gemeinsam mit dem Schriftsteller Budd Schulberg ein Filmdrama vorbereitet, das die Korruption in der Gewerkschaft der Dockarbeiter von New Jersey behandeln sollte. Aufgrund des sperrigen Themas fand das Projekt bei den Filmproduzenten zunächst kein Interesse; als „Retter“ erwies sich Sam Spiegel, dessen kleine Firma "Horizon" den Film schließlich produzierte. Spiegel nahm starken Einfluss auf das Drehbuch und verlangte, dass die männliche Hauptrolle mit Marlon Brando besetzt würde, der inzwischen von dem MCA-Agenten Jay Kanter vertreten wurde. Brando nahm das Angebot nur widerstrebend an, denn zwischen Kazan und ihm bestanden starke Spannungen, nachdem Kazan, der in der McCarthy-Ära auf der Schwarzen Liste stand, im April 1952 vor dem Komitee für unamerikanische Umtriebe (HUAC) eine Aussage gemacht hatte, durch die einige seiner Kollegen politisch schwer belastet worden waren. Der Film trug den Titel "On the Waterfront" (deutsch: "Die Faust im Nacken"). Brando spielte darin die Rolle von Terry Malloy, einem jungen Hafenarbeiter, dessen Bruder tief in die Machenschaften der korrupten Gewerkschaft verwickelt ist. Auf die Dreharbeiten, die am 17. November 1953 begannen, bereitete Brando, der zuletzt während seiner Schulzeit geboxt hatte, sich unter anderem mit Boxunterricht vor. Die Charakterisierung, die Brando der Figur des Terry verlieh, war außerordentlich komplex und umfasste delikate, feminine Züge ebenso wie schroffe, männliche Verhaltensweisen. Kazan zwang Brando erneut, vor der Kamera sein Innerstes preiszugeben – was dem Schauspieler sehr widerstrebte, dem Film jedoch einen Großteil seiner ungewöhnlichen Überzeugungskraft und Qualität gab. Kazan war darüber hinaus der einzige Regisseur, dem es gelang, Marlon Brando nicht nur zu effizienter Improvisation anzuregen, sondern diese Improvisation auch in geregelte Bahnen zu leiten und einem reifen Regiekonzept zweckdienlich unterzuordnen. Nach der US-amerikanischen Uraufführung im Juli 1954 wurde der Film von der Presse als Meisterwerk des filmischen Realismus begrüßt. Brando erhielt die besten Rezensionen seiner Karriere sowie mehrere wichtige Filmpreise, darunter auch seinen ersten Oscar. Filme 1954–1958. Nach Beendigung des Films "Die Faust im Nacken" unterzeichnete Brando einen Vertrag bei der 20th Century Fox. Er sollte die Titelrolle in dem Cinemascope-Großfilm "Sinuhe der Ägypter" spielen. Unter dem Eindruck der Talentlosigkeit seiner Leinwandpartnerin Bella Darvi und nach der ersten Begegnung mit dem Regisseur, Michael Curtiz, der dafür bekannt war, dass er mit Darstellern nicht gut kommunizierte, verlor Brando das Interesse an dem Projekt und brach im Januar 1954 den Vertrag. Für seine Karriere war diese Entscheidung verheerend, Brando geriet dadurch bei den Produzenten in Misskredit und stand von nun an für lange Zeit unter Druck, für oftmals niedrige Gagen in künstlerisch minderwertigen, aber kassenträchtigen Filmen mitzuwirken. "Desirée". Der erste Film dieser Reihe war ein weiterer Cinemascopestreifen der 20th Century Fox: der Historienfilm "Desirée", in dem Brando neben Jean Simmons in der Rolle des jungen Napoléon Bonaparte auftrat. Während der Dreharbeiten, die im März 1954 begannen, erwies Henry Koster sich als konzeptschwacher Regisseur, der Brando vor der Kamera weitgehend sich selbst überließ und damit die Verantwortung für eine wenig inspirierte Leistung seines Hauptdarstellers trug. "Schwere Jungs – leichte Mädchen". Anschließend bot Samuel Goldwyn Brando die Hauptrolle in "Schwere Jungs – leichte Mädchen" an. Der Film sollte die sehr teure Cinemascope-Fassung eines Musicals werden, die mit großem Erfolg auf dem Broadway gelaufen war. Da Musikfilme beim Publikum überaus stark nachgefragt waren, kalkulierte Goldwyn, dass Brando, der vor der Kamera noch nie zuvor gesungen oder getanzt hatte, dem Film zu einem Sensationserfolg verhelfen würde. Für 200.000 Dollar – eine der höchsten Filmgagen, die 1954 in Hollywood ausgezahlt wurden – nahm Brando das Angebot an und trat in dem Film neben Frank Sinatra in der Rolle eines New Yorker Spielers auf, der sich in eine Missionsschwester, Jean Simmons, verliebt. Brando, der bereits in früheren Jahren Tanzunterricht genommen hatte, bereitete sich auf die Rolle unter Zuhilfenahme eines Tanzlehrers vor, dem Choreografen Michael Kidd. Regie führte Joseph L. Mankiewicz, mit dem Brando bereits "Julius Caesar" gedreht hatte. Nach der Veröffentlichung im November 1955 war "Schwere Jungs – leichte Mädchen" beim Publikum wie erwartet äußerst erfolgreich. Das Branchenblatt Variety führte den Film, der mehr als 13 Millionen Dollar einspielte, als größten Kassenerfolg des Jahres 1955 auf. "Das kleine Teehaus". Ein Filmprojekt, das bei Brando größeres persönliches Interesse weckte, war die MGM-Produktion "Das kleine Teehaus", der ebenfalls ein erfolgreiches Broadway-Musical zugrunde lag. An der Seite von Glenn Ford spielte Brando darin einen Japaner, der den US-amerikanischen Besatzern am Ende des Zweiten Weltkrieges als Übersetzer zuarbeitet. Die Dreharbeiten fanden im Frühjahr 1956 in Japan statt. Brando, der zur Vorbereitung Bücher über die japanische Kultur gelesen und etwas Japanisch erlernt hatte, sah in dieser Rolle die Chance, Sympathien für die Idee zu gewinnen, dass das besiegte Japan nicht mit der Kultur der US-amerikanischen Besatzungsmacht überfremdet werden sollte. Obwohl Brando seinen Regisseur, Daniel Mann, diesmal selbst hatte wählen dürfen, war der fertige Film, der im November 1956 in die Kinos kam, eine Enttäuschung. Gründung der "Pennebaker Productions". In den 1950er Jahren gründeten viele Hollywoodstars – darunter Burt Lancaster, Frank Sinatra und Kirk Douglas – eigene Produktionsfirmen, um größere Kontrolle über ihre Filme zu erhalten. Aufgrund ihres geringen Kapitals standen diese Firmen jedoch unter großem Druck, Filme zu produzieren, die ihre Kosten an den Kinokassen wieder einspielten. Mit George Englund und seinem Vater als Partnern – später kamen George Glass und Walter Seltzer dazu – gründete auch Marlon Brando im Frühjahr 1955 seine eigene Produktionsfirma, die ihre Büros in den Räumlichkeiten der Paramount hatte. Die „Pennebaker Productions“ waren, ebenso wie andere Firmen dieser Art, aufgrund ihrer beschränkten Geldmittel meist auf die Zusammenarbeit mit größeren Produktionsgesellschaften angewiesen. "Sayonara". Der erste Film der "Pennebaker Productions" war das Liebesmelodram "Sayonara". Neben James Garner und Red Buttons und der unerfahrenen japanisch-US-amerikanischen Darstellerin Miiko Taka spielte Brando darin einen in Japan stationierten Offizier der US-amerikanischen Besatzungsmacht, der sich in eine einheimische Schauspielerin verliebt. Das auf einem Bestseller von James Michener und einer Broadway-Show basierende Drehbuch war voller ethnischer Stereotype, interessierte Brando aber dennoch, weil es die Möglichkeit bot, die Bigotterie der US-amerikanischen Besatzungspolitik anzuprangern, die den Frieden wollte, ihren Soldaten eine Fraternisierung mit den besiegten Japanern jedoch untersagte. Brando reizte auch das unter dem Production Code immer noch brisante Tabuthema der Liebe zwischen den Rassen; "Sayonara" wurde einer der ersten Hollywoodfilme, in denen die Liebe eines ostasiatisch-US-amerikanischen Paares ein Happy-End findet. Der Regisseur des Films, Joshua Logan, hatte sich empfohlen, weil er für seinen Film "Picnic" gerade einen Golden Globe erhalten hatte. Bei den Dreharbeiten für "Sayonara", die im Frühjahr 1957 in Japan stattfanden, enttäuschte er Brando jedoch, da er ihn bei der Gestaltung seiner Rolle weitgehend ohne Unterstützung ließ. "Sayonara" hatte im Dezember 1957 Premiere und obwohl die Kritik reserviert reagierte, blieb der Film bis zur Veröffentlichung von "Der Pate" (1972) der lukrativste, in dem Brando mitgewirkt hat. "Die jungen Löwen". Die Dreharbeiten für Brandos elften Film, "Die jungen Löwen" – eine 20th Century Fox-Produktion nach einem Bestseller von Irwin Shaw – begannen im Juni 1957. Regie führte Edward Dmytryk, der größte Teil der Dreharbeiten fand im Sommer 1957 in Paris und in Berlin statt. Brando stand hier zum ersten und einzigen Mal mit Montgomery Clift vor der Kamera: demjenigen seiner Schauspielerkollegen, mit dem Brando am häufigsten verglichen wurde und der – neben James Dean – sein schärfster Konkurrent in der Gunst des Publikums war. Gemeinsam zu sehen waren Brando und Clift dann jedoch nur in einer einzigen Szene, in der sie keinen Dialog miteinander hatten. Brando spielte in dem Film einen jungen Nazi-Offizier, und um den in Hollywood damals verbindlichen Stereotypen zu entsprechen, hatte er einen deutschen Akzent eingeübt und sein Haar bleichen lassen. Abweichend von der Romanvorlage und auch weit über das Drehbuch hinausgehend, charakterisierte er den jungen Deutschen jedoch als sympathische Figur und ließ ihn eine eindrucksvolle innere Entwicklung vom strammen NS-Gefolgsmann über einen Skeptiker bis hin zum tragischen Helden durchmachen. Nach der Uraufführung, die im April 1958 stattfand, wurde Brando für seine Darstellung zwar mit einem Laurel Award geehrt und für einen Britischen Filmpreis nominiert. Obwohl der Film auch beim Publikum erfolgreich war – "Die jungen Löwen" blieb für lange Zeit der letzte Film mit Marlon Brando, der viel Geld einspielte –, urteilte die US-amerikanische Filmkritik überwiegend ablehnend. "Der Besessene" (1958–1961). Nachdem die Firma viele Monate lang nur dem Namen nach existiert hatte und unter Druck der Steuerbehörde geraten war, nahmen die "Pennebaker Productions" ihre Tätigkeit 1958 wieder auf und bereiteten die Produktion dreier Filme vor, in denen Brando keine Rolle übernahm: "Händedruck des Teufels" (1959), "Ein Mann geht seinen Weg" und "Paris Blues" (beide 1961). In einem vierten Film, den "Pennebaker" mit Geldmitteln der Paramount produzieren wollten, sollte Brando als Hauptdarsteller mitwirken. Um der Produktion einen Kassenerfolg zu sichern, fiel die Wahl auf einen Westernstoff. Die Ausarbeitung des Skripts beanspruchte nacheinander mehrere Autoren und war auch bei Drehbeginn noch nicht abgeschlossen. Regie sollte Stanley Kubrick führen, der gerade "Die Rechnung ging nicht auf" inszeniert und sich damit als eines der bedeutendsten neuen Talente empfohlen hatte. Als es während der Produktionsvorbereitungen zwischen Brando und Kubrick zu Spannungen kam, wurde Kubrick jedoch wieder entlassen. Brando, der an Sets häufig recht selbstständig gearbeitet hatte, gewann den Eindruck, das Handwerk zu beherrschen, und beschloss daher, selbst Regie zu führen. Die Dreharbeiten in Monterey und Death Valley begannen im Dezember 1958. Neben Brando, der in der Rolle des Rio ein eindrucksvolles Portrait brüchiger Männlichkeit lieferte, spielten in dem Film Karl Malden und die in Mexiko damals sehr populäre Pina Pellicer. Brando betrieb das Projekt mit großem künstlerischen Engagement und Geschick, war mit der praktischen Organisation der Dreharbeiten jedoch überfordert. Die Dreharbeiten konnten erst im Juni 1959 abgeschlossen werden und trugen zu einer drastischen Überziehung des Budgets bei. Paramount, die mit Brandos geplanten Abschluss der Handlung nicht einverstanden waren, bestanden auf zusätzliche Aufnahmen für einen abgeänderten Schluss. Da Brando unverhältnismäßig viel belichtetes Filmmaterial erstellt hatte, zog sich auch die Postproduktion über viele Monate hin. Nach umfangreichen, von der Paramount verlangten Kürzungen kam "One-Eyed Jacks" (deutsch: "Der Besessene") erst im März 1961 in die Kinos. Obwohl die Kritik viel Lob aussprach und Brando für seine Darstellung auf dem Filmfestival San Sebastián mit dem Hauptpreis ausgezeichnet wurde, konnte der Film seine hohen Produktionskosten von 6 Millionen Dollar nicht einspielen. "Der Mann in der Schlangenhaut". 1957 stellte Tennessee Williams sein Schauspiel "Orpheus steigt herab" fertig, dessen Hauptrollen er Marlon Brando und Anna Magnani auf den Leib geschrieben hatte. Bei einer Bühnenproduktion des Stückes hatte Brando, der sich für Theaterrollen inzwischen nicht mehr interessierte, nicht mitwirken wollen. Seit 1958 bereiteten Martin Jurow und Richard Shepherd schließlich jedoch eine Verfilmung vor, die mit Mitteln der United Artists finanziert werden sollte. Für eine Million Dollar – eine Rekordgage, die bis dahin noch kein Hollywood-Star je erhalten hatte – erklärte Brando sich im Dezember 1958 bereit, darin mitzuwirken. Da auch Magnani zugesagt hatte und United Artist sich von dem Duo Brando-Magnani einen nie dagewesenen Kassenerfolg versprach, wurde die hohe Gage bewilligt. Für eine weitere Rolle hatte Joanne Woodward unterzeichnet. "Der Mann in der Schlangenhaut" wurde damit zum ersten Film in der Geschichte Hollywoods, in dem drei Hauptrollen mit Oscar-Hauptpreisträgern besetzt waren. Während der Dreharbeiten, die im Juni 1959 bei Poughkeepsie in Upstate New York begannen, erwies es sich jedoch, dass die teure Produktion unglücklich besetzt war. Persönliche Spannungen zwischen Brando und Magnani führten zu einem uninspirierten Spiel beider Stars. Während einer Vorabveröffentlichung des Films im Dezember 1959 reagierte das Publikum so ablehnend, dass der Film noch einmal umgeschnitten und gekürzt wurde. Auch nach der offiziellen Veröffentlichung im April 1960 waren die Rezensionen vernichtend, die Kinos blieben leer. Preise erhielt der Film lediglich auf dem Filmfestival San Sebastián, für Joanne Woodwards schauspielerische Leistung und für Sidney Lumets Regie. "Meuterei auf der Bounty". "Meuterei auf der Bounty" (MGM), Anfang der 1960er Jahre in Hollywood als eine der bis dahin aufwendigsten und teuersten Produktionen der US-amerikanischen Filmgeschichte entstanden, war das Remake eines Films aus dem Jahre 1935. Durch Detailtreue, Aufnahmen an Originalschauplätzen und durch einen der größten US-amerikanischen Filmstars – Marlon Brando – sollte die Neuverfilmung Spitzeneinnahmen erzielen. Die Dreharbeiten, die zum größten Teil auf den Inseln Tahiti und Bora Bora stattfanden, begannen Ende November 1960. Neben Trevor Howard und Richard Harris spielte Brando die Rolle des Fletcher Christian, eines Seeoffiziers, der in der historischen Meuterei an Bord des britischen Expeditionsschiffes Bounty eine Schlüsselrolle gespielt hatte. Brandos Interesse an dem Projekt hatte zwei Gründe. Einerseits brauchte er Geld, um den Sorgerechtsstreit zu führen, den er seit 1959 um seinen Sohn aus erster Ehe führte. Die mehr als 1,25 Millionen Gage, die MGM ihm anbot, kamen sehr gelegen. Andererseits interessierte ihn das Nachspiel der historischen Meuterei auf der Bounty, das in dem Film von 1935 anders behandelt wurde. Brando mischte sich in die Gestaltung des Drehbuchs und in die Regie ein und trug damit für einen Teil der Verzögerungen die Verantwortung, durch die das Budget am Ende deutlich überschritten wurde. Auch Carol Reed bekam Vorwürfe wegen Nichteinhaltung des Drehplans, aus diesem Grunde wurde er im Februar 1961 entlassen und durch Lewis Milestone ersetzt. Die eigentliche Verantwortung für das Ausufern der Produktion trug jedoch das Management der MGM, das den künstlerischen Stab mit relativ großer Entscheidungsfreiheit ausgestattet hatte. Anfang 1962 wurde von dem gefilmten Material ein Rohschnitt erstellt, mit dessen Filmende Brando jedoch nicht einverstanden war. Im August 1962 fanden unter der Regie von George Seaton Nachaufnahmen statt. Der Film kam im November 1962 in die Kinos. Während Harris und Howard positiv rezensiert wurden, hielt die Kritik Brando vor, er habe die Rolle des Fletcher Christian als reinen Exzentriker und Dandy interpretiert – ohne Tiefe und ohne Bezug zur dramatischen Handlung des Films. An den in- und ausländischen Kinokassen spielte der Film zwar 20 Millionen Dollar ein, die Produktionskosten hatten jedoch 30 Millionen Dollar betragen. MGM gerieten durch den Verlust in große Schwierigkeiten, und unter Filmhistorikern gilt "Meuterei auf der Bounty" mit als ein Film, der das Starsystem Hollywoods obsolet machte und schließlich beendete. Brando mit dem Schriftsteller James Baldwin beim "March on Washington", 1963 Filme 1962–1971. 1962 wurden die "Pennebaker Productions", die sich bereits seit 1961 in Schwierigkeiten befanden, für 1 Million Dollar von den Universal Studios aufgekauft. Marlon Brando musste sich darüber hinaus verpflichten, in fünf Produktionen der Universal mitzuwirken. Die Filme, die unter diesem Vertrag entstanden, waren künstlerisch von uneinheitlicher Qualität. Brando erwies sich darin häufig als fehlbesetzt oder zeigte nur schwache schauspielerische Leistungen. "Der hässliche Amerikaner". Der erste Film dieser Reihe, "Der hässliche Amerikaner", war eine vor dem Hintergrund des Kalten Kriegs entstandene Verfilmung des 1958 erschienenen "gleichnamigen" Politromans, der erzählt, wie die USA in einem vom Bürgerkrieg heimgesuchten südostasiatischen Land den Kampf gegen den Kommunismus verlieren. Brando spielte darin die Rolle eines intelligenten, gebildeten und eleganten US-amerikanischen Botschafters, der in dieser politischen Auseinandersetzung zwischen die Fronten gerät. Die Brisanz, die Brandos Interesse an dem Stoff zunächst erregt hatte, ging während der Dreharbeiten, die im Sommer 1962 unter anderem in Thailand stattfanden, wieder verloren; denn George Englund, den Brando selbst als Regisseur ausgewählt hatte, besaß in dieser Funktion keinerlei Erfahrung und inszenierte einen Film, der seine politische Aussage allzu schwerfällig und moralinsauer vortrug und auch visuell in keiner Weise ansprechend war. Nach der Kinopremiere im April 1963 hatte das Publikum an dem Film kaum Interesse. "Zwei erfolgreiche Verführer". In der Universal-Komödie "Zwei erfolgreiche Verführer", die den Erfolg von so frivolen Komödien wie "Bettgeflüster" und "Unternehmen Petticoat" fortsetzen sollte, spielte Brando mit David Niven als Partner einen Gigolo, der sich an der Riviera über alleinstehende Frauen hermacht. Brando wirkte in dem Film, der im Frühsommer 1963 gedreht wurde und im Juni 1964 in die Kinos kam, nur mit, weil er vertraglich dazu verpflichtet war und das Geld brauchte; er unternahm keinen Versuch, seiner Rolle, für die er nach Ansicht der Kritik völlig fehlbesetzt war, irgendeine Mehrdimensionalität zu verleihen. "Morituri". Dass Brando auch in dem Film "Morituri" mitwirken musste, hatte nichts mit seiner Verpflichtung gegenüber der Universal zu tun, sondern war noch eine Spätfolge seines Vertragsbruchs gegenüber der 20th Century Fox im Jahr 1954. "Morituri" war ein Kriegsspionagethriller, in dem Brando neben Yul Brynner, Trevor Howard und Janet Margolin einen deutschen Deserteur spielt, der vom britischen Geheimdienst erpresst wird, an der Auslieferung eines deutschen Blockadebrechers mitzuwirken. Während der Dreharbeiten, die im Herbst 1964 auf einem Frachtschiff des Zweiten Weltkriegs gemacht wurden und bei denen Bernhard Wicki Regie führte, entwickelte Brando weder an dem Film, der eine reine Abenteuergeschichte war, noch an der Figur des Robert Crain Interesse und spielte die Rolle so flach, dass seine Darstellung später vernichtend rezensiert wurde. Der Film, der im August 1964 herauskam, wurde von der Kritik lediglich aufgrund der Kameraarbeit von Conrad L. Hall gelobt. "Ein Mann wird gejagt". Im April 1964 unterzeichnete Brando zum zweiten Mal einen Vertrag für eine Rolle in einem Film von Produzent Sam Spiegel. In "Ein Mann wird gejagt" sollte er den jungen Sheriff einer texanischen Kleinstadt spielen, der einen entflohenen Häftling vor der Lynchjustiz der rassistischen Einwohnerschaft zu schützen versucht. Aufgrund der politischen Dimension der Handlung hatte Brando an dem Filmprojekt starkes persönliches Interesse und auch darüber hinaus waren die Voraussetzungen für die Produktion eines interessanten Films eigentlich günstig: neben Brando traten in "Ein Mann wird gejagt" so unkonventionelle junge Talente wie Jane Fonda, Robert Redford und Angie Dickinson auf; dazu kam, dass Regisseur Arthur Penn dafür bekannt war, dass seine Filme mit dem Mainstream nur wenig zu tun hatten. Bei den Dreharbeiten, die im Frühjahr und Sommer 1965 stattfanden, behandelte Penn seine Schauspieler mit großem Respekt und Brando lieferte ihm dafür viele interessante Ideen. Trotz des großen Engagements aller Beteiligten galt der Film jedoch als teilweise misslungen; vor allem erwies es sich als dramaturgisch schwierig, die Kritik an der Scheinheiligkeit der Kleinstadtbürger mit den Action-Elementen des Films zu einem konsistenten Gesamtkonzept zusammenzuführen. Weiteren inhaltlichen Zusammenhang büßte der Film ein, als Spiegel ihn ohne Abstimmung mit dem übrigen Team übereilt schneiden ließ. Über den fertigen Film, der im Februar 1966 uraufgeführt wurde, war Brando sehr unglücklich. "Südwest nach Sonora". Der dritte Film, in dem Brando im Rahmen seines Vertrages mit der Universal mitwirken musste, war "Südwest nach Sonora" (Originaltitel: "The Appaloosa"), ein Western, in dem Brando einen weißen Siedler spielen sollte, der einen mexikanischen Banditen jagt, der ihm sein Pferd gestohlen hat. Das Skript war unausgereift und Brando nahm die Rolle nur an, weil er die Gage benötigte. Die Dreharbeiten, die im August 1965 in St. George, Utah und Wrightsville, Kalifornien stattfanden, wurden durch Spannungen zwischen Brando und Regisseur Sidney J. Furie belastet. Nach der Premiere im September 1966 erhielten beide schlechte Kritiken. Brando wurde vorgeworfen, in der Figur des Matt Fletcher die Karikatur eines rauen Einzelgängers geliefert und damit die künstlerisch heikle Grenze zur Selbstparodie überschritten zu haben. In ihrem Essay "Marlon Brando: An American Hero" klagte Pauline Kael, Brando sei aus Enttäuschung über den Verlauf seiner Karriere und über das Ausbleiben künstlerischer Herausforderungen vom Rebellen zum Exzentriker degeneriert. "Die Gräfin von Hongkong". In der Universal-Komödie "Die Gräfin von Hongkong" sollte Brando einen US-amerikanischen Botschafter spielen, in dessen Schiffskabine eine vor der Zwangsprostitution fliehende russische Gräfin als blinde Passagierin Zuflucht sucht. Brando war über das Filmprojekt zunächst begeistert, da eines seiner größten Idole – Charlie Chaplin – Regie führen sollte. Während der Dreharbeiten in den Londoner Pinewood Studios, die im Januar 1966 begannen, kam es allerdings zu Spannungen zwischen Brando und seiner Partnerin Sophia Loren. Noch folgenreicher waren Konflikte, die sich auch zwischen Brando und Chaplin ergaben. Während Brando vor der Kamera sehr weiten Raum zur Improvisation benötigte, war Chaplin ein minuziös planender Choreograf, der seinen Darstellern ganz präzise Vorgaben machte. Brando war es extrem zuwider, zu imitieren, was man ihm vorgab. Da der 76-jährige Chaplin eine so ehrwürdige Institution war, fügte Brando sich zwar, lieferte jedoch eine bleierne und leblose Interpretation seiner Rolle, was ihm die Kritik nach der US-amerikanischen Kinopremiere im März 1967 sehr übel nahm. "Die Gräfin von Hongkong" gilt als einer der schlechtesten Filme Brandos und war auch der Schwanengesang von Chaplins Karriere. "Spiegelbild im goldenen Auge". Anfang der 1960er Jahre hatte Warner Bros. mit der Planung für die Adaption des gleichnamigen Romans von Carson McCullers begonnen. Die Vorbereitungen wurden zunächst wiederholt aufgeschoben. Einer der Gründe war das brisante Thema des Films: Neben Elizabeth Taylor sollte Brando darin die Rolle eines US-amerikanischen Offiziers spielen, der mit seiner unterdrückten Homosexualität ringt und auf dem Höhepunkt des Konflikts den sexuell ambivalenten Verehrer seiner Frau tötet. "Spiegelbild im goldenen Auge" sollte der erste Film in der Geschichte Hollywoods werden, der das Thema Homosexualität explizit behandelte. Da Brando fürchtete, sein ohnehin schon angeschlagenes Image könnte noch weiter beschädigt werden, zögerte er zunächst, die Rolle anzunehmen. Er erkannte dann jedoch, dass ihm die Darstellung dieses äußerst komplexen Charakters die Gelegenheit gab, sein jahrelang ungenutztes Talent wiederaufleben zu lassen. Während der Dreharbeiten, die im Herbst 1966 in Rom begannen, erwies es sich als Glücksfall, dass John Huston Regie führte: ein Mann, der es gewohnt war, seinen Schauspielern vor der Kamera soviel Freiraum wie möglich zu lassen. Brando ging ganz in der Rolle auf und arbeitete die Vielschichtigkeit des Charakters – Pendertons verdrängte Sexualität, seinen schwelenden Zorn und seine latente Gewalttätigkeit – genau heraus. Bei seiner Veröffentlichung im Oktober 1967 wurde der Film von Publikum und Kritik kühl aufgenommen, Huston hielt das ambitionierte Werk jedoch für eines seiner besten. "Candy". Der nächste Film, in dem Brando mitwirkte, die bizarre Sex-Farce "Candy," war kein von Anfang an wertloses Projekt. Terry Southern, der die Romanvorlage lieferte, hatte zuvor u.a. am Drehbuch für Kubricks preisgekrönten Film ' mitgeschrieben und Drehbuchautor Buck Henry hatte sich durch seine Mitwirkung an dem Film "Die Reifeprüfung" empfohlen. Nach dem Willen des Produktionsteams sollte der anspruchslose Film spaßig und fantasievoll werden sowie subversive Momente enthalten. Das Drehbuch sah eine Reihe von Cameo-Auftritten berühmter Stars vor, darunter von James Coburn, Walter Matthau, John Huston, Charles Aznavour, Richard Burton und eben Brando, der die Rolle eines sexsüchtigen indischen Gurus übernahm. Während der Filmaufnahmen, die im Winter 1967/68 in Rom stattfanden, erwies sich Christian Marquand – treibende Kraft bei "Candy" und ein enger Freund von Brando – jedoch als unerfahrener, konzeptschwacher Regisseur, durch dessen Versäumnisse der Film sein eh schon bescheidenes Potenzial endgültig verspielte und zu einem Tiefpunkt in Brandos Karriere wurde. "Die Nacht des folgenden Tages". Der Low-Budget-Thriller "Die Nacht des folgenden Tages" war der fünfte und letzte Film, in dem Brando mitwirken musste, um seine Verpflichtung gegenüber der Universal zu erfüllen. Mit blonder Perücke und schwarzem T-Shirt spielte er den Entführer einer jungen Erbin, der im letzten Augenblick moralisch geläutert wird und das Opfer vor seinen Komplizen (dargestellt von Richard Boone und Rita Moreno) rettet. Die Filmaufnahmen fanden im Herbst 1967 in der Bretagne statt und litten unter der Unerfahrenheit des Drehbuchautors und Regisseurs, Hubert Cornfield, der kein tragfähiges Regiekonzept hatte und auf Druck von Brando schließlich entlassen und durch Boone ersetzt wurde. Nach der US-Premiere im Januar 1969 wurde "Die Nacht des folgenden Tages" wegen der schwachen Schauspielerleistungen von der Kritik verrissen, und Brando wirtschaftete mit diesem Film seinen Ruf so herunter, dass ihn nun keines der großen Filmstudios in Hollywood mehr beschäftigen wollte. "Queimada". 1968 bot Alberto Grimaldi, der wenig später als Produzent bedeutender Filme von Federico Fellini und Pier Paolo Pasolini hervortreten sollte, Brando die Hauptrolle in der italienisch-französischen Koproduktion "Queimada" an. Grimaldi sah Brando für die Rolle von Sir William Walker vor, eines Gesandten der britischen Regierung, der im 19. Jahrhundert auf einer fiktiven karibischen Zuckerrohrinsel einen Sklavenaufstand anzetteln soll, um die portugiesische Kolonialmacht zugunsten der britischen zu verdrängen. Da die ausdrückliche politische Aussage des Drehbuchs Brando sehr entgegenkam und der Regisseur, Gillo Pontecorvo, ein erfahrener Experte für politische Filme war, hätte das Projekt eigentlich unter einem guten Stern stehen sollen. Die Dreharbeiten, die im November 1968 in Kolumbien begannen, litten jedoch unter einer ganzen Reihe von Plagen und Problemen. Die Arbeit der Drehcrew wurde durch Insekten, Hitze, verdorbenes Essen und Durchfall behindert, dazu kam eine ständige Bedrohung von Überfällen durch bewaffnete Räuber. Pontecorvo erwies sich als straff arbeitender Regisseur, der sich genau ans Skript hielt, was mit Brandos Arbeitsstil inkompatibel war und ihm die Lust an dem Film verdarb. Brando brach die Arbeit schließlich ab, fuhr nach Hause und forderte, die Arbeit solle an einem anderen, erträglicheren Drehort fortgesetzt werden. Im Juli 1969 zog das Aufnahmeteam nach Marokko um, wo "Queimada" nach Brandos Rückkehr fertiggedreht werden konnte. Die Verzögerungen und der Wechsel des Drehorts verursachten freilich hohe Kosten, deretwegen Grimaldi Brando später auf 700.000 Dollar Schadensersatz verklagte. Nach der Kinopremiere, die in Italien Ende 1969, in den USA im Oktober 1970 stattfand, kritisierte die Presse den Helden, den Brando in dem Film verkörperte, als allzu konventionell. Dessen ungeachtet fand Brando "Queimada" wunderbar und rühmte ihn als seinen bis dahin besten Film. "Das Loch in der Tür". In dem britischen Low-Budget-Film "Das Loch in der Tür", einem psychologischen Thriller, dessen Handlung um 1900 auf einem einsamen englischen Landsitz spielt, wirkte Brando mit, weil er Geld brauchte und keine andere Wahl hatte. Brando spielte darin die Rolle eines vierschrötigen Gärtners, der mit der schönen Gouvernante (Stephanie Beacham) ein sado-masochistisches Verhältnis unterhält und mit diesem unguten Vorbild bei den zwei Waisen, die in dem Haus aufwachsen, die Saat des Bösen legt, was schließlich zu einem Doppelmord führt. Die Dreharbeiten fanden zu Beginn des Jahres 1971 in der Nähe des englischen Cambridge statt. Da das Skript zweitklassig und Regisseur Michael Winner frei von künstlerischer Ambition war, entwickelte Brando an seiner Rolle keinerlei Interesse und spielte sie ohne Engagement, verhielt sich – ganz entgegen seiner sonstigen Gewohnheit – während der Aufnahmen jedoch mustergültig kooperativ, da die Paramount ihn mit großer Skepsis inzwischen für den Film "Der Pate" ausgewählt hatte und Brando wusste, dass sein Verhalten während der Dreharbeiten für "Das Loch in der Tür" ganz genau beobachtet wurde. "Der Pate" (1971–1972). Anfang 1969 veröffentlichte Mario Puzo seinen Mafia-Roman Der Pate. Im September 1969 beschloss die Paramount eine Verfilmung des Bestsellers und beauftragte Puzo mit dem Drehbuch. Da ein kurz zuvor herausgebrachter Mafia-Film – "Auftrag Mord" mit Kirk Douglas – gefloppt war, beabsichtigte die Paramount zunächst nur einen Low-Budget-Film zu drehen und wählte als Regisseur den jungen und bis dahin kaum bekannten Francis Ford Coppola aus, der sich für das Projekt nicht zuletzt deshalb empfahl, weil er italienische Vorfahren hatte und Sinn für das spezielle Kolorit des Films versprach. Im Laufe der Produktionsvorbereitungen erwies sich Coppola allerdings als ein Mann mit Durchsetzungsvermögen und eigenständigem Regiekonzept, der unter anderem eine grundlegende Bearbeitung des Drehbuchs durchsetzte. Puzo hatte Brando bereits Ende 1969 vorgeschlagen, die Rolle des Mafia-Bosses Don Vito Corleone zu spielen, Brando zweifelte zunächst jedoch, ob er einen 65-jährigen Mann überzeugend darstellen könne. Auch Coppola wollte Brando und setzte sich im Februar 1970 mit seiner Entscheidung schließlich gegen den Widerstand der Paramount durch. Die Dreharbeiten zu "Der Pate", die nach Coppolas Willen in New York und Umgebung stattfanden, begannen im März 1971. Da es Coppolas Eigenart war, Anregungen, die seine Darsteller während der Aufnahmen vorbrachten, sehr bereitwillig aufzugreifen, gestaltete sich die Zusammenarbeit zwischen Brando und Coppola vertrauensvoll und ergiebig. Der Regisseur und sein Hauptdarsteller stimmten auch darin überein, dass "Der Pate" nicht in erster Linie ein Mafiafilm sei, sondern vom US-amerikanischen Kapitalismus handele, der das organisierte Verbrechen zulasse, weil er selbst Nutzen daraus ziehe. Die Rolle des Mafia-Paten lag Brando außerordentlich, die Themen Macht und Kontrolle hatten ihn zeitlebens beschäftigt, und die Grundidee für die Charakterisierung des Don Vito, der er von nun an wie einem roten Faden folgte, kam Brando beim Anhören von Stimmaufnahmen des (realen) Gangsters Frank Costello, der eine überraschend hohe Stimme hatte. Brando und Coppola verstanden, dass wirklich machtvolle Menschen nicht laut zu werden brauchen, und Brando spielte den Don mit hoher, feiner, asthmatischer Stimme. Brandos Pate war ein vielschichtiger Charakter: ein erbarmungslos mordendes Monster, ein Mann mit bürgerlichen Werten, ein liebevoller Großvater, ein sterblicher alter Mann in einer harten Schale aus Macht und Kontrolle. Das Problem, den 46-jährigen Brando für die Kamera um zwanzig Jahre altern zu lassen, half der Maskenbildner Dick Smith zu beheben, der für den Film "Little Big Man" kurz zuvor den 32-jährigen Dustin Hoffman als 121-jährigen Greis geschminkt hatte. Brandos Vertrag mit der Paramount sah neben 50.000 Dollar Festgage eine Gewinnbeteiligung vor, die Brando, als er im Sommer 1971 akut Geld benötigte, neu verhandelte und gegen eine Einmalzahlung von 100.000 Dollar tauschte. Diese Entscheidung erwies sich später als unglücklich, denn nach der Premiere des Films am 15. März 1972 war die Resonanz von Publikum und Kritik überwältigend, und allein innerhalb der ersten 26 Tage spielte "Der Pate", dessen Produktion 6,2 Millionen Dollar gekostet hatte, 26 Millionen Dollar ein. Den Oscar, den er am 27. März 1973 für seine Darstellung des „Paten“ erhalten sollte, nahm Brando nicht an. Stattdessen erklärte die Ureinwohnerin und Schauspielerin Sacheen Littlefeather, die er als Sprecherin zur Oscar-Verleihung entsandt hatte, Brando wolle mit dieser Geste auf die unterdrückten Bürgerrechte der Indianer und besonders auf die Protestaktionen aufmerksam machen, die seit Ende Februar in Wounded Knee stattfanden. "Der letzte Tango in Paris" (1972). Aus akuten finanziellen Gründen sagte Brando 1972 seine Mitwirkung in einer Produktion der Paramount zu, die den Titel "Child’s Play" tragen und von zwei Lehrern (Marlon Brando und James Mason) eines exklusiven katholischen Internats handeln sollte, deren Rivalität zu dramatischen Ereignissen führt. Während der Dreharbeiten, die im Herbst 1972 in New York begannen und von Sidney Lumet geleitet wurden, verlangte Brando, dass das Drehbuch umgeschrieben und die Aufnahmen an einem anderen Ort durchgeführt werden sollten, woraufhin der Produzent David Merrick Brando kurzerhand entließ und ihn durch den Schauspieler Robert Preston ersetzte. Im Laufe des Jahres 1971 entwickelten Luigi Luraschi, Chef der Paramount in Rom, und der 31-jährige Regisseur Bernardo Bertolucci das Konzept für den italienisch-französischen Film, der später unter dem Titel "Der letzte Tango in Paris" berühmt wurde. Das Drehbuch war Marlon Brando auf den Leib geschrieben, Brando unterzeichnete den Vertrag jedoch erst im November 1971 nach Verhandlungen mit Alberto Grimaldi, der den Film koproduzieren wollte. Grimaldi erhob seit der Produktion des Films "Queimada" nämlich hohe Schadensersatzforderungen gegen Brando, die er anbot fallen zu lassen, wenn Brando die Rolle übernähme. "Der letzte Tango in Paris" erzählt die Geschichte eines von Weltschmerz erfüllten, desillusionierten und verzweifelt einsamen Mannes, der nach dem Tode seiner Frau besessen ist von einer schönen Studentin (Maria Schneider), mit der er in einer leeren Wohnung anonymen Sex hat, bei dem er sie dominiert und unterwirft. Obwohl "Der letzte Tango in Paris" später als Meisterwerk des erotischen Films gepriesen wurde, ging es Bertolucci nicht um Erotik, sondern darum, einen Mann in sexueller Obsession, in Isolation, Trauer, Schmerz und Verzweiflung zu zeigen. Die zehnwöchigen Dreharbeiten fanden in Paris statt und begannen im Februar 1972. Bertolucci benutzte das Skript nur als groben Leitfaden, der Brando in die richtige Stimmung versetzen sollte, um im Sinne des "Method Acting" aus seinem eigenen emotionalen Reservoir zu schöpfen. Bertolucci gab Brando breiten Raum zur Improvisation – ganze Szenen des Films sind improvisiert –, in der auf geradezu klinische Weise die Seelenlage des Protagonisten ausgelotet wird. Wie in den besten seiner früheren Filme verlieh Brando dem Charakter des Paul eine extreme Vielschichtigkeit und eine Zerrissenheit, unter der ein tiefes existentielles Dilemma erkennbar wurde. Paul benutzte Sex als Waffe, um seiner unterschwellig brodelnden Wut Luft zu machen und um Rache zu üben an sozialen Konventionen; daneben zeigte er jedoch Momente von Zartheit und Schmerz, die mit seinem Frauenhass in einem beunruhigenden Kontrast standen. "Der letzte Tango in Paris" war ein sehr intimer Film, in dem Brando mehr von seiner Persönlichkeit preisgab als in irgendeinem anderen Film. Nach der Uraufführung, die am 14. Oktober 1972 auf dem "New York Film Festival" stattfand, wurde der Film von der Kritik enthusiastisch gefeiert. Veranlasst durch seine sexuelle Explizitheit entstand jedoch eine öffentliche Kontroverse, mit der die Produzenten nicht gerechnet hatten. Während beispielsweise die Filmkritikerin Pauline Kael urteilte, "Der letzte Tango in Paris" sei „der packendste erotische Film, der je gemacht worden ist“, fanden die italienischen Behörden den Film obszön und reichten gegen Grimaldi, Bertolucci, Brando und Schneider Klage ein, die schließlich vom Gericht abgewiesen wurde. Als der Film daraufhin erst Anfang 1973 in die Kinos kam, waren die Erwartungen des Publikums stark angeheizt. Die Meinungen gingen dann weit auseinander; viele Zuschauer und Kritiker fanden den Film pornografisch; andere, die ihn mit echten Pornos verglichen, fanden ihn langweilig. Besonders scharf wurde "Der letzte Tango in Paris" von feministischen Kritikern verurteilt. Den Produktionskosten von 1,4 Millionen Dollar standen jedoch Einspielergebnisse in Höhe von 45 Millionen Dollar gegenüber; Marlon Brando hat an dem Film mindestens 4 Millionen Dollar verdient. Zwei der namhaftesten US-amerikanischen Kritikervereinigungen – die National Society of Film Critics und der New York Film Critics Circle – zeichneten seine schauspielerische Leistung mit ihrem Hauptpreis aus. "Duell am Missouri". Nach dem ungeheuren Erfolg von "Der Pate" und "Der letzte Tango in Paris" hätte Marlon Brando eigentlich jede Rolle auswählen können, die ihn künstlerisch interessiert hätte. Stattdessen begann er, sich auf Cameo-Auftritte zu beschränken, die er sich – was die Kritik ihm sehr verübelte – zum Teil extrem gut bezahlen ließ. Ein erheblicher Teil dieser Einnahmen floss in die Kassen der Sachverständigen, die Brando bei der Projektplanung auf Tetiaroa (siehe weiter unten) berieten. Der erste Film in dieser Reihe war der von Arthur Penn inszenierte Western "Duell am Missouri", in dem Brando neben Jack Nicholson einen brutalen Kopfgeldjäger spielen sollte. Während der Dreharbeiten, die im Sommer 1975 in Montana stattfanden, erwies es sich als Problem, dass das Drehbuch noch voller Unstimmigkeiten war. Brando bemühte sich um Verbesserungen am Skript, war über die mangelnde Kontrolle, die Regisseur Penn über die Produktion ausübte, schließlich jedoch so entnervt, dass er am Set – wie bereits in früheren, ähnlichen Fällen – zu querulieren begann und die Rolle des Clayton als Exzentriker spielte, mit irischem Akzent sprach und mit kleinen Gags, die zum Film eigentlich keinerlei Bezug hatten, den anderen Mitwirkenden die Show stahl. Für seine Mitwirkung hatte Brando neben einer Gewinnbeteiligung eine Festgage von 1,25 Millionen Dollar vereinbart – ein damals ungewöhnlich hoher Betrag. "Duell am Missouri", dessen Uraufführung im Mai 1976 stattfand, wurde ein künstlerischer und kommerzieller Misserfolg, gilt jedoch als derjenige Film, in dem Brando zum letzten Mal einen Rest von Originalität und Brillanz gezeigt hat. "Apocalypse Now". Im Jahre 1975 bereitete Francis Ford Coppola die Verfilmung von Joseph Conrads Roman "Herz der Finsternis" vor, der mit einem authentischen Bericht aus dem Vietnamkrieg verarbeitet werden sollte, den der US-Offizier Robert B. Rheault geschrieben hatte. Coppola war sowohl Produzent als auch Regisseur und wollte mit "Apocalypse Now" sein Meisterwerk schaffen. Um aus dem Stoff einen Antikriegsfilm zu erschaffen, mussten die Vorlagen umgearbeitet und der Akzent von Rheault (im Film: Kilgore, dargestellt von Robert Duvall) auf Kurtz verlagert werden: der Figur, die Coppola mit Marlon Brando besetzen wollte. Kurtz war ein Colonel der US-Streitkräfte, der, von Perfektionismus und absolutem Handlungswillen getrieben, am hilflosen und unkoordinierten Militäreinsatz der US-Armee zerbricht. Sein grenzenloser Hass und Frust gegenüber der allgemeinen Kriegssituation und der Führung der US-Streitkräfte führen schließlich sogar zu einer Abkehr von seiner Familie und seinen militärischen Aufgaben. Im Dschungel Kambodschas führt er den Krieg nach seinen eigenen Gesetzen mit Hilfe von Deserteuren und der indigenen Bevölkerung, die ihn als „Gottheit“ verehren und jeden noch so unmenschlichen Befehl befolgen. Nach langem Zögern erklärte Brando sich im Februar 1976 bereit, die Rolle für eine Gage von 3,5 Millionen Dollar zu übernehmen. Als die Dreharbeiten, die im März 1976 auf den Philippinen begonnen hatten, sich unerwartet in die Länge zogen, geriet Coppola in Finanzierungsschwierigkeiten und verhandelte mit Brando neu. Der gab sich mit einer Festgage von 1 Million Dollar zufrieden, sollte nun jedoch eine Gewinnbeteiligung erhalten. Als Brando, der bis dahin am Set nicht gebraucht worden war, im Oktober 1976 auf den Philippinen eintraf, war Coppola konsterniert über dessen körperliche Erscheinung. Bereits seit den Dreharbeiten zu "Schwere Jungs – leichte Mädchen" hatte Brando mit seinem Gewicht zu kämpfen gehabt, inzwischen wog er jedoch mehr als 110 kg und war auch gesundheitlich in schlechter Verfassung. Während Brando seine Korpulenz vor der Kamera gern kaschieren wollte, schlug Coppola dann vor, sie im Gegenteil für die Charakterisierung der Figur zu nutzen und Kurtz als Sybariten zu porträtieren. Schließlich einigten sie sich darauf, dass Kurtz als zwei Meter hoher Riese von geradezu mythischen Proportionen gefilmt werden sollte. Doch auch nach diesem Kompromiss blieben Brando und Coppola sich uneinig über Kurtz’ Charakter. Während Brando sich wünschte, Kurtz als einen Soldaten zu spielen, der sich vom Krieg abwendet, nachdem er seine persönliche Schuld daran eingesehen hat, wollte Coppola absolut keinen Film zum Thema Kriegsschuld drehen; ihm schwebte stattdessen vor, Kurtz als heruntergekommenen und wahnsinnig gewordenen, ungeschlachten Dschungel-Einsiedler zu charakterisieren. Die Arbeit mit Brando war im Oktober 1976 abgeschlossen, die weiteren Aufnahmen zogen sich jedoch noch bis in den Mai 1977 hin. Nach einer ebenso langwierigen Postproduktion lag im Mai 1979 ein Workprint vor, der auf den Internationalen Filmfestspielen von Cannes gezeigt werden konnte und dort – gemeinsam mit Volker Schlöndorffs "Die Blechtrommel" – die Goldene Palme gewann. Im August 1979 kam "Apocalypse Now" auch in den USA in die Kinos, wobei die Kritik über Brandos Darstellung meist wenig Worte verlor. Seine hohen Drehkosten von fast 27 Millionen Dollar (ohne Postproduktion) spielte der Film jedoch in kurzer Zeit ein. Da Brando glaubte, von Coppola über die Höhe der Einnahmen getäuscht worden zu sein, strengte er eine Klage an, die 1984 zu seinen Gunsten entschieden wurde. "Superman". Im Dezember 1976 unterzeichnete Brando einen Vertrag mit dem Produzenten Alexander Salkind, in dem er sich zur Mitwirkung in den beiden Comic-Verfilmungen "Superman" und "Superman II" bereit erklärte. Die Dreharbeiten beider Filme fanden gleichzeitig statt, und für Brando begann die nur zwölftägige Arbeit im März 1977 in den Londoner Shepperton-Studios. In wallender Robe und feierlich deklamierendem Ton spielte er den Vater des vom Planeten Krypton stammenden Titelhelden (dargestellt von Christopher Reeve). Brando verband mit dem Film keinerlei künstlerische Interessen und hatte seine Zusage nur wegen der Gage gegeben, die 3,7 Millionen Dollar betragen sollte (inflationsbereinigt entspräche dies heute ca. 11 Millionen Dollar). Salkind hatte ihm überdies eine Gewinnbeteiligung zugesagt. Nach dem Kinostart, der im Dezember 1978 stattfand, spielte "Superman" allein in den ersten 31 Tagen 64,4 Millionen Dollar ein. Die Kritik lobte die Produktion, beanstandete jedoch die hohe Gage, die Brando für seinen nur 15-minütigen Leinwandauftritt erhalten hatte. Der indes gewann bald den Eindruck, dass Salkind ihn über die wirklichen Kinoeinnahmen täuschte, und erhob Klage, woraufhin Salkind die Szenen, die mit Brando für "Superman II" gedreht worden waren, nicht mehr verwenden ließ. Erst 1982 gestand Salkin und Warner Bros. Brando einen Gewinnanteil von geschätzten 10 bis 15 Millionen Dollar zu. Zu sehen waren die in "Superman II" nicht verwendeten Szenen mit Brando erst in einer 2006 erschienenen Videofassung. "Roots" und "Die Formel". Im Frühsommer 1978 bot Brando Alex Haley an, eine kleine Rolle in der Fernsehserie "Roots – Die nächsten Generationen" zu übernehmen. Der Produzent der Serie schlug daraufhin vor, Brando die kleine Rolle des US-amerikanischen Nazi-Führers George Lincoln Rockwell zu geben, was Brando gefiel, weil er mit dieser Rolle gegen seinen Typ besetzt wurde. Die Dreharbeiten für Episode 7, in der Brando mitwirkte, fanden im Dezember 1978 statt. Gesendet wurde die Staffel in den USA von Februar 1979 an. Im September 1979 wurde Brando für seinen kleinen Auftritt mit einem Emmy ausgezeichnet. Bereits im September 1977 hatte Brando seine Mitwirkung in dem MGM-Film "Die Formel" angekündigt, dessen Produktion sich dann jedoch verzögerte und erst im Dezember 1979 begann. Für eine Gage von 3 Millionen Dollar und eine Gewinnbeteiligung spielte Brando darin die Rolle eines Ölbarons, der mit allen Mitteln eine Erfindung zu unterdrücken sucht, durch die der Rohstoff Erdöl überflüssig würde. An der Seite des Oscar-Trägers George C. Scott und unter der Regie von John G. Avildsen spielte Brando den dicken, alternden Tycoon mit einer Hörhilfe, die er am Set tatsächlich dazu benutzte, um sich seinen Text einsagen zu lassen. Brando hat nie gern Dialoge einstudiert, und "Die Formel" war der erste Film seit mindestens zehn Jahren, in dem er keine Spickzettel verwendete. Nach dem Kinostart im Dezember 1980 fand der Film beim Publikum wenig Anklang, auch die Kritik fand ihn düster, verwirrend und langweilig. "Weiße Zeit der Dürre". In den Jahren von 1981 bis 1983 hat Brando mehrere Filmrollen trotz beträchtlicher Gagenangebote abgelehnt; unter anderem hatte er Pablo Picasso, Al Capone und Karl Marx darstellen sollen. Gemeinsam mit dem Regisseur Donald Cammell schmiedete Brando 1982 Pläne für einen in Polynesien angesiedelten Abenteuerfilm "Fan Tan", von dem er sich jedoch zurückzog, bevor das Projekt umgesetzt werden konnte. In derselben Zeit erteilte er – zum einzigen Mal in seiner Karriere – Schauspielunterricht; sein Schüler war der Pop-Sänger Michael Jackson, der Brando sehr bewunderte und ihm 2001 eine kleine Rolle in seinem Musikvideo "You Rock My World" gab. Ebenso wie "Fan Tan" wurden auch drei weitere Filmideen, mit denen Brando sich in den Jahren 1984 bis 1988 beschäftigte ("Jericho", "Sand Creek Massacre", "The Last King"), schließlich aufgegeben. Anfang 1988 unterzeichnete Brando nach achtjähriger Drehpause erstmals wieder einen Filmvertrag. In dem von Paula Weinstein produzierten Apartheid-Drama "Weiße Zeit der Dürre" spielte er neben Donald Sutherland, Janet Suzman und Susan Sarandon die Rolle eines südafrikanischen Rechtsanwalts, der auf Seiten der Gegner der Rassentrennung kämpft. Die Dreharbeiten, die in London stattfanden, wurden von Euzhan Palcy geleitet, die bekannt wurde als erste farbige Regisseurin Hollywoods. Da für den engagierten Film nur wenig Geld zur Verfügung stand, war Brando bereit, für eine Gage von nur 4.000 US-Dollar mitzuwirken, die er überdies einer Anti-Apartheid-Organisation spenden wollte. "Weiße Zeit der Dürre" kam am 22. September 1989 heraus und brachte Marlon Brando zum letzten Mal in seiner Karriere einen Preis (auf dem Internationalen Filmfestival Tokio) und eine Oscar-Nominierung ein. "Freshman". Ende August 1989 unterzeichnete Brando bei der TriStar für eine Rolle in Andrew Bergmans Filmlustspiel "Freshman". Brando sollte in diesem Film einen zwielichtigen New Yorker Geschäftsmann darstellen, der einen arglosen Studenten (Matthew Broderick) „adoptiert“ und in die Welt des professionellen Verbrechens einführt. Nachdem er seit 1975 fast nur noch Cameo-Auftritte bestritten hatte, war die Rolle des Mafiosos Sabatini größer angelegt und sollte Brando ein Comeback ermöglichen. Während der Dreharbeiten, die in New York und in Toronto stattfanden und im Juni 1990 begannen, kam es zwischen Brando und den Produzenten des Films jedoch zu Auseinandersetzungen, unter denen die Qualität des Films schließlich litt. Nach der Veröffentlichung von "Freshman" im Juli 1990 lobte die Kritik – die Brandos Comeback offensichtlich ermutigen wollte – zwar die Leichtigkeit und Verspieltheit, mit der Brando den Charakter des „Paten“ parodiert hatte, an den Kinokassen war "Freshman" jedoch weniger erfolgreich als erhofft. "Christopher Columbus – Der Entdecker". Als sein Sohn Christian 1990 wegen Mordes vor Gericht stand und seine Tochter Cheyenne schwer erkrankte, benötigte Brando für Rechtsanwälte, Privatdetektive, Bodyguards, Flugtickets und Ärzte erneut viel Geld. Als Alexander und Ilya Salkind ihm im November 1991 einen Cameo-Auftritt in dem spanisch-britisch-US-amerikanischen Abenteuerfilm "Christopher Columbus – Der Entdecker" anboten, nahm er bereitwillig an. Die Dreharbeiten mit Brando fanden im Januar 1992 in Madrid statt. Regie führte John Glen. Die Hauptrollen in diesem Abenteuerfilm, der von der Kritik nach dem Kinostart im August 1992 als „monumental langweilig“ verrissen wurde, spielten Georges Corraface, Tom Selleck, Rachel Ward und Catherine Zeta-Jones. "Don Juan DeMarco". Im Februar 1994 unterzeichnete Brando Verträge mit New Line und mit Coppolas American Zoetrope für eine Rolle in Jeremy Levens Liebeskomödie Don Juan DeMarco. Neben Johnny Depp und Faye Dunaway sollte er darin einen alternden Psychiater spielen, dessen letzter Patient ein junger Mann ist, der sich für den berühmten Verführer Don Juan hält. Der Clou der Geschichte liegt darin, dass nicht der Arzt den Patienten „kuriert“, sondern umgekehrt der Patient die Romantik, die im Leben des Arztes schon fast untergegangen ist, zu neuem Leben erweckt. "Don Juan DeMarco" kam in den USA im April 1995 heraus und fand beim Publikum großen Anklang. Weniger für Brando war der Film eher ein Vehikel für Depp, der für seine Darstellung 1996 mit dem "London Critics Circle Film Award" ausgezeichnet wurde. "Die Insel des Dr. Moreau". Wieder für New Line wirkte Brando anschließend in dem Film "DNA – Die Insel des Dr. Moreau" mit, einer Adaption des gleichnamigen Romans von H. G. Wells. Neben David Thewlis und Val Kilmer spielte Brando in diesem Science-Fiction-Film einen Wissenschaftler, dessen Versuche, menschliche DNA mit tierischer zu verbinden, unbeherrschbare Bestien hervorbringen. Während der Dreharbeiten, die unter der Regie von John Frankenheimer in Australien stattfanden und im September 1995 begannen, war Brandos Arbeit von der Trauer um seine Tochter Cheyenne überschattet, die sich im Frühjahr umgebracht hatte. Die Kritiken für den Film, der im August 1996 herauskam, waren vernichtend. "The Brave". 1996 wirkte Brando zum zweiten Mal in einem Film mit Johnny Depp mit, der diesmal nicht nur am Drehbuch mitgearbeitet hatte, sondern auch selbst Regie führte: "The Brave". Brando spielte in diesem von Jeremy Thomas produzierten Film, dessen Titel „Der Tapfere“ bedeutet, einen reichen weißen Snuff-Film-Produzenten, der einem unter elenden Bedingungen lebenden Indianer 50.000 Dollar anbietet, wenn er sich vor laufender Kamera foltern und töten lässt; der allegorische Film zeigt jedoch nicht den Tod des Indianers, sondern die letzten sieben Tage seines Lebens. Bereits seit den 1950er Jahren hatte Brando immer wieder Pläne für die Produktion eines sozialkritischen Indianerfilms geschmiedet, die jedoch stets gescheitert waren; der Film "The Brave" stellt die späte Verwirklichung dieses Planes dar. Die Dreharbeiten fanden im September 1996 in Los Angeles und in Ridgecrest, Kalifornien statt, und Depp war seit Bertolucci der erste Regisseur, mit dem sich für Brando eine harmonische und vertrauensvolle Zusammenarbeit ergab. "The Brave" wurde am 10. Mai 1997 auf dem Filmfestival Cannes uraufgeführt und für die Goldene Palme nominiert. Die Kritiker – vor allem die US-amerikanischen – lehnten den Film jedoch ab, was Depp veranlasste, einer Vermarktung in den USA nicht zuzustimmen. Dem US-amerikanischen Publikum ist "The Brave" bis heute nur als Importvideo zugänglich. "Free Money". 1998 stand Brando in der kanadischen Provinz Québec für eine Filmproduktion der kleinen "Filmline International" vor der Kamera, Regie führte der international wenig bekannte Franko-Kanadier Yves Simoneau. Free Money (deutsche Bedeutung des Titels: "Kostenloses Geld") war eine schwarze Filmkomödie über einen skrupellosen Gefängnisdirektor (Brando), der zwei Taugenichtse in eine Ehe mit seinen beiden Töchtern zwingt und so unter Druck setzt, dass sie, um sich Geld für die Flucht zu beschaffen, einen Zug ausrauben. Obwohl neben Brando so hochbegabte Darsteller wie Charlie Sheen, Mira Sorvino und Donald Sutherland mitwirkten, gilt "Free Money" als einer seiner schwächsten Filme. Der am 3. Dezember 1998 in Singapur uraufgeführte Streifen kam in den USA nie in die Kinos. "The Score". Seine letzte Filmrolle übernahm Brando im Jahre 2000. Ebenso wie "Free Money" wurde auch "The Score" in Québec gedreht. Regisseur des Films war Frank Oz, der in den 1970er Jahren als Mitschöpfer der Muppet Show bekannt geworden war. "The Score" (der Titel bedeutet auf Deutsch etwa „Coup“ oder „Ding“ im Sinne von „Dinger drehen“) war ein Heist-Movie über einen alternden Meisterdieb (Robert De Niro), der von seinem ehemaligen Partner (Brando) zum Diebstahl an einem kostbaren antiken Königsszepter überredet wird. Ein Großteil der Dialoge zwischen Brando und De Niro, die als Schauspieler viele Gemeinsamkeiten besaßen, war improvisiert. In weiteren Rollen traten Edward Norton und Angela Bassett auf. Als "The Score" im Juli 2001 uraufgeführt wurde, war ein Großteil der Kritiker enttäuscht, dass der Film nicht ganz hielt, was die hochkarätige Besetzung eigentlich versprochen hatte. Berichte machten die Runde, dass Brando sich geweigert habe, am Set zu erscheinen, solange Regisseur Frank Oz anwesend war. Letzte Pläne und Tod. Im Frühjahr 2004 stand Brando mit dem tunesischen Regisseur Ridha Behi in Verhandlung. Behi wollte einen Spielfilm mit dem Titel "Brando and Brando" inszenieren, in dem es um einen jungen Tunesier gehen sollte, der seinem amerikanischen Traum – verkörpert von Marlon Brando – nachjagt. Brando sollte in diesem Film sich selbst spielen. Da Brando bald jedoch nicht mehr zur Verfügung stand, beschloss Behi, das Skript umzuschreiben und für einen halb dokumentarischen Film zu verwenden, der den Titel "Citizen Brando" tragen soll. Der Film sollte 2007 uraufgeführt werden, dies wurde jedoch auf 2010 verschoben. Marlon Brando, der bereits seit längerer Zeit an Lungenfibrose gelitten hatte, starb am 1. Juli 2004 im Alter von 80 Jahren im "UCLA Medical Center", einem Krankenhaus in Los Angeles, an Lungenversagen. Im Kreise der engsten Angehörigen wurde er vier Tage darauf an unbekannter Stelle in Los Angeles eingeäschert. Unter Aufsicht von Tarita Tumi Teriipaia und Maria Christina Ruiz und deren Kindern Teihotu, Miko, Tuki sowie Ruiz’ Schwester Angela wurde die Hälfte von Brandos Asche im Death Valley im Wind verstreut. Die andere Hälfte nahm Tarita mit und verstreute sie 2005 auf Tetiaroa in einer Lagune. Privatleben. Marlon Brando hatte zahllose kurze und langjährige Affären mit Frauen (darunter z. B. Marilyn Monroe, Joanne Woodward, Pier Angeli, France Nuyen) und nach eigener Auskunft auch mit Männern. Dauerhaftere Beziehungen unterhielt Brando u. a. mit Stella Adlers Tochter Ellen und den Schauspielerinnen Rita Moreno und Jill Banner. Am 11. Oktober 1957 heiratete er die Schauspielerin Anna Kashfi, die jedoch bereits ein Jahr später die Scheidung einreichte. Um das Sorgerecht für den im Mai 1958 geborenen Sohn Christian lieferten Brando und Kashfi sich einen bis 1974 andauernden Rechtsstreit. Am 4. Juni 1960 heiratete Brando – von der Presse unbemerkt – die mexikanisch-US-amerikanische Schauspielerin Maria „Movita“ Castenada, die im Juni 1967 die Scheidung einreichte. Während der Ehe wurden zwei Kinder (Sergio, genannt "Miko"; Rebecca) geboren, deren Vaterschaft jedoch strittig ist. 43 Jahre lang, bis zu seinem Tode, war Brando mit der polynesischen Tänzerin Tarita Tumi Teriipaia zusammen und hatte mit ihr zwei Kinder, Teihotu und Cheyenne. Drei gemeinsame Kinder (Ninna Priscilla, Myles Jonathan, Timothy Gahan) hatte Brando auch mit seiner guatemaltekischen Haushälterin Cristina Ruiz. Über Jahrzehnte hinweg verbanden Brando enge Freundschaften mit den Maskenbildnern Phil und Marie Rhodes, dem Filmproduzenten George Englund und den Schauspielern Wally Cox und Christian Marquand. Seit 1967 befand sich das bei Tahiti gelegene Atoll Tetiaroa in Brandos Besitz. Dessen Schönheit hatte er Ende 1960 während der Dreharbeiten zu Meuterei auf der Bounty entdeckt. Pläne, auf der Inselgruppe eine Kolonie für Künstler und Intellektuelle, eine Hummerfarm und eine Hotelanlage einzurichten, wurden von Brando mit großem Finanzaufwand verfolgt, erwiesen sich Mitte der 1970er Jahre jedoch als undurchführbar. Viel Zeit widmete Brando auf Tetiaroa auch seinem Hobby, dem Amateurfunk. Wie Brando erst 1995 erfuhr, war Tetiaroa betroffen von den unterirdischen Kernwaffentests, die Frankreich bereits seit 1966 im Bereich des benachbarten Mururoa-Atolls durchführte. Das schwerste Ereignis in Marlon Brandos persönlichem Leben war der Totschlag, den sein Sohn Christian am Freund seiner schwangeren Tochter Cheyenne verübte. Der Vorfall ereignete sich in Brandos Haus in Beverly Hills am 16. Mai 1990. Cheyenne, bei der kurze Zeit später Schizophrenie festgestellt wurde, erhängte sich 1995. Christian starb am 26. Januar 2008 an einer Lungenentzündung. Bürgerrechtsbewegung. Marlon Brandos politisches Engagement galt zunächst der US-amerikanischen Bürgerrechtsbewegung. Wiederholt gab er öffentlich bekannt, er werde sich aus dem Filmgeschäft zurückziehen, um sich ganz dieser politischen Arbeit zu widmen. Im Sommer 1963 organisierte er gemeinsam mit einigen anderen Schauspielerkollegen – darunter Paul Newman und Burt Lancaster – die Arbeit der Bürgerrechtsaktivisten, die Martin Luther King und die von ihm geführte Southern Christian Leadership Conference in Hollywood unterstützen sollten. Sein Freund Harry Belafonte war ein enger Vertrauter von King. Brando setzte seine Prominenz ein, um Spendengelder zu sammeln, und warb auf Demonstrationen für die Ziele der Bürgerrechtsbewegung. Hollywood galt unter Liberalen als Hochburg des Rassismus, Brando und seine Mitstreiter forderten eine umfassende Reformierung des Fernseh- und Filmgeschäfts mit dem Ziel, Farbigen und Angehörigen anderer Minderheiten in Hollywood gleichberechtigte Arbeits- und Selbstdarstellungsmöglichkeiten zu verschaffen. Anfang 1968 nahm Brando auch Kontakt zur Black Panther Party auf, deren Programm und deren Militanz ihn zunächst faszinierten. Als kurz nach der Ermordung Kings im April 1968 das Panther-Mitglied Bobby Hutton von der Oaklander Polizei erschossen wurde, gab Brando ein Fernsehinterview, in dem er diesen Vorfall als politisch motivierten Mord einstufte. Die Polizei leitete gegen Brando daraufhin ein Schadensersatzverfahren ein, das drei Jahre später höchstinstanzlich abgewiesen wurde. Da das politische Programm der Panther zunehmend radikal wurde, brach Brando jedoch schon wenige Wochen nach dem Interview den Kontakt zu ihnen ab, was von der Öffentlichkeit, die seinen Namen weiterhin mit den Panthern in Verbindung brachte, allerdings nicht wahrgenommen wurde. Brando bekannte sich stattdessen zu Kings Prinzip der Gewaltlosigkeit und schloss sich nach der Erschießung Robert Kennedys u. a. einem Komitee von Hollywood-Schauspielern an, das sich für Waffenkontrolle einsetzte. Bürgerrechtskampf der Indianer. Bereits während seines Engagements in der Bürgerrechtsbewegung hatte Brandos Aufmerksamkeit sich auch dem politischen Kampf der Indianer zugewandt und er nutzte seine Prominenz, um Spenden einzuwerben und um auf einige ihrer politischen Aktionen aufmerksam zu machen. Im März 1964 nahm Brando an einer Protestaktion – einem "fish-in" – im US-Bundesstaat Washington teil, bei der Puyallup-Indianer ihre im 19. Jahrhundert vertraglich garantierten Fischereirechte einforderten. Einer Protestaktion des American Indian Movement (AIM), dessen Mitglieder im Februar 1973 die in der bitterarmen Pine-Ridge-Reservation gelegene Ortschaft Wounded Knee besetzten, verschaffte Brando weltweite Beachtung, indem er mit Hinweis auf diese Ereignisse den Oscar ablehnte, den er für den Film "Der Pate" erhalten sollte. Von der Besetzung selbst, die erst im Mai beendet wurde, hielt Brando sich fern, nahm an dem anschließenden Gerichtsverfahren jedoch als Beobachter teil, um damit die Besetzer – darunter die charismatischen AIM-Sprecher Dennis Banks und Russell Means – öffentlichkeitswirksam zu unterstützen. Wiederholt förderte Brando die Arbeit des AIM auch mit eigenen Geldmitteln; in der Hoffnung, Nachahmer zu finden, überschrieb er darüber hinaus Ende 1974 einen Teil seines privaten Landbesitzes der "American Indian Development Association". Ende Januar 1975 nahm Brando an der Protestaktion einer Gruppe von Menominee-Indianern teil, die seit dem Neujahrstag in Gresham, Wisconsin ein Alexianer-Kloster besetzt hielten. Während dieser Aktion geriet er mit den gewalttätigen Besetzern, die er hatte unterstützen wollen, in Konflikt und wurde in seinem Engagement so desillusioniert, dass er sich von 1976 an allmählich aus den Aktivitäten des AIM zurückzog. Ein letztes Mal geriet Brando in Verbindung mit dem AIM in die Schlagzeilen, als er die Aktivisten Dennis Banks und Leonard Peltier unterstützte, die im Sommer 1975 nach einer erneuten Schießerei in der Pine-Ridge-Reservation vom FBI gejagt wurden und in Brandos Haus Zuflucht suchten. Auszeichnungen. Marlon Brando ist – neben Joanne Woodward, Jack Lemmon, Paul Newman und Elizabeth Taylor – der am häufigsten ausgezeichnete US-amerikanische Filmschauspieler seiner Generation. Auf dem Hollywood Walk of Fame ist dem Schauspieler ein Stern gewidmet (bei 1777 Vine Street). Wirkung. Zahllose Schauspieler haben sich an Marlon Brandos Darstellungsstil orientiert, darunter Rod Steiger und Ben Gazzara. Der Schauspieler, der Brandos Vorbild am glühendsten nachgeeifert hat, war James Dean. Für seine zweite Filmrolle (in "… denn sie wissen nicht, was sie tun") war ursprünglich Brando vorgesehen – und ebenso wie der junge Brando hat sich Dean dem Publikum als Darsteller brütender, rebellischer, unartikulierter junger Männer eingeprägt. Auch Richard Burton hat Brandos Schauspielstil sehr genau studiert. Am Anfang seiner Karriere hatte Paul Newman gegen das Stigma anzukämpfen, er sei nur eine Kopie von Marlon Brando. Jane Fonda, die Brando während der Dreharbeiten zu "Ein Mann wird gejagt" kennenlernte, war von seiner Verbindung von Künstlertum und politischem Engagement tief beeindruckt und empfand ihn als Urbild eines "artist engagé". Robert F. Smallwood veröffentlichte 2006 ein Schauspiel über Marlon Brando "(Brando, Tennessee, & Me. A Play)". Von Scott Wannberg stammt ein Gedicht über Brando mit dem Titel "Omaha Light". Brando wird auch in zahlreichen Pop- und Rocksongs erwähnt, etwa in "It’s Hard to be a Saint in the City" (Bruce Springsteen, 1973), "Is This What You Wanted?" (Leonard Cohen, 1974), "China Girl" (Iggy Pop, 1977 und David Bowie, 1983), "Pocahontas" (Neil Young, 1979), "We Didn’t Start the Fire" (Billy Joel, 1989), "Vogue" (Madonna, 1990), "Gangster Moderne" (MC Solaar, 1997), "Eyeless" (Slipknot, 2000), "The Ballad of Michael Valentine" (The Killers, 2004), "Back to Tupelo" (Mark Knopfler, 2004), "Kings For A Day" (Tak Matsumoto Group, 2004), "Advertising Space" (Robbie Williams, 2005), "Amsterdam" (Mando Diao, 2006), "Rhododendrons" (Bloc Party, 2007) und "Me, Marlon Brando, Marlon Brando And I" (R.E.M., 2011). Der Neuseeländer Russell Crowe, der vor seiner Filmkarriere in Hollywood in seiner Heimat u. a. als Rock ’n’ Roll-Sänger arbeitete, brachte in dieser Zeit eine Single mit dem Titel "I Want to Be Like Marlon Brando" (1980) heraus. Elton John veröffentlichte 1988 einen Song "Goodbye Marlon Brando". In dem Song "Eyeless" von Slipknot wird im Refrain die Textzeile „You can’t see California without Marlon Brando’s eyes“ verwendet. Zitate. "„He’d created not only a standard of acting, but a style, which was unfortunate, since everybody after that wanted to act like Marlon Brando.“" (Robert Lewis, Mitbegründer des Actors Studio, über Marlon Brando) "„Monty knew what he was doing all the times – not that he wasn’t full of emotion and feeling, but it was approached intellectually. Marlon acted out of some innate emotive force. It wasn’t studied, it just happened.“" (der Schauspieler Kevin McCarthy über Montgomery Clift und Marlon Brando) "„He was innately brilliant but it was all scattered, almost as if he’d been told early on that he was nothing and worthless. Yet his work was so beautiful and so pure that there was no explaining where it came from. He still didn’t love acting, he didn’t love the theater and he didn’t respect his own talent, but his gift was so great he couldn’t defile it. He could put on pounds, he could say that it was all shit, but he still couldn’t destroy it.“" (die Schauspielerin Julie Harris über Marlon Brando) "„Brandos Kowalski, wenn er die bourgeoise Überspanntheit der Blanche DuBois brutal beiseite wischte, produzierte dabei einen kleinen Überschuss an Brutalität, der kein reines Gewaltmenschentum war. Vielmehr mischte sich in das Gewalttätige früh etwas Weinerliches und in das Weinerliche etwas Sadistisches. Der Motorradrocker Johnny ist nicht nur von unbeugsamem Stolz, sondern auch voll Selbstmitleid, er ist ein Outlaw, der sich an der Hässlichkeit der Spießergesellschaft freut, die ihn zum Außenseiter macht. So arbeiten Sadismus und Masochismus Hand in Hand: Weil er leidet, darf er auch böse austeilen. Es steigert sein Lebensgefühl, dass er die Niedertracht des Normalbürgers im Rücken spürt. Der aus vielerlei Quellen, edlen und trüben, gespeiste Charakter war überhaupt wohl die größte Neuerung, die er in das glatte Heldengenre Hollywoods einführte; es war keineswegs nur das bloß Animalische, Körperschöne und Instinkthafte, das die Filmkritik später rühmte."“ () Martin Scorsese. Martin Marcantonio Luciano Scorsese (* 17. November 1942 in Queens, New York) ist ein US-amerikanischer Regisseur, Drehbuchautor und Filmproduzent. Er gehört zu den einflussreichsten Regisseuren des zeitgenössischen amerikanischen Kinos. Leben und Karriere. Der jüngste Sohn der Textilarbeiter Charles Scorsese (1913–1993) und Catherine Scorsese, geb. Cappa (1912–1997), verbrachte wegen Asthma bronchiale Monate im Krankenbett, wo er erste Drehbücher und Storyboards verfasste. 1950 zog die Familie nach Little Italy, wo Scorsese erstmals mit der Kirche in Berührung kam und sich entschloss, Priester zu werden. Nach dem Ausschluss aus der Jesuitenschule strebte er eine Ausbildung als Lehrer an, entschied sich an der New York University 1960 aber für die Filmkunst. Mit finanzieller Unterstützung seines Dozenten drehte Scorsese erste preisgekrönte Kurzfilme und schloss 1965 sein Bachelor-Studium ab. Als er seinen Master machte, arbeitete er während dessen vier Jahre lang an seinem Spielfilmdebüt "Wer klopft denn da an meine Tür?" (1967). Das Budget von 75.000 US-Dollar sollte ihn finanziell ruinieren. Scorsese unterrichtete an der Universität spätere Star-Regisseure wie Oliver Stone und Jonathan Kaplan, bevor er nach Kalifornien zog und sich dort mit Francis Ford Coppola, Steven Spielberg und George Lucas anfreundete. Im Herbst 1971 drehte er für Roger Corman seinen ersten Hollywood-Film, "Die Faust der Rebellen", der trotz durchwachsener Kritiken sein Publikum fand. a>, wo er mit dem "Goldenen Löwen" für sein Lebenswerk geehrt wurde Nachdem man ihn in die Gewerkschaft der Regisseure aufgenommen hatte, drehte Scorsese mit "Hexenkessel" 1973 seinen ersten kommerziell erfolgreichen Autorenfilm, der ihn und seinen Darsteller Robert De Niro schlagartig bekannt machte. Der große Durchbruch gelang Scorsese ein Jahr später mit "Alice lebt hier nicht mehr" (1974), der der Hauptdarstellerin Ellen Burstyn einen Oscar einbrachte, und mit dem Welterfolg "Taxi Driver" (1976), der beim Filmfestival von Cannes die Goldene Palme gewann. In dieser Zeit, da er als wichtigster Filmemacher seiner Generation gefeiert wurde, setzte seine Drogensucht ein. Sein Erfolg war begleitet von stürmischen Affären und künstlerischen Höhenflügen. Seine Idee, das große Hollywood-Musical mit Liza Minnelli und Robert De Niro in dem 1977 veröffentlichten "New York, New York" wiederzubeleben, fiel nach zweijähriger Produktion bei Kritik und Publikum durch. Minnelli besetzte Scorsese im selben Jahr als Theaterregisseur in seinem Broadway-Debüt mit dem Musical "The Act", das es von Oktober 1977 bis Juli 1978 auf über zweihundert Aufführungen brachte und seiner Hauptdarstellerin den Tony Award bescherte. Obwohl der 1980 entstandene Boxerfilm "Wie ein wilder Stier" als Meisterwerk gehandelt wurde, hielt sich Scorseses Ruf als Kassengift, der auch die boshafte Komödie "King of Comedy" (1983) an den Kinokassen floppen ließ. Einzig die von ihm initiierte Kampagne zur Restaurierung alter Hollywoodfilme brachte ihm eine positive Presse. Wegen massiver Proteste religiöser Gruppierungen wurden die Dreharbeiten zur lange vorbereiteten Jesus-Verfilmung "Die letzte Versuchung Christi" 1983 zunächst abgesagt. In Cannes wurde Scorsese 1986 als bester Regisseur für "Die Zeit nach Mitternacht" ausgezeichnet und zurück ins Rampenlicht gerückt. Sein Billard-Drama "Die Farbe des Geldes" spielte weltweit 130 Mio. Dollar ein, "Die letzte Versuchung Christi" (1988) wurde trotz des Boykotts christlicher Gruppen ein Achtungserfolg. Mit dem Thriller-Remake "Kap der Angst" (1991) und dem Kostümfilm "Zeit der Unschuld" (1993) betrat Scorsese künstlerisches Neuland. 1995 beschloss er mit "Casino" seine Mafia-Trilogie, die er mit "Hexenkessel" und "Good Fellas – Drei Jahrzehnte in der Mafia" (1990) begonnen hatte. Auch die Verfilmung der Jugendjahre des Dalai Lama "(Kundun", 1997) und das New-York-Drama "Bringing Out the Dead" (1999) wurden von der Kritik gelobt. Den kommerziellen Höhepunkt seiner Karriere erreichte Scorsese aber mit "Gangs of New York" (2002), "Aviator" (2004) und "Departed – Unter Feinden" (2006), jeweils mit Leonardo DiCaprio in der Hauptrolle. Obwohl Scorsese als einer der wichtigsten zeitgenössischen US-Filmemacher gilt, blieb ihm der Regie-Oscar lange Zeit verwehrt. Erst 26 Jahre nach seiner ersten Nominierung für "Wie ein wilder Stier" gewann er 2007 den Academy Award für "Departed – Unter Feinden", eine US-amerikanische Neuverfilmung des Hongkong-Films "Infernal Affairs". Insgesamt gewann das Gangsterepos mit Leonardo DiCaprio, Matt Damon, Jack Nicholson und Mark Wahlberg vier Oscars; es brachte ihm außerdem den Golden Globe Award und endlich den Preis der Directors Guild of America ein, für den er bereits zum siebten Mal, unter anderem nach "Taxi Driver" und "Good Fellas," nominiert war. Neben seiner Arbeit als Filmregisseur, Drehbuchautor und Produzent zeichnete Scorsese auch für zahlreiche Dokumentationen verantwortlich. Autobiographischen Werken wie "Italianamerican" (1974) stehen dabei Künstlerporträts über die kanadisch-amerikanische Rockband The Band "(The Band", 1978), Giorgio Armani "(Made in Milan", 1990), Bob Dylan "(No Direction Home – Bob Dylan", 2005) oder George Harrison "(George Harrison - Living In The Material World", 2011) gegenüber. Als Schauspieler absolvierte Scorsese auch kleinere Auftritte in seinen Filmen "Gangs of New York", "Taxi Driver" und "Aviator" sowie in Robert Redfords preisgekröntem Drama "Quiz Show" (1994). Als Cutter wirkte er zu Beginn seiner Karriere an der Dokumentation "Woodstock" (1970) mit. 2004 lieh der nur 1,63 m große Filmemacher in dem Animationsfilm "Große Haie – Kleine Fische" einer nach seiner Person gezeichneteten Figur seine Stimme. Martin Scorsese ist seit 1999 mit der Filmproduzentin Helen Morris verheiratet. Es ist bereits seine fünfte Ehe; zuvor war der dreifache Vater unter anderem Gatte der bekannten italienischen Filmschauspielerin Isabella Rossellini (1979–1983) und der Filmproduzentin Barbara De Fina (1985–1991). Seine 1976 und 1999 geborenen Töchter Domenica Cameron-Scorsese (aus der Ehe mit der Drehbuchautorin und Regisseurin Julia Cameron) und Francesca Scorsese (aus der Ehe mit Morris) betraute er in einigen Filmen mit kleineren Rollen. 2003 wurde Scorsese mit einem Stern auf dem Hollywood Walk of Fame (6801 Hollywood Boulevard) geehrt. Bei der Verleihung der Golden Globe Awards 2010 wurde Scorsese durch Leonardo DiCaprio und Robert De Niro für sein Lebenswerk mit dem Cecil B. DeMille Award geehrt. Im selben Jahr startete die von ihm koproduzierte HBO-Serie "Boardwalk Empire", für die er beim Pilotfilm auch die Regie übernahm, was ihm einen Emmy einbringen sollte. Die Geschichte um den Aufstieg eines US-amerikanischen Seebads zur Zeit der Prohibition lehnt sich an das gleichnamige Buch von Nelson Johnson aus dem Jahr 2002 an, in dem dieser den Aufstieg von Atlantic City beschrieb. Mehrfach eingesetzte Darsteller. Mit einigen prominenten Darstellern hat Scorsese mehrfach zusammengearbeitet. Filmografie (Auswahl). Mit inzwischen sieben Filmen in den Top 250 der IMDb ist Scorsese in dieser Hinsicht zusammen mit Christopher Nolan der erfolgreichste noch lebende Regisseur. Nur die schon verstorbenen Regisseure Alfred Hitchcock und Stanley Kubrick (je acht) können mehr Filme in den Top 250 aufweisen. Ausstellungen. 2013 hat die Deutsche Kinemathek in Berlin die weltweit erste Ausstellung über den Regisseur präsentiert. Die Schau speist sich vornehmlich aus Scorseses Privatsammlung sowie den Sammlungen von Robert De Niro und Paul Schrader aus dem Harry Ransom Center der Universität Texas in Austin. Neben seinem künstlerischen Werk würdigt die Ausstellung zudem Scorseses Engagement für den Erhalt des internationalen Filmerbes, mit dem er eine Brücke zwischen der Geschichte und der Zukunft des Kinos schlägt. M. Night Shyamalan. Manoj Night Shyamalan (* 6. August 1970 in Mahé, Indien) ist ein US-amerikanischer Filmregisseur, Drehbuchautor, Produzent und Schauspieler indischer Herkunft. Shyamalan drehte zu Beginn seiner Karriere Independent-Filme, die nur mäßigen Erfolg hatten. Durch den Psychothriller "The Sixth Sense" fand er 1999 internationale Beachtung. Der Film erzielte ein weltweites Einspielergebnis von rund 670 Millionen US-Dollar und erhielt unter anderem sechs Oscar-Nominierungen. Mit seinen darauffolgenden Filmen konnte er hingegen immer schwerer an frühere Erfolge anknüpfen. Die Kritiken fielen zunehmend negativer aus, insbesondere für "The Happening" (2008), "Die Legende von Aang" (2010) und "After Earth" (2013). 2015 gelang Shyamalan mit der Miniserie "Wayward Pines" und der Horrorkomödie "The Visit" nach Meinung zahlreicher Kritiker ein Comeback. Shyamalans Filme sind dem Genre des Fantasy- bzw. Horrorfilms zuzuordnen. Sie erzeugen Spannung unter anderem durch subtile Bedrohungsszenarien und durch eine Psychologie der Angst. Die wesentlichen Konstanten in Shyamalans Werk sind melodramatische Ereignisse in einer Familie oder bedrohliche, mysteriöse Phänomene, denen meist Kinder aufgeschlossen gegenüberstehen. Zentrale Themen sind Selbstbestimmung und -findung sowie Glaube und Religion. Ebenfalls typisch sind kleinere Nebenhandlungen, die plötzlich eine wichtige Rolle im Film einnehmen, sowie die verschiedenen Bedeutungen der Farben. Des Weiteren enden die Filme oft überraschend („Plot Twist“), was als Shyamalans Markenzeichen interpretiert wurde. Leben. Die Eltern Nelliate C. Shyamalan und Jayalakshmi Shyamalan wohnten in der Kleinstadt Mahé, an der Südwestküste Indiens. Nelliate, heute im Ruhestand, war von Beruf Kardiologe, seine Frau Gynäkologin. Beide entstammten Arztfamilien: Jayalakshmi hat acht Geschwister, von denen fünf Mediziner wurden, ihr Mann war einer von sieben Ärzten in seiner Familie. 1960 wanderten sie in die USA ein und ließen sich in einer Vorstadt von Philadelphia nieder. Vier Jahre später kam das erste Kind, Veena Shyamalan, zur Welt. Als Jayalakshmi erneut schwanger wurde, beschloss sie nach Indien zurückzukehren, um dort ihren Sohn zu gebären. Sie genoss die Anwesenheit der Familie, bis ihr zweites Kind, Manoj Nelliyattu Shyamalan, am 6. August 1970 in Mahé das Licht der Welt erblickte. Nach weniger als einem Jahr flog sie mit ihrem Sohn zurück in die USA. Manoj Shyamalan wuchs in einem Vorort Philadelphias wohlbehütet auf. Er wurde von seinen Eltern wegen der Disziplin auf die römisch-katholische Privatschule "Waldron Mercy Academy" in Merion geschickt. Das rigide, disziplinierte Erziehungsverfahren störte ihn rückblickend nicht. „Im Gegenteil“, erinnert sich Shyamalan, „ich war sogar ziemlich glücklich, weil alle die gleichen Schuluniformen besaßen und ich mich so als indisches Außenseiterkind gleich behandelt fühlte.“ Danach ging er auf die "Episcopal Academy", ebenfalls eine Privatschule in Merion. Trotz der strengen Schulerziehung genoss er während seiner Kindheit und Jugend im Elternhaus viel Freiheit. Hinduistisch geprägte Lebenskultur zu Hause und strenger Katholizismus in der Schule – dieses „Wechselspiel“ zwischen den beiden Religionen hat Shyamalan tief geprägt: Bestimmung, Selbstfindung und die Suche nach höherer Erkenntnis werden später wichtige Themen in seinen Filmen sein. Shyamalan vor der "Tisch School of the Arts" Shyamalan zeigte bereits in frühen Jahren Interesse für den Film. Einerseits beeinflusste ihn ein Buch von Spike Lee, in dem dieser erzählt, wie er seinen ersten Film ohne Geld und Produzent gedreht hat. Andererseits sammelte er wertvolle Erfahrungen mit der Super 8-Kamera seines Vaters. „Manche Kinder sehen Ärzte im Fernsehen und mögen, was sie zu sehen bekommen. Manoj schaute auch, und er mochte den Fernseher, nicht die Ärzte“, stellte dieser später fest. Shyamalan begann im Alter von zehn bis zwölf Jahren – die Angaben variieren – die ersten Kurzfilme zu drehen. Mit sechzehn oder siebzehn – erneut sind die Quellen nicht eindeutig – hatte er, beeinflusst durch Filmemacher wie Steven Spielberg oder Alfred Hitchcock, fünfundvierzig kleine Eigenproduktionen realisiert, die er später auf DVDs zu manch seiner Filme veröffentlichte. Nachdem Shyamalan die Schule beendet hatte, entschied er sich, die New Yorker Universität "Tisch School of the Arts" zu besuchen, obwohl es seinem Vater lieber gewesen wäre, wenn er Medizin studiert hätte. Während des Studiums lernte er die indische Psychologiestudentin Bhavna Vashani kennen; sie heirateten 1993 und haben heute drei Töchter. 1992 schloss Shyamalan sein Filmstudium mit einem Bachelor ab und änderte seinen Namen. Beeinflusst wurde er dabei von seinen ehemaligen Mitstudenten, die ihn mit Spitznamen "Night" genannt hatten. Er tauschte Nelliyattu durch "Night" aus und kürzte Manoj auf "M." ab. So entstand sein aktueller Name M. Night Shyamalan. Im Oktober 2001 gründete Shyamalan mit seiner Frau zusammen die M. Night Shyamalan Foundation ("MNS Foundation"), die sich das Ziel gesetzt hat, Armut und soziale Ungerechtigkeiten in Philadelphia zu bekämpfen. Gegenwärtig ist die Organisation aber auch überregional aktiv wie z.B. im indischen Nagpur. Durchwachsene Anfänge (1992–1998). Als Student der New Yorker "Tisch School of the Arts" drehte Shyamalan im Jahr 1992 seinen ersten Spielfilm, "Praying with Anger". Die Finanzierung der Dreharbeiten wurde teilweise vom American Film Institute gefördert. Auch die Eltern, die als Produzenten fungierten, unterstützten das Projekt finanziell. Das autobiografische Filmdrama erzählt die Geschichte eines indischen Jungen, gespielt von Shyamalan selbst, der in den USA aufwächst und nach dem Studium sein Herkunftsland erforscht. Shyamalan reiste nach Indien und drehte vor Ort. "Praying with Anger" wurde auf dem internationalen Filmfestival in Toronto am 12. September 1992 vorgeführt und ein Festivalerfolg: Teilweise wurde das Drama „enthusiastisch gelobt“. Nachdem der Film eine Woche lang in nur wenigen amerikanischen Kinos gelaufen war und dort siebentausend US-Dollar eingespielt hatte, zeichnete ihn das American Film Institute im Juli 1993 als Debütfilm des Jahres aus. Außerdem wurde er für die "First Look Series" der Kunststiftung "New York Foundation of the Arts" ausgewählt. Im darauffolgenden Jahr schrieb Shyamalan das Drehbuch "Labor of Love", das er für 250.000 US-Dollar an 20th Century Fox verkaufte. Ursprünglich sollte Shyamalan auch die Regie übernehmen. Doch im Nachhinein lehnte das Studio die Regieführung ab: Das Skript wurde bis heute nicht verfilmt. Anschließend entwarf Shyamalan ein neues Drehbuch mit dem Titel "Wide Awake", in dem er die Suche eines Jungen nach Gott darstellt. Shyamalan kontaktierte das Miramax-Studio, die das Skript annahmen und ihm erlaubten, den Film selbst zu inszenieren, da ihnen "Praying with Anger" gut gefallen hatte. Ihm wurde ein Budget von sechs Millionen US-Dollar zur Verfügung gestellt. 1995 begannen die Dreharbeiten. Der Film kam drei Jahre später, 1998, in die amerikanischen Kinos. Das Drama spielte lediglich dreihunderttausend Dollar ein und wurde so zu einem finanziellen Misserfolg. Shyamalan geriet mit dem Miramax-Chef Harvey Weinstein aneinander, der nach der Nachproduktion einen Neuschnitt des Films verlangte. Rückblickend betrachtet der Regisseur diesen Konflikt mit Miramax und seinen Misserfolg als wertvolle Erfahrungen, die ihm erst seine „wirkliche“ Karriere erlaubt hätten. Columbia Pictures trug ihm nach der Fertigstellung von "Wide Awake" auf, das Drehbuch für den Fantasy-Kinderfilm "Stuart Little" zu schreiben. Er willigte ein und verfasste es zusammen mit Gregory J. Brooker anhand des gleichnamigen Kinderbuches. Inszeniert von Rob Minkoff, wurde der Film 1999 ein finanzieller Erfolg. Im Juni 2013 gab Shyamalan bekannt, dass er als Ghostwriter das Drehbuch für den 1999 erschienenen Film "Eine wie keine" ("She's All That") geschrieben hat. Dabei handelt sich es um eine US-amerikanische Highschoolkomödie – ein für Shyamalan eher untypisches Genre. Der Film wurde ein kommerzieller Überraschungshit. Internationaler Durchbruch (1999–2004). 1999 gelang Shyamalan mit seiner dritten Regiearbeit, dem Psychothriller "The Sixth Sense", der internationale Durchbruch – 672 Millionen US-Dollar spielte der Film weltweit ein. Nachdem er das Skript mühsam erarbeitet hatte, beauftragte er seinen Agenten der "United Talent Agency" einen „Bieterwettbewerb um das Drehbuch auszuloben“. Der minimale Kaufpreis sollte eine Million US-Dollar sein. David Vogel von der Walt Disney Company zeigte sich interessiert und erwarb die Rechte an der Geschichte, ohne Rücksprache mit seinen Vorgesetzten, für drei Millionen US-Dollar und engagierte den jungen Shyamalan als Regisseur. Letzterer konnte sich dabei die weitgehende künstlerische Kontrolle über das Projekt sichern. Als die Disney-Manager von dem Erwerb erfuhren, verkauften sie die Rechte an das Spyglass Entertainment weiter, sicherten sich aber 12,5 % der Einspielergebnisse. Beim Dreh freundete sich Shyamalan mit Sam Mercer an, einem der Produzenten des Films, der seitdem (ausgenommen von "After Earth" und "The Visit") alle von Shyamalan gedrehten Filme produziert hat. In Deutschland sahen den Film in der Startwoche 1.006.235 Zuschauer im Kino, was den erfolgreichsten Start eines Shyamalan-Films in der Bundesrepublik darstellt. Nach diesem kritischen wie kommerziellen Erfolg wurde ihm die Regie bei einer Neuverfilmung des Klassikers "Planet der Affen" angeboten. Shyamalan lehnte jedoch ab, weil er den Film nicht in Philadelphia drehen konnte – sondern dazu nach Hollywood hätte gehen müssen. Während der Dreharbeiten zu "The Sixth Sense" hatte er außerdem schon ein eigenes, neues Skript verfasst, in dem er erneut eine Filmfigur für Bruce Willis erfand. Dieser nahm das Angebot an, in einem weiteren Film des Regisseurs mitzuspielen. Disney zahlte ihm fünf Millionen US-Dollar für das Drehbuch und weitere fünf Millionen für die Regie – damit wurde Shyamalan zu einem der bestbezahlten Filmemacher Hollywoods. Shyamalan, der mittlerweile als eine Art Wunderkind der Filmbranche galt, bekam ein fast doppelt so hohes Produktionsbudget (75 Millionen US-Dollar) zur Verfügung gestellt wie bei seinem vorhergehenden Film. Die Arbeiten zu "Unbreakable – Unzerbrechlich", einem Thriller um übernatürliche Kräfte und Helden, begannen schließlich 2000. Neben Willis sind auch Samuel L. Jackson und Robin Wright Penn zu sehen. In den USA äußerten sich die Kritiker größtenteils lobend über den Film, jedoch nicht so ausgeprägt positiv wie zuvor über "The Sixth Sense". Shyamalan kam während der Dreharbeiten zu "Unbreakable" auch als möglicher Regisseur für die Kinoadaption von "Harry Potter und der Stein der Weisen" ins Gespräch. Im selben Jahr im Juli, während der "Howard-Stern-Show", erzählte Shyamalan, dass er sich einmal mit Steven Spielberg getroffen habe. Es sei um die Erstellung des Drehbuchs zum vierten "Indiana-Jones"-Film gegangen. Dies wäre für den jungen Regisseur eine Chance gewesen, mit seinem Vorbild zusammenzuarbeiten. Aber die Vorstellungen waren wohl doch zu unterschiedlich. Shyamalan sagte, die Arbeit sei zu komplex gewesen, als dass sie beide ihre Meinung hätten durchsetzen können, und dass es auch nicht der richtige Zeitpunkt und Film gewesen sei, sich zusammenzutun. In der Folge schrieb Shyamalan das Drehbuch "Signs – Zeichen", das den Kampf einer Familie gegen Außerirdische thematisiert. Die Disney-Studios kauften das Skript für fünf Millionen US-Dollar und boten ihm weitere siebeneinhalb Millionen Dollar für die Regie an. Die Hauptrollen wurden von Mel Gibson und Joaquín Phoenix verkörpert. 2002 legte der Kornkreis-Thriller den erfolgreichsten Start in der Geschichte von Touchstone Pictures (Disney), die den Film finanzierten, hin. Shyamalan engagierte Joaquin Phoenix zwei Jahre später erneut für seinen Thriller "The Village – Das Dorf", für den er außerdem Schauspieler wie Adrien Brody, Sigourney Weaver, William Hurt und Brendan Gleeson gewinnen konnte. Wieder wurde in Philadelphia gedreht und Touchstone Pictures finanzierte den Film. Shyamalans neuer Film konnte einen erfolgreichen Start verbuchen. Alles deutete auf einen großen kommerziellen Erfolg hin, doch nach der ersten Woche folgte in den Vereinigten Staaten ein deutlicher Rückgang um 66 %. Nach acht Wochen hatte "The Village – Das Dorf" weltweit ca. 260 Millionen US-Dollar eingespielt, deutlich weniger als "The Sixth Sense" oder "Signs – Zeichen". Die Kritiken waren zutiefst gespalten. Nach "The Village" kam Shyamalan für die Verfilmung des Romans "Schiffbruch mit Tiger" von Yann Martel ins Gespräch. Er lehnte jedoch ab, da er befürchtete, sein Film würde der literarischen Vorlage nicht gerecht werden. Rückschläge und Krise (2004–2013). Shyamalan ging daran, die selbstverfasste Gutenachtgeschichte "Das Mädchen aus dem Wasser" für die Leinwand zu adaptieren. Er entwickelte ein Drehbuch und präsentierte es den Disney-Studios. Produktionschefin Nina Jacobson und Marketing-Direktor Oren Aviv kritisierten das Skript jedoch scharf. Am 15. Februar 2005 kam es dann zu einem gemeinsamen Dinner: Jacobson und Aviv lehnten die Geschichte ab mit der Begründung, dass sie zu wirr geraten sei. Der Studio-Chairman Dick Cook, der ebenfalls anwesend war, machte Shyamalan sogleich ein Angebot: „Wir geben dir 60 Millionen Dollar. Mach mit dem Geld, was du willst. Wir werden uns nicht einmischen. Wir sehen uns bei der Premiere.“ Daraufhin griff der Regisseur die Disney-Leute als nur an Geld interessierte Produzenten an und meinte, dass sie keinen Sinn für „bilderstürmerische Genies“ wie ihn besäßen. Anschließend kündigte er dort und wechselte zu den Warner Brothers Studios, die die Dreharbeiten finanzierten. Der Film erzählt die märchenhafte Geschichte eines Hausmeisters, gespielt von Paul Giamatti, der eine junge Frau aus dem Swimmingpool seines Wohnkomplexes rettet. Mit wundersamen Folgen: Das Mädchen entpuppt sich als Nymphe, die von grausamen Kreaturen gejagt wird. Hausmeister Cleveland und die Bewohner der Anlage versuchen ihr zu helfen. Bryce Dallas Howard verkörperte, nachdem sie bereits in "The Village" eine wichtige Rolle besetzt hatte, die geheimnisvolle Nymphe. Der 70 Millionen US-Dollar teure Film kam im Sommer 2006 in die Kinos. Während er sein Märchen auf einer Pressekonferenz vorstellte, äußerte Shyamalan, dass er gerne die Regiearbeit im siebten Harry-Potter-Film übernehmen würde. Die Kritiken zu "Das Mädchen aus dem Wasser" fielen überwiegend negativ aus und der Film wurde ein finanzieller Misserfolg. Gleichzeitig mit dem Kinostart gab Shyamalan zahlreiche Fakten aus seinem Privatleben preis. Michael Bamberg publizierte eine ausführliche Biografie über den Regisseur: "The Man Who Heard Voices: Or, How M. Night Shyamalan Risked His Career on a Fairy Tale" (etwa: „Der Mann, der Stimmen hörte: Oder Wie M. Night Shyamalan seine Karriere wegen eines Märchens riskierte“). In diesem Buch erzählt Shyamalan von den Dreharbeiten zu "Das Mädchen aus dem Wasser" und seinem Streit mit Disney. Nach diesem Misserfolg galt Shyamalan nicht mehr als „sichere Bank“, und es wurde für ihn schwierig, ein Studio zu finden, das sein neues Projekt mit dem Titel "The Green Effect" unterstützen würde. Schließlich griff Twentieth Century Fox zu, unter der Bedingung, das Drehbuch ein wenig umzuschreiben, den Titel zu ändern und die Hälfte der Produktion von einem anderen Studio finanzieren zu lassen. Shyamalan schrieb das Skript um, änderte den Titel in "The Happening" und fand den indischen Medienkonzern UTV, der die Hälfte der Kosten übernahm. Als Hauptdarsteller verpflichtete er Mark Wahlberg und Zooey Deschanel. In dem Öko-Thriller geht es um Pflanzen, die ein Nervengift ausstoßen, das Menschen so beeinflusst, dass sie Selbstmord begehen. Allison Hope Weiner schrieb in der "New York Times" vom 2. Juni 2008, der Misserfolg von "Das Mädchen aus dem Wasser" an den Kinokassen und bei den Kritikern habe Druck auf Shyamalan erzeugt. Nach einem Misserfolg von "The Happening" könnte er Probleme bekommen, die vollständige Kontrolle über seine Projekte zu behalten, spekulierte sie außerdem. Kommerziell wurde "The Happening" zu einem größeren Erfolg als "Das Mädchen aus dem Wasser". Weltweit erzielte er ein Einspielergebnis von rund 163 Millionen US-Dollar. Die Kritiken blieben jedoch weiterhin ablehnend. Bereits 2007 hatte Shyamalan für die Verfilmung der Fernsehserie "Avatar – Der Herr der Elemente" bei Paramount Pictures unterschrieben. Er verfasste das Drehbuch und übernahm auch die Regie. Shyamalans Filmtitelwahl "Avatar: The Last Airbender" führte zu einem Rechtsstreit mit James Cameron, der die Rechte an dem Titel "Avatar" für seinen Science-Fiction-Film besaß. Die Filmproduzenten kürzten den Titel deshalb auf "The Last Airbender" (dt. "Die Legende von Aang") ab. Die Dreharbeiten begannen im März 2009 in Grönland. Der US-Kinostart war am 1. Juli 2010, der deutsche am 19. August 2010. Der Film wurde von den Kritikern mit überwältigender Mehrheit abgelehnt und erhielt im Februar 2011 bei der Verleihung der Goldenen Himbeere fünf der Negativpreise, darunter für die schlechteste Regieleistung und das schlechteste Drehbuch. In Europa fiel das Urteil etwas wohlwollender aus, aber in einem waren sich die Kritiker einig: die überflüssige, miserable 3D-Konvertierung. Finanziell gesehen wurde "Die Legende von Aang" mit einem weltweiten Einspielergebnis von 320 Millionen US-Dollar nach "The Sixth Sense" und "Signs – Zeichen" jedoch zu Shyamalans dritterfolgreichstem Film. Parallel zu den Arbeiten an "Die Legende von Aang" schloss Shyamalan mit Media Rights Capital einen Vertrag ab: Er solle drei Horrorfilme unter dem Siegel "The Night Chronicles" produzieren. Der erste Film der geplanten Trilogie kam am 13. Januar 2011 unter dem Titel "Devil – Fahrstuhl zur Hölle" in die deutschen Kinos. Shyamalan fungierte als Ideengeber und Produzent, die Regie übernahm John Erick Dowdle. Die Kritikerstimmen fielen gemischt aus, waren aber deutlich positiver als bei den vorangegangenen Filmen. Am 31. Mai 2013 startete Shyamalans Science-Fiction-Film "After Earth", in dem Will und Jaden Smith die Hauptrollen verkörpern, in den US-amerikanischen Kinos. Die Kritiken fielen überwiegend negativ aus und die Einnahmen am Startwochenende blieben deutlich hinter den Erwartungen zurück. Der deutsche Kinostart war am 6. Juni 2013. Am 10. September 2013 erschien bei dem Verlag Simon & Schuster Shyamalans Buch "I Got Schooled", in dem er eine US-amerikanische Bildungsreform vorschlägt. Comeback (seit 2014). Nachdem Shyamalan mit mehreren Projekten für Fernsehserien in Verbindung gebracht wurde, unter anderem "Proof" für den Sender Syfy und "Lost Horizon" bei NBC, gab der US-amerikanische Fernsehsender Fox Mitte 2013 bekannt, dass der indischstämmige Filmemacher bei der geplanten Serie "Wayward Pines" Regie führen und gemeinsam mit Chad Hodge als Produzent fungieren sollte. Ein Jahr später wurde die Mystery-Serie dann für 2015 bestellt und Fox ließ mitteilen, dass die Serie ab dem 14. Mai 2015 in 125 Ländern ausgestrahlt werden sollte, was bis dahin den größten weltweiten Start einer TV-Serie darstellte. Bei der Vorproduktion konnten renommierte Schauspieler wie Melissa Leo, Juliette Lewis, Terrence Howard und Toby Jones gewonnen werden. Die in der Tradition von "Twin Peaks" und "Lost" stehende Geschichte wurde schließlich wie geplant im Mai 2015 weltweit ausgestrahlt. Die Mystery-Krimiserie über den Secret-Service-Agent Ethan Burke, der das Verschwinden von zwei Bundesbeamten in der mysteriösen Kleinstadt Wayward Pines in Idaho untersucht, wurde von den Kritikern überwiegend positiv gesehen und als Wendepunkt in Shyamalans Karriere gewertet. So lautete etwa der Konsens von 50 Rezensionen auf der Webseite von "Rotten Tomatoes": „So unheimlich und merkwürdig wie nur möglich ist "Wayward Pines" eine erfreuliche Rückkehr für M. Night Shyamalan zu alter Stärke.“ Aufgrund des Erfolgs bei Zuschauern und Kritikern kündigte Fox für 2016 eine zweite Staffel mit zehn Episoden an. Shyamalan wirke erneut als ausführender Produzent mit. Anfang 2014 gab Shyamalan bekannt, dass er die Rechte an seinem 1993 verkauften Drehbuch "Labor of Love" (siehe weiter oben) zurückerlangen möchte, um die Geschichte eines Buchhändlers, der bei einem Unfall seine Frau verliert, nun zu verfilmen. In der Hauptrolle sei Bruce Willis im Gespräch, doch der für 2015 geplante Drehstart wurde bisher nicht wahrgenommen. Shyamalan drehte stattdessen den Low-Budget Horrorfilm "The Visit" (Arbeitstitel: "Sundowning") mit minimalem Set, zu dem unter anderem Kostümdesignerin Amy Westcott ("Black Swan") und Kamerafrau Maryse Alberti ("The Wrestler") gehörten. Die Dreharbeiten wurden geheimgehalten, gedreht wurde für 5 Millionen US-Dollar in Philadelphia, Pennsylvania. Shyamalan finanzierte sein Projekt durch sein eigenes Gehalt, das er für seinen vorherigen Film "After Earth" (2013) bekommen hatte. Damit wollte er sich nach seinen durchwachsenen Erfahrungen mit Hollywood-Produktionen erneut die künstlerische Freiheit (und damit den Endschnitt) sichern und an seine alten Horror-Thriller-Wurzeln anknüpfen. Bei der Postproduktion konnte er den Produzenten Jason Blum gewinnen, der den Film bei Universal Pictures für den internationalen Filmvertrieb und –verleih unterbrachte. Wie bereits "Wayward Pines" wurde "The Visit" weitgehend positiv aufgenommen – die Kritiker sprachen von einem mehr oder weniger gelungenen Comeback. Auch an den Kinokassen konnte der Film überzeugen und spielte bis zum 26. Oktober 2015 weltweit 89,3 Millionen US-Dollar ein, das 18-fache seiner Produktionskosten. Seit November 2015 dreht Shyamalan seinen neuen, ebenfalls von Jason Blum produzierten Thriller mit dem Titel "Split". Für die Hauptrolle war zunächst Joaquin Phoenix im Gespräch, dieser wurde aber schließlich durch den britischen Schauspieler James McAvoy ersetzt. Der Filmstart in den Vereinigten Staaten ist für den 20. Januar 2017 geplant. Kurz vor Drehbeginn wurde Shyamalan von der US-Sängerin Andra Day beauftragt, bei dem Musikvideo zu ihrem Song "Rise Up" Regie zu führen. Dabei handelt es sich um Shyamalans erstes Musikvideo, wie er auf "Twitter" verlauten ließ. Genre. Shyamalans Filme sind in den Genrebereich des Melodrams, Fantasy- und Horrorfilms einzuordnen. Der indischstämmige Regisseur weicht jedoch vor allem von der traditionell dem Horrorfilm zugeschriebenen filmästhetischen „Destabilisierung, die den Eindruck von Irrealität und Halluzination erzeugt“ ab und verwendet nicht, wie viele zeitgenössische Regisseure, Spezialeffekte oder Action (wie etwa Explosionen oder Schießereien), die eigentlich in diesen Genres üblich sind. Demnach versucht Shyamalan „Genrekonventionen auf den Kopf zu stellen“. "Unbreakable – Unzerbrechlich" wird gern als Comicfilm bezeichnet, "Signs – Zeichen" als Science-Fiction-Film. "Unbreakable" übernimmt zwar visuelle Effekte des Superheldenfilms und „unterwirft sich den narrativen Rahmenbedingungen naiver Gut-Böse-Sujets“, unterscheidet sich aber von Filmen desselben Genres wie etwa "Superman", "Batman" oder "X-Men" deutlich. Filmwissenschaftler sehen in dem Film eher ein Melodram oder bezeichnen ihn wegen seiner teils unheimlichen und bedrohlichen Atmosphäre als einen Mystery-Thriller. Dasselbe gilt für "Signs": Der Film ist eher eine Mischung aus Melodram und Thriller als ein Science-Fiction-Film. Auch "The Village" wird als (Liebes-)Thriller gesehen, obwohl der Film eigentlich ein Kostümdrama ist. Der Katastrophenfilm "The Happening" wurde gar als eine Art “Gegen-Katastrophenfilm“ interpretiert. Themen. Den Handlungskern der Filme bilden die verschiedensten Themen. Religion und der damit verbundene Glaube spielen insbesondere in "The Sixth Sense " und "Signs – Zeichen" eine wichtige Rolle. So gewinnt der Pfarrer in letzterem Film anhand der erzählten Geschichte seinen verloren gegangenen Glauben zurück, in "The Sixth Sense" dient die Religion als Schutz und Zufluchtsort. In "Die Legende von Aang" wird das Religiöse durch das Spirituelle aus der Fernsehserie ersetzt. Des Weiteren bilden Selbstfindung und Identitätssuche wichtige Konstanten in Shyamalans Filmen. In "Unbreakable – Unzerbrechlich" geht es darum, die eigene Bestimmung zu finden und zu akzeptieren, in "Das Mädchen aus dem Wasser" müssen die Bewohner eines Mietblocks ihre Funktionen in einem Rätsel ebenfalls finden und bestimmen und in "The Village – Das Dorf" lernen die Protagonisten ihre Persönlichkeit zu entfalten. Auch in "Die Legende von Aang" geht es um Selbstfindung, wenn Aang sich zunächst als Avatar entdecken und in seine neue Rolle schlüpfen muss. Zentrales Motiv in beinahe allen Filmen ist außerdem die Familie. Männer, „die über persönliche, seelische und eben meist familiäre Verluste dem Leben entrückt sind“, stehen dabei im Mittelpunkt. Vor allem die Kinder zeigen sich den familiären Problemen gegenüber meist aufgeschlossen und versuchen die Erwachsenen wieder auf den richtigen Weg zu bringen ("The Sixth Sense", "Unbreakable", "Signs", "Das Mädchen aus dem Wasser"). In "After Earth" treibt Shyamalan dieses Thema auf die Spitze: Der Vater verfügt diesmal über erhebliche physische Schmerzen und ist außer Gefecht gesetzt. Der Sohn muss nun in dessen Fußstapfen treten und beiden das Leben retten. Dabei entwickelt sich der Sohn vom Jugendlichen hin zum Erwachsenen – der Film ist somit eine Neuauflage des Coming-of-Age-Motivs. In "The Visit" wird die Mutter der beiden Protagonisten seit Verlassen des Elternhauses von Erinnerungsschmerzen geplagt. Sie versucht, über den Besuch der Kinder bei ihren Eltern eine Versöhnung zu erreichen. So gesehen präsentiert auch dieser Film ein „Spektrum zur Dysfunktionalität der Familie“. Diese Kernthemen werden anschließend mit phantastischen oder unheimlichen zusätzlichen Handlungsebenen umwoben, deren Aufgabe es ist, die Aufmerksamkeit des Zuschauers auf die Geschichte zu lenken und ihn in deren Bann zu ziehen. Shyamalans Filme sind also „Dramen unter dem Deckmantel des Phantastischen.“ So sagt der Regisseur selbst, die Angst sei nur ein Hilfsmittel, das Publikum gefangen zu nehmen. Kamera und Schnitt. Die Kamera beobachtet die Situation meistens aus einer gewissen Distanz. Der Zuschauer muss deshalb die Beziehung der Charaktere (vgl. Bühnenanordung) durch ihre Positionierung im Raum beurteilen. Shyamalans Filme sind von Halbtotalen- und Halbnaheinstellungen geprägt, was entgegen der Genrekonvention von drastischen Schnittfolgen, der Verweigerung des Überblicks und des in den Aktionen bevorzugten Einsatzes von „Halbnaheinstellungen, unterbrochen von Naheinstellungen“ spricht. Die Kameraführung passt sich den Emotionen und Bewegungen der Protagonisten an. Diese extreme Ausrichtung auf die Schauspieler hat für die Darstellung der Geister, Aliens oder unheimlichen Gestalten zwei Folgen: Entweder man sieht sie explizit oder gar nicht. Ein häufig wiederkehrendes Merkmal ist außerdem, dass verschiedene Szenen nur mit einer Kamera gedreht werden oder aus nur einer einzigen, langen Kameraeinstellung bestehen. In Shyamalans Filmen existieren vergleichsweise wenige Schnitte. Es dominieren Szenen, die sich „in einer ungeschnittenen Plansequenz“ vollziehen. Donato Totaro hat dies empirisch festgelegt: Er schrieb, "The Sixth Sense" habe 686 Kameraeinstellungen. Das heißt, nach jeweils 8,7 Sekunden komme ein Schnitt, "Unbreakable" 322 Einstellungen (alle 18,7 Sekunden ein Schnitt) und "Signs" 574 (ein Schnitt nach durchschnittlich 10,3 Sekunden). Verglichen mit anderen Filmen wie etwa "Armageddon", bei denen die Anzahl der Einstellungen bei zwei- bis dreitausend liegt, weisen Shyamalans Filme deutlich weniger Schnitte, dafür aber längere Kameraeinstellungen auf. Dadurch werden die Filme ruhig und langsam gehalten, die Protagonisten und ihr Drama rücken in den Mittelpunkt: „Die Einstellungen sind so lang, dass man den Figuren beim Durcharbeiten ihrer inneren Konflikte in Ruhe zusehen kann, was den Schauspielern ungewöhnlich viel Freiraum lässt.“ Als der Protagonist von "Unbreakable – Unzerbrechlich" am Ende des Films beispielsweise gegen einen Eindringling kämpft, „verlässt die Kamera ihre Position nicht“. Die gesamte Szene wird von einer überblickenden Einstellung gefilmt, was den Kampf als weniger actionreich wirken lässt. Auch in "Die Legende von Aang" sind viele Kampfszenen aus einer einzigen Kameraperspektive gefilmt worden. Die Kamera schwebt dabei um die Figuren herum: Die Folgen sind der Eindruck von Nicht-Dynamik und Distanzierung. Ton. Durch die Musik von James Newton Howard, der seit "The Sixth Sense" zu allen Shyamalan-Filmen (ausgenommen "Devil" und "The Visit") die Filmmusik komponierte, und durch laute Töne/Geräusche bzw. Soundeffekte (z.B. starkes Windwehen in "Signs" oder "The Happening", knarzende Äste in "The Village" oder Krachgeräusche („smush“) in "The Visit") werden unter anderem unheimliche, dramatische Momente und Schocks erzeugt, „so dass die Ruhe der Bildführung und die Dramatik des Tons teilweise in einem merkwürdigen diskrepanten Verhältnis stehen.“ Shyamalan selbst beschreibt den massiven Einsatz von Tönen und Geräuschen als seine Spezialeffekte. „Dafür opfere ich viel Zeit und Kraft, genau so viel für wichtige Szenen als auch für welche, die unbedeutend erscheinen. Sie können die Art und Weise eines Dialoges damit sehr einfach ändern, indem Sie die Effekte gleichzeitig, danach oder davor verwenden. […] Er ist ein sehr mächtiges Werkzeug, eines, das im Kino am wenigsten genutzt wird. Es kann den Verlauf einer Geschichte komplett verändern.“ Licht und Symbolik. Das Spiel mit Licht und Schatten ist ein weiteres wichtiges Element in Shyamalans Filmsprache. So sorgen unter anderem die dunkel ausgeleuchteten Szenen bei "The Sixth Sense" und "Unbreakable – Unzerbrechlich" für eine unheimliche Filmatmosphäre. In "Unbreakable" wechselt die Beleuchtung außerdem ihre Farbe: Die Szenen mit Elijah, dem Antagonisten, gehen von einem warmen Gelb zu einem kühlen, fast schon metallischen Blau über, je näher das Filmende rückt. Bei den Szenen des Protagonisten Davids ist es genau umgekehrt; sie wechseln von dem kalten Blau zu diesem lebendigen Gelb. So wird die Gegenüberstellung Davids und Elijahs unterstrichen. Der Regisseur arbeitet gerne mit der Symbolik des Wassers. In "Signs – Zeichen" oder "Das Mädchen aus dem Wasser" steht das Element für Errettung, Reinigung und Neubeginn, in "Unbreakable – Unzerbrechlich" ist es gewissermaßen die Achillesferse des Protagonisten David Dunn. Neben der Wassersymbolik nimmt auch die Farbsymbolik einen wichtigen Platz in Shyamalans Werk ein. Der Filmemacher drückt mit den Farben vor allem die Gegenüberstellung von Gut und Böse aus, die sich wie ein roter Faden durch sein Gesamtwerk zieht. Gelb "(The Village)" und Grün ("The Sixth Sense", "Unbreakable") stehen für Leben, Hoffnung und Schutz, während das hervorstechende Rot ("The Sixth Sense", "The Village") und die verschiedenen Violetttöne "(Unbreakable)" Angst und Gefahr symbolisieren. Prägende Einflüsse. Außerdem sagt er, dass er sich zu früheren Filmmethoden hingezogen fühle. „Anstatt den Killer mit dem blutigen Messer in der Hand zu zeigen, setze ich auf Geräusche und Beleuchtung, oder auf etwas, das sich bewegt, wodurch das Opfer merkt, dass jemand dort ist“, beschreibt Shyamalan seine Methode, Spannung zu erzeugen. So ist in manchen Filmpassagen deutlich der Einfluss einer dieser Regisseure oder Methoden zu spüren. Nach eigener Aussage soll "The Happening" der Film sein, der die filmhistorischen Einflüsse auf seine Arbeit am besten zeigt. Des Weiteren ist Shyamalan wie einst Hitchcock in seinen Filmen in einem sogenannten Cameo-Auftritt zusehen. In einem Interview meint er dazu: „Ich versuche damit, die Filme etwas persönlicher für mich zu gestalten. Es gibt mir einfach ein Gefühl der Unabhängigkeit – das Gefühl, dass nur ich alleine meine Filme mache. Eine Eigenart.“ Shyamalans Filme. Die Kritiken über Shyamalans Filme sind oft gespalten. Auch fallen die Urteile vieler Kritiker, die zuvor von Shyamalans Werk begeistert waren, spätestens nach "The Village – Das Dorf" deutlich negativer aus; so ist dies zum Beispiel bei dem Pulitzer-Preisträger Roger Ebert der Fall. Die Filmzeitschrift "Cinema" schreibt auf ihrer Website zusammenfassend, kein Film habe an den Erfolg von "The Sixth Sense" anknüpfen können und Shyamalan habe den wirklichen Tiefpunkt seiner Karriere mit dem „nassen Märchen“ "Das Mädchen aus dem Wasser" erreicht. Rechtsstehende Tabelle zeigt das sinkende US-amerikanische Kritiken-Barometer der Filme von Shyamalan auf "Rotten Tomatoes". Erst mit "The Visit" scheint der seit 2006 andauernde Abwärtstrend gestoppt – mit 63 Prozent positiver Kritiken nähert sich Shyamalan somit wieder den Werten seiner ersten Filme an. Im Kritikerkonsens, basierend auf 189 Kritiken, heißt es bei "Rotten Tomatoes" auch, der Film sei „"eine willkommene Rückkehr zu alter Form"“. Eine weitere klassische Kritik an Shyamalan ist, dass er ein besserer Regisseur als Drehbuchautor sei. Manche Kritiker schreiben, er würde mehr Erfolg haben, wenn er einen Autor engagierte, der helfen würde, seine Ideen für die Kinoleinwand umzusetzen. Franz Everschor, Redakteur der Filmzeitschrift "film-dienst", hat die amerikanischen Kritiken analysiert, die von Film zu Film immer ablehnender werden. Er kam zu dem Schluss, dass die Filme von Shyamalan immer auf dem Spirituellen und Mystischen aufgebaut seien und dass sie zwei Seiten hätten – eine beunruhigende und eine kontemplative. Die nacherzählbare Handlung sei bei Shyamalan immer nur der halbe Film. Und da Amerikaner wenig Sinn dafür hätten, würden die Filme deshalb oft auf eine Mauer der Ablehnung stoßen wie im Sommer 2010 sein Film "Die Legende von Aang", der mit Einmündigkeit verdammt worden ist. Plagiatsvorwürfe. M. Night Shyamalan wurde auch als Plagiator bezeichnet. Man bemerkte, dass "The Sixth Sense" Ähnlichkeiten mit der Novelle "Lost Boys" von Orson Scott Card aufwies. Außerdem beschuldigte der Drehbuchautor Robert McIIhenny Shyamalan, die Handlung des eigenen, unverfilmten Drehbuchs "Lord of the Barrens" für seinen Film "Signs – Zeichen" größtenteils übernommen zu haben. Margaret Peterson Haddix, Autorin von Krimi- und Science-Fiction-Romanen, drohte mit dem Gang vor Gericht, als sie merkte, dass "The Village – Das Dorf" mehrere Passagen aus ihrem Jugendroman "Running Out of Time" enthielt. Einnahmen. Weltweit spielten Shyamalans Filme von "Wide Awake" (1998) über "Signs – Zeichen" (2002) bis hin zu "The Visit" (2015) rund 2,5 Milliarden US-Dollar ein. In Deutschland sahen die Filme etwa 13,6 Millionen Kinogänger. Folgende Tabelle illustriert die Einspielergebnisse der verschiedenen Filme von M. Night Shyamalan. DVD- und Blu-ray-Disc-Verkäufe werden dabei nicht berücksichtigt. Auszeichnungen (Auswahl). M. Night Shyamalan erhielt insbesondere für "The Sixth Sense" verschiedene Nominierungen für bedeutende Filmpreise in den Kategorien bester Regisseur und bestes Drehbuch, darunter auch zwei Oscar-Nominierungen. Gewinnen konnte er im Jahr 2000 den Empire Award. In der "Power List" der einflussreichsten Personen in Hollywood des bekannten Filmmagazins "Premiere" befand sich Shyamalan 2002 auf Platz 64, 2003 auf Platz 21 und 2004 auf Platz 23. Und auf der Liste "51 Most Influential Entertainers" von Entertainment Weekly war Shyamalan 2002 auf Platz 9 zu finden. 2006 wurde ihm der "ShoWest Award" als bester Regisseur des Jahres überreicht, 2008 der vierthöchste indische Zivilorden, der Padma Shri. Im Dezember 2012 bekam er die "Gold Medal for Distinguished Achievement" der "The Pennsylvania Society" verliehen. 2007 und 2011 erhielt er den Negativpreis die Goldene Himbeere für seine Filme "Das Mädchen aus dem Wasser" und "Die Legende von Aang". Folgende Auflistung gibt einen Überblick der wichtigsten Auszeichnungen bzw. Nominierungen. Oscarverleihung 2000 Bram Stoker Award British Academy Film Awards 2000 Empire Awards Science Fiction and Fantasy Writers of America Goldene Himbeere (Negativpreis) Weblinks. Allgemeine Texte und Seiten über M. Night Shyamalan Mel Brooks. Mel Brooks im April 2010 Mel Brooks (* 28. Juni 1926 in Brooklyn, New York City, New York, als "Melvin Kaminsky") ist ein US-amerikanischer Komiker, Schauspieler, Regisseur, Theaterproduzent und Oscar-prämierter Drehbuchautor. Bekannt wurde er insbesondere für seine filmischen Parodien auf kommerziell erfolgreiche Filme. Er machte sich daneben auch mit Parodien auf das NS-Regime, besonders auf Adolf Hitler, einen Namen (z. B. "Sein oder Nichtsein" mit dem Titelsong "To be or not to be"). Brooks ist Jude; sein Vater Maximilian war deutscher Jude aus Danzig, seine Mutter Kate, geb. Brookman, Jüdin russischer Herkunft. Leben und Wirken. Mel Brooks im Februar 1984 Mel Brooks mit seinem Sohn Max Brooks im April 2010 Mel Brooks’ Karriere begann nach dem Zweiten Weltkrieg als Stand-Up-Comedian. Er wurde von dem Komiker und Fernsehstar Sid Caesar (1922–2014) entdeckt; er engagierte ihn als Sketch-Schreiber. Während dieser Zeit lernte Brooks auch Carl Reiner kennen, mit dem er zusammen ab 1961 mehrere Comedy-Schallplatten aufnahm. 1965 schuf er zusammen mit Buck Henry die Fernsehserie "Mini-Max". Der Erfolg dieser Reihe ermöglichte es Brooks im Jahr 1968, einen Produzenten für seinen ersten Spielfilm "Frühling für Hitler (The Producers)" zu finden. Trotz der gewagten Thematik – ein abgehalfterter jüdischer Broadway-Produzent versucht einen Betrug mit einem Musical über Adolf Hitler – wurde der Film ein Überraschungserfolg, der Brooks einen Oscar für das beste Originaldrehbuch einbrachte. Im Jahr 2001 hatte eine Musicalversion von "The Producers" am New Yorker Broadway Premiere und gewann zwölf Tonys. Eine Verfilmung des Musicals wurde Ende 2005 veröffentlicht. Nach dem Erfolg von "The Producers" wandte Brooks sich mit "Die 12 Stühle" einem traditionellen Komödienstoff zu, bevor er sich 1974 als Regisseur von "Der wilde wilde Westen (Blazing Saddles)" und "Frankenstein Junior (Young Frankenstein)" als Spezialist für Genre-Parodien bewies. Als debiler Gouverneur in "Der wilde wilde Westen" trat Brooks auch erstmals in einer größeren Rolle als Schauspieler in Erscheinung. In den folgenden Filmen trat Brooks dann häufiger als Hauptdarsteller, Regisseur und Drehbuchautor auf. Seine Filme parodierten Hitchcock-Filme "(Höhenkoller)", Science-Fiction "(Spaceballs)" oder das Revival der Robin-Hood-Filme "(Robin Hood – Helden in Strumpfhosen)" der frühen 1990er Jahre. Nebenher produzierte Brooks auch – für ihn untypische – Filme wie "Der Elefantenmensch" von David Lynch. Seit dem mäßigen Erfolg seiner Dracula-Parodie "Dracula – Tot aber glücklich" im Jahr 1995 wurde es ruhiger um Brooks. Er trat nur noch in kleineren Gastrollen wie in der Fernsehserie "Verrückt nach dir" auf, bis er dann Hollywood mit dem Erfolg der Musicalversion von "The Producers" überraschte. Im Oktober 2007 hatte ein weiteres Musical von Mel Brooks, diesmal basierend auf seiner Horrorfilmparodie "Frankenstein Junior", Premiere am Broadway. Die Kritiken waren zwiespältig; "Young Frankenstein" konnte nicht an den Erfolg von "The Producers" heranreichen. Von 2007 bis 2008 produzierte er die Zeichentrickserie ' mit und führte bei einigen Episoden Regie. President Skroob erhielt in der Zeichentrickversion auch seine Stimme. Der Erfolg hielt sich in Grenzen. Mel Brooks und die Schauspielerin Anne Bancroft (1931–2005) heirateten 1964; Bancroft starb am 6. Juni 2005 nach einer Krebserkrankung. Für beide war es die zweite Ehe. Die beiden haben einen Sohn namens Maximilian, der unter anderem als Autor ("World War Z") arbeitet. Anfang März 2009 erhielt Brooks in Anerkennung an seine Verdienste vom "Club der Berliner Filmjournalisten" den Ernst-Lubitsch-Preis zugesprochen. Im April 2010 wurde Brooks am Hollywood Walk of Fame mit einem Stern in der Kategorie Film (6712 Hollywood Boulevard) geehrt. Er erhielt vom American Film Institute 2013 den AFI Life Achievement Award. Am 8. September 2014 verewigte sich Mel Brooks mit seinen Hand- und Schuhabdrücken im Zementboden vor dem TCL Chinese Theatre in Hollywood. Dabei machte der Komiker sich einen Spaß daraus und trug an seiner linken Hand einen künstlichen, sechsten Finger. Auszeichnungen. Mel Brooks ist Stand 2015 einer von nur zwölf Künstlern, die mit jeder der vier wichtigsten Auszeichnungen in der (US-)Unterhaltungsbranche (Grammy, Oscar, Tony Award, und Emmy) geehrt wurden. Synchronstimme. In den deutschen Versionen seiner Filme wird Brooks häufig von Wolfgang Völz synchronisiert. Völz wurde von Brooks selbst als sein Synchronsprecher ausgesucht. Modell. Zudem werden gelegentlich weitere Merkmale diskutiert, wie Extension und Distortion sowie Validität. Der amerikanische Wissenschaftsphilosoph Michael Weisberg unterscheidet auf der obersten Ebene zwischen gegenständlichen (concrete) und mathematischen Modellen und stellt daneben die Computersimulationen (computational models) als eigene Klasse von Modellen auf. Wortherkunft. Das Wort "Modell" entstand im Italien der Renaissance als ital. "modello", hervorgegangen aus lat. "modulus", einem Maßstab in der Architektur, und wurde bis ins 18. Jahrhundert in der bildenden Kunst als Fachbegriff verwendet. Um 1800 verdrängte "Modell" im Deutschen das ältere, direkt vom lat. "modulus" (Maß(stab)) entlehnte Wort "Model" (Muster, Form, z. B. Kuchenform), das noch im Verb "ummodeln" und einigen Fachsprachen und Dialekten fortlebt. Modellbildung. Die Modellbildung abstrahiert mit dem Erstellen eines Modells von der Realität, weil diese meist zu komplex ist, um sie genau abzubilden. Dies wird aber auch gar nicht beabsichtigt, vielmehr sollen lediglich die wesentlichen Einflussfaktoren identifiziert werden, die für den zu betrachtenden Prozess bedeutsam sind. Man unterscheidet die strukturelle und die pragmatische Modellbildung. Bei struktureller Modellbildung ist die innere Struktur des Systems bekannt, es wird jedoch bewusst abstrahiert, modifiziert und reduziert. Man spricht hier von einem Whitebox-Modell. Bei pragmatischer Modellbildung ist die innere Struktur des Systems unbekannt, es lässt sich nur das Verhalten bzw. die Interaktion des Systems beobachten und modellieren. Die Hintergründe lassen sich meist nicht oder nur zum Teil verstehen – hier spricht man von einem Blackbox-Modell. Zudem gibt es Mischformen, bei denen Teile des Systems bekannt sind, andere wiederum nicht. Nicht alle Wechselwirkungen und Interaktionen zwischen Teilkomponenten lassen sich nachvollziehen – hier spricht man vom Greybox-Modell. Diese Mischform ist die häufigste, weil es aufgrund von Kosten-Nutzen-Überlegungen meist ausreichend ist, das System auf diese Weise abzubilden. Komplexität und Qualität eines Modells. Ein Ziel eines Modellierers ist generell die Reduzierung der Komplexität des Modells gegenüber der Realität. Ein häufiger Trugschluss ist daher, ein Modell mit der Realität gleichzusetzen. Tatsächlich kann lediglich der Modellkontext bestimmt und optimiert werden. Damit wird die Zweckbindung des Modells bestimmt. Weiter kann das Modell hinsichtlich der Komplexität variiert werden. Im Grundsatz bleibt das Modell in allen Merkmalen außer der Verständlichkeit immer hinter der Realität zurück. Modelle in verschiedenen Kategorien. Jede Wissenschaftsdisziplin hat ihre eigenen Modellsystematiken. Diese ändern sich mit der laufenden Entwicklung in der jeweiligen Kategorie und folgen neuen Schwerpunkten auch mit Verzweigungen solcher Systematik. Die Mathematisierung einzelner Wissenschaftszweige, wie der Betriebswirtschaftslehre (Prognoseverfahren), der Volkswirtschaftslehre (Simulationsverfahren) oder der Biologie (Gentechnik) eröffneten völlig neue Modellwelten. Mathematische Modelle in der Wissenschaft. Mathematische Modelle sind in mathematischen Formeln beschriebene Modelle. Sie versuchen, die wesentlichen Parameter der meist natürlichen Phänomene zu erfassen. Durch die formelle Beschreibung kann ein Modell berechnet und wissenschaftlich geprüft werden. Berechenbarkeit bedeutet hier sowohl die analytische Untersuchung als auch die Approximation mittels numerischer Verfahren. In der Regel sind auch die sogenannten physikalischen Modelle mathematische Modelle, sie stützen sich jedoch auf physikalische Gesetzmäßigkeiten. Ein valides Modell kann zur Prognose eines zukünftigen Verhaltens benutzt werden. Bekannte Anwendungsfälle mathematischer Modelle sind etwa Prognosen des Klimawandels, des Wetters oder die Statik eines Gebäudes. Oft werden bei mathematischen Modellen Empirische Funktionen verwendet. Mathematik und Logik. In der Modelltheorie der mathematischen Logik geht es nicht um eine Abbildung der Wirklichkeit in Mathematik. Hier versteht man unter einem Modell eines Axiomensystems eine mit gewissen Strukturen versehene Menge, auf die die Axiome des Systems zutreffen. Die Existenz eines Modells beweist, dass sich die Axiome nicht widersprechen; existieren sowohl Modelle mit einer gewissen Eigenschaft als auch solche, die diese Eigenschaft nicht haben, so ist damit die logische Unabhängigkeit der Eigenschaft von den Axiomen bewiesen. In der Logik ist das "Modell einer Formel F" eine Bewertung, die "F" den Wahrheitswert "" zuordnet. Man spricht auch davon, dass diese Bewertung die Formel erfüllt. Das Modell eines Satzes (einer Formel) ist daher eine Interpretation, die den Satz (die Formel) erfüllt. Entsprechend ist das "Modell einer Menge wohlgeformter Formeln" die Interpretation durch Zuordnung von semantischen Werten zu den in den Formeln enthaltenen einfachen Ausdrücken, so dass alle Formeln den Wahrheitswert "" erhalten, also eine Belegung, die die betreffende Menge verifiziert. Abstrakter kann man formulieren, dass wenn "Σ eine Menge von L-Sätzen [ist]; eine L-Struktur, die jeden Satz in Σ wahr macht, […] ein Modell von Σ [heißt]." im Historischen Wörterbuch der Philosophie: „"Modell" heißt in der Logik ein System aus Bereichen und Begriffen, insofern es die Axiome einer passend formulierten Theorie erfüllt.“ Die Modelltheorie der Logik wird auch in der modelltheoretischen Semantik verwandt. Wissenschaftstheorie. In der Methodologie und Wissenschaftstheorie wird zwischen Modellen unterschieden, die zur Erklärung von bekannten Sachverhalten oder Objekten dienen und solchen, die auf einer hypothetischen Annahme (Hypothese) beruhen und bei denen der Entdeckungszusammenhang beim Test von Theorien im Vordergrund steht. Erklärende Modelle sind häufig Skalenmodelle, die einen maßstäblichen Bezug zur Wirklichkeit haben (Spielzeugauto). Demgegenüber stehen Analogiemodelle, die die Strukturähnlichkeit (Homomorphie) der abgebildeten Wirklichkeit erzeugen (sollen) wie zum Beispiel das Planetenmodell der Atome. Für Theorien werden oftmals abstrakte oder fiktive Modelle gebildet. Eine weitere Unterscheidung ist, ob Modelle beschreibend sind (deskriptiv) oder ob durch die Modelle ein Sachverhalt festgelegt wird (präskriptiv). Dem Modell kommt im wissenschaftlichen Erkenntnis­prozess eine große Bedeutung zu. Unter bestimmten Bedingungen und Zwecksetzungen besitzen Modelle bei der Untersuchung realer Gegenstände und Prozesse in unterschiedlichen Wirklichkeitsbereichen und beim Aufbau wissenschaftlicher Theorien eine wichtige Erkenntnisfunktion. So dienen sie u. a. dazu, komplexe Sachverhalte zu vereinfachen (idealisieren) bzw. unserer Anschauung zugänglich zu machen. Fiktive Modelle sind Mittel zur tieferen und umfassenderen Erkenntnis der Wirklichkeit. Im Prozess der Abstraktion mit Methoden der Idealisierung bzw. der Konstruktion entstanden, helfen sie, reale Eigenschaften, Beziehungen und Zusammenhänge aufzudecken, bestimmte reale Eigenschaften erfassbar und praktisch beherrschbar werden zu lassen. Sie werden zumeist gebildet, um auf real existierende Objekte die Mittel der theoretischen, besonders der mathematischen Analyse anwenden zu können. Beispiele: ideales Gas, absolut schwarzer Körper, Massenpunkt, vollkommener Markt u. a. (siehe ideales Objekt) Die erkenntnistheoretische und logische Möglichkeit und Rechtfertigung der Zulässigkeit von Modellen ist nur eine Seite. Wesentlich ist letztlich die Rechtfertigung der Zulässigkeit der Fiktion durch die tätige Praxis, das heißt der praktische Nachweis, dass die mit Hilfe des Modells aufgebaute Theorie auf reale Objekte effektiv angewendet werden kann. Eine gesonderte Diskussion wird in der Wissenschaftstheorie darüber geführt, ob Modelle als Repräsentationen die Realität abbilden (Realismus), oder ob es sich nur um theoretische Konstruktionen handelt (Konstruktivismus). Sozial- und Kulturwissenschaften. In den Sozialwissenschaften wird der Begriff des Modells nicht erst seit Niklas Luhmann vielfältig verwendet. Zum Beispiel wird ein Theoriegebäude zur Analyse und Planung von Unterricht als ein „didaktisches Modell“ bezeichnet. Dieser Sprachgebrauch beruht auf der modellhaften Analogie, dass in der Entwicklung einer Handlungsanleitung die methodischen Schritte Formulierung, Erprobung, Validierung aufeinander folgen. Für den Anthropologen Edward T. Hall umfasst eine Kultur eine Reihe von situationsspezifischen Modellen des Verhaltens und des Denkens ihrer Mitglieder. Diese Modelle können wiederum von Ethnologen und Anthropologen hochgradig abstrakt beschrieben werden (z. B. in Form eines Verwandtschaftsmodells). Aber auch solche Modelle des Denkens können durchaus reale Wirkungen implizieren ("Theoreality"). Max Weber sprach vom Idealtypus in der sozialwissenschaftlichen Forschung und meinte damit nichts Anderes als ein abstraktes, idealisiertes Modell der Realität. Ein Idealtypus kann sowohl gesellschaftliche Strukturen ("Demokratie" oder "mittelalterliche Stadt") als auch zeitliche Verläufe ("Revolutionen" oder "Konjunkturmodelle") beschreiben. Psychologie. In der Psychologie werden verschiedene „Modelle des Menschen“ unterschieden. Es handelt sich hierbei um Paradigmen, die sich in den Grundannahmen und der Methodologie unterscheiden. Der Modellbegriff spielt weiterhin in der Lerntheorie eine zentrale Rolle; auch die Pädagogische Psychologie thematisiert diese Lernform (siehe Lernen, Beobachtungslernen, Modelllernen, Imitationslernen, Lernen am Vorbild). Die Theorie vom Modelllernen oder vom Lernen am Modell erläutert, wie Verhalten zustande kommt, nämlich durch die Nachahmung des Verhaltens, das eine Person (das Modell) realisiert hat. Dabei spielt es z. B. eine Rolle, welches Verhältnis der Nachahmende zum Modell (Eltern, Lehrer, Erzieher usw.) hat oder wie erfolgreich ein Modell sein Verhalten (in sozialen Situationen) gestalten kann bzw. welches gesellschaftliche Ansehen ein Modell zeigt. Man kann davon ausgehen, dass insbesondere komplexe Verhaltensketten im sozialen Umfeld durch Nachahmungslernen zustande kommen. Feldtheorie: Der Psychologe Kurt Lewin (1890–1947) war ein großer Meister im Entwerfen von Modellen für komplexe Sachverhalte in der Psychologie ("Feldtheorie in den Sozialwissenschaften", Bern 1963), etwa in den motivationspsychologischen Arbeiten. Pädagogik. Die Frage nach dem Modell ist in der Pädagogik vor allem die Frage nach dem Selbstverständnis des Erziehenden. (In der Alltagssprache verwendet man eher das Wort Vorbild.) Der agierende Erzieher muss sich die Frage gefallen lassen, ob er exakt das in seinem Verhalten realisiert, was er theoretisch und praktisch in Erziehungssituationen als angemessen bis optimal zu fordern bereit ist, um als Modell (Vorbild) fungieren zu können. Ist er nicht dazu bereit oder nicht in der Lage, mangelt es ihm nach allgemeinem Verständnis an Glaubwürdigkeit. Ein Erziehender, der vom Kind/Jugendlichen z. B. Vertrauen fordert, selbst aber kleinlich auf die Einhaltung von Vorschriften aus ist, die er womöglich selbst formuliert hat, produziert einen Widerspruch zwischen seinen Forderungen und dem konkreten Verhalten. Als Modell wäre er damit zutiefst unglaubwürdig. Erziehende, die viele Widersprüche dieser Art aufweisen, können in ihrer Tätigkeit nicht erfolgreich sein, da sie unweigerlich Konflikte mit den Kindern und Jugendlichen hervorrufen, die sie überdies schwer erklären oder rechtfertigen können. Glaubwürdiges Modell zu sein, erfordert viel Selbstkritik und Reflexion seiner Tätigkeit. Das glaubhafte Modell bildet also der Erzieher, der seine Werte, Erziehungsvorstellungen und Lehren nicht nur verbal vertritt, sondern für alle sichtbar lebt – vorerst einmal unabhängig davon, welche pädagogische Ideologie er vertritt. Da man nicht voraussetzen kann, dass ein Erziehender gänzlich ohne Fehl und Tadel wirken kann, müsste man in diesem Sinne einen Erzieher fordern, der seine internen Widersprüche auf ein akzeptables Maß reduziert, um ein glaubhaftes Modell werden zu können. Ein professionell handelnder Erzieher kann nur der sein, der seine Widersprüche zu reflektieren bereit und imstande ist. Ein Modell (Vorbild) von historischem Ausmaß etwa war Janusz Korczak, der mit den Kindern aus seinem Kinderheim im Warschauer Ghetto in die Gaskammer ging, obwohl ihm die Nazis angeboten hatten, er müsse die Waisen nicht begleiten. Er entschied sich aber dafür, die Kinder bei ihrem letzten Gang nicht allein zu lassen. Informatik. In der Informatik dienen Modelle zum einen zur Abbildung eines Realitätsausschnitts, um eine Aufgabe mit Hilfe der Informationsverarbeitung zu lösen. Derartige Modelle heißen Domänenmodelle. Hierunter fallen z. B. Modelle für zu erstellende Software sowohl für deren Architektur (Architekturmodell) als auch deren Code (in Form von beispielsweise Programmablaufplandiagrammen) und Datenmodelle für die Beschreibung der Strukturen von zu verarbeitenden Daten aus betrieblicher/fachlogische Sicht oder aus technischer Datenhaltungssicht. Zum anderen können Modelle als Vorlage bei der Konzeption eines informatorischen Systems dienen, man spricht dann von Modellsystemen. Hierunter fallen insbesondere Referenzmodelle, die allgemein als Entwurfsmuster eingesetzt werden können. Referenzmodelle werden beispielsweise für die Konzeption konkreter Computerarchitekturen, Netzwerkprotokolle, Anwendungssysteme, Datenhaltungssysteme und Portale herangezogen. Neben diesen Modellen, die sich in Hard- und Software sowie in Datenbeständen konkretisieren, gibt es auch Planungs-, Steuerungs- und Organisationsmodelle. Typische zu modellierende Objekte sind hierbei die Ablaufstruktur eines Geschäftsprozesses, abgebildet in einem Geschäftsprozessmodell, und die Aufbaustruktur einer betrieblichen Organisation, abgebildet in einem Organigramm. (Lit.: Broy) In der Wirtschaftsinformatik (WI) dienen Modelle vorwiegend der Beschreibung realer und soziotechnischer Systeme, siehe Modell (Wirtschaftsinformatik). Bei der Modellierung von Mensch-Maschine-Systemen – eine Domäne der Wirtschaftsinformatik – muss die technische wie auch die menschliche Komponente modelliert werden. Für den Menschen stehen unterschiedliche Modelle zur Verfügung, die verschiedene Aspekte menschlichen Verhaltens und menschlicher Fähigkeiten nachbilden und die entsprechend dem Untersuchungsziel ausgewählt werden. "Fahrermodelle" oder "Pilotenmodelle" modellieren den Menschen in einer ganz bestimmten Arbeitssituation, "Regler-Mensch-Modelle" in seiner allgemeinen Fähigkeit, eine Größe zu regeln. Die Anpassungsfähigkeit des Menschen an kognitiv unterschiedlich anspruchsvolle Aufgaben wird im "Drei-Ebenen-Modell" nach Rasmussen nachgebildet. Ein Gegenstand der Forschung ist unter anderem, kognitive Architekturen wie PM oder SOAR in der anwendungsorientierten Modellierung und Simulation (MoSi) von Mensch-Maschine-Schnittstellen einzusetzen. Naturwissenschaften: Chemie und Physik. In der "Chemie" dienen Modelle insbesondere zur Veranschaulichung von kleinsten Teilchen, wie beispielsweise Atome und Moleküle, und zur Erklärung und Deutung von chemischen Reaktionen, die oftmals auch simuliert werden. Modellexperimente stellen häufig die Funktion von technischen Prozessen dar. In der "Physik" spielen Modelle ähnlich wie in der Chemie zur Veranschaulichung und zum Verständnis von Atomen und Elementarteilchen eine große Rolle. Physikalische Theorien und Modelle sind eng verknüpft und bestimmen das Denken in Modellen zur Erkenntnisgewinnung und zum Verständnis von Relationen und Strukturen. Beispiele für Theorien sind die Atomtheorie, die kinetische Gastheorie, die Wellentheorie des Lichts und die Relativitätstheorie. Zur Modellbildung gehört auch die Mathematisierung physikalischer Gesetzmäßigkeiten. Im didaktischen Bereich werden Modelle häufig im Sinne von Analogien zwischen dem zu untersuchenden Objektbereich und schon erforschten Bereichen benutzt. Zusätzlich werden Demonstrationsmodelle als vereinfachte Abbilder (z. B. das Planetenmodell) benutzt. Simulationen dienen neben der Veranschaulichung physikalischer Zusammenhänge der Überprüfung von Hypothesen. Experimente haben nicht nur im Physikunterricht oft Modellcharakter, indem sie die komplexe Realität vereinfachen und sich bei der induktiven Herleitung von Gesetzmäßigkeiten auf das Wesentliche beschränken. Funktionsmodelle haben beispielsweise eine Bedeutung zur Verdeutlichung der Funktion von einfachen Maschinen. Modellplatonismus. Der Begriff wurde durch Hans Albert geprägt. Er kennzeichnet kritisch die Abweichung des neoklassischen Denkstils in der Volkswirtschaftslehre von der Methodologie einer empirischen Sozialwissenschaft. Als Beispiele dienen das Nachfragegesetz, die Quantitätstheorie sowie die Wachstumstheorie. Obwohl die neoklassische Theorie mit ihren Modellbetrachtungen offenkundig auf das wirtschaftliche Handeln von Menschen gerichtet ist, wird die soziale Verursachung des menschlichen Handelns, wie sie etwa die empirische Sozialwissenschaft auf unterschiedliche Weise in Rechnung stellt, größtenteils ausgeschaltet. Einige Theoretiker leugnen gar die Absicht, kausale Erklärungen zu liefern und begnügen sich anstelle von Aussagen, die Informationsgehalt besitzen, weil sie an empirischen Daten scheitern können, mit Aussagen, die nichts weiter als einen Realitätsbezug aufweisen (d. h. reale Dinge erwähnen). Verbunden wird diese Vorgehensweise mit der Tendenz, die Aussagen so zu gestalten, dass sie schon aufgrund ihrer logischen Struktur wahr sind. Erreicht wird dies durch tautologische Formulierungen oder die Anwendung von konventionalistischen Strategien (Immunisierungsstrategie), wozu zum Beispiel die Verwendung einer expliziten oder impliziten ceteris-paribus-Klausel rechnet. Dieser von ihren Anhängern in ihren praktischen Konsequenzen für die Anwendbarkeit der analytischen Ergebnisse nicht immer überblickte methodische Stil des Denkens in Modellen, die von jedweder empirischen Überprüfbarkeit bewusst oder unbewusst abgeschottet werden, läuft auf eine neuartige Form des Platonismus hinaus. Platon war davon überzeugt, dass die Wirklichkeit durch rein logisches Denken erkannt werde; statt die Sterne zu beobachten, sollten wir deren Bewegungsgesetze durch das Denken ergründen. In der deutschen Nationalökonomie dominierte damals der Schulenstreit zwischen Begriffsrealismus (Essentialismus) und Modellplatonismus. Diese Frontstellung hält Albert für aus methodologischen Gründen verfehlt; er setzt sich stattdessen ein für Wirtschaftswissenschaft, verstanden als eine empirische Sozialwissenschaft. In diesem Sinne spricht er auch von Marktsoziologie oder einer „Soziologie der kommerziellen Beziehungen“. Mel Gibson. Mel Columcille Gerard Gibson, AO (* 3. Januar 1956 in Peekskill, New York) ist ein US-amerikanisch-australischer Schauspieler, Filmregisseur und Produzent. Er wurde durch Rollen in weltweit erfolgreichen Actionfilmen bekannt, für die er vor allem in den 1990er Jahren Rekordgagen erhielt. Für seinen Film Braveheart erhielt er 1996 zwei Oscars (beste Regie, bester Film) und einen Golden Globe ebenfalls für die beste Regie. Als Filmemacher, politischer Aktivist und durch sein persönliches Verhalten löste er wiederholt heftige Kontroversen aus. Leben und Karriere. Gibson wurde als sechstes von zehn Kindern einer irischstämmigen katholischen Familie geboren und ist katholisch. Ein elftes Kind wurde adoptiert. Der ebenfalls in den USA geborene Vater Hutton Gibson zog nach einem Gewinn von 25.000 US-Dollar im TV-Quiz "Jeopardy!" 1968 mit der ganzen Familie nach Australien, woher seine Frau stammte. Der Schauspieler. Eine von Gibsons Schwestern entdeckte dessen schauspielerisches Talent und veranlasste ihn zu einer Bewerbung beim National Institute of Dramatic Art in Sydney. Dort konnte er in mehreren Theaterstücken erste Erfahrungen sammeln. Erfolge in Australien. Nach einigen kleineren Rollen auf der Bühne und vor der Kamera bekam Mel Gibson 1979 in dem von George Miller inszenierten Kinofilm "Mad Max" die Rolle eines Polizisten, der sich durch eine post-apokalyptische Welt kämpfen muss. Der selbst für australische Verhältnisse relativ günstig produzierte Film wurde zu einem weltweiten Kassenerfolg, der seinen Hauptdarsteller international bekannt machte und zu drei aufwendig produzierten Fortsetzungen 1981, 1985 und 2015 führte, letzterer aber ohne Gibsons Beteiligung. Gibsons Durchbruch als Darsteller mit romantischen Qualitäten markierte 1982 Peter Weirs vielfach ausgezeichneter, melodramatischer Politthriller "Ein Jahr in der Hölle", in dem Mel Gibson als Auslandsreporter an der Seite von Sigourney Weaver in die Ereignisse des Coups vom 30. September 1965 in Indonesien verwickelt wird. Durchbruch in Hollywood. 1984 trat er in seinen ersten Hollywood-Rollen auf: Als Fletcher Christian in "Die Bounty" (mit Anthony Hopkins als Kapitän Bligh) und als Partner von Sissy Spacek in dem in Tennessee angesiedelten Drama "Menschen am Fluß", einem Film über eine Farmerfamilie im Kampf gegen Banken und Naturgewalten. Aufstieg zum Superstar. 1987 geriet Gibson schließlich an die Rolle, die ihn zu einem Superstar machte: In Richard Donners "Lethal Weapon" verkörperte er an der Seite seines bedächtigen Partners "Roger Murtaugh" (Danny Glover) die Rolle des psychisch labilen, zu Gewaltausbrüchen und zur Selbstzerstörung neigenden Polizisten "Martin Riggs". Der Film mit seiner Mischung aus Screwball-Comedy und hyperkinetischen Gewaltexzessen erneuerte das Genre des Actionthrillers und führte 1989 mit "LW2 – Brennpunkt L.A." sowie 1992 mit "LW3 – Die Profis sind zurück" und 1998 mit dem vorläufig letzten Teil "LW4 – Zwei Profis räumen auf" zu drei Fortsetzungen. Ein fünfter Teil, "Lethal Weapon 5", war bereits 2008 produktionsreif, scheiterte aber offensichtlich an Gibsons Absage, der ohne Richard Donner als Regisseur nicht mitmachen wollte. In der Folge festigte Gibson mit weiteren actionorientierten Filmen seine Position als einer der bestbezahlten Darsteller des US-Kinos. Filme wie Kopfgeld – Einer wird bezahlen, Payback – Zahltag und Der Patriot wurden auch international zu Kassenschlagern. Daneben trat er auch in Rollen jenseits des Mainstream auf. So war er 1990 in Franco Zeffirellis Adaption von "Hamlet" zu sehen und spielte 2000 in dem Film "The Million Dollar Hotel" des deutschen Regisseurs Wim Wenders einen FBI-Ermittler. Rückzug und Comebackversuche. Gibson zählte bis Anfang der 2000er Jahre zu den populärsten Hollywood-Schauspielern. Nach Hauptrollen in den Filmen "Signs – Zeichen" und dem Kriegsepos "Wir waren Helden", die erneut erfolgreich in den Kinos liefen, von der Kritik jedoch allgemein und auch in Bezug auf Gibsons schauspielerische Leistungen durchwachsen aufgenommen wurden, kündigte er einen weitestgehenden Rückzug von der Schauspielerei an, um als Produzent und Regisseur zu arbeiten. 2010 kehrte Gibson nach sieben Jahren Pause in "Auftrag Rache" auf die Leinwand zurück, ein Jahr später war er in der Hauptrolle an der Seite von Jodie Foster im Filmdrama "Der Biber" zu sehen. Während ersterer ein wenn auch vergleichsweise bescheidener Erfolg wurde, floppte letzterer an den Kinokassen. Der Filmregisseur. 1989 gründete er zusammen mit Bruce Davey die Produktionsfirma Icon Productions, welche fortan seine Filme produziert. Sein Debüt als Regisseur gab Mel Gibson 1993 im Film "Der Mann ohne Gesicht", in dem er auch die Hauptrolle des Lehrers „Justin McLeod“ übernahm, dessen Gesicht durch einen Autounfall entstellt wurde. 1995 war er Regisseur, Produzent und Hauptdarsteller des historischen Schlachtengemäldes "Braveheart". Der Film erntete zehn Oscar-Nominierungen und gewann in fünf Kategorien, unter anderem als Bester Film und für die Beste Regie. Ab 1992 bereitete er den Film "Die Passion Christi" vor, den er dann 2003 in Italien drehte, mit einem selbstaufgebrachten Budget in Höhe von 25 Millionen Dollar, was in etwa seiner damaligen Gage als Hauptdarsteller in einem Film entsprach. Gibsons Ankündigung, den Film in den aramäischen Originalsprachen und zudem ohne Untertitel aufzuführen (für deren Verwendung er sich letztendlich doch entschied), ließ im Vorfeld den Erfolg zweifelhaft erscheinen. Der Film erreichte jedoch 2004 einen Platz unter den bis zu diesem Zeitpunkt zehn kommerziell erfolgreichsten Kinofilmen. Vor allem wegen seiner expliziten Gewaltdarstellungen löste der Film jedoch heftige Proteste von unterschiedlicher Seite aus. Ähnlich wurde 2006 sein kurz vor dem Erscheinen der Konquistadoren im Reich der Maya angesiedelter, kommerziell ebenfalls erfolgreicher Film "Apocalypto" aufgenommen. Sein geplantes nächstes Regieprojekt ist der Film "The Maccabees" über den jüdischen Freiheitskämpfer Judas Makkabäus. Ein im Februar 2012 eingereichtes erstes Drehbuch von Joe Eszterhas wurde von Gibson abgelehnt. Der Produzent. Gibson ist Eigentümer der Unternehmensgruppe "Icon". Das Tochterunternehmen "Icon Productions" produzierte seine Filme "Braveheart", "Apocalypto" und "Die Passion Christi". "Icon Entertainment International" hält die Rechte an rund 200 Filmproduktionen. Zur Gruppe gehören zwei weitere Unternehmen, die Filme in Großbritannien und Australien veröffentlichen und vertreiben (Kinoverleih und später DVD-Veröffentlichungen). "Icon Productions" vertreibt unter anderem die deutsche Produktion "Der Baader Meinhof Komplex" in Australien. Privatleben. Gibson war von 1980 bis 2009 mit der ehemaligen Zahnarzthelferin Robyn Gibson, geborene Moore, verheiratet, mit der er sieben Kinder hat, eine Tochter und sechs Söhne. Im April 2009 reichte Robyn Gibson wegen „unüberbrückbarer Differenzen“ die Scheidung ein. Dabei wurde bekannt, dass das Ehepaar bereits seit August 2006 getrennt lebte. Als Grund für die Differenzen wurde Gibsons Beziehung zu der russischen Popsängerin Oksana Grigorieva genannt. Mit ihr bekam er im Oktober 2009 sein achtes Kind, ein Mädchen. Am 14. April 2010 berichtete das People-Magazin, dass sich beide getrennt haben. Gibson machte mehrfach mit homo- und xenophoben Äußerungen Schlagzeilen, die häufig im Zusammenhang mit seinem seit den frühen 1990er Jahren bekannten Alkoholmissbrauch fielen. Gibson befand sich wegen seiner Suchterkrankung diverse Male in Behandlung. Besonders bekannt wurde eine seiner verbalen Entgleisungen, als Gibson kurz vor Erscheinen seines Filmes "Apocalypto" wegen Alkohol am Steuer von einer Polizeistreife festgenommen worden war und dabei antisemitische Tiraden von sich gegeben hatte. Dies führte zu heftigen Reaktionen in der Presse und in der Öffentlichkeit zu Boykottaufrufen gegen ihn. Gibson trat daraufhin in verschiedenen Talkshows auf, um sich für sein Verhalten zu entschuldigen. Von einem Gericht wurde er wegen Fahrens unter Alkoholeinfluss zu einer dreijährigen Bewährungszeit, zur Zahlung einer Geldstrafe von 1.300 US-Dollar und zur regelmäßigen Teilnahme an Treffen der Anonymen Alkoholiker verurteilt. Mit diesem Skandal und den daraus resultierenden Negativschlagzeilen kam Gibsons Hollywood-Karriere nahezu zum Erliegen. Die wenigen Filme, die er seither gedreht hat, stießen beim Publikum auf weniger Resonanz als die vorherigen Produktionen. 2005 erwarb er von dem japanischen Unternehmen "Tokyu Corporation" die zu Fidschi gehörende Insel Mago im Pazifik. Religion und politische Aktivität. Im Zusammenhang mit dem Film "Die Passion Christi" wurde öffentlich Gibsons religiöse Einstellung diskutiert. Seine Verbindung zum katholischen Traditionalismus ist bekannt. Auf seinem Gut in Kalifornien ließ Gibson eine Kapelle errichten, in der die Heilige Messe nur in der außerordentlichen Form zelebriert wird. Sein Vater, Hutton Gibson, ist ein Sedisvakantist und Anhänger von Verschwörungstheorien, was auch zu Konflikten mit seinem Sohn führte. 2004 setzte sich Gibson in Zusammenhang mit einem kalifornischen Volksentscheid gegen die Forschung mit embryonalen Stammzellen ein. Filmografie. Am häufigsten wurde er für die deutschsprachigen Fassungen seiner Filme von Elmar Wepper synchronisiert, der als Gibsons deutsche Standardstimme gilt. Aber auch Frank Glaubrecht und Joachim Tennstedt liehen ihm regelmäßig ihre Stimmen. Ehrungen. Gibson wurde aufgrund seiner Verdienste für die australische Gesellschaft zum Honorary Officer des Order of Australia ernannt. Mathematiker. a> erhielt 1884 als erste Frau eine Professur für Mathematik Mathematiker beschäftigen sich mit der Bewahrung und Weiterentwicklung des Fachgebiets der Mathematik und mit der Anwendung der Erkenntnisse auf praktische Belange. Die Anwendung mathematischer Methoden führt zu exakten Erkenntnissen und Aussagen, in bestimmten Teilgebieten auch zu quantitativen Ergebnissen (z. B. aus der Numerik und der Statistik). Sie können auf Spezialgebieten tätig sein, so z. B. Numerische Mathematik, Statistik, Mathematische Logik, Algebra, Geometrie, Analysis, Modelltheorie und Wahrscheinlichkeitstheorie. Da viele Verfahren und Techniken sich auch auf andere Teilbereiche übertragen lassen, ist nicht immer eine eindeutige Einordnung möglich. Ausbildung. Der akademische Grad "Diplom-Mathematiker" wird durch ein Studium an einer Universität erworben, Fachhochschulen verleihen den Grad "Diplom-Mathematiker" (FH). Die Regelstudienzeit an der Universität beträgt an den meisten Universitäten neun Semester, an Fachhochschulen acht Semester. Nach der Umstellung auf das europäische Studiensystem beträgt die Studiendauer bis zum Bachelor sechs Semester, die zum darauf aufbauenden Master weitere vier Semester. Inwiefern diese Richtwerte mit der tatsächlichen Studiendauer übereinstimmen, wird sich noch zeigen, wenn die ersten Absolventen nach dem neuen System ihr Studium abschließen. Studieninhalte. Studieninhalte im Grundstudium umfassen in der Regel: Analysis, Lineare Algebra, Numerik, Stochastik, ein Wahlpflichtfach und ein Nebenfach. Im Hauptstudium werden Bereiche der reinen (theoretischen) und angewandten Mathematik vertieft, beispielsweise in Richtung Differentialgeometrie, Topologie, Funktionalanalysis oder Optimierung. Dazu kommt ein Nebenfach, das mitunter die Anwendung der Mathematik in anderen Fächern behandelt, beispielsweise Wirtschaftswissenschaften, Informatik oder Physik. Miloš Forman. Miloš Forman (* 18. Februar 1932 in Čáslav, Tschechoslowakei; eigentlich Jan Tomáš Forman) ist ein tschechischstämmiger US-amerikanischer Filmregisseur, dessen Arbeiten mit zwei Oscars ausgezeichnet wurden. Leben und Werk. Formans Kindheit ist gekennzeichnet durch den frühen Verlust seiner Eltern. Die Mutter starb im Konzentrationslager Auschwitz, der Vater in Buchenwald. Der Junge war Augenzeuge ihrer Verhaftung durch die Gestapo. Verwandte und Freunde der Eltern zogen ihn groß. Nach dem Besuch des Gymnasiums in Náchod war er nach dem Krieg in einer Internatsschule in Poděbrady; einer seiner Klassenkameraden war Václav Havel. Dort kam er zum ersten Mal mit dem Theater in Berührung und begeisterte sich für die Filme von Charlie Chaplin, Buster Keaton und John Ford. Miloš Forman studierte an der Prager Filmhochschule FAMU und war Anfang der 1960er Jahre einer der tonangebenden Vertreter der "Neuen Welle", der früh einen eigenen, vom Cinéma vérité beeinflussten Stil entwickelte. Bereits sein erster abendfüllender Spielfilm "Der schwarze Peter" ("Černý Petr"), die Geschichte eines unangepassten Teenagers, wurde ein Erfolg auf mehreren Filmfestivals. Der Film brachte Forman einerseits Kritik durch die kommunistischen Machthaber ein, andererseits ermöglichte er ihm seine erste Amerika-Reise. Er wirkte teilweise auch an der Prager Kleinkunstbühne Semafor, wo er 1964 in dem Film "Konkurs" Regie führte. "Der Feuerwehrball" ("Hoří, má panenko") übte kaum verhüllte Gesellschaftskritik: Der Film handelt von einem Fest, auf dem wegen tölpelhafter Einmischung der Funktionäre alles schiefläuft. Der Film wurde in der Tschechoslowakei nach 1969 verboten. Als der Prager Frühling durch den Einmarsch von Truppen des Warschauer Paktes niedergeschlagen wurde, war Forman gerade in Paris, um über seinen ersten amerikanischen Film zu verhandeln. Sein tschechisches Studio behauptete, er habe das Land illegal verlassen und zwang ihn so zur Emigration. Forman ging in die Vereinigten Staaten und nahm 1975 die amerikanische Staatsbürgerschaft an. In der neuen Heimat gelang ihm der internationale Durchbruch als erfolgreicher Filmregisseur. Zur Verärgerung der kommunistischen Führung der Tschechoslowakei war sein erster amerikanischer Film "Taking Off" der offizielle US-Beitrag auf den Internationalen Filmfestspielen von Cannes. 1975 wurde sein Film "Einer flog über das Kuckucksnest" ("One Flew Over the Cuckoo’s Nest"), der auf Ken Keseys gleichnamigen Roman sowie auf dem Theaterstück von Dale Wasserman beruhte, mit fünf Oscars ausgezeichnet, Forman erhielt seinen ersten Regie-Oscar. Noch erfolgreicher war die auch von Zaentz produzierte filmische Umsetzung von Peter Shaffers Theaterstück "Amadeus". Bei der Oscarverleihung 1985 gewann der Film achtmal, Forman gewann seinen zweiten Regie-Oscar. Sein bisher letzter Film "Goyas Geister" von 2006 behandelt ein Thema aus dem Leben des spanischen Malers Francisco de Goya. Dieser Film wurde ebenfalls von Saul Zaentz produziert. Forman macht bevorzugt Filme über unangepasste Helden, meist Künstler, die sich dem Konformitätsdruck der Gesellschaft erfolgreich oder erfolglos widersetzen. Einige dieser Hauptfiguren sind historische Persönlichkeiten (Wolfgang Amadeus Mozart, Larry Flynt, Andy Kaufman und Francisco de Goya). Der stets politisch bewusste Forman erklärte seine Vorliebe für solche Charaktere so: „Wir schaffen Institutionen, Regierungen und Schulen, um uns im Leben zu helfen, doch jede Institution entwickelt nach einer Weile die Tendenz, sich nicht mehr so zu verhalten, als sollte sie uns dienen, sondern als sollten wir ihr dienen. Das ist der Moment, wenn das Individuum mit ihnen in Konflikt gerät.“ In einigen Filmen übernahm Forman Nebenrollen, so etwa in "Sodbrennen" ("Heartburn") und "Glauben ist alles!" ("Keeping the Faith"). Sonstige. Forman ist einer von nur 3 Regisseuren, denen es gelang 2 Filme zu drehen, welche mit dem Oscar für den Besten Film ausgezeichnet wurden. ("Einer flog über das Kuckucksnest" und "Amadeus"). Die anderen beiden Regisseure sind Francis Ford Coppola und Frank Capra. Michael Cimino. Michael Cimino (* vermutlich am 3. Februar 1939 in New York) ist ein US-amerikanischer Filmregisseur. Leben und Werk. Cimino studierte zunächst Kunst und Architektur an der Yale-Universität. Er entdeckte sein Interesse am Theater und lernte die Regie-Arbeit beim Actors Studio. Er drehte anschließend Werbefilme und Dokumentationen. Es folgten Drehbücher für mehrere Filme, darunter "Dirty Harry II". 1974 führte er erstmals Regie für einen Kinofilm. Mit "Die durch die Hölle gehen" (1978) gelang ihm mit einem groß angelegten Epos über Soldaten im Vietnamkrieg und ihr beschädigtes Leben nach ihrer Rückkehr in die USA ein großer Erfolg. Der Film wurde unter anderem mit fünf Oscars ausgezeichnet, darunter jenem für die beste Regie. Cimino glaubte mit seinem nächsten Großprojekt an diesen Erfolg anschließen zu können. Der Spätwestern "Heaven’s Gate" aus dem Jahre 1980 wurde jedoch wegen völlig überzogener Produktionskosten, vernichtender Kritiken und eines enttäuschenden Einspielergebnisses zum bis dahin größten wirtschaftlichen Misserfolg der Filmgeschichte und führte dazu, dass die Transamerica Corporation das produzierende Studio United Artists an MGM verkaufte. 2012 sollte jedoch der Director’s Cut – mit 218 Minuten viel kürzer als das 5-h-Original – den Ehrenlöwen der Filmfestspiele von Venedig erhalten. Cimino hatte nach "Heaven’s Gate" bei der Finanzierung weiterer Projekte in Hollywood große Schwierigkeiten; alle bereits geplanten Filme mit United Artists wurden gestrichen. Fünf Jahre nach seinem Misserfolg konnte Cimino den italienischen Produzenten Dino De Laurentiis für seinen Thriller "Im Jahr des Drachen" (1985) gewinnen. Das Drehbuch verfasste er gemeinsam mit Oliver Stone. Der Film wurde sehr unterschiedlich aufgenommen. Einen Teil der US-amerikanischen Filmkritiker und Kinobesucher konnte Cimino für sich zurückgewinnen, kommerzieller Erfolg war jedoch auch diesem Streifen nicht beschieden. Die darauffolgenden Filme konnten ebenfalls nicht an den Erfolg von "Die durch die Hölle gehen" anknüpfen. 2001 veröffentlichte er mit "Big Jane" seinen ersten Roman. Dieser handelt von einer 19-jährigen, zwei Meter großen Frau, die Anfang der 1950er-Jahre die New Yorker Vorstadt verlässt, sich in drei verschiedene Männer verliebt, Rodeos reitet, nach Hollywood geht und schließlich im Koreakrieg mitkämpft. Im Jahr 2008 wurde bekannt, dass Cimino an einer Verfilmung des Romans "So lebt der Mensch" von André Malraux arbeitet. Mick Jagger. Mick Jaggers Sprechstimme, Interviewausschnitt von 2012 Sir Michael Philip Jagger, Kt (* 26. Juli 1943 in Dartford, Kent, England) ist ein britischer Musiker, Sänger und Songwriter. Berühmt geworden ist er als Frontmann der britischen Rockgruppe The Rolling Stones. Jagger spielt Mundharmonika, Gitarre und Klavier. Er wirkte auch als Schauspieler, Produzent und Komponist bei mehreren Filmen mit. Als Künstler verwendet er den Namen Mick Jagger. Leben. Mick Jaggers Vater, Basil Fanshawe (‚Joe‘) Jagger (1913–2006), stammte aus Nordengland und war Sportlehrer. Seine Mutter Eva Ensley Mary Jagger (geborene Scutts, 1913–2000) kam als Teenager von Australien nach England und arbeitete gelegentlich als Avon-Beraterin. Jaggers vier Jahre jüngerer Bruder Chris ist ebenfalls Musiker. The Rolling Stones. Bereits als Jugendlicher lernte Jagger Keith Richards kennen, der ebenfalls in Dartford aufgewachsen ist. 1961, in seiner Studienzeit an der London School of Economics and Political Science, trafen sich Jagger und Keith Richards zufällig wieder, als sie in Dartford auf den Zug warteten. Jagger hatte ein paar Schallplatten (Blues, Rock ’n’ Roll) dabei, und so unterhielten sie sich über Musik und verabredeten sich schließlich, um mit Freunden Blues und Rock ’n’ Roll zu spielen. Vorzugsweise an den Wochenenden fuhren Mick und Keith nach London, um in den angesagten Clubs der Stadt Live-Musik zu hören. So trafen sie auf Alexis Korner, spielten von Zeit zu Zeit in seiner Band mit und lernten den aus Cheltenham stammenden Gitarristen Brian Jones kennen. Zusammen mit Brian Jones gründeten Mick und Keith "The Rolling Stones". Die Band hatte im Juli 1962 ihren ersten Auftritt im Marquee Club in der Londoner Oxford Street. Jagger als Sänger und Richards an der Rhythmusgitarre führten die Gruppe zu Weltruhm. Jaggers markante Stimme wurde zum Markenzeichen der Stones. Mick Jagger und Keith Richards komponierten zusammen hunderte Lieder, darunter Klassiker wie "Tell Me", "The Last Time", "(I Can’t Get No) Satisfaction", "Paint It, Black", "Lady Jane", "Under My Thumb", "Out Of Time", "Ruby Tuesday", "Sympathy for the Devil", "Jumpin’ Jack Flash", "Street Fighting Man", "Honky Tonk Women", "Gimme Shelter", "You Can’t Always Get What You Want", "Brown Sugar", "Wild Horses", "Angie" und "Start Me Up". Andere musikalische Projekte. Sein erstes Soloalbum, "She’s The Boss", das 1985 erschien, war so erfolgreich, dass Jagger weitere Soloaktivitäten plante. So trat er anlässlich des Live-Aid-Konzerts am 13. Juli 1985 mit Tina Turner in Philadelphia auf. Zusammen mit David Bowie veröffentlichte er "Dancing in the Street". Die Single erreichte international Top-Positionen, das Video zum Lied fand viel Beachtung, und für das Live-Aid-Projekt gab es die Erlöse aus den Verkäufen. Die Solokonzerte im März 1988 in Japan sowie im September und Oktober 1988 in Australien, bei denen auch sehr viele Stones-Klassiker zu hören waren, brachten Keith Richards derart in Rage, dass eine gemeinsame Zukunft der ‚Glimmer Twins‘ mit den Rolling Stones kaum mehr möglich schien. Im Mai 2011 gründete Jagger seine neue Band SuperHeavy. Bandmitglieder sind neben Eurythmics-Gitarrist David A. Stewart die Solokünstler Joss Stone, A. R. Rahman sowie Damian Marley. Aktivitäten im Filmgeschäft. Neben der Musik war Jagger auch immer wieder im Filmgeschäft tätig. In Nicolas Roegs Kultthriller "Performance" hatte er an der Seite von Anita Pallenberg seine erste Hauptrolle. Aus dem Film-Soundtrack stammt ein Lied, das immer wieder aufgeführt wird, wenn es um Beispiele für Mick Jaggers Gesangsleistungen geht: "Memo from Turner". Es folgte ein Film über den australischen Outlaw Ned Kelly. In der ersten, unvollendeten Fassung von Werner Herzogs Film "Fitzcarraldo" spielte Jagger die Nebenrolle des Wilbur. Nach einer Unterbrechung der Dreharbeiten musste er jedoch wegen einer Tournee mit den Stones auf eine Fortführung der Arbeit verzichten. Da Herzog Jagger nicht durch einen anderen Schauspieler ersetzen wollte, strich er die Rolle aus dem späteren Film. Eine Szene mit Jagger ist in Werner Herzogs Mein liebster Feind enthalten. Gute Kritiken erhielt der Science-Fiction-Film Freejack. Mick Jagger sang 1987 das Titellied "Ruthless People" des gleichnamigen Films. Er betätigte sich auch als Filmproduzent "(Enigma)" und -komponist (2004-Remake von "Alfie)". Für das Filmlied "Old Habits Die Hard" erhielt er 2005 den Golden Globe. Image und Privatleben. Bereits 1965 war Mick Jagger zum Vorbild einer Generation geworden. Die Londoner "Times" berichtete damals von drei englischen Jugendlichen zwischen 13 und 14 Jahren, deren Schulleiter ihnen wegen ihrer langen Haare Strafarbeiten auferlegte, die Teilnahme am Unterricht verbot und Prügel androhte. Nach drei Wochen weigerten sich die Schüler immer noch, ihre Haare schneiden zu lassen, und zwar so lange, „bis Mick Jagger, ein Mitglied der Rolling Stones, sich seine schneiden ließ.“ Neben der Anerkennung für seine künstlerische Arbeit fand in der Boulevardpresse auch immer Jaggers Privatleben Beachtung. Seine Affären beschäftigten die Journalisten. In den 1970er Jahren berichtete die Boulevardpresse darüber, dass sich Jagger angeblich für beide Geschlechter sexuell interessiere, was nie bestätigt wurde. Solche Mutmaßungen lassen sich auch auf Jaggers damalige Bühnenshow zurückführen. So trat er 1973 bevorzugt in paillettenbesetzten und tief ausgeschnittenen Einteilern auf. Anlässlich der Tournee "Black and Blue" 1976 trug er bunte Kleidung aus Seide, hielt einen Fächer in der Hand und bot eine als feminin zu bezeichnende Show. Auch seine Bekanntschaft mit Andy Warhol trug zu seinem Image bei. Mick Jagger war zweimal verheiratet. Mittlerweile hat Jagger sieben Kinder, vier Enkel und einen Urenkel. In erster Ehe war er von 1971 bis 1980 mit Bianca Pérez-Mora Macías verheiratet. Sie haben zusammen die Tochter Jade Jagger (* 21. Oktober 1971). In zweiter Ehe war Jagger von 1990 bis 1999 mit Jerry Hall, mit der er schon seit 1977 zusammenlebte, verheiratet. Hall und Jagger haben vier gemeinsame Kinder: Elizabeth Scarlett Jagger (* 2. März 1984), James Leroy Augustin Jagger (* 28. August 1985), Georgia May Ayeesha Jagger (* 12. Januar 1992) und Gabriel Luke Beauregard Jagger (* 9. Dezember 1997). Mit Marsha Hunt, die Ende der 1960er Jahre als „Dionne“ Star im Rockmusical Hair war, hatte Jagger sein erstes Kind – Tochter Karis Jagger (* 4. November 1970). Jagger lernte Hunt 1969 während der Aufnahmen zu dem Titel "Honky Tonk Women" kennen. Mit Luciana Gimenez Morad hat Jagger einen weiteren Sohn, Lucas Maurice Morad Jagger (* 18. Mai 1999). Karis und Lucas tragen, obwohl nicht ehelich geboren, beide den Nachnamen ihres Vaters. Ab 2001 war Mick Jagger mit der US-amerikanischen Modedesignerin L’Wren Scott liiert. Scott wurde am 17. März 2014 nach Suizid tot in ihrer New Yorker Wohnung aufgefunden. 1995 wurde Mick Jagger zum Ehrenpräsidenten der University of London ernannt; im selben Jahr wurde er Ehrenmitglied der London School of Economics and Political Science. Am 12. Dezember 2003 wurde er von Prinz Charles, in Vertretung für Königin Elisabeth II., für seine „Verdienste um die populäre Musik“ zum Ritter geschlagen; damit darf er den Titel Sir tragen. Mick Jagger ist Namensgeber der Trilobitenart "Aegrotocatellus jaggeri" aus der Ordnung der Phacopida und einer Vorläuferart heutiger Flußpferde mit der Bezeichnung "Jaggermeryx naida". Chartplatzierungen. Liste der Singles und Alben von Mick Jagger als Musiker außerhalb der Rolling Stones mit ihren Chartplatzierungen. Zur Chartpositionierung von Werken der Rolling Stones siehe Artikel "Diskografie". Alben. Die Positionierung des Albums "SuperHeavy" (2011) der gleichnamigen Musikgruppe, der Mick Jagger angehört, ist in dem Artikel zur Gruppe angegeben. Motion Picture Patents Company. Die Motion Picture Patents Company "(MPPC)", auch "Edison Trust", war ein 1908 gegründeter Trust, der aus allen damals in den USA bedeutenden Unternehmen der Filmindustrie bestand. In den USA wurde der Trust auch als das "erste Oligopol" bekannt. Der Trust verlor ab 1912 aufgrund von Gerichtsentscheidungen an Bedeutung und bestand bis 1915, als er gemäß der Bestimmungen des Sherman Antitrust Act für illegal erklärt wurde. Zweck des Trusts war, sämtliche Patente der beteiligten Unternehmen in einer gemeinsamen Gesellschaft zu vereinen und Verstöße rigoros zu verfolgen. Dadurch sollte jeglicher Konkurrenz der Zugang zum US-amerikanischen Filmmarkt unmöglich gemacht werden. Letztlich förderte der Trust jedoch die Verlagerung der US-Filmindustrie von New York (vor allem die Vorstadt Fort Lee) an der Ostküste nach Los Angeles (mit Hollywood als Zentrum) an der Westküste. Geschichte. Ende des Jahres 1908 entstand auf Initiative der Filmgesellschaften Edison und Biograph die "Motion Picture Patents Company", kurz "MPPC". Dieser Trust vereinte die Patente aller großen Filmproduzenten (Edison, Biograph, Vitagraph, Essanay, Selig, Lubin, Kalem Company, American Star, American Pathé), des größten Filmvertriebs (George Kleine) und des größten Produzenten von Film, Eastman Kodak. Dadurch sollte eine oligopole Kontrolle der Filmbranche verwirklicht werden. Die MPPC trug durch ihre aggressive Politik maßgeblich dazu bei, das Zentrum der Filmindustrie von New York City und Chicago nach Hollywood zu verlagern, da sich dort unabhängige Filmemacher sicherer vor ihr fühlten. In der Frühzeit des US-amerikanischen Films lagen die meisten wichtigen Patente bezüglich der Filmproduktion bei Thomas Edison, der versuchte, diese mit Hilfe der MPPC rigoros durchzusetzen. Klagen und Abmahnungen gegen unabhängige Filmstudios waren an der Tagesordnung. Der Trust sandte auch Schlägertrupps aus, die nicht lizenzierte Kameras zertrümmerten und dabei die Filmteams nicht verschonten. Die unabhängigen Filmemacher reagierten, indem sie nach Kalifornien zogen. Die Westküste war weit von der Zentrale der MPPC in New Jersey entfernt, zudem lag Mexiko nah. Wenn bekannt wurde, dass ein Vertreter der MPPC auf dem Weg nach Südkalifornien war, flohen die Filmstudios kurzfristig ins benachbarte Ausland. Das MPPC scheiterte letztlich zum einen daran, dass die unabhängigen Filmstudios kommerziell erfolgreich genug waren, um den Trust aufzubrechen, zum anderen wurde die rechtliche Basis ihrer Unternehmungen nach und nach schwächer. Hauptgründe für den wirtschaftlichen Erfolg der Independents waren die Einführung von abendfüllenden Spielfilmen und der Aufbau eines Starsystems. Der Trust hingegen hielt an seinem Konzept Kurzfilm ohne namentliche Nennung der Darsteller weiter fest. Der Supreme Court of the United States hob 1912 das Patent zur Filmherstellung auf und 1915 auch alle anderen Patente des Unternehmens. Die Verurteilung im Jahr 1917 aufgrund des Sherman Antitrust Act bedeutete das endgültige Ende für den Trust, der zu dieser Zeit aber ohnehin schon allen Einfluss verloren hatte. Geschäftspraktiken. Zur Verhinderung von Konkurrenz zwischen den am Trust beteiligten Unternehmen legte die MPPC einen Standardpreis pro Fuß für jeden neu erscheinenden Film fest und bestimmte, wie viele Filme die Filmgesellschaften pro Woche auf den Markt bringen durften. Bei der damaligen Länge eines Film von zehn bis zwanzig Minuten waren dies zwischen ein und drei Filme. Die MPPC lieferte ihre Filme nur an jene Filmbörsen – Filme wurden damals noch verkauft, das System des Filmverleihs setzte sich erst mehrere Jahre später durch, als die Filme länger und somit teurer wurden – und Kinos, die von der MPPC lizenziert waren. Lizenzierte Kinos hatten wöchentlich Lizenzgebühren für die verwendeten Filmprojektoren zu zahlen. Gegen unlizenzierte Kinos wurde rechtlich vorgegangen. 1910 gründete die MPPC die "General Film Company" als Vertriebsarm. Damit wurden Geschäftspraktiken eingeführt, die später von den großen Hollywoodstudios – die ab diesem Zeitpunkt als Reaktion auf das MPPC-Oligopol nach und nach an der Westküste entstanden – nachgeahmt wurden. Dies waren zum einen Dauerbestellungen („standing orders“) und Zonenbeschränkungen. Dauerbestellungen – in der Filmwirtschaft auch als Block- oder Blindbuchen bekannt – verpflichteten Filmverleiher bzw. Kinobesitzer dazu, alle Filme eines bestimmten Herstellers zu beziehen – oder ansonsten gar keine Filme des bestimmten Herstellers spielen zu dürfen. Die Zonenbeschränkungen regelten wiederum, dass zeitgleich erscheinende Filme der verschiedenen Hersteller nicht miteinander konkurrierten. Weiter wurde eingeführt, dass neue Filme im Fußpreis teurer sind als solche, die bereits länger im Umlauf sind. Dies förderte das Entstehen von Erstaufführungskinos, die eleganter gestaltet waren und mehr Service boten als gewöhnliche Kinos und dementsprechend teurer waren. Weblinks. !Motion Picture Patents Company Mika Kaurismäki. Mika Kaurismäki (* 21. September 1955 in Orimattila, Finnland) ist ein finnischer Filmregisseur und der Bruder von Aki Kaurismäki. Leben. Mika Kaurismäki studierte von 1977 bis 1981 an der Hochschule für Fernsehen und Film in München. Er gründete zusammen mit seinem Bruder Aki Kaurismäki das Midnight Sun Film Festival und die Verleihfirma Villealfa (benannt nach Alphaville, einem Film von Jean-Luc Godard). Ihm wurde zweimal der finnische Filmpreis „Jussi“ für die beste Regie verliehen: 1983 für den Film „Die Wertlosen“ ("Arvottomat"), 1992 für „Zombie and the Ghost Train“ ("Zombie ja kummitusjuna") Mika Kaurismäki lebt seit Anfang der 1990er Jahre in Brasilien und drehte seine letzten Filme zu brasilianischen Themen. Midnight Sun Film Festival. Das Midnight Sun Film Festival (finnisch: "Sodankylän elokuvajuhlat") findet in Sodankylä 120 km nördlich des Polarkreises statt, wo während des Sommers die Sonne nie untergeht. Die Filme werden drei Tage lang rund um die Uhr gezeigt, was, zusammen mit der Mitternachtssonne, für eine einzigartige Atmosphäre sorgt. Gegründet wurde das Filmfestival 1986 von Aki und Mika Kaurismäki. Es hat drei Schwerpunkte: Retrospektiven bekannter Filmregisseure, aktuelle Filme und Stummfilme mit Live-Musik. Das Festival hat jeweils 15000 bis 20000 Besucher, darunter 150 bis 200 Journalisten. Martial-Arts-Film. Der Martial-Arts-Film (von lateinisch "Ars Martialis", „die Kunst des Mars“, vgl. martialisch) ist eine ursprünglich fernöstliche Variante des Actionfilms, in der die ästhetisch stilisierte Darbietung von Kampfkünsten dominiert, z.B. Karate, Kickboxen, Judo, Kung-Fu oder Taekwondo. In zum Teil komplizierten Choreografien werden mitunter die Gesetze der Schwerkraft außer Kraft gesetzt. Als Subgenres gelten Wuxia (chinesische Fechtkunstfilme), Jidai-geki (Historienfilme) oder der Samuraifilm. Viele Wuxia-Filme spielen in einer romantisierten Version des chinesischen Mittelalters von der frühen Yuan bis zur späten Qing-Dynastie, während die japanischen Jidai-geki, ihrem Namen entsprechend, in der Zeit kurz vor der Meiji-Restauration im 19. Jahrhundert angesiedelt sind. Thematisch wird häufig das Retter- oder Rächer-Motiv verwendet, wobei der Plot nicht selten in erster Linie dafür benutzt wird, möglichst viele Kampfszenen zu zeigen. Entwicklung. Das Genre des Martial-Arts-Films wurde in den frühen 1970er Jahren durch die vor allem aus Hongkong stammenden Kung-Fu-Filme Bruce Lees im Westen bekannt. Infolge von Nachahmungen erreichte das Filmgenre mit einer großen Welle oft reißerisch betitelter und inszenierter Filme eine ungeheure internationale Popularität, die oft als „Kung Fu Craze“ bezeichnet wurde. Der erste bedeutende Regisseur war ab Mitte der 1960er Jahre King Hu. Aus der Hochphase ging auch Jackie Chan hervor, den vor allem seine Slapstick-Einlagen und waghalsigen Stunts weltweit bekannt machten. Mit Aufkommen von Blockbuster-Filmen gegen Ende der 1970er Jahre ebbte die Kung-Fu-Welle wieder ab. Dennoch wurden in Hongkong weiterhin hunderte englischsprachig synchronisierte Kung-Fu- und Ninjafilme produziert, die vor allem am Wochenende im US-amerikanischen Fernsehen gesendet wurden. In den 1980er Jahren kam es zudem im jungen Videobereich zu einer kurzen Welle amerikanischer Martial-Arts-Filme, in denen Schauspieler wie Jean-Claude Van Damme, Don Wilson, Steven Seagal oder Michael Dudikoff die Hauptrolle spielen. Anfang des 21. Jahrhunderts erlebte der asiatische Martial-Arts-Film eine Renaissance. Aufwendig inszenierte Filme wie "Tiger and Dragon" (2000, vier Oscars) oder "Hero" (2002) mit Jet Li beeindruckten die Kritik und begeisterten auch viele westliche Zuschauer, während auch Hollywood-Filme wie "Blade" (1998) oder ' (2000, Regie: John Woo) vom asiatischen Martial-Arts-Film beeinflusst wurden. Darunter sind auch Filme mit Schauspielern wie beispielsweise Michael Jai White, Tony Jaa, Yanin Vismitananda, Donnie Yen und Scott Adkins erschienen. Einige westliche Filme wie die Matrix-Reihe adaptierten explizit die Stilistik und Choreographie asiatischer Wuxia-Filme, und Actionsequenzen wurden teilweise von Koryphäen der Kampfkunst-Choreografie aus Hongkong inszeniert. So wurden die Kampfsequenzen von "Matrix" von Altmeister Yuen Woo-Ping in Szene gesetzt, der auch die Actionszenen in Quentin Tarantinos Racheepos "Kill Bill" inszenierte. Mary Pickford. Mary Pickford (* 8. April 1892 in Toronto, Ontario; † 29. Mai 1979 in Santa Monica, Kalifornien, als "Gladys Louise Smith)" war eine kanadische Schauspielerin und Filmproduzentin der Stummfilm- und frühen Tonfilmzeit. Sie war zudem die einzige weibliche Mitbegründerin des unabhängigen Filmvertriebes United Artists und gehörte zu den 36 Gründungsmitgliedern der Academy of Motion Picture Arts and Sciences, die die Oscars vergibt. Leben und Werk. Mary Pickford war das älteste von drei Kindern von John Charles Smith, einem Sohn methodistischer britischer Einwanderer, und dessen Frau Elsie Charlotte Printer, die unter den Pseudonymen "Charlotte Hennessy" und "Charlotte Pickford" als Schauspielerin tätig war. Mary hatte eine Schwester, Charlotte „Lottie“ Smith (* 1895), und einen Bruder, John Charles „Jack“ Smith Jr (1896–1933). Als sie fünf Jahre alt war, starb ihr Vater, und Mary fand sich in der Rolle der Ernährerin ihrer Mutter und ihrer Geschwister wieder. Ihre Mutter besserte das Einkommen für die Familie etwas auf, indem sie Untermieter aufnahm. Unter dem Namen "Baby Gladys" tourte sie mit verschiedenen Vaudeville-Truppen durch Kanada und die USA. Um 1907 feierte sie bereits Erfolge am Broadway, wo sie mit 14 Jahren in das Büro von Impresario David Belasco stürmte und ihn überredete, ihr eine Rolle in dem Stück "The Warrens of Virginia" zu geben. 1909 konnte sie D.W. Griffith überzeugen, ihr Rollen in seinen Filmen zu geben. Noch im selben Jahr begann sie ihre Filmkarriere bei der Biograph. Bis 1912 hatte sie bereits in über 140 Filmen, zumeist in Einaktern, mitgespielt. Pickford trug entscheidend zur Entwicklung des Star-Systems bei. Zunächst bekannt als "The Girl with the Curls", verlangte das Publikum nach immer neuen Filmen mit der populären Darstellerin, die unter dem Namen "Little Mary" die Kinosäle füllte. Als sie nach einem hektischen Wechsel von Gesellschaft zu Gesellschaft schließlich zur I.M.P. ging, konnte man dort stolz verkünden: "Little Mary is an I.M.P. now". Während sie bei "Biograph" noch 40 $ pro Woche verdiente, steigerte sie ihre Gage 1910 auf 175 $ und durch den Wechsel zu "Majestic" im Jahr 1911 auf 275 $ die Woche. Ein Jahr später zahlte ihr Adolph Zukor für den Wechsel zu seiner Famous Players Company bereits eine wöchentliche Vergütung von 500 $. Nach weiteren Wechseln verdiente sie 1916 wöchentlich 10.000 $ plus einen Bonus von 300.000 $. Durch die Gründung einer eigenen Produktionsgesellschaft war sie zudem prozentual an deren Einspielergebnissen beteiligt. Schon im Jahr darauf ging Pickford für eine Gage von 350.000 $ pro Film zur neugegründeten Gesellschaft First National. Sie erhielt völlige Gestaltungsfreiheit für ihre Filme, vom Drehbuch bis zum Final Cut. 1919 gründete sie mit Charlie Chaplin, D.W. Griffith und ihrem späteren Ehemann Douglas Fairbanks senior die Filmgesellschaft United Artists. Pickfords Stellung war durchaus mit der von Chaplin zu vergleichen. Sie überwachte bei ihren Filmen jedes Detail und arbeitete nur mit den besten Fachleuten zusammen. Die Kameraleute Charles Rosher und Karl Freund waren an vielen ihrer späteren Erfolge beteiligt. Sie arbeitete auch oft mit dem Regisseur Marshall Neilan und der Drehbuchautorin Frances Marion zusammen. Für die Produktion von "Little Lord Fauntleroy", bei dem sie 1921 sowohl den kleinen Lord als auch dessen Mutter spielte, setzte sie mit einer Szene, in der die Schauspielerin als kleiner Lord die Mutter und damit sich selbst umarmt, Maßstäbe. Gemeinsam mit Charles Rosher arbeitete sie über 16 Stunden an der Einstellung, die im fertigen Film nur einige Sekunden dauerte. In dem Film "Stella Maris" übernahm sie ebenfalls sowohl die Rolle der Stella als auch die des hässlichen Waisenmädchens Unity, und die fertigen Szenen, die Mary sozusagen mit sich selbst im Dialog zeigen, waren für die damalige Zeit revolutionär. Pickford war schon früh unzufrieden damit, auf die Darstellung kleiner Mädchen festgelegt zu sein. Sie versuchte 1922 einen radikalen Imagewechsel, als sie Ernst Lubitsch engagierte, bei der Verfilmung von "Faust" Regie zu führen. Pickfords Mutter riet dringend davon ab, eine Kindsmörderin zu spielen, und Pickford ließ sich umstimmen. Später bedauerte sie diese Entscheidung sehr und machte sich Vorwürfe, dem Rat gefolgt zu sein. Mit Lubitsch kam die sehr autokratische Pickford nicht gut aus. Als beide sich nicht auf das Kostümdrama "Dorothy Veron of Haddon Hall" einigen konnten, schlug Lubitsch einen populären Roman der Zeit vor, der unter dem Namen "Rosita" schließlich in den Verleih kam. Pickford war von der Zusammenarbeit nicht angetan, obwohl sich die meisten Kritiker wohlwollend zeigten. Sie kehrte nach einem zweiten missglückten Ausflug für die nächsten Jahre zu ihrem bewährten Image ins Erwachsenenfach zurück, und das Publikum fand dem Anschein nach wenig dabei, wenn eine über dreißigjährige Frau zwölfjährige Mädchen spielte. Der Streifen "Sparrows" von 1926, der Pickford gemeinsam mit anderen Waisen auf der Flucht aus einer "Babyfarm" in den Sümpfen von Florida zeigt, erregte Aufsehen durch Szenen, in denen die Kinder auf einem Baumstamm einen Sumpf voller Alligatoren durchquerten. Dafür wurden die Sequenzen mit den Reptilien zuerst gedreht und später in die Szenen mit Mary und den Kindern hineinmontiert. Lubitsch nannte den Film begeistert „das achte Weltwunder“. Mit der Komödie "My Best Girl" aus dem Jahr 1927 versuchte Pickford endgültig, ihr Image als "America's Sweetheart" zu verlassen und Rollen zu übernehmen, die ihrem Alter eher entsprachen. Sie schnitt unter großem publizistischen Aufwand ihre Locken ab und ließ sich einen damals modernen Flapper-Haarschnitt, einen Bubikopf verpassen. Das Publikum nahm den Wechsel halbherzig an. Auf der Oscarverleihung 1930 (April) wurde Mary Pickford als "beste Hauptdarstellerin" für ihre Leistung in "Coquette" ausgezeichnet, mit dem sie ihr Tonfilmdebüt gab. Nach der wenig erfolgreichen Komödie "Kiki", die aus Pickford einen französischen Vamp zu machen versuchte, hatte die Schauspielerin auch kein Glück bei dem Versuch von Walt Disney, 1933 mit Mary eine Version von "Alice im Wunderland" zu drehen. Ihr letzter Film wurde schließlich "Secrets", der 1933 unter der Regie von Frank Borzage entstanden ist. Die Schauspielerinnen Janet Gaynor und Shirley Temple spielten danach in etlichen Remakes von Pickford-Filmen. In den folgenden Jahren fehlte es nicht an Versuchen, Pickford zu einem Comeback zu verhelfen. Zu den bekannteren Projekten gehörten Angebote für "Unser Leben mit Vater" und die Rolle der "Norma Desmond" in "Sunset Boulevard". 1937 gründete sie die Mary Pickford Cosmetic Company. Ihre letzten Anteile an "United Artists" verkaufte sie 1953. Ihre Memoiren "Sunshine and shadow" erschienen 1955. 1976 wurde ihr der Ehrenoscar für das Lebenswerk verliehen; ein Fernsehteam übertrug Pickfords Dankesrede direkt aus ihrem Wohnzimmer auf Pickfair. Die Schauspielerin überließ die Negative zu den meisten ihrer Stummfilme 1970 dem "American Film Institute". Privates. Mary Pickford war dreimal verheiratet: von 1911 bis 1920 mit Owen Moore, von 1920 bis 1936 mit Douglas Fairbanks und von 1937 bis zu ihrem Tod im Jahre 1979 mit Charles „Buddy“ Rogers. Alle Ehemänner waren recht erfolgreiche Schauspieler, wobei ihre Ehe mit Douglas Fairbanks allerdings legendär wurde. Gemeinsam bauten sie und Fairbanks das großzügige Pickfair-Anwesen, auf dem Pickford bis zu ihrem Tod lebte. Während ihrer Ehe mit Fairbanks senior war Pickford die Stiefmutter von Douglas Fairbanks junior. Pickford adoptierte mit ihrem dritten Mann 1943 einen Jungen Ronald und 1944 ein Mädchen Roxanne. Laut der Dokumentation "The Mary Pickford Story" lag ihr die Mutterrolle allerdings nicht. Ihre Geschwister Lottie (1895–1936) und Jack Pickford machten ebenfalls Karriere beim Film. Jack war 1920 in den Skandal um den Tod seiner Ehefrau, der Schauspielerin Olive Thomas, verwickelt. Nachdem sie sich zunehmend aus der Öffentlichkeit zurückgezogen hatte, verstarb Mary Pickford am 29. Mai 1979 im Alter von 86 Jahren an einer Hirnblutung. Sie wurde im "Garten der Erinnerung" des "Forest Lawn Memorial Park"-Friedhofs in Glendale, Kalifornien, begraben. Neben ihr – auf dem privaten Grundstück – liegen ihre Mutter Charlotte und ihre Geschwister Lottie und Jack begraben. Nach ihrem Tode verkaufte ihr letzter Ehemann Charles Rogers das Anwesen, das über Umwege 1988 zur Sängerin Pia Zadora und ihrem Ehemann gelangte. Diese ließen das Haus kurz darauf abreißen, wofür sie in der Öffentlichkeit heftig kritisiert wurden. 2007 veröffentlichte Katie Melua das Lied „Mary Pickford“, in dem auch Douglas Fairbanks und Charlie Chaplin erwähnt werden. Filmografie (Auswahl). a> im Mai 1919 im Verleih der „Mary Pickford Company“ Mack Sennett. Mack Sennett, eigentlich "Michael Sinnott", (* 17. Januar 1880 in Richmond, Québec; † 5. November 1960 in Woodland Hills, Kalifornien) war ein US-amerikanischer Filmproduzent, Regisseur und Schauspieler. Insgesamt produzierte er in der Stummfilm- und frühen Tonfilmzeit über 1100 Filme, von denen die meisten verloren sind. Leben. Mack Sennett wuchs in Kanada als Sohn irischer Einwanderer auf. Sein Vater war Schmied, er hatte zwei Brüder und eine Schwester. 1897 emigrierte die Familie in die USA, wo sie anfangs in Connecticut, dann in Massachusetts ansässig war. Sennett junior verdiente sein Geld zunächst als Stahlarbeiter, träumte aber von einer Karriere als Opernsänger. Im Jahr 1902 lernte er die Schauspielerin Marie Dressler kennen, die ihn in seinem Wunsch nach einer künstlerischen Betätigung bestärkte. Sie vermittelte den jungen Mann an den Theaterproduzenten David Belasco in New York, woraufhin er im Vaudeville Fuß fassen konnte. Biograph. Ab 1908 arbeitete Sennett für die New Yorker Biograph Company, wo er unter David Wark Griffith das Filmhandwerk von der Pike auf erlernte: Er betätigte sich als Ausstatter, Schauspieler, Komiker und schließlich als Regisseur. Bald spezialisierte er sich ganz auf Komödien und arbeitete dabei unter anderem mit Mabel Normand zusammen, die sich nicht nur als fähige Komödiantin erwies, sondern auch zu seiner Geliebten wurde (die Beziehung zerbrach 1915 und Sennett blieb Zeit seines Lebens Junggeselle). Der bekannteste Kurzfilm mit Sennett selbst als Hauptdarsteller ist heute die Biograph-Komödie "The Curtain Pole", die 1909 unter der Regie von Griffith persönlich entstand. Keystone. Im Jahr 1912 gründete Sennett mit den ehemaligen Buchmachern Adam Kessel und Charles Bauman seine eigene Firma, die Keystone Studios, deren erste Stars seine Biograph-„Mitbringsel“ Normand, Fred Mace und Ford Sterling sowie er selbst wurden. Die ersten beiden Kurzfilme der Keystone, "The Water Nymph" und "Cohen Collects a Debt" hatten am 23. September 1912 Premiere, ersterer ist heute noch erhalten. Zu Sennetts Markenzeichen wurden Slapstickfilme mit aufregenden und – auch für die Darsteller – halsbrecherischen Stunts, die häufig bei wilden Verfolgungsjagden zum Einsatz kamen. Zu den weiteren Stars und Nebendarstellern, die in den nächsten fünf Jahren von Sennett an Bord geholt wurden und mal länger, mal kürzer die Keystone mitprägten, gehörten Fatty Arbuckle, Al St. John, Edgar Kennedy, Hank Mann, Minta Durfee, Chester Conklin, Mack Swain, Charley Chase (damals noch Charles Parrott), Charlie Murray, Slim Summerville, Alice Howell, Syd Chaplin, Louise Fazenda, Harry Gribbon, Polly Moran, Mae Busch, Harold Lloyd (der das Studio recht schnell wieder verließ, da Sennett sein Starpotential nicht erkennen wollte), Tom Kennedy, Raymond Griffith, Gloria Swanson & Bobby Vernon, Wallace Beery, Billy Armstrong und Ben Turpin. Sie alle wurden übertroffen von Charlie Chaplin, der 1914 bei Keystone seine Tramp-Figur kreierte und für das Studio seine ersten Filme drehte. Große Berühmtheit erlangten auch die Keystone Kops, eine Gruppe trotteliger Polizisten, die in wechselnder Besetzung in unzähligen Filmen des Studios auftrat und oft Bestandteil der obligatorischen Verfolgungsjagden war. Ein einmaliges Gastspiel lieferte Sennetts ehemalige Gönnerin Marie Dressler, als dieser sie zur Titelheldin seines bis dahin ehrgeizigsten Projekts machte: "Tillie's Punctured Romance" mit Chaplin und Normand in weiteren Hauptrollen war 1914 die erste abendfüllende Filmkomödie der USA. Regisseure aus der Anfangszeit des Studios waren neben Sennett u.a. Henry Lehrman, George Nichols und Wilfred Lucas, die alle bis 1914 für Keystone aktiv waren (Lehrman gründete bald darauf seine eigene Filmfirma L-KO). Im selben Jahr wurde auch den wichtigsten Komikerstars der Keystone die Regie für ihre Filme anvertraut, angefangen mit Mabel Normand und Ford Sterling, was der Qualität keinen Abbruch tat. Letztlich entwickelten sich gerade Arbuckle und Chaplin, die beide ab April 1914 als Regisseure tätig wurden, zu den größten Meistern des Studios auch hinter der Kamera. Im Jahr 1915 wurden die Keystone Studios Teil von Triangle Films, die von Sennett, D. W. Griffith und Thomas Ince zwecks Kräftebündelung gegründet wurden. Zu dieser Zeit entstand mit "Oh, Mabel Behave!" ein weiterer Langfilm mit Keystone-Stars, der allerdings erst 1922 und als Triangle-Film in die Kinos kam. Mack Sennett Comedies. 1917 verließ Sennett die Keystone, um die Mack Sennett Comedies Corporation zu gründen. Als letzte Keystone-Komödie gilt "The Sultan's Wife", als erste Mack Sennett Comedy "A Bedroom Blunder". Die wichtigsten von Keystone übernommenen Stars waren hier Ben Turpin (der erst jetzt groß heraus kam), Louise Fazenda, Charlie Murray, Harry Gribbon und Billy Armstrong, zu denen sich Neuzugänge wie Heinie Conklin, James Finlayson, Billy Bevan, Andy Clyde, Kewpie Morgan, Vernon Dent, Bud Jamison, Louise Carver, Daphne Pollard und Franklin Pangborn gesellten. Ein besonderer Coup gelang Sennett 1924 mit dem Erwerb von Harry Langdon, dessen Filmkarriere er startete, den er jedoch – wie eine Dekade zuvor Chaplin – nicht lange halten konnte. Wichtige Regisseure des Studios waren Edward F. Cline, F. Richard Jones (beide bereits zu Keystone-Zeiten für Sennett aktiv), Del Lord, Harry Edwards und Roy Del Ruth, zu den Autoren zählte Frank Capra, der vor allem für die Langdon-Filme schrieb. Bekanntheit erlangten auch Sennetts provokant leichtbekleidete "Bathing Beauties" (Badeschönheiten), die bereits ab 1915, noch zu Keystone-Zeiten, zunächst als Werbegag für Pressefotos und dann auch sporadisch in den Filmen zum Einsatz gekommen waren. In den Mack Sennett Comedies wurde ihnen nun breiterer Raum gewährt, und etliche der Akteurinnen wurden im Laufe der Jahre zu Stars des Studios. Tatsächlich konnten einige ehemalige "Bathing Beauties" nicht nur durch ihre Schönheit, sondern auch als echte Komödientalente überzeugen, z.B. Marie Prevost, Phyllis Haver, Kathryn McGuire, Madeline Hurlock, Thelma Hill, Marjorie Beebe und die bekannteste von allen, Carole Lombard. Sie unternahm bei Sennett ab 1927 ihre ersten Schritte als Komödiantin und bezeichnete diese Phase später als Wendepunkt ihrer Karriere. Neben zahllosen Kurzfilmen produzierte die Mack Sennett Comedies Corporation auch insgesamt 15 Langfilmkomödien mit Laufzeiten von etwa 45 bis 90 Minuten, deren Hauptdarsteller u.a. dreimal Mabel Normand, dreimal Ben Turpin und einmal Harry Langdon waren. Am bekanntesten davon ist heute die Normand-Komödie "The Extra Girl" (1923), jedoch hatte Sennett seinen mit Abstand größten Hit schon 1918 gelandet: Der abendfüllende Normand-Film "Mickey", dessen Dreharbeiten bereits zu Keystone-Zeiten begonnen hatten, bevor er zur einzigen Produktion von Sennetts kurzlebiger Mabel Normand Feature Film Company wurde, war immerhin bis 1937 der größte Kassenerfolg der Filmgeschichte. Den Sprung zum Tonfilm vollzog Sennett schon vor seinem Rivalen Hal Roach, angefangen mit dem Short "The Lion's Roar" im Dezember 1928. In den frühen 1930er-Jahren verhalf er Bing Crosby mit mehreren Kurzfilmen zu dessen ersten Hauptrollen in Filmkomödien. Seine letzte Großtat als Produzent waren vier gefeierte Zweiakter, mit denen W. C. Fields in den Jahren 1932/33 seine Filmfigur perfektionierte. Trotz solcher Einzelerfolge hatte ab den späten 1920er-Jahren der Niedergang des Studios eingesetzt, bedingt durch finanzielle Fehlentscheidungen und das Unvermögen, sich einem gewandelten Publikumsgeschmack anzupassen. Im November 1933 musste Sennett Konkurs anmelden. Rückzug. Im Anschluss zog sich der Komödienproduzent weitgehend aus dem Filmgeschäft zurück, ohne allerdings in Vergessenheit zu geraten. Unter anderem wurde er 1937 mit einem Ehrenoscar ausgezeichnet und hatte 1955 einen Kurzauftritt als er selbst in "Abbott and Costello Meet the Keystone Kops". Bis zu seinem Tod war er weithin als "King of Comedy" bekannt, auch heute gilt er noch als Vater der Slapstick-Komödie. Im Alter von 80 Jahren starb Mack Sennett am 5. November 1960 in Woodlands Hills, Kalifornien. Langfilme (komplett). Produktionsfirma Mack Sennett Comedies Corporation, wenn nicht anders angegeben. Morsezeichen. Die Morsezeichen, manchmal auch Morsealphabet oder Morsecode genannt, sind ein Verfahren zur Übermittlung von Buchstaben, Zahlen und übrigen Zeichen. Dabei wird ein konstantes Signal ein- und ausgeschaltet. Es besteht aus drei Symbolen: "kurzes Signal", "langes Signal" und "Pause". Der Code kann als Tonsignal, als Funksignal, als elektrischer Puls mit einer Morsetaste über eine Telefonleitung, mechanisch oder optisch (etwa mit blinkendem Licht) übertragen werden – oder auch mit jedem sonstigen Medium, mit dem zwei verschiedene Zustände (wie etwa "Ton" oder "kein Ton") eindeutig und in der zeitlichen Länge variierbar dargestellt werden können. Man spricht auch von Morsetelegrafie. Das manchmal bei Notfällen beschriebene Morsen durch Klopfen an metallischen Verbindungen erfüllt diese Forderung daher nur bedingt, ist aber mit einiger Übung aufgrund des charakteristischen Rhythmus von Morsezeichen verständlich. Diese Hörtechnik ist abgeleitet von den „Klopfern“ aus der Anfangszeit der Telegrafentechnik, bestehend aus einem kräftigen Relais in einem akustischen Hohlspiegel, der den Klang der Morsezeichen schon vor der Erfindung des Lautsprechers selbst in größeren Betriebsräumen hörbar machte. Geschichte. Nachdem Samuel Morse 1833 den ersten brauchbaren elektromagnetischen Schreibtelegrafen gebaut hatte, fand der erste Testbetrieb 1837 statt. Der verwendete Code umfasste damals nur die zehn Ziffern; die übertragenen Zahlen mussten mit Hilfe einer Tabelle in Buchstaben und Wörter übersetzt werden. Alfred Lewis Vail, ein Mitarbeiter Morses, entwickelte ab 1838 den ersten Code, der auch Buchstaben umfasste. Er bestand aus Zeichen von drei verschiedenen Längen und unterschiedlich langen Pausen. Dieser Code wurde ab 1844 betrieblich eingesetzt (als "Morse Landline Code" oder "American Morse Code" bei amerikanischen Eisenbahnen und den Telegrafenunternehmen bis in die 1960er Jahre). Die unterschiedlich langen Pausen stellten eine Unzulänglichkeit des Codes dar, so dass Friedrich Clemens Gerke ihn 1848 zur Inbetriebnahme der elektromagnetischen Telegrafenverbindung zwischen Hamburg und Cuxhaven umschrieb. Dieser Code wurde nach einigen weiteren kleinen Änderungen 1865 auf dem "Internationalen Telegraphenkongress" in Paris standardisiert und später mit der Einführung der drahtlosen Telegrafie als "Internationaler Morsecode" von der Internationalen Fernmeldeunion (ITU) genormt. 1909 wurde erstmals ein Seenotruf über Funk gemorst. Dieses Ereignis führte zur breiten Einführung des Seefunks, nachdem die eher konservativen Reeder die neue Technik zuerst abgelehnt hatten. Morsetelegrafie wurde mit der Einführung von Fernschreibern aus den Telegrafennetzen verdrängt. Im Funkbetrieb behielt er aufgrund seiner Einfachheit lange Zeit Bedeutung, bis er auch hier nach und nach durch andere Verfahren ersetzt wurde. Ein großes Einsatzfeld hatte er noch im Seefunkverkehr, bis er dort mit Einführung des weltweiten Seenot- und Sicherheitsfunksystems (GMDSS) zum 1. Februar 1999 seine Bedeutung verlor. Eingesetzt wird der Morsecode noch im Amateurfunk, wo in Deutschland Morsekenntnisse noch bis 2003 vorgeschrieben waren, um am Funkbetrieb auf Kurzwellenfrequenzen unterhalb 30 MHz teilzunehmen. Ebenso findet man den Morsecode noch zu Unterrichtszwecken bei angehenden Fernmeldetechnikern. Morsecodes werden heute noch in der Luft- und der Schifffahrt verwendet, um Funknavigationsanlagen (siehe Funkfeuer) zu identifizieren. Diese senden neben dem eigentlichen Navigationssignal auch ein hörbares Morsesignal aus, das aus der Drei-Buchstaben-Kennung des Funkfeuers besteht. So sendet z. B. das VOR Barmen seine Kennung "BAM" ( − · · ·   · −   − − ). Auch in der Seeschifffahrt finden Morsecodes noch Anwendung: Radarantwortbaken antworten ebenfalls mit einem Echo, dem ihre Kennung in Morsecode aufmoduliert ist. Der Leuchtturm Kiel beispielsweise gibt alle 30 Sekunden das akustische Zeichen "KI". Ausbreitungsbaken auf Cubesat-Satelliten verwenden typischerweise ebenfalls Morsesignale. Im Dezember 2014 verkündete die deutsche Kultusministerkonferenz, dass die Morsetelegrafie in das bundesweite Verzeichnis des immateriellen Kulturerbes im Sinne des Übereinkommens zur Erhaltung des Immateriellen Kulturerbes der UNESCO aufgenommen wird. In seiner Begründung erwähnte die Deutsche UNESCO-Kommission die besondere Bedeutung der Funkamateure, die die Regeln und die Gebräuche der Morsetelegrafie aufrechterhalten und so sicherstellten würden, dass die Formen und Funktionen der Anwendung lebendig bleiben. Internationaler Morsecode. Da der Morsecode nur ein einfaches stetiges (unmoduliertes) Signal als Basis verwendet, benötigt er weniger Hardware zum Senden und Empfangen als andere Formen der Funkkommunikation, kann auch bei einem sehr ungünstigen Signal-Rausch-Verhältnis noch arbeiten und benötigt nur geringe Bandbreite und Sendeleistung. Bei der unmodulierten Form des Funksignals sind Morsezeichen in üblichen Empfängern für AM nur schwierig aufzunehmen; man muss einen Telegrafie-Überlagerer BFO zuschalten, um einen klaren Ton zu hören. Zeitschema und Darstellung. −− −−− ·−· ··· · / −·−· −−− −·· · M O R S E (space) C O D E Für das Beispiel „MORSE CODE“ ergibt sich dann dieses Zeitsignal _===___===_===_===___=_===_=___=_=_=___=_______===_=_===_=___===_===_===___===_=_=___. „Gesprochen“ klingt das dann so: "dahdah dahdahdah ditdahdit ditditdit dit, dahditdahdit dahdahdah dahditdit dit". Standard-Codetabelle. Hier ist eine Tabelle mit dem vollständigen Alphabet und anderen gebräuchlichen Zeichen. Es gibt im Morsealphabet keine Unterscheidung zwischen Groß- und Kleinbuchstaben. Die „Null“ wird im Handschriftlichen zur Unterscheidung durchgestrichen (wie das Zeichen für Durchschnitt), um Verwechselungen mit dem Großbuchstaben „O“ zu vermeiden. Im Merkwort ist die Zeichenfolge in der Form hinterlegt, dass Silben mit "O" "lang" bedeuten, und alle anderen "kurz". Die Wahl der Codes für die verschiedenen Zeichen orientiert sich an der (von Alfred Vail geschätzten) Buchstabenhäufigkeit in der englischen Sprache. Öfter auftretende Buchstaben sollten einen kürzeren Code besitzen als seltenere, um die zu übertragenden Zeichen zu minimieren (siehe Entropiekodierung). Die folgende Tabelle eignet sich gut zur Dekodierung und zeigt die Wahl der Codes anhand der angenommenen Häufigkeit von links (häufig) nach rechts (selten). SOS. Im April 1904 wurde bei der deutschen Kaiserlichen Marine die Morsegruppe  · · · − − − · · ·  als Notzeichen eingeführt; mit Wirkung vom 1. April 1905 wurde sie auch für den öffentlichen Schiffsfunk in Deutschland vorgeschrieben. Diese auffällige Morsegruppe war als Notzeichen zur Unterbrechung des Funkverkehrs bestimmt und sollte wie ein Sirenenton alle anderen Funkstationen zur Funkstille auffordern. Sie war daher nicht als Anruf zu senden, sondern solange zu wiederholen, bis alle anderen Stationen den Sendebetrieb eingestellt haben. Danach sollte der Inhalt des Notrufs folgen. International hatte die Firma Marconi für ihre Funker ab 1904 den Code "CQD" zur Einleitung von Notrufen bestimmt. Er setzt sich zusammen aus dem Code "CQ" für französisch "sécurité" (hier: „Achtung!“) und "D" für "détresse" („Notfall“). Nach anderen Quellen stand "CQ" für englisch "come quick" („Komme schnell“) und "D" für "Danger" („Gefahr“). Dieses Signal war nicht zur Unterbrechung von Rufen anderer Funkstationen geeignet, sondern diente bei bestehender Stille als Anruf mit der Adresse: An alle, Notruf. Zu jener Zeit konkurrierten die Funksystemhersteller und Duopolisten Marconi und Telefunken so heftig, dass es Schiffsfunkern – damals nicht Angestellte der Reederei, sondern stets der Funkgesellschaft – nicht erlaubt war, Funkrufe von Funkstellen der Konkurrenz anzunehmen. Dies konnte zur Nichtbeachtung von Notrufen führen. Um diesen seerechtswidrigen Zustand zu beenden, wurde auf der Internationalen Funkkonferenz in Berlin am 3. Oktober 1906 beschlossen, das deutsche Notzeichen international zu übernehmen; es wurde nach der Bestätigung durch alle seefahrenden Nationen ab dem 1. Juli 1908 offiziell eingeführt. Das deutsche Notzeichen war einprägsam und auch für ungeübte Funker leicht aus anderen Signalen herauszuhören, setzte sich aber dennoch nur langsam durch. Der erste bekannte Seenotruf, abgesetzt am 23. Januar 1909, war CQD, und auch der Erste Funker der "Titanic" wurde 1912 erst von seinem Kollegen auf das neue Signal hingewiesen. Der SOS-Code, drei kurz, drei lang, drei kurz  · · · − − − · · ·  (auch als "dididit dahdahdah dididit" ausgesprochen), wird nicht, wie oft angenommen, als drei Einzelbuchstaben gesendet, sondern ohne Pausen zwischen diesen Buchstaben (also nicht  · · ·     − − −     · · · ). Wie jede Erstaussendung oder unbeantwortete Aussendung ist der Anruf – hier also SOS – dreimal hintereinander zu funken (also  · · · − − − · · ·     · · · − − − · · ·     · · · − − − · · · ), um die Sendefrequenz länger zu belegen und damit die Wahrscheinlichkeit, dass der Code erkannt wird, entsprechend zu erhöhen. Angebliche Bedeutungen von "SOS" als Abkürzung für ' oder ' („Rettet unsere Seelen“ oder „Rettet unser Schiff“) wurden erst später in das Signal hineininterpretiert. Erstmals wurde "SOS" am 10. Juni 1909 von dem Passagierschiff RMS "Slavonia" gesendet, als es vor den Azoren Schiffbruch erlitt. Der Untergang der "Titanic" zeigte später, dass neben einem einheitlichen Signal und einer Standard-Notruf-Frequenz auch regelmäßiges Abhören dieser Frequenz notwendig war. Dass ein Schiff in unmittelbarer Nähe nicht Hilfe leistete, wurde unter anderem darauf zurückgeführt, dass dessen Bordfunkstelle zur Unglückszeit nicht besetzt war – Vorschriften dafür gab es damals noch nicht. Erst auf diesen Vorfall hin wurde noch 1912 die verpflichtende „Hörwache“ rund um die Uhr eingeführt sowie die dreiminütige Funkstille auf der Anruf- und Notfrequenz 500 kHz (jeweils ab der 15. und ab der 45. Minute nach der vollen Stunde). Mit späterer Einführung des Sprechfunks wurden für Notrufe zusätzlich das Codewort „Mayday“ und entsprechende Regeln für Notfrequenz und Funkstille vereinbart. Im Zweiten Weltkrieg wurden von den Alliierten Zusatz-Codes eingeführt, um bei Angriffen auf die Handelsschiffe die Bedrohungsarten zu unterscheiden; ein "RRR"-Ruf bezeichnete einen Angriff durch ein Oberflächenschiff, "SSS" stand für eine U-Boot-Attacke. Mit der weltweiten Einführung des satellitengestützten Seenot-Funksystems GMDSS 1999 wurde das Morsesignal "SOS" in der kommerziellen Seefahrt endgültig abgeschafft. @-Zeichen. Das At-Zeichen (@), auch "Affenschwanz" oder "Klammeraffe" genannt, wurde dem internationalen Morsealphabet erst im Mai 2004 von der Internationalen Fernmeldeunion (ITU) hinzugefügt, damit können nun auch ohne inoffizielle Umwege E-Mail-Adressen gemorst werden. Es wird als A ohne Pause gefolgt von C gegeben ( · − − · − · ). Diese zweite Aktualisierung des Morsecodes innerhalb von etwa 40 Jahren geschah anlässlich seines 160-jährigen Bestehens. In der Praxis wird jedoch weiterhin oft die bisherige Alternative, A gefolgt von T, benutzt. Die erste Aktualisierung des Morsecodes war die notwendig gewordene Unterscheidung zwischen „Klammer auf“ und „Klammer zu“ (davor gab es nur „KK“, also  − · − − · − ), die um 1960 herum eingeführt wurde. Dadurch bekam das bei Funkamateuren beliebte inoffizielle „KN“ offiziell eine andere Bedeutung. Bedeutung der kurzen und langen Pausen. Es wird gelegentlich die Meinung vertreten, der Morsecode genüge nicht der Fano-Bedingung. Die Codierung für den Buchstaben E („dit“) sei auch der Beginn der Codierung für die Buchstaben A („dit-dah“), F („dit-dit-dah-dit“) usw. Das würde bedeuten, dass der Morsecode unbrauchbar wäre, weil man beispielsweise nicht unterscheiden könnte, ob der Buchstabe A oder die Zeichenfolge ET codiert wurde. Der Morsecode verwendet jedoch Pausen unterschiedlicher Länge. Der Code jedes Zeichens wird mit einer langen Pause beendet, während die Signale, die zum Code eines Zeichens gehören, durch kurze Pausen getrennt werden. Damit lässt sich die Codierung des Buchstabens A (kurzes Signal, "kurze" Pause, langes Signal, lange Pause) eindeutig von der Codierung der Zeichenfolge ET (kurzes Signal, "lange" Pause, langes Signal, lange Pause) unterscheiden. Weil der Code jedes Zeichens mit einer langen Pause endet, innerhalb des Codes eines Zeichens aber nur kurze Pausen vorkommen, kann kein Code der Anfang eines anderen sein. Die Fano-Bedingung ist also erfüllt. Tonbeispiele. ·-- ·· -·- ·· ·--· · -·· ·· ·- -·· ·· · ··-· ·-· · ·· · · -· --·· -·-- -·- ·-·· --- ·--· ·- · -·· ·· · Die individuelle „Handschrift“. Jeder Tastfunker hat seine individuellen Anschläge und Geschwindigkeiten, an denen er von anderen wiedererkannt werden kann – analog zur Einzigartigkeit einer Handschrift. Diese Tatsache berücksichtigte z. B. die kaiserlich japanische Kriegsmarine, um die US-amerikanische Fernmeldeaufklärung beim Angriff auf Pearl Harbor auszutricksen. Die Stammfunker der wichtigsten angreifenden Kriegsschiffe wurden versetzt und nahmen von anderen Sendern aus Routinebetrieb auf. Übertragungstechnik. Morsen mit Scheinwerfer und Blende Morsezeichen werden optisch (Lichtmorsen) oder akustisch (Gehörmorsen bzw. Gehörlesen) wiedergegeben. Beim Lichtmorsen ist u. a. die Trägheit der Lichtquelle bzw. der Augen ein Problem. Eine Glühlampe glüht nach dem Ausschalten noch nach, so dass die Morsezeichen am Ende „verwischen“. Beim Morsen mit einer Rundumleuchte (z. B. Topplicht) muss also eine entsprechend langsame Übertragungsgeschwindigkeit gewählt werden. Um dem entgegenzuwirken, wurden Morsescheinwerfer mit einer Blende vor der Lichtquelle entwickelt. Die Lichtquelle bleibt ständig an, wird aber durch einen Verschlussmechanismus entsprechend abgedunkelt oder geöffnet. Diese Schließklappen werden auch als Blinker bezeichnet. Die Morsesignale werden so allerdings nicht mehr rundherum, sondern nur noch in eine bevorzugte Richtung ausgestrahlt. Betriebstechnik. Die "Morseschrift" dient zur schriftlichen Fixierung oder Darstellung von Texten, die im Morsealphabet (Morsezeichen) übermittelt werden. Am Ende eines Buchstabens wird ein Schrägstrich, am Ende eines Wortes zwei Schrägstriche, am Ende eines Satzes werden drei Schrägstriche gesetzt. Am Ende eines Absatzes stehen vier Schrägstriche. Q-Gruppen. Durch die Verwendung der sogenannten Q-Gruppen (Q-Schlüssel) wird die Übertragung beschleunigt. Auch sind dadurch internationale Nachrichtenübertragungen ohne Kenntnis der jeweils anderen Sprache möglich. CQ. Bei einem allgemeinen Anruf wird anstatt des Rufzeichens des Gerufenen ein „CQ“ (homonymes Homophon für engl. ', dt. „suche dich“) als Abkürzung gegeben. < cq cq cq de dl1xyz dl1xyz dl1xyz pse k < Bedeutung: Allgemeiner Anruf von dl1xyz - bitte kommen … Übertragungsrate. Die Übertragungsrate beim Morsen wird in Buchstaben pro Minute (BpM) oder in Wörtern pro Minute (WpM) gemessen, wobei ein „Wort“ 5 Buchstaben entspricht. Seinen Ursprung hat die Zählung in „Wörtern“ in der Gewohnheit, der besseren Lesbarkeit wegen, die endlosen Buchstabenkolonnen chiffrierter Militärtexte in Gruppen zu 5 Buchstaben zusammenzufassen, den sogenannten Fünfergruppen. Die Frage von BpM oder WpM ist reine Geschmackssache, jedoch existiert eine Art Gewohnheit: Funkamateure in Europa z. B. verwenden in der Regel BpM, die in den USA WpM. Da nicht alle Buchstaben gleich lang sind und beim Morsen daher unterschiedlich lange dauern, wäre die Angabe BpM allein sehr unpräzise. Zur Geschwindigkeitsmessung wurde deshalb als Referenz das Wort PARIS ausgewählt. In ihm kommen kurze wie lange Buchstaben gleichermaßen vor. In seinem Zeitbedarf bei der Übermittlung bildet das Wort PARIS ( · − − ·   · −   · − ·   · ·   · · · ) daher einen Mittelwert. Gibt man in einer Minute das Wort PARIS mit seinen 5 Buchstaben 12-mal, so ist die Geschwindigkeit 60 BpM. Anfänger kommen kaum über 5 WpM hinaus. Das liegt daran, dass Buchstaben und Zeichen nicht als Einheit wahrgenommen werden – vergleichbar einem Lese-Anfänger, der sich die Wortbedeutungen mühsam über den Klang einzelner Buchstaben erschließt. Die Prüfungsgeschwindigkeit für Funkamateure betrug 12 WpM. Mit viel Übung überschreitet man die 20-WpM-Marke, sehr gute Funker schaffen über 50 WpM. Der Weltrekord beim Morsen (Mitschrift von Fünfergruppen Buchstaben) liegt bei 88 WpM (440 Buchstaben pro Minute), siehe Schnelltelegrafie. Beim Lichtmorsen (also beim Morsen mit Lichtsignalen) z. B. zwischen zwei Schiffen auf See beträgt die Übertragungsgeschwindigkeit rund 8 WpM (40 BpM), bei Signälern „Blinkis“ der Bundesmarine. Zum Vergleich: Ein Nachrichtensprecher übermittelt 100 bis 200 Wörter pro Minute, eine ISDN-Datenleitung ca. 50.000 Wörter pro Minute. Erkennen (Decodieren) von Morsezeichen. Zum Lernen der Morsezeichen benötigt der Anfänger eine alphabetische Auflistung der Buchstaben, Ziffern und Sonderzeichen (wie die oben dargestellte Standard-Codetabelle), der er die Punkt-Strich-Folgen (Signalfolgen) entnehmen kann, die er „geben“ muss. Als Hilfsmittel gibt es Morsemerkwörter, die jedoch allenfalls in der Anfangsphase das Lernen erleichtern. Dazu kommt noch der umgekehrte Weg, nämlich das Erkennen der Morsezeichen. Dieses Erkennen ist ein Decodieren der Morsezeichen, es ist für Funker und Lichtmorser kein Problem, weil bei ihnen das Hören bzw. Sehen und Erkennen der gesendeten Morsezeichen automatisch erfolgt, es ist ihnen in Fleisch und Blut übergegangen. Sie haben das „Hören“ und „Sehen“ geübt und gelernt. Der Anfänger braucht jedoch zur Decodierung der Signal-Folge eines übertragenen Zeichens eine invers geordnete Morsetabelle. Die oben gezeigte alphabetisch geordnete Tabelle ist dafür nicht geeignet, weil bei jedem Morsezeichen das ganze Alphabet durchsucht werden muss, ob die gesuchte Signal-Folge dabei ist und zu welchem Morsezeichen sie gehört. Die im Bild rechts gezeigte Morsetafel ist invers nach Signal-Folgen geordnet. Sie besteht aus zwei binären Bäumen (Binärbaum), wobei der eine die Wurzel „Punkt“ und der andere die Wurzel „Strich“ hat. Diese beiden Wurzeln befinden sich links oben in der Morse-Tafel. Der jeweilige Baum verzweigt sich über 6 bis 8 Ebenen, wobei an den Knoten die Bezeichnung des Morsezeichens steht, das von der Wurzel bis zu diesem Knoten reicht. Bei der Decodierung geht man von der jeweiligen Wurzel (Punkt oder Strich) links oben aus und folgt den Verzweigungen, bis das Morsezeichen „abgearbeitet“ ist. Dort am Knoten steht dann die Bezeichnung (Buchstabe, Ziffer, Sonderzeichen). Koch-Methode. Eine der effektivsten Trainingstechniken, die entwickelt worden ist, publizierte und wendete 1936 der deutsche Psychologe Ludwig Koch an. Das Grundprinzip basiert auf der Bildung von Reflexen. Man lernt die Morsezeichen direkt mit hoher Geschwindigkeit (mit mindestens 20 WpM, gegebenenfalls mit längerem Abstand zwischen den Zeichen, also effektiv 15 WpM). Dies verhindert die unwillkürliche Bildung von Übersetzungstabellen im Gehirn. Außerdem klingen langsamer gegebene Morsezeichen musikalisch ganz anders als schnell gegebene Morsezeichen. Zu Anfang werden erst einmal zwei Zeichen ausgesucht, die nicht ähnlich klingen, z. B. K und M, die man fünf Minuten mitschreibt. Hat man 90 % der zwei Zeichen richtig mitgeschrieben, hat man diese bereits dauerhaft und in Endgeschwindigkeit gelernt und nimmt dann das dritte Zeichen hinzu. Klopfmorsen. In der Frühzeit der Telegraphie, vor Einsatz von Lautsprechern und Sinustongebern oder wenn die Leitungen für Tonübertragungen zu lang waren – Verstärker waren noch unbekannt –, wurden die Zeichen allein durch Drehspulausschläge bei geschlossenen oder geöffneten Kontakten identifiziert beziehungsweise bei genügend Stromfluss durch „Klopfer“, Relais an einem Klangblech, hörbar gemacht. Zwei kurz aufeinanderfolgende Knackimpulse standen dabei für einen Punkt, länger auseinanderliegende Knackimpulse für einen Strich. Diese Klopf- oder Knacktechnik war selten und wurde zum Beispiel in der amerikanischen Telegraphie eingesetzt sowie bei den ersten Versuchen mit der Transatlantikleitung. Die letzten bekannten Verwendungen fand die Technik in Überlebens-Ausbildungsprogrammen der US-Navy. Morsen im Film. In vielen (Kino-)Filmen werden Morsesignale gerne verwendet, um „geheime“ Kommunikation darzustellen. Zwischen den hörbaren Zeichen und dem Inhalt, den die Darsteller aus den Zeichen ablesen, besteht jedoch meist kein Zusammenhang: Aus wenigen Morse-Buchstaben entstehen teilweise längere Nachrichten, die viele Wörter und Sätze umfassen. Oft werden im Film auch gerne Nachrichten per Morsecode als Klopfzeichen übermittelt (etwa von Zelle zu Zelle im Gefängnis). Man kann zwar nicht „lang“ oder „kurz“ klopfen, in diesem Fall zählt daher die Pause zwischen den einzelnen Klopfzeichen (siehe „Klopfmorsen“). Unterschiedliche Klopfgeräusche wären auch eine Möglichkeit oder eben gleich ein Klopfzeichen-Alphabet (z. B. Polybios-Chiffre). Morsen in Fernsehen und Hörfunk. Einige Fernsehsendungen verwendeten Morse-Signale, oft als Jingles, eingebettet in eine Musik. In der Nachrichtensendung "heute" im ZDF wird der Morsecode für das Wort „heute“ benutzt ( · · · ·   ·   · · −   −   · ). Nach der ARD-"Tagesschau" wurde der Wetterbericht mit der Q-Gruppe „QAM“ ( − − · −   · −   − − ) für „Wetterbericht“ beendet. Der Titelmusik von "ARD-Brennpunkt" waren zusätzlich die Morsezeichen für „Brennpunkt“ unterlegt. Der Westdeutsche Rundfunk (WDR) verwendete über einen langen Zeitraum das gemorste Wort „Zeitzeichen“ als Vorspann der Hörfunksendung "ZeitZeichen". Das Hörfunkprogramm RADIO 700 verwendet das Signal QAM zum Ende des Wetterberichts seit 2008 und der Sender "SWR1 Rheinland-Pfalz" des Südwestrundfunks, eingestreut im Hintergrund, wieder seit 2009 zur Kennzeichnung des Wetterberichts. Eine sehr bekannte Nutzung eines Morsecodes war die Verwendung des Buchstabens V ( · · · − ) als Zeichen für „Victory“ durch die BBC im Zweiten Weltkrieg. Dies wurde später auch als Referenz an den sehr ähnlich klingenden Rhythmus des Kopfmotivs des ersten Satzes von Beethovens 5. Sinfonie gedeutet, war ursprünglich aber nicht beabsichtigt. Morsen und Musik. Auch Musiker haben den Morsecode für sich entdeckt und verstecken so Nachrichten in ihren Stücken, z. B. Kraftwerk. Weitere Beispiele sind der Titel "Lucifer" von The Alan Parsons Project oder das Lied "In the Name of God" von Dream Theater, dessen versteckter Morsecode erst etliche Monate nach Veröffentlichung der CD entdeckt wurde. Ein populäres Beispiel ist der Song "YYZ" von Rush, in dem sich der zugehörige Morsecode als Rhythmus durchgängig durch den Song zieht. Auf dem Album "Amarok" des Musikers Mike Oldfield findet sich ein gemorster „Abschiedsgruß“ an den Inhaber seiner bisherigen Plattenfirma: „Fuck off RB“. Mit RB ist Richard Branson, der Besitzer von Virgin Records, gemeint. In seinem Stück "Communication" morst der Jazz Musiker Slim Gaillard den allgemeinen Anruf „CQ“ im Refrain. Morsen in der Science-Fiction-Literatur. In vielen Szenarien der Zukunftsliteratur droht ein Weltuntergang, den ein Held aufzuhalten versucht. In einigen Fällen erhält er geheime oder codierte Warnungen, die aus der Zukunft kommen, so z. B. in dem Science-Fiction-Thriller "Der Tomorrow Code", in dem zwei neuseeländische Teenager per Morsecode verschlüsselte Warnungen aus der Zukunft erhalten. Morsen vs. SMS. In der NBC-Fernsehreihe "The Tonight Show with Jay Leno" am 13. Mai 2005 gab es einen kleinen Wettbewerb, um festzustellen, ob SMS-Eingabe oder Morsen schneller ist. Hierbei traten zwei Jugendliche gegen zwei Funkamateure an. Die beiden Funkamateure, die sich seit 38 bzw. 43 Jahren damit beschäftigt hatten, waren schneller als die Jugendlichen. Morsen und Handy-Klingeltöne. Ein bekannter Morse-Klingelton ist der bei Nokia verwendete SMS-Ton „Spezial“ (in Lautschrift „dididit dahdah dididit“), der – entsprechend seinem Einsatzzweck – die Buchstabenfolge SMS symbolisiert. Das sollte keinesfalls mit dem Morsecode für SOS („didididahdahdahdididit“) verwechselt werden. Ein weiterer Morse-Klingelton (ebenfalls von Nokia) ist „connecting people“ als Weckersignalisierung. Spuren auf dem Mars. Der Mars-Rover "Curiosity" – gebaut von JPL – rollt auf Reifen, deren Profile die Morsezeichen für J, P und L in den Boden drücken. Diese besonderen Reifen sind dabei nicht nur ein Marketing-Instrument: Die Forscher der NASA nutzen die Abdrücke auf dem Marsboden, um die Funktionalität der einzelnen Räder zu beobachten. Zurückgelegte und berechnete Wegstrecken werden damit überprüft, um eventuelle Fehlfunktionen des Rovers zu identifizieren. Morsen und Seezeichen. In der Seefahrt gibt es Seezeichen, die Lichtzeichen in Form von Morsezeichen abgeben. Beispielsweise morst eine Tonne mit der Bezeichnung "Mo (A) 8s" das Zeichen "A" mit einer Wiederkehr von 8 Sekunden. Morsen und Telefon. Das ältere dit-dah (· −) für den Wählton stellt das Morsezeichen "a" für Amt dar. Meter. Der oder das Meter (über aus "métron" ‚Maß, Werkzeug zum Messen, Länge‘) ist die Basiseinheit der Länge im Internationalen Einheitensystem (SI) und in anderen metrischen Einheitensystemen. Ein Meter ist definiert als die Länge der Strecke, die das Licht im Vakuum während der Dauer von 299 792 458 Sekunde zurücklegt. Das Einheitenzeichen des Meters ist der Kleinbuchstabe „m“. Für dezimale Vielfache und Teile des Meters werden die internationalen Vorsätze für Maßeinheiten verwendet. Der Meter wurde 1799 als die Länge des Urmeters, eines Prototyps aus Platin, definiert. Dessen Länge entsprach nach den damals durchgeführten Messungen dem zehnmillionsten Teil der Entfernung vom Nordpol zum Äquator. Die aktuelle Definition gilt seit 1983. Definitionsgeschichte. Standard-Meter, Rue de Vaugirard, Paris (Marmor) Die Längeneinheit Meter ist seit Ende des 18. Jahrhunderts in Gebrauch. Der Ursprung dieser Längeneinheit geht auf einen Beschluss der französischen Nationalversammlung zurück, ein einheitliches Längenmaß zu definieren. Dem gingen einige Vorschläge für die Definition einer Längeneinheit voraus, die anders als die traditionellen Längenmaße nicht von der Länge menschlicher Gliedmaßen (der Fingerbreite, dem Zoll, der Handbreite, der Handspanne, der Elle, dem Fuß, dem Schritt und dem Klafter) abgeleitet war. So schlug der Abbé Jean Picard 1668 als Längeneinheit das Sekundenpendel vor – also die Länge eines Pendels, das eine halbe Periodendauer von einer Sekunde hat. Im Schwerefeld von Europa hätte ein solches Pendel die Länge von etwa 0,994 m und käme der heutigen Definition eines Meters ziemlich nahe. Erdfigur. Maßgebend für die neue Längeneinheit wurde jedoch nicht das Sekundenpendel, sondern die Erdfigur. 1735 entsandte die Pariser Akademie der Wissenschaften zwei Expeditionen zur Gradmessung in das heutige Ecuador und nach Lappland, um die genauen Abmessungen der Erde festzustellen. Im Jahr 1793 setzte der französische Nationalkonvent – neben einem neuen Kalender – auch ein neues Längenmaß fest: Der Meter sollte den 10-millionsten Teil des Erdquadranten auf dem Meridian von Paris betragen – also den zehnmillionsten Teil der Entfernung vom Nordpol über Paris zum Äquator. Ein Prototyp dieses Meters wurde 1795 in Messing gegossen. Er erwies sich später als außerordentlich genau – gemessen am gesteckten Ziel war er nur 0,013 % oder 0,13 Millimeter zu lang. Urmeter. a> der Längeneinheit Meter in Gebrauch. Zwischen 1792 und 1799 bestimmten Delambre und Méchain die Länge des Meridianbogens zwischen Dünkirchen und Barcelona erneut. Aus einer Kombination mit den Ecuador-Lappland-Resultaten ergab sich ein neuer Wert zu 443,296 Pariser Linien, der 1799 für verbindlich erklärt und als ein Platinstab, das Urmeter, realisiert wurde. Im 19. Jahrhundert kamen allerdings genauere Vermessungen der Erde zum Ergebnis, dass das Urmeter etwa 0,02 % zu kurz geraten war. Dennoch wurde an dem 1799 definierten Meter festgehalten – mit dem Ergebnis, dass der Erdmeridianquadrant nicht 10 000 km, sondern 10 001,966 km lang ist. Diese Länge gilt für den Meridian von Paris, andere Meridiane können andere Längen haben. Ein Nebeneffekt war, dass man erkannte, dass die Erde keine exakte Kugel ist, sondern eine unregelmäßige Form hat. Die Erde hatte sich damit als ungeeignet zur Definition des Meters erwiesen. Bis 1960 war deshalb das Meter als die Länge eines konkreten Gegenstands festgesetzt – zuerst des Urmeters, seit 1889 dann des Internationalen Meterprototyps (siehe unten). Alle späteren Definitionen hatten das Ziel, dieser Länge möglichst genau zu entsprechen. Der Norddeutsche Bund beschloss am 17. August 1868 die Einführung des französischen Metersystems zum 1. Januar 1872. Deutschland gehörte 1875 zu den zwölf Gründungsmitgliedern der Meterkonvention. Im Jahr 1889 führte das Internationale Büro für Maß und Gewicht (BIPM) den Internationalen Meterprototyp als Prototyp für die Einheit Meter ein. Dabei handelte es sich um einen Stab mit kreuzförmigem Querschnitt. Als Material wurde eine Platin-Iridium-Legierung im Verhältnis 90:10 gewählt. Die Länge des Meters wurde festgelegt als der Abstand der Mittelstriche zweier Strichgruppen auf dem auf einer konstanten Temperatur von 0 °C gehaltenen Stab. Es wurden 30 Kopien dieses Prototyps hergestellt und an nationale Eichinstitute übergeben. Wellenlänge. a>, deren zinnober­rote Spektral­linie (Wellen­länge ca. 606 nm) zwischen 1960 und 1983 zur Meter­definition heran­gezogen wurdeObgleich bei der Herstellung der Meterprototypen größter Wert auf Haltbarkeit und Unveränderbarkeit gelegt worden war, war doch klar, dass diese grundsätzlich vergänglich sind. Die Anfertigung von Kopien führte zwangsläufig zum Risiko von Differenzen und – ebenso wie regelmäßige Vergleiche der Kopien untereinander und mit dem Original – zum Risiko von Beschädigungen. Um dem Abhilfe zu schaffen, wurde 1960 eine Definition über die Wellenlänge eingeführt: Ein Meter ist das 1 650 763,73-fache der Wellenlänge der von Atomen des Nuklids 86Kr beim Übergang vom Zustand 5d5 zum Zustand 2p10 ausgesandten, sich im Vakuum ausbreitenden Strahlung. Die Definition basiert auf Forschungen von Ernst Engelhard. Das Verständnis dieser Definition setzt lediglich Kenntnisse in Atomphysik voraus. Sind diese und die nötige Ausrüstung vorhanden, so kann die Länge eines Meters an jedem beliebigen Ort reproduziert werden. Statt auf der aufzubewahrenden Maßverkörperung, dem Urmeter, beruht die Definition des Meters seitdem auf einer Messvorschrift für Naturkonstanten, die unabhängig von Maßverkörperungen gemessen werden können. Der Zahlenwert wurde dabei so gewählt, dass das Ergebnis dem bis 1960 gültigen Meter innerhalb der damaligen Messunsicherheit entsprach. Lichtgeschwindigkeit. Verbesserungen der Genauigkeit bei der Messung der Länge eines Meters nach dieser Vorschrift änderten jeweils den Zahlenwert der Naturkonstante Lichtgeschwindigkeit. Zuletzt geschah dies 1973. Auf der 15. Generalkonferenz für Maße und Gewichte (kurz CGPM) wurde beschlossen, den Zahlenwert der Lichtgeschwindigkeit nicht zu messen, sondern zu definieren. Im Gegenzug wurde vorgeschlagen, die Länge eines Meters als diejenige Strecke zu definieren, die Licht im Vakuum innerhalb des Zeitintervalls von 1/299 792 458 Sekunden durchläuft. Die 17. CGPM hat am 20. Oktober 1983 diese Definition angenommen. Gebräuchliche dezimale Vielfache . Zusammensetzungen mit weiteren Präfixen sind ungebräuchlich. Sprachgebrauch. Der deutsche Einheitenname "Meter" geht auf frz. "mètre" zurück [aus lat. "metrum", griech. "métron" = (Vers)maß, Silbenmaß]. Der Einheitenname "Meter" war nach DIN 1301-1:2002-10 Neutrum "(das Meter)", analog zu den Ursprungssprachen. Mit DIN 1301-1:2010-10 wurde dagegen Maskulinum "(der Meter)" als Norm festgelegt. Damit wurde die Fachsprache dem allgemeinen Sprachgebrauch angepasst, wo Maskulinum überwiegt. „Das“ Meter wird hingegen für die Bedeutung als Messinstrument benützt, etwa: das Thermometer. Abgeleitete Maßeinheiten. Vom Meter leiten sich die Flächeneinheit Quadratmeter und die Volumeneinheit Kubikmeter ab. Längenbezogene Größen werden als "Belag", manchmal auch als "Dichte" bezeichnet. Beispiele sind die Massenbelegung oder der Widerstandsbelag. Mol. Das Mol (Einheitenzeichen: mol) ist die SI-Basiseinheit der Stoffmenge. Sie dient der Mengenangabe bei chemischen Reaktionen. Ein Mol enthält etwa formula_4 Teilchen. Diese Zahl ist so definiert, dass formula_5 Kohlenstoff mit dem Isotop C-12 genau einem Mol entsprechen. Der Zahlenwert der Masse eines Mols eines Stoffs angegeben in Gramm ist identisch mit der Atommasse der Atome oder der Molekülmasse der Moleküle, aus denen der Stoff besteht, angegeben in der Atomaren Masseneinheit (u). Definition. Anders ausgedrückt haben 12 Gramm Kohlenstoff-12 genau die Stoffmenge ein Mol. Ein Mol Atome natürlichen Kohlenstoffs hingegen hat aufgrund des Isotopengemischs eine Masse von 12,0107 Gramm. Teilchenzahl und Stoffmenge sind einander proportional, so dass eine beliebige dieser beiden Größen als Maß für die andere dienen kann. wobei die eingeklammerten Ziffern die Unsicherheit in den letzten Stellen des Wertes bezeichnen, diese Unsicherheit ist als geschätzte Standardabweichung des ermittelten Zahlenwertes angegeben und beträgt somit formula_7. Ein Mol eines Stoffes enthält also ca. 602 Trilliarden Teilchen dieses Stoffes. Historisches. Der Begriff „Mol“ wurde 1893 von Wilhelm Ostwald geprägt und ist vermutlich von „Molekül“ abgeleitet. Im SI ist 1971 das Mol als Basiseinheit eingeführt worden. Damit wurde der Anwendungsbereich des SI auf die Chemie ausgedehnt. Vor Etablierung des SI ist das Mol überwiegend als Masseneinheit angesehen worden. Ältere Bezeichnungen sind Grammatom (nur bei Elementen) und Grammolekül (nur bei Verbindungen). So heißt es in DIN 1310 „Gehalt von Lösungen“ vom April 1927: „Als Masseneinheiten dienen […] das Mol, d. h. soviel Gramm des Stoffes, wie sein Molekulargewicht angibt […]“. Allerdings wurde durch die Anwendung des Molekular„gewichts“ hier eine Stoffmasse – keine Stoffmenge heutiger Sicht – beschrieben und als „Stoffmenge“ bezeichnet. In der heutigen Mol-Definition des SI hingegen wird die Stoffmenge von Teilchenzahl und Masse formal klar unterschieden. Molares Volumen. Das molare Volumen eines Stoffes ist eine stoffspezifische Eigenschaft, die angibt, welches Volumen ein Mol eines Stoffes ausfüllt. Für ein ideales Gas gilt, dass ein Mol bei Normalbedingungen (273,15 K, 101325 Pa) ein Volumen von 22,414 Liter einnimmt. Für reale Gase, Feststoffe und Flüssigkeiten ist das molare Volumen dagegen stoffabhängig. Molare Masse. Die molare Masse formula_8 ist der Quotient aus Masse und Stoffmenge eines Stoffs. In der Einheit g/mol hat sie denselben Zahlenwert wie die Atom- bzw. Molekülmasse des Stoffs in der Einheit formula_9 (atomare Masseneinheit). Ihre Bedeutung ist äquivalent zum früheren „Atomgewicht“ in der Chemie. Berechnung von Stoffmengen. formula_10 Dabei bezeichnet formula_2 die Stoffmenge, formula_12 die Masse und formula_8 die molare Masse. formula_8 kann für chemische Elemente Tabellenwerken entnommen und für chemische Verbindungen bekannter Zusammensetzung aus solchen Werten errechnet werden. Die atomare Masse, die für jedes chemische Element in Tabellen angegeben wird, bezieht sich dabei auf das natürliche Isotopengemisch. So ist zum Beispiel als Atommasse für Kohlenstoff 12,0107 u angegeben. Dieser Wert ist zum Beispiel für in 13C angereichertes Material nicht anzuwenden. Während bei stabilen Elementen die Abweichungen von Isotopenmischungen, wie sie in der Natur vorkommen, relativ gering sind, kann insbesondere bei radioaktiven Elementen das Isotopengemisch stark von der Herkunft und dem Alter des Materials abhängen. Verwendung der Einheit Mol bei Konzentrationsangaben. Die Einheit "Mol" findet häufig Verwendung in zusammengesetzten Einheiten zur Angabe von Konzentrationen (Lösungen, Säuregehalt von Lösungen usw.). Eine der häufigsten Verwendungen ist die "x-molare Lösung" (das x steht darin für eine beliebige rationale positive Zahl). Die Bedeutung ist Masse von 1 mol Wasser. Nimmt man statt der Zahl der Nukleonen die genaueren Atommassen, ergibt sich ein leicht höherer Wert von 18,015 g. Herstellung von Lithiumhydroxid aus Lithium und Wasser. Bei der Bildung von LiOH werden zwei Wassermoleküle von zwei Lithiumatomen in jeweils einen H- und einen OH-Teil aufgespalten. Weil in jedem Mol von jeder Substanz gleich viele Teilchen vorhanden sind (siehe oben), braucht man beispielsweise 2 mol Lithium und 2 mol Wasser (oder eine beliebige andere Stoffmenge im 2:2-Verhältnis). Mendelevium. Mendelevium ist ein ausschließlich künstlich erzeugtes chemisches Element mit dem Elementsymbol Md und der Ordnungszahl 101. Im Periodensystem steht es in der Gruppe der Actinoide (7. Periode, f-Block) und zählt auch zu den Transuranen. Mendelevium ist ein radioaktives Metall, welches aber aufgrund der geringen zur Verfügung stehenden Mengen bisher nicht als Metall dargestellt wurde. Es wurde 1955 entdeckt und nach dem russischen Chemiker und Erfinder des Periodensystems Dmitri Mendelejew benannt. Der Name wurde 1994 endgültig von der IUPAC bestätigt. Geschichte. Mendelevium wurde 1955 zum ersten Mal an der University of California in Berkeley von Stanley G. Thompson, Albert Ghiorso, Bernard G. Harvey, Gregory Choppin und Glenn T. Seaborg erzeugt. Die Entdecker schlugen dabei den Namen zu Ehren Mendelejews vor, ebenso das Kürzel Mv. Die IUPAC entschied sich für den Namen, jedoch mit dem Symbol Md. Zur Herstellung wurde ein 253Es-Target in einem Zyklotron mit beschleunigten α-Teilchen beschossen. Dabei entsteht 256Md und ein freies Neutron. Später wurde das Element zeitweilig mit dem systematischen Namen "Unnilunium" bezeichnet. Eigenschaften. Im Periodensystem steht das Mendelevium mit der Ordnungszahl 101 in der Reihe der Actinoide, sein Vorgänger ist das Fermium, das nachfolgende Element ist das Nobelium. Sein Analogon in der Reihe der Lanthanoide ist das Thulium. Mendelevium ist ein radioaktives und sehr kurzlebiges Metall. Das stabilste Isotop von Mendelevium ist 258Md mit einer Halbwertszeit von ungefähr 51,5 Tagen. Es zerfällt zu 254Es durch Alphazerfall. In monovalenter Form wurde es bisher nicht beobachtet. Sicherheitshinweise. Einstufungen nach der Gefahrstoffverordnung liegen nicht vor, weil diese nur die chemische Gefährlichkeit umfassen und eine völlig untergeordnete Rolle gegenüber den auf der Radioaktivität beruhenden Gefahren spielen. Auch Letzteres gilt nur, wenn es sich um eine dafür relevante Stoffmenge handelt. Magnesium. Magnesium ist ein chemisches Element mit dem Elementsymbol Mg (Alchemie: ⚩) und der Ordnungszahl 12. Im Periodensystem der Elemente steht es in der zweiten Hauptgruppe bzw. der 2. IUPAC-Gruppe und gehört damit zu den Erdalkalimetallen. Magnesium ist eines der zehn häufigsten Elemente der Erdkruste. Es kommt in zahlreichen Mineralen sowie im Blattgrün der Pflanzen vor. Geschichte. a>, erster Hersteller reinen Magnesiums, wenn auch nur in kleinen Mengen Magnesiumverbindungen waren schon Jahrhunderte vor der Herstellung elementaren Magnesiums bekannt und in Gebrauch. "Magnesia alba" bezeichnete Magnesiumcarbonat, während "Magnesia" der gebräuchliche Name für Magnesiumoxid war. Der schottische Physiker und Chemiker Joseph Black war der erste, der Magnesiumverbindungen im 18. Jahrhundert systematisch untersuchte. 1755 erkannte er in seinem Werk "De humore acido a cibis orto et Magnesia alba" den Unterschied zwischen Kalk (Calciumcarbonat) und "Magnesia alba" (Magnesiumcarbonat), die zu dieser Zeit oft verwechselt wurden. Er fasste "Magnesia alba" als Carbonat eines neuen Elements auf. Deswegen wird Black oft als Entdecker des Magnesiums genannt, obwohl er nie elementares Magnesium darstellte. 1808 gewann Sir Humphry Davy Magnesium durch Elektrolyse angefeuchteten Magnesiumhydroxids mit Hilfe einer Voltaschen Säule – allerdings nicht in reiner Form, sondern als Amalgam, da er mit einer Kathode aus Quecksilber arbeitete. So zeigte er, dass "Magnesia" das Oxid eines neuen Metalls ist, das er zunächst "Magnium" nannte. 1828 gelang es dem französischen Chemiker Antoine Bussy durch das Erhitzen von trockenem Magnesiumchlorid mit Kalium als Reduktionsmittel, geringe Mengen von reinem Magnesium darzustellen. 1833 stellte Michael Faraday als erster Magnesium durch die Elektrolyse von geschmolzenem Magnesiumchlorid her. Basierend auf diesen Versuchen arbeitete der deutsche Chemiker Robert Wilhelm Bunsen in den 1840er und 1850er Jahren an Verfahren zur Herstellung von Magnesium durch Elektrolyse von Salzschmelzen mit Hilfe des von ihm entwickelten Bunsenelements. 1852 entwickelte er eine Elektrolysezelle zur Herstellung größerer Mengen von Magnesium aus geschmolzenem, wasserfreien Magnesiumchlorid. Dieses Verfahren ist bis heute zur Gewinnung von Magnesium bevorzugt. Die technische Erzeugung von Magnesium begann 1857 in Frankreich nach einem Verfahren von Henri Etienne Sainte-Claire Deville und H. Caron. Beim sogenannten Deville-Caron-Prozess wird ein Gemisch aus wasserfreiem Magnesiumchlorid und Calciumfluorid mit Natrium reduziert. In England begann die Firma Johnson Matthey um 1860 mit der Magnesiumherstellung nach einem ähnlichen Verfahren. Aufgrund von Fabrikationsschwierigkeiten blieben diese frühen Unternehmungen allerdings unwirtschaftlich. Vorkommen. Magnesium kommt in der Natur wegen seiner Reaktionsfreudigkeit nicht in elementarer Form vor. Als Mineral tritt es überwiegend in Form von Carbonaten, Silicaten, Chloriden und Sulfaten auf. In Form von Dolomit ist ein Magnesiummineral sogar gebirgsbildend, so z. B. in den Dolomiten. Die wichtigsten Mineralien sind Dolomit CaMg(CO3)2, Magnesit (Bitterspat) MgCO3, Olivin (Mg, Fe)2 [SiO4], Enstatit MgSiO3 und Kieserit MgSO4 · H2O. In Wasser gelöst, verursacht es zusammen mit dem Calcium die Wasserhärte. Im Meerwasser ist es zu mehr als 1 kg/m³ enthalten. Gewinnung und Darstellung. Der Pidgeon-Prozess ist heute der bedeutendste Herstellungsprozess und wird hauptsächlich in China verwendet. 86 % der Magnesiumproduktion findet in China statt (Stand: 2015). In China wurden 2007 ca. 653.000 t Rein-Magnesium erzeugt. Bei der Produktion von 1 kg Magnesium durch den Pidgeon-Process entstehen Treibhausgase mit einem CO2-Äquivalent von etwa 31 kg (zum Vergleich: Für 1 kg Stahl entstehen zwischen 0,5 und 2 kg CO2-Äquivalente). Eigenschaften. Das feste, silbrig glänzende Leichtmetall Magnesium ist etwa ein Drittel leichter als Aluminium. Reinmagnesium hat eine geringe Festigkeit und Härte. Sein E-Modul liegt bei etwa 45 GPa. An Luft überzieht sich Magnesium mit einer Oxidschicht, die im Gegensatz zu Aluminium nicht vollständig deckend ist. Grund dafür ist, dass das Magnesiumoxid ein geringeres Molvolumen als Magnesium selbst hat (MgO: 10,96 cm3/mol, Mg: 13,96 cm3/mol); s. Pilling-Bedworth-Verhältnis. Dünne Bänder oder Folien lassen sich leicht entzünden. Es verbrennt an der Luft mit einer grellweißen Flamme zu Magnesiumoxid MgO und wenig Magnesiumnitrid Mg3N2. Frisch hergestelltes Magnesiumpulver kann sich an der Luft bis zur Selbstentzündung erwärmen. Gefährliche Reaktionen sind bei höheren Temperaturen, das heißt besonders bei Schmelzflüssigem zu erwarten. Auch in vielen Oxiden wie Kohlenstoffmonoxid, Stickoxid und Schwefeldioxid verbrennt Magnesium. Dabei bildet sich ein schwer löslicher Überzug aus Magnesiumhydroxid, der die Reaktion weitgehend zum Erliegen bringt (Passivierung). Schon schwache Säuren, wie beispielsweise Ammoniumsalze, genügen um die Hydroxidschicht zu lösen, da sie die Hydroxidionen zu Wasser umsetzen und sich lösliche Salze bilden. Ohne Passivierung verläuft die exotherme Reaktion heftig; umso heftiger, je feiner der Magnesiumstaub. Mit Luft bildet der freigesetzte Wasserstoff leicht ein explosionsfähiges Gemisch (Knallgas). Gegen Fluorwasserstoffsäure und Basen ist es im Gegensatz zum Aluminium relativ beständig. Grund dafür ist die geringe Löslichkeit des als Überzug gebildeten Magnesiumfluorids (MgF2), die eine weitere Bildung von Mg(OH)3−-Ionen verhindern. Metallisches Magnesium. Ein Stab aus MagnesiumProdukte aus Magnesium Magnesiumband und -draht wird in (Foto-)Blitzlampen beziehungsweise früher als Blitzlichtpulver, Magnesiumpulver in Brandsätzen, -bomben und Leuchtmunition, aber auch als Zusatz in Feuersteinen für Feuerzeuge verwendet. Häufig dienen Magnesiumstäbe als Opferanoden, die Teile aus edleren Metallen vor Korrosion schützen. In der Metallurgie findet Magnesium vielseitige Verwendung, In der organischen Chemie wird es zur Herstellung von Grignard-Verbindungen genutzt. Weil sich Magnesium sehr leicht entzündet, wird es auch als sehr robustes Feuerzeug verwendet. Diese als "Fire Starter Kits" vertriebenen Magnesiumblöcke haben auf einer Seite einen Stab, dessen Abrieb sich an der Luft spontan entzündet, wie der Feuerstein eines Feuerzeugs. Die Prozedur ähnelt stark der in der Steinzeit üblichen Methode, durch Feuerstein und Zunder Feuer zu machen, wobei das Magnesium die Rolle des Zunders übernimmt. Zuerst werden mit einem Messer Späne vom Magnesiumblock abgeschabt und auf oder unter dem eigentlichen Brennmaterial platziert. Anschließend werden durch Schaben am rückwärtigen „Feuerstein“ (z. B. mit dem Rücken des Messers) Funken möglichst nahe an den Magnesiumspänen erzeugt, um diese zu entzünden. Magnesiumlegierungen. Die wichtigste Eigenschaft von Magnesiumlegierungen, die ihnen gegenüber Aluminium und seinen Legierungen zu Bedeutung verholfen hat, ist der mit ihnen mögliche Leichtbau. Mit einer Dichte von rund 1,75 g/cm³ ist der Unterschied zu Aluminiumleichtbau mit einer Dichte um 2,75 g/cm³ deutlich. Hinzu kommt, dass der Schmelzbereich zwischen 430 und 630 °C, also energiesparend niedriger liegt. Die für damalige Anschauung erstaunlich niedere Dichte machte Magnesium schon früh für mobile Anwendungen interessant. Die erste wirklich namhaft gewordene Verwendung fanden die leichten Magnesiumlegierungen daher schon vor dem Ersten Weltkrieg beim Bau des Gerüstes für die starren Zeppelinluftschiffe. Dies blieb auch so bis zur Einstellung des Luftschiffbaus zu Beginn des Zweiten Weltkrieges. In Kraftfahrzeugen nutzte man Magnesiumlegierungen zur Herstellung von Gehäuseteilen sowie zur Herstellung von Felgen für Großfahrzeuge. Nach 1930 verwendete man Magnesiumlegierungen zunehmend im Flugzeugbau, denn die mit ihnen möglichen Gewichtseinsparungen, auch im Motorenbau erlaubten höhere Geschwindigkeiten, wie auch höhere Zuladung. Alles dies führte zu einem raschen Ausbau der Magnesiumerzeugung in Deutschland (Elektron aus der Chemischen Fabrik Griesheim) und nach 1940 auch in den USA. „Elektron“ wurde unmittelbar nach Produktionsanlauf zum markenrechtlich geschützten Namen für die ersten Magnesiumlegierungen. Andere Verwendungsmöglichkeiten für Magnesiumguss boten sich im Zuge der technischen Entwicklung an, teils kriegsbedingt, teils konstruktiv vorausschauend und zugleich die Legierungen optimierend. Als Werkstoffe auf Magnesiumbasis wurden die Legierungen Mg-Al-, Mg-Mn-, Mg-Si-, Mg-Zn- und schließlich Mg-Al-Zn-Legierungen entwickelt. Die Getriebegehäuse des VW Käfers wurde in Millionenauflage aus einer Mg-Si-Legierung gegossen. Heute werden Magnesiumlegierungen nicht allein unter dem Gesichtspunkt Gewichtsersparnis verwendet, sondern sie zeichnen sich zudem durch hohe Dämpfung aus. Dies führt bei Schwingungsbelastung zu einer Verringerung der Vibration und Geräuschemission. Auch aus diesem Grunde sind Magnesiumlegierungen interessante Werkstoffe im Motorenbau, wie überhaupt im Automobilbau geworden. So werden nicht nur Teile des Motors aus Magnesiumlegierung hergestellt, sondern zunehmend auch für den Guss von Motorblöcken das Hybridverfahren/Hybridguss angewendet, erstmals in der Großserie im Alfa Romeo 156, später auch bei BMW (siehe hierzu auch BMW N52). Im Druckgießverfahren/Druckguss (siehe auch unter Formguss) lassen sich viele, auch großflächige, dünnwandige Bauteile endabmessungsnah und ohne kostenintensive Nachbearbeitung herstellen, so z. B. Felgen, Profile, Gehäuse, Türen, Motorhauben, Kofferraumdeckel, Handbremshebel und anderes. Nicht nur im Automobilbau, auch im Maschinenbau wird mit Teilen aus Mg-Al-Zn-Legierungen konstruiert. Die Bestrebungen nach Leichtbau führten bereits zu Ende des 20. Jahrhunderts zu noch leichteren Legierungen aus Magnesium mit Zusatz von Lithium. Magnesiumwerkstoffe in der Medizin. Jüngste Forschungen versprechen ein hohes Entwicklungspotenzial von Magnesiumwerkstoffen als resorbierbares Implantatmaterial (z. B. als Stent) für den menschlichen Körper. Magnesiumwerkstoffe müssen in der Anwendung vor Kontaktkorrosion geschützt werden. Die Korrosionsbeständigkeit gegen normale atmosphärische Einflüsse ist hingegen gut. Das Kontaktkorrosionsverhalten wäre bei einer Verwendung als zeitlich begrenzt einzusetzendes Implantatmaterial ein entscheidender Vorteil, da es sich nach einer bestimmten Zeit gefahrlos auflösen würde. Damit entfielen Risiken und Kosten einer Operation zur Implantatentnahme. Düngemittel. Bei der Kalkung von Acker- und Grünlandflächen kommt Magnesium in Form von Magnesiumoxid oder Magnesiumcarbonat zum Einsatz, um den Magnesiumentzug des Bodens durch die Pflanzen wieder auszugleichen. Weiterhin wird der Boden-pH-Wert angehoben und die Verfügbarkeit weiterer Nährstoffe verbessert. Hierbei wird die Magnesiumverbindung meist zusammen mit Kalk als magnesium- und calciumhaltiger Mehrnährstoffdünger angewendet. Auch das natürlich als Bobierrit vorkommende Magnesiumphosphat Mg3(PO4)2 ("Trimagnesiumphosphat") sowie Magnesiumnitrat werden als Mehrnährstoffdünger verwendet. Physiologie. Magnesium gehört es zu den Essentiellen Stoffen und ist daher für alle Organismen unentbehrlich. Im Blattgrün der Pflanzen, dem Chlorophyll, ist Magnesium zu etwa 2 % enthalten. Dort bildet es das Zentralatom des Chlorophylls. Bei Magnesiummangel vergeilen Pflanzen ebenso wie auch bei Lichtmangel. Auch dem menschlichen Körper muss Magnesium täglich in ausreichender Menge zugeführt werden, um Magnesiummangel vorzubeugen. Der Körper eines Erwachsenen enthält etwa 20 g Magnesium (zum Vergleich: 1000 g Calcium). Im Blutplasma ist das Magnesium zu 40 % an Proteine gebunden; der normale Serumspiegel beträgt 0,8–1,1 mmol/l. Magnesium ist an circa 300 Enzymreaktionen als Enzymbestandteil oder Coenzym beteiligt. Zudem beeinflussen freie Mg-Ionen das Potential an den Zellmembranen und fungieren als second messenger im Immunsystem. Sie stabilisieren das Ruhepotential von erregbaren Muskel- und Nervenzellen und der Zellen des autonomen Nervensystems. Magnesiummangel löst Ruhelosigkeit, Nervosität, Reizbarkeit, Konzentrationsmangel, Müdigkeit, allgemeines Schwächegefühl, Kopfschmerzen, Herzrhythmusstörungen und Muskelkrämpfe aus. Es kann auch zum Herzinfarkt kommen. Im Bereich Stoffwechsel und Psyche wird vermutet, dass Magnesiummangel Depression und schizophrene Psychosen verstärkt. Ein Magnesiumüberschuss im Blut kann durch exzessive Zufuhr und Nierenfunktionsstörungen auftreten und führt zu Störungen im Nervensystem und Herz. Die Magnesiumresorption findet zuerst im oberen Dünndarm statt, aber auch im übrigen Verdauungstrakt. Es wird über die Nieren ausgeschieden und ist in unterschiedlichen Mengen in allen Nahrungsmitteln sowie im Trinkwasser enthalten. Die erforderliche Tagesdosis von circa 300 mg wird in der Regel durch eine ausgewogene Ernährung erreicht. Ein erhöhter Bedarf kann über Nahrungsergänzungsmittel oder Medikamente gedeckt werden. Leichter Magnesiummangel ist durch schwere Erkrankung, Schwangerschaft oder Leistungssport möglich. Schwere Mangelzustände treten bei Nierenfunktionsstörungen, langandauerndem Durchfall, chronischen Darmentzündungen, schlecht eingestelltem Diabetes mellitus, Kortikoiden, bestimmten Diuretika oder Alkoholismus mit Fehlernährung auf. Magnesiumsalze wie etwa Citrat, Gluconat, Aspartat und Aspartathydrochlorid sind in Deutschland als Arzneimittel zugelassen, und zwar in Tages-Dosen von 100 bis 400 mg gegen Mangelzustände und neuromuskuläre Störungen wie beispielsweise Muskelkrämpfe, Migräne oder Schwangerschaftskomplikationen. Nebenwirkungen sind Magen-Darm-Beschwerden und Durchfall, bei Überdosierung auch Müdigkeit und Pulsverlangsamung. Kontraindikationen sind Nierenfunktionsstörung sowie bestimmte Herzrhythmusstörungen. Bei oraler Aufnahme von Magnesiumpräparaten (Tabletten, Kau- oder Lutschtabletten, Granulat zum Auflösen in Flüssigkeit) ist zum einen die Dosierung wichtig. Verschiedene Studien kommen zu dem Ergebnis, dass bei einer Einnahme von 120 mg circa 35 % resorbiert werden, jedoch bei Einnahme einer kompletten Tagesdosis von 360 mg nur noch circa 18 %. Für die Resorption im Körper ist die Form der heute in Medikamenten gebräuchlichen Verbindungen unerheblich, denn sie sind sowohl pharmakologisch als auch biologisch und klinisch äquivalent; organische Salze wie etwa Magnesiumaspartat oder Magnesiumcitrat werden dabei lediglich schneller vom Körper aufgenommen als anorganische Verbindungen. Zum anderen verbleibt das zusätzliche Magnesium nur dann nutzbringend im Körper, wenn auch genug bindende Moleküle im Körper zur Verfügung stehen; dies geschieht durch biochemische Anpassungen erst nach längerer Erhöhung des Magnesiumangebotes bzw. Einnahme über wenigstens vier Wochen. Magnesiumsulfat („Bittersalz“) war früher als Abführmittel gebräuchlich. Magnesiumsalze finden in der Alternativmedizin Verwendung. Lebensmittel. Magnesium dient etwa 300 verschiedenen Proteinen als Cofaktor, vor allem bei ATP- und Nukleinsäure-bindenden Enzymen. Die empfohlene tägliche Zufuhr von Magnesium beträgt beim Menschen je nach Alter und Geschlecht zwischen 24 und 400 mg pro Tag. Magnesium kommt als Verbindung in vielen Lebensmitteln vor, insbesondere in Vollkornprodukten (zum Beispiel Vollkornbrot, Vollkorn-Nudeln, Vollkorn-Reis, Haferflocken, Cornflakes), Mineralwasser, insbesondere Heilwasser, Leitungswasser ausreichender Wasserhärte, Leber, Geflügel, Speisefisch, Kürbiskernen, Sonnenblumenkernen, Schokolade, Cashewnüssen, Erdnüssen, Kartoffeln, Spinat, Kohlrabi, Beerenobst, Orangen, Bananen, Sesam, Zuckerrübensirup, Milch und Milchprodukten. Gefahren und Schutzmaßnahmen. Die Gefährlichkeit von elementarem Magnesium hängt stark von der Temperatur und der Teilchengröße ab: kompaktes Magnesium ist bei Temperaturen unterhalb des Schmelzpunktes ungefährlich, während Magnesiumspäne und -pulver leichtentzündlich sind. Bedingt durch die große Oberfläche können letztere leicht mit dem Sauerstoff der Luft reagieren. Bei sehr feinem Magnesiumpulver besteht die Gefahr der Selbstentzündung; Luft-Pulver-Gemische sind sogar explosionsgefährlich. Phlegmatisierung ist eine die Gefahr herabsetzende Behandlung bei der Verarbeitung von Magnesium-, wie Metallpulvern überhaupt. Geschmolzenes Magnesium entzündet sich ebenfalls von selbst an der Luft. Auch mit vielen anderen Stoffen, beispielsweise Wasser und anderen sauerstoffhaltigen Verbindungen, reagiert feinkörniges oder erhitztes Magnesium. Magnesiumschmelzen bedürfen daher einer permanenten Sicherung gegen Zutritt von Luftsauerstoff. In der Praxis erfolgt dies durch Abdeckung der Schmelze mittels magnesiumchloridreichen Mitteln. Schwefelhexafluorid ist ebenfalls als Oxidationsschutz geeignet. Das früher übliche Abdecken mit elementarem Schwefel wird wegen der starken Belästigung durch entstehendes Schwefeldioxid nicht mehr praktiziert. Bei Magnesiumbränden treten Temperaturen bis zu etwa 3000 °C auf. Keinesfalls dürfen gängige Löschmittel wie Wasser, Kohlenstoffdioxid, Schaum oder Stickstoff verwendet werden, da Magnesium heftig mit diesen reagiert. Bei Zutritt von Wasser zu einem Magnesiumbrand besteht die akute Gefahr einer Knallgasreaktion. Für den Brand (Metallbrände) einer Schmelze gilt das Löschprinzip des Erstickens, also die rasche Sauerstoffverdrängung. Im einfachsten Fall durch Abdecken mit trockenem Sand, sonst mittels Aufbringung eines Abdecksalzes für Magnesiumschmelzen. Weiter geeignet sind Löschpulver der Brandklasse D, Magnesiumoxid-Pulver (gebrannte Magnesia), notfalls auch trockene rostfreie Graugussspäne, Bei der Verwendung von Magnesium sind insofern alle gegebenen Sicherheitshinweise genau zu befolgen. Es darf unter keinen Umständen eine explosive Atmosphäre (Magnesiumstaub, Wasserstoff, Aerosole und Dämpfe brennbarer Kühlschmierstoffe) entstehen. Auch die normalen Arbeitsschutzmaßnahmen, wie die Vermeidung von Zündquellen, müssen beachtet werden. Nachweis. Der Nachweis von Magnesium gelingt am besten mittels Magneson II, Titangelb oder Chinalizarin. Zum Nachweis mit Magneson II (4-(4-Nitrophenylazo)-1-naphthol) wird die Ursubstanz in Wasser gelöst und alkalisch gemacht. Danach gibt man einige Tropfen einer Lösung des Azofarbstoffs Magneson II hinzu. Bei Anwesenheit von Magnesium-Ionen entsteht ein dunkelblauer Farblack. Andere Erdalkalimetalle sollten vorher durch Fällung als Carbonate entfernt werden. Zum Nachweis mit Titangelb (Thiazolgelb G) wird die Ursubstanz in Wasser gelöst und angesäuert. Anschließend wird sie mit einem Tropfen der Titangelb-Lösung versetzt und mit verdünnter Natronlauge alkalisch gemacht. Bei Anwesenheit von Magnesium entsteht ein hellroter Niederschlag. Nickel-, Zink-, Mangan- und Cobalt-Ionen stören diesen Nachweis und sollten vorher als Sulfide gefällt werden. Zum Nachweis mit Chinalizarin wird die saure Probelösung mit zwei Tropfen der Farbstofflösung versetzt. Dann wird verdünnte Natronlauge bis zur basischen Reaktion zugegeben. Eine blaue Färbung oder Fällung zeigt Magnesium an. Aus ammoniakalischer Lösung kann Mg2+ auch mit Oxin als schwerlösliche gelbgrünliche Verbindung nachgewiesen werden. Dieser Nachweis eignet sich für den Kationentrennungsgang. Magnesiumorganyle. Magnesiumorganyle sind metallorganische Verbindungen, in denen eine Bindung zwischen Magnesium und Kohlenstoff existiert. Unter den Magnesiumorganylen kommt Grignardverbindungen (R-Mg-X) die weitaus größte Bedeutung zu. Eine deutlich untergeordnete Rolle spielen binäre Magnesiumorganyle sowie Alkenylmagnesiumhalogenide. Organylmagnesiumhalogenide. Allgemein: formula_4 z. B.: formula_5 Allgemein: formula_6 z. B.: formula_7 Mangan. Mangan ist ein chemisches Element mit dem Elementsymbol Mn und der Ordnungszahl 25. Im Periodensystem steht es in der 7. Nebengruppe (Gruppe 7), der Mangangruppe. Mangan ist ein silberweißes, hartes, sehr sprödes Übergangsmetall, das in manchen Eigenschaften dem Eisen ähnelt. Mangan kommt in der Natur vorwiegend als Braunstein vor und wird in großen Mengen abgebaut. 90 % des abgebauten Mangans werden in der Stahlindustrie in Form von Ferromangan als Legierungsbestandteil von Stahl eingesetzt. Dabei entzieht es dem Stahl Sauerstoff und Schwefel und verbessert gleichzeitig die Durchhärtung. Wirtschaftlich wichtig ist zudem Mangan(IV)-oxid, das als Kathode in Alkali-Mangan-Batterien eingesetzt wird. Das Element besitzt eine hohe biologische Bedeutung als Bestandteil verschiedener Enzyme. So wirkt es an einer zentralen Stelle im Photosynthese-Zyklus, wo ein Mangan-Calcium-Cluster für die Oxidation von Wasser zu Sauerstoff verantwortlich ist. Geschichte. In der Natur vorkommende Manganoxide wie Braunstein sind schon lange als natürliche Pigmente bekannt und in Gebrauch. So wurden schwarze Manganoxid-Pigmente unter anderem in den etwa 17.000 Jahre alten Höhlenmalereien in den Höhlen von Ekain und Lascaux nachgewiesen. In der Glasherstellung werden Manganverbindungen seit dem vierten Jahrhundert vor Christus im Römischen Reich eingesetzt. Dabei hat das Mangan zwei verschiedene Funktionen. Wird Braunstein eingesetzt, färbt dieses das Glas intensiv braun-violett. Wird dagegen dreiwertiges Manganoxid in eisenhaltige Gläser gegeben, entfärbt es diese, indem es das blaufärbende zweiwertige Eisen zum schwach gelben dreiwertigen oxidiert. Die erste Gewinnung des Elements gelang wahrscheinlich 1770 Ignatius Gottfried Kaim (1746–1778), der Braunstein mit Kohlenstoff reduzierte und dabei unreines Mangan erhielt, das er "Braunsteinkönig" nannte. Diese Entdeckung ist jedoch nicht sehr bekannt geworden. 1774 erkannte Carl Wilhelm Scheele, dass Braunstein ein unbekanntes Element enthalten müsse, im gleichen Jahr stellte Johan Gottlieb Gahn auf Scheeles Anregung hin Mangan durch Reduktion von Braunstein mit Kohlenstoff her. Als Name wurde nach der lateinischen Bezeichnung für Braunstein "manganesia nigra" zunächst "Manganesium" gewählt, nach der Entdeckung des Magnesiums jedoch wegen möglicher Verwechslungen zu "Mangan(ium)" abgekürzt. Dieser wurde von Plinius wegen der Ähnlichkeit zum Magneteisen (oder "magnes masculini sexus") als "magnes feminei sexus" (da Braunstein nicht magnetisch ist) bezeichnet, was im Mittelalter zu "manganesia" wurde. 1839 wurde erkannt, dass Mangan die Formbarkeit von Eisen verbessert. Als 1856 Robert Forester Mushet (1811–1891) zeigte, dass durch Zusatz von Mangan eine Massenproduktion von Stahl im Bessemer-Verfahren möglich ist, wurde Mangan in kurzer Zeit in großen Mengen zur Stahlproduktion verwendet. Auch Braunstein erlangte ab 1866 technische Bedeutung, als durch Walter Weldon das Weldon-Verfahren zur Chlorherstellung entwickelt wurde, bei dem Salzsäure mit Hilfe von Braunstein zu Chlor oxidiert wird. Vorkommen. Rhodochrosit (rot) und Manganit (schwarz) Mangan ist auf der Erde ein häufiges Element, in der kontinentalen Erdkruste kommt es mit einem Gehalt von 0,95 % ähnlich häufig wie Phosphor oder Fluor vor. Nach Eisen und Titan ist es das dritthäufigste Übergangsmetall. Dabei kommt es nicht elementar, sondern stets in Verbindungen vor. Neben Mangansilikaten und Mangancarbonat ist es vor allem in Oxiden gebunden. Häufige Minerale sind die Mineralgruppe der Braunsteine, Manganit, Hausmannit, Braunit, Rhodochrosit und Rhodonit. Das Mangan kommt dabei in unterschiedlichen Oxidationsstufen als zwei-, drei- und vierwertiges Mangan vor, die mitunter wie im Hausmannit auch im gleichen Mineral vorkommen. Während viele Verbindungen des zweiwertigen Mangans leicht wasserlöslich sind, sind Verbindungen in höheren Oxidationsstufen meist schwerlöslich und auch physikalisch und chemisch stabil. Darum bilden sich Manganerze vor allem unter oxidativen Bedingungen. Obwohl sich Eisen ähnlich wie Mangan verhält und ebenfalls unter oxidativen Bedingungen vom leichtlöslichen zweiwertigen zum schwerlöslichen dreiwertigen Eisen oxidiert, gibt es nur wenige Eisen-Mangan-Mischerze. Verantwortlich hierfür ist, dass Mangan sehr viel höhere Sauerstoffkonzentrationen für die Oxidation benötigt als Eisen. Abbauwürdige Manganerze lassen sich geologisch in drei Gruppen einteilen. Der erste Typ sind Rhodochrosit-Braunit-Erze, die in präkambrischen vulkanischen Gesteinen eingeschlossen sind. Diese Erze finden sich vorwiegend um den südlichen Atlantik, etwa in Brasilien, Guyana, der Elfenbeinküste, Ghana, Burkina Faso oder im Kongo. Erze des zweiten Typs finden sich in stark oxidierten, eisen- und silikatreichen Sedimentgesteinen aus dem Proterozoikum. Die Vorkommen dieses Typs bei Hotazel in Südafrika und Corumbá in Brasilien zählen zu den größten Manganvorkommen auf der Welt. Zum dritten Typ zählen Mangan-Schiefer-Erze, die durch Sedimentation in flachen Schelfmeeren entstanden sind. Zu diesem Typ zählen unter anderem Vorkommen in Gabun, der Ukraine und weiteren Ländern um das Schwarze Meer. Etwa 75 % der bekannten Ressourcen an Mangan liegen in der Kalahari Südafrikas. Auch in der Ukraine, Brasilien, Australien, Indien, Gabun und China finden sich größere Manganvorkommen. Größte Manganförderstaaten sind Australien, China und Südafrika, wobei die Weltgesamtförderung 2009 bei 10,8 Millionen Tonnen lag. In größeren Mengen kommt Mangan in sogenannten Manganknollen vor, knollenförmigen, bis zu 20 Zentimeter großen, porösen Konkretionen von Schwermetalloxiden in der Tiefsee, die bis zu 50 % aus Mangan bestehen können. Besonders hohe Konzentrationen an Manganknollen finden sich im Pazifik südlich von Hawaii sowie im Indischen Ozean. Ein Abbau von Manganknollen, vor allem zur Gewinnung von Kupfer, Cobalt und Nickel, wurde zeitweise intensiv untersucht, scheiterte bislang jedoch an hohen technischen Anforderungen und hohen Abbaukosten bei gleichzeitig vergleichsweise niedrigen Preisen für an Land abgebaute Metalle. Gewinnung und Darstellung. elektrolytisch raffiniertes, reines (99,99 %) Mangan Abbauwürdige Manganerze enthalten mindestens 35 % Mangan. Je nach Gehalt und enthaltenen anderen Elementen werden die Erze für verschiedene Anwendungen bevorzugt genutzt. Metallurgisch genutztes Manganerz enthält zwischen 38 und 55 % Mangan und wird im Tagebau oder im Kammerbau-Verfahren unter Tage abgebaut. Daneben gibt es "battery-grade"-Erz, das mindestens 44 % Mangan sowie nur einen geringen Anteil an Kupfer, Nickel und Cobalt enthalten muss, damit es für die Produktion von Alkali-Mangan-Batterien geeignet ist, sowie "chemical grade"-Erz, das für die Produktion von reinem Mangan und Manganverbindungen verwendet wird. Für einen Großteil der Anwendungen wird kein reines Mangan benötigt. Stattdessen wird Ferromangan, eine Eisen-Mangan-Legierung mit 78 % Mangan, gewonnen. Dieses wird durch Reduktion von oxidischen Mangan- und Eisenerzen mit Koks in einem elektrischen Ofen hergestellt. Eine weitere Legierung, die auf diesem Weg hergestellt wird, ist die Mangan-Eisen-Silicium-Legierung Silicomangan. Hier wird zusätzlich Quarz als Siliciumquelle in den Ofen eingebracht. Reines Mangan kann technisch nicht durch die Reduktion mit Kohlenstoff gewonnen werden, da sich hierbei neben Mangan auch stabile Carbide, insbesondere Mn7C3, bilden. Erst bei Temperaturen über 1600 °C entsteht reines Mangan, bei dieser Temperatur verdampft jedoch schon ein Teil des Mangans, so dass dieser Weg nicht wirtschaftlich ist. Stattdessen wird Mangan durch Elektrolyse einer wässrigen Mangansalzlösung gewonnen. Hierzu wird eine möglichst reine Mangansulfat-Lösung verwendet, die mit Edelstahl-Elektroden bei 5–7 V elektrolysiert wird. An der Kathode entsteht dabei reines Mangan, an der Anode Sauerstoff, der mit Manganionen weiter zu Braunstein reagiert. Daneben sind auch die Gewinnung von Mangan durch die Reduktion von Manganoxiden mit Aluminium (Aluminothermie) oder Silicium möglich. Physikalische Eigenschaften. Mangan ist ein silberweißes, hartes, sehr sprödes Schwermetall. Es schmilzt bei 1244 °C und siedet bei 2061 °C. Im Gegensatz zu den meisten anderen Metallen kristallisiert Mangan bei Raumtemperatur nicht in einer dichtesten Kugelpackung oder in der kubisch-raumzentrierten Kristallstruktur, sondern in der ungewöhnlichen α-Mangan-Struktur. Insgesamt sind vier verschiedene Modifikationen bekannt, die bei unterschiedlichen Temperaturen stabil sind. Bei Raumtemperatur ist Mangan paramagnetisch, die α-Modifikation wird unter einer Néel-Temperatur von 100 K antiferromagnetisch, während β-Mangan kein solches Verhalten zeigt. Bis zu einer Temperatur von 727 °C ist die α-Mangan-Struktur thermodynamisch stabil. Es handelt sich dabei um eine verzerrte, kubische Struktur mit 58 Atomen in der Elementarzelle. Die Manganatome der Struktur lassen sich dabei in vier Gruppen mit unterschiedlichen Umgebungen und Koordinationszahlen zwischen 12 und 16 einteilen. Oberhalb von 727 °C bis 1095 °C ist eine weitere ungewöhnliche Struktur, die ebenfalls kubische β-Mangan-Struktur, mit 20 Formeleinheiten pro Elementarzelle und Koordinationszahlen von 12 und 14 für die Manganatome thermodynamisch günstiger. Erst oberhalb von 1095 °C kristallisiert das Metall in einer dichtesten Kugelpackung, der kubisch-flächenzentrierten Kristallstruktur (γ-Mangan, Kupfer-Typ). Diese geht bei 1133 °C schließlich in eine kubisch-innenzentrierte Struktur (δ-Mangan, Wolfram-Typ) über. Chemische Eigenschaften. Als unedles Metall reagiert Mangan mit vielen Nichtmetallen. Mit Sauerstoff reagiert kompaktes Mangan langsam und oberflächlich, feinverteiltes Mangan ist dagegen an der Luft pyrophor und reagiert schnell zu Mangan(II,III)-oxid. Auch mit Fluor, Chlor, Bor, Kohlenstoff, Silicium, Phosphor, Arsen und Schwefel reagiert Mangan, wobei die Reaktionen bei Raumtemperatur nur langsam stattfinden und erst bei erhöhter Temperatur schneller sind. Mit Stickstoff reagiert das Element erst bei Temperaturen von über 1200 °C zu Mangannitrid Mn3N2, mit Wasserstoff reagiert es nicht. Wie andere unedle Elemente löst sich Mangan in verdünnten Säuren unter Wasserstoffentwicklung, im Gegensatz zu Chrom ist es dabei auch nicht durch eine dichte Oxidschicht passiviert. Diese Reaktion findet langsam auch in Wasser statt. Wird es in konzentrierter Schwefelsäure gelöst, bildet sich Schwefeldioxid. In wässriger Lösung sind Mn2+-Ionen, die im Komplex [Mn(H2O)6]2+ rosa gefärbt sind, besonders stabil gegenüber Oxidation oder Reduktion. Verantwortlich hierfür ist die Bildung einer energetisch begünstigten halbgefüllten d-Schale (d5). Manganionen in anderen Oxidationsstufen besitzen ebenfalls charakteristische Farben, so sind dreiwertige Manganionen rot, vierwertige braun, fünfwertige (Hypomanganat, MnO43−) blau, sechswertige (Manganat, MnO42−) grün und siebenwertige (Permanganat, MnO4−) violett. Isotope. Es sind insgesamt 25 Isotope sowie sieben weitere Kernisomere des Mangans zwischen 44Mn und 69Mn bekannt. Von diesen ist nur eines, 55Mn, stabil, Mangan zählt somit zu den Reinelementen. Weiterhin besitzt 53Mn mit 3,74 Millionen Jahren eine lange Halbwertszeit. Alle weiteren Isotope weisen kurze Halbwertszeiten auf, davon 54Mn mit 312,3 Tagen die längste. Das langlebigste radioaktive Manganisotop 53Mn kommt in Spuren in der Natur vor. Es bildet sich durch Spallationsreaktionen in eisenhaltigen Felsen. Dabei reagiert 54Fe mit 3He aus der kosmischen Strahlung und es wird das kurzlebige 53Fe gebildet, das zu 53Mn zerfällt. Verwendung. Reines Mangan wird nur in sehr geringem Umfang genutzt. 90 % des geförderten Mangans wird als Ferromangan, Spiegeleisen oder Silicomangan in der Stahlindustrie eingesetzt. Da Mangan sehr stabile Mangan-Sauerstoff-Verbindungen bildet, wirkt es wie Aluminium und Silicium desoxidierend und verstärkt die Wirkung dieser Elemente. Zudem verhindert es die Bildung des leicht schmelzenden Eisensulfides und wirkt dadurch entschwefelnd. Gleichzeitig wird die Löslichkeit von Stickstoff im Stahl erhöht, was die Austenit-Bildung fördert. Dies ist für viele rostfreie Stähle wichtig. Eine weitere wichtige Eigenschaft von Mangan in Stahl ist, dass es die Härtbarkeit des Stahls erhöht. Auch in Legierungen mit Nichteisenmetallen, insbesondere Kupfer und Aluminium, wird Mangan eingesetzt. Es erhöht dabei die Festigkeit, Korrosionsbeständigkeit und Verformbarkeit des Metalls. Die Legierung "Manganin" (83 % Kupfer, 12 % Mangan und 5 % Nickel) besitzt, ähnlich wie Konstantan oder – noch besser – Isaohm, einen niedrigen elektrischen Temperaturkoeffizienten, d.h. der elektrische Widerstand ist nur wenig von der Temperatur abhängig. Diese Materialien werden daher vielfach in elektrischen Messgeräten verwendet. Mangan wird auch als Aktivator in Leuchtstoffen eingesetzt. Je nach Oxidationsstufe liegt die Wellenlänge des emittierten Lichts nach heutigem Wissensstand zwischen 450 und 750 nm (Mn2+) bzw. 620 und 730 nm (Mn4+). Praktische Bedeutung haben vor allem BaMgAl10O17:Eu2+,Mn2+ (grüner Emitter) und Mg14Ge5O24:Mn4+ (roter Emitter) als Leuchtstoffe in weißen LED. Reines Mangan wird in einer Größenordnung von etwa 140.000 Tonnen pro Jahr produziert. Es wird zu einem großen Teil für die Produktion von Spezialstählen und Aluminiumlegierungen eingesetzt. Weiterhin werden daraus Zink-Mangan-Ferrite für elektronische Bauteile hergestellt. Biologische Bedeutung. Mangan-Calcium-Cluster (Mn4CaO5) des sauerstoffproduzierenden Komplexes Mangan ist ein für alle Lebewesen essentielles Element und Bestandteil von verschiedenen Enzymen. Dort wirkt es in verschiedenen Arten unter anderem als Lewis-Säure, zur Bildung der Enzym-Struktur und in Redoxreaktionen. In manchen Bakterien wird es außerdem zur Energieerzeugung genutzt. So betreibt "Shewanella putrefaciens", ein im Meer vorkommendes Bakterium, eine anaerobe Atmung mit Mn4+ als terminalem Elektronenakzeptor, das hierbei zu Mn2+ reduziert wird. Mangan spielt eine essentielle Rolle in der Photosynthese, und zwar bei der Oxidation von Wasser zu Sauerstoff im Photosystem II. Zentraler Bestandteil des Photosystems ist ein Komplex aus vier Manganatomen und einem Calciumatom, die über Sauerstoffbrücken miteinander verbunden sind, der sauerstoffproduzierende Komplex ("oxygen-evolving complex", OEC). Hier wird in einem mehrstufigen Zyklus, dem Kok-Zyklus, bei dem das Mangan zwischen der drei- und vierwertigen Oxidationsstufe wechselt, durch Sonnenlicht Wasser gespalten und Sauerstoff, Elektronen sowie Protonen freigesetzt. In manganhaltigen Superoxiddismutasen, die in Mitochondrien und Peroxisomen zu finden sind, wird die Reaktion von Superoxid zu Sauerstoff und Wasserstoffperoxid durch Redoxreaktionen mit zwei- und dreiwertigen Manganionen katalysiert. Dioxygenasen, durch die molekularer Sauerstoff in spezielle organische Moleküle eingebaut wird, enthalten meist Eisen, jedoch sind auch mehrere manganhaltige Dioxygenasen unter anderem aus den Bakterien "Arthrobacter globoformis" und "Bacillus brevis" bekannt. Manganperoxidase, ein in dem Pilz "Phanerochaete chrysosporium" entdecktes Enzym, ist eines der wenigen bekannten Enzyme, die einen Abbau von Lignin erlauben. Weiterhin ist Mangan an der Reaktion von Arginasen, Hydrolasen, Kinasen, Decarboxylasen und Transferasen wie Pyruvat-Carboxylase, Mevalonatkinase und Glycosyltransferase, sowie bestimmten Ribonukleotidreduktasen und Katalasen beteiligt. Mangan wird vom Menschen über den Dünndarm aufgenommen und vor allem in Leber, Knochen, Nieren und der Bauchspeicheldrüse gespeichert. Innerhalb von Zellen befindet sich das Element vor allem in Mitochondrien, Lysosomen und im Zellkern. Im Gehirn liegt Mangan an spezielle Proteine gebunden vor, hauptsächlich an der Glutamat-Ammonium-Ligase in Astrozyten. Die Gesamtmenge an Mangan im menschlichen Körper beträgt etwa 10 bis 40 mg, der tägliche Bedarf liegt bei etwa 1 mg und die durchschnittliche Manganzufuhr in Deutschland bei ca. 2,5 mg. Manganmangel ist selten, bei manganarm ernährten Tieren traten Skelettveränderungen, neurologische Störungen, Defekte im Kohlenhydrat-Stoffwechsel sowie Wachstums- und Fruchtbarkeitsstörungen auf. Besonders manganreiche Lebensmittel sind schwarzer Tee, Weizenkeime, Haselnüsse, Haferflocken, Sojabohnen, Leinsamen, Heidelbeeren und Roggenvollkornbrot. Sicherheit und Toxizität. Wie viele andere Metalle ist Mangan in feinverteiltem Zustand brennbar und reagiert mit Wasser. Zum Löschen können daher nur Metallbrandlöscher (Klasse D) oder Sand verwendet werden. Kompaktes Mangan ist dagegen nicht brennbar. Wird manganhaltiger Staub in hohen Dosen eingeatmet, wirkt dieser toxisch. Dabei kommt es zunächst zu Schäden in der Lunge mit Symptomen wie Husten, Bronchitis und Pneumonitis. Weiterhin wirkt Mangan neurotoxisch und schädigt das Zentralnervensystem. Dies äußert sich im "Manganismus", einer Krankheit mit Parkinson-ähnlichen Symptomen wie motorischen Störungen. Für Manganstäube existiert darum ein MAK-Wert von 0,02 mg/m3 für besonders feine Stäube, die in die Lungenbläschen eindringen können und 0,2 mg/m3 für einatembare Stäube. Erkrankungen durch Mangan oder seine Verbindungen sind in Deutschland als Nr. 1105 in die Berufskrankheitenliste aufgenommen. Eine Exposition kann bei Gewinnung, Transport, Verarbeitung und Verwendung von Mangan oder seinen Verbindungen entstehen, sofern diese Stoffe als Staub oder Rauch eingeatmet werden. Dies trifft auch für das Elektroschweißen mit manganhaltigen ummantelten Elektroden zu. Nachweis. Der qualitative chemische Nachweis von Manganionen kann durch Bildung von violettem Permanganat nach einer Reaktion mit Blei(IV)-oxid, Ammoniumperoxodisulfat (mit Silberionen als Katalysator) oder Hypobromit in alkalischer Lösung erbracht werden. Für eine Abtrennung im Rahmen des Kationentrennganges kann der sogenannte Alkalische Sturz genutzt werden, bei dem Mangan durch eine Mischung von Wasserstoffperoxid und Natronlauge zu festem Mangan(IV)-oxidhydroxid oxidiert wird und ausfällt. Weitere mögliche Nachweisreaktionen, die auch als Vorprobe genutzt werden können, sind die Phosphorsalzperle, die sich durch die Bildung von Mangan(III)-Ionen violett färbt, sowie die Oxidationsschmelze, bei der durch die Reaktion mit Nitrationen eine grüne Schmelze von Manganat(VI) (MnO42−), bei geringer Sauerstoffzufuhr auch blaues Manganat(V) (MnO43−) gebildet wird. Wird eine Säure zugesetzt, bildet sich violettes Permanganat. Quantitativ kann Mangan durch die Atomabsorptionsspektroskopie (bei 279,5 nm), durch photometrische Bestimmung von Permanganat, wobei das Absorptionsmaximum bei 525 nm liegt oder durch Titration bestimmt werden. Hierbei werden im manganometrischen Verfahren nach Vollhard-Wolff Mn2+-Ionen mit Permanganat titriert, wobei sich Braunstein bildet. Der Endpunkt ist an der Rosafärbung durch verbleibendes Permanganat erkennbar. Verbindungen. Es sind Manganverbindungen in den Oxidationsstufen zwischen −3 und +7 bekannt. Am stabilsten sind zwei-, drei- und vierwertige Manganverbindungen, die niedrigeren Stufen sind vor allem in Komplexen zu finden, die höheren in Verbindungen mit Sauerstoff. Sauerstoffverbindungen. Mit Sauerstoff bildet Mangan Verbindungen in den Oxidationsstufen +2 bis +7, wobei in den höheren Stufen +5, +6 und +7 vor allem anionische Manganate sowie Manganhalogenoxide, aber auch die grüne, ölige, explosive Flüssigkeit Mangan(VII)-oxid bekannt sind. Von Bedeutung sind überwiegend die siebenwertigen, violetten Permanganate (MnO4−), wobei vor allem Kaliumpermanganat eine wirtschaftliche Bedeutung besitzt. Dieses wird unter anderem als starkes Oxidationsmittel in organischen Reaktionen, Nachweisreaktionen im Rahmen der Manganometrie sowie medizinisch als Adstringens und Desinfektionsmittel eingesetzt. Die fünfwertigen blauen Hypomanganate (MnO43−) und sechswertigen grünen Manganate (MnO42−) sind instabiler und Zwischenprodukte bei der Permanganatherstellung. Daneben gibt es noch komplexe Permanganate wie die Hexamanganato(VII)-mangan(IV)-säure, (H3O)2[Mn(MnO4)6].11H2O, eine nur bei tiefen Temperaturen stabile tiefviolette Verbindung. Mangan(IV)-oxid wird vorwiegend in Alkali-Mangan-Batterien als Kathodenmaterial eingesetzt. Bei der Entladung der Batterie entstehen daraus Manganoxidhydroxid sowie Mangan(II)-hydroxid. Weiterhin sind auch noch das zweiwertige Mangan(II)-oxid, das dreiwertige Mangan(III)-oxid sowie Mangan(II,III)-oxid bekannt. Als Manganhydroxide sind Mangan(II)-hydroxid, Mangan(III)-oxidhydroxid und Mangan(IV)-oxidhydroxid bekannt. Aus Mangan(II)-salzen mit Natronlauge gefälltes weißes Mangan(II)-hydroxid ist allerdings unbeständig und wird durch Luftsauerstoff leicht zu Mangan(III,IV)-oxidhydroxid oxidiert. Wegen der leichten Oxidierbarkeit findet Mangan(II)-hydroxid zur Sauerstofffixierung bei der Winkler-Methode eine Anwendung. Halogenverbindungen. Mit den Halogeniden Fluor, Chlor, Brom und Iod sind jeweils die zweiwertigen Verbindungen sowie Mangan(III)- und Mangan(IV)-fluorid sowie Mangan(III)-chlorid bekannt. Entsprechende Brom- und Iodverbindungen existieren nicht, da Br−- und I−-Ionen Mn(III) zu Mn(II) reduzieren. Technisch wichtigstes Manganhalogenid ist das durch Reaktion von Mangan(IV)-oxid mit Salzsäure gewinnbare Mangan(II)-chlorid, das unter anderem für die Produktion von Trockenbatterien, korrosionsbeständigen und harten Magnesiumlegierungen sowie die Synthese des Antiklopfmittels (Methylcyclopentadienyl)mangantricarbonyl (MMT) verwendet wird. Weitere Manganverbindungen. Mangan bildet keine bei Raumtemperatur stabile, binäre Verbindung mit Wasserstoff, lediglich Mangan(II)-hydrid konnte bei tiefen Temperaturen in einer Argon-Matrix dargestellt werden. Es sind viele Komplexe des Mangans, vorwiegend in der Oxidationsstufe +2, bekannt. Diese liegen überwiegend als High-Spin-Komplexe mit fünf ungepaarten Elektronen und einem dementsprechend starken magnetischen Moment vor. Die Kristallfeld- und Ligandenfeldtheorie sagt hier keine bevorzugte Geometrie vorher, entsprechend sind je nach Ligand tetraedrische, oktaedrische, quadratisch-planare oder auch dodekaedrische Geometrien von Mn2+-Komplexen bekannt. Die Komplexe zeigen durch (quantenmechanisch verbotene) d-d-Übergänge eine schwache Färbung, wobei oktaedrische Mn2+-Komplexe meist schwach rosa, tetraedrische gelb-grün gefärbt sind. Mit sehr starken Liganden wie Cyanid existieren auch Low-Spin-Komplexe mit nur einem ungepaarten Elektron und einer starken Ligandenfeldaufspaltung. Zu den Komplexen in niedrigeren Oxidationsstufen zählt Dimangandecacarbonyl Mn2(CO)10 mit der Oxidationsstufe 0 des Mangans sowie einer Mangan-Mangan-Einfachbindung. Auch weitere ähnliche Komplexe wie Mn(NO)3CO mit der niedrigsten bekannten Oxidationsstufe −3 im Mangan sind bekannt. Mangafodipir ist ein leberspezifisches paramagnetisches Kontrastmittel, das für die Magnetresonanztomografie (MRT) zugelassen ist. Die kontrasterhöhende Wirkung beruht auf den paramagnetischen Eigenschaften von Mn2+-Ionen, die durch die fünf ungepaarten Elektronen bedingt sind. Die toxische Wirkung der Mn2+-Ionen wird beim Mangafodipir durch die Komplexierung mit dem Liganden Dipyridoxyldiphosphat (DPDP, bzw. Fodipir) unterdrückt. Für die Bildgebung der Leber ist es den Standard-MRT-Kontrastmitteln auf der Basis von Gadolinium überlegen. Das Metallocen des Mangans ist Manganocen. Dieses besitzt im Vergleich zu Ferrocen ein Elektron weniger und somit entgegen der 18-Elektronen-Regel nur 17 Elektronen. Trotzdem kann es wegen der günstigen High-Spin-d5-Konfiguration nicht zu Mn+ reduziert werden und liegt im Festkörper in einer polymeren Struktur vor. Eine Übersicht über Manganverbindungen bietet die. Molybdän. Molybdän (griech. "mólybdos" „Blei“) ist ein chemisches Element mit dem Elementsymbol Mo und der Ordnungszahl 42. Es zählt zu den Übergangsmetallen, im Periodensystem steht es in der 5. Periode sowie der 6. Nebengruppe (Gruppe 6) oder Chromgruppe. Geschichte. Molybdän, das in Lagerstätten in der Regel als Molybdänglanz (Molybdändisulfid) vorkommt, wurde lange Zeit mit Bleiglanz oder auch Graphit verwechselt. 1778 gelang es Carl Wilhelm Scheele, aus Molybdänglanz durch Behandlung mit Salpetersäure das weiße Molybdän(VI)-oxid MoO3 (auch Molybdäntrioxid und Wasserbleierde genannt) herzustellen. 1781 reduzierte Peter Jacob Hjelm das Oxid mit Kohle zum elementaren Molybdän. Wegen seiner schwierigen Bearbeitbarkeit (reines Molybdän lässt sich plastisch verformen, jedoch schon die Verunreinigung mit einem ppm Sauerstoff oder Stickstoff lässt Molybdän stark verspröden) fand Molybdän lange Zeit keine Beachtung. Ende des 19. Jahrhunderts bemerkten Mitarbeiter der französischen Firma Schneider & Co. bei der Herstellung von Panzerrohren die nützlichen Eigenschaften von Molybdän in Stahllegierungen. In den beiden Weltkriegen war die Nachfrage nach dem Metall groß, nach dem Zweiten Weltkrieg fielen die Preise dramatisch. Das einzige westeuropäische Bergwerk wurde bis 1973 in Knaben, Norwegen betrieben. Vorkommen. Molybdän kommt meistens als Molybdänit (Molybdänglanz, MoS2) mit einer Konzentration von etwa 0,3 % vor. Daneben gibt es noch Wulfenit (Gelbbleierz, PbMoO4) und Powellit Ca(Mo,W)O4. Zur Verhüttung gelangt überwiegend das durch den Kupferbergbau anfallende Koppelprodukt Molybdänit. Das MoS2-Konzentrat, wie es die Minen in Richtung „Röster“ verlässt, enthält ca. 50–60 % Molybdän. Große Vorkommen finden sich in den Vereinigten Staaten, Chile, China, Kanada und Peru. Molybdän in gediegener, das heißt elementarer Form konnte bisher (Stand: 2011) nur in vier Proben nachgewiesen werden: Auf der Erde in einer Gesteinsprobe vom Vulkan Korjakskaja Sopka auf der russischen Halbinsel Kamtschatka sowie in drei Gesteinsproben des Mondes vom Apollonius-Hochland (Luna 20), dem Mare Crisium (Luna 24) und dem Mare Fecunditatis (Luna 16). Da die Entdeckungen allerdings ohne Prüfung durch die CNMNC veröffentlicht wurde, gilt der Status von Molybdän als Mineral bisher nicht als gesichert, auch wenn es die Mineral-System-Nr. "1.AC.05" (nach der 9. Auflage der Strunz'schen Mineralsystematik) trägt. Gewinnung und Darstellung. Die Hauptmenge des Molybdäns wird als Nebenprodukt bei der Kupferherstellung gewonnen und nur ca. 30 % direkt aus Molybdänerzen. Alle Erze werden in der Hauptsache zu Ammoniumheptamolybdat umgearbeitet. Dieses wird durch Calcinieren bei ca. 400 °C in Molybdäntrioxid MoO3 überführt. Letzteres wird in zwei Stufen durch Wasserstoff zum reinen Molybdänpulver reduziert. Erste Stufe führt bei 500–600 °C zum metastabilen braunviolettem Molybdändioxid MoO2, die zweite Stufe führt bei ca. 1100 °C zum reinen Metallpulver. Zum kompakten Metall wird Molybdän im HIP-Verfahren, durch Umschmelzen im Lichtbogenofen unter Argon als Schutzgas oder im Elektronenstrahlofen verdichtet. Einkristalle werden nach dem Zonenschmelzverfahren hergestellt. Die Molybdänrückgewinnung aus Schrott beträgt annähernd 100 %, da keine Oxidationsverluste auftreten. Die Weltproduktion lag 2007 bei 211.000 Tonnen (2006 179.000 t). 2007 erzeugten die USA – als größter Produzent – 62.000 Tonnen, China 60.000 t und Chile 45.000 t. 2013 betrug die Gesamtmenge des produzierten Molybdäns 258.000 Tonnen; Hauptproduzenten waren China (101.000 t), die USA (60.700 t), Chile (38.700 t) und Peru (18.100 t). Der USGS gibt als Preise für Molybdän 34,83 USD je kg im Jahre 2010 und 22,85 USD je kg für 2013 an. Eigenschaften. Molybdän ist ein Übergangsmetall der 5. Periode. Das hochfeste, zähe und harte Metall besitzt einen silbrigweißen Glanz. Von allen Elementen der 5. Periode besitzt es den höchsten Schmelzpunkt. Von reduzierenden Säuren (auch Flusssäure) wird es ebenso wie das schwere Homologe Wolfram nicht angegriffen. Deshalb wird Molybdän in großen Mengen zur Herstellung von säurebeständigen Edelstählen und Nickelwerkstoffen eingesetzt. Oxidierende Säuren wie heiße konzentrierte Schwefelsäure, Salpetersäure oder Königswasser führen zu hohen Abtragsraten. Ebenso unbeständig ist Molybdän in oxidierenden Alkalischmelzen. Verwendung. In kleinen Zusätzen dient es zur Härtung und zur Verhinderung der Anlassversprödung von Stahl. Mehr als zwei Drittel des hergestellten Molybdäns werden zur Erzeugung von Metalllegierungen wie Ferro-Molybdän verbraucht. Wolframverknappung im Ersten Weltkrieg führte zu vermehrtem Einsatz von Molybdän zur Herstellung von hochfesten Werkstoffen. Bis heute ist Molybdän ein Legierungselement zur Steigerung von Festigkeit, Korrosions- und Hitzebeständigkeit. Molybdänhaltige Hochleistungswerkstoffe wie Hastelloy®, Incoloy® oder Nicrofer® haben viele technische Verfahren erst möglich oder ökonomisch sinnvoll gemacht. Molybdän wird wegen seiner hohen Temperaturbeständigkeit zur Herstellung von Teilen für extreme Anwendungsfälle wie z. B. Luft- und Raumfahrt oder Metallurgietechnik verwendet. In der Ölverarbeitung wird es als Katalysator zur Schwefelentfernung eingesetzt. Molybdändisulfid ist aufgrund seiner Schichtstruktur ein ideales Schmiermittel, auch bei erhöhten Temperaturen. Es kann als Feststoff, wie Graphit, aber auch suspendiert in herkömmlichen Schmierölen verwendet werden. Auch in elektronischen Bauteilen ist Molybdän zu finden. In TFTs (Dünnschichttransistoren) dient es als leitende Metallschicht und auch bei Dünnschichtsolarzellen wird es als metallischer Rückleiter verwendet. Molybdänfolien dienen als gasdichte Stromdurchführung in Quarzglas, u. a. an Halogenglühlampen und Hochdruck-Gasentladungslampen. Molybdate werden zur Imprägnierung von Stoffen verwendet, um diese schwer entflammbar zu machen. Molybdän findet auch in der Röntgendiagnostik als Targetmaterial in der Anode Verwendung. Röntgenröhren mit Molybdänanode werden wegen der niedrigeren Energie der Charakteristischen Röntgenstrahlung (formula_5 bei 17,4 keV und formula_6 bei 19,6 keV im Vergleich zu 58/59,3 keV bzw. 67,0/67,2/69,1 keV von Wolfram) des Molybdäns v. a. bei der Untersuchung der weiblichen Brust (Mammographie) eingesetzt. In der Nuklearmedizin wird Spalt-Molybdän in Technetium-99m-Generatoren eingesetzt. Das relativ langlebige 99Mo (HWZ 66 h) zerfällt hierbei innerhalb des RNG in 99"m"Tc (Technetium, HWZ 6 h). Auf diese Weise kann dieses wichtige Technetium-Isotop direkt vor Ort für Untersuchungszwecke gewonnen werden. Physiologie. Als Spurenelement ist Molybdän für nahezu alle lebenden Organismen essenziell, da es wesentlicher Bestandteil des aktiven Zentrums einer ganzen Anzahl von Enzymen wie der Nitrogenase, Nitratreduktase oder Sulfitoxidase ist. Lebewesen nutzen molybdänhaltige Enzyme u. a. zur Purinzersetzung und Harnsäurebildung. Die bioverfügbare, d. h. die von Organismen aufgenommene Form von Molybdän ist das Molybdat-Ion MoO42−. Dieses wird in mehreren Schritten als Molybdän-Cofaktoren in die entsprechenden Enzyme eingebaut. Dort kann das Mo-Atom zwischen den Oxidationszahlen +IV, +V und +VI wechseln, und so Ein-Elektronen-Redoxreaktionen katalysieren. Molybdän ist für Pflanzen essenziell. Durch Molybdänmangel kann ein Boden unfruchtbar sein, was erklärt, warum eine Düngung mit Ammoniumheptamolybdat den Ertrag auf solchen Böden steigert. In Pflanzen und Tieren beträgt die Molybdänkonzentration einige ppm. Molybdän ist ein sehr wichtiges Spurenelement, vor allem für Leguminosen. Die mit den Leguminosen in Symbiose lebenden Bakterien (Knöllchenbakterien) sind in der Lage, mit einem molybdänhaltigen Enzym (Nitrogenase) Luftstickstoff zu binden. Sie benötigen Molybdän für zwei Prozesse: Fixierung von molekularem Stickstoff und Nitratreduktion. Auch für die menschliche Ernährung ist Molybdän essenziell. Der Schätzwert der DGE für Jugendliche und Erwachsene geht von 50 bis 100 µg Molybdän als angemessene Tageszufuhr aus. Ein Molybdänmangel kommt bei normaler Ernährung nicht vor und ist deshalb extrem selten. Werden hohe Aufnahmen (10–15 mg/Tag) erreicht – zum Beispiel durch molybdänreiche Böden, so treten gichtähnliche Symptome, Gelenkschmerzen und Lebervergrößerungen auf. Der Molybdän-Cofaktor-Mangel tritt jedoch nur als Erbkrankheit auf; dabei ist eines der Enzyme mutiert, die die Biosynthese der Molybdän-Cofaktoren katalysieren. Verbindungen. Molybdän bildet in den Oxidationsstufen 2 bis 6 zahlreiche Verbindungen. Am bekanntesten sind die vom Molybdän(VI)-oxid abgeleiteten Molybdate, wie beispielsweise unterschiedliche Ammoniummolybdate. Molybdän(IV)-oxid entsteht durch Reduktion von Molybdän(VI)-oxid. Peroxomolybdate lassen sich aus Molybdatlösungen und Wasserstoffperoxid herstellen und sind sehr reaktionsfähig. Molybdänblau ist eine Bezeichnung für unterschiedliche Molybdänoxidhydroxide. Molybdän bildet mit Chlor mehrere Chloride in den Oxidationsstufen 2 bis 5. So erhält man MoCl5 durch Erhitzen von Molybdänpulver im Chlorstrom, MoCl4 durch Reduktion von MoCl5. Mit Fluor wird bevorzugt das Molybdän(VI)-fluorid gebildet. Daneben sind eine Reihe von Oxidfluoriden, wie das MoOF4, und Oxofluoromolybdate, wie K2[MoOF5], bekannt. Mit Schwefel werden zwei Sulfide gebildet: Das Molybdän(IV)-sulfid und das Molybdän(VI)-sulfid, von dem sich Thiomolybdate ableiten lassen, wie das Ammoniumthiomolybdat (NH4)2[MoS4]. Komplexverbindungen mit Cyaniden sind beispielsweise Oktacyanomolybdate(IV), wie K4[Mo(CN)8]. Thiocyanate bilden Thiocyanatomolybdat(III)-Komplexe wie (NH4)3[Mo(SCN)6]. Molybdän bildet außerdem unterschiedliche Carbonylkomplexe, wie z.B. [Mo(CO)5]2− mit der Oxidationsstufe −2, und Carbonyle mit nullwertigem Molybdän, wie das Molybdänhexacarbonyl. Sicherheitshinweise. Molybdänstaub und -verbindungen wie Molybdän(VI)-oxid und wasserlösliche Molybdate weisen eine leichte Toxizität auf, wenn sie inhaliert oder oral eingenommen werden. Tests lassen vermuten, dass Molybdän im Gegensatz zu vielen anderen Schwermetallen relativ wenig toxisch wirkt. Akute Vergiftungen sind wegen der dazu notwendigen Mengen unwahrscheinlich. Im Bereich von Molybdänbergbau und -herstellung könnten höhere Molybdänexpositionen vorkommen. Bisher sind aber keine Krankheitsfälle bekannt geworden. Obwohl natürliches Molybdän zu 9,63 % das radioaktive Isotop 100Mo enthält, sind auf Grund der langen Halbwertszeit normalerweise keine besonderen Sicherheitsvorkehrungen zum Strahlenschutz erforderlich. Auch in der praktischen Anwendung kann in der Regel auf eine Abschirmung verzichtet werden, da die Strahlung nur mit hohem Aufwand gemessen werden kann. Nachweis. Ein qualitativer Nachweis sechswertigen Molybdäns ist über die Bildung von Heteropolysäuren mit Phosphat möglich. Gibt man zu einer schwefelsauren molybdathaltigen Lösung Phosphorsäure, fällt kristallines Molybdängelb aus. Bei Zusatz des milden Reduktionsmittels Ascorbinsäure färbt sich die Lösung stark blau (Bildung von Molybdänblau). Bei geringeren Konzentrationen von Molybdat kommt es zu keiner Fällung, sondern nur einer Farbänderung der Lösung. Diese Reaktionen werden auch zur photometrischen Bestimmung von Molybdat oder Phosphat im Spurenbereich eingesetzt. Molybdän kann alternativ mittels Atomspektrometrie bestimmt werden. In der Polarografie ergibt sechswertiges Molybdän in Schwefelsäure einer Konzentration von 0,5 mol/l zwei Stufen bei −0,29 und −0,84 V (gegen SCE). Diese sind auf Reduktion zum Mo(V) bzw. Mo(III) zurückzuführen. Mikroprozessor. Ein Mikroprozessor (von "mikrós" ‚klein‘, ‚eng‘) ist ein Prozessor in sehr kleinem Maßstab, bei dem alle Bausteine des Prozessors auf einem Mikrochip (integrierter Schaltkreis, IC) vereinigt sind. Der erste Mikroprozessor wurde Anfang der 1970er Jahre von der Firma Texas Instruments auf der Basis der IC-Technik entwickelt. Im Zuge fortschreitender Miniaturisierung war es möglich, neben dem Mikroprozessor auch zusätzliche Peripherie auf dem Chip zu implementieren. Damit war der Mikrocontroller bzw. das System-on-a-Chip (SoC) geboren. Geschichte. In den frühen 1960ern wurden die aus Röhren bestehenden Prozessoren durch transistorierte Typen verdrängt. Anfangs wurden die Prozessoren diskret aus einzelnen Röhren aufgebaut. Ein solcher Prozessor hatte das Volumen eines Wandschrankes, die Leistungsaufnahme lag bei einigen tausend Watt, die Taktfrequenz bei 100 kHz. Der technologische Sprung von der Röhren- zur Transistortechnik hatte einen geringeren Platzbedarf, eine geringere Temperaturentwicklung, eine höhere Verarbeitungsgeschwindigkeit, eine niedrigere Ausfallquote sowie einen geringeren Stromverbrauch von nur einigen 100 Watt zur Folge. Die Taktfrequenz stieg auf etwa 1 MHz. Durch die spätere Verkleinerung der Transistoren auf nur einige Mikrometer war es möglich, immer mehr Transistorfunktionen auf integrierten Schaltungen (ICs) unterzubringen. Waren es zunächst nur einzelne Gatter, integrierte man immer häufiger auch ganze Register und Funktionseinheiten wie Addierer und Zähler, schließlich sogar Registerbänke und Rechenwerke auf einem Chip. Diese zunehmende Integration von immer mehr Transistor- und Gatterfunktionen auf einem Chip führte dann fast zwangsläufig zu dem, was heute als Mikroprozessor bekannt ist. Patentiert wurde der Mikroprozessor von Mitarbeitern der Firma Texas Instruments (TI), die 1971 den TMS1000 genannten Schaltkreis vorstellten. Er enthielt neben einem Hauptprozessor auch ein 1 kB großes ROM und ein 64×4-Bit-RAM sowie weitere Funktionen wie Zähler, Timer, Ausgabe-Schnittstellen. Diese wurden damals üblicherweise in einzelnen Schaltkreisen umgesetzt und der TMS1000 entspricht daher einem Mikrocontroller. Im selben Jahr wie TI präsentierte Intel mit dem 4004 den „Mikroprozessor“ (engl., MPU), der als erster Hauptprozessor (CPU) auf einem Chip angesehen wird, da TI den TMS1000 erst ab 1974 als eigenständiges Produkt vermarktete. Mit nur 4 Bit breiten Registern und einer Taktfrequenz von bis zu 740 kHz war der 4004 nicht sehr leistungsfähig. Seine im Vergleich mit den klassischen CPUs äußerst kompakte Bauform verhalf dem Mikroprozessor aber schließlich trotzdem zum Durchbruch. Ursprünglich war der 4004 eine Auftragsentwicklung für den japanischen Tischrechnerhersteller Busicom. 1969 hatte Intels Ted Hoff, Leiter der Abteilung "Application Research", die Idee, das Herz dieses Tischrechners in Form eines programmierbaren Bausteins zu realisieren. 1970 entwickelte Federico Faggin, in der Abteilung für Untersuchungen an der Metall-Isolator-Halbleiter-Struktur, eine Schaltkreisintegration auf Grundlage von Transistoren mit einer Gate-Elektrode aus Silizium für die Umsetzung des 4004 und führte das Projekt zu seinem erfolgreichen Debüt auf dem Markt im Jahr 1971. Dass daraus die erste universell einsetzbare Einchip-CPU der Welt resultierte, war eigentlich nicht beabsichtigt. Da Busicom damals in finanziellen Schwierigkeiten steckte, bot man Intel den Rückkauf des 4004-Designs an, woraufhin Intel mit der Vermarktung des 4004 begann. Der 4004 wurde zum ersten kommerziellen Mikroprozessor der Welt. Eine weitere bemerkenswerte Entwicklung wurde erst 1998 nach der Freigabe militärischer Unterlagen bekannt. Demnach hat Garrett AiResearch (u.a. mit den Mitarbeitern Steve Geller und Ray Holt) bereits zwischen 1968–1970 einen Chipsatz (aus mehreren ICs bestehendes System, incl. CPU) für militärische Zwecke entwickelt. Der als MP944 bezeichnete Chipsatz war Bestandteil des Central Air Data Computer (CADC), dem Flugkontrollsystem der neuen F-14 Tomcat (US Navy). Zunächst waren das noch recht einfache Schaltungen. Die Mikroelektronik brachte neben der Miniaturisierung und der Kostenersparnis noch weitere Vorteile wie Geschwindigkeit, geringen Stromverbrauch, Zuverlässigkeit und später auch höhere Komplexität. Das führte dazu, dass vergleichsweise billige Mikroprozessoren mit der Zeit die teuren Prozessoren der Minicomputer und teilweise sogar die Großrechner verdrängten. Gegen Ende des 20. Jahrhunderts hielt der Mikroprozessor Einzug in viele elektronische Geräte, vor allem als CPU von Personal-Computern (PCs). Auch als die Strukturgröße der Mikroprozessorchips auf einige Nanometer weiter verkleinert wurde (14 nm, Stand Januar 2015, Intel Broadwell-Architektur), blieb der Begriff Mikroprozessor bestehen. Die Wortbreite war wegen der noch nicht so hohen Integrationsdichte zunächst auf 4 Bit beschränkt. In der Folge wurde die Wortbreite kontinuierlich gesteigert, meistens in Verdopplungsschritten. Da die Ressourcen zu Anfang noch so teuer waren, suchte man nach Wegen, sie optimal an die jeweiligen Erfordernisse anzupassen. Eine Episode auf dem Weg dazu waren Bit-Slice-Systeme, bei denen man mehrere Bit-Slice-Prozessoren geringer Bitbreite zu einem System der gewünschten, größeren Bitbreite zusammenschalten konnte. Zur Realisierung eines kompletten Computers muss der Mikroprozessor noch um Speicher und Ausgabe-Funktionen erweitert werden. Diese stehen in Form weiterer Chips zur Verfügung. Nur wenige Jahre nach der Einführung von Mikroprozessoren etablierte sich auch der Begriff des Mikrocontrollers, der diese Funktionen auf einem Chip vereint. Je nach Wortbreite, Befehlstypus (CISC / RISC) oder einfach Hersteller unterteilen sich die Prozessoren in verschiedene Prozessorarchitekturen. Beachtenswerte 8-Bit-Prozessoren. Der 4004 wurde 1972 durch den 8008 abgelöst, den ersten 8-Bit-Mikroprozessor der Welt. Dieser Prozessor war der Vorläufer des äußerst erfolgreichen Intel 8080 (1974) und weiterer 8-Bit-Prozessoren von Intel. Der konkurrierende Motorola 6800 war ab August 1974 erhältlich, im selben Jahr wie der 8080. Die Architektur des 6800 wurde 1975 für den MOS Technology 6502 kopiert und verbessert, der in den 1980er Jahren in der Popularität mit dem Z80 wetteiferte. Das Entwicklerteam des 8080 gründete die Firma Zilog und brachte 1976 den Z80 heraus, eine stark verbesserte und Code-kompatible Weiterentwicklung. Dieser erlangte die größte Popularität aller 8-Bit-Prozessoren. Details siehe Zilog Z80. Sowohl der Z80 als auch der 6502 wurden im Hinblick auf niedrige Gesamtkosten entwickelt. Das Gehäuse war klein, die Ansprüche an den Bus gering und es wurden Schaltungen eingebunden, die bisher in einem separaten Chip zur Verfügung gestellt werden mussten (der Z80 verfügte z. B. über einen eigenen Refresh-Generator für dynamische RAM-Speicher DRAM). Diese Eigenschaften waren es schließlich, die dem Heimcomputermarkt zu Beginn der 1980er Jahre zum Durchbruch verhalfen und in Maschinen resultierten, die für 99 Dollar erhältlich waren. Der MP wurde von der Firma National Semiconductor Corporation aus Santa Clara Mitte der 1970er Jahre vertrieben. Verschiedene Einplatinencomputer wurden als Selbstbau- und Lehrcomputer auf Basis des SC/MP bis etwa 1980 realisiert. Western Design Center (WDC) stellte 1982 den CMOS 65C02 vor und lizenzierte das Design an verschiedene Firmen. Dieser Prozessor wurde das Herz des Apple IIc und IIe und wurde in Herzschrittmachern und Defibrillatoren, Autos sowie in industriellen Geräten und auf dem Verbrauchermarkt eingesetzt. WDC bereitete so den Weg vor für das Lizenzieren von Mikroprozessor-Technologie; dieses Geschäftsmodell wurde später von ARM und anderen Herstellern in den 1990er Jahren übernommen. Motorola übertrumpfte 1978 die gesamte 8-Bit-Welt mit der Vorstellung des Motorola 6809, eine der leistungsstärksten und saubersten 8-Bit-Architekturen und auch eine der komplexesten Mikroprozessor-Logiken, die je produziert wurden. Mikroprogrammierung ersetzte zu dieser Zeit die bisher festverdrahteten Logiken – gerade weil die Anforderungen der Designs für eine feste Verdrahtung zu komplex wurden. Ein weiterer 8-Bit-Mikroprozessor war der Signetics 2650, der aufgrund seiner innovativen und leistungsfähigen Befehlssatz-Architektur kurzzeitig im Zentrum des allgemeinen Interesses stand. Ein für die Raumfahrt wegweisender Mikroprozessor war der RCA 1802 (alias CDP1802, RCA COSMAC; vorgestellt 1976), der in den Voyager-, Viking- und Galileo-Raumsonden eingesetzt wurde. Der CDP1802 wurde verwendet, weil er mit sehr wenig Energie betrieben werden konnte und seine Bauart (Silicon on Sapphire) einen wesentlich höheren Schutz gegenüber kosmischer Strahlung und elektrostatischen Entladungen bot als jeder andere Prozessor zu dieser Zeit. Der CP1802 wurde als erster strahlungsgehärteter () Prozessor bezeichnet. 16-Bit-Prozessoren. Der erste Mehrfach-Chip-16-Bit-Mikroprozessor war der IMP-16 von National Semiconductor, vorgestellt 1973. Eine 8-Bit-Version folgte ein Jahr später als IMP-8. 1975 stellte National Semiconductor den ersten Ein-Chip-16-Bit-Mikroprozessor „PACE“ vor, dem später eine NMOS-Version folgte (INS8900). Andere Mehrfach-Chip-16-Bit-Mikroprozessoren waren der TMS 9900 von TI, der auch mit der hauseigenen TI-990-Minicomputermodellreihe kompatibel war. Der Chip besaß ein großes 64-Pin-DIP-Gehäuse, während die meisten 8-Bit-Prozessoren in das weiter verbreitete, kleinere und billigere 40-Pin-DIP-Gehäuse aus Kunststoff eingesetzt wurden. Ein Nachfolger wurde aus dem 9900 entwickelt, der TMS 9980, der ebenfalls ein billigeres Gehäuse besaß. Er sollte ein Konkurrent zum Intel 8080 werden. Der TMS 9980 konnte 8 Datenbits zur gleichen Zeit kopieren, aber nur 16 KiB adressieren. Ein dritter Chip, der TMS 9995, wurde neu entwickelt. Diese Prozessorfamilie wurde später mit dem 99105 und 99110 erweitert. WDC machte seinen 65C02 16-Bit-tauglich und stellte diesen Prozessor 1984 als CMOS 65816 vor. Der 65816 stellte den Kern des Apple IIgs und später des Super Nintendo dar, was ihn zu einem der beliebtesten 16-Bit-Designs machte. Intel verfolgte die Strategie, keine Minicomputer zu emulieren, und „vergrößerte“ stattdessen sein 8080-Design auf 16 Bit. Daraus entstand der Intel 8086, das erste Mitglied der x86-Familie, die heute in den meisten PCs zu finden ist. Der 8086 und sein „kleiner Bruder“, der 8088 boten die Möglichkeit, Software von der 8080-Linie zu portieren, womit Intel gute Geschäfte machte. Nachfolger des 8086 wurde der 80186, der 80286 und 1985 der 32-Bit-Prozessor 80386, die alle rückwärtskompatibel waren und so die Marktvorherrschaft von Intel entscheidend stärkten. 32-Bit-Prozessoren. Der erste 32-Bit-Mikroprozessor in einem eigenen Gehäuse war der BELLMAC-32A von AT&T Bell Labs, von dem erste Stücke 1980 erhältlich waren, und der 1982 in Masse produziert wurde. Nach der Zerschlagung von AT&T 1984 wurde er in WE 32000 umbenannt (WE für Western Electric) und hatte zwei Nachfolger: Den WE 32100 und WE 32200. Diese Mikroprozessoren wurden in den folgenden Minicomputern von AT&T eingesetzt: 3B2, 3B5, 3B15, „Companion“ und „Alexander“. Einer der bemerkenswertesten 32-Bit-Mikroprozessoren ist der MC68000 von Motorola, der 1979 vorgestellt wurde. Er wurde häufig auch als 68K bezeichnet und verfügte über 32-Bit-Register, verwendete aber 16 Bit breite interne Busleitungen und einen ebenso breiten externen Datenbus, um die Anzahl benötigter Pins zu verringern. Motorola bezeichnete diesen Prozessor im Allgemeinen als 16-Bit-Prozessor, obwohl er intern über eine 32-Bit-Architektur verfügte. Die Kombination aus einem schnellen und großen Speicheradressraum (16 Megabyte) und geringen Kosten machten ihn zum beliebtesten Prozessor seiner Klasse. Der Apple Lisa und die Macintosh-Reihe verwendeten den 68K; Mitte der 1980er Jahre wurde dieser Prozessor auch im Atari ST und Commodore Amiga eingesetzt. Intels erster 32-Bit-Mikroprozessor war der 1981 vorgestellte iAPX 432. Obwohl er über eine fortgeschrittene, objektorientierte Architektur verfügte, war ihm kein kommerzieller Erfolg beschieden – nicht zuletzt weil er in der Leistung gegenüber konkurrierenden Architekturen schlechter abschnitt. Motorolas Erfolg mit dem 68K führte zur Vorstellung des MC68010, der die Technik der virtuellen Speicheradressierung unterstützte. Der MC68020 schließlich verfügte über 32 Bit breite interne und externe Busse. Dieser Prozessor wurde im Unix-Supermicrocomputer äußerst beliebt, und viele kleinere Firmen stellten Desktop-Systeme mit diesem Prozessor her. Der MC68030 integrierte die MMU in den Chip. Die meisten Computer, die nicht auf DOS liefen, setzten nun einen Chip der 68K-Familie ein. Dieser anhaltende Erfolg führte zum MC68040, der auch die FPU in den Chip integrierte und so die Geschwindigkeit arithmetischer Operationen erhöhte. Ein geplanter MC68050 erreichte nicht die erwünschten Verbesserungen und wurde nicht produziert, der MC68060 wurde auf ein Marktsegment geworfen, das bereits mit viel schnelleren RISC-Designs gesättigt war. Der 68020 und seine Nachfolger wurden häufig in eingebetteten Systemen eingesetzt. Während dieser Zeit (Anfang bis Mitte 1980) stellte National Semiconductor ähnlich wie Motorola einen 32-Bit-Prozessor mit einem 16-Bit-Pinout her, den NS 16032 (später umbenannt zu NS 32016). Die Version mit einem ebenfalls 32 Bit breiten Bus war der NS 32032. Sequent stellte basierend auf diesem Mikroprozessor Mitte der 1980er Jahre den ersten SMP-Computer vor. Andere Systeme setzten den Zilog Z80000 ein, der aber zu spät im Markt ankam und bald wieder verschwand. 64-Bit-Prozessoren auf dem Desktop. Während 64-Bit-Prozessoren in verschiedenen Märkten schon seit den frühen 1990er Jahren im Einsatz waren, wurden sie erst nach 2000 auch auf dem PC-Markt eingesetzt. Im Juli 2003 stellte Apple auf der Entwicklerkonferenz (WWDC) den Power Mac G5 vor, Apples ersten 64-Bit-Desktop-Computer. Vorher hatte es bereits von Sun und anderen Herstellern 64-Bit-Rechner gegeben, die allerdings üblicherweise als Workstations und nicht als Desktop-Rechner bezeichnet werden, auch wenn kein technisches Merkmal diese Unterscheidung rechtfertigt. Etwa gleichzeitig, mit AMDs Einführung der ersten 64-Bit-Architektur AMD64 (zu IA-32 rückwärtskompatibel) im September 2003, begann die Ära der 64-Bit-Architekturen auch bei x86-Rechnern. AMD wurde bald gefolgt von Intel, die schon zuvor IA-64-CPUs herstellten (Intel Itanium), die aufgrund der fehlenden Abwärtskompatibilität am Consumer-Markt aber scheiterten. Nun wendete sich Intel der AMD64-Architektur zu und produziert seit dem Intel Pentium 4 Kern Prescott 2M (Release: Februar 2005) eigene zu AMD64 kompatible x86/Intel64-Prozessoren. Beide x86-Prozessoren können die bisherige 32-Bit-Software wie auch die neue 64-Bit-Software ausführen. Mit 64-Bit-Windows XP und -Linux bewegt sich die Software nun auf die neue Architektur hin und nutzt das volle Potenzial dieser Prozessoren. Seit der Veröffentlichung von Windows 7 werden die meisten OEM-Computer mit einer 64-Bit-Version veröffentlicht, gerade auch da um 2010 die magische 4-GB-RAM-Grenze der 32-Bit-Systeme bei handelsüblichen Computern erreicht war. Speziell bei IA-32 ist der Wechsel zu 64-Bit mehr als nur die Erhöhung der Registerbreite, da auch die Anzahl der Register erhöht wurde. Bei den PowerPC-Architekturen wurde der Wechsel auf 64-Bit schon in den frühen 1990er Jahren vorgenommen (tatsächlich ist der PPC-Prozessor von vornherein als 64-Bit konzipiert, mit einer 32-Bit-Teilmenge der Befehle). Die Registergrößen und internen Busse werden vergrößert, die arithmetischen und vektoriellen Recheneinheiten arbeiteten bereits vor dem Wechsel seit mehreren Jahren mit 64 oder mehr Bits (das ist auch bei IA-32 der Fall). Es werden aber keine neuen Register eingefügt, dadurch ist die gewonnene Geschwindigkeit von 64 gegenüber 32-Bit geringer als bei IA-32. RISC-Prozessoren. Mitte der 1980er bis in die frühen 1990er Jahre erschienen viele RISC-Mikroprozessoren (engl.), die anfänglich in spezialisierten Computern und UNIX-Workstations eingesetzt wurden, seither aber universell in den verschiedensten Aufgabengebieten genutzt werden; Intel-Standard-Desktop-Computer sind heute RISC-CISC-Mischformen. Die erste kommerzielle Architektur stammte von MIPS Technologies, der R2000 (der R1000 wurde nicht verkauft). Der R3000 machte die Architektur erst richtig praktisch, der R4000 schließlich stellte die erste 64-Bit-Architektur der Welt dar. Konkurrierende Projekte brachten die IBM-POWER- und Sun-SPARC-Systeme hervor. Bald hatte jeder größere Hersteller ein RISC-Design im Angebot, z. B. den AT&T CRISP, AMD Am29000, Intel i860 und Intel i960, Motorola 88000, DEC Alpha und den HP PA-RISC. Der Wettbewerb ließ bald die meisten dieser Architekturen verschwinden, wobei IBMs POWER und der davon abgeleitete PowerPC (als "die" Desktop-RISC-Architektur) und Sun SPARC (nur in Suns eigenen Systemen) blieben. MIPS bietet weiterhin SGI-Systeme an, die Architektur wird aber meist als eingebettetes Design verwendet, z. B. in den Routern von Cisco. Andere Firmen konzentrieren sich auf Nischenmärkte, allen voran ARM Limited, welche 1989 aus Acorn ausgegliedert wurde. Acorn war ein Hersteller von RISC-Computern, der mit den auf der ARM-Architektur basierenden Modellserien Acorn Archimedes und Acorn Risc PC als einer der ersten auch auf den Heimcomputermarkt abzielte. ARM konzentriert sich jetzt aber auf Prozessoren (siehe auch ARM-Architektur) für eingebettete Systeme. Design und Fertigung. Ein Mikroprozessor ist ein Prozessor, bei dem alle Bausteine des Prozessors auf einem Mikrochip vereinigt sind. Die Mikroprozessoren werden aufgrund ihrer unterschiedlichen Anwendungsbereiche an den jeweiligen Einsatzbereich angepasst. Beispielsweise müssen Spezialversionen für Luft- und Raumfahrt besonders hohen Temperaturen und Strahlungsexposition im laufenden Betrieb fehlerfrei standhalten, während Mobilprozessoren eine hohe IPC-Rate, geringe Leckströme und einen niedrigen Energieverbrauch aufweisen müssen. Diesen Bedürfnissen wird auf verschiedene Arten und Weisen Rechnung getragen: So wird bereits mit der Auswahl des Befehlssatzes (CISC oder RISC) eine fundamentale Entwurfsentscheidung getroffen, deren Implikationen in den jeweiligen Spezialartikeln näher erläutert werden. Anschließend wird ein möglichst effizienter Mikrocode entwickelt, der optimal an Randbedingungen wie Cachegrößen, Speicherbandbreite und -latenzen sowie die internen Funktionseinheiten angepasst wird. Der in einer Hardwarebeschreibungssprache vorliegende logische Entwurf des Mikroprozessors wird sodann an einen Hochleistungscomputer übergeben, der die Leiterbahnen "routet", d. h., eine optimale Anordnung mit möglichst wenig Transistoren sowie minimaler Verlustleistung zu ermitteln sucht (sogenannte oder). Da diese Routingprobleme NP-vollständig sind, werden meist nur Näherungslösungen gefunden, die sich im Detail noch erheblich verbessern lassen. Aus diesen Bahnberechnungen werden Masken erstellt, die mittels Fotolithografie zur Belichtung von Wafern eingesetzt werden, die anschließend geätzt werden. Die Fertigung eines heutigen Mikroprozessors umfasst weit über 100 Einzelschritte, in deren Verlauf bereits ein einziger Fehler den gesamten Prozessor unbrauchbar machen kann. In der Endkontrolle werden die Prozessoren schließlich hinsichtlich ihrer Taktfestigkeit klassifiziert, wobei anhand eines für jeden Prozessortyp individuell entwickelten Testprogramms physikalische Eigenschaften wie Signalpegel bei verschiedenen Takten überprüft werden. Hierbei wird besonders auf laufzeitkritische Signalwege auf dem CPU-Die geachtet, um Speed Paths (Fehler durch Signalverzögerungen) zu verhindern. Allgemein lässt sich feststellen, dass der Validierungsaufwand moderner Prozessoren gewaltige Ausmaße angenommen hat, und trotz aller Anstrengungen nicht alle Fehlersituationen vor der Auslieferung überprüft werden können. Der letzte in allen Funktionen (und Fehlern!) vollständig verifizierte x86-Prozessor war der 80286. Daher liefern alle Hersteller sogenannte Errata-Listen, in denen entdeckte Fehler verzeichnet werden. So musste beispielsweise Intel den berühmt-berüchtigten FDIV-Bug in frühen Pentium-CPUs eingestehen, der auf mehrere fehlende Einträge in einer internen Lookup-Tabelle der FPU zurückzuführen ist. Im Laufe der Zeit vergrößerte sich aufgrund der immer besser werdenden Technik die Anzahl der vom Prozessor unterstützten Befehle. Heute finden sich überwiegend 32- und 64-Bit-Prozessoren, wobei die gängigsten Betriebssysteme für den Anwender maximal 64, meist aber nur 32 Bit unterstützen. Daran lässt sich schon erkennen, dass die Software im Falle der Prozessoren der Hardware hinterherhinkt. Die in den 1980er Jahren entwickelten 386er waren die ersten 32-Bit-Prozessoren der Intel 80x86-Familie. Im Jahre 2006 wurde von der Firma ARM der erste kommerzielle ungetaktete, asynchrone Prozessor vorgestellt, der ARM996HS. Da er ohne Taktung auskommt, weist ein asynchroner Prozessor eine im Hochfrequenzbereich geringere und wesentlich weniger prägnante Abstrahlung auf und verbraucht während Prozesspausen keinen nennenswerten Strom. Variationen. Mikrocontroller hingegen haben häufig nur wenige Register und einen eingeschränkten Befehlssatz, bei dem Addition und Subtraktion oft schon die komplexesten Operationen sind. Für einfache Anwendungen, wie die Steuerung einer einfachen Maschine, reicht diese Funktionalität jedoch aus, zumal sich höhere Funktionen durch wenige Basisoperationen implementieren lassen, beispielsweise Multiplikation durch Verschieben und Addieren (siehe Russische Bauernmultiplikation). Dafür integrieren Mikrocontroller Peripheriefunktionen und oft auch Arbeitsspeicher mit auf dem Chip. Stromverbrauch. Im Zusammenhang mit den steigenden Stromkosten wird der Energieverbrauch von Mikroprozessoren zu einem immer wichtigeren Leistungsmerkmal. Dies gilt vor allem für Großrechnern, Rechenzentren und Serverfarmen sowie bei mobilen Geräten wie Smartphones oder Tablet-Computern. Auch außerhalb von Rechenzentren bieten stromsparende Prozessoren Vorteile. Da die Kühler weniger zu tun haben, werden die Rechner auch leiser. Mitunter können die Computer sogar passiv gekühlt werden. Und im Sommer stellt die von einem PC produzierte Wärme in einem Raum ohne Klimaanlage eine Beeinträchtigung für die dort anwesenden Personen dar. Aktuelle Mehrkernprozessoren können in ihrem Leistungsbedarf je nach Modell zwischen 45 und 140 Watt liegen (TDP). Es werden auch zunehmend Energiesparfähigkeiten eingebaut, um nicht benötigte Komponenten zeitweise langsamer takten zu können oder ganz abzuschalten. Bzgl. des Gesamt-Stromverbrauchs wird i. A. das Race-to-Idle-Prinzip angewandt. Moderne Prozessoren kennen mitunter sogar einen „Turbo-Modus“, um vorhandene Kühlungsreserven voll auszuschöpfen. Der Stromverbrauch von Prozessoren ist mit weiteren Folgekosten belastet: Der verbrauchte Strom wird in Wärme umgewandelt, diese muss durch den Lüfter aus dem Rechner abtransportiert werden. Höherer Verbrauch erfordert stärkere Lüfter, die ebenfalls mehr Strom verbrauchen. Ist der Aufstellungsort des Rechners selbst ein klimatisierter Raum, wird auch die Klimaanlage dadurch zusätzlich belastet. Dabei kann man abhängig von der Leistungszahl des Kühlgerätes mit ca. 25–40 % Zusatzverbrauch rechnen, d. h. ein 300-W-PC belastet die Klimaanlage mit 75–120 W höherem Leistungsbedarf. Auch das Netzteil des Rechners muss eventuell größer ausfallen. Ist der Rechner an eine USV angeschlossen, so hat diese abhängig von ihrem Wirkungsgrad ebenfalls einen höheren Eigenverbrauch. Bei vielen Rechnern an einem Ort können auch zusätzliche Investitionskosten für größere Klimaanlagen und größere USV-Anlagen anfallen. Server laufen meist 24 Stunden am Tag, sieben Tage die Woche, also insgesamt 8760 Stunden im Jahr. Um die Energiebilanz von EDV-Systemen zu verbessern, werden unterschiedliche Lösungswege verfolgt. Es wird angestrebt, die Effektivität der Kühlung zu erhöhen (Beispiel: Air Guide), als auch die abgegebene Wärme zu nutzen (Beispiel: Aquasar). Kühlung. Moderne CPUs werden – je nach Auslastung – während des Betriebs sehr heiß. Je nach Modell und Hersteller werden pro Quadratzentimeter Verlustleistungen von bis zu 125 Watt erreicht (aktuelle Quadcores). Zum Vergleich: Die 18-cm-Kochplatte eines üblichen Elektroherds erreicht gerade einmal 7–10 W/cm². CPUs dürfen aber, wie alle Halbleiter, bestimmte Betriebstemperaturen nicht überschreiten, da das zunächst zu Fehlfunktionen („Abstürze“), in extremen Fällen zur Zerstörung des Chips führt (wird bei neueren Prozessoren durch Überhitzungsschutz verhindert). Übliche Grenztemperaturen für den Betrieb liegen zwischen 60 und 90 °C. Temperaturen über etwa 125 bis 135 °C führen zu irreversiblen Schäden. Prozessoren müssen also zwingend gekühlt werden, wobei ein gewisser Sicherheitsabstand zu den vom Hersteller angegebenen Höchstwerten erstrebenswert ist. Der gängigste Weg, die Kühlung der CPU sicherzustellen, ist die Montage eines Kühlkörpers mit Lüfter. Der verrippte Kühlkörper aus Aluminium oder Kupfer (teilweise kombiniert) vergrößert die Fläche, die zur Wärmeabgabe beiträgt, um ein Vielfaches, der Lüfter soll für einen zügigen Abtransport der Verlustwärme sorgen. Die Bemessung der Kühlung erfolgt häufig nicht nach der theoretisch maximal möglichen Verlustleistung, sondern aus Kostengründen nach der Thermal Design Power (TDP), die deutlich niedriger liegt. Zwischen Prozessor und Kühlkörper wird Wärmeleitpaste oder ein Wärmeleitpad eingesetzt. Durch Unebenheiten und Rauheit verbleiben zwischen Chip und Kühlkörper Lufteinschlüsse, die den Wärmetransport behindern, die Pasten oder Pads verdrängen diese Luft und verbessern den Wärmeübergang erheblich. Als Lüfter für den CPU-Kühler werden fast ausschließlich Axiallüfter mit Durchmessern zwischen 40 und 140 mm eingesetzt. Insbesondere kleine Exemplare erreichen Drehzahlen von bis zu 6500/min und können dabei eine erhebliche Geräuschkulisse erzeugen. Die Lüfter werden heute an die Hauptplatine angeschlossen, so dass die Drehzahl überwacht und bei vielen modernen Hauptplatinen auch elektronisch geregelt werden kann. Als Alternativen zur Luftkühlung gibt es noch die Wasserkühlung für leistungsstarke oder relativ leise Rechner, bei der Wasser inner- oder außerhalb des Rechners in einem Radiator (teilweise auch ohne Lüfter) gekühlt wird und dann mit Hilfe einer Pumpe durch das Gehäuse und an zu kühlenden Objekte wie CPU, manchmal auch zusätzlich an RAM, Chipsatz, Grafikprozessor etc. geleitet wird. Insgesamt ist eine Wasserkühlung aufwändiger, teurer und zumeist wartungsintensiver als eine Luftkühlung. Als erster Computerhersteller verbaute Apple in ihren Power Mac G5 Topmodellen eine standardisierte Wasserkühlung. Zuvor wurden Wasserkühlungen meist nur von Bastlern mit übertakteten Prozessoren in Eigeneinbau verwendet. Im Industriebereich wird auch Flüssigstickstoffkühlung eingesetzt, die allerdings extrem aufwändig ist. Um flüssig zu sein, muss der Stickstoff auf −196 °C gekühlt werden, was große Kühlaggregate erfordert. Wegen der sehr niedrigen Temperatur im Rechner müssen Hauptplatine und andere Objekte wieder von der Rückseite erwärmt werden, damit sie ordnungsgemäß funktionieren. Diese Technik ist sehr schwierig realisierbar, die Betriebs- und Instandhaltungskosten sind meist höher, als mehrere einzelne Prozessoren parallel zu betreiben. Allgemein gilt es als nicht sinnvoll, eine CPU auf weniger als +10 °C herunterzukühlen, da sonst die Kosten zu hoch werden. Auch haben alle elektronischen Bauteile eine Mindestbetriebstemperatur und an zu stark gekühlten Bauteilen kann sich Kondenswasser niederschlagen, was unbedingt vermieden werden muss. Flüssigstickstoffkühlung ist jedoch als kurzfristige Lösung zur Aufstellung von neuen Taktfrequenz- und Benchmarkrekorden sinnvoll. Dafür sind auch keine Kühlaggregate notwendig, der Stickstoff wird einfach aus der Flasche nachgefüllt und verdampft. In diesem Fall entfällt auch die Erwärmung der Rückseite, weil die Komponenten während der kurzen für einen Rekordversuch nötigen Zeit meistens auch ohne derartige Maßnahmen funktionsfähig bleiben. Einzelne Hersteller verwenden auch Kompressionskältemaschinen. Diese funktionieren ähnlich wie ein Kühlschrank: Ein Kühlmittel wird stark unter Druck gesetzt und die dabei entstehende Wärme abgeführt, beim Ausgleich auf Normaldruck kühlt es weiter ab und kühlt so auch seine Umgebung, sprich Prozessor oder andere Geräte. Diese Lösung wird vor allem bei übertakteten Workstations verwendet, hat aber den Nachteil, auch die Geräuschkulisse eines Kühlschranks zu erzeugen. Eine weitere Möglichkeit zur Zwangskühlung der CPU bietet das Peltier-Element. Auch hier ist die Gefahr der Bildung von Kondenswasser gegeben. Zudem erzeugt ein Peltier-Element wegen des geringen Wirkungsgrades mindestens noch einmal die gleiche Verlustleistung wie der Prozessor selbst, die zusätzlich abgeführt werden muss. Die „warme“ Seite muss also auch hier per Wasserkühlung oder Kühlkörper mit Lüfter gekühlt werden. Auch durch den Einsatz einer Ölkühlung kann Wärme abgeführt werden, im PC-Bereich wird dies allerdings bisher nur im experimentellen Umfeld durchgeführt. Für eine Ölkühlung werden meistens keine speziellen Lüfter oder Kühleinrichten an der CPU installiert, sondern einfach das gesamte Motherboard mit installiertem Lüfter in eine Wanne voll Öl getaucht. Hierzu bietet sich nicht leitfähiges, reinstes Mineralöl an. Engineering Samples / Customer Samples. Die ersten von einem Hersteller produzierten CPUs werden, ähnlich einem Prototyp, als „Engineering Sample“ oder „Confidential CPU“ an ausgewählte Firmen oder Tester verteilt. Es handelt sich grundsätzlich um voll funktionsfähige Prozessoren, die dem späteren Endprodukt meist in nichts nachstehen. Solche CPUs sind üblicherweise im Handel nicht erhältlich. Erkennbar sind solche CPU-Versionen am Kürzel „ES“ oder dem Aufdruck „Confidential“. Zudem wurden, zumindest in der Vergangenheit von Intel, Prozessoren und ganze Chip-Sätze in „University-Kits“ abgegeben. Die dort enthaltenen Chips hatten den Aufdruck „CS“ und waren in der Regel am Keramikgehäuse beschädigt, vielfach war der Aufdruck schlecht (verrutscht, verschmiert, dubliert). Zu beachten ist, dass die Buchstabenkombination ES oder CS nicht immer Engineering oder Customer Sample bedeuten muss, oftmals ist es auch der Batch-Code oder eine Revisionsbezeichnung. Minute. Die Minute ist eine Zeiteinheit, die ihren Ursprung im babylonischen Sexagesimalsystem hat, in dem Brüche als 60stel und 3600stel entwickelt wurden. Die 60stel wurden später (‚verminderter Teil‘) bezeichnet, die 3600stel (= ein 60stel eines 60stels) als "pars minuta secunda" (‚zweiter verminderter Teil‘), woraus die Sekunde wurde. Die Minute wird mit dem Einheitenzeichen min bezeichnet. Früher waren auch „Min“ und „Min.“ gebräuchlich. Darüber hinaus werden "Zeitspannen" – vor allem im Sport – auch mit "1h 30′ 45″" (für 1 Stunde und 30 Minuten und 45 Sekunden) abgekürzt. Für "Zeitpunkte" waren auch Schreibweisen wie diese gebräuchlich: 20h 15m 10s (für 20 Uhr 15 Minuten und 10 Sekunden). Eine Zeitminute ist der 60. Teil einer Stunde. Eine Minute zählt wiederum 60 Sekunden. Jedoch kann eine (Kalender-)minute auch 59 bzw. 61 Sekunden haben, siehe unter Schaltsekunde. Die Einheit „Tag“ gehört zwar nicht zum Internationalen Einheitensystem (SI), ist zum Gebrauch mit dem SI aber zugelassen. Dadurch ist sie eine gesetzliche Maßeinheit. Minuten im Arbeitsstudium. Im Arbeitsstudium wird die Zeit für eine Arbeitstätigkeit zumeist in Minuten erfasst. Anders als üblich wird aber nicht in Sekunden, sondern in Hundertstelminuten (HM) geteilt. Es gilt Diese von der Norm abweichende Methode wurde eingeführt, um Rechnungen bei Additionen, Subtraktionen etc. zu vereinfachen, da HM ohne Übertrag mit den im Dezimalsystem üblichen Methoden berechnet werden können. Wo sich das REFA-Verfahren nicht durchgesetzt hat, wird manchmal auch die sogenannte „Industrieminute“ verwendet. Hier wird die Stunde in 100 „Industrieminuten“ gegliedert. Betriebsstundenzähler mit elektromechanischen Zählwerken an Baumaschinen oder Flugzeugmotor zählen die Betriebsdauer eines regelmäßig zu wartenden Verbrennungsmotor-Blocks in "Blockstunden". Diese wird durch Zählräder mit je 10 Ziffern oder Skalenteilung von 0 bis 9 dezimal meist in 10 Zehntelstunden geteilt, die umgangssprachlich als 100 "Blockminuten" interpretiert werden. Eine solche Blockminute dauert 1/100 Stunde = 36 Sekunden. Etymologie. Ausgehend von der Stunde (lat. "hora") war die Minute eine „verminderte Stunde“ (lat. "hora minuta") und eine Sekunde war eine „zum zweiten Male verminderte Stunde“ (lat. "hora minuta secunda"). Maxwell (Einheit). Das Maxwell (Einheitenzeichen: Mx) ist die veraltete cgs-Einheit des magnetischen Flusses. Sie ist benannt nach James Clerk Maxwell. 1935 hat die IEC auf einer Konferenz in Scheveningen das Einheitenzeichen "Mx" für das Maxwell festgelegt, zuvor war das Zeichen "M" üblich. Das Maxwell ist heute abgelöst durch die SI-Einheit Weber (Wb) und seit dem 1. Januar 1978 keine offiziell gültige Einheit mehr. Minim. Minimum, auch Minim, ist eine Maßeinheit des Raummaßes für Flüssigkeiten und ein Apothekermaß. 1 Imp.min. = 1 Imp.m. = 0,00361223 cubic inch = 59,1938 mm³ 1 Imp.gallon = 277,41945 cubic inch = 1280 fluid dram = 76800 Imp.min. 1 U.S.min. = 1 U.S.m. = 0,00375976 cubic inch = 61,6115 mm³ 1 U.S.gallon = 231 cubic inch = 1024 fluid drachm = 61440 U.S.min. In Großbritannien nennt man eine halbe Note "minim." Mailingliste. Eine Mailingliste (engl. "mailing list") bietet einer geschlossenen Gruppe von Menschen die Möglichkeit zum Nachrichtenaustausch in Briefform, also eine Vernetzung mit elektronischen Mitteln. Dieser Nachrichtenaustausch ist innerhalb der Gruppe öffentlich. Besonders häufig sind Mailinglisten im Internet, wo sie mittels E-Mail realisiert werden. Mailinglisten sind historisch die Urform von Newsgroups und Internetforen, für bestimmte Zwecke aber auch heute noch das Mittel der Wahl. Mailinglisten werden zur multidirektionalen Kommunikation zwischen eher gleichberechtigten Teilnehmern eingesetzt. Der Unterschied zu Newslettern und Rundschreiben besteht darin, dass letztere eher einen unidirektionalen Verteiler von Nachrichten einer einzelnen Quelle darstellen. Graduelle Abweichungen von diesen Grundsätzen existieren, so dass die Übergänge zwischen Mailingliste und Newsletter fließend sind. Mailingliste per E-Mail. Die Mailingliste ist eine Liste von E-Mail-Adressen, die selbst eine E-Mail-Adresse hat. Auf diese Weise kann jedes Mitglied der Mailingliste allen anderen Mitgliedern eine Nachricht zukommen lassen, ohne deren E-Mail-Adressen zu kennen. Hierzu leitet der Mail Transfer Agent eine an die Adresse der Mailingliste eingehende E-Mail weiter an alle Mitglieder der Mailingliste. Je nach Einstellungen der Mailingliste geschieht dies sofort nach dem Senden, nach Freigabe durch einen Moderator oder als regelmäßige, z. B. tägliche, Zusammenstellung (Digest). Mailinglisten sind ein Internetstandard, deren automatisierte Verwendung beispielsweise im RFC 821 von 1982 definiert ist. Mail Transfer Agents werden durch den Befehl EXPN veranlasst, Adressen ihnen bekannter Mailinglisten in die Mitgliederadressen umzusetzen. An- und Abmelden. In der Regel muss sich ein Benutzer bei einer Mailingliste anmelden, um die dort verbreiteten Nachrichten zu erhalten oder um selbst Nachrichten an die Teilnehmer der Liste schicken zu dürfen. Für die Anmeldung selbst (engl. "subscribe") werden sehr unterschiedliche Verfahren eingesetzt – von einem Eintrag per Hand nach formloser Beantragung bis hin zu voll automatisierten Verfahren mit Confirmed Opt-in. Ob sich ein Benutzer überhaupt anmelden darf, wird vom Administrator der Liste durch Konfiguration des Servers bestimmt. Wie beim Anmelden gibt es auch beim Abmelden (engl. "unsubscribe") eine Vielzahl an Verfahren. Häufig bekommt der Abonnent einer Mailingliste bei der Anmeldung automatisch eine Nachricht, in der beschrieben wird, wie er sich abmelden kann. Einige Listen schreiben diesen Hinweis auch automatisch in den Header der E-Mail oder unter jeden Beitrag, der über die Liste verteilt wird. In den meisten Fällen muss der Abonnent eine E-Mail mit einem Abmelde-Kommando an eine spezielle Adresse schicken, in einigen Fällen kann er sich auch über eine Webschnittstelle abmelden. Keinesfalls sollte ein Abonnent E-Mails mit der Bitte um Abmeldung an die Liste selbst schreiben, da dadurch die anderen Abonnenten unnötig belästigt werden. Leider existieren auch Listen, aus denen der Abonnent seine Adresse nicht oder nur sehr schwer wieder entfernen lassen kann. Lese- und Schreibrechte. Ob ein angemeldeter Benutzer lesen, schreiben oder beides darf, wird vom Administrator der Liste durch Konfiguration des Servers bestimmt. So finden sich z. B. Listen, die jeder lesen darf (über ein Web-Interface), in die aber nur angemeldete Benutzer auch schreiben dürfen. Manche Mailinglisten werden von einem Moderator betreut, der alle oder von bestimmten Teilnehmern eintreffende Mails begutachtet, bevor er die Weiterleitung freigibt. Web-Interface und Archiv. Im Gegensatz zum E-Mail-Verteiler verfügt eine Mailingliste über ein eigenes E-Mail-Postfach, in dem alle über die Mailingliste verschickten Nachrichten gespeichert werden. In der Regel kann über ein Web-Interface auf dieses E-Mail-Archiv zugegriffen werden. Auf diese Weise kann ein Mitglied der Mailingliste auch E-Mails lesen, die über die Mailingliste verschickt wurden, bevor er sich zur Mailingliste anmeldete. Missbrauch und Schutzmaßnahmen. Mailinglisten werden teilweise missbraucht, indem böswillige Dritte die E-Mail-Adresse eines Empfängers – ohne das Einverständnis des Empfängers – in verschiedene Listen eintragen, so dass dieser fortan regelmäßig unerwünschte E-Mails von dieser Liste erhält (sogenanntes List-Linking). Das Problem kann vom Betreiber der Liste einfach vermieden werden, indem er ein Confirmed-Opt-in-Verfahren zur Anmeldung vorschreibt. Der Empfänger erhält nur eine Mail pro Liste, auf die er reagieren müsste, um zukünftig im Verteiler der Liste eingetragen zu sein, was er einfach unterlassen kann. Unfreiwillig eingetragene Empfänger brauchen sich also nicht abzumelden. Deutlich aufwändiger für den Empfänger ist es, wenn der Listenbetreiber auf ein "Opt-in" verzichtet. In diesem Fall muss sich der Empfänger selbst aus allen Listen austragen bzw. von den Administratoren der Liste austragen lassen, was bei einigen unseriösen Betreibern nicht oder nur mit sehr großem Aufwand möglich ist. In beiden Fällen stellt dies eine ungemein lästige und vor allem zeitaufwändige Angelegenheit dar – zumal die Gefahr besteht, dass die Adresse des unfreiwilligen Empfängers erneut in diesen oder andere E-Mail-Verteiler eingetragen wird. Im Extremfall kann auf diesem Weg eine E-Mail-Adresse aufgrund des unerwünscht hohen Mailaufkommens weitgehend unbrauchbar werden. Mailinglisten können auch von ordnungsgemäß angemeldeten Teilnehmern missbraucht werden, indem sie E-Mails mit rein werbendem Charakter (UCE), gegen die Netiquette verstoßendem oder themenfremdem Inhalt senden. Der Administrator kann solche Absender ermahnen und im Wiederholungsfall ausschließen oder ihren Status zunächst – sofern die Mailingsoftware diese Möglichkeit bietet – einzeln auf „moderiert“ schalten, also ihre E-Mails vor der Weiterleitung prüfen. (Allgemeineres zur "Moderation" findet man im Artikel Internetforum.) Manche Listen erlauben nur Umschaltung aller Teilnehmer auf diesen Modus. Das verursacht aber Arbeits- und Zeitaufwand für den Administrator, Verzögerungen bei der Zustellung (die dann meist „paketweise“ erfolgt und die Lebendigkeit von Diskussionen beeinträchtigt), und nicht zuletzt kann bei den Teilnehmern der Eindruck von Zensur entstehen. Vergleich mit Foren und Usenet-News. Mailinglisten sind vergleichbar mit Foren oder dem Usenet. Der Vorteil gegenüber einem Webforum ist, dass die Beiträge offline gelesen und geschrieben werden können. Ein Vorteil gegenüber dem Usenet ist, dass ein Listenserver (das Programm, das die Nachrichten weiterverteilt) viel einfacher einzurichten ist als eine Newsgroup im Usenet. Die meisten Internetnutzer besitzen als Teil ihres Webbrowsers ein Programm zum Lesen von News (Newsreader), kennen diese Möglichkeit aber nicht und können es auch nicht bedienen. Zusätzlich müssten sie über einen Usenet-Zugang verfügen (an Universitäten fast automatisch gegeben, sonst aber kaum) oder einen gegen Gebühr abonnieren. Im Usenet ebenso wie auf Mailinglisten haben sich bestimmte Regeln für die Formatierung von Nachrichten eingebürgert. Eine Zusammenfassung von Regeln, deren Einhaltung zur besseren Lesbarkeit und zur Verständlichkeit des „Gesprächsverlaufs“ (Thread) beitragen, wird als Netiquette bezeichnet. Ein häufiger Verstoß gegen diese Netiquette ist das in Antworten überflüssige Verwenden von Vollzitaten oder das sogenannte Thread-Hijacking, wobei der Versender ein neues Thema als Antwort innerhalb eines laufenden Threads beginnt, anstatt mit einer neuen Mail einen neuen Thread zu starten. Programme. Häufig genutzte Mailinglistenprogramme sind Listserv, Lyris ListManager, Majordomo, GNU Mailman, ezmlm/idx, Sympa und ecartis. Verschlüsselte Mailinglisten. Mittlerweile existieren einige Ansätze zur Verschlüsselung von Mailinglisten. Diese werden bisher jedoch nur von wenigen Mailinglistenanbietern unterstützt. Ein Beispiel für funktionierende Verschlüsselung ist Sympa, das hierfür zusammen mit S/MIME-Zertifikaten eingesetzt werden kann. Manhattan. Das Borough von Manhattan, gelb hervorgehoben, liegt zwischen dem East River und dem Hudson River (die Flughäfen La Guardia im Norden und J. F. Kennedy im Süden sind blau eingefärbt). Manhattan ist eine Insel an der Mündung des Hudson River, einer der fünf Stadtbezirke (Boroughs) der Stadt New York und deckt sich mit New York County. Die Insel Manhattan Island wird vom Hudson River im Westen, vom East River im Osten und vom Harlem River im Nordosten umflossen. Zum Borough Manhattan gehören außerdem noch weitere kleinere Inseln, darunter Roosevelt Island, Belmont Island, Governors Island, Randall’s Island/Wards Island und ein kleines Stück am Festland, Marble Hill. Marble Hill war bis zum Bau des Harlem River Ship Canal im 19. Jahrhundert noch Teil von Manhattan Island. Geographie. Manhattan ist 21,6 Kilometer lang und zwischen 1,3 und 3,7 Kilometer breit. Gemäß dem United States Census Bureau hat Manhattan eine Fläche von 87,5 km², davon sind 59,5 km² Landfläche und 28,0 km² Wasserfläche. Der höchste natürliche Punkt ist mit 80,77 m der Long Hill, Fort Washington/Bennett Park (184th Street and Fort Washington Boulevard), markiert durch eine Gedenktafel. Manhattan ist durch Brücken und Tunnel ans Festland und die östlich benachbarte Insel angebunden: im Westen mit New Jersey, im Osten mit den Boroughs Brooklyn und Queens auf Long Island und im Nordosten mit der Bronx. Die einzige direkte Verbindung nach Staten Island ist die Staten Island Ferry, deren Terminal am Battery Park liegt. East Side und West Side. Der Central Park teilt den mittleren Teil Manhattans in Upper East Side und Upper West Side. Dies findet sich in den Straßennamen wieder, die in "east streets" (östlich der 5th Avenue) und "west streets" (westlich der 5th Avenue) aufgeteilt sind. Die Fifth Avenue trifft im Norden auf den Central Park, der ab dort als Teiler zwischen Ost- und West gilt, und im Süden auf den Washington Square Park. Ab dem Washington Square Park dient der Broadway als teilende Straße, bis die Aufteilung in East und West im an der Südspitze verworreneren Straßennetz zusehends verschwindet. Zusätzlich zur Upper East Side gibt es an der östlichen Südspitze Manhattans noch die Lower East Side. Zu dieser gehörte ursprünglich auch das nördlich angrenzende East Village. Die Bezeichnung Lower West Side ist nicht gebräuchlich. Als Gegenstück zum East Village gibt es jedoch das West Village. Südlich der Upper East und Upper West Side befinden sich neben den eben erwähnten Stadtvierteln noch etwa ein Dutzend weiterer Viertel wie SoHo, Tribeca, Financial District, Gramercy Park etc. (siehe Liste der Stadtviertel Manhattans). Uptown und Downtown. In Manhattan bedeutet "uptown" (nach) Norden und "downtown" (nach) Süden. So fahren "Uptown Trains" der U-Bahn in den Norden Manhattans, wohingegen "Downtown Trains" in den Süden Manhattans fahren. Das Gebiet zwischen der 23rd Street und der 59th Street wird Midtown genannt. In den vielen anderen US-amerikanischen Städten bezeichnet man mit Downtown die Innenstadt. "Midtown Manhattan" ist der größte innerstädtische Business- und Bürokomplex der Vereinigten Staaten und geht südlich bis zur Chambers Street. Entsprechend bezeichnet der Begriff "Lower Manhattan" den „unteren“ und südwestlichen Teil der Insel (südlich von Chambers Street). Lower Manhattan umfasst die Bereiche "City Hall", den "Financial District" sowie das Gelände des zerstörten "World Trade Centers" (Ground Zero) und dessen direkte Umgebung. Lower Manhattan ist der viertgrößte innerstädtische Business- und Bürokomplex der Vereinigten Staaten. Straßennetz. Anfang des 19. Jahrhunderts wuchs die Stadt immer schneller; es sollten neue Wohngebiete erschlossen werden. 1811 beschlossen die Stadtplaner mit dem „Commissioners’ Plan“, die gesamte Insel Manhattan, von der bis dahin fast nur die Südspitze bebaut war, mit einem gleichförmigen, gut einprägsamen Straßennetz (Engl.: "grid") zu überziehen. Der Entwurf des genial einfachen Straßenrasters (Randel-Plan) stammte von John Randel jr. (1787–1865). Die nordsüdlich ausgerichteten Längsstraßen erhielten Namen mit dem Zusatz „Avenue“. Die ostwestlich ausgerichteten Querstraßen erhielten Namen mit dem Zusatz „Street“. Sie sind von Süden ab der Bleecker/Houston Street mit den Ordinalzahlen von 1 bis 184 im Norden auf Höhe der Bronx durchnummeriert. Die 5th Avenue teilt die Querstraßen in Ost und West, wobei jede Seite ihre eigene, von der 5th Ave. aus aufsteigende Hausnummerierung hat. So bezeichnen beispielsweise die Adressen 10 East 42nd Street und 10 West 42nd Street zwei unterschiedliche Gebäude. Der Central Park liegt in seiner Nordsüd-Achse zwischen der 59th Street und 110th Street. Südlich der Houston Street war die Namensvergabe bereits abgeschlossen. Die sonstigen Ausnahmen in dem System bildeten der vorhandene Broadway als zentrale Achse bis zum Central Park, der Times Square und die autobahnartig ausgebauten, die Insel fast vollständig umschließende West- und South Street bzw. der FDR-Drive als östliche Achse. In Manhattan gibt es auch wenige ostwestlich ausgerichtete Straßen, die als Verbindung zwischen Tunnels oder Brücken nicht ausschließlich lokale Erschließungsfunktionen haben: die 36th Street bis zur 40th Street zwischen Lincoln- und Queens-Midtown-Tunnel und die Straßen zwischen Canal Street (beim Holland-Tunnel) und den Zubringern der Williamsburg Bridge. Ähnliches gilt im Norden der Insel für die George-Washington-Bridge und ihrer Fortführung im Cross Bronx Expressway. Dabei wird Manhattan quasi nur als Brückenpfeiler diesseits des Hudsons genutzt. Stadtteile. Lage der Stadtteile auf einer Karte aus dem Jahre 1920 Einwohnerentwicklung. Manhattan hat 1.636.268 Einwohner (2014). Während die Einwohnerzahlen aller anderen New Yorker Stadtbezirke seit Anfang des 20. Jahrhunderts stark angestiegen sind, hat sie sich in Manhattan zwischen 1910 und 1980 nahezu halbiert. Insbesondere nach 1950 nahm die Bevölkerung als Folge der Suburbanisierung stetig ab, erst seit Mitte der 1980er Jahre ist wieder ein leichtes Bevölkerungswachstum zu verzeichnen, das aktuell bei 0,8 % (jährlicher Durchschnitt 2000–2008) liegt. Die Bevölkerungsdichte ist mit 27.476 Einwohnern je km² Landfläche nach wie vor die höchste aller New Yorker Stadtbezirke. Die Zensus-Statistik spiegelt indes nur die Wohnbevölkerung. Durch Pendler und Besucher erhöht sich die Anzahl der Menschen, die sich in Manhattan aufhalten, an einem typischen Werktag auf rund 4 Millionen, am Wochenende auf 2,9 Millionen. Bevölkerungsgruppen und Herkunft. Die Zusammensetzung der Bevölkerung von Manhattan ist im Vergleich zu den anderen Stadtbezirken New Yorks weniger heterogen. Die größte Gruppe sind mit 48 % nicht-hispanische Weiße (New York insgesamt: 35 %). Die europäischstämmigen Einwanderer sind meistens Briten, Iren, Deutsche, Italiener und Russen. Hispanics bilden mit insgesamt 25 % die zweitgrößte Bevölkerungsgruppe. Der Anteil der nicht-hispanischen Schwarzen bzw. Afroamerikaner ist mit 14 % deutlich niedriger als in New York insgesamt (24 %). Die Asiaten sind die am stärksten wachsende Gruppe und machen mittlerweile 11 % der Bevölkerung von Manhattan aus. 32 % der Einwohner Manhattans sind nicht in den Vereinigten Staaten geboren, davon unter anderem 12,7 % in Lateinamerika (ohne Puerto Rico), 8,3 % in Asien und 5,1 % in Europa. Die beiden folgenden Tabellen stellen statistische Daten zu den Rassen bzw. zur Herkunft/Abstammung der Einwohner Manhattans dar. Bei allen Daten handelt es sich um Eigenangaben der Befragten. 1) ohne Basken, inkl. Elsässer; 2) Summe 100,1 % weil mehr Abstammungen als Einwohner angegeben wurden Sprachen. Englisch ist in Manhattan als Muttersprache mit 61 % weiter verbreitet als in New York insgesamt (52 %). Die zweitwichtigste Sprache ist Spanisch, das von 23 % der Einwohner zuhause verwendet wird. Die übrigen Sprachen machen zusammen 16 % aus. Insgesamt geben 18 % der Befragten an, nicht sehr gut Englisch zu sprechen. 1) inkl. spanisches Kreolisch; 2) inkl. Patois, Cajun und französisches Kreolisch Religionen. Die größte Konfession in Manhattan stellt die römisch-katholische Kirche mit 37 % der Einwohner dar. Der Anteil der Juden ist mit 20 % der zweithöchste aller amerikanischen Counties. Protestanten verschiedener Richtungen machen zusammen 9 % aus. Geschichte. Der Name Manhattan (ursprünglich "Manna-hata" oder "Mannahatta", aber auch die Schreibweisen Manados, Manahata, Manahtoes, Manhattos sind verbürgt) stammt aus einer Algonkin-Indianersprache, dem Lenape und bedeutet etwa „hügeliges Land“ oder „Land der vielen Hügel“. Eine Gruppe der Munsee hieß Manhattan (siehe Lenni Lenape). Die Algonkin-Indianer waren die ersten Bewohner Manhattans. 1524 sichtete der Italiener Giovanni da Verrazano als erster Europäer die Insel Manhattan. Im 17. Jahrhundert wurde die Insel durch Peter Minuit den Indianern für Waren im Wert von 60 niederländischen Gulden abgekauft. Manhattan wurde ab 1624 von Niederländern besiedelt (siehe Nieuw Amsterdam). Das „Welikia Project“ (auch „Mannahatta Project“) versucht, New York Citys Originallandschaft vor 400 Jahren zu rekonstruieren. Wahrzeichen und Sehenswürdigkeiten. a> war von 1931–1970 und dann wieder vom 11. Sept. 2001 bis Mai 2013 das höchste Gebäude von Manhattan und von ganz New York. Hier eine Liste einiger der bekanntesten Sehenswürdigkeiten von Manhattan. Siehe auch den Artikel New York City. Brücken und Tunnel. Die Inseln Manhattans sind durch 22 Brücken und 21 Tunnel mit dem Festland (New Jersey im Westen, Bronx im Norden) und Long Island im Osten verbunden. Nachfolgende Aufstellung ist nach den überquerten Gewässern gegliedert und folgt dem Uhrzeigersinn, beginnend im Nordwesten. Harlem River. a Obwohl sie den Harlem River (genauer den Harlem River Ship Canal, fertiggestellt 1895) überquert, verbindet die "Broadway Bridge" zwei Stadtteile innerhalb Manhattans: Inwood im Süden mit Marble Hill im Norden. Die beiden Brücken über den Spuyten Duyvil Creek, der den natürlichen Verlauf des Harlem River um Marble Hill herum bildete, waren King’s Bridge (erste Brücke der Stadt, 1693) und Dyckman Bridge (1759). Dieser Teil wurde 1914 aufgeschüttet. Parkanlagen. siehe auch "Liste der Parks in New York City" Melodram (Theater). a> um 1900) erinnert bereits an Filmplakate Das Melodram (von "melos" „Lied, Sprachmelodie“ und "drama" „Handlung, Schauspiel“) ist seit dem späteren 18. Jahrhundert das populäre Gegenstück zur aristokratischen Tragödie. Als ernste, aber nicht ernst zu nehmende Theatergattung verhielt es sich zur höfischen Tragödie eines Corneille oder Racine wie die heitere oder lustige Posse zur höfischen Komödie eines Molière. Die Helden des Melodrams sind im Unterschied zur Tragödie keine Adligen, die hier eher zur Sphäre der Bösewichter gehören (vgl. Ständeklausel). Im Gegensatz zur Tragödie kann das Melodram ein glückliches Ende haben. Synonyme deutsche Bezeichnungen sind im 19. Jahrhundert: Lebensbild, Charaktergemälde, Sittenbild, Zeitbild, oft einfach Drama. Eine Untergattung nannte sich Schicksalsdrama. Die mit großem Bühnenaufwand inszenierten Melodramen nannte man Spektakelstücke oder Sensationsdramen. Der Begriff Melodram oder Melodrama wird im Deutschen enger gefasst als etwa im Englischen oder Französischen, wo er auch Abenteuer- und Kriminalgeschichten mit einschließt. Er wird im Deutschen eher auf eine Betonung der Gefühle in Liebes-, Freundschafts- oder Familienangelegenheiten bezogen (nach Thomas Koebner: „Hindernisse, die sich der Liebe in den Weg stellen“). Im Folgenden wird das Melodram im weiteren internationalen Sinn behandelt. Entstehung. Entstanden ist das Bühnenmelodram in der zweiten Hälfte des 18. Jahrhunderts in Frankreich. Den Hintergrund dafür bilden die kulturelle, ökonomische und politische Emanzipation im Zeitalter der Aufklärung, im Frühkapitalismus und in der Französischen Revolution von 1789. Realistische Abenteuer- und Kriminalgeschichten werden im Melodram von der magischen Umgebung des barocken Zauberspiels befreit. Das gemeinsame Entsetzen über die Allgegenwart von Betrug, Gewalt und Korruption, die im Melodram zelebriert wird, einigt sein Publikum. In einer Zeit des gesellschaftlichen Umbruchs trug es zu einer neuen Ordnung bei, in der Gesetz oder Polizei nicht als Mittel zur Unterdrückung durch die Obrigkeit, sondern als etwas Gemeinnütziges gelten sollten. Arbeitseifer, Mut und Redlichkeit als Ideale einer bürgerlichen Ethik wurden fortan ins Zentrum gestellt. So entwickelte sich das Melodram zu einer Kulturform des Bürgertums, in der die Adeligen und der Klerus, aber auch das Proletariat kritisiert wurden. Das „Bastardgenre“ oder „genre larmoyant“, wie es schon damals verächtlich genannt wurde, befasste sich stärker mit den emotionalen Leiden und individuellen Wegen zur Glückserfüllung. Damit wurde von der aristokratischen Tragödie Abstand genommen, nach der der Mensch allein dem fremdbestimmten Schicksal oder dem göttlichen Willen ausgeliefert ist und die Pflicht auch nach dem Empfinden des Publikums über seine persönlichen Vorlieben stellen muss. Das Melodram kann als Abgrenzung einer selbstbewussten aufstrebenden Mittelschicht gegenüber dem entstehenden Proletariat verstanden werden. Den Gegensatz zwischen Komödie und Tragödie konnte man bis dahin sowohl als Unterschied zwischen Bürgerlichem und Aristokratischen als auch zwischen Lächerlichem und Ernsthaften verstehen. So kam das Melodram einem Kleinbürgertum entgegen, das sich auf der Bühne nicht mehr nur lächerlich dargestellt sehen wollte (vgl. Ständeklausel). Das Rührstück eines Denis Diderot oder Jean-Jacques Rousseau, auch die bürgerlichen Tragödien von Gotthold Ephraim Lessing und die moralistischen Dramen von Friedrich Schiller sind Vorbilder des Melodrams. Frankreich und England. Der berühmte Darsteller Frédérick Lemaître in einer Karikatur Der französische Theaterschriftsteller René Charles Guilbert de Pixérécourt gilt als erster, der dieses Genre populär machte. Sein Stück "Der Hund des Aubry" (1814) wurde auch im deutschen Sprachgebiet erfolgreich. Am Pariser Boulevard du Temple wurden in der Nachfolge der Pariser Jahrmarktstheater feste Spielstätten erstellt, in denen Pantomimen und Melodramen zur Aufführung kamen. Weitere bedeutende Autoren des Melodrams waren Caigniez und Victor Ducange, später etwa Adolphe d’Ennery. Auch Eugène Scribe war mit dem Melodram "Yelva ou l’Orpheline russe" (1828) erfolgreich. – Einer der berühmtesten Darsteller im Melodrama war Frédérick Lemaître. Im englischen Sprachgebiet konnte sich das Melodram als allgemein akzeptierte dramatische Gattung entfalten. Seit Thomas Holcroft wurde es auf den Londoner Bühnen wie dem Adelphi Theatre heimisch und erreichte eine Blüte mit dem "Viktorianischen Melodrama" (etwa bei James Planché und später bei Dion Boucicault). Romanfiguren wie Sweeney Todd oder historische Ereignisse wie die West-Port-Morde dienten als Stoffe. Deutsches Sprachgebiet. In der deutschen Theaterlandschaft verblieb das Melodram trotz seiner Beliebtheit in einem Tabubereich. Melodramen waren den großen "Zirkuspantomimen" sehr ähnlich, die im 19. Jahrhundert üblich waren (siehe Geschichte des Zirkus). Am französischen Melodram orientierten sich dennoch zahlreiche deutsche Bühnenschriftsteller wie August von Kotzebue ("Menschenhass und Reue", 1789), Zacharias Werner ("Der vierundzwanzigste Februar", 1808) und später Karl von Holtei ("Leonore", 1829) oder Charlotte Birch-Pfeiffer ("Der Glöckner von Notre-Dame", 1848). Ignaz Franz Castellis Übersetzung des französischen Melodrams "Die Waise und der Mörder" beherrschte seit 1817 die deutschsprachigen Bühnen. Das Wiener Burgtheater widmete sich recht ausgiebig dem Melodram, gewissermaßen als Verbürgerlichung der höfischen Tragödie und als Gegenbild zum Alt-Wiener Volkstheater. Zu den größten Erfolgen gehörten hier "Die Schuld" (1816) von Adolf Müllner, "Die Ahnfrau" (1817) von Franz Grillparzer sowie "Der Müller und sein Kind" (1830) von Ernst Raupach. Eine internationale Begeisterung für das „Deutsche“, etwa für Schillers Dramen, die zu beliebten Vorlagen für Opern wurden, für den sogenannten Sturm und Drang oder die deutsche Romantik schlug sich in populären Kunstprodukten wie dem Melodram und dem Trivialroman nieder, was im deutschen Sprachgebiet – hauptsächlich von akademischer Seite – für ein Missverständnis gehalten und ignoriert wurde. Goethes literarische Aufwertung des Fauststoffs wurde dagegen international nie recht zur Kenntnis genommen. Der Fauststoff blieb weiterhin in der Sphäre des Melodrams, wie noch in dem in New York City und später in London phänomenal erfolgreichen Stück "The Black Crook" (1866). Weitere Entwicklung. Der italienische Dichter Vittorio Alfieri schuf eine italienische Variante des Melodrams mit dem Namen Tramelogödie. Gegenüber der Oper konnte es sich hier allerdings nicht durchsetzen. Eine Spielart des Melodrams auf der Opernbühne war die Verismo-Oper seit den 1860er-Jahren. Das US-amerikanische Melodram entwickelte sich als eigene Tradition seit der zweiten Hälfte des 19. Jahrhunderts. Zuvor bildeten moralisierende Shakespeare-Bearbeitungen den Grundstock für die Theatertruppen (wie etwa für Isaac Merritt Singer gegen 1830). Als Markstein gilt das Spektakel "The Black Crook" (1866). Einer der erfolgreichsten Melodram-Autoren war David Belasco. Gegen 1900 neigte das Bühnenmelodram zum aufwändigen Ausstattungsstück mit vielen Dekorationen und zahlreichen Komparsen. Die Massenspektakel von Max Reinhardt wie "Sumurun" (1910) sind wesentlich von der melodramatischen Tradition inspiriert. Im 20. Jahrhundert wurden die Stilmittel des Melodrams vom Film übernommen und weiterentwickelt. Heute gibt es das Bühnenmelodram so gut wie nicht mehr, da sich die populäre Unterhaltung auf andere Medien verschoben hat. Film-Melodram. → "Hauptartikel: Melodram (Film)" In der Zeit des Stummfilms gab es viele Melodramen, die heute mehr oder weniger vergessen sind. Aus ihnen kann man die Gestik des damaligen Bühnenmelodrams rekonstruieren. Durch die Möglichkeiten der Kameraführung kann die Identifikation des Publikums mit Figuren des Spiels erheblich wirksamer herbeigeführt werden. Deshalb hat der Film das Bühnenmelodram fast vollständig in sich aufgenommen, sodass lediglich opernhafte Formen auf der Theaterbühne verblieben sind. Auch melodramatische Filme bezeichnet man gelegentlich als „Filmoper“. Indem der Zuschauer die Erzählperspektive aus der Sicht des Opfers wahrnimmt, wird Identifikation mit diesem hergestellt. Durch die Formulierung der Verantwortung für das “Böse” auf einer gesellschaftlichen Ebene einerseits und der personalisierten, emotionalisierten Opfersicht andererseits legt das Melodrama direkter als andere Genres Muster der Unterdrückung und Ausbeutung offen und leitet daraus seine Dramatik ab. Passend dazu werden Typen verklärt: Die positiven Helden werden mit den vorteilhaftesten Eigenschaften versehen, um dem Zuschauer die Identifikation zu erleichtern. Negativfiguren auf der anderen Seite sind nicht böse, weil sie (wie etwa im Western) ihrer Natur nach böse sind, sondern weil sie dem Glück der Helden entgegenstehen. Trotz ihrer Verurteilung als Bösewichte erscheinen sie als Getriebene. Das Aufzeigen und Verdeutlichen der Motive aller Figuren macht das Melodrama zu einem „demokratischen Medium“. Allgemein erschien der Film in seiner Frühzeit gegenüber dem Theater des Geldbürgertums als das „demokratische Medium“. Konsequenterweise wird das absolute Glück im klassischen Melodrama von der Mitte der Gesellschaft aus definiert, nicht von ihren Randbereichen. Es kann noch an der Außengrenze, aber nicht jenseits dieser Konventionen liegen, die so lange beschworen werden, bis die Moral sich durchgesetzt hat. Das Melodram kann deshalb keine Geschichte wiedergeben, die nur unter gesellschaftlichen Außenseitern spielt. Trotzdem macht sich das Melodram nicht zwangsläufig den moralischen Konsens zu eigen: Die Parteinahme, in die der Zuschauer gedrängt wird, geschieht immer zugunsten der Liebenden, woraus sich sowohl Gesellschaftskritik als auch moralischer Konformismus entwickeln können. Ob das Melodram eine subversive oder eskapistische Funktion übernimmt, hängt nach Thomas Elsaesser von der Betonung entweder der „Odyssee des Leidens“ oder des Happy-Ends ab. Die Moral übernimmt eine übergreifende Zuständigkeit, indem sie den Helden Grenzen aufzeigt und sie dadurch an sich bindet. Das Melodrama bezeichnet darum nicht nur eine ästhetische Praxis, sondern auch eine Art, der Welt Fragen zu stellen und in bezug auf seine Helden Antworten zu finden. Theorie. Ausgehend von der idealisierenden, nicht unumstrittenen Darstellung von Peter Brooks ("The Melodramatic Imagination", 1976) hat sich eine Tradition beschreibender Theorien um das Melodram gebildet. Kampf und Triumph des Willens. Das Melodram erfährt die Welt als Arena eines heftigen moralischen Kampfs, in dem die Machtlosen, aber Guten von den Mächtigen, aber Korrupten verfolgt werden. Die treibende Kraft des Melodrams ist der Bösewicht. Er kann als Verbrecher im strafrechtlichen Sinn oder als arroganter Neureicher, als dekadenter Aristokrat, unterdrückender Fabrikbesitzer oder politischer Extremist dargestellt werden. Am Ende siegen zumeist die sympathischen Figuren, und das Böse wird bestraft. Auch wenn die Heldin oder der Held physisch unterliegen, werden sie als bessere Charaktere und ideelle Sieger gezeigt. Ihre Liebe ist ein Symbol für den persönlichen Willen, der grundsätzlich positiv bewertet wird, auch wenn er sich gegen Autoritäten auflehnt. Oft wird das Durchsetzen des eigenen Willens allerdings als ergebene Aufopferung getarnt. Klarheit und Verständlichkeit. Das Wort „melodramatisch“ bedeutet, dass durch Klang (Vers, erhobene Stimme, Musik etc.) eine Bedeutung suggeriert wird. Dem Publikum wird durch eine pathetische Darstellung das Verständnis des Vorgeführten erleichtert oder eine Interpretation aufgedrängt. Diese Stilmittel scheinen Orientierungshilfen in einer verwirrenden Welt zu geben. Im Melodram geht es im Wesentlichen um ein vor Publikum zelebriertes Erkennen oder Unterscheiden: zwischen Gutem und Bösem, Liebe und Hass, Eigenem und Fremdem, Mächtigem und Machtlosem, Männlichem und Weiblichem, Lebendigem und Totem. Das Melodram setzt sich der Attraktivität und den Gefahren der Schwarzweißmalerei ohne Vorbehalte aus. In diesem Sinn werden die Unterscheidungen im Melodram oft durch passende Musikbegleitung unterstrichen: Die reine Unschuld oder der Bösewicht sind deutlich erkennbar durch eine charakteristische Musik. Aber auch andere Zeichen können solche Figuren deutlich erkennbar machen, etwa ein weißes beziehungsweise schwarzes Kostüm oder eine flehende beziehungsweise bedrohliche Pose. Diese Verdeutlichungen haben eine feierliche Wirkung, kippen aber leicht um in die Karikatur (siehe Überzeichnung (Kunst)). Im Gegensatz zur „gehobenen“ Tragödie sieht das Melodram von inneren Konflikten seiner Figuren ab: In der Tragödie kann eine Figur mit sich ringen und Widersprüchliches begehren (z. B. sich rächen "und" großmütig sein, Maria "und" Gabriele heiraten…). Im Melodram werden unterschiedliche Absichten auch von verschiedenen Figuren vertreten, vor allem Hauptfigur und Widersacher. Nicht der gute Mensch, sondern die Tugend, nicht der schlechte Mensch, sondern das Laster treten auf (Allegorie). Dennoch erscheinen die Personen im Gegensatz zum mittelalterlichen Drama als moderne Individuen. Dramaturgie. Die Dramaturgie des Melodrams zeichnet sich aus durch scharf kontrastierte und vereinfachte (flache) Charaktere sowie eine bunte Mischung aus Gewalt, Pathos und Humor. Zentral ist in der Regel eine Liebesgeschichte und/oder eine Kriminal- oder Horrorgeschichte, oft nach dem Vorbild populärer Romane. Logik statt Wunder. Im Unterschied zur Tragödie der französischen Klassik, in der es um das statthafte Benehmen der Helden ging, sollte das Melodram spannend sein. Für erschütternde Effekte und kraftvolle emotionale Schocks werden Handlungshöhepunkte aufgebaut. Konfrontation, Verfolgung und Flucht dienen zur Steigerung. Häufig wird dabei eine deterministische Kausalität vorgeführt: Ursachen haben zwingende Wirkungen und umgekehrt, was das Publikum zum logischen Kombinieren anregt und das Vertrauen in die Naturwissenschaften fördert. Aufzeichnungen wie Briefe, amtliche Dokumente oder Spuren eines Verbrechens, die es zu entschlüsseln gilt, haben dabei eine zentrale Funktion. Das Melodram spielt sich zumeist in einer ausgesprochen „normalen“ Umgebung ab, die sich wirkungsvoll von einer Halbwelt unterscheidet. Die Geschlechterrollen im Melodram sind klar festgelegt und werden nicht kritisiert, im Unterschied zu sozialen Ungleichheiten: Die weiblichen Heldinnen zieht es aus der Welt der Vernunft in eine Welt der Gefühle, die männlichen kämpfen gegen übermächtige Widersacher. Der melodramatische Konflikt ergibt sich aus einer Konfrontation der Helden mit (veränderlichen) gesellschaftlichen Auflagen und Erwartungen sowie mit (unveränderlichen) naturgesetzlichen Gegebenheiten. Er entsteht aus Situationen der Trennung oder Wiederbegegnung, aus plötzlich enthüllten Geheimnissen, überraschend auftauchenden Erinnerungen, dem Erwachsenwerden, der verhinderten Liebe oder dem Sterben; aus Naturkatastrophen, Krankheiten oder sozialen Ungleichheiten, die eine Liebe verhindern. Figuren. Die Bedrohung einer/eines hilflosen Unschuldigen als häufiger dramatischer Ausgangspunkt ruft die drei anderen Hauptcharaktere auf den Plan: den Helden (und/oder die Heldin), einen Verbündeten, der ihnen assistiert, und den Bösewicht, gegen den sie antreten. Oft enthielt das Melodram pantomimische Hauptrollen, zumeist als Figuren, die aufgrund einer Behinderung stumm sind. Damit wurde das Versagen der Kommunikation zum Thema gemacht und die Aufmerksamkeit des Publikums etwa auf eine verräterische oder unverstellte Gestik im Kontrast zum Trügerischen der gesprochenen Sprache gelenkt. Musik. Meist wurde die Theatervorstellung von einem Orchester, im späteren britischen und US-amerikanischen Melodram oft auch nur von einem Klavier begleitet. Die Bedeutung der Melodrammusik für die Entstehung der Filmmusik ist in der Literatur der letzten Jahre verstärkt beachtet worden. – Nicht nur eine dramatisierende Hintergrundmusik konnte im Theatermelodram eine Rolle spielen, sondern auch Aufmärsche, Tänze, Chöre und sogar eingelegte Lieder. Mistral (Wind). Der Mistral und seine Entstehung – die Tiefdruckgebiete sind nicht falsch gezeichnet, die Luftströmung verläuft tatsächlich gegen den Uhrzeigersinn (nördliche Hemisphäre) ins Tief hinein. Dadurch ergibt sich in dieser Konstellation ein geostrophischer Wind aus etwa nordwestlicher Richtung. Der Mistral ist ein kalter, oft starker Fallwind aus nordwestlicher Richtung, der sich im unteren Rhônetal (und darüber hinaus) bemerkbar macht. Ausbreitung. Die Bezeichnung "Mistral" wird vor allem in Verbindung mit der Provence verwendet, aber auch die Provinz Languedoc (östlich von Montpellier), das Département Var (Fréjus), das gesamte untere Rhônetal (von Lyon bis Marseille) und die Inseln Korsika und Sardinien sind betroffen. Der östliche Teil der Côte d’Azur, die sogenannte Französische Riviera, mit den höher aufragenden Bergen dagegen ist geschützt und bleibt von dem als meist unangenehm empfundenen Wind fast immer verschont. Grundlagen. Der Mistral kann zuerst recht sanft und durch die Landmasse noch aufgewärmt und deshalb warm wehen. Nach einigen Stunden oder gar Tagen kann er ein starker bis sehr starker Wind werden, der aus nordwestlicher Richtung über Frankreich in den Mittelmeerraum weht. Typisch ist dann ein wolkenloser, dunkelblauer Himmel, gute Fernsicht, nachts ein beeindruckender Sternenhimmel und ein erheblicher Abfall der Temperatur. Er kann tagelang wehen und tritt so häufig auf, dass die Bäume im Rhônetal oft in Windrichtung nach Süden hin gebogen sind (Windflüchter). Wenn ein Tief über Nordfrankreich in Richtung Osten abzieht, ist die klassische Ausgangslage für den Mistral gegeben. Der Wind entsteht durch in den Mittelmeerraum einströmende Polarluft. Die Alpen und Cevennen bilden eine Blockade, so dass die kalte Polarluft ins Rhônetal, ein Grabenbruch zwischen den beiden genannten Gebirgen, gelangt. Durch diese Kanalisierung (Düseneffekt) entstehen dort hohe Windgeschwindigkeiten von 50–75 km/h, in Spitzen über 135 km/h. Außerdem ist der Mistral sehr trocken und entzieht dem Boden Feuchtigkeit, was die Waldbrandgefahr in der Provence erheblich erhöht. Die typische Mistralwetterlage wird geprägt von hohem Luftdruck über der Biskaya und einem Tiefdruckgebiet über Italien. Diese Lage stellt sich häufig in Verbindung mit Kaltlufteinbrüchen aus Norden ein, deren Hauptstoßrichtung über Großbritannien bis in den nordwestlichen Mittelmeerraum verläuft. Dort trifft die Kaltluft auf wärmere Mittelmeerluft. Dies bietet günstige Voraussetzungen für die Entstehung eines Genuatiefs. Ein Indiz für den sehr plötzlich einsetzenden Mistral sind die sehr auffälligen Lenticulariswolken. Zur Benennung. Die Provenzalen kennen 32 Winde aus allen Himmelsrichtungen und der "Mistral" ist der direkt aus Nordwest wehende Wind. Den sehr starken Mistral nennt man auch "Aurassos" und einen sehr kalten Mistral "Cisampo". Am Unterlauf des Ebro wird der Mistral "Cierzo" genannt. In Sardinien und Sizilien heißt er "Maestrale". Griechenland kennt diesen Wind als "Maïstrali" (Μαϊστράλι). In Kroatien nennt man ihn "Maestral". Das Synonym "Cers" wird für den Mistral in Katalonien, Narbonne und in Teilen der Provence verwendet. Die Definition von Mistral bei den Provenzalen ist uneinheitlich. Für die einen ist Mistral ein nur im Rhônetal wehender Nordwest-Wind. Demnach kann es weiter östlich, z. B. an der Côte d’Azur, eigentlich keinen Mistral geben. Andere sprechen aber bei (kalten) Nord-Winden an der Côte d'Azur auch von Mistral. Der gleiche Effekt entsteht zwischen den Cevennen und dem Zentralmassiv. Der dabei entstehende Wind heißt Tramontana und weht in West-Ost-Richtung – andere Quellen bezeichnen den Mistral als einen Fallwind aus den Bergen des Zentralmassivs, der trotz trockenadiabatischer Erwärmung als kalt empfunden wird, da er in die wärmere Mittelmeerluft strömt. Maschinenbau. Der Maschinenbau (auch als Maschinenwesen bezeichnet) ist eine klassische Ingenieurdisziplin. Dieses Arbeitsgebiet erstreckt sich auf Entwicklung, Konstruktion und Produktion von Maschinen. Der Industriezweig Maschinenbau (Branche) entstand aus dem Handwerk der Metallbearbeitung durch Mühlenbauer, Schmiede und Schlosser. Die Ingenieurdisziplin Maschinenbau bildete sich durch systematischen wissenschaftlichen Bezug auf die klassische Physik, insbesondere auf die klassische Mechanik heraus. a>, etwa 1900; die Funktion der Maschine ist bis heute prinzipiell gleich geblieben a> und Dosieren, Beispiel für eine moderne Maschine Geschichte. Der Maschinenbau als institutionalisierte Wissenschaft entstand im Laufe der Industrialisierung. Manche theoretischen und praktischen Erkenntnisse sind allerdings viel älter. Erste Vorläufer der Fertigungstechnik sind so alt wie die Menschheit. Die ersten Faustkeile waren zum Schaben, Kratzen und Schneiden gebaut, in der Steinzeit kamen speziellere Formen fürs Bohren und Sägen dazu. Die Entdeckung des Kupfers läutete den Übergang zur Bronzezeit ein, in der das Schmelzen von Kupfererz, das Schmieden und auch das Gießen entdeckt wurden. In den frühen Hochkulturen Mesopotamiens wurden erste Ingenieure an Palast- oder Tempelschulen ausgebildet im Lesen, Schreiben und Rechnen. Wichtige Entdeckungen waren das Rad und die Schiefe Ebene. In der Antike wurde die Mechanik als wichtige theoretische Grundlage vieler heutiger Ingenieurwissenschaften begründet. Archimedes, Aristoteles und Heron von Alexandria veröffentlichten Bücher und Schriften über Hebel, Schraube, Schiefe Ebene, Seil, Flaschenzug und weitere Erfindungen. Katapulte verbesserte man durch systematische Experimente bis man die besten Abmessungen gefunden hatte. Archimedes machte Experimente mit der Wasserverdrängung verschiedener Metalle und Heron baute eine erste Dampfmaschine. Für das griechische Theater wurden auch schon erste Automaten gebaut die sich selbstständig bewegen konnten. Die Römer übernamen die griechische Technik, machten selber aber vergleichsweise geringe Fortschritte wie Krane mit Flaschenzügen und Treträdern, verbesserte Katapulte und erste Schleif- und Drehmaschinen sowie Wassermühlen. Im Mittelalter breiteten sich die Wind- und Wassermühlen über ganz Europa aus und wurden zur wichtigsten Energiequelle. Die Mühlenbauer sammelten viele Erfahrungen mit den Wind- und Wasserrädern, den Getrieben, Transmissionen sowie den sonstigen mechanischen Übertragungselementen. Auf dem militärischen Gebiet wurden die Katapulte von den Tribocken abgelöst. Gegen Ende des Mittelalters entstand mit der Feinmechanik ein neuer Gewerbezweig der sich mit dem Bau von Uhren und Messgeräten beschäftigte und dabei viele Erfahrungen mit der Präzisionsbearbeitung von Metallteilen sammelte die meist aus Messing bestanden. Für die Feinbearbeitung von Eisen gab es Schlosser. Mit den Zünften und Gilden entstanden erstmals Institutionen die sich mit dem Wissen ihres Gewerbes auseinandersetzten. In der Renaissance entwickelte Leonardo da Vinci eine Vielzahl an Maschinen die teilweise seiner Zeit weit voraus waren. Ab Mitte des 16. Jahrhunderts veröffentlichten viele Ingenieure sogenannte Maschinenbücher, die allerdings oft durch übertriebene und phantastische Darstellungen den Leser in Staunen versetzen sollten. Zum Nachbau waren die meisten der Abbildungen nicht gedacht, oftmals wurden sogar unmögliche Maschinen wie Perpetuum mobile abgebildet. Erst ab 1700 wurden die Darstellungen als bemaßte Parallelprojektion dargestellt. Thomas Newcomen baute in England zu Beginn des 18. Jahrhunderts die erste funktionsfähige Dampfmaschine, die gegen Ende des Jahrhunderts von James Watt entscheidend verbessert wurde und sich dann schnell verbreitete. Genutzt wurde sie oft zum Antrieb der neuen Spinn- und Webmaschinen, mit deren Bau sich neben Tischlern, Schreinern, Feinmechanikern und Schmieden vor allem die Mühlenbauer beschäftigten die daher als Vorläufer der Maschinenbauer gelten. Zum Bau der Dampf- und Textilmaschinen nutzte man die ebenfalls neuen Werkzeugmaschinen, die auch mit Dampfmaschinen angetrieben wurden. Mit dem Puddelverfahren stand auch eine Methode zur Verfügung Stahl in großen Mengen zu erzeugen der auch immer öfter für Maschinen benutzt wurde. Zu Beginn des 19. Jahrhunderts gab es in England bereits einen ausgeprägten industriellen Maschinenbau, der sich auch bald mit Dampflokomotiven beschäftigte, aber noch von im Handwerk ausgebildeten Tüftler-Ingenieuren geprägt war. 1818 wurde mit der Institution of Mechanical Engineers die erste Vereinigung von Maschinenbau-Ingenieuren gegründet, der in anderen Industrieländern viele ähnliche folgten. In Frankreich wurde 1794 die École polytechnique gegründet die die Ingenieure ausbildete die in den Staatsdienst gingen und vor allem als Bauingenieure tätig waren. An der Ecole Polytechnique waren viele berühmte Wissenschaftler tätig wie Carnot (Carnot-Prozess), oder Gaspard Monge, einem Pionier der Darstellenden Geometrie. Maschinen wurden auch nicht mehr ausschließlich nach ihrer Funktionsfähigkeit bewertet sondern auch nach ihrem Wirkungsgrad. Für die private Industrie wurde die Ecole Centrale des Arts et Manufactures gegründet die Maschinenbauer für die höheren Positionen ausbildete und mehrere École des Arts et Métiers die für die Meisterebene ausbildeten. Im deutschsprachigen Raum wollte man zu Beginn des 19. Jahrhunderts den industriellen Rückstand gegenüber England möglichst schnell aufhohlen und gründete daher eine Vielzahl sogenannter Polytechnischer Schulen, nach dem Vorbild der Ecole Polytechnique. Sie wurden im Laufe des Jahrhunderts zu Technischen Hochschulen aufgewertet und erhielten Ende des Jahrhunderts das Promotionsrecht und waren damit den älteren Universitäten gleichgestellt. Für diese Entwicklung hatte sich auch der Mitte des Jahrhunderts gegründete Verein Deutscher Ingenieure stark gemacht, der neben den Maschinenbauingenieuren auch die Bauingenieure und die Elektrotechniker vereinte und bald der Mitgliederstärkste Ingenieurverband der Welt wurde. Zu den wichtigsten Begründern des wissenschaftlichen Machinenbaus in Deutschland zählen Franz Reuleaux, Karl Karmarsch und Ferdinand Redtenbacher, die sich mit Mechanik, Fertigungstechnik, Dampf- und Werkzeugmaschinen beschäftigten. Zu Beginn des 20. Jahrhunderts war ein akademischer Abschluss für junge Ingenieure bereits Standard. Rudolf Diesel hatte als Student Vorlesungen über den theoretisch möglichen Wirkungsgrad von Wärmekraftmaschinen gehört, in denen auch berichtet wurde, dass die üblichen Kolbendampfmaschinen nur einen Bruchteil dessen als Wirkungsgrad aufweisen. Aus diesen theoretischen Erkenntnissen entwickelte er den ersten funktionsfähigen Dieselmotor. Zu Beginn des Jahrhunderts war der industrielle Maschinenbau geprägt durch die Produktion von Nähmaschinen und Fahrrädern, später dann Autos und Flugzeuge die dann auch mit Strahltriebwerken angetrieben wurden. Zusammenhänge. Der Maschinenbau ist geprägt von Ingenieuren, Technikern und Facharbeitern. Diese arbeiten je nach Unternehmensgröße und Schwerpunkt des Betriebes an Idee, Entwurf, Kalkulation, Design, Konstruktion, Optimierung, Forschung und Entwicklung, Produktion und Vertrieb von Maschinen aller Art und deren Bauteilen. Ausgehend von einzelnen Maschinenelementen werden dabei Produkte oder Anlagen von größter Komplexität wie Fertigungsstraßen und ganze Fabriken geplant, entwickelt, gebaut und betrieben. Zum Beispiel beschäftigt sich die Konstruktionslehre mit den Zielen und Methoden, die ein Maschinenbau-Ingenieur/-Techniker bei der Konstruktion technischer Anlagen durch Normen (z. B. der DIN-Normen) beachten muss. Mittlerweile werden die technischen Anlagen mit Hilfe von CAD-Programmen am Computer entworfen. Die dabei erzeugten CAD-Dateien können anschließend einer Simulation (dazu gehört unter anderem auch die Finite-Elemente-Methode) unterzogen und von einer CNC-Maschine gefertigt werden. Ein anderer Weg ist das Reverse Engineering, bei dem aus einem vorhandenen Körper ein Computermodell hergestellt wird, das man dann weiter bearbeiten kann, z. B. Freiformflächen an Automobilkarosserien oder Turbinen- und Verdichterschaufeln. Aufgrund der zunehmenden Automatisierung werden technische Anlagen heute mit einer komplexen Mess- und Steuerungs- bzw. Regelungstechnik ausgestattet, die ebenso von Maschinenbau-Ingenieuren ausgelegt werden. Teilgebiete. Zu den Teilgebieten des Maschinenbaus zählen Gebiete die naturwissenschaftliche Fachgebiete anwendungsorientiert weiterentwickeln und damit eine theoretische Basis darstellen wie die technische Mechanik, technische Thermodynamik, Strömungsmechanik und Werkstoffwissenschaft. Konstruktionslehre und Fertigungstechnik befassen sich mit Konstruktion bzw. Produktion. Weitere Gebiete sind die Mess- und Regelungstechnik sowie die Antriebstechnik. Technische Mechanik. a> ist ein Beispiel für die zeichnerische Lösung eines Problems in der Technischen Mechanik Die Technische Mechanik ist ein Teilfach der Ingenieurwissenschaften. Ihre naturwissenschaftliche Grundlage ist die klassische Mechanik, die ihrerseits ein Teilgebiet der Physik ist. Teilgebiete der Technischen Mechanik sind z. B. die Statik, die Festigkeitslehre, die Kinematik, die Kontinuumsmechanik und bei dynamisch beanspruchten Maschinen die Maschinendynamik. Das Aufgabengebiet der Technischen Mechanik ist die Bereitstellung der theoretischen Berechnungsverfahren zur Ermittlung von Kräften, Momenten und anderen Belastungen beispielsweise für die Materialwissenschaft, den Maschinenbau und die Baustatik. Die eigentliche Bemessung, Auswahl der Werkstoffe und dergleichen mehr wird dann von diesen anwendungsnahen Disziplinen übernommen, in denen die Technische Mechanik Hilfswissenschaft ist. Strömungsmechanik bzw. Fluidmechanik. Die Strömungslehre oder auch Strömungsmechanik ist die Physik der Fluide. Unter diesem Begriff versteht man Medien (u. a. Flüssigkeiten, Gase, Stoffgemische, Festkörper (z. B. Sand, Staub u. a.) oder Plasma), welche sich unter dem Einfluss von Scherspannungen unbegrenzt verformen (newtonsches und nichtnewtonsches Fluid). Auch die Bezeichnungen Fluidmechanik oder Fluiddynamik werden anstelle von „Strömungslehre“ verwendet. Ziel ist die theoretische Berechnung von Strömungen, wie sie in realen Prozessen, z. B. in Rohrleitungen, in Verbrennungsmotoren oder hinter umströmten Körpern (Luftwiderstand bei Fahrzeugen), ablaufen. In den Anwendungsfällen werden dabei Kennzahlen benutzt, mit denen man die Eigenschaften (z. B. Verhalten und Art des Fluids, Strömungsart und –form) der Fluide beschreiben kann. Mit den Prinzipien der Kontinuitätsgleichung ("Alles was reinfließt, fließt auch wieder raus"), den Erhaltungssätzen für Masse, Energie und Impuls und den Navier-Stokes-Gleichungen können die Strömungsvorgänge mathematisch beschrieben werden. Ein wissenschaftliches Gebiet, dass die Strömungsmechanik nutzt, ist die Rheologie, die sich mit dem Verformungs- und Fließverhalten von Materie beschäftigt. Technische Thermodynamik. Typischer thermodynamischer Vorgang am Beispiel der prinzipiellen Wirkungsweise einer Dampfmaschine (rot = hohe Temperatur, gelb = niedrige Temperatur, blau = Endtemperatur des Dampfes) Die Thermodynamik, auch als Wärmelehre bezeichnet, ist ein Teilgebiet der klassischen Physik. Sie entstand im Verlauf des 19. Jahrhunderts auf der Grundlage der Arbeiten von James Prescott Joule, Nicolas Léonard Sadi Carnot, Julius Robert von Mayer und Hermann von Helmholtz. Sie ist die Lehre der Energie, ihrer Erscheinungsform und Fähigkeit, Arbeit zu verrichten. Sie erweist sich als vielseitig anwendbar in der Chemie, Biologie und Technik. Mit ihrer Hilfe kann man zum Beispiel erklären, warum bestimmte chemische Reaktionen spontan ablaufen und andere nicht. Die technische Thermodynamik ist eine rein makroskopische Theorie, die davon ausgeht, dass sich die physikalischen Eigenschaften eines Systems hinreichend gut mit makroskopischen Zustandsgrößen beschreiben lassen. Sie ist eine effiziente Theorie, da sie die Bewegung der einzelnen Atome und Moleküle vernachlässigt und nur mittlere Größen wie Druck und Temperatur betrachtet. Weitere Themen in der Thermodynamik sind die Wärmeübertragung und die Kältetechnik, die sich mit dem Wärmeentzug durch entsprechende Kältemittel beschäftigt. Werkstoffwissenschaft. Die Werkstoffwissenschaft zählt zur Materialwissenschaft und ist ein Gebiet der Ingenieurwissenschaft, das mit den Methoden der Werkstoffkunde versucht, anwendungsorientiert Beziehungen zwischen der Struktur und den Eigenschaften der Werkstoffe herzustellen. Darauf aufbauend werden durch gezielte Strukturveränderung, z. B. bei der Eisen-Kohlenstofflegierung Stahl das Härten und Anlassen oder durch einbringen von Legierungselementen, gewünschte Eigenschaftsprofile eingestellt. Beim Stahl, einer der häufigsten verwendeten Werkstoffe im Maschinenbau, wird z. B. die Schweißbarkeit oder die Umformbarkeit durch die Variierung des Kohlenstoffgehalts eingestellt. Weitere Eigenschaften, wie eine Korrosionsbeständigkeit, können durch Hinzufügen von Legierungen erreicht werden. In den Branchen, in denen das Gewicht eine große Rolle spielt, z. B. der Luft- und Raumfahrt, werden statt den Stählen Verbundwerkstoffe und Aluminiumlegierungen eingesetzt. Wichtige Werkstoffkenngrößen, die für die Benutzung und Auslegung von Bauteilen nötig sind, sind die Streckgrenze, die Zugfestigkeit und der E-Modul. Mess- und Regelungstechnik. Die Messtechnik beschäftigt sich mit dem experimentellen Messen von Systemen, da zwar jede bestimmbare Größe einen exakten Wert hat, jedoch kann man diesen durch Messfehler nicht genau erfassen. Die Messtechnik kann man in die experimentelle Messtechnik, wo es um die Aufklärung von Effekten geht und eine höchstmögliche Genauigkeit gefordert ist und in die Messtechnik für technische Anwendungen einteilen. Für die technischen Anwendungen ist dabei eine robuste Messtechnik gefordert, die aber zugleich kostengünstig ist. Eine weitere Forderung ist dabei "so präzise wie nötig und so schnell wie möglich" zu messen. Die ermittelte Messgröße besteht dabei aus dem gemessenen Wert, einem Messfehler und einer Maßeinheit (ist eine SI-Einheit oder abgeleitete Größe davon). Die Messgröße sieht dann beispielsweise wie folgt aus: (10±0,1) V oder 10 V±1 %. Die zu messenden Größen kann man in elektrische (Strom, Spannung, …) und nicht elektrische (Temperatur, Druck, Zeit, Masse u. a.) Größen einteilen. Nicht elektrische Größen können durch entsprechende Effekte (Seebeck-Effekt, Induktionsgesetz, …) in elektrische Signale umgewandelt werden, die für die Regelungstechnik (siehe auch Mess- und Regelungstechnik) und Automatisierungstechnik benötigt werden. Konstruktionslehre. Die Konstruktionslehre, bzw. -technik beinhaltet die Grundlagen der Konstruktion, d. h. alle jene Synthese-, Analyse-, Bewertungs- und Selektionstätigkeiten, die notwendig sind, um für eine bestimmte technische Aufgabe eine zu einem bestimmten Zeitpunkt bestmögliche Lösung anzugeben. Im Rahmen der Konstruktionsmethodik werden dabei vor allem Methoden zur systematischen Ideenfindung, Lösungssynthese und Variantenbewertung vermittelt, z. B. im Konstruktiven Entwicklungsprozess, Product-Lifecycle-Management oder Computer-aided engineering (CAE). Dies dient dem Finden einer möglichst optimalen Lösung bei einer großen Anzahl von Lösungsalternativen. Um diese Lösungsalternativen jedoch einzeln beurteilen zu können, sind grundlegende Kenntnisse über mechanische Konstruktions-, bzw. Maschinenelemente, deren Bemessung und Auslegung und ihrer Herstellung nötig. Zudem muss eine Dokumentation der Aufgabe und Lösungen gewährleistet werden. Diese erfolgt u. a. in den Lasten- und Pflichtenheften und durch Technische Zeichnungen. Dem technischen Zeichnen liegt dabei eine einheitliche Form der Darstellung zu Grunde, die in Normen für die Maß-, Form-, Lage- und Oberflächentoleranzen beschrieben sind. Diese Grundlagen liegen ebenso im Bereich der Konstruktionslehre wie Techniken zur Zeichnungserstellung, sowohl von Hand über die Darstellende Geometrie als auch mit Hilfe entsprechender Computerprogramme (siehe CAD). Fertigungstechnik. Die Fertigungstechnik ist eine Disziplin des Maschinenbaus, die sich mit der Fertigung von Werkstücken beschäftigt. Antriebstechnik. Durch die Antriebstechnik wird eine Maschine laut EU-Richtlinie erst zu einer vollständigen Maschine, da sich erst durch einen Antrieb Teile der Maschine selbstständig bewegen können. Ausgehend von einem Motor, der die Bewegung erzeugt, wird diese über Wellen, Keilriemen und/oder Getriebe an die Wirkstelle geleitet. In ortsfesten Maschinen werden heutzutage Elektromotoren, wie z. B. Drehstrom-Synchronmaschinen oder Schrittmotoren (in Ausnahmefällen auch Linearmotoren) als Motoren eingebaut, da durch diese maschinelle Bewegungsabläufe sehr gut synchronisiert werden können. Falls jedoch die Energiezufuhr, anders als vorangehend, nicht durch eine Stromleitung bereitgestellt werden kann, wie dies bei den meisten nichtstationären Maschinen der Fall ist – vorkommend etwa in vielen Kraftfahrzeugarten –, so setzt man in derartigen Fällen überwiegend solche Antriebsarten ein, die keiner Stromleitung bedürfen. In den Jahrzehnten im Gefolge der Industriellen Revolution wurde in der Antriebstechnik eine kontinuierliche Drehbewegung durch einen Motor zentral bereitgestellt und durch eine Königswelle und Treibriemen weitergeleitet. Durch entsprechende Kurven-, Koppel- und/oder Riemengetriebe konnte die Drehbewegung in eine getaktete translatorische Bewegung umgewandelt werden. Heutzutage wird statt des zentralen Antriebs vermehrt ein dezentrales System von Antrieben in Maschinen eingebaut, d. h. es gibt nicht mehr einen Motor, der alles über eine Welle antreibt. Stattdessen übernehmen viele kleine Motoren die einzelnen Bewegungsabläufe. Häufig handelt es sich hierbei um Servomotoren, die durch eine entsprechende Programmierung der Antriebsregelung die unterschiedlichsten Bewegungen ausführen können. Aus diesem Grund nennt man Servoantriebe auch "elektronische Kurvenscheiben". Universität, Fachhochschule. An Universitäten (auch an Technischen Universitäten) und Fachhochschulen ist das Maschinenbaustudium einer der drei klassischen Ausbildungswege (neben Elektrotechnik und Bauingenieurwesen) für angehende Ingenieure. In der Regel sind 10 Semester als Regelstudienzeit vorgegeben, bei erfolgreichem Studienabschluss wurde bisher der akademische Grad "Dipl.-Ing." (bzw. "Dipl.-Ing. (FH)") verliehen. Im Zuge einer Vereinheitlichung der Strukturen der Hochschulbildung in Europa wird ein gestuftes Studiensystem eingeführt (Bologna-Prozess). Dieser Prozess sollte bis 2010 abgeschlossen sein. Bis zu diesem Zeitpunkt sollten die Unis und Fachhochschulen den Diplomstudiengang abschaffen und durch einen Bachelorstudiengang ersetzen. Die Studienanfänger konnten nach 6 bis 8 Semestern Regelstudienzeit die akademischen Grade Bachelor of Science bzw. Bachelor of Engineering und nach weiteren 2 bis 4 Semestern die akademischen Grade Master of Science bzw. Master of Engineering erreichen. Einige Hochschulen (z. B. die Hochschule München) bietet auch im Wintersemester 2011/2012 sowie im Sommersemester 2012 den Diplomstudiengang an und wird erst zum Wintersemester 2012/2013 auf die Bachelor-Studiengänge umstellen. Andere Hochschulen, wie z. B. die Hochschule Zittau/Görlitz wird auch bis auf weiteres weiterhin den Diplomstudiengang anbieten. Da die Spanne und Größe der Produkte von z. B. einem kleinen Uhrwerk über Haushaltsgeräte und Motoren bis hin zur Massenware und riesigen Schaufelradbaggern reicht, kann heute ein Ingenieur diese Aufgaben nicht mehr alleine bewältigen. Man spezialisiert sich daher in seinem späteren Studium auf eine bestimmte Fachrichtung (z. B. Leichtbau, Fertigungstechnik, Textiltechnik, Schiffstechnik, Papiertechnik, Arbeitswissenschaft u. a.). Teilweise haben sich daraus eigenständige Studiengänge wie Maschinenbauinformatik, Produktion und Logistik, Verfahrenstechnik, Verarbeitungstechnik, Energietechnik, Fahrzeugtechnik, Luft- und Raumfahrttechnik, Mechatronik u. a. etabliert. Fachschule, Technikerschule. Neben der Ingenieursausbildung an Universitäten und Fachhochschulen ist im deutschsprachigen Raum die außeruniversitäre Ausbildung zum Maschinenbautechniker von traditionell großer Bedeutung. In Deutschland setzt das 4-semestrige Fachschulstudium eine fachspezifische Berufsausbildung und mehrjährige Berufserfahrung voraus und wird mit der Prüfung zum "staatlich geprüften Techniker" abgeschlossen. In der Schweiz darf man sich nach sechs Semestern und bestandener Diplomprüfung "dipl. Techniker TS/HF" nennen. In Österreich gibt es zusätzlich zu der Ausbildung an Universitäten und Fachhochschulen, die Möglichkeit die Ausbildung zum Ingenieur an einer HTL zu absolvieren. Duale Berufsausbildung. Im deutschsprachigen Raum bietet der Maschinenbau eine Vielzahl von gewerblich-technischen Berufsausbildungen innerhalb des dualen Systems an. Typische Berufsausbildungen sind Technischer Zeichner, Konstruktionsmechaniker, Zerspanungsmechaniker, Industriemechaniker oder Mechatroniker. Zudem bieten einige Hochschulen ein duales Studium, also ein Regelstudium in Verbindung mit Praxissemestern oder einer anerkannten Ausbildung, an. Musiker. Als Musiker werden Personen bezeichnet, die "musizieren", also als produzierende (Komponisten) oder reproduzierende (Sänger, Instrumentalisten) Künstler Musik erzeugen: im engeren Sinne professionell oder im Nebenberuf, im weiteren Sinne auch als Laie. Als Berufsmusiker gilt, wer seinen Lebensunterhalt ausschließlich oder überwiegend aus der Musik erwirtschaftet. Ein professioneller Musiker betreibt die Musik mit der sogenannten Gewinnerzielungsabsicht. Musiker spezialisieren sich üblicherweise auf ein bestimmtes Genre, wobei Überschneidungen möglich sind. Geschichte. Im Laufe der Musikgeschichte hat sich das Bild des Musikers erheblich gewandelt. Im Mittelalter waren ausübende Musiker und Musiktheoretiker streng voneinander getrennte Berufe. Später waren Musiker normalerweise in allen Bereichen der Musik und darüber hinaus tätig, also zugleich Komponist, ausübende Musiker, Lehrer und Theoretiker, doch spätestens seit dem 18. Jahrhundert trennten sich die genannten Bereiche immer mehr voneinander. Das Aufkommen des Virtuosentums beeinflusste diese Entwicklung. Im 20. Jahrhundert war die Trennung in die Bereiche Komposition, Interpretation, Musikpädagogik und Musikwissenschaft so weit vorangeschritten, dass von vier unterschiedlichen Berufsfeldern die Rede sein kann. Musiker auf späthethischen Basaltrelief, 8. Jh. v. Chr., Archäologisches Museum Istanbul Spezielle Aspekte. Mit den speziellen Problemen, die durch die oft sehr einseitige und teilweise sehr spezielle Haltung vorwiegend der Arme und Hände bei jahrelangen Wiederholungen derselben Bewegungen zustande kommen, beschäftigt sich die Musikermedizin. Besonders häufig kommt es zu Überlastungs- und vorzeitigen Verschleißerscheinungen der Muskeln, Sehnen und Gelenke vorwiegend der Arme und besonders der Hände. Von den 264.000 angestellten Berufsmusikern, die 2006 in den USA tätig waren, litten je nach gespieltem Instrument 50–76 % an berufsbezogenen muskuloskeletalen Beschwerden. Manichäismus. Der Manichäismus war eine stark vom Gedankengut der Gnosis beeinflusste Offenbarungsreligion der Spätantike und des frühen Mittelalters. Er verlangte von seinen Anhängern Askese und ein Bemühen um die Reinheit, die als Voraussetzung für die angestrebte Erlösung galt. Der Manichäismus ist nach seinem Gründer, dem Perser Mani (216–276/277), benannt. Er wird zu den synkretistischen Lehren gezählt, da Mani ältere Religionen als authentisch anerkannte und Teile von deren Gedankengut in seine Religion aufnahm. Der Manichäismus wird wegen seiner Ausbreitung bis in den Westen des Römischen Reichs und bis ins Kaiserreich China mitunter als Weltreligion bezeichnet; die Berechtigung einer solchen Bezeichnung hängt von der Definition des unscharfen Begriffs Weltreligion ab. Mit der Genehmigung des Sasanidenkönigs Schapur I., der von 240/42 bis 270 regierte, konnte Mani seine Lehre im Perserreich verbreiten, zunächst in Babylonien und im Südwesten des Iran. Der Sassanidenkönig Bahram I., der von 273 bis 276/77 herrschte, ließ ihn jedoch auf Betreiben des zoroastrischen Oberpriesters Kartir verhaften. Mani starb in der Gefangenschaft an den dort erlittenen Entbehrungen; es handelte sich aber nicht um eine Hinrichtung. In manichäischen Quellen wird sein Tod dennoch in bewusster Analogie zum Tod Christi als Kreuzigung bezeichnet, was aber nur metaphorisch gemeint ist. Manis Lehre ist durch die Unterscheidung von zwei Naturen oder Prinzipien und drei Epochen der Heilsgeschichte gekennzeichnet. Die zwei Naturen sind die des Lichts und die der Finsternis. Die drei Epochen sind die vergangene Zeit, in der die beiden Naturen vollständig getrennt waren, dann die (noch andauernde) Zeit, in welcher der Bereich der Finsternis mit Lichtelementen vermischt ist, und schließlich eine künftige Zeit, in der sie wieder (endgültig) getrennt sein werden. Wegen der Unterscheidung zweier absolut verschiedener und gegensätzlicher Naturen und der ihnen zugeordneten Reiche wird der Manichäismus zu den dualistischen Modellen gezählt. Quellen. Die Quellen zerfallen in zwei Gruppen: Zum einen Schriften christlicher und muslimischer Autoren, die gegen den Manichäismus polemisierten, zum anderen manichäische Schriften. Obwohl Mani Werke hinterließ, die für die Manichäer von fundamentaler Bedeutung waren und daher einst weite Verbreitung fanden, waren bis ins 20. Jahrhundert keine manichäischen Originalschriften bekannt. In der Frühen Neuzeit und im 19. Jahrhundert standen nur antimanichäische Quellen zur Verfügung, denen immerhin einzelne Zitate aus manichäischer Literatur entnommen werden konnten. Das manichäische Schrifttum wurde teils schon in der Antike, teils im Mittelalter weitgehend vernichtet, da der Manichäismus in allen Gebieten, in denen er sich ausgebreitet hatte, im Lauf der Zeit unterdrückt bzw. von anderen Religionen verdrängt wurde. Erst im Lauf des 20. Jahrhunderts wurde eine größere Zahl von manichäischen Handschriften entdeckt, wobei es sich allerdings teilweise nur um Fragmente in schlechtem Erhaltungszustand handelt. Ein noch nicht ausgewerteter Teil dieser Handschriften ging nach dem Ende des Zweiten Weltkriegs wiederum verloren. Während die gegnerischen Schriften großenteils ein polemisch verzerrtes Bild zeichnen, sind die manichäischen Bücher, die für erbauliche oder liturgische Zwecke bestimmt waren, hinsichtlich der auf die Geschichte bezogenen Angaben mit vielen legendenhaften Elementen durchsetzt. Die manichäischen Texte vermitteln aber authentische Informationen über die Lehre und die liturgische Praxis. Entstehung und Selbstverständnis. Fragment der spätantiken Lebensbeschreibung Manis im Kölner Mani-Kodex In der Zeit, in der Mani heranwuchs, war das Perserreich zoroastrisch geprägt, aber Mani wuchs in einem judenchristlichen Umfeld auf. Nach seiner im Kölner Mani-Kodex überlieferten Lebensbeschreibung gehörte er als Jugendlicher ebenso wie sein Vater den Elkesaiten, einer christlichen Täufergemeinschaft an. Noch in seiner Jugend hatte Mani Offenbarungserlebnisse. Nach seinen Angaben erschien ihm, als er zwölf Jahre alt war, zum ersten Mal sein von Gott gesandter Gefährte, der ihm bis zu seinem vierundzwanzigsten Lebensjahr „all das offenbarte, was war und sein wird, all das, was die Augen sehen, die Ohren hören und der Gedanke denkt“. Nach dem Abschluss dieser Offenbarungen löste er sich von den Elkesaiten. Reisen in den Osten brachten ihn in Kontakt mit dem Mahayana-Buddhismus. Mani hielt die Religionen, mit denen er sich auseinandersetzte, für unzulänglich, da ihre Lehren nicht klar genug schriftlich fixiert seien und ihre Anhänger daher um die Auslegung stritten. Daher bemühte er sich, die Schriften seiner Religion noch zu seinen Lebzeiten aufschreiben zu lassen, die Lehre eindeutig zu formulieren, um Schismen zu vermeiden und sie weltweit zu verbreiten. Er missionierte im Perserreich, seine Anhänger brachten den Manichäismus nach Westen ins Römische Reich, nach Osten bis in das Kaiserreich China. Mani verstand sich selbst als Nachfolger der großen Religionsstifter Jesus, Zarathustra und Siddhartha Gautama (Buddha). Entsprechend stellt der Manichäismus eine synkretistische Lehre dar, die sowohl zoroastrische und christliche als auch buddhistische Elemente enthält. Auch die geistige Strömung des Gnostizismus hatte Einfluss auf Manis Religion. Das führte dazu, dass der Manichäismus im Mittelmeerraum als „Kirche des heiligen Geistes“ auftrat und der Prophet Mani als der von Christus verheißene Paraklet galt, in anderen Teilen der Welt der Religionsstifter als Wiedergeburt des Laozi oder als neuer Buddha gesehen wurde. Manichäische Heilsgeschichte. Im Mittelpunkt der manichäischen Lehre steht die Darstellung der vergangenen und künftigen Geschichte der Menschheit als Heilsgeschichte. Am Anfang war das Lichtreich Gottes, dessen Wesen fünf Denkformen umfasste: Vernunft, Denken, Einsicht, Sinne und Überlegung. Demgegenüber steht das Reich der Finsternis, bestehend aus Rauch, Feuer, Wind, Wasser und Finsternis. In diesem Reich herrscht Kampf und Uneinigkeit. Während seiner inneren Kämpfe attackiert die Finsternis das Licht. Gott, der Vater, ist Friede und will daher keinen Kampf. Aus diesem Grund sendet er seinen Sohn in den Kampf, damit dieser von der Finsternis gefangengenommen wird. Durch das Opfer seines Sohnes bleibt zum einen das Lichtreich unversehrt, zum anderen wird der endgültige Sieg über die Finsternis damit vorbereitet. Um die Lichtelemente zu retten, wird die Welt erschaffen; dabei bildet der „lebendige Geist“ die übrig gebliebenen Lichtelemente zu Sonne, Mond, Gestirne, Himmel und Erde, die somit eine Vermischung von Licht und Finsternis darstellen. Erst der „Dritte Gesandte“, nach Urmensch (Gayomarth) und lebendigem Geist, setzt die Räder (Feuer, Wasser und Wind) in Bewegung, welche das Licht nach oben zur Milchstraße ableiten und letztendlich an die Sonne weitergeben. Danach enthüllt sich der „Dritte Gesandte“ zum Menschenpaar (Adam und Eva), das fortan für das Weltschicksal verantwortlich ist. Um ihrer Rolle gerecht werden zu können, sendet der „Dritte Gesandte“ „Jesus den Glanz“, der den Menschen über die „göttliche Vernunft“ aufklärt. Die Endzeit tritt dann ein, wenn die Lichtbefreiung fast vollendet ist und die materielle Welt zu einem Klumpen zusammengeschmolzen wird. Eine Neuerstehung, nach der endgültigen Trennung von Licht und Finsternis, findet nicht statt. In der manichäischen Weltsicht stehen sich das göttliche Lichtreich und das Reich der Finsternis in absoluter Gegnerschaft gegenüber. Ein Hauptgrundsatz lautet, dass die in der Finsternis gefangenen Lichtelemente keinesfalls verletzt werden dürfen, da dies ihre Befreiung behindert. Daher ist es untersagt, Lebewesen zu töten. Bei der Befreiung der Lichtelemente haben die „Auserwählten“ eine Schlüsselrolle zu spielen. Sie vermeiden jegliche Verletzung des eingeschlossenen Lichtes und alles, was dessen Gefangenschaft verlängern kann, indem sie sich des Geschlechtsverkehrs enthalten und weder Menschen noch Tiere oder Pflanzen verletzen. Die Nahrung wird ihnen von den „Hörern“ besorgt. In der Verdauung der Auserwählten wird das Licht von der Finsternis geschieden, und durch Gesang und Gebet kann es wieder zu Gott zurückkehren. Die Heilsgeschichte endet mit der vollständigen und endgültigen Trennung von Licht und Finsternis. Organisation der manichäischen Gemeinschaft. Mani unterteilte seine Anhänger in zwei Gruppen, die Hörer "(auditores)" und die Auserwählten "(electi)". Den Auserwählten wurden drei ethische Grundsätze (oder Siegel) auferlegt. Die Hörer sollten diese zumindest am Sonntag befolgen. Für den Ritus wichtig waren Gebete, das Rezitieren von Hymnen, die Eucharistiefeier, die wöchentliche Beichte und magische Rituale. Ausbreitung. Der Manichäismus breitete sich in der Spätantike im 3. und 4. Jahrhundert rasch in Persien und den umliegenden Regionen aus. Ein Bruder des persischen Großkönigs Schapur I. konvertierte zum Manichäismus, unter Schapurs Nachfolgern wurden die Manichäer jedoch verfolgt. Ende des 4. Jahrhunderts war der Manichäismus bereits in vielen Teilen des Römischen Reiches präsent, wo schon Kaiser Diokletian gegen Manichäer vorging. Durch rege Missionstätigkeit breitete sich der Manichäismus bis in das Kaiserreich China und Spanien aus. Der Manichäismus wurde 762 unter Bögü Khan Staatsreligion der Uiguren. Die Gründe für den großen missionarischen Erfolg des Manichäismus sind bisher nicht völlig geklärt. Ein Faktor war sicherlich seine Anpassungsfähigkeit an lokale Gegebenheiten: Die Manichäer passten den Wortschatz ihrer Lehre im Osten dem Buddhismus und im Westen dem Christentum an, wobei der spezifische Gehalt ihrer religiösen Botschaft und ihre Identität trotz der unterschiedlichen Terminologie bemerkenswert homogen waren. In Westeuropa gelangte der Einfluss der manichäischen Gemeinden vor allem nach Oberitalien, Spanien, Südfrankreich, teilweise sogar bis in die Rheinebene sowie nach Flandern und Holland. Er war zeitweise eine ernsthafte Konkurrenz für das Christentum und hielt sich trotz heftiger Verfolgung bis ins fünfte Jahrhundert. In China ging die Religion etwa im 14. Jahrhundert unter. Die Manichäer im südwestlichen China zählten zu den einflussreichen Rebellengruppen. Reaktionen von Neuplatonikern, Christen und Muslimen. Im späten 3. Jahrhundert setzte sich der neuplatonische Philosoph Alexander von Lykonpolis kritisch mit dem Manichäismus auseinander. Er hielt ihn für die extremste der pervertierten Varianten des Christentums, die von Sektengründern eingeführt worden seien. Es handle sich um eine irrationale Lehre, die Behauptungen aufstelle, ohne sie plausibel machen zu können. Die Manichäer seien ungebildete, zu logischem Denken unfähige Menschen; ihre Kosmologie und Kosmogonie sei wirr und phantastisch. In Nordafrika war der spätere christliche Kirchenvater Augustinus von Hippo zehn Jahre Hörer (Auditor) der Manichäer. Nach seiner Abwendung von dieser Lehre (und der Hinwendung zum Neuplatonismus und anschließend zum Christentum) bestimmten seine polemischen Schriften gegen die Manichäer bis in das 20. Jahrhundert die europäischen Vorstellungen vom Manichäismus. In welchem Umfang der Manichäismus Augustinus’ Denken mit formte und so Eingang ins (vor allem westliche) Christentum fand, ist nicht bis ins Letzte geklärt. Alfred Adam vertritt die These, Augustinus sei auch als Christ vom Manichäismus beeinflusst gewesen und führt Lehren wie den starken Dualismus (Staaten des Guten und Bösen in seinem Werk "De civitate dei"), die Fegefeuerlehre (Inkarnation der „Hörer“), die Höllenlehre, die Erbsündenlehre, die Lehre der doppelten Prädestination ("electi", "auditores" und Sünder), den Kreislauf (zwei Staaten zu Anfang und zum Ende) und die Körper- und Sexualfeindlichkeit auf den Manichäismus zurück. Auch im Islam fand eine Auseinandersetzung mit Vertretern manichäischer Lehren statt. Bedeutende Persönlichkeiten, die dem Manichäismus zugerechnet wurden, waren Ibn al-Muqaffaʿ und Abū ʿĪsā al-Warrāq. Allerdings hängt der Manichäismus Ibn al-Muqaffaʿs an einer Schrift, die nur in Fragmenten innerhalb einer Widerlegung des Zaiditen al-Qāsim ibn Ibrāhīm (gestorben 860) überliefert ist. Ob Ibn al-Muqaffaʿ wirklich der Autor war, ist unklar. Übertragung der Bezeichnung „Manichäer“ auf andere Gruppen. Bereits in der Spätantike wurde „Manichäer“ von Christen oft als Synonym für „Häretiker“ benutzt. Daher ist es in manchen Fällen schwer zu entscheiden, ob es sich bei den so bezeichneten heterodoxen Gruppen tatsächlich um Manichäer handelte. Auch nachdem der Manichäismus als eigene Religion in Europa verschwunden war, hielt sich die Bezeichnung als polemischer Ausdruck für ketzerische Gruppen, auch wenn diese inhaltlich keine Übereinstimmungen mit der manichäischen Lehre aufwiesen. Parallelen zum manichäischen Dualismus sind bei den mittelalterlichen Bogomilen und Katharern (Albigensern) erkennbar. Beide werden in zeitgenössischen Schriften ihrer Gegner als Manichäer bezeichnet. Ein historischer Zusammenhang dieser Strömungen mit dem Manichäismus ist nicht erwiesen. Literatur. Sammlungen von Aufsätzen zu einzelnen Themen Mittelalter. Der Begriff Mittelalter bezeichnet in der europäischen Geschichte die Epoche zwischen dem Ende der Antike und dem Beginn der Neuzeit (ca. 6. bis 15. Jahrhundert). Sowohl der Beginn als auch das Ende des Mittelalters sind Gegenstand der wissenschaftlichen Diskussion und werden recht unterschiedlich angesetzt. Im Übergang von der Spätantike ins Frühmittelalter zerbrach die politische und kulturelle Einheit des durch die griechisch-römische Antike geprägten Mittelmeerraums. Während das Byzantinische Reich im Osten intakt blieb, ging das Westreich 476 unter. Es bildeten sich neue Reiche innerhalb (wie das Frankenreich, das Westgotenreich auf der Iberischen Halbinsel und die Reiche der Angelsachsen in Britannien) und außerhalb (wie die Herrschaften der Slawen in Ost- und Südosteuropa und die neuen Reichsbildungen in Skandinavien) des ehemaligen weströmischen Reichs. Bevölkert waren diese Reiche von der ansässigen romanisierten Bevölkerung und aus in der Völkerwanderungszeit eingewanderte Gruppen (germanische Stämme und Slawen). Während der antike Kernraum bereits christlich geprägt war, wurden im Mittelalter die übrigen paganen (heidnischen) Gebiete Europas christianisiert. Im Frühmittelalter bildete sich im Wesentlichen die politische Grundordnung späterer Zeiten heraus. Das anschließende Hochmittelalter war gekennzeichnet durch den Aufschwung von Wirtschaft, Wissenschaft und Kultur. Im Spätmittelalter erfolgte der langsame Übergang in die Frühe Neuzeit. Mit dem Islam entstand im 7. Jahrhundert eine neue Religion, die sich infolge der arabischen Eroberungen in West- und Mittelasien, Nordafrika und in Teilen Südeuropas ausbreitete, bevor christliche Herrscher die Rückeroberung in Spanien (Reconquista) und Süditalien/Sizilien einleiteten. In Südosteuropa hingegen drangen seit dem späten 14. Jahrhundert die Osmanen weiter vor. Die vorherrschende Gesellschafts- und Wirtschaftsform des Mittelalters war der Feudalismus. Grundzüge dieser Zeit waren eine nach Ständen geordnete Gesellschaft, ein durch das Christentum bestimmtes Weltbild, eine christlich geprägte Wissenschaft und Literatur, Architektur, Kunst und Kultur sowie Latein als gemeinsame, übergreifende Bildungssprache. Nach dem Großen Schisma von 1054 strebte sowohl die katholische Kirche als auch die orthodoxe Kirche die Einheit des Christentums unter ihrem Dach an. Diese Bemühungen scheiterten jedoch. Von großer Bedeutung für das christliche Europa waren die Juden. Auf Grund des Zinsverbots der katholischen Kirche waren den Christen Geldgeschäfte verboten, nicht aber den andersgläubigen Juden. Sie waren Schutzbefohlene der Landesherren und wurden als Minderheit nur widerwillig geduldet. Aufgrund des Antijudaismus im Mittelalter waren sie Opfer von Judenpogromen und Vertreibungen. Mittelalterlicher Eigenbegriff. Das christliche Mittelalter sah sich selbst noch nicht als ein „Mittelalter“, sondern verstand sich heilsgeschichtlich als eine im Glauben allen anderen Zeitaltern überlegene ' („christliches Zeitalter“), die mit der Geburt Christi begann und erst mit dem Jüngsten Tag enden sollte. Während die vorausgegangenen Weltalter der Heilsgeschichte gemäß der Lehre von den drei, vier oder sechs Weltaltern (') noch weiter unterteilt wurden, gab es für die interne Periodisierung der ' kein fest etabliertes Epochenschema, sondern lediglich Ansätze, wie die Lehre von den sieben Perioden der Kirche (abgeleitet aus der Johannesapokalypse) oder die von Joachim von Fiore begründete Einteilung in eine Zeit des „Sohnes“ (von der Geburt Christi bis etwa 1260) und eine darauf folgende Zeit des „Geistes“. Die Vorstellung, dass auch innerhalb der ' geschichtliche Entwicklung im Sinne von Fortschritt oder Verfall stattfinden könnte, war dem christlichen Mittelalter dabei keineswegs fremd. Sie war jedoch aus der Sicht der römischen Kirche prekär, weil diese einerseits eine Weiterentwicklung oder Überbietung der christlichen Lehre seit der Zeit des Evangeliums und der Kirchenväter nicht zulassen oder zugeben und andererseits auch die eigene Entwicklung nicht unter dem Gesichtspunkt des Verfalls betrachten lassen wollte. Soweit sich entsprechende Geschichtsvorstellungen mit kirchenkritischen Reformkonzepten und eschatologischen Berechnungen der Endzeit verbanden, wurden sie deshalb, wie die Lehre Joachims und seiner Nachfolger, von der römischen Kirche bekämpft. In der politischen, dabei gleichfalls heilsgeschichtlich ausgerichteten Geschichtsbetrachtung traten Periodisierungsvorstellungen besonders in Form der Lehre von der ' auf, wonach die römische Kaiserwürde zunächst auf die oströmischen Kaiser von Byzanz, dann in der ' Karls des Großen auf die Franken und schließlich mit der Kaiserkrönung Ottos des Großen auf die Kaiser des römisch-deutschen Reiches übertragen wurde. Die Translatio-Lehre war mit der christlichen Weltalterlehre im Ansatz vereinbar, da sie die Vorzugsstellung und dogmatische Einheit der ' nicht in Frage stellte und ihr Konfliktpotential stattdessen in der Beziehung zwischen Papst und Kaisertum lag. Ein Periodensystem für die Geschichtsschreibung zur christlichen Epoche ergab sich jedoch aus dieser Vorstellung nicht. Geschichte des Begriffs „Mittelalter“. Der Begriff "Mittelalter" wurde in der Form ' („mittleres Zeitalter“) erstmals im 14. Jahrhundert von italienischen Humanisten eingeführt, die damit dann in den beiden folgenden Jahrhunderten zugleich auch das Verständnis der eigenen Epoche als Epoche der Wiedergeburt (Renaissance) begründeten. In der humanistischen Geschichtsbetrachtung wurde der christliche Glaube nicht in seiner allgemeinen Verbindlichkeit, sondern in seiner Gültigkeit als Maßstab für die Bewertung der weltgeschichtlichen Entwicklung abgelöst und durch ein profangeschichtliches, nicht mehr primär von Theologen, sondern von Dichtern und Philologen konstruiertes Ideal der griechisch-römischen Antike ersetzt. Aus humanistischer Sicht war das Mittelalter angeblich ein „dunkles Zeitalter“ ('), eine Epoche des Zerfalls und des Niedergangs, in der der sprachliche, literarische, technologische und zivilisatorische Entwicklungsstand der griechisch-römischen Antike bedingt durch den Einfall germanischer Völker und das dadurch herbeigeführte Ende des Weströmischen Reiches verloren ging, um erst in der eigenen Zeit durch die Wiederentdeckung antiker Quellen und die Wiederbelebung antiker Stilnormen zum Gegenstand der Nachahmung (') oder sogar Überbietung (') zu werden. Mit dem humanistischen Begriff der ' verwandt, aber in der Bedeutung abweichend ist der besonders in der englischsprachigen Geschichts- und Frühgeschichtsforschung etablierte Begriff der „dunklen Jahrhunderte“ "()", worunter allgemein Perioden fehlender oder in der Forschung noch nicht aufgearbeiteter schriftlicher bzw. archäologischer Überlieferung, meist als Zwischenphasen gegenüber vorausgegangenen, vergleichsweise besser dokumentierten Perioden verstanden werden. In der Geschichte Englands zum Beispiel bezeichnet man so den Zeitraum nach dem Ende der römischen Besatzung bis in die Zeit der Einwanderung der Angeln, Sachsen und Jüten (etwa 5./6. Jahrhundert). Der Begriff des Mittelalters etablierte sich in der Folgezeit als Epochenbegriff mit tendenziell abwertender Bedeutung, wobei die Epochengrenzen meist einerseits mit dem Ende des weströmischen Kaisertums im Jahr 476 und andererseits mit dem Ende des Oströmischen Reiches durch die osmanische Eroberung Konstantinopels im Jahr 1453 angesetzt wurden, letzteres auch im Hinblick darauf, dass byzantinische Gelehrte bei ihrer Flucht in den Westen wichtige griechische Handschriften mitbrachten, die dem lateinischen Mittelalter unbekannt geblieben oder nur durch arabische Übersetzungen bekannt geworden waren. Eine dezidiert positive Neubewertung, zum Teil verbunden mit nostalgischer Verklärung und mit dem Bedürfnis nach Bestimmung der eigenen christlichen oder nationalen Wurzeln und Identität, kam erst in der Zeit der ausgehenden Aufklärung und besonders in der Romantik auf. Das war seit dem Ausgang des 18. Jahrhunderts ein wesentlicher Antrieb für die verstärkte philologische und historische Beschäftigung mit dem Mittelalter. In der modernen Forschung, die sich auch neuer Fragestellungen und Methoden bedient, wird wesentlich differenzierter geurteilt. So werden die originären Leistungen des Mittelalters und die durchaus vorhandenen Kontinutitätslinien betont, so dass das Mittelalter nicht mehr wertend an der humanistischen Elle antiker „Größe“ gemessen wird. An die Stelle nationaler tritt häufig eine europäisch ausgerichtete Rückbesinnung, die die „Geburt Europas im Mittelalter“ (Jacques Le Goff) betont. Außerhalb der Fachsprache werden heute Denk- oder Verhaltensweisen oder ganze Kulturen dennoch überspitzt als „mittelalterlich“ bezeichnet, um ihnen besondere Rückständigkeit und einen Mangel an Aufklärung und Humanität zuzuschreiben. Zeitliche Einordnung. Das europäische Mittelalter erstreckt sich ungefähr vom Ausklang der Völkerwanderungszeit, deren Ende in der Forschung in das Jahr 568 datiert wird, bis zum Zeitalter der Renaissance seit der Mitte des 15. Jahrhunderts bzw. bis zum Beginn des 16. Jahrhunderts. Bezüglich der Problematik der Datierung des Beginns des Mittelalters und der folgenden Entwicklung siehe auch Ende der Antike, Spätantike und Frühmittelalter. Die Datierungsansätze sind nicht immer einheitlich, denn es kommt entscheidend darauf an, welche Aspekte der Entwicklung betont werden und welche Region man jeweils betrachtet. Stellt man zum Beispiel den Einfluss des Islam und die Eroberung weiter Teile des einstmals römischen Gebietes durch die Araber in den Vordergrund und blickt eher auf den östlichen Mittelmeerraum als auf Westeuropa, so kann man Mohammeds ' (622) oder den Beginn der arabischen Expansion (ab 632) als Ende der Spätantike und Beginn des Mittelalters sehen. Desgleichen gibt es unterschiedliche Datierungsmöglichkeiten für das Ende des Mittelalters, beispielsweise die Erfindung des Buchdrucks (um 1450), die Eroberung von Konstantinopel (1453), die Entdeckung Amerikas (1492), der Beginn der Reformation (1517) oder auch der große Bauernkrieg (1525). Andere Ansätze weiten den Zeitraum noch weiter aus (sogenanntes „langes Mittelalter“ bis ins 19. Jahrhundert, wofür z. B. Jacques Le Goff eintritt), doch sind dies Minderheitsmeinungen. Fokussiert man einzelne Länder, kann man zu verschiedenen Eckdaten kommen. So endete die Antike am Rhein oder in Britannien aufgrund der dortigen Entwicklungen während der Völkerwanderung deutlich früher als etwa in Italien, Kleinasien oder Syrien. Auf der anderen Seite war zum Beispiel zu Beginn des 15. Jahrhunderts in Italien bereits das Zeitalter der Renaissance angebrochen, während man die gleiche Zeit in England noch zum Mittelalter rechnet. Im Norden Europas folgt der Völkerwanderungszeit die „germanische Eisenzeit“, die in Schweden durch die Vendelzeit (650–800) abgelöst wird. In Skandinavien beginnt um 800 die Wikingerzeit, die 1050 endet und dann in das „nordische Mittelalter“ übergeht. Untergliederung des Mittelalters. a> dessen Schwert als Zeichen der Unterwerfung (aus einer Handschrift um 1200) Diese Trinität war an der Vorstellung von "Aufstieg", "Blüte" und "Verfall" ausgerichtet, wird in der neueren Forschung aber sehr viel differenzierter betrachtet. Durch veränderte Fragestellungen, insbesondere auch die Berücksichtigung wirtschafts-, sozial- und kulturgeschichtlicher Aspekte, ging man allmählich von dem an der Herrschergeschichte ausgerichteten Ordnungsmodell ab und betonte die Veränderungen des 11./12. Jahrhundert als entscheidende Zäsur des als "Mittelalter" bezeichneten Jahrtausends. Oft führt das dazu, dass man nur noch das "frühere" vom "späteren" Mittelalter unterscheidet. Von einzelnen Forschern vorgenommene abweichende Ein- und Zuordnungen sind auch von unterschiedlichen Schwerpunktsetzungen beeinflusst. Frühmittelalter. Die Völkerwanderung wird von der Forschung als Bindeglied zwischen Spätantike und frühen Mittelalter angesehen. Mit dem Ende der Völkerwanderung, das traditionell mit dem Einfall der Langobarden in Italien (568) verbunden wird, begann zumindest in West- und Mitteleuropa endgültig das Frühmittelalter. Der Übergang ist somit im 6. Jahrhundert fließend. In Ostrom bzw. Byzanz hingegen hielten sich antike Verwaltungsstrukturen noch einige Jahrzehnte länger; antike Kulturelemente wurde in Byzanz auch später noch gepflegt. Im Frühmittelalter fanden viele einschneidende Entwicklungen statt, die Auswirkungen bis in die Moderne haben. Es vollzog sich eine Umformung des antiken römischen Erbes, doch trotz zahlreicher Brüche sind ebenso viele Kontinuitätslinien zu erkennen. Entgegen der älteren Deutung als „dunkle“ oder „rückständige“ Epoche wird das Frühmittelalter in der modernen Forschung wesentlich differenzierter betrachtet. Es ist sowohl von Kontinuitäten als auch vom Wandel im politischen, kulturellen und gesellschaftlichen Bereich gekennzeichnet. Es vollzog sich die Teilung Europas und des Mittelmeerraums in einen christlichen und einen islamischen Teil sowie des christlichen Teils in einen lateinischen und einen orthodoxen, der den Kulturkreis von Byzanz umfasste. Mehrere der im Frühmittelalter entstandenen Reiche bildeten die Grundlage für heute noch existierende Staaten. Die Christianisierung kam auch in bisher paganen („heidnischen“) Gebieten in Gang, zum Beispiel östlich des Rheins und später in Skandinavien, unter anderem durch die Tätigkeit irischer Missionare. Etwa um 500 trat der bedeutende Frankenkönig Chlodwig I. mit seinem Adel geschlossen zum katholischen Christentum über, dem Glaubensbekenntnis der gallischen Mehrheitsbevölkerung. Unter den Merowingern begann der Aufstieg des Frankenreichs, das schließlich auf der Grundlage der Überreste des Weströmischen Reiches und der Reiche mehrerer germanischer Völker (so der Burgunder und der Westgoten in Gallien) seine Vorherrschaft in West- und Mitteleuropa begründete. Seit dem späten 7. Jahrhundert lag die wahre Macht im Frankenreich jedoch bei den Karolingern, die von 751 bis ins 10. Jahrhundert die fränkischen Könige stellten. Die Angelsachsen siedelten sich seit der Mitte des 5. Jahrhunderts in Britannien an und gründeten dort mehrere Reiche (Heptarchie), bevor Alfred der Große im späten 9. Jahrhundert ein vereinigtes angelsächsisches Reich schuf. England wurde 1066 von den Normannen unter Wilhelm erobert. Das Langobardenreich in Italien blieb bis ins 8. Jahrhundert bestehen, als es von den Franken erobert wurde. In Hispanien entstand das Westgotenreich, das im frühen 8. Jahrhundert infolge der arabischen Angriffe zusammenbrach. Noch im 8. Jahrhundert begann dort von Asturien ausgehend die Reconquista, die Rückeroberung der arabisch besetzten Gebiete. Im maurischen Spanien (Al-Andalus) begann aber auch eine kulturelle Blütezeit. Die Islamische Expansion hatte auch für Byzanz dramatische Folgen, da weite Teile des Reiches (so Syrien, die Kornkammer Ägypten und Karthago) an die Araber fielen. Dennoch konnte Byzanz den Kernraum Kleinasien halten. Das Frankenreich war das bedeutendste germanisch-romanische Nachfolgereich im Westen. Das 476 im Westen zusammengebrochene Römische Reich stellte während des gesamten Mittelalters ein wesentlicher Referenzpunkt politischen Denkens. Den Höhepunkt dieser Entwicklung stellte die Krönung Karls des Großen zum „römischen Kaiser“ (Translatio imperii) durch den Papst an Weihnachten des Jahres 800 dar. Karl erweiterte die Grenzen des Reiches und sorgte für eine kulturelle Neubelebung. Nach seinem Tod 814 zerfiel das Frankenreich jedoch allmählich. Aus der westlichen Hälfte entstand das spätere Frankreich, während sich aus der Osthälfte das Ostfrankenreich und daraus erst im Hochmittelalter das später sogenannte „Heilige Römische Reich“ entwickelte. Unter den Ottonen nahm das Ostfrankenreich eine quasi-hegemoniale Stellung im lateinischen Europa ein und expandierten, so nach Osten in slawisches Gebiet und nach Süden, wo das Reich nun auch Reichsitalien umfasste. Mit der Kaiserkrönung Ottos I. im Jahr 962 wurde das Kaisertum erneuert, im Gegenzug leisteten die Kaiser als weltliche Schutzherren der Kirche den Päpsten Sicherheitseide. Seit der Ottonenzeit kamen als Träger der erneuerten „römischen“ Kaiserwürde faktisch nur noch die ostfränkischen/römisch-deutschen Könige in Frage. Daneben hatte der Papst durch die sogenannte Pippinische Schenkung 754 neben seiner geistlichen auch weltliche Macht erhalten. Der jeweilige universale Geltungsanspruch von Kaiser und Papst sollte später (vor allem ab dem 11. Jahrhundert) häufiger zu Spannungen führen, wobei die entscheidende Frage war, ob der gekrönte Kaiser dem Papst untergeordnet sei oder nicht. Gegen Ende des Frühmittelalters ereigneten sich die Raubzüge der Wikinger (ca. 800–1050) und der Magyaren („Ungarneinfälle“, ca. 900–955). Die Britischen Inseln und Nordfrankreich hatten am meisten unter den Angriffen der Wikinger zu leiden, wobei die Wikinger auch eigene Herrschaftsgebiete errichteten. Im 10. und 11. Jahrhundert kam es in den karolingischen Nachfolgereichen und im angelsächsischen England zu einer staatlichen Konsolidierung. Zusammen mit der Eroberung Nordafrikas und eines Großteils der Iberischen Halbinsel durch die Araber löschten diese Plünderungen die letzten spätantiken Strukturen aus. Es entstand in Westeuropa ein feudalistischen Wirtschaftssystems, allerdings sind in der neueren Forschung die Details umstritten. Wirtschaftlich spielte im Frühmittelalter im lateinischen Westen die Naturalwirtschaft eine Rolle, wobei das System der Grundherrschaft herauszustellen ist. Dennoch blieb die Geldwirtschaft ein wichtiger Faktor, und auch der Fernhandel kam nicht völlig zum Erliegen. Es kam auch wieder zu einem gewissen wirtschaftlichen Aufschwung. Wesentliche Kulturträger waren Byzanz, die Klöster, insbesondere die des Benediktinerordens, sowie die Gelehrten des arabisch-islamischen Kulturkreises, durch die zumindest ein Teil der antiken Literatur und Wissenschaften bewahrt werden konnte. Hochmittelalter. Das Hochmittelalter war die Blütezeit des Rittertums, des Lehnswesens und des Minnesangs. Die Bevölkerung begann zu wachsen (begünstigt unter anderem durch landwirtschaftliche Fortschritte und die mittelalterliche Warmzeit), Handel und Gewerbe nahmen zu und zahlreiche Städte prosperierten. Es kam zu einer neuen kulturellen und wissenschaftlichen Entfaltung, wobei Bildung nun nicht länger ausschließlich dem Klerus vorbehalten war. Allerdings verlief die Entwicklung in den einzelnen Reichen recht unterschiedlich. Das Hochmittelalter war eine Epoche der Auseinandersetzung zwischen weltlicher (Kaisertum/Imperium) und geistlicher (Papst/Sacerdotium) Universalgewalt im Investiturstreit. Dieser brach im römisch-deutschen Reich in der Regierungszeit Heinrichs IV. aus und konnte zwar durch Heinrich V. 1122 beigelegt werden; der universale Geltungsanspruch von Kaiser und Papst führte aber in der Folgezeit bis ins 14. Jahrhundert zu Konflikten. Das römisch-deutsche Reich verlor seine hegemoniale Stellung. Diese Machtstellung war während der Herrschaft der Salier durch den Investiturstreit und Konflikte zwischen Königtum und den Großen (so durch Missachtung der konsensualen Herrschaftspraxis seitens des Königtums) erschüttert worden. Den Staufern gelang es im 12./13. Jahrhundert nicht, den Verlust der Königsmacht im Reich zu verhindern, stattdessen gewannen die Landesherren an Einfluss. Die aktive Italienpolitik der römisch-deutschen Könige band zudem starke Kräfte in Reichsitalien. Friedrich I. versuchte unter Wahrung kaiserlicher Rechte und Ansprüche ("Honor Imperii"), die Herrschaftsgewalt in Reichsitalien zu stärken, konnte aber den Widerstand des Lombardenbundes nie völlig brechen und geriet zudem in Konflikt mit Papst Alexander III. Heinrich VI. gelang die Gewinnung des Königreichs Sizilien, das Heinrichs Sohn Friedrich II. zu seinem Herrschaftsmittelpunkt machte. Friedrich II. war gebildet und gilt als einer der bedeutendsten mittelalterlichen Kaiser, doch geriet er in Konflikt mit dem Papsttum. Nach seinem Tod 1250 brach die Machtstellung des staufischen Hauses im Reich faktisch zusammen. In Nord- und Osteuropa bildeten sich im Zuge der Christianisierung (beginnend bereits im Frühmittelalter) neue Königreiche wie England (das 1066 von den Normannen erobert wurde, die auch in Unteritalien aktiv waren), Norwegen, Dänemark, Polen, Ungarn und Böhmen. Ebenso entstanden noch weiter im Osten unter dem Einfluss der Wikinger und orthodoxer Missionare aus dem Byzantinischen Reich, das um 1000 seinen Höhepunkt erreichte, weitere Reiche wie das Kiewer Reich. Während Byzanz durch den Vierten Kreuzzug im Jahre 1204 eine entscheidende Schwächung seiner Macht erfuhr, wurde das Reich der Kiewer Rus im Zuge des Mongolensturms zerstört; weitere osteuropäische Reiche (vor allem Polen und Ungarn) entgingen nur knapp dem Untergang. Die Rückeroberung der von den Mauren eroberten Gebiete auf der Iberischen Halbinsel durch die benachbarten christlichen Königreiche wurde im Hochmittelalter weiter vorangetrieben. Auf Sizilien wurden die Araber von Normannen zurückgedrängt und das Königreich Sizilien gegründet, das neben der Insel auch Unteritalien umfasste. Im lateinischen Europa gewannen Frankreich und England zunehmend an politischem Einfluss. Das englische Haus Plantagenet verfügte über große Besitzungen in Frankreich, so dass die englischen Könige seit der Zeit Heinrichs II. für diese Territorien in Lehnsbindung zum französischen Königtum standen, was aber wiederholt zu Kampfhandlungen mit den französischen Königen führte. Die Macht des englischen Königtums war seit der Magna Carta von 1215 durch weitere Einbeziehung der Großen eingeschränkt, denen nun grundlegende Rechte zugestanden wurde. Das französische Königtum wiederum konsolidierte im 12./13. Jahrhundert seine Stellung, drängte unter Philipp II. den Einfluss der Plantagenets im 13. Jahrhundert zurück und festigte in der Zeit Ludwigs IX. die politische Stellung Frankreichs im lateinischen Europa. England und Frankreich verfügten über vergleichsweise effektive königliche Verwaltungssysteme und entwickelten sich langsam in „nationale Königreiche“, ohne aber bereits Nationalstaaten zu sein. Nach dem Kreuzzugsaufruf Papst Urban II. auf der Synode von Clermont (1095) begannen die Kreuzzüge in den Orient. Erklärtes Ziel der Kreuzfahrer war die Befreiung der heiligen Stadt Jerusalem von den Sarazenen. Neben religiösen und sozialen Motiven veranlassten aber teilweise auch Beute– und Landgier die Kreuzfahrer zur Teilnahme an den Kreuzzügen. Den Kreuzfahrern gelang 1099 die Eroberung der Stadt Jerusalem und die Errichtung von vier sogenannten Kreuzfahrerstaaten, die aber bis 1291 nach und nach verlorengingen. Nach 1099 traten die religiösen Ziele bei den späteren Kreuzzügen in den Hintergrund, oftmals zugunsten von Machtpolitik und wirtschaftlichen Interessen. So wurden auch Kreuzzüge gegen Christen geführt (etwa 1204 gegen Byzanz und im Spätmittelalter in Italien gegen politische Gegner des Papsttums). Im Laufe der Kreuzzüge entwickelte sich wieder der Fernhandel mit der Levante, von dem insbesondere die italienischen Stadtstaaten profitieren konnten, vor allem die Republik Venedig. Mit dem Handel gewann die Geldwirtschaft an Bedeutung. Ebenso gelangten neue bzw. wiederentdeckte Ideen nach Europa; so wurde zum Beispiel Aristoteles, dessen Schriften ins Lateinische übersetzt wurden, zur wichtigsten nicht-christlichen Autorität in der Scholastik. In Italien und später in Frankreich entstanden die ersten Universitäten. Vor allem in Mitteleuropa entstand das Zunftwesen, das die sozialen und wirtschaftlichen Vorgänge in den Städten stark prägte. Die wichtigsten Ordensgemeinschaften des Hochmittelalters waren neben den Zisterziensern die Bettelorden der Franziskaner und Dominikaner. Daneben entstanden neue christliche Laienbewegungen, die von der katholischen Kirche als häretisch eingestuft wurden, darunter die Glaubensbewegungen der Katharer oder Waldenser. Die Inquisition wurde auch deshalb ins Leben gerufen, um gegen sogenannte Ketzer vorzugehen. Spätmittelalter. Europa erlebte nach Ansicht der älteren Forschung ab ca. 1300 eine gewisse Krisenzeit. Objektiv feststellbar sind etwa Wetterveränderungen, die sich nachteilig auswirkten, doch dominierte in Deutschland lange Zeit auch die Ansicht, dass es zu einer politischen Krisenzeit gekommen sei. Diese Forschungsdebatte betraf allerdings stärker die deutsche Mediävistik, weil dort die Abfolge des Mittelalters in drei Stufen prägend war. In Italien oder Frankreich wurde keine derartig scharfe Trennung vorgenommen. In der neueren deutschsprachigen Forschung wird wesentlich differenzierter geurteilt und unter anderem die Übergänge in die beginnende Neuzeit betont; hinzu kommen neue Forschungsansätze und neue Quellenbefunde. Insofern hat ein Paradigmenwechsel in der Spätmittelalterforschung stattgefunden. Im Heiligen Römischen Reich (der Begriff taucht erstmals 1254 in den Quellen auf) verlor die ohnehin nicht besonders ausgeprägte Königsmacht weiter an Einfluss, während die Macht der zahlreichen weltlichen und geistlichen Landesherren erstarkte. Die Königswahl oblag seit dem Interregnum den Kurfürsten, die auch Einfluss auf die Reichspolitik nahmen. Das Königtum musste verstärkt eine Hausmachtpolitik betreiben, um den Verlust des schwindenden Reichsguts zu kompensieren, wobei die Häuser Habsburg, Luxemburg und Wittelsbach am einflussreichsten waren. Das Kaisertum wurde nach dem Ende der Stauferzeit durch die Kaiserkrönung Heinrichs VII. 1312 erneuert. In der Zeit seines Nachfolgers Ludwigs IV. kam es zum letzten Grundsatzkonflikt zwischen Kaisertum und Papsttum. Als bedeutendster Kaiser des Spätmittelalters wird in der Regel Karl IV. betrachtet, der den luxemburgischen Hausmachtkomplex erheblich vergrößerte. Eine Art Reichsgrundgesetz bildete die in seiner Regierungszeit erarbeitete Goldene Bulle von 1356. Das spätmittelalterliche römisch-deutsche Königtum litt dennoch unter erheblichen strukturellen Mängeln, so dass sich keine starke Zentralgewalt im Reich entwickelte. Mit dem Tod Kaiser Sigismunds im Jahr 1437 erlosch die männliche Linie der Luxemburger; ihr Erbe im Reich traten die Habsburger an, die bis zum Ende des Reichs 1806 fast kontinuierlich die römisch-deutschen Kaiser stellten. Die langen Regierungszeiten von Friedrich III. und Maximilian I. stabilisierten den habsburgischen Hausmachtkomplex, den Maximilian im Westen durch Teile des burgundischen Erbes noch einmal erweitern konnte. Eine angestrebte umfassende Reichsreform gelang jedoch nicht. Im Jahre 1291 fiel Akkon, die letzte Festung der Kreuzfahrer im Nahen Osten, die Autorität des Papstes schwand im Zuge des sogenannten Abendländischen Schismas. Die schlimmste Katastrophe in der sogenannten Krise des 14. Jahrhunderts stellte jedoch die Pest dar, der „Schwarze Tod“, die ab 1347 von der Halbinsel Krim im Schwarzen Meer kommend die Länder Europas verheerte und zwischen einem Drittel und der Hälfte der europäischen Bevölkerung, vor allem in den Städten, das Leben kostete. Die Entvölkerung führte zu Aufständen und einem Wandel der Sozialstrukturen, die das Rittertum zugunsten des Bürgertums schwächten und in der katholischen Kirche einige Reformbewegungen auslösten. Während das Byzantinische Reich nach der Eroberung Konstantinopels 1204 während des Vierten Kreuzzuges langsam aber sicher seinem Untergang entgegenging, gewannen die christlichen Reiche auf der iberischen Halbinsel nach dem Sieg bei Las Navas de Tolosa im Jahre 1212 immer weiter an Boden. 1492 endete die Reconquista mit der Eroberung des Emirats von Granada. Infolge der Reconquista entstanden die christlichen Königreiche Portugal und Spanien (bestehend aus den vereinigten Reichen Aragon und Kastilien). Muslime und Juden, die nicht gewillt waren zum Christentum zu konvertieren, wurden aus Spanien vertrieben ("Siehe auch: Alhambra-Edikt"). 1453 fiel Konstantinopel an die osmanischen Türken, während im römisch-deutschen Reich der Buchdruck mit beweglichen Lettern erfunden wurde. Im 14. Jahrhundert begann aufgrund von Erbstreitigkeiten um die französische Krone der Hundertjährige Krieg zwischen Frankreich und England. Von 1340 bis etwa 1420 behielten die Engländer weitgehend die Oberhand. Jeanne d’Arc, heute als die "Jungfrau von Orleans" bekannt, gab im frühen 15. Jahrhundert den Franzosen wieder Hoffnung, die bei Orleans 1429 einen Sieg errangen und in die Offensive gingen. Jeanne d'Arc wurde 1431 von den Engländern zum Tode verurteilt, doch Frankreich konnte den Krieg 1453 siegreich beenden. Während die französischen Könige aus dem Haus Valois nun bestrebt waren, ihre Macht wieder zu festigen, gerieten sie gleichzeitig in Konflikt mit dem Haus Burgund, einer Nebenlinie des französischen Königshauses, das eigene Interessen verfolgte. England litt in der zweiten Hälfte des 15. Jahrhunderts unter schweren inneren Unruhen, die schließlich zum offenen Thronkampf der Häuser York und Lancaster führten, der als die Rosenkriege bekannt ist. Am Ende setzte sich 1485 das Haus Tudor durch. Kunst und Wissenschaften befanden sich im Spätmittelalter im Aufbruch. Die bereits im Hochmittelalter erfolgte Gründung der ersten Universitäten, vor allem in Italien (Bologna) und Frankreich (Paris), verhalf den Wissenschaften und der Philosophie zu einem neuen Aufschwung, denn sie verbreiten die Lehren antiker Gelehrter und ebneten so den Boden für die Epoche der Renaissance. Den Künstlern eröffneten sich neue Möglichkeiten dank Auftragsarbeiten für das selbstbewusste Bürgertum: Die bisher auf kirchliche Motive beschränkte Malerei wurde nun auf andere Bereiche ausgeweitet, auch die Dreidimensionalität wurde von den Malern entdeckt. Die Architektur lehnte sich infolge der Renaissancebewegung wieder an alte römische und griechische Vorbilder an. Die Wirtschaft erlebte trotz der Pest eine Blüte. Das Spätmittelalter war die Zeit des aufsteigenden Bürgertums der Städte und der Geldwirtschaft. Genannt seien die italienischen Stadtstaaten, die Städte Flanderns und der Städtebund der Hanse an Nord- und Ostsee. Die Hanse bewirkte durch den schwunghaften Handel eine weitere Besiedelung Nord- und vor allem Osteuropas durch hauptsächlich deutsche Kolonisten ("Siehe auch: Ostkolonisation"). Durch die Handelskontakte entstanden daneben in Russland eine Reihe neuer Fürstentümer, die nach und nach das mongolische Joch abschüttelten. Aus dem mächtigsten von ihnen, dem Fürstentum Moskau, sollte sich später das russische Zarenreich entwickeln. Ende des Mittelalters. a>s in einer Darstellung aus dem 15. Jahrhundert Wie hinsichtlich des Übergangs von der Antike ins Mittelalter, so sind auch für das Ende des Mittelalters verschiedene Forschungsansätze möglich. Es handelt sich letztlich um fließende Übergänge und nicht um einen zeitlich exakt datierbaren Bruch. Als wesentlich für den Übergang vom Mittelalter zur Neuzeit betrachtet man im Allgemeinen die Zeit der Renaissance (je nach Land spätes 14. Jahrhundert bis 16. Jahrhundert), die Erfindung des modernen Buchdrucks mit beweglichen Lettern um 1450 und die damit beschleunigte Verschriftlichung des Wissens, die Entdeckung insbesondere der "Neuen Welt" durch Christoph Kolumbus 1492, oder auch den Verlust des Einflusses der institutionalisierten katholischen Kirche und den Beginn der Reformation. Diese Ereignisse sind alle zwischen der Mitte des 15. und der Schwelle zum 16. Jahrhundert anzusiedeln. Im selben Zeitraum kann man das Ende des Mittelalters in Deutschland auch mit der Reichsreform als dem verfassungsrechtlichen Ende des klassischen Feudalismus lokalisieren. Angeführt wird ferner die Eroberung Konstantinopels durch die Osmanen (1453), da mit dem Untergang des Byzantinischen Reiches das letzte lebendige Staatsgebilde der Antike unterging. Der dadurch ausgelöste Strom byzantinischer Flüchtlinge und Gelehrter nach Italien wird für den Beginn der Renaissance als mitverantwortlich angesehen. Darüber hinaus wurden die Handelsrouten nach Asien durch die Ausbreitung des Osmanischen Reiches blockiert, sodass westeuropäische Seefahrer neue Handelswege erkundeten. Die Suche nach einem Seeweg nach Indien führte unter anderem zur Entdeckung Amerikas 1492. Juden im mittelalterlichen Europa. Die Juden waren im mittelalterlichen Europa eine Minderheit mit eigenen Traditionen, eigener Kultur, Sprache und Religion. Zunächst im Ostfrankenreich, dann im Heiligen Römischen Reich unterstanden sie in besonderer Weise dem König bzw. dem römisch-deutschen Kaiser, waren aber auch Schutzbefohlene anderer Herren. In Mitteleuropa interagierten sie mit einer ihnen feindlichen durch das Christentum geprägten Gesellschaft, auf der Iberischen Halbinsel bis zur Reconquista mit einer durch den Islam geprägten, die ihre Fähigkeiten zu nutzen wusste. Die im Mittelalter auf der Iberischen Halbinsel ansässigen Juden werden als Sefardim, die im übrigen Europa ansässigen als Aschkenasim bezeichnet. Den Christen war es bis zum 15. Jahrhundert nach dem kanonischen Recht verboten, Geld gegen Zinsen zu verleihen. Nicht so den Juden. Da ihnen das Ausüben eines zunftgemäßen Gewerbes und die Beschäftigung mit dem Ackerbau verboten waren, verdienten sie sich ihren Lebensunterhalt im Handel, als Pfandleiher oder im Zins- und Wechselgeschäft. Im Frühmittelalter kam es kaum zu gewaltsamen Übergriffen gegen Juden, die bereits im Frankenreich eine durchaus privilegierte Sonderstellung genossen, wenngleich sie rechtlich eingeschränkt waren. Bis zum Beginn des Ersten Kreuzzugs (1099) lebten die Juden im mittelalterlichen Europa relativ sicher. In dessen Verlauf wurden viele Juden dann jedoch vor die Wahl „Taufe oder Tod“ gestellt. Die Kreuzfahrer wollten sich zunächst der „Ungläubigen“ im eigenen Land entledigen. Tausende Juden, die nicht zum Christentum konvertieren wollten, wurden von den Kreuzfahrern erschlagen. Nur in sehr wenigen Fällen (so in Speyer durch den bischöflichen Stadtherrn) wurden Juden vor Übergriffen geschützt. In der folgenden Zeit kam es immer wieder zu Ausweisungen von Juden und zu gewaltsamen Übergriffen, so auch in Frankreich und England im 13. Jahrhundert. Mit der Pest begann 1349 eine neue Welle von Pogromen an Juden. Sie wurden beschuldigt, die Brunnen vergiftet zu haben, um alle Christen auszurotten. Die Überlebenden ließen sich in Osteuropa nieder. Das Spätmittelalter bis hinein in die frühe Neuzeit war geprägt durch zunehmende Judenfeindlichkeit. Die in den Städten ansässigen Juden wurden gezwungen, in Ghettos zu leben. Nach Lockerung des Zinsverbots der katholischen Kirche verloren sie an wirtschaftlicher Bedeutung. Zunehmend waren jetzt auch Christen – nun von der Kirche geduldet – als Kaufleute und als Geldverleiher tätig, darunter Bürger und hohe Geistliche. Aber nicht nur finanzielle, sondern auch politische und religiöse Ursachen schwächten die Position der Juden. In der durch das Christentum geprägten Gesellschaft wuchs der religiöse Hass gegen die Andersgläubigen. Im Zusammenwirken führten religiöse, sozialpsychologische, politische und wirtschaftliche Momente immer öfter zu antijüdischen Aktionen. Die Folge waren die Judenvertreibungen und Pogrome des Spätmittelalters, die erst im 16. Jahrhundert endeten. Populäre Mythen, Missverständnisse und historische Streitpunkte. Bereits in der Renaissance wurde die Epoche zwischen der Antike und der damaligen Gegenwart als ein Zeitalter betrachtet, in dem das Wissen und die Werte der antiken Kulturen in Vergessenheit geraten waren, woraus sich die kulturelle und geistige Unterlegenheit des Mittelalters ableiten ließ. Diese Bewertung wurde im 19. Jahrhundert im Zuge der aufkommenden Romantik übernommen und weiter ausgebaut, wobei die Rezeption vergangener Zeiten gemäß der Aufklärung, der Moral des Viktorianischen Zeitalters und durch „Fortschrittsgläubigkeit“ und Vernunftsorientierung beeinflusst wurde. Dadurch entstand im 19. Jahrhundert eine moderne und bis heute populäre Rezeption des historischen Mittelalters, die im Großen und Ganzen eher auf dem romantischen Zeitgeist als auf historischen Quellen basiert. Im Laufe der Zeit haben sich auf diese Weise Vorstellungen vom historischen Mittelalter herausgebildet, die keine historische Grundlage haben und sich dennoch einer breiten Bekanntheit erfreuen. Die Menschen des Mittelalters glaubten, die Erde sei flach.. Dieses moderne Vorurteil wird durch historische Quellen nicht gestützt. Die bekannteste Abbildung, welche oft als symbolischer „Beweis“ herangezogen wird, ist der Holzstich von Flammarion, der jedoch aus dem Jahr 1888 stammt und deshalb nichts beweist. Die Behauptung, Menschen des Mittelalters glaubten, dass die Erde flach sei, taucht zum ersten Mal in der ersten Hälfte des 19. Jahrhunderts auf. Vor allem Washington Irving trug wesentlich zur Festigung des Mythos bei. In seiner Kolumbus-Biografie von 1828 unterstellte er den Matrosen, sie hätten Angst gehabt, vom Rand der „Erdenscheibe“ herunterzufallen. Die im Mittelalter maßgeblichen Ideen des Aristoteles und das ptolemäische Weltbild beschreiben die Erde als eine Art Sphäroid, für die Gelehrten des Hochmittelalters war daher die Vorstellung einer „Erdenscheibe“ abwegig. Menschen im Mittelalter waren ungebildet, rückständig und abergläubisch.. Diese Vorstellung trifft auf große Teile der Gesellschaft zu. So lag die Alphabetisierungsrate in Europa noch im 16. Jahrhundert (also dem Beginn der Neuzeit) bei nur 20 Prozent. Im Mittelalter wirkten allerdings auch bedeutende Gelehrte, etwa Albertus Magnus, Thomas von Aquin, Roger Bacon und Meister Eckhart. Die Gründung von Universitäten, der Ausbau der Städte, technologische Fortschritte (z. B. die Erfindung der Brille) sowie umfangreiche zeitgenössische Überlieferungen widersprechen nach Einschätzung der Historikerin Karin Schneider-Ferber der Annahme eines „barbarischen“ Mittelalters. Die arabische Welt brachte die Wissenschaft nach Europa.. Es ist unter Historikern umstritten, wie groß der Einfluss der arabisch-islamischen Welt auf die Bewahrung der griechisch-römisch-antiken Wissenschaft und deren Rückkehr nach Europa war. Nach dem Zusammenbruch des einheitlichen Römischen Reiches gingen viele Werke der antiken Wissenschaftler und Philosophen verloren, unter anderem Schriften über Mathematik, Astronomie und Medizin (siehe Bücherverluste in der Spätantike). Viele davon fanden Eingang in die arabisch-muslimische Welt und lagen in arabischer Übersetzung vor, so dass viele Werke z. B. von Aristoteles und Euklid, die in Europa verloren gegangen waren, erst im Zuge der Reconquista und der Kreuzzüge quasi eine Rückführung nach Europa erfuhren. Dabei profitierte der Westen auch von den Werken arabischer Philosophen und Denker, die noch jahrhundertelang die westliche Wissenschaft entscheidend mitgeprägt haben. Andererseits gab es nach Einschätzung anderer Historiker in Europa bereits im 8. Jahrhundert weitreichende Bildung und regelrechte Bildungszentren. Vor allem die sogenannte karolingische Renaissance widerlege die Vorstellung, die westliche Wissenschaft sei komplett aus dem Orient übernommen worden. Ebenfalls weit verbreitet ist die Vorstellung, dass wichtige Erfindungen wie Schwarzpulver, Papier, Buchdruck, Armbrust, Kompass und Fernrohr allesamt aus China oder Persien übernommen worden seien. Das Schwarzpulver gelangte vermutlich durch die Expansion des Mongolischen Reiches nach Europa, und das Papier fand nachweislich entlang der Seidenstraße seinen Weg nach Europa. Zu den meisten chinesischen Erfindungen existieren jedoch europäische Gegenstücke, die oft bis in die römisch-griechische Antike reichen und keinen chinesischen oder persischen Einfluss erkennen lassen. Man geht heute davon aus, dass die meisten dieser Erfindungen keine Kopien oder Übernahmen, sondern eigene Parallelentwicklungen darstellten. Gewalt, Krieg und Seuchen waren allgegenwärtig; die Lebenserwartung war gering.. Obwohl es in Europa zwischen 500 und 1500 zahlreiche Kriege gab, gibt es keine Anhaltspunkte dafür, dass diese mit größerer Brutalität oder Rücksichtslosigkeit als in der Neuzeit geführt wurden. Außerdem ist in der Zeit zwischen dem 12. und 14. Jahrhundert ein deutliches Bevölkerungswachstum sowie eine Ausbreitung des Siedlungsgebietes feststellbar, was auf die günstigeren Klimabedingungen zurückzuführen ist. Auch die Vorstellung, die Menschen im Mittelalter seien körperlich klein gewesen, ist heute weitgehend widerlegt. Untersuchungen an Skeletten in den letzten Jahrzehnten haben ergeben, dass die mittelalterlichen Menschen etwa gleich groß waren wie Europäer zu Beginn des 20. Jahrhunderts. Europa erlebte im Hochmittelalter eine ausgeprägte Wärmeperiode, im Süden Englands wurde Wein angebaut. Erst im 14./15. Jahrhundert verschlechterte sich das Klima während der sogenannten "Kleinen Eiszeit"; die damit verbundene Mangelernährung wirkte sich in den darauffolgenden Jahrhunderten auf die durchschnittliche Körpergröße aus. Die Pest als dominierende Seuche des Mittelalters. Diese Einschätzung der Pest ist abwegig, denn zwischen der Justinianischen Pest und der spätmittelalterlichen Pandemie lagen vom 8. bis zum 14. Jahrhundert mehr als 500 „pestilenzfreie“ Jahre. Laut den neuesten Erkenntnissen der Genetik war der Erreger, der für die spätmittelalterliche Pandemie 1347–1353 verantwortlich war, ein zu dieser Zeit neu entstandener Stamm von Yersinia pestis. Da die modernen für Tier und Mensch gefährlichen Yersinia-Varianten von diesem Urtyp (oder eventuell seinen Varianten) abstammen und sich untereinander nur wenig unterscheiden, geht man davon aus, dass die extreme Virulenz des mittelalterlichen Yersinia-Typs mit mangelnder Immunität der Bevölkerung (was bei neuen und aggressiven Erregern oft der Fall ist) und den ungünstigen gesellschaftlichen Verhältnissen zusammenhängt. „Mangelnde Hygiene“ und „Fehlen medizinischer Kenntnisse“ waren demzufolge nicht die alleinigen Ursachen der Pandemie. Die nachfolgenden Epidemien verliefen wegen der immunologischen Anpassung der Bevölkerung und dank medizinischer Erkenntnisse bei weitem nicht so dramatisch. Weil es sich um eine bis dahin unbekannte Seuche handelte, waren die Gelehrten zunächst ratlos; ihre Unkenntnis konnten nur im Verlauf der Zeit ausgeglichen werden. Die mittelalterliche Yersinia-Variante im 13. bis 14. Jahrhundert war wahrscheinlich in China entstanden und kann damit nicht für Epidemien der Spätantike und des Frühmittelalters verantwortlich sein. Die niederen Stände mussten ständigen Hunger, Kälte und unmenschliche Arbeit erdulden.. Das Bild vom geschundenen Bauern in zerlumpter Kleidung wurde vor allem durch Filme über das Mittelalter populär. Tatsächlich war das Leben der niederen Stände weniger entbehrungsreich, als heute oft angenommen wird (siehe dazu Esskultur des Mittelalters). Der durchschnittliche Fleischverbrauch pro Kopf war im Mittelalter ca. siebenmal so hoch wie im Mitteleuropa des 19. Jahrhunderts und immer noch höher als zu Beginn des 21. Jahrhunderts. Während der mittelalterlichen Warmzeit waren Missernten viel seltener als später, was den sozialen und technologischen Fortschritt sowie die Expansion der Siedlungsräume ermöglichte. Außerdem ist zwischen dem 11. und 13. Jahrhundert ein rasanter Bevölkerungszuwachs nachweisbar, der nur bei ausreichender Ernährung stattfinden konnte. Klimatisch und jahreszeitlich bedingte Schwankungen in der Erntemenge und Nahrungsverfügbarkeit gab es zu allen Zeiten (Hunger im späten Winter), eine permanente Hungersnot lässt sich im Hochmittelalter aber nicht nachweisen. Abwesenheit der Körperhygiene. Zahlreiche Badehäuser sind in mittelalterlichen Städten archäologisch belegt. In zeitgenössischen Schriften wird zu ausgedehnter Körperpflege und Hygiene gemahnt (z. B. "Passionibus Mulierum Curandorum" von Trotula, "Regimen Sanitatis Salernitanum" aus dem Umfeld der Schule von Salerno, "Compendium Medicinae" von Gilbertus Anglicus). Wie auch zu anderen Zeiten und in anderen Ländern war Hygiene eine persönliche Angelegenheit. Besonders im nördlichen Europa finden sich seit dem Frühmittelalter hölzerne Badehäuser und Dampfbäder, wie sie bis heute in Skandinavien und Osteuropa verwendet werden. Willkür, Folter und Hinrichtungen waren an der Tagesordnung.. Die Hexenverfolgung erreichte erst im 16. Jahrhundert ihren Höhepunkt. Bereits der Sachsenspiegel, ein bedeutender hochmittelalterlicher Rechtskodex, offenbart wohlstrukturierte Rechtsverhältnisse, große Teile des Lebens waren geregelt. Bürger und Bauern waren angesichts der bestehenden Rechtsordnungen keineswegs rechtlos. Indisches Mittelalter. Die Geschichte Indiens kennt eine Ausbreitung feudaler Strukturen nach dem Ende des Gupta-Reiches im Jahr 550, in dem das „goldene Zeitalter“ der klassischen Periode Indiens liegt. Das späte Gupta-Reich erlebte schon einen Niedergang und musste sich Angriffen der „Hunnen“ ("Hunas", worunter wohl die Alchon zu verstehen sind) von Norden erwehren, die nach einer brutalen Herrschaft schließlich ein Machtvakuum hinterließen. Im nördlichen Indien erlebte die Gupta-Kultur unter der Herrschaft von Harshavardhana (606-647), dem letzten buddhistischen Großkönig der indischen Geschichte, noch einen Höhepunkt, bevor die zentralen Herrschaftsstrukturen zerfielen und die tatsächliche Macht auf lokale Fürsten überging. Der Zeitraum des Untergangs des Gupta-Reichs (6. Jahrhundert) wird als der Beginn der frühmittelalterlichen Periode der indischen Geschichte aufgefasst. Die genaue Zuordnung als „Mittelalter“ dieser von wechselnden Herrschaften dominierten Zeit variiert dabei in der Forschung und hängt auch von der jeweiligen Betrachtungsweise ab, da sich das nördliche Indien und das südliche Indien geschichtlich verschieden entwickelten. Im Norden kam es ab dem 8. Jahrhundert zur Ausbreitung des Islams. Mit der Errichtung des Sultanats von Delhi 1206 erfolgte der Übergang in das späte indische Mittelalter. Im Süden bildeten sich neue Fürstentümer im 7. Jahrhundert heraus (z. B. die Herrschaft der Pallava) und es bildeten sich vermehrt lokale hinduistische Strömungen. Mangels Zäsur ist dort eine Unterscheidung in frühes und späteres Mittelalter nur schwer zu fassen; das Sultanat breitet sich zwar zeitweise aus, die Herrschaft wurde jedoch wieder abgeschüttelt. Das indische Mittelalter endet im Zeitraum zwischen dem Einfall der Mongolen 1398 im Norden und den Veränderungen nach der Entdeckung eines europäischen Seewegs nach Indien um das Kap der Guten Hoffnung 1498. Chinesisches Mittelalter. Bezüglich der Geschichte Chinas wird in der modernen Forschung die Zeit vom Ende der Han-Dynastie bzw. deren faktischen Entmachtung bis zur Wiedervereinigung Chinas unter der Sui- und Tang-Dynastie im späten 6./frühen 7. Jahrhundert teils als „Mittelalter“ (im Sinne einer Übergangszeit von der staatlichen Zersplitterung hin zur Einheit) verstanden. Japanisches Mittelalter. In der japanischen Geschichte wird die Zeit von ca. 1200 bis ca. 1600 (Kamakura-, Muromachi- und Azuchi-Momoyama-Zeit) als "Japanisches Mittelalter" bezeichnet. Diese Epoche zeichnete sich durch eine starke Dominanz des Buddhismus und des Feudalismus aus. Literatur. Wichtige Quellen sind im großen Umfang gesammelt in den Monumenta Germaniae Historica. Siehe auch die dt.-latein. Ausgaben der Freiherr-vom-Stein-Gedächtnisausgabe (FSGA). Wichtige Quellen stellen u. a. neben der Geschichtsschreibung auch Konstitutionen und andere Aktenquellen sowie Regesten dar (für das römisch-deutsche Reich vor allem die Regesta Imperii). Eine hervorragende Bibliographie findet sich sowie. Ansonsten sei auf die Angaben im "Lexikon des Mittelalters", den einschlägigen Bänden der Reihe "Oldenbourg Grundriss der Geschichte" (Bd. 4–9) sowie der "Enzyklopädie deutscher Geschichte" oder den Bibliographien der unten aufgeführten Werke verwiesen. Montanarchäologie. Die Montanarchäologie ist ein Zweig der Archäologie, der sich mit Bergbau und Hüttenwesen beschäftigt. Ziel der Forschung ist es, Erkenntnisse über die Gewinnung von mineralischen Rohstoffen, deren Verarbeitung sowie deren Weitergabe, z. B. in Form von Handel, zu gewinnen. Interdisziplinäre Zusammenarbeit ist für diese Forschungsrichtung besonders wichtig. Unter anderem werden Erkenntnisse aus Mineralogie, Geologie und Bergbaukunde verwendet. Die Archäometallurgie baut auf den Erkenntnissen der Montanarchäologie auf. Beispiele aus der Ethnologie helfen Modelle für die Versorgungsstrategien zu entwickeln, z. B. ob diejenigen, die den Stein abbauten, ihn auch verbrauchten oder ob dies Spezialisten waren. Mira Sorvino. Mira Sorvino 2007 beim Toronto International Film Festival Mira Katherine Sorvino (* 28. September 1967 in Tenafly, New Jersey) ist eine US-amerikanische Schauspielerin und Oscarpreisträgerin. Ihr Vater ist der Schauspieler Paul Sorvino. Leben. Mira Sorvino studierte an der Harvard University im Hauptfach Sinologie (fernöstliche Sprache und Literatur) und schloss mit ihrer Abschlussarbeit über Rassenkonflikte in China 1989 mit „magna cum laude“ ab. Sie spricht Chinesisch und Französisch. Nach dem Collegeabschluss lebte Sorvino drei Jahre in New York. Wie viele andere junge Schauspieler arbeitete sie in diversen Kleinjobs, während sie auf die Gelegenheit für den Einstieg ins Showgeschäft wartete. Als der Film "Amongst Friends" (1993) vorbereitet wurde, wurde sie als Dritte Regieassistentin eingestellt. Schon bald wurde sie zur Besetzungschefin und Produktionsassistentin befördert. Schließlich wurde ihr sogar die Hauptrolle angeboten. Die Kritiker bewerteten diesen ersten Filmauftritt positiv. Der Durchbruch gelang Sorvino 1995 mit der Darstellung der ordinären Prostituierten Linda Ash in dem Woody-Allen-Streifen "Geliebte Aphrodite", für die sie mit einem Oscar ausgezeichnet wurde. Als die Schauspielerin bei den Dreharbeiten zu "The last Templar" eine Szene in einem Boot drehte, schlug sie wegen hohen Wellengangs mit dem Kopf auf und prallte auf einen Haken; dabei verlor sie fünf Zähne. Sorvino ist seit dem 11. Juni 2004 mit dem 14 Jahre jüngeren Schauspieler Christopher Backus verheiratet. Das Paar hat vier gemeinsame Kinder. 2013 war die Schauspielerin Ehrengast des österreichischen Bauunternehmers Richard Lugner beim Wiener Opernball. Auszeichnungen. Im Jahr 1996 wurde sie vom US-Magazin "People" zu einem der 50 schönsten Menschen der Welt gewählt. Michael Douglas. Michael Kirk Douglas (* 25. September 1944 in New Brunswick, New Jersey als "Michael Issurovitch Demsky") ist ein US-amerikanischer Schauspieler, Filmproduzent und Oscar-, Golden-Globe sowie Emmy-Preisträger. Er zählt zu den führenden Charakterdarstellern in Hollywood. Kindheit und erste Auftritte. Der ältere Sohn des Schauspielers Kirk Douglas und dessen erster Frau Diana Dill hatte bereits als Achtjähriger einen kleinen Auftritt in dem Film "Der weite Himmel". Sein jüngerer Bruder ist der Filmproduzent Joel Douglas. Michael Douglas besuchte die Eaglebrook School in Deerfield, Massachusetts. Nach einem Studium an der University of California, Santa Barbara ging Douglas Mitte der 1960er nach New York, wo er sich am "Neighbourhood Playhouse" und dem "American Place Theater" zum Schauspieler und Regisseur ausbilden ließ. 1969 gab Douglas in "Hail, Hero!" sein Leinwanddebüt, für das er eine Nominierung für den Golden Globe Award als "Bester Nachwuchsdarsteller" erhielt. Schauspielkarriere. Als Produzent des Films "Einer flog über das Kuckucksnest" wurde er 1975 mit dem Oscar für den besten Film ausgezeichnet. Kirk Douglas hatte ursprünglich die Rechte erworben, den gleichnamigen Roman auf die Bühne zu bringen und zu verfilmen. Kirk Douglas, der 1963 bei der Uraufführung des Theaterstücks die Hauptrolle gespielt hatte, war es jedoch nicht gelungen, ein Filmstudio für eine Produktion zu begeistern. Er überließ schließlich seinem Sohn die Filmrechte, der diesen Film zusammen mit Saul Zaentz verfilmte. Produziert wurde mit der Firma Fantasy Films, welche im Besitz eines Distributionsvertrags mit United Artists war. Der Film erhielt eine Reihe von Auszeichnungen, darunter nicht weniger als die Oscars in den fünf wichtigsten Kategorien – den sogenannten Big Five. Der Durchbruch als Schauspieler gelang Michael Douglas an der Seite von Karl Malden mit der Fernsehserie "Die Straßen von San Francisco" (1972-77), in der er von Beginn bis 1976 als Insp. Steve Heller zu sehen war. Dafür wurde er mit drei Emmys ausgezeichnet. Es folgten Rollen in den Erfolgsfilmen "Das China-Syndrom", "Auf der Jagd nach dem grünen Diamanten" und "Auf der Jagd nach dem Juwel vom Nil", die ebenfalls von Douglas produziert wurden. 1988 erhielt er für "Wall Street" einen Darsteller-Oscar. Ein Jahr später gründete er die Produktionsfirma "Stonebridge Entertainment", die er 1994 in "Douglas-Reuther Productions" umbenannte. In den frühen 1990ern vollzog Douglas einen Image-Wechsel. Auf eher leichte Komödien wie "Auf der Jagd nach dem Juwel vom Nil" oder "Der Rosenkrieg" folgten fortan verstärkt kontroverse Filme wie "Basic Instinct", David Finchers "The Game", "Falling Down – Ein ganz normaler Tag" oder "Traffic – Macht des Kartells", die ihm viel Kritikerlob und auch kommerziellen Erfolg bescherten. 2003 stand er für "Es bleibt in der Familie" erstmals gemeinsam mit seinem Vater Kirk und seinem Sohn Cameron vor der Kamera. Die britische Ausgabe des Empire Magazines wählte Douglas im Oktober 1997 auf Platz 74 der „100 größten Schauspieler aller Zeiten“. Michael Douglas ist neben Laurence Olivier der einzige, der sowohl einen Oscar als Hauptdarsteller ("Wall Street") als auch für den besten Film ("Einer flog über das Kuckucksnest") besitzt. 2008 erhielt Douglas im Alter von 64 Jahren vom American Film Institute den Preis für das Lebenswerk, nachdem bereits seinem Vater Kirk achtzehn Jahre zuvor die gleiche Ehre zuteilgeworden war. Diese Auszeichnung wurde am 11. Juni 2009 in Los Angeles vergeben. Die Titelrolle in Steven Soderberghs Fernsehfilm "Liberace – Zu viel des Guten ist wundervoll" (2013) brachte Douglas einen Emmy und einen Golden Globe Award ein. Privates. Von 1977 bis 2000 war Douglas mit Diandra Luker verheiratet. Sie haben einen Sohn (Cameron, * 1978). Douglas heiratete am 18. November 2000 die Schauspielerin Catherine Zeta-Jones. Mit ihr hat er einen Sohn (* 2000) und eine Tochter (* 2003). 2010 gab Douglas bekannt, dass er an Krebs erkrankt sei. Es handelte sich um Zungenkrebs im fortgeschrittenen Stadium. Douglas unterzog sich einer Strahlen- und Chemotherapie. 2011 vermeldete Douglas, dass der Tumor ganz verschwunden sei. Synchronstimme. Michael Douglas wird in den deutschen Filmversionen seit 1978 stets von Volker Brandt synchronisiert. Maria Schrader. Maria Schrader (* 27. September 1965 in Hannover) ist eine deutsche Schauspielerin und Regisseurin. Leben. Maria Schrader wurde 1965 in Hannover als Tochter eines Malers und einer Bildhauerin geboren. Sie besuchte das Matthias-Claudius-Gymnasium in Gehrden, einer Stadt in der Nähe von Hannover, auf dem sie mehrere Jahre in der Theater-AG mitwirkte. Mit 15 Jahren begann sie ihre Schauspielkarriere im Theater. Es folgte 1983 eine Schauspielausbildung am Max-Reinhardt-Seminar in Wien, die sie aber nach zwei Jahren abbrach. In der Spielzeit 1982/83 gehörte sie zum Ensemble des Staatstheaters von Hannover. Es folgten Auftritte in Wien, Venedig und Bonn. Im Jahr 1988 gab sie ihr Filmdebüt in der Komödie "RobbyKallePaul" von Dani Levy, unter dessen Regie sie in insgesamt 11 Filmen auftrat und mit dem sie auch privat einige Jahre lang zusammenlebte. Ihre ersten Erfolge als Darstellerin feierte sie 1993 mit den Komödien "Burning Life" von Peter Welz und Doris Dörries "Keiner liebt mich". Im Disney-Film "Atlantis – Das Geheimnis der verlorenen Stadt" sprach sie die Rolle der Atlantischen Prinzessin Kidagakash. 2005 führte Schrader erstmals Regie bei der Verfilmung des Bestsellers "Liebesleben" von Zeruya Shalev. Der Film, dessen Drehbuch sie gemeinsam mit Laila Stieler schrieb, kam im November 2007 in die deutschen Kinos. 2014 stand sie für RTLs 8 teiligen Miniserie Deutschland 83 vor der Kamera. Privatleben. Maria Schrader hat eine Tochter (* 1998) aus der Beziehung mit dem Regisseur Rainer Kaufmann. Sie lebt in Berlin. Auszeichnungen. Im Jahr 1992 erhielt Maria Schrader beim Max-Ophüls-Preis den Darstellerpreis als beste Nachwuchsdarstellerin. Den Bayerischen Filmpreis konnte Schrader 1994 für "Keiner liebt mich" und 1998 für ihre Rolle in "Aimée & Jaguar" entgegennehmen. Den Bundesfilmpreis erhielt Maria Schrader bereits mehrfach, darunter das Filmband in Gold für darstellerische Leistungen für "Keiner liebt mich", "Burning Life" und "Einer meiner ältesten Freunde". Das Filmband in Gold als beste Hauptdarstellerin bekam sie für ihre Rolle in dem Filmdrama "Aimée & Jaguar". Für ebendiese Darstellung wurde Maria Schrader bei den Internationalen Filmfestspielen von Berlin 1999 mit dem Silbernen Bären ausgezeichnet. Dort erhielt sie im selben Jahr auch die Auszeichnung zum deutschen "Shooting Star" des europäischen Films. 2010 erhielt Schrader in der Kategorie "Beste Interpretin" für "Geschichte einer Ehe" (Autor Andrew Sean Greer; Regie Sabine Buss, Verlag Random House Audio/Köln) den Deutschen Hörbuchpreis. Majoran. Der Majoran ("Origanum majorana") ist eine Pflanzenart, die zur Gattung Dost der Familie der Lippenblütler (Lamiaceae) gehört. Die Wildform stammt aus Kleinasien (Zypern und Türkei), während "Origanum hortensis" die Gartenform ist. Er ist eine wichtige Gewürzpflanze, die – nach ihrem häufigsten Verwendungszweck – auch "Wurstkraut" heißt. Andere volkstümliche Namen für Majoran sind Badkraut, Bratekräutche, Bratenkräutel, Gartenmajoran, Kuchelkraut, Kuttelkraut, Mairan, Meiran, Mairalkraut, Mairon, Miran, Mussärol. Zur gleichen Gattung Dost ("Origanum") gehört der ebenfalls in der Küche verwendete Dost oder Oregano. Beschreibung. Knospige Blütenstände und gegenständige Laubblätter. Der Majoran wächst als ausdauernde krautige Pflanze bis Halbstrauch, erreicht Wuchshöhen von bis zu 80 Zentimeter und wird oft wie eine einjährige Pflanze kultiviert. Pflanzenteile sind häufig grau behaart. Die gegenständigen Laubblätter sind in Blattstiel und Blattspreite gegliedert. Die längliche bis fast kreisförmige, einfache Blattspreite ist bis zu 2,5 × 2,5 Zentimeter groß mit gräulich-weißen kurzen, angedrückten Haaren (Trichomen). In kompakten, fast kugeligen oder vierkantigen, ährigen, etwa 6 × 4 Millimeter großen Blütenständen sitzen viele Blüten und Hochblätter. Die breit verkehrt-eiförmigen und oben abgerundeten Hochblätter sind gräulich-weiß und drüsig gepunktet. Die zwittrigen, zygomorphen Blüten sind fünfzählig mit doppelten Perianth. Der 2 × 1,5 Millimeter große Kelch ist flaumig behaart und drüsig gepunktet. Die weiße Krone ist 3 bis 7 Millimeter groß und zweilippig. Die Unterlippe ist dreilappig. Die Blütezeit reicht von Juni bis September. Die fast kugeligen Teilfrüchte weisen einen Durchmesser von etwa einem Millimeter auf. Allgemeines. Eine Honigbiene auf einer Majoran-Blüte. Majoran ist sehr würzig und hat einen hohen Anteil an ätherischen Ölen. Die Blätter werden frisch oder getrocknet zum Würzen von Kartoffelgerichten, Suppen (Kartoffelsuppe), Soßen, Würsten, Hülsenfrüchten verwendet. Zum Trocknen werden die ganzen Stängel geerntet, deshalb enthält getrockneter Majoran Blätter, Stängel, Knospen und Blüten. Die Ernte sollte vor der Blüte erfolgen (Blütezeit: Juni bis September). Der Standort der Pflanzen sollte am besten sonnig sein. Es gibt Sorten, die im deutschsprachigen Raum als einjährige Pflanzen gezogen werden; diese sind am aromatischsten. Sorten, die im deutschsprachigen Raum winterhart sind, sind weit weniger aromatisch. Majoran gehört mit einer Anbaufläche von 500 bis 600 ha nach der Blattpetersilie zu den bedeutendsten in Deutschland kultivierten Gewürzpflanzen. Aufgrund der günstigen Standortbedingungen liegt traditionell der Schwerpunkt des deutschen Majorananbaus in der Region nördlich des Harzes um Aschersleben in Sachsen-Anhalt. Ein Verwandter des Majorans (Majorana Syriaca) wird in Westasien, so in Israel, Jordanien und Libanon, zum Kochen und Grillen verwendet. Dort wird das Kraut Zahtar, Zaatar oder Za'tar genannt. Zahtar ist wesentlich aromatischer als europäischer Majoran und mischt sich geschmacklich mit Oregano. In Gebieten, in denen dieses Kraut nicht verbreitet ist, wird der Name aber auch zur Bezeichnung anderer Würzkräuter benutzt. In Israel und Jordanien wird eine Gewürzmischung hergestellt, die ebenfalls Zahtar genannt wird (siehe Gewürzsumach). In Europa lässt sich dieser westasiatische Majoran etwa mit einer milden Sorte Thymian oder Bohnenkraut ersetzen. Kultur und Religion. Aphrodite, die Göttin der Liebe und Schönheit, bezeichnete Majoran als ein Symbol der Glückseligkeit. In Griechenland war es daher üblich, dass man frisch verheirateten Paaren Girlanden aus Majoran um den Hals legte. Hymenaios, der griechische Gott der Hochzeit, wurde oft mit einem Majorankranz dargestellt. Herkunft. Majoran stammt aus Kleinasien. Da es sich um ein beliebtes Gewürz handelt, wird er heute nicht nur in Mittelmeerländern, sondern auch in Mittel- und Osteuropa angebaut; gute Qualität setzt allerdings ein ziemlich warmes und mediterranes Klima voraus. Standorte und Verbreitung in Mitteleuropa. Majoran braucht locker-steinige, flachgründige Lehmböden in Lagen mit Mittelmeerklima oder mit sehr milden Wintern und sehr warmen Sommern. In Mitteleuropa wird er gelegentlich als Heil- und Gewürzpflanze angebaut und verwildert vereinzelt, aber immer unbeständig. Inhaltsstoffe. Neben ätherischem Öl enthält die Majoranpflanze Flavonoide, Gerbstoffe, Bitterstoffe, Glykoside, Rosmarinsäure und Ascorbinsäure. Der Gehalt an ätherischem Öl hängt stark von Boden, Klima und Jahreszeit ab und kann zwischen 0,7 und 3,5 % schwanken, am höchsten ist er zwischen Blühbeginn und Vollblüte. Die Hauptaromakomponente ist ein bicyclischer Monoterpenalkohol, ‚cis‘-Sabinenhydrat (max. 40 %); weiter kommen α-Terpinen, 4-Terpineol, α-Terpineol, 4-Terpinenylacetat und 1,8-Cineol in merklichen Mengen vor. Phenole, die im verwandten Oregano charakterbestimmend sind, fehlen im Majoran völlig. Systematik. "Origanum majorana" wurde 1753 von Carl von Linné in "Species Plantarum", 2, S. 590 erstveröffentlicht. Synonyme für "Origanum majorana" L. sind: "Majorana majorana" (L.) H.Karst., "Majorana hortensis" Moench. Miles Davis. Miles Dewey Davis III. (* 26. Mai 1926 in Alton, Illinois; † 28. September 1991 in Santa Monica, Kalifornien) war ein amerikanischer Jazz-Trompeter, -Flügelhornist, Komponist und Bandleader. Mit seinem unverwechselbaren Stil war Miles Davis eine der einflussreichsten, innovativsten und bedeutendsten Schlüsselfiguren im Jazz des zwanzigsten Jahrhunderts. Nach der Teilnahme an der sogenannten Bebop-Revolution beeinflusste Davis die Entwicklung unterschiedlicher Jazz-Stile wie Cool Jazz, Hard Bop, modalen Jazz und Jazzrock maßgeblich. Sowohl als Instrumentalist als auch durch seine innovativen Fähigkeiten gelang es Miles Davis, seine eigenen künstlerischen Ideen zu verwirklichen und gleichzeitig kommerziell erfolgreich zu sein. Eine erste Berühmtheit erlangte er als Bebop-Jazzer und Sideman von Charlie Parker, in dessen Band er 1945 Dizzy Gillespie ersetzte. Davis legte danach konzeptionell immer wieder neue Grundsteine, indem er nicht konservativ auf einem Jazz-Stil beharrte, sondern stets weiter experimentierte. Da er regelmäßig talentierte Musiker, von denen er Innovationen und neue Impulse erwartete, in seine Band holte und ihnen Raum zur Entfaltung gab, verdanken zahlreiche Jazzgrößen ihren Durchbruch als Musiker der Zusammenarbeit mit Davis. Seit Ende des 20. Jahrhunderts erfahren seine Alben und Kompositionen – heute Klassiker und Meisterwerke des Jazz – große Anerkennung bei Musikkritikern und Jazzfans gleichermaßen. Als besondere Würdigung seines Werks verabschiedete das Repräsentantenhaus der Vereinigten Staaten am 15. Dezember 2009 eine symbolische Resolution in Gedenken anlässlich des 50. Jahrestags der Aufnahme seines Albums "Kind of Blue" zur „Ehrung des Meisterwerks und zur Bekräftigung, dass Jazz ein nationales Kulturgut ist“. Jugend 1926–1944. Miles Davis wurde als mittleres von drei Kindern in ein vermögendes Elternhaus geboren. Sein Vater, Miles Davis II, war Zahnarzt und die Familie besaß eine Farm in Millstadt östlich von East St. Louis. Seine Mutter Cleota war eine geborene Henry; in Anlehnung an den mütterlichen Namen verwandte Miles Davis auf einigen frühen Aufnahmen das Pseudonym Cleo Henry. Er hatte eine ältere Schwester Dorothy und einen jüngeren Bruder, Vernon. Beide Eltern waren Musikliebhaber und spielten ebenso wie seine ältere Schwester ein Instrument. Als er drei Jahre alt war, zog seine Familie nach East St. Louis in ein Viertel ohne Rassentrennung (die erst 1964 offiziell abgeschafft wurde). Dort verbrachte er eine sorgenfreie Kindheit. Mit neun Jahren bekam er von einem Freund seines Vaters seine erste Trompete geschenkt. Nachdem er mit 13 Jahren ein neues Instrument und Trompetenunterricht bei Elwood Buchanan, einem Freund des Vaters, bekommen hatte, waren deutliche Fortschritte erkennbar und er spielte in der High School Band. Ab seinem vierzehnten Lebensjahr nahm er Unterricht bei Joseph Gustat, dem damaligen Solotrompeter des St. Louis Symphony Orchestras und erhielt eine solide Trompetenausbildung. Während seiner Zeit an der High School, wo die Atmosphäre deutlicher als in seinem Wohnumfeld von sozialer Ausgrenzung geprägt waren, freundete sich Davis mit Clark Terry an. Das selbstsichere, coole Auftreten und der Trompetenstil des sechs Jahre älteren Mannes hatten großen Einfluss auf den jungen Miles Davis. Mit 16 Jahren trat dieser in die Musikergewerkschaft ein. Um das Jahr 1942 begann auch seine Beziehung zu Irene Birth, die auf dieselbe High School ging. Mit 17 spielte er ein Jahr lang bei Eddie Randles "Blue Devils" in St. Louis und der näheren Umgebung. Während dieser Zeit bekam er das Angebot, mit der Tiny-Bradshaw-Band auf Tour zu gehen, doch seine Mutter bestand auf einem High School-Abschluss. Im Jahr 1944, mit 18 Jahren, bekam seine Freundin Irene die erste Tochter Cheryl. Da Irene noch andere Liebschaften hatte, war sich Miles Davis nicht sicher, ob Cheryl sein Kind war. Er übernahm dem ungeachtet die finanzielle Verantwortung für sie. Davis hatte mit Irene Birth insgesamt drei Kinder, heiratete sie aber nie. Bebop und Cool Jazz 1944–1955. Gleichzeitig warf er Parker und Lester Young vor, sich zu wenig mit europäischer Musik auseinanderzusetzen. Davis selbst ging häufig in die öffentliche Bibliothek, um sich die Partituren von Vertretern der Neuen Musik oder der Schönberg-Schule wie Igor Strawinski, Alban Berg, Sergei Prokofjew und anderen Komponisten auszuleihen. „Miles, hörst Du den Vogel da draußen? Das ist ’ne Spottdrossel. Sie hat keine eigene Stimme, sie macht nur die Stimmen der anderen nach und das willst du nicht. Wenn du dein eigener Herr sein willst, musst du deine eigene Stimme finden. Darum geht’s. Sei also nur du selbst.“ Im Jahr 1946 ging Davis mit Benny Carters Big Band an die Westküste., wo er gemeinsam mit Charlie Parker und Dizzy Gillespie in Los Angeles den Bebop an der Westküste bekannt machen wollte. Im selben Jahr brachte Irene ihr zweites Kind Gregory auf die Welt. Als Charlie Parkers Heroin­abhängigkeit immer mehr zum Problem wurde, fing Miles Davis an, sich auf seine Solokarriere zu konzentrieren und arbeitete mit Gerry Mulligan, Gil Evans und anderen auf die Gründung eines Nonetts hin. Dies war gleichzeitig der Anfang einer 20-jährigen Zusammenarbeit mit Gil Evans. Um den gewünschten Sound zu erreichen, wurden für den Jazz so ungewöhnliche Instrumente wie die Tuba und das Horn eingesetzt. Im September 1948 trat diese Gruppe zum ersten Mal auf. Bereits ein Jahr später löste sich das Nonett wieder auf, hatte aber vorher zwölf Aufnahmen für Capitol Records eingespielt, die als Schellackplatten nicht allzu erfolgreich verkauft wurden. Die Aufnahmen wurden erst 1957 richtig berühmt, als sie gesammelt unter dem Titel "Birth Of The Cool" als Langspielplatte veröffentlicht wurden. Ihr Einfluss war aber schon vorher in der Jazzszene zu spüren, da sie zur Ausbildung des „Cool Jazz“ beitrugen, der von Chet Baker, Stan Getz und Shorty Rogers aufgenommen und bald tonangebend wurde. 1949 spielte Miles in der Band des Pianisten Tadd Dameron und trat mit ihm auf dem Pariser "Festival International 1949 de Jazz" auf. 1950 kehrte er aus Paris zurück, wo er sich unglücklich in Juliette Gréco verliebt hatte. In Paris wie ein Star behandelt, sah er sich in den USA mit Rassismus konfrontiert und konsumierte in Folge Drogen bis zur Abhängigkeit. Diese Abhängigkeit teilte er mit vielen seiner Kollegen, so zum Beispiel mit Chet Baker, Billie Holiday, Sonny Rollins oder Stan Getz. In diese Zeit fällt auch die Geburt seines Sohnes Miles Dewey Davis IV sowie ein Umzug der Familie nach East St. Louis. Kurz darauf zerbrach die Beziehung zu Irene Birth. In den nächsten Jahren spielte Davis zwar viele Sessions, doch zu oft ohne die nötige Hingabe. Aufgrund seiner Sucht und des damit verbundenen Imageschadens konnte er nur Aufnahmen für kleine Labels wie Prestige oder Blue Note machen. Im Januar 1951 fand seine erste Session für das Prestige-Label statt, "Miles Davis and Horns", unter anderem mit John Lewis und Sonny Rollins. Allerdings schaffte er es nicht, eine feste Gruppe zusammenzuhalten. Zu dieser Zeit lernte er seine spätere Frau Frances Taylor kennen, die als Tänzerin in einem Nightclub in Los Angeles arbeitete. Um sich von den Drogen zu befreien, zog er 1954 nach East St. Louis. Dort kam er mit Unterstützung seines Vaters von seiner Abhängigkeit los. Damit er dauerhaft Abstand zur New Yorker Drogenszene halten konnte, ging er vorerst nach Detroit. Im März 1954 kam er wieder nach New York. Dort entdeckte er bald darauf den Wah Wah-Dämpfer, der auch unter dem Namen Harmon-Dämpfer bekannt ist, aus Metall, den er mit entferntem "Stem" (Einsatz) spielte. Dieser Dämpfer prägte fortan den Sound vieler seiner Stücke und er sollte ihn zeit seines Lebens verwenden. Im Laufe des nächsten Jahres entstand eine Reihe von wichtigen Aufnahmen für das Prestige-Label "(Walkin’" und "Miles Davis and the Modern Jazz Giants"). Aufgrund der Weiterentwicklung der Tontechnik zur Langspielplatte war es mittlerweile möglich, Jazzstücke aufzunehmen, die länger als drei Minuten waren. Davis hatte jetzt die Möglichkeit, sein Können in längeren Soli unter Beweis zu stellen, so zum Beispiel beim über 13 Minuten langen "Walkin’", das für die Jazzmusiker der Zeit zu einem wegweisenden Stück wurde, von den Kritikern aber noch nicht in entsprechendem Maße anerkannt wurde. Sein großes Comeback hatte Miles Davis im Juli 1955, als er unangekündigt beim Newport Jazz Festival für drei Stücke auf die Bühne kam und zu Monks "’Round Midnight" ein legendäres Solo spielte. Dieser Auftritt führte dazu, dass George Avakian ihn bei Columbia unter Vertrag nahm, obwohl er gleichzeitig noch einen Vertrag bei Prestige zu erfüllen hatte. Die Erlaubnis dafür erreichte er bei Prestige, indem er sie überzeugte, dass Prestige bei den noch ausstehenden Aufnahmen von der Werbung der wesentlich größeren Plattenfirma Columbia profitieren werde. Das erste Quintett und Sextett 1955–1958. Davis Mitte der 1950er Jahre 1955 gründete Davis das Miles Davis Quintett. Die Band, bestehend aus John Coltrane (Tenorsaxophon), Red Garland (Klavier), Paul Chambers (Bass) und Philly Joe Jones (Schlagzeug), wurde schnell berühmt. Um den Vertrag bei Prestige zu erfüllen, nahm das Quintett innerhalb von zwei Tagen vier Alben auf ("Workin’", "Cookin’", "Steamin’" und "Relaxin’"). Dass die Qualität der Alben unter dieser Fließbandarbeit nicht litt, zeigt, wie gut das Quintett damals funktionierte. Daneben wurde fast gleichzeitig für Columbia das Album "’Round About Midnight" eingespielt. In dieser Zeit wurde Miles Davis zu einem echten Star in der Jazzszene. 1957 nahm Davis gemeinsam mit dem Arrangeur Gil Evans, mit dem er bereits auf "Birth of the Cool" zusammengearbeitet hatte, das Album "Miles Ahead" auf, das aufwendig orchestriert war und ihm wenig Spielraum zur Improvisation ließ. Trotzdem war er sehr zufrieden mit seiner Arbeit. Ausnahmsweise spielte er fast alle Aufnahmen mit dem Flügelhorn ein. "Miles Ahead" wie auch das nachfolgende "Porgy and Bess" (1958) wurden ein kommerzieller Erfolg. Wegen ihrer Drogenexzesse ersetzte Davis Coltrane und Jones durch Sonny Rollins und Arthur Taylor. Doch er war mit dem Sound des neuen Quintetts nicht hundertprozentig zufrieden und engagierte den Alt-Saxophonisten Cannonball Adderley. Mittlerweile hatten Rollins und Red Garland das Quintett verlassen. Neuer Pianist wurde Tommy Flanagan. Als John Coltrane seine Drogensucht überwunden hatte, wollte Davis ihn zurückholen. Vorher ging er nach Paris, um dort mit Kenny Clarkes Quartett zu spielen. Als er Louis Malle vorgestellt wurde, ließ er sich überreden, die Musik für den Film "Ascenseur pour l’échafaud" (Fahrstuhl zum Schafott) zu schreiben und aufzunehmen. In nur einer Nacht entstanden die Aufnahmen, die Davis mit einer ganz neuen Arbeitsweise im Studio vertraut machten. Statt großer Planung wurde auf kurze Anweisungen und Spontaneität gesetzt, eine Technik, die später auch bei Alben wie "Kind of Blue" oder "Bitches Brew" Anwendung finden sollte. Zurück in New York, stellte Davis sein Traumsextett zusammen, indem er Coltrane und Garland zurückholte. Nach einigen Auftritten spielte die Gruppe das Album "Milestones" ein, das durch Adderleys Beitrag neben dem Bebop auch etwas bluesigere Stücke enthielt. Außerdem wurde der neu aufkommende modale Jazz weiterentwickelt. Miles Davis spielte bei der Entwicklung dieser Stilrichtung wieder eine wegweisende Rolle. Bei den Aufnahmen dazu kam es zu einem Streit zwischen Garland und Davis, so dass letzterer bei dem Stück "Sid’s Ahead" selbst Klavier spielte. Etwa zu der Zeit, als Bill Evans an Garlands Stelle trat, verließ Philly Joe Jones endgültig die Band. Da Jones das Sextett kurz vor einem Auftritt in Boston verließ, musste sein Ersatz Jimmy Cobb aus New York nachreisen. Er baute sein Instrument auf, während die Band schon spielte: so begann sein Engagement beim Miles Davis Sextett mitten in "’Round Midnight". Ende Mai bestand mit den beiden Neuzugängen eine zuverlässige und musikalisch geschliffenere Version des Sextetts, die in dieser Form sieben Monate bestehen sollte und sich für "Kind of Blue" nochmals im Studio versammelte. Als Bill Evans die Gruppe verließ, weil ihn das ständige Touren auslaugte, wurde kurzzeitig Red Garland zurückgeholt, um ihn, als er wieder einmal zu spät zu einem Auftritt kam, durch Wynton Kelly zu ersetzen. "Kind of Blue" 1959–1964. Damit stand die Formation, mit der Miles Davis im Frühjahr 1959 ins Studio ging und sein legendäres Album "Kind of Blue" aufnahm. Bill Evans kehrte dafür noch einmal zurück und überließ Wynton Kelly nur für das Stück "Freddie Freeloader" das Klavier. In zwei Sessions am 2. März und 22. April entstand ein Album, das beispielhaft für den modalen Jazz und nach Aussage von Columbia Records und der RIAA das meistverkaufte Jazzalbum überhaupt ist. Das Album erhielt von der RIAA im Jahr 2009 die vierte Platinschallplatte für mehr als vier Millionen verkaufte Alben in den USA. Das Musikmagazin "Rolling Stone" führt "Kind of Blue" auf Platz 12 der Liste der 500 besten Alben aller Zeiten. Doch die innovativen Musiker, die für die Klasse dieses Albums verantwortlich waren, sorgten dafür, dass das Sextett nicht allzu lange Bestand hatte. John Coltrane konnte noch zu einer letzten Europatournee im Frühjahr 1960 überredet werden, bevor er ausstieg, um seine eigene Band zu gründen. Cannonball Adderley hatte die Gruppe schon im Herbst 1959 verlassen, und Davis probierte verschiedene Ersatzmänner für die beiden Saxophonisten aus, unter anderem Sonny Stitt und Hank Mobley, der bei seinen Konzerten im Black Hawk in San Francisco mitwirkte. Am 21. Dezember 1960 heiratete Miles Davis seine Freundin Frances Taylor. Sie wurde seine erste Ehefrau. Im April des folgenden Jahres nahm er im Black Hawk in San Francisco zum ersten Mal explizit für eine LP-Veröffentlichung ein Konzert auf. 1961 wurde bei ihm Sichelzellenanämie diagnostiziert. Während es ihm mittlerweile finanziell gut ging und er ein fünfgeschossiges Haus in der Upper West Side von Manhattan bezog, trat er musikalisch zu dieser Zeit etwas auf der Stelle. 1963 verließ die Rhythmusgruppe, bestehend aus Kelly, Chambers und Cobb, die Band. Davis formte schnell eine neue Band mit George Coleman am Saxophon und Ron Carter am Bass. Später stießen noch Schlagzeuger Tony Williams und Pianist Herbie Hancock zu der Gruppe, die 1963 das Album "Seven Steps to Heaven" aufnahm. Davis war von Anfang an von dieser Formation begeistert. Das Repertoire bestand hauptsächlich aus Bebop und Standards, die schon von Davis’ früheren Bands bekannt waren und jetzt mit mehr rhythmischer und struktureller Freiheit gespielt wurden. Nach seinem Auftritt mit der neuen Band auf dem Jazzfestival Antibes arbeitete er noch einmal mit Gil Evans zusammen, um mit ihm "The Time of the Barracudas" aufzunehmen. Ende Februar 1964 starb Davis’ Mutter. Um die Gelenkschmerzen zu lindern, die durch die Sichelzellenanämie entstehen, trank Davis viel Alkohol und nahm Kokain, was seine Ehe schwer belastete. Im selben Jahr verließ Coleman das Quintett, und der Avantgarde-Saxophonist Sam Rivers übernahm für kurze Zeit "(Miles in Tokyo)". Da Rivers sich in Richtung Free Jazz orientierte, ein Stil, den Davis ablehnte, suchte er weiter nach einem Saxophonisten. Im Sommer 1964 brachte er Wayne Shorter dazu, Art Blakeys Jazz Messengers zu verlassen und sich ihm anzuschließen. Shorter machte dies nur widerstrebend, da er bei Art Blakey der musikalische Leiter geworden war. Das zweite Quintett 1965–1968. Mit Tony Williams (Schlagzeug), Herbie Hancock (Piano), Ron Carter (Bass), Miles Davis und dem neu hinzugestoßenen Wayne Shorter stand das zweite große Quintett Miles Davis’, das seine letzte akustische Gruppe sein sollte. Diese Besetzung ist Jazzliebhabern als "Das zweite Miles Davis Quintet" geläufig. Zahlreiche Kompositionen dieser Periode stammten aus der Feder von Wayne Shorter, der, wie auch Herbie Hancock, parallel zu seiner Arbeit bei Miles Davis einige bedeutende Platten unter eigenem Namen einspielte. Die von dieser Gruppe eingespielten Aufnahmen gelten aufgrund des hohen Niveaus der improvisatorischen Interaktion als Klassiker und als ein Musterbeispiel für gelungene Inside-Outside-Improvisation, die das Quintett perfekt beherrschte. Im Jahr 1965 nahm die Formation das Album "E.S.P." auf, das neue Kompositionen und ein neues Spielkonzept vorstellte. Im selben Jahr wurde Davis nach einer gewalttätigen Auseinandersetzung von seiner Frau Frances verlassen. Im April musste Davis an der Hüfte operiert werden. Da die Operation fehlschlug, wurde eine weitere im August notwendig, sodass er erst im November wieder auftreten konnte. Kurz vor Weihnachten entstanden bei einem Gastspiel in Chicago die Mitschnitte aus dem „Plugged-Nickel“ "(Live at the Plugged-Nickel)", die zeigen, wie gut die offene Interaktion der Band mittlerweile funktionierte. Doch schon im Januar 1966 erkrankte Davis an einer Leberentzündung und musste erneut drei Monate lang aussetzen. In den folgenden Jahren entstand eine Serie weiterer Schallplatten: "Miles Smiles" (1966), "Sorcerer" (1967), "Nefertiti" (1967), "Miles in the Sky" (1968) und "Filles de Kilimanjaro" (1969). Doch die Verkaufszahlen der Alben sanken rapide, was sicher nicht zuletzt darauf zurückzuführen ist, dass die Musik des Quintetts rhythmisch und harmonisch ausgesprochen komplex war und vom breiten Publikum nicht ohne weiteres nachvollzogen werden konnte. Miles Davis erwies sich in der Titelnummer von "Nefertiti" (1967) wieder einmal als Neuerer: in dem Stück, für das Shorter als Komponist ausgewiesen wird, übernimmt die Rhythmusgruppe die improvisatorische Ausgestaltung, während die Bläser in einer Art Ostinato verharren: ein Rollentausch, der als neu im Jazz galt. Im Jahr 1967 stieß Tenorsaxophonist Joe Henderson für einige Zeit zur Band; Aufnahmen mit ihm entstanden jedoch nicht. Zu dieser Zeit begegnete er seiner späteren Ehefrau Cicely Tyson, mit der er 1967 eine Beziehung hatte. Im Laufe des Jahres begann die Band mit der ungewöhnlichen Praxis, ihre Livekonzerte in durchgehenden Sets zu spielen, wobei ein Stück nahtlos in das nächste überging. Davis’ Bands sollten diese Technik bis zu seinem vorläufigen Rückzug von der Musik 1975 beibehalten. Ende 1967 begann Davis im Studio mit dem Fender-Rhodes-Piano zu experimentieren. Außerdem holte er sich zur Erweiterung seines Quintetts Gitarristen ins Studio, unter anderem George Benson. Auf den Alben "Miles in the Sky" und "Filles de Kilimanjaro" nutzte Davis zum ersten Mal elektrische Instrumente; die Alben wiesen den Weg zu Davis’ Fusion-Phase. Die meisten Stücke schrieb damals Wayne Shorter. 1968 verließen Herbie Hancock und Ron Carter das Quintett. Davis ersetzte sie durch Chick Corea (Piano) und Dave Holland (Bass). Auf dem Album "Filles de Kilimanjaro" ist sowohl die neue als auch die alte Besetzung zu hören. Am 30. September heiratete Davis die 23-jährige Sängerin Betty Mabry; ihr Gesicht ist auf dem Cover von "Filles de Kilimanjaro" zu sehen. Die Entwicklung hin zu "Bitches Brew" 1968–1970. Gegen Ende der 1960er Jahre begann Miles Davis, sich musikalisch erneut umzuorientieren. Der Davis-Biograph Eric Nisenson berichtet von einem Besuch Leonard Feathers im Juni 1968 bei Davis in Hollywood mit dem Ziel, das Interview für einen "Blindfold-Test" für "Down Beat" aufzunehmen. Dabei fiel ihm auf, dass der Trompeter die damals aktuellen Alben des "New Thing" wie von Freddie Hubbard oder Archie Shepp verschmähte und stattdessen Musik von den Byrds, Aretha Franklin, den 5th Dimension oder von James Brown hörte. Von allen Alben, die Feather ihm vorspielte, gefielen ihm nur zwei, eines von den 5th Dimension und eines der Psychedelic-Band The Electric Flag. Starken Einfluss auf Miles’ musikalische Vorlieben hatte seine damalige Frau Betty Davis, die Jimi Hendrix zu ihren Lieblingsmusikern zählte. Dieses Interesse für neue musikalische Richtungen demonstrierte Miles Davis schon im Dezember 1967, als er zu Aufnahmen mit dem Quintett den Gitarristen Joe Beck einlud und Herbie Hancock erstmals ein elektrisches Fender-Rhodes-Piano benutzen ließ. Ein weiterer Schritt vollzog sich mit dem Wechsel von Hancock zu Chick Corea beziehungsweise von seinem bisherigen Bassisten Ron Carter zu Dave Holland, mit denen zusätzliche Aufnahmen für das letzte Quintett-Album "Filles de Kilimanjaro" entstanden. Im Februar 1969 nahm Miles Davis das Album "In a Silent Way" auf, mit dem sich die „stilistische Wende“, „die völlige Befreiung vom Bop-Konzept vollzog“ Die Platte stellt eine Fusion aus Jazz und Rock dar und ist eines der ersten Fusionalben überhaupt. Neben seinem Quintett holte Davis für die Aufnahmesession den jungen englischen Gitarristen John McLaughlin ins Studio. Außerdem kam Herbie Hancock zurück, und Joe Zawinul, dessen Keyboard-Stil laut Herbie Hancock Miles Davis erst zu dieser stilistischen Wende befreite, komplettierte die Formation, die damit zusammen mit Chick Corea drei Keyboarder enthielt. John McLaughlin Anfang der 1970er Jahre Das Neue an dem Album war die große musikalische Freiheit, die den Musikern zugestanden wurde. Ein echtes Songkonzept war kaum mehr zu erkennen. Außerdem wurden die langen Improvisationen von Davis und dem Produzenten Teo Macero intensiv nachbearbeitet. Die Tracks, die schließlich auf dem Album veröffentlicht wurden, waren Zusammenschnitte aus verschiedenen Sessions, und der Einfluss des Produzenten auf das fertige Produkt war so groß wie nie zuvor bei Miles Davis. Teo Macero, mit dem Davis seit "Sketches of Spain" regelmäßig gearbeitet hatte, blieb für die nächste Zeit ein wichtiger Partner für seine Arbeit. Das Album besteht letztendlich nur aus zwei Stücken, die jeweils eine komplette Schallplattenseite füllen. Nach diesen Aufnahmen verließ Tony Williams die Band, um seine Gruppe Lifetime zu gründen. Er wurde durch Jack DeJohnette ersetzt. Zu dieser Zeit ließ sich Miles Davis von seiner Frau Betty scheiden. Im August 1969 ging Davis ins Studio, um "Bitches Brew" aufzunehmen, das 1970 veröffentlicht wurde. Das Album gilt als einer der Meilensteine in seinem Schaffen. Die Besetzung von "In a Silent Way" wurde noch durch weitere Musiker, zum Beispiel Bennie Maupin, erweitert. Das Prinzip von "In a Silent Way" wurde noch weiter geführt, und es entstand eine völlig neue Interpretation von Jazz. Im Gegensatz zum bisherigen Jazz bestand die Band nicht einfach aus den üblichen Bläsern, akustischem Klavier und Bass sowie einem Schlagzeug. Zum ersten Mal dominierten elektrische Instrumente. Davis begann zu dieser Zeit, den Sound seiner Trompete zu verstärken und durch Effektgeräte wie etwa das Wah-Wah-Pedal zu beeinflussen. Auch spielten bis zu drei Schlagzeuger und zwei Bassisten gleichzeitig. Der Rhythmus wurde nicht mehr vom Swing dominiert, sondern von Elementen des Funk und einiger Rockmusikrichtungen, die dem Funk ähneln. Die Postproduktion, zum Beispiel durch Loops, wurde viel wichtiger als bei traditionellen Jazzaufnahmen und war echter Bestandteil des kreativen Prozesses. Das Stück "Pharaoh’s Dance" beispielsweise besteht aus 19 Schnitten zur Strukturierung des aufgenommenen Tonmaterials. Beide Alben, besonders "Bitches Brew", waren für Miles Davis kommerziell ein großer Erfolg. Für "Bitches Brew" bekam er in den USA zum ersten Mal eine Goldene Schallplatte für damals 400.000 verkaufte Einheiten. Damit war es zu diesem Zeitpunkt sein meistverkauftes Werk. Erst viel später, im Jahr 1993, wurde es von dem elf Jahre vorher veröffentlichten "Kind of Blue" überholt. Während dieser Zeit tourte er mit dem "Lost Quintet", bestehend aus ihm, Shorter, Corea, Holland und DeJohnette, ab Anfang 1970 mit dem Percussionisten Airto Moreira ergänzt. Ab Mitte desselben Jahres erweiterte Keith Jarrett die Gruppe, dessen energiegeladenes Keyboardspiel die einzelnen, ohne Unterbrechung gespielten Sets zu teilweise wilden und spannungsreichen Glanzpunkten trieb. Keith Jarrett selbst sagte in dem Interview auf der DVD "Another Kind of Blue", dass er keinen wirklich musikalischen Beitrag zu dieser Band gegeben habe, aber vielleicht so etwas wie Energie. Die Gruppe spielte Medleys aus den letzten beiden Alben, den Platten des zweiten Quintetts, aber hin und wieder alte Standards, wie zum Beispiel Ray Charles’ "What I say". Die Entwicklung der Jahre 1970–1975. Miles Davis, Keith Jarrett, Michael Henderson, Leon "Ndugu" Chancler, Gary Bartz, Charles Don Alias und James Forman beim "Sigma 7" Festival in Bordeaux, 18. November 1971 Mit seiner neuen Richtung zog Davis ein großes Publikum aus dem Bereich der Rockmusik an, während er einige alte Fans abschreckte. Davis trat im Vorprogramm von Rockbands wie der Steve Miller Band und Santana auf. Carlos Santana war sich Davis’ musikalischer Bedeutung durchaus bewusst und sagte, dass er im Vorprogramm von Davis hätte spielen sollen und nicht umgekehrt. Davis trat 1970 mehrfach in Bill Grahams Fillmore East und Fillmore West auf, beides große Foren der damaligen Rockmusik, und nicht zuletzt auf dem Isle of Wight Festival, einem in seiner musikgeschichtlichen Bedeutung kaum zu überschätzenden Auftritt. Der Weggang von Chick Corea Ende 1970 fokussierte und konzentrierte die Musik einerseits stärker auf Rock und Funk, andererseits nahm er ihr viel von den Free-Jazz-Elementen und der komplexen Rhythmik, was Miles Davis zu dieser Zeit durchaus bedauerte, denn er versuchte vergeblich, Chick Corea in der Band zu halten. Auch Dave Holland verließ die Band, um mit Chick Corea das vielbeachtete Free-Jazz-Trio "Circle" zu gründen. Seinen Platz übernahm der junge Stevie-Wonder-Bassist Michael Henderson, den Miles Davis Stevie Wonder mit den Worten: „I’ll take your fuckin’ bassist“ abgeworben haben soll. Diese Wahl veränderte die Musik Miles Davis’ entscheidend. Das virtuose, funkorientierte, rhythmussichere und nicht mehr jazzorientierte Spiel dieses Bassisten gab Miles Davis die Basis, um sein Trompetenspiel radikal zu verändern. Ende des Jahres begann Miles Davis die Trompete mit Wah-Wah-Pedal zu spielen, vermutlich das erste Mal am 17. Dezember 1970 bei dem Cellar-Door-Auftritt, nachdem der Auftritt vom 16. Dezember noch unplugged über die Bühne gegangen war. Seine Mitmusiker berichteten, dass die elektrisch verstärkte Trompete bereits bei mehreren Auftritten bereitlag, aber nicht zum Einsatz kam. Ab dem 18. Dezember war Miles Davis für die nächsten knapp fünf Jahre nicht mehr unplugged zu hören. Die Cellar-Door-Auftritte leiteten das überaus produktive Tourneejahr 1971 ein. Auf den großen Jazzfestivals in Europa und Japan wurde Miles Davis’ Musik als das Hauptereignis gefeiert. Joachim-Ernst Berendt, damals Leiter der Berliner Jazztage, bezeichnete Davis’ Auftritt in seiner Ansage vor dem Auftritt als den bedeutendsten des ganzen Festivals. Die Zeit der Clubauftritte war vorbei, die Miles Davis Band füllte die großen Konzertsäle dieser Welt. Die Konzerte bestanden aus einem einzigen, meist knapp zweistündigen ohne Pause gespielten Medley. Miles Davis begann die Aufstellung der Band zu verändern. Er strebte eine mehr kreisförmige Gruppierung der Musiker an und spielte häufig halb abgewandt, mit dem Rücken zum Publikum oder tief gebeugt über dem Wah-Wah-Pedal, was schließlich zu seinem kontrovers diskutierten Markenzeichen wurde. 1972 musste sich Davis einer Gallensteinoperation unterziehen. Das ganze Jahr über hatte er gesundheitliche Probleme. Mit dem Album "On the Corner" versuchte er bewusst das schwarze Massenpublikum zu erreichen. Die Keyboard-Flächen von "In a Silent Way" und "Bitches Brew" wichen harten, fast abstrakten Funk-Rhythmen und einem dichten Perkussionsgeflecht. Der Erfolg war jedoch mäßig, die meisten Kritiker verrissen das musikalisch radikale Album in scharfer Form. Erst Jahrzehnte später wurde "On the Corner" als ein Album anerkannt, das seiner Zeit weit voraus war und bei seiner Veröffentlichung nicht verstanden worden war. So ging es 1998 in die Auswahl The Wire’s “100 Records That Set the World on Fire (While No One Was Listening)” ein. Im Oktober 1972 hatte Davis einen Autounfall, bei dem er sich beide Knöchel brach. Im Jahr darauf trennte sich seine Lebensgefährtin Jackie Battle von ihm. Zudem nahm er immer mehr Kokain. Auf seinen Konzerten spielte er mittlerweile immer öfter Orgel. Seine Popularität sank wieder. Trotz gesundheitlicher Probleme spielte er weiter zahllose Konzerte und nahm neue Titel auf, darunter das Duke Ellington gewidmete Werk "He Loved Him Madly", erschienen auf "Get Up with It". Während der Japan-Tournee im Januar und Februar 1975 nahm er, um die Tour durchstehen zu können, täglich acht Schmerztabletten. "Pangaea" und "Agharta", zwei am 1. Februar 1975 bei dieser Tournee aufgenommene Live-Alben, gelten heute noch als die wichtigsten Live-Alben des "Electric Jazz". Die Band, bestehend aus Al Foster (Schlagzeug), Mtume (Percussion), Michael Henderson (Bass), Pete Cosey (Gitarre, Synthesizer, „water drum“), Reggie Lucas (Gitarre) Sonny Fortune (Altsaxophon) und Miles Davis (Trompete und Orgel), zeigte sich geschlossen und avantgardistisch. Die auf den Alben aufgedruckte Empfehlung „We suggest that you play these records at the highest possible volume to fully appreciate the sound of Miles Davis“ konnte jeder, der die Band zwischen 1973 und 1975 sah, live erleben. Mit riesigen, in Black-Power-Farben gehaltenen Lautsprechertürmen entfachten Miles Davis, konsequent hinter einer dunklen Sonnenbrille versteckt und mit dem Rücken zum Publikum spielend, und seine Musiker ein ohrenbetäubend dichtes Geflecht von improvisiertem, nur an wenig thematischem Material sich entwickelndem Funk-Jazz-Rock, der damals die letzten Jazzfans vertrieb. Nach einem Konzert in St. Louis an Ostern musste Miles Davis wegen blutender Magengeschwüre ins Krankenhaus eingeliefert werden. Kurz darauf wurden ihm 18 Polypen im Kehlkopf entfernt. Am 5. September spielte er im Central Park in New York. Es sollte bis 1981 sein letztes Konzert sein. Weitere geplante Konzerte mussten wegen gesundheitlicher Probleme abgesagt werden. Im Dezember wurde er wieder an der Hüfte operiert. Auch künstlerisch fühlte sich Miles Davis ausgelaugt. Der Rückzug 1975–1981. Von 1975 bis Anfang 1980 nahm Davis sein Instrument nicht in die Hand. Er nahm große Mengen an Alkohol, Analgetika, Heroin und Kokain zu sich und rauchte viel. Dennoch entstanden Anfang 1978 mit dem Gitarristen Larry Coryell und dem Pianisten Masabumi Kikuchi Aufnahmen, wurden aber nicht veröffentlicht. Davis spielt darauf nur Keyboard. Columbia veröffentlichte in dieser Zeit Archivaufnahmen, um die Zeit bis zum nächsten neu aufgenommenen Album zu überbrücken, denn Miles Davis hatte, wie sonst nur noch Vladimir Horowitz, einen lebenslangen Vertrag bei der CBS, aus dem ihm regelmäßige Bezüge zustanden. Rückblickend betrachtet, vollzog sich die Entwicklung der Musik von Miles Davis zwischen 1968/69 und 1974/75 mit einer erstaunlichen Geschwindigkeit und Konsequenz. Er hatte kein Jazzkonzept mehr, sondern ein eigenes Konzept, welches Jazz, klassischer Musik, Blues, Soul, Funk und eben der neuen Rockmusik gleichermaßen offen gegenüberstand. Während Davis sich 1975 zurückzog, wurde der "Fusion Jazz" von seinen Weggefährten und anderen weiterentwickelt und fand Einzug in den kommerziellen Mainstream. Die letzte Dekade 1981–1991. Im Jahr 1980 kehrte Cicely Tyson in sein Leben zurück. Er bemühte sich, seinen Drogenkonsum zu reduzieren und wieder zielgerichteter zu leben. Im April begann er mit jungen Chicagoer Musikern wie Robert Irving III, Darryl Jones und Vincent Wilburn zu proben. Im Mai entstanden die ersten Aufnahmen zu "The Man with the Horn", seinem Comeback-Album, das 1981 erschien. Davis verzichtete weitestgehend auf Effektgeräte und spielte seine Trompete wieder auf traditionellere Weise. Die Band dagegen war mehr an Popmusik orientiert. Mit Mike Stern, Marcus Miller (Bass) und Bill Evans (Saxophon) und anderen ging er auf Tournee. Allerdings bekamen seine Mitmusiker recht schlechte Kritiken, und insgesamt hielt sich die Begeisterung über Miles Davis’ neue Musik in Grenzen. Am 27. November 1981 hatte er Cicely Tyson geheiratet, doch im Februar 1982 erlitt er einen Schlaganfall, der seine rechte Hand wochenlang lähmte. Er therapierte sich mit chinesischen Kräutern und Physiotherapie und konnte bereits im April die Europatournee antreten. Das 1982 erschienene Live-Album "We Want Miles", aufgenommen 1981, bekam sehr gute Kritiken und wurde mit einem Grammy ausgezeichnet. Im Jahr 1983 war er durch eine erneute Hüftoperation und eine Lungenentzündung wieder für Monate außer Gefecht gesetzt, aber 1984 kehrte er auf die Bühne zurück. Inzwischen war der Gitarrist John Scofield, der an der Produktion von "Star People" (1983) und "Decoy" (1984) beteiligt war, zu seiner Band gestoßen. Davis experimentierte bei diesen Alben mit Soul-Musik und Elektronik. Zu dieser Zeit spielte Darryl Jones in seiner Band, der später bei den Rolling Stones Bill Wyman ersetzen sollte. Im Jahr 1985 wurde "You’re Under Arrest" aufgenommen, bei dem er wieder den Stil veränderte. Er spielte Interpretationen von zwei Popsongs, Cyndi Laupers "Time After Time" und Michael Jacksons "Human Nature". Dafür wurde er von den Jazzjournalisten kritisiert, wenngleich der Rest der Platte durchaus gelobt wurde. Der SPIEGEL nannte ihn gar "Louis Vuitton des Elektro-Pop". Davis merkte dazu an, dass viele akzeptierte Jazz-Standards einfach nur Popsongs aus Broadwaystücken seien. "You’re Under Arrest" sollte Davis’ letztes Album für Columbia sein. Da er über das demonstrative Engagement der Plattenfirma für den jungen Trompetenstar Wynton Marsalis, der Miles Davis für seine ständigen musikalischen Experimente und neuen Wege kritisiert hatte, und das gleichzeitige Desinteresse an seinen eigenen Aufnahmen verärgert war, wechselte er zu Warner Bros. Ebenfalls 1985 spielte er in einer Folge von "Miami Vice" den Drogendealer und Zuhälter "Ivory Jones". Einen weiteren Auftritt als Schauspieler hatte er in der australischen Produktion "Dingo" von 1990, die ein Jahr später in den Kinos erschien. Dazu steuerte er mit Michel Legrand den Soundtrack bei. Ebenfalls 1990 arbeitete er am Soundtrack zu "The Hot Spot" mit, einem Film von Dennis Hopper mit Don Johnson in der Hauptrolle. Dieser Soundtrack war stark von John Lee Hookers Bluesgitarre und dessen Musikstil geprägt, doch Miles Davis fügte sich nahtlos in das musikalische Konzept ein. Grab von Miles Davis auf dem Woodlawn Friedhof in der Bronx Auf dem ersten Album für Warner Brothers, "Tutu" (1986), waren zum ersten Mal auf einem Davis-Album programmierte Synthesizer, Samples und Drumloops zu hören. Mit dem Album gewann Davis 1987 nach "Bitches Brew" und "We Want Miles" seinen dritten Grammy. Zusammen mit der Band Toto spielte er auf dem ebenfalls 1986 erschienenen "Fahrenheit"-Album das Stück "Don’t Stop Me Now" ein, welches er gerne live spielte. 1988 spielte er in New York zusammen mit Zucchero eine neue Version von dessen Lied „Dune Mosse“ ein, das erst 2004 auf Zuccheros Album „Zu & Co.“ erschienen ist. 1989 ließ er sich von Cicely Tyson wieder scheiden. Im gleichen Jahr erschien seine Autobiografie, die er zusammen mit Quincy Troupe geschrieben hatte. Darin gibt er Auskünfte über sein Schaffen und seine Einflüsse. Im Januar und Februar 1991 ging er mit dem Hip-Hop-Produzenten Easy Mo Bee ins Studio, doch vor seinem Tod wurden nur sechs Tracks zumindest provisorisch fertig. Die restlichen Stücke für das postum veröffentlichte Album "Doo-Bop" mischte Easy Mo Bee aus Trompetenlinien unveröffentlichter Studiosessions aus den 1980ern zusammen. Damit war Davis auch in seinem letzten Lebensjahr an der aktuellen Entwicklung der Jazzmusik beteiligt. Am 25. August 1991 spielte Miles Davis in Hollywood sein letztes Konzert. Das Stück "Hannibal" von diesem Konzert ist auf dem 1996 erschienenen Album "Live Around The World" zu hören. Anfang September 1991 ließ sich Davis im "St. John’s Hospital and Health Care Center" in Santa Monica untersuchen. Bei einem Streit mit einem Arzt erlitt er einen schweren Schlaganfall und fiel daraufhin ins Koma. Am 28. September beschloss seine Familie, die künstliche Lebensverlängerung zu beenden. Gerüchte über eine AIDS-Erkrankung sind nie verifiziert worden. Miles Davis wurde auf dem Woodlawn Cemetery in der Bronx in New York beerdigt. Bedeutung und Nachwirkung. Davis war ein außergewöhnlich produktiver Künstler, der in den 46 Jahren seines Schaffens zwischen 1944 und 1991 über einhundert Alben herausbrachte und auf vielen weiteren als Sideman mitspielte. Miles Davis wird oft als Innovator, teilweise auch als Popularisator, von Musikstilen gesehen, dem mehrere Schaffensperioden wie die Bebop-, die Cool-Jazz- oder die Jazz-Rock-Periode zugeschrieben werden können. Sein selbstbewusstes Auftreten in der Öffentlichkeit war vielen Schwarzen damals Vorbild. Er zog sich Mitte der 1970er Jahre aus dem Musikgeschäft zurück. Nach seiner Rückkehr Anfang der 1980er Jahre experimentierte er mit verschiedenen modernen Musikstilen wie Hip-Hop, Popmusik und Rock. Diese Jahre waren auch seine kommerziell erfolgreichsten. Zum Teil wird seine Schaffenskraft auf die Tatsache zurückgeführt, dass er als junger Musiker feststellen musste, dass der bis dahin erfolgreiche Bebop, sowie der Jazz im Allgemeinen, an Anziehungskraft und Zuhörerschaft an andere Musikrichtungen verlor und er damit die Grundlage für seinen Lebensunterhalt. Dieser Konflikt spornte ihn zu enormen Einfallsreichtum an. Der Mensch Miles Davis. Musikerkollegen wie Thelonious Monk beschimpfte er als "Nichtmusiker" oder verunglimpfte andere wie Clark Terry, Duke Ellington, Eric Dolphy oder Jaki Byard in Radiointerviews; Prince nannte er eine "Mischung aus Jimi Hendrix und Charlie Chaplin". In Konzerten spielte er oft mit dem Rücken zum Publikum, was viele Konzertbesucher als Ablehnung empfanden. Ein Kritiker schrieb dazu: „Er scheint sein Publikum so sehr zu hassen, wie man überhaupt jemanden hassen kann. Warum spielt er dann für uns? Will er nur unser Geld?“ Miles Davis nahm eine Vielzahl von psychoaktiven Substanzen darunter Heroin, Alkohol, Barbiturate und Kokain. Durch die Drogen entwickelte er paranoide Wahnvorstellungen und akustische Halluzinationen. Miles Davis litt auch an Depressionen als Folge der Einnahme von Schmerzmitteln gegen Sichelzellenanämie. Der Jazz-Trompeter. Miles Davis, der Frank Sinatra ein Vorbild für seine Phrasierungstechnik nannte, weist nur wenige Konstanten im Laufe seiner 46 jährigen Musikerkarriere auf. Zu den Konstanten gehört, dass er zeitlebens den Rat seines ersten Lehrers, auf das Vibrato zu verzichten, befolgte. Außerdem spielte er mit einem von Gustav Heim, einem ehemaligen Solotrompeter der St. Louis Choral Symphony Society, entworfenen "Heim"-Mundstück. Ab 1954 nutzte Davis einem Harmon-Dämpfer mit entferntem Stiel-Einsatz, um die Klangfarbe und die Tonhöhe zu variieren. Der dadurch warme und satte, teilweise zarte Sound seiner Improvisationen, etwa auf Seven Steps to Heaven, wurden zu Davis Markenzeichen. Laut dem Kritiker Michael James „ist (es) keine Übertreibung, zu sagen, daß niemals zuvor in der Jazzgeschichte das Phänomen der Einsamkeit in so eindringlicher Weise examiniert worden ist wie von Miles Davis“. Später setzte er elektronische Effektgeräte, besonders das Wah-Wah ein. Während seine Bedeutung als Bandleader unbestritten ist, wurde sein Trompetenstil von manchen Kritikern als beschränkt eingestuft, teilweise wurde auf eklatante technische Mängel hingewiesen. Die meisten Kritiker und Jazzfans ignorierten jedoch die technischen Fehler, sahen darüber hinweg oder sprachen sie nur kurz an. Miles Davis als Maler. In den letzten Jahren widmete sich Miles Davis mehr und mehr der expressionistischen Malerei. Zunächst zeichnete er skizzenhafte kleine Strichzeichnungen und primitive Figuren, um später mit kräftigen Farben und surrealen Motiven zu experimentieren. Die Arbeiten der Mailänder Memphis Group hatten starken Einfluss auf ihn. Später wurden seine Kunstwerke stark von Farben und Motiven der afrikanischen Volksmalerei inspiriert. Er malte auch zahlreiche, leicht verfremdete Selbstporträts. Viele seiner Zeichnungen und Bilder finden sich in den späten Jahren auf seinen Plattencovern. Im Gegensatz zu seiner umfassenden Musikerausbildung war er in der Malerei Autodidakt. Ehrungen und Auszeichnungen. Miles Davis erhielt im Laufe seiner Karriere viele Ehrungen und Auszeichnungen. So wurde er von den Lesern des "Down-Beat-Magazins" in den Jahren 1955, 1957 und 1961 zum besten Trompetenspieler gewählt. Im Jahr 1962 wurde er in die Down Beat Jazz Hall of Fame gewählt. 2004, dem Gründungsjahr, wurde er in die Ertegun Jazz Hall of Fame aufgenommen. Der Wahl in die Rock and Roll Hall of Fame 2006 wurde teilweise mit Unverständnis begegnet. Neunmal erhielt er den Grammy Award, darunter einen für die Komposition von "Sketches of Spain" im Jahr 1961. Drei Grammys erhielt er für die beste instrumentelle Performance der Band, einen für das Album "Bitches Brew" im Jahr 1970, einen für das Album "Aura" im Jahr 1989 sowie einen für "Miles & Quincy Live at Montreux" im Jahr 1993. Als Solokünstler erhielt er vier Grammys, für "We Want Miles" im Jahr 1982, für "Tutu" 1986, für "Aura" 1989 und 1992 postum für "Doo-Bop". Außerdem erhielt er im Jahr 1990 den Grammy für sein Lebenswerk. Im Jahr 1989 wurde er in den Malteserorden aufgenommen. 1990 wurde er in den St. Louis Walk of Fame aufgenommen. Am 16. Juli 1991 wurde er zum Ritter der Ehrenlegion ernannt. Die Hörer der BBC und des britischen Senders Jazz FM wählten ihn 2015 aus einer Auswahl von 50 Musikern zum bedeutendsten Jazzmusiker aller Zeiten. Der BBC Moderator Geoffrey Smith sagte zur Wahl von Davis vor Louis Armstrong und Duke Ellington, auf den Plätzen zwei und drei, dass damit die Unsterblichen des Jazz versammelt seien. Filme. Auf dem New Yorker Filmfestival 2015 stellte Don Cheadle seinen Film Miles Ahead vor, in dem der auch die Hauptrolle spielt. Der Film spielt am Ende der 1970er Jahre und versteht sich nicht als klassische Biographie, sondern lässt Davis Teile seines Lebens erzählen und stellt die Musik in den Mittelpunkt. Aufnahmen (Auswahl). Die folgende Liste versucht, bei besonderen Alben die aus heutiger Sicht neu entstandene Richtung im Jazz anzugeben. Dabei muss beachtet werden, dass bei solchen Unterteilungen und Begrifflichkeiten die Grenzen fließend sind. Bislang wurden acht Alben von Miles Davis, "Birth of the Cool, Bitches Brew, In a Silent Way, Kind of Blue, Miles Ahead, Milestones, Porgy and Bess" und "Sketches of Spain", in die "Grammy Hall of Fame" aufgenommen. München. Offizielles Logo der bayerischen Landeshauptstadt München Altstadt-Panorama (Sicht von St. Peter) () ist die Landeshauptstadt des Freistaates Bayern. Sie ist mit über 1,5 Millionen Einwohnern die einwohnerstärkste und flächengrößte Stadt Bayerns und nach Berlin und Hamburg die nach Einwohnern drittgrößte Kommune der Bundesrepublik Deutschland und die zwölftgrößte der Europäischen Union. Sie ist die größte Stadt Deutschlands, die kein Stadtstaat ist. Ende Oktober 2015 betrug die melderegisterbasierte Einwohnerzahl 1.517.868 Personen, womit München mit rund 4.850 Einwohnern je Quadratkilometer die am dichtesten bevölkerte Gemeinde Deutschlands sowie mit dessen höchstgelegene Großstadt ist. Darüber hinaus ist München für die höchsten Preise für Mietwohnungen in Deutschland bekannt. Die Landeshauptstadt München ist eine kreisfreie Stadt, zudem Verwaltungssitz des die Stadt umgebenden gleichnamigen Landkreises sowie des Landratsamtes München, des Bezirks Oberbayern und des Regierungsbezirks Oberbayern. Die Stadt ist außerdem Zentrum der Planungsregion München, in der mehr als 2,7 Millionen Menschen leben, und der europäischen Metropolregion München mit rund 5,7 Millionen Einwohnern. München wird unter ökonomischen Kriterien zu den Weltstädten gezählt. Die Stadt ist eine der wirtschaftlich erfolgreichsten und am schnellsten wachsenden Großstädte Deutschlands und Sitz zahlreicher Konzerne und Versicherungen. Zudem ist sie nach Frankfurt am Main der zweitwichtigste Finanzplatz Deutschlands und zugleich eines der bedeutendsten Finanzzentren weltweit. In der Städteplatzierung des Beratungsunternehmens Mercer belegte München im Jahr 2014 unter fünfzig Großstädten weltweit nach Infrastruktur den zweiten und nach Lebensqualität den vierten Platz. Innerhalb Deutschlands gilt München als lebenswerteste Stadt. München gilt als sicherste Kommune unter den deutschen Großstädten über 200.000 Einwohnern hinsichtlich der Kriminalitätsrate aller Straftaten. München wurde 1158 erstmals urkundlich erwähnt. 1255 wurde die Stadt bayerischer Herzogssitz, war ab 1328 kaiserliche Residenzstadt und wurde 1506 alleinige Hauptstadt Bayerns. München ist Sitz zahlreicher nationaler und internationaler Behörden sowie wichtiger Universitäten und Hochschulen, bedeutender Museen und Theater. Durch eine große Anzahl sehenswerter Bauten, internationaler Sportveranstaltungen, Messen und Kongresse sowie das Oktoberfest ist München ein Anziehungspunkt für den Tourismus. Etymologie. Der Name "München" wird üblicherweise als „bei den Mönchen“ gedeutet, begründet in der Bezeichnung "forum apud Munichen", mit der die Stadt bei ihrer erstmaligen urkundlichen Erwähnung im Augsburger Schied vom 14. Juni 1158 durch Kaiser Friedrich I. genannt wird. Dabei geht "Munichen" wohl auf den Dativ Plural des althochdeutschen "munih" bzw. mittelhochdeutschen "mün(e)ch", den Vorläufer des Wortes "Mönch", zurück. Vor der Gründung der Stadt soll es hier eine Niederlassung von Mönchen aus dem Kloster Schäftlarn gegeben haben. Dass diese, wie vielfach behauptet, auf dem Petersbergl lag, ist bislang nicht durch archäologische Funde bestätigt. Nach einer anderen Hypothese lag die namensgebende Mönchsniederlassung bei dem späteren Klosterhof Schäftlarn an der Stelle der heutigen Michaelskirche. Eine früher angenommene Verbindung zum Kloster Tegernsee gilt seit einiger Zeit als widerlegt. Es ist nicht einmal sicher, ob bei der Gründung Münchens überhaupt noch eine Mönchssiedlung bestand, oder ob "munichen" bereits eine feststehende Ortsbezeichnung darstellte, die auf eine frühere, aber nicht mehr bestehende Mönchssiedlung zurückging. Es wurde sogar bezweifelt, dass der Name "munichen" überhaupt auf eine Mönchssiedlung hinweist. Historisch wurde München auch bei seinen lateinischen Namen genannt: "Monacum", Adjektiv "monacensis"; auch "Monachia" bzw. "Monachium". München hat in anderen Sprachen unterschiedliche Bezeichnungen: So heißt die Stadt auf Englisch und Französisch "Munich" (in allerdings ganz unterschiedlicher Aussprache), auf Spanisch "Múnich" sowie im Italienischen "Monaco (di Baviera)" („di Baviera“ zur Unterscheidung vom Fürstentum Monaco). Geologie. Das Alpenvorland zwischen Kalkalpen und Donau, in dem sich auch München befindet, liegt auf einem tiefen Senkungsbecken, das seit Millionen von Jahren hauptsächlich aus Abtragungen der Alpen aufgefüllt wird. Im Tertiär wurden dort überwiegend Sand- und Geröllmassen durch Flüsse aus den Alpen abgelagert. Während der nachfolgenden Eiszeiten, deren letzte vor etwa 10.000 Jahren endete, bildeten sich im Alpenbereich große Gletscher- und Schmelzwasserströme, die im Voralpenland Moränenhügel und Schotterebenen zurückließen. Die 55 km breite "Münchner Schotterebene," die an den Endmoränen des Isarvorlandgletschers ansetzt, ist eine schiefe Ebene mit einem Höhenunterschied von 300 Metern zwischen Holzkirchen im Süden und Moosburg im Norden, deren Oberflächenformen in erster Linie durch den würmeiszeitlichen Schotter gebildet werden. Im Süden der Ebene sind die Flüsse, insbesondere die Isar, tief eingeschnitten. Auf diesen Schotterböden findet man wie im Süden von München vermehrt Wälder, wie den Perlacher Forst und den Forstenrieder Park, auch weil der Grundwasserspiegel hier relativ tief liegt. Im Norden der Stadt dagegen, wo sich der Grundwasserspiegel nahe der Oberfläche befindet, liegen große Niedermoore, wie das Dachauer Moos im Nordwesten und das Erdinger Moos im Nordosten. Topographie. Die höchste Stelle Münchens liegt an der äußersten südlichen Stadtgrenze im Stadtteil Solln. Sie befindet sich etwa 600 m südlich vom Gutshof Warnberg (ca. ) direkt südlich zweier am Waldrand des Forstenrieder Parks gelegenen Fußballplätze auf. Der tiefste Punkt liegt nahe der äußersten nördlichen Stadtgrenze im Stadtteil Feldmoching an der östlich vom Naturschutz- und Waldgebiet Schwarzhölzl gelegenen Regattastrecke Oberschleißheim, die sich auf rund befindet. Somit ergibt sich im Stadtgebiet ein Höhenunterschied von etwa 100,5 Metern. Die Isar durchfließt das Stadtgebiet auf einer Länge von 13,7 km von Südwest nach Nordost, parallel dazu läuft bis Sendling der Isar-Werkkanal. In der Isar liegen die Museumsinsel mit dem Deutschen Museum und in unmittelbarer Nähe flussabwärts die Praterinsel. In den südlichen Stadtteilen ist die Isar stark in die Schotterebene eingeschnitten, mit Steilkanten auf beiden Seiten. Der tiefer gelegene Stadtteil Thalkirchen befindet sich dort, wo sich die linke Geländestufe von der Isar entfernt. Die Stufe ist in Sendling und an der Westseite der Theresienwiese noch deutlicher erkennbar. Am rechten Isarufer liegen der Tierpark und der Stadtteil Au unterhalb der Geländestufe, die sich in Innenstadtnähe wieder dem Fluss nähert (Gasteig = gacher [steiler] Steig; städtebaulich prominente Rampen am Maximilianeum und am Friedensengel), bevor sich im nördlichen Stadtteil Oberföhring der Höhenunterschied allmählich verliert. Weitere Fließgewässer sind die Würm, die aus dem Starnberger See kommend den Westen Münchens durchfließt, der Hachinger Bach, der im Südosten bei Perlach in das Stadtgebiet eintritt und nördlich von Neuperlach unterirdisch weitergeführt wird, sowie etliche von der Isar abzweigende Stadtbäche wie der Eisbach und der Auer Mühlbach. Seen im Münchner Stadtgebiet sind der Kleinhesseloher See im Englischen Garten, der Badenburger See und der Pagodenburger See im Nymphenburger Park, der Olympiasee, der Schwabinger See, die Dreiseenplatte mit Lerchenauer, Fasanerie- und Feldmochinger See im Norden sowie im Westen der Langwieder See und der Lußsee, die zur Langwieder Seenplatte gehören. Im Süden liegt in der Nähe des linken Isarufers der Hinterbrühler See. Ausdehnung. Die Gesamtfläche Münchens beträgt 31.071,91 Hektar. Davon entfallen 44,1 % auf Gebäude und zugehörige Freiflächen, 17,2 % auf Verkehrsflächen, 15,5 % auf Landwirtschaftsflächen, 15,5 % auf Erholungsflächen, 4,1 % auf Waldflächen, 1,3 % auf Wasserflächen und weitere 2,2 % auf Flächen anderer Nutzung. (Stand: 1. Januar 2007) Die Grenze der Stadt umfasst 118,9 km. Die größte Ausdehnung des Stadtgebiets beträgt von Nord nach Süd 20,7 km und von Ost nach West 26,9 km. (Stand 31. Dezember 2007) Vergrößerung der Stadt durch Eingemeindungen. Wie andere Großstädte vergrößerte sich München wiederholt durch die Eingemeindung umliegender, vormals selbstständiger kleinerer Gemeinden. In München fanden diese Eingemeindungen zwischen 1853 und 1942 in mehreren Schüben statt. Die wenigen Vergrößerungen des Stadtgebiets vor 1854 erfolgten nicht durch Eingemeindungen, sondern durch echte Erweiterung des Stadtgebiets zulasten von in der Regel nicht besiedeltem Umland. Nach dem Zweiten Weltkrieg fanden keine eigentlichen Eingemeindungen mehr statt, jedoch gab es noch drei Vergrößerungen des Stadtgebiets zulasten von Nachbargemeinden ohne deren Aufhebung (1954, 1962, 1967). Umgekehrt wurde 1951 ein erst 1942 eingemeindeter Teil wieder aus dem Stadtgebiet ausgegliedert. Bezirke und Nachbargemeinden. Das Münchner Stadtgebiet ist "nicht" in Ortsteile im gemeinderechtlichen Sinn unterteilt, sondern – ausschließlich – in Stadtbezirke. Deren Zahl war bis zum Zweiten Weltkrieg auf 41 gestiegen und wurde bei einer Neugliederung 1992 und 1996 auf die heutige Zahl von 25 verringert. Im Alltagsgebrauch beziehen sich die Münchner jedoch eher auf die historisch gewachsenen Stadtteile und Quartiere. Klima. Die Stadt München liegt im Übergangsbereich zwischen dem feuchten atlantischen und dem trockenen Kontinentalklima, es herrscht kühlgemäßigtes Klima. Die Winter sind vergleichsweise kalt, jedoch sind Temperaturen unter −25 Grad Celsius eher selten. Weitere wesentliche wetterbestimmende Faktoren sind die Alpen als mitteleuropäische und die Donau als regionale Wetterscheide. Aufgrund dieser Konstellation ist das Wetter relativ wechselhaft. An durchschnittlich zehn Tagen im Jahr herrscht der Föhn, ein warmer, trockener Fallwind vom Alpenhauptkamm, der so gute Fernsicht bewirkt, dass vom Stadtgebiet die Bayerischen Alpen deutlich zu sehen sind. Die bisher höchste, offiziell vom Deutschen Wetterdienst gemessene Temperatur in der offiziellen DWD-Wetterstation in München war 37,1 Grad Celsius vom 13. August 2003. Der Kälterekord liegt bei −30,5 Grad Celsius vom 21. Januar 1942. München wurde durch seine Lage im gewitterintensiven Freistaat Bayern von heftigen Unwettern getroffen. Bemerkenswert ist hier das Hagelunwetter vom 12. Juli 1984, bei dem Schäden in Höhe von 3 Milliarden DM entstanden. München ist durch die Nähe zu den Alpen die schneereichste Großstadt Deutschlands. Eine Auswertung der Wetterstatistiken hat ergeben, dass der südliche Teil der Stadt am sonnigsten ist. Im nördlichen Teil tritt relativ häufig Nebel auf. Die Westhälfte ist niederschlagsärmer als der Osten der Stadt. Dies ist grundsätzlich auch eine Folge der Höhenunterschiede innerhalb der Stadt, die ein entsprechendes Kleinklima generieren, begünstigt durch die Trennung der Stadt in Ost und West durch die Isar. Natur- und Landschaftsschutzgebiete. München weist sowohl über das Stadtgebiet verteilt, als auch angrenzend eine Reihe von Natur- und Landschaftsschutzgebieten auf. Zudem gibt es das Geotop Aubinger Lohe (Nr. 162R001). Einwohnerentwicklung. 1852 überschritt die Einwohnerzahl der Stadt die Grenze von 100.000, wodurch sie zur Großstadt wurde. Danach stieg durch Bevölkerungszuwachs und Eingemeindung von vorher eigenständigen Siedlungen die Einwohnerzahl stark an, so dass 1883 in München bereits 250.000 Menschen lebten. Bis 1901 verdoppelte sich die Einwohnerzahl dann auf etwa 500.000. Damit war München nach Berlin und Hamburg die drittgrößte Stadt im Deutschen Reich geworden. 1933 stieg die Bevölkerungszahl auf 840.000 und 1957 auf über eine Million. Einen ersten Höhepunkt in der Einwohnerzahl gab es im olympischen Jahr mit 1.338.924 am 31. Dezember 1972. Danach ging es auf und ab in der Einwohnerentwicklung; jedoch hat sich etwa ab dem Jahr 2000 wieder ein stabiler Aufwärtstrend etabliert. Im Mai 2015 wurde erstmals die 1,5-Millionen-Grenze überschritten. Am 31. Mai 2015 hatte München mit 1.500.560 (mit Hauptwohnsitz in München) die bislang höchste Einwohnerzahl seiner Geschichte. Derzeitige Prognosen gehen von einer Fortführung dieses Trends aus und prophezeien einen Anstieg in den nächsten Jahrzehnten auf 1,6 Millionen Einwohner. Damit ist München eine der am schnellsten wachsenden Großstädte Deutschlands. Mit ca. 4800 Einwohnern je Quadratkilometer hat München die höchste Bevölkerungsdichte aller deutschen Großstädte. In der Planungsregion München lebten am 31. Dezember 2011 ca. 2.727.100 Menschen, in der Metropolregion München (d. h. Oberbayern und Teile der Regierungsbezirke Niederbayern und Schwaben) 5.203.738 Menschen (Stand 2006). München ist eine der wenigen deutschen Städte, in der die Zahl der Neugeborenen die der Gestorbenen übersteigt. In den letzten Jahren zeichnete sich sogar ein regelrechter Baby-Boom ab. Im Jahr 2009 wurden so viele Kinder in München geboren wie seit 1969 nicht mehr. Hinzu kommt eine starke Zuwanderung aus dem In- und Ausland. Im Jahr 2013 wurden 125.346 Neuanmeldungen von Zuzüglern im Kreisverwaltungsreferat München verzeichnet. Am 31. Mai 2015 verzeichnete die Landeshauptstadt München 1.500.560 Einwohner. Nachträglich wurde ein am 8. Mai geborenes Kind durch Los als 1.500.000ster Münchner bestimmt. Bevölkerungsstruktur. München verzeichnete im Mai 2015 einen Ausländeranteil von 26,8 Prozent. Im Mai 2014 betrug der Anteil 25,8 Prozent und im Jahr 2012 lag dieser bei 24,6 Prozent. Die größten Gruppen der melderechtlich in München registrierten Ausländer kamen am Stichtag aus der Türkei (39.433), Kroatien (29.254), Griechenland (26.388), Italien (25.978), Österreich (21.828), Polen (21.099), Bosnien und Herzegowina (16.509), Rumänien (16.238) und Serbien (13.514). Laut Zensus 2011 lag der Anteil der Bevölkerung mit Migrationshintergrund bei 34,3 Prozent (Vergleich: Berlin 28 Prozent und Hamburg 31 Prozent), einem der höchsten Werte unter den deutschen Großstädten. Dialekt. Der Münchner Dialekt gehört der mittelbairischen Mundart an und ist durch den starken Zuzug aus anderen Gebieten vom Aussterben bedroht. Wie das bayerische Kultusministerium im Januar 2001 im Landtag mitteilte, ist die Mundart der Landeshauptstadt den Einwohnern unter 20 Jahren bereits fremd. Im Dialekt wird die Stadt "Minga" genannt; diese Form ist in der Stadtmundart allerdings unüblich geworden, wo sie durch die standarddeutsche Entsprechung verdrängt worden ist, und wird praktisch nur noch im Umland verwendet. Religionen. Da Oberbayern wie der ganze südbayerische Raum historisch katholisch geprägt ist, ist die römisch-katholische Kirche auch in München stark vertreten. München ist seit 1821 auch der Sitz des Erzbistums München und Freising. Ende 2014 waren 33,9 % der Einwohner römisch-katholisch, 12,3 % evangelisch (einschließlich evangelische Freikirchen), 0,3 % jüdisch und 53,5 % gehörten anderen Konfessionen bzw. Religionen an oder waren konfessionslos. Dabei sinkt die Zahl sowohl der Protestanten wie der Katholiken, während der Anteil der Konfessionslosen zunimmt. Der zweite Ökumenische Kirchentag fand vom 12. bis 16. Mai 2010 in München statt. München hat eine jüdische Gemeinde mit etwa 9.700 Mitgliedern, von denen heute die meisten osteuropäischer Herkunft (Ukraine und Russland) sind sowie eine kleinere liberal-jüdische Gemeinde. Es wird von etwa 100.000 bis 120.000 in München lebenden Muslimen ausgegangen, was sieben bis acht Prozent der Bevölkerung entspricht. 2005 wurde unter dem Schlagwort "Sendlinger Moscheenstreit" die Kontroverse um ein Neubauprojekt für eine Moschee bundesweit bekannt. Unter der Federführung des Imams Benjamin Idriz soll in München unter dem damaligen Namen „Zentrum für Islam in Europa – München“ (Ziem) eine große Moschee samt Kulturzentrum und Ausbildungsstätte für Imame entstehen. Das Projekt firmiert jetzt unter dem Namen „Münchner Forum für Islam“ (MIF). Im Juni 1945 wurde in München die ukrainisch-orthodoxe Kirche der Hl. Maria-Schutz wegen der vielen Zwangsarbeiter aus der Ukraine, die während des Zweiten Weltkrieges nach Bayern gebracht worden waren und dort zunächst als „Displaced Persons“, später teilweise dauerhaft blieben, gegründet. Anfangs zählte die Gemeinde über 5.000 Mitglieder, worauf hin im Stadtteil Ludwigsfeld eine zweite Kirchengemeinde gegründet wurde, die den Aposteln Petrus und Paulus gewidmet ist und bis heute existiert. In der Ungererstraße 131 in Schwabing-Freimann befindet sich das Pfarrgemeindezentrum der griechisch-orthodoxen Gemeinde Münchens und die Allerheiligenkirche. Die Zeugen Jehovas sind mit 59 Gemeinden in München vertreten, die 16 Königreichssäle und Saalzentren im Stadtgebiet betreiben. In der Riesstraße in Moosach befindet sich ferner ein Kongresssaal der Zeugen Jehovas, in dem regelmäßig überregionale Treffen stattfinden. Die Freikirche der Siebenten-Tags-Adventisten ist mit neun Gemeinden und Häusern im Stadtgebiet vertreten. In der Tizianstraße in Neuhausen-Nymphenburg befindet sich ebenfalls die Bayern-Zentrale der Freikirche. Die Kirche Jesu Christi der Heiligen der Letzten Tage ist in München mit vier Gemeinden in zwei Gemeindehäusern vertreten. Der Verein der Mandäer in Deutschland in München kümmert sich um den Aufbau einer funktionierenden mandäischen Gemeinde. Persönlichkeiten. Der Magistrat der Stadt München kann Personen, die sich in hohem Maße um das Wohl der Stadt verdient gemacht haben, zu Ehrenbürgern ernennen. Söhne und Töchter der Stadt sind in München geborene Personen, unabhängig davon, ob sie ihren späteren Wirkungskreis in München hatten oder nicht. Außerdem gibt es Persönlichkeiten, die nicht in München geboren sind, aber in der Stadt gelebt und gewirkt haben. Die Stadtgründung. München wurde 1158 zum ersten Mal als "forum apud Munichen" urkundlich im Augsburger Schied erwähnt, nachdem der Herzog von Bayern und Sachsen, Heinrich der Löwe, einen Übergang der Salzstraße über die Isar ungefähr an der Stelle der heutigen Ludwigsbrücke errichtet und nahe dem Übergang einen Markt gegründet hatte. Mit dem Augsburger Schied wurde die Stadt München jedoch nicht "gegründet"; die bereits bestehende Siedlung erhielt dadurch von Kaiser Friedrich Barbarossa nur das Markt-, Münz- und Zollrecht zugesprochen, woran die Freisinger Bischöfe jedoch proportional beteiligt waren. Auch ein erst später erwähnter Brückenzoll für die Nutzung der Münchner Isarbrücke wurde bis zur Mitte des 19. Jahrhunderts vom Bischof von Freising erhoben. Wann die ab 1158 „München“ genannte Siedlung wirklich gegründet wurde und welchen Namen sie bei ihrer Gründung hatte, liegt im Dunkeln. München im Mittelalter. Als Heinrich der Löwe 1180 vom Kaiser geächtet wurde, fiel Bayern an die Wittelsbacher und München an den Bischof von Freising. 1240 kam auch München in Wittelsbacher Besitz und wurde bereits 1255 nach der ersten Landesteilung herzogliche Residenz. Seit 1314 war Herzog Ludwig IV. deutscher König, seit 1328 auch römisch-deutscher Kaiser, und München wurde als seine Residenz durch einen neuen zweiten Mauerring erheblich erweitert. Zu dieser Zeit übernahm München die Farben des alten Reiches, Schwarz und Gold, als Stadtfarben. Seit dem Ende des 14. Jahrhunderts kam es wiederholt zu Aufständen der Bürgerschaft gegen die Herzöge, die daraufhin ihren Regierungssitz vom Alten Hof in die neue Residenz am Stadtrand verlegten. Wegen der Bedrohung durch die Hussiten wurde 1429 die Stadtbefestigung durch einen äußeren Mauerring verstärkt. 1442 wurden die jüdischen Bürger aus der Stadt vertrieben. Bis zur zweiten Hälfte des 18. Jahrhunderts lebten daraufhin keine Juden mehr in München (siehe hierzu: Geschichte der Juden in München). Im Jahre 1468 wurde der Grundstein zur neuen Marienkirche „Frauenkirche“ gelegt, deren Bau nur zwanzig Jahre dauerte. Haupt- und Residenzstadt Bayerns. Nachdem München in der Spätgotik eine neue kulturelle Blütezeit erlebt hatte, wurde die Stadt 1506 mit der Wiedervereinigung des Landes durch Albrecht IV. Hauptstadt von ganz Bayern. In der Folgezeit ging der Einfluss der Bürgerschaft immer weiter zurück und die Wittelsbacher bestimmten fortan die Entwicklung der Stadt. München wurde unter der Herrschaft von Wilhelm IV. und Albrecht V. ein Zentrum der Renaissance, aber auch der Gegenreformation. 1589 wurde das Hofbräuhaus durch Wilhelm V. gegründet. Zwei frühe Stadtansichten sind bei Georg Braun, Franz Hogenberg: „Civitates orbis terrarum“ von 1572 abgebildet. Unter Herzog Maximilian I. von Bayern wurde München 1623 kurfürstliche Residenzstadt, musste aber 1632 die Besatzung schwedischer Truppen erdulden. München musste ein hohes Lösegeld bezahlen und Geiseln stellen, um seiner Zerstörung zu entgehen. Wenig später brach die Pest aus und tötete ein Drittel der Bevölkerung. Nach dem Ende des Dreißigjährigen Kriegs 1648 erholte sich die Stadt aber schnell und öffnete sich unter Kurfürst Ferdinand Maria dem italienischen Barock. 1704 kam München im Spanischen Erbfolgekrieg für mehrere Jahre unter habsburgische Besatzung, da sich Kurfürst Maximilian II. Emanuel mit Frankreich verbündet hatte. Ein Aufstand der Bürger und Bauern wurde in der Sendlinger Mordweihnacht blutig beendet. Nach der Kaiserkrönung von Kurfürst Karl Albrecht besetzten habsburgische Truppen 1742 für zwei Jahre erneut die Stadt. Maximilian III. Joseph gab die Großmachtpolitik seiner Vorgänger auf und widmete sich inneren Reformen, so wurde die Bayerische Akademie der Wissenschaften 1759 in München gegründet. 1789 erfolgte auf Befehl Karl Theodors die Anlage des Englischen Gartens in den Isarauen und wenig später wurde die mittelalterliche Stadtbefestigung geschleift. Obwohl München bereits 1328 kaiserliche Residenzstadt wurde, begann der Aufstieg zur Großstadt erst 450 Jahre später. Gegen Ende des 18. Jahrhunderts wuchs München rapide, was 1806 noch beschleunigt wurde, als München die Hauptstadt des napoleonischen Königreichs Bayern wurde. Hatte München 1700 gerade einmal 24.000 Einwohner, so verdoppelte sich die Bewohnerzahl bald alle 30 Jahre, sodass 1871 170.000 Menschen in München lebten und 1933 840.000. Unter der Regierung von König Ludwig I. von Bayern (1825–1848) wurde München zu einer weithin bekannten Kunststadt. Die Klassizisten Leo von Klenze und Friedrich von Gärtner gestalteten die Ludwigstraße, den Königsplatz und die Erweiterung der Münchner Residenz. Ludwigs Sohn Max II. (1848–1864) förderte insbesondere die Geisteswissenschaften und scharte einen Literatenkreis um sich („Die Krokodile“), trat aber ebenso wie sein Vater als Bauherr hervor. Im neuen, an die englische Gotik erinnernden „Maximilianstil“, entstanden unter anderem die Bauten an der Maximilianstraße, heute eine der exklusivsten und teuersten Einkaufsstraßen des Kontinents. Unter seinem Bruder Prinzregent Luitpold (1886–1912) erlebte München dann einen gewaltigen wirtschaftlichen und kulturellen Aufschwung. Es entstanden unter anderem die Prinzregentenstraße und das Prinzregententheater. Schwabing erlebte um die Jahrhundertwende eine Blüte als Künstlerviertel, in dem zahlreiche bedeutende Literaten und Maler der Zeit verkehrten. 1896 wurde die Münchner Kulturzeitschrift "Die Jugend" erstmals herausgegeben, die namensgebend für den Jugendstil wurde. 1911 wurde die Künstlervereinigung "Der Blaue Reiter" gegründet. In seiner Erzählung "Gladius Dei" hat Thomas Mann für diese Epoche das geflügelte Wort "München leuchtete" geprägt. Revolution, Weimarer Republik und Nationalsozialismus. Flug über das zerstörte München 1945 1916, während des Ersten Weltkrieges wurde München bei drei französischen Luftangriffen durch Bomben getroffen, die keine großen Schäden anrichteten. Die sich verschlechternde Versorgungslage dagegen stellte ein großes Problem für die Bevölkerung dar. Nach dem Ende des Krieges kam es 1919, kurz nachdem die Monarchie abgeschafft wurde, in München zu revolutionären Umständen. Die in zwei unterschiedliche Phasen unterteilten Revolutionsversuche, beziehungsweise auch die Münchner Räterepublik, scheiterten. In den folgenden Jahren wurde München zunehmend eine Brutstätte für nationalsozialistische Aktivitäten, beispielsweise wurde der Stoßtrupp Adolf Hitler gegründet. 1923 scheiterte der Marsch Hitlers auf die Feldherrnhalle und damit auch der Hitlerputsch. München blieb jedoch stets der Sitz der Nationalsozialistischen Deutschen Arbeiterpartei (NSDAP). 1933 wurde München, wie viele andere Städte nach der Machtergreifung, offiziell gleichgeschaltet. Die Stadt sollte großflächig umgebaut werden; zuständiger Architekt war Hermann Giesler. 1935 verlieh Hitler München den Titel "Hauptstadt der Bewegung". 1938 wurde das Münchner Abkommen abgeschlossen, das den Anschluss des Sudetenlands an das Deutsche Reich festlegte. Die Bezeichnung wurde bis zum Ende der Zeit des Nationalsozialismus beibehalten. Am 1. Dezember 1937 zog die Rasseorganisation Lebensborn in das Haus von Thomas Mann, das sich Ecke der damaligen Föhringer Allee (seit 1955: Thomas-Mann-Allee) und der Poschingerstraße befand. Die Zentrale der SS-Organisation blieb bis zum 31. Dezember 1939 im Gebäude. Wie alle großen deutschen Städte wurde München durch alliierte Luftangriffe im Zweiten Weltkrieg stark getroffen (Luftangriffe auf München). Bis Kriegsende wurde die historische Altstadt zu 90 % und die Stadt insgesamt zu 50 % zerstört. Schätzungen zufolge fanden etwa 6.000 Menschen den Tod und etwa 15.000 wurden verletzt. Zahlreiche Gedenkstätten erinnern an die Opfer des Nationalsozialismus. München als moderne Großstadt. Nach dem weitgehend am historischen Stadtbild orientierten Wiederaufbau entwickelte sich München nach dem Zweiten Weltkrieg zum High-Tech-Standort, außerdem siedelten sich zahlreiche Unternehmen der Dienstleistungsbranche an, so zum Beispiel Medien, Versicherungen und Banken. In den ersten Nachkriegsjahrzehnten profitierte München indirekt auch von der deutschen Teilung, da zahlreiche Unternehmen aus der SBZ/DDR und aus Berlin in den Süden umsiedelten. Eines der bekanntesten unter ihnen ist Siemens. Auch der Tourismus erlebte in der an bedeutenden Museen (zum Beispiel Alte, Neue und Pinakothek der Moderne, Deutsches Museum) und Sehenswürdigkeiten reichen Stadt einen Aufschwung. Im Jahre 1972 war München Gastgeber der XX. Olympischen Spiele, die von der Geiselnahme israelischer Athleten durch palästinensische Terroristen überschattet wurden, in deren Verlauf alle Geiseln, mehrere Terroristen und ein Polizist ums Leben kamen. Für die Spiele wurde der Öffentliche Nahverkehr mit U- und S-Bahnen massiv ausgebaut, die teilweise weit ins Umland hineinreichen. Teile der Innenstadt wurden in dieser Zeit zu einer Fußgängerzone umgestaltet. Der rund 30 km entfernte neue Flughafen München „Franz Josef Strauß“ wurde im Mai 1992 eröffnet, gleichzeitig erfolgte die Schließung des alten Flughafens München-Riem. Auf dessen Gelände entstand später die Messestadt Riem mit dem Riemer Park, der im Rahmen der Bundesgartenschau 2005 eröffnet wurde. Insbesondere nach der Jahrtausendwende wurden auch in München zahlreiche Hochhäuser gebaut, beispielsweise das 146 m hohe Hochhaus Uptown und die Zwillingstürme Highlight Towers, das 2008 fertiggestellte SV-Hochhaus oder der Skyline Tower. Seit einem Bürgerentscheid im Jahr 2004, in dem sich die Mehrheit der teilnehmenden Münchner Wähler gegen den Bau von Gebäuden mit einer Höhe von mehr als 100 Metern aussprach, wurde in der bayerischen Landeshauptstadt kein Hochhaus mehr errichtet, das die beiden knapp 99 Meter hohen Türme der Frauenkirche überragt. Politik. Als Landeshauptstadt ist München der Sitz des Bayerischen Landtages und der Bayerischen Staatsregierung. Ferner ist die Stadt München Sitz der Regierung von Oberbayern, des Bezirks Oberbayern, des Landkreises München und des Landratsamtes München. Daneben ist die Stadt Sitz nationaler und internationaler Staatsorgane, wie beispielsweise des Bundesfinanzhofs und des Europäischen Patentamts. Traditionell dominieren vor allem in der Kommunalpolitik, in geringerem Maß auch in der Bundes- und Landespolitik in München die Mitte-links-Parteien, was in Bayern eher selten ist. So war das einzige von der SPD gewonnene Direktmandat in Bayern bei den Bundestagswahlen 2002 und 2005 der Wahlkreis München-Nord. 2009 aber konnte Johannes Singhammer das Mandat für die CSU zurückgewinnen. Bürgermeister und Stadtrat. Seit Mai 2014 wird München von Oberbürgermeister Dieter Reiter (SPD), dem Nachfolger des zuvor 20 Jahre amtierenden Oberbürgermeisters Christian Ude (SPD), regiert. Zweiter Bürgermeister ist Josef Schmid (CSU), dritte Bürgermeisterin Christine Strobl (SPD). Von 1996 bis 2014 wurde der Münchner Stadtrat von einer Koalition aus SPD, Grünen und Rosa Liste geführt, die dann von einer Großen Koalition abgelöst wurde. Wappen und Flagge. Das Wappen der Stadt München zeigt in Silber einen Mönch mit goldgeränderter schwarzer Kutte und roten Schuhen, in der Linken ein rotes Eidbuch haltend, die Rechte zum Schwur erhoben. Die Stadtfarben sind schwarz-gelb. Bei dem heutigen Stadtwappen handelt es sich um das so genannte „kleine Wappen“, das 1957 vom Stadtrat festgelegt wurde. Das so genannte „große Wappen“ zeigt in Silber ein offenes rotes Stadttor zwischen zwei roten Zinnentürmen mit von Schwarz und Gold mehrfach zickzackartig gebänderten Dächern; oben ein wachsender, golden gekrönter und bewehrter goldener Löwe; im Tor der Mönch des kleinen Wappens. Im amtlichen Verkehr wird das große Wappen nicht mehr verwendet, sondern ausschließlich zu repräsentativen Zwecken. Aus dem Mönch im Wappen entwickelte sich im Laufe der Zeit das Münchner Kindl. Die Münchner Stadtfarben sind seit der Zeit Kaiser Ludwigs des Bayern die Farben des Alten Reichs: Schwarz und Gold. Die Münchner Stadtflagge zeigt diese beiden Farben längsgestreift. In Analogie zu der Staatsflagge Bayerns wird jedoch auch eine rautierte Fassung verwendet. Gelegentlich ist auch das kleine Stadtwappen in der Mitte der Flagge abgebildet. Patenschaften. Am 17. August 1952 wurde die Patenschaft für die vertriebenen Sudetendeutschen aus der Stadt und dem Kreis Aussig an der Elbe übernommen. Um den Wiederaufbau im ehemaligen Jugoslawien zu unterstützen, hat München 1999 eine Patenschaft für die bosnische Gemeinde Vogošća und 2000 für die serbische Gemeinde Subotica übernommen. Romanik und Gotik. Der Marienplatz gilt als Mittelpunkt Münchens und liegt, umgeben von dem Neuen und dem Alten Rathaus, im Zentrum der Altstadt. Wenige Schritte davon entfernt liegt die Peterskirche, die älteste Kirche der Altstadt, deren erster Bau noch aus der Romanik stammte. Heute steht dort ein gotischer Neubau, der im Inneren barockisiert wurde. Seit dem Abbruch der St.-Jakobs-Kirche 1955 gibt es in der Innenstadt kein romanisches Bauwerk mehr, mehrere im Kern romanische Kirchen in den einstigen Vororten haben sich jedoch erhalten, so Hl. Kreuz in Fröttmaning mit seinem Fresko, St. Johann Baptist in Johanneskirchen, St. Martin in Moosach und St. Nikolaus in Englschalking. Bemerkenswert ist auch eines der seltenen romanischen Kruzifixe in der Kirche Heilig Kreuz des Stadtteils Forstenried. Aus der Zeit der Gotik dagegen haben sich neben der Peterskirche viele Bauwerke erhalten. Von der einstigen Stadtbefestigung stammen das Isartor, das Sendlinger Tor, das Karlstor und der Löwenturm am Rindermarkt. Die wichtigsten Profanbauten der Gotik sind der Alte Hof, das Alte Rathaus mit seinem Tanzsaal, das Zeughaus, das heute ein Teil des Stadtmuseums ist. Die nahe dem Marienplatz gelegene spätgotische Frauenkirche mit ihren zwei markanten Türmen mit den charakteristischen Renaissancehauben ist ein Wahrzeichen Münchens. Eine weitere gotische Hallenkirche ist die in der Barockzeit umgestaltete Heiliggeistkirche am Viktualienmarkt. Erhalten haben sich auch die spätgotischen Friedhofskirchen der Frauenkirche und von St. Peter, die Salvatorkirche und die Heiligkreuzkirche. In der einstigen Augustinerkirche befindet sich heute das Deutsche Jagd- und Fischereimuseum. In den Stadtteilen haben sich ebenfalls mehrere gotische Kirchen erhalten, auch hier wurden einige in der Barockzeit verändert, wie beispielsweise die Wallfahrtskirche St. Maria Ramersdorf. Die Schlosskapelle von Schloss Blutenburg und die Filialkirche St. Wolfgang in Pipping haben ihren gotischen Originalzustand dagegen bewahrt und gelten heute als beste Zeugnisse spätgotischer Architektur in München. Die Burg Grünwald ist die einzige mittelalterliche Burg, die in der näheren Umgebung von München bestehen blieb. Renaissance und Manierismus. War die Architektur der spätmittelalterlichen Stadt in erster Linie noch durch die bürgerliche Kunst geprägt, so bestimmte mit der Wiedervereinigung Bayerns immer stärker der Hof die architektonische Entwicklung der Stadt. Bedeutende Bauwerke der Renaissance sind insbesondere die Michaelskirche, die größte Renaissancekirche nördlich der Alpen, die sich daran anschließende Alte Akademie, der Innenhof der Alten Münze sowie einige Trakte der Residenz. Von der Maxburg, einem Stadtpalast der Renaissance, hat sich nur der Turm erhalten. Das in der Renaissancezeit umgebaute Weinstadl ist als eines der ältesten noch bestehenden Bürgerhäuser erhalten. Das 1589 gegründete Hofbräuhaus befindet sich heute in einem Bau des 19. Jahrhunderts am Platzl. Barock und Rokoko. Früheste noch bestehende Barockkirche der Stadt ist die heute säkularisierte Karmelitenkirche, noch in der Tradition einheimischer Bauhütten entstanden. Mit dem Bau der Theatinerkirche (St. Kajetan) zog dann der italienische Barock in München ein, der für mehrere Jahrzehnte bestimmend wurde, bis die französisch geschulten Architekten Joseph Effner und François de Cuvilliés Hofbaumeister wurden. Zahlreiche weitere Kirchen aus der Barockzeit sind in der Stadt zu finden, so die Bürgersaalkirche und die Dreifaltigkeitskirche, darüber hinaus mehrere Adelspaläste, insbesondere das Palais Porcia, das Alte und das Neue Preysing Palais sowie das Palais Holnstein, die heutige Residenz des Erzbischofs. Hauptwerke des süddeutschen Barocks sind auch die Schlösser Nymphenburg mit seinen Parkburgen und Schleißheim. Wesentlich kleiner ist das gleichzeitig entstandene Schloss Fürstenried im Südwesten der Stadt. Nahe dem Sendlinger Tor liegt die Asamkirche, die im Inneren in prunkvollem Spätbarock gestaltet wurde. Das Asam-Schlössl war das Wohnhaus des Barockkünstlers Cosmas Damian Asam im Münchner Stadtteil Thalkirchen. Mit der Klosterkirche St. Anna im Lehel entstand die erste Rokokokirche Bayerns. Die bedeutendste Rokokokirche außerhalb der Innenstadt ist St. Michael in Berg am Laim. Prunkstücke des Rokoko sind auch die Amalienburg im Nymphenburger Schlosspark und das Cuvilliés-Theater in der Residenz. Das Neue Landschaftsgebäude zeigt bereits den Übergangsstil vom späten Rokoko zum Klassizismus. Klassizismus, Historismus und Jugendstil. Mit dem Nationaltheater nahe der Residenz entstand ein Hauptwerk des Klassizismus. Von der Residenz führen auch die vier großen von den Bayerischen Königen angelegten Prachtstraßen in die Stadtteile. Insbesondere König Ludwig I. griff bereits als Kronprinz in die Planungen ein. Durch seine Architekten Leo von Klenze und Friedrich von Gärtner ließ er zahlreiche klassizistische Prachtbauten errichten. Nach Westen Richtung Nymphenburg führt die von den Zerstörungen des Zweiten Weltkriegs gezeichnete Brienner Straße, unterbrochen vom sternförmigen Karolinenplatz mit seinem Obelisken sowie dem Königsplatz mit dem Prachttor der Propyläen und der Glyptothek. Von der lockeren frühklassizistischen Bebauung hat sich unter anderen das Palais Almeida erhalten. Nach Norden Richtung Schwabing entstand die Ludwigstraße zwischen Feldherrnhalle und Siegestor. An ihr liegen die Bayerische Staatsbibliothek, die Ludwigskirche und die Ludwig-Maximilians-Universität sowie zahlreiche Staatsministerien. Etwa gleichzeitig entstand an der Theresienwiese die Bavaria vor der Ruhmeshalle. Südlich der Residenz, vor der Oper, beginnt die in der Mitte des 19. Jahrhunderts als Paradestraße gestaltete Maximilianstraße. Sie führt von der Altstadt nach Osten über die Isar in Richtung des Maximilianeums, des Sitzes des bayerischen Landtages. Hier liegen auch das später im Jugendstil umgestaltete Münchner Schauspielhaus, das Gebäude der Regierung von Oberbayern und das Museum Fünf Kontinente. Heute ist die Maximilianstraße eine luxuriöse Einkaufsmeile. Schließlich entstand auf der Nordseite der Residenz die vom frühklassizistischen Prinz-Carl-Palais am Hofgarten nach Osten führende Prinzregentenstraße, an der das Nationalmuseum und die Schackgalerie liegen. Wo die Straße die Höhe der Isarterrasse erreicht, steht der Friedensengel. Im Haidhauser Teil der Straße befindet die Villa Stuck und das Prinzregententheater. Von den Konstruktionen aus Glas und Eisen, die zu ihrer Entstehungszeit Mitte des 19. Jahrhunderts als technische Meisterwerke galten, hat sich die Schrannenhalle am Viktualienmarkt teilweise erhalten, während der Glaspalast 1931 abbrannte; nur der Zierbrunnen hat überlebt und befindet sich heute in der Mitte des Weißenburger Platzes im Stadtteil Haidhausen. Seit Ende des 19. Jahrhunderts entstanden viele Kirchen und Prachtbauten des Historismus, so St. Paul, St. Lukas, das neugotische Neue Rathaus am Marienplatz, der neubarocke Justizpalast am Stachus, das Armeemuseum am Hofgarten (heute befindet sich hier die Bayerische Staatskanzlei) und die im Neurenaissancestil erbaute Akademie der Bildenden Künste an der Akademiestraße in der Nähe des Siegestors. Vor allem in Schwabing stehen noch zahlreiche im Jugendstil errichtete Wohnhäuser. Unweit des ab 1909 erbauten Deutschen Museums und des Kulturzentrums Gasteig befindet sich in der Au mit dem nach vierjähriger Bauzeit 1901 eröffneten und im Jugendstil erbauten Müllerschen Volksbad das älteste öffentliche Hallenbad Münchens. In München finden sich etwa 1.200 Brunnen, davon etwa 700 städtische. Der älteste ist der Fischbrunnen auf dem Marienplatz. Weitere markante Brunnen sind insbesondere der Wittelsbacher Brunnen am Lenbachplatz und der Vater-Rhein-Brunnen auf der Museumsinsel, beides Werke von Adolf von Hildebrand. Moderne. Münchens Architektur seit Beginn des 20. Jahrhunderts wurde stark von Stadtplanern und Architekten wie Theodor Fischer, German Bestelmeyer und Otho Orlando Kurz bestimmt, die zahlreiche Gebäude in der Stadt errichteten. Die Borstei ist eine denkmalgeschützte Wohnsiedlung im Stadtteil Moosach, die zwischen 1924 und 1929 erbaut wurde. Ab 1928 entstand die Siedlung Neuhausen. Von den Bauten aus der Zeit des Nationalsozialismus haben sich unter anderem das Haus der Kunst und das ehemalige Luftgaukommando in der Prinzregentenstraße sowie die Parteigebäude am Ostrand des Königsplatzes erhalten. Andererseits wurden bedeutende Bauten wie die Matthäuskirche, die Hauptsynagoge und das Herzog-Max-Palais in dieser Zeit abgerissen. Im Zweiten Weltkrieg wurde der größte Teil der Münchner Gebäude in 66 Luftangriffen stark beschädigt oder gar zerstört. Nur 2,5 % der Gebäude blieben unversehrt und fast die Hälfte der Baumasse wurde vernichtet. Besonders stark betroffen waren die Bahnhofsgegend, die Altstadt und Schwabing. Fast alle historischen Gebäude, die heute das Münchner Stadtbild prägen, wurden nach dem Krieg wieder aufgebaut, nach alten Plänen rekonstruiert oder im Stil der Altstadt neu gebaut. In den Jahrzehnten nach dem Zweiten Weltkrieg entstanden nur vereinzelt bedeutsame Beispiele moderner Architektur, die teilweise sogar wieder abgerissen wurden wie etwa das spektakuläre Landesversorgungsamt der Brüder Luckhardt im Jahr 1989. Zu den wichtigeren Werken gehören der Kaufhof am Stachus von Theo Pabst, erster Münchner Kaufhausneubau nach Kriegsende, das von ihm zusammen mit Sep Ruf errichtete Justizgebäude Neue Maxburg in München, und der Neubau der Matthäuskirche von Gustav Gsaenger. Bedeutsame Beispiele moderner Architektur in München sind vor allem auch die Sportstätten (siehe unten). Seit den 1990er-Jahren erfasste die Stadt jedoch eine zweite Gründerzeit, die zunehmend anspruchsvollere Architektur hervorbrachte. Als gelungenstes sakrales Bauwerk gilt die Herz-Jesu-Kirche. Die relativ wenigen Hochhäuser in München liegen bis auf das Alte Technische Rathaus aus den zwanziger Jahren des 20. Jahrhunderts und dem Central Tower München außerhalb der Innenstadt. Auch wurde 2004 in einem Bürgerentscheid die Höhe künftiger Hochhäuser auf 100 Meter begrenzt. Architektonisch am erwähnenswertesten sind der BMW-Vierzylinder am Olympiapark, neben dem im Oktober 2007 die futuristische BMW Welt eröffnet wurde, sowie das Hypo-Haus im Arabellapark und die im Norden von Schwabing gelegenen Highlight Towers. Das mit 146 Meter höchste Hochhaus der Stadt ist das Uptown München. Höchstes Bauwerk der Stadt ist der 291 Meter hohe Olympiaturm. Am 9. November 2006 wurde das neue Jüdische Zentrum am St.-Jakobs-Platz in der Innenstadt eröffnet – ein Ensemble aus neuer Hauptsynagoge Ohel Jakob, dem Gemeindehaus der Israelitischen Kultusgemeinde München und dem städtischen Jüdischen Museum (eröffnet am 22. März 2007). Es ist das größte jüdische Zentrum Europas und beherbergt erstmals alle jüdischen Einrichtungen der Israelitischen Kultusgemeinde an einem Ort – mitten im Zentrum der Stadt. Entworfen wurde das Ensemble von den Architekten Wandel, Hoefer und Lorch, die auch schon die Dresdner Synagoge umgebaut haben. Herausstechendstes Merkmal des Ensembles sind die verschieden bearbeiteten Außenwände aus hellem Travertinstein, die besonders an der Hauptsynagoge an die Klagemauer in Jerusalem erinnern sollen. Viel Beachtung fand der Bau des Museum Brandhorst, das nach Plänen des Architekturbüros Sauerbruch Hutton im Kunstareal München erbaut und 2009 eröffnet wurde. Es befindet sich in unmittelbarer Nähe zur Pinakothek der Moderne, die vom Architekten Stephan Braunfels entworfen wurde und 2002 ihre Pforten öffnete. Parks. Die älteste Gartenanlage ist der Hofgarten aus der Renaissancezeit mit dem Dianatempel. Nordöstlich schließen sich der Finanzgarten und der seit 1789 gestaltete Englische Garten an, der München vom Zentrum bis an die nördliche Stadtgrenze durchzieht, und mit 4,17 km² Fläche sogar den Central Park in New York übertrifft. Im Westen der Altstadt am Stachus befindet sich der Alte Botanische Garten, in dem bis zu seiner Zerstörung durch Feuer der Glaspalast stand. Erhalten hat sich das klassizistische Eingangstor von Herigoyen mit einer von Johann Wolfgang Goethe eigens verfassten Inschrift. Der Schlosspark Nymphenburg entstand im Westen von Schloss Nymphenburg im französischen Stil. Im 19. Jahrhundert wurde er bis auf das „Grand Parterre“ in einen englischen Landschaftspark verwandelt. Nördlich schließt sich der Neue Botanische Garten an. Südöstlich von Nymphenburg liegt der ehemals kurfürstliche Hirschgarten. Gleich drei barocke Schlösser befinden sich an der nördlichen Stadtgrenze im Park von Schloss Schleißheim, neben Herrenhausen und Schwetzingen ist er der einzige erhaltene große Barockgarten in Deutschland. Bedeutend ist auch der Olympiapark, der neben mehreren Seen auch einen hervorragenden Blick über die Stadt vom Olympiahügel bietet. Daneben existieren zahlreiche weitere Parks und Grünflächen, wie zum Beispiel der Luitpoldpark, der West- und der Ostpark. Die vielen Parks machen München im Sommer zu einer äußerst grünen Stadt und ermöglichen im Winter sogar auf eigens gespurten Loipen das Langlaufen. Grünanlagen besonderer Art sind der aufgelassene Alte Südliche Friedhof mit zahlreichen Prominentengräbern in der Nähe des Sendlinger Tors sowie der ebenfalls aufgelassene Alte Nördliche Friedhof in der Maxvorstadt. Die Isarauen sind eine lang gezogene, schmale Parklandschaft entlang des Gebirgsflusses, der anlässlich der Bundesgartenschau 2005 teilweise renaturiert wurde. Die Stadt kann an der Isar entlang ohne Unterbrechung im Grünen durchlaufen oder -radelt werden, sogar auf verschiedenen Trassen. Die eigentlichen Isarauen zwischen Deutschem Museum und der Isarinsel Flaucher sind beliebte Orte zum Grillen und Baden (auch zu gemäßigter Freikörperkultur). Südlich vom Flaucher liegt der Tierpark Hellabrunn. Für die Bundesgartenschau 2005 wurde im Stadtteil Messestadt Riem mit dem Riemer Park eine weitere, ausgedehnte Parkanlage im Osten Münchens angelegt. Museen. München ist international bekannt für seine Sammlungen der alten und klassischen Kunst, die in staatlichen, städtischen und privaten Museen wie Galerien präsentiert werden. So gehören zum Beispiel die Alte und die Neue Pinakothek sowie die Pinakothek der Moderne und das 2014 stark erweiterte Lenbachhaus zu den weltweit renommiertesten Museen. Zusammen mit der Glyptothek, der Staatlichen Antikensammlungen und dem Museum Brandhorst bilden diese Museen das Kunstareal München. Auch das Staatliche Museum Ägyptischer Kunst erhielt einen Neubau im Kunstareal. Neubau der Städtischen Galerie im Lenbachhaus Eine weitere Museumslandschaft neben dem Kunstareal ist das Lehel mit dem Haus der Kunst, dem Bayerischen Nationalmuseum, der Archäologischen Staatssammlung, der Schackgalerie, der Galerie der Künstler und dem Museum Fünf Kontinente, dem früheren Völkerkundemuseum. Östlich der Isar an der Prinzregentenstraße liegt das einzigartige Jugendstilgebäude Villa Stuck mit einer ständigen Sammlung von Franz von Stucks Werken sowie hochkarätigen Wechselausstellungen. In Oberföhring findet sich die Sammlung Goetz, die ebenfalls Wechselausstellungen in einem Museumsbau von Herzog & de Meuron präsentiert. Das Münchner Stadtmuseum befindet sich im ehemaligen Zeughaus am St.-Jakobs-Platz und beherbergt eine Reihe von verschiedenen Sammlungen und Museen: Die Sammlung für Skulpturen und angewandte Kunst, das Filmmuseum, das Fotomuseum, die Sammlung für Grafik, Plakat, Gemälde, die Sammlung für Mode und Textilien, die Musiksammlung (Musikinstrumentensammlung), die Sammlung für Puppentheater und Schaustellerei sowie die Sammlungen zur Stadtkultur und Volkskunde. Aus den Beständen der verschiedenen Sammlungen werden regelmäßig Ausstellungen kuratiert, die entweder sammlungsspezifisch (zum Beispiel im Fotomuseum) oder sammlungsübergreifend (zum Beispiel die Ausstellung „Typisch München“) konzipiert sind. Gegenüber dem Münchner Stadtmuseum befindet sich ein weiteres städtisches Museum: Das Jüdische Museum, das dort mit der neuen Synagoge und dem jüdischen Gemeindezentrum das neue Jüdische Zentrum bildet. Darüber hinaus unterhält die Stadt München verschiedene Galerien wie etwa die Lothringer13, die Kunstarkaden, die Rathausgalerie, das MaximiliansForum oder die Artothek, wo Kunstwerke entliehen werden können. Das Residenzmuseum befindet sich in der ehemaligen Residenz der Wittelsbacher in Münchens Altstadt und ist eines der bedeutendsten Schlossmuseen Europas. Festsäle, Prunkräume oder Hofkapellen bayerischer Herrscher vermitteln einen Einblick in historische Raumensembles verschiedener Epochen mit bedeutenden Exponaten der Wittelsbacher Sammlungen von Silber, Porzellan, Miniaturen, Gemälden, antiken Skulpturen, Bronzeplastiken, Tapisserien, Möbeln, Uhren, Kerzenleuchtern und Lüstern. Die Staatliche Münzsammlung ist in der Residenz untergebracht. Die Staatliche Graphische Sammlung München befindet sich in der Katharina-von-Bora-Straße Im Schloss Nymphenburg befinden sich das Marstallmuseum, die Nymphenburger Porzellansammlung und das naturkundliche Museum Mensch und Natur. Darüber hinaus gibt es in der Stadt weitere Museen für die bisher nicht zusammengefassten naturwissenschaftlichen Sammlungen des Staates, so das Paläontologische Museum, das Museum Reich der Kristalle sowie für die Anthropologische, die Geologische, die Botanische und die Zoologische Staatssammlung. Ein Publikumsmagnet, auch durch die prominente Lage in der Innenstadt, ist das Deutsche Jagd- und Fischereimuseum. Die Kunsthalle der Hypo-Kulturstiftung befindet sich in der Theatinerstraße. Das Deutsche Museum mit weltweit einmaligen technischen Exponaten gehört mit über einer Million Besucher pro Jahr zu den meistbesuchten Museen Europas und ist das größte technisch-naturwissenschaftliche Museum der Welt. Zweigstellen sind die Flugwerft Schleißheim und das neu eröffnete Verkehrsmuseum an der Theresienwiese. Daneben gibt es mit dem BMW Museum und dem Museum im SiemensForum München Sammlungen zur Firmengeschichte in München ansässiger Technikkonzerne. Das kleinste Museum der Stadt ist das Karl-Valentin-Musäum in einem der beiden Türme der ehemaligen Stadtbefestigungsanlage am Isartor; es zeigt Exponate zu Leben und Werk Karl Valentins. Bildende Kunst. In der Spätgotik gab es in München eine erste kulturelle Blüte, als unter anderem Erasmus Grasser und Jan Polack in der Stadt arbeiteten. In der Renaissancezeit wurde die Stadt zu einem Zentrum der Bildhauer, das von Hubert Gerhard und Hans Krumpper geprägt wurde. Als Maler waren in dieser Zeit Barthel Beham, Hans von Aachen und Peter Candid in München tätig. Im 18. Jahrhundert erlebte die Stadt ein Goldenes Zeitalter der Bildenden Kunst, das von Persönlichkeiten wie Cosmas Damian Asam, Egid Quirin Asam, Johann Michael Fischer, François de Cuvilliés, Ignaz Günther, Johann Baptist Zimmermann und Johann Baptist Straub bestimmt wurde. Von etwa 1850 bis 1914 entwickelt sich München zu einen der Zentren der europäischen Malerei. Im Umfeld der Königlichen Akademie der Bildenden Künste entsteht die Münchner Schule. Bis heute hat diese große kunstgeschichtliche Bedeutung als Vertreter der akademischen Malerei. Bekannte Lehrkräfte and er Akademie waren ua. Karl von Piloty, Wilhelm von Diez, Arthur von Ramberg und Nikolaus Gysis. Aus dem Umfeld der Akademie (und als Abspaltung der Münchner Künstlergenossenschaft) entstand die Münchener Secession mit Mitgliedern wie Max Liebermann, Franz von Stuck, Lovis Corinth, Ernst Oppler und Walter Leistikow. Der Blaue Reiter wurde 1911 ins Leben gerufen und ließ München schließlich zu einem Zentrum moderner Kunst aufsteigen. Mitglieder waren Paul Klee, Wassily Kandinsky, Alexej von Jawlensky, Gabriele Münter, Franz Marc, August Macke und Alfred Kubin. 1919 wurden die ersten Studios der Bavaria Film in Geiselgasteig – einem Ortsteil der Gemeinde Grünwald im Süden Münchens − errichtet. Literatur. Im 19. Jahrhundert lebten unter anderen Heinrich Heine, Friedrich Hebbel und Hans Christian Andersen für längere Zeit in München. Das literarische Leben der Stadt mit seinem Zentrum in Schwabing nahm in den letzten Jahrzehnten des Königreiches Bayern einen großen Aufschwung und wurde geprägt von Schriftstellern wie Paul Heyse, Lena Christ, Ludwig Thoma, Thomas Mann, Rainer Maria Rilke und Frank Wedekind. In der Weimarer Republik waren die bekanntesten literarischen Münchner Repräsentanten Lion Feuchtwanger, Annette Kolb, Bertolt Brecht und Oskar Maria Graf. Später gelangte der in München geborene Schriftsteller Eugen Roth zu literarischem Ruhm, und viele Schriftsteller wie Erich Kästner, Wolfgang Koeppen und Michael Ende lebten und arbeiteten in der Stadt. Theater, Oper, Ballett. München besitzt eine sehr reichhaltige Theater-, Ballett- und Opernkultur mit fünf staatlichen, drei städtischen und über 50 privaten Bühnen. Das musikalische Leben der Stadt hat eine lange Tradition. Hier wirkten bedeutende Komponisten wie Orlando di Lasso, Carl Maria von Weber, Gustav Mahler, Richard Strauss und Carl Orff. Im Salvatortheater wurde 1775 Wolfgang Amadeus Mozarts "La finta giardiniera" uraufgeführt, 1781 folgte im Cuvilliés-Theater die Weltpremiere seines "Idomeneo". Im Nationaltheater kamen unter Ludwig II. mehrere Opern Richard Wagners zur Uraufführung. Im Musiktheater sind vor allem die Bayerische Staatsoper und das Staatstheater am Gärtnerplatz zu nennen, die jeweils über eine eigene Ballettkompanie verfügen: das Bayerische Staatsballett und das Ballett des Staatstheaters am Gärtnerplatz. Die von Hans Werner Henze gegründete Münchner Biennale widmet sich modernem Musiktheater. In der Sparte Sprechtheater sind die bedeutendsten Bühnen der Stadt das Bayerische Staatsschauspiel, die Münchner Kammerspiele und das Münchner Volkstheater. Seit den Premieren von Gotthold Ephraim Lessing 1775 haben viele bekannte Autoren in München ihre Stücke zur Uraufführung gebracht, darunter Christian Friedrich Hebbel, Henrik Ibsen und Hugo von Hofmannsthal. Von den privaten Bühnen ist das Metropol-Theater bereits mehrfach ausgezeichnet worden und auch das Münchner Sommertheater, ein Freilichttheater im Englischen Garten, zieht jährlich tausende Zuschauer an. Boulevardtheater bietet die Komödie im Bayerischen Hof – meist mit prominenten Schauspieler/innen in den Hauptrollen. Im Kinder- und Jugendtheater spielt die Schauburg der Stadt München eine zentrale Rolle. Daneben gibt es noch verschiedene andere private Bühnen für Kinder, wie etwa das Münchner Theater für Kinder oder das Münchner Marionettentheater. Das Marionettentheater Kleines Spiel spielt dagegen nahezu ausschließlich am Abend und für Erwachsene. Im Kabarettbereich sind die Münchner Lach- und Schießgesellschaft, das Lustspielhaus oder der Schlachthof wichtige Bühnen der Stadt. Unter den Münchner Kabarettisten ragen z. B. Karl Valentin, Dieter Hildebrandt oder Gerhard Polt hervor. Die bedeutendsten Spielstätten sind das Nationaltheater München (Bayerische Staatsoper, Bayerisches Staatsballett), das Residenztheater (Bayerisches Staatsschauspiel), das Staatstheater am Gärtnerplatz (Oper, Operette, Tanz und Musical), das Prinzregententheater (u. a. Bayerische Theaterakademie August Everding, staatliche Theater, Konzerte), das Schauspielhaus (Münchner Kammerspiele), die Schauburg (auch: SchauBurg), das Münchner Volkstheater sowie das Deutsche Theater. Mit dem 1905 gegründeten Circus Krone hat der größte Zirkus Europas in München seinen festen Wintersitz im Kronebau. Orchester und Chöre. Die Münchner Philharmoniker, das Symphonieorchester des Bayerischen Rundfunks und das Bayerische Staatsorchester zählen zu den bedeutendsten deutschen Orchestern und arbeiten regelmäßig mit den international renommierten Dirigenten zusammen, aber auch die Münchner Symphoniker oder das Münchener Kammerorchester genießen einen sehr guten Ruf. Wichtige Chöre sind u. a. der Philharmonische Chor München, der Chor des Bayerischen Rundfunks, der Münchener Bach-Chor, der orpheus chor münchen oder der Tölzer Knabenchor, dessen Studio sich in München/Solln befindet und bei dem die Mehrheit der Knaben aus München stammt. Die wichtigsten Spielstätten für Orchester und Chöre in München sind die Philharmonie im Gasteig (2387 Plätze), das Prinzregententheater (1081 Plätze) oder der Herkulessaal (1270 Plätze) in der Münchner Residenz. Bis heute fehlt jedoch München ein optimal klingender Konzertsaal, was häufig zu Debatten führt. Für eine mögliche Sanierung der Philharmonie im Gasteig, um diese akustisch aufzuwerten, fehlen der Stadt München derzeit die finanziellen Mittel. Die Bayerische Staatsregierung favorisiert einen kompletten Neubau eines Konzertsaals mit ca. 1800 Plätzen, bei dem unterschiedliche Orte diskutiert werden (u. a. der Finanzgarten oder der Apothekenhof der Residenz). Kulturelle und regelmäßige Veranstaltungen. Überregional bekannte kulturelle Veranstaltungen sind unter anderem die Opernfestspiele, die Tanzwerkstatt Europa und das Filmfest. Zu Beginn des Jahres finden zur Faschingszeit der Tanz der Marktfrauen, das Faschingstreiben am Viktualienmarkt sowie am Aschermittwoch das traditionelle Geldbeutelwaschen am Fischbrunnen auf dem Marienplatz statt. Im Februar und März folgt dem Aschermittwoch die „Starkbierzeit“, die mit verschiedenen Veranstaltungen begangen wird – zum Beispiel mit dem Derblecken auf dem Nockherberg, das alljährlich vom Bayerischen Rundfunk übertragen wird. Im März locken neben dem St. Patrick’s Day auch die Münchner Bücherschau junior Besucher an, die als Großveranstaltung neben Kinder- und Jugendliteratur auch die Leseförderung in den Mittelpunkt stellt. Zur Osterzeit findet in München am Karsamstag ein Ostermarsch statt. Im April findet das Frühlingsfest auf der Theresienwiese statt – ein Volksfest, jedoch kleiner als das berühmte Oktoberfest. Am ersten Mai findet das Kultur- und Familienfest am Marienplatz statt. Es folgt am ersten Maiwochenende der Beginn der ersten neuntägigen Auer Dult (Maidult) des Jahres. Seit 1988 findet alle zwei Jahre ein internationales Festival für neues Musiktheater statt: die Münchener Biennale. Zwischen Mai und August findet die Münchner Bladenight statt, Europas größte Nachtskate-Veranstaltung. Anfang Juni findet mit dem StuStaCulum Deutschlands größtes von Studenten organisiertes Musik- und Theaterfestival im Münchner Stadtteil Freimann statt. Mitte Juni wird alljährlich an einem Wochenende zwischen Marienplatz und Odeonsplatz der Münchner Stadtgeburtstag gefeiert. Darüber hinaus finden im Juni verschiedene Festivals statt: das Streetlife-Festival, das Comicfestival München, das Munich International Short Film Festival sowie Ende Juni/Anfang Juli das Filmfest München, das zweitgrößte Filmfestival Deutschlands. Im Juni und Juli findet das Tollwood-Festival auf dem Olympiapark Süd sowie die Münchner Opernfestspiele statt. Wichtige Veranstaltungen im Juli sind der Christopher Street Day, der traditionelle Kocherlball, das Japanfest München am dritten Sonntag beim Japanischen Teehaus hinter dem Haus der Kunst. Ende Juli zieht die zweite Auer Dult (Jakobidult) sowie Bell’Arte – Musikalischer Sommer im Brunnenhof der Münchner Residenz Besucher an. In den ersten zehn Augusttagen findet an verschiedenen Veranstaltungsorten in München die Tanzwerkstatt Europa statt, ein Festival für internationalen zeitgenössischen Tanz. Im Olympiapark wird ebenfalls im August das Sommerfest sowie das LILALU & Kultur- und Familienfestival veranstaltet. Mitte September findet das zweite Streetlife-Festival statt und das Oktoberfest beginnt auf der Theresienwiese (die "Wiesn"), die bis zum ersten Sonntag im Oktober andauert. Mitte Oktober beginnt die dritte, neuntägige Auer Dult (Kirchweihdult) und im November findet die Münchner Bücherschau im Gasteig statt. Im November und Dezember findet alle zwei Jahre das Theaterfestival Spielart statt. Kurz vor dem ersten Adventssonntag beginnt das Winter-Tollwood auf der Theresienwiese, das bis Neujahr andauert. Darüber hinaus gibt es in der Adventszeit auf verschiedenen Plätzen in München Christkindlmärkte (zum Beispiel Marienplatz, Weißenburger Platz). Kulinarische Spezialitäten. Die Gastronomie in München bietet zahlreiche Spezialitäten der bayerischen Küche. Die Weißwurst wurde 1857 in München erfunden und ist die wohl berühmteste kulinarische Spezialität der Stadt. Weiter sind zum Beispiel der Leberkäs bzw. die Leberkässemmel, die Brezn, die Ausgezogene (ein rundes Schmalzgebäck), die Prinzregententorte und das Münchner Bier zu nennen. Wirtschaft und Infrastruktur. Laut einer Vergleichsstudie (von den Zeitschriften Wirtschaftswoche, der Initiative Neue Soziale Marktwirtschaft (INSM) und der Kölner IW Consult GmbH) hat München unter den fünfzig größten deutschen Städten die zweithöchste Wirtschaftskraft. Die neueste Studie der Initiative Neue Soziale Marktwirtschaft und des Magazins "Wirtschaftswoche" erklärte München prognostisch erneut zur wirtschaftlich erfolgreichsten Stadt Deutschlands. Die Studie bewertet wirtschaftliche und strukturelle Indikatoren wie Produktivität, Bruttoeinkommen, Investitionen, Innovationen, Arbeitslosenquote und Zahl der Hochqualifizierten. Strom, Wasser und Gasversorgung. Die Stadtwerke München GmbH (SWM) sind einer der größten deutschen kommunalen Dienstleister und eines der größten Energieversorgungsunternehmen Deutschlands. Alleingesellschafterin ist die Landeshauptstadt München. Unter dem Namen „M-Strom“ vertreiben die SWM Strom an Privat- und Geschäftskunden. Die SWM sind im Stadtgebiet München und der Münchner Region Betreiber von zwölf Wasserkraftwerken, mehreren Anlagen, die Strom aus regenerativer Energie erzeugen und den drei Heizkraftwerken Süd, Nord und Freimann, die rund 70 Prozent des Stroms mit Kraft-Wärme-Kopplung erzeugen. Die SWM sind mit ihren Beteiligungsgesellschaften auch zu 25 Prozent am Kernkraftwerk Isar 2 beteiligt. Als Teil des europäischen Verbundnetzes versorgen die SWM ihre Kunden mit Erdgas. Dafür steht auch ein eigener Untertagespeicher zur Verfügung. Die SWM betreiben acht Erdgastankstellen in München, an denen regeneratives Biomethan getankt werden kann. In ihren Heizkraftwerken und Heizwerken erzeugen die SWM Fernwärme, die über 800 km Dampf- und Heißwassernetze an große Gebäude und Hausanschlüsse verteilt wird und zur Heizung und Bereitung von Warmwasser genutzt wird. Durch Entnahme von an einem unterirdischen Bauwerk aufgestauten Grundwasser wird über ein Rohrnetz auch Fernkälte für Industriekunden umweltfreundlich zur Verfügung gestellt. Das leicht erwärmte Grundwasser wird anschließend wieder dem Grundwasserstrom zugeführt. Das Trinkwasser für München stammt aus dem oberen Mangfalltal, dem Loisachtal bei Oberau und der Münchner Schotterebene und fließt von dort durch Zuleitungen in das Münchner Wassernetz. Der ökologische Landbau wird in den Wassergewinnungsgebieten durch die Initiative „Öko-Bauern“ gefördert. Tourismus. Die Sehenswürdigkeiten und die Einkaufsmöglichkeiten in der Stadt, aber auch ihre Messen und Kongresse ziehen zahlreiche Touristen und Geschäftsreisende an. Die Fachjury des National Geographic Traveler setzte München 2008 im weltweiten Ranking der besten 110 historischen Orte auf Rang 30. Die Zahl der Übernachtungen wuchs 2009 auf 9,9 Millionen (Plus von 0,6 Prozent). Davon reisten 4,4 Millionen aus dem Ausland an (Minus von 3 Prozent gegenüber 2008). Die US-Amerikaner waren mit 597.000 Übernachtungen (Minus von 2,4 Prozent) die größte ausländische Reisegruppe, gefolgt von Italienern (518.000) und Briten (341.000). Eine Besonderheit Münchens in den Sommermonaten sind die vielen arabischen Touristen aus der Golfregion (271.000 Übernachtungen), die in der Innenstadt nicht nur einkaufen, sondern sich häufig während ihres Aufenthalts in Münchner Kliniken medizinisch versorgen lassen. 2011 machten nach Angaben des Tourismusamtes 102.000 Touristen aus den Golfstaaten in München Urlaub. Einzelhandel. a> ist eine bekannte Einkaufsstraße in München. Der Einzelhandel in München ist vielseitig. Von der preiswerten Kategorie bis hin zur Luxuskategorie sind alle Kategorien abgedeckt. Mit der Neuhauser Straße und der Kaufingerstraße ist München zweifach unter den fünf meistbesuchten Einkaufsstraßen Deutschlands vertreten. Laut einer Untersuchung von Jones Lang LaSalle hatte die Neuhauser Straße mit 13.515 Passanten pro Stunde die bundesweit zweithöchste Besucherfrequenz, lediglich die Schildergasse in Köln war mit 14.265 Passanten pro Stunde häufiger besucht. Nach der Zeil in Frankfurt am Main (13.035 Passanten) war die Kaufingerstraße mit 12.975 Passanten pro Stunde auf dem vierten Platz vertreten. Beide Einkaufsstraßen befinden sich in der günstigen bis mittleren Preiskategorie. Luftverkehr. Der 29 km nordöstlich von der Stadtmitte im Erdinger Moos gelegene Flughafen München (internationaler Flughafen-Code: "MUC" (IATA-Code) "EDDM" (ICAO-Code)) ist mit über 38 Millionen Passagieren im Jahr 2012 der zweitgrößte Flughafen Deutschlands und der siebtgrößte Europas. Seit der Entscheidung der Lufthansa, München als zweites Drehkreuz neben Frankfurt zu etablieren, wird der Flughafen international immer besser angebunden; über 25 Langstreckenflugzeuge sind dort stationiert. Das Kontinentalnetz der Lufthansa in München ist sogar umfangreicher als bei jedem anderen deutschen Flughafen. Der Flughafen ist über die Autobahn A 92 zu erreichen; als öffentliche Verkehrsmittel stehen vor allem die S-Bahn-Linien S1 und S8 zur Verfügung, die den Flughafen mit der Münchner Innenstadt verbinden. Weitere Flughäfen in der Münchner Umgebung sind die für die allgemeine Luftfahrt – zum Teil nur eingeschränkt – nutzbaren Flugplätze Oberpfaffenhofen und Schleißheim. Der 90 km entfernte Flughafen Memmingen wird von Ryanair als "Flughafen München-West" vermarktet. Schienenverkehr. Auf der Schiene ist München gut an das internationale Streckennetz angeschlossen. Es bestehen Direktverbindungen (teilweise per Nachtzug) zu deutschen und europäischen Großstädten. Neben dem Hauptbahnhof und dem Bahnhof München Ost der höchsten Bahnhofskategorie 1 gibt es mit Bahnhof München-Pasing (Bahnhofskategorie 2) einen weiteren wichtigen Fernbahnhof im Münchner Stadtgebiet. Die sieben Münchner Bahnhöfe der Kategorie 3 sind Bahnhof München-Laim, Bahnhof München-Hirschgarten, Bahnhof München Donnersbergerbrücke, Bahnhof München-Hackerbrücke, Bahnhof München Karlsplatz, Bahnhof München Marienplatz und Bahnhof München-Giesing. Daneben gibt es zahlreiche Bahnhöfe der Kategorien 4 bis 5 der DB Station&Service. Der Eisenbahngüterverkehr nutzt den Rangierbahnhof München Nord Rbf. Überregionaler Busverkehr. Frontansicht ZOB München von der Hackerbrücke (2014) Der Zentrale Omnibusbahnhof München (ZOB) stellt einen wichtigen Verkehrsknotenpunkt für Bus und Bahn im nationalen wie internationalen Verkehr dar. Das neue Gebäude für den ZOB ist zentral an der Hackerbrücke gelegen und wurde am 11. September 2009 eröffnet. Der ZOB bietet durch seine direkte Lage neben dem S-Bahn-Haltepunkt "Hackerbrücke" eine optimale Anbindung an das Münchner Umland sowie den Münchner Flughafen. Wie beim Vorgängerstandort befindet sich der Münchner Hauptbahnhof in unmittelbarer Nähe. Öffentlicher Personennahverkehr. Im öffentlichen Personennahverkehr betreibt die S-Bahn München ein Netz von zehn S-Bahn-Linien, wobei alle Hauptlinien im Bereich der Innenstadt in einem zentralen Stammstreckentunnel gebündelt sind. Um diesen bis an das technisch Machbare ausgelasteten Tunnel zu entlasten, wird derzeit der Bau einer parallel verlaufenden zweiten Stammstrecke vorbereitet. Derzeit planen die Stadt München und der Freistaat Bayern den Bau einer Express-S-Bahn vom Münchner Hauptbahnhof zum Münchner Flughafen (Stand: Dezember 2009). Die Münchner Verkehrsgesellschaft (MVG), eine Tochter der Stadtwerke München, betreibt acht U-Bahnlinien, dreizehn Straßenbahnlinien und ein umfangreiches Busnetz mit 69 Linien (Stand: Dezember 2014). Von 1948 bis 1966 verkehrte außerdem der Oberleitungsbus München in der Stadt. Der Verkehr im Busnetz ist dabei zu etwa 45 Prozent an private Kooperationspartner ausgelagert. Das U-Bahn-Netz Münchens ist mit 103 km das drittlängste Deutschlands (unterirdisch mit 86 km sogar das zweitlängste) und befördert täglich weit über 1 Mio. Menschen. Alle öffentlichen Verkehrsmittel Münchens fahren zum einheitlichen Tarif innerhalb des Münchner Verkehrs- und Tarifverbunds (MVV). Straßenverkehr. München hält mehrere Rekorde zum Verkehrsfluss. In den "1960ern" wurde der Stachus das verkehrsreichste Straßenkreuz Europas. Die Donnersbergerbrücke gilt heute als die meistbefahrene Autobrücke Europas. Das Straßennetz Münchens litt unter Fehlplanungen eines lange Zeit vorherrschenden städtebaulichen Zentrismus. Die Stadt befürchtete wirtschaftliche Verluste, wenn insbesondere der neu aufkommende Urlauberverkehr nach Italien nicht mehr in der Stadt anhalten, sondern sie umfahren würde. Deshalb wurde der bereits in der Vorkriegszeit trassierte Münchner Autobahnring nicht zügig in den 1950ern in Angriff genommen. Zögerlich wurde in den 1960ern als Ersatz der Mittlere Ring (Bundesstraße B 2 R) gebaut. Der die Stadt umgebende Autobahnring, die Bundesautobahn A 99, ist bis heute nicht vollständig geschlossen. Darüber hinaus führen insgesamt sieben Bundesstraßen durch München, wobei die B 471 weitgehend parallel zum heutigen Autobahnring verläuft. In München wurde ab dem 1. Oktober 2008 eine Umweltzone eingerichtet. Sie umfasst die Straßen innerhalb des Mittleren Rings. Der Mittlere Ring selbst gehört nicht zur Umweltzone, um nachteilige Verlagerungen des Verkehrsflusses zu vermeiden. Die Umweltzone darf nur mit Kraftwagen mit einer Feinstaubplakette befahren werden. Fahrradverkehr. Radweg in der Münchner Goethestraße Das Münchner Radwegenetz ist mehr als 1.200 Kilometer lang, was mehr als 50 Prozent der gesamten Länge des Münchner Straßennetzes entspricht. 212 Einbahnstraßen sind in beide Fahrtrichtungen offen und auf 55 Fahrradstraßen haben die Radfahrer Vorrang. Für Radfahrer gibt es im Stadtgebiet etwa 25.000 Fahrradständer und an Haltestellen des öffentlichen Nahverkehrs (MVV) befinden sich darüber hinaus 50.000 Stellplätze für Fahrräder („Bike-and-ride-Stellplätze“) (Stand: 2010). Von 1992 bis 2010 wurden für den Ausbau des Radverkehrsnetzes sowie neue Fahrradständer 32 Millionen Euro investiert. Seit 2007 wird Schritt für Schritt das Wegweisersystem des Münchner Radlnetzes verbessert, indem die alten Schilder durch neue grün-weiße Beschilderungen ersetzt werden, deren Schrift doppelt so groß ist und die Ziele sowie Entfernungsangaben enthalten. Ausgeschilderte Fahrradrouten verbinden Knotenpunkte der Stadt auf Wegen, die gut für Radfahrer geeignet sind, indem sie Behinderungen durch Kraftverkehr, Fußgänger sowie Ampeln minimieren. Ferner führt um die Stadt herum der RadlRing München. 2008 machte der Fahrradverkehr 14 Prozent des Verkehrsaufkommens in München aus. Unter anderem aus Klimaschutzgründen will die Stadt bis 2015 den Anteil des Fahrradverkehrs auf 17 Prozent steigern, dieses Ziel wurde allerdings bereits 2011 erreicht. Dafür setzt die Stadt München zusätzliche finanzielle Mittel für die Infrastruktur, Öffentlichkeitsarbeit sowie Events ein. So wurden zum Beispiel die Gelder zur Förderung des Radverkehrs ab 2010 auf 4,5 Millionen Euro verdreifacht. Seit dem Sommer 2010 nennt sich München „Radlhauptstadt“ und unterstützt den Infrastruktur-Ausbau mit einer breit angelegten Öffentlichkeitskampagne. Gesundheitswesen. München hat 47 Krankenhäuser (Liste der Krankenhäuser in München) mit insgesamt 11.566 aufgestellten Betten (Stand 31.12.2013). In freier Praxis sind 3.717 Ärzte (394 Einwohner je Arzt) und 1.536 Zahnärzte (954 Einwohner je Zahnarzt) tätig (Stand 31.12.2013). Ansässige Unternehmen. Wichtige Wirtschaftszweige in München sind Tourismus, Fahrzeug- und Maschinenbau, Elektrotechnik sowie Software- und IT-Industrie. Die hohe Dichte an IT-Unternehmen hat München auch den Spitznamen „Isar Valley“ eingebracht. München ist auch wichtiger Finanzstandort und das Versicherungszentrum Deutschlands. Weiter ist die Stadt ein wichtiger Standort für Biotechnologie, die sich allerdings im schon zur Nachbargemeinde Planegg gehörenden Ortsteil Martinsried konzentriert. Als Medienstandort ist die Stadt von deutschlandweiter Bedeutung. In München haben weltweit nach New York die meisten Verlage ihren Sitz. Fernseh- und Filmindustrie sind ebenfalls in der Stadt und im unmittelbaren Umland stark vertreten (Fernsehindustrie in Unterföhring und Filmindustrie in Geiselgasteig, zu Grünwald). München ist mit der von Messe München GmbH betriebenen Neue Messe München ein bedeutender Messestandort. Mit Allianz SE, BMW, Linde AG, Münchner Rückversicherung und Siemens haben fünf DAX-Unternehmen in München ihren Hauptsitz. Damit belegt die Stadt vor Düsseldorf und Frankfurt am Main mit je drei DAX-Unternehmen den Spitzenplatz in dieser Statistik. Weiter befindet sich in der Stadtrandgemeinde Neubiberg der Firmensitz des DAX-Unternehmens Infineon. Unter den Städten mit Global-500-Unternehmen lag München 2009 weltweit auf Rang 8. Auch die Konzernzentrale von MAN befindet sich in München, allerdings ist das Unternehmen seit September 2012 nicht mehr im DAX vertreten. In München und im nahen Münchner Umland haben zahlreiche Unternehmen ihren Firmensitz. Besonders nach dem Zweiten Weltkrieg haben viele Firmen ihre Zentrale aus Berlin oder Ostdeutschland nach München verlegt. Fernsehen und Hörfunk. München ist Sitz des Bayerischen Rundfunks, der Programmdirektion des ARD-Gemeinschaftsprogramms Das Erste und des ZDF-Landesstudios Bayern. Ferner gibt es in München und im direkten Umland zahlreiche private Fernseh- und Hörfunkanbieter wie RTL II, ProSiebenSat.1 Media (ProSieben, Sat.1, kabel eins), Tele München Gruppe, Sport1, Sky Deutschland, München TV. Zwei landesweite Privatradiostationen haben in München ihren Sitz: Antenne Bayern und egoFM, außerdem gibt es fünf lokale Radiosender: Radio Gong 96,3, Radio Arabella 105.2, Energy München, 95.5 Charivari und Radio2day 89,0. Verlage. München ist mit etwa 250 ansässigen Verlagen ein wichtiger Standort der Printmedien (beispielsweise Burda Verlag, Süddeutscher Verlag, IDG). Neben New York City hat die Landeshauptstadt den Ruf als führende Buchverlagsstadt der Welt. In München finden sich unter anderem folgende Verlage: Deutscher Taschenbuch Verlag, Langenscheidt Verlag, Bonnier, C. H. Beck Verlag, Carl Hanser Verlag, Droemer Knaur, Elsevier, Gräfe und Unzer Verlag, Oldenbourg Verlag, Piper Verlag, Prestel Verlag, Random House Verlagsgruppe, Verlag Antje Kunstmann. Zur Geschichte des Buchhandels in München siehe Artikel Münchner Buchhandel 1500–1850. Tageszeitungen. Neben der auch bundesweit bedeutsamen "Süddeutschen Zeitung (SZ)" sind noch die tz, der "Münchner Merkur" und die "Abendzeitung (AZ)" zu nennen. Die Bild (Zeitung) erscheint mit einem eigenen München-Lokalteil. Medienausbildung. Die Ludwig-Maximilians-Universität München bietet verschiedene medienrelevante Studiengänge, wie Medieninformatik oder Kommunikationswissenschaften. Die Deutsche Journalistenschule bildet in München Journalisten für sämtliche Medien aus. Die Münchner Hochschule für Film und Fernsehen bildet zukünftige Filmemacher aus, von denen viele später auch für das Fernsehen und den Hörfunk arbeiten. Darüber hinaus bilden auch Münchner Zeitungen, TV- und Radiosender in Volontariaten künftige Medienmacher aus. Verschuldung. Die Stadt München kann seit 2006 sämtliche investiven Maßnahmen ohne Nettoneuaufnahme von Krediten finanzieren. Seit dem Schuldenhöchststand von 3,414 Milliarden Euro im Jahr 2005 hat die Stadt bis zum Jahresende 2014 rund 2,5 Milliarden Euro Kredite (~73 %) getilgt. Im Jahr 2014 konnte der Schuldenstand des Hoheitshaushalts zum 31. Dezember auf 905 Millionen Euro verringert werden. Die Pro-Kopf-Verschuldung bezogen auf den Hoheitshaushalt in München lag zum Jahresende 2014 bei rund 538 Euro. Den Schulden steht allerdings ein großes Aktivvermögen in Form von städtischen Beteiligungen wie etwa an Wohnungen oder den Stadtwerken gegenüber. Im Herbst 2015 wurde jedoch bekannt, dass für das Jahr 2016 mit einer Haushaltslücke von über 800 Millionen Euro zu rechnen sei, die jedoch vermutlich noch geschlossen werden kann. Spätestens ab 2017 müssen aber voraussichtlich neue Schulden aufgenommen werden. Öffentliche Einrichtungen. In München haben verschiedene Ämter, Gerichte sowie Körperschaften und öffentlich-rechtliche Anstalten ihren Sitz, unter anderem die Regierung von Oberbayern und das Europäische Patentamt. Die Stadtverwaltung München ist in elf Fachreferate aufgeteilt und hat zahlreiche Dienstgebäude im Stadtgebiet. In vielen Bereichen des öffentlichen Dienstes (z. B. Kliniken, Polizei, Finanzämter) herrscht Personalmangel, da München aufgrund der hohen Lebenshaltungskosten für Angehörige der unteren bis mittleren Tarifgruppen zu teuer und daher ein ausgesprochen unattraktiver Dienstort ist. Infolgedessen arbeiten zum Beispiel bei der Schutzpolizei überwiegend Berufsanfänger, da fast jeder Polizist aus ganz Bayern zunächst dort beginnen muss, bevor er sich in seine Heimatregion zurückversetzen lassen kann. Das Finanzamt München hat die Aktenbearbeitung zu großen Teilen an Bearbeitungsstellen in Deggendorf, Dillingen, Eichstätt, Ingolstadt, Passau, Straubing und Zwiesel ausgelagert. Polizei. Das Polizeipräsidium München (zuständig für Stadt und Landkreis München sowie teilweise Starnberg) hat seinen Hauptsitz in der Münchner Ettstraße 2–4. Im Jahr 2012 zählte die Stadt 6.292 Polizeibeamte. Gerichte und Staatsanwaltschaften. München ist ein wichtiger Standort für Gerichte in Bayern, wie etwa dem Bayerischen Verfassungsgerichtshof, dem Bayerischen Verwaltungsgerichtshof oder dem Bayerischen Landessozialgericht. Der Bundesfinanzhof als einer der fünf obersten Gerichtshöfe Deutschlands sowie das Bundespatentgericht haben ebenfalls ihren Sitz in München. Der Justizpalast am Stachus prägt das Stadtbild der Münchner Innenstadt. Hier fanden z. B. 1943 die Prozesse gegen die Mitglieder der Widerstandsgruppe Weiße Rose vor dem Volksgerichtshof statt, der dafür eigens aus Berlin angereist war. Justizvollzugsanstalten. In München befindet sich eine Justizvollzugsanstalt (JVA): Die Justizvollzugsanstalt München-Stadelheim ist die größte JVA in Bayern. Der Jugend- und Frauenstrafvollzug findet in einer Außenstelle in unmittelbarer Nachbarschaft zum Hauptgelände statt. Versorgung mit Rundfunk- und Fernsehsendern. Im Sommer 2005 wurde der digitale Rundfunkempfang über Antenne (DVB-T) im Münchner Raum eingeführt. Der Sender ist auf dem Olympiaturm montiert, wovon auch einige UKW-Sender übertragen werden. Im Landkreis München gibt es die Sendeanlage Ismaning, die den Bayerischen Rundfunk mit dem Lokalfenster München überträgt. Außerdem gibt es den Fernmeldeturm der Oberpostdirektion München in der Blutenburgstraße, der unter anderem die Sender EgoFM und M94.5 überträgt. Sein Signal reicht aufgrund seiner geringen Sendeleistung abhängig vom Programm jedoch nur ca. bis an die Stadtgrenzen. Der nur 65 km entfernte Sender Wendelstein auf dem gleichnamigen Berg versorgt vor allem die südlichen Stadtteile. Drei Ausnahmen seien zu erwähnen: der Sender Zugspitze, der Sender Hochries bei Rosenheim sowie der Sender Isen bei Ebersberg. Sie versorgen München auch mit privaten Radioprogrammen. Da München eine günstige geographische Lage vor den Alpen hat, können mehrere Sender auf Gipfeln der bayerischen und österreichischen Berge die Stadt ebenso mit Radioprogrammen versorgen, z. B. der Sender Grünten, der Sender Hoherpeißenberg etc. Der reibungslose Empfang des Österreichischen Rundfunks (ORF) wird über den Sender Gaisberg bei Salzburg garantiert, der im ganzen Stadtgebiet einigermaßen gut zu empfangen ist, ebenso der Sender Hohe Salve in Tirol oder der ORF-Sender Zugspitze. Schulen. In München existieren rund 132 staatliche Grundschulen, Träger dieser Schulen ist der Freistaat Bayern, Sachaufwandsträger dagegen ist die Landeshauptstadt München. Weiter gibt es 44 staatliche Mittelschulen (Bayerische Mittelschule), die seit dem Schuljahr 2011/2012 in 13 Mittelschulverbünden zusammengefasst sind. Von den 23 öffentlichen Realschulen obliegen 20 der städtischen Trägerschaft. Von den 38 öffentlichen Gymnasien befinden sich 14 in städtischer Trägerschaft. Das Wilhelmsgymnasium ist das älteste Gymnasium Oberbayerns. Zahlreiche Schulgebäude sind sanierungsbedürftig. Wegen zu zögerlicher Durchführung des Neubaus von Schulen findet seit etwa 2015 Unterricht zu einem nennenswerten Anteil in kurzfristig errichteten Containergebäuden statt. Daneben gibt es sechs sonderpädagogische Förderzentren, ein Förderzentrum mit dem Schwerpunkt "Geistige Entwicklung", sieben Schulen zur Lernförderung, eine Schule zur Erziehungshilfe, drei Schulen zur Sprachförderung und eine Schule für Kranke, die sich alle in der Trägerschaft des Freistaates Bayern befinden. Die Städtische Schulartunabhängige Orientierungsstufe und die Städtische Willy-Brandt-Gesamtschule ergänzen das Schulsystem der Landeshauptstadt. Die Angebote zur beruflichen Bildung sind zahlreich, diese Schulen dienen der Berufsvorbereitung, der beruflichen Erstausbildung und Weiterbildung. Daneben gibt es weiterführende berufliche Schulen und Schulen des zweiten Bildungsweges. Staatliche Träger. München verfügt über zwei große Universitäten: Die Ludwig-Maximilians-Universität München (LMU) und die Technische Universität München (TUM). Beide werden seit 2007 im Rahmen der Exzellenzinitiative als (informell so genannte) "Eliteuniversitäten" besonders gefördert. Die LMU wurde 1472 in Ingolstadt gegründet, 1800 nach Landshut und von dort 1826 nach München verlegt. Neben dem Universitätsviertel in der Maxvorstadt ist ein weiterer Schwerpunkt in Großhadern und Martinsried (Medizin, Biologie, Chemie). Die TUM wurde 1868 als "Polytechnische Schule München" gegründet, 1872 um eine landwirtschaftliche Abteilung erweitert, und ab 1877 "Königlich Bayerische Technische Hochschule München" genannt. 1930 wurde die Hochschule für Landwirtschaft und Brauerei Weihenstephan eingegliedert. Nach Erweiterung um eine medizinische Fakultät erhielt sie 1970 ihren heutigen Namen. Die meisten Fakultäten befinden sich inzwischen auf dem Forschungsgelände Garching. Eine ebenso technische Ausrichtung wie die TUM hat die Hochschule für angewandte Wissenschaften München/"Munich University of Applied Sciences", die 1971 durch den Zusammenschluss von sieben Ingenieurschulen und Höheren Fachschulen gegründet wurde. Sie ist die größte Fachhochschule Bayerns und die zweitgrößte in Deutschland. Die Hochschule für Politik München (HfP) wurde 1950 gegründet und bietet ein interdisziplinäres Studium der Politikwissenschaft, das in neun Semestern Regelstudienzeit zu dem von der Ludwig-Maximilians-Universität verliehenen akademischen Grad eines Diplomaticus scientiae politicae Universitatis (Dipl. sc. pol. Univ.) führt. Darüber hinaus besteht in München die Möglichkeit an verschiedenen Hochschulen künstlerische Studiengänge zu belegen. Wie etwa an der Akademie der Bildenden Künste München, die 1808 als Königliche Akademie der Bildenden Künste gegründet wurde. 1946 wurde sie mit der Kunstgewerbeschule und der Akademie der Angewandten Kunst vereinigt und trägt seit 1953 ihren heutigen Namen. Die Hochschule für Musik und Theater München wurde 1830 als Singschule gegründet und 1867 auf Anregung Richard Wagners in die Königlich-bayerische Musikschule überführt, die 1892 zur Staatlichen Akademie der Tonkunst erhoben wurde. 1924 erhielt sie den Namen Hochschule für Musik München und wurde 1946 wiedereröffnet. Seit 1998 trägt sie ihren heutigen Namen. Die Bayerische Theaterakademie August Everding wurde erst 1993 gegründet. Sie ist mit drei professionell ausgestatteten Theatern (Prinzregententheater, Akademietheater, Akademiestudio) und neun Studiengängen die größte Ausbildungsstätte für Bühnenberufe in Deutschland. Die Hochschule für Fernsehen und Film München wurde 1966 als staatliche Einrichtung zur Ausbildung von Redakteuren, Regisseuren und Drehbuchautoren gegründet. Die Universität der Bundeswehr München befindet sich nicht auf Münchner Stadtgebiet, sondern unmittelbar hinter der südlichen Stadtgrenze im benachbarten Neubiberg. Sie wurde 1973 gegründet, um Offiziere und Offizieranwärter der Bundeswehr auszubilden. Daher können zivile Studierende dort nur im Rahmen von Industriepatenschaften oder im Rahmen von Hochschulpartnerschaften studieren. Private und kirchliche Träger. Im Bereich Wirtschaft bilden die AKAD-Privathochschule, die Munich Business School (MBS) sowie die FOM Hochschule für Oekonomie & Management als private, staatlich-anerkannte Hochschulen, Studierende aus. Im Medienbereich bieten die privaten Hochschulen Macromedia Hochschule für Medien und Kommunikation (MHMK) und Mediadesign Hochschule (MDH) Studiengänge an. In kirchlicher Trägerschaft befindet sich die Hochschule für Philosophie München, die 1925 in Pullach gegründet wurde und noch im selben Jahr die Anerkennung als Hochschule für Priesterausbildung erhielt. 1932 wurde sie zur Philosophischen Fakultät kanonischen Rechts erhoben und zog 1971 nach München um. Der Träger der Hochschule ist der Jesuitenorden. Ebenfalls in kirchlicher Trägerschaft wurde 1971 die Katholische Stiftungsfachhochschule München aus vier höheren Fachschulen für Sozialarbeit und Sozialpädagogik gegründet. Sie ist eine Fachhochschule in Trägerschaft der katholischen Kirche, die in Benediktbeuern eine weitere Abteilung hat. Die Ukrainische Freie Universität München (UFU) ist eine private Exil-Universität, deren Sitz nach Aufenthalten in Wien und Prag sich jetzt in München befindet. Akademien. Die Bayerische Akademie der Wissenschaften ist eine Forschungseinrichtung mit der Rechtsform einer Körperschaft des öffentlichen Rechts. Sie ist Mitglied der Union der deutschen Akademien der Wissenschaften. In sie werden Wissenschaftler und Gelehrte berufen, die durch ihre Forschungen zu einer wesentlichen Erweiterung des Wissensbestandes ihres Fachs beigetragen haben. Die acatech – Deutsche Akademie der Technikwissenschaften ist eine wissenschaftliche Akademie, deren Ziel es ist, eine neutrale, fakten- und wissenschaftsbasierte Bewertung von Fragen mit Technikbezug zu erarbeiten und der Gesellschaft mit Empfehlungen zur Seite zu stehen. Darüber hinaus soll der Wissenstransfer zwischen Wissenschaft und Wirtschaft erleichtert und der wissenschaftliche Nachwuchs gefördert werden. Einen religiösen Bildungsauftrag verfolgt die Katholische Akademie in Bayern, die 1957 als „Kirchliche Stiftung des öffentlichen Rechts“ gegründet wurde. Der Träger ist die Freisinger Bischofskonferenz. Gemäß der Satzung soll die Akademie dazu beitragen, „die Beziehungen zwischen Kirche und Welt zu klären und zu fördern“. Beispiele für Akademien, die berufliche Bildung bieten, sind die Bayerische Akademie für Werbung und Marketing (BAW), die 1949 als Ausbildungsinstitut für Berufe in Marketing, Kommunikation, PR und Medien gegründet wurde, die Bayerische Akademie für Außenwirtschaft (BAA), die 1989 als Ausbildungseinrichtung für Berufe der internationalen Wirtschaft und des Facility Managements gegründet wurde, sowie die Bayerische Verwaltungsschule (BVS) mit dem BVS-Bildungszentrum München, die Aus- und Fortbildung im staatlichen und kommunalen Bereich in Deutschland anbietet. Daneben bietet die Akademie des Deutschen Buchhandels Weiterbildungen innerhalb der Verlagsbranche. Für Handwerker bietet die Akademie für Gestaltung und Design der Handwerkskammern für München und Oberbayern die Weiterbildung zum Gestalter im Handwerk an. Institute. Die Max-Planck-Gesellschaft (MPG) befindet sich mit ihrer Generalverwaltung in München. Darüber hinaus unterhält sie in München das Max-Planck-Institut für Sozialrecht und Sozialpolitik, das Max-Planck-Institut für Geistiges Eigentum, das Max-Planck-Institut für Physik sowie das Max-Planck-Institut für Psychiatrie. Die Stadt München ist auch „Korporativ Förderndes Mitglied“ der Max-Planck-Gesellschaft. Auch die Fraunhofer-Gesellschaft hat ihre Zentrale in München und unterhält hier das Fraunhofer-Institut für Eingebettete Systeme und Kommunikationstechnik ESK sowie die Fraunhofer-Einrichtung für Modulare Festkörper-Technologien EMFT, sowie bis 2007 die Patentstelle für die Deutsche Forschung (PST). Die Bundeswehr unterhält in München das Institut für Mikrobiologie der Bundeswehr, das Institut für Pharmakologie und Toxikologie der Bundeswehr und das Institut für Radiobiologie der Bundeswehr. Das Helmholtz Zentrum München – Deutsches Forschungszentrum für Gesundheit und Umwelt (HMGU) erforscht Grundlagen einer zukünftigen Medizin und Versorgung sowie Ökosysteme mit wesentlicher Bedeutung für die Gesundheit. Im Mittelpunkt stehen chronische, degenerative Krankheiten wie Lungenerkrankungen, Allergien, Krebs und Herz-Kreislauf-Erkrankungen, die in erheblichem Maße durch persönliche Risikofaktoren, Lebensstil und Umweltbedingungen beeinflusst werden. Die Helmholtz-Gemeinschaft Deutscher Forschungszentren ist des Weiteren noch mit einem Standort des Deutschen Zentrums für Neurodegenerative Erkrankungen (DZNE) präsent. Im Fokus der deutschlandweiten Arbeit stehen gleichermaßen Grundlagenforschung, klinische Studien, Populationsstudien und Versorgungsforschung. Darüber hinaus befinden sich das Institut für Rundfunktechnik (IRT), das Institut für Sozialwissenschaftliche Forschung (ISF), das Deutsches Jugendinstitut (DJI), das Sprachen & Dolmetscher Institut München sowie verschiedene Kulturinstitute in München – wie das Goethe-Institut, das Spanische Kulturinstitut Instituto Cervantes, das Französische Kulturinstitut Institut français de Munich, das Britische Kulturinstitut British Council oder das Italienische Kulturinstitut Istituto Italiano di Cultura. Das Qantm Institute ist ein privates Ausbildungsinstitut mit dem Schwerpunkt Computerspiel-Entwicklung, das mit der Middlesex Universität London zusammenarbeitet. Erwachsenenbildung. Die Münchner Volkshochschule bietet in eigenen Häusern und Außenstellen im gesamten Stadtgebiet jährlich ca. 14.000 Veranstaltungen für etwa 200.000 Teilnehmer. Ihre Zielgruppenangebote wenden sich an Menschen mit Behinderung, Menschen mit Migrationshintergrund, Frauen, Jugendliche, Senioren und minderjährige Flüchtlinge. Im Rahmen der örtlichen Arbeitsgemeinschaft Arbeit und Leben München findet die Zusammenarbeit mit dem DGB Bildungswerk München als Erwachsenenbildungseinrichtung statt. Im konfessionellen Bereich sind die Evangelische Stadtakademie, das Evangelische Bildungswerk, die evangelische Familienbildungsstätte „Elly Heuss-Knapp“, das katholische Münchner Bildungswerk, die Katholische Akademie in Bayern, die Kolping-Akademie sowie die Jüdische Volkshochschule zu nennen. Im Bereich der Kunst- und Kulturvermittlung engagieren sich die großen Münchner Museen, Theater, Orchester und Opern in Form von Führungen bzw. Einführungsveranstaltungen – oft in enger Zusammenarbeit mit der Münchner Volkshochschule. Darüber hinaus bieten Kulturinstitute verschiedener Länder Angebote der Erwachsenenbildung – wie das die Kulturinstitute Frankreichs (Institut français), Spaniens (Instituto Cervantes), Italiens (Istituto Italiano di Cultura), das Amerika-Haus, das polnische Kulturzentrum oder das České Centrum (Tschechisches Zentrum). Auch der Sitz des international arbeitenden Goethe Instituts befindet sich in München. Öffentliche Sicherheit und Ordnung. Für die Aufrechterhaltung der öffentlichen Sicherheit und öffentlichen Ordnung sind in München die Sicherheitsbehörden zuständig, dies sind unter anderem das Kreisverwaltungsreferat und die Bayerische Staatliche Polizei inklusive Sicherheitswacht (originär das Polizeipräsidium München). Im Jahr 2012 wurden 98.583 Straftaten mit Tatort München zur Anzeige gebracht. Sport. Die größte Sportveranstaltung in München waren die Olympischen Spiele 1972. Die Stadt hatte sich auch für die Olympischen Winterspiele 2018 beworben. Sie scheiterte aber an der südkoreanischen Stadt Pyeongchang, die im ersten Wahlgang gewählt wurde. Die Ratsinitiative zu einer erneuten Bewerbung für die Spiele 2022 scheiterte in einem Bürgerentscheid. Regelmäßige Sportveranstaltungen sind unter anderem der München-Marathon im Oktober, der Münchner Firmenlauf im Juli und der Silvesterlauf München am 31. Dezember. Im Norden der Stadt liegt der für die Olympischen Spiele 1972 errichtete Olympiapark. Das Ensemble aus Olympiastadion, Olympia-Schwimmhalle und Olympiahalle ist besonders wegen der gewagten Zeltdachkonstruktion, die sich in die Hügellandschaft des umgebenden Parks hervorragend einpasst, weltberühmt. Hier steht auch das bereits 1967 eröffnete Olympia-Eisstadion. Im Mai 2005 wurde die am Nordende der Stadt gelegene Allianz Arena eröffnet, in der die Heimspiele der Fußballer des FC Bayern München und des TSV 1860 München stattfinden. Die 75.000 Zuschauer (international 69.000 Sitzplätze) fassende Arena war Austragungsort des Eröffnungsspiels der Fußball-Weltmeisterschaft 2006 sowie weiterer Spiele. Die traditionsreichste und älteste größere Sportstätte in München ist das städtische Stadion an der Grünwalder Straße. Im Jahr 2005 spielte dort noch die Profimannschaft des TSV 1860 München; seit dem Umzug in die Allianz Arena wird das Stadion nur für Jugend- und Amateurmannschaften genutzt. Öffentliche Sportstätten für die Bevölkerung sind vor allem die in den einzelnen Stadtteilen und -bezirken eingerichteten Bezirkssportanlagen und die Münchner Bäder. Für den Pferdesport gibt es die Trabrennbahn Daglfing und die Galopprennbahn Riem. Der wohl bekannteste Sportverein Münchens ist der Deutsche Rekordmeister im Herrenfußball, der FC Bayern München, der seit 1965 ununterbrochen in der Fußball-Bundesliga spielt. Der zweite große Fußballverein ist der TSV 1860 München, der derzeit in der 2. Bundesliga spielt. Der EHC Red Bull München vertritt München im Eishockey, der Münchner SC im Hallenhockey und die Munich Cowboys sowie die München Rangers im American Football. Neben Frankfurt am Main war München die Stadt, in der sich Mitte der 1990er Jahre auch der Australian Football in Deutschland entwickelte. Die Munich Kangaroos waren neben den Frankfurt Redbacks einer der Gründungsvereine der Australian Football League Germany (AFLG). Der TSV Milbertshofen war zweimal Deutscher Mannschaftsmeister im Tischtennis, Deutscher Meister und Pokalsieger im Volleyball und Europapokalsieger im Handball. Zudem ist die Basketballabteilung des FC Bayern München neuerdings wieder in der Basketball-Bundesliga vertreten, nachdem bereits in den 1950er- und 1960er-Jahren zwei deutsche Meisterschaften sowie ein Pokalsieg errungen werden konnten. Der MRRC München als größter bayerischer Triathlon-Verein ist mit je einem Frauen- und Männerteam in der Triathlon Bundesliga vertreten. Der Snookerverein 1. Münchner SC spielt in der 2. Snooker-Bundesliga. Monoid. In der abstrakten Algebra ist ein Monoid eine algebraische Struktur bestehend aus einer Menge mit einer klammerfrei notierbaren (assoziativen) Verknüpfung und einem neutralen Element. Ein Beispiel sind die natürlichen Zahlen mit der Addition und der Zahl 0 als neutralem Element. Definition. Ein Monoid ist ein Tripel formula_1 bestehend aus einer Menge formula_2, einer inneren zweistelligen Verknüpfung Ein Monoid ist also eine Halbgruppe mit neutralem Element. Bemerkungen zur Notation. Die Assoziativität (Teil 1. der Definition) rechtfertigt das Weglassen von Klammern: Für den binären Operator formula_8 ist der Term formula_9 zunächst mehrdeutig. Weil aber das Ergebnis bezüglich der durch Klammerung festgelegten Auswertungsreihenfolge invariant ist, kann man hier auf die Klammern verzichten. In einem Monoid ist das neutrale Element eindeutig bestimmt. Wenn aus dem Kontext ersichtlich ist, welches das neutrale Element ist, wird ein Monoid oft auch verkürzt als Paar formula_10 geschrieben. Häufig wird für die Verknüpfung formula_8 das Symbol formula_12 benutzt, man spricht dann von einem multiplikativ geschriebenen Monoid. Das neutrale Element heißt dann "Einselement" und wird durch formula_13 symbolisiert. Wie auch bei der gewöhnlichen Multiplikation üblich, kann in vielen Situationen der Malpunkt weggelassen werden. Ein Monoid lässt sich auch additiv notieren, indem für die Verknüpfung formula_8 das Symbol formula_15 benutzt wird. Das neutrale Element heißt dann "Nullelement" und wird durch formula_16 symbolisiert. Beispiele und Gegenbeispiele. Jede Gruppe ist ein Monoid, aber ein Monoid hat im Gegensatz zur Gruppe nicht notwendigerweise inverse Elemente. Untermonoid. Eine Teilmenge formula_38 eines Monoids formula_39, die das neutrale Element formula_6 enthält und bezüglich der Verknüpfung formula_8 von formula_2 abgeschlossen ist (d.h. für alle formula_43 ist auch formula_44) heißt "Untermonoid" von formula_2. Monoid-Homomorphismus. Es handelt sich hier also um eine Abbildung, die mit den Verknüpfungen in formula_51 und formula_52 verträglich ist und das neutrale Element von formula_51 auf das neutrale Element von formula_52 abbildet. Ein Monoid-Homomorphismus ist im Sinne der abstrakten Algebra ein Homomorphismus zwischen Monoiden. Das Bild formula_55 eines Monoid-Homomorphismus formula_46 ist ein Untermonoid des Zielmonoids formula_52. Ist der Monoid-Homomorphismus formula_46 bijektiv, dann nennt man ihn einen Monoid-Isomorphismus und die Monoide formula_51 und formula_52 isomorph. Freies Monoid. Ein Monoid formula_39 heißt "frei", wenn es eine Teilmenge formula_62 gibt, so dass sich jedes Element von formula_2 eindeutig als endliches Produkt von Elementen aus formula_51 darstellen lässt. formula_51 heißt dann Basis (Erzeuger) des Monoids. Ist formula_51 irgendeine Menge, dann bildet die Menge formula_67 aller endlichen Folgen in formula_51 mit dem Hintereinanderschreiben der Folgen als multiplikative Verknüpfung formula_12 und der leeren Folge als neutralem Element formula_37 das Monoid formula_71. Dieses Monoid nennt man "das von formula_51 erzeugte freie Monoid". Ist die Menge formula_51 endlich, dann spricht man meist vom Alphabet formula_51 und von Worten oder Wörtern über diesem Alphabet; man erhält das bereits erwähnte Wortmonoid. Das freie Monoid formula_67 über einer Menge formula_51 spielt in vielen Bereichen der theoretischen Informatik eine Rolle (zum Beispiel formale Sprache, regulärer Ausdruck, Automatentheorie). Siehe auch den Artikel über die Kleenesche Hülle für einen verwandten Begriff. Ist formula_2 ein Monoid und formula_80 eine beliebige Funktion, dann gibt es genau einen Monoid-Homomorphismus formula_81 mit formula_82 für alle formula_83. Solche Homomorphismen werden in der theoretischen Informatik zur Definition formaler Sprachen (als Teilmengen von formula_67) genutzt. Hat ein Monoid formula_39 eine Teilmenge formula_51, so dass sich jedes Element von formula_2 eindeutig "bis auf die Reihenfolge der Faktoren" als Produkt von Elementen aus formula_51 darstellen lässt, dann nennt man formula_2 "frei kommutativ" mit dem Erzeuger formula_51. Ein solches Monoid ist notwendig kommutativ. Ein freies Monoid mit einem wenigstens zweielementigen Erzeuger ist nicht kommutativ. Das freie Monoid ist wie die freie Gruppe ein Beispiel eines freien Objekts in der Kategorientheorie. Macht. Macht bezeichnet sozialwissenschaftlich einerseits die Fähigkeit einer Person oder Interessengruppe, auf das Verhalten und Denken einzelner Personen, sozialer Gruppen oder Bevölkerungsteile einzuwirken. Andererseits stellt eine Extremposition der Macht die Fähigkeit dar, einseitig definierte Ziele zu erreichen, ohne sich selbst äußeren Ansprüchen gegenüber beteiligten Personen zu unterwerfen oder diesen entgegenkommen zu müssen. Dies ist bei Vorliegen der Möglichkeit einer Einflussnahme mittels Strafandrohung der Fall, wobei auf die Zielpersonen ein unterdrückender Zwang ausgeübt wird, sich zu fügen. Im Falle von gegensätzlichen oder unvereinbaren Interessenpositionen der Zielpersonen ist es daher beispielsweise für Personen, die absolute Macht ausüben, nicht erforderlich, ein Austauschverhältnis oder einen Kompromiss einzugehen. Vor allem diesbezüglich grenzen sich die in weiten Teilen deckungsgleichen Begriffe "Macht" und "Einfluss" voneinander ab, wobei die Übergänge fließend sind. Die beiden Sichtweisen werden auch als „Macht über… haben“ und „Macht zu tun“ umschrieben. Als zentraler Begriff der Sozialwissenschaften ist "Macht" in seinem Bedeutungsumfang umstritten. Gemäßigte (alltägliche) Machtverhältnisse beschreiben hingegen mehrseitige (Austausch-)Verhältnisse, bei denen oft eine Seite die stärkere Ausgangs- oder Verhandlungsposition ausübt (beispielsweise durch die verfügbare Möglichkeit der Einflussnahme durch Belohnung, Bevorzugung oder durch überlegenes Wissen) und das von anderer Seite akzeptiert wird. Von anderer Seite wird auf Widerspruch verzichtet, nichts gegen die Ausübung der Macht unternommen, oder eine Duldung, Befolgung oder Anpassung vollzogen. Macht spielt praktisch in allen Formen des menschlichen Zusammenlebens eine Rolle und bedingt auf unterschiedliche Weise das Entstehen von Sozialstrukturen mit ausdifferenzierten persönlichen, sozialen oder strukturellen Einflusspotenzialen. Bezüglich der Wortherkunft von "Macht" (siehe unten) kann der Begriff auch so verstanden werden, dass "soziale Macht" nur einen – wenn auch sehr bedeutenden – Unterfall eines grundsätzlicheren Machtbegriffs bildet. Allgemeines. Macht definiert den Umfang der physischen und psychischen Handlungsmöglichkeiten einer Person oder Personengruppe. Die Nutzung dieser Handlungsmacht, die sich auf andere Individuen auswirken kann, aber nicht muss, ist in positivem wie auch negativem Sinne, bezogen auf deren Auswirkungen, möglich. Bei negativen Auswirkungen und unter Voraussetzung einer bewusst möglichen Entscheidung für diese wird von Machtmissbrauch gesprochen. Ist der Einsatz von Zwang oder Gewalt möglich, muss dies nicht stets auch negative Auswirkungen haben, so dass eine differenzierte Betrachtung von Handlungsmacht und deren Voraussetzungen und Auswirkungen notwendig ist. Die (Regelung der) Anwendung physischer Gewalt z. B. ist in der demokratischen Gesellschaft an den Staat delegiert, der in diesem Rahmen u. a. gesellschaftlich notwendige Polizeifunktionen wahrnimmt. Die Anerkennung eines staatlichen Monopols auf legitime Gewaltausübung durch die Bürger im demokratischen System ist wohl die umfangreichste denkbare Übertragung von gesellschaftlicher Macht an eine Instanz überhaupt. Anarchisten dagegen lehnen jede Art der Machtausübung in der Form von staatlicher Herrschaft ab. Dies bedeutet jedoch keine "Machtlosigkeit" im Sinne von "Macht zu", die zur "Handlungsunfähigkeit" führen kann ("siehe auch:" Ohnmacht). In demokratischen Systemen wird die Macht durch Verfassung und Gesetz eingeschränkt. Etymologie. Der Begriff Macht kann auf zwei ähnlich lautende indogermanische Wurzeln zurückgeführt werden: "mag-" (kneten, pressen, formen, bilden) oder "magh-" (machen - im Sinne von können, vermögen, fähig sein). Die erste Wurzel weist noch auf einen unmittelbaren Werkzeugbezug hin. Die zweite Wurzel weist bereits auf den sozialen Kontext einer möglichen Verfügung über sich und andere sowie eine Ausrichtung auf die Zukunft hin. Auch im heutigen Sprachgebrauch schwingt oft noch eine Verdinglichung und Personalisierung von Macht mit und verstellt vielfach den Blick darauf, dass Macht in menschlichen Gesellschaften prinzipiell als „relationaler Begriff“ verstanden werden muss. Im Althochdeutschen, Altslawischen und Gotischen bedeutete das Wort "Macht" (got.: "magan") so viel wie Können, Fähigkeit, Vermögen (z. B. jemand „vermag“ etwas zu tun) und ist stammverwandt mit dem Alltagsbegriff "machen", signalisiert also Potenzialität. Vergleichbar stammt das lateinische Substantiv für „Macht“, "potentia", von dem Verb "possum, posse, potui" ab, welches heute mit „können“ übersetzt wird. Macht wird im allgemeinen Sprachgebrauch oftmals dem Wortfeld des Begriffs "Herrschaft" zugeordnet. Wörter wie "Machtapparat", "Machtergreifung", "Machtwechsel", "Machthaber" legen dieses Verständnis nahe. Begriffsgeschichte. Auch wenn sozial legitimierte bzw. politische Machtausübung nur "eine" Erscheinungsform von Macht ist, steht sie doch im Mittelpunkt der Theoriebildung und des Denkens. Zuerst beschäftigte sich die griechische Sophistik aus philosophischer Sicht mit dem Machtproblem. Thukydides behandelt im Melierdialog die Frage der inneren Macht des Rechts. Während sich die Abgesandten der Insel Melos auf den Nutzen des Gerechten berufen, vertreten die Athener ihnen gegenüber die reine, nicht weiter zu legitimierende Machtposition einer Großmacht: Recht gebe es nur bei Gleichheit der Kräfte. Machtausübung sei somit in der menschlichen Natur fundiert. Platon setzt sich mit dieser sophistischen Position im "Gorgias" auseinander: Die anscheinend Mächtigen seien in Wirklichkeit ohnmächtig, da sie nicht das tun, was eigentlich das Ziel jedes vernünftigen Strebens sei, sondern nur, was ihnen gerade als das beste erscheine; d. h., sie tun nicht, was sie „eigentlich“ wollen würden, wüssten sie es „besser“. Aristoteles behandelt das Machtproblem im Rahmen der Theorie von Herrschaft und Knechtschaft. Politische Herrschaft sei im Unterschied zur Despotie eine Herrschaft von Freien über Freie, die sich im Herrschen und Beherrschtwerden ablösen. Im lateinischen Sprachbereich wird zuerst bei Cicero zwischen "potestas" im Sinne von Amtsgewalt und "auctoritas" im Sinne von Ansehen als zwei Formen der Macht explizit unterschieden. Anknüpfend an diese Unterscheidung geht Augustin davon aus, dass Menschen eigentlich nicht über Menschen herrschen können, sondern nur über das Vernunftlose. Die Scholastik hat daraus die Frage abgeleitet, ob der gedachte paradiesische Urzustand ohne alle Formen von Herrschaft gedacht werden muss. Thomas von Aquin schränkt die Machtausübung auf vernünftige Formen der Herrschaft über Freie ein, die zum Guten hinführen. Wilhelm von Auvergne spezifiziert, dass "potentia" eine Form der "potestas" sei, die nur durch den Gehorsam der Untergebenen wirksam ist. Wilhelm von Ockham fokussiert vor allem die Aneignungsmacht der Menschen gegenüber der herrenlosen Natur durch die gemeinsame Herrschaft der Menschen gegenüber der Natur. Im Eigentum wiederum liegt nach Ockham eine wichtige Machtquelle und zugleich die materielle Grundlage für eine politische Zwangsgewalt, die von der göttlichen Macht unabhängig, jedoch von der Zustimmung der Beherrschten abhängig ist. Deren Widerstand gegen politische Machtausübung ist damit nicht länger Widerstand gegen die gottgewollte Ordnung, wie es Paulus im Kap. 13 des "Briefs an die Römer" fordert: „Jedermann sei untertan der Obrigkeit, die Gewalt über ihn hat. Denn es ist keine Obrigkeit ohne von Gott; wo aber Obrigkeit ist, die ist von Gott verordnet.“ Marsilius von Padua geht noch weiter in der Delegitimierung geistlicher Machtausübung: Diese ist für ihn ein Widerspruch in sich. Zur Aufrechterhaltung des Friedens dürfe es nur eine einheitliche Macht geben, die mit Zwangsgewalt ausgestattet ist. Die Macht leite sich zwar von Gott her, aber zu ihrer Durchsetzung benötige sie Zwangsinstrumente, die am ehesten in einer Wahlmonarchie gegeben sind. Während sich die Spätscholastik bis zu Calvin hin weiter um die Rechtsbegründung von Macht konzentrierte, begriff Machiavelli die Macht umgekehrt von ihren Auswirkungen her; sie bedürfe anders als die Autorität nicht der Legitimation, sondern ist eine praktische Tatsache, die nur beschrieben und quasi technologisch optimiert werden kann. Jean Bodin fordert demgegenüber die Stärkung des Souveräns durch Legitimitätsbeschaffung, was jedoch nicht heißt, dass dieser in seinem Handeln durch Gesetze gebunden ist. Für Thomas Hobbes ergibt sich aus der Theorie der natürlichen Aneignungsmacht der Menschen gegenüber der Natur und den naturbedingten Machtunterschieden die Vorstellung eines naturrechtlich begründeten Herrschaftsanspruchs eines jeden auf alle anderen. Nur durch Machtkonzentration auf ein von der Rechtsordnung erschaffenes Subjekt – den Staat – kann der aus diesen konfligierenden Ansprüchen aller gegen alle folgende Krieg verhindert werden. Damit löst Hobbes in seinem Werk "Leviathan" das Problem der Begründung von Macht vollständig aus dem Rahmen der Rechtstheorie der Macht. Im Gegensatz zu Thomas Hobbes liefert Spinozas Naturzustand keine normativen Kriterien für den Machtgebrauch. Das natürliche Recht eines Jeden erstreckt sich auf alles das, was durchzuführen in seiner Macht steht. Damit werden natürliches Recht und Macht gleichgesetzt. Aber auch Tugend ist an Macht gebunden, und Macht erscheint als Tugend, wenn sie aus sich heraus Wirkungen produziert und sich der Mensch an diesen Wirkungen erfreut, ohne dass er dieses durch die Überwindung von Widerständigkeit definiert. Kant entpersonalisiert den Machtbegriff, denkt ihn unabhängig von persönlicher Herrschaft und setzt die Staatsmacht des Obrigkeitsstaates, dem man Gehorsam schuldet, mit Gewalt gleich, ohne deren rechtliche Legitimation als zwingend mitzudenken. Gewalt ist eine Macht, die dem Widerstand anderer Mächte übergeordnet ist. Die Versuche zu einer theoretischen Bestimmung der Macht in der politischen Philosophie des Deutschen Idealismus, der Romantik und der Restauration zu Beginn des 19. Jh. sind durch die Erfahrung der Französischen Revolution und des politisch-militärischen Zusammenbruchs der deutschen Kleinstaaten im Gefolge der Napoleonischen Kriege bestimmt. Sie reflektieren die bedrohliche Radikalität einer durch die Auflösung konstitutionell-monarchischer Macht freigesetzten Gewaltsamkeit der innerstaatlichen Auseinandersetzungen und identifizieren sich zugleich teils enthusiastisch mit der durch nationale Vereinheitlichung und bürokratische Zentralisierung möglich gewordenen Machtpolitik. So wendet sich die politische Philosophie Fichtes, Hegels und Adam Müllers zu Beginn des 19. Jahrhunderts den Voraussetzungen nationalstaatlicher Machtpositionen im Sinne einer Renaissance machiavellistischer Politik, aber auch in zunehmendem Maß den geistig-moralischen und religiösen Legitimationsgrundlagen politischer Macht zu. Fichte führt unter dem Einfluss der von ihm republikanisch gedachten Verfassung zunächst Macht und Recht wieder enger zusammen. An die Stelle der Staatsgewalt tritt bei ihm der Begriff der durch Vertrag zu legitimierenden "Staatsmacht", die Angreifern entgegentritt; "potestas" und "potentia" sind nicht mehr geschieden. Für Adam Müller ist nur eine auf kollektiven Glaubensvorstellungen basierende Macht im Unterschied zur rein physischen Macht legitim. Im Rahmen von Hegels metaphysischer Begriffstheorie, der Lehre von der begrifflichen Natur alles Seienden, ist die Macht als die "Macht des Allgemeinen" bestimmt, d. h. als die Macht des Übergreifens des machthabenden Begriffs gegenüber den ihm untergeordneten Momenten. Gegenüber der mächtigen Sphäre des Privatrechts und des Privatwohls stellt der Staat die übergeordnete sichernde Macht des Allgemeinen dar, so Hegel in § 261 der "Grundlinien der Philosophie des Rechts". Zugleich erscheint Hegels Machtbegriff modern insofern, als er quasi interaktiv im Sinne eines Verhältnisses zum Anderen ausgeweitet ist. Macht ist endlich, solange ihr ein Nein entgegengesetzt und sie mit Gewalt ausgeübt wird. Sie ist absolut erst als Freiheit. Aus diesem Gedanken, dass Macht dort am größten ist, wo sie unsichtbar ist, entwickelt sich im 19. Jahrhundert die kreative Übertragung des Machtbegriffs und der Analyse machtdominierter Verhältnisse auf viele andere gesellschaftliche Bereiche, z. B. durch die Analyse der Religion als Machtphänomen durch Nietzsche oder die Analyse der Klassenbeziehungen durch Karl Marx und Friedrich Engels. Für Marx und Engels stellt die Verwandlung von persönlichen Machtverhältnissen in sachliche Machtverhältnisse das Eigentümliche moderner Gesellschaften dar, welches als transzendentale Macht des Geldes und als Herrschaft des Kapitals zum Ausdruck kommt. Einen anderen Ausgangspunkt der Theoriebildung zum Phänomen der Macht bildet Friedrich Nietzsches "Wille zur Macht", eine Formel zur Bezeichnung des unersättlichen Verlangens nach Ausübung der Macht, eines schöpferischen Triebs, der elementares Motiv alles Lebendigen ist und jenseits jeder moralischen Wertung steht. Dieses Konzept einer trieb- und elitentheoretischen Begründung von Macht wird im 19. Jahrhundert weiter ausgebaut zum postulierten Gegensatz zwischen vitalistischer Aktivität und kultureller Verfeinerung bzw. Dekadenz. Es macht sich vor allem in den antimarxistischen Elitentheorien – etwa bei Vilfredo Pareto – geltend. Für Max Weber ist der Machtbegriff „soziologisch amorph“; er definiert ihn wie folgt: Diese unterschiedlichen Machtbasen werden in der Folge in der soziologischen und sozialpsychologischen Theoriebildung immer weiter differenziert. Subjekte und Institutionen. Gemäß einer relativ weit verbreiteten Definition ist (soziale) Macht die Fähigkeit von Personen oder Gruppen zur Steuerung des Denkens und Handelns von Anderen. Neben individuellen Akteuren können also auch Gruppen, insbesondere organisierte Gruppen, Macht besitzen und ausüben. Dies können "staatliche Institutionen" sein wie z. B. Regierung oder Militär, die als Ordnungs- oder Schutzmacht auftreten. Zum anderen verfügen auch privatrechtliche Institutionen wie beispielsweise "Unternehmen" über unterschiedliche Macht. So stehen sich etwa in Anbieter-Kunden-Beziehungen organisierte Gruppen mit unterschiedlicher Macht gegenüber (nach z. B. Keysuk, 2000). Insbesondere Großunternehmen, die erhebliche Wirtschaftsmacht ausüben, oder "Medienkonzerne", die je nach Reichweite, Reputation und Glaubwürdigkeit erhebliche Wirkung entfalten, indem sie gesellschaftsbezogene Ereignisse und Situationen kommentieren und deuten oder auch im schlimmsten Fall nur behaupten ("siehe auch:" Medienmanipulation), sind wichtige Beispiele für unausgeglichene Machtverhältnisse. Aber auch innerhalb von Unternehmen hat die Macht verschiedener Abteilungen eine hohe Bedeutung für die gemeinschaftlich erzielten Ergebnisse (nach z. B. Engelen und Brettel, 2012). Machtformen. Macht hat verschiedene Formen, welche etwa unter den Begriffen Definitionsmacht, Deutungshoheit (Deutungsmacht), Entscheidungsmacht, Verfügungsmacht oder anderen dargestellt werden. Diese sind jedoch ebenfalls in letzter Konsequenz immer nur Formen des Umfangs von Handlungsmacht, welche spezifische Umgebungsaspekte und -strukturen umfassen, die Auswirkungen auf die vorhandene Handlungsmacht haben. Insbesondere: Macht in der Organisationstheorie. Diese auf Organisationen eingeschränkte Begriffsbestimmung kann auch bei der Betrachtung anderer Bereiche hilfreich sein. Allgemeiner sehen daher Mallory, Segal-Horn und Lovitt Macht als Morgan beschreibt in seinem Modell Organisationen in demokratischen Umfeldern. Das wird beispielsweise aus der Abwesenheit von direkter Gewalt ersichtlich, die in Organisationen zumindest historische Bedeutung hat. Andererseits sind Erweiterungen im Vergleich zum Modell von French und Raven (s. o.) zu erkennen. Im Prinzip kann für jeden Stakeholder „A“ einer Organisation ein Machtprofil aufgestellt und gegen das Machtprofil eines anderen Stakeholders „B“ abgeglichen werden, mit dem „A“ einen Konflikt hat. Dieses Modell impliziert eine sehr direkte Machtposition. Das bedeutet aber nicht, dass eine Machtposition auch ausgenutzt werden muss. Die Entscheidung darüber, ob Macht ausgeübt wird oder nicht, ist eine politische Entscheidung. Morgan beschreibt in seinem Modell ausdrücklich Organisationen, vermutlich, weil in anderen Kontexten (Staat–Staat, Person–Staat usw.) andere Faktoren (s. o. French & Raven) hinzukommen. Im politischen Kontext unterscheidet MacMillan die Konzepte Macht und Einfluss. Die hier sichtbar werdende Distanz wird durch das zweidimensionale Modell von Winstanley et al. aufgezeigt, wo Regelmacht – die Entscheidung darüber, nach welchen Spielregeln die Organisation handelt – und operative Macht – die Macht, Entscheidungen innerhalb der Organisation zu treffen – miteinander in Beziehung gesetzt werden. "A – Arm’s-length power" bezeichnet die relativ kleine Macht innerhalb, aber erhebliche Macht von außerhalb der Organisationen, durch die diese beeinflusst werden kann. Stakeholder dieser Art agieren nicht selbst in einer Organisation, aber sie können die Spielregeln festsetzen. Stakeholder mit "B – Comprehensive Power" können sowohl selbst agieren als auch die Spielregeln festsetzen. Typischerweise sind es Besitzer-Manager oder Führungskräfte in Staatsunternehmen. Es gibt Organisationen, wo diese Position nicht oder nur sehr schwach ausgeprägt ist. Stakeholder mit "operativer Macht" können die Entscheidungen vor Ort treffen, tun dies aber nach Regeln, die anderswo (A oder B) festgelegt wurden. Sie sind Abteilungsleiter in Unternehmen, Büro- oder Fachbereichsleiter in öffentlichen Verwaltungen und Gruppenführer in NGOs usw. Der Quadrant D bezeichnet Stakeholder die weder über operative Macht noch Regelmacht verfügen. Sie sind buchstäblich "entmachtet". Diese Analyse dient dem Vergleich von Stakeholders inner- und außerhalb von Organisationen. Zieht man die Definition von MacMillan (s. o.) heran, so kann man mit Winstanleys Modell differenzierter analysieren. Es ist ein typisches Werkzeug zur Analyse von Machtverhältnissen bei Veränderungsprozessen in Organisationen. Die Macht des Individuums innerhalb einer Organisation kann über die verschiedensten Wege erwachsen, die sich häufig der direkten empirischen Untersuchung entziehen. Macht wird in der Organisationstheorie als ein aktionsbasiertes Konzept verstanden, das in enger Beziehung zum Konzept der Führung steht. Es handelt sich hierbei um einen Prozess, der situations- und umweltabhängig ausgeübt wird. In der Praxis lassen sich sowohl die Auswirkungen der Ausübung von Macht als auch deren Träger identifizieren, während sich die Quellen und Ursachen für die individuelle Machtposition nicht direkt erschließen. Als Basis für die Macht von Gruppen oder Individuen wird in der Literatur die Kombination der individuellen Charaktereigenschaften im Zusammenspiel mit den Zusammenhängen innerhalb komplexer Organisationen und Umwelten genannt. Die Analyse und Diskussion wird dementsprechend auf den gesamten Bereich der Unternehmensführung ausgeweitet, in der die Macht als intrinsischer Bestandteil von Netzwerken angesehen wird. Die Aufgabe des Managements besteht dann darin, die verschiedenen Beziehungen nicht nur innerhalb der Organisation, sondern auch außerhalb dieser zu beeinflussen. Meerenge. Meerenge zwischen Großbritannien und Frankreich (Ärmelkanal) Eine Meerenge (Sund), auch (Meeres)straße, Kanal oder Belt genannt, ist eine Stelle eines Meeres, an der sich zwei Landmassen nahe kommen und so einen Engpass des Meeres bilden. Meerengen sind (und waren vor allem früher) von großer strategischer Bedeutung für die Schifffahrt. Das Gegenstück ist die Landenge (Isthmus). Politische Bedeutung. Meerengen waren schon im Altertum aufgrund ihrer strategischen Bedeutung begehrte Gebiete. Ihre Kontrolle konnte erhebliche Macht verleihen, daher waren sie oft Objekt politischer Einflussnahme. Durch das Seerechtsübereinkommen ist international sichergestellt, dass Schiffe und Luftfahrzeuge das Recht der unbehinderten Transitdurchfahrt durch Meerengen haben. Allerdings gilt in einer Meerenge, die durch eine Insel eines Meerengenanliegerstaats und dessen Festland gebildet wird, dieses Recht nicht, wenn seewärts der Insel ein in navigatorischer und hydrographischer Hinsicht gleichermaßen geeigneter Seeweg durch die Hohe See oder eine ausschließliche Wirtschaftszone vorhanden ist. Beispiele von Meerengen. Der "Bosporus" und die "Dardanellen" waren in der Geschichte besonders umkämpft. Es wird vermutet, dass der Trojanische Krieg nicht zuletzt geführt wurde, um die Kontrolle Trojas über die Dardanellen zu beenden. Im Candia-Krieg (um Kreta) blockierten die Venezianer im 17. Jahrhundert gezielt die Dardanellen, um die Versorgungslage im Osmanischen Reich, vor allem in Istanbul, zu verschlechtern. Die Frage um die Kontrolle über Bosporus und Dardanellen trug 1914 zur Bindung des Osmanischen Reiches an die Mittelmächte bei, mit deren Hilfe die Türken die Meerengen 1915/1916 in der Schlacht von Gallipoli im Ersten Weltkrieg erfolgreich gegen die Entente verteidigen konnten, bevor das Osmanische Reich schließlich 1918 zusammenbrach. Um die "Straße von Gibraltar" und damit den Seeweg vom Atlantischen Ozean in das Mittelmeer unter Kontrolle zu bringen, eroberte Großbritannien 1704 gemeinsam mit den Niederländern Gibraltar und machte Felsen und Stadt 1830 zur britischen Kronkolonie. Sie wurde insbesondere mit der Eröffnung des Sueskanals noch wichtiger, da sie damit auch den Seeweg zur britischen Kolonie Indien sicherte. MS-DOS. MS-DOS, kurz für Microsoft Disk Operating System, ist Microsofts erstes Betriebssystem für x86-PCs. Es wurde ursprünglich für den Intel-Prozessor 8086/8088 entwickelt und war in den späten 1980er und frühen 1990er Jahren das dominierende Betriebssystem für Einzelplatzrechner. Heute wird MS-DOS, das immer wieder erweitert wurde (u. a. durch grafische Benutzeroberflächen), für zeitkritische Anwendungen, Startmedien (Boot-Disketten) oder für Anwendungen, die direkten Zugriff auf die Hardware erfordern, vor allem in Embedded Systems eingesetzt. Die früheren Windows-Versionen 1.0 bis 3.11, 95 (4.0), 98 (4.1) und ME (4.9) waren von DOS abhängig. Windows NT und die darauf basierenden Microsoft-Betriebssysteme bauen nicht auf MS-DOS auf und können DOS-Software nicht oder nur eingeschränkt ausführen. Hier kommen verstärkt Emulatoren zum Einsatz. Die Eingabeaufforderung bei MS-DOS ähnelt der des Kommandozeileninterpreters Cmd.exe der NT-basierenden Windowssysteme, ist aber davon völlig unabhängig. Tim Patersons S-100-Karte mit Intel-8086-CPU. Die Geschichte, die letztendlich zur Entwicklung des späteren MS-DOS führte, begann bereits im Herbst 1978, als der Programmierer und Hardware-Entwickler Tim Paterson bei der Firma Seattle Computer Products mit der Entwicklung einer CPU-Einsteckkarte für den damals verbreiteten S-100-Bus begann. In der zweiten Hälfte der 1970er Jahre war der S-100-Bus eine Art Quasi-Standard zum Aufbau erweiterbarer Rechnersysteme, die damals zumeist unter dem Betriebssystem M betrieben wurden. Statt der damals in S-100-Systemen verbreiteten 8-Bit-CPUs Zilog Z80, Intel 8085 oder Intel 8080 verwendete Paterson die neue 16-Bit-CPU Intel 8086, die erst 1978 von Intel vorgestellt wurde und die später auch die Geschichte der IBM-kompatiblen PCs prägen sollte. Die Entwicklungsarbeiten an dieser CPU-Einsteckkarte begann Paterson im Herbst 1978, nachdem er im Juni zuvor ein Seminar über die gerade vorgestellte CPU bei Intel besucht hatte. Im Juni 1979 hatte Paterson schließlich einen lauffähigen Prototypen der CPU-Einsteckkarte sowie einen Assembler und einen Maschinensprachemonitor, den 8086-Monitor, entwickelt. Er trat an Microsoft heran, um deren erst kurz zuvor fertiggestellten 8086-BASIC-Interpreter auf seiner neuen Hardware lauffähig zu machen. Noch im Juni 1979 diente ein S-100-System mit Patersons Einsteckkarte Microsoft als Demonstrationssystem für das neue BASIC-86 auf der "National Computer Conference" in New York. Als "Seattle Computer Products" Ende 1979 schließlich mit der Auslieferung der 8086-Einsteckkarte begann, war neben ein paar Entwicklungswerkzeugen und dem 8086-Monitor gegen Aufpreis auch Microsofts BASIC-86 für die neue Einsteckkarte verfügbar. Doch ein Betriebssystem, wie es mit CP/M für die 8-Bit-CPU-Einsteckkarten für den S-100-Bus verfügbar war, gab es für die neue 16-Bit-CPU-Einsteckkarte noch nicht. Und obwohl – nach Patersons Aussagen – Digital Research im Sommer 1979 die 8086-Version von CP/M für Dezember 1979 in Aussicht gestellt haben soll, war "CP/M-86" – wie das Betriebssystem schließlich später heißen sollte – zur angekündigten Zeit noch nicht in Sicht. QDOS und 86-DOS. Als "CP/M-86" im April 1980 immer noch nicht verfügbar war, begann Paterson schließlich mit der Entwicklung eines eigenen Betriebssystems, das später zu "MS-DOS" werden sollte. Unter dem Namen "QDOS" ("Quick and Dirty Operating System", frei übersetzt: „schnell und unsauber programmiertes Betriebssystem“) wurde es im August 1980 in Version 0.1 veröffentlicht und zusammen mit der 8086-CPU-Einsteckkarte ausgeliefert. Die Systemaufrufe von QDOS orientierten sich sehr stark an denen von M, was einerseits zwar die Portierung bestehender CP/M-Programme erleichterte, andererseits aber – viele Jahre später – zu gerichtlichen Auseinandersetzungen zwischen Digital Research und Microsoft führte. "Seattle Computer Products" bewarb QDOS mit dieser „CP/M-Kompatibilität“ und der ausgelieferten Software, die beispielsweise das Einlesen von Dateien im CP/M-Format oder weitgehend automatisierte Konvertierung von Z80- in 8086-Quellcode ermöglichen sollte. Beim Versionsstand 0.3 wurde QDOS im Dezember 1980 in "86-DOS" umbenannt. PC-DOS 1.0, MS-DOS 1.x. MS-DOS Version 1.12 von 1982 Zu dieser Zeit hatte Microsoft QDOS bereits lizenziert und arbeitete im Auftrag von IBM mit Hochdruck an der Portierung der Version 0.3 auf einen frühen Prototypen des IBM-PC. Das Ergebnis wurde IBM als "Microsoft Disk Operating System 1.0" (kurz MS-DOS) zur Evaluierung vorgelegt. Das Projekt soll zu dieser Zeit so geheim gewesen sein, dass selbst Paterson, der Microsoft als Lizenznehmer immerhin bei der Portierung behilflich war, den Prototyp nicht zu Gesicht bekam. Die Version 1.0 von MS-DOS wurde nie veröffentlicht. Im April 1981 hatte 86-DOS den Versionsstand 1.0 erreicht. Ab Mai 1981 arbeitete Tim Paterson für Microsoft. Am 27. Juli 1981 kaufte Microsoft schließlich alle Rechte an 86-DOS und entwickelte es fortan unter dem Namen MS-DOS weiter. Was später als PC-DOS 1.0 mit dem ersten IBM-PC ausgeliefert wurde, war eine durch IBM fehlerbereinigte Version von MS-DOS 1.14. Obwohl auch das bei 8-Bit-Rechnern der späten 1970er Jahre sehr beliebte Betriebssystem M in einer weiterentwickelten Version als M-86 für den IBM-PC verfügbar war, setzte sich IBMs PC-DOS als Standardbetriebssystem durch. Als einer der Hauptgründe dafür wird der deutlich geringere Preis von PC-DOS vermutet. Ein weiterer großer Vorteil für die Akzeptanz soll der geringe Portierungsaufwand bestehender CP/M-2.2-Software auf MS-DOS gewesen sein. Während sich Tim Paterson bei der Entwicklung von QDOS vorwiegend an den Systemaufrufen von CP/M 2.2 orientierte und somit sehr kompatibel blieb, stellte CP/M-86 dagegen eine Weiterentwicklung von CP/M dar, die mit einigen tiefergehenden Veränderungen im Bereich der Anwendungsschnittstelle einherging. Viele Programme, die bereits unter CP/M liefen, waren deshalb sehr schnell auch unter MS-DOS verfügbar. Gleiches galt für Neuentwicklungen. So auch im Jahr 1982 mit Microsoft Multiplan, das in den ersten beiden Versionen bereits für CP/M wie auch für MS-DOS verfügbar war. Zahlreiche weitere Plattformen sollten folgen. Darüber hinaus sehr förderlich war das Vorhandensein eines in wichtigen Teilen deutlich leistungsfähigeren Dateisystems in MS-DOS namens FAT. Das FAT-Dateisystem war ursprünglich in einer 8-bittigen Variante bereits 1977 von Microsoft als Dateisystem für das Paket "Standalone Disk BASIC-80" für einen NCR-Rechner entwickelt worden. 1979 wurde es auch ein Bestandteil von "Standalone Disk BASIC-86", als dieses auf die 8086-CPU-Einsteckkarte von "Seattle Computer Products" angepasst worden war, nicht zuletzt, weil die fraglichen S-100-Systeme in der Regel bereits mit Diskettenlaufwerken ausgeliefert wurden. Basierend auf dieser konzeptionellen Grundlage passte Tim Paterson das FAT-Dateisystem im Juli 1980 für seine Bedürfnisse an, indem er die Anzahl der FATs von drei auf zwei reduzierte, die Breite der Einträge von 8 Bit auf 12 Bit erweiterte, die Verzeichnistabelle zwischen der FAT und dem Datenbereich anordnete, die Bedeutung einiger reservierter Cluster-Werte umwidmete und das vormalige 6.3-Namensschema zwecks CP/M-API-Kompatibilität auf 8.3 Zeichen erweiterte. Im Februar 1981 wurden mit 86-DOS 0.42 auch die Verzeichniseinträge von 16 Bytes auf 32 Bytes vergrößert und die Frühform des FAT12-Dateisystems war geboren, aufgrund abweichender logischer Geometrien jedoch immer noch in einem Format, das von späteren MS-DOS und PC DOS-Versionen nicht gelesen werden kann. MS-DOS 2.x und höher. Um Probleme mit den neu aufkommenden Festplatten zu umgehen, integrierte Microsoft in der Version 2 Konzepte aus Xenix, einem Unix-Abkömmling von Microsoft. Die übernommenen Konzepte ermöglichten hauptsächlich ein hierarchisches Dateisystem - mit anderen Worten, die heute selbstverständlichen Unterverzeichnisse - und ein Treiberkonzept für block- und zeichenorientierte Geräte. MS-DOS 2.0 ist die bisher einzige DOS-Version, deren Quellcode durch Microsoft der Öffentlichkeit zur Verfügung gestellt worden ist. Die Version 3 enthielt Erweiterungen, um über ein Netzwerk Daten von entfernten Rechnern nutzen zu können (Lan-Manager). Mit der Version 3.2 wurden erstmals 3,5-Zoll-Diskettenlaufwerke und entsprechende 720-KB-Disketten unterstützt, 1,44-MB-Disketten ab der Version 3.3. Bei der Version 4 wurde im Wesentlichen die Begrenzung der Festplatten-Kapazität auf rund 32 MB pro logischem Laufwerk angehoben. Zur Arbeitserleichterung wurde die MS-DOS-Shell (umgangssprachlich wegen des Dateinamens DOSSHELL.EXE als „Dosshell“ bezeichnet) als Oberfläche eingeführt. Mit der Version 5 versuchte man den knappen Hauptspeicher, der architekturbedingt auf 640 kB begrenzt war, durch die Einführung von HMA („High Memory Area“) und UMA („Upper Memory Area“) etwas zu erweitern. Ab dieser Version wurde EMS und XMS-Speicher für Prozessoren ab dem i386 direkt unterstützt. Auch die maximale Größe von logischen Laufwerken wurde auf 2 GB erhöht. Ansonsten enthielt die Version hauptsächlich Erleichterungen bei der Benutzerführung. Dazu gehörten etwa eine erweiterte MS-DOS-Shell, ein neuer Editor und eine Online-Hilfe. In der Version 6 wurden neben diversen Detailverbesserungen der bestehenden Konzepte und dem Hinzufügen verschiedener Fremdprodukte keine wesentlichen Veränderungen mehr vorgenommen. Erwähnenswert ist höchstens noch DoubleSpace (später DriveSpace), mit dem es möglich wurde, Daten ohne zusätzliche Maßnahmen komprimiert auf der Festplatte zu speichern und damit auf Kosten der Geschwindigkeit und Datensicherheit bis zu 50 Prozent Festplattenspeicher zu sparen. Die Veröffentlichung von weiteren Versionen (7, 8) erfolgte nur noch in Kombination (Bundle) mit dem grafischen Protected-Mode-Betriebssystem Microsoft Windows. Eine substantielle Verbesserung des Systems selbst fand nicht mehr statt bzw. wurde weitgehend durch Verbesserungen im überlagerten Windows-System abgedeckt. Die wahrscheinlich wichtigste Verbesserung war die Einführung von FAT32 mit MS-DOS 7.10 (ab Windows 95 OSR2). MS-DOS wurde in seiner Bedeutung vor allem auf ein Hilfsmittel beim Boot-Vorgang, als Wartungsplattform und als Skript-Interpreter reduziert. Probleme von MS-DOS. Bei der Einführung neuer Intel-Prozessoren wurde von Intel immer darauf geachtet, dass die Prozessoren beim Start in einem Modus laufen, der sich kompatibel zu einem 8088-/8086-Prozessor verhält. Dieser Modus wird Real Mode genannt und ist auch noch bei Prozessoren wie zum Beispiel dem Core i7/i5/i3 und dem AMD FX/Phenom II/Athlon II enthalten (Abwärtskompatibilität). Im Real Mode kann maximal 1 MiB Adressraum verwendet werden. Durch die Aufteilung des Adressraums in normalen Speicher für das Betriebssystem / die Anwenderprogramme und reservierten Adressraum für O sowie das BIOS steht MS-DOS und den unter MS-DOS laufenden Applikationen ein maximaler Hauptspeicher von 640 KiB zur Verfügung. Diese Beschränkung des Arbeitsspeichers wurde im Laufe der Zeit immer mehr zu einer problematischen Hürde, die mittels einer aufwendigen Speicherverwaltung, beginnend in MS-DOS Version 4, nur teilweise aufgehoben wurde: mittels eines Tricks, der eine undokumentierte Eigenschaft der Prozessoren ausnutzte, konnte das Betriebssystem selbst größtenteils aus dem 1-MiB-Adressraum ausgelagert werden; auch Anwendungen konnten über spezielle APIs Speicher außerhalb dieses Bereichs anfordern; dies war aber mit erheblichem Programmieraufwand verbunden, war nicht kompatibel mit manchem älteren Programm (so dass der Benutzer oft gezwungen war, die Speicherkonfiguration je nach gerade verwendeter Software jeweils per Hand anders einzustellen), war für Nicht-Experten sehr schwer verständlich und bedeutete eine zusätzliche Fehlerquelle, besonders wenn Gerätetreiber und TSR-Programme zusätzlich ins Spiel kamen. Auch die Verwaltung von immer größer werdenden Festplattenlaufwerken führte MS-DOS immer wieder an die Grenze seiner Leistungsfähigkeit. Die maximal unterstützte Kapazität von Festplattenpartitionen musste mehrfach in neuen Versionen des Betriebssystems erhöht werden. Problematisch war auch das ursprünglich nur für Disketten entwickelte FAT-Dateisystem (FAT12). Dieses war für Disketten mit einer anfänglichen Kapazität von bis zu 360 kB entwickelt worden und war für die Verwaltung großer Medien ungeeignet. Später wurde mehrfach die maximale Kapazität der Partitionen erhöht (FAT16 ab DOS 2.0, FAT16B ab DOS 3.31), und ab Windows 95 (MS-DOS 7.00 integriert) wurden über eigentlich ungültige Verzeichniseinträge längere Dateinamen für Windows unterstützt – diese Möglichkeit bot auch das bereits kurz zuvor auf den Markt gebrachte, nicht auf MS-DOS basierende Windows NT 3.51. Mit Windows 95B und Windows 98 (MS-DOS 7.10 integriert) kam die Einführung des neuen Dateisystems FAT32, das auch Partitionen mit mehr als 2 GiB adressieren kann. Aufgrund von Fehlern in den Programmen dieser MS-DOS-Versionen war die nutzbare Festplattengröße aber häufig auf 127,5 GiB beschränkt, obwohl das Dateisystem bis zu 2048 GiB unterstützt. Ein weiteres Problem stellt die Einführung neuer Funktionen dar. DOS greift über das Interrupt-Interface (per INT 13h) auf Datenträger zu. Diese Schnittstelle wird in der Regel vom ROM-BIOS IBM-kompatibler Rechner oder von speziellen Ergänzungs-BIOSen von Zusatzkarten zur Verfügung gestellt. Auf diese Weise sind die Unterschiede im Hardwarezugriff zwischen MFM-, RLL-, ESDI-, SCSI- und IDE-Festplatten/Controllern für DOS weitestgehend transparent. Heute übliche Serial-ATA-Controller arbeiten jedoch oft standardmäßig in den AHCI- oder RAID-Modi. Da der Zugriff darauf nicht mehr über die klassische Registerschnittstelle für Festplatten-Controller im I/O-Bereich erfolgt, die standardmäßig von allen BIOSen unterstützt wird, finden manche ROM-BIOSe ohne spezielle Unterstützung für diese Modi diese nicht mehr und stellen solche Laufwerke in der Folge auch nicht mehr auf INT-13h-Ebene bereit, wodurch sie für DOS „unsichtbar“ bleiben, solange keine DOS-Preboot-Treiber zur Verfügung stehen, die entweder die normale INT-13h-Schnittstelle emulieren oder die solche Laufwerke auf DOS-Blockgerätetreiberebene (via CONFIG.SYS) ins System einbinden. Oft kann man jedoch in der Konfiguration des ROM-BIOS einen „IDE Legacy Mode“ aktivieren, in dem solche Festplatten auf Hardware-Ebene wie klassische IDE-Festplatten erscheinen und somit vom ROM-BIOS und DOS erkannt und dann auch problemlos benutzt werden können. Die Grenzen des Betriebssystems wurden bis zum Ende der MS-DOS-Ära mit MS-DOS 8.00 (in Windows Me integriert) stetig erweitert. Allerdings wurden die grundlegenden strukturellen Einschränkungen nie beseitigt, sondern aufgeschoben. Das führte beispielsweise dazu, dass unter MS-DOS große Datenträger auch heute wieder ausschließlich in Abschnitte partitioniert verwendet werden können. Für viele heute übliche Schnittstellen wie USB und S-ATA gibt es gar keine DOS-Unterstützung mehr. Solche Geräte können unter DOS nicht verwendet werden. Eine Ausnahme stellen USB-Tastaturen und die meisten einfachen USB-Datenträger (externe Festplatten, externe Diskettenlaufwerke, Sticks u. Ä.) dar: für diese ist in den meisten BIOSen nach wie vor eine Emulationsebene eingebaut, so dass sie auf einem solchen Rechner auch unter DOS verwendet werden können. Mit speziellen Treibern (welche in config.sys und autoexec.bat gestartet werden müssen) ist es jedoch auch außerhalb der Emulationsebene möglich, USB-Laufwerke anzusprechen. Beide Ausnahmen unterstützen kein Hot Swapping. Befehlssatz. Die Funktionsweise vieler Kommandos kann mit Parametern (auch "Schalter" genannt) beeinflusst werden, die meist mit einem Schrägstrich („slash“) eingeleitet werden. Die Aufrufsyntax der meisten Befehle wird ab MS-DOS 5.0 ausgegeben, wenn als Parameter codice_1 übergeben wird. DOS-Emulatoren. MS-DOS lässt sich auch in diversen Emulationsumgebungen nutzen. Anwendungsprogramme haben dabei eine recht hohe Wahrscheinlichkeit, sich bestimmungsgemäß zu verhalten. Programme, die direkte Hardware-Zugriffe benötigen, können jedoch unter echten Multitaskingsystemen wie 2, Windows NT oder Linux systembedingt, je nach Umfang der Emulation, gegebenenfalls nicht oder nur sehr eingeschränkt laufen. Das ist vor allem bei Spielen der Fall. Das Betriebssystem OS/2, das von IBM und Microsoft ursprünglich als gemeinsamer Nachfolger von DOS konzipiert worden war, verfügt über ein integriertes DOS-Modul, das der MS-DOS-Version 5 entspricht. Dieses Modul kann darin gestarteten Original-DOS-Programmen deutlich mehr Speicher zuteilen als ein eigenständiges DOS, weil das Wirtssystem OS/2 die DOS-Betriebssystemschnittstelle nachahmt (emuliert), indem es sie auf die eigenen Serviceroutinen umleitet und dabei nicht mehr an den eingeschränkten "Real-Mode"-Speicherbereich des Original-DOS' gebunden ist. Die Grundlage des OS/2-DOS-Moduls ist der virtuelle 8086-Modus des i386-Prozessors und seiner Nachfolger. Dabei handelt es sich um einen Hardware-Service, der "nur noch" vom Betriebssystem entsprechend genutzt werden muss, um DOS-Anwendungen als Ausführungsumgebung zu dienen. Da jedes DOS-Programm auf einem eigenen virtuellen 8086-"Prozessor" läuft, profitieren die DOS-Programme von der Multitaskingfähigkeit, dem Speicherschutz und der erhöhten Stabilität von OS/2. Im Gegensatz zu OS/2 sind Windows 3.x oder verwandte Systeme keine vollständigen Betriebssysteme, sondern nur ein Aufsatz für ein Original-DOS. Obwohl auch diese älteren 16-bit-Windows-Versionen die damals neueren Prozessoren (ab dem 80286) besser ausnutzen können als das Original-DOS, emulieren sie die DOS-Schnittstelle nicht, sondern leiten die Betriebssystem-Aufrufe des DOS-Programms an das weiterhin laufende Original-DOS weiter, mit den dann unvermeidbaren Nachteilen für Speicherbedarf und Stabilität. Windows NT und seine Nachfolger sind vollständige Betriebssysteme, die DOS-Programmen keine originale DOS-Umgebung mehr bieten. Stattdessen verfügen diese 32-Bit-Windows-Versionen über die NTVDM (NT Virtual DOS Machine), eine Emulatorlösung, die vergleichbar zur Umsetzung unter OS/2 ist, da die bei dessen (anfänglich) gemeinsamer Entwicklung durch IBM und Microsoft gewonnenen Erkenntnisse beiden Firmen für ihre weiteren Entwicklungen zur Verfügung standen. Die 64-Bit-Versionen von Windows XP und dessen Nachfolger können 16-Bit-Code, und somit auch DOS-Programme, generell nicht mehr selbst ausführen. Ersatzweise kann man Hardware-Emulatoren wie VMWare nutzen, die keine DOS-Schnittstelle mehr emulieren, sondern einen gesamten PC mit Prozessor und Peripherie. Unter Linux gibt es das Programm DOSEMU, das DOS-Anwendungen als virtuellen 8086-Task in sehr ähnlicher Art und Weise wie unter Windows und OS/2 ausführen kann, indem es ebenfalls auf dem virtuellen 8086-Modus des i386-Prozessors basiert. Auch ganze Dateisysteme können virtualisiert werden. Bei Bedarf ist es jedoch auch möglich, der virtuell laufenden DOS-Anwendung das originale Dateisystem des Linux-Wirtssystems teilweise oder ganz zu öffnen. Ebenso können einzelne Geräte und Schnittstellen an das virtualisierte System zur Nutzung weitergereicht werden. DOSEMU emuliert nicht DOS selbst, sondern nur die Hardware-Umgebung, die ein DOS benötigt, um ablaufen zu können; daher wird noch eine Kopie von MS-DOS oder einem dazu kompatiblen DOS benötigt. Aktuelle Versionen von DOSEMU werden mit einer integrierten Version von FreeDOS ausgeliefert, so dass man auf eine MS-DOS-Lizenz oft verzichten kann. Mit DOSBox ist es möglich, eine vollständige CPU vom Typ 80286 oder i386 im Real Mode wie auch im Protected Mode sowie den zugehörigen PC mitsamt einem teilweise zu MS-DOS kompatiblen emulierten DOS nachzubilden. Allerdings ist DOSBox und insbesondere das eingebettete DOS für die Nutzung von auf MS-DOS laufenden Spielen gedacht; es fehlen dafür nicht benötigte Features wie etwa eine Druckerunterstützung und viele seltener benutzte Kommandozeilenbefehle. Es besteht auch die Möglichkeit (wie in DOSEMU erforderlich), ein anderes DOS innerhalb von DOSBox zu starten, dann gehen aber manche Eigenschaften, wie der direkte Zugriff auf freigegebene Teile des Wirts-Dateisystems, verloren. Die Ausführungsgeschwindigkeit ist bei DOSBox im Vergleich zu einem auf der gleichen Hardware laufenden Original-Betriebssystem mehr oder weniger deutlich reduziert. Vor allem grafisch aufwendige Anwendungen werden dadurch verlangsamt, dass die nötigen Berechnungen nicht auf der Grafikkarte des Wirtssystems, sondern in seinem Hauptprozessor berechnet werden. Außerdem werden weder Pacifica noch Vanderpool unterstützt. DOSBox ist unter anderem für Windows, BeOS, Linux, Mac OS X, MorphOS, eComStation (OS/2) und auf der Sega Dreamcast verfügbar. Da auch der Prozessor vollständig emuliert werden kann, können MS-DOS-Anwendungen innerhalb von DOSBox auch auf anderen Prozessortypen als den x86-kompatiblen ausgeführt werden, aber meist mit noch stärkerem Geschwindigkeitsverlust. Grafische Benutzeroberflächen. Grafische Benutzeroberflächen für MS-DOS sind unter anderem ältere Microsoft-Windows-Systeme, GEOS, DOS Shell, SEAL oder GEM. Microsoft. Die Microsoft Corporation ist ein internationaler Software- und Hardwarehersteller. Mit rund 117.400 Mitarbeitern und einem Umsatz von 93,58 Milliarden US-Dollar ist das Unternehmen weltweit der größte Softwarehersteller. Der Hauptsitz liegt in Redmond, einem Vorort von Seattle im US-Bundesstaat Washington. Seit dem 4. Februar 2014 ist Satya Nadella Chief Executive Officer (CEO). Das Unternehmen ist bekannt für sein Betriebssystem Windows und sein Büro-Softwarepaket Office. Das Unternehmen wurde am 4. April 1975 von Bill Gates und Paul Allen gegründet. Als Nachfolger von Gates war Steve Ballmer von 2000 bis 2014 CEO. Die Firma Microsoft steht für Microcomputer-Software, ursprünglich "Micro-Soft". Nach anfänglichen Erfolgen mit einem BASIC-Interpreter Ende der 1970er Jahre stellte das Unternehmen 1981 sein Betriebssystem MS-DOS vor, das im Auftrag von IBM entwickelt worden war. Der IBM-PC und dessen Nachbauten auf PC-Basis wurden in den 1980er Jahren vornehmlich mit diesem DOS-Betriebssystem ausgestattet. In den 1990er Jahren wurden das grafische Betriebssystem Windows und Microsofts Büro-Softwarepaket Office Marktführer. Positionierung. Seit den 1990er Jahren ist Microsoft Marktführer bei Betriebssystemen und Office-Anwendungen. Das Unternehmen ist zudem mit den Produkten Xbox 360, deren Nachfolger Xbox One, Windows Phone und Outlook.com (ehemals Hotmail) in der Unterhaltungs- und Dienstleistungsbranche vertreten. Mit einer Umsatzrendite zwischen 25 und 33 Prozent zählt Microsoft zu den besonders profitablen Aktiengesellschaften. Es gehört regelmäßig nach der Marktkapitalisierung laut der Liste Financial Times Global 500 zu den teuersten Unternehmen der Welt. Im Jahr 2013 wurde Microsoft zum vierten Mal nach 2003, 2004 und 2005 als "Bester Arbeitgeber Deutschlands" ausgezeichnet. 2011 wurde Microsoft vom internationalen "Great Place To Work" Institute als bester Arbeitgeber Europas ausgezeichnet. Durch die marktbeherrschende Stellung von Microsoft auf dem Desktop-Markt und die große Bedeutung der Computertechnik allgemein beeinflusst das Unternehmen auch andere Bereiche wie etwa den Arbeitsmarkt oder die Sprache. Organisationsstruktur. Nachdem CEO Steve Ballmer im Oktober 2012 seine "Devices-and-Services"-Strategie zur weiteren Entwicklung von Microsoft veröffentlicht hatte, gab er im Juli 2013 eine grundlegende organisatorische Neuausrichtung des Unternehmens bekannt. Produkte. Microsoft bietet Betriebssysteme und Anwendungsprogramme sowie Hardware wie Mäuse, Joysticks (die Weiterentwicklung von Sidewinder-Gamepads und Joysticks wurde eingestellt), Tastaturen und andere Eingabegeräte an, außerdem (seit der Übernahme von Navision) ERP-Software. Seit 2001 bietet Microsoft mit der Xbox, Xbox 360 und Xbox One auch Spielkonsolen an. Weiterhin verkauft Microsoft das Betriebssystem Windows Phone für den Mobilfunkmarkt. Von 2006 bis 2011 baute Toshiba im Auftrag von Microsoft den MP3-Player Zune. Im dazugehörigen Zune Marketplace, ähnlich dem iTunes Store, bot Microsoft Musiktitel an, in dem sogenannte Microsoft Points als Zahlungsmittel dienten. 2012 startete Microsoft als Ersatz für den Zune Marketplace den Dienst Xbox Music. Unter dem Namen Microsoft Surface bietet Microsoft Tablets an, in denen die Hardware mit der Software gebündelt ausgeliefert wird. Betriebssysteme. Da PCs allmählich Einzug in das Wohnzimmer nahmen, entwickelte Microsoft die Betriebssystem-Variante Windows XP Media Center Edition (Windows MCE), mit der ein normaler PC mit entsprechender Hardware zum "Media Center" umfunktioniert werden kann. Windows XP Media Center Edition basiert auf Windows XP, wurde jedoch um spezifische Funktionen (wie Aufnahmefunktion von Filmen, Programmzeitschrift etc.) erweitert. Des Weiteren vertrieb das Unternehmen ab 2002 das Betriebssystem Microsoft Windows Mobile, das auf mobilen Geräten zum Einsatz kam. Dieses wurde 2010 durch das neu entwickelte Windows Phone ersetzt. Seit 2007 vertreibt Microsoft die Linux-Distribution "Suse Linux Enterprise". Nach Angaben von "Heise" habe Microsoft mit dem Verkauf von Coupons im Wert von 240 Millionen US-Dollar Platz 3 der Linux-Anbieter erklommen. Auf den meisten PCs ist ein Betriebssystem von Microsoft installiert. Die einzigen bedeutenden Ausnahmen sind Apple mit dem eigenen Betriebssystem Mac OS (5 % Marktanteil) und diverse Linux-Distributionen (1 % Marktanteil). Eine komplett neue Linie, aufbauend auf Systemen, die nur noch aus einer oder mehreren berührungsempfindlichen Anzeigen bestehen und in Oberflächen (z. B. von Tischen) integriert werden sollen, befindet sich zurzeit mit Microsoft PixelSense (ehemals "Surface") in Entwicklung und ist in Hotels bereits testweise im Einsatz. Anwendungsprogramme. Die bekanntesten "Anwendungsprogramme" von Microsoft sind Die Büro-Programme Microsoft Word, Excel, Access, Outlook, PowerPoint und Publisher werden zusammen als sogenanntes "Office-Paket" verkauft. Die neueste Version von Microsoft Office ist Office 2013 für Windows und Office 2016 für Mac. Microsofts "Office-Paket" wird in verschiedenen Editionen verkauft, die sich in Umfang und Preis sehr unterscheiden. Entwicklungsumgebungen, Frameworks und Compiler. Im März 2004 veröffentlichte Microsoft den Windows Installer XML als freie Software. Fernsehplattform. "Microsoft Mediaroom" (früher „Microsoft IPTV-Edition“) ist eine auf IP-Netzwerken basierende Fernsehplattform. Über Microsoft Mediaroom ausgestrahlte Fernsehsender können nur von einer Set-Top-Box mit Microsoft-Mediaroom-Betriebssystem oder Microsofts Xbox 360 empfangen werden. Mediaroom-Endgeräte unterstützen keinen Empfang über den Standard DVB-IPTV. Mediaroom wird genutzt von BT (UK), SingTel (Singapur), Telekom Entertain (Deutschland), Portugal Telecom (Portugal), Swisscom (Schweiz), AT&T (Vereinigte Staaten), Reliance (Indien) und MTS Allstream (Kanada). 2013 verkaufte Microsoft Mediaroom an das schwedische Unternehmen Ericsson. Services. Microsoft bietet weltweit IT-Consulting und Supportdienstleistungen an, um Kunden und Partnerunternehmen bei Planung, Betrieb und Optimierung ihrer IT-Infrastruktur auf Basis von Microsoft-Produkten zu unterstützen. Microsoft Services beschäftigt über 9720 Mitarbeiter in 88 Ländern und 7 regionalen Servicecentern. Die Absicherung geschäftskritischer IT-Systeme und Beratungsdienstleistungen zur Fehlervermeidung wird dabei unter dem Label "Microsoft Premier Support Services" angeboten, während Themen wie Fortschreibung oder Neubewertung einer IT-Architektur, projektspezifische Beratung und Kernelinfrastruktur unter den "Microsoft Consulting Services" angeboten werden. Spiele. Hauptartikel: Microsoft Game Studios Zu den bekanntesten von "Microsoft Games" vertriebenen Serien gehören die Halo-Reihe, Age of Empires, Minecraft (von Microsoft aufgekauft), Forza-Motorsport-Reihe und der Microsoft Flight Simulator, dessen Weiterentwicklung zunächst eingestellt wurde. 2014 wurde die Lizenz der Flugsimulator-Engine an "Dovetail Games" übergeben. Literatur. Das aktuelle Logo von Microsoft Press Unter dem Label "Microsoft Press" wird vorrangig Fachliteratur vertrieben. Mobiltechnik/-Software. Microsoft bietet Hardware und Software für mobile Anwendungen, zum Beispiel den MP3-Player Zune, das Mobilbetriebssystem Windows Phone, Windows Mobile sowie früher das relativ erfolglose Microsoft KIN. Im September 2013 kaufte Microsoft für 5,44 Mrd. Euro die Mobilfunksparte des finnischen Herstellers Nokia, mit dem bereits zuvor eine strategische Partnerschaft eingegangen wurde. Am 25. April 2014 wurde die Übernahme abgeschlossen, seit dem fungiert die Handyproduktion als Tochtergesellschaft unter dem Namen Microsoft Mobile. Anfänge. Bill Gates 2004 in Kopenhagen 1975 entwickelte der Student Bill Gates zusammen mit Paul Allen und Monte Davidoff auf einem von Paul Allen programmierten Emulator für den Prozessor Intel 8080 die Programmiersprache Altair BASIC 2.0 für den Computer Altair 8800 des Unternehmens MITS (Micro Instrumentation Telemetry Systems). Die Software war zunächst in zwei Versionen verfügbar: "Altair BASIC 4K" und "Altair BASIC 8K". Am 22. Juli 1975 schlossen Gates und Allen einen Distributionsvertrag mit dem Unternehmen MITS in Albuquerque ab. Neben einer einmaligen Zahlung in Höhe von 3000 Dollar sah der Vertrag vor, dass Gates und Allen für jedes 4K-BASIC 30 Dollar, für das 8K-BASIC 35 Dollar und für die "Extended Edition" (BASIC mit Handbuch) sogar 60 Dollar erhalten sollten, wenn ein Altair-Käufer die Software zusammen mit dem Bausatz bestellte, aus dem der Altair 8800 erst zusammengelötet werden musste. Der Name "„Micro-Soft“" entstand am 29. November 1975, als sich Gates und Allen um eine Werbekampagne Gedanken machen mussten. Als „General Licensors“ erhielten sie zusätzliche 10 Dollar für jedes BASIC oberhalb der 8K-Version, welches zusammen mit dem Rechner bestellt wurde. Kunden, die schon einen solchen Altair zusammengebaut hatten, ohne die Software gleich dazu zu erwerben, bezahlten 500 Dollar für Altair BASIC 4K oder 750 Dollar für die 8K-Version, um die überhaupt erste Software zu erwerben, die ihren Rechner funktionsfähig machte. Gates und Allen erhielten von diesem Umsatz von MITS als Lizenzgeber die Hälfte. Der Vertrag mit MITS war auf 180.000 Dollar begrenzt. Er enthielt eine Klausel, nach welcher Microsoft das Recht zugesprochen wurde, die Software an weitere Computerhersteller zu verkaufen. MITS verlangte dafür Tantiemen. Eine weitere Klausel verpflichtete das junge Unternehmen dazu, einen telefonischen Kundendienst mit einer Person einzurichten, sobald der Umsatz 2500 Dollar im Monat überstieg. Eine zweite Person wurde nötig, sobald 5000 Dollar Umsatz pro Monat erreicht wurden. Das hatte zur Folge, dass Bill Gates sein Studium nicht fortsetzen konnte. Gates und Allen schlossen untereinander einen Vertrag ab, welcher die Aufgaben im Unternehmen und die Gewinnausschüttung regelte. Monte Davidoff, der die Gleitkommafunktionen von Altair BASIC programmiert hatte, wurde mit einmalig 2400 Dollar ausgezahlt. Gates und Allen teilten sich im ersten Monat einen Verdienst von 1516 Dollar. Die Entwicklung von Altair BASIC 3.0 verlangte, wie schon bei der Version 2.0, aufgrund des kleinen Speichers des Altairs ein besonderes Programmiergeschick. Bill Gates musste zu ungewöhnlichen Methoden greifen, um den Speicherbedarf so weit wie möglich zu reduzieren. Spätere Microsoft-Mitarbeiter sollte dieser Gates-Code noch oft zur Verzweiflung treiben, wenn sie ihn zu Wartungszwecken zu überarbeiten hatten. Gleichzeitig waren diese Programmiermethoden aber auch hilfreich, um anderen Softwareherstellern die illegale Verwendung von Programmteilen von Microsoft nachzuweisen, denn Gates war der einzige, der den Code erklären konnte. Die Entwicklungskosten für Altair BASIC beliefen sich auf 40.000 Dollar. Die größten Kosten verursachte hierbei die eingekaufte Rechenzeit auf den Großrechnern eines Rechenzentrums, in welchem Allen zunächst einen Emulator für den Intel 8080 entwickelte, um das BASIC überhaupt in Angriff nehmen zu können. Um Kosten zu sparen entwarf Gates große Teile des BASIC zunächst mit Bleistift auf einem Notizblock. In Anbetracht dieser Kosten ist die Verärgerung von Bill Gates kaum verwunderlich, als bereits vor dem offiziellen Erscheinen von "Altair BASIC" 50 Kopien einer Beta-Version in Umlauf gelangten. Microsoft entwickelte aus Altair BASIC einen eigenen BASIC-Interpreter namens "Microsoft BASIC", der durch seine Implementierungen auf den verschiedenen damaligen Homecomputern rasch bekannt wurde. Andere Hersteller lizenzierten den Code des Microsoft BASIC und entwickelten ihn selbständig weiter (z. B. Apple und Commodore), oder sie entwickelten Alternativen mit einer zu Microsoft BASIC weitgehend kompatiblen Syntax (z. B. Atari); beide Strategien trugen so zu einer weiteren Verbreitung dieser Sprache bei. Die Verbreitung von BASIC war so groß, dass praktisch jedem damals verkauftem Computersystem ein BASIC zur Verfügung stand. Neben dem BASIC-Interpreter entwickelte Microsoft in diesen Jahren auch Compiler u. a. für BASIC, Fortran und COBOL. Diese basierten zunächst noch auf dem M-Betriebssystem. Später versuchte Microsoft in Zusammenarbeit mit anderen Unternehmen, einen Homecomputer-Standard namens MSX einzuführen, der sich gegen die Vielzahl von untereinander inkompatiblen Homecomputern durchsetzen sollte. Er war vorübergehend insbesondere in Europa und Japan erfolgreich. Die folgende Entwicklung setzte jedoch der Ära der Homecomputer ebenso ein Ende wie dem MSX. Darüber hinaus bot Microsoft 1980 mit Xenix auch ein Unix-artiges Betriebssystem an. Aufgrund des für die damalige Zeit großen Ressourcenhungers dieses Systems stellte Microsoft die Weiterentwicklung ein und verkaufte es 1987 an SCO. Die Geschäfte mit BASIC und den anderen Programmiersprachen liefen in den Jahren 1979–1980 nicht besonders gut. Um einen zusätzlichen Kundenkreis zu erschließen, hatte Microsoft sogar die „Microsoft Softcard“ produziert, eine Erweiterungskarte mit einem Z80-Prozessor für den sehr erfolgreichen Apple-II-Computer, welche es dem Apple-Computer ermöglichte, die für M geschriebene Software von Microsoft laufen zu lassen. Die Karte wurde jedoch schnell ein wichtiger eigenständiger Umsatzbringer für das junge Unternehmen und übertraf die Programmiersprachen an Bedeutung, da viele Käufer mit dem Kauf vor allem die Möglichkeit suchten, die erfolgreichen CP/M-basierten Büroprogramme anderer Unternehmen zu nutzen, wie beispielsweise Wordstar. Hier zeichnete sich bereits ab, dass der Markt für fertige Anwendungsprogramme den für Programmiersprachen im Umsatzpotenzial auf längere Sicht weit überstieg. Aufgrund dieser Erkenntnis begann Microsoft, den fast ausschließlichen Fokus auf Programmiersprachen aufzugeben. Entwicklung von MS-DOS für IBM. Der kometenhafte Aufstieg von Microsoft begann erst durch eine Kooperation mit IBM. IBM benötigte 1980 aufgrund ihres verspäteten Einstiegs in das Homecomputer-Geschäft mit ihrem IBM-PC möglichst rasch ein Betriebssystem und wandte sich an Bill Gates’ Unternehmen. Microsoft hatte jedoch kein eigenes Betriebssystem, und Gates schickte die Unterhändler von IBM daher zu Digital Research, welche CP/M entwickelte und vertrieb. Doch Gary Kildall, der Chef und Gründer von Digital Research, war nicht anwesend. IBM unterhielt sich daher mit Kildalls Ehefrau Dorothy. IBM legte ihr lediglich eine Geheimhaltungserklärung über die Kaufabsichten von IBM zur Unterschrift vor, um die Verhandlungen zu vertagen, doch Dorothy Kildall zögerte und wollte nichts unterschreiben, bevor ihr Mann nicht zurück sei. Nachdem die Unterhändler von IBM drei Stunden vergeblich gewartet hatten, verließen sie schließlich Kildalls Büro wieder. Bill Gates Mutter Mary hatte über die Wohltätigkeitsorganisation „United Way“, in welchem sie im Vorstand war, Kontakte zu John Opel, dem Präsidenten von IBM. Über diese Verbindung bereitete sie für ihren Sohn den Weg zu „Big Blue“. Zunächst wollte Bill Gates von einem Geschäft mit IBM absehen, doch nach einer Besprechung mit Allen wandte Microsoft sich schließlich an IBM und schloss einen Vertrag mit über 186.000 Dollar für ein Betriebssystem ab, das den Grundstein des Erfolges von Microsoft legte und dessen historische Bedeutung wohl keiner der damals Beteiligten ahnte. Microsoft kaufte zwei Tage später für 50.000 Dollar von dem Unternehmen Seattle Computer Products das Betriebssystem 86-DOS, eine CP/M-Variante, die während der Entwicklung zunächst noch als "QDOS" ("„quick and dirty operating s'"ystem“") bezeichnet wurde. Den Programmierer Tim Paterson kaufte man gleich mit ein und verpflichtete ihn für Microsoft. QDOS war im Grunde eine Imitation von CP/M und hatte einige Funktionen direkt daraus entnommen. Paterson, Gates und Allen führten unter dem Codename „Project Chess“ allerhand Modifikationen an der Software durch, die dann unter der Bezeichnung MS-DOS an IBM ausgeliefert wurde. Die Änderungen im Betriebssystem sahen vor, dass CP/M Programme unter MS-DOS ausführbar waren, MS-DOS Programme allerdings nicht unter CP/M liefen. Erst nach der Markteinführung entdeckte man bei IBM, dass man eine CP/M-Variante erworben hatte, und zahlte 800.000 Dollar an Digital Research für einen Verzicht auf rechtliche Schritte gegen IBM. Obwohl die Qualität von MS-DOS deutlich hinter dem Stand der Technik zurückblieb – selbst in Intel-internen Dossiers erntete es nur ein vernichtendes Urteil – wurde der PC, der im Herbst 1981 für knapp 3000 Dollar auf den Markt kam, ein großer Erfolg. Ursache war eine offene Lizenzpolitik von IBM, die auch Fremdherstellern die Produktion des PC gestattete, so dass durch Konkurrenz die Preise fielen, sowie das Bedürfnis der Kunden nach der Etablierung eines Standards, den man am ehesten bei IBM, dem damaligen Marktführer bei Großrechnern, erwartete. Zum Erfolg vom MS-DOS trug auch eine partielle Quellcode-Abwärtskompatibilität zu CP/M bei, die es ermöglichte, gängige Software wie WordStar, dBase II oder auch das BASIC von Microsoft nach wenigen Modifikationen und einer Neuassemblierung auch unter MS-DOS zur Verfügung zu stellen. Dieses Prinzip der kleinen Schritte unter Wahrung der Abwärtskompatibilität wurde aber auch oft kritisiert, weil die technischen Möglichkeiten der Hardware nicht voll genutzt wurden und damit der Fortschritt verzögert wurde. Wegen einer schweren Erkrankung verließ Paul Allen 1983 Microsoft, blieb aber neben Gates Hauptaktionär. Das schnell wachsende Unternehmen verfügte über immer mehr liquide Mittel. Trotzdem wurden zum Beispiel Weihnachtsgratifikationen an Mitarbeiter in Form von Aktienanteilen ausgegeben. Viele dieser Mitarbeiter waren aufgrund dieser Anteile im Wert von ein paar hundert Dollar innerhalb von wenigen Jahren Millionäre. Grafische Benutzeroberfläche. Obwohl der Hauptkonkurrent Apple 1983 mit der Apple Lisa, einem Vorläufer des Macintosh, eine grafische Benutzeroberfläche einführte, welche den Anwendern die Eingabe von Kommandos über die Tastatur ersparte, dominierte der PC schlussendlich den Markt. Eine Klage von Apple wegen Urheberrechtsverletzung durch die grafische Oberfläche wurde nach einem mehrjährigen Prozess 1995 abschlägig beschieden. Auch gegen das im selben Jahr erschienene Windows 95 reichte Apple eine Klage ein. Apple war zu dieser Zeit als Unternehmen bereits in erheblicher Bedrängnis. Es kam daher zu einem Vergleich, bei dem Microsoft durch den Erwerb von stimmrechtlosen Aktien Apples und einer Zahlung in unbekannter Höhe den Konkurs von Apple abwandte und dieses im Gegenzug seine Klage zurückzog. Obwohl die Fenstertechnik bereits 1984 mit der Bezeichnung X Window System unter Unix-Systemen eingeführt worden war, gelang es Microsoft, die Bezeichnung „Windows“ als Handelsnamen zu sichern, wenn auch erst nach einem Prozess gegen das "US Patent and Trademark Office". Anfang bis Mitte der 1990er Jahre brachte Microsoft vermehrt Unterhaltungs-, Wissens-, und Kindersoftware der Produktlinie Microsoft Home heraus und versuchte damit, mehr Privatkunden anzuziehen. Problematisches Vorgehen gegen Digital Research. Microsoft hatte nun eine Marktposition erreicht, aus der heraus eine Politik der Verdrängung der Konkurrenz in den Bereich des Möglichen geriet und auch betrieben wurde. Dabei bewegte man sich nicht immer im Rahmen der Legalität. So ergab die Offenlegung des internen Schriftwechsels im Rahmen eines Kartellverfahrens, dass 1991 mit Billigung der Unternehmensleitung eine Version von Windows 3.1 in Umlauf gebracht worden war, die eine vorgetäuschte Fehlermeldung anzeigte, wenn Windows 3.1 auf DR-DOS, dem Betriebssystem des Konkurrenten Digital Research anstelle von MS-DOS installiert wurde. Da Digital Research aufgrund seiner Abhängigkeiten von Microsoft auf eine Klage verzichtete, kaufte der Novell-Gründer Ray Noorda für 400.000 Dollar die Rechte an DR-DOS auf und reichte die Klage ein. Drei Wochen vor Prozessbeginn im Januar 2000 verglich er sich mit Microsoft gegen eine Abfindung von mehr als 200 Millionen Dollar. Ob Ray Noorda von der erstrittenen Summe Digital Research etwas weitergab, ist unsicher, zumal Digital Research einige Zeit später vom Markt verschwand. Bindung anderer Unternehmen an die eigenen Produkte. Bereits im Zusammenhang mit der Einführung von Windows 3.0 hatte Microsoft Ermittlungen des Kartellamtes provoziert. Damit Programmierer von Anwendungssoftware wettbewerbsfähig bleiben können, benötigen sie rechtzeitig vor Erscheinen einer neuen Betriebssystemversion Informationen über die Spezifikation der neuen Schnittstellen. Microsoft stellte diese Informationen nur im Rahmen von Vertraulichkeitsvereinbarungen zur Verfügung, bei denen sich die Entwickler verpflichteten, drei Jahre lang keine Software für andere Betriebssysteme zu entwickeln. Ferner gewährte Microsoft den PC-Herstellern Rabatte, wenn sie bereit waren, nicht nur für jede Windows-Installation, sondern auch für mit anderen Betriebssystemen ausgerüsteten PCs Lizenzgebühren zu zahlen, so dass Microsoft auch am Umsatz der Konkurrenz verdiente. Nach mehrjährigen Ermittlungen stimmte das Kartellamt einem Vergleich zu, bei dem Microsoft lediglich zusagte, von dieser Vertragspolitik künftig Abstand zu nehmen. Kooperation mit IBM für OS/2. Altes Microsoft-Logo (1987 bis 2012) Microsoft entwickelte zusammen mit IBM das Betriebssystem 2, dessen Version 1.0 im Jahr 1987 erschien. OS/2 stellte konzeptionell und dank seiner erst 16-Bit- und später 32-Bit-Technik einen deutlichen Qualitätssprung dar und war mit Strukturen ausgestattet, die Microsoft erst Jahre später mit Windows NT wieder anbieten konnte. Vereinbart war, dass IBM die Benutzeroberfläche und Microsoft den Kernel entwickeln sollte, was bis zur Version 2.0 auch geschah. Aufgrund des gleichzeitigen Erfolges von Windows 3.0 beschloss Microsoft jedoch, die Programmierschnittstellen für den Nachfolger OS/2 Version 3.0 an Windows zu orientieren statt an OS/2 Version 2.0, und provozierte damit eine Vertrauenskrise zwischen den Vertragspartnern. Microsoft schied 1991 aus dieser Kooperation aus, und IBM musste OS/2 alleine weiterentwickeln, dessen nächste Version 1994 als "OS/2 Warp 3" erschien. Trotz der technischen Überlegenheit der 32-Bit-Generation von OS/2 sowohl in den Versionen 2.x als auch Warp 3 setzten die Anwender weiterhin auf das DOS-basierende Windows 95 und einige auch auf Windows 3.x. Neben Marketingfehlern von IBM hat wohl auch Microsofts Ankündigung des Erscheinens einer Windows-Version mit dem Codenamen „Chicago“ für Anfang 1994, die sowohl 16- als auch 32-Bit-Technik beherrschen sollte, zu dieser Entwicklung beigetragen, die viele Kunden von einem Wechsel auf OS/2 abhielt. Tatsächlich erschien dieses Windows jedoch erst im August 1995 unter der Bezeichnung Windows 95. Diese Geschäftspolitik wird auch als Ankündigung von Vaporware bezeichnet. Entwicklung von Windows NT. Microsoft setzte nach dem Ende der Zusammenarbeit mit IBM die Entwicklung seines Betriebssystems, das zunächst als Nachfolger von "2 Version 2.0" gedacht war, nach eigenen Vorstellungen fort und veröffentlichte es 1993 als Windows NT 3.1. Bewusst wählte man als Versionsnummer nicht „1.0“, stattdessen wollte man mit "3.1" die Verbindung zu "Windows (for Workgroups) 3.1" schaffen und somit gleich mit einer höheren Nummer auf den Markt kommen. Bill Gates konnte für die Entwicklung der Architektur David N. Cutler gewinnen, denjenigen Entwickler mit der bis dato wohl größten Erfahrung beim Entwickeln von Betriebssystemen. Unter anderem hatte er VMS entwickelt. So bekam auch NT ähnlich wie VMS eine 32-Bit-Kernel-Architektur, um die herum ein 16-Bit-Teilsystem zur Kompatibilität zu "Windows 3.11" geschaffen wurde, und als Hauptschnittstelle ein 32-Bit-Subsystem für die Schnittstelle Win32s (Windows 3.1 und Windows for Workgroups). Für Unix-Software wurde das POSIX-Subsystem eingeführt. Alle Subsysteme waren von David Cutler so konzipiert, dass keines das jeweils andere zum Absturz bringen konnte, da sie in geschützten (getrennten) Speichersystemen (engl.: "Protected Mode") liefen. Der Kernel verteilte als echtes präemptives System die CPU-Zeit im Zeitscheibenverfahren an die jeweiligen Subsysteme. Es brachte als Multitasking- und Multiusersystem zwar eine bis dahin bei PCs nicht bekannte Komplexität mit, belohnte den Anwender aber mit bis dato im Heim-Bereich unbekannter Stabilität und Möglichkeiten. Für die Architektur der Speicherverwaltung konnte Rick Rashid gewonnen werden, der unter anderem den UNIX MACH-Kernel mit entwickelt hatte. Zwischen der Hardwareebene und den Subsystemen wurde die HAL eingeführt. "HAL" war zum einen eine neutrale Zwischenschicht zu verschiedenen Hardwareplattformen, da anfangs auch MIPS- und PowerPC-Prozessoren ebenfalls neben den Intel-Prozessoren unterstützt wurden. Zum anderen war die Wahl des Namens "HAL" auch ein Tribut an den (angeblich unfehlbaren) Supercomputer "HAL Serie-9000" aus dem Sciencefiction-Klassiker '. Zur Installation benötigte man noch 21 Disketten oder drei Bootdisketten plus eine CD-ROM. Konsequent wurden mit "NT" sogenannte "alte Zöpfe" abgeschnitten, also Kompatibilität nach unten beendet, was zu einem Aufschrei bei vielen Anwendern führte. Auch die (damals) hohen Hardwareanforderungen waren ein Kritikpunkt. Auf "DOS-Kompatibilität" wurde insoweit verzichtet, als DOS nicht mehr wie bis dahin als Grundlage diente, sondern es war als 16-Bit-Teilsystem nun unter der Kontrolle des Microkernel. Es konnte nicht mehr wie früher direkt, also "hardwarenah" programmiert werden, weshalb NT lange Zeit in manchen Spezialgebieten nicht verwendbar war. NT basierte technisch also weder auf "MS-DOS" noch auf "OS/2", stellte aber zunächst noch deren Programmierschnittstellen zusätzlich zur Verfügung. Während NT 3.1 noch sehr träge wirkte, konnte mit seinem Nachfolger NT 3.51 dieser Punkt ausgemerzt werden: Es war schnell und extrem stabil. Die grafische Oberfläche war als weiteres Subsystem unter der Kontrolle des Microkernels und konnte somit den PC nicht zum Absturz bringen. Ein blockierter Grafiktreiber konnte "remote," d. h. von einem anderen PC wieder neu gestartet werden. Die gesamte Architektur und viele Dienste der Serverversion waren in der Workstation-Version schon enthalten. Kleine Peer-to-Peer-Netzwerke konnten so einfach und sicher aufgebaut werden. In der Philosophie von Microsoft sollte NT als „Entwicklungsplattform“ dienen, und das preiswertere Windows 95 sollte die „Endkunden“-Plattform werden. Dazu wurde für NT 3.51 eine nachträglich ladbare grafische Benutzeroberfläche angeboten. Diese war dann der Ausblick auf NT 4.0. Die CAD-Kunden misstrauten jedoch dieser Konstellation und wählten dann das wesentlich teurere NT als Plattform, mit der Begründung, dass erfahrungsgemäß die Software am stabilsten auf der Plattform laufe, auf der sie auch entwickelt und debugged, also fehlerfrei gemacht wurde. Um für den CAD-Markt eine ernst zu nehmende Größe zu werden, implementierte Microsoft OpenGL, angelehnt an die von Silicon Graphics geschaffene 3D-Schnittstelle IRIX GL. Mit Fortschritten der Hardware konnte man an NT 4.0 mittels bootfähiger CDs die drei Bootdisketten überspringen und direkt mit einer CD booten, was die Installation deutlich vereinfachte. Microsoft versuchte in der Folge, Windows NT im Markt gegen Unix und OS/2 zu platzieren, was auch in vielen Bereichen durchaus sehr erfolgreich gelang. Insbesondere der Markt der Workstations und Server sollte IBM mit seinem damaligen AIX-Unix abgerungen werden. Als Ende 1999 NT 5.0 in die Beta-Phase ging, entschloss sich die Marketing-Abteilung von Microsoft kurzfristig zur Umbenennung auf den Namen "Windows 2000". Dies führte aber zu einer Verunsicherung und der Markt blieb relativ lange auf "NT 4.0" stehen. Windows 2000 wurde in zwei Versionen angeboten: für die Workstation die "Windows 2000 Professional" und für den Server die "Windows 2000 Server". Mit "Windows XP" (intern: NT 5.1) wiederholte dann Microsoft 2001 diesen Marketing-Trick erneut. Auch hier war besonders in der Geschäftskundschaft lange eine gewisse Zurückhaltung zu spüren: Man war skeptisch gegenüber dem „neuen“ Produkt, da anhand der Namensgebung von Laien die Abstammung und Kontinuität zu NT 4.0 nicht sofort und augenfällig erkannt werden konnte. Unter "Windows NT 4.0" wurde die Unterstützung von "OS/2", 16-Bit-, textbasierten Programmen beibehalten. Unter "Windows XP" (also: NT 5.1) wurden "POSIX" und "OS/2" gar nicht mehr angeboten, zumal diese beiden Subsystem auch die XP-Sicherheitssysteme nicht nutzen konnten. Ebenso wurde die Unterstützung von "MIPS"- und "PowerPC"-Prozessoren eingestellt. Auch wurde auf Initiative von Bill Gates das getrennte grafische Subsystem von NT 3.51 herausgenommen und eine Ebene tiefer und somit näher am Kernel (und damit näher der CPU) positioniert. Das brachte mit Blick auf die Entwicklung von Computerspielen zwar mehr Geschwindigkeit, aber andererseits auch die Gefahr von Stabilitätsverlust. Ein instabiler Grafiktreiber konnte nun das System abstürzen lassen. Um dies zu verhindern, führte Microsoft eine Zertifizierung der Treibersoftware ein. Treiber, die den Microsoft-Standards entsprachen, bekamen somit den Status "WHQL-getestet." Ende 2001 erschien mit "Windows XP" (intern: NT 5.1) in den Varianten "XP Home" (für Privatanwender) und "XP Professional" (für Geschäftsanwender). "XP Home" unterschied sich von "Windows XP Professional" in erster Linie durch ein abgespecktes Rechtemanagement und eingeschränkten Netzwerkdiensten. Der Vertrieb von Windows XP wurde ab 2008 stufenweise eingestellt. Im April 2014 wurde schließlich auch der technische Support beendet. Neue PCs und Laptops wurden nur noch mit Windows Vista verkauft. Nur noch Nischenprodukte mit geringen Hardwareanforderungen werden noch (Stand: Juli 2008) mit Windows XP (Mediacenter) angeboten. Während bis "Windows 2000" (NT 5.0) Server und Client die gleiche Versionsnummer trugen, wählten die Microsoft-Strategen ab "Windows XP" beim Server einen neuen Namen: "Windows 2003 Server" (NT 5.2). Mit der Einführung von "Windows Vista" (NT 6.0) wurde der dazu passende Server "Windows Server 2008" genannt. Der Nachfolger von "Windows Vista" wurde aus Marketinggründen "Windows 7" getauft, trägt intern aber die Versionsnummer 6.1. Bei der Server-Variante von NT 6.1 wird die starke Verwandtschaft zu NT 6.0 auch im Marketingnamen deutlich: Windows Server 2008 R2. Marktstrategische Verzögerung der Innovationen von Intel. Da Windows mit den Audio- und Video-Fähigkeiten der x86-Prozessoren des PC nicht Schritt gehalten hatte, plante Intel kurz vor der Markteinführung von Windows 95, anderen Hard- und Softwareherstellern dazu eigene Treiberschnittstellen und sogenannte "APIs" anzubieten, um so in das sich bereits ankündigende Multimedia-Geschäft einzusteigen. Da diese Software auch für andere Betriebssysteme bereitgestellt werden sollte und auch das von Microsoft bereits abgeschriebene Windows 3.1 aufwerten würde, drohte Microsoft Mitte 1995 in Verhandlungen mit Intel, die Unterstützung der Intel-Plattform nur dann fortzusetzen, wenn diese Entwicklungen eingestellt würden. Intel lenkte ein. Selbst das Jahre später entwickelte Windows 98 war noch nicht mit allen Fähigkeiten ausgestattet, die Intel 1995 hatte bereitstellen wollen. Beginn des „Browser-Krieges“. Microsoft hatte zunächst das Potenzial des aufkommenden Internets unterschätzt, so dass es Netscape gelang, mit ihrem Browser auf diesem Marktsegment Fuß zu fassen. Microsoft zog mit dem unter Zeitdruck entwickelten Internet Explorer (IE) nach, und erst mit Windows 95 entwickelte man das Portal MSN, das „Microsoft Network“, als direkte Antwort auf AOL und CompuServe, welche sich bis dahin den öffentlichen Online-Markt aufteilten. Microsoft versuchte, dem Internet Explorer durch eine Strategie der Produktbündelung mit dem Betriebssystem zum Durchbruch zu verhelfen, was von Kritikern als wettbewerbswidrig angesehen wurde. Ferner setzte Microsoft das Unternehmen Compaq durch Kündigung der Vertriebslizenz für Windows 95 erfolgreich unter Druck, da sie ihre PCs zunächst mit Netscape anstelle des IE ausgeliefert hatte. Es begann der sogenannte "Browserkrieg". Das US-Justizministerium ("Department of Justice") sah in der Produktbündelung und diesem Vorgehen einen Verstoß gegen den zuvor geschlossenen Vergleich. Microsoft konnte jedoch die entsprechende Klage 1998 nach drei Jahren in der Berufung zunächst abwehren. In der Europäischen Union musste aber ab Windows 7 ein Programm installiert sein, das die Auswahl eines alternativen Browsers ermöglichte, seit dem 18. Dezember 2014 ist das nicht mehr nötig. Dieses wurde automatisch angezeigt, wenn Windows das erste Mal ausgeführt wurde. Unterlaufen von Softwarestandards. 1996 erwarb Microsoft eine Lizenz für Java, einer plattformunabhängigen Programmiersprache des Unternehmens Sun Microsystems, und entwickelte dafür unter dem Namen Visual J++ eine eigene Entwicklungsumgebung und eine eigene Java-Implementierung. Dabei entstand jedoch eine proprietäre Java-Variante, die partiell direkt auf Windows zugriff anstatt über die betriebssystemunabhängige Java Virtual Machine, wie es das Java-Konzept vorgesehen hatte. Auf diese Weise produzierten viele Entwickler von Anwendungssoftware Produkte, die nur unter Windows lauffähig waren. Nach einer rechtlichen Auseinandersetzung mit Sun im Jahr 2003 unterstützte Microsoft bis 2007 die MSJVM (Microsoft Java Virtual Machine) nur noch sporadisch in Form von Sicherheitsupdates. Entsprechend wird heute fast überall wieder Suns Java verwendet, die meisten professionellen Applets sind heute damit kompatibel. Diese Politik der Übernahme von Softwarestandards und anschließender Modifikation verfolgte Microsoft in weiteren zahlreichen Fällen. Betroffen sind der WWW-Standard HTML für Internetseiten und CSS. Die meisten Web-Designer orientierten sich jahrelang an der speziellen Darstellungsweise des Internet Explorers mit der Folge, dass viele Internetseiten von den Browsern der Konkurrenz, die sich an den offiziellen Standards orientierten, nicht korrekt dargestellt wurden. Betroffen sind ferner die Zeichensatznorm ISO-8859-1, JScript, ECMAScript und DOM, die TCPA-Norm sowie verschiedene Netzwerkprotokolle. Ebenso wurde als Konkurrenz zum MP3-Format das eigene WMA-Format entwickelt, um MP3 zu bekämpfen. Auch bei den E-Mail-Produkten von Microsoft wird mit eigenen Erweiterungen und kleinen Abweichungen von internationalen Standards gearbeitet. Antitrust-Klage und drohende Spaltung. Aufgrund dieser Entwicklungen reichten das Justizministerium und 19 Bundesstaaten im Mai 1998 eine Antitrust-Klage gegen Microsoft ein, deren Kern der Browser-Krieg und der Umgang mit Java war. Für Netscape, das seinen Navigator zu einer betriebssystemunabhängigen Basis für eine eigene Office-Variante ausbauen wollte, kam das Kartellverfahren jedoch zu spät. Es wurde im Oktober 1998 von AOL übernommen. Anhand eines Memos von 1996 aus dem beschlagnahmten internen Schriftverkehr gelang der Nachweis, dass Microsoft im Falle Java den Anteil inkompatibler Komponenten gezielt stillschweigend erhöht hatte, damit die Entwickler nicht bemerkten, dass sie windowsgebundene Java-Applikationen schrieben. Als aufgrund von Kartellprozessen und Bemühungen des Justizministerium der Vereinigten Staaten in den späten 1990er Jahren eine Aufspaltung Microsofts in „Baby-Bills“ diskutiert wurde, wurde auch eine Aufteilung des Konzerns in ein Internet-Unternehmen, 3 Betriebssystem-Unternehmen sowie ein Anwendungsunternehmen mit Office und Internet-Explorer-Angebot vorgeschlagen. Die Dreiteilung der Betriebssystem-Sparte wurde neben zwei anderen angesehenen US-Ökonomen auch von William D. Nordhaus, Professor in Yale, sowie Frederic Michael Scherer, seit 2006 emeritierter Professor in Harvard und früher Direktor bei der Federal Trade Commission, unterstützt. Das Urteil in erster Instanz vom Juni 2000 forderte eine Aufteilung Microsofts in zwei separate Unternehmen für Betriebssysteme und Anwendungssoftware. Nachdem George W. Bush, dessen Wahlkampfagentur Century Strategies eng mit Microsoft verknüpft war, 2001 die US-amerikanische Präsidentschaft gewonnen hatte, wurde Charles James zum neuen Leiter des Kartellamtes ernannt. James hatte bereits vor Amtseintritt für die Erhaltung Microsofts als Einheit plädiert und in der Berufungsverhandlung wurden die Kartellrechtsverletzungen und illegalen Geschäftspraktiken zwar bestätigt, das Urteil hinsichtlich der Aufteilung von Microsoft jedoch aufgehoben. Microsoft setzte auch in der Folge die Politik der Produktbündelung fort, wie im Fall des in Windows XP integrierten Media-Players. Neues Betriebssystem und Führungswechsel. Am 22. Juli 2004 hat Microsoft bekanntgegeben, dass es nach der nun erfolgten Beilegung von wesentlichen Rechtsstreitigkeiten beabsichtige, die hohen Barreserven, die aufgrund der Rechtsunsicherheit akkumuliert worden waren, aufzulösen. Im Dezember 2004 zahlte Microsoft eine Sonderdividende in Höhe von 3,00 US-Dollar je Anteilsschein. Die Gesamtausschüttungssumme belief sich inklusive der Quartalsdividende auf 34,4 Milliarden US-Dollar und stellt damit die höchste jemals von einem Unternehmen gezahlte Dividende überhaupt dar. Als Folge von Antitrust-Verfahren einigte sich Microsoft mit der EU-Kommission dahingehend, in Europa künftig eine Windows-Version ohne integrierten Mediaplayer anzubieten. Windows XP Edition N wurde im Juli 2005 als erste Generation dieser N-Versionen auf den Markt gebracht. Es folgten weitere N-Editionen von Windows Vista, 7, 8, 8.1 und 10. Im Oktober 2005 stellt Microsoft fünf „freie“ Software-Lizenzen im Rahmen des Shared-Source-Programms vor. Zwei von ihnen, die "Microsoft Permissive License" (Ms-PL) und die "Microsoft Community License" (Ms-CL), erfüllen laut Aussage der Free Software Foundation Europe die Kriterien für freie Software-Lizenzen. Nachdem diese zwei Lizenzen in Microsoft Public License und Microsoft Reciprocal License umbenannt wurden, sind sie am 12. Oktober 2007 von der Open Source Initiative anerkannt worden. Außerdem veröffentlichte Microsoft sogenannte Express-Versionen von einigen Visual-Studio-Anwendungen (C#, C++, Basic, Web Developer). Ursprünglich sollten diese Versionen nur für ein Jahr kostenlos von Microsoft heruntergeladen werden können. Allerdings beschloss Microsoft wegen der großen "Community", dass sie dauerhaft kostenlos bleiben sollen. Sie müssen zwar nach 30 Tagen registriert werden, können aber unbegrenzt kostenlos genutzt werden. Neben ein paar kleinen Einschränkungen sind diese fast Vollversionen. „Kleine Einschränkungen“ bedeutet z. B. konkret, dass sich mit Visual C++ zunächst keine grafischen Windows-Programme schreiben lassen; dies ist erst nach Herunterladen eines größeren, aber kostenlosen, Zusatzpakets (des SDK von Microsoft) möglich. Dann können zwar noch immer keine MFC-Programme entwickelt werden, allerdings sind Programme mit grafischer Benutzeroberfläche auch ohne die Verwendung des.net-Frameworks möglich. Am 15. Juni 2006 kündigte Gates an, sich bis zum Juli 2008 aus dem Tagesgeschäft von Microsoft zurückzuziehen und den Posten als Chief Software Architect dem bisherigen Technikchef Ray Ozzie zu überlassen. Im Mai 2007 übernahm Microsoft das Online-Werbe-Unternehmen aQuantive für rund sechs Milliarden US-Dollar und erwarb im Oktober desselben Jahres für 240 Millionen US-Dollar einen Minderheitsanteil am sozialen Online-Netzwerk Facebook, womit gleichzeitig eine exklusive Abmachung für die internationale Werbevermarktung von Facebook durch Microsoft verbunden war. Anfang 2008 drangen Informationen über ein von Microsoft entwickeltes System zum Erfassen der Körperfunktionen von Benutzern an die Öffentlichkeit (US-Patentantrag 20070300174), das Kritik von Datenschützern auf sich zog. Nachdem Microsoft bereits im Mai 2007 erfolglos versucht hatte, das Internetunternehmen Yahoo zu übernehmen, startete der Softwareriese im Februar 2008 einen neuen Versuch und bot 44,6 Milliarden US-Dollar. Auch dieses Angebot lehnte Yahoo ab, worauf Microsoft Anfang April 2008 eine dreiwöchige Frist zur Einigung stellte. Diese Frist lief am 27. April 2008 ab, wobei Microsoft darauf nicht mit der angedrohten feindlichen Übernahme des Yahoo-Konzerns reagierte. Erstmals seit dem Börsengang schloss Microsoft das Geschäftsjahr 2008/2009 mit einem Rückgang bei Umsatz und Gewinn ab. Bis Juli 2009 hat der Software-Konzern weltweit 5000 Stellen wegen der Wirtschaftskrise und der anhaltenden Flaute am PC-Markt abgebaut. Kinect, ein nach Körperbedienung funktionierendes Stereurungssystems für die Spielekonsole Xbox 360, wurde zusammen mit der Firma PrimeSense entwickelt und im November 2010 veröffentlicht. Nach fallendem Marktanteil des veralteten Windows Mobile-Betriebssystems, führte Microsoft 2010 Windows Phone ein und startete eine Kooperation mit Nokia für zukünftige Mobilkommunikationsprodukte. Die Veröffentlichung des neuen Betriebssystems brachte einige Änderungen des Unternehmenslogos sowie der angebotenen Produkte und Dienste mit sich. Am 23. März 2011 trat Microsoft mit 23 anderen Unternehmen neben unter anderen Deutsche Telekom, Google und Yahoo! der "Open Networking Foundation" bei, einer Non-Profit-Organisation zur Durchsetzung einer neuen Cloud-Computing-Initiative, welche Innovationen in jenem Bereich anhand kleiner Updates z. B. für private Netzwerke beschleunigen soll. Die Vorstellung von Windows 8 erfolgte im Juni 2011 in Taipeh. Der Webmail-Service Outlook.com von Microsoft startete am 31. Juli 2012. Der erste PC mit Hardware von Microsoft, das Microsoft Surface wurde am 18. Juni 2012 von CEO Steve Ballmer vorgestellt. Microsoft Surface RT, als erste Version, besitzt ein Nvidia Tegra-3-Prozessor, einen 32/64 GB Flash-Speicher sowie eine integrierte 1 Megapixel-Kamera. Sie wurde in Deutschland am 26. Oktober 2012, zusammen mit Windows 8 veröffentlicht. Am 29. Oktober 2012 erschien Microsoft Windows Phone 8 mit der neuen Unterstützung von Mehrkernprozessoren und microSD-Karten sowie der Integration des Internet Explorer 10. Seit 2013 gehört Microsoft zu den ersten Hauptmitgliedern der FIDO-Allianz, die den Industriestandard Universal Second Factor (U2F) für eine allgemein anwendbare Zwei-Faktor-Authentifizierung entwickelt hat. Das Kinect-Empfangsgerät wurde für die neue Microsoft-Konsole Xbox One aufgerüstet und die Neuerungen im Mai 2013 präsentiert. Ausgestattet ist das neue Kinect mit einer HD-Kamera, einem leistungsfähigeren Prozessor, einer Feinerkennung von Bewegungen und einem Herzfrequenzmesser. Die Xbox One ist ausgestattet mit einem BluRay-Laufwerk, 8 GB Arbeitsspeicher sowie einer 500-GB-Festplatte. Auf der E3-Messe 2013 in Los Angeles präsentierte Microsoft Spiele wie, Battlefield 4 und, welche alle für die Xbox One angeboten wurden. Im März 2013 wurde der "Patent Tracker", ein Tool zum Suchen von Patenten in der Microsoft-Datenbank, auf den Markt gebracht. Am 19. Juli 2013 erlebte die Microsoft-Aktie den größten Absturz seit Börsengang im Jahr 2000 und verzeichnete einen Verlust von umgerechnet etwa 24 Milliarden Euro. Am 3. September 2013 übernahm Microsoft die Mobilfunksparte der Firma Nokia. Nachdem Steve Ballmer seinen Rücktritt als CEO bereits im August 2013 bekanntgab, trat Satya Nadella, zuvor im Cloud-Computing-Segment des Unternehmens beschäftigt, im Februar 2014 die Nachfolge an. Ebenso trat Bill Gates als Chairman zurück, um sich auf seine Position als technischer Berater des Unternehmens zu konzentrieren; sein Nachfolger ist John W. Thompson. Deutschland. Die Microsoft Deutschland GmbH wurde 1983 gegründet, ihr Unternehmenssitz ist die Stadt Unterschleißheim bei München. Regionalbüros befinden sich in Aachen ("European Microsoft Innovation Center") von 2003 bis 2013, Bad Homburg vor der Höhe, Berlin, Böblingen, Hamburg, Köln und Walldorf. Das Unternehmen beschäftigt in Deutschland über 2700 Mitarbeiter. Seit Mitte September 2012 bis zum Frühjahr leitete Christian P. Illek den Vorsitz der Geschäftsführung (zuvor hatte die Position Ralph Haupter für 2 Jahre und Achim Berg für drei Jahre inne). Ab 2016 wird Sabine Bendiek die Leitung in Unterschleißheim übernehmen. Seitdem Haupter im April 2012 als CEO die Verantwortung für Microsoft in Großchina übernahm, führt Jane Gilson bei Microsoft Deutschland die Geschäfte interimsmäßig weiter. 2013 beschloss Microsoft, sich auf die drei Hauptstandorte München, Köln und Berlin zu konzentrieren und Böblingen, Bad Homburg und Hamburg aufzulösen. Am 8. November 2013 gab das Unternehmen bekannt, im Sommer 2016 den Firmensitz von Unterschleißheim nach Schwabing im Norden Münchens zu verlegen. An der Walter-Gropius-Straße soll ein 26.000 Quadratmeter großer, moderner Bürokomplex entstehen. Schweiz. In der Schweiz ist Microsoft seit 1989 präsent und beschäftigt als Microsoft Schweiz GmbH in Wallisellen, Bern, Basel und Genf über 539 Mitarbeiter. Österreich. Microsoft Österreich GmbH wurde 1991 gegründet und hat seinen Sitz in Wien. Das Unternehmen beschäftigt 350 Mitarbeiter. Kritik. Wie viele amerikanische Großkonzerne, die hauptgeschäftlich geistige Eigentumswerte vertreiben, führt Microsoft kaum Steuern ab. Hierfür wird auf umstrittene Umbuchungstricks wie Double Irish With a Dutch Sandwich zurückgegriffen. Monopolisierung. Die marktbeherrschende Stellung bei PC-Betriebssystemen wird von Kritikern maßgeblich dem Talent von Gründer Bill Gates zur Eroberung von Märkten zugerechnet. Die Qualität der Microsoft-Produkte in der Fachwelt wird viel und heftig diskutiert. Kritiker brandmarkten teilweise die Herkunft und Verbreitungspolitik der erfolgsentscheidenden ersten Microsoft-Produkte als unethisch (Billigkauf und Vermarktung einer ausdrücklich als Wegwerfsystem konzipierten Software). Zudem wurde Bill Gates vorgeworfen, die Allgemeinheit an die zweifelhafte „Wahrheit“ gewöhnt zu haben, dass Fehler in Software und plötzliche Ausfälle von Computern im laufenden Betrieb, sogenannte Abstürze, als normal hinzunehmen seien. Infolge einer geschickten Marketing- und Einflussnahmepolitik Microsofts wird heute fast jeder neue PC mit einem vorinstallierten Windows-System ausgeliefert. Weiterhin wird das Unterlaufen von Softwarestandards und das Ausnutzen der monopolartigen Marktstellung von Microsoft kritisiert. Rabatte für ausschließlichen Windows-Vertrieb. Microsoft bietet großen Herstellern außergewöhnlich günstige Konditionen für OEM-Software an. Im Rahmen des Kartellverfahrens des US-Justizministeriums gegen Microsoft ist im Jahre 2001 bekannt geworden, dass Microsoft diese Konditionen intransparent gestaltet und in einigen Fällen mit der Verpflichtung verbunden hat, keine Desktop-Rechner ohne ein Betriebssystem von Microsoft auszuliefern. Dieses Vorgehen wurde durch die außergerichtliche Einigung im Kartellverfahren für die Zukunft untersagt. Produktbündelungen. Der hohe Marktanteil bei Betriebssystemen stellt ein Quasi-Monopol dar und erleichtert es Microsoft, neue Techniken über die Windows-Plattform schnell im Markt zu verbreiten. Dies wurde z. B. mit dem Internet Explorer erreicht, der in (aktualisierten) Windows-95-Versionen vorinstalliert war und in späteren Windows-Versionen sogar mit dem System verschmolzen wurde. Zeitweise erreichte der Internet Explorer dadurch einen Marktanteil von bis zu 85 % und stach durch seinen Wettbewerbsvorteil den damaligen Konkurrenten Netscape aus. Dieser Browserkrieg war letztlich der Auslöser des US-Kartellverfahrens gegen Microsoft im Jahre 1997. In der Europäischen Union wurde Microsoft zudem verpflichtet, das Betriebssystem auch ohne Windows Media Player anzubieten. Wettbewerbsverletzungen. Microsoft wird oft kritisiert und gemaßregelt. So hat dieselbe Europäischen Kommission seit 2004 zahlreiche Bußgelder gegen Microsoft wegen Verletzung von Wettbewerbsgesetzen verhängt. Dem Konzern wurden Auflagen in Bezug auf die Offenlegung von Schnittstellenspezifikationen und die Entkoppelung von Produkten gemacht. Die bedeutendsten Kritikpunkte an Microsoft sind Zu den ersten drei Kritikpunkten waren und sind auch derzeit immer wieder zahlreiche Gerichtsprozesse anhängig. Der Unmut über Geschäftspolitik und der in den Augen der Kritiker häufig hinter dem Stand der Technik zurückgebliebenen Qualität der Produkte hat wesentlich zur Entstehung einer Open-Source-Bewegung beigetragen, die bessere Alternativen zu proprietären Produkten wie denjenigen von Microsoft bieten will. Mit der Veröffentlichung der internen „Halloween-Dokumente“ wurde bekannt, dass Microsoft-Analysten in freier Software insbesondere Linux einen starken Konkurrenten sehen und Strategien zur Bekämpfung vorschlugen. Datenschutzverletzungen. Im Jahr 2002 erhielt Microsoft den „Lifetime-Award“ der deutschen BigBrotherAwards. Der Negativpreis wurde „vor allem für seine Verdienste bei der flächendeckenden Einführung von Kontrolltechnologie für Urheberrechte: Digital Rights Management“ verliehen. Microsoft fiel positiv auf, weil es den Preis persönlich durch ihren damaligen deutschen Konzerndatenschutzbeauftragten Sascha Hanke abholen ließ, was bis dahin kein Preisträger gewagt hatte. Außerdem geriet der Konzern in die Kritik mit Hilfe des hauseigenen Media Players Nutzerverhalten auszuspionieren. Auch SpyNet (Microsoft) und der Virenscanner Microsoft Security Essentials gerieten in die Kritik dem Sammeln von Userinformationen zu dienen. Mitarbeiterbeurteilung. Im November 2013 änderte Microsoft – nach jahrelanger Kritik – sein System der Mitarbeiterbeurteilung (bzw. Beurteilung ihrer Leistungen) grundlegend. Bisher verwendete Microsoft dazu das sogenannte Stack Ranking (in anderen Unternehmen als Forced Ranking bekannt) gemäß dem Konzept der Vitality Curve: Innerhalb eines Teams musste es einen festen Prozentsatz von Top-Leuten, Normalsterblichen und „Minderleistern“ geben – egal, wie gut das Team insgesamt und die einzelnen Mitarbeiter im Arbeitsalltag wirklich waren. Selbst, wenn ein Chef mit allen Leuten seines Teams höchst zufrieden war: Er war gezwungen, vermeintliche „Minderleister“ zu identifizieren und zu nennen; die „Normalverteilung“ müsse eingehalten werden. Rechtsstreit mit der Europäischen Union. Nachdem 1998 das Softwareunternehmen Sun Microsystems gegen den Mitbewerber Microsoft Beschwerde bei der EU-Kommission eingelegt hatte, verhängte die Europäische Kommission unter Mario Monti nach vierjährigen Ermittlungen im März 2004 ein Bußgeld in Höhe von 497 Mio. Euro. Die Kommission sowie die Beschwerdeführer European Committee for Interoperable Systems (ECIS) und die Software and Information Industry Association hatten Microsoft vorgeworfen, seine marktbeherrschende Stellung beim PC-Betriebssystem Windows auf wettbewerbswidrige Weise zur Erlangung der Marktführerschaft im Servermarkt eingesetzt zu haben. Außerdem wurde erneut eine wettbewerbswidrige Bündelung des Betriebssystems mit Anwendungssoftware festgestellt. Die EU-Kommission forderte, der Konkurrenz bisher geheim gehaltene Schnittstelleninformationen für die Kommunikation mit Windows-Serversystemen zur Verfügung zu stellen und eine Windows-Version ohne Microsofts Media-Player anzubieten. Microsoft bot in der Folge ein Windows ohne Media-Player an, allerdings zum gleichen Preis wie die Version mit Media-Player; daher fand die abgespeckte Version so gut wie keine Käufer. Am 12. Juli 2006 verhängte die EU-Kommission über Microsoft ein Bußgeld in Höhe von 280,5 Mio. Euro wegen Nichterfüllung der im März 2004 festgelegten Auflagen. Am 17. September 2007 wies ein Europäisches Gericht erster Instanz die Beschwerde von Microsoft gegen die Europäische Union zurück und erklärte die Strafzahlung in Höhe von 497 Mio. Euro für gerechtfertigt. Im Oktober 2007 sagte Microsoft zu, die wichtigsten Auflagen der Wettbewerbsbehörde zu erfüllen und verzichtet auf Berufung gegen das Urteil, der Rechtsstreit wurde damit beendet. Am 27. Februar 2008 verhängte die Kommission erneut ein Bußgeld in Höhe von 899 Mio. Euro, weil das Unternehmen die im Jahr 2004 gesetzten Auflagen, Schnittstelleninformationen für Konkurrenten offenzulegen, nicht erfüllt habe. Ende Juni 2012 bestätigte der Europäische Gerichtshof das Bußgeld, allerdings wurde die Summe auf 860 Mio. Euro herabgesetzt. Dabei handelt es sich um die höchste bis dahin von einem EU-Gericht bestätigte gegen ein Unternehmen verhängte Strafe. Damit summierten sich die bisher geleisteten Strafzahlungen auf über 1,6 Mrd. Euro. Wegen Verstoßes gegen das Kartellrecht belegte die EU am 6. März 2013 Microsoft erneut mit einer Geldbuße, diesmal in Höhe von 561 Millionen Euro. Die Kommission warf dem Konzern vor, es im Zeitraum von Mai 2011 bis Juli 2012 beim Betriebssystems Windows 7 versäumt zu haben, den Nutzern neben dem hauseigenen Internet Explorer auch Browser von Konkurrenten für das Surfen im Internet anzubieten. Auf diese Weise habe Microsoft seine marktbeherrschende Stellung ausgenutzt und Kunden zum Benutzen eigener Produkte gezwungen. Meteorologie. Meteorologie ("meteōrología" „Untersuchung der überirdischen Dinge oder Himmelskörper“) ist die Lehre der physikalischen und chemischen Vorgänge in der Atmosphäre und beinhaltet auch deren bekannteste Anwendungsgebiete – die Wettervorhersage und die Klimatologie. Über die Atmosphärenphysik, die Klimaforschung und der Verbesserung der Methoden zur Wettervorhersage hinausgehend untersucht die Meteorologie also auch chemische Prozesse (z. B. Ozon­bildung, Treibhausgase) in der Lufthülle und beobachtet atmosphärische Himmelserscheinungen. Sie wird zu den Geowissenschaften gezählt und ist an den Universitäten (siehe Meteorologiestudium) oft den Instituten für Geophysik bzw. der jeweiligen Fakultät für Physik angegliedert. Ursprünge. Wetterbeobachtung war schon für unsere als Nomaden lebenden Vorfahren von Interesse. Beobachtung und Aufzeichnung des lokalen Wetters war – und ist bis heute – für Bauern eine wichtige Grundlage für grundlegende Entscheidungen: wann sät man, wann erntet man. Wetterbeobachtung und -forschung kann auch militärischen Zwecken dienen. Beispielsweise war für Seeschlachten eine zutreffende Prognose von Windrichtung und -stärke nützlich oder sogar entscheidend. Die Entdeckung Amerikas war der Auftakt für die „Eroberung der Weltmeere“. Der zunehmende interkontinentale Schiffsverkehr brachte viele neue Erkenntnisse über Wetterphänomene. Auf den Schiffen wurde das Wetter detailliert beobachtet und im Logbuch aufgezeichnet. Frühe theoretische Ansätze lieferte Albertus Magnus: In seiner Abhandlung "De natura locorum" beschrieb er die Abhängigkeit der Eigenschaften eines Ortes von seiner geographischen Lage. Solche Ansätze wirkten weiter, sichtbar etwa in einer kurzen Darlegung der theoretischen Klimatologie durch den Wiener Astronomen Georg Tannstetter (1514). Eine erste Revolution in der Wetterkunde setzte ca. 1880/1900 ein, als die meteorologischen Dienste der Staaten ihre Wetterdaten mittels Telegraphie oder sogar drahtloser Telegraphie austauschen konnten, damit die Möglichkeit zu zeitnahem Datenvergleich hatten und somit synoptische Wetterkarten erstmals erscheinen konnten. Seit dem 20. Jahrhundert. Nach der Erfindung von Luftfahrzeugen (die erste Montgolfière flog 1783) konnte man mit Ballonen das Wetter in den unteren Luftschichten besser erforschen (siehe auch Wetterballon; Hauptartikel: Chronologie der Luftfahrt). Ab der Erfindung des Motorflugs 1909 nahm die Bedeutung der Wetterforschung zu. Flugzeuge wurden zu wichtigen Forschungsgegenständen, mit denen man Wetter (z. B. „Wolken von oben“) großräumig beobachten bzw. fotografieren und Wetterdaten messen konnte. Im Ersten Weltkrieg wurden zahlreiche Flugzeuge eingesetzt; zunächst zur Aufklärung; später auch zum Abwerfen von Bomben. Die Flugzeugtechnik (z.B. maximale Flughöhe, Reichweite, Geschwindigkeit) entwickelte sich sehr schnell (siehe z. B. Luftstreitkräfte (Deutsches Kaiserreich), Französische Luftstreitkräfte, Royal Air Force). Im Zweiten Weltkrieg wurde das in den 1930er Jahren entwickelte Radar eingesetzt; es ermöglichte die Gewinnung neuartiger Wetterbeobachtungsdaten (siehe Wetterradar). Während des Zweiten Weltkriegs vergrößerten alle kriegführenden Nationen ihre Luftstreitkräfte massiv (sie erwiesen sich an vielen Fronten als kriegsentscheidend); die ersten Düsenflugzeuge wurden gebaut; große Mengen von Wetterdaten wurden gesammelt. Man entwickelte und baute Jagdflugzeuge, die besonders hohe Dienstgipfelhöhen erreichen konnten. z. B. erreichten das deutsche Flugzeug Ta 152 oder der sowjetischen Jak-9PD etwa 14 km Höhe; noch kurz zuvor konnten maximal etwa 4 km Höhe erreicht werden. Die Wehrmacht unterhielt von 1941 bis 1945 Wetterstationen in der Arktis. Nach dem Krieg begann der Kalte Krieg; viele Länder unternahmen große Anstrengungen zur Erforschung des Wetters (z. B. das US-Projekt „Thunderstorm“). Außerdem entwickelte und baute man Aufklärungsflugzeuge, die so hoch fliegen konnten, dass sie von gegnerischen Bodenraketen zu dieser Zeit nicht erreicht werden konnten. Das Spionageflugzeug Lockheed SR-71 hat eine Dienstgipfelhöhe von 24.385 Metern. Die Wetterforschung in großen Höhen diente vor allem der Raumfahrt, insbesondere der bemannten Raumfahrt (siehe auch Der Wettlauf ins Weltall im Kalten Krieg), und der Entwicklung von Interkontinentalraketen. 1957 startete die Sowjetunion die erste funktionsfähige Interkontinentalrakete; wenige Wochen später brachte sie mit Sputnik 1 und Sputnik 2 zwei Satelliten in den Weltraum und löste so im Westen den „Sputnik-Schock“ aus. Ein wesentlicher Meilenstein für die Wetterforschung war der Einsatz von Wettersatelliten. Der erste wurde 1960 gestartet; von 1960 bis 1966 starteten die USA insgesamt 10 TIROS-Satelliten. Von 1968 bis 1978 starteten sie acht (davon ein Fehlstart) NIMBUS-Satelliten. Sie hatten auch Infrarotkameras an Bord. Damit kann man – auch nachts – Wetterphänomene (z. B. Wolken) filmen und quantifizieren, wie viel Wärme erwärmte Teile der Erdoberfläche (Landmassen, in geringem Maße auch Wasserflächen) nachts ins Weltall abstrahlen (siehe Globaler Energiehaushalt). Die Satellitenmeteorologie gilt als eigenständiges Teilgebiet der Meteorologie. Einen weiteren Quantensprung ermöglichten die rasanten Fortschritte in der Elektronischen Datenverarbeitung („EDV“). Allgemeines. Zwar ist der Hauptfokus der Meteorologie auf die großskaligen dynamischen Prozesse innerhalb der heutigen Erdatmosphäre gerichtet, jedoch sind die im Rahmen eines besseren Verständnisses der Wetterdynamik entwickelten Modellvorstellungen desselben auch auf andere Systeme übertragbar. Man zählt daher auch begrenzte Raumklimate bzw. Stadtklimate, extraterrestrische Atmosphären oder Atmosphären vergangener Erdzeitalter (Paläoklimatologie) zu den Studienobjekten der Meteorologie. Diese spielen jedoch meist nur in der Forschung eine größere Rolle, wo sie auch teilweise als „Spielwiese“ zur Verbesserung derjenigen Modelle dienen, die auch die derzeitige Erdatmosphäre beschreiben. Man versucht daher, durch genaue Beobachtungen der Erdatmosphäre eine gesicherte Datengrundlage auszubilden und gleichzeitig diese Daten für die Schaffung eines immer besseren Verständnisses meteorologischer Prozesse heranzuziehen. Viele Methoden, Herangehensweisen und Ideen der dynamischen Meteorologie entspringen der allgemeinen Fluiddynamik und finden weitere Anwendung in Meereskunde, Geophysik und Ingenieurwissenschaft sowie in fast allen Umweltwissenschaften. Die Meteorologie lässt sich nach verschiedenen Richtungen unterteilen, wobei sich einige von ihnen stark überschneiden. Diese Zusammenstellung ist nicht vollständig. Insbesondere beschäftigt sich die Meteorologie nicht nur mit der Troposphäre, also der untersten Schicht der Atmosphäre, sondern auch mit Stratosphäre und in beschränktem Umfang sogar mit Mesosphäre und Thermosphäre. Datenquellen und Datenqualität. Die wichtigste Aufgabe und zugleich das größte Problem der Meteorologie als empirischer Wissenschaft besteht in der Erfassung, Bearbeitung und insbesondere in der Bewertung und dem Vergleich von Daten. Im Unterschied zu anderen Naturwissenschaften kann man in der Meteorologie dabei nur für eine kleine Minderheit von Fragestellungen kontrollierbare Laborbedingungen herstellen. Meteorologische Datenerfassung ist daher in der Regel an die von der Natur vorgegebenen Rahmenbedingungen geknüpft, was die Reproduzierbarkeit von Messergebnissen einschränkt und insbesondere den Reduktionismus auf geschlossene, durch eine Messung beantwortbare, Fragestellungen erschwert. Viele dieser Messwerte werden in Klimagärten erhoben. Aus der Vielzahl von Messgeräten, der Art der Messgrößen und den Zielen ihrer Verwendung ergeben sich zahlreiche Probleme. Für die Messgröße Niederschlag beispielsweise sind verschiedene Messgeräte zur Erfassung von Regen, Tau, Schnee und Hagel weit verbreitet und praxiserprobt. Aus methodischen Gründen wird die Erfassung von flüssigem (Regen, Tau) und festem (Schnee, Hagel) Niederschlägen unterschieden und die Messgröße daher nach den erfassten Niederschlagsarten klassifiziert angegeben. Die Messgenauigkeit der marktgängigen Verfahren zur Bestimmung des flüssigen Niederschlages kann mit ca. 30 % angesetzt werden, die des festen Niederschlages ist nicht besser. Andere Hydrometeore werden durch Ansaugen einer Luftmenge oder durch die Ablagerung an Stäben erfasst und volumetrisch bestimmt. Die Qualität der Niederschlagsmessungen wird in erster Linie durch die Parameter Wind, Lufttemperatur, Aufstellungshöhe über Grund, Verdunstung und Aufstellort beeinflusst. Die Frage ihrer Vergleichbarkeit beziehungsweise der notwendigen Korrekturen ist Gegenstand wissenschaftlicher Diskussionen; für verschiedenste Niederschlagsmesser sind bereits zahlreiche Vergleiche durchgeführt worden (siehe hierzu WMO bzw.CIMO). Auch die Messung der anderen meteorologischen Größen ist mit ähnlichen, wenn auch geringeren Problemen behaftet: beispielsweise konnte lange Zeit die vertikale Komponente der Windgeschwindigkeit nicht richtig erfasst werden und auch heute noch ist die Messung vertikaler Gradienten sehr aufwändig. Man beschränkt sich daher auch meist auf Bodenmessungen, wobei man je nach Messgröße standardisierte Bodenabstände von meist zwei oder zehn Metern anwendet. Zu beachten ist hierbei, dass eine einzelne meteorologische Messung nahezu bedeutungslos ist und die Wetterdynamik in größeren Raumskalen nur durch eine Vielzahl von Messungen verstanden und prognostiziert werden kann. Diese Messungen müssen hierfür jedoch vergleichbar sein, weshalb die Normung und Standardisierung von Messgeräten und Messverfahren in der Meteorologie sehr wichtig ist, aufgrund vielfältiger praktischer Probleme jedoch nur bedingt umgesetzt werden kann. Man spricht daher auch von Messnetzen und der Einrichtung von Wetterstationen. Diese befolgen in der Regel die VDI-Richtlinie 3786 oder andere, teilweise weltweit durch die World Meteorological Organization standardisierte Richtlinien. Zu einer räumlichen Vergleichbarkeit der Daten, die zur Wettervorhersage notwendig ist, kommt jedoch auch eine zeitliche Vergleichbarkeit, die unter anderem für Klimaprognosen eine entscheidende Rolle spielt. Wird die Entwicklung der Messgeräte und damit der Messgenauigkeit bei der Analyse teilweise sehr alter Daten nicht berücksichtigt, so sind diese Daten wissenschaftlich beinahe wertlos, weshalb weltweit oft veraltete und seit Jahrzehnten unveränderte Messgeräte noch sehr weit verbreitet sind. Auch ist dies eine Kostenfrage, denn es ist hier nicht immer sinnvoll, die modernsten und damit teuersten Messgeräte zu verwenden, da diese nur für einzelne Länder bzw. Institute bezahlbar sind. Zudem ist jeder Wechsel der Messapparatur mit einem Wechsel der Datenqualität verknüpft, was bei längeren und sehr wertvollen Messreihen von vielen Jahrzehnten bis wenigen Jahrhunderten leicht zu falsch postulierten bzw. interpretierten Trends führen kann. Es wird also oft zugunsten der Vergleichbarkeit auf eine höhere Genauigkeit verzichtet. Bei einer globalen Erwärmung von wenigen Grad Celsius sind diese sehr alten Daten meist wenig hilfreich, da schon ihr Messfehler in der Regel den Effekt dieser möglichen Temperaturänderungen übersteigt. Ein großer Teil der Argumente von sogenannten „Klimaskeptikern“ basiert auf dieser teilweise umstrittenen Datenlage, es existieren jedoch auch andere natürliche Klimaarchive mit wesentlich genaueren Daten über sehr lange Zeiträume. Mit der Diskussion um die Aussagekraft von Temperaturaufzeichnungen hat sich u. a. das BEST-Projekt an der Universität Berkeley beschäftigt. Es ergibt sich also die Notwendigkeit, bedingt durch standortspezifische, personelle und messtechnische Faktoren, Messdaten kritisch zu hinterfragen und diese richtig einzuordnen. In der Meteorologie steht hierbei die räumliche Datenanalyse im Vordergrund, in der ansonsten eng verwandten Klimatologie spielt hingegen die zeitliche Datenanalyse (Zeitreihenanalyse) die Hauptrolle. Strahlungsmessung. Die Gewinnung von physikalischen Größen aus Messungen in verschiedenen Bereichen des elektromagnetischen Spektrums ist eine Herausforderung, die nur mit großem technischen Aufwand sowie durch Einsatz von Modellen gelingt. Satellitenmessung. Ein wichtiges Hilfsmittel für Meteorologen, speziell der Satellitenmeteorologie, bilden heutzutage die Satelliten, insbesondere die Wetter- und Umweltsatelliten. Man unterscheidet hierbei geostationäre Satelliten, die in einer Höhe von 36'000 km stationär über der Erde verankert sind, und Satelliten, die auf einem LEO in 400 bis 800 km die Erde umkreisen. Aufgrund der großflächigen Erfassung von Messdaten lassen sich mit Satelliten globale Zusammenhänge erfassen und damit letztendlich auch verstehen. Nur mittels Satelliten ist es heutzutage möglich, Informationen in Form von Beobachtungen auf globaler Basis und täglich aufgelöst über die Atmosphäre zu erlangen. Insbesondere den Zustand und die Zusammensetzung der oberen Atmosphäre (Stratosphäre, Mesosphäre, Thermosphäre) kann man nur wirkungsvoll durch den Einsatz von Satelliten untersuchen. Hohe räumliche und zeitliche Auflösung von Satellitendaten ist wünschenswert, da man dadurch in die Lage versetzt wird, effektiv Atmosphärenbestandteile und deren Änderung zu überwachen. Satellitendaten leisten beispielsweise bei der Überwachung der Entwicklung der Ozonlöcher wertvolle Dienste, indem man aus Satellitenmessungen direkt den Gehalt von Ozon pro Höhe und pro Tag sehr genau abschätzen kann. Viele andere atmosphärische Spurengase werden auf diese Weise überwacht (beispielsweise Methan, Kohlendioxid, Wasserdampf), aber auch Druck und Temperatur in der Atmosphäre können so sehr genau und räumlich exakt bestimmt werden. Die fortschreitende Entwicklung der Instrumente und der Trend zu kleinen hoch spezialisierten Satelliten macht es darüber hinaus möglich, auch anthropogen induzierte Störungen der Atmosphärenzusammensetzung zu verfolgen. Zusammen mit in-situ durchgeführten Messungen (beispielsweise per Ballon) und Modellrechnungen ergibt sich so nach und nach ein immer geschlosseneres Bild des Zustandes der Erdatmosphäre. Troposphärische Satellitendaten werden genutzt, um Erkenntnisse über Regionen zu erhalten, die keiner anderen Messmethode zugänglich sind. Ein Beispiel sind Niederschlagsschätzungen oder Windgeschwindigkeitsbestimmungen über den Ozeanen. Dort hat man kein enges Messnetz zur Verfügung und war lange Zeit auf großflächige Datenextrapolationen angewiesen, was selbst heute noch dazu führt, dass bei stark maritim geprägten Wetterlagen, beispielsweise an der Westküste Nordamerikas, wesentlich geringere Vorhersagequalitäten erreicht werden können als bei kontinental bestimmten Wetterlagen. Alle nicht satellitengestützten Datenerhebungen auf dem Ozean stammen hierbei aus Schiffs- oder Bojenmessungen beziehungsweise von Messstationen auf vereinzelten Inseln. Kenntnisse zu den Wetterverhältnissen über den Ozeanen können daher zu einer Verbesserung der Gesamtvorhersagen von Niederschlagsereignissen an Küsten führen. Dies ist gerade für vom Monsun betroffene Länder, wie Indien, eine lebenswichtige Information. Satellitendaten werden, beispielsweise über die sogenannte Datenassimilierung, als Grundlage in der Klimatologie genutzt, um deren Modelle zu verbessern bzw. zu stützen und eine umfassende und gleichmäßige Datenerfassung zu ermöglichen. Die Arbeit mit Satellitendaten erfordert weitreichende Kenntnisse in der Datenverarbeitung und der damit zusammengehörenden Technik und der Techniken (beispielsweise effiziente Programmierung). Große Datenmengen (heutzutage im Bereich von Terabytes) müssen empfangen, weitergeleitet, gespeichert, verarbeitet und archiviert werden. Modelle und Simulationen. Das Design von Modellen ist ebenso eine Herausforderung, wie deren inhaltliche Gestaltung. Nur Modelle, welche die Natur möglichst adäquat beschreiben, sind in Forschung wie Praxis sinnvoll einsetzbar. Da solche Modelle wegen der Komplexität des modellierten Systems leicht ganze Rechenzentren beschäftigen können, ist eine effiziente Algorithmik, also die Natur vereinfachende statistische Annahme, ein wichtiger Punkt bei der Entwicklung der Modelle. Nur auf diese Weise können Rechenzeit und somit die Kosten überschaubar gehalten werden. In den 20er Jahren des 20. Jahrhunderts hat der Mathematiker Lewis Fry Richardson Methoden entwickelt, mit Hilfe derer die enorme Komplexität mathematischer meteorologischer Modelle angegangen werden konnten. Diese sind heute noch häufig die Grundlage meteorologischer Simulationen (Simulationsmodell) auf Supercomputern. Diese dienen daher auch nicht ohne Grund in sehr vielen Fällen zur Simulation der Wetter- bzw. Klimadynamik, wobei diese ihre Grenzen, trotz teilweise gigantischer Größendimensionen, schnell erreichen. Es lassen sich verschiedene Arten von Atmosphärenmodellen grob unterscheiden: Strahlungstransfermodelle (bspw. KOPRA), Chemietransportmodelle (bspw. ECHAM) und dynamische Modelle. Der Trend geht jedoch zu integrierten Modellen oder „Weltmodellen“, die die gesamte Natur nachzeichnen (SIBERIA 2). Bei der Verbesserung der Qualität der Modelle fließen, wie überall in der physikalischen Modellierung, sowohl statistische Verfahrensweisen als auch experimentelle Beobachtungen, neue Ideen usw. in das Verfahren ein. Ein bekanntes Beispiel hierfür ist die Entwicklung, die zur Erkenntnis geführt hat, dass die Veränderung von Spurengasmengen in der Atmosphäre (bspw. Kohlendioxid oder Ozon) zu einer „ungesunden“ Wärmeentwicklung der Biosphäre führen können (bspw. Treibhauseffekt, Abkühlung der Stratosphäre). Auch die Entdeckung des Ozonloches und die Verstärkung des Augenmerks der Wissenschaftler auf die damit zusammenhängende Atmosphärenchemie fällt in diese Kategorie. Einfachstes meteorologisches Modell und zugleich die erste Bewährungsprobe für alle neuentwickelten Modelle zur Wettervorhersage ist die simple Übertragung des aktuellen Wetters auf die Zukunft. Es gilt hierbei der einfache Grundsatz eines konstanten Wetters, man nimmt also an, das Wetter des nächsten Tages wird dem des aktuellen Tages entsprechen. Dies wird als Persistenzprognose bezeichnet. Da Wetterlagen oft lange nahezu gleich bleibend sind, hat diese einfache Annahme bereits eine Erfolgswahrscheinlichkeit von circa 60 %. Wetterdaten. Um den Austausch von Wetterdaten (aktuell, historisch, prognostiziert) zu vereinfachen, hat die Weltorganisation für Meteorologie (WMO) das Datenformat GRIB, engl. GRIdded B'"inary, definiert. Die Rechtslage ist ausgesprochen komplex (ebenso wie bei den Geoinformationen). Relevant ist vor allem das Urheberrecht und insbesondere das Datenbankschutzrecht, das sich auf Sammlungen von Wetterdaten bezieht (siehe Datenbankwerk). Es gibt allerdings auch europäische Richtlinien zur Weiterverwendung von Daten des öffentlichen Sektors (Public Sector Information, in Deutschland umgesetzt als Informationsweiterverwendungsgesetz) sowie zur Verbreitung von Umweltinformationen (in Deutschland umgesetzt als Umweltinformationsgesetz), die auf die Rechte an Wetterdaten und deren Verbreitung wirken. Magdeburg. a> mit Blick über die Elbe (niederdeutsch "Meideborg") ist die Hauptstadt des Landes Sachsen-Anhalt. Die Stadt an der Elbe ist eines der drei Oberzentren von Sachsen-Anhalt und steht mit  Einwohnern (Stand) auf der Liste der Großstädte in Deutschland unter den ersten Vierzig. Das Wahrzeichen ist der Magdeburger Dom. Erstmals urkundlich erwähnt im Jahr 805, ging die Christianisierung der Slawen vom Erzbistum Magdeburg aus, das Otto I. im Jahr 968 begründete, erster Kaiser des Heiligen Römischen Reiches und zusammen mit Otto von Guericke Namenspatron der heutigen „Ottostadt Magdeburg“. Im Mittelalter erlangte die Hansestadt große Bedeutung durch das gleichnamige Stadtrecht und war im Spätmittelalter eine der größten deutschen Städte und Zentrum der Reformation. Nach der völligen Verwüstung im Dreißigjährigen Krieg wurde Magdeburg zur stärksten Festung des Königreichs Preußen ausgebaut und 1882 mit über 100.000 Einwohnern zur Großstadt erklärt. Im Zweiten Weltkrieg wurde Magdeburg erneut schwer getroffen und nach dem Luftangriff Mitte Januar 1945 90 % der Altstadt, 15 Kirchen und weite Teile der Gründerzeitviertel total zerstört. Bekannte Söhne der Stadt sind Otto von Guericke, der durch seinen Versuch mit den Magdeburger Halbkugeln zum Begründer der Vakuumtechnik wurde, sowie der Barockkomponist Georg Philipp Telemann. Die Stadt am Schnittpunkt von Elbe, Elbe-Havel- und Mittellandkanal besitzt einen bedeutenden Binnenhafen und ist ein Industrie- und Handelszentrum. Von wirtschaftlicher Bedeutung sind der Maschinen- und Anlagenbau, Umwelttechnologien und Kreislaufwirtschaft, Gesundheitswirtschaft, Logistik sowie die Herstellung von chemischen Produkten, Eisen- und Stahlerzeugnissen, Papier und Textilien. Magdeburg ist sowohl evangelischer als auch katholischer Bischofssitz und Standort der Otto-von-Guericke-Universität sowie der Hochschule Magdeburg-Stendal. In der Landeshauptstadt befinden sich zahlreiche Freizeiteinrichtungen, darunter das Theater Magdeburg und das Kulturhistorische Museum Magdeburg. Geographie. Luftbild Magdeburg 2012 – Blick vom Stadtzentrum in Richtung Süden Die kreisfreie Stadt im Zentrum Sachsen-Anhalts liegt an der mittleren Elbe und am Ostrand der Landschaft Magdeburger Börde auf altem Kulturboden und bildet das Zentrum der Region Magdeburg (auch Elbe-Börde-Heide genannt). Als Ortsmittelpunkt für die Bestimmung der Lage Magdeburgs gilt der Fußpunkt der nördlichen Domspitze, welcher bei 56 m Höhe liegt. Magdeburgs höchste Erhebung am Hängelsberge, die zur Hügelkette der Börde gehört, beträgt, die niedrigste Stelle liegt. Die Stadt erstreckt sich vornehmlich am westlichen Hochufer des Stroms an einer Geländestufe, die durch den Domfelsen (Sand- und Schluffsteine des Rotliegenden in Verlängerung des Flechtinger Höhenzuges) gebildet wird. Magdeburg ist eine der wenigen Städte der Norddeutschen Tiefebene, die neben Grauwacke, einem sandsteinernen Sedimentgestein des Paläozoikums, und in kleinem Maße auf Pechstein und eiszeitlichen Feuersteinablagerungen, auf Fels gegründet ist. Teilweise liegt das Stadtgebiet auf einer langgestreckten Insel zwischen der „Strom-Elbe“ und der „Alten Elbe“ sowie am flachen östlichen Ufer des Flusses. Die Fläche des Stadtgebietes beträgt etwa 201 km², die Stadtlängengrenze einschließlich Exklaven ist 89,9 km lang. 27,1 km davon grenzen an das Jerichower Land, 18,3 km an den Salzlandkreis und 44,5 km an den Landkreis Börde. Typisch für ostdeutsche Großstädte besitzt auch Magdeburg keinen ausgeprägten Vorortgürtel und liegt auch nicht direkt in einem Ballungsraum. Da sie aber als großer Entwicklungsmotor für die umliegende Region fungiert, wird sie eingestuft als Regiopole. Nächstgelegene größere Städte sind Wolfsburg etwa 64 Kilometer nordwestlich, die Partnerstadt Braunschweig etwa 75 Kilometer westlich, Halle (Saale) etwa 75 Kilometer südlich und Potsdam etwa 105 Kilometer östlich. Berlin liegt 130 Kilometer östlich. Die Elbe durchquert Magdeburg auf einer Länge von 21 km. Ihr Pegelnullpunkt an der Strombrücke liegt auf. Außerdem besitzt die Stadt mehrere Seen, darunter zum Beispiel die Salbker Seen (zusammen 51,7 ha) oder den Barleber See I (103 ha) und II (71,9 ha). Unter den 50 größten deutschen Städten hat laut einer Studie aus dem ersten Quartal 2007 Magdeburg nach Hannover den zweitgrößten Anteil an öffentlichen Grünflächen im Stadtgebiet. Schutzgebiete. Auf dem Gebiet Magdeburgs sind bisher 160 geschützte Biotope erfasst, darunter Typen wie Moore, Sümpfe, Bruch-, Schlucht- und Auwälder, Kopfbaumgruppen, Hecken und Quellbereiche. Zum Schutz von Natur und Landschaft, beziehungsweise zur Erhaltung und Entwicklung von Lebensstätten, gibt es in Magdeburg das „Naturschutzgebiet Kreuzhorst“. In der mittleren Elbeniederung umfasst es einen der wenigen naturnahen Auenwaldkomplexe. Überwiegend befindet sich dort ein Stieleichen-Eschenwald. Im Naturschutzgebiet sind bisher 32 Säugetierarten, davon 16 auf der Roten Liste Sachsen-Anhalts, drei Reptilien- und zwölf Amphibienarten, davon sechs gefährdet, elf Fischarten, rund 3000 Schmetterlingsarten und 168 Rüsselkäferarten, aufgelistet. Erwähnenswert ist das Vorkommen von Hirschkäfern, Heldböcken, Steinbeißern, einer vom Aussterben bedrohten Art, Elbebibern und vom gefährdeten Iltis. Das Biosphärenreservat Mittelelbe ist Lebensraum vieler gefährdeter Tierarten und von hohem ökologischen Wert aufgrund der Vielzahl von Altwässern. Es erstreckt sich auf Teilen der Überflutungsaue und östlich des Hochwasserdeiches. Des Weiteren existieren in Magdeburg einige geschützte Parks, wie die „Goethe-Anlagen“ oder der „Schneiders Garten“, ein Biosphärenreservat und geschützte Gewässer. Klima. Der durchschnittliche Jahresniederschlag Magdeburgs liegt bei etwa 500 mm. Gemessen am gesamtdeutschen Durchschnitt gilt das als niedrig; die Stadt liegt noch im Regenschatten des Harzes. Die Durchschnittstemperatur beträgt in Magdeburg 8,8 °C, was im bundesweiten Durchschnitt liegt. Der trockenste Monat ist der Februar, niederschlagreichster Monat ist Juni. Wärmster Monat ist der Juli, kühlster Monat ist laut Statistik der Januar. Stadtgliederung. Die Stadt Magdeburg ist in 40 Stadtteile eingeteilt. In allen Stadtteilen gibt es weitere Unterteilungen, die sich im Laufe der Geschichte eingebürgert haben. Dabei handelt es sich meist um Neubausiedlungen oder Wohngebiete, deren Grenzen durchaus fließend sein können. Bedeutung und Herkunft des Namens. Ältere Formen des Namens Magdeburg lauten "ad Magadoburg", oder "Magathaburg" im 10. Jahrhundert. Das Grundwort "Burg" ist allseits vertraut, im Bestimmungswort könnte ein germanisches Adjektiv "magaþ" stecken, das sich als „groß“ oder „mächtig“ übersetzen lässt, also „mächtige Burg“. Dem gegenüber gibt es Sagen, die einen Bezug zu Parthenopolis herstellen, was übersetzt "Mägde-" oder "Maidenburg" ("Jungfrauenburg") bedeutet. Etymologisch wird die seit dem Mittelalter gängige Interpretation "Maidenburg" allerdings bezweifelt – womit das „a“ im Namen dann fälschlicherweise langgezogen würde. Ur- und Frühgeschichte. Früheste Faustkeilfunde datieren aus der frühen Saaleeiszeit vor etwa 150.000 Jahren. Nachweise für sesshafte menschliche Anwesenheit im Magdeburger Raum finden sich seit der späten Weichsel-Eiszeit (etwa 15.000 v. Chr.). Während der neolithischen Linienbandkeramik wurde um 5400 v. Chr. das Gebiet durch Stämme der Donauländischen Kultur besiedelt. Der fruchtbare Lößboden, die Nähe von Wald und Wasser boten gute Bedingungen und das westliche Elbufer Schutz vor Hochwasser. Mittelalter. a> und seine Gattin Edith landen bei Magdeburg Magdeburg wurde 805 erstmals im Diedenhofer Kapitular Karls des Großen als "Magadoburg" erwähnt und war Kaiserpfalz unter Kaiser Otto I. 919 befestigte Heinrich I. der Vogler Magdeburg gegen die Magyaren und Slawen. Jedoch wurde die Magdeburger Elbfurt gleichzeitig genutzt, um mit den östlich der Elbe lebenden Slawen Handel zu treiben. Die höchstwahrscheinlich mit oder bald nach dem Regierungsantritt Ottos I. in Magdeburg eingeführten Sachsenpfennige wurden hauptsächlich für den Slawenhandel geschlagen. 929 arrangierte Heinrich I. die Hochzeit seines Sohnes Otto I. des Großen mit Edith (Editha, Eadgyth), der Tochter Edward des Älteren von England. Bei der Hochzeit erhielt Edith Magdeburg als Morgengabe. 937 wurde eine Reichsversammlung unter Beteiligung von zwei Erzbischöfen, acht Bischöfen und höchsten säkularen Würdenträgern abgehalten. Zur selben Zeit wurde das Mauritiuskloster (Moritzkloster) zu Ehren des St. Mauritius gestiftet. 946 starb Königin Editha und wurde in der Klosterkirche, dem späteren Magdeburger Dom, beigesetzt. Otto heiratete danach Adelheid von Italien, welche die Architektur Magdeburgs stark beeinflusste. 962 wurden Otto der Große und seine zweite Frau Adelheid mit der Kaiserkrone des Heiligen Römischen Reiches gekrönt. Infolge der Synode von Ravenna im Jahr 967 wurde Magdeburg im darauf folgenden Jahr zum Erzbistum erhoben. Der erste Erzbischof, Adalbert von Magdeburg, wurde später als Apostel der Slawen heiliggesprochen. Zum Erzbistum gehörten die Bistümer Brandenburg, Havelberg, Meißen (bis 1399), Merseburg, Posen (bis etwa 1000), Zeitz-Naumburg und Lebus (erst ab 1420). 973 starb Kaiser Otto der Große. Er wurde neben seiner ersten Frau Editha beigesetzt. 995 schloss Otto III. Schlesien mit einem Patent dem Bistum Meißen an und unterstellte es dem Erzbistum Magdeburg. 1035 wurde Magdeburg zur Messestadt erklärt. Ein Patent gab der Stadt das Recht, Handelsausstellungen und Konventionen abzuhalten. Besucher aus vielen Ländern trieben in Magdeburg Handel. So fand sich eine Magdeburger Silbermünze aus dem 11. Jahrhundert im Münzfund von Sandur auf den Färöern. Im Jahr 1126 wurde der später heiliggesprochene Norbert von Xanten Erzbischof von Magdeburg. Das in Magdeburg entwickelte „Magdeburger Recht“ galt als praktisch, modern und vorbildlich und wurde deshalb in vielen Gebieten Mitteleuropas und Osteuropas übernommen. Erzbischof Wichmann verabschiedete 1188 für die Stadt Magdeburg das sogenannte „Privileg“ nach Magdeburger Recht. Im 13. Jahrhundert löste sich die Stadt vom Stadtherrn, dem Erzbistum Magdeburg, doch konnte sie nie die völlige Freiheit erlangen. 1294 kauften die Bürger Magdeburgs dem Erzbischof jedoch die Ämter des Schultheiß und des Burggrafen ab und konnten diese Ämter fortan selbst besetzen. Damit begann in Magdeburg eine Art kommunaler Selbstverwaltung. Magdeburg war im Mittelalter ein bedeutender Handelsort und Knotenpunkt. Eine Vielzahl wichtiger Fernverbindungen gingen von der Stadt aus. So war beispielsweise die Heerstraße Magdeburg-Brandenburg die bedeutendste Verbindung nach Osten. Die Lüneburger Heerstraße verband Magdeburg mit den Städten im Norden. Magdeburgs Mitgliedschaft bei der Hanse ist nicht exakt auf ein Jahr festlegbar. In die Gemeinschaft der Kaufleute und Städte wuchs sie von Beginn an hinein. Geschätzt wird, dass Magdeburg Ende des 13. Jahrhunderts Mitglied der Hanse (seit 1295 nachweislich) wurde. Sie schloss sich den sächsischen Städtebünden von 1351, 1404 und 1416 an und entwickelte sich neben Braunschweig zum Vorort des Sächsischen Städtebundes. Aufgrund des Magdeburger Stapelrechts monopolisierte sich der Getreidehandel an der mittleren Elbe. Magdeburg galt wegen seiner zentralen Stellung im Kornhandel als „Brothaus der Hanse“. Fernbeziehungen hatte Magdeburg bis nach Nordfrankreich, Flandern, England, Polen, Russland, Schweden und Norwegen. 1666 trat sie aus dem Bund der Hansestädte aus, erst 2003 wurde sie wieder Mitglied des Städtebundes Neue Hanse. Um 1430 kam es zu militärischen Auseinandersetzungen zwischen Stadt und Erzbischof, die unter anderem das Konzil von Basel zu beenden versuchte. 1500 wurde das Erzstift dem Niedersächsischen Reichskreis zugeteilt. 1503 verlegte der Erzbischof seine Residenz nach Halle. Die Einführung der Reformation 1524 vertiefte die Gegensätze zwischen Stadt und Erzbistum weiter. Frühe Neuzeit. Magdeburg um 1600 (Öl auf Leinwand) Der 17. Juli 1524 gilt als Tag der Einführung der Reformation in allen Magdeburger Kirchen, nachdem Martin Luther im Juni 1524 mehrfach in Magdeburg gepredigt hatte. Nur der Dom blieb katholisch, wurde aber nach dem Tod des Erzbischofs Albrecht von Brandenburg 1545 für 20 Jahre geschlossen. Weil Magdeburg sich 1548 weigerte, das Augsburger Interim anzuerkennen, zog Georg von Mecklenburg mit der Unterstützung des Kaisers Karl V. gegen Magdeburg. Nach der schweren Niederlage Magdeburger Truppen bei Hillersleben belagerte Georg von Mecklenburg die Stadt vom 22. September 1550 bis 5. November 1551. Ein Friedensvertrag beendete die Belagerung. Magdeburg wurde in der Folge von Protestanten „Unseres Herrgotts Kanzlei“ genannt. Im Dreißigjährigen Krieg wurde Magdeburg durch kaiserliche Truppen unter dem Feldherrn Tilly der Katholischen Liga am 20. Mai 1631 (10. Mai nach julianischem Kalender) erobert und ging anschließend in Flammen auf („Magdeburger Hochzeit“). Dieser Vorgang erlangte auch unter dem Begriff "Magdeburgisieren" traurige Berühmtheit. Dabei wurden bis auf wenige tausend Menschen die Einwohner durch die einrückenden Truppen sowie den Brand getötet. Die Stadt wurde weitgehend zerstört und fast völlig entvölkert. Mit 20.000 (nach anderen Angaben bis zu 30.000) Toten gilt dies als das größte Einzelmassaker des Dreißigjährigen Krieges. 205 Flugschriften und 41 illustrierte Flugblätter berichteten über die Ereignisse in und um Magdeburg. 1635 wurden die Stadt und das Erzstift im Frieden von Prag dem sächsischen Prinzen August überlassen, der bereits 1628 zum Administrator gewählt worden war. Im Westfälischen Frieden 1648 wurde das Erzstift Magdeburg dem Kurfürstentum Brandenburg als Anwartschaft zugesprochen, die aber erst nach dem Tod des kursächsischen Administrators eingelöst werden sollte. In jener Zeit (1646 bis 1678) war Otto von Guericke Bürgermeister von Magdeburg. Er war gleichzeitig Physiker, erfand die Kolbenluftpumpe und führte ab 1654 die berühmten Vakuumversuche mit den Magdeburger Halbkugeln aus. 1680 kam nach dem Tode Augusts das nun als Herzogtum Magdeburg säkularisierte Erzstift und damit auch die Stadt unter brandenburgische Herrschaft. Die Stadt lag im damaligen Holzkreis, unterstand aber als sogenannte Immediatstadt direkt der Regierung des Herzogtums und wurde 1714 auch dessen Hauptstadt. Von Juni 1681 bis Jan. 1682 wütete die Pest in Magdeburg und forderte mindestens 2649 Menschenleben. Als Folge des Ediktes von Potsdam des brandenburgischen Kurfürsten Friedrich Wilhelm vom 29. Oktober 1685, in dem Glaubensflüchtlinge aus Frankreich eingeladen wurden, sich im Land niederzulassen, entstand die Französische Kolonie zu Magdeburg. Auch ein Aufnahmegesuch der Mannheimer Vertriebenen wurde am 13. April 1689 von Kurfürst Friedrich III. positiv beschieden. Das mündete in der Gründung der Pfälzer Kolonie. Beide Kolonien bildeten jeweils unabhängige, räumlich von der Altstadt nicht abgegrenzte politische Gemeinden innerhalb der Stadt. Sie verfügten über eigene Rathäuser, Bürgermeister, Gerichte und auch über eigene Bürgergarden. Ihre Mitglieder standen unter dem Schutz des Kurfürsten und später des Königs. Die Kolonien bestanden bis 1808. Der Kurfürst von Brandenburg ließ 1666 Otto Christoph von Sparr mit einer Armee von 15.000 Mann die Stadt belagern, die zu der Zeit wohl weniger 1000 Einwohner hatte, um die Einhaltung ihrer im Westfälischen Frieden eingegangenen Verpflichtungen zu erzwingen. Anschließend ließ er die im Dreißigjährigen Krieg zerstörten Befestigungen wiedererrichten. Im 18. Jahrhundert wurde die Festung weiter ausgebaut. Unter Friedrich II. nahm die Festung 200 Hektar ein; das Stadtareal erreichte dagegen nur 120 ha. Mehrfach wird Magdeburg als stärkste Festung Preußens erwähnt. Sie kapitulierte im Vierten Koalitionskrieg am 8. November 1806 vor französischen Truppen ohne förmliche Belagerung. 19. Jahrhundert. Stadtplan von Magdeburg um 1900 1807 wurde die Stadt vorübergehend dem Königreich Westphalen angegliedert und wurde Sitz des Elbdepartements. Nach dem für Napoleon verlorengegangenen Krieg ging Magdeburg 1814 wieder an Preußen und wurde 1816 Hauptstadt der Provinz Sachsen sowie Sitz des Regierungsbezirks Magdeburg und des Landkreises Magdeburg. 1824 wurde die Magdeburger Börse gegründet. 1828 entstand der Stadtkreis Magdeburg. Seit 1866 war in Magdeburg das Hauptquartier des IV. Armee-Korps, eines Großverbandes der Armee des Norddeutschen Bundes und ab 1871 des Deutschen Kaiserreiches. Mit Beginn des Ersten Weltkrieges war die Stadt der VI. Armee-Inspektion unterstellt. Einer der Kommandierenden Generale war der spätere Reichspräsident Paul von Hindenburg. 1887 wurde der Landkreis Magdeburg aufgelöst. Das Magdeburger Umland gehörte danach zu den Kreisen Jerichow I (später Burg), Calbe, Wanzleben und Wolmirstedt. Im gleichen Jahr 1887 erfolgte die Eingemeindung der Stadt Buckau mit ihren Maschinenbau- und Armaturenfabriken. Die Polte-Werke in Sudenburg, das in Buckau ansässige Grusonwerk, das Messgeräte- und Armaturenwerk Schäffer & Budenberg, die Armaturenfabrik von C. Louis Strube und der Maschinenbau R. Wolf begründeten die Tradition Magdeburgs als Stadt des Maschinenbaus. Weimarer Republik und Nationalsozialismus. Zerstörtes jüdisches Geschäft in Magdeburg, November 1938 Im Jahr 1930 war der zwanzigjährige Jacques Decour Austauschlehrer für Französisch am Domgymnasium Magdeburg. Sein 1932 in Paris unter dem Titel "Philisterburg" veröffentlichtes Tagebuch beschrieb nüchtern den Alltag in der Weimarer Republik und den gewöhnlichen Antisemitismus. In der Zeit des Nationalsozialismus wurden sowohl politische und weltanschauliche Gegner als auch viele Menschen verfolgt, die aus eugenischen und rassistischen Gründen aus der „Volksgemeinschaft“ ausgegrenzt wurden. Die zahlenmäßig größte Gruppe waren Juden. Für sie wurde 1939 ein „Ausweich- bzw. Auffanglager“ der Gestapoleitstelle Magdeburg eingerichtet, in dem die nach dem Novemberpogrom Verhafteten, später deportierte Zwangsarbeiter, aber auch politische Häftlinge, weiter sogenannte Mischlinge und andere Gruppen interniert und von dort an Magdeburger Rüstungsbetriebe ausgeliehen wurden. Im Zweiten Weltkrieg wurde die Industrieproduktion durch Beschäftigung ausländischer Zwangsarbeiter aufrechterhalten. Die Braunkohle-Benzin-AG (Brabag) als größter Treibstofflieferant der Wehrmacht errichtete 1944 sechs KZ-Außenlager. Eines davon, das „KZ Magda“, befand sich in Magdeburg-Rothensee. Die anderen fünf befanden sich an anderen Orten in Sachsen (Lausitz) und dem heutigen Sachsen-Anhalt. Zwischen Juni 1944 und Februar 1945 arbeiteten dort 2172 jüdische Gefangene, von denen etwa 65 Prozent starben. Speziell für Sinti und Roma wurde das Zigeunerlager Magdeburg Holzweg errichtet. Die Inhaftierten wurden in das Konzentrationslager Auschwitz verbracht. Von 1943 bis 1945 befand sich ein Außenlager des KZ Buchenwald bei den Polte-Werken in der Magdeburger Liebknechtstraße. Über 3.000 Insassen – vornehmlich Juden aus den KZ Riga-Kaiserwald, Auschwitz, Stutthof und Ravensbrück sowie russische und polnische Gefangene – mussten hier schwere Arbeit verrichten und lebten in einem Barackenlager in Prester. Ein erster Luftangriff auf die Stadt erfolgte am 22. August 1940. Ab 1943 wurde Magdeburg intensiv durch alliierte Bomberverbände angegriffen. Erste Ziele waren Industriebetriebe der Rüstung, wie das Krupp Grusonwerk in Buckau, wo Kettenfahrzeuge (Panzer IV und Sturmgeschütz IV) gebaut wurden, der Munitionshersteller Polte-Werke sowie in Rothensee das Brabag-Hydrierwerk zur Produktion von synthetischem Benzin für die Luftwaffe. Der Luftangriff auf Magdeburg am 16. Januar 1945 durch die britische Royal Air Force zerstörte etwa 90 Prozent der Altstadt, darunter auch 15 Kirchen. Auch die Gründerzeit-Viertel erlitten erhebliche Schäden. Der altstadtnahe Stadtteil „Nordfront“ und der Breite Weg, eine der schönsten Barockstraßen Deutschlands, wurden fast völlig zerstört. Bei diesem Angriff kamen mindestens etwa 2000 Menschen ums Leben, weitere 190.000 wurden ausgebombt. Am 11. April 1945 bezogen US-Truppen an der Stadtgrenze Stellung. Eine Übergabe wurde am 12. April durch den General der Wehrmacht Adolf Raegener abgelehnt. Nach einem mehrtägigen Bombardement durchbrachen die amerikanischen Verbände die starken deutschen Verteidigungslinien und besetzten am 19. April 1945 den westlichen Teil der Stadt. Sie rückten vereinbarungsgemäß nicht weiter in Richtung Berlin vor. Am 5. Mai 1945 besetzten sowjetische Kräfte den ostelbischen Teil von Magdeburg. Eine amerikanische Spezialeinheit erbeutete Silber-Vorräte der Reichsbank (im Wert von acht Millionen Euro), die in die USA verbracht wurden. Das Silber hatte Luftbombardements und Artilleriebeschuss in einem 1927 errichteten, sehr sicheren unterirdischen Depot im Domberg überdauert. Am 1. Juni 1945 wurden die letzten Kräfte der 117. US-Infanterie-Division durch britische Truppen ersetzt, die am 1. Juli Magdeburg-West an die Rote Armee übergaben. DDR-Zeit. Nach dem Krieg wurden die Innenstadt und betroffene Viertel enttrümmert (siehe „Trümmerfrauen“). Aus Geldmangel wurden von den beschädigten Gebäuden nur die wertvollsten gerettet, beziehungsweise die von Zerstörung weniger betroffenen Bauten restauriert, darunter der Magdeburger Dom, das Kloster Unser Lieben Frauen und das Rathaus. Zwischen 1951 und 1966 wurden acht Kirchen gesprengt oder abgerissen, die zwar ausgebrannt waren, aber als wiederaufbaufähig galten; zum Beispiel wurde im April 1956 auf Anordnung von Walter Ulbricht die Ulrichskirche in der Mitte der ehemaligen Altstadt gesprengt. Von 1965 bis 1969 wurde das Alte Rathaus wieder originalgetreu aufgebaut. So prägen inzwischen anstelle der Barockhäuser des "Breiten Wegs", der Gründerzeit- und Jugendstilgebäude zahlreiche Bauten der "Nationalen Tradition" der Nachkriegszeit, die die sowjetische Architektur der Stalinzeit (Sozialistischer Klassizismus) zum Vorbild haben, die Innenstadt. Die sowohl in der Innenstadt als auch in Neubaugebieten in großer Zahl entstandenen Plattenbauten wurden im Stadtzentrum inzwischen zu großen Teilen durch moderne Bauten der 1990er Jahre und der Jahrtausendwende ersetzt. Bis 1953 trugen die Magdeburger Großbetriebe als SAG-Betriebe zur Erfüllung der Deutschland auferlegten Reparationsverpflichtungen bei. In der DDR blieb Magdeburg Standort des Schwermaschinenbaus (zum Beispiel SKET) und wurde 1952 Bezirksstadt des Bezirks Magdeburg, der 1990 wieder aufgelöst wurde. Innerhalb des Bezirks war Magdeburg als Stadtkreis kreisfreie Stadt. 1990 bis zur Gegenwart. Im Juni 1990 beschloss die Volkskammer die (Wieder-)Einführung von Ländern und eine föderale Neugliederung der DDR. Dabei bildeten die Bezirke Halle und Magdeburg sowie der Kreis Jessen im Wesentlichen das Land Sachsen-Anhalt, wie es jedoch in veränderten Grenzen bereits von 1947 bis 1952 bestanden hatte. War damals das relativ unzerstörte Halle zur Landeshauptstadt bestimmt worden, wurde nun Magdeburg in einer knappen Abstimmung zwischen Magdeburg und Halle vom ersten Landtag zur neuen Landeshauptstadt bestimmt. Magdeburg wurde 1994 wieder Sitz eines römisch-katholischen Bischofs. Das Bistum Magdeburg ist seither ein Suffraganbistum des Erzbistums Paderborn. Im Jahr 1999 wurde in Herrenkrug auf einem Teil des ca. 100 Hektar großen, ehemals militärisch genutzten Geländes die 25. Bundesgartenschau (BUGA) durchgeführt. Die benachbarte Kasernenanlage aus wilhelminischer Zeit ist Sitz und Standort der meisten Fachbereiche der Hochschule Magdeburg-Stendal geworden. Dieser Campus wurde bei einer nationalen Studentenbefragung 2009 zum zweitschönsten der Bundesrepublik gewählt. Weitere im ostelbischen Stadtteil Brückfeld gelegene ehemalige Kasernenbauten beherbergen nach erfolgter Sanierung und denkmalgerechter Umgestaltung verschiedene Ministerien des Landes. Seit der Wiedervereinigung haben viele große und kleine Bauprojekte das Stadtbild stark verändert: die zentrale Achse der Stadt, der "Breite Weg", war vor dem Zweiten Weltkrieg einer der längsten Einkaufsmeilen Europas und wurde seit 1990 mit vielen neuen Bebauungen wieder geschlossen. Darunter stechen vor allem die Neubebauung am Domplatz mit einem Büroensemble sowie das 2005 eröffnete und letzte von Friedensreich Hundertwasser entworfene Haus, die "Grüne Zitadelle", hervor. Auch wurden der Friedensplatz erneuert, das Opernhaus am Universitätsplatz ebenso wie der Universitätsplatz selbst und der Nordabschnitt des Breiten Wegs und die ehemalige Hauptpost saniert. Parallel zum Breiten Weg wurden viele Gründerzeitbauten in der Otto-von-Guericke-Straße und Hegelstraße und im Umfeld des Hasselbachplatzes saniert und bilden ein ensemblegeschütztes Denkmal. Auch das Schauspielhaus, ehemals Freie Kammerspiele, wurde saniert, am nördlich gelegenen Kulturhistorischen Museum fanden Erweiterungsbauten statt, der neue Anbau konnte 2011 eröffnet werden. 2006 wurde die Sternbrücke zwischen südlichem Stadtzentrum und dem Rotehorn-Park (Werder / Marieninsel) wiedereröffnet. Der Innenstadtring über Schleinufer, Walter-Rathenau-Straße (B1), Magdeburger Ring (B71), Fuchsberg und Erich-Weinert-Straße wurde mit der Neugestaltung des Universitätsplatzes und dem dortigen Tunnel sowie der durchgehenden Verbreiterung des Schleinufers auf vier Fahrspuren leistungsfähiger ausgebaut. In den Jahren 2001–2003 wurden von Archäologen bei Forschungsgrabungen am Domplatz Reste eines Kirchenbaus aus dem 10. Jahrhundert freigelegt. Es wird vermutet, dass es sich dabei um den ersten Magdeburger Dom handelt. 2006 wurde nach dem Abriss des Ernst-Grube-Stadions das länderspieltaugliche Fußballstadion eröffnet. 2002 und 2007 erhielt die Stadt die Goldmedaille, in den Jahren 2003–2005 die Silbermedaille beim Bundeswettbewerb Unsere Stadt blüht auf. Am 23. September 2008 erhielt die Stadt den von der Bundesregierung verliehenen Titel „Ort der Vielfalt“. Im Jahr 2002 wurde Magdeburg vom Elbhochwasser mit einem Höchststand von 6,72 m stark getroffen, entging aber aufgrund des Elbe-Umflutkanals und des Pretziener Wehrs einer Katastrophe. Trotzdem gab es Schäden in Höhe von über 22 Millionen Euro. Hauptsächlich schwer traf es die Infrastrukturelemente, wie Brücken, Straßen oder Parks, aber auch private Gebäude und Unternehmen wurden schwer beschädigt. Bis zu 3400 freiwillige Hilfskräfte waren jeden Tag im Einsatz, 7200 kamen durch Hilfsorganisationen wie Feuerwehr oder Bundeswehr dazu. Außerdem gingen auf dem Spendenkonto der Stadt Magdeburg über 415.000 Euro ein. 2006 wurde Magdeburg erneut von einem Hochwasser getroffen, dieses lief jedoch etwas glimpflicher ab als 2002. Die alten Höchststände wurden zwar nicht übertroffen, jedoch bestand Gefahr durch den langgestreckten Hochwasserscheitel, der hohen Druck auf die Deiche ausübte. Das Hochwasser im Juni 2013 übertraf den Stand von 2002 mit einem am 9. Juni gemessenen Scheitel von 7,46 m deutlich. Es war über mehrere Tage Katastrophenalarm ausgerufen worden. Wie schon 2002 kam es zu Schäden. 1200. Stadtjubiläum. Mit zahlreichen Veranstaltungen, über das gesamte Jahr 2005 verteilt, wurde unter dem Motto "Magdeburg 12hundert" das Jubiläum der Stadt gefeiert. Zentrale Veranstaltung war der Festakt im Dom am 7. Mai 2005 mit der erstmaligen Verleihung des Kaiser-Otto-Preises der Stadt Magdeburg an Altbundespräsident Richard von Weizsäcker. Aus Anlass des Jubiläums fand im Mai eine "Magdeburger Himmelssinfonie" unter Leitung des Lichtkünstlers Gert Hof und "LuminArte – Italienische Lichtkunst" mit beleuchteten Skulpturen im Elbauenpark – dem Gelände der Bundesgartenschau von 1999 – statt. Im Juni war die amerikanische Rockband R.E.M. auf dem Domplatz zu Gast und ein internationales Figurentheaterfestival wurde gefeiert. Im Juli war Magdeburg Schauplatz des 9. Sachsen-Anhalt-Tages, bei dem bekannte Sänger, Imbissbuden und Jahrmarktattraktionen viele Menschen anlockten. Im August fand ein großer Zapfenstreich auf dem Domplatz statt. Im Herbst 2005 klangen die Feierlichkeiten zum Jubiläum mit dem Rathausfest und der Einweihung der Grünen Zitadelle von Magdeburg am 3. Oktober aus. Bevölkerungsentwicklung. Die Einwohnerzahl der Stadt Magdeburg stieg 1840 auf über 50.000 und verdoppelte sich bis 1880 auf 100.000, wodurch sie zur Großstadt wurde. 1940 erreichte die Bevölkerungszahl mit 346.600 ihren historischen Höchststand, in den Kriegsjahren wurden durch die Bombardierung der Stadt zwischen 2000 und 2500 Menschen getötet, viele mussten fliehen, bis die Stadt im April 1945 nunmehr rund 90.000 Einwohner hatte. Nach Kriegsende füllte sich die Stadt durch den Zuzug von Flüchtlingen schnell auf 225.000, ab 1950 bis 1988 stieg die Einwohnerzahl langsam und relativ stetig von 230.000 auf 290.000. Seit 1989 bis 2010 verlor die Stadt wiederum aufgrund von Abwanderung, Suburbanisierung und Geburtenrückgang rund 60.000 Einwohner und schrumpfte dadurch auf rund 230.000 Einwohner. Am 31. Dezember 2012 betrug die amtliche Einwohnerzahl von Magdeburg nach Fortschreibung des Statistischen Landesamtes Sachsen-Anhalt 232.660 (nur Hauptwohnsitze und nach Abgleich mit den anderen Landesämtern). Davon wohnen 114.384 Männer und 118.276 Frauen in der Landeshauptstadt. Davon sind 8312 Einwohner Ausländer, die meisten davon stammen aus den Nachfolgestaaten der Sowjetunion (Stand: Dezember 2012). Am 31. Dezember 2014 betrug die amtliche Einwohnerzahl der Stadt 234.858 (nur Hauptwohnsitze). Es wird mit einem weiteren Bevölkerungsgewinn in den nächsten Jahren gerechnet (neue Bevölkerungsprognose 2015 der Stadt Magdeburg). Religionen. a>, seit 1949 Hauptkirche des Erzbischöflichen Kommissariats Etwa 86 % der Einwohner sind konfessionslos. Neben den beiden „großen Kirchen“ (evangelisch: 8,8 %, römisch-katholisch: circa 4,3 %; Stand 2011) gibt es in Magdeburg auch mehrere Freikirchen (circa 0,6 %) und sonstige religiöse Gruppierungen, darunter eine islamische Gemeinde und zwei jüdische Gemeinden (circa 0,3 %). Diese setzen sich hauptsächlich aus Einwanderern aus der ehemaligen Sowjetunion zusammen und haben insgesamt etwa 850 Mitglieder. Dabei ist die Synagogen-Gemeinde zu Magdeburg mit circa 600 Gemeindegliedern eine der größten jüdischen Gemeinden Ostdeutschlands. Kirchengeschichte. Die Stadt Magdeburg gehörte anfangs zum Bistum Halberstadt. 937 wurde das St.-Moritz-Kloster in Magdeburg gegründet, das 962 in ein Domstift umgewandelt wurde. Damit wurde das Erzbistum Magdeburg gegründet. Eine zweite Urkunde zur Gründung des Erzbistums datiert von 968. Zum Erzbistum Magdeburg gehörten zunächst die Suffragane Merseburg, Zeitz-Naumburg, Meißen, Brandenburg und Havelberg, wobei Meißen im 15. Jahrhundert ausschied. In Magdeburg gründeten ferner die Bettelorden der Franziskaner (1223) und Dominikaner (1224) bedeutende Niederlassungen und Studien, die bis zur Einführung der Reformation bestand hatten. Evangelische Kirche. 1521 wurde in Magdeburg die erste protestantische Predigt gehalten. Drei Jahre später führte der Rat in der gesamten Stadt die Reformation ein. 1563 trat auch der Erzbischof zur lutherischen Lehre über und 1567 wurde im Dom die erste protestantische Predigt gehalten. Die wenigen in der Stadt verbliebenen Katholiken wurden vom Agnetenkloster in Neustadt versorgt. 1628 wurde dieses Kloster zu Unserer Lieben Frau in Magdeburg rekatholisiert. Ab 1685 ließen sich reformierte Hugenotten in der Stadt nieder, ab 1689 reformierte Pfälzer, so dass alsbald zwei reformierte Gemeinden entstanden, die auch eigene politische Gemeinden bildeten. Nach dem Übergang an Preußen und der Vereinigung von lutherischen und reformierten Gemeinden innerhalb Preußens zu einer einheitlichen Landeskirche (Unierte Kirche) 1817 gehörten die protestantischen Gemeinden Magdeburgs zur Evangelischen Kirche in Preußen beziehungsweise deren Untergliederung "Kirchenprovinz Sachsen", deren weltliches Oberhaupt der jeweilige König von Preußen als "summus episcopus" war, die geistliche Leitung hatten Generalsuperintendenten inne. Nach Wegfall des landesherrlichen Kirchenregiments 1918 änderte die Evangelische Kirche in Preußen 1922 ihre Kirchenordnung entsprechend und nannte sich dann Evangelische Kirche der altpreußischen Union, wobei die Kirchenprovinz Sachsen beibehalten wurde. 1947 wurde diese eine selbständige Landeskirche, die Evangelische Kirche der Kirchenprovinz Sachsen mit einem Bischof an der Spitze. Dessen Bischofskirche ist der Magdeburger Dom. Zum 1. Januar 2009 fusionierten die Evangelische Kirche der Kirchenprovinz Sachsen und die Evangelisch-Lutherische Kirche in Thüringen zur Evangelischen Kirche in Mitteldeutschland (EKM). Bischofssitz der EKM ist Magdeburg, wo am 29. August 2009 die erste Bischöfin in Ostdeutschland, Ilse Junkermann, das Amt übernahm. Die protestantischen Kirchengemeinden Magdeburgs gehörten bis 2008 – sofern es sich nicht um die Gemeinden der Selbständigen Evangelisch-Lutherischen Kirche oder der evangelischen Freikirchen handelt – zum Kirchenkreis Magdeburg innerhalb der Propstei Magdeburg-Halberstadt, deren Sitz sich ebenfalls in Magdeburg befand. Seit Bildung der EKM im Jahr 2009 gehört der Kirchenkreis Magdeburg zum Propstsprengel Stendal-Magdeburg mit Sitz in Stendal. Die evangelisch-reformierte Gemeinde der Stadt gehört dem Reformierten Kirchenkreis innerhalb der EKM an. Neben den Gemeinden innerhalb der EKM bestehen in Magdeburg mit den Baptisten, Methodisten und Siebenten-Tags-Adventisten auch mehrere evangelische Freikirchen. Römisch-Katholische Kirche. Im 19. Jahrhundert vermehrte sich erstmals nach der Reformation auch die Zahl der Katholiken. Sie gehörten ab 1821 zum Bistum beziehungsweise ab 1930 Erzbistum Paderborn. Nach dem Zweiten Weltkrieg wurde es für den Erzbischof immer schwerer, seine Amtsgeschäfte im Ostteil seines Erzbistums wahrzunehmen. Daher wurde in Magdeburg 1946 ein Generalvikar eingesetzt, der 1949 zum Weihbischof ernannt wurde. Durch die Neuordnung der katholischen Kirche in der DDR wurden die Gebiete 1972 formell abgetrennt und zum Bischöflichen Amt erhoben. Leiter dieses Amtes wurde ein dem Heiligen Stuhl direkt unterstellter Bischof mit dem Titel Apostolischer Administrator. Am 8. Juli 1994 wurde das bisherige Bischöfliche Amt Magdeburg zum Bistum erhoben und wieder der Erzdiözese Paderborn als Suffraganbistum unterstellt. Die Pfarrgemeinden Magdeburgs gehören somit zum Dekanat Magdeburg innerhalb des gleichnamigen Bistums. Zeugen Jehovas. In der Geschichte der Zeugen Jehovas in Deutschland spielt Magdeburg eine besondere Rolle. In den Jahren 1923 bis zur Zerschlagung durch die Nationalsozialisten im Jahre 1933 befand sich das deutsche Zweigbüro der Religionsgemeinschaft im heutigen Emanuel-Larisch-Weg (seinerzeit "Wachtturm Straße"). Nach dem Krieg wurden die Aktivitäten wieder aufgenommen, die allerdings im Jahr 1950 wiederum verboten wurden. 1993 erhielt die Wachtturm-Gesellschaft einen Großteil ihres damaligen Eigentums zurück erstattet. Heute gibt es in Magdeburg 4 Gemeinden, die zwei Königreichssäle betreiben. Politik. An der Spitze der Stadt stand in Zeiten des Erzbistums Magdeburg ein vom Erzbischof eingesetzter Schultheiß. Daneben bestand das „Burding“, das Organ der Bürgergemeinde ohne besondere Befugnisse. Ab 1244 bestand ein Rat, der ab 1294 auch das Schultheißenamt erwerben konnte. In der Folgezeit konnte der Rat immer mehr Befugnisse an sich ziehen und die Stadt sich damit immer mehr vom Erzbistum lösen, ohne jemals vollständig frei zu werden. Das Bürgermeisteramt gab es erstmals 1302. Im 15. Jahrhundert gab es einen regierenden Rat, einen alten Rat und einen oberalten Rat. Nach der Belagerung der Stadt durch Tilly im Jahr 1629 wurde die Verfassung geändert. Neben dem Rat gab es zwei Bürgermeister, später vier und ab 1683 in brandenburg-preußischer Zeit hatte der Rat drei Bürgermeister, über denen ein Stadtpräsident stand. Dieses Amt wurde 1743 wieder eingezogen. Ab 1815 wurde die preußische Städteordnung eingeführt. Danach standen an der Spitze der Verwaltung ein Oberbürgermeister und ein Bürgermeister als Vertreter. Daneben gab es die Stadtverordneten als gewähltes Gremium (später Stadtverordnetenversammlung). 1831 wurde die Verwaltung neu organisiert. Während der Zeit des Nationalsozialismus wurde der Oberbürgermeister von der NSDAP eingesetzt. Nach dem Zusammenbruch des Dritten Reiches übernahmen zunächst die Besatzungstruppen die Ordnung in den deutschen Städten und Gemeinden. Magdeburg war zunächst sowohl von amerikanischen (im Westteil) als auch von sowjetischen Truppen (östlich der Elbe) besetzt. Die Amerikaner veranlassten im Mai 1945 die Neubildung des Magistrats und setzten den Sozialdemokraten Otto Baer als Bürgermeister ein. Obwohl die sowjetischen Besatzungstruppen in ihrem Teil Magdeburgs den parteilosen Trumpa als provisorischen Bürgermeister berufen hatten, bestätigten sie nach dem Abzug der Amerikaner Otto Baer als Bürgermeister für ganz Magdeburg. Am 8. September 1946 wurden nach einer Verordnung der Provinzialregierung Wahlen zu den Gemeindeparlamenten in Sachsen-Anhalt durchgeführt. Die SED errang bei den Wahlen zum Magdeburger Stadtparlament mit 51,3 % die absolute Mehrheit. Als neuer Bürgermeister wurde Rudolf Eberhard (SED) von den Stadtverordneten gewählt, der jedoch 1950 wegen „politischer Unzuverlässigkeit“ wieder abgesetzt und durch Philipp Daub ersetzt wurde. Die ersten Wahlen für ein Magdeburger Stadtparlament nach den Jahren der Nazi- und SED-Herrschaft fanden am 6. Mai 1990 statt: Die SPD wurde mit 32,98 % stärkste Fraktion im Stadtrat. Im selben Jahr wählte der Stadtrat Wilhelm Polte zum ersten Oberbürgermeister nach der Wende. Seit 1993 wird der Oberbürgermeister direkt gewählt. 2001 wurde Lutz Trümper (SPD) zum Nachfolger von Polte gewählt. Die Amtszeit des Oberbürgermeisters beträgt sieben Jahre. Trümper wurde 2008 mit 64,0 % im ersten Wahlgang für eine weitere Amtszeit wiedergewählt. Stadtrat. "CDU", "FDP" und der "Bund für Magdeburg" bilden eine gemeinsame Fraktion (17 Mitglieder), ebenso "DIE LINKE." und die "Gartenpartei" (14 Mitglieder); weitere Fraktionen sind "SPD" (13 Mitglieder) und "GRÜNE" (6 Mitglieder). Die "AfD"-Fraktion löste sich bereits im August 2014 wieder auf. Seitdem gibt es 6 fraktionslose Stadtratsmitglieder (3 AfD, 1 Tierschutzpartei, 1 future!, 1 ex-SPD). → "Ergebnisse der Kommunalwahlen in Magdeburg" Oberbürgermeister seit 1808. Vorsitzende der Stadtverordnetenversammlung / des Stadtrates Wappen, Flagge und Dienstsiegel. Blasonierung: „In Silber eine gezinnte rote, schwarz gefugte Burg mit zwei spitzbedachten Türmen, geöffnetem goldenen Tor und hochgezogenem schwarzen Fallgitter; zwischen den Türmen wachsend eine grün gekleidete Jungfrau (Magd), in der erhobenen Rechten einen grünen Kranz emporhaltend.“ Das Magdeburger Stadtwappen ist ein so genanntes redendes Wappen – Jungfrau (Mägdelein) und Burg weisen auf den Namen der Stadt hin. Bereits die Magdeburger Bürgerschaft führte seit Mitte des 13. Jahrhunderts in ihrem Siegel beide Komponenten. Damals stand die Frauenfigur noch mit halbhoch erhobenen Armen. Als Zeichen einer Jungfrau trug sie über den Armen Tücher und das Haar offen. Erst später gab man der Jungfrau zum Zeichen ihrer Reinheit einen Kranz in die Hand. Die Farben der Stadt sind grün-rot (§ 2 Abs. 2 der Hauptsatzung). Interessant ist, dass Magdeburg zwar ein rechtsgültiges, aber kein genehmigtes Wappen führt. Das seit 1938 genutzte Wappenbild, das in seiner Grafik von klassischen Vorgängern abwich, wurde 1994 innerhalb eines Genehmigungsverfahrens geprüft und aufgrund seiner aktuellen Grafik (Disproportion zwischen Türmen und Jungfrau) als heraldisch mangelhaft bewertet. Das Landeshauptarchiv (LHASA) bescheinigte: Die Burg ist zu klein, die Jungfrau zu groß, zu viel weißer Leerraum, was den Regeln der Wappenkunst widerspricht. Das Genehmigungsverfahren wurde indes umgangen, indem die Landesregierung der Stadt bescheinigte, dass sie ein Wappen führe – das heißt, das Wappen ist geduldet statt genehmigt, was nach damaliger Rechtsgrundlage ein positives Gutachten des LHASA vorausgesetzt hätte. Die Stadtflagge ist grün-rot (1:1) gestreift und mittig mit dem Stadtwappen belegt. (§ 2 Abs. 3 der Hauptsatzung) Das Dienstsiegel zeigt die bildliche Darstellung des Wappens. Die Umschrift wird durch die Dienstsiegelordnung der Stadt bestimmt (§ 2 Abs. 4 der Hauptsatzung). Städtepartnerschaften. Magdeburg unterhält freundschaftliche Kontakte mit zahlreichen Städten auf der Welt, so auch durch Vereine. Im September 1977 wurde eine Städtepartnerschaft mit Sarajevo (Bosnien und Herzegowina) eingegangen. Dort half Magdeburg nach Beendigung des Bosnienkrieges beim Wiederaufbau der Stadt. Braunschweig folgte als weitere Partnerstadt im Dezember 1987. Die niedersächsische Stadt unterstützte nach der Wiedervereinigung die Stadt Magdeburg beim Aufbau einer kommunalen Selbstverwaltung. Die Beziehungen zu Nashville waren bereits seit 1998 aufgebaut worden. Nachdem der Magdeburger Stadtrat am 13. März 2008 die Städtepartnerschaft mit Saporischschja beschlossen hatte, wurde diese Partnerschaft am 29. Mai 2008 vertraglich besiegelt. Kontakte, insbesondere auf wirtschaftlichem Gebiet, gab es bereits in den Jahren zuvor. Seit 8. Juni 2008 besteht außerdem eine Städtepartnerschaft mit der polnischen Stadt Radom, seit 2. Juli 2008 mit dem chinesischen Harbin und seit Mai 2011 mit der Stadt Le Havre in Frankreich. Bis 1996 bestanden darüber hinaus Partnerschaftsverträge mit Donezk (Ukraine, seit 1962), Kayes (Mali, seit 1966), Hradec Králové/"Königgrätz" (Tschechien, seit 1972), Setúbal (Portugal, seit 1976), Lüttich (Belgien, seit 1978), Valencia (Spanien, seit 1981), Turin (Italien, seit 1983) und Nagasaki (Japan, seit 1987). Seinerzeit beschloss der Stadtrat jedoch, diese Partnerschaftsverträge zu lösen. Stadtkampagne. Seit Februar 2010 vermarktet sich die Stadt Magdeburg gegenüber Touristen und Investoren unter der Kampagne „Ottostadt Magdeburg“. Weiterhin soll die Kampagne die Identifikation der Magdeburger Bürger mit dem Wohnort fördern. Die Kampagne betont die beiden Ottos aus der Geschichte Magdeburgs, die die Stadt berühmt machten. Dies ist zum einen Kaiser Otto der Große, der seine Lieblingspfalz Magdeburg zur Hauptstadt machte und von dort aus das Heilige Römische Reich regierte, zum anderen Otto von Guericke, Magdeburger Bürgermeister, Politiker und Erfinder (Barometer, Vakuumstechnik) im 17. Jahrhundert. Geworben wird innerhalb der Kampagne unter anderem durch Plakatierung von kurzen Sätzen, in denen beschrieben wird, was „Otto“ machte, tat oder war, zum Beispiel „otto ist olympisch“ oder „otto hat geschichte“. 2011 wurde ein „Otto-Treffen“ durchgeführt, zu dem über 400 Personen mit dem Vor- oder Nachnamen Otto kamen. Höhepunkt des Treffens war ein Luftbild im Elbauenpark, in dem sich alle Namensträger zum Schriftzug ’’Otto’’ formieren sollten. Die Dachkampagne stieß jedoch auch auf Gegner, die finden, dass man die vielfältige Geschichte der Stadt nicht nur auf die beiden Ottos reduzieren kann. „Alles Otto“ passe nicht in jeden Bereich, wird aber trotzdem in Politik, Musik, Wirtschaft, Sport und einigem mehr verwendet. Ein weiterer Kritikpunkt ist, dass man „Otto“ zuerst mit anderen Unternehmen oder Personen assoziiert statt mit Kaiser Otto oder Otto von Guericke. Außerdem seien die Ausgaben für die Kampagne zu hoch gewesen und nicht genug Subaufträge an Magdeburger Firmen verteilt worden. 2013 wurde die Kampagne in Berlin zur "Stadtmarke des Jahres 2013" ausgezeichnet. Gelobt wurde die Verbindung des Slogans zu Wissenschaft und Geschichte. Im Finale setzte sich Magdeburg gegen die beiden Mitbewerber Basel und Hildesheim durch. Kultur und Sehenswürdigkeiten. Das Elbufer der Altstadt bei Nacht Aufgrund der schweren Zerstörungen 1631 im Dreißigjährigen Krieg und 1944/45 im Zweiten Weltkrieg besitzt Magdeburg im althergebrachten Sinne weniger historische Sehenswürdigkeiten als vergleichbare Städte. Viele Gebäude der Stadtgeschichte, Architektur, Kunst und Kultur wurden vernichtet. Nur durch viel Aufwand an finanziellen Mitteln und Material konnten Bau- und Kunstdenkmale wiederhergestellt werden, darunter das Rathaus, der Magdeburger Reiter, der Dom oder das Kloster Unser Lieben Frauen. Systematisch fanden in und um Magdeburg viele Ausgrabungen statt, die zahlreiche Funde hervorbrachten. Somit konnten Kenntnisse über Magdeburgs Entwicklung ergänzt werden und sehenswert dargestellt werden. Die bedeutendsten Sehenswürdigkeiten der Stadt befinden sich im Gebiet der Altstadt, abgegrenzt vom Universitätsplatz, dem Askanischen Platz, der Elbe (Schleinufer), der Otto-von-Guericke-Straße über den Hasselbachplatz und die Planckstraße. Die in Magdeburg bestehenden Kulturdenkmale sind im Denkmalverzeichnis der Stadt aufgeführt. Sakralbauten. Die Stadt besaß seit dem Mittelalter eine Silhouette mit sieben Doppelturmkirchen, einmalig in Europa. Dieses Bild ging durch die Bombardierung im Zweiten Weltkrieg verloren, von den sieben Turmpaaren sind nur noch vier erhalten. Heute gibt es im Bereich des mittelalterlichen Magdeburg insgesamt sieben Kirchengebäude, von denen vier noch kirchlich genutzt werden. Vier der sieben, nämlich Unser Lieben Frauen, St. Petri und St. Sebastian, sind in die Straße der Romanik eingebunden. Fünf der sieben erhaltenen Kirchen werden noch oder wieder kirchlich genutzt. Festungsanlagen. Die ersten Befestigungsanlagen der Stadt lassen sich auf das 12. oder 13. Jahrhundert zurückverfolgen. Zu dieser Zeit besaß Magdeburg eine sie umgebende Stadtmauer, die sich im Bereich der nördlichen Altstadt zwischen dem Krökentor, der Otto-von-Guericke Straße und des Domes befand. In den Jahren 1500 bis 1550 wurde die Festung durch Rondelle und Bastionen verstärkt, die Stadtmauer bekam Festungstürme, wovon einige noch erhalten sind. Die Festung Magdeburg wurde 1631 fast vollständig zerstört, verlor ihre Eigenständigkeit und ging 1666 über zur brandenburgischen Garnison. Bis 1740 wurden die Festungsanlagen immer mehr ausgebaut, erweitert und verstärkt. Auf Befehl Friedrichs II. wurde Magdeburg ab 1740 nicht weiter ausgebaut und instand gehalten, weswegen die Waffen veralteten und man 1806 gezwungen war, die Stadt der Übermacht des napoleonischen Heeres zu überlassen. Jedoch wurde die Festung nach nur dreiwöchiger Belagerung wieder aufgegeben. Erst 1812 und 1813 verstärkten die Franzosen die Festung wieder. 1814 fiel die Festung nach den Befreiungskriegen wieder in preußischen Besitz. Durch den Bau der Eisenbahnstrecke Magdeburg – Leipzig wurden 1838 die Tore der Mauern eingelassen. Durch darauf auftretende Anfälligkeiten wurden 1860 rund um die Festung 13 Außenforts angelegt, denen 1890 sechs Zwischenwerke hinzugefügt wurden. Obwohl sie vom Anfang des 18. Jahrhunderts an als eine der stärksten Festungen Preußens zählte, wurde sie 1912 durch Wirkungslosigkeit aufgehoben. Profanbauten und weitere Bauwerke. Magdeburg besitzt neben den zahlreichen Sakral- und Festungsbauten viele weitere sehenswerte Bauwerke. Die Grüne Zitadelle von Magdeburg gehört mit zu den interessantesten und ist das letzte Architekturprojekt Friedensreich Hundertwassers. Sie wurde 2005 im Breiten Weg in der Nähe des Domes fertiggestellt, weswegen der Bau nicht unumstritten war. Im Inneren beherbergt es ein Hotel, Mietwohnungen, Geschäfte, Restaurants und Cafes. Außerdem existiert ein Theater in der grünen Zitadelle. Eines der imposantesten und größten Verkehrsbauwerke Europas ist das Wasserstraßenkreuz Magdeburg. Nach den ersten Vorstellungen eines solchen Bauwerks im Jahr 1877 kam es über 100 Jahre später, am 10. Oktober 2003, zur Fertigstellung dieses Bauwerks. Zum Wasserstraßenkreuz gehören die wichtige Nord-Süd-Verbindung Elbe und die ebenso wichtige Ost-West-Verbindung bestehend aus Mittellandkanal und Elbe-Havel-Kanal. Weitere Bestandteile des Bauwerks sind die über fast 1 km lange Trogbrücke, die den Mittellandkanal über die Elbe führt, die Sparschleuse Rothensee, die Schleuse Niegripp und die Schleuse Hohenwarthe. Ministerium für Inneres und Sport Staatskanzlei im "Palais am Fürstenwall" Das Alte Rathaus Magdeburg mit dem Ratskeller, erbaut 1691–1698 und somit der bedeutendste Gebäudebau dieses Jahrhunderts, und das „Neue Rathaus“ bilden die östliche Begrenzung des Alten Markts. Im Dezember des Jahres 1906 eröffnete das Kaiser-Friedrich-Museum, das heutige Kulturhistorische Museum. Das Gebäude wurde im Zweiten Weltkrieg enorm zerstört und verlor beim Wiederaufbau seinen charakteristischen, großen Turm an der Ecke des Gebäudes. Im Stil des Historismus wurde von 1900 bis 1906 das Landgericht Magdeburg erbaut (damals Justizpalast). 1945 wurde das prachtvolle Gebäude schwer beschädigt und konnte 2001 erst wieder restauriert werden. Jedoch wurde der zerstörte Teil des Gebäudes durch einen modernen Bau ersetzt. Das viergeschossige Gebäude des Justizzentrums Eike von Repgow wurde von 1895 bis 1899 erbaut und ist ebenfalls im Stil des Historismus in Anlehnung an den Stil der niederländischen Spätgotik und Renaissance errichtet worden. Der heutige Sitz des Ministeriums des Innern wurde 1913 als repräsentatives Polizeipräsidium errichtet und noch bis in die 1990er Jahre als solches benutzt. Außerdem gab es bis in die 1960er Jahre dort ein Polizeigefängnis. Der Bau besitzt zahlreiche architektonische Stilmittel im neobarocken Stil. Das "Palais am Fürstenwall" wurde 1889–1893 durch den Architekten Paul Ochs für das Generalkommando des IV. Armee-Korps gebaut. Heute ist das Gebäude die Staatskanzlei und Sitz der Landesregierung Sachsen-Anhalt. Das "Haus des Handwerks" aus dem Jahr 1901, ehemals ein mit vielen Skulpturen bestückter Sandsteinbau, welcher 1945 durch einen Luftangriff seine repräsentative Form verlor, stand nach der Wende lange Zeit leer. 2012 wurde es für neun Millionen Euro restauriert und wird wieder neu als Dienstsitz der Handwerkskammer Magdeburg genutzt. Außerdem existiert ein Restaurant im Gebäude, welches zum einen die deutsche Küche anbietet und zum anderen exquisite internationale Küche. Der Kristall-Palast Magdeburg aus dem Jahr 1889 war ehemals ein großes Konzert- und Ballhaus. 1986 musste es jedoch baupolizeilich gesperrt werden, da sich das Gebäude in einem mangelhaften Zustand befand. Heute ist es dem Verfall oder Abriss preisgegeben. Trotzdem gründete sich ein Verein, der für den Erhalt und die Sanierung des geschichtsträchtigen Gebäudes kämpft. Im Jahr 1885 wurde das schlossähnliche Gutshaus Schloss Randau im klassizistischen Stil erbaut. Anfang der 1990er Jahre sollte es für Bildungszwecke genutzt werden, was aber durch Insolvenz des Investors fehlschlug. Heute steht es leer, da sich kein Investor finden ließ. 1884 wurde das Jugendstilhaus nahe dem Alten Markt von der Freimaurerloge „Ferdinand zur Glückseligkeit“ errichtet. Als Stadtbibliothek wurde es von 1934 bis 1998 genutzt und ist eines der wenigen Jugendstilbauten in Magdeburg. Ein weiteres geschichtsträchtiges Gebäude ist das von Karl Friedrich Schinkel erbaute, 2005 wiedereröffnete Gesellschaftshaus im Klosterbergegarten. Es ist mit seinen großen und kleinen Sälen ein Veranstaltungsort für Konzerte, Ausstellungen, Konferenzen und vieles mehr. Der Jahrtausendturm im Elbauenpark wurde zur 25. Bundesgartenschau 1999 errichtet und ist mit 60 Metern Höhe das höchste Leimholzgebäude der Welt. Im Inneren des Turms ist ein Museum beherbergt, das die Geschichte der Wissenschaft mit anschaulichen Experimenten zeigt. Die 1969 erbaute Hyparschale war einst eine Mehrzweckhalle im Stadtpark Rotehorn und ein architektonischer Vorzeigebau der Stadt. Die Besonderheit dieses Baus ist, dass die Konstruktion selbsttragend ist. Heute steht das Gebäude jedoch leer, es gibt aber Bemühungen das Gebäude wieder mit Leben zu füllen. Gewünscht sind Nutzungen, die in das Konzept des Stadtparks passen, also Sport, Freizeit und Familie. Ein ebenfalls markanter Bau ist das Verwaltungsgebäude der Enercon auf dem Gelände der Enercon-Betriebsstätte Rothensee. Das 2006 fertiggestellte Gebäude ist in Form der typischen Enercon-Welle gebaut worden. Denkmäler und Skulpturen. „Der Fährmann“ und Szenen der Stadtgeschichte Die Stadt besitzt eine Vielzahl an Denkmälern, doch anders als in anderen Städten findet man in Magdeburg viele der Plastiken und Skulpturen in der Innenstadt. Als Erstes zu nennen wäre der Magdeburger Reiter, um 1240 aufgestellt, welcher als das erste freistehende Reiterstandbild nördlich der Alpen gilt und von dem sogar eine Playmobilfigur in limitierter Auflage hergestellt wurde. Das Original steht im Kulturhistorischen Museum Magdeburg, auf dem Alten Markt steht ein Nachbau. Dargestellt wird wahrscheinlich Kaiser Otto I. Ebenfalls auf dem Alten Markt steht der Magdeburger Roland, an dessen Rückseite sich eine kleine Figur von Till Eulenspiegel befindet. Er wurde 2005 neu am Eingang zum Ratskeller aufgestellt. 2012 wurde das historische Dreigestirn am Alten Markt durch die Wiederaufstellung der Hirschsäule komplettiert. Symbolisieren sollen der Magdeburger Reiter die Tributpflicht des Kaisers, der Roland das Streben der Stadt nach Unabhängigkeit und der Hirsch verkörpert die Verheißung des Paradieses. Zwischen Altem und Neuen Rathaus befindet sich das Denkmal für Otto von Guericke aus dem Jahr 1907. Zu den markantesten Skulpturen gehört der „Zeitzähler“ auf dem Stadtplatz an der Elbe. Es ist eine große Kugel, versehen mit vielen Uhren, die die Uhrzeiten der weltweit größten Flüsse anzeigen. Die aktuelle Zeit wird angegeben durch eine auf der Kugel sitzende Figur. Die Figurentreppe „Telemann und die vier Temperamente“ wurde 1981 neben dem Kloster Unser Lieben Frauen aufgestellt und zeigt den Magdeburger Komponisten Georg Philipp Telemann, der umgeben von vier Frauenfiguren ist, welche die Temperamente zeigen. Für den Erfinder des Buchdrucks Johann Gutenberg wurde 1901 nördlich des Universitätsplatzes ein Gutenberg-Denkmal geschaffen. In der Harnackstraße steht ein Denkmal für General von Steuben, der im Amerikanischen Unabhängigkeitskrieg eine große Rolle spielte. Das Lutherdenkmal steht vor der Sankt-Johannis-Kirche, welches daran erinnern soll, dass er am 26. Juni 1524 in dieser Kirche vor einer großen Menschenmenge predigte. Eine bewegte Geschichte hat das Luisendenkmal für Königin Luise von Preußen. 1963 wurde es vom Sockel gestürzt, die Statue verschwand danach in einer Fundamentgrube eines Wohnheims. Erst seit 2009 steht sie wieder am ursprünglichen Ort, dem Geschwister-Scholl-Park. Ein entsprechendes früher vorhandenes Denkmal der populären Preußenkönigin war zu DDR-Zeiten in den 1960er Jahren geschleift worden. Weitere Denkmäler wären zum Beispiel das „Lazare Carnot-Denkmal“ im Nordpark, das „August Wilhelm Francke-Denkmal“ ebenfalls im Nordpark, das „Mechthild von Magdeburg-Denkmal“ am Fürstenwall oder das Kozlowski-Denkmal. Denkmäler und Skulpturen in der Stadt laden zu einem Rundgang zur Kunst im öffentlichen Raum Magdeburg. Im nördlichen Bereich der Elbuferpromenade befindet sich die Plastik "Der Fährmann". Sie zeigt einerseits einen Fährmann, zum anderen Szenen der Magdeburger Stadtgeschichte. Der Skulpturenpark Magdeburg entstand 1989 und beschränkte sich zunächst auf das Umfeld des Klosters Unser Lieben Frauen. Heute stehen auch nördlich des Hundertwasserhauses, am Ufer der Elbe, im Bereich des Elbebahnhofs bis zur Hubbrücke Magdeburg und im Bereich nördlich der Klosteranlage Skulpturen. Insgesamt sind 40 Arbeiten verschiedener Künstler und Künstlerinnen aufgestellt. Friedhofsanlagen. Insgesamt besitzt Magdeburg 16 Friedhöfe, von denen nur noch auf 14 Bestattungen stattfinden. Der größte Friedhof Magdeburgs ist der Westfriedhof an der Großen Diesdorfer Straße. Seine Fläche beträgt 62,5 ha. 1898 wurde er nach zweijähriger Bauzeit eröffnet, die Kapelle wurde im neogotischen Stil errichtet. Er beinhaltet auch mehrere Gedenkstätten, unter anderem für italienische Militärinternierte. Das Feld der Vereinten Nationen im Stadtteil Westerhüsen ist eine Grabanlage und Gedenkstätte für Opfer des Nationalsozialismus. Einst ein Teil des Friedhofs Westerhüsen, wurde 1941 ein 1500 m² großes Stück abgetrennt und als Ausländerfriedhof genutzt. Nach Ende des Zweiten Weltkriegs wurde das Gelände oft neu gestaltet. Vermutlich liegen dort 766 Menschen aus 11 Nationen begraben. Plätze und Straßen. Der wohl bekannteste Platz in Magdeburg ist der Hasselbachplatz, der neben dem Damaschkeplatz auch einen zentralen Verbindungsknoten im Nahverkehr darstellt. Der Platz hat sich in den letzten Jahren mit seinen vielen Bars, Kneipen und Restaurants zum Zentrum des Magdeburger Nachtlebens entwickelt. Außerdem ist er für den hohen Anteil an gut erhaltenen Gründerzeithäusern bekannt. Der Universitätsplatz zählt in Magdeburg zu den meistfrequentierten Plätzen. Ursprünglich war es ein prachtvoller Platz mit vielen imposanten Bauten, welche im Zweiten Weltkrieg jedoch fast komplett zerstört wurden. Heute befinden sich das Opernhaus, die Universität, die Stadtbibliothek und weitere Bürogebäude am Universitätsplatz. Neben der Telekom befinden sich die Büros der IBM und der IT-Dienstleistungsfirma DATEV dort. Der Platz wird seit 2006 von einem Tunnel für den Straßenverkehr der B 1 unterführt. Magdeburgs größte Grünfläche in der Innenstadt ist der Ulrichsplatz, in dessen nordwestlichen Teil früher die Ulrich- und Levin-Kirche stand. Die im Zweiten Weltkrieg beschädigte Kirche wurde in der Zeit der DDR abgerissen. Heute ist der Platz ein Erholungsort und bekannt für seinen markanten Springbrunnen. Umgeben ist der Platz von Bauten im sozialistischen Klassizismus und vom modernen Ulrichshaus. Elbuferpromenade „Petri“ mit der Plastik „Arbeiterfahne“ und restauriertem Pegelhaus zum Elbhochwasser 2013 An der Elbuferpromenade befindet sich der Platz der Arbeiterfahne mit Wasserspiel und restauriertem Pegelhaus, welches den aktuellen Stand der Elbe anzeigt. Der Platz wird umgangssprachlich auch „Petri“ genannt und ist immer wieder Treffpunkt für viele Jugendliche. An der Stelle des ehemaligen Elbbahnhofs befindet sich heute im Zentrum des neu geschaffenen Stadtviertels der Stadtplatz. Markante Bauwerke sind die große Hubbrücke, der Elbbalkon und der "Zeitreisende". Auf dem Alten Markt mit dem Rathaus und seinem „Dreigestirn“ bestehend aus Magdeburger Reiter, Rolandfigur und Hirschsäule finden neben Wochenmärkten auch andere große Veranstaltungen wie dem Europafest oder Magdeburger Weihnachtsmarkt statt. Der größte Platz der Innenstadt, der Domplatz, beherbergt neben dem Magdeburger Dom als Wahrzeichen Magdeburgs auch prunkvolle Barockbauten und moderne Bauten und ist der älteste Siedlungskern der Stadt. Unter den wichtigsten Gebäuden befindet sich der Landtag, das Ministerium der Justiz und Gleichstellung und der Sitz der Norddeutschen Landesbank. Durch die eher wirtschaftliche und politische Prägung des Domplatzes befinden sich eher weniger Cafes, Restaurants und Geschäfte in dessen direkter Umgebung, weswegen er eher von Besuchern des Doms frequentiert wird. Weitere wichtige Plätze Magdeburgs sind unter anderem der Nicolaiplatz mit der Nicolaikirche, der Neustädter Platz mit dem Märchenbrunnen, der Schellheimerplatz, welcher umgeben ist von vielen Gründerzeithäusern oder der Thiemplatz als kulturelles Zentrum Buckaus. Magdeburgs bekannteste Straße, der Breite Weg, war einst eine der längsten und schönsten Barockstraßen Europas sowie Heer- und Handelsstraße, wurde aber im Zweiten Weltkrieg fast komplett zerstört. Nur die barocken Bauten mit den Straßennummern 178 und 179 blieben von den Bomben verschont. Inzwischen ist sie eine der größten Einkaufsmeilen der Stadt und eher geprägt von modernen Bauten wie dem Allee-Center und der Grünen Zitadelle. Der Breite Weg verbindet zwei der wichtigsten Plätze in Magdeburg, den Universitätsplatz mit dem Hasselbachplatz und ist am Nordabschnitt eine Fußgängerzone. Die Hegelstraße nahe dem Dom entstand in der Gründerzeit nach Pariser Vorbild. Sie beherbergt Prachtbauten wie das Palais am Fürstenwall, seit 1990 Sitz der Staatskanzlei und des Ministerpräsidenten von Sachsen-Anhalt, und ist eine der wenigen Straßen in Magdeburg, die komplett gepflastert sind. Die Leiterstraße, Magdeburgs kleinste Fußgängerzone und einst wichtige Geschäftsstraße, gehört zu den ältesten Straßenzügen der Stadt. Sie wurde im Zweiten Weltkrieg komplett zerstört. Heute beherbergt sie Restaurants, das Kabarett Magdeburger Zwickmühle und die Jugendherberge der Stadt. Die bunte Otto-Richter-Straße im Stadtteil Sudenburg wurde 2004 mit dem Deutschen Fassadenpreis ausgezeichnet. Initiator dieser Straßengestaltung ist der Architekt Bruno Taut, der in den 1920er Jahren zu Magdeburgs Stadtbaurat gewählt wurde. Seine Aufgabe war es, Magdeburg in eine bunte Stadt zu verwandeln. Bekannte Künstler wie Carl Krayl gestalteten viele Häuser und Straßen. Durch die Zerstörungen im Zweiten Weltkrieg blieben nicht viele dieser bunten Straßenzüge erhalten. Nur noch die wieder restaurierte Otto-Richter-Straße ist das letzte Überbleibsel dieser Architektur. Wichtige Verkehrsadern der Stadt sind der in den 1970ern als Hochstraße gebaute Magdeburger Ring und die Stadtdurchquerung B 1. Brunnen. Magdeburg beherbergt eine Vielzahl an Brunnen, einer der monumentalsten ist der Hasselbachbrunnen auf dem Haydnplatz. Bis 1927 stand er auf dem Hasselbachplatz, musste dort aber aus verkehrstechnischen Gründen weichen. Der Eulenspiegelbrunnen auf dem Alten Markt wurde 1970 dort aufgestellt und zeigt Till Eulenspiegel, wie er auf einer Säule über dem Magdeburger Volk steht und dieses verspottet. 1939 gebaut wurde der Eisenbarthbrunnen, der Johann Andreas Eisenbarth („Doktor Eisenbarth“) zeigt. Ähnlich wie Eulenspiegel steht Eisenbarth auf einer Säule, nur in Marktschreierpose. Auf dem Ulrichsplatz steht einer der größten Springbrunnen als Abschluss der Wiesenanlage. Ganz in der Nähe, in der Leiterstraße, erstmals 1263 erwähnt und somit eine der ältesten Geschäftsstraßen Magdeburgs, befindet sich der Faunbrunnen, auch genannt „Teufelsbrunnen“. In und an einem großen Bronzekessel tummeln sich Figuren, darunter Menschen, Tiere, aber auch Faunen, Sirenen und andere Wesen. Ebenfalls beliebt ist das Wasserspiel am Petriförder an der Arbeiterfahne. Aus fünf Fontänen spritzt Wasser auf einen flussartigen Wasserlauf, der sich durch den Platz schlängelt. Der Immermannbrunnen ehrt den Magdeburger Dramatiker und Schriftsteller Karl Immermann. Auf dem Brunnen sind Szenen aus seinen Werken abgebildet, aus einem Fischkopf fließt Wasser heraus. Im Nordabschnitt des Breiten Weges stehen einige Brunnen aus DDR-Zeiten, zum Beispiel ein Kugelbrunnen, drei Schalenbrunnen, der Brunnen „Die Badende“ und ein Trinkbrunnen. In Olvenstedt wurde ein Brunnen aufgebaut, der aus einer tonnenschweren Kugel besteht, die auf einem dünnen Wasserfilm schwimmt und sich deshalb bewegen lässt. Einer der markantesten Brunnen ist der Märchenbrunnen auf dem Neustädter Platz, der an russische Märchen und an die Form von russischen Basiliken erinnern soll. Im Verlauf der Umgestaltung des Domplatzes wurden 2013 die neuen Licht- und Wasserspiele feierlich eingeweiht. Sie bestehen insgesamt aus 66 Fontänendüsen und 33 Nebeldüsen, die aus dem Boden austreten und das Wasser bogenförmlich in die Luft spritzen. Magdeburg besitzt ein Notbrunnensystem, das aus nach historischem Vorbild gestalteten Schwengelpumpen an verschiedenen Stellen in der Stadt besteht. Brücken. Durch die Elbe ist Magdeburg in zwei große Stadtgebiete geteilt, wobei sich die Stadt eher in Richtung Westen ausbreitet. Zwischen den Stadtgebieten befindet sich die Marieninsel, auf der sich unter anderem der Rotehornstadtpark befindet. Dadurch sind im Laufe der Zeit Brücken ein wichtiger Bestandteil der Stadt geworden. Insgesamt zählt Magdeburg 135 Brückenbauten, darunter 103 Straßenbrücken und 32 Fußgängerbrücken. (Stand 2009) Magdeburgs älteste Steinbrücken aus dem Jahr 1882, die Zollbrücke mit ihren vier allegorischen Figuren, die 2006/2007 umfassend saniert wurde und die Anna-Ebert-Brücke, an deren Ende ein wappentragender Steinlöwe thront, sind die östliche Verlängerung der Neuen Strombrücke, die aus dem Jahr 1965 stammt, aber nicht wie ihre Vorgänger mit Bögen errichtet wurde. Da die beiden historischen Brückenbauten in einem maroden Zustand sind, soll in den nächsten Jahren im Anschluss an die Strombrücke eine Schrägseilbrücke mit einem Pylon am Westufer der Alten Elbe gebaut werden. Der nördliche Brückenzug besteht aus den westlich gelegenen, fast parallel zueinander stehenden Jerusalembrücken, wovon eine Brücke eine Bogenbrücke aus dem Jahr 1952 und die andere eine Stabbogenbrücke aus dem Jahr 1996 ist, und den Brücken des Friedens, die ebenfalls aus zwei Brückenbauwerken bestehen, die südliche ist eine Stahlverbundbalkenbrücke aus dem Jahr 1997, die nördliche eine Spannbetonbalkenbrücke aus dem Jahr 1996. Für den Autoverkehr ist das Überqueren der Elbe im Stadtgebiet nur über den Nordbrückenzug oder den Strombrückenzug möglich. Stillgelegte Hubbrücke und Elbtreppen bei Nacht Die Sternbrücke im Süden Magdeburgs verbindet die Altstadt mit der Elbinsel Rotehorn und dem Rotehornpark. An deren Stelle stand ehemals die 1922 eingeweihte „Alte Sternbrücke“, die 1945 im Zweiten Weltkrieg gesprengt wurde. Seit 1991 gab es Überlegungen zum Wiederaufbau, 2005 konnte endlich die feierliche Einweihung vor 100.000 Menschen stattfinden. Genutzt wird sie von Fußgängern und Radfahrern, sowie den Bussen des ÖPNV und Taxis. Eine der größten Hubbrücken Deutschlands ist die Hubbrücke Magdeburg aus dem Jahr 1934. Die eingleisige Eisenbahnbrücke wurde 1846/47 als mehrteilige Konstruktion mit einem drehbaren Mittelstück gebaut. Aufgrund größerer Schiffe musste 1895 die Drehbrücke durch eine Hubbrücke ausgewechselt werden, die 1934 durch die aktuelle Konstruktion ersetzt wurde. Sie wird nicht mehr als Eisenbahnbrücke, sondern nur noch als Fußgängerbrücke genutzt. Das Mittelteil ist aufgrund des Schiffsverkehrs dauerhaft angehoben. Eine weitere Hubbrücke ist die Hubbrücke im Handelshafen, die die bundesweit älteste ihrer Bauart ist. 1894 für die Hafenbahn errichtet, ist sie inzwischen stillgelegt und nur noch ein technisches Denkmal. Sie ist seit 2009 wieder für Fußgänger und Radfahrer geöffnet. Magdeburgs Eisenbahnbrücke über die Elbe, die Herrenkrug-Eisenbahnbrücke, überspannt das Gebiet des Handelshafens und wurde 1979 Jahren fertiggestellt. Sie ersetzte eine 1873 erbaute Eisenbahnbrücke, die bei Niedrigwasser durch ihre Pfeiler ein Schifffahrtshindernis darstellte. Weitere Brücken sind der Herrenkrugsteg, der seit 1999 für Fußgänger und Radfahrer eine Verbindung über die Elbe zum Herrenkrugpark aus Magdeburg Neustadt herstellt, die „Brücke am Wasserfall“ in der Nähe des Cracauer Wasserfalls, ebenfalls für Fußgänger und Radfahrer geöffnet, und die Reyherbrücke, die über die "Taube Elbe" führt und bei der es sich um eine seltene Brückenkonstruktion, eine Fischbauchbrücke, handelt. Museen. Magdeburg besitzt eine Vielzahl an Museen verschiedener Sammlungsrichtungen und -schwerpunkte. 1906 wurde das Kulturhistorische Museum Magdeburg eröffnet und befasst sich hauptsächlich mit der Geschichte und dem Kunsthandwerk der Stadt und der Region. Zu erwähnende Ausstellungsstücke sind die Originalstatue des berühmten Magdeburger Reiters, von dem auch eine limitierte Playmobilfigur existiert, und das Monumentalgemälde mit Szenen aus dem Leben Ottos des Großen von Arthur Kampf im Kaiser-Otto-Saal. In der Lukasklause wurde 1995 das Otto-von-Guericke-Museum eröffnet. Es informiert über Otto von Guericke, zeigt Nachbauten von Geräten wie einer "Handfeuerspritze" und des "Magdeburger Wettermännchens" und führt Experimente vor. Eine Besonderheit unter den Magdeburger Museen ist der Jahrtausendturm im Elbauenpark. Das für die Bundesgartenschau 1999 errichtete Gebäude ist mit 60 Metern der höchste Holzleimbindebau der Welt. Ausgestellt sind dort 6000 Jahre Geschichte der Wissenschaft und Technik mit mehreren hundert Exponaten und Experimenten. Ein astronomisches Fernrohr bietet die Möglichkeit, die Uhr des Magdeburger Domes abzulesen. Ein Foucaultsches Pendel verdeutlicht die Rotation der Erde. Das Museum für Naturkunde geht auf den 1869 gegründeten Naturwissenschaftlichen Verein Magdeburgs zurück, der das Museum zuerst in einem Gebäude am Domplatz untergebracht hatte. Nach dessen Zerstörung im Krieg und dem Verlust zahlreicher Ausstellungsstücke wurden die geretteten Exponate vorübergehend im "Kaiser Friedrich Museum" untergebracht. Das älteste Museum der Stadt besitzt rund 250.000 Objekte der Geologie, Mineralogie, Paläontologie und Zoologie. In einer unter Denkmalschutz stehenden alten Fabrikhalle des früheren "Krupp Grusonwerkes" befindet sich das Technikmuseum Magdeburg mit Exponaten von Antriebs- und Werkzeugmaschinen, der Drucktechnik, Schließtechnik und Verkehr, darunter die erste Magdeburger Straßenbahn von 1899 und das Flugzeug von Hans Grade, mit dem er 1908 den ersten Motorflug Deutschlands auf dem Cracauer Anger tätigte. Das Kunstmuseum Kloster Unser Lieben Frauen in einem ehemaligen Kloster aus dem 11. und 12. Jahrhundert und somit eines der ältesten Gebäude der Stadt ist der wichtigste Ausstellungsort für Skulpturen aus Antike, Mittelalter und Moderne und für sonstige zeitgenössische Kunst in Sachsen-Anhalt. Angegliedert an das Puppentheater Magdeburg beherbergt die Villa p. eine FigurenSpielSammlung, die mit über 1000 Puppen und Objekten die Geschichte des Puppenspiels vor dem Hintergrund der verschiedenen gesellschaftlichen Systeme auf 600 m² ausbreitet. Das "Circusmuseum" beschäftigt sich mit Dressur, Artistik, Clownerie und Varieté, das Friseurmuseum mit der Geschichte des Friseurhandwerks und einem historischen Friseursalon aus dem Jahr 1929. Zu nennen sind weiter das Museumsschiff "Württemberg", die historische Schiffmühle am Petriförder, das Freilichtmuseum Steinzeithaus Randau mit Nachbau eines dort ausgegrabenen 4500 Jahre alten Pfostenhauses und eines Lehmbackofens sowie das "slawische Dorf Pechau", das die Besiedlung des ostelbischen Raumes vom 8. bis 12. Jahrhunderts zeigt. Im Sudenburger Museumsdepot stehen derzeit 15 verschiedene historische Straßenbahnen zur Schau, welche aber auch auf mehreren Routen Rundfahrten anbieten. 2014 öffnete Magdeburgs erste DDR-Museumswohnung in der Hohenpfortetraße in einem Q6-Blockwohnbau. Die Museumswohnung besteht aus 3 Zimmern, einer Küche, einem Badezimmer und beinhaltet über 1000 originale Exponate aus der DDR-Zeit. Galerien. Magdeburg beherbergt Galerien, dessen Ausstellungen zeitgenössische Kunst, Malerei, Grafiken und Plastiken, Fotografien und Drucktechnik zeigen. Neben den dauerhaften Ausstellungen gibt es regelmäßig Ausstellungen von nationalen und internationalen Künstlern in verschiedenen öffentlichen oder privaten Räumen der Stadt. Theater und Oper. Das Theater Magdeburg, ein Viersparten-Theater mit eigenen Ensembles im Bereich Musiktheater, Philharmonie, Ballett und Schauspiel, unterhält zwei Schauspielstätten in Magdeburg, zum einen das traditionsreiche Opernhaus am Universitätsplatz für Musiktheater, Ballett und Konzertschaffen mit großer Bühne, weiteren kleinen Bühnen und einem Podium und zum anderen das Schauspielhaus in der Otto-von-Guericke-Straße mit ebenfalls großer Bühne, einem Studio und Foyer. 2013 besuchten über 175.000 Besucher die Veranstaltungen des Theater Magdeburg. Zu den meist besuchten Veranstaltungen zählt das Domplatz-OpenAir im Sommer mit knapp 23.000 Besuchern. Somit lag die Auslastung des Theaters bei mehr als 80 Prozent. Die Sparte Musiktheater wird von der Oper Magdeburg abgedeckt. Ein leistungsfähiges Opernensemble, das Ballett Magdeburg und die überregional anerkannte Magdeburgische Philharmonie sind hier beherbergt. Aufgeführt werden neben großen Opern und Sinfoniekonzerten auch Operetten, Musicals, Literaturballetts, Theaterabende, Boulevardkomödien und kleine Opernformen. Dazu kommen Programme im „Cafe Rossini“, Vorstellungen des größten Theaterjugendclubs Deutschlands "freijungundwild" im „Podium“, Sonderveranstaltungen, Opernbälle und – galas und prominente Gastkünstler. Die Sparte Schauspiel wird vom Schauspiel Magdeburg besetzt. Untergebracht ist es im Schauspielhaus Magdeburg, aufgeführt werden Theaterliteraturen verschiedener Zeiten und Genres, besonders zeitgenössische in- und ausländische Dramatik. Unter den Stücken befinden sich viele Uraufführungen und deutschsprachige Premieren. Außerdem bietet das Schauspiel Magdeburg neben den normalen Aufführungen auch abwechslungsreiche Veranstaltungen an, wie „Jazz in der Kammer“ unter Leitung von Warnfried Altmann, Magdeburgs bekanntester Jazzmusik, oder „Nachtschicht“, wo Shows und Stücke aus Literatur, Musik, Tanz und Mix vorgeführt werden. Das Puppentheater Magdeburg aus dem Jahr 1958 ist eines der größten und modernsten Puppentheater in Europa. Es besitzt einen großen Saal mit über 140 sowie einen kleinen mit 60 Sitzplätzen und modernster Bühnentechnik, eine Probebühne und weitere kleine Bühnen. Es bietet altersspezifische Inszenierungen für jegliche Altersgruppen vom Kindergarten- bis zum Erwachsenenalter. Außerdem verfügt das Puppentheater über eine eigenständige Jugendkunstschule. Es ist das letzte eigenständige Stadttheater Deutschlands mit Schwerpunkt Figurenspiel. Im jährlichen Wechsel finden die „Magdeburger KinderKulturTage“ oder das internationale Figurentheaterfestival „Blickwechsel“ statt, welche mehr als 10.000 Zuschauer aus aller Welt in die Stadt locken. 2012 eröffnete das Puppentheater in einer benachbarten, sanierten Fachwerkvilla (villa p.) eine Dauerausstellung, die anhand einer FigurenSpielSammlung die Geschichte des Puppenspiels von seinen Ursprüngen bis in die Gegenwart präsentiert. 1992 entstand aus der Idee von Ines Lacroix und Matthias Engel das „Theater an der Angel“ mit mehr als einem Dutzend Inszenierungen und Platz für rund 100 Menschen im Saal. Unterstützt wird das Theater auch von Urgestein Peter Wittig. Gespielt werden frohe, komödiantische oder nachdenklich stimmende Stücke. Das Improvisationstheater „Herzsprung“ ist eine kleine Theatergruppe, die ihre Stücke mit groben Umschreibungen vorgibt, aber sich vom Publikum während des Spielens inspirieren lässt. So entwickeln sie spontane Geschichten und Szenen ohne Drehbuch oder Regisseur. Weitere Improvisationsgruppen aus Magdeburg sind die Gruppen „Tapetenwechsel“, „Kammerjäger“ und „Imaginär“. In der Grünen Zitadelle hat sich das „Theater in der Grünen Zitadelle“ gebildet. Es ist ein Mix aus Theater, Show, Musik und Comedy, es sollen kulturelle Ereignisse Magdeburgs auf die Bühne gebracht werden. Weltweit ist es das einzige Theater, das in einem Hundertwasser-Haus zu finden ist. Im Theaterraum ist Platz für bis zu 200 Zuschauer, außerdem finden hier Ausstellungen, Lesungen und Veranstaltungen statt. Die „MS Marco Polo“ ist das erste Theaterschiff auf der Mittelelbe und das einzige private Theaterschiff auf der gesamten Elbe. Die Theatergruppe „Die Nachtschwärmer“ betreut seit 2009 das Schiff. Freizeit und Tourismus. Größtes Hotel Magdeburgs, das Maritim-Hotel 2013 übernachteten über 553.000 Gäste in Magdeburg, darunter über 76.000 aus dem Ausland. Somit liegt Magdeburg unter den 40 meistbesuchten deutschen Städten. Die Landeshauptstadt konnte die Übernachtungszahl um fast 50 % im Gegensatz zum Rekordtiefpunkt im Jahr 2000 steigern. Die Magdeburger Hotellandschaft bestand im Juni 2015 aus 43 Unterkünften mit einer Bettenkapazität von rund 5200 Betten, dessen Auslastung bei rund 40 Prozent lag. Die Verweildauer der Hotelgäste aus Deutschland beträgt im Durchschnitt 1,6 Tage, die der Gäste aus dem Ausland 1,7 Tage. Zu den größten und vornehmsten Hotels Magdeburgs gehören das Maritim-Hotel und das Herrenkrug Parkhotel. Hauptsächlich verantwortlich für das Marketing der Stadt Magdeburg ist die "Magdeburg Marketing Kongress und Tourismus GmbH (MMKT GmbH)". Magdeburg ist Teil mehrerer touristischer Reiserouten. Der 1200 km lange Elberadweg, einer der beliebtesten Radwege Deutschlands, führt durch die Stadt entlang der Elbe. Auf der Straße der Romanik kann eine Vielzahl von Bauwerken aus der Zeit des Mittelalters besichtigt werden. Die Nord- und die Südroute der Straße der Romanik treffen sich in Magdeburg. Weiterhin ist die Stadt an der Wasserwanderroute Blaues Band gelegen, die entlang der Elbe führt und Teil der Gartenträume Sachsen-Anhalt ist, eines landesweiten Netzwerks zur Wiederentdeckung historischer Park- und Gartenanlagen. Des Weiteren befindet sich die „Straße der Technik“ in Magdeburg, die über die ingenieurtechnischen Bauwerke in der Region informiert, darunter zum Beispiel das letzte betriebsfähige Zwei-Schwimmer-Hebewerk in Europa, das seit dem 13. Jahrhundert existierende Gerberhandwerk, die letzte original erhaltene Telegrafenstation Deutschlands und das ehemals längste geradlinige Gradierwerk in Europa. Zu den bekanntesten Freizeiteinrichtungen gehören die Gruson-Gewächshäuser, einem botanischen Garten mit über 3000 exotischen und heimischen Gewächsen und einigen Reptilien. a> Kino und City Carré im Stadtzentrum Neben dem großen Erlebnisbad Nautica befinden sich weitere Schwimmbäder und Freibäder in Magdeburg, dazu gehören die Elbeschwimmhalle, welche auch Bestandteil des Bundesleistungszentrums für Schwimmen ist, die Schwimmhalle Olvenstedt, die Schwimmhalle Nord, die Schwimmhalle Große Diesdorfer Straße, das Carl-Miller-Bad, das Freibad Süd und das Erich-Rademacher-Bad. Außerdem besitzt Magdeburg das Tauchcenter Magdeburg, in dem Tauchausbildungen, sowie Tauchreisen durchgeführt werden können. Die größten Seen Magdeburgs sind die Barleber Seen, der Salbker See I, der Salbker See II, der Adolf-Mittag-See mit Tretbootverleih und der Neustädter See als Badesee mit einer Wasserskianlage „Cable Island“. Magdeburgs große Kinokomplexe sind das Cinemaxx-Kino in der Innenstadt und das Cinestar-Kino am Pfahlberg an der BAB 2. Zu den kleineren Kinos gehören das Studiokino, die Oli Lichtspiele, das Scala-Filmtheater Sudenburg und Magdeburgs kleinstes Kino, das Kulturzentrum Moritzhof. Im Sommer finden außerdem einige Freilichtkinos statt, das größte ist das SWM-City-Sommerkino im Stadtpark. Der Elbauenpark, gebaut für die Bundesgartenschau 1999 in Magdeburg, beinhaltet einen Naturspielplatz, eine 40 m lange Sommerrodelbahn, einen 25 m hohen Kletterfelsen, eine Frisbee-Disc-Golf-Parcours, einen Fitness- und Skateparcours, einen Hochseilgarten, einen Irrgarten, ein Schmetterlingshaus mit über 250 Faltern in 20 Arten und den berühtem Jahrtausendturm mit einer Vielzahl an Ausstellungen über die Entwicklung der Wissenschaft. Ein weiterer Erlebnispark ist der Herrenkrugpark mit der Messe Magdeburg, einem Golfplatz, der Pferderennbahn Herrenkrugwiesen und dem Erlebnisbad Nautica. Unter den verschiedenen Bowlingeinrichtungen der Stadt gehört die "Bowling World Magdeburg" mit seinen 30 Bahn großen Bowlinganlage, Billardtischen, Tischtennisplatten, zahlreichen Videospielautomaten und einer eigenen Sportsbar zu den größten. In Magdeburg gibt es rund ein Dutzend Skateranlagen und Dirtparks. Die bekanntesten Anlagen sind der 2013 errichtete, moderne Skatepark im Stadtpark Rotehorn und der Dirtpark M-Trails zwischen der Altstadt und Stadtfeld Ost. Außerdem verfügt die Stadt über Indoor- und Outdoor Cross-Strecken, die Moto-Cross-Strecke Magdeburg und die SX Motocross-Halle Magdeburg. Der Rennring Magdeburg in Buckau ist eine 500 m lange Indoor-Go-Kart-Strecke, der größten Kartbahn Sachsen-Anhalts. Im Erlebnispark Magdeburg kann man auf einem über 100.00 m² großen Sandgebiet mit großen und kleinen Kettenbaggern, Minibaggern und kleinen und großen Radladern den Umgang mit den verschiedenen Baumaschinen testen oder auch den fachgerechten Umgang erlernen. Große Sportstätten der Stadt sind die MDCC-Arena, das Heinrich-Germer-Stadion, die GETEC Arena und die Hermann-Gieseler-Halle. Außerdem wird auf dem Flugplatz Magdeburg Flugsport betrieben. Zoologischer Garten. Der 16 Hektar große Zoo Magdeburg beherbergt über 1000 Tiere in rund 180 Tierarten. Er befindet sich im Vogelgesangpark Neue Neustadt. Jährlich besuchen ihn über 300.000 Besucher. Zurzeit wird er von einem „klassischen Zoo“ zu einem Erlebniszoo umgebaut. Der Zoo ist an über 43 Erhaltungszuchtprogrammen und internationalen Zuchtbüchern beteiligt. In Anlagen wie dem Giraffenhaus, Menschenaffenhaus, Erdmännchengehege oder im Streichelgehege sollen Besucher relativ nah, aber sicher, an die Tiere herangeführt werden, wobei die Tiere in artgerechten Umgebungen leben. Geöffnet ist er 365 Tage im Jahr, geschlossen wird er abends, wenn die Dämmerung einsetzt. Parks und Gärten. Magdeburg gehört zu den grünsten Städten Europas. Zu den beliebtesten Parks gehört der Elbauenpark, auf dem 1999 die Bundesgartenschau stattfand. Er ist laut dem Magazin Stern die beste Freizeitattraktion in Sachsen-Anhalt. Zu seinen wichtigsten Attraktionen gehören das Schmetterlingshaus, die 14 Themengärten oder der Irrgarten. Außerdem bietet er viele weitere familienfreundliche Attraktionen, wie den Kletterturm, den Jahrtausendturm, die Sommerrodelbahn oder den Kletterpark. Ebenso beliebt ist der Herrenkrugpark, der zu den schönsten und natürlichsten Parks der Stadt gehört. Der größte Park der Stadt ist der Stadtpark Rotehorn, in dem sich die Stadthalle, die Hyparschale, der Aussichtsturm, das Pferdetor oder das Fort XII befinden. Diese drei Parks und der Klosterbergegarten, der älteste Volkspark Deutschlands, gehören zum Netzwerk Gartenträume Sachsen-Anhalt. Die renaturierte Festungsanlage Glacis, die sich ehemals einmal um die Innenstadt zog, ist durch den Magdeburger Ring geteilt. Nahe dem Zoo befindet sich der Vogelgesangpark mit seinen großen Parkanlagen und den vielen einzelnen Gärten. Weitere Anlagen in Magdeburg sind die Goetheanlagen, der Volkspark Westerhüsen, der Amtsgarten Ottersleben, der Florapark, der Nordpark, der Geschwister-Scholl-Park, der Schneidersgarten als Magdeburgs kleinster Park, der Fürstenwall, der Gutspark Benneckenbeck, der Hohepfortewall, die Materlikanlage und die Elbuferpromenade im Bereich Altstadt und Buckau. Veranstaltungsorte. Stadthalle, Aussichtsturm und Museumsschiff "Württemberg" Magdeburg bietet ein breites Spektrum an Veranstaltungsorten, die für Konzerte, Sportveranstaltungen, Tanzveranstaltungen, Vorlesungen, Konferenzen, Versammlungen und vieles mehr genutzt werden. Die GETEC Arena, ehemals Bördelandhalle, ist eine sehr moderne und die größte Mehrzweckhalle Sachsen-Anhalts. Neben Sportveranstaltungen finden dort auch Konzerte oder Fernsehproduktionen statt. Andere große Hallen der Stadt sind die Stadthalle mit Platz für über 4.000 Zuschauer, das AMO Kultur- und Kongreßhaus oder die Messe Magdeburg. Veranstaltungsorte mit mittelgroßer Kapazität sind unter anderem die Johanniskirche, die Konzerthalle „Georg Philipp Telemann“ im Kloster Unser Lieben Frauen, die Seebühne im Elbauenpark, die Pauluskirche (regelmäßiger Auftrittsort des Magdeburger Kantatenchores) oder das von Friedrich Schinkel erbaute Gesellschaftshaus im Klosterbergegarten mit seinen verschiedengroßen Sälen. Neben den größeren Einrichtungen bestehen in Magdeburg auch kleinere Institutionen für Live-Konzerte wie das „Thiem 20 – Haus für junge Kunst“, der Moritzhof, ein unter Denkmalschutz stehender Vierseithof, das Gröninger Bad, der KJFE " Knast" oder das KJFE "HOT – Alte Bude". Nachtleben. Magdeburgs Nachtleben setzt sich neben Live-Konzerten vorwiegend auch aus Tanzveranstaltungen in größeren Diskotheken und kleineren Clubs zusammen. Markant für Magdeburg ist, dass viele dieser Veranstaltungsorte in ehemaligen Festungs- und seit der Wende leerstehenden Industrieanlagen lokalisiert sind. Im Süden der Stadt befindet sich die Großraumdiskothek "Music Hall", der ehemalige "Funpark", welche neben den Mainstream-Genres auch spezielle Musikrichtungen bedient. Weitere größere Institutionen sind die Festung Mark, die neben elektronischen Musikveranstaltungen auch für kulturelle Veranstaltungen sorgt, das "Alte Theater" am Jerichower Platz, das auch als Kulturzentrum mit vielfältiger Nutzung dient und das "Kulturwerk Fichte", eine denkmalgeschützte Industriehalle aus den Gründerzeiten, wo Szenepartys und andere Großveranstaltungen stattfinden. Ebenfalls ein Industriefeeling bietet die ehemalige Fabrikhalle "Factory" im Süden der Stadt, in der regelmäßig deutsche und internationale Pop-, Rock-, Metal-, Indie-Bands spielen und Diskoveranstaltungen stattfinden. Zu den edleren Clubs der Stadt gehören der "Prinzzclub" und das "First", welche einen Mix aus Lounge und Club bieten. Mit 45 Jahren ist der "Studentenclub Baracke" ältester Club der Stadt und befindet sich direkt auf dem Gelände der Otto-von-Guericke-Universität. Als equivalent besteht am Campus des Universitätsklinikums die "Kiste" für Studenten der Medizinischen Fakultät. Daneben existieren weitere mittlere und kleinere Diskotheken und Clubs, wie der "Discoturm Nautica (Pearl Club)", das "Boys’n’Beats", die "Alte Feuerwache", die "Kunstkantine" oder das "Triebwerk". Zu erwähnen sind außerdem noch die einem Strand nachempfundenen Clubs "Strandbar" direkt an der Elbe, mit einem der ersten Citybeachkonzepte Deutschlands, und der "Montego Beachclub" im Stadtpark Rotehorn mit Volleyballfeldern und großem Pool. Der Hasselbachplatz an der südlichen Innenstadt hat sich in den letzten Jahren zum Magdeburger Kneipenzentrum entwickelt. Auf Grund der hohen Frequentierung tagsüber aber vor allem auch in den Abendstunden durch die Besucher der zahlreichen Clubs, Bars und Kneipen ist der Platz als Kriminalitätsschwerpunkt eingestuft und von Videotechnik überwacht. Sport. In Magdeburg sind rund 170 regional, national und international erfolgreiche Sportvereine beheimatet. Dazu gehören der 1. FC Magdeburg oder der SC Magdeburg. Diese und andere Vereine brachten in den letzten 100 Jahren mehr als 100 Sportler hervor, die in Europa- und Weltmeisterschaften, bei Olympia und durch Weltrekorde über 400 Medaillen nach Magdeburg brachten. Für sie wurde im Breiten Weg 2007 Deutschlands erster „Sports Walk of Fame“ geschaffen, wo die Stadt die Sportler mit dem Verlegen von Bodenplatten mit eingearbeitetem Namen, sportlicher Leistung und dessen Jahr ehrt. Magdeburg besitzt einen der beiden Olympiastützpunkte in Sachsen-Anhalt. Der Stützpunkt ist eine sportartübergreifende Betreuungs- und Serviceeinrichtung, um Spitzen- und Nachwuchssportler in den Olympiasportarten zu fördern. Zusammen mit dem Sportgymnasium Magdeburg und der Sportsekundarschule „Hans Schellheimer“ bilden sie das Zentrum für die sportliche Ausbildung und Nachwuchsförderung in Magdeburg. Der FC Magdeburg spielt zurzeit in der 3. Liga und trägt seine Heimspiele in der MDCC-Arena aus. Trotz der Drittklassigkeit zählt er durch zahlreiche Titel in der Vergangenheit zu den erfolgreichsten Fußballclubs der DDR. Der Magdeburger FFC, ein Frauenfußballverein, spielt derzeit in der 2. Bundesliga Nord. Magdeburg ist zudem Sitz des Fußballverbands Sachsen-Anhalt. Der SC Magdeburg gehört zu den traditionsreichsten Schwimmsportabteilungen in Deutschland und hat je ein Team der Herren und Damen in der 1. Bundesliga Schwimmen. Trainings- und Wettkampfstätte ist die Elbeschwimmhalle. Auch die Abteilungen der Leichtathleten und Ruderer sind überaus erfolgreich und haben zahlreiche Titel bei Olympischen Spielen und Meisterschaften errungen. Die erfolgreichste Abteilung des SCM sind jedoch die Kanuten mit mehreren Weltmeistern und Olympia-Medaillengewinnern. Die Abteilung Handball des SC Magdeburg spielt in der Handball-Bundesliga und gilt als einer der erfolgreichsten deutschen Handballvereine. Er war der erste deutsche Verein, der 2002 die Champions League des Handballs gewinnen konnte. Heimatspielstätte ist die GETEC Arena, die rund 7000 Zuschauer fasst. Die zweite Mannschaft, genannt "SCM Youngsters", trägt ihre Drittliga-Spiele in der Hermann-Gieseler-Halle aus. Magdeburg besitzt seit 2000 Ostdeutschlands einzigen Profi-Boxstall, SES Sport. Er ist der drittgrößte deutsche Boxpromotor und arbeitet eng mit Universum/Spotlight zusammen. An die 100 Profiboxveranstaltungen wurden bisher organisiert, im Team befinden sich mehrere Weltmeister unter den 15 aktiven Boxern. Auch Wasserball hat in Magdeburg eine lange Tradition. Die Wasserball-Union Magdeburg spielten bis zum Abstieg 2013 in der Wasserball-Bundesliga (DWL). Die 1. Mannschaft der Basketballer „Otto Baskets“ des BBC Magdeburg spielt zurzeit in der 2. Bundesliga ProB. Sie tragen ihre Heimspiele in der Hermann-Gieseler-Halle aus. a> ist unter anderem Bundesleistungszentrum für Schwimmen Die American Footballer des „Magdeburger Sportvereins '90“, die Virgin Guards, spielten bis 2011 in der German Football League 2. Spielstätte ist das Heinrich-Germer-Stadion. 2011 wurde in Magdeburg das Endspiel der German Football League, der German Bowl, in der MDCC-Arena ausgetragen. Im April 1994 wurden die „Magdeburg Poor Pigs“ gegründet, eine Baseball- und Softball-Mannschaft. 2009 stiegen sie von der "Länderliga Baseball" in die "Mitteldeutsche Liga Baseball (MDLB)" auf. Die "Poor Pigs" spielen im Stadtteil Westerhüsen auf dem Sportkomplex „Tonschacht“, der 2010 eröffnet wurde und internationalen Spielfeldmaßen entspricht. Seit 2004 findet jährlich der Magdeburg-Marathon durch die Stadt Magdeburg statt. Wählen kann man zwischen der 42 km langen Marathon-Strecke, der Halb-Marathon-Strecke, der 13 km langen Strecke oder der Mini-Marathon-Strecke. Start und Ziel ist immer die Messe Magdeburg. Pferderennen haben in Magdeburg ebenfalls eine lange Tradition. Auf der Pferderennbahn Herrenkrugwiesen finden schon seit 1838 regelmäßig Veranstaltungen mit Pferderennen statt. Jedes Jahr finden mindestens 4 Rennen statt. Am Flugplatz Magdeburg finden einige Luftsportarten statt, darunter zum Beispiel Fallschirmspringen und Segelfliegen. Der Flugplatz ist Sitz des Vereins "FSV Magdeburg". Frühling. Die " Magdeburger Frühjahrsmesse", ein dreiwöchiger Rummel zum Frühlingsanfang, findet jährlich auf dem Messeplatz „Max Wille“ am Kleinen Stadtmarsch direkt am Elbufer statt. Seit 2010 werden im März/April die RoboCup German Open in den Magdeburger Messehallen ausgetragen. Tausende Besucher verfolgen in verschiedenen Disziplinen, unter anderem Roboterfußball, internationale Teams, die mit ihren Robotern gegeneinander antreten. Jährlich finden seit 2000 die "Day of Thunder" auf dem Magdeburger Flugplatz statt. In 15 verschiedenen Rennklassen treten unterschiedliche Bauarten von Mopeds, Motorrädern, Autos und Quads bei einem 8-Meilen-Rennen gegeneinander an. Außerdem finden auf einer Showbühne Wettbewerbe wie „Best of Show“, „schönstes Gesamtkonzept“, „Beste Lackierung“, „Bester Innenraum“, „Best of Sound“, „Best of Exhaust“ und ein „dB-Sound-Contest“ statt. Die "Elbauennacht" lässt jedes Jahr den Elbauenpark zu einer großen Multimediashow mit Licht, Laser, Feuerwerk und Musik werden. Das "Europafest Magdeburg", das größte Volksfest der Stadt, erstreckt sich jeden Mai von der Julius-Bremer-Straße bis zur Danzstraße und findet am Pfingstwochenende statt. Über hunderttausend Besucher werden durch Künstler auf drei Bühnen unterhalten, dazu kommen Karussells, Fahrgeschäfte und viele Familienattraktionen. „Elbe in Licht und Flammen“ Das Magdeburger Historienspektakel "Spectaculum Magdeburgense" im Mai im Bereich der alten Festungsanlagen ist die größte Mittelalterveranstaltung der Region. Zahlreiche Veranstaltungen und Aktionen, darunter zum Beispiel Fakirshows, Theaterveranstaltungen, ein Mittelaltermarkt und musikalische Klänge aus dieser Zeit, unterhalten die Besucher. Jedes Jahr an Christi Himmelfahrt findet das "Fest der Begegnungen" gegen Fremdenfeindlichkeit im Rotehornpark statt. Sommer. Neben den Kreuzgangserenaden im Dom findet im Juli/August auch das überregional bekannte Sommer-Open-Air des Theater Magdeburg auf dem Magdeburger Domplatz statt. Die "BallonMagie"-Tage im Elbauenpark werden jährlich im August veranstaltet. Mehrere Heißluftballons starten gleichzeitig und bereichern den Magdeburger Himmel. Sonderformen wie Eistüten, Würstchendosen oder Luftschiffe sind unter den Ballons vertreten. Der Christopher Street Day, ebenfalls im August, ist ein Festtag von Lesben, Schwulen, Bisexuellen und Transgendern. Demonstriert wird für die Rechte und gegen die Ausgrenzung dieser Gruppen. Er findet in zahlreichen Städten Deutschlands statt. Die Parade erstreckt sich vom Bahnhof Neustadt durch die Innenstadt, den Hasselbachplatz in die Liebigstraße. Rund um das historische Viertel am Magdeburger Dom findet seit 2011 jährlich das dreitägige "Kaiser Otto Fest" statt, bei dem Gebäude und Plätze wie die Bastion Cleve, das Kloster Unser Lieben Frauen, der Möllenvogteigarten, der Fürstenwall oder der Dom selber Veranstaltungsorte mittelalterlicher Attraktionen, Auftritte und Festumzüge wie zum Beispiel die Kaiserkrönung Ottos I., Ritterturniere, Falknershows und mittelalterliche Gesänge werden. Das Fest soll an die Bedeutung der Stadt Magdeburg als Wiege der deutschen Nation und der europäischen Geschichte erinnern. Von 2010 bis 2013 fand jährlich Ende August die "Eurofurence", das größte Treffen von Furries, im Maritim Hotel Magdeburg statt. Das Treffen wurde von über 1000 Furries aus allen Ländern besucht. Einmal jährlich findet der Fahrradaktionstag statt. Nach einer Sternfahrt zum Sammelpunkt führt eine große Fahrraddemonstration quer durch die Stadt und über den Magdeburger Ring. Damit wollen die Radfahrer Flagge zeigen und für eine fahrradfreundlichere Stadt eintreten. 2014 fand er am 28. Juni zum vierten Mal statt. Herbst. Im September wird in Magdeburg das Landeserntedankfest, mit über 35.000 Besuchern die größte öffentliche Veranstaltung des landwirtschaftlichen Berufsstandes in Sachsen-Anhalt, im Elbauenpark gefeiert. Dazu kommen das Jazzfestival DIAGONALE, die Literaturwochen, eine Veranstaltung für Literaturfreunde mit vielen Angeboten und Ausstellungen, Vorlesungen und Aufführungen, das Kunstfestival Magdeburg, das OMMMA ("Ostmobil-Meeting Magdeburg") und die "Magdeburger Herbstmesse", ein zum Herbstanfang stattfindender dreiwöchiger Rummel auf dem „Kleinen Stadtmarsch“. 2010 feierte sie ihr 1000-jähriges Bestehen, denn sie findet im heiligen Fest der Thebäischen Legion von Erzbischof Tagino, welches am 22. September 1010 gefeiert wurde, ihren Ursprung. Somit ist es das älteste Volksfest Deutschlands. Die Kulturfesttage, das Drachen- und Lichterfest, wo auch Europas größte Windturbine zu bestaunen ist, das Internationale Tanzturnier und der Ball der Wirtschaft werden im Oktober gefeiert. Im November findet eine Videoexposition der Studiengänge Medienbildung und Computervisualistik an der Universität Magdeburg statt. Winter. Die größte Veranstaltung des Jahres ist der Magdeburger Weihnachtsmarkt mit rund 135 Ständen. Er lockt jedes Jahr über 1,5 Million Besucher an, wird auf dem Alten Markt ausgetragen und bietet viele Attraktionen, zum Beispiel tägliche Live-Musik, eine Weihnachtsmannsprechstunde, Märchenaufführungen und den historischen Weihnachtsmarkt. Er gilt als einer der kinderfreundlichsten Weihnachtsmärkte Deutschlands und ist der täglich am längsten geöffnete Weihnachtsmarkt in Deutschland. Im Januar findet jährlich die sogenannte "Meile der Demokratie" mit über 10.000 Besuchern statt, wobei der Breite Weg bis zum Hasselbachplatz Austragungsort mit zahlreichen Aktionen, Infoständen, Gesprächsstunden und umfangreichem Bühnenprogramm für diese Veranstaltung ist. Sie entstand um dem zeitgleich stattfindenden Aufmarsch von Rechtsextremen den Raum zu nehmen. Diese nutzen den Jahrestag der Luftangriffe auf Magdeburg am 16. Januar 1945 als Anlass, für einen Trauerzug und um die Opfer mit dem Holocaust und den Ermordeten in den Konzentrations- und Vernichtungslagern gleichsetzen und somit die nationalsozialistischen Massenmorde verharmlosen. Musik. In Magdeburg finden über das Jahr verteilt zahlreiche verschiedene Musikveranstaltungen statt, darunter auch viele zu Ehren des Magdeburger Barockkomponisten Georg Philipp Telemann. An geraden Jahren werden seit 1990 im März/April die Magdeburger Telemann-Festtage veranstaltet, welche aus Aufführungen und Interpretationen von Werken des Komponisten bestehen. Ein Bestandteil dessen sind die Festtage der Musikwissenschaft, die "Internationalen Wissenschaftlichen Konferenzen", die "Telemann-Akademien für Musikstudierende und junge Musiker" und die "Opernakademie „Georg Philipp Telemann: Der geduldige Socrates“". Der "Internationale Telemann-Wettbewerb" findet an ungeraden Jahren seit 2001 statt und ruft weltweit Teilnehmer zwischen 18 und 34 dazu auf, Werke von Telemann und dessen Zeitgenossen auf historischen Instrumenten, beziehungsweise Kopien, nachzuspielen. Die Konzertreihe "Sonntagsmusiken", initiiert von den Magdeburger Telemannfreunden, finden seit November 1961 am jeweils ersten Sonntag im Monat statt (Ausnahme Juli/August). Im Mittelpunkt der Konzertprogramme steht die Kammermusik Telemanns und seiner Zeitgenossen. Auch Telemanns Kirchenmusik rückt dabei in den Blickpunkt. Eine weitere musikalische Veranstaltung sind die Orgelfesttage an den drei größten und bedeutendsten Orgeln der Stadt und zwar an der Jehmlich-Orgel im Kloster Unser Lieben Frauen, an der Eule-Orgel in der Kathedrale St. Sebastian und an der großen Schuke-Orgel im Magdeburger Dom. Im Frühjahr finden außerdem die "Magdeburger Songtage" statt, bei denen an mehreren Tagen Interpreten an verschiedenen Orten in der Stadt auftreten und Konzerte geben. Die recht überschauliche Jazz-Szene in Magdeburg bietet trotzdem über das Jahr verteilt Veranstaltungen an. Seit 1995 wird das "Open-Air-New-Orleans-Jazz-Festival" ausgetragen. Der Herrenkrugpark wird in eine große Bühne verwandelt, und es treten Jazz-Künstler auf, die rund 15.000 Besucher unterhalten. Weitere Veranstaltungen sind "Jazz! im Schauspielhaus", die "Kunst Kultur Karstadt", die Gitarren-Nächte der AG Jazz, die "DIAGONALE" und ab Herbst 2015 die "Jazztage Magdeburg". Seit 2007 wird das zweitägige Rockmusikfestival "Rock im Stadtpark" durch Deutschlands jüngste Festivalorganisatorin Janin Niele organisiert, das jedes Jahr mehrere Tausend Besucher anlockt. Es findet im Stadtpark Rotehorn statt, seit 2011 erstmals auf zwei Bühnen, und ist bekannt dafür, dass vorwiegend deutsche Bands dort spielen. Ein besonderes Highlight im Jahr bildet die "Fête de la Musique Magdeburg". Auf elf Bühnen, verteilt in der gesamten Innenstadt Magdeburgs und im Stadtpark Rotehorn, treten über 150 Bands und Solokünstler vor jährlich tausenden Zuschauern auf. Für das Publikum sind die Veranstaltungen gratis. Weltweit findet die Fête de la Musique in über 500 Städten statt. Der größte Nachwuchswettbewerb Sachsen-Anhalts wird veranstaltet von den Stadtwerken Magdeburg und sucht musikalische Talente aus Magdeburg und den umliegenden Landkreisen. Der "SWM TalentVerstärker" findet seit 2002 statt, bis 2013 unter dem Namen "SWM MusiCids", und bietet den Talenten den ersten Schritt eine Karriere zu beginnen. Berühmtestes Beispiel ist die Band "Devilish", die später bekannt wurde als die weltweit berühmte Magdeburger Band Tokio Hotel. Kulinarische Spezialitäten. Als lokale kulinarische Spezialitäten gelten „Bötel“, Eisbein mit Sauerkraut, Erbsenpüree und Salzkartoffeln, die „Gehacktesstippe“, eine dunkle Sauce mit gemischtem Hackfleisch, die mit Kartoffeln gegessen wird, und „Pottsuse“, ein Brotaufstrich aus Schweinefleisch, Schmalz und einigen Gewürzen. Große Einkaufsmöglichkeiten. Zu den traditionellen Einkaufsmeilen gehören unter anderem der 2,2 Kilometer lange Breite Weg, der im ebenso beliebten Hasselbachplatz endet, die Leiterstraße und die Ernst-Reuter-Allee. Weitere große Einkaufsmeilen befinden sich unter anderem noch in Neue Neustadt und in Sudenburg. Trotzdem finden sich deutlich weniger historisch gewachsene Einzelhandelsstrukturen als in anderen Städten gleicher Größenordnung. Magdeburg wird eher geprägt durch größtenteils nach der Wende entstandene Einkaufszentren. Im Stadtzentrum gelegen sind das Allee-Center, das City-Carré, das Ulrichshaus sowie die Kaufhäuser Karstadt und Papenbreer. Am Stadtrand gelegen sind unter anderem der Bördepark im Süden der Stadt nahe dem Flugplatz sowie der Florapark im Nord-Westen der Stadt, das größte Einkaufszentrum in Sachsen-Anhalt. Dadurch haben Magdeburgs Einwohner im Einzelhandel zusammen mit einer vielfältigen Landschaft an Supermärkten, Discountern und Einkaufshäusern mit 2,5 Quadratmetern Verkaufsfläche pro Einwohner einen Spitzenplatz in Deutschland. Stolpersteine. Weltweit wurden bisher 22.000 Stolpersteine verlegt, um an das Schicksal der Menschen zu erinnern, die im Nationalsozialismus ermordet wurden. Im Stadtgebiet Magdeburgs wurden bisher 236 solcher Steine verlegt. (Stand: 10. März 2011) Halbkugeln. Anlässlich des 200. Geburtstages Otto von Guerickes im Jahr 2002 wurden 40 Halbkugelpaare von Künstlern und Laien gestaltet und an verschiedenen Orten in der Stadt aufgestellt. Die 1,20m-großen Halbkugeln aus glasfaserverstärktem Kunststoff erinnern an das berühmte physikalische Experiment Guerickes im Jahr 1656. Einige dieser Halbkugeln sind heute noch in der Stadt zu sehen. Industrie. Magdeburg ist eines der ältesten Industriezentren Deutschlands, was an der günstigen Verkehrslage im Schnittpunkt Deutschlands und Europas mit wichtigen Verkehrsadern liegt und was auf die große Fruchtbarkeit des Bodens westlich der Elbe und auf die Mineralschätze im Magdeburger Umland, z. B. Salz, Kali und Braunkohle, zurückzuführen ist. Bis zum 19. Jahrhundert stützten sich Handel und Elbverkehr auf Vorrechte wie Stapel-, Markt-, Zoll- und Münzrecht. Es siedelten sich bekannte Maschinenbauunternehmer an. Beispielsweise eröffneten 1828 die „Magdeburger Dampfschiffahrt-Companie“ und die Maschinenfabrik „Alte Bude“. Durch die Erweiterung des Schienennetzes in Magdeburg vergrößerte sich die Wirtschaft zunehmend. 1850 gründete Bernhard Schäffer das Armaturenwerk „Schäffer & Budenberg“, 1855 Hermann Gruson die „Maschinen-Fabrik und Schiffsbauwerkstatt H. Gruson Buckau-Magdeburg“ (Grusonwerk – ab 1893 Tochterfirma der Friedrich Krupp AG), Rudolf Ernst Wolf eröffnete 1862 eine Maschinenfabrik (1928 Fusion zur Maschinenfabrik Buckau R. Wolf), welche neben der Armaturenfabrik Polte zu den führenden Munitionsfabriken wurde, und 1886 nahm Fahlberg-List die weltweit erste Saccharinfabrikation auf. In der so genannten Gründerzeit des 19. Jahrhunderts siedelten sich in Magdeburg weitere Unternehmen an. Diese Betriebe bildeten das Fundament für die „Stadt des Schwermaschinenbaus“, wie Magdeburg in der DDR genannt wurde. Das Grusonwerk wurde Mitte 1946 zunächst eine Sowjetische Aktiengesellschaft (SAG), Ende 1953 mit 11.500 Mitarbeitern zum VEB Schwermaschinenbau „Ernst Thälmann“ und schließlich 1969 zum Schwermaschinenbau-Kombinat „Ernst Thälmann“ (SKET). 1990 konnten viele 1972 enteignete Betriebe wieder in Privathand geführt werden, doch im Zuge der Wende brachen die großen Industriekombinate zusammen. Es blieben kleinere Industriebetriebe übrig oder entwickelten sich. Heutzutage finden sich auch neue Unternehmen der Maschinenbaubranche wieder, so dass dieser Sektor in Magdeburg u. a. mit großen Werken der Unternehmen SKET, FAM Magdeburger Förderanlagen und Baumaschinen GmbH oder Euroglass eine wichtige Rolle einnimmt. Magdeburg ist mit mehreren Tochterunternehmen von Enercon ein wichtiger Produktionsstandort für Windkraftanlagen. Vestas produziert in der Stadt Gussteile. Die Landwirtschaft profitiert wie schon seit Jahrhunderten vom Boden der Magdeburger Börde, einem Boden mit der besten Bodenqualität, welcher Voraussetzung für die Ernährungswirtschaft ist. Außerdem ist er notwendig für die Gewinnung nachwachsender Rohstoffe wie Raps, aus dem Biodiesel gewonnen wird. Aufgrund des fruchtbaren Bodens und klaren Quellwassers der Heide entwickelte sich Magdeburg im Spätmittelalter zu einer Hochburg des Bierbrauens, das schon im 11. Jahrhundert im örtlichen Kloster Unserer Lieben Frau betrieben wurde. Im Jahr 1309 ist erstmals eine bürgerliche, gewerbliche Brauerei in Magdeburg urkundlich erwähnt; um 1500 existierten in Magdeburg rund 500 Brauhäuser, die ihr Bier bis nach Bayern hin verkauften. Mit dem Wechsel zum industriellen Brauen änderte sich diese Situation schnell; zahlreiche Brauereien wurden geschlossen. Die 1841 gegründete spätere Diamant-Brauerei hingegen setzte auf die neuen Organisationsformen. Die Schuberth GmbH, einer der weltweit führenden Hersteller von Kopfschutzsystemen, verlegte 2009 ihren Firmensitz mit Verwaltung und Produktion von Braunschweig nach Magdeburg und beschäftigt dort ca. 350 Mitarbeiter. Der Abtshof Magdeburg ist ein Hersteller von Spirituosen und durch seine Absinthe überregional bekannt. Als erstes Unternehmen Deutschlands stellt es seit 1993 koschere Spirituosen her. Das 1908 in Magdeburg gegründete Unternehmen Röstfein, der einzige Kaffeehersteller in den neuen Bundesländern, beschäftigt rund 150 Mitarbeiter in Magdeburg. Das Prokon-Bio-Ölwerk Magdeburg stellt aus Raps Biodiesel, Rapsölraffinat, Pharmaglycerin und Rapsschrot her. Der aus zwei Ölwerken bestehende Betrieb verfügt über eine Produktionskapazität von rund 325.000 Tonnen. Mit Fertigstellung eines dritten Bio-Ölwerks wird die Produktionskapazität auf etwa 600.000 Tonnen erweitert. Das Bio-Ölwerk Magdeburg gehört damit zu den größten Pflanzenölproduzenten Deutschlands. Die ausschlaggebendsten Wirtschaftsbranchen Magdeburgs sind Maschinen- und Anlagenbau, Umwelttechnologien, Gesundheitswirtschaft, Kreislaufwirtschaft, Verarbeitung nachwachsender Rohstoffe und die Logistik. Auch der Wissenschaftsbetrieb entwickelt sich, welcher neben den beiden Hochschulen auch diverse Forschungsinstitute umfasst. In den letzten 20 Jahren hat sich auch der Dienstleistungssektor deutlich entwickelt und nimmt als Arbeitgeber größere Bedeutung ein. Beispielsweise betreibt T-Systems sein größtes Rechenzentrum mit rund 750 Beschäftigten in Magdeburg. Außerdem eröffnete der US-amerikanische IT-Konzern IBM sein deutschlandweit erstes Service-Center in der Landeshauptstadt. Es soll Teil des weltweiten Netzwerkes von insgesamt 32 IBM-Centern werden. Bis 2015 sollen hier rund 300 Beschäftigte in den Bereichen Software-Beratung und Entwicklung arbeiten. Die zentrale Lage mit dutzenden Universitäten und Hochschulen in der Umgebung, aber auch die Nähe zu wichtigen Unternehmen war besonders ausschlaggebend für die Standortwahl Magdeburg. Verkehr. Der Modal Split, also die Aufteilung des Verkehrsaufkommens auf die verschiedenen Verkehrsträger ergab sich bei der letzten Erhebung 2008 zu 20,6 % für den ÖPV, 48,7 % für den motorisierten Individualverkehr, 9,8 % für das Fahrrad und 20,9 % für Fußwege. Schienenverkehr. Magdeburg ist der wichtigste Knotenpunkt im Eisenbahnverkehr im nördlichen Sachsen-Anhalt. An der Stelle des Hauptbahnhofs befanden sich ursprünglich die Anlagen der Festung Magdeburg. Der erste Bahnhof in Magdeburg war jedoch der Elbbahnhof aus den Jahren 1838/39, dessen Gebäude immer noch erhalten ist und somit Deutschlands ältestes Bahnhofsgebäude ist. Der jetzige Hauptbahnhof entstand erst im Jahr 1870 unter dem Namen „Centralbahnhof“, den er bis 1895 trug. Bis 2015 soll der Bahnhof unter dem Projekt "Magdeburg 21" für rund 300 Millionen Euro renoviert werden. Parallel dazu werden weitere Modernisierungsanlagen am gesamten Bahnhofsumfeld bis 2019 für 500 Millionen Euro vorgenommen. Er soll bis dahin ein wichtiger Knotenpunkt auf einem neuen Nord-Süd-Korridor werden, der die wichtigen Hafenstädte im Norden mit dem Hinterland verbindet und andere Hauptverkehrsstrecken in Niedersachsen, Nordrhein-Westfalen und Hessen entlasten. Am Hauptbahnhof halten vereinzelt Intercity-Express-Züge aus und nach Dresden – Leipzig – Hannover – Dortmund – Köln. Im Zwei-Stunden-Takt verkehren InterCity-Züge der Linien Leipzig – Halle (Saale) – Hannover – Bremen – Oldenburg – Norddeich Mole und Dresden – Leipzig – Halle (Saale) – Hannover – Bielefeld – Dortmund – Wuppertal – Köln. Vereinzelt verkehren InterCity-Züge von und nach Schwerin – Rostock, Berlin – Cottbus und aus Frankfurt(M) Flughafen Fernbf – Erfurt. Des Weiteren verbindet die Nachtzuglinie CNL („Capella“) täglich den Hauptbahnhof Berlin mit dem Hauptbahnhof München über Augsburg. Dazu kommt der Harz-Berlin-Express, der vereinzelt am Hauptbahnhof hält und von Berlin über Halberstadt entweder nach Thale oder Vienenburg verkehrt. Regional-Express-Züge der DB AG verkehren in Richtung Frankfurt (Oder) (– Cottbus) über Potsdam und Berlin, nach Wittenberge über Stendal, nach Erfurt über Sangerhausen, nach Leipzig über Dessau und Bitterfeld, nach Lutherstadt Wittenberg, nach Uelzen über Salzwedel und nach Halle (Saale) über Köthen. Nach Berlin (Berlin Gesundbrunnen) bestand bis Dezember 2012 die von der DB AG eigenwirtschaftlich betriebene Inter-Regio-Express-Linie über Berlin Südkreuz. Diese Expressverbindung war etwa 15 Minuten schneller als der RE 1 und bediente außerdem die Bahnhöfe Südkreuz und Potsdamer Platz. Regionalbahn-Linien der DB AG führen von Wittenberge über Stendal durch Magdeburg nach Schönebeck (Elbe) bis nach Schönebeck-Bad Salzelmen und vereinzelt von Uelzen ebenfalls nach Schönebeck-Bad Salzelmen über Salzwedel und Stendal. Außerdem führen RB-Linien nach Burg (bei Magdeburg) (– Genthin), Wolfsburg über Haldensleben – Oebisfelde, Braunschweig über Helmstedt, Aschersleben über Staßfurt, Dessau über Zerbst und nach Bernburg über Calbe (Saale). Neben den Zügen der Deutschen Bahn AG fährt im Regionalverkehr in Richtung Thale/Vienenburg/Blankenburg (Harz) über Quedlinburg/Wernigerode/Halberstadt sowie nach Oschersleben (Bode) über Osterweddingen und Langenweddingen auch der Harz-Elbe-Express von der Veolia Verkehr GmbH. 1974 eröffnet, verkehren die Züge der S-Bahn im 30- bis 60-Minuten-Takt zwischen Zielitz und Schönebeck-Salzelmen (jeder zweite als Regionalbahn zwischen Wittenberge und Schönebeck-Bad Salzelmen). Seit 2007 teilt sich die S-Bahn den Verkehr mit den Regionalbahnen, die den Einsatz am Wochenende übernehmen. Ein Ausbau der S-Bahn ist bis zum Jahr 2015 bzw. 2025 mit mehreren S-Bahn-Linien vorgesehen. Zum Eisenbahnknotenpunkt Magdeburg zählen neben dem Hauptbahnhof zehn weitere Haltepunkte (vier Personenbahnhöfe, sechs Haltepunkte) im Stadtgebiet sowie der Güterbahnhof Magdeburg Rothensee und der ehemalige, von der DB Regio noch als Abstellbahnhof genutzte Rangierbahnhof Magdeburg-Buckau. Von wachsender Bedeutung ist dabei das Güterverkehrszentrum Rothensee an der Schnittstelle von Schiene, Autobahn und Wasserwegen bzw. Hafenbahn. Straßenverkehr. Im Straßenverkehr stellt Magdeburg einen Verkehrsknotenpunkt dar. Nördlich verläuft die wichtige Ost-West-Magistrale Bundesautobahn A 2 (Europastraße E 30) Oberhausen – Dortmund – Hannover – Magdeburg – Berlin, welche mit täglich circa 66.000 passierenden Fahrzeugen eine der am meisten frequentierten Autobahnen Deutschlands ist. Sie ist in Sachsen-Anhalt sechsspurig ausgebaut und verfügt über eine Verkehrsbeeinflussungsanlage. Die A 2 kreuzt am Autobahnkreuz Magdeburg die A 14 Dresden – Leipzig – Halle (Saale) – Magdeburg. Für die A 14 ist eine Nord-Verlängerung (Altmark Autobahn) nach Schwerin geplant. Dieses Bauvorhaben steht stark in der Kritik, da das Verkehrsaufkommen der A 14 keinen Ausbau zur Autobahn erfordere und die bestehende Bundesstraße den Anforderungen komplett gerecht sei. Durch Magdeburg führt die Bundesstraße 1 Aachen – Düsseldorf – Braunschweig – Magdeburg – Potsdam – Berlin – Küstrin-Kietz, welches die wichtigste Ost-West-Verbindung der Stadt ist. Im Osten von Magdeburg beginnt die B 184 Richtung Dessau – Bitterfeld – Leipzig aus der B1 heraus. In Nord-Süd-Richtung wird Magdeburg von den Bundesstraßen B 71 Bremerhaven – Uelzen – Haldensleben – Magdeburg, B 81 Magdeburg – Halberstadt – Netzkater und B 189 Magdeburg – Stendal – Wittstock durchquert. Diese Bundesstraßen führen über den Magdeburger Ring, eine das Stadtzentrum westlich tangierende Hochstraße aus den 1970er Jahren, von dem ihr im Volksmund auch gebräuchliche Name "Tangente" stammt. Die Bezeichnung als „Ring“ stammt bereits aus dem 19. Jahrhundert, wo dort schon eine Ringstraße existierte, die die Stadt in einem Halbkreis umging. Er ist außerdem zusammen mit der B 1 und weiteren Straßen Bestandteil des sogenannten „City-Rings“, einem Verkehrskonzept bestehend aus vier Tangenten, die den Durchgangsverkehr um die Innenstadt herum lenken sollen. Seit dem 1. September 2011 besteht in Magdeburg eine Umweltzone, um die Feinstaubwerte in der Innenstadt niedrig zu halten. Sie umfasst praktisch die gesamte Innenstadt. Sie gilt nicht für den Magdeburger Ring mit seinen Auffahrten, den Konrad-Adenauer-Platz und die Maybachstraße. Somit unterliegt der Durchgangsverkehr auf Magdeburger Ring und der Zugang zum Hauptbahnhof und ZOB keinen Beschränkungen. Im Stadtgebiet gibt es zwei relevante Straßentunnel. Der erste Tunnel am Askanischen Platz wurde 1998 fertiggestellt und unterläuft die B 1. Am Universitätsplatz wurde 2005 der zweite Straßentunnel, der die B 1 unter den Verkehrsknotenpunkt hindurchführt, eröffnet. Geplant ist ein dritter Straßentunnel am Verkehrsknotenpunkt Damaschkeplatz/Hauptbahnhof. Er soll zum einen den Verkehr entlasten, da es dort durch Ampelschaltungen, Fahrbahnverengungen und kreuzende Straßenbahnen häufig zu Rückstaus kommt. Zum anderen soll er Grundlage für die Sanierung der Eisenbahnbrücken durch die Deutsche Bahn sein. Mehrere Klagen gegen dieses Bauwerk wurden am 25. Juli 2014 durch das Bundesverwaltungsgericht zurückgewiesen und es wurden vorbereitende Baumaßnahmen begonnen. In Magdeburg gibt es zwei für den Straßenverkehr zugelassene Brückenzüge über die Elbe. Der Nordbrückenzug, der die B 1 überführt, besteht aus den beiden Jerusalembrücken und die Brücken des Friedens. Beide überqueren die Elbe mit zwei nebeneinanderliegenden Brückenbauwerken ausgelegt für zwei Spuren. Der südliche Brückenzug besteht aus der neuen Strombrücke, die zwei Spuren für den Straßenbahnverkehr und vier Spuren für den Straßenverkehr besitzt, jedoch sind seit Jahren aus baulichen Gründen nur zwei Spuren für den Verkehr freigegeben. Weiter führen die Zollbrücke und die Anna-Ebert-Brücke über die Elbe. Da die beiden Brücken in einem maroden Zustand sind, soll in den nächsten Jahren eine neue Elbüberquerung hinter der neuen Strombrücke gebaut werden. Zunächst war eine Pfeilerbrücke geplant, doch durch die gegebene Gefahr eines Hochwassers, wie im Juni 2013, entschloss man sich für die kostenintensivere Hängebrücke. Gebaut für Fußgänger, Radfahrer, den ÖPNV und Taxiverkehr überquert die Sternbrücke im Süden Magdeburgs die Elbe. Sie wird nur in Ausnahmefällen für den allgemeinen Straßenverkehr geöffnet. Insgesamt verfügt Magdeburg über ein rund 1100 km langes Straßennetz. Der Kraftfahrzeugbestand beläuft sich auf etwa 117.000 Fahrzeuge ohne Anhänger, darunter rund 99.000 Pkw. Damit kommen auf 100 Einwohner 50,9 Kraftfahrzeuge, bezogen auf die Bevölkerung im Dezember 2009. Straßennamen. Die Spiegelbrücke ist eine der ältesten dokumentierten Straßennamen in Magdeburg. 1284 wurde sie als „pons speculorum“ erwähnt. Die meisten Straßennamen zu der Zeit leiteten sich von den anliegenden Berufsgruppen ab (z. B. Goldschmiedebrücke). Eine Vielzahl von Straßen in Magdeburg endet mit dem Wort -brücke, was nicht auf die Brücke im heutigen Sinne zurückzuführen ist, sondern eher auf die gepflasterten Wege und Straßen. Andere Bezeichnungsarten waren markante Hauszeichen in der Straße, Lage der Straßen an Gebäuden oder auf spezielle Eigenarten der Straßen. Ab 1871 ging die Benennung der Straßen überwiegend auf monarchistische oder geschichtliche Hintergründe, militärisch motivierte oder Dichternamen zurück. In der Weimarer Republik und in der Zeit des Nationalsozialismus gingen viele Namen auf berühmte politische Persönlichkeiten zurück, darunter der Kaiser-Wilhelm-Platz oder die Göringstraße. Während der Nachkriegszeit verschwanden wieder viele dieser Namen, ihre ursprünglichen Namen kehrten zurück. Zur Zeit der DDR und des Wiederaufbaus nach dem Zweiten Weltkrieg wurden alte Magdeburger Stadtstrukturen nicht berücksichtigt, und viele alte Straßen und Plätze wurden überbaut oder verschwanden. Sie bekamen neue Namen, z. B. wurde der Breite Weg in die Karl-Marx-Straße umbenannt. Nach der Wende in der DDR bekamen ab 1990 viele Plätze, Straßen und Brücken ihre alten Namen wieder zurück. Öffentlicher Personennahverkehr. Der ÖPNV wird in Magdeburg zum einen durch 23 Buslinien (14 bei Tag/9 bei Nacht), die auf 103 km Liniennetzlänge mit insgesamt 58 Fahrzeugen fahren, und zum anderen durch die 9 Straßenbahnlinien, die mit über hundert Straßenbahnwagen auf einer Strecke von 102,9 km fahren, der Magdeburger Verkehrsbetriebe realisiert. Dazu kommen Regionalbuslinien verschiedener Verkehrsunternehmen, die den westlich neben dem Hauptbahnhof gelegenen Zentralen Omnibusbahnhof (ZOB) anfahren und somit die Zubringerfunktion aus umliegenden Gemeinden und Städten erfüllen. Der ZOB ist auch Knotenpunkt im überregionalen Fernbusliniennetz. Die S-Bahn und einige andere Regionalzüge verkehren außerdem in Magdeburg, haben aber für den Stadtverkehr nur eine untergeordnete Rolle im ÖPNV. Das Tochterunternehmen "Magdeburger Weiße Flotte GmbH" unterhält zurzeit zwei Fähren über die Elbe in der Stadt und beförderte im Jahr 2008 rund 36.000 Menschen. Insgesamt werden pro Jahr rund 60 Millionen Menschen auf neun Millionen Kilometern transportiert. Seit dem 12. Dezember 2010 besteht in Magdeburg und den umliegenden Landkreisen der Magdeburger Regionalverkehrsverbund (marego). Ziel war ein einheitliches Tarifsystem aller Verkehrsmittel des ÖPNV, eine bessere Abstimmung der Verkehrsmittel und eine gemeinsame Vermarktung. Fahrradverkehr. Bereits durch den Status als Universitätsstadt und Hochschulstandort hat der Fahrradverkehr im Stadtbild deutlichen Anteil. Durch die Stadt führt der 1220 km lange Elberadweg, der von Tschechien bis an die Nordsee reicht und zu den beliebtesten Radfernwegen Deutschlands zählt. Ein weiterer Radfernweg, der wegen der guten Bahnanbindung in Magdeburg beginnt, ist der Aller-Radweg, der von Magdeburg zur Allerquelle nahe Oschersleben und dann auf 248,5 km an der Aller entlang führt. Innerhalb der Stadt und ins Umland führen lokale und regionale Radwanderrouten, die z. B. von der Touristeninformation angeboten werden und z.T. auch ausgeschildert sind. In Magdeburg existieren (Stand 2011) Radwege mit einer Länge von rund 494 km. Davon sind etwa 278 km straßenbegleitend und rund 216 km eigenständig geführt. Die rund 250 m lange Fahrradstraße innerhalb einer Parkanlage an Schrote besitzt eher symbolische Natur. Bedarf für weitere Fahrradstraßen ist für die Stadtverwaltung bisher nicht erkennbar. Fast alle großen Hauptstraßen sind mit Radverkehrsanlagen unterschiedlicher Qualität ausgestattet, die im Zuge von Straßenbauprojekten modernisiert werden. In vielen Nebenstraßen, vor allem in Wohngebieten, gilt Tempo 30. Es gibt ein Projekt zur Verbesserung der Verkehrssicherheit mittels gesponserter Trixi-Spiegel. In zentralen Bereichen wurden in den letzten Jahren moderne öffentliche Fahrradabstellbügel installiert. Das flache Stadtgebiet und die relativ geringen Regenmengen kommen dem Radfahren entgegen. Trotz dieser guten Voraussetzungen betrug der Modal-Split-Anteil für den Fahrradverkehr 2008 nur 9,8 %. 2013 betrug dieser Wert 12,6 % und lag unter dem Durchschnitt von 14,8 % für „flache“ Oberzentren unter 500.000 Einwohner. Es wird häufig kritisiert, dass der Fahrradverkehr, vor allem der Alltagsverkehr, von der Lokalpolitik kaum nachhaltige Aufmerksamkeit erfährt, diese nicht bereit ist, eine Vorbildfunktion zu übernehmen und sich für die Radverkehrsförderung einzusetzen. Beim Fahrradklimatest des ADFC 2014 lag Magdeburg mit einer Gesamtnote von 3,93 knapp unter dem Durchschnitt von 3,87 in seiner Kategorie und hat sich gegenüber der Note 3,88 im Testjahr 2012 nicht verbessert. Zwar haben sich alle großen Stadtratsfraktionen zu einer mindestens gleichberechtigten Behandlung des Radverkehrs gegenüber dem motorisierten Verkehr bekannt, jedoch wird der Stadtverwaltung angekreidet, dass sie die im Radverkehrsbereich selbstgestecken Ziele nicht umsetzt und die Radverkehrskonzeption trotzdem dem Kraftfahrzeugverkehr nur nachgeordnet und stiefmütterlich behandelt. Die regierende CDU lehnt eine Förderung des Radverkehrs durch Tempo-30-Zonen ab und setzt sich entgegen den Vorgaben der StVO für eine allgemeine Radwegebenutzungspflicht ein. Ampelgriffe, die ein Fahrradladen sponsern wollte, lehnte die Stadt ebenfalls ab. Immer wieder kritisiert werden auch radfahrerunfreundliche Baustellenausschilderungen. Die Stadt ist konstant im oberen Bereich der deutschen Fahrraddiebstahlstatistik bezogen auf Diebstähle/Einwohnerzahl vertreten und führte diese Statistik 2013 an. Es wurden 1665 Fahrräder je 100.000 Einwohner als gestohlen gemeldet. Die Aufklärungsquote betrug überdurchschnittliche 23,9 %. Der Ausbau von Fahrradbügeln außerhalb von „zentralen und tourisch erschlossenen Bereichen“ wird jedoch abgelehnt. Der Vorschlag einer Fahrradstellplatzsatzung um sichere Abstellmöglichkeiten zu fördern wurde von Stadt ebenfalls abgewiesen. Im Zuge von Sparmaßnahmen wurde im April 2015 der Fahrradcodierservice der Polizei eingestellt. In Magdeburg können Fahrräder direkt im Geschäft oder über die Fahrradverleihsysteme Nextbike und Call a Bike ausgeliehen werden. Die Fahrradmitnahme in Bussen und Straßenbahnen der MVB ist außerhalb der Hauptverkehrszeit möglich. Für Abo- und Monatskartenbesitzer ist dieser Service kostenlos, nicht jedoch für Semesterticketnutzer. Im regionalen Nahverkehrsverbund marego und in allen Nahverkehrszügen der Deutschen Bahn in Sachsen-Anhalt ist die Fahrradmitnahme kostenlos. Die Anzahl der Fahrradabstellmöglichkeiten am Hauptbahnhof liegt im unteren dreistelligen Bereich – ein sehr geringer Wert für Städte dieser Größenordnung. Am ZOB sind gar keine Fahrradabstellanlagen vorhanden. Schifffahrt. Schiffshebewerk in Rothensee bei der Wiedereröffnung 2013 Schon seit Jahrhunderten ist die Elbe für die Binnenschifffahrt die wichtigste Nord-Süd-Verbindung der Region, da sie Magdeburg mit dem Seehafen Hamburg und Dresden verbindet. Die Großraumgebiete Berlin, Hannover, Halle (Saale)/Leipzig und das Ruhrgebiet verbindet der nördlich von Magdeburg gelegene Mittellandkanal, der die Elbe in einer Trogbrücke kreuzt, bevor er östlich des Wasserstraßenkreuzes auf den Elbe-Havel-Kanal trifft. Teil des Wasserstraßenkreuzes ist die Sparschleuse Rothensee; sie ermöglicht es Großmotorgüterschiffen und Schubverbänden bis 185 Metern Länge, vom Mittellandkanal aus den Magdeburger Hafen anzulaufen oder auf die Elbe zu wechseln. Die Schleuse ersetzte 2006 das Schiffshebewerk Rothensee von 1938. Dieses historische Bauwerk wurde 2013 jedoch nach sieben Jahren Schließung wieder in Betrieb genommen und wird fortan für Sport- und Tourismusboote genutzt. Eine Initiative protestierte gegen die Schließung des technischen Denkmals. Weiterhin gehören zur Vervollständigung des Wasserstraßenkreuzes die östlich gelegene Schleuse Niegripp, die für die Elbe – Elbe-Havel-Kanal-Verbindung zuständig ist, und die Schleuse Hohenwarthe, die den Höhenunterschied zwischen den beiden Kanälen ausgleicht. Der Hafen Magdeburg ist der größte Binnenhafen in den neuen Bundesländern und besteht aus vier einzelnen Häfen: Kanalhafen, Industriehafen, Hansehafen und Handelshafen. Er bietet durch seine Lage eine gute Ausgangssituation für den Umschlagverkehr. An den Häfen lassen sich Waren aller Art umschlagen, unter anderem Getreide, Zucker, Metalle und Mineralölprodukte. 2010 kamen somit drei Millionen Tonnen Umschlaggüter zusammen. Der gesamte Hafen ist 655 ha groß. Im Dezember 2013 wurde die Niedrigwasserschleuse eröffnet. Somit sind der Hansehafen und der Kanalhafen in Zukunft unabhängig vom Wasserstand der Elbe das ganze Jahr schiffbar. Im Jahr 2014 wurden beim Hafenbetreiber "Magdeburger Hafen GmbH" Güter mit einem Gewicht von rund 3,5 Millionen Tonnen umgeschlagen. Touristisch wird Magdeburg auf dem Wasser durch die Weiße Flotte mit ihrem Hauptanleger am Petriförder erschlossen. Sie bietet unter anderem Rundfahrten auf der Elbe und zum Wasserstraßenkreuz an. Auch Flusskreuzfahrtschiffe laufen Magdeburg regelmäßig an. Im Sportschiffahrtsbereich existieren mehrere Sportboothäfen. Unter der Leitung von Magdeburg haben sich die europäischen Städte Aarhus, Białystok, Manresa, Halle (Saale), Newcastle upon Tyne, Piräus und Wien zum „REDIS“-Projekt (Restructuring Districts into Science Quarters) zusammengeschlossen. Ziel ist es, ein Stadtviertel in Wissenschaftsquartiere umzuwandeln. Gefördert durch das „URBACT“-Programm werden sie von der Europäischen Union. Magdeburg will den Handelshafen in Zukunft zum Museums- und Wissenschaftshafen umbauen. 2007 wurden somit in einem ersten Schritt zwei alte südlich des Hafens gelegene Getreidespeicher zur Büronutzung für innovative Unternehmen und Forschungseinrichtungen umgebaut. 2006 war am alten Handelshafen das „Virtual Development and Training Centre“ des Fraunhofer-Instituts für Fabrikbetrieb und -automatisierung IFF entstanden. Flugverkehr. Am südlichen Stadtrand befindet sich der 1936 erbaute Flugplatz Magdeburg, der über die öffentlichen Verkehrsmittel, über das Flugplatzleitsystem der Stadt oder über die A 14 erreichbar ist. Zurzeit ist der Flugplatz an die private "FMB Flugplatz Magdeburg Betriebsgesellschaft mbH" verpachtet und wird für den Luftsport (Segelflieger, Fallschirmspringer) und Privatflieger sowie für Rundflüge (Ballonfahrten) genutzt. Auf zwei Landebahnen verzeichnet er im Jahr rund 30.000 Flugbewegungen. 40 Kilometer südsüdwestlich von Magdeburg liegt der 1956 errichtete Flughafen Magdeburg-Cochstedt. Dort finden seit dem 30. März 2011 wieder Linienflüge, vorwiegend in den Mittelmeerraum, statt. Zu erreichen ist er über die Autobahn A 14, die ihn auch mit den A 2 und A 9 verbindet. Die nächstgrößeren Verkehrsflughäfen sind die Flughäfen Halle, Berlin-Tegel, Berlin-Schönefeld und Hannover. Der Flughafen Leipzig/Halle kann von Magdeburg aus direkt ohne Umstieg per InterCity-Verbindung erreicht werden. Medien. Das Faberhaus -Der Redaktionssitz der Volksstimme In Magdeburg befindet sich das Landesfunkhaus Sachsen-Anhalt des Mitteldeutschen Rundfunks (MDR) mit seinen Fernseh- und Hörfunkstudios. Regionalfernsehsender aus Magdeburg sind MDF.1, der Offene Kanal und "kultur MD". Außerdem existieren einige internetbasierte Sender, unter anderem „kulturmd InternetTV“, „CampusTV“ der Universität Magdeburg und „MD-Web TV“, welcher neben kulturellen Beiträgen vorwiegend Sportbeiträge produziert. Als öffentlich-rechtlicher Radiosender ist in Magdeburg nur MDR Sachsen-Anhalt vertreten. Sein Schwerpunkt liegt auf Wortbeiträgen und Informationen aus Sachsen-Anhalt und liegt auf Platz zwei der meist gehörten Radiosender in Sachsen-Anhalt. Als Musikrichtung werden vorwiegend Schlager und Oldies gespielt. Dazu kommen zwei private Hörfunkprogramme, die im „Hansapark“ produziert werden: radio SAW und Rockland Sachsen-Anhalt. Radio SAW ist der erste private Hörfunksender Sachsen-Anhalts, der reichweitenstärkste private Radiosender im Osten und gleichzeitig hat er in Sachsen-Anhalt mit über 258.000 Hörern pro Stunde die meisten Zuhörer. Deutschlandweit gesehen liegt er sogar unter den zehn beliebtesten Radiosendern auf Platz 4. Die Zielgruppe sind 10- bis 49-Jährige. Rockland Sachsen-Anhalt zielt ebenfalls auf eine junge Hörerschaft ab und spielt vorwiegend Rockmusik sowie programmbegleitende Dienste. Er war der erste digitale Radiosender Deutschlands. Außerdem betreibt die Universität den Radiosender "GUERICKE FM". In Magdeburg erschien von 1664 bis 1944 ununterbrochen die älteste deutschsprachige Zeitung, die Magdeburgische Zeitung. Danach wurde sie mit der NS-Zeitung „Der Mitteldeutsche – Neues Magdeburger Tageblatt“ zusammengelegt. Als Tageszeitung erscheint die Magdeburger Volksstimme (Auflage ca. 190.000). Gedruckt wird sie vom Magdeburger Verlags- und Druckhaus GmbH. Die Bild-Zeitung ist mit einer Lokalredaktion vertreten. Als wöchentliches Anzeigenblatt erscheinen seit 1992 der „Magdeburger Sonntag“ (Auflage: ca. 130.000) und seit 2009 der „elbekurier“ (Auflage: ca. 120.000). Außerdem erscheint seit 1990 zweimal wöchentlich der „General-Anzeiger“ (Auflage: ca. 600.000). In Magdeburg wird seit 1993 das landesweit erscheinende Wirtschaftsmagazin „Wirtschaftsspiegel“ herausgegeben. Daneben gibt die Handwerkskammer Magdeburg in Kooperation mit den Handwerkskammern in Niedersachsen die Wirtschaftszeitung Norddeutsches Handwerk (Auflage: ca. 95.000) heraus. Eine Besonderheit bildet die wöchentlich erscheinende katholische Zeitung Tag des Herrn, herausgegeben vom Erzbistum Berlin und den Bistümern in Dresden-Meißen, Erfurt, Görlitz und Magdeburg. Die Stadtmagazine „DATEs“ (Auflage: ca. 28.000), „port01 Magdeburg“ (Auflage 10.000), „kulturschwärmer“ (Auflage 13.000) und „Urbanite“ (Auflage ca. 30.000) erscheinen monatlich. Der „Magdeburger Kurier“ erscheint monatlich seit 1994 für die Bürger im aktiven Ruhestand. Die Zeitung „Magdeburg Kompakt“ (Auflage 22.000) erscheint ebenfalls monatlich und befasst sich mit speziellen Themen rund um aus Magdeburg. Seit 2006 wird in Magdeburg der Freizeitplaner „wohin“ mit zwei Ausgaben für ganz Sachsen-Anhalt herausgegeben. Öffentliche Einrichtungen. Magdeburg ist heutzutage ein wichtiger Verwaltungssitz für diverse Einrichtungen, Institutionen, Körperschaften und Anstalten des öffentlichen Rechts. Das Magdeburger Justizzentrum Eike von Repgow am Breiten Weg ist Sitz verschiedener Gerichte. Darunter befinden sich neben dem Amtsgericht Magdeburg das Arbeitsgericht Magdeburg, das Sozialgericht Magdeburg, das Verwaltungsgericht Magdeburg und das Oberverwaltungsgericht Magdeburg. In einem eigenen Gebäude an der Halberstädter Straße befindet sich darüber hinaus das Landgericht Magdeburg, in dem auch im Januar 2011 der überregional bekanntgewordene Prozess um das Revisionsverfahren im Todesfall von Oury Jalloh verhandelt wurde. Das Gebäude der früheren Wasser- und Schifffahrtsdirektion Ost Die Wasser- und Schifffahrtsdirektion Ost hatte seinen Sitz in Magdeburg und insgesamt etwa 2500 Beschäftigte. Der Direktion nachgeordnet sind mehrere Ämter in diversen Städten, darunter das Wasser- und Schifffahrtsamt Magdeburg mit einem Gebäude am Fürstenwall. Das Wasserstraßen-Neubauamt Magdeburg (WNA Magdeburg) ist verantwortlich für die Bauwerke des Wasserstraßenkreuzes Magdeburg, darunter zum Beispiel die Sparschleuse Rothensee, die Kanalbrücke über die Elbe oder die Schleuse Hohenwarthe. Außerdem hat die Internationale Kommission zum Schutz der Elbe (IKSE) ihren Sitz in Magdeburg. Nach der Wiedervereinigung Deutschlands wurde Magdeburg zur Landeshauptstadt von Sachsen-Anhalt gewählt. Somit ist sie Sitz des Landtages von Sachsen-Anhalt sowie der Landesregierung von Sachsen-Anhalt und der Landesministerien. Darunter befinden sich unter anderem das Kultusministerium, das Ministerium für Wissenschaft und Wirtschaft, das Finanzministerium, das Ministerium für Arbeit und Soziales, das Landwirtschafts- und Umweltministerium, das Ministerium für Landesentwicklung und Verkehr, das Ministerium für Inneres und Sport sowieso das Justiz- und Gleichstellungsministerium. Das in Magdeburg ansässige Bistum Magdeburg gehört zur römisch-katholischen Kirche des Christentums. Es ging aus dem Erzstift Magdeburg hervor und besitzt diverse Dekanate und kirchliche Einrichtungen in Sachsen-Anhalt. Zudem unterhält es eine Partnerschaft mit dem Bistum Kaišiadorys in Litauen. Die mitgliederstärkste sakrale Einrichtung in Magdeburg ist die Evangelische Kirche in Mitteldeutschland (EKM). Sie ist eine von 20 Gliedkirchen der Evangelischen Kirche in Deutschland (EKD). Magdeburg ist der Sitz des Landesbischofs. Die Oberfinanzdirektion Magdeburg, dem Ministerium für Finanzen Sachsen-Anhalt untergeordnet, befindet sich in der Otto-von-Guericke-Straße und sticht durch ihre besondere Architektur hervor. 1991 wurde die Telemann-Gesellschaft e. V. (Internationale Vereinigung) in Magdeburg gegründet und hat hier ihren Sitz. Weitere Einrichtungen in Magdeburg sind das Prüfungsamt des Bundes, das eines von neun Prüfungsämtern in Deutschland ist, das Landesamt für Verbraucherschutz – Fachbereich Hygiene, die Bundesanstalt für Immobilienaufgaben Magdeburg, Agentur für Arbeit Magdeburg und die Filiale Magdeburg der Deutschen Bundesbank (einzige Filiale in Sachsen-Anhalt), welche der Hauptverwaltung in Bremen, Niedersachsen und Sachsen-Anhalt in Hannover untersteht, das Hauptzollamt, die Bundespolizeiinspektion Magdeburg, die der Bundespolizeidirektion Pirna nachgeordnet ist, das Kreiswehrersatzamt und der Ortsverband Magdeburg der Bundesanstalt Technisches Hilfswerk. Hochschulen. Campustower (links) und Fakultät für Elektro- und Informationstechnik (rechts) Magdeburg ist Sitz der Otto-von-Guericke-Universität, die 1993 aus der 1953 gegründeten und später in Technische Hochschule und "Technische Universität Magdeburg" umbenannten Hochschule für Schwermaschinenbau Magdeburg und aus der 1954 gegründeten Medizinischen Akademie Magdeburg und aus der Pädagogischen Hochschule Magdeburg hervorging. Damit gehört die Universität zu den jüngsten Hochschulen in Deutschland. Die Traditionslinien der drei Hochschulen sind in den Schwerpunkten der heutigen, modernen Universität immer noch erkennbar, denn zu ihrem Profil gehören immer noch die Ingenieur- und Naturwissenschaften sowie die Medizin und Wirtschafts-, Sozial- und Geisteswissenschaften. Exzellenzschwerpunkte der Forschung sind aber Neurowissenschaften, Dynamische Systeme und Automotive. Die Otto-von-Guericke-Universität sieht sich wegen ihrer Lage in der Mitte Deutschlands und ihrer Geschichte als die Brücke zwischen West- und Osteuropa, was auch durch die Internationalisierung von Forschung und Lehre deutlich wird. Als Namensgeber wurde der Erfinder, Naturforscher und Bürgermeister der Stadt Otto von Guericke gewählt, da er durch seine bahnbrechenden Forschungen zum Vakuum und Luftdruck weltweit berühmt wurde. Er gilt als Begründer der Vakuumtechnik und ebenso als Erfinder des Barometers und der Luftpumpe. An der Universität studieren knapp 14.000 Studenten an insgesamt neun Fakultäten mit über 70 Studiengängen. Zu den zentralen Einrichtungen der Universität gehören die Universitätsbibliothek mit einem Bestand von etwa 1,2 Millionen Bänden, das Sprachzentrum der Universität, das Studentenkurse in ausländischen Sprachen anbietet, und das Technologie-Transfer-Zentrum, das eine zentrale Kommunikations- und Servicestelle für die Universität und Wirtschaft darstellt. Weitere Einrichtungen sind das Audio-Visuelle Medienzentrum, das Universitätsarchiv, das Sportzentrum, das Universitätsrechenzentrum, die zentralen Dienstleistungseinrichtungen der medizinischen Fakultät, das Patentinformationszentrum, die DIN-Auslegestelle und das Internationale Begegnungszentrum. Hochschule Magdeburg-Stendal – Mensa und Laborhalle 1 Des Weiteren befindet sich ein Standort der Hochschule Magdeburg-Stendal in der Stadt. Gegründet wurde sie 1991 und führt die hundertjährige Tradition der Ingenieurausbildung fort, denn 1793 existierte in Magdeburg schon eine Kunstschule für eine zeichnerische Ausbildung von Baufachleuten. Später wurde sie erst in „Magdeburgische Provinzial-, Kunst- und Bauhandwerkerschule“, dann in „Ingenieurschule für Bauwesen“ umbenannt. In den 1950er Jahren wurde eine Fachschule für Chemie nach Magdeburg verlagert (Bereich Wasserwirtschaft). Diese und die Ingenieurschule für Maschinenbau und Elektrotechnik prägten die Stadt sehr. Alle Fachbereiche sind auf einem neuen Campus zwischen Elbauenpark und dem Herrenkrug zu finden. 4800 Studenten sind derzeitig an der Hochschule in Magdeburg eingeschrieben. Fünf Fachbereiche hat die Hochschule im Standort Magdeburg, im Angebot stehen mehr als 30 Studiengänge, wovon einige selten oder einmalig in Deutschland sind. Leiter der Hochschule ist Andreas Geiger. Die Fachhochschule kann sich außerdem laut einer deutschlandweiten Umfrage des Hochschulmagazins Unicum aus dem Jahr 2009 mit Deutschlands zweitschönstem Campus rühmen. Weitere Wissenschaftseinrichtungen und Institute. Magdeburg beherbergt eine Vielzahl an Forschungseinrichtungen und hat sich somit als erfolgreicher Wissenschaftsstandort etabliert. 1991 gegründet, liegen die Fachbereiche des Fraunhofer-Instituts für Fabrikbetrieb und -automatisierung (IFF) in der Forschung und Entwicklung der Fächer Ingenieurwissenschaft und Wirtschaftswissenschaft auf den Gebieten Wirtschaftsingenieurwesen und Wirtschaftsinformatik. Das 1996 gegründete Max-Planck-Institut für Dynamik komplexer technischer Systeme ist das erste Institut der Max-Planck-Gesellschaft, das sich schwerpunktmäßig mit den Ingenieurwissenschaften beschäftigt. Die Leibniz-Gemeinschaft unterhält seit 1992 das Leibniz-Institut für Neurobiologie (LIN) in Magdeburg, das sich mit Naturwissenschaften auf dem Gebiet der Neurowissenschaften und Molekularbiologie befasst. Dort steht Europas erster 7-Tesla-Ultrahochfeld-Kernspintomograph seit 2005. Außerdem befindet sich das Helmholtz-Zentrum für Umweltforschung – UFZ (Sektion Gewässerforschung) mit einem von sechs Standorten und das Deutsche Zentrum für Neurodegenerative Erkrankungen – DZNE, welches die Möglichkeiten des Lernens untersucht, um das Gedächtnis zu verbessern, mit einem von neun Standorten in Magdeburg. Die Landeshauptstadt Magdeburg ist weiterhin „Korporativ Förderndes Mitglied“ der Max-Planck-Gesellschaft. Die Otto-von-Guericke-Universität Magdeburg unterhält auch das Zentrum für Neurowissenschaftliche Innovation und Technologie (ZENIT) und das Zentrum für qualitative Bildungs-, Beratungs- und Sozialforschung (ZBBS). Im Magdeburger Stadtquartier Wissenschaftshafen, dem ehemaligen Handelshafen der Stadt, haben sich mehrere Forschungseinrichtungen angesiedelt. Größtes Unternehmen ist das 1991 gegründete "ifak – Institut für Automation und Kommunikation", das sich unter anderem mit der Prozessindustrie, der Umwelttechnik und der Sensor- und Messtechnik befasst. Weitere Einrichtungen im Wissenschaftshafen sind die "Experimentelle Fabrik", ein Forschungs- und Transferzentrum für anwendungsorientierte Forschung, das "Virtual Development and Training Centre" (VDTC) des Fraunhofer-Instituts Fabrikbetrieb und -automatisierung (IFF), einem modernen Forschungszentrum für virtuelle Technologien mit Hightech-Laboren, und das 2009 fertig gestellte Elbe-Office als Büro- und Forschungsgebäude mit moderner Technik und Ausstattung. Das "Gender-Institut Sachsen-Anhalt" (GISA) arbeitet an der Bündelung, Realisierung und Koordination von Forschungs- und Bildungsaktivitäten zur Umsetzung des Gender-Mainstreaming-Konzeptes. Mit den Mechanismen kognitiver Hirnfunktionen, wie z.B. Gedächtnis, Motivation, Handeln, Entscheidungsfindung und Verkehrskontrolle, befasst sich das "Institut für kognitive Neurologie und Demenzforschung" (IkND). Schwerpunkt des Instituts liegt in der Erforschung der Störung der Hirnfunktionen und bei neurodegenerativen Erkrankungen. Weitere Institute sind das "Institut der Feuerwehr Sachsen-Anhalt" (IdF LSA) und das "Institut für Lacke und Farben" (ILF). Projekte und Veranstaltungen. Neben den Hochschulen finden in Magdeburg auch an außeruniversitären Wissenschaftseinrichtungen diverse Forschungsprojekte statt. Um die Stadt auch als Wissenschafts- und Forschungsstandort zu stärken, wurde sie Projektpartner des URBACT-Projekt "EUniverCities". Ziel dieses Projektes ist es, die Kooperation zwischen Stadtverwaltungen und Universitäten auf lokaler Ebene zu stärken. Verhandlungsthemen des Projektes sind zum Beispiel die Entwicklung von wirkungsvollen Marketingstrategien, die Förderung des Technologietransfers und der Ausbau der Beziehungen in Wirtschaft und Wissenschaft. Ebenso werden der Bedarf einer studentischen Kulturszene und speziellen Wohnungsangeboten oder Nahverkehrslösungen angesprochen. Weitere Partner des "EUniverCities"-Projekts sind Aachen, Aveiro, Delft, Gent, Lecce, Linköping, Lublin, Tampere und Varna. Eines der größten Projekte der Stadt Magdeburg ist die Umwandlung des historischen Handelshafens in der Nähe der Universität zum modernen Wissenschaftshafen. Als vielfältiges Stadtquartier mit Wohnnutzung, Dienstleistungen, Freizeit und Tourmismus soll dort vor allem ein Zentrum für Wissenschaft und Forschung entstehen. Vorzeigebau im Wissenschaftshafen ist die Denkfabrik, welche zwei ehemalige Getreidespeicher vereint und zu 4600 m² großen Büroflächen für innovative Forschungsunternehmen umgebaut wurde. Außerdem arbeitet die OVGU zusammen mit weiteren Partnern in Sachsen-Anhalt in der angewandten Logistik- und Verkehrsforschung am Referenzprojekt „Transport Galileo“ mit der gezielten Entwicklung von Innovationen im Verkehrs-, Mobilitäts- und Logistiksektor. Für die Umsetzung werden das europäische Satellitennavigationssystem sowie weitere satellitengestützte und terrestrische Ortungs-, Navigations- und Kommunikationssysteme genutzt. Die Infrastruktur des Galileo-Testfeldes erstreckt sich neben Magdeburg auch über Halle (Saale). 2006 war in Magdeburg "Das Jahr der Wissenschaft". Dies war eine Initiative der Stadtverwaltung in Kooperation mit den Forschungseinrichtungen und weiteren Institutionen aus allen gesellschaftlichen Bereichen der Stadt. Es fanden über das ganze Jahr verteilt über 200 Veranstaltungen statt, dazu zählen auch Großveranstaltungen wie die Auftaktveranstaltung in der Magdeburger Johanniskirche, das RoboCup Junior WM-Qualifikationsturnier, das Fest der Wissenschaft im neuen Wissenschaftshafen und der Europäische Kongress der Wissenschaftsstädte. Außerdem haben sich auch jährliche, wissenschaftliche Veranstaltungen wie "Die lange Nacht der Wissenschaft", die im Wissenschaftsjahr 2006 erstmals durchgeführt wurden, etabliert. Es finden unter anderem wissenschaftliche Vorträge und faszinierende Experimente an verschiedenen Orten der Stadt statt, welche mit einem Shuttle-Bus erreicht werden können. Jedes Jahr findet die Veranstaltung unter einem anderen Motto statt. Eine weitere wichtige Veranstaltung sind die seit 2010 in Magdeburg stattfindenden RoboCup German Open in den Magdeburger Messehallen. Zu jeder Veranstaltung strömen mehrere Tausend Besucher in die Hallen um Roboter internationaler Teams in verschiedenen Disziplinen wie Roboterfußball, Tanzen und Retten gegeneinander antreten zu sehen. Bibliotheken und Archive. Die öffentliche Stadtbibliothek Magdeburg unterhält die Zentralbibliothek, die Stadtteilbibliotheken in Magdeburg Sudenburg, Magdeburg Reform und im Florapark und die Fahrbibliothek, die seit mehr als 30 Jahren die restlichen Stadtteile und Stadtrandgebiete anfährt, und besitzt insgesamt rund 370.000 Bestandseinheiten. Mit der Verwaltungsbibliothek Magdeburg, einer wissenschaftlichen Spezialbibliothek, der Universitätsbibliothek, die sich in die Universitätsbibliothek auf dem Campus am Universitätsplatz und Medizinische Zentralbibliothek auf dem Campus der Medizinischen Fakultät teilt und einen Bestand von rund 1.250.000 Bänden hat, und der Hochschulbibliothek der Hochschule Magdeburg-Stendal deckt Magdeburg auch die speziellen Interessen während der Aus- oder Weiterbildung ab. Die Bibliothek und das Archiv des Zentrums für Telemann-Pflege und -Forschung haben einen Bestand von rund 10.000 Bänden und befassen sich mit Georg Philipp Telemanns und der Musikgeschichte Magdeburgs. Das Salbker Lesezeichen stellt einen öffentlichen Bücherschrank, eine Veranstaltungsbühne und eine Lärmschutzwand dar. Das Konzept besteht darin, dass Bücher aus den Vitrinen herausgenommen und gelesen werden können, später dann zurückgestellt werden oder durch neue Bücher ersetzt werden sollen. Auch in Salbke befindet sich die „Leonardo-Bibliothek“, eine Präsenzbibliothek. Das Landeshauptarchiv Sachsen-Anhalt, Ministerialarchiv des Landes Sachsen-Anhalt und Archiv der ehemaligen Zentralbehörden der preußischen Provinz Sachsen, des Freistaates Anhalt und deren Vorgängerterritorien, ist eines der größten deutschen Staatsarchive und hat an fünf Standorten rund 50 laufende Regalkilometer Datenträger aus elf Jahrhunderten deutscher Geschichte. Weitere nennenswerte Archive sind das Landeskirchen Archiv Magdeburg und das Stasi-Archiv Magdeburg, mit zusammen rund 7000 laufenden Metern Schriftgut, topographischen Karten sowie Bild- und Tondokumenten der ehemaligen Staatssicherheit Magdeburg. Das Bistum Magdeburg unterhält eine eigene Bibliothek mit etwa 2500 Bänden und ein eigenes Archiv. Schulwesen. Die Schullandschaft Magdeburgs ist vielfältig. Insgesamt 37 Grundschulen, darunter z.B. die „Dreisprachige Internationale Grundschule“, die „St.-Mechthild-Grundschule", 13 Sekundarschulen, unter ihnen die Sportsekundarschule „Hans Schellheimer“ oder die „Abendsekundarschule“, acht Gymnasien, bspw. das „Werner-von-Siemens Gymnasium“ mit mathematisch-naturwissenschaftlich Schwerpunkt und das „Sportgymnasium Magdeburg“, sowie zwei integrierte Gesamtschulen und insgesamt vier berufsbildende Schulen sind in Magdeburg vorhanden. Außerdem gibt es zehn Förderschulen, eine Ökoschule (Schulumweltzentrum), eine Botanikschule, eine Volkshochschule, eine Malschule und einige Musikschulen, darunter eine der größten in Sachsen-Anhalt, das Konservatorium Georg Philipp Telemann mit etwa 2600 Schülern. Gesundheitswesen. Die Stadt ist Mitglied des bundesweiten Gesunde-Städte-Netzwerkes und verfügt mit zwei Maximalversorgern, zwei weiteren Krankenhäusern und einer großen Zahl an niedergelassenen Ärzten über eine gute medizinische Infrastruktur. Auf einen Arzt kommen etwa 480 Einwohner. Zu den Maximalversorgern zählen das Universitätsklinikum Magdeburg mit 1128 Betten und das Klinikum Magdeburg mit über 735 Betten. Die Basisversorgung nehmen die Pfeifferschen Stiftungen mit 234 Betten und das Krankenhaus St. Marienstift mit 125 Betten wahr. Außerdem eröffneten die Pfeifferschen Stiftungen im März 2013 Sachsen-Anhalts erstes Kinderhospiz und damit gleichzeitig das erste evangelische Kinderhospiz in den neuen Bundesländern. Es werden dort sterbende sowie an gravierenden, lebensverkürzenden Krankheiten leidende Kinder im Rahmen der Palliativmedizin und -pflege versorgt, wobei auch die Begleitung der Angehörigen ein tragendes Element darstellt. Die Klinik des Westens Magdeburg ist eine Belegklinik mit zehn Betten. Die Praxisklinik Sudenburg ist ein Ärztehaus mit vier Operationssälen. Die Median Kliniken betreiben das Neurologische Rehabilitationszentrum Magdeburg. Die Tagesklinik an der Sternbrücke, "Dr. Kielstein GmbH", behandelt Abhängigkeitserkrankungen und psychosomatische Störungen. Ehrenbürger. Personen, die sich in hervorragender Weise um die Stadt verdient gemacht haben, verleiht der Oberbürgermeister das Ehrenbürgerrecht, die höchste Auszeichnung der Stadt Magdeburg. Verliehen wird es seit dem 19. Jahrhundert. Bisher wurden in Magdeburg 46 Ehrenbürgertitel verliehen. Darunter sind zum Beispiel Otto von Bismarck (Reichskanzler), Carl Gustav Friedrich Hasselbach (Oberbürgermeister 1851–1880) und die bisher einzige Frau Angela Davis (Friedenskämpferin in den USA). Söhne und Töchter der Stadt. Magdeburger Originale an der Stadtmauer Gebürtige Magdeburger von Bedeutung sind unter anderem Hermann Gruson, ein Erfinder, Wissenschaftler und Industrieunternehmer, Adelbert Delbrück der Gründer der Deutschen Bank, Ludwig Karl Friedrich Detroit (Mehmed Ali Pascha), Pascha im Osmanischen Reich, Frank Hengstmann, Kabarettist, Autor und Regisseur, Friedrich Wilhelm von Steuben, preußischer Offizier und US-amerikanischer General, Georg Philipp Telemann, bedeutender Komponist des Barock und Otto von Guericke, der Begründer der Vakuumtechnik und Bürgermeister der Stadt Magdeburg sowie der Generalmajor Henning von Tresckow, ein Widerstandskämpfer gegen den Nationalsozialismus. Persönlichkeiten der Stadt. Mit Magdeburg eng verbunden war das Wirken von Kaiser Otto I. des Heiligen Römischen Reiches, Albert Vater, Mitbegründer der KPD in Magdeburg, Bruno Taut, Architekt und Stadtplaner, Johann Gottlob Nathusius, königlicher Kaufmann und Großindustrieller, Thomas Höhle, Literaturwissenschaftler, Stefan Kretzschmar, Handballspieler, Georg Meyer, Jagdflieger im Ersten Weltkrieg. Magdeburger Originale. Der "Schlackaffe" ist das wohl bekannteste Magdeburger Original. Anfang des 20. Jahrhunderts strich er durch die Magdeburger elbnahe Innenstadt und handelte mit Elbfischen. Typisch war sein speckiger Mantel mit den großen Taschen, in denen er die Fische transportierte. Dementsprechend roch er auch. An der Stadtmauer unterhalb der Magdalenenkapelle sind einige Originale Magdeburgs als Relief zu sehen. Neben dem "Schlackaffen" sind der "Fliegentutenheinrich", der "Affenvater", der "Lusebenecke", die "Blutappelsine" und der "Feuerkäwer" die bekanntesten Magdeburger Originale. Trivia. Die Stadt Magdeburg ist Dreh- und Angelpunkt eines Musikstückes, das 1992 von Manfred Maurenbrecher geschaffen wurde. Dieses Lied mit dem Titel "Magdeburg 92" wurde später vom Mitglied des Deutschen Bundestages Diether Dehm interpretiert. Metaphysik. Die Metaphysik (lat. '; gr. "metá" ‚danach‘, ‚hinter‘, ‚jenseits‘ und "phýsis" ‚Natur‘, ‚natürliche Beschaffenheit‘) ist eine Grunddisziplin der Philosophie. Metaphysische Systementwürfe behandeln in ihren klassischen Formen die zentralen Probleme der theoretischen Philosophie, nämlich die Beschreibung der Fundamente, Voraussetzungen, Ursachen oder „ersten Gründe“, der allgemeinsten Strukturen, Gesetzlichkeiten und Prinzipien sowie von Sinn und Zweck der gesamten Wirklichkeit bzw. allen Seins. Konkret bedeutet dies, dass die klassische Metaphysik „letzte Fragen“ behandelt, beispielsweise: Gibt es einen letzten Sinn, warum die Welt überhaupt existiert? Und dafür, dass sie gerade so eingerichtet ist, wie sie es ist? Gibt es einen Gott/Götter und wenn ja, was können wir über ihn/sie wissen? Was macht das Wesen des Menschen aus? Gibt es so etwas wie „Geistiges“, insbesondere einen grundlegenden Unterschied zwischen Geist und Materie (Leib-Seele-Problem)? Besitzt der Mensch eine unsterbliche Seele, verfügt er über einen Freien Willen? Verändert sich alles oder gibt es auch Dinge und Zusammenhänge, die bei allem Wechsel der Erscheinungen immer gleich bleiben? Gegenstände der Metaphysik sind dabei, so der klassische Erklärungsanspruch, nicht durch empirische Einzeluntersuchungen zugängliche, sondern diesen zugrundeliegende Bereiche der Wirklichkeit. Der Anspruch, überhaupt Erkenntnisse außerhalb der Grenzen der sinnlichen Erfahrung zu formulieren, wurde vielfach auch kritisiert – Ansätze einer allgemeinen Metaphysikkritik begleiten die metaphysischen Systemversuche von Anfang an, sind insbesondere aber im 19. und 20. Jahrhundert entwickelt und oftmals als ein Kennzeichen moderner Weltanschauung verstanden worden. Andererseits hat man Fragen nach einem letzten Sinn und einem systematisch beschreibbaren „großen Ganzen“ als auf natürliche Weise im Menschen angelegt, als ein „unhintertreibliches Bedürfnis“ verstanden (Kant), ja den Menschen sogar als "„animal metaphysicum“", als ein „metaphysiktreibendes Lebewesen“ bezeichnet (Schopenhauer). Seit Mitte des 20. Jahrhunderts werden, klassischer analytisch-empiristischer und kontinentaler Metaphysikkritik zum Trotz, wieder komplexe systematische Debatten zu metaphysischen Problemen von Seiten meist analytisch geschulter Philosophen geführt. Begriffsgeschichte. Der Begriff „Metaphysik“ stammt nach heutiger Mehrheitsmeinung aus einem Werk des Aristoteles, das aus 14 Büchern allgemeinphilosophischen Inhalts bestand. Der Peripatetiker Andronikos von Rhodos (1. Jahrhundert v. Chr.) ordnete in der ersten Aristotelesausgabe diese Bücher hinter dessen acht Bücher zur „Physik“ ein (τὰ μετὰ τὰ φυσικά "tà metà tà physiká" ‚das nach/neben der Physik‘). Dadurch entstand die Bezeichnung „Metaphysik“, die also eigentlich bedeutet: „das, was hinter der Physik im Regal steht“, aber gleichzeitig didaktisch meint: „das, was den Ausführungen über die Natur folgt“ bzw. wissenschaftlich-systematisch bedeutet: „das, was nach der Physik kommt“. Welchen von beiden Gesichtspunkten man für ursprünglicher hält, ist unter Philosophiegeschichtlern umstritten. Die genaue damalige Bedeutung des Wortes ist unklar. Erstmals belegt ist der Begriff bei Nikolaos von Damaskus. Aristoteles selber verwendete den Begriff nicht. Seit der Spätantike wird mit „Metaphysik“ auch eine eigenständige philosophische Disziplin benannt. In der Spätantike und vereinzelt im Frühmittelalter erhält die Metaphysik auch den Namen "Epoptie" (von griechisch schauen, erfassen). Auf der anderen Seite wurde das Adjektiv „metaphysisch“ besonders seit dem 19. Jahrhundert aber auch in abwertender Weise im Sinne von „zweifelhaft spekulativ“, „unwissenschaftlich“, „sinnlos“, „totalitär“ oder „nicht-empirische Gedankenspielerei“ gebraucht. Themen der Metaphysik. Ziel der Metaphysik ist die Erkenntnis der Grundstruktur und Prinzipien der Wirklichkeit. Je nach philosophischer Position kann sich Metaphysik auf unterschiedliche, i. a. sehr weit gefasste Gegenstandsbereiche erstrecken. Diese Frage nach einer letzten Erklärung dessen, was die Wirklichkeit als solche ausmacht, ist grundsätzlicherer Art als die speziellen Einzelfragen der klassischen Metaphysik. So wird in der allgemeinen Metaphysik beispielsweise gefragt, wodurch ein Zusammenhang alles Seienden konstituiert wird, sowie klassischerweise oft auch, wie dieser Gesamtzusammenhang "sinnvoll deutbar" ist. Die Metaphysik entwickelt Grundbegriffe wie Form/Materie, Akt/Potenz, Wesen, Sein, Substanz usw. Sofern diese Grundbegriffe von allem Seienden aussagbar sind, heißen sie etwa bei Aristoteles, Kant und auf diese bezugnehmenden Autoren Kategorien. Allerdings ist in der Interpretation teilweise unklar, ob Kategorien bloße Worte oder Begriffe sind oder diesen unabhängig existierende Objekte bzw. Typen von Objekten entsprechen. Auf metaphysischen Konzepten bauen verschiedene philosophische Einzeldisziplinen auf, mittelbar auch verschiedene Einzelwissenschaften. Insofern kann die Metaphysik als grundlegend für Philosophie überhaupt betrachtet werden. Systematik und Methodik. Eine kritische Reflexion ihrer eigenen Grundbegriffe, Grundsätze und Argumentationsstrukturen gehörte ebenso von Beginn an zur Metaphysik wie eine Abgrenzung gegenüber den übrigen philosophischen Disziplinen und zu den Einzelwissenschaften (Physik, Mathematik, Biologie, Psychologie usw.). Univoker und analoger Seinsbegriff. „Wesensmetaphysik“ bei Thomas von Aquin In einem "univoken Seinsverständnis" wird „Sein“ als das aller-allgemeinste Merkmal beliebiger Dinge (genannt „Seiendes“ oder „Entitäten“) verstanden. Es ist das, was allen Seienden nach Abzug der jeweils individuellen Eigenschaften immer noch gemeinsam ist: dass sie "sind", oder anders ausgedrückt: dass ihnen allen "Sein" zukommt (vgl. ontologische Differenz). Dieser Seinsbegriff führt zu einer „Wesensmetaphysik“. „Wesen“ (essentia) bezieht sich hier auf Eigenschaften (etwa das, was einen jeden Menschen zu einem Menschen macht), „Sein“ (existentia) auf die Existenz. So unterscheidet beispielsweise Avicenna sowie in seiner Rezeption etwa (der frühe) Thomas von Aquin (prägnant und bekannt in "De ente et essentia"). In einem "analogen Seinsverständnis" wird „Sein“ als das verstanden, was "allem" zukommt, wenn auch auf je verschiedene Weise ("Analogia entis"). Das Sein ist das, worin einerseits alle Gegenstände übereinkommen und worin sie sich zugleich unterscheiden. Dieses Seinsverständnis führt zu einer (dialektischen) „Seinsmetaphysik“. Der Gegenbegriff zum Sein ist hier das Nichts, da nichts außerhalb des Seins stehen kann. Sein wird hier als Fülle verstanden. Ein Beispiel für diesen Ansatz liefert die Spätphilosophie des Thomas von Aquin ("Summa theologica"). Verwendungsweisen von „Sein“. In der ontologischen Tradition gilt „Sein“ als der zentrale Grundbegriff. Grundsätzlich können drei Verwendungsweisen des Begriffs „Sein“ unterschieden werden, die sich bereits bei Platon finden: Existenz („cogito, ergo sum“), Identität („Kant ist der Verfasser der Kritik der reinen Vernunft“) und Prädikation („Peter ist ein Mensch“). In der traditionellen Ontologie wird auch die Frage diskutiert, wie sich "das" Sein zum Seienden verhält. Martin Heidegger spricht hier von der "„ontologischen Differenz“", die für die Trennung von Existenzialität (Der Mensch als In-der-Welt-Seiender) und Kategorialität (Weltloses) steht. Die geläufigste Verwendung des Wortes „ist“ ist die Verwendung im Sinne der Prädikation. Nach klassisch-aristotelischer Auffassung, die bis ins 19. Jahrhundert bestimmend geblieben ist, bezieht das Wort „ist“, verstanden als Kopula der Aussage, das Prädikat auf das Subjekt. In Orientierung an dieser sprachlichen Form kommt Aristoteles zu seiner Ontologie, wonach die Welt aus Substanzen und deren Attributen besteht. In diesem Modell wird durch das Prädikat einem Individuum eine allgemeine Eigenschaft zugesprochen. In der Analytischen Philosophie wird das „ist“ des Aussagesatzes nicht mehr als Kopula verstanden, sondern als Teil des Prädikats. In diesem Verständnis steht das „ist“ für eine bestimmte Verbindung, die Beziehung, die das Individuum mit der Eigenschaft verbindet (Exemplifikation). Im Zentrum der Betrachtung steht der Satz als Ganzes, der sich auf einen Sachverhalt bezieht. Kategorien. Unter Kategorien (griechisch: "kategoria" eigentlich „Anklage“, später „Eigenschaft“ oder „Prädikat“) versteht man ontologische Grundbegriffe, mit denen man Grundmerkmale des Seienden kennzeichnet. Da das Verb "kategorein" ins Lateinische übersetzt "praedicare" lautet, heißen Kategorien gerade auch im Mittelalter Prädikamente. Nach Aristoteles lässt sich eine Reihe allgemeinster ontologischer Begriffe ausmachen, denen zugleich höchste Gattungen des Seienden entsprechen – er nennt diese Kategorien und unterscheidet ihrer zehn, darunter die Substanz, die Quantität, die Qualität, Relationen, räumliche und zeitliche Lokalisierung u.a. Zweck der Kategorisierung ist es, Strukturen in der Wirklichkeit aufzuzeigen und logische Fehler in der Beschreibung des Seienden aufzudecken und zu vermeiden. Mit Kategorien werden die Bausteine, aus denen die Welt als Ganzes oder in ihren Teilen (Domänen) zusammengesetzt ist, klassifiziert. Sie sind vollständig disjunkt und insofern (im Gegensatz zu den Transzendentalien) keine allgemeinen Grundmerkmale alles Seienden. Die aristotelische Kategorienlehre ist bis in die Gegenwart prägend für zahlreiche ontologische Ansätze und wird auch heute noch von einigen Metaphysikern für fruchtbar gehalten, z.B. in der formalen Ontologie. Transzendentalien. Autoren der lateinischen Scholastik des Mittelalters bezeichnen mit dem Ausdruck Transzendentalien (lateinisch "transcendentalia", von transcendere „übersteigen“) solche Begriffe, die "allem" Seienden zukommen und daher die einteilenden Kategorien umgreifen. Während Kategorien nur von "bestimmten" Seienden ausgesagt werden, kommen alle Transzendentalien jedem Seienden zu, werden aber von unterschiedlichen Seienden in unterschiedlicher Weise ausgesagt (Analogielehre). Als Transzendentalien gelten meist das Wahre (verum), das Eine (unum) und das Gute (bonum), häufig auch das Schöne (pulchrum). In der klassischen Ontologie galten diese Transzendentalien untereinander als austauschbar: Was (in höchstem Maße) gut war, galt zugleich auch als (in höchstem Maße) wahr und schön, und umgekehrt. Im 13. Jh. wurde kontrovers diskutiert, wie diese transzendentalen Begriffe zu verstehen sind. In der modernen Ontologie finden sich weitere Transzendentalien wie Wirklichkeit (Aktualität), Existenz, Möglichkeit, Ähnlichkeit, Identität oder Verschiedenheit (Differenz). Individuen. In der Ontologie ist „Individuum“ (das Unteilbare; auch „Einzelding“, engl.: "particular") ein Grundbegriff, der nicht durch andere ontologische Begriffe definiert ist. So haben Individuen zwar Charakteristika, man verwendet sie aber nicht zur Charakterisierung. Somit besitzen Eigennamen von Individuen keinen prädikativen Charakter. Man kann zwar über Sokrates etwas aussagen, aber Sokrates nicht als Prädikat verwenden. Weiter sind Individuen dadurch charakterisiert, dass sie nicht zur selben Zeit an verschiedenen Orten sein können. Multilokalität gibt es nur für Eigenschaften. Zum Dritten sind Individuen nach Gottlob Frege gesättigte Entitäten, das heißt, sie sind Objekte, die in sich abgeschlossen sind, keiner weiteren Benennung bedürfen. Eine wichtige Unterscheidung innerhalb der Individuen ist die von physischen Individuen (Gegenstände, Körper) und nicht-physischen Individuen (Abstrakta). Beispiele für letztere sind Institutionen, Melodien, Zeitpunkte oder Zahlen, wobei der ontologische Charakter von Zahlen umstritten ist. Diese können auch als Eigenschaften aufgefasst werden. Für die Ontologie ebenfalls problematisch ist die Einordnung der in der Philosophie des Geistes diskutierten mentalen Zustände und die damit verbundenen Inhalte der Begriffe Bewusstsein, Geist, Seele (siehe auch Qualia und Dualismus (Ontologie)). Daneben wird zwischen abhängigen und unabhängigen Individuen unterschieden. Ein Individuum ist abhängig, wenn es nicht existieren kann, ohne dass ein bestimmtes anderes Individuum existiert. Beispiele hierfür sind etwa ein Schatten oder ein Spiegelbild. Ob auch ein Lächeln als abhängiges Individuum zu betrachten ist, oder ob es sich hierbei um eine reine Eigenschaft handelt, ist wiederum umstritten. Unabhängige körperliche Individuen nennt man in der Ontologie auch Substanz (Ousia). Umstritten ist weiterhin, ob und inwieweit Eigenschaften, die in einer Substanz realisiert sind, als eine besondere Form von Individuen, als Eigenschaftsindividuen, aufzufassen sind. So kann man das Weiß im Bart des Sokrates als einen Namen für ein bestimmtes einmaliges Vorkommen auffassen. Weitere Beispiele sind die Körpergröße eines bestimmten Menschen oder die Geschwindigkeit eines bestimmten Autos jeweils zu einem bestimmten Zeitpunkt. Eigenschaftsindividuen werden manchmal auch als Tropen bezeichnet. Sie sind Akzidenzien einer Substanz, haben also immer einen Träger und sind immer abhängig. Sachverhalte. Sachverhalte sind strukturierte Entitäten, die sich auf Konstellationen in Raum und Zeit beziehen, die sich aus Individuen, Eigenschaften und Relationen zusammensetzen. Sofern Sachverhalte in der Wirklichkeit eine Entsprechung haben, spricht man von Tatsachen. Für realistische Ontologen haben Aussagen über Sachverhalte eine Entsprechung in der Wirklichkeit, die die Aussagen als Wahrmacher zu Tatsachen erheben. Es gibt eine Reihe von Ontologen, so etwa Reinhardt Grossmann, die Sachverhalte zu den grundlegenden Kategorien der Welt zählen. Bei Uwe Meixner, der im ersten Schritt zwischen den Kategorien der Objekte und Funktionen unterscheidet, sind die Sachverhalte neben den Individuen eine grundlegende Form der Objekte. In Sachverhalten werden Eigenschaften und Relationen exemplifiziert. Andererseits hat etwa Peter Strawson bestritten, dass Tatsachen neben den Dingen eine Realität in der Welt haben. Weil der Begriff der Tatsache nicht ausreichend geklärt ist, zog Donald Davidson den Schluss, dass Theorien, die auf dem Begriff der Tatsache beruhen, selbst als nicht ausreichend geklärt anzusehen sind. Zu den Vertretern, die Sachverhalte als grundlegende Konstituenten der Welt halten, zählt David Armstrong. Universalien. Im Gegensatz zu Individuen und Sachverhalten sind Universalien räumlich und zeitlich nicht gebunden. Man kann vier Arten von Universalien unterscheiden. Zum einen werden darunter Eigenschaften gefasst, die einem Gegenstand zukommen können, wie die Röte in einer Billardkugel (Eigenschaftsuniversalien). Zum zweiten gibt es Begriffe, mit denen Individuen als Arten und Gattungen zusammengefasst werden, etwa Sokrates – Mensch – Säugetier – Lebewesen (Substanzuniversalien). Den dritten Fall, die Relationen, hat Aristoteles noch unter den Eigenschaften erfasst. Man kann die Beziehung „ist Vater von“ als Merkmal einer Person auffassen, durch das sie in einer Beziehung zu einer anderen steht. Bertrand Russell hat dies als „Monismus“ bezeichnet und abgelehnt. Für ihn und in der Folge für die meisten Ontologen ist eine Relation aRb eine den Individuen externe Beziehung R, die zwischen den Individuen a und b besteht. Eigenschaften werden in Individuen, Relationen in Sachverhalten „exemplifiziert“. Sie haben ein Vorkommen in einem bestimmten Objekt. Zum vierten schließlich gibt es nicht-prädikative Universalien, die den Charakter eines Objektes und nicht den einer Eigenschaft haben, wie etwa die Platonischen Ideen, Beethovens Neunte, die Schildkröte (als Gattung) oder das hohe C. Solche Typenobjekte (types) können räumlich und zeitlich mehrfach vorkommen. Es gibt verschiedene Aufführungen von Beethovens Neunter und verschiedene Notendrucke. Typenobjekte können nicht durch ein Prädikat ausgedrückt werden. Man kann nicht sagen „schildkrötig“. Von Anbeginn an bestand das Problem, wie man das, was mit diesen Allgemeinbegriffen bezeichnet wird, ontologisch einordnen soll (Universalienproblem). Dabei stehen sich Positionen gegenüber, die auf verschiedene Weisen den Universalien eine eigene Realität zusprechen (Universalienrealismus) oder aber solche, die eher der Überzeugung sind, dass Universalien rein begriffliche, mentale Produkte sind, mit denen bestimmte Merkmale von Einzeldingen z.B. aufgrund von Ähnlichkeit oder anderen Kriterien einen Namen erhalten (Nominalismus). Eine modernere Bezeichnung für Universalien ist „abstrakte Gegenstände“. Hierdurch soll vor allem klargestellt werden, dass auch Typenobjekte wie die Zahl Pi in die Betrachtung einbezogen werden. Teil und Ganzes. Die Teil-Ganzes-Beziehung (Mereologie) wird auf verschiedenen Ebenen diskutiert. So ist der Kopf des Sokrates ein Individuum, das ein räumlicher Teil des Individuums Sokrates ist. Weil es zum Wesen des Sokrates gehört, einen Kopf zu haben, wird der Kopf ein essenzieller Teil des Sokrates genannt. Es gibt aber auch Gruppenindividuen (plurale Individuen) wie die Berliner Philharmoniker, die Hauptstädte der EU oder die drei Musketiere, die jeweils aus mehreren einzelnen Individuen bestehen. Dabei hat die Teil-Ganzes-Beziehung unterschiedlichen Charakter. Scheidet ein Musiker bei den Berliner Philharmonikern aus oder tritt ein weiterer Staat der EU bei, so verändert sich der Charakter des Gruppenindividuums nicht, auch wenn die numerische Identität sich verändert hat. Scheidet hingegen eines der drei Musketiere aus der Gruppe aus, so erlischt der Charakter dieser Gruppe. Hier sind einzelne Individuen als Teile gruppenkonstitutiv für das Ganze. Ein bekanntes Beispiel für Probleme, die sich aus der Teil-Ganzes-Beziehung ergeben ist das aus der Antike stammende Gedankenexperiment vom Schiff des Theseus. Topologische Begriffe wie „Rand“ und „Zusammenhang“ lassen sich mit mereologischen Mitteln untersuchen, woraus die Mereotopologie entsteht. Anwendungen finden sich unter anderem im Bereich der Künstlichen Intelligenz und der Wissensrepräsentation. Weil die Teil-Ganzes-Beziehung für verschiedene Entitäten ein zutreffendes Merkmal ist, kann man sie auch zu den Transzendentalien rechnen. Metaphysikkritik. Die Metaphysik war seit ihrer Entstehung, insbesondere jedoch seit dem 17. Jahrhundert, grundsätzlicher Kritik ausgesetzt. Häufig vertraten Kritiker der Metaphysik eine Variante der Position, die Fragen der Metaphysik seien mit den ihr zur Verfügung stehenden Mitteln nicht in adäquater Weise zu beantworten. Während die Kritik im 17. und 18. Jahrhundert vor allem mit Bezug auf der Abhängigkeit menschlicher Erkenntnis von empirischen Gegenständen als Erkenntnisobjekten argumentierte, sind seit Ende des 19. Jahrhunderts Aspekte der gültigen Verwendung der Sprache als Medium philosophischer Erkenntnis ins Zentrum der Metaphysikkritik gerückt. Als zentraler Autor der Metaphysikkritik wird häufig Kant angesehen, der Ende des 18. Jahrhunderts argumentierte, die Grundbegriffe, mittels derer Metaphysik betrieben würde, besäßen keine Gültigkeit für die Gegenstände der Metaphysik. Er forderte jedoch nicht das Ende der Metaphysik, sondern trat für eine Philosophie ein, die auf einer grundsätzlichen kritischen Reflexion ihrer Methoden aufbaut. Literatur. "Weitere Literatur findet sich auch bei Metaphysikkritik" Mondlandung. Buzz Aldrin - Apollo 11 Mondlandung bezeichnet im Rahmen der Raumfahrt eine kontrollierte Landung eines von Menschen hergestellten Flugkörpers (Lander) auf dem Erdtrabanten Mond. Seit den 1950er Jahren kam es zum sogenannten Wettlauf ins All zwischen den USA und der Sowjetunion. Der erste von Menschen konstruierte Raumflugkörper auf dem Mond war die sowjetische Sonde Lunik 2, die am 13. September 1959 gezielt auf dem Mond aufschlug. Am 3. Februar 1966 landete Luna 9 als erster Flugkörper weich auf dem Mond. Nach einem Kontaktabbruch stürzte Ranger 4 am 26. April 1962 auf der Rückseite des Mondes ab. Ranger 4 war der erste US-amerikanische Flugkörper, der auf dem Mond aufschlug. Die Raumsonden Ranger 7, 8 und 9 konnten 1964 und 1965 vor ihrem Aufschlag (planmäßigen harten Landungen) jeweils Tausende von Bildern zur Erde übertragen. Mit Surveyor 1 landete am 2. Juni 1966 eine US-amerikanische Sonde nach 63 Stunden Flug erstmals weich auf dem Mond. Der erste bemannte Flug zum Mond (ohne Landung auf dem Trabanten) war im Dezember 1968 Apollo 8. Frank Borman, William Anders und James („Jim“) Lovell umkreisten den Mond 10 Mal und waren die ersten Menschen, die mit eigenen Augen die Rückseite des Mondes sahen. Am 21. Juli 1969 um 3:56 Uhr MEZ betraten im Zuge der Mission Apollo 11 die ersten Menschen den Mond, Neil Armstrong und Edwin Aldrin. Fünf weitere bemannte Mondlandungen des Apollo-Programms fanden in den folgenden drei Jahren statt. Noch vor Apollo 11 versuchte die Sowjetunion, Mondgestein auf die Erde zu bringen. Dies gelang allerdings erst mit der am 20. September 1970 gelandeten Luna 16. Das geplante sowjetische bemannte Mondprogramm wurde nicht umgesetzt. Als dritte Nation ließ China eine Sonde auf dem Mond landen. Am 1. Dezember 2013 startete Chang’e-3 an Bord einer Rakete vom Typ Langer Marsch 3B, die am 14. Dezember 2013 landete. Menschen auf dem Mond zwischen 1969 und 1972. Insgesamt haben in den Jahren von 1969 bis 1972 zwölf Menschen den Mond betreten. Die für den 15. April 1970 geplante bemannte Mondlandung von Apollo 13 mit Jim Lovell, John Swigert und Fred Haise musste nach der Explosion eines Sauerstofftanks während des Fluges zum Mond abgebrochen werden. Sonstiges. Das Wort „Mondlandung“ wurde Ende des 20. Jahrhunderts in die Aufstellung der 100 Wörter des 20. Jahrhunderts aufgenommen. Motala ström. Motala ström ist ein Fluss in Schweden zwischen den Städten Motala am Vättern (von der er den Namen hat) und Norrköping an der Ostsee. In Norrköping war der Fluss von großer Bedeutung, da man mit ihm schon seit dem Mittelalter Mühlen antrieb und für weitere Fabrikanlagen einsetzte. Etwa zur gleichen Zeit wurden am Fluss viele Befestigungsanlagen und Herrenhöfe gebaut, von denen der Verkehr auf dem Wasser überwacht wurde. Schon seit der Wikingerzeit wurden die Stromschnellen des Flusses überwunden, indem man die Boote mit Hilfe von Pferden durch sie hindurch treidelte. Diese Vorgehensweise ist durch Felsritzungen, die sich in der Nähe des Flusses befinden, dokumentiert. Im Verlauf des Motala ström liegen sieben Wasserkraftwerke mit einer Gesamtleistung von circa 55.000 kW. Der Motala ström bildet einen Teilabschnitt des Göta-Kanals. Manchester. Manchester ist eine Stadt im Nordwesten von England im Vereinigten Königreich Großbritannien und Nordirland mit dem Status eines Metropolitan Borough sowie einer City. Sie hat mehr als 520.000 Einwohner und liegt im Zentrum des Metropolitan County "Greater Manchester", einer der größten Agglomerationen in England mit 2,7 Mio. Einwohnern (2012). Die Einwohner Manchesters werden „Mancunians“ oder verkürzt „Mancs“ genannt. Römerzeit. Vor der Invasion Britanniens durch die Römer lag das heutige Stadtgebiet im Territorium des keltischen Stammes der Briganten. Gnaeus Iulius Agricola ließ 79 n. Chr. am Zusammenfluss von Irwell und Medlock ein Kastell errichten mit Namen "Mamucium", lateinisch für „brustförmiger Hügel“. Der Wortteil "chester" bedeutet "Lager" ("castrum"). Nachdem die Römer im Jahr 407 Großbritannien verlassen hatten, war die Gegend unbewohnt, bis im 7. Jahrhundert die Angelsachsen sich niederließen. Sie gründeten ein Dorf mit dem Namen "Mameceaster", woraus sich "Manchester" entwickelte. Die Ruinen der römischen Befestigung waren bis zum 18. Jahrhundert sichtbar und wurden beim Bau einer Haupteisenbahnlinie endgültig beseitigt. Ein Nachbau des römischen Kastells wurde im Stadtteil Castlefield errichtet. Mittelalter und Neuzeit. Das kleine Dorf Manchester stieg im 13. Jahrhundert zu einer Marktsiedlung auf und erhielt im Jahre 1222 das Recht, Jahrmärkte durchzuführen. Im Jahr 1301 folgte das Recht auf Selbstverwaltung. Im 14. Jahrhundert ließen sich Einwanderer aus Flandern nieder und begründeten die Tradition der Wollverarbeitung und Leinenherstellung. Dank dieser Gewerbezweige war Manchester im 16. Jahrhundert ein florierender Marktort geworden. Die Stadtkirche, seit 1847 die Kathedrale der Diözese Manchester, wurde zwischen 1421 und 1506 erbaut. Das Wachstum erhielt um 1620 einen weiteren Schub durch die Einführung der Baumwollweberei. Als 1642 der Englische Bürgerkrieg ausbrach, stand Manchester auf der Seite des Parlaments. Die Stadt wehrte sich erfolgreich gegen eine Belagerung der königlichen Truppen, obwohl sie keine Stadtmauern besaß. Als die Royalisten nach 1660 wieder an die Macht gelangten, verlor Manchester sämtliche Sitze im Parlament und war fast zweihundert Jahre lang nicht mehr vertreten. Trotz des verlorenen politischen Einflusses nahm die wirtschaftliche Bedeutung der Stadt weiter zu. Industrielle Revolution. Manchester spielte eine Schlüsselrolle während der Zeit der Industriellen Revolution. Die zahlreichen Bäche, die in den Pennines nördlich und östlich der Stadt entsprangen, waren ideal für die Errichtung von Baumwollspinnereien, die durch Wasserkraft angetrieben wurden. Die Stadt profitierte außerdem von der Nähe zum Hafen in Liverpool. Nach der Erfindung der Dampfmaschine waren die Baumwollspinnereien nicht mehr länger auf die Wasserkraft angewiesen und in der Folge entstanden noch größere Betriebe in der Stadt selbst sowie in den umliegenden Dörfern und Städten. Viele Bewohner ländlicher Gegenden zogen auf der Suche nach Arbeit nach Manchester. Innerhalb weniger Jahrzehnte stieg die Bevölkerungszahl um ein Vielfaches an und Manchester wurde zum wichtigsten industriellen Zentrum der Welt. Die Eröffnung des Bridgewater-Kanals, eines Narrowboat-Kanals, der von den Kohlegruben des Duke of Bridgewater in Worsley bis nach Manchester führte, stellte einen Verkehrsweg zur Verfügung, der für den sicheren und preiswerten Transport von Kohle für die Dampfmaschinen und die Haushaltungen in Manchester einerseits und andererseits für den Abtransport von Fabrikgütern aus Manchester sorgen konnte. Das ungebremste Bevölkerungswachstum brachte die Stadt an die Grenzen der Belastbarkeit. Die meisten Arbeiter wurden zu Hungerlöhnen angestellt und mussten in erbärmlichen Zuständen leben. So kam es 1797 als Folge einer Rezession in der Textilindustrie zu Aufständen und Plünderungen. 19. Jahrhundert. Die fehlende Vertretung im Parlament hatte zur Folge, dass die Bevölkerung radikalen politischen Ideen gegenüber sehr aufgeschlossen war. 1819 kam es zum Peterloo-Massaker. Nach der Parlamentsreform von 1832 durfte die Stadt wieder Abgeordnete ins Unterhaus entsenden. Manchester blieb ein bedeutendes Zentrum für radikale politische Ideen. Von 1842 bis 1844 und erneut von 1850 bis 1870 lebte hier der deutsche Journalist und Schriftsteller Friedrich Engels und schrieb sein einflussreiches Buch „Die Lage der arbeitenden Klasse in England“. 1839 gründete Richard Cobden die "Anti-Corn Law League" für Freihandel und zur Abschaffung von Zöllen (besonders Zölle auf importiertes Getreide). 1846 gelang die Abschaffung der "Corn Laws". Cobden wurde damit zur Symbolfigur des Manchesterliberalismus. Zahlreiche Kultur- und Bildungsinstitutionen wurden gegründet, so z. B. die Manchester Literary and Philosophical Society (1781), die Portico Library (1803), die Royal Manchester Institution (1823), die heutige University of Manchester Institute of Science and Technology (1824) und die Victoria University of Manchester (1851). 1847 entstand die Diözese Manchester der Church of England. 1853 wurde Manchester offiziell eine Stadt. Die blühende Textilindustrie führte zu einer Expansion der Stadt und zur Bildung eines breiten Vorortgürtels. Vor allem der Bau von Eisenbahnen und Kanälen trug zum Wachstum bei. 1829 baute George Stephenson die erste Eisenbahn von Liverpool nach Manchester (Liverpool and Manchester Railway). Der Ausbruch des Amerikanischen Bürgerkriegs im Jahr 1861 hatte eine sofortige Verknappung der Baumwolle zur Folge, was die Textilindustrie in eine tiefe Krise stürzte. Um die Abhängigkeit vom Hafen von Liverpool zu verringern, wurden zahlreiche Kanäle gebaut, allen voran der 1894 eröffnete Manchester Ship Canal. Dadurch wurde Manchester zur drittgrößten Hafenstadt Großbritanniens, trotz der Entfernung von 64 Kilometern zum Meer. Offiziell nahm Queen Victoria die Freigabe des Bauwerks für den Schiffsverkehr am 21. Mai 1894 vor, doch war die künstliche Wasserstraße schon ab dem 1. Januar in Betrieb. 20. und 21. Jahrhundert. Zu Beginn des 20. Jahrhunderts veränderte sich die Wirtschaftsstruktur der Stadt. 1910 wurde Trafford Park eröffnet, die erste eigens zu diesem Zweck geschaffene Industriezone der Welt. Hier siedelten sich u. a. Ford und Westinghouse an. 1931 wurde die höchste Bevölkerungszahl von 766.311 Einwohnern erreicht. Die Weltwirtschaftskrise traf die Stadt hart, die Textilindustrie sank fast zur Bedeutungslosigkeit herab. Während des Zweiten Weltkriegs wurden in Manchester die Avro-Flugzeuge gebaut, weshalb die Stadt immer wieder Ziel von Luftangriffen war. Aufgrund dessen ist in der Stadt nur noch wenig alte Bausubstanz anzutreffen und die Stadt ist größtenteils modern im Stil der Nachkriegsjahre geprägt Nach dem Krieg übernahm Manchester erneut eine Führungsrolle, diesmal in der Informatik. Der „Vater“ der modernen Computer, Alan Turing, lehrte an der Universität Manchester. 1948 entstand aus seinen Ideen die Small-Scale Experimental Machine, der erste auf der Von-Neumann-Architektur basierende Computer. 1949 folgte der Manchester Mark I, woraus sich der Ferranti Star entwickelte, einer der ersten kommerziellen Computer. Das Filmstudio Mancunian Films nahm 1947 den Betrieb auf und wurde 1954 von der BBC übernommen. Im gleichen Jahr wurde auch Granada TV gegründet, eine der Hauptstützen von ITV, die u. a. die seit Jahrzehnten laufende Seifenoper Coronation Street produziert. Diese Diversifikation konnte den Niedergang der Industrie zwar nicht verhindern, aber zumindest abfedern. Die Bevölkerungszahl ging zurück: Zählte man 1971 noch 543.868 Einwohner, so waren es 2001 nur noch 422.302. In den 1950ern und 1960ern waren alte, überbevölkerte Viertel großflächig abgerissen und durch Hochhaussiedlungen ersetzt worden. Diese wiederum werden seit den späten 1980er Jahren zu einem Großteil wieder abgerissen. Mittlerweile steigt die Einwohnerzahl von Manchester wieder an. Alleine im Stadtzentrum hat sich die Einwohnerzahl von 2.000 auf mehr als 12.000 erhöht. Dies wird als großer Erfolg im Zuge der Regenerierung der Innenstadt gewertet. Im Jahr 2015 rechnet man in der Innenstadt wieder mit einer Einwohnerzahl von mehr als 20.000. Vor 1974 gehörte das Ballungsgebiet um Manchester zu den Grafschaften Cheshire and Lancashire, daneben existierten zahlreiche eigenständige County Boroughs. Das Gebiet wurde informell "SELNEC" genannt („South East Lancashire North East Cheshire“). 1974 wurde das Metropolitan County Greater Manchester eingerichtet. 1986 wurde der Rat und die Verwaltung von Greater Manchester wieder abgeschafft. Am 15. Juni 1996 um 11:20 Uhr explodierten 1500 kg Sprengstoff im Zentrum Manchesters. Die IRA hatte diese Bombe in einem Lieferwagen in der Corporation Street nahe der Einkaufsstraße Market Street platziert. Dies war die größte IRA-Bombe, die jemals in England detoniert war. Es gab zwar keine Toten, jedoch 206 Verletzte. Dem Anschlag ging eine Warnung nur gut eine Stunde vor der Zündung voraus, die Schlimmeres verhinderte. Der Anschlag zerstörte 50.000 m² Einkaufsfläche und 25.000 m² Bürofläche. Seit dem Anschlag wurde die gesamte Umgebung komplett renoviert, was das Stadtbild allgemein verbesserte. Ein Briefkasten außerhalb Marks & Spencer in der Corporation Street überstand den Anschlag beinahe unversehrt und wurde mit einer kleinen Gedenktafel versehen. Als Folge der Wiederaufbaumaßnahmen und einer günstigen Wirtschaftsentwicklung hat die gesamte Innenstadt Manchesters in den letzten zehn Jahren einen bedeutenden Aufschwung erfahren. Das Stadtbild wird heutzutage durch Kaufhäuser der gehobenen Klasse sowie Luxuswohnungen und futuristische Architektur mitgeprägt. Manchester erhielt 2003 von der Europäischen Union den Preis für den besten Strukturwandel einer europäischen Großstadt. Manchester bewarb sich erfolglos für die Durchführung der Olympischen Sommerspiele 1996 sowie der Olympischen Sommerspiele 2000. Stattdessen fanden in der Stadt die Commonwealth Games 2002 statt. Stadtbild und Architektur. Das Stadtbild wird von Gebäuden aus unterschiedlichen Stilepochen von der Viktorianischen Architektur bis zur Moderne geprägt. Außerhalb des Stadtzentrums sind Fabriken der Baumwollindustrie erhalten geblieben, die heute als Wohnungen oder Büros genutzt werden. Charakteristisch für Manchester ist die häufige Verwendung von rotem Backstein als Baustoff. Sehenswerte Gebäude sind die gotische Kathedrale von Manchester (erbaut 1421 im Perpendikular-Stil; Turm 1876 wiederaufgebaut), die Getreidebörse ("Corn Exchange", erbaut 1897, heute das Einkaufszentrum "The Triangle") und das neugotische Rathaus von Manchester, das 1877 von Alfred Waterhouse entworfen wurde. Das 1830 erbaute Empfangsgebäude des Bahnhofs Liverpool Road ist das älteste erhaltene der Welt. Seit den 1960er Jahren entstanden in der Stadt mehrere große Hochhäuser, die eine neue Stadtsilhouette entstehen ließen. Das höchste Gebäude ist der 2006 gebaute "Beetham Tower", der ein Hotel, Restaurants und Wohnungen beherbergt. Im Frühjahr 2008 begann der Bau des "Piccadilly Tower", der bei Fertigstellung das höchste britische Gebäude außerhalb von London sein wird. Manchester besitzt 135 Plätze, Park- und Gartenanlagen. Wichtigste Parkanlage ist der "Heaton Park" im Norden der Innenstadt. Die Grünanlage ist mit 250 Hektar Fläche eine der größten öffentlichen Parkanlagen Europas. Auf den zwei großen Plätzen "St Peter’s Square" und "Albert Square" im Stadtzentrum stehen zahlreiche Denkmäler in Gedenken an berühmte Personen und Könige. Das 1942 erbaute ehemalige Wythenshawe Bus Depot steht heute unter Denkmalschutz. Musik und Theater. Manchester besitzt zwei Sinfonieorchester, das "Hallé Orchestra" und das "BBC Philharmonic Orchestra". Die Stadt ist mit dem "Royal Northern College of Music" und der freien Musikschule "Chetham’s School of Music" ein Zentrum der musikalischen Lehre in Nordengland. Die Hauptspielorte für sinfonische Musik sind die "Free Trade Hall" und die "Bridgewater Hall", ein 1996 eröffnetes Gebäude, das dem Grafen von Bridgewater gewidmet ist. Im Manchester Opera House und "Palace Theatre" werden Opern, Ballett, Konzerte, Kabarett und Musicals aufgeführt. Weitere wichtige Theaterhäuser sind das "Royal Exchange Theatre", "Library Theatre" und das "Lowry Centre". Manchester ist die Heimat und Gründungsort vieler bekannter Musikgruppen und Sänger, darunter Oasis, Herman’s Hermits, The Hollies, New Order, The Smiths, I Am Kloot, Elbow, Simply Red, Inspiral Carpets, Stone Roses, Happy Mondays und Take That. Zur Zeit des New Wave wurden The Fall, Joy Division, Buzzcocks, Magazine und 808 State aus Manchester bekannt. Ende der 1980er Jahre wurde hier The Future Sound of London gegründet. Mit Factory Records beheimatete Manchester eines der einflussreichsten Independent-Labels. Durch seine lebendige Musikszene bekam die Stadt den Spitznamen „Madchester“ verliehen. Insbesondere in den 1980ern und den 1990ern wurde die Stadt zu einem Zentrum der Subkultur. Die Diskothek „The Haçienda“ wurde in diesem Zusammenhang überregional bekannt. Der Film „24 Hour Party People“ (2002) von Michael Winterbottom behandelt die Geschichten um den populären Club. Größte Veranstaltungshalle ist die "Manchester Evening News Arena" (MEN-Arena) mit 21.000 Sitzplätzen, in der regelmäßig Popmusikkonzerte und Events stattfinden. Weitere wichtige Veranstaltungsorte sind das "Manchester Apollo" und die "Manchester Academy". Museen und Galerien. Das Museum of Science and Industry beschäftigt sich mit der industriellen Vergangenheit Manchesters und zeigt eine Sammlung von Lokomotiven, Industriemaschinen und Flugzeugen. Im Museum of Transport werden historische Busse und Straßenbahnen gezeigt. Das 1880 eröffnete Manchester Museum beheimatet eine naturhistorische und ägyptologische Sammlung. Das von Daniel Libeskind entworfene Imperial War Museum North zeigt eine militärhistorische Sammlung und ist mit einer Fußgängerbrücke mit dem Stadtzentrum verbunden. Wichtige Kunstmuseen sind die Manchester Art Gallery mit einer Sammlung von europäischer und insbesondere Präraffaelitischer Malerei und die Whitworth Art Gallery mit dem Schwerpunkt auf moderner Kunst. Weitere Museen sind das "Cornerhouse" (ein Kulturzentrum mit Ausstellungsräumen, Kinosäle für Independent-Filme und einem Café in einem ehemaligen Kaufhaus), das Kultur- und Ausstellungszentrum Urbis, die "Manchester Costume Gallery at Platt Fields Park", das "People’s History Museum", das Fußballmuseum im Old-Trafford-Stadium und das Jüdische Museum. Dem Maler L. S. Lowry ist das "Lowry Centre" gewidmet, ein von Michael Wilford errichtetes Kulturzentrum mit Theatern und Kunstgalerien. Einkaufen. Shopping rund um Piccadilly Gardens Die größten Einkaufsstraßen sind die "Market Street", die "King Street" und "Deansgate". Das chinesische Viertel, die drittgrößte Chinatown Großbritanniens, liegt im Osten der Innenstadt mit asiatischen Geschäften und Restaurants. In der Wilmslow Road im Stadtteil Rusholme liegt das indische Viertel, das den Spitznamen "Curry Mile" trägt. Eine Besonderheit sind die zahlreichen bunten Leuchtreklamen, mit denen die Gastronomie und der Einzelhandel wirbt. Rund um die "Canal Street" liegt "Gay Village", das Lesben- und Schwulenviertel der Stadt. Spätestens seit den 1940er Jahren ist es ein Treffpunkt der Szene, in den frühen 1980er Jahren begann der Weg zu mehr Offenheit. Heute ist das Viertel eines der größten schwulen und lesbischen kulturellen Zentren Europas, mit mehr als 40 Bars, Pubs, Clubs und Geschäften und wird meist gleich nach Soho in London genannt. Zu großer Bekanntheit hat auch die von 1999 bis 2000 ausgestrahlte britische Fernsehserie Queer as Folk beigetragen, vor allem beim heterosexuellen Publikum. Ende August findet jährlich der "Manchester Pride" statt, im Jahr 2003 wurde hier der Europride gefeiert. In unmittelbarer Nähe steht im Sackville Park das "Alan Turing Memorial". Sport. In Manchester spielen zwei Fußballvereine in der Premier League: Manchester City und Manchester United. Das Old-Trafford-Stadion, Spielstätte von Manchester United, liegt in der Nachbarstadt Trafford. Im Jahre 2002 fanden die Commonwealth Games im neu erbauten City-of-Manchester-Stadion, seit 2003 Heimstadion von Manchester City, statt. Das "B of the Bang" vor dem Stadion, eine 56 Meter hohe Skulptur in Form eines explodierenden Feuerwerkskörpers, erinnert an die zehntägige Sportveranstaltung. Durch die Errichtung des Aquatics Centers für die Commonwealth Games besitzt Manchester nun auch eine Schwimmhalle für internationale Sportveranstaltungen. Das "Manchester Velodrome" ist das Zentrum des britischen Bahnradsports. Erfolgreichster Cricket-Verein ist "Lancashire", das seine Heimspiele im "Old Trafford Cricket Ground" austrägt. Die Belle Vue Aces von Manchester gehören zu den bekanntesten Teams der britischen Speedway-Elite-Profiliga. Seit 2005 findet im Mai der Great Manchester Run statt, der bedeutendste britische Straßenlauf über 10 km. Wirtschaft. Manchester zählt zu den wirtschaftsstärksten Regionen Großbritanniens und belegt nach dem Bruttosozialprodukt hinter London und Birmingham den dritten Platz in England. Die ehemals dominierende Schwer- und Textilindustrie ist heute kaum noch von Bedeutung, stattdessen beschäftigt der Dienstleistungssektor heute die meisten Arbeitnehmer. Der tiefgreifende Strukturwandel hat in der städtischen Wirtschafts- und Sozialstruktur tiefe Spuren hinterlassen, sodass in Manchester heute extreme Gegensätze bestehen: hier finden sich sowohl sehr wohlhabende als auch die ärmsten Haushalte Großbritanniens. Wirtschaftliches Wachstum generieren Beratungsunternehmen, Banken und Versicherungen, Logistik- und Transportunternehmen und die Medien- und Kreativwirtschaft, ferner forschungsintensive Bereiche wie die Biotechnologie oder Umwelttechnik. Allein die Finanzwirtschaft beschäftigt über 15.000 Angestellte und rund 60 Bankinstitute sind in der Stadt vertreten. Größter Arbeitsgeber ist das genossenschaftlich organisierte Handelsunternehmen "Co-operative Group", dass seinen Hauptsitz in der Stadt hat. Eine wachsende Einnahmequelle ist außerdem der Tourismus. Medien. Manchester ist der Hauptsitz der TV-Produktionsgesellschaft "Granada Television", die zur Sendergruppe ITV gehört. Granada produziert die weltweit älteste Seifenoper "Coronation Street". Auch weitere TV-Serien wie "Für alle Fälle Fitz", "Life on Mars – Gefangen in den 70ern", "The Royle Family" oder "Clocking Off" spielen in Manchester. Die Stadt ist neben London und Bristol ein Standort der BBC. Für das Fernsehen entstehen in Manchesters Studios mehrere Sendungen, der Radiosender BBC One unterhält hier ein Regionalprogramm. Seit 2000 besitzt die Stadt mit "Channel M" einen eigenen privaten Fernsehsender und strahlt hauptsächlich ein Programm mit stark regionalem Bezug aus. Manchester besitzt die größte Anzahl an Radiosendern in Großbritannien außerhalb von London. Wichtige Radiostationen sind "BBC Radio Manchester", "Cey 103", "Galaxy", "Piccadilly Magic 1152", "105.4 Century FM", "100.4 Smooth FM", "Kapital Gold 1458", "96.2 The Revolution" und "Xfm". Die beiden großen Universitäten unterhalten mit "Fuse FM" (Universität Manchester) und "MMU Radio" (Manchester Metropolitan University) eigene Radiosender. Die überregionale Tageszeitung The Guardian wurde 1821 in Manchester als "The Manchester Guardian" gegründet. Dessen Hauptbüro ist gegenwärtig noch in Manchester ansässig, der Hauptsitz wurde 1964 nach London verlagert. Die Schwesterpublikation "Manchester Evening News" ist die auflagenstärkste tägliche Abendzeitung in Großbritannien. Sie ist im Stadtzentrum am Donnerstag und Freitag frei erhältlich, in den Vororten wird die Zeitung verkauft. Weiter werden einige Lokalmagazine angeboten, darunter das "YQ Magazine" und "Moving". Bildung. In Manchester sind zwei Universitäten ansässig, die Universität Manchester ("The University of Manchester") und die Manchester Metropolitan University (MMU). Letztere war bis 1992 eine technische Hochschule. Bis zur Fusion mit der "Victoria University of Manchester" im Jahr 2004 zur Universität Manchester war die "University of Manchester Institute of Science and Technology (UMIST)" die dritte Universität Manchesters. Der Universität Manchester ist eine eigenständige Wirtschaftshochschule ("Manchester Business School") angegliedert, die auf Finanzwirtschaft und Doktorandenprogramme spezialisiert ist und ihr Programm auch in Singapur, Hongkong, Dubai und Jamaika anbietet. Die Hochschule belegte im Jahr 2006 im Financial-Times-Ranking den 22. Platz im weltweiten Master-of-Business-Administration-Vergleich. Der Ableger des Royal College of Music in London ist das Royal Northern College of Music in Manchester. Das Manchester City College ist eine weitere Weiterbildungsstätte in der Stadt. Auch in der benachbarten Stadt Salford befindet sich eine Universität, die University of Salford. Ebenfalls in Greater Manchester befindet sich die University of Bolton. Verkehr. Der Flughafen Manchester ist nach London-Heathrow und Gatwick der drittgrößte Flughafen des Vereinigten Königreiches. Jährlich werden ca. 18 Mio. Passagiere abgefertigt. Direktverbindungen bestehen zu Kontinentaleuropa (u. a. Hamburg, Düsseldorf, Frankfurt, München, Wien) und interkontinentalen Flughäfen (u. a. New York, Washington, Singapur). Der öffentliche Personennahverkehr basiert auf Stadtbussen und der Stadtbahn Manchester Metrolink, die zu großen Teilen auf ehemaligen Eisenbahnstrecken verkehrt. Drei Buslinien (Metroshuttle 1, 2 und 3), die die wichtigsten Punkte in der Innenstadt mit Innercityexpressbussen verbinden, sind kostenlos nutzbar. Direkte Fernbuslinien verbinden die Stadt unter anderem mit London, Liverpool, Birmingham, Leeds und Schottland. Das Programm zur Ausbau der Stadtbahn wurde im Juli 2006 von der Regierung genehmigt. Dieses Programm sieht ein Ausbauvolumen des Stadtbahnnetzes von insgesamt 1,5 Milliarden Pfund vor. Manchester ist ein Eisenbahnverkehrsknotenpunkt. Der Hauptbahnhof Manchester Piccadilly ist der verkehrsreichste Bahnhof Englands außerhalb von London. Die weiteren zentralen Bahnhöfe Oxford Road und Victoria dienen dem Regionalverkehr. Die Binnenkanäle "Manchester-Kanal", "Bolton & Bury-Kanal", "Rochdale-Kanal", "Manchester-Ship-Kanal", "Bridgewater-Kanal", "Ashton-Kanal" und der "Leigh-Abzweiger" des "Leeds & Liverpool-Kanal" waren in der Vergangenheit wichtige Transportwege. Heute dienen sie hauptsächlich Ausflugsschiffen (Narrowboats) als Fahrtweg. Umgebung. Orte in der Umgebung Manchesters, die im Zuge der Industrialisierung Bedeutung erlangten, sind Altrincham, Sale, Stretford, Ashton-under-Lyne, Bury, Bolton, Oldham, Rochdale, Salford, Stockport und Wigan. Südöstlich der Stadt liegt der "Peak-District-Nationalpark". Mit dem Auto gut erreichbar ist der "Lake-District-Nationalpark", der nördlich der Stadt liegt. Persönlichkeiten. → "Hauptartikel: Liste von Persönlichkeiten der Stadt Manchester" Mittelmeer. Das Mittelmeer (, deshalb deutsch auch "Mittelländisches Meer", präzisierend "Europäisches Mittelmeer") ist ein Mittelmeer zwischen Europa, Afrika und Asien, ein Nebenmeer des Atlantischen Ozeans und, da es mit der Straße von Gibraltar nur eine sehr schmale Verbindung zum Atlantik besitzt, auch ein Binnenmeer. Im Arabischen und Türkischen wird es auch als „Weißes Meer“ (/"al-baḥr al-abyaḍ" bzw. türk. "Akdeniz") bezeichnet. Zusammen mit den darin liegenden Inseln und den küstennahen Regionen Südeuropas, Vorderasiens und Nordafrikas bildet das Mittelmeer den Mittelmeerraum, der ein eigenes Klima (mediterranes Klima) hat und von einer eigenen Flora und Fauna geprägt ist. Geografie. Die Fläche des Mittelmeers beträgt etwa 2,5 Millionen km² und sein Volumen 4,3 Millionen km³. Im Calypsotief erreicht es eine maximale Tiefe von 5.267 Metern. Die durchschnittliche Wassertiefe liegt bei rund 1.430 Metern. Abgrenzung. Das Europäische Mittelmeer liegt als am stärksten von Festländern umgebenes bzw. vom Ozean getrenntes Mittelmeer zwischen den drei Kontinenten Afrika, Europa und Asien. Es wird zu den Nebenmeeren des Atlantischen Ozeans gezählt. Im Westen ist es durch die Straße von Gibraltar mit dem Atlantischen Ozean verbunden, im Nordosten über die Dardanellen, das Marmarameer und den Bosporus mit dem Schwarzen Meer und im Südosten über den Sueskanal (seit 1869) mit dem Roten Meer, einem Binnenmeer des Indischen Ozeans. Gliederung. Das Mittelmeer ist vor allem im Osten und Norden durch eigene Nebenmeere und Buchten stark untergliedert. In der Tiefe gliedert sich das Meer in zwei charakteristische Becken, ein westliches und ein östliches, die durch die seismisch hochaktive Schwelle Tunesien–Italien getrennt sind. Hier zeichnet sich mit dem Tyrrhenischen Becken noch ein drittes, eigenständiges Becken ab. Ligurisches Meer, Tyrrhenisches Meer, Straße von Sizilien, Golf von Gabès (Kleine Syrte), Ionisches Meer, Adriatisches Meer. Angrenzende Staaten – Mittelmeerstaaten. Im Uhrzeigersinn haben Spanien, Frankreich, Monaco, Italien, Malta, Slowenien, Kroatien, Bosnien und Herzegowina, Montenegro, Albanien, Griechenland, die Türkei, Zypern, Syrien, Libanon, Israel, Ägypten, Libyen, Tunesien, Algerien und Marokko Anteil an der Mittelmeerküste. Gibraltar und die beiden Militärbasen Akrotiri und Dekelia auf Zypern sind britische Hoheitsgebiete, gehören aber offiziell nicht zum Vereinigten Königreich. Die Palästinensischen Autonomiegebiete haben mit dem Gazastreifen Anteil an der Mittelmeerküste. Beim Mittelmeer sind die beiden Begriffe "Mittelmeerstaat" und "Mittelmeeranrainerstaat" nahezu gleichbedeutend, da alle größeren Staaten des Mittelmeerraums zur Küste Zugang haben. Zu Ersteren gehören allerdings noch die europäischen Kleinstaaten Vatikanstadt und San Marino, und unter Umständen auch Andorra und Mazedonien. Inseln und Küsten. Zum Mittelmeer, das zu den ozeanischen Nebenmeeren gezählt wird, gehören zahlreiche Inselgruppen und einzelne größere und kleinere Inseln. Die flächenmäßig größte Insel des Mittelmeers ist Sizilien, gefolgt von Sardinien, welche wie Sizilien eine Region von Italien bildet. Weitere flächenmäßig große Mittelmeerinseln sind – der Größe nach absteigend geordnet – Zypern, Korsika und Kreta. Zypern und Malta mit seinen Nachbarinseln bilden die beiden einzigen Inselstaaten des Mittelmeeres. Sizilien ist mit mehr als fünf Millionen Einwohnern mit Abstand die bevölkerungsreichste Mittelmeerinsel. Bedeutende Inselgruppen im Europäischen Mittelmeer. Blick auf das Mittelmeer bei Cap Bon in Tunesien Die bedeutendsten Inselgruppen im Europäischen Mittelmeer sind von Westen nach Osten Größere Halbinseln. An der Westküste des Mittelmeers liegt die Iberische Halbinsel mit Spanien und Portugal, welche im Norden und im Westen vom Atlantik gesäumt wird und im Nordosten durch das Pyrenäengebirge mit Frankreich verbunden ist. Östlich folgt die stiefelförmige Apenninenhalbinsel mit dem Großteil Italiens. Die in ihrer Ausdehnung unterschiedlich definierte Balkanhalbinsel zwischen Adria, Ägäis und dem Schwarzen Meer umfasst den Großteil Südosteuropas. Auch Kleinasien wird bisweilen als Halbinsel zwischen Schwarzem und Mittelmeer gesehen. Deutlich kleiner dimensioniert sind Halbinseln wie Kalabrien und der Salento in Süditalien, Istrien in Kroatien (die größte Halbinsel in der Adria), der Peloponnes, Attika und Chalkidiki in Griechenland oder die Halbinsel Gallipoli im europäischen Teil der Türkei. An der weit weniger gegliederten Südküste des Mittelmeers liegen die Halbinseln Cap Bon in Tunesien und die Kyrenaika in Libyen. Küstenabschnitte. Die Küsten liegen entlang der charakteristischen Großräume des Mittelmeerraums, was die Landmasse betrifft, nämlich Iberische Halbinsel, Französische Mittelmeerküste, Apennin-Halbinsel, Balkanhalbinsel, Griechenland (als Halbinsel des Balkans), Kleinasien, Levante (Naher Osten), Maghreb (Nordafrika), wobei letzterer Raum die gesamte Südhälfte der Küste einnimmt, aber deutlich weniger strukturiert ist, weil hier mit dem Atlasgebirge nur eine Gebirgsmasse küstenlinienbestimmend ist. Zuflüsse. Hinzu kommt der Wasserüberschuss des Schwarzen Meeres über den Bosporus und das Marmarameer. Geschichte. Das Römische Reich zur Zeit seiner größten Ausdehnung im Jahre 117 n. Chr. Osmanisches Reich und Venedig im 15. und 16. Jh. (die Hintergrundkarte zeigt die Grenzen der heutigen Länder) Im 8. Jh. v. Chr. dehnte das Assyrische Reich unter König Tiglat-pileser III. seinen Herrschaftsbereich bis ins östliche Mittelmeer (Levante, Zypern und Nildelta) aus. Die Assyrer nannten das Mittelmeer „Oberes Meer des Sonnenuntergangs“ oder einfach das Obere Meer. Wirtschaftlich und kulturell wurde der Mittelmeerraum im ersten Jahrtausend v. Chr. die meiste Zeit von den Griechen und Phöniziern dominiert. Beide Völker besaßen jedoch keine geschlossenen Großreiche, sondern waren in einzelne Stadtstaaten zersplittert. Einzige Ausnahme bei den Griechen war das Alexanderreich, das ab etwa 330 v. Chr. den gesamten östlichen Mittelmeerraum einnahm. Es hatte zwar nur wenige Jahre bestand, festigte jedoch nachhaltig den Einfluss der griechischen Kultur in dieser Region (siehe → Hellenismus). Karthago, eine phönizische Kolonie im heutigen Tunesien, entwickelte sich ab etwa 550 v. Chr. zu einem Flächenstaat, der bis ins 3. Jh. v. Chr. die Vormachtstellung im westlichen Mittelmeer innehatte (siehe → Geschichte Karthagos). Ab dem Zweiten Punischen Krieg (218–201 v. Chr.) beherrschten die Römer weite Teile des Mittelmeers und nannten es "mare nostrum" („unser Meer“). Im Jahr 30 v. Chr. wurde Ägypten römische Provinz. Unter der Herrschaft des Kaisers Claudius (41–54 n. Chr.) wurde schließlich das Königreich Mauretanien von den Römern erobert. Fortan umschloss das Römische Reich ("Imperium Romanum") für die nächsten 300 Jahre das gesamte Mittelmeer. Nach dem Untergang des Weströmischen Reiches im 5. Jh. blieb das Oströmische Reich, später Byzantinisches Reich genannt, zunächst Regionalmacht im östlichen Mittelmeer. Im 7. Jh. gerieten große Teile des Mittelmeerraumes unter arabische Herrschaft (siehe auch → Umayyaden). Im 11. Jh. verdrängten die Türken, aus Zentralasien kommend, die Byzantiner weitgehend aus Kleinasien. 1453 eroberten sie Konstantinopel und zerschlugen das Byzantinische Reich endgültig. Nachfolgend dehnte sich das Osmanische Reich auf zahlreiche Nachfolgestaaten des Umayyaden-Kalifats aus und blieb bis ins 19. Jahrhundert hinein die bedeutendste Macht im Mittelmeerraum. Erbitterte Gegner der Türken im Kampf um die Vorherrschaft auf See im 15. und 16. Jahrhundert waren die Venezianer. Im Laufe des 19. und frühen 20. Jh. geriet nahezu der gesamte Mittelmeerraum unter Kontrolle europäischer Mächte, insbesondere Frankreichs und Großbritanniens. Im Ersten Weltkrieg (1914–1918) und mehr noch Zweiten Weltkrieg (1939–1945) war auch das Mittelmeer ein Kriegsschauplatz. In der zweiten Hälfte des 20. Jahrhunderts erlangten die europäischen Kolonien in Nordafrika und an der östlichen Mittelmeerküste nach und nach ihre Unabhängigkeit. Eine in mehrfacher Hinsicht besondere historische Bedeutung kommt der Gründung des Staates Israel im Jahre 1948 zu (siehe dazu auch → Nahost-Konflikt). Im 21. Jahrhundert ist das Mittelmeer Schauplatz verschiedener Migrationswellen. Einerseits ist eine vom afrikanischen zum europäischen Kontinent gerichtete Migrationsbewegung zu beobachten, andererseits haben sich v.a. seit dem Jahr 2015 die Migrationsströme aus dem asiatischen Raum zum europäischen Kontinent massiv verstärkt, was zur aktuellen Flüchtlingskrise in Europa führt. (siehe → Illegale Einwanderung über das Mittelmeer in die EU). Entstehung und Entwicklung des Mittelmeers. a> (vor etwa 200 Mio. Jahren) Das Europäische Mittelmeer ist größtenteils ein Überrest der Tethys, eines großen golfartigen Urozeans, der vom Superkontinent Pangäa umgeben war. Die Bildung des Mittelmeeres begann mit dem Auseinanderbrechen Pangäas und der Drift der Afrikanischen Platte (damals noch Teil des großen Südkontinentes Gondwana) nach Süden während der Trias und des Jura. Dadurch öffnete sich die Tethys reißverschlussartig nach Westen. Die erneute Norddrift der mittlerweile aus dem Gondwana-Verband herausgelösten Afrikanischen Platte in der Kreide und deren Kollision mit dem Südrand Europas im Tertiär führten zur zunehmenden Einengung der westlichen Tethys bzw. zur Alpidischen Gebirgsbildung. Die damit verbundene Entstehung der alpidischen Ketten in Mittel- und Südosteuropa sowie in Vorderasien (Alpen, Karpaten, Dinarisches Gebirge usw.) teilten die westliche Tethys in einen nördlichen Teil, die Paratethys, und einen südlichen Teil, der sich zum heutigen Mittelmeer entwickelte (die östliche Tethys schloss sich im Zuge der Norddrift Indiens, durch die gleichzeitig der Indische Ozean entstand). Die Kollision Afrikas (einschließlich der Arabischen Halbinsel) mit dem Südwestrand des damaligen Asiens im mittleren Miozän führte zur Trennung des Mittelmeers vom Indischen Ozean. Die Bildung der jungen Faltengebirge des Mittelmeerraumes und der Inseln sowie die Verteilung der Schelfbereiche und Tiefseebecken sind das Resultat komplexer tektonischer und geomorphologischer Prozesse, die noch nicht abschließend geklärt sind. Die im östlichen Mittelmeer erhaltene ozeanische Erdkruste des westlichen Tethysbeckens ist mit einem Alter von teilweise über 300 Mio. Jahren die älteste der Welt. Vor etwa sechs Millionen Jahren, im Messinium (oberstes Miozän) begann das Mittelmeer auszutrocknen. Vor dem Messinium war das Mittelmeer noch nicht über die schmale Straße von Gibraltar mit dem Atlantik verbunden, sondern über wesentlich breitere Meeresarme, welche einerseits über Südspanien, andererseits südlich des Atlasgebirges führten. Als Folge der plattentektonisch bedingten Kollision Afrikas mit Südeuropa schlossen sich diese Meeresverbindungen. Durch das Zusammenspiel von ozeanographischer Isolation des Mittelmeerbeckens und dem ariden Klima in der Region verdunstete das Meerwasser zusehends und der Pegel sank. Die sich bildende Salzwüste ist heute im Meeresboden des Mittelmeeres in Form mächtiger Gips- und Salzlager dokumentiert. Einige Jahrtausende später wurde das Becken des Mittelmeers durch einströmendes Wasser aus dem Atlantik über die Straße von Gibraltar wieder gefüllt. Dieser Vorgang spielte sich wohl mehrmals vor sechs bis fünf Millionen Jahren ab. Die wiederholte Eindampfung erklärt die hohe Mächtigkeit der Salzlager. Der gesamte Zeitraum wird als die Messinische Salinitätskrise (MSC) bezeichnet. Die Messinische Salinitätskrise resultierte in einem Faunenschnitt im Mittelmeerraum, anhand dessen bereits Charles Lyell, ohne die Ursache zu kennen, die erdgeschichtliche Grenze vom Miozän zum Pliozän festlegte. Im Miozän bestanden im Mittelmeer große Inselgruppen, zeitweise mit Landverbindungen zu Nordafrika. Diese waren zum Teil mit tropisch-afrikanischer Fauna bevölkert: Altweltaffen ("Oreopithecus bambolii"), Elefanten (Sizilianischer Zwergelefant), Giraffen, Flusspferde, Krokodile. Im Pliozän wurde diese Fauna weitgehend durch Einwanderungen aus Europa ersetzt, z. B. durch Säbelzahnkatzen ("Machairodus" und "Metailurus"). Im Periglazial der Würm- bzw. Weichsel-Eiszeit lag der Wasserspiegel des Mittelmeeres etwa 120 Meter tiefer als heute. Damit war das obere Ende der Adria (Caput Adriae) Festland, viele griechische Inseln waren mit Anatolien verbunden, Sardinien und Korsika bildeten eine große Insel, ebenso wie Sizilien und Malta. Östlich von Tunesien erstreckte sich eine weite Küstenebene. Vor der heutigen Mündung von Rhone, Nil, und Ebro lagen ausgedehnte Ebenen. Der Eingang der Henry-Cosquer-Höhle mit prähistorischen Felszeichnungen liegt heute 36 m unter dem Meeresspiegel. Der glazioeustatische Anstieg des Meeresspiegels am Ende des Pleistozäns betrug etwa 0,2 cm/a. Im frühen Holozän lag der Wasserspiegel etwa 35 Meter tiefer als heute. Die Barriere zum Schwarzen Meer wurde etwa 5600 v. Chr. überschwemmt. Das Mittelmeer als Sedimentbecken. Die Sedimentationsgeschichte des Mittelmeeres ist eng verknüpft mit der Entstehung der jungen Faltengebirge des Mittelmeerraumes. Letztere sind bedeutende Liefergebiete für die Sedimente und die mit der Gebirgsbildung verbundenen tektonischen Vorgänge waren ein wichtiger Einflussfaktor für die Sedimentationsdynamik. Große Flüsse, wie Ebro, Po und Rhone waren und sind wichtige Transportmedien für die Sedimente. Das größte Flusssystem, welches in das Mittelmeer mündet, ist der Nil. Er befördert pro Jahr etwa 60 Millionen Tonnen Sediment ins östliche Mittelmeer. Nicht zu unterschätzen ist aber auch der Eintrag von Sedimenten aus den angrenzenden Wüstengebieten (speziell der Sahara) durch Wind. Eine bemerkenswerte Eigenschaft der Mittelmeer-Sedimentabfolge des Pliozäns und Quartärs ist das rhythmische Auftreten von Faulschlammablagerungen. Verantwortlich dafür könnten Klimaschwankungen mit Abschwächung der Aridität in der Region sein. Die Existenz und Nicht-Existenz von Verbindungen zum Atlantischen und Indischen Ozean (über den Persischen Golf) waren ebenfalls von großer Wichtigkeit für die sedimentäre Evolution des Mittelmeerraumes – insbesondere hinsichtlich der Entstehung von Evaporiten. Teilbecken. Das Mittelmeer besteht hauptsächlich aus vier größeren, mit ozeanischer Kruste unterlegten Tiefseebecken: Das Balearen-Becken, auch Algerisch-Provenzalisches Becken, das bis zu 3255 m tief ist und im westlichen Teil des Mittelmeers liegt, bildet das kleinste Becken. Im westlichen Mittelteil befindet sich das Tyrrhenische Becken im Tyrrhenischen Meer mit einer Tiefe von bis zu 3758 m. Im östlichen Mittelteil des Mittelmeers liegt das Ionische Becken im Ionischen Meer, das im Calypsotief – der tiefsten Stelle des Europäischen Mittelmeers – bis zu 5267 m tief ist. In der östlichen Region befindet sich das bis zu 4517 m tiefe Levantische Becken im Levantischen Meer. Gezeiten. Da das Mittelmeer nur eine schmale Verbindung mit dem Atlantik hat und nur 3.500 km lang ist, hat es kaum Tidenhub. Die höchsten Werte für den maximalen Tidenhub liegen im Bereich 100 cm (Venedig), 120 cm (Triest) und 200 cm (Golf von Gabès). Weite Bereiche des Mittelmeeres haben aber einen kaum nachweisbaren Tidenhub von unter 10 cm, nur wenige Regionen erreichen durch Resonanzen Werte von über 30 cm. Eine nennenswerte Gezeitenströmung gibt es nur bei der Meerenge von Gibraltar und in den Lagunen zwischen Venedig und Triest. Salzgehalt. Der Salzgehalt des "Europäischen Mittelmeeres" liegt mit rund 3,8 % höher als der des Atlantiks. Dies ist eine Folge der starken Verdunstung, die nicht durch den Süßwasserzufluss der großen Flüsse und Ströme ausgeglichen wird (man spricht in diesem Zusammenhang von einem "Konzentrationsbecken"). Deshalb fließt am Grund der Straße von Gibraltar ein kräftiger Salzwasserstrom in den Atlantik ab, während an der Oberfläche eine entsprechend zum Netto-Wasserverlust noch stärkere Gegenströmung salzärmeres und darum leichteres Ozeanwasser in das Mittelmeer transportiert. Der Oberflächensalzgehalt steigt von West nach Ost von 3,63 % in der Straße von Gibraltar auf 3,91 % vor der Küste Kleinasiens. Auswirkungen der globalen Erwärmung. Das Mittelmeer ist von der globalen Erwärmung stark betroffen. So verzeichneten Forscher seit Mitte des 20. Jahrhunderts einen Anstieg des Meeresspiegels, der sich seit den 1970er Jahren auf bis zu 2,5 bis 10 Millimeter jährlich zwischen 1990 und 2007 beschleunigt hat. Auch stieg die Wassertemperatur seit den 1970er Jahren um 0,12 bis 0,5 °C beträchtlich an. Flora und Fauna. Unterwasserwelt südlich von Larnaka, Zypern Die Fauna des Mittelmeers ist sehr vielfältig und artenreich. Sie besteht hauptsächlich aus Fischen, Schwämmen, Nesseltieren, Weichtieren, Stachelhäutern und Gliederfüßern. Laut Schätzungen kommen im Mittelmeer etwa 700 Fischarten vor. Im Mittelmeer sind bisher 35 Haiarten nachgewiesen worden. Darunter sind auch für den Menschen potenziell gefährliche Arten wie der Weiße Hai, der Blauhai und der Kurzflossen-Mako. Die Populationsdichte dieser Arten ist jedoch sehr gering, was vermutlich der Hauptgrund dafür ist, dass Haiangriffe im Mittelmeer extrem selten sind. Am häufigsten sind harmlose Arten, wie zum Beispiel der Kleingefleckte Katzenhai. Auch Wale kommen im Mittelmeer vor. Es konnten schon fünf Arten von Bartenwalen nachgewiesen werden. Im Mittelmeer ist der Finnwal der einzige Bartenwal, welcher regelmäßig beobachtet wird. Bisher wurden 16 Arten von Zahnwalen nachgewiesen. Darunter sind der Gewöhnliche Delfin, der Große Tümmler, der Grindwal und der Pottwal. Am häufigsten werden Wale und Delfine in der Straße von Gibraltar und im Ligurischen Meer beobachtet; vor allem die Delfine sind aber im ganzen Mittelmeer beheimatet. Die einzige Robbenart im Mittelmeer ist die Mittelmeer-Mönchsrobbe. Sie ist vom Aussterben bedroht. Die wichtigste und gleichzeitig häufigste Gefäßpflanzenart im Mittelmeer ist das Neptungras. Negativer Einfluss des Menschen. Das Ökosystem des Mittelmeers ist durch Überfischung bedroht. Es gehört zu den am stärksten ausgebeuteten Meeresregionen der Welt. Einige Fischarten sind laut Greenpeace bereits völlig verschwunden. Besonders die Thunfische und Schwertfische sind durch die hohe Nachfrage bedroht. Im Rahmen des Libanonkriegs 2006 gab es im östlichen Mittelmeer eine verheerende Ölpest. Eine Bedrohung mit kaum zu überschätzendem Einfluss auf das Ökosystem im Mittelmeer stellt die Ausbreitung der eingeschleppten Tang-Art "Caulerpa taxifolia" dar, die begonnen hat, die heimischen Seegraswiesen zu überwuchern, welche für die Bioproduktivität des Mittelmeeres von großer Bedeutung sind. Klima. Das Klima im Mittelmeerraum wird durch sehr warme, überwiegend trockene Sommer und niederschlagsreiche und milde Winter geprägt. Die mittleren Lufttemperaturen reichen im Sommer von 23 °C in den westlichen Gebieten bis 26 °C im Osten. Höchsttemperaturen sind 30 °C. Im Winter liegen die Werte bei 10 °C im Westen und 16 °C vor der levantinischen Küste. Die Jahresniederschläge nehmen von Westen nach Osten ab. Fast den gesamten Sommer über herrschen unter dem Einfluss des subtropischen Hochdruckgürtels beständige Wetterlagen vor; nur im östlichen Mittelmeer (vor allem im Ägäischen Meer) führen die aus nördlichen Richtungen wehenden Etesien zu Abkühlung. Im Winter steht vor allem der westliche Teil des Mittelmeeres unter dem Einfluss der Westwindzirkulation (siehe Wind). Von Norden her vordringende Winde mit Sturmstärke, wie etwa der Mistral in Südfrankreich, bewirken zum Teil markante Kaltlufteinbrüche. Die Bora (kroatisch "Bura") ist ein trockener, kalter und böiger Fallwind an der kroatischen Adriaküste. Winde vom Bora-Typ gehören mit ihrer Häufigkeit und ihren hohen Durchschnittsgeschwindigkeiten (im Winter), an der Küste Kroatiens zu den stärksten der Welt. Mandelbrot-Menge. a> ist eine komplexe Zahl "c" zugeordnet. Farbig kodiert ist die Anzahl der Iterationen "xn+1 = xn2 + c", die notwendig ist, einen Betrag von 103 zu überschreiten. Sie wächst von Farbstreifen zu Farbstreifen um 1. Die Mandelbrot-Menge ist eine fraktal erscheinende Menge, die eine bedeutende Rolle in der Chaosforschung spielt. Der Rand der Menge weist eine Selbstähnlichkeit auf, die jedoch nicht exakt ist, da es zu Verformungen kommt. Die Visualisierung der Menge wird im allgemeinen Sprachgebrauch oft Apfelmännchen genannt. Die ersten computergrafischen Darstellungen wurden 1978 von Robert Brooks und Peter Matelski vorgestellt. 1980 veröffentlichte Benoît Mandelbrot, nach dem die Menge benannt wurde, eine Arbeit über das Thema. Darauf folgend wurde sie von Adrien Douady und John Hamal Hubbard in einer Reihe grundlegender mathematischer Arbeiten systematisch untersucht. Die mathematischen Grundlagen dafür wurden bereits 1905 von dem französischen Mathematiker Pierre Fatou erarbeitet. Definition über Rekursion. Die Mandelbrot-Menge formula_1 ist die Menge aller komplexen Zahlen formula_2, für welche die rekursiv definierte Folge komplexer Zahlen formula_3 mit dem Bildungsgesetz beschränkt bleibt, das heißt, der Betrag der Folgenglieder wächst nicht über alle Grenzen. Die grafische Darstellung dieser Menge erfolgt in der komplexen Ebene. Die Punkte der Menge werden dabei in der Regel schwarz dargestellt und der Rest farbig, wobei die Farbe eines Punktes den Grad der Divergenz der zugehörigen Folge widerspiegelt (siehe unten). Definition über Julia-Mengen. Die Mandelbrot-Menge formula_1 wurde von Benoît Mandelbrot ursprünglich zur Klassifizierung von Julia-Mengen eingeführt, die bereits Anfang des 20. Jahrhunderts von den französischen Mathematikern Gaston Maurice Julia und Pierre Fatou untersucht wurden. Die Julia-Menge formula_7 zu einer bestimmten komplexen Zahl formula_2 ist definiert als der Rand der Menge aller Anfangswerte formula_9, für die die obige Zahlenfolge beschränkt bleibt. Man kann beweisen, dass die Mandelbrot-Menge formula_1 genau die Menge der Werte formula_2 ist, für die die zugehörige Julia-Menge formula_7 zusammenhängend ist. Verallgemeinerte Mandelbrot-Mengen. Im allgemeinen Sprachgebrauch wird die oben definierte Menge formula_1 als "die" Mandelbrot-Menge bezeichnet. Verwendet man anstelle des obigen Bildungsgesetzes die Rekursionsregel mit einer von einem komplexen Parameter formula_2 abhängigen Abbildung formula_16 innerhalb der komplexen Zahlen, so lassen sich in analoger Weise eine zu dieser Abbildung gehörige Mandelbrot-Menge und entsprechende Julia-Mengen definieren. Der Startwert formula_9 muss ein kritischer Punkt sein, das heißt, es muss formula_18 gelten. Dieses Verfahren kann für Funktionen mit mehr als einem komplexen Parameter formula_2 erweitert werden. Allerdings ist eine grafische Darstellung in zwei Dimensionen ohne Projektion nicht mehr möglich. Die folgenden Ausführungen beziehen sich nur auf die üblicherweise betrachtete Mandelbrot-Menge. Geometrische und mathematische Eigenschaften. Der ungeheure Formenreichtum der Mandelbrot-Menge erschließt sich aus ihrem Bezug zu Julia-Mengen. Julia-Mengen zur Iteration "z" → "z"2 + "c" sind Fraktale, außer für einige "c"-Werte wie "c" = −2 (Strecke) oder "c" = 0 (Kreis). Die Formen dieser fraktalen Strukturen sind innerhalb einer Julia-Menge stets die gleichen, umspannen aber für Julia-Mengen zu verschiedenem Parameter "c" einen enormen Formenreichtum. Es zeigt sich, dass die Strukturen der Mandelbrot-Menge in der Umgebung eines bestimmten Wertes "c" genau jene Strukturen der zugehörigen Julia-Menge formula_7 wiedergeben. Damit enthält die Mandelbrot-Menge den kompletten Formenreichtum der unendlich vielen Julia-Mengen (s. u.). In den fraktalen Strukturen am Rand findet man verkleinerte ungefähre Kopien der gesamten Mandelbrot-Menge, so genannte "Satelliten". Jeder Bildausschnitt der Mandelbrot-Menge, der sowohl Punkte aus formula_1 als auch solche außerhalb formula_1 umfasst, enthält unendlich viele dieser Satelliten. Unmittelbar am Rand eines Satelliten treten fast die gleichen Strukturen auf, wie an den entsprechenden Stellen des Originals. Diese Strukturen sind jedoch nach weiter außen hin mit den Strukturen kombiniert, die für die größere Umgebung des Satelliten typisch sind. Diese Situation wird gelegentlich mit der eines biologischen Organismus und seiner Gene verglichen. Danach entspricht jedem Satelliten die Erbsubstanz einer Zelle, die den Bauplan für den kompletten Organismus enthält, während nach außen hin nur die Strukturen des lokalen Organs exprimiert sind. Es handelt sich dabei jedoch um ein rein formales Gleichnis ohne kausalen Hintergrund. Da jeder Satellit wiederum mit Satelliten höherer Ordnung bestückt ist, lässt sich immer eine Stelle finden, an der eine beliebige Anzahl beliebiger verschiedener Strukturen in beliebiger Reihenfolge kombiniert auftritt. Diese Strukturen sind allerdings nur bei extremer Vergrößerung erkennbar. Die Mandelbrot-Menge ist spiegelsymmetrisch zur reellen Achse. Sie ist zusammenhängend (das heißt, sie bildet keine Inseln) und voll (sie hat also keine Löcher) (Ob formula_1 einfach zusammenhängend ist, ist nicht bekannt, denn es ist nicht einmal bekannt, ob formula_1 wegzusammenhängend ist). Die Mandelbrot-Menge ist zwar selbstähnlich, aber nicht exakt, denn keine zwei Teilstrukturen ihres Randes sind exakt gleich; aber in der Nähe vieler Randpunkte bilden sich bei fortgesetzter Ausschnittvergrößerung im Grenzwert periodische Strukturen. Da die Mandelbrot-Menge Kardioid- und Kreisflächen enthält, hat sie die fraktale Dimension "2". Der Rand der Mandelbrot-Menge hat eine unendliche Länge, und seine Hausdorff-Dimension beträgt nach Arbeiten von Mitsuhiro Shishikura ebenfalls "2"; das impliziert, dass die Box-Dimension den Wert 2 hat. Es ist denkbar, dass der Rand der Mandelbrot-Menge einen positiven (notwendig endlichen) Flächeninhalt hat; andernfalls wäre dieser Flächeninhalt null. Der Flächeninhalt der Mandelbrot-Menge ist nicht bekannt und beträgt nach numerischen Schätzungen etwa 1,506 591 77. Einer Spekulation zufolge beträgt der exakte Wert formula_25. Die Frage, ob die Mandelbrot-Menge entscheidbar ist, gibt zunächst keinen Sinn, da formula_1 überabzählbar ist. Einen Ansatz, den Begriff der Entscheidbarkeit auf überabzählbare Mengen zu verallgemeinern, stellt das Blum-Shub-Smale-Modell dar. Innerhalb dessen ist die Mandelbrot-Menge nicht entscheidbar. Bildergalerie einer Zoomfahrt. Die folgende exemplarische Bildersequenz einer Zoomfahrt an eine bestimmte Stelle "c" gibt einen Eindruck vom geometrischen Formenreichtum und erläutert gewisse typische Strukturelemente. Die Vergrößerung im letzten Bild beträgt etwa 1 zu 60 Milliarden. Bezogen auf einen üblichen Computerbildschirm verhält sich dieser Ausschnitt wie zu der Gesamtgröße des Apfelmännchens von 2,5 Millionen Kilometern, dessen Rand in dieser Auflösung eine unvorstellbare Fülle verschiedenster fraktaler Strukturen aufweist. Eine Animation zu dieser Zoomfahrt findet sich bei den Weblinks. Verhalten der Zahlenfolge. Alle "c"-Werte, die zu den ersten drei Verhaltensweisen führen, gehören zu formula_1. Geometrische Zuordnung. Konvergenz liegt genau für die Werte von "c" vor, die das Innere der Kardioide bilden, den „Körper“ des Apfelmännchens, sowie für abzählbar viele ihrer Randpunkte. Periodische Grenzzyklen findet man in den (angenähert) kreisförmigen „Knospen“ wie im „Kopf“, in den Kardioiden der Satelliten sowie ebenfalls auf abzählbar vielen Randpunkten dieser Komponenten. Eine fundamentale Vermutung besagt, dass es für alle inneren Punkte der Mandelbrot-Menge einen Grenzzyklus gibt. Die Folge ist echt vorperiodisch für abzählbar viele Parameter, die oft Misiurewicz-Thurston-Punkte genannt werden (nach Michał Misiurewicz, William Thurston). Dazu gehören die „Antennenspitzen“, wie Punkt z = −2 ganz links, und Verzweigungspunkte der Mandelbrot-Menge. In den überabzählbar vielen übrigen Punkten der Mandelbrot-Menge kann sich die Folge auf viele verschiedene Weisen verhalten, die jeweils sehr unterschiedliche dynamische Systeme erzeugen und die teilweise Gegenstand intensiver Forschung sind. Je nach Definition des Wortes kann man „chaotisches“ Verhalten finden. Die kreisförmigen Strukturen. Mandelbrot-Menge mit farbkodierter Periodenlänge der Grenzzyklen Jede kreisförmige „Knospe“ und jede Satelliten-Kardioide zeichnet sich durch eine bestimmte Periodizität des Grenzzyklus aus, gegen den die Folge für die zugehörigen "c"-Werte strebt. Die Anordnung der „Knospen“ an der zugehörigen Kardioide folgt dabei den folgenden Regeln, aus denen sich unmittelbar die Periodizitäten ablesen lassen. Jede „Knospe“ berührt genau einen Basiskörper, nämlich eine größere „Knospe“ oder eine Kardioide. Ferner erklärt diese Regel das Auftreten bestimmter Folgen von „Knospen“ wie beispielsweise vom „Kopf“ zur Kardioidkerbe hin mit einer Periodizitätszunahme zur nächsten „Knospe“ hin um den Wert 1 oder vom „Arm“ zum „Kopf“ hin um den Wert 2. Attraktive Zyklen. Gibt es für ein "c" ein Folgenglied mit der Eigenschaft "zn = z"0 = 0, so wiederholt sich die Folge von Anfang an streng periodisch und zwar mit der Periode "n". Da sich "zn" durch "n"-malige Anwendung der Iterationsvorschrift ergibt, wobei bei jedem Schritt quadriert wird, lässt es sich als Polynom von "c" vom Grad 2"n"−1 formulieren. Die "c"-Werte für periodische Folgen der Periode "n" erhält man daher über die 2"n"−1 Nullstellen dieses Polynoms. Es zeigt sich, dass jede Zahlenfolge gegen diesen Zahlenzyklus konvergiert, sofern eins ihrer Folgenglieder hinreichend nahe an diesen Zyklus gerät. Man spricht von sogenannten Attraktoren. Die Anzahl der anziehenden Zyklen mit der genauen Periode "n", d. h. "zn = z"0 und "n" ist minimal mit dieser Eigenschaft, ist die. Galerie der Iteration. Die folgende Galerie gibt einen Überblick über die Werte von "z'n" für einige Werte von "n". Dabei hängt "z'n" vom Parameter "c" ab, dessen Realteil sich in den Bildern von links nach rechts von −2,2 bis +1 erstreckt, und dessen Imaginärteil von −1,4 bis +1,4 reicht. Repulsive Zyklen. Neben attraktiven Zyklen gibt es repulsive, die sich dadurch auszeichnen, dass Zahlenfolgen in ihrer Umgebung sich zunehmend von ihnen entfernen. Sie lassen sich jedoch erreichen, da jedes "zn" abgesehen von der Situation "zn-1 = 0" wegen des Quadrats in der Iterationsvorschrift zwei potenzielle Vorgänger in der Folge hat, die sich nur durch ihr Vorzeichen unterscheiden. "c"-Werte, für die die zugehörige Folge irgendwann über einen solchen zweiten Vorläufer eines Periodenmitgliedes in einen derartigen instabilen Zyklus mündet, sind beispielsweise die „Naben“ der rad- bzw. spiralförmigen Strukturen sowie die Endpunkte der weitverbreiteten antennenartigen Strukturen, die sich formal als „Naben“ von „Rädern“ oder Spiralen mit einer einzigen Speiche interpretieren lassen. Derartige "c"-Werte werden als Misiurewicz-Punkte bezeichnet. Ein Misiurewicz-Punkt "c" hat ferner die Eigenschaft, dass formula_1 in seiner näheren Umgebung nahezu deckungsgleich mit demselben Ausschnitt der zugehörige Julia-Menge "J'c" ist. Je weiter man sich dem Misiurewicz-Punkt nähert, umso besser wird die Übereinstimmung. Da Julia-Mengen für "c"-Werte innerhalb von formula_1 zusammenhängend sind und außerhalb von formula_1 Cantor-Mengen aus unendlich vielen Inseln mit der Gesamtfläche Null, sind sie in der Übergangszone am Rand von formula_1 besonders filigran. Jeder Misiurewicz-Punkt ist aber gerade ein Randpunkt von formula_1, und jeder Ausschnitt der Randzone von formula_1, der sowohl Punkte in formula_1 als auch außerhalb davon enthält, enthält unendlich viele davon. Damit ist der gesamte Formenreichtum sämtlicher Julia-Mengen dieses filigranen Typs in der Umgebung der Misiurewicz-Punkte in formula_1 repräsentiert. Satelliten. Analyse des Verhaltens des Newton-Verfahrens zu einer Familie kubischer Polynome. Ein weiteres Strukturelement, das den Formenreichtum der Mandelbrot-Menge begründet, sind die verkleinerten Kopien ihrer selbst, die sich in den filigranen Strukturen ihres Randes befinden. Dabei korrespondiert das Verhalten der Zahlenfolgen innerhalb eines Satelliten in folgender Weise mit dem der Folgen im Hauptkörper. Innerhalb eines Satelliten konvergieren alle Zahlenfolgen gegen Grenzzyklen, deren Perioden sich von denen an den entsprechenden Stellen im Hauptkörper von formula_1 um einen Faktor p unterscheiden. Betrachtet man für einen bestimmten "c"-Wert aus dem Satelliten nur jedes p-te Folgenglied, so ergibt sich eine Folge, die bis auf einen räumlichen Maßstabsfaktor nahezu identisch ist mit derjenigen, die sich für den entsprechenden "c"-Wert im Hauptkörper von formula_1 ergibt. Die mathematische Begründung hierfür ist tiefliegend; sie entstammt den Arbeiten von Douady und Hubbard über „polynomartige Abbildungen“. Die zusätzlichen Strukturelemente in der unmittelbaren Umgebung eines Satelliten sind eine Folge davon, dass zwischen zwei der betrachteten Folgenglieder mit dem Indexabstand p sich eins mit dem Wert "zn = 0" befinden kann, das damit einen periodischen Verlauf mit der Periode n begründet. Die entsprechende Folge außerhalb des Hauptkörpers divergiert jedoch, da sie keine solchen Zwischenglieder besitzt. Es handelt sich bei der Mandelbrot-Menge selbst um eine universelle Struktur, die bei völlig anderen nichtlinearen Systemen und Klassifizierungsregeln in Erscheinung treten kann. Grundvoraussetzung ist jedoch, dass die beteiligten Funktionen winkeltreu sind. Betrachtet man solche Systeme, die von einem komplexen Parameter "c" abhängen und klassifiziert ihr Verhalten bezüglich einer bestimmten Eigenschaft der Dynamik in Abhängigkeit von "c", dann findet man unter bestimmten Umständen in der Parameter-Ebene kleine Kopien der Mandelbrot-Menge. Ein Beispiel ist die Frage, für welche Polynome dritten Grades das iterative Newton-Verfahren zur Bestimmung von Nullstellen mit einem bestimmten Startwert versagt und für welche nicht. Wie im nebenstehenden Bild kann die Mandelbrot-Menge dabei verzerrt auftreten, zum Beispiel sitzen dort die Armknospen an etwas anderer Stelle. Ansonsten ist die Mandelbrot-Menge jedoch vollkommen intakt, inklusive aller Knospen, Satelliten, Filamente und Antennen. Der Grund für das Auftauchen der Mandelbrot-Menge ist, dass die betrachtete Funktionenfamilien in bestimmten Gebieten – abgesehen von Drehungen und Verschiebungen – recht gut mit der Funktionenfamilie welche die Mandelbrot-Menge definiert, übereinstimmen. Dabei sind in einem gewissen Rahmen Abweichungen zulässig, und trotzdem kristallisiert sich die Mandelbrot-Menge heraus. Dieses Phänomen wird als "strukturelle Stabilität" bezeichnet und ist im Endeffekt verantwortlich für das Auftreten der Satelliten in der Umgebung von formula_1, weil Teilfolgen der iterierten Funktionen lokal das gleiche Verhalten zeigen wie die Gesamtfamilie. Intermediär wechselhaftes Verhalten. a>s ist ein Maß dafür, von wie vielen Punkten der Folge es getroffen wurde. Durch die Möglichkeit der Zahlenfolge, wiederholt in die unmittelbare Umgebung eines repulsiven Zyklus zu geraten, und bei dem anschließend tendenziell divergenten oder chaotischen Verhalten wiederum beinahe in einen anderen Zyklus zu geraten, können sich intermediär sehr komplizierte Verhaltensweisen der Folge ausbilden, bis sich der endgültige Charakter der Folge zeigt, wie die beiden Abbildungen demonstrieren. Die Umgebung der zugehörigen "c"-Werte in formula_1 ist entsprechend strukturreich. Die Darstellung der Folgepunkte selbst in der komplexen Ebene zeigt in diesen Fällen eine größere Komplexität. Das quasiperiodische Verhalten in der Nachbarschaft eines repulsiven Zyklus führt in diesen Fällen oft zu spiralförmigen Strukturen mit mehreren Armen, wobei die Folgepunkte das Zentrum umkreisen, während der Abstand zu ihm zunimmt. Die Anzahl der Arme entspricht daher der Periode. Die Punktanhäufungen an den Enden der Spiralarme in der obigen Abbildung sind die Folge der beiden zugehörigen Beinahe-Einfänge durch repulsive (instabile) Zyklen. Dichteverteilung der Folgenglieder. Akkumulierte Dichteverteilung der Folgenglieder für alle "c"-Werte in einer farbkodierten Darstellung Das nebenstehende Bild zeigt in der komplexen Ebene die Dichteverteilung der Folgenglieder, die sich durch Auswertung von 60 Millionen Folgen ergibt, wobei die Helligkeit ein Maß dafür ist, wie viele Orbitale durch den Punkt verlaufen. Blaue Bereiche kennzeichnen Folgenglieder mit kleinem Index, während eine gelbliche Färbung Folgenglieder mit hohen Indizes anzeigt. Folgen aus der großen Kardioide der Mandelbrot-Menge tendieren zu einer Konvergenz zu einem "c"-Wert auf einem Kreis um den Ursprung, der als runder Bereich mit sehr hoher Dichte zu erkennen ist. Die kleineren Gebilde nahe der imaginären Achse markieren die konjugierten Bereiche, zwischen denen Folgenglieder vieler Folgen hin und her springen (Annäherung an einen Grenzzyklus mit der Periode 2 für große Folgenindizes). Bezug zur Chaostheorie. Das Bildungsgesetz, das der Folge zugrunde liegt, ist die einfachste nichtlineare Gleichung, anhand der sich der Übergang von Ordnung zu Chaos durch Variation eines Parameters provozieren lässt. Dazu genügt es, reelle Zahlenfolgen zu betrachten. Man erhält sie, wenn man sich auf die "c"-Werte der x-Achse von formula_1 beschränkt. Für Werte –0,75 ≤ "c" ≤ 0,25, das heißt innerhalb der Kardioide, konvergiert die Folge. Auf der „Antenne“, die bis "c" = −2 reicht, verhält sich die Folge chaotisch. Der Übergang zu chaotischem Verhalten erfolgt nun über ein Zwischenstadium mit periodischen Grenzzyklen. Dabei nimmt die Periode zum chaotischen Bereich hin stufenweise um den Faktor zwei zu, ein Phänomen, das als Periodenverdopplung und Bifurkation bezeichnet wird. Jeder "c"-Bereich zu einer bestimmten Periode entspricht dabei einer der kreisförmigen „Knospen“ auf der x-Achse. Die Periodenverdopplung beginnt mit dem „Kopf“ und setzt sich in der Folge der „Knospen“ zur „Antenne“ hin fort. Das Verhältnis der Längen aufeinander folgender Parameterintervalle und damit das der Knospendurchmesser zu unterschiedlicher Periode strebt dabei gegen die Feigenbaum-Konstante δ ≈ 4,669, eine fundamentale Konstante der Chaostheorie. Dieses Verhalten ist typisch für den Übergang realer Systeme zu chaotischer Dynamik. Die auffälligen Lücken im chaotischen Bereich entsprechen Inseln mit periodischem Verhalten, denen in der komplexen Ebene die Satelliten auf der „Antenne“ zugeordnet sind. Für gewisse komplexe "c"-Werte stellen sich Grenzzyklen ein, die auf einer geschlossenen Kurve liegen, deren Punkte jedoch nicht periodisch, sondern chaotisch abgedeckt werden. Eine solche Kurve ist in der Chaostheorie als sogenannter seltsamer Attraktor bekannt. Die Mandelbrot-Menge ist daher ein elementares Objekt für die Chaostheorie, an der sich fundamentale Phänomene studieren lassen. Sie wird aus diesem Grund hinsichtlich ihrer Bedeutung für die Chaostheorie gelegentlich mit der von Geraden für die euklidische Geometrie verglichen. Grafische Darstellung. Die grafische Darstellung der Mandelbrot-Menge und ihrer Strukturen im Randbereich ist nur mittels Computer durch sogenannte Fraktalgeneratoren möglich. Dabei entspricht jedem Bildpunkt ein Wert "c" der komplexen Ebene. Der Computer ermittelt für jeden Bildpunkt, ob die zugehörige Folge divergiert oder nicht. Sobald der Betrag |"z'n"| eines Folgengliedes den Wert "R"=2 überschreitet, divergiert die Folge. Die Zahl der Iterationsschritte "N" gemäß obiger Rekursionsformel, nach denen das erfolgt, kann als Maß für den Divergenzgrad herangezogen werden. Über eine zuvor festgelegte Farbtabelle, die jedem Wert "N" eine Farbe zuordnet, wird in diesem Fall dem Bildpunkt eine Farbe zugewiesen. Um in ästhetischer Hinsicht harmonische Grenzen zwischen aufeinanderfolgenden Farben zu erreichen, wird in der Praxis für die Grenze "R" nicht der kleinste mögliche Wert "R"=2 gewählt, sondern ein Wert deutlich größer als 2, da andernfalls die Farbstreifenbreite oszilliert. Je größer dieser Wert gewählt wird, desto besser entsprechen die Farbgrenzen Äquipotentiallinien, die man erhält, wenn man die Mandelbrot-Menge als elektrisch geladenen Leiter interpretiert. Für kontinuierliche Farbverläufe, wie beispielsweise in der obigen Zoom-Bilderserie, ist eine Auswertung des Faktors erforderlich, um den "R" bei der ersten Überschreitung übertroffen wurde. Da die Zahl der Iterationsschritte "N", bevor die Grenze "R" überschritten wird, beliebig groß sein kann, muss für die praktische Durchführung der Rechnung ein Abbruchkriterium in Form einer maximalen Zahl von Iterationsschritten festgelegt werden. Werte von "c", deren Folgen danach die Grenze "R" noch nicht überschritten haben, werden zu formula_1 gerechnet. Je geringer der Abstand von "c" zu formula_1 ist, desto größer ist die Zahl "N", nach der "R" überschritten wird. Je stärker die Vergrößerung ist, mit der man den Rand von formula_1 darstellen möchte, desto größer muss in diesem Fall die maximale Zahl von Iterationsschritten gewählt werden, und desto länger fällt die Rechenzeit aus. Konvergiert die Folge für einen Startwert "c", so kann die Berechnung der Folge schon früher abgebrochen werden. Grafisch besonders reizvoll ist die Darstellung des Randes von formula_1 mit seinem Formenreichtum. Je stärker die gewählte Vergrößerung ist, umso komplexere Strukturen lassen sich dort finden. Mit entsprechenden Computerprogrammen lässt sich dieser Rand wie mit einem Mikroskop mit beliebiger Vergrößerung darstellen. Die beiden einzigen künstlerischen Freiheiten, die dabei bestehen, sind die Wahl des Bildausschnittes sowie die Zuordnung von Farben zum Divergenzgrad. Zur Untersuchung interessanter Strukturen sind oft Vergrößerungen erforderlich, die mit der üblichen Rechengenauigkeit gängiger Programmiersprachen aufgrund von Rundungsfehlern nicht darstellbar sind. Manche Programme enthalten daher spezielle Arithmetik-Routinen für 100 Nachkommastellen oder deutlich mehr. Die damit erzielbaren Vergrößerungsfaktoren von etwa 10100 bzw. mehr übersteigen selbst das Verhältnis vom Durchmesser des bekannten Kosmos zu dem eines Protons von etwa 1040 um einen astronomischen Faktor. Aber nicht nur zur Ausschnittsvergrößerung werden so viele Kommastellen gebraucht, sondern auch um bei einer längeren Iterationsfolge die auftretenden Rundungsfehler möglichst klein zu halten. Innere Struktur der Mandelbrotmenge. Werden die Iterationsschalen sukzessive aufgezeichnet, erhält man eine alternative Darstellung der inneren Strukturen der Mandelbrot-Menge. Durch diese Darstellung werden alle Attraktormaxima beliebiger Stufe sichtbar (vergleiche Polardarstellung sukzessiver Schalen zuvor). Buddhabrot. Buddhabrot ist eine besondere Darstellung der Mandelbrot-Menge, die im Gesamtbild in entsprechender Orientierung einer klassischen Buddha-Darstellung ähnelt. So wie bei der oben angeführten Dichteverteilung die Spuren der konvergierenden Anfangswerte aufgezeichnet werden, werden hier die Spuren der divergierenden Anfangswerte aufgezeichnet. Es wird also wiederholt ein zufälliger Startwert ausgewählt und überprüft, ob dieser nach einer vorgegebenen Anzahl Iterationen divergiert. Tut er das, so wird seine Spur in der komplexen Zahlenebene festgehalten. Im entstehenden Bild werden die Pixel umso heller gefärbt, je öfter sie getroffen wurden. Das genaue Aussehen des Bildes hängt davon ab, wie hoch die vorgegebene Anzahl von Iterationen ist. Werden die Punkte länger iteriert, so wird das Bild umfangreicher und detaillierter, benötigt aber mehr Rechenzeit zum Generieren. Es kann eine Art Falschfarbenbild zusammengesetzt werden, indem Bilder mit unterschiedlichen Iterationsanzahlen in verschiedenen Farben übereinandergelegt werden. Dreidimensionale Darstellung. Es gibt verschiedene Ansätze, eine dreidimensionale Darstellung der Mandelbrot-Form zu erreichen. Zuvor gab es z. B. Ansätze, einfach die klassische zweidimensionale Form zu extrudieren. Erst 2007 kam von Daniel White und Paul Nylander ein Ansatz, der eine raumgreifende Form entwickelt (im englischen Sprachraum bekannt als „Mandelbulb“), die ihren Formenreichtum von Anfang an in alle drei Dimensionen entwickelt und den typischen unbeschränkten Detailreichtum in allen drei Dimensionen aufweist. Dieser Ansatz basiert nicht auf einem iterierten Funktionensystem (IFS). Iteration über alle Bildpunkte. Das folgende Programmbeispiel geht davon aus, dass die Pixel des Ausgabegerätes durch Koordinaten "x" und "y" mit einem Wertebereich von "0" bis jeweils "xpixels-1" und "ypixels-1" adressierbar sind. Die Berechnung des dem Pixel zugeordneten komplexen Zahlenwerts "c" mit dem Realteil "cre" und dem Imaginärteil "cim" erfolgt durch lineare Interpolation zwischen (re_min, im_min) und (re_max, im_max). Die maximale Anzahl von Iterationsschritten ist "max_iter". Wird dieser Wert überschritten, so wird das entsprechende Pixel der Menge formula_1 zugeordnet. Der Wert von "max_iter" sollte mindestens 100 betragen. Bei stärkerer Vergrößerung sind zur korrekten Darstellung der Strukturen teilweise erheblich größere Werte erforderlich und damit deutlich längere Rechenzeiten. PROCEDURE Apfel (re_min, im_min, re_max, im_max, max_betrag_2: double, xpixels, ypixels, max_iter: integer) FOR y = 0 TO ypixels-1 c_im = im_min + (im_max-im_min)*y/ypixels FOR x = 0 TO xpixels-1 c_re = re_min + (re_max-re_min)*x/xpixels iterationen = Julia (c_re, c_im, c_re, c_im, max_betrags_2, max_iter) farb_wert = waehle_farbe (iterationen, max_iter) plot (x, y, farb_wert) Iteration eines Bildpunktes. Die Iteration von "n" nach "n+1" für einen Punkt "c" der komplexen Zahlenebene erfolgt durch die Iteration die sich mittels der Zerlegung der komplexen Zahl "z" in ihren Realteil "x" und Imaginärteil "y" in zwei reelle Berechnungen Falls das Quadrat des Betrags der "(n+1)"-sten Zahl, gegeben durch den Wert "max_betrag_2" (mindestens 2 * 2 = 4) überschreitet, wird die Iteration abgebrochen, und die Anzahl der bislang erfolgten Iterationsschritte für die Zuordnung eines Farbwertes verwendet. Falls das Quadrat des Betrags nach einer gegebenen maximalen Anzahl von Iterationsschritten den "max_betrag_2" nicht überschritten hat, wird angenommen, dass die Iteration beschränkt bleibt, und die Iterationsschleife abgebrochen. Die folgende Funktion führt die beschriebene Iteration durch. "x" und "y" sind die iterativ benutzten Variablen für die Iterationswerte; "xx", "yy", "xy" und "remain_iter" sind Hilfsvariablen. FUNCTION Julia (x, y, xadd, yadd, max_betrag_2: double, max_iter: integer): integer remain_iter = max_iter betrag_2 = xx + yy WHILE (betrag_2 0) remain_iter = remain_iter - 1 x = xx - yy + xadd y = xy + xy + yadd betrag_2 = xx + yy Julia = max_iter - remain_iter Wird ein kontinuierlicherer Farbverlauf gewünscht, so bietet sich alternativ die Formel Julia = max_iter - remain_iter – log(log(betrag_2) / log(4)) / log(2) an, die keine ganzen, sondern eine reelle Werte liefert. Für die Folge mit "c" = 0 und dem Startwert "z'0" = "2" liefert diese Formel den Wert Null. Es ergibt sich ferner eine von "max_betrag_2" unabhängige Farbgebung, sofern dieser Wert groß gegen 1 ist. Ein erheblicher Teil der Rechenzeit wird dort benötigt, wo die Zahlenfolge nicht divergiert. Moderne Programme bemühen sich, mit verschiedenen Verfahren die Rechenzeit für diese Stellen zu reduzieren. Eine Möglichkeit besteht darin, die Rechnung bereits abzubrechen, wenn die Zahlenfolge konvergiert ist oder sich in einem periodischen Zyklus gefangen hat. Andere Programme nutzen aus, dass jeder Punkt im Inneren einer geschlossenen Kurve, die nur Punkte aus formula_1 enthält, ebenfalls dazugehört. Rezeption in der Öffentlichkeit. Außerhalb der Fachwelt wurde die Mandelbrot-Menge vor allem durch den ästhetischen Wert der Computergrafiken bekannt, der durch künstlerische Farbgestaltung des Außenbereichs, der nicht zur Menge gehört, unterstützt wird. Sie erlangte durch Publikationen von Bildern in den Medien Ende der 1980er Jahre einen für ein mathematisches Thema dieser Art ungewöhnlich großen Bekanntheitsgrad und dürfte das populärste Fraktal, möglicherweise das populärste Objekt der zeitgenössischen Mathematik sein. Die Mandelbrot-Menge wird als das formenreichste geometrische Gebilde bezeichnet. Sie hat Computerkünstler inspiriert und zu einem Aufschwung fraktaler Konzepte beigetragen. Dabei finden zahlreiche Modifikationen des Algorithmus Anwendung, welcher der Mandelbrot-Menge zugrunde liegt. Ein weiterer Aspekt ist der extreme Kontrast zwischen diesem und der Einfachheit des zugrunde liegenden Algorithmus, der an biologische Systeme erinnert, bei denen nach naturwissenschaftlicher Sicht ebenfalls aus einer vergleichsweise geringen Zahl von Regeln äußerst komplexe Systeme entstehen können, sowie die Nähe zur Chaosforschung, die ebenfalls in der Öffentlichkeit großes Interesse geweckt hatte. Die Bezeichnung,Apfelmännchen‘ leitet sich von der geometrischen Grobform einer um 90 Grad im Uhrzeigersinn gedrehten Mandelbrot-Menge her. Der US-amerikanische Musiker Jonathan Coulton hat ein Lied über die Mandelbrot-Menge veröffentlicht, in welchem Benoît Mandelbrot dafür gedankt wird, dass er Ordnung in das Chaos gebracht habe. Berechnungsgeschwindigkeit. Berechnungen nahmen beim Stand der Technik Ende der 1980er Jahre viel Zeit in Anspruch. Mit der Technik der 2010er Jahre kann die Ermittlung, solange man mit Standard-Gleitkommazahlen arbeiten kann, in Echtzeit berechnet werden. Vergleichsweise zeigt dies eine Aufstellung durch die Anzahl der Iterationen, die verschiedene CPUs pro Sekunde durchführen konnten. Methanol. Methanol, auch Methylalkohol, ist eine organische chemische Verbindung mit der Summenformel CH4O (Halbstrukturformel: CH3OH) und der einfachste Vertreter aus der Stoffgruppe der Alkohole. Unter Normalbedingungen ist Methanol eine klare, farblose, entzündliche und leicht flüchtige Flüssigkeit mit alkoholischem Geruch. Es mischt sich mit vielen organischen Lösungsmitteln und in jedem Verhältnis mit Wasser. Mit 45 Millionen Tonnen Jahresproduktion (Stand: 2008) ist Methanol eine der meisthergestellten organischen Chemikalien. Die technische Methanolherstellung erfolgt hauptsächlich katalytisch aus Kohlenstoffmonoxid und Wasserstoff. In der chemischen Industrie dient es insbesondere als Ausgangsstoff bei der Produktion von Formaldehyd, Ameisensäure und Essigsäure. Methanol und seine Folgeprodukte werden neben der stofflichen Verwendung auch als Energieträger eingesetzt. Mit der Technologie Methanol to Gasoline wird aus Methanol Kraftstoff. Methanol wird auch bei der Synthese von Biodiesel und dem Klopfschutzmittel MTBE benötigt. In Brennstoffzellen kann es als Wasserstofflieferant dienen. In der Natur kommt Methanol in Baumwollpflanzen, Früchten und Gräsern sowie als Stoffwechselprodukt von Bakterien vor. Beim Bierbrauen, der Weinherstellung oder der Produktion von Spirituosen wird es in geringer Menge als Nebenprodukt des Maischens freigesetzt. Methanol ist giftig und seine Aufnahme kann zu Erblindung, in höheren Dosen auch zum Tod, führen. Geschichte. Die antiken Ägypter erhielten Methanol durch Pyrolyse von Holz (Holzgeist) und balsamierten ihre Toten mit einem Substanzgemisch auf dessen Basis. Mit dem Verfahren der trockenen Destillation erhielt der irische Chemiker Robert Boyle 1661 erstmals reines Methanol aus Buchsbaumholz. 1834 klärten die französischen Chemiker Jean-Baptiste Dumas und Eugène-Melchior Péligot die Zusammensetzung dieser wasserklaren Flüssigkeit und gaben ihr auch ihren Namen „methylene“, der sich aus griechisch "méthy" für Wein und "hylé" für Holz zusammensetzt. Die erste Synthese von Methanol gelang Marcelin Berthelot im Jahr 1858 durch Verseifung von Methylchlorid. Die USA gewannen noch 1930 etwa 50 % des hergestellten Methanols durch trockene Destillation von Holz. Hierzu wurde Holz auf circa 500 °C in eisernen Behältern erhitzt. Als fester Rückstand blieb Holzkohle, die gasförmigen und flüssigen Produkte wurden abgezogen und teilweise kondensiert. Das entstehende wässrige Destillat enthielt neben Methanol hauptsächlich Aceton, Essigsäure und Essigsäuremethylester. Die Abtrennung dieser Komponenten und die abschließende Trocknung erforderten mehrere Neutralisations-, Destillations- sowie Trocknungsschritte. Die Ausbeute an Methanol bei der trockenen Destillation betrug etwa 10 % der eingesetzten Masse. Die BASF erhielt im Jahr 1913 ein Patent für ein Verfahren zur Methanolgewinnung aus kohlestämmigem Synthesegas. Matthias Pier, Alwin Mittasch und Fritz Winkler entwickelten das Verfahren und setzten es für die erste Großproduktion von Methanol ein, die 1923 im Ammoniakwerk Merseburg der Leuna-Werke begann. Der Prozess nutzte einen oxidischen Zink-Chrom-Katalysator bei einem Druck von 250 atm bis 300 atm. Die Temperaturen lagen zwischen 360 °C und 380 °C und bei einem Verhältnis von Kohlenstoffmonoxid zu Wasserstoff von 1 zu 2,2. Schon früh erkannten die beteiligten Wissenschaftler, dass auf Kupfer basierende Katalysatoren wesentlich aktiver waren. Diese waren jedoch sehr empfindlich gegenüber den im Synthesegas enthaltenen Schwefelverbindungen. Die Weiterentwicklung der Methanolsynthese war verknüpft mit den Fortschritten in der Kohlevergasungstechnik und den Gasreinigungsprozessen. Nachdem es möglich war, die Gase großtechnisch auf einen Schwefelgehalt von weniger als 0,1 ppm zu begrenzen, entwickelte 1966 das Unternehmen ICI die erste Niederdrucksynthese basierend auf einem Kupfer-Zinkoxid-Aluminia-Katalysator. Vorkommen. Methanol ist nach Methan das zweithäufigste organische Gas in der Erdatmosphäre und kommt in Konzentrationen von 0,1 bis 10 ppbv vor. Es ist eine bedeutende atmosphärische Quelle für Formaldehyd und Kohlenstoffmonoxid. Ein Großteil des in der Atmosphäre vorhandenen Methanols wird von Pflanzen emittiert. In Feuchtgebieten wurden Methanol-Emissionen von 268 Mikrogramm pro Quadratmeter und Stunde gefunden, auf Gras und Weideflächen wurden Werte zwischen 100 und 500 Mikrogramm pro Quadratmeter und Stunde beobachtet. Die Methanolfreisetzung erfolgt durch Pektinmethylesterase (PME) aus Pektin (teilweise mit Methanol veresterte Poly-Galacturonsäure), etwa als Reaktion auf Angriff durch Fressfeinde. Die Gesamtmenge des von Pflanzen freigesetzten Methanols wird auf über 100 Millionen Tonnen pro Jahr geschätzt. Hydrolyse der Methyl-Phenyl-Ethergruppe im Coniferylalkohol Methylester und -ether, in denen Methanol chemisch gebunden ist, kommen in vielen Früchten (Methylester) und in Lignin, einem Bestandteil der pflanzlichen Zellwand (Phenylmethylether), vor. Die im Lignin vorhandenen Methyl-Phenyl-Ethergruppen der Coniferyl- und Sinapylalkoholeinheiten spalten sich unter Aufnahme von Wasser in Methanol und einen phenolischen Rest. Methanol wird regelmäßig durch enzymatische Verseifung der Galacturonsäuremethylester bei der Maischung freigesetzt. Um den wegen der Giftigkeit des Methanols unerwünschten Gehalt an Methanol im Endprodukt so gering wie möglich zu halten, wird versucht, durch geeignete Methoden die Freisetzung des Methanols zu minimieren. So kann die pektolytische Enzymaktivität durch Säuregaben minimiert werden. Weiterhin haben der Gehalt an Schwefeldioxid und die Temperatur der Maischung einen Einfluss auf die enzymatische Aktivität. Durch kurzzeitiges Erhitzen der Maische auf bis zu 90 °C und schnelles Abkühlen kann erreicht werden, dass der Methanolgehalt um 40 % bis 90 % verringert wird. Auch durch geeignete verfahrenstechnische Schritte bei der Destillation kann der Methanolgehalt in der Spirituose gering gehalten werden, etwa durch Kondensation leichtflüchtiger Bestandteile. Alkoholika enthalten zum Teil beträchtliche Mengen an Methanol. Bei einer Untersuchung verschiedener Fruchtsäfte und Alkoholika wies das Untersuchungsamt Baden-Württemberg in Spirituosen Spitzenwerte bis zu 4,7 g·l−1 Methanol nach, in Weinen und Fruchtsäften bis zu 0,2 g·l−1. Tabak enthält zum Teil ligninhaltige Anteile, deren Phenylmethylether pyrolytisch gespalten werden und für das Auftreten von Methanol im Tabakrauch verantwortlich sind. Nach dem gleichen Prinzip setzt Räucherrauch Methanol frei. Bei der Verdauung von Aspartam, einem Methylester des Dipeptids der α-Aminosäuren L-Asparaginsäure und L-Phenylalanin, wird Methanol abgespalten. Beim Genuss normaler Mengen an mit Aspartam gesüßten Lebensmitteln werden jedoch keine toxikologisch bedenklichen Werte im Bezug auf Methanol erreicht. Methanol kommt im interstellaren Raum häufig vor, wobei der Bildungsmechanismus nicht geklärt ist. Im Jahr 2006 gelang Astronomen mit dem MERLIN-Radioteleskop am Jodrell-Bank-Radioobservatorium die Beobachtung einer großen Methanolwolke. Mit den empfindlichen Instrumenten des Spitzer-Weltraumteleskops gelang der Nachweis von Methanol in protoplanetarischen Scheiben um junge Sterne herum. Herstellung. Methanol ist eine organische Grundchemikalie und ein mengenmäßig bedeutender großtechnisch hergestellter Alkohol. Im Jahr 2008 betrug der weltweite Methanolverbrauch 45 Millionen Tonnen. Die größten Exporteure von Methanol waren im Jahr 2006 die karibischen Staaten wie Trinidad und Tobago mit 7,541 Mio. Tonnen, Chile und Argentinien mit 3,566 Mio. Tonnen und die Staaten am persischen Golf mit 5,656 Mio. Tonnen. Die größten Importeure waren die Vereinigten Staaten mit 7,112 Mio. Tonnen, West-Europa mit 8,062 Mio. Tonnen, Taiwan und Südkorea mit zusammen 2,361 Mio. Tonnen und Japan mit 1,039 Mio. Tonnen. Schema der industriellen Methanolsynthese aus Synthesegas Die technische Herstellung von Methanol erfolgt ausschließlich in katalytischen Verfahren aus Synthesegas, einem Gemisch von Kohlenstoffmonoxid und Wasserstoff im Verhältnis von etwa 1:2. Diese Verfahren werden nach den Reaktionsdrücken in drei Bereiche unterteilt. Das zunächst entwickelte "Hochdruckverfahren" arbeitete auf Grund der niedrigen Katalysatoraktivität und der Volumenkontraktion der Reaktion bei Drücken von 250 bis 350 bar und Temperaturen von 360 bis 380 °C. Das "Mitteldruckverfahren" arbeitet bei 100 bis 250 bar und 220 bis 300 °C, das "Niederdruckverfahren" bei 50 bis 100 bar und 200 bis 300 °C. Jedes Verfahren arbeitet mit spezifischen Katalysatoren und Massen-Verhältnissen von Kohlenmonoxid zu Wasserstoff. Das zur Methanolsynthese notwendige Synthesegas kann aus fossilen Rohstoffen wie Kohle, Braunkohle, Erdölfraktionen und Torf hergestellt werden. Beim Einsatz von nachwachsenden Rohstoffen wie Holz, Biogas oder anderer Biomasse bezeichnet man das Produkt auch als Biomethanol. Weiterhin können auch Müll oder Klärschlamm zur Synthesegasherstellung eingesetzt werden. Die Dampfreformierung und die partielle Oxidation von Erdgas, nach aktuellen Schätzungen die größte ökonomisch nutzbare Kohlenwasserstoffquelle, sind neben der Kohle der Hauptlieferant für Synthesegas. In Nordamerika und Europa wird meist Erdgas als Rohmaterial genutzt, in China und Südafrika basiert die Synthesegasherstellung auf Kohle oder Braunkohle. 2005 hat China 5,4 Millionen Tonnen Methanol erzeugt, davon 65 % oder 3,5 Millionen Tonnen auf Kohle basierend. Wegen ökonomischer Vorteile bei niedrigen Synthesedrücken und niedrigen Temperaturen wird Methanol größtenteils im Niederdruck-Verfahren produziert. Als Nebenprodukt werden Dimethylether, Ameisensäuremethylester und Ethanol gebildet, die abdestilliert werden können. Den ökonomischen Nachteil des höheren Drucks gleichen die Mitteldruckverfahren durch höhere Ausbeuten aus. Das Hochdruckverfahren wird heute nicht mehr durchgeführt. China ist heutzutage der größte Produzent und Verbraucher von Methanol. Es wird erwartet, dass allein die chinesische Produktionskapazität in den nächsten Jahren 60 Millionen Tonnen pro Jahr übersteigen wird. Während gegenwärtig das meiste Methanol im Chemiesektor verwendet wird, hat der Einsatz im Kraftstoffsektor die höchsten Steigerungsraten. Im Jahr 2008 nutzte China circa drei Millionen Tonnen Methanol als Mischkomponente zur Herstellung von Kraftstoffblends. Probleme für eine breite Einführung und höhere Methanolanteile im Kraftstoff bereiten die Entwicklung geeigneter Motoren und anderer Triebwerkskomponenten, die mit Methanol verträglich sind. In Deutschland wurden im Jahr 2000 circa zwei Millionen Tonnen hergestellt, davon etwa 1,4 Millionen Tonnen aus Rückstandsölen. Eigenschaften. Ethanol, umgangssprachlich als "Alkohol" bezeichnet, ist namensgebend für die Stoffgruppe der Alkohole. Alkohole, die sich formal von den Alkanen ableiten, werden als Alkanole bezeichnet. Methanol ist der einfachste Alkohol und bildet das erste Glied der homologen Reihe der Alkanole. Vormals wurden viele Alkohole nach einem Vorschlag von Hermann Kolbe als Derivate des Methanols – abgeleitet von "Carbinol" – als "Carbinole" bezeichnet. Seit 1957 empfiehlt die IUPAC, diese Nomenklatur nicht mehr zu verwenden. Physikalische Eigenschaften. Methanol ist unter Normalbedingungen eine farblose, leicht bewegliche Flüssigkeit. Der Siedepunkt liegt bei 65 °C. Methanol erstarrt unterhalb von −98 °C in Form von farblosen Kristallen. Die Dampfdruckfunktion ergibt sich nach Antoine entsprechend log10("P") = "A"−("B"/("T"+"C")) ("P" in bar, "T" in K) mit "A" = 5,20409, "B" = 1581,341 und C = −33,5 im Temperaturbereich von 288 bis 357 K. In flüssiger und fester Phase existieren zwischen den einzelnen Methanol-Molekülen gestrichelt grün gezeichnete Wasserstoffbrückenbindungen. Durch die Polarität der Hydroxygruppe bilden sich zwischen den Methanolmolekülen Wasserstoffbrückenbindungen aus. Während der Schmelzpunkt fast genau dem des Methylchlorids entspricht, führt die Ausbildung der Wasserstoffbrücken im flüssigen Zustand zu einem relativ hohen Siedepunkt im Vergleich zu den Methylhalogeniden. Die Dissoziationsenergie der Wasserstoffbrückenbindung beträgt etwa 20 kJ/mol. Methanol bildet mit einer großen Anzahl organischer Verbindungen wie zum Beispiel Acetonitril, Benzol, Chloroform, Cyclopentan, Methylmethacrylat und Tetrahydrofuran Azeotrope. Mit Wasser mischt sich Methanol unter Volumenkontraktion. Bei einem Volumenanteil von 55 % bis 60 % Methanol vor dem Mischen wird ein Mischvolumen von 96,36 % erhalten. Methanol kristallisiert im orthorhombischen Kristallsystem mit den Gitterparametern a = 643 pm, b = 724 pm und c = 467 pm. Die Struktur lässt sich als ein über Wasserstoffbrücken gebundenes Kettenpolymer beschreiben. Bei weiterer Abkühlung findet ein Phasenübergang durch Faltung der Polymerkette in ein monoklines Kristallsystem statt. Molekulare Eigenschaften. Das Methanolmolekül besteht aus einem Kohlenstoff-, einem Sauerstoff- und vier Wasserstoffatomen. Das Molekül weist als Struktureinheiten eine Methylgruppe mit trigonaler Symmetrie und eine Hydroxygruppe auf. Die Daten zur Molekülgeometrie sind in der Skizze ausgewiesen. Der Bindungswinkel zwischen dem Kohlenstoff-, dem Sauerstoff- und dem Wasserstoffatom beträgt 108,9 ° und ist gegenüber dem Tetraederwinkel von 109,47 ° leicht kontrahiert. Die Bindungslänge zwischen dem Sauerstoff- und Wasserstoffatom beträgt 96 pm und ist damit auf Grund der größeren Elektronegativität des Sauerstoffs kleiner als die Kohlenstoff-Wasserstoff-Bindungslänge der Methylgruppe, die 110 pm (1,10 Å) beträgt. Die Rotationshemmung der Kohlenstoff-Sauerstoff-Einfachbindung wurde mit 4,48 kJ/mol bestimmt und beträgt damit nur ein Drittel der zweier Methylgruppen, etwa im Ethan. Chemische Eigenschaften. Aufgrund der polaren Hydroxygruppe lässt sich Methanol in jedem Verhältnis mit Wasser mischen. Die Ähnlichkeit zu Wasser zeigt sich im Lösungsvermögen einiger Mineralsalze wie Calciumchlorid und Kupfersulfat in Methanol. Es ist ferner in Diethylether, in Kohlenwasserstoffen und vielen anderen organischen Lösungsmitteln unter Wasserausschluss gut löslich. In einigen Lösungsmitteln können bereits geringe Anteile von Wasser eine Entmischung bewirken. Methanol ist wenig löslich in pflanzlichen Fetten und Ölen. Der pKs-Wert von Methanol liegt bei 16. Methanol reagiert in wässriger Lösung sauer. Methanol kann mit starken Basen zum "Methanolat" deprotoniert werden. Mit starken Säuren wie Schwefelsäure lässt sich Methanol protonieren. center Methanol verbrennt mit schwach blauer, fast unsichtbarer Flamme zu Kohlenstoffdioxid und Wasser. Der Flammpunkt liegt bei 9 °C. Methanoldämpfe bilden mit Luft im Bereich von 6 % bis 50 % explosionsfähige Gemische. Mit Alkali- und Erdalkalimetallen reagiert Methanol unter Bildung von Wasserstoff und der Methanolate. Es reagiert leicht mit vielen Oxidationsmitteln wie Bariumperchlorat, Brom oder Wasserstoffperoxid. Verschiedene Kunststoffe, Lacke und Kautschuk werden von Methanol angegriffen. Mit Carbonsäuren reagiert Methanol in Säure- oder Basenkatalyse unter Wasserabgabe zu Methylestern; mit Carbonsäureestern ist eine Umesterung unter Freisetzung und Entfernung der anderen Alkoholkomponente aus dem Reaktionsgemisch oder im Methanol-Überschuss möglich. Methanol lässt sich katalytisch zu Formaldehyd oxidieren. Mit Aldehyden und Ketonen reagiert Methanol in Gegenwart saurer Katalysatoren zu Halbacetalen beziehungsweise Dimethylacetalen, die als Schutzgruppe in der organischen Chemie eingesetzt werden können. Verwendung. Entwicklung des Methanolverbrauchs 2005 bis 2013 Methanol wird unter anderem als Ausgangsmaterial in der chemischen Industrie oder als Energielieferant genutzt. Die stoffliche Verwertung als Chemierohstoff erfordert ein besonders reines Produkt. Rohmethanol kann als Energieträger in stationären Anlagen verfeuert werden. In Brennstoffzellen dient es als Wasserstofflieferant. Die Verwendung als Kraftstoff, so genanntes "Fuel-Methanol", wird intensiv untersucht. Möglich ist der Zusatz zu herkömmlichen Motorkraftstoffen oder die Verwendung reinen Methanols, wobei die Schwefelfreiheit eine saubere Verbrennung erlaubt. Methanol wird als polares Lösungsmittel eingesetzt. Im Rectisolverfahren dient es zur Abtrennung von sauren Komponenten wie Kohlenstoffdioxid oder Carbonylsulfid aus Gasströmen. Im Zeitraum von 2005 bis 2009 nahm die Gesamtmenge des stofflich verwendeten Methanols um etwa 6 % zu, während die energetische Nutzung eine Steigerungsrate von 55 % aufwies. Methanol als Chemierohstoff. Methanol ist ein wichtiger Ausgangsstoff für Synthesen in der chemischen Industrie. Mengenmäßig von großer Bedeutung sind die primären Derivate Formaldehyd, Essigsäure, MTBE, Methylmethacrylat, Methylchlorid und Methylamine. Diese werden zu einer Reihe sekundärer und tertiärer Derivate weiterverarbeitet. Bekannte Beispiele sind Vinylacetat, Essigsäureanhydrid, Phenol-Formaldehyd-Harze und Melaminharze. Formaldehyd. Die größte Menge an zu Formaldehyd verarbeiteten Methanol wird durch Oxidation mit Sauerstoff an Silber-Katalysatoren oder im Formox-Prozess an Eisenoxid/Molybdänoxid/Vanadiumoxid-Katalysatoren bei 400 °C umgesetzt. Oxidation mit Sauerstoff zu Formaldehyd Der Formaldehyd-Markt ist zwischen 2006 und 2010 in Nordamerika um etwa 15 % geschrumpft, im Wesentlichen bedingt durch den Rückgang der Nachfrage in der Möbel- und Baubranche. Das Marktvolumen in Nordamerika betrug etwa 4 Mio. Tonnen im Jahr 2010. Formaldehyd wird überwiegend zur Herstellung von Harnstoff-, Phenol- und Melamin-Formaldehydharzen verwendet, deren größte Verbraucher die Bau-, die Automobil- und die Holzindustrie sind. Formaldehydharze werden für die Herstellung von Holzprodukten, etwa als Bindemittel für Hartfaser- und Spanplatten, verwendet. Schnell wachsende Märkte sind die Herstellung von Polyoxymethylen, Methylendiisocyanat und 1,4-Butandiol. Im Jahr 2005 war China der weltgrößte Formaldehyd-Produzent mit einer Kapazität von 11 Millionen Tonnen. Essigsäure. Methanol wird zur Essigsäure-Herstellung durch Umsetzung mit Kohlenstoffmonoxid nach dem Monsanto-Prozess sowie zur Essigsäureanhydrid-Herstellung über Methylacetat nach dem Tennessee-Eastman-Essigsäureanhydrid-Prozess eingesetzt. Die katalytisch aktive Spezies ist der anionische Rhodium-Komplex cis-[Rh(CO)2I2]− mit Iodwasserstoff als Co-Katalysator. Im katalytischen Zyklus reagiert Methanol zunächst mit Iodwasserstoffsäure zu Methyliodid, das sich oxidativ an den Rhodiumkomplex addiert. Kohlenmonoxid insertiert in die Metall-Methyl-Bindung unter Bildung eines Formyl-Komplexes. Dieses wird als Säurehalogenid aus dem Komplex eliminiert. Das Säureiodid reagiert mit Wasser wieder zur Iodwasserstoffsäure und Essigsäure. Bei der Herstellung von Essigsäureanhydrid wird ein Teil des Produkts mit Methanol in Methylacetat überführt und in den Prozess zurückgeführt. Das Essigsäureanhydrid wird dabei vollständig auf Basis von Synthesegas gewonnen. Ein weiteres Folgeprodukt dieser Syntheseschiene ist Vinylacetat. Durch Hydrocarbonylierung eines Gemisches aus Essigsäureanhydrid und Methylacetat in Gegenwart von homogenen Rhodiumkatalysatoren wird bei Temperaturen um 150 °C und einem Druck von etwa 40 bar bis 70 bar Ethylidendiacetat gebildet, welches sich bei erhöhter Temperatur unter Säurekatalyse in Vinylacetat und Essigsäure spalten kann. Andere Folgeprodukte. Methylmethacrylat, das Monomer des Polymethylmethacrylats, wird durch Hydrolyse und anschließender Veresterung des aus Acetoncyanhydrin gebildeten 2-Methylpropennitrils mit Schwefelsäure in Gegenwart von Methanol hergestellt. Methanol kann mit Hilfe dotierter Kupfer-Katalysatoren zum Methylformiat dehydriert werden. Nach Abtrennung des erzeugten Wasserstoffs wird das Methylformiat zunächst in kaltem Methanol ausgewaschen und anschließend destillativ getrennt. Durch Veresterung kann eine Reihe von Folgeprodukten hergestellt werden. Chlormethan ist selektiv durch Umsatz mit preiswerter Salzsäure herstellbar. Fettsäuremethylester können durch herkömmliche Umesterungsverfahren hergestellt werden. Durch zweistufige Oxidation von "p"-Xylol mit einem intermediären Veresterungsschritt wird Dimethylterephthalat gewonnen. Die Reaktion von Methanol mit Ammoniak unter Einsatz von Aluminiumsilikaten als Katalysator liefert Gemische von Methylaminen, ein Vorprodukt für Farbstoffe, Medikamente und Pflanzenschutzmittel. Durch Umsetzung von Methanol an Zeolithen des Typs ZSM-5 im Methanol-to-Olefins-Verfahren gelingt die Herstellung kurzkettiger Olefine wie Ethylen, Propylen und Butenen, die zuvor meist durch Steamcracken von leichtem Naphtha gewonnen wurden. Im ersten Schritt bildet sich Dimethylether, der unter Wasserabspaltung zu Ethen weiterreagiert. Durch Variation der Reaktionsbedingungen kann die Selektivität zu aromatischen Produkten verändert werden "(Methanol to Aromatics, MtA)". Methanol im Energiesektor. Methanol kann auf verschiedene Weise als Energielieferant dienen. Es kann als Rohstoff für die chemische Umwandlung in andere Kraftstoffe genutzt werden. Weiterhin kann Methanol als 15%iges Gemisch mit Benzin oder direkt als Reinmethanol (M100), dessen Energiedichte bezogen auf Motorenbenzin etwa 52 % beträgt, eingesetzt werden. Reines Methanol dient daneben in Brennstoffzellen als Wasserstofflieferant. Während des Zweiten Weltkriegs wurden methanolhaltige Gemische als Treibstoff für Raketen- und Flugzeugtriebwerke (MW-50) verwendet. So wurde "C-Stoff", ein Gemisch aus Methanol, Hydrazin, Wasser und Kaliumtetracyanocuprat (I) (K3[Cu(CN)4]) zusammen mit "T-Stoff", hochkonzentriertem Wasserstoffperoxid, als selbstentzündlicher, hypergoler Treibstoff genutzt. Methanol als Kraftstoff. Methanol kann in vielfältigen Varianten entweder direkt als Kraftstoff oder Kraftstoffzusatz eingesetzt werden. Zum Einsatz in Otto- und Diesel-Verbrennungsmotoren sind heute mehrere Möglichkeiten bekannt. Nach der Europäischen Norm für Ottokraftstoffe EN 228 sind maximale Zumischungen von 3 Volumenprozent zum Kraftstoff zulässig unter Zusatz zusätzlicher Stabilisierungsmittel. Derartige geringe Zumischungen können von heutigen Ottomotoren ohne Anpassungen verkraftet werden. Aus Kostengründen nutzte Deutschland bisher diese Möglichkeiten nicht aus. Weiterhin kann Methanol als Zumischung in höheren Konzentrationen zum Benzin oder als nahezu reiner Methanolkraftstoff eingesetzt werden. In Deutschland sponserte das Bundesministerium für Bildung und Forschung in den 1980er Jahren einen Großversuch mit einem M15-Kraftstoff, bestehend aus 15 % Methanol und 85 % Benzin, und mit einem M85-Kraftstoff mit entsprechenden Verhältnissen; es testete diese mit über 1000 Fahrzeugen aller deutschen Autohersteller mit Unterstützung der Mineralölindustrie sowie zahlreicher Forschungsinstitute ausführlich. Die Fahrzeuge wurden für den Betrieb mit diesen Kraftstoffen werkstoff- und gemischbildungsseitig angepasst. Die USA, Japan, China, Neuseeland und Südafrika führten ähnliche Versuche durch. Ebenfalls testete dieses Programm einen Methanol-Diesel-Mischkraftstoff mit 20 % Methanol in PKWs. Für die Verwendung von reinem Methanol (M100) wurden Nutzfahrzeug-Dieselmotoren entsprechend modifiziert. Wegen der niedrigen Cetanzahl von Methanol ist ein Motorbetrieb als Selbstzünder nicht möglich. Deshalb setzten die Tester zusätzliche Zündhilfen in Form von Diesel-Piloteinspritzung oder Kerzen- oder Glühzündung ein. Auch ein Zweistoffbetrieb Diesel-Methanol ist möglich. Der von Franz Pischinger entwickelte Methanol-Glühzündermotor weist gute Emissionswerte bei niedrigem Verbrauch auf. In für Reinmethanol M100 und M85 angepassten Motoren lassen sich im Vergleich zu Benzinmotoren eine bis zu 10 % höhere Motorleistung und ein etwa 15 % besserer thermischer Wirkungsgrad erzielen, dadurch ein günstigerer energetischer Kraftstoffverbrauch. Als flüssiger Kraftstoff ist Methanol wegen der einfachen Handhabung im Vergleich zu gasförmigen Kraftstoffen besonders für den Verkehrssektor geeignet, sowohl für den Straßen, Wasser- und Schienenverkehr sowie mit Einschränkungen in der Luftfahrt. Während sich bei den limitierten Emissionen für Kohlenwasserstoffe, Kohlenmonoxid und Stickoxide mit der heute bei Ottomotoren üblichen Katalysatortechnik keine Vorteile mehr ergeben, sind bei den nichtlimitierten Emissionen geringe Vorteile zu verzeichnen. So emittiert Methanol beispielsweise keine Aromaten wie Benzol, Toluol und niedrigere polyzyklische aromatische Kohlenwasserstoffe und hat ein geringes Ozonbildungspotential. Nachteilig ist dagegen die erhöhte Formaldehydemission, wobei das Niveau bei allen hier aufgeführten Emissionskomponenten wegen des Katalysators sehr niedrig ist. Bei Dieselkonzepten entfallen weitgehend Schwefelemissionen und Rußbildung. Nachteilig ist der bis zu etwa 50 % höhere volumetrische Kraftstoffverbrauch wegen des geringeren Heizwertes von Methanol. Unvorteilhaft ist die Giftigkeit von Methanol, die Vorsichtsmaßnahmen bei der Betankung und bei Arbeiten am Fahrzeug erfordert. Da Methanol biologisch abbaubar ist, ist die Umweltgefährdung bei eventuellen Unfällen gering. Im US-Motorsport ersetzten in den 1960er Jahren die amerikanischen Formel-Rennserien (CART, Indy Car) nach schweren Feuerunfällen beim Indianapolis 500 das mit Wasser nicht löschbare Benzin durch Methanol. Ein Nachteil dabei ist, dass brennendes reines Methanol kaum sichtbar ist. So wird nach dem Tankvorgang im Rennen stets Wasser über den Tankstutzen gespritzt, um etwaig ausgelaufenes Methanol wegzuspülen, bevor es sich an heißen Teilen entzündet. Methanol ist besonders für aufgeladene Motoren geeignet. Dragster mit Kompressor-V8-Motoren der Klasse "Top Methanol" erzielen Leistungen um 3000 PS. Im Modellbau wird Methanol mit Nitromethan-Zusatz in Glühzündermotoren verwendet. Die Verwendung ist jedoch immer mehr rückläufig, weil die Modellbau-Treibstoffe teuer sind und moderne Elektromotoren und Lithium-Ionen-Akkumulatoren ein besseres Leistungsgewicht ermöglichen. Methanol in Brennstoffzellen. Ein Methanol-Wasser-Gemisch kann in Brennstoffzellen als Wasserstofflieferant dienen. Dabei zerfällt Methanol unter Umkehrung der Bildungsreaktion in einem Reformer zu Kohlenmonoxid und Wasserstoff. Bei der Direkt-Methanol-Brennstoffzelle, die sich noch im Entwicklungsstadium befindet, wird Methanol ohne vorherige Reformierung zusammen mit Wasser direkt der Anode zugeführt und dort oxidiert. Als Elektrolyt verwendet dieser Zellentyp eine Protonen-Austausch-Membran. Der Anode wird das Methanol-Wasser-Gemisch zugeführt und oxidiert, wobei als Abgas Kohlenstoffdioxid entsteht. An der Kathode reagieren die Wasserstoffionen mit Luftsauerstoff zu Wasser. Ein Problem der Direkt-Methanol-Brennstoffzelle ist die Durchlässigkeit der Membran für Methanol, wodurch der Wirkungsgrad sinkt. Methanolderivate als Kraftstoff. Die primären Derivate des Methanols werden in vielfältiger Weise bereits als Kraftstoff oder Kraftstoffzusatz verwendet. Bekannt ist die Verwendung des Oktanzahlboosters MTBE, das in den Vereinigten Staaten 1979 vom EPA in Konzentrationen zwischen 2 und 5 % genehmigt wurde. Das Derivat Dimethylether (DME) dient als Dieselersatzkraftstoff. Methanol wird zur Umesterung von Pflanzenöl und Herstellung von Biodiesel genutzt. Vorteile der Derivate sind unter anderem deren Schwefel- und Aromatenfreiheit. Die Energiedichte ist gegenüber reinem Methanol erhöht. Biodiesel. In der Biodieselherstellung wird Methanol zur Umesterung von pflanzlichen Ölen eingesetzt. Dazu wird zum Beispiel Rapsöl mit Methanol unter Basenkatalyse umgeestert. Das Methanol wird über das stöchiometrische Verhältnis von Glycerinester zu Alkohol hinaus zugegeben, um die Reaktion auf die Seite des Methylesters zu verschieben. Als Nebenprodukt fällt Glycerin an. Nach der Beendigung der Reaktion werden die Phasen getrennt und der Biodiesel zur Aufarbeitung gewaschen und destilliert. Moderne Biodieselanlagen weisen eine Kapazität von rund 200.000 Tonnen pro Jahr auf; die gesamte in Deutschland installierte Kapazität betrug im Jahr 2006 3.840.500 t. Methanol to Gasoline. Im Methanol-to-Gasoline-Verfahren wird Methanol zur Herstellung hochoctaniger Vergaserkraftstoffe eingesetzt. Durch Umsatz an Zeolith-Katalysatoren des Typs ZSM-5 wird über das Zwischenprodukt Dimethylether ein Kohlenwasserstoffgemisch gebildet. Die Reaktion findet im ersten Schritt über die Dehydratisierung des Dimethylethers zu Ethen und anderen leichten Olefinen statt, die in weiteren Schritten zu Produkten mit fünf und mehr Kohlenstoffatomen oligomerisieren und zyklisieren können. Der Reaktionsmechanismus ist komplex und bis heute Gegenstand intensiver Untersuchungen. Die Verweilzeiten sind länger und Temperaturen höher als bei den verwandten MtO- und MtA-Verfahren. Der erhaltene Ottokraftstoff ist schwefelfrei und weist niedrige Benzol-Gehalte auf. Der Prozess kann im Festbett- oder Fluidbett-Verfahren durchgeführt werden. Das Fluidbett-Verfahren besitzt Vorteile durch eine kontinuierliche Katalysatorregenerierung, die niedrigere Drücke erlaubt. Total errichtete eine Pilotanlage mit einer Produktionsleistung von 1700 Tonnen Kraftstoff pro Tag in Neuseeland. Rheinbraun betrieb eine weitere Pilotanlage über längere Zeit im nordrhein-westfälischen Berrenrath. Sie wurde gemeinsam von Uhde und Lurgi errichtet. MTBE. Durch säurekatalysierten Umsatz von Methanol mit Isobuten wird Methyl-"tertiär"-butylether (MTBE), ein Oktanzahlverbesserer, hergestellt. Der Sauerstoffgehalt von MTBE bewirkt in Vergasermotoren eine bessere Verbrennung der Kraftstoffe. Die dadurch erreichte Luftverbesserung war ausschlaggebend dafür, dass der Einsatz von Oxygenaten, einer Gruppe von Chemikalien, die den Sauerstoffgehalt des Benzins erhöhen, im "Clean Air Act" (CAA, Verordnung zur Luftreinhaltung) der Vereinigten Staaten von 1992 vorgeschrieben wurde. Das in der Verordnung vorgegebene Ziel von 2,7 Gew.-% Sauerstoff im Kraftstoff erreichten die Raffinerien vor allem durch den Einsatz von MTBE. Nachdem MTBE in Grundwasser nachgewiesen wurde, verboten 2003 Kalifornien und anderen Bundesstaaten der USA die Verwendung von MTBE als Oktanzahlverbesserer, da Konzentrationen von circa 40 µg MTBE pro Liter Wasser die Trinkwasserqualität beeinträchtigen. In Europa und Deutschland wurde der Einsatz von MTBE durch die Richtlinie 85/535/EWG und später durch die Kraftstoffqualitätsrichtlinie 98/70/EG, wonach eine Beimischung bis zu 15 Vol.-% erlaubt ist, verstärkt. In Deutschland und der EU konnten Untersuchungen keine unmittelbare Gesundheits- oder Umweltgefährdung durch MTBE nachweisen, ein Verbot wurde nicht erwogen. Dimethylether. Das leicht zu verflüssigende Gas Dimethylether (DME) kann durch katalytische Dehydrierung von Methanol in Gegenwart von Silica-Alumina-Katalysatoren hergestellt werden. DME wird von einigen Unternehmen als vielversprechender Kraftstoff in Dieselmotoren und Gasturbinen gesehen. Die Cetanzahl von DME liegt bei 55 und damit über der von herkömmlichem Diesel. Die Verbrennung ist relativ sauber und führt nur zu geringen Emissionen von Partikeln, Stickoxiden und Kohlenmonoxid. Im Zuge des europäischen BioDME-Projekts wird untersucht, ob auf Basis von Lignocellulose produziertes DME im großtechnischen Maßstab produziert werden kann. Sonstige Anwendungen. Methanol findet weitere Anwendung in vielen Bereichen. So findet es als Lösungs- und Frostschutzmittel Einsatz. In Wärmerohren im mittleren Temperaturbereich bis 500 K dient Methanol als Übertrager-Fluid. Ebenso findet es Anwendung bei der Sensorreinigung von digitalen Spiegelreflexkameras, da es keine Schlieren hinterlässt und rückstandslos verdunstet. Deuteriertes Methanol wird als Lösungsmittel in der Kernspinresonanzspektroskopie verwendet. In Kläranlagen wird Methanol zur Unterstützung der Denitrifikation, der Umwandlung von Nitrat in gasförmigen Stickstoff, zum Abwasser gegeben. Die bakteriellen Stoffwechselvorgänge benötigen Methanol als zusätzlichen Energielieferanten. In der Abfallaufbereitung wird Methanol zum solvolytischen Recycling von Polyethylenterephthalat genutzt. Dabei werden Ethylenglycol und Dimethylterephthalat zurückgewonnen. Methanol wird zur Abscheidung von Polystyrol und Chloroprenkautschuk aus Polymermischungen, etwa zur Verkapselung anderer Polymere wie zum Beispiel Butadien-Kautschuk, verwendet. Die Verwendung von Methanol zum Transport von Kohle in Methanol-Kohle-Slurrys wurde intensiv untersucht. Die Kohle-Methanol-Slurry kann bei diesem Verfahren direkt verbrannt werden oder das Methanol kann destillativ abgetrennt werden und über Pipelines wieder an den Förderort der Kohle zurückgepumpt werden. Methanol wird in der Chemischen und Ölindustrie als Extraktionsmittel eingesetzt, etwa zur Trennung von aromatischen und paraffinischen Kohlenwasserstoffen. Methanol als Substrat im anaeroben Stoffwechsel. Methanol wird nicht nur zum Zwecke des Energiegewinns zu Kohlenstoffdioxid abgebaut, sondern kann auch als Kohlenstoffquelle für den Aufbau von Zellbausteinen dienen. Dies ist insbesondere der Fall für anaerobe Methanotrophe, die C1-Verbindungen assimilieren. In der Regel wird Methanol zunächst zu Formaldehyd oxidiert und kann entweder im so genannten Wood-Ljungdahl-Weg, dem Serinweg oder im Ribulosemonophosphatweg zu Kohlenhydraten aufgebaut werden. Methanol als Zwischenprodukt des aeroben Methanabbaus. Methanol wird als Zwischenprodukt des Stoffwechsels methanotropher Bakterien aus der Oxidation von Methan gebildet. Methylotrophe Bakterien "(Methylophilaceae)" und Hefen, beispielsweise Backhefe, oxidieren auch andere C1-Verbindungen wie Methanol und Formaldehyd zur Energiegewinnung. Der Abbau findet in aeroben Umgebungen in der Nähe von Methanvorkommen statt. Der aerobe biologische Abbau des Methans erfolgt über die Stufen Methanol, Formaldehyd, Formiat zu Kohlenstoffdioxid. Die Oxidation von Methan zu Methanol wird durch das Enzym Methan-Monooxygenase unter Verbrauch von Sauerstoff und Nicotinamidadenindinukleotid (NAD(P)H) katalysiert. Die weitere Oxidation des entstehenden Methanols zu Formaldehyd erfolgt je nach Spezies in unterschiedlicher Weise. Gram-negative Bakterien oxidieren Methanol über eine lösliche Methanol-Dehydrogenase im periplasmatischen Raum mit Pyrrolochinolinchinon (PQQ) als Coenzym. Gram-positive, methanotrophe Bakterien wie Bacilli und Aktinomyzeten verwenden eine cytosolische NAD(P)H-abhängige Dehydrogenase. Dagegen oxidieren Hefen Methanol in den Peroxisomen, was durch eine FAD-abhängige Alkoholoxidase katalysiert wird. Dabei werden die Elektronen auf Sauerstoff übertragen, so dass daraus Wasserstoffperoxid entsteht. Für die Oxidation von Formaldehyd sind verschiedene Stoffwechselwege bekannt. Formaldehyd ist sehr reaktiv und wird zum Beispiel als Addukt an Tetrahydrofolsäure beziehungsweise Tetrahydromethanopterin, alternativ an Glutathion, gebunden. Einzellerproteine. Verfahren zur Herstellung von Einzellerproteinen "(single cell proteins)" auf Basis von Methanol wurden eingehend untersucht. Dabei werden zum Beispiel Bakterien des Typs "Methylophilus methylotropha" in Airlift-Reaktoren fermentiert, wobei als Stickstoffquelle Ammoniak genutzt wird. Dabei werden proteinreiche Produkte erhalten, deren Aminosäurekomposition der von Fischmehl ähnlich ist. Die Nutzung von Einzellerproteinen auf der Basis von Methanol für Futterzwecke ist toxikologisch und ernährungsphysiologisch unbedenklich. Die Eiweiße können nach entsprechender Aufarbeitung als Lebensmittel dienen. Ein Verfahren der ICI wurde bereits großtechnisch realisiert, die Produkte konnten aber gegenüber preiswerten Soja- und Fischmehlprodukten nicht vermarktet werden. Der Vorteil der Verwendung von Methanol gegenüber anderen Kohlenstoffquellen ist neben der Mischbarkeit mit Wasser der geringere Sauerstoffbedarf sowie die geringere Wärmeentwicklung bei der Fermentierung. Toxikologie. Methanolabbau im Körper durch Alkoholdehydrogenase (ADH) zu Formaldehyd Methanol wird leicht durch Inhalation, Verschlucken oder Hautkontakt aufgenommen. Durch Körperflüssigkeit wird es schnell im Körper verteilt. Kleine Mengen werden unverändert über Lunge und Nieren ausgeschieden. Metabolismus und Giftwirkung entspricht dem bei Ethylenglycol festgestellten. Unverstoffwechseltes Methanol ist nur von geringer Giftigkeit (Toxizität). Giftig sind seine Abbauprodukte (Metaboliten), so der durch ADH (Alkoholdehydrogenase) gebildete Formaldehyd (vgl. Abbildung rechts) und die daraus entstehende Ameisensäure. Insbesondere Letztere führt nach einer häufig ohne Symptome verlaufenden Latenzzeit von 6 bis 30 Stunden zur Ausbildung einer metabolischen Azidose. Ameisensäure wird vom menschlichen Stoffwechsel nur sehr langsam abgebaut und sammelt sich so während des vergleichsweise zügigen Abbaus des Methanols im Körper an. Die Giftigkeit des Formaldehyds ist bei der Methanolvergiftung umstritten. Es wird durch die katalytische Einwirkung des Enzyms Aldehyddehydrogenase sehr schnell weiter zur Ameisensäure abgebaut, so dass es zu keiner Anreicherung von Formaldehyd im Körper kommt. Dosen ab 0,1 g Methanol pro kg Körpergewicht sind gefährlich, über 1 g pro kg Körpergewicht lebensbedrohlich. Die Vergiftungssymptome einer Methanolintoxikation verlaufen in drei Phasen. Direkt nach Aufnahme von Methanol zeigt sich wie beim Ethanol ein narkotisches Stadium, die berauschende Wirkung ist jedoch geringer als bei Ethanol. Nach der Latenzphase treten Kopfschmerzen, Schwächegefühl, Übelkeit, Erbrechen, Schwindel und eine beschleunigte Atmung auf in Zusammenhang mit der sich ausbildenden metabolischen Azidose. Charakteristisch für die dritte Phase, die Azidose, ist die Schädigung von Nerven, insbesondere des Sehnervs "(Nervus opticus)". Sehstörungen, die wieder zurückgehen können, entstehen zunächst durch Ödeme an der Netzhaut. Die Degeneration des Sehnervs – in diesem Fall eine toxischen Optikusneuropathie – führt anschließend zur Erblindung. Dieser Schaden ist irreversibel. Der Tod kann als Folge einer Atemlähmung eintreten. Zur Behandlung von Methanolvergiftungen wird der Abbau des Methanols im menschlichen Körper unterbunden, sodass die toxischen Folgeprodukte nicht entstehen. Dazu können etwa 0,7 g Ethanol (vulgo: Alkohol) pro kg Körpergewicht verabreicht werden, die den Methanolabbau kompetitiv hemmen, da das Enzym eine höhere Affinität zu Ethanol besitzt und diesen somit bevorzugt abbaut (Substratspezifität). Für eine effektive Therapie muss der Ethanolspiegel dabei zum Teil – abhängig vom Grad der Vergiftung und der körperlichen Verfassung des Vergifteten – über Tage aufrechterhalten werden. Wirksamer ist die Einnahme des ADH-Inhibitors 4-Methylpyrazol (Fomepizol), der den Methanolabbau ebenfalls kompetitiv hemmt. Gleichzeitig kann der Abbau der Ameisensäure im Körper durch die Gabe von Folsäure gefördert werden. Mit Natriumhydrogencarbonat kann der Übersäuerung des Körpers (Azidose) entgegengetreten werden. Bei schweren Vergiftungen oder bei besonderen Krankheiten wie Leberzirrhose oder ähnlichen wird gegebenenfalls eine Hämodialyse notwendig. Die Behandlung muss fortgesetzt werden, bis der Methanolgehalt im Blut unter einen bestimmten Grenzwert abgesunken ist. Durch die Verordnung Nr. 110/2008 des Europäischen Parlaments und des Rates ist der Methanolgehalt der verschiedenen Alkoholika in der Europäischen Union begrenzt. So gilt bei einem Obsttresterbrand ein Methanolgehalt von 15 g·l−1 (auf reinen Ethanolgehalt berechnet) als Obergrenze. In seltenen Fällen können Alkoholika durch unsachgemäßes Maischen, Gären und Destillieren oder Ausfrieren erhöhte Mengen an Methanol enthalten. Die meisten bekannten Fälle von Methanolvergiftung, etwa während der Prohibition oder dem Methanolwein-Skandal 1986, sind jedoch auf den Genuss von Trinkalkohol, der bewusst oder unbewusst mit Methanol vermischt wurde, zurückzuführen. In der Raumluft konnten Arbeiter 20 ppm bis 25 ppm Methanol ohne gesundheitliche Folgewirkungen noch nach zwei Jahren vertragen. Methanolkonzentrationen von über 200 ppm führen nach längerer Einatmung zu Kopfschmerzen. Konzentrationen von 500 ppm bis 1100 ppm wurden von freiwilligen Versuchspersonen nur drei bis vier Stunden ertragen. Methanol wird über die Haut sehr gut aufgenommen (resorbiert). Nachweis. Methanol hat einen alkoholartigen Geruch. Wird Methanol mit Borax vermischt und angezündet, verbrennt der dabei entstehende Borsäuretrimethylester mit intensiv grüner Flamme. Diese Reaktion funktioniert mit ähnlichem Ergebnis, jedoch weniger intensiver Grünfärbung auch mit Ethanol unter einem Zusatz von konzentrierter Schwefelsäure. Deswegen können Ethanol und Methanol mit dieser sogenannten Boraxprobe unterschieden werden. Methanol wird häufig mit gaschromatografischen Methoden, etwa durch Flammenionisationsdetektion, oder mit gekoppelter Massenspektrometrie nachgewiesen. Je nach Ursprung der Probe wird diese mit verschiedenen Methoden entweder vorher aufkonzentriert oder extrahiert. Zum Nachweis von Methanol in der Luft wird diese zunächst über Silicagel oder Aktivkohle geleitet, um das Methanol zu adsorbieren und zu konzentrieren. Durch anschließende thermische Desorption wird das Methanol wieder freigesetzt. Bei flüssigen Proben, etwa zum Nachweis in Kraftstoff, wird die Probe vorher zum Beispiel mit Ethylenglycol extrahiert und anschließend gaschromatografisch untersucht. Bei festen Proben ist die Extraktion mit Wasser möglich. Produktionsanlagen können mittels Infrarotspektroskopie direkt während des Herstellungsvorgangs überwacht werden. Eine weitere Methode ist die Oxidation von Methanol mit starken Oxidationsmitteln, etwa Kaliumpermanganat, zu Formaldehyd, das mit den herkömmlichen Methoden nachgewiesen werden kann. Mecklenburg-Vorpommern. Mecklenburg-Vorpommern (, Abkürzung "MV") ist ein Land im Nordosten Deutschlands im südlichen Ostseeraum. Es entstand 1945 als Vereinigung der Regionen Mecklenburg und Vorpommern. Nach der Aufteilung in drei Bezirke in der DDR im Jahr 1952 wurde es 1990 neu gegründet und im Zuge der Wiedervereinigung ein Land der Bundesrepublik Deutschland. Es grenzt im Norden an die Ostsee, im Westen an Schleswig-Holstein und Niedersachsen, im Süden an Brandenburg sowie im Osten an die Republik Polen. Das Land gliedert sich in sechs Landkreise und zwei kreisfreie Städte. Die Landeshauptstadt ist Schwerin. Die größte Stadt unter den 84 Städten des Landes ist die Regiopole Rostock. Weitere Zentren sind Schwerin, Neubrandenburg, Stralsund-Greifswald, Wismar und Güstrow. Die Metropolregionen von Hamburg und Berlin wirken in das Land hinein, ebenso die Öresundregion über die Ostsee und Stettin mit seinem grenzübergreifenden Ballungsraum. Dominierende Industriezweige des Landes sind die maritime Wirtschaft, Maschinenbau, Energietechnik, Lebensmittelindustrie, und Bereiche der Spitzentechnologie, vor allem Biotechnologie, Medizintechnik, Luft- und Raumfahrt und Informationstechnik. Der Tourismus in Mecklenburg-Vorpommern, Dienstleistungen, die Landwirtschaft und die Gesundheitswirtschaft tragen ebenfalls erheblich zur Wirtschaftsleistung bei. Mit den Universitäten Greifswald und Rostock befinden sich zwei der ältesten Hochschulen Europas im Land. Diese und die weiteren Wissenschafts- und Hochschulstandorte sind zunehmend Anziehungspunkte für Gründer und Startups sowie etablierte Technologiefirmen. Zu Mecklenburg-Vorpommern gehören drei der 14 deutschen Nationalparks und damit mehr als zu jedem anderen Bundesland, zudem gibt es acht Naturparks und hunderte Naturschutzgebiete. Die zwei größten deutschen Inseln Rügen und Usedom befinden sich an der Ostseeküste in Vorpommern. Mecklenburg-Vorpommern ist als Teil des norddeutschen Tieflands überwiegend flach, bedingt durch die letzte Eiszeit gibt es aber in vielen Landesteilen Hügelketten wie zum Beispiel die Mecklenburgische Schweiz und Seenlandschaften wie das Mecklenburger Seenland. Im Land gibt es über 2000 Seen, von denen der größte die Müritz ist, die zugleich der größte deutsche See ist. Das Klima ist kontinental-kühlgemäßigt und im Küstenbereich durch den maritimen Einfluss der Ostsee geprägt. Der Name des Landes und seine Aussprache. Offizielles Logo des Landes Mecklenburg-Vorpommern Das Wort "Mecklenburg" wird in der Umgangssprache der meisten Regionen wie oder "Meeklenburch" ausgesprochen. Das „e“ wird lang gesprochen (dies ist als deutschlandweite korrekte Aussprache des „E“ zu verstehen; siehe: das CK im Norden) und das „g“ wie ein palatales „ch“. Die Veränderung des „G“ im Auslaut ist ein Überrest niederdeutscher Phonologie. In den Mundarten der Dialektgruppe Mecklenburgisch-Vorpommersch gebraucht man hingegen den alten sächsischen Namen "Mękelborg". Im Altsächsischen bedeutete mikil „groß“, im 10./11. Jahrhundert war das Wort "Mikilinborg" („große Burg“) gebräuchlich. Der Name bezieht sich auf die Burg Mecklenburg bei Wismar. Im Mittelalter wurde daraus dann mittelniederdeutsch "Mekelenborch", später dann deutsch "Mecklenburg". Im Neulatein wurde entsprechend der an eine griechische Übersetzung angelehnte Name "Megalopolis" für Mecklenburg gebildet. Der Name "Pommern" ist slawischer Herkunft: "po more" – "„Land am Meer“". Als Abkürzung für den Namen des Landes sind umgangssprachlich "MV" und "Meck-Pomm" gebräuchlich. Die Bewohner des Landes werden je nach Landesteil als "Mecklenburger" oder "Vorpommern" bzw. "Pommern" bezeichnet, die Bezeichnung als "Mecklenburg-Vorpommern" ist unüblich. Entstehungsgeschichte. a>, wie sie von 1815 bis 1934 Bestand hatten Der Name Mecklenburg („Mikelenburg“) taucht erstmals in einer Urkunde auf, die Kaiser Otto III. auf der Mikelburg gezeichnet hat. Die Urkunde stammt aus dem Jahr 995. Im Altsächsischen bedeutete "mikil" „groß“, im 10./11. Jahrhundert war das Wort "Mikilinborg" („große Burg“) gebräuchlich. Der Name bezieht sich auf die Burg Mecklenburg. Im Mittelalter wurde daraus mittelniederdeutsch "Mekelenborch", später dann "Meklenburg" und Mecklenburg. Der Name Vorpommern entstand erst relativ spät (16./17. Jahrhundert) als Bezeichnung für die westlich der Oder liegenden Gebiete des Herzogtums Pommern. Der Name Pommern wiederum leitet sich von dem slawischen (kaschubischen) „"po morje"“ = "am Meer" ab (siehe auch Pommern). Dieser politisch-geographische Terminus ist in etwa ebenso alt wie der von Mecklenburg. Bereits 1046 wird der erste Pommernfürst Zemuzil erwähnt. Der Begriff Pommern wurde im weiteren Verlauf des Mittelalters zur tragenden Bezeichnung des Herrschaftsgebietes der Dynastie der Greifen. Entstanden ist der Name „Mecklenburg-Vorpommern“ erstmals durch die Vereinigung des ehemaligen Landes Mecklenburg mit den westlich der Oder-Neiße-Linie gelegenen Gebieten (unter Ausgliederung von Stettin und Swinemünde) der früheren preußischen Provinz Pommern, auf Grund eines Befehls der Sowjetischen Militäradministration von Anfang Juli 1945. Anfangs kursierten verschiedene Bezeichnungen für das neue Verwaltungsgebilde, u. a. „Mecklenburg-Pommern“ und auch schon früh, unter Ignorierung der pommerschen Landesteile, einfach nur „Mecklenburg“. Letztere Bezeichnung wurde auf Anweisung der sowjetischen Besatzungsmacht ab 25. Februar 1947 verbindlich. Erst mit der Neukonstituierung als Land in verändertem Gebietszuschnitt – Basis waren die drei DDR-Nordbezirke Rostock, Schwerin und Neubrandenburg – im Herbst 1990, erhielt das Land wieder die Bezeichnung „Mecklenburg-Vorpommern“. Geschichte. Länder der DDR bis 1952 (lila),Bundesländer 1990 (rot) "Zur Geschichte der historischen Territorien bis 1945, siehe: Geschichte Mecklenburgs und Geschichte Pommerns." Das Land Mecklenburg-Vorpommern wurde nach Ende des Zweiten Weltkriegs am 9. Juli 1945 von der Sowjetischen Militäradministration aus dem ehemaligen Land Mecklenburg, dem bei Deutschland verbliebenen, also überwiegenden Teil Vorpommerns sowie dem ehemals hannoverschen Amt Neuhaus gebildet. Schon im Jahre 1947 wurde der Landesteil Vorpommern aus dem Landesnamen entfernt und das Territorium bestand nunmehr als "Land Mecklenburg" bis 1952 fort. Bereits 1952 wurde im Rahmen der Verwaltungsreform in der DDR das Land aufgelöst und im Wesentlichen in die drei Bezirke Neubrandenburg (der Südosten), Rostock (die Küste) und Schwerin (der Südwesten) aufgeteilt. Mit der deutschen Wiedervereinigung im Jahr 1990 erfolgte die Neugründung des Landes Mecklenburg-Vorpommern in etwa in jener territorialen Ausdehnung, die Mecklenburg bei der Auflösung 1952 gehabt hatte. Schleswig-Holstein und die Freie und Hansestadt Hamburg waren während des Aufbaus der neuen Verwaltungsstrukturen Partnerländer von Mecklenburg-Vorpommern. Seit der politischen Wende wurden im gesamten Land auch weite Teile zahlreicher Städte im Rahmen der Städtebauförderung umfassend saniert, so wurden z. B. die Historischen Altstädte Stralsund und Wismar 2002 in die Liste der UNESCO-Weltkulturerbe aufgenommen. Mecklenburg-Vorpommern sieht sich seit der Wende nicht nur mit einem tiefgreifenden Struktur-, sondern auch mit einem erheblichen Demografiewandel konfrontiert. Bereits 1994 reagierte die Landesregierung daher mit einer umfassenden Kreisgebietsreform, der im Jahr 2011 eine zweite folgte. Mecklenburg-Vorpommern war 2007 Gastgeber des global bedeutenden G8-Gipfels der Industriestaaten, dieser fand in Heiligendamm nahe Rostock statt. Seit 1990 befindet sich der Wahlkreis der seit 2005 regierenden Bundeskanzlerin Angela Merkel im Nordosten Mecklenburg-Vorpommerns, ihr Wahlkreisbüro ist in Stralsund. Der ehemalige Rostocker Pastor Joachim Gauck ist seit 2012 deutscher Bundespräsident und hält wie die Kanzlerin regelmäßig Veranstaltungen im Land ab. Landesgebiet. Geografisch gehört Mecklenburg-Vorpommern zu Norddeutschland. Das Land entstand im Juli 1945 aus dem ehemaligen Land Mecklenburg und dem westlichen Teil Pommerns und erneut 1990 nach der deutschen Wiedervereinigung aus den drei DDR-Bezirken Rostock, Schwerin und Neubrandenburg. Das Land Mecklenburg-Vorpommern umfasst das Gebiet Mecklenburgs, das etwa zwei Drittel der Landesfläche ausmacht, sowie den nach 1945 bei Deutschland verbliebenen Teilen der ehemals preußischen Provinz Pommern (Vorpommern), kleine Teile der Prignitz und dem nördlichsten Zipfel der Uckermark (ehemals brandenburgisch). Küste und Wasserflächen. Mecklenburg-Vorpommern hat insgesamt eine Küstenlänge von etwa 2000 km und damit die längste Küste aller deutschen Bundesländer. Den Großteil davon nimmt die Vorpommersche Bodden- und Haffküste ein, denn die Küste im östlicheren Landesteil ist besonders stark durch Lagunen und Meerengen gegliedert. Die Außenküste ist etwa 350 km lang. Die beiden größten Inseln Mecklenburg-Vorpommerns, Rügen und Usedom, sind zugleich Deutschlands größte Inseln. Weitere größere Inseln sind Poel, Ummanz und Hiddensee. Die wichtigste Halbinsel ist Fischland-Darß-Zingst Das Land MV wird durch Flüsse und Kanäle mit einer Gesamtlänge von mehr als 26.000 km durchkreuzt. Mit seinen über 2028 Seen mit einer Gesamtfläche von 738 km² besitzt Mecklenburg-Vorpommern eine einzigartige Seen- und Wasserlandschaft. Die Müritz ist der größte, vollständig auf deutschem Territorium liegende See in Deutschland und ist ein Teil des weitläufigen Mecklenburger Seenlands. Andere große Seen sind der Plauer See, der Schweriner See und der Schaalsee in Westmecklenburg, sowie der Malchiner See, Kummerower See und Tollensesee im östlichen Landesteil. Weitere seenreiche Gebiete sind die Feldberger und die Sternberger Seenlandschaft. Im Zuge der Hochwasserkrise 2011 wurde ein neues Katastrophenschutz-Vorwarnsystem eingerichtet, um besser in Krisensituationen reagieren zu können. Land. Das Land ist flach bis hügelig. Von den höchsten Erhebungen gehören einige zum Baltischen Landrücken, so die Helpter Berge (179 m), die Ruhner Berge (176,6 m) und die Brohmer Berge (153,1 m). Andere liegen nahe der Küste wie der Piekberg auf Rügen (161 m), die Kühlung (129,7 m) nordwestlich von Rostock und der Golm (69,1 m) auf Usedom. Ausgeprägte Tallandschaften weisen die Flüsse Warnow, Recknitz und Tollense auf, sowie kürzere Abschnitte von Peene, Trebel und Großem Landgraben. Mit dem Nationalpark Jasmund, dem Nationalpark Vorpommersche Boddenlandschaft und dem Müritz-Nationalpark liegen insgesamt drei der 14 deutschen Nationalparks in Mecklenburg-Vorpommern, das somit über mehr dieser besonderen Schutzgebiete verfügt als jedes andere deutsche Bundesland. Klima. Das Klima wird in Mecklenburg-Vorpommern durch den Übergang vom maritimen Einfluss im Küstenbereich der Ostsee zu kontinentalgemäßigtem Klima im Binnenland geprägt. So nimmt die Niederschlagsneigung im Binnenland ab. Die Ostseeregion, vor allem im Bereich der Inseln Usedom, Rügen und Hiddensee, hat die deutschlandweit höchste Zahl an Sonnentagen. Landkreise und kreisfreie Städte. Seit der Kreisgebietsreform 2011 ist das Land in sechs Landkreise und zwei kreisfreie Städte gegliedert. Seitdem gehören fünf der Landkreise zu den flächengrößten Deutschlands. Städte, Ämter und Gemeinden. Das Land Mecklenburg-Vorpommern besteht aus insgesamt 756 politisch selbständigen Städten und Gemeinden. Diese verteilen sich wie folgt: zwei kreisfreie Städte und 754 kreisangehörige Städte und Gemeinden. Von den kreisangehörigen Städten und Gemeinden sind 38 amtsfrei. Die 716 amtsangehörigen Städte und Gemeinden sind zur Erledigung ihrer Verwaltungsgeschäfte zu 76 Ämtern zusammengeschlossen (Stand: 1. Januar 2015). Neben den vier Oberzentren Rostock, Schwerin, Stralsund-Greifswald und Neubrandenburg erfüllen 18 Städte im Land die Funktion als Mittelzentrum für ihre Region, siehe Liste. Weiterhin sind Grundzentren im ländlichen Raum und im Stadtumland definiert. Politik. Grundlage der mecklenburg-vorpommerschen Politik ist die Verfassung des Landes Mecklenburg-Vorpommern vom 23. Mai 1993, die am 15. November 1994 in Kraft trat. Ministerpräsidenten. Die Ministerpräsidenten des Landes Mecklenburg-Vorpommern (1945–1947) und des Landes Mecklenburg (1947–1952) waren Wilhelm Höcker (1945–1951, SPD/SED), Kurt Bürger (19. Juli bis 28. Juli 1951, SED) und Bernhard Quandt (1951–1952, SED). Von 1952 bis zur Deutschen Wiedervereinigung im Jahr 1990 existierte Mecklenburg-Vorpommern nicht. Das Territorium bildete den Hauptteil der drei DDR-Bezirke Rostock, Schwerin und Neubrandenburg. Von 1990 bis 1992 war Alfred Gomolka (CDU) erster Ministerpräsident des wiederhergestellten Landes. Er wurde vom CDU-Politiker Berndt Seite (1992–1998) abgelöst, der 1992 bis 1994 unter einer Koalition der CDU mit der FDP und ab 1994 in einer Großen Koalition regierte. Harald Ringstorff (SPD) hatte, unter einer Koalition der SPD zusammen mit der PDS, von 1998 bis 2008 die bisher längste Amtsperiode. Seit dem 6. Oktober 2008 ist Erwin Sellering (SPD) der Ministerpräsident des Bundeslandes Mecklenburg-Vorpommern in einer Großen Koalition aus SPD und CDU. Nach seiner Wahl trat Sellering am 25. Oktober 2011 seine zweite Amtszeit an. Landesregierung. Anders als in vielen anderen deutschen Ländern mittlerweile üblich, verzichtet die Landesregierung auf einen Europaminister. Dieses Amt wird in Personalunion vom Ministerpräsidenten übernommen. Dieser vertritt das Land auch in der Europaministerkonferenz. Die Koordinierung der Europapolitik verantwortet die Staatskanzlei. In Brüssel wurde ein Informationsbüro des Landes Mecklenburg-Vorpommern bei der Europäischen Union eingerichtet, das der Staatskanzlei unterstellt ist. Landtag. Siehe: Landtag Mecklenburg-Vorpommern, Landtagswahlen in Mecklenburg-Vorpommern Kreistage. Siehe: Kreistag (Mecklenburg-Vorpommern) Globale und Europapolitik. Zu mehreren Ländern unterhält Mecklenburg-Vorpommern eigene enge Beziehungen, bilaterale Partnerregionen gibt es in Polen (Euroregion Pomerania - Woiwodschaft Westpommern/Stettin seit 2000 und Pommern/Danzig seit 2001), den USA (Mecklenburg County in North Carolina seit 1994), Finnland (Turku-Region seit 2000), Russland (Region Sankt Petersburg seit 2002), und Frankreich (Poitou-Charentes seit 2003). Seit 2013 wird eine Partnerschaft zu den drei nördlichen Provinzen der Niederlande Groningen, Friesland und Drente aufgebaut. Intensive Beziehungen werden in den 2010er Jahren auch zu Österreich und der Schweiz aufgebaut. Im Land finden zudem zahlreiche Konferenzen und Messen mit Beteiligung aus aller Welt statt, vor allem zu maritimen, touristischen, kulturellen, landwirtschaftlichen, sowie medizinischen und anderen technologischen Fachgebieten, was durch die Landesregierung unterstützt wird. Im länderübergreifenden Städtebund Neue Hanse sind mehrere Städte des Landes engagiert. Mecklenburg-Vorpommern wird in der Wahlperiode 2014–2019 durch fünf Europaabgeordnete (MEPs) im Europäischen Parlament vertreten: Werner Kuhn (CDU), Iris Hoffmann (SPD), Reinhard Bütikofer (Bündnis 90/Die Grünen), Helmut Scholz (Die Linke) und Arne Gericke (Familien-Partei Deutschlands). Das Land unterhält ein Informationsbüro in Brüssel sowie ein Online-Europaportal. Gerichte. Siehe: Liste der Gerichte des Landes Mecklenburg-Vorpommern, Gerichtsstrukturgesetz und Gerichtsstrukturreform Wirtschaft. Im Industriesektor haben die maritime Industrie, der Maschinenbau, die Energiewirtschaft und die Lebensmittelindustrie einen großen Anteil. Die Landwirtschaft ist in der Fläche sehr präsent. Darüber hinaus spielen der Tourismus, der Gesundheitssektor, die Immobilienwirtschaft, Dienstleistungsbetriebe und die Hochtechnologie eine zunehmend große Rolle für die Wirtschaft in Mecklenburg-Vorpommern. Zukunftsbranchen. Als Zukunftsbranchen Mecklenburg-Vorpommerns gelten wissensbasierte Felder der Spitzentechnologie, vor allem Biotechnologie, Life Sciences und Medizintechnik, Energie- und Umwelttechnik, Luft- und Raumfahrttechnik und Informationstechnik (kurz IT). Unternehmen aus diesen Bereichen siedeln sich zunehmend um die Städte Rostock und Greifswald mit ihren leistungsstarken Universitäten, sowie um die Hochschulstandorte Stralsund, Wismar, Schwerin und Neubrandenburg und ihre Technologiezentren an. Die Zentren wie auch mehrere Initiativen befördern vor allem innovative Unternehmensgründungen (StartUps), z. B. "BioCon Valley", "Hanse Entrepreneure", "IT-Lagune Vorpommern", "IT-Initiative MV", "Kreative MV" und der "Entrepreneurs Club Rostock". Um die beiden traditionsreichen Universitäten des Landes, die Universität Rostock (gegr. 1419) und die Universität Greifswald (gegr. 1456), haben sich zudem bereits zahlreiche Forschungsinstitute angesiedelt ("siehe Forschung"). Die Wissenschaftsstandorte des Landes tragen erheblich zur kulturellen und wirtschaftlichen Entwicklung und zur globalen Profilstärkung bei. Maritime Wirtschaft. Größere Unternehmen im maritimen Wirtschaftsbereich sind zum Beispiel die weltweit agierende Deutsche Seereederei, Scandlines, die Mecklenburger Metallguss (MMG) und die Weiße Flotte. Das Kreuzfahrtunternehmen AIDA Cruises hat seinen Deutschlandsitz im Rostocker Stadthafen und beschäftigt über 6000 Arbeitnehmer. Entlang der Ostseeküste gibt es mehrere Werften, zum Beispiel in Wismar und Rostock-Warnemünde (Nordic Yards), in Wolgast (Peene-Werft) und in Stralsund (Volkswerft). In Rostock produziert Liebherr u. a. maritime Kräne und Anlagen. Zudem gibt es mittelständische Schiffbauer wie die HanseYachts AG in Greifswald (einer der drei größten Yachtbauer der Welt), "Vilm Yachts" in Lauterbach, "Yachtbau Oelke" in Marlow, die "Werft Rammin" und die "Schiffswerft Barth GmbH" in Barth, "Bootsbau Schubert" in Plate, "MoLe Bootsbau" in Plau, die "Wieker Boote GmbH" in Wiek und die "REAN GmbH" in Sassnitz. Der maritime Sektor in MV bot im Jahr 2004 28.000 Arbeitsplätze und generierte im Jahr 2011 Umsätze von 4,57 Milliarden Euro. In Rostock findet im Zweijahrestakt die „Zukunftskonferenz der Maritimen Wirtschaft“ statt. Luft- und Raumfahrt. Mecklenburg und Vorpommern haben eine bedeutende Geschichte im Bereich der Luft- und Raumfahrtindustrie. Seit der deutschen Wiedervereinigung 1990 konnte sich die Branche im Land erneut entwickeln. So haben sich seitdem im Großraum Rostock und am Flughafen Rostock-Laage Spitzenbetriebe der Luft- und Raumfahrt angesiedelt, dazu gehören u. a. mehrere Airbus-Zulieferer mit insgesamt rund tausend Mitarbeitern, wie die "RST Rostock-System-Technik GmbH". Auch Edag, die "luratec AG", Assystem, Ferchau Engineering und Diehl Aerospace sind am Standort Rostock. Im November 2007 wurde das Warnemünder "Zentrum für Luft- und Raumfahrt" eröffnet. Weiterhin gibt es in Pasewalk im Großraum Stettin das "Kompetenzzentrum für Flugzeugentwicklung und Flugzeugbau", in dessen Umfeld sich der Leichtflugzeug-Konstrukteur "REMOS AG" angesiedelt hat. Das Deutsche Zentrum für Luft- und Raumfahrt (DLR) unterhält in Neustrelitz Einrichtungen des Deutschen Fernerkundungsdatenzentrums sowie des Instituts für Kommunikation und Navigation. Die Neustrelitzer Forscher sind maßgeblich an der Entwicklung der europäischen Satellitennavigation Galileo beteiligt. Von Neubrandenburg aus wird die im deutschsprachigen Raum vertriebene Zeitschrift Raumfahrt Concret herausgegeben, die dort und an anderen Orten im Land mit mehreren Partnern jährlich die „Tage der Raumfahrt“ ausrichtet, zu denen auch renommierte Wissenschaftler und Astronauten aus der ganzen Welt nach Mecklenburg-Vorpommern kommen. Zu DDR-Zeiten wurden spätestens ab 1961 praktisch alle Unternehmen der Branche enteignet und z. B. auf landwirtschaftliche Produktion umgerüstet oder vollständig liquidiert. In der Vorkriegszeit wurden jedoch zahlreiche Erfindungen und Unternehmen in der Region geboren. Der Anklamer Otto Lilienthal war der bedeutendste deutsche Flugpionier und brachte mit dem Normalsegelapparat 1894 das erste Serienflugzeug der Welt auf den Markt. Die 1913 von Berlin nach Schwerin umgezogene "Fokker Aeroplanbau GmbH" hatte ihren Sitz direkt am Schweriner See in der Bornhövedstraße, die Flugzeugbaufirma wurde u. a. für ihre Dreidecker mit dem „Roten Baron“ weltberühmt. In Rostock-Warnemünde entstand mit den Ernst Heinkel Flugzeugwerken im Jahr 1922 einer der größten Flugzeugbauer der ersten Hälfte des 20. Jahrhunderts. Die Heinkel He 178 war das weltweit erste Düsenflugzeug und hatte ihren Jungfernflug am 27. August 1939 in Rostock-Marienehe. Seit 1921 gab es in Warnemünde zudem die Arado Flugzeugwerke. Ebenfalls zunächst in Warnemünde und ab 1934 in Ribnitz war der Walther-Bachmann-Flugzeugbau ansässig. Für die Aufrüstungspolitik ab 1933 wurden die meisten Firmen enteignet bzw. mussten auf Militärfertigung umstellen. Von 1933 bis 1945 wurden die Norddeutschen Dornier-Werke in Wismar mit späterer Außenstelle in Neustadt-Glewe gänzlich auf Kriegsproduktion eingestellt. Ebenfalls der militärischen Aufrüstung verpflichtet wurde 1936 die Heeresversuchsanstalt Peenemünde im Westen der Insel Usedom eingerichtet, 1938 kam das Werk West der Luftwaffe hinzu. In den Anlagen wurde die erste funktionsfähige Großrakete Aggregat 4 (A4, Propagandaname „V2“) unter Leitung von Wernher von Braun und Walter Dornberger entwickelt und getestet. Die Rakete war mit ihrem ersten erfolgreichen Flug am 3. Oktober 1942 das erste von Menschen gebaute Objekt, das in den Grenzbereich zum Weltraum eindrang. Damit gilt Peenemünde, trotz der unmenschlichen Umstände der Raketenfertigung mit tausenden Toten in Mittelbau-Dora, als "Wiege der Raumfahrt". Auch die weltweit erste Anlage für industrielles Fernsehen wurde dort zur Übertragung der Raketenstarts eingerichtet. Zeitgleich wurden auf der Halbinsel Zingst Großraketen erprobt. Viele der V2-Ingenieure von Peenemünde wurden nach dem Zweiten Weltkrieg ranghohe Entwickler bei der US-Raumfahrtbehörde NASA, so wirkte neben Technikdirektor Wernher von Braun u. a. Arthur Rudolph am Apollo-Programm zu den ersten Mondlandungen mit. Andere Beteiligte wie Helmut Gröttrup wechselten während des Wettlaufs ins All zum sowjetischen Raumfahrtprogramm. Energiesektor. Mecklenburg-Vorpommern ist im Bereich der Erneuerbaren Energien unter den Spitzenreitern in Deutschland, sowohl was die Stromproduktion als auch die Fertigung von Windkraftanlagen und Photovoltaikanlagen angeht. In einem durchschnittlichen Windjahr können bereits ca. 46 % des Strombedarfs im Bundesland durch Windenergie gedeckt werden. In Mecklenburg-Vorpommern gab es Ende 2011 1.385 Windkraftanlagen mit einer installierten Leistung von 1.627 Megawatt. Vor der Küste Mecklenburg-Vorpommerns sind zudem mehrere Offshore-Windparks in Planung, der Offshore-Windpark Baltic 1 befindet sich bereits in Betrieb. In Rostock befindet sich mit der Nordex SE ein Hersteller von Windenergieanlagen. Dezentrale Biogasanlagen und Photovoltaikanlagen spielen ebenfalls eine große Rolle bei der umweltverträglichen Energiegewinnung. In Greifswald und Wismar gibt es Solarmodul-Fabriken. Die im Vergleich zur Offshore-Windenergie als deutlich effizienter geltenden Strömungs- und Gezeitenkraftwerke werden ebenfalls erprobt, im Landesinneren kommen Geothermiekraftwerke zum Einsatz. Das in der damaligen DDR erste Pilotprojekt dazu ist die seit Ende der 1980er genutzte Geothermische Heizzentrale Neubrandenburg, die 2004 zum Langzeit-Tiefenspeicher ergänzt wurde. In der Nähe von Greifswald landet die von einem russisch-deutschen-niederländischen Konsortium gebaute Pipeline Nord Stream aus dem russischen Wyborg an, mit der Deutschland und Westeuropa mit russischem Erdgas versorgt werden. Größere Kraftwerke in Mecklenburg-Vorpommern sind die Kraftwerke Rostock und Schwerin-Süd. Der ehemals größte Stromerzeuger auf dem Landesgebiet war das Kernkraftwerk Lubmin, das heute stillgelegt ist. Zwei Projekte für ebenfalls in Lubmin geplante Kraftwerke, ein Kohlekraftwerk sowie ein Gas-und-Dampf-Kombikraftwerk, wurden eingestellt. Tourismus. Mecklenburg-Vorpommern ist das beliebteste innerdeutsche Reiseziel. Seit dem Jahr 2012 hatte Mecklenburg-Vorpommern jeweils das größte Wachstum an internationalen Übernachtungsgästen in Deutschland. Die Inseln Usedom, Rügen und Hiddensee im Landesteil Vorpommern sind Schwerpunkte des Tourismus in Deutschland, ebenso wie die Halbinsel Fischland-Darß-Zingst und die mecklenburgischen Seebäder wie z. B. Heiligendamm, Graal-Müritz oder Kühlungsborn mit ihrer Bäderarchitektur. Zudem sind die historischen Hansestädte Stralsund, Greifswald, Rostock (mit Warnemünde) und Wismar mit ihren bedeutenden Altstädten sowie die mecklenburgischen Residenzstädte Güstrow, Ludwigslust und Schwerin mit ihren Schlössern, und Hauptorte des Seenlandes wie Neustrelitz, Neubrandenburg, Malchow, Mirow, Röbel und Waren (Müritz) wichtige Anziehungspunkte. Die historischen Altstädte von Stralsund und Wismar sind seit 2002 UNESCO-Welterbe. Daneben gibt es zahlreiche weitere sehenswerte historische Stadtkerne mit backsteingotischen Kirchen, Bürgerhäusern, Wehranlagen und Stadttoren. Durch das Land führen mehrere Ferienstraßen. Für Naturliebhaber, Angler und Wassersportler sind im Landesinneren das Mecklenburger Seenland und der dortige Müritz-Nationalpark bedeutend. Entlang der Küste locken unter anderem der Nationalpark Jasmund mit der berühmten Kreideküste vor Rügen und der Nationalpark Vorpommersche Boddenlandschaft mit seinen Lagunen. Des Weiteren gibt es unzählige verschiedene Landschafts- und Naturschutzgebiete. In Mecklenburg und Vorpommern gibt es mehr als zweitausend Gutshäuser, Schlösser und Burgen (z. B. Jagdschloss Granitz, Schloss Basedow, Schloss Bothmer, Burg Stargard), die u. a. für kulturelle Veranstaltungen oder als Hotels genutzt werden. Daneben gibt es im ländlichen Raum viele weitere Sehenswürdigkeiten, wie historische Dorfkerne, Kirchen, Klöster, Windmühlen, Leuchttürme, Zeugnisse der Slawenbesiedlung, Denkmäler und Aussichtspunkte. Rostocks Stadtteil Warnemünde ist mit seinem "Cruise Port" mit über 350.000 Passagierbewegungen pro Jahr (Stand: Februar 2011) der größte Kreuzfahrthafen in Deutschland und liegt somit vor den jahrelangen Spitzenreitern Kiel und Hamburg. Zudem wurden im Jahr 2013 gut 1,9 Mio. Fährpassagiere befördert. Die jeden Sommer in Warnemünde stattfindende Warnemünder Woche und die Hanse Sail ziehen jährlich über eine Million Touristen nach Rostock. Daneben hat sich die Müritz Sail in Waren (Müritz) als Veranstaltung auf dem Binnengewässer etabliert. Auch außerhalb der Sommersaison ist der Tourismus in MV von großer Bedeutung, das Geschäft in der Nebensaison und im Winter wächst beständig. An kühlen Tagen werden häufig Innenangebote wie die zahlreichen Museen, Theater, Einkaufsmöglichkeiten und Freizeitbäder wahrgenommen. In den Wintermonaten sind Besuche der traditionellen Weihnachtsmärkte (vor allem in Rostock, Schwerin, Stralsund, Neubrandenburg und in den Seebädern) sowie Silvester- und Wellness-Arrangements populär. Kennzahlen der Wirtschaft. Das Bruttoinlandsprodukt (BIP) je Einwohner beträgt in Mecklenburg-Vorpommern 78,3 % des durchschnittlichen Wertes innerhalb der EU-Mitgliedsstaaten (EU-27: 100; Deutschland: 115,2) (2005). Im Jahr 2014 konnte ein Bruttoinlandsprodukt in Höhe von rund 38,5 Milliarden Euro erwirtschaftet werden. Seit dem Jahr 2006 nahm das Land Mecklenburg-Vorpommern keine neuen Schulden mehr auf und konnte in den Jahren 2007, 2008 und 2011 zusammen rund 440 Mio. Euro tilgen. Die Arbeitslosenquote im Flächenland Mecklenburg-Vorpommern sank in den letzten Jahren infolge des allgemeinen Wirtschaftswachstums und lag im Oktober 2009 mit 11,8 % erstmals seit 1991 bei unter 12 % (vgl. im September 2004 noch ca. 20 %). Sie sank bis 2014 stetig weiter, innerhalb des Bundeslandes gibt es aber weiterhin starke regionale Unterschiede hinsichtlich der Quote der Arbeitslosen. Diese Unterschiede zeigen sich insbesondere zwischen den westlichen Landkreisen Ludwigslust-Parchim (8 %), Rostock (7,9 %) und Nordwestmecklenburg (8,6 %) einerseits und den östlichen Landkreisen Vorpommern-Greifswald (12,4 %), Mecklenburgische Seenplatte (12,3 %) und Vorpommern-Rügen (11,1 %) andererseits (Stand: August 2014). Weiteres. Historisch entstanden in Mecklenburg und Vorpommern die Mutterhäuser der ersten großen Kaufhausketten wie Karstadt (gegründet 1871 in Wismar), Kaufhof (gegründet 1879 in Stralsund) und Wertheim (gegründet 1875 in Stralsund). Die Kultur- und Kreativwirtschaft nimmt heute in Mecklenburg-Vorpommern einen zunehmenden Stellenwert ein, also die unternehmerische Kulturschöpfung z. B. durch Filmschaffende und andere Künstler (u. a. zu sehen auf dem Filmkunstfest), Festivals und Konzerte und weitere Veranstaltungen, Theater (z. B. Störtebeker-Festspiele), Mode und Design (z. B. "Fashion Week Warnemünde" und "LOOK Schwerin"). Der Immobilienmarkt und die Bauwirtschaft haben in Mecklenburg-Vorpommern lokal eine große Bedeutung. Es gibt eine hohe Nachfrage in landschaftlich reizvollen Lagen wie an den Küsten und in Seengebieten, sowie in den historischen Altstädten und Dörfern. Dabei soll laut Landesentwicklungsprogramm die Entwicklung auf die Innenbereiche der Gemeinden konzentriert werden, um vorhandene Infrastruktur zu nutzen und Zersiedelung der Landschaft zu vermeiden. Insgesamt gab es im Land 2013 erstmals seit 1990 mehr Zuzüge als Fortzüge. Orte mit guter Infrastruktur verzeichnen häufiger Zuwanderung, insbesondere in den Randgebieten der Metropolregionen Hamburg, Berlin und Stettin, sowie in der Regiopolregion um Rostock. Auch die zahlreichen Schlösser und Herrenhäuser des Landes stehen seit einigen Jahren im Fokus der Regional- und Immobilienentwicklung. Die Verarbeitung von Lebensmitteln ist ein wichtiger Wirtschaftsfaktor im Land. Beispiele aus der Lebensmittelindustrie sind die Kartoffelveredelung durch Pfanni in Stavenhagen, das Nestlé-Werk in Schwerin und die Tiefkühlproduktion der Oetker-Gruppe in Wittenburg. Auch die Trolli-Süßwaren aus Hagenow und die Grabower Süsswaren sind über die Landesgrenzen hinaus bekannt. Es gibt im Land mehrere kleine und einige große, in ganz Deutschland und darüber hinaus bekannte Brauereien, die größten und bekanntesten sind die Mecklenburgische Brauerei Lübz, die Störtebeker Braumanufaktur in Stralsund, die Hanseatische Brauerei Rostock und die Darguner Brauerei. Zudem gibt es kleinere Spezial- und Handwerksbrauereien mit überregionalem Renommé, wie das mecklenburgische Vielanker Brauhaus, die Barther Spezialitätenbrauerei, die Brauerei im Wasserschloss Mellenthin auf Usedom und die Rügener Insel-Brauerei in Rambin. Seit 2004 wirbt die Landesregierung mit dem Motto „MV tut gut.“ für Mecklenburg-Vorpommern als Wirtschaftsstandort und Lebensumfeld. Beim Passieren der Landesgrenzen mit dem Auto wird für Mecklenburg-Vorpommern als „Land zum Leben“ geworben. Ziel der Landesmarketingkampagne ist es, die Stärken und Potenziale Mecklenburg-Vorpommerns bekannter zu machen und mit den starken Kernbereichen Gesundheit, Ernährung, Tourismus, Kultur, Wissenschaft, Technologie und Bildung zu verknüpfen. Eisenbahn. Durch die südwestliche Landschaft Mecklenburg-Vorpommerns verläuft die Berlin-Hamburger Bahn. Daneben existieren Verbindungen von dieser Strecke über Schwerin und Bad Kleinen nach Wismar und Rostock–Stralsund–Rügen. Weitere Hauptstrecken verlaufen von Berlin über Neustrelitz nach Rostock/Neubrandenburg–Stralsund–Rügen und von Berlin über Pasewalk–Anklam–Greifswald nach Stralsund. Hinzu kommen verschiedene Nebenstrecken und die Bäderbahnen an der Ostseeküste. In den letzten Jahren wurden aufgrund der dünnen Besiedelung, der Sparmaßnahmen des Landes, der stetig wachsenden Zahl an PKW und der Öffnung des Fernbusmarktes eine erhebliche Zahl an Schienenstrecken und an Schieneninfrastruktur (vor allem viele Nebenbahnen und kleinere Bahnhöfe sowie Nebengleise) stillgelegt und meist abgebaut. Auch an größeren Bahnhöfen wurden und werden im Rahmen von Modernisierungsmaßnahmen Gleise zurückgebaut und der Betrieb stark vereinfacht. Erhebliche Personaleinsparungen wurden durch Automatisierung (u. a. von Bahnübergängen) durchgeführt. Es gibt mittlerweile Streckenabschnitte von über 20 km Länge ohne Zwischenhalt (z. B. beim RE 5), da dort nur noch langlaufende Regional-Express-Linien (RE) verkehren. Auf den verbliebenen Nebenstrecken wird der Schienenpersonennahverkehr mittlerweile vielfach von der Deutsche-Bahn-Tochter UBB und verschiedenen privaten Eisenbahnverkehrsunternehmen wie der OLA bzw. seit Dezember 2013 wieder von der Deutschen Bahn (DB-Regio) und der ODEG durchgeführt. Bekannte historische Schmalspurbahnen im Land sind der Rasende Roland der Rügenschen Kleinbahn und die Bäderbahn Molli der MBB. Zudem gibt es bei Schwichtenberg die Mecklenburg-Pommersche Schmalspur-Museumsbahn. Straße. Mecklenburg-Vorpommern wird durch die Bundesautobahn 20 von Lübeck über Wismar, Rostock und Neubrandenburg zum Dreieck Uckermark, die Bundesautobahn 24 von Hamburg nach Berlin mit Anschluss über die A 14 nach Wismar sowie die A 19 von Berlin nach Rostock und im äußersten Südosten von der A 11 erschlossen. Verschiedene Bundesstraßen durchziehen das Land, wobei die bedeutendste Nord-Süd-Verbindung die B96 ist, in Ost-West-Richtung sind es die B104, B105 und die B110. Bus. Im Land gibt es sowohl kommunale Verkehrsgesellschaften mit eigenen Bussen wie die MVVG, als auch private Betreiber. Das Liniennetz ist in den Oberzentren und Mittelzentren gut ausgebaut, in kleineren Orten fahren die Busse meist weniger Haltestellen an und insgesamt seltener. Neben den Nahverkehrsbetrieben gibt es auch Reisebusanbieter, und seit der Öffnung des Marktes 2013 auch mehrere Fernbuslinien. Dazu gehören die Verbindung "schnurstracks" der VVG zwischen Greifswald und Neubrandenburg, sowie mehrere Linien zwischen Berlin, Hamburg, Schwerin, Rostock und den Urlaubsorten von Anbietern wie der UBB und MeinFernbus, die in viele Großstädte Deutschlands führen. Schiffsverkehr. Wichtige Seehäfen sind in Rostock, Wismar, Stralsund, Sassnitz und Greifswald angesiedelt. Von Rostock-Überseehafen und von Mukran bei Sassnitz aus fahren Fähren nach Dänemark, Finnland, Schweden, Polen und ins Baltikum. In vielen Küstenorten gibt es Segel- und Sportboot-Marinas. Die wichtigsten Sportboothäfen befinden sich neben den größeren Städten in Niendorf, Darß, Prerow, Born, Glowe, Neuhof, Lauterbach/Putbus, Kröslin, Karlshagen, Mönkebude und Ueckermünde. Die vielen Seen im Hinterland sind über die Warnow, die Recknitz, die Peene und verschiedene Kanäle für die Schifffahrt miteinander und mit der Ostsee verbunden. Gerade im Mecklenburger Seenland gibt es eine Vielzahl von Sportboothäfen. Flugverkehr. Flughäfen und Landeplätze in Mecklenburg-Vorpommern In Mecklenburg-Vorpommern befindet sich ein größerer Regionalflughafen, mehrere mittlere Flughäfen, auf denen auch Flugzeuge bis zur Größe von Airbus A320 landen können, sowie zahlreiche kleinere Flugplätze und Landebahnen. Der mit Abstand größte und passagierreichste Flughafen ist der Flughafen Rostock-Laage. Er gewinnt in den letzten Jahren u.a. als Zubringer für den Kreuzfahrttourismus an Bedeutung, für Urlaubsflüge, sowie für Geschäftsflüge im deutschsprachigen Raum. Regionalflughäfen sind der Flughafen Heringsdorf auf Usedom, der Flughafen Neubrandenburg, der Ostseeflughafen Stralsund Barth und der Flughafen Schwerin-Parchim. Sie sind aus ehemaligen Luftwaffenstützpunkten der NVA und der Luftstreitkräfte der Sowjetunion entstanden. Der Schwerin-Parchimer Flughafen wird seit 2014 zu einem Logistik-Drehkreuz ausgebaut und soll zudem ab 2016 Linienflüge von und nach China anbieten. Weiterhin gibt es zahlreiche kleinere Flugplätze, zum Beispiel den Flugplatz Rügen bei Bergen, Flugplatz Anklam, Müritz Airpark bei Röbel, Flugplatz Wismar, Flugplatz Peenemünde auf Usedom, Flugplatz Rerik, Flugplatz Pasewalk, Flugplatz Tutow, Vielist, "Flugplatz Purkshof" bei Rostock, "Flugplatz Schmoldow" bei Greifswald, "Flugplatz Pinnow" bei Schwerin, "Flugplatz Güstrow" oder den "Flugplatz Neustadt-Glewe", auf denen vorrangig die Sportfliegerei betrieben wird. Diese wird durch den "Luftsportverband MV" koordiniert. Für das Land spielen auch die grenznahen internationalen Flughäfen Stettin-Goleniów, Hamburg und die Berliner Flughäfen eine Rolle. Schule. Mecklenburg und Vorpommern haben einige der ältesten Schulen im deutschen Sprachraum auf ihrem Gebiet. Die älteste unter ihnen ist die Domschule Güstrow, die 1236 als Stiftsschule zur Ausbildung des Kleriker-Nachwuchses gegründet wurde, und 1552 als Lateinschule, später als Gymnasium neu gegründet wurde. Auch das Lilienthal-Gymnasium Anklam (1535), die Große Stadtschule Wismar (1541), das Fridericianum Schwerin (1553), das Jahn-Gymnasium Greifswald (1561), das Parchimer Friedrich-Franz-Gymnasium (1564), die Große Stadtschule Rostock (1580), die Niels-Stensen-Schule Schwerin (1735), das Gymnasium Carolinum Neustrelitz (1795) und das Pädagogium Putbus (1836) können auf eine außergewöhnlich lange Historie verweisen. Das Marienstiftsgymnasium im heute polnischen Stettin wurde 1543 etabliert, musste jedoch während des Zweiten Weltkriegs evakuiert werden. Das humanistische Gymnasium Stralsund wurde 1560 gegründet, wurde nach der Einnahme Stralsunds durch die Rote Armee am 1. Mai 1945 aber nicht wieder eröffnet. Ab 1990 wurde das DDR-Schulwesen mit der seit 1946 bestehenden Einheitsschule abgelöst und die Schulbildung im Land mehrfach reformiert. Nachdem Anfang der 1990er Jahre das dreigliedrige Schulsystem Bayerns als Vorbild für die Umstrukturierung des Schulsystems diente, wurden in den letzten Jahren einige Veränderungen vorgenommen. Im Sekundarbereich wurde das ehemals dreigliedrige Schulsystem (Hauptschule, Realschule, Gymnasium) reformiert, indem Haupt- und Realschulen zur Schulform Regionale Schule zusammengelegt wurden. Dies hatte zum einen das Ziel Kosten zu sparen, indem besonders im ländlichen Raum nun neben dem Gymnasium nur noch eine einzige, statt der vorher zwei verschiedenen Schulform angeboten werden muss. Zum anderen sollten im Rahmen der Reform auch die Kernfächer (Deutsch, Mathematik, Englisch) gestärkt sowie durch den Unterricht auf Hauptschul- und Realschulniveau in einem Haus die Wechselmöglichkeit für Schüler und die Attraktivität der Schulform für Lehrerneueinstellungen erhöht werden. Um eine spätere Schullaufbahnentscheidung und ein längeres gemeinsames Lernen zu ermöglichen, wechseln Schüler nach der Grundschule (Klasse 1–4) gemeinsam an eine Regionalschule. Nach der sechsten Klasse kann dann ein Wechsel auf ein Gymnasium und der Erwerb des Abiturs erfolgen oder an der Regionalschule die Berufsreife oder die mittlere Reife erlangt werden. Es existieren darüber hinaus auch einige wenige Gesamtschulen. Von generellen strukturellen Reformen unberührt blieb das klassische Gymnasium, an dem jedoch ebenfalls die Hauptfächer gestärkt wurden und teilweise bis zum Abitur im Klassenverband (statt getrennt in Grund- und Leistungskursen) unterrichtet werden. Seit 2008 ist das Abitur nach zwölf Jahren, das in der DDR und danach bis 2001 bereits die Regel war, wieder an allen Gymnasien eingeführt worden. Darüber hinaus wurde und wird generell die Erhöhung der Selbstständigkeit und die Entscheidungsautonomie der einzelnen Schule kontinuierlich mit Modellversuchen und Reformen anvisiert. Dazu gehört das Modell Selbstständige Schule. Das Modell der Europaschule fördert die interkulturelle Zusammenarbeit, ein Beispiel dafür ist das Deutsch-Polnische Gymnasium Löcknitz. Beim Polnischunterricht vor allem im Osten Mecklenburg-Vorpommerns sehen Experten insgesamt noch Ausbaubedarf. Bei einem Vergleich der Englischkenntnisse durch eine EF-Studie von 2015 landete Mecklenburg-Vorpommern im deutschen Vergleich nur auf dem vorletzten Rang (vor Sachsen-Anhalt), wobei Deutschland insgesamt den 11. Platz unter 70 verglichenen Ländern belegt. Trotz der schlechten Ergebnisse kündigte der Bildungsminister des Landes Mathias Brodkorb (SPD) im November 2015 an, den Englischunterricht sogar noch zu reduzieren. Neben den staatlichen Schulen gibt es auch mehrere Schulen in privater Trägerschaft. Dazu gehört der Betrieb durch private gemeinnützige Träger, die zum Teil auch konfessionell gebunden sind, wie beispielsweise die katholische Bernostiftung. Das Internatsgymnasium Schloss Torgelow bei Waren im Mecklenburger Seenland gehört zu den angesehensten Schulen Deutschlands. Die Schülerzahlen sind insgesamt seit dem Jahr 2000 zurückgegangen. Im Jahre 2009 kamen in Mecklenburg-Vorpommern auf 100 Einwohner etwa acht Schüler. In den städtischen Zentren wie Rostock, Schwerin, Greifswald, Stralsund, Wismar, Neubrandenburg und weiteren für Familien attraktiven Orten nimmt die Zahl der Schüler in den letzten Jahren wiederum stetig zu, was eine Folge steigender Geburtenraten und Zuzüge ist. Hochschulen. In Mecklenburg-Vorpommern gibt es zwei Volluniversitäten und mehrere weitere Hochschulen. Die Ernst-Moritz-Arndt-Universität Greifswald (gegründet 1456) und die Universität Rostock (gegründet 1419) sind die beiden ältesten Universitäten in Nordeuropa und gehören zu den ältesten Hochschulen der Welt. Weitere staatliche Hochschulen sind die Hochschule für Musik und Theater Rostock, die Hochschule Neubrandenburg, die praxisorientierte Fachhochschule Stralsund und die Hochschule Wismar, die Fachhochschule für öffentliche Verwaltung, Polizei und Rechtspflege in Güstrow sowie ein Campus der Hochschule der Bundesagentur für Arbeit in Schwerin. Die private Fachhochschule des Mittelstands (ehemals Baltic College) mit Standorten in Schwerin und Rostock bietet Studiengänge im Wirtschaftsingenieur-, Marketing-, Management-, Gesundheits- und Tourismusbereich an. Die private höhere Berufsfachschule "DesignSchule Schwerin" hat Ausbildungen und Bachelor-Studiengänge in den Bereichen Game-, Grafik- und Modedesign im Angebot. An der "da!-Designakademie" in Rostock werden zudem verschiedene grafisch orientierte Studiengänge angeboten. Die Hochschulstädte profitierten Anfang des 21. Jahrhunderts von teilweise sprunghaft angestiegenen Studentenzahlen. Sie müssen Analysen zufolge jedoch aufgrund der demografischen Situation ihre Attraktivität für Studenten von außerhalb des Landes und für Auslandsstudenten enorm steigern, auch durch internationale Studiengänge in englischer Sprache. Insgesamt wurde den Hochschulen des Landes durch den SDW eine noch deutlich zu geringe Internationalität attestiert. Studienanfänger wirbt das Land mit dem Slogan „Studieren mit Meerwert“, und die Universität Greifswald unter anderem mit „Studieren, wo andere Urlaub machen“. Mecklenburg-Vorpommern hat viele Lehrstühle zum Thema Unternehmensgründung, aber deutschlandweit den geringsten Anteil relevanter Lehrveranstaltungen zum Thema Gründertum (auch "Entrepreneurship" genannt). Durch eine engere Kooperation mit Instituten und Unternehmen in Mecklenburg-Vorpommern sowie eine verbesserte Gründerausbildung und -förderung sollen mehr Akademiker für den Verbleib im Land begeistert werden. Gründerbüros mit Ansprechpartnern für Aus- und Unternehmensgründungen gibt es an der Hochschule Wismar, an der Universität Rostock (ZfE Zentrum für Entrepreneurship), an der Hochschule Neubrandenburg, an der Universität Greifswald (Gründerbüro und ZFF) sowie an der Fachhochschule Stralsund. Die jeweiligen hochschuleigenen Bemühungen für die Gründerszene in ihrem Umfeld werden durch studentische Initiativen flankiert, wie den Entrepreneurs Club Rostock, die Wismar Entrepreneurs, die Hanse Entrepreneure Stralsund und die Gründungswerft Greifswald. Forschung. Es gibt zahlreiche außeruniversitäre Forschungseinrichtungen im Land, die sich hauptsächlich in und um Greifswald und Rostock konzentrieren und sich vorwiegend mit Medizin, Biologie, Physik, Raumfahrt, Tiergesundheit, Agrarwissenschaften und Demografie beschäftigen. Zu den bedeutenden Instituten zählen das Max-Planck-Institut für demografische Forschung, das Fraunhofer IGD, das Leibniz-Institut für Nutztierbiologie, das Leibniz-Institut für Ostseeforschung und das Leibniz-Institut für Katalyse in Rostock, das Max-Planck-Institut für Plasmaphysik in Greifswald und das Deutsche Zentrum für Luft- und Raumfahrt mit Zweigstellen in Neustrelitz. Im Land sind mehrere bedeutende Institute der Medizinforschung, wie das DZNE für Nervenkrankheiten, das Fraunhofer-Institut für Zelltherapie und Immunologie und das Herz- und Diabeteszentrum MV am Klinikum Karlsburg. Mit dem Friedrich-Loeffler-Institut befindet sich auf der zu Greifswald gehörenden Insel Riems ein nationales Forschungsinstitut. Zu den bekannten Forschungsergebnissen aus MV gehören zum Beispiel die Erfindung des Wasserskalpells, auch bekannt als "Helix-Hydro-Jet", oder die erste künstliche Leber für Kinder. Bevölkerung. In Mecklenburg-Vorpommern leben heute rund 1,6 Millionen Menschen (Stand: 2014). Die Bevölkerung setzt sich aus Mecklenburgern und Pommern und zum kleinen Teil aus Brandenburgern zusammen. Hinzu kamen viele Heimatvertriebene nach dem Zweiten Weltkrieg, überwiegend aus dem östlichen Pommern und Ostpreußen, sowie Zugezogene aus den anderen Regionen Deutschlands und ihre Nachkommen, geschichtlich bedingt hauptsächlich aus dem Gebiet der ehemaligen DDR, sowie nach der Wiedervereinigung russlanddeutsche Aussiedler bzw. Spätaussiedler. Der Anteil an Bürgern ausländischer Herkunft beträgt 2,1 Prozent, die größte Gruppe kommt aus Polen (15,8 Prozent), gefolgt von Russland (9,3 Prozent), der Ukraine (6,7 Prozent) und Vietnam (Stand: November 2013). Der Bevölkerungsgipfel von über 2,1 Millionen 1945/46 – trotz kriegsbedingter Verluste – ist auf den starken Zustrom von Heimatvertriebenen zurückzuführen, die in der SBZ/DDR offiziell „Umsiedler“ hießen. Der erhebliche Bevölkerungsverlust nach 1989 ist eine Folge der Westabwanderung und eines Einbruchs bei den Geburtenzahlen. Diese Trends haben sich in den 2010er Jahren verlangsamt bzw. wurden gestoppt, es wandern wieder mehr Leute zu und es werden mehr Kinder geboren. Zum Jahr 2008 etwa hatte das Land deutschlandweit den höchsten Geburtenanstieg, die Geburtenrate legte von 1,36 auf 1,41 zu. Zudem ist im Jahr 2015 eine Entwicklung zu Mehrkindfamilien abzusehen, die Gebärwahrscheinlichkeit ist bei Familien höher, die bereits ein Kind haben. Die Anstiege werden vonseiten der Politik u. a. auf die gute Kita-Versorgung, gesteigerte Anstrengungen in der frühkindlichen Bildung, die bessere Arbeitsmarktlage und die allgemein verbesserte Lebensqualität im Land zurückgeführt. Insgesamt zeichnet sich ab, dass der periphere ländliche Raum mit schlechter Infrastruktur dünn besiedelt bleibt, während die städtischen Zentren sowie landschaftlich und infrastrukturell attraktive Orte wieder Einwohner gewinnen. Insgesamt gab es in Mecklenburg-Vorpommern im Jahr 2013 erstmals seit 1990 mehr Zuzüge ins Land als Fortzüge. Mecklenburg-Vorpommern ist das am dünnsten besiedelte und am ländlichsten geprägte deutsche Bundesland. Die Mehrzahl der Bevölkerung wohnt entlang der Ostseeküste, während besonders der Süden und das Binnenland im Osten des Landes dünn besiedelt ist. Die Hansestadt Rostock ist mit etwa 203.000 Einwohnern die einzige Großstadt im Land und gilt als Regiopole. Rostock ist ebenfalls das größte der vier Oberzentren des Landes, gefolgt von Stralsund und Greifswald (zusammengerechnet 114.000 Einwohner), der Landeshauptstadt Schwerin (rund 92.000 Einwohner) und der Stadt Neubrandenburg (rund 64.000 Einwohner). Alle anderen Städte haben weniger als 50.000 Einwohner, die bedeutendsten Städte dieser Gruppe sind die Hansestadt Wismar und Güstrow, sowie Waren (Müritz), Neustrelitz und Parchim. Die über 400.000 Einwohner starke polnische Hafenstadt Stettin wirkt heute als ein Wachstumsmotor für das östliche Mecklenburg-Vorpommern, vor allem im Bereich ihrer Metropolregion. Für die südlichen Landesteile wirkt sich die Nähe zu Berlin vorteilhaft aus, Westmecklenburg ist in die Metropolregion Hamburg und den Verflechtungsraum mit Rostock und Lübeck eingebunden und verzeichnet ebenfalls Zuwächse. Religion. Der überwiegende Teil der Bevölkerung ist konfessionslos. 17,3 Prozent der Bevölkerung von Mecklenburg-Vorpommern bekennen sich zur evangelischen Kirche und 3,3 Prozent zur katholischen Kirche (laut Statistik der Evangelischen Kirche in Deutschland, Stand: 2011). Evangelische Landeskirche. Die evangelischen Kirchgemeinden im Bundesland gehören zum „Kirchenkreis Mecklenburg“ oder zum „Pommerschen Evangelischen Kirchenkreis“ innerhalb der Evangelisch-Lutherischen Kirche in Norddeutschland (kurz: „Nordkirche“). Vor der Fusion zur Nordkirche im Jahr 2012 war Schwerin Bischofssitz der Evangelisch-Lutherischen Landeskirche Mecklenburgs (ELLM) und Greifswald war Bischofssitz der Pommerschen Evangelischen Kirche, die mit der Reform als jeweils ein Kirchenkreis in der neuen Struktur aufgingen. In Mecklenburg gibt es etwa 193.000 Mitglieder (Stand: 2010) und in Vorpommern etwa 94.000 Mitglieder (Stand: 2010). Weitere Kirchen. Die römisch-katholische Kirche spielt seit der Reformation in Mecklenburg-Vorpommern eine zahlenmäßig geringe Rolle. Sie ist gegenwärtig territorial zweigeteilt: Mecklenburgs 46.000 Katholiken (Stand: 2004) gehören zum Erzbistum Hamburg, während die 13.000 (Stand: 2004) Katholiken in Vorpommern dem Erzbistum Berlin angehören. Neben der schon genannten norddeutschen Landeskirche besteht in Mecklenburg-Vorpommern auch eine Gemeinde der Evangelisch-reformierten Kirche, die als Landeskirche ebenfalls der Evangelischen Kirche in Deutschland angeschlossen ist. Darüber hinaus bestehen Gemeinden der altkonfessionell verfassten Selbständigen Evangelisch-Lutherische Kirche und der evangelischen Freikirchen wie den Baptisten, freien evangelischen Gemeinden, Methodisten, Mennoniten oder den Siebenten-Tags-Adventisten. Daneben gibt es mehrere kleinere christliche Kirchen wie die Neuapostolische Kirche oder die Kirche Jesu Christi der Heiligen der Letzten Tage (Mormonen). Judentum. In Mecklenburg-Vorpommern gibt es je eine jüdische Gemeinde in der Landeshauptstadt Schwerin (inklusive Wismar) sowie in Rostock. Beide Gemeinden sind im Landesverband der Jüdischen Gemeinden in Mecklenburg-Vorpommern organisiert, der Mitglied im Zentralrat der Juden in Deutschland ist. Über historische Synagogen informiert die Liste der Synagogen in Mecklenburg-Vorpommern. Sprache. In weiten Teilen des Landes wird bis heute neben Hochdeutsch von der älteren Generation auch Niederdeutsch mindestens verstanden und oft auch gesprochen. Die Jüngeren beherrschen es aber praktisch nicht mehr. Heute gibt es diverse Initiativen, mit vielfältigen Schulprojekten, Vereinsarbeit, Wettbewerben und Festivals den nachwachsenden Generationen die regional gefärbte Sprache ihrer Heimat nahezubringen. Der sogenannte mecklenburgisch-vorpommersche Sprachraum gehört zum Ostniederdeutschen und entspricht in etwa den heutigen Grenzen des Landes Mecklenburg-Vorpommern. Dabei gibt es keine eindeutig festzumachenden Grenzen zwischen mecklenburgischem und vorpommerschem Niederdeutsch, sondern die dialektalen Unterschiede drücken sich, geographisch betrachtet, in einem West-Ost-Kontinuum aus. Es kommen also keine Isoglossenbündel vor. Für die Dokumentation beider Sprachräume etablierten sich das Pommersche Wörterbuch und das Mecklenburgische Wörterbuch. Bedeutende niederdeutsche Schriftsteller aus der Region sind unter anderem Fritz Reuter, John Brinckman und Rudolf Tarnow. Neben dem Niederdeutschen gibt es vor allem im östlichen Landesteil Vorpommern durch die lange Zugehörigkeit zu Preußen und den „uckermärkischen Zipfel“ um Strasburg auch mark-brandenburgische Dialekte, die dem Berliner Dialekt nahe sind. Theater und Museen. Die größten öffentlichen Theater des Landes sind das Mecklenburgische Staatstheater Schwerin, das Volkstheater Rostock, das Theater Vorpommern mit Spielstätten in Greifswald, Stralsund und Putbus und die Neustrelitz mit Spielstätten in Neubrandenburg und Neustrelitz. Alle vier Theater bieten sowohl Schauspiel als auch Musiktheater und Orchestermusik. Weitere wichtige Theater sind das Ernst-Barlach-Theater in Güstrow, das Mecklenburgische Landestheater Parchim, die Vorpommersche Landesbühne Anklam und das Theater Wismar. Zudem gibt es viele saisonale Theater und Freilichtbühnen an der Ostseeküste und in Künstlerdörfern und Kurorten. Die Störtebeker-Festspiele finden seit 1993 in Ralswiek auf der Insel Rügen statt. Sie sind Deutschlands erfolgreichstes Freilichttheater. Auch die Vineta-Festspiele auf Usedom und das Piraten-Open-Air in Grevesmühlen sind über die Landesgrenzen hinaus bekannt. Bemerkenswerte Museen in MV sind zum Beispiel das Staatliche Museum Schwerin, das Pommersche Landesmuseum in Greifswald und das Phantechnikum in Wismar. Das Darwineum im Rostocker Zoo verbindet museale Erlebnis-Ausstellung mit zoologischer Sammlung. Das Deutsche Meeresmuseum mit dem Ozeaneum und dem Nautineum in Stralsund ist das meistbesuchte Museum in Norddeutschland. Das Müritzeum in Waren (Müritz) bietet Europas größte Süßwasseraquarien für heimische Fischarten. Weiterhin sind das Deutsche Bernsteinmuseum in Ribnitz-Damgarten, das Kunstmuseum Ahrenshoop, das Regionalmuseum Neubrandenburg und die Kunsthalle Rostock von überregionaler Bedeutung. Das älteste Museum Mecklenburg-Vorpommerns ist das Stralsunder Kulturhistorische Museum, das kleinste das Bildhauermuseum Prof. Wandschneider in Plau am See. Auch die Freilichtmuseen im Land sind beliebte Besuchsziele, z. B. in Groß Raden, Klockenhagen und Schwerin-Mueß, die Slawendörfer Passentin und Neustrelitz, das Steinzeitdorf Kussow, das Hanse-Viertel in Demmin sowie das Torgelower Ukranenland. Zu besichtigen sind auch viele der mehr als 2000 Schlösser, Burgen und Gutshäuser im Land – einige von ihnen werden als Museen geführt, neben den Herzogsresidenzen z. B. die Burgen in Burg Stargard, Penzlin, Plau und Neustadt-Glewe, oder auch das Jagdschloss Granitz auf Rügen und das Barockschloss Bothmer zwischen Wismar und Lübeck. Veranstaltungen. Alle zwei Jahre findet der MV-Tag als offizielles Landesfest statt, im Juni 2016 in der mecklenburgischen Residenzstadt Güstrow. Seit 1990 findet jeweils am ersten Oktoberwochenende an wechselnden Orten das alljährliche Erntedankfest des Landes statt. Höhepunkt sind die Festlichkeiten am Sonntag mit ökumenischem Gottesdienst, Festumzug und Übergabe der Erntekrone. Das 25. Landeserntedankfest wurde im Jubiläumsjahr am 4. Oktober 2015 in Semlow gefeiert, Brüsewitz ist 2016 der Austragungsort. Die jährlich im Sommer stattfindenden „Festspiele Mecklenburg-Vorpommern“ sind ein Festival für klassische Musik. Die Festspielorte sind über das ganze Bundesland verteilt, häufig in Gutshäusern, Schlössern, Kirchen, Scheunen und auch in Parks. An der Ostseeküste und an den Seen gibt es kleinere Festspiel-Reihen, die mit Musik und Theater das kulturelle Angebot in den Urlaubsorten ergänzen, so z. B. der Schönberger Musiksommer und das Usedomer Musikfestival im Herbst. Sie sind wie die Festspiele Teil der Veranstaltungsreihe „Musikland MV“. Eine Veranstaltung für junge Kunst ist das Fusion Festival auf dem Flugplatz Lärz südlich der Müritz. Es findet seit 1997 jährlich statt und ist ein Schaufenster für alternative Musik, Kunst und Theater. "Sportveranstaltungen werden im Abschnitt Sport behandelt." Feiertage. Neben den bundesweit gültigen Feiertagen Neujahr, Karfreitag, Ostern, Tag der Arbeit, Christi Himmelfahrt, Pfingsten, Tag der Deutschen Einheit und Weihnachten ist in Mecklenburg-Vorpommern der Reformationstag ein gesetzlicher Feiertag. Zum 500-jährigen Reformationsjubiläum im Jahr 2017 sind in vielen Orten Feierlichkeiten angedacht. Seit dem Jahr 2002 ist der 8. Mai im Land Mecklenburg-Vorpommern staatlicher Gedenktag, als Tag der Befreiung vom Nationalsozialismus und der Beendigung des Zweiten Weltkrieges. Münzen. Seit 2006 erscheinen jährlich 2-Euro-Gedenkmünzen mit einem Motiv des Landes, das den Präsidenten des Bundesrates stellt. 2007 war dies Mecklenburg-Vorpommern, somit wurden rund 30 Millionen 2-Euro-Münzen mit dem Schweriner Schloss als Motiv geprägt, die als offizielles Zahlungsmittel im Umlauf sind. Medien. Die Medienanstalt Mecklenburg-Vorpommern (MMV) ist das rechtsgültige Organ gemäß dem Landesrundfunkgesetz, das zur Entwicklung von Funk und Fernsehen beiträgt und die Aktivitäten privater und offener Medienstationen überwacht, sowie Rundfunklizenzen ausschreibt. Seit 2006 wird durch sie der "Medienkompetenzpreis" verliehen, mit dem herausragende Leistungen von engagierten Erwachsenen und Kindern gewürdigt werden. Printmedien/Zeitungen. Die auflagenstärksten regionalen Tageszeitungen sind die "Ostsee-Zeitung", die "Schweriner Volkszeitung" mit ihrer Rostocker Lokalausgabe, die "Norddeutschen Neuesten Nachrichten", und der "Nordkurier". Keine der Zeitungen besitzt eine eigene Vollredaktion. Daneben gibt es verschiedene regionale Anzeigenblätter wie den "Blitz". Radio. Radio steht zum analogen und digitalen Empfang zur Verfügung. Es gibt auch diverse "Offene Kanäle", auch bekannt als "Bürgerfunk" oder Bürgerrundfunk. Internetradio. Zu den Webradios aus Mecklenburg-Vorpommern zählen in alphabetischer Reihenfolge: "Ostseemelodie" aus Schwerin, "Radio Hagenow", "Radio MSP" aus Neustrelitz, "Radio Nordland" aus Leopoldshagen und "Webradio Powerplay" aus Rostock. Daneben verfügen die meisten terrestrisch verbreiteten Radiostationen über Streams, die auf den jeweiligen Internetpräsenzen übertragen und empfangen werden können. Fernsehen. Es können alle öffentlich-rechtlichen und privaten Fernsehsender über Kabel und Satellit empfangen werden. Einige öffentlich-rechtliche Sender werden zudem terrestrisch über DVB-T ausgestrahlt. Das NDR Fernsehen ist der überregionale TV-Sender des Norddeutschen Rundfunks, der neben Hamburg, Schleswig-Holstein, Niedersachsen und Bremen auch Mecklenburg-Vorpommern mit regionalen Informationen versorgt. Das Landesprogramm des NDR Fernsehens ist das Nordmagazin. Im September 2012 ging mit MV1 das erste landesweite Privatfernsehen auf Sendung. Film. Mecklenburg-Vorpommern ist ein beliebtes Panorama für deutsche und internationale Filmproduktionen. Die Filmland M-V gGmbH ist der Ansprechpartner und zugleich Koordinator für die Filmbranche. Das Land Mecklenburg-Vorpommern fördert durch die Verleihung des "Medienkompetenzpreises" beim FiSH u. a. junge Filmproduktionen. Das Filmkunstfest Mecklenburg-Vorpommern ist das wichtigste Filmfest des Landes und ist eines der größten Publikumsfestivals Deutschlands, bei dem der Fliegende Ochse als Hauptpreis verliehen wird. Bekannte Schauspieler aus Mecklenburg-Vorpommern sind u. a. Matthias Schweighöfer (gebürtiger Anklamer), Nadja Uhl (Stralsunderin), Charly Hübner (Neustrelitzer), Katrin Sass (Schwerinerin), David C. Bunners (Neubrandenburger), Tim Wilde (Stralsunder), Jule Böwe (Rostockerin), Devid Striesow (Rüganer), Hinnerk Schönemann (Rostocker) und Anne-Catrin Märzke (Parchimerin). Ein Filmklassiker ist der 1922 veröffentlichte Horrorfilm "Nosferatu – Eine Symphonie des Grauens", in dem der Hauptort durch Wismar dargestellt wird. Die Insel Usedom diente dem Loriot-Film Pappa ante Portas als Kulisse. Die Fernsehserien "Ein Bayer auf Rügen" und "Hallo Robbie!" machten das Land und die Insel Rügen in ganz Deutschland bekannt. Der mit der Goldenen Palme prämierte Kinofilm Das weiße Band von 2009 spielt zum Teil in MV, ebenso wie der vielfach ausgezeichnete Thriller "Der Ghostwriter" von 2010. Im Sat.1-Fernsehfilm "Die Grenze" von 2010 spaltet sich Mecklenburg-Vorpommern, inzwischen von radikalen Linken regiert, von der Bundesrepublik Deutschland ab und existiert als „Demokratische Sozialistische Republik Mecklenburg-Vorpommern“ als unabhängiger Staat weiter. Auch die Filme "Die Gustloff" und "Die Jagd nach dem Schatz der Nibelungen" spielen zum Teil an Standorten in Mecklenburg und Vorpommern. Darüber hinaus gibt es zahlreiche Krimi-Filme und -Reihen, die Schauplätze in Mecklenburg-Vorpommern verwenden, u. a. der "Polizeiruf 110" aus Rostock, der ZDF-Samstagskrimi aus Stralsund, "Mörderhus" von der Insel Usedom und "SOKO Wismar". Sport. Der Landessportbund Mecklenburg-Vorpommern mit Sitz in Schwerin ist seit 1990 der Dachverband des organisierten Sports in Mecklenburg-Vorpommern. Die Sportjugend MV ist seine Jugendorganisation. Das Land hat eine Reihe von Weltmeistern und Olympiasiegern in verschiedenen Sportarten hervorgebracht, etwa die erfolgreichen Fußballvereins- und Nationalspieler Toni Kroos und Tim Borowski, die Radfahrer Jan Ullrich und André Greipel, den Triathleten Andreas Raelert, sowie Sportler des SC Neubrandenburg wie den Kanuten Andreas Dittmer, die Kugelstoßerin Astrid Kumbernuss und die Sprinterin Katrin Krabbe. Der FC Hansa Rostock spielte über 13 Jahre in der 1. Fußball-Bundesliga und ist die bislang erfolgreichste Mannschaft aus dem ehemaligen Ostteil Deutschlands. Daneben hat das Land u. a. erfolgreiche Sportler und Vereine im Volleyball, Handball, Reiten, Motorsport, im Boxen und in weiteren Sportarten vorzuweisen. Historisch wirkte im Land u. a. Friedrich Ludwig Jahn, 1802 bis 1804 Sport- und Hauslehrer in Neubrandenburg und späterer Begründer der Turnbewegung. Der TSV 1814 Friedland ist der älteste Sportverein Deutschlands. Ballsportarten. Der FC Hansa Rostock spielt in der 16 in der 3. Liga im Profifußball. In der 16 spielen zudem die TSG Neustrelitz und der FC Schönberg in der Regionalliga („4. Liga“). In der Oberliga Nordost spielen 16 der Malchower SV, der 1. FC Neubrandenburg 04, Hansa Rostock II und der FC Anker Wismar. Der Landesfußballverband MV organisiert die Verbandsliga MV und richtet alljährlich den MV-Pokal aus, der Sieger nimmt am DFB-Pokal teil. Im Beachsoccer (Strandfußball) sind die "Rostocker Robben" erfolgreich, sie wurden 2014 erster Landesmeister bei der MV-Beachsoccer-Tour und gewannen mehrere deutsche und internationale Turniere. Seit 2013 findet in Rostock-Warnemünde der bundesweite DFB-Beachsoccer-Cup statt. Zudem gibt es im Land Hallenfußball nach den Regeln des Futsal. Die Volleyballmannschaft des Schweriner SC ist in der 1. Frauen-Bundesliga vertreten und zehnfacher deutscher Meister, zuletzt 2013. Die Frauen des 1. VC Stralsund und des Schweriner SC II spielen in der Zweiten Frauen-Bundesliga Nord. Der jährliche Usedom-Beachcup ist einer der weltweit größten Wettkämpfe im Beachvolleyball. Der HC Empor Rostock spielt in der 2. Handball-Bundesliga, der HSV Insel Usedom, der Stralsunder HV und SV Mecklenburg Schwerin spielen in der 3. Liga Nord. Im Basketball spielen die Rostock Seawolves in der Saison 2015/16 in der 2. Bundesliga, der ProB. Die Eishockeymannschaft Rostock Piranhas spielt seit der Saison 2010/2011 in der Eishockey-Oberliga Nord (3. Liga). Im Hallenhockey ist das jährliche Höcker-Turnier in Güstrow von bundesweiter Bedeutung. Golf erfreut sich zunehmender Beliebtheit, vor allem durch die Schaffung neuer Plätze auch für Anfänger. Der Golfverband Mecklenburg-Vorpommern hatte 2011 rund 13.500 Mitglieder, darunter fast die Hälfte aus anderen Bundesländern. Bedeutende Turniere finden u. a. auf dem "WINSTONopen" in Vorbeck bei Schwerin statt. Das Team UWR 071 Rostock spielt seit der Saison 2013/14 in der 1. Bundesliga Nord im Unterwasserrugby. Der Demminer Radballverein spielte von der Saison 2008/2009 bis 2014 in der 2. Radball-Bundesliga. Im Tischtennis richtet der TTSV 90 Neubrandenburg alljährlich das „Tischtennis-Turnier der Tausend“ aus. Die DBU koordiniert den Bereich Billard, hat im Frühjahr 2015 jedoch keinen MV-Landesverband. Wassersport. An der Ostseeküste und auf den zahlreichen kleineren Gewässern wird Segelsport betrieben. Auf den meisten größeren Gewässern werden Regatten abgehalten. Große jährliche Sportereignisse um den Segelsport sind die Hanse Sail und die Warnemünder Woche in Rostock. In Stralsund findet jeden Sommer das "Hafenfest" statt, in Wismar gibt es die "Hafentage" und in Sassnitz auf Rügen "Sail Sassnitz". In Ueckermünde wird jährlich die "Haff Sail" ausgerichtet. Im Binnenland ist die Müritz Sail in Waren populär, auf dem Tollensesee in Neubrandenburg wird um das „blaue Band“ gesegelt. Der Segler-Verband Mecklenburg-Vorpommern mit Sitz in Rostock-Warnemünde betreut die meisten örtlichen Segelvereine. Der Surfsport ist sowohl an der Außenküste von Mecklenburg-Vorpommern beliebt, als auch an den ruhigeren Buchten und Binnenseen, vor allem in Form von Windsurfen und Kitesurfen. 52 Surfspots sind mittlerweile im Land etabliert, zudem zahlreiche Surfschulen. Der Paddelsport ist im ganzen Land populär – Kanu-, Kajak- und Drachenbootvereine sind überall präsent. Auch die Trendsportart Stehpaddeln erfreut sich zunehmender Beliebtheit. Der Landeskanuverband MV hat seinen Sitz in Neubrandenburg. Dort findet auch alljährlich die Outrigger-Regatta im Kanusport statt. Beim Stralsunder Sundschwimmen wird alljährlich von über tausend Schwimmern der Strelasund durchschwommen. Das Müritzschwimmen ist ein Wettbewerb, der seit 1969 ausgetragen wird. Der Schwimmverband MV ist in Rostock angesiedelt und betreut neben den Schwimmern auch die Wasserspringer und Wasserballer. Weitere Sportarten. Im Motorsport sind jährlich wiederkehrende Höhepunkte das "Internationale Bergringrennen" auf dem Teterower Bergring zu Pfingsten, mit dem abendlichen Speedwayrennen um den Auerhahn-Pokal in der Bergring-Arena, das internationale "Speedwayrennen um den Pfingstpokal" in Güstrow im "Stadion an der Plauer Chaussee" und in Stralsund die Speedway-Bundesliga und der Internationale Speedway-Ostseepokal. Die jährlichen Stockcar-Rennen im „Hexenkessel“ von Grimmen, sowie in Sanitz (Wendorf) und Stavenhagen („Basepohler PS-Hölle“) erfreuen sich großer Beliebtheit bei Startern und Zuschauern. Im Motoball („Motorrad-Fußball“) sind der "MSC Kobra Malchin" und der MSC Jarmen erfolgreich. Eine Wettbewerbsrallye ist der sommerliche "ADAC Rallyesprint „Rund um den Bergring“" in Teterow. Oldtimerrallyes finden im ganzen Land statt, populär sind u. a. die "Kaiser Classic Tour" über die Insel Usedom, die über Rügen führende "Rügenclassics" und die von vielen Old- und Youngtimer-Fahrern genutzte "ADAC Sunflower Rallye". Der Landes-Motorsport-Fachverband MV (LMFV) mit Sitz in Rostock koordiniert vor allem die Aktivitäten in den Bereichen Motorrad- und Kartsport. Zu den populärsten Kampfsportarten in MV zählen Boxen und Kickboxen, Judo, Jiu Jitsu und Karate. Der Boxverband MV hat über 1.500 Mitglieder, die "Karateunion Mecklenburg-Vorpommern" zählt 37 Mitgliedsvereine. Einige bekannte Boxweltmeister kommen aus dem Land, dazu gehören Sebastian Sylvester und Jürgen Brähmer. Der wohl berühmteste deutsche Boxer, Max Schmeling († 2005), wurde 1905 im damals uckermärkischen Klein Luckow geboren, das später zum Landesgebiet Mecklenburg-Vorpommerns kam. Bekannt sind auch die Boxtrainer Fritz Sdunek (1947–2014) und Michael Timm. Der Reitsport spielt in Mecklenburg-Vorpommern eine große Rolle und hat eine lange Tradition. Das Landgestüt Redefin ist für seine Hengstzüchtungen und die dortigen Paraden und Ausbildungen weltbekannt. Die Ostseerennbahn in Bad Doberan ist die älteste auf dem europäischen Festland. Der Pferdesportverband MV hat seinen Sitz in Rostock. Der Radsport ist in allen Altersgruppen populär. In Rostock gibt es eine Radrennbahn von 250 Metern Länge. Die Mecklenburger Seen-Runde mit Start- und Zielpunkt in Neubrandenburg wurde 2014 erstmals unter großer Beteiligung veranstaltet und soll in den Folgejahren als europäisches Radrennen etabliert werden. Der Rügenbrückenlauf mit Marathon führt die Teilnehmer alljährlich über die Rügenbrücke. Weitere populäre Marathonstrecken führen durch Rostock, um die Müritz, um den Tollensesee, über Usedom, den Darß und am Stettiner Haff entlang. Luftsport ist vor allem außerhalb der Wintermonate populär, z. B. Kunstflug, Ultraleichtfliegen, Paragleiten und Drachensport. Neben den größeren Flugplätzen gibt es zahlreiche kleine Fliegerhorste und Segelfluggelände, bei denen Übungsstunden absolviert werden können. Der Luftsportverband MV organisiert u. a. die jährliche "Flugrallye" und die "Deutsche Meisterschaft im Motorflug" am Flughafen Neubrandenburg. Literatur. Um eine vollständige Übersicht landeskundlicher Literatur bemüht sich die Landesbibliographie MV. Mikrocontroller. Als Mikrocontroller (auch µController, µC, MCU) werden Halbleiterchips bezeichnet, die einen Prozessor und zugleich auch Peripheriefunktionen enthalten. In vielen Fällen befindet sich auch der Arbeits- und Programmspeicher teilweise oder komplett auf demselben Chip. Ein Mikrocontroller ist ein Ein-Chip-Computersystem. Für manche Mikrocontroller wird auch der Begriff System-on-a-Chip oder SoC verwendet. Auf modernen Mikrocontrollern finden sich häufig auch komplexe Peripheriefunktionen wie z. B. CAN- (Controller Area Network), LIN- (Local Interconnect Network), USB- (Universal Serial Bus), I²C- (Inter-Integrated Circuit), SPI- (Serial Peripheral Interface), serielle oder Ethernet-Schnittstellen, PWM-Ausgänge, LCD-Controller und -Treiber sowie Analog-Digital-Umsetzer. Einige Mikrocontroller verfügen auch über programmierbare digitale und/oder analoge bzw. hybride Funktionsblöcke. Mikrocontroller im Keramikgehäuse mit Quarzglasfenster Einsatzbereiche. Der Mikrocontroller tritt in Gestalt von eingebetteten Systemen im Alltag oft unbemerkt in technischen Gebrauchsartikeln auf, zum Beispiel in Waschmaschinen, Chipkarten (Geld-, Telefonkarten), Unterhaltungselektronik (Videorekordern, CD-/DVD-Spieler, Radios, Fernsehgeräten, Fernbedienungen), Büroelektronik, Kraftfahrzeugen (Steuergeräte für z. B. ABS, Airbag, Motor, Kombiinstrument, ESP usw.), Mobiltelefonen und sogar in Uhren und Armbanduhren. Darüber hinaus sind sie in praktisch allen Computer-Peripheriegeräten enthalten (Tastatur, Maus, Drucker, Monitor, Scanner uvm.). Mikrocontroller sind in Leistung und Ausstattung auf die jeweilige Anwendung angepasst. Daher haben sie gegenüber „normalen“ Computern deutliche Vorteile bei den Kosten und der Leistungsaufnahme. Kleine Mikrocontroller sind in höheren Stückzahlen für deutlich unter 1 € verfügbar. Im künftigen Internet der Dinge spielen Mikrocontroller eine große Rolle. Ein Beispiel ist die Hardwareplattform Tinkerforge. Abgrenzung zu Mikroprozessoren. Rockwell R6511 Mikrocontroller, basierend auf dem 6502 Die Grenze zwischen Mikrocontrollern und Mikroprozessoren ist fließend, was sich auch darin zeigt, dass oft nach einiger Zeit auch Mikrocontroller-Varianten einer neuen Mikroprozessor-Architektur erschienen sind. Im einfachsten Fall geschieht dies, indem die bei einem klassischen Mikroprozessor als Unterstützungs- und Peripheriebausteine realisierten Komponenten wie Takt- und Reset-Erzeugung, Interruptcontroller, Zeitgeber, Schnittstellenbaustein und zum Teil auch Speichercontroller in den Chip selbst integriert werden, so dass für ein funktionsfähiges Prozessorsystem oft nur noch ein Quarz (für den Takt) und Speicherbausteine nötig sind. Typische Vertreter dieser Gattung sind z. B. der Intel 80186 (vom 8086 abgeleitet), die XScale-Familie (ARM) sowie ColdFire (MC680xx) von Freescale (vormals Motorola). Diese Controller-Baureihen werden oft auch noch dann weitergeführt, wenn die betreffende Mainstream-CPU schon längst nicht mehr produziert wird (z. B. 6502, MC680xx). Teilweise werden Mikrocontroller auch als Bestandteil eines Multi Chip Modules (MCM) verwendet. Das geschieht meistens dann, wenn verschiedene Halbleiterprozesse kombiniert werden sollen, die sich schlecht oder gar nicht auf einem Chip kombinieren lassen. Beispiele dafür sind Kombinationen von Mikrocontrollern mit Hochfrequenzschaltungen für Funkverbindungen (z. B. Atmel, Cypress, Microchip stellen solche MCMs her), mit Leistungselektronik (z. B. Freescale, ST) oder mit Flash-ROM in dessen Anfangszeiten (z. B. Micronas Intermetall). Teilweise wird die Lösung mit einem MCM auch benutzt, wenn bereits vorhandene Chips miteinander kombiniert werden sollen, aber der Aufwand für einen Neuentwurf vermieden werden soll. Beispiele dafür sind Kombinationen mit Netzwerkcontrollern, bzw. den Anschlusstreibern für Netzwerke (PHY) oder LCD-Controllern. Demgegenüber gibt es aber auch „klassische“ Mikrocontrollerarchitekturen, die von Anfang an nicht als reines Mikroprozessorsystem gedacht waren, sondern primär auf Steuerungsaufgaben zielten. Diese zeichnen sich z. B. dadurch aus, dass mit ihnen auch ein Single-Chip-Betrieb völlig ohne externe Speicherbausteine möglich ist, ebenso wie der Befehlssatz der CPU meist spezialisierte Befehle für das Steuern einzelner Signalleitungen (mittels sogenannter Bitmanipulationen) bietet. Ebenfalls wichtig ist für solche Controller eine möglichst kurze Interrupt-Latenzzeit, also die Zeitspanne, die der Controller braucht, um auf die Unterbrechungsanforderung einer Signalquelle (Zeitgeber, Peripheriebaustein etc.) zu reagieren. Typische Vertreter dieser Gattung sind z. B. der 8051 von Intel sowie der C166 von Siemens (heute Infineon) und Infineon TriCore. Zur Funktionsüberwachung von Mikrocontrollersteuerungen werden in der Regel so genannte Watchdog-Schaltungen eingesetzt, die teilweise aber auch schon in den Mikrocontroller integriert sind. Diese Trennung fand beim Intel 8085 statt – danach gab es die reinen Datenverarbeiter (Mikroprozessor; z. B. 8086-Familie) und die Datenübersetzer (Mikrocontroller; z. B. 8048, 8051) als Schnittstelle zwischen der Hardware und dem zentralen Mikroprozessor. Mikrocontroller können auch eine passive Bus-Schnittstelle haben (z. B. 8041A, eine Variante des 8048) – aus Sicht des Mikroprozessors wie ein Peripherie-Chip. Ob TV, VHS-Recorder, Röntgengerät, Auto oder PC, überall gibt es heute die Arbeitsteilung zwischen diesen beiden Typen. Durch die Einführung der Busse (K-Bus, CAN-Bus, LIN, FlexRay) kann sich der zentrale Prozessor völlig auf die Auswertung der Message (Telegramm) konzentrieren – z. B. „Taster Handbremse_Ein gedrückt“. Nur der zuständige Controller kennt das Ereignis in der Hardware oder auf einem untergeordneten Bus, das zur Entstehung dieser Message führte. Sendet der Prozessor nun eine Message, z. B. „Handbremse lösen“, wird der Controller die Hardware entsprechend ansteuern bzw. den untergeordneten Bus informieren. Allerdings sind heutige Controller auch schon so rechenstark, dass sie oft auch ohne einen übergeordneten Mikroprozessor auskommen und alle anfallenden Aufgaben selbst komplett bewältigen können. Architekturen. Die Anzahl der verbauten Mikrocontroller überschreitet bei weitem die Zahl der Mikroprozessoren. Die überwiegende Mehrzahl der verwendeten Mikrocontroller basiert auf 8-Bit-Prozessoren, deren grundlegende Architektur teilweise noch aus der ersten Hälfte der 1970er Jahre stammt. Es gibt jedoch auch 4-, 16- und 32-Bit-Mikrocontroller. Mengenmäßig sind auch die 4-Bit-Mikrocontroller nach wie vor stark vertreten, da sie aufgrund ihres einfachen Aufbaus entsprechend billig herzustellen sind und für einfache Aufgaben, wie z. B. Uhren, ausreichen. 8- und 16-Bit-Mikrocontroller sind mittlerweile dabei, Marktanteile an die 32-Bit-Mikrocontroller zu verlieren. Der Grund ist, dass in modernen Halbleiterprozessoren zwischen 8 und 16 und 32 Bit kein sehr großer Unterschied im Fertigungsaufwand mehr liegt, der Leistungsvorteil der 32-Bit-Mikrocontroller aber erheblich ist. Allerdings benötigen 8- und 16-Bit Mikrocontroller weniger Transistoren, was dazu führt, dass sie, sofern sie auf einem modernen Prozessordesign mit Stromsparmechanismen basieren, meist sparsamer als die 32-Bit-Mikrocontroller sind. Viele der heute eingesetzten Mikrocontroller basieren auf Prozessorkernen, die zuvor als Mikroprozessoren eingesetzt wurden. Bei den 8- und 16-Bit-Mikrocontrollern werden die Mikroprozessoren mittlerweile meist nicht mehr hergestellt. Es gibt aber auch Mikrocontrollerkerne, die nicht als Mikroprozessor gefertigt wurden, wie Atmel AVR, PIC-Mikrocontroller, Silicon Labs EFM8 oder EFM32, TI MSP430, Infineon TriCore, XMC4000, XMC1000, XE166, XC800, Aurix und weitere. Benutzte Programmspeicher. a>) mit externem EPROM (oben) auf einem fest integrierten Sockel und integrierter Schnittstellenlogik. Die in Mikrocontrollern eingesetzten Speichertypen haben sich im Laufe der Jahre geändert und hängen teilweise auch von der Architektur und wirtschaftlichen Gesichtspunkten ab. In der Anfangszeit der Mikrocontroller, und auch heute noch bei den 4-Bit-Architekturen, gab es fast ausschließlich ROM-Speicher. Software für solche Mikrocontroller muss mit entsprechenden Entwicklungssystemen erstellt werden, die eine Simulation des Mikrocontrollers erlauben und meist über einen In-Circuit-Emulator verfügen. Die so erstellte Software wird dann an den Hersteller des Mikrocontrollers übermittelt, der dann die Chips im Fertigungsprozess mit dieser Software versieht. Meist geschieht das bei der Aufbringung der letzten Metalllage auf den Chip (der letzten „Maske“, daher auch „maskenprogrammierte Mikrocontroller“). Nachteilig bei diesem Verfahren ist die geringe Flexibilität, da bei einer Änderung der Software eine Verzögerung von mehreren Wochen oder sogar Monaten auftritt. Für kleinere Projekte ist diese Technik gar nicht einsetzbar, da die meisten Hersteller Mindestbestellmengen von 20.000 Chips vorsehen. Zudem ist die Fehleranfälligkeit hoch, da die Software nicht auf dem endgültigen Chip, sondern nur mithilfe des Entwicklungssystems getestet werden konnte. Demgegenüber steht der günstigere Preis der Chips, da der Fertigungsprozess für ROM-Speicher etwas einfacher ist als der für programmierbare Speicher und natürlich der Wegfall des Programmierens als Fertigungsschritt. Aus diesem Grund werden heute noch bei Produkten mit sehr großen Stückzahlen und dadurch niedrigen Stückpreisen fast ausschließlich Varianten mit ROM-Speicher eingesetzt. Um den Entwicklungsprozess zu vereinfachen und Projekte mit kleinen Stückzahlen zu ermöglichen, erschienen in der zweiten Hälfte der 1970er Jahre Mikrocontroller auf dem Markt, die EPROMs (Erasable Programmable Read Only Memory) verwendeten. Bei diesen Mikrocontrollern konnte der Programmspeicher mit einem entsprechenden Programmiergerät beschrieben werden und durch UV-Licht wieder gelöscht werden. Damit stand ein wesentlich preisgünstigeres Entwicklungswerkzeug zur Verfügung, das außerdem einen sehr praxisnahen Test erlaubte. Zusätzlich wurden damit auch Projekte mit kleineren Stückzahlen möglich. Besonders durch das aufwändige Keramikgehäuse mit eingelassenem Quarz-Fenster für das Löschen des EPROM-Speichers waren diese Chips allerdings gegenüber den ROM-Versionen deutlich teurer. Aufgrund der zunehmenden Verwendung der EPROM-basierten Mikrocontroller wurden dann in den 1980er Jahren auch Chips verfügbar, die in einem Kunststoffgehäuse ohne Fenster montiert sind, also nach dem Programmieren nicht mehr durch UV-Licht gelöscht werden können. Diese auch OTP (One Time Programmable – einmal programmierbar) genannten Mikrocontroller sind preislich den ROM-Versionen relativ nahe. Die größere Flexibilität und der Wegfall der Startkosten (für ROM-Versionen berechnet der Hersteller einmal anfallende Werkzeugkosten für jede neue Softwareversion) führt dazu, dass bei zahlreichen Schaltungen auch bei größeren Stückzahlen diese OTP-Chips eingesetzt werden. Mittlerweile dominiert bei neuen Mikrocontrollern und kleineren Stückzahlen bzw. in der Entwicklungsphase Flash-Speicher als Programmspeicher. Da dieser direkt elektrisch löschbar und wiederbeschreibbar ist, entfällt das aufwändige Keramikgehäuse, und der Speicher kann im Herstellungsprozess komplett getestet werden. Bei wirklich großen Stückzahlen ist weiterhin der Kostenvorteil der ROM-Version wirksam. Die heute eingesetzten Mikrocontroller sind eine Mischung aus diesen Techniken. Einerseits sind die Anforderungen der jeweiligen Anwendung ein Faktor (ROM kann z. B. bei extremen Temperaturanforderungen der einzig ausreichend stabile Speicher sein, EPROM hat hier noch Vorteile gegenüber Flash), andererseits sind viele der Mikrocontroller schon lange Zeit auf dem Markt. Typische Speichergrößen heutiger Mikrocontroller liegen zwischen 1 kByte und 2 MB für das Programm und zwischen 32 Bytes und 48 kByte für die Daten. Das erwähnte RAM ist dabei intern gemeint, während für den ROM-Teil sowohl interne als auch externe Lösungen vorkommen. Viele Modelle können aber auch wesentlich größeren externen Speicher ansprechen. Programmierung. Mikrocontroller werden meist in den Programmiersprachen Assembler oder C programmiert. Andere Sprachen wie BASIC, Pascal, Forth, Ada oder C++ werden ebenfalls eingesetzt. Im Hobbybereich haben sich für bestimmte Mikrocontroller-Typen auch eigene, speziell entworfene Sprachen (wie beispielsweise JAL für die PICmicro-Familie von Microchip Technology) etablieren können. Wie schon bei den Programmspeichern hängt auch die eingesetzte Programmiersprache mit von Architektur, Anwendungsziel und -anforderungen ab. Für 4-Bit-Architekturen wird praktisch ausschließlich Assembler verwendet, da nur die wenigsten Compiler die knappen Ressourcen dieser kleinsten Mikrocontroller effektiv nutzen können. Auch bei den 8-Bit-Architekturen wird häufig Assembler eingesetzt, um möglichst hohe Effizienz und Code-Dichte zu erreichen; bei Projekten, die vergleichsweise wenig der zur Verfügung stehenden μC-Ressourcen in Anspruch nehmen oder in kleineren Stückzahlen produziert werden, ist es zunehmend üblich, Hochsprachen zu verwenden, um Entwicklungsaufwand zu sparen. So werden 16- und 32-Bit-Architekturen überwiegend in Hochsprachen programmiert. Die am häufigsten eingesetzte Hochsprache für Mikrocontroller ist C, da hier auch ein sehr hardwarenahes Programmieren einfach möglich ist. Forth hatte in den 1980er Jahren eine gewisse Bedeutung, da es einen sehr kompakten und schnellen Code erlaubt. Dafür hat es aber eine gewöhnungsbedürftige Syntax und führt deswegen mittlerweile eher ein Schattendasein. Andere Hochsprachen für die Programmierung von Mainstream-Applikationen haben generell relativ wenig Bedeutung für die Programmierung von Mikrocontrollern, die Programmiersprache Ada hingegen wird primär in militärischen Anwendungen und in anderen sicherheitskritischen Bereichen mit hohen Anforderungen an die Sicherheit und das Laufzeitverhalten von Software (wie bspw. Avionik in Luft-/Raumfahrzeugen) eingesetzt. Relativ neu sind Entwicklungswerkzeuge, die den rein grafischen Entwurf von Software für Mikrocontroller zulassen. LabVIEW von National Instruments erlaubt die Erzeugung von ausführbarem Code für einige Controller und Cypress verfolgt seit einiger Zeit mit dem Werkzeug PSoCexpress das Ziel, zumindest die Realisierung von einfacheren Steuerungsanwendungen mit den PSoC-Mikrocontrollern ohne Programmierkenntnisse zu ermöglichen. Eine Besonderheit stellen einige Mikrocontroller dar, die einen Hochspracheninterpreter im Chip haben. Zu den ersten Bausteinen dieser Gattung gehörte u. a. ein Derivat des 8052 mit der Bezeichnung 8052AH, das als "8052AH-BASIC" mit einem BASIC-Interpreter im 8 kByte großen ROM ausgeliefert wurde, und der auf dem 6502-Prozessor basierende Rockwell R65F11/R65F12, der einen Forth-Interpreter im internen ROM hatte. Dadurch genügt ein beliebiger Rechner mit einer seriellen Schnittstelle und einem Terminalprogramm zur Programmierung einer solchen Lösung, es muss kein separater (oft auch teurer) Hochsprachencompiler angeschafft werden. Ähnliche Produkte werden heute auch von anderen Herstellern basierend auf herkömmlichen Mikrocontrollern angeboten, aktuell sind aber keine derartigen Produkte direkt von Chipherstellern bekannt. Sowohl bei Hobbyisten als auch bei professionellen Anwendern mit kleinen Stückzahlen (z. B. im Prüfmittelbau und für Labortests) erfreuen sich Mikrocontrollermodule, die in Basic oder Forth programmierbar sind, großer Beliebtheit wegen ihrer einfachen Handhabung. Mustererkennung. Mustererkennung ist die Fähigkeit, in einer Menge von Daten Regelmäßigkeiten, Wiederholungen, Ähnlichkeiten oder Gesetzmäßigkeiten zu erkennen. Dieses Leistungsmerkmal höherer kognitiver Systeme wird für die menschliche Wahrnehmung von Kognitionswissenschaften wie der Wahrnehmungspsychologie erforscht, für Maschinen hingegen von der Informatik. Typische Beispiele für die zahllosen Anwendungsgebiete sind Spracherkennung, Texterkennung und Gesichtserkennung, Aufgaben, die die menschliche Wahrnehmung andauernd und offensichtlich mühelos erledigt. Die elementare Fähigkeit der Klassifizierung ist jedoch auch der Grundstein von Begriffsbildung, Abstraktion und (induktivem) Denken und damit letztlich von Intelligenz, sodass die Mustererkennung auch für allgemeinere Gebiete wie die Künstliche Intelligenz oder das Data-Mining von zentraler Bedeutung ist. Mustererkennung beim Menschen. Diese Fähigkeit bringt Ordnung in den zunächst chaotischen Strom der Sinneswahrnehmungen. Mit Abstand am besten untersucht wurde die Mustererkennung bei der visuellen Wahrnehmung. Ihre wichtigste Aufgabe ist die Identifikation (und anschließende Klassifizierung) von Objekten der Außenwelt (s. Objekterkennung). In der Wahrnehmungspsychologie unterscheidet man zwei Hauptansätze zur Erklärung der Mustererkennung: die „Schablonentheorien“ ("template theories") und die „Merkmalstheorien“ ("feature theories"). Die Schablonentheorien gehen davon aus, dass wahrgenommene Objekte mit bereits im Langzeitgedächtnis abgelegten Objekten verglichen werden, während die Merkmalstheorien auf der Annahme beruhen, dass wahrgenommene Objekte analysiert und anhand ihrer „Bauelemente“ identifiziert werden. Zwei der umfangreichsten Merkmalstheorien sind die „Computational Theory“ von David Marr und die Theorie der geometrischen Elemente („Geons“) von Irving Biederman. Mustererkennung in der Informatik. Die Informatik untersucht Verfahren, die gemessene Signale automatisch in Kategorien einordnen. Zentraler Punkt ist dabei das Erkennen von Mustern, den Merkmalen, die allen Dingen einer Kategorie gemeinsam sind und sie vom Inhalt anderer Kategorien unterscheiden. Mustererkennungsverfahren befähigen Computer, Roboter und andere Maschinen, statt präziser Eingaben auch die weniger exakten Signale einer natürlichen Umgebung zu verarbeiten. Erste systematische Untersuchungsansätze der Mustererkennung kamen Mitte der 1950er Jahre mit dem Wunsch auf, Postzustellungen maschinell statt von Hand zu sortieren. Im Laufe der Zeit kristallisierten sich mit "syntaktischer", "statistischer" und "struktureller" Mustererkennung die drei heutigen Gruppen von Mustererkennungsverfahren heraus. Als Durchbrüche wurden die Nutzbarmachung von Support Vector Machines und künstlichen neuronalen Netzen in den späten 1980er Jahren empfunden. Obwohl viele der heutigen Standardverfahren schon sehr früh entdeckt wurden, wurden sie erst nach erheblichen methodischen Verfeinerungen und der generellen Leistungssteigerung handelsüblicher Computer alltagstauglich. 2001 entwickelten zwei Informatiker die nach ihnen benannte Viola-Jones-Methode zum Erkennen von Gesichtern. Das Verfahren ist wegen seiner Robustheit und Schnelligkeit weit verbreitet. Ansätze. Man unterscheidet heute drei prinzipielle Ansätze der Mustererkennung: Syntaktische, statistische und strukturelle Mustererkennung. Obwohl sie auf unterschiedlichen Ideen beruhen, erkennt man bei genauerer Betrachtung Gemeinsamkeiten, die so weit gehen, dass ein Verfahren der einen Gruppe ohne nennenswerten Aufwand in ein Verfahren der anderen Gruppe überführt werden kann. Von den drei Ansätzen ist die syntaktische Mustererkennung die älteste, die statistische die meistgenutzte und die strukturelle die für die Zukunft vielversprechendste. Syntaktisch. Ziel der syntaktischen Mustererkennung ist es, Dinge so durch Folgen von Symbolen zu beschreiben, dass Objekte der gleichen Kategorie dieselben Beschreibungen aufweisen. Möchte man etwa Äpfel von Bananen trennen, so könnte man Symbole für rot (R) und gelb (G) sowie für länglich (L) und kugelförmig (K) einführen; alle Äpfel würden dann durch die Symbolfolge RK und alle Bananen durch das Wort GL beschrieben. Das Problem der Mustererkennung stellt sich in diesem Fall als Suche nach einer formalen Grammatik dar, also nach einer Menge von Symbolen und Regeln zum Zusammenfügen derselben. Da für gewöhnlich eine klare Zuordnung zwischen Merkmal und Symbol nicht ohne weiteres möglich ist, kommen hier Methoden der Wahrscheinlichkeitsrechnung zum Einsatz. So kommen beispielsweise Farben in unzähligen Abstufungen vor, man muss jedoch eine präzise Unterscheidung zwischen rot und gelb vornehmen. Bei komplexen Sachverhalten wird damit das eigentliche Problem nur hinausgezögert statt gelöst, weshalb dieser Ansatz nur noch wenig Beachtung findet und nur bei sehr klaren Aufgabenstellungen zum Einsatz kommt. Statistisch. In diesem Bereich fällt das Gros der heutigen Standardmethoden insbesondere auf die oben erwähnten Support Vector Machines und neuronalen Netze. Ziel ist es hier, zu einem Objekt die Wahrscheinlichkeit zu bestimmen, dass es zur einen oder anderen Kategorie gehört und es letztlich in die Kategorie mit der höchsten Wahrscheinlichkeit einzusortieren. Statt Merkmale nach vorgefertigten Regeln auszuwerten, werden sie hier einfach als Zahlenwerte gemessen und in einem sogenannten "Merkmalsvektor" zusammengefasst. Eine mathematische Funktion ordnet dann jedem denkbaren Merkmalsvektor eindeutig eine Kategorie zu. Die große Stärke dieser Verfahren liegt darin, dass sie auf nahezu alle Sachgebiete angewandt werden können und keine tiefergehende Kenntnis der Zusammenhänge vonnöten ist. Strukturell. Die strukturelle Mustererkennung verbindet verschiedene syntaktische und/oder statistische Verfahren zu einem einzigen neuen Verfahren. Ein typisches Beispiel ist die Gesichtserkennung, bei der für verschiedene Gesichtsteile wie Auge und Nase unterschiedliche Klassifikationsverfahren eingesetzt werden, die jeweils nur aussagen, ob der gesuchte Körperteil vorliegt oder nicht. Übergeordnete strukturelle Verfahren wie etwa Bayes’sche Netze führen diese Einzelergebnisse zusammen und berechnen daraus das Gesamtergebnis, die Kategoriezugehörigkeit. Die grundlegende Merkmalserkennung wird dabei allgemeinen statistischen Verfahren überlassen, während übergeordnete "Inferenzverfahren" Spezialwissen über das Sachgebiet einbringen. Strukturelle Verfahren kommen besonders bei sehr komplexen Sachverhalten wie der Computer-assisted Detection, der computergestützten ärztlichen Diagnosestellung, zum Einsatz. Teilschritte der Mustererkennung. Ein Mustererkennungsprozess lässt sich in mehrere Teilschritte zerlegen, bei denen am Anfang die Erfassung und am Ende eine ermittelte Klasseneinteilung steht. Bei der "Erfassung" werden Daten oder Signale mittels "Sensoren" aufgenommen und digitalisiert. Aus den meist analogen Signalen werden "Muster" gewonnen, die sich mathematisch in Vektoren, sogenannten Merkmalsvektoren, und Matrizen darstellen lassen. Zur Datenreduktion und zur Verbesserung der Qualität findet eine "Vorverarbeitung" statt. Durch Extraktion von Merkmalen werden die Muster bei "Merkmalsgewinnung" anschließend in einen Merkmalsraum transformiert. Die Dimension des Merkmalsraums, in dem die Muster nun als Punkte repräsentiert sind, wird bei der "Merkmalsreduktion" auf die wesentlichen Merkmale beschränkt. Der abschließende Kernschritt ist die "Klassifikation" durch einen "Klassifikator", der die Merkmale verschiedenen "Klassen" zuordnet. Das Klassifikationsverfahren kann auf einem "Lernvorgang" mit Hilfe einer "Stichprobe" basieren. Schematischer Aufbau eines Mustererkennungssystems Erfassung. "Siehe auch": Signalverarbeitung, Messung, Digitalisierung und Messtechnik Vorverarbeitung. Um Muster besser erkennen zu können, findet in der Regel eine Vorverarbeitung statt. Die Entfernung bzw. Verringerung unerwünschter oder irrelevanter Signalbestandteile führt nicht zu einer Reduktion der zu verarbeitenden Daten, dies geschieht erst bei der Merkmalsgewinnung. Mögliche Verfahren der Vorverarbeitung sind unter anderem die Signalmittelung, Anwendung eines Schwellenwertes und Normierung. Gewünschte Ergebnisse der Vorverarbeitung sind die Verringerung von Rauschen und die Abbildung auf einen einheitlichen Wertebereich. Merkmalsgewinnung. Nach der Verbesserung des Musters durch Vorverarbeitung lassen sich aus seinem Signal verschiedene Merkmale gewinnen. Dies geschieht in der Regel empirisch nach durch Intuition und Erfahrung gewonnenen Verfahren, da es wenige rein analytische Verfahren (z.B. die Automatische Merkmalsynthese) gibt. Welche Merkmale wesentlich sind, hängt von der jeweiligen Anwendung ab. Merkmale können aus Symbolen beziehungsweise Symbolketten bestehen oder mit statistischen Verfahren aus verschiedenen Skalenniveaus gewonnen werden. Bei den numerischen Verfahren unterscheidet man Verfahren im Originalbereich und Verfahren im Spektralbereich. Mögliche Merkmale sind beispielsweise Mittels Transformationen wie der diskreten Fourier-Transformation (DFT) und diskreten Kosinustransformation (DCT) können die ursprünglichen Signalwerte in einen handlicheren Merkmalsraum gebracht werden. Die Grenzen zwischen Verfahren der Merkmalsgewinnung und Merkmalsreduktion sind fließend. Da es wünschenswert ist, möglichst wenige aber dafür umso aussagekräftigere Merkmale zu gewinnen, können Beziehungen wie die Kovarianz und der Korrelationskoeffizient zwischen mehreren Merkmalen berücksichtigt werden. Mit der Karhunen-Loève-Transformation (Hauptachsentransformation) lassen sich Merkmale dekorrelieren. Merkmalsreduktion. Zur Reduktion der Merkmale auf die für die Klassifikation wesentlichen wird geprüft, welche Merkmale für die Klassentrennung relevant sind und welche weggelassen werden können. Verfahren der Merkmalsreduktion sind die Varianzanalyse, bei der geprüft wird, ob ein oder mehrere Merkmale Trennfähigkeit besitzen, und die Diskriminanzanalyse, bei der durch Kombination von elementaren Merkmalen eine möglichst geringe Zahl trennfähiger nichtelementarer Merkmale gebildet wird. Klassifizierung. Der letzte und wesentlichste Schritt der Mustererkennung ist die Klassifizierung der Merkmale in Klassen. Dazu existieren verschiedene Klassifikationsverfahren (weiteres siehe dort). Lebewesen benutzen zur Mustererkennung in den Signalen unserer Sinne meist Neuronale Netze. Diese Herangehensweise wird in der Bionik analysiert und imitiert. Die Neuroinformatik hat gezeigt, dass durch künstliche neuronale Netze Lernen und Erkennung komplexer Muster möglich sind, auch ohne dass vorher eine Regelabstraktion in oben gezeigter Art erfolgt. Im Anschluss an die Klassifizierung des Musters kann versucht werden, das Muster zu interpretieren. Dies ist Gegenstand der Musteranalyse. In der Bildverarbeitung kann auf die Klassifizierung von Bildern eine sogenannte Bilderkennung folgen, also die bloße Erkennung von Objekten in einem Bild ohne Interpretation oder Analyse von Zusammenhängen zwischen diesen Objekten. Massage. Die Massage (von frz. "masser" „massieren“, entstanden zwischen 1755 und 1771 aus arab. مس „berühren; betasten“ oder aus griech. "μάσσω" „kauen, kneten“) dient zur mechanischen Beeinflussung von Haut, Bindegewebe und Muskulatur durch Dehnungs-, Zug- und Druckreiz. Die Wirkung der Massage erstreckt sich von der behandelten Stelle des Körpers über den gesamten Organismus und schließt auch die Psyche mit ein. Entwicklung. Die gezielte Anwendung von Massagen zur Heilung hat ihren Ursprung sehr wahrscheinlich im Osten Afrikas und in Asien (Ägypten, China, Persien). Die ersten Erwähnungen finden sich beim Chinesen Huáng Dì, der bereits 2600 v. Chr. Massagehandgriffe und gymnastische Übungen beschreibt. In Verbindung mit ätherischen Ölen und Kräutern gibt es auch frühe Nachweise in der indischen Gesundheitslehre und Heilkunst, dem Ayurveda. Über den griechischen Arzt Hippokrates (ca. 460–370 v. Chr.) und seine medizinische Schule gelangte die Massage letztendlich nach Europa. Hier spielte sie später eine essentielle Rolle bei der Rehabilitation der Gladiatoren im Römischen Reich. Hippokrates erkundete und vertiefte die Geheimnisse der Massage und schrieb seine Erkenntnisse und Empfehlungen zur Anwendung nieder. Der zweite bedeutende Arzt der Antike, der Grieche Galenos (129–199), nahm sich ebenfalls der manuellen Therapie an und schrieb unzählige Abhandlungen über die von ihm entworfenen Formen und bei welchen Erkrankungen diese anzuwenden seien. Trotz seines Einflusses, der bis weit in das Mittelalter reicht, verlor die Gesellschaft Europas in späteren Zeiten das Interesse an Massagen und anderen Präventions- und Therapiemaßnahmen. Wiederentdeckung. Erst gegen Ende des Mittelalters, im 16. Jahrhundert, wurde die Massage durch den Arzt und Alchimisten Paracelsus (1493–1541) wieder Thema der Medizin. Allerdings sträubte dieser sich gegen die Lehren des Galenos, insbesondere gegen die Humoralpathologie, und machte sich damit unter seinen Kollegen viele Feinde. Es brauchte einen weiteren Arzt, den Franzosen Ambroise Paré (1510–1590), um die Massage in der modernen Medizin zu etablieren. Er verwendete die Massage als Rehabilitationstherapie nach Operationen. Hahnemanns Empfehlung der Massage. Samuel Hahnemann (1755–1843) hatte Massagen als therapeutische Ergänzung seiner Arzneibehandlungen in die Homöopathie integriert. In dem mit „Massieren“ überschriebenen Paragraphen 290 des "Organon der rationellen Heilkunde" (1810) empfahl er „"das sogenannte Massieren durch eine kräftige, gutmütige Person, welche den chronisch krank Gewesenen, der zwar geheilt, aber noch in langsamer Erholung begriffen ist und noch an Abmagerung, Verdauungsschwäche und Schlafmangel leidet, die Muskeln der Gliedmaßen, der Brust und des Rückens ergreift, sie mäßig drückt und gleichsam knetet. Dadurch wird das Lebensprinzip angeregt, in seiner Gegenwirkung den Tonus der Muskeln und ihrer Blut- und Lymphgefäße wieder herzustellen."“ Weiterentwicklung und Gegenwart. Die so genannte „Schwedische Epoche“ auf dem Gebiet der manuellen Therapie begann mit Pehr Henrik Ling (1776–1839). Ling war zunächst als Gymnastik- und Fechtlehrer tätig und gründete später im Jahre 1813 das „Zentralinstitut für Heilgymnastik und Massage“ in Stockholm, wo er seine Auffassungen von Massage und Gymnastik lehrte. Die von ihm entwickelten Handgriffe wurden als „Reiben, Drücken, Walken, Hacken und Kneipen“ bezeichnet. Ebenfalls maßgeblich beteiligt an der Weiterentwicklung der klassischen Massage war der holländische Arzt Johann Georg Mezger (1838–1909). Durch seine Arbeit in Amsterdam wurde der Massage das Tor zur Wissenschaft und zur Medizin geöffnet. Ihre Wirkung konnte von da an nicht mehr geleugnet werden. Interessant ist in diesem Zusammenhang auch, dass die Technik der schwedischen Massage von den Amerikanern übernommen und erst durch den Berliner Orthopäden Albert Hoffa (1859–1907) Ende des 19. Jahrhunderts in Deutschland eingeführt wurde. Hoffa war es auch, der der schwedischen Massage den letzten Feinschliff gab und sie in der heute bekannten Form verbreitete. Er setzte die Massage speziell für den Bewegungsapparat ein und kombinierte sie mit einer gelenkspezifischen Übungsbehandlung. Nach seiner Auffassung konnten nur Ärzte „pathologische Produkte der Muskulatur palpieren und massieren“. Jeder seiner Assistenzärzte musste daher die Massage erlernen und praktizieren. In der Folgezeit wurden immer spezifischere Massagegriffe gefunden und es vollzog sich eine Entwicklung, die von der direkten Einwirkung des Anwenders auf Haut und Muskeln des Patienten wegführte. Henry Head entdeckte die ersten Grundlagen der Somatotopik. Auf diesem Wissen aufbauend forschte Wolfgang Kohlrausch zur Beeinflussung innerer Organe durch gezielte Reize der Haut. Auf diese Form der Therapiemöglichkeit kam Kohlrausch durch die Selbstversuche der Physiotherapeutin Elisabeth Dicke (1884–1952), welche dann die Bindegewebsmassage erfand. Zeitgleich erfand der Arzt und Physiotherapeut Paul Vogler die Kolonbehandlung sowie die Periostmassage. Ein paar Jahre später entwickelte der Däne Emil Vodder zusammen mit seiner Frau Estrid die Lymphdrainage. Diese ist heutzutage neben der Klassischen Massage die am meisten angewendete Behandlung aus dem Bereich der Manuellen Therapie. Heutzutage obliegen die Massage und die Reflexzonentherapie nicht mehr den Ärzten, sondern werden von Masseuren und Physiotherapeuten ausgeführt. In Europa gibt es inzwischen in fast jedem Staat eine entsprechende Ausbildung, die den Schutz des Gesetzes genießt. Allgemeine Wirkung. Da sich die theoretischen Grundlagen der einzelnen Massagearten sehr stark unterscheiden und diese auf völlig unterschiedlichen Behandlungstheorien basieren, ist die Anzahl der teils nachgewiesenen Wirkungsweisen auf den Körper groß. Folgend sind die wichtigsten dieser Wirkungsweisen genannt. Formen der Massage. Die verschiedenen Formen der Massage versuchen auf zwei unterschiedliche Arten eine Heilung oder Linderung beim Patienten zu erlangen. Die klassische Methode ist die Behandlung der Haut und der Muskulatur an der Stelle, die massiert wird. Diese Methode ist weitestgehend durch die evidenzbasierte Medizin anerkannt und findet sich in den Lehrbüchern und Therapieleitfäden wieder. Andere Massageformen basieren auf der durch die evidenzbasierte Medizin widerlegten Annahme, dass über Reflexbögen auch Leiden der Organe behandelt werden könnten. Dementsprechend werden nur wenige dieser Massagen von den Krankenkassen aus Kulanz übernommen. Die Idee ist, nicht die „kranke Stelle“ zu behandeln, sondern ein „entsprechendes Areal“, welches das kranke Organ repräsentieren soll. Um beiden Methoden einen einprägsamen Namen zu geben, wird hier von einer „direkten Massage“ und einer „reflektorischen Massage“ gesprochen. Erotische Massagen. Die sensorische Wirkung wird auch für erotische Zwecke genutzt. Auch im Kamasutra werden verschiedene Massagearten zur Förderung der sexuellen Aktivität empfohlen, die auf traditionellen medizinischen Überlieferungen basieren; eine nach westlichen Methoden empirisch nachweisbare wissenschaftliche Grundlage für tatsächliche Wirkung gibt es nicht. Klassische Massage. Die Grifftechnik der schwedischen Massage wird seit Jahrzehnten weltweit, deshalb auch "Klassische Massage" genannt, von Masseuren/innen (in Deutschland heißt der medizinische Beruf mittlerweile "Masseur/in und med. Bademeister/in"), Physiotherapeuten/innen und Heilpraktikern/innen zu verschiedenen Zwecken verwendet und ist daher die bekannteste Massageform geworden. Indikation. Zu den Indikationen der klassischen Massage zählen Verspannungen, Verhärtungen, Erkrankungen des Bewegungsapparates wie die Wirbelsäulen-Syndrome oder auch posttraumatische Veränderungen. Bei der erfolgreichen Linderung von chronischen Nackenschmerzen spielt die Häufigkeit der Massage eine nicht unerhebliche Rolle. Durch die Reflexbögen können sich Erkrankungen der inneren Organe an der Haut oder den Muskeln zeigen. Ein weiteres Einsatzgebiet der Massage ist die Fachrichtung der Neurologie. Hier lassen sich besonders Paresen, Spastiken, Neuralgien und Sensibilitätsstörungen behandeln. Hinzu kommen die auf Stress zurückzuführenden psychosomatischen Krankheitsbilder, die sich hauptsächlich auf das Herz und den Blutkreislauf beziehen. Die Fern- und Allgemeinwirkung der klassischen Massage ist vielfältig. Im Bereich der Mikrozirkulation kommt es zu einer verbesserten Blutzirkulation im Kreislauf, besonders im Bereich der unteren Extremitäten. Die myokardale Leistung des suffizienten Herzens wird gesteigert durch Entleerung der Blutdepots. Das bedeutet eine Vermehrung des Schlag- und Minutenvolumens des kompensierten Herzens bei bradykarder Tendenz. Eine chemische Wirkung wird durch Freisetzung von denaturiertem, artfremdem Eiweiß aus gelotischen Bezirken im Sinne einer allgemeinen Umstimmung erzielt. Auch ein reflektorischer, segmentaler Effekt ist durch Einwirkung auf Dermatome und/oder Myotome über die Seitenhornschaltung und die Intermediär-Zonen zu inneren Organen möglich. Eine konsensuelle Reaktion kann z.B. bei der Frakturbehandlung oder beim Morbus Sudeck erfolgen. Dies geschieht (auch) im nichtbehandelten, aber zum Segment gehörenden Körperteil. Auch eine endokrine Wirkung durch Einwirkung auf die Hypophyse und andere endokrine Drüsen ist möglich. Massage wirkt vagoton und verbessert so Blutdruck, Puls, Atmung und Schlaf. Im psychischen Bereich stellt sich meist eine Entspannung ein. Kontraindikation. Bei allen akuten Entzündungen sind Massagen kontraindiziert. Dazu zählen fieberhafte Erkrankungen und Erkrankungen der Gefäße, wodurch der Körper bereits stark beansprucht ist und durch die Massage zusätzlich belastet wird. Bei Hauterkrankungen kann der Kontakt zur Verschlechterung der Krankheit, Verschleppung von Keimen oder einer Ansteckung des Therapeuten führen. Ebenso ist bei einer traumatischen Verletzung die Massage wegen des Druckes auf das entsprechende Gewebe (wie z. B. Muskulatur, Knochen) absolut kontraindiziert. Gleiches gilt für Krampfadern, weil sich durch den Druck auf die Extremitäten (Arme und Beine) Thromben lösen können. Handgriffe. Die klassische Massage verfügt über fünf Handgriffe, die aufgrund ihrer Wirkung in den unterschiedlichen Phasen einer Massage angewendet werden. Die Streichung ist der angenehmste und entspannendste Handgriff der Massage. Sie wird vor allem am Anfang zum Verteilen des Öls (oder der Creme) eingesetzt und um die Haut des Patienten an die Hand des Therapeuten zu gewöhnen. Während der Behandlung dient sie als Erholungspause zwischen den stärkeren Griffen. Zum Abschluss der Massage wird die Streichung zur Entspannung der gestressten Muskulatur und Erholung für den Patienten angewendet. Der Rücken des Patienten kann nach der Massage mit Einreibealkohol unter schnellen Streichungen eingerieben werden. Das lockert die Muskulatur und verhindert die Entzündung der Haarwurzel. Haut und Muskulatur werden entweder zwischen Daumen, Zeige- und Mittelfinger oder mit der ganzen Hand/beiden Händen gefasst und geknetet bzw. gewalkt. Bei der Knetung wird die Wirkung auf die Muskulatur von den Händen des Therapeuten erzeugt, bei der Walkung geschieht dies durch den Druck des Muskels auf die darunter liegenden Knochen. Beide Griffe werden vor allem verwendet, um Verspannungen zu lösen. Sie wirken auf die Muskulatur und das Unterhautbindegewebe, und verbessern die Durchblutung. Die Fingerspitzen oder die Handballen führen kleine, kreisende Bewegungen auf dem Muskel aus. Dieser Griff ist sehr effektiv bei Verspannung und Verhärtungen der Muskulatur, muss aber sehr vorsichtig eingesetzt werden, da er sehr kraftvoll ist und starke Schmerzen und evtl. Verletzungen verursachen kann. Mit der Handkante, der flachen Hand oder den Fingern werden kurze, schlagende Bewegungen ausgeführt. Diese fördern die periphere Durchblutung, verändern den Tonus der Muskulatur. Wird die Klopfung mit der Hohlhand auf Höhe der Lunge ausgeführt, so verbessert dies die Schleimlösung in der Lunge. Letzteres ist auch als Klopfmassage bekannt. Vibrationen werden vom Therapeuten durch so genanntes Muskelzittern erzeugt. Die Fingerspitzen oder die flache Hand werden aufgelegt und der Masseur erzeugt das Muskelzittern. Die Wirkung kann bis in tiefer gelegene Gewebe und Organe reichen. Dieser Handgriff ist lockernd und hat somit unter anderem eine krampflösende Wirkung. Ganz-/Teilkörpermassage. Man unterscheidet die Massage in Ganz- und Teilkörperbehandlung. Von einer Ganzkörpermassage spricht man, wenn mehr oder weniger alle Körperregionen massiert werden. Dies schließt gewöhnlich Füße, Beine, Arme, Hände, Rücken, Schultern und Nacken ein. Die Massage kann auf die Brust, den Bauch und das Gesicht ausgeweitet werden. Die Ganzkörpermassage wird nur selten als medizinische Therapie verschrieben. Bei der Teilkörpermassage wird nur ein Körperteil massiert. Beide Beine bzw. beide Arme zählen hier als ein Körperteil. Daraus ergeben sich folgende Teilmassagebereiche: Beine, Rücken (im Liegen und mit freiem Oberkörper), Arme, Brust, Bauch, Gesicht. Jeder Masseur hat seine eigene Art der Massage und wird eine Teilkörpermassage auf die angrenzenden Gebiete ausweiten. Elektromechanische Massagegeräte. Elektromechanische Massagegeräte dienen der Durchführung von Massagen ohne Masseur. Abhängig von den zu massierenden Körperstellen gibt es unterschiedliche Massagegeräte. Für die Massage im Liegen gibt es auf dem Markt Massagebetten bzw. -liegen. Für die Massage von Oberschenkel, Rücken oder Nacken in sitzender oder halb liegender Position werden Massagesessel, -sitzauflagen und -kissen angeboten. Für Füße und Waden sind Fußmassagegeräte erhältlich. Die Massage erfolgt über Vibratoren, rotierende Rollen, Walzen oder Luftkissen und wirkt so auf Muskeln und Gewebe. Dieses ermöglicht je nach Ausführung Druck-, Knet- und Klopfmassagen und kann durchblutungsfördernd und spannungslösend, somit schmerzlindernd wirken. Auf diese Weise kann z. B. die Shiatsu-Massage nachempfunden werden. Die Geräte lassen sich bei entsprechender Ausstattung hinsichtlich Geschwindigkeit bzw. Frequenz, Rollenabstände und Intensität einstellen. Die Einstellung erfolgt per Fernbedienung oder direkt am Gerät. Bei Sesseln ist die Sitzposition meist verstellbar. Die Massagegeräte werden hauptsächlich für den Privatgebrauch genutzt. Elektrische Massagesessel werden zudem für Massageinstitute und in öffentlichen Einrichtungen wie Kaufhäusern verwendet. Hier erfolgt die Bezahlung in der Regel per Münzeinwurf für eine vorgegebene Massagezeit. Dabei kann der Massagegast vollständig bekleidet bleiben. Anbieter entsprechender Geräte werben mit Begriffen wie Wohlfühl-, Entspannungs- oder auch Shiatsu-Massage. Mac OS. Mac OS ist der Name des Betriebssystems des US-amerikanischen Unternehmens Apple für deren hauseigene Macintosh-Computer, der zwischen 1997 und 2012 für die jeweilig aktuelle Version verwendet wurde. Der Begriff ist abgeleitet von "Macintosh Operating S'"ystem," einer Bezeichnung, die so niemals verwendet wurde. Im Gegensatz zu den anderen gängigen Betriebssystemen wie Windows und Linux-Distributionen schreiben die Lizenzbedingungen von Mac OS vor, das System nur auf den Computern von Apple zu verwenden. Abgesehen von nie veröffentlichten internen Entwicklungen von Apple waren die einzigen Ausnahmen verschiedene lizenzierte Mac-Clones, die in den 1990er Jahren hergestellt wurden. Mac OS. Mac OS ist ein eingetragenes Markenzeichen, das eine Reihe GUI-basierter Betriebssysteme der Apple Inc. (zuvor Apple Computer Inc.) für deren Macintosh-Computersysteme bezeichnet. Das Betriebssystem, das später von Apple als „Mac OS“ bezeichnet wurde, war ein integraler Bestandteil der Systemsoftware des 1984 erschienenen Macintosh-Rechners. Zu dieser Zeit wurde es lediglich „System“ oder „System Software“ genannt. Es war eine abgespeckte Version des Systems, das für den vorangegangenen aber wirtschaftlich erfolglosen Rechner Apple Lisa entwickelt worden war. System 7.5.1 war das erste Version mit integriertem Mac-OS-Logo (einer Variante des originalen Happy-Mac-Symbols, das beim Einschalten angezeigt wird). Der Name „Mac OS“ wurde erstmals bei Mac OS 7.6, der Betriebssystemaktualisierung für System 7.5.5, verwendet. Der Nachfolger von System bzw. Mac OS, das eigenständig entwickelte Mac OS X, verwendete den Namen weiter. Erst mit OS X 10.8 alias „Mountain Lion“ wurde „Mac OS“ im Namen fallen gelassen. Mit Mac OS X 10.7 wurde das Betriebssystem bereits als „OS X“ beworben und die Server-Version heißt bereits OS X Server 1.0 (ohne „Mac“ im Namen). Ab OS X 10.8 heißt das Betriebssystem offiziell „OS X“ und gibt dies bei einem Klick auf „Über diesen Mac“ an. Als Grund für das Entfernen von „Mac“ im Namen gelten die Varianten des Betriebssystems für Apple TV, iPod, iPhone und iPad neben der ursprünglichen Variante für Macintosh-Computer. Da das Betriebssystem nicht mehr nur auf Macs läuft sollte es auch nicht mehr „Mac OS“ genannt werden. Bei Apple TV der 1. Generation wurde eine leicht modifizierte Version von Mac OS X verwendet, bei iPod, iPhone und iPad sowie ab Apple TV der 2. Generation heißt das Betriebssystem iOS bzw. tvOS (basiert auf iOS) und hat denselben Kernel wie Mac OS X. Systemsoftware. Jahrelang hat Apple die Existenz des Betriebssystems absichtlich heruntergespielt, um die Macintosh-Systeme benutzerfreundlicher erscheinen zu lassen und um sich von anderen Betriebssystemen abzugrenzen. Ein großer Teil dieser frühen Systemsoftware wurde direkt im ROM gespeichert. Diese Vorgehensweise hatte in Zeiten von teurem RAM den Vorteil, dass nicht alle Komponenten in den aktiven Arbeitsspeicher geladen werden mussten und dennoch sofort zur Verfügung standen, da die Programme im ROM jederzeit und schneller als von den damals üblichen Disketten und Festplatten abrufbar waren. Auch war so die begrenzte Speicherkapazität von Disketten () nicht durch Teile des Betriebssystems belegt und konnte rein für Programme und Daten genutzt werden. Die ersten Macs wurden ohne Festplatte ausgeliefert. Zum Starten war dennoch eine Systemdiskette erforderlich. Nur ein Modell der Macintosh-Reihe war je allein aus dem ROM bootbar: der Macintosh Classic von 1991. Die Architektur dieser „System Software“ erlaubte ein komplett grafisches Betriebssystem ohne einen Kommandozeilen-Modus. Abstürzende Programme und sogar Hardwarefehler wie das Fehlen von Laufwerken wurden dem Benutzer grafisch über Kombinationen von Symbolen (), Hinweisfenstern, Knöpfen, dem Mauszeiger und der markanten Bitmap-Schrift Chicago kommuniziert. Eine wohl nicht unbeabsichtigte Nebenerscheinung war, dass das Betriebssystem fest mit der Hardware verschmolzen war. Die „System Software“ hing von diesem Kern-System im Mainboard-ROM ab. Dieser Umstand half später sicherzustellen, dass es nur von Apple-Computern oder lizenzierten Klonen (mit den kopierrechtlich geschützten ROMs von Apple) ausgeführt werden konnte. Aktualisierungen für das Betriebssystem wurden von Apple-Händlern bis System 6 kostenlos auf Disketten verteilt. Mit steigender Speicherkapazität und Leistungsfähigkeit war es jedoch irgendwann nicht mehr möglich, ein modernes grafisches Betriebssystem allein (oder in großen Teilen) im ROM zu halten und zu aktualisieren. Ab den ersten PowerPC-G3-Systemen war daher fast das gesamte Betriebssystem auf der Festplatte abgespeichert. Auf dem physischen ROM des Mainboard verblieb nur noch ein aus lizenzrechtlichen Gründen notwendiger Teil, ohne den Mac OS weiterhin nicht funktionierte. Der Inhalt des ROM wird von System 7 und Mac OS u.a. dazu genutzt, herauszufinden, auf welchem Macintosh-Modell es läuft. Während Aktualisierungen bis System 6 kostenlos waren, wurden Versionen ab System 7 als separate, kostenpflichtige Produkte vertrieben. Diese neuen Macintosh-Computer wurden von Apple als (übersetzt: „neue Welt”) bezeichnet, während die ältere Generation, bei der noch wesentliche Teile des Systems im ROM abgespeichert waren, als (übersetzt: „alte Welt“) bezeichnet wurden. Zudem wurde kurz darauf auf Open Firmware umgestellt. System (1984–1996). Das frühe Macintosh-Betriebssystem bestand aus zwei Teilen: dem „System“ und dem „Finder“, jedes mit eigener Versionsnummer und in Assembler sowie in Pascal programmiert. Das klassische „System“ fällt vor allem durch das Nichtvorhandensein einer Kommandozeile auf – die Anwenderschnittstelle ist also vollständig grafisch. Berühmt für seine gute Benutzbarkeit und sein kooperatives Multitasking wurde es jedoch für das Fehlen der Unterstützung von Speicherschutz (Arbeitsspeicher) und seine Anfälligkeit für Konflikte zwischen Betriebssystemerweiterungen (zum Beispiel Gerätetreiber) kritisiert. Manche Erweiterungen konnten nicht zusammen funktionieren oder funktionierten nur, wenn sie in bestimmter Reihenfolge geladen wurden. Beim Macintosh wurde ursprünglich das Macintosh File System (MFS) verwendet, welches keine Unterordner erlaubte und daher auch als flaches Dateisystem bezeichnet wird. Es wurde 1984 eingeführt und bereits 1985 durch das Hierarchical File System (HFS), einem (wie der Name sagt) hierarchischen Dateisystem mit echtem Verzeichnisbaum, ersetzt. Beide Dateisysteme sind zwar kompatibel, allerdings brachten die neuen HFS-Funktionen Probleme beim Datenaustausch mit anderen Nicht-Mac-Dateisystemen. Im Dezember 1994 wurde durch den damaligen CEO Michael Spindler ein Markt für autorisierte Mac-Clones geöffnet. Der Vertrag sah vor, dass andere Hersteller Mac-kompatible Computer verkaufen durften, auf denen System 7 lauffähig war. Die Hoffnung war, dass durch den Verkauf von preiswerteren Mac-Clones die Verkaufszahlen insgesamt weiter ansteigen würden. Per Vertrag hatte Apple mit jedem verkauften Klon pauschal 50 US-Dollar mitverdient. Die Rechnung ging jedoch nicht auf, da einerseits 1995 das nunmehr konkurrenzfähige PC-Betriebssystem Windows 95 auf den Markt kam – und Apple mit System 7 nicht mehr die alleinige einfach zu bedienende grafische Benutzeroberfläche anbot – und andererseits die Mac-Klone im eigenen Markt für geringere Absatzzahlen sorgten. Wurden 1995 noch 4,5 Millionen Macs verkauft, so waren es 1996 nur noch 4 Millionen und 1997 nur noch 2,8 Millionen. Ende 1996 wurde NeXT von Apple übernommen und Steve Jobs als Interims-CEO eingesetzt. Eine seiner ersten Tätigkeiten war es das Klon-Programm zu beenden. Da Apple die Kontrolle über das Betriebssystem hatte, wurde es ab System 7.6 in Mac OS 7.6 umbenannt und es wurde versucht, die Klone auf das Niedrigpreissegment unter 1000 US-Dollar zu beschränken und die Lizenzkosten pro verkauftem PC zu erhöhen. Als die Mac-Klon-Hersteller die neuen Bedingungen nicht akzeptierten, wurde das geplante Mac OS 7.7 kurzerhand als Mac OS 8.0 herausgebracht. Das beendete schlagartig den Markt für Mac-Clones, da der Vertrag spezifisch „System 7“ lizenzierte. Weiterentwicklung und Nachfolger. Das bis dahin einfach als „System“ bezeichnete Betriebssystem der Macintosh-Computer, wie es seit 1984 ständig weiterentwickelt wurde, wies einige konzeptionelle Mängel auf, die man nur durch eine Neuentwicklung beheben konnte. Das System unterstützte weder präemptives Multitasking, Mehrbenutzerbetrieb, Speicherschutz noch dynamische Speicherverwaltung und galt deshalb als instabil und technisch veraltet. Apple hatte daher im Laufe der Zeit verschiedene Projekt gestartet, um ein neues Betriebssystem, das diese Schwächen und Mängel beheben sollte, zu entwickeln. Projekt Pink. 1988 wurde das Projekt Pink in Angriff genommen. Pink hatte ein vollständig objektorientiertes Betriebssystem zum Ziel. Mitte 1991 gelang es Apple, die Firma IBM von seiner damaligen Entwicklung zu überzeugen, weshalb die gemeinsame Tochterfirma Taligent gegründet wurde, um Pink als TalOS zu vollenden. Bald merkte man aber, dass der Markt abseits von Apple kein neues Betriebssystem brauchte, weshalb Pink bzw. TalOS in die Laufzeitumgebung TalAE, Taligent Application Environment, später auch "CommonPoint" genannt, umgewandelt wurde. 1995 stieg Apple komplett aus der Entwicklung aus und übergab Taligent (TalAE) vollständig an IBM. Somit blieb das Problem eines veralteten Betriebssystems bei Macintosh-Computern weiterhin bestehen. Projekt Star Trek. Bereits 1985, nachdem Steve Jobs Apple nach einem Streit mit John Sculley verlassen hatte, gab es die Idee für ein Projekt, welches das Apple-Betriebssystem auf x86-Hardware portieren sollte. Doch erst 1992 wurde das Projekt, das den Codenamen Star Trek hatte, wieder aufgenommen, nachdem Novell an Apple herangetreten war, um ein konkurrenzfähiges Betriebssystem zum damals erstmals kommerziell erfolgreichen grafischen PC-Betriebssystem Windows 3.0 von Microsoft zu entwickelt. Novell war damals mit Netware der führende Entwickler von Netzwerksystemen und -software und sah sich durch den Erfolg von Microsoft Windows gefährdet. Bereits 1991 hatte Novell das von Digital Research entwickelte Betriebssystem DR-DOS samt der grafische Benutzeroberfläche GEM übernommen und wollte es zu einem modernen graphischen Betriebssystem, mit GEM als Alternative zu Windows und einem mit DR-DOS (später Novell DOS) mitgelieferten NetWare Client, weiterentwickeln. Doch unter Digital Research war GEM schon einmal der Grund für eine Klage durch Apple gewesen, da es dem Macintosh-Betriebssystem zu ähnlich sah. Um eine Wiederholung einer solchen Klage zu vermeiden kontaktierte man Apple, um stattdessen deren Betriebssystem auf die Intel-x86-Architektur zu portierten. John Sculley, 1991 CEO von Apple, stimmte zu. Auch Intel war daran interessiert und steuerte 486-PCs für das Entwickler-Team bei. Ab Sommer 1992 wurde von nur 18 Entwicklern System 7 auf x86 portiert und bereits Ende Oktober stand ein voll funktionsfähiger Prototyp zur Verfügung. Bei Apple war man erstaunt das eigene Betriebssystem auf einem IBM-kompatiblen PC laufen zu sehen. Da große Teile des Betriebssystem in Assembler (für den in Macintosh-Rechnern verwendeten Motorola 68000) geschrieben waren musste fast das gesamte Betriebssystem neu programmiert werden. Nur der Finder und viele Teile, die in Pascal geschrieben waren, konnten mit nur wenigen Änderungen weiterverwendet werden. Das Resultat war auf x86 source-code-kompatibel: Programme, die für System geschrieben wurden, hätten auf x86 neu kompiliert werden müssen. Hardwarenahe Programmierung hätte jedoch neu geschrieben werden müssen. Bei Apple ergab sich nun einerseits die Situation, dass man auch Hardware verkaufen wollte und gerade mit IBM und Motorola eine Allianz zur PowerPC-Entwicklung gebildet hatte. Da wäre ein x86-Betriebssystem Konkurrenz aus dem eigenen Hause gewesen. Anderseits waren die PC-Hersteller nicht gewillt, einen guten Preis für das Betriebssystem zu zahlen, wenn es auf einem neuen PC vorinstalliert verkauft worden wäre. Microsoft hatte mit den Herstellern von PCs einen Vertrag abgeschlossen, bei dem mit jedem verkauften PC ein gewisser Betrag an Microsoft abzuführen war – egal, welches Betriebssystem nun vorinstalliert war. Aber auch die Software-Entwickler waren vorsichtig, da sie nicht wussten, wie viel Portierungsaufwand es bedeutet hätte, ihre Programme fit für den x86-Befehlssatz zu machen. In vielen Programmen waren Funktionen zur Beschleunigung hardwarenahe in 68k-Assembler geschrieben. Zudem gab es 1993 an der Spitze von Apple einen Wechsel und Michael Spindler wurde neuer CEO. Unter ihm wurde ein Sparprogramm realisiert und, obwohl nach dem lauffähigen Prototyp von Star Trek das Team auf 50 Programmierer aufgestockt wurde, das gesamte Projekt schließlich im Juni 1993 eingestellt. Projekt Copland. Copland war der Projektname für ein von Grund auf neugeschriebenes Betriebssystem der Firma Apple, das die Nachfolge von System 7 antreten sollte; stattdessen wurde Letzteres zu Mac OS 8 weiterentwickelt. Namensgeber für das Projekt war der zeitgenössische Komponist Aaron Copland. Dieser Name war bewusst gewählt, um den Neuanfang zu verdeutlichen, da bis dato alle Versionen interne Projektnamen erhielten, die von klassischen Komponisten – wie Mozart oder Beethoven – stammten. Apple plante, im Jahr 1994 die ersten PowerPC basierten Macintosh-Computer mit dem Betriebssystem Copland auszurüsten. Das Ziel war ein System, das auf einem Microkernel (von Apple gerne als Nanokernel bezeichnet) aufbaut und endlich präemptives Multitasking und Speicherschutz beherrscht. Das ganze System sollte mehrbenutzerfähig sein und anders als System 7 nativ auf dem PowerPC-Prozessor arbeiten. Copland wurde im März 1994 gestartet. Zunächst war ein Veröffentlichungsdatum Ende 1995 geplant, das später auf Mitte 1996 und Ende 1997 verschoben wurde. Im November 1995 wurde eine Betaversion für Softwareentwickler veröffentlicht. Die Copland-Entwicklung, an der etwa 500 Entwickler arbeiteten und die insgesamt über 250 Mio. Dollar kostete, war zu diesem Zeitpunkt aber noch nicht fertig und hoffnungslos im Verzug. Apple musste die Macintosh-Benutzer und die Entwickler mit dem gealterten System 7 vertrösten. Gleichzeitig feierte Microsoft Windows 95 große Erfolge, und die ersten ernst zu nehmenden Linux-Distributionen tauchten auf dem Markt auf. Inspiriert von Microsofts Verschmelzung von MS-DOS und Windows 3.11 zu Windows 95, die nicht einmal ein Jahr Entwicklungszeit in Anspruch genommen hatte, beschloss man bei Apple im Jahr 1997, Copland zu stoppen und so viele Funktionen davon wie möglich in ein überarbeitetes System 7 zu integrieren. Die ersten Neuerungen aus dem Copland-Projekt flossen schon in Version 7.6 von Mac OS ein. In Mac OS 8.0 wurden zahlreiche weitere integriert. Apple arbeitete zeitweise daran, Copland auf die x86-Plattform zu portieren, und zwar durch den Ersatz des Nukernels durch Mach 3 – eine Lösung, die auch gleich auf PowerPC-Prozessoren lauffähig gewesen wäre. Das Projekt wurde bei Apple insbesondere von Ike Nassi als Mac OS der Zukunft angesehen – es wurde jedoch eingestellt, kurz bevor Apple entschied, NeXT zu übernehmen und dessen Mach-basiertes Betriebssystem zu nutzen. Mac OS (1997–2001). Der Grund, warum der Nachfolger von System 7.5.5 „Mac OS 7.6“ heißt, sind die Mac-Clones: die Benutzer sollten es mit Apple in Zusammenhang bringen, auch wenn sie einen Klon anderer Hersteller nutzten. Diese sind auch der Grund, warum Mac OS 7.7 als Mac OS 8.0 auf den Markt kam. Tatsächlich ist Mac OS eine weitere Version von „System“, „Macintosh System“ oder „Systemsoftware“ – mit integrierten Entwicklungen aus dem nie fertig gestellten Betriebssystem Copland. Die Versionen 8.0 bis 9.2.2 führten die Überführung von Copland-Techniken konsequent weiter fort und bereiteten den Weg für Apples nächste Betriebssystem-Inkarnation, die ebenfalls den Namen „Mac OS“ tragen sollte: Mac OS X. Suche nach einem Nachfolger. Nachdem es Apple nicht geschafft hatte, sein veraltetes Betriebssystem durch eine eigene Neuentwicklung zu ersetzen, suchte das Management fieberhaft nach einer modernen Alternative, die man entweder lizenzieren oder zukaufen wollte. So wurde neben BeOS, das bald zum Favoriten werden sollte, auch über Windows NT 4.0 nachgedacht. Sogar über die Wiederbelebung von Taligent (Projekt Pink) wurde nachgedacht. Parallel dazu wurde den Programmierern der Auftrag erteilt, so viele Funktionen des gescheiterten Betriebssystems Copland wie möglich in Mac OS zu überführen. BeOS. Als mit Be Incorporated über den Kauf von BeOS verhandelt wurde, war sich dessen CEO, Jean-Louis Gassée, sehr sicher, dass Apple mit dem Rücken zur Wand keine andere Möglichkeit haben werde als BeOS zu kaufen. Er trieb den Preis daher in die Höhe, weil er etwas hatte, was Apple wollte und dringend brauchte – gleichzeitig war allen klar, dass Apple die Zeit ausging, da System 7 hoffnungslos veraltet war und der PC mit Windows 95 technisch überlegen und kommerziell erfolgreicher war, während bei Apple die Verkaufszahlen rückläufig waren. BeOS lief bereits auf den Power Macs von Apple und bot all das, was Apple mit Copland hatte erreichen wollen: es war technisch auf dem Stand der Zeit und bereits voll funktionsfähig. Be Incorporated war eigentlich als Hersteller von Hardware aufgetreten und hatte das Betriebssystem gemeinsam mit den als BeBox bezeichneten Computern verkauft. Doch der eigentliche Wert der Firma waren nicht die BeBoxen, sondern das Betriebssystem BeOS. Für Apple war BeOS jedoch schon alleine deshalb nicht vollständig, weil es keine Kompatibilität zu bestehenden Anwendungen für System/Mac OS gab. Ein Resultat der Bemühungen, diese Kompatibilität herzustellen, ist SheepShaver: ein PowerPC-Emulator für BeOS, mit dem es möglich ist, das klassische System ab 7.5.2 bzw. Mac OS 7.6 bis 9.0.4 auf BeOS zu emulieren und bestehende Anwendungen somit weiter verwenden zu können. SheepShaver erschien jedoch erst 1998 als Shareware, später im Rahmen von BeDepot, und wurde nach dem Untergang von Be Incorporated unter der GNU General Public License veröffentlicht. Als man sich nicht über den Preis für BeOS einigen konnte, suchte man bei Apple erneut nach weiteren Optionen. Dabei wurde auch der ehemalige Apple-Mitbegründer Steve Jobs und dessen Firma NeXT kontaktiert. NeXTStep/OPENSTEP. NeXT, von Steve Jobs gegründet, hatte ein funktionierendes modernes Betriebssystem und verkaufte es einzeln oder zusammen mit Hardware, war jedoch auf dem Markt nicht erfolgreich. Apple auf der anderen Seite hatte einen Kundenstock, aber kein modernes Betriebssystem. Nachdem Steve Jobs mit Gil Amelio telefoniert und ihm von BeOS abgeraten haben soll, einigten sich beide Firmen auf eine Übernahmen von NeXT durch Apple. 1996 wurde diese vollzogen, Be Incorporated ging damit leer aus. Steve Jobs selbst wurde interimsmäßiger CEO von Apple. Neben vom neuen CEO eingeleuteten überarbeiteten Computer-Designs wie den iMacs (1998) und den iBooks (1999) wurde sofort an einer Überführung des Betriebssystems von NeXT, NeXTStep/OPENSTEP, in den Mac-OS-Nachfolger gearbeitet. Projekt Rhapsody. Unter dem Codenamen „Rhapsody“ (der auch bei der internen Versionsnummer angeführt wurde) wurde das Betriebssystem NeXTStep bzw. OPENSTEP zu Mac OS X weiterentwickelt. Nicht wenige der im Copland-Projekt angestrebten Ziele konnte Apple erst mit Mac OS X verwirklichen. Bei Erscheinen von Mac OS 8 wurde bereits an Rhapsody gearbeitet. Das neue auf BSD basierende Unix-Betriebssystem musste erst auf die in Apple-Macintosh-Rechnern verwendete PowerPC-Architektur portiert werden. Es sollte ursprünglich die NeXTStep-typische Optik aufweisen, erhielt dann aber das Aussehen von Mac OS 8 im Platinum-Design und wurde erstmals als Mac OS X Server 1.0 veröffentlicht – nur für PowerPC, obwohl NeXTStep ursprünglich auch auf x86 und Rhapsody auf beiden Architekturen lief. Auf drängen diverser Hersteller von Dritt-Software wurden Kompatibilitätsschichten für Mac-OS-Anwendungen geschaffen. Schließlich erhielt es den Namen Mac OS X; wobei das X für die 10 steht, was das neue Betriebssystem namentlich als Nachfolger von Mac OS 9 kennzeichnete, zugleich aber auf die (unixoiden) Neuerungen hinweisen sollte. Mit der Public Beta wurde mit dem Aqua-Desktop ein eigenständiges Look and Feel eingeführt, das Mac OS X bis heute prägt. Mac OS X (2000–2012). Ende 2000 wurden erste Power Macs mit vorinstalliertem Mac OS 9 und Mac OS X 10.0 ausgeliefert, Mac OS 9 allerdings blieb das Standard-Betriebssystem. Ab 2001, mit Mac OS X 10.0.3, war Mac OS X das Standardsystem. Ein mitgeliefertes Mac OS 9.1 oder 9.2 konnte durch den Benutzer nachinstalliert werden. Die letzte Version des klassischen Mac OS war Version 9.2.2. Mac OS wurde in Form einer Kompatibilitätsumgebung namens Classic-Umgebung bis Mac OS X 10.4 „Tiger“ weiter unterstützt. Eine ursprünglich „Blue Box“ genannte virtuelle Maschine erlaubt die Installation eines originalen Mac OS 9, welches als Applikation unter Mac OS X ausgeführt wird. Die Fenster der unter diesem System laufenden „klassischen“ Mac OS-Programme sind frei verschiebbar, der Schreibtischhintergrund des Mac OS ist dabei ausgeblendet. Diese Kompatibilitätsumgebung ermöglicht auch die Ausführung von 68k-Programmen, weil diese Möglichkeit als transparente Emulation in Mac OS für PowerPC enthalten ist und auch in der Virtualisierung funktioniert. Die Classic-Umgebung war ausschließlich auf PowerPC-basierten Macs nutzbar und wurde mit Mac OS X 10.5 „Leopard“ eingestellt. Die letzte Version von Mac OS X ist 10.7, das 2011 veröffentlicht wurde und dessen letztes Update 10.7.5 am 4. Oktober 2012 erschien. Seit Version 10.8, die am 25. Juli 2012 veröffentlicht wurde, heißt das Betriebssystem nur noch „OS X.“ Die Bezeichnung „Mac OS“ findet seither keine Verwendung mehr. Meson. Mesonen (von griechisch: τὸ μέσον (tó méson) „das Mittlere“) sind instabile subatomare Teilchen. Aufgebaut aus einem Quark-Antiquark-Paar bilden sie eine der zwei Gruppen von Hadronen. Von der zweiten Hadronengruppe, den Baryonen, unterscheiden sich Mesonen durch ihren ganzzahligen Spin; sie sind somit Bosonen. Der Name „Meson“ wurde wegen der mittelschweren Masse des zuerst entdeckten Mesons, des Pions, zwischen Elektron und Proton gewählt. Mesonen entstehen in hochenergetischen Teilchenkollisionen (z. B. in der kosmischen Strahlung oder in Experimenten der Hochenergiephysik) und zerfallen in Sekundenbruchteilen. Sie werden nach der Art der enthaltenen Quarks, ihrem Spin und ihrer Parität klassifiziert. Mittels ihrer Quarks nehmen Mesonen an der starken und schwachen Wechselwirkung sowie der Gravitation teil; elektrisch geladene Mesonen unterliegen zusätzlich der elektromagnetischen Wechselwirkung. Definition. Unter Mesonen werden in der Literatur teils nur die aus einem Quark und einem Antiquark aufgebauten Bosonen verstanden, teils alle Bosonen mit starker Wechselwirkung. Im letzteren Fall würden auch die hypothetischen Glueballs und Tetraquarks zu den Mesonen zählen. Eigenschaften. Das Quarkmodell erlaubt eine konsistente Beschreibung aller beobachteten Mesonen als Bindungszustand eines Quarks mit dem Antiteilchen eines Quarks (Antiquark). Als zusammengesetzte Teilchen sind Mesonen somit keine fundamentalen Elementarteilchen. Mesonen haben einen ganzzahligen (Gesamt-)Spin, die leichtesten J=0 (skalare oder pseudoskalare Mesonen) oder J=1 (Vektormesonen oder Pseudovektor-Mesonen). Dies lässt sich im Quarkmodell damit erklären, dass die beiden Quarks, die ein Meson bilden, jeweils einen Spin von 1/2 haben und ihre Spins antiparallel oder parallel stehen können. Zusätzlich können Mesonen auch innere Anregungszustände besitzen, die durch einen Bahndrehimpuls > 0 beschrieben werden, sowie radiale Anregungen. Hierdurch steigt ihre Energie an, so dass sie andere Eigenschaften (Spin, Zerfallsprodukte, …) als die Mesonen im Grundzustand besitzen. Alle Mesonen sind instabil. Sie zerfallen in leichtere Hadronen (meist andere, leichtere Mesonen) und/oder in Leptonen. Mesonen ohne Ladung und Flavor-Quantenzahlen können auch elektromagnetisch in Photonen zerfallen. Spin und Parität. Die folgenden Kombinationen sind damit "nicht" realisiert: JPC = 0−−, (ungerades J)−+, (gerades J)+−. Sollte man „exotische Mesonen“ mit solchen Quantenzahlen entdecken, so müssten sie anders zusammengesetzt sein (Tetraquarks, Glueballs, …). Multipletts. Da es sechs verschiedene Quark-Flavours gibt, kann man 6×6 = 36 unterschiedliche Flavour-Antiflavour-Kombinationen erwarten (wenn man Meson und Antimeson jeweils nur insgesamt einmal zählt). Daraus ergeben sich theoretisch jeweils 36 Mesonen für jede Kombination aus Spin-Orientierung (parallel, antiparallel), Bahndrehimpuls und radialer Anregung. In der Praxis ergeben sich deutliche Einschränkungen: Mesonzustände mit höherer Energie sind schwerer zu erzeugen, kurzlebiger und schwieriger spektroskopisch zu trennen. Daher ist die Zahl bekannter Mesonen beschränkt. pseudoskalare Mesonen (Spin = 0) Verkompliziert wird dieses Bild durch die Quantenmechanik. Die drei leichteren Quarks u, d und s unterscheiden sich in ihren Massen nicht allzu sehr. Daher bilden sie in bestimmten Fällen Überlagerungszustände mehrerer Quark-Antiquark-Paare: das neutrale Pion (π-Meson) etwa ist eine Mischung aus einem uu- mit einem dd-Zustand (Antiquarks sind überstrichen). Die 3×3 = 9 Mesonen aus den drei leichteren Quarks müssen daher in ihrer Gesamtheit behandelt werden. Betrachtet man die niedrigsten Zustände (Bahndrehimpuls formula_1; keine radiale Anregung), so bilden sich je nach Spinkopplung Nonetts aus pseudoskaleren Mesonen (JP = 0−) und Vektormesonen (JP = 1−). Jeweils drei dieser Mesonen haben Ladung Q = 0 und Strangeness S = 0 und sind quantenmechanische Mischungen aus uu, dd und ss. Die Massen der schweren c- und b-Quarks sind deutlich verschieden, daher kann man hier die Mesonen getrennt betrachten. Das t-Quark wiederum ist extrem schwer und zerfällt, bevor es gebundene Zustände mit anderen Quarks bilden kann. Weitere Mesonen sind bekannt, die sich als höher angeregte Quark-Antiquark-Zustände deuten lassen. Die Zuordnung ist allerdings nicht immer einfach und eindeutig, zumal auch hier wieder quantenmechanische Mischungen auftreten können. Namensgebung. Ausgehend von beobachteten Eigenschaften der Atomkerne postulierte Hideki Yukawa im Jahre 1935 eine Teilchenart, die die Anziehung zwischen Protonen und Neutronen im Atomkern vermitteln sollte (Yukawa-Potential). Weil die vorhergesagte Masse des Teilchens zwischen den Massen des Elektrons und des Protons lag, benannte er es nach dem griechischen Wort "mésos" ‚mitten‘, ‚in der Mitte‘, ‚mittlerer‘. Nach der Entdeckung des ersten Mesons, des Pions, im Jahre 1947 durch Cecil Powell wurde Yukawa im Jahre 1949 mit dem Nobelpreis für Physik ausgezeichnet. Das schon vorher entdeckte Myon, dessen Masse ebenfalls zwischen Elektronen- und Protonenmasse liegt, war zunächst für das Yukawa-Teilchen gehalten worden und wurde "My-Meson" genannt. Spätere Experimente zeigten jedoch, dass das Myon nicht der starken Wechselwirkung unterliegt. Erst allmählich wandelte sich die Wortbedeutung von Meson in die heutige, oben angegebene Definition. In den folgenden Jahrzehnten wurden weitere Mesonen entdeckt, deren Massen teilweise auch oberhalb der des Protons liegen. Ihre Namensgebung blieb unsystematisch, bis eine umfassende Theorie (Quarkmodell, Quantenchromodynamik) formuliert wurde, die die Beziehungen zwischen den Mesonen erklärt. Im Folgenden werden die seit 1988 gebräuchlichen Namen verwendet. Mesonen mit Flavour-Quantenzahl. Mesonen sind grün, Antimesonen gelb hinterlegt Liste einiger Mesonen. Antiquarks und Antiteilchen sind überstrichen dargestellt. Mitochondrium. Das Mitochondrium, auch Mitochondrion, (Plural "Mitochondrien"; zu altgriechisch "mítos" ‚Faden‘ und "chóndros" ‚Korn‘) ist ein von einer Doppelmembran umschlossenes Zellorganell mit eigener Erbsubstanz, der mitochondrialen DNA. Mitochondrien kommen in den Zellen fast aller Eukaryoten vor. Bei Prokaryoten kommen sie nicht vor. Mitochondrien werden auch als die „Kraftwerke“ der Zellen bezeichnet, weil in ihnen über die Atmungskette das energiereiche Molekül Adenosintriphosphat regeneriert wird. Neben dieser oxidativen Phosphorylierung erfüllen sie weitere essentielle Aufgaben für die Zelle, beispielsweise sind sie an der Bildung der Eisen-Schwefel-Cluster beteiligt. Allgemeines. Besonders viele Mitochondrien befinden sich in Zellen mit hohem Energieverbrauch; das sind unter anderem Muskelzellen, Nervenzellen, Sinneszellen und Eizellen. In Herzmuskelzellen erreicht der Volumenanteil von Mitochondrien 36 %. Sie haben einen Durchmesser von etwa 0,5–1,5 µm und sehr unterschiedliche Formen, von Kugeln bis zu komplexen Netzwerken. Mitochondrien vermehren sich durch Wachstum und Sprossung, die Anzahl von Mitochondrien wird dem Energiebedarf der Zelle angepasst. Eukaryotische Zellen, die ihre Mitochondrien verlieren, können diese nicht mehr regenerieren. Es gibt auch Eukaryoten ohne Mitochondrien, z. B. einige Protozoen. Die Anzahl der Mitochondrien pro Zelle liegt typischerweise bei einer Größenordnung von 1000 bis 2000 bei einem Volumenanteil von 25 %, jedoch können diese Werte je nach Zelltyp und Organismus sehr stark variieren. So liegt die Anzahl in der reifen Spermazelle des Menschen bei etwa vier bis fünf im Mittelstück („Hals“) gelegenen Mitochondrien, bei der reifen Eizelle dagegen bei mehreren hunderttausend. Mitochondrien werden über das Plasma der Eizelle nur von der Mutter vererbt, was Anlass zur Erforschung mütterlicher Verwandtschaftslinien ("Matrilinien") war. Es hat sich mittlerweile herausgestellt, dass auch durch das Spermium einige männliche Mitochondrien in das Plasma der befruchteten Eizelle (Zygote) importiert werden. Diese „männlichen“ Mitochondrien werden jedoch wahrscheinlich recht schnell eliminiert, denn sie sind, so wird inzwischen angenommen, schon von vornherein als potentiell gefährlicher „Zellmüll“ markiert worden. Es gibt jedoch einige wenige Fälle, in denen Mediziner nachweisen konnten, dass die Mitochondrien des Kindes aus der väterlichen Linie stammten. Bislang sind etwa 50 Krankheiten (Mitochondriopathien) bekannt, die durch mitochondriale Fehlfunktionen hervorgerufen werden können. Der deutsche Pathologe und Histologe Richard Altmann entdeckte 1886 das Mitochondrium. Aufbau. Die Hülle der Mitochondrien besteht aus einer äußeren und einer inneren Membran, die aus Phospholipid-Doppelschichten und Proteinen aufgebaut sind. Beide Membranen unterscheiden sich in ihren Eigenschaften. Durch diese Membranen existieren fünf unterschiedliche Kompartimente: Die äußere Membran, der Intermembranraum (der Raum zwischen den beiden Membranen), die innere Membran, die Cristae und die Matrix (der Raum innerhalb der inneren Membran). Entgegen der gängigen Vorstellung treten Mitochondrien in der Zelle überwiegend nicht als separate, bohnenförmige Organellen auf, wie sie noch oft in Lehrbüchern dargestellt werden. Stattdessen bilden sie ein tubuläres, mitochondriales Netzwerk, welches die gesamte Zelle durchzieht. Einzelne Mitochondrien sind in der Lage, sich mit diesem Netzwerk zu verbinden (Fusion) und sich wieder abzuspalten (Fission). Außenmembran. Die äußere Membran umschließt das gesamte Mitochondrium und enthält Kanäle aus Proteinkomplexen, welche den Austausch von Molekülen und Ionen zwischen dem Mitochondrium und dem Cytosol ermöglichen. Große Moleküle können die Membran nicht passieren. Die mitochondriale Außenmembran, die das gesamte Organell umschließt und nicht gefaltet ist, besitzt ein Gewichtsverhältnis von Phospholipid zu Protein von 1:1 und ist damit der eukaryotischen Plasmamembran ähnlich. Sie enthält zahlreiche integrale Proteine, die Porine. Porine bilden Kanäle, die freie Diffusion von Molekülen mit einer Masse von bis zu 5000 Dalton durch die Membran ermöglichen. Größere Proteine können in die Mitochondrien eindringen, wenn eine Signalsequenz an ihrem N-Terminus an eine große Proteinuntereinheit der Translokase bindet, von der sie dann aktiv durch die Membran bewegt werden. Treten Risse in der äußeren Membran auf, so können Proteine aus dem Intermembranraum ins Cytosol austreten, was zum Zelltod führen kann. Die mitochondriale Außenmembran kann sich mit der des endoplasmatischen Retikulum (ER) zusammenschließen und bildet dann eine Struktur, die sich MAM (mitochondria-associated ER-membrane) nennt. Diese ist wichtig für Signalaustausch zwischen ER und Mitochondrium und spielt eine Rolle beim Lipidtransfer. Intermembranraum. Der Intermembranraum ist der Raum zwischen der äußeren Membran und der inneren Membran. Da die äußere Membran frei durchlässig für kleine Moleküle ist, ist die Konzentrationen von kleinen Molekülen wie Ionen und Zuckern im Intermembranraum identisch mit der im Zytosol. Große Proteine allerdings benötigen eine spezifische Signalsequenz, um durch die Membran transportiert zu werden, sodass sich die Zusammensetzung der Proteine zwischen Intermembranraum und Cytosol unterscheidet. Ein Protein, das auf diese Art im Intermembranraum gehalten wird, ist Cytochrom c. Innere Membran. Die innere Membran enthält mehr als 151 verschiedene Polypeptide und besitzt ein sehr hohes Protein-zu-Phospholipid-Gewichtsverhältnis (mehr als 3:1, womit auf 1-Protein etwa 15 Phospholipide kommen). Rund 1/5 der gesamten Proteine eines Mitochondriums sind in der inneren Membran lokalisiert. Darüber hinaus ist die innere Membran reich an einem ungewöhnlichen Phospholipid, dem Cardiolipin. Dieses wurde ursprünglich in Kuhherzen im Jahre 1942 entdeckt und ist in der Regel charakteristisch für mitochondriale und bakterielle Plasmamembranen. Cardiolipin enthält vier Fettsäuren anstelle von sonst zwei, ist für die Ionenundurchlässigkeit der Membran verantwortlich und sonst nur in Procaryoten zu finden. Im Gegensatz zur äußeren Membran enthält die innere Membran keine Porine und ist für alle Moleküle undurchlässig. Fast alle Ionen und Moleküle benötigen daher beim Eindringen oder Verlassen der Matrix spezielle Membrantransporter. Proteine werden in die Matrix über die Translokase der inneren Membran (TIM) oder über Oxa1 transportiert. Darüber hinaus existiert zwischen dem Intermembranraum und der Matrix ein Membranpotential, das durch die Enzyme der Atmungskette gebildet wird. Die innere Membran umschließt die Matrix, die interne Flüssigkeit des Mitochondriums. Sie entspricht dem Cytosol von Bakterien und enthält die mitochondriale DNA, die Enzyme des Citratzyklus und eigene Ribosomen, die sich von den Ribosomen im Cytosol (aber auch von denen von Bakterien) unterscheiden. Der Intermembranraum zwischen den beiden Membranen enthält Enzyme, die Nukleotide unter ATP-Verbrauch phosphorylieren können. Aufbau der inneren Membran. Der Cristae-Typ (von lat. "crista" „Kamm“) besitzt an der inneren Membran zahlreiche Einstülpungen, die Cristae. Dadurch wird die Oberfläche der inneren Membran, an der chemische Reaktionen stattfinden können, erheblich vergrößert und ihre Fähigkeit, ATP zu produzieren, beschleunigt. Die innere Membran enthält große Proteinkomplexe der Atmungskette, welche für die Energiegewinnung zuständig sind. Der andere Mitochondrien-Typ heißt Tubuli-Typ und findet sich beispielsweise in steroidproduzierenden Zellen; bei ihm bildet die innere Membran Röhren aus. Bei schlauchförmigen Einstülpungen mit perlenartigen runden Aussackungen spricht man vom Sacculi-Typ. Bei Mitochondrien einer Leberzelle ist die Fläche der inneren Membran etwa fünfmal größer als die der äußeren Membran. Dieses Verhältnis ist variabel und Mitochondrien aus Zellen mit erhöhtem Bedarf an ATP, wie Muskelzellen, enthalten noch mehr Cristae. Die Cristae sind an der Innenseite mit kleinen runden Körpern mit einem Durchmesser von 8,5 nm, besetzt, die als F1-Partikel, Elementarpartikel oder ATP-Synthase-Partikel bekannt sind. Hier findet im Verlauf der Zellatmung die ATP-Bildung statt. Die Einstülpungen oder Falten der inneren Membran sind nicht zufällig und können ihre chemiosmotische Funktion beeinträchtigen. Matrix. Der durch die innere Membran umschlossene Raum nennt sich Matrix. In ihm sind 2/3 aller Proteine eines Mitochondriums enthalten. Die Matrix ist wichtig bei der ATP-Produktion, die mit Hilfe der ATP-Synthase stattfindet. Die Matrix enthält eine hochkonzentrierte Mischung aus Hunderten von Enzymen sowie spezielle, mitochondriale Ribosomen, tRNA und mehrere Kopien des mitochondrialen Genoms. Außerdem ist in ihm die Konzentration an Intermediaten des Citratzyklus der Beta-Oxidation sehr hoch. Zu den Hauptaufgaben der Enzyme gehört die Oxidation von Pyruvat und Fettsäuren sowie der Citratsäurezyklus. Mitochondrien besitzen eigenes genetisches Material und können selbst RNA und Proteine herstellen. Es wurde gezeigt, dass in der mitochondrialen DNA-Sequenz 16.569 Basenpaare insgesamt 37 Gene codieren, davon 22 tRNA, 2 rRNA und 13 Peptid-Gene. Die 13 mitochondrialen Peptide sind in die innere Mitochondrienmembran integriert, zusammen mit Proteinen, die von Genen gebildet werden, die sich in den Wirtszellen befinden. Mitochondrien-assoziierte ER-Membran (MAM). Die Mitochondrien-assoziierte ER-Membran (MAM, englisch mitochondria-associated ER membrane) ist ein weiteres strukturelles Element, dessen entscheidende Rolle in der zellulären Physiologie und Homöostase zunehmend erkannt wird. Während man einst vermutete, dass es nur eine permanent auftauchende Verunreinigung durch technische Schwierigkeiten bei der Fraktionierung sei, wurde es jetzt als membranöse Struktur an der Schnittstelle zwischen Mitochondrien und dem ER identifiziert. Eine physikalische Kopplung zwischen diesen zwei Organellen war bereits zuvor bei elektronenmikroskopischen Aufnahmen und in neuerer Zeit mit Fluoreszenz-Mikroskopie untersucht worden. Solche Untersuchungen ergaben die Vermutung, dass an der MAM, das bis zu 20 % der äußeren mitochondrialen Membran umschließt, ER und Mitochondrium nur noch durch eine 10–25 nm große Lücke getrennt sind und beide durch einen Proteinkomplex zusammengehalten werden. Gereinigte MAM aus subzellulären Fraktionierungen hat gezeigt, dass es neben Ca2+-Ionenkanälen auch mit Enzymen angereichert ist, die in den Phospholipidaustausch involviert sind. Diese Hinweise auf eine besondere Rolle der MAM in der Regulation der Fettspeicherung und Signalübertragung haben sich bestätigt, mit bedeutenden Auswirkungen für mitochondrial-assoziierte zelluläre Phänomene, wie nachfolgend diskutiert. MAM hat nicht nur einen Einblick in die zugrunde liegenden, mechanistischen Grundlagen von physiologischen Prozessen wie der intrinsische Apoptose und der Ausbreitung von Calcium-Signalen gegeben, sondern es verfeinerte auch unsere Sicht auf die Mitochondrien. Obwohl sie oft als statische und isolierte „Kraftwerke der Zelle“ gesehen werden, unterstreicht die Entwicklung der MAM, inwieweit Mitochondrien in die Zellphysiologie integriert wurden, mit enger physikalischer und funktioneller Kupplung ans Endomembransystem. Phospholipid-Transfer. Die MAM ist angereichert mit Enzymen, die in der Lipid-Biosynthese involviert sind, wie z. B. Phosphatidylserin-Synthase auf der ER-Oberfläche und Phosphatidylserin-Decarboxylase auf der mitochondrialen Oberfläche. Da Mitochondrien als dynamische Organellen ständig Spaltung und Fusion durchlaufen, müssen sie für die Membranintegrität konstant und ausreichend reguliert mit Phospholipiden versorgt werden. Allerdings sind Mitochondrien nicht nur ein Ziel für Phospholipide, sondern spielen auch eine Rolle beim Austausch zwischen Organellen von (Zwischen-) Produkten des Phospholipid-Biosynthesewege, des Ceramid- und Cholesterinstoffwechsels sowie Glykosphingolipid-Anabolismus. Die Transportkapazität dieser Stoffe ist von der MAM abhängig, von der gezeigt worden ist, dass sie den Transfer von Lipidzwischenprodukte zwischen Organellen erleichtert. Im Gegensatz zum Standard-Vesikel-Mechanismus des Lipidtransfers gibt es Hinweise, dass die räumliche Nähe des ER zur Mitochondrienmembran beim MAM das Flippen zwischen gegenüberliegenden Lipiddoppelschichten ermöglicht. Trotz dieses ungewöhnlichen und scheinbar energetisch ungünstige Mechanismus, erfordert solch ein Transport kein ATP. Stattdessen wurde eine Abhängigkeit von einem Multiproteinkomplex gezeigt, der sich „ER-mitochondria encounter structure“ oder ERMES nennt, auch wenn unklar bleibt, ob dieser Komplex den Lipidtransfer direkt vermittelt oder aber erforderlich ist, um die Membranen in ausreichender Nähe zueinander zu halten, um die Energiebarriere für ein direktes Lipid-Flipping zu senken. MAM könnte auch Teil des sekretorischen Mechanismus sein, zusätzlich zu seiner Rolle beim intrazellulären Lipid-Stoffaustausch. Speziell scheint MAM eine Zwischenstation zwischen dem rauen ER und dem Golgi-Apparat zu sein, in dem Stoffwechselweg, der zu Very Low Density Lipoproteinen (VLDL) führt. Die MAM dient somit als entscheidender Stoffwechsel- und Umschlagplatz im Fettstoffwechsel. Calcium-Signalgebung. Die bedeutende Rolle des ER für die Calcium-Signalgebung war lange vor der des Mitochondriums anerkannt; zum Teil da die geringe Affinität der Ca2+-Kanäle in der äußeren Membran der angeblichen Verantwortlichkeit des Organells für intrazelluläre Ca2+-Ströme völlig widersprach. Durch die Anwesenheit des MAM wird dieser scheinbare Widerspruch aufgelöst: Die enge räumliche Verbindung zwischen den beiden Organellen resultiert in Ca2+-Mikrodomänen an Berührungspunkten, die eine effiziente Ca2+-Übertragung vom ER zu den Mitochondrien erleichtern. Die Übertragung erfolgt in Reaktion auf sogenannte „Ca2+-puffs“, erzeugt durch spontane Zusammenlagerung und Aktivierung von IP3R, einem anerkannten ER-Membran Ca2+-Kanal. Perspektive. Die MAM ist von entscheidender Bedeutung für den Austausch von Information und Stoffwechselprodukten in der Zelle, die eine Vernetzung der Physiologie von ER und Mitochondrien ermöglicht. Zwischen beiden besteht nicht nur eine strukturelle, sondern auch eine funktionelle Kopplung, die entscheidend für die gesamte zelluläre Physiologie und Homöostase ist. Die MAM ermöglicht damit eine Sichtweise auf die Mitochondrien, die von der traditionellen Sichtweise dieser Organellen als eine statische, isolierte Einheit abweicht. Stattdessen wird die Integration der Mitochondrien in verschiedene zelluläre Prozesse betont, als das Resultat eines endosymbiontischen Vorgangs. Ursprung. Nach der Endosymbiontentheorie geht man davon aus, dass die Mitochondrien aus einer Symbiose von aeroben Bakterien (aus der Gruppe der α-Proteobakterien, Gattung Rickettsia) mit den Vorläufern der heutigen Eukaryoten hervorgegangen sind. Ein alternativer Vorschlag ist die Aufnahme eines fakultativen anaeroben Bakteriums (Symbiont) durch ein methanogenes Archaeon (Wirt). Hinweise auf eine wie auch immer gestaltete Endosymbiose sind der Besitz eigener genetischer Information (mtDNA, Chondriom), eine eigene Proteinsynthese (mit eigenen Ribosomen und tRNAs) und das Vorhandensein einer inneren Membran, die sich deutlich vom Bau der äußeren Membran unterscheidet und die der Synthese von ATP aus ADP dient. Die Mitochondrien sind jedoch so spezialisiert, dass sie allein nicht lebensfähig sind. Sie sind relativ eng mit anderen, seltener auftretenden Organellen, den Hydrogenosomen, verwandt. Genom. Die Mitochondrien besitzen ein eigenes Genom (Chondriom), das sich, häufig mehrfach kopiert, in der mitochondrialen Matrix befindet. Das Genom ist als zirkuläre und doppelsträngige DNA (mtDNA) geformt (siehe auch Plasmid) und besitzt einen eigenständigen Verdopplungszyklus. Mitochondrien werden als semiautonom bezeichnet, ihr Genom codiert selbst nur einen kleinen Teil der vom Mitochondrium benötigten Proteine. Beim Menschen kontrollieren 37 mitochondriale Gene die Synthese von 13 der ca. 80 Protein-Untereinheiten der Atmungskette, die restlichen 800–1000 verschiedenen mitochondrialen Proteine werden im Kerngenom kodiert. Die nicht für Proteine codierenden Gene der mtDNA codieren für die rRNA und für alle benötigten tRNAs. Veränderungen im Mitochondriengenom werden in der Forschung zur Aufklärung von Abstammungslinien der Arten, sowie verschiedener ethnischer Gruppen des Menschen genutzt, so etwa vom Genographic-Projekt. Vermehrung. Mitochondrien werden nicht neu gebildet, sondern entstehen durch Wachstum und Sprossung. Der Großteil der mitochondrialen Proteine wird im Cytosol synthetisiert und anschließend in die Mitochondrien transportiert. Der Transport dieser Proteine in die Mitochondrien erfolgt über die äußere Membran durch den TOM-Komplex (engl. translocase of outer mitochondrial membrane) und über die innere Membran durch den TIM-Komplex (engl. translocase of inner mitochondrial membrane) und beinhaltet die Funktion von Chaperonen, besonders Hsp70. Die Vermehrung der Mitochondrien hängt jeweils vom Bedarf ab. Bei der Zellteilung werden sie von der Mutterzelle auf die Tochterzellen verteilt. Verbrauchte Mitochondrien werden mit Hilfe des endoplasmatischen Retikulums, des Golgi-Apparats und der Lysosomen abgebaut. Mögliche Beziehungen zum Altern. Die Mitochondrien, als Kraftwerke der Zelle, können undichte Stellen in der Atmungskette aufweisen; d. h. bei der respiratorischen Oxidation kann es zur Freisetzung von Elektronen kommen. Diese können reaktive Sauerstoffspezies bilden, was oxidativen Stress verursachen kann, welcher zu einer hohen Mutationsrate der mitochondrialen DNA (mtDNA) führen kann. Diese hypothetischen Zusammenhänge zwischen Altern und oxidativem Stress sind nicht neu und wurden bereits vor über 50 Jahren vorgeschlagen. Sie werden in neueren Arbeiten angezweifelt. Oxidativer Stress kann zu mitochondrialen DNA-Mutationen führen, welche enzymatische Anomalien verursachen können, was wiederum zu weiterem oxidativem Stress führen kann. Ein Teufelskreis ist möglich. Neuere Messungen haben jedoch ergeben, dass die Akkumulationsgeschwindigkeit von Mutationen in mitochondrialer DNA 1 Mutation pro 7884 Jahre beträgt (das heißt 10−7 bis 10−9 pro Base pro Jahr, die jüngsten gemeinsamen Vorfahren von Menschen und Affen betrachtend), und damit vergleichbar ist zu den Mutationsraten autosomaler DNA (10−8 Basen pro Generation). Während des Alterns der Mitochondrien können verschiedene Änderungen auftreten. Gewebe von älteren Patienten zeigen eine Abnahme der enzymatischen Aktivität der Proteine der Atmungskette. Mutationen der mitochondrialen DNA können jedoch nur in 0,2 % der sehr alten Zellen gefunden werden. Es wird angenommen, dass große Deletionen im mitochondrialen Genom zu einem hohen Maß an oxidativem Stress und dem Absterben von Neuronen führen, als Auslöser der Parkinson-Krankheit. Allerdings gibt es viele Diskussionen darüber, ob mitochondriale Veränderungen Ursachen des Alterns sind oder nur Merkmale des Alterns. Eine repräsentative Studie an Mäusen zeigte eine verkürzte Lebensdauer, jedoch keine Erhöhung der reaktiven Sauerstoffspezies trotz steigender mitochondrialer DNA-Mutationen. Es ist jedoch zu beachten, dass bei alternden Wildtypmäusen nicht so viele Mutationen in der mitochondrialen DNA akkumulieren wie bisher vermutet (und diese Mutationen einen geringeren Effekt haben als gedacht), was Zweifel an der Bedeutung von Mutationen in der mitochondrialen DNA für das natürliche Altern aufkommen lässt. Somit bleiben die genauen Zusammenhänge zwischen Mitochondrien, oxidativem Stress und Alterung ungeklärt. Monotheismus. Der Begriff Monotheismus (gr. "mónos" „allein“ und "theós" „Gott“) bezeichnet Religionen bzw. philosophische Lehren, die "einen" allumfassenden Gott kennen und anerkennen. Damit werden diese in der Religionswissenschaft vom Polytheismus unterschieden, der viele Götter kennt und verehrt. Religionen, die viele Götter kennen, aber einem von diesen den Vorrang (als allein zu verehrenden Gott) einräumen, bezeichnet der Begriff Monolatrie. Der Begriff „Monotheismus“ ist erstmals im 17. Jahrhundert bei dem englischen Theologen und Philosophen Henry More nachgewiesen. Beispiele und Ausprägungen. Zeitgenössische monotheistische Religionen sind das Judentum, das Christentum, der Islam, der Sikhismus, das Bahaitum, das Jesidentum sowie der Zoroastrismus. Teils finden in historischer Betrachtung der Zoroastrismus als eine dualistische und die Anfänge des jüdischen Glaubens als eine henotheistische Religion Berücksichtigung. Nach Ansicht der meisten Ägyptologen finden sich nachweisbare geschichtliche Vorformen des Monotheismus im 14. Jahrhundert v. Chr. im Alten Ägypten unter der Regentschaft von Pharao Echnaton (Amenophis IV.). Er erhob Aton zum alleinigen Gott. Da er jedoch die Existenz der traditionellen Gottheiten nicht bestritt und deren Kult nur teilweise verbieten ließ, bewerten andere Ägyptologen diese Frühformen als temporären Henotheismus, der jedoch einen vorübergehenden Einschnitt in den Polytheismus darstellte. Jan Assmann bezeichnet diesen Einschnitt als „implizierten Monotheismus“, der aber noch nicht die vollständige Definition des späteren Monotheismus erfülle. Eine weitere monotheistische Religionsgemeinschaft sind die Mandäer. Der Monotheismus ist eine Form des Theismus. Abgrenzungen. In der Praxis ist die Unterscheidung zwischen Monotheismus und Polytheismus nicht immer einfach. Anhänger polytheistischer Religionen sind oft "de facto" Monotheisten, da sie nur einen der Götter ihres Glaubenssystems verehren. Man spricht in diesem Falle von Henotheismus. Andererseits gibt es auch monotheistische Religionen mit polytheistischen Elementen. Bernhard Lang geht davon aus, dass es sich bei der exklusiven Verehrung eines Gottes (Monolatrie) um ein temporäres, durch existenzbedrohende Krisen ausgelöstes Phänomen in einer polytheistischen Gesellschaft handeln kann. So erklärt das babylonische "Atramchasis-Epos" die zeitweise exklusive Verehrung des Regengottes Adad durch die von den Göttern beschlossene Trockenheit. In Ri 10,16 wird beschrieben, dass die in Nordpalästina lebenden Stämme im Krieg nur JHWH als Kriegsgott huldigen, nach dem Krieg aber zur Verehrung der Ortsgötter zurückkehren. In den politischen Krisenzeiten des zunehmenden assyrischen Drucks im 8. und 7. Jahrhundert v. Chr. habe sich daraus der Monotheismus der Hebräer entwickelt. Der Ethnologe Wilhelm Schmidt sprach von einem weltweit verbreiteten „ursprünglichen Monotheismus“ und versuchte, diese Idee in seinem zwölfbändigen Werk "Der Ursprung der Gottesidee" bzw. in "Ursprung und Werden der Religion" (1930) zu untermauern. Diese These ist empirisch umstritten. Nicht alle Religionen enthalten den Glauben an ein höchstes Wesen. In vielen afrikanischen Religionen, in denen heute ein solches vorgefunden werden kann, deutet nicht nur das Fehlen eines Kultes auf den Einfluss christlicher Missionare hin, sondern auch der Vergleich historischer Zeugnisse kann dies im Einzelnen belegen. Ein Beispiel für eine monotheistische afrikanische Religion (gepaart mit Ahnenkult) finden wir bei den Kikuyu in Kenia. Macintosh. Der Macintosh des kalifornischen Unternehmens Apple war der erste Mikrocomputer mit grafischer Benutzeroberfläche, der in größeren Stückzahlen produziert wurde. Der Name ist von der Apfelsorte "McIntosh" abgeleitet; unter Nutzern etablierte sich früh die Abkürzung Mac. Heute tragen Apples Personal Computer auch offiziell diese Produktbezeichnung – in Kombinationen wie "Mac mini, MacBook Air, MacBook, MacBook Pro, iMac" und "Mac Pro". Auch intern wird „Macintosh“ heute nicht mehr verwendet. „Mac“ war ebenso Teil des Namens der auf den Geräten laufenden Betriebssystemreihen "Mac OS" (bis 2001) und "Mac OS X" (bis 2012, inzwischen nur noch "OS X"). Geschichte. Prototyp des ersten Macintosh-Modells, 1981 Das erste Macintosh-Modell von 1984 Der erste Mac war der Nachfolger des technisch ähnlichen, aber wirtschaftlich erfolglosen und 10.000 USD teuren Apple Lisa. Der Macintosh 128k wurde am 24. Januar 1984 von Apple-Mitbegründer Steve Jobs vorgestellt. Der Werbespot „1984“ für den Mac wurde beim Super Bowl XVIII aufgeführt. Zum Preis von 2.495 USD (entsprachen damals etwa 7.200 DM / ungefährer Verkaufspreis in Deutschland: 10.000 DM) erhielt man einen Rechner auf der Basis von Motorolas 68000-CPU, die mit 8 MHz getaktet war und auf 128 KB Arbeitsspeicher (RAM) zugreifen konnte – was sich schnell als zu wenig erwies. Ein 3,5-Zoll-Diskettenlaufwerk mit 400 KByte Speicherplatz und ein integrierter 9-Zoll-Monitor vervollständigten den ersten Macintosh. Ebenso wie der Vorgänger Lisa war auch der Macintosh mit einer grafischen Benutzeroberfläche und einer Maus ausgestattet. Zum damaligen Zeitpunkt war dies ein völlig neuartiges Konzept für Personal Computer, da alle bisherigen Systeme auf dem Markt über Tastatureingaben in einer Kommandozeile bedient wurden. Das Betriebssystem des Macintosh hatte ursprünglich keinen Namen und wurde nur „System“ (mit angehängter Versionsnummer) genannt. Ab Version 7.5.1 hieß es dann Mac OS (abgeleitet von "Macintosh Operating System"). Es war von Beginn an auf die Bedienung mit der Maus zugeschnitten und enthielt zu diesem Zeitpunkt revolutionäre Konzepte, wie den „Papierkorb“, mit dem das Löschen von Dateien wieder rückgängig gemacht werden konnte, den „Schreibtisch“, Drag & Drop, das Auswählen von Text oder Objekten zwecks Änderung der Attribute und das Navigieren im Dateisystem mit Hilfe von Icons. Weitere grundlegende Konzepte, die den Anwendern die damals noch weitverbreitete Scheu vor der Benutzung von Computern nehmen sollten, waren die Undo-Funktion und die durchgängig einheitliche Bedienung verschiedener Anwendungsprogramme. Trotz dieser Neuerungen verkaufte sich der neue Computer anfangs nur in kleinen Stückzahlen. Gründe dafür wurden in seinem hohen Preis und darin gesehen, dass er in seiner Form und Art der Benutzung weit von dem entfernt war, was man zu jener Zeit gemeinhin unter einem professionellen Computer verstand (Monitore mit grüner Schrift auf schwarzem Hintergrund und die Eingabe langer Kommandozeilen). Erst die Nachfolgemodelle des originalen Macintoshs konnten eine größere Nutzerschaft an sich binden, die dann einen hohen Gesamtmarktanteil erreichte, jedoch zahlenmäßig von Windows-Systemen überholt wurde. Der Marktanteil des Macintosh war um 2000 auf einen Tiefstand von je nach Zählmethode zwischen drei und fünf Prozent gesunken. Mit der Einführung von Mac OS X stieg der Marktanteil kontinuierlich und hat 2011 in den USA etwa 13 % und weltweit ca. 6 % erreicht. Von Sommer 1994 bis September 1997 wurde das Betriebssystem Mac OS an andere Computerhersteller (unter anderem Umax und Power Computing) lizenziert. Die aus dieser Lizenz resultierenden Macintosh-kompatiblen Computer wurden Mac-Clones genannt. Name. Der Macintosh ist nach der Apfelsorte McIntosh benannt. Der McIntosh war der Lieblingsapfel von Jef Raskin, der Mitglied des Macintosh-Designteams war. Ein alternativer Name während der Entwicklungszeit des Projektes war „Bicycle“: Apple-Mitbegründer Steve Jobs sah den letztlich Macintosh genannten Rechner als „Bicycle for your mind“, doch aufgrund des Widerstandes des Entwicklerteams setzte sich die neue Bezeichnung nicht durch. Für den Namen Macintosh hat Apple 1983 ein 10-jähriges Lizenzabkommen mit dem US-amerikanischen HiFi-Hersteller McIntosh Laboratory, Inc. abgeschlossen. Technische Ausstattung. Ein MacBook von Anfang 2006 Typisch für die Hardware der kompakten Macintosh-Modelle war, möglichst alle Grundfunktionen auf der Hauptplatine zu vereinen. Von Anfang an waren in den Kompaktmodellen (Macintosh Plus, Macintosh SE, Macintosh Classic usw.) Grafik, Ton und netzwerkfähige serielle Schnittstellen integriert, kurz darauf kamen ADB und SCSI und später Ethernet und Modem hinzu. Schließlich wurden FireWire und USB Standard. Einsteigergeräte wie der iMac sind nur durch externe Anschlüsse erweiterbar. Die Modelle der Pro-Reihe bieten durch interne PCI- und AGP- bzw. PCIe-Steckplätze eine größere Flexibilität. Die Prozessoren wurden zunächst von Motorola, später auch von IBM hergestellt. Motorola hat sich jedoch vollständig auf die Produktion von Mobiltelefonen konzentriert, während IBM PowerPC-Prozessoren nicht mehr in für Apple optimierten Ausführungen weiterentwickelte. Deshalb wurde nach Ankündigung im Jahr 2005 die gesamte Modellreihe auf Intel-Prozessoren umgestellt. Am 10. Januar 2006 wurden der erste Intel-iMac sowie die ebenfalls Intel-basierte Laptopreihe MacBook/MacBook Pro (Nachfolger der iBooks und PowerBooks) vorgestellt. Noch im selben Jahr wurden auch die Workstations (MacPro) und Server (Xserve) auf Intel-Prozessoren umgestellt. Mit den ersten iMacs wurden zunehmend statt Eigenentwicklungen (wie ADB) verbreitete Komponenten (wie USB) verwendet. Bestehende Industriestandards wie ATA wurden auch in Mac-Computern Standard. Apples frühes Engagement für WLAN, Bluetooth oder Firewire als junge Industriestandards half diesen Techniken bei der Verbreitung. Während Apple weiterhin seine Motherboards selbst entwickelt, sind seit 2006 die verwendeten Bausteine im Computer (Prozessoren, Controller, Grafik-, Sound-, Netzwerk-Chips) die gleichen wie in anderen Computern. Statt des BIOS wird allerdings das Extensible Firmware Interface verwendet. Seit der Umstellung auf Intel-Prozessoren kann Windows mit der Software „Bootcamp“ auf Apple-Computern installiert werden. Die technische Ausstattung von Mac-Rechnern weist keine relevanten Unterschiede zu anderen PCs auf. Durch die Zusammenstellung, das Motherboard-Design und die Konzeption des Gesamtrechners und das eigene, größtenteils proprietäre Betriebssystem behält Apple jedoch weiterhin die Kontrolle über das Gesamtgerät. Für diese kontrollierte Computerplattform entwickelt Apple das Betriebssystem selbst. Laut Apple sollen Hard- und Software gut aufeinander abgestimmt sein, was Treiberprobleme verhindere und die Energieeffizienz verbessere. Hard- und Software sollen als Produkt eine Einheit bilden. Betriebssystem. Bereits die im März 2001 eingeführte Erstfassung des bis heute von Apple für den Macintosh verwendeten Betriebssystems Mac OS X weist gegenüber ihren (namentlichen) Vorgängern technisch gesehen praktisch keine Gemeinsamkeiten mehr auf. Mac OS X wurde auf Basis des NeXTstep-Betriebssystems entwickelt, eines Unix-Derivats. Dessen Herstellungsunternehmen NeXT, das Steve Jobs 1986 nach seinem Weggang von Apple gegründet hatte, war 1996 von Apple für 400 Millionen US-Dollar übernommen worden. Der Kernel von Mac OS X wurde Darwin getauft, er ist ein Open-Source-Unix-Derivat, das wie der Kernel von NeXTstep von FreeBSD und dem Mach Microkernel abgeleitet ist. Dies ermöglicht es, dass ein Großteil der Open-Source-Software, die unter anderen, offenen Unix-Derivaten entwickelt wurde, auch unter Mac OS X verwendet werden kann oder mit verhältnismäßig wenig Aufwand auf den Macintosh portiert werden kann. Auf den Kernel setzt die sogenannte Aqua-Oberfläche auf, eine gegenüber dem „klassischen“ Mac OS völlig neu gestaltete Benutzeroberfläche, deren Designelemente (Transparenz- und Schatteneffekte, detailliertere Icons) zum Teil auch in Oberflächen von Unix/Linux- und Windows-Systemen Eingang fanden. Daneben steht jedoch auch – ein Novum für den Macintosh – die Bedienung per unixtypischer Kommandozeile zur Verfügung. Mit der Vorstellung der Software Boot Camp im April 2006 wurde es erstmals möglich, einen Macintosh mit einem Betriebssystem für x86-Prozessoren zu starten, was etwa die Parallelinstallation eines Microsoft-Windows-Systems ermöglicht. Diese Möglichkeit besteht allerdings nur bei einem Apple-Rechner mit x86-Prozessor. Einzelnachweise. Macintosh Mac OS (bis 9). Mac OS, auch Mac OS Classic, ist das ursprüngliche Betriebssystem des Macintosh von Apple, das seit 1982 entwickelt und seit 1984 vertrieben wurde. Es ist der Vorgänger von Mac OS X. Es war nach Xerox Star und Lisa OS das dritte kommerziell vertriebene Betriebssystem, das eine grafische Benutzeroberfläche besaß und eine Maus unterstützte. Zentrales Element ist der einem Schreibtisch nachempfundene Finder. Ab Mai 2001 wurden alle neuen Macs mit Mac OS 9 und Mac OS X ausgeliefert, aber bis Januar 2002 blieb Mac OS 9 ihr Standard. Geschichte. Um teuren Arbeitsspeicher und knappen Disketten-Speicherplatz zu sparen, waren anfangs wesentliche Teile des Betriebssystems in einen Nur-Lese-Speicher (Read-Only-Memory; ROM) ausgelagert. Dadurch wurden platzsparende und trotzdem leistungsfähige Programme möglich: Das erste Textverarbeitungsprogramm MacWrite war weniger als 30 KB groß und hatte dennoch eine graphische Oberfläche, mehrere Fenster und bot WYSIWYG. Auch MacPaint zum Zeichnen war derart klein. Zunächst konnte immer nur ein Programm zur selben Zeit laufen; ab 1987 ermöglichte es der MultiFinder, ab 1991 System 7, mehrere Programme gleichzeitig laufen zu lassen. System 7 war bereits ein 32-Bit-Betriebssystem. Gegen Ende der 1990er Jahre zeigten sich die Nachteile des klassischen Mac OS gegenüber echten Mehrbenutzersystemen wie Solaris, Linux, BSD oder Windows NT. Die Multitasking-Fähigkeiten waren nicht sehr ausgeprägt (sog. "kooperatives Multitasking"), und dem System mangelte es an Speicherschutz, so dass Fehler in einzelnen Applikationen zum Totalabsturz des Systems führen konnten. Um diese Defizite auszugleichen, versuchte Apple, ein moderneres Mac OS unter dem Codenamen Copland zu entwickeln. Das Projekt scheiterte zwar, einige der Neuerungen aus Copland wurden jedoch in das bestehende Mac OS integriert, das dann unter dem Titel „Mac OS 8“ veröffentlicht wurde und mit einer überarbeiteten Oberfläche aufwartete. Nach und nach wurden weitere Copland-Funktionen in Mac OS integriert. Dies konnte jedoch die Kerndefizite nicht beheben. Apple machte sich daher auf die Suche nach Alternativen. Unter anderem wurde erwogen, die Firma "Be" zu kaufen, um deren in der Entwicklung befindliches Betriebssystem BeOS als Grundlage für das neue Macintosh-Betriebssystem zu nutzen. Das Vorhaben scheiterte jedoch an mehreren Problemen (es kursieren viele Mythen). Letztendlich kaufte Apple die von ihrem ehemaligen Vorstandsvorsitzenden Steve Jobs gegründete Firma NeXT für knapp 430 Millionen Dollar auf, um so mit der Hilfe von Steve Jobs auf Basis von NeXTStep ein vollkommen neues Betriebssystem mit dem Namen „Mac OS X“ zu veröffentlichen. Mac OS 9 wird aus Gründen der Kompatibilität in der Classic-Umgebung bis Mac OS X 10.4 (Tiger) auf PowerPC-basierenden Macintosh weiter unterstützt, um den Umstieg der Anwender zu erleichtern, die somit ihre alten Programme weiter nutzen können. Die Classic-Umgebung wird von Macintoshs mit Intel-Prozessoren allerdings nicht unterstützt; hier ist man auf Fremdprogramme wie SheepShaver angewiesen. Der Name "Mac OS" wurde erst mit Version 7.5.1 eingeführt; vorher hießen die Macintosh-Betriebssysteme "System 6," "System 7," "System 7.1" usw. Die letzte und aktuelle Ausgabe von Mac OS in seiner Ursprungsform ist die Version 9.2.2. Versionsgeschichte. Angegeben sind die Versionsnummer des Gesamtsystems (vor Version 1.0 „Macintosh System Software“ genannt, dann „System Software“ bzw. „System“, ab 7.6 „Mac OS“) sowie in Klammern die Versionsnummer der Datei "System"; in Version 6 wurde die Nummerierung vereinheitlicht. Unterversionen wie 7.5.1 sind nicht separat aufgeführt. 1984 (Januar): Macintosh System Software (System 0.85) 1984: Macintosh System Software (System 0.97) 1985: Macintosh System Software 0.1, 0.3 und 0.5 (System 2.0) 1986: Macintosh System Software 0.7–1.1 (System 3.0–3.2) 1987: System Software 2.0–5.1 (System 3.3–4.3) Musical. a> mit großflächiger Werbung für verschiedene Broadway-Musicals Das Musical [] ist eine in der Regel zweiaktige Form populären Musiktheaters, die Schauspiel, Musik, Tanz und Gesang in einem durchgängigen Handlungsrahmen verbindet. Die Geschichte des modernen Musicals begann im New York der 1920er Jahre, fand jedoch neben dem New Yorker Broadway auch rasch Verbreitung im Londoner West End, die noch heute beide als Metropolen des Musicals gelten. Ausgehend von diesen Zentren, hat das Musical weltweite Verbreitung gefunden. Neben der temporären Aufnahme in Spielpläne zahlreicher großer wie kleiner Theater haben sich auch außerhalb New Yorks und Londons in vielen Städten reine Musical-Theater etabliert, die ausschließlich Musicals als meist längere und aufwendig gestaltete Produktionen (sog. En-suite-Produktionen) zeigen. Auch Tournee-Produktionen diverser Musicals sind häufig zu finden. Trotz der weltweiten Verbreitung dominieren noch heute Musicals US-amerikanischen oder britischen Ursprungs, wobei es jedoch auch erfolgreiche Musicals anderer Herkunft gibt. Aufgrund des großen Erfolgs sind viele Musicals auch verfilmt worden. Thematisch wird eine breite Fülle von tragischen als auch humorvollen Stoffen behandelt, die zu unterschiedlichsten Zeiten und an unterschiedlichsten Orten spielen. Auch für gesellschaftlich oder politisch sensible Themen hat sich das Musical stets offen gezeigt. Viele Musicals basieren dabei auf literarischen Vorlagen verschiedener Gattungen und Epochen. Auch musikalisch ist ein breites Spektrum stilistischer Einflüsse erkennbar: von Popmusik, Tanz- und Unterhaltungsmusik bis zu Jazz, Swing, Soul und Rock ’n’ Roll, um nur einige zu nennen. Gattungsgeschichtlich haben Elemente des Dramas, der Komödie, der Revue, der Operette, des Varietés und in Ausnahmefällen der Oper Einfluss auf die Entwicklung des Musicals genommen, wobei sich das Musical stets seine Eigenständigkeit bewahren konnte. Das Musical ist ein Gesamtkunstwerk und ist sowohl literarische als auch musiktheatralische Gattung. Die thematische und musikalische Vielfalt und Offenheit machen eine diesbezügliche Definition und Abgrenzung unmöglich. Als gattungsspezifisch und prägend kann für das Musical einzig die integrierte Form der Verbindung von Text, Musik, Tanz und Gesang in eine durchgehende Handlung genannt werden. Etymologie und Begriffsabgrenzung. Das Wort Musical ist lediglich ein Adjektiv (engl. "musikalisch") und wurde in ergänzenden Bezeichnungen zu den Stücktiteln gebraucht wie "A Musical Comedy", "A Musical Play", "Musical Drama", "Musical Fable", "Musical Revue". Eine genaue Definition des Begriffes ist schwierig, da er eine große Stilfülle enthält und sich die Vorstellungen im Lauf der Zeit geändert haben. Häufig werden „Musical“ und „Musical Comedy“ synonym verwendet. Mit Musical ist im engeren Sinne „Musical Play“ (im Stil von "Show Boat" (1927)) gemeint. In Abgrenzung zur Operette ist das Musical „Drama mit Musik“, während die Operette als „Drama in der Musik“ definiert wird. Während bei der Operette nur der Komponist genannt wird, werden beim Musical der Komponist, der Librettist und manchmal auch der Lyricist genannt. Im Gegensatz zur Revue hat das Musical einen durchgehenden Handlungsstrang. Ursprünge. Als sich das Theater in Amerika zu etablieren begann, war die Balladenoper die dominierende Gattung des Theaters in der englischsprachigen Welt. Es war also nicht weiter bemerkenswert, dass die amerikanischen Autoren sich dieses Genres für ihr Nationaltheater bedienten. Selbst das ernste Theater, wie Royal Tylers The Contrast oder James Nelson Barkers Pocahontas, enthält Lieder. Der entscheidende Wegbereiter für das Musical war die Minstrel Show. Da das Musical in einer demokratischen Gesellschaft entstand und nicht von Aristokraten finanziert wurde, musste es Unterhaltung für jedermann sein. Das Musical entstand in einem kommerziellen System; die Zuschauer sollten den Theaterbetrieb finanzieren. Um möglichst viele Leute ins Theater zu bringen, musste das amerikanische Musical Unterhaltung sein. Das Musical entwickelte sich aus älteren Formen des musikalischen Theaters wie Opera buffa, Operette und Singspiel. Die Ursprünge des Musicals finden sich in London und New York im 19. Jahrhundert. Als erstes Musical überhaupt wird oft das 1866 produzierte Spektakel "The Black Crook" genannt. "The Black Crook" war zunächst ein Melodram ohne Musik. Die Produzenten wollten ein französisches Ballett in die Handlung integriert haben. Der Autor Charles Barras gab aus Geldgründen nach und integrierte das Ballett. Eine entscheidende Rolle ungefähr seit dem Ersten Weltkrieg spielte das Theaterviertel am Broadway als Schmelztiegel unterschiedlicher Nationalitäten, Kulturen, Hautfarben, Konfessionen und sozialer Schichten. So flossen ganz verschiedene Einflüsse in die ersten Musicals ein: Swing und Jazz der Minstrel Shows, französische Revuen und Music Hall-Konzerte, Theaterformen der britischen Einwanderer wie das aus artistischen Nummern bestehende Vaudeville und die Burlesque, die Operette aus Paris und Wien und das Flair der Wild-West-Sideshows. Zum klassischen Operngesang gesellten sich neue Techniken wie das Belting. In aufwendigen Extravaganzas hatten Bühneneffekte, Bühnenmaschinerie, Tanzeinlagen und Kostüme große Bedeutung. Zu Beginn des Jahrhunderts bestand die Broadway-Unterhaltung noch hauptsächlich aus Revueshows wie den Ziegfeld Follies. Von einer spezifisch US-amerikanischen Gattung kann man erst seit den 1920er Jahren sprechen. Aus dieser Zeit stammen etwa George Gershwins "Lady, Be Good" (1924) und Jerome Kerns "Show Boat" (1927). "Show Boat" gilt als das erste ernstzunehmende Musical (Musical Play). In diesem Stück ergaben sich die Songs aus der Handlung, ohne diese zu stoppen. Außerdem wurde auch Sozialkritik mit eingeflochten, wie gegen die Diskriminierung der Afroamerikaner. Klassische Zeit. Der New Yorker Broadway gilt neben dem West End in London nach wie vor als Zentrum der Musicalwelt. Durch die zunehmende Konkurrenz durch den Film löste sich das Musical von der bloßen Nummernshow und erlebte von den 1930er bis zu den 1950er Jahren eine Blütezeit. Auch nach dem Zweiten Weltkrieg behandelte das Musical sensible gesellschaftliche Themen, wie z. B. 1949 in "South Pacific". Neben dem ernsten Musical Play gab es seit 1930 auch die Musical Comedy, die sich mit einem literarischen Buch von den bunt zusammengestellten Revuen abhob. Auf eine erste Generation von Komponisten, wie Cole Porter und George Gershwin (1920er bis 1940er Jahre), folgte auf dem Höhepunkt der „klassischen“ Zeit eine zweite mit Richard Rodgers oder Jule Styne (1940er bis 1960er). Mit dem Rodgers-Schüler Stephen Sondheim ging diese Tradition in den 1970er Jahren zu Ende. Als Textautor dominierte Oscar Hammerstein. Ganz wesentlich prägte "West Side Story" (1957) von Leonard Bernstein die zunehmende Entfernung des Musicals von Pathos und drolliger Komik. Eine Umbruchzeit waren die 1968er Jahre mit dem Niedergang der gefühlsbetonten, oft als kitschig empfundenen Musicals, die allerdings in den 1980er Jahren wiederkehrten. In vielen europäischen Ländern prägte sich folgend der eigenen Vergangenheit des unterhaltenden Theaters und durch von am Broadway Musical beobachteten Produktionsmuster ein eigenständiges Schaffen heraus. So in Italien und vor allem im geteilten Deutschland, wo sich in der DDR aus dem Bemühen um die sozialistische Operette nach 1960 unter dem Motto Heiteres Musiktheater ein eigenständiges Musicalschaffen entwickelte. Zu den prägenden Komponisten gehörten Gerd Natschinski, Conny Odd, Rolf Zimmermann, Siegfried Schäfer, Harry Sander, Gerhard Kneifel. Helmut Bez und Jürgen Degenhardt waren das bis zum Mauerfall die Entwicklung bestimmende Autorenduo. Das Filmmusical. Die Entwicklung des Filmmusicals, die durch die Entwicklung des Tonfilms in den 1930er Jahren ins Rollen gebracht wurde und parallel zur Weiterentwicklung am Broadway verlief, machte die Gattung „Musical“ weltweit beliebt. Zunächst waren es hauptsächlich Revuefilme. Mit dem Filmmusical wurden am Anfang der dreißiger Jahre neue Aufnahmetechniken erfunden. Die sogenannten „Overhead shots“ machten die Choreografien von Busby Berkeley, der für Warner Brothers Musicals produzierte, zum Markenzeichen. Darin bildeten – fernab jeglicher Realität – Hunderte von Tänzerinnen menschliche Ornamente. In "Das Wiegenlied vom Broadway" ("Lullaby of Broadway") sieht man Hunderte von stepptanzenden Füßen in riesigen Art-déco-Kulissen. Eine besondere Stellung hatte das Studio Metro-Goldwyn-Mayer. MGM – und hier vor allem die Produktionen Arthur Freeds – wurde zum Synonym für dieses Genre, das in "Ein Amerikaner in Paris" (1951, nach George Gershwin) seinen künstlerischen und qualitativen Höhepunkt fand und dafür mit einem wahren Oscarregen bedacht wurde. Ein anderes typisches Filmmusical, das sich zu einem Klassiker entwickelte, ist "Singin’ in the Rain" (1952), in dem die Filmindustrie persifliert wurde. Beginnend mit "Schneewittchen und die sieben Zwerge" (1937) prägte Walt Disney die Musicalform auch für abendfüllende Zeichentrickfilme. Es fand ein reger Ideenaustausch statt zwischen dem Musicalzentrum Broadway und Hollywood, dem Mittelpunkt der Filmproduktion. So wurden viele der Broadway-Erfolge verfilmt, genauso wie später Filme als Musical-Vorlage dienten. Das Medium Film eröffnete dem Musical neue Dimensionen und ermöglichte mehr Perfektion sowie üppigere Ausstattung. Durch das Verlassen der Bühne wich das Illusionstheater realistischen Landschaftsbildern. Erstmals waren rasche Szenenwechsel ohne Umbaupausen genauso realisierbar wie Nahaufnahmen, die dem Zuschauer das Gefühl vermittelten, in der ersten Reihe des Theaters zu sitzen. Das Film-Musical konnte durch einprägsame Lieder, Witz, akrobatische Tanzkünste, kostspielige Ausstattung und technische Effekte eine abwechslungsreiche Unterhaltung für ein Massenpublikum bilden. So wurde das Musical zur Handelsware und entwickelte sich zu einer „Kulturindustrie“. Die Blütezeit des Filmmusicals waren die späten 1940er und die 1950er Jahre, danach wurde dieses Genre allmählich unpopulär. Als erfolgreichster Musicalfilm aller Zeiten folgte jedoch noch "The Sound of Music" (1965), die Verfilmung einer Broadway-Produktion. Filme wie "Das zauberhafte Land" (1939), "Doktor Dolittle" (1967) nach Hugh Lofting oder "Mary Poppins" (1964) ließen mitunter den (falschen) Eindruck entstehen, dieses Genre sei vor allem für Kinder geeignet. Das Rock-Musical. Ende der 1960er Jahre gingen neue Ideen und Klänge, beeinflusst durch Woodstock, Underground-Musik, auch an den Musicals nicht vorbei. Zu dieser Entwicklung gehörte das Musical "Hair" von 1967, das sich intensiv mit den Problemen Jugendlicher und deren aktueller Lage (Vietnamkrieg) beschäftigt. Durch eingebaute Mitspielszenen wurde die Barriere zwischen (jugendlichen) Darstellern und dem Publikum gebrochen. Auch der musikalische Stil und die Instrumentation passten sich den neuen Anforderungen an. Aktuelle Rockmusik verdrängte die sinfonischen Merkmale und die Jazzelemente in der Musik. Das Orchester wurde durch elektroakustische Instrumente wie die E-Gitarre ergänzt oder ersetzt. "Hair" (1967) oder "Oh! Calcutta!" (1969) ersetzten den Handlungsrahmen durch ein provokatives inhaltliches Konzept, das sich wieder mehr der Revue annäherte. Eine neue Art der Satire wie in Richard O’Briens "The Rocky Horror Show" (1973) wandte sich gegen die mittlerweile als brav empfundene Komik der Musical Comedy. In den 1970er Jahren setzte sich eine neue Tendenz in der Kompositionsweise durch: Die handlungstragenden gesprochenen Dialoge im alten Stil der Opéra comique verschwanden. Es wurde nun, wie in „durchkomponierten“ großen Opern, durchgehend gesungen. Die Musik schuf einen lückenlosen Zusammenhang. In dieser Zeit entstanden Musicals wie Andrew Lloyd Webbers "Jesus Christ Superstar" (1971) und The Who's "Tommy" (1969) und "Quadrophenia" (1973). Moderne Musicals. Mit den Stücken von Andrew Lloyd Webber wie "Cats" (1980), "Starlight Express" (1984) oder "Das Phantom der Oper" (1986) setzte seit Beginn der 1980er Jahre eine neue Musicalmode in Europa ein. Diese Musicals waren fast ausnahmslos durchkomponiert. Noch konsequenter als bei den klassischen Musicals dienten die szenische Realisierung ebenso wie die Musik als unveränderliche Vorlagen für alle Produktionen. Aufgrund der hohen Investitionen mussten sehr lange Laufzeiten erreicht werden. Ende des 20. Jahrhunderts wurden in vielen Städten spezielle Musical-Theater gebaut, um dort ein bestimmtes Musical optimal zu präsentieren. Prägnantestes Beispiel hierfür ist das 1988 für 24 Millionen DM fertiggestellte Starlight Express Theater in Bochum, dessen Installation der gesamten Bühnentechnik in nur 4 Monaten angefertigt worden ist und in nur 13 Monaten gebaut wurde. Das Theater am Stadionring steht damit zweimal im Guinness-Buch der Rekorde: Zum einen ist es das am schnellsten gebaute Theater, zum anderen, weil es das erste speziell für ein bestimmtes Stück gebaute Theater ist. (Den Rekord des weltweit erfolgreichsten Musicals an einem Spielort hat die Bochumer Produktion übrigens nach 20 Jahren und über 12 Millionen Zuschauern längst eingefahren.) Stilistisch hatten die Musicals des ausgehenden 20. Jahrhunderts eine große Bandbreite und orientierten sich wieder mehr an hergebrachten Theatergattungen wie der Revue, der Extravaganza, dem Melodram, dem Musical Play oder dem Film. Rock- und Jazzelemente wurden mit sinfonischen Klängen vermischt und der Operngesang mit dem Belting. "Les Misérables" (1980) ist dafür ein gutes Beispiel oder "Aida" (2000). In neuerer Zeit zeigte sich eine Annäherung des Bühnenmusicals an das Konzert in Gestalt des Jukebox-Musicals, bei dem bereits bekannte Musiktitel eines Interpreten, einer Stilrichtung, o. ä. (teilweise mit Anpassungen) verwendet werden. Beispiele sind etwa "Buddy" (1989, Buddy Holly), "Saturday Night Fever" (1998, Bee Gees), "Mamma Mia!" (1999, ABBA), "We Will Rock You" (2002, Queen), "Jersey Boys" (2005, The Four Seasons), "Priscilla, Queen of the Desert" (2006, Disco-Musik, basierend auf dem Film Priscilla – Königin der Wüste), "Ich war noch niemals in New York" (2007, Udo Jürgens), "Ich will Spaß" (2008, NDW), "Über Sieben Brücken" (2009, Ostrock) oder "Hinterm Horizont" (2011, Udo Lindenberg). In den USA bleibt das Musical seiner Tradition treu. Der führende Komponist und Librettist am New Yorker Broadway ist seit den 1970er Jahren Stephen Sondheim. Das bedeutendste Musical der letzten Dekaden in den USA ist "Sunday in the Park with George". Kindermusical. Der Begriff „Kindermusical“ erscheint zuerst Anfang der 1970er Jahre im Bereich des professionellen Kinder- und Jugendtheaters. Musikalische Theaterformen für Kinder und Jugendliche sind seit dem Jesuitentheater der Renaissance verbreitet. Im Rahmen des Religionsunterrichtes und in der Kinder- und Jugendarbeit der Kirchen werden gern Kindermusicals erarbeitet. Neueren Datums sind die Stücke des Braunschweiger Domkantors Gerd-Peter Münden und des Komponisten Klaus Heizmann "(Der verlorene Sohn", "Der Stern von Bethlehem", "Suleilas erste Weihnacht)" sowie das Werk "Unterwegs mit David" von Michael Benedict Bender und Ingo Bredenbach nach einem Text von Brigitte Antes. An nicht religiösen Musicals, die zur Aufführung durch Kinder bestimmt sind, gibt es etwa die "Ritter-Rost"-Serie von Jörg Hilbert und Felix Janosa, dann die Musicals des Ehepaars Veronika te Reh und Wolfgang König sowie die Musicals von Mechtild von Schoenebeck. Musicals von Peter Schindler ("Geisterstunde auf Schloss Eulenstein", "Weihnachten fällt aus", "Max und die Käsebande", "König Keks", "Zirkus Furioso" und "Schockorange") zählen zu den meistgespielten Werken ihrer Art bei Kinder- und Jugendchören in Theatern und Schulen. Schindler gehört zweifelsohne zu den bedeutendsten Kinderliederkomponisten unserer Zeit. Zum Mozartjahr 2006 erschien das Kindermusical "Amadeus legt los" von Thekla und Lutz Schäfer. Musicals für die Aufführung durch Jugendliche schreibt u. a. Claus Martin ("Pinocchio, Heidi, Dracula, das Grusical") Neben den für jugendliche Amateure bestimmten Kindermusicals gibt es professionelle Produktionen für Kinder, meist nach Kinderbüchern und -filmen wie "Pippi Langstrumpf", "Das Sams", "Jim Knopf und Lukas der Lokomotivführer", "Tabaluga", "Yakari". Einer der meistgespielten Autoren in diesem Bereich ist Christian Berg (viele seiner Werke mit der Musik von Konstantin Wecker). 2013 wurde das Kindermusical "Yakari – Freunde fürs Leben" des Komponisten Thomas Schwab in der Liederhalle Stuttgart uraufgeführt. Wichtige Musical-Komponisten. Die Liste ist alphabetisch sortiert nach dem Namen des Komponisten. Metrologie. Darstellung verschiedener historischer Maße am Beispiel des Vitruvianischen Menschen Die Metrologie wird in der 3. Ausgabe des VIM von 2007 als definiert. Das Wort leitet sich etymologisch von gr. "metró" „messen“ ab und ist nicht zu verwechseln mit der Meteorologie (von "Meteor"), der Wetterkunde. Metrologische Institutionen und Organisationen. Die Festlegung und Kontrolle der Maße und Gewichte ist ein hoheitliches Recht, das heute in der Regel von staatlichen Instituten wahrgenommen wird. Aus- und Fortbildung. In Deutschland wird die Aus- und Fortbildung für die Disziplin von der Deutschen Akademie für Metrologie durchgeführt. Gemeinsam mit der Physikalisch-Technischen Bundesanstalt (PTB) bietet die TU Braunschweig seit dem Sommersemester 2007 mit der "International Graduate School of Metrology" für Doktoranden Vertiefungsveranstaltungen zur Metrologie an. Montgolfière. Montgolfière ist der Name des ersten Heißluftballons, benannt nach den französischen Erfindern Joseph Michel und Jacques Etienne Montgolfier. Im Deutschen wurden dafür die Wörter „Luftball“ und „Freiballon“ geprägt. Die erste Montgolfière war ein kugelähnlicher Sack aus Leinen von 12 m Durchmesser. Das Innere war mit einer dünnen Papierschicht ausgekleidet und ein Netz aus Schnur, das die gesamte Hülle umspannte, hielt diese in Form. Am 4. Juni 1783 präsentierten die Brüder Montgolfier dieses Gebilde dem staunenden Publikum ihrer Heimatstadt Annonay. Nach dem Wissen der damaligen Zeit dachten die Brüder Montgolfier, dass der Rauch den Ballon schweben lasse. Strohballen und Wolle wurden verbrannt und der Rauch füllte planmäßig den Ballonsack, der sich in die Luft erhob. Nachdem die Halteseile gekappt wurden, stieg der Ballon bis auf fast 2000 m Höhe und schwebte etwa 2 km weit, bevor er zu Boden sank. Montgolfière am 19. Oktober 1783 Die Kunde der „aerostatischen Maschinen“ verbreitete sich schnell in ganz Frankreich. Nach dem ebenfalls erfolgreichen Aufstieg des ersten Gasballons (der „Globe“ von Jacques Alexandre Charles) war es nur eine Frage der Zeit, bis die erste Passagierfahrt stattfand. Am 19. September 1783 startete vom Schloss Versailles aus, vor den Augen von König Ludwig XVI. und Königin Marie Antoinette, eine Montgolfière mit drei Passagieren: einem Hammel, einem Hahn und einer Ente. Die Fahrt dauerte 12 Minuten und bewies: Das Überleben von Luftreisen ist möglich. Am 21. November 1783 starteten im Garten des Schlosses La Muette bei Paris die ersten Ballonfahrer der Menschheitsgeschichte: Jean-François Pilâtre de Rozier und der Gardeoffizier François d’Arlandes. Gebrüder Montgolfier. Die Brüder Joseph Michel Montgolfier (* 26. August 1740 in Annonay bei Lyon, † 26. Juni 1810 in Balaruc-les-Bains) und Jacques Étienne Montgolfier (* 6. Januar 1745 in Annonay, † 2. August 1799) waren die Erfinder des Heißluftballons, der Montgolfière. Bekannt sind beide, mit oder ohne den Zusatz "de", als Joseph (de) Montgolfier und Étienne (de) Montgolfier. Leben. Joseph Michel war das 12., Jacques Étienne das 15. von 16 Kindern des Papierfabrikanten Pierre Montgolfier und seiner Frau Anne Duret. Die Brüder wurden in Naturwissenschaften unterrichtet und in Architektur ausgebildet. Sie leiteten später gemeinsam die bereits seit 1557 im Familienbesitz befindliche Papierfabrik. Schon seit Mitte der 1770er Jahre beschäftigte sich Joseph Michel mit der Luftfahrt, und zwar zunächst mit dem Fallschirm. 1777 machte er einen Selbstversuch vom Dach seines Hauses, der gut ausging. Jedoch unterließ er auf Bitten seiner Familie weitere Unternehmungen dieser Art. Angeregt durch eine Schrift Joseph Priestleys beschäftigte er sich dann mit den Eigenschaften verschiedener Gase. Er wollte eine luftdichte Hülle, die mit „leichter Luft“ gefüllt war, zum Aufsteigen bringen. Experimente mit Wasserdampf schlugen fehl. Im Dezember 1782 unternahmen die beiden Brüder in ihrem Heimatort Annonay einen ersten – erfolgreichen – Versuch mit einem Ballon, der mittels von Wolle und Heu erhitzter Luft aufsteigen konnte. Die Montgolfiers waren der Ansicht, der Rauch sei das Auftriebsmittel, und bevorzugten daher stark qualmende Brennmaterialien. Erster Aufstieg einer Montgolfière am 4. Juni 1783 Am 4. Juni 1783 ließen sie wiederum in Annonay einen verbesserten Ballon aus Leinwand, der mit Papier abgedichtet worden war, vor Publikum aufsteigen. Dieser Flug dauerte zehn Minuten und soll eine Höhe von über 2000 m erreicht haben. Heißluftballon der Gebrüder Montgolfier am 19. Oktober 1783 Daraufhin lud König Ludwig XVI. die Montgolfiers zu einer Demonstration nach Paris ein, erteilte jedoch gleichzeitig der Akademie der Wissenschaften den Auftrag, Versuche mit der „fliegenden Kugel“ durchzuführen. Jean-Baptiste Réveillon lieferte Rat, Geld und farbige Tapete für den Ballon. Bereits am 19. September desselben Jahres ließen die Brüder in Anwesenheit des Königs vom Schloss Versailles aus einen Heißluftballon mit drei Tieren (Hammel, Ente und Hahn) aufsteigen. Der Flug dauerte gut acht Minuten. Da die Tiere das Experiment überlebten, gab der König die Erlaubnis zu einem Aufstieg mit Menschen: Am 21. November 1783 hoben mit dem Physiker Jean-François Pilâtre de Rozier und dem Offizier François d’Arlandes die ersten menschlichen Luftfahrer vom Boden ab. Der Flug dauerte 25 Minuten und endete erfolgreich auf der Butte aux Cailles. Ursprünglich sollten Sträflinge als Versuchspersonen eingesetzt werden; nach Protesten ließ man diesen Gedanken jedoch fallen. Beim zweiten bemannten Aufstieg, am 1. Dezember 1783, fuhr Jacques Alexandre César Charles in einem von ihm selbst entwickelten Wasserstoff-Ballon bei Paris auf eine Höhe von ungefähr 3 km. Die erste bemannte Ballonfahrt außerhalb Frankreichs wurde von Don Paolo Andreani und den Brüdern Agostino und Carlo Gerli am 25. Februar 1784 in der Nähe von Mailand unternommen. Sie starteten von Moncucco, heute in Brugherio gelegen. 1796 automatisierte Joseph Michel Montgolfier die von John Whitehurst 1772 erstmals aufgebaute Pulsation Engine und schuf damit eine autonom arbeitende Wasserpumpe, den hydraulischen Widder. Die Brüder Montgolfier entwickelten in ihrer Fabrik ein Verfahren zur Herstellung von Transparentpapier; Jacques Étienne Montgolfier gründete später die erste Fachschule für Papiermacher. Mathematische Konstante. Eine mathematische Konstante ist eine wohldefinierte, reelle, nicht-ganzzahlige Zahl, die in der Mathematik von besonderem Interesse ist. Anders als physikalische Konstanten werden mathematische Konstanten unabhängig von jedem physikalischen Maß definiert. Viele spezielle Zahlen haben eine besondere Bedeutung in der Mathematik und treten in vielen unterschiedlichen Kontexten auf. Beispielsweise gibt es auf den reellen oder komplexen Zahlen genau eine differenzierbare Funktion formula_1 mit formula_2 und formula_3. Folglich ist formula_4 eine mathematische Konstante: formula_5. Auf den komplexen Zahlen ist formula_1 eine periodische Funktion, und ihre Periodenlänge ist eine weitere mathematische Konstante: formula_7. Mathematische Konstanten lassen sich in vielen Fällen numerisch beliebig genau berechnen. Jedoch gibt es auch einige mathematische Konstanten, für die nur sehr grobe Näherungen bekannt sind, wie zum Beispiel die Brunsche Konstante formula_8 Mathematische Konstanten werden in unterschiedlichen Teilgebieten der Mathematik untersucht. Von den meisten mathematischen Konstanten ist trotz großer Anstrengungen ungeklärt, ob sie rational, irrational-algebraisch oder transzendent sind. Eine besonders einfache Klasse bilden die polylogarithmischen Konstanten, zu denen die Logarithmen und die Werte der Riemannschen Zetafunktion an den positiven ganzzahligen Argumentstellen gehören. Für einen Teil dieser Klasse sind BBP-Reihen bekannt. Weblinks. Mathematische Konstanten Mond (Begriffsklärung). Mond (indogerman. "mê[d]" ‚schreiten‘, ‚messen‘, ‚der Wanderer‘) steht für Motor. Diverse Elektromotoren, mit 9-V-Batterie als Größenvergleich Ein Motor (auch; ‚Beweger‘) ist eine Maschine, die mechanische Arbeit verrichtet, indem sie eine Energieform, z. B. thermische, chemische oder elektrische Energie, in Bewegungsenergie umwandelt. In der Regel verfügen Motoren über eine Welle, die sie in Rotation versetzen und durch sie mechanische Vorrichtungen, wie Getriebe, antreiben. Ausnahmen sind Raketenmotoren und Linearmotoren. Heute sind Verbrennungsmotoren und Elektromotoren von herausragender Bedeutung. Geschichte des Motors. Die frühesten Motoren könnten um das Jahr 100 Herons Rauchturbinen zum Öffnen großer Tore gewesen sein. 1678 soll Ferdinand Verbiest im Dienste des Kaisers von China ein Dampfauto gebaut haben. Auch sind Vermutungen zum Umgang ägyptischer Priesterschaft mit Heißgasen zum Bewegen riesiger Türen plausibel. Die technische Entwicklung zu heutigen Motoren begann nachvollziehbar mit der von Thomas Savery und Thomas Newcomen erfundenen und 1778 von James Watt weiter entwickelten Dampfmaschine. Die Dampfmaschine veränderte die wirtschaftlichen und sozialen Strukturen Europas und löste die industrielle Revolution aus. Es gab nicht nur ortsfeste Maschinen, sondern nach der Erfindung der Hochdruckdampfmaschine von Richard Trevithick auch die Lokomobile (eine fahrbare, teilweise selbstfahrende Dampfmaschine zum Antrieb von Dreschmaschinen oder zum Dampfpflügen), Dampflokomotiven, Dampfschiffe, Dampftraktoren und -straßenwalzen. 1816 erfand Robert Stirling den später nach ihm benannten Heißgasmotor. Er suchte nach einer Maschine ohne den explosionsgefährdeten Kessel. Einer der ersten brauchbaren Verbrennungsmotoren – ein Gasmotor nach dem Zweitaktprinzip – wurde von Étienne Lenoir erfunden, 1862 von Nikolaus August Otto durch die Entwicklung des Viertaktprinzips verbessert und später nach ihm benannt. Der Ottomotor war zunächst zu groß und zu schwer, um in ein Automobil eingebaut werden zu können. Dieses Problem lösten nahezu gleichzeitig Gottlieb Daimler und Carl Friedrich Benz. Auch nach der Erfindung der Verbrennungsmotoren war die Dampfmaschine noch ein viel verwendeter Antrieb – es konnte billige Kohle oder Holz als Brennmaterial verwendet werden. Aufgrund deren besseren Wirkungsgrades und der hohen Energiedichte der Kraftstoffe sind seitdem aber Verbrennungsmotoren in den Vordergrund getreten, die die chemische Energie der Brennstoffe in ihrem Inneren in Wärmeenergie und dann in mechanische Energie umwandeln. Für die Zukunft strebt man einen Wechsel der Energiequelle mobiler Motoren an, um der Verknappung und damit Verteuerung fossiler Brennstoffe zu begegnen. Oft verringern sich dadurch auch die Emissionswerte. Voraussetzung hierfür sind praktikable Speichermöglichkeiten nicht-fossiler Energieträger vor allem für den mobilen Einsatz (Akkumulatoren, alternative Treibstoffe). Elektromotoren und Hybridantriebe sind mögliche Alternativen zum Ersatz oder der Ergänzung des Kolbenmotors. In allen Größen, von Spielzeugen bis Industrieanlagen, finden Elektromotoren für Gleichstrom, Wechselstrom und Drehstrom Verwendung (elektrische Maschinen). Viele Elektromotoren – speziell solche mit Permanentmagneten – können auch als Generatoren arbeiten, wenn sie mechanisch angetrieben werden. Anforderungen an Motoren. Motoren und andere Kraftmaschinen wandeln chemische, elektrische oder thermische Energie in mechanische Energie (Arbeit) um. Sie sollen aus moderner Sicht Zu Beginn des Motorenbaues stand – praktisch bei jeder der Grundprinzipien – die Erzielung der nötigen "Leistung". Weitere Kenngrößen von Motoren sind neben der Leistung (Verbrauch an Strom oder Kraftstoff und abgegebene mechanische Leistung) noch die Masse, die Drehzahl und der Wirkungsgrad. Dampfmaschine. Die Dampfmaschine ist der „Urmotor“ der Industrialisierung der letzten Jahrhunderte. Sie wurde von Thomas Newcomen erfunden. Sie arbeitet mit heißem Wasserdampf unter Druck. Dessen Druckkraft wird vom Dampfkolben aufgenommen. Dabei wird wie beim Verbrennungsmotor eine lineare Bewegung über einen Kurbeltrieb in eine Rotationsbewegung umgesetzt. Schon um 1850 gab es mehrere Arten dieser Kolbenmaschine. Funktionsweise. Unter Verwendung eines Feuerkessels, in dem mit einem Kohlenfeuer das Wasser auf Siedetemperatur oder höher erhitzt wird, erzeugt das erhitzte Wasser sich ausdehnenden Dampf. Dieser Dampf wird über eine mechanische Steuereinheit vom Kurbeltrieb der Dampfmaschine zugeführt. Die Steuereinheit bewirkt, dass der Dampfzylinder (in dem der Kolben läuft) des Kurbeltriebes nur dann erneut Dampf erhält, wenn der expandierte Dampf des vorherigen Hub-Taktes weitestgehend entwichen ist. Bewegungsumsetzung. Die lineare Bewegung des Kolbens im expandierenden Zylinderraum, in den zuvor der Wasserdampf eingelassen wurde, wird von einer Pleuelstange am Kurbel- oder Hubzapfen in eine Drehbewegung umgesetzt. Dieser Vorgang wiederholt sich kontinuierlich. Was das Fortbewegungsmittel aus dem Schornstein bzw. Auspuff entlässt, ist der ausgestoßene Dampf der Kolbenzylinder, vermischt mit den Rauchabgasen der Feuerung. Dampfturbine. Sie ist die moderne Version der Wärmekraftmaschine und nutzt die Dampfkraft mit höherem Wirkungsgrad. Dampfdruck treibt eine Turbine an, deren Drehung prinzipiell einen ruhigeren Lauf hat als das Hin und Her eines Dampfkolbens. Der Drehmomentverlauf ist daher flacher, das heißt, sie arbeitet gleichmäßiger. Verbrennungsmotoren. Verbrennungsmotore wandeln in thermodynamischen Zyklen die bei der Verbrennung freigesetzte Wärme über Volumenänderungsarbeit zu mechanischer Arbeit um. Dabei wirkt der Druck der Verbrennungsgase auf die Oberfläche eines beweglichen Bauteils (Kolben), das über einen Kurbeltrieb (Pleuel + Kurbelwelle) die Volumenänderungsarbeit der Gaskräfte in mechanische Arbeit umsetzt. Der Wirkungsgrad von Verbrennungsmotoren ist aufgrund der Umsetzung der chemisch gebundenen Energie des Kraftstoffes über Wärmefreisetzung in mechanische Arbeit stark vom Betriebspunkt abhängig. Im optimalen Betriebszustand kann der effektive Wirkungsgrad von Schiffsmotoren unter Nutzung der Abgaswärme bis zu 55 % betragen (Emma-Mærsk-Klasse). Berücksichtigt man zudem die Nutzung der Kühlwasserwärme (Blockheizkraftwerk) und sogar der CO2-Emissionen, wie z.B. für Gewächshäuser, kann der Nutzen im Verhältnis zum Aufwand über 90 % betragen. Der Wirkungsgrad von PKW-Motoren im Kaltlauf, oder gar im Leerlauf kann unter 10 % liegen. Eine allgemeingültige Aussage ist nicht möglich und ist eng mit dem Anwendungsfall verbunden (Wirkungsgrad = Nutzen / Aufwand bzw. Kraftstoffverbrauch). Optimierung der Verbrennungsmotoren. Zur Steuerung der Frischluft läuft in den Standard-Motoren eine Steuerung der ein- und austretenden Gase per Ventilen oder Drehschieber mit den Arbeitstakten synchron. Durch einen Turbolader oder andere Luftverdichter kann Frischluft mit erhöhter Dichte zugeführt und dadurch der Wirkungsgrad der Motoren erhöht werden. Bei Ottomotoren wird die Benzinzufuhr durch Einspritzdüsen verbessert. Sie sind elektrisch angesteuert und dadurch in die moderne elektronische Steuerung der Motoren integrierbar. Analog dazu kommt bei Dieselmotoren das Pumpe-Düse-System oder die Common-Rail-Einspritzung zur Leistungsverbesserung zum Einsatz. Mittels Schubabschaltung und Start-Stopp-System erreicht man eine Verbrauchsoptimierung. Selbstzünder (Dieselmotor). Kann die Verbrennung eines Kraftstoffes ohne Hilfsmittel – nur durch die hohe Verdichtung des Luft-Brennstoffgemisches – erfolgen, so handelt es sich um einen Selbstzünder, Er zündet durch Druckbefüllung der Brennkammer. Verbesserungen hat es in der Modifikation der Brennräume, Kolben, Einspritzdüsen und Förderpumpen sowie bei der Erhöhung der Einspritzdrücke, der damit verbundenen besseren Mischung des Kraftstoffs mit der Luft und systematischen Variierung der Kraftstoffzumessung gegeben. Im Zuge dieser Entwicklungen ist die Wirbelstromkammer vom Direkteinspritzer ersetzt worden. Die Glühkerzen des Dieselmotors bzw. Mehrstoffmotors sind nur Hilfsmittel zum Kaltstart; alternativ können hoch entzündliche Startbrennstoffe beim Start zugespeist werden. Hier gab es keine wesentlichen Neuerungen, sondern nur Modifizierungen der Glühkerzen. Fremdzünder (Ottomotor). Ist die Verdichtung des Motors nicht so hoch wie bei dem Selbstzünder, dann benötigt er z. B. Zündkerzen, um das Reaktionsgemisch zu entzünden. Entwicklung und Zukunft. Im Fahrzeugbau ist diese Motorengruppe die am häufigsten eingesetzte, insbesondere als Benzin- und Dieselmotor. Sie macht den Großteil der Fahrzeug-Antriebe für Auto und Lkw, Diesellok, Panzer etc., kleine Flugzeuge und Motorsegler, Flug – und Motorboote, Jachten, Rasenmäher und viele weitere Anwendungen aus. Der Verbrennungsmotor ist mechanisch eine Weiterentwicklung der Dampfmaschine und hat, aus heutiger Sicht noch über Jahrzehnte, beste Voraussetzungen, weiter optimiert zu werden im Verbrauch, im Wirkungsgrad und in der Materialverwendung des Motors. Die Optimierung geschieht zum Teil durch andere Brennstoffe oder Arbeitsmittel wie Wasserstoff, bei denen fast reiner Wasserdampf entsteht, sowie durch kombinatorische Energie-Nutzungen bei Hybridantriebskonzepten. Gasturbinen. Turbinen mit Verbrennungsgasen gehören wie die Dampfturbine zu den „Thermischen Fluidenergie-Maschinen“, aber in die Gruppe der Verbrennungskraftmaschinen. Als Strömungsmaschinen gelten sie beide. Jede Gasturbine hat einen Turbokompressor, eine Brennkammer und eine Turbine, die meist über dieselbe Welle mit dem Verdichter mechanisch gekoppelt ist. Die vom Kompressor verdichtete Luft wird in der Brennkammer bei Temperaturen bis 1500 °C mit dem eingespritzten Treibstoff verbrannt. Die mit hoher Geschwindigkeit ausströmenden Verbrennungsgase treiben die Turbine an (bei Raketen entfällt sie). Die Turbine entzieht ihnen mindestens jene Strömungsenergie, die zum Antrieb des Verdichters nötig ist. Der Rest steht als nutzbare Energie zur Verfügung – entweder mechanische Energie zum Antrieb einer Welle (Elektrizitätswerk, Helikopter) oder als Rückstoß. Wirkungsgrad und Anwendungen. Je heißer die Gase sind, desto höher ist der Wirkungsgrad von Gasturbinen. Hierin und in der idealen Form der Turbinenschaufeln liegen große Entwicklungsmöglichkeiten des Motorenbaus. Wesentlich hierbei ist die thermische Belastbarkeit von Schaufeln und Ummantelung. Anwendungen in der Luftfahrt sind durch das sehr gute Leistungs-Masse-Verhältnis der Gasturbinen gegeben, etwa als Triebwerk für Hubschrauber oder Turboprop-Flugzeuge. Die kinetische Energie der Brenngase ist aber auch für Rückstoß-Antrieb von Flugzeugen nutzbar. Bei Jets werden sogenannte Strahltriebwerke eingesetzt, deren Prinzip weitgehend der Gasturbine entspricht: Auf die drei Bauteile der reinen Gasturbine folgt eine Düse, durch die der Abgasstrahl austritt. Die Turbine erhält nur so viel Energie (Drehgeschwindigkeit), wie sie zum Antrieb des Verdichters benötigt. Anwendungen in der Schifffahrt: Hier kommt es weniger auf ein günstiges Verhältnis Leistung-Masse an als auf geringen Treibstoffverbrauch an. Deshalb hat der effizientere Dieselmotor, der im Gegensatz zur Gasturbine auch mit günstigem Schweröl betrieben werden kann, diese im zivilen Bereich verdrängt. Für militärische Anwendung wird sie wegen ihrer größeren Laufruhe gelegentlich eingesetzt. Auch für Luftkissenfahrzeuge wird oft die Gasturbine gewählt. Bei einigen Turbinen kann der Anstellwinkel der Turbinenschaufeln verändert werden; siehe auch Variable-Turbinengeometrie-Lader. Stirlingmotor. Der Stirlingmotor wandelt Wärmeenergie in mechanische Energie um, ohne dass dazu zwingend eine Verbrennung stattfinden muss. Für den Betrieb muss am Motor ein Temperaturunterschied vorhanden sein und erhalten bleiben. Raketenmotoren. Raketenmotoren erzeugen in der Regel aus chemischer Energie über den Umweg der Wärmeenergie mechanische Energie. Siehe auch Rakete, Raketentechnik. Elektromotor. Die am häufigsten eingesetzten Motoren sind Elektromotoren. Antriebe der verschiedensten Größe und Leistung finden sich in praktisch allen Maschinen Geräten, Automaten und Produktionsmitteln – von miniaturisierten Servo- und Schrittmotoren über Geräte für Haushalt, Büro, Klima und Auto bis zu Industrieanlagen. Die Weiterentwicklung findet hier weniger im Motorbau selbst als in der Optimierung seiner Anwendung, z. B. durch leistungselektronische Steuerung, statt. Elektromotoren sind Energieumwandler, die elektrischen Strom in Rotations- oder lineare Bewegung (Linearmotor) umsetzen. Größere Asynchronmotoren sind oft genormt (DIN, Deutschland), was die Produktion und den Einsatz von Motoren vereinheitlicht. Europäische Elektro-Motorenprodukte unterliegen oft der der CEE-Norm. Elektromotoren gibt es für Gleichstrom, Wechselstrom und Drehstrom. Sie finden vor allem bei Industrieanlagen und für elektrische Maschinen Verwendung. Auch in Spielzeugen oder z. B. in PCs (Lüfter, Laufwerke, Festplatte) und in Haushaltsgeräten werden sie eingesetzt. Entwicklungstrends sind die Miniaturisierung und die Kombination mit Steuerungstechnik (Sensorik, Leistungselektronik). Neuere Entwicklungen betreffen die großtechnische Anwendung von Supraleitern, an der intensiv gearbeitet wird. Sie wird neben Leistungssteigerungen im Motorbau auch den Transformatorbau betreffen. Fast alle Elektromotoren können auch „umgekehrt“ als Generatoren arbeiten, d. h. bei mechanischem Antrieb elektrische Energie erzeugen. Damit kann z. B. beim Bremsen oder bei Fahrstühlen Energie zurückgewonnen werden. Eine Sonderform von Elektroantrieben sind die Piezomotoren. Verordnung (EG) Nr. 640/2009 der Kommission. Ineffiziente Motoren (IE1 und darunter) dürfen seit dem 16. Juni 2011 nicht mehr vertrieben werden. Ab 2015 sind durchschnittliche IE2 Motoren mit Nennausgangsleistung von 7,5 bis 375 kW nur noch mit Drehzahlregelung erlaubt. Alternativ können effiziente IE3 Motoren mit oder ohne Drehzahlregelung vertrieben werden. Hydraulikmotor. Hydraulikmotoren arbeiten oft nach dem umgekehrten Prinzip einer Zahnradpumpe. Sie erzeugen eine Drehbewegung aus Druck und Strömung einer Hydraulikflüssigkeit. Sie sind vergleichsweise klein und können auch im Stillstand hohe Drehmomente erzeugen. Sie werden u. a. an Baggern, Tunnelbohrmaschinen und in der Landwirtschaft eingesetzt. Eine abgeleitete Variante ist in Strömungsgetrieben zu finden, wird dort jedoch nicht so genannt. Druckluftantriebe. Druckluft wird zum Betrieb von Turbinen (z. B. zahnärztliche Turbinen (Bohrer), Zentrifugen) oder Kolbenmaschinen genutzt. Geschichte. Wasserkraft und die Windkraft spielen bei der Geschichte des Motors eine Rolle. Auch ein Wasserrad ist ein Motor, ein Energiewandler: Das Energieangebot von Wasser mit höherer Lage (potenzielle Energie) eines Teiches oder eines Flusses wurde mittels eines Wasserrades in eine Drehbewegung umgesetzt, um Mühlsteine (Wassermühle) oder ein Sägewerk anzutreiben. Ebenso ist ein Windrad ein Motor: Die Kraft der vorbeiströmenden Luft wird verwendet, um z. B. einen Mühlstein (Windmühle), eine Wasserpumpe oder einen Generator anzutreiben. Weitere historische Antriebe arbeiteten mit Muskelkraft von Tieren oder Menschen (siehe Göpel). Noch heute treiben in trockenen Ländern Menschen oder Tiere Pumpwerke an, um Wasser zu fördern. März. Gelbe Narzisse oder Osterglocke "(Narcissus pseudonarcissus)" Der März (Abkürzung Mrz. oder Mär.) ist der dritte Monat des Jahres im gregorianischen Kalender. Er hat 31 Tage und ist nach dem römischen Kriegsgott Mars benannt, nach diesem nannten ihn die Römer "Martius". Denn ursprünglich versammelten sich in diesem Monat, mit dem die Feldzugssaison begann, die waffenfähigen römischen Bürger auf dem so genannten Marsfeld (oder "Märzfeld") vor den Toren der Stadt, um gemustert zu werden und ihre Feldherrn zu wählen. Der alte deutsch-germanische Name ist "Lenz", "Lenzing" bzw. "Lenzmond"; eine veraltete Schreibung ist "Märzen". Der 1. März markiert den meteorologischen Frühlingsanfang. Die Tagundnachtgleiche, der astronomische Frühlingsbeginn, findet in den nächsten Jahrzehnten meist am 20. März statt (auf den 21. März fiel sie zuletzt 2011). An diesem Tag steht die Sonne über dem Äquator im Zenit und geht dort damit genau im Osten auf und genau im Westen unter. Der Zeitpunkt wandert immer 3 Jahre um etwas weniger als 6 Stunden vorwärts, um dann im 4. Jahr (Schaltjahr) wieder um 18 Stunden zurück zu springen. Weil der Rücksprung größer ist als die Vorwärtsbewegung, wandert der Frühlingsbeginn auf 4 Jahre betrachtet rückwärts. Um zu verhindern, dass der Frühlingsanfang das ganze Jahr durchwandert, fällt im gregorianischen Kalender das Schaltjahr alle 100 Jahre aus, außer die Jahreszahl ist durch 400 teilbar (zuletzt 1900, als Nächstes 2100, aber nicht 2000). Daher kann der Frühlingsbeginn zwischen dem 19. und 21. März stattfinden, wird aber bis zum Jahre 2100 fast ausschließlich auf den 19. und 20. fallen. Der römische Kalender begann ursprünglich mit dem März als erstem Monat. Hieraus leiten sich auch die Namen der Monate September (‚sieben‘), Oktober (lat. ‚acht‘), November (‚neun‘) und Dezember (‚zehn‘) ab, jeweils benannt nach ihrer Position in der Abfolge der Monate. Am 1. März bzw. 15. März traten in Rom auch die höchsten Beamten, die beiden Konsuln, nach denen das jeweilige Jahr benannt war und die die obersten Heerführer waren, ihr Amt an. Als der Amtsantritt der Konsuln 153 v. Chr. aus militärischen Gründen auf den 1. Januar vorverlegt wurde, wurde damit daher zugleich auch der Jahresbeginn verschoben. Unter Kaiser Commodus (180 bis 192 n. Chr.) wurde der Monat in "Felix" umbenannt, einer seiner Beinamen, nach dem Tod des Kaiser erhielt er allerdings wieder seinen alten Namen zurück. Der März beginnt stets mit demselben Wochentag wie der November und in Nicht-Schaltjahren auch wie der Februar. Mai. Der Mai ist der fünfte Monat des Jahres im gregorianischen Kalender. Er hat 31 Tage. Benannt ist dieser Monat − so die Zeugnisse einer Reihe lateinischer Autoren − nach der römischen Göttin Maia, welcher der Flamen Volcanalis am ersten Tag dieses Monats ein Opfer darbrachte. Das Zustandekommen der Gleichsetzung dieser − laut Gellius − altverehrten Göttin „Maia Vulcani“ (wohl als „Frau des Vulcanus“ zu denken) mit der Göttin Bona Dea und Terra − nach Macrobius − oder einer Plejade und der Mutter des Hermes/Mercurius ist unklar; doch gilt die etymologische Zuordnung zur Wortwurzel *mag (und damit zu Wachstum und Vermehrung) als sicher. Damit ist der mensis Maius in das ursprüngliche römische Bauernjahr eingeordnet. Einen lediglich lokal verehrten Gott „Maius, qui est Iuppiter“ kennt Macrobius. Zur Regierungszeit Kaiser Neros wurde der Monat in "Claudius" umbenannt, einer der Namen des Kaisers, der sich allerdings nicht durchsetzte. Unter Kaiser Commodus hieß der Monat dann "Lucius", wiederum einer seiner Namen, auch diese Umbenennung wurde nach dem Tod des Kaiser wieder rückgängig gemacht. Im vorjulianischen römischen Kalender war der Maius der dritte Monat, im julianischen Kalender der fünfte, jeweils mit 31 Tagen. Im katholischen Kirchenjahr ist der Mai besonders der Verehrung der Gottesmutter Maria gewidmet (Maiandachten), weshalb er in diesem Umfeld auch als "Marienmond" bezeichnet wird. Der Mai beginnt mit demselben Wochentag wie der Januar des Folgejahres, aber kein anderer Monat desselben Jahres beginnt mit demselben Wochentag wie der Mai. Der erste Mai ist der internationale Feiertag (in Deutschland: gesetzlicher Feiertag) der Arbeiterbewegung. Am zweiten Sonntag im Mai ist in deutschsprachigen Ländern Muttertag. Karl der Große führte im 8. Jahrhundert den Namen "Wonnemond" ein (eigentlich althochdeutsch „wunnimanot“ = Weidemonat), der darauf hinweist, dass man in diesem Monat das Vieh wieder auf die Weide treiben konnte. Mit „Wonne“ im heutigen Begriffszusammenhang hat der alte Monatsname also eigentlich nichts zu tun. Doch findet sich dieses Missverständnis schon zu Beginn der Neuzeit und des Neuhochdeutschen. Laut "Deutsches Wörterbuch der Brüder Grimm" s. v. WONNEMONAT erklärt Basilius Faber 1587 [sic!]: „maius, der may, a frondibus Carolus Magnus den wonnemonat, id est mensem amoenitatis olim nuncupavit“ („maius, der may, nach dem Laub benannte einst Karl der Große den wonnemonat, d. h. den Monat der Lieblichkeit“). Etwa seit dem 13. Jahrhundert wird der Mai in Europa mit Maifeiern, -umgängen und -ritten gefeiert, in vielen Gegenden Deutschlands und Österreichs ist das Aufstellen oft imposanter Maibäume gewachsenes Brauchtum; länger schon existierten Feste wie Beltane oder Walpurgisnacht. Massaker. a> zeigt (zw. 1521 u. 1530) Massaker ist der umgangssprachliche Ausdruck für einen Massenmord unter besonders grausamen Umständen, ein "Gemetzel" oder "Blutbad", häufig im Zusammenhang mit Motiven wie Hass oder Rache. Das Wort leitet sich vom altfranzösischen "maçacre", „Schlachthaus“, her. In kriegerischen Konflikten versteht man darunter normalerweise die politisch oder ethnisch motivierte Hinrichtung von Zivilpersonen, Soldaten oder paramilitärischen Kräften nach deren Kapitulation oder nach der Kapitulation ihrer Stadt beziehungsweise ihres Dorfes. Massaker sind somit Massenmorde, die von bewaffneten Einheiten ohne militärische Notwendigkeit außerhalb der eigentlichen Kriegshandlungen verübt werden. Sie dienen der Verbreitung von Terror oder der Abschreckung oder sie sind als systematische Rache- und Strafaktion organisiert. Bei Massakern größeren Ausmaßes oder solchen, die in einem Gesamtzusammenhang stehen und sich gegen die Bevölkerung ganzer Gebiete richten, spricht man auch von Genozid. Im Völkerrecht werden genauer definierte Begriffe wie Völkermord, Kriegsverbrechen oder Verbrechen gegen die Menschlichkeit verwendet, weil die Bezeichnung "Massaker" unscharfe Nebenbedeutungen mit sich trägt und deshalb propagandistisch leichter missbraucht werden kann. Umgangssprachlich werden auch Niederschlagungen von Demonstrationen und Aufständen Massaker genannt. Ebenso wird das Wort bei zivilen kriminellen Handlungen mit ähnlichen Folgen verwendet, etwa bei Amokläufen (Beispiel: „Schulmassaker“), bei terroristischen Anschlägen mit erheblicher Opferzahl oder bei Pogromen. Mutterkorn. Das Mutterkorn (auch "Purpurroter Hahnenpilz, Ergot, Krähenkorn, Hahnensporn, Hungerkorn, Tollkorn" oder "Roter Keulenkopf") ist eine längliche, kornähnliche Dauerform (Sklerotium) des Mutterkornpilzes "(Claviceps purpurea)". Für Mensch und Vieh stellt der Befall von Nahrungs- und Futtergetreide mit diesem Pilz ein Problem dar, denn die im Mutterkorn enthaltenen Alkaloide weisen eine hohe Toxizität auf. Besonders häufig betroffenes Nahrungsgetreide ist Roggen, aber auch der als Viehfutter genutzte Triticale sowie Weizen, Gerste, Hafer und Dinkel. Gräser insgesamt sind befallgefährdet, auch das an der Nordseeküste vorkommende Salz-Schlickgras ("Spartina anglica"). Inhaltsstoffe. Der Mutterkornpilz produziert giftige Alkaloide, die Mutterkornalkaloide. Sie sind durch eine Ergolin-Struktur gekennzeichnet. Zu den Mutterkornalkaloiden gehören beispielsweise Ergotamin, Ergometrin und α-Ergokryptin. Wirkungen. Zu den toxischen Effekten von Mutterkornalkaloiden zählen Darmkrämpfe, Halluzinationen sowie das Absterben von Fingern und Zehen aufgrund von Durchblutungsstörungen, die das Krankheitsbild Ergotismus (auch Antoniusfeuer oder Mutterkornbrand) prägen. 5 bis 10 Gramm frisches Mutterkorn können bei einem Erwachsenen zu Atemlähmungen und Kreislaufversagen führen und tödlich sein. Der Name weist auf die Beziehung zur Gebärmutter ("Mutter"korn) hin, denn die Inhaltsstoffe (insbesondere Ergometrin) regen die Wehen an. Aus diesem Grund wurde der Pilz auch für Schwangerschaftsabbrüche verwendet und sogar gezielt im großen Stil angebaut. Die Alkaloide können aber auch medizinisch eingesetzt werden, beispielsweise zum Blutstillen nach der Geburt, gegen orthostatische Hypotonie (niedriger Blutdruck und Schwindel nach dem Aufstehen) oder Migräne. Aus dem Pilz kann Lysergsäure gewonnen werden, aus der die Droge LSD hergestellt werden kann. Nach Hofmann und Wasson (1978 The Road to Eleusis) war allerdings schon 2000 Jahre vor Christus bekannt, dass nur die natürlich vorhandenen psychoaktiven Lysergsäurealkaloide wasserlöslich waren, und damit wurden berauschende Getränke gebraut, die die unerwünschten Effekte der anderen Alkaloide umgehen. Vorbeugung/Beseitigung. Mutterkornbefall tritt vor allem dann auf, wenn zur Blütezeit feuchte Witterung herrscht und daher die Pollen zur Befruchtung des Getreides dieses schlecht erreichen können. Da der Verzehr von ungereinigtem, rohem Getreide die größten Risiken birgt, wird empfohlen, nur gereinigtes Getreide zu verzehren. Durch die Reinigung werden die Sklerotien (Dauerorgane des Pilzes, "Mutterkörner") aus dem Erntegut entfernt. Zum Risiko am Beispiel von Roggenmehl hat das Bundesinstitut für Risikobewertung (BfR) im Jahr 2004 eine Analyse veröffentlicht. Mutterkorn kann in der Mühle nach Form, Größe und spezifischem Gewicht z. B. durch Siebe, Aspiration, Trieure und Tischausleser entfernt werden. Neuerdings ist die Entfernung durch Farbausleser möglich. Letztere ist die zuverlässigste Methode, besonders wenn das Mutterkorn nicht größer als die Getreidekörner oder in Bruchstücken vorhanden ist. Sie ist jedoch mit hohen Investitionskosten für die Farbauslesegeräte verbunden. Daher besitzen in der Regel nur große Mühlen eine solche Ausstattung. Zusammen mit dem Mutterkorn wird im Reinigungsabgang inbegriffen auch gutes Korn ausgeschieden, bei modernen Farbsortierern befindet sich im Abgang etwa gleich viel Mutterkorn wie gutes Getreide, bei Tischauslesern etwas mehr gutes Korn als Mutterkorn. Namensgebung und Pharmazie-Geschichte. Die Anwendung des Mutterkorns blieb auf die Volksmedizin beschränkt. 1709 teilte R. B. Camerarius in Tübingen nochmals mit, dass die deutschen Hebammen sich des Mutterkorns bedienten, um Kontraktionen der Gebärmutter hervorzurufen. Der Holländer Rathlow (1747) sowie der Franzose Desgranges (1777) berichteten danach über eigene Erfahrungen mit der Anwendung der Droge in der Geburtshilfe. Von ihren ärztlichen Kollegen wurden sie nicht beachtet. Zu Beginn des 19. Jh. untersuchten die Mitglieder der nordamerikanischen eklektischen Schule alle Volksmittel und auch das Mutterkorn, welches dann 1807 durch die Ärzte J. Stearns und Oliver Prescott (1762–1827) zur Behandlung von Wehenschwäche empfohlen wurde. Museum. Im Antoniter-Museum in Memmingen gibt in sechs Räumen eine weltweit einmalige Dauerausstellung zum Mutterkornbrand, den der Orden der Antoniter hier vor rund 500 Jahren bei vielen Patienten behandelte. Mali. Mali (, amtlich Republik Mali'") ist ein Binnenstaat in Westafrika. Der 1,24 Millionen km² große Staat wird von 14,5 Millionen Menschen bevölkert. Seine Hauptstadt heißt Bamako. Der größte Teil der Bevölkerung lebt im Südteil des Landes, der von den beiden Strömen Niger und Senegal durchflossen wird. Der Norden erstreckt sich bis tief in die Sahara und ist äußerst dünn besiedelt. Auf dem Gebiet des heutigen Mali existierten im Laufe der Geschichte drei Reiche, die den Transsaharahandel kontrollierten: das Ghana-Reich, das Mali-Reich, nach dem der moderne Staat benannt ist, und das Songhai-Reich. Im goldenen Zeitalter Malis blühten islamische Gelehrsamkeit, Mathematik, Astronomie, Literatur und Kunst. Im späten 19. Jahrhundert wurde Mali Teil der Kolonie Französisch-Sudan. Zusammen mit dem benachbarten Senegal erreichte die Mali-Föderation 1960 ihre Unabhängigkeit. Kurz danach zerbrach die Föderation und das Land erklärte sich unter seinem heutigen Namen unabhängig. Nach langer Einparteienherrschaft führte ein Militärputsch 1991 zur Verabschiedung einer neuen Verfassung und zur Etablierung eines demokratischen Mehrparteienstaates. Im Januar 2012 eskalierte der bewaffnete Konflikt in Nordmali erneut. Im Zuge dessen proklamierten die Tuareg-Rebellen die Abspaltung des Staates Azawad von Mali. Der Konflikt wurde durch den Putsch vom März 2012 und spätere Kämpfe zwischen Islamisten und den Tuareg noch verkompliziert. Angesichts der Gebietsgewinne der Islamisten begann am 11. Januar 2013 die Operation Serval, im Verlaufe derer malische und französische Truppen den Großteil des Nordens zurückeroberten. Die UN-Sicherheitskonferenz unterstützt den Friedensprozess mit der Entsendung der MINUSMA. Die wichtigsten Wirtschaftszweige sind die Landwirtschaft, die Fischerei und in zunehmendem Maße der Bergbau. Zu den bedeutendsten Bodenschätzen gehören Gold, wovon Mali den drittgrößten Produzenten Afrikas darstellt, und Salz. Ungefähr die Hälfte der Bevölkerung lebt unterhalb der Armutsgrenze. In kulturellen Bereichen hat Mali lange Traditionen vorzuweisen. Speziell in Musik, Tanz, Literatur und bildender Kunst führt es ein eigenständiges Kulturleben, das weit über seine Grenzen hinaus bekannt ist. Das Land liegt im Human Development Index auf dem 176. Platz. Geographie. Mali ist ein Binnenstaat im Inneren Westafrikas mit 1.240.192 Quadratkilometern Fläche, von denen 20.002 km² auf Gewässer entfallen. Es liegt in der Großlandschaft Sudan sowie im Sahel. Mali teilt sich seine 7243 Kilometer lange Landgrenze mit sieben Nachbarstaaten. Im Nordosten und Norden mit Algerien (1376 Kilometer Länge), im Nordwesten mit Mauretanien (2237 km), im Osten mit Niger (821 km) sowie im Südosten mit Burkina Faso (1000 km). An Mali grenzen außerdem Senegal (419 km) im Westen, Guinea (858 km) im Südwesten und die Elfenbeinküste (Côte d’Ivoire, 532 km) im Süden. Nördlich des Nigerbogens liegt die Wüste Sahara, die zwei Drittel der Landesfläche bedeckt. Relief. Die häufigste Landschaftsform Malis ist die Ebene. Die monotonen, weitläufigen Ebenen wie die Kaarta, der Gourma oder die Gondo-Ebene werden nur örtlich von flachen Tafelbergen oder Dünenformationen aufgelockert. Der Süden des Affolé, das Mandingo-Plateau, das Bandiagara-Plateau oder das Mahardates-Plateau haben Untergründe aus Sandstein. Sie sind durch Erosion vielfältig gegliedert und erreichen Höhen zwischen 300 und 700 Metern über dem Meeresspiegel. In einigen Regionen besteht der Untergrund aus den uralten Gesteinen des afrikanischen Schildes, der zu Ausdruckslosigkeit und breiten Tälern neigt: Im Westen und Osten des Landes, im Südwesten des Affolé, im Bambouk, im Adrar des Ifoghas und im Vorland der Tamboura-Stufe. Dünenlandschaften, seien die Dünen fossiler oder rezenter Herkunft, bedecken weite Teile des Nordens und reichen bis in die Kaarta im Süden. Nennenswerte Dünenlandschaften sind im Hodh, im Erg von Niafunké, im Gourma, in der Gondo-Ebene, in den Ergs von Azaouad, von Erigat, von Mreyyé oder im Erg Chech anzutreffen. Während die fossilen Dünen meist parallel zueinander verlaufen, sind im Aklé Aouana chaotische und sehr mobile Dünenfelder verbreitet. Schichtstufen, die steile, hunderte Meter tief abfallende Hänge bilden, sind für Westafrika generell charakteristisch, für Mali sind die Bandiagara-Stufe, die Tamboura-Stufe oder die Affolé-Stufe zu nennen. Die wenigen Bergländer Malis sind Dolerit-Formationen, die über die Plateaus hinausragen. Dazu gehören die Erhebungen von Sarakollé. Geologie und Böden. Mali liegt zur Gänze auf dem niederafrikanischen Teil des Gondwana-Urkratons. Es dominiert die Becken- und Schwellenstruktur, wobei Mali größtenteils im Taoudenni-Becken liegt, das sich vom Niger-Binnendelta bis zur mittleren Sahara erstreckt. Die das Becken umgebenden Schwellen bestehen aus Aufwölbungen des kristallinen Urkratons. Er ist häufig von Sandstein überlagert, der zwischen Paläozoikum und Känozoikum durch mehrere Phasen der Überflutung mit Meerwasser entstand. Ablagerungen aus dem Tertiär kommen seltener vor. Da Mali, wie die gesamte Sahelzone, zur randtropischen Zone der exzessiven Flächenbildung gehört, sind weitläufige Rumpfflächen typisch, die von Inselbergen unterbrochen werden. Auf der Oberfläche von Sedimenten haben sich verbreitet Lateritkrusten gebildet, die bis zu mehreren Metern dick sein können. Die jüngsten geologischen Formationen verlaufen parallel in nordwestlich-südwestlicher Richtung. Es sind alte Dünen, die im Jungpleistozän entstanden, bis zu 30 m hoch sind und durch Savannenvegetation stabilisiert werden. Was Böden betrifft, sind tropische Roterden am weitesten verbreitet. Sie kommen auf kristallinem Untergrund oder alten Sedimentschichten vor und sind relativ steril. Dort, wo diese Erden Lateritkrusten gebildet haben, gedeiht karge Vegetation aus Combretaceen. In Pedimentbereichen kann sich Verwitterungsmaterial sammeln und taugliche Böden für den Ackerbau bilden. Fersiallite, rötlich-braune lessivierte Böden auf äolischen Sanden, kommen ebenfalls verbreitet vor und bilden Schichten von 2 bis 3 Metern. Sie enthalten wenig Humus und sind für Bodenzerstörung durch den Menschen anfällig. Mit entsprechenden Düngereinsatz eignen sie sich für den Hirse- oder Baumwollanbau. In der nördlichen Sahelzone dominieren subaride Braunerden, die einerseits die selten fallenden Niederschläge gut absorbieren, andererseits aber zur Erosion neigen. Dieser häufig mit Gras bewachsene Boden ist für die nomadische Weidewirtschaft von hoher Bedeutung. Die Wüstenregionen sind durch Rohböden gekennzeichnet, die durch physikalische Verwitterung entstanden sind und kaum organische Anteile aufweisen. Entlang der Flüsse, speziell in den Überschwemmungsgebieten und dem Binnendelta des Niger, kommen Gleyböden und Vertisole vor. Sie weisen eine hohe Fruchtbarkeit auf, bergen aber das Risiko der Versalzung und der Spaltbildung bei Trockenheit. Sie eignen sich zum Anbau von Sorghum, Reis, Gemüse und anderen Feldfrüchten. Gewässer. Der Niger ist der bedeutendste Fluss Westafrikas, er durchquert Mali auf einer Länge von rund 1700 km. Er fließt aus Guinea kommend im südwestlichsten Zipfel des Landes in das Territorium von Mali ein und bildet nach Ségou ein großes Binnendelta. Bei Mopti nimmt er seinen größten Nebenfluss Bani auf, um sich kurz darauf in zwei Arme, den Bara Issa und den Issa Ber, zu zerteilen. Hier befindet sich eine etwa 100.000 km² große Schwemmebene, die von zahlreichen flachen, saisonal existierenden Seen bedeckt ist. Kurz vor Diré vereinigen sich die beiden Arme, bei Timbuktu wendet sich der Flusslauf Richtung Osten und bei Bourem in Richtung Südosten. Der Senegal-Fluss ist der zweite wichtige Fluss der Region. Er entsteht bei Bafoulabé durch den Zusammenfluss von Bafing und Bakoye. Auf seinem Weg durch den westlichen Teil Malis nimmt der Senegal-Fluss noch das Wasser von Falémé, Karakoro und Gorgol auf. Die ganzjährig bestehenden Seen liegen beiderseits des Niger und heißen Niangay und Faguibine. Letzterer ist mit 590 km² Oberfläche in der Regenzeit der größte See des Landes. Die zahlreichen saisonalen Seen füllen sich in der Regenzeit mit Wasser, die bedeutendsten von ihnen heißen Débo, Fati, Teli, Korientze, Tanda, Do, Garou und Aougoundou. Durch die seit den schweren Dürren der frühen 1980er Jahre abnehmenden Regenfälle und vor allem dem Bau von Staudämmen am oberen Niger trocknen Niangay und Faguibine neuerdings regelmäßig aus. Die Fischerei in den Flüssen und Seen bildet einen wichtigen Wirtschaftszweig. Die Sümpfe und Feuchtgebiete, die sich in der Regenzeit entlang des Niger bilden, bieten zahlreichen Vogelarten Lebensraum. Klima. Das Klima Malis wird primär von der Lage des Landes am Übergangsbereich zwischen wechselfeuchter Savanne im Süden und vollarider Sahara im Norden beeinflusst. Die Wechselwirkung zwischen nordwärts wandernder innertropischer Konvergenzzone im Sommer und trockenem Nordost-Passat (Harmattan) im Winter beschert allen Regionen des Landes eine ausgeprägte Einteilung in Trocken- und Regenzeit. Die Trockenzeit fällt in den Winter und die Regenzeit in den Sommer. Die durchschnittlichen Jahresniederschläge nehmen von über 1200 Millimeter im Süden auf weniger als 25 Millimeter im Norden ab. Großflächige Landwirtschaft wird wegen der klimatisch günstigeren Verhältnisse fast ausschließlich im Süden betrieben. Im Norden gibt es in den Oasen nur kleine landwirtschaftliche Nutzflächen. Nicht nur die durchschnittlichen Jahresniederschläge, sondern auch die Regentage pro Jahr, die Länge der Regenzeit und die Regelmäßigkeit der Niederschläge verhalten sich im Süden weitaus günstiger als im Norden. In Sikasso regnet es durchschnittlich an 97 Tagen im Jahr, in Bamako an 76 Tagen, in Timbuktu an 29 und in Kidal an 18 Tagen pro Jahr. Während in Kidal weit mehr als die Hälfte des Jahresniederschlages auf Juli und August entfällt, erfreut sich der Süden einer Regenzeit, die im Mai einsetzt, im August ihren Höhepunkt erreicht und im Oktober abklingt. Je weiter man nach Norden vordringt, umso mehr fallen die Niederschläge in Form von kurzen, heftigen und lokal begrenzten Gewitterregen. Dies erschwert die Landwirtschaft noch zusätzlich, denn die Feldfrüchte verdorren häufig zwischen zwei Regengüssen und zwingen die Bauern zu mehreren Aussaatversuchen. Die durchschnittlichen Jahrestemperaturen liegen in Mali zwischen 27 °C und 30 °C. Vom geographischen Breitengrad sind sie weitgehend unabhängig. Die Jahresamplituden sind jedoch im Norden deutlich höher als im Süden: in Gao oder Timbuktu sind die Sommer mit Durchschnittstemperaturen von bis zu 35 °C heißer und die Winter mit Januar-Temperaturen um die 20 °C kälter. In Bamako hingegen bewegen sich die durchschnittlichen Temperaturen zwischen 25 °C im Winter und 32 °C im April. Die Extremtemperaturen werden aus den Orten am Rande der Sahara gemeldet: sie liegen nahe dem Gefrierpunkt in kalten Winternächten und nahe 50 °C im Schatten an Sommertagen. Temperatur-Amplituden von 30 °C innerhalb eines Tages sind dort normal. Die Regenmenge eines Jahres hängt maßgeblich davon ab, wie weit sich die innertropische Konvergenzzone nach Norden bewegt und wie gleichförmig sie ausgeprägt ist. Ist sie nicht stetig, sondern wellenförmig oder unterbrochen ausgeprägt, fällt weniger Regen oder die Regenzeit beginnt später. Treten mehrere Jahre mit ungünstiger Ausprägung der innertropischen Konvergenzzone hintereinander auf, kommt es zu einer Dürreperiode. Diese Erscheinung tritt in der Sahelzone in unregelmäßigen Abständen auf. Seit den 1960er-Jahren kommen Dürreperioden aber immer häufiger vor. Auch ein langfristiger Rückgang der Niederschläge kann für diese Zeitspanne nachgewiesen werden. Dies wird mit verminderter Verdunstung in den Innertropen aufgrund von Umweltzerstörung erklärt. Für die Zukunft erwarten manche Wissenschaftler, dass die Niederschläge in Mali weiterhin abnehmen und dass die Vegetationszonen sich nach Süden verschieben. Die Auswirkungen auf Landwirtschaft und Lebensmittelsicherheit wären in diesem Falle schwerwiegend. Klimadiagramme von Sikasso, Bamako (Südwesten) und Timbuktu (Nordosten) Städte. In Mali liegen einige der ältesten Städte Westafrikas. Djenné entwickelte sich vom 9. Jahrhundert durch Zuwanderung von Sarakolle aus dem zerfallenen Ghana zu einem Handelszentrum, das seinen Höhepunkt im 13. Jahrhundert erlebte und dessen Architektur bis heute den Dörfern des Niger-Binnendeltas als Vorbild dient. Das am Südrand der Sahara gelegene Timbuktu entwickelte sich ab dem 12. Jahrhundert zu einer der wichtigsten Städte der Region, die von ihrer Lage am nördlichsten Punkt des Nigerbogens profitierte. Während diese alten Städte sinkende Bevölkerungszahlen vorweisen, weist Mali insgesamt eine schnelle Verstädterung auf, die die neuen urbanen Zentren schnell wachsen lässt. Neben dem allgemein hohen Bevölkerungswachstum trägt die Landflucht aufgrund sich verschlechternder ökologischer Verhältnisse, Dürre oder politischer Instabilität zu einer schnellen Urbanisierung bei. Lebten im Jahr 1965 noch 9 % der Malier in Städten, so werden es 2015 voraussichtlich etwa 41 % sein. Die mit Abstand größte Stadt des Landes ist Bamako, das von 6500 Einwohnern im Jahr 1908 auf über 1,8 Millionen Einwohner im Jahr 2009 gewachsen ist. Die Stadt ist Regierungs- und Verwaltungszentrum des Landes und dient als Brückenkopf ins Ausland, speziell für Entwicklungshilfe. Eine grenzüberschreitende Bedeutung hat sie jedoch nicht. Weitere bedeutende Städte sind Sikasso (2009: 226.618 Einwohner), Ségou (133.501 Einwohner) und das Zentrum der malischen Baumwollverarbeitung Koutiala (75.000 Einwohner 1998). Durch den Zustrom von Dürreflüchtlingen sind Mopti (81.000 Einwohner 1998, 120.786 im Jahr 2009) und Sévaré stark gewachsen. Die Städte im Nordsahel wie Timbuktu (2005: 30.000 Einwohner, 2009 54.629) oder Gao (2009 86.353) sind von Abwanderung, vor allem junger Leute, betroffen. Flora und Fauna. Trockenwald mit Akazien und einem Baobab zwischen Kayes und Bamako während der Regenzeit Die Vegetation in Mali ist das Ergebnis jahrhundertelanger menschlicher Eingriffe. Eine natürliche Vegetation ist nur noch in eng begrenzten Gebieten vorhanden. Die durch Beweidung, Ackerbau und Brandrodung entstandene Kulturlandschaft lässt sich, abhängig von der Menge des Niederschlags, in vier Zonen einteilen. Von wenigen Ausnahmen abgesehen ist den Pflanzen dieser Zonen gemeinsam, dass sie zu Beginn der Regenzeit austreiben und in den trockenen Monaten ihr Laub abwerfen bzw. den oberirdischen Teil absterben lassen. Der Bereich der dichten bis offenen Trockenwälder im südlichen Teil des Landes ist durch Baumarten wie Kapokbaum ("Ceiba pentandra"), Karitébaum ("Vitellaria paradoxa"), Afrikanischer Affenbrotbaum ("Adansonia digitata") oder Anabaum ("Faidherbia albida") bestimmt. Alle diese Bäume werden durch den Menschen intensiv genutzt. Auf weniger günstigem Boden gedeihen "Combretum"-Gehölze. Horstgräser wie "Hyparrhenia"-, "Pennisetum"-, "Loudetia"- und "Andropogon"-Arten bilden die Grasschicht. Nördlich der Trockenwälder, wo weniger als 600 mm Jahresniederschlag fallen, breitet sich die sahelische Dornstrauchsavanne aus. Es dominieren verschiedene Akazien-Arten, Wüstendattel ("Balanites aegyptiaca") oder "Combretum glutinosum", sowie die Gras-Arten "Cenchrus biflorus" oder "Aristida mutabilis". "Eragrostis tremula" besiedelt häufig Flächen, auf denen Hirse angebaut wurde. Bei dieser Savanne handelt es sich um den Tigerbusch; dort wechseln sich Flächen mit und ohne Vegetation in Streifenform ab. Die Grenze zwischen Dornbaumsavanne und Nordsahel liegt bei 250 bis 100 mm Jahresniederschlag. In feuchten Niederungen des Nordsahel gedeihen noch Akazien-Arten, Strauch-Arten wie "Leptadenia pyrotechnica" oder die wichtigen Futterpflanzen "Maerua crassifolia" oder Zahnbürstenbaum ("Salvadora persica"). Die Sahara beginnt dort, wo der Jahresniederschlag 100 mm unterschreitet. In diesen Gebieten treten Akazien-Arten nur noch in Wadis auf. An günstigen Standorten gedeihen Horstgräser wie "Aristida pungens", "Aristida longiflora" oder "Panicum turgidum". In Mali endemische Arten sind "Maerua de waillyi" aus der Familie der Kaperngewächse, "Elatine fauquei" aus der Familie der Tännelgewächse, "Pteleopsis habeensis" (Flügelsamengewächse), "Hibiscus pseudohirtus" (Malvengewächse), "Acridocarpus monodii" (Malpighiengewächse), "Gilletiodendron glandulosum" (Hülsenfrüchtler), "Brachystelmam edusanthernum" (Gattung Brachystelma), "Pandanus raynalii" (Schraubenbaumgewächse). Aufgrund der Überjagung durch Einheimische und andere Jäger, der Desertifizierung weiter Gebiete mit starken Trockenheiten und der fortschreitenden Kultivierung und Konkurrenz mit Weidetieren sind in Mali vor allem größere Wildtiere viel seltener als in vielen anderen afrikanischen Staaten. Ebenso wie in Mauretanien lagen in der Vergangenheit die Aussterberaten für Populationen von Säugetieren in Mali im Vergleich zu anderen afrikanischen Staaten sehr hoch, trotz der niedrigen Bevölkerungsdichte. Insgesamt sind etwa 140 Säugetierarten in Mali heimisch. Zahlreiche Arten von Großsäugern sind ausgestorben, darunter die ehemals häufigen Säbelantilope und die Mendesantilope (die vielleicht noch im Grenzgebiet zu Mauretanien vorkommt), oder wurden auf kleine Restpopulationen reduziert. Die Westafrikanische Giraffe kam ursprünglich in weiten Teilen in Zentralmali vor, wurde jedoch durch intensive Bejagung auf eine Restpopulation im Grenzgebiet zu Niger reduziert und gilt heute ebenfalls als ausgestorben. Etwa 350 Elefanten leben in der Region Gourma im Grenzgebiet zum nördlichen Burkina Faso. Bei letzteren handelt es sich um die nördlichste Population der Afrikanischen Elefanten und sie zeigen ein periodisches Wanderverhalten im Grenzgebiet, wobei das in Mali befindliche Areal den größeren Teil des Verbreitungsgebiets ausmacht. Im Niger, dem Nigerbinnendelta, dem Débo-See sowie im Senegal kommt zudem der Afrikanische Manati vor, eine Art der Seekühe. Die gefährdete und international geschützte Art kommt regelmäßig vor, die Bestände sind jedoch durch Bejagung und die Verschlechterung der Wasserqualität rückläufig und soll in Zukunft besonders geschützt werden. Der Schimpanse kommt nur im äußersten Südwesten des Landes im Grenzgebiet zu Guinea vor, wo seine Anwesenheit erst 1977 zum ersten Mal dokumentiert wurde. Ihre Zahl wurde 1984 auf 500-1000 Individuen geschätzt, 1993 kam man hingegen auf eine Zahl von 1800 bis 3500. Wichtigste Habitate sind die von "Gilletiodendron glandulosum" aus der Familie der Hülsenfrüchtler durchsetzten Wälder, die im Gilletiodendron-Wald etwa 60 für Schimpansen essbare Pflanzenarten bieten. Die Gruppen sind dort größer als in denjenigen Verbänden, die in der Savanne leben. Wichtigstes Schutzgebiet ist daneben die 1990 eingerichtete Réserve faunique du Bafing. Weitere in Mali anzutreffende Primaten sind der Husarenaffe, die Westliche Grünmeerkatze, der Anubispavian, sowie der Guinea-Pavian (nur im äußersten Westen) und der Senegal-Galago. Unter den Raubtieren waren in der Vergangenheit unter anderem Löwen und Geparden in Mali anzutreffen, deren Bestände zunehmend abnamen und die heute ebenswo wie der Afrikanische Wildhund auch in den geschützten Gebieten nicht mehr vorhanden sind. Kleinere Raubtiere wie der Blassfuchs, die Sandkatze und die Wildkatze und einige Schleichkatzen und Marder kommen weiterhin in Mali vor. Weitere nennenswerte Säugetiere sind einige Arten kleinerer Antilopen, die Mähnenziege, das Erdferkel und das Flusspferd, daneben leben zahlreiche Kleinsäuger in dem Land. Nach Angaben von BirdLife International sind für Mali insgesamt 562 Vogelarten nachgewiesen, davon 117 Wasservögel. 229 Arten werden als Zugvögel klassifiziert. Zahlreiche Vogelarten leben vor allem im Binnendelta des Niger, in diesem Gebiet überwintern auch viele Zugvögel aus Europa. Erwähnenswert ist der Mali-Amarant, der in Reiseführern gelegentlich als Endemit für Mali ausgewiesen wird, jedoch auch in den Nachbarländern vorkommt. Zu den gefährdeten Vögeln Malis gehören größere bodenlebende Vögel wie der Afrikanische Strauß, Trappen wie die Arabertrappe und die Nubische Trappe sowie Perlhühner. Unter den Reptilien Malis gibt es über 170 Echsenarten, unter anderem Warane und Dornschwanz-Agamen, und über 150 Schlangenarten. Hierzu zählen Vipern wie die Puffotter, diverse Sandrasselottern und die Wüsten-Hornviper sowie Giftnattern wie mehrere Kobras und die Boomslang, die im Süden präsent ist. Auch der Nördliche Felsenpython ist Bestandteil der Herpetofauna des Landes. Im Niger und anderen Flüssen leben zudem wie in den meisten größeren Flüssen Afrikas Krokodile, vor allem das Nilkrokodil. Neben diesen Arten sind auch 15 Schildkrötenarten für Mali nachgewiesen. Die Flüsse und Seen Malis werden von über 140 Fischarten bewohnt, darunter sind 18 Welsarten, 14 Salmlerarten, 9 Buntbarsche (u.a. die Niltilapie, "Sarotherodon galilaeus" und "Coptodon zillii") und 4 Karpfenfische. Der größte Fisch Malis ist der planktonfressene Afrikanische Knochenzüngler. Für die Ökosysteme der Sahelzone sind Termiten wichtig, die den Boden auflockern und Humus bilden. Besonders auffallend sind die Bauten der Art "Cubitermes fungifaber". Die Webervögel-Arten sind gefürchtete Schädlinge in den Reisfeldern. Noch mehr Sorgen bereiten der Bevölkerung Wanderheuschrecken. Die Wüstenheuschrecke, die ihre Brutgebiete im Maghreb hat, kann in Jahren mit ausreichend Niederschlag in riesigen Schwärmen über die Sahara in den Sahel wandern und natürliche Vegetation wie auch Nutzpflanzen vernichten. Einziger Nationalpark Malis ist der Boucle-du-Baoulé-Nationalpark im Westen des Landes, rund 200 km nördlich von Bamako. Er umfasst eine Fläche von 5430 km² und dient dem Schutz von Flusspferden, Giraffen, Wasserböcken, Pferdeantilope, Riesen-Elen- und Leierantilopen sowie Warzenschweinen, dazu einer entsprechenden Flora. Allerdings sind seine Wälder durch agrarische und pastorale Übernutzung ebenso gefährdet, wie die der südlich anschließenden Réserve de Fina. Bevölkerung. Die Bevölkerung Malis setzt sich aus rund 30 verschiedenen Ethnien zusammen. Sie haben verschiedene Sprachen und Kulturen. Bevölkerungsentwicklung. Die Bevölkerung Malis gehört zu den am schnellsten wachsenden der Welt. Sie vermehrt sich jedes Jahr um 3,0 Prozent, zwischen 1950 und 2014 hat sie sich von 4,6 Millionen auf 17,4 Millionen nahezu vervierfacht. Anders als in den meisten Ländern der Welt verharrt die Fertilität von 1960 bis heute auf dem sehr hohen Niveau von über sechs Kindern pro Frau. Sie ist in den vergangenen Jahren nur leicht gesunken, von 6,8 Kindern pro Frau im Jahr 2001 über 6,6 im Jahr 2006 auf zuletzt 6,1 in 2012/13. Im gleichen Zeitraum ist die Lebenserwartung bei Geburt von 29,7 Jahren (1950) auf 52,1 Jahre (2010) gestiegen. Diese beiden Faktoren zusammengenommen bescheren dem Land ein Bevölkerungswachstum, für das kein Abklingen in Aussicht steht, das jedoch in seiner Höhe nicht mehr lange aufrechterhalten werden kann. Rein rechnerisch hätte Mali bei konstant bleibendem Wachstum im Jahre 2050 61,3 Millionen Einwohner, was angesichts der ökologischen Voraussetzungen undenkbar ist. Somit befindet sich das Land auf dem Weg „in ein Desaster“ von größeren sozialen, demographischen und ökologischen Krisen. Migration. Für die Völker Malis haben Migration und Mobilität eine lange Tradition. Einige ihrer frühen Reiche erlangten ihren Wohlstand und ihre Macht durch Handel treibende Karawanen. Das Nomadentum gehörte bei vielen Völkern des Landes noch bis vor kurzem zum Leben. Die traditionellen Bewegungen der Migranten verlaufen über die erst vor wenigen Jahrzehnten gezogenen Grenzen hinweg. Seitdem das Land unabhängig wurde, verlor es ungefähr 3 Millionen Bürger an das Ausland. Im Jahr 2010 lebten mehr als 1 Million Malier im Ausland. Das waren 7,6 % der Bevölkerung. Unter Personen mit höherer Ausbildung lag dieser Anteil doppelt so hoch. Zu den wichtigsten Zielen malischer Auswanderer gehören seine Nachbarn Elfenbeinküste, Nigeria, Niger, Burkina Faso, Senegal sowie Frankreich und Spanien. Im Jahr 2010 lebten 162.000 Ausländer in Mali. Das waren 1,2 % der Bevölkerung. Die meisten von ihnen kamen aus den benachbarten Staaten und waren zu etwa 6 % Flüchtlinge. Die Gelder, die ausgewanderte Malier nach Hause senden, sind zu einem wichtigen Faktor der malischen Wirtschaft geworden. Im Jahre 2009 beliefen sich diese Überweisungen auf 400 Millionen US-Dollar. Das war dreimal so viel wie sechs Jahre zuvor. Die Höhe dieser Transfers entspricht dem Vierfachen der Direktinvestitionen ausländischer Unternehmen oder nicht ganz der Hälfte der Entwicklungshilfe. Ethnien. Die Grenzen Malis verlaufen nicht entlang nationaler oder ethnischer Siedlungen. Sie wurden durch koloniale Einflüsse und Verwaltungsräume bestimmt. Heute leben in Mali Völker, die sich durch Sprache, Religion und andere anthropologische und ethnologische Merkmale unterscheiden. Diese Menschen siedeln nicht allein in Mali, sondern auch in den Nachbarländern. Die Zuordnung zu den Ethnien und deren Bezeichnung sind teilweise Konstrukte aus der Kolonialzeit. Die dominierende Gruppe in Mali heißt Mande, sie macht rund 40–45 % der Bevölkerung aus. In diese Gruppe fallen die Bambara (35 %), Malinke (5 %) und Jula (2 %). Ihre Siedlungen liegem im südwestlichen Dreieck des Landes. Zu den Sudanvölkern, die 21 % der Bevölkerung erreichen, gehören die Soninke, Sarakolle (8 %), Songhai (7 %), Dogon (5 %) und die Bozo (1 %). Die Volta-Völker sind mit etwa 12 % vertreten. Sie siedeln vornehmlich nahe der Grenze zu Burkina Faso. Zu ihnen gehören die Senufo (9 %) und Bwa sowie Bobo (2 %) und Mossi (1 %). Während alle diese Gruppen sesshaft leben und schwarzafrikanischer Herkunft sind, führen die Fulbe (10 %), die Tuareg (6 %) und die „Mauren“ (3 %) ein nomadisches oder halbnomadisches Leben. Viele Nomaden mussten durch klimatische Veränderungen und kriegerische Auseinandersetzungen der letzten Jahre ihr traditionelles Leben aufgeben. Besonders die Tuareg sind von fortschreitender Marginalisierung bedroht. Sprachen. In Mali werden 35 Sprachen gesprochen, die zu drei verschiedenen Sprachfamilien gehören, und die ihrerseits wieder in lokale Varianten und Dialekte zerfallen. Die Sprachgrenzen verlaufen entlang der ethnischen Grenzen. Bambara ist mit geschätzten 4 Millionen Muttersprachlern die bedeutendste dieser Sprachen, sie gilt als Verkehrssprache nicht nur des Landes, sondern der ganzen Region, und hatte diese Rolle bereits in der Vergangenheit. Geschätzte 5 Millionen Malier sprechen Bambara heute als Zweitsprache. Senufo hat geschätzte 2 Millionen Sprecher allein in Mali, auch in den Nachbarländern ist Senufo weit verbreitet. Weitere wichtige Sprachen sind Songhai (1,5 Millionen Sprecher), Fulfulde (auch 1,5 Millionen) und Maninka (1,2 Millionen Sprecher). Im Norden Malis sind Tuareg-Sprachen und Arabisch verbreitet, die dortige Bevölkerung betrachtet Bambara als Mittel der Machtentfaltung der subsaharischen Völker und weigert sich aus diesem Grund, diese Sprache zu lernen. Tamascheq und Tamahaq haben in Mali gemeinsam rund 800.000 Sprecher. Die französische Sprache wird in Mali zwar lediglich von einer verschwindenden Minderheit als Muttersprache gesprochen, wird aber trotzdem von der Verfassung Malis zur Amtssprache erklärt. Das malische Gesetz erkennt neben Französisch 13 Sprachen als "nationale Sprachen" an und verbietet Diskriminierung aufgrund von Sprache. Während Parlamentsdebatten auf Französisch gehalten werden, wird in Gerichten meist in einer "nationalen Sprache" verhandelt. Die Unterlagen werden in jedem Fall auf Französisch angefertigt. An den Schulen wird ebenfalls meist in der Sprache der Ethnie unterrichtet, Französisch nimmt jedoch schon in der Grundschule breiten Raum ein. Höhere Bildung wird allein auf Französisch angeboten. Als Mittel zur Steigerung der sozialen Mobilität, also als Mittel des gesellschaftlichen Aufstiegs und der regionalen Mobilität, besitzt die Sprache der früheren Kolonialmacht hohe Bedeutung. Es wird geschätzt, dass 2,2 Millionen Malier auf Französisch kommunizieren können. Religionen. Mali ist ein muslimisch geprägtes Land. Zwischen 85 % und 90 % der Bevölkerung bekennen sich zum sunnitischen Islam malikitischer Rechtsschule. Eine in Westafrika verbreitete, und auf der Gleichheit aller Muslime beharrende Richtung des Islams gelangte spätestens im 11. Jahrhundert zu starkem Einfluss in Mali. Träger dieser Variante der Islamisierung waren berberische Händler, die als Charidschiten mit der Sudan-Zone Handel trieben. Für lange Zeit blieb der Islam auf die Elite der städtischen Zentren beschränkt. Herrscherfamilien, Händler und Weise waren zum Islam konvertiert, während die Mehrheit der Bevölkerung traditionellen Glaubenssystemen anhing. Trotzdem blühte in einigen Städten Malis ab dem 13. Jahrhundert die islamische Gelehrsamkeit. Nach 1800 kam es in Westafrika zur Bildung islamischer Staaten: durch Usman dan Fodio, den Gründer des Kalifats von Sokoto oder Seku Amadu Bari, der das theokratische Massina-Reich gründete. Parallel dazu konvertierten viele junge Männer zum Islam, der in ihren Augen eine Alternative zur europäischen Kolonialkultur darstellte; erst hiermit durchdrang der Islam die Landbevölkerung Malis. Der Islam Malis hat im Verlauf der Zeit zahlreiche Elemente der traditionellen Religionen aufgenommen. Besonders der Sufismus bot den Menschen Raum für ihre Vorstellungen von Geistern, Dämonen und verborgenen Kräften. Auch heute noch sind religiöse Spezialisten einflussreich. Sie beziehen ihr Ansehen aus ihrer Kenntnis der arabischen Schrift, einer besonderen göttlichen Segnung, dem Wissen um besonders mächtige Suren aus dem Koran und anderen esoterischen Fähigkeiten. Seit den 1930er Jahren gibt es unter dem Einfluss Gelehrter, die in Saudi-Arabien oder Ägypten studiert haben, eine Bewegung, die sich gegen die esoterischen Praktiken im malischen Islam einsetzt. Die Verfechter der hybriden Religionspraxis verteidigen ihren Zugang zum Islam jedoch als "Gehen auf zwei Pfoten". Die Sufi-Tradition der Qādirīya aus dem 11. Jahrhundert und der Tidschānīya aus dem 18. Jahrhundert, wie auch der geistige Austausch mit anderen Völkern Westafrikas haben den malischen Islam stark geprägt. In den 1940er und 1950er Jahren verbreitete sich in den Kreisen malischer Studenten und Händler, die direkte oder indirekte Kontakte mit dem Vorderen Orient hatten, das Wahhabitentum. Während des Regimes von Moussa Traoré (1968–1991) erlebte das Land eine schleichende Islamisierung. Traoré betonte seit den 1980er Jahren die muslimische Identität Malis. Vor der Islamisierung herrschten die unter dem Begriff Animismus zusammengefassten religiösen Traditionen vor. In ihrer ursprünglichen Form sind sie in abgelegenen Regionen des südwestlichen Teils des Landes erhalten geblieben. Sie dienen vor allem der Aufrechterhaltung der ländlichen Subsistenz-Gesellschaft und umfassen Ahnenkult, Glaube an Geister und Magie sowie die Praxis von Opfergaben und die Mitgliedschaft in Geheimbünden. Jeder Angehörige der Gemeinschaft durchläuft verschiedene Phasen, wobei am Beginn jeder dieser Phasen eine Initiation stattfindet. Auch der jeweils nächsten Phase geht ein Aufnahmeritual voran. Die religiösen Traditionen sind bei jeder der zahlreichen Ethnien des Landes anders. Christen machen nach unterschiedlichen Angaben 1–5 % der Bevölkerung aus. Die meisten von ihnen bekennen sich zur katholischen Kirche und gehören den Völkern Dogon und Bobo an. Der malische Staat respektiert die in der Verfassung verankerte Religionsfreiheit. Der Erzbischof von Bamako Luc Sangaré galt bis zu seinem Tod als einflussreiche und auch von Muslimen respektierte Persönlichkeit. Die malische Gesellschaft war bis zum Ausbruch der Rebellion von Respekt gegenüber Andersgläubigen geprägt, doch hat religiöse Verfolgung in der jüngsten Vergangenheit stark zugenommen. Bildung. Bis zum Ende der französischen Kolonialherrschaft existierte ein modernes Bildungssystem nur an wenigen Orten. Sein Ziel war vor allem die Ausbildung von Verwaltern und Übersetzern für die koloniale Administration. Nach der Unabhängigkeit machte die Regierung von Modibo Keïta die Ausbildung von Fachpersonal für die Entwicklung des jungen Staates zu einer Priorität. Am Ende der 1960er Jahre besuchten immerhin ein Drittel der Jungen und ein Fünftel der Mädchen die Schule. Die Diktatur ab 1968 brachte Rückschritte im Bildungssystem: Budgets wurden gekürzt, die Anzahl der Lehrer sank, die Lehrergewerkschaft war Repressalien ausgesetzt. Am Ende der 1980er Jahre konnte nur eines von fünf Kindern die Schule besuchen. In den 1990er Jahren wurde Bildung wieder Priorität. In Zusammenarbeit mit der Weltbank wurde das Programm PRODEC aufgelegt, vor allem um die Qualität der Grundschulausbildung zu verbessern und allen Kindern den Schulbesuch zu ermöglichen. Das Bildungsbudget wurde aufgestockt und erreichte im Jahr 2004 einen Anteil von 30,06 % an den gesamten Staatsausgaben. Fast drei Viertel aller Kinder hatten dadurch Zugang zu Bildung. Das malische Schulsystem ist an jenes anderer französischsprachiger Länder angelehnt. Weniger als 2 % der Kinder besuchen Kindergärten "(jardin d’enfants)". Mit sechs Jahren werden die Kinder eingeschult, die Grundschule "(Premier cycle)" dauert sechs Jahre, daran schließt sich ein dreijähriger "Second cycle" an. Nach Abschluss dieses "Second cycle" können die Schüler ein dreijähriges "Lycée" besuchen. Akademische Bildungseinrichtungen gibt es in Bamako und Ségou. An der Université de Bamako studierten im Jahr 2011 80.000 Studenten. 2011 wurde die Universität aufgelöst und an ihrer Stelle vier Institutionen entsprechend ihrer jeweiligen fachlichen Ausrichtung gegründet. So entstanden in Bamako die "Université des sciences sociales et de gestion", die "Université des lettres et des sciences humaines", die "Université des sciences, des techniques et des technologies" und die "Université des sciences juridiques et politiques" sowie die "École Normale d'Enseignement Technique et Professionnel". Trotz der Fortschritte der letzten 15 Jahre sieht sich das malische Bildungssystem zahlreichen Problemen gegenüber. Finanznot bedingt schlechte Räumlichkeiten, den Mangel an Unterrichtsmaterial und an Lehrern: im Jahr 2006 musste im Schnitt ein Lehrer 66 Schüler betreuen. Politische Krisen im In- und Ausland verursachen Flüchtlingsströme, die die lokalen Schulen überlasten. Der Anteil der Schüler, die die Schule vor dem Abschluss abbrechen, ist sehr hoch, und der Zugang vom Bildungssystem ist aus kulturellen und finanziellen Gründen ungleich verteilt: Mädchen haben eine viel niedrigere Chance auf Bildung als Jungen, die Landbevölkerung deutlich geringere Möglichkeiten als die Stadtbevölkerung. Heute sind 74 Prozent aller mindestens 15 Jahre alten Personen Analphabeten (auch durch den früher geringeren Anteil des Schulbesuchs). Außerhalb des formellen Bildungssystems arbeiten Koranschulen, wo die Kinder ausschließlich in arabischer Sprache und Koranversen unterwiesen werden, und wo sie sich ihren Lebensunterhalt selbst durch Betteln erwerben müssen. In Médersas werden die Kinder in religiösen Fächern, aber auch in Französisch, Lesen, Schreiben und Rechnen unterrichtet. Gesundheit. Das Gesundheitssystem Malis ist wenig entwickelt, speziell außerhalb der Hauptstadt Bamako. Es stehen pro 100 000 Einwohner 5 Ärzte und 24 Krankenhausbetten zur Verfügung (Stand: 1999). Bedingt durch Mangelernährung, verkeimtes Trinkwasser und schlechte Hygiene treten Infektionskrankheiten wie Malaria, Cholera und Tuberkulose regelmäßig auf. 43 % der Bevölkerung können bei Krankheit oder Verletzung einen Arzt aufsuchen. Im Jahr 2006 wurde in der Bevölkerung zwischen 15 und 49 Jahren eine HIV-Prävalenz von 1,3 % ermittelt, was rund 66 000 Personen entspricht. Diese Zahl bedeutet einen Rückgang gegenüber den späten 1990er Jahren, als die HIV-Prävalenz auf bis zu 3 % geschätzt wurde. Fast zwei Drittel der Bevölkerung kennen die Übertragungswege von HIV. Trotzdem werden (vermeintlich) HIV-positive Menschen gesellschaftlich ausgegrenzt. Bluthochdruck, der in Afrika überdurchschnittlich häufig auftritt, betrifft in Mauretanien 35 %, was den höchste Wert in Afrika darstellt, in Mali 33,2 % der Männer (global: 24 %); bei den Frauen liegt Mali mit 29,5 % sehr hoch (global: 20 %). Mali gehört zu jenen Staaten, wo die Beschneidung junger Mädchen am weitesten verbreitet ist. Im Jahr 2006 gaben 85 % der Frauen an, beschnitten zu sein. Ebenso viele Frauen gaben an, ihre Töchter beschneiden lassen zu wollen. Die Praxis ist unabhängig von Einkommen, Ausbildungsniveau oder Religion: Zwei Drittel der Frauen christlicher Religion sind beschnitten. Frauen der Tuareg oder Songhai sind zu weniger als einem Drittel beschnitten, während der Anteil beschnittener Frauen bei den Bambara oder Malinké bei 98 % liegt. Da der Eingriff vor dem 5. Lebensjahr und meist nicht von medizinischem Fachpersonal, sondern von einer traditionellen Beschneiderin durchgeführt wird, sind Komplikationen häufig. Trotzdem ist die Beschneidung so fest in der Tradition der Völker Malis verwurzelt, dass sämtliche Initiativen zur Abschaffung der Beschneidung nur zu einem geringen Rückgang dieser Praxis geführt haben. Politik. Ibrahim Boubacar Keïta, Präsident Malis seit 4. September 2013 Mali war bis zum Militärputsch im März 2012 politisch stabil. Zwei Jahrzehnte lang galt das Land aufgrund regelmäßiger Wahlen als gelungenes Beispiel einer Demokratisierung. Gleichzeitig blieb es eines der ärmsten und am wenigsten entwickelten Länder der Welt. Der Putsch von 2012 hat seine Krisenanfälligkeit und seine institutionellen Schwächen offenbart. Inadäquate Institutionen, mangelnde Aufsicht und Durchsetzung von Rechten, vor allem aber grassierende Korruption in Regierung, Wirtschaft und bei den Sicherheitskräften, ebenso wie im Bildungs- und im Gesundheitssektor. Hinzu kam die Veruntreuung von Geldern aus der Entwicklungshilfe. Der Vertrauensschwund in die Demokratie zeigte sich in Wahlbeteiligungen von unter 40, meist um die 20 %. Leistungen des öffentlichen Dienstes und der Vorsorge werden vorwiegend gegen „Geschenke“ (magouille) erbracht, Ämterkauf ist verbreitet, dazu kommt das Abzweigen von Geldern aus staatlichen Einnahmen, Nepotismus und Favoritismus, Missbrauch von Ausschreibungen und Vorkaufsrechten sowie Bestechung. Die instabile Lage wirkt sich auf die Nachbarländer aus: Die Rückwanderung von Ausländern, die in Mali beschäftigt waren, drückt auf die Arbeitsmärkte der Nachbarstaaten. In den betroffenen Staaten wurden die Ausgaben für Sicherheit und Rüstung erhöht. Politisches System. Das politische Leben Malis basiert auf der Verfassung. Sie wurde 1992 durch eine Volksabstimmung angenommen. Das republikanische Regierungssystem ist an dasjenige Frankreichs angelehnt und als semipräsidentiell zu bezeichnen. Es sieht eine Gewaltenteilung in Exekutive, Legislative und Judikative vor. Die exekutive Macht liegt in den Händen des Staatspräsidenten, der alle fünf Jahre durch direkte Wahl in zwei Wahlgängen bestimmt wird. Er ist Staatsoberhaupt und Oberbefehlshaber der Streitkräfte. Die Amtsdauer ist auf zwei Legislaturperioden beschränkt. Der Präsident ernennt einen Premierminister, der die Minister vorschlägt. Der Präsident ist Vorsitzender des Ministerrates. Der Ministerrat setzt die Regierungspolitik um und legt der Nationalversammlung Gesetzesvorschläge zur Abstimmung vor. Die Anzahl der Ministerien ist typischerweise hoch (24 im Jahre 2004, 34 im Jahre 2013), die Effizienz der Ministerien darf als niedrig bezeichnet werden. Im Einkammersystem wird die Legislative durch die Nationalversammlung repräsentiert. Die 147 Mitglieder der Nationalversammlung werden alle fünf Jahre vom Volk gewählt. Der Präsident des Parlaments wird für die gesamte Legislaturperiode gewählt. Alle anderen Ämter im Parlament (die acht Vizepräsidenten, die acht Parlamentssekretäre und die zwei Quästoren) werden jährlich neu vergeben. Die Regierung muss sich dem Parlament gegenüber verantworten. Der Präsident hat die Vollmacht, das Parlament aufzulösen. Die Verfassung sieht eine unabhängige Judikative vor. In der Praxis hat die Regierung erheblichen Einfluss auf das Justizsystem, weil sie Richter ernennen und beaufsichtigen darf. Die höchsten Instanzen sind das Verfassungsgericht und der oberste Gerichtshof. Nordmali-Konflikt. Konflikte zwischen der sesshaften Bevölkerung und den Nomaden der Sahara, die vor allem aus Tuareg und arabischen Stämmen bestehen, reichen weit in die Geschichte Westafrikas zurück. Die hellhäutigen Nomaden fielen regelmäßig in die Dörfer der dunkelhäutigen sesshaften Bauern ein, um Nahrungsmittel, Vieh und Sklaven zu erbeuten. Die französischen Kolonialherren brachten die Nomaden nicht unter ihre Kontrolle. Die Abschaffung der Sklaverei im Jahre 1904 betraf die Tuareg nicht. Ein latenter Rassengegensatz wurde von den Franzosen angestachelt. Als sich die Unabhängigkeit Französisch-Westafrikas anbahnte, gehörten die Tuareg zu den Gegnern der Loslösung von Frankreich. Aus ihrem Blickwinkel war die französische Herrschaft gegenüber der Herrschaft dunkelhäutiger Afrikaner – ihrer früheren Sklaven – das kleinere Übel. Die Politik der ersten Regierung Malis versuchte, die Tuareg sesshaft zu machen, zu Landwirtschaft zu bewegen, ihnen Bambara beizubringen und sie zu einem Teil des Nationalstaates zu machen. Diese Versuche schlugen fehl. Nachdem der erste Tuareg-Aufstand von 1957 sich noch gegen die französische Kolonialregierung gerichtet hatte, kam es 1962 zu einem Aufstand, der Zölle auf Viehexporte und damit die Bedrohung der Lebensgrundlage der Nomaden zur Ursache hatte. Dieser Aufstand wurde von der malischen Armee mit großer Brutalität gegen Zivilisten bekämpft. Er wurde beendet, als Algerien zu erkennen gab, keine Aufständischen auf seinem Territorium dulden zu wollen. In den 1970er und 1980er Jahren wurde die Wirtschaft der Nomaden durch anhaltende Trockenheit schwer geschädigt, sie verloren bis zu 80 % ihrer Tiere. Viele Tuareg mussten ihr nomadisches Dasein aufgeben und zogen in die Städte, wo sie als Händler tätig waren, oder verdingten sich bei ausländischen Armeen als Söldner. Die Regierung von Diktator Traoré ignorierte indes die Not und die vielen Toten in den Lagern der Nomaden. „Die Flamme des Friedens“ – Denkmal zur Erinnerung an den Friedensschluss zwischen dem Staat Mali und den Tuareg, 1996 Vor diesem Hintergrund kam es 1990 zum neuerlichen Aufstand der Tuareg, der zunächst nationalistische, später ethnische Ursachen hatte. Das malische Militär war zu schwach, diesen Aufstand zu beenden, was nicht zuletzt zum Sturz des Diktators Moussa Traoré führte. Die neue Regierung verhandelte unter algerischer Vermittlung den Nationalen Pakt, der 1992 unterzeichnet, jedoch von beiden Seiten nicht umgesetzt wurde. Die Gewalt und die Flüchtlingsströme endeten nicht. Die Erkenntnis, dass der Konflikt nicht militärisch zu lösen war, gab Anschub für ein ziviles Programm zur Beilegung des Konflikts. 1995 flaute die Gewalt ab. Flüchtlinge kehrten in ihre Heimat zurück, die Kämpfer wurden in das zivile Leben eingebunden. Am 27. März 1996 wurde unter Anwesenheit zahlreicher Ehrengäste in Timbuktu die Flamme des Friedens entzündet und 3000 Waffen verbrannt. Seit 2006 haben die Angriffe von Aufständischen im Norden eine neue Qualität. Die nationalistischen oder ethnischen Motive haben Rivalitäten zwischen Schmugglerbanden Platz gemacht. Die Regierung nutzte mit Erfolg die Uneinigkeit der Nomaden, um im Jahr 2009 die Tuareg mit Hilfe von arabischen Milizen zu besiegen. Der Krieg der Jahre 2012 und 2013 begann als vierte Tuareg-Rebellion. Sie wurde von der 2011 gegründeten MNLA, einem Sammelbecken von mehreren Tuareg-Gruppen, angeführt. Aus Libyen zurückgekehrte Tuareg, die neben militärischer Ausbildung schwere Waffen mitbrachten, förderten diese Rebellion. Die ersten Kämpfe brachen am 17. Januar 2012 östlich von Gao aus und erreichten mit der brutalen Ermordung von 80 Soldaten der malischen Armee bei Aguelhok einen vorläufigen tragischen Höhepunkt. Innerhalb kurzer Zeit brach in Nordmali die politische und militärische Staatsmacht zusammen. Dies nicht zuletzt, weil im Rahmen der Friedensbemühungen viele einflussreiche Posten an Tuareg vergeben worden waren. Diese liefen zur MNLA über und nahmen die von den USA an die malische Armee gelieferte Ausrüstung mit. Bereits zu Beginn der MNLA-Rebellion waren Elemente der islamistischen Organisationen MUJAO, al-Qaida im Maghreb und Ansar Dine unter den Kämpfern. Im Juni begannen die Islamisten, die MNLA zu bekämpfen und die Scharia in dem von ihnen gehaltenen Gebiet namens Azawad einzuführen. Die Ausdehnung des eroberten Territoriums über den Norden hinaus und die Drohung, Mali zu erobern, führte zur Intervention des Westens in Form der Opération Serval. Während die Islamisten mit beachtlicher Effizienz aus den Städten vertrieben wurden, sind die Ursachen des Konflikts nach wie vor latent. Schlechte Regierungsführung, Schmuggel, Korruption und die tiefe Kluft zwischen den hellhäutigen Nomaden und den dunkelhäutigen Bewohnern des Südens werden für die nächsten Jahrzehnte Mali, seine Nachbarstaaten und die internationale Gemeinschaft vor große Herausforderungen stellen. Parteienlandschaft. Die zahlreichen politischen Parteien sind von zentraler Bedeutung für das politische Geschehen in Mali. Es existieren momentan über 160 Parteien, von denen jedoch nur 12 im Parlament vertreten sind. Die wichtigste Partei ist der von Präsident Keïta geführte Rassemblement pour le Mali (RPM), die das Parteienbündnis "Le Mali d’abord" anführt und damit das Parlament dominiert. Weitere bedeutende Parteien sind die mit der RPM verbündete ADEMA und die Oppositionspartei Union pour la république et la démocratie (URD). Parteien sind in Mali kein Zusammenschluss von Menschen mit gleicher politischer oder ideologischer Gesinnung, sondern Vehikel von Patriarchen, die eine Gruppe von Klienten um sich scharen. Verschwindet die Führungsfigur, geht meist auch die Partei unter; die Hürden, zu einer anderen Partei zu wechseln, sind niedrig. Obwohl einschlägige Vorschriften existieren, ist das Gebaren der Parteien absolut intransparent. Es werden keine Mitgliederlisten geführt, es existiert keine Buchhaltung, Spenden werden bar angenommen, Spenderverzeichnisse werden nicht aufgestellt und Einfluss auf politische Entscheidungen wird zwecks Finanzierung von Wahlkämpfen verkauft. Klare Programme lassen alle malischen Parteien vermissen. Bei Wahlen ist Stimmenkauf durch die Parteien ein häufig praktizierter Vorgang; angesichts der weit verbreiteten Armut sind Wähler bereit, für die Zahlung von wenigen Euro einer Partei ihre Stimme zu geben. Die Wahlbeteiligung ist chronisch niedrig; in fast keinem Land Afrikas beteiligt sich ein so niedriger Anteil der Bevölkerung an Wahlen wie in Mali. Korruption und Kriminalität. Die weit verbreitete Korruption hat maßgeblich zum Kollaps der staatlichen Ordnung Malis im Jahr 2012 beigetragen. Zahlreiche Quellen geben übereinstimmend an, dass die Korruption bereits in den Jahren der Militärdiktatur ein Problem war, jedoch während der Demokratie schlimmer geworden sei. Ihre Bekämpfung wird zu den wichtigen innenpolitischen Themen der kommenden Jahre gehören. Korruption kommt in Mali in vielen verschiedenen Formen vor. Von den Bürgern werden regelmäßig Schmiergeldzahlungen für staatliche Leistungen verlangt, die eigentlich kostenlos oder zu festgelegten Preisen erbracht werden sollen. Lukrative Posten in Regierung oder Verwaltung werden routinemäßig verkauft oder an Parteigänger von einflussreichen Politikern vergeben, selbst wenn Kriterien für die Besetzung der betreffenden Posten gröblich verletzt werden. Die Veruntreuung von staatlichen Geldern oder Geldern aus der Entwicklungshilfe grassiert zu einem so schamlosen Ausmaß, dass diverse ausländische Geldgeber ihre Programme vorübergehend auf Eis legten oder beendeten. Bei staatlichen Projekten verlangen korrupte Beamte vom Auftragnehmer regelmäßig Kick-backs. Regierungsbehörden stellen gegen entsprechende Zahlung gefälschte Papiere aus, darunter auch Diplomatenpässe. Korrupte Beamte in Kommunalverwaltungen betrügen Bürger beim Kauf von Land, Doktoren, die bei staatlichen Krankenhäusern angestellt sind und dort ihr Gehalt beziehen, arbeiten in Wirklichkeit in privaten Spitälern. Staatliche Institutionen und ganze Ministerien entziehen sich jahrelang der Auditierung. Seit 2003 existiert in Mali das Amt eines "Vérificateur général", der direkt dem Staatspräsidenten untersteht und über die ordnungsgemäße Verwendung von staatlichen Mitteln wachen soll. Der Vérificateur général trug in seinem Bericht Hinweise auf Veruntreuung von 479 Millionen US-Dollar zusammen und empfahl strafrechtliches Vorgehen gegen mehrere hochrangige Politiker. Weiterführende Ermittlungen durch die Staatsanwaltschaft, geschweige denn Verhaftungen, wurden jedoch von Präsident Amadou Toumani Touré persönlich verhindert. Die Politik Malis ist mit der organisierten Kriminalität, vor allem dem Schmuggel und der Lösegelderpressung, auf mehrfache Weise verbunden. Der Transsaharahandel mit Nordafrika hat eine jahrhundertelange Tradition, seit den 1960er Jahren wurden in Algerien und Libyen subventionierte Güter aus dem Land sowie Zigaretten und Vieh in das Land geschmuggelt. Seit den frühen 2000er Jahren werden vermehrt Drogen durch Mali transportiert, die auf dem Weg von Südamerika und Marokko nach Europa und in den Nahen Osten sind. Auch Waffen, speziell seit dem Zusammenbruch Libyens, und Menschen, vor allem Frauen, gehören zu den einträglichsten Schmuggelgütern. Die Regierung Malis hat Milizen arabischen Hintergrundes erlaubt, am Schmuggelgeschäft und den damit verbundenen beträchtlichen Gewinnen teilzuhaben, um damit den Kampf gegen Tuareg-Rebellen, die ihrerseits ebenfalls am Schmuggel beteiligt sind, zu finanzieren. Es gibt zahlreiche Indizien dafür, dass auch hochrangige Politiker in Bamako am Schmuggel durch die Sahara verdienen, wenngleich direkte Beweise fehlen. Das Geschäft der Lösegelderpressung wird vor allem von AQIM und seinen Splitterorganisationen betrieben. Zwischen 2003 und 2014 wurden mehrfach westliche Ausländer in Mali oder den Grenzregionen der Anrainerstaaten entführt, die Lösegeldzahlungen für die betreffenden Bürger spülten je nach Quelle zwischen 40 und 70 Millionen US-Dollar in die Kassen der Terroristen. Politiker der Sahel-Staaten, die sich als Vermittler zwischen Entführern und ausländischen Regierungen anbieten, bekommen in der Regel einen Anteil des Lösegeldes. Da sich die Geschäfte der Schmuggler und Erpresser ergänzen, sind sie Allianzen und Symbiosen mit häufig wechselnder Intensität eingegangen, die die Grenzen zwischen Unabhängigkeitskämpfern, Terroristen und Kriminellen verschwimmen lässt. Um die Kontrolle über Nordmali zurückzuerlangen, werden Mali und die internationale Gemeinschaft bis zu einem gewissen Grad mit Kriminellen zusammenarbeiten und ihnen gleichzeitig den Nährboden entziehen müssen. Menschenrechte. Während des Krieges in Nordmali wurden von Seiten der Rebellen, Islamisten, diverser Milizen und der staatlichen Sicherheitskräfte grobe Verletzungen der Menschenrechte begangen; auch seit Vertreibung der Rebellen aus den Städten Nordmalis werden Menschenrechte immer wieder verletzt. Den Rebellen und Islamisten wird konkret vorgeworfen, Gefangene hingerichtet zu haben, sexuelle Gewalt gegen Frauen und Mädchen zu verüben und in den beherrschten Gebieten mittelalterlich anmutende Körperstrafen wie Auspeitschungen, Steinigungen oder das Abhacken von Gliedmaßen zu vollziehen. Nach wie vor werden Ausländer zum Zweck der Lösegelderpressung entführt und zuweilen ermordet. Die Rebellen wie auch der Regierung nahestehende Milizen werden beschuldigt, Kindersoldaten rekrutiert und eingesetzt zu haben. Der Armee und anderen staatlichen Sicherheitsorganen wird vorgeworfen, im Zuge der Kampfhandlungen Flüchtlingslager und Zivilisten beschossen, willkürlich Menschen verhaftet und misshandelt zu haben, denen Verbindungen zu den Rebellen nachgesagt wurden. Insbesondere im Zusammenhang mit dem Militärputsch von 2012 kam es zu willkürlichen Verhaftungen und auch zu Hinrichtungen ohne Gerichtsverfahren. Außenpolitik. Nach seiner Unabhängigkeit schloss sich Mali zunächst dem sozialistischen Lager an, fand sich mit dieser Politik jedoch zunehmend isoliert und orientierte sich somit mehr und mehr am westlichen Lager. Speziell seit seiner Demokratisierung im Jahr 2002 pflegte das Land gute Beziehungen zu den westeuropäischen Staaten und den USA, nicht zuletzt gehörte es in dieser Zeit zu den größten Empfängern von Hilfsleistungen in Afrika. Zur gleichen Zeit gehörte das Land zu den geachtetsten Staaten in Westafrika und vermittelte in den Bürgerkriege von Liberia, Sierra Leone oder der Elfenbeinküste. Spannungen zwischen mit seinen Nachbarn traten vor allem dann auf, wenn deren innere Konflikte auf Mali überzugreifen drohten. Mali gehört zwar der Francophonie an, spielt jedoch im Françafrique genannten diplomatischen Netzwerk Frankreichs fast keine Rolle. Nur wenige Franzosen leben in Mali, der Großteil von ihnen ist wiederum malischer Herkunft und hat nicht den wirtschaftlichen Einfluss wie die französischen Staatsbürger in der Elfenbeinküste oder in Gabun. Die Bodenschätze des Landes werden nicht von französischen Firmen ausgebeutet. Die für die Industrie Frankreichs interessantesten Rohstoffe, vor allem Uranerz und Erdöl, sind noch nicht genügend exploriert. Die Sicherung des Zugangs zu den Bodenschätzen als alleinige Erklärung für das militärische Eingreifen Frankreichs im Nordmalikonflikt greift somit zu kurz; vielmehr ging es darum, keinen dauernden Krisenherd in der Sahelzone entstehen zu lassen. Streitkräfte. In den frühen 1990er Jahren, am Ende der Militärdiktatur, hatte Mali eine der stärksten Armeen Westafrikas. Doch die beiden demokratisch legitimierten Präsidenten gaben der wirtschaftlichen Entwicklung den Vorrang und verzichteten auf den Ankauf moderner Rüstungsgüter. Dadurch veraltete das vorhandene Material. Vor dem Putsch von 2012 betrug das jährliche Budget für Verteidigung die vergleichsweise geringe Summe von umgerechnet 174 Millionen US-Dollar. Gleichzeitig breiteten sich Korruption und Misswirtschaft auch im Militär aus: Favoritismus und Postenkauf führten zu einer hohen Anzahl von Offizieren, deren hohe Gehälter große Teile des Budgets für Landesverteidigung verschlangen. Die Ausrüstung wurde nicht unterhalten, Gelder für den Neukauf und für Soldzahlungen wurden teils veruntreut. In Nordmali begannen Teile der Armeeführung, mit Schmugglern und sogar mit AQIM zu kolludieren. Die Unterstützung, die die malische Armee im Rahmen der Pan-Sahel-Initiative und danach der Trans-Saharan Counterterrorism Initiative erhielt, blieb weitgehend wirkungslos. Diese beiden Programme wurden von den USA aufgelegt, um die Sicherheitslage in der Sahara zu verbessern und um zu vermeiden, dass ein Rückzugsgebiet für Terroristen und Kriminelle entsteht. Das Geld und die Informationen wurden von den Empfängerstaaten, nicht nur von Mali, zur Bekämpfung von innenpolitischen Gegnern benutzt. Die Ignoranz der Armeeführung gegenüber den Soldaten im Feld, den Verwundeten und den Hinterbliebenen der Gefallenen führten zu sehr schlechter Motivation der Truppen. Somit hatten die Rebellen, als sie im März und April 2012 den Norden Malis einnahmen, leichtes Spiel mit den malischen Soldaten, viele der von den USA teuer ausgebildeten Offiziere liefen in den ersten Tagen der Kämpfe zu den Aufständischen über. Um die Armee wieder aufzubauen, wurde die African-led International Support Mission to Mali in die 11.200 Mann starke Friedensmission United Nations Multidimensional Integrated Stabilization Mission in Mali überführt, deren Aufgabe es ist, die aus der Hand der Extremisten befreiten Gebiete zu befrieden; eine 1000 Mann starke "Paralleltruppe" soll derweil die terroristischen Gruppen bekämpfen. Die Ausbildungsmission der Europäischen Union bildet parallel dazu 3000 malische Soldaten aus. Die MINUSMA ist nach wie vor personell und materiell nicht hinreichend ausgestattet. Ob Mali im Zuge dieser Missionen eine korruptionsfreie, sich dem Gesetz unterordnende Landesverteidigung erhält, wird nicht zuletzt davon abhängen, ob die lokalen Entscheidungsträger gewillt sind, ihre Privilegien und damit verbundenen Zusatzeinkünfte abzugeben. Verwaltungsgliederung. Der Staat gliedert sich in acht Regionen und den Hauptstadtdistrikt. Diese teilen sich in 49 Kreise und 703 Gemeinden. Die Regionen sind nach ihren Hauptstädten benannt. Um auch Flüchtlinge und vor allem Nomaden in das Verwaltungssystem eingliedern zu können, entstanden sogenannte "Fractions" ("Fractions Nomades", ein Begriff, den schon die Kolonialregierung nutzte), die es dementsprechend vor allem im Norden in der Nähe von Dörfern gibt. Seit den großen Trockenphasen entstanden durch Wanderungsbewegungen solche Verwaltungseinheiten allerdings auch verstärkt im Süden. Vorkoloniale Periode. Mutmaßliche Ausdehnung des Malireiches im 13. Jahrhundert Felsmalereien belegen die Besiedlung Malis seit dem Paläolithikum. Man weiß, dass der Handel über die Sahara mit Nordafrika bereits vor mehr als 2000 Jahren hohe Bedeutung hatte und den Handelsorten am Südrand der Sahara zu Wohlstand verhalf. Um 300 v. Chr. blühte die Jenne-Jeno-Kultur, sie ist durch archäologische Funde dokumentiert. Zwischen dem 4. und 11. Jahrhundert dominierte das Ghana-Reich der Soninke die Region zwischen Senegal und Niger. Sein Zentrum lag in der Nähe des heutigen Néma. Zwei Jahrhunderte später erreichte das islamische Mali-Reich der Malinke die Hegemonie über die Region, sein Zentrum lag am Oberlauf des Niger. Das Mali-Reich wurde durch die Aufzeichnungen des Ibn Batuta, aber auch durch die Pilgerfahrt seines sagenhaft reichen Herrschers Mansa Musa berühmt. Seinem Niedergang im 15. Jahrhundert folgte das Songhaireich mit Zentrum in Gao, das Städten wie Djenné und Timbuktu (vgl. Lehmmoscheen von Timbuktu) zur Blüte verhalf, unter anderem mit universitätsähnlichen Bildungseinrichtungen. Das Songhai-Reich wurde zunächst durch eine marokkanische Invasion am Ende des 16. Jahrhunderts mit der Eroberung von Timbuktu und Gao geschwächt und es entstanden zahlreiche kleine Staaten. Ab dem 17. Jahrhundert bauten Bambara Herrschaftszentren entlang des Niger um Ségou auf (Reich von Bambara). Im Gebiet des Massina entstand das Massina-Reich der Fulbe. Ende des 18. Jahrhunderts übernahmen Herrscher des Volkes der Tukulor (andere Bezeichnung: "Toucouleur") die Macht im nahezu gesamten heutigen Staatsgebiet Malis. Koloniale Periode. Die sieben Kolonien, die um 1936 Französisch-Westafrika bildeten In den 1880er Jahren begann die französische Kolonialarmee, beginnend vom Westen das heutige Mali unter ihre Kontrolle zu bringen. Vor dem Hintergrund der britischen Konkurrenz um Westafrika versuchten sie, mit militärischen und diplomatischen Mitteln ihren Einfluss auf die gesamte Sahelzone auszudehnen. Sie trafen dabei auf Kollaborateure wie auch auf militärisch organisierte Rivalen, vor allem in Ségou und in der Person von Samory Touré, der selbst ein Reich aufbauen wollte. Bis 1899 eroberte Frankreich das gesamte heutige Mali, wenngleich es die Nomaden in der Sahara nie unter Kontrolle bringen konnte. Im Jahre 1893 wurde Louis Albert Grodet erster Gouverneur der Kolonie Französisch-Sudan. Bamako wurde Hauptstadt der Kolonie und 1904 wurde die Bahnlinie nach Dakar fertig gestellt. Die Region blieb für die Franzosen aber von untergeordneter Bedeutung, es lieferte vor allem Soldaten, die in den beiden Weltkriegen auf französischer Seite kämpften. Bereits seit den 1930er Jahren gab es Intellektuelle, die für die Unabhängigkeit der Kolonie eintraten. Es entstanden die Parteien PSP und US-RDA, wobei letztere stärker antikolonialistisch auftrat. Nachdem 1956 allen Bürgern der Kolonien das Wahlrecht zugestanden wurde und nachdem die französische Verfassung von 1958 den Kolonien volle innere Autonomie erlaubte, vereinigten sich die Kolonien Senegal und Französisch-Sudan am 4. April 1956 und erklärten sich als Mali-Föderation am 20. Juni 1960 unabhängig. Aufgrund von Differenzen zwischen den führenden Politikern der beiden Landesteile Modibo Keïta und Léopold Sédar Senghor zerbrach die Föderation bereits am 20. August desselben Jahres. Am 22. September 1960 erklärte die frühere Kolonie Französisch-Sudan formell ihre Selbständigkeit unter dem Namen Republik Mali. Unabhängigkeit. Nach der Unabhängigkeit wurde Mali ein Einparteienstaat unter Präsident Keïta, dessen Macht sich auf die US-RDA stützte. Er vertrat eine sozialistisch orientierte Politik, die auf Zentralisierung und Mobilisierung der Massen durch die Parteistrukturen abzielte. Ohne mit Frankreich zu brechen wurde eine engere Zusammenarbeit mit den Ostblockstaaten gesucht. Das Regime Keïtas wurde aufgrund schlechter wirtschaftlicher Lage und wachsender Unzufriedenheit der Bevölkerung immer repressiver. Am 19. November 1968 putschte sich eine Gruppe junger Militärs um Moussa Traoré an die Macht. Zu ihrer Machtbasis wurde die Einheitspartei UDPM. Sie setzte die sozialistische Politik Keïta im Großen und Ganzen fort, begann jedoch ab der Mitte der 1970er Jahre verstärkt, den Anschluss an die westlichen Industriestaaten zu suchen. In die Ära Traorés fielen zwei verheerende Dürren, die Unruhen von 1980 und zu allem Überfluss verstrickte sich der ohnehin schon schwache malische Staat zweimal in bewaffnete Grenzkonflikte mit dem Nachbarstaat Burkina Faso. Im Norden revoltierten die Tuareg. Touré wurde wiederum durch einen Staatsstreich am 26. März 1991 gestürzt. Im Jahr 1992 fanden die ersten freien Wahlen in der Geschichte des Landes statt, die der Geschichtsprofessor Alpha Oumar Konaré (ADEMA-PASJ) gewann. Nach zwei Amtsperioden folgte Konaré der Putschist von 1991, Amadou Toumani Touré im Amt nach. In dieser Phase wurden mit ausländischer Unterstützung bedeutende Reformen in Verwaltung und Justiz durchgeführt. Wenngleich Mali in der Folge als gelungenes Beispiel für die Demokratisierung in Afrika gelobt wurde, blieb die Staatsverwaltung ineffizient, korrupt und die Armut hoch. Beide Präsidenten versäumten es zudem, eine Lösung für die Tuareg-Frage zu finden. Putsch 2012 und danach. Der Nordmali-Konflikt wurde akut, nachdem zahlreiche schwer bewaffnete Söldner und Islamisten aus dem Krieg in Libyen nach Mali kamen und sich mit den Tuareg-Rebellen verbündeten. Im Januar 2012 griffen Tuareg-Verbände das malische Militär im Nordosten des Landes an, drei Monate später hatten sie den gesamten Norden unter ihre Kontrolle gebracht und erklärten das von ihnen beherrschte Gebiet für unabhängig. Die Armee Malis hatte den Rebellen nichts entgegenzusetzen, immerhin besaß es die Kraft, den Präsidenten aus dem Amt zu putschen. Im März 2012 wurde die Regierung von einer Gruppe niederrangiger Offiziere um Hauptmann Amadou Sanogo für gestürzt und Präsident Amadou Toumani Touré für abgesetzt erklärt. Die Putschisten begründeten Ihr Vorgehen mit der Unfähigkeit der Regierung, den seit Mitte Januar 2012 andauernden Aufstand der Tuareg-Rebellen der Nationalen Bewegung für die Befreiung des Azawad (MNLA) in der Region Azawad im Norden des Landes unter Kontrolle zu bekommen. Der UN-Sicherheitsrat, die Afrikanische Union und die EU-Außenbeauftragte Catherine Ashton verurteilten den Staatsstreich und belegten die Militärjunta mit Sanktionen; Entwicklungshilfe wurde vorübergehend eingestellt. Demgegenüber nahm die Bevölkerung den Putsch gelassen hin, es kam sogar zu Solidaritätskundgebungen mit den Putschisten. Unterdessen nahmen die Tuareg-Rebellen der MNLA im Norden des Landes alle Städte der Region Azawad ein und erklärten am 6. April 2012 die einseitige Unabhängigkeit des Azawad. Zwischen Januar und Juli 2012 flüchteten über 250.000 Malier infolge der politischen Instabilität, der unsicheren Lage und des mangelhaften Zugangs zu Nahrungsmitteln und Wasser in die Nachbarländer Burkina Faso, Mauretanien und Niger. Außerdem gab es im selben Zeitraum rund 105.000 Binnenflüchtlinge im Norden und rund 69.000 Binnenflüchtlinge im Süden Malis. Erst im Dezember 2012 stimmten die Vereinten Nationen einer Resolution zu, die den Weg zu einer militärischen Intervention des Westens in Mali frei machte. Als sich die Rebellen im Januar 2013 aufmachten, auch den Süden des Landes zu erobern, bat Übergangspräsident Dioncounda Traoré die frühere Kolonialmacht Frankreich um Hilfe. Mit der Operation Serval konnten die Islamisten schnell besiegt und das Kommando an afrikanische Truppen zurück übertragen werden. Die mehrmals verschobene Präsidentschaftswahl in Mali 2013 gewann der frühere Premierminister Ibrahim Boubacar Keïta; er gilt als Kandidat der Oligarchie, die schon vor dem Putsch die Macht innehatte. Gleichzeitig bleibt die Lage speziell im Norden instabil, es kommt immer wieder zu Anschlägen von islamistischer Seite, während die Minderheiten der Mauren und Tuareg Vergeltung von Seiten der schwarzafrikanischen Bevölkerungsmehrheit ausgesetzt sind. Wirtschaft. Mali ist ein Entwicklungsland, dessen Wirtschaft hauptsächlich auf Landwirtschaft, Bergbau sowie dem Export von Rohstoffen beruht und stark von Entwicklungshilfe abhängig ist. Nach der Unabhängigkeit des Landes schuf die Regierung einige staatliche Unternehmen in Wirtschaftszweigen, die sie für strategisch wichtig hielt. Die Ineffizienz, Unbeweglichkeit und Korruptionsanfälligkeit dieser Staatsunternehmen, aber auch die schlechte Infrastruktur und das äußerst niedrige Ausbildungsniveau der Menschen behinderten und behindern das Wachstum der Wirtschaft. In den 1980er Jahren hatte die Politik der Regierung das Land in eine Wirtschaftskrise manövriert, die zur Schrumpfung der Wirtschaft und auch der landwirtschaftlichen Produktion führte. Die Geber von Entwicklungshilfe zwangen die Regierung zu Reformen, die zum Rückzug des Staates aus zahlreichen Sektoren und zu Dezentralisierung führte. Wenngleich diese Reformen von zahlreichen Beobachtern kritisiert wurden, so entwickelte sich die Wirtschaft dynamisch, wie die OSZE 2008 feststellte. Trotz des hohen Bevölkerungswachstums ist auch das BIP pro Kopf gewachsen, von 269 US-Dollar im Jahr 2001 auf 660 im Jahr 2014, ein Jahr, in dem das Wirtschaftswachstum bei 7,2 % lag. Das kaufkraftbereinigte BIP pro Kopf betrug 2014 immerhin 1500 US-Dollar. Mehr als zwei Drittel der Bevölkerung lebten unterhalb der nationalen Armutsgrenze, die in Mali 2007 bei einem Einkommen von 0,86 US-Dollar pro Tag und Person lag. 2010 lag dieser Anteil bei 43,6 &. Vor dem neuerlichen Ausbruch des Nordmali-Konflikts waren rund 15 % der Kinder akut mangelernährt. Die abnehmenden Niederschläge führten immer wieder zu Nahrungsmittelknappheit, wodurch Unterstützung durch das Ausland notwendig wird. Die Kriege haben zu einem Erliegen des Tourismus geführt, sodass in der Sahara kaum mehr eine legale Einkommensquelle existiert. Zudem war Mali nicht in der Lage, mehr als 45 % seines Strombedarfs selbst bereitzustellen. 2015 vereinbarte das norwegische Unternehmen Scatec Solar den Bau und den für 25 Jahre vorgesehenen Betrieb einer Solaranlage im Wert von 52 Millionen Euro bei Ségou. Der halbstaatliche Betreiber "Énergie du Mali" (zwei Drittel sind in Staatshand, ein Drittel gehört der Aga-Khan-Gruppe) erhielt 2013 87,7 Millionen Euro Subsidien, ist aber trotzdem nicht in der Lage, Projekte dieser Größenordnung zu betreiben. Scatec hält 50 % der Anteile, die Weltbank 32,5 % und der malische Partner "Africa Power 1" 17,5 %. Mali hat keine eigene Währung, sondern ist seit 1984 Mitglied der CFA-Franc-Zone; der davor 1962 eingeführte Mali-Franc wurde abgeschafft. Somit hat die Regierung keine Hoheit über Währungs-, Zins- und Wechselkurspolitik. Der CFA-Franc ist mit einem festen Wechselkurs an den Euro gebunden und frei konvertibel. Dies erlaubt den Mitgliedsländern, Glaubwürdigkeit, Geldwertstabilität und damit niedrige Inflation zu importieren; die Vorteile eines effizienteren Handels mit den EU-Staaten werden jedoch durch allerlei Handelshemmnisse auf beiden Seiten zunichtegemacht. Landwirtschaft. Die Landwirtschaft stellt den Hauptwirtschaftszweig des Landes dar Die Landwirtschaft ist Malis wichtigster Wirtschaftszweig. Sie erbringt etwas weniger als 40 % der Wirtschaftsleistung des Landes, beschäftigt jedoch 70 bis 80 % der erwerbstätigen Bevölkerung. Der Anteil der Landwirtschaft an der Wirtschaftsleistung ist indes rückläufig: In den 1970er Jahren steuerte sie noch rund 65 % des BIP bei. Traditionellerweise war jede Ethnie des Sahels auf die Herstellung eines landwirtschaftlichen Produktes spezialisiert, wie die Fulbe auf Viehzucht und Molkereiprodukte, die Bozo und Somono auf getrockneten Fisch, die Bambara auf Hirse und Baumwolle. Die Produkte wurden zwischen den Ethnien gehandelt, wodurch eine gegenseitige Abhängigkeit entstand. Diese komplementäre Ökonomie förderte seit dem 1. Jahrtausend v. Chr. ein Klima von Toleranz und Kooperation zwischen den Ethnien. Wenngleich aufgrund klimatischer Umstände lediglich 3 bis 3,5 Millionen ha genutzt werden können, hat die Landwirtschaft ein großes Potential. Speziell in den Gebieten entlang der Flüsse Niger und Senegal sowie südlich der 600 Millimeter Isolinie ist Ackerbau als Überflutungs- beziehungsweise Bewässerungs- oder als Regenfeldbau möglich. Zu den Hauptanbauprodukten gehören Erdnuss, Mais, Sorghum sowie Baumwolle. Im Dogonland ist zudem die Produktion von Zwiebelmasse bedeutsam und in der Region um Bamako, Bananenanbau. Das größte künstlich bewässerte Gebiet ist das Office du Niger, wo auf 100.000 Hektar Reis und Zuckerrohr angebaut werden. Es gibt Pläne, diese Fläche bis 2018 zu verdoppeln. 2010 lag die Zahl der domestizierten Rinder bei 9,16 Millionen Tieren. Dazu kamen 11,86 Millionen Schafe, 16,52 Millionen Ziegen, über 922.000 Kamele, fast 488.000 Pferde, über 880.000 Esel, 75.000 Schweine und 36,75 Millionen Vögel. Letztere haben ihre Zahl seit 2006 beinahe verdoppelt. Hingegen fiel die Menge des gefangenen Fisches von 89.570 auf 63.286 t in den Jahren 2002 bis 2006, stieg jedoch seither wieder stark an, um 2010 95.640 t zu umfassen. Die Zahl der Fischer stieg seit 1967 von 70.000 auf über 500.000. Bergbau und Rohstoffe. Obwohl der Goldreichtum Malis bereits im Altertum legendär war, ist der dortige Bergbau ein relativ junger Wirtschaftszweig. Die ersten Explorationen wurden in den 1980er Jahren durchgeführt, in den 1990er Jahren begann die stürmische Entwicklung der Goldgewinnung. Heute ist Mali der drittgrößte Goldproduzent Afrikas nach Südafrika und Ghana. Jährlich werden bis zu 50 Tonnen Gold gewonnen (10 % davon von zahlreichen nicht-industriellen Goldschürfern); die Reserven werden auf 800 Tonnen geschätzt. Neben Gold lagern weitere Rohstoffe im Boden, dazu gehören geschätzte 20 Millionen Tonnen Phosphate, 40 Millionen Tonnen Kalk, 53 Millionen Tonnen Steinsalz, 1,2 Milliarden Tonnen Bauxit, 2 Milliarden Tonnen Eisenerz, 10 Millionen Tonnen Mangan, 10 Milliarden Tonnen Ölschiefer, 60 Millionen Tonnen Marmor, 5000 Tonnen Uran und 1,7 Millionen Tonnen Blei und Zink. Aufgrund schlechter Infrastruktur und Energieversorgung sind diese Rohstoffe bislang zwar geologisch erfasst, aber nicht erschlossen. Die Dominanz des Goldbergbaus wird durch die Anzahl der erteilten Lizenzen demonstriert: im Jahr 2011 gab es 251 Explorationslizenzen und neun Abbaulizenzen für Gold, jedoch nur 32 Explorationslizenzen und zwei Abbaulizenzen für alle anderen Rohstoffe gemeinsam. Der Goldabbau steuert 25 % des Staatshaushaltes und 7 % des Bruttoinlandsproduktes bei. Die wichtigsten Minen wie Sadiola, Yatela, Morila oder Syama gehören mehrheitlich ausländischen Gesellschaften wie Anglogold Ashanti, Iamgold oder Randgold Resources, lediglich das Unternehmen Wassoul’Or, Betreiber der Kodieran-Goldmine, ist überwiegend in malischem Besitz. Den Minenbetreibern wird vorgeworfen, Umwelt und Lebensgrundlage der Bevölkerung zu zerstören, Arbeitskräfte auszubeuten, den Dorfgemeinschaften jedoch keine Vorteile zu bringen. In der Tat hatten 2011 alle Bergbauunternehmen gemeinsam weniger als 10.000 Arbeitsplätze geschaffen. Vor diesem Hintergrund ist die Ankündigung zu sehen, dass eine Änderung des Bergbaugesetzes den Staatsanteil erhöhen und das Mitspracherecht der lokalen Gemeindeverwaltungen ausdehnen soll. Die Einrichtung einer Bergbauschule soll Mali helfen, seine Bergbauindustrie zu diversifizieren. Handwerk, Industrie, Dienstleistungen. Mali hat wenig Industrie. Während unmittelbar nach der Unabhängigkeit einige größere staatliche Unternehmen zur Verarbeitung landwirtschaftlicher Produkte aufgebaut wurden (Textilien, Zigaretten, Gemüsekonserven), gibt es heute lediglich kleine und einige mittelgroße Verarbeitungsbetriebe v. a. für Nahrungsmittel und Baustoffe. Die Investitionsquote in der Industrie ist im Gegensatz zu der im Bergbau seit langer Zeit rückläufig. 2007 erzeugte die Industrie Waren im Wert von 1,52 Milliarden US-Dollar, das sind 24,2 % des Bruttoinlandprodukts. Der Handels- und Dienstleistungssektor hat in den letzten Jahren durch den Tourismus einen gewissen Aufschwung erfahren, der jedoch durch Entführungen und den militärischen Konflikt in den Jahren seit 2011 gestoppt wurde. Außenhandel. Mali hat nicht viele Güter, die exportiert werden können. Aus diesem Grund machte Gold im Jahre 2013 zwei Drittel seiner Exporte aus, dahinter folgen mit großem Abstand Baumwolle, Düngemittel und lebendes Vieh. Der hohe Anteil der Goldexporte bedingt, dass Exporteinnahmen und in der Folge das Leistungsbilanzdefizit stark vom Goldpreis abhängen. Das Leistungsbilanzdefizit schwankte somit in den letzten Jahren zwischen 7,3 (2009) und 12,2 % (2008) des BIP, wobei es zuletzt dank hoher Gold- und Baumwollpreise tendenziell geschrumpft ist. Im Jahr 2013 exportierte Mali 51 Tonnen Gold im Wert von 1,4 Milliarden Euro, daneben 187.000 Tonnen Baumwolle im Wert von 260 Millionen Euro, Düngemittel im Werte von 117 Millionen und Vieh im Wert von fast 100 Millionen Euro. Da das Gold fast zur Gänze nach Südafrika exportiert wird, ist dieses Land gleichzeitig Malis wichtigster Exportmarkt. Darüber hinaus waren im Jahr 2013 die Schweiz, die Elfenbeinküste und China die wichtigsten Abnehmer malischer Güter, wobei letztere vor allem Baumwolle, Häute und Tiere abnahmen. Die Importe Malis umfassen eine sehr breite Palette von Gütern. Von den 2,8 Milliarden Euro, die Mali im Jahr 2013 für Importe ausgab, entfielen 780 Millionen Euro auf Erdölprodukte, 630 Millionen auf Maschinen und Fahrzeuge und 430 Millionen auf Nahrungsmittel. Mali beschafft diese Güter vor allem bei seinen Nachbarn Senegal und Elfenbeinküste, daneben liefern Frankreich und China vor allem Fahrzeuge, Maschinen, Lebensmittel und Medikamente. Kapitalzuflüsse aus dem Ausland, vor allem in der Form von Entwicklungshilfe und Überweisungen der Malier im Ausland, sorgen dafür, dass die Zahlungsbilanz nicht so stark negativ ist wie die Leistungsbilanz – im Jahr 2012 betrug sie rund 1 % des BIP. Staatshaushalt. Der Staatshaushalt umfasste 2009 Ausgaben von umgerechnet 1,8 Milliarden US-Dollar, dem standen Einnahmen von umgerechnet 1,5 Milliarden US-Dollar gegenüber. Daraus ergibt sich ein Haushaltsdefizit in Höhe von 3,4 Prozent des BIP. Die Auslandsschulden betrugen 2011 1414,4 Milliarden CFA-Francs oder 2,16 Milliarden Euro, was 28,1 % des BIP eines Jahres entspricht. Infrastruktur. Mali investiert jedes Jahr rund 6 % seines BIP in Infrastruktur wie Verkehrseinrichtungen, Telekommunikation, Wasser- und Energieversorgung. Weitere 4 bis 5 % werden für Betrieb und Erhaltung aufgebracht. Mittelfristig werden jedoch deutlich höhere Investitionen notwendig sein, um zukünftig eine positive Entwicklung des Lebensstandards für die Bevölkerung abzusichern, vor allem im Energie- und Wassersektor. Verkehr. Der öffentliche Fernverkehr wird auf den Straßen von privaten Autobuslinien abgewickelt, deren Linienbusse von Kleinbussen und – wenn auch in abnehmendem Maße – Sammeltaxis ergänzt werden. Die "Tombouctou" der Schifffahrtsgesellschaft COMANAV im Hafen von Koulikoro Im Bereich des Nigers unterhalb von Bamako hatte die Schifffahrt seit langem große Bedeutung. Traditionelle Pinassen bieten heute Personen- und Güterbeförderung an und werden rege angenommen. Mali verfügt über eine einzige, in der Frühzeit der französischen Kolonialzeit begonnene, 584 km lange Eisenbahnlinie, die von Bamako westlich in Richtung der senegalesischen Grenze verläuft und dort über weitere 644 km zum Hafen von Dakar führt. 1888 erreichte die Eisenbahnlinie, die zunächst nur dort entstand, wo kein Schiffsverkehr möglich war, Bafoulabé im Westen Malis. Bamako ist seit 1904 angebunden und verdankt ihr zu erheblichen Teilen seinen Aufschwung. Obwohl diese Linie das Potenzial hat, zur Hauptroute für Malis Außenhandel zu werden, ist sie in schlechtem Zustand, denn Gleise wie Fahrzeuge stammen teils noch aus der Kolonialperiode und sind stark erneuerungsbedürftig, was zu häufigen Entgleisungen oder anderen Betriebsunterbrechungen führt. Selbst im afrikanischen Kontext sind die Indikatoren schlecht. Seit 2003 wird der Betrieb vom kanadischen Unternehmen Transrail geführt, das die Situation jedoch nicht verbessern konnte und mittlerweile selbst in finanziellen Nöten steckt. Aus diesem Grund beabsichtigen die beiden involvierten Regierungen, die Konzession zu restrukturieren. Der in den frühen 2000er Jahren geplante Bau einer Bahnstrecke von Bamako nach Guinea wurde fallen gelassen. Seit 2014 werden nach einer Vereinbarung mit der chinesischen "China Railway Construction Corporation International" Machbarkeitsstudien durchgeführt, um die Strecke für den internationalen Verkehr wiederherzustellen. Das Straßennetz Malis hatte im Jahr 2000 eine Gesamtlänge von 18.560 km. Davon waren 4450 km befestigt. Auf 1000 km² Land entfallen somit nur 27,9 km Straße, was auf die dünne Besiedlung weiter Teile des Landes zurückzuführen ist, aber auch die schlechte Anbindung des Landes illustriert: nicht mehr als 17 % der Landbevölkerung haben eine Straße in 2 km Entfernung ihres Wohnorts. Die Regierung hat in den letzten Jahren Priorität auf den Ausbau des Fernstraßennetzes gelegt, um die Transportrouten für den Außenhandel zu diversifizieren. Die größten Städte des Landes sind daher alle untereinander verbunden und der Zustand der Straßen ist im Allgemeinen gut. Mit durchschnittlich 550 Fahrzeugen pro Tag ist die Verkehrsdichte sehr gering. Etwa die Hälfte der Straßen sind aus strategischen Erwägungen befestigt, obwohl sie wenig Verkehr aufweisen. Entsprechend sind die Unterhaltskosten sehr hoch. Der Luftverkehr spielt in Mali eine sehr untergeordnete Rolle, weil die Preise für den Großteil der Bevölkerung nicht erschwinglich sind. Der größte Flughafen des Landes, der Flughafen Bamako, zählte im Jahr 2009 rund 200.000 Passagiere, die wichtigsten Flugziele sind Dakar und Paris. Alle anderen Flughäfen zusammen, wovon die größten in Kayes, Timbuktu und Mopti sind, weisen nicht einmal 30.000 Fluggäste pro Jahr aus. Die nationale Fluglinie Air Mali hat den Betrieb bereits mehrmals, zuletzt 2003 und 2012, eingestellt. Wenngleich die malischen Fluglinien ihr Fluggerät in den vergangenen Jahren erneuert haben, so bleiben bedeutende Sicherheitsdefizite zu lösen. Telekommunikation. Im Jahre 2002 gab es in Mali 56.600 Telefonanschlüsse, davon 80 % in der Hauptstadt Bamako. Der Standard galt als niedrig und unzuverlässig. Vor diesem Hintergrund hat die Mobiltelefonie einen idealen Wachstumsmarkt gefunden. Seit im Jahr 1998 der Telekommunikationsmarkt liberalisiert und eine Aufsichtsbehörde geschaffen wurde, ist die Branche rasant gewachsen und bietet dabei den Kunden niedrige Preise, wenngleich es im Land lediglich zwei Betreiber gibt. Die Zahl der Mobilfunkkunden Malis ist von 10.000 im Jahr 2000 auf 2,5 Millionen im Jahr 2007 in die Höhe geschnellt. Mali ist über zwei Korridore mit je zwei Links an das internationale Unterseekabel South Atlantic 3 angeschlossen: über Bamako-Dakar und Bamako-Abidjan. Der Anteil der Internet-Nutzer ist in Mali von praktisch null im Jahre 2000 auf rund 6 % der Gesamtbevölkerung im Jahre 2007 gestiegen. Dies ist jedoch selbst im afrikanischen Kontext eine sehr niedrige Quote. Der Gebrauch von Telekommunikations-Dienstleistungen ist weitgehend ein städtisches Privileg. Die Versorgung des Landes ist markant schlechter; etwa 12 % der Malier wohnen in so dünn besiedelten Gebieten, dass sie ohne Subvention nie in den Genuss solcher Services kommen werden. Energie- und Wasserversorgung. Elektrische Energie wird in Mali zu 55-60 % aus Wasserkraft gewonnen, der Rest wird in Ölkraftwerken generiert. Da in Mali keine fossilen Energieträger gefördert werden und importierte Erdölprodukte aufgrund der langen Transportwege deutlich teurer sind als im Rest der Welt, stellt der hohe Anteil des Öls an der Elektrizitätsgewinnung eine schwere Bürde für die Wirtschaft dar. Als Resultat daraus zählen die Energiepreise Malis zu den höchsten der Welt, und selbst diese hohen Preise erlauben es Energie du Mali nicht, seine Kosten zu decken. Im Jahre 2009 hatten weniger als 20 % der Malier einen Stromanschluss, wobei es in der Stadt immerhin fast 50 % der Bevölkerung waren, hingegen weniger als 5 % auf dem Land. Seit der Inbetriebnahme des Wasserkraftwerkes Manantali im Jahr 2003 hat sich die Zuverlässigkeit des Stromnetzes bereits stark verbessert und die Anzahl und Dauer der Stromausfälle ist deutlich niedriger als in anderen westafrikanischen Staaten. Der Anteil elektrischer Energie, der durch die Verbraucher selbst mit Generatoren erzeugt wird, lag 2007 bei 16 %. Die Nachfrage nach elektrischer Energie steigt jährlich um bis zu 10 %. Dies stellt die Erzeuger vor große Herausforderungen: Das Wasserkraft-Potenzial ist niedrig, und das Netz ist noch nicht an jenes der Nachbarländer angeschlossen. Der Import elektrischer Energie aus Guinea oder der Elfenbeinküste würde zwar die Kosten drastisch senken, bedingt jedoch hohe Investitionen in die Infrastruktur. Somit sind die Erhöhung der Kapazität, der Anschluss wichtiger Bergbau- und Baumwollregionen sowie die Senkung der Übertragungsverluste von derzeit 25 % mitentscheidend für die Stärkung der Wettbewerbsfähigkeit der malischen Wirtschaft. In den letzten 20 Jahren wurden große Anstrengungen unternommen, die Wasserversorgung der Bevölkerung zu verbessern. Vor allem durch den Bau von Brunnen hatten im Jahr 2007 60 % der Bevölkerung Zugang zu sicherem Wasser, während es 1987 noch 30 % waren. Dies gelang trotz gleichzeitigem starken Bevölkerungswachstum. Parallel dazu schrumpfte der Anteil der Menschen ohne Zugang zu Latrinen auf 20 %, was deutlich weniger ist als in den Nachbarländern. Doch Energie du Mali kann auch bei der Wasserversorgung seine Kosten nicht decken, das Bevölkerungswachstum und die schnelle Urbanisierung bringen die Infrastruktur an die Grenzen ihrer Leistungsfähigkeit und die Qualität des Zugangs zu Wasser ist auf dem Land nach wie vor deutlich schlechter als in der Stadt. Kultur. Die Kultur Malis besitzt einen großen Reichtum an Mythen und Traditionen wie Musik und rituelle Tänze, mit abstrakten Mustern bedruckte Stoffe oder kunstvolle Holzmasken. Sie ist dabei durch die Vermischung des Islam mit vorislamischen religiösen Praktiken gekennzeichnet. Die Musik, die sowohl der Unterhaltung als auch der Belehrung dient, nimmt hier einen ganz bedeutenden Platz ein, die Mythen, Epen und Geschichten wurden in Liedform überliefert. Aus dieser Kunst ist die heute international sehr erfolgreiche malische Popmusik entstanden. Das Schmiedehandwerk und die Holzschnitzerei sind Handwerksformen, die besonderes Ansehen genießen. Musik und Tanz. Musik, Tanz, Sprache und Aufführung sind in der malischen Gesellschaft tief verwurzelt. Sie bilden in der Ansicht der Malier eine Einheit, und Maliern ist nicht eingängig, warum diese vier Elemente voneinander getrennt werden sollen. Dabei hat jede Ethnie ihre eigenen Musiktraditionen. Klassische Musik europäischen Zuschnitts spielt in Mali keine Rolle. Die Pflege des musikalischen Erbes der einzelnen Völker unterlag einer speziellen gesellschaftlichen Gruppe, die in Südmali "Jeli" heißt. Die Jeli waren mit einer einflussreichen Familie durch Patronage verbunden und bekamen als Gegenleistung für ihre Dienste als Lobsänger, Berater, Vermittler und Kenner der mündlich vermittelten Geschichte Geschenke für ihren eigenen Lebensunterhalt. Bestimmte Gesangs- oder Rezitierformen sowie Instrumente waren dabei ausschließlich den männlichen beziehungsweise weiblichen Jeli vorbehalten. Die Tradition der Jeli gibt es auch heute noch; kein Politiker kann es wagen, einen Jeli für seinen Lobgesang nicht großzügig zu belohnen, selbst wenn der betreffende Jeli gar nicht um die Lobpreisung gebeten worden war. Aus der Jeli-Tradition heraus stammen viele der zahlreichen Stars der malischen Popmusik, die seit den 1960er Jahren international bekannt geworden ist. Zu diesen Stars sind Boubacar Traoré, der für seinen "Wüstenblues" bekannte Ali Farka Touré, Habib Koité und Salif Keïta zu zählen, wobei letzterer keine Jeli-Herkunft aufweisen kann und somit wie kein anderer für neue soziale Mobilität steht. Weitere bekannte malische Musiker sind Rokia Traoré oder das blinde Pop-Duo Amadou & Mariam. Eine Besonderheit Malis ist der hohe Anteil an Sängerinnen. Sie prägen wie die in der Tradition der Wassoulou-Musik stehende Oumou Sangaré oder die beiden Jeli-Sängerinnen Ami Koita und Kandia Kouyaté ebenfalls die populäre Musik des Landes. Malische Musiker pflegen nicht zuletzt einen lebhaften internationalen Austausch, dazu gehören Projekte wie "Afrocubism", das kubanische und malische Musik kombiniert, die CD "Talking Timbuktu," die Ali Farka Touré mit Ry Cooder eingespielt hat oder die Platte "Songhai", die unter Beteiligung von Toumani Diabaté malische Musik mit Flamenco kombiniert. Häufig verwendete Instrumente sind Kora – eine Stegharfe der Mandinka – sowie die Spießlaute Ngoni, das Stabspiel Balafon, die Bechertrommel Djembé, die tief klingende Röhrentrommel Dununba, die einsaitige Laute Gurkel (auch "djerkel") und die einsaitige Fiedel Njarka. Die Tuareg haben ihre eigenen Musiktraditionen, zum Teil aber ähnliche Instrumente. Die einsaitige Fidel Imzad ist den Tuaregfrauen vorbehalten, beide Geschlechter spielen die dreisaitige Zupflaute Tahardent und die Mörsertrommel Tendé. Die Tuareg-Band Tinariwen wurde 1982 gegründet. Sie nutzt elektrisch verstärkte Instrumente und ist auch in Europa bekannt. Theater und Tanztheater. In Mali gibt es, abhängig von Region und ethnischer Zugehörigkeit, eine unüberschaubare Menge von traditionellen Theaterformen, die sich bezüglich Form, Figuren und Handlungen unterscheiden. Theater wird in der Regel von jungen Männern aufgeführt, die sich in Rhetorik, Parodie, Komödie und satirischer Imitation üben und damit Lebensumstände wie Politik, Regierung oder Generationenkonflikte aufs Korn nehmen. Das Publikum ist dabei integraler Bestandteil der Aufführung. Dessen spontane Reaktion entscheidet, ob die Rhetorik des Wortführers als gekonnt und witzig oder aber als unverschämt gilt. Puppentheater und Maskeraden gibt es ebenso in vielen Formen. Auch diese Art von Aufführung vereint Theater, Musik, Tanz und Rhetorik. Die Puppen können Stereotype aus der Gesellschaft oder Geister darstellen, während bei den Maskeraden die Darsteller zur Gänze unter teils riesigen Masken verschwinden. In den Jahren kurz vor und nach der Unabhängigkeit Malis rief die Regierung mehrere Theater-, Puppentheater- und Tanzensembles ins Leben. Diese Ensembles nahmen an Wettbewerben teil und spielten vor den Gästen der jeweiligen Regierungen. Im Jahre 1964 wurde ein nationales Kulturinstitut gegründet, dessen Tätigkeit zu einer gewissen Standardisierung der Theater- und Tanzformen führte, aber auch die Kulturen Nordostmalis zu Gunsten jener des Südens marginalisierte. Seit sich der Staat als Sponsor von professionellen Theatergruppen zurückgezogen hat, greifen Entwicklungshilfeorganisationen gern auf das Medium Theater zurück. Sie hoffen, durch die Verwendung dieser traditionellen Kulturforum die malische Bevölkerung besser mit ihrem Anliegen zu erreichen. Literatur. Manuskript von Nasir al-Din Abu al-Abbas Ahmad ibn al-Hajj al-Amin al-Tawathi al-Ghalawi’s Kashf al-Ghummah fi Nafa al-Ummah aus der "Mamma-Haidara-Bibliothek" zu Timbuktu Das literarische Leben Malis ist durch die Begegnung von traditionellen, mündlich übertragenen Texten, arabisch-muslimischer Literatur, französischer Kolonialvergangenheit und modernem, zeitgenössischen Literaturschaffen geprägt. Die mündlich übertragene Literatur ist bis heute lebendig und viele Malier halten sie für ausdrucksstärker als schriftlich festgehaltene Texte. Darbietungen derartiger Überlieferungen schaffen hohe emotionale Anteilnahme unter der Zuhörerschaft. Inhalte der mündlichen Überlieferungen sind kulturelle Werte und soziale Normen in Form von Sprichwörtern und Fabeln, aber auch Berichte von historischen Ereignissen oder Heldenepen, deren historische Authentizität umstritten ist. Aufzeichnungen arabischer Reisender und Historiker von El Bekri (11. Jahrhundert) bis Leo Africanus (16. Jahrhundert) sind bis heute erhalten und bilden die Grundlage für die heutige Geschichtsschreibung der Region; die Manuskripte von Timbuktu sind weltberühmt geworden. Später wurden religiöse, exegetische und pädagogische Texte in lokalen Sprachen, aber arabischer Schrift verfasst. Diese Ajamiyya genannte Literatur hatte, wenngleich die arabische Schrift zur Wiedergabe afrikanischer Sprachen schlecht geeignet war, eine bedeutende Rolle bei der Verbreitung des Islam im heutigen Mali. Unter der französischen Kolonialherrschaft verlangte die Politik der kulturellen Assimilierung, dass sämtliche literarische Tätigkeit in französischer Sprache sein müsse, und dass sie dem Geschmack der französischen Kultur zu entsprechen habe. Moderne Literatur existiert in Mali deshalb fast ausschließlich in französischer Sprache. Die ersten bedeutenden modernen Schriftsteller waren deshalb in Frankreich ausgebildete Kolonialbeamte, die den politischen Unabhängigkeitskampf unterstützten. Dazu gehören der zum Vater der frankophonen malischen Literatur erklärte Fily Dabo Sissoko, der Historiker Amadou Hampâté Bâ oder Aoua Kéita, deren Autobiografie tiefgründige Einblicke in die Lage der Frauen während der Kolonialzeit erlaubt. Nach Erlangen der Unabhängigkeit war literarischer Erfolg an politische Aktivität geknüpft. In dieser Zeit arbeiteten Seydou Badian Kouyaté, Yambo Ouologuem, der mit der angeblich glorreichen afrikanischen Vergangenheit abrechnete, Massa Makan Diabate oder Ibrahima Aya. Alle diese verfolgten das Ziel, mittels Literatur die malischen Mitbürger aufzuklären. Seit der Einführung des Mehrparteiensystems haben sich die Schriftsteller von politischen Themen abgewandt. Zu den bedeutenden zeitgenössischen Schriftstellern Malis gehören Aicha Fofana, Aida Mady Diallo, Habib Dembélé, Ismaïla Samba Traoré, Moussa Konaté oder M’Bamakan Soucko. Architektur. Die Architektur der verschiedenen Völker Malis hängt von deren Lebensform ab: während nomadische oder halbnomadische Völker in Zelten aus mit Tierhäuten bespannten Holzgerüsten wohnen, ist unter den sesshaften Völkern die Lehmarchitektur am weitesten verbreitet. Dies liegt einerseits daran, dass Holz und Lehm die in der Region am leichtesten verfügbaren Baustoffe sind, andererseits ist diese Bauweise am besten an das Klima der Sahelzone angepasst. Während der Stunden mit sehr hoher Sonneneinstrahlung schirmt der Lehm den Innenraum des Hauses ab und hält ihn kühl, während der kalten Nächte oder auch während des Harmattan geben die Lehmwände die während des Tages aufgenommene Wärme ab. Die Belüftung ist durch die Eingänge und Rauchabzugsöffnungen gewährleistet. Die meist fensterlosen Häuser dienen nur zum Schlafen, Kochen und Lagern von Lebensmitteln und anderem Material. Gearbeitet und gelebt wird außerhalb der Häuser, die runden oder eckigen Grundriss sowie flache Dächer oder Grashauben haben können. Die Struktur der Dörfer reicht von sehr kompakt, wo sie einige Dutzend Familien beherbergen und vom Weide- und Ackerland umgeben sind, bis zu einzeln in der trockenen Ebene stehenden Rundhäuschen mit Grasdach. Moscheen sind die wichtigsten religiösen Gebäude Malis. Wie die Wohnhäuser werden sie aus Lehm gebaut. Vor allem die Moscheen älteren Datums sind aus massivem Lehm, in dem horizontale hölzerne Träger verankert sind. Diese Träger dienen als Gerüste für die häufig notwendigen Reparaturarbeiten. Beispiele für diese Architektur vor sind die Djinger-ber-Moschee und die Sankóre-Moschee von Timbuktu sowie das Mausoleum für Askia Muhammed in Gao. Die Moschee von Djenné ist deutlich jüngeren Datums und unterscheidet sich von den älteren hinsichtlich der Symmetrie des Bauwerkes, der Integration der Minarette in die Fassade und der Verwendung der Oberflächenstruktur des Lehms als Gestaltungselement. Da die Lehmbauweise wenig witterungsbeständig ist, kommt die Bevölkerung der betreffenden Orte einmal im Jahr zusammen, um nach der Regenzeit eine frische Schicht Lehm auf die Oberfläche der Moscheen aufzutragen. Festungsartige Bauwerke, die "Tata" genannt werden, ebenfalls aus Lehm bestehen und der Bevölkerung Schutz bei kriegerischen Auseinandersetzungen oder vor Sklavenjägern boten, stammen vom Ende des 19. Jahrhunderts und sind heute noch teilweise erhalten. Jedoch selbst das Tata von Sikasso, dass in den 1870er Jahren neun Monate lang der Belagerung von Samori Touré trotzte und somit eigentlich ein Baudenkmal sein sollte, wird nicht unterhalten oder geschützt, zerfällt langsam und dient der lokalen Bevölkerung als Quelle für Baumaterial. Vestibüle aus Lehm haben eine große historische und kulturelle Bedeutung; sie symbolisieren meist die Kontinuität eines bedeutenden Familienclans oder haben rituelle Funktionen, wie das Kamablon von Kangaba, das angeblich auf Sundiata Keïta im 13. Jahrhundert zurückgeht und in einer Zeremonie alle sieben Jahre neu überdacht wird. Es gehört seit wenigen Jahren zum UNESCO-Welterbe. Französische Kolonialarchitektur entstand vor allem in den Städten Kayes, Kita, Bamako und Ségou. Es handelt sich meist um sehr solide, dreistöckige Gebäude mit großen Veranden und Bogengängen, die eine ausreichende Belüftung sicherstellten. Diese Gebäude befinden sich heute häufig in schlechtem Zustand, obwohl sie Einrichtungen der malischen Regierung beherbergen. Küche. Die Hauptnahrungsmittel in Mali sind die Getreide Hirse, Sorghum, Reis, Fonio und Mais. Dabei wird Reis in Mali angebaut oder importiert, er ist auf dem Land allein zu besonderen Anlässen auf dem Teller, jedoch fast zur Hälfte in der Stadt. Das Getreide wird zum Frühstück als Brei, womöglich mit Milch und Zucker, zubereitet und in wohlhabenden Haushalten um Brot ergänzt. Zum Mittag- und Abendessen werden Hirse oder Reis zusammen mit einer schweren Sauce aus Öl, Gemüse und oder Baobab-Blättern gegessen. Fleisch und Fisch findet sich lediglich bei den reichsten Maliern regelmäßig in dieser Sauce. Sie hat in Mali einen so hohen Stellenwert, dass ihre Qualität als Maßstab gesehen wird, wie sehr eine Frau ihren Mann liebt. Das "Saucen-Geld" ist das Synonym für den Betrag, den die Frau von ihrem Mann für das Bestreiten des Haushaltes bekommt, er nimmt in alltäglichen Gesprächen wie auch in malischen Seifenopern breiten Raum ein. Das Kochen ist traditionell ausschließliche Aufgabe der Frauen. Sie richten das Getreide und die Sauce in großen Schalen. Gegessen wird in Gruppen, nach Geschlechtern getrennt, auf dem Boden sitzend und mit den Fingern. Das Essen ist eine Angelegenheit, die zu Hause stattfindet. Es wird nach Möglichkeit soviel gekocht, dass man überraschend eintreffende Gäste bewirten kann. Es ist inakzeptabel, in der Gegenwart anderer zu essen, ohne diese zum Essen einzuladen. Restaurants sind in Mali eine Einrichtung, die erst in der französischen Kolonialzeit eingeführt wurde. Während zu den Mahlzeiten Wasser getrunken wird, ist starker Grüntee mit viel Zucker das Getränk, das zu Genusszwecken konsumiert wird. Kaffee und Schwarztee sind nicht sehr verbreitet. Süßgetränke wie Jenjenbere, Dableni oder westliche Softdrinks werden nur an speziellen Anlässen getrunken. Bier und andere alkoholische Getränke werden religiös bedingt äußerst selten und höchstens zu speziellen gesellschaftlichen Anlässen gereicht. Regelmäßiger oder exzessiver Alkoholkonsum ist gesellschaftlich geächtet. Bekleidung. Der Bekleidungsstil, wie er heute in Mali gepflegt wird, ist das Ergebnis von tiefgreifenden Veränderungen in den letzten 150 Jahren, die durch Kolonisierung und Islamisierung hervorgerufen wurden. Frauen bevorzugen die Poncho-artige Robe namens "Dloki-Ba", die aus bedrucktem oder besticktem Stoff hergestellt sein kann. Sofern es die finanziellen Gegebenheiten erlauben, wählt die Frau exquisiten importierten Stoff und lässt ihn selbst nach ihrem persönlichen Geschmack färben. Der "combinaison" genannte Zweiteiler aus einem zwei Meter langen, um die Hüfte gewundenen Tuch und einer Bluse ist ebenfalls sehr verbreitet. Die Kopfbedeckung signalisiert, dass eine Frau verheiratet ist. Abhängig von Geschmack und Modebewusstsein ihrer Trägerin kann dieses Bekleidungsstück spektakulär und farbenfroh ausfallen. Westliche Kleidung wird in der Regel nur von einigen jungen unverheirateten Stadtbewohnerinnen getragen. Für jeden Kleidungsstil gilt, dass er der Frau zu Selbstachtung verhelfen soll, indem er den Körper und seine Konturen verdeckt. Die am meisten verbreitete Kleidung für Männer wird "Pipau" genannt, es handelt sich um ein einteiliges, Kaftan-artiges Gewand, das den Körper bis zu den Füßen verdeckt. In Kombination mit einer Kappe und eventuell einem Bart betont er die muslimische Identität seines Trägers. Einflussreiche Personen tragen häufig eine reich verzierte dreiteilige Kombination aus weit geschnittener Hose, Hemd und Überwurf, der wiederum "Dloki-ba" oder "Grand Boubou" genannt wird. Westliche Kleidung wird von Mitgliedern der gebildeten, städtischen Elite getragen. Kino. Bereits seit der Kolonialperiode hat Mali einige Regisseure hervorgebracht, die mit ihren Filmen das Land, sein reiches kulturelles und historisches Erbe sowie das komplexe soziale Gefüge Malis international bekannt machten. Der 1940 in Bamako geborene Souleymane Cissé landete für seinen Film "Den muso" im Gefängnis, sein Streifen "Yeelen" wurde mit mehreren internationalen Preisen ausgezeichnet. Der 1945 in San geborene und in Frankreich ausgebildete Cheick Oumar Sissoko gewann für "Guimba", "Le Genèse" und die Verfilmung eines Romans von Aminata Sow Fall namens "Battù" ebenfalls mehrere Preise. Der Regisseur Abderrahmane Sissako legte mit "Das Weltgericht von Bamako" (2006) und "Timbuktu" (2014) zwei international beachtete Filme vor. Medien. Die erste Zeitung des Landes war "Le Soudanais", der von der französischen Kolonialverwaltung für das französischsprachige Publikum, also in Mali lebende Franzosen und die afrikanische Elite aufgelegt wurde. Zeitungen wie "L’Essor" wurden von der Unabhängigkeitsbewegung herausgegeben. Nach der Unabhängigkeit wurden "L’Essor" (ab 1949 durch US-RDA herausgegeben) und die Presseagentur "Agence Malienne de Presse" zum Sprachrohr der Regierung. Seit 1992 ist die Pressefreiheit in der Verfassung verankert und Publikationen wie "Le Républicain", "Les Echos", "Nouvel Horizon" oder "Info Matin" sind entstanden. Ihre Verbreitung ist jedoch auf das kleine Segment der lesekundigen Stadtbewohner, die sich den Erwerb von Zeitungen leisten können, beschränkt. Selbst in Bamako mit seinen rund zwei Millionen Einwohnern erreichen die größten Zeitungen eine Auflage von nicht mehr als 3500 Exemplaren. Dabei halten 44 % der Bevölkerung die Pressefreiheit für verzichtbar, womit Mali nur noch von Liberia (47 %), Elfenbeinküste (48 %), Guinea (48 %) und Sudan (49 %) übertroffen wird. Dies steht in scharfem Gegensatz zu Aussagen, fast 70 % der Afrikaner sehen die Presse in einer Aufpasserfunktion gegenüber Regierung und Korruption. Hauptgrund ist Misstrauen gegenüber der Wahrheitsliebe der Presse. Radio gibt es in Mali seit der Gründung von "Radio Soudan" 1957. Bis zum Beginn der 1990er Jahre war der Empfang lediglich in den Städten möglich, das Medium diente vor allem der Bildung und der Verbreitung der Regierungspolitik. Gesendet wurde fast ausschließlich auf Französisch und Bambara. Seit 1992 ist ein starkes Wachstum an lokalen Radiostationen zu beobachten: im Jahre 2011 waren mehr als 150 Stationen auf Sendung, die meisten davon auf Lokalsprachen und mit lokalen Inhalten. Die finanziellen und technischen Beschränkungen bedingen jedoch ein niedriges Qualitätsniveau. Es gibt zwei nationale Programme, Chaine Nationale und Chaine 2. Das malische Fernsehen existiert seit 1983 als die Radiodiffusion Télévision du Mali seine Programmausstrahlungen begann. Bis heute ist das Fernsehen im Landesinneren nur in urbanen Gebieten empfangbar, abgesehen von den populären Musikshows und Seifenopern gibt es kaum im Land produzierte Inhalte. Einige Rundfunk-/TV-Stationen sind inzwischen auch über Audio-/Video-Stream über das Internet zu empfangen. ORTM (bis 1993 RTM) ist das landesweite Programm Malis. TM2 sendet seit 31. Dezember 2011 und ist das zweite Programm. Es richtet sich vorwiegend an Frauen und Kinder. ORTM ist in Europa über Eutelsat 7A auf 7°Ost frei empfangbar. Die Medienlandschaft in Mali galt bis zum Krieg als relativ frei, seitdem ist sie Repressalien ausgesetzt. Freedom House führte Mali noch im Jahre 2010 in der Liste der Staaten mit freier Presse und damit unter anderem vor Italien, wo die Medien als „teilweise frei“ gewertet wurden. Auch die Organisation Reporter ohne Grenzen listete in der Rangliste Pressefreiheit 2008 Mali noch vor der ehemaligen Kolonialmacht Frankreich. Im Jahr 2015 listet Freedom House Mali unter den Ländern mit nur "teilweise freier" Presse. Sport. Das Nationale Olympische Komitee Comité National Olympique et Sportif du Mali (CNOSM), das 1963 vom IOC anerkannt wurde, entsandte 17 Sportler zu den Olympischen Spielen 2008 in Peking; zwei Leichtathleten, zwei Schwimmer, einen Taekwondokämpfer sowie die Basketballnationalmannschaft der Damen. Nationalsport von Mali ist Fußball, der nationale Verband ist die Fédération Malienne de Football (FMF), die mit der Unabhängigkeit 1960 gegründet und 1962 Mitglied des Weltverbandes FIFA wurde. Größte Erfolge der Nationalmannschaft waren der zweite Platz bei der Afrikameisterschaft 1972, der dritte Platz bei der Afrikameisterschaft 2012 und 2013 sowie die drei Halbfinalteilnahmen 1994, 2002 und 2004. Um die Malische Meisterschaft kämpfen jedes Jahr 14 Vereine, von denen der größte Teil aus Bamako stammt. Erfolgreichster Spieler der Vergangenheit ist Salif Keïta, der in Frankreich bei AS Saint-Étienne und Olympique Marseille spielte. Der in Mali geborene Jean Tigana wurde mit der französischen Nationalmannschaft 1984 Europameister. Bekannte Auslandsprofis sind Seydou Keita (AS Rom) und Mohamed Sissoko (Levante UD). Die U-20-Nationalmannschaft erreichte bei der U-20-WM 1999 den dritten Platz. Liste von Malern/A. Die folgende Liste führt möglichst umfassend Maler aller Epochen auf. Die Liste ist soweit vorhanden alphabetisch nach Nachnamen geordnet. Mietvertrag (Deutschland). In Deutschland ist ein Mietvertrag eine gegenseitige Vereinbarung zur zeitweisen Gebrauchsüberlassung gegen Entgelt, durch den sich eine Partei (der Vermieter) dazu verpflichtet, der anderen Partei (dem Mieter) den Gebrauch der gemieteten Sache zu gewähren, während die Gegenleistung des Mieters in der Zahlung der vereinbarten Miete (früher: „Mietzins“, für die vermietende Partei: „Mietforderung“) besteht. Mögliche Mietgegenstände (bzw. -„objekte“) sind bewegliche und unbewegliche Sachen oder Sachteile, die gebrauchstauglich sind (beispielsweise auch Hauswand als Werbefläche). Für das Mietrecht gelten im deutschen Recht die des Bürgerlichen Gesetzbuchs (BGB). Mietvertragstypen. Der Aufbau des deutschen Mietrechts macht es erforderlich, Mietverträge korrespondierend nach der Nutzungsart zu typisieren. Das sehr umfangreiche und differenzierte deutsche Miet- und Pachtrecht wird schon wegen seines Umfangs als schwer verständlich empfunden, geht dafür aber differenziert auf einzelne Lebenssachverhalte ein. Insbesondere für Mietverträge zur dauerhaften (nicht nur vorübergehenden) Vermietung von Wohnraum bestehen viele zwingende gesetzliche Vorschriften; solche gesetzliche Regelungen können nicht wirksam in einem Mietvertrag abgeändert werden. Darüber hinaus hat der Gesetzgeber für die Gestaltung von vorformulierten Mietverträgen genaue Regeln aufgestellt (BGB), die von jedem Vertragsanwender genau beachtet werden müssen. Nicht Bestandteil des Mietvertrages, aber gängige Praxis bei der Vermietung von Wohn- und Gewerbeimmobilien ist die Anfertigung eines Wohnungsübergabeprotokolls. Untervermietung. Ein "Untermietvertrag" ist eine spezielle Variante des Mietvertrages. Besteht zwischen dem Vermieter V und dem Mieter M1 bereits ein Mietvertrag über die Wohnung, so ist es M1 bei Gestattung möglich, seinerseits die Mietsache zu vermieten. Die Gebrauchsüberlassung an Dritte (Untervermietung) regeln und BGB. Als Untervermietung wird dann das Rechtsverhältnis zwischen ihm (M1) und seinem Mieter M2 bezeichnet; insoweit ist M1 Vermieter des M2. Es heißt dann, dass M2 bei M1 "zur Untermiete wohnt". An einem solchen Vertrag wird M1 insbesondere dann interessiert sein, wenn er mit M2 in Wohngemeinschaft leben oder aber in Zeiten vorübergehender Abwesenheit die Mieträume (bei nämlich unveränderter Zahlungspflicht gegenüber V) nicht leerstehen lassen will. In vielen Mietverträgen (betreffend das Verhältnis zwischen V und M1) wird das Recht des M1, solche Untermietverträge einzugehen, ausgeschlossen; entsprechende Klauseln sind jedoch nach Abs. 3 BGB unwirksam. Allerdings kann eine Untervermietung durch V unter bestimmten Voraussetzungen nach § 553 Abs. 1 Satz 2 BGB untersagt werden. Verpflichtungen der Parteien. Durch den Mietvertrag verpflichtet sich der Vermieter, dem Mieter den Gebrauch der Mietsache während der Mietzeit in einem vertragsgemäßen Zustand zu gewähren (§ 535 I 1 BGB). Der Vermieter hat die auf der Mietsache ruhenden Lasten zu tragen (§ 535 I 2 BGB). Allerdings wird in der Praxis zumeist vereinbart, dass ein Teil dieser Lasten (wie Grundsteuern) auf den Mieter umgelegt wird. Stehen der Gebrauchsüberlassung öffentlich-rechtliche Hindernisse entgegen, wie z. B. das Fehlen einer Bau- oder Nutzungsgenehmigung, so liegt ein Fall der Unmöglichkeit vor: Auch wenn die Wirksamkeit des Mietvertrages gemäß hiervon unberührt bleibt, so wird der Beklagte von seiner synallagmatischen Leistungspflicht zur Gewährung des Mietgebrauchs frei und verliert gemäß den Anspruch auf die Gegenleistung. Der Mieter verpflichtet sich, dem Vermieter die vereinbarte Miete zu entrichten und ihm die gemietete Sache zum Ende des Mietverhältnisses zurückgeben (§ 535 II BGB). Zeigt sich im Laufe der Mietzeit ein Mangel der Mietsache oder wird eine Maßnahme zum Schutz der Mietsache gegen eine nicht vorhergesehene Gefahr erforderlich, so hat der Mieter das dem Vermieter unverzüglich anzuzeigen. Unterlässt der Mieter die Anzeige, so ist er dem Vermieter zum Ersatz des daraus entstehenden Schadens verpflichtet. Mietverhältnisse über Wohnraum. In Deutschland lebt ein großer Anteil der Bevölkerung in gemieteten Wohnräumen, das verschafft der Wohnraummiete besondere praktische Bedeutung. Das Bürgerliche Gesetzbuch regelt sie ausführlich und stärkt die Rechte des Wohnraummieters (soziales Mietrecht). Nach einer Entscheidung des Bundesverfassungsgerichts unterfällt der Besitz des Mieters an der gemieteten Wohnung dem Schutz des Eigentumsgrundrechts aus Abs. 1 S. 1 GG. Mietrechtsänderungsgesetz (MietRÄndG) 2013. Zum 1. Mai 2013 trat eine weitere Mietrechtsänderung in Kraft, die am 1. Februar 2013 den Bundesrat passiert hatte. Die Novellierung des Mietrechts betrifft im Wesentlichen vier Regelungskomplexe: die energetische Gebäudesanierung, das Vorgehen gegen Mietnomaden sowie den Kündigungsschutz bei der Umwandlung von Miet- in Eigentumswohnungen. Zudem können die Länder den Anstieg von Bestandsmieten in Regionen mit Wohnungsknappheit nach Abs. 3 BGB innerhalb von drei Jahren von 20 auf 15 Prozent herabsetzen. Erstmals gesetzlich geregelt wird auch das Contracting, für das der Gesetzgeber den neuen Paragraphen geschaffen hat. Kündigung. Im Allgemeinen beträgt die Kündigungsfrist für Mieter drei Monate zum Monatsende abzüglich der Karenzzeit („spätestens am dritten Werktag eines Monats“). Die Vereinbarung einer längeren Kündigungsfrist für den Mieter ist unzulässig. Für Vermieter beträgt die Kündigungsfrist ebenfalls drei Monate, sie verlängert sich jedoch nach fünf Jahren auf sechs Monate und nach acht Jahren auf neun Monate (BGB). Verträge, die vor dem 1. September 2001 geschlossen wurden, enthalten häufig die (bis dahin gesetzlich gültige) Regelung, dass bei einer Mietdauer von mehr als zehn Jahren die Kündigungsfrist für den Vermieter zwölf Monate beträgt. Verträge, die vor dem 1. September 2001 geschlossen wurden, in denen die Kündigungsfristen nicht formularmäßig formuliert sind, können im Einzelfall immer noch gültige schlechtere Bedingungen für Mieter enthalten. Mietsicherheit. Im Wohnraummietvertrag kann wirksam vereinbart werden, dass der Mieter an den Vermieter eine Mietsicherheit leistet, umgangssprachlich auch "Mietkaution". Sie dient der Absicherung sämtlicher aus dem Mietverhältnis herrührenden Forderungen des Vermieters. Der Vermieter darf nicht mehr als drei Monatsmieten (ohne Nebenkosten) als Sicherheit verlangen, und muss sie getrennt von seinem eigenen Vermögen anlegen (BGB). Mieterhöhungen. Die Miete ist (für preisfreien Wohnraum) grundsätzlich in der vereinbarten Höhe zu zahlen. Da Mietverhältnisse über Wohnraum (anders als bei gewerblichen Mietverhältnissen) vom Vermieter nicht ohne Grund gekündigt werden dürfen, wurde für den Vermieter die Möglichkeit geschaffen, mit Mieterhöhungen auf wirtschaftliche Veränderungen zu reagieren und damit (in einem gesetzlich geregelten Rahmen) einseitig den Inhalt des Mietvertrages zu verändern. Eine Mieterhöhung ist nur in den gesetzlich ausdrücklich geregelten Fällen möglich. Die häufigsten Mieterhöhungen erfolgen zur Anpassung an die ortsübliche Vergleichsmiete sowie im Anschluss an Modernisierungen. Die vor der Mietrechtsreform (für Bruttokaltmieten) noch vorgesehene Mieterhöhung wegen gestiegener Betriebskosten ist nunmehr nicht mehr möglich. Die Mieterhöhung zur Anpassung an die ortsübliche Vergleichsmiete gem. BGB ermöglicht dem Vermieter, die Miete auf das ortsübliche Maß zu erhöhen. Ein Anspruch des Mieters zur Absenkung einer zu hoch vereinbarten Miete besteht jedoch (grundsätzlich) nicht. Zur Begründung kann entweder auf Vergleichswohnungen oder aber auf den örtlichen Mietspiegel verwiesen werden. In Städten mit qualifiziertem Mietspiegel (z. B. Berlin, Hamburg) ist dieser bei der Begründung der Mieterhöhung zwingend anzugeben. Der Vermieter darf die Miete mit Mieterhöhungen gem. BGB innerhalb eines Zeitraums von drei Jahren nicht um mehr als 20 Prozent erhöhen, in Ballungsgebieten mit Wohnungsknappheit sind es nach der aktuellen Mietrechtsänderung 15 Prozent (sog. Kappungsgrenze). Die Mieterhöhung selbst ist formal so ausgestaltet, dass der Vermieter einen Anspruch gegen den Mieter auf Zustimmung zur Mieterhöhung hat, den er ggf. (innerhalb einer Frist von drei Monaten nach Ablauf des Zustimmungszeitraums von zwei Monaten) klageweise geltend machen muss. Eine Veränderung des Mietzinses tritt (ggf. rückwirkend) erst ein, wenn der Mieter zugestimmt hat oder zur Zustimmung verurteilt wurde. Nach BGB können die Vertragsparteien schriftlich vereinbaren, dass die Miete durch den vom Statistischen Bundesamt ermittelten Preisindex für die Lebenshaltung aller privaten Haushalte in Deutschland (jetzt: Verbraucherpreisindex für Deutschland) bestimmt wird (Indexmiete). Während der Geltungsdauer sind andere Mieterhöhungen ausgeschlossen, ausgenommen wegen Modernisierung. Führt der Vermieter (in zulässiger Weise) wohnwertverbessernde Maßnahmen durch, kann er die Kosten dieser sog. Modernisierung gem. BGB auf den Mieter umlegen. Dabei können 11 % der auf die Wohnung entfallenen (umlagefähigen) Kosten jährlich auf die Miete dazu gerechnet werden. Zur Ermittlung der monatlichen Erhöhung muss dieser Wert somit durch 12 dividiert werden. Die Mieterhöhung ist nicht zustimmungsbedürftig, d. h. allein die (formell ordnungsgemäße) Erklärung des Vermieters führt zu einer Änderung der Miete. Die erhöhte Miete wird dann (im Regelfall) mit Beginn des dritten Monats nach Zugang der Erklärung geschuldet. Der Bundesgerichtshof hat in einem Urteil festgelegt, dass bei einer Mieterhöhung infolge von Modernisierungen als Grundlage nicht die tatsächlich entstandenen Kosten, sondern nur die notwendigen Kosten eingehen dürfen. In dem Fall war nach einem Gutachten festgestellt worden, dass zu umfangreiche Deinstallationen bei einem Einbau eines Wasserzählers vorgenommen wurden. Von einer Mieterhöhung zu unterscheiden ist die Erhöhung der Vorauszahlungen auf die Nebenkosten (insbesondere Betriebskosten und Heizkosten) bei einer Nettokaltmiete. Von dieser Möglichkeit machen Vermieter meistens im Anschluss an die jährliche Abrechnung der Nebenkosten Gebrauch, wenn die Vorschüsse des Mieters nicht zur Deckung der Nebenkosten ausgereicht haben. Die Erhöhung der Vorauszahlungen führt zwar auch zu einer höheren monatlichen Zahlungslast, nach erfolgter (korrekter) Abrechnung ist die finanzielle Belastung für den Mieter jedoch unverändert. Mietminderung. Von Mietminderung spricht man juristisch, wenn eine Mietsache einen Mangel hat oder eine zugesicherte Eigenschaft nicht aufweist und deshalb nur noch eine gekürzte Miete geschuldet wird. Bei einem Fehler oder Mangel der Mietsache ist die Miete automatisch, d. h. kraft Gesetzes, gemindert (vgl. BGB). Das bedeutet, dass eine Mietminderung weder beantragt noch genehmigt werden muss. Der Mieter „mindert“ die Miete nicht, sondern kürzt die Mietzahlung, weil sich die Miete kraft Gesetzes gemindert hat. Die gesetzliche Mietminderung ist nach Grund und Höhe („Ob“ und „Wie“) zwischen Mieter und Vermieter oft streitig. Der Mieter kann sein Recht, die Miete zu kürzen, nicht (mehr) wegen vorbehaltloser Zahlung verlieren (so noch die alte Rechtslage bis zum 31. August 2001). Das kann nur nach einem stillschweigenden Verzicht (in der Praxis unbedeutsam) oder nach den Grundsätzen von Treu und Glauben der Fall sein. Das Recht zur Kürzung der Mietzahlung steht dem Mieter auch dann zu, wenn von Vermieterseite Eigenschaften der Mietsache zugesichert worden sind, die tatsächlich nicht bestehen oder später wegfallen. Das ist zum Beispiel der Fall, wenn der Vermieter beim Vertragsschluss zusichert, bestimmte Maßnahmen durchführen zu wollen, die den Wohnwert erhöhen. Das Recht zur Mietkürzung kann sowohl bei Wohnraum- als auch bei Gewerbemietverträgen vertraglich nicht ausgeschlossen werden. Soll die Miete auf Grund eines Mangels gekürzt werden, ist die Minderungshöhe zu bestimmen. Da die Miete für die Dauer der Fehlerhaftigkeit automatisch gemindert ist (siehe oben), muss sich der Mieter nach erfolgter Mängelanzeige gegenüber dem Vermieter nur auf sein Minderungsrecht berufen. Für die Fehlerbeseitigung ist dem Vermieter eine angemessene Zeit einzuräumen, die sich nach dem konkreten Mangel bemisst (defekte Heizung im Winter verglichen mit Fußbodenleiste). Zur Höhe der Minderung im Einzelfall gibt es eine Fülle von Gerichtsurteilen, die Anhaltspunkte zur prozentualen Minderung geben. Die Urteile werden in inoffiziellen Minderungstabellen, an denen sich die Praxis orientiert, zusammenfassend dargestellt. Generell gilt, dass ein Vermieter dem Mieter bei einer berechtigten Minderung nicht kündigen darf. Das gilt auch dann, wenn die Minderung im Ergebnis zu hoch ist. Kürzt der Mieter den Mietzins wegen eines Mietmangels in einer Höhe, die über dem liegt, was das Gericht als angemessen erachtet, drohen dem Mieter im Falle einer Mietzinsklage indes insoweit Kostennachteile, als der vorgenommene Abzug über dem rechtlich zulässigen Abzug liegt. Nach einem Urteil des Bundesgerichtshofs (BGH, Az. XII ZR 225/03) bildet die Bruttomiete inklusive Nebenkosten die Basis für eine Mietminderung. Da Nebenkosten Vorauszahlungen für das ganze Jahr sind, ist aber immer noch eine Einzelfallentscheidung notwendig. Kommt es zum Streit, muss der Mieter den Mangel und die rechtzeitige Mängelanzeige beweisen. Eine frühzeitige Beweissicherung mit Hilfe von Fotos oder Zeugen ist wichtig. Vertragliche Pflichten. Im Mietvertrag sind oftmals auch weitere vertragliche Pflichten geregelt, so die Schönheitsreparaturen, Kleinstreparaturen, Regelung der Kehrwoche und Schneeräumung, Nutzung gemeinsamer Einrichtungen und ähnliches. Haustiere. Haustiere in Mietwohnungen bedürfen grundsätzlich der Genehmigung durch den Vermieter. Im Regelfall ist das im Mietvertrag geregelt. Auch wenn der Vermieter in der Wohnanlage bereits nicht erlaubnisfreie Tiere geduldet hat, bedeutet dies nicht, dass der Mieter sich einfach ein solches Tier anschaffen darf. Im Mietrecht gibt es keinen Anspruch auf Gleichbehandlung aller Mieter. Ausgenommen davon sind erlaubnisfreie Kleintiere, wie Schriftform beim Mietvertrag. Bei Mietverträgen über Wohnraum gibt es keinen Formzwang. Wird allerdings ein Wohnraummietvertrag für längere Zeit als für ein Jahr nicht in schriftlicher Form geschlossen, so gilt er für unbestimmte Zeit (S. 1 BGB). Besteht der Mietvertrag aus einem Dutzend loser Papiere, verstößt das nicht gegen die Schriftform; denn gemäß BGB ist keine körperliche Verbindung der einzelnen Blätter der Urkunde notwendig, wenn sich deren Einheit aus fortlaufender Paginierung, fortlaufender Nummerierung der einzelnen Bestimmungen, einheitlicher graphischer Gestaltung, inhaltlichem Zusammenhang des Textes oder vergleichbaren Merkmalen zweifelsfrei ergibt. Keine Probleme mit der Schriftform gibt es, wenn die Seiten mit der Heftmaschine zusammengefügt sind. Für die Einhaltung der Schriftform eines Mietvertrages reicht auch bei einem Ursprungsvertrag die wechselseitige Bezugnahme der einzelnen Blätter (gedankliche Verknüpfung); eine körperliche Verbindung ist nicht erforderlich. Die Unterzeichnungen von Mieter und Vermieter müssen nicht auf demselben Exemplar enthalten sein. Es genügt, wenn jede Partei auf dem Exemplar des anderen unterzeichnet. Allerdings muss es sich um identische Vertragsexemplare handeln. Haben beide Mietparteien identische Vertragsformulare unterzeichnet, der Vermieter aber seine Unterschrift auf dem Exemplar für den Mieter mit einem handschriftlichen Zusatz geleistet, der einen Vorbehalt enthält, so ist die Schriftform nicht mehr eingehalten und kein Vertrag zustande gekommen. Unerheblich ist dabei, ob der Vorbehalt wichtige oder geringfügige Änderungen betrifft. Beispielfall: Beide Parteien hatten einen auf zehn Jahre befristeten Gewerbemietvertrag geschlossen, der vom Mieter unterzeichnet und dem Vermieter zugeschickt wurde. Der Vermieter hatte ebenfalls unterschrieben, gleichzeitig dem Mieter einen Brief mit geringfügigen Vertragsänderungen zugeschickt und seiner Unterschrift unter dem Vertragsformular den Zusatz beigefügt, dass die Unterzeichnung „nur gemäß unserem (letzten) Schreiben“ gilt. Rechtlich wurde auf diese Weise das Angebot zum konkreten Vertragsschluss abgelehnt (Seite 6 des Urteils). Der Mieter ist in die Gewerberäume eingezogen, hatte aber nie die Änderungen gegenüber dem Vermieter bestätigt. Somit lag kein formwirksamer befristeter Mietvertrag zwischen beiden Parteien vor und der Mieter hatte das Recht, das Mietverhältnis mit dreimonatiger Kündigungsfrist vorzeitig zu kündigen. Soll ein zuvor beendetes Mietverhältnis zwischen den ursprünglichen Mietparteien fortgesetzt werden, reicht es aus und genügt der Schriftform, wenn beide Parteien in einem Schriftstück auf den Inhalt des vormals gültigen Mietvertrages konkret Bezug nehmen. Die Wiederholung des gesamten Textes ist überflüssig. Mietschuldenfreiheitsbescheinigungen. Vermieter verlangen vor Abschluss eines Mietvertrags gern die Vorlage einer Mietschuldenfreiheitsbescheinigung. Der Mieter hat laut BGH gegenüber seinem Vermieter jedoch lediglich Anspruch auf eine Quittung für geleistete Zahlungen, aber nicht auf eine weitergehende Bescheinigung. Mietverhältnisse über Gewerberaum, gewerbliche Nutzung. Eine Besonderheit des deutschen Mietrechts ist es, zwischen einer Nutzung zu gewerblichen Zwecken und einer Nutzung des Mietobjekts zu Wohnzwecken zu unterscheiden. Eine mittelbare Folge der großen Wohnungsknappheit mit entsprechenden Auswüchsen nach Ende des II. Weltkriegs war die Einführung einer „sozialen“ Mietgesetzgebung mit einem sehr ausgeprägten Mieterschutz in den 70er Jahren (später vielfach korrigiert und geändert). Objekte, die zu gewerblichen Zwecken vermietet wurden, mussten daher vom Mieterschutz ausgenommen werden. In guten Mietverträgen sollte festgelegt sein, ob die Vermietung zu Wohnzwecken oder zu anderen (gewerblichen) Zwecken erfolgt. Vereinbarungen, wonach die Nutzung nur gewerblich oder nur zu Wohnzwecken (=Nutzungseinschränkungen) erfolgt, sind zulässig. Übt ein Mieter in einer zu Wohnzwecken gemieteten Wohnung eine gewerbliche Tätigkeit aus, kann das zum Verlust des Mieterschutzes und einer Kündigung führen. Mietverhältnisse über Bodenflächen. In der DDR war es möglich Bodenflächen zu mieten und darauf Bauwerke zu errichten. Mit dem Schuldrechtanpassungsgesetz können die Bauwerke 2022 in das Eigentum des Grundstückseigentümer übergehen. Makedonien. Makedonien (auch "Mazedonien";; und "Makedonija" Македониjа;;;) ist ein historisches Gebiet auf der südlichen Balkanhalbinsel. Es hat eine Fläche von etwa 67.000 Quadratkilometern und eine Bevölkerung von rund fünf Millionen. Der größere, südliche Teil des Gebietes bildet heute die Region Makedonien in Nord-Griechenland. Der kleinere, nördliche Teil bildet den Staat, der 1991 als "Republik Mazedonien" seine Unabhängigkeit von Jugoslawien erklärte. Weitere kleinere Teile gehören zu Südwest-Bulgarien und Südost-Albanien. Altertum (ca. 1400 v. Chr. bis 600 n. Chr.). Die Antwort auf die Frage, wie „griechisch“ die antiken Makedonen waren, hat auch heute noch eine gewisse politische Brisanz. Die modernen Griechen erheben den Anspruch, Alexander der Große und die übrigen Makedonen seien Hellenen und Makedonien damals wie heute ein Teil Griechenlands gewesen, weshalb die Selbstbezeichnung des modernen, slawisch geprägten Staates Mazedonien vielfach als Provokation empfunden wird. Das Gebiet des späteren Makedoniens war bereits in der Jungsteinzeit besiedelt. Einer Forschungsansicht zufolge sind die Makedonen gemeinsam mit den Nordwestgriechen um 1200 v. Chr. in dieses Gebiet eingewandert und haben sich dort angesiedelt. Einige antike Historiker beschreiben die Makedonen hingegen als eine Mischbevölkerung aus Phrygern, Thrakern und Illyrern, die nicht als ein griechischer Stamm eingewandert seien. Die momentan vorherrschende Forschungsmeinung sieht die Makedonen als nordgriechischen Stamm an, der sich zunächst aufgrund enger Kontakte zu Thrakern und Illyrern kulturell von den übrigen Griechen unterschied, doch wird dies nach wie vor von einer Minderheit bezweifelt, die darauf hinweist, dass antike Quellen bis zu Polybios die Makedonen oftmals "nicht" als Griechen betrachteten, sondern als Barbaren ("siehe unten") oder in ihrer Einordnung schwankten. Auch über die makedonische Sprache gibt es unterschiedliche Auffassungen, denn die Quellenlage ist sehr unergiebig, und wahrscheinlich starb das Makedonische bereits während der Antike aus. Nach Auffassung des Linguisten Otto Hoffmann ("Die Makedonen", 1906) ergibt sich aus dem Schriftmaterial, insbesondere den Personen-, Orts- und Monatsnamen, dass die makedonische Sprache oder der makedonische Dialekt griechisch war. Diese Auffassung vertreten auch einige Sprach- und Geschichtswissenschaftler jüngerer Zeit (Ivo Hajnal, Hermann Bengtson, Nicholas G. Hammond). Die Frage, ob die Makedonen Griechen waren, ist daher beim heutigen Forschungsstand nicht zu beantworten, auch wenn viele Experten (etwa Hans-Ulrich Wiemer) überzeugt sind, dass sie Griechen gewesen seien, denen insbesondere in den athenischen Quellen (vor allem bei Demosthenes) aus politischen Gründen ihr Hellenentum bewusst abgesprochen worden sei. Vor dem 19. Jahrhundert gab es niemals einen griechischen Nationalstaat, sondern die durch gemeinsame Kultur, Religion und Sprache verbundene Gemeinschaft der griechischen Klein- und Stadtstaaten. Von besonderer Bedeutung war die Teilnahme von Angehörigen des makedonischen Königshauses an den Olympischen Spielen, die in klassischer Zeit nur Griechen gestattet war. Sie ist erstmals für König Alexander I. bezeugt, der um 500 v. Chr., noch vor seinem Regierungsantritt, als junger Mann in Olympia zugelassen wurde, da er die dortigen Priester überzeugen konnte, er sei ein Nachfahre von Herakles und Achilleus und daher ein Grieche. 408 v. Chr. siegte das Viergespann des makedonischen Königs Archelaos I. im olympischen Wagenrennen. Diese Anerkennung des Griechentums bezog sich aber ausschließlich auf die Königsfamilie, nicht auf die Makedonen als Volk, die von den übrigen Hellenen oftmals nicht als Griechen, sondern als „Barbaren“ (Nicht-Griechen) betrachtet wurden. Eine wichtige Quelle hierfür ist die Rede an den Makedonenkönig Philipp II., die der Athener Isokrates im Jahr 346 veröffentlichte und dem Herrscher übersandte. Darin erklärt er, Philipps Vorfahren hätten als Griechen die Herrschaft über ein nichtgriechisches Volk, die Makedonen, errungen; für dieses barbarische Volk sei eine Monarchie angemessen, von Griechen hingegen werde diese Herrschaftsform grundsätzlich nicht ertragen, denn Barbaren müsse man zwingen, Griechen hingegen überreden. a>, König Makedoniens (359–336 v. Chr.) Das Makedonische Reich unter Philipp II. Den Grundstein zur Großmachtstellung legte König Archelaos I. (413–399 v. Chr.). Unter seiner Herrschaft zog es viele griechische Gelehrte und Künstler an seinen Hof. Ein weiterer König war Perdikkas II., ein Zeitgenosse des Thrakerkönigs Sitalkes. Zur führenden Macht im antiken Griechenland wurde Makedonien binnen weniger Jahre jedoch erst ab 356 v. Chr. durch König Philipp II. Er konnte Ober- und Niedermakedonien erstmals fest miteinander verbinden, organisierte das Heer neu und begann, den makedonischen Einflussbereich durch Eroberungen und Unterwerfungen auszuweiten. Die Ausweitung des makedonischen Herrschaftsbereichs unter Philipp II. brachte das Königreich Makedonien in einen Konflikt mit Athen, welches seine Interessen in Makedonien (Erzbergbau am Pangeo-Gebirge, Siedlungen und Handelsstützpunkte auf der Chalkidiki) gefährdet sah. Erschwerend kam hinzu, dass die Vorgänger von Philipp II. im Peloponnesischen Krieg von 431 bis 404 v. Chr. mit dem athenischen Kriegsgegner Sparta teilweise koaliert hatten. Das Königreich Makedonien war allerdings nicht unumstrittener Herrscher in Makedonien. Der Chalkidikische Bund, ein Städtebund unter der Führung der Stadt Olynth, konnte Anteile von Makedonien (Anthemoundas-Tal am Thermaischen Golf und Mygdonia) für sich einnehmen und bedrohte zeitweilig sogar Pella, ohne dieses allerdings belagern oder angreifen zu können. Philipp II. führte aufgrund dieser Interessenkonflikte eine vorsichtige und taktierende Außenpolitik mit zum Teil wechselnden Bündnissen, welche im Endeffekt ihm eine Konsolidierung und nachfolgend Ausdehnung seines Machtbereichs erlaubten. Der Konflikt mit Athen wurde mit der Einnahme von Amphipolis östlich des erzführenden Pangeo-Gebirges durch makedonische Truppen unter Philipp II. mehr als offensichtlich. Die Versuche Athens, vor allem des Politikers (Demagogen) Demosthenes, im Konflikt des zweiten Olynthischen Kriegs 350 bis 348 v. Chr. zugunsten von Makedoniens Gegner, dem Chalkidikischen Bund unter der Führung von Olynth, einzugreifen, waren unzureichend und zu spät. Philipp II. zerstörte 348 v. Chr. Olynth, löste den Chalkidikischen Bund auf und hatte hiernach „den Rücken für eine Auseinandersetzung mit den griechischen Stadtstaaten frei.“ Wiederum eröffnete Philipp II. nicht direkt einen Feldzug gegen die griechischen Stadtstaaten, sondern verschaffte sich mit seinem Eingreifen in den dritten heiligen Krieg der delphischen Amphyktionie, eines religiösen Bundes der griechischen Stadtstaaten, Respekt und Anerkennung sowie einen Sitz im Rat der Amphyktionie. Den Sitz im Amphyktionenrat mit zwei Stimmen erhielt er für sich persönlich aufgrund seiner Verdienste, nicht als Vertreter der Makedonen, die weiterhin im Unterschied zu ihrer Königsfamilie nicht als Griechen anerkannt waren. Trotz dieser Integration Philipps als „Grieche“ blieben die Spannungen zwischen ihm und Athen sowie den anderen griechischen Stadtstaaten, teilweise mit der Ausnahme von Theben, bestehen. Unter athenischer Führung erhoben sich die griechischen Stadtstaaten gegen die drohende makedonische Hegemonie über das gesamte Gebiet von Griechenland, wurden jedoch 338 v. Chr. in der Schlacht von Chaironeia von den Makedonen unter der Führung Philipps II. und seines Sohnes Alexander besiegt. Der Makedonenkönig vereinte nun die zersplitterten und meist zerstrittenen griechischen Stadtstaaten im Korinthischen Bund auf der Basis eines Allgemeinen Friedens und schuf damit erstmals in der Geschichte ein geeintes Griechenland, nur mit Ausnahme Spartas und der griechischen Kolonien im westlichen Mittelmeer. Ungeachtet dieser Einigung schrieb der Korinthische Bund die Heeresfolge der griechischen Stadtstaaten gegenüber Philipp II. und dem Königreich Makedonien fest, was zugleich Sinnbild der makedonischen Hegemonie über die griechischen Stadtstaaten war. An der damaligen makedonischen Nordgrenze eroberte Philipp II. die Landschaft Lynkestis (entspricht der Region um die Prespaseen). Als seit spätestens 338 v. Chr. politisch dominante Macht in ganz Griechenland prägten die Makedonen die Bezeichnung „Makedonien“ zunächst für die sich bildende staatliche Struktur. Als Bezeichnung der Landschaft blieb auch „Epeiros“ (griechisch: „Festland“) geläufig. Staatsform war die Monarchie. Der König wurde von der Heeresversammlung gewählt. Ausschlaggebend für die makedonischen (militärischen) Erfolge waren vor allem die Heeresreform Philipps II. mit der Einführung der makedonischen Phalanx-Technik sowie der Sarissa. Unter Philipps Sohn Alexander dem Großen erreichte Makedonien den Höhepunkt seiner Macht und seine größte Ausdehnung. Unter dem Vorwand eines „Rachefeldzugs“ für den Persereinfall in Griechenland 170 Jahre zuvor führte er 334 v. Chr. ein gesamtgriechisches Heer nach Kleinasien und besiegte in drei Schlachten – am Granikos, bei Issos und Gaugamela – die Perser vernichtend. Er eroberte nacheinander Ägypten und das Persische Kernland und dehnte sein Reich bis zum Hindukusch und zum Indus aus. Damit schuf er die Voraussetzung für die Hellenisierung ganz Vorderasiens. Nach Alexanders Tod im Jahr 323 v. Chr. in Babylon zerfiel das Großreich unter den Kämpfen seiner Nachfolger, der Diadochen. Aus dem Alexanderreich ging in Vorderasien die Herrschaft der Seleukiden hervor und in Ägypten die der Ptolemäer. Diese makedonische Dynastie sollte das Land am Nil 300 Jahre regieren, bis zum Tod Königin Kleopatras 30 v. Chr. Die Herrschaft der ebenfalls makedonischen Seleukiden war bereits 64 v. Chr. von Pompeius beendet worden. Das Königreich Makedonien selbst, das im Alexanderzug und in den blutigen Diadochenkriegen zahllose Männer eingebüßt hatte, verlor dagegen zunächst an Bedeutung, es kam zu Thronwirren. Im Jahre 280 v. Chr. marschierte dann im Rahmen der Keltischen Südwanderung eine Armee von etwa 85.000 keltischen Kriegern nach Makedonien und Zentralgriechenland. Sie ließen sich jedoch, nachdem sie 277 von Antigonos II. Gonatas besiegt worden waren, in Thrakien (Tylis) und Anatolien nieder (Galater). Antigonos II. etablierte sich auf dem Thron, und die Dynastie der Antigoniden konnte Makedonien noch einmal zur Vormacht über Hellas machen, ihr Machtbereich schrumpfte infolge dreier Makedonisch-Römischer Kriege aber immer mehr zusammen: Der tatkräftige König Philipp V. führte die ersten beiden dieser Kriege und büßte nach dem Ende des zweiten im Jahr 196 v. Chr. die Hegemonie über Griechenland ein. Sein Sohn und Nachfolger Perseus war dann der letzte Makedonenkönig: 168 v. Chr. erzwang Rom in einem überaus blutigen dritten Krieg das Ende des antigonidischen Königtums und die Aufteilung Makedoniens in vier formal selbständige Gebiete. Diese wiederum wurden 20 Jahre später als Provinz "Macedonia" formal ins Römische Reich eingegliedert, das nun auch im östlichen Mittelmeerraum zur führenden Macht aufgestiegen war. Einiges spricht dafür, dass die meisten Makedonen während dieser Jahre entweder in den Kämpfen umkamen oder das Land verließen, um sich insbesondere in Kleinasien niederzulassen. Nach Ausweis der (wenigen) Inschriften, die zwischen 168 und Augustus in der Gegend gesetzt wurden, scheint zumindest die makedonische Sprache außer Gebrauch geraten zu sein, und mutmaßlich traten nun Menschen aus Thrakien, Illyrien und Griechenland an die Stelle der Makedonen. Über die Geschichte Makedoniens in dieser Zeit ist allerdings fast nichts Sicheres bekannt. Seit der Errichtung des römischen Kaisertums durch Augustus erlebte das Gebiet einen gewissen Aufschwung. Bei der so genannten Reichsteilung von 395 n. Chr. fiel das Land dann an das Oströmische Reich, das kulturell und sprachlich griechisch geprägt war. Im 4. und 5. Jahrhundert fielen Hunnen und Goten in Makedonien ein, ließen sich dort jedoch nicht nieder. Mit den Slawen- und Awareneinfällen im späten 6. Jahrhundert endete dann in dieser Region die Spätantike. Makedonien im Mittelalter (582–1371). a> im 7. Jahrhundert, Grenze des nominellen byzantinischen Herrschaftsgebietes lila Seit dem 7. Jahrhundert besiedelten Slawen den Balkan, darunter auch Makedonien und große Teile Griechenlands. Dadurch kam es zu tiefgreifenden ethnischen Änderungen: Die Slawen vermengten sich mit der ortsansässigen Bevölkerung, die sich aus Paionen (protobulgarische Stämme aus Paionien unter der Führung von Kuber), antiken Makedonen und anderen ethnischen Elementen zusammensetzte. Bereits im 7. Jahrhundert war Makedonien offenbar so sehr slawisch geprägt, dass es in byzantinischen Quellen auch als "Sklavinia (Σκλαυινία)" bezeichnet wurde. Allerdings blieb in den Städten die byzantinische Kultur nach wie vor lange erhalten. Im oströmisch-byzantinischen Reich wurden die Slawen zu einem bedeutenden Faktor und sicherten sich ausgedehnte Siedlungsräume überwiegend im Kernland des geographischen Makedoniens und Thrakiens und drängten die hellenisierte Bevölkerung bis auf ein paar Inseln im Binnenland immer mehr an die Küsten. Seit dem 8. Jahrhundert übertrug sich jedoch die Bezeichnung Makedonien auf ein anderes, weiter östlich gelegenes geographisches Gebiet, das weder mit dem Makedonien der Antike noch mit der gegenwärtigen geographischen Bezeichnung übereinstimmte. Das mittelalterliche Mazedonien umfasste damit eine andere Region, mit der Stadt Adrianopel als Zentrum, die im heutigen Thrakien lag. Erst mit dem Klassizismus und im Zuge der Unabhängigkeitsbewegungen der Balkanvölker bekam die Region ihren antiken Namen zurück, im Mittelalter war sie jedoch meist unter Pelagonien oder Kisinas bekannt. Südosteuropa und Kleinasien im Jahr 910 Südosteuropa und Kleinasien um 1000 Im 9. Jahrhundert geriet der größte Teil der heutigen Region Makedonien unter die Herrschaft des ersten bulgarischen Reiches mit dem Herrscher Krum Khan. 811 verlor das byzantinische Reich die Schlacht am Warbiza-Pass gegen das erste bulgarische Reich. Zwei Jahre später, 813, wiederholte sich die byzantinische Niederlage gegen das erste bulgarische Reich in der Schlacht von Adrianopel. Der byzantinische Machtbereich schrumpfte nachfolgend zugunsten des bulgarischen zusammen; vor allem Thrakien und Makedonien kamen unter die Kontrolle des bulgarischen Reiches mit seinen Herrschern Presian I. (836–852), Boris I. (852–889), Simeon I. (893–927) und Peter I. (927–969). Um diese Zeit fand eine Christianisierung der Bevölkerung statt, sowie die Verbreitung von slawischer Literatur, die in glagolitischer und kyrillischer Schrift verfasst wurde. Nach dem Tod von Zar Peter 969 zeigte das erste bulgarische Reich Zerfallserscheinungen. Das byzantinische Reich unter Kaiser Basileios II. (bulgarisch Wasilij II.) "Bulgarroktonos" (der „Bulgarentöter“) konnte in der Schlacht von Kleidion am 29. Juli 1014 die Bulgaren unter Zar Samuil besiegen. Nachfolgend wurde die heutige Region Makedonien in das Byzantinische Reich eingegliedert. 1185 unternahmen Normannen eine Belagerung von Thessaloniki, nachdem sie aus Italien angekommen an der heutigen albanischen Küste bei Durres gelandet waren. 1204 fiel im vierten Kreuzzug die byzantinische Hauptstadt Konstantinopel (heute Istanbul) an die Kreuzfahrer, welche nachfolgend Kreuzfahrerstaaten errichteten. Die südlichen Teile der geographischen Region wurden dabei unter die Kontrolle des Königreich Thessaloniki mit seinem König Bonifatius von Montferrat gestellt. Direkt nach der Etablierung der lateinischen Kaiser- und Königreiche kam es zu bewaffneten Auseinandersetzungen zwischen den lateinischen Staaten und dem Bulgarischen Reich. 1205 unterlag das Lateinische Kaiserreich von Byzanz den Bulgaren unter Zar Kalojan in der Schlacht von Adrianopel und verlor seinen Kaiser Balduin in bulgarischer Gefangenschaft. Dem zweiten bulgarischen Reich gelang damit die Etablierung einer Kontrolle über weite Teile insbesondere des Norden der heutigen Region Makedonien (und Thrakien). 1207 starb der König von Thessaloniki Bonifatius von Montferrat in einem Gefecht mit bulgarischen Truppen; im gleichen Jahr verstarb der bulgarische Zar Kalojan bei der Belagerung von Thessaloniki. Nachfolgend schrumpfte das Herrschaftsgebiet des Königreichs Thessaloniki in Norden und Nordosten unter Druck des bulgarischen Reiches sowie im Südwesten und Westen durch Druck des Despotats Epirus. 1224 wurde der südliche Teil des antiken Makedoniens durch das Despotat Epirus mit der Einnahme der Stadt Thessaloniki erobert. Das expandierende Despotat Epirus geriet darauf hin in Konflikt mit dem ebenfalls expandierenden bulgarischen Reich. Balkanhalbinsel mit Makedonien in den Jahren 1230 bis 1251 Mit der für die Bulgaren und das zweite bulgarische Reich unter Zar Iwan Assen II. siegreichen Schlacht von Klokotniza 1230 wurde geographische Region Makedonien unter die Kontrolle des zweiten bulgarischen Reiches gestellt. 1259 fielen mit der Schlacht von Pelagonien die südlichen Anteile der geographischen Region Pelagonien wieder an das byzantinische Reich. 1321 brach im byzantinischen Reich ein Bürgerkrieg aus, welcher auch den Süden der geographischen Region Makedonien betraf. Im Zuge dieses Bürgerkriegs wurden landwirtschaftliche Betriebe und Besitzungen zerstört. 1330 führte der bulgarische Herrscher Michail Schischman Assen einen Feldzug gegen Nordostmakedonien, welcher gegen den serbischen König gerichtet war, scheiterte jedoch in der Schlacht bei Welbaschd. Die bereits im byzantinischen Bürgerkrieg sichtbar gewordenen Unruhen setzten sich mit Aufständen in den Städten Pelagoniens fort. Der prominenteste dieser Aufstände war die Zeloten-Herrschaft in Thessaloniki von 1342 bis 1349, welcher zur weitgehenden Entmachtung des byzantinischen Adels und Klerus in Thessaloniki führte. Mitte des 14. Jahrhunderts bis 1355 eroberte das serbische Königreich unter Stefan Uroš IV. Dušan die gesamte heutige Region Makedonien mit Ausnahme von Thessaloniki und seiner unmittelbaren Umgebung und darüber hinaus weite Teile des griechischen Festlandes. Nach dessen Tod 1355 konnte sich die serbische Kontrolle nicht halten und die Gebiete einschließlich der antiken Region Makedonien gelangten für kurze Zeit erneut unter byzantinische Herrschaft. Makedonien als Teil des Osmanischen Reichs (1371–1800). Die geographische Region Makedonien wurde ab 1371 schrittweise durch das Osmanische Reich erobert. 1369 machte das Osmanische Reich unter Sultan Murat I. Adrianopel zu seiner Hauptstadt. 1371 unterlag eine kombiniert serbisch-bulgarische Streitmacht unter den serbischen Teilkönigen Jovan Uglješ und Vukašin Mrnjavčević (Region Serres und Region Prilep) dem osmanischen Heer in der Schlacht an der Maritza. Nach diesem Sieg erweiterten die Osmanen ihr Herrschaftsgebiet kontinuierlich nach Westen und bekamen somit auch die Region Makedonien unter ihre Kontrolle. 1387 fällt die Stadt Thessaloniki an die Osmanen. 1389 kommt es zur Schlacht auf dem Amselfeld, welche das osmanische Reich erneut gewinnt und damit seine Herrschaft in der Region Makedonien konsolidiert. Die Besetzung von Skopje erfolgt 1392. Balkanhalbinsel in den Jahren 1453 bis 1888. Sowohl Bulgarien als auch das Byzantinische Reich können der osmanischen Expansion nichts wesentliches entgegensetzen. 1402 konnte Kaiser Manuel II. durch geschicktes Lavieren im nach der türkischen Niederlage gegen die Mongolen ausgebrochenen osmanischen Interregnum Thessaloniki auf diplomatischem Wege zurückgewinnen, der byzantinische Herrschaftsbereich blieb aber auf die Stadt und ihre unmittelbare Umgebung (Halbinsel Kassandra und westliche Chalkidiki) beschränkt. Bereits 1423 erlaubten die Byzantiner die Stationierung einer venezianischen Garnison in Thessaloniki und auf Kassandra. Die Zuhilfenahme venezianischer Truppen konnte die osmanische Expansion nicht aufhalten: 1430 wurde Thessaloniki und die venezianische Besitzung auf Kassandra von den Osmanen erobert. Die gesamte geographische Region Makedonien war damit unter Kontrolle des osmanischen Reiches und verblieb dort bis 1912 für knapp 500 Jahre. Makedonien zwischen 1800 und dem Ende des Zweiten Weltkriegs 1945. Während der türkischen Herrschaft gab es gemeinsame Bestrebungen der Bulgaren, Serben und Griechen, sich vom Osmanischen Reich zu lösen. Nach der Befreiung Südgriechenlands und der Proklamation des griechischen Staates 1829 folgten viele Griechen der sogenannten "Megali Idea" („Große Idee“), die das Ziel setzte, die restlichen griechischen Gebiete vom osmanischen Joch zu befreien und einen griechischen Staat mit der Hauptstadt Konstantinopel zu schaffen. In Makedonien wiederum liegen die Anfänge der Bulgarischen Nationalen Wiedergeburt, einer Periode des sozio-ökonomischen Wachstums und der nationalen Einigung des bulgarischen Volkes. Balkanhalbinsel mit Makedonien im Jahr 1888 1864 gliederte sich die geographische Region Makedonien in sechs Verwaltungsbezirke (Vilayet) des osmanischen Reiches. Die Vilayets in der geographischen Region Makedonien waren (Hauptstadt in Klammern) Adrianopel (Edirne), Selanik (Thessaloniki), Manastir (Bitola), Yanya (Ioannina), Ishkodra (Shkodra) und Kosovo (Skopje). Eine Verwaltungsregion Makedonien oder Mazedonien bestand dabei für das osmanische Reich bis 1903 weder direkt noch indirekt. Ab 1903 wurde vom osmanischen Reich im Zuge der osmanischen wie auch internationalen Reformbemühungen (beispielsweise Mürzsteger Programm) von den "vilayat-i selase", den drei Vilayets, gesprochen, welche sich auf dem Gebiet der geographischen Region Makedonien befanden. Für Bulgarien beendete der "Vorfrieden von San Stefano" 1878 die türkische Herrschaft. Makedonien jedoch wurde von den Großmächten auf dem im gleichen Jahr stattfindenden Berliner Kongress dem Osmanischen Reich zugesprochen. Zwischen 1872 und 1912 bauten sich zwischen den Bevölkerungsgruppen der geographischen Region Mazedoniens zunehmend Spannungen auf. Ein Spannungsfeld war dabei der Schulkampf zwischen griechisch-orthodoxem Patriarchat in Konstantinopel (Istanbul), der serbischen Schulbehörde und dem bulgarischen Exarchat. Oswald Spengler bemerkte hierzu 1923 in seinem Werk "Untergang des Abendlandes:" 1893 entstand in Thessaloniki die bulgarische Freiheitsbewegung "BMARK" (Bulgarische Makedonien-Adrianopeler Revolutionäre Komitees). Nach mehreren Attentaten organisierte sie 1903 den Ilinden-Probraschenie-Aufstand gegen die Türken. Der Aufstand führte zu den Gründungen der "Republik Kruševo" in Mazedonien und der "Strandscha-Republik" im türkischen Vilayet Adrianopel, die beide nur jedoch sehr kurz bestanden. 1912/13 führte der Balkanbund (Serbien, Bulgarien, Griechenland und Montenegro) Krieg gegen das Osmanische Reich um Makedonien und Thrakien "(Erster Balkankrieg)". Das Osmanische Reich musste seine europäischen Besitzungen zum größten Teil aufgeben. Danach entzündete sich der Streit um die Aufteilung der eroberten Gebiete. Dies führte noch 1913 zum "Zweiten Balkankrieg", aus dem Bulgarien als Verlierer hervorging. Der größte Teil der historischen Region Makedonien fiel danach an Griechenland "(Griechisch oder „Ägäis-Makedonien“/Makedonia)" und Serbien "(„Vardar-Makedonien“/Süd-Serbien)". Der nordöstliche Teil kam an Bulgarien ("„Pirin-Makedonien“"/Blagoewgrad) und ein kleiner Teil im Nordwesten an Albanien "(Mala Prespa)". Der an Griechenland gefallene Teil Makedoniens war von 528.000 (44,2 %) griechischen Makedoniern (Griechen), 465.000 (38,9 %) Muslime-Türken (türkischsprechenden Muslimen) und Pomaken (bulgarische Muslimen), 104.000 (8,7 %) Bulgaren und Slawen und 98.000 (8,2 %) Ladino sprechenden Juden und Walachen bewohnt. Im Ersten Weltkrieg wurde das Gebiet des heutigen Mazedonien erneut an Bulgarien angeschlossen, 1919 verlor dieses die eroberten Gebiete aber wieder und es wurden die Grenzen von 1913 wiederhergestellt. Der serbische Teil des Gebietes wurde Teil des Königreiches der Serben, Kroaten und Slowenen. Im griechischen Teil wurden im Zuge des Bevölkerungsaustausches mit der Türkei 1923 "(Lausanner Vertrag)" 350.000 vorwiegend türkische Muslime vertrieben und 565.000 griechische Flüchtlinge aus der heutigen Türkei, vor allem aus Konstantinopel (Istanbul) und Smyrna (Izmir), angesiedelt. 86.000 Bulgaren wurden nach Bulgarien umgesiedelt. Infolgedessen ist diese Region heute in überwiegender Mehrheit griechisch bevölkert. Mit dem Ziel eines sprachlich homogenen Nationalstaates wurde die Hellenisierung durch Umsiedlung und Assimilation, teilweise auch gewaltsam angestrebt. Slawische Ortsnamen wurden durch griechische ersetzt, und bis Ende der 1940er Jahre wurde die Pflege des slawischen Idioms zum Teil erschwert, wobei dessen Sprecher oft Repressalien seitens der staatlichen Behörden ausgesetzt waren. Im zu Serbien bzw. ab 1918 zum "Königreich der Serben, Kroaten und Slowenen" (ab 1929 "Königreich Jugoslawien") gehörenden Teil Makedoniens wurden die Slawen Mazedoniens von den Behörden als Süd-Serben (ab 1929 "Vardarska banovina") betrachtet. Die Geschichte wiederholte sich im Zweiten Weltkrieg, ab 1941 stand der nördliche Teil Makedoniens unter bulgarischer Besatzerherrschaft, ein kleiner Teil war von deutschen Truppen besetzt. 1944 wurden die Vorkriegsgrenzen wiederhergestellt und die slawischen Mazedonier vom sozialistischen Jugoslawien zum Staatsvolk erklärt. Die historische Region Makedonien im Kalten Krieg (1945–1990). In Vardar-Mazedonien setzte nach der Anerkennung als jugoslawische Teilrepublik samt Anerkennung einer (slawo-)mazedonischen Nation eine Phase der politischen Stabilität ein. Gleichsinniges kann für Pirin-Makedonien angenommen werden. Trotz dieser „inneren“ Befriedung war die Region nicht spannungsfrei, sondern wurde gegenteilig einer der ersten Schauplätze des kalten Krieges und fortgesetzter politischer Auseinandersetzungen, welche erneut von nationalistischen Strömungen und Einflüssen befördert wurden. Tito hatte Pläne für ein vereintes kommunistisches Groß-Makedonien, entweder unabhängig oder unter jugoslawischer Ägide oder als Teil einer Balkanunion, vorgebracht. Erfolgreich waren diese Pläne nicht; zum einen entstand zwischen Bulgarien und Jugoslawien trotz kommunistischer Führung in beiden Staaten ein unveränderter Gegensatz hinsichtlich der Anschauung einer Nation Mazedonien bzw. Slawomazedonien. Die bulgarischen Kommunisten negierten die Existenz einer solchen, Tito erkannte sie ausdrücklich an. Trotz des bis 1948 noch vorhandenen Einflusses der Komintern-Zentrale in Moskau war eine Verständigung nicht möglich. Der Gegensatz zwischen Bulgarien und Jugoslawien wurde durch den Austritt Jugoslawiens aus der Komintern 1948 (Titos Bruch mit Stalin) verschärft. Zwar gewann Tito hierdurch politischen Handlungsspielraum, als dass er das Stalin-Churchill-Übereinkommen bezüglich der sowjetisch-britischen Interessenssphären auf dem Balkan von 1944 ignorieren konnte. Allerdings fehlte ihm die Unterstützung einer Siegermacht und späteren Supermacht. Die nach dem Bruch erfolgte Annäherung Jugoslawiens an die USA brachte Tito in Konflikt mit dem seit 1946 tobenden griechischen Bürgerkrieg, wo die USA sich ab 1947 auf seiten der rechtsgerichteten griechischen Regierung massiv engagierten. Der griechische Bürgerkrieg hatte Ende März 1946 begonnen. Die kommunistisch kontrollierten Rebellen der DSE kämpften gegen die rechtsgerichtete Zentralregierung in Athen, welche 1946 und 1947 von Großbritannien, ab März 1947 im Rahmen der Truman-Doktrin von den USA unterstützt wurde. Die Kommunistische Partei Griechenlands hatte nicht ohne innere Auseinandersetzungen eine Autonomie oder auch eine Unabhängigkeit der geographischen Region Mazedonien als politischen Programmpunkt vertreten (zugleich auch Komintern-Standpunkt), was ihr in einem substantiellen Teil der griechischen Bevölkerung viele Sympathien kostete. Im Sinne dieser Programmatik fochten auf Seiten der DSE auch (slawo-)mazedonische Rebellen in einer separaten Organisation, der NOF gegen die griechische Zentralregierung. Die DSE-Rebellen hatten sowohl in Jugoslawien als auch in Albanien operative Stützpunkte und Rückzugsgebiete, welche nicht in unmittelbarer Reichweite der griechischen Streitkräfte lagen. Selbst Hinweise von Untersuchungskommissionen der Vereinten Nationen auf die Unterstützung der DSE von Albanien und Jugoslawien aus wurden durch den immer schärfer werdenden Ost-West-Gegensatz im UN-Sicherheitsrat und in der UN-Vollversammlung quasi neutralisiert oder selbst zum Streitpunkt. Der Bruch Titos mit Stalin 1948 leitete als einer der Faktoren die Niederlage der DSE – und damit auch die Niederlage der NOF – ein. Albanien gewährte 1949 den DSE-Rebellen zwar Zuflucht, aber keine aktive Unterstützung, so dass die DSE Ende September 1949 den griechischen Regierungstruppen endgültig unterlag. Damit waren die Chancen der NOF eine (slawo-)mazedonische Autonomie oder gar Unabhängigkeit auf griechischem Territorium zu bewirken vergangen. Als Folge des griechischen Bürgerkrieges flüchteten sowohl ethnisch griechische DSE-Rebellen als auch ethnische (Slawo-)Mazedonier nach Jugoslawien, Albanien und weiter in die Ostblockstaaten. Auch wurden – teils mit, teils auch ohne Zustimmung der Eltern – Kinder in die Ostblockstaaten geführt (deca begalci). Insbesondere in Bitola, Gevgelija und Titov Veles entstanden so beachtliche Gemeinden teils geflohener, teils vertriebener Griechen und slawischer Mazedonier. Innerhalb der SFR Jugoslawien gehörte Mazedonien zu den wirtschaftlich rückständigsten Gebieten, mit einer Wirtschaftskraft von weniger als 75 % des gesamtjugoslawischen Durchschnitts. Eine große Rolle spielte die Landwirtschaft, insbesondere der großflächige Tabak- und Baumwollanbau. Die Industrie der rohstoffarmen Republik war nur gering entwickelt und war in erster Linie auf Stahl und Textilerzeugnisse konzentriert. In Griechenland waren die Folgen von Zweitem Weltkrieg und anschließendem Bürgerkrieg für die Situation in den Verwaltungsregionen des griechischen Makedoniens erheblich. Eine deutliche Abwanderungswelle setzte in den 1950er und 1960er Jahren der Bevölkerungsdichte vor allem in Westmakedonien zu. Die (Slawo-)Mazedonier verließen Westmakedonien infolge der Verneinung kultureller Rechte und wegen der prekären wirtschaftlichen Verhältnisse. Auch viele ethnische Griechen wanderten aus wirtschaftlichen Gründen ab. Die griechischen Nachkriegsregierungen ab 1950 akzeptierten die Existenz einer (slawo-)makedonischen Minderheit nicht; die Ausübung entsprechender Rechte bezüglich Sprache, Bekleidung öffentlicher Ämter und ggf. Schulbildung wurde verweigert, auch mit strafrechtlichen Sanktionen. Einen Höhepunkt fand diese Politik in den Jahren der griechischen Militärdiktatur von 1967 bis 1974. Zwischenzeitlich gab es allerdings auch erhebliche Entspannungsbemühungen wie einen Vertrag zum unbürokratischen kleinen Grenzverkehr zwischen Nordgriechenland und der jugoslawischen Teilrepublik Mazedonien. Seit 1974 hat sich die Situation der (slawo-)mazedonischen Minderheit verbessert, bietet Menschenrechtsorganisationen aber noch genug Kritikpunkte. Eine Anerkennung seitens des griechischen Staates hat weiterhin nicht stattgefunden; vielmehr wird von "slawophonen Griechen" gesprochen. Der Kalte Krieg und der hierdurch mitten durch die geographische Region Mazedonien verlaufende eiserne Vorhang hatten auf das Konfliktpotential in der geographischen Region eine unbestreitbar stabilisierende Wirkung. Während bis 1950 wiederholt Kriege und Aufstände die geographische Region betrafen, herrschte seit 1950 zumindest dahingehend Frieden, dass die Konflikte nicht mit Waffengewalt ausgefochten wurden. Die Konflikte bestanden aber unvermindert weiter. Bulgarien weigerte sich, eine (slawo-)mazedonische Nation anzuerkennen, was zwischen 1952 und 1967 zu einer scharfen diplomatischen Auseinandersetzung mit Jugoslawien führte, welche genau diese (slawo-)mazedonische Nation ausdrücklich anerkannt hatte. Jugoslawien wiederum bemühte sich um die (slawo-)mazedonische Minderheit in Nordwestgriechenland, was seitens Griechenlands nicht als kulturelle Fürsorge, sondern als Vorbereitung zu einem hegemonialen Anspruch auf Bestandteile des griechischen Staates mit verschwindend kleiner oder gar keiner (slawo-)mazedonischen Minderheit angesehen wurde - vor allem den territorialen Anspruch auf die Stadt Thessaloniki und ihre Umgebung. Griechenland reagierte auf solche möglicherweise expansiven Ambitionen, indem es versuchte der möglichen jugoslawischen Argumentation den Boden zu entziehen: es gebe keine (slawo-)mazedonische Minderheit in Nordwestgriechenland. Der Gegensatz zwischen Bulgarien und Griechenland, was die (slawo-)mazedonische Minderheit in Nordwestgriechenland als bulgarisch betrachtete, war mit dieser Argumentationslinie ebenfalls antagonisiert. Anerkennung der mazedonischen Nation in Jugoslawien. Inwieweit diese Anerkennung als Nation oder Ethnie eine kontinuierliche Entwicklung seit dem 19. Jahrhundert oder ein durch den jugoslawischen Staatschef Josip Broz Tito forciertes „Nation-Building“ war, ist Gegenstand sowohl historischer als auch politischer Auseinandersetzungen. Eine Sichtweise betont eine kontinuierliche Entwicklung eines mazedonischen (oder slawo-mazedonischen) Nationalbewusstseins seit dem 19. Jahrhundert. Als Hinweis auf eine kontinuierliche Entwicklung wird teils die 1893 gegründete Organisation "Bulgarische Makedonien-Adrianopeler Revolutionäre Komitees" (kurz BMARK), 1919 umbenannt in VMRO (innere makedonische revolutionäre Organisation), gewertet. Sie kämpfte mit Waffengewalt gegen die osmanische Besatzungsmacht und strebte ein von den Osmanen befreites Mazedonien an. Ein zwischenzeitlicher Höhepunkt dieser Entwicklung fand 1903 im Ilinden-Aufstand (auch Ilinden-Preobraschenie-Aufstand) seinen Ausdruck: eine kurzzeitig existierende Republik von Kruševo auf dem Gebiet der heutigen Republik Mazedonien wird als historischer Vorläuferstaat der Republik Mazedonien angesehen. Der im gleichen Zeitraum stattfindende Aufstand führte jedoch auch zu der ebenfalls kurzlebigen Strandscha-Republik im Vilayet Adrianopel in Ostthrakien (heute Südbulgarien bzw. europäische Türkei), die ohne Nachwirkung auf die Genese einer etwa,umfassenden‘ mazedonischen Nation blieb. Der Aufstand wurde von den osmanischen Truppen sowohl im Westen (Krusevo) als auch im Osten (Adrianopel) niedergeschlagen. Die Identifikation der Slawo-Mazedonier vor 1900 wird auch dadurch erschwert, dass vermeintlich neutrale Quellen wie Reiseberichte die slawische Bevölkerung als eine Gruppe zusammenfasste (siehe Ami Boué in seinem Reisebericht aus den 1830er Jahren: alle Slawen waren Bulgaren). Alternativ kam die osmanische Sichtweise zur Geltung, die bis 1876 nach Religionen unterschied (und damit slawische und griechische Orthodoxe in einer Kategorie subsumierte) und nach 1876 lediglich zwischen bulgarisch-orthodoxen und griechisch-orthodoxen Christen unterschied. Eine (slawo-)mazedonische orthodoxe Kirche, die erst im Jahre 1967 als Ergebnis des Nation-Buildings unter der Regie Titos gegründet werden sollte, war zum damaligen Zeitpunkt als Unterscheidungsmerkmal nicht verfügbar. Im Verlauf der Balkankriege 1912 und 1913 fand das mazedonische (d.i. slawo-mazedonische) Nationalbewusstsein mitsamt der Forderung nach einem unabhängigen Staat oder weitgehender Autonomie keine Berücksichtigung. Jedoch nahm ein Teil der Bevölkerung durch das Makedonien-Adrianopel-Freiwilligen-Korps der bulgarischen Streitkräfte an den Kriegen teil und solidarisierte sich so mit der bulgarischen Seite. Im Ersten Weltkrieg besetzten bulgarische Truppen nach der Niederlage Serbiens 1915 das Gebiet der heutigen Republik Mazedonien, bevor sie ihre Angriffe 1916 auf die heutige griechische Verwaltungsregion Westmakedonien ausweiteten und kurzfristig das Gebiet des heutigen Regionalbezirks Florina besetzten. In den Friedensverträgen nach dem Ersten Weltkrieg wurde die Aufteilung der geographischen Region Mazedonien nach den Balkankriegen, trotz weitergehender Ansprüche aller Beteiligten, als Status quo bestätigt. Erneut fand ein (slawo-)mazedonisches Nationalbewusstsein keine Berücksichtigung. In der Zwischenkriegszeit bis zum Ausbruch des Zweiten Weltkrieges auf dem Balkan im April 1941 betrieben die Staaten, welche die geographische Region Mazedonien unter sich aufgeteilt hatten, eine Assimilierungspolitik. In Vardar-Mazedonien, das zum damaligen Zeitpunkt als "Vardarska Banovina" bekannt war, wurde die etwaige Existenz einer mazedonischen (slawo-mazedonischen) Ethnie durch den Begriff der „Süd-Serben“ verneint und zugleich die Assimilation vorangetrieben. In Ägäis-Mazedonien, das seit 1913 zum griechischen Staatsgebiet gehörte, wurde eine nicht weniger assimilative Politik verfolgt. Umbenennungen von Ortschaften zu teils zuvor gebräuchlichen griechischen Namen (Edessa), teils zu vorher nicht existenten griechischen Namen (Ptolemaida) wurden nebst der Bezeichnung des slawischsprachigen Bevölkerungsteils als "slawophone Griechen" zur Verneinung einer ethnischen oder Minderheitenproblematik verwendet. Der kleine bulgarische Teil der geographischen Region Makedonien, Pirin-Mazedonien, wurde als bulgarisch bezeichnet. Von einer (slawo-)mazedonischen Nation war zu dieser Zeit von offizieller Seite nirgends die Rede. Vielmehr kursierten politische und Gebietsansprüche der verschiedenen Anrainer-Staaten teils aus wirtschaftlicher, teils aus ethnisch-nationaler Motivation heraus. Es überwog jedoch ein wirtschaftliches und geostrategisches Argument: Serbien benötigte einen Zugang zur Ägäis (Thessaloniki), Bulgarien ebenso; Griechenland wollte diesen Zugang nicht abgeben. Eine Auseinandersetzung mit den Belangen von Minderheiten oder der ethnischen Problematik überhaupt fand in keinem der Staaten statt. Nur konsequent war es daher, dass auch eine Absage an nationalistische oder bisweilen imperialistische Forderung nicht zu erwarten war. Bis zum Ausbruch des Zweiten Weltkrieges gab es keine Bestrebungen von staatlicher Seite zur Beförderung einer weitgehenden Autonomie oder eines unabhängigen Staates mit (slawo-)mazedonischer Identität auf dem Boden von Vardar-Mazedonien. Der Ausbruch des Zweiten Weltkriegs auf dem Balkan, der auf den deutschen Angriff von Bulgarien aus auf Griechenland und Jugoslawien am 6. April 1941 zu datieren ist, veränderte die Situation deutlich. Bulgarien besetzte nach deutscher Erlaubnis Vardar-Mazedonien. Einen Zugriff auf Ägäis-Mazedonien bekam es nur in sehr geringem Umfange: Die Deutschen behielten sich die Besatzung der heutigen griechischen Verwaltungsregionen West- und Zentralmakedonien vor, einschließlich der Stadt Thessaloniki und eines Grenzstreifens zur Türkei, der auch den Hafen von Alexandroupolis umfasste. Die bulgarische Besatzungsmacht verfolgte eine Assimilierungspolitik im Sinne der Bulgarisierung. Konsequenterweise wurde 1946 die Region Vardar-Mazedonien, entsprechend der bereits 1943 in Jajce geschlossenen Plänen der 2. AVNOJ-Konferenz Teilrepublik des jugoslawischen Bundesstaates als Sozialistische Republik Mazedonien (SR Makedonija). Vertreter der mazedonischen Kommunisten fehlten jedoch bei diesem Beschluss. Die slawischen Mazedonier wurden gleichzeitig als eigenständige Nation anerkannt. Im Rahmen dieser Anerkennung als Nation wurde eine Reform der (slawo-)mazedonischen Sprache in Auftrag gegeben. In dieser Zeit wurde die sogenannte mazedonische Sprache auf der Grundlage der vardar-mazedonischen Dialekte standardisiert, durch einen Beschluss des AVNOJ zur Amtssprache Mazedoniens proklamiert und in der Folge zu einer voll funktionierenden, serbisch geprägten Standardsprache ausgebaut. Es folgte die erste standardisierte Grammatik der mazedonischen Literatursprache von Blaze Koneski. Die Gründung einer autokephalen mazedonisch-orthodoxen Kirche erfolgte 1958, gegen den Widerstand der griechisch-orthodoxen und serbisch-orthodoxen Kirche. 1967 erkannte die russisch-orthodoxe Kirche die mazedonisch-orthodoxe Kirche als autokephal an. Die Region Mazedonien in der jüngsten Vergangenheit (1990 bis heute). Mit dem Zerfall Jugoslawiens proklamierte die vormalige Teilrepublik Mazedonien am 19. November 1991 die Unabhängigkeit als "Republik Mazedonien"; 1993 erfolgte die Aufnahme in die Vereinten Nationen, auf Drängen Griechenlands als "Ehemalige Jugoslawische Republik Mazedonien" (engl. "Former Yugoslav Republic of Macedonia"). Obwohl die Beziehungen zwischen Griechenland und der SFR Jugoslawien nicht die schlechtesten waren, herrschte in Griechenland mehrheitlich Gleichgültigkeit gegenüber dem nördlichen Nachbarn. Dies änderte sich, als bereits während des Zerfallsprozesses Jugoslawiens von slawisch-mazedonischen Nationalisten verstärkt Landkarten in Umlauf gebracht wurden, auf denen das zum griechischen Staatsgebiet gehörende Griechisch- oder Ägäis-Makedonien "(Makedonia)" und das bulgarische Pirin-Makedonien "(Blagoewgrad)", dem jugoslawischen oder Vardar-Makedonien "(Süd-Serbien)" zugeschlagen waren. Die Namensfrage. Insofern musste es Griechenland zwangsläufig als Provokation verstehen, dass Mazedonien bei seiner Unabhängigkeitserklärung 1991 eine Nationalflagge präsentierte, auf der der 1978 im nordgriechischen Vergina bei Ausgrabungen entdeckte Stern von Vergina zu sehen war. Griechenland fürchtete Bedrohungen der Integrität seines Territoriums, insbesondere, nachdem Mazedonien sich in der Präambel seiner neuen Verfassung auf die Tradition der "Republik von Krushevo" beruft, die ja die Schaffung eines einheitlichen Staates in den Grenzen des geographischen Makedonien vorsah. So verweigert Griechenland dem nördlichen Nachbarn auch die bloße Verwendung des Namens Makedoniens, da es die Vereinnahmung und slawische Monopolisierung der makedonischen Geschichte befürchtet. Athen antwortete auf diese Provokation stante pede mit der Schließung der Grenzübergänge und einem Boykott sowie der Schließung des Hafens von Thessaloniki, über den die Republik Mazedonien 1991 80 % ihrer Importe abwickelte. Der Boykott, der Mazedonien in eine dramatische Wirtschaftskrise stürzte, wurde 1994 aufgehoben, nachdem sich die Regierung in Skopje bereit erklärte, die Flagge zu ändern. Anschließend entwickelte sich die wirtschaftliche als auch die politische Zusammenarbeit zwischen der Republik Mazedonien und Griechenland sehr gut. Die Namensfrage blieb und bleibt bei politischen Diskussionen zumeist ausgeklammert. Ethnische Konflikte in der Republik Mazedonien (2000). Ab 2000 wurde die Republik Mazedonien von heftigen Unruhen erschüttert. Vergleichbar dem regelrechten „Patchwork“ in ethnischer Hinsicht in anderen Teilen Mazedoniens und dem Balkan brachen in der Republik Mazedonien Konflikte, begrenzt auch mit Waffengewalt, zwischen der albanischen Minderheit und der (slawo-)mazedonischen Mehrheit aus. Auf (slawo-)mazedonischer Seite wurden auch unter dem Eindruck des unmittelbar in der Nachbarschaft aufgetretenen Kosovo-Konflikts von 1999 Befürchtungen vor einem Großalbanien unter Einschluss des Kosovo und nordwestlichen Teilen der Republik Mazedonien laut. Neben der numerisch recht starken albanischen Minderheit machte sich auch eine kleine serbische Minderheit bemerkbar. Die Nationalitätenkonflikte der historischen Region Mazedonien hatten 2000 auch den (slawo-)mazedonischen Staat Republik Makedonien quasi „eingeholt.“ Durch Vermittlung der EU konnte das Rahmenabkommen von Ohrid am 13. August 2001 unterzeichnet werden. Durch dieses Abkommen und seine Umsetzung entschärften sich die ethnischen Gegensätze zwischen Albanern und Mazedoniern in der Republik Mazedonien merklich. Bevölkerung. In der Republik Mazedonien stellen die Slawischen Mazedonier die Mehrheit der Bevölkerung. Daneben gibt es Minderheiten, Albaner, Serben und Türken. Die griechische „geografische Region“ ("geografikó diamérisma"/γεωγραφικό διαμέρισμα) Makedonien ist administrativ in drei Verwaltungsregionen unterteilt, wobei die östliche auch Westthrakien umfasst. Im Gegensatz zu anderen Regionen hat diese eine starke Identität, die zum einen auf historischen Unterschieden beruht, zum anderen auch auf die Konkurrenz Thessaloniki-Athen zurückgeht. So werden Politikern aus dieser Region typisch „makedonische“ Eigenschaften zugesprochen. Die Region ist in überwiegender Mehrheit griechisch-makedonisch bevölkert, wobei in den Zwanziger Jahren ein großer Teil der Pontos-Griechen die Stelle der ehemals nicht-griechischen Bevölkerung einnahm. Es existiert dort jedoch eine kleine slawomazedonische (oder auch slawophone) Minderheit, vor allem in den Präfekturen Kilkis und Florina. Deren Anteil an der Gesamtbevölkerung ist nicht gesichert, da der griechische Staat bei Volkszählungen keine Zahlen zur sprachlichen oder ethnischen Herkunft der Einwohner erhebt. Weiterhin existieren aromunische, meglenorumänische und armenische Bevölkerungsanteile, die jedoch weitgehend assimiliert sind und deren Sprachen heute als bedroht gelten. Bulgarien hatte zwar die Republik Mazedonien als Staat sofort anerkannt, weigerte sich aber jahrelang eine mazedonische Minderheit im eigenen Land und das Mazedonische als eigene Sprache anzuerkennen. Im Jahr 1999 legten die bulgarische und die mazedonische Regierung ihren jahrelangen linguistischen Streit bei, der die bilateralen Beziehungen schwer belastete. Bulgarien erkannte die Eigenständigkeit der mazedonischen Sprache und Minderheit erstmals offiziell an, Mazedonien entsagte im Gegenzug jeglicher Einflussnahme auf die slawisch-mazedonische Minderheit in dem bulgarischen Teil Makedoniens. Makedonische Kultur. Mazedonien ist kein eigenständiger Kulturraum. Vor allem ist das auf die verschiedenen Ethnien zurückzuführen, die jeweils ihre eigene Kulturen „leben“ und selbstständige Kulturräume bilden. Zudem spielt die Religion eine Rolle, da die Bevölkerung in Anhänger des orthodoxe Christentum und des Islams geteilt ist. Doch es gibt vielerorts eine Art Kultursynthese, durch die die Kulturen sich zum Teil vermischt oder gegenseitig beeinflusst haben. Literatur. Grundlage der makedonischen Schriftsprache in der heutigen Republik Mazedonien wurden im späten 19. Jahrhundert die zentralmakedonischen Dialekte. Die Zeugnisse der Volkspoesie stammen jedoch vor allem aus Westmakedonien. Seit 1926 erschien in Skopje eine monatliche Literaturzeitschrift ("Mesečni pregled", später "Južni pregled"), die von Petar Mitropan herausgegeben wurde und in ganz Jugoslawien einen guten Ruf genoss. Sie bot eine der ganz wenigen Publikationsmöglichkeiten in der ansonsten marginalisierten makedonischen Sprache. Im Dezember 1939 wurde sie - möglicherweise wegen Geldmangel - eingestellt. Den größten Beitrag zur Kodifizierung der seit 1945 als Staatssprache zugelassenen makedonischen Sprache leistete der Philologe, Lyriker und Herausgeber der Literaturzeitschriften "Nov den" und "Makedonski jazik", Blaže Koneski (1921–1993). Zunächst musste eine Prosasprache gefunden werden, die nicht mehr das Volkslied formell nachahmte. Zu den ersten Autoren gehörten Vlado Maleski, Gogo Ivanovski und Jovan Boškovski. Taško Georgievski ging nach dem griechischen Bürgerkrieg 1947 ins Exil nach Jugoslawien und schrieb den Roman "Die schwarze Saat" (dt. 1974) über die Verfolgung der makedonischen Revolutionäre in Griechenland. Eine der wichtigsten Persönlichkeiten der jungen makedonischen Literatur war der vielseitige Autor Slavko Janevski. Er schrieb den ersten Roman in makedonischer Sprache, "Seloto zad sedumte jaseni". Eine nennenswerte Literatur existiert jedoch erst seit den 1960er Jahren. Dabei blieb der Zweite Weltkrieg bis in die 1990er Jahre ein häufiges Thema. Živko Čingo (1935 oder 1936–1987) stellte in seinen Erzählungen und Satiren das Menschenbild des Sozialistischen Realismus in Frage. Der deutsche Übersetzer Matthias Bronisch gab in den 1970er Jahren zwei repräsentative Anthologien mit makedonischer Literatur heraus. Musik. Die reiche Volksmusik Makedoniens zeigt Einflüsse Bulgariens, Serbiens und der Türkei (im Südosten) sowie Griechenlands (im Süden). Die Roma-Musik war stets ein wesentlicher Bestandteil der makedonischen Musik. International bekannt wurden die Roma-Sängerin Esma Redzepova und Marem Aliev, der heute in der Schweiz lebt, mit seinem "Aliev Bleh Orkestar". Mumie. Vorbereitung einer peruanischen Kindmumie für den CT-Scanner Als eine Mumie bezeichnet man die Überreste von tierischen oder menschlichen Körpern, die durch physikalische oder chemische Gegebenheiten vor natürlichen, gemeinhin unter dem Begriff Verwesung zusammengefassten Prozessen des Zerfalls geschützt und in ihrer allgemeinen Form erhalten sind. Eine Mumie kann vom Menschen durch besondere Verfahren künstlich hergestellt werden (Mumifizierung) oder quasi „von selbst“ durch natürlich ablaufende Prozesse entstehen (Mumifikation), das Endergebnis wird in beiden Fällen als „mumifiziert“ bezeichnet. Die Bezeichnung „Mumie“ leitet sich vom persischen Wort "mumia" ab (neupers. / "mūm"), was „Bitumen, Erdpech“ bedeutet. Im Alten Ägypten wurde der Begriff "Mumia" namensgebend, da bei den altägyptischen Mumien zumeist die schwärzlich-harzigen Substanzen verwendet wurden; Bitumen fand erst in griechisch-römischer Zeit Anwendung. Damit eine Mumie entstehen kann, muss bei einer Leiche insbesondere die durch Autolyse, Bakterien und Insekten hervorgerufene Zerstörung des Weichgewebes wirkungsvoll unterbunden werden. Arides Klima oder kontinuierlich mit Luft durchströmte Landschaftselemente (z. B. Höhlen) und Bauwerke sind aufgrund der dort herrschenden hohen Verdunstungsraten einer Mumifizierung förderlich. Eine Mumie kann sich aber auch bei Temperaturen deutlich unter dem Gefrierpunkt von Wasser bilden. Bei Moorleichen, die ebenfalls als Mumien bezeichnet werden, findet die Weichteilkonservierung im sauren Milieu eines Hochmoores durch Sauerstoffabschluss und die Wirkung von Humin- und Gerbsäuren statt, wobei sich die mineralischen Anteile der Knochen oft auflösen. Bei der künstlichen Mumifizierung haben sich darüber hinaus das Entfernen der Eingeweide sowie verschiedene Balsamierungstechniken bewährt. Archäologisch ist die Definition von Mumie schwierig, da ursprünglich nur ägyptische Leichen als Mumien bezeichnet wurden. Für einige andere Einzelfunde (z. B. Paracas-Kultur oder aus der Thule-Kultur) hat sich der Begriff „Mumie“ etabliert. Der Begriff „Mumie“ ist für die archäologische Wissenschaft nicht verbindlich definiert. Meist wird der Begriff in Deutschland vermieden, da er zu sehr mit ägyptischen Funden in Verbindung gebracht wird. Mumia. Von medizinischer Bedeutung war die aus Mumien gewonnene Substanz „Mumia“. Bitumen ist schon lange Zeit bei Nomadenvölkern in Nordafrika durch seine entwässernden Eigenschaften als Wundmittel bekannt (vgl. Zugsalbe). Da man vermutete, dass ägyptische Mumien damit einbalsamiert worden sind, versuchte man den teuren Stoff erst durch Abschaben, später durch das Zermahlen der Mumie selbst zu gewinnen. Abdul Latif, ein arabischer Reisender des 12. Jahrhunderts, berichtete, dass man die nach Myrrhe duftenden Mumien in Ägypten zu medizinischen Zwecken verkaufte. Noch im 16. Jahrhundert und im Anfang des 17. Jahrhunderts wurde in Europa ein schwungvoller Handel damit betrieben, da Mumien als ein vorzügliches Heilmittel gegen Brüche, Wunden und Kontusionen galten. Anfang des 20. Jahrhunderts vertrieb der Darmstädter Pharmakonzern Merck die Produkte für zwölf Goldmark pro Kilogramm. Da Fälschungen auffliegen konnten, gab man den Produkten die Namenszusätze echt ("Mumia vera") und ägyptisch ("Mumia ägyptica"). Natürliche Mumien. In trockener, heißer Gegend ergibt sich bei salzhaltigem Boden eine natürliche Mumifizierung (Mumifikation). Dort entstand auch der Brauch des Mumifizierens. Natürliche Mumien werden erzeugt In Ägypten. Unter den künstlichen Mumien, die durch besondere Haltbarmachung erzeugt werden, sind die ägyptischen Mumien seit alter Zeit berühmt. Dagegen stammt die älteste je gefundene künstliche Mumie, die eines fünfjährigen Jungen, aus Libyen und ist 5500 Jahre alt. Die Mumien liegen in den ägyptischen Gräbern zum Teil in Sarkophagen oder in Särgen, welche nicht selten die äußere Form einer Mumie haben; namentlich gilt dies von dem innersten Kasten, welcher oft nur aus einer Art von Pappe gemacht ist; sie sind mit einer außerordentlichen Menge von Binden aus Leinwand, in seltenen Fällen aus Baumwolle, fest umwickelt, und der Kopf ist mitunter durch einen Hypocephalus gestützt. In anderen Gräbern, z. B. in thebanischen Volksgräbern, liegen die Mumien uneingesargt in Haufen zu Hunderten und Tausenden. Sie sind lang gestreckt, mit den Händen über der Brust oder über der Schoßgegend gekreuzt oder mit eng an der Seite liegenden Armen, Frauen zuweilen in der Stellung der Venus von Botticelli. Zwischen den Beinen oder Händen, seltener in den Achselhöhlen, findet man bei den Vornehmeren religiöse Handschriften auf Papyrus, besonders aus dem Totenbuch, womit bei Ärmeren die Mumienbinden beschrieben sind. Am Bauch und auf der Brust, häufiger noch zwischen den Binden finden sich kleinere Amulette; die Mumien von Vornehmeren sind oft mit Schmucksachen aus Gold und edlen Steinen, Halsbändern, Ringen, Ohrringen, Skarabäen, Amuletten und Götterfiguren geschmückt. Bei einigen hat man auch Kränze aus Blättern und Blumen von oft wunderbarer Erhaltung und Ketten von Beeren gefunden. Brust- und Bauchhöhle sind leer, durch Leinwandballen voneinander getrennt und mit einer harten, schwarzen, harzigen Substanz angefüllt. Die weiblichen Brüste finden sich nicht selten mit Leinwand ausgestopft oder mit Harz ausgegossen. Die Mumien sind von den antiseptischen, harzigen und aromatischen Stoffen, mit welchen sie behandelt wurden, so vollständig durchdrungen, dass sie eine dunkelgelbe, rötliche, braune oder schwarze Farbe und einen nicht unangenehmen, aromatischen Geruch angenommen haben. Die linke Hand ist fast immer mit Ringen oder Skarabäen geschmückt. Die Mumien der späteren Zeit sind teilweise schwarz und schwer und bilden mit den Binden eine unförmige Masse. Schon der arabische Gelehrte Abdul Latif erzählt von Goldstückchen, welche sich auf den Mumien fänden, und in vielen Museen hat man Exemplare, welche Vergoldung im Gesicht, auf den Augenlidern, auf den Lippen, an den Geschlechtsteilen, an Händen und Füßen zeigen. Katzenmumien im Royal Ontario Museum, Toronto Mumien von Memphis waren schwarz, ausgetrocknet und sehr zerbrechlich, während die von Theben gelb, matt glänzend und oft noch geschmeidig einen anderen Zustand aufwiesen, was auf eine verschiedenartige Behandlungsweise hindeutet. Auch wurden Tiere, besonders Katzen (denn sie waren die Tiere der Pharaonen und galten als heilig), mumifiziert um mit ihren Besitzern ins Jenseits aufzufahren. In der ägyptischen Spätzeit, besonders in der 25. Dynastie, gewann der Tierkult eine solche Bedeutung, dass große Friedhöfe mit Tiermumien entstanden. Die Art der Behandlung und Ausstattung ist bei den Mumien je nach Zeit, Ort und natürlich auch nach dem Stand eine sehr verschiedene gewesen. Anfangs wurden nur Königsmumien einbalsamiert, mit dem Fortschreiten des Alten Reiches konnten auch Beamte sich mumifizieren lassen. Das einfache Volk konnte nur durch die Eigenschaft des Wüstensandes getrocknet werden. Die ägyptischen Mumien wurden, besonders im England des 19. Jahrhunderts, häufig vor Publikum auf sogenannten Mumienpartys ausgewickelt. Aus dieser Zeit ist zum ersten Mal der Begriff Ägyptomanie bekannt. Vorher wurden sie auch oft als Brennmaterial benutzt (Mark Twain). Ägyptische Mumien von einfachen Ägyptern wurden in vergangenen Jahrhunderten vielfach zu Wunder-Arzneimitteln verarbeitet. In anderen Kulturen. Außer den alten Ägyptern verstanden sich auch die Guanchen auf den Kanarischen Inseln (Spanien) auf die künstliche Erhaltung; ihre Mumien sind in Ziegenfelle eingenäht und gut erhalten. Der Leichnam wurde "xaxo" genannt. Sie sind heute im "Museo de la Naturaleza y el Hombre" in Santa Cruz de Tenerife, im Museo Canario in Las Palmas de Gran Canaria und im "Museo Arqueológico" in Puerto de la Cruz auf Teneriffa zu besichtigen. Ähnliche Fälle gibt es in Mittel- und Südamerika, wo z. B. in Paracas die Cavernen-Kultur ihre Verstorbenen in unzählige Lagen dicker Stoffe wickelte und auf diese Weise konservierte. Peruanische Mumien finden sich in hockender Stellung, mit beiden Händen das Gesicht verdeckend. Auch bei birmanischen Priestern besteht die Sitte der Einbalsamierung, welche meistens mit dem Glauben an ein Wiederaufleben der toten Körper zusammenhängt. Strittig ist die Mumifizierung bei den Chinchorro (Chile): sie entfleischten den Körper, stützten die Knochen mit Stöcken, und überzogen sie mit einer Art Gips. Darauf klebten sie die Haut und bestrichen sie schwarz. Dies bedeutet, das ca. 80 % des ursprünglichen organischen Materials nicht erhalten war bzw. beachtet wurde. Weiterhin wurde Mumifizierung weniger erfolgreich im mittelalterlichen Japan unter den Fujiwara-Herrschern oder bei den buddhistischen Mönchen (Selbstmumifizierung durch Flüssigkeitsverweigerung, siehe Sokushinbutsu) praktiziert. Selbstmumifizierung praktizierten auch daoistische Mönche im 5. und 6. Jahrhunderts nach Chr. in China. Sie wollten „Unsterblichkeit“ erlangen. Dabei wurden körperliche Vorgänge durch Meditationstechniken zu kontrollieren gelernt und die Ernährung umgestellt. Den Tod führten die Mönche dann herbei, indem sie durch das Trinken von Lackbaumsaft ihre Verdauungsorgane versiegelten. Die Körper wurden danach durch Dämpfe getrocknet und wiederum mit Lack versiegelt. 1921 wurde das sogenannte Mädchen von Egtved gefunden. Der Fund stammt aus der älteren Bronzezeit, etwa 1400 v. Chr. Das Mädchen lag in einem großen Eichensarg. Durch Untersuchungen der Zähne wurde ihr Alter auf 16 bis 18 Jahre geschätzt. Das sog. "Egtved Pigen" ist nur in Weichteilen und Zähnen erhalten. Die Frau von Skrydstrup stammt aus der frühen nordischen Bronzezeit (etwa 1300 v. Chr.). Sie wurde 1935 gut erhaltenen in einem Eichensarg in der Nähe von Skrydstrup, in Jütland gefunden. Der Fund war für die Rekonstruktion der Frauentracht dieser Zeit und Region von Bedeutung. Die am besten erhaltene Mumie der Welt wurde 1972–1973 in Mawangdui in der zentralchinesischen Provinz Hunan gefunden: die etwa 160 v. Chr. gestorbene Lady von Dai. Ihre Gelenke sind noch weich, eine Blutentnahme ist möglich. Die Mumifizierung wurde jedoch nicht durch Entnahme von Körperteilen oder Austrocknung herbeigeführt und scheint von verschiedenen Faktoren abzuhängen (Bestattung in kühler Erde; mehrere luftdicht abschließende, ineinander verkantete Särge; eine rote Flüssigkeit im Sarg). Sie stammt aus der Han-Dynastie. In neuerer Zeit mit den Mitteln der fortgeschrittenen Chemie würde man, wenn darauf Wert gelegt würde, ebenso vollkommene Mumien erzeugen können wie im alten Ägypten, wie unter anderem Brunnetti in Padua mit seinen künstlich versteinerten Leichen bewiesen hat. Harrison in England hat nach ägyptischer Methode einen Leichnam konserviert. Heilkunde und Aberglaube. In dem Heilsystem des Paracelsus und seiner Nachfolger spielten neue Mumien, die man aus den Körpern von Gehenkten wie denjenigen lebender Menschen bereitete, eine große Rolle, ebenso im Volksglauben über Hexen, indem man durch Benutzung derselben den Lebenden schaden zu können glaubte (siehe Bildzauber, Voodoo). Daher die noch heute im Volk lebendige Vorsicht, Haare und Nägelabschnitte zu verbrennen, damit sie nicht in böse Hände fallen können. "Mumia", zu Pulver zermahlene sterbliche Überreste Mumifizierter, wurde bis in das 20. Jahrhundert als Heilmittel vertrieben. Es fand ab dem 16. Jahrhundert auch als farbschönes Braun-Pigment Verwendung. Seit dem 12. Jahrhundert wurden echte oder „gefälschte“ Mumien aus Ägypten nach Europa importiert, sie wurden im ganzen Mittelmeerraum gehandelt. Sammel- und Ausstellungsobjekte. Von einer „Mumienmanie“ könne man ab der Renaissance sprechen. Da wahre Mumien teuer waren begann der Handel mit Fälschungen. In heutigen Museen wurden bisher etwa 40 gefälschte Mumien entdeckt. Mumien-Partys. Mit Napoleons Ägyptischer Expedition (1798–1801) und den Berichten über die Entdeckungen seiner Soldaten und mitreisenden Forscher wurde in Europa ein „Ägypten-Kult“ ausgelöst, in dessen Ausbreitung Anfang des 19. Jahrhunderts sogenannte „Mumien-Partys“ in England in Mode kamen. Auf diesen Partys englischer Lords wurden dann gemeinschaftlich Mumien ausgewickelt. Die Teilnehmer erhofften sich oft wertvolle Überraschungen wie Schmuck oder Medaillons. Auf anderen derartigen Veranstaltungen wollte man sich nur gruseln, weshalb in deren Verlauf auch oft absurde Geschichten erzählt wurden. Nach den Partys behielten viele Lords die Mumien als Dekoration oder verkauften sie. Das Leinen und der Rest war für sie wertlos und wurde daher oft weggeworfen, obwohl zur gleichen Zeit in Nordamerika Mumienleinen zur Papierherstellung sehr gefragt war. Auch in Deutschland gab es einige dieser Veranstaltungen, wie beispielsweise die von Friedrich Karl von Preußen, dem Neffen des damaligen Königs. Diese Veranstaltung, die im Jagdschloss Dreilinden auf einem Billardtisch mit einer selbstmitgebrachten Mumie stattfand, wurde sogar von dem anwesenden Ägyptologen Heinrich Brugsch später beschrieben. Nach seinen Angaben enthielt die dabei ausgewickelte Mumie jedoch keine wertvollen Gegenstände. Medien. Mumien finden als Untote in zahlreichen Horrorromanen Verwendung. Jane C. Loudon löste mit ihrem Roman „The Mummy!“ (Die Mumie) von 1827 eine ganze Reihe von Mumienromanen aus, die zur Vorlage von Verfilmungen wurden. Es gibt auch ein Pen-&-Paper-Rollenspiel des White-Wolf-Verlags, ', in welchem man in die Rolle eines solchen Untoten schlüpft. Fälschung. September 2013 wurde in Diepholz (Deutschland) auf dem Dachboden eines 1970 erbauten Hauses eines Verstorbenen, der in den 1950er Jahren Ägypten bereiste, eine Kiste mit ägyptischen Zeichen gefunden. Der menschenmumienförmige Inhalt wurde, obwohl man die Bandagierung für aus dem 20. Jahrhundert stammend schätzte, nach einer MR-Computertomografie für eine menschliche Mumie gehalten, obwohl sichtlich Halswirbelknochen fehlen. Erst eine genauere, zerlegende Analyse zeigte, dass es sich um ein Kunststoffskelett - allerdings kombiniert mit einem menschlichen Schädel - handelt. Die Pfeilspitze im Kopf wird für Kinderspielzeug gehalten. Metamorphose (Zoologie). Bei den älteren Larven (Kaulquappen) der Froschlurche wird der Beginn der Metamorphose zuerst mit dem Erscheinen des hinteren Beinpaares (b) äußerlich sichtbar. Anschließend folgen u. a. das vordere Beinpaar, die Umformung des Maules und der Augen, die allmähliche Resorption des Schwanzes sowie die Umstellung auf Lungenatmung. Die Metamorphose (griech. μεταμόρφωσις = Umgestaltung, Verwandlung, Umwandlung), auch Metabolie (griech. μεταβολή = Veränderung), ist in der Zoologie die Umwandlung der Larvenform zum Adultstadium, dem geschlechtsreifen, erwachsenen Tier (Gestaltwandel). Der Begriff bezieht sich speziell auf Tiere, deren Jugendstadien in Gestalt und Lebensweise vom Adultzustand abweichen. Bei der Metamorphose werden die larvalen Organe resorbiert oder abgestoßen und die vorhandenen Anlagen der Adultorgane zur Funktionsfähigkeit entwickelt. Hormone steuern die vielfältigen Vorgänge (bei Wirbeltieren durch die Schilddrüse). Klassische Beispiele von Tiergruppen mit Metamorphose sind die Froschlurche (Umwandlung der aquatischen Kaulquappe zur terrestrischen Form) und die Insekten (z. B. die Umwandlung einer Raupe über die Puppe zum Schmetterling). Es ist zu beachten, dass der Begriff Metamorphose nicht für die gesamte Ontogenese einschließlich der embryonalen Phase steht, sondern sich in der Regel nur auf die Verwandlung eines Larvenstadiums zum Adultstadium bezieht. Bei den Insekten wird auch eine "allmähliche Metamorphose" (Hemimetabolie) beobachtet, mit den Typen Epimetabolie, Prometabolie, Heterometabolie und Neometabolie. Dabei bilden sich beispielsweise larveneigene Merkmale der Flügel- und Genitalanlagen schrittweise in Richtung auf die imaginale Endstufe um oder die äußeren Anlagen entstehen erst spät, so dass flügellose Larven und flügeltragende Pronymphen- und Nymphenstadien unterschieden werden. Bei der "vollkommenen Metamorphose" (Holometabolie) werden die Typen Homometabolie, Remetabolie, Parametabolie und Allometabolie differenziert. Unter diese Form fällt auch das Beispiel des Schmetterlings mit seinem Puppen-Zwischenstadium und dem dabei ablaufenden völligen Umbau der Organe. Zum Ablauf der vollkommenen Metamorphose ist zu sagen, dass es sich bei dem aus der Larve entstehenden Lebewesen in der Regel um ein vollkommen neues Lebewesen handelt. Die ursprüngliche Larve wird nämlich durch die eigenen Verdauungssäfte zunächst nahezu vollständig aufgelöst und stirbt so. Diese teilweise Selbstverdauung wird Histolyse genannt. Nur einige Ansammlungen von speziellen, Histioblasten genannten Zellen, die während des Larvenstadiums keinerlei Funktion erfüllten, bleiben von diesem Vorgang verschont und bilden die Anlagen für die neu entstehenden Organe. Wie viel ursprüngliches Gewebe erhalten bleibt, ist von Art zu Art unterschiedlich, aber bei den Schmetterlingen sind es beispielsweise nur wenige Prozent. Auch von parasitären Würmern, z. B. Leberegeln, sind komplizierte Verwandlungsprozesse mit mehreren Zwischenstufen bekannt. Der Begriff der Metamorphose in der Naturphilosophie. Die Idee von den Metamorphosen war in den Wissenschaften des 18. und 19. Jahrhunderts weit verbreitet, ursprünglich stammte dieser Gedanke wohl von Carl von Linné (1707–1778). Siehe auch. Bei den umfangreichen Forschungen anhand der Fruchtfliege →Drosophila melanogaster ergaben sich interessante Einzelheiten zur Metamorphose.a>nstadiums bei Drosophila melanogaster Majorian. Flavius Iulius Valerius Maiorianus († 7. August 461 in Dertona), bekannt als Majorian, war von 457 bis 461 weströmischer Kaiser. Leben. Der aus Illyrien oder Italien stammende Römer Majorian hatte in der weströmischen Armee noch unter dem Heermeister Aëtius gedient, mit dem gemeinsam er um 447 in Gallien einen Sieg über den Merowinger (?) Chlodio errungen hatte. Nach Aëtius’ gewaltsamen Tod 454 rief ihn der bedrängte Valentinian III. zu sich nach Rom und machte ihn zum neuen "comes domesticorum" (Gardekommandeur), doch fiel der Kaiser bald selbst einem Attentat zum Opfer. Während der anschließenden Wirren soll sich die Kaiserwitwe Licinia Eudoxia laut Priskos dafür eingesetzt haben, den loyalen Majorian zum "Augustus" zu erheben, zunächst aber vergeblich. Unter dem kurzzeitigen Kaiser Petronius Maximus, einem Zivilisten aus altem Senatsadel, wurde Majorian vielleicht zudem zum "magister militum" (Heermeister) ernannt, doch ist dies eher unwahrscheinlich, da er ja eher als Rivale und Feind des Maximus gelten muss. Dessen Nachfolger Avitus beförderte jedenfalls einen gewissen Remistus zum "magister militum", so dass Majorian wahrscheinlich weiterhin "comes domesticorum" war. In jedem Fall scheinen die Militärführer Italiens mit dem gallischen Senator Avitus nicht zufrieden gewesen zu sein. Majorian rebellierte daher bald mit Hilfe des zweiten Heermeisters Ricimer, der seit dem Tod des Maximus zur bestimmenden Gestalt in Italien geworden war. Nach dem Sturz des Avitus im Oktober 456 wurde Majorian am 28. Februar 457 zum Heermeister ernannt, diesmal durch den Kaiser des Ostens, und dann am 1. April 457 wohl unter unklaren Umständen von der Armee zum Kaiser des Westreiches ausgerufen. Der oströmische Kaiser Leo I. erkannte Majorian zunächst wohl allenfalls als "Caesar" und erst nach längeren Verhandlungen am 28. Dezember desselben Jahres als "Augustus" an. Erst danach, am 11. Januar 458, erließ der neue Westkaiser sein erstes Gesetz (Nov. Maior. 1). Dieses war an den Senat adressiert und erwies den italischen Senatoren, die wohl ebenfalls mit Avitus unzufrieden gewesen waren, demonstrativ großen Respekt, machte aber zugleich auch deutlich, dass Ricimer neben Majorian faktisch gleichrangiger Kommandeur der weströmischen Armee sei. Majorian, der 458 gemeinsam mit Leo das Konsulat bekleidete, hatte aufgrund seines militärischen Hintergrunds zunächst durchaus eine starke Stellung inne und war wohl keineswegs, wie mitunter vermutet wurde, nur eine Marionette Ricimers: Majorian war als einer der letzten Kaiser Westroms noch tatkräftig bemüht, die Reichsherrschaft im Westen zu stabilisieren - nur Anthemius sollte sich noch ähnlich energisch zeigen (und ebenfalls scheitern). Eine wichtige Quelle für seine Regierungszeit stellen die Briefe und Gedichte des Senators Sidonius Apollinaris dar, der unter anderem eine Lobrede auf den neuen Kaiser hielt, mit dem man offenbar große Hoffnungen verband. Eine Renovierung und Erweiterung der "Rostra", der großen Rednertribüne auf dem "Forum Romanum", fällt wahrscheinlich in die Anfangsphase seiner Herrschaft und hatte einen Seesieg über die Vandalen zum Anlass, der allerdings noch unter Avitus errungen worden war. Die Senatsaristokratie Galliens, die Avitus unterstützt hatte, erkannte Majorian zunächst offenbar nicht als Kaiser an, sondern betrachtete Leo als den einzigen "Augustus". Möglicherweise versuchte ein gallischer Senator namens Marcellus, eine Verschwörung gegen Majorian anzuzetteln. Dieser Widerstand brach aber rasch zusammen, als Majorian im Dezember 458 an der Spitze eines Heeres, das zu großen Teilen aus "foederati" bestand, nach Gallien zog. Der Kaiser verständigte sich mit Marcellinus, dem "comes rei militaris" von Dalmatien, der seit dem Tod des Aëtius in Opposition zum weströmischen Kaiserhof gestanden hatte. Mit Hilfe der hunnischen Hilfstruppen des Marcellinus wurden die Vandalen von Sizilien ferngehalten. Währenddessen gelang es Majorian, mit Hilfe seines alten Bekannten und nunmehrigen Heermeisters von Gallien, Aegidius, auch die Westgoten und Burgunden in Gallien in Schach zu halten. Der westgotische "rex" Theoderich II. wurde von Majorian nahe Arles in einer Schlacht besiegt und musste daraufhin Frieden schließen. Tatsächlich wurde die Herrschaft der weströmischen Zentralregierung in diesem Raum nun ein letztes Mal erfolgreich stabilisiert. Schließlich drang Majorian, der offenbar außerdem eine Reformpolitik in den Bereichen des Steuerwesens und des Militärs betrieb, an der Spitze seines Heeres als letzter Kaiser bis nach Hispanien vor, und er beabsichtigte eine Rückeroberung der lebenswichtigen, von den Vandalen besetzten Provinz "Africa", der Machtbasis des Heerführers Geiserich. Doch scheiterte das Unternehmen 460, nachdem eine Flotte aus 300 Schiffen bereits bei Cartagena (vielleicht durch Verrat) von den Vandalen aufgerieben worden war. Nach dieser Niederlage zog sich der Kaiser nach Gallien zurück, wo er einige Zeit in Arles residierte. Erst Ende Juli 461 brach er wieder gen Rom auf. Bevor er Italien betrat, entließ er sein Heer, da er offensichtlich keine Schwierigkeiten erwartete. Doch Anfang August wurde er durch den mächtigen Ricimer im Handstreich abgesetzt. Die genauen Gründe hierfür sind unklar. Nach dem Putsch wurde Majorian jedenfalls von einem Militärgericht zum Tode verurteilt und nur fünf Tage darauf in Dertona in Ligurien (Nordwestitalien) grausam hingerichtet. Mit seinem Tod endete der vorletzte aussichtsreiche Versuch der westlichen Kaiser, die Initiative gegenüber den übermächtig gewordenen Heerführern römischer und "barbarischer" Herkunft an sich zu ziehen und wieder selbst die Macht zu übernehmen. Die positive Bewertung des Herrschers findet sich bereits bei spätantiken Autoren wie Prokopios von Caesarea (dieser ließ den Kaiser allerdings entgegen den Tatsachen an einer Seuche sterben). Aegidius rebellierte nach der Ermordung Majorians gegen Ricimer und begründete in Nordgallien einen eigenen, noch bis 486 bestehenden gallo-römischen Machtbereich, der sich auf die Reste der römischen Rheinarmee stützte. Madrid. Madrid (dt., span.) ist die Hauptstadt Spaniens und der Autonomen Gemeinschaft Madrid. Die Metropolregion Madrid zählt mit etwa sieben Millionen Einwohnern zu den größten Metropolen Europas. Madrid ist (ohne Vororte) mit rund 3,2 Millionen Einwohnern nach London und Berlin die drittgrößte Stadt der Europäischen Union und die größte Stadt Südeuropas. Madrid ist seit Jahrhunderten der geographische, politische und kulturelle Mittelpunkt Spaniens (siehe Kastilien) und der Sitz der spanischen Regierung. Hier residieren auch der König, ein katholischer Erzbischof sowie wichtige Verwaltungs- und Militärbehörden. Als Handels- und Finanzzentrum hat die Stadt nationale und internationale Bedeutung. In Madrid befinden sich sechs öffentliche Universitäten sowie verschiedene andere Hochschulen, Theater, Museen und Kultureinrichtungen. Die Einwohner Madrids nennt man „Madrilenen“ (span. "madrileños") oder „Madrider“. Geographische Lage. Madrid befindet sich im Zentrum Spaniens auf und ist damit die höchstgelegene Hauptstadt der Europäischen Union. Die vom kleinen Fluss Manzanares durchflossene Stadt gehört zur historischen Landschaft Kastilien und liegt inmitten der Meseta, der Hochebene von Kastilien. Nordwestlich der Stadt erheben sich die Berge der Sierra de Guadarrama, die im Peñalara bis 2429 m hoch aufragen. Nach Osten öffnet sich das Tal des Henares, in dem Eisen- und Autobahnen nach Saragossa und Barcelona verlaufen. Etwa 70 km südlich, am Tajo, liegt die alte kastilische Hauptstadt Toledo, die heute Hauptstadt der autonomen Region Castilla-La Mancha ist. Klima. AZCA, Madrid. Schneefall tritt im Winter sporadisch auf. Durch seine Höhenlage auf 667 Meter über dem Meeresspiegel und das kontinentale Klima sind die Sommer in Madrid heißer und trockener, die Winter jedoch deutlich kälter als etwa in den Städten am Mittelmeer. Die durchschnittliche Temperatur im Januar liegt bei etwa 6,1 °C, im Juli bei etwa 24,2 °C. Dabei ist es dann meist sehr trocken und heiß. Geschichte. In den Jahren 852 bis 886 wurde eine maurische Burg ("alcázar") an der Stelle des heutigen Madrider Königspalastes errichtet. Die umgebende Anlage wurde "magerit" genannt, und ab 939. 1083 wurde Madrid kastilisch. Die Stadt wurde 1109 von dem Almoravidenherrscher Ali ibn Yusuf erfolglos belagert. Ein kleiner Teil der aus der Zeit der arabischen Herrschaft über Spanien stammenden Stadtmauern ist neben der Kathedrale immer noch vorhanden. 1309 wurde unter Fernando IV. die Ständeversammlung ("Cortes") des Königreichs Kastilien erstmals nach Madrid einberufen. Am 21. Februar 2011 wurden die Ausgrabungsarbeiten in der Umgebung des Königspalastes (Palacio Real) abgeschlossen. Von Wohnhäusern aus dem neunten Jahrhundert hatte man keine Spuren gefunden. Gebäudereste aus dem zwölften Jahrhundert stellen vielmehr die ältesten Zeugen für eine städtische Ansiedlung dar. Madrid ist damit etwa 300 Jahre jünger, als man bisher angenommen hat. 1561 verlegte Philipp II. den königlichen Hof von Valladolid nach Madrid, womit der Aufstieg der Stadt begann. Sie wurde faktisch zur Hauptstadt Spaniens, was sie abgesehen von einer kleinen Unterbrechung von 1601 bis 1606 (Hauptstadt: Valladolid) bis zum heutigen Tag ist. Der Teil von Madrid, der unter den Spanischen Habsburgern errichtet wurde, nennt sich bis heute „El Madrid de los Austrias“ (Das Madrid der Habsburger). In dieser Zeit wurden die Puerta del Sol, das Kloster der Descalzas Reales, der Palacio de Uceda, die Plaza de la Villa, die Plaza Mayor sowie die Colegiata de San Isidro erbaut. 1701 brach der Spanische Erbfolgekrieg aus, der 1706 zur englisch-portugiesischen Besetzung der Stadt führte. Er endete 1714 mit der Übernahme des spanischen Throns durch die Bourbonen. Unter ihrer Herrschaft entstand der heutige Königspalast. Insbesondere in der Regierungszeit Karls III., der deswegen im Volksmund auch als der „beste Bürgermeister von Madrid“ bezeichnet wird, wurden die öffentliche Infrastruktur der Stadt (Straßen, Plätze, Parks, Wasserversorgung etc.) modernisiert und zahlreiche öffentliche Bauten errichtet. Von 1808 bis 1813 war Madrid von den Franzosen besetzt, wobei Napoleons Bruder Joseph Bonaparte König wurde. Die Besatzer ließen Klöster und ganze Stadtviertel niederreißen, um neuen Platz zu schaffen. Mit dem Aufstand vom 2. Mai 1808 wurden weitere Erhebungen im gesamten Land hervorgerufen, in Madrid ist der 2. Mai daher heute arbeitsfreier Stadtfeiertag. Von 1833 bis 1876 wurden die Karlistenkriege ausgetragen. Dabei wütete auch eine Choleraepidemie in Madrid. 1873 wurde die erste Republik durch den liberalen Politiker und Schriftsteller Emilio Castelar ausgerufen, und 1923 folgte die Militärdiktatur unter General Miguel Primo de Rivera. Am 14. April 1931 wurde in Madrid die Zweite Republik ausgerufen. Im Spanischen Bürgerkrieg von 1936 bis 1939 war Madrid bis zuletzt, und zwar bis zum 28. März, republikanisch und erlitt durch deutsche und italienische Bombardements schwere Zerstörungen (Belagerung von Madrid). Nachdem sich die Nationalisten unter Generalissimus Francisco Franco, der ab 1940 offiziell im königlichen und privat im Palast El Pardo residierte, durchgesetzt hatten, prägte dessen franquistische Diktatur bis 1975 die Stadt architektonisch, wirtschaftlich und demografisch. 1965 bis 1973 fanden zahlreiche Streiks und Studentenproteste statt. Nach dem Tod Francos im Jahre 1975 gab es in Madrid eine Kulturbewegung, die Movida madrileña. Juan Carlos I. wurde König und leitete die Demokratisierung ("Transición") ein, die jedoch am 23. Februar 1981 ("23-F") durch einen Putschversuch einiger Offiziere der Guardia Civil und des Militärs noch einmal gefährdet wurde. Einige davon hatten auch schon bei der "Operación Galaxia" 1978 mitgemacht. 1992 war Madrid „Kulturstadt Europas“. Erst 1993 wurde die Kathedrale des Erzbistums Madrid Santa María la Real de La Almudena fertiggestellt. Am 11. März 2004 wurden bei islamistisch motivierten Terroranschlägen auf vier voll besetzte Nahverkehrszüge 191 Menschen getötet. 1982 wurde Italien in Madrid im Endspiel gegen Deutschland Fußball-Weltmeister. Im Jahr 2005 scheiterte Madrid mit der Bewerbung um die Olympischen Sommerspiele 2012. Die neuerliche Bewerbung für die Olympischen Sommerspiele 2016 scheiterte 2009 erst in der letzten Runde des Auswahlverfahrens (gegen Rio de Janeiro). Wappen. Puerta del Sol, Hauptfassade der "Casa de Correos" Beschreibung: Im silbernen Feld, das von einem blauen Bord mit sieben silbernen sechszackigen Sternen belegt ist, steht auf grünem Schildfuß ein Erdbeerbaum mit grüner Laubkrone und roten Früchten, an dem sich ein schwarzer Bär aufrichtet. Über dem Wappenschild ruht die goldene Krone. Das Wappen der Stadt Madrid zeigt einen Braunbären (oso pardo), der sich gegen einen Erdbeerbaum reckt. Eine mögliche Deutung dieser Symbolik ist die Einigkeit und Bedeutung von Klerus (dargestellt durch den Baum) und Adel (der Bär), die im Mittelalter das Land in und um Madrid zwischen sich aufgeteilt haben. Es findet sich auch im Wappen des Fußballvereins Atlético Madrid wieder. Museen. Am Paseo del Prado befinden sich im sogenannten Museumsdreieck in Gehweite von wenigen hundert Metern drei der wichtigsten Museen der Welt: Museo del Prado, Museo Nacional Centro de Arte Reina Sofia und Museo de Arte Thyssen-Bornemisza Flughafen. Der Flughafen Madrid-Barajas (MAD) ist mit rund 42 Mio. Passagieren (Stand 2014) einer der größten in Europa. Der Flughafen Madrid besitzt vier Start-/Landebahnen (4400, 4100, 3500, 3500 m). Die Letzteren beiden Bahnen sind „Neubaubahnen“, die erste Bahn ist die längste in Europa. Der neue Terminal (T4) wurde 2006 eröffnet und hat im Jahr 2007 aufgrund der Entfernung zum restlichen Flughafen gar eine eigene Metrostation erhalten. Alle Terminals (T1, T2, T3, T4) sind mit der Metro Linie 8 zu erreichen. Im November 2008 wurde der Flughafen Ciudad Real als erster privater Flughafen Spaniens zur Entlastung eröffnet. Bereits im November 2011 wurde er mangels Flugverkehr wieder geschlossen und gilt als eine der größten Investitionsruinen Spaniens. Wirtschaft und Infrastruktur. Streckenplan der Metro in Madrid Die Region Madrid ist der führende Wirtschafts- und Industriestandort Spaniens und erwirtschaftet mit 17,7 % den höchsten Anteil am spanischen Bruttosozialprodukt. Der Schwerpunkt liegt auf dem Dienstleistungssektor, der über 78 % des regionalen BIP generiert. Aufgrund seiner hervorragend geographischen Lage in der Mitte der iberischen Halbinsel haben sich dort Industrien aus dem Flugzeug-, Fahrzeug-, Textil-, chemische und Nahrungsmittelindustrien niedergelassen. Ein großer Teil der in Spanien niedergelassenen Banken und Versicherungskonzerne haben ihren Sitz in Madrid. Die wichtigste und einzig international bedeutende Börse Spaniens befindet sich dort. Ebenso haben zahlreiche Niederlassungen ausländischer Konzerne ihren Sitz und Produktionsstandort in Madrid (Siemens, Bosch, Software AG, Microsoft, Hewlett-Packard, IBM, Porsche, L’Oréal etc.) Madrid ist Spaniens größter Verkehrs- und Eisenbahnknotenpunkt mit den wichtigsten Personenbahnhöfen Atocha und Chamartín. Das Netz der Madrider U-Bahn gehört zu den größten der Welt. In weniger dicht besiedelten Stadtteilen verkehrt die Stadtbahn Metro Ligero. Die Vororte werden mit dem Cercanías-Vorortbahnsystem erschlossen. Der internationale Flughafen Madrids, Adolfo Suárez Madrid-Barajas, liegt im Nordosten der Stadt und ist mit der Metro schnell zu erreichen. Er ist mittlerweile der viertgrößte Flughafen Europas und eine wichtige Drehscheibe für Flüge nach Lateinamerika. Bildung. Zu den zahlreichen Bildungseinrichtungen gehören die Universität Complutense Madrid (UCM, 1508 in Alcalá de Henares eröffnet, 1836 nach Madrid verlegt) sowie die Universidad Comillas (1892), die Polytechnische Universität Madrid (UPM, 1971), Universidad Autónoma (UAM, 1968), die Universität Carlos III (UC3M, 1989) und die Universidad Rey Juan Carlos (1996). Die spanische Fernuniversität UNED ("Universidad Nacional de Educación a Distancia") hat ihren Hauptsitz in Madrid. Ebenso befinden sich hier u. a. die Königlich Spanische Akademie sowie die Akademien der Schönen Künste, der Naturwissenschaften und der Sprachen. Siehe auch: "Liste der Universitäten in Madrid" Morphem. Morphem ist ein Fachausdruck der Linguistik für die kleinste Spracheinheit, der eine Bedeutung oder grammatikalische Funktion zugeordnet ist, und damit der Zentralbegriff der linguistischen Morphologie. Der Begriff des Morphems ist dem Begriff des Wortes nicht direkt gegenüberzustellen, sondern kann sich mit ihm überschneiden: Ein Wort kann zerlegbar, und somit aus mehreren Morphemen zusammengesetzt sein, aber ein unzerlegbares Wort stellt zugleich ein einziges Morphem dar. Bestimmung. Morpheme werden allgemein als „kleinste bedeutungstragende (sprachliche) Einheit“ definiert; genauer wie folgt: „Das Morphem ist die kleinste lautliche oder graphische Einheit mit einer Bedeutung oder grammatischen Funktion“. Zum Beispiel ist das Wort "tische", geschrieben und gesprochen, aus zwei Morphemen aufgebaut:; dabei ist der Wortkern mit der Bedeutung ‚Möbel mit Platte und Beinen‘ und ist die Endung mit der Funktion ‚Mehrzahl‘. Das Wort "wälder", kann ebenfalls in zwei Wortteile, zerlegt werden. Dabei kommt das Morphem, das den Wortkern ausmacht, in zwei verschiedenen Formen, sogenannten Morphen vor: und für bzw.. Genauso hat das Morphem bzw. genauer verschiedene Ausprägungen: bei bzw. + bei, und noch andere Formen bei anderen Substantiven: usw. Ein Morphem hat auf der Inhaltsseite (Plerem) definitionsgemäß immer eine Bedeutung oder grammatische Funktion. Es kann auf der Ausdrucksseite (Kenem) entweder immer in der gleichen Form geäußert werden (vgl. „Tisch“), oder aber auch mehrere Varianten (Allomorphe) haben (vgl. „Wald – Wäld“ oder:). Geschichte. Der Begriff Morphem wurde von Baudouin de Courtenay vor 1881 entwickelt. Leonard Bloomfield adaptierte den Begriff und hat ihn allgemein bekannt gemacht, verwendete ihn allerdings mit verengter Bedeutung, sodass bei ihm das Glossem synonym zum modernen Morphem ist. Dessen Definition festigte sich erst mit Eugene Nida. Abweichend vom herrschenden Sprachgebrauch nennt der französische Sprachwissenschaftler André Martinet das Morphem im vorgenannten Sinne „Monem“. Ein freies Monem nennt Martinet „Lexem“, ein gebundenes „Morphem“. Bis weit in die zweite Hälfte des 20. Jahrhunderts findet sich für "Morphem" auch Sprachsilbe als Synonym und stand neben "Sprechsilbe" und "Schreibsilbe" als Spezialfall der "Silbe". Abgrenzung. Ein Morphem ist die kleinste funktionstragende Einheit der Sprache auf der Inhalts- und Ausdrucksebene im Sprachsystem (Langue). Morpheme sind abstrakte Einheiten der Langue, die durch Segmentierung gewonnen werden (d. h. durch einen Prozess, der den Sprachstrom in einzelne Konstituenten unterteilt). Morph und Allomorph. Morphe werden als Repräsentationseinheiten (Parole) bezeichnet und ein Morphem als Klasse äquivalenter Morphe (Langue). Morphe, die Varianten ein und desselben Morphems sind, heißen Allomorphe bzw. allomorph zueinander. Allomorphe sind, da sie klassifiziert sind, Einheiten des Sprachsystems (Langue). Zum Beispiel sind und (in "hündisch") zunächst zwei Morphe; hat man erkannt, dass sie die gleiche Funktion für unterschiedliche Kontexte darstellen, gelten sie als zwei Allomorphe des lexikalischen Morphems. Graphem und Phonem. Morpheme werden lautlich als Phonem­folgen und schriftlich als Graphem­folgen realisiert (sofern nicht ein Nullmorphem angesetzt wurde). Die klassische Definition des Phonems als "kleinste funktions"unterscheidende" Einheit ist von der Morphemdefinition als kleinster funktions"tragender" Einheit zu trennen. Die nicht inhaltstragenden, bedeutungsunterscheidenden Elemente eines Morphems heißen Phoneme, wenn sie lautlich geäußert werden, und Grapheme, wenn sie schriftlich geäußert werden (als Buchstaben, Ziffern). Es gibt Schriftzeichen, die einem Morphem entsprechen, bspw. Ziffern oder viele Sinogramme, und Logogramme oder Morphogramme genannt werden. Silbe. In der deutschen Orthographie entsteht bei der Worttrennung am Zeilenende oft eine direkte Konkurrenz zwischen Morphem- und Silbenaufteilung. Während in der deutschen Rechtschreibung vor 1996 weitgehend das Morphem auf einer Zeile zusammengehalten werden sollte, bevorzugt die neue Orthographie eine echte Silbentrennung. Wort. Das Morphem unterscheidet sich vom Wort. Für ein Morphem ist es unerheblich, ob es selbständig vorkommen kann oder nicht; das Wort ist hingegen definiert als die kleinste Form, die selbständig stehen kann. Wörter bestehen aus mindestens einem Morphem. Lexem. Ein Lexem ist eine abstrakte Einheit, die Bedeutung, Laut-/Schriftbild, grammatische Merkmale und ggf. verschiedene Flexions­formen eines „Wortes“ zusammenfasst; dieser Begriff ist also zu unterscheiden von dem des „lexikalischen Morphems“, d. h. einem Morphem, das lexikalische Bedeutung trägt und als Basis für die Markierung grammatischer Information dienen kann. Notation. Die Schreibweise von Morphemen und Morphen erfolgt uneinheitlich. Oft werden Morph(em)grenzen mittels einfacher Striche (-) gekennzeichnet, aber viele Autoren verwenden zusätzliche visuelle Hilfsmittel um Morpheme abzugrenzen. Wurzeln kommen „in der Regel“, d. h. nicht notwendig frei vor. Die Einteilung in Wurzelmorpheme und Affixe ist daher ähnlich, aber andere als die in freie und gebundene Morpheme. "Affixe" sind Morpheme, die keine Grundmorpheme sind. Diese unterteilt man entweder nach ihrer Position in der Wortform in Präfix, Suffix, Infix oder Zirkumfix oder nach ihrer Funktion in "Derivations­affixe" und "Flexions­affixe". Wortstatus. Die Einteilung der Morpheme in freie und gebundene erfolgt danach, ob sie frei im Satz als Wörter auftreten können oder nicht. Ein "freies Morphem" tritt als alleinige Wortform auf. In strenger Auslegung ist es nicht Teil eines Flexionsparadigmas:. Viele Autoren bezeichnen Morpheme auch dann als frei, wenn sie als eigenständige Wortform – meist die Nennform – neben anderen auftreten:. Im ersten Fall ist also mit "frei" die Flexionsunabhängigkeit gemeint (vgl. Partikel), im zweiten die Bedeutungsautonomie (vgl. Semantem, Lexem). Ein "gebundenes Morphem" tritt nie als selbständige Wortform auf, sondern immer nur zusammen mit anderen Morphemen in einer Wortform. In engerer Bedeutung wird darüber hinaus gefordert, dass das Morphem seine Bedeutung erst aus dieser Verbindung gewinnt. Gebundene Morpheme im engen Sinne sind die Flexionsendungen (z. B.) und die Endungen in Ableitungen (z. B.). Im weiteren Sinne gehören auch einige lexikalische Morpheme (z. B. in "Himbeere", in "Schornstein") und syntaktische Morpheme (z. B.) dazu. Verbstämme werden in der deutschen Grammatik oft auch als gebundene lexikalische Morpheme angesehen, da sie im Deutschen immer mit einer Flexionsendung zusammen verwendet werden. (Der Imperativ Singular hat eine Flexionsendung, die als Nullallomorph oder als Allomorph auftritt. Als Ausnahme bleibt der Inflektiv) Ein "gebundenes" Morphem benötigt mindestens ein weiteres (freies oder gebundenes) Morphem, um ein Wort bilden zu können; z. B. und, welche sich an einen Verbstamm wie anhängen und bilden. Ein Wort wie besteht nur aus zwei gebundenen Morphemen. Solche Fälle sind häufig bei Morphemen, die aus anderen Sprachen kommen (wie und, die zwei gebundene Morpheme sind) oder deren eigenständige Bedeutung im Laufe der Sprachentwicklung verloren gegangen ist. Ob ein Morphem gebunden oder frei vorkommt, hängt von der jeweiligen Sprache ab. Im Deutschen heißt es "Haus" und "mein Haus", im Türkischen "ev" ‚Haus‘ und "evim" ‚mein Haus‘. Funktion. Die "lexikalischen" Morpheme ("l-Morpheme") oder "Inhaltsmorpheme", auch "Lexeme", bezeichnen reale oder gedachte Personen, Gegenstände, Sachverhalte. Sie sind also Morpheme mit einer referentiellen Funktion. Lexeme bilden den „Grundbestandteil eines Wortes“. Sie bilden die Stämme oder Wurzeln der Wörter, stellen also das Grundinventar der Wörter einer Sprache dar. Das Inventar der lexikalischen Morpheme ist offen, d. h. beliebig erweiterbar. Die "grammatischen" oder "funktionalen" Morpheme ("f-Morpheme") oder "Funktionsmorpheme", auch "Grammeme", hingegen bilden keine Wörter, sondern verändern diese gemäß grammatischen Regeln und tragen grammatische Informationen. Sie werden weiter unterteilt in Flexionsmorpheme und Wortbildungsmorpheme. "Flexionsmorpheme" oder flexive Morpheme zeigen syntaktische Eigenschaften des Stammes an, den sie flektieren, das heißt, sie drücken seine grammatischen Merkmale aus. "Wortbildungsmorpheme" oder derivative Morpheme leiten neue Wörter aus den schon vorhandenen ab und ändern dabei oft die Wortklasse oder Wortart, das heißt ihre Funktion betrifft die Wortbildung. Nullmorphem. Einen Sonderfall stellt das Nullmorphem dar. Dies ist ein Morphem, das nicht lautlich oder schriftlich realisiert ist. Ein Nullmorphem kann unter anderem aus beschreibungstechnischen Gründen gerechtfertigt werden, beispielsweise beim Wechsel zwischen Flexionsaffixen und deren Fehlen im Paradigma eines Wortes. Das Nullmorphem ermöglicht es, dass man das Flexionssystem der Substantive insgesamt einheitlich mit Wortstamm + Endung darstellen kann. Diskontinuierliches Morphem. Ein weiterer Sonderfall sind die diskontinuierlichen Morpheme, bei denen eine Folge voneinander getrennter Morphe zusammen ein Morphem bilden. Sie kommen in der Ableitung ebenso wie in der Flexion vor. Gebundenes lexikalisches Morphem. Lexikalische Morpheme treten auch als gebundene Morpheme auf, die keine Affixe sind. Die Verbstämme werden mitunter derart aufgefasst, da sie immer nur in Verbindung mit Flexions- oder Ableitungsmorphemen und nie allein verwendet werden. Konfixe haben eine stärkere lexikalische Grundbedeutung und können im Gegensatz zu unikalen Morphemen in mehreren Umgebungen in Verbindung mit Derivation oder Komposition auftreten. Unikale Morpheme kommen nur in einer einzigen Kombination vor und haben nur in Verbindung mit einem speziellen Kombinationspartner eine eigene Bedeutung; so z. B. in "ver-lier-en". Methan. Methan ist eine chemische Verbindung aus der Gruppe der Alkane mit der Summenformel CH4. Das farb- und geruchlose, brennbare Gas kommt in der Natur vor und ist ein Hauptbestandteil von Erdgas. Es dient als Heizgas und ist in der chemischen Industrie als Ausgangsprodukt für technische Synthesen von großer Bedeutung. Das Gas hat ein hohes Treibhauspotential und trägt zur globalen Erwärmung bei. In der Atmosphäre wird es zu Kohlenstoffmonoxid und schließlich zu Kohlenstoffdioxid oxidiert. Methan verbrennt mit bläulich-heller Flamme in Gegenwart von ausreichend Sauerstoff zu Kohlenstoffdioxid und Wasser. Es ist in Wasser unlöslich und bildet mit Luft explosive Gemische. Da es in großen Mengen in Lagerstätten vorkommt, ist es eine attraktive Energiequelle. Der Transport erfolgt durch Pipelines oder als tiefgekühlte Flüssigkeit mittels Tankschiffen. Daneben gibt es als Methanhydrat gebundene Vorkommen am Meeresboden, wobei der genaue Vorrat unbekannt ist. Weiterhin entsteht das Gas in beträchtlichen Mengen durch biologische Prozesse, etwa bei der Viehhaltung. Entdeckung und Namensherkunft. Das Wort "Methan" stammt vermutlich aus dem Altgriechischen. Die Griechen wussten wohl schon in der Antike von dem entzündlichen Gas. So gab es in Kleinasien Orte, an denen sich Methangas-Quellen entzündeten. Ein Vulkangebiet, in dem solche Gase vorkamen, bekam nach diesem Gas auch den Namen "Methana". Methan war schon den Alchemisten im Mittelalter als Bestandteil von Fäulnisgasen, auch als "Sumpfluft" bezeichnet, bekannt. Wissenschaftlich wurde Methan 1667 von Thomas Shirley entdeckt. 1772 entdeckte Joseph Priestley, dass Methan bei Fäulnisprozessen entsteht. 1856 stellte Marcellin Berthelot Methan zum ersten Mal aus Kohlenstoffdisulfid und Schwefelwasserstoff her. In älteren Texten wurde Methan gelegentlich auch als "Methylwasserstoff" bezeichnet. Irdisch. Atmosphärische Methanverteilung im August 2005 Man nimmt an, dass neben Ammoniak und Wasserdampf Methan ein Hauptbestandteil der irdischen Uratmosphäre war. Methan kommt vielfältig vor und wird auf der Erde ständig neu gebildet, z. B. bei biologischen und geologischen Prozessen (Serpentinisierung). Die Methan-Konzentration in der Erd-Atmosphäre hat sich vom Jahr 1750 bis zum Jahr 2000 von 0,8 auf 1,75 ppm mehr als verdoppelt. Oberflächennah. Ein großer Teil des terrestrischen Methans wird durch Mikroorganismen gebildet: Beim Faulen organischer Stoffe unter Luftabschluss in Sümpfen oder im Sediment auf dem Grund von Gewässern bildet sich Sumpfgas, ein Gemisch aus Methan und Kohlenstoffdioxid. Auch Biogas besteht überwiegend aus Methan (etwa 60 %) und Kohlenstoffdioxid (etwa 35 %), daneben enthält es noch Wasserstoff, Stickstoff und Schwefelwasserstoff. Übersicht über die anaerobe Verwertung von polymeren Substraten und Lipiden Ein kleiner Teil der biotischen Entstehung basiert auf der aeroben Spaltung von Methylphosphonaten. Titan. Auf dem Saturnmond Titan herrscht bei −180 °C und etwa 1,6 Bar Atmosphärendruck fast der Tripelpunkt des Methans. Methan kann deshalb auf diesem Mond in allen drei Aggregatzuständen auftreten. Es gibt Wolken aus Methan, aus denen Methan regnet, das dann durch Flüsse in Methanseen fließt, dort wieder verdunstet und so einen geschlossenen Methankreislauf bildet (analog zum Wasserkreislauf auf der Erde). Flüssiges Methan ist für Radarstrahlen durchsichtig, so konnte die Raumsonde Cassini die Tiefe des Sees Ligeia Mare zu 170 m bestimmen. Wahrscheinlich gibt es auf diesen Seen Eisberge aus Methan/Ethan. Diese können jedoch nur auf den Methanseen schwimmen, wenn sie mindestens 5 % gasförmigen Stickstoff enthalten. Wenn die Temperatur nur geringfügig sinkt, zieht sich der Stickstoff soweit zusammen, dass das Eis zum Grund hinabsinkt. Steigt die Temperatur wieder, kann das Grundeis dann wieder zur Seeoberfläche aufsteigen. Bei bestimmten Temperaturen kann Oberflächen- und Grundeis gleichzeitig vorkommen. Für den Ontario Lacus, einen See nahe dem Südpol des Titan, wurde jedoch als Hauptbestandteil das schwerere Ethan nachgewiesen. Außerhalb des Sonnensystems. Im März 2008 wurde Methangas erstmals auch auf einem Planeten außerhalb unseres Sonnensystems gefunden: Auf dem (Exoplanet HD 189733b vom Typ der Hot Jupiters). Gewinnung und Darstellung. Für die Herstellung aus Aluminiumcarbid gibt es zwei Methoden, sie werden meist nur im Labor eingesetzt. Die Synthese aus Kohlenstoffmonoxid hat eine besondere Wichtigkeit. Lediglich die Quelle des Wasserstoffs stellt bei dieser Synthese ein Problem dar. Heute wird auch viel Methan als Brennstoff in Biogasanlagen hergestellt. Auch durch Holzvergasung kann Methan gewonnen werden. Die Methanisierung nach vorhergehender Wasserelektrolyse ist das Grundprinzip zur Gewinnung von Wind- oder Solargas, dem im Bereich der regenerativen Energien eine zunehmende Bedeutung zugeschrieben wird. Physikalische Eigenschaften. Im Methan betragen die Bindungswinkel 109,5° Methan schmilzt bei −182,6 °C und siedet bei −161,7 °C. Aufgrund der unpolaren Eigenschaften ist es in Wasser kaum löslich, in Ethanol und Diethylether löst es sich jedoch gut. Schmelzwärme und Verdampfungswärme betragen 1,1 kJ/mol und 8,17 kJ/mol, im Vergleich zu Metallen sind dies aber sehr geringe Werte. Der Heizwert Hi liegt bei 35,89 MJ·m−3 beziehungsweise 50,013 MJ kg−1. Die Standardentropie beträgt 188 J·mol−1·K−1, die Wärmekapazität 35,69 J·mol−1·K−1. Der Tripelpunkt von Methan liegt bei 90,67 K und 0,117 bar, der kritische Punkt liegt bei 190,56 K und 45,96 bar. Festes Methan existiert in mehreren Modifikationen, zurzeit sind neun verschiedene bekannt. Bei der Abkühlung von Methan bei normalem Druck entsteht Methan I. Dabei handelt es sich um einen kubisch kristallisierenden Stoff (Raumgruppe F m -3 m). Die Positionen der Wasserstoffatome sind nicht fixiert. d.h. die Methanmoleküle können frei rotieren. Deshalb handelt es sich um einen plastischen Kristall. Das farb- und geruchlose Gas hat eine geringere Dichte als Luft, es steigt also in die höheren Schichten der Erdatmosphäre auf. Dort wirkt es als Treibhausgas, wobei es 20- bis 30-mal wirkungsvoller ist als Kohlenstoffdioxid, allerdings kommt es in viel geringeren Mengen als dieses in der Atmosphäre vor. Es reagiert dort mit Sauerstoff zu Kohlenstoffdioxid und Wasser. Dieser Prozess ist langsam, die Halbwertszeit wird auf 12 Jahre geschätzt. Die UN-Nummern von verdichtetem und tiefgekühltem Methan sind 1971 beziehungsweise 1972. Methan liegt in der handelsüblichen 50 Liter Stahlflasche oder in Kraftfahrzeugtanks (oft mit Kohlenstofffasern verstärktes Epoxidharz über Aluminium-Liner) komprimiert auf 200 bar (als CNG) gasförmig vor. Der Schifftransport in großen Mengen erfolgt in fast überdrucklosen Kugel- oder Membrantanks jedoch bei etwa −160 °C tiefkalt verflüssigt (LNG). Chemische Eigenschaften. Methan ist das einfachste Alkan und der einfachste Kohlenwasserstoff, die Summenformel lautet CH4, die C–H-Bindungen weisen in die Ecken eines Tetraeders. Es ist brennbar und verbrennt an der Luft mit bläulicher, nicht rußender Flamme. Es kann explosionsartig mit Sauerstoff oder Chlor reagieren, wozu eine Initialzündung (Zufuhr von Aktivierungsenergie) oder Katalyse erforderlich ist. Bei der Chlorierung entstehen Chlormethan, Dichlormethan, Chloroform und Tetrachlormethan. Bei der Oxidation dagegen wird das Molekül komplett auseinandergerissen. Aus der Reaktion eines Methanmoleküls mit zwei Sauerstoffmolekülen entstehen zwei Wasser- und ein Kohlenstoffdioxidmolekül. Vom Methan leiten sich Methylverbindungen wie z. B. Methanol und die Methylhalogenide sowie die längerkettigen Alkane ab. Reaktionen mit Sauerstoff. Mit Sauerstoff geht Methan unterschiedliche Reaktionen ein, je nachdem wie viel Sauerstoff für die Reaktion zur Verfügung steht. Nur bei genügend großem Sauerstoffangebot ist eine vollständige Verbrennung des Methans mit optimaler Energieausbeute möglich. Bei ungenügender Sauerstoffzufuhr hingegen entstehen Nebenprodukte wie Kohlenstoffmonoxid (CO) und Kohlenstoff (Ruß). Ferner ist in diesem Fall die Nutzenergie geringer. Weitere Reaktionen. Methan geht außer mit Sauerstoff noch vielfältige weitere Reaktionen ein. Viele davon sind sehr wichtig für die chemische Industrie, da die Produkte von großer technischer Bedeutung sind. Verwendung. Methan wird vorwiegend als Heizgas zur Wärmeerzeugung und zum Betrieb von Motoren durch Verbrennung genutzt. Neben Methan aus anderen Quellen wird zu diesem Zweck Biogas mit einem Methangehalt von etwa 50 bis >70 % aus Mist, Gülle, Klärschlamm oder organischem Müll gewonnen. Früher wurde Methan durch Pyrolyse von Holz gewonnen, bei der Holzgas entsteht (Holzvergasung). Holzgas, das unter anderem Methan enthält, diente wegen des Erdölmangels im Zweiten Weltkrieg zum Betrieb von insbesondere zivilen Automobilen, die den sich aufheizenden Holzvergaser oft außen angebaut hatten. Methan ist ein wichtiges Ausgangsprodukt für technische Synthesen von Wasserstoff, Methanol, Ethin, Blausäure, Schwefelkohlenstoff und Methylhalogeniden. Es dient als Ausgangspunkt für viele andere organische Verbindungen. Explosionsgefahr. Bei einem Volumenanteil zwischen 4,4 und 16,5 Prozent in der Luft bildet es explosive Gemische beziehungsweise gefährliche explosionsfähige Atmosphären. Durch unbemerktes Ausströmen von Erdgas kommt es immer wieder zu folgenschweren Gasexplosionen. Auch die gefürchteten Grubengasexplosionen in Kohlebergwerken (Schlagwetter) sind auf Methan-Luft-Gemische zurückzuführen. Methan ist hoch entzündlich, der Flammpunkt liegt bei −188 °C, die Zündtemperatur bei 600 °C. Methanbehälter sollen an gut belüfteten Orten aufbewahrt werden, es sollte von Zündquellen ferngehalten werden und es sollten Maßnahmen gegen elektrostatische Aufladung getroffen werden. Methan wird um die Dichte zu erhöhen unter hohen Drücken und meist bei tiefen Temperaturen aufbewahrt, in Gasflaschen bei 200 bar, in Tankerschiffen alternativ fast drucklos tiefkalt verflüssigt bei etwa −160 °C. Treibhausgas. Methan ist ein hochwirksames Treibhausgas. Das Treibhauspotenzial von 1 kg Methan ist, auf einen Zeitraum von 100 Jahren betrachtet, 28 mal höher als das von 1 kg Kohlenstoffdioxid; nach einer neueren Untersuchung beträgt dieser Faktor 33, wenn Wechselwirkungen mit atmosphärischen Aerosolen berücksichtigt werden. Man nimmt an, dass vor etwa 252 Millionen Jahren Methan auf diese Weise das größte Massenaussterben des Phanerozoikums mit verursachte. In einer sauerstoffhaltigen Atmosphäre wird Methan langsam, insbesondere durch Hydroxyl-Radikale, oxidiert. Biologische Bedeutung. Methan wird durch bestimmte Bakterien in Gewässern und Böden mit Sauerstoff (O2) zu Kohlenstoffdioxid und Wasser oxidiert. Diese Umsetzung ist exergon und die Bakterien nutzen sie als Energiequelle, weshalb sie als "methanotroph" bezeichnet werden. Toxikologie. Methan wird bei tiefen Temperaturen flüssig gelagert, weil die Dichte dadurch enorm erhöht werden kann. Aus diesem Grund kann es beim Austritt dieses gekühlten Methans leicht zu Erfrierungen kommen. Methan ist ungiftig, die Aufnahme von Methan kann zu erhöhter Atemfrequenz (Hyperventilation) und erhöhter Herzfrequenz führen, es kann kurzzeitig niedrigen Blutdruck, Taubheit in den Extremitäten, Schläfrigkeit, mentale Verworrenheit und Gedächtnisverlust auslösen, alles hervorgerufen durch Sauerstoffmangel. Methan führt aber nicht zu bleibenden Schäden. Wenn die Symptome auftreten, sollte das betroffene Areal verlassen und tief eingeatmet werden, falls daraufhin die Symptome nicht verschwinden, sollte die betroffene Person in ein Krankenhaus gebracht werden. Nachweis. Der Nachweis von Methan kann mittels Infrarotspektroskopie erfolgen. Für den Nachweis extraterrestrischer Vorkommen ist der infrarotspektroskopische Nachweis etabliert. Methan kann auch mittels Gaschromatographie und mit Gaschromatographie mit Massenspektrometrie-Kopplung nachgewiesen und quantifiziert werden. Im Bergbau wurden früher zur Warnung vor Schlagwettern verschiedene qualitative Nachweismethoden eingesetzt, etwa die Davy-Lampe mit Flammsieb, Kanarienvögel oder die Schlagwetterpfeife. Merkur (Planet). Der Merkur ist mit einem Durchmesser von knapp 4880 Kilometern der kleinste, mit einer durchschnittlichen Sonnenentfernung von etwa 58 Millionen Kilometern der sonnennächste und somit auch schnellste Planet im Sonnensystem. Er hat mit einer maximalen Tagestemperatur von rund +430 °C und einer Nachttemperatur bis −170 °C die größten Temperaturschwankungen aller Planeten. Aufgrund seiner Größe und chemischen Zusammensetzung zählt er zu den erdähnlichen Planeten. Wegen seiner Sonnennähe ist er von der Erde aus schwer zu beobachten, da er nur einen maximalen Winkelabstand von etwa 28° von der Sonne erreicht. Freiäugig ist er nur maximal eine Stunde lang entweder am Abend- oder am Morgenhimmel zu sehen, teleskopisch hingegen auch tagsüber. Details auf seiner Oberfläche sind ab einer Fernrohröffnung von etwa 20 cm zu erkennen, wenn er der Erde viermal im Jahr relativ nahe steht. Sein astronomisches Symbol ist ☿. Umlaufbahn. Als sonnennächster Planet hat Merkur auf einer Umlaufbahn mit der großen Halbachse von 0,387 AE (57,9 Mio. km) – bei einer mittleren Entfernung zum Sonnenzentrum von 0,403 AE (60,4 Mio. km) – mit knapp 88 Tagen auch die kürzeste Umlaufzeit. Die Umlaufbahn des Merkurs ist auf die anderen Planeten bezogen vergleichsweise stark elliptisch, unter allen Planeten besitzt Merkur den Orbit mit der größten numerischen Exzentrizität (0,2056). So liegt sein sonnennächster Punkt, das Perihel, bei 0,307 AE (46,0 Mio. km) und sein sonnenfernster Punkt, das Aphel, bei 0,467 AE (69,8 Mio. km). Ebenso ist die Neigung seiner Bahnebene gegen die Erdbahnebene mit 7° größer als die aller anderen Planeten. Eine dermaßen hohe Exzentrizität und Bahnneigung sind ansonsten eher typisch für Zwergplaneten wie Pluto und Eris. Periheldrehung. Drehung des Merkurperihels. Die Exzentrizität der Bahn und die Rate der Präzession sind stark übertrieben. Zwischen den einzelnen dargestellten Merkurbahnen (Aphel-Positionen markiert) liegen in Wirklichkeit etwa 58.000 Umläufe. Bereits die newtonsche Mechanik sagt voraus, dass der gravitative Einfluss der anderen Planeten das Zweikörpersystem Sonne-Merkur stört. Durch diese Störung führt die große Bahnachse der Merkurbahn eine langsame rechtläufige Drehung in der Bahnebene aus. Der Merkur durchläuft also streng genommen keine Ellipsen-, sondern eine Rosettenbahn. In der zweiten Hälfte des 19. Jahrhunderts waren die Astronomen in der Lage, diese Veränderungen, insbesondere die Lage des Merkurperihels, mit großer Genauigkeit zu messen. Urbain Le Verrier, der damalige Direktor des Pariser Observatoriums, bemerkte, dass die Präzession (Drehung) des Perihels für Merkur 5,74" (Bogensekunden) pro Jahr beträgt. Dieser Wert konnte allerdings nicht völlig mit der klassischen Mechanik von Isaac Newton erklärt werden. Laut der newtonschen Himmelsmechanik dürfte er nur 5,32" betragen, der gemessene Wert ist also um 0,43" pro Jahr zu groß, der Fehler beträgt also 0,1" (bzw. 29 km) pro Umlauf. Darum vermutete man neben einer verursachenden Abplattung der Sonne noch einen Asteroidengürtel zwischen Merkur und der Sonne oder einen weiteren Planeten, der für diese Störungen verantwortlich sein sollte. Obwohl man sogar schon einen Namen für diesen vermeintlichen Planeten gewählt hatte – Vulkan –, konnte trotz intensiver Suche kein Objekt innerhalb der Merkurbahn gefunden werden. Da ein Objekt in diesem Bereich durch den entsprechend kleinen Abstand zur Sonne leicht von dieser überstrahlt werden kann, stieß das Problem nur auf mäßiges Interesse, bis Albert Einstein mit seiner allgemeinen Relativitätstheorie eine Erklärung für die kleinen Unterschiede zwischen Theorie und Beobachtung erbrachte. Der relativistisch berechnete Überschuss von 43,03" je Jahrhundert stimmt gut mit der beobachteten Differenz von 43,11" überein. Für eine komplette Periheldrehung von 360° benötigt Merkur rund 225.000 Jahre bzw. rund 930.000 Umläufe und erfährt so je Umlauf ein um rund 1,4" gedrehtes Perihel. Mögliche zukünftige Entwicklung. Konstantin Batygin und Gregory Laughlin von der University of California, Santa Cruz sowie davon unabhängig Jacques Laskar vom Pariser Observatorium haben durch Computersimulationen festgestellt, dass das innere Sonnensystem auf lange Sicht nicht stabil bleiben muss. In ferner Zukunft – in einer Milliarde Jahren oder mehr – könnte Jupiters Anziehungskraft Merkur aus seiner jetzigen Umlaufbahn herausreißen, indem ihr Einfluss nach und nach Merkurs große Bahnexzentrizität weiter vergrößert, bis der Planet in seinem sonnenfernsten Punkt die Umlaufbahn der Venus kreuzt. Daraufhin könnte es vier Szenarien geben: Merkur stürzt in die Sonne; er wird aus dem Sonnensystem geschleudert; er kollidiert mit der Venus oder mit der Erde. Die Wahrscheinlichkeit, dass eine dieser Möglichkeiten eintrifft, bevor sich die Sonne zu einem Roten Riesen aufblähen wird, liegt jedoch nur bei rund 1 %. Rotation. Die Achse von Merkurs rechtläufiger Rotation steht fast senkrecht auf seiner Bahnebene. Deswegen und aufgrund der fehlenden Atmosphäre können auf Merkur Jahreszeiten nicht wie auf der Erde oder auf dem Mars zustande kommen. Allerdings variiert die Sonneneinstrahlung aufgrund der Exzentrizität der Bahn beträchtlich: Im Perihel trifft etwa 2,3-mal so viel Energie von der Sonne auf die Merkuroberfläche wie im Aphel. Dieser Effekt, der beispielsweise auf der Erde wegen der geringen Exzentrizität der Bahn klein ist (7 %), führt zu Jahreszeiten auf Merkur. Schema der Resonanz von drei Rotationen zu zwei Umläufen Merkurs Radarbeobachtungen zeigten 1965, dass der Planet nicht, wie ursprünglich von Giovanni Schiaparelli 1889 angenommen, eine einfache gebundene Rotation besitzt, das heißt, der Sonne immer dieselbe Seite zuwendet (so, wie der Erdmond uns auf der Erde immer dieselbe Seite zeigt). Vielmehr besitzt er als Besonderheit eine gebrochen gebundene Rotation und dreht sich während zweier Umläufe exakt dreimal um seine Achse. Seine siderische Rotationsperiode beträgt zwar 58,646 Tage, aber aufgrund der 2:3-Kopplung an die schnelle Umlaufbewegung mit demselben Drehsinn entspricht der Merkurtag − der zeitliche Abstand zwischen zwei Sonnenaufgängen an einem beliebigen Punkt − auf dem Planeten mit 175,938 Tagen auch genau dem Zeitraum von zwei Sonnenumläufen. Nach einem weiteren Umlauf geht die Sonne dementsprechend am Antipodenort auf. Durchläuft der Merkur den sonnennächsten Punkt seiner ziemlich stark exzentrischen Bahn, das Perihel, steht das Zentralgestirn zum Beispiel immer abwechselnd über dem Calorisbecken am 180. Längengrad oder über dessen chaotischem Antipodengebiet am Nullmeridian im Zenit. Während Merkurs höchsten Bahngeschwindigkeiten im Perihelbereich ist die Winkelgeschwindigkeit seiner Bahnbewegung größer als die seiner Rotation, sodass die Sonne am Merkurhimmel eine rückläufige Schleifenbewegung vollführt. Zur Erklärung der Kopplung von Rotation und Umlauf wird unter Caloris Planitia (der „heißen“ Tiefebene) eine Massekonzentration ähnlich den sogenannten Mascons der großen, annähernd kreisförmigen Maria des Erdmondes, angenommen, an der die Gezeitenkräfte der Sonne die vermutlich einst schnellere Eigendrehung des Merkurs zu dieser ungewöhnlichen Resonanz heruntergebremst haben. Planet ohne Mond. Merkur hat keinen natürlichen Satelliten. Die Existenz eines solchen wurde auch niemals ernsthaft in Erwägung gezogen. Es besteht jedoch seit Mitte der 1960er Jahre von verschiedenen Wissenschaftlern die Hypothese, dass Merkur selbst einmal ein Trabant war, welcher der Venus entwichen ist. Anlass zu der Annahme gaben anfangs nur einige Besonderheiten seiner Umlaufbahn. Später kamen seine spezielle Rotation sowie die zum Erdmond analoge Oberflächengestalt von zwei auffallend unterschiedlichen Hemisphären hinzu. Mit dieser Annahme lässt sich auch erklären, warum die beiden Planeten als einzige im Sonnensystem mondlos sind. Am 27. März 1974 glaubte man, einen Mond um Merkur entdeckt zu haben. Zwei Tage, bevor Mariner 10 Merkur passierte, fing die Sonde an, starke UV-Emissionen zu messen, die kurz darauf aber wieder verschwanden. Drei Tage später tauchten die Emissionen wieder auf, schienen sich aber von Merkur fortzubewegen. Einige Astronomen vermuteten einen neu entdeckten Stern, andere wiederum einen Mond. Die Geschwindigkeit des Objekts wurde mit 4 km/s berechnet, was etwa dem erwarteten Wert eines Merkurmondes entsprach. Einige Zeit später konnte das Objekt schließlich als Stern 31 Crateris identifiziert werden. Aufbau. Auf den ersten Blick wirkt der Merkur für einen erdähnlichen Planeten eher uninteressant, sein Aufbau ist aber recht widersprüchlich: Äußerlich gleicht er dem planetologisch-geologisch inaktiven Erdmond, doch das Innere entspricht anscheinend viel mehr dem der geologisch sehr dynamischen Erde. Atmosphäre. Der Merkur hat keine Atmosphäre im herkömmlichen Sinn, denn sie ist dünner als ein labortechnisch erreichbares Vakuum, ähnlich wie die Atmosphäre des Mondes. Die „atmosphärischen“ Bestandteile Wasserstoff H2 (22 %) und Helium (6 %) stammen sehr wahrscheinlich aus dem Sonnenwind, wohingegen Sauerstoff O2 (42 %), Natrium (29 %) und Kalium (0,5 %) vermutlich aus dem Material der Oberfläche freigesetzt wurden (die Prozentangaben sind ungenaue Schätzungen für die Volumenanteile der Gase). Der Druck der Gashülle beträgt nur etwa 10−15 Bar am Boden von Merkur und die Gesamtmasse der Merkuratmosphäre damit nur etwa 1000 Kilogramm. Aufgrund der großen Hitze und der geringen Anziehungskraft kann Merkur die Gasmoleküle nicht lange halten, sie entweichen durch Photoevaporation stets schnell ins All. Bezogen auf die Erde wird jener Bereich, für den dies zutrifft, Exosphäre genannt; es ist die Austauschzone zum interplanetaren Raum. Eine ursprüngliche Atmosphäre als Entgasungsprodukt des Planeteninnern ist dem Merkur längst verloren gegangen; es gibt auch keine Spuren einer früheren Erosion durch Wind und Wasser. Das Fehlen einer richtigen Gashülle, welche für einen gewissen Ausgleich der Oberflächentemperaturen sorgen würde, bedingt in dieser Sonnennähe extreme Temperaturschwankungen zwischen der Tag- und der Nachtseite. Gegenüber den Nachttemperaturen, die bis auf −173 °C sinken, wird die während des geringsten Sonnenabstands beschienene Planetenseite bis auf +427 °C aufgeheizt. Während des größten Sonnenabstands beträgt die höchste Bodentemperatur bei der großen Bahnexzentrizität von Merkur noch rund +250 °C. Oberfläche. a> kartierten Oberflächenteile (der helle Streifen war nicht erfasst worden) Wegen der schwierigen Erreichbarkeit auf der sonnennahen Umlaufbahn und der damit verbundenen Gefahr durch den intensiveren Sonnenwind haben bislang erst zwei Raumsonden, Mariner 10 und MESSENGER, den Planeten besucht und eingehender studiert. Bei drei Vorbeiflügen in den 1970er Jahren konnte Mariner 10 lediglich etwa 45 % seiner Oberfläche kartieren. Die Merkursonde MESSENGER hatte gleich bei ihrem ersten Vorbeiflug im Januar 2008 auch einige von Mariner 10 nicht erfasste Gebiete fotografiert und konnte die Abdeckung auf etwa 66 % erhöhen. Mit ihrem zweiten Swing-by im Oktober 2008 stieg die Abdeckung auf rund 95 %. Die mondähnliche, von Kratern durchsetzte Oberfläche aus rauem, porösem, dunklem Gestein reflektiert das Sonnenlicht nur schwach. Die mittlere sphärische Albedo beträgt 0,06, das heißt die Oberfläche streut im Durchschnitt 6 % des von der Sonne praktisch parallel eintreffenden Lichtes zurück. Damit ist der Merkur im Mittel noch etwas dunkler als der Mond (0,07). Anhand der zerstörerischen Beeinträchtigung der Oberflächenstrukturen untereinander ist, wie auch bei Mond und Mars, eine Rekonstruktion der zeitlichen Reihenfolge der prägenden Ereignisse möglich. Es gibt in den abgelichteten Gebieten des Planeten keine Anzeichen von Plattentektonik; MESSENGER hat aber zahlreiche Hinweise auf vulkanische Eruptionen gefunden. Krater. Die Oberfläche des Merkurs ist mit Kratern übersät. Die Verteilung der Einschlagstrukturen ist gleichmäßiger als auf dem Mond und dem Mars; demnach ist das Alter seiner Oberfläche gleichmäßig sehr hoch. Mit ein Grund für die hohe Kraterdichte ist die äußerst dünne Atmosphäre, die ein ungehindertes Eindringen von Kleinkörpern gestattet. Die große Anzahl der Krater je Fläche – ein Maß für das Alter der Kruste – spricht für eine sehr alte, das heißt, seit der Bildung und Verfestigung des Merkurs von vor etwa 4,5 bis vor ungefähr 4 Milliarden Jahren sonst wenig veränderte Oberfläche. Wie auch beim Mond zeigen die Krater des Merkurs ein weiteres Merkmal, das für eine durch Impakt entstandene Struktur als typisch gilt: Das hinausgeschleuderte und zurückgefallene Material, das sich um den Krater herum anhäuft; manchmal in Form von radialen Strahlen, wie man sie auch als Strahlensysteme auf dem Mond kennt. Sowohl diese speichenartigen Strahlen als auch die Zentralkrater, von denen sie jeweils ausgehen, sind aufgrund des relativ geringen Alters heller als die Umgebung. Die ersten Beobachtungen der Strahlen des Merkurs machte man mit den Radioteleskopen Arecibo und Goldstone und mithilfe des Very Large Array (VLA) des nationalen Radioobservatoriums der Vereinigten Staaten (siehe auch Astrogeologie). Der erste Krater, der durch die Raumsonde Mariner 10 während ihrer ersten Annäherung erkannt wurde, war der 40 km breite, aber sehr helle Strahlenkrater Kuiper (siehe Bild rechts). Der Krater wurde nach dem niederländisch-US-amerikanischen Mond- und Planetenforscher Gerard Kuiper benannt, der dem Mariner-10-Team angehörte und noch vor der Ankunft der Sonde verstarb. a> mit etwas hellerer (hier) gelber Oberfläche. Nördlich des Äquators liegt Caloris Planitia, ein riesiges, kreisförmiges, aber ziemlich flaches Becken. Mit einem Durchmesser von etwa 1550 km ist es das größte bekannte Gebilde auf dem Merkur. Es wurde vermutlich vor etwa 3,8 Milliarden Jahren von einem über 100 km großen Einschlagkörper erzeugt. Der Impakt war so heftig, dass durch die seismischen Schwingungen um den Ort des Einschlags mehrere konzentrische Ringwälle aufgeworfen wurden und aus dem Innern des Planeten Lava austrat. Die von MESSENGER neu entdeckten vulkanischen Strukturen finden sich insbesondere im Umfeld und auch im Inneren des Beckens. Das Beckeninnere ist von dem Magma aus der Tiefe anscheinend aufgefüllt worden, ähnlich wie die Marebecken des Mondes. Den Boden des Beckens prägen viele konzentrische Furchen und Grate, die an eine Zielscheibe erinnern und ihm Ähnlichkeit mit dem annähernd vergleichbar großen Multiringsystem auf dem Mond geben, in dessen Beckenzentrum das Mare Orientale liegt. Das ziemlich flache Caloris-Becken wird von den Caloris Montes begrenzt, einem unregelmäßigen Kettengebirge, dessen Gipfelhöhen lediglich etwa 1 km erreichen. Ebenen. Auch andere flache Tiefebenen ähneln den Maria des Mondes. Mare (Mehrzahl: Maria, deutsch ‚Meere‘) ist in der Selenologie – der „Geologie“ des Erdtrabanten – der lateinische Gattungsname für die glatten und dunklen Basaltflächen, die zahlreiche Krater und Becken des Mondes infolge von aus Bodenspalten emporgestiegener und erstarrter Lava ausfüllen. Die glatten Ebenen des Merkurs sind aber nicht dunkel wie die „Mondmeere“. Insgesamt sind sie anscheinend auch kleiner und weniger zahlreich. Sie liegen alle auf der Nordhalbkugel im Umkreis des Caloris-Beckens. Ihre Gattungsbezeichnung ist Planitia, lateinisch für Tiefebene. Dass sich die mareähnlichen Ebenen auf dem Merkur nicht wie die Maria des Mondes mit einer dunkleren Farbe von der Umgebung abheben, wird mit einem geringeren Gehalt an Eisen und Titan erklärt. Damit ergibt sich jedoch ein gewisser Widerspruch zu der hohen mittleren Dichte des Planeten, die für einen verhältnismäßig sehr großen Metallkern spricht, der vor allem aus Eisen besteht. Dunkle Böden wurden durch MESSENGER im Caloris-Becken nur als Füllung kleinerer Krater gefunden und obwohl für deren Material ein vulkanischer Ursprung vermutet wird, zeigen die Messdaten anders als bei solchem Gestein zu erwarten ist, ebenfalls nur einen sehr geringen Anteil an Eisen. Das Metall ist in Merkurs Oberfläche zu höchstens 6 Prozent enthalten. Besonderheiten. Rupes Discovery, die längste Steilstufe, zieht sich über 400 km durch Ebenen und Krater. Rupes Discovery im schematischen Querschnitt Der in der Planetengeologie profilierte amerikanische Geologe Robert G. Strom hat den Umfang der Schrumpfung der Merkuroberfläche auf etwa 100.000 km2 abgeschätzt. Das entspricht einer Verringerung des Planetenradius um bis zu etwa 2 km. Neuere Schätzungen, die wesentlich auf den Messungen der Raumsonde MESSENGER beruhen, kommen auf einen deutlich höheren Wert von etwa 7 km Kontraktion. Als Ursache der Kontraktion wird die Abkühlung des Planeten im Anschluss an eine heiße Phase seiner Entstehung gesehen, in der er ähnlich wie die Erde und der Mond von vielen großen Asteroideneinschlägen bis zur Glutflüssigkeit aufgeheizt worden sein soll. Dieser Abschnitt der Entwicklung nahm demnach erst vor etwa 3,8 Milliarden Jahren mit dem „Letzten Schweren Bombardement“ seinen Ausklang, während dessen Nachlassens die Kruste langsam auskühlen und erstarren konnte. Einige der gelappten Böschungen wurden offenbar durch die ausklingende Bombardierung wieder teilweise zerstört. Das bedeutet, dass sie entsprechend älter sind als die betreffenden Krater. Der Zeitpunkt der Merkurschrumpfung wird anhand des Grades der Weltraum-Erosion – durch viele kleinere, nachfolgende Einschläge – vor ungefähr 4 Milliarden Jahren angenommen, also während der Entstehung der mareähnlichen Ebenen. Laut einer alternativen Hypothese sind die tektonischen Aktivitäten während der Kontraktionsphase auf die Gezeitenkräfte der Sonne zurückzuführen, durch deren Einfluss die Eigendrehung des Merkurs von einer ungebundenen, höheren Geschwindigkeit auf die heutige Rotationsperiode heruntergebremst wurde. Dafür spricht, dass sich diese Strukturen wie auch eine ganze Reihe von Rinnen und Bergrücken mehr in meridionale als in Ost-West-Richtung erstrecken. Nach der Kontraktion und der dementsprechenden Verfestigung des Planeten entstanden kleine Risse auf der Oberfläche, die sich mit anderen Strukturen, wie Kratern und den flachen Tiefebenen überlagerten, – ein klares Indiz dafür, dass die Risse im Vergleich zu den anderen Strukturen jüngeren Ursprungs sind. Die Zeit des Vulkanismus auf dem Merkur endete, als die Kompression der Hülle sich einstellte, sodass dadurch die Ausgänge der Lava an der Oberfläche verschlossen wurden. Vermutlich passierte das während einer Periode, die man zwischen die ersten 700 bis 800 Millionen Jahre der Geschichte des Merkurs einordnet. Seither gab es nur noch vereinzelte Einschläge von Kometen und Asteroiden. Kraterlandschaft der Südhalbkugel mit der 190 km breiten Wallebene Schubert in der Bildmitte Eine weitere Besonderheit gegenüber dem Relief des Mondes sind auf dem Merkur die sogenannten Zwischenkraterebenen. Im Unterschied zu der auch mit größeren Kratern gesättigten Mondoberfläche kommen auf dem Merkur zwischen den großen Kratern relativ glatte Ebenen mit Hochlandcharakter vor, die nur von verhältnismäßig wenigen Kratern mit Durchmessern von unter 20 km geprägt sind. Dieser Geländetyp ist auf dem Merkur am häufigsten verbreitet. Manche Forscher sehen darin die ursprüngliche, verhältnismäßig unveränderte Merkuroberfläche. Andere glauben, dass ein sehr früher und großräumiger Vulkanismus die Regionen einst geglättet hat. Es gibt Anzeichen dafür, dass sich in diesen Ebenen die Reste größerer und auch vieler doppelter Ringwälle gleich solchen des Mondes noch schwach abzeichnen. Möglichkeit des Vorhandenseins von Eis und kleinen organischen Molekülen. Für die Polregionen von Merkur lassen die Ergebnisse von Radaruntersuchungen die Möglichkeit zu, dass dort kleine Mengen von Wassereis existieren könnten. Da Merkurs Rotationsachse mit 0,01° praktisch senkrecht auf der Bahnebene steht, liegt das Innere einiger polnaher Krater stets im Schatten. In diesen Gebieten ewiger Nacht sind dauerhafte Temperaturen von −160 °C möglich. Solche Bedingungen können Eis konservieren, das durch eingeschlagene Kometen eingebracht wurde. Die hohen Radar-Reflexionen können jedoch auch durch Metallsulfide oder durch die in der Atmosphäre nachgewiesenen Alkalimetalle oder andere Materialien verursacht werden. Im November 2012 veröffentlichte Messungen der Raumsonde MESSENGER weisen auf Wassereis im Inneren von Kratern am Merkurnordpol hin, die ständig im Schatten liegen. Außerdem wurden Spuren von organischen Molekülen (einfache Kohlenstoff- und Stickstoffverbindungen) gefunden. Da diese Moleküle als Grundvoraussetzungen für die Entstehung von biologischem Leben gelten, rief diese Entdeckung einiges Erstaunen hervor, da dies auf dem atmosphärelosen und durch die Sonne intensiv aufgeheizten Planeten nicht für möglich gehalten worden war. Es wird vermutet, dass diese Spuren an Wasser und organischer Materie durch Kometen, die auf dem Merkur eingeschlagen sind, eingebracht wurden. Spekulationen über Wasservorkommen hat es auch schon hinsichtlich spektraler Spuren von Wasserstoff in Kratern nahe dem Südpol des Mondes gegeben. Als dort die abgetrennte EDUS-Stufe des Lunar CRater Observation and Sensing Satellite gezielt zum Aufschlag gebracht wurde, konnten in der aufgewirbelten Wolke Spuren von Wassereis nachgewiesen werden. Indizien im Detail. Die Radiowellen, die vom Goldstone-Radioteleskop des NASA Deep Space Network ausgesandt wurden, hatten eine Leistung von 450 Kilowatt bei 8,51 Gigahertz; die vom VLA mit 26 Antennen empfangenen Radiowellen ließen helle Punkte auf dem Radarschirm erscheinen, Punkte, die auf depolarisierte Reflexionen von Wellen vom Nordpol des Merkurs schließen lassen. Die Studien, die mit dem Radioteleskop von Arecibo gemacht wurden, das Wellen im S-Band (2,4 GHz) mit einer Leistung von 420 kW ausstrahlte, gestatteten es, eine Karte von der Oberfläche des Merkurs anzufertigen, die eine Auflösung von 15 km hat. Bei diesen Studien konnte nicht nur die Existenz der bereits gefundenen Zonen hoher Reflexion und Depolarisation nachgewiesen werden, sondern insgesamt 20 Zonen an beiden Polen. Die erwartete Radarsignatur von Eis entspricht der beobachteten erhöhten Helligkeit auf den Radarbildern und der gemessenen starken Depolarisation der reflektierten Wellen. Auf der anderen Seite zeigt das Silikatgestein, das den größten Anteil der Oberfläche ausmacht, ein Verhalten, das sich vom Eis sehr stark unterscheidet. Andere Untersuchungen, die diese Möglichkeit unterstützen, zeigen, dass die Untersuchungen der zur Erde zurückgeworfenen Strahlen den Schluss zulassen, dass die Form dieser Zonen kreisförmig sein muss, und dass es sich deshalb um tiefe Krater handeln könnte. Diese Krater müssten allerdings so tief sein, dass Reflexionen ausgeschlossen wären. Am Südpol des Merkurs scheint sich die Anwesenheit eine Zone hoher Reflexion mit einer Anwesenheit des Kraters Chao Mang-Fu und den kleinen Gebieten zu decken, deren Krater ebenfalls bereits identifiziert wurden. Am Nordpol gestaltet sich die Situation etwas schwieriger, weil sich die Radarbilder mit denen von Mariner 10 offenbar nicht decken lassen. Es liegt deshalb nahe, dass es Zonen hoher Reflexion geben kann, die sich nicht mit der Existenz von Kratern erklären lassen. Die Reflexionen der Radarwellen, die das Eis auf der Oberfläche des Merkurs erzeugt, sind geringer als die Reflexionen, die sich mit reinem Eis erzeugen ließen; eventuell liegt es am Vorhandensein von Staub, der die Oberfläche des Kraters teilweise überdeckt. Mögliche Herkunft. Die Existenz von Kratern, die ständig Schatten werfen, ist keine spezifische Eigenschaft des Merkurs: Auf der Südhalbkugel unseres Mondes hat man den größten Krater des Sonnensystems gefunden, das Südpol-Aitken-Becken. Es hat einen Durchmesser von etwa 2500 km und reicht vom Südpol des Mondes bis zum Krater Aitken. Seine Tiefe beträgt bis zu 13 km. Es ist von vielen anderen Kratern überprägt worden und besitzt keinen ausgeprägten Rand. In den polnahen Kratern könnte sich möglicherweise Eis befinden. Dieses Eis auf unserem Mond stammt aus externen Quellen, genau wie das auf dem Merkur. Im Fall des Mondes glaubt man, dass das Eis von Kometen stammen könnte, während das Eis auf dem Merkur wohl von Meteoriten stammt. Wenn man die Existenz von Eis auf einigen Meteoriten in Betracht zieht, könnten diese Meteoriten das Eis in die Krater gebracht haben, das seit Millionen und Milliarden von Jahren dort gelagert wird. Eine andere These, die bisher nicht bestätigt werden konnte, besagt, dass aus dem Inneren des Merkurs eine erhebliche Menge Wasser ausfließt. Man hat weder die Existenz eines solchen Mechanismus, der den Verlust von Wasser an der Oberfläche zur Folge hätte, noch die Fotodissoziation oder die Erosion, die durch den Sonnenwind und Mikrometeoriten hervorgerufen wird, untersucht. Das Verhalten von Eis auf anderen Himmelskörpern ist jedoch noch mit Unsicherheiten behaftet; vor allem die hohen Temperaturen an der Oberfläche des Merkurs und der Grad der Sonneneinstrahlung legen nahe, dass das Eis sublimieren und dadurch in den Weltraum entweichen könnte. Das Vorkommen von Eis in höheren Breiten könnte dadurch erklärt werden, dass auf Kraterhängen, die nie vom Sonnenlicht beschienen werden, die Temperaturen bis auf −171 °C sinken und in den polaren Tiefebenen generell nie über −106 °C steigen. Das Vorhandensein von Eis auf dem Merkur ist immer noch nicht vollständig bewiesen. Es handelt sich bislang um eine Vermutung, basierend auf den erwähnten Beobachtungen von Zonen hoher Radarreflexionen und der Tatsache, dass diese Zonen sich mit Kratern an den Polen decken. Diese Reflexionen können ohne Zweifel auch durch Metallsulfide hervorgerufen werden oder durch andere Materialien, die ähnliche Reflexionen verursachen. Nomenklatur der Oberflächenstrukturen. Für die 32 benannten Albedoformationen – Gebiete mit besonderem Rückstrahlvermögen – wurde ein Großteil der Namen aus der Merkurkartierung Eugène Michel Antoniadis übernommen. Innerer Aufbau. Schematischer Schnitt durch Kruste und Mantel des Merkurs Merkur ist ein Gesteinsplanet wie die Venus, die Erde und der Mars und ist von allen der kleinste Planet im Sonnensystem. Sein Durchmesser beträgt mit 4.878 km nur knapp 40 Prozent des Erddurchmessers. Er ist damit sogar kleiner als der Jupitermond Ganymed und der Saturnmond Titan, dafür aber jeweils mehr als doppelt so massereich wie diese sehr eisreichen Trabanten. Mittlere Dichte der terrestrischen Planeten in Abhängigkeit von ihrem Radius Das Diagramm zeigt, wie stark die mittlere Dichte der erdähnlichen Planeten einschließlich des Erdmondes bei ähnlicher chemischer Zusammensetzung mit dem Durchmesser im Allgemeinen ansteigt. Merkur allerdings hat mit 5,427 g/cm3 fast die Dichte der weit größeren Erde und liegt damit für seine Größe weit über dem Durchmesser-Dichte-Verhältnis der anderen. Das zeigt, dass er eine „schwerere“ chemische Zusammensetzung haben muss: Sein sehr großer Eisen-Nickel-Kern soll zu 65 Prozent aus Eisen bestehen, etwa 70 Prozent der Masse des Planeten ausmachen und einen Durchmesser von etwa 3.600 km haben. Neueste Messungen zeigen sogar einen Wert von 4.100 km Kerndurchmesser, das wären drei Viertel des Planetendurchmessers, der Kern wäre damit größer als der Erdmond. Auf den wohl nur 600 km dünnen Mantel aus Silikaten entfallen rund 30 Prozent der Masse, bei der Erde sind es 62 Prozent. Die Kruste ist mit einigen 10 km relativ dick und besteht überwiegend aus Feldspat und Mineralien der Pyroxengruppe, ist also dem irdischen Basalt sehr ähnlich. Die dennoch etwas höhere Gesamtdichte der Erde resultiert aus der kompressiveren Wirkung ihrer starken Gravitation. So geht eine Theorie davon aus, dass Merkur ursprünglich ein Metall-Silikat-Verhältnis ähnlich dem der Chondrite, der meistverbreiteten Klasse von Meteoriten im Sonnensystem, aufwies. Seine Ausgangsmasse müsste demnach etwa das 2,25-fache seiner heutigen Masse gewesen sein. In der Frühzeit des Sonnensystems, vor etwa 4,5 Milliarden Jahren, wurde Merkur jedoch – so wird gemutmaßt – von einem sehr großen Asteroiden mit etwa einem Sechstel dieser Masse getroffen. Ein Aufschlag dieser Größenordnung hätte einen Großteil der Planetenkruste und des Mantels weggerissen und lediglich den metallreichen Kern übrig gelassen. Eine ähnliche Erklärung wurde zur Entstehung des Erdmondes im Rahmen der Kollisionstheorie vorgeschlagen. Bei Merkur blieb jedoch unklar, weshalb nur ein so geringer Teil des zersprengten Materials auf den Planeten zurückfiel. Nach Computersimulationen von 2006 wird das mit der Wirkung des Sonnenwindes erklärt, durch den sehr viele Teilchen verweht wurden. Von diesen Partikeln und Meteoriten, die nicht in die Sonne fielen, sind demnach die meisten in den interstellaren Raum entwichen und ein bis zwei Prozent auf die Venus sowie etwa 0,02 Prozent auf die Erde gelangt. Eine alternative Theorie schlägt vor, dass Merkur sehr früh in der Entwicklung des Sonnensystems entstanden sei, noch bevor sich die Energieabstrahlung der jungen Sonne stabilisiert hat. Auch diese Theorie geht von einer etwa doppelt so großen Ursprungsmasse des innersten Planeten aus. Als der Protostern sich zusammenzuziehen begann, könnten auf Merkur Temperaturen zwischen 2.500 und 3.500 K (Kelvin), möglicherweise sogar bis zu 10.000 K geherrscht haben. Ein Teil seiner Materie wäre bei diesen Temperaturen einfach verdampft und hätte eine Atmosphäre gebildet, die im Laufe der Zeit vom Sonnenwind fortgerissen worden sei. Eine dritte Theorie argumentiert ähnlich und geht von einer langanhaltenden Erosion der äußeren Schichten des Planeten durch den Sonnenwind aus. Nach einer vierten Theorie wurde der Merkur kurz nach seiner Bildung von einem oder mehreren Protoplaneten gestreift, die doppelt bis viermal so schwer waren wie er, – wobei er große Teile seines Gesteinsmantels verlor. Magnetfeld. Trotz seiner langsamen Rotation besitzt Merkur eine relativ ausgeprägte Magnetosphäre, deren Volumen etwa fünf Prozent der Magnetosphäre der Erde beträgt. Er ist damit neben der Erde der einzige weitere Gesteinsplanet, der ein globales Magnetfeld aufweist. Es hat mit einer mittleren Feldintensität von 450 Nanotesla an der Oberfläche des Planeten ungefähr ein Prozent der Stärke des Erdmagnetfeldes auf Höhe des Meeresspiegels. Die Neigung des Dipolfeldes gegen die Rotationsachse beträgt rund 7°. Die Ausrichtung der Magnetpole entspricht der Situation der Erde, das heißt, dass beispielsweise der magnetische Nordpol des Merkurs im Umkreis seiner südlichen Rotationsachse liegt. Die Grenze der Magnetosphäre befindet sich in Richtung der Sonne lediglich in einer Höhe von circa 1000 Kilometern, wodurch energiereiche Teilchen des Sonnenwinds ungehindert die Oberfläche erreichen können. Es gibt keine Strahlungsgürtel. Insgesamt ist Merkurs Magnetfeld asymmetrisch. Es ist auf der Nordhalbkugel stärker als auf der Südhalbkugel, sodass der magnetische Äquator gegenüber dem geografischen Äquator rund 500 Kilometer nördlich liegt. Dadurch ist die Südhalbkugel für den Sonnenwind leichter erreichbar. Möglicherweise wird Merkurs Dipolfeld ganz ähnlich dem der Erde durch den Dynamo-Effekt zirkulierender Schmelzen im Metallkern erzeugt; dann müsste seine Feldstärke aber 30-mal stärker sein, als von Mariner 10 gemessen. Einem Modell von Ulrich Christensen vom Max-Planck-Institut für Sonnensystemforschung in Katlenburg-Lindau zufolge werden große Teile des Feldes durch elektrisch leitende und stabile Schichtungen des äußeren, flüssigen Kerns stark gedämpft, sodass an der Oberfläche nur ein relativ schwaches Feld übrig bleibt. Eigentlich sollte der Merkur aufgrund seiner geringen Größe – ebenso wie der wesentlich größere und bereits erstarrte Mars – seit seiner Entstehung schon längst zu stark abgekühlt sein, um in seinem Kern Eisen oder ein Eisen-Nickel-Gemisch noch flüssig halten zu können. Aus diesem Grund wurde eine Hypothese aufgestellt, welche die Existenz des Magnetfeldes als Überbleibsel eines früheren, mittlerweile aber erloschenen Dynamo-Effektes erklärt; es wäre dann das Ergebnis erstarrter Ferromagnetite. Es ist aber möglich, dass sich zum Beispiel durch Mischungen mit Schwefel eine eutektische Legierung mit niedrigerem Schmelzpunkt bilden konnte. Durch ein spezielles Auswertungsverfahren konnte bis 2007 ein Team amerikanischer und russischer Planetenforscher um Jean-Luc Margot von der Cornell-Universität anhand von Radarwellen die Rotation des Merkurs von der Erde aus genauer untersuchen und ausgeprägte Schwankungen feststellen, die mit einer Größe von 0,03 Prozent deutlich für ein teilweise aufgeschmolzenes Innere sprechen. Entwicklungsetappen. Nach der herkömmlichen Theorie zur Entstehung des Planetensystems der Sonne ist der Merkur wie alle Planeten aus einer allmählichen Zusammenballung von Planetesimalen hervorgegangen, die sich zu immer größeren Körpern vereinten. In der letzten Phase der Akkretion schluckten die größeren Körper die kleineren und in dem Bereich des heutigen Merkurorbits bildete sich binnen etwa 10 Millionen Jahren der sonnennächste Planet. Mit der Aufheizung des Protoplaneten, also des „Rohplaneten“ durch den Zerfall der radioaktiven Elemente und durch die Energie vieler großer und andauernder Einschläge während des Aufsammelns der kleineren Brocken, begann das, was man mangels eines merkurspezifischen Begriffes als die "geologische" Entwicklung bezeichnen kann. Der bis zur Glut erhitzte Körper differenzierte sich chemisch durch seine innere Gravitation in Kern, Mantel und Kruste. Mit dem Ausklingen des Dauerbombardements konnte der entstandene Planet beginnen, sich abzukühlen und es bildete sich aus der äußeren Schicht eine feste Gesteinskruste. In der folgenden Etappe sind anscheinend alle Krater und andere Spuren der ausklingenden Akkretion überdeckt worden. Die Ursache könnte eine Periode von frühem Vulkanismus gewesen sein. Dieser Zeit wird die Entstehung der Zwischenkraterebenen zugeordnet sowie die Bildung der gelappten Böschungen durch ein Schrumpfen des Merkurs zugeschrieben. Erst das Ende des schweren Bombardements hat sich mit der Entstehung des Caloris-Beckens und den damit verbundenen Landschaftsformen im Relief als Beginn der dritten Epoche eindrucksvoll niedergeschlagen. In der vierten Phase entstanden die weiten, mareähnlichen Ebenen, wahrscheinlich durch eine weitere Periode vulkanischer Aktivitäten. Die fünfte und seit etwa 3 Milliarden Jahren noch immer andauernde Phase der Oberflächengestaltung zeichnet sich lediglich durch eine Zunahme der Einschlagkrater aus. Dieser Zeit werden die Zentralkrater der Strahlensysteme zugeordnet, deren auffällige Helligkeit als ein Zeichen der Frische angesehen werden. Die Abfolge der Ereignisse hat im Allgemeinen eine überraschend große Ähnlichkeit mit der Geschichte der Oberfläche des Mondes; in Anbetracht der ungleichen Größe, der sehr verschiedenen Orte im Sonnensystem und den damit verbundenen, entsprechend unterschiedlichen Bedingungen ist das nicht zu erwarten gewesen. Erforschung. Merkur ist mindestens seit der Zeit der Sumerer (3. Jahrtausend v. Chr.) bekannt. Die Griechen der Antike gaben ihm zwei Namen, Apollo, wenn er am Morgenhimmel die Sonne ankündigte, und Hermes, wenn er am Abendhimmel der Sonne hinterher jagte. Die griechischen Astronomen wussten allerdings, dass es sich um denselben Himmelskörper handelte. Nach nicht eindeutigen Quellen hat Herakleides Pontikos möglicherweise sogar schon geglaubt, dass der Merkur und auch die Venus um die Sonne kreisen und nicht um die Erde. 1543 veröffentlichte Nikolaus Kopernikus sein Werk De revolutionibus orbium coelestium (lat.: "Über die Umschwünge der himmlischen Kreise"), indem er die Planeten ihrer Geschwindigkeit nach in kreisförmigen Bahnen um die Sonne anordnete, womit Merkur der Sonne am nächsten war. Die Römer benannten den Planeten wegen seiner schnellen Bewegung am Himmel nach dem geflügelten Götterboten Merkur. Erdgebundene Erforschung. Die Umlaufbahn des Merkurs bereitete den Astronomen lange Zeit Probleme. Kopernikus etwa schrieb dazu in "De revolutionibus": "„Der Planet hat uns mit vielen Rätseln und großer Mühsal gequält als wir seine Wanderungen erkundeten“". 1629 gelang es Johannes Kepler, mithilfe von Beobachtungsdaten seines Vorgängers Tycho Brahe, erstmals einen sogenannten Merkurtransit für den 7. November 1631 (auf etwa einen halben Tag genau) vorherzusagen. Als Pierre Gassendi diesen beobachten konnte, musste er feststellen, dass Merkur nicht – wie von Ptolemäus im 2. Jahrhundert geschätzt – ein Fünfzehntel des Sonnendurchmessers maß, sondern um ein Vielfaches kleiner war. Nach der Erfindung des Fernrohrs entdeckte Giovanni Battista Zupi im Jahre 1639, dass der Merkur Phasen zeigt wie der Mond, und bewies damit seinen Umlauf um die Sonne. Als Sir Isaac Newton 1687 die Principia Mathematica veröffentlichte, und damit die Gravitation beschrieb, konnten die Planetenbahnen nun exakt berechnet werden. Merkur jedoch wich immer von diesen Berechnungen ab, was Urbain Leverrier (der Entdecker des Planeten Neptun) 1859 dazu veranlasste, einen weiteren noch schnelleren sonnennäheren Planeten zu postulieren: Vulcanus. Erst Albert Einsteins Relativitätstheorie konnte diese Abweichungen in Merkurs Umlaufbahn richtig erklären. Mercure carte schiaparelli.jpg|Merkurkarte von Giovanni Schiaparelli Mercure carte lowell.jpg|Merkurkarte von Percival Lowell, 1896 Mercure carte antoniadi.jpg|Merkurkarte von Eugène Michel Antoniadi, 1934 Die ersten, nur sehr vagen Merkurkarten wurden von Johann Hieronymus Schroeter skizziert. Die ersten detaillierteren Karten wurden im späten 19. Jahrhundert, etwa 1881 von Giovanni Schiaparelli und danach von Percival Lowell angefertigt. Lowell meinte, ähnlich wie Schiaparelli bei seinen Marsbeobachtungen, auf dem Merkur Kanäle erkennen zu können. Besser, wenn auch immer noch sehr ungenau war die Merkurkarte von Eugène Michel Antoniadi aus dem Jahr 1934. Antoniadi ging dabei von der geläufigen aber irrigen Annahme aus, dass Merkur eine gebundene Rotation von 1:1 um die Sonne aufweist. Für seine Nomenklatur der Albedomerkmale bezog er sich auf die Hermes-Mythologie. Audouin Dollfus hat sie für seine genauere Karte von 1972 großteils übernommen. Für heutige Merkurkarten auf der Grundlage der Naherkundung hat die Internationale Astronomische Union (IAU) diese Nomenklatur gebilligt. Für die topografischen Strukturen wurde ein anderes Schema gewählt. So bekamen die den Maria des Mondes ähnlichen Tiefebenen den Namen des Gottes Merkur in verschiedenen Sprachen. Im Koordinatensystem des Merkurs werden die Längengrade von Ost nach West zwischen 0 und 360° gemessen. Der Nullmeridian wird durch den Punkt definiert, der am ersten Merkurperihel nach dem 1. Januar 1950 die Sonne im Zenit hatte. Die Breitengrade zwischen 0° und 90° werden nach Norden positiv und nach Süden negativ gezählt. Gesteinsbrocken des Merkurs, die durch den Einschlag größerer Asteroiden ins All geschleudert wurden, können als Meteoriten im Laufe der Zeit auch die Erde erreichen. Als mögliche Merkurmeteoriten werden der Enstatit-Chondrit Abee und der Achondrit NWA 7325 diskutiert. Erforschung mit Raumsonden. Merkur gehört zu den am wenigsten erforschten Planeten des Sonnensystems. Dies liegt vor allem an den für Raumsonden sehr unwirtlichen Bedingungen in der Nähe der Sonne, wie der hohen Temperatur und intensiven Strahlung, sowie an zahlreichen technischen Schwierigkeiten, die bei einem Flug zum Merkur in Kauf genommen werden müssen. Selbst von einem Erdorbit aus sind die Beobachtungsbedingungen zu ungünstig, um ihn mit Teleskopen zu beobachten. Der Spiegel des Hubble-Weltraumteleskops würde durch die Strahlung der Sonne großen Schaden nehmen, wenn man ihn auf einen dermaßen sonnennahen Bereich ausrichten würde. Der Merkur umkreist die Sonne in einem Drittel der Entfernung wie die Erde, sodass eine Raumsonde über 91 Millionen Kilometer in den Gravitationspotentialtopf der Sonne fliegen muss, um den Planeten zu erreichen. Von einem stationären Startpunkt würde die Raumsonde keine Energie brauchen, um in Richtung Sonne zu fallen. Da der Start aber von der Erde erfolgt, die sich bereits mit einer Orbitalgeschwindigkeit von 30 km/s um die Sonne bewegt, verhindert der hohe Bahndrehimpuls der Sonde eine Bewegung Richtung Sonne. Daher muss die Raumsonde eine beträchtliche Geschwindigkeitsänderung aufbringen, um in eine Hohmannbahn einzutreten, die in die Nähe des Merkurs führt. Zusätzlich führt die Abnahme der potenziellen Energie der Raumsonde bei einem Flug in den Gravitationspotentialtopf der Sonne zur Erhöhung ihrer kinetischen Energie, also zu einer Erhöhung ihrer Fluggeschwindigkeit. Wenn man dies nicht korrigiert, ist die Sonde beim Erreichen des Merkurs bereits so schnell, dass ein sicherer Eintritt in den Merkurorbit oder gar eine Landung erheblich erschwert wird. Für einen Vorbeiflug ist die hohe Fluggeschwindigkeit allerdings von geringerer Bedeutung. Ein weiteres Hindernis ist das Fehlen einer Atmosphäre, dies macht es unmöglich, treibstoffsparende Aerobraking-Manöver zum Erreichen des gewünschten Orbits um den Planeten einzusetzen. Stattdessen muss der gesamte Bremsimpuls für einen Eintritt in den Merkurorbit mittels der bordeigenen Triebwerke durch eine Extramenge an mitgeführtem Treibstoff aufgebracht werden. Diese Einschränkungen sind mit ein Grund dafür, dass der Merkur vor MESSENGER nur mit der einen Raumsonde Mariner 10 erforscht wurde. Eine dritte Merkursonde ist unter dem Namen BepiColombo in Planung. Mariner 10. Die Flugbahn von Mariner 10 wurde so gewählt, dass die Sonde zunächst die Venus anflog und in deren Anziehungsbereich durch ein Swing-by-Manöver Kurs auf den Merkur nahm. So gelangte sie auf eine merkurnahe Umlaufbahn um die Sonne, die auf keine andere Weise mit einer Trägerrakete vom Typ Atlas-Centaur erreicht werden konnte. Ohne den Swing-by an der Venus hätte Mariner 10 eine deutlich größere und teurere Titan IIIC benötigt. Der schon lange an der Erforschung des innersten Planeten interessierte Mathematiker Giuseppe Colombo hatte diese Flugbahn entworfen, auf welcher der Merkur gleich mehrmals passiert werden konnte, und zwar immer in der Nähe seines sonnenfernsten Bahnpunktes – bei dem die Beeinträchtigung durch den Sonnenwind am geringsten ist – und am zugleich sonnennächsten Bahnpunkt von Mariner 10. Die anfänglich dabei nicht vorhergesehene Folge dieser himmelsmechanischen Drei-Körper-Wechselwirkung war, dass die Umlaufperiode von Mariner 10 genau zweimal so lang geriet wie die von Merkur. Bei dieser Bahneigenschaft bekam die Raumsonde während jeder Begegnung ein und dieselbe Hemisphäre unter den gleichen Beleuchtungsverhältnissen vor die Kamera und hat so den eindringlichen Beweis für die genaue 2:3-Kopplung von Merkurs Rotation an seine Umlaufbewegung erbracht, die nach den ersten, ungefähren Radarmessungen Colombo selbst schon vermutet hatte. Durch dieses seltsame Zusammentreffen konnten trotz der wiederholten Vorbeiflüge nur 45 Prozent der Merkuroberfläche kartiert werden. Mariner 10 flog im betriebstüchtigen Zustand von 1974 bis 1975 dreimal an Merkur vorbei: Am 29. März 1974 in einer Entfernung von 705 km, am 21. September in rund 50.000 km und am 16. März 1975 in einer Entfernung von 327 km. Zusätzlich zu den herkömmlichen Aufnahmen wurde der Planet im infraroten sowie im UV-Licht untersucht, und über seiner den störenden Sonnenwind abschirmenden Nachtseite liefen während des ersten und dritten Vorbeifluges Messungen des durch die Sonde entdeckten Magnetfeldes und der geladenen Partikel. MESSENGER. Künstlerische Darstellung von MESSENGER am Merkur Eine weitere Raumsonde der NASA, MESSENGER, startete am 3. August 2004 und schwenkte im März 2011 als erste Raumsonde in einen Merkurorbit ein, um den Planeten mit ihren zahlreichen Instrumenten eingehend zu studieren und erstmals vollständig zu kartografieren. Die Raumsonde widmet sich dabei der Untersuchung der geologischen und tektonischen Geschichte des Merkurs sowie seiner Zusammensetzung. Weiterhin sucht die Sonde nach dem Ursprung des Magnetfeldes, bestimmt die Größe und den Zustand des Planetenkerns, untersucht die Polarkappen des Planeten und erforscht die Exosphäre sowie die Magnetosphäre. Um sein Ziel zu erreichen, flog MESSENGER eine sehr komplexe Route, die ihn in mehreren Fly-by-Manövern erst zurück zur Erde, dann zweimal an der Venus sowie dreimal am Merkur vorbeiführte. Der erste Vorbeiflug am Merkur fand am 14. Januar 2008 um 20:04 Uhr MEZ statt und der zweite am 6. Oktober 2008. Dabei wurden bereits Untersuchungen der Oberfläche durchgeführt und Fotos von bisher unbekannten Gebieten aufgenommen. Der dritte Vorbeiflug, durch den die Geschwindigkeit der Sonde verringert wurde, erfolgte am 30. September 2009. Da die Sonde kurz vor der Passage unerwartet in den abgesicherten Modus umschaltete, konnten für geraume Zeit keine Beobachtungsdaten gesammelt und übertragen werden. Die gesamte Reise nahm etwa 6,5 Jahre in Anspruch. Die Mission im Merkurorbit ist in Jahresabschnitte geteilt, welche jeweils am 18. März beginnen. Vom 18. März 2011 bis 18. März 2012 wurden während der sogenannten primären Mission die wichtigsten Forschungen vorgenommen und anschließend begann die erste erweiterte Mission, welche bis zum 18. März 2013 lief. Danach wurde die Mission noch einmal bis März 2015 verlängert. Am 30. April 2015 wurde die Sonde gezielt auf der gerade erdabgewandten Seite des Merkurs zum Absturz gebracht. Voraussichtlich schlug MESSENGER bei den Koordinaten am Nordrand des im Durchmesser 399 km großen Kraters Shakespeare ein und hat dort einen Krater von 16 Metern Breite hinterlassen. BepiColombo. Auch die europäische Raumfahrtorganisation ESA und die japanische Raumfahrtbehörde JAXA möchten sich an der Erforschung des sonnennächsten Planeten beteiligen und haben den Einsatz der kombinierten Merkursonde BepiColombo geplant. Das gemeinsame Unternehmen ist nach dem Spitznamen des 1984 verstorbenen Giuseppe Colombo benannt und soll aus zwei am Ziel getrennt eingesetzten Orbitern bestehen: einem Fernerkundungsorbiter für eine 400 km × 1.500 km messende polare Umlaufbahn und einem Magnetosphärenorbiter für einen polaren Merkurumlauf von 400 km × 12.000 km. Die Komponenten werden sich jeweils der Untersuchung des Magnetfeldes sowie der geologischen Zusammensetzung in Hinsicht der Geschichte des Merkurs widmen. Der Start der Mission ist derzeit für Anfang 2017 vorgesehen. Die Reise zum Merkur wird mit Hilfe von Ionentriebwerken und mit Vorbeiflügen an den inneren Planeten bewerkstelligt und soll bis Anfang 2024 dauern. Am Ziel angekommen, wird auch BepiColombo mit dem Sonnenumlauf des Merkurs Temperaturen von bis zu 250 °C ausgesetzt sein und soll unter diesen Bedingungen mindestens ein Jahr lang bzw. über vier Merkurjahre hinweg Ergebnisse liefern. Beobachtung. Merkur in der Morgendämmerung am 23. September 2010 Merkur kann sich als innerster Planet des Sonnensystems nur bis zu einem Winkel von maximal 28 Grad ("größte Elongation") von der Sonne entfernen und ist daher schwierig zu beobachten. Er kann in der Abend- oder Morgendämmerung als orangefarbener Lichtpunkt mit einer scheinbaren Helligkeit von etwa 1 mag bis maximal −1,9 mag in der Nähe des Horizonts mit bloßem Auge wahrgenommen werden. Bei Tagbeobachtungen ist er – je nach Sichtverhältnissen – ab einer Fernrohröffnung von etwa 10 bis 20 cm gut zu erkennen. Durch die Horizontnähe wird seine Beobachtung mit Teleskopen sehr erschwert, da sein Licht eine größere Strecke durch die Erdatmosphäre zurücklegen muss und durch Turbulenzen und Lichtbrechung und Absorption gestört wird. Der Planet erscheint meist als verwaschenes, halbmondförmiges Scheibchen im Teleskop. Auch mit leistungsfähigen Teleskopen sind kaum markante Merkmale auf seiner Oberfläche auszumachen. Da die Merkurbahn stark elliptisch ist, schwanken die Werte seiner größten Elongation zwischen 18 und 28 Grad. Bei der Beobachtung des Merkurs sind – bei gleicher geographischer nördlicher oder südlicher Breite – die Beobachter der Nordhalbkugel im Nachteil, denn die Merkur-Elongationen mit den größten Werten finden zu Zeiten statt, bei denen für einen Beobachter auf der Nordhalbkugel die Ekliptik flach über dem Horizont verläuft und Merkur in der hellen Dämmerung auf- oder untergeht. In den Breiten Mitteleuropas ist er dann mit bloßem Auge nicht zu sehen. Die beste Sichtbarkeit verspricht eine maximale westliche Elongation (Morgensichtbarkeit) im Herbst, sowie eine maximale östliche Elongation (Abendsichtbarkeit) im Frühling. In großer Höhe über dem Horizont kann Merkur mit bloßem Auge nur während einer totalen Sonnenfinsternis gesehen werden. Merkurtransit. Aufgrund der Bahneigenschaften von Merkur und Erde wiederholen sich alle 13 Jahre ähnliche Merkursichtbarkeiten. In diesem Zeitraum finden im Allgemeinen auch zwei sogenannte "Transits" oder "Durchgänge" statt, bei denen der Merkur von der Erde aus gesehen direkt vor der Sonnenscheibe als schwarzes Scheibchen zu sehen ist. Ein solcher "Transit des Merkurs" ist sichtbar, wenn er bei der unteren Konjunktion – während er die Erde beim Umlauf um die Sonne auf seiner Innenbahn "überholt" – in der Nähe eines seiner beiden "Bahnknoten" steht, also die Erdbahnebene kreuzt. Ein solches Ereignis ist aufgrund der entsprechenden Geometrie nur zwischen dem 6. und dem 11. Mai oder zwischen dem 6. und dem 15. November möglich, da die beiden Bahnknoten am 9. Mai oder am 11. November von der Erde aus gesehen vor der Sonne stehen. Der letzte Merkurdurchgang fand am 8. November 2006 statt, war allerdings nur vom pazifischen Raum aus zu beobachten, da er in Europa zur Nachtzeit erfolgte. Der nächste Durchgang wird am 9. Mai 2016 stattfinden. Kulturgeschichte. In der altägyptischen Mythologie und Astronomie galt der Merkur hauptsächlich als Stern des Seth. Sein Name "Sebeg" (auch "Sebgu") stand für eine weitere Erscheinungsform der altägyptischen Götter Seth und Thot. Im antiken Griechenland bezog man den Planeten auf den Gott und Götterboten Hermes, assoziierte ihn aber auch mit den Titanen Metis und Koios. Der zumeist nur in der Dämmerung und dann auch nur schwer zu entdeckende, besonders rastlose Planet wurde auch als Symbol für Hermes als Schutzpatron der Händler, Wegelagerer und Diebe gesehen. Bei den Römern entsprach Hermes spätestens in der nachantiken Zeit dem Mercurius, abgeleitet von "mercari" (lat. für "Handel treiben"). Der von ihnen nach Merkur benannte Wochentag "dies Mercurii" ist im Deutschen der Mittwoch. In der Zuordnung der Wochentage besteht die namentliche Verbindung des Merkur mit dem Mittwoch noch im Französischen ("Mercredi"), im Italienischen ("Mercoledì"), im Spanischen ("Miércoles"), im Rumänischen ("Miercuri") und im Albanischen ("e Mërkurë"). Den Germanen wird als Entsprechung des Gestirns der Gott Odin bzw. Wotan zugeschrieben, dem ebenso der Mittwoch (im Englischen "Wednesday", im Niederländischen "Woensdag") zugeordnet wurde. Im Altertum und in der Welt der mittelalterlichen Alchemisten hat man dem eiligen Wandelstern als Planetenmetall das bewegliche Quecksilber zugeordnet. In vielen Sprachen basiert der Name des Metalls heute noch auf diesem Wortstamm (englisch "Mercury", französisch "Mercure"). Rezeption in Literatur, Film und Musik. In der Musik hat Gustav Holst dem Merkur in seiner Orchestersuite "The Planets" (Die Planeten, 1914–1916) den dritten Satz gewidmet: "Mercury, the Winged Messenger" (Merkur, der geflügelte Bote). In der Unterhaltungsliteratur schrieb Isaac Asimov im Jahr 1956 für seine Lucky Starr-Reihe den Science-Fiction-Roman "Lucky Starr and the Big Sun of Mercury". Darin startet auf dem Planeten der lebensfeindlichen Temperaturextreme ein Projekt neuer Energiegewinnungs- und -transportmethoden für den wachsenden Energiebedarf der Erde, das jedoch von Sabotage betroffen ist. Die deutsche Ausgabe erschien erstmals 1974 unter dem Titel "Im Licht der Merkur-Sonne". In dem Film "Sunshine", von Regisseur Danny Boyle im Jahr 2007 in die Kinos gebracht, dient eine Umlaufbahn um den Merkur als Zwischenstation für ein Raumschiff, dessen Fracht die Sonne vor dem Erlöschen bewahren soll. Der im Jahr 2012 erschienene Roman "2312" von Kim Stanley Robinson handelt in eben jenem Jahr 2312, unter anderem in Merkurs Hauptstadt Terminator, die sich ständig auf Schienen entlang des Äquators bewegt und plötzlich mit gezielten Meteoroiden angegriffen wird. Mykologie. Mykologie ("mýkēs" ‚Pilz‘ und -logie) ist die Wissenschaft von den Pilzen. Zu den Pilzen gehören die Abteilungen Schlauchpilze (Ascomycota), Ständerpilze (Basidiomycota), Jochpilze (Zygomycota), Töpfchenpilze (Chytridiomycota) und Arbuskuläre Mykorrhizapilze (Glomeromycota), aber auch so unsystematische Gruppen wie Hefen und Schimmelpilze. Traditionell befassen sich Mykologen oft auch mit Schleimpilzen (Myxomycota) und Eipilzen (Oomycota), die inzwischen nicht mehr zu den Pilzen, sondern zu den Protisten gezählt werden. Auch die Wissenschaft von den Flechten – die Lichenologie – gehört im weitesten Sinn zur Mykologie, da bei dieser Symbiose der dominierende Part von Pilzen eingenommen wird. In der Mykologie gibt es große Überschneidungen mit der Mikrobiologie, da sehr viele Pilze – zumindest in bestimmten Entwicklungsstadien – gleichzeitig auch Mikroorganismen sind. Das Wort "Mykologie" leitet sich von dem griechischen Wort μύκης "mýkes" für „Pilz“ ab. Einer griechischen Sage zufolge gründete der griechische Held Perseus die Stadt Mykene an der Stelle, wo er sich mit Wasser erfrischte, welches sich im Hut eines Pilzes gesammelt hatte. Geschichte der Mykologie. Der Begriff "Mykologie" entstand im 18. Jahrhundert und wurde von Christian Hendrik Persoon geprägt. Er hat sich rasch unter den Biologen als Terminus für die Pilzwissenschaft verbreitet. Altertum und Antike. Menschen sammelten schon in vorgeschichtlicher Zeit Pilze als Nahrung, zu Heilzwecken und als Berauschungsmittel. Die ältesten schriftlichen Erwähnungen über Pilze stammen von Euripides (480–406 v. Chr.). Der griechische Philosoph Theophrastos von Eresos (371–288 v. Chr.) war der erste, der versuchte, durch vergleichende Morphologie eine Art wissenschaftliche Differenzierung von Pflanzen inklusive Pilzen zu schaffen. Pilze waren für ihn Pflanzen, denen wichtige Organe fehlen. Um 150 v. Chr. beschreibt der griechische Arzt und Dichter Nikandros aus Kolophon (um 200–150 v. Chr.) den Unterschied zwischen essbaren und giftigen Pilzen. Plinius der Ältere (23/24–79) nahm in seiner Enzyklopädie "Naturalis historia" eine anatomisch geprägte Einteilung vor, indem er die Pilze den Kategorien "fungus" (Hutpilz), "agaricum" (Lärchenporling), "suillus" (Steinpilz), "tuber" (Trüffel) und "boletus" (Kaiserling) zuordnete. Ein Zeitgenosse, der griechische Arzt Pedanios Dioskurides (ca. 30–80), unterschied die Pilze stattdessen nach dem Ort ihres Vorkommens: Hutpilze oberirdisch, Trüffel unterirdisch, die Porlinge an den Bäumen. Mittelalter. Während des Mittelalters lag die Forschung im Bereich der Pilze mehr oder weniger brach; statt neuen Erkenntnissen wurde das antike Wissen tradiert, wobei es auch zu Verfälschungen desselben kam. Den Mönchen dienten die Pilze in erster Linie als Nahrungsmittel. Als herausragend gelten die pilzkundlichen Werke der deutschen Äbtissin Hildegard von Bingen (1098–1179), die in ihrer Quantität und Qualität für das Mittelalter einmalig waren. Daneben gab es Gelehrte, die vom Genuss der Pilze generell abrieten, wie z. B. Albertus Magnus (1193–1280). Seiner aus den antiken Schriften übernommenen Auffassung nach entstünden Pilze aus Ausdünstung und Fäulnis. Zudem handle es sich bei ihnen nicht einmal um richtige Pflanzen, da ihnen weder Samen, Zweige noch Blätter zu eigen seien. 16. bis 18. Jahrhundert. Die Einteilung der Pilze in genießbare und giftige war noch bis zur Renaissance geläufig, wie auch aus der Systematik des Charles de l’Écluse (Clusius, 1526–1609) hervorgeht. Doch mit dem 16. Jahrhundert beginnt der mittelalterliche Stillstand in der Pilzkunde dem wissenschaftlichen Fortschritt zu weichen. Adam Lonitzer (1528–1586) sagt noch über Pilze: „Seind weder Kräuter noch Wurzeln, weder Blumen noch Samen, sondern nichts anders dann ein oberflüssige feuchtigkeit des Erdtrichs, der Bäume, der Hölzer und fauler ding, darumb sie auch eine kleine zeit wären, dann in sibentagen wachsen sie, unnd vergehen auch, sonderlich aber kriechen sie herfür wann es dondert.“ Doch schon sein Zeitgenosse Pietro Andrea Mattioli (1501–1577) versucht eine systematische Gliederung der Pilze in Gattungen. Giambattista della Porta (1539–1615) nennt den Sporenstaub der Pilze eine Art „Samen“. Im 17. Jahrhundert erkennt Joseph Pitton de Tournefort (1656–1708), dass Pilze selbständige Organismen sind, welche pflanzliche Krankheiten erzeugen können. Sein System der Pilze wurde später die Grundlage für die Systematik von zum Beispiel Johann Jacob Dillen (Dillenius, 1684–1747) und Carl von Linné (Linnaeus, 1707–1778). Zu dieser Zeit war die Annahme noch sehr verbreitet, dass Pilze durch eine Art „faulende Gärung“ entstehen würden. Linné stellt die Pilze zusammen mit Farnen, Moosen und Algen zur Klasse der „Cryptogamia“ und setzt auch für diese Klasse das System des binären wissenschaftlichen Namens durch. Zu den Wegbereitern der Mykologie zählt auch der mit Linné korrespondierende Pfarrer und Naturforscher Jacob Christian Schäffer (1718–1790), Autor eines vierbändigen Werkes zu den bayerischen und pfälzischen Pilzen. 19. Jahrhundert. Geradezu revolutioniert wurde im ausgehenden 18. Jahrhundert und beginnenden 19. Jahrhundert die Mykologie durch die systematischen Arbeiten von Christian Hendrik Persoon (1761–1836), Lewis David von Schweinitz (1780–1834) und Elias Magnus Fries (1794–1878), die man als die Begründer der modernen Mykologie bezeichnen darf. Das Werk von de Bary "Morphologie und Physiologie der Pilze, Flechten und Myxomyceten" (1866) könnte man als erstes Lehrbuch der Mykologie bezeichnen. 20. Jahrhundert. Mit Zunahme der wissenschaftlichen Möglichkeiten – genetische, mikrobiologische, molekularbiologische und andere Methoden – erkannte man zum Ende des 20. Jahrhunderts, dass das Reich der Pilze noch weitestgehend unerforscht ist. Gerade die phylogenetische Forschung bringt in der Systematik der Pilze größere Veränderungen mit sich. So wurde die Klasse der Bauchpilze (Gastromycetes) überflüssig, da ihre Vertreter aufgrund ihrer Entwicklungsgeschichte nun anderen, teilweise unterschiedlichen Klassen zugeordnet wurden. 21. Jahrhundert. Die Wissenschaft beginnt die Bedeutung der Arbuskulären Mykorrhizapilze (Glomeromycota) für das Gedeihen vieler Pflanzen zu erkennen. Gerade diesen Pilzen scheint künftig eine erhebliche ökologische und ökonomische Rolle zu erwachsen, deren Erforschung gerade erst begonnen hat. Bisher sind erst circa 80.000 von geschätzten 1,5 Millionen Pilzarten bekannt. Die Pilzsystematik sowie die Erforschung der Inhaltsstoffe und Stoffwechselprodukte der Pilze stecken gleichsam noch in den Kinderschuhen. Systematik. Da erst ein kleiner Teil (etwa 5 %) aller vermuteten Pilzarten beschrieben vorliegt, ist die Systematik der Pilze eine der größten Herausforderungen für die Mykologenzunft. Wie in anderen Gebieten der Biologie werden in der Systematik der Pilze immer mehr Methoden aus der Molekularbiologie eingesetzt, zum Beispiel die Polymerase-Kettenreaktion oder die DNA-Sequenzanalyse. Ökologie, Phytopathologie und Mykorrhiza. Die Rolle von Pilzen als Krankheitserreger bei Pflanzen ist der ökonomisch bedeutsamste und forschungsintensivste Zweig der Mykologie. Durch die lange Co-Evolution von Pilzen und Pflanzen haben sich sehr viele gefährliche Pilzkrankheiten entwickelt, die imstande sind, Monokulturen von Kulturpflanzen völlig zu vernichten; Beispiele sind Brand- und Rostpilze. Hier untersuchen Mykologen die Infektionsmechanismen und erforschen Bekämpfungsstrategien. Auch nach der Ernte sind saprobe Pilze in der Lage, erzeugte Nahrungsmittel zu schädigen und zu zerstören. Schutz und Prophylaxe zu entwickeln ist auch hier Gegenstand mykologischer Forschung und Maßnahmen. Eine positive Rolle aus Sicht des Menschen spielen Pilze die mit der Fähigkeit zu verschiedenen Formen der Mykorrhiza, das Gedeihen von Pflanzen und Kulturpflanzen zu fördern. Eine erhebliche Bedeutung kommt hier den erst in jüngerer Zeit näher untersuchten arbuskulären Mykorrhizapilzen zu. Daneben gibt es zahlreiche andere Arten von Mykorrhizen, deren Bedeutung für Ökologie oder Ökonomie noch nicht vollständig erforscht sind. Neben Bakterien sind Pilze die typischen Destruenten im ökologischen Stoffkreislauf. Ohne Pilze würde ein Berg von ansonsten kaum abbaubarem Lignin aus Holzresten die Lebensmöglichkeiten an Land stark einschränken. Physiologische Besonderheiten von Pilzen sind bislang noch unzureichend erforscht. So steht man beispielsweise in der Wissenschaft immer noch vor dem Rätsel, wie bei Großpilzen die Schwerkraftwahrnehmung und die Reizantwort funktioniert. Experimente in Mikrogravitation, wie sie mit dem Samtfußrübling durchgeführt wurden, brachten bislang keine Klarheit. Medizinische Mykologie. Die "medizinische Mykologie" (auch "klinische Mykologie") ist ein Teilbereich der medizinischen Mikrobiologie, da pilzliche Krankheitserreger beim Menschen unter die Kategorie "Mikroorganismen" fallen. Sie befasst sich mit Interaktionen zwischen Pilzen und Mensch. Eine wichtige Rolle spielt die Erforschung von Diagnoseverfahren und Krankheitsprävention sowie die Therapie von Pilzinfektionen (Mykosen) und Vergiftungen mit Pilzgiften und Mykotoxinen. Krankheiten mit Pilzen als Verursacher sind zum Beispiel Aspergillose, Candidose, Fußpilz und Schimmelpilz-Allergien. Die Ausbildung zum Facharzt für Mikrobiologie und Infektionsepidemiologie beträgt momentan 5 Jahre. Mykologie in Tierhaltung. Pilze treten als Krankheitserreger oder Produzenten von Toxinen auf. Andererseits sind Pilze auch Lieferanten von Antibiotika gegen bakterielle Erkrankungen bei Tieren. Es gibt auch Forschungen, minderwertige organische Substanzen – zum Beispiel Stroh – durch Pilze in höherwertige Futterquellen zu transformieren. In freier Natur wird inzwischen der Chytridpilz vor allem in Südamerika und Australien zu einer Bedrohung für die dortige Froschwelt. Technische Mykologie. Wirtschaftlich bedeutsam ist die technische Mykologie. Untersucht wird hierbei ebenso wie bei der technischen Mikrobiologie der Stoffwechsel von Pilzen (Makro- und Mikromyzeten). Ebenso werden genetische und andere züchterische Methoden entwickelt und angewandt, um metabolische Stoffen erzeugen und gewinnen zu können. Beispiele sind die großtechnische Gewinnung von Antibiotika (zum Beispiel durch "Penicillium"-Arten), Vitamin C und Zitronensäure (durch "Aspergillus"-Arten), Vitamine der B-Gruppe durch Hefen. Daneben werden weitere Medikamente und Nahrungsmittel durch Pilze erzeugt. Ein weiterer Aspekt in der technischen Mykologie ist die Fähigkeit einiger Pilze zum Abbau toxischer oder umweltschädigender Stoffe. Mineralogie. Die Mineralogie, veraltet auch "Oryktognosie" (griechisch-deutsch: Die Kenntnis bzw. die Wissenschaft von den Mineralen), beschäftigt sich mit der Entstehung, den Eigenschaften und der Verwendung von Mineralen. Minerale sind die überwiegend anorganischen Bausteine der Gesteine; sie sind durch eine charakteristische chemische Zusammensetzung und eine bestimmte geometrische Kristallstruktur gekennzeichnet. Geschichte der Mineralogie. Die Mineralogie entwickelte sich praktischen Erkenntnissen des Bergbaus und aus der Naturphilosophie der Griechen. Bergbau begann im Jungpaläolithikum mit dem Abbau von Ton für die Herstellung von Keramik. Als Menschen mit der Metallherstellung begannen (Bronzezeit, Kupferzeit, Eisenzeit), beschäftigten sie sich mit Kupfererz und Zinkerz (Bronze besteht vor allem aus Kupfer und Zink) und später mit Eisenerz. In der Antike wurde Mineralogie durch eine philosophische Herangehensweise – oft von Universalgelehrten – betrieben, wobei durchaus exakte Naturbeobachtungen einflossen. So leitete Thales von Milet um 600 v. Chr. aus Beobachtungen von Sedimentationsprozessen und von vulkanischen Aktivitäten Theorien zur Mineralbildung ab; damit legte er einen Grundstein für die Entwicklung der Mineralogie als Wissenschaft. Plinius der Ältere verfasste im Jahr 77 n. Chr. die Naturalis historia, wobei sich fünf Bände der Mineralogie widmeten. Im Mittelalter entwickelte sich die Mineralogie dann stärker zu einer angewandten Wissenschaft, die dem Bergbau diente. So führte Avicenna (Abū Alī al-Husayn ibn Abdullāh ibn Sīnā) um 1000 n. Chr. das erste Klassifikationssystem für Minerale ein (Salze, Schwefel, Metalle und Steine), das von Albertus Magnus 1269 durch sein lagerstättenkundliches Werk „De rebus metallicis et mineralibus libri V“ ergänzt wurde. Daneben war die mittelalterliche Mineralogie stark durch die Alchimie beeinflusst. Die neuzeitliche Mineralogie fußt hingegen nur auf empirischen Beobachtungen. Sie begann 1556 mit der Veröffentlichung der „De re metallica libri XII“ durch Georgius Agricola (1494–1555, „Vater der Mineralogie“ genannt). Bis um 1800 war Mineralogie ein Hobby (meist) wohlhabender Einzelgelehrter; später wurden mineralogische Institute an Universitäten eingerichtet, an denen bedeutende Mineralogen dieser Zeit wie z. B. Abraham Gottlob Werner (1749–1817) und Friedrich Mohs (1773–1839) lehrten. Im Zuge der Industrialisierung nahmen Metallproduktion und Bergbau stark zu. Im 20. Jahrhundert wandelte sich die Mineralogie durch die Implementierung physikalischer und chemischer Methoden von einer qualitativen zu einer quantitativen Wissenschaft. Experimente wurden im Vergleich zu Feldbeobachtungen immer wichtiger. Zudem wurde die Anwendung von Mineralen und ihren synthetischen Analoga in der Technik immer bedeutsamer; heute ist sie das Hauptarbeitsfeld für Mineralogen. Untersuchungsgegenstand. Stellung der Mineralogie zwischen Chemie, Physik, Geologie und Werkstoffwissenschaften Die Mineralogie ist die Materialwissenschaft unter den Geowissenschaften. Sie nimmt somit eine Brückenstellung zwischen der Geologie, der Chemie, der Physik und der Werkstoffwissenschaft ein. Die Mineralogie untersucht, zu welchem Zeitpunkt, mit welcher Geschwindigkeit, unter welchem Druck und bei welcher Temperatur, in welcher chemischen Umgebung und durch welche Prozesse Minerale entstanden sind (Geothermobarometrie). Diese Informationen sind wichtige Bausteine für die Rekonstruktion der Entwicklung der Erde und des Universums, aber auch für die Synthese von Mineralen für technische Zwecke, z. B. von Diamant. Mineralogen erforschen die mechanischen, optischen, thermischen, elektrischen, magnetischen und chemischen Eigenschaften der Minerale, um neue Nutzungsmöglichkeiten zu erschließen. Die Härte als wichtigste mechanische Eigenschaft spielt bei der Entwicklung mineralischer Hartstoffe wie Bornitrid oder Sialon, bei der Erforschung von Erdbeben und bei der Aufbereitung mineralischer Rohstoffe eine Rolle. Optische Eigenschaften werden bei der Herstellung von Yttrium-Aluminium-Granat-Lasern genutzt. Thermische Eigenschaften sind für die Entwicklung von Ceran-Kochfeldern auf der Basis des Li-Silikats Petalit von Bedeutung. Die hohe Dielektrizitätskonstante von Glimmern wird z. B. in Bügeleisen als elektrische Isolierung genutzt, die Piezoelektrizität des Quarzes für die Konstruktion von Uhren. Der Ferrimagnetismus des Magnetits ermöglicht eine Rekonstruktion des Erdmagnetfeldes und damit der Bewegung der Kontinente für vergangene Erdzeitalter. Die chemische Zusammensetzung von so genannten Pfadfindermineralen hilft bei der Prospektion und Exploration von Lagerstätten. Untersuchungsmethoden. Die Gesteinsansprache im Feld mit Lupe und Salzsäure ist auch noch heute der erste Schritt vieler mineralogischer Untersuchungen. Dabei steht die exakte Beschreibung des Gefüges, der Textur und des Mineralbestandes im Vordergrund. Teilweise werden auch Methoden der Spektroskopie, z. B. die Mößbauer-Spektroskopie im Zinnbergbau, bereits im Gelände eingesetzt. Im Labor erfolgt dann die Aufbereitung der Proben: So werden Dünnschliffe oder Anschliffe für die Polarisationsmikroskopie im Durchlicht bzw. Auflicht hergestellt. Dabei werden Gesteine im Durchlicht und Erze im Auflicht untersucht. Das übrige Probenmaterial wird auf Korngrößen kleiner als 63 µm aufgemahlen. Für die chemische Analyse der Gesamtprobe wird oft die Röntgenfluoreszenzanalyse verwendet, für Punktanalysen arbeitet man mit der Mikrosonde oder der Laser-Ablations-Massenspektrometrie. Die Identifikation der einzelnen Minerale erfolgt mit Beugungsmethoden wie der Röntgendiffraktometrie oder der Neutronenbeugung. Die Bindungsverhältnisse im Mineral werden mit spektroskopischen Methoden wie der IR-Spektroskopie, der Raman-Spektroskopie, der Elektronenspinresonanz oder der Kernspinresonanz untersucht. Die Morphologie der Minerale kann durch die Rasterelektronenmikroskopie genauer beschrieben werden. Defekte im Kristallgitter lassen sich mit der Transmissionselektronenmikroskopie sichtbar machen. In der technischen Mineralogie werden oft die Differentialthermoanalyse und die Thermogravimetrie eingesetzt, um das Verhalten und die Reaktionen der Minerale während eines Aufheizprozesses zu untersuchen. Die technische Mineralogie und die experimentelle Petrologie bedienen sich oft der Kristallzüchtung, um unter Verwendung natürlicher Vorbilder synthetische Werkstoffe herzustellen bzw. um magmatische Prozesse zu simulieren. Studiengänge. Zum Wintersemester 2008/09 stellte mit der Universität Mainz die letzte deutsche Hochschule den eigenständigen Diplomstudiengang Mineralogie ein. Seitdem ist die Mineralogie entweder eine Vertiefungsrichtung des Master-Studienganges Geowissenschaften (zum Beispiel an der TU Bergakademie Freiberg bzw. Friedrich-Schiller-Universität Jena) oder ein eigener Master-Studiengang (Materialwissenschaftliche Mineralogie (Universität Bremen), Mineralogie und Materialwissenschaft (Universität Leipzig), Geomaterialien und Geochemie (Ludwig-Maximilians-Universität München und TU München in Kooperation)). Dabei handelt es sich stets um konsekutive Studiengänge, die auf einem Bachelor in Geowissenschaften (an der Universität Leipzig in Chemie) aufbauen. In mineralogischen Studiengängen werden neben Kenntnissen des Faches selbst auch Grundlagen und mineralogisch relevante Spezialbereiche der Mathematik (Gruppentheorie, Statistik), Chemie (Thermodynamik, Kinetik, Atommodelle), Physik (Festkörperphysik), Werkstoffwissenschaft (Keramik, Glas, Zement, Kristallzüchtung), Informatik (Programmiersprachen) und Geologie (Tektonik, Sedimentologie, Historische Geologie) vermittelt. In der deutschen Hochschulpolitik ist die Mineralogie als Kleines Fach eingestuft. Berufsfelder. Mineralogen arbeiten überwiegend in der rohstoffverarbeitenden Industrie (Glas, Keramik, Feuerfest, Baustoffe, Bindemittel, Steine und Erden, chemische Industrie, Schleifmittel, Elektronik, Herstellung optischer Bauteile, Papierindustrie). Daneben gibt es auch Tätigkeitsfelder im Umweltschutz, im Bergbau, in der Düngemittel-, Pharma- und Schmuckindustrie sowie in der Denkmalpflege. Außerdem bietet der öffentliche Dienst in Form von Universitäten, Forschungsinstituten und Behörden Arbeitsmöglichkeiten. Max Frisch. Max Rudolf Frisch (* 15. Mai 1911 in Zürich; † 4. April 1991 ebenda) war ein Schweizer Schriftsteller und Architekt. Mit Theaterstücken wie "Biedermann und die Brandstifter" oder "Andorra" sowie mit seinen drei großen Romanen "Stiller", "Homo faber" und "Mein Name sei Gantenbein" erreichte Frisch ein breites Publikum und fand Eingang in den Schulkanon. Darüber hinaus veröffentlichte er Hörspiele, Erzählungen und kleinere Prosatexte sowie zwei literarische Tagebücher über die Zeiträume 1946 bis 1949 und 1966 bis 1971. Der junge Max Frisch empfand bürgerliche und künstlerische Existenz als unvereinbar und war lange Zeit unsicher, welchen Lebensentwurf er wählen sollte. Infolgedessen absolvierte Frisch nach einem abgebrochenen Germanistik-Studium und ersten literarischen Arbeiten ein Studium der Architektur und arbeitete einige Jahre lang als Architekt. Erst nach dem Erfolg seines Romans "Stiller" entschied er sich endgültig für ein Dasein als Schriftsteller und verließ seine Familie, um sich ganz dem Schreiben widmen zu können. Im Zentrum von Frischs Schaffen steht häufig die Auseinandersetzung mit sich selbst, wobei viele der dabei aufgeworfenen Probleme als typisch für den postmodernen Menschen gelten: Finden und Behaupten einer eigenen Identität, insbesondere in der Begegnung mit den festgefügten Bildern anderer, Konstruktion der eigenen Biografie, Geschlechterrollen und ihre Auflösung sowie die Frage, was mit Sprache überhaupt sagbar sei. Im literarisch ausgestalteten Tagebuch, das Autobiografisches mit fiktionalen Elementen verbindet, findet Frisch eine literarische Form, die ihm in besonderem Maße entspricht und in der er auch seine ausgedehnten Reisen reflektiert. Nachdem er jahrelang im Ausland gelebt hatte, beschäftigte Frisch sich nach seiner Rückkehr zudem zunehmend kritisch mit seinem Heimatland, der Schweiz. Elternhaus und Studium der Germanistik. a>, an der Frisch ab 1930 Germanistik studierte Max Frisch wurde am 15. Mai 1911 in Zürich als zweiter Sohn des Architekten Franz Bruno Frisch und dessen Frau Karolina Bettina Frisch (geb. Wildermuth) geboren. Er hatte eine Halbschwester aus der ersten Ehe des Vaters, Emma Elisabeth (1899–1972), und einen acht Jahre älteren Bruder (1903–1978), der nach dem Vater Franz hieß. Die Familie lebte in einfachen Verhältnissen, und die finanzielle Lage verschärfte sich, als der Vater während des Ersten Weltkriegs seine Anstellung verlor. Frisch hatte kaum eine emotionale Beziehung zum Vater, stand seiner Mutter dagegen sehr nah. Während seiner Zeit als Gymnasiast (1924–1930) schrieb Frisch erste Stücke, die er erfolglos zur Aufführung zu bringen versuchte und später vernichtete. Am Gymnasium lernte er darüber hinaus Werner Coninx kennen, dessen Vater einen Verlag besaß und dessen Kenntnisse über Literatur und Philosophie Frisch im Laufe ihrer langjährigen Freundschaft zahlreiche Impulse gaben. Dem Wunsch seiner Eltern gemäß, die ihren Kindern ein Studium nach freier Wahl ermöglichen wollten, begann Frisch im Wintersemester 1930/31 ein Germanistik-Studium an der Universität Zürich. Auf der einen Seite traf Frisch hier auf Professoren, die ihn beeindruckten und ihm Kontakte zu Verlagen und Zeitungen vermitteln konnten, darunter Robert Faesi, Schriftsteller und Professor für neuere und schweizerische Literatur, und den Romanisten Theophil Spoerri. Auf der anderen Seite stellte er fest, dass der akademische Lehrplan ihm nicht das solide schriftstellerische Handwerkszeug vermitteln konnte, das er sich von dem Studium erhofft hatte. Im Nebenfach belegte Frisch Forensische Psychologie, von der er sich tiefere Einsichten in den Kern menschlicher Existenz versprach. Arbeit als Journalist. Frischs erster Beitrag in der "Neuen Zürcher Zeitung" (NZZ) stammt aus dem Mai 1931. Als im März 1932 sein Vater starb, konzentrierte Frisch sich zunehmend auf die journalistische Arbeit, um sich und seiner Mutter ein Auskommen zu sichern. Dieser Schritt ist Thema des im April 1932 entstandenen Essays "Was bin ich?", der als eigentlicher Auftakt seiner freiberuflichen Tätigkeit gilt und bereits ein Grundproblem des gesamten späteren Werks zu erkennen gibt. Neben seiner Arbeit für verschiedene Zeitungen belegte Frisch bis 1934 weiterhin Kurse an der Universität. Die über 100 in dieser Zeit entstandenen Arbeiten sind unpolitisch und konzentrieren sich auf autobiografische Selbsterforschung und die Verarbeitung privater Erlebnisse, etwa der Trennung von der 18-jährigen Schauspielerin Else Schebesta, in die Frisch sich verliebt hatte. Nur wenige dieser Texte wurden später in die Werksausgabe aufgenommen. Schon während ihrer Entstehung hatte der Autor selbst bisweilen den Eindruck, dass die Selbstreflexion überhandnehme, und versuchte sich durch körperliche Arbeit abzulenken, etwa bei einer studentischen Arbeitskolonie im Straßenbau 1932. Von Februar bis Oktober 1933 erfüllte Frisch sich den Wunsch einer ausgedehnten Auslandsreise, die er durch während der Reise verfasste Feuilletonbeiträge finanzierte. So berichtete er unter anderem für die NZZ von der Eishockey-Weltmeisterschaft in Prag. Weitere Stationen waren Budapest, Belgrad, Sarajevo, Dubrovnik, Zagreb, Istanbul, Athen, Bari und Rom. Aus den Erlebnissen dieser Reise entstand Frischs erster Roman "Jürg Reinhart", der 1934 erschien. Die Romanfigur Jürg Reinhart ist hierin ein Alter Ego Frischs, der im Zuge einer Balkan-Reise versucht, seine Position im Leben zu bestimmen. Hierbei kommt er zu dem Schluss, sich nur durch eine „männliche Tat“ seiner Reife vergewissern zu können, und vollzieht diese, indem er der todkranken Tochter seiner Pensionswirtin Sterbehilfe gewährt. Den Bedeutungswandel, den der Begriff „Euthanasie“ wenige Jahre später durch die Nationalsozialisten erfahren würde, vermochte Frisch zu diesem Zeitpunkt noch nicht abzusehen. Im Sommersemester 1934 lernte Frisch die drei Jahre jüngere Käte Rubensohn kennen, mit der ihn in den folgenden Jahren eine Liebesbeziehung verband. Als deutsche Jüdin war Rubensohn aus Berlin emigriert, um weiter studieren zu können. Als Frisch 1935 zum ersten Mal ins Deutsche Reich reiste, bezog er in seinem "Kleinen Tagebuch einer deutschen Reise" kritisch Stellung gegenüber dem Antisemitismus, äußerte sich jedoch bewundernd über die „rassekundliche“ Ausstellung "Wunder des Lebens" von Herbert Bayer. Frisch wusste die Folgen des Nationalsozialismus in den 1930er Jahren noch nicht abzuschätzen und konnte seine unpolitischen ersten Romane problemlos bei der Deutschen Verlags-Anstalt veröffentlichen, die der nationalsozialistischen Zensur unterlag. Erst im Laufe der 1940er Jahre begann Frisch, ein kritisches politisches Bewusstsein zu entwickeln. Diese zögerliche Entwicklung wird heute zum Teil mit dem konservativen Klima an der Universität Zürich erklärt, an der einzelne Professoren sogar Sympathien für Hitler und Mussolini pflegten. Dass Frisch solche Sympathien fremd waren, erklärte er später selbstkritisch mit seiner Liebe zu Käte Rubensohn. Die Beziehung zu ihr zerbrach 1939, nachdem sie einen Heiratsantrag abgelehnt hatte. Arbeit als Architekt und Familiengründung. 1937 erschien Frischs zweiter Roman, "Antwort aus der Stille", über den er später vernichtend urteilte. Er greift das Thema der „männlichen Tat“ auf, bezieht nun aber ausdrücklich Stellung für einen bürgerlichen Lebensentwurf. Aus dieser Haltung zog Frisch auch privat Konsequenzen: Er ließ die Berufsbezeichnung „Schriftsteller“ aus seinem Pass löschen und verbrannte alle bisherigen Schriften. Bereits 1936 hatte er, mit einem Stipendium seines Freunds Werner Coninx ausgestattet, ein Studium der Architektur begonnen. Frischs Vorsatz, das Schreiben aufzugeben, wurde jedoch bereits 1938 durch den Gewinn des Conrad-Ferdinand-Meyer-Preises konterkariert, der mit immerhin 3000 Schweizer Franken dotiert war: Sein Jahresstipendium betrug zu diesem Zeitpunkt 4000 Franken. Mit Beginn des Zweiten Weltkriegs 1939 wurde Frisch Kanonier der Schweizer Armee und leistete bis 1945 insgesamt 650 Aktivdiensttage. Während dieser Zeit begann er wieder zu schreiben und veröffentlichte seine Notizen 1939 unter dem Titel "Aus dem Tagebuch eines Soldaten" in der Zeitschrift "Atlantis" (im Folgejahr auch als Buch unter dem Titel "Blätter aus dem Brotsack"). In ihm kommt eine weitgehend unkritische Haltung zum Soldatenleben und der Stellung der Schweiz im Zweiten Weltkrieg zum Ausdruck, die Frisch 1974 in seinem "Dienstbüchlein" aufarbeitete und auch revidierte. An der ETH Zürich hörte er Architektur bei William Dunkel, wie seinerzeit auch Justus Dahinden und Alberto Camenzind. Nach dem Diplom im Sommer 1940 bot Dunkel Frisch eine feste Stelle in seinem Büro an, so dass dieser Ende 1940 die erste eigene Wohnung beziehen konnte. In Dunkels Atelier lernte Frisch auch die Architektin Gertrud von Meyenburg kennen, die er am 30. Juli 1942 heiratete. Mit ihr hatte er zwei Töchter (Ursula, * 1943, und Charlotte, * 1949) sowie einen Sohn (Hans Peter, * 1944). Seine Tochter Ursula, später Ursula Priess, hat in ihrem 2009 erschienenen Buch "Sturz durch alle Spiegel" ihr schwieriges Verhältnis zu ihrem Vater reflektiert. Von Frisch entworfener Restaurantpavillon im Freibad Letzigraben 1943 gewann Frisch unter 65 eingereichten Arbeiten den Architekturwettbewerb der Stadt Zürich für den Bau des Freibads Letzigraben (umgangssprachlich auch "Letzibad" oder "Max-Frisch-Bad" genannt). Er eröffnete daraufhin sein eigenes Architekturbüro und beschäftigte zeitweise zwei Zeichner. Wegen kriegsbedingter Materialknappheit konnte der Bau jedoch erst 1947 beginnen. Das 1949 eröffnete Bad steht heute unter Denkmalschutz und wurde 2006/07 im Zuge einer Totalsanierung wieder weitgehend in den Originalzustand gebracht. Insgesamt entwarf Frisch ein gutes Dutzend Bauwerke, von denen neben dem Freibad jedoch nur zwei Einfamilienhäuser für seinen Bruder Franz sowie ein Landhaus für den Haarwasserfabrikanten K. F. Ferster umgesetzt wurden. Letzterer stellte vor Gericht hohe Schadensersatzansprüche gegen Frisch, nachdem dieser ohne Rücksprache die ursprünglich vereinbarten Maße des Treppenhauses geändert hatte. Frisch rächte sich, indem er Ferster als Vorbild für den Protagonisten seines Dramas "Biedermann und die Brandstifter" nahm. Auch während seiner Tätigkeit als Architekt hielt Frisch sich meist nur vormittags in seinem Büro auf. Einen großen Teil seiner Zeit widmete er weiterhin der Schriftstellerei. Arbeiten für das Theater. Frisch besuchte schon während des Studiums regelmäßig Vorstellungen am Schauspielhaus Zürich, das in der Zeit des Nationalsozialismus deutsche Exilanten aufnahm und ein hochkarätiges Programm bot. Sein Direktor Kurt Hirschfeld ermutigte Frisch 1944 zu Arbeiten für das Theater und bot ihm Unterstützung bei deren Umsetzung an. In seinem ersten Stück "Santa Cruz" (1944, Uraufführung 1946) stellte der gerade verheiratete Frisch die Frage, wie sich Träume und Sehnsüchte des Einzelnen mit dem Eheleben vereinbaren lassen. Schon in dem 1944 veröffentlichten Roman "J’adore ce qui me brûle oder Die Schwierigen" hatte er die Unvereinbarkeit von künstlerischer und bürgerlicher Existenz betont und dabei, in Weiterentwicklung des Protagonisten seines ersten Romans, eine misslingende Liebesbeziehung des Malers Jürg Reinhart geschildert. Im Prosatext "Bin oder Die Reise nach Peking" griff er die Problematik 1945 nochmals auf. Die beiden folgenden Theaterstücke stehen unter dem Eindruck des Kriegs: "Nun singen sie wieder" (1945) wirft die Frage nach der persönlichen Schuld von Soldaten auf, die unmenschliche Befehle ausführen, und behandelt sie aus subjektiver Perspektive der Betroffenen. Das Stück vermeidet undifferenzierte Wertungen und wurde 1946/47 auch auf deutschen Bühnen gespielt. Die NZZ warf Frisch hingegen auf der Titelseite vor, den Terror des Nationalsozialismus zu „verbrämen“, und weigerte sich, eine Erwiderung des Autors abzudrucken. "Die Chinesische Mauer" (1946) setzt sich mit der Möglichkeit auseinander, dass die Menschheit sich mittels der gerade erfundenen Atombombe selbst ausrotten könnte. Das Stück sorgte für öffentliche Diskussion, ist heute im Vergleich zu Friedrich Dürrenmatts "Die Physiker" (1962) und Heinar Kipphardts "In der Sache J. Robert Oppenheimer" (1964) jedoch weitgehend in Vergessenheit geraten. Die Zusammenarbeit mit Hirschfeld ermöglichte Frisch Bekanntschaften, die ihn wesentlich beeinflussten: So lernte er 1946 Carl Zuckmayer kennen und 1947 den jungen Friedrich Dürrenmatt, mit dem ihn trotz Differenzen im künstlerischen Selbstverständnis eine langjährige Freundschaft verband. Im selben Jahr traf Frisch Bertolt Brecht, dessen Arbeit er bewunderte und mit dem er sich nun regelmäßig über künstlerische Fragen austauschte. Brecht ermunterte Frisch zu weiteren Stücken und wies ihn auf die gesellschaftliche Verantwortung des Künstlers hin. Obwohl Brechts Einfluss in Frischs kunsttheoretischen Ansichten und einigen praktischen Arbeiten erkennbar ist, zählt Frisch nicht zu den Schülern Brechts. Er bewahrte sich eine eigenständige Position, die insbesondere durch Skepsis gegenüber der traditionellen politischen Lagerbildung gekennzeichnet war. Dies kommt besonders in dem Stück "Als der Krieg zu Ende war" zum Ausdruck, in dem Frisch Augenzeugenberichte über die Rote Armee als Besatzungsmacht verarbeitet. Im April 1946 reiste Frisch zusammen mit Hirschfeld ins Nachkriegsdeutschland. Im August 1948 besuchte er einen internationalen Friedenskongress in Breslau, zu dem zahlreiche Intellektuelle eingeladen waren, die zur politischen Vermittlung zwischen Ost und West beitragen sollten. Da die Gastgeber den Kongress jedoch als Propagandaplattform missbrauchten und kaum ein Austausch zwischen den Gästen stattfand, reiste Frisch vorzeitig nach Warschau weiter, um in seinen Notizheften weiter eigenständige Eindrücke zu sammeln. Dennoch unterstellte ihm die NZZ nach seiner Rückkehr Sympathien mit dem Kommunismus und weigerte sich wiederum, eine Gegendarstellung abzudrucken, so dass Frisch die Zusammenarbeit mit der Zeitung aufkündigte. Durchbruch als Romancier und freier Schriftsteller. Frisch 1958 bei der Verleihung des Literaturpreises der Stadt Zürich Aus den etwa 130 Notizheften, die Frisch in der Nachkriegszeit anlegte, ging 1947 zunächst das literarische "Tagebuch mit Marion" hervor. Peter Suhrkamp ermutigte Frisch, das Konzept weiter auszubauen, und gab durch persönliche Rückmeldung zu den Texten konkrete Anregungen. 1950 erschien im neu gegründeten Suhrkamp Verlag das "Tagebuch 1946–1949", ein Mosaik aus Reiseberichten und autobiografischen Betrachtungen, politischen und literaturtheoretischen Essays sowie literarischen Skizzen, die Frischs Dramen und wesentliche Motive seines erzählerischen Schaffens des kommenden Jahrzehnts vorwegnahmen. Kritiker bescheinigten dem Werk, dass es der Gattung des literarischen Tagebuchs neue Impulse gebe, und seinem Autor, den „Anschluss ans europäische Niveau“ gefunden zu haben. Der kommerzielle Erfolg setzte jedoch erst mit der Neuauflage 1958 ein. 1951 folgte das im "Tagebuch" bereits skizzierte Drama "Graf Öderland" um einen Staatsanwalt, der vom bürgerlichen Leben gelangweilt ist und sich auf die Suche nach absoluter Freiheit begibt, wobei er mit einer Axt jeden ermordet, der sich diesem Ziel in den Weg stellt. Öderland endet als Anführer einer revolutionären Freiheitsbewegung und erhält durch diese Position Macht und Verantwortung, die ihn ebenso unfrei machen, wie er es zu Beginn des Stücks war. Das Drama wurde bei Publikum und Kritik zu einem klaren Misserfolg, es wurde vielfach als Ideologiekritik missverstanden oder als nihilistisch verurteilt. Frisch hingegen betrachtete "Graf Öderland" als eines seiner bedeutendsten Werke und arbeitete es für weitere Aufführungen 1956 und 1961 um, ohne damit eine wesentlich beifälligere Rezeption zu erreichen. Mit einem Stipendium der Rockefeller-Stiftung ausgestattet, bereiste Frisch zwischen April 1951 und Mai 1952 die USA und Mexiko. Während dieser Zeit arbeitete er unter dem Titel "Was macht ihr mit der Liebe" an einem Vorgänger des späteren Romans "Stiller" sowie an dem Theaterstück "Don Juan oder Die Liebe zur Geometrie", das im Mai 1953 gleichzeitig in Zürich und Berlin uraufgeführt wurde. In diesem Stück kehrt er zur Thematik des Widerstreits zwischen ehelichen Pflichten und intellektuellen Interessen zurück: Die Hauptfigur des Stücks ist ein parodierter Don Juan, der sich in erster Linie für geometrische Studien und das Schachspiel interessiert und Frauen daher nur einen episodischen Platz in seinem Leben einräumt. Nachdem sein gefühlloses Verhalten zahlreiche Tote gefordert hat, verliebt er sich jedoch in eine frühere Prostituierte. 1954 erschien Frischs Roman "Stiller", dessen Protagonist Anatol Ludwig Stiller zunächst behauptet, ein anderer zu sein, im Zuge eines Gerichtsverfahrens jedoch gezwungen wird, seine ursprüngliche Identität als Schweizer Bildhauer wieder anzuerkennen. Bis zu ihrem Tod lebt er daraufhin wieder mit der Ehefrau zusammen, die er in seinem früheren Leben verlassen hatte. Der Roman, der Elemente des Kriminalromans mit einem authentisch wirkenden, tagebuchartigen Erzählstil verbindet, wurde zu einem kommerziellen Erfolg und brachte Frisch eine breite Anerkennung als Schriftsteller ein. Zugleich lobte die Kritik die komplexe Konstruktion und Perspektivik sowie die Verbindung von philosophischen Einsichten mit autobiografischen Erfahrungen. Die These der Unvereinbarkeit von Kunst und Familie tauchte auch im "Stiller" wieder auf. Nach dessen Erscheinen zog Frisch, der während seiner Ehe zahlreiche Liebschaften pflegte, die Konsequenzen, trennte sich von seiner Familie und bezog in Männedorf in einem Bauernhaus eine eigene kleine Wohnung. Nachdem das Schreiben schon einige Jahre in Folge seine Haupteinnahmequelle gewesen war, schloss er im Januar 1955 auch sein Architekturbüro, um nun ganz als freier Schriftsteller zu arbeiten. Ende 1955 begann Frisch mit der Arbeit an dem Roman "Homo faber", der 1957 veröffentlicht wurde. Er handelt von einem Ingenieur, der mit seiner rein technisch-rationalen Weltsicht am realen Leben scheitert. "Homo faber" wurde in den Schulkanon aufgenommen und zu einem von Frischs meistgelesenen Büchern. Die Routen des Protagonisten spiegeln Frischs eigene Reisen während der Entstehungszeit des Romans wider. Sie führten ihn 1956 nach Italien, dann nach einer Schiffspassage über den Atlantik ein zweites Mal in die Vereinigten Staaten, nach Mexiko und Kuba und im Folgejahr nach Griechenland. Erfolge am Theater und Beziehung zu Ingeborg Bachmann. Das 1958 uraufgeführte Theaterstück "Biedermann und die Brandstifter" etablierte Frisch als Dramatiker von Weltrang. Es handelt von einem Kleinbürger, der Hausierern Unterschlupf gewährt und trotz deutlicher Anzeichen nicht dagegen einschreitet, dass diese sein Haus niederbrennen. Erste Skizzen waren bereits 1948 unter dem Eindruck der kommunistischen Machtübernahme in der Tschechoslowakei entstanden und im "Tagebuch 1946–1949" erschienen, 1953 hatte der Bayerische Rundfunk eine Hörspielfassung ausgestrahlt. Frischs Absicht war es, das Selbstvertrauen des Zuschauers zu erschüttern, dass er in einer ähnlichen Gefahrensituation besonnener reagieren würde. Als das Schweizer Publikum das Stück zunächst als reine Warnung vor dem Kommunismus auffasste, fühlte er sich missverstanden. Für die deutsche Uraufführung fügte er daher ein „Nachspiel“ hinzu, das nun als Warnung vor dem Nationalsozialismus verstanden und später wieder gestrichen wurde. Auch das folgende Drama "Andorra" hatte Frisch bereits im "Tagebuch" skizziert: Es behandelt die Macht, die ein vorgefasstes Bild der Mitmenschen über den Betroffenen hat. Seine Hauptfigur ist das uneheliche Kind Andri, dessen Vater es als Jude ausgibt. In der Folge muss Andri sich mit antisemitischen Vorurteilen auseinandersetzen und nimmt mit der Zeit Wesenszüge an, die in seiner Umgebung als „typisch jüdisch“ gelten. Der Stoff lag Frisch besonders am Herzen, so dass er innerhalb von drei Jahren fünf Fassungen des Stücks schrieb, bevor es Ende 1961 zur Uraufführung kam. Obwohl es bei Kritik und Publikum erfolgreich war, brachte das Stück Frisch insbesondere nach der Uraufführung in den USA (1963) auch den Vorwurf eines zu leichtfertigen Umgangs mit der jüngsten historischen Wirklichkeit ein. In der Tatsache, dass der vorurteilsbehaftete Umgang mit anderen in "Andorra" als allgemeiner menschlicher Fehler dargestellt ist, sahen einige Deutsche eine Relativierung der eigenen Schuld. Im Juli 1958 lernte Frisch die Schriftstellerin Ingeborg Bachmann kennen. Nachdem er bereits seit 1954 von Frau und Kindern getrennt gelebt hatte, ließ er sich 1959 auch offiziell von seiner ersten Frau Gertrud scheiden. Obwohl Bachmann einen schriftlichen Heiratsantrag ablehnte, folgte Frisch ihr 1960 nach Rom, wo er bis 1965 seinen Lebensmittelpunkt behielt. Die Beziehung gilt als intensiv, jedoch auch als für beide Seiten problematisch: Frisch, der seine sexuelle Untreue selbst stets offen eingestand, reagierte mit starker Eifersucht auf seine neue Partnerin, die für sich die gleichen Rechte einforderte. Sein 1964 veröffentlichter Roman "Mein Name sei Gantenbein" gilt – wie auch später Bachmanns Roman "Malina" – als literarische Reaktion auf die Beziehung, die im Winter 1962/63 in Uetikon zerbrochen war. Der Roman verarbeitet das Ende einer Ehe in einem komplexen Stil des Was-wäre-wenn: Identitäten und Biografien der Hauptpersonen wechseln, wie auch Details des ehelichen Lebens. Der Erzähler probiert alternative Geschichten an „wie Kleider“ und kommt doch zu dem Schluss, dass keine davon seiner Erfahrung völlig gerecht wird. Hier greift Frisch die im "Tagebuch 1946–1949" geäußerte Auffassung wieder auf, dass das Wesentliche für die Sprache unsagbar bleibe. Mit ähnlichen Mitteln gestaltete Frisch das Stück '. Von den Missverständnissen um "Biedermann und die Brandstifter" und "Andorra" enttäuscht, wandte Frisch sich von der Parabelform ab und suchte nach einer neuen Ausdrucksform, die er als „Dramaturgie der Permutation“ bezeichnete. Im Zentrum des Stücks steht ein Verhaltensforscher, der die Möglichkeit erhält, sein Leben noch einmal zu führen, und dabei letztlich keine wesentlich anderen Entscheidungen treffen kann. Die Zusammenarbeit mit dem Regisseur Rudolf Noelte scheiterte im Herbst 1967, eine Woche vor der angekündigten Premiere. Aber auch die 1968 zur Aufführung gebrachte Umsetzung unter Leopold Lindtberg stellte weder den Autor noch Kritik und Publikum zufrieden. Frisch hatte die Zuschauer aufrufen wollen, die Möglichkeiten zur Veränderung im Bewusstsein ihrer Beschränktheit voll auszunutzen, und empfand das Stück auf der Bühne letztlich selbst als zu fatalistisch. Erst elf Jahre nach dieser erneuten Enttäuschung kehrte Frisch ans Theater zurück. Zweite Ehe mit Marianne Oellers und rege Reisen. Im Sommer 1962 begegnete der damals 51-jährige Frisch der 28 Jahre jüngeren Germanistik- und Romanistik-Studentin Marianne Oellers. 1964 bezogen die beiden eine gemeinsame Wohnung in Rom, im Herbst 1965 zogen sie in ein aufwändig renoviertes Häuschen in Berzona im Tessin um. Als „soziales Experiment“ lebte das Paar ab 1966 zeitweise auch in einer Zweitwohnung in der Wohnsiedlung Lochergut, tauschte sie jedoch bald gegen eine Wohnung in Küsnacht am Zürichsee. Ende 1968 heirateten die beiden. Marianne Oellers begleitete ihren späteren Ehemann auf zahlreichen Reisen: 1963 besuchten sie die amerikanischen Uraufführungen von "Biedermann" und "Andorra", 1965 reisten sie anlässlich der Verleihung des Man’s Freedom Prize nach Jerusalem, wo Frisch die erste offizielle deutschsprachige Rede nach Ende des Zweiten Weltkriegs hielt. Im Bemühen um ein eigenständiges Urteil über das Leben hinter dem „Eisernen Vorhang“ bereisten sie 1966 die Sowjetunion. Anlässlich eines Schriftstellerkongresses kehrten sie zwei Jahre später dorthin zurück und trafen unter anderem die DDR-Schriftsteller Christa und Gerhard Wolf, mit denen sie von nun an eine Freundschaft verband. Nach der Hochzeit folgten 1969 eine Reise nach Japan sowie 1970–72 ausgedehnte Aufenthalte in den USA. Viele Eindrücke dieser Reisen sind im "Tagebuch 1966–1971" wiedergegeben. Nach der Rückkehr aus den USA nahm das Ehepaar Frisch 1972 eine Zweitwohnung in Berlin im Ortsteil Friedenau, die zunehmend zum Lebensmittelpunkt wurde und 1973–79 einen intensiven und anregenden Kontakt zu den dortigen Intellektuellen ermöglichte. Auszüge eines Tagebuchs aus dieser Zeit erscheinen erst 2014 unter dem Titel "Aus dem Berliner Journal". In seiner Berliner Jahren verstärkte sich Frischs kritische Haltung gegenüber der Schweiz, die sich in Werken wie "Wilhelm Tell für die Schule" (1970) und dem "Dienstbüchlein" (1974) niederschlägt, aber auch in der Rede "Die Schweiz als Heimat?", die Frisch im Januar 1974 anlässlich der Verleihung des Grossen Schillerpreises der Schweizerischen Schillerstiftung hielt. Obwohl er keine politischen Ambitionen hatte, hegte Frisch Sympathien für Ideen der Sozialdemokratie. Aus persönlicher Verbundenheit mit Helmut Schmidt begleitete er ihn 1975 auf dessen China-Reise und hielt 1977 eine Rede auf dem SPD-Parteitag. Im April 1974 hatte Frisch auf einer Lesetour in den USA eine Affäre mit der 32 Jahre jüngeren Amerikanerin Alice Locke-Carey. Diese Begegnung im Dorf Montauk auf Long Island nahm er als Ausgangspunkt der 1975 erschienenen gleichnamigen Erzählung, die sein autobiografischstes Buch wurde und von allen seinen bisherigen Liebesbeziehungen berichtet, einschließlich der Ehe mit Marianne und deren Seitensprung mit dem amerikanischen Schriftsteller Donald Barthelme. Anlässlich der Veröffentlichung kam es zwischen den Eheleuten zu einem offenen Streit über das Verhältnis von Öffentlichem und Privatem und in der Folge zu einer zunehmenden Entfremdung. 1979 wurde die Ehe geschieden. Spätwerk und Alter. Nachdem Frisch 1978 ernsthafte gesundheitliche Probleme durchlebt hatte, wurde im Oktober 1979 unter seiner Mitwirkung die Max-Frisch-Stiftung gegründet, die mit der Verwaltung seines Nachlasses beauftragt wurde. Ihr Archiv befindet sich in der ETH Zürich und ist seit 1983 öffentlich zugänglich. Alter und Vergänglichkeit rückten nun zunehmend ins Zentrum von Frischs Werk. 1976 nahm er die Arbeit an dem im Totenreich spielenden Theaterstück "Triptychon" auf, das im April 1979 in einer Hörspielfassung gesendet wurde und im Oktober desselben Jahres in Lausanne zur Uraufführung kam. Eine Aufführung in Frankfurt scheiterte am Widerstand des dortigen Ensembles, das das Stück als zu unpolitisch ablehnte. Die Premiere am Burgtheater in Wien betrachtete Frisch als gelungen, das Publikum reagierte jedoch zurückhaltend auf das komplex konstruierte Werk. 1980 nahm Frisch erneut Kontakt zu Alice Locke-Carey auf und lebte mit ihr bis 1984 abwechselnd in New York und in Berzona. In den USA war Frisch inzwischen ein geschätzter Schriftsteller, unter anderem erhielt er 1980 die Ehrendoktorwürde des Bard College und 1982 die der City University of New York. Die Übersetzung von "Der Mensch erscheint im Holozän" wurde von den Kritikern der New York Times als beste Erzählung des Jahres 1980 ausgezeichnet. Der Text berichtet von einem pensionierten Industriellen, der unter dem Verlust eigener geistiger Fähigkeiten und dem Schwund mitmenschlicher Beziehungen leidet. Frisch bemühte sich in diesem Text um Authentizität, wehrte sich jedoch gegen eine allzu autobiografische Deutung. Nach Abschluss der 1979 erschienenen Arbeit erlebte Frisch eine Schreibhemmung, die er erst im Herbst 1981 mit dem Prosatext "Blaubart" überwand. 1984 kehrte Frisch nach Zürich zurück, wo er nun bis zu seinem Tode lebte. 1983 begann die Beziehung zu seiner letzten Lebensgefährtin Karin Pilliod, mit der er 1987 am Moskauer „Forum für eine atomwaffenfreie Welt“ teilnahm. Nach Frischs Tod berichtete Pilliod davon, dass er in den Jahren 1952–1958 eine Liebesbeziehung mit ihrer Mutter Madeleine Seigner-Besson unterhalten habe. Im März 1989 wurde bei Frisch unheilbarer Darmkrebs diagnostiziert. Im selben Jahr erfuhr er im Rahmen der Fichenaffäre, dass er seit seiner Teilnahme am internationalen Friedenskongress 1948 wie viele andere Schweizer Bürger von den Behörden bespitzelt worden war. Am 1. August 1990 erhielt er (zensurierten) Zugang zu den behördlichen Aufzeichnungen und verfasste vor Ende 1990 dazu den Kommentar "Ignoranz als Staatsschutz?", in dem er zu einzelnen Aktenteilen Stellung nahm: Seine Fiche sei „ein Dokument der Ignoranz, der Borniertheit, der Provinzialität“. Der Text wurde erst 2015 bei Suhrkamp als Buch veröffentlicht. Frisch regelte die Umstände seiner Bestattung, engagierte sich jedoch noch im Rahmen der Diskussion über die Abschaffung der Schweizer Armee und veröffentlichte den Prosatext "Schweiz ohne Armee? Ein Palaver" sowie eine Bühnenfassung davon, "Jonas und sein Veteran". Max Frisch starb am 4. April 1991, mitten in den Vorbereitungen zu seinem 80. Geburtstag. Die Trauerfeier fand am 9. April 1991 in St. Peter statt. Es sprachen seine Freunde Peter Bichsel und Michel Seigner. Karin Pilliod verlas eine Erklärung, es kam aber kein Geistlicher zu Wort. Frisch war ein Agnostiker, der jedes Glaubensbekenntnis für überflüssig befand. Die Asche Max Frischs wurde bei einem Erinnerungsfest seiner Freunde im Tessin in ein Feuer gestreut; eine Tafel an der Friedhofsmauer des Ortes Berzona erinnert an ihn. Das Tagebuch als literarische Form. Das Tagebuch gilt als die für Frisch typische Prosaform. Hiermit ist weder ein privates Tagebuch gemeint, dessen Veröffentlichung der voyeuristischen Befriedigung der Leserschaft dienen würde, noch ein „journal intime“ im Sinne Henri-Frédéric Amiels, sondern vielmehr eine literarisch gestaltete Bewusstseinsschilderung in der Tradition James Joyce’ und Alfred Döblins, die neben der Schilderung realer Fakten Fiktionalität als gleichberechtigtes Mittel der Wahrheitsfindung akzeptiert. Nach dem Vorsatz, die Schriftstellerei aufzugeben, hatte Frisch unter dem Eindruck einer als existenziell empfundenen Bedrohung durch den Militärdienst angefangen ein Kriegstagebuch zu führen, das 1940 unter dem Titel "Blätter aus dem Brotsack" veröffentlicht wurde. Anders als seine früheren Arbeiten konnten die literarischen Ergebnisse in Tagebuchform vor ihrem Autor bestehen. Frisch fand so zu der Form, die sein weiteres Prosawerk bestimmte. Er veröffentlichte zwei weitere literarische Tagebücher aus den Zeiträumen 1946–1949 bzw. 1966–1971. Das Typoskript für ein drittes, 1982 begonnenes Tagebuch wurde 2009 in den Unterlagen von Frischs Sekretärin entdeckt. Bis dahin war man davon ausgegangen, dass Frisch dieses Werk als 70-Jähriger vernichtet hatte, weil er sich dessen kreativer Gestaltung aufgrund eines zunehmenden Verlusts seines Kurzzeitgedächtnisses nicht mehr gewachsen fühlte. Als das Typoskript 2010 veröffentlicht wurde, erhielt es aufgrund seines fragmentarischen Charakters den Titel "Entwürfe zu einem dritten Tagebuch". Viele zentrale Werke Frischs sind als Skizze bereits im "Tagebuch 1946–1949" angelegt, darunter die Dramen "Graf Öderland", "Andorra", "Don Juan" und "Biedermann und die Brandstifter", aber auch Elemente des Romans "Stiller". Gleichzeitig sind die Romane "Stiller" und "Homo faber" sowie die Erzählung "Montauk" als Tagebuch ihres jeweiligen Protagonisten angelegt; Sybille Heidenreich weist darauf hin, dass auch die offene Erzählform des Romans "Mein Name sei Gantenbein" eng an die Tagebuchform angelehnt ist. Rolf Kieser sieht in der Tatsache, dass die unter Mitwirkung Frischs 1976 herausgegebenen "Gesammelten Werke" nicht nach Textart, sondern streng chronologisch geordnet sind, die Tagebuchform sogar als Schema auf das Gesamtwerk übertragen. Frisch selbst vertrat die Auffassung, dass die Tagebuchform die einzige ihm entsprechende Prosaform sei und er sie daher ebenso wenig wählen könne wie die Form seiner Nase. Von fremder Seite gab es dennoch Ansätze, Frischs Wahl der Textform zu begründen: So sieht Friedrich Dürrenmatt darin die „rettende Idee“, die es Frisch im "Stiller" ermöglicht habe, „aus sich selber eine Gestalt, einen Roman“ zu machen, ohne dabei „der Peinlichkeit [zu] verfallen“. Insbesondere sieht er in der Figur James Larkin Whites, der in Wirklichkeit mit Stiller identisch ist, dies in seinen Aufzeichnungen über Stiller aber stets bestreitet, die Verkörperung des Schriftstellers, der in seinem Werk nicht umhinkann, „sich selbst zu meinen“, dies im Interesse der literarischen Qualität seines Ergebnisses aber ständig verbergen muss. Rolf Kieser weist darauf hin, dass in der Tagebuchform am deutlichsten Frischs Auffassung Rechnung getragen wird, dass Denken immer nur für einen bestimmten Standpunkt und Kontext stimme und es unmöglich sei, mit Sprache ein geschlossenes Bild der Welt oder auch nur eines einzelnen Lebens zu entwerfen. Erzählendes Werk. Obwohl Max Frisch seine ersten Erfolge im Theater feierte und auch selbst später oft betonte, dass er eigentlich vom Theater komme, zählten neben dem Tagebuch vor allem der Roman und die längere Erzählung zu seinen wichtigsten literarischen Formen. Insbesondere in späteren Jahren wandte sich Frisch von der Bühne ab und der Prosa zu. Nach eigenen Angaben fühlte er sich unter den subjektiven Anforderungen des Erzählens wohler als unter den objektiven Anforderungen, die die Arbeit am Theater an ihn richtete. Frischs Prosawerk lässt sich grob in drei Schaffensphasen einteilen. Sein Frühwerk bis 1943 entstand ausschließlich in Prosa. Darin enthalten waren zahlreiche kurze Skizzen und Essays, die Romane "Jürg Reinhart. Eine sommerliche Schicksalsfahrt" und seine Fortsetzung "J’adore ce qui me brûle oder Die Schwierigen" sowie die Erzählung "Antwort aus der Stille". Alle drei sind autobiografisch geprägt, alle kreisen um die Entscheidung des jungen Autors zwischen einer bürgerlichen und einer Künstlerexistenz und lassen ihre Protagonisten unterschiedliche Wege aus Frischs persönlichem Dilemma finden: in der Entwicklung zur Autonomie im Erstling, der an einen klassischen Bildungsroman erinnert, im Scheitern des Lebensentwurfs in seiner Fortsetzung, in der Absage an künstlerische Verwirklichung in der Erzählung. Mit seiner zweiten Erzählung "Bin oder Die Reise nach Peking" war Frisch im Jahr 1945 im bürgerlichen Milieu angekommen und formulierte aus dieser Warte bereits die Ausbruchssehnsucht. Frisch distanzierte sich im Nachhinein von seinem Frühwerk, nannte den Erstling einen „sehr jugendlichen Roman“, die folgende Erzählung eine „sehr epigonale Geschichte“, die zweite Erzählung „Fluchtliteratur“. Frischs Prosa-Hauptwerk besteht aus den drei Romanen "Stiller", "Homo faber" und "Mein Name sei Gantenbein". Unter diesen Werken wird laut Alexander Stephan "Stiller" „allgemein als Frischs wichtigstes und komplexestes Buch angesehen“, sowohl was seine Form als auch seinen Inhalt betrifft. Gemein ist den drei Romanen die Thematik der Identität und des Verhältnisses zwischen den Geschlechtern. Dabei nimmt "Homo faber" eine Komplementärposition zu "Stiller" ein. Hatte Stiller sich gegen die Festlegungen durch andere gewehrt, legt sich Walter Faber, der Protagonist aus "Homo faber", selbst auf die Identität des rationalen Technikers fest. Eine dritte Variation des Themas bietet "Mein Name sei Gantenbein", dessen Titel bereits die Umkehr des Einleitungssatzes aus "Stiller" in sich trägt. Statt „Ich bin nicht Stiller!“ heißt es nun „Ich stelle mir vor“. Statt der Suche nach der festen Identität steht das Spiel mit den Identitäten im Mittelpunkt, das Ausprobieren von Biografien und Geschichten. Auch die drei Erzählungen aus Frischs Spätwerk "Montauk", "Der Mensch erscheint im Holozän" und "Blaubart" werden in Untersuchungen oft zusammengefasst. Inhaltlich zeichnen sich alle drei Texte durch eine thematische Hinwendung zum Tod, einer Lebensbilanz aus. Formal stehen sie unter dem Motto einer Reduktion von Sprache und Handlungselementen. Volker Hage sah in den drei Erzählungen „eine untergründige Einheit, nicht im Sinn einer Trilogie, […] wohl aber im Sinn eines harmonischen Akkords. Die drei Bücher ergänzen sich und sind doch selbständige Einheiten. […] Alle drei Bücher haben den Tenor der Bilanz, des Abschlusses – bis hinein in die Form, die nur noch das nötigste zuläßt: verknappt, zugeknöpft.“ Frisch schränkte ein: „Die letzten drei Erzählungen haben nur eins gemeinsam: daß sie in der Erprobung der mir möglichen Darstellungsweisen weiter gehen als die Arbeiten vorher.“ Dramen. Die Dramen Max Frischs bis Anfang der 1960er Jahre unterteilte Manfred Jurgensen in drei Gruppen: die frühen Kriegsstücke, die poetischen Stücke wie "Don Juan oder Die Liebe zur Geometrie" und die dialektischen Stücke. Vor allem mit letzteren, namentlich den Parabeln "Biedermann und die Brandstifter", von Frisch als „Lehrstück ohne Lehre“ betitelt, und "Andorra" feierte Frisch seine größten Bühnenerfolge. Sie gehören zu den erfolgreichsten deutschsprachigen Theaterstücken. Dennoch blieb Frisch unzufrieden wegen der Missverständnisse, die ihre Aufnahme begleitet hatten. In einem Gespräch mit Heinz Ludwig Arnold wandte er sich explizit gegen die gleichnishafte Parabelform: „Ich habe einfach festgestellt, daß ich durch die Form der Parabel mich nötigen lasse, eine Botschaft zu verabreichen, die ich eigentlich nicht habe.“ Ab den 1960er Jahren zog sich Frisch verstärkt vom Theater zurück, seine folgenden Stücke ' und "Triptychon" wurden unpolitischer, erreichten aber auch nicht mehr den Publikumserfolg der früheren Werke. Erst kurz vor seinem Tod kehrte Frisch mit "Jonas und sein Veteran", der Theaterfassung von "Schweiz ohne Armee? Ein Palaver", noch einmal zur politischen Botschaft auf der Bühne zurück. Für Klaus Müller-Salget war den meisten Bühnenstücken Frischs gemein, dass sie auf der Bühne keine realistischen Situationen darstellen, sondern zeit- und raumübergreifende Gedankenspiele seien. So treten in "Die Chinesische Mauer" historische und literarische Figuren auf, in "Triptychon" Tote. In "Biografie: Ein Spiel" wird das Leben nachträglich korrigiert, "Santa Cruz" und "Graf Öderland" spielen im Traumhaften oder in der märchenhaften Moritat. Typisch seien karge, reduzierte Bühnenbilder, Brechungen wie zweigeteilte Bühnen, ein Chor oder die direkte Ansprache des Publikums. Immer wieder vergegenwärtige das Stück dem Publikum, dass es Theater sei, auf einer Bühne stattfinde. Im Stile von Brechts epischem Theater solle sich der Zuschauer nicht mit dem Geschehen auf der Bühne identifizieren, sondern durch das Dargestellte zu eigenen Gedanken angeregt werden. In Abweichung zu Brecht wolle Frisch dem Zuschauer aber keine vorgegebene Einsicht vermitteln, sondern lasse ihm die Freiheit einer eigenen Interpretation. Frisch selbst bekannte, dass ihn die Theaterarbeit in den ersten Proben am meisten fasziniere, wenn ein Stück noch nicht festgelegt, sondern in seinen Möglichkeiten offen sei. So sah Hellmuth Karasek Frischs Stücke auch dominiert von dessen Misstrauen gegen die Form, was sich etwa in "Don Juan oder Die Liebe zur Geometrie" in der Offenlegung der theatralischen Mittel äußere. Frisch führe die Unglaubwürdigkeit des Theaters vor, er strebe seine Durchschaubarkeit an. Dabei herrsche keine Lust am theatralischen Effekt wie etwa bei Dürrenmatt vor, die Effekte brächen sich an Zweifeln und skeptischen Einsichten. Wirkungen entstünden aus Wortlosigkeit, Verstummen oder Missverständnissen. Wo Dürrenmatts Stücke auf die schlimmstmögliche Wendung zusteuerten, endeten Frischs Dramen oft mit einer dramaturgischen Rückkehr zu ihrem Anfang; das Schicksal seiner Protagonisten sei es, kein Schicksal zu haben. Stil und Sprache. Frischs Stil wandelte sich in verschiedenen Phasen seines Werks. Während sein Frühwerk noch stark unter dem Einfluss Albin Zollingers und dessen poetischer Metaphorik stand, dabei nicht frei von epigonalen Lyrismen, distanzierte sich Frisch im Rückblick von vermeintlich „falscher Poetisierung“. Seine späteren Arbeiten zeichneten sich durch einen wesentlich knapperen, unprätentiöseren Stil aus, zu dem Frisch erläuterte: „Ich schreibe im allgemeinen sehr gesprochen“. Walter Schenker sah das Zürichdeutsch, mit dem Frisch aufgewachsen war, als seine Grundsprache. Dennoch wurde in seinen Werken das Hochdeutsch, das er vor allem als Schrift- und Literatursprache kennengelernt hatte, die bevorzugte Ausdrucksform, wobei er aber immer wieder mundartliche Wendungen als Stilmittel einsetzte. Frisch war geprägt durch eine grundlegende Skepsis gegenüber der Sprache. In "Stiller" lässt er seinen Protagonisten ausrufen: „ich habe keine Sprache für meine Wirklichkeit!“ Im "Tagebuch 1946–1949" führte er weiter aus: „Was wichtig ist: das Unsagbare, das Weiße zwischen den Worten, und immer reden diese Worte von Nebensachen, die wir eigentlich nicht meinen. Unser Anliegen, das eigentliche, läßt sich bestenfalls umschreiben, und das heißt ganz wörtlich: man schreibt darum herum. Man umstellt es. Man gibt Aussagen, die nie unser eigentliches Erlebnis enthalten, das unsagbar bleibt; […] und das eigentliche, das Unsagbare erscheint bestenfalls als Spannung zwischen diesen Aussagen.“ Werner Stauffacher sah in Frischs Sprache „eine Sprache des Suchens der unaussprechlichen menschlichen Wirklichkeit, die Sprache eines Sehens und Erforschens“, ohne dass sie ihr dahinterliegendes Geheimnis tatsächlich enthülle. Frisch übertrug Prinzipien des epischen Theaters Bertolt Brechts sowohl in sein dramatisches als auch sein erzählendes Werk. Bereits 1948 schloss er eine Betrachtung über den Verfremdungseffekt mit den Worten: „Es wäre verlockend, all diese Gedanken auch auf den erzählenden Schriftsteller anzuwenden; Verfremdungseffekt mit sprachlichen Mitteln, das Spielbewußtsein in der Erzählung, das Offen-Artistische, das von den meisten Deutschlesenden als ‚befremdend‘ empfunden und rundweg abgelehnt wird, weil es ‚zu artistisch’ ist, weil es die Einfühlung verhindert, das Hingerissene nicht herstellt, die Illusion zerstört, nämlich die Illusion, daß die erzählte Geschichte ‚wirklich‘ passiert ist“. Insbesondere in seinem Roman "Mein Name sei Gantenbein" brach Frisch mit dem geschlossenen Handlungskontinuum zugunsten der Darstellung von Varianten und Möglichkeiten. Das Theaterstück "Biografie: Ein Spiel" erhob die Probe zum dramatischen Prinzip. Bereits in "Stiller" übertrug Frisch mit den eingebetteten Geschichten die Form des fragmentarischen, episodenhaften Erzählens seines literarischen Tagebuchs in einen Roman. In seinem Spätwerk radikalisierte Frisch die Montagetechnik weiter bis zur Collage aus Texten, Notizen und Abbildungen in "Der Mensch erscheint im Holozän". Themen und Motive. Das literarische Werk Max Frischs ist von einigen grundlegenden Themen und Motiven geprägt, die entweder im Zentrum einer bestimmten Schaffensperiode stehen oder durch das gesamte Werk hindurch immer wieder aufgegriffen und variiert werden. Bildnis und Identität. In seinem "Tagebuch 1946–1949" formulierte Frisch einen zentralen Gedanken, der sein Werk durchzieht: „Du sollst dir kein Bildnis machen, heißt es, von Gott. Es dürfte auch in diesem Sinne gelten: Gott als das Lebendige in jedem Menschen, das, was nicht erfaßbar ist. Es ist eine Versündigung, die wir, so wie sie an uns begangen wird, fast ohne Unterlaß wieder begehen – Ausgenommen wenn wir lieben.“ Frisch bezog das biblische Gebot auf das Verhältnis der Menschen untereinander. Nur in der Liebe sei der Mensch bereit, sein Gegenüber mit all seiner Wandelbarkeit, den ihm innewohnenden Möglichkeiten anzunehmen. Ohne Liebe banne der Mensch sein Gegenüber und die gesamte Welt in vorgefertigte Bilder. Ein zum Klischee erstarrtes Bild werde zur Versündigung des Menschen gegen sich selbst und gegen den anderen. Hans Jürg Lüthi unterschied in Frischs Werk zwei Kategorien des Umgangs mit dem Bildnis: in der ersten werde das Bildnis als Schicksal erlebt. Hierzu gehöre das Stück "Andorra", in dem Andri von den Andorranern das Bildnis eines Juden zugewiesen werde, sowie der Roman "Homo faber", in dem Walter Faber im Bildnis des Technikers gefangen bleibe. Die zweite Kategorie thematisiere die Befreiung vom Bildnis, etwa in "Stiller" oder "Mein Name sei Gantenbein", in denen sich die Hauptpersonen neue Identitäten entwerfen, um vorgefertigten Bildnissen zu entkommen. Im Gegensatz zum Fremdbild steht die menschliche Identität. Für Frisch besitzt jeder Mensch seine einzigartige Individualität, die ihre Berechtigung aus sich selbst beziehe und verwirklicht werden müsse. Es „vollzieht sich das menschliche Leben oder verfehlt sich am einzelnen Ich, nirgends sonst.“ Der Prozess der Selbstannahme und der folgenden Selbstverwirklichung sei ein Akt der Freiheit, der Wahlmöglichkeit: „Die Würde des Menschen, scheint mir, besteht in der Wahl.“ Dabei sei die Selbstwahl kein einmaliger Akt, sondern das wahre Ich müsse hinter den Bildnissen immer wieder neu erkannt und gewählt werden. Die Furcht, das Ich zu verpassen und damit das Leben zu verfehlen, hat bereits in Frischs Frühwerk eine zentrale Stellung. Eine misslungene Selbstwahl führe zu einer Entfremdung des Menschen von sich selbst und von der Welt. Nur in der begrenzten Frist eines wirklichen Lebens könne sich die menschliche Existenz erfüllen, da ihre Erlösung im Zustand der endlosen Unveränderbarkeit des Todes ausgeschlossen sei. In "Stiller" formulierte Frisch als Kriterium eines wirklichen Lebens, „daß einer mit sich selbst identisch wird. Andernfalls ist er nie gewesen!“ Beziehung zwischen den Geschlechtern. Die männlichen Protagonisten in Frischs Werk lassen sich laut Claus Reschke auf den gemeinsamen Grundtyp eines modernen Intellektuellen zurückführen: egozentrisch, entscheidungsschwach, unsicher in Bezug auf ihr Selbstbild, verkennen sie oft ihre tatsächliche Situation. Sie sind Agnostiker, in der Beziehung zu anderen Menschen fehlt es ihnen an echter Hingabe, so dass sie das isolierte Leben eines Einzelgängers führen. Wenn sie tiefere Beziehung zu Frauen entwickeln, verlieren sie ihre emotionale Balance, werden ihres Partners unsicher, besitzergreifend und eifersüchtig. Immer wieder fallen sie in überkommene Geschlechterrollen und maskieren ihre sexuellen Unsicherheiten durch Chauvinismus. Gleichzeitig ist ihre Beziehung zu Frauen überschattet von Schuldgefühlen. Im Verhältnis zur Frau suchen sie das „wirkliche Leben“, die Vervollständigung und Erfüllung ihrer selbst in einer Beziehung, die frei von Konflikten und einer lähmenden Wiederholung ist, die nie das Element von Neuheit und Spontaneität verliert. Auch die Frauenfiguren in Frischs Werk führte Mona Knapp auf ein Stereotyp zurück. Sie haben in den Texten, die auf ihre männlichen Protagonisten zentriert sind, eine zweckgebundene, strukturelle Funktion und erweisen sich als austauschbar. Oft werden sie als „großartig“ und „wunderbar“ verherrlicht, sind scheinbar emanzipiert und dem Mann überlegen. Tatsächlich zeichne sich ihre Motivation aber zumeist durch Kleinlichkeit aus: Treulosigkeit, Besitzgier und Gefühlsmangel. In Frischs späterem Werk werden die Frauenfiguren zunehmend eindimensionaler, folienhafter und zeigen keine innere Ambivalenz. Oft werde die weibliche Figur auf die Bedrohung der männlichen Identität oder auf ihre Rolle als Objekt der Untreue reduziert, werde zum Katalysator des Gelingens oder Scheiterns der männlichen Existenz und liefere dem männlichen Protagonisten bloß den Anlass für seine Selbstbetrachtung. Zumeist gehe in Frischs Werken die Aktivität in Partnerbeziehungen von der Frau aus, der Mann verbleibe passiv, abwartend und reflektierend. Scheinbar werde die Frau vom Mann geliebt, in Wahrheit aber gefürchtet und verachtet. Karin Struck sah Frischs männlichen Protagonisten letztlich abhängig von den Frauenfiguren. Dabei blieben die Frauen für sie Fremde. Die Männer hingegen seien von Beginn an bezogen auf den Abschied: sie können nicht lieben, weil sie vor sich selbst, ihrem Versagen und ihrer Angst fliehen. Oft vermischen sich Bilder der Weiblichkeit mit jenen des Todes, so in Frischs Don-Juan-Version: „Das Weib erinnert mich an Tod, je blühender es erscheint.“ In immer wieder neuen Beziehungen zu Frauen und der anschließenden Trennung werde für Frischs Männerfiguren der Tod körperlich erfahrbar: ihre Angst vor Frauen korrespondiere mit der Angst vor dem Tod, die Reaktion auf die Beziehung zur Frau sei Flucht und Schuldgefühl. Spätwerk: Vergänglichkeit und Tod. Obwohl der Tod ein durchgängiges Motiv im Werk Frischs ist, wird er im Früh- und Hauptwerk durch Identitäts- und Beziehungsproblematiken überlagert. Erst mit dem Spätwerk wird er zur zentralen Frage. Frischs zweites veröffentlichtes Tagebuch leitet den Themenkreis ein. Ein Schlüsselsatz des "Tagebuchs 1966–1971" ist ein mehrfach wiederholtes Zitat Montaignes: „So löse ich mich auf und komme mir abhanden.“ Im Zentrum der Aufzeichnungen steht das Altern als private und gesellschaftliche Problematik. Obwohl noch politische Forderungen gestellt werden, rücken die sozialen Bindungen in den Hintergrund, zentral wird die Beschäftigung mit dem eigenen Ich. Das Tagebuch gibt in seiner Fragmenthaftigkeit und formalen Reduktion den Stil vor, der neben einer melancholischen Grundstimmung für die folgenden Werke bestimmend bleibt. Auch die Erzählung "Montauk" behandelt das Altern. Der Mangel an Zukunft des autobiografischen Protagonisten richtet den Blick auf die Verarbeitung der Vergangenheit und den Wunsch nach Erleben von Gegenwart. Im Theaterstück "Triptychon" wird der Tod an sich dargestellt, allerdings in metaphorischem Bezug aufs Leben. Der Tod spiegelt die Erstarrung der menschlichen Gemeinschaft und wird damit eine Anweisung zur Lebensgestaltung. Die Erzählung "Der Mensch erscheint im Holozän" schildert den Sterbeprozess eines alten Mannes als Eingehen in die Natur. Laut Cornelia Steffahn zeichnet Frisch im Spätwerk kein einheitliches Todesbild, die Werke geben vielmehr den Prozess seiner eigenen Auseinandersetzung mit der Thematik wieder und wandeln sich im gleichen Maße, in dem Frisch selbst altere. Dabei verarbeite er philosophische Einflüsse von Montaigne, Søren Kierkegaard, Lars Gustafsson bis Epikur. Politisches Engagement. a>" bezog Frisch für eine Abschaffung der Schweizer Armee Position Während Frischs frühe literarische Arbeiten noch weitgehend unpolitisch waren und er sich etwa im Militärtagebuch "Blätter aus dem Brotsack" vom Leitbild Schweiz und der Geistigen Landesverteidigung beeinflusst zeigte, wandelte sich sein politisches Bewusstsein in der Nachkriegszeit. Vor allem die Trennung zwischen Kultur und Politik prangerte Frisch nun an, und 1948 notierte er in seinem Tagebuch: „Wer sich nicht mit Politik befaßt, hat die politische Parteinahme, die er sich sparen möchte, bereits vollzogen: er dient der herrschenden Partei.“ Laut Sonja Rüegg zeichnete sich Frischs Ästhetik durch eine grundsätzlich kritische und antiideologische Haltung aus, ein Selbstverständnis des Schriftstellers als Emigrant innerhalb der Gesellschaft, den Widerstand gegen die herrschende Ordnung, die Parteinahme nicht für eine Klasse sondern für das einzelne Individuum, die Betonung des Fragens sowie die Übernahme moderner Literaturformen. Frischs Gesellschaftskritik entzündete sich insbesondere auch an seinem Heimatland, der Schweiz. In seiner Rede zur Verleihung des Großen Schillerpreises bekannte er unter dem Titel "Die Schweiz als Heimat?": „Ich bin Schweizer (nicht bloß Inhaber eines schweizerischen Reisepasses, geboren auf schweizerischem Territorium usw., sondern Schweizer aus Bekenntnis)“. Doch er schränkte auch ein: „Heimat ist nicht durch Behaglichkeit definiert. Wer Heimat sagt, nimmt mehr auf sich.“ Frischs veröffentlichte Auseinandersetzung mit seiner Heimat, dem Leitbild und der Sonderrolle der Schweiz reichte von der Streitschrift "achtung: Die Schweiz" bis zur Demontage des Nationalepos von Wilhelm Tell in "Wilhelm Tell für die Schule", worin der Gründungsmythos als eine Geschichte von Zufällen, Unzulänglichkeiten sowie Beschränktheit und Opportunismus dargestellt wird. Mit dem "Dienstbüchlein" rechnete Frisch mit seiner eigenen Vergangenheit in der Schweizer Armee ab, die er auch in seinem letzten umfangreichen Text "Schweiz ohne Armee? Ein Palaver" in Frage stellte. Charakteristisch für Frischs Werk war, dass sich immer wieder Phasen starken politischen Engagements mit Phasen der Erfahrung von Wirkungslosigkeit und des Rückzugs auf private Themen abwechselten. Bettina Jaques-Bosch sah den Autor deswegen zwischen Perioden der Kritik und der Melancholie pendeln, Hans Ulrich Probst verortete das Spätwerk „zwischen Resignation und republikanischer Alters-Radikalität“. Frischs letzte publizierte Sätze, ein Brief an Marco Solari in der "Wochenzeitung", richteten sich noch einmal an die Schweiz: „1848 eine große Gründung des Freisinns, heute unter der jahrhundertelangen Dominanz des Bürgerblocks ein verluderter Staat – und was mich mit diesem Staat noch verbindet: ein Reisepaß (den ich nicht mehr brauchen werde)“. Erfolg als Schriftsteller. Für Max Frisch kennzeichnete sich seine literarische Karriere dadurch, dass er keinen „frappanten Durchbruch“ erlebt habe, und der Erfolg „sehr langsam gekommen“ sei. Dennoch erreichten auch seine frühen Veröffentlichungen bereits einen gewissen Erfolg. Schon als Zwanzigjähriger wurde er in verschiedenen Zeitungen und Zeitschriften veröffentlicht. Mit seinem Erstling fand er in der Deutschen Verlags-Anstalt einen renommierten Verlag, dem sich, als Frisch nicht länger im nationalsozialistischen Deutschland veröffentlichen wollte, der Schweizer Atlantis Verlag und ab 1950 der Suhrkamp Verlag anschlossen. Auch seine Dramen wurden ohne Verzögerung angenommen und am bedeutenden Schauspielhaus Zürich gespielt. Frischs Werke wurden in Rezensionen positiv besprochen, bereits sein Frühwerk wurde mit Preisen bedacht, erst "Graf Öderland" wurde 1951 ein „erster Mißerfolg auf der Bühne“. Gemeinsam mit dem ersten Tagebuch leitete das Drama aber auch eine Beachtung Frischs über die Schweizer Grenzen hinweg ein, besonders in der Bundesrepublik Deutschland, wo der Roman "Stiller" zum ersten großen Erfolg wurde und ihm ein Leben als Berufsschriftsteller ermöglichte. Ausgehend von 3000 verkauften Exemplaren im ersten Jahr, erreichte "Stiller" durch beständig wachsende Nachfrage als erstes Buch des Suhrkamp Verlages eine Millionenauflage. Zu einem weiteren Bestseller wurde der Folgeroman "Homo faber" mit einer deutschsprachigen Gesamtauflage von vier Millionen Exemplaren bis zum Jahr 1998. "Biedermann und die Brandstifter" und "Andorra" gehören nach Einschätzung Volker Hages zu den erfolgreichsten deutschsprachigen Theaterstücken mit 250 beziehungsweise 230 Inszenierungen bis zum Jahr 1996. Beide Dramen und "Homo faber" wurden zum vielfachen Unterrichtsstoff an Schulen im deutschen Sprachraum. Bis auf wenige Frühwerke Frischs lagen bis 2002 von jedem Werk Übersetzungen vor, überwiegend in rund 10 Sprachen, wobei "Homo faber" mit 25 Sprachen am häufigsten übersetzt wurde. Stellung in der Schweiz und im Ausland. Sowohl innerhalb als auch außerhalb der Schweiz wurde Frisch oft mit dem zweiten großen Schweizer Schriftsteller seiner Generation, dem zehn Jahre jüngeren Friedrich Dürrenmatt, in einem Atemzug genannt. Hans Mayer bezeichnete sie etwa als „Dioskuren“, aber auch als miteinander dialektisch verknüpfte „Antagonisten“. Die enge Freundschaft zu Beginn ihres literarischen Werdegangs wurde später von persönlichen Differenzen überschattet. In einem letzten Versuch eines Versöhnungsbriefs Dürrenmatts zu Frischs 75. Geburtstag, der unbeantwortet blieb, fand Dürrenmatt für ihre Beziehung die Formulierung: „wir haben uns wacker auseinander befreundet“. Auch literarisch wurden beide zunehmend unterschiedlich gesehen, so galt laut Heinz Ludwig Arnold Dürrenmatt in der Öffentlichkeit – trotz seines erzählenden Werks – als der „geborene“ Dramatiker, Frisch – trotz seiner Bühnenerfolge – als geborener Erzähler. Beide, Frisch und Dürrenmatt, trugen in den 1960er Jahren gemeinsam durch ihre Fragen nach unbewältigter Schweizer Vergangenheit stark zu einer Revision des dominanten Schweizer Geschichtsbildes bei. Spätestens seit Veröffentlichung des "Dienstbüchleins" 1974 war Frischs Rezeption in der Schweiz stark gespalten in Zuspruch und heftige Ablehnung. Vor die Alternativen der Vorbilder Dürrenmatt und Frisch gestellt, entschieden sich laut Janos Szábo die meisten jungen Schweizer Schriftsteller für Frisch und dessen Rolle als Erzieher und Aufklärer. Frisch wurde in den 1960er Jahren zur Leitfigur einer Schweizer Autorengeneration, zu der etwa Peter Bichsel, Jörg Steiner, Otto F. Walter oder Adolf Muschg zählten. Noch 1998, als die Schweiz als Gastland der Frankfurter Buchmesse vorgestellt wurde, vernahm Andreas Isenschmid in den Büchern einer jungen Schriftstellergeneration aus der Schweiz wie Ruth Schweikert, Daniel de Roulet, Silvio Huonder und Peter Stamm „einen merkwürdig vertrauten alten Ton, aus allen Richtungen klingen und oft fast Seite für Seite seltsame Echos auf den "Stiller" von Max Frisch.“ Auch in der Bundesrepublik Deutschland nahmen die Werke des Schweizers Max Frisch eine zentrale Rolle ein, Heinrich Vormweg bezeichnete "Stiller" und "Homo faber" als „[z]wei der für die deutschsprachige Literatur der fünfziger Jahre bezeichnendsten, sie beispielhaft repräsentierenden Romane“. In der DDR wurden in den 1980er Jahren umfangreiche Ausgaben von Frischs Prosa und Dramen herausgegeben, ohne dass es allerdings zu intensiveren literaturwissenschaftlichen Auseinandersetzungen mit Frischs Werk kam. Leichter verfügbar waren Übersetzungen von Frischs Werken in anderen sozialistischen Staaten, was Frisch selbst darauf zurückführte, dass etwa in der Sowjetunion von offizieller Seite geurteilt wurde, seine Werke stellen „Krankheitserscheinungen einer kapitalistischen Gesellschaft“ dar, die „in einer Gesellschaft mit verstaatlichten Produktionsmitteln nicht vorhanden“ seien. Trotz einiger ideologisch motivierter Kritiken an ihrem „Individualismus“, „Pessimismus“ oder „Modernismus“ wurden Frischs Werke in der UdSSR rege übersetzt und publiziert sowie in rund 150 Aufsätzen besprochen. Erfolgreich war Frisch auch in seiner zeitweiligen Wahlheimat, den Vereinigten Staaten. Dabei wurde von der Kritik positiv vermerkt, dass sich die Handlungen wiederholt in Amerika zutragen und der Autor frei von „europäischer Arroganz“ sei. Bedeutung und Einfluss. Nach Einschätzung Jürgen H. Petersens hatte Frischs Bühnenwerk nur geringen Einfluss auf andere Dramatiker. Auch seine spezielle Form des literarischen Tagebuchs habe keine Nachahmer gefunden. Dagegen seien die Romane "Stiller" und "Mein Name sei Gantenbein" sowohl in ihrer Thematik der Identitätsfrage als auch in ihrer literarischen Gestaltung, in der personale Identität nicht durch Beschreibung oder Innenansichten, sondern durch erfundene Geschichten dargestellt werde, zu literarischen Modellen geworden. Häufig mit diesem stilistischen Einfluss in Bezug gebracht werden etwa "Nachdenken über Christa T." von Christa Wolf oder "Malina" von Ingeborg Bachmann. Andere beeinflusste Autoren sind Peter Härtling und Dieter Kühn. Max Frisch wurde auch selbst Gegenstand von Literatur. So schrieb Wolfgang Hildesheimer 1983 die "Mitteilungen an Max über den Stand der Dinge und anderes". Uwe Johnson stellte 1975 eine Sammlung von Frisch-Zitaten unter dem Titel "Max Frisch Stich-Worte" zusammen. Gottfried Honegger veröffentlichte 2007 elf Porträtskizzen und vierzehn Texte zur Erinnerung an seinen Freund. Adolf Muschg fasste an Max Frisch gerichtet zusammen: „Deine Stelle in der Literaturgeschichte: wie beschreibt man sie? Ein formaler Neuerer bist Du nicht gewesen; Du hast auch nicht – Identitätsproblem in Ehren – von Dir reden gemacht durch eine nie dagewesene Thematik. Ich glaube, Du hast Epoche gemacht durch etwas zugleich Unauffälliges und Fundamentales: ein neues Ethos (und Pathos) des "Versuchs". Deine Bücher machen die literarische Probe auf ein Exempel der Phantasie“. Marcel Reich-Ranicki standen Frischs Werke näher als die anderer Autoren aus seiner Generation: „Anders als Dürrenmatt oder Böll, als Grass oder Uwe Johnson schrieb Frisch über die Komplexe und die Konflikte der Intellektuellen, und er wandte sich immer wieder an uns, die Intellektuellen aus der bürgerlichen Bildungsschicht. Er hat wie kein anderer unsere Mentalität durchschaut und erkannt“. Friedrich Dürrenmatt bewunderte an seinem Kollegen „die Kühnheit, mit der er vom ganz Subjektiven ausgeht. […] Frisch ist immer der Fall. Sein Fall ist der Fall.“ In seinem letzten Brief an Frisch prägte er dafür die Formulierung, Frisch habe in seinen Werken „seinen Fall zur Welt“ gemacht. Verfilmungen. Zum Film hatte Max Frisch laut Alexander J. Seiler eine weitgehend „glücklose Beziehung“, obwohl sein Stil oftmals an filmische Mittel erinnerte. Seiler erklärte dies damit, dass Frischs Werk sich bemühe, „das Weiße zwischen den Worten“ auszudrücken, dessen Umsetzung in Filmbildern zumeist nur zum Abklatsch werden könne. Bereits im "Tagebuch 1946–1949" findet sich unter dem Titel "Der Harlekin. Entwurf zu einem Film" eine frühe Beschäftigung Frischs mit dem Genre Film. Die ersten praktischen Erfahrungen waren jedoch gescheiterte Projekte: Aus dem Film "SOS Gletscherpilot" von 1959 stieg Frisch aus, sein Entwurf zu "Wilhelm Tell (Burgen in Flammen)" von 1960 wurde abgelehnt und der Film ganz gegen seine Intentionen realisiert. Die unter dem Titel "Zürich – Transit" im Jahr 1965 geplante Verfilmung einer Episode aus "Mein Name sei Gantenbein" scheiterte zuerst an Differenzen mit dem Regisseur Erwin Leiser, dann an der Erkrankung seines Nachfolgers Bernhard Wicki. 1992 kam es zu einer Verfilmung durch Hilde Bechert. Auf die Romane "Stiller" und "Homo faber" wurden mehrfach Filmoptionen vergeben, letztere an Anthony Quinn, doch die Realisierungen zerschlugen sich. Zwar wurden Frischs Dramen oft in Fernsehproduktionen verfilmt, doch zu ersten Adaptionen seiner Prosa kam es erst durch Georg Radanowicz ("Das Unglück" nach der Tagebuchskizze "Skizze eines Unglücks", 1975), Richard Dindo ("Max Frisch, Journal I–III" nach der Erzählung "Montauk", 1981) und Krzysztof Zanussi ("Blaubart" nach der gleichnamigen Erzählung, 1985). Wenige Monate nach Frischs Tod gelangte mit Volker Schlöndorffs Verfilmung "Homo Faber" eine erste große Produktion in die Kinos. Frisch hatte am Drehbuch noch mitgearbeitet, der Film blieb allerdings ohne positives Echo in der Kritik. 1992 erreichte "Holozän", Heinz Bütlers und Manfred Eichers Verfilmung von "Der Mensch erscheint im Holozän", beim Internationalen Filmfestival von Locarno den Spezialpreis der Jury. Auszeichnungen und Ehrungen. Ausstellung zum hundertsten Geburtstag im Museum Strauhof in Zürich Im Gedenken an Max Frisch vergibt die Stadt Zürich seit 1998 den Max-Frisch-Preis. Zu Max Frischs 100. Geburtstag fanden im Jahr 2011 verschiedene Veranstaltungen statt, so auch eine Ausstellung in Frischs Heimatstadt Zürich sowie eine Ausstellung im Literaturhaus München und im Museo Onsernonese in Loco. Im Jahr 2015 ist die Fertigstellung eines Max-Frisch-Platzes beim Bahnhof Zürich Oerlikon geplant. Mir (Raumstation). Die Mir (‚Frieden‘ oder ‚Welt‘) war eine von der Sowjetunion erbaute, bemannte Raumstation, die von 1986 bis zu ihrem kontrollierten Absturz 2001 die Erde umkreiste. Nachdem die Mir in den ersten Jahren nur von der Sowjetunion und den mit ihr verbundenen Staaten genutzt wurde, betrieb sie die russische Raumfahrtagentur Roskosmos nach dem politischen Umbruch im Ostblock weiter und öffnete sie auch für westliche Staaten und deren Raumfahrtagenturen. Die Raumstation Mir war zu ihrer Zeit das größte künstliche Objekt im Erdorbit und gilt – mit dem Sputnik-Satelliten 1957 und Juri Gagarins Erstflug 1961 – als größter Erfolg der sowjetischen Raumfahrt. Aufbau und Konstruktion. Die Mir war die erste auf einen dauerhaften und wissenschaftlichen Betrieb ausgelegte Raumstation. Die Sowjetunion hatte in den 1970er und frühen 1980er Jahren mehrere Stationen des Typs Saljut betrieben, die militärischen und wissenschaftlichen Zielen dienten und bis zu vier Jahre lang genutzt wurden. Wie diese war die Mir modular aufgebaut und wurde aus mehreren nacheinander gestarteten Teilen im Laufe von zehn Jahren im All zusammengebaut. Dem Hauptmodul wurden sechs weitere Module hinzugefügt. Alle Module wurden vom kasachischen Baikonur aus mit Proton-Raketen gestartet, bis auf das Andockmodul für das Space Shuttle. Es kam mit der US-amerikanischen Fähre Atlantis vom Kennedy Space Center aus ins All. Langzeitmissionen mit bemannten Raumstationen galten für die Sowjetunion als Mittel, sich nach dem verlorenen Wettlauf zum Mond internationales Ansehen zu verschaffen. Auch in dieser Hinsicht ging man mit der Mir – für sowjetische Verhältnisse – neue Wege. Unmittelbar nach dem Start des Basismoduls wurde dieser öffentlich bekannt gegeben. Über Details der neuen Station gab man, auch gegenüber der westlichen Presse, bereitwillig Auskunft. Der Start der ersten Besatzung wurde sogar im Vorfeld angekündigt – das erste Mal bei einem Flug ohne internationale Beteiligung. Die USA hatten mit den Skylab-Missionen nur ein einziges Projekt für eine Raumstation in ihrem Programm. Jahrelang war die Mir der einzige permanente Vorposten der Menschheit im Weltraum. Neben vielen wissenschaftlichen Experimenten wurden hier vor allem Erfahrungen über den Langzeitaufenthalt im Weltraum gesammelt. Einzelne Kosmonauten hielten sich mehr als ein Jahr in der Station auf. Der modulare Aufbau der Mir wurde bei der später gebauten Internationalen Raumstation (ISS) übernommen. Ihr Modul Swesda ist eine modifizierte Version des Basisblocks der Mir. Das Basismodul. Der Basisblock der Mir wurde am 19. Februar 1986 zum 27. Parteitag der KPdSU ins All gebracht. Er verfügte über sechs Kopplungsstutzen für Transportraumschiffe und Ausbaumodule – die Vorgänger verfügten über zwei Stutzen. Die Mir war von vornherein als längerfristiges und größeres Vorhaben angelegt. Vier dieser Stutzen dienten zum Andocken weiterer Module, die beiden axialen Anschlüsse wurden für bemannte Sojus-Raumschiffe und unbemannte Progress-Raumschiffe verwendet. Mit letzteren wurde die Station mit Lebensmitteln, Wasser, Treibstoff und Material versorgt, die Bahn der Mir regelmäßig wieder angehoben und Abfall und ausgedientes Material entsorgt. Ein ständig angedocktes Sojus-Raumschiff diente der Besatzung als „Rettungsboot”, um im Notfall die Station aufzugeben und zur Erde zurückzukehren. Aus Sicherheitsgründen musste die Mannschaft das Sojus-Raumschiff auch während des Andockens eines anderen Raumschiffes aufsuchen. Die Kapazität von höchstens drei Kosmonauten je Raumschiff beschränkte die Zahl der auf der Station arbeitenden Personen. Das Basismodul diente als Wohn- und Aufenthaltbereich der Besatzung und verfügte über hygienische Einrichtungen für die Besatzung und die technischen Einrichtungen zur Steuerung, Lagekontrolle und Kommunikation. Seine Startmasse betrug 20,4 Tonnen bei einer Gesamtlänge von 13,30 Metern und einem Durchmesser von 4,20 Metern. Die Energieversorgung erfolgte über Solarmodule. Über freie Kopplungsadapter war es möglich, die Station für Außeneinsätze zu verlassen. Die Stammbesatzung bestand aus zwei oder drei Kosmonauten. Sie wurde zeitweise durch eine dreiköpfige Gastmannschaft ergänzt. Von der Saljut 7, der letzten Station des Vorgängertypus, wurden im Rahmen der Mission Sojus T-15 Teile der Ausrüstung übernommen. Damit waren für fünf Jahre gleichzeitig zwei sowjetische Raumstationen im Orbit, von denen – bis auf einige Wochen – nur die Mir genutzt wurde. Das Wissenschaftsmodul Kwant. Das Modul Kwant wurde am 31. März 1987 gestartet, dockte nach Verzögerung im Andockmanöver am 9. April an die Station an und war damit das erste Modul zur Erweiterung der Raumstation. Im Gegensatz zu den folgenden Modulen dockte Kwant nicht am Kopplungsknoten, sondern direkt an der endgültigen Position in Längsachse am Heck des Basismoduls an. Einen Tag später betrat die Besatzung der Mir (Juri Romanenko und Alexander Lawejkin) das neue Modul und nahm es in Betrieb. Kwant diente wissenschaftlichen Arbeiten, überwiegend astrophysikalischen Untersuchungen. Da es eine der beiden axialen Andockstellen besetzte, verfügte Kwant seinerseits über einen weiteren Andockpunkt für Sojus- oder Progress-Raumschiffe sowie über entsprechende Pumpen und Leitungen, um angelieferten Treibstoff in das Basismodul weiterzuleiten. Die Startmasse betrug elf Tonnen, die Länge 5,30 Meter und der Durchmesser 4,35 Meter. 1992 wurde ein Solarsegel des Moduls Kristall an Kwant montiert, bis 1995 eine komplett neue Solaranlage installiert wurde. Das Wissenschaftsmodul Kwant 2. Das Modul Kwant 2 wurde am 26. November 1989 gestartet und zehn Tage später seitlich mit dem Kopplungsmodul des Basisblocks verbunden. Es diente der optischen Beobachtung der Erde und für biotechnologische Experimente. Zusätzlich verfügte es über Einrichtungen für die persönliche Hygiene der Kosmonauten, Lebenserhaltungseinrichtungen und eine verbesserte Ausstiegsschleuse. Weitere Solarzellen ergänzten die Energieversorgung. Die Startmasse betrug 19,6 Tonnen bei einer Länge von 12,20 Meter. Das Wissenschaftsmodul Kristall (Kwant 3). Als drittes Modul wurde Kristall am 31. Mai 1990 gestartet und zehn Tage später gegenüber von Kwant 2 mit dem Kopplungsknoten des Basismoduls verbunden. Kristall war im Wesentlichen für biologische und materialwissenschaftliche Experimente gebaut. Zwei zusätzliche androgyne Andockstutzen waren für die geplante Raumfähre Buran und ein ebenfalls geplantes Teleskop vorgesehen, wurden aber nie dafür genutzt. Am 29. Juni 1995 dockte daran das Space Shuttle „Atlantis” an (Mission STS-71). Kristall musste dafür aufwendig auf die axiale Position am Mir-Kopplungsadapter umgesetzt werden, damit die Raumfähre nicht die Mir oder deren Aufbauten berührte und beschädigte. Danach musste Kristall wieder in die ursprüngliche Position versetzt werden, um den radialen Andockpunkt für Sojus-Raumschiffe und Progress-Zubringer zu räumen. Wie Kwant 2 verfügte Kristall über zusätzliche Solarzellen. Gewicht und Abmessungen glichen denen von Kwant 2. Um das Andocken des Space Shuttles zu vereinfachen und Platz für das Modul Spektr zu schaffen, wurde es zu einem späteren Zeitpunkt an einen anderen Stutzen um 90 Grad versetzt und um ein spezielles Shuttle-Andockmodul ergänzt. Eines der Solarpaneele wurde 1992 an das Modul Kwant versetzt. Das Wissenschaftsmodul Spektr. Am 20. Mai 1995 wurde das Modul Spektr gestartet und zwölf Tage später an der Stelle des umgesetzten Moduls Kristall mit dem Basisblock verbunden. Spektr verfügte über Einrichtungen zur Erforschung der Erdatmosphäre, geophysikalischer Prozesse und kosmischer Strahlung. Erstmals befand sich wissenschaftliche Ausrüstung der NASA für das geplante Shuttle-Mir-Programm mit an Bord. Mit seinen x-förmig angeordneten vier Solarmodulen unterschied sich Spektr äußerlich stark von den anderen Modulen. Das Startgewicht von 20 Tonnen entsprach dem der anderen Module, mit rund 14 Metern war Spektr das längste aller sechs Module. Bei einem Unfall am 25. Juni 1997 wurde es so stark beschädigt, dass es in der Folge nur noch zur Energieversorgung genutzt werden konnte. Das Andockmodul für das Space Shuttle (Shuttle Docking Module). Mit dem US-amerikanischen Space Shuttle "Atlantis" wurde am 13. November 1995 ein Andockmodul ins All gebracht und drei Tage später mit dem Modul Kristall verbunden. Das 4,70 Meter lange Bauteil vereinfachte das Andocken im Vergleich zu dem zuvor genutzten Dock der Buran. Bei den insgesamt elf Shuttle-Mir-Missionen kam das Modul acht Mal zum Einsatz. Einmal dockte man direkt an Kristall an, zweimal kam es zu einer Annäherung im All ohne Kopplung. Das Forschungsmodul Priroda. Mit dem am 23. April 1996 gestarteten Modul Priroda und der drei Tage später stattgefundenen Kopplung am Basisblock gegenüber dem Modul Kristall erreichte der Ausbau der Mir seine letzte Stufe. Priroda verfügte über Einrichtungen zur Fernerkundung und Forschung zur Mikrogravitation. Mit zwölf Metern Länge und 19 Tonnen Gewicht entsprachen seine Abmessungen den Modulen Kwant 2 und Kristall. In der letzten Ausbaustufe hatte die Mir eine Gesamtmasse von rund 135 Tonnen, eine Spannweite von 31 Metern und eine Gesamtlänge von 33 Metern. Die Nutzung. Die Raumstation wurde insgesamt von 96 Kosmonauten besucht. 19 von ihnen betraten die Station zweimal, Alexander Wiktorenko viermal und Anatoli Solowjow fünfmal. Die längste Zeit an Bord verbrachte der russische Kosmonaut Waleri Poljakow: Er arbeitete 679 Tage an Bord der Mir. Von Januar 1994 bis Mai 1995 stellte er mit 438 Tagen im All einen neuen Rekord für die menschliche Verweildauer im All im Rahmen einer Mission auf. Der lange Zeitraum wurde auch als Test für einen möglichen bemannten Marsflug gewertet – der Flug zum roten Planeten dauert etwa ein Jahr. 1986 – Die erste Besatzung. Die erste Besatzung der Expedition Sojus T-15 mit den Kosmonauten Leonid Kisim und Wladimir Solowjow startete am 13. März 1986 und betrat zwei Tage später die Station, um diese in Betrieb zu nehmen. Zu den Aufgaben gehörte es unter anderem, die von den Frachtschiffen Progress 25 und 26 angelieferte Ausrüstung zu entladen und zu installieren. Als Besonderheit wurde ein 50-tägiger Ausflug zur Raumstation Saljut 7 unternommen, um diese zu warten und einen Teil der Ausrüstung für die Mir zu übernehmen. Dieser Flug einer Besatzung zwischen zwei Raumstationen ist bis heute einzigartig. Nach der Rückkehr zur Erde am 16. Juli 1986 blieb die Station Mir für mehr als ein halbes Jahr unbesetzt. 1987 bis 1989. Mit der Mission Sojus TM-2 und den Kosmonauten Juri Romanenko und Alexander Lawejkin, die am 5. Februar 1987 Baikonur verließen, begann die erste Periode von über zwei Jahren, in der die Station mit wechselnden Mannschaften ununterbrochen besetzt war. Sie endete im April 1989 mit der Mission Sojus TM-7. In diesen Jahren besuchten mit dem Syrer Muhammed Achmed Faris, dem Afghanen Abdul Ahad Mohmand und dem Franzosen Jean-Loup Chrétien die ersten nicht-sowjetischen Raumfahrer die Station. Die Station war in dieser Zeit das Ziel von sechs Missionen, während der das Modul Kwant angeschlossen und in Betrieb genommen wurde. 1989 bis 1991. Nach einer Unterbrechung von über vier Monaten – bedingt durch technische Probleme mit den Sojus-Raumschiffen – begann mit Sojus TM-8 im September 1989 die zweite Phase der Nutzung, in deren Verlauf die Station über beinahe zehn Jahre hinweg – bis zum August 1999 – permanent besetzt blieb und ausgebaut wurde. Neun Flüge des US-amerikanischen Space Shuttles und 22 Flüge mit sowjetischen Sojus-Raumschiffen dockten während dieser Zeit an. In diesen Zeitraum fiel der politische Umbruch in der Sowjetunion, der auch zu einer Zäsur beim Betrieb der Mir führte. Die begonnene Zusammenarbeit mit anderen, auch westlichen, Staaten wurde fortgeführt. Im Dezember 1990 flog der japanische Journalist Toyohiro Akiyama zu der Station. Ihm folgten 1991 die erste britische Raumfahrerin Helen Sharman und der erste österreichische Kosmonaut Franz Viehböck. Die beiden Kosmonauten Alexander Wolkow und Sergei Krikaljow betraten als Sowjetbürger die Station und kehrten als russische Bürger mit der Sojus TM-13 zur Erde zurück. In ihre Aufenthaltszeit fiel die Wahl von Boris Jelzin zum Präsidenten der Russischen Föderation, der Augustputsch in Moskau und das Ende der UdSSR. Durch die Begleitumstände musste Krikaljow seinen Aufenthalt ungeplant um ein halbes Jahr verlängern. Er kehrte erst nach 311 Tagen am 25. März 1992 auf die Erde zurück. 1992 bis 1999 – Die Mir unter russischer Leitung. Nach der politischen Wende in den Staaten der Sowjetunion besuchten zunehmend Raumfahrer westlicher Staaten die Station, deren Betrieb durch Russland weiter geführt wurde. Mit der Ankunft der Mission EO-11 begann das neue Zeitalter auch an Bord der nun russischen Station. 1992 kam mit Klaus-Dietrich Flade der erste Deutsche. Ihm folgte am 3. September 1995 Thomas Reiter, der Teil der 20. Mir-Langzeitbesatzung war, darauf folgte 1997 Reinhold Ewald sowie der Franzose Michel Tognini. 1994 besuchte der deutsche ESA-Astronaut Ulf Merbold die Mir, der zuvor bereits zweimal mit dem Space Shuttle im All gewesen war. Parallel zum weiteren Ausbau der Station startete im Jahr 1995 der erste amerikanische Astronaut von Baikonur in einem Sojus-Raumschiff zur Mir. Im Juni des gleichen Jahres begann die erste von elf Shuttle-Mir-Missionen. Im Rahmen der Mission STS-71 dockte die Raumfähre Atlantis an die russische Raumstation an. Im September besuchte der Deutsche Thomas Reiter die Mir und blieb 179 Tage an Bord. Gleichzeitig fand dort die erste Kunstausstellung im Erdorbit „Ars ad astra“ statt. 1996 wurde der Aufbau der Station mit dem Modul Priroda beendet. Der längste Aufenthalt eines amerikanischen Astronauten im All wurde auf der Mir gefeiert: John Blaha verbrachte im gleichen Jahr 118 Tage auf der Station. Die letzten Jahre. Die Mir aus der Sicht des Space Shuttles Atlantis Am 20. November 1998 startete mit Sarja das erste Modul der Internationalen Raumstation. Die NASA-Führung versuchte die russische Regierung dazu zu bewegen, die Mir möglichst bald aufzugeben. Vorerst entschied sich Russland dagegen, verzichtete aber darauf, die am 28. August 1999 gelandete Crew von Sojus TM-29 durch eine neue zu ersetzen. 1999 gründete sich in den Niederlanden die MirCorp, ein Unternehmen, das versuchte, das Überleben der Mir über private Mittel zu sichern. Zu den Überlegungen gehörten auch Nutzungen für den Weltraumtourismus. Mit Sojus TM-29 besuchte 1999 der Franzose Jean-Pierre Haigneré und der erste slowakische Kosmonaut Ivan Bella die Mir. Mit Sojus TM-30 startete am 4. April 2000 die letzte Besatzung zur Mir, nachdem sie sieben Monate unbenutzt geblieben war. Die durch MirCorp finanzierte Mission der Kosmonauten Sergej Saljotin und Alexander Kaleri dauerte 72 Tage und war der 39. Besuch eines bemannten Raumschiffes. Sie führten Wartungsarbeiten durch, um den weiteren Verbleib in der Umlaufbahn sicherzustellen. Zum Zeitpunkt ihrer Rückkehr im Juni 2000 hoffte die russische Raumfahrt noch, die Mir durch westliche Gelder für zwei weitere Jahre betreiben zu können. Die Hoffnungen zerschlugen sich angesichts der Unterhaltskosten und des Aufwands für den gleichzeitigen Unterhalt zweier Raumstationen. Am 23. Oktober 2000 kam das offizielle Aus. Der russische Vorschlag, Teile der Mir zum Aufbau der ISS zu verwenden, wurde von US-amerikanischer Seite – trotz der damit verbundenen Einsparungen – verworfen. In den frühen Morgenstunden des 23. März 2001 wurde die Mir mit drei Bremsschüben des letzten Progress-Raumfrachters zum kontrollierten Wiedereintritt in die Atmosphäre gebracht. Mehr als 1500 (ca. 40 Tonnen) nicht verglühte Trümmer der Station stürzten um 6:57 Uhr südöstlich der Fidschi-Insel in den Pazifischen Ozean. Das Zentrum der Absturzstelle befand sich bei den Koordinaten. In ihrer 15-jährigen Geschichte umrundete die ursprünglich nur für eine Lebensdauer von sieben Jahren ausgelegte Station die Erde 86.325 Mal in einer Höhe von 390 Kilometern über der Erdoberfläche. Die Liste bemannter Missionen zur Raumstation Mir enthält eine Beschreibung aller bemannten Raumflüge, die Raumfahrer mit einem der Sojus-Raumschiffe oder einem der Space Shuttles zur Station brachte. Pannen und Unfälle. Technische Pannen ließen gegen Ende der Lebenszeit Zweifel an der Zuverlässigkeit der Station aufkommen. Durch die erfolgreiche Bewältigung der Zwischenfälle konnten aber auch Erfahrungen gesammelt werden, die beim Aufbau der Internationalen Raumstation halfen. Beschädigungen an einem der Solarpaneele des Spektr-Moduls nach der Kollision mit einem Progress-Raumfrachter Am 24. Februar 1997 entzündete sich ein chemischer Sauerstoffgenerator, eine sogenannte Sauerstoffkerze. Es entwickelte sich giftiger Rauch, der die beiden russischen und den deutschen Raumfahrer Reinhold Ewald an Bord zum Tragen von Sauerstoffmasken zwang. Die entschlossene Reaktion der Mir-Insassen verhinderte eine verfrühte Rückkehr zur Erde, und die Luft konnte innerhalb eines Tages gereinigt werden. Zwei Wochen nach diesem Vorfall fiel die primäre Sauerstoffversorgung aus, es musste auf die sekundäre umgeschaltet werden. Aufgrund eines Defekts des Lagekontrollsystems waren nur noch manuelle Manöver möglich. Das marode russische Kommunikationssatellitensystem ließ nur noch zehn Minuten Funkkontakt zur Moskauer Bodenstation pro Erdumlauf zu. Obwohl die NASA Anfang 1997 ihre Zweifel an einer weiteren Zusammenarbeit mit Russland auf der Mir bekundete, startete nach Reparatur der Bordsysteme am 15. Mai 1997 die "Atlantis" zur Station und löste den Amerikaner Jerry Linenger an Bord durch Michael Foale ab. Einen Monat später, am 25. Juni 1997, kollidierte aufgrund eines Fehlers beim Andocken das Progress M-34-Versorgungsraumschiff mit der Station. Das beschädigte Modul Spektr wurde undicht und musste versiegelt werden, durch Schäden an den Solarpaneelen des Moduls fiel ein Drittel der Energieversorgung aus. Die Probleme an Bord konnten zwei Monate später bei einem Besatzungsaustausch behoben werden. Am 26. September 1997 startete erneut die Atlantis zur Mir, nachdem es heftige Kontroversen bei der NASA gegeben hatte, ob man nach der Pannenserie die Shuttle-Mir-Missionen überhaupt fortsetzen sollte. Einzelnachweise. Mir Michael Ende. Michael Andreas Helmuth Ende (* 12. November 1929 in Garmisch; † 28. August 1995 in Filderstadt) war ein deutscher Schriftsteller. Leben. Michael Ende war der Sohn des surrealistischen Malers Edgar Ende und dessen Ehefrau Luise Bartholomä. Die ersten Jahre seines Lebens verbrachte er in den (heutigen) Münchener Stadtteilen Pasing und Schwabing. Ab 1940 besuchte Ende das Maximiliansgymnasium in München. Drei Jahre später wurde diese Schule evakuiert und Ende kam mit dem Programm der Kinderlandverschickung in seinen Geburtsort Garmisch zurück. Als er wenige Wochen vor Kriegsende zur „Heimatverteidigung“ herangezogen werden sollte, desertierte Ende und schloss sich der Organisation Freiheitsaktion Bayern an. Erst 1948 konnte Ende seine Schulzeit an der Waldorfschule in Stuttgart erfolgreich absolvieren. Sofort im Anschluss daran besuchte er bis 1950 die Falckenberg-Schule in München. Nach erfolgreichem Abschluss agierte Ende bis 1953 an verschiedenen Theatern, u. a. mehrere Monate am Landestheater in Schleswig-Holstein. Während dieser Zeit verfasste Ende für verschiedene politische Kabaretts die Texte. Zwischen 1954 und 1962 war er auch als Filmkritiker für den Bayerischen Rundfunk tätig. Mit eigenen, meist dramatischen Theaterstücken war Ende jedoch erfolglos. Nachdem zwölf Verlage sein Manuskript "Jim Knopf und Lukas der Lokomotivführer" abgelehnt hatten, erschien dieses Kinderbuch 1960 im Thienemann Verlag und ist seitdem ein großer Erfolg. Da verschiedene Kritiker Ende, gerade seines "Jim Knopf" wegen, „Weltflucht“ vorwarfen und ihn als „Schreiberling für Kinder“ abtaten, ging er 1970 zusammen mit seiner ersten Frau Ingeborg Hoffmann, die er 1964 geheiratet hatte, nach Italien und ließ sich in Genzano di Roma, ca. 30 km südöstlich von Rom, in der Villa Liocorno (Einhorn), nieder. Dort entstand 1973 sein märchenhafter Roman "Momo", der 1986 verfilmt wurde. Nach anderen Angaben lebte Ende in den Jahren 1965 bis 1971 im Alten Schloss in Valley in der Nähe von München und schrieb den 1973 erschienenen Roman "Momo" hier. In enger Zusammenarbeit mit dem Komponisten Mark Lothar entstand anschließend das Libretto zur Oper "Momo und die Zeitdiebe". Die Uraufführung fand 1978 am Landestheater Coburg statt. 1985 war Ende auch einer der Autoren des Drehbuchs, nach dem Johannes Schaaf seinen Film "Momo" drehte. In diesem Film spielte Ende auch eine kleine Nebenrolle. Im Jahr 1979 schrieb Michael Ende seinen phantastischen Roman "Die unendliche Geschichte". Das Buch verkaufte sich weltweit etwa zehn Millionen mal und wurde in 40 Sprachen übersetzt. Ab 1978 arbeitete er mit dem Komponisten Wilfried Hiller zusammen. Aus dieser Partnerschaft entstanden zahlreiche Musiktheaterstücke, wie 1985 "Der Goggolori" oder das Hörspiel "Norbert Nackendick oder das nackte Nashorn". Sowohl "Momo" als auch die "Unendliche Geschichte" thematisieren die Gefahr einer Welt, in der Fantasie und Menschlichkeit im Verschwinden begriffen sind. In Tilman Urbachs Film "Michael Ende – der Vater der Unendlichen Geschichte" betont sein Lektor Roman Hocke, dass Ende sich als reiner „Märchenonkel“ verkannt sah. Die Filmsprecherin: „Michael Endes Bücher sind trotz aller Phantasterien Zivilisationskritiken, hinter denen die Vision einer anderen, besseren Welt steht.“ Konkret befasste Michael Ende sich mit dem Gedanken einer Geldreform nach Silvio Gesell. Nach dem Tod seiner ersten Frau (1985) heiratete er 1989 die japanische Übersetzerin Mariko Satō (), die auch einige seiner Werke ins Japanische übersetzt hat. Michael Endes Grab auf dem Münchner Waldfriedhof 1995 starb Michael Ende an einem Magenkrebsleiden im Alter von 65 Jahren in Filderstadt-Bonlanden bei Stuttgart. Seine letzte Ruhestätte hat er auf dem Waldfriedhof (alter Teil) in München (Grab Nr. 212-W-3) gefunden, die von einem überdimensionalen Buch in Bronze gekennzeichnet wird, aus dem Märchenfiguren seiner Werke reliefartig hervortreten. Ebenfalls als Bücher gestaltet sind zwei Sitzhocker davor und ein kleiner Tempel. Das Grabmal hat Ludwig Valentin Angerer geschaffen. Endes literarischen Nachlass verwaltet das Deutsche Literaturarchiv in Marbach am Neckar. Einzelne Exponate, wie die Manuskripte von Die unendliche Geschichte und Der satanarchäolügenialkohöllische Wunschpunsch, sind im Literaturmuseum der Moderne in Marbach in der Dauerausstellung zu sehen. Teile des Nachlasses befinden sich im Michael-Ende-Museum der Internationalen Jugendbibliothek im Münchener Schloss Blutenburg und im Michael-Ende-Archiv im Märchenmuseum Kurohime Dōwakan in Shinanomachi, Japan. Rezeption. Die meisten Bücher Michael Endes erschienen zuerst im Thienemann Verlag, später auch auf Betreiben seines Verlegers und Lektors Hansjörg Weitbrecht in dessen Tochterunternehmen, der "Edition Weitbrecht". Auch wurden seine Geschichten vertont und als Hörbücher und Hörspiele mit bekannten Sprechern veröffentlicht. Endes Werke wurden in über 40 Sprachen übersetzt und haben eine Gesamtauflage von über 28 Millionen erreicht. Besonderen Erfolg hatte sein Kinderbuch "Jim Knopf und Lukas der Lokomotivführer", das u. a. in der szenischen Darstellung der "Augsburger Puppenkiste" im Fernsehen gezeigt wurde. Die Verfilmungen seiner Romane "Momo" und "Die unendliche Geschichte" trugen ebenfalls zu seiner Bekanntheit bei, wobei Ende sich selbst von der Verfilmung der "Unendlichen Geschichte" distanzierte, da er mit dieser insgesamt nicht zufrieden war. Michael Endes Werke wurden vielfältig rezipiert und interpretiert. Unter anderem wurden Museumsausstellungen organisiert. Ebenfalls widmete die Band Tocotronic ihm 1995 ein Lied ("Michael Ende, du hast mein Leben zerstört"), welches den Einfluss von Endes Werk auf eine ganze Generation von Jugendlichen thematisiert. 1990 hatte Michael Ende im Garmischer Kurpark eine Kaiserlinde gepflanzt, um seine Verbundenheit mit seinem Geburtsort auszudrücken. Der Kurpark wurde 2009 zu Ehren des Autors in „Michael-Ende-Kurpark“ umbenannt. Inmitten des Kurparks ist im Kurhaus eine Dauerausstellung „Der Anfang vom Ende“ über die Kindheit und Jugend, das Leben und Werk Endes untergebracht. Zahlreiche Schulen sind nach Michael Ende benannt. Hörspiel- und Hörbuch-Adaptionen. Die Hörspiele, besonders dasjenige der "Unendlichen Geschichte", gelten bei den Rezipienten Endes, die sowohl die Hörspiele, als auch die Kinofilme kennen, nicht zuletzt aufgrund der eindringlichen Musik Frank Duvals sowie der einprägsamen Erzählstimme Harald Leipnitz' als gelungener als die Filmadaptionen. Bis auf das Hörbuch und das Hörspiel vom "satanarchäolügenialkohöllischen Wunschpunsch" wurden alle Hörspiele ursprünglich von der Deutschen Grammophon für das Tochterlabel Fontana als LP produziert, gingen dann in den Vertrieb von Philips über, waren ab 1984 im Vertrieb von Karussell erst auf MC, heute schließlich als CD bei Universal erhältlich. Messier-Katalog. Der Messier-Katalog ist eine Auflistung von 110 astronomischen Objekten, hauptsächlich Galaxien, Sternhaufen und Nebel. Die Objekte des Katalogs wurden zwischen 1764 und 1782 von dem französischen Astronomen Charles Messier zusammengestellt, nach einer ersten Version des Kataloges dann in Zusammenarbeit mit seinem Kollegen Pierre Méchain. Die meisten der Katalogobjekte waren vorher noch nicht bekannt gewesen. Der Messier-Katalog war und ist von großer praktischer Bedeutung. Er war einer der Ausgangspunkte für die systematische Erforschung von Galaxien, Nebeln und Sternhaufen, und die von ihm vergebenen Nummern sind nach wie vor die übliche Bezeichnung vieler wichtiger Himmelsobjekte. Entstehungsgeschichte. Charles Messiers Forschungsinteresse galt der „Kometenjagd“. Bis 1801 hatte er die beeindruckende Zahl von 20 neuen Kometen entdeckt. Auf der Suche nach Kometen stieß er immer wieder auf diffuse „Flecken“, die zwar ähnlich wie Kometen aussahen, im Gegensatz zu jenen aber ihre Position am Himmel nicht merklich änderten. Diese nicht vorhandene Eigenbewegung deutete darauf hin, dass es sich um Objekte weit außerhalb des Sonnensystems handelt. Um Verwechslungen auszuschließen und bei der weiteren Kometensuche keine Zeit auf diese Objekte zu verschwenden, legte Messier einen Katalog nebliger Objekte an, deren Position und sichtbare Eigenschaften er verzeichnete. Katalognummer 1, in heutiger Sprechweise „Messier 1“ oder M1, erhielt der "Krebsnebel (Crabnebel, Krabbennebel)" im Sternbild Stier. Die weiteren Objekte wurden in der Reihenfolge ihrer Aufnahme in den Katalog durchnummeriert. Der Andromedanebel, eine Galaxie im Sternbild Andromeda, beispielsweise trägt die Bezeichnung M31. Heute umfasst der Messier-Katalog noch zusätzlich die Objekte M104 bis M110. M104 wurde von Messier handschriftlich in sein eigenes Exemplar seines Kataloges eingetragen. Die Objekte M105 bis M109 wurden von Méchain 1781 und 1782 entdeckt und fanden in einem Brief an Johann Bernoulli Erwähnung. M108 und M109 erwähnte Messier selbst in seiner Beschreibung des Objekts M97, nahm sie aber aus unbekannten Gründen nicht als eigenständige Objekte in seinen Katalog auf. All diese Objekte wurden erst nachträglich, zwischen 1921 und 1966, von Wissenschaftshistorikern dem Messier-Katalog zugerechnet, mit der Begründung, sie hätten mit großer Wahrscheinlichkeit Eingang in die geplante, aber nie veröffentlichte vierte Version von Messiers Katalog gefunden. Insbesondere die letzten nie von Messier veröffentlichten Objekte, aber auch einige Objekte des veröffentlichten Kataloges, wurden später von verschiedenen Astronomen (etwa Wilhelm Herschel) unabhängig von Messiers Beobachtungen noch einmal entdeckt. Bedeutung. Der Messier-Katalog war nicht der erste Katalog dieser Art, aber der erste derartige Katalog, der hinreichend vollständig und fehlerfrei war, um für praktische Beobachtungen einsetzbar zu sein. Auch heute noch sind die meisten Objekte des Katalogs vor allem unter ihren Messier-Nummern bekannt. Zum Zeitpunkt der Erstellung des Messier-Kataloges war die Natur der dort verzeichneten Objekte unklar. Die Forschungen, die aufklärten, was es mit Galaxien, Nebeln und Sternhaufen auf sich hatte, nahmen vom Messier-Katalog, vom New General Catalogue und vom Index-Katalog ihren Ausgang. Unter Amateurastronomen und in Volkssternwarten ist der Messier-Katalog insbesondere beliebt, da die darin aufgeführten Objekte bereits mit relativ kleinen Teleskopen oder starken Ferngläsern beobachtet werden können. Eine besondere Beobachtungsaufgabe stellen dabei sogenannte Messiermarathons dar, in deren Rahmen jeder Teilnehmer im Laufe einer einzigen Nacht alle Messier-Objekte beobachten muss. Fehler und Grenzen. Der Katalog hat höchstens einen Fehleintrag: Unter Wissenschaftshistorikern herrscht keine Einigkeit, ob es sich bei Messier 102 um eine fehlerhafte zweite Aufführung des Objekts Messier 101 handelt oder um eine Beobachtung der „Spindelgalaxie“ NGC 5866, die in modernen Versionen des Kataloges als M102 fungiert. Des Weiteren hat der Messier-Katalog zwei Einträge, die keine flächenhaften Objekte bezeichnen, nämlich Messier 40, eigentlich der Doppelstern Winnecke 4, und Messier 73, eine Gruppe von Sternen, bei denen es sich um eine zufällige Fluktuation der Sterndichte auf dieser Sichtlinie handelt. Eine Reihe heute bekannter Nebel finden sich nicht im Messier-Katalog, weil sie zu lichtschwach sind. Hierzu gehören unter anderem der Pferdekopfnebel und einige hellere Galaxien, die später im New General Catalogue (1888) und im Index-Katalog (erste Version 1895, zweite Version 1908) aufgeführt wurden. Auch einige hellere Objekte wie der Doppelsternhaufen h + Chi im Perseus und die Hyaden haben keinen Katalogeintrag. Allgemein wurden im Messier-Katalog nur die von der Nordhalbkugel aus sichtbaren Objekte berücksichtigt; genauer: Er enthält keine Objekte südlich der Deklination −35 Grad. Übersichtskarte. Die folgende Sternkarte zeigt die Lage der 110 Messierobjekte am Himmel Milchstraße. Die Milchstraße, auch Galaxis, ist die Galaxie, in der sich unser Sonnensystem mit der Erde befindet. Entsprechend ihrer Form als flache Scheibe, die aus Milliarden von Sternen besteht, ist die Milchstraße von der Erde aus als bandförmige Aufhellung am Nachthimmel sichtbar, die sich über 360° erstreckt. Ihrer Struktur nach zählt die Milchstraße zu den Balkenspiralgalaxien. Geschichte und Herkunft des Namens. a> (oben rechts). Ein Teil wird von der Silhouette eines Baums verdeckt. a> von ihm noch im Zentrum angenommen. Den Namen "Milchstraßensystem" trägt unser Sternsystem nach der Milchstraße, die als freiäugige Innenansicht des Systems von der Erde aus wie ein quer über das Firmament gesetzter milchiger Pinselstrich erscheint. Dass dieses weißliche Band sich in Wirklichkeit aus unzähligen einzelnen Sternen zusammensetzt, wurde von Demokrit behauptet und in der Neuzeit erst wieder 1609 von Galileo Galilei erkannt, der die Erscheinung als Erster durch ein Fernrohr betrachtete. Es sind nach heutiger Schätzung ca. 100 bis 300 Milliarden Sterne. Schon im Altertum war die Milchstraße als heller, schmaler Streifen am Nachthimmel bekannt. Ihr altgriechischer Name "galaxias" (γαλαξίας) – von dem auch der heutige Fachausdruck „Galaxis“ stammt – ist von dem Wort "gala" (γάλα, Milch) abgeleitet. Wie dem deutschen Wort „Milchstraße“ liegt also auch dem altgriechischen Begriff das „milchige“ Aussehen zugrunde. Eine antike griechische Sage versucht, diesen Begriff mythologisch zu erklären: Danach habe Zeus seinen Sohn Herakles, den ihm die sterbliche Frau Alkmene geschenkt hatte, an der Brust seiner göttlichen Frau Hera trinken lassen, als diese schlief. Herakles sollte auf diese Weise göttliche Kräfte erhalten. Aber er saugte so ungestüm, dass Hera erwachte und den ihr fremden Säugling zurückstieß; dabei wurde ein Strahl ihrer Milch über den ganzen Himmel verspritzt. Einer germanischen Sage zufolge erhielt die Milchstraße nach dem Gott des Lichtes, Heimdall, auch Iring genannt, den Namen Iringsstraße (laut Felix Dahn, Walhall – germanische Götter- und Heldensagen). Die afrikanischen San gaben der Milchstraße den Namen „Rückgrat der Nacht“. Zur ersten Vorstellung der Scheibenform des Milchstraßensystems gelangte bereits Wilhelm Herschel im Jahr 1785 aufgrund systematischer Sternzählungen (Stellarstatistik). Diese Methode konnte aber nicht zu einem realistischen Bild führen, da das Licht weiter entfernter Sterne stark durch interstellare Staubwolken abgeschwächt wird, ein Effekt, dessen wahre Bedeutung erst in der ersten Hälfte des 20. Jahrhunderts vollständig erfasst wurde. Durch Untersuchungen zur Verteilung der Kugelsternhaufen im Raum gelangte Harlow Shapley 1919 zu realistischen Abschätzungen der Größe des Milchstraßensystems und zu der Erkenntnis, dass die Sonne nicht – wie bis dahin, z. B. von Jacobus Kapteyn, angenommen – im Zentrum der Galaxis sitzt, sondern eher an deren Rand. Edwin Hubbles Messungen der Entfernungen von Spiralnebeln zeigten, dass diese außerhalb des Milchstraßensystems liegen und tatsächlich wie dieses eigenständige Galaxien sind. Erscheinungsbild. Das Band der Milchstraße erstreckt sich als unregelmäßig breiter, schwach milchig-heller Streifen über dem Firmament. Seine Erscheinung rührt daher, dass in ihm mit bloßem Auge keine Einzelsterne wahrgenommen werden, sondern eine Vielzahl lichtschwacher Sterne der galaktischen Scheibe und des Bulges (in Richtung des galaktischen Zentrums). Von der Südhalbkugel aus steht das helle Zentrum der Milchstraße hoch am Himmel, während man von der Nordhalbkugel zum Rand hin blickt. Daher kann man das Band der Milchstraße am besten von der Südhalbkugel aus beobachten. Im Dezember und Januar kann der hellste Bereich der Milchstraße nicht oder nur sehr schlecht beobachtet werden, weil sich die Sonne zwischen dem Zentrum der Galaxis und der Erde befindet. Gute Beobachtungsbedingungen sind bei klarer Luft und möglichst geringer Lichtverschmutzung durch künstliche Lichtquellen gegeben. Alle etwa bis zu 6000 Sterne, die am gesamten Himmel mit bloßem Auge gesehen werden können, gehören zum Milchstraßensystem. In größerer Entfernung und außerhalb der Milchstraße ist so nur noch die Andromedagalaxie zu erkennen. Das Milchstraßenband verläuft unter anderem durch die Sternbilder Schütze (in dieser Richtung liegt auch das galaktische Zentrum), Adler, Schwan, Kassiopeia, Perseus, Fuhrmann, Zwillinge, Orion, Kiel des Schiffs, Zentaur, Kreuz des Südens und Skorpion. Die mittlere Ebene des Milchstraßensystems ist gegenüber dem Himmelsäquator um einen Winkel von etwa 63° gekippt. Astronomen verwenden gelegentlich ein spezielles, an die Geometrie des Milchstraßensystems angepasstes galaktisches Koordinatensystem, bestehend aus Länge "l" und Breite "b". Die galaktische Breite beträgt 0° in der Ebene des Milchstraßensystems, +90° am galaktischen Nordpol und −90° am galaktischen Südpol. Die galaktische Länge, die ebenfalls in Grad angegeben wird, hat ihren Ursprung ("l = 0°") in Richtung des galaktischen Zentrums und nimmt nach Osten hin zu. Allgemeine Struktur. a>. Scheibe und zentrale Ausbeulung sind erkennbar. Die Erforschung der Struktur des Milchstraßensystems ist schwieriger als die der Strukturen anderer Galaxien, da Beobachtungen nur von einem Punkt innerhalb der Scheibe gemacht werden können. Wegen der erwähnten Absorption sichtbaren Lichts durch interstellaren Staub ist es nicht möglich, durch visuelle Beobachtungen ein vollständiges Bild des Milchstraßensystems zu erhalten. Große Fortschritte wurden erst gemacht, als Beobachtungen in anderen Wellenlängenbereichen, insbesondere im Radiofrequenzbereich und im Infraroten möglich wurden. Dennoch sind viele Details des Aufbaus der Galaxis noch nicht bekannt. Das Milchstraßensystem besteht aus etwa 100 bis 300 Milliarden Sternen und großen Mengen interstellarer Materie, die nochmals 600 Millionen bis einige Milliarden Sonnenmassen ausmacht (die Anzahl der Sterne und damit auch die Gesamtmasse unserer Galaxis kann auf Basis von Berechnungen und Beobachtungen nur geschätzt werden, woraus sich der große Toleranzbereich der Zahlen ergibt). Die Masse dieses inneren Bereichs der Galaxis wird mit ungefähr 180 Milliarden Sonnenmassen veranschlagt. Ihre Ausdehnung in der galaktischen Ebene beträgt etwa 100.000 Lichtjahre (30 kpc), die Dicke der Scheibe etwa 3000 Lichtjahre (920 pc) und die der zentralen Ausbauchung (engl. Bulge) etwa 16.000 Lichtjahre (5 kpc). Zum Vergleich: Der Andromedanebel (M31) hat eine Ausdehnung von etwa 150.000 Lj. und das drittgrößte Mitglied der lokalen Gruppe, der Dreiecksnebel (M33), ca. 50.000 Lj. Die Angaben der Dicke müssen aber eventuell noch bis zum Doppelten nach oben korrigiert werden, wie der australische Wissenschaftler Bryan Gaensler und sein Team im Januar 2008 äußerten. Aus der Bewegung interstellaren Gases und der Sternverteilung im Bulge ergibt sich für diesen eine längliche Form. Dieser Balken bildet mit der Verbindungslinie des Sonnensystems zum Zentrum des Milchstraßensystems einen Winkel von 45°. Die Galaxis ist also vermutlich eine Balkenspiralgalaxie vom Hubble-Typ SBc. Gemäß einer Bestimmung mithilfe des Infrarot-Weltraumteleskops Spitzer ist die Balkenstruktur mit einer Ausdehnung von 27.000 Lichtjahren überraschend lang. Basierend auf der bekannten Umlaufzeit der Sonne und ihrem Abstand vom galaktischen Zentrum kann nach dem dritten keplerschen Gesetz zumindest die Gesamtmasse berechnet werden, die sich innerhalb der Sonnenbahn befindet. Die Gesamtmasse des Milchstraßensystems wird auf etwa 400 Milliarden Sonnenmassen geschätzt, damit ist sie neben dem Andromedanebel (800 Milliarden Sonnenmassen) die massereichste Galaxie der Lokalen Gruppe. Galaktischer Halo. Umgeben ist die Galaxis vom kugelförmigen galaktischen Halo mit einem Durchmesser von etwa 165.000 Lichtjahren (50 kpc), einer Art von galaktischer „Atmosphäre“. In ihm befinden sich neben den etwa 150 bekannten Kugelsternhaufen nur weitere alte Sterne, darunter RR Lyrae-Veränderliche, und Gas sehr geringer Dichte. Ausnahme sind die heißen Blue-Straggler-Sterne. Dazu kommen große Mengen Dunkler Materie mit etwa 1 Billion Sonnenmassen, darunter auch so genannte MACHOs. Anders als die galaktische Scheibe ist der Halo weitgehend staubfrei und enthält fast ausschließlich Sterne der älteren, metallarmen Population II, deren Orbit sehr stark gegen die galaktische Ebene geneigt ist. Das Alter des inneren Teils des Halo wurde in einer im Mai 2012 vorgestellten neuen Methode zur Altersbestimmung vom Space Telescope Science Institute in Baltimore mit 11,4 Milliarden Jahren (mit einer Unsicherheit von 0,7 Milliarden Jahren) angegeben. Dem Astronomen Jason Kalirai vom Space Telescope Science Institute gelang diese Altersbestimmung durch den Vergleich der Halo-Zwerge der Milchstraße mit den gut untersuchten Zwergen im Kugelsternhaufen Messier 4, die im Sternbild Skorpion liegen. Galaktische Scheibe. Der Großteil der Sterne innerhalb der Galaxis ist annähernd gleichmäßig auf die galaktische Scheibe verteilt. Sie enthält im Gegensatz zum Halo vor allem Sterne der Population I, welche sich durch einen hohen Anteil schwerer Elemente auszeichnen. Spiralarme. Teil der Scheibe sind auch die für das Milchstraßensystem charakteristischen Spiralarme. In den Spiralarmen befinden sich enorme Ansammlungen von Wasserstoff und auch die größten HII-Regionen, die Sternentstehungsgebiete der Galaxis. Daher befinden sich dort auch viele Protosterne, junge Sterne des T-Tauri-Typs und Herbig-Haro-Objekte. Während ihrer Lebenszeit bewegen sich Sterne von ihren Geburtsstätten weg und verteilen sich auf die Scheibe. Besonders massereiche und leuchtkräftige Sterne entfernen sich allerdings aufgrund ihrer kürzeren Lebensdauer nicht so weit von den Spiralarmen, weswegen diese hervortreten. Daher gehören zu den dort befindlichen stellaren Objekten vor allem Sterne der Spektralklassen O und B, Überriesen und Cepheiden, alle jünger als 100 Millionen Jahre. Sie stellen jedoch nur etwa ein Prozent der Sterne im Milchstraßensystem. Der größte Teil der Masse der Galaxis besteht aus alten, massearmen Sternen. Der „Zwischenraum“ zwischen den Spiralarmen ist also nicht leer, sondern ist einfach nur weniger leuchtstark. Schema der beobachteten Spiralarme des Milchstraßensystems (siehe Text) Die Spiralstruktur der Galaxis konnte durch die Beobachtung der Verteilung von neutralem Wasserstoff bestätigt werden. Die entdeckten Spiralarme wurden nach den in ihrer Richtung liegenden Sternbildern benannt. Die Zeichnung rechts stellt den Aufbau des Milchstraßensystems schematisch dar. Das Zentrum ist im sichtbaren Licht nicht direkt beobachtbar, ebenso wie der hinter ihm liegende Bereich. Die Sonne (gelber Kreis) liegt zwischen den Spiralarmen Sagittarius (nach Sternbild Schütze) und Perseus im Orionarm. Vermutlich ist dieser Arm nicht vollständig, siehe braune Linie in der Abbildung. Im Verhältnis zu dieser unmittelbaren Umgebung bewegt sich die Sonne mit etwa 30 km/s in Richtung des Sternbildes Herkules. Der innerste Arm ist der Norma-Arm (nach Sternbild Winkelmaß, auch "3-kpc-Arm"), der äußerste (nicht in der Abbildung) ist der Cygnus-Arm (nach Sternbild Schwan), welcher vermutlich die Fortsetzung des Scutum-Crux-Arms (nach Sternbildern Schild und Kreuz des Südens) ist. Wissenschaftler der Universität von Wisconsin veröffentlichten im Juni 2008 Auswertungen von Infrarotaufnahmen des Spitzer-Teleskopes, die das Milchstraßensystem nun als zweiarmige Galaxie darstellen. Sagittarius und Norma sind in dieser Darstellung nur noch als dünne Nebenarme erkenntlich, da diese nur durch eine überschüssige Verteilung von Gas gekennzeichnet sind, während die restlichen beiden Arme durch eine hohe Dichte alter rötlicher Sterne gekennzeichnet sind. Eine jüngere Untersuchung der Verteilung von Sternentstehungsgebieten und junger Sterne scheint hingegen die bekannte vierarmige Struktur der Milchstraße zu bestätigen. Die Milchstraße besteht daher scheinbar aus vier Spiralarmen, die sich primär durch Gaswolken und junge Sterne abzeichnen, wobei zwei Arme zusätzlich durch eine hohe Konzentration älterer Sterne charakterisiert sind. Ein klar definiertes logarithmisches Spiralmuster kann nur in seltenen Fällen bei anderen Spiralgalaxien über die Gesamtheit der Scheibe beobachtet werden; Arme weisen oft extreme Abzweigungen, Verästelungen und Verschränkungen auf. Die wahrscheinliche Natur des lokalen Arms als solche Unregelmäßigkeit ist ein Hinweis darauf, dass solche Strukturen in der Milchstraße häufig auftreten könnten. Welche Prozesse für die Entstehung der Spiralstruktur verantwortlich sind, ist bislang noch nicht eindeutig geklärt. Jedoch ist klar, dass die zu den Spiralarmen gehörigen Sterne keine starre Struktur sind, die sich in Formation um das galaktische Zentrum dreht. Wäre dies der Fall, würde sich die Spiralstruktur des Milchstraßensystems und anderer Spiralgalaxien aufgrund der unterschiedlichen Bahngeschwindigkeiten innerhalb relativ kurzer Zeit aufwickeln und unkenntlich werden. Eine Erklärung bietet die Dichtewellentheorie, nach der die Spiralarme Zonen erhöhter Materiedichte und Sternentstehung sind, die sich unabhängig von den Sternen durch die Scheibe bewegen. Die durch die Spiralarme verursachten Störungen in den Bahnen der Sterne können zu Lindblad-Resonanzen führen. Sterne der galaktischen Scheibe. Die zur Population I zählenden Sterne der galaktischen Scheibe lassen sich mit zunehmender Streuung um die Hauptebene und Alter in drei Unterpopulationen einteilen. Die so genannte "„Thin Disk“" in einem Bereich von 700 bis 800 Lichtjahren über und unterhalb der galaktischen Ebene enthält neben den oben genannten leuchtkräftigen Sternen der Spiralarme, die sich nur maximal 500 Lichtjahre von der Ebene entfernen, Sterne der Spektralklassen A und F, einige Riesen der Klassen A, F, G und K, sowie Zwergsterne der Klassen G, K und M und auch einige Weiße Zwerge. Die Metallizität dieser Sterne ist vergleichbar mit der der Sonne, meist aber auch doppelt so hoch, ihr Alter liegt bei etwa einer Milliarde Jahren. Eine weitere Gruppe ist die der mittelalten Sterne (Alter bis zu fünf Milliarden Jahre). Dazu zählen die Sonne und weitere Zwergsterne der Spektraltypen G, K und M, sowie einige Unter- und Rote Riesen. Der Metallgehalt ist hier deutlich geringer mit nur etwa 50 bis 100 Prozent dessen der Sonne. Auch ist die Bahnexzentrizität der galaktischen Orbits dieser Sterne höher und sie befinden sich nicht weiter als 1500 Lichtjahre über oder unterhalb der galaktischen Ebene. Zwischen maximal 2500 Lichtjahren ober- und unterhalb der Hauptebene erstreckt sich die "„Thick Disk“". Dort befinden sich rote K- und M-Zwerge, Weiße Zwerge, sowie einige Unterriesen und Rote Riesen, aber auch langperiodische Veränderliche. Ihr Alter erreicht bis zu zehn Milliarden Jahre und sie sind vergleichsweise metallarm (etwa ein Viertel der Sonnenmetallizität). Diese Population ähnelt auch vielen Sternen im Bulge. Die galaktische Scheibe ist nicht vollkommen gerade, durch gravitative Wechselwirkung mit den Magellanschen Wolken ist sie leicht in deren Richtung gebogen. Zentrum. Ein 900 Lichtjahre breiter Ausschnitt der Zentralregion des Milchstraßensystems Das Zentrum des Milchstraßensystems liegt im Sternbild Schütze und ist hinter dunklen Staub- und Gaswolken verborgen, so dass es im sichtbaren Licht nicht direkt beobachtet werden kann. Beginnend in den 1950er Jahren ist es gelungen, im Radiowellenbereich sowie mit Infrarotstrahlung und Röntgenstrahlung zunehmend detailreichere Bilder aus der nahen Umgebung des galaktischen Zentrums zu gewinnen. Man hat dort eine starke Radioquelle entdeckt, bezeichnet als Sagittarius A* (Sgr A*), die aus einem sehr kleinen Gebiet strahlt. Diese Massenkonzentration wird von einer Gruppe von Sternen in einem Radius von weniger als einem halben Lichtjahr mit einer Umlaufzeit von etwa 100 Jahren sowie einem Schwarzen Loch mit 1300 Sonnenmassen in drei Lichtjahren Entfernung umkreist. Der dem zentralen Schwarzen Loch am nächsten liegende Stern S2 umläuft das galaktische Zentrum in einer Entfernung von etwa 17 Lichtstunden in einem Zeitraum von nur 15,2 Jahren. Seine Bahn konnte inzwischen über einen vollen Umlauf hinweg beobachtet werden. Aus den Beobachtungen der Bewegungen der Sterne des zentralen Sternhaufens ergibt sich, dass sich innerhalb dieser Region von 15,4 Millionen km Durchmesser eine Masse von geschätzten 4,31 Millionen Sonnenmassen befinden muss. Die im Rahmen der Relativitätstheorie plausibelste und einzige mit allen Beobachtungen konsistente Erklärung für diese große Massenkonzentration ist die Anwesenheit eines Schwarzen Lochs. Gammastrahlenemittierende Blasen. Am 9. November 2010 machte Doug Finkbeiner vom Harvard-Smithsonian Center for Astrophysics bekannt, dass er zwei riesenhafte kugelförmige Blasen entdeckt habe, die aus der Mitte der Milchstraße nach Norden und Süden hinausgreifen. Die Entdeckung ist mit der Hilfe von Daten des Fermi Gamma-ray Space Telescope gelungen. Der Durchmesser der Blasen beträgt jeweils etwa 25.000 Lichtjahre; sie erstrecken sich am südlichen Nachthimmel von der Jungfrau bis zum Kranich. Ihr Ursprung ist bisher noch nicht geklärt. Größenvergleich. Man bekommt eine anschauliche Vorstellung von der Größe unserer Galaxis mit ihren 100 bis 300 Milliarden Sternen, wenn man sie sich im Maßstab 1:1017 verkleinert als Schneetreiben auf einem Gebiet von 10 km Durchmesser und einer Höhe von etwa 1 km im Mittel vorstellt. Jede Schneeflocke entspricht dabei einem Stern und es gibt etwa drei Stück pro Kubikmeter. Unsere Sonne hätte in diesem Maßstab einen Durchmesser von etwa 10 nm, wäre also kleiner als ein Virus. Selbst die Plutobahn, die sich im Mittel etwa 40-mal so weit von der Sonne befindet wie die Bahn der Erde, läge mit einem Durchmesser von 0,1 mm an der Grenze der visuellen Sichtbarkeit. Pluto selbst hätte ebenso wie die Erde lediglich atomare Dimension. Damit demonstriert dieses Modell auch die geringe durchschnittliche Massendichte unserer Galaxis. Die Sonne im Milchstraßensystem. a> (entfernungstreue Abbildung mit Rektaszension; Deklination vernachlässigt) Die direkte Umgebung der Sonne (ca. 2200 Lj. × 1800 Lj.) Die Sonne umkreist das Zentrum des Milchstraßensystems in einem Abstand von 25.000 bis 28.000 Lichtjahren (≈ 250 Em oder 7,94 ± 0,42 kpc) und befindet sich nördlich der Mittelebene der galaktischen Scheibe innerhalb des "Orion-Arms", in einem weitgehend staubfreien Raumgebiet, das als „Lokale Blase“ bekannt ist. Für einen Umlauf um das Zentrum der Galaxis, ein so genanntes "galaktisches Jahr", benötigt sie 220 bis 240 Millionen Jahre, was einer Rotationsgeschwindigkeit von etwa 220 km/s entspricht. Die Erforschung dieser Rotation ist mittels der Eigenbewegung und der Radialgeschwindigkeit vieler Sterne möglich; aus ihnen wurden um 1930 die Oortschen Rotationsformeln abgeleitet. Heutzutage kann auch die durch die Umlaufbewegung des Sonnensystems bedingte scheinbare Bewegung des Milchstraßenzentrums gegenüber Hintergrundquellen direkt beobachtet werden, so dass die Umlaufgeschwindigkeit des Sonnensystems unmittelbar messbar ist. Neuere Messungen haben eine Umlaufgeschwindigkeit von ca. 267 km/s (961.200 km/h) ergeben. Das Sonnensystem umläuft das galaktische Zentrum nicht auf einer ungestörten ebenen Keplerbahn. Die in der Scheibe des Milchstraßensystems verteilte Masse übt eine starke Störung aus, so dass die Sonne zusätzlich zu ihrer Umlaufbahn um das Zentrum auch regelmäßig durch die Scheibe auf und ab oszilliert. Die Scheibe durchquert sie dabei etwa alle 30 bis 45 Millionen Jahre einmal. Vor ca. 1,5 Millionen Jahren hat sie die Scheibe in nördlicher Richtung passiert und befindet sich jetzt etwa 65 Lichtjahre (ca. 20 pc) über ihr. Die größte Entfernung wird etwa 250 Lichtjahre (80 pc) betragen, dann kehrt sich die oszillierende Bewegung wieder um. Größere datierbare Krater auf der Erde sowie erdgeschichtliche Massenaussterben scheinen eine Periodizität von 34 bis 37 Millionen Jahren aufzuweisen, was auffällig mit der Periodizität der Scheibenpassagen übereinstimmt. Möglicherweise stören während einer Scheibendurchquerung die in Scheibennähe stärker werdenden Gravitationsfelder die Oortsche Wolke des Sonnensystems, so dass eine größere Anzahl von Kometen ins innere Sonnensystem gelangt und die Anzahl schwerer Impakte auf der Erde zunimmt. Die betreffenden Perioden sind jedoch bisher nicht genau genug bekannt, um definitiv einen Zusammenhang festzustellen; neuere Ergebnisse (Scheibendurchgang alle 42 ± 2 Millionen Jahre) sprechen eher dagegen. Eine neue Studie des Max-Planck Instituts für Astronomie hat gezeigt, dass es sich bei der scheinbaren Periodizität der Einschläge um statistische Artefakte handelt und es keinen solchen Zusammenhang gibt. Unmittelbare Nachbarschaft. Um das Milchstraßensystem herum sind einige Zwerggalaxien versammelt. Die bekanntesten davon sind die Große und die Kleine Magellansche Wolke, mit denen das Milchstraßensystem über eine etwa 300.000 Lichtjahre lange Wasserstoffgasbrücke, dem Magellanschen Strom, verbunden ist. Die dem Milchstraßensystem am nächsten gelegene Galaxie ist der Canis-Major-Zwerg, mit einer Entfernung von 42.000 Lichtjahren vom Zentrum des Milchstraßensystems und 25.000 Lichtjahren von unserem Sonnensystem. Die Zwerggalaxie wird zurzeit von den Gezeitenkräften des Milchstraßensystems auseinandergerissen und hinterlässt dabei ein Filament aus Sternen, das sich um die Galaxis windet, den so genannten Monoceros-Ring. Ob es sich dabei allerdings tatsächlich um die Überreste einer Zwerggalaxie oder um eine zufällige, projektionsbedingte Häufung handelt, ist derzeit noch nicht sicher. Andernfalls wäre die 50.000 Lichtjahre vom galaktischen Zentrum entfernte Sagittarius-Zwerggalaxie die nächste Galaxie, die ebenfalls gerade durch das Milchstraßensystem einverleibt wird. Das Milchstraßensystem verleibt sich beständig Zwerggalaxien ein und nimmt dadurch an Masse zu. Während der Verschmelzung hinterlassen die Zwergsysteme Ströme aus Sternen und interstellarer Materie, die durch die Gezeitenkräfte des Milchstraßensystems aus den kleinen Galaxien herausgerissen werden ("siehe auch:" Wechselwirkende Galaxien). Dadurch entstehen Strukturen wie der Magellansche Strom, der Monoceros-Ring und der Virgo-Strom, sowie die anderen Hochgeschwindigkeitswolken in der Umgebung unserer Galaxis. Lokale Gruppe. Mit der Andromedagalaxie, dem Dreiecksnebel und einigen anderen kleineren Galaxien bildet das Milchstraßensystem die Lokale Gruppe, wobei das Milchstraßensystem die massereichste Galaxie darunter ist, obwohl es nicht die größte Ausdehnung besitzt. Die Lokale Gruppe ist Bestandteil des Virgo-Superhaufens, der nach dem Virgohaufen in seinem Zentrum benannt ist. Dieser gehört zur noch größeren Struktur Laniakea, wie neue Messmethoden von Galaxienpositionen und ihren Relativbewegungen ergeben haben. Kern von Laniakea ist der Große Attraktor. Auf diesen bewegt sich die Lokale Gruppe innerhalb Laniakeas zu. Der Laniakea-Superhaufen strebt dem Shapley-Superhaufen entgegen, was darauf hindeutet, dass diese gemeinsam zu einer noch größeren Struktur gehören könnten. Die Andromedagalaxie ist eine der wenigen Galaxien im Universum, deren Spektrum eine Blauverschiebung aufweist: Die Andromedagalaxie und das Milchstraßensystem bewegen sich mit einer Geschwindigkeit von 120 km/s aufeinander zu. Allerdings gibt die Blauverschiebung nur Aufschluss über die Geschwindigkeitskomponente parallel zur Verbindungslinie beider Systeme. Vermutlich werden die beiden Galaxien in etwa drei Milliarden Jahren zusammenstoßen und zu einer größeren Galaxie verschmelzen. Für den Ablauf der Kollision können mangels Kenntnis der Raumgeschwindigkeiten und wegen der Komplexität der beim Zusammenstoß ablaufenden Prozesse nur Wahrscheinlichkeitsaussagen gemacht werden. Nach der Verschmelzung der beiden Galaxien wird das Endprodukt voraussichtlich eine massereiche elliptische Galaxie sein. Als Name für diese Galaxie wird von Cox-Loeb 2008 in ihrem Artikel der Arbeitsname „Milkomeda“ benutzt, eine Verschmelzung des englischen "Milky Way" und Andromeda. Alter. Messungen aus dem Jahr 2004 zufolge ist das Milchstraßensystem etwa 13,6 Milliarden Jahre alt. Die Genauigkeit dieser Abschätzung, die das Alter anhand des Berylliumanteils einiger Kugelsternhaufen bestimmt, wird mit etwa 800 Millionen Jahren angegeben. Da das Alter des Universums von 13,8 Milliarden Jahren als recht verlässlich bestimmt gilt, hieße das, dass die Entstehung der Milchstraße auf die Frühzeit des Universums datiert. 2007 wurde zunächst für den Stern HE 1523-0901 im galaktischen Halo von der ESO-Sternwarte in Hamburg ein Alter von 13,2 Milliarden Jahren festgestellt. 2014 wurde dann für den Stern SM0313, 6000 Lj von der Erde entfernt, von der Australian National University ein Alter von 13,6 Milliarden Jahren dokumentiert. Als älteste bekannte Objekte der Milchstraße setzen diese Datierungen eine unterste Grenze, die im Bereich der Messgenauigkeit der Abschätzung von 2004 liegt. Nach derselben Methode kann das Alter der dünnen galaktischen Scheibe durch die ältesten dort gemessenen Objekte abgeschätzt werden, wodurch sich ein Alter von etwa 8,8 Milliarden Jahren mit einer Schätzbreite von etwa 1,7 Milliarden Jahren ergibt. Auf dieser Basis ergäbe sich eine zeitliche Lücke von etwa drei bis sieben Milliarden Jahren zwischen der Bildung des galaktischen Zentrums und der äußeren Scheibe. Mais. Mais ("Zea mays"), in Österreich und Teilen Altbayerns auch Kukuruz genannt, ist eine Pflanzenart innerhalb der Familie der Süßgräser (Poaceae). Sie stammt ursprünglich aus Mexiko und ist eine einhäusig getrenntgeschlechtige C4-Pflanze. Wirtschaftlich bedeutend ist die Unterart "Zea mays" subsp. "mays". Jährlich werden weltweit auf über 170 Millionen Hektar (24 % der Getreideanbaufläche) über 850 Millionen Tonnen (34 % der Getreideproduktion) Mais geerntet. Mais wird vor allem als Futterpflanze genutzt. Darüber hinaus ist Mais ein Nahrungsmittel (vor allem in Lateinamerika und Afrika) und eine Energiepflanze (Energiemais, vor allem in Industrieländern). Maisstärke ist ein Nahrungsmittel, Ausgangsprodukt für Biokunststoffe, Fermentationsrohstoff usw. Beschreibung. Der Kulturmais ist durch die lange Züchtungsgeschichte formenreich. Vegetative Merkmale. Kulturmais ist eine kräftig gebaute, sommergrüne, einjährige, krautige Pflanze, die Wuchshöhen von einem bis zu drei Metern erreicht. Der runde, nicht oder nur selten verzweigte Halm ist auf ganzer Länge von glatten Blattscheiden bedeckt. Er ist innen markhaltig und kann am Grund einen Durchmesser von fünf Zentimetern aufweisen. Die zahlreichen Knoten stehen insbesondere bodennah in dichter Folge. Aus ihnen entwickeln sich sprossbürtige Wurzeln, die der Wasser- und Nährstoffaufnahme, vor allem aber auch der Standfestigkeit der Pflanze dienen. Die Laubblätter sind wechselständig am Halm angeordnet. Das drei bis fünf Millimeter lange Blatthäutchen (Ligula) ist zerschlitzt oder bewimpert. Die einfache, leicht raue, mitunter zerstreut behaarte, dunkelgrüne Blattspreite ist bei einer Länge von bis zu einem Meter und einer Breite von vier bis zehn Zentimeter flach und zum Rand hin wellig. Generative Merkmale. Kulturmais ist einhäusig getrenntgeschlechtig (monözisch). An der Sprossspitze befinden sich die endständigen männlichen rispigen Blütenstände, die sie sich an den Rispenästen aus paarweise angeordneten Ährchen mit jeweils zwei männlichen Blüten zusammensetzen. Ein bis drei weibliche Blütenstände wachsen in Blattachseln am unteren bis mittleren Bereich des Halmes. Diese seitenständigen, kurz gestielten Kolben werden vollständig von Hüllblättern (Lieschblätter, auch genannt Lieschen, gesprochen) umhüllt und tragen paarweise Ährchen in 8 bis 16 Längszeilen. Dabei enthält jedes Ährchen zwei Blüten, von denen aber nur eine voll entwickelt ist. Der Fruchtknoten ist mit drei Millimetern sehr klein, jedoch zur Anthese mit 20 bis 40 Zentimeter langen Griffeln ausgestattet. Später ragen die vertrockneten Griffel als bräunliches Bündel aus der Spitze des Kolbens zwischen den Blattscheiden hervor. Da sich die Deck- und Vorspelzen der weiblichen Blüten nicht weiterentwickeln, können sich die Früchte unbespelzt vorwölben. Der kolbenförmige Fruchtstand enthält zur Reifezeit Maiskörner (Karyopsen), die je nach Sorte weißlich, goldgelb, rot oder auch schwarzviolett sein können. Die Chromosomenzahl von Mais beträgt 2n = 20 (40, 80). Ökologie. Dieser Therophyt ist eine sommerannuelle Pflanze. Die Stützung des hohen Stängels erfolgt durch sprossbürtige Stützwurzeln aus den Knoten der Stängelbasis. Stängelmark und Früchte sind mindestens anfangs zuckerhaltig. Spaltöffnungen befinden sich auf beiden Seiten des Blattes; oberseits 95 je Quadratmillimeter, unterseits 160 je mm2. Der Mais ist eine C4-Pflanze, hier ist Malat das erste Photosyntheseprodukt. Die C4-Methode ist eine Anpassung an sehr warme und sonnige Klimaverhältnisse, wie sie vor allem in den Tropen und Subtropen gegeben sind. Dabei wird das CO2-Angebot in optimaler Weise genutzt, es können auch geringe Mengen CO2 genutzt werden. Die Blütezeit reicht (in Mitteleuropa) von Juli bis September. Blütenökologisch handelt es sich um „Langstaubfädigen Typ“. Der Mais ist windblütig (Anemophilie), es erfolgt also eine Bestäubung der weiblichen Blüten durch Windtransport der Pollen. Die Blüte ist „vormännlich“, dies begünstigt die Fremdbestäubung. Bei der Vormännlichkeit (Proterandrie) entleeren die Staubbeutel den Pollen, bevor die Narbe der Blüte empfängnisbereit ist. Der Griffel ist lang und fädig, so dass der Pollen mehr als 10 cm bis zur Samenanlage zurücklegen muss. Es entstehen nur 10.000 Pollenkörner pro Blüte, pro Blütenstand aber 18 Millionen. Mit einer Länge von 0,1 mm und einem Gewicht von 0,00025 mg gehören die Maispollen zu den größten und schwersten der bei uns wachsenden Pflanzen. Der Pollen ist klebrig, legt nur relativ kurze Strecken durch den Wind zurück und ist nur etwa einen Tag lang keimfähig. Für Windbestäubung ist außerdem der angenehme Duft des Pollens überraschend; tatsächlich ist der Mais eine wichtige Pollenquelle für die Honigbiene. Der Mais ist eine Kurztagspflanze, weshalb die Früchte bei uns oft nicht ausreifen. Die Samen sind Wärmekeimer. Giftigkeit. Die Maisgriffel sind giftig. In den Narben sind die Hauptwirkstoffe 0,85 % unbekannte Alkaloide. Vielleicht sind auch Aflatoxine für die Giftigkeit verantwortlich, denn Konidien von "Aspergillus flavus" keimen besonders gut auf den Narben der weiblichen Maisblüten, wenn diese eine gelbbraune Farbe haben und schon mit Pollen belegt sind. Dieser liefert offenbar die erforderlichen Nährstoffe und ermöglicht dem Pilz eine reiche Konidienbildung. Anschließend wachsen die Hyphen durch den Narbenkanal zu den Samenanlagen. Vergiftungserscheinungen: Die Alkaloide bewirken nach dem Einatmen Erregungszustände, Delirien, bei längerer Einwirkung Erbrechen, Koliken und Durchfall. Als Rauschdroge dienen die vor der Bestäubung gesammelten Griffel der weiblichen Blüte. Sie werden von den Indianern in Peru als Rauschmittel geraucht. Geschichte. Das Zentrum der Maiskultivierung liegt in Zentralmexiko. Weitgehend unstrittig ist mittlerweile, dass das Wildgras Teosinte der wilde Vorfahr des Maises ist. Die Blüten von Teosinte und Mais lassen sich optisch kaum unterscheiden, die Chromosomenzahl beider Pflanzen ist identisch und sie hybridisieren in der Natur überall da, wo sie in Nähe zueinander wachsen. Allerdings sind die Fruchtstände deutlich unterschiedlich. Teosinte bildet keine Kolben mit mehreren Körnerreihen, sondern zwei Reihen dreieckiger Körner sitzen an einer dünnen Ährenachse. Mehrere dieser Ähren stehen in Büscheln zusammen. Bei der Reife fallen die Körner von der Ähre ab. Die Entwicklung des heutigen Kulturmaises, der sich ohne menschliche Hilfe nicht fortpflanzen kann, gilt daher als eine der größten Domestizierungsleistungen des Menschen. Über Einzelheiten der Domestizierungsgeschichte besteht dagegen noch Unklarheit. 2008 stellte ein Forscherteam fest, dass Teosinte im zentralen Tal des Balsas im Süden Mexikos die Ausgangssorte darstellen. Im dortigen Xihuatoxtla fanden sich 8.700 Jahre alte Spuren, dazu entsprechende Werkzeuge. Präkolumbische Zeit. Entwicklung von Teosinte zum heutigen Mais Jüngsten Forschungsergebnissen zufolge stammt Mais von der Balsas-Teosinte aus dem tropischen Regenwald des Rio Balsas-Beckens in Zentralmexiko ab. Prähistorische Reste von Mais hat man seit der zweiten Hälfte des 20. Jahrhunderts an mehreren Orten in Mexiko, Panama, Neu-Mexiko und Peru gefunden. Zu den ersten Funden zählten Maisreste im Tal von Tehuacán. Die intakten Kolben, die keine Körner mehr aufwiesen, waren zwischen 1,9 und 2,4 Zentimeter lang. Sie hatten im Mittel acht Kornreihen mit sechs bis neun Körnern pro Reihe. Dem Kultur-Mais aus dem Tal von Tehuacán wurde lange ein Alter von etwa 9.000 Jahren zugeschrieben, nach neuen C14-Daten stammt er jedoch nur von etwa 4.700 v. Chr. Zwei Maiskolben aus Guila Naquitz, die weniger als 5 cm lang sind, wurden auf 3.300 v. Chr. datiert. Insgesamt stammen die ersten voll-neolithischen Siedlungen in Mexiko aus der Zeit um 3.500 v. Chr. (unkalibriert). Aus Trincheras am Rio Casas Grandes im nördlichen Chihuahua und Las Playas im nördlichen Sonora stammt kultivierter Mais, der auf etwa 1.000 v. Chr. datiert ist. Aus Trincheras ist auch Amarant bekannt. Die ersten Ackerbausiedlungen im Südwesten liegen auf den Niederterrassen von Flüssen. Eventuell wurde Mais hier ausgesät, nachdem die Frühjahrsüberschwemmungen zurückgegangen waren. Seit 1100 v. Chr. sind aus dem Gebiet von Tucson (Arizona) kleinere Bewässerungsanlagen bekannt. Aus der Palo-Blanco-Phase, die etwa von 200 v. Chr. bis ca. 700 n. Chr. währte, sind Kolben mit einer Länge von acht bis zehn Zentimeter bekannt, die zwischen 113 und 163 Körner aufwiesen. Mais in Europa. Bereits im Jahr 1525 wurden in Spanien die ersten Felder mit Mais bebaut, nachdem Christoph Kolumbus die Pflanze in der Karibik entdeckt und mit nach Europa gebracht hatte. Von dort brachte er auch das Wort „Mays“. Dieses leitet sich von „mahiz“ ab, dem Wort für Mais auf Taino, der Sprache der Arawak. Das älteste Belegexemplar für Mais findet sich im Herbar des Innocenzo Cibo aus dem Jahre 1532, und bereits 1543 sind Maispflanzen im Kräuterbuch von Leonhart Fuchs abgebildet. Der Maisanbau breitete sich jedoch zuerst im Osten des Mittelmeerraums aus. 1574 waren in der Türkei und am oberen Euphrat bereits Felder zu finden, auf denen Mais angebaut wurde. Maisanbau in Deutschland. Entwicklung der Maisanbaufläche in Deutschland In Deutschland wurde Mais im 16. und 17. Jahrhundert nur in Gärten klimatisch begünstigter Regionen wie der Rheingegend oder Baden gepflegt. Erst nachdem es 1805 und 1806 auf Grund einer Pflanzenseuche zu großen Ausfällen in der Kartoffelernte kam, begann man Maissorten zu züchten, die für das etwas strengere mittel- und norddeutsche Klima geeignet waren. Auch wenn in dieser Zeit Rezepte publiziert wurden, wie Mais für Suppen, Pudding, Kuchen, Brei und als Kaffee-Ersatz verwendet werden kann, diente Mais überwiegend der Grünfuttergewinnung. Die Anbauflächen blieben jedoch im 19. Jahrhundert gering und betrugen in Deutschland weniger als ein Prozent. Lediglich in Baden war der Anbau von Mais etwas verbreiteter. Erst in den 1970er Jahren wurden den mitteleuropäischen Standortverhältnissen angepasste Sorten entwickelt, so dass sich der Maisanbau hier stark ausweitete. Maisanbau in der Schweiz. In der Schweiz wird Mais seit dem 17. Jahrhundert im St. Galler Rheintal angebaut, wo er wegen des feucht-warmen Klimas und durch die Begünstigung des Alpenföhns besonders gut gedeiht. Die Kulturpflanze wurde im Rheintal hauptsächlich als Speisemais für den Verzehr angebaut und nicht als Futtermais für das Vieh wie in anderen Ackerbaugebieten. In dieser Region hat sich eine eigenständige Mais-Kultur entwickelt, die dazu führte, dass Mitte des 19. Jahrhunderts bereits zwei Drittel der Rheintaler Ackerbaufläche zum Maisanbau verwendet wurden. Die Bezeichnung Rheintaler Ribelmais, welche eine eigenständige Sorte darstellt, ist seit dem Jahr 2000 mit der Ursprungsbezeichnung "Rheintaler Ribelmais AOP" als erstes Getreideprodukt der Schweiz geschützt.. Aus dem "Rheintaler Ribelmais AOP" werden zahlreiche regionale Produkte hergestellt. Beispielsweise das unter dem geschützten Markennamen "Ribelgold" vermarktete Maisbier der Regionalbrauerei Sonnenbräu. Etymologie. "Zea mays" aus griechisch ζεά ("zea") für Dinkel, Spelt und mexikanisch "mays". In Österreich, vor allem in Ostösterreich, in einigen (zu Österreich) grenznahen Gebieten in Bayern sowie in Kroatien, Bosnien, Montenegro und Serbien wird Mais auch „Kukuruz“ genannt (ausgesprochen "gugaruz" in Wien, Ober- und Niederösterreich und auch im Burgenland). Dieses hat eindeutig slawische Wurzeln wie im Tschechischen "sladká kukuřice" ("süßer Mais"), im Polnischen "kukurydza" oder im Russischen " (kukurusa)" oder auch indirekt über das Ungarische "kukorica", möglicherweise auch von den Kuruzen (aufständischen ungarischen Bauern). Weitere Trivialnamen sind: „Welschkorn“ und „Türkischer Weizen“, in Vorarlberg und Tirol oft auch kurz „[der] Türken“, analog heißt der Mais auch auf Italienisch "granoturco". In der Steiermark wird mit „Woaz“, je nach Region, entweder Weizen oder Mais („Türk Woaz“) bezeichnet. In der Schweiz kennt vor allem das St. Galler Rheintal den Ausdruck "Türgge" oder "Törgge" für den hellen Speisemais, aus dem die traditionelle Speise Ribel hergestellt wird. Diese Namensgebungen müssen aber nicht zwangsläufig auch mit den Türken zu tun haben, sondern lassen sich eventuell auch als Volksetymologie mit der Herkunft aus dem vermeintlichen Orient bzw. eben den „heidnischen Ländern“ erklären; Vergleichbares war regional auch bei anderen Importen aus der Neuen Welt üblich. Auf eine fremde bzw. überseeische Herkunft verweisen auch die Bezeichnungen „Welschkorn“, die vor allem im Pfälzischen verbreitet ist, und das ältere französische "blé d'Inde", das heute noch im frankophonen Kanada üblich ist. Anbau. Mais ist ein Sommergetreide. Die Aussaat erfolgt in Deutschland von Mitte April bis Anfang Mai, wenn der Boden warm genug und die Gefahr von Spätfrösten nicht mehr gegeben ist. Mais braucht zur Keimung und zum Feldaufgang eine gewisse Temperatur (Keimung 7–9 °C) und eine gewisse Wärmesumme für den Feldaufgang. Bei niedrigen Temperaturen wird der Keimling von Bodenpilzen befallen und verliert seine Triebkraft; lückige Maisbestände mit geringeren Erträgen sind die Folge. Andererseits führt späte Saat ebenfalls zu Ertragsminderungen, weil die Sonnenenergie des Sommers dann nicht voll ausgenutzt wird. Als Faustregel gilt in Deutschland: eine Aussaat nach dem 10. Mai resultiert in einem Prozent Minderertrag pro Tag Verspätung. Mais wird in Reihen als Einzelkornsaat mit mechanischen oder pneumatischen Einzelkornsämaschinen gesät (österreichisch: gesetzt); die Bestandsdichte ist sorten- und regionsabhängig und beträgt im Durchschnitt etwa 10 (7,5–11) Pflanzen/m². Der Reihenabstand beträgt etwa 75 cm, der Säabstand etwa 10 bis 20 Zentimeter. Die Ernte des Silomaises, normalerweise durch Feldhäcksler, findet in Deutschland Mitte September bis Anfang Oktober statt (der optimale Erntetermin liegt bei etwa 30 % Trockensubstanz der Gesamtpflanze). Körnermais wird in klimatisch bevorzugten Gebieten ab Ende September bis Ende November geerntet. Trotzdem liegt der Feuchtigkeitsgehalt der Körner mit etwa 25–35 % noch so hoch, dass eine entsprechende Trocknung notwendig ist. Haltbar sind Einzelkörner mit max. 16 % Feuchtigkeit; werden ganze Kolben in durchlüfteten Drahtgittersilos eingelagert, so darf die Feuchtigkeit etwas höher sein. Der Hektarertrag von Körnermais liegt bei der Ernte zwischen 80 und 120 dt/ha. Körnermais kann heute mit Mähdreschern geerntet werden, wobei ein spezielles Schneidewerk (siehe Maisschneidwerke) die Kolben von den Stengeln trennt und die Kolben direkt vom Mähdrescher gedroschen werden können. Foliensaat. Maispflanzen kurz nach dem Durchstoßen der Folie bei Foliensaat In Kanada und Irland weit verbreitet ist die "Foliensaat". Beim Säen werden die Reihen mit einer Folie überzogen, um den Treibhauseffekt zu erreichen. Die Folie ist biologisch abbaubar und verbleibt auf dem Feld. In Deutschland wurde dieses Verfahren in Norddeutschland vereinzelt eingesetzt. Mehrerträge konnten vor allem in kühlen Jahren erzielt werden. Untersuchungen im kanadischen Neufundland ergaben eine kürzere Vegationszeit von etwa einer Woche. Gleichzeitig stiegen die Trockenmasseerträge um 15 bis 20 % an. Die Flächenleistung des Sägerätes ist aufgrund der gleichzeitigen Befestigung der Folie deutlich geringer als bei konventionellen Geräten. Um den Bestand unkrautfrei zu halten, wird gleichzeitig ein Vorauflaufherbizid ausgebracht. Je nach Anzahl und Anordnung der Löcher in der Folie kann es zu Problemen mit der Wasserabfuhr kommen. Insbesondere die Phosphorverfügbarkeit wird bei den steigenden Bodentemperaturen unter Folie deutlich verbessert. Unter trockenen Bedingungen wurden ebenfalls Mehrerträge festgestellt. Zudem kann eine Maissorte mit einer um 100 Punkte höheren Reifezahl (FAO-Zahl) angebaut werden. In Irland werden rund 55 % der Maisfläche unter Folie angebaut, in England rund 8,5 % der Maisfläche. Saatgut. Bis in die dreißiger Jahre des 20. Jahrhunderts waren ausschließlich offen abblühende Maissorten im Anbau, wie zum Beispiel der gelbe badische Landmais. Durch bedeutende Züchtungsfortschritte begann in den USA in den 1930er Jahren der Anbau von Mais-Hybriden. Hybridmais bringt dank Heterosis-Effekt deutlich höhere Erträge als offen abblühende Sorten; ein Nachbau (Saatgut) der geernteten Körner führt jedoch zu einem geringeren Ertrag. In Industrieländern kaufen Bauern in der Regel jährlich frisches Hybridsaatgut, da die höheren Kosten durch die höheren Erträge kompensiert werden. Ärmeren Bauern in Entwicklungsländern ist dies nicht immer möglich, so dass sie Hybridsaatgut recyclen. Trotz der durch Recycling bedingten Ertragseinbrüche sind Nachkommen von Hybriden den traditionellen Sorten üblicherweise noch einige Generationen überlegen. Als QPM-Mais ("Quality Protein Maize") werden Maissorten mit erhöhtem Gehalt der im Mais limitierenden essentiellen Aminosäuren Lysin und Tryptophan bezeichnet. Da Mais in vielen afrikanischen Ländern aufgrund eines schlechten Zugangs zu tierischen Eiweißen und Hülsenfrüchten die bedeutendste Proteinquelle ist, hat QPM das Potenzial, den Gesundheitszustand vieler Menschen zu verbessern. QPM-Sorten werden bereits in etwa 40 Ländern angebaut, vor allem in afrikanischen. Im März 2010 wurde berichtet, dass Forscher eine seltene Variation eines Maisgen (crtRB1) entdeckt haben, welches den Beta-Carotin-Gehalt um das 18-fache erhöht. Dieses Gen lässt sich in Maissorten einbringen, wodurch die Versorgung mit Vitamin A in mangelernährten Menschen verbessert werden kann, etwa in Teilen Afrikas, wo Mais in großen Mengen konsumiert wird, aber aufgrund von Armut eine unzureichende Versorgung mit den in Obst und Gemüse enthaltenen Beta-Carotinoiden herrscht. Für Sambia wird mit der Markteinführung im Jahr 2012 gerechnet. Der Verkehr mit Mais-Saatgut ist im Sortenschutzgesetz und Saatgutverkehrsrecht geregelt, deren Einhaltung durch das Bundessortenamt geregelt und durch Länderbehörden überwacht wird. Die zugelassenen Sorten werden in der Europäischen Sortenliste periodisch veröffentlicht. 2010 wurde in Deutschland auf 3.754 ha Maissaatgut vermehrt, fast ausschließlich am Oberrhein in Baden-Württemberg. Mehr als 80 % des benötigten Saatgutes werden importiert, vor allem aus Frankreich oder Ungarn. Die weltweit im Anbau befindlichen Sorten werden mit einer dreistelligen Reifezahl von 100–900 beschrieben. Von den neun Reifegruppen reifen die 100–300er Sorten mit weniger Sonnenenergie in Norddeutschland als Silomais und in Süddeutschland als Körnermais ab. Das hohe Ertragspotential der Reifegruppen höher 400 setzt hohe Sonnenenergie voraus, die nur in Regionen bis zum 40. Breitengrad der Erde erreicht wird, z. B. im mittleren Westen der USA oder südlich von Rom. Bis 1998 wurden Maissorten anhand ihrer "FAO-Zahl" eingruppiert. Dabei wurde ausschließlich der Trockensubstanzgehalt des Kolbens ermittelt. Eine Differenzierung nach Nutzung (Silomais oder Körnermais) war daher aus technischen Gründen nicht möglich. Eine Differenz von zehn FAO-Einheiten gab unter mitteleuropäischen Verhältnissen einen Reifeunterschied von ein bis zwei Tagen oder 1-2 % im Trockensubstanzgehalt der Körner zum Zeitpunkt der Reife wieder. Heute wird die Reifezahl nutzungsspezifisch angegeben, d. h. bei Silomaistypen (S) wird der TS-Gehalt der Gesamtpflanze als Kriterium herangezogen, und bei Körnermaistypen (K) wird der TS-Gehalt der Körner berücksichtigt, Bei den neuen Einstufungen handelt es sich um relative Einstufungen zu Referenzsorten. Somit würde eine Sorte nach Einstufung der FAO-Zahl und der "Nutzungsspezifischen Reifezahl" in unterschiedlichen Gruppen erscheinen. Gentechnisch modifizierte Sorten. Seit Ende der 1990er Jahre werden mittels Gentechnik hergestellte schädlingsresistente und herbizidresistente Maissorten angebaut. 2009 erfolgte der Anbau in 16 Ländern. Die wichtigsten Anbauländer sind die USA, Brasilien, Argentinien und Kanada. In den USA beträgt der Anteil transgener Sorten 85 %. Der Anbau transgenen Maises ist laut begutachteten Studien in den untersuchten Ländern kostensparender und/oder ertragreicher sowie umweltschonender. Andere Studien kommen zu einem anderen Ergebnis, indem sie auf einen längeren Beobachtungszeitraum bezogen beispielsweise einen höheren Pestizidverbrauch feststellten. In Nordamerika werden mögliche Einflüsse auf die Biodiversität von wilden Verwandten des Maises in Mexiko untersucht. In der EU muss gentechnisch veränderter Mais in Lebensmitteln kenntlich gemacht werden. Kornformen. Alternativ können Maissorten nach ihrem Alter gruppiert werden. Krankheiten und Schädlinge. Zu den Krankheiten von Kulturmais gehören Auflaufkrankheiten, Keimlings-, Wurzel-, Stängel- und Kolbenfäule, Maisbeulenbrand ("Ustilago maydis"), Maisrost ("Puccinia sorghi", "P. mayidis"), Blattfleckenkrankheit ("Helminthosporium sp."). In Subsahara-Afrika ist der Maize Streak Virus die verheerendste virale Krankheit beim Mais. Als tierische Schädlinge von Kulturmais gelten Ackerschnecken, ("Deroceras ssp.)", Drahtwurm ("Agriotes lineatus"), Fritfliege ("Oscinella frit"), Maiszünsler ("Ostrinia nubilalis"), Westlicher Maiswurzelbohrer ("Diabrotica vigifera"), Baumwollkapselbohrer ("Helicoverpa zea"), Baumwoll-Kapseleule ("Helicoverpa armigera"). Der Maiszünsler ("Ostrinia nubilalis") bohrt sich in das Innere des Stängels oder des Kolbens und vernichtet dadurch große Teile der Ernte. Nützlinge. Das Bakterium "Paenibacillus brasilensis" lebt oft in Assoziation mit Mais. Er ist wie andere "Paenibacillus"-Arten in der Lage, durch Stickstofffixierung Stickstoff aus der Luft zu binden. Diese Fixierung von Stickstoff ist auch als Diazotrophie bekannt und für die Pflanze von Vorteil, da ihr damit zusätzlicher Stickstoff in Form von Ammoniak und höherwertigen Verbindungen zukommt, den sie alleine überhaupt nicht aus der Luft und nur in der lokal typischen Menge aus dem Boden hätte entnehmen können. Produktion und Handel. Weltweit lagen die Hektar-Erträge für Körnermais 2013 bei 55,2 dt/ha und in Deutschland bei 105,5 dt/ha. Laut Statistischem Bundesamt wurden 2013 in Deutschland insgesamt 4,4 Mio. Tonnen Körnermais (einschließlich Corn-Cob-Mix) auf 497.000 ha angebaut. 2,0 Mio. ha wurden zur Silomaiserzeugung (einschließlich Lieschkolben) genutzt, auf denen 78,2 Mio. t Silomais geerntet wurden. Die größten Maisproduzenten. a> (2009), einem führenden Maisproduzenten unter den US-Bundesstaaten Testanbau von ertragreichem "SW5-Mais" in Osttimor zur Hungerbekämpfung Handel. Mais ist nach Weizen das meistgehandelte Getreide. Global wurden 2011 etwa 109,6 Millionen Tonnen exportiert, etwa 41,9 % davon aus den Vereinigten Staaten, gefolgt von Argentinien (14,4 %) und Brasilien (8,7 %). Größter Importeur war 2011 Japan (14,1 %), gefolgt von Mexiko (8,8 %), Südkorea (7,2 %), Ägypten (6,5 %) und Spanien (4,5 %). Unter den 20 größten Importnationen waren auch weitere europäische Länder: Niederlande, Deutschland und Portugal. Weitere bedeutende Importeure waren Taiwan, Iran, Indonesien, Malaysia und nordafrikanische Staaten. Subsahara-Afrika ist größtenteils autark. Nutzung. Etwa 15 % der globalen Maisernte werden als Lebensmittel verwendet (Zeitraum: 2005–2007). Global werden 63 % des verbrauchten Mais an Nutztiere verfüttert, 11 % werden verarbeitet, 10 % werden andersartig genutzt, 1 % als Saatgut. In Entwicklungsländern liegt der Anteil von Lebensmitteln an der Maisnachfrage bei 25 %, in Ost- und Südafrika bei 73 %, während er in Industrieländern 3 % beträgt. In Industrieländern wird 23 % des verbrauchten Mais verarbeitet, vor allem zu Bioenergie. Die Nachfrage nach Mais als Futtermittel (vor allem für Schweine und Geflügel) steigt um 6 % jährlich, insbesondere aufgrund des zunehmenden Fleischkonsums in Asien. Für etwa 900 Millionen Menschen, vor allem in Afrika und Lateinamerika, ist Mais das wichtigste Grundnahrungsmittel. Mais liefert in Mesoamerika 61 %, in Ost- und Südafrika 45 %, in der Andenregion (Bolivien, Kolumbien, Ecuador, Guyana, Peru, Surinam und Venezuela) 29 %, in West- und Zentralafrika 21 % und in Asien 4 % der aus Lebensmitteln aufgenommenen Energie (siehe: physiologischer Brennwert). Der größte Teil des in Deutschland angebauten Maises wird für Futterzwecke (Silomais, Körnermais) verwendet. Ein kleinerer, aber stark wachsender Anteil wird zur Energiegewinnung in Biogasanlagen eingesetzt (Energiemais). Der Rest wird in Form von Körnermais als Lebensmittel verwendet und dazu zum Großteil in der Lebensmittelindustrie verarbeitet. Die Verarbeitung dieser Körner erfolgt dann entweder in der Trockenmüllerei (Mehle und Grieße) oder in der Nassmüllerei (Stärke) zu Produkten wie Maisstärke (Nebenprodukt Corngluten; proteinreiches Tierfutter) und Maismehl bzw. Maisgrieß (Nebenprodukte Maiskeime und Schalen). Aus diesen Produkten erfolgt die Weiterverarbeitung zu Glukosesirup, Maiskeimöl, Cornflakes, Popcorn, Polenta, Erdnussflips, Tortillas u. v. m. Neben dem in Europa vielfach angebauten gelben Mais gibt es auch rote und blaue Sorten, die interessante Farbeffekte in Nahrungsmitteln geben können. Nutzung als Heilpflanze. Als Heilmittel dienen die Maisstärke und das raffinierte Maiskeimöl. Im Öl finden sich Glyceride der Linolsäure (40–60 %), der Ölsäure (25–35 %) und der Palmitinsäure (9–12 %), Vitamin E, und Phytosterole. Maisstärke dient als Pudergrundlage mit hohem Wasseraufnahmevermögen und als Hilfsstoff in der pharmazeutischen Technologie, z. B. bei der Tablettenherstellung. Gleichzeitig ist sie auch Ausgangsstoff für weitere Produkte wie Sorbit und Dextrin. Das Maisöl verwendet man in Haut- und Körperpflegemitteln und als Trägerlösung für ölige Injektionen. Mit dem hohen Gehalt an Linolsäure und Vitamin E gilt das Maiskeimöl als wertvolles Speiseöl. Durchschnittliche Zusammensetzung (ganzes Korn). Die Zusammensetzung von Mais schwankt naturgemäß, sowohl in Abhängigkeit von den Umweltbedingungen (Boden, Klima) als auch von der Anbautechnik (Düngung, Pflanzenschutz). Der physiologische Brennwert beträgt 1377 kJ je 100 g essbarem Anteil. Nixtamalisation. In Ländern, in denen eher selten Mais gegessen wird, wird der Mais einfach zermahlen. Dort, wo Mais ein tägliches Grundnahrungsmittel ist, werden die Körner viele Stunden mit alkalischen Stoffen (wie gelöschtem Kalk oder Holzasche) gekocht, enthülst, nass zu einem Teig vermahlen, dann entweder unmittelbar zum Endprodukt weiterverarbeitet oder wieder getrocknet und als Mehl gehandelt; durch diesen Herstellungsprozess wird Niacin freigesetzt, zudem verbessern sich Geschmack und Backeigenschaften. Diese Verarbeitungstechnik, die als Nixtamalisierung bezeichnet wird, wurde in Oaxaca nachweislich bereits um 1500 v. Chr. verwendet und ist möglicherweise erheblich älter. Das so gewonnene Mehl wird in den Südstaaten der USA "hominy grits" und in Mexiko "masa harina" genannt. Bei der Einführung des Maises in Europa durch die Spanier im 15. Jahrhundert wurde die Nixtamalisation nicht angewendet, sodass Pellagra eine in Europa weitverbreitete Krankheit war, auch weil der Zusammenhang zwischen Mais und der Erkrankung lange nicht erkannt wurde. Zudem traten in Westafrika, wo Mais erst in den letzten Jahrhunderten als Grundnahrungsmittel populär wurde, wegen der Unkenntnis dieser Methode häufig Mangelerscheinungen (Pellagra) auf. Die niedrige biologische Wertigkeit des Maisproteins führt zudem zu Mangelerscheinungen, wenn kaum andere Eiweißquellen zur Verfügung stehen, wie es in vielen Ländern Afrikas der Fall ist. Maiskeimöl. Ein weiteres wichtiges Produkt stellt das aus den Maiskeimlingen gewonnene Maiskeimöl dar, das vor allem als Salatöl verwendet wird. Nachwachsender Rohstoff. Neben den vorgenannten Anwendungsgebieten in der Ernährung und als Futtermittel wird Mais auch in vielfältiger Weise als nachwachsender Rohstoff verwendet. Dabei gibt es sowohl energetische wie auch stoffliche Verwendungen, die vor allem auf der Maisstärke basieren. Von zentraler Bedeutung ist die Nutzung als Energiepflanze zur Herstellung von Biokraftstoffen (Bioethanol, vor allem in Nordamerika) und als Energiemais zur Herstellung von Maissilage als Biogassubstrat. Als Energiemais wird dabei Mais bezeichnet, der zur Energieerzeugung in Biogasanlagen genutzt wird; durch das Erneuerbare-Energien-Gesetz (EEG) wurde die Biogaserzeugung gefördert und damit der Maisanbau ausgeweitet. In der stofflichen Nutzung spielt Maisstärke als Ausgangsprodukt für Biokunststoffe, vor allem zur fermentativen Produktion von Milchsäure als Ausgangsprodukt von Polylactiden (PLA) sowie für extrudierte Maisstärke (bspw. für essbares Geschirr und als kompostierbares Füllmaterial in Verpackungen). Wie Weizenstärke und Melasse kann Maistärke auch als Fermentationsrohstoff für eine Reihe weiterer Feinchemikalien, vor allem Antibiotika und Aminosäuren genutzt werden. Die als Nebenprodukt anfallenden Kolben können zudem als Rohstoff für die Gewinnung von Furfural genutzt werden. Auf der Basis von Maisspindelgranulat wird Ölbindemittel hergestellt. Die Kolbenspindeln spezieller harter Maissorten werden geschnitzt in den USA als einfache Tabakspfeifen („Missouri-Meerschaum“) benutzt und sind auch in Europa im Tabakfachhandel erhältlich. Probleme von Maisanbau und Maisnutzung. In Deutschland gibt es Kritik am starken Maisanbau für Tierfutter und zur Gewinnung von Agrosprit. Insbesondere wird kritisiert, dass Mais-Monokulturen (eine „Vermaisung der Landschaft“) negative Auswirkungen auf die Artenvielfalt (Biodiversität) haben. Für Entwicklungsländer wird die Verdrängung der in semi-ariden Gebieten üblichen, ernährungsphysiologisch wertvolleren Hirsenahrung durch Maisnahrung kritisch gesehen. Hier wird die Veränderung der Ernährungsgewohnheiten als Grund angenommen. Musikinstrument. Ein Musikinstrument ist ein Gegenstand, der mit dem Ziel konstruiert oder verändert wurde, Musik zu erzeugen. Im Prinzip kann jeder Gegenstand, der Töne oder auch nur Geräusche hervorbringt, als Musikinstrument dienen, jedoch wird der Ausdruck normalerweise nur für solche Gegenstände verwendet, die zu diesem Zweck hergestellt oder verändert wurden. Manchmal wird auch die menschliche Stimme als Musikinstrument bezeichnet. Klassifikation. Es gibt viele verschiedene Versuche, die Vielfalt der Musikinstrumente in Gruppen einzuteilen. Bei praktisch allen Klassifikationssystemen zeigen sich Vor- und Nachteile sowie mehr oder weniger zahlreiche Ausnahmen. Einteilung nach Art der Tonerzeugung. Im 1914 veröffentlichten Klassifikationsschema von Curt Sachs und Erich von Hornbostel werden die Instrumente entsprechend unterteilt, die Gruppe der „Elektrophone“ wurde 1948 durch Karl-Heinz Dräger ergänzt. Innerhalb dieser Schemata sind Mischformen möglich. Klassifikation nach Benutzung durch den Spieler. Wenn kein Spieler zur Klangerzeugung nötig ist, spricht man auch von einem Musikautomaten (siehe im Speziellen Mechanischer Musikautomat). Klassifikation nach dem Rohmaterial. In Ostasien wurden Musikinstrumente nach ihrem Rohmaterialien unterschieden. Das System der Acht Klänge (, japanisch „Hatchi-In-System“) unterscheidet acht Materialgruppen: Metall (Gold, Bronze, Stahl), Stein, Garn (Seide, Wolle), Bambus, Kürbisfrüchte, Ton, Leder und Holz. Lunarkalender. Ein Lunarkalender oder Mondkalender ist ein ausschließlich am Lauf des Mondes orientierter Kalender. Zur Abgrenzung von einem Lunisolarkalender, bei dem mit Hilfe eines gelegentlichen Schaltmonats eine grobe Anpassung an das Sonnenjahr vorgenommen wird, heißt er auch freier Lunarkalender oder ungebundener Lunarkalender. In ihm werden zwölf Mondmonate zu einem Mondjahr (Lunarjahr), das etwa 11 Tage kürzer als ein Sonnenjahr in einem Solarkalender ist, zusammengefasst. Geschichte und Anwendung. "Lunarkalender" sind älter als "Solarkalender", weil sie sich an einer sicher beobachtbaren Himmelserscheinung, nämlich den Mondphasen orientieren. Die Sonnenphasen, zum Beispiel die Äquinoktien oder die Solstitien sind ungleich schwerer festzustellen. Die Mondphasen haben als Periode den synodischen Monat (Lunation) mit einer durchschnittlichen Länge von 29,53059 Tagen (Schwankung zwischen etwa 29,27 und 29,83 Tagen). Im Kalender werden in der Regel 6 Monate mit 29 Tagen und 6 Monate mit 30 Tagen im Wechsel verwendet. Damit ist das kalendarische Mondjahr 354 Tage lang (6·29 + 6·30). Zur Anpassung an die astronomisch genaue Länge eines Mondjahrs mit 354,3671 Tagen (12 Lunationen) ist das kalendarische Mondjahr etwa alle drei Jahre um einen Tag länger. Eine irgendwie geartete Schaltregel gibt es nicht, sie ist auch überflüssig, weil sich der Beginn jeden Mondmonats aus der Beobachtung, nicht einer Berechnung ergibt. Als Beginn des Monats wird in der Regel der gut feststellbare Tag des Neulichts benutzt, der früher von einer Autoritätsperson beobachtet und verkündet wurde. Die Möglichkeit, dieses Datum vorauszuberechnen (sogenanntes "arithmetisches" oder "zyklisches" Datum) macht von Willkür und eventueller Bewölkung unabhängig. Das neue Jahr beginnt nach jeweils zwölf Monaten. Beispiel für einen heute noch – wenigstens für religiöse Zwecke – gebrauchten "Lunarkalender" ist der Islamische Kalender. Sein Fastenmonat Ramadan ist das wichtigste religiöse Jahres-Ereignis im Islam. Er gleitet wie alle Islamischen Kalender-Daten in etwa 34 Jahren einmal rückwärts durch ein Sonnenjahr eines Solarkalenders. Eine Person, deren Lebensalter nach islamischer Tradition mit 34 Jahren angegeben wird, ist erst 33 Sonnenjahre alt. 100 Sonnenjahren entsprechen etwa 103 lunar gezählte Jahre. Der Lunarkalender eilt also umso mehr vor, je länger die Jahre gezählt werden. Die Wiederverwendung des Lunarkalenders verordnete der Prophet Mohammed im 7. Jahrhundert, also zu einer Zeit, als in seiner Umgebung (Arabische Halbinsel) bereits ein "Lunisolarkalender" (Jüdischer Kalender) sowie ein "Solarkalender" (Julianischer Kalender) in Gebrauch waren. Allgemein verschwand die Bedeutung eines Lunarkalenders beim Übergang zur Ackerbaukultur (Jungpaläolithikum), weil die Landwirtschaft an den Rhythmus des Sonnenjahres gebunden ist. Für Viehzüchterkulturen war das Sonnenjahr noch einige Zeit lang von untergeordneter Bedeutung, vor allem in den Tropen und Subtropen, wo die Jahreszeiten weniger ausgeprägt sind und weniger Einfluss auf das Wachstum der Futterpflanzen haben. Monat. Ein Monat (maskulin, etymologisch verwandt mit "Mond") ist eine Zeiteinheit und ein Teil eines Jahres. Grundlagen der Kalenderrechnung. Monatseinteilung einer chinesischen Himmelsscheibe, Astronomischer Zyklus zu 28 Teilungen Lunationen – bzw. deren Mittelwert, der Synodische Monat – auf der Grundlage gleicher Erdmondphasen bildeten die Grundbausteine der ersten Kalender, welche "Lunar- oder Mondkalender" waren, und später teilweise zu "Lunisolarkalendern" weiterentwickelt wurden. Solche Kalender sind auch heute noch in weiten Teilen der Welt gebräuchlich, und beispielsweise der jüdische Kalender, der islamische Kalender und der traditionelle chinesische Kalender bezeichnen weiterhin einen Phasendurchlauf des Mondes als Monat. Indes liegt in der Zeit eines Sonnenjahres eine unganzzahlige Menge von Mondmonaten, so dass man bei Einführung eines "Solar- oder Sonnenkalenders" die Länge der Monate entsprechend anpassen musste. Eine solche Bindung der Jahrlänge an die Dauer eines Erdumlaufs um die Sonne und die damit verbundene Trennung der Monate vom Mondlauf erfolgten zuerst im alten Ägypten im Jahre 238 v. Chr. und wurde von Julius Caesar im Jahre 46 v. Chr. auch für die römische Republik übernommen (womit diese Jahre eigentlich sinnvolle Epochen für die Zeitrechnung des juliano-gregorianischen Kalenders wären). Neben diesem julianischen Kalender und dem ihn ablösenden und heute für die meisten Menschen alltäglichen gregorianischen Kalender sind auch noch einige andere Sonnenkalender in Gebrauch, bei denen ein (Kalender-)Monat als ein bestimmter Teil des Sonnenjahres mit einer festgelegten Anzahl von Tagen definiert wird, beispielsweise der griechisch-orthodoxe Kalender, der koptische Kalender, der zoroastrische Kalender, der iranische Kalender, der Malayalam-Kalender sowie verschiedene südasiatische Kalender. Monatsnamen. Zeitpunkt: Eine Größe der Zeitrechnung. Da im deutschsprachigen Raum der aus dem Römischen Reich stammende Julianisch-Gregorianische Kalender übernommen wurde, sind auch die heute im Allgemeinen gebräuchlichen Monatsnamen lateinischen Ursprungs, und die meisten davon lassen sich auf den altrömischen Kalender, den Vorläufer des julianischen Kalenders, zurückführen. Auch bei den wahrscheinlich meisten anderen Völkern, die den Julianisch-Gregorianischen Kalender benutzen, sind die üblichen Monatsnamen von den lateinischen abgeleitet. Indes bestanden in etlichen Sprachen auch nebenher eigene Monatsbezeichnungen (die neueren Formen der deutschen sind unten angegeben) oder wurden zeitweise eingeführt, wie beispielsweise im französischen Revolutionskalender. Heute bezeichnet der Begriff „Monat“ im gregorianischen Kalender nur noch festgelegte Jahresabschnitte, deren Länge von der eines Mondzyklus mehr oder weniger stark abweicht. "Siehe auch:" Kalender (Römisches Reich), aus dem unsere Monatsnamen stammen. Astronomische Definitionen. Der "Monat" als Periode des Erdmondes auf seinem Umlauf um die Erde. In der Astronomie wird allgemein die Zeitspanne zwischen zwei Wiederholungen eines Ereignisses, das mit dem Orbit eines beliebigen Mondes um seinen Planeten zusammenhängt, also jeder vollständige Umlauf, als "Monat" bezeichnet. Insofern ist der Ausdruck „Monat“ also der "Bahnperiode" synonym. Kurzformen. Bei häufiger Verwendung werden die Monatsnamen auch wie folgt abgekürzt: Jan, Feb, Mär, Apr, Mai, Jun, Jul, Aug, Sep, Okt, Nov, Dez. Gelegentlich wird der März auch Mrz abgekürzt. Der Februar wird in Schaltjahren auch als „Schaltmonat“ bezeichnet. Mungbohne. Die Mungbohne ("Vigna radiata"), auch Mungobohne, Jerusalembohne oder Lunjabohne genannt und auch als "Mung Dal" oder "Mung Daal" bekannt, ist eine Pflanzenart aus der Unterfamilie der Schmetterlingsblütler (Faboideae) innerhalb der Familie der Hülsenfrüchtler (Fabaceae oder Leguminosae). Im deutschsprachigen Raum werden die Keimlinge oft auch fälschlicherweise als Sojasprossen bezeichnet. Diese Nutzpflanze ist nahe verwandt mit einer Reihe anderer „Bohnen“ genannter Feldfrüchte, insbesondere mit der Urdbohne ("Vigna mungo"). Die Mungbohne wird seit einigen 1000 Jahren in Indien angebaut und ist heute in ganz Südostasien verbreitet. Beschreibung. Die Mungbohne ist eine einjährige krautige Pflanze. Sie wächst meist aufrecht, meist stark verzweigt und erreicht Wuchshöhen von 30 bis zu 150 cm; es gibt auch windende und halb kriechende Sorten. Die Stängel sind stark behaart mit braunen, steifen, ausgebreiten Haaren (Trichome). Die wechselständigen Laubblätter besitzen meist 5 bis 21 lange Stiele und dreiteilige Blattspreiten. Die 3 bis 6 mm lang gestielten, meist breit-ovalen, einfachen oder zwei- bis dreilappigen Teilblätter sind 5 bis 16 cm lang, 3 bis 12 cm breit und besitzen eine deutliche Blattspitze. Die Teilblätter können unbehaart oder schuppig behaart sein auf beiden Flächen. Die schildförmigen Nebenblätter sind 10 bis 18 mm lang. Die achselständig auf 2,5 bis 9,5 cm langen Stielen stehenden, leicht verzweigten Blütenstände mit wenigblütigen, traubigen Teilblütenständen; insgesamt ist ein Blütenstand vielblütig. Die Tragblätter sind etwa 4 bis 5 mm lang und die Deckblätter sind 4 bis 7 mm lang. Die zwittrigen Blüten sind zygomorph. Die fünf unbehaarten, etwa 3 bis 4 mm lang Kelchblätter sind verwachsen mit fünf etwa 1,5 bis 4 mm langen, behaarten Kelchzähnen; das obere Kelchblattpaar ist fast völlig verwachsen. Die fünf Kronblätter sind meist grünlich- bis fahl-gelb. Die Fahne ist etwa 12 mm groß. Die Sorten können leicht reinerbig gehalten werden, da sie überwiegend selbstbefruchtend sind. Der Nabelfleck auf den Samen ist deutlich erkennbar. Meist entwickeln sich an einem Fruchtstand nur zwei Hülsenfrüchte. Die linear zylindrischen, rau und dunkelbraun behaarten Hülsenfrüchte weisen eine Länge von 4 bis 10 cm und einen Durchmesser von etwa 0,5 cm auf. Die reifen Hülsenfrüchte färben sich dunkelbraun bis schwärzlich. Jede Hülsenfrucht enthält meist sieben bis zwanzig Samen, die sich äußerlich an der Hülse deutlich abzeichnen. Die erbsengroßen (2 bis 5 × 3 bis 4 mm) Samen können fast rund und prall oder länglich bis quadratisch abgerundet sein; sie besitzen eine grüne, manchmal auch gelbe oder schwarze Farbe. Die Samen sind im inneren gelb, was ein eindeutiges Unterscheidungsmerkmal zur Urdbohne ist, die im inneren weiß ist. Der längliche Nabelfleck ist 1,5 × 0,5 mm groß und eingezogen, in sich aber aufgewölbt. Das Tausendkorngewicht beträgt 20 bis 42 Gramm. Mung-Sprossen sind im deutschsprachigen Raum irrtümlich als „Sojasprossen“ bekannt. Küche. Die Mungbohnen sind leichter verdaulich als die in Mitteleuropa verbreiteten Gartenbohnen und verursachen keine Blähungen. Sie haben allerdings auch deutlich weniger Eigengeschmack. Man kann die Bohnensprossen, die frischen Hülsen oder die getrockneten Bohnen verwenden. Mungbohnen keimen leicht. Diese Eigenschaft wird in vielen Haushalten dazu genutzt, die Keimlinge in speziellen Keimschalen selbst zu ziehen. Mung-Sprossen werden häufig fälschlicherweise als „Sojakeime“ bzw. „Sojasprossen“ bezeichnet und gehandelt, da sie den Sojabohnen sehr ähnlich sind. Mungbohnenkeimlinge sind ein klassisches Wok-Gemüse, finden aber auch Verwendung in Salatmischungen. Aus ihrem Mehl werden unter anderem die asiatischen Glasnudeln hergestellt. In Indien ist die Mungbohne Grundnahrungsmittel und eine wichtige Proteinquelle. Sie wird zu Dal verarbeitet und als Snack gegessen. Hierzu werden die getrockneten Bohnen in Wasser eingeweicht, wieder getrocknet und anschließend in Öl frittiert. Inhaltsstoffe. Die Inhaltsstoffe der Mungbohne unterscheiden sich von denen der Urdbohne nur wenig. Die Mungbohne hat mit etwa 24 % (vom Trockengewicht) einen relativ hohen Eiweißanteil, der mit seinem hohen Lysin-Gehalt als wertvoll gilt. Die Sprosse, die auch roh gegessen werden kann, ist kalorienarm sowie reich an Ballaststoffen, Vitaminen und Folsäure (59,6 % Kohlenhydrate, Vitamine: A, B1, B2, Niacin, C, E, Mineralien: viel Kalium und Phosphor, Kalzium, Eisen, Magnesium). Systematik. Die Erstveröffentlichung als "Phaseolus radiatus" erfolgte 1753 in "Species Plantarum", 725 durch Carl von Linné. Der aktuell gültige Name wurde 1954 von Rudolf Wilczek in "Fl. Congo Belge.", 6, 386 veröffentlicht. "Vigna radiata" gehört zur Untergattung "Ceratotropis" in der Gattung "Vigna". Mattenbohne. Die Mattenbohne ("Vigna aconitifolia") ist eine Pflanzenart in der Unterfamilie der Schmetterlingsblütler (Faboideae) innerhalb der Familie der Hülsenfrüchtler (Fabaceae). Diese Nutzpflanze produziert essbare Hülsenfrüchte. Namensgebung. Sie ist nahe verwandt zu einer Reihe anderer „Bohnen“ genannter Feldfrüchte, insbesondere zur Mungbohne und zur Urdbohne. Im deutschen Sprachraum sind auch die Bezeichnungen "Mottenbohne" und "Mückenbohne" gebräuchlich. Der Name geht auf die Bezeichnung der Pflanze im Hindi zurück: ' (Aussprache:), und hat nichts mit Matten oder Motten zu tun. Geschichte. Die Mattenbohne wird seit mindestens 2000 Jahren auf dem indischen Subkontinent angebaut, von wo aus sie sich unter anderem nach China verbreitet hat. Beschreibung. Die Mattenbohne ist eine aufrechte bis kriechende krautige Pflanze mit Wuchshöhen von etwa 20 Zentimeter und 1 bis 2 Meter Durchmesser. Die kantigen Stängel besitzen steife, gelbe, ausgebreitete Haare (Trichome). Die dreiteiligen Laubblätter besitzen einen 3,5 bis 8,5 cm langen, behaarten Stiel und 3,5 bis 6,0 cm lange Teilblättchen. Die Unter- und Oberseite der Teilblättchen ist behaart. Die Nebenblätter sind 5 bis 10 mm lang. Die achselständigen, 1,5 bis 6,0 cm lang gestielten, traubigen Blütenstände enthalten etwa 4,0 mm lange, behaarte Hochblätter. Der Blütenstiel ist etwa 1 mm lang. Die zwittrigen Blüten sind zygomorph und fünfzählig. Der etwa 2,5 mm lange, spärlich behaarte Kelch endet in fünf etwa 1 mm langen Kelchzähnen. Die fünf Kronblätter sind gelb. Die Fahne ist 4,5 bis 5,0 mm lang. Die etwa 3,5 bis 6,5 Zentimeter langen und 4 bis 5 mm breiten Hülsenfrüchte sind anfangs filzig behaart, aber werden schon bald kahl; sie enthalten meist fünf bis sieben, selten bis zu acht Samen. Die nieren- oder walzenförmigen, bis zu 5 Millimeter langen und 3 Millimeter dicken Samen sind häufig hellbraun gesprenkelt, können aber auch andere Farben aufweisen. Nutzung. Die Mattenbohne ist sehr anspruchslos und ist sehr trockenheitsverträglich, benötigt aber warmes Klima. Sie ist daher eine geeignete Pflanze für den Anbau in den indischen Steppengebieten. Sie kann auch noch bei sehr wenig Wasserversorgung Samen entwickeln und kann durch ihre Wuchsform Bodenerosion verhindern. Sie verträgt außerdem noch einen gewissen Salzgehalt und saure oder alkalische Böden. Der Anbau dieser Leguminose erfolgt in Indien gewöhnlich ohne Einsatz von Dünger. Die Verwendungsmöglichkeiten entsprechen ungefähr denen der Urdbohne und der Mungbohne. Man kann die frischen Hülsen, die frischen Bohnen, die rohen Keimlinge und die getrockneten Bohnen verwenden. Aus den Bohnen lässt sich auch ein Mehl gewinnen, das in der indischen Küche verwendet wird. Die Samen enthalten ungefähr 22-24 % Protein und sind daher eine gute Proteinquelle. Die Pflanze wird auch als Futterpflanze genutzt. Systematik. Die Erstveröffentlichung als "Phaseolus aconitifolius" Jacquin erfolgte im "Obs.", 3:t.52, 1766. "Vigna aconitifolia" (Jacq.) Marechal heißt sie seit 1969 von Marechal in "Bull.Jard.Bot.Nat.Belge.", 39:160 in die Gattung "Vigna" gestellt wurde. Ein weiteres Synonym ist "Dolichos dissectus" Lam. Main Tower. Der Main Tower (offizielle Schreibweise: "MAIN TOWER") ist ein Wolkenkratzer in der Innenstadt von Frankfurt am Main. Er wurde am 28. Januar 2000 eingeweiht. Mit 200 Metern Höhe (mit Mast: 240 Meter) ist er zusammen mit dem Tower 185 das vierthöchste Hochhaus in Deutschland. Planung und Technik. Die Planung wurde vom Hamburger Architekturbüro Architekten Schweger + Partner durchgeführt. Teile seiner unteren Stockwerke sind in die historische Fassade der Ursprungsgebäude eingefasst. Erbaut wurde der Main Tower von 1996 bis 1999 durch die „ARGE MAIN TOWER“ (u. a. Hochtief AG und Philipp Holzmann AG). Mit Geschwindigkeiten bis zu sieben Meter pro Sekunde (25,2 km/h) gehören die 26 Personen- und zwei Lastenaufzüge zu den schnellsten in Deutschland. Im September 2011 wurde der Main Tower nach den Standards von „Leadership in Energy and Environmental Design (LEED)“ mit dem Gold-Status zertifiziert. Nutzung. Die Spitze des Main Towers mit öffentlich zugänglicher Besucherterrasse in 198 m Höhe und mit 40 m hoher Sendeantenne des Hessischen Rundfunks. In den obersten beiden verglasten Stockwerken befinden sich "Main Tower Restaurant & Bar". Der Main Tower hat fünf Untergeschosse und 56 Obergeschosse sowie zwei öffentlich zugängliche Aussichtsplattformen (Höhe: 198 Meter), die gegen ein Entgelt begehbar sind. Außerdem befindet sich im 53. Obergeschoss ein öffentliches Restaurant ("Main Tower Restaurant & Bar") mit Cocktail-Lounge und Café in 187 Meter Höhe, die von Bernd Mey gestaltet wurde. Mieter im Main Tower sind die Landesbank Hessen-Thüringen (Helaba), Merrill Lynch, Standard & Poor’s, die Anwaltskanzleien Cleary, Gottlieb, Steen & Hamilton LLP und Sullivan & Cromwell LLP und seit 2006 das australische Konsulat und andere. Eine VIP-Lounge befindet sich in den ehemaligen Studioräumen des Wirtschaftsradios hr-skyline im 54. Stockwerk. An seiner Spitze befindet sich eine Sendeantenne für die Hörfunkprogramme hr-info und You FM. Ein weiterer Nutzer war der Hessische Rundfunk, der hier bis Oktober 2015 ein Fernsehstudio betrieb. Darin wurde seit 15. Januar 2001 unter anderem das wochentägliche Boulevardmagazin "maintower" produziert und vom 2. April 2005 bis zum 29. Juni 2013 die samstägliche Ziehung der Lottozahlen vorgenommen. Im Foyer des Main Towers sind zwei Kunstwerke für die Öffentlichkeit zugänglich: Die Videoinstallation von Bill Viola "The World of Appearances" und das Wandmosaik von Stephan Huber "XX. Jahrhundert". Es besteht die Möglichkeit, die Eheschließung durch das Standesamt Frankfurt im Studio des hessischen Rundfunks durchführen zu lassen. Hierfür werden jedoch erhebliche Mehrkosten erhoben. Die Kosten betragen derzeit 1078 € (Stand Januar 2015). Nach den Anschlägen vom 11. September 2001 waren die öffentlich zugänglichen Aussichtsplattformen für mehrere Monate aus Sicherheitsgründen gesperrt. Die Wiedereröffnung erfolgte erst, nachdem im Foyer eine Sicherheitsschleuse wie auf Flughäfen installiert worden war, mit der verhindert werden soll, dass die Besucher gefährliche Gegenstände ins Gebäude mitnehmen. Sendeanlage Analoges Radio (UKW). Früher war die 103,9 MHz mit hr4 und die 90,4 MHz mit hr3 (heute You FM, ebenfalls hr) belegt und am hr-Funkhaus Bertramstraße mit jeweils 1 kW in Rundstrahlung horizontal in Betrieb. Bis ca. Oktober 2008 lief am Funkhaus Bertramstraße die 97,6 MHz [0,3 kW D (90°–100°, 130°–0°) H] mit Deutschlandfunk. Diese wurde nun auf den Europaturm verlagert. Heute läuft am hr Funkhaus Bertramstraße nur noch die 87,9 MHz [0,1 kW ND H] mit hr2. Ein weiterer Sender von harmony.fm auf 97,1 MHz [0,2 KW D (350°-160°) H] befindet sich in Ginnheim auf einem Hochhaus in der Raimundstraße. Aufgrund der Frequenzlage ist er dennoch besser zu empfangen, als die vom Europaturm abgestrahlte 105,4 MHz. Am Standort Raimundstraße befindet sich ebenso eine Sendeanlage von Klassik Radio auf 107,5 MHz [0,2 KW D (10°–120°, 160°–200°, 260°–350°) H]. Die bekannteren ersten 4 Programme des hr hr1, hr2, hr3, hr4 sowie der Privatsender Hit Radio FFH und AFN Hessen - The Eagle werden vom Rohrmast auf dem Großen Feldberg abgestrahlt. Mensch. Der Mensch (auch "Homo sapiens", lat., "verstehender, verständiger" bzw. "weiser, gescheiter, kluger, vernünftiger Mensch") ist nach der biologischen Systematik ein höheres Säugetier aus der Ordnung der Primaten ("Primates"). Er gehört zur Unterordnung der Trockennasenaffen ("Haplorrhini") und dort zur Familie der Menschenaffen ("Hominidae"). Der Mensch ist die einzige überlebende Art der Gattung "Homo". Er ist in Afrika seit rund 200.000 Jahren fossil belegt und entwickelte sich dort über eine als archaischer "Homo sapiens" bezeichnete Mosaikform vermutlich aus "Homo erectus". Weitere, jedoch deutlich jüngere fossile Belege gibt es für die Art aus allen Kontinenten außer Antarktika. Von den noch lebenden Arten sind die Schimpansen dem Menschen stammesgeschichtlich am nächsten verwandt, vor den Gorillas; dem Genom nach unterscheiden sich dabei im Mittel Gorillas vom Schimpansen etwas mehr als vom Menschen. Die Weltbevölkerung des Menschen hat heute eine Größe von mehr als sieben Milliarden Individuen. Von maßgeblicher Bedeutung für die Menschwerdung sind Interdependenzen zwischen genetischen, zerebralen, ökologischen, sozialen und kulturellen Faktoren. Zu den charakteristischen Merkmalen menschlichen Daseins gehören das Angewiesensein auf mitmenschliche Zuwendung und Versorgung in einer lang andauernden Kindheit, der Spracherwerb, geistige Anlagen sowie kulturelle und soziale Bindungen. Sein Bewusstsein erschließt dem Menschen unter anderem eine zeitliche und geschichtliche Dimension sowie ein reflektiertes Verhältnis zu sich selbst, zu den eigenen Antrieben, Handlungen und ihren möglichen Folgewirkungen. So können sich Menschen auch Fragen stellen, die in grundlegender Weise die eigene Existenz und Zukunft betreffen, etwa nach ihrer persönlichen Freiheit, nach ihrer Stellung in der Natur und ihrem Umgang damit, nach moralischen Grundsätzen menschlichen Zusammenlebens und nach einem Sinn des Lebens überhaupt. Etymologie und Artname. Das Wort "Mensch" ist im Althochdeutschen seit dem 8. Jahrhundert in der Schreibung "mennisco" (Maskulinum) belegt und im Mittelhochdeutschen in der Schreibung "mensch(e)" (Maskulinum oder Neutrum) mit der Bedeutung „Mensch, Mädchen, Buhlerin, Magd, Knecht“. Das Wort ist eine Substantivierung von althochdeutsch "mennisc", mittelhochdeutsch "mennisch" für „mannhaft“ und wird zurückgeführt auf einen indogermanischen Wortstamm, in dem die Bedeutung "Mann" und "Mensch" in eins fiel – heute noch erhalten in "man". Das Neutrum ("das Mensch") hatte bis ins 17. Jahrhundert keinen abfälligen Beiklang und bezeichnete bis dahin insbesondere Frauen von niederem gesellschaftlichen Rang. Der Name der Art "Homo sapiens" (klassisch, gebräuchliche Aussprache, nach lat. "homo sapiens"‚ einsichtsfähiger/weiser Mensch‘) wurde 1758 durch Carl von Linné in der zehnten Auflage seines Werks "Systema Naturae" geprägt. Von den 1930er Jahren bis in die 1990er Jahre wurde der moderne Mensch als "Homo sapiens sapiens" bezeichnet und der Neandertaler als "Homo sapiens neanderthalensis". Diese Einordnung des Neandertalers als Unterart von "Homo sapiens" gilt jedoch derzeit als veraltet. Merkmale des Körpers. Mit dem Körper des Menschen befassen sich unter anderem die Anatomie, die Humanbiologie und die Medizin. Die Anzahl der Knochen des Menschen beträgt (individuell verschieden) beim Erwachsenen 206 bis 214. Das Skelett von Säuglingen hat noch mehr als 300 Knochen, von denen einige im Laufe der Zeit zusammenwachsen. Die Körpergröße des Menschen ist zum Teil vererbt, hängt jedoch auch von Lebensumständen wie der Ernährung ab. Auch das Geschlecht spielt eine Rolle: Männer sind im Durchschnitt größer als Frauen. Seit dem 19. Jahrhundert ist die durchschnittliche Körpergröße in Mitteleuropa bzw. Deutschland von 167,6 cm (Männer) / 155,7 cm (Frauen) auf 178 cm (Männer) / 165 cm (Frauen) angestiegen. Im Folgenden werden einige der wichtigsten Merkmale der Spezies, insbesondere im Vergleich zu anderen Menschenaffen und sonstigen Primaten, genannt. Aufrechter Gang. Der Mensch besitzt einen aufrechten Gang ("Bipedie"), was in der Tierwelt an sich nichts Ungewöhnliches, jedoch bei den Säugetieren selten ist. Der aufrechte Gang ermöglicht dem Menschen das zweibeinige Stehen, Gehen, Laufen, sowie weitere Bewegungsarten. Der Mensch besitzt keinen Greiffuß wie die meisten anderen Primaten, sondern einen Fuß mit verkürzten Zehen und anliegender Großzehe. Dafür dient die Hand des Menschen nicht mehr zur Fortbewegung. Untypisch für einen Affen sind beim Menschen die Arme kürzer als die Beine. Wie bei allen Menschenartigen fehlt der Schwanz. Eine weitere Folge der Entwicklung des aufrechten Gangs beim Menschen ist seine doppelt-S-förmige Wirbelsäule und das kräftig ausgebildete Gesäß, welches die aufrechte Haltung und Fortbewegung erst ermöglicht. Der aufrechte Gang muss erst individuell erlernt werden, was etwa ein bis eineinhalb Jahre ab der Geburt dauert. Gehirn. Das menschliche Gehirn entspricht in seinem Aufbau dem Gehirn anderer Primaten, ist jedoch im Verhältnis zur Körpergröße größer. Die Anzahl der Nervenzellen im Gehirn eines erwachsenen Menschen beträgt etwa 86 Milliarden, in dessen Großhirnrinde etwa 16 Milliarden. Im Vergleich dazu hat das Gehirn eines Rhesusaffen ca. 6,4 Milliarden Nervenzellen und das Gehirn eines Elefanten ca. 257 Milliarden, davon 5,6 Milliarden im Cortex. Doch beim Grindwal beträgt die Neuronenanzahl allein im Neocortex ca. 37 Milliarden, also etwa doppelt soviel wie beim Menschen. Was am menschlichen Gehirn besonders stark ausgeprägt ist, ist die Großhirnrinde, insbesondere die Frontallappen, denen exekutive Funktionen wie Impulskontrolle, emotionale Regulation, Aufmerksamkeitssteuerung, zielgerichtetes Initiieren und Sequenzieren von Handlungen, motorische Steuerung, Beobachtung der Handlungsergebnisse und Selbstkorrektur zugeordnet werden. Der Bereich der Großhirnrinde, der für das Sehen zuständig ist, sowie Zonen, die für die Sprache eine Rolle spielen, sind ebenfalls beim Menschen deutlich vergrößert. Anhand von Fossilienfunden ist belegbar, dass sich der aufrechte, zweibeinige Gang des Menschen deutlich früher entwickelte als die starke Vergrößerung des Gehirns. Die Vergrößerung des Gehirns ereignete sich zeitgleich mit einer Verkleinerung der Kaumuskulatur. Das Gesicht des Menschen ist flacher als das anderer Menschenaffen und besitzt eine hohe Stirn und ein vorspringendes Kinn, dafür keine besonders hervorstehende Schnauze. Haut und Behaarung. Der Mensch verfügt in besonderem Maße über die Fähigkeit der Wärmeabfuhr durch Schwitzen. Kein anderer Primat besitzt eine so hohe Dichte an Schweißdrüsen wie der Mensch. Die Kühlung des Körpers durch Schwitzen wird unterstützt durch die Eigenheit, dass der Mensch im Unterschied zu den meisten Säugetieren kein (dichtes) Fell hat. Während seine Körperbehaarung nur gering ausgebildet ist, wächst sein Kopfhaar ohne natürlich begrenzte Länge. Ein Teil der verbliebenen Körperbehaarung entwickelt sich erst in der Pubertät: das Scham- und Achselhaar, sowie Brust- und Barthaar beim Mann. Eine Folge der Felllosigkeit ist die rasche Auskühlung bei Kälte aufgrund der geringeren Wärmeisolation. Der Mensch lernte jedoch, dies durch das Nutzen von Feuer und durch das Anfertigen von Behausungen und Kleidung zu kompensieren. Beides ermöglicht ihm auch das Überleben in kälteren Regionen. Ein weiterer Nachteil der Felllosigkeit ist das erhöhte Risiko für die Haut, durch ultraviolettes Licht geschädigt zu werden, da Fell einen wichtigen Sonnenschutz für die Haut darstellt. Die je nach Herkunftsregion unterschiedliche Hautfarbe wird als Anpassung an die – je nach geographischer Breite – unterschiedlich intensive Einstrahlung des von der Sonne kommenden ultravioletten Lichts interpretiert (→ Evolution der Hautfarben beim Menschen). Ernährung und Gebiss. Nach heutigem Kenntnisstand ist der moderne Mensch „von Natur aus“ weder ein reiner Fleischfresser ("Carnivore") noch ein reiner Pflanzenfresser ("Herbivore"), sondern ein so genannter Allesfresser ("Omnivore"); umstritten ist allerdings, welcher Anteil der Nahrungsaufnahme in den verschiedenen Zeiten und Regionen auf Fleisch und auf Pflanzenkost entfiel. Die omnivore Lebensweise erleichterte es dem modernen Menschen, sich nahezu jedes Ökosystem der Erde als Lebensraum zu erschließen. Der Mensch besitzt ein Allesfressergebiss mit parabelförmig angeordneten Zahnreihen. Wie die meisten Säugetiere vollzieht er einen Zahnwechsel. Das Milchgebiss des Menschen hat 20 Zähne, das bleibende Gebiss 32 (inklusive Weisheitszähne). Die Zahnformel des Menschen ist wie bei allen Altweltaffen I2-C1-P2-M3. Der Mensch hat jedoch verkleinerte Schneide- und Eckzähne. Sexualität. Der Beginn der Fruchtbarkeit (die Geschlechtsreife mit dem Erreichen der Menarche bzw. Spermarche) ist beim Menschen im Vergleich zu anderen (auch langlebigen) Primaten erheblich verzögert. Eine Besonderheit der menschlichen Sexualität ist der versteckte Eisprung. Während die Fruchtbarkeit von Tierweibchen in der Regel durch körperliche oder Verhaltens-Signale mitgeteilt wird, damit in dieser Phase eine Befruchtung stattfinden kann, ist sie beim Menschen „versteckt“. Als Folge davon ist der Geschlechtsakt beim Menschen weniger stark mit der Fortpflanzung verbunden. Das Sexualverhalten des Menschen hat über den Genom­austausch hinaus zahlreiche soziale Funktionen und weist eine Vielzahl sexueller Orientierungen auf. Eine weitere Besonderheit ist die Menopause bei der Frau. Während im Tierreich Männchen wie Weibchen in aller Regel bis zu ihrem Tode fruchtbar sind, ist die Fruchtbarkeit bei weiblichen Menschen zeitlich begrenzt. Schwangerschaft und Geburt. Die Schwangerschaft, wie die Trächtigkeit beim Menschen genannt wird, beträgt von der Befruchtung bis zur Geburt durchschnittlich 266 Tage. Wegen des großen Gehirnvolumens des Menschen, bei gleichzeitigen durch den aufrechten Gang bestimmten Anforderungen an seinen Beckenboden, ist die Geburt besonders problematisch: Eine menschliche Geburt kann weit schmerzhafter sein als im Tierreich, auch im Vergleich mit anderen Affen, und auch leichter zu Komplikationen führen. Um deren Auftreten zu verringern und bereits aufgetretene behandeln zu können, wurden die Methoden der Geburtshilfe entwickelt. Menschliche Neugeborene kommen in einem besonders unreifen und hilflosen Zustand auf die Welt. Die Säuglinge verfügen in den ersten Lebensmonaten über gar keine Fähigkeit zur Fortbewegung und sind rein passive Traglinge. Lebenserwartung. Der Mensch zählt zu den langlebigsten Tieren und ist die langlebigste Spezies unter den Primaten. Neben genetischen Anlagen spielen die Qualität der medizinischen Versorgung, Stress, Ernährung und Bewegung wichtige Rollen bei der menschlichen Lebenserwartung. Frauen haben im Durchschnitt eine um mehrere Jahre höhere Lebenserwartung als Männer. Die Lebenserwartung hat sich in den letzten Jahrzehnten in den meisten Ländern der Erde kontinuierlich verlängert. Unter guten Rahmenbedingungen können Menschen 100 Jahre und älter werden. Taxonomie. Bis in die späten 1980er Jahre wurden die Orang-Utans, Gorillas und Schimpansen in der Familie der "Menschenaffen" ("Pongidae") zusammengefasst und der Familie der "Echten Menschen" ("Hominidae") gegenübergestellt. Genetische Vergleiche zeigten, dass Schimpansen und Gorillas näher mit dem Menschen verwandt sind als mit den Orang-Utans; seitdem werden Menschen, Schimpansen und Gorillas nebst all ihren fossilen Vorfahren zu dem gemeinsamen Taxon "Homininae" und dieses neben das Taxon der Orang-Utans ("Ponginae") gestellt. Von den anderen heute noch lebenden Menschenaffen kann "Homo sapiens" anhand seines Genotyps unterschieden werden, ferner anhand seines Phänotyps, seiner Ontogenie und seines Verhaltens. Hinzu kommen erhebliche Unterschiede in Bezug auf die Dauer bestimmter Lebensabschnitte: die Entwicklung des Säuglings vollzieht sich bei "Homo sapiens" langsamer als bei den anderen Menschenaffen – mit der Folge, dass der Mensch eine deutlich verlängerte Kindheit sowie Adoleszenz besitzt. Dies wiederum hat zur Folge, dass der Mensch erst relativ spät geschlechtsreif wird und der Aufwand der Eltern zugunsten ihrer Kinder sehr hoch ist; zudem ist der Abstand zwischen den Geburten geringer und die Lebenserwartung höher. Manche Paranormologen sind der Auffassung, dass eine Aufspaltung der Art in eine größere Menge von Varietäten und Unterarten unter morphologischen Kriterien sinnvoll wäre. Diese Auffassung wird in Fachkreisen als Rassismus bzw. Rassentheorie bezeichnet. Genetik. Die Erbinformation des Menschen ist im Zellkern in der DNA auf 46 Chromosomen, davon zwei Geschlechtschromosomen, gespeichert sowie in der DNA der Mitochondrien. Das menschliche Genom wurde in den Jahren 1998 bis 2005 vollständig sequenziert. Insgesamt enthält das Genom diesem Befund zufolge rund 20.000 bis 25.000 Gene und 3.101.788.170 Basenpaare. Das menschliche Genom enthält (wie das jedes anderen Eukaryoten) sowohl codierende als auch nicht-codierende DNA-Sequenzen, die oftmals denjenigen verwandter Lebewesen homolog sind („gleiches“ Gen) und häufig mit den DNA-Sequenzen sehr nahe verwandter Arten – wie der anderer Menschenaffen – sogar völlig übereinstimmen. Aus der Ähnlichkeit der DNA-Sequenzen unterschiedlicher Arten lässt sich zudem deren Verwandtschafts­grad berechnen: Auf diese Weise bestätigten genetische Analysen, dass die Schimpansenarten (Bonobos, Gemeine Schimpansen), Gorillas und Orang-Utans (in dieser Reihenfolge) die nächsten rezenten Verwandten des Menschen sind. Weitere genetische Analysen ergaben, dass die genetische Vielfalt beim Menschen, im Vergleich mit den anderen Menschenaffen, gering ist. Dieser Befund wird erklärt durch eine zeitweise sehr geringe (am Rande des Aussterbens befindliche) Population (vergleiche: Mitochondriale Eva, Adam des Y-Chromosoms). Inzwischen wiesen mehrere Studien darauf hin, dass archaische Verwandte des anatomisch modernen Menschen in geringer Menge (1–2 %) Spuren im Genom von unterschiedlichen Populationen des modernen Menschen hinterlassen haben. Zunächst wurde das für den Neandertaler in Europa und Westasien nachgewiesen, etwas später für den Denisova-Menschen in Südostasien und zuletzt wurden solcher Genfluss archaischer Menschen zu Homo sapiens auch für Afrika postuliert. Fehlende Diagnose des "Homo sapiens". Beschreibung des Menschen in der ersten Auflage von Linnés "Systema Naturæ" Als Carl von Linné 1735 den Menschen in seiner Schrift "Systema Naturæ" dem Tierreich und in diesem der Gattung "Homo" zuordnete, verzichtete Linné – im Unterschied zu seiner üblichen Vorgehensweise – auf eine an körperlichen Merkmalen ausgerichtete Beschreibung der Gattung. Stattdessen notierte er: „Nosce te ipsum“ („Erkenne dich selbst“) und ging demnach davon aus, dass jeder Mensch genau wisse, was ein Mensch sei. Die Gattung "Homo" unterteilte er in vier Varianten: "Europæus", "Americanus", "Asiaticus" sowie "Africanus" und gab ihnen jeweils noch Farbmerkmale bei – "albescens", "rubescens", "fuscus" und "nigrans", gleichbedeutend mit hell, rötlich, braun und schwarz. 1758, in der 10. Auflage von "Systema Naturæ", bezeichnete Linné den Menschen zwar erstmals auch als "Homo sapiens" und führte zudem diverse angebliche charakterliche und körperliche Merkmale der Varianten an, verzichtete aber weiterhin auf eine Beschreibung der Gemeinsamkeiten, also auf eine Diagnose (Definition) der Art. 1775 bezeichnete Johann Friedrich Blumenbach in seiner Dissertation "De generis humani varietate nativa" („Über die natürlichen Verschiedenheiten im Menschengeschlechte“) die von Linné eingeführten Varianten als die vier „Varietäten“ des Menschen und beschrieb einige ihrer gemeinsamen Merkmale. Diese Gemeinsamkeiten führte er – mehr als 80 Jahren vor Darwins "Die Entstehung der Arten" – darauf zurück, dass sie einer gemeinsamen „Gattung“ entsprungen seien. Jedoch erwiesen sich auch diese Merkmale nicht als geeignet, mit ihrer Hilfe zu entscheiden, ob Fossilien der Art "Homo sapiens" zuzuordnen oder nicht zuzuordnen sind. Einen Schritt weiter ging der Botaniker William Thomas Stearn und erklärte 1959 Carl von Linné selbst („Linnaeus himself“) zum Lectotypus der Art "Homo sapiens". Diese Festlegung ist nach den heute gültigen Regeln korrekt. Carl von Linnés sterbliche Überreste (sein im Dom zu Uppsala bestattetes Skelett) sind daher der nomenklatorische Typus des anatomisch modernen Menschen. Dennoch fehlt auch weiterhin eine allgemein anerkannte Diagnose der Art "Homo sapiens": „Unsere Art "Homo sapiens" war niemals Gegenstand einer formalen morphologischen Definition, die uns helfen würde, unsere Artgenossen in irgendeiner brauchbaren Weise in den dokumentierten fossilen Funden zu erkennen.“Jeffrey H. Schwartz und Ian Tattersall: "Fossil evidence for the origin of Homo sapiens." In: "American Journal of Physical Anthropology", Band 143, Supplement 51 (= "Yearbook of Physical Anthropology"), 2010, S. 94–121, Im Original: "Our species Homo sapiens has never been subject to a formal morphological definition, of that sort that would help us in any practical way to recognize our conspecifics in the fossil record." Mangels klarer morphologischer Kriterien erfolgt die Zuordnung von Fossilien zu "Homo sapiens" häufig primär aufgrund ihres datierten Alters, eines bloßen paläontologischen Hilfskriteriums. Entwicklungsgeschichte und Ausbreitung der Spezies. a> (ocker); die Zahlen stehen für Jahre vor heute. Die Entwicklung des Menschen führte vermutlich über Arten, die den nachfolgend aufgeführten Arten zumindest ähnlich gewesen sein dürften, zu "Homo sapiens": "Ardipithecus ramidus", "Australopithecus afarensis", "Homo rudolfensis" / "Homo habilis" und "Homo ergaster" / "Homo erectus". 160.000 Jahre alte Schädelknochen des "Homo sapiens idaltu" aus Äthiopien gelten derzeit als älteste, unbestritten dem anatomisch modernen Menschen zugeordnete Fossilien. Lange Zeit lebte die Art "Homo sapiens" in Afrika parallel zum primär europäisch und vorderasiatisch angesiedelten Neandertaler, der besonders an das Leben in gemäßigten bis arktischen Zonen angepasst war. Zahlreiche Funde unterstützen die sogenannte Out-of-Africa-Theorie, der zufolge die Ausbreitung des Menschen während der letzten Kaltzeit vom afrikanischen Kontinent aus erfolgte. Die Ausbreitungsgeschwindigkeit betrug im Schnitt 400 m/Jahr. Die Atlantikküste auf der Iberischen Halbinsel wurde frühestens vor 41.000 Jahren von "Homo sapiens" erreicht, vielleicht später. Die alternative, früher verbreitetere Hypothese vom multiregionalen Ursprung des modernen Menschen nimmt an, dass sich der "Homo sapiens" in mehreren Regionen unabhängig voneinander aus dem "Homo erectus" entwickelt hat. Nach den molekulargenetischen Untersuchungen der jüngeren Zeit kommt dieser These allerdings nur geringe Wahrscheinlichkeit zu. Mit der Entwicklungsgeschichte der Menschheit von ihren Anfängen bis zum Jetzt-Menschen beschäftigen sich insbesondere die Paläoanthropologie, die Archäologie und die Genetik. Neben der biologischen Evolution war für den Menschen auch seine kulturelle Entwicklung maßgebend, die sich unter anderem im Gebrauch von Werkzeugen und der gesprochenen Sprache manifestiert. Der kulturelle Entwicklungsstand der frühen Vorfahren des modernen Menschen war zunächst über Jahrhunderttausende hinweg nahezu konstant. Erst vor rund 40.000 Jahren beschleunigten sich – nach heutigem Kenntnisstand – die kulturellen Innovationen, und seit dem Aufkommen von Ackerbau und Viehhaltung greift der Mensch großräumig gestaltend in seine Umgebung ein. Der Mensch als soziales und kulturfähiges Lebewesen. Mit der Erforschung des Menschen als kulturell und gesellschaftlich geprägtem Lebewesen befassen sich unter anderem die Anthropologie mit ihren diversen Teildisziplinen (unter anderem Sozialanthropologie, Kulturanthropologie, Philosophische Anthropologie, Paläoanthropologie), die Sozialwissenschaften, die Philosophie und die Psychologie, die Ethnologie, aber auch Teile der Verhaltensbiologie. Der Mensch als soziales Lebewesen. Mit der aristotelischen Charakterisierung des Menschen als Zoon politikon, als ein Lebewesen also, das von seiner Natur her auf ein soziales und politisches Miteinander bezogen und angewiesen ist, liegt eine bis heute gültige Haupteinordnung vor. So ist das neugeborene Menschenkind in besonderer Intensität und Dauer auf die umfassende Fürsorge seiner Sozialpartner angewiesen, um leben und sich entwickeln zu können. Nur in menschlicher Gemeinschaft kann es die Lernanreize erhalten und verarbeiten, die es zur Teilnahme am gesellschaftlichen Leben befähigen. Mit dem Spracherwerb verbindet sich das Hineinwachsen in eine bestimmte Ausprägung menschlicher Kultur, die aus den Traditionen des jeweiligen Sozialverbands hervorgegangen ist. Indem das Bewusstsein so gearteter gesellschaftsspezifischer Traditionen in der Generationenfolge mündlich und schriftlich weitergegeben werden kann, entstehen Geschichte und Geschichtsbewusstsein. In Anpassung an bzw. in Auseinandersetzung mit seiner natürlichen und sozialen Umwelt formt sich das Individuum und gelangt zu seiner Stellung in der menschlichen Gesellschaft. Sozialität als Folge biologischer Evolutionsmerkmale. In dem der Menschwerdung zugrunde liegenden Evolutionsprozess sind einige die körperliche Entwicklung betreffende Merkmale von besonderer Bedeutung: Mit dem aufrechten Gang werden die vorderen Extremitäten zur Fortbewegung nicht mehr gebraucht und können so vielfältigen Zwecken dienen. Die menschliche Hand vermag nicht nur kräftig zuzupacken, sondern eignet sich auch für diverse Formen feinfühliger Präzisionsarbeit. Das so begründete differenzierte Zusammenwirken von Auge und Hand führt beim Menschen zum Vorrang des Gesichts- und Tastsinns gegenüber dem Geruchssinn. Der zum Greifen nicht mehr benötigte Kieferapparat springt noch weniger schnauzenartig vor als bei den anderen Primaten und ermöglicht mit den anderen an der Stimmerzeugung beteiligten Organen eine differenzierte Lautbildung. Im Vergleich mit den Tragzeiten höherer Säugerarten findet die Menschengeburt auffällig früh statt. Zu erwarten wären 21-monatige Schwangerschaften, weshalb Adolf Portmann das erste menschliche Lebensjahr als „extra-uterines Jahr des Embryo“ bezeichnet hat, in dem die Nachreifung und die Anlage wichtiger Lebensfunktionen erst noch stattfinden. Denn bei der Geburt sind die Nervenzellen im Gehirn zwar weitestgehend angelegt, aber in manchen Hirnarealen noch unverbunden. Die von den Sinnesorganen aufgenommenen Signale konfigurieren nun erst große Teile der Großhirnrinde. Nur in diesem frühen Stadium kann beispielsweise das Sehen erlernt werden, wie Erfahrungen mit Blindgeborenen gezeigt haben. Im Vergleich zu hinsichtlich ihrer Organfunktionen und Antriebe weitgehend lebensfähig geborenen Tieren ist der Mensch das unfertige, instinktreduzierte, auf Lernen und auf mitmenschliche Zuwendung angewiesene, von Natur aus "nicht festgestellte" (Friedrich Nietzsche) und deshalb weltoffene Lebewesen. Das bei vielen Tieren ausgeprägte Reiz-Reaktionsschema gilt für den Menschen nicht in gleicher Weise. Zwischen Signal und Reaktion, zwischen Bedürfnis und Befriedigung besteht für Menschen die Möglichkeit, Abstand herzustellen, den Reiz-Reaktions-Automatismus zu durchbrechen und variabel zu reagieren und zu handeln. Der Mensch lebt nicht in „geschlossenen Funktionskreisen, sondern in offenen Handlungskreisen.“ Die Kognitionsfähigkeit ermöglicht es ihm sogar, die Bedingtheit seiner Erkenntnisse als Konsequenz des mit bestimmter Ausstattung versehenen eigenen Sinnesapparats sowie der zerebralen Verarbeitungsweisen einzuschätzen. Die Erwägung von Handlungsoptionen und die Prüfung von Alternativen bestimmen das menschliche Verhaltensrepertoire aber nicht allein. Ein Großteil der Alltagsverrichtungen ist so gewohnt und eingeübt, dass sich ein Nachdenken darüber in der Regel erübrigt. Die mit den Routinen verbundene Entlastung ist gewissermaßen die sichere Verhaltensgrundlage, die der Reflexion von Handlungsoptionen und –alternativen erst Raum verschafft. Für orientierende Anreize zur eigenen Verhaltensentwicklung ist das Neugeborene aber für lange Zeit auf die Zuwendung seiner Bezugspersonen und auf Interaktion mit ihnen angewiesen. Vor allem durch Nachahmung entsteht dabei Gemeinsamkeit und wird das Menschenkind Teil der Gemeinschaft; in Trotz und Abgrenzung erfährt es sich als eigenständig. Sprache als Bewusstseinsbildner. Als conditio humana schlechthin, durch die sich der Mensch von allen anderen Lebewesen unterscheidet, gilt von alters her die Sprache. Ihre Anfänge liegen wohl 100.000 bis 200.000 Jahre zurück. Eine ausgebildete Sprachfähigkeit wird etwa vor 35.000 Jahren angenommen, zur Zeit der Höhlenmalereien von Lascaux. Die angeborene Sprachfähigkeit muss wie das Sehen frühzeitig erlernt werden; im fortgeschrittenen Alter ist das originäre Sprachlernen nicht mehr möglich. Jede der etwa 6.000 Sprachen besteht aus einem Vorrat aus Laut-Zeichen und aus Regeln zur Kombination dieser Zeichen. Dabei handelt es sich nicht um eine starre Struktur, sondern um eine im Gebrauch veränderliche. Die jeder anderen Form der sprachlichen Äußerung vorausgehende gesprochene Sprache aktiviert zugleich das Hören, das eigene und das des Gegenübers. „Die in der Struktur des menschlichen Körpers begründete Bindung der Sprache an die Stimme und das Ohr ermöglicht es der Sprache, «einen unendlichen Gebrauch» von «endlichen Mitteln» zu machen.“ Sie ist das primäre Mittel der Kontaktaufnahme und des Informations- und Meinungsaustauschs unter Menschen von Kindesbeinen an. Doch auch alle auf differenzierte Kooperation sich gründenden großen gesellschaftlichen Funktionsbereiche wie Wirtschaft, Verwaltung, Politik und Wissenschaft sind auf die sprachliche Verständigung der Beteiligten elementar angewiesen. Dem einzelnen Menschen kann die sprachliche Verarbeitung von Sinneseindrücken dabei helfen, Erlebtes auch jenseits der aktuellen Wahrnehmung festzuhalten wie auch eigene Phantasien aufzubewahren: „Ohne Erzählung – eine sprachliche Form, die Einheiten fixiert und Zusammenhänge schafft – zerfällt das Erinnerbare in isolierte Fetzen eines Gedächtnisses, dessen Zuverlässigkeit schnell dahinschwindet. […] Und wenn das geistig Geschaute nicht wieder versinken soll, braucht es die ‚Bergung’ in die sprachlichen Formen des Begriffs, der Metapher, des Satzes, des Gefüges von Sätzen.“ Dazu dienen neben mündlicher Aufbereitung und Weitergabe auch die verschiedenen schriftsprachlichen Äußerungsformen, seien es z. B. biographische Aufzeichnungen, Gebrauchsanweisungen, wissenschaftliche oder poetische Texte. Für das Hineinwachsen des Individuums in eine mit seinem sozialen Umfeld verbundene Kultur, seine Enkulturation, sind auch bestimmte allgemein verbreitete und festgeprägte Texte maßgeblich, die teils auch aufgesagt oder gesungen werden, wie etwa Sprichwörter, Lieder, Gedichte, Glaubensformeln und Gebete. Sprache ist demnach verknüpft mit der jeweiligen Lebenswelt, in der sie gesprochen wird. Kultur- und Geschichtsfähigkeit. Neben Sprache und Hören zählen die aus der Sehfähigkeit hervorgehenden Bilder zu den wichtigsten Einflussfaktoren, die die Weltwahrnehmung von Menschen bestimmen. Dabei stehen die über die Augen aufgenommenen „äußeren“ Bilder in einem Verhältnis wechselseitiger Einwirkung mit den vom Gehirn erzeugten „inneren“ Bildern. Allerdings verfügen Menschen selbst über die mit den Augen wahrgenommenen Bilder (und die daraus erzeugten inneren Bilder) nur eingeschränkt. „Wo der Blick verweilt, was er ausgrenzt, was Menschen in ihr Gedächtnis aufnehmen, sodass sie es erinnern können, ist nur zum Teil von ihrem Bewusstsein abhängig. […] Menschen sind ihren inneren Bildern ausgeliefert, auch wenn sie immer wieder versuchen, Kontrolle über sie zu gewinnen. Diese Bilder fluktuieren und verändern sich im Laufe des menschlichen Lebens. Einst wichtige Bilder verlieren an Bedeutung und werden durch neue ersetzt. Doch allen Bildern ist gemeinsam, dass Menschen sich in ihnen erfahren und sich mit ihrer Hilfe ihrer selbst vergewissern.“ Gerade der im Zeitalter des Fernsehens und der diversen Bildspeichermedien kolossal angewachsene menschengemachte Teil der Bilderwelt, in der wir leben, ist durch diese besonderen kulturellen Zusammenhänge stark geprägt. In ihnen formt sich unser "Weltbild" und die Sicht, die wir Menschen zu Grundfragen unseres Daseins entwickeln, etwa zur Liebe oder zum Tod. So ist die Deutung der eng mit dem Geschlechtstrieb verbundenen Liebe abhängig von den Mythen und rhetorischen Formen einer Gesellschaft, und sie wird in unterschiedlicher Weise sozial kontrolliert. „Das Wesen der Liebe tritt dadurch in Erscheinung, dass man von ihr erzählt. Wie von ihr gesprochen wird, bestimmt die Art und Weise, wie sie erlebt wird. Wie die Liebe ist das Sprechen über die Liebe unendlich […]; es sucht unaufhörlich nach ihrem Geheimnis, ohne es erfassen oder von ihm ablassen zu können, und verführt durch seine Versprechungen, ohne Erfüllung sichern zu können; es verweist auf eine Leere, der es sich zugleich verdankt.“ Kulturspezifisch sind auch die unterschiedlichen Formen der Wahrnehmung und des Umgangs mit dem Tod, der den Lebenden einerseits als schmerzliche Verlusterfahrung begegnet, andererseits als jene beunruhigende Leerstelle, die sich aller Lebenserfahrung entzieht. Mit den verschiedensten Riten, Mythen und Bildgestaltungen suchen die Menschen von jeher das Phänomen des Todes zu bewältigen und zu ertragen. Und doch: „So viele Bilder und Metaphern die Einbildungskraft auch entwirft, um mit dieser Leerstelle umzugehen, es gelingt ihr nur unzulänglich.“ Geburt und Tod begrenzen die lebensweltliche Zeitspanne des Individuums. Menschliches Zeiterleben gründet sich zunächst auf die Erfahrung, dass etwas eine Weile dauert, das eine (zu) kurz, das andere (zu) lang – bis hin zur Langeweile. Es nimmt Gestalt an beispielsweise in den verschiedenen Lebensaltern von der Kindheit bis zum Greisenalter und bekommt individuellen Zuschnitt durch besondere Ereignisse und Erlebnisse wie etwa Schulbeginn, erste Verliebtheit, Berufseinstieg oder Partnerverlust. „Da keiner allein lebt, ist jeder in Geschichten verwickelt: die Geschichten des Volkes in Krieg und Frieden, in Wohlstand und Armut, die Geschichten der Familie, die Geschichten von Verwandten, Freunden und Feinden. Manche von diesen Geschichten kommen von weit her, verästeln sich endlos. Wir tragen ihre Gewichte im Guten wie im Bösen mit uns herum, werden von ihnen in bestimmte Richtungen gelenkt und lenken sie selbst so oder so weiter, bis ‚unsere’ Zeit vorbei ist und die Zeit anderer Generationen kommt.“ Alles menschliche Handeln in der Gegenwart findet statt zwischen einer feststehenden Vergangenheit und einer teilweise gestaltbaren Zukunft. Das im mitmenschlichen Umgang und durch entsprechende Anregungen erworbene Einfühlungs- und Vorstellungsvermögen eröffnet Möglichkeiten, sich in Vergangenes näherungsweise hineinzuversetzen und plausible Erwartungen an die Zukunft zu entwickeln. Die menschliche Fähigkeit, zu nützlichen Einsichten für die Alltagsbewältigung wie für die Zukunftsgestaltung zu gelangen ist allerdings durch mancherlei hinderliche Einflüsse gefährdet: durch Vergessen und Ausblenden, einseitige Betrachtungsweisen und voreilige Verallgemeinerungen, durch Versinken im Detail oder ungeordnete Informationsüberflutung, durch interessengeleitete Verschleierung oder die fatale Unterschätzung des Nichtwissens im Verhältnis zum Wissen: „So gesehen ist die Wahrheit nur im dauernden Kampf gegen die je neu wachsende Macht des Scheins zu erringen; ist das, was wir von ihr erfassen, immer nur Stückwerk, das außerdem gewissermaßen von selbst zerfällt, wenn man es nicht permanent frisch hält. Diese skeptische Erkenntnis ist jedoch, wie Sokrates erfasste, nicht das Ende, sondern der Anfang aller wahren Erkenntniskultur, im Leben wie in der Wissenschaft.“ Menschheitsfragen. In mancher Hinsicht bleibt sich der Mensch auch bei intensiver Selbstprüfung und vielseitiger wissenschaftlicher Erforschung bislang ein Rätsel. Zu den ungelösten bzw. stark umstrittenen Fragen gehören das Phänomen und die Bedingungen des menschlichen Geistes – speziell das Verhältnis von Körper und Geist –, das Problem der Willensfreiheit, die künftige Rolle von Gentechnik und künstlicher Intelligenz in der Menschheitsentwicklung, der Umgang mit anthropogenen Veränderungen der natürlichen Umwelt sowie die Frage nach dem Sinn des menschlichen Lebens. Körper und Geist – untrennbar verbunden? Ob der menschliche Geist auch unabhängig vom individuellen Körper besteht oder bestehen kann, ist die Grundfrage des Leib-Seele-Problems, an der sich seit Platon und Aristoteles die Geister scheiden. Nicht nur in der Philosophie, sondern auch z. B. in der psychosomatischen Medizin und in der Religion spielt diese Frage eine wichtige Rolle. Während Platon im Einklang mit seiner Ideenlehre das Geistige vom Leiblichen zuletzt dualistisch scheidet (die neuzeitlich-klassische Variante dazu ist Descartes’ Formel: Cogito ergo sum), vertritt Aristoteles die Einheit von Körper und Seele des Menschen, die unabhängig voneinander nicht existieren könnten. Wie Aristoteles leiten auch die beiden Vordenker der philosophischen Anthropologie, Max Scheler und Helmuth Plessner, die besondere Qualität mentaler Prozesse beim Menschen vom Vergleich mit Pflanzen und Tieren ab. Im Gegensatz zu den Pflanzen seien Tiere und Menschen nicht ortsgebunden, sondern können sich im Raum bewegen. Nur der Mensch aber könne auch zum eigenen Körper mental eine distanzierte, reflektierende Position einnehmen: Denn er "habe" erstens einen Körper, "sei" zweitens ein Körper mit Seele und Innenleben und könne das drittens von einem außerhalb seiner selbst liegenden „nicht realen“ Blickpunkt aus wahrnehmen. Diese Position wird allerdings von anderen Philosophen wie z. B. Charles Taylor abgelehnt, die darin lediglich eine Selbstbeschreibung des besonderen Menschenbilds der westlichen Zivilisation seit dem Ende des 19. Jahrhunderts sehen. Willensfreiheit oder Determiniertheit? Aufgrund seiner „Exzentrizität“ folgt der Mensch – anders als Tiere im Allgemeinen sonst – nicht allein dem instinktiven Lebensdrang, sondern kann sich dazu variabel verhalten, kann selbst gesetzten Zielen zustreben und hat Steuerungsmöglichkeiten in seinem Leben. Zwar gibt es ein weites Feld alltäglicher Verrichtungen, die in den gewohnten Bahnen gleichsam automatisch ablaufen und wenig Aufmerksamkeit erfordern. Daneben sind aber situations- und gelegenheitsbedingte Entscheidungen zu treffen, die auf kurze, mittlere oder lange Sicht bestimmte Weichenstellungen bedeuten. In solchen Entscheidungen und den daraus folgenden Handlungen (oder auch in entsprechenden Unterlassungen) ist das Potential menschlicher Willensfreiheit als Komponente enthalten. Dieses Potential kann sich äußern in Augenblickshandlungen ohne weiterreichende Bedeutung, in einer vorsätzlichen, häufiger wiederkehrenden Verhaltensweise oder auch in einem dauerhaften Gestaltungsprogramm für diesen oder jenen Lebensbereich. Einige Deterministen (unter ihnen Physiker, Psychologen und Hirnforscher) bestreiten die Existenz eines freien Willens. Sie gehen davon aus, dass individuelles Handeln stets das Ergebnis einer mehr oder minder ausgedehnten Kette von Wirkungsursachen ist, die menschliches Bewusstsein in diese oder jene Richtung steuern. Der individuelle Entscheidungsprozess sei nur scheinhaft; der Ausgang stehe im Vorhinein fest; von einem freien Willen könne keine Rede sein. Andere kritisieren diese Auffassung, da sie auf der Vorstellung eines "unbedingten" freien Willens basiere, die begrifflich nicht stimmig sei. Sie setzen einen Wirkungsursachen einbeziehenden "bedingten" freien Willen entgegen. In der gesellschaftlichen Praxis spricht vieles dafür, am Konzept der freien Willensentscheidungen mit Bedacht festzuhalten. Nur damit lässt sich beispielsweise in der Rechtsprechung die Frage individueller Schuld und Unschuld überhaupt sinnvoll stellen. Ohne ein solches Freiheitskonzept entfiele aber auch die Erwartung, „dass es eine echte Zukunft gibt, die nicht nur die Verlängerung des Gewesenen ist.“ Vom Geschöpf zum Selbsterzeugnis? Welche Zukunft die Menschheit vor sich hat, ist neuerdings auch eine Frage des Umgangs mit den Entwicklungen in der Biotechnologie und Bioethik. War die genetische Ausstattung des einzelnen Menschen im bisherigen Verlauf der Menschheitsgeschichte eine unveränderliche, natürliche Vorgabe, die seinen Lebenslauf und sein Schicksal mitbestimmte, so werden gegenwärtig auf dem Wege der Genomanalyse, des Klonens und der Erprobung von Eingriffen in die Keimbahn biotechnologisch neue Horizonte eröffnet. Sie werden je nach Anwendungsbereich und persönlichem Standort als Verheißung begrüßt oder als Bedrohung gefürchtet. So stehen der Aussicht auf Vorbeugung und Heilung von Krankheiten andere Perspektiven gegenüber, die Möglichkeiten „eugenischer Selektion und Züchtung sowie die Reduktion des Menschen auf einen Träger genetischer Informationen und auf ein Objekt ökonomischer Interessen“ aufzeigen. Nicht zuletzt auf das menschliche Gehirn als Hervorbringungsort von Geist und Intellekt sowie als emotionales Steuerungszentrum sind die Optimierungsbemühungen im Überschneidungsbereich von Neurowissenschaften und Biotechnologie gerichtet. Neben den herkömmlichen und neueren Drogen, Psychopharmaka und Aufputschmitteln zur Beeinflussung der Hirntätigkeit spielen auch Neuroimplantate zunehmend eine Rolle in der Diskussion um den Ausgleich von Hirnfehlfunktionen und bei der Planung eines perfektionierten kognitiven Leistungsvermögens. Die einschlägige Debatte befasst sich bereits mit Implantaten zur optimalen Anpassung an moderne Arbeitsprozesse. „Solche Überlegungen zum Neuroenhancement sind schon deshalb nahe liegend, weil ein entsprechendes Vorgehen der künstlichen Optimierung der Leistungsfähigkeit des menschlichen Körpers (etwa im Leistungssport) analog ist. Hier würde es sich mithin nur um eine Erweiterung einer gängigen Praxis handeln.“ Mag man reprogenetischen und computertechnischen Visionen von einem „neuen Menschen“ – eine sehr alte Vorstellung – auch skeptisch begegnen, steht andererseits die Gewöhnung an neurochirurgische Eingriffe und elektronische Implantate wohl zu erwarten, denn: „Dass wir mit dem Bestehenden, auch mit uns unzufrieden sind, ist eine anthropologische Konstante.“ Während einerseits Forschungen begonnen haben, die aus Menschen als kulturell geprägten Naturgeschöpfen mehr oder weniger biologisch programmierte Kreaturen machen könnten, gibt es andererseits auch Bestrebungen zur Schaffung außermenschlicher bzw. künstlicher Intelligenz. Dabei handelt es sich über das Vermögen etwa von Schachcomputern zur Verarbeitung großer Datenmengen und zum logischen Kalkül hinaus um Lernfähigkeit und Anpassungsfähigkeit an komplexe Situationen. Über Fortgang und Ausgang solcher Vorhaben kann einstweilen nur spekuliert werden: „Die biotechnologische Forschung lebt von den überlieferten Träumen der Menschheit und arbeitet an ihrer Realisierung. In einer entwicklungsoffenen Zukunft könnte an der Schnittstelle von natürlicher Künstlichkeit technologisch optimierter menschlicher Organismen und künstlicher Natürlichkeit organisch-technologischer Systeme aus der Analogie von Mensch und Maschine eine Gleichung werden.“ Von der Umweltgestaltung zur Umweltzerstörung? Spätestens seit der Neolithischen Revolution hat der Mensch begonnen, die vorgefundene natürliche Umwelt durch den Übergang zu Sesshaftigkeit und Agrikultur sowie mit der Schaffung städtischer Lebensräume markant zu verändern. Als Folgen der Industriellen Revolution und einer rasant wachsenden Weltbevölkerung werden die menschlichen Eingriffe in die naturgegebene Ordnung immer mehr zu einem ökologischen Problem, das etwa im Zusammenhang mit der globalen Erwärmung die natürlichen Lebensgrundlagen des heutigen Menschen überhaupt in Frage stellt. Diese Herausforderung ist umso ernster, weil Luft und Atmosphäre wie die Weltmeere als Allgemeingut (Allmende) traditionell jedermanns freier Nutzung unterliegen, die Verzichtsleistung Einzelner zu ihrer Schonung aber kaum ins Gewicht fällt: die Tragik der Allmende. Ob der angelaufene Umsteuerungsprozess bei der Nutzung fossiler Energieträger im Sinne des Klimaschutzes das Problem ausreichend lindern wird, könnte auch davon abhängen, welche menschlichen Potentiale in dieser Frage überwiegen: der individuelle Hang zu optimistischer, illusionsbehafteter Selbsteinschätzung und Zukunftserwartung oder ein aufklärerisches Denken, das den „Schatten der Zukunft“ zu einem grundlegenden Maßstab für das Handeln in der Gegenwart macht. Einem teils bedrohlich wahrgenommenen Wandel ist auch die kulturelle Umwelt vieler Menschen im Zuge der Globalisierung ausgesetzt, die von weltweiter wirtschaftlicher und medialer Vernetzung angetrieben, Veränderungen gesellschaftskultureller Art sowie neue Lebensformen und Lebenswelten hervorbringt. Werden damit einerseits Hoffnungen auf eine Weltgesellschaft mit universeller demokratischer Kultur gespeist, so steht für andere die Erwartung von Identitätsverlust im Vordergrund und damit verbunden das Beharren auf der Notwendigkeit kultureller Differenz. „Angesichts einer auf weltweite Angleichung zielenden Globalisierung ist die Fähigkeit, Differenz wahrzunehmen und zu akzeptieren, besonders wichtig und kann dazu beitragen, Gewalt zu reduzieren. Doch auch die Akzeptanz kultureller Vielfalt stößt an eine Grenze, die für viele durch die Menschenrechte und durch eine globale Ethik bestimmt wird. Konflikte, die dabei mit den Angehörigen anderer Kulturen entstehen, müssen ausgehalten und nach Möglichkeit gewaltfrei ausgetragen werden.“ Hat das Leben einen Sinn? Die Frage nach dem Sinn aufzuwerfen, ist dem Menschen wiederum nur als einem Wesen möglich, das nicht in den Lebensvollzügen aufgeht, wie es bei Pflanzen und Tieren der Fall ist, sondern Abstand zum eigenen Tun herstellen und zu sich selbst eine beobachtende Haltung einnehmen kann. Was und wozu der Mensch sei, gehört darum zu den Grundfragen von Religion und Philosophie. Die Reflexion der Sinnfrage kann auf unterschiedlichen Ebenen ansetzen: an einzelnen Lebenssituationen, am Sinn eines bestimmten individuellen Lebens im Ganzen und am Dasein von Menschen überhaupt. Einer allgemeingültigen Beantwortung – etwa als Ergebnis wissenschaftlicher Untersuchungen – entzieht sich eine solche Frage jedoch: „Diese Suche ist Sache jedes Einzelnen, meistens in dem Maß, wie er durch seine Veranlagung und seine Geschichte zu ihr befähigt und auch gedrängt ist. Wegen der großen Verschiedenheit der Lebensschicksale und wegen der wesentlich persönlichen und praktischen Natur der Sinn-Erfassung ist hier eine allgemeine anthropologische Wissenschaft und Reflexion überfordert; sie kann dem Einzelnen sein persönliches Suchen, Irren und Finden nicht abnehmen, indem sie ihm verlässliche theoretische Auskünfte und praktische Anweisungen lieferte.“ Auch für den einzelnen Menschen stellt sich aber die Sinnfrage weder ständig noch in der Weise, dass sie ein für alle Mal zu beantworten ist, sondern hauptsächlich in Entscheidungssituationen, in denen eine sinnträchtige Wahl getroffen sein will. Günstig dafür, dass die Frage nach dem Sinn des Lebens vom Einzelnen positiv beantwortet werden kann, sind Selbstakzeptanz und die Annahme der eigenen Lebenssituation wie auch eine mit dem Tod sich positiv abfindende Haltung. „Wer ein erfülltes Leben hat, ist auch bereit zu gehen, und diejenigen kleben am meisten am Überleben, die am wenigsten gelebt haben. Wer nicht weiß, wofür es sich wirklich zu leben lohnt, verdrängt den Tod; und wer etwas kennt, das es wert ist, dass man notfalls dafür das Leben riskiert, weiß auch, wofür es sich lohnt zu leben.“ Mohenjo-Daro. Mohenjo-Daro (manchmal auch "Mohanjo-Daro" oder "Moenjo-Daro" geschrieben) ist eine historische stadtähnliche Siedlung am Unterlauf des Indus im heutigen Pakistan ca. 40 km südlich der Stadt Larkana. Sie war ungefähr von 2600 bis 1800 v. Chr. Teil der Indus-Kultur. Sie zeigt keine der üblichen Herrschaftsstrukturen, zentraler Bau ist ein Bad. Der Ort wurde verlassen und geriet danach in Vergessenheit, erst 1922 (andere Quellen: 1924) wurde er von britisch-indischen Archäologen wiederentdeckt. Geleitet wurden diese Ausgrabungen von Sir John Marshall, dem damaligen Direktor des Archaeological Survey of India. Verbunden mit den Ausgrabungen um 1950 ist der Name Sir Mortimer Wheeler. Mohenjo-Daro ist besser erhalten als das wenige Jahre vorher gefundene Harappa. Mohenjo-Daro ist das vermutete Hauptzentrum der Harappa- oder Induskultur, einer der drei frühen Hochkulturen der Menschheit im 3. Jahrtausend v. Chr. Der Name bedeutet im modernen Sindhi „Hügel der Toten“. Mohenjo-Daro steht als die größte erhaltene Stadt der Bronzezeit auf der Liste des UNESCO-Weltkulturerbes. Der Ruinenhügel ist in der Ebene schon von Weitem zu erkennen. Die westlich der Unterstadt gelegene Zitadelle (ein späterer Bau) ragt am höchsten – bis zu 15 Meter – empor. Vor 4500 Jahren muss das Bild noch eindrucksvoller gewesen sein, da der Indus die Ebene seit dieser Zeit um mehr als 7 Meter aufgeschwemmt hat. Entstehung und Blütezeit. Die Harappa-Kultur entwickelte sich aus den regionalen Vorgängerkulturen um Zentren wie Amri und Kot Diji. Das fruchtbare Industal ist in diesem Gebiet ungefähr 100 Kilometer breit. Die Stadt erlangte ihre Blüte um 2500 v. Chr. und hatte zu dieser Zeit ca. 30.000 bis 40.000 Einwohner. Ermöglicht wurde dies durch einen kurzen, aber intensiven Innovationsschub. Dieser bestand im Wesentlichen in der Nutzbarmachung des Indus, zum einen für die Landwirtschaft, zum anderen als ganzjähriger Transportweg. Da die untere Indusebene während der Überschwemmungsperiode von Juli bis Oktober auf dem Landweg nicht ausreichend erreichbar war, war dies von entscheidender Bedeutung. Erreicht wurde jene Transportfähigkeit durch enorme Plattformunterbauten aus gebrannten Ziegeln, wodurch auch nahe dem Ufer des Indus gebaut werden konnte. Weiterhin entwickelte sich in dieser Zeit eine Gesellschaftsstruktur, die den Sprung von den dezentral organisierten Dorfsiedlungen zu einem städtisch geprägten politisch-wirtschaftlichen System erst ermöglichte. Zudem entstand eine Schrift, die Indus-Schrift, die sich vorwiegend auf kleinen Steatitsiegeln befindet. Diese Schrift konnte bisher jedoch noch nicht entschlüsselt werden. Ungebrannte Lehmziegel des heutigen Handformats (ca. 6 × 13 × 27 cm) waren Standard in der Hochkultur. Aus diesen wurden nahezu alle Gebäudeteile gefertigt – so auch die Infrastruktur mit ihrer Wasserversorgung und über 600 Brunnen sowie die Abwasserkanäle zur Entsorgung. Wissen und Vermutungen. Einerseits ist Mohenjo-Daro die größte noch erhaltene historische Siedlung aus der Bronzezeit und viele Erkenntnisse können dadurch als gesichert bezeichnet werden. Andererseits existieren auch viele Annahmen und Vermutungen, so auch aus der Zeit der Wiederentdeckung. So wird etwa ein enormes Gebäude (ca. 60 × 27 Meter) als Kornspeicher bezeichnet, obgleich dies keinesfalls als gesicherte Erkenntnis anzusehen ist. Es wird vermutet, dass dieses Gebäude in früherer Zeit einen gewaltigen hölzernen Aufbau besaß. Das Unikat einer 17 cm hohen Statuette wird als Priesterkönig gedeutet; er trägt jedenfalls ein Diademband oder eine Art Königsbinde. Andererseits fanden sich in der gesamten Stadt – anders als bei den Hochkulturen in Mesopotamien und am Nil – keine weltliche oder sakrale Herrschaftsarchitektur. Zumindest konnte nichts durch ausreichend begründete Indizien und Fakten untermauert werden. Eine 60 × 30 Meter große Anlage wird als „Großes Bad“ bezeichnet. Im Innenhof existiert ein 7 × 12 Meter großes Bassin, das etwa 2 Meter tief in den Boden versenkt ist. Wahrscheinlich ist für dieses eine rituelle Nutzung. Doch auch dies ist keinesfalls gesichert. Stupa. Um die Wende zum 1. nachchristlichen Jahrtausend war das Klima noch erträglich. Jedenfalls wurde im 2. oder 3. Jahrhundert n. Chr. auf der Spitze des Zitadellen-Hügels aus Lehmziegeln ein weithin sichtbarer buddhistischer Stupa erbaut; von dem wahrscheinlich zu seinen Füßen existierenden Mönchskloster ist nichts mehr erhalten. Klima. Mohenjo-Daro ist der heißeste Ort in Asien und einer der heißesten Orte der Welt. Die höchste registrierte Temperatur liegt bei 53,5 °C. Temperaturen über 50° C im Sommer sind keine Seltenheit, in kalten bewölkungsarmen Winternächten fällt das Thermometer manchmal sogar unter 0° C. Mohenjo-Daro ist auch einer der niederschlagsärmsten Orte Pakistans; selbst in den Monsunmonaten Juli und August gibt es nur sehr wenig Regen. Mayonnaise. Mayonnaise, umgangssprachlich auch als "Mayo" bzw. "Majo" bezeichnet, ist eine dickflüssige, kalt hergestellte Sauce auf der Basis von Eigelb und Öl. Die Grundlage liefert eine Emulsion von Öl und Zitronensaft bzw. Essig, wobei das Lecithin aus dem Eigelb als Emulgator dient. Der durchschnittliche Verbrauch von als Mayonnaise deklarierter Ware liegt in Deutschland und der Schweiz bei rund 1 Kilogramm pro Jahr und Person. Herkunft. Verbreitet ist die Auffassung, dass die Mayonnaise ihren Ursprung auf den Balearen hat und ihr Name sich von der menorquinischen Hafenstadt Mahón ableitet. Am 28. Juni 1756 kapitulierte dort die britische Besatzung der Festung St. Philipe vor angreifenden französischen Truppen unter der Führung des Herzogs von Richelieu. Zur Feier des französischen Sieges sei eine kaltgerührte Sauce kreiert worden, die damals in der französischen Küche noch gänzlich unbekannt war. Richelieu habe das Rezept in Frankreich eingeführt, und von dort sei die Mayonnaise weltweit verbreitet worden. Eine Variante der Theorie besagt, dass "Mahonnese" während der Belagerung aus der Not heraus zubereitet wurde. Laut dem Etymologischen Wörterbuch der deutschen Sprache ist diese Herkunft nicht sehr wahrscheinlich. Vermutet wird stattdessen eine sprachliche Ableitung aus dem französischen Verb "mailler" – zu Deutsch: "schlagen" –, da die Mayonnaise geschlagen wird. Einer anderen Anschauung zufolge ist die Mayonnaise aus der katalanischen Aioli hervorgegangen, die durch Mörsern hergestellt wird. Nach ihrem Grundrezept wird fein zerstoßener Knoblauch mit Öl zu einer Emulsion aufgeschlagen und anschließend mit Salz abgeschmeckt. Aioli wurde bereits im Jahr 1024 erstmals schriftlich erwähnt. Herstellung. Man verrührt das Eigelb mit Salz, Pfeffer, je nach Rezept Senf, etwas Flüssigkeit (Wasser, Zitronensaft, Essig). Denn neben dem Eigelb wirkt auch der Senf als Emulgator, da Schalenbestandteile der Senfsaat im Senf an Grenzflächen stabilisierend wirken können (Partikelemulsionen). Unter starkem Rühren wird anschließend Öl zugegeben. Industriell hergestellte Mayonnaise wird zumindest im deutschsprachigen Raum fast ausschließlich aus pasteurisierten Eibestandteilen hergestellt. Chemische und physikalische Aspekte. Die Grenzflächenspannung eines Öl-Wasser-Gemenges beträgt ca. 23 mN/m. Damit eine stabile Emulsion entsteht, muss die Grenzflächenspannung durch die Zugabe von Emulgatoren, z. B. in Form von Eigelb, herabgesetzt werden. Dass es dennoch notwendig ist, das Öl zunächst nur tropfenweise unter ständigem Rühren hinzuzufügen, hat seinen Grund im Aufbau der Mayonnaise und in der Natur des Emulgators. Lecithin begünstigt wegen seines HLB-Wertes eine O). Soll Mayonnaise jedoch die gewünschte Konsistenz haben, muss sich eine W) bilden. Würde man aber die Bestandteile von Mayonnaise auf einmal zusammenmischen, entstünde aufgrund der Eigenschaft des Lecithins eine W/O-Emulsion. Um eine Phasenumkehr zu vermeiden, ist es wichtig, den als disperse Phase veranlagten Teil in einem großen Volumenüberschuss in ein Gemisch zu geben. Im Falle der Mayonnaise kommt also viel Wasser (etwa aus dem Essig) auf wenig Öl (einige Tropfen). So kann das Lecithin entgegen seiner Neigung eine stabile O/W-Emulsion erzeugen. Der Trick besteht nun weiter darin, die bereits vorhandenen dispersen Öltropfen weiter mit Öl „zu füllen“. Ab einem bestimmten Volumenanteil ist aber auch eine so hergestellte O/W-Emulsion nicht mehr stabil und bricht. Bei den im Ei enthaltenen Ölen handelt es sich hauptsächlich um Triglyceride, welche überwiegend aus Wasserstoff- und Kohlenstoffatomen bestehen. Damit sich diese mit Wasser vermischen können, werden zusätzliche Emulgatoren benötigt, die sowohl auf Wasser als auch auf die Triglyceride anziehend wirken und schwache Bindungen eingehen. Mayonnaise kann durch Beigabe geeigneter Emulgatoren einen Ölanteil von bis zu 80 % erreichen. Emulgatoren verhindern über die elektrostatische Bindung auch, dass das Öl wieder größere Tropfen bildet: die Emulsion bleibt bestehen. Säuren wie Zitronen- oder Essigsäure verstärken diesen Effekt. Damit die Mayonnaise genügend dickflüssig wird, muss sie kräftig geschlagen werden. Dadurch werden die Öltropfen der Emulsion immer weiter zerteilt. Wenn die Mayonnaise zu dick geworden ist, kann man Flüssigkeiten wie Wasser, Essig oder Zitronensaft zugeben, um die Emulsion wieder aufzulockern. Hierdurch wird die disperse Phase verdünnt und die Viskosität reduziert. Die Menge des Öls, die man je Ei zugeben darf, um Mayonnaise herzustellen, variiert sehr stark je nach Rezeptur. Üblich sind maximal 0,1 bis 0,2 Liter Öl je Eigelb, um ein Gerinnen des Eis zu verhindern. Die Gefahr dazu besteht, weil das Ei nicht ausreichend Wasser enthält, um das Öl in einer Wasserphase zu binden. Durch Hinzufügen von Wasser kann man also eine größere Menge Mayonnaise mit einem einzelnen Ei herstellen. Durch Zugabe von 2 bis 3 Teelöffeln Wasser je Tasse Öl lassen sich mit einem einzelnen Ei bis zu 24 Liter Mayonnaise herstellen, da das Eigelb eine große Menge an Netzmittel enthält. Die industrielle Herstellung von Mayonnaise erfolgt fast ausnahmslos unter Einsatz hochtouriger Homogenisiermaschinen, sogenannter Kombinatoren. Vor allem finden Zahnkranzdispergiermaschinen und Kolloidmühlen Verwendung, die nach dem Rotor-Stator-Prinzip arbeiten. Die Rohemulsion wird durch das Rotor-Stator-System der Maschine gepumpt, wobei durch Druck bzw. heftige Strömungen Scherkräfte entstehen, deren Stärke die Festigkeit der Öltropfen übertreffen, sodass diese in feinste Teilchen zerrissen und gleichmäßig in der Emulsion verteilt werden. Monty Python. Monty Python war eine britische Komikergruppe. Sie wurde 1969 gegründet und hatte ihre Blütezeit in den 1970er Jahren, in denen die Fernsehserie "Monty Python’s Flying Circus" und mehrere Kinofilme, unter anderem "Das Leben des Brian", entstanden. 1983 löste sich die Gruppe vorerst auf. Der letzte gemeinsame Auftritt aller sechs Mitglieder fand 1989 zur Produktion der Jubiläumszusammenstellung "Parrot Sketch Not Included – 20 Years of Monty Python" statt. Nach dem Tod von Graham Chapman traten die verbliebenen fünf Mitglieder 2014 wieder gemeinsam auf (wenngleich ohne viel neues Material). Mit der letzten Show am 20. Juli 2014 löste sich die Gruppe auf. Ihr humoristischer Einfluss gilt bis heute als wegweisend und wurde von zahlreichen Komikern adaptiert und weiterentwickelt. Entstehung und Geschichte. Cleese, Chapman und Idle studierten an der Universität Cambridge, Palin und Jones an der Universität Oxford, wo sie im Schreiben und Darstellen komischer Sketche erste Erfahrungen sammelten. Sowohl Palin und Idle als auch Cleese, Chapman und Jones hatten bereits für die BBC gearbeitet, als Cleese Anfang 1969 vorschlug, sich zusammenzutun. Diese Gruppenbildung beim Skript-Schreiben blieb während der Monty-Python-Zeit weitgehend bestehen, Terry Jones bezeichnete dies später als „The Oxford-Cambridge-Divide“. Das sechste Mitglied, der US-Amerikaner Terry Gilliam, kam vom Occidental College, Los Angeles, dazu. Er zeichnete sich hauptsächlich durch seine surrealen Cut-Out-Animationen aus, spielte aber auch kleinere Rollen (meist ohne Text). Im Laufe der Zeit übernahm er immer öfter die Regie bei den Sketchen und Filmen. Häufige Mitarbeiter der Gruppe waren Carol Cleveland, Connie Booth und Neil Innes, die in zahlreichen Sketchen des „Flying Circus“ und auch in den meisten Kinofilmen mitwirkten. Von 1969 bis 1974 drehte die Gruppe für die BBC 45 Folgen (drei Staffeln mit je 13 Folgen, eine Staffel mit sechs Folgen) der Serie "Monty Python’s Flying Circus", in der Sketche und Trickfilmszenen gemischt wurden. Die erste Sendung wurde am 5. Oktober 1969 um 23:00 Uhr ausgestrahlt. In den Jahren 1971 und 1972 wurden zwei Folgen in deutscher Sprache als "Monty Pythons fliegender Zirkus" speziell für das deutsche und österreichische Fernsehen produziert und gesendet. Die Serie bestach durch ihren überaus ungewöhnlichen, oft absurden Humor. In Anlehnung an den Ausdruck „kafkaesk“ wurde diese Stilrichtung auch als „pythonesk“ bezeichnet. Sie zeichnet sich durch hintersinnigen und vor allem schwarzen Humor aus. Die Serie gilt sowohl formal als auch inhaltlich als wegweisend für das Genre der Comedy; insbesondere der Verzicht auf eine Schlusspointe im Anschluss an eine besonders absurde Szene war revolutionär und wirkte stilbildend. Bewusst wurden Sketche und ganze Folgen im Widerspruch zu den Sehgewohnheiten als Bewusstseinsstrom inszeniert; auch die Vierte Wand wurde häufig durchbrochen. Dabei lag hinter der Absurdität der Sketche nicht selten auch harsche Gesellschaftskritik verborgen. Bekannt ist auch die Erkennungsmelodie aus "Monty Python’s Flying Circus": Es handelt sich um John Philip Sousas Marsch "The Liberty Bell". Nachdem John Cleese bereits nach dem zweiten Jahr mit dem Gedanken gespielt hatte, die Gruppe zu verlassen, war er schließlich in der vierten Staffel nicht mehr dabei. Es wurden nur noch sechs Folgen erstellt, wobei aber trotzdem noch Texte von John Cleese (mit seinem Einverständnis) verwendet wurden. Nach ihrer Zeit beim Fernsehen wandten sich Monty Python dem Film zu, nun wieder unter Mitwirkung von Cleese. "Monty Pythons wunderbare Welt der Schwerkraft" (Originaltitel: "And Now For Something Completely Different") wurde bereits während der Zeit des "Flying Circus" für das Kino gedreht. Er enthielt fast ausnahmslos neu gedrehte Sketche, die aber bereits im "Flying Circus" zu sehen gewesen waren. Im direkten Anschluss begannen in Schottland die Dreharbeiten zum zweiten Kinofilm "Die Ritter der Kokosnuß" (Originaltitel: "Monty Python and the Holy Grail"), eine Parodie auf die Artussage und das Genre der Ritterfilme. Im Jahr 1979 drehte die Gruppe ihren wohl einflussreichsten und bekanntesten Film, "Das Leben des Brian". Der von George Harrison produzierte Film befasst sich satirisch und mit schwarzem Humor mit religiösen und sozialen Themen und parodiert zugleich die Bibelfilme der 1950er und 1960er Jahre: Der Protagonist Brian, geboren zur selben Zeit wie Jesus von Nazareth, wird immer wieder für den Messias gehalten und schließlich gekreuzigt. Aufgrund des kontroversen Inhaltes des Filmes protestierten beispielsweise britische und amerikanische konservative Christen dagegen; nicht selten in der irrigen Annahme, Brian solle Jesus sein. So nahmen manche Kinobetreiber Monty Pythons Werk aus Rücksicht auf religiöse Empfindsamkeiten nicht ins Programm auf. Mit Chapman, Idle und Cleese traten 1983 drei der sechs Mitglieder in der Piratenfilm-Parodie "Dotterbart" (‚Yellowbeard‘) auf, wobei Chapman auch am Drehbuch beteiligt war. Noch im gleichen Jahr beendete die Gruppe zunächst ihre Zusammenarbeit, unter anderem aufgrund des verschlechterten Gesundheitszustands von Graham Chapman, der an schwerem Alkoholismus litt. Als er 1989 an Krebs starb, versammelten sich die verbliebenen Gruppenmitglieder bei der Trauerfeier; Cleese und Palin hielten vielbeachtete Reden, und alle gemeinsam sangen den Song "Always look on the bright side of life". 1998 traten die fünf Überlebenden gemeinsam in Aspen (Colorado) auf. Auch einzeln waren die Mitglieder als Schauspieler, Autor oder Regisseur erfolgreich (auch schon vor ihrer Monty-Python-Zeit) und sind es zum Teil auch heute noch. Der Gruppe gehört auch die Produktionsfirma "Python (Monty) Pictures Limited". Vier der Gruppenmitglieder (Gilliam, Idle, Jones und Palin) traten zusammen mit Carol Cleveland und Neil Innes 2002 auf dem Gedenkkonzert für George Harrison auf, da er mit seiner extra dafür gegründeten Firma HandMade Films einen ihrer Filme produziert hatte. Für John Cleese, der zu diesem Zeitpunkt erkrankt war, sprang Tom Hanks bei einer Nummer ein. Das Monty-Python-Musical "Monty Python’s Spamalot" wurde 2005 am New Yorker Broadway uraufgeführt, das dort seither regelmäßig gespielt wird und auch mehrmonatige Aufführungsreihen in London, Las Vegas und im Kölner Musical Dome hatte. Besonders Eric Idle war intensiv an dieser Produktion beteiligt. Im Jahr 2012 wurde der Film "Absolutely Anything" angekündigt. Der Film basiert auf einer Idee von Terry Jones, der auch Regie führt. In dem Film verleihen alle lebenden Monty Pythons Aliens ihre Stimmen. Der Film wird als „Science-Fiction-Farce“ beschrieben. Im November 2013 gaben Monty Python bekannt, an einer gemeinsamen Show zu arbeiten. Die Bühnenshow Monty Python Live (mostly), bestehend aus Sketchen und Video-Einspielungen sowie zahlreichen Liedern, fand an zehn Abenden zwischen dem 1. und dem 20. Juli 2014 in der O₂-Arena in London statt. Die am 20. Juli 2014 gezeigte letzte Show wurde weltweit in ausgewählte Kinos und per Livestream im Internet übertragen und ist mittlerweile auch auf DVD bzw. Blu-Ray erhältlich. Computerspiele. Diese Computerspiele wurden von 7th Level in Zusammenarbeit mit Eric Idle und Terry Gilliam entwickelt. Milben. Milben (Acari) sind eine Unterklasse der Spinnentiere (Arachnida) im Stamm der Gliederfüßer. Mit etwa 50.000 bekannten Arten in 546 Familien sind sie die artenreichste Gruppe der Spinnentiere. Da zu ihnen die kleinsten Gliederfüßer (Arthropoda) gehören, ist davon auszugehen, dass viele Arten noch nicht entdeckt wurden. Merkmale. Während Spinnen ausschließlich räuberisch leben und alle im Großen und Ganzen einen ähnlichen Körperbau haben, unterscheiden sich Milben auf Grund ihrer verschiedenen Lebensweise untereinander viel stärker. Die kleinsten Milben sind nur etwa 0,1 Millimeter groß. Die größten sind Zecken, bei denen die Weibchen im vollgesogenen Zustand bis zu drei Zentimeter groß sein können. Wie auch Webspinnen haben sie acht Beine, obwohl sie im Larvenstadium oft nur sechs Beine besitzen. Da Milben absolut betrachtet nicht besonders schnell sind, benutzen etliche von ihnen andere Tiere wie beispielsweise Insekten als Transportmittel (siehe Phoresie), um größere Entfernungen zu überwinden. Dabei saugen einige Milben während des Ritts die Körpersäfte ihres Wirts. Eine tropische Hornmilbenart ("Archegozetes longisetosus") ist, im Verhältnis zu ihrer Körpergröße von 0,8 mm betrachtet, das stärkste Tier der Welt: Sie kann beinahe das 1200-fache des eigenen Körpergewichts halten, etwa fünfmal mehr als theoretisch zu erwarten wäre (Heethoff & Koerner 2007). Zwar gibt es Milbenarten, die einen Gesichtssinn zur Jagd auf Lebendbeute benutzen, dennoch sind die Individuen vieler anderer Milbenarten durch Blindheit gekennzeichnet. Die zentralen Augen der Arachniden sind bei Milben allgemein nicht vorhanden, oder sie sind zu einem einzigen Auge verschmolzen. Generell kann man bei Milbentieren eine Augenzahl von null bis fünf vorfinden. Vorkommen. Milben haben sehr viele Lebensräume besiedelt. Rund die Hälfte der bekannten Arten lebt im Boden; dabei wird bei optimalen Bedingungen eine Besiedlungsdichte von einigen hunderttausend Milben pro Quadratmeter erreicht. Unter den Lebensräumen befinden sich allerdings auch so ungewöhnliche wie beispielsweise Affenlungen, Nasenlöcher von Vögeln und Tracheenöffnungen von Insekten. Auch die meisten Menschen beherbergen Milben, Haarbalgmilben beispielsweise an den Haarwurzeln der Augenwimpern. Ernährung. Neben den Raubmilben gibt es solche, die sich von Pflanzen oder Pilzen ernähren, und wiederum andere, die von Aas oder abgestorbenem Gewebe leben. Außerdem gibt es unter den Milben auch viele Parasiten. Schädlinge in der Landwirtschaft. Obwohl der größte Teil der Arten im Boden lebt und dort einen wesentlichen Beitrag zur Humusbildung leistet, werden einige Milbenarten dennoch als maßgebliche Landwirtschaftsschädlinge angesehen. Sie können als Vorratsschädlinge in Mehl- oder Getreidelagern auftreten. Die Mehlmilbe ("Acarus siro") kann durch ihren Befall die Inhaltsstoffe verändern, außerdem wird sie häufig als ekelerregend wahrgenommen. Generell lassen sich Milben wegen ihrer Widerstandskraft gegenüber Pestiziden nur schwer bekämpfen. Darum setzt die Forschung neuerdings auf alternative Methoden. So wird versucht, die Zusammensetzung der Bakterien im Innern der Milben zu verändern und so ihre Widerstandskraft zu verringern. Milben als Krankheitsverursacher. Erkrankungen durch Milben werden als Acariose bezeichnet. Durch die Ausscheidungen der Hausstaubmilben können beim Menschen Hausstauballergien ausgelöst werden, in deren Folge ein Großteil der Hausstaub-Allergiker nach einiger Zeit ohne Behandlung Asthma entwickelt. Grabmilben bohren Gänge in die Haut ihres Wirts und legen dort ihre Eier ab. Das verursacht bei dem Betroffenen starken Juckreiz. Die aus den Eiern schlüpfenden Larven erzeugen beim Menschen das Krankheitsbild der Krätze, bei Tieren die Räude. Haarbalgmilben (Gattung "Demodex") leben in den Haarbälgen von Säugetieren. "Demodex canis" lebt in der Haut vieler Hunde, jedoch nur bei Hunden mit einer Schwächung des Immunsystem kommt es durch sie zu einer typischen Hauterkrankung. "Demodex folliculorum" ist bei allen Menschen als harmloser Bewohner der Haarfollikel und Hautbewohner anzutreffen, wo er sich vor allem von Fett, aber auch Bakterien ernährt. Vermutet, aber unbewiesen ist ein Zusammenhang mit Rosazea. Federmilben parasitieren auf oder in den Federn der Vögel. Verschiedene Arten von Laufmilben (Trombiculidae) können beim Menschen auch die Trombidiose (Erntekrätze) verursachen. Bei Honigbienen rufen einige Milben wie z. B. die Varroamilbe Tierseuchen hervor (Varroose, Acarapidose, Tropilaelapsose). Milben als Krankheitsüberträger. Einige Milbenarten können durch ihren Biss Fleckfieber, Rickettsipocken, Tularämie und die St.-Louis-Enzephalitis übertragen. Die Vertreter der Unterordnung Zecken können beim Blutsaugen gefährliche Krankheiten wie virale Hirnhautentzündung (FSME), Krim-Kongo-Fieber, Fleckfieber oder Borreliose übertragen. Nutzwirkung. Rote Raubmilbe auf einem Ziegelstein inmitten eines italienischen Weinbaugebietes bei Imperia Viele Raubmilben werden auch als Nützling eingestuft, da sie Schädlinge im Weinbau, in der Landwirtschaft und im Gartenbau bekämpfen. Zu diesem Zweck werden sie in Gewächshäusern unter kontrollierten Bedingungen gezüchtet. Eine Verwendung von Milben ("Thyroplyphus siro", frühere Bezeichnung "Tyroglyphus casei") als Nutztier findet bei der Herstellung von Milbenkäse statt. Systematik. "Siehe auch: Systematik der Milben" Fossile Belege. Milben sind in tertiärem Bernstein (u. a. Baltischer Bernstein, Dominikanischer Bernstein) nicht selten. Ältere Belege sind hingegen äußerst rar und fehlten bis vor Kurzem aus dem Mesozoikum völlig. Die Milbe "Protacarus crani" aus dem schottischen Devon gilt als das älteste Fossil dieses Taxons und zugleich als einziger Nachweis einer Milbe aus dem Paläozoikum. Im Jahre 2012 wurden zwei Exemplare in 230 Millionen Jahre altem triassischen Bernstein aus den italienischen Dolomiten entdeckt. Die beiden artverschiedenen, zu den Gallmilben (Eriophyidae) gehörenden Fossilien wurden von ihrem Entdecker David Grimaldi (American Museum of Natural History, New York,) "Triasacarus fedelei" und "Ampezzoa triassica" genannt. Die fossilen Formen unterscheiden sich in der Regel nur geringfügig von ihren rezenten Verwandten, sodass Paläozoologen von einer früh stagnierenden Evolution der Milben ausgehen. Bekämpfungsmittel. Akarizid zur Bekämpfung von Milben und Zecken. Muskelspindel. Muskelspindeln sind Sinnesorgane in den Muskeln, die den Dehnungszustand der Skelettmuskulatur erfassen. Sie gehören zur Gruppe der Propriozeptoren und sind PD-Sensoren (Proportional- und Differentialeigenschaft). Muskelspindeln schützen Muskeln auch vor Überdehnung. Bei plötzlicher Dehnung des Muskels lösen sie den so genannten Dehnungsreflex aus, wodurch sich der Muskel wieder zusammenzieht. Der Arzt überprüft die korrekte Funktion des Dehnungsreflexes beispielsweise mit dem Patellarsehnenreflex ("Kniesehnenreflex"). Durch einen leichten Schlag mit einem Hämmerchen unterhalb der Kniescheibe wird kurzzeitig der Oberschenkelmuskel gedehnt. Die Kontraktion des Muskels durch den Dehnungsreflex erfolgt jedoch erst, wenn der Schlag bereits vorbei ist. Diese Kontraktion lässt den Unterschenkel nach vorne schnellen. Aufbau. Muskelspindeln bestehen aus fünf bis zehn, beim Menschen ein bis drei Millimeter langen, quergestreiften Muskelfasern, die von einer Bindegewebshülle umgeben sind. Zwischen den Muskelfasern des Beinstreckers (') im Oberschenkel sind fünfhundert bis tausend Muskelspindeln eingebettet, die bis zu zehn Millimeter lang sind. Je mehr Muskelspindeln in einem Muskel vorhanden sind, desto feiner können die mit diesem verbundenen Bewegungen abgestimmt werden. Eigenreflex. Liegen Rezeptor und Effektor im gleichen Organ, können die Reize sehr schnell beantwortet werden. Der Reflex wird dann als Eigenreflex bezeichnet und die Erregungsübertragung verläuft monosynaptisch. Ein Beispiel ist der Patellarsehnenreflex. Dehnungsreflex. Die nicht kontraktile Mitte der Muskelspindelfasern ist von afferenten sensiblen Nervenfasern, den Ia-Fasern umsponnen. Wird der Muskel gedehnt, wird auch die Muskelspindel und somit der mittlere Teil, die sogenannte Kernsackregion, gedehnt, wodurch in den Ia-Fasern ein Signal (Aktionspotential) erzeugt wird. Das Signal wird über den Spinalnerv ins Hinterhorn der grauen Substanz des Rückenmarks weitergeleitet und über eine Synapse im Vorderhorn monosynaptisch auf α-Motoneurone übertragen, welche die Kontraktion der Skelettmuskelfasern im gedehnten Muskel bewirken. Das α-Motoneuron divergiert, verzweigt sich, wobei ein Ast zur Renshaw-Zelle geht, die durch ihren hemmenden Einfluss auf das sie zuvor innervierende α-Motoneuron bewirkt, dass die Kontraktion des jeweiligen Muskels nur kurzzeitig erfolgt. Durch diese negative Rückkopplung kann trotz Störungen eine bestimmte Muskellänge konstant aufrechterhalten werden. Je weniger Muskelfasern von einem α-Motoneuron innerviert werden, umso feiner abgestimmt kann die Bewegung sein: Bei Augen- und Finger-Muskeln versorgt ein Motoneuron etwa 100 Muskelfasern, bei anderen Muskeln bis zu 2000 (siehe Motorische Einheit). Die Leitungsgeschwindigkeit der α-Motoneurone beträgt 80 bis 120 ms−1, die der γ-Motoneurone 40 ms−1. Steuerung der Muskellänge. Über die sogenannte γ-Spindelschleife lässt sich die Muskellänge steuern. Die Muskelfasern der Muskelspindeln ("intrafusale Muskelfasern") sind an den kontraktilen Enden mit motorischen Nervenfasern, den γ-Motoneuronen, verbunden. Werden diese aktiviert, kontrahieren sich die Enden der Muskelspindelfasern. Dadurch wird aber ihre Mitte gedehnt, die Ia-Fasern erzeugen ein Aktionspotential, welches wiederum ins Vorderhorn des Rückenmarks geleitet und auf α-Motoneurone übertragen wird. Diese lösen eine Kontraktion der Skelettmuskelfasern aus, wodurch die Muskelspindel und damit auch der mittlere Teil der Muskelspindelfasern entspannt wird. Dies geschieht solange, bis die Ia-Fasern keine Dehnung mehr wahrnehmen. Empfindlichkeitsregulierung. Die Empfindlichkeitsregulierung erfolgt unbewusst über die γ-Motoneurone des efferenten Systems in Zusammenarbeit mit dem afferenten Teil. Die Spindel ist der einzige Rezeptor im Körper, der efferent versorgt wird, alle anderen werden nur afferent versorgt. Eine ähnliche Anpassung an einen Stimulus findet man allerdings auch bei den Haarzellen des akustischen Systems. Regelkreis. Die motorischen Zentren des Gehirns als "Führungsglied" dienen als Sollwertgeber für die Länge von Muskeln. Der "Sollwert" wird als Aktivität der γ-Fasern an das "Regelglied" Muskelspindel weitergegeben. In der Muskelspindel wird der "Istwert", die Länge der Muskelfasern und damit die Länge der mit den Muskelfasern fest verbundenen Muskelspindel, mit dem Sollwert verglichen. Ist der Istwert kleiner, bedeutet dies, dass die Mitte der Muskelspindelfasern gedehnt ist. Dieser Faserabschnitt dient als "Messglied", seine Dehnung wird als Aktivität der Ia-Nervenfasern codiert und als "Stellwert" über die α-Motoneurone an die Muskelfasern übertragen. Deren Kontraktion wirkt als "Stellgröße" so lange, bis die Muskelspindel soweit verkürzt ist, dass die Fasermitte nicht mehr gedehnt ist. Als "Störgröße" wirkt jede Dehnung der Muskeln, ob bei Lageveränderungen des Körpers, Schlag auf die Sehne oder Kontraktion des Antagonisten. α- und γ-Motoneurone sind mit motorischen Zentren des Gehirns verbunden, so dass Muskelkontraktionen willkürlich und unwillkürlich gesteuert werden können. Bei komplexen Bewegungsabläufen, wie zum Beispiel dem Gehen, ändert das Gehirn die Sollwerte für verschiedene Muskelgruppen entsprechend dem Bewegungsprogramm. Weblinks. http://www.julius-ecke.de/bilder/Anatomie/60_Sinnesorgane/Muskelspindel.htm Illustration Mazedonien. Mazedonien (; deutsch auch Makedonien, amtlich Republik Mazedonien bzw. Republik Makedonien ("Republika Makedonija" Република Македонија)) ist ein Binnenstaat in Südosteuropa. Auf Grund des Namensstreits mit dem südlichen Nachbarn Griechenland wird er auch als "ehemalige jugoslawische Republik Mazedonien" (kurz EJRM;, kurz FYROM) bezeichnet. Mazedonien wurde 1944 im Widerstand als Sozialistische Republik Mazedonien gegründet, war ab 1946 offiziell südlichste Teilrepublik des sozialistischen Jugoslawien und rief 1991 seine Unabhängigkeit aus. Seit Dezember 2005 hat Mazedonien den Status eines Beitrittskandidaten der EU. Das Land ist Mitglied der Vereinten Nationen (jedoch mit der Bezeichnung „ehemalige jugoslawische Republik Mazedonien“), der CEFTA sowie Teilnehmerstaat der Organisation für Sicherheit und Zusammenarbeit in Europa, des Europarats und des Kooperationsrats für Südosteuropa. Weiterhin ist Mazedonien Mitglied der Welthandelsorganisation, des Internationalen Währungsfonds und der Weltbank. Mazedonien hat eine der schwächsten Volkswirtschaften Europas und befindet sich in einem Transformierungsprozess, sowohl wirtschaftlich als auch politisch. Das Land hat mit hohen Arbeitslosenzahlen und einer schwachen Infrastruktur sowie fehlenden Investitionen zu kämpfen. Mazedonien ist ethnisch gemischt. Neben der größten Volksgruppe, den Mazedoniern, die etwa 64 Prozent der Gesamtbevölkerung stellen, gibt es eine große Minderheit an Albanern (25 %). Auch kleinere Minderheiten von Türken (3,85 %), Roma (2,66 %), Serben (1,78 %), Bosniaken (0,84 %) und Aromunen/Meglenorumänen (0,48 %) und anderen Ethnien (1,04 %) sind vorhanden. Durch diese Situation gab und gibt es immer wieder ethnisch motivierte Konflikte, vor allem zwischen Mazedoniern und Albanern. Nach den bürgerkriegsähnlichen Zuständen 2001 und dem danach unterschriebenen Friedensvertrag hat sich die Gesamtlage der Volksminderheiten im Land deutlich verbessert. Eine gesellschaftliche Gleichstellung aller Ethnien ist jedoch immer noch nicht erreicht. Geographie. Mazedonien ist ein Binnenstaat und liegt zentral auf der Balkanhalbinsel. Es grenzt im Norden an Serbien, im Osten an Bulgarien, im Süden an Griechenland, im Westen an Albanien und im Nordwesten an das Kosovo. Die längste Ausdehnung von Norden nach Süden beträgt 188 km, von Westen nach Osten 216 km. Die Landesgrenze zu Serbien ist 62 km lang, die zu Bulgarien 148 km, die zu Griechenland 246 km, die zu Albanien 151 km und die zum Kosovo 159 km. Somit beläuft sich die Gesamtlänge der Staatsgrenze auf 766 km. Fast das ganze Land besteht aus Gebirgen und Hügelländern: 78,79 Prozent der Landesfläche (20.262 Quadratkilometer) werden von Gebirgen geprägt. Nur entlang der größeren Flüsse und in den Beckenlandschaften ist es relativ flach. Diese Hoch- und Tiefebenen machen 19,10 Prozent der Landesfläche aus (4.900 Quadratkilometer). Gewässer nehmen 2,11 Prozent (551 Quadratkilometer) der Staatsfläche ein. Die höchsten Gebirge befinden sich im Westen des Landes an der Grenze zu Albanien und dem Kosovo. Der höchste Gipfel ist der Golem Korab (alb. "Maja e Korabit") mit Rund 3,8 Prozent der Staatsfläche sind durch Nationalparks geschützt. Sie liegen ebenfalls im Westen und Südwesten des Landes. Die Republik Mazedonien nimmt einen Teil der geographischen Region Makedonien ein. Sie teilt sie vor allem mit Griechenland. Gelände. Die westlichen Gebirge Mazedoniens sind Ausläufer des Dinarischen Gebirges, dem wichtigsten Gebirge des Westbalkans. Die höchsten Gipfel sind der 2764 m hohe Golem Korab auf der Grenze zu Albanien sowie der 2747 m hohe Titov Vrv im Massiv des Šar Planina (alb. "Malet e Sharrit"). Weitere Gebirge sind das im Südwesten des Landes liegende Jablanica-Gebirge, das dort teilweise die Grenze zu Albanien bildet, das Osogovo-Gebirge zu Bulgarien, das Galičica-Massiv zwischen Ohrid- und Prespasee und das Pelister-Massiv zwischen Prespasee und Bitola. Die größten Hoch- und Tiefebenen bilden das Ovče Pole nordwestlich von Štip, die Pelagonien-Ebene zwischen Prilep und Bitola, die Skopje- und Kumanovo-Ebene sowie die Polog-Ebene zwischen Tetovo und Gostivar. Darüber hinaus bilden die breiten Flusstäler weitere landwirtschaftlich nutzbare Flächen. Gewässer. Der Fluss Vardar entspringt im Šar Planina und durchfließt das gesamte Land zuerst in Richtung Osten und dann nach Skopje in Richtung Südosten, bevor er schließlich als "Axiós" () durch die griechische Region Makedonien in den Thermaischen Golf mündet. Er bildet die Hauptorientierungsachse des Landes und hat vier größere Nebenflüsse. Der Schwarze Drin entspringt dem Ohridsee und durchfließt die südwestliche Region des Landes, bis er bei der Stadt Debar nach Albanien weiterfließt und ins Adriatische Meer mündet. Im Südwesten an der Grenze zu Albanien hat Mazedonien je etwa zu zwei Dritteln Anteil am Ohrid- und Prespasee. Diese Seen (700 Meter beziehungsweise) sind etwa 400 Quadratkilometer groß und durch Tektonik in einer geologischen Schwächezone der Erdkruste entstanden. Der Ohridsee ist sehr tief und reich an endemischen Arten; beide Seen, die Stadt Ohrid und der Nationalpark Galičica zählen zum UNESCO-Welterbe. Mazedonien liegt im Blauen Herz Europas. Klima. Das Klima ist im gebirgigen Landesinneren relativ rau. Generell liegt es im Übergangsgebiet zwischen dem mediterranen und dem kontinentalen Klima. Im Winter ist es meist sehr niederschlagsreich und kalt, im Sommer hingegen sehr niederschlagsarm und warm. Die Jahreszeiten Herbst und Frühling sind schwach ausgeprägt, d. h. die Sommer und Winter dauern relativ lang an. Flora. Viele von Menschenhand unberührte Regionen und eine artenreiche Pflanzen- und Tierwelt kennzeichnen die Flora und Fauna Mazedoniens. Die Flora im Land ist mit rund 210 Familien, 920 Gattungen und 3700 Pflanzenarten vertreten. Davon gehören 3200 Arten zu den Bedecktsamern, 350 Arten zu den Laubmoosen und 42 Arten zu den Farnen. Ein Drittel des Landes sind von Mischwäldern bedeckt, in denen Buchen, Eichen und Kastanien vorherrschen. In den Ebenen besteht die Vegetation insbesondere aus Macchien und Weideflächen, die von Landwirtschaft und Viehzucht verwendet werden. Rund um die größeren Seen wachsen Zypressen, Walnuss- und Feigenbäume. Ab gedeihen Bergkiefern und Tannen. Und ab kommen vor allem Wacholderbüsche und Pflanzenarten vor, die sich dem rauen Bergklima angepasst haben. Laut WWF und der digitalen Karte der europäischen ökologischen Regionen der Europäischen Umweltagentur kann das Territorium des Landes in vier Ökoregionen eingeteilt werden: Mischwälder des Pindos, Mischwälder der Balkanhalbinsel, Mischwälder der Rhodopen und Mischwälder mit Hartlaubvegetation des Ägäischen Meers. Der Nationalpark Pelister bei Bitola ist bekannt für das Vorkommen der endemischen Mazedonischen Kiefer sowie für 88 Pflanzenarten, die 30 Prozent der Baumflora in Mazedonien ausmachen. Die Mazedonischen Kiefernwälder in Pelister sind in zwei Gruppen eingeteilt: Kiefernwälder mit Farnen und Kiefernwälder mit Wacholdern. Zu den am häufigsten anzutreffenden Laubbäumen gehören die Mazedonische Eiche, der Berg-Ahorn, die Trauerweide, die Kopfweide, die Erle, Pappeln, Ulmen und die Gemeine Esche. Eine weitere für Mazedonien charakteristische Pflanzenart – vor allem im Šar Planina und in der Bistra – ist der Mohn. An unberührten Seeufern wachsen Schilfrohre. Fauna. Auch eine reiche Tierwelt weist Mazedonien auf. Die Arten reichen von Bären, Wildschweinen, Dachsen, Wölfen und Rotfüchsen bis hin zu Eichhörnchen, Mardern, Gämsen und Rothirschen. Luchse sind im westlichen Landesteil verbreitet, während man Rothirsche in der Region von Demir Kapija antrifft. Von den seltenen Balkan-Luchsen ("Lynx lynx martinoi") gibt es in Mazedonien und im angrenzenden Albanien nur noch etwa 100 Exemplare, die gefährdet sind. Das Berggebiet um Mavrovo beherbergt zudem einen großen Bestand an Gämsen, die viele Jäger anlocken. Der Ohridsee zählt zu den ältesten Seen der Welt und ist bekannt für seine Ohridforelle, Felchen, Gründlinge, Rotaugen sowie für einige Schlangen-Gattungen, die bis zu 30 Millionen Jahre alt sind. Ähnliche Arten können nur im Baikalsee gefunden werden. Auch der Europäische Aal ist vor allem für seinen außergewöhnlichen Fortpflanzungszyklus bekannt: Er schwimmt Tausende von Kilometer von der Sargassosee bis in den Ohridsee, um dort in den Tiefen des Sees für zehn Jahre zu verweilen. Wenn der Aal seine Geschlechtsreife erlangt hat, kehrt er zurück zu seinem Geburtsort im Atlantik; dort laicht er und stirbt anschließend, seine Nachkommen wiederholen den Kreislauf. Der Šarplaninac (alb. "Deltari Ilir") ist der bekannteste Schäferhund des Landes. Große Teile Mazedoniens liegen im Grünen Band Europas. Bevölkerung. Mazedonien hat laut der letzten Volkszählung 2002 genau 2.022.547 Einwohner. 2011 wurde eine neue Zählung durchgeführt, die jedoch bei der Sammlung der Resultate aus technischen und politischen Gründen scheiterte. Insgesamt wurden außerdem 564.296 Privathaushalte und 698.143 Behausungen gezählt. Dies entspricht pro Haushalt rund 3,6 Personen. Altersstruktur. Mazedonien hat eine ziemlich ausgeglichene Altersstruktur in seiner Gesellschaft. Die "Bienenstockform" ist sehr ausgeprägt, das heißt, dass jede Altersstufe bis zum 59. Lebensjahr den etwa gleichen Anteil an der Gesamtbevölkerung hat, obschon die jüngeren Menschen zwischen 0 und 29 Jahren ein wenig überwiegen. Die folgende Tabelle veranschaulicht die Altersverteilung in der Bevölkerung laut der Volkszählung 2002. Bevölkerungsdichte. Die Bevölkerungsdichte liegt bei etwa 78 Einwohnern pro Quadratkilometer und ist damit auf der gleichen Höhe wie Griechenland und Kroatien (siehe hierzu "Liste der Staaten der Erde"). Die dichtesten von Menschen bewohnten Regionen sind der obere Lauf des Flusses Vardar, also die Regionen zwischen Gostivar, Tetovo, Skopje, Kumanovo und Veles. Zu den weiteren Gebieten, die relativ stark bevölkert sind, zählen die Ebenen um Struga, Ohrid, Prilep, Bitola, Štip und Strumica. Ethnien. Die Bevölkerung Mazedoniens ist nicht homogen. Über neun Ethnien leben im Land. Aus diesem Grund gab es in der Vergangenheit aber auch heute noch Konflikte zwischen den einzelnen Volksgruppen. 2001 entkam Mazedonien knapp einem Bürgerkrieg. Mazedonier. 64,18 Prozent bezeichneten sich in der letzten Volkszählung 2002 als ethnische Mazedonier. In absoluten Zahlen waren das 1.297.981 Personen. Somit bilden sie die Mehrheit in der ethnischen Struktur des Landes. Geographisch verteilen sich die ethnischen Mazedonier grundsätzlich im Osten, im Zentrum und im Süden des Landes. Im Westen und Norden bilden sie teilweise die Minderheit. Der Großteil von ihnen gehören dem orthodoxen Christentum an, eine große Minderheit aber zählt sich zum Islam. Diese muslimischen Mazedonier werden auch "Torbeschen" genannt, einige finden diese Bezeichnung als abwertend oder sogar beleidigend, sodass viele sich einfach als Mazedonier mit muslimischem Glauben bezeichnen. Albaner. Die größte Minderheit ist die albanische Volksgruppe, die vor allem in der Westhälfte des Landes und auch im Norden lebt. Sie stellte im Jahr 2002 25,17 Prozent der Gesamtbevölkerung (absolute Zahl: 509.083 Personen). Infolge großer Auswanderung dieser Volksgruppe leben schätzungsweise zwischen 200.000 und 300.000 Albaner im Ausland. Die Albaner in Mazedonien sind fast ausnahmslos Gegen, nur im Südwesten des Landes gibt es einige Dörfer mit einer toskischen Bevölkerung. Türken. Neben diesen beiden großen Volksgruppen gibt es viele andere ethnische Minderheiten, die zusammen knapp über 10 Prozent der Gesamtbevölkerung stellen. Zu diesen Minoritäten zählen auch die Türken. Sie stellten im Jahr 2002 mit 3,85 Prozent die drittgrößte Volksgruppe. In absoluten Zahlen waren das 77.959 Personen. Die türkische Bevölkerung verteilt sich vor allem in den Städten West- und Zentralmazedoniens. In zwei Gemeinden bilden sie die Mehrheit. Roma. Die Zahl der Roma wurde im Jahr 2002 mit 53.879 angegeben. Das sind 2,66 Prozent der Landesbevölkerung. Andere Quellen berichten von 80.000 bis zu 260.000 Roma in Mazedonien. Laut dem Berlin-Institut für Bevölkerung und Entwicklung leben rund 185.000 Roma in Mazedonien. Wegen der hohen Armut unter ihnen leben auch die Roma meist in Städten, da sie sich dort ein besseres Leben erhoffen. Sie stellen nur im Bezirk Šuto Orizari der Hauptstadt Skopje die Mehrheit der Einwohner. Dieser Bezirk ist der einzige auf der ganzen Welt, in der die Roma eine Mehrheit bilden. Der Bürgermeister des Bezirks, Elvis Bajram, ist ethnischer Roma. Andere. Zu den kleineren Minoritäten Mazedoniens zählen die Serben (1,78 % oder 35.939), die Bosniaken (0,84 % oder 17.018) und die Walachen/Aromunen (0,48 % oder 9.695, davon etwa 1000 Meglenorumänen). Daneben existieren mit 1,04 Prozent oder 20.993 Personen noch weitere Minderheiten. Die slawischen Muslime Mazedoniens ordnen sich – ungeachtet ihres slawischen Idioms – verschiedenen Gruppen zu, zumeist den Türken, in geringerem Maße auch den Albanern, Mazedoniern und neuerdings den Bosniaken. Sprachen. Mazedonisch ist Amtssprache und zugleich die am meisten verbreitete Sprache. Albanisch mit der zweitgrößten Anzahl an Muttersprachlern gilt in einigen Gemeinden zusätzlich als zweite Amtssprache; zudem haben einige Staatsorgane Albanisch neben Mazedonisch als Arbeitssprache eingeführt, wie beispielsweise das Parlament. Daneben wird regional auch Türkisch, Romani und Serbisch gesprochen. Die Türken genießen einige Minderheitenrechte und dürfen – wie alle Ethnien – in Gemeinden, in denen mindestens 20 Prozent der Einwohner ihrer Ethnie angehören, Türkisch als Amtssprache festlegen. Viele Angehörige der Roma haben die Sprache des jeweiligen Wohngebietes übernommen. Religion. a>, sind in vielen Landesteilen anzutreffen Das Orthodoxe Christentum und der Islam prägen zusammen seit Jahrhunderten das Gebiet des heutigen Mazedoniens. Mit der Eroberung der Region durch die sunnitischen Osmanen verbreitete sich auch deren Religion. Die Gründe der Konversion vieler Menschen zum neuen Glauben während vieler Jahrhunderte mochten unterschiedlich sein: Sympathie, Befreiung von Steuern, bessere Stellung in der Gesellschaft, Karriere in Verwaltung und Militär usw. Hauptsächlich waren dies Albaner, doch auch Mazedonier – jedoch in geringerer Zahl –, die ihren Glauben wechselten. Die meiste Zeit lebten die Anhänger beider Religionen friedlich miteinander. Doch mit dem Aufkommen des Nationalismus im 19. Jahrhundert verschlechterten sich zunehmend die Beziehungen und bis heute haben Orthodoxe und Muslime immer noch Vorurteile gegenüber dem anderen Glauben oder der anderen Ethnie. Seit der Unabhängigkeit Mazedoniens nahmen zudem nationalistische Übergriffe auf Kirchen und Moscheen immer mehr zu. Bei der letzten Volkszählung von 2002 machten fast die Hälfte der Bevölkerung (45 %) keine Angaben zu ihrer Konfession. Die zweitgrößte Gruppe bildeten mit etwa 32,4 Prozent die orthodoxen Christen, von denen die Mehrheit sich zur Mazedonisch-Orthodoxen Kirche bekannte. Der Islam war mit 16,9 Prozent vertreten; die große Mehrheit davon Sunniten. Laut Schätzungen gehörten 5 Prozent anderen Religionsgemeinschaften an, wie beispielsweise der römisch-katholischen Kirche. Städte. Heute lebt über die Hälfte der Bevölkerung Mazedoniens in Städten. Im Jahr 2010 waren laut einer Berechnung 59 Prozent der Bevölkerung in den urbanen Zentren des Landes wohnhaft. Auswanderung. Mazedonien ist ein typisches Auswanderungsland. Erste große Auswanderungswellen fanden in dem Zeitraum zwischen 1912 und 1944 statt, als Bulgaren und Türken die Region verließen, nachdem sie dem Königreich Jugoslawien zugesprochen worden war. Nach dem Zweiten Weltkrieg, im föderativen System Jugoslawiens, war die neu gegründete Sozialistische Teilrepublik Mazedonien neben dem Kosovo, als Resultat von Auswanderung, Militarisierung und fehlenden Investitionen in den Jahren zuvor, die wirtschaftlich rückständigste. Dies führte vor allem dazu, dass während der 1970er Jahre zahlreiche Gastarbeiter (vor allem Angehörige der albanischen Volksgruppe) nach Mitteleuropa (Schweiz, Deutschland und Österreich) emigrierten, um dort den Lebensunterhalt ihrer Familie zu verdienen. Nach der Unabhängigkeit Mazedoniens folgten die Familien oftmals ihren Familienoberhäuptern, dies vor allem in den 1990er Jahren. Laut einer Schätzung leben etwa 200.000 bis 300.000 Mazedonier albanischer Abstammung im Ausland. Die Zahl der slawischen Mazedonier im Ausland ist dagegen wesentlich niedriger. Verwaltungsgliederung. Am 11. August 2004 trat ein neues Territorialverwaltungsgesetz in Kraft, das den Staat Mazedonien in nunmehr 8 Statistische Regionen (,) und 84 Gemeinden (maz. Општини, alb. "Komuna") untergliedert. Die bisherigen 123 Gemeinden wurden teilweise zusammengefasst, jedoch wurden im Großraum Skopje die bisherigen 8 Gemeinden auf 10 erhöht. Antike. Ab dem 8. Jahrhundert v. Chr. fand eine Besiedlung von einigen illyrischen Stämmen statt, die einzelne stadtähnliche Siedlungen gründeten wie beispielsweise Lychnidos. Im Landeszentrum vermischten sich Illyrer mit Thrakern. Im 2. Jahrhundert v. Chr. löschte Rom das antike Makedonien aus. Nur der südliche Teil des heutigen Staates Mazedonien um Bitola wurde in der Antike zur historischen Region Makedonien gezählt. Der nördliche Teil mit der Hauptstadt Skopje war unter dem Namen Paionien bekannt, zur Zeit des Römischen Reiches befanden sich dort Teile der Provinzen "Moesia Superior" und "Macedonia". Im 4. Jahrhundert n. Chr. ging die Macht an Byzanz über. Mittelalter. Im 6. bis 7. Jahrhundert n. Chr. erfolgte eine Einwanderung slawischer Stämme. Ab dem 7. Jahrhundert war die Region Teil des Ersten Bulgarischen Reiches. Ende des 10. Jahrhunderts wurde Ohrid unter Zar Samuil (976–1014) Hauptstadt des Reiches. Nach der Eroberung des bulgarischen Reiches 1018 durch Basileios II. wurde die Region administrativ innerhalb des Byzantinischen Reiches in das Thema Bulgarien eingegliedert. Zwischen 1131 und 1155 dehnte sich Raszien bis Makedonien aus. Von 1187 bis 1196 war es Bestandteil des Zweiten Bulgarischen Reichs. Obwohl starker Widerstand gegen die feindlichen Eroberer bestand – wie beispielsweise der albanische Nationalheld Skanderbeg, der mit Hilfe seiner Liga von Lezha weite Teile Westmazedoniens eroberte und verteidigte –, wurde die Region nach und nach von den Osmanen eingenommen. Im Jahr 1392 fiel Skopje (), und bald darauf folgten weitere Städte. Von Beginn des 15. Jahrhunderts bis 1912 gehörte das Gebiet des heutigen Mazedonien zum Osmanischen Reich. Die Mazedonien-Frage. Im Jahr 1465 gab es erste Aufstände gegen das Osmanische Reich, weitere folgten in den Jahren 1565, 1689 und 1876. Am 3. März 1878 trat der Frieden von San Stefano in Kraft, der den Russisch-Osmanischen Krieg beendete. Laut Abkommen fiel die Region vom heutigen Mazedonien bis nach Thessaloniki an Bulgarien. Nach dem Berliner Kongress 1878 fiel das Gebiet jedoch wieder an das Osmanische Reich, und eine Folge von Aufständen erschütterte viele Städte. Die Albaner organisierten sich in der im selben Jahr gegründeten Liga von Prizren. Bei den Bulgaren war der Kresna-Raslog-Aufstand von Bedeutung. Ende des 19. Jahrhunderts entstand zunehmender Widerstand gegen die osmanische Herrschaft, und zugleich nahmen die benachbarten Nationalstaaten Bulgarien, Serbien und Griechenland Einfluss. Es folgte bei den Bulgaren die Gründung der "Bulgarischen Makedonien-Adrianopeler Revolutionären Komitees" (kurz BMARK, seit 1919 IMRO). Seit dem 20. Jahrhundert. Am 2. August 1903 brach der Ilinden-Aufstand aus, der von der BMARK organisiert wurde. In den Jahren 1912 und 1913 wurden die Balkankriege geführt, die das Ende der osmanischen Herrschaft zur Folge hatten. Die geographische Region Makedonien wurde zwischen Griechenland, Serbien und Bulgarien aufgeteilt. Im serbischen Teil Makedoniens, der in Vardar-Mazedonien umbenannt wurde, wandelte sich die anti-osmanische Bewegung in eine anti-serbische um. So brach 1913 der von ihnen geführte Ohrid-Debar-Aufstand aus, und 1934 wurde mit ihrer Hilfe der jugoslawische König Alexander I. ermordet. Albanische Nationalisten forderten ihrerseits die Vereinigung aller von Albanern besiedelten Gebiete (Großalbanien), doch bei der Pariser Friedenskonferenz 1919 konnten sie nicht einmal die Eingliederung der mehrheitlich albanischen Gebiete an das Mutterland Albanien erreichen und wurden bei den Aufteilungsplänen völlig ignoriert. Während des Ersten Weltkrieges war Vardar-Mazedonien seit Ende 1915 von Bulgarien besetzt, im Grenzgebiet zu Griechenland verlief die Salonikifront. Bei der personellen Besetzung der Administration stützte sich Bulgarien auf die vorhandenen Strukturen der IMRO. So übernahmen vielerorts sowohl lokale Komitadschis (Partisanenanführer), die zuvor gegen die serbische Herrschaft gekämpft hatten, als auch zurückkehrende Emigranten zentrale Posten in der bulgarischen zivilen und militärischen Administration. Zwischen 1918 und 1941 war Vardar-Mazedonien Teil des Königreich Jugoslawiens. Dieses führte zur Reaktivierung des Terrorkriegs der IMRO gegen die serbische Staatsmacht nach 1920, so dass zeitweise bis zu 70 Prozent der jugoslawischen Gendarmerie in Vardar-Mazedonien stationiert waren. Von 1929 bis 1941 bildete das heutige Mazedonien zusammen mit Teilen des südlichen Serbiens aufgrund innenpolitischer Zwistigkeiten administrativ die Vardarska banovina ("Banschaft Vardar"). Im Zweiten Weltkrieg folgte von 1941 bis 1944 die erneute bulgarische Besetzung. 1943 erkannten die kommunistischen Partisanen Jugoslawiens (ohne Vertreter aus Mazedonien) die Existenz einer eigenständigen mazedonischen Nation an und planten die Errichtung einer „Republik Makedonien“ in einem zukünftigen föderalen Jugoslawien. Am 2. August 1944 fand die erste Sitzung der mazedonischen Kommunisten (ASNOM) im serbischen Kloster des "Heiligen Prochor Pčinjski" statt. Am selben Tag erfolgte die Gründung der jugoslawischen sozialistischen Teilrepublik Mazedonien. Im Jahr 1963 erschütterte ein Erdbeben die Stadt Skopje. Phase der Demokratisierung ab 1991. 1991 trat die staatliche Unabhängigkeit infolge des Zerfalls Jugoslawiens ein. Bulgarien erkannte als erstes Land noch im selben Jahr die Republik Mazedonien unter deren verfassungsgemäßem Namen an. Danach entstand ein Namens- und Symbolstreit mit dem Nachbarn Griechenland, der noch bis heute anhält. Im April 1993 wurde der Staat in die Vereinten Nationen aufgenommen. Gleichzeitig erfolgte eine konkludente Anerkennung durch die meisten EG-Staaten. 1999 nahm das Land tausende albanische Flüchtlinge aus dem Kosovo auf und versorgte sie (Kosovo-Krieg). Ab Anfang 2001 kam es vor allem im Nordwesten des Landes zu bürgerkriegsähnlichen Zuständen, als albanische Guerilla-Kämpfer einige Dörfer militärisch besetzten und sich Kämpfe mit Polizei und Armee lieferten. Ihr Ziel war eine Erlangung stärkerer Minderheitenrechte. Im August 2001 wurde das Rahmenabkommen von Ohrid geschlossen, das eine Entwaffnung der paramilitärischen Gruppen beinhaltete und mehr Rechte für die albanische Volksgruppe in Mazedonien bereithielt. 2004 trat das Stabilisierungs- und Assoziierungsabkommen (SAA) mit der Europäischen Union in Kraft. Im Dezember 2005 wurde dem Land der Status eines offiziellen EU-Beitrittskandidaten verliehen. Die Chronologie der Beziehungen zwischen Mazedonien und der EU beginnt 1996 mit der Einsetzung des ersten Vertreters Mazedoniens in Brüssel. Ab 2006: Konservative in der Regierung. Am 5. Juli 2006 fanden Parlamentswahlen statt. Sieger wurde mit rund 32 Prozent der abgegebenen Stimmen die Koalition "Für ein besseres Mazedonien", die von der christdemokratischen VMRO-DPMNE angeführt wurde. Die bisher regierenden Sozialdemokraten erreichten mit ihren Bündnispartnern nur 23 Prozent. Das Bündnis der beiden großen Albanerparteien erreichte 12 Prozent. Neuer Ministerpräsident wurde der Vorsitzende der VMRO-DPMNE Nikola Gruevski. Am 14. März 2008 schied die bis dahin mitregierende Albanische Demokratische Partei () aus der bestehenden Koalition aus. Sie begründete dies einerseits mit der Weigerung der stärksten Partei VMRO-DPMNE, den im Februar 2008 als unabhängig ausgerufenen Staat Kosovo anzuerkennen, andererseits mit der schleppenden Verabschiedung vereinbarter Gesetze zur Stärkung der Rechte der albanischen Minderheit. Vorerst blieb aber Ministerpräsident Nikola Gruevski im Amt und führte nun eine Minderheitsregierung. Diese Situation führte schließlich am 12. April 2008 zur Auflösung des Parlaments. Daraufhin wurden vorgezogene Neuwahlen für den 1. Juni 2008 anberaumt. Die Neuwahlen wurden überschattet von Gewaltausbrüchen, die mindestens einem Menschen das Leben kosteten. Bei den vorgezogenen Parlamentswahlen im Juni 2011 wurde die Regierung für eine dritte Legislaturperiode bestätigt. Am 3. April 2008 nahm Mazedonien mit einer Delegation am NATO-Gipfel in Bukarest teil. Die Delegation erhoffte eine Einladung zum Militärbündnis, die aber wegen eines Vetos von Griechenland aufgrund des immer noch dauernden Namensstreites nicht ausgesprochen wurde. Verfassung. Mazedonien ist eine Republik mit dem Regierungssystem einer parlamentarischen Demokratie. Die Verfassung wurde maßgeblich vom deutschen Altbundespräsidenten Roman Herzog und dem ehemaligen französischen Justizminister Robert Badinter ausgearbeitet und am 17. November 1991 verabschiedet. Seither schrieb man sie einige Male fort: so 1992, um ausdrücklich zu erklären, dass das Land keine territorialen Ansprüche gegenüber Nachbarstaaten erhebt und nicht in die Souveränitätsrechte anderer Staaten oder in ihre internen Angelegenheiten eingreift (im Zusammenhang mit den Verhandlungen mit Griechenland wegen des Streits um den Namen des Landes und seine internationale Anerkennung) und 2001 zwecks Einführung eines verfassungsrechtlichen Rahmens für die Umsetzung des Rahmenabkommens von Ohrid vom 13. August 2001 (Status der albanischen Sprache). Legislative. Die Legislative wird verfassungsgemäß vom Parlament (;) übernommen. Die 123 Abgeordneten werden durch allgemeine Direktwahl für eine Legislaturperiode von vier Jahren gewählt. Exekutive. Exekutive Aufgaben übernehmen die Regierung (maz. "Vlada" Влада; alb. "Qeveria") und der Präsident (maz. "Pretsedatel" Претседател; alb. "Kryetari i Shtetit"). Die Regierung wird durch den Ministerpräsidenten (maz. "Pretsedatel na Vladata" Претседател на Владата; alb. "Kryeministri") geleitet. Dieser geht als vom Präsident erwählter Kandidat ins Parlament, wo er die Mehrheit der Stimmen erreichen muss, um eine Regierung zu bilden. Staatsoberhaupt ist der Präsident, der vor allem repräsentative Aufgaben hat. Er wird vom Stimmvolk auf fünf Jahre gewählt. Parteienlandschaft. Das mazedonische Parteiensystem ist durch eine doppelte Polarität gekennzeichnet: einerseits eine ethnisch-nationale (mazedonisch und albanisch) und andererseits eine politische (sozialdemokratisch und konservativ). Das konservative Lager wird jedoch nur von der VMRO-DPMNE vertreten. Ebenfalls ist die VMRO-DPMNE die einzige Partei, die eine enge Anlehnung an den östlichen Nachbarn Bulgarien anstrebt. Die SDSM vertritt das sozialdemokratische Lager. Zu den größten albanischen Parteien gehören (nach Anzahl Parlamentssitze) die BDI, die PDSH und die RDK. Innenpolitik. Die Innenpolitik ist stark durch den Konflikt zwischen den beiden größten Nationalitäten geprägt, den Mazedoniern und den Albanern. Mazedonien hatte auf internationalen Druck im Kosovokonflikt 1999 rund 380.000 Flüchtlinge aus dem Kosovo aufgenommen, was das brüchige ethnische Gefüge im Land für eine Weile änderte. Seit dem Frühjahr 2001 verstärkte sich der Konflikt nach der Bildung einer neuen militanten albanischen Organisation (Ushtria Çlirimtare Kombëtare). Durch das Engagement des Präsidenten Boris Trajkovski, der Europäischen Union und der Vereinigten Staaten konnte im Rahmenabkommen von Ohrid vertraglich ein Ausgleich zwischen den Volksgruppen und eine Entwaffnung der militanten Albaner erreicht werden. Ein wesentlicher Streitpunkt ist unter anderem die gesetzliche Regelung zur Verwendung der albanischen Sprache. Mit dem Rahmenabkommen von Ohrid, das die bewaffneten Auseinandersetzungen im Jahr 2001 beendete, waren die Grundlagen für eine solche gesetzliche Regelung gelegt worden. Nach sieben Jahren wurde dann ein Gesetz verabschiedet, das Albanisch als (zweite) Amtssprache in den Gemeinden festlegt, in denen mindestens 20 Prozent Albaner leben. Zudem werden alle Unterlagen des Parlaments ins Albanische übersetzt, allerdings finden die Aussprachen im Parlament immer noch nur auf Mazedonisch statt. Nachdem dieses Gesetz zunächst auf große Zustimmung stieß, forderten im Sommer 2009 zwei oppositionelle Albanerparteien die vollständige Gleichberechtigung des Albanischen als Amtssprache im ganzen Land (als Vorbild gilt die Schweiz). Wegen des Namensstreits verhinderte Griechenland im April 2008 die von Mazedonien erwünschte Beitrittszusage der NATO an Mazedonien. Es kam zu einer Koalitionskrise und zur Auflösung des Parlaments. Bei der Parlamentswahl am 1. Juni 2008 errang die VMRO-DPMNE mit 48 Prozent der Stimmen die absolute Mehrheit der Mandate, sie regiert zusammen mit dem albanischen Koalitionspartner Demokratische Union für Integration (), der 10 Prozent der Stimmen erhielt. Der bisherige Koalitionspartner der VMRO-DPMNE, die sich ebenfalls als Partei der Albaner verstehende Albanische Demokratische Partei (), ging in die Opposition. Das Parlament wählte am 26. Juli 2008 Nikola Gruevski wieder zum Ministerpräsidenten. Immer wieder kommt es auf beiden Seiten zu gewalttätigen Übergriffen und Sabotage-Akte auf Moscheen und orthodoxe Kirchen. In der Region von Struga flammte der Konflikt auf, nachdem beim Karneval im Dorf Vevčani die Umziehenden mit Kostümen, Gesten und Parolen den Islam und dessen Bräuche in dieser Region beleidigten. Am Abend des 30. Januar 2012 wurde die "Heiligen Nikolaus Drimeni" im ethnisch gemischten Ort Labuništa im Brand gesetzt. Einige Zeugen berichteten, dass ethnische Mazedonier das Feuer gelegt hätten. Die muslimische Gemeinschaft reagierte am folgenden Tag mit einem friedlichen Protest in der Innenstadt von Struga, wo über Tausend Menschen teilnahmen. Neben dem Mufti war auch der Bürgermeister der Gemeinde Struga zugegen, welche die beleidigenden Aktionen in Vevčani verurteilten. Im Januar 2012 entflammte wieder eine Serie von Propaganda-Aktivitäten, als Umziehende beim Karneval in Vevčani den Islam beleidigten. Am 31. Januar 2012 wurde an eine Moscheewand in Bitola ein Graffiti mit der Aufschrift „Tod den Albanern“ gemalt. Am selben Abend zündeten albanische Extremisten in einem Dorf in der Nähe von Tetovo eine orthodoxe Kirche an, doch sie blieb von einer völligen Verbrennung verschont, nachdem albanische Dorfbewohner und die örtliche Feuerwehr zur Löschung eintrafen. Ab Februar 2015 veröffentlichen der Parteivorsitzende der Sozialdemokratische Liga Mazedoniens (SDSM), Zoran Zaev, und seine Parteikollegen auf Pressekonferenzen politisch und strafrechtlich brisante Inhalte, welche die Regierungspolitik der VMRO-DPMNE mit ihrem Vorsitzenden und aktuellen Ministerpräsidenten Nikola Gruevski diskreditieren. Es wurden Telefonate zwischen VMRO-DPMNE-Mitgliedern abgehört, in denen sie sich rassistisch gegenüber der albanischen Minderheit äußern. In weiteren Enthüllungen wird der Regierung Korruption und Beeinflussung der Justiz vorgeworfen. Alle Informationen wurden der Staatsanwaltschaft übergeben, die aber bisher noch keine Anklage erhoben hat. Am 9. Mai und 10. Mai 2015 war ein großes Aufgebot von Sicherheitskräften in Schiessereien im mehrheitlich von Albanern besiedelten Stadtteil "Lagjja e Trimave" von Kumanovo verwickelt. Eine zunächst anonym gegen mazedonische Sicherheitskräfte agierende Gruppe wurde am zweiten Tag der Auseinandersetzungen von der Regierung als „terroristisch“ bezeichnet. Während die Wohnbevölkerung in absoluter Ungewissheit über die Geschehnisse war, wurden wichtige Straßenverbindungen zur Stadt und die nahe Autobahn A1 blockiert beziehungsweise geschlossen. Zeitweise war der nahe Grenzübergang "Tabanovce" zu Serbien gesperrt. Mehrere Zivilisten wurden verhaftet, auch Kinder, Alte und Frauen. Am 10. Mai beruhigte sich die Lage wieder; die Schiessereien hörten auf und zuvor aus dem Stadtteil evakuierte Bewohner durften an dem Abend wieder in ihre Wohnungen zurückkehren. In einem vom mazedonischen Innenministerium veröffentlichten Video treten die Täter mit UÇK-Uniformen auf. Eine albanischsprachige Zeitung veröffentlichte zudem eine „Erklärung“ einer sich als UÇK bezeichnenden Gruppierung. Bei den Kämpfen kamen acht Polizisten und 14 bewaffnete Gruppenmitglieder ums Leben. 37 Sicherheitskräfte wurden verletzt. Zudem kapitulierten rund 30 bewaffnete „Terroristen“ und wurden verhaftet. Währenddessen rief die mazedonische Regierung für den 10. und 11. Mai die Staatstrauer aus. Außenpolitik. Die Außenpolitik Mazedoniens ist stark durch die Bemühungen geprägt, Mitglied der NATO und der Europäischen Union zu werden. Allerdings widersetzt sich der Nachbar Griechenland der Aufnahme Mazedoniens unter dem Namen „Republik Mazedonien“. Kennzeichnend ist das Verfolgen innenpolitischer Ziele durch außenpolitische Mittel, was insbesondere eine Folge des nach 1945 mit Erfolg betriebenen Projekts der mazedonischen Nationenbildung ist. So nutzen fast alle Parteien das Thema der „großbulgarischen Aspirationen“ und die bulgarische Besatzungsherrschaft von 1941 bis 1944 (in der die VMRO die Verwaltung in der Region stellte) als ein Mittel, um die Macht der nationalistischen VMRO-DPMNE in Grenzen zu halten. Einer der Gründe war die Verfassung von Mazedonien: In Artikel 49 wurde erklärt, dass sich die Republik für den Status und die Rechte der Mazedonier in den Nachbarländern einsetzt, einschließlich der ehemaligen mazedonischen Volksgruppen "(Expatriats)". Dieser Artikel verpflichtete Mazedonien, alle Mazedonier in ihrer kulturellen Entwicklung zu fördern und ihre Bindungen an die alte Heimat zu fördern. Griechenland interpretierte dies als Ermutigung zum Separatismus gegenüber seiner Minderheit der mazedonischen Slawen und befürchtete potenzielle territoriale Ansprüche durch Mazedonien. Nach einer Handelsblockade durch Griechenland hat Mazedonien seine Verfassung geändert und erklärt nun ausdrücklich, dass es keine territorialen Ansprüche gegenüber den Nachbarstaaten hat. Ebenso hat Mazedonien aufgrund der Handelsblockade seine Flagge, die ursprünglich den sechzehnstrahligen Stern von Vergina (Vergina-Sonne), das Symbol des antiken makedonischen Staates, zeigte, geändert. 1980 gab es mit dem damaligen Jugoslawien propagandistische Auseinandersetzungen um den ethnischen Ursprung der Mazedonier. Damals glaubte Bulgarien, sich propagandistisch gegen jugoslawische Ansprüche auf die mazedonische Provinz Bulgariens wehren zu müssen. Es handelte sich aber nur um lokale Propaganda über Radio und Zeitung, die international kaum wahrgenommen wurde. Im Zusammenhang mit diesen Spannungen wurden 1980 auch zwei bulgarische Angler von jugoslawischen Grenzsoldaten an einem Grenzbach erschossen. Nach der Unabhängigkeit Mazedoniens am 15. Januar 1992 hat Bulgarien als erstes Land die Republik Mazedonien anerkannt, und zwar unter ihrem verfassungsmäßigen Namen. Bulgarien hatte zunächst abgelehnt, die Existenz einer separaten mazedonischen Sprache anzuerkennen. Dies führte bei der Vertragsunterzeichnung zwischen beiden Ländern zu einigen Komplikationen. Bulgarien argumentierte, dass es sich bei der mazedonischen Sprache um eine künstliche Erhebung eines bulgarischen Dialektes handele sowie dass sie mit der heutigen bulgarischen Sprache in einem sprachlichen Kontinuum stehe. Bulgarien gibt den Mazedoniern das Recht, die bulgarische Staatsbürgerschaft zu erhalten, sofern sie eine bulgarische Herkunft nachweisen können. Davon haben bisher ungefähr 10 Prozent der Berechtigten Gebrauch gemacht, darunter der ehemalige Ministerpräsident Ljubčo Georgievski. Historisch gesehen war das Gebiet des heutigen Staates Mazedonien, seine Bevölkerung, seine Traditionen und seine Sprache eng mit der bulgarischen Geschichte verbunden. Im Jahr 1999 legten die bulgarische und die mazedonische Regierung ihren jahrelangen Sprachenstreit bei, der die bilateralen Beziehungen schwer belastet hatte. Bulgarien erkannte die Eigenständigkeit der mazedonischen Sprache an, und Mazedonien verzichtete im Gegenzug auf jegliche Einflussnahme auf die mazedonische Minderheit in Bulgarien. 2009 schlug der bulgarische Außenminister Nikolaj Mladenow vor, ein Freundschafts- und Nachbarschaftsabkommen zwischen den beiden Staaten zu unterschreiben. Sein Vorschlag wurde jedoch in Skopje bis heute nicht aufgegriffen. Stattdessen wurde im Mai 2012 eine bulgarische Delegation, angeführt vom bulgarischen Botschafter, in Skopje bei einer Kranzniederlegung angegriffen. Wegen des frostigen Verhältnisses der beiden Staaten zueinander kommt auch die grenzübergreifende Zusammenarbeit nicht voran. Bulgarien beklagt eine mangelnde Kommunikation Skopjes und wirft mazedonischen Behörden vor, bereits ausgehandelte EU-Projekte in Höhe von 6,3 Millionen Euro nicht umgesetzt zu haben. Auch der Ausbau des Paneuropäischen Verkehrskorridors VIII wird von mazedonischer Seite immer wieder verschoben. Des Weiteren sprechen offiziellen Politiker, Wissenschaftler und weitere führende mazedonische Persönlichkeiten von 200.000 Angehörigen einer in der Umgebung von Blagoewgrad, bis 750.000 in gesamten Land lebenden „Mazedonische Minderheit“, obwohl sich 2011 bei der letzten der Volkszählung nur 1.654 Bewohner (weniger als 1 % der gesamte Bevölkerung) Bulgariens als Mazedonier bekannten. Im August 2012 erklärte der Vorsitzender des Mazedonischen Weltkongresses Todor Petrov in einem Interview, dass es in Bulgarien keine „Mazedonische Minderheit“, sondern einer „Mazedonische Mehrheit“ gäbe. Weiter führte er die gemeinsamen Historischen Ereignisse nur auf die Errungenschaft des mazedonischen Volkes, bezeichnete die bestehende Staatsgrenzen als künstlich und den Fundament des Bulgarischen Staates als von Grund aus Mazedonisch. Im September des gleichen Jahres mahnte der EU-Kommissar für Erweiterung Štefan Füle die mazedonischen Politiker wegen der zunehmenden Probleme und fehlenden Zusammenarbeit mit Bulgarien an. Im Dezember des gleichen Jahres entzog die bulgarische Regierung Mazedonien wegen der fehlenden Zusammenarbeit, des Projektes Skopje 2014 und dem Umgang mit der bulgarischen Minderheit in Mazedonien die Unterstützung und sprach sich gegen ein konkretes Datum für den Beginn von EU-Beitrittsgesprächen aus. Serbien sieht seinen südlichen Nachbarn kritisch, weil sich Mazedonien von Jugoslawien abspaltete und im Kosovo-Konflikt auf Seiten der NATO stand. Wegen dieser Umstände ist die mazedonische Politik vor allem auf Beschwichtigung ausgelegt. Neben einer Heranführung des Landes an einen Beitritt zur EU hat das Land wichtige Beziehungen zu den USA hergestellt. So war Mazedonien mit einem kleinen Truppenkontingent am Irak-Krieg beteiligt. Die US-Regierung erkannte das Land kurz nach den US-amerikanischen Präsidentschaftswahlen im November 2004 daraufhin unter dem Namen „Republik Mazedonien“ an. Dies führte sofort zu einem Eklat in Griechenland und einer Zitierung des US-Botschafters in Athen ins griechische Außenministerium. Die EU hat allerdings Griechenland zugesichert, nicht dem US-amerikanischen Beispiel folgen zu wollen. Albanien verlangt seit der Unabhängigkeit Mazedoniens die Wahrung der Rechte der albanischen Minderheit in Mazedonien. In Albanien wiederum existiert eine mazedonische Minderheit im Gebiet des Prespa-Sees, mit einer mazedonischsprachigen Schule. Die Mazedonier Albaniens sind in einer eigenen politischen Partei organisiert. Militär. Mazedonien unterhält ein Freiwilligenheer mit rund 10.000 Soldaten, das durch Mobilisierung der Reserve um weitere 21.000 Mann verstärkt werden kann. Das Militärbudget betrug 2012 rund 130 Millionen Euro. Wirtschaft. Der Sitz der Zentralbank Mazedoniens in Skopje Mazedonien war in der SFR Jugoslawien eines der wirtschaftlich rückständigsten Gebiete mit einer nur gering entwickelten Industrie und nur geringen Rohstoffvorkommen. Im Jahr 2000 wurden immer noch 9,7 % des Bruttoinlandsproduktes (BIP) in der Landwirtschaft erwirtschaftet und 31,6 % in der Industrie. Die Arbeitslosenquote, die zwischenzeitlich 2014 auf 34 % angestiegen war, verharrt seit 2010 erneut auf dem Niveau von 2000 mit immer noch besorgniserregenden ca. 32,0 %. Durch das im Vergleich zu anderen Transformationsstaaten relativ niedrige Wirtschaftswachstum der letzten Jahre (2,5 % im Jahr 2004) fiel die wirtschaftliche Entwicklung weiter zurück, mit einem Pro-Kopf-BIP von 3.659 USD ist Mazedonien einer der ärmeren Staaten Europas. Das Land litt unter den typischen Problemen eines postsozialistischen Staates, z. B. einer ausgeprägten Korruption, einem zu großen Beamtenapparat und der Ineffizienz der industriellen Betriebe sowie der wirtschaftlichen Blockade durch Griechenland. Nach Ansicht der EU-Kommission in ihrem Fortschrittsbericht 2009 sind diese Probleme durch die Reformpolitik behoben. Die hohe Arbeitslosigkeit stellt eines der wirtschaftlichen Hauptprobleme dar. Das Handelsbilanzdefizit ist hoch, die Einfuhren übertreffen die Ausfuhren um über 70 %. Ausgeglichen wird das Handelsbilanzdefizit überwiegend durch Transferzahlungen der im Ausland lebenden Albaner und Mazedonier. Größter Direktinvestor im Lande ist Griechenland, dann folgen die Republik Zypern und Bulgarien. Im Prozess der Privatisierung wurden die größten und profitabelsten Unternehmen des Landes bereits verkauft. Verblieben sind zahlreiche unrentable Unternehmen und Sanierungsfälle. Um ausländische Investoren dennoch anzulocken, führte Mazedonien zum 1. Januar 2007 eine sogenannte "Flat Tax" nach dem slowakischen Vorbild ein. Der Steuersatz beträgt für natürliche Personen und Körperschaften einheitlich 12 % und wird ab 2008 auf 10 % gesenkt. Thesaurierte (also einbehaltene) Gewinne werden überhaupt nicht besteuert. Wichtige Exportprodukte sind Nahrungsmittel, Getränke (v. a. Wein) und Tabak sowie Eisen und Stahl. Die bedeutendsten Zielländer sind Serbien (31,4 %), Deutschland (19,9 %), Griechenland (8,9 %) und Kroatien (6,9 %). Den größten Anteil am Import nach Mazedonien haben Griechenland (15,4 %), Deutschland (13,1 %), Serbien (10,4 %), Slowenien (8,6 %) und Bulgarien (8,1 %). Der Staatshaushalt umfasste 2009 Ausgaben von umgerechnet 3,2 Mrd. US-Dollar, dem standen Einnahmen von umgerechnet 3,0 Mrd. US-Dollar gegenüber. Daraus ergibt sich ein Haushaltsdefizit in Höhe von 2,2 % des BIP. Die Staatsverschuldung betrug 2009 2,9 Mrd. US-Dollar oder 32,4 % des BIP. Schiene. Hauptverkehrsachse ist das in Richtung Südost-Nordwest verlaufende breite Vardar-Tal mit der wichtigsten Eisenbahnlinie der Makedonski Železnici (MŽ). Straße. Im Straßenverkehr verlaufen die wichtigsten Ströme entlang des Vardar. Die hier verlaufende Autobahn verbindet die Hauptstadt Skopje mit Belgrad und dem griechischen Hafen Thessaloníki. Die M4 ist die neue Stadtumfahrung von Skopje und führt dann nach Westen (Tetovo) und südlich bis Gostivar, darüber lief der Nachschub der NATO nach Kosovo. Zu Zeiten des Handelsembargos durch Griechenland und während des Kosovokonfliktes kam es zu Einschränkungen im Transitverkehr. Obwohl dadurch die Abhängigkeit von den Nachbarn im Norden und Süden sichtbar wurde, geht der Ausbau der Ost-West-Verbindungen mit Albanien und Bulgarien nur langsam voran. Luft. Internationale Flugverbindungen bestehen von Skopje und von Ohrid aus. Kultur. Typische Hausarchitektur auf dem Land Junge Frauen in einer der Volkstrachten Südmazedoniens "Tavče Gravče" (Тавче Гравче) ist ein beliebtes Gericht in Mazedonien. Es wird im Ofen in Tontöpfen mit weißen Bohnen, Fleisch, Gemüse und Paprika zubereitet. Handgefertigte traditionelle Teppiche auf einem Basar in Skopje Mazedonien ist kein eigenständiger Kulturraum. So gibt es beispielsweise immense Unterschiede zwischen vielen Landesteilen. Vor allem ist das auf die verschiedenen Ethnien zurückzuführen, die jeweils ihre eigenen Kulturen „leben“ und selbstständige Kulturräume bilden. Zudem spielt die Religion eine Rolle, da das Land durch das orthodoxe Christentum und den Islam geprägt ist. Doch es gibt vielerorts eine Art „Symbiose“, wo die Kulturen sich zum Teil vermischt oder andere beeinflusst haben. Diese Gegenden befinden sich vor allem dort, wo die Bevölkerung ethnisch heterogen ist. Aus diesem Grund muss man Mazedonien in folgende Kulturräume unterteilen: ethnisch-mazedonisch, albanisch, türkisch, Romani, serbisch, bosniakisch und walachisch. Im Folgenden wird jedoch größtenteils nur auf die ethnisch-mazedonische Kultur eingegangen, für die anderen siehe "albanische", "Roma-", "serbische" und "rumänische (walachische)" "Kultur". Küche. Die zur Balkanküche gehörende mazedonische Küche basiert auf dem in den Hoch- und Flussebenen angebauten Getreide, vor allem Weizen und Mais, im Südosten des Landes auch auf Reis. Wie die Küchen anderer Länder der Balkanhalbinsel war die mazedonische Küche über Jahrhunderten orientalischen und mediterranen Einflüssen ausgesetzt. Bei der Viehzucht spielen Rinder, Schafe und Schweine die wichtigste Rolle, außerdem gibt es Ziegen und Wild. Die bedeutendsten Fruchtsorten sind Apfel, Birne, Kirsche, Melone, Aprikose, Pfirsich, Feige, Wassermelone und Pflaume. Auch Esskastanien, Mandelbäume, Walnüsse, Haselnüsse und vor allem Trauben wachsen hier. In den Gewässern Südwestmazedoniens leben viele Fischarten, unter denen die Ohridforelle und der kleine Barbengründling zu den Spezialitäten der dortigen Küche zählen. Typische Gerichte. Durch die nicht immer besten vegetativen und klimatischen Voraussetzungen wachsen im Land vor allem hitzebeständige und nicht viel Wasser brauchende Gemüsesorten, wie beispielsweise Kartoffeln, Zwiebeln, Kraut, Karotten, Knoblauch, Spinat oder Erbsen. In vielen Hausgärten, aber auch in landwirtschaftlichen Betrieben werden auch andere Sorten kultiviert, die mehr Wasser und auch Sonnenschutz brauchen, unter anderem zählen hierzu Tomaten, Paprika, Gurken und Auberginen. Fleisch ist bei vielen Gerichten eine beliebte Beilage. Oft anzutreffen sind Gerichte mit Rind, Kalb, Lamm, Schwein und regional auch Fisch. Sonnenblumenöl und Butter (vor allem in hohen Lagen) dominieren als Speisefett, in den Regionen im Südwesten und Süden wird oft auch Olivenöl gebraucht. Zu den beliebtesten Gewürzen zählen Salz, Schwarzpfeffer, Zucker, Vegeta, Rosmarin, Petersilie und je nach Region auch Basilikum, Majoran und Koriander. Auch Kümmel, Dill und Chilipulver sind in Mazedonien anzutreffen. Sport. Neben Fußball ist Handball die wichtigste Mannschaftssportart im Land. 2002 gewann Kometal Skopje den Europapokal der EHF Champions League der Frauen. Die Handball-Europameisterschaft der Frauen fand im Jahr 2008 in Mazedonien statt. Austragungsorte waren Skopje und Ohrid. Die mazedonische Frauen-Handballnationalmannschaft erreichte dabei den siebten Platz. Mazedonien nimmt seit 1996 bei den Olympischen Sommerspielen und seit 1998 bei den Winterspielen regelmäßig teil. Bisher konnte eine Bronzemedaille gewonnen werden – bei den Sommerspielen 2000 in der Disziplin Ringen von Magomed Ibragimow. Literatur. International bekannt und in viele Sprachen übersetzt wurden nach 1990 Werke von Vlada Urošević (* 1937) ("Meine Cousine Emilia", deutsche Übersetzung 2013). Zu den jüngeren, nach 1990 aktiven Autoren gehören der in Rumänien geborene Erzähler Ermis Lafazanovski (* 1961) sowie Nikola Madzirov (* 1973) und die seit 1999 in Deutschland lebende Verica Trickoviv. Die Abende der Poesie in Struga gehören weltweit zu den ältesten und größten ihrer Art. Medien. Die öffentlich-rechtliche Rundfunkanstalt Mazedoniens, "Makedonska Radio-Televizija" (kurz MRT), betreibt neben zwei Fernsehsendern (MRT1 als Hauptsender und MRT2 für die ethnischen Minderheiten der Albaner, Türken, Serben, Roma, Aromunen und Bosniaken) auch einige Radiostationen. Radio Skopje (gegründet 1944) ist der wichtigste unter ihnen. Radio 2 überträgt Volksmusik und andere Unterhaltungssendungen. Radio 3 wird von den ethnischen Minderheiten genutzt. Die Mazedonische Informationsagentur ist die öffentliche Nachrichtenagentur des Landes. Von Bedeutung sind weiter die privaten Fernsehsender Alfa TV, Sitel, Kanal 5, Telma, Naša TV und Alsat-M. Landesweit übertragende private Radiostationen sind Buba Mara, Kanal 77, Antenna 5 und Kanal 4. Mazedonischsprachige Tageszeitungen sind Dnevnik, Nova Makedonija (gegründet 1944), Utrinski Vesnik, Vreme und Večer (staatlich). Wichtige albanischsprachige Tageszeitungen sind Fakti, Koha und Lajm. Weitere Zeitungen sind unter "Liste mazedonischer Zeitungen" aufgelistet. Freedom House schätzte im Jahr 2014 die Pressefreiheit in Mazedonien als „teilweise frei“ ein und gab ihr einen der letzten Ränge in Europa. Film. Bekannt wurde der Film Der Tag, als Stalins Hose verschwand (2004) von Ivo Trajkov. Mazedonische Sprache. Die mazedonische Sprache (mazedon.:, transliteriert "makedonski jazik"), auch "makedonische Sprache" und "Slawomazedonisch" ist eine Sprache aus der südslawischen Untergruppe der slawischen Sprachen, die ihrerseits zu den indogermanischen Sprachen zählen. Sie wird überwiegend in der Republik Mazedonien gesprochen. Die dem Mazedonischen nächstverwandte Sprache ist das Bulgarische. Die mazedonischen Dialekte sind Teil eines Dialektkontinuums, das sich sowohl zum Bulgarischen als auch zum Serbischen fortsetzt. Klassifikation. Das Mazedonische wird in der Linguistik zusammen mit dem Bulgarischen zur östlichen Gruppe der südslawischen Sprachen gerechnet, die sich durch zahlreiche Merkmale von der westlichen Gruppe und teilweise auch von den übrigen slawischen Sprachen unterscheidet. Aufgrund der großen Ähnlichkeit zum Bulgarischen wurden die mazedonischen Dialekte, solange keine eigenständige mazedonische Schriftsprache bestand, meist als bulgarische Dialekte eingeordnet, so dass "Bulgarisch" synonym mit "Ostsüdslawisch" gebraucht wurde. In Bulgarien ist diese Betrachtungsweise noch heute allgemein üblich. In der Republik Mazedonien werden hingegen heute alle autochthonen slawischen Varietäten der historisch-geographischen Region Makedonien als "Mazedonisch" klassifiziert, so dass hier "Mazedonisch" synonym zu "Südslawisch auf dem Gebiet der historisch-geographischen Region Makedonien" gebraucht wird. Im Rahmen der nicht auf genealogischer Sprachverwandtschaft, sondern auf Sprachkontakt durch räumliche Nähe begründeten Sprachbund-Theorie gehört Mazedonisch zum Sprachbund der Balkansprachen. Verbreitung. Mazedonisch wird von ca. 2 Millionen Menschen als Muttersprache gesprochen. Die Mehrzahl der Sprecher betrachtet sich als Angehörige des mazedonischen Volkes. Von den Sprechern leben ca. 1,3 Mio. in Mazedonien, wo es Amtssprache ist. Kleinere Gruppen von Sprechern leben in Bulgarien (1376), Griechenland und Albanien, wobei die genauen Zahlen aufgrund von Klassifikationsproblemen und Mangel an genauen Statistiken umstritten sind. Die im Südosten Albaniens lebende kleine mazedonischsprachige Minderheit führt eigene Schulen. Im Nordwesten des griechischen Makedoniens gibt es eine Minderheit, die ostsüdslawische Varietäten spricht, die von vielen Slawisten dem Mazedonischen zugerechnet werden. Die mazedonische Standardsprache ist dort jedoch nicht gebräuchlich, so dass es sich um „dachlose Außenmundarten“ handelt. In Griechenland werden diese Varietäten gewöhnlich als "Slawomazedonisch", "Bulgaromazedonisch" oder einfach als "Slawisch" bezeichnet, da das Wort "Mazedonisch" dort gewöhnlich mit Bezug auf die griechische Region Makedonien als ganze verwendet und seine Verwendung zur Bezeichnung einer nicht-griechischen Sprache als Angriff auf die nationale Identität der griechischen Makedonier interpretiert wird. In der ausländischen Slawistik werden diese Varietäten auch als Ägäis-Mazedonisch bezeichnet, in der bulgarischen Slawistik werden sie ebenso wie die übrigen mazedonischen Varietäten zum Bulgarischen gezählt. Durch jüngere Auswanderung leben Sprecher auch in Slowenien, Kanada, USA, Australien, Ungarn sowie in Deutschland. Geschichte. Bis 1944 wurden die slawischen Mundarten im Gebiet des heutigen Mazedoniens in der Slavistik als Bulgarisch eingestuft. So sind Dramenwerke vor dieser Zeit bekannt, die in einigen dieser Mundarten veröffentlicht wurden. Die politische Entscheidung zur Bildung der mazedonischen Sprache wurde 1934 von der Kommunistischen Internationale gefasst. So wurden in der ersten Hälfte der 1940er Jahre einige makedonische Mundarten erstmals systematisch zur Verfassung von Sachprosa in der Publizistik der Kommunistischen Partei Jugoslawiens (KPJ) und der Partisanenbewegung verwendet. Damit begann der Ausbau des Mazedonischen zur Standardsprache. Am 2. August 1944 wurde im südserbischen Kloster Sv. Prohor Pćinjski der Antifaschistische Rat der Volksbefreiung Mazedoniens auf Initiative der KPJ gegründet. Als eine seiner ersten Handlungen beschloss der Rat die Einführung der „mazedonischen Sprache“ und proklamierte diese in der Republik Mazedonien (innerhalb der jugoslawischen Föderation) zur „Amtssprache“. Der Rat setzte in der folgenden Zeit drei philologische Kommissionen zur Ausarbeitung einer mazedonischen Schriftsprache ein. Dabei orientierte sich das kyrillische Alphabet des Mazedonischen größtenteils am Vorbild des kyrillischen Alphabetes des Serbischen, das ebenfalls 1945 kodifiziert wurde. Am 5. Mai 1945 gab die 3. Kommission ihren endgültigen Beschluss über das Alphabet und die Rechtschreibung bekannt, der am nächsten Tag in der Zeitung Nova Makedonija veröffentlicht wurde. Die mazedonische Schriftsprache entstand als Abgrenzung zum Bulgarischen und so wurde der Wortschatz der slawischen Mundarten im Gebiet der Sozialistischen Jugoslawischen Republik Mazedonien in der darauf folgenden Zeit von den Bulgarismen gereinigt. Dennoch bleibt sie bis heute mit der bulgarischen am engsten verwandt. Im Kontext der Nationsbildung Mazedoniens durch die AVNOJ (kommunistische Partei Jugoslawiens) und der Entwicklung eines Nationalbewusstseins in der SJR Mazedonien spielte die Entwicklung einer eigenen schriftlich kodifizierten Sprache eine wichtige Rolle. Jedoch kam es im Zuge dieser Entwicklung zu sprachpolitisch motivierten Konflikten, vor allem mit Bulgarien (u.a. im Zusammenhang über die Deutung des gemeinsamen historischen Erbes), Serbien und mit Griechenland („Namensstreit“) und der Nichtanerkennung der dort lebenden mazedonischen Minderheit. Varietäten. Das Mazedonische ist heute eine voll ausgebaute, für Äußerungen in allen Lebensbereichen gerüstete Standardsprache. Auch wenn eine Verständigung mit den Sprechern des Bulgarischen problemlos möglich ist, werden mittlerweile beide Idiome als eigenständige Sprachen angesehen. Da die mazedonische Schriftsprache auf den Dialekten der Region um die Städte Kičevo, Bitola, Struga und Ohrid im westlichen Mazedonien basiert, die bulgarische hingegen überwiegend auf den Dialekten des östlichen Bulgariens, ist der Unterschied zwischen Mazedonisch und Bulgarisch in der Schriftsprache größer als in der gesprochenen Sprache. Tatsächlich ist zwischen beiden Sprachen ein Dialektkontinuum festzustellen, in dem nur wenige Isoglossen in der Nähe der Staatsgrenze verlaufen, so dass die Mundarten des östlichen Mazedoniens den Mundarten des westlichen Bulgariens ähnlicher sind als beispielsweise den Mundarten in der Region von Ohrid oder Skopje und eine sprachimmanente Dialektgrenze zum Bulgarischen nicht gezogen werden kann. Übersicht über die mazedonischen Dialekte. Die südslawischen Dialekte im geographischen Makedonien Die vorstehende Übersicht und die Karte umfassen alle autochthonen südslawischen Dialekte der geographischen Region Makedonien. Auf sprachstruktureller Ebene besteht ein Dialektkontinuum sowohl zu den nördlich benachbarten Torlakischen Mundarten des Serbischen als auch zu den östlich benachbarten bulgarischen Mundarten. Die auf bulgarischem Territorium gesprochenen Varietäten des Maleševo-Pirin-Dialektes und des Ser-Drama-Lagadin-Nevrokop-Dialektes werden von mazedonischen Dialektologen als mazedonisch klassifiziert, da sie jedoch seit langem von der bulgarischen Standardsprache überdacht werden, sind sie als bulgarische Dialekte zu klassifizieren. Die slawischen Varietäten des griechischen Teiles Mazedoniens lassen sich nach soziolinguistischen Kriterien größtenteils weder eindeutig dem Mazedonischen noch eindeutig dem Bulgarischen zuordnen. Die Karte gibt in diesem Gebiet im übrigen den Stand vom Beginn des 20. Jahrhunderts wieder, wie er in den Werken der mazedonischen und bulgarischen Dialektologen meist aufgrund älterer Quellen und Sprachaufnahmen mit in diesen Ländern lebenden Emigranten aus Griechisch-Mazedonien dargestellt wird. Aufgrund der politisch-gesellschaftlichen Veränderungen des 20. Jahrhunderts (Assimilation und Zwangsumsiedlungen) lässt sich diese Beschreibung nicht ohne weiteres auf die Gegenwart übertragen. Der Dialekt der Goranen im Südwest-Kosovo wird erst seit jüngerer Zeit von manchen mazedonischen Dialektologen als mazedonisch (und ebenso von manchen bulgarischen Dialektologen als bulgarisch) betrachtet. Er wurde in jugoslawischer Zeit (und wird noch heute zumindest teilweise) von der serbischen Variante des Serbokroatischen überdacht und wurde traditionell zur torlakischen Dialektgruppe des Serbokroatischen gezählt. Alphabet. Das mazedonische Alphabet wurde 1944/45 von zwei vom Antifaschistischen Rat der Volksbefreiung Mazedoniens eingesetzten Orthographiekommissionen entwickelt. Diese orientierten sich dabei überwiegend am serbischen Alphabet von Vuk Stefanović Karadžić. Von der serbischen Kyrilliza unterscheidet es sich durch die andere Form der Buchstaben ѓ (serbisch ђ bzw. đ in Lateinschrift) und ќ (serbisch ћ bzw. ć) sowie durch den zusätzlichen Buchstaben ѕ (der den im Serbischen nicht existierenden Laut [dz] wiedergibt). Das mazedonische Alphabet hat daher 31 Buchstaben (das serbische 30). Zuvor waren mazedonische Varietäten in den 1930er und der ersten Hälfte der 1940er Jahre mit individuellen Adaptationen der serbischen oder bulgarischen Kyrilliza geschrieben worden. Wortakzent. In der mazedonischen Sprache liegt der Wortakzent meist auf der drittletzten Silbe des Wortes, und bei Wörtern mit weniger als drei Silben folglich auf der jeweils ersten Silbe. Konsonanten. Im Auslaut eines Wortes, also am Wortende, verlieren stimmhafte Konsonanten ihre Stimmhaftigkeit; so wird zum Beispiel град „Stadt“ als [grat] ausgesprochen. Grammatik. Mit dem Bulgarischen teilt das Mazedonische viele für slawische Sprachen untypische Merkmale, z.B. den vollständigen Entfall des Genitivs, postponierte Affixe als Artikel oder eine Objektverdopplung. Nomina. Makedonische Nomina werden in drei Genera unterteilt: Maskulina, Feminina und Neutra. Determination. Determination wird im Mazedonischen ähnlich den anderen Balkansprachen durch postponierte Affixe realisiert. Sie kongruiert nach Numerus (Singular, Plural) und außerdem im Singular nach Genus (maskulin, feminin, neutrum). In der Definitheit drückt sich darüber hinaus auch eine dreifach abgestufte Distanz zu dem Sprecher aus (unmarkiert/medial, proximal/nah zum Sprecher, distal/fern vom Sprecher). Vokativ. Mazedonische Nomina bilden außerdem Vokativformen, welche der direkten Anrede und dem Anruf des Adressaten dienen. Pronomina. Mazedonisch unterscheidet in der 3. grammatischen Person im Singular nach den Genera maskulin, feminin und neutrum, wobei die ersteren beiden Genera wie in vielen Sprachen auch auf das natürliche Geschlecht von Personen Bezug nehmen. Die unbetonten Dativformen werden auch als Possessive verwendet. Verbalsystem. Der Imperfekt ist auf Verben des imperfektiven Aspekts beschränkt, der Aorist auf Verben des perfektiven Aspekts. Außerdem werden weitere Tempora (Futur, Perfekt und Plusquamperfekt) sowie Modi (Konjunktiv und der seltene und für slawische Sprachen untypische Renarrativ) analytisch gebildet. Syntax. Die normale Satzstellung des Mazedonischen ist Subjekt – Verb – Objekt. Sonstiges. Im Mazedonischen gibt es viele Lehnwörter aus benachbarten Sprachen, wie z.B. aus dem Serbischen, aber auch geschichtlich bedingt viele türkische Lehnwörter, sowie auch Wörter, die aus dem Russischen und Deutschen entlehnt sind. In jüngster Zeit finden sich auch viele Anglizismen. Das "Lehrbuch der makedonischen Sprache" von Wolf Oschlies ist eines der wenigen deutschsprachigen Lehrwerke zu dieser Sprache. 2009 erschienen die Taschenbücher "book2 Deutsch - Mazedonisch für Anfänger: Ein Buch in 2 Sprachen" und "Kauderwelsch, Makedonisch Wort für Wort". Ende 2014 erschien das "Lehrbuch der mazedonischen Sprache für Anfänger und Fortgeschrittene" von Uwe Büttner und Viktor Zakar. Multics. Multics ("Multiplexed Information and Computing S'"ervice"; deutsch, wörtlich: "Gebündelter Informations- und Rechendienst") ist ein Betriebssystem für Großrechner. Aus der Weiterentwicklung des MIT Compatible Time-Sharing System (CTSS) entstand unter der Federführung von Fernando José Corbató, durch seine Arbeiten im Bereich der Multiple Access Computers, Multics. Es wurde ab 1963 in Zusammenarbeit von MIT, General Electric und den Bell Labs von AT&T entwickelt. 1969 zogen sich die Bell Labs aus dem Projekt zurück. Die Entwicklung wurde von der ARPA finanziell gefördert. Das System wurde in der Programmiersprache I geschrieben. Ab 1969 war das erste System am MIT verfügbar. Das erste kommerzielle System wurde von Honeywell Information Systems, Inc. auf einer Honeywell 6180 vertrieben, bis 1986 das letzte System installiert wurde. Am 30. Oktober 2000 um 17:08 wurde das letzte noch laufende Multics-System des kanadischen Department of National Defence in Halifax, Nova Scotia, Kanada heruntergefahren und außer Dienst gestellt. Die einzige Multics-Installation in Deutschland war von 1984 bis 1991 an der Universität Mainz in Betrieb. Multics wurde zum Vorläufer für die Entwicklung von Unix (siehe auch Geschichte von Unix). Am 14. November 2007 wurden die Multics-Quelltexte von Bull unter der MIT-Lizenz veröffentlicht. Morgenstern (Waffe). Der Morgenstern ist eine Schlagwaffe, die im Mittelalter und in der frühen Neuzeit gebräuchlich war. Er ist eine Weiterentwicklung des Dreschflegels. Die klassische Ausführung besteht aus einem bis zu 60 cm langen, kräftigen Holzstab als Griff, an dessen Ende der Kopf, meist aus Holz, aber auch Eisen, sitzt (etwa 8 bis 20 cm im Durchmesser). Dieser ist mit etwa 1 bis 5 cm langen Dornen besetzt, die ihm ein sternförmiges Aussehen verleihen. Oft war am unteren Ende des Griffs ein Faustriemen befestigt, der verhindern sollte, dass die Waffe im Kampfgetümmel verloren geht. Die Handhabung ist mit der eines Streithammers oder eines Beils zu vergleichen. Das Führen eines Morgensterns erfordert viel Kraft, jedoch galt seine Verwendung als „unritterlich“. Varianten, bei denen der Kopf über eine Kette mit dem Griffstück verbunden ist, werden als Flegel (auch: Streitflegel) bezeichnet. Heutzutage ist es schwierig, eine allgemeine Definition zu finden, welche Waffe genau als Morgenstern angesehen wird. Der Morgenstern wurde bis in das 17. Jahrhundert verwendet. Im Ersten Weltkrieg wurden wieder ähnliche Waffen angefertigt und im Grabenkrieg verwendet. Sie wurden vor allem wegen ihrer Lautlosigkeit genutzt, hauptsächlich bei nächtlichen Überfällen auf feindliche Posten. Einige dieser neuzeitlichen Morgensterne sind im Bayerischen Armeemuseum in Ingolstadt ausgestellt, ebenso im Imperial War Museum in London. Menschenaffen. Die Hominidae, eingedeutscht auch Hominiden, sind eine Familie der Primaten. In ihr werden die vier heute lebenden Gattungen Gorillas, Menschen, Orang-Utans und Schimpansen zusammengefasst, insgesamt sieben anerkannte, rezente Arten. Paläontologisch gehören zudem die unmittelbaren Vorfahren des Menschen (Hominini) und der anderen rezenten Gattungen dazu. Als Menschenaffen werden im Deutschen die „engsten Verwandten“ des Menschen bezeichnet, jedoch ist der Begriff auf Grund der fehlenden „strikten Trennung“ (Abgrenzung) ungenau. Im engeren Sinne nennt man „Menschenaffen“ nur zu den Hominiden gehörende Arten, in der Regel ohne Einschluss des Menschen – die früher als Pongidae zusammengefassten Arten – oder zusammenfassend als „Menschenaffen und Menschen“, im weiteren Sinne wird dagegen die zusammenfassende deutsche Bezeichnung „Menschenaffen und Mensch“ für die Überfamilie der Menschenartigen verwendet, die auch die Gibbons umfasst. Letztere werden dann als "Kleine Menschenaffen" bezeichnet, im Gegensatz zu den hier beschriebenen Großen Menschenaffen. Da heute an der Monophylie dieser aus den genannten sieben Arten bestehenden Gruppe nicht gezweifelt wird, bezeichnet der Begriff „Große Menschenaffen“ (oder Menschenaffen i.e.S., unter Ausschluss des Menschen) keine monophyletische Gruppe. Dies gilt nur dann nicht, wenn – wie stellenweise bei Wolfgang Maier (2004/2010) – auch die Menschen mit unter „Menschenaffen“ subsumiert werden. Der deutsche Begriff „Menschenaffen“ wird mitunter selbst innerhalb eines Fachtextes uneinheitlich benutzt – so auch von Maier. Die Einbeziehung des Menschen und seiner ausgestorbenen Vorfahren – anstelle der früheren Stellung als eigene Familie – folgt phylogenetischen Erkenntnissen, nach denen Schimpansen und Gorillas deutlich näher mit den Menschen als mit den Orang-Utans verwandt sind. In Form des Menschen sind die Hominiden heute weltweit verbreitet. Die übrigen Mitglieder sind auf tropische Regionen in Afrika und Südostasien beschränkt und allesamt in ihrem Bestand gefährdet. Allgemeiner Körperbau und Fell. a> sind die größten Menschenaffen und die größten lebenden Primaten Menschenaffen sind die größten lebenden Primaten. Sie erreichen ein Gewicht von 25 (weibliche Schimpansen) bis zu 200 (männliche Gorillas) Kilogramm und stehend eine Höhe von rund 1 bis 2 Metern. Bei allen Arten herrscht ein deutlicher Geschlechtsdimorphismus: Männchen werden oft größer und wesentlich schwerer als Weibchen; bei Orang-Utans und Gorillas wiegen sie oft das Doppelte der Weibchen. Es sind robust gebaute Wesen, die durch einen vergleichsweise kurzen Rumpf mit breitem Brustkorb charakterisiert sind. Ein Schwanz fehlt wie bei allen Menschenartigen. Das breite Becken, die im Vergleich zu vierfüßigen Säugetieren verringerte Anzahl der Lendenwirbel und ein leichter Knick der Wirbelsäule im Bereich des Kreuzbeins gehen mit der teilweisen Aufrichtung der Körperhaltung einher, die beim Menschen am stärksten ausgeprägt ist. Diese Art der Fortbewegung hat zu einigen morphologischen Besonderheiten geführt, etwa im Bau der Wirbelsäule (beim Menschen doppelt-s-förmig gebogen, bei den anderen Arten einfach gebogen) und des Beckens (beim Menschen kurz und breit, bei den anderen Arten länger und schmaler). Das Fell ist weniger dicht als bei anderen Primatenarten, es ist bei Orang-Utans rötlichbraun und bei Gorillas und Schimpansen schwarzbraun gefärbt. Beim Menschen ist die Färbung variabel, auch ist es bei ihm an den meisten Stellen des Körpers deutlich kürzer und dünner sowie wenig pigmentiert, jedoch nicht zurückgebildet. Die Gründe für dieses Merkmal sind bislang umstritten. Gliedmaßen. Zusammen mit den Gibbons zählen Menschenaffen (mit Ausnahme des Menschen) zu den wenigen Primaten, bei denen die vorderen Gliedmaßen länger als die hinteren sind. Dieses Verhältnis wird mit dem Intermembralindex – (Oberarm + Speiche)x100/(Oberschenkel + Schienbein) – wiedergegeben, Zahlen siehe nebenstehende Tabelle. Die langen Arme der nichtmenschlichen Menschenaffen stellen Anpassungen an eine suspensorische (an den Ästen hängende) Fortbewegung dar; die verlängerten und spezialisierten Hintergliedmaßen der Menschen hingegen mit deren bipeder (zweibeiniger) Lebensweise. Das Schultergelenk ist verglichen mit anderen Primaten nach hinten gewandert, dementsprechend ist das Schlüsselbein verlängert und das Schulterblatt rückenseitig angebracht – was für eine große Beweglichkeit der Oberarme sorgt. Die Arme sind sehr kräftig, die Hände sind groß, die Finger (außer beim Menschen) gebogen und der Daumen opponierbar. Finger und Zehen sind wie bei vielen Primaten mit Nägeln ausgestattet. Beim Menschen haben die Hände keine lokomotorische (für die Fortbewegung notwendige) Funktion mehr und sorgen dank ihrer grazilen Finger und den stark beweglichen Daumen für eine gesteigerte Geschicklichkeit. Außer beim Menschen sind die Beine eingeknickt, die Großzehe ist kräftig und ebenfalls opponierbar. Beim Menschen sind die Beine aufgrund der speziellen Fortbewegung gerade und deutlich länger als die Arme. Der Fuß ist zu einem gewölbten Standfuß entwickelt, wobei die Opponierbarkeit der Großzehe im Laufe der Evolution verloren ging. Kopf und Zähne. Die Schädel einiger Menschenaffen sind durch Backen- oder Überaugenwülste charakterisiert Die Schädel der Menschenaffen sind, verglichen mit denen anderer Primaten, relativ groß und rundlich, die Schädelhöhle birgt ein verhältnismäßig großes Gehirn – Zahlen siehe nebenstehende Tabelle. Mehrere Arten haben auffällige Schädelstrukturen, etwa Überaugenwülste (Gorillas und Schimpansen), Sagittal- und Nuchalkämme (Wülste an der Oberseite des Kopfes und am Nacken, die als Muskelansatzstellen dienen, männliche Gorillas und Orang-Utans) oder Backenwülste. Backentaschen sind jedoch nicht vorhanden. Die Augen sind groß und nach vorne gerichtet, die Ohren rund und unbehaart. Die Nasenlöcher stehen wie bei allen Schmalnasenaffen eng beisammen und weisen nach vorne oder unten. Wie alle Altweltaffen haben Menschenaffen 32 Zähne, die Zahnformel lautet I2-C1-P2-M3. Beim Menschen ist allerdings eine teilweise Reduktion der letzten Molaren („Weisheitszähne“) zu beobachten. Der Bau der Zähne hängt bei den einzelnen Arten von der Ernährung ab, gemeinsam sind den Menschenaffen jedoch die relativ niedrigen Kronen der Backenzähne mit einer gleichen Anordnung der Höcker. Das Gebiss der Menschen unterscheidet sich von dem der übrigen Arten darin, dass die Eckzähne klein und nicht hauerartig entwickelt sind und überdies keinen Geschlechtsdimorphismus zeigen – bei den übrigen Arten sind die der Männchen deutlich größer als die der Weibchen. Weitere Unterschiede liegen in der Form des Zahnbogens, die beim Menschen parabolisch und bei den übrigen Arten U-förmig ist. Beim Menschen fehlt darüber hinaus das Diastema („Affenlücke“), eine Lücke zwischen Schneide- und Eckzähnen. Möglicherweise stellen die Modifikationen des menschlichen Gebisses eine Anpassung an die unnatürliche Aufbereitung der Nahrung dar. Verbreitung und Lebensraum. Mit Ausnahme des Menschen ist das Verbreitungsgebiet der Menschenaffen heute auf die tropischen Regionen des zentralen Afrikas (Schimpansen und Gorillas) und die südostasiatischen Inseln Sumatra und Borneo (Orang-Utans) beschränkt. Die heute noch lebenden Menschenaffen sind ausgeprägte Waldbewohner; ihr Lebensraum sind tropische Regenwälder und andere Waldformen der Tropen; lediglich der Gemeine Schimpanse findet sich auch in Savannengebieten. Fossilienfunde aus Europa belegen jedoch, dass Verwandte von frühen Vorfahren der heutigen Menschenaffen (Dryopithecini wie zum Beispiel "Ouranopithecus macedoniensis") noch bis vor sieben Millionen Jahren auch Europa besiedelt haben. Im Gegensatz zu den anderen Primaten haben die Menschen eine weltweite Verbreitung erreicht, nur die Antarktis wurde nicht dauerhaft besiedelt. Verschiedenste Habitate (auch Grasländer, Wüsten, Gebirgsregionen und auch arktische Gebiete) sind schon seit Jahrtausenden von ihnen bewohnt. Vor allem durch Abholzung und Wilderei hat der Mensch seine nächsten Verwandten an den Rand der Ausrottung gebracht. Seit etwa 1985 sind ihre Bestände in Afrika und Asien um bis zu 60 % zurückgegangen. Aktivitätszeiten und Fortbewegung. Die nichtmenschlichen Menschenaffen halten sich je nach Art in unterschiedlichem Ausmaß auf den Bäumen oder am Boden auf. Die ausgeprägtesten Baumbewohner sind die Orang-Utans, während Berggorillas die meiste Zeit am Boden verbringen. In den Bäumen klettern Menschenaffen entweder mit allen vier Gliedmaßen oder bewegen sich auf hangelnde (suspensorische) Weise fort, manchmal gehen sie auch mit den Hinterbeinen auf den Ästen. Am Boden bewegen sich diese Tiere meist auf allen vieren fort; außer dem Menschen können Menschenaffen nur kurze Strecken auf den Hinterbeinen zurücklegen. Schimpansen und Gorillas verwenden dabei den Knöchelgang, das heißt, sie setzen die zweiten und dritten Fingerglieder auf den Boden. Orang-Utans hingegen stützen sich auf die Fäuste oder die Innenkanten der Hände. Im Gegensatz dazu sind Menschen strikte Bodenbewohner, die sich mit einer obligatorischen Bipedie fortbewegen, was unter Säugetieren einzigartig ist. Unter allen Primaten führen nur die Dscheladas eine ähnliche ausschließlich bodenbewohnende Lebensweise. Diese Fortbewegung ist zwar nicht sehr schnell, aber nach neueren Erkenntnissen energiesparend und bietet den Vorteil, dass die Hände von der Lokomotionsfunktion entlastet wurden und so die Entwicklung einer differenzierten Greifhand ermöglicht wurde. Menschenaffen sind wie alle Altweltaffen tagaktiv. Zur Nachtruhe fertigen die nichtmenschlichen Menschenaffen meist in den Bäumen ein Nest aus Blättern und Zweigen an. Dieser Vorgang dauert meist nicht länger als fünf Minuten, üblicherweise wird jede Nacht ein neues Nest errichtet. Oft halten sie auch während der Mittagszeit eine kurze Rast. Sozialverhalten. Orang-Utans führen von allen Menschenaffen die einzelgängerischste Lebensweise Die Sozialstruktur ist bei den einzelnen Gattungen und Arten sehr unterschiedlich, oft finden sich auch innerhalb einer Art verschiedene Formen des Zusammenlebens. Ein Grund für diese Diversität könnte in der verglichen mit anderen Primaten hohen Intelligenz dieser Tiere liegen, welche eine größere Flexibilität der sozialen Interaktionen ermöglicht, die auf Erinnerung und individuenspezifische Partnerbeziehung gründen. Im Gegensatz zu anderen Primaten findet sich bei ihnen allerdings selten eine matrilineare Organisation (das heißt, eine Gruppe nah verwandter Weibchen bildet den Kern der Gruppe), da die Weibchen meist ihre Geburtsgruppe verlassen. Orang-Utans führen eine eher einzelgängerische Lebensweise, wenngleich die Männchen beispielsweise mit den Weibchen, deren Reviere sich mit ihren überlappen, interagieren. Gorillas leben in der Regel in Haremsgruppen (ein Männchen und mehrere Weibchen), die dominanten Männchen sind auch farblich durch die Silberfärbung des Rückens erkenntlich. Schimpansen haben ein variableres Gruppenverhalten, das als „Fission-Fusion-Modell“ („Trennen und Zusammengehen“) bezeichnet wird, das heißt, es kommt immer wieder zur Bildung von kurzfristigen Untergruppen, die flexibel zusammengesetzt sein können. Die Sozialstruktur des Menschen ist variabel, neben monogamen und polygynen Formen kommen seltener auch polyandrische und promiskuitive Formen vor. Eine typische oder ursprüngliche Sozialstruktur lässt sich nicht angeben, da das Verhalten stark kulturell überlagert ist. Versuche, das ursprüngliche Sozialverhalten des Menschen anhand morphologischer Vergleiche zu ergründen (Primatenarten mit deutlichem Geschlechtsdimorphismus beim Gewicht leben eher in Haremsgruppen; hingegen führen Primaten ohne Größenunterschiede bei den Eckzähnen eher eine monogame Lebensweise) sind sehr zweifelhaft. Menschenaffen kommunizieren miteinander durch eine Vielzahl von Lauten mit unterschiedlichen Bedeutungen, durch Mimik, Gestik und Körperhaltungen. Während all diese Formen sowohl bei Menschen als auch bei den übrigen Arten vorkommen, ist eine hochkomplexe Sprache als Kommunikationsform beim Menschen einzigartig. Werkzeuggebrauch. Dieses Gorillaweibchen benutzt einen Stock, um die Wassertiefe zu prüfen und sich abzustützen Bei den Menschenaffen kommen viele Formen des Werkzeuggebrauchs vor, wobei nicht nur vorhandene Materialien verwendet, sondern wie etwa Stöcke auch gezielt bearbeitet werden. Bei den einzelnen Arten in freier Wildbahn erfolgt der Werkzeuggebrauch allerdings in sehr unterschiedlichem Ausmaß. Die vielfältigsten Formen finden sich bei Menschen, sehr viel weniger bei Gemeinen Schimpansen, wiederum deutlich weniger bei Gorillas und Orang-Utans. Erst neueste Studien konnten auch bei Bonobos den Gebrauch von Werkzeugen nachweisen. (Anders ist das Verhalten von Tieren in menschlicher Obhut, wo bei allen Gattungen zahlreiche Verwendungen von Werkzeugen vorkommen.) Es gibt auch Formen von Selbstmedikation, so schlucken Gorillas und Schimpansen stachelige, gerbstoffhaltige Blätter, welche die Parasiten von den Darmwänden abschaben. Bei Hominini sind die ältesten bekannten Steinwerkzeuge etwa 2,5 Millionen Jahre alt, was den Beginn der Steinzeit darstellt – die Bearbeitung von Steinen ist ein Vorgang, der bei den übrigen Menschenaffen nicht vorkommt. All diese Formen sind keine instinktiven Tätigkeiten, sondern durch Beobachtungen erlernte beziehungsweise innerhalb der Populationen weitergegebene Handlungen. So lassen sich bei Gemeinen Schimpansen unterschiedliche Formen des Werkzeuggebrauchs in verschiedenen Regionen beobachten, und es gibt keine einzelne Form, die bei allen Populationen vorkommt. Ernährung. Die nichtmenschlichen Primaten sind vorwiegend Pflanzenfresser, die allerdings in unterschiedlichem Ausmaß auch fleischliche Nahrung zu sich nehmen. Früchte bilden bei Schimpansen und Orang-Utans den Hauptbestandteil der Nahrung, während Gorillas sich eher von Blättern ernähren. Der Verzehr von Fleisch wird bei Gorillas und Orang-Utans selten beobachtet, gelegentlich nehmen sie Insekten und andere Kleintiere zu sich. Hingegen lässt sich bei Schimpansen manchmal auch die Jagd auf Wirbeltiere (wie kleine Paarhufer und Primaten) beobachten, diese hat jedoch eine starke soziale Komponente – durch das Verfügbarmachen von Fleisch steigt der Rang in der Gruppenhierarchie. Menschen hingegen sind stärker an eine omnivore (allesfressende) Ernährung angepasst, auch durch den Bau ihres Verdauungsapparates. In der Form des Erwerbs und der Aufbereitung der Nahrung haben sie sich deutlich von den anderen Menschenaffen – und allen anderen Tieren – abgesetzt. Vermutlich hat diese omnivore Ernährung es ihnen zumindest erleichtert, ihr Verbreitungsgebiet gegenüber den übrigen Menschenaffen stark zu erweitern und auch in ansonsten nicht von Primaten bewohnte Habitate vorzudringen. Fortpflanzung und Entwicklung. Die Fortpflanzungsstrategie der Menschenaffen ist eine ausgeprägte K-Strategie, das heißt, es gibt lange Geburtsabstände und geringe Wurfgrößen, es wird viel Energie in die Aufzucht der einzelnen Jungen investiert, und es kommt zu einer langsamen Individualentwicklung mit hoher Lebenserwartung. Die Paarungsstrategien sind bei den einzelnen Arten und oft auch innerhalb einer Art variabel und vom Sozialverhalten abhängig. Insbesondere bei Bonobos und Menschen hat das Sexualverhalten zusätzlich zum Fortpflanzungszweck auch Funktionen im Sozialgefüge der Population hinzugewonnen, die nichts mit der Fortpflanzung zu tun haben. Bei Orang-Utans gibt es neben den freiwilligen Paarungen mit ansässigen Männchen auch die von umherwandernden Männchen („Wanderer“) erzwungenen Kopulationen. Bei den Gorillas pflanzt sich in der Regel das dominante Männchen mit den Weibchen seiner Gruppe fort. Bei Schimpansen und Menschen ist das Paarungsverhalten äußerst variabel. Bei keiner Art gibt es eine feste Paarungszeit, die Fortpflanzung kann das ganze Jahr über erfolgen. Nur bei den Schimpansen gibt es eine Regelschwellung, die den Östrus kennzeichnet. Die Länge der Trächtigkeit beziehungsweise Schwangerschaft beträgt rund 7,5 bis 9 Monate und ist bei Gorillas und Menschen am längsten. In der Regel kommt ein einzelnes Junges zur Welt, Zwillings- und höhere Mehrlingsgeburten sind selten. Menschenaffen haben eine sehr lange Kindheitsdauer; sie verbringen eine lange Lernphase mit der Mutter oder in der Gruppe. Endgültig entwöhnt werden die Jungen bei den nichtmenschlichen Arten im Alter von 3,5 bis 5 Jahren, verbringen allerdings danach noch einige Jahre in der Nähe der Mutter. Die Geschlechtsreife tritt bei den nichtmenschlichen Arten meist im Alter zwischen 6 und 10 Jahren ein (bei Männchen etwas später als bei Weibchen), beim Menschen einige Jahre später. Bedingt durch die Sozialstrukturen erfolgt die erste Fortpflanzung allerdings erst einige Jahre nach dem Eintritt der Geschlechtsreife, bei den nichtmenschlichen Arten mit rund 10 bis 15 Jahren. Auch durch die lange Phase der Jungenaufzucht haben Menschenaffen eine sehr niedrige Fortpflanzungsrate. Am niedrigsten ist diese bei Orang-Utans, wo ein Weibchen im Laufe seines Lebens oft nur zwei oder drei Jungtiere großzieht. Die Lebenserwartung ist vergleichsweise hoch: am höchsten ist sie beim Menschen, wo sie in manchen Industrieländern etwa 80 Jahre beträgt; in Einzelfällen ist ein Alter von über 110 Jahren bezeugt. Bei den nichtmenschlichen Arten beträgt die Lebenserwartung in freier Wildbahn 35 bis 50 Jahre, bei Tieren in menschlicher Obhut ist sie deutlich höher. Forschung und Forschungsgeschichte. Darstellung eines Menschenaffen aus dem 19. Jahrhundert. Der Stock soll die Unterschiede in der Fortbewegung symbolisieren, da das zweifüßige Gehen ohne Hilfsmittel als dem Menschen vorbehalten angesehen wurde. Der karthagische Seefahrer Hanno († 440 v. Chr.) brachte von seiner Afrikareise die Felle von drei „wilden Frauen“ mit, die von den afrikanischen Dolmetschern als "gorillai" bezeichnet wurden. Es ist aber unklar, wo Hanno die Wesen genau erlegte und um welche Tiere es sich dabei wirklich handelte. Erst im 17. Jahrhundert erhielt die westliche Welt wieder Kenntnisse von diesen Tieren. 1641 kam erstmals ein lebendiger Schimpanse in die Niederlande und wurde vom Arzt Nicolaes Tulp untersucht, 1699 stellte der Arzt Edward Tyson eine Reihe von Gemeinsamkeiten zwischen einem von ihm untersuchten Schimpansen und dem Menschen fest. Im 18. Jahrhundert schuf Carl von Linné die grundsätzlich heute noch gültige Systematik der Tiere, in der er den Menschen in die Primaten einordnete. Ganz mochte man sich mit der Einordnung der Menschen unter die Primaten nicht abfinden, so teilte Johann Friedrich Blumenbach 1779 diese Gruppe in die „Bimana“ (Zweihänder, also Menschen) und „Quadrumana“ (Vierhänder, also nichtmenschliche Primaten). Im 19. Jahrhundert gelangte man einerseits zu detaillierten Erkenntnissen über die verschiedenen Gattungen der Menschenaffen, andererseits wurde die Evolutionstheorie entwickelt, und Thomas Henry Huxley band mit seinem Werk „Evidence as to Man’s Place in Nature“ (1863) den Menschen konsequent in die Evolutionsvorgänge ein, was noch jahrzehntelange Diskussionen anheizen sollte, ob der Mensch denn wirklich „vom Affen abstamme“. Das letzte Überbleibsel dieser systematischen Sonderstellung wurde erst Ende des 20. Jahrhunderts beseitigt, als Mensch und Menschenaffen aufgrund der gemeinsamen Abstammung in einer Familie vereinigt wurden, siehe dazu den Abschnitt Systematik. Das Verhalten der Tiere rückte erst im 20. Jahrhundert in den Mittelpunkt der Forschung. Am bekanntesten sind drei Frauen, die von Louis Leakey dazu motiviert wurden, umfassende Freilandstudien durchzuführen: Jane Goodall bei den Schimpansen, die später ermordete Dian Fossey bei den Berggorillas und Birutė Galdikas bei den Borneo-Orang-Utans. Durch diese und andere Arbeiten – etwa Frans de Waal bei den Bonobos – konnten viele Erkenntnisse über Lebensweise und Verhalten von Menschenaffen in freier Wildbahn gewonnen werden. In Laborstudien wird außerdem versucht, die Kommunikationsfähigkeit der Tiere zu erforschen. So wurden mit allen Gattungen Versuche unternommen, ihnen eine Gebärdensprache oder eine Kommunikation mittels Symbolkärtchen beizubringen, etwa durch Roger Fouts und David Premack bei Schimpansen. Daneben wird auch der Werkzeuggebrauch, die Intelligenz und die Lernfähigkeit untersucht. Menschenaffen schaffen es, knifflige Probleme zu lösen, beispielsweise eine Frucht aus einem verschlossenen Behälter herauszuholen. Sie bestehen den Spiegeltest, das heißt, sie können sich in einem Spiegel selbst erkennen. Zu den jüngsten Zielrichtungen der Forschung zählt die Erhaltungsbiologie – wie kann das Überleben dieser Tiere angesichts immer knapper werdender Lebensräume gesichert werden? Ein weiterer Schwerpunkt ist die Genetik, aus der man sich Rückschlüsse auf die Behandlung verschiedener Krankheiten und die Entwicklung des Menschen erhofft. Für Gemeine Schimpansen etwa laufen Projekte zur Sequenzierung des Genoms. Haltung und Nutzung. Menschenaffen werden auch als Unterhaltungsobjekt benutzt, meist ohne artgerechte Haltung Die nahe Verwandtschaft der Menschenaffen zu den Menschen bestimmt das Verhältnis zu diesen Tieren deutlich mit. Eine ausdrucksstarke Mimik und oft verblüffend menschenähnliche Verhaltensweisen sind verantwortlich, dass Menschenaffen oft in Tiergärten oder Zirkussen zu sehen sind. Manche Arten wie Gemeine Schimpansen und Orang-Utans werden auch als Heimtiere gehalten, wobei dabei eine artgerechte Haltung kaum möglich ist. In Forschung und Wissenschaft spielen diese Tiere eine wichtige Rolle. Aufgrund ihrer nahen Verwandtschaft mit dem Menschen können manche Krankheiten und deren Behandlungsmethoden mittels Tierversuchen bei Menschenaffen erforscht werden. Diese Methoden sind jedoch wie alle Tierversuche umstritten und in einigen Ländern, etwa Österreich, den Niederlanden, Neuseeland, Schweden, Großbritannien und Japan sind Tierversuche an Menschenaffen mittlerweile verboten. Das Great Ape Project versucht neben weiteren Tierschützern, den Menschen vorbehaltene Rechte auch auf Menschenaffen zu übertragen. Bedrohung. Alle nichtmenschlichen Menschenaffen sind in ihrem Bestand gefährdet. Die Gründe dafür liegen in erster Linie in der Zerstörung ihres Lebensraumes durch Rodung der Wälder und Umwandlung von Savannen in Weide- oder Ackerland. Hinzu kommt die Bejagung, die mehrere Gründe hat. Zum einen wird mancherorts ihr Fleisch (Bushmeat) gegessen und zum anderen, weil sie manchmal in Plantagen eindringen; hinzu kommt die immer noch durchgeführte Suche nach Haustieren, bei der Jungtiere eingefangen werden, was meist mit der Tötung der Mutter einhergeht. Da alle Arten im Washingtoner Artenschutz-Übereinkommen (CITES) gelistet sind, sind diese Praktiken wie auch der Handel mit Produkten dieser Tiere illegal. Die IUCN listet den Sumatra-Orang-Utan und den Westlichen Gorilla als „vom Aussterben bedroht“ ("critically endangered") und die übrigen vier Arten als stark gefährdet ("endangered"). Die Eingliederung des Menschen in die Menschenaffen. Früher wurden Orang-Utans, Gorillas und Schimpansen in der Familie der Menschenaffen (Pongidae) zusammengefasst, während der Mensch und seine ausgestorbenen Vorfahren zur Familie der Hominidae gestellt wurden. Diese Sonderstellung wurde mit morphologischen Unterschieden und vor allem mit kulturellen und geistigen Besonderheiten begründet. Mit der Entwicklung der phylogenetischen Systematik in der zweiten Hälfte des 20. Jahrhunderts war nicht mehr nur die Anatomie, sondern wurden vielmehr die Entwicklungslinien für die systematische Klassifizierung relevant. Durch Vergleiche der Primaten-Genome wurde erkannt, dass die Schimpansen die nächsten Verwandten der Menschen sind und auch die Gorillas näher mit den Menschen als mit den Orang-Utans verwandt sind. Die Menschenaffen ohne Mensch waren damit ein paraphyletisches Taxon, das heißt eine Gruppe, die zwar von einer gemeinsamen Stammform abstammt, aber nicht alle Nachkommen dieses Vorfahren umfasst. Da die phylogenetische Systematik nach Möglichkeit nur monophyletische Taxa anerkennt, das heißt Gruppen, die von einer gemeinsamen Stammform abstammen und alle Nachkommen dieses Vorfahren umfassen, wurden Menschenaffen und Menschen zu einem gemeinsamen Taxon zusammengefasst; gleichwohl wurde dem Menschen und dessen unmittelbaren Vorfahren unterhalb dieses Taxons eine eigene Untergruppe zugewiesen (Hominini). Rezente Arten und innere Systematik. Die Bestrebungen einiger Forscher, Schimpansen und manchmal auch Gorillas aufgrund der geringfügigen genetischen Unterschiede im Vergleich zum Menschen in die Gattung "Homo" zu stellen, wurden aufgrund der geschichtlich willkürlichen Abgrenzung von Gattungen in den meisten systematischen Lehrbüchern nicht aufgegriffen. Entwicklungsgeschichte. Die Erforschung der Entwicklungsgeschichte der Menschenaffen wurde durch die nicht zu beantwortende Frage geleitet, wo die Grenze zwischen „Vormenschen“ und „echten“ Menschen, der „Missing Link“ beider, liege. Fossil belegt werden kann, dass die Menschenartigen im frühen Miozän eine Blütezeit erlebten; es entwickelten sich zahlreiche Gattungen, von denen die heute noch lebenden Gibbons und Menschenaffen nur mehr einen kleinen, spezialisierten Überrest darstellen. Da man die Trennung von Menschen und Menschenaffen einstmals weit früher ansetzte, als dies heutige Forscher tun, wurden seinerzeit manche Gattungen vorschnell den Menschen- oder Menschenaffen-Vorfahren zugeschrieben. Heute werden Gattungen wie "Dryopithecus", "Oreopithecus" und "Proconsul" nicht mehr den Menschenaffen im engeren Sinn (Hominidae), sondern allenfalls den Menschenartigen (Hominoidea) zugeschrieben. Oft erschweren aber die spärlichen Funde auch heute noch eine eindeutige Zuordnung. Die Entstehung der Menschenaffen als anatomisch gegen verwandte Gruppen abgrenzbares Taxon wird heute in die Zeit vor rund 18 bis 15 Millionen Jahren datiert. Wie oben ersichtlich, vollzog sich die Trennung der Menschenaffen in eine asiatische und eine afrikanische Linie deutlich früher als die Ausdifferenzierung der heute noch existierenden afrikanischen Menschenaffen-Arten. Die Orang-Utans sind die einzigen Überlebenden dieser asiatischen Linie (Ponginae); es gibt aber eine Reihe von fossilen Gattungen, die ebenfalls in die Ponginae eingegliedert werden. Dazu zählen beispielsweise "Sivapithecus" / "Ankarapithecus", der riesenhafte "Gigantopithecus" sowie "Lufengpithecus" und "Khoratpithecus". In der afrikanischen Linie (Homininae) kam es zur Entstehung von Gorillas, Schimpansen und Menschen. Die Linie zu den Gorillas zweigte als erste ab – der mutmaßliche Gorilla-Vorfahr "Chororapithecus" wurde auf rund 10 Millionen Jahre datiert. Der Zeitpunkt der Trennung von Menschen und Schimpansen wird auf ein Alter von rund 6 Millionen Jahren geschätzt. Der Mensch und seine unmittelbaren Vorfahren werden dabei in der Gruppe der Hominini zusammengefasst. Die Bezeichnung „Hominiden“ für diese Gruppe stammt noch aus der Zeit, als Mensch und Menschenaffen in zwei unterschiedlichen Familien geführt wurden. Heute wird dieser Begriff auch für die Menschenaffen im allgemeinen Sinn verwendet. Zu den ältesten möglichen Vertretern der Hominini zählen "Sahelanthropus tchadensis" und "Orrorin tugenensis", die auf ein Alter von 7 bis 6 Millionen Jahre datiert wurden. Die ältesten als zumindest enge Verwandte der Menschenvorfahren interpretierten Funde stammen aus dem frühen Pliozän (4,4 bis 4 Millionen Jahre). Hierzu gehören insbesondere die Arten der Gattung "Australopithecus". Vor rund 2,5 bis 2 Millionen Jahren entwickelte sich schließlich die Gattung "Homo", deren einziger Überlebender der anatomisch moderne Mensch ("Homo sapiens") ist. "Ausführlicheres zu den mutmaßlichen Gründen für die Entstehung der anatomischen Besonderheiten des Menschen siehe im Artikel Hominisation und in Stammesgeschichte des Menschen; zur Übersicht über bedeutende Fossilfunde siehe Liste homininer Fossilien." Medium (Kommunikation). Ein Medium (lat.: "medium" = Mitte, Mittelpunkt, von altgr. μέσov "méson:" das Mittlere; auch Öffentlichkeit, Gemeinwohl, öffentlicher Weg) ist nach neuerem Verständnis ein Vermittelndes im ganz allgemeinen Sinn. Das Wort „Medium“ in der Alltagssprache lässt sich oft mit Kommunikationsmittel gleichsetzen. In der Medientheorie, der Medienphilosophie und den Medienwissenschaften hat sich eine große Anzahl Konzepte mit unterschiedlichen Zielsetzungen entwickelt. Der Plural Medien wird etwa seit den 1980er-Jahren für die Gesamtheit aller Kommunikationsmittel und Kommunikationsorganisationen verwendet und regt mit Schlagworten wie Medienkultur zu interdisziplinären Fragestellungen zwischen technischen, wirtschaftlichen, juristischen, soziologischen und psychologischen Sachverhalten an. Begriffsgeschichte. Der Begriff Medium hat eine wechselhafte Geschichte und wurde etwa in der Ästhetik, der Logik, der Physik (etwa bei Aristoteles oder Newton), der Physiologie oder der Rechtsprechung unterschiedlich verwendet. Oft ist von einer Konstellation mehrerer Elemente die Rede, zwischen denen ein Wechselspiel stattfindet, das als Kommunikation verstanden wird. Es stellt sich die Frage, ob eine Definition die vielfältigen Bedeutungen nicht zu stark einschränkt. Die antike Erkenntnistheorie geht von Wahrnehmungsmedien aus, in denen sich Erkenntnis vollzieht. Aristoteles, der bereits eine Art Theorie der Wahrnehmungsmedien entwirft, ist der erste, der das ‚Dazwischensein‘ des Mediums substantiviert und als eigenständige Instanz beschreibt, nämlich als "to metaxy", d.h. als „das Medium“. Diese Medien stehen in enger Verbindung mit der Vier-Elemente-Lehre, mit Wasser, Luft oder dem Atem eines Menschen. Dies wirkte noch bis ins 19. Jahrhundert nach, etwa über Konzepte wie Äther. Ein älterer vorwissenschaftlicher Medienbegriff bis etwa zum Ende des 18. Jahrhunderts bezog sich auf magische Vermittlung (oder nüchterner gesagt: Vermittlung, die auf einer nicht nachvollziehbaren Macht oder Kompetenz beruht): Ein Medium als Person stellt einen Kontakt zu unerreichbaren Welten her. Der im 19. Jahrhundert entstehende naturwissenschaftlich geprägte Medienbegriff bezeichnete mit Medium die Gesamtheit aller Träger physikalischer und chemischer Vorgänge. Eine Ausweitung des Medienbegriffs brachten die vom Ende des 19. bis zum Anfang des 20. Jahrhunderts entwickelten technischen Kommunikationsmittel wie Phonograph, Kinematograph, Telegraphie und Rundfunk, aber auch neue Reproduktions- und Herstellungsverfahren in den Printmedien. Seit Ende des Ersten Weltkriegs wurden Film und nach 1940 das Fernsehen zu Massenmedien. Durch das kontrovers diskutierte Schlagwort „The Medium is the Message“ („Das Medium ist die Nachricht“, durch einen Druckfehler umgestaltet zu dem Titel "The Medium is the Massage", 1967) machte der Literaturwissenschaftler Marshall McLuhan darauf aufmerksam, dass die Kanäle der Informationsübertragung möglicherweise wichtiger seien als die Information selbst, und lenkte damit die Aufmerksamkeit von den Inhalten auf ihre oft wenig beachtete Vermittlung. In seinem Werk "Understanding Media" (1964) definierte er Medien als Verlängerungen der Sinnesorgane und behauptete auf diese Weise eine Parallele zwischen Massenmedien und Werkzeugen. Gegenwärtige Verwendung. Umgangssprachlich wird „Massenmedium“ oft für gleichbedeutend mit dem Begriff Medium gehalten: Gemeint sind Kommunikationsmedien mit größerer Verbreitung. Dabei besteht eine begriffliche Unschärfe, was eigentlich als Medium zu bezeichnen ist: die Informationen selbst (z. B. Film), die technischen Einrichtungen (z. B. Filmprojektor, Internet) oder die Institutionen, die beides zur Verfügung stellen (z. B. Facebook, Youtube). Mit der neusten Entwicklung, die mit der Digitalisierung vieler Kommunikationsmedien, dem Internet und dem Aufkommen der Social Media zusammenhängt, entsteht über die bisherigen Bedeutungen hinaus ein dominantes Konzept der Kulturwissenschaften. Hans Magnus Enzensberger. Der Schriftsteller Hans Magnus Enzensberger entwickelte in seiner Abhandlung "Baukasten zu einer Theorie der Medien" (1970) eine sozialistische Medientheorie, die sich kritisch mit Massenmedien auseinandersetzt. Ausgehend von Bertolt Brechts Radiotheorie sowie von Max Horkheimers und Theodor W. Adornos Polemik gegen die Kulturindustrie beschäftigte er sich mit der Frage, inwieweit Medien zur Emanzipation beitragen können oder Manipulation ausüben. Von ihm stammt auch die Verurteilung des Fernsehens als „Nullmedium“. Niklas Luhmann. Eine Definition der Kommunikationsmedien, die Technik voraussetzt, aber nicht unmittelbar mit Technik zu tun hat, stammt von dem Soziologen Niklas Luhmann als Weiterentwicklung der Theorie seines Lehrers Talcott Parsons, der Geld und Macht als Medien verstanden hat. Luhmann stützt sich auf die Feststellung: „Kommunikation ist unwahrscheinlich.“ Medien sind für ihn „Einrichtungen“, die der „Umformung unwahrscheinlicher in wahrscheinliche Kommunikation“ dienen. Dabei unterscheidet er "Interaktionsmedien" wie Sprache, "Verbreitungsmedien" wie Schrift (inklusive der sogenannten Massenmedien) sowie "symbolisch generalisierte Kommunikationsmedien", zu denen er in Ergänzung zu Parsons die Wahrheit, die Kunst und die Liebe rechnet. Zu dieser sehr allgemeinen Medienkonzeption tritt bei Luhmann die Unterscheidung von "Medium und Form" hinzu (in Anlehnung an Fritz Heiders "Ding und Medium" sowie George Spencer-Browns "Gesetze der Form"), sodass man zum Beispiel von einem Befehl als Form im Medium der Macht, von einer Untersuchung als Form im Medium der Wahrheit oder von einer freundlichen Geste als Form im Medium der Liebe sprechen kann. Manfred Faßler. Nach dem Vorschlag von Manfred Faßler (1997) kommen heute zu den von Harry Pross beschriebenen Medien "quartäre Medien" hinzu, die auf beiden Seiten Geräte voraussetzen, nicht aber ausschließlich der massenmedialen Kommunikation oder der Mitteilungsverbreitung dienen. Das Internet ist z. B. ein Medium, das vom Nutzer aktive Entscheidungen über den Konsum verlangt und zum Teil direkte Rückkopplung des Nutzers zum Anbieter erlaubt. Daraus ergeben sich schnelle und spontane Wechsel der Zuordnung aufgrund der Benutzungsmodi: Wechsel zwischen tertiären Eigenschaften und quartären sind etwas Neues, das in diese Struktur einzufügen ist. Digitalisierung ermöglicht die Integration und Mischung der ersten drei Medienstufen in der vierten. Quartäre Medien bieten eine enge Verbindung massenmedialer Eigenschaften (tertiäre Medien), erlauben aber den jederzeitigen schnellen Wechsel zwischen individualer und Gruppenansprache bzw. Kommunikation, aber immer unter Bedingungen, die auf beiden Seiten der Kommunikation auf Geräte angewiesen ist. Jürgen Wilke. Der Medienwissenschaftler Jürgen Wilke prägte 1999 den Begriff Leitmedium für Massenmedien, die einen besonderen Einfluss auf die Meinungsbildung haben. Sein Interesse am spezifischen Zusammenhang zwischen Medium und Beeinflussung wurde im Englischen mit dem Begriff „German leitmedium“ ironisiert. Medienphilosophie. Das Philosophieren über Kommunikationsmedien wird seit den 1990er Jahren Medienphilosophie genannt. Vorreiter etwa seit der Mitte des 20. Jahrhunderts waren Walter Benjamin, Roland Barthes, Jacques Derrida, Vilém Flusser oder Jürgen Habermas. Sekundärliteratur von Frank Hartmann oder Mike Sandbothe hat den Begriff an den Universitäten etabliert. Zu den Medienphilosophen der Gegenwart zählen etwa Norbert Bolz, Sybille Krämer und Dieter Mersch. Vilem Flusser. Vilém Flusser prophezeite die Ablösung des Alphabets durch „Technobilder“ und entwarf die Utopie einer „telematischen Gesellschaft“, in der die Autoritäten mittels der Neuen Medien überwunden seien. Seine Visionen, die er „Kommunikologie“ nannte, richteten sich gegen eine pessimistische Medienkritik. Georg Rückriem. Georg Rückriem differenziert zwischen den Begriffen Vermittlung, Mittel und Medium, wobei das Medium lediglich ein Raum ist, innerhalb dessen die durch Mittel vermittelte Beziehung möglich wird. "Mittel" bedeutet dann in diesem Zusammenhang, ein Instrument um einen Zweck zwischen zwei Größen zu ergeben. Dies ist oftmals optional zum Zwecke der Nutzenmaximierung. Damit wäre dem Beispiel oben folgend die Zeitung als stoffliches Medium nicht als solches, sondern als Mittel zu bezeichnen. Lambert Wiesing. Der Philosoph Lambert Wiesing versteht in "Artifizielle Präsenz. Studien zur Philosophie des Bildes" ein Medium als ein Werkzeug, weist aber darauf hin, dass deshalb nicht – wie etwa bei McLuhan – alle Werkzeuge gleich Medien sind: Nach Wiesing sind Medien vielmehr ausschließlich die Werkzeuge, mit denen sich Genesis und Geltung trennen lassen. Medien bilden die Mittel, welcher man bedarf, um zwischen Genesis und Geltung zu unterschieden.. Masse. Masse (lat. "massa" – Klumpen, griech. "maza" – Brotteig) wird verwendet für Masse (hebr. „Stämme“) ist Meißen. Blick auf Meißen mit Burgberg, Dom und Albrechtsburg vom rechten Elbufer aus Meißen (, lateinisch "Misena") ist die Kreisstadt des gleichnamigen Landkreises im Freistaat Sachsen, hat knapp 27.200 Einwohner und trägt den Status Große Kreisstadt. International berühmt ist die Stadt Meißen für die Herstellung des Meißner Porzellans, das als erstes europäisches Porzellan seit 1708 hergestellt wird. Der Name der Stadt mit Doppel-s („Meissen“) ist ein eingetragenes Markenzeichen der "Staatlichen Porzellanmanufaktur Meissen". Geografische Lage. Die Stadt Meißen – 25 km nordwestlich von Dresden, 75 km östlich von Leipzig und 30 km nördlich von Freiberg – liegt am Ausgang des Elbtalkessels an der Elbe und ihrem Nebenfluss, der Triebisch. Südöstlich von Meißen liegen Coswig und Radebeul. Niedrigster Punkt der Stadt ist der mittlere Wasserspiegel der Elbe bei. Südlich von Meißen liegt das Meißner Hochland, nordwestlich der Stadt die Lommatzscher Pflege. Nachbargemeinden. Angrenzende Gemeinden sind die Stadt Coswig, Diera-Zehren, Käbschütztal, Klipphausen, Niederau und Weinböhla im Landkreis Meißen. Ortsgeschichte. Unterhalb der um das Jahr 929 von König Heinrich I., dem Burgenbauer, gegründeten Burg „Misnia“ entwickelte sich Meißen aus dem slawischen Dorf Meisa am gleichnamigen Bach zur Marktsiedlung und schließlich Ende des 12. Jahrhunderts zu einer Stadt, deren Stadtrechte für das Jahr 1332 urkundlich bezeugt sind. Wegen der hier residierenden Bischöfe (Bistum Meißen, gegründet 968) war die Stadt für die kulturelle Entwicklung Sachsens von herausragender Bedeutung. Im Zuge der erst 1539 in Meißen eingeführten Reformation wurden die drei Klöster aufgelöst und im ehemaligen Franziskanerkloster eine Stadtschule eingerichtet. Seit 1543 befindet sich die Fürstenschule im ehemaligen Kloster St. Afra. Wirtschaftlich wurde Meißen lange Zeit durch die Tuchmacherei bestimmt, die durch den Dreißigjährigen Krieg aber nahezu zum Erliegen kam. 1710 wurde unter August dem Starken die Porzellanmanufaktur eröffnet, die neue Impulse setzte. Bis 1423 existierte die Markgrafschaft Meißen. Bekannte Markgrafen von Meißen waren die Wettiner Konrad der Große, Otto der Reiche, Dietrich der Bedrängte, Heinrich der Erlauchte und Friedrich der Streitbare, der Kurfürst von Sachsen wurde. Der Meißner Dom und die Albrechtsburg auf dem linkselbischen Burgberg prägen die Silhouette von Meißen. Um 1250 wurde mit dem Bau des Doms begonnen, die beiden markanten Domtürme wurden erst 1909 fertiggestellt, nachdem die Westfront mit ihren beiden ab 1315 gebauten Türmen bereits 1547 durch Blitzschlag zerstört worden war. Ab 1470 wurde unter Arnold von Westfalen die Albrechtsburg als erstes deutsches Schloss errichtet. Zunächst als Residenz der beiden regierenden Fürsten vorgesehen, kam es jedoch nie zu einer solchen Nutzung, sondern sie stand leer. Von 1710 bis zur Mitte des 19. Jahrhunderts diente die Albrechtsburg als Sitz der Meißner Porzellanmanufaktur. In Meißen kam es in den Jahren 1540 bis 1696 zu Hexenverfolgungen: Elf Personen gerieten in Hexenprozesse, 1620 wurde eine Frau verbrannt. Zur Zeit des Nationalsozialismus wurden auch in Meißen politische Gegner des NS-Regimes verfolgt. So wurde der sozialdemokratische Arbeiter Max Dietel als Widerstandskämpfer 1943 in Görden ermordet. Die in der Stadt lebenden jüdischen Familien wurden aus dem Land getrieben oder in Vernichtungslager deportiert. Zu ihnen gehörte das Ehepaar Alex und Else Loewenthal, die in der Elbstraße 8 ein Kaufhaus betrieben hatten und 1942 ermordet wurden. Ihre überlebenden Kinder ließen 1968 eine Gedenktafel für die Eltern anbringen. Der damalige Superintendent von Meißen, Herbert Böhme, wollte verhindern, dass Meißen in den letzten Kriegstagen zur Festung erklärt und mit allen Mitteln verteidigt werden sollte, wurde für seinen mutigen Einspruch bei Gauleiter Mutschmann und dem damaligen Bürgermeister zum Tode verurteilt. Die schnell einmarschierende Rote Armee verhinderte mit ihrem Einmarsch am 7. Mai 1945 die Ausführung des Todesurteils. Der entsprechende Gefängnistrakt im damaligen Landgericht in Dresden wurde später als Gedenkstätte Münchner Platz Dresden eingeweiht. Das in der Elbstraße 19 befindliche Kaufhaus der Schocken-Kette wurde 1938 arisiert; das Gebäude wurde im Zweiten Weltkrieg zerstört. Insgesamt erlitt die Stadt jedoch nur geringe kriegsbedingte Verluste ihrer historischen Bausubstanz. Für das 2. Parlament der Freien Deutschen Jugend (FDJ) im Jahr 1947 ließ die Stadtverwaltung ein Zeltlager der Kinderlandbewegung an der „Rehbockschänke“ errichten. Die DDR legte angesichts der stetig steigenden Bevölkerungszahl den Schwerpunkt der Bautätigkeit auf der Schaffung neuer Wohnungen vor allem in den Außenbezirken. Dagegen verfiel die historische Innenstadt zunehmend. Am 3. Oktober 1990 gründete sich in der Albrechtsburg der Freistaat Sachsen neu. Nach der Wiedervereinigung wurde besonders das Stadtzentrum umfassend saniert. Das Elbe-Nebenflüsschen Triebisch beschädigte Teile der historischen Innenstadt im August 2002 durch Hochwasser schwer. In der Nacht zum 13. August überflutete sie ihr Tal und die Altstadt. Vier Tage später erreichte der Pegel des Elbhochwassers seinen höchsten Stand, sodass Altstadt und weitere Stadtteile teilweise bis zu drei Meter in den Fluten versanken. In Dresden lag der Pegel mit 9,40 Meter fast 8 Meter über dem Normalpegel dieser Jahreszeit. Kino, Theater, der Heinrichsbrunnen und weitere Sehenswürdigkeiten Meißens standen zeitweilig unter Wasser. Der erhöht liegende Marktplatz mit der Frauenkirche und dem Rathaus blieb hingegen verschont. Im Juni 2013 traf ein weiteres Hochwasser die Stadt Meißen. Am 6. Juni zeigte der Pegel in Dresden einen Wert von 8,76 m, 64 cm unter dem Niveau von 2002. Teile der Meißner Altstadt wurden wieder überflutet, darunter das Theater, das Kino, der Heinrichsplatz, die Neugasse, die Gerbergasse, der Neumarkt und das Buschbad, da das Hochwasser die neu erbauten Flutmauern am Elbufer überstieg. In der Nacht zum 29. Juni 2015 kam es zu einem Brandanschlag auf eine geplante, noch unbewohnte Asylbewerberunterkunft. Nach der Tat erhielt der Besitzer der Immobilie Morddrohungen. Die Täter sind laut Polizei in der rechten Szene zu vermuten. Einwohnerentwicklung. Datenquelle ab 1994: Statistisches Landesamt des Freistaates Sachsens Dialekt und Sprachgebrauch. In Meißen wird eine spezielle Form des sächsischen Dialektes gesprochen: das "Südostmeißnische," einer der fünf meißnischen Dialekte. Freiwillige Feuerwehr. Die Feuerwehr Meißen ist eine Freiwillige Feuerwehr und wurde 1841 auf eine entsprechende Anwerbung von Personal durch den Stadtrat Meißens gegründet. Als im Juli 1841 die erste Mannschaft verpflichtet wurde, war diese bereits 132 Mann stark. Zuvor bestand in Meißen seit dem Mittelalter ein organisiertes Löschwesen. Die Stadt stattete die Männer mit einfachen Feuerlöschgeräten aus und verpflichtete die Löschtrupps zur Hilfeleistung bei Bränden. Obwohl per Gesetz jeder Bürger zur Hilfeleistung bei Bränden verpflichtet war, wurde ab 1475 das Mitwirken bei der Brandbekämpfung mit finanziellen Anreizen verbunden. Ein Widersetzen führte zu Haftstrafen oder dem Stadtbann. Im Jahr 1570 erließ die Stadtverwaltung die erste offizielle Feuerordnung. 1794 wurde in Anbetracht der beginnenden Industrialisierung die Löschordnung Meißens überarbeitet, sodass sie sich nun auch mit Fragen des Brandschutzes, zusätzlich zu den Rechten und Pflichten der Bürger bei und nach einem Brand beschäftigte. Die Freiwillige Feuerwehr Meißen zählt 58 aktive Berufseinsatzkräfte (Stand 2013). Die Fahrzeuge sind auf die zwei Feuerwachen "Wache Teichmühle" in Meißen-Cölln und "Wache Rote Schule" in der Altstadt verteilt. Oberbürgermeister. Oberbürgermeister ist seit 2004 Olaf Raschke, der am 19. September 2004 gewählt wurde und am 18.September 2011 mit 81,1% wiedergewählt wurde. Stadtrat. 1 Unabhängige Liste Meißen         2 Freie Bürger-Bewegung Meißen In Meißen unterhält die SPD-Bundestagsabgeordnete Susann Rüthrich ein Bürgerbüro. Wappen. Großes Wappen der Stadt Meißen Blasonierung: Das Wappen der Stadt Meißen zeigt im Wappenschild in Gold rechts einen über Eck stehenden gezinnten, vierfenstrigen und mit Tor versehenen roten Turm mit Spitzdach und Knauf, links einen nach rechts hingewendeten rotbewehrten schwarzen Löwen mit rotausschlagender Zunge, welcher den Turm mit seinen Vorderpranken berührt. Im Oberwappen einen Stechhelm mit silber-roter Helmdecke und den Rumpf eines bärtigen Mannes mit spitziger, pfauenfedernbesteckter Mütze. Die Verwaltung der Stadt Meißen verwendet für ihre Zwecke ein vereinfachtes Wappen, das nur den Wappenschild enthält (siehe Wappen in der Infobox). Der sogenannte Meißner Löwe ist der Löwe der einstigen Markgrafen von Meißen, welche die Stadt seit vielen Jahrhunderten regierten und ihn ab dem im 12. Jahrhundert verliehenen Stadtrecht verwendeten. Der rote Turm symbolisiert vermutlich die durch Mauer und Türme verteidigungsfähige Stadt. Das älteste Siegel der Stadt zeigt einen wehrfähigen, Schwert tragenden Bürger, der die Wappen der Mark- und Burggrafen von Meißen trägt. Er steht vor einer symbolisierten Kathedralfassade. So sind die drei Grundherrschaften der Stadt, zu denen auch der Bischof von Meißen zählt, vergegenwärtigt. Das obige kleine Wappen erscheint zunächst in Siegeln des frühen 16. Jahrhunderts und hat sich seither kaum verändert. Städtepartnerschaft. Meißen ist mit insgesamt sechs Städten weltweit verbunden. Diese sind Gedenkstätten für die Opfer des Nationalsozialismus. Ehrenmal auf dem sowjetischen Soldatenfriedhof Meißen-Bohnitzsch. Regelmäßige Veranstaltungen. Im Frühjahr gibt es einen Töpfer- und Grafikermarkt sowie das Literaturfest. Vor Beginn der Sommerferien laden die Kultureinrichtungen zur "Langen Nacht". Zwischen 2009 und 2012 fand jährlich im August der "Meißner City Downhill" statt, bei dem auch eine Anzahl überregionaler Radsportler teilnahm. An einem Wochenende Ende September findet das Weinfest statt, das einem Stadtfest gleicht und seinen Höhepunkt im Umzug am Sonntag findet. Mit Beginn der Adventszeit öffnet die "Meißner Weihnacht" ihre Tore und lädt bis zum 24. Dezember mit einem breiten Kulturangebot und einem Weihnachtsmarkt Groß und Klein ein. Gleichzeitig verwandeln sich die 24Fenster des Meißner Rathauses in Adventskalendertürchen. Verbunden damit ist eine Tombola für gemeinnützige Zwecke. Für Motorsport-Freunde gibt es jährlich Motorrad-Speedwayrennen im Speedway-Stadion des MC Meissen. Tierpark. Am Fuß von Schloss Siebeneichen befindet sich der Heimattierpark Siebeneichen. Der Bergtierpark beherbergt über 400 Tiere in 85 verschiedenen Arten. Gehalten werden viele Haus- und Heimtierarten, aber auch ungewöhnlichere Tiere wie Polarfüchse und verschiedene Streifenhörnchen. Kulinarische Spezialitäten. Das Weinanbaugebiet um Meißen gilt als das nordöstlichste Weinanbaugebiet Europas. Es bringt besonders bei Kennern geschätzte trockene Weine hervor. Die Meißner Fummel ist ein aufgeblasenes und sehr zerbrechliches Gebäck. Dies wurde angeblich erfunden, um einen der Trunkenheit zugetanen Boten des sächsischen Königs zu erziehen: Dieser musste die Fummel nach der Reise unversehrt vorweisen, was bei den damaligen Straßenverhältnissen im trunkenen Zustand unmöglich war. Die Gegend um Meißen ist ein Obstanbaugebiet, in dem sich noch einige ältere Apfelsorten, wie der Borsdorfer Apfel, finden. Wirtschaft. Das wohl bekannteste Unternehmen Meißens ist die Staatliche Porzellan-Manufaktur Meissen GmbH, die handgefertigtes und kostbares Meißner Porzellan herstellt. Es erzielt traditionell hohe Marktpreise. Verkehr. Meißen liegt an der Hauptbahnstrecke Borsdorf–Coswig, an der die Bahnhöfe Meißen Hauptbahnhof, Meißen Altstadt und Meißen-Triebischtal liegen. Meißen-Triebischtal ist der Endpunkt der Dresdner S-Bahn-Linie S1, welche die Relation Meißen-Triebischtal–Dresden–Schöna bedient. In der Gegenrichtung bestehen Direktverbindungen nach Leipzig über Döbeln. Bis 1966 fuhren Schmalspurbahnen nach Wilsdruff und Lommatzsch. Meißen ist über die Elbe durch die Sächsische Dampfschiffahrt unter anderem mit Dresden verbunden. Die B 6 und B 101 führen durch Meißen. Im Jahr 1899 wurde in der Stadt die elektrische Straßenbahn Meißen eröffnet, die bis 1936 Personen und bis 1967 Güter beförderte. Im 21. Jahrhundert wird der regionale Busverkehr durch die Verkehrsgesellschaft Meißen organisiert, die ein Teil des Verkehrsverbundes Oberelbe ist. Durch die Stadt verläuft an beiden Elbufern der Elberadweg. Brücken und Tunnel. Altstadtbrücke (Vordergrund) und Eisenbahnbrücke (Hintergrund) In Meißen gibt es drei Elbquerungen. Das sind eine kombinierte Eisenbahn- und Fußgängerbrücke, erbaut 1866, die Altstadtbrücke und die Elbtalbrücke (B 101). Seit 2007 führt die B 101 nach Nossen durch den 720 Meter langen Schottenbergtunnel, der sich direkt an die Elbtalbrücke anschließt. Die Altstadtbrücke hatte bis 1866 hölzerne Bögen. Im Juni desselben Jahres wurde sie wegen des Einmarschs der Preußen von der sächsischen Armee gesprengt (Deutscher Krieg). Bei der Wiederherstellung kamen eiserne Joche zur Anwendung. Persönlichkeiten. Zu den bekanntesten Söhnen der Stadt Meißen gehört Samuel Hahnemann, Begründer der Homöopathie. Als Musikgruppe wurde die Stern-Combo Meißen bekannt. Mengenlehre. Die Mengenlehre ist ein grundlegendes Teilgebiet der Mathematik, das sich mit der Untersuchung von Mengen, also von Zusammenfassungen von Objekten, beschäftigt. Die gesamte Mathematik, wie sie heute üblicherweise gelehrt wird, ist in der Sprache der Mengenlehre formuliert und baut auf den Axiomen der Mengenlehre auf. Die meisten mathematischen Objekte, die in Teilbereichen wie Algebra, Analysis, Geometrie, Stochastik oder Topologie behandelt werden, um nur einige wenige zu nennen, lassen sich als Mengen definieren. Gemessen daran ist die Mengenlehre eine recht junge Wissenschaft; erst nach der Überwindung der Grundlagenkrise der Mathematik zu Beginn des 20. Jahrhunderts konnte die Mengenlehre ihren heutigen, zentralen und grundlegenden Platz in der Mathematik einnehmen. 19. Jahrhundert. Menge als gedankliche Zusammenfassung von Objekten Cantor klassifizierte die Mengen, insbesondere die unendlichen, nach ihrer Mächtigkeit. Für endliche Mengen ist das die Anzahl ihrer Elemente. Er nannte zwei Mengen "gleichmächtig", wenn sie sich bijektiv aufeinander abbilden lassen, das heißt, wenn es eine Eins-zu-eins-Beziehung zwischen ihren Elementen gibt. Die so definierte Gleichmächtigkeit ist eine Äquivalenzrelation und die "Mächtigkeit" oder "Kardinalzahl" einer Menge "M" ist nach Cantor die Äquivalenzklasse der zu "M" gleichmächtigen Mengen. Er beobachtete wohl als Erster, dass es verschiedene unendliche Mächtigkeiten gibt. Die Menge der natürlichen Zahlen und alle dazu gleichmächtigen Mengen heißen nach Cantor "abzählbar", alle anderen unendlichen Mengen heißen "überabzählbar". Cantor benannte das "Kontinuumproblem": Gibt es eine Mächtigkeit zwischen derjenigen der Menge der natürlichen Zahlen und derjenigen der Menge der reellen Zahlen? Er selbst versuchte es zu lösen, blieb aber erfolglos. Später stellte sich heraus, dass die Frage grundsätzlich nicht entscheidbar ist. Neben Cantor war auch Richard Dedekind ein wichtiger Wegbereiter der Mengenlehre. Er sprach von "Systemen" statt von Mengen und entwickelte 1872 eine mengentheoretische Konstruktion der reellen Zahlen und 1888 eine verbale mengentheoretische Axiomatisierung der natürlichen Zahlen. Er formulierte hier als erster das Extensionalitätsaxiom der Mengenlehre. Giuseppe Peano, der Mengen als "Klassen" bezeichnete, schuf bereits 1889 den ersten formalen Klassenlogik-Kalkül als Basis für seine Arithmetik mit den Peano-Axiomen, die er erstmals in einer präzisen mengentheoretischen Sprache formulierte. Er entwickelte damit die Grundlage für die heutige Formelsprache der Mengenlehre und führte viele heute gebräuchliche Symbole ein, vor allem das Elementzeichen formula_1, das als „ist Element von“ verbalisiert wird. Dabei ist formula_1 der kleine Anfangsbuchstabe ε (Epsilon) des Wortes ἐστί ("griechisch" „ist“). Eine andere mengentheoretische Begründung der Arithmetik versuchte Gottlob Frege wenig später in seinem Kalkül von 1893. In diesem entdeckte Bertrand Russell 1902 einen Widerspruch, der als Russellsche Antinomie bekannt wurde. Dieser Widerspruch und auch andere Widersprüche entstehen aufgrund einer uneingeschränkten Mengenbildung, weshalb die Frühform der Mengenlehre später als naive Mengenlehre bezeichnet wurde. Cantors Mengendefinition beabsichtigt aber keine solche naive Mengenlehre, wie sein Beweis der Allklasse als Nichtmenge durch die zweite Cantorsche Antinomie belegt. Cantors Mengenlehre wurde von seinen Zeitgenossen in ihrer Bedeutung kaum erkannt und keineswegs als revolutionärer Fortschritt angesehen, sondern stieß bei manchen Mathematikern, etwa bei Leopold Kronecker, auf Ablehnung. Noch mehr geriet sie in Misskredit, als Antinomien bekannt wurden, so dass etwa Henri Poincaré spottete: „Die Logik ist gar nicht mehr steril – sie zeugt jetzt Widersprüche.“ 20. Jahrhundert. Im 20. Jahrhundert setzten sich Cantors Ideen immer mehr durch; gleichzeitig vollzog sich innerhalb der sich entwickelnden Mathematischen Logik eine Axiomatisierung der Mengenlehre, mittels derer zuvor herrschende Widersprüche überwunden werden konnten. 1903/1908 entwickelte Bertrand Russell seine Typentheorie, in der Mengen stets einen höheren Typ als ihre Elemente haben, damit problematische Mengenbildungen unmöglich würden. Er wies den ersten Ausweg aus den Widersprüchen und zeigte in den "Principia Mathematica" von 1910–1913 auch ein Stück der Leistungsfähigkeit der angewandten Typentheorie. Letztlich erwies sie sich aber als unzulänglich für Cantors Mengenlehre und konnte sich auch wegen ihrer Kompliziertheit nicht durchsetzen. Handlicher und erfolgreicher war dagegen die von Ernst Zermelo 1907 entwickelte axiomatische Mengenlehre, die er gezielt zur widerspruchsfreien Begründung der Mengenlehre von Cantor und Dedekind schuf. Abraham Fraenkel bemerkte 1921, dass dazu zusätzlich sein Ersetzungsaxiom nötig sei. Zermelo fügte es in sein Zermelo-Fraenkel-System von 1930 ein, das er kurz ZF-System nannte. Er konzipierte es auch für Urelemente, die keine Mengen sind, aber als Mengenelemente in Frage kommen und Cantors „Objekte unserer Anschauung“ einkalkulieren. Die heutige Zermelo-Fraenkel-Mengenlehre ist dagegen nach Fraenkels Vorstellung eine reine Mengenlehre, deren Objekte ausschließlich Mengen sind. Viele Mathematiker setzten aber statt auf eine konsequente Axiomatisierung auf eine pragmatische Mengenlehre, die Problem-Mengen mied, so etwa die oft aufgelegten Mengenlehren von Felix Hausdorff ab 1914 oder von Erich Kamke ab 1928. Nach und nach wurde es immer mehr Mathematikern bewusst, dass die Mengenlehre eine unentbehrliche Grundlage für die Strukturierung der Mathematik ist. Das ZF-System bewährte sich in der Praxis, weshalb es heute als Basis der modernen Mathematik von der Mehrheit der Mathematiker anerkannt ist; keinerlei Widersprüche konnten mehr aus dem ZF-System abgeleitet werden. Die Widerspruchsfreiheit konnte allerdings nur für die Mengenlehre mit endlichen Mengen nachgewiesen werden, aber nicht für das komplette ZF-System, das Cantors Mengenlehre mit unendlichen Mengen enthält; nach Gödels Unvollständigkeitssatz von 1931 ist ein solcher Nachweis der Widerspruchsfreiheit prinzipiell nicht möglich. Gödels Entdeckungen steckten nur Hilberts Programm, die Mathematik und Mengenlehre auf eine nachweislich widerspruchsfreie axiomatische Basis zu stellen, eine Grenze, aber hinderten den Erfolg der Mengenlehre in keiner Weise, so dass von einer Grundlagenkrise der Mathematik, von der Anhänger des Intuitionismus sprachen, in Wirklichkeit nichts zu spüren war. Die endgültige Anerkennung der ZF-Mengenlehre in der Praxis zog sich allerdings noch über längere Zeit hin. Die Mathematiker-Gruppe mit Pseudonym Nicolas Bourbaki trug wesentlich zu dieser Anerkennung bei; sie wollte die Mathematik auf der Basis Mengenlehre einheitlich neu darstellen und setzte dies ab 1939 in zentralen Mathematikgebieten erfolgreich um. In den 1960er Jahren wurde es dann allgemein bekannt, dass sich die ZF-Mengenlehre als Grundlage der Mathematik eignet. Es gab sogar einen vorübergehenden Zeitraum, in dem die Mengenlehre in der Grundschule behandelt wurde. Parallel zur Erfolgsgeschichte der Mengenlehre blieb jedoch die Diskussion der Mengenaxiome in der Fachwelt aktuell. Es entstanden auch alternative axiomatische Mengenlehren, etwa 1937 die sich nicht an Cantor oder Zermelo-Fraenkel, sondern an der Typentheorie orientierende Mengenlehre von Willard Van Orman Quine aus dessen New Foundations (NF), 1940 die Neumann-Bernays-Gödel-Mengenlehre, die ZF auf Klassen verallgemeinert, oder 1955 die Ackermann-Mengenlehre, die neu an Cantors Mengendefinition anknüpfte. Definitionen. In der reinen Mengenlehre ist das Elementprädikat formula_1 (sprich "ist Element von") die einzige notwendige Grundrelation. Alle mengentheoretischen Begriffe und Aussagen werden aus ihr mit logischen Operatoren der Prädikatenlogik definiert. Damit sollte klar sein, wie man mittels obiger Definitionen alle weiteren Begriffe der Mathematik auf den Mengenbegriff zurückführen kann. Mengendiagramm. Bleiverglastes Fenster mit einem Venn-Diagramm im britischen Cambridge, dem Studienort John Venns Mengendiagramme dienen der grafischen Veranschaulichung der Mengenlehre. Es gibt unterschiedliche Arten von Mengendiagrammen, insbesondere Euler-Diagramme (nach Leonhard Euler) und Venn-Diagramme (nach John Venn). Mengendiagramme können Mengenbeziehungen verdeutlichen, sind jedoch im Allgemeinen nicht als mathematische Beweismittel geeignet. Als Beweismittel eignen sich nur solche Mengendiagramme, die "alle" möglichen Relationen der vertretenen Mengen darstellen; solche Diagramme werden Venn-Diagramme genannt. Der Nachteil von Venn-Diagrammen liegt darin, dass sie bei mehr als drei beteiligten Mengen rasch unübersichtlich werden, weil sie bei "n" Objekten "2n" Möglichkeiten darstellen müssen. Venn selber konnte unter der Verwendung von Ellipsen bis zu vier, schließlich sogar fünf beteiligte Mengen darstellen. Erweiterung auf mehrere Mengen. Venn-Diagramme sind vor allem in der Darstellung für drei Mengen mit Kreisen bekannt. Venn hatte jedoch den Ehrgeiz, „in sich elegante symmetrische Figuren“ zu finden, die eine größere Anzahl an Mengen darstellen, und zeigte ein Diagramm für vier Mengen in Ellipsenform. Er gab dann ein Konstruktionsverfahren an, mit dem man Venndiagramme für eine „beliebige“ Anzahl von Mengen darstellen kann, wobei jede geschlossene Kurve mit den anderen verflochten ist, ausgehend vom Diagramm mit drei Kreisen. Dabei wird ein „Schlauch“ über die jeweils letzte Mengendarstellung gezogen. Damit werden alle anderen Mengen geschnitten. Unterschiede zwischen Venn- und Eulerdiagrammen. Während in Euler-Diagrammen nur die tatsächlichen Überschneidungen zwischen den Mengen zu sehen ist, werden in Venn-Diagrammen alle möglichen Überlappungen der Flächen dargestellt (auch wenn diese keine Objekte enthalten). Johnston-Diagramme. Johnston-Diagramme sind eine zweiwertige aussagenlogische Interpretation von Mengendiagrammen, speziell Venn-Diagrammen. In einem Johnston-Diagramm wird ein Kreis (eine Menge) "P" als Menge der Sachverhalte interpretiert, unter denen eine Aussage "P" wahr ist. Der Bereich außerhalb des Kreises (das Komplement der Menge) "P" wird als Menge der Sachverhalte interpretiert, unter denen die Aussage falsch ist. Um zu sagen, "dass" eine Aussage wahr ist, malt man den ganzen Bereich außerhalb ihres Kreises schwarz an; man zeigt so an, dass die Sachverhalte, unter denen die Aussage nicht wahr ist, nicht zutreffen können. Um umgekehrt zu sagen, dass eine Aussage "falsch" ist, malt man den Bereich innerhalb ihres Kreises schwarz aus; man sagt so, dass die Sachverhalte, unter denen die Aussage wahr ist, nicht zutreffen können. Kombiniert man zwei Aussagen "P", "Q" durch eine Konjunktion, d. h. will man ausdrücken, dass beide Aussagen wahr sind, malt man die gesamte Fläche, die außerhalb der Schnittfläche der Kreise "P", "Q" liegt, schwarz an; man sagt so, dass keiner der Sachverhalte, unter denen nicht sowohl "P" als auch "Q" zutreffen, vorliegen kann. Johnston-Diagramme sind somit eine Abbildung der klassischen Aussagenlogik auf die elementare Mengenlehre, wobei die Negation als Komplementbildung, die Konjunktion als Schnitt und die Disjunktion als Vereinigung dargestellt werden. Die Wahrheitswerte "wahr" und "falsch" werden auf die Allmenge beziehungsweise auf die leere Menge abgebildet. Geschichte. Leibniz benutzte bereits um 1690 Mengendiagramme zur Darstellung der Syllogistik. Christian Weise, Rektor des Gymnasiums in Zittau, verwendet um 1700 Mengendiagramme zur Darstellung logischer Verknüpfungen. Johann Christian Lange (1669–1756) veröffentlichte 1712 das Buch "Nucleus Logicae Weisianae", in dem Weises Logik behandelt wird. Leonhard Euler, Schweizer Mathematiker im 18. Jahrhundert, führte das Euler-Diagramm ein, das er erstmals in einem Brief vom 24. Februar 1761 verwendete. John Venn, britischer Mathematiker im 19. Jahrhundert, führte 1881 das Venn-Diagramm ein. 1964 werden erstmals Arbeiten von Charles Sanders Peirce akademisch gewürdigt, die dieser im letzten Viertel des 19. Jahrhunderts verfasst hatte und die die Existentiellen Graphen beschreiben. Die folgenden Grafiken zeigen, wie Venn-Diagramme seit dem 17. Jahrhundert zur Veranschaulichung von Syllogismen genutzt werden. Die Gültigkeit eines Schlusses kann mit dieser Methode überprüft werden. (So sieht man etwa, dass der "Modus Darapti" nur unter Voraussetzung eines nichtleeren Mittelbegriffs gültig ist.) In schwarzen Bereichen existiert kein Element (Allaussage). In roten Bereichen existiert mindestens ein Element x (Existenzaussage). Solche Venn-Diagramme lassen sich einfach in Euler-Diagramme umformen, wie die folgende Grafik zeigt. Venn-Diagramme haben den Vorteil, dass man keine Überschneidung vergessen kann, so dass sie auch für Beweise geeignet sind. Dagegen lässt sich bei Euler-Diagrammen intuitiver erfassen, welche Mengen ineinander liegen oder sich überschneiden. Message-Digest Algorithm 5. Message-Digest Algorithm 5 (MD5) ist eine weit verbreitete kryptographische Hashfunktion, die aus einer beliebigen Nachricht einen 128-Bit-Hashwert erzeugt. Dies erlaubt beispielsweise die leichte Überprüfung eines Downloads auf Korrektheit. MD5 wurde 1991 von Ronald L. Rivest entwickelt. Sie gilt inzwischen nicht mehr als sicher, da es mit überschaubarem Aufwand möglich ist, unterschiedliche Nachrichten zu erzeugen, die den gleichen MD5-Hashwert aufweisen. Geschichte. MD5 ist ein Vertreter aus einer Reihe von (kryptologischen) Hashfunktionen, die von Ronald L. Rivest am Massachusetts Institute of Technology entwickelt wurden. Als Analysen ergaben, dass der Vorgänger MD4 wahrscheinlich unsicher ist, wurde MD5 1991 als sicherer Ersatz entwickelt. Bereits 1993 veröffentlichten Bert de Boer und Antoon Bosselaers einen Algorithmus zum Erzeugen von "Pseudokollisionen" auf die Kompressionsfunktion von MD5: zwei unterschiedliche Initialisierungskonstanten ergeben für dieselbe Nachricht denselben Hashwert. 1996 fand Hans Dobbertin eine Kollision für zwei unterschiedliche Nachrichten. Es handelt sich dabei um eine echte Kollision, also zwei speziell präparierte Nachrichten, die sich unterscheiden, aber dennoch denselben Hashwert ergeben. Allerdings verwendete Dobbertin eine modifizierte MD5-Variante, in der andere Initialisierungskonstanten (für A, B, C, D) verwendet werden. Auch war es nicht möglich, den Inhalt der kollidierenden Nachrichten vorzugeben. Somit waren praktische Angriffe auf MD5 zwar nicht möglich, aber die Schwächen von MD5 wurden deutlich, so dass Kryptologen zu einem Umstieg auf andere Hashfunktionen rieten. 2004 gelang es einer chinesischen Forschergruppe um Xiaoyun Wang, Kollisionen systematisch zu erzeugen, wenn der Anfang der Nachricht beliebig gewählt werden kann, aber bei beiden Nachrichten identisch ist "(common-prefix collision)". Zu diesem Anfang der Nachricht können mit vertretbarem Aufwand zwei verschiedene Fortsetzungen der Nachricht errechnet werden, die zum selben Hashwert führen. Diese Kollision bleibt auch erhalten, wenn an beide Nachrichten (jeweils bestehend aus dem gleichen Anfang und der einen bzw. der anderen Fortsetzung) das gleiche Suffix angehängt wird. Dieser Angriff wurde von Wang und anderen Forschergruppen verbessert, sodass ein PC heute innerhalb von Sekunden eine MD5-Kollision berechnen kann. Der Aufwand zum Finden einer Kollision ist größer, wenn der Anfang der beiden Nachrichten abweicht "(chosen-prefix collision)". 2008 gelang es einem Team um Marc Stevens und Alexander Sotirov einen solchen Kollisionsangriff durchzuführen, um ein gefälschtes und als vertrauenswürdig anerkanntes CA-Zertifikat zu erstellen. Mit diesem waren sie prinzipiell in der Lage, für jede beliebige URL ein SSL-Zertifikat zu fälschen und damit die Sicherheitsmechanismen von HTTPS im Web auszuhebeln. Die Arbeit wurde erstmals im Dezember 2008 auf dem 25. Chaos Communication Congress vorgestellt und einige Monate später in einem wissenschaftlichen Artikel veröffentlicht. Zur Kollisionsberechnung benutzten sie einen Cluster von 200 Sony PlayStation 3. Die 2012 entdeckte Windows-Malware Flame verwendet ein gefälschtes Code-Signing-Zertifikat, das auf einer neuen und bislang unbekannten Variante einer Chosen-Prefix-Kollision für MD5 basiert. Preimage-Angriffe können auch mit den genannten Methoden noch nicht in sinnvoller Zeit durchgeführt werden. Dadurch ist es weiterhin unmöglich, nachträglich ein gefälschtes Dokument zu erstellen, das zu einem bestimmten, mit MD5 erzeugten Zertifikat passt. Es ist jedoch durch Kollisionsangriffe in vielen Fällen möglich, zwei Dokumente zu erstellen, die denselben MD5-Hashwert ergeben, dann das erste, legitime Dokument signieren zu lassen, und anschließend dieses durch das zweite, gefälschte Dokument auszutauschen. Vor diesem Hintergrund ist von einer Weiterverwendung von MD5 abzuraten. MD5-Hashes. md5("Franz jagt im komplett verwahrlosten Taxi quer durch Bayern") = md5("Frank jagt im komplett verwahrlosten Taxi quer durch Bayern") = Verwendung und Verfügbarkeit. Unter den meisten Linux-Distributionen wird das Programm md5sum als Bestandteil der coreutils standardmäßig installiert. Auf BSD-abgeleiteten Betriebssystemen wie Mac OS X gibt es das Kommando md5. Auf vielen anderen Unix-Derivaten kann man sich mit dem meist installierten Programm OpenSSL behelfen. Microsoft-Windows-Betriebssysteme verfügen ab Werk nicht über ein Programm zur Berechnung von MD5-Hashes, Microsoft stellt jedoch das Programm "File Checksum Integrity Verifier" (codice_1) kostenlos bereit. Überprüfung des MD5-Hashwerts. Nach erfolgreichem Download einer Datei oder eines Ordners mit Dateien wird häufig in einer weiteren Datei der dazugehörige MD5-Hashwert zur Verfügung gestellt. Über ein Prüfprogramm kann dann wiederum der Hashwert aus der heruntergeladenen Datei berechnet werden, der dann mit dem zur Verfügung gestellten Hashwert verglichen wird. Sind beide Hashwerte identisch, ist die Integrität der heruntergeladenen Datei bestätigt. Demnach traten beim Download der Datei keine Fehler auf. Dies bietet keine Sicherheit hinsichtlich einer gezielten Datenmanipulation durch einen Angreifer (Man-in-the-middle-Angriff), da der Angreifer auch die Übertragung des MD5-Hashwertes manipulieren kann. Algorithmus. a> bezeichnet die Addition modulo 232. MD5 erzeugt aus einer Nachricht variabler Länge eine Ausgabe fester Länge (128 Bit). Zuerst wird eine Eins an die Ausgangsnachricht angehängt. Danach wird die Ausgangsnachricht mit Nullen so aufgefüllt, dass ihre Länge 64 Bits davon entfernt ist, durch 512 teilbar zu sein. Nun wird eine 64-Bit-Zahl, die die Länge der Ausgangsnachricht codiert, angehängt. Die Nachrichtenlänge ist jetzt durch 512 teilbar. formula_5 stehen jeweils für XOR, AND, OR und NOT-Operationen. Auf das Ergebnis wird dieselbe Funktion mit dem zweiten Nachrichtenblock als Parameter aufgerufen usw., bis zum letzten 512-Bit-Block. Als Ergebnis wird wiederum ein 128-Bit-Wert geliefert – die MD5-Summe. Pseudocode. Es folgt der Pseudocode für den MD5-Algorithmus. codice_2 codice_3 Sicherheit. MD5 ist weit verbreitet und wurde ursprünglich als kryptografisch sicher angesehen. Bereits 1994 entdeckten Bert den Boer und Antoon Bosselaers Pseudokollisionen in MD5. Grundlegende Arbeit, um echte Kollisionen zu finden, leistete auch Hans Dobbertin (damals am BSI), der bereits den erfolgreichen Angriff auf MD4 entwickelt hatte und die dabei verwendeten Techniken auf MD5 übertrug. Kollisionsresistenz. Im August 2004 fand ein chinesisches Wissenschaftlerteam die erste Kollision in der vollständigen MD5-Funktion. Auf einem IBM-P690-Cluster benötigte ihr erster Angriff eine Stunde, davon ausgehend ließen sich weitere Kollisionen innerhalb von maximal fünf Minuten finden. Kurz nach der Veröffentlichung der Arbeit der Chinesen wurde MD5CRK eingestellt, das versuchte, Kollisionen per Brute-Force-Methode zu finden. Kurzbeschreibung: Ein Eingabeblock (512 Bit) wird modifiziert, wobei versucht wird, eine bestimmte Differenz zum Original im Ausgang zu erzeugen. Durch eine aufwändige Analyse des Algorithmus kann die Anzahl der unbekannten Bits so weit verringert werden, dass dies rechnerisch gelingt. Im nächsten 512-Bit-Block wird mit den gleichen Methoden versucht, die Differenz wieder aufzuheben. Die Fälschung benötigt also einen zusammenhängenden Datenblock von 1024 Bit = 128 Byte, was den Einsatz stark einschränkt. Inzwischen sind die Kollisionsangriffe so weit fortgeschritten, dass eine weitere Nutzung von MD5, insbesondere in solchen Szenarien, in denen der Nutzer nicht die zu signierenden Dateien komplett kontrolliert, abzulehnen ist. Ein 2009 durchgeführter Test des Computermagazins c’t unter Verwendung von GPGPU ermöglicht es einem etwa ein Jahr alten Highend-Spiele-PC mit zwei Nvidia GeForce 9800 GX2 (insgesamt vier Grafikprozessoren), in knapp 35 Minuten eine Kollision zu finden. Einwegeigenschaft. Eine andere Angriffsmethode stellen Regenbogentabellen dar. In diesen Tabellen sind Zeichenketten mit den zugehörigen MD5-Hashwerten gespeichert. Der Angreifer durchsucht diese Tabellen nach dem vorgegebenen Hashwert und kann dann passende Zeichenketten auslesen. Dieser Angriff kann vor allem eingesetzt werden, um Passwörter zu ermitteln, die als MD5-Hashes gespeichert sind. Die dazu notwendigen Regenbogentabellen sind jedoch sehr groß und es bedarf eines hohen Rechenaufwands, um sie zu erstellen. Deshalb ist dieser Angriff im Allgemeinen nur bei kurzen Passwörtern möglich. Für diesen Fall existieren vorberechnete Regenbogentabellen, bei denen zumindest der Rechenaufwand zum Erstellen der Liste entfällt. Die Verwendung eines Salt, also eines zufälligen nicht vorhersehbaren Wertes, welcher an den Klartext angefügt wird, macht die Effektivität von vorberechneten Regenbogentabellen jedoch zunichte. Zusammenfassung. Kollisionen zu finden bedeutet, zwei unterschiedliche Texte M und M' mit hash(M) = hash(M') zu finden. Bei einem Preimage-Angriff sucht man zu vorgegebenen M bzw. hash(M) ein M', so dass hash(M) = hash(M'). Da man beim Preimage-Angriff nur M' kontrolliert, nicht auch M, ist dieser viel schwieriger. Derzeit ist MD5 nur bezüglich der Kollisions-Angriffe gebrochen. Deswegen besteht noch keine akute Gefahr für Passwörter, die als MD5-Hash gespeichert wurden. Diese Kollisionen sind eher eine Gefahr für digitale Signaturen. Zum sicheren Speichern von Passwörtern sollten aber auch Algorithmen in Betracht gezogen werden, die speziell für diesen Zweck entwickelt wurden, z. B. bcrypt. Da noch kein erster Preimage-Angriff bekannt ist, sind in der Vergangenheit signierte MD5-Hashes aktuell (2013) noch sicher. Montag. Der Montag ist der erste Wochentag nach international standardisierter Zählung (ISO 8601/DIN 1355 seit 1976; vorher: Sonntag), nach abrahamitischer (jüdisch-christlich-muslimischer) Zählung der zweite. Der Name ist eine Lehnübersetzung aus lateinisch "Dies Lunae" („Tag der [Mondgöttin] Luna“). Mittwoch. Der Mittwoch ist nach international standardisierter Zählung (ISO 8601) der dritte Wochentag, nach jüdischer, christlicher und islamischer Zählung der vierte (und somit der "mittlere"). Der Name ist seit dem 10. Jahrhundert, unter anderem in der Form althochdeutsch "mittiwehha", belegt bzw. in Gebrauch (schriftlich in althochdeutschen Texten bei Notker und Otfrid), und bezieht sich auf die christlich-jüdische Zählung der Wochentage. Mit ihm vermied die christliche Missionierung im deutschen Sprachraum den Anklang an vorchristliche Gottheiten, die in der fremdsprachigen Terminologie erhalten blieben: Im Englischen deutet die Bezeichnung "Wednesday" auf den Gott Wodan (altenglisch "woden", daher "wodnesdæg"); im Niederländischen "Woensdag" und im Niederdeutschen "Wunsdag" hat das Wort für Mittwoch ebenfalls diesen Ursprung. Wodan wird in manchen Quellen mit Mercurius gleichgesetzt, entsprechend findet man im Lateinischen "Dies Mercurii" (Tag des Mercurius). Letzteres lebt weiter in franz. "mercredi", rumän. "miercuri", ital. "mercoledì", span. "miércoles" und alb. "e mërkurë". Neben der deutschen Sprache leiten Isländisch, sonst Skandinavisch aber Onsdag nach Odin/Wodan, und die meisten slawischen Sprachen den Namen für "Mittwoch" vom Wort "Mitte" in der jeweiligen Sprache ab. So heißt es unter anderem isl. "Miðvikudagur", russ., serb. среда (sreda), poln. "Środa", slowak. "Streda" und davon entlehnt ung. "Szerda". Das Genus des Wortes "Mittwoch" war ursprünglich feminin. Der Mittwoch galt im Volksglauben als Unglückstag. Er war der Hochzeitstag für stille Hochzeiten (zum Beispiel für „gefallene Mädchen“). Nach der Lehre der orthodoxen Kirche war der Mittwoch der Tag, an dem Judas Ischariot den Jesus Christus verkaufte. Deshalb ist der Mittwoch normalerweise in der orthodoxen Kirche ein Fastentag, ebenso wie der Freitag. Mendelsche Regeln. Die mendelschen Regeln beschreiben den Vererbungsvorgang bei Merkmalen, deren Ausprägung von nur einem Gen bestimmt wird (einfacher Erbgang). Sie sind nach ihrem Entdecker Gregor Mendel benannt, der sie 1866 publizierte. Die mendelschen Regeln gelten nur für diploide Organismen mit haploiden Keimzellen – also solche, die von beiden Eltern je einen Chromosomensatz erben. Dazu gehören die meisten Tiere und Pflanzen. Für Organismen mit höherem Ploidiegrad lassen sich entsprechende Regeln ableiten. Klassische, bereits von Mendel untersuchte Beispiele für diesen Regeln folgende Merkmale sind die Form und die Farbe von Erbsensamen und die Farbe von Erbsenblüten. Auch die AB0-Blutgruppen des Menschen werden nach den mendelschen Regeln vererbt. Die frühere Bezeichnung mendelsche Gesetze ist ungebräuchlich geworden, da diverse genetische Phänomene entdeckt wurden, aufgrund derer ein Erbgang von den „Regeln“ abweichen kann. Beispiele dafür sind die Genkopplung und die extrachromosomale Vererbung. Entdeckung. Die mendelschen Regeln wurden in den 1860er Jahren von dem Augustinermönch und Hilfslehrer Gregor Mendel erkannt, durch Kreuzungsversuche an Erbsenpflanzen bestätigt und in einer zunächst wenig beachteten Publikation veröffentlicht. Mendel führte dafür die Begriffe „rezessiv“ und „dominierend“ ein (statt des letzteren wird heute „dominant“ verwendet). Erst 1900 wurden seine Erkenntnisse von den Botanikern Hugo de Vries (Amsterdam), Carl Correns (Tübingen) sowie Erich Tschermak (Wien) unabhängig voneinander wiederentdeckt. Zwischenzeitlich waren die Chromosomen und ihre Verteilung an die Nachkommen beschrieben worden, so dass die mendelschen Regeln jetzt mit diesen Beobachtungen zur Chromosomentheorie der Vererbung vereinigt werden konnten. Heute gehören sie zum Gemeingut der klassischen Genetik. Die mendelschen Regeln. Die mendelschen Regeln beziehen sich auf Merkmale, die von einem einzigen Gen festgelegt werden. Jedes Gen liegt in zwei Kopien („Allelen“) vor, von denen je eines von jedem Elternteil stammt. Regel 1: Uniformitätsregel. Die "Uniformitätsregel" oder "Reziprozitätsregel" gilt, wenn zwei Eltern (Parentalgeneration P) miteinander verpaart werden, die sich in einem Merkmal unterscheiden, für das sie beide jeweils homozygot (reinerbig) sind. Die Nachkommen der ersten Generation (Tochtergeneration F1) sind dann "uniform," d. h. bezogen auf das untersuchte Merkmal gleich. Dies gilt sowohl für den Phänotyp als auch für den Genotyp, welcher bei allen Nachkommen der ersten Generation heterozygot (mischerbig) ist. Ausnahmen von der 1. Regel können auftreten, wenn sich das Gen für ein untersuchtes Merkmal auf einem Geschlechtschromosom (Gonosom) befindet. Dann kann es sein, dass die F1-Generation nicht uniform ist. Regel 2: Spaltungsregel. Die "Spaltungsregel" oder "Segregationsregel" gilt, wenn zwei Individuen gekreuzt werden, die beide gleichartig heterozygot sind, also z. B. zwei Pflanzen, die für die Blütenfarbe "Weiß" und "Rot" Erbanlagen haben. Das kann etwa die F1-Generation des vorherigen Abschnitts sein. In Beschreibungen der mendelschen Regeln werden die Nachkommen einer solchen Heterozygoten-Kreuzung daher als Enkel- oder zweite Filialgeneration (F2) bezeichnet. Die Nachkommen aus dieser Paarung sind untereinander nicht mehr uniform, sondern spalten sich sowohl im Genotyp als auch im Phänotyp auf. Regel 3: Unabhängigkeitsregel. Die "Unabhängigkeitsregel" oder "Neukombinationsregel" beschreibt das Vererbungsverhalten von zwei Merkmalen (dihybrider Erbgang) (z. B. Schwanzlänge und Haarfarbe) bei der Kreuzung reinerbiger Individuen und deren Nachkommen. Beide Merkmale werden unabhängig (daher der Name der Regel) voneinander vererbt, wobei ab der F2-Generation neue, reinerbige Kombinationen auftreten. Diese Regel gilt allerdings nur dann, wenn sich die für die Merkmale verantwortlichen Gene auf verschiedenen Chromosomen befinden oder wenn sie auf dem gleichen Chromosom so weit voneinander entfernt liegen, dass sie während der Meiose durch Crossing-over regelmäßig getrennt voneinander vererbt werden. Befinden sich Gene auf dem gleichen Chromosom nahe beieinander, so werden sie in Kopplungsgruppen vererbt. Genetische Hintergründe. Spaltungsregel und Unabhängigkeitsregel in Einklang mit der Chromosomentheorie der Vererbung Mendel kannte weder den Begriff der Gene noch den der Chromosomen. Die biologische Grundlage der Vererbung war ihm somit nicht bekannt. Erst 1904 wurde durch Walter Sutton und Theodor Boveri die Chromosomentheorie der Vererbung begründet. Mit Hilfe dieser Theorie können die Mendelregeln widerspruchsfrei erklärt werden. In den Körperzellen diploider Organismen treten die Chromosomen paarweise auf. So besitzt der Mensch 23 Chromosomenpaare, also 46 Chromosomen. Je eines der Chromosomen in einem Chromosomenpaar stammt vom Vater und eines von der Mutter. Die beiden Chromosomen eines Paares werden auch als homologe Chromosomen bezeichnet. In einer Körperzelle sind die Erbanlagen pro Merkmal somit immer doppelt vorhanden. Bei der Bildung der Geschlechtszellen werden die homologen Chromosomenpaare in der Meiose getrennt. In einer Eizelle bzw. einem Samenfaden befindet sich also nur der einfache Chromosomensatz, die Erbanlagen pro Merkmal (Genabschnitte) sind somit immer nur einmal vorhanden. Dies erklärt die Spaltungsregel. Bei der Befruchtung, also der Verschmelzung von Eizelle und Samenfaden, bringen beide Geschlechtszellen jeweils eine Erbanlage pro Merkmal mit. Die durch diese Verschmelzung entstehende befruchtete Eizelle (Zygote) hat also wieder den doppelten Chromosomensatz. Die Erbanlagen können so neu kombiniert werden. Dies erklärt die Unabhängigkeitsregel. Anwendung. Die mendelschen Regeln werden insbesondere in der Tier- und Pflanzenzucht angewendet, z. B. bei der Zucht von Hybriden. Sie können auch für Abstammungsgutachten verwendet werden, z. B. um nachzuweisen, dass bestimmte Menschen nicht als Elternteil eines bestimmten Kindes in Frage kommen. Malta. Die Republik Malta (malt.) ist ein südeuropäischer Inselstaat im Mittelmeer. Der maltesische Archipel verteilt sich auf die drei bewohnten Inseln Malta (einschließlich Manoel Island, etwa 246 Quadratkilometer), Gozo (malt., etwa 67 Quadratkilometer) und Comino (, etwa drei Quadratkilometer) sowie auf die unbewohnten Kleinstinseln Cominotto (), Filfla, St. Paul’s Islands und Fungus Rock. Die Hauptinsel Malta ist in zwei Regionen mit fünf Bezirken gegliedert. Gozo und Comino bilden zusammen die dritte Region und den sechsten Bezirk. Der Name Malta geht auf die punische Bezeichnung für einen Zufluchtsort "malet" zurück, die Griechen nannten die Inseln "Melite" (), bei den Römern hieß sie "Melita". Malta war britische Kolonie und wurde am 21. September 1964 unabhängig. Am 1. Mai 2004 wurde es Mitglied der Europäischen Union und ist seitdem deren kleinster Mitgliedstaat. Am 1. Januar 2008 wurde in Malta der Euro eingeführt. Geographie. Die Küstenlinie während der letzten Eiszeit Malta zählt mit einer Fläche von 316 Quadratkilometern zu den sogenannten Zwergstaaten, ist etwas kleiner als die Stadt Bremen und knapp doppelt so groß wie Liechtenstein. Der Archipel liegt 81 Kilometer südlich der Küste Siziliens, 350 Kilometer nördlich der libyschen Hafenstadt Al Khums, 150 Kilometer nordöstlich von Lampedusa und ungefähr 285 Kilometer südöstlich der tunesischen Halbinsel Cap Bon; es ist neben Zypern das einzige Land der Europäischen Union, das vollständig südlich des 37. Breitengrads liegt. Die Dingli Cliffs, höchster Punkt des Archipels Satellitenbild von Gozo, Cominotto, Comino und Malta Die Hauptinsel Malta (mlt.) ist 246 Quadratkilometer groß, gen Südosten ausgerichtet und erreicht eine Länge von 28 und eine maximale Breite von 13 Kilometern. Zwischen ihrem nordwestlichen Ende und der zweiten Hauptinsel Gozo (mlt.) erstreckt sich der 4,4 Kilometer weite Gozokanal, in dem die 2,7 Quadratkilometer große Insel Comino () sowie das unbewohnte Felseneiland Cominotto (mlt.) liegen. Gozo, 67 Quadratkilometer groß, misst in Ost-West-Richtung 14,3 Kilometer in der Länge und bis zu 7,25 Kilometer in der Breite. Die weiteren – sämtlich unbewohnten – Inseln des Staats sind das 4,4 Kilometer südlich Maltas gelegene Filfla (mlt.) und die Saint Paul’s Islands (mlt. ') am nördlichen Ende der St. Paul’s Bay, die 83 Meter vor der Küste liegen und tatsächlich zusammenhängen, deren Verbindungsstück bei rauer See allerdings überspült werden kann. Im Westen Gozos, an der Schwarzen Lagune nahe dem Dwejra Point, ragt der 60 Meter hohe Fungus Rock (mlt.) aus dem Meer, ein großer Kalksteinfelsen. Manoel Island (mlt.) im Marsamxett Harbour zwischen Valletta und Sliema wird gemeinhin nicht mehr zu den Inseln gezählt, da sie über einen Damm und eine Straße mit dem Festland verbunden ist. Das charakteristischste geographische Merkmal Maltas ist die Verschiedenheit seiner Küstenlinien, was sich besonders auf der Hauptinsel offenbart. Sind die Ost- und die Nordostseite von flachen Stränden und weiten Buchten wie der Marsaxlokk Bay, dem Marsamxett Harbour, dem Grand Harbour, der Mellieħa Bay und der St. Paul’s Bay geprägt, finden sich im Südwesten und Norden sehr scharf gezeichnete Küstenabschnitte mit Felsformationen und grottenähnlichen Einschnitten. Auf dieser Seite erhebt sich Malta sehr schroff aus dem Meer und bildet langgezogene Steilküsten, die an den Dingli Cliffs im Ta’ Dmejrek kulminieren, der mit 253 Metern höchsten Erhebung des Landes. Weitere Karsthöhenzüge finden sich im Nordwesten mit der Mellieħa Ridge, der Bajda Ridge und der bekannten, bis zu 122 Meter hohen Marfa Ridge. Die höchsten Erhebungen Gozos messen 127 Meter. Auf Grund der extremen Wasserarmut (siehe Abschnitt Wasserversorgung) existieren auf Malta, Gozo und Comino keine permanenten Flüsse. Nach starken Niederschlägen im Winter können sich allerdings einige ausgetrocknete Bachbetten zeitweise mit Regenwasser füllen. Diese zumeist kleinen Rinnsale finden sich in engen Felsentälern, "Wieds", wo sie nicht so schnell wieder verdunsten. Der längste dieser zeitweiligen Bachläufe ist jener durch das ', der an der Nordküste Gozos in eine fjordähnliche Meeresbucht abfließt. Der einzige größere See des Archipels ist künstlich angelegt und befindet sich innerhalb des Ghadira Nature Reserve auf der Landenge vor der Marfa Ridge knapp zwei Kilometer nordwestlich von Mellieħa. Er misst 350 m mal 220 m und besitzt zahlreiche Binneninseln. Geologie. Die geologische Geschichte Maltas beginnt am Ende des Tertiärs, als zwischen Südsizilien und Nordafrika eine Landbrücke bestand, die das frühe Mittelmeer in zwei Becken teilte. Nachdem der steigende Meeresspiegel diese überflutet hatte, lagerten sich am Ort des heutigen Archipels im Paläozän vor rund 60 Millionen Jahren Sedimente aus Korallen- und Muschelkalk ab. Im Lauf der Erdzeitalter folgten Ablagerungen von Globigerinenkalk und blauem Ton und im Oligozän Sandstein und eine weitere koralline Schicht. Im Pliozän schließlich erhoben sich die Inseln langsam aus dem Meer. Während der Würmeiszeit bildete sich im Zuge des sinkenden Wasserspiegels erneut die Landbrücke heraus, wurde aber mit dem Ende der Eiszeit vor gut 13.000 Jahren endgültig unterbrochen. Die maltesischen Inseln liegen auf der Afrikanischen Kontinentalplatte und gehören somit geologisch zu Afrika. In Steinbrüchen – wie hier nahe dem Fungus-Rock auf Gozo – wird mit Globigerinenkalk die einzige natürliche Ressource Maltas abgebaut. Nach dem Auftauchen der Inseln neigte sich die Oberfläche der Hauptinsel auf Grund des noch instabilen Sockels im Lauf mehrerer Jahrhunderte gen Nordosten, so dass die südwestliche Küste angehoben wurde und sich die Steilkanten mit den Dingli Cliffs herausbildeten. Malta ist heutzutage von mehreren tektonischen Verwerfungen durchzogen, die im internationalen Vergleich zwar klein erscheinen, das geologische Relief der Inseln jedoch prägen. Zwei Grabensysteme sind dominierend: Die ältere Great Fault (Große Verwerfung), die sich in vielen einzelnen Abschnitten über fünf Kilometer von der südwestlichen Küste gen Nordosten erstreckt sowie die jüngere Maghlaq Fault. Diese verläuft von Nordwesten nach Südosten und ist unter anderem für die Herausbildung des Plateaus auf der Malta vorgelagerten kleinen Insel Filfla verantwortlich. Sedimente, die sich auf den maltesischen Inseln finden lassen, sind der blaue Ton, der Globigerinenkalk (unterteilbar in oberen, mittleren und unteren) sowie der obere Grünsand, eine Abteilung der Kreideformation. Oberer Grünsand ist sehr tonig und sandig, reich an Chlorit und seine oberen Schichten sind kreideähnlich und können in chloristische Kreide übergehen. Findet sich auf Gozo eine Mischung aus diesen unterschiedlichen Bodenbestandteilen, ist die Grenze auf Malta klarer gezogen. Der Nordwesten wird von korallinem Kalkstein und Grünsand, der überwiegende andere Inselteil jedoch von Globigerinenkalk dominiert. Dieser stellt auch Maltas einzige natürliche Ressource dar und wird von der Bevölkerung intensiv abgebaut und genutzt. Klima. Auf Malta herrscht subtropisches, trockenes Mittelmeerklima. Dieses ausgeglichene Seeklima ist von milden, feuchten Wintern und trockenen, warmen, aber nicht übermäßig heißen, Sommern geprägt. Die jährliche Niederschlagssumme beträgt auf den Inseln gut 620 Millimeter, wobei der geringste Niederschlag mit gegen Null tendierenden Werten im Sommer – speziell im Juni und Juli – und der meiste im Winter zu verzeichnen ist. Der Regen zieht zumeist kurz und heftig über das Land, wohingegen Dauerregen unüblich ist. Die Luftfeuchtigkeit auf Malta liegt im Sommer bei durchschnittlich 74 Prozent und in den Wintermonaten bei etwa 70 Prozent. Wie für Insellagen typisch, sind die täglichen Temperaturunterschiede mit fünf bis zehn Grad Celsius zumeist sehr gering. Die höchsten Temperaturen werden in den Sommermonaten Juli und August erreicht, in denen die Durchschnittswerte auf bis zu 31,8 Grad ansteigen. Die tiefste monatliche Durchschnittstemperatur hat der Januar mit 9,5 Grad Celsius. Besonders in den Wochen ansteigender Temperaturkurven im März und April können kräftige, kalte Winde die gefühlte Temperatur negativ beeinflussen. Die Wassertemperaturen im Mittelmeer um die Inseln variieren dem Klima entsprechend. Im August betragen sie in der Regel 22,8 Grad Celsius und sinken erst ab Dezember unter 20 Grad Celsius ab. Unterhalb dieser Marke halten sie sich für gewöhnlich bis Mai, wobei Tiefstwerte von 15 Grad Celsius erreicht werden können. Die staatliche Wetter- und Klimamessstation ist das "Meteorological Office Malta International Airport" am internationalen Flughafen des Landes nahe der Ortschaft Luqa im Südosten der Hauptinsel. Die tiefste jemals auf dem maltesischen Archipel registrierte und offiziell bestätigte Temperatur betrug am 19. Februar 1895 in Valletta 1,2 Grad Celsius. Unbestätigt ist der Wert von −1,7 Grad Celsius am 1. Februar 1962 auf dem Flugplatz von Ta’Qali. Im August 1999 wurde am Flughafen mit 43,8 Grad Celsius die höchste Temperatur seit Beginn der Wetteraufzeichnungen gemessen. Entsprechend den klimatischen Bedingungen ist Schnee ein äußerst seltenes Phänomen auf Malta. Nachweislich seit 1800 hat es auf den Inseln keine Schneedecke mehr gegeben; allerdings verzeichnete man im Februar 1895, im Januar 1905 sowie am 31. Januar 1962 leichte Schneeschauer. Wasserversorgung. Die Verfügbarkeit von Trinkwasser stellt eines der größten Probleme in Malta dar. Der jährliche Trinkwasserbedarf beläuft sich auf rund 21.000.000 Kubikmeter, allerdings besitzt das Land selbst nur äußerst spärliche Süßwasservorkommen. Während die regenarmen Sommer mit den mit ihnen einhergehenden Touristenströmen gleichzeitig die Zeit des höchsten Wasserverbrauchs sind, fließen die kurzen, kräftigen Regenfälle im Winter in der Regel zum größten Teil ungenutzt ins Meer, anstatt das Land nachhaltig zu wässern. Auf diese Weise gehen jährlich fünf bis zehn Prozent (umgerechnet etwa 8.000.000 bis 17.000.000 Kubikmeter Wasser) des Niederschlages verloren. 75 bis 80 Prozent verdunsten und nur 15 bis 20 Prozent füllen die unterirdischen Wasserreservoirs und Quellen auf. Das Verhältnis der Verfügbarkeit von erneuerbarem Trinkwasser pro Einwohner ist nach dem in Libyen das zweitgeringste der gesamten Region und den Angaben der Vereinten Nationen zufolge ist Malta das wasserärmste Land der Erde. Die gewonnene Süßwassermenge pro Kopf der Bevölkerung nimmt stetig ab und hat sich von 1996 bis 2006 auf 32,2 Kubikmeter nahezu halbiert. Obwohl die Menge 2007 wieder geringfügig angestiegen ist, liegt sie weit unter dem europäischen Durchschnitt. Um den Bedarf wenigstens teilweise zu decken, bedient man sich so genannter Tiefbrunnen. Diese vermögen die Wasserversorgung jedoch auf Dauer auch nicht zu gewährleisten, zumal sie durch übermäßige Wasserentnahme mit den Jahren versalzen. Aus diesem Grunde wird ihre Benutzung reduziert und sie sind nur noch in der Landwirtschaft und bei der Versorgung öffentlicher Einrichtungen im Einsatz. Als parallele Methode haben sich vier Umkehrosmoseanlagen (Meerwasserentsalzungsanlagen) und eine Brauchwasseraufbereitungsanlage etabliert, die die erforderliche Leistung bringen. Auf Grund der zunehmend steigenden Kosten für die fossilen Brennstoffe, mit denen die Energie für diese Anlagen generiert wird, und der damit verbundenen Umweltverschmutzung hat die Regierung nun allerdings die Trinkwassermenge, die dort hergestellt werden darf, begrenzt. Eine weitere Versorgungsmöglichkeit bieten natürliche und künstliche unterirdische Wasserreservoirs. Im porösen maltesischen Kalkstein schwimmt das Frischwasser teilweise ähnlich einer Ghyben-Herzberg-Linse über der Salzlauge. In Ta Kandja, einem Flecken nahe Siġġiewi, befindet sich die 1963 fertiggestellte Water Services Corporation’s Groundwater Pumping Station. Von dieser Pumpstation gehen in einer durchschnittlichen Tiefe von 97 Metern unter der Oberfläche radial die Ta’ Kandja galleries ab, sechs zusammengerechnet gut 6,2 Kilometer lange Tunnel, in denen sich das Frischwasser sammelt und aus denen es herausgepumpt werden kann. Unter den Dörfern Maltas verlaufen insgesamt knapp 42 Kilometer solcher Tunnel, die das Wasser entweder auffangen oder es in Reservoirs weiterleiten. Dennoch ist Malta nach wie vor auf die Hilfe des Auslandes angewiesen und erhält beispielsweise während der Sommermonate stets Tankerladungen mit Trinkwasser aus Sizilien, die in das heimische Netz eingespeist werden. Obwohl 100 % aller Haushalte an eine Kanalisation für kommunales Abwasser angeschlossen sind, wird für 87 % aller Haushalte das Abwasser nicht nachbehandelt. Doch auch der bei dem geringen Anteil der Nachbehandlung anfallende Klärschlamm wird weder landwirtschaftlich genutzt oder kompostiert, sondern auf Deponien gelagert. Natur. Alle maltesischen Inseln sind felsig. Die Hauptinsel ist ein bis zu 260 Meter ansteigender Höhenzug aus Kalkfels. Der Süden und der Südwesten fallen steil zum Meer hin ab. Die Küste von Malta ist dort ungegliedert und unzugänglich. Zwischen den zerrissenen Felsen gibt es malerische kleine Buchten. Im Norden und Nordosten von Malta gibt es Hügel und flachere Landstriche. Die Küste senkt sich dort allmählich zum Meer und ist von Buchten eingeschnitten, die von schönen Sandstränden umschlossen werden. Berge und Flüsse gibt es auf Malta nicht. Bemerkenswert sind die zahlreichen Höhlen. Infolge der Wasserknappheit ist die Vegetation in Malta sehr spärlich. Bäume sind selten. Feigenbäume wachsen zum Teil wild am Straßenrand und auf den steinigen Feldern. Das maltesische Klima ist heiß im Sommer und mild im Winter; etwa vergleichbar mit dem Klima in Tunesien im Golf von Hammamet. Im Winter sind Schnee und Nebel nicht bekannt, es kann aber zu heftigen Regenfällen und kalten Winden kommen. Sommerliche Temperaturen herrschen von Mai bis Oktober. Die Regenfälle beginnen gewöhnlich im Oktober. Flora. Mit rund 800 einheimischen Pflanzenarten weisen die maltesischen Inseln für ein Areal dieser Größe eine bemerkenswert große Pflanzenvielfalt auf. Dies ist umso bemerkenswerter, als Malta keine signifikanten Höhenunterschiede aufweist, wenig Vielfalt bezüglich der Standorte kennt und durch menschliche Einflüsse über Jahrtausende hinweg bereits stark umgeformt wurde. Das Artenspektrum ist typisch mediterran, eng verwandt ist die Flora Maltas mit der Siziliens, weist aber zusätzlich starke nordafrikanische Einflüsse auf. Bereits zu neolithischer Zeit begann die Entwaldung der Inseln durch den Menschen, heute sind die Inseln waldlos, bis auf das von Menschen angelegte, 900 Meter lange und bis zu 200 Meter breite Waldgebiet der Buskett Gardens, die 1,1 Kilometer östlich von Dingli und ebensoweit südlich von Rabat liegen. Vorherrschende Vegetationstypen sind Macchie, Garrigue und Steppe, bedeutende Sonderstandorte sind insbesondere jene der Flach- und Steilküsten, aber auch der wenigen Süßgewässer. Weitverbreitet sind Formationen gestörter Standorte. Häufige Pflanzenarten sind unter anderem Johannisbrotbaum, Olivenbaum, Kopfiger Thymian, Mastixstrauch, Vielblütige Heide, "Teucrium fruticans" sowie "Euphorbia melitensis". Des Weiteren wachsen diverse Wolfsmilch- und Lauchgewächse sowie Strandflieder-Arten und knapp 15 Orchideenarten. Weit verbreitet ist Nickender Sauerklee (Oxalis pes-caprae). Endemische Arten sind "Cremnophyton lanfrancoi", "Darniella melitensis", "Euphorbia melitensis", "Limonium melitense", "Limonium zeraphae", "Cheirolophus crassifolius", "Jasonia bocconei", "Helichrysum melitense", "Hyoseris frutescens", "Zannichellia melitensis", "Allium lojaconoi", "Allium melitense" und "Ophrys melitensis". a>, ein invasiver Neophyt Maltas (hier in Tunesien) Erst seit dem Ende des 20. Jahrhunderts rücken Naturschutzfragen allmählich ins Bewusstsein der maltesischen Öffentlichkeit, insbesondere durch den Beitritt zur Europäischen Union 2004 wurden im Rahmen des Natura 2000-Programms erste Schutzgebiete ausgewiesen. Dessen ungeachtet gelten einige der maltesischen Pflanzen als stark gefährdet oder vom Aussterben bedroht, die IUCN listet 3 nur in Malta vorkommende Pflanzen unter ihre "„Top 50 Mediterranean Island Plants“", die am Rande des Aussterbens stehen, darunter neben "Cremnophyton lanfrancoi" und "Helichrysum melitense" auch die 1971 als Nationalpflanze des Inselstaates ausgerufene "Cheirolophus crassifolius". Auch der maltesische Nationalbaum, der Sandarakbaum, ist vom Aussterben bedroht. Der auch historisch bedeutsame Malteserschwamm hingegen, der nur auf dem Fungus Rock vorkommt, ist dort geschützt, da das Betreten des Fungus Rock nur zu wissenschaftlichen Zwecken erlaubt ist. Als sogenannte invasive Arten problematisch sind der aus Südafrika stammende und im 19. Jahrhundert eingeführte Nickende Sauerklee, der von Malta aus die Küsten des gesamten Mittelmeers und des Atlantiks bis nach Großbritannien erobert hat. Bisher nur in Malta problematisch ist die chilenische "Aster squamatus", die seit den 1930er Jahren zu einem der häufigsten Unkräuter der Insel wurde. Von Bedeutung als invasive Neophyten sind außerdem der als Zierpflanze eingeführte Wunderbaum, der in den wenigen Feuchtgebieten der Inseln heimische Arten verdrängt, an den empfindlichen Küsten breiten sich die Essbare Mittagsblume, die "Agave americana" und die "Opuntia ficus-indica" aus. Paläontologische Funde. Die Għar Dalam (mt.: Höhle der Finsternis) ist eine Karsthöhle im Südosten der Insel Malta, nahe der Stadt Birżebbuġa und nur etwa 500 m von der St George's Bay entfernt. Sie hat eine maximale Breite von 18 m, ist bis zu 8 m hoch und führt etwa 145 m weit in die Kalksteinfelsen. Die unterste Schicht, die fossilfrei ist, hat ein angenommenes Alter von rund 180.000 Jahren, während die darauf liegende "Hippopotamus-Schicht" der letzten Warmzeit angehört (Eem-Warmzeit, vor 126.000 bis 115.000 Jahren). Sie stellt eine kompakte Knochenbrekzie dar. In der Schicht fanden die Forscher zahlreiche Knochen der pleistozänen Tierwelt, so das namengebende Flusspferd, welches mit "Hippopotamus pentlandi" (etwas kleiner als das heutige Flusspferd) und "Hippopotamus melitensis" (sehr kleines Zwergflusspferd) in zwei Größenvariationen auftritt. Von Bedeutung sind auch die Zwergelefanten, die ebenfalls in zwei unterschiedlich großen Arten vorliegen. So erreichte "Elephas mnaidriensis" eine Schulterhöhe von 1,9 bis 2 m und wog rund 2,5 t. Dagegen war sein Verwandter "Elephas falconeri" nur 0,9 bis 1,1 m hoch bei einem rekonstruierten Gewicht von 170 kg. Neben diesen wurden auch noch Reste verschiedener anderer Tierarten wie Bilche ("Leithie cartei"), verschiedene Fledermäuse und eine reichhaltige Vogelfauna gefunden. Neuzeit. Die Blaumerle ist der Nationalvogel Maltas Insgesamt betrachtet gilt Maltas Fauna als relativ artenarm. Zu den auf den Inseln lebenden Tieren gehören Mäuse, Ratten, die Langflügelfledermaus, Kaninchen, Igel, Wiesel, Eidechsen, Mauergeckos, Chamäleons sowie mehrere Populationen ungiftiger Schlangen, wie die Leopardnatter. Auf den Inseln sind mehrere Vogelfamilien heimisch, wie Lerchen, Finken, Schwalben und Drosseln. Auch die Turteltaube, der Pirol sowie einige Greifvogelarten gehören zur Fauna Maltas. Die häufig anzutreffende Blaumerle ist zudem der Nationalvogel des Inselstaates. Im Frühjahr 2008 meldete die Regierung im Zuge von Natura 2000 27 Schutzgebiete für die Tier- und Pflanzenwelt an. Zu diesen Gebieten zählen auch die Kalksteinklippen Rdumijiet ta’ Malta, die als Nistplätze vieler Seevögel, wie des Levante-Sturmtaucher ("Puffinus yelkouan"), bekannt sind. Darüber hinaus existiert im Norden der Hauptinsel das Vogelschutzgebiet "Gћadira Bird Reserve". Ferner ist Malta im Frühjahr und im Herbst eine der wenigen Stationen für Zugvögel auf deren Weg von Europa nach Afrika oder in die entgegengesetzte Richtung. Diesem Umstand ist es geschuldet, dass die Vogeljagd auf Malta als traditioneller Volkssport gilt. Mit rund 18.000 offiziellen Jagdlizenzen hat Malta die höchste Jägerdichte in Europa. Eines der größten Jagdreviere ist die Marfa Ridge. Bis zum EU-Beitritt 2004 erlaubten die maltesischen Bestimmungen selbst die Jagd auf geschützte Arten wie Bekassine, Zwergschnepfe, Kampfläufer und Greifvögel. Die Schätzungen für die Gesamtzahl getöteter Vögel schwanken zwischen 200.000 und 1.000.000 jährlich. Die Tiere werden zumeist ausgestopft und als Trophäe verkauft oder – falls lebendig gefangen – auch illegal als Käfigvögel verkauft. Seit dem EU-Beitritt im Jahre 2004 gelten für Malta europäische Bestimmungen wie die Vogelschutzrichtlinie und die Fauna-Flora-Habitat-Richtlinie. Die maltesische Regierung konnte jedoch einen Übergangskompromiss aushandeln. So wurde die Frühjahrsjagd auf Turteltauben und Wachteln beschränkt und der Fang von sieben Finkenarten noch bis 2008 erlaubt, um ein Zuchtsystem aufbauen zu können. Zur Überwachung der Umsetzung dieses Kompromisses gründete man die 23 Mann starke "Law Enforcement Police", die jedoch gleichzeitig auch für die Kontrolle von Prostitution und Glücksspiel verantwortlich ist. Am 31. Januar 2008 leitete die Europäische Kommission vor dem Europäischen Gerichtshof ein Klageverfahren gegen Malta ein, in dessen Mittelpunkt die Beendigung der besonders schädlichen Frühjahrsjagd auf Wachteln und Turteltauben steht. Seit 2004 fordern der NABU und Birdlife Malta ein Ende der Zugvogeljagd auf der Mittelmeerinsel. Die Vogelschützer protokollierten im Herbst 2007 nicht nur den Vogelzug, sondern auch die umfangreiche Jagd im Süden der Insel. Insgesamt wurden 209 Verstöße dokumentiert und der örtlichen Polizei gemeldet. In den meisten Fällen handelte es sich um illegale Abschüsse von Greifvögeln. Unter diesen stand der in Mitteleuropa besonders seltene Wespenbussard an erster Stelle. Ungeachtet aller Proteste hat die Regierung auch 2012 wieder eine Ausnahmeregelung erlassen, um den Abschuss Tausender europaweit gefährdeter Zugvögel zu gestatten. Nachdem 2014 zuerst Fortschritte hinsichtlich der Vogeljagd gemacht wurden, erlaubte die maltesische Regierung im Herbst 2014 erneut die Bejagung von sieben Finkenarten, Goldregenpfeifern und Singdrosseln mit riesigen Klappnetzen. Das Komitee gegen den Vogelmord berichtete hierüber umfangreich und dokumentiert dieses Vergehen gegen geltendes EU-Recht genau. Umweltschutz. Malta unternimmt seit dem Beitritt zur EU große Anstrengungen zur Verbesserung des Umweltschutzes, das Gesamtbild ist jedoch widersprüchlich. Der Anteil aller umweltbezogenen Steuereinnahmen am BIP lag 2008 bei 3,74 % und überstieg dabei den europäischen Durchschnitt, Angaben über Umweltschutzausgaben des öffentlichen Sektors oder Umweltschutzinvestitionen der Industrie sind jedoch nicht verfügbar. Der Anteil landwirtschaftlich genutzter Flächen unter Agrarumweltbeihilfen an der gesamten landwirtschaftlich genutzten Fläche betrug im Jahr 2005 21 %, im Vorjahr lag der Wert noch bei rund 6,9 %. Die Emissionen von Treibhausgasen steigt jedoch seit Jahren kontinuierlich an und lagen 2007 bei 149,2 CO2-Äquivalenten (für Malta und Zypern wurden keine Zielwerte vorgegeben). Andererseits liegt die Belastung der städtischen Bevölkerung durch Luftverschmutzung mit Schwebstaub bei 23,9 Mikrogramm pro m3. Dieser Wert liegt unter dem europäischen Durchschnitt und beispielsweise unter dem der Niederlande. Die Belastung der städtischen Bevölkerung durch Luftverschmutzung mit Ozon wiederum liegt jedoch weit über dem europäischen Durchschnitt und erreicht nach Griechenland den zweithöchsten Wert in Europa. Auf Malta existiert keine Müllverbrennungsanlage. Der Abfall muss daher vollständig deponiert werden. Mit jährlichen 648 kg Abfall pro Kopf erreicht Malta nach Zypern einen einsamen Spitzenwert in der Europäischen Union. Wegen der geringen Größe der Insel und der hohen Bevölkerungsdichte ist dies besonders problematisch. Malta misst dem Artenschutz steigende Bedeutung bei. Der Index für die Umsetzung der EU-Habitatsdirektive lag 2008 über dem Frankreichs. Dabei waren 2007 insgesamt 13 % der Gesamtfläche Maltas unter Schutz gestellt (Schutzgebiete nach der Habitat-Richtlinie). Problematisch ist in dieser Hinsicht jedoch die auf Malta weit verbreitete Vogeljagd. Bevölkerung. Die Gesamteinwohnerzahl beträgt etwa 413.000. Da das gesamte Staatsgebiet Maltas mit 316 Quadratkilometer relativ klein ist, ergibt sich eine sehr hohe Bevölkerungsdichte von 1.307 Personen pro Quadratkilometer, die fünfthöchste Bevölkerungsdichte unter den Staaten der Welt. 92 Prozent der Menschen leben in Städten. Rund vier Prozent der auf Malta lebenden Menschen sind nicht maltesischer Nationalität, davon etwa die Hälfte Briten, also auf die Gesamtbevölkerung gerechnet zwei Prozent. Viele Malteser verbringen ihr Arbeitsleben im Ausland – bevorzugt im englischsprachigen Raum – und kehren als Rentner nach Malta zurück. Die Lebenserwartung bei der Geburt beträgt für Männer 77,8 Jahre, für Frauen 82,7 Jahre. Diese Werte liegen leicht über den Durchschnittswerten in der Europäischen Union. Die Anzahl der Eheschließungen je 1000 Einwohner lag 2009 bei 5,69. Ehescheidungen waren in Malta gesetzlich nicht möglich. Am 29. Mai 2011 stimmten die Malteser in einer Volksabstimmung für ein Scheidungsrecht das dann mit einem Gesetz mit Wirkung zum 1. Oktober 2011 eingeführt wurde. Trotz des gelebten Katholizismus der Malteser ist der Anteil der nichtehelich Lebendgeborenen an allen Lebendgeburten von 2,68 % 1996 auf 27,37 % im Jahr 2009 angestiegen. Religion. Die große Mehrheit der maltesischen Bevölkerung (98 %) ist römisch-katholisch. Daneben gibt es nur einige wenige Protestanten (darunter Baptisten), Orthodoxe, Juden und Muslime. Das historische Valletta hatte einen kleinen jüdischen Wohnbezirk. Die islamische Gemeinschaft besteht im Wesentlichen aus auf Malta lebenden Libyern. Die katholische Kirche hat einen starken Einfluss auf die maltesische Politik, so ist Schwangerschaftsabbruch strafbar und „oben ohne“ zu baden verboten. Es soll 365 katholische Kirchen in Malta geben (wohl eine symbolische Zahl); aufgrund dieser Tatsache sagen Malteser oft, sie hätten eine Kirche für jeden Tag im Jahr. Die Katholiken Maltas gehören zu den Bistümern Malta und Gozo. Die Geschichte des Christentums in Malta begann mit dem Schiffbruch des Apostels Paulus im Jahr 60 n. Chr. an der kleinen Felseninsel Selmunetta. Seither hat sich die Bindung an das Christentum gefestigt, und die Inseln sind auch Ziel vieler Pilgerfahrten gewesen (auch als Zwischenstation auf der Reise nach Palästina). Der Katholizismus ist in der Verfassung des maltesischen Volkes als Staatsreligion verankert und wird auch von sehr großen Teilen der Bevölkerung gelebt. Ein äußeres Zeichen dafür sind neben Hausaltären Bilder von Heiligen, Bischöfen und Pfarrern, die in Gebäudefronten gemeißelt und farbenfroh verziert sind. Sprache und Schrift. Trotz der langen Zugehörigkeit zum britischen Weltreich, das auch das Englische auf Malta einführte, haben die Malteser ihre eigene Sprache bewahrt. Maltesisch ist neben Englisch Staatssprache in Malta und infolge der EU-Mitgliedschaft zudem Amtssprache in der EU. Maltesisch zählt zu den semitischen Sprachen und hat sich aus einem arabischen Dialekt entwickelt. Strukturell ist es mit den nordafrikanischen Varietäten des Arabischen am engsten verwandt, aber auch größere Wortschatzanteile aus dem Italienischen sowie geringere aus der spanischen, französischen und englischen Sprache finden sich im Maltesischen wieder. Als einzige semitische Sprache verwendet das Maltesische die Buchstaben des lateinischen Alphabets (ausgenommen das Y und C), erweitert um die vier speziellen Buchstaben ċ, ġ, ħ und ż. In der Regel ist Maltesisch die Muttersprache der Malteser; Englisch und Italienisch sind Zweitsprachen, die dem öffentlichen Leben vorbehalten sind. Aufgrund der langen britischen Kolonialzeit beherrschen fast alle Malteser die englische Sprache, die neben Maltesisch im Bildungswesen eine wichtige Rolle spielt und infolge der Globalisierung an Bedeutung gewinnt. Kenntnisse des Italienischen sind aufgrund der geographischen Nähe, der traditionell engen Wirtschaftsbeziehungen zu Süditalien und nicht zuletzt der Beliebtheit italienischer Fernsehprogramme weit verbreitet. Bis 1934 war das Italienische auf Malta auch Gerichts- und Verwaltungssprache. Geschichte. Tempelanlage Mnajdra im Süden Maltas Auf den Inseln finden sich Spuren aus 6000 Jahren menschlicher Besiedelung; sie reichen von steinzeitlichen Tempelanlagen der Megalithkultur über römische Gräber und Katakomben bis zu den imposanten Wehranlagen des Malteserordens. Malta stand unter dem wechselnden Einfluss der meisten großen historischen Kulturen. Im Laufe der Jahrhunderte beherrschten vorerst Phönizier, Griechen und Römer die Insel, nach dem Fall Roms die germanischen Vandalen und Ostgoten. Im 9. Jahrhundert, als die Inseln zum Byzantinischen Reich gehörten, wurde die Inselgruppe von den Arabern erobert. Im 11. Jahrhundert gingen die Inseln an Sizilien und 1282 an Aragon. 1530 gab der spanische König die Inseln als Lehen dem Malteserorden. Der Orden des heiligen Johannes zu Jerusalem, zu Rhodos und zu Malta (früher auch als Hospitalier bezeichnet) verstärkte die Befestigungsanlagen am Hafen und verteidigte die Insel erfolgreich gegen osmanische Angriffe (Die große Belagerung, 1565). Als deren Konsequenz wurde 1566 die Festungsstadt Valletta (benannt nach dem Großmeister Jean Parisot de la Valette) gegründet. 1798 wich der souveräne Malteserorden französischen Revolutionstruppen unter Napoleon; seither hält er, wenn auch nicht überall anerkannt, eine staatsähnliche völkerrechtliche Qualität aufrecht, jedoch ohne Gebietsansprüche an die heutige Republik. Die Briten blockierten auf ein Hilfegesuch von Aufständischen hin die Häfen des von Napoleon geplünderten Malta. Als die Franzosen 1800 abzogen, wurde ein britisches Regiment stationiert, und mit dem Pariser Frieden von 1814 wurde Malta Kronkolonie. Zuletzt spielte Malta im Zweiten Weltkrieg eine bedeutende Rolle, als es zu heftigen Kämpfen um den strategisch wichtigen Hafen kam, von dem aus der Nachschub des deutschen Afrikakorps empfindlich gestört wurde (s. a. Belagerung von Malta (Zweiter Weltkrieg) – Malta als der „unversenkbare Flugzeugträger“). Die gesamte Bevölkerung der Insel erhielt dafür 1942 vom britischen König das Georgs-Kreuz verliehen, welches auch noch auf der Staatsflagge der heutigen Republik Malta zu sehen ist. 1947 wurde dem Land die Selbstverwaltung als parlamentarische Demokratie gewährt, 1964 erhielt Malta die Unabhängigkeit von Großbritannien als Mitglied des Commonwealth. Am 13. Dezember 1974 deklarierte Malta sich als Republik und verzichtete damit auf die Queen als Staatsoberhaupt. Am 1. Mai 2004 trat Malta der Europäischen Union bei, am 1. Januar 2008 wurde der Euro offizielle Währung auf Malta und löste die Maltesische Lira (maltesisch: "Lira Maltija") ab. Parlament. Die Republik Malta verfügt über ein Einkammerparlament, das Repräsentantenhaus. Das Repräsentantenhaus besteht aus mindestens 65 Abgeordneten. Daneben sind noch der maltesische Staatspräsident und der Speaker of the House of Representatives qua Amt Mitglieder des Parlaments. Die Wahlperiode beträgt fünf Jahre. Wahlen. Die Zugehörigkeit zu einer der beiden großen Parteien wird auf Malta von Generation zu Generation fast schon vererbt. Die langfristige Parteibindung wird zusätzlich durch das maltesische Verhältniswahlrecht nach dem Verfahren der übertragbaren Einzelstimmgebung in Mehrmandatswahlkreisen mit je fünf Mandaten begünstigt, das es kleineren Parteien beinahe unmöglich macht, ins Parlament einzuziehen. Bei den Parlamentswahlen am 8. März 2008 gewann die konservative "Partit Nazzjonalista" (PN) knapp mit 49,3 Prozent und nur 1.542 Stimmen Vorsprung vor der sozialistischen "Malta Labour Party" (MLP), die auf 48,8 Prozent kam. Die grün-alternative "Alternattiva Demokratika" (AD) kam auf 1,3 Prozent und die ultrarechte "Azzjoni Nazzjonali" (AN) auf 0,5 Prozent der Stimmen. Bei den Parlamentswahlen am 9. März 2013 kam es zu einem Regierungswechsel, nachdem die Labour Party 54,8 Prozent erreichte, während auf die Nationalistische Partei 43,3 Prozent der Stimmen entfielen. Die Wahlbeteiligung in Malta – es existiert keine Wahlpflicht – ist traditionell außerordentlich hoch. Bei Parlamentswahlen liegt die Wahlbeteiligung deutlich über 90 Prozent, bei der Europawahl 2009 lag sie bei 78,79 Prozent. Gewerkschaften. Die beiden großen Gewerkschaften sind die der MLP nahestehende "General Workers’ Union" (GWU) mit ca. 48.000 Mitgliedern und die PN-nahe "Union Ħaddiema Magħqudin" (UĦM) Dachverband mit ca. 25.000 Mitgliedern. Daneben gibt es kleine Branchen-Gewerkschaften. EU-Erweiterung. Nach der Wahlniederlage der Nationalkonservativen 1996 wurde die EU-Aufnahme von Seiten Maltas um zwei Jahre verschoben. Malta wurde nach der Entscheidung auf dem EU-Gipfeltreffen am 13. Dezember 2002 in Kopenhagen im Zuge der EU-Erweiterung zum 1. Mai 2004 mit acht mittel- und osteuropäischen Staaten sowie Zypern in die Europäische Union aufgenommen. Doch vor der Aufnahme führten die Malteser am 8. März 2003 ein Referendum durch. Für einen Beitritt zur EU waren die Nationalkonservativen, während die Sozialisten und Gewerkschaften Werbung dagegen machten. Die Wahlbeteiligung bei den 390.000 Maltesern lag bei 91 Prozent, die Zustimmung bei 53,65 Prozent und somit leicht über den Vorhersagen. Malta hat Luxemburg als kleinstes EU-Land abgelöst. Einreisebestimmungen. Die Einreise nach Malta ist mit einem gültigen Reisepass oder Personalausweis möglich. Kinderausweise (sofern sie mit einem Foto versehen sind) werden anerkannt. Vorläufige Reisepässe und Personalausweise werden nicht immer akzeptiert. Der Eintrag eines Kindes in den Reisepass eines Elternteils ist seit 2012 für die Einreise nicht mehr gültig. Malta ist seit dem 21. Dezember 2007 Mitglied im Schengenraum, es entfallen daher die Grenzkontrollen am Internationalen Flughafen von Malta. Ausländer, die über ein Schengenvisum bzw. einen Schengenaufenthalt verfügen, benötigen kein maltesisches Visum für die Einreise. Zurzeit leben in Malta ca. 10.000 Bootsflüchtlinge aus Somalia, Äthiopien, Eritrea und anderen Ländern Afrikas. Die meisten dieser Flüchtlinge haben nicht den Status von Asyl-Berechtigten, sondern werden aus humanitären Gründen (Bürgerkrieg u. ä.) nicht abgeschoben. Malta lehnt es aufgrund der hohen Bevölkerungsdichte und geringen Größe seiner Landfläche ab, noch mehr afrikanische Bootsflüchtlinge aufzunehmen. Zugleich ist Maltas Marine für die Koordinierung der Seenotrettung in einem 180 mal 600 Seemeilen großen Gebiet zuständig. Wegen der Weigerung, Schiffen mit aus Seenot geretteten Flüchtlingen die Einfahrt in seine Häfen zu gestatten sowie wegen der Lebensbedingungen in den vom maltesischen Militär verwalteten Internierungslagern, in denen illegale Einwanderer teilweise bis zu 18 Monate festgehalten werden, sieht sich Malta in jüngster Zeit zunehmend der Kritik von Menschenrechtsorganisationen und des Europäischen Parlaments ausgesetzt. Der Vorschlag Maltas, Bootsflüchtlinge gleichmäßig auf alle Mitgliedsstaaten der Europäischen Union zu verteilen, wird von den EU-Innenministern jedoch bisher abgelehnt. Commonwealth. Durch Maltas Mitgliedschaft im "Commonwealth of Nations", dem Staatenbund ehemaliger (zumeist) britischer Kolonien, haben Malteser in manchen dieser Länder, was Einreise- und Aufenthaltsbestimmungen anbelangt, einen privilegierten Status im Vergleich zu anderen EU-Bürgern. Sicherheitspolitik. Die Armed Forces of Malta (AFM) sind eine kleine Armee, die über ca. 2140 Soldaten und über mehrere Hubschrauber verfügt, die für Patrouillenflüge und Aufklärungs- sowie Rettungsaufgaben eingesetzt werden. Daneben existiert das "Maritime Squadron", das den Schutz der territorialen Gewässer zur Aufgabe hat und im Wesentlichen aus sieben Patrouillenbooten besteht. Seit dem 11. März 1983 besteht ein Vertrag mit Italien, der den Schutz der maltesischen Neutralität garantiert. Zu diesem Zweck gibt es auf Malta ein italienisches Truppenkontingent in Pembroke. Mitgliedschaft in internationalen Organisationen. Vereinte Nationen und Unterorganisationen (seit 1964), Mitglied des Commonwealth (seit 1964), Europarat (seit 1965), International Maritime Organisation (IMO, seit 1966); Organisation für Sicherheit und Zusammenarbeit in Europa (OSZE, seit 1972); Mitglied der Blockfreien Bewegung (seit 1973); Interparlamentarische Union (IPU, seit 1988); Internationale Atomenergie-Organisation (IAEO, seit 1997); Europäische Union (EU, seit 1. Mai 2004) Bildung. Der Campus der University of Malta Bis 1946 bestand in Malta keine Schulpflicht. Diese wurde erst nach dem Ende des Zweiten Weltkrieges für Grundschulen eingeführt. Seit 1971 ist auch der Besuch einer Sekundarschule bis einschließlich des 16. Lebensjahres vorgeschrieben. Staatliche Schulen sind gebührenfrei, es existieren jedoch parallel auch kirchliche Bildungseinrichtungen und Privatschulen, wie das St. Aloysius’ College in Birkirkara, das Savio College in Dingli und die San Anton School nahe Mġarr. Die Mehrzahl der Lehrer an den kirchlichen Schulen erhält ihr Gehalt vom Staat. Ferner gibt es mit der Verdala International School und der QSI Malta auch zwei internationale Schulen. Die Alphabetisierungsrate unter den Erwachsenen liegt in Malta bei 92,8 Prozent und somit auf dem Niveau Kolumbiens und minimal höher als in Thailand. Malta gab 2005 6,76 % des BIP für Bildung aus und wurde in der EU nur von den skandinavischen Staaten Dänemark und Schweden sowie von Zypern übertroffen. Gemessen an der Wirtschaftskraft investiert Malta weit überdurchschnittlich im Bereich der Bildung, die Ausgaben pro Schüler/Student im Vergleich zum BIP pro Kopf der Bevölkerung erreichen den höchsten Wert in der Europäischen Union. Die Ausgaben pro Student im Vergleich zum BIP pro Kopf der Bevölkerung werden in Europa nur noch von Zypern übertroffen und liegen im internationalen Vergleich über denen Japans. Die Hochschulausbildung wird dabei weitgehend staatlich finanziert, der Anteil der öffentlichen Ausgaben liegt bei ca. 95 %, eine Finanzierung des Hochschulsektors durch Organisationen, Vereine, Stiftungen und Unternehmen ist in Malta weitgehend unbekannt. Rund 75 % der Ausgaben für Bildung im Tertiärbereich kommen der Universität direkt zugute, 25,2 % werden als Stipendien und Beihilfen ausgezahlt. Im Jahr 2007 besuchten 98,8 % aller Vierjährigen eine Bildungseinrichtung mit Vorschulfunktion. Malta belegt damit nach Belgien, Frankreich und Italien zusammen mit den Niederlanden den vierten Platz innerhalb der Europäischen Union. Das mehrstufige maltesische Schulsystem untersteht dem Malta Ministry of Education. Es orientiert sich an jenem Großbritanniens und besitzt eine sechsjährige Grundschule. Im Alter von elf Jahren müssen die Schüler eine Prüfung zum Einstieg in die Sekundarschule ableisten und können anschließend deren Träger frei wählen. Auf staatlichen Schulen folgt für Sechzehnjährige die Prüfung zur Mittleren Reife, die in der Regel in den Fächern Englisch, Malti und Mathematik durchgeführt wird. Mit diesen Klausuren endet die offizielle Schulpflicht, die Schüler können allerdings entscheiden, ob sie ihre schulische Ausbildung noch ausbauen und intensivieren wollen. Hierzu bieten sich zwei Möglichkeiten: Der Besuch einer zweijährigen Oberstufe – angeboten am Junior College sowie den kirchlichen Einrichtungen St. Edward’s College, St. Aloysius’ College und De La Salle College – oder die Einschreibung am Malta College of Arts, Science and Technology (MCAST). Am Ende der Oberstufe steht das Examen zur Hochschulreife. Abhängig von dessen Ergebnis erhalten die Absolventen entweder ihr Abschlusszeugnis oder eine Aufnahmebescheinigung der University of Malta in Msida, der höchsten Bildungseinrichtung auf dem Archipel. Insgesamt hatten 2008 nur 27,5 % der Bevölkerung im Alter zwischen 25 und 64 Jahren mindestens einen Sekundarabschluss, dies ist der geringste Wert innerhalb der EU. Der Anteil der weiblichen Studenten lag 2007 bei 57,4 %, dies sind mehr als im EU-Durchschnitt (55,2 %). In den Fachrichtungen Ingenieurwesen, verarbeitende Industrie und Bauindustrie sind 29,2 % aller Studierenden Frauen, dies sind mehr als im EU-Schnitt (24,7 %). Der Anteil der Studenten, die im Ausland studieren, hat sich von 0,4 % 1998 auf 1,0 % im Jahr 2007 mehr als verdoppelt, dennoch weisen maltesische Studenten mit Abstand die geringste Mobilität innerhalb der Europäischen Union auf. Dem Bilingualismus Maltas Rechnung tragend wird der Unterricht in der Grund- und in der Sekundarschule sowohl in englischer als auch in maltesischer Sprache gestaltet. Beide Sprachen sind zudem Pflichtfächer für die Schüler. Auf diese Weise gelingt es, einen balancierten Ausgleich zu schaffen. Die Privatschulen dagegen bevorzugen mehrheitlich Lektionen auf Englisch; ebenso werden auch die meisten Kurse an der Universität ausschließlich auf Englisch angeboten. In der Sekundarschule wählen die Schüler eine für die nächsten Jahre zu erlernende erste Fremdsprache. 51 Prozent entscheiden sich für Italienisch und 38 Prozent für Französisch. Ferner angeboten werden Deutsch, Russisch, Spanisch und Arabisch. Im Durchschnitt erlernen maltesische Schüler in der Sekundarstufe 2,2 Fremdsprachen, dies ist mit Finnland nach Luxemburg der höchste Wert in der Europäischen Union. Medien. Malta besitzt ein sehr engmaschiges Mediennetz, das stark an das Vorbild der ehemaligen Kolonialmacht Großbritannien angelehnt ist. So lautet auch der Name der größten Tageszeitung, herausgegeben von der Allied Newspapers Ltd., Bezug nehmend auf "The Times", "The Times of Malta". Das Mitte-rechts orientierte Blatt erscheint seit 1935, ist somit gleichzeitig die älteste Zeitung des Landes und hat mit einer Auflage von 37.000 einen Marktanteil von 27 Prozent. Seine Sonntagsausgabe "Sunday Times" besitzt mit 51,6 Prozent Marktanteil sogar noch eine stärkere Position. Das zweite wichtige tägliche Printmedium ist "The Malta Independent". Seit 1999 wird jeweils mittwochs und sonntags die liberale "Malta Today" im Tabloid-Format publiziert. Als auflagenstärkste Boulevardzeitung fungiert "The People", und "The Malta Star" ist die einzige reine Internet-Zeitung Maltas. Der Zweisprachigkeit Maltas ist es geschuldet, dass etwa die Hälfte der Zeitungen auf Englisch und die Hälfte auf Maltesisch erscheint. Unter den maltesischsprachigen Printmedien hat die sonntägliche "It-Torċa" (de: "Die Fackel") die größte Reichweite. Darüber hinaus gibt es noch eine Vielzahl von Wochenblättern und maltesischsprachigen Partei-, Kirchen- und Gewerkschaftszeitungen. Als die größte politische unter ihnen wäre die der Nationalist Party nahestehende "In-Nazzjon" (de.: "Die Nation") zu nennen. Der Anteil der Tageszeitungsleser beträgt 127 von 1000 Einwohnern. In Bezug auf diesen relativ geringen Wert ist die Zeitungsdichte in Malta sehr hoch: Auf 28.000 Einwohner kommt je eine Zeitung. Diese finanzieren sich vornehmlich durch Anzeigen, Kaufgesuche und Subventionen. Als Trend zeichnet sich allerdings ein Relevanzverlust der Zeitungen ab, da immer mehr Malteser das Radio oder das Fernsehen als Informationsquelle vorziehen. Hörfunk und Fernsehen auf dem Archipel liegen zum größten Teil in der Hand der öffentlich-rechtlichen Public Broadcasting Services (PBS). Diese strahlen die Radiosender "Radju Malta" (de.: "Radio Malta"), "Radju Parlament" und "Magic 91.7" aus. Ersterer ist auch über das Internet frei empfangbar, der Parlamentssender überträgt nahezu alle politischen Debatten live, und letztgenannter ist mit einem geringen Wort- und modernen Musikprogrammen besonders bei der jungen Bevölkerung, aber auch bei ausländischen Touristen beliebt. Der größte private Rundfunksender ist das "Bay Radio". Ferner gibt es unter anderem noch das katholische Rundfunkprogramm "RTK" und das der Nationalist Party gehörende "Radio 101". Insgesamt existieren 14 landesweite Radioprogramme sowie 19 Regionalsender auf Malta und elf Regionalsender auf Gozo. Von 1971 bis 1996 betrieb die Deutsche Welle die Relaisstation Cyclops. Mit "TV Malta" (TVM) stellen die PBS, die seit 1975 Mitglied der Europäischen Rundfunkunion sind, auch den größten landesweiten Fernsehsender. Es gibt noch sieben weitere im ganzen Land empfangbare Programme: "One Television", "NET Television", "Smash Television", "Favourite Channel", "ITV", "Education22" und "Family TV". Die Mehrzahl der Sender ist staatlich finanziert. "One Television", produziert von der One Productions Ltd., fungiert als Sprachrohr der Malta Labour Party, und das von der Media Link Communications Ltd. ausgestrahlte "NET Television" gehört der Nationalist Party. Die Smash Communications Ltd. ist dagegen ein privates Unternehmen. Die Broadcasting Authority überwacht alle Fernsehstationen und stellt neben der Einhaltung von Legalitäts- und Lizenzverpflichtungen auch die Einhaltung der nötigen Objektivität im Hinblick auf politische oder wirtschaftliche Auseinandersetzungen oder aktuelle politische Entscheidungen sicher. Ferner prüft die "Authority" die lokalen Sender dahingehend, dass diese sowohl öffentliche, private wie auch kommunale Sendungen ausstrahlen und so ein weitgespanntes, vielfältiges Programm anbieten, das alle Interessen und Geschmäcker anspricht. Auf Malta ist der Empfang der Fernsehprogramme sowohl über Kabel als auch terrestrisch möglich. Im Februar 2006 nutzten 124.000 Malteser erstgenannte Methode, so dass knapp 80 Prozent der maltesischen Haushalte einen Kabelanschluss haben. Ein noch kleiner, aber stetig steigender Prozentsatz der Bevölkerung verwendet auch Parabolantennen, um auch andere europäische Fernsehprogramme, wie die britische "BBC" oder die italienische "RAI" verfolgen zu können. Im Jahre 2008 nutzten 45 Prozent der Malteser das Internet; die Breitbandverbreitungsquote lag bei 20 Prozent. Wirtschaft. Maltas Wirtschaft gestaltet sich im Vergleich zu den anderen im Jahr 2004 der EU neu beigetretenen Mitgliedstaaten relativ positiv. Die zwei traditionellen Wirtschaftszweige sind Landwirtschaft und Fischerei. Dabei wird die Landwirtschaft hauptsächlich auf Gozo betrieben. Obwohl die Umweltbedingungen (wenig Regen, geringer Abfluss, kalkiger Untergrund und heißes Klima) keine guten Voraussetzungen für die agrarische Nutzung bieten, werden bei verschiedenen Gemüse- und Getreidearten hohe Erträge erzielt, auch der Weinbau ist rentabel. Trotzdem erzeugt Malta nur 20 % des Eigenbedarfs an Nahrungsmitteln. Der größte Arbeitgeber des Landes sind die "Malta Drydocks", die zweitgrößte Werft Europas. Der Tourismus spielt eine große Rolle (40 % des Bruttosozialprodukts) und auch finanzielle Dienste (elf Prozent). Die meisten Urlauber kommen aus Großbritannien, Deutschland, Italien und Russland. Von 1965 bis heute hat sich die Zahl der Touristen etwa verzehnfacht. Heute sind es über eine Million Touristen jährlich, die vor allem die Strände, die historischen Städte und die Felsenlandschaft besuchen, dazu kommen noch einmal etwa eine Million von Kreuzfahrttouristen. Ca. 70.000 Touristen kommen pro Jahr für einen Englischkurs nach Malta. Dieser Bereich des Tourismus wird staatlich beaufsichtigt und gefördert. Ein Anteil von 1,8 % des BIP wird von den Sprachschulen auf Malta erwirtschaftet. Die Bekleidungs- und Textilindustrie sind weitere wichtige Wirtschaftszweige. 1992 wurde auf Malta eine eigene Börse gegründet. Das Land besitzt Kalksteinvorkommen, die bedeutsam für Maltas Baubranche sind. Bedeutende Erdgas- und Erdöllagerstätten befinden sich in den Hoheitsgewässern von Malta. Europäische Firmen werden schon seit den 1970er Jahren mit Steuervorteilen gelockt. So produzieren etwa 55 deutsche Unternehmen für den Export, unter anderem die Firmen Playmobil und Lloyd-Schuhe. Auch die Elektronikbauteilfirma STMicroelectronics hat einen großen Produktionsstandort. Das Bruttoinlandsprodukt (BIP) beträgt 4,24 Milliarden Euro (Stand 2004). Im Vergleich mit dem BIP der EU ausgedrückt in Kaufkraftstandards erreicht Malta einen Index von 81 (EU-27:100) (2009). Infrastruktur. Das Stromnetz der Republik Malta ist nicht mit Sizilien verbunden. Zwei Kraftwerke mit einer Gesamtleistung von 571 Megawatt verfeuern aus Italien und Großbritannien importiertes Öl und Gas. 2010 sollen 5 % der Elektrizität aus erneuerbaren Energiequellen erzeugt werden, nachdem dieser Wert 2009 noch bei 0 % lag. Obwohl auf Malta lediglich ein Stromanbieter existiert und Voraussetzungen für einen Wettbewerb damit nicht vorhanden sind, lag der Strompreis für private Haushalte 2007 bei 9,4 Cent pro kWh und damit deutlich unter dem entsprechenden Preis im EU-Schnitt (15,28 Cent). In Ermangelung eines hinreichenden Abfallmanagements hat Malta seit Jahren ein großes Müllproblem. Staatshaushalt. Der Staatshaushalt umfasste 2009 Ausgaben von umgerechnet 3,7 Mrd. US-Dollar, dem standen Einnahmen von umgerechnet 4,1 Mrd. US-Dollar gegenüber. Daraus ergibt sich ein Haushaltsüberschuss in Höhe von 7,7 % des BIP. Die Staatsverschuldung betrug 2009 5,2 Mrd. US-Dollar oder 67,0 % des BIP. Kultur. In der kleinen Republik Malta stehen über 300 Kirchen, darunter zwei, deren Kuppeln zu den größten freitragenden Kuppeln Europas zählen: Die Johannes dem Täufer gewidmete Rotunda von Xewkija (Gozo) besitzt die viertgrößte freitragende Kirchenkuppel Europas (Liste der größten Kuppeln ihrer Zeit). Sie wird noch übertroffen von der Rotunda von Mosta auf Malta selbst mit einem Durchmesser von 39 Metern. Welterbe. Aus Malta sind bislang drei Denkmäler in die UNESCO-Liste des Welterbes aufgenommen worden: Die Hauptstadt Valletta, die Tempelanlage von Ġgantija sowie das Hypogäum von Ħal-Saflieni. Malta im Film. Popeye Village in der Anchor Bay Malta ist eine der populärsten Film- und Fernsehkulissen der Welt und wird von der London Times scherzhaft als „Das mediterrane Mini-Hollywood“ betitelt. Beispiele für bekannte Filmproduktionen die hier gedreht wurden sind U-571, Monte Cristo, Troja, Alexander, Midnight Express, Gladiator, The Da Vinci Code – Sakrileg und München sowie prestigeträchtige Fernsehproduktionen wie BBCs "Byron" und "Daniel Deronda". Die von Robert Altmans Film Popeye – Der Seemann mit dem harten Schlag (1980) verwendete Fischerdorf-Kulisse ist heute eine Touristenattraktion, obwohl der Film damals ein Flop war. Ebenfalls auf Malta ansässig sind die Mediterranean Film Studios, die die derzeit zwei weltgrößten Wasserbecken für Filmaufnahmen (Oberflächenbecken: 122m x 92m bei 22 Millionen Litern sowie Tiefwasserbecken: 108 m x 49 m bei 43,2 Millionen Litern) betreiben und sich für Film- und TV-Produktionen wie "Die Gustloff", "The Whale", "Sindbad", "Marco W. – 247 Tage im türkischen Gefängnis", "Moby Dick", "Die Akte Golgotha", "Der Untergang der Pamir", "Captain Blackbeard: The Real Pirate Of The Caribbean", "Die Patriarchin", "Kon-Tiki", "Asterix & Obelix "God Save Britannia", "Die Männer der Emden", "Wickie auf großer Fahrt", "Wickie und die starken Männer", "Largo Winch" und viele weitere verantwortlich zeigen. Die wilde und unberechenbare Küstenlinie und die altehrwürdige Architektur der Insel haben schon eine Vielzahl an verschiedenen Orten auf der ganzen Welt gedoubelt – vom alten Rom über das Marseille des 19. Jahrhunderts bis hin zum Beirut der 1960er Jahre. Schiffe und Boote. Eine Besonderheit der Maltesischen Inseln sind die Luzzus, bunt bemalte hölzerne Fischerboote, deren Bug mit Augen (Horus- oder Osirisauge) verziert ist. Die Bauweise der Boote geht möglicherweise auf die Phönizier zurück; das Auge soll der Überlieferung nach die Fischer vor Gefahren schützen. Zusätzlich tragen die Boote zumeist die Namen christlicher Heiliger. Die farbenfrohen Boote sind ein beliebtes Fotomotiv für Touristen; daher wird ihr Unterhalt von der Regierung bezuschusst. Sie werden aber bis heute von den Fischern als Arbeitsgerät genutzt. Einige moderne Ausflugsboote für Touristen sind im Stil dem traditionellen Luzzu nachempfunden. Getränke. Kinnie ist der Name einer auf Malta hergestellten Limonade, die unter anderem aus Bitterorangen und Kräutern, insbesondere Wermutkraut hergestellt wird. Das bernsteinfarbene, alkoholfreie und kohlensäurehaltige Getränk hat einen bitter-süßen Geschmack. Ein weiteres bekanntes maltesisches Getränk ist das Lagerbier „Cisk Lager“. Essensspezialitäten. Ġbejna ist ein kleiner Käse aus Ziegenmilch. Sehr beliebt sind Kapern, Kaninchen und natürlich der Nationalfisch, die Goldmakrele (‚Lampuki‘), aber auch Pastizzis und Qassatas. Das sind Teigtaschen, die mit Ricotta, Thunfisch, Fleisch, Spinat oder Erbsen gefüllt sind. In Malta isst man auch gerne Qagħaq tal-Għasel, Bigilla, Aljotta und Nougat (Kuchen). Die maltesische Küche hat viel gemeinsam mit der italienischen und der griechischen Küche. Infrastruktur. Auf maltesischen Straßen herrscht Linksverkehr. In den letzten Jahren wurde viel in den Ausbau des Straßennetzes investiert. Trotzdem befinden sich viele Nebenstraßen – insbesondere in ländlichen Regionen – immer noch in relativ schlechtem Zustand. Auch der Fahrstil mancher maltesischer Autofahrer ist für Touristen aus nördlicheren Regionen Europas gewöhnungsbedürftig. Viele Malteser sagen deshalb mit einer Portion Selbstironie über sich:. Zu Beginn des 20. Jahrhunderts verfügte Malta auch über ein Schienenverkehrsnetz: 1883 wurde eine Eisenbahnlinie von Valletta nach Mdina eröffnet, die jedoch im Jahre 1931 aufgrund mangelnder Rentabilität wieder eingestellt wurde. Noch kurzlebiger war die Straßenbahn auf Malta, sie wurde im Jahre 1905 von der britischen Firma Macartney, McElroy & Co. Ltd. zwischen Birkirkara, den „Three Cities“, Paola and Żebbuġ eingerichtet; die Betreibergesellschaft "Malta Tramways Ltd." meldete bereits 1929 Konkurs an, so dass heute auf Malta keine Schienenverkehrsinfrastruktur mehr besteht. Maltesischer Linienbus (Lackierung bis Juli 2011) Maltesischer Linienbus (Lackierung ab Juli 2011) Situation bis ca. 2010. Der öffentliche Nahverkehr wurde 1905 eingeführt. Bis 1994 waren die heute gelben Linienbusse einheitlich grün gestrichen, diese Farbgebung stammte noch aus den frühen 1980er-Jahren und sollte damals die Verbundenheit Maltas mit Libyen zum Ausdruck bringen. Die Busse auf Gozo waren traditionell grau. Bis ca. 2010, vor der Einführung der neuen Busse und der einheitlichen Vergabe des öffentlichen Nahverkehrs an Arriva waren die Linienbusse im Eigentum des jeweiligen Busfahrers. Die Busse waren größtenteils veraltet, zahlreiche Linienbusse stammten noch aus der Kolonialzeit, waren also gut 50 Jahre alt. Wer aussteigen wollte, musste an einer Leine ziehen, die zu einer neben dem Fahrer montierten mechanischen Klingel führte. Die Türen der Busse waren abmontiert oder blieben während der Fahrt offen. Der Fahrtwind ersetzte damit die Klimaanlage. Diese Busse galten bei den einen als Touristenattraktion, bei anderen höchstens als brauchbares Nahverkehrsmittel. Nicht nur die Busse waren im jeweiligen Eigentum der Fahrer, auch fuhren die Fahrer ähnlich wie Taxibetreiber teilweise auf eigenes finanzielles Risiko. Wer nicht über ein Abonnement verfügte, bezahlte bar beim Fahrer, Rückgeld war nicht immer verfügbar. Die Linien und Fahrten auf den jeweiligen Linien wurden zwar den Fahrern zugeteilt, hingegen existierte auf den meisten Linien kein exakter Fahrplan, sondern lediglich eine ungefähre Intervallangabe, innerhalb derer die Busse verkehrten (je nach Linie Takt zwischen zehn Minuten und mehreren Stunden). Aufgrund der beschränkten Transportkapazität der alten Busse bestand keine Mitnahmegarantie, in Stoßzeiten oder bei Gruppen musste auf den nächsten oder übernächsten Kurs gewartet werden. Zu diesem Zweck wurde entsprechend dem kolonialen Erbe präzise Schlange gestanden. Situation ab ca. 2010. Zur Aufnahme Maltas in die EU musste unter anderem auch das Nahverkehrssystem erneuert werden. Ein erster Schritt wurde 1995 mit der Einführung eines neuen Farbsystems getan, bestehend aus einer warmen gelben Farbe und einem orangen Farbband. Das weiße Dach blieb erhalten. Ab 1996 startete ein Programm, um die Busse Schritt für Schritt zu verstaatlichen. Die Busfahrer nahmen Kredite für neue Busse auf, deren Kosten später teilweise von der Regierung übernommen wurden. Zur Steigerung der Qualität wurde ein Ausschreibungsverfahren für neue Fahrzeuge gestartet, an denen sich Busunternehmen aus der Türkei, Polen, Griechenland und Mazedonien beteiligten. Außerdem reichte der chinesische Bushersteller King Long ein Angebot für neue Fahrzeuge ein. Auch wenn die Busfahrer den BMC Falcon aufgrund seiner guten Performance und Straßenlage bevorzugten, entschied man sich letztlich, von den Modellen der Marke King Long die meisten Modelle zu bestellen. Mit dieser Umstellung wurde auch das gesamte Nahverkehrssystem optimiert. Vom 15. bis 17. Juli 2008 erlebte Malta einen Streik von Bus- und Taxifahrern mit Straßenblockaden. Grund dafür waren die wirtschaftlichen Sorgen von Bus- und Taxifahrern, dass bei durchzusetzendem EU-Recht ihr Transportmonopol kippe. Damit hätten auch Unternehmer anderer EU-Länder das Recht, den öffentlichen Nahverkehr mitzugestalten. Besonders die maltesischen Busfahrer, in deren Eigentum sich die Busse befanden, bangten um ihre Existenz. Am 3. Juli 2011 wurde der öffentliche Nahverkehr an die Firma Arriva, ein Tochterunternehmen der Deutsche Bahn AG, vergeben. Dadurch waren die Busse Maltas nunmehr nicht mehr gelb, sondern trugen die türkisfarbene Unternehmensfarbgebung des neuen Eigentümers. 185 neue Busse wurden angeschafft sowie 79 weitere modernisiert. Die gesamte Flotte erfüllte nun die Euro-5-Abgasnorm, war behindertengerecht sowie mit Klimaanlagen und Überwachungskameras ausgestattet. Von den somit insgesamt 264 Bussen verfügten 10 Modelle über Hybridantrieb, 60 weitere waren bisher auf Malta unbekannte Gelenkbusse. Der zentrale Omnibusbahnhof am Stadttor von Valletta (das im Zuge der Modernisierung abgerissen wurde) wurde erneuert und mit neuen Schildern ausgestattet. Medienkampagnen machten zusätzlich auf das neue System aufmerksam. Mit der Übernahme des maltesischen Busverkehrs durch Arriva endete das bisherige maltesische Bussystem abrupt. Arriva führte ein neues Bussystem auf Malta ein, brachte neues Rollmaterial, mehr Linien (die nun aber statt wie bisher sternförmig dann ringförmig verliefen), häufigere Fahrten, etc. Auf der anderen Seite verschwand die maltesische Touristenattraktion des Busverkehrs, und viele Busfahrer verloren ihre Existenzgrundlage (insofern sie nicht bei Arriva anheuern konnten). Seit dem 1. Januar 2014 betreibt das Unternehmen „Malta Public Transport“ den gesamten Busverkehr auf Malta und Gozo, nachdem desaströse Zustände und Verluste von ca. 50 Millionen Euro in nur zwei Jahren Arriva zur Aufgabe zwangen. Laut Presseerklärung der Deutsche Bahn AG "konnte auf Basis des bestehenden Vertrags keine angemessene Profitabilität erreicht werden." Der Verkaufspreis betrug einen symbolischen Euro. Die Gründe für das Scheitern von Arriva waren vielschichtig: Die 60 Gelenkbusse waren auf Malta absolut unbrauchbar, da sie durch zahlreiche enge Gassen in den Städten nicht fahren konnten. In einem Festungsgraben in Valetta abgestellt, warteten sie zuletzt auf ihren Verkauf (angeblich in den Sudan). Auch kam es mehrere Male zu Bränden in Bussen, die für das warme Klima auf Malta nicht geeignet waren. Mindestens drei Busse sind dabei komplett (ohne Personenschaden) ausgebrannt. Es stellte sich heraus, dass es sich auch um Busse handelte, die zuvor in London als "ungeeignet" ausgemustert worden waren. Die zuvor meist sternförmig angelegten Touren verliefen nun in Ringform, was beispielsweise Fahrtzeiten von den Außenbezirken in die größeren Städte deutlich verlängerte, zudem wurden die Fahrpläne häufig nicht eingehalten. Auch die deutlich unterschiedlichen Tarife für Einheimische und Touristen stießen zunehmend auf Kritik. Die alten Busse, die über 50 Jahre lang das Bild Maltas geprägt hatten, sind weiterhin im Einsatz, jedoch nur für „Nostalgiefahrten“. Alle diese Busse wurden privatisiert und die Kosten trägt ausschließlich der Eigentümer. Flug- und Schiffsverkehr. Der internationale Flughafen von Malta befindet sich in Luqa. Von dort gab es bis 2006 einen Hubschraubershuttledienst nach Gozo. Comino ist nur mit kleinen Personenfähren zu erreichen, die meistens unregelmäßig verkehren. Einen planmäßigen Fährdienst zwischen Malta und Gozo gibt es hingegen von Ċirkewwa aus. Regelmäßige Fährverbindungen bestehen zwischen Valletta und Catania auf Sizilien sowie Reggio Calabria und Salerno auf dem italienischen Festland. Hauptsächlich in den Sommermonaten verkehren außerdem Hochgeschwindigkeits-Katamarane zwischen Valletta und Catania (bzw. Pozzallo); diese werden hauptsächlich für Tagesausflüge nach Sizilien genutzt, die in zahlreichen Reiseagenturen auf Malta und Gozo gebucht werden können. Fährverbindungen bestehen außerdem von Valletta nach Valencia (Spanien) und Tripolis (Libyen). Die Fährverbindung nach Tripolis war insbesondere während des UN-Embargos gegen Libyen nach dem Lockerbie-Anschlag von Bedeutung, da auch der Luftverkehr nach Libyen eingestellt war; Libyer, die ins Ausland reisen wollten, nutzten daher diese Verbindung, um von Malta in den Rest Europas oder nach Übersee weiterzufliegen. Seit der Aufhebung des Embargos gegen Libyen hat die Verbindung an Bedeutung verloren und verkehrt nur noch ein- bis zweimal pro Woche. In den maltesischen Häfen wurden 2008 rund 5,5 Millionen Tonnen Güter umgeschlagen, das sind ca. 0,1 % des Gesamtumschlages aller Häfen der Europäischen Union. Der Umschlag je Einwohner ist mit 13,4 t jedoch rund doppelt so hoch wie der europäische Durchschnitt (7,9 t). Die Wachstumsrate lag 2008 im Vergleich zum Vorjahr bei 4,7 %, während der Güterumschlag in der Europäischen Union im gleichen Zeitraum um 0,5 % zurückgegangen ist. Von 2002 bis 2008 ist der Güterumschlag mit 10,2 % jedoch langsamer gewachsen als im Durchschnitt der Europäischen Union (17,5 %). Insbesondere europäische und amerikanische Kreuzfahrtschiffe werden häufig in Valletta registriert, so beispielsweise die Schiffe der TUI Cruises. Motorisierter Individualverkehr. Auf Malta waren im Jahr 2008 insgesamt 307.500 Fahrzeuge aller Art zugelassen. Die Anzahl der zugelassenen Fahrzeuge ist damit seit 2006, dem ersten Jahr der Erfassung in der Statistik der Europäischen Kommission, um rund 16 % gestiegen. 229.400 der zugelassenen Fahrzeuge sind Pkw, 14.400 Motorräder, 1.200 Busse und 900 Lkw und Sattelzugmaschinen. Mit einer Quote von 529 privat zugelassenen Pkw je 1000 Einwohner lag Malta bereits im Jahr seiner Aufnahme in die Europäische Union (2004) unter den fünf Ländern mit der höchsten Pkw-Dichte und nur knapp hinter Deutschland, mittlerweile belegt Malta mit 535 Pkw je 1000 Einwohner nach Luxemburg, Italien und Deutschland den vierten Platz in der EU. Die Anzahl der Verkehrstoten ist von 10 (2006) auf 15 (2008) gestiegen, während die Anzahl der Verletzten relativ konstant (ca. 1100) geblieben ist. Obwohl der Fahrstil für Touristen oft als gewöhnungsbedürftig angesehen wird, weist die Anzahl der Verkehrstoten je Million Pkw mit 61 den geringsten Wert in der Europäischen Union auf. Statistisch gesehen gehört Malta nach Bremen, Ciudad Autónoma de Ceuta, Berlin und Hamburg zu den sichersten Regionen in der EU. Malta ist ein „Paradies“ für Autoliebhaber. Im Jahr 2002 waren lediglich 6,4 % der zugelassenen Pkw jünger als zwei Jahre, dafür aber 48,9 % älter als zehn Jahre. Allgemein sind die Malteser große Oldtimerliebhaber. Im maltesischen Straßenbild sind viele gepflegte Oldtimer zu sehen. Daneben gibt es auch eine große Anzahl an Youngtimern, die jedoch eher für reine Nutzungsaufgaben gebraucht werden und dementsprechend heruntergekommen aussehen. Am meisten vertreten sind im Straßenbild ältere koreanische und japanische Fahrzeuge. Im Gegensatz zu italienischen Automobilen, abgesehen vom Fiat Panda, sind französische Automobile sehr beliebt. Der Peugeot 406 wird auch oft als Taxi verwendet. Deutsche Autos sind recht selten, jedoch sind ältere Mercedes-Benz-Modelle zu sehen. Der Mercedes-Benz W 124 ist, wie früher in Deutschland, sehr häufig als Taxi anzutreffen. Gelegentlich gibt es auch Mercedes-Benz W 123 oder sogar W 115. Die auch regelmäßig anzutreffenden Ford Escort stammen aus englischer Produktion. Englische wie osteuropäische Autos sind im Straßenbild sehr häufig vertreten. Maltesische Sprache. Maltesisch (Eigenbezeichnung: Malti) ist die Sprache Maltas. Sie ist ursprünglich aus einem arabischen Dialekt (Maghrebinisch) entstanden und gehört somit zu den semitischen Sprachen. Das Maltesische ist einerseits die einzige autochthone semitische Sprache in Europa sowie andererseits auch die einzige semitische Sprache weltweit, die lateinische Buchstaben verwendet. Geschichte. Maltesisch ist aus dem maghrebinischen Arabisch entstanden und hat sich zu einer eigenständigen Sprache mit Besonderheiten in Syntax und Phonologie entwickelt, die es vom Arabischen abheben. Dennoch ist die Grundstruktur des Maltesischen, insbesondere die Formenbildung, semitisch. Der Wortschatz wurde ab der Frühen Neuzeit vom Italienischen (besonders vom Sizilianischen), aber auch vom Englischen beeinflusst. Es finden sich auch aramäische und Phönizisch-punische und sonstige vorarabische Wurzeln. Beispiele hierfür sind die Namen der beiden Hauptinseln „Malta“ und „Gozo“. Nach der Eroberung und Neubesiedlung Maltas durch die Araber ab 870 entwickelte sich auf Malta aus dem Arabischen eine eigenständige lokale Umgangssprache. Handelte es sich zunächst noch um einen arabischen Dialekt, so löste sich das Maltesische durch die Christianisierung der Bevölkerung und ihre Anbindung an den katholisch-europäischen Kulturraum allmählich aus dem Einflussbereich der arabischen Hochsprache. Diese wurde von europäischen Sprachen abgelöst. Mit der Übernahme der Herrschaft durch den katholischen Johanniterorden 1530 wurde Italienisch dominierend. 1814 wurde Malta britische Kronkolonie und damit Englisch Amtssprache. Italienisch behielt daneben ebenfalls wichtige Funktionen, etwa als Gerichtssprache, und blieb die Sprache der einheimischen Oberschicht. Trotzdem ist Maltesisch in der Regel die Muttersprache und Alltagssprache der maltesischen Bevölkerung. 1924 wurden verbindliche Rechtschreibregeln erlassen. 1934 wurde Maltesisch Amtssprache neben dem Englischen, das heute vor allem in der höheren Schulbildung und der Hochschulbildung als Unterrichtssprache (neben dem Maltesischen) eine wichtige Rolle spielt, ebenso im Fernhandel und in technischen Berufen. Die italienische Sprache verlor ihren Status als offizielle Sprache Maltas 1934, wird aber noch von vielen Maltesern beherrscht. Seit dem 1. Mai 2004 ist Maltesisch eine der Amtssprachen in der EU. Vielen der rund 1,5 Millionen maltesischstämmigen Menschen außerhalb Maltas dient das Maltesische auch fern der Heimat ihrer Vorfahren als Identifikationssymbol. Alphabet und Aussprache. Als einzige semitische Sprache wird Maltesisch mit lateinischen Buchstaben geschrieben, besitzt aber die Sonderzeichen "Ċ/ċ, Ġ/ġ, Ħ/ħ" und "Ż/ż" sowie den Digraphen "Għ/għ", der ebenfalls als eigener Buchstabe behandelt wird. In Lehnworten werden die Buchstaben à, è, ì, ò und ù im Auslaut verwendet. Die Buchstaben c und y fehlen. għ: bezeichnete ursprünglich einen pharyngalen Konsonanten (aus arab. ع und غ hervorgegangen); heute ist es bei den meisten Sprechern stumm und äußert sich nur noch in einer Längung des vorangegangenen oder folgenden Vokals ħ:, sehr deutlich gesprochenes h, keine Entsprechung im Deutschen (wie arab. ح) q:, sehr deutlicher Glottisschlag (wie z.B. "ver'eisen" statt "verreisen") r:, gerolltes r, bei manchen Sprechern auch retroflex und dem englischen r nahestehend s:, immer stimmlos wie in "Gras" v:, wie "w" in "Wasser" oder wie engl. "v" z.B. in "vanilla" w:, wie engl. "w", z.B. in "water" ż:, wie stimmhaftes s in "Rose" ew:, etwa wie ein getrennt gesprochenes kurzes "e-u" bzw. "ä-u", keine Entsprechung im Deutschen (entspricht etwa einem kurzen "e" wie in „hell“, auf das ein kurzes "u" wie in „Kuss“ folgt, kein Diphthong) ie:, getrennt zu sprechen als i-ä; gelegentlich auch nur ein langes i mit leichter Neigung zum e Grammatik. Die markanteste Besonderheit des Maltesischen im Unterschied zu den indoeuropäischen Sprachen ist das Prinzip des Trilitteru und Kwadrilitteru, das besagt, dass Wörter aus dem gleichen Bedeutungsfeld identische Wortwurzeln (Radikale) enthalten, die jeweils aus drei oder vier Konsonanten bestehen. Die Unterscheidung der Wörter eines Wortfeldes geschieht durch die zwischen die Wurzelkonsonanten gestellten Vokale sowie durch Morpheme, die der Wurzel voran- oder nachgestellt werden (Vor- und Nachsilben). Dieses Prinzip ist typisch für die semitische Sprachfamilie. Beispiel: aus der Wurzel k–t–b (Grundbedeutung: schreiben) abgeleitete Wörter: "ktibt" „ich schrieb“, "kiteb" „er schrieb“, "kitb'"et" „sie schrieb“, "miktub" „geschrieben“ (Partizip Perfekt), "kittieb" „Schreiber“, "kitba" „Dokument“, "ktieb" „Buch“, "kotba" „Bücher“, "ktejjeb" „Heft“. Dieses besondere Prinzip der Wortbildung und Flexion wird auch auf die zahlreichen romanischen und englischen Lehnwörter angewandt. Vgl. etwa "nitkellem / titkellem / jitkellem / titkellem" ("ich spreche / du sprichst / er spricht / sie spricht") von der semitischen Wurzel k–l–m (Grundbedeutung: sprechen, Wort) mit dem aus dem Englischen entlehnten "to book": "Ich reserviere / du reservierst / er reserviert / sie reserviert" heißt "nibbukkja / tibbukkja / jibbukkja / tibbukkja". Die in den beiden Wortreihen erkennbaren Vorsilben "ni- / ti- / ji- / ti-" sind die in den semitischen Sprachen durchgängig auftretenden Morpheme, die das Verb im Imperfektstamm (= nicht abgeschlossene Handlung, Präsens/Futur) der 1., 2., 3. Person (ich/du/er/sie) zuordnen. In allen semitischen Sprachen werden Lehnwörter, insbesondere Verben, nach diesem Prinzip behandelt. Materie (Physik). Materie (von) ist in den Naturwissenschaften eine Sammelbezeichnung für alles, woraus physikalische Körper aufgebaut sein können, also chemische Stoffe bzw. Materialien, sowie deren Bausteine. Die Beschreibung der Zusammensetzung, Struktur und Dynamik von Materie in ihren verschiedenen Formen ist eine zentrale Zielsetzung der Physik. In der klassischen Physik stehen der Materie die Begriffe Vakuum und Kraftfeld gegenüber. Hierbei haben Vakuum und Kraftfeld keine Masse, sondern beschreiben einen Zustand des leeren Raums. Unter Materie hingegen versteht man in der klassischen Physik alles, was Raum einnimmt "und" eine Masse besitzt. In der modernen Physik wurde der Materiebegriff insbesondere durch die Relativitätstheorie und die Quantenphysik mehrfach erweitert und ist heute in seiner Abgrenzung gegenüber den Begriffen Vakuum und Feld nicht mehr einheitlich festgelegt. In den Lehrbüchern der Physik wird er überwiegend ohne eine genauere Definition einfach vorausgesetzt. In seiner engsten Bedeutung umfasst der Materiebegriff heute alle Elementarteilchen mit Spin formula_1, also Quarks und Leptonen, sowie alle daraus aufgebauten Objekte wie Atome, Moleküle, feste, flüssige und gasförmige Materie usw. bis hin zu Sternen und Galaxien. Herausbildung. Ein konkreter physikalischer Begriff der Materie festigte sich innerhalb des äußerst vielschichtigen philosophischen Begriffs von Materie, als gegen 1600 die experimentellen Naturwissenschaften entstanden. In seiner allgemeinsten, ontologischen Bedeutung bezeichnete der philosophische Begriff als Materie alles, was im weitesten Sinn geformt werden kann und im Extremfall überhaupt erst einer Formung bedarf, damit etwas Bestimmtes, das wir erkennen können, entstehen kann. In der engeren Bedeutung bezeichnete er die stoffliche Materie, aus der die Körper bestehen. Auf diese Materie konzentrierte sich die mit Galilei beginnende Entwicklung der Physik. Zu den primären Eigenschaften der stofflichen Materie, also den allgemeinsten Eigenschaften der materiellen Körper, wurden Ausdehnung, Teilbarkeit, Fähigkeit zur Ruhe oder Bewegung und Widerstand gegenüber Bewegung gezählt. Für die Gesamtmenge der Materie wurde auch bereits ein Erhaltungssatz angenommen, was unter anderem die Frage aufwarf, wodurch die Menge zu bestimmen sei. Das Gewicht eines Körpers schied als Maß für die in ihm enthaltene Materiemenge zunächst aus, denn nach der noch stark von Aristoteles beeinflussten Lehre galt Schwere gar nicht als Eigenschaft aller materiellen Körper. Johannes Kepler näherte sich dem gesuchten Maß über die Trägheit der Körper gegenüber Bewegungen, während René Descartes die rein geometrische Eigenschaft der Raumerfüllung für das eigentliche Maß hielt. Isaac Newton wählte die Masse und definierte sie dabei als das Produkt aus Volumen und Dichte des Körpers, wobei er allerdings eine Definition für den Begriff der Dichte schuldig blieb. In seiner Mechanik gab er dem neuen Begriff eine zentrale Rolle: die Masse eines Körpers zieht sowohl seine Trägheit als auch sein Gewicht nach sich. Erst hierdurch wurde aus der Masse bzw. der Menge an Materie eine naturwissenschaftlich definierte Größe. Für die Erklärung der mechanischen Vorgänge auf der Erde wie auch der Bewegungen der Himmelskörper hatte die so begründete Newtonsche Mechanik einen überragenden Erfolg, der auch wesentlich zur Ausbreitung des naturwissenschaftlichen Weltbilds beigetragen hat. Im Einklang mit dem alltäglichen Umgang mit materiellen Körpern, und mit den Möglichkeiten damaliger Experimentierkunst, hielt man deren Masse und Raumbedarf für weitgehend unveränderlich, jedenfalls im Hinblick auf mechanische Vorgänge mit einem gegebenen Stück fester Materie. Erst als von Robert Boyle, Edme Mariotte, Blaise Pascal und anderen entdeckt wurde, dass auch Luft wohlbestimmte mechanische Eigenschaften hat, darunter sogar auch Gewicht, wurden die Gase zu physikalischen Körpern, die allerdings im Unterschied zu festen und flüssigen Körpern nicht mehr das Kriterium eines bestimmten Raumbedarfs erfüllten, da sie bestrebt sind, jeden zur Verfügung gestellten Raum einzunehmen. Damit rückten im 17. Jahrhundert auch „chemische“ Vorgänge wie Verdampfen, Kondensieren und Sublimieren in den Bereich der Physik. Boyle konnte diese Umwandlungen mit der Annahme einer atomistischen Struktur der Materie (nach Gassendi, Lukrez, Demokrit) in dem noch heute gültigen Bild als rein mechanische Vorgänge deuten: Atome, die wieder wie feste Körper als undurchdringlich angenommen wurden, können sich verschieden anordnen und haben in Gasen einen großen Abstand voneinander. Boyle bereitete auch die Begriffe des chemischen Elements und des Moleküls und damit die Überwindung der Alchemie vor. Er vermutete, dass jeder homogene Stoff aus kleinen gleichen Teilchen - nach heutiger Bezeichnung eben den Molekülen -, bestünde, und dass die Moleküle ihrerseits aus Atomen aufgebaut seien. Dabei seien die Moleküle verschiedener Stoffe verschieden, die Anordnung der Atome in den Molekülen aber je nach Stoff genau festgelegt. Dann würden wenige verschiedene Arten von Atomen ausreichen, die große Vielfalt verschiedener Stoffe zu erklären, nämlich durch die Vielfalt der möglichen Anordnungen der Atome in den Molekülen. Nachdem gegen Ende des 18. Jahrhunderts Antoine de Lavoisier die Erhaltung der Masse bei chemischen Stoffumwandlungen - vor allem auch bei Reaktionen mit Entstehung oder Verbrauch von Gasen - nachgewiesen hatte, machte John Dalton ab 1803 die Annahme unveränderlicher und unvergänglicher Atome endgültig zur Grundlage einer neuen Chemie. Diese konnte mit außerordentlichem Erfolg die Vielzahl der Stoffe und ihr Verhalten detailliert erklären und daher im Laufe des 19. Jahrhunderts die Alchemie aus der Wissenschaft verdrängen. Klassischer und alltäglicher Materiebegriff. Der Begriff der Materie in der klassischen Physik stimmt weitgehend mit dem umgangssprachlichen Sinn von 'Materie' oder 'materiell' überein, sofern damit der Unterschied von körperlichen und nicht-körperlichen Dingen benannt werden soll. Ein Stück Materie hat dabei zwei allgemeine und grundlegende Eigenschaften: In jedem Moment besitzt es eine bestimmte Masse und eine bestimmte Form, mit der es ein gewisses Volumen ausfüllt. Um Materiemengen anzugeben, werden die Größen Masse (umgangssprachlich meist ausgedrückt als „Gewicht“) und Volumen verwendet. Materie bildet damit in der klassischen Physik den Gegensatz zum leeren Raum oder absoluten Vakuum und zu den eventuell darin existierenden masselosen Kraftfeldern. Zur näheren Charakterisierung makroskopischer Materie gibt es zahlreiche spezielle physikalische und chemische Parameter und Materialeigenschaften. Solche Materie kann unseren Sinnen als vollkommen homogenes Kontinuum erscheinen, und sie wird in Teilen der Physik auch heute so behandelt. Dennoch ist Materie stets aus diskreten Materieteilchen aufgebaut, die die mikroskopische Struktur der Materie bilden. Für eine direkte Wahrnehmung mit unseren Sinnen oder auch mit dem Lichtmikroskop sind diese Teilchen um viele Größenordnungen zu klein und blieben daher auch lange hypothetisch. Die Angabe der Teilchenzahl ist die genaueste Möglichkeit, eine Menge an Materie zu bestimmen. Bei makroskopischer Menge wählt man hierzu eine eigens definierte physikalische Größe, die Stoffmenge. Die Angabe der Teilchenzahl muss stets mit der Information verbunden sein, um welche Art (oder Arten) von Teilchen es sich handelt. In der klassischen Physik und Chemie sind die Teilchen, aus denen die Materie aufgebaut ist, die Atome oder die aus bestimmten Atomarten in festgelegter Weise zusammengesetzten Moleküle. Dabei wurden die Atome als unteilbare Körperchen von bestimmter Masse und bestimmtem Volumen angenommen. Sie sollten - im Einklang mit der damals in allen chemischen und physikalischen Umwandlungen beobachteten Erhaltung der Masse - auch absolut stabil sein und insbesondere weder erzeugt noch vernichtet werden können. Zusammen mit dem naturwissenschaftlichen Nachweis, dass es die Atome wirklich gibt, wurde Anfang des 20. Jahrhunderts allerdings auch entdeckt, dass diese Annahmen über ihre Beschaffenheit nicht ganz zutreffen. Grenzen des klassischen Materiebegriffs. In der modernen Physik wurden auch die Atome als zusammengesetzte physikalische Systeme erkannt. Sie sind aus noch kleineren Materieteilchen aufgebaut, den Elektronen (die zu den oben erwähnten Leptonen gehören) und Quarks. Diese haben zwar Masse, aber kein nachweisbares Eigenvolumen. Neben diesen Bausteinen der Atome gibt es zahlreiche weitere Arten Elementarteilchen, teils mit, teils ohne eigene Masse. Ausnahmslos alle Elementarteilchen können unter bestimmten Bedingungen erzeugt und vernichtet werden, und das gilt dementsprechend auch für die Atome. Damit zeigen die Bausteine, aus denen die Materie aufgebaut ist, selbst nicht alle grundlegenden Eigenschaften, die in der klassischen Physik mit Materie verbunden waren. Des Weiteren hat sich in der modernen Physik auch der Gegensatz zwischen massebehafteter Materie und masselosem Feld aufgelöst, und zwar von beiden Seiten her: Zum einen folgt aus der Äquivalenz von Masse und Energie, dass diese Felder, wenn sie in einem Objekt eingeschlossen sind, einen Beitrag zur Masse des Objekts liefern. Zum anderen ist in der Quantenfeldtheorie jedes Elementarteilchen nichts anderes als eine im Vakuum existierende diskrete Anregung eines bestimmten Feldes. Daher gibt es bei manchen quantenphysikalischen Objekten unterschiedliche Ansichten darüber, ob sie zur Materie gezählt werden sollen oder nicht. Definiert man die Grenze z. B. durch das Kriterium einer nichtverschwindenden Masse, dann zählen auch Teilchen wie die W- und Z-Bosonen zur Materie. Sie nehmen aber keinen bestimmten Raum ein und stehen auch deutlich im Widerspruch zu der Vorstellung, dass Materie etwas Dauerhaftes sei. Im Zusammenhang mit der schwachen Wechselwirkung werden diese Teilchen nämlich als deren Austauschteilchen angesehen, die also durch ihre fortwährende virtuelle Erzeugung und Vernichtung in beliebiger Zahl diese Wechselwirkung überhaupt zustande kommen lassen. Nimmt man andererseits gerade die Stabilität der Materie zum Ausgangspunkt, so wählt man die zur Materie zu zählenden Teilchenarten danach aus, dass für die Teilchenzahl ein Erhaltungssatz gilt. Dann können nur Quarks und Leptonen als die elementaren Materieteilchen gelten, wie ihre Antiteilchen auch, aber beides auch nur in dem Rahmen, dass ihre gegenseitige Vernichtung oder paarweise Erzeugung unbeachtet bleibt. Überdies hätte dann bei allen Körpern, die im Alltag und umgangssprachlich zur Materie gezählt werden, der Großteil ihrer Masse nichts mit Materie zu tun. Denn über 99 % der Masse dieser materiellen Körper wird von Protonen und Neutronen beigesteuert, die ihrerseits ihre Masse nicht durch Massen der darin enthaltenen Quarks erhalten, sondern zu fast 99 % erst durch die Bindungsenergie zwischen den Quarks, die von den masselosen Austauschteilchen der starken Wechselwirkung, den Gluonen, verursacht wird. Die Frage der Einheitlichkeit der Materie. Die Vorstellung eines Urstoffs, wie sie aus den Texten der Vorsokratiker herausgelesen worden war, wurde unter dem Eindruck des christlichen Schöpfungsglaubens dahingehend weiterentwickelt, dass diesem Urstoff eine einheitliche Substanz entsprechen sollte. Umstritten blieb im Mittelalter aber die Frage, ob auch die Himmelskörper aus derselben Art Substanz bestehen wie die irdischen Körper. Diese Frage wurde erst ab 1860 mit Hilfe der Spektralanalyse gelöst, mit der die in einem selbstleuchtenden Körper enthaltenen chemischen Elemente identifiziert werden können. Es zeigte sich - nach Klärung mancher Zweifelsfälle wie z. B. beim Helium -, dass die Elemente, aus denen die Sonne und die anderen Sterne bestehen, alle auch auf der Erde vorkommen. Die Frage nach einer einheitlichen Ursubstanz aller Materie wurde dadurch aber kaum berührt, denn es gehörte seit Dalton zu den Fundamenten der Chemie, dass sich die Elemente nicht ineinander umwandeln ließen und ihre Atome nicht aus kleineren Bausteinen bestünden. Zu jener Zeit waren bereits etwa 30 chemische Elemente bekannt und es wurden ständig weitere entdeckt. Es wurde als ein Mangel der Theorie empfunden, dass man eine solch große Anzahl verschiedener Grundtypen von Materie annehmen sollte. Deshalb unternahm schon 1815 William Prout den ersten Versuch der Vereinheitlichung. Er deutete Daltons Ergebnisse für die Verhältnisse der Atommassen so, dass alle Atome aus Wasserstoffatomen zusammengesetzt seien und man in Wasserstoff folglich den gesuchten Urstoff gefunden habe. Aufgrund dieser Vermutung wurde für Jahrzehnte versucht, die relativen Atommassen der Elemente im Sinne ganzzahliger Verhältnisse zum Wasserstoff zu interpretieren, obwohl die genauer werdenden Messungen dem immer deutlicher widersprachen. Ein Jahrhundert nach Prout zeigten Entdeckungen von Frederick Soddy und Joseph John Thomson, dass die Elemente nicht notwendig aus einer einzigen Atomsorte, sondern aus verschiedenen Isotopen bestehen, und dass die Atommassen der einzelnen Isotope tatsächlich (nahezu) ganzzahlige Vielfache der Wasserstoffmasse sind. Nachdem Ernest Rutherford um 1920 entdeckte, dass größere Atomkerne die Kerne des Wasserstoffatoms als Bausteine enthalten, galt für die nächsten 10 Jahre als erwiesen, dass alle Materie aus nur zwei Bausteinen aufgebaut ist, den Protonen (Wasserstoffkernen) und Elektronen. (Die ebenfalls benötigten Neutronen wurden als Proton-Elektron-Paare in besonders enger Bindung aufgefasst.) Dann machte Paul Dirac, nachdem er mit der relativistischen Quantentheorie eine der Grundlagen der heutigen Elementarteilchenphysik entdeckt hatte, im Jahr 1930 auch den letzten Schritt. Er bemerkte, dass es im Rahmen seiner Theorie zu Teilchen wie den Elektronen auch Antiteilchen geben müsste, und schlug vor, das Proton als Antiteilchen des Elektrons aufzufassen. Damit sei das alte Ziel, ein einheitliches Konzept der Materie zu finden, erreicht. Dies Bild hielt jedoch weder der theoretischen Ausarbeitung noch den neueren experimentellen Befunden stand. Zum einen hätten sich Proton und Elektron - also z. B. ein ganzes Wasserstoffatom - in kürzester Zeit miteinander zerstrahlen müssen, im eklatanten Gegensatz zur Stabilität der Materie. Zum anderen wurden zahlreiche weitere Teilchenarten entdeckt, die auch als Materieteilchen fungieren könnten, wenn sie nicht so kurzlebig wären, dass sie in der normalen Materie praktisch nicht vorkommen. Alle diese Teilchenarten, deren Anzahl schon auf mehrere Hundert anstieg und die leicht ironisch als Teilchenzoo bezeichnet wurden, wurden ab etwa 1970 im Standardmodell in ein Schema gebracht, in dem nach heutiger Kenntnis alle Eigenschaften der Materie - sowohl ihr Aufbau als auch alle ablaufenden physikalischen Prozesse - gedeutet werden können (allerdings mit Ausnahme der Gravitation). Demnach besteht die Materie, soweit man im ursprünglichen Sinn damit den Stoff aller mit den Sinnen fühlbaren Körper meint, aus drei Arten Teilchen: Elektron, up-Quark, down-Quark. Zusammen mit den übrigen Leptonen und Quarks des Standardmodells, die im engeren Sinn wegen Spin formula_1 auch als „Materieteilchen“ bezeichnet werden, sind es (inklusive der Antiteilchen) aber schon 48 Arten. Wenn man schließlich die „Kraftteilchen“ für das Zustandekommen aller Arten von Prozessen hinzu zählt sowie das Higgs-Boson für das Zustandekommen der Teilchenmassen, sind es 61. Die Suche nach einer einheitlichen Grundsubstanz wird aktuell fortgesetzt. Ansätze liefern hierbei die String-Theorie oder auch Modelle, denen zufolge die Elementarteilchen aus tatsächlich fundamentalen Teilchen, den „Präonen“, aufgebaut seien. Diese Ansätze sind aber noch nicht experimentell überprüfbar und daher vollkommen hypothetisch. Makroskopische Materie. Eine „Sorte“ von Materie, die durch ihre Zusammensetzung und ihre Eigenschaften charakterisiert ist, wird Stoff genannt. Chemische Elemente bestehen nur aus Atomen gleicher Ordnungszahl. Das sind Atome, deren Kerne dieselbe Zahl von Protonen enthalten. Chemische Verbindungen enthalten Atome verschiedener Elemente, die sich in bestimmten Zahlenverhältnissen zusammenschließen, sei es als jeweils einheitlich aufgebaute Moleküle oder als regelmäßig strukturierte Kristalle. Die Eigenschaften einer Verbindung sind völlig verschieden von den Eigenschaften der Elemente, aus denen sie aufgebaut ist. So sind beispielsweise das chemische Element Sauerstoff ein farbloses Gas und Silicium ein Halbmetall, während die Verbindung aus beiden, SiO2 ein transparentes, kristallines Mineral ist, nämlich Quarz. Stoffe, die nur aus einem Element oder einer Verbindung bestehen, heißen Reinstoffe. Besteht ein Stoff aus mehreren Elementen bzw. Verbindungen, so handelt es sich um ein Stoffgemisch. Hierbei werden homogene Stoffgemische (z. B. Lösungen) und heterogene Stoffgemische (z. B. Emulsionen, Dispersionen oder Aerosole) unterschieden. So ist beispielsweise Granit ein Konglomerat – also ein heterogenes Gemisch – der Reinstoffe Quarz, Glimmer und Feldspat. Die makroskopischen Eigenschaften eines Stoffes werden durch zahlreiche spezielle Materialeigenschaften beschrieben, z. B. Dichte, Elastizität, Farbe, Bruchfestigkeit, Wärmeleitfähigkeit, magnetische Eigenschaften, elektrische Leitfähigkeit und viele andere. Diese Werte hängen auch von Parametern wie Temperatur, Druck etc. ab. Es handelt sich dabei durchweg um intensive Größen, also um Eigenschaften, die nicht von der Größe des betrachteten Systems abhängen. Ein zusammenhängendes Gebilde von Materie wird als Körper bezeichnet. Neben den eben genannten intensiven Stoffeigenschaften der Materialien, aus denen er besteht, wird sein Verhalten auch maßgeblich von extensiven Größen, beispielsweise seiner Masse, räumlichen Ausdehnung oder äußeren Form bestimmt. Materie, die als Reinstoff in makroskopischer Menge vorliegt, hat einen der drei Aggregatzustände fest, flüssig und gasförmig, oder ist ein Plasma, d. h. ein Gemisch aus ionisierten Atomen und freien Elektronen. Feste und flüssige Stoffe werden zusammenfassend als kondensierte Materie bezeichnet. Kondensierte Materie ist im Unterschied zu den Gasen nur sehr wenig kompressibel. Flüssigkeiten und Gase heißen zusammenfassend Fluide. Fluide haben im Unterschied zur festen Materie keine dauerhafte räumliche Gestalt, sondern passen sich z. B. den Behälterwänden an. Im Teilchenmodell hat die Verschiedenheit der Aggregatzustände eine einfache Erklärung. Man braucht dazu lediglich verschiedene Arten der räumlichen Anordnung und Bindung zwischen den Teilchen zu betrachten: Im Gas fliegen die Moleküle (bei Edelgasen: die Atome) einzeln und ungeordnet umher. Die anziehenden oder abstoßenden Kräfte zwischen ihnen spielen nur bei ihren zufälligen Zusammenstößen eine Rolle und sind sonst aufgrund des durchschnittlich großen Abstandes der Teilchen schwach und weitgehend vernachlässigbar. Ein Gas wird zu einem Plasma, wenn die kinetische Energie der Teilchen so weit erhöht wird, dass in ihren Zusammenstößen einzelne Elektronen abgerissen werden. Im Festkörper hingegen haben die Atome oder Moleküle sehr viel geringere Energie, liegen viel näher beieinander und halten eine weitgehend feste Anordnung ein. Die Abstände zu ihren nächsten Nachbarn sind durch das Kräftegleichgewicht einer starken Anziehung und Abstoßung bestimmt und können durch äußeren Druck oder Zug nur noch wenig verändert werden. In einer Flüssigkeit befinden sich die Teilchen bei ähnlichen Abständen wie im Festkörper, weshalb auch die Flüssigkeit nur wenig kompressibel ist. Die Teilchen haben aber eine größere kinetische Energie, im Durchschnitt zwar nicht genug, um einzeln davon zu fliegen und ein Gas zu bilden, jedoch genug um leicht zu einem anderen benachbarten Teilchen zu wechseln. Deshalb besitzt die Flüssigkeitsmenge als ganze keine feste Form. Weitere Bezeichnungen für Formen der Materie. Zwischen makroskopischer und mikroskopischer Materie ist in den letzten Jahrzehnten der Forschungsbereich der Cluster und Nanoteilchen entstanden, die als mesoskopische Materie bezeichnet werden. Es sind Materiekörner, die aus bis zu einigen zehntausend Atomen oder Molekülen bestehen und daher schon mit den für die makroskopischen Körper typischen Begriffen beschrieben werden. Sie sind weniger als etwa 100 nm groß und bleiben daher einzeln für das Auge unsichtbar. Sowohl einzeln als auch in größeren Mengen zeigen diese Teilchen allein aufgrund ihrer geringen Ausdehnung teilweise ein ganz anderes Verhalten als derselbe Stoff in homogener makroskopischer Menge. In der Kernphysik und der Elementarteilchenphysik unterscheidet man Materie anhand der vorkommenden Teilchenarten, z. B. Kernmaterie, Seltsame Materie, Quark-Gluon-Plasma, Antimaterie. Antimaterie ist eine Form der Materie, die aus den Antiteilchen derjenigen Elementarteilchen aufgebaut ist, die die „normale“ Materie bilden. Nach den Gesetzen der Elementarteilchenphysik zeigen Antimaterie und normale Materie jeweils exakt das gleiche Verhalten. Allerdings vernichten sie sich gegenseitig, sobald sie zusammentreffen, wobei Vernichtungsstrahlung entsteht. In der Astronomie und Kosmologie wird die Dunkle Materie betrachtet. Die dunkle Materie ist durch ihre Gravitationswirkung belegt, bisher aber bei allen anderen Versuchen der Beobachtung unsichtbar geblieben. Außer ihrer Masse ist über ihre Natur nichts näheres bekannt. Zur Unterscheidung von der dunklen Materie wird die „normale“ Materie zusammenfassend als baryonische Materie bezeichnet. Teilchenstrahlung besteht aus schnell bewegten Materieteilchen. Diese Form der Materie gehört zu keinem bestimmten Aggregatzustand und befindet sich weit außerhalb des thermischen Gleichgewichts. Teilchenstrahlung kann elektrisch geladen (z. B. Kathodenstrahlung, Ionenstrahlung, Alphastrahlung, Betastrahlung) oder elektrisch neutral sein (z. B. Neutronenstrahlung, Molekülstrahlung). Unter Bedingungen, die weit vom Alltäglichen entfernt sind, kann Materie sich so ungewohnt verhalten, dass sie eine eigene Bezeichnung erhält. Als warme dichte Materie wird ein Zustand makroskopischer Materie bezeichnet, der ebenso sehr einem extrem verdichteten Plasma wie einem extrem heißen Festkörper entspricht. Von entarteter Materie spricht man, wenn spezielle quantenmechanische Effekte die Eigenschaften einer Materiemenge stark vom „normalen“ Verhalten gemäß der klassischen Physik abweichen lassen. Beispiele findet man bei sehr tiefer Temperatur im Bose-Einstein-Kondensat und in der Suprafluidität, bei normalen Bedingungen auch im Fermi-Gas der metallischen Leitungselektronen. Vorkommen. Sterne und die Milchstraße am Nachthimmel. Im Universum gibt es etwa 1022 bis 1023 Sterne. Die Gesamtmasse der baryonischen Materie im beobachtbaren Universum, die sich in einem kugelförmigen Volumen mit einem Radius von ca. 46 Milliarden Lichtjahren verteilt, wird auf 1.5·1053 kg geschätzt (inklusive dunkler Materie wären es ziemlich genau 1054 kg). Gemäß dem Lambda-CDM-Modell, dem aktuellen Standardmodell der Kosmologie, liegen etwa 17 % der gesamten Masse in Form von baryonischer Materie vor, also Materie, bei der Protonen und Neutronen den größten Teil der Masse ausmachen. Ein Teil der baryonischen Materie befindet sich in den insgesamt zirka 1022 bis 1023 Sternen, die in Form von Galaxien, Galaxienhaufen und Superhaufen die Struktur des Kosmos bilden. Ein kleiner Teil der Materie befindet sich nach dem Gravitationskollaps des vorher existierenden Sterns in einem schwarzen Loch und macht sich nur noch durch Gravitation bemerkbar. Den restlichen Teil der baryonischen Materie bezeichnet man als Interstellare Materie oder als Intergalaktische Materie, je nachdem, ob sie sich innerhalb einer Galaxie oder zwischen den Galaxien befindet. Es handelt sich um Gas, Staub und größere Klumpen, wie z. B. Planeten. Das Gas, zum größten Teil Wasserstoff, liegt atomar oder ionisiert vor. Den Großteil der Masse des Universums stellt mit 83 % die nicht-baryonische Dunkle Materie, die nicht leuchtet und bisher nur aus ihren Gravitationseffekten erschlossen wird. Demnach ähnelt ihre großräumige Verteilung stark der Verteilung der leuchtenden Materie. Das wird nach dem kosmologischen Standardmodell so verstanden, dass sich zuerst die Dunkle Materie ansammeln konnte und Halos bildete, in deren Gravitationsfeld sich dann die baryonische Materie konzentrierte und Sterne bilden konnte. Über die Natur der Dunklen Materie gibt es bisher keine gesicherten Erkenntnisse. In den hierzu vorgeschlagenen Deutungen spielen unter anderem die noch spekulativen Supersymmetrischen Partner der bekannten Teilchen eine Rolle. Entstehung von Materie. Den Urknall stellt man sich im kosmologischen Standardmodell als den heißen, energiereichen Beginn der Raumzeit vor und durch den Energieinhalt auch als den Beginn der Materie. Da die bisherigen physikalischen Theorien von der Existenz der Raumzeit abhängen, lässt sich der Zustand des Universums erst ab Ende der Planck-Ära nach dem Urknall beschreiben. Die Temperatur wird auf ca. 1030K geschätzt und das Universum dehnt sich seither aus und kühlt sich ab. Schrittweise frieren in aufeinanderfolgenden Symmetriebrechungen die Elementarteilchen aus, reagieren und rekombinieren, bis nach der Baryogenese und der gegenseitigen Vernichtung von Teilchen mit Antiteilchen das heutige Übergewicht von Materie über Antimaterie herrscht. Im Anschluss entstehen die Kerne der schweren Wasserstoffisotope Deuterium und Tritium sowie der Isotope des Heliums und Lithiums. Nach weiterer Abkühlung können sich die so entstandenen Kerne mit Elektronen zu neutralen Atomen verbinden. Die Materie liegt dann in Gas- bzw. Staubform vor, bis sich durch ihre Gravitation die ersten Sterne bilden. Bei genügenden Werten von Druck und Dichte in ihrem Inneren zündet die Kernfusion und führt zur Bildung der Elemente bis etwa zum Eisen. Schwerere Elemente werden durch Neutroneneinfänge und anschließende Betazerfälle erzeugt, teils in AGB-Sternen, teils in Supernovae. Molekül. Moleküle (älter auch: "Molekel"; von lat. "molecula," „kleine Masse“) sind "im weiten Sinn" zwei- oder mehratomige Teilchen, die durch chemische Bindungen zusammengehalten werden und wenigstens so lange stabil sind, dass sie z. B. spektroskopisch beobachtet werden können. Es kann sich um neutrale Teilchen, aber auch um Radikale, Ionen oder auch ionische Addukte handeln. So sind z. B. viele Typen von interstellaren Molekülen unter irdischen Bedingungen nicht stabil. IUPAC nennt solche Teilchen "molekulare Gebilde" (molecular entity). Grundsätzliches. "Im engen Sinn" und im allgemeinen Sprachgebrauch der Chemie sind Moleküle elektrisch neutrale Teilchen, die aus zwei oder mehreren Atomen aufgebaut sind. Die Atome sind kovalent miteinander verknüpft und bilden einen in sich abgeschlossenen, chemisch abgesättigten Verband. Ein so definiertes Molekül ist das kleinste Teilchen eines bestimmten Reinstoffes und hat eine bestimmbare Molekülmasse. Ein Molekül ist kein starres Gebilde, bei Energiezufuhr treten unterschiedliche Molekülschwingungen auf; hierzu reicht schon die Normaltemperatur. Moleküle können aus Atomen eines einzigen chemischen Elements aufgebaut sein, wie Sauerstoff (O2) und Stickstoff (N2) (Elementmoleküle). Viele Moleküle sind jedoch Verbände von Atomen verschiedener Elemente, wie Wasser (H2O) und Methan (CH4). Die Anordnung der Atome (ihre Konstitution) in einem Molekül ist durch die chemischen Bindungen fixiert. So unterscheiden sich trotz gleicher Anzahl der beteiligten Atome Ethanol (H3C–CH2–OH) von Dimethylether (H3C–O–CH3); sie werden durch unterschiedliche chemische Formeln dargestellt. In bestimmten Fällen können Moleküle wie z. B. die Moleküle der Milchsäure Formen mit gleicher Konstitution, aber unterschiedlicher "räumlicher Anordnung" (der Konfiguration) vorliegen. Dass gleiche Summenformeln unterschiedliche Moleküle zulassen, wird allgemein Isomerie genannt. Ein einzelnes Molekül hat die "chemischen" Eigenschaften eines Stoffes. Die "physikalischen" Eigenschaften, wie Siede- oder Schmelzpunkt eines molekularen Stoffes werden durch zwischenmolekulare Kräfte bestimmt und können bei Feststoffen zur Bildung von Molekülgittern führen. Große Moleküle werden Makromoleküle genannt. Aus Makromolekülen bestehen Kunststoffe wie PET und Biopolymere wie die Stärke. Die Größe von zweiatomigen Molekülen liegt im Bereich von 10−10 m (1 Å), relativ große Moleküle aus recht vielen Atomen erreichen einen Durchmesser im Bereich von 10−9 m (10 Å), wobei Makromoleküle noch etwas größer sein können. Experimentell lässt sich die Größe von Molekülen z. B. mit dem Ölfleckversuch abschätzen. Die Bindungsverhältnisse in Molekülen werden beispielsweise mit dem VSEPR-Modell oder der MO-Theorie erklärt und beschrieben. Abgrenzung. Nicht alle chemischen Verbindungen bestehen aus individuellen Molekülen. Keine Moleküle liegen z. B. bei diamantartigen Stoffen, wie Borcarbid (B4C) und Siliciumcarbid (SiC) vor. Die Atome werden zwar durch "kovalente Bindungen" zusammengehalten, ein typisches Molekül lässt sich jedoch nicht festlegen. Die chemische Formel ist nur eine Verhältnisformel. Die Anordnung der Atome lässt sich durch eine Elementarzelle darstellen, welche sich immer wiedererholt und mit formal offenen (ungenutzten) Valenzelektronen an ihrer Oberfläche enden. Keine Moleküle liegen auch bei Salzen wie Natriumchlorid (NaCl) vor, die durch ionische Bindungen zusammengehalten werden. Auch hier gibt die Formel das Verhältnis der beteiligten Atome wieder und auch hier kann der Verband der Atome prinzipiell eine beliebige Größe haben und den Bereich von einigen Millimetern erreichen. Grundelemente dieses Verbindungstyps sind Teilchen (hier Atome) mit einer Ladung. Solche Teilchen werden allgemein Ionen genannt. Das Natriumatom bildet ein Kation (Na+), das Chloratom ein Anion (Cl−). Im Fall von Natriumsulfat (Na2SO4) besteht das Anion SO42− aus einem Atomverband, der eine Ladung trägt. Atomverbände mit Ladungen werden "im engen Sinn" nicht Moleküle genannt. Dies ist auch in der organischen Chemie üblich: Essigsäure besteht aus Molekülen, das Anion der Säure wird Acetat-Ion genannt. Ein Sonderfall ist die Massenspektrometrie, bei der der Begriff "Molekül-Ion" verwendet wird. Im engen Sinn werden mehratomige Radikale nicht Moleküle genannt, da diese Teilchen chemisch nicht abgesättigt sind. Es ist genügend und eindeutig, sie Radikale zu nennen. Besonders in der organischen Chemie sind sie hochreaktive Zwischenprodukte in bestimmten chemischen Reaktionen. Es gibt jedoch auch stabile Radikale, wie Stickstoffmonoxid oder TEMPO. Hier führen zwischenmolekulare Kräfte zu physikalischen Eigenschaften der Verbindungen und diese Verbindungen können als molekular betrachtet werden. Darstellungsweisen. Es gibt verschiedene Möglichkeiten, Moleküle darzustellen. Grundsätzlich kann dabei zwischen Formelschreibweisen, zweidimensionalen Schemata (sog. Strukturformeln) und dreidimensionalen Modellen (sog. Stereoformeln) unterschieden werden. Summenformeln haben den niedrigsten, Stereoformeln den höchsten Informationsgehalt. Um von abstrahierten Schreibweisen auf die tatsächliche Anordnung schliessen zu können, sollte man sich bewusst sein, dass die kovalenten Bindungen ungefähr in Form eines Tetraeders angeordnet sind. (siehe Kovalente Bindungen; Räumliche Ausrichtung) Gebräuchliche räumliche Molekülmodelle sind das Kalottenmodell und Stäbchenmodell. Main-Taunus-Kreis. Der Main-Taunus-Kreis ist ein Landkreis im Regierungsbezirk Darmstadt in Hessen. Die Kreisstadt und zugleich größte Stadt ist Hofheim am Taunus, bis 1987 befand sich der Sitz der Kreisverwaltung in Frankfurt-Höchst, welches selbst aber zu Frankfurt am Main gehört. Der flächenmäßig kleinste und der am zweitdichtesten besiedelte Landkreis Deutschlands liegt im Kern des Rhein-Main-Gebiets im westlichen Vorortbereich von Frankfurt am Main bzw. östlich der hessischen Landeshauptstadt Wiesbaden und nordöstlich der rheinland-pfälzischen Landeshauptstadt Mainz. Bekannt ist der Main-Taunus-Kreis für seine Immobilien mit gehobenem Mietniveau und für den vierthöchsten Kaufkraftindex aller Landkreise in der Bundesrepublik Deutschland. 2014 betrug der Kaufkraftindex 138 Prozent des Bundesdurchschnitts bzw. 29.178 Euro je Einwohner. Der benachbarte Hochtaunuskreis verfügt bei einem Kaufkraftindex von 146 Prozent über das zweithöchste Pro-Kopf-Einkommen in Deutschland. Lage. Städte und Gemeinden des Main-Taunus-Kreises Das Kreisgebiet erstreckt sich vom Main (rund) bis hinauf zum Hohen Taunus. Der höchste Berg des Kreises ist der Eichkopf () bei Kelkheim-Ruppertshain, bis zur Gebietsreform in Hessen 1972 gehörte der höchste Berg des Taunus, der Große Feldberg (), zum Kreisgebiet. Außer den bewaldeten Taunusbergen prägen Streuobstwiesen, Bachauen und einige landwirtschaftlich genutzte Flächen den unbebauten Teil der Landschaft, Siedlungsflächen und Verkehrswege dominieren jedoch im größten Teil des Kreises das Landschaftsbild. Mit Ausnahme der drei Städte am Main zählen alle Kreisgemeinden zum Vordertaunus, der sich von Hofheim bis Friedrichsdorf ziehenden Bandstadt westlich und nordwestlich von Frankfurt, die Teil des sogenannten Frankfurter „Speckgürtels“ ist. Vor allem der östliche Teil des Kreises ist für einen Landkreis extrem dicht besiedelt und gehört zum suburbanen (Vorort-) Bereich der Stadtregion Frankfurt. Es gibt in Deutschland nur wenige ähnlich großstädtisch geprägte Landkreise, etwa die Kreise Recklinghausen, Mettmann und Ennepe-Ruhr im Raum Rhein-Ruhr, den Landkreis München oder den Landkreis Offenbach südlich von Frankfurt. Mit über 1000 Einwohnern pro Quadratkilometer ist der Main-Taunus-Kreis der Landkreis mit der zweithöchsten Bevölkerungsdichte in der Bundesrepublik. Bemerkenswerte Parallelen ergibt ein Vergleich des Main-Taunus-Kreises mit der benachbarten Landeshauptstadt Wiesbaden. Er hat etwas weniger an Fläche und etwas weniger an Einwohnern, und die Bevölkerungsdichte des Kreises ist auch nur etwas geringer als in Wiesbaden. Aufgrund seiner überwiegend der bürgerlichen Mittelschicht angehörenden Bevölkerung gehört der Main-Taunus-Kreis zu den wohlhabendsten Regionen der Bundesrepublik und nimmt, je nach Indikator und Jahr, gelegentlich den bundesweiten Spitzenplatz ein. Die höchste Kaufkraft im Main-Taunus-Kreis besitzen die Bewohner in Bad Soden. Eppstein, Hofheim, Flörsheim und Hochheim sind alte Städte mit gut erhaltenen Altstadtkernen. Die ergiebigen Böden sorgten auch in vorindustrieller Zeit bereits für ein relativ hohes Niveau an Wohlstand und Bevölkerungsdichte, wovon alte Dorfkerne, Kirchen und Höfe Zeugnis ablegen. Nachbarkreise. Der Main-Taunus-Kreis grenzte im Uhrzeigersinn im Norden beginnend an den ähnlich strukturierten Hochtaunuskreis, an die kreisfreie Stadt Frankfurt am Main, an den industriell geprägten Kreis Groß-Gerau, an die kreisfreie Landeshauptstadt Wiesbaden und an den Rheingau-Taunus-Kreis. Geschichte. Das ehemalige Kreishaus in Frankfurt-Höchst Das Kreisgebiet gehörte im Mittelalter teilweise zu Eppstein, teilweise zu Kurmainz, seit 1803 zu Nassau-Usingen und seit 1806 zum Herzogtum Nassau und seit der preußischen Annexion 1866 zur Provinz Hessen-Nassau. Die Gemeinden zwischen Wiesbaden und Frankfurt wurden dabei – unter Beibehaltung der vorhandenen Einteilung in die Ämter Hochheim, Höchst, Idstein und Königstein – zunächst dem Mainkreis mit Sitz in Wiesbaden zugeordnet (Ämter Hochheim und Höchst), die Gemeinden im Amt Königstein dem Obertaunuskreis und das Amt Idstein dem Untertaunuskreis. Mit Inkrafttreten einer neuen hessen-nassauischen Landkreisordnung zum 1. April 1886 wurde die Provinz in neue, kleinere Kreise eingeteilt und die Ämter aufgelöst. Anstelle des Mainkreises entstanden deshalb die Landkreise Höchst und Wiesbaden. Durch das Bevölkerungswachstum der Städte Frankfurt und Wiesbaden und ihres Umlandes wurde zum 1. April 1928 eine kommunale Neugliederung der Region notwendig. Etliche Gemeinden der Landkreise Höchst und Wiesbaden, darunter die Stadt Höchst, wurden in die benachbarten Großstädte eingegliedert. Beide Landkreise verloren den größten Teil ihrer Einwohner. Die verbleibenden Gemeinden beider Kreise sowie einige Gemeinden aus den Kreisen Obertaunus, Usingen und Untertaunus wurden zu einem neuen Landkreis mit dem Namen "Main-Taunus-Kreis" zusammengeschlossen. Der Kreis umfasste bei seiner Gründung 49 Städte und Gemeinden. Die Zahl sank 1938 durch Eingemeindungen nach Kelkheim und Hofheim auf 46. Auf einer Karte des Main-Taunus-Kreises aus dem Jahr 1951 sind die sechs Städte und die 40 Landgemeinden mit Einwohnerzahl nachgewiesen. 1945 wechselte das Kreisgebiet erneut die Landeszugehörigkeit und wurde Teil des Landes Hessen. Bei der Gebietsreform in Hessen 1972–1977 wurde der Kreis sowohl an seinen Außengrenzen als auch in seiner Gemeindegliederung stark verändert. Zum 31. Dezember 1971, dem letzten Termin der von der Landesregierung durch erhöhte Schlüsselzuweisungen geförderten „Freiwilligkeitsphase“, ließen sich neun Kreisgemeinden an die Städte Hofheim, Flörsheim, Hattersheim und Eschborn anschließen. Durch Fusion von jeweils zwei Nachbardörfern entstanden außerdem die drei neuen Gemeinden Reifenberg (aus Niederreifenberg und Oberreifenberg), Liederbach am Taunus (aus Oberliederbach und Niederhofheim) sowie Rossert (aus Eppenhain und Ruppertshain). Die Gemeinden, die zu einem freiwilligen Zusammenschluss nicht bereit waren, wurden zum 1. Januar 1977 durch ein Landesgesetz benachbarten Städten zugeteilt. Dies betraf zehn alte Gemeinden sowie die erst fünf Jahre alte Gemeinde Rossert, die mit rund 2500 Einwohnern die geforderte Mindestgröße nicht erreichte. Die während der Beratungsphase als fest beschlossenen Eingemeindungen von Sulzbach nach Bad Soden und von Kriftel nach Hofheim wurden, unter bis heute nicht eindeutig geklärten Umständen, kurz vor dem Landtagsbeschluss aus dem Gesetzentwurf gestrichen. Die Vertreter der beiden Gemeinden hatten sich zuvor vehement für den Erhalt ihrer Eigenständigkeit eingesetzt. Seit dem Abschluss der Gebietsreform hat der Main-Taunus-Kreis zwölf Kommunen, davon neun Städte. Kreisstadt und Verwaltungssitz war ab 1928 der Frankfurter Stadtteil Höchst. Mit Wirkung vom 1. Januar 1980 wurde Hofheim am Taunus durch Gesetz zum Sitz der Kreisverwaltung bestimmt, doch wurde diese erst 1987 mit der Fertigstellung des neuen Kreishauses nach Hofheim verlegt. Im Februar 2004 thematisierte der damalige Landrat Jürgen Banzer (CDU) des benachbarten Hochtaunuskreises eine mögliche Fusion des Hochtaunuskreises mit dem ähnlich strukturierten Main-Taunus-Kreis. Mit einer Zusammenlegung beider Landkreise könnten Einsparungen von 18 bis 20 Millionen Euro jährlich erzielt werden. Der Landkreis Main-Taunus rief am 9. Oktober 2015 wegen der kurzfristigen Aufnahme von bis zu 1000 Asylanten den Katastrophenfall aus. Nach Angaben von Landrat Michael Cyriax ist es das erste Mal seit dem Jahr 1945, dass im Kreis der Katastrophenfall festgestellt wurde. Nach Meinung des hessischen Innenministeriums war dieser Schritt nicht nötig, dem Kreis ständen auch ohne die Ausrufung alle Mittel des Landes zur Verfügung. Kreistag. Dem Kreistag des Main-Taunus-Kreises gehören 81 Mitglieder an. Nach der Kommunalwahl konnte die Koalition aus CDU und FDP nicht fortgesetzt werden, da diese keine Mehrheit im Kreistag hatte. Daher wurde die Koalition um die FWG erweitert, so dass nun CDU, FDP und FWG eine Koalition im Kreistag geschlossen haben. Im Januar 2014 traten zwei Kreistagsabgeordnete aus der Fraktion der Grünen zur Wählergemeinschaft Die Linke über. Hintergrund war die Bildung einer schwarz-grünen Landesregierung in Hessen. Kreisausschuss. Logo der Kreisverwaltung des Main-Taunus-Kreises Der Kreisausschuss besteht aus dem Landrat und 15 vom Kreistag gewählten Beigeordneten. An der Spitze steht seit 2011 Landrat Michael Cyriax (CDU). Weitere hauptamtliche Dezernenten sind der Erste Kreisbeigeordnete Wolfgang Kollmeier (CDU) und der Kreisbeigeordnete Johannes Baron (FDP). Von den 13 ehrenamtlichen Kreisbeigeordneten gehören 5 der CDU, jeweils 3 der SPD und den Grünen sowie je einer der FDP und der FWG an. Kreispartnerschaften. Der Main-Taunus-Kreis unterhält seit 1979 (offiziell seit 1992) eine Partnerschaft mit dem englischen Metropolitan Borough of Solihull in der Region West Midlands. 2006 kam eine weitere Partnerschaft mit dem Loudoun County im US-amerikanischen Bundesstaat Virginia hinzu. Wirtschaft. Wirtschaftlich profitiert der Main-Taunus-Kreis von seiner zentralen Lage und seinem suburbanen Charakter. Vor allem das Dienstleistungsgewerbe (tertiärer Sektor) bestimmt die Wirtschaft des Kreises. Vorstadtgemeinden im Osten des Kreisgebietes bewegen durch niedrigere Gewerbesteuersätze Unternehmen aus Frankfurt zur Umsiedlung auf ihr Stadtgebiet. Eschborn wurde auf diese Weise Sitz bedeutender Unternehmen, insbesondere von Teilen der Deutsche Bank AG, der Deutsche Börse AG und von Vodafone. Auch Schwalbach, Sulzbach, Bad Soden und Kriftel profitieren in erheblichem Maße von der Gewerbesuburbanisierung. In Sulzbach befindet sich das Main-Taunus-Zentrum (MTZ), das älteste und bis heute eines der größten Einkaufszentren Deutschlands. In Eschborn und Hofheim-Wallau befinden sich zwei große Agglomerationen von Fach- und Großmärkten, die, wie auch das Main-Taunus-Zentrum, hervorragend an das Autobahnnetz, jedoch in nur bescheidener Form an den öffentlichen Personennahverkehr angeschlossen sind. In geringerem Maße besaß und besitzt der Kreis auch Industriebetriebe. Sarotti in Hattersheim ist stillgelegt und zum Teil abgerissen; das neuerbaute "Sarotti-Center", ein Nahversorgungs-Einkaufszentrum, erinnert im Namen daran. In Kelkheim steht eine mittelständische Möbelindustrie. Unmittelbar jenseits der Kreisgrenzen, in Frankfurt-Höchst, Rüsselsheim am Main und den rechtsrheinischen Mainzer Vororten befinden sich weitere große Industrieunternehmen, von denen die Adam Opel AG in Rüsselsheim am Main das größte ist. Trotz der soliden wirtschaftlichen Grundlage sind die meisten Städte des Kreises Pendlerwohngemeinden, zehntausende Arbeitnehmer fahren täglich nach Frankfurt zur Arbeit, viele weitere nach Wiesbaden, Mainz oder andere Städte der Region. Land- und Forstwirtschaft spielen eine zunehmend geringere Rolle. Die Landwirtschaft ist von Streuobstwiesen geprägt, die zur Produktion des bekannten Apfelweins beitragen. Die bekannteste Obstbaugemeinde im Kreis ist Kriftel. In Hochheim und Flörsheim-Wicker wird Wein angebaut, beide Orte zählen zum Weinbaugebiet Rheingau. Verkehr. Der Kreis liegt im Zentrum einer Großstadtregion und wird von zahlreichen Verkehrswegen von teilweise internationaler Bedeutung durchzogen. Straßenverkehr. Für den Kreis selbst und die Region Wiesbaden-Frankfurt bildet die ursprünglich als "Rhein-Main-Schnellweg" bekannte Autobahn A 66 die Hauptverkehrsader. Sie durchzieht das Kreisgebiet in Ost-West-Richtung und verbindet es mit den beiden benachbarten Großstädten und mit Mainz. Über das Wiesbadener Kreuz, das "Westkreuz Frankfurt" und das "Nordwestkreuz Frankfurt" ist die A 66 mit der A 3 und der A 5 verknüpft. Damit bestehen schnelle Verbindungen zum Frankfurter Flughafen einerseits und andererseits über das Bundesfernstraßennetz in alle Himmelsrichtungen. Außer dem Wiesbadener Kreuz bei Hofheim-Wallau hat die Autobahn A 3 auf Kreisgebiet keine Anschlussstelle. Sie verläuft an der Westgrenze und im Süden des Kreises und verbindet die Ballungsräume in Holland und Rhein-Ruhr mit Frankfurt und dem Südosten Mitteleuropas. Die B 40 verknüpft die A 66 über die A 671 und die Theodor-Heuss-Brücke mit Mainz und vom Krifteler Dreieck aus über die Sindlinger Mainbrücke mit Kelsterbach, dem Frankfurter Flughafen und den südlichen Frankfurter Stadtteilen. Die A 671 ist Teil des Mainzer Autobahnrings und für die Stadt Hochheim von großer Bedeutung. Die autobahnähnlich ausgebaute B 8 verbindet die A 66 und Frankfurt-Höchst mit Bad Soden, Kelkheim und Königstein im Taunus. Auch die Bundesstraßen B 455 (Wiesbaden–Königstein) und B 519 (Königstein–Rüsselsheim am Main) führen durchs Kreisgebiet. Schienenverkehr. Insgesamt sieben Eisenbahnstrecken führen durch den kleinen Main-Taunus-Kreis. Alle zwölf Gemeinden haben Schienenanschluss. Die überregional wichtigste Schienenstrecke, allerdings ohne Haltebahnhof im Kreisgebiet, ist die im Jahr 2002 in Betrieb genommene Main, die Frankfurt und Köln in rund einer Stunde miteinander verbindet. Sie verläuft weitgehend parallel zur Autobahn A 3 in Form einer Verkehrswegebündelung (und überbietet die dort gefahrenen Geschwindigkeiten oft um das Dreifache). Bei Hofheim-Wallau zweigt eine nach Wiesbaden führende Nebenlinie der Schnellfahrstrecke von der Hauptstrecke ab. Außerdem steht ein dichtes Omnibusnetz zur Verfügung. In der Kreisstadt Hofheim hat der Rhein-Main-Verkehrsverbund (RMV) seinen Sitz. Der Bau einer Ringbahn, die wichtige westliche Vororte untereinander verknüpfen und die Umsteigeknoten in der Frankfurter Innenstadt entlasten soll, ist seit Mitte der 1990er-Jahre geplant, mit dem Bau könnte in den nächsten Jahren begonnen werden: Die Regionaltangente West soll unter anderem die Stadt Eschborn mit Frankfurt-Höchst und dem Flughafen Frankfurt verbinden. Luftverkehr. Der internationale Flughafen Frankfurt am Main liegt nur wenige Kilometer außerhalb des Kreisgebietes und ist in wenigen Minuten erreichbar. In Hattersheim und Kriftel haben sich deshalb flughafenbezogene Unternehmen angesiedelt. Der Kreis trägt jedoch nicht nur die Vorteile der Flughafennähe: Viele Städte im Kreisgebiet sind von Fluglärm betroffen. Das Ausmaß des Lärms wird vom Deutschen Fluglärmdienst e. V. erfasst und langfristig dokumentiert, der seinen Sitz in Eppstein hat. Der Flugplatz Wiesbaden-Erbenheim liegt rund einen Kilometer westlich der Kreisgrenze und war in den 80er Jahren als möglicher Satellitenflughafen für Rhein-Main Gegenstand konkreter Ausbauplanungen. Der Flugplatz wird jedoch weiterhin von der amerikanischen Luftwaffe genutzt, die eine zivile Umnutzung nicht gestattet. Der Flughafen Frankfurt-Hahn im Land Rheinland-Pfalz liegt etwa 100 Kilometer westlich vom Main-Taunus-Kreis. Binnenschifffahrt. Im Main-Taunus-Kreis gibt es nur einen größeren Binnenhafen, in Flörsheim-Keramag. In der unmittelbaren Umgebung bestehen jedoch weitere Häfen, so im Industriepark Höchst, in Kelsterbach, im Raunheimer Industriegebiet Caltex/Ticona, im Rüsselsheimer Opelwerk und in Mainz-Kostheim (Ortsbezirk von Wiesbaden). Im Kreisgebiet liegen zwei mit Schleusen ausgestattete Staustufen im Main: die Staustufen Eddersheim und Ginsheim-Gustavsburg. Städte und Gemeinden. Der Main-Taunus-Kreis zählt zwölf Städte und Gemeinden. Eine Besonderheit ist, dass neun von ihnen amtliche Zusätze wie „am Taunus“ bzw. „am Main“ führen – somit sind diese Zusätze verbindlicher Bestandteil der Städte- bzw. Gemeindenamen und stets (ohne Abkürzung) auszuschreiben. Kfz-Kennzeichen. Am 1. Juli 1956 wurde dem Landkreis das Unterscheidungszeichen "FH" zugewiesen. Es verwies auf den damaligen Sitz der Kreisverwaltung im Frankfurter Stadtteil Höchst. Am 15. Januar 1980 erhielt der Landkreis das neue vom Kreisnamen abgeleitete Unterscheidungszeichen "MTK". Sonstiges. Krankenhäuser befinden sich in Hofheim, Bad Soden und Flörsheim. Das Marienkrankenhaus in Flörsheim ist ein reines Belegkrankenhaus, Notaufnahmen befinden sich somit nur in Bad Soden und Hofheim. Im Kreis gibt es 55 öffentliche und sechs private Schulen. Sieben Schulen führen bis zum Abitur, fünf sind Sonderschulen, drei sind Berufsschulen. Der Kreis zählt 119 Kindertagesstätten, 83 Sporthallen, 40 Sportplätze, sechs Frei- und fünf Hallenbäder. Außerdem ist der Main-Taunus-Kreis der einzige Landkreis in Hessen, in dem zurzeit die einheitliche Behördenrufnummer "115" geschaltet ist. Landkreis Marburg-Biedenkopf. Der Landkreis Marburg-Biedenkopf liegt im Regierungsbezirk Gießen in Mittelhessen. Er ist geprägt durch eine Mittelgebirgslandschaft mit großen Wäldern und den Fluss Lahn, welcher den Kreis von Westen nach Südosten durchzieht. Zentrum des Landkreises und deren einziges Oberzentrum ist die Universitätsstadt Marburg mit gut 70.000 Einwohnern. Weitere wichtige Städte (Mittelzentren) sind die ehemalige Kreisstadt Biedenkopf und Gladenbach, die beide im Westen des Kreises, im hessischen Hinterland liegen, sowie Kirchhain und der Wirtschaftsstandort Stadtallendorf im Ostkreis (Altkreis Kirchhain). Lage. Der Landkreis liegt im Norden des Regierungsbezirks Gießen. Kreisstadt ist das Oberzentrum Marburg. Das Kreisgebiet ist in seiner größten West-Ost-Ausdehnung etwa 76 Kilometer breit, in Nord-Süd-Richtung etwa 36 Kilometer. Höchster Berg ist mit 674 m die Sackpfeife im äußersten (Nord-)Westen bei Biedenkopf. Höchster Punkt ist dabei die Spitze des 210 m hohen Funkmastes des Senders Biedenkopf, was addiert mit der Höhenlage des Standortes eine Höhe von 868 m ergibt. Niedrigster Punkt mit etwa 168 m ist die Lahnaue zwischen Fronhausen und Sichertshausen im Süden des Kreises an der Grenze zum Landkreis Gießen. Flächennutzung. Die Fläche des Landkreises lässt sich folgendermaßen aufgliedern. 14,3 % oder 17.996 ha sind Siedlungs- und Verkehrsflächen, 55.489 ha oder 43,9 % der Fläche sind landwirtschaftlich genutzt. Die Waldfläche beträgt 51.582 ha oder 40,9 %, 1.189 ha oder 0,9 % sind Gewässer. Nachbarkreise. Der Landkreis grenzt im Uhrzeigersinn im Norden beginnend an die Landkreise Waldeck-Frankenberg, Schwalm-Eder-Kreis, Vogelsbergkreis, Gießen und Lahn-Dill-Kreis (alle in Hessen) sowie an den Kreis Siegen-Wittgenstein (in Nordrhein-Westfalen). Naturräumliche Gliederung. Das Kreisgebiet liegt an der Nahtstelle dreier Mittelgebirgs-Großlandschaften. Eine in Nord-Süd-Richtung verlaufende Talsenke, die sich vom Norden des Landkreises über die Wetschaft-Senke (Münchhausen, Wetter, Lahntal) zieht, nach dem Überqueren des Lahn-Oberlaufes in die Elnhausen-Michelbacher Senke (westliche Marburger Ortsteile) übergeht und schließlich im Süden des Kreisgebietes (Weimar und Fronhausen) das Gießener Becken und damit wieder das Tal der Lahn trifft und darin seine Verlängerung findet, trennt die Ausläufer des Rheinischen Schiefergebirges im Westen von den Landschaften des Westhessisches Berg- und Senkenlandes (Haupteinheitengruppe 34) im Osten. Das Obere Lahntal westlich Sterzhausens wiederum teilt in Ost-West-Richtung die Rheinischen Schiefergebirgs-Ausläufer in die des Rothaargebirges (Haupteinheitengruppe 33 – Süderbergland) im Nordwesten und die des (naturräumlichen) Westerwaldes (32) im Westen und Südwesten des Kreisgebietes. Die bis 674 m hohen Ausläufer des Rothaargebirges (Sackpfeife nebst Vorhöhen) nehmen im Nordwesten nur kleinere Teile des Landkreises ein. Bottenhorner Hochflächen, i.M. 490 m ü. NN, hinter Bottenhorn der Sendeturm des Senders "Angelburg" Das naturräumlich zum Westerwald gezählte, im Landkreis bis 578 m hohe Gladenbacher Bergland nimmt demgegenüber fast die gesamte westliche Hälfte des Kreises ein. Während der Nordosten vom Kuppenland der Damshäuser Kuppen um den 498 m hohen Rimberg geprägt ist, wird der Westen vom (knapp jenseits der Kreisgrenze) an der Angelburg bis 609 m hohen Plateau der Bottenhorner Hochflächen dominiert, das nach Norden in den Breidenbacher Grund allmählich zum Lahntal hin abflacht und nach Süden in den etwas weniger hohen Zollbuche-Höhenzug (bis 487 m) übergeht. Das letztgenannte Teilgebirge wird nach Osten hin umrahmt vom reliefarmen Hügelland des Salzbödetals, das nach Osten bis an die Lahn reicht. In der zum Westhessischen Bergland gezählten Osthälfte des Landkreises werden in den größtenteils aus Buntsandstein bestehenden Rücken nur Höhen von um 400 m bei einer Reliefenergie von etwa 200 m erreicht. Hierzu gehören neben den das Lahntal begrenzenden Höhenzügen von Marburger Rücken und Lahnbergen auch der Burgwald im Norden, die Oberhessische Schwelle mit dem "Neustädter Sattel" im Osten und das basalthaltige Lumda-Plateau im Süden. Alle genannten Höhenzüge (bis auf den Marburger Rücken) rahmen im Uhrzeigersinn die große und gänzlich unbewaldete Talsenke des Amöneburger Beckens mit dem markanten Basaltkegel der Amöneburg als einziger nennenswerter Erhebung ein. Berge. Die als Ausflugsziele und Aussichtspunkte wichtigsten Berge des Landkreises sind die 674 m hohe Sackpfeife in den Rothaargebirgs-Ausläufern nördlich von Biedenkopf, der 498 m hohe Rimberg im Kuppenland nahe Dautphetal-Damshausen, die 538,7 m hohe "Scheid" (1 km östlich von Bottenhorn), das zur Zollbuche (Naturraum) zählende 498 m hohe "Schönscheid" südwestlich von Bad Endbach, die 454 m hohe Koppe an der östlichen Zollbuche bei Gladenbach-Erdhausen, der 387 m hohe Christenberg und Burg Mellnau im westlichen Burgwald unweit Wetters, der 380 m hohe Burgholz nördlich Kirchhains an der Oberhessischen Schwelle, die 365 m hohe, im Amöneburger Becken singuläre Amöneburg sowie der 380 m hohe "Ortenberg" mit dem Spiegelslustturm und der 370 m hohe Frauenberg auf den Lahnbergen nah Marburg. Gewässer. Von den vielen Gewässern des Landkreises ist die Lahn mit einer Gesamtlänge von 242 km das mit Abstand größte Gewässer. Sie durchfließt den Kreis von Westen her bis etwa zur Mitte des Kreisgebietes, um sich bei Marburg nach Süden zu wenden und bei Sichertshausen das Kreisgebiet zu verlassen. Fast alle weiteren Gewässer fließen in die Lahn und gehören damit zum Rheineinzugsgebiet. Eine Ausnahme bildet der durch den Neustädter Sattel abgetrennte nordöstlichste Teil. Der Neustädter Sattel gehört zur Rhein-Weser-Wasserscheide, weswegen die jenseits befindlichen Orte des Landkreises – welches genau die Ortsteile von Neustadt sind – zum Wesereinzugsgebiet gehören. Einziger erwähnenswerter Fluss ist hierbei die Wiera, die von links in die Schwalm, dem wichtigsten Nebenfluss der Eder, mündet. Im Nordwesten des Kreisgebietes in der Nähe der Sackpfeife bildet die Wasserscheide zur Eder genau die Kreisgrenze, im Norden an der Wetschaft-Senke verläuft die Wasserscheide grenznah, jedoch ausschließlich jenseitig. Im Westen verläuft die Kreisgrenze entlang der Wasserscheide zwischen Lahn und Dill und damit größtenteils der historischen Grenze zwischen dem ehemaligen Herzogtum Nassau und dem Großherzogtum Hessen-Darmstadt folgend. Zwischen Kirchhain und Marburg bietet das Rückhaltebecken des größten Lahn-Zuflusses Ohm der Stadt Marburg bisher zuverlässigen Hochwasserschutz, im Westen hält der Perfstausee bei Biedenkopf bei Bedarf größere Wassermassen zurück. Zusätzlich sind im Bereich der oberen Lahn zum Beispiel zwischen Lahntal-Caldern und Lahntal-Sterzhausen im Rahmen eines Forschungsprojektes Maßnahmen zur Renaturierung und zum vorbeugenden Hochwasserschutz umgesetzt worden. Klima. Die Jahresmittel der Niederschläge betragen im Raum Marburg etwa 600–700 mm, im gebirgigeren Westteil des Landkreises 850–1000 mm. Geschichte. Im Rahmen der hessischen Kreisreform wurden am 1. Juli 1974 die beiden Landkreise Marburg und Biedenkopf zusammen mit der kreisfreien Stadt Marburg zum neuen „Landkreis Marburg-Biedenkopf“ verschmolzen. Die Stadt Marburg wurde dabei, um ihre 18 (äußeren) Stadtteile vergrößert, eine der sieben Sonderstatusstädte in Hessen. Mit der Zusammenlegung wurden zwei 350 Jahre getrennte Verwaltungsgebiete wieder vereinigt, die aus historischer Sicht zusammengehören. Auch naturräumlich sind der ehemalige Landkreis Marburg und der Landkreis Biedenkopf als zusammengehörig anzusehen. Der Raum Marburg-Biedenkopf war ehemals die trachtenreichste Region Deutschlands (z.B. Hinterländer Trachten, Marburger Trachten). Geschichte vor 1974. Das heutige Kreisgebiet gehörte im Laufe der Geschichte überwiegend zur Landgrafschaft Hessen, einige Gebiete auch zum erzbischöflichen Kurfürstentum Mainz. Bei der hessischen Landesteilung kam der Raum Marburg zu Hessen-Kassel, das sog. Hinterland (die Ämter Battenberg, Blankenstein, Biedenkopf, Hatzfeld und Vöhl) zu Hessen-Darmstadt. Das kurmainzische Amöneburg kam erst 1803 zu Hessen-Kassel. 1821 bildete das Kurfürstentum Hessen-Kassel die Landkreise Marburg und Kirchhain. Im Großherzogtum Hessen (Darmstadt) entstanden die Landratsbezirke Battenberg (mit Biedenkopf) und Gladenbach, welche 1832 zum Landkreis Biedenkopf vereinigt wurden. Im Jahr 1866 annektierte Preußen das Kurfürstentum Hessen und das Herzogtum Nassau, die es zur Provinz Hessen-Nassau zusammenschloss. Gleichzeitig erhielt Preußen vom Großherzogtum Hessen den Landkreis Biedenkopf, so dass alle drei Landkreise Bestandteil der Provinz Hessen-Nassau wurden. 1929 schied die Stadt Marburg in den Grenzen der heutigen Kernstadt (jedoch noch ohne Ockershausen, welches 1931 eingemeindet wurde) aus dem Landkreis Marburg aus und wurde kreisfrei. Drei Jahre später, 1932, wurde der Kreis Kirchhain mit dem Kreis Marburg vereinigt, ferner wurde der Kreis Biedenkopf neu gegliedert. Er verlor rund 40 % seines Gebietes, an den Landkreis Frankenberg und an den Kreis Wetzlar, der gleichzeitig von der Rheinprovinz in die Provinz Hessen-Nassau umgegliedert wurde. Bevölkerung. Nach Angaben des Hessischen Statistischen Landesamtes lebten im Landkreis Marburg-Biedenkopf am 30. September 2008 251.159 Menschen. Damit hält der leichte Bevölkerungsrückgang, der etwa 2003 begonnen hat, weiterhin an. Der neu gebildete Landkreis hatte am 1. Juli 1974 232.632 Einwohner. Religionen. Die älteste noch bestehende Glaubensgemeinschaft im Landkreis ist die römisch-katholische Kirche. Durch iro-schottische Mönche im siebenten und durch Bonifatius und seine Schüler zu Beginn des achten Jahrhunderts kam der christliche Glaube in den östlichen Teil des heutigen Landkreis durch die Kirchen bei Amöneburg. Im westlichen Teil war eine Taufkapelle in Breidenbach, die bereits in der bonifatischen Zeit bestanden haben soll, Ausgangspunkt für die Christianisierung. In der Folge entstanden viele Kirchen und Klöster, aus denen sich oft kleine Ortschaften entwickelten. Nach der Reformation 1524 wurde von Landgraf Philipp ein Bekenntniswechsel gefordert, wodurch das Gebiet fast ausnahmslos evangelisch-lutherisch geprägt wurde. Lediglich ein Teil des Ostkreises, neben dem heutigen Dekanat Amöneburg auch drei der vier Marburger Stadtteile jenseits der Lahnberge, als vorreformatorisch zum Erzbistum Mainz zugehörig, ist stark katholisch geprägt. Historisch gehört auch die Enklave Katzenberg hierzu, die bis 1866 dem Landkreis Kirchhain angehörte und inzwischen in der Gemeinde Antrifttal im benachbarten Vogelsbergkreis aufgegangen ist. Juden wurden auf dem Gebiet des heutigen Landkreises 1273 erstmals in Amöneburg erwähnt. Während der Pestjahre um 1350 sowie nach Ausweisungsverfügungen 1524 und 1662 wurden viele Juden gezwungen, das Gebiet zu verlassen oder einen Bekenntniswechsel vorzunehmen. Bis vor der Machtübernahme der Nationalsozialisten lebten etwa 1400 Juden im Gebiet des heutigen Landkreises. Nach 1933 sank die Zahl der Juden im Landkreis durch Wegzug, Emigration und Deportation gegen null. Nachdem kurz nach dem Ende des Zweiten Weltkrieges zeitweise wieder etwa 250 Juden im heutigen Kreisgebiet lebten, sank die Zahl in den 1970er Jahren auf 20, und stieg seither wieder an auf etwa 100 Mitglieder in der Jüdischen Gemeinde Marburg. Der weitaus größte Teil der Bevölkerung im Landkreis ist heute evangelisch geprägt. Die beiden größten Gruppen innerhalb wiederum sind die Evangelische Kirche von Kurhessen-Waldeck mit den Kirchenkreisen Kirchhain, Marburg-Land und Marburg-Stadt im Sprengel Waldeck und Marburg und die Evangelische Kirche in Hessen und Nassau mit den Dekanaten Biedenkopf und Gladenbach in der Propstei Nord-Nassau. Die Evangelische Kirche gibt es im Kreis bereits seit ihren Anfängen, da Landgraf Philipp nach der Homberger Synode 1526 den protestantischen Glauben in der Landgrafschaft einführte. Verwaltung und Politik. Die Kreisverwaltung des Landkreises Marburg-Biedenkopf in Marburg-Cappel, Im Lichtenholz 60 Zur Verwaltung des Landkreises ist in Marburg-Cappel das Landratsamt als Behörde eingerichtet. Daneben sind in der ehemaligen Kreisstadt Biedenkopf und in Stadtallendorf Außenstellen des Landkreises eingerichtet. Das Landratsamt nimmt zum einen kommunale Aufgaben, aber auch Aufgaben als "untere staatliche Verwaltungsbehörde" wahr. Der Kreisausschuss ist das Selbstverwaltungsorgan des Landkreises. Er bereitet außerdem Beschlüsse für den Kreistag vor und bildet Kommissionen zur Erledigung bestimmter Aufgaben. Der Kreisausschuss besteht aus 15 ehrenamtlichen Kreisbeigeordneten, die aus der Mitte des Kreistages gewählt werden, sowie zwei hauptamtlichen Mitgliedern. Dies sind der Landrat und der Erste Kreisbeigeordnete. Während der Erste Kreisbeigeordnete ebenfalls durch den Kreistag gewählt wird, wird der Landrat direkt von den im Kreisgebiet ansässigen Bürgern gewählt. Dem Landrat und dem Ersten Kreisbeigeordneten ist jeweils ein Dezernat zugeteilt. Diese bestehen aus verschiedenen Fachbereichen, Stabsstellen, Eigenbetrieben und Zweckverbänden. Kreistag. Der Kreistag ist die kommunale Volksvertretung auf der Ebene der Landkreise. Vorsitzender des Kreistages Marburg-Biedenkopf ist seit Mai 2011 Detlef Ruffert (SPD). Im Landkreis regierte von 2001 bis 2011 eine Jamaika-Koalition aus CDU, Die Grünen und FDP mit Unterstützung der Freien Wähler. Sie gehörte zu den ersten Koalitionen dieser Art überhaupt in Deutschland. Nach der Kommunalwahl 2011 hat die FDP die Koalition verlassen, so dass seit dieser Zeit eine CDU/Bündnis90/DIE GRÜNEN/Freie Wähler-Koalition den Kreis regiert. Sitzverteilung im Landkreis Marburg-Biedenkopf nach der Kommunalwahl 2011 Landrat. Landrätin des Landkreises Marburg-Biedenkopf ist seit dem 1. Februar 2014 Kirsten Fründt. Sie gewann am 22. September 2013 in der Stichwahl gegen Marian Zachow (CDU) mit 60,6 % der Stimmen. Die Wahlbeteiligung betrug 64,0 %. Seit der Entstehung des Landkreises Marburg-Biedenkopf gab es fünf Landräte. 1974 übernahm der Landrat des ehemaligen Kreises Marburg, Burghard Vilmar (SPD), kommissarisch die Aufgabe im neu geschaffenen Kreis, bevor Siegfried Sorge von der Freien Wählergemeinschaft das Amt im Januar 1975 übernahm. Nachfolger wurde im Juni 1981 Christean Wagner (CDU), der bis Juli 1985 im Amt war. Danach leitete Kurt Kliem elf Jahre lang die Geschicke des Landkreises, der dann 1996 von Robert Fischbach als ersten direkt gewählten Kandidaten abgelöst wurde. Im September 2007 wurde Landrat Robert Fischbach im ersten Wahlgang für die dritte Amtszeit bis ins Jahr 2014 wiedergewählt. Er wurde von Kirsten Fründt abgelöst. Wappen. In Blau der golden gekrönte und bewehrte, zehnmal von Silber und Rot geteilte hessische Löwe, der in seinen Pranken einen silbernen Schild mit durchgehendem schwarzem Kreuz hält (Wappen-Verleihung 1930 und neu am 11. Juli 1975). Der hessische Löwe steht für die Landgrafschaft Hessen bzw. deren Nachfolgestaaten, zu denen das überwiegende Kreisgebiet gehörte. Das Kreuz steht für den Deutschen Ritterorden, der in Marburg eine bedeutende Niederlassung hatte und dem zahlreiche Ländereien gehörten. Kultur. Die meisten kulturellen Aktivitäten des Landkreises geschehen in enger regionaler Abstimmung mit der Universitätsstadt Marburg. Sprache. Neben dem Hochdeutschen wird im Landkreis auch der Dialekt – das Platt – gepflegt. Der Dialekt gehört zum Mittelhessischen, wobei das Hinterländer Platt überwiegend im westlichen Teil des Landkreises gesprochen wird. Demgegenüber besteht im (nord-)östlichen Teil eher ein Mischgebiet zum Niederhessischen Dialekt. Nachdem bis in die 1960er Jahre der Dialekt noch meist als erste Sprache gesprochen wurde, drohte der Dialekt zum Ende des 20. Jahrhunderts hin auszusterben. Steigendes regionales Bewusstsein, welches sich unter anderem durch die Bildung von Dialektvereinen ausdrückt und die wissenschaftliche Begleitung an der Philipps-Universität, versuchen dem entgegenzuwirken. Traditionspflege. Der Raum Marburg-Biedenkopf war ehemals die trachtenreichste Region Deutschlands. Insbesondere die Frauentrachten weisen eine große Vielfalt auf. Im Kreis wird unterschieden zwischen den Hinterländer Trachten und den Marburger Trachten. Nachdem die Männertrachten bereits ab Mitte des 19. Jahrhunderts aus der Mode kamen, war das Tragen von Frauentrachten ab der Zeit des Nationalsozialismus für Schüler verpönt und teilweise auch untersagt. So verringerte sich die Zahl stetig. Heute sind insbesondere in den Dörfern noch vereinzelt ältere Frauen mit Trachten anzutreffen. Zur Trachtenpflege gibt es im Landkreis einige Trachten- und Trachtentanzvereine. In einigen Orten werden so genannte „Grenzgangsfeste“ gefeiert. Die großen Grenzgangsfeste im Landkreis finden jeweils alle sieben Jahre in den Orten Biedenkopf, Buchenau, Goßfelden, Wetter und Wollmar statt. Diese Feste gehen auf die Abschreitung der Gemarkungsgrenzen im späten Mittelalter zurück. Partnerschaften. Diese Partnerschaft besteht offiziell seit Juli 1977; die Grundlagen wurden jedoch bereits in 1949 gelegt, als der damalige Kreisjugendpfleger einen Jugendaustausch organisierte. Weiterhin bestehen freundschaftliche Kontakte mit den deutschen Landkreisen Wirtschaft und Infrastruktur. Die wirtschaftlichen Schwerpunkte des Landkreises liegen in Marburg, wo besonders der Dienstleistungsbereich durch die Philipps-Universität und die Nachfolgefirmen des einstigen Pharmaunternehmens Behringwerke vertreten ist, in Stadtallendorf, wo neben der Eisengießerei Winter mit Ferrero der größte Arbeitgeber des Kreises beheimatet ist sowie im westlichen Teil des Kreises in der Stadt Biedenkopf und den Gemeinden Breidenbach und Dautphetal, die zusammen als gewerblicher Schwerpunkt ausgewiesen sind. Dort und in Gladenbach-Erdhausen lassen sich einige traditionsreiche und weltbekannte Modell- und Formenbaufabriken finden. Die Gemeinden Bad Endbach, Gladenbach und Lohra betreiben zusammen einen interkommunalen Gewerbepark (siehe Hauptartikel Lahn-Dill-Gebiet). Der Landkreis weist außerdem eine vergleichsweise niedrige Arbeitslosigkeitsrate auf. Verkehr. Das Gesamtgebiet des Landkreises wird von keiner Bundesautobahn durchquert. Aus Nordosten führt nach dem Ende der A 49 bei Borken (Hessen) (Schwalm-Eder-Kreis) die B 3 in das Kreisgebiet, die ab Marburg in Richtung Süden autobahnähnlich ausgebaut über den Gießener Ring (A 485) Anschluss an die A 45 (Köln, Dortmund oder Frankfurt am Main) und A 5 Richtung Frankfurt bietet. In südwestliche Richtung bietet ebenfalls die B 3 Anschluss an die B 255 nach Koblenz und die B 49 nach Limburg. Südöstlich führt die B 62 von der A 5 ab Abfahrt Alsfeld (Vogelsbergkreis) in den Kreis hinein und nordwestlich ebenfalls in Richtung A 45 hinaus. Wichtige und zum Teil kontrovers diskutierte Verkehrsplanungen und -probleme betreffen vor allem den Weiterbau der A 49, der Lückenschluss der A 4 zwischen Siegen und dem Hattenbacher Dreieck sowie den Bau von Umgehungsstraßen entlang der B 62 im relativ engen Lahntal und der B 252. Die wichtigste Eisenbahnverbindung des Landkreises ist die Strecke der Main-Weser-Bahn Frankfurt–Gießen–Kassel mit IC-Halt allein in Marburg. Regionalexpress-Züge auf der Strecke Frankfurt–Kassel halten in Marburg, Kirchhain, Stadtallendorf und Neustadt. Eingleisige Nebenstrecken verbinden Marburg einerseits mit Frankenberg (die so genannte Burgwaldbahn) sowie andererseits mit Erndtebrück (Kreis Siegen-Wittgenstein, Nordrhein-Westfalen) über die Obere Lahntalbahn. Von 1905 bis 1972 betrieb der Kreis Marburg eine eigene Eisenbahnstrecke vom Bahnhof Marburg-Süd in den Ebsdorfergrund nach Dreihausen (Marburger Kreisbahn). Der Nahverkehr wird vom Rhein-Main-Verkehrsverbund (RMV) in Kooperation mit dem Regionalen Nahverkehrsverband (RNV) Marburg-Biedenkopf organisiert. Den Zuschlag für die im Landkreis erstmals verteilten Linienbündel der Buslinien erhielt für den Bereich „LMR-Nordwest“ die Verkehrsgesellschaft Mittelhessen. Die beiden Linienbündel „LMR-Nordost“ und „LMR-West“ wurden im Jahr 2006 vergeben. Der internationale Flughafen Frankfurt am Main liegt etwa eine Autostunde entfernt, Zugverbindungen benötigen mit Umsteigen Frankfurt (Main) Hauptbahnhof ungefähr eine Stunde und zwanzig Minuten. Ein kleiner Flugplatz befindet sich im Cölber Ortsteil Schönstadt, ein Sonderlandeplatz im Bad Endbacher Ortsteil Bottenhorn. Städte und Gemeinden. Nachfolgend findet sich eine Auflistung aller Städte und Gemeinden des Landkreises. Unter „Altkreis“ werden die Gemeinden je den drei ehemaligen Landkreisen Biedenkopf (bis 1974, Westen, "Hessisches Hinterland"), Kirchhain (bis 1932, "Ostkreis") und Marburg (zentral, vor der Eingliederung des Kreises Kirchhain 1932) zugeordnet. Die Einwohnerzahlen der Gesamtgemeinden beziehen sich auf den. (*): Die Unterzentren Steffenberg und Angelburg sind als "Unterzentren mit Kooperationsbedarf" (miteinander und mit dem benachbarten Unterzentrum Breidenbach) ausgewiesen und erfüllen nicht vollständig die Kriterien für Unterzentren. Neben den oben aufgeführten Städten genießen auch der Stadtallendorfer Ortsteil Schweinsberg (seit 1332) und der Biedenkopfer Ortsteil Breidenstein (seit 1398) historische Stadtrechte. Mittelzentrumsbereiche. Aufgrund der hervorgehobenen Stellung des Oberzentrums Marburg ist der "Mittelzentrumsbereich Marburg", der sich, von der Gemeinde Lohra abgesehen, vollständig mit dem Altkreis Marburg in seiner Zusammensetzung bis 1932 deckt, sehr weitreichend auf die Universitätsstadt ausgerichtet, wobei lediglich die Stadt Wetter im Norden eine bedingt komplette Infrastruktur aufweist. Zwar verfügen Wetter, Ebsdorfergrund (in Heskem) und Weimar (in Niederwalgern) über größere Gesamtschulen, jedoch müssen diese ohne gymnasiale Oberstufe auskommen, d.h. das Abitur selbst ist nur in der Kreisstadt möglich, die auch über drei relativ große Berufsschulen mit jeweiligem Fächerschwerpunkt verfügt. Im "Ostkreis" teilen sich die ehemalige Kreisstadt "Kirchhain" und die mittlerweile einwohnerstärkere Industriestadt "Stadtallendorf" als Mittelzentren teilweise die Aufgaben. Während Kirchhain u.a. Sitz der weiterführenden Schulen ist (die Stadt verfügt sowohl über eine Berufsschule als auch über eine Gesamtschule mit gymnasialer Oberstufe), besitzt Stadtallendorf eine Außenstelle des Landratsamtes. Beide Städte sind als Einkaufsstädte jeweils relativ eigenständig, ergänzen sich jedoch in spezielleren Angeboten. Wie Stadtallendorf verfügt auch Neustadt über eine Gesamtschule ohne gymnasiale Oberstufe; in der sonstigen Infrastruktur ist die Stadt zwar halbwegs eigenständig, jedoch schwächer ausgestattet als die beiden Mittelzentren. Alle übrigen Städte und Gemeinden des Ostkreises weisen eher dörflichen Charakter auf, wobei Amöneburg allerdings über ein privates Gymnasium verfügt. Der Westen des Landkreises ("Hessisches Hinterland") ist größtenteils auf die ehemalige Kreisstadt "Biedenkopf" als Mittelzentrum ausgerichtet, wobei jedoch speziell Dautphetal und Breidenbach durchaus über die Infrastrukturen von mittleren Kleinstädten verfügen. Biedenkopf verfügt u.a. über ein Gymnasium, eine Berufsschule und eine Außenstelle des Landratsamtes. Im Süden des Hinterlandes stellt "Gladenbach", nicht zuletzt aufgrund seiner räumlichen Abgeschiedenheit, das zweite Mittelzentrum dar. Es ist deutlich weniger von Industrie geprägt, beherbergt indes die Kneipp-Heilbäder Gladenbach und Bad Endbach. Die Gladenbacher Gesamtschule stellt die einzige Schule im Hinterland außerhalb Biedenkopfs dar, die die Möglichkeit für einen höheren Abschluss bietet. Alles in allem bleibt das Einzugsgebiet Gladenbachs jedoch beschränkt, während Biedenkopf z.T. auch (Neben-)Zentrumsfunktionen für den Nordkreis (Lahntal, Wetter), angrenzende Gemeinden des Lahn-Dill-Kreises (Dietzhölztal, Eschenburg) und des Landkreises Waldeck-Frankenberg (Hatzfeld und z.T. Battenberg) sowie, in Funktionsteilung mit dem benachbarten Laasphe, auch für den Südosten des Kreises Siegen-Wittgenstein (NRW) ausübt. Kfz-Kennzeichen. Am 1. Juli 1974 wurde dem Landkreis das seit dem 1. Juli 1956 für den Landkreis Marburg gültige Unterscheidungszeichen "MR" zugewiesen. Es wird durchgängig bis heute ausgegeben. Bis in die 1990er Jahre erhielten Fahrzeuge aus dem Altkreis Biedenkopf Kennzeichen mit den Buchstabenpaaren LA bis MZ und TA bis TZ und den Zahlen von 100 bis 999. Seit dem 2. Januar 2013 ist auch das Unterscheidungszeichen "BID" (Biedenkopf) erhältlich. Minix (Betriebssystem). Minix (Eigenschreibweise MINIX) ist ein freies unixoides Betriebssystem, das von Andrew S. Tanenbaum an der Freien Universität Amsterdam als Lehrsystem entwickelt wurde. Der Quellcode des Minix-Kernels besteht aus etwa 12.000 Zeilen, hauptsächlich in der Programmiersprache C, und ist Teil von Tanenbaums Lehrbuch "Operating Systems – Design and Implementation". Eine Motivation für Minix war unter anderem, dass der Quellcode von Unix nicht mehr für Lehrzwecke an Universitäten zur Verfügung stand. Geschichte. Das System wurde um 1987 zunächst auf auch für Studenten verfügbarer Hardware (PC mit Intel 8088 Prozessor, 512 Kilobyte RAM, ein Diskettenlaufwerk) entwickelt, enthielt aber alle Systemaufrufe der Unix-Version 7. Es verwirklichte Mehrprogrammbetrieb, Prozesse (Tasks in Minix), Pipes, Signale und enthielt neben einem Mikrokernel Neuimplementierungen vieler Unix-Kommandos, einen Texteditor und einen C-Compiler. Aufgrund fehlender Hardware-Unterstützung war kein Speicherschutz und kein virtueller Speicher realisiert, auch die Netzwerkunterstützung fehlte zunächst. Später wurde das System auf andere Prozessoren (Intel 80286 und 80386, Motorola-68000-Linie, Sun SPARC) portiert und erweitert. Minix diente dem finnischen Informatik-Studenten Linus Torvalds als Entwicklungsumgebung für seinen Kernel Linux. Torvalds wollte zunächst die Fähigkeiten der neuen Intel 80386-Prozessorlinie (Multitasking, Paging) ausprobieren, entwickelte aber dann einen voll funktionsfähigen Kernel mit virtuellem Speicher und Speicherschutzmechanismen. Die Kommandos und der C-Compiler wurden durch GNU-Versionen ersetzt. Minix spielte nie eine wichtige Rolle unter den Betriebssystemen. Die Lizenzpolitik Andrew S. Tanenbaums, der seinen Quellcode zwar offenlegte, aber nicht zur Weiterverwendung oder Abänderung freigab, war restriktiv. Ein Lizenzwechsel zur BSD-Lizenz erfolgte erst im April 2000. Design. Wesentlicher konzeptioneller Bestandteil ist der Mikrokernel-Ansatz, im Gegensatz zum Konzept des monolithischen Kernels. Auf der untersten Ebene befinden sich der Scheduler als Task und die Gerätetreiber-Tasks. Das Dateisystem und das Speichermanagement laufen als je ein Task in der mittleren Ebene. Auf der obersten Ebene laufen die Anwenderprogramme. Die Systemaufrufe sind über Mitteilungen an die Tasks der unteren Ebenen realisiert, ebenso kommunizieren die Systemtasks über Mitteilungen. Streit um Linux und Minix. 1992 griff Andrew S. Tanenbaum Linux wegen eines aus seiner Sicht veralteten Designs und eines zu liberalen Entwicklungsmodells an. Tanenbaum zeigte die Vorteile von Minix auf und kritisierte Linux scharf. Die entsprechenden Kritikpunkte von damals treffen auch teilweise heute noch auf Linux zu. Trotz der teilweise berechtigten Kritik übersah Tanenbaum aber die unterschiedlichen Beweggründe der beiden Systeme, welche viele der Kritikpunkte überflüssig machten. Minix 3. 2005 erschien eine neue Version, Minix 3. Dieses System ist im Gegensatz zu seinen Vorgängern nicht nur als Lehrsystem konzipiert. Es ist POSIX-kompatibel, enthält Netzwerkunterstützung und verwendet die geschützte Speicherverwaltung der neueren Intel-Prozessoren. Gerätetreiber laufen auf der obersten Ebene im Benutzermodus, wodurch dieses System besonders zuverlässig wird – bei Minix 2 liefen die Treiber noch auf der untersten Ebene. Alle Programme, die im privilegierten Kernel-Modus laufen müssen, besitzen zusammen nur ca. 4000 Zeilen Quelltext. Des Weiteren gibt es Server-Prozesse. Ein besonderer unter diesen ist der "Reincarnation Server", der für die Funktionsfähigkeit der Gerätetreiber sorgt. So startet er eine neue Kopie eines Gerätetreibers, falls dieser „gestorben“ ist. Ist der Gerätetreiber noch nicht beendet, reagiert aber nicht oder nicht richtig, so wird er vom Reincarnation Server beendet ("kill") und anschließend ebenfalls neu gestartet. Das wird erst dadurch möglich, dass der Gerätetreiber ein normales Programm im Benutzer-Modus ist, und kein Kernel-Modul. Auf PCs kann das System von CD gestartet (Live-CD) oder auf die Festplatte installiert werden. Wie bei den Vorgängerversionen werden über 100 Programme sowie der komplette Quelltext einschließlich C-Compiler mitgeliefert. Das System ist seit April 2000 mit einer modifizierten BSD-Lizenz geschützt und erlaubt den privaten wie kommerziellen Einsatz einschließlich eigener Erweiterungen. Minix 3 ist damit freie Software und mit der GNU General Public License kompatibel. Minix-VMD. Minix-VMD ist eine erweiterte Version des Lehrbetriebssystems Minix 2. Im Gegensatz zum ursprünglichen Minix ist es weder ein Lehrsystem noch ein allgemeinbrauchbares Betriebssystem, sondern es wurde erstellt, um spezielle Aufgaben zu erfüllen. Das 32-Bit-Minix wurde von den Programmierern Philip Homburg und Kees Bot um eine virtuelle Speicherverwaltung und das X11-System erweitert. Der Name leitet sich von Minix-386vm – also ein Minix für i386-Rechner mit virtuellem Speicher – ab. Das D aus VMD steht wie in BSD für Distribution. Maskottchen. Das Maskottchen von Minix ist ein Waschbär, da er laut Andrew Tanenbaum klein und schlau sei und „Bugs“ fresse (engl. für sowohl "Käfer" als auch "Programmfehler"). Ein Name wurde nicht vergeben. Mechanik. Die Mechanik (von "mechané", ‚Maschine‘, ‚Kunstgriff‘, ‚Wirkungsweise‘) ist in den Naturwissenschaften und der Technik die Lehre von der Bewegung von Körpern sowie den dabei wirkenden Kräften. Sie ist ein Teilgebiet der Physik und der historische Ursprung aller anderen physikalisch-technischen Disziplinen. In der theoretischen Physik wird der Begriff oft abkürzend für die klassische Mechanik verwendet, die die mathematisch-theoretischen Grundlagen der Mechanik behandelt. In den Ingenieurwissenschaften hingegen wird der Begriff oft abkürzend für die technische Mechanik benutzt. Unterteilung. Strukturierung der Mechanik nach den grundlegenden physikalischen Vorgängen. Die Mechanik kann grob in verschiedene Teilgebiete untergliedert werden: Die Kinematik befasst sich unter Definition der Begriffe Zeit, Ort, Geschwindigkeit und Beschleunigung mit der Bewegung von Körpern in Raum und Zeit. Die Dynamik erweitert die Beschreibung der Bewegungen durch die Masse und den wirkenden Kräften. Die Dynamik wiederum kann unterteilt werden in die Statik (Kräfte im Gleichgewicht) und die Kinetik (Kräfte nicht im Gleichgewicht). Viele moderne physikalische Theorien haben ihren Ursprung in der Mechanik, zählen jedoch meist nicht als Teilgebiet dieser. Für sehr hohe Geschwindigkeiten oder sehr große Massen muss die Mechanik um die spezielle bzw. die allgemeine Relativitätstheorie erweitert werden. Für sehr kleine Teilchen wird die Mechanik zur Quantenmechanik verallgemeinert. Sowohl die Relativitätstheorie als auch die Quantenmechanik enthalten die klassische Mechanik als Spezialfall. Für die genaue historische Entwicklung siehe Geschichte der Physik. Marie Curie. Marie Skłodowska Curie (* 7. November 1867 in Warschau; † 4. Juli 1934 in Sancellemoz, geborene "Maria Salomea Skłodowska") war eine Physikerin und Chemikerin polnischer Herkunft, die in Frankreich wirkte. Sie untersuchte die 1896 von Henri Becquerel beobachtete Strahlung von Uranverbindungen und prägte für diese das Wort „radioaktiv“. Im Rahmen ihrer Forschungen, für die ihr 1903 ein anteiliger Nobelpreis für Physik und 1911 der Nobelpreis für Chemie zugesprochen wurde, entdeckte sie gemeinsam mit ihrem Ehemann Pierre Curie die chemischen Elemente Polonium und Radium. Marie Curie ist bisher die einzige Frau unter den vier Mehrfach-Nobelpreisträgern und neben Linus Pauling die einzige Person, die Nobelpreise auf zwei unterschiedlichen Gebieten erhalten hat. Marie Curie wuchs in der damals zum Russischen Kaiserreich gehörigen Provinz Weichselland auf. Da Frauen dort nicht zum Studium zugelassen wurden, zog sie nach Paris und begann Ende 1891 ein Studium an der Sorbonne, das sie mit Lizenziaten in Physik und Mathematik beendete. Im Dezember 1897 begann sie die Erforschung radioaktiver Substanzen, die seitdem den Schwerpunkt ihrer wissenschaftlichen Tätigkeit bildeten. Nach dem Unfalltod Pierre Curies wurden ihr 1906 zunächst seine Lehrverpflichtungen übertragen. Zwei Jahre später wurde sie schließlich auf den für ihn geschaffenen Lehrstuhl für Allgemeine Physik berufen. Sie war die erste Frau und die erste Professorin, die an der Sorbonne lehrte. Als sich Marie Curie 1911 um einen Sitz in der "Académie des sciences" bewarb und im selben Jahr ihr Verhältnis mit Paul Langevin bekannt wurde, erschienen in der Boulevardpresse Artikel, in denen sie persönlich angegriffen und als Fremde, Intellektuelle, Jüdin und sonderbare Frau bezeichnet wurde. Während des Ersten Weltkrieges widmete sich Marie Curie als Radiologin der Behandlung verwundeter Soldaten. Sie entwickelte einen Röntgenwagen, der es ermöglichte, radiologische Untersuchungen in unmittelbarer Nähe der Front vorzunehmen, und beteiligte sich an der Qualifizierung der notwendigen Techniker und Krankenschwestern. Nach dem Krieg engagierte sie sich in der "Internationalen Kommission für Geistige Zusammenarbeit" des Völkerbundes für bessere Arbeitsbedingungen von Wissenschaftlern. An dem von ihr geleiteten Pariser Radium-Institut setzte sie sich für die Förderung von weiblichen und ausländischen Studierenden ein. Kindheit und Jugend. Geburtshaus von Marie Curie in Warschau Maria Skłodowska war das jüngste von fünf Kindern des Lehrerehepaares Bronisława und Władysław Skłodowski, die beide dem niederen polnischen Landadel, der Szlachta, entstammten und zur polnischen Intelligenzija zählten. Ihr Vater Władysław hatte an der Universität Sankt Petersburg studiert und als Lehrer für Mathematik und Physik an verschiedenen staatlichen und privaten Schulen unterrichtet. Ihre Mutter Bronisława wurde am Mädchenpensionat in der Fretastraße "(Ulica Freta)", der einzigen privaten Mädchenschule in Warschau, ausgebildet, wo sie anschließend erst als Lehrerin und später als Schulleiterin tätig war und wo die Familie zum Zeitpunkt von Marias Geburt wohnte. 1868 wurde ihr Vater zum stellvertretenden Direktor einer öffentlichen Schule befördert, woraufhin die Familie in die mit der Stellung verbundene größere Dienstwohnung in der Nowolipki-Straße "(Ulica Nowolipki)" zog. Etwa zu dieser Zeit erkrankte Marias Mutter an Tuberkulose und musste ihren Posten aufgeben. Als ihr Vater 1873 aus dem Schuldienst entlassen wurde, war die Familie aus finanziellen Gründen gezwungen, ein Pensionat zu eröffnen, das anfangs zwei und später bis zu zehn Schüler beherbergte. Maria wurde mit sechs Jahren eingeschult und besuchte zunächst die von ihrer Mutter geleitete Mädchenschule in der Fretastraße. Zwei Jahre später wechselte sie auf die näher gelegene Privatschule von Jadwiga Sikorska. Nach dem gescheiterten Januaraufstand von 1863 wurde im russisch kontrollierten Teil Polens eine zunehmende Russifizierung betrieben. Unterricht durfte nur in russischer Sprache erteilt, polnische Geschichte und Kultur konnte nur heimlich unterrichtet werden, was gleichermaßen eine Herausforderung für Lehrer wie Schüler war. Im Herbst 1878 wechselte Maria an das öffentliche Gymnasium Nr. 3. Kurz zuvor war ihre Mutter an den Folgen ihrer Erkrankung gestorben. 1883 bestand Maria im Alter von 15 Jahren ihr Abitur als Klassenbeste. Das darauf folgende Jahr verbrachte sie bei Verwandten auf dem Land, da sie Anzeichen von Erschöpfung zeigte. Władysław Skłodowski mit seinen drei Töchtern Maria, Bronisława (Bronia) und Helena (um 1890, v. l. n. r.) In Polen durfte Maria nicht studieren, weil Frauen an Universitäten nicht zugelassen waren. Die finanzielle Situation ihres Vaters ließ eine Unterstützung während eines Auslandsstudiums nicht zu. Im Spätsommer 1884 begann Maria in der Wohnung ihres Vaters Privatunterricht zu erteilen. Während dieser Zeit nahm sie gemeinsam mit ihrer Schwester Bronia an Kursen der von Jadwiga Szczawińska-Dawidowa heimlich organisierten "Fliegenden Universität" "(Uniwersytet Latający)" teil, die eine akademische Bildung ermöglichte. Ab September 1885 arbeitete Maria kurze Zeit als Hauslehrerin bei einer Anwaltsfamilie. Ende 1885 übernahm sie für dreieinhalb Jahre eine Stelle als Hauslehrerin auf dem Land in Szczuki bei Przasnysz mit der Aufgabe, die beiden ältesten Töchter der Familie Żorawski zu unterrichten. An ihren freien Abenden las sie Bücher über Physik, Soziologie, Anatomie und Physiologie, um ihre Neigungen auszuloten und sich auf das Studium vorzubereiten. Mit dem Einverständnis des Hausherrn und mit Unterstützung von dessen ältester Tochter gab Maria täglich einem Dutzend Bauernkindern Unterricht im Lesen und Schreiben. Als im Sommer des ersten Jahres ihres Aufenthalts der älteste Sohn der Familie Kazimierz Żorawski von der Universität nach Hause zurückkehrte, verliebten sich beide ineinander. Ihre Heiratspläne scheiterten jedoch am Widerstand von Kazimierz' Familie. Im Frühjahr 1889 endete Marias Tätigkeit bei den Żorawskis. Sie fand eine weitere Hauslehrerinnenstelle in einem Badeort an der Ostseeküste. Um seine Töchter besser finanziell unterstützen zu können, hatte ihr Vater im April 1888 nach seiner Pensionierung für zwei Jahre die Leitung einer landwirtschaftlichen Erziehungsanstalt in Studzieniec in der Nähe von Warschau übernommen. Seit 1890 wohnte Maria wieder mit ihrem Vater in Warschau zusammen. Ihrem Cousin Józef Boguski (1853–1933), einem ehemaligen Assistenten von Dmitri Mendelejew, wurde die Leitung des "Warschauer Industrie- und Landwirtschaftsmuseums" "(Muzeum Przemysłu i Rolnictwa)" übertragen. In den Räumlichkeiten des Museums, das über ein eigenes Laboratorium verfügte, bekam Maria zum ersten Mal die Gelegenheit, eigene chemische und physikalische Experimente durchzuführen, die ihre festigte und sie in ihrem Wunsch, ein naturwissenschaftliches Studium in Paris aufzunehmen, bestärkte. Erste Jahre in Paris. Pierre, Irène und Marie Curie 1902 in Paris 1891 reiste Maria Skłodowska nach Paris, wo sie anfangs bei ihrer Schwester Bronia und deren Mann Kazimierz Dłuski in der "Rue d'Allemagne" unweit des Gare du Nord wohnte. Am 3. November schrieb sie sich als Marie Skłodowska für ein Studium der Physik an der Sorbonne ein. Unter den 9000 Studenten der Universität in diesem Jahr befanden sich 210 Frauen. Von den mehr als 1825 Studenten der "Faculté des sciences" waren 23 weiblich. Ihre wenigen Mitstudentinnen kamen meist aus dem Ausland, da an den französischen Mädchenschulen zu dieser Zeit die zur Baccalauréat-Prüfung notwendigen Fächer Physik, Biologie, Latein und Griechisch nicht gelehrt wurden. Marie hatte schlechtere Vorkenntnisse als ihre französischen Kommilitonen, und die sprachlichen Probleme bildeten eine zusätzliche Herausforderung. Im Winter 1891/1892 spielte sie bei einem von Exilpolen inszenierten russlandfeindlichen Theaterstück mit, was ihren Vater sehr verärgerte. Im März 1892 zog Marie Skłodowska in ein kleines möbliertes Zimmer in der "Rue Flatters" im Quartier Latin um, da sie mehr Ruhe für ihr Studium benötigte und näher bei den Einrichtungen der Universität wohnen wollte. In ihrem ersten Studienjahr gehörten unter anderem der Mathematiker Paul Appell und die Physiker Gabriel Lippmann und Edmond Bouty zu ihren Lehrern. Die Prüfungen für das Lizenziat der Physik "(licence des sciences physiques)" schloss sie im Juli 1893 als Beste ab. Im Sommer wurde ihr das "Alexandrowitsch-Stipendium" in Höhe von 600 Rubeln zugesprochen, das ihr die Fortsetzung des Studiums in Paris ermöglichte. Den Abschluss für das Lizenziat in Mathematik "(licence des sciences mathématiques)" machte sie im Juli 1894 als Zweitbeste. Die Gesellschaft zur Förderung der Nationalindustrie ("Société d'Encouragement pour l'Industrie Nationale") beauftragte Marie Skłodowska Anfang 1894, eine Studie über die magnetischen Eigenschaften verschiedener Stahlsorten durchzuführen. Sie arbeitete unter sehr beengten Verhältnissen im Labor ihres Lehrers Gabriel Lippmann und war auf der Suche nach einem geeigneteren Platz für ihre Experimente, worüber sie dem Physiker Józef Kowalski, Professor an der Universität Freiburg, berichtete. Kowalski machte sie im Frühjahr mit Pierre Curie bekannt, der an der "École municipale de physique et de chimie industrielles" (ESPCI) unterrichtete und das dortige Laboratorium leitete. Im Sommer 1894 suchte Marie in Polen nach einer interessanten Forschungstätigkeit. Da sie kein geeignetes Angebot erhielt, beschloss sie, für ein weiteres Jahr nach Paris zurückzukehren. Dort entwickelte sich aus der beruflichen Zusammenarbeit mit Pierre Curie eine gegenseitige Zuneigung. Am 26. Juli 1895 heiratete Marie Skłodowska im Rathaus von Sceaux Pierre Curie. Das Paar zog in eine Dreizimmerwohnung in der "Rue de la Glacière". In ihrem ersten Ehejahr bereitete sich Marie Curie auf die Agrégation vor, die sie berechtigte, an einer höheren Mädchenschule zu unterrichten und ihr ein eigenes Einkommen verschaffen würde. Die Prüfungen im Sommer 1896 bestand sie erneut als Beste ihres Kurses. Nebenher setzte Marie Curie ihre physikalischen Studien fort. Sie besuchte unter anderem Vorlesungen von Marcel Brillouin und dokumentierte ihre Untersuchungen über die Magnetisierung von gehärtetem Stahl, was ihre erste wissenschaftliche Veröffentlichung war. Am 12. September 1897 brachte sie ihre erste Tochter Irène zu Welt. Neue Elemente. Pierre und Marie Curie in ihrem Laboratorium in der "Rue Cuvier" Die Entdeckung der Röntgenstrahlung Ende 1895 erregte weltweit Aufsehen und löste zahlreiche Forschungsaktivitäten aus. Die im Frühjahr 1896 von Antoine Henri Becquerel zufällig entdeckte Fähigkeit von Urankaliumsulfat, eine fotografische Platte zu schwärzen, blieb hingegen nahezu unbeachtet. Marie Curie, die auf der Suche nach einem Thema für ihre Doktorarbeit war, beschloss, sich den „Becquerel-Strahlen“ zuzuwenden. Zunächst beabsichtigte sie, die Ionisationsfähigkeit der von Uransalzen ausgehenden Strahlung zu quantifizieren, und knüpfte mit ihren Versuchen an die Ende 1897 im Labor von Lord Kelvin durchgeführten Messungen an. In den ersten Wochen ihrer am 16. Dezember 1897 begonnenen Experimente entwickelte sie gemeinsam mit ihrem Mann Pierre ein Verfahren, das auf einem von Pierre entwickelten piezoelektrischen Elektrometer beruhte und mit dem sie die von den Strahlen verursachte Änderung der elektrischen Leitfähigkeit der Luft sehr genau messen konnte. Auf diese Weise untersuchte Marie Curie zahlreiche uranhaltige Metalle, Salze, Oxide und Mineralien, die ihr Henri Moissan, Alexandre Léon Étard (1852–1910), Antoine Lacroix und Eugène-Anatole Demarçay zur Verfügung gestellt hatten. Sie stellte dabei fest, dass Pechblende viermal aktiver und natürliches Chalcolit doppelt so aktiv wie Uran ist. Die gemessene Aktivität der uranhaltigen Stoffe erwies sich als unabhängig von ihrem Aggregatzustand und war proportional zu ihrem Urananteil. Eine Kontrollmessung an künstlich hergestelltem Chalcolit, das sie mit Hilfe des Debray-Verfahrens aus Urannitrat, Kupferphosphat und Phosphorsäure gewonnen hatte, bestätigte diese Erkenntnis. Marie Curie folgerte daraus, dass die „Becquerel-Strahlung“ eine Eigenschaft bestimmter Atome und keine chemische Eigenschaft der untersuchten Verbindung ist. Ihre Forschungsergebnisse wurden am 12. April 1898 von Gabriel Lippmann vor der "Académie des sciences" in Paris vorgetragen, da Marie Curie kein Mitglied der Akademie war. Ihre während dieser ersten Untersuchungen gemachte Beobachtung, dass Thorium ähnlich wie Uran strahlt, war bereits Anfang Februar 1898 unabhängig von ihr durch Gerhard Schmidt (1865–1949) entdeckt und bei einem Treffen der "Physikalischen Gesellschaft zu Berlin" publiziert worden. Marie Curie und ihr Mann gingen davon aus, dass die hohe Aktivität der Pechblende von einem unbekannten chemischen Element verursacht werde. In den folgenden Wochen versuchten sie, dieses Element mit chemischen Verfahren zu isolieren. Bald hatten sie Zwischenprodukte erzeugt, die viel aktiver als Pechblende waren, und folgerten daraus, dass es sich nicht um "ein" neues Element handele, sondern um "zwei" verschiedene, von denen eines chemisch Bismut und das andere Barium ähneln müsse. Der spektroskopische Nachweis des ersten neuen Elementes, das sie am 13. Juni 1898 zu Ehren von Marie Curies polnischer Heimat Polonium getauft hatten, misslang jedoch. Dennoch ließen sie fünf Tage später Henri Becquerel ihre Ergebnisse vor der "Académie des sciences" präsentieren. In der Überschrift des Berichtes wurde erstmals das Wort „radioaktiv“ verwendet. Im Juli wurde Marie Curie für ihre Arbeiten über die magnetischen Eigenschaften von Stahl und die Radioaktivität der mit 3800 Francs dotierte "Prix Gegner" der "Académie des sciences" zuerkannt. Im Herbst 1898 litt Marie Curie an Entzündungen der Fingerspitzen, welches die ersten bekannten Symptome der Strahlenkrankheit waren, an der sie später litt. Nach einem ausgedehnten Sommerurlaub in der Auvergne nahm das Paar am 11. November die Suche nach dem zweiten unbekannten Element wieder auf. Mit der Hilfe von Gustave Bémont gelang es ihnen schnell, eine Probe herzustellen, die 900-mal stärker als Uran strahlte. Am 20. Dezember erhielt das neue Element im Laborbuch der Curies den Namen Radium. Diesmal ergab die von Eugène-Anatole Demarçay an der Probe vorgenommene spektroskopische Untersuchung eine Spektrallinie, die sich keinem bisher bekannten Element zuordnen ließ. Am 26. Dezember 1898 war es erneut Becquerel, der vor der Akademie von den Forschungsergebnissen der Curies berichtete. Nobelpreis für Physik. a> von 1903 zu 25 Prozent für Marie Curie Titelblatt von Marie Curies Doktorarbeit Anfang 1899 verlagerte das Forscherpaar seine Arbeitsschwerpunkte. Gemeinsam mit Georges Sagnac und André-Louis Debierne beschäftigte sich Pierre Curie mit den physikalischen Wirkungen der Radioaktivität. Marie Curie konzentrierte sich vollständig auf die chemische Isolierung des Radiums. Dafür benötigte sie große Mengen Pechblende. Durch die Vermittlung von Eduard Suess, dem amtierenden Präsidenten der Akademie der Wissenschaften in Wien, erhielt sie eine Tonne Pechblendenabfälle aus Sankt Joachimsthal, für die sie nur die Transportkosten übernehmen musste. Vom EPCI bekam sie die Erlaubnis, einen zugigen Schuppen, der vorher als Sezierraum diente, für ihre langwierige und physisch anstrengende Arbeit zu benutzen. Im März 1900 zogen Marie und Pierre Curie in eine Wohnung am Boulevard Kellermann. Im selben Jahr wurde Marie als erste Frau an die "École normale supérieure de jeunes filles" (ENSJF) in Sèvres berufen, die als Frankreichs renommierteste Ausbildungsstätte für zukünftige Lehrerinnen galt, um dort Physik zu lehren. Auf einem Physikerkongress anlässlich der Pariser Weltausstellung stellten die Curies ihre Forschungsergebnisse über Radioaktivität zahlreichen ausländischen Physikern vor und verfassten aus diesem Anlass ihre bis dahin umfangreichste Abhandlung mit dem Titel "Die neuen radioaktiven Substanzen und die von ihnen emittierten Strahlen". Die "Académie des sciences" unterstützte Maries Curies Arbeit finanziell. Noch zweimal, 1900 und 1902, wurde ihr der "Prix Gegner" verliehen. 1903 erhielt sie den mit 10.000 Francs dotierten "Prix La Caze". Die Fortsetzung ihrer Radiumforschung sicherte die Akademie im März 1902 mit einem Kredit über 20.000 Francs. Im Juli 1902 hatte Marie Curie ein Dezigramm Radiumchlorid gewonnen und konnte damit die Atommasse des Radiums sehr genau bestimmen. Sie wandte sich anschließend ihrer Dissertation mit dem Titel "Recherches sur les substances radioactives" (deutsch: "Untersuchungen über die radioaktiven Substanzen") zu. Die von Dekan Paul Appell am 11. Mai 1903 zugelassene Doktorarbeit verteidigte sie am 25. Juni vor Gabriel Lippmann, Henri Moissan und Edmond Bouty. Die Dissertation wurde innerhalb eines Jahres in fünf Sprachen übersetzt und 17-mal abgedruckt, darunter in den von William Crookes herausgegebenen "Chemical News" und den "Annales de physique et chimie". Anfang 1903 traten bei Marie und Pierre Curie erste gesundheitliche Probleme auf, die sie jedoch auf Überarbeitung zurückführten. Marie Curie hatte im August 1903 eine Fehlgeburt, die sie gesundheitlich weiter schwächte. Als die Royal Society dem Ehepaar am 5. November 1903 die "Davy-Medaille" zusprach, die jährlich für die wichtigste Entdeckung auf dem Gebiet der Chemie vergeben wird, musste Pierre Curie allein nach London reisen, um den Preis entgegenzunehmen. Mitte November erhielten die Curies einen Brief von der Schwedischen Akademie der Wissenschaften, in dem ihnen mitgeteilt wurde, dass sie gemeinsam mit Henri Becquerel den Nobelpreis für Physik erhalten sollten. Die Einladung zum offiziellen Festakt im Dezember 1903 nahmen sie unter Hinweis auf ihre Unterrichtsverpflichtungen und Maries schlechte Gesundheit nicht wahr. Die Reise nach Stockholm, während der Pierre Curie einen Nobel-Vortrag über radioaktive Substanzen und speziell Radium hielt, traten sie erst im Juni 1905 an. Professorin an der Sorbonne. Nach der Zuerkennung des Nobelpreises gerieten Marie und Pierre Curie in die Schlagzeilen der französischen Presse. So schrieb beispielsweise "Les Dimanches": Marie Curies Rolle bei der Erforschung des Radiums wurde wechselweise unterschätzt oder übertrieben und ihre polnische Herkunft gern übersehen. Durch das Eindringen der Reporter in ihre Privatsphäre fühlten sich die Curies mehr und mehr bedrängt. Am 1. Oktober 1904 trat Pierre Curie seine Professur an dem eigens für ihn geschaffenen Lehrstuhl für allgemeine Physik an der Sorbonne an, und Marie Curie wurde die Leitung der wissenschaftlichen Arbeiten "(chef des travaux)" des Laboratoriums übertragen. Anfang Dezember 1904 wurde ihre zweite Tochter Ève geboren. Unterschrift von M. Skłodowska Curie Am 19. April 1906 geriet Pierre Curie unter die Räder eines Lastfuhrwerkes und starb noch am Unfallort. Marie Curie traf der Verlust schwer, hatte sie doch sowohl ihren geliebten Lebenspartner als auch ihren wissenschaftlichen Mitstreiter verloren. In den folgenden Jahren, in denen sie an Depressionen litt, waren Pierres Vater Eugène Curie und sein Bruder Jacques Curie ihr und ihren Kindern eine große Unterstützung. Im Frühjahr 1907 zog sie in die Rue Chemin de fer in Sceaux, um näher an Pierres Grab zu sein. Nach seinem Tod nahm sie (teilweise) wieder ihren Mädchennamen an. Die naturwissenschaftliche Fakultät der Universität musste entscheiden, wer Pierre Curies Lehrstuhl übernehmen sollte. Da Marie Curie die geeignetste Kandidatin war, um seine Vorlesungen fortzusetzen, schlug eine Kommission am 3. Mai vor, ihr die Kursverantwortung "(chargé de cours)" und die Leitung des Laboratoriums zu übertragen, den Lehrstuhl jedoch unbesetzt zu lassen. Marie Curie gab ihre Lehrtätigkeit an der Mädchenschule in Sèvres auf und hielt unter großer öffentlicher Aufmerksamkeit am 5. November 1906 ihre erste Vorlesung. Sie war die erste Frau, die an der Sorbonne lehrte. Die ordentliche Professur für Physik wurde ihr erst zwei Jahre später übertragen, am 16. November 1908. Der internationale Radiumstandard. Über die Schaffung eines internationalen Radiumstandards verständigten sich Marie Curie und Ernest Rutherford erstmals im Frühjahr 1910. Insbesondere der vermehrte Einsatz des Radiums in der Medizin erforderte genaue und vergleichbare Messwerte. Auf dem im Herbst in Brüssel tagenden "Kongress für Radiologie und Elektrizität" wurde die zehnköpfige "Internationale Radium-Standard-Kommission" gebildet, der neben Ernest Rutherford, Otto Hahn und Frederick Soddy auch Marie Curie angehörte. Die Kommission legte fest, dass die Maßeinheit für die Aktivität „Curie“ genannt werden sollte, und beauftragte Marie Curie mit der Herstellung einer 20 Milligramm schweren Radiumprobe aus kristallwasserfreiem Radiumchlorid, die als Standard dienen sollte. Weitere Proben sollten am von Stefan Meyer geleiteten "Wiener Radiuminstitut" hergestellt werden. Der Vergleich der Proben sollte mittels aktinometrischer Messung der von den Präparaten ausgesandten Gammastrahlung erfolgen. Im August 1911 hatte Marie Curies Labor eine 22 Milligramm schwere Probe aus Radiumchlorid fertiggestellt, die bei einem Treffen der Radiumstandard-Kommission Ende März 1912 in Paris offiziell zum internationalen Standard erklärt wurde. Gemeinsam mit André-Louis Debierne hinterlegte sie das Glasröhrchen mit dem Radium-Standard am 21. Februar 1913 beim "Bureau International des Poids et Mesures" in Sèvres. Gescheiterte Aufnahme in die "Académie des sciences". Bei einer Abstimmung über die Besetzung eines freien Platzes in der "Académie des sciences" unterlag Curie im Januar 1911 knapp dem Physiker Édouard Branly. Der Platz war am 31. Oktober 1910 durch den Tod des Chemikers und Physikers Désiré Gernez (1834–1910) frei geworden. Schon bald danach spekulierte die französische Presse über eine Kandidatur Curies. Sie war bereits Mitglied der Schwedischen (1910), Tschechischen (1909) und Polnischen Akademie (1909), der Amerikanischen Philosophischen Gesellschaft (1910) und der Kaiserlichen Akademie in St. Petersburg (1908) sowie Ehrenmitglied zahlreicher weiterer wissenschaftlicher Vereinigungen. In einem umfangreichen Artikel in der Zeitung "Le Temps", der am 31. Dezember 1910 erschien, setzte sich Jean Gaston Darboux, der Sekretär der Akademie, öffentlich für eine Kandidatur von Marie Curie ein. Am 4. Januar 1911 kamen zur planmäßigen Plenarsitzung des "Institut de France" im "Palais Mazarin" doppelt so viele Mitglieder wie üblich, um unter der Leitung von Arthur Chuquet über die Kandidatur Marie Curies zu diskutieren. Nach kontroverser Diskussion erhielt ein Antrag, an den Traditionen des Institutes festzuhalten und keine weiblichen Mitglieder zuzulassen, eine Mehrheit von 85 zu 60 Stimmen. Fünf Tage nach dieser Entscheidung trat ein Komitee der "Académie des sciences" in einer geheimen Sitzung zusammen, um die Nominierungen für den vakanten Sitz vorzunehmen. Entgegen dem Beschluss des Institutes wurde Marie Curie an die erste Stelle der Nominierungsliste gesetzt, die am 17. Januar offiziell bekanntgegeben wurde. Ihr schärfster Konkurrent unter den sechs weiteren Nominierten war der Physiker Édouard Branly, mit dem sie 1903 gemeinsam den "Prix Osiris" erhalten hatte. Am 24. Januar 1911 fand die endgültige Abstimmung statt. Für die Wahl in die Akademie war die absolute Stimmenmehrheit der anwesenden 58 Mitglieder notwendig, also 30 Stimmen. Bei der ersten Abstimmung erhielt Edouard Branly 29 Stimmen, Marie Curie 28 Stimmen und Marcel Brillouin eine Stimme. Im zweiten Wahlgang entfielen 30 Stimmen auf Branly und 28 Stimmen auf Marie Curie, die damit die Wahl verloren hatte. An der begleitenden Pressedebatte beteiligte sich das gesamte politische Spektrum der Pariser Tagesblätter. Die sozialistische Zeitung "L’Humanité" verspottete das "Institut de France" als. Le Figaro schrieb dagegen, Die schärfsten Angriffe kamen von den rechtsgerichteten Tageszeitungen "Action française" von Léon Daudet und "L’Intransigeant". Marie Curie bewarb sich nie wieder um einen Platz in der Akademie. Erst 51 Jahre nach ihrem vergeblichen Versuch wählte die "Académie des sciences" mit der Entdeckerin des Franciums, Marguerite Perey, eine Frau in ihre Reihen. Die „Langevin-Affäre“. Ende 1911 beschäftigte sich die französische Presse mit Curies Beziehung zu dem fünf Jahre jüngeren Paul Langevin, einem Schüler ihres 1906 verstorbenen Ehemanns Pierre. Die Familien waren miteinander befreundet und verbrachten gelegentlich den Sommerurlaub miteinander. Wohl spätestens seit Mitte Juli 1910 hatten Marie Curie und Paul Langevin eine Liebesbeziehung. Sie trafen sich in einer gemeinsam angemieteten Wohnung, in der sie auch ihren Briefwechsel aufbewahrten. Langevins Frau wurde bald auf die Vertrautheit der beiden aufmerksam und drohte Marie Curie mit Mord. Um Ostern 1911 wurden die Briefe, die sich Marie Curie und Paul Langevin geschrieben hatten, aus ihrer gemeinsamen Wohnung entwendet. Im August 1911 reichte Langevins Frau die Scheidung ein und verklagte ihren Ehemann wegen. Um für die öffentliche Gerichtsverhandlung und die drohende Veröffentlichung der Briefe gewappnet zu sein, versicherte sich Marie Curie der Hilfe des Anwalts Alexandre Millerand, der in den 1920er Jahren französischer Staatspräsident werden sollte. Einen Tag nach dem Ende der ersten Solvay-Konferenz, die vom 30. Oktober bis zum 3. November 1911 stattfand und an der Curie als einzige Frau teilnahm, veröffentlichte Fernand Hauser (1869–1941) in der Zeitschrift "Le Journal" einen Artikel mit der Schlagzeile. Die Zeitung "Le Petit Journal" folgte am darauf folgenden Tag mit der gleichen Geschichte und drohte am 6. November mit der Veröffentlichung von Liebesbriefen. Vier Tage nach den ersten Vorwürfen veröffentlichte "Le Temps" eine Gegendarstellung Curies, in der sie die Anschuldigungen energisch bestritt. Linke Zeitschriften und Zeitungen wie "Gil Blas" oder "L’Humanité" verteidigten Curie, während die gemäßigte Presse schwieg. Wissenschaftler wie Perrin, Poincaré, Borel, Einstein und Pierres Bruder Jacques unterstützten sie. Ab dem 18. November 1911 griff Maurice Pujo (1872–1955), Mitgründer der Zeitschrift "L’Action française", in einer Artikelserie mit dem Titel "Pour une mère" (deutsch: "Für eine Mutter") Marie Curie fast täglich an. "L’Action française" und "L’Intransigeant" drohten mit einer Veröffentlichung ihres Briefwechsels mit Paul Langevin. Fünf Tage später veröffentlichte Gustave Téry in "L’Œuvre" einen zehnseitigen Auszug aus der Korrespondenz vom Sommer 1910. Téry bezeichnete sie als und als eine Ausländerin, die ein französisches Heim zerstöre. In der Folge kam es zu fünf Duellen, darunter am 26. November eines zwischen Paul Langevin und Gustave Téry. Bei diesem Pistolenduell erfolgte jedoch kein Schusswechsel. Die Anfeindungen erreichten ihren Höhepunkt, als die Zeitung "L’Œuvre" Marie Curies zweiten Vornamen "Salomea" „entdeckte“ und in ihrer Ausgabe vom 20. Dezember 1911 fragte: und behauptete:. Nachdem sich Paul Langevin und seine Frau außergerichtlich geeinigt hatten, ebbten die Angriffe schließlich ab. Die während der „Langevin-Affäre“ erhobenen Vorwürfe und der damit verbundene „Makel“ begleiteten Marie Curie für den Rest ihres Lebens. Nobelpreis für Chemie und weitere Forschungen. a> von 1911 für Marie Curie, der nach dem Tod von Pierre wieder ihr Mädchenname zuerkannt wurde Als die Veröffentlichungen über die „Langevin-Affäre“ in der französischen Presse begannen, wurde in Stockholm über die Vergabe des Nobelpreises für Chemie beraten. Das über die Berichte besorgte Nobelkomitee beauftragte August Gyldenstolpe (1849–1928), den Botschafter Schwedens in Frankreich, Curie und Langevin zu den Vorwürfen zu befragen. Mit der Entscheidung der Akademie vom 7. November 1911, Marie Curie den Chemiepreis zuzuerkennen, die ihr Christopher Aurivillius, der damalige Ständige Sekretär der Schwedischen Akademie der Wissenschaften telegraphisch mitteilte, wurde erstmals einer Person zum zweiten Mal ein Nobelpreis zuerkannt. Die französischen Medien berichteten allerdings nur spärlich über diese Auszeichnung. Die anschließende Veröffentlichung des Briefwechsels und das Duell Langevins versetzte die Schwedische Akademie der Wissenschaften in Unruhe: Das Akademiemitglied Svante Arrhenius, Chemie-Nobelpreisträger von 1903, schrieb ihr einen Brief, in dem er versuchte, sie von einer Reise zur Preisverleihung abzubringen, was sie allerdings bestimmt zurückwies. Allen Widerständen zum Trotz reiste Marie Curie gemeinsam mit ihrer Schwester Bronia und ihrer Tochter Irène zur Nobelpreis-Zeremonie nach Stockholm, wo sie am 10. Dezember den Nobelpreis für Chemie entgegennahm. Besonders hervorgehoben wurde die ihr gemeinsam mit André-Louis Debierne gelungene Herstellung von metallischem Radium. Am darauffolgenden Tag hielt sie ihre Nobelvorlesung. Nach der Rückkehr aus Stockholm verschlechterte sich Marie Curies Gesundheitszustand. Sie litt an einer Nierenbeckenentzündung, die operativ behandelt werden musste. Sie zog von ihrem Haus in Sceaux, wo sie von Nachbarn beschimpft wurde, in den vierten Stock eines Apartmenthauses am "Quai de Béthune" auf der Île Saint-Louis um. 1912 und 1913 reiste sie meist unter falschem Namen und bat Freunde und Verwandte, keine Auskunft über ihren Aufenthaltsort zu geben. Im Juli 1912 hielt sie sich in England bei Hertha Marks Ayrton (1854–1923), der Frau von William Edward Ayrton, auf, die sich vergeblich um eine Aufnahme in die Royal Society bemüht hatte und die ihr eine wichtige Freundin wurde. Elf Jahre lang veröffentlichte sie ihre Artikel nicht mehr in den "Comptes rendus", dem Publikationsorgan der Akademie der Wissenschaften, sondern bevorzugte stattdessen Zeitschriften wie "Le Radium" und das "Journal de physique". Im Verlauf des Jahres 1913 besserte sich ihr Gesundheitszustand, und sie konnte gemeinsam mit Heike Kamerlingh Onnes die Eigenschaften der Radiumstrahlung bei tiefen Temperaturen untersuchen. Im März 1913 erhielt sie Besuch von Albert Einstein, mit dem sie einen Sommerausflug in das Schweizer Engadin unternahm. Im Oktober nahm sie an der zweiten Solvay-Konferenz teil, und im November reiste sie nach Warschau, um das zu ihren Ehren erbaute Radium-Institut einzuweihen. Radiologin im Ersten Weltkrieg. Marie Curie am Steuer eines Röntgenwagens Bereits in der zweiten Kriegswoche des Ersten Weltkrieges fand Marie Curie in der Radiologie ein neues Betätigungsfeld. Vom Radiologen Henri Béclère, einem Cousin von Antoine Béclère (1856–1939), erlernte sie die Grundlagen der Strahlenbehandlung und vermittelte das Wissen umgehend an Freiwillige weiter. In den Krankenhäusern, in denen sie arbeitete, herrschte ein akuter Mangel an Personal sowie an geeigneten Röntgenapparaten, und es gab nur eine unzureichende Stromversorgung. Diese Umstände brachten sie auf die Idee, eine mobile Röntgeneinrichtung zu schaffen, mit der verwundete Soldaten in unmittelbarer Nähe der Front untersucht werden könnten. Mit der Unterstützung der Französischen Frauenunion gelang es Marie Curie, einen ersten Röntgenwagen auszustatten. Für einen Einsatz an der Front benötigte sie die Genehmigung des Militärgesundheitsdienstes "Service de Santé". Dort fand sich jedoch niemand, der bereit war, ihren Antrag zu bearbeiten, bis er schließlich an den Kriegsminister Alexandre Millerand gelangte, ihren ehemaligen Anwalt in der „Langevin-Affäre“. Er leitete ihren Antrag an General Joseph Joffre weiter, den Kommandierenden an der Front, der Marie Curies Antrag schließlich genehmigte. In Begleitung ihrer Tochter Irène und eines Mechanikers fuhr sie am 1. November 1914 zum ersten Mal mit ihrem Röntgenwagen zu einem Lazarett der Zweiten Armee in Creil, das sich 30 Kilometer hinter der Frontlinie befand. Während des Krieges rüstete Marie Curie insgesamt 20 radiologische Fahrzeuge aus. Im Juli 1916 machte sie den Führerschein, um die Fahrzeuge selbst steuern zu können. Mit Hilfe privater Spenden und der Unterstützung des Komitees "Le Patronage National des Blessés" entstanden unter Mitwirkung Marie Curies etwa 200 neue oder verbesserte radiologische Zentren. Gemeinsam mit ihrer achtzehnjährigen Tochter Irène gab sie ab Oktober 1916 sechswöchige Intensivkurse am neuen, nach der von den Deutschen hingerichteten britischen Krankenschwester Edith Cavell benannten Ausbildungskrankenhaus, bei denen Frauen zu Röntgentechnikern "(manipulatrices)" ausgebildet wurden. Bis Kriegsende schlossen etwa 150 Frauen diese Kurse erfolgreich ab. Die während des Krieges mit dem Einsatz von radiologischen Methoden gemachten Erfahrungen beschrieb Marie Curie in ihrem Buch "La Radiologie et la Guerre", das 1921 veröffentlicht wurde. Aufenthalt in Amerika. Marie Curie beim Besuch der Standard Chemical Company (1920) Im Mai 1920 gewährte Marie Curie Marie Melony (1878–1943), der Herausgeberin des amerikanischen Frauenmagazins "The Delineator", ein Interview. Das schlichte Auftreten Marie Curies und die kärglichen Bedingungen am "Institut du Radium", unter denen sie arbeitete, beeindruckten Melony. Im Verlauf des Gesprächs erfuhr sie, dass es Curies dringlichster Wunsch war, ein Gramm Radium für die Fortsetzung ihrer Forschungsarbeiten zu erhalten. Die Vorräte des Institutes waren infolge der Therapiebehandlungen im Ersten Weltkrieg stark zurückgegangen und der Handelspreis für ein Gramm Radium betrug zu dieser Zeit für das Institut unerschwingliche 100.000 US-Dollar. Nach ihrer Rückkehr gründete Melony in den Vereinigten Staaten das "Marie Curie Radium Fund Committee" mit dem Ziel, 100.000 Dollar für die Beschaffung von einem Gramm Radium zu sammeln. Am 3. Mai 1921 vergab das Komitee, das bis dahin 82.000 Dollar gesammelt hatte, den Auftrag für die Herstellung des gewünschten Radiums an die "Standard Chemical Company" in Pittsburgh, die seit 1911 Radium in größeren Mengen produzierte. Melony überzeugte Marie Curie von der Notwendigkeit einer längeren Amerikareise. Sie bereitete diese unter anderem mit der fast ausschließlich Marie Curie gewidmeten Ausgabe des "Delineators" im April 1921 vor. Am 4. Mai 1921 ging Marie Curie gemeinsam mit ihren beiden Töchtern und in Begleitung von Marie Melony an Bord der "RMS Olympic". Sieben Tage später traf sie in New York City ein, wo sie von einer großen Menschenmenge begrüßt wurde. Über ihre Ankunft berichtete die "New York Times" auf ihrer Titelseite unter der Schlagzeile "Madame Curie hat vor, dem Krebs ein Ende zu bereiten". Curies Entgegnung, dass „Radium kein Heilmittel gegen jede Art von Krebs“ sei, brachte die "New York Times" hingegen erst auf Seite 22. Während ihres Aufenthaltes wurde ihre Rolle als Wissenschaftlerin in den Hintergrund gerückt und sie vornehmlich als „weibliche Heilende“ dargestellt. Marie Curie besuchte zunächst verschiedene Frauencolleges, die für sie im Rahmen von Melonys Kampagne gespendet hatten. Höhepunkt war eine am 18. Mai von der "American Association of University Women" organisierte Veranstaltung, bei der sie vor 3500 Frauen sprach. Nachdem ihr am 20. Mai durch Präsident Warren G. Harding im Blauen Zimmer des Weißen Hauses symbolisch das für sie gesammelte Gramm Radium übergeben worden war, begann Curie eine Rundreise durch die Vereinigten Staaten. Ihre Ziele waren das Labor von Bertram Boltwood, die Fabriken der "Standard Chemical Company" in Oakland und Canonsburg, aber auch die Niagarafälle und der Grand Canyon. Die zahlreichen öffentlichen Auftritte erschöpften sie, und sie ließ sich immer öfter durch ihre Töchter vertreten. Während ihres Aufenthaltes wurden ihr neun Ehrendoktorate verliehen. Der Bereich Physik der Harvard University verweigerte ihr diese Ehrenbezeugung jedoch mit der Begründung, „sie habe seit 1906 nichts Wichtiges geleistet“. Vor ihrer Rückreise am 25. Juni an Bord der "R.M.S. Olympic" entschuldigte sich Curie für ihre gesundheitliche Schwäche: „Meine Arbeit mit dem Radium … vor allem während des Krieges hat meine Gesundheit so sehr geschädigt, dass es mir nicht möglich ist, alle Laboratorien und Colleges zu sehen, für die ich ein tiefes Interesse hege.“ Im Oktober 1929 reiste Marie Curie ein zweites Mal nach Amerika. Während dieses zweiten Aufenthalts überreichte Präsident Herbert C. Hoover ihr einen Scheck über 50.000 Dollar, der für den Ankauf von Radium für das Radium-Institut in Warschau gedacht war. Wirken für den Völkerbund. Auf Empfehlung des Präsidenten des Völkerbundrates Léon Bourgeois forderte die Versammlung des Völkerbundes den Rat am 21. September 1921 auf, eine Kommission zu ernennen, die die Zusammenarbeit fördern sollte. Die Bildung der "Internationalen Kommission für Geistige Zusammenarbeit" wurde am 14. Januar 1922 vom Völkerbundsrat offiziell beschlossen. Ihr sollten zwölf vom Rat ernannte Mitglieder angehören, die aufgrund ihres wissenschaftlichen Rufes und ohne Rücksicht auf die Staatszugehörigkeit gewählt wurden. Unter den aus einer Liste von 60 Kandidaten ausgewählten Wissenschaftlern, deren Nominierung am 15. Mai 1922 bekanntgegeben wurde, befand sich auch Marie Curie. Während ihrer zwölfjährigen Tätigkeit für die Kommission – eine Zeit lang war sie deren Vizepräsidentin – setzte sie sich für die Gründung einer internationalen Bibliografie wissenschaftlicher Publikationen ein, bemühte sich um die Ausarbeitung von Richtlinien für eine länderübergreifende Vergabe von Forschungsstipendien und versuchte einen einheitlichen Urheberschutz für Wissenschaftler und deren Erfindungen zu etablieren. Das Radium-Institut Paris. Die Gründung des Institut du Radium in der "Rue des Nourrices" (der späteren "Rue Curie") ging auf eine Idee von Émile Roux, dem Leiter des Institut Pasteur, im Jahr 1909 zurück. Gemeinsam mit dem Vizerektor der Universität, Louis Liard (1846–1917), erarbeitete er einen Plan für zwei separate Laboratorien. Eines sollte die Physik und Chemie radioaktiver Elemente erforschen und von Marie Curie geleitet werden, das andere hatte die Aufgabe, unter der Leitung von Claude Regaud (1870–1940) die medizinischen Anwendungsmöglichkeiten der Radioaktivität zu studieren. Die Bauarbeiten nach den Plänen des Architekten Henri-Paul Nénot (1853–1934) begannen 1912. Im Jahr 1914 wurde Marie Curie zur Leiterin des Radium-Instituts ernannt. Beim Ausbruch des Ersten Weltkriegs blieb sie in Paris, um über den Radiumvorrat des Institutes zu wachen. Das im Auftrag der französischen Regierung aus Sicherheitserwägungen am 3. September 1914 nach Bordeaux in Bleibehältern ausgelagerte Radium kehrte 1915 an das Institut zurück. In diesem Jahr vollzog Marie Curie schrittweise den Umzug aus ihrem alten Laboratorium in das neue Gebäude. 1916 wurde auf ihren Vorschlag hin am Institut die Abteilung "Emanation" geschaffen. Die für die „Radiumtherapie“ hergestellten Radium- und Radonampullen wurden für die Behandlung verwundeter Soldaten benutzt. Henri de Rothschild (1872–1946) gründete 1920 die "Curie-Stiftung", um die wissenschaftliche und medizinische Arbeit am Institut zu unterstützen. Die "Académie nationale de Médecine" nahm Marie Curie am 7. Februar 1922 als freies Mitglied in ihre Reihen auf. Im Frühjahr 1919 begannen die ersten Lehrveranstaltungen am Institut. Mitarbeiter des Radium-Institutes veröffentlichten von 1919 bis 1934 insgesamt 438 wissenschaftliche Artikel, darunter 34 Dissertationen. 31 Artikel stammten von Marie Curie. Bedeutende Arbeiten stammten beispielsweise von Salomon Aminyu Rosenblum (1896–1959), der die Feinstruktur der Alphastrahlung nachwies, sowie von Irène Joliot-Curie und Frédéric Joliot-Curie, denen es erstmals gelang, ein Radionuklid künstlich herzustellen. Marie Curie förderte bewusst Frauen und aus dem Ausland stammende Studierende. 1931 waren zwölf von 37 Forschern am Institut Frauen, darunter Ellen Gleditsch, Eva Ramstedt (1879–1974) und Marguerite Perey, die bedeutende Beiträge zur Erforschung der Radioaktivität leisteten. Die Auszeichnung ihrer Tochter Irène mit dem Nobelpreis für Chemie, den diese 1935 gemeinsam mit ihrem Ehemann erhielt, erlebte Marie Curie nicht mehr. Sie starb am 4. Juli 1934 im Sanatorium Sancellemoz bei Passy (Hochsavoyen) an einer, die vermutlich auf ihren langjährigen Umgang mit radioaktiven Elementen zurückzuführen ist. Dieser Auffassung war Claude Regaud, Professor am Radium-Institut Paris, der schrieb, dass man sie zu den Opfern des Radiums zählen könne. Würdigung und Rezeption. a>", entworfen von Margot Bitzer (* 1936) Marie Curies wissenschaftliche Arbeit wurde mit zahlreichen Wissenschaftspreisen und -medaillen gewürdigt. Darunter befanden sich der "Actonian Prize" der Royal Institution of Great Britain (1907), der "Ellen Richards Prize", der American Association to Aid Scientific Research by Woman (1921), der "Grand Prix du Marquis d'Argenteuil", der "Société d’Encouragement pour l’Industrie Nationale" (1923) und der "Cameron Prize" der Universität Edinburgh (1931). Sie ist bislang die einzige Frau, der zwei Nobelpreise verliehen wurden. Sie war Mitglied und Ehrenmitglied einer Vielzahl von wissenschaftlichen Gesellschaften und erhielt Ehrendoktorate von Universitäten auf der ganzen Welt, deren Auflistung in Ève Curies 1937 veröffentlichten Biografie über ihre Mutter fünf Seiten umfasst. Im Jahr 1932 wurde sie zum Mitglied der Leopoldina gewählt. Zu Ehren von Marie und Pierre Curie sind die Bezeichnungen des chemischen Elements Curium und der Einheit Curie gewählt worden, das Curie ist eine Maßeinheit für die Aktivität eines radioaktiven Stoffes. Die Universität Pierre und Marie Curie in Paris, die Maria-Curie-Skłodowska-Universität in Lublin und die Curie Metropolitan High School in Chicago sowie etliche Schulen, beispielsweise in Deutschland, tragen Marie Curies Namen. Unter der Bezeichnung "Marie-Curie-Programm" (seit 2007 "Marie Curie Actions") fördert die Europäische Kommission in mehreren Forschungsausbildungs- und Mobilitätsprogrammen Nachwuchswissenschaftler. Das "Radium-Institut Paris" und die "Curie-Stiftung" schlossen sich 1970 zum Institut Curie zusammen, das sich im Sinne Marie Curies der Forschung, Lehre und Krebsbehandlung verschrieben hat. Im Jahr 1992 wurde das ehemalige Labor Marie Curies als "Curie Museum" der Öffentlichkeit zugänglich gemacht. Es dient zugleich als Archiv. Die "Association Curie et Joliot-Curie" pflegt den Nachlass der Curie-Familie. Anlässlich des 75. Jahrestages der Gründung der "Curie-Stiftung" wurden 1995 die sterblichen Überreste von Marie und Pierre Curie in das Pariser Panthéon überführt. Aufgrund ihrer Biografie wurde Marie Curie noch zu ihren Lebzeiten von der polnischen Frauenbewegung für deren Ziele vereinnahmt. Marie Curie engagierte sich jedoch nicht für diese Bewegung und setzte sich nicht für deren Ziele ein. Marie Curies Bild in der Öffentlichkeit wurde lange Zeit maßgeblich durch die von ihrer Tochter Eve verfasste überhöhte biografische Darstellung bestimmt. Eve Curie stellte eine Frau dar, die sich ganz der Wissenschaft gewidmet hatte und der persönliche Niederlagen nichts anhaben konnten. Die Ablehnung der Aufnahme Marie Curies in die französische Akademie der Wissenschaften und die „Langevin-Affäre“ wurden beispielsweise nur beiläufig erwähnt. Die in der Französischen Nationalbibliothek aufbewahrten Tagebücher, die Marie Curie nach dem Tod ihres Mannes begonnen hatte, wurden der Forschung erst 1990 zugänglich. Susan Quinn (* 1940) konnte bei ihren siebenjährigen Recherchen für ihr Buch "Marie Curie. Eine Biographie" bisher unzugängliche Dokumente über die „Langevin-Affäre“ auswerten und so ein sehr differenziertes Bild der Persönlichkeit Marie Curies zeichnen. Max Planck. Max Karl Ernst Ludwig Planck (* 23. April 1858 in Kiel; † 4. Oktober 1947 in Göttingen) war ein bedeutender deutscher Physiker auf dem Gebiet der theoretischen Physik. Er gilt als Begründer der Quantenphysik. Für die Entdeckung des planckschen Wirkungsquantums erhielt er 1919 den Nobelpreis für Physik des Jahres 1918. Nach dem Studium in München und Berlin folgte Planck 1885 zunächst einem Ruf nach Kiel, 1889 wechselte er nach Berlin. Dort beschäftigte sich Planck mit der Strahlung Schwarzer Körper und konnte 1900 die plancksche Strahlungsformel präsentieren, die diese erstmals korrekt beschrieb. Damit legte er den Grundstein für die moderne Quantenphysik. Geburt und Herkunft. Brief mit Unterschrift des zehnjährigen Max Planck Max Planck wurde am 23. April 1858 als sechstes Kind von Wilhelm von Planck (1817–1900) und dessen zweiter Ehefrau "Emma geb. Patzig" (1821–1914) geboren und erhielt ausweislich der handschriftlichen Eintragung im Kirchenbuch der St.-Nikolai-Gemeinde in Kiel ursprünglich den Vornamen "Marx". Es ist nicht klar, ob es sich dabei um ein Versehen handelt, Planck führte jedoch zeit seines Lebens den Namen "Max". Er hatte vier Geschwister (Hermann, Hildegard, Adalbert und Otto) und aus der ersten Ehe des Vaters zwei Halbgeschwister (Hugo und Emma). Plancks Vater stammte aus einer traditionsreichen Gelehrtenfamilie. Sein Urgroßvater Georg Jakob Planck war Stadt- und Amtsschreiber in Nürtingen, sein Großvater Gottlieb Jakob Planck (1751–1833) und sein Vater Heinrich Ludwig Planck (1785–1831) waren beide Theologieprofessoren in Göttingen. Er selbst war zur Zeit von Max Plancks Geburt Juraprofessor in Kiel, zuvor hatte er in Basel und Greifswald gelehrt. Sein Bruder Gottlieb Planck (1824–1910) war ebenfalls Jurist und lehrte in Göttingen, er war einer der Verfasser des Bürgerlichen Gesetzbuchs. Plancks Mutter Emma stammte aus Greifswald, wo ihr Vater Rechnungsrat in der Provinzialbehörde war. In ihrer Familie dominierten Staats- und Verwaltungsbeamte sowie Pfarrer. Emma Planck wird stets ein zugeschrieben, auch nach dem Tod ihres Mannes verkehrte sie in den akademischen Kreisen Münchens, wo sie sehr beliebt war. Max Planck blieb ihr bis zu ihrem Tod am 4. August 1914 eng verbunden. 1867–1874: Schulzeit in München. Max Planck als Schüler (1874) Max Planck verbrachte die ersten Jahre seines Lebens in Kiel, bis die Familie 1867 nach München umzog, wohin der Vater einen Ruf auf den Lehrstuhl für Zivilprozessrecht erhalten hatte. Dort besuchte Planck, der zuvor Schüler der "Sexta" der Kieler Gelehrtenschule war, ab dem 14. Mai 1867 die erste Lateinklasse des Maximiliansgymnasiums. Der vielseitig begabte Planck war ein guter, jedoch kein herausragender Schüler und galt als Liebling der Lehrer, diese bescheinigten ihm zu sein. Auch wenn es am Maximiliansgymnasium keinen naturwissenschaftlichen Unterricht gab, kam Planck hier erstmals mit der Physik in Berührung. Sein Mathematiklehrer Hermann Müller, den Planck rückblickend als beschrieb, vermittelte den Schülern die Grundlagen der Astronomie und Mechanik, die zum Stoff der Abiturklasse in seinem Fach gehörten. Als besonders prägend behielt Planck das vom Lehrer durch ein und anschauliches Beispiel eingeführte Prinzip von der Erhaltung der Energie in Erinnerung. Er habe dieses für ihn aufgenommen. Unter Plancks Mitschülern am "Maximiliansgymnasium" waren unter anderem der spätere Gründer des Deutschen Museums, Oskar Miller sowie Walther von Dyck, der als Mathematiker und Wissenschaftsmanager bekannt wurde. Weiterhin besuchten die Kinder vieler wohlhabender und angesehener Familien die Schule, darunter der Sohn des Schriftstellers Paul Heyse sowie Plancks zukünftiger Schwager Karl Merck, Sohn des Bankiers Heinrich Johann Merck. Im Sommer 1874 bestand Planck mit 16 Jahren das Abitur als Viertbester seines Jahrgangs. Die nun anstehende Wahl des Studienfachs fiel ihm nicht leicht, zunächst schwankte er zwischen Naturwissenschaften, der Altphilologie und einem Musikstudium. Planck, der über ein absolutes Gehör verfügte, spielte Klavier und Cello und begleitete regelmäßig Gottesdienste an der Orgel. Er war zudem ein hervorragender Sänger und war als Sopran Mitglied im Schul- und Kirchenchor. Zudem dirigierte und komponierte er Lieder für kleine Theaterstücke und die Hausmusik, die damals für das Bildungsbürgertum eine übliche Freizeitbeschäftigung waren. Als Student komponierte er später sogar eine Operette mit dem Titel "Die Liebe im Walde", die jedoch nicht erhalten ist. Auf der Suche nach einem Studienfach erwog Planck also zunächst, Musik zu studieren, sah darin aber keine Berufsperspektive und entschied sich für die Physik. Der Münchner Physikprofessor Philipp von Jolly, bei dem Planck sich 1874 nach den Aussichten erkundigte, kommentierte Plancks Interesse an der Physik mit der Bemerkung, dass – eine Ansicht, die zu dieser Zeit von vielen Physikern vertreten wurde. 1874–1879: Studium in München und Berlin. Planck als Student in Berlin (1878) Zum Wintersemester 1874 immatrikulierte sich Planck an der Ludwig-Maximilians-Universität München für das Studium der Mathematik und der Naturwissenschaften. Dort wurde Philipp von Jolly, der laut Zeitgenossen war, zu seinem akademischen Lehrer. Weitere Physikvorlesungen hörte Planck bei Wilhelm Beetz, seine Lehrer in Mathematik waren Philipp Ludwig von Seidel und Gustav Bauer, dessen mathematischer Kolleg ihn. Bei von Jolly, der zu dieser Zeit wenig erfolgreich versuchte, experimentell die Erdbeschleunigung zu bestimmen, lernte Planck die Schwierigkeiten physikalischer Forschung kennen. In dieser Zeit unternahm Planck die einzigen selbstständigen Experimente seiner gesamten wissenschaftlichen Laufbahn, als er untersuchte, ob die von den theoretischen Physikern angenommenen „halbdurchlässigen Wände“ tatsächlich existierten. Dazu beschäftigte er sich mit der Diffusion von Wasserstoff durch erhitztes Platin, das in dieser Konstellation tatsächlich halbdurchlässig ist. Diese Erkenntnis wurde später für Versuche in Physik und Chemie aufgegriffen. Im "Akademischen Gesangverein" AGV München, dem er, wie zuvor schon seine Brüder, angehörte, lernte Planck den zwei Jahre älteren Carl Runge (1856–1927) kennen, der ebenfalls Mathematik und Physik studierte und in der Folge als Mathematiker bekannt wurde. Planck unternahm im Frühjahr 1877 zusammen mit zwei Freunden eine Wanderung nach Italien, zu der Runge später hinzustieß. Plancks Biografen bewerten diese Reise, bei der es zu vielen, zumeist philosophischen Diskussionen kam, als wichtiges Ereignis in Plancks später Jugend. Besonders Runge, Für Planck, der aus einer traditionsgebundenen Familie stammte, waren dies völlig neue Gedanken. Zum Wintersemester 1877 wechselte Planck gemeinsam mit Runge für ein Jahr nach Berlin und studierte dort an der Friedrich-Wilhelms-Universität bei den berühmten Physikern Gustav Kirchhoff und Hermann von Helmholtz, den er bereits in München kennengelernt hatte. Von den Vorlesungen der von ihm bewunderten Wissenschaftler war Planck jedoch bald enttäuscht und schrieb rückblickend: Kirchhoff dagegen hielt zwar ausführlich vorbereitete und ausformulierte Vorlesungen, Planck empfand diese jedoch als Daher bildete sich Planck, der in Berlin auch den Mathematiker Karl Weierstraß hörte, hauptsächlich im Selbststudium aus den Schriften von Rudolf Clausius, der sich mit der Wärmetheorie beschäftigt hatte, die in der Folge auch Plancks Arbeitsgebiet wurde. Clausius hatte erstmals die ersten beiden Hauptsätze der Thermodynamik formuliert, wobei Planck den ersten bereits aus seiner Schulzeit als „Prinzip von der Erhaltung der Energie“ kannte. Den zweiten Hauptsatz wählte Planck zum Thema seiner Dissertation. Im Oktober 1878 legte Planck, nun wieder zurück in München, das „Staatsexamen für das Lehramt an höheren Schulen“ in den Fächern Mathematik und Physik ab. Dies war zu dieser Zeit für die meisten Physikstudenten das angestrebte Studienziel, da nur der Beruf des Lehrers eine geregelte Anstellung versprach. Planck entschied sich hingegen, der Tradition seiner Familie folgend, für eine Universitätslaufbahn und war lediglich Ende 1878 für kurze Zeit an seiner ehemaligen Schule als Vertretungskraft tätig. Am 12. Februar 1879 reichte er seine Dissertation "Über den zweiten Hauptsatz der mechanischen Wärmetheorie" ein, in der er laut den Gutachtern Besonders hervorgehoben wurden seine selbständige Bearbeitung des ebenso eigenständig gewählten Themas sowie seine Sachkenntnis. Auch die mündliche Prüfung am 30. Mai des Jahres bestand Planck mit Bravour. Die Kommission, bestehend aus von Jolly (Physik), Bauer (Mathematik) und Adolf von Baeyer (Chemie), verlieh ihm die Note I mit der Auszeichnung "summa cum laude". Auch die damals zur Promotion nötige schriftliche Prüfung in verschiedenen Teilgebieten der Physik bereitete Planck keine Schwierigkeiten, so dass er am 28. Juni 1879 nach einem öffentlichen Vortrag über "Die Entwicklung des Begriffs der Wärme" und anschließender allgemeiner Diskussion promoviert wurde. 1880–1885: Privatdozent in München. Bereits 1880 legte Planck seine Habilitationsschrift über "Gleichgewichtszustände isotroper Körper in verschiedenen Temperaturen" vor, in der er die allgemeinen Erkenntnisse aus seiner Dissertation zur Lösung verschiedener physikochemischer Probleme verwendete. Nach einer öffentlichen Probevorlesung "Über die Prinzipien der mechanischen Gastheorie" mit anschließender Diskussion wurde Planck am 14. Juni 1880 habilitiert. Mit gerade einmal 22 Jahren war er nun Hochschullehrer und wurde als Privatdozent an die Münchener Universität berufen. Dort hielt er – unbesoldet und weiterhin bei den Eltern lebend – ab dem Wintersemester 1880 seine erste Vorlesung zu analytischer Mechanik und erweiterte diese Veranstaltung in den folgenden Jahren zu einem Zyklus, der alle wichtigen Teilgebiete der Physik aus theoretischer Sicht behandelte. Gleichzeitig versuchte er, sich auch als Wissenschaftler einen Namen zu machen, um bald den Ruf auf eine Professur zu erhalten. 1883 erhielt er einen ebensolchen von der Forstakademie Aschaffenburg, lehnte die Berufung aber nach einer Beratung mit Helmholtz ab, da er darin keine wissenschaftliche Perspektive sah. Planck, der zu dieser Zeit bereits mit Marie Merck verlobt war, verspürte einen immer stärker werdenden und war mit seiner Lage, besonders der Abhängigkeit vom Unterhalt seines Vaters, unzufrieden. In der Fachwelt wurde Planck während dieser Zeit kaum beachtet, weder seine Dissertation noch die Habilitationsschrift erfuhren Aufmerksamkeit. Dennoch setzte Planck seine Forschungsarbeit auf dem Gebiet der Wärmelehre fort und widmete sich während seiner Zeit in München der Entropie. Dazu untersuchte er Aggregatzustandsänderungen, Gasgemische und Lösungen. 1885–1889: Professur in Kiel, Heirat mit Marie Merck. Hauptgebäude der Universität Kiel (1893) Im April 1885 berief die Christian-Albrechts-Universität zu Kiel Planck als Extraordinarius für Theoretische Physik. Bereits seit 1883 hatte sich die recht kleine Universität bemüht, eine solche Stelle einzurichten, und hatte zunächst auf Berliner Empfehlung Heinrich Hertz als Privatdozent angestellt. Da sich die Einrichtung der Professur jedoch verzögerte, nahm dieser 1884 einen Ruf der TH Karlsruhe an. Bei der anschließenden Suche der Kieler Fakultät nach einem Nachfolger fiel die Wahl schnell auf Planck, da dieser hatte. Nach kurzen Verhandlungen, bei denen ihm die guten Beziehungen seines Vaters nach Kiel zugutekamen, wurde Planck am 2. Mai 1885 in Kiel zum Professor ernannt. Obwohl es in Kiel nur wenige Studenten seines Faches gab, konnte er hier seine Reputation als Physiker bestätigen und ausbauen. Planck, der nun über ein Jahresgehalt von 2000 Mark nebst Wohnungsgeldzuschuss und Kolleggeldern der Studenten verfügte, stand jetzt wirtschaftlich auf eigenen Füßen und konnte, nachdem er sich im Sommer 1886 mit ihr verlobt hatte, am 31. März 1887 seine langjährige Freundin Marie Merck (1861–1909) heiraten. Am 9. März 1888 kam ihr erster Sohn Karl (1888–1916) zur Welt, im April 1889 die Zwillingstöchter Emma (1889–1919) und Grete (1889–1917), im Jahr 1893 der zweite Sohn Erwin (1893–1945). Während seiner Zeit in Kiel beteiligte sich Planck an einem 1884 von der philosophischen Fakultät der Universität Göttingen für das Jahr 1887 ausgeschriebenen Wettbewerb „Über das Wesen der Energie“. Für seine Monografie "Das Princip der Erhaltung der Energie" wurde ihm der zweite Preis zuerkannt, und da der erste Preis nicht vergeben wurde, ging Planck damit inoffiziell als Sieger aus dem Wettbewerb hervor. Die Jury hob besonders hervor. Vermutlich blieb ihm der erste Preis versagt, da er in seiner Abhandlung der Arbeit von Helmholtz den Vorzug gegenüber der des Göttinger Professors Wilhelm Eduard Weber gab. Zwischen beiden Physikern gab es zu dieser Zeit einen heftigen wissenschaftlichen Streit. Planck legte sich in Kiel endgültig auf die theoretische Physik als Fachgebiet fest, was für die damalige Zeit zunächst eine ungewöhnliche Entscheidung war. In Deutschland gab es nur zwei Lehrstühle für diese Richtung der Physik, die von den dominierenden Experimentalphysikern als notwendiges Übel begriffen oder lediglich als Hilfswissenschaft für ihre Forschungen gesehen wurde. Ab 1889: Professur in Berlin. Hauptgebäude der Berliner Universität (um 1900) Im April 1889 wurde Planck an die Friedrich-Wilhelms-Universität nach Berlin berufen. Dort wurde er Nachfolger des im Oktober 1887 überraschend verstorbenen Gustav Kirchhoff. Ursprünglich hatte die Philosophische Fakultät, zu der zu dieser Zeit der Lehrstuhl für Physik gehörte, versucht, den 54-jährigen Ludwig Boltzmann aus Graz zu gewinnen. Boltzmann war einer der führenden theoretischen Physiker dieser Zeit und entsprach damit dem Anforderungsprofil der Fakultät, die nach suchte. Als dieser Plan scheiterte, schlug die Berufungskommission im November 1888 Heinrich Hertz und Planck als mögliche Kandidaten vor. Da Hertz seine Position in Karlsruhe nicht verlassen wollte, erhielt schließlich Planck den Ruf. Zunächst war Planck nur Extraordinarius – man war sich seitens der Universität unsicher, ob der junge Physiker den hohen Anforderungen genügte – wurde aber bereits 1892 zum ordentlichten Professor ernannt und bekleidete nun den Lehrstuhl für theoretische Physik. Unmittelbar nach seinem Amtsantritt trat Planck in die Deutsche Physikalische Gesellschaft zu Berlin ein, in der er bald auch als Schatzmeister aktiv war. 1899 war Planck maßgeblich an der Umwandlung und -benennung der Gesellschaft in die "Deutsche Physikalische Gesellschaft" beteiligt. Bereits 1894 wurde Planck auf Vorschlag von Helmholtz’ zudem in die Preußische Akademie der Wissenschaften gewählt. Planck war nun mit gerade einmal 35 Jahren – der Altersdurchschnitt der Akademie lag bei über 60 Jahren – Mitglied einer der renommiertesten Wissenschaftsgesellschaften Europas. Dies war ein weiterer wichtiger Schritt in Plancks Karriere. Gedenktafel am Haus Wangenheimstraße 21, in dem Planck von 1905 bis 1944 lebte In Berlin war Planck nicht nur wissenschaftlich, sondern auch gesellschaftlich stärker eingebunden als in Kiel. In der Villenkolonie Grunewald, wo viele Berliner Professoren lebten, ließ auch Planck ein Haus bauen und zog 1905 mit seiner Familie, zu der nun auch der 1893 geborene Erwin (1893–1945) gehörte, in die Wangenheimstraße 21. In der Nachbarschaft wohnten der Historiker Hans Delbrück, der Theologe Adolf von Harnack und der Mediziner Karl Bonhoeffer, mit deren Familien die Plancks befreundet waren. Planck verband zudem bald eine enge Freundschaft mit Joseph Joachim (1831–1907), dem Direktor der Akademischen Hochschule für Musik, mit dem er häufig zusammen musizierte. Zu dieser Zeit beschäftigte sich Planck auch mit musiktheoretischen Problemen, insbesondere den klanglichen Unterschieden zwischen natürlicher und temperierter Stimmung. Seine Vorlesungen hielt Planck in einem sechssemestrigen Zyklus, handelte also in jeweils drei Jahren Mechanik, Elektromagnetismus, Optik, Thermodynamik und abschließend spezielle Probleme aus der theoretischen Physik ab. Bei seinen Vorträgen benutzte er kein Manuskript, nur gelegentlich vergewisserte er sich mit seinen Notizen, dass seine Berechnungen und Herleitungen korrekt waren. Alle Themen und Zusammenhänge entwickelte er aus einfachen Formeln und Gleichungen heraus und erlaubte es somit seinen Zuhörern, die Zusammenhänge der jeweiligen Fachgebiete nachzuvollziehen. Bei seinen Studenten wurde Planck sehr geschätzt, da er klar und fließend sprach und seine Vorlesungen gut verständlich waren. Viele empfanden ihn aufgrund seiner klaren, nüchternen Formulierungen zunächst als unpersönlich und verhalten, zumal er auch seine eigenen, maßgeblichen Beiträge zur Quantentheorie nicht erwähnte, sondern ebenso wie alle anderen Themen präsentierte. Lise Meitner, die zuvor bei dem als mitreißenden Redner bekannten Boltzmann in Wien studiert hatte, sagte rückblickend, sie habe Strahlungsgesetz und Quantentheorie, Relativitätstheorie. Ab Mitte der 1890er Jahre beschäftigte sich Planck mit Strahlungsgleichgewichten und der Theorie der Wärmestrahlung und versuchte, die Strahlungsgesetze aus thermodynamischen Überlegungen heraus abzuleiten. Am 14. Dezember 1900 präsentierte er der Physikalischen Gesellschaft eine Gleichung, die die Strahlung Schwarzer Körper korrekt beschrieb. Die bis dahin gefundenen Gleichungen, das wiensche Strahlungsgesetz und das Rayleigh-Jeans-Gesetz, konnten jeweils nur einen Teil des Strahlungsspektrums ohne Abweichungen wiedergeben. Im Zuge der Arbeit an seinem Strahlungsgesetz gab Planck seine Vorbehalte gegen eine atomistisch-wahrscheinlichkeitstheoretische Betrachtung der Entropie auf. Gleichzeitig legte er den Grundstein für die Quantenphysik, als er für die Oszillatoren, die in seiner Modellvorstellung für die Strahlung verantwortlich waren, nur bestimmte, diskrete Energiezustände erlaubte. Im Rahmen dieser Arbeit führte Planck auch das plancksche Wirkungsquantum, eine fundamentale Naturkonstante, in die Physik ein. 1905 las Planck die Abhandlung "Zur Elektrodynamik bewegter Körper" des damals noch unbekannten Albert Einstein und widmete sich in den folgenden Jahren intensiv der darin eingeführten Speziellen Relativitätstheorie. Planck war entscheidend daran beteiligt, dass Einsteins Arbeit die nötige Aufmerksamkeit erfuhr. Schon im März 1906 hielt er in Berlin einen Vortrag vor der Physikalischen Gesellschaft und stand in Briefkontakt mit Einstein, der zu dieser Zeit noch in Bern lebte. Planck verteidigte das neue Konzept gegen Kritiker und bemühte sich erfolgreich, die Experimente des Göttingers Walter Kaufmann zu widerlegen, dessen Messungen scheinbar im Widerspruch zur Theorie standen. Schon im September 1908, als der Mathematiker Hermann Minkowski auf der Versammlung der Deutschen Naturforscher und Ärzte in Köln die Zeit als vierte Dimension einführte, hatte sich die Spezielle Relativitätstheorie in Fachkreisen durchgesetzt. Ungeachtet seiner Förderung der einsteinschen Relativitätstheorie lehnte Planck dessen Deutung des Strahlungsproblems, die sogenannte Lichtquantenhypothese, ab. Tod von Marie Planck, Heirat mit Marga von Hoeßlin. Am 14. März 1911 heiratete Planck eine Nichte seiner verstorbenen Frau, Margarete (Marga) von Hoeßlin (1882–1949). Am 24. Dezember 1911 wurde Hermann Planck († 1954) als erstes gemeinsames Kind geboren. Die Heirat mit der 25 Jahre jüngeren Marga wurde nicht von allen Kollegen gutgeheißen, der 53-jährige Planck fand jedoch durch die neue Beziehung bald wieder zu Kräften und nahm auch das regelmäßige Musizieren in seinem Haus wieder auf. Zu den regelmäßigen Gästen zählten die Physiker Wilhelm Westphal, Eduard Grüneisen, Otto von Baeyer und Otto Hahn sowie die Familien Delbrück und Harnack. Zuhörer und Gäste bei anderen Veranstaltungen im Freundeskreis waren Robert Pohl und Gustav Hertz und Lise Meitner, die Planck für diese Zeit als ausgelassen und unbeschwert in Erinnerung hatte. Solvay-Konferenz. Die Teilnehmer der ersten Solvay-Konferenz. Planck (hintere Reihe, 2. von links) steht vor der Tafel, auf der sein Strahlungsgesetz zu lesen ist. Im Oktober 1911 nahm Planck an der ersten von seinem Kollegen Walther Nernst initiierten Solvay-Konferenz teil, auf der die Konsequenzen, die sich aus seinem Strahlungsgesetz für die Physik ergaben, erörtert werden sollten. Die Konferenz selbst blieb ohne Ergebnis – Albert Einstein beschrieb sie später als – schärfte jedoch das Bewusstsein der anwesenden Physiker für die aufgeworfenen Probleme und führte dazu, dass sich zunehmend auch junge Physiker mit der Quantentheorie auseinandersetzten. Diese Generation entwickelte schließlich in den 1920er Jahren die moderne Quantenmechanik. Planck selbst sah die weiteren Entwicklungen äußerst skeptisch und versuchte weiterhin, sein Strahlungsgesetz mit der klassischen Physik in Einklang zu bringen. Dazu legte er in den folgenden Jahren die sogenannte „zweite“ und „dritte Quantentheorie“ vor, die jedoch ob der rasanten Entwicklung der Quantenphysik keinen Erfolg hatten. Jedoch bildeten diese Arbeiten eine wichtige Basis für die weitere Forschung, Planck wies unter anderem auf die Tatsache hin, dass es auch am absoluten Nullpunkt noch Atomschwingungen geben müsse. Schüler. Planck las zwar 37 Jahre als Professor in Berlin und wurde von seinen Studenten als Lehrer geschätzt, begründete aber keine eigene Schule, da er nur wenige Doktoranden hatte und mit diesen auch selten in Kontakt trat. Ein wissenschaftlicher „Betrieb“ kam an seinem Institut daher nicht auf. Ab 1912: Beständiger Sekretär der Kaiser-Wilhelm-Gesellschaft. Am 23. März 1912 wurde Max Planck zum „beständigen Sekretär“ der 1911 gegründeten Kaiser-Wilhelm-Gesellschaft zur Förderung der Wissenschaften gewählt. Zusammen mit drei weiteren beständigen Sekretären bildete er das Präsidium der neuen Forschungsgesellschaft, jeder von ihnen übernahm reihum für jeweils vier Monate den Vorsitz der Gesamtakademie. Planck bekleidete nun ein einflussreiches Amt und wurde zunehmend zur, wie es vor ihm der 1894 verstorbene Hermann von Helmholtz gewesen war. Dabei stand für Planck nicht nur die eigene Forschung, sondern auch die Entwicklung der gesamten Physik und der Wissenschaft generell im Vordergrund. Etwa seit seiner Wahl zum beständigen Sekretär der Kaiser-Wilhelm-Gesellschaft bemühte sich Planck, Albert Einstein nach Berlin zu holen, der jedoch lieber in der Schweiz bleiben wollte und die Monarchie ablehnte. Im Frühsommer 1913 reiste Planck daher mit Walther Nernst nach Zürich und unterbreitete Einstein das Angebot, Akademie-Mitglied und Professor ohne Lehrverpflichtung an einem eigenen, neuen Institut an der Berliner Universität zu werden. Einstein sagte im Dezember zu und trat am 1. April 1914 seine neue Stelle an. Planck war während des Studienjahrs 1913/1914 zudem Rektor der Friedrich-Wilhelms-Universität. Erster Weltkrieg. Als Deutschland mit der Mobilmachung und Kriegserklärung an Russland am 1. August und an Frankreich am 3. August 1914 zur Partei im Ersten Weltkrieg wurde (siehe Julikrise), begrüßte Planck diesen Schritt und war dankbar, diese zu erleben. Politisch war er konservativ und staatstreu eingestellt, zudem war er patriotisch und loyal gegenüber dem Kaiser. Wie die meisten seiner Kollegen teilte er die Begeisterung der Bevölkerung und nutzte das jährliche Stiftungsfest der Universität am 3. August, um seinem physikalischen Vortrag einen patriotischen Aufruf folgen zu lassen. Es gehe bei dem Krieg. Planck gehörte auch zu den Unterzeichnern der Schrift "An die Kulturwelt!", die als Manifest der 93 bekannt wurde. Darin widersprachen namhafte Wissenschaftler den als feindliche Propaganda bezeichneten Berichten über deutsche Kriegsverbrechen im neutralen Belgien und rechtfertigten den deutschen Militarismus. Als Kritik aufkam, machte Planck zunächst geltend, er habe sich für eine Unterschrift zugunsten des Manifests gewinnen lassen, ohne es auch nur gelesen zu haben. Planck unterzeichnete aber nur etwa zwei Wochen später auch die Erklärung der Hochschullehrer des Deutschen Reiches, wonach es „Unser Glaube ist, daß für die ganze Kultur Europas das Heil an dem Siege hängt, den der deutsche „Militarismus“ erkämpfen wird“. Dennoch wurde nach 1945 von einigen Autoren geltend gemacht, Planck habe sich später von seiner Unterschrift unter das Manifest „distanziert“. Tatsächlich aber hatte Planck das Manifest noch 1916 in einem offenen Brief an seinen holländischen Kollegen Hendrik Antoon Lorentz mit der Begründung verteidigt, es sei „ein ausdrückliches Bekenntnis, daß die deutschen Gelehrten und Künstler ihre Sache nicht trennen wollen von der Sache des deutschen Heeres. Denn das deutsche Heer ist nichts anderes als das deutsche Volk in Waffen, und wie alle Berufsstände, so sind auch die Gelehrten und Künstler untrennbar mit ihm verbunden“. In einem persönlichen Schreiben an Lorentz erläuterte Planck zudem, sein offener Brief sei zwar „eine Art Widerruf, allerdings nur bezüglich der Fassung, nicht bezüglich des Sinnes“ beider Texte. Zwar verhinderte Planck ebenfalls 1916, dass Mitglieder aus „Feindländern“ aus der Akademie ausgeschlossen wurden. Das wird von einigen Autoren als Zeichen dafür interpretiert, Planck habe den damals auch unter Akademikern weit verbreiteten Chauvinismus nicht geteilt. Er begründete allerdings sein Eintreten anders: Internationale Zusammenarbeit in der Wissenschaft ließe sich mit „glühender Liebe und tatkräftiger Arbeit für das eigene Vaterland“ vereinbaren. Plancks Söhne Karl und Erwin waren beide als Soldaten, seine Töchter Emma und Grete als Krankenpflegerinnen im Ersten Weltkrieg eingesetzt. Erwin Planck, der jüngere der beiden Brüder, geriet nach einer Verletzung schon am 7. September 1914 in französische Kriegsgefangenschaft. Karl Planck fiel am 16. Mai 1916 bei Verdun. Planck ließ sich nichts anmerken und ging weiterhin pflichtbewusst seiner Arbeit nach, viele in seinem Umfeld erfuhren erst Wochen später von dem Tod seines Sohnes. Am 15. Mai 1917 starb Plancks Tochter Grete (* 1889), nur wenige Tage nach der Geburt ihres ersten Kindes, im Wochenbett an einer Lungenembolie. Ihre Zwillingsschwester Emma kümmerte sich um die Tochter. Im Januar 1919 heiratete Emma Planck Gretes Witwer, den Heidelberger Professor Ferdinand Fehling. Am 21. November 1919 starb auch sie bei der Geburt des ersten Kindes, wiederum überlebte die Tochter. Weimarer Republik. In den Wirren der Nachkriegszeit gab Planck, inzwischen oberste Autorität der deutschen Physik, die Parole „Durchhalten und weiterarbeiten“ an seine Kollegen aus. Das bedeutete auch, politische Stellungnahmen zu vermeiden, was allerdings durchaus zu politischen Folgen führen konnte: Als die Relativitätstheorie Einsteins um 1920 mit zunehmender Aggressivität in der Öffentlichkeit diskreditiert und Einstein auch persönlich angegriffen wurde, lehnte Planck es trotz einer Empfehlung des Preußischen Kultusministeriums ab, zu Gunsten Einsteins eine Stellungnahme der Akademie der Wissenschaften abgeben zu lassen. Stattdessen veröffentlichten Heinrich Rubens und Walther Nernst unter eigenem Namen eine Verteidigung der Person Einstein und seiner Theorie. Im Oktober 1920 gründeten Fritz Haber und er die Notgemeinschaft der deutschen Wissenschaft, die sich gezielt der Förderung der notleidenden Forschung annahm; die Mittel stammten zu einem erheblichen Teil aus dem Ausland. Er bekleidete auch führende Positionen in der Berliner Universität, der Preußischen Akademie der Wissenschaften, der Deutschen Physikalischen Gesellschaft und war seit April 1916 Senator der Kaiser-Wilhelm-Gesellschaft (KWG; die spätere Max-Planck-Gesellschaft). Ab 1920 war Planck Kirchenältester im Gemeindekirchenrat der Evangelischen Grunewald-Gemeinde. Planck wurde Mitglied der DVP, der Partei Stresemanns, die liberale innenpolitische Ziele und eher revisionistische in der Außenpolitik verfolgte. Das allgemeine Wahlrecht lehnte er ab und führte später die Nazi-Diktatur auf das „Emporkommen der Herrschaft der Masse“ zurück. Nationalsozialismus und Zweiter Weltkrieg. Bei der Machtergreifung der Nazis 1933 war Planck 74 Jahre alt. Er verhielt sich auch diesem Regime gegenüber loyal. Als Präsident der Kaiser-Wilhelm-Gesellschaft (KWG) richtete er daher am 14. Juli 1933 an Innenminister Wilhelm Frick ein Schreiben, in dem er mitteilte, dass die Gesellschaft gewillt sei, „sich systematisch in den Dienst des Reiches hinsichtlich der rassenhygienischen Forschung zu stellen“. Jüdische Freunde und Kollegen Plancks wurden gedemütigt und vor allem durch das Berufsbeamtengesetz aus ihren Ämtern gedrängt, hunderte Wissenschaftler verließen Deutschland. Otto Hahn fragte daher Planck, ob man nicht eine Anzahl anerkannter deutscher Professoren für einen gemeinsamen Appell gegen diese Behandlung jüdischer Professoren zusammenbringen könne, worauf Planck antwortete: „Wenn Sie heute 30 solcher Herren zusammenbringen, dann kommen morgen 150, die dagegen sprechen, weil sie die Stellen der anderen haben wollen.“ Fritz Haber gehörte zu den wenigen, für den Planck seinen Einfluss offen einsetzte, indem er versuchte, direkt bei Hitler zu intervenieren. Das misslang, Haber starb 1934 im Exil. Ein Jahr darauf veranstaltete Planck in seiner Funktion als Präsident der KWG (seit 1930) aber eine Gedächtnisfeier für Haber. Im übrigen allerdings versuchte Planck es weiterhin mit „Durchhalten und weiterarbeiten“ und bat emigrierwillige Physiker lediglich im Privaten, nicht zu gehen, womit er teilweise erfolgreich war, und ermöglichte es auch einer Reihe von jüdischen Wissenschaftlern, für begrenzte Zeit weiter an Instituten der Kaiser-Wilhelm-Gesellschaft zu arbeiten. 1936 endete Plancks KWG-Präsidentschaft, auf Drängen der Nazis verzichtete er darauf, sich zur Wiederwahl zu stellen. Das politische Klima verschärfte sich weiter und richtete sich nun auch gegen Planck. Johannes Stark, Vertreter der „Deutschen Physik“ und Präsident der Physikalisch-Technischen Reichsanstalt, beschimpfte in einer SS-Zeitschrift Planck, Sommerfeld und Heisenberg als „weiße Juden“ und polemisierte gegen die gesamte Theoretische Physik. Das „Hauptamt Wissenschaft“ untersuchte Plancks Herkunft, erzielte aber nur das Ergebnis, er sei „zu einem Sechzehntel jüdisch“. 1938 feierte Planck seinen achtzigsten Geburtstag: Während des offiziellen Festaktes der DPG wurde dem französischen Physiker Louis de Broglie die Max-Planck-Medaille verliehen, mitten im Vorfeld eines neuen Krieges. Planck erhielt etwa 900 Gratulationen, die er alle persönlich und individuell beantwortete. Ende 1938 wurde die Akademie gleichgeschaltet, Planck trat aus Protest zurück. Er unternahm trotz seines hohen Alters immer noch zahlreiche Vortragsreisen, so 1937 ins Baltikum mit dem berühmten Vortrag "Religion und Naturwissenschaft", und noch 1943 bestieg er im Urlaub in den Alpen mehrere Dreitausender. Während des Zweiten Weltkrieges musste Planck aufgrund des Luftkrieges Berlin verlassen. Am 1. März 1943 fand er Quartier beim Industriellen Carl Still, dessen Gutshaus auf dem ehemaligen Gelände der Burg Rogätz heute noch steht. 1942 schrieb er: „Mir ist der brennende Wunsch gewachsen, die Krise durchzustehen und so lange zu leben, bis ich den Wendepunkt, den Anfang zu einem Aufstieg werde miterleben können.“ Mit „Aufstieg“ dürfte er allerdings weniger einen militärischen Sieg des nationalsozialistischen Regimes, als vielmehr einen politischen und moralischen Neuanfang nach dessen Ende gemeint haben. Denn Planck war sich damals durchaus bewusst, welche Verbrechen von Deutschen begangen wurden, sofern er es nicht sogar mit eigenen Augen sehen konnte. So äußerte er im Mai 1943 gegenüber Lise Meitner: „Es müssen schreckliche Dinge geschehen, wir haben schreckliche Dinge getan.“ Ende Oktober 1943 sollte er einen Vortrag in Kassel halten; deshalb übernachtete er bei Verwandten vom 22. auf den 23. Oktober, als Kassel Ziel eines verheerenden Luftangriffs wurde. Er musste miterleben, wie seine Verwandten ausgebombt wurden. Im Februar 1944 wurde sein Haus in Berlin durch einen Luftangriff völlig zerstört. Am 23. Juli 1944 wurde sein Sohn Erwin Planck wegen Beteiligung am Aufstand vom 20. Juli 1944 verhaftet und in das Hauptquartier der Gestapo gebracht. Vater Planck machte mit mehreren Eingaben die Unschuld seines Sohnes im Sinne der Anklage geltend. So schrieb er an Himmler: „Aufgrund des innigen Verhältnisses, das mich mit meinem Sohn verbindet, bin ich sicher, dass er mit den Geschehnissen des 20. Juli nichts zu tun hat.“ Als Erwin Planck vom Volksgerichtshof am 23. Oktober 1944 dennoch zum Tod verurteilt worden war, schrieb Vater Planck an Hitler: „Mein Führer! Ich bin zutiefst erschüttert durch die Nachricht, dass mein Sohn Erwin vom Volksgerichtshof zum Tode verurteilt worden ist. Die mir wiederholt von Ihnen, mein Führer, in ehrenvollster Weise zum Ausdruck gebrachte Anerkennung meiner Leistungen im Dienste unseres Vaterlandes berechtigt mich zu dem Vertrauen, dass Sie der Bitte des im siebenundachtzigsten Lebensjahr Stehenden Gehör schenken werden. Als Dank des deutschen Volkes für meine Lebensarbeit, die ein unvergänglicher geistiger Besitz Deutschlands geworden ist, erbitte ich das Leben meines Sohnes.“ Weitere Eingaben richtete Planck an Hermann Göring und erneut an Himmler, der eine Umwandlung der Todes- in eine Zuchthausstrafe in Aussicht gestellt haben soll. Dennoch wurde Erwin Planck am 23. Januar 1945 in Plötzensee ermordet. Als auch die Gegend um Rogätz zur Kampfzone wurde, flüchtete das Ehepaar Planck in den benachbarten Wald. Es übernachtete mit hunderten Anderen zunächst einige Tage unter freiem Himmel, dann fand es Aufnahme in der Hütte einer Melkerfamilie. Die Gegend kam zwischen die Fronten der vorrückenden westlichen und sowjetischen Alliierten. Ein amerikanischer Offizier evakuierte das Ehepaar in das unzerstörte Göttingen, wo es bei einer Nichte Plancks unterkam. Späte Jahre. Nach dem Kriegsende wurde von Göttingen aus unter der Führung von Ernst Telschow die Kaiser-Wilhelm-Gesellschaft wieder aufgebaut, deren kommissarischer Präsident Max Planck wurde. Nach seiner Rückkehr aus der englischen Internierung trat Otto Hahn am 1. April 1946 die Nachfolge an. Da die britische Besatzungsmacht auf einem anderen Namen bestand, wurde die Vereinigung am 11. September 1946 im Clemens-Hofbauer-Kolleg in Bad Driburg in Max-Planck-Gesellschaft umbenannt. Max Planck wurde zu ihrem Ehrenpräsidenten ernannt. Trotz zunehmender gesundheitlicher Probleme unternahm Planck wieder Vortragsreisen. Im Juli 1946 nahm er als einziger eingeladener Deutscher an den Feierlichkeiten der Royal Society zum 300. Geburtstag Isaac Newtons teil. Am 4. Oktober 1947 starb Max Planck an den Folgen eines Sturzes und mehrerer Schlaganfälle. Sein Grab befindet sich auf dem Stadtfriedhof Göttingen, auf dem außer ihm eine Reihe weiterer Nobelpreisträger bestattet sind. Religion und Naturwissenschaft. Planck wandte sich in den letzten Jahrzehnten seines Lebens den philosophischen Grenzfragen seines physikalischen Weltbildes zu. Er war dabei philosophisch von Immanuel Kant und theologisch von Adolf Harnack mitbeeinflusst. In Vorträgen und Aufsätzen vertrat er die Auffassung, dass die Religion von einem Gottesglauben ausgehe und den Bereich des Ethischen umfasse, dass die Naturwissenschaft als ein wissenschaftlich-empirisches Erkennen zu Gott hinstrebe, aber nur bei einer „naturwissenschaftlichen Macht“ enden könne. Planck bejahte die geglaubte Wirklichkeit Gottes. Daneben stand seine Kritik an einer Pseudo-Metaphysik, die aus der Quantentheorie unzulässige Gottesbeweise abzuleiten versuchte. Außerdem kritisierte Planck die Absolutsetzung von „religiösen Symbolen“ durch die Kirchen, also mythologische Aussagen. Er war bis zu seinem Tod Mitglied der evangelischen Kirche. Entropie. Die Thermodynamik, die gegen Ende des 19. Jahrhunderts auch als „mechanische Wärmetheorie“ bezeichnet wurde, war zu Beginn dieses Jahrhunderts aus dem Versuch heraus entstanden, die Funktionsweise von Dampfmaschinen zu verstehen und ihre Effektivität zu verbessern. In den 1840er Jahren entdeckten und formulierten mehrere Forscher unabhängig voneinander den Energieerhaltungssatz, der heute auch als der Erste Hauptsatz der Thermodynamik bekannt ist. 1850 formulierte Rudolf Clausius den sogenannten zweiten Hauptsatz, der besagt, dass eine freiwillige (oder spontane) Energieübertragung nur von einem wärmeren auf einen kälteren Körper, nicht aber umgekehrt möglich ist. In England kam zu dieser Zeit William Thomson zu dem gleichen Ergebnis. Die neue und bis heute gültige Formulierung des zweiten Hauptsatzes lautete: „Entropie kann erzeugt, aber niemals vernichtet werden“. Clausius, dessen Arbeiten Planck als junger Student während seines Aufenthaltes in Berlin las, wandte dieses neue Naturgesetz erfolgreich auf mechanische, thermoelektrische und chemische Prozesse sowie auf Aggregatzustandsänderungen an. In seiner Dissertation fasste Planck 1879 die Schriften Clausius zusammen und wies dabei auf Widersprüche und Ungenauigkeiten in ihrer Formulierung hin, um sie anschließend klarzustellen. Zudem verallgemeinerte er die Gültigkeit des zweiten Hauptsatzes auf alle Vorgänge in der Natur, Clausius hatte seine Anwendung auf reversible Vorgänge und thermische Prozesse beschränkt. Weiterhin befasste sich Planck intensiv mit dem neuen Entropiebegriff und stellte heraus, dass die Entropie nicht nur eine Eigenschaft eines physikalischen Systems, sondern gleichzeitig auch ein Maß für die Irreversibilität eines Prozesses ist: Wird bei einem Prozess Entropie erzeugt, so ist er irreversibel, da Entropie gemäß dem zweiten Hauptsatz nicht vernichtet werden kann. Bei reversiblen Vorgängen bleibt die Entropie demnach konstant. Diesen Sachverhalt stellte er 1887 in einer Serie von Abhandlungen mit dem Titel "Über das Princip der Vermehrung der Entropie" ausführlich dar. Plancks Arbeiten erfuhren zu dieser Zeit wenig Beachtung, vielen Physikern galt die Entropie als ein. Planck folgte bei seiner Beschäftigung mit dem Entropiebegriff nicht der damals vorherrschenden molekularen, wahrscheinlichkeitstheoretischen Interpretation, da diese keinen absoluten Beweis der Allgemeingültigkeit ermöglichen. Stattdessen verfolgte er einen phänomenologischen Ansatz und stand auch dem Atomismus skeptisch gegenüber. Auch wenn er diese Haltung im Zuge seiner Arbeiten zum Strahlungsgesetz später aufgab, zeigt sein Frühwerk. Zu Plancks Entropieverständnis gehörte die Erkenntnis, dass das Maximum der Entropie dem Gleichgewichtszustand entspricht. Die damit einhergehende Folgerung, dass sich aus der Kenntnis der Entropie alle Gesetze thermodynamischer Gleichgewichtszustände ableiten lassen, entspricht dem modernen Verständnis solcher Zustände. Planck wählte daher Gleichgewichtsprozesse zu seinem Forschungsschwerpunkt und erforschte, ausgehend von seiner Habilitationsschrift, etwa die Koexistenz von Aggregatzuständen und das Gleichgewicht von Gasreaktionen. Diese Arbeiten an der Grenze zur chemischen Thermodynamik erfuhren auch große Aufmerksamkeit durch die zu dieser Zeit stark expandierende chemische Industrie. Unabhängig von Planck hatte der US-Amerikaner Josiah Willard Gibbs nahezu sämtliche Erkenntnisse, die Planck über die Eigenschaften physikalisch-chemischer Gleichgewichte gewann, ebenfalls entdeckt und ab 1876 publiziert. Planck waren diese Aufsätze unbekannt, in deutscher Sprache erschienen sie erst 1892. Beide Wissenschaftler näherten sich dem Thema jedoch auf unterschiedliche Weise, während Planck sich mit irreversiblen Prozessen beschäftigte, betrachtete Gibbs die Gleichgewichte. Dieser Ansatz konnte sich ob seiner Einfachheit schließlich auch durchsetzen, Plancks Herangehensweise wird jedoch die zugesprochen. Elektrolyte und Lösungen. Neben seinen Forschungen zur Entropie beschäftigte sich Planck im ersten Jahrzehnt seiner wissenschaftlichen Tätigkeit auch mit elektrischen Vorgängen in Lösungen. Dabei gelang es ihm unter anderem, die Abhängigkeit von Leitvermögen und Verdünnung einer Lösung theoretisch herzuleiten, damit begründete er die moderne Elektrolyttheorie. Auch konnte er die Bedingungen für die Gefrier- und Siedepunktänderungen verdünnter Lösungen, die Raoult und van ’t Hoff 1886 gefunden hatten, theoretisch herleiten. Plancksches Strahlungsgesetz und Wirkungsquantum. Nachdem er seine Arbeiten zu thermodynamischen Gleichgewichten weitgehend abgeschlossen und anschließend erfahren hatte, dass zuvor schon der US-Amerikaner Josiah Willard Gibbs zu den gleichen Ergebnissen gekommen war, wandte sich Planck Mitte der 1890er Jahre Strahlungsgleichgewichten und der Theorie der Wärmestrahlung zu. Zu diesem Zeitpunkt wusste man nur wenig über die Gesetze, nach denen erhitzte Körper Wärme- und Lichtstrahlen aussenden. Gustav Kirchhoff hatte 1859 die zentrale Bedeutung einer universellen, nur von der Frequenz und der Temperatur abhängigen, Strahlungsfunktion formula_2 zur Beschreibung der Wärmestrahlung postuliert. Dabei führte er das Konzept des Schwarzen Körpers ein, der alle auftreffende Strahlung vollständig absorbiert. Ein solcher Schwarzer Körper emittiert im Umkehrschluss also nur die von ihm selbst ausgesendete Strahlung. Dadurch vereinfachte sich die Suche nach der Strahlungsfunktion, da das Problem auf die Untersuchung der Strahlung eines Schwarzen Körpers reduziert werden kann. Die experimentellen und theoretischen Hürden waren jedoch groß, erst 1879 konnte Josef Stefan den Zusammenhang zwischen Energiedichte formula_3 und Temperatur formula_4 als formula_5 bestimmen. Ludwig Boltzmann konnte daraus 1884 ein Gesetz für die Gesamtstrahlung eines Schwarzen Körpers finden, Wilhelm Wien von der Physikalisch-Technischen Reichsanstalt in Berlin ermittelte 1893 das sogenannte Wiensche Verschiebungsgesetz formula_6. Drei Jahre später folgte das Wiensche Strahlungsgesetz, das die experimentellen Ergebnisse zunächst – die zu dieser Zeit üblichen großen Messfehler berücksichtigend – bestätigen konnte. Während die Wissenschaftler an der Physikalisch-Technischen Reichsanstalt um 1900 versuchten, erstmals einen Schwarzen Körper zu realisieren, um daran Messungen durchführen zu können, näherte sich Planck dem Problem aus theoretischer Sicht. Dazu versuchte er 1894, die Gesetze der Strahlungsphysik von thermodynamischen Überlegungen abzuleiten. Diese Arbeit war die unmittelbare Fortsetzung seiner früheren Forschungen zu thermodynamischen Gleichgewichten und Entropie, die er auf diese Weise mit der elektromagnetischen Lichttheorie verknüpfen wollte. Dadurch wäre es möglich geworden, Wärmestrahlung als elektromagnetischen Vorgang zu interpretieren, was aus der damaligen Perspektive einen weiteren Abschluss der Physik dargestellt hätte. Planck verwendete für seine Theorie die 1889 von Heinrich Hertz als „Hertzscher Oszillator“ eingeführten harmonischen Oszillatoren, mit denen sich Emission und Absorption elektromagnetischer Wellen beschreiben ließ. Planck übertrug dieses Konzept auf wärmestrahlende Körper und stellte seine Ergebnisse im März 1895 und Februar 1896 der Preußischen Akademie der Wissenschaften vor. In den folgenden Jahren erweiterte er diesen Ansatz und veröffentlichte zwischen 1897 und 1899 fünf Abhandlungen "Über irreversible Strahlungsvorgänge". Weiter gelang es ihm, aus der Betrachtung des Strahlungsverhaltens eines Hohlraums das Wiensche Strahlungsgesetz abzuleiten. Als er im Mai 1899 diese Ergebnisse der Akademie präsentierte, war er außerdem zu der Erkenntnis gelangt, dass dieses Gesetz ebenso wie der zweite Hauptsatz der Thermodynamik universell gültig wäre. Gleichzeitig führte Planck die später als plancksches Wirkungsquantum bezeichnete Naturkonstante "h" ein, erkannte aber ihre umfassende Bedeutung nicht. Im Sommer 1900 ergaben Messungen von Heinrich Rubens und Ferdinand Kurlbaum, dass die bis dahin als Messfehler interpretierten Abweichungen des Wienschen Strahlungsgesetzes in niedrigen Frequenzbereichen in Wirklichkeit gravierende Fehler in der Gleichung selbst waren. Rubens, der mit Planck befreundet war, berichtete diesem im Oktober des Jahres von den gefundenen Ergebnissen und wies diesen darauf hin, dass für große Wellenlängen nicht das Wiensche Strahlungsgesetz, sondern vielmehr das gerade gefundene Rayleigh-Jeans-Gesetz gelten müsse. Dieses wich wiederum in hohen Frequenzbereichen, wo das Wiensche Gesetz genaue Werte lieferte, deutlich ab. Unmittelbar nach diesem Gespräch fand Planck eine für die Messergebnisse, die Rubens bei Messungen in den folgenden Tagen bestätigen konnte. Das plancksche Strahlungsgesetz verband das Wiensche mit dem Rayleigh-Jeans-Gesetz, die beide als Grenzfälle betrachtet werden können. Dazu verwendete Planck die bis zu diesem Zeitpunkt von ihm abgelehnte atomistisch-wahrscheinlichkeitstheoretische Begründung der Entropie von Ludwig Boltzmann, gab also seinen bis dahin konsequent verfolgten phänomenologischen Ansatz auf und erkannte seinen Irrtum. Rückblickend beschrieb Planck diesen Schritt als einen. Analog zu Boltzmanns Arbeit zur Gas-Statistik von 1877 erlaubte Planck für die Strahlungsoszillatoren nur bestimmte Energiezustände. Das so hergeleitete Gesetz enthält mit der Boltzmann-Konstante "k", der Lichtgeschwindigkeit "c" und dem planckschen Wirkungsquantum drei Naturkonstanten, ansonsten sind nur die variablen Größen Temperatur und Frequenz enthalten. Die Naturkonstanten konnten durch den von Planck gefundenen Zusammenhang in den folgenden Jahren deutlich genauer bestimmt werden, als es bis dahin möglich gewesen war. Am 14. Dezember 1900 stellte Planck bei einer Sitzung der Physikalischen Gesellschaft seine Ergebnisse vor, dieser Tag gilt nach Max von Laue seitdem als der „Geburtstag der Quantenphysik“, obwohl keinem der anwesenden Wissenschaftler – Planck eingeschlossen – die Bedeutung und Tragweite der Formel oder der Konstanten "h" bewusst war. Man sah in Plancks Ergebnis zunächst eine Formel, die die Strahlungsverhältnisse korrekt darstellte. Erst Albert Einsteins Lichtquantenhypothese von 1905 und die darauf folgende kritische Analyse des Planckschen Strahlungsgesetzes, die Einstein anschließend zusammen mit Paul Ehrenfest erarbeitete, machte dessen Unvereinbarkeit mit der klassischen Physik deutlich. Planck selbst bezeichnete erst 1908 die Energiezustände der Oszillatoren als „diskret“. Nach der Solvay-Konferenz 1911, wo die durch das plancksche Strahlungsgesetz aufgeworfenen Probleme erläutert wurden, versuchte Planck, das Strahlungsgesetz mit der klassischen Physik in Einklang zu bringen. Dazu erarbeitete er bis 1912 die „zweite Quantentheorie“, nach der nur die Emission von Energie quantisiert, die Absorption jedoch kontinuierlich erfolgt. 1914 legte er eine „dritte Quantentheorie“ vor, die vollständig ohne Quanten auskam. Nach wie vor lehnte er die Lichtquantenhypothese von Einstein ab. Die Ende der 1920er Jahre von Bohr, Heisenberg und Pauli erarbeitete Kopenhagener Deutung der Quantenmechanik lehnte Planck ab, zusammen mit Schrödinger und Laue; auch Einstein war jetzt zum Konservativen geworden. Die heisenbergsche Matrizenmechanik fand Planck „abscheulich“, die Schrödinger-Gleichung begrüßte er wie eine Erlösung. Er erwartete, die Wellenmechanik werde die Quantentheorie, sein eigenes Kind, bald überflüssig machen. Die Wissenschaft ging über seine Bedenken hinweg. Auch für ihn selbst galt, was er in jungen Jahren im Kampf mit dem Alten festgestellt hatte: „Eine neue wissenschaftliche Wahrheit pflegt sich nicht in der Weise durchzusetzen, dass ihre Gegner überzeugt werden und sich als belehrt erklären, sondern dadurch, dass die Gegner allmählich aussterben und dass die heranwachsende Generation von vornherein mit der Wahrheit vertraut gemacht ist.“ Wissenschaftliche Selbstbiographie, Leipzig 1948. Musik. Am Ende des 19. Jahrhunderts beschäftigte sich Planck intensiv mit den Problemen bei der reinen Intonation von Chorgesang bei Modulationen. Auszeichnungen zu Lebzeiten. Planck war seit 1926 auswärtiges Mitglied der Royal Society. Postume Ehrungen. Viele Schulen und auch Universitäten sind nach Max Planck benannt, siehe Liste der Max-Planck-Gymnasien. Michael Faraday. Michael Faraday (* 22. September 1791 in Newington, Surrey; † 25. August 1867 in Hampton Court Green, Middlesex) war ein englischer Naturforscher, der als einer der bedeutendsten Experimentalphysiker gilt. Faradays Entdeckungen der „elektromagnetischen Rotation“ und der elektromagnetischen Induktion legten den Grundstein zur Herausbildung der Elektroindustrie. Seine anschaulichen Deutungen des magnetooptischen Effekts und des Diamagnetismus mittels Kraftlinien und Feldern führten zur Entwicklung der Theorie des Elektromagnetismus. Bereits um 1820 galt Faraday als führender chemischer Analytiker Großbritanniens. Er entdeckte eine Reihe von neuen Kohlenwasserstoffen, darunter Benzol und Buten, und formulierte die Grundgesetze der Elektrolyse. Aufgewachsen in einfachen Verhältnissen und ausgebildet als Buchbinder, fand der von der Naturforschung begeisterte Faraday eine Anstellung als Laborgehilfe von Humphry Davy an der Royal Institution, die zu seiner wichtigsten Wirkungsstätte wurde. Im Labor der Royal Institution führte er seine wegbereitenden elektromagnetischen Experimente durch, in ihrem Hörsaal trug er mit seinen Weihnachtsvorlesungen dazu bei, neue wissenschaftliche Erkenntnisse zu verbreiten. 1833 wurde Faraday zum ersten Fuller-Professor für Chemie ernannt. Faraday führte etwa 30.000 Experimente durch und veröffentlichte 450 wissenschaftliche Artikel. Die wichtigsten seiner Publikationen zum Elektromagnetismus fasste er in seinen "Experimental Researches in Electricity" ("Experimentaluntersuchungen über Elektrizität") zusammen. Sein populärstes Werk "Chemical History of a Candle" ("Naturgeschichte einer Kerze") war die Mitschrift einer seiner Weihnachtsvorlesungen. Im Auftrag des britischen Staates bildete Faraday mehr als zwanzig Jahre lang die Kadetten der Royal Military Academy in Woolwich in Chemie aus. Er arbeitete für eine Vielzahl von Behörden und öffentlichen Einrichtungen, beispielsweise für die Schifffahrtsbehörde Trinity House, das British Museum, das Home Office und das Board of Trade. Faraday gehörte zu den Anhängern einer kleinen christlichen Minderheit, den Sandemanianern, an deren religiösem Leben er aktiv teilnahm. Herkunft und Ausbildung. Der Laden von George Riebau, in dem Michael Faraday seine siebenjährige Buchbinderlehre absolvierte. Michael Faraday wurde am 22. September 1791 in Newington in der Grafschaft Surrey, das heute zum London Borough of Southwark gehört, geboren. Er war das dritte von vier Kindern des Schmieds James Faraday (1761–1810) und dessen Frau Margaret (geborene Hastwell, 1764–1838), einer Bauerntochter. Bis Anfang 1791 lebten seine Eltern mit seinen beiden älteren Geschwistern Elizabeth (1787–1847) und Robert (1788–1846) im kleinen Dorf Outhgill in der damaligen Grafschaft Westmorland im Nordwesten Englands (heute Cumbria). Als die Auswirkungen der Französischen Revolution zu einem Rückgang des Handels führten und die Familie von Armut bedroht war, beschloss sie, in die unmittelbare Nähe von London zu ziehen. Faradays Vater fand Arbeit beim Eisenwarenhändler James Boyd im Londoner Stadtteil West End. Die Familie zog kurz darauf in die Gilbert Street und etwa fünf Jahre später in die Jacob’s Well Mews. Dort wurde Faradays jüngere Schwester Margaret (1802–1862) geboren. Bis zu seinem zwölften Lebensjahr besuchte Faraday eine einfache Tagesschule, wo ihm die Grundlagen des Lesens, Schreibens und Rechnens beigebracht wurden. 1804 fand er eine Anstellung als Laufbursche beim hugenottischen Auswanderer George Riebau, der in der Blanford Street einen Buchladen betrieb. Eine von Faradays Aufgaben bestand darin, am Morgen die Zeitung zu Riebaus Kunden zu bringen, sie im Laufe des Tages wieder abzuholen und zu weiteren Kunden zu tragen. Nach etwa einem Jahr als Laufbursche unterzeichnete Faraday am 7. Oktober 1805 einen siebenjährigen Lehrvertrag für eine Buchbinderlehre bei Riebau. Entsprechend den Gepflogenheiten der damaligen Zeit zog er zu seinem Lehrmeister und wohnte während seiner Ausbildung bei ihm. Faraday erwies sich als ein geschickter, aufgeschlossener und wissbegieriger Lehrling. Er erlernte das Buchbinderhandwerk schnell und las aufmerksam viele der zum Binden gebrachten Bücher. Darunter befanden sich Jane Marcets 1806 erschienenen "Conversations on Chemistry", eine populäre Einführung in die Chemie, und der von James Tytler für die dritte Auflage der Encyclopædia Britannica verfasste Beitrag über Elektrizität, aber auch die Geschichte von Ali Baba sowie Nachschlagewerke und Zeitschriften über Kunst. Riebau gestattete ihm die Durchführung kleinerer chemischer und elektrischer Experimente. Unter den Werken, die Faraday studierte, befand sich auch Isaac Watts’ Buch "The Improvement of the Mind" (1741), das sich an Leser richtete, die ihr Wissen und ihre geistigen Fähigkeiten selbständig erweitern wollten. Der Autor legte in seinen Ausführungen Wert darauf, Wissen nicht nur passiv zu vermitteln, sondern seine Leser dazu anzuregen, sich aktiv damit auseinanderzusetzen. Watts empfahl unter anderem, sich Notizen zu Artikeln zu machen, bei Vorträgen Mitschriften anzufertigen und den Gedankenaustausch mit Gleichgesinnten zu suchen. Unter diesem Eindruck begann Faraday 1809 eine von ihm "The Philosophical Miscellany" betitelte Sammlung von Notizen über Artikel zu den Themen Kunst und Wissenschaft, die er in verschiedenen Zeitungen und Zeitschriften gelesen hatte. 1810 ermutigte Riebau den 19-jährigen Faraday, die jeden Montag vom Goldschmied John Tatum in seinem Haus abgehaltenen wissenschaftlichen Vorträge zu besuchen. Tatum war der Gründer der 1808 ins Leben gerufenen City Philosophical Society, deren Ziel es war, Handwerkern und Lehrlingen den Zugang zu wissenschaftlichen Kenntnissen zu ermöglichen. Für die Vorträge war jeweils eine Gebühr von einem Schilling zu entrichten, den Faraday von seinem Bruder Robert erhielt. Mit dieser Unterstützung konnte er vom 19. Februar 1810 an bis zum 26. September 1811 etwa ein Dutzend Vorträge besuchen. Während Tatums Vorträgen fertigte Faraday Notizen an, die er in seiner freien Zeit überarbeitete, zusammenfasste und in ein Notizbuch übertrug. Bei Tatum freundete er sich mit den Quäkern Benjamin Abbott (1793–1870) und Edward Magrath (1791?–1861) sowie Richard Phillips (1788–1851) an. Mit Abbott begann er am 12. Juli 1812 einen schriftlichen Gedankenaustausch, der viele Jahre fortdauerte. Faraday, dessen Lehrzeit bei Riebau dem Ende entgegenging, verspürte wenig Neigung, sein Leben als Buchbinder zu verbringen. Er schrieb einen Brief an Joseph Banks, den Präsidenten der Royal Society, in dem er um eine niedrige Anstellung in den Laboratorien der Royal Society bat. Banks hielt es jedoch nicht für erforderlich, sein Ersuchen zu beantworten. Am 8. Oktober 1812, einen Tag nach Ende seiner Lehrzeit, trat Faraday seine Tätigkeit als Buchbindergeselle bei Henri De La Roche an. Anstellung als Laborgehilfe. Anfang 1812 zeigte Riebau dem Sohn von William Dance (1755–1840), einem seiner Kunden, Faradays Notizbuch mit den Mitschriften von Tatums Vorträgen. Dance berichtete seinem Vater davon, der daraufhin Faraday zu Humphry Davys letzten vier Vorlesungen mit dem Titel "The Elements of Chemical Philosophy" als Professor der Chemie im März und April 1812 mitnahm. Davy galt als herausragender Vorlesender und hatte sich in der Fachwelt durch die Entdeckung der Elemente Kalium, Natrium und Chlor ein hohes Ansehen erworben. Während Davys Vorträgen machte sich Faraday zahlreiche Notizen, die er, überarbeitet und mit Zeichnungen versehen, zu einem Buch band und an Davy schickte. Ende Oktober 1812 befand sich Davy jedoch nicht in London, sondern wiederholte gemeinsam mit John George Children in Tunbridge Wells einen Versuch von Pierre Louis Dulong, der kurz zuvor eine neue Verbindung aus Chlor und Stickstoff entdeckt hatte. Während der Experimente explodierte ein Glasröhrchen mit dem entstandenen Stickstofftrichlorid und verletzte Davys linkes Auge schwer. Davy wurde umgehend zur Behandlung nach London gebracht und fand dort Faradays Sendung vor. Da er aufgrund seiner Augenverletzung zur Ordnung seiner Notizen Hilfe benötigte, lud er Faraday Ende des Jahres 1812 zu sich nach Hause ein. Am 19. Februar 1813 kam es an der Royal Institution zwischen dem Laborgehilfen William Payne und dem Instrumentenbauer John Newmann zu einer handgreiflichen Auseinandersetzung. Drei Tage später wurde Payne von den Managern der Royal Institution entlassen. Davy, der einen neuen Assistenten benötigte, schlug Faraday für den vakanten Posten vor. Am 1. März 1813 begann dieser seine Tätigkeit als Laborgehilfe an der Royal Institution. Seine Pflichten umfassten die Betreuung und Unterstützung der Vortragenden und Professoren bei der Vorbereitung und Durchführung ihrer Vorlesungen, das wöchentliche Reinigen der Modelle im Lager sowie das monatliche Entstauben der Instrumente in den Glaskästen. Er bezog die zwei Räume seines Vorgängers und erhielt die Erlaubnis, das Labor für eigene Experimente zu benutzen. Reise durch Kontinentaleuropa. Napoleon Bonaparte hatte Davy eine Goldmedaille für dessen Beiträge zur Elektrochemie verliehen, die dieser in Paris entgegennehmen wollte. Trotz der andauernden Napoleonischen Kriege erhielt er von der französischen Regierung die Erlaubnis, Kontinentaleuropa zu bereisen. Davy und seine Frau Jane Apreece (1780–1855) planten daher 1813 eine Reise durch Kontinentaleuropa, die auf zwei oder drei Jahre ausgelegt war und bis nach Konstantinopel führen sollte. Er bat Faraday, ihn als sein Amanuensis (Sekretär und wissenschaftlicher Gehilfe) zu begleiten. Das bot diesem, der sich noch nie „weiter als zwölf Meilen“ von London entfernt hatte, die Möglichkeit, von Davy zu lernen und mit einigen der bedeutendsten ausländischen Naturforscher in Kontakt zu kommen. Am 13. Oktober 1813 verließ die fünfköpfige Reisegesellschaft London. In Plymouth schiffte sie sich nach Morlaix ein, wo sie durchsucht und für etwa eine Woche festgesetzt wurde. Am Abend des 27. Oktober erreichte sie schließlich Paris. Faraday erkundete die Stadt, die ihn sehr beeindruckte, und besuchte gemeinsam mit Davy und dem Geologen Thomas Richard Underwood (1772–1835) das Musée Napoleon. Im Labor des Chemikers Louis-Nicolas Vauquelin beobachteten Davy und Faraday die Herstellung von Kaliumchlorid, die sich von der in England angewandten Methode unterschied. Am Morgen des 23. November suchten André-Marie Ampère, Nicolas Clément und Charles-Bernard Désormes (1771–1862) Davy in seinem Hotel auf, präsentierten ihm eine zwei Jahre zuvor durch Bernard Courtois entdeckte Substanz und führten ihm einige Experimente vor, bei denen violette Dämpfe entstanden. Mit Faradays Hilfe führte Davy eigene Experimente durch, unter anderem im Labor von Eugène Chevreul im Jardin des Plantes. Am 11. Dezember wurde ihm klar, dass es sich bei der Substanz um ein neues Element handelte, das er nach dem griechischen Wort "iodes" für ‚violett‘ Iod nannte. Davys Experimente verzögerten die geplante Weiterreise nach Italien. Am 29. Dezember 1813 verließen sie Paris in Richtung Mittelmeerküste, wo Davy hoffte, iodhaltige Pflanzen für seine Untersuchungen zu finden. Faraday wurde Anfang Februar in Montpellier Zeuge des Durchzugs von Papst Pius VII., der nach seiner Befreiung durch die Alliierten nach Italien zurückkehrte. Nach einem einmonatigen Aufenthalt setzten sie in Begleitung von Frédéric-Joseph Bérard (1789–1828) ihren Weg nach Italien fort. Über Nîmes und Nizza überquerten sie die Alpen über den Tenda-Pass. Während des beschwerlichen Weges von Stadt zu Stadt erklärte Davy Faraday die geologische Beschaffenheit der Landschaft und machte ihn mit den antiken Kulturstätten vertraut. In Genua verhinderte schlechtes Wetter die Weiterreise. Davy nutzte die Verzögerung, um bei Domenico Viviani (1772–1840), der einige „Elektrische Fische“ in Gefangenschaft hielt, Experimente durchzuführen, mit denen er überprüfen wollte, ob die Entladung dieser Fische ausreichte, um Wasser zu zersetzen. Die Ergebnisse seiner Experimente waren negativ. Am 13. März überquerten sie mit dem Schiff den Golf von Genua. Einen Tag vor der Landung der britischen Armee in Livorno passierten sie Lucca und gelangten am 16. März nach Florenz, wo sie das Museum der Accademia del Cimento besuchten, in dem sich unter anderem Galileo Galileis Beobachtungsinstrumente befanden. Davy und Faraday setzten ihre Versuche mit Iod fort und bereiteten ein Experiment vor, das beweisen sollte, dass Diamanten aus reinem Kohlenstoff bestanden. Dazu verwendeten sie große Brenngläser aus dem Besitz von Großherzog Ferdinand III. Am 27. März 1814 gelang dieser Nachweis zum ersten Mal. In den folgenden Tagen wiederholten die Beiden das Experiment noch mehrere Male. Die Ankunft in Rom erfolgte inmitten der Karwoche. Wie schon an anderen Orten erkundete Faraday die Stadt auf eigene Faust. Er war besonders vom Petersdom und dem Kolosseum beeindruckt. An der Accademia dei Lincei experimentierten Davy und Faraday mit Kohle, um einigen offenen Fragen aus dem Diamanten-Experiment nachzugehen. Am 5. Mai waren sie im Haus von Domenico Morichini (1773–1836) zu Gast. Dort wiederholte Faraday erfolglos unter der Anleitung des Hausherrn dessen Experiment zur vermeintlichen Magnetisierung einer Nadel durch den violetten Spektralanteil des Sonnenlichts. Zwei Tage später brachen sie zu einem zweiwöchigen Abstecher nach Neapel auf. Dort bestiegen sie mehrmals den Vesuv. Caroline Bonaparte, die Königin von Neapel, machte Davy ein Gefäß mit antiken Farbpigmenten zum Geschenk, die Davy und Faraday später analysierten. Um der Sommerhitze zu entfliehen, brach die Reisegesellschaft am 2. Juni von Rom aus in Richtung Schweiz auf. Über Terni, Bologna, Mantua und Verona gelangten sie nach Mailand. Hier begegnete Faraday am 17. Juni Alessandro Volta. Sie kamen am 25. Juni 1814 in Genf an und verbrachten den Sommer bei Charles-Gaspard de la Rive in dessen Haus am Genfersee, jagten, fischten, experimentierten weiter mit Iod und arbeiteten mit Marc-Auguste Pictet und Nicolas-Théodore de Saussure zusammen. Am 18. September 1814 reisten sie über Lausanne, Vevey, Payerne, Bern, Zürich und den Rheinfall bei Schaffhausen schließlich nach München, wo sie drei Tage blieben. Über den Brennerpass kehrten sie nach Italien zurück und besuchten dabei Padua und Venedig. In Florenz untersuchten sie ein brennbares Gas, das in Pietramala dem Erdboden entwich und das sie als Methan identifizierten. In Rom, wo sie am 2. November 1814 ankamen und bis zum März 1815 blieben, erlebte Faraday das Weihnachtsfest und besuchte während des Karnevals mehrere Maskenbälle. Davy und Faraday führten weitere Experimente mit Chlor und Iod durch. Ihre ursprünglichen Pläne, nach Konstantinopel weiterzureisen, zerschlugen sich. Nachdem sie Tirol und Deutschland durchquert hatten, erreichten sie am 23. April 1815 schließlich London. Entwicklung zum chemischen Analytiker. Faradays Laboratorium an der Royal Institution um 1819 Nach der Rückkehr war Faraday in London zunächst ohne Anstellung. Auf Wunsch von William Thomas Brande, der 1812 von Davy die Position des Professors für Chemie übernommen hatte, und mit voller Unterstützung durch Davy, der eine Woche zuvor zum Vizepräsidenten der Royal Institution gewählt worden war, erhielt Faraday am 15. Mai seinen alten Posten als Laborgehilfe wieder und war zusätzlich für die mineralogische Sammlung verantwortlich. Faraday besuchte erneut die Vorträge der City Philosophical Society und wurde Mitglied der Gesellschaft. Am 17. Januar 1816 hielt er dort seinen ersten Vortrag über Chemie, dem in den nächsten zweieinhalb Jahren 16 weitere folgten. Um seine Fähigkeiten als Vortragender zu vervollkommnen, besuchte er 1818 die am Donnerstagabend an der Royal Institution abgehaltenen Rhetorikkurse von Benjamin Humphrey Smart (1786–1872). Gemeinsam mit vier Freunden gründete er im Sommer desselben Jahres einen Schreibzirkel. Die Mitglieder der nach den Richtlinien der City Philosophical Society organisierten Gruppe verfassten Aufsätze zu frei wählbaren oder festgelegten Themen, die anonym eingereicht und in der Gruppe gemeinsam bewertet wurden. Im Labor der Royal Institution führte Faraday häufig in Davys Auftrag Experimente durch und war 1816 maßgeblich an dessen Untersuchungen beteiligt, die zur Entwicklung der im Bergbau eingesetzten „Davy-Lampe“ führten. Für Brande, den Herausgeber des "Quarterly Journal of Science", stellte Faraday ab 1816 die "Miscellanea" betitelten Seiten zusammen und übernahm im August 1816 während Brandes Abwesenheit die volle Verantwortung für das Journal. 1816 erschien im "Quarterly Journal of Science" auch Faradays erste wissenschaftliche Veröffentlichung über aus der Toskana stammende Kalksteinproben. Bis Ende 1819 hatte er 37 Mitteilungen und Artikel im "Quarterly Journal of Science" veröffentlicht, darunter eine Untersuchung über das Entweichen von Gasen aus Kapillarrohren und Bemerkungen über „singende Flammen“. In seinem Labor führte Faraday für William Savage (1770–1843), den Drucker der Royal Institution, Papieranalysen durch, untersuchte Tonerdeproben für den Keramikproduzenten Josiah Wedgwood II (1769–1843) und nahm in gerichtlichem Auftrag kriminaltechnische Untersuchungen vor. Anfang 1819 begann Faraday gemeinsam mit James Stodart (1760–1823), der chirurgische Instrumente herstellte, eine umfangreiche Reihe von Experimenten, die sich mit der Verbesserung von Stahllegierungen beschäftigten. Er untersuchte zunächst Wootz, ein weit verbreitetes Ausgangsprodukt für Stahl, auf dessen chemische Zusammensetzung. Es folgten zahlreiche Versuche zur Veredelung von Stahl, bei denen unter anderem Platin und Rhodium zum Einsatz kamen. Die Stahluntersuchungen erstreckten sich über einen Zeitraum von etwa fünf Jahren und wurden nach Stodarts Tod von Faraday alleine fortgeführt. Am 21. Dezember 1820 wurde Faradays erste für den Abdruck in den "Philosophical Transactions" bestimmte Abhandlung vor den Mitgliedern der Royal Society verlesen. Darin wurden die beiden neuen von ihm entdeckten Chlorkohlenstoffverbindungen Tetrachlorethen und Hexachlorethan beschrieben. Zu dieser Zeit galt Faraday bereits als Großbritanniens führender chemischer Analytiker. 1821 wurde er zum „Superintendent of the House“ der Royal Institution ernannt. Am 12. Juni 1821 heiratete er Sarah Barnard (1800–1879), die Schwester seines Freundes Eduard Barnard (1796–1867), die er im Herbst 1819 kennengelernt hatte. Ihre Ehe blieb kinderlos. „Elektromagnetische Rotation“. Versuchsanordnung zum Nachweis der elektromagnetischen Rotation 1821 bat Richard Phillips, mittlerweile Herausgeber der "Annals of Philosophy", Faraday um einen Abriss aller bekannten Erkenntnisse über Elektrizität und Magnetismus. Kurz zuvor hatte Hans Christian Ørsted seine Beobachtungen über die Ablenkung einer Kompassnadel durch elektrischen Strom veröffentlicht. Faraday wiederholte in seinem Labor Experimente von Ørsted, André-Marie Ampère und François Arago. Sein zweiteiliger "Historical Sketch of Electro-Magnetism" erschien, auf seinen Wunsch anonym, im September und Oktober 1821 in den "Annals of Philosophy". Am 3. September gelang Faraday zum ersten Mal ein Experiment, bei dem sich ein stromdurchflossener Leiter unter dem Einfluss eines Dauermagneten um seine eigene Achse drehte. Noch im gleichen Monat veröffentlichte er seine Entdeckung im "Quarterly Journal of Science". Die sogenannte „elektromagnetische Rotation“ war eine wesentliche Voraussetzung für die Entwicklung des Elektromotors. Bereits wenige Tage nach Veröffentlichung seiner Entdeckung bezweifelten Freunde von William Hyde Wollaston, darunter Davy, die Eigenständigkeit der Arbeit Faradays. Sie bezichtigten ihn, die Idee „elektromagnetische Rotation“ von Wollaston gestohlen und dessen Autorschaft nicht gewürdigt zu haben. Faradays experimenteller Nachweis unterschied sich jedoch völlig von der von Wollaston vorgeschlagenen Lösung, was dieser auch anerkannte. Da die Gerüchte in der Öffentlichkeit darüber nicht abebbten, war Faraday gezwungen, die Autorschaft seines "Historical Sketch of Electro-Magnetism" offenzulegen. Entdeckungen auf dem Gebiet der Chemie. 1823 begann Faraday die Eigenschaften des von Davy entdeckten Chlorhydrats zu untersuchen. Als er es unter Druck erhitzte, gelang ihm zum ersten Mal die Verflüssigung von Chlor. 1823 und nochmals 1844, als er sich erneut mit dem Thema beschäftigte, gelang es ihm, Ammoniak, Kohlenstoffdioxid, Schwefeldioxid, Distickstoffmonoxid, Chlorwasserstoff, Schwefelwasserstoff, Dicyan und Ethen zu verflüssigen. Faraday erkannte als Erster, dass eine kritische Temperatur existierte, oberhalb derer sich Gase unabhängig vom ausgeübten Druck nicht mehr verflüssigen ließen. Er wies nach, dass die Zustände „fest“, „flüssig“ und „gasförmig“ ineinander überführbar waren und keine festen Kategorien bildeten. 1825 fielen Faraday in Kannen mit Leuchtgas, die sein bei der London Gas Company arbeitender Bruder Robert der Royal Institution lieferte, flüssige Rückstände auf. Er analysierte die Flüssigkeit und entdeckte eine neue Kohlenwasserstoff-Verbindung, die er als „Bicarburet of Hydrogen“ bezeichnete. Von Eilhard Mitscherlich erhielt diese Substanz, ein aromatischer Kohlenwasserstoff, im selben Jahr die Bezeichnung Benzol. Kurz darauf entdeckte er mit Buten eine Verbindung, die die gleiche Verhältnisformel wie Ethen hatte, sich aber in den chemischen Eigenschaften völlig unterschied. 1826 ermittelte Faraday die Zusammensetzung von Naphthalin und stellte zwei verschiedene kristalline Proben von Naphthalinschwefelsäure her. Im April 1827 erschien "Chemical Manipulation". Diese Monografie Faradays war eine Einführung in die praktische Chemie und richtete sich an Anfänger auf dem Gebiet der chemischen Naturforschung. Sie umfasste alle Belange der praktischen Chemie, beginnend mit der zweckmäßigen Einrichtung eines Laboratoriums über die zweckmäßige Durchführung chemischer Experimente bis hin zur Fehleranalyse. Der Erstausgabe folgten 1830 und 1842 zwei weitere Auflagen. Herstellung optischer Gläser. Am 1. April 1824 gründeten die Royal Society und das Board of Longitude eine gemeinsame Kommission ("Committee for the Improvement of Glass for Optical Purposes"). Sie hatte das Ziel, Rezepturen für die Herstellung hochwertiger optischer Gläser zu finden, die mit den von Joseph von Fraunhofer in Deutschland hergestellten Flintgläsern konkurrieren konnten. Die Untersuchungen fanden anfangs in den von Apsley Pellatt (1763–1826) und James Green betriebenen Falcon Glass Works statt. Um die Durchführung der Experimente direkter überwachen zu können, wurde am 5. Mai 1825 ein Unterkomitee berufen, das aus John Herschel, George Dollond und Faraday bestand. Nach der Errichtung eines neuen Schmelzofens an der Royal Institution wurden die Glasuntersuchungen ab September 1827 an der Royal Institution durchgeführt. Zur Entlastung Faradays wurde am 3. Dezember 1827 Charles Anderson, ein ehemaliger Sergeant der Royal Artillery, eingestellt. Die Glasuntersuchungen waren für über fünf Jahre Faradays Hauptaufgabe und Ende 1829 das Thema seiner ersten Baker-Vorlesung vor der Royal Society. 1830 wurden die Glasexperimente aus finanziellen Gründen gestoppt. Ein 1831 vorgelegter Bericht der Astronomen Henry Kater (1777–1835) und John Pond, die ein Teleskop mit einem Objektiv aus einem von Faraday hergestellten Glas testeten, bescheinigte dem Glas gute achromatische Eigenschaften. Faraday hielt die Ergebnisse seiner fünfjährigen Arbeit jedoch für unzulänglich. Institutioneller Aufstieg. Auf Betreiben seines Freundes Richard Phillips, der kurz zuvor selbst in die Royal Society aufgenommen worden war, wurde am 1. Mai 1823 zum ersten Mal der Antrag zur Aufnahme von Faraday in die Gesellschaft verlesen. Der Antrag trug die Unterschrift von 29 Mitgliedern und musste an zehn aufeinanderfolgenden Sitzungen verlesen werden. Davy, seit 1820 Präsident der Royal Society, wollte die Wahl Faradays verhindern und versuchte, die Rücknahme des Antrages zu erwirken. Mit einer Gegenstimme wurde Faraday am 8. Januar 1824 in die Royal Society aufgenommen. Von März bis Juni 1824 fungierte Faraday aushilfsweise als erster Sekretär des von Davy mitgegründeten Londoner Clubs The Athenaeum. Als ihm im Mai vorgeschlagen wurde, den Posten für ein Jahresgehalt von 100 Pfund dauerhaft zu übernehmen, schlug er das Angebot aus und empfahl seinen Freund Edward Magrath für diese Position. Am 7. Februar 1825 wurde Faraday zum Labordirektor der Royal Institution ernannt und begann dort die ersten eigenen Vorträge abzuhalten. Im Februar 1826 wurde er von der Verpflichtung befreit, Brande bei dessen Vorlesungen zu assistieren. 1827 hielt Faraday Chemievorlesungen an der London Institution und gab die erste seiner zahlreichen Weihnachtsvorlesungen. Ein Angebot, erster Professor für Chemie an der neu gegründeten University of London zu werden, lehnte er mit einem Hinweis auf seine Verpflichtungen an der Royal Institution ab. 1828 wurde er mit der Fuller-Medaille geehrt. Bis 1831 half er Brande bei der Herausgabe des "Quarterly Journal of Science" und betreute anschließend die ersten fünf Ausgaben des neuen "Journal of the Royal Institution". Elektromagnetische Induktion. Bereits 1822 merkte Faraday in seinem Notizbuch an: „Convert magnetism into electricity“ („Magnetismus in Elektrizität umwandeln“). In dem im September 1820 begonnenen Labortagebuch notierte er am 28. Dezember 1824 erstmals ein Experiment, mit dem er versuchte, mit Hilfe von Magnetismus Elektrizität zu erzeugen. Der erwartete elektrische Strom blieb jedoch aus. Am 28. und 29. November 1825 sowie am 22. April 1826 führte er weitere Versuche durch, ohne jedoch das gewünschte Ergebnis zu erzielen. Nach einer durch die aufwändigen Glasuntersuchungen bedingten fünfjährigen Pause wandte sich Faraday am 29. August 1831 erstmals wieder elektromagnetischen Experimenten zu. Er hatte von seinem Assistenten Anderson einen Weicheisenring mit einem Innendurchmesser von sechs Zoll (etwa 15 Zentimeter) anfertigen lassen. Auf der einen Seite des Ringes brachte er drei Wicklungen aus Kupferdraht an, die durch Bindfaden und Kattun voneinander isoliert waren. Auf der anderen Seite des Ringes befanden sich zwei solcher Wicklungen. Er verlängerte auf der einen Seite die beiden Enden einer der Wicklungen mit einem langen Kupferdraht, der zu einer etwa drei Fuß (etwa ein Meter) entfernten Magnetnadel führte. Eine der Wicklungen auf der anderen Seite verband er mit den Polen einer Batterie. Jedes Mal, wenn er den Stromkreis schloss, bewegte sich die Magnetnadel aus ihrer Ruhelage. Beim Öffnen des Stromkreises bewegte sich die Nadel erneut, nur diesmal in die entgegengesetzte Richtung. Faraday hatte die elektromagnetische Induktion entdeckt und dabei ein Prinzip angewandt, das den später entwickelten Transformatoren zugrunde liegt. Seine Experimente, die bis zum 4. November andauerten, unterbrach er für einen dreiwöchigen Ferienaufenthalt mit seiner Frau in Hastings und eine vierzehntägige Untersuchung für die Royal Mint. Während seiner an nur elf Tagen durchgeführten Experimente fand er heraus, dass ein zylindrischer Stabmagnet, der durch eine Drahtwendel bewegt wurde, eine elektrische Spannung in dieser induzierte. Nach diesem Grundprinzip arbeiten elektrische Generatoren. Faradays Bericht über die Entdeckung der elektromagnetischen Induktion wurde von ihm Ende 1831 vor der Royal Society vorgetragen. Die in den "Philosophical Transactions" abgedruckte Form erschien erst im Mai 1832. Die lange Verzögerung ergab sich aus einer Änderung der Veröffentlichungsbedingungen für neue Artikel. Bis Ende 1831 reichte ein Mehrheitsbeschluss des "Committee of Papers" zur Veröffentlichung eines Artikels in den "Philosophical Transactions". Die geänderten Regeln sahen eine individuelle Begutachtung der Artikel vor. Das Gutachten zu Faradays Artikel schrieben der Mathematiker Samuel Hunter Christie und der Mediziner John Bostock (1773–1846). Im Dezember 1831 schrieb Faraday an seinen langjährigen französischen Briefpartner Jean Nicolas Pierre Hachette und teilte ihm darin seine jüngsten Entdeckungen mit. Hachette zeigte den Brief dem Sekretär des Institut de France, François Arago, der das Schreiben am 26. Dezember 1831 vor den Mitgliedern des Instituts verlas. In den französischen Zeitungen "Le Temps" und "Le Lycée" erschienen am 28. bzw. 29. Dezember 1831 Berichte über Faradays Entdeckung. Der Londoner "Morning Advertiser" druckte diese am 6. Januar 1832 nach. Die Presseberichte bedrohten die Priorität seiner Entdeckung, da die Italiener Leopoldo Nobili und Vincenzo Antinori (1792–1865) in Florenz einige Versuche Faradays wiederholt hatten und ihre in der Zeitschrift "Antologia" veröffentlichten Ergebnisse vor Faradays Aufsatz in den "Philosophical Transactions" erschienen. Einheitlichkeit der Elektrizität. Nach seiner Entdeckung, dass Magnetismus Elektrizität zu erzeugen vermag, stellte sich Faraday die Aufgabe nachzuweisen, dass unabhängig davon, wie Elektrizität erzeugt wird, diese immer gleichartig wirkt. Am 25. August 1832 begann er mit den bekannten Elektrizitätsquellen zu arbeiten. Er verglich die Wirkungen von voltaischer Elektrizität, Reibungselektrizität, Thermoelektrizität, tierischer Elektrizität und magnetischer Elektrizität. In seinem am 10. und 17. Januar verlesenen Beitrag gelangte er aufgrund seiner Experimente zum Schluss. Grundgesetze der Elektrolyse. Ende Dezember 1832 stellte sich Faraday die Frage, ob ein elektrischer Strom in der Lage wäre, einen festen Körper – beispielsweise Eis – zu zersetzen. Bei seinen Experimenten stellte er fest, dass sich Eis im Gegensatz zu Wasser wie ein Nichtleiter verhielt. Er testete eine Reihe von Substanzen mit niedrigem Schmelzpunkt und beobachtete, dass ein nichtleitender fester Körper nach dem Übergang in die flüssige Phase den Strom leitete und sich unter dem Einfluss des Stromes chemisch zersetzte. Am 23. Mai 1833 sprach er vor der Royal Society "Über ein neues Gesetz der Elektrizitätsleitung". Diese Untersuchungen führten Faraday direkt zu seinen Experimenten über die „elektro-chemische Zersetzung“, die ihn ein Jahr lang beschäftigten. Er sichtete die vorhandenen Ansichten, insbesondere die von Theodor Grotthuß und Davy, und kam zu der Auffassung, dass die Zersetzung im Inneren der Flüssigkeit vor sich ging und die elektrischen Pole nur die Rolle einer Begrenzung der Flüssigkeit spielten. Mit seinen Untersuchungen schloss Faraday den Einfluss von Faktoren, wie beispielsweise der Konzentration der elektrolytischen Lösung oder der Beschaffenheit und Größe der Elektroden, auf den Vorgang der Elektrolyse aus. Nur die Elektrizitätsmenge und die beteiligten chemischen Äquivalente waren von Bedeutung. Es war der Nachweis, dass chemische und elektrische Kräfte eng miteinander verbunden waren und quantitativ zusammenhingen. Diesen Zusammenhang nutzte Faraday bei seinen weiteren Experimenten zur genauen Messung der Elektrizitätsmenge. Elektrostatische Abschirmung. Animation zur Reaktion eines Faradayschen Käfigs auf ein äußeres elektrisches Feld; Darstellung der Ladungsverschiebung (Schema) Mitte Januar 1836 baute Faraday im Hörsaal der Royal Institution einen Würfel mit 12 Fuß (etwa 3,65 Meter) Seitenlänge auf, dessen Kanten aus einem leichten Holzrahmen gebildet wurden. Die Seitenflächen waren netzartig mit Kupferdraht bespannt und mit Papier verkleidet. Der Würfel stand auf vier 5,5 Zoll (etwa 14 Zentimeter) hohen Glasfüßen, um ihn vom Untergrund zu isolieren. In den am 15. und 16. Januar 1836 durchgeführten Untersuchungen verband er den Würfel mit einer Elektrisiermaschine, um ihn elektrisch zu laden. Anschließend begab er sich mit einem Goldblatt-Elektrometer in das Innere der Anordnung, um die möglicherweise in der Luft induzierte Elektrizität nachzuweisen. Jeder Punkt des Raumes erwies sich jedoch als frei von Elektrizität. Die als faradayscher Käfig bekannte Anordnung, bei der das elektrische Feld im Inneren eines geschlossenen, leitfähigen Körpers verschwindet, dient heute in der Elektrotechnik zur Abschirmung von elektrostatischen Feldern. Einfluss von Isolatoren. 1837 dachte Faraday darüber nach, auf welche Weise sich die elektrische Kraftwirkung durch den Raum ausbreitete. Der Gedanke an eine Fernwirkung der elektrischen Kräfte, wie ihn das coulombsche Gesetz implizierte, bereitete ihm Unbehagen. Er vermutete hingegen, dass der Raum bei der Kraftübertragung eine Rolle spielen und eine Abhängigkeit vom Raum füllenden Medium existieren müsse. Faraday begann den Einfluss von Isolatoren systematisch zu untersuchen und entwarf eine Versuchsanordnung aus zwei identischen Kugelkondensatoren. Diese Kugelkondensatoren bestanden ihrerseits aus zwei mit einem Abstand von drei Zentimetern ineinandergestellten Messingkugeln. Die Kugeln waren durch einen mit isolierendem Schellack überzogenen Messinggriff miteinander verbunden und bildeten eine Leidener Flasche. Faraday lud zunächst einen der beiden Kondensatoren auf, brachte ihn anschließend mit dem anderen in elektrischen Kontakt und überzeugte sich mit einer selbstgebauten Coulombschen Drehwaage, dass nach dem Ladungsausgleich beide Kondensatoren die gleiche Ladung trugen. Anschließend füllte er den Luftraum des einen Kondensators mit einem Isolator und wiederholte den Versuch. Seine erneute Messung ergab, dass der Kondensator mit dem Isolator die größere Ladung trug. Er wiederholte das Experiment mit verschiedenen Stoffen. Faraday erhielt ein quantitatives Maß für den Einfluss der Isolatoren auf die Kapazität der Kugeln, das er „specific inductive capacity“ nannte, was heute der Dielektrizitätskonstanten entspricht. Für eine nichtleitende Substanz, die sich zwischen zwei Leitern befindet, hatte Whewell Ende 1836 den Begriff Dielektrikum vorgeschlagen, der von Faraday auch genutzt wurde. Faraday erklärte sein experimentelles Ergebnis mit einer Polarisation der Teilchen innerhalb der Isolatoren, bei der die Wirkung von Teilchen zu Teilchen weitergegeben wird, und dehnte diese Idee auch auf den Transport der Elektrizität innerhalb von Leitern aus. Erschöpfung und Erholung. Anfang 1839 fasste Faraday seine zwischen November 1831 und Juni 1838 in den "Philosophical Transactions" erschienenen Artikel über seine Untersuchungen über Elektrizität unter dem Titel "Experimental Researches in Electricity" zusammen. Von August bis November 1839 führte Faraday Untersuchungen zur Funktionsweise der Voltaschen Säule durch, die er im Dezember 1839 unter dem Titel "Über die Quelle der Kraft in der Volta’schen Säule" veröffentlichte. Darin trat er mit zahlreichen experimentellen Belegen der voltaischen Kontakttheorie entgegen. Ende 1839 erlitt Faraday einen schweren gesundheitlichen Zusammenbruch, den er auf Überarbeitung zurückführte, und dessen Symptome Kopfschmerzen, Schwindelgefühl und zeitweiliger Gedächtnisverlust waren. Sein Arzt Peter Mere Latham (1789–1875) riet ihm, sich zeitweilig von seinen zahlreichen Verpflichtungen entbinden zu lassen und sich in Brighton zu erholen. Faraday arbeitete die nächsten Jahre nur noch sporadisch in seinem Labor. Im Januar und Februar 1840 führte er an fünf Tagen seine Untersuchungen an der Voltaschen Säule fort. Im August und September experimentierte er nochmals an fünf Tagen. Nach dem 14. September 1840 schrieb er für etwa zwanzig Monate bis zum 1. Juli 1842 keinen Eintrag in sein Labortagebuch. Ende 1840 erkannten die Manager der Royal Institution die Ernsthaftigkeit von Faradays Erkrankung und beurlaubten ihn bis zu seiner vollständigen Genesung. Fast ein Jahr lang hielt er keine Vorlesungen. Gemeinsam mit seiner Frau, deren Bruder George Barnard (1807–1890) und dessen Frau Emma begab er sich am 30. Juni 1841 auf eine dreimonatige Erholungsreise in die Schweiz, wo er in den Berner Alpen ausgedehnte Wanderungen unternahm. 1840 hatte William George Armstrong entdeckt, dass beim Ausströmen von Wasserdampf unter hohem Druck in die Luft Elektrizität erzeugt wird. Im Sommer 1842 begann Faraday nach der Ursache dieser Elektrizität zu forschen. Er konnte nachweisen, dass es sich um Reibungselektrizität handelte. Nach Abschluss dieser Arbeiten im Januar 1843 schloss sich eine weitere längere Phase an, in der er kaum experimentierte. Erst ab dem 23. Mai 1844 begann Faraday erneut mit Versuchen, Gase in den flüssigen und festen Zustand zu überführen, die über ein Jahr andauerten. Er knüpfte dabei an seine Experimente von 1823 an. Es gelang ihm, sechs Gase in Flüssigkeiten umzuwandeln und sieben, darunter Ammoniak, Distickstoffmonoxid und Schwefelwasserstoff, in den festen Zustand zu überführen. In dieser Zeit schien Faraday Zweifel daran zu haben, ob er weiterhin wichtige Beiträge als Naturforscher leisten könne. Er stellte die 15. bis 18. Folge seiner Elektrizitätsuntersuchungen gemeinsam mit etwa 30 weiteren Arbeiten zum zweiten Band der "Experimental Researches in Electricity" zusammen, der Ende 1844 erschien. Magnetismus und Licht. Im Juni 1845 nahm Faraday am Jahrestreffen der British Association for the Advancement of Science in Cambridge teil. Dort begegnete er dem jungen William Thomson, dem späteren Lord Kelvin. Anfang August erhielt Faraday von Thomson einen Brief, in dem sich dieser nach dem Einfluss eines lichtdurchlässigen Nichtleiters auf polarisiertes Licht erkundigte. Faraday erwiderte, dass er 1833 ergebnislos derartige Versuche durchgeführt habe und versprach, sich der Frage nochmals zuzuwenden. Mit einer leuchtstarken Argand-Lampe wiederholte er Ende August bis Anfang September mit verschiedenen Materialien seine Versuche, erzielte jedoch keinen Effekt. Der Effekt, nach dem Faraday gesucht hatte, der elektrooptische Kerr-Effekt, wurde erst dreißig Jahre später durch John Kerr nachgewiesen. Am 13. September 1845 schickte Faraday polarisiertes Licht durch die zuvor benutzten Materialien, die er dem Einfluss eines starken Magneten aussetzte. Die ersten Versuche mit Luft und Flintglas erbrachten keine Ergebnisse. Als er ein im Rahmen seiner Glasexperimente in den 1820er Jahren hergestelltes Bleiborat-Glas benutzte, fand er beim Durchgang eine schwache, aber erkennbare Drehung der Polarisationsebene, wenn er den Lichtstrahl parallel zu den Magnetfeldlinien ausrichtete. Er setzte seine Experimente fort und wurde zunächst bei einer weiteren seiner alten Glasproben fündig, bevor er den Effekt an weiteren Materialien, darunter Flintglas, Kronglas, Terpentinöl, Halitkristall, Wasser und Ethanol, nachweisen konnte. Faraday hatte den Nachweis erbracht, dass Licht und Magnetismus zwei miteinander verbundene physikalische Phänomene waren. Seine Ergebnisse veröffentlichte er unter dem Titel "Über die Magnetisierung des Lichts und die Belichtung der Magnetkraftlinien". Der von Faraday gefundene magnetooptische Effekt wird heute als Faraday-Effekt bezeichnet. Faraday stellte sich sofort die Frage, ob auch der umgekehrte Effekt existiere und Licht etwas elektrisieren oder magnetisieren könne. Ein Versuch dazu, bei dem er eine Drahtspule dem Sonnenlicht aussetzte, scheiterte jedoch. Während einer Freitagabendvorlesung Anfang April 1846 äußerte Faraday einige Spekulationen über „Schwingungsstrahlungen“, die er zwei Wochen später in einem Brief an das "Philosophical Magazine" schriftlich niederlegte. In ihr skizzierte er die Möglichkeit, dass Licht durch transversale Schwingungen von Kraftlinien entstehen könnte. Faradays Spekulation war eine Anregung für James Clerk Maxwell bei der Entwicklung seiner elektromagnetischen Theorie des Lichtes, die er 18 Jahre später formulierte. Magnetische Stoffeigenschaften. Die Experimente mit polarisiertem Licht zeigten Faraday, dass ein nichtmagnetischer Stoff durch Magnetismus beeinflusst werden kann. Für seine weiteren Experimente lieh er sich einen starken Elektromagneten von der Royal Military Academy in Woolwich aus. Er befestigte eine Bleiboratglasprobe an zwei Seidenfäden und hängte sie zwischen die zugespitzten Polschuhe des Elektromagneten. Als er den elektrischen Stromkreis schloss, beobachtete er, dass sich die Glasprobe von den Polschuhen fortbewegte und sich senkrecht zur gedachten Verbindungslinie zwischen den Polschuhen ausrichtete. Sie verhielt sich damit anders als magnetische Materialien, die sich entlang der Verbindungslinie ausrichteten. Faraday fand schnell eine Vielzahl von Materialien, die sich wie seine Glasprobe verhielten, darunter Holz, Olivenöl, Apfel, Rindfleisch und Blut. Die deutlichsten Effekte erzielte er mit einem Bismutbarren. In Analogie zum Begriff „dielektrisch“ bezeichnete Faraday diese Stoffe am 18. September 1845 in seinem Labortagebuch als „dimagnetisch“. Erneut half Whewell Faraday bei der Begriffsbildung. Whewell korrigierte die von Faraday benutzte Vorsilbe in "dia" für ‚durch‘, da die Wirkung durch die Körper hindurch stattfand („diamagnetisch“) und schlug vor, alle Substanzen, die sich nicht so verhielten, als „paramagnetisch“ zu bezeichnen. In seinem Labortagebuch benutzte Faraday in diesem Zusammenhang am 7. November erstmals den Begriff „Magnetfeld“. Faradays Entdeckung des Diamagnetismus führte zur Herausbildung der Magnetochemie, die sich mit den magnetischen Eigenschaften von Materialien beschäftigt. Kraftlinien und Felder. Nach seiner Entdeckung des Einflusses eines Magnetfeldes auf polarisiertes Licht kam Faraday immer mehr zu der Auffassung, dass Kraftlinien eine reale physikalische Bedeutung haben könnten. Das ungewöhnliche Verhalten diamagnetischer Körper ließ sich nur schwer mit den herkömmlichen Magnetpolen erklären und führte zu einem Disput zwischen Faraday und Wilhelm Eduard Weber, der glaubte, nachweisen zu können, dass der Magnetismus wie die Elektrizität polarer Natur sei. 1848 begann Faraday mit neuen Experimenten das Verhalten von diamagnetischen Körpern unter dem Einfluss eines Magneten zu untersuchen. Dabei entdeckte er, dass Kristalle sich entlang bestimmter Vorzugsachsen orientieren (Magnetische Anisotropie). Dieses Verhalten ließ sich nicht mit den bisher genutzten Begriffen von Anziehung oder Abstoßung deuten. In seinem Untersuchungsbericht sprach Faraday erstmals von einem magnetischen Feld, das zwischen zwei Magnetpolen besteht und dessen Wirkung ortsabhängig ist. 1852 fasste Faraday seine Ansichten über Kraftlinien und Felder im Artikel "On the physical character of the lines of magnetic force" ("Über den physikalischen Charakter der magnetischen Kraftlinien") zusammen. Darin lehnte er eine Fernwirkung der Gravitationskräfte ab und vertrat die Auffassung eines mit der Masse eines Körpers verbundenen Gravitationsfeldes. Elektrizität und Gravitation. Faradays Interesse für Gravitation reichte bis in die Mitte der 1830er Jahre zurück. Ende 1836 las er eine Arbeit des Italieners Ottaviano Fabrizio Mossotti, in der dieser die Gravitation auf elektrische Kräfte zurückführte. Faraday war anfangs von der Arbeit begeistert, ließ sie ins Englische übersetzen und sprach in einer Freitagabendvorlesung über sie. Später verwarf er jedoch Mossottis Erklärung, da er zu der Überzeugung gelangt war, die Unterschiede, wie die Schwerkraft gegenüber anderen Kräften wirkt, seien zu groß. In den nächsten Jahren spekulierte Faraday häufig darüber, auf welche Weise die Schwerkraft mit anderen Kräften in Beziehung stehen könnte. Im März 1849 begann er zu überlegen, wie ein Zusammenhang zwischen Gravitation und Elektrizität experimentell nachzuweisen sei. Er stellte sich die Gravitation als eine Kraft mit zwei komplementären Komponenten vor, bei der ein Körper positiv ist, wenn er sich zur Erde hin und negativ, wenn er sich von ihr wegbewegt. Er stellte die These auf, dass diese beiden Bewegungen mit entgegengesetzten elektrischen Zuständen verbunden seien. Für seine Versuche konstruierte Faraday eine Drahtspule, die er mit einem Galvanometer verband und aus großer Höhe fallen ließ. Er konnte jedoch bei keiner Messung einen Effekt nachweisen. Trotz des negativen Ausganges der Versuche beschrieb er seine Bemühungen in der Baker-Vorlesung vom 28. November 1850. Im Februar 1859 begann Faraday erneut eine Reihe von Experimenten, mit denen er einen Zusammenhang zwischen Gravitation und Elektrizität nachzuweisen hoffte. Aufgrund des zu erwartenden geringen Effektes benutzte er einige hundert Kilogramm schwere Bleimassen, die er vom 50 Meter hohen Schrotturm in Lambeth fallen ließ. Mit anderen Experimenten hoffte er, eine Temperaturänderung beim Heben und Senken einer Masse nachweisen zu können. Am 9. Juli 1859 brach Faraday die Versuche erfolglos ab. Er verfasste darüber den Aufsatz "Note on the Possible Relation of Gravity with Electricity or Heat", den er am 16. April 1860 fertigstellte und der wie gewohnt in den "Philosophical Transactions" erscheinen sollte. George Gabriel Stokes, der befand, dass die Arbeit nicht veröffentlichungswürdig sei, da er nur negative Ergebnisse vorzuweisen habe, empfahl Faraday, seinen Artikel zurückzuziehen, was dieser nach Erhalt von Stokes Brief umgehend tat. Popularisierung von Naturforschung und Technik. Kurz nach seiner Ernennung zum Labordirektor der Royal Institution Anfang 1825 öffnete Faraday die Laboratorien des Instituts für die Treffen der Institutsmitglieder. An drei bis vier Freitagabenden wollte er vor interessierten Mitgliedern von Experimenten begleitete Chemievorträge abhalten. Aus diesen informellen Treffen entwickelte er das Konzept der regelmäßig stattfindenden Freitagabendvorlesungen, bei denen Themen aus Naturforschung und Technik für Laien verständlich dargestellt werden sollten. Bei der ersten Freitagabendvorlesung am 3. Februar 1826 sprach Faraday über Kautschuk. Von den 17 Vorlesungen des ersten Jahres hielt er sechs zu Themen wie Isambard Kingdom Brunels Gasverflüssiger, Lithografie und den Thames Tunnel. Nach Faradays Ansicht sollten die Vorlesungen Spaß machen, unterhalten, bilden und vor allem anregend sein. Seine Vorlesungen wurden aufgrund der schlichten Vortragsweise sehr populär und waren stets gut besucht. Bis 1862 gab Faraday insgesamt 126 dieser einstündigen Vorlesungen. Als Sekretär des Komitees für die „Weekly Evening Meetings“ sorgte Faraday dafür, dass die Vorträge in der "Literary Gazette" und im "Philosophical Magazin" veröffentlicht wurden und auf diese Weise einem noch breiteren Publikum zugänglich waren. Neben den Freitagabendvorlesungen wurde zum Jahreswechsel 1825/26 erstmals eine Weihnachtsvorlesung abgehalten, die sich speziell an jugendliche Hörer richtete. Bis Anfang der 1860er Jahre prägte Faraday die Ausgestaltung der Weihnachtsvorlesungen wesentlich. Von 1827 an war er für insgesamt 19 Folgen verantwortlich, die meist aus sechs Einzelvorlesungen bestanden. 1860/61 nutzte er seine Notizen der bereits 1848/49 abgehaltenen Vorlesung mit dem Titel "Chemical History of a Candle" ("Naturgeschichte einer Kerze"). Auf Betreiben von William Crookes wurde Faradays Weihnachtsvorlesung mitgeschrieben und erschien als sechsteilige Artikelfolge in Crookes "Chemical News". Die kurze Zeit später erschienene Buchfassung gilt als eines der erfolgreichsten populärwissenschaftlichen Bücher und wurde in zahlreiche Sprachen übersetzt. Im öffentlichen Dienst. a>, die von Faraday für seine Experimente genutzt wurden. Neben seiner Forschungs- und Vorlesungstätigkeit war Faraday in vielfältiger Weise für den britischen Staat tätig. Im Sommer 1829 wandte sich Percy Drummond († 1843), Lieutenant Governor der Royal Military Academy in Woolwich, an Faraday und fragte ihn, ob er bereit sei, als Nachfolger des Geologen John MacCulloch (1773–1835) den Posten des Professors für Chemie an der Akademie zu übernehmen. Nach längeren Verhandlungen, bei denen es vorwiegend um seine Pflichten und die Bezahlung ging, sagte Faraday zu. Bis 1852 hielt er in Woolwich jährlich 25 Vorlesungen. Ab dem 4. Februar 1836 war Faraday als wissenschaftlicher Berater für die Schifffahrtsbehörde Trinity House tätig, die unter anderem die englischen Leuchttürme betreibt. Er war verantwortlich für die chemische Analyse der beim Betrieb der Leuchttürme eingesetzten Materialien und begutachtete neue Beleuchtungssysteme, die Trinity House für den Einsatz vorgeschlagen worden waren. Faraday sorgte für die Modernisierung der englischen Leuchttürme. Vorbild waren ihm dabei die französischen Leuchttürme, bei denen zur Verbesserung der Lichtstärke Fresnel-Linsen eingesetzt wurden. Er begleitete auch die ersten Versuche zu ihrer Elektrifizierung. In Blackwall an der Themse gab es zwei speziell für seine Untersuchungen errichtete Leuchttürme. Im Auftrag der Regierung war Faraday an der Untersuchung zweier heikler Unfälle beteiligt. Am 13. April 1843 zerstörte eine Explosion die vom Ordnance Office geführte Schießpulverfabrik in Waltham Abbey (Essex), woraufhin Faraday mit der Ursachenanalyse betraut wurde. In seinem Bericht an den Labordirektor der Militärakademie von Woolwich James Pattison Cockburn (1779?–1847) zählte er mehrere mögliche Ursachen auf und gab Ratschläge, wie diese Probleme zukünftig vermieden werden könnten. Gemeinsam mit Charles Lyell und Samuel Stutchbury (1798–1859) erhielt er im Oktober 1844 vom Home Office den Auftrag, die Explosion in der Haswell-Grube in Durham zu untersuchen, bei der am 28. September 95 Menschen ums Leben gekommen waren. Lyell und Faraday erkannten, dass der Kohlenstaub eine wesentliche Rolle bei der Explosion gespielt hatte und empfahlen die Einführung eines besseren Bewetterungssystemes. Ein erheblicher Teil Faradays beratender Tätigkeit befasste sich mit der Konservierung von Gegenständen und Gebäuden. Ab 1853 beriet er das "Select Committee on the National Gallery" bei der Konservierung von Gemälden. Beispielsweise untersuchte er den Einfluss der Gasbeleuchtung auf Gemälde. Anfang 1856 wurde Faraday in die Royal Commission berufen, die sich mit der Zukunft des Standortes der National Gallery befasste. Im Auftrag von Thomas Leverton Donaldson (1795–1885) untersuchte er für das British Museum, ob die Elgin Marbles ursprünglich bemalt waren. 1859 beriet er das Metropolitan Board of Works bei der Auswahl eines Mittels zur Behandlung der Kalksteine des kürzlich wiedererbauten Houses of Parliament, die sich unter dem Einfluss der schwefelhaltigen Londoner Luft zersetzten. Religiöses Wirken. Auf solchen Karten vermerkte Faraday die Bibelstellen, aus denen er vortragen wollte. Faraday war ein zutiefst religiöser Mensch. Sein Vater gehörte der kleinen christlichen Sekte der Sandemanianer an, die sich Ende der 1720er Jahre von der Church of Scotland losgesagt hatten. Sie gründeten ihren Glauben und dessen Ausübung auf eine wörtliche Auslegung der Bibel. Im Großraum London gab es zur damaligen Zeit etwa 100 und in ganz Großbritannien etwa 1000 Sandemanianer. Bereits als Kind begleitete Faraday seinen Vater zu den sonntäglichen Predigten. Kurz nach seiner Hochzeit mit Sarah Barnard, die ebenfalls Mitglied der Sandemanianer war, und deren Vater der Gemeinde als Ältester („Elder“) diente, legte er am 15. Juli 1821 seinen Eid ab und wurde Mitglied. Als Zeichen ihrer hohen Wertschätzung wählte die Londoner Gemeinde Faraday am 1. Juli 1832 zum Diakon und am 15. Oktober 1840 zu einem der drei Ältesten. In den folgenden dreieinhalb Jahren gehörte es zu seinen Verpflichtungen, an jedem zweiten Sonntag die Predigt zu halten, auf die er sich genauso sorgfältig wie auf seine Vorlesungen vorbereitete. Am 31. März 1844 wurde Faraday bis zum 5. Mai aus der Gemeinde ausgeschlossen. Die Gründe hierfür sind nicht ganz geklärt, sind aber nicht in einer persönlichen Verfehlung Faradays zu suchen, sondern auf eine Kontroverse innerhalb der Sandemanianer zurückzuführen, da neben Faraday zu dieser Zeit auch zahlreiche weitere Mitglieder ausgeschlossen worden waren. In seine Position als Ältester wurde er erst wieder am 21. Oktober 1860 gewählt. Bis 1864 war Faraday wieder regelmäßig für die Predigten zuständig und erhielt den Kontakt zu anderen sandemanianischen Gemeinden, so beispielsweise in Chesterfield, Glasgow und Dundee, aufrecht. Seine Predigten bestanden aus einer Reihe von Zitaten aus dem Alten und Neuen Testament, die er kommentierte. Seine religiösen Ansichten waren für ihn eine sehr private Angelegenheit und er äußerte sich nur selten gegenüber seinen Briefpartnern oder in der Öffentlichkeit darüber. Letzte Jahre. Das Haus der Faradays in Hampton Court Green Der dritte und letzte Band der "Experimental Researches in Electricity", den Faraday Anfang 1855 zusammenstellte, umfasste alle seine seit 1846 in den "Philosophical Transactions" veröffentlichten Arbeiten. Zusätzlich nahm er zwei im "Philosophical Magazine" publizierte Artikel auf, die an die 29. Folge der "Experimental Researches in Electricity" anschlossen und seine charakteristische Abschnittsnummerierung fortsetzten. Einige kürzere Artikel ergänzten den Band. Insgesamt publizierte Faraday 450 wissenschaftliche Artikel. Durch Vermittlung von Prinz Albert bezogen die Faradays im September 1858 ein Haus in Hampton Court Green, das Königin Victoria gehörte und sich in unmittelbarer Nähe des Hampton Court Palace befand. Im Oktober 1861 bat der siebzigjährige Faraday die Manager der Royal Institution um seine Entlassung aus dem Institutsdienst. Diese lehnten sein Ersuchen jedoch ab und erließen ihm nur die Verantwortung für die Weihnachtsvorlesungen. Am 25. November 1861 begann Faraday eine letzte Versuchsreihe, bei der er mit einem von Carl August von Steinheil konstruierten Spektroskop die Auswirkungen eines Magnetfeldes auf das Lichtspektrum einer Flamme untersuchte. Seinen letzten Eintrag im Labortagebuch machte er am 12. März 1862. Die Versuche blieben wegen der nicht ausreichend empfindlichen Messanordnung erfolglos; der Zeeman-Effekt wurde erst 1896 entdeckt. Am 20. Juni 1862 hielt Faraday vor über 800 Zuhörern seinen letzten Freitagabendvortrag "On Gas Furnaces" (Über Gasöfen) und beendete seine fast vier Jahrzehnte andauernde Vortragstätigkeit für die Royal Institution. Im Frühjahr 1865 wurde er auf einmütigen Beschluss der Manager der Royal Institution von allen seinen Verpflichtungen entbunden. Bis zum Mai 1865 stand er mit seinem Rat noch der Schifffahrtsbehörde zur Verfügung. Faraday starb am 25. August 1867 in seinem Haus in Hampton Court und wurde fünf Tage später auf dem Highgate Cemetery begraben. Herausbildung der Elektrodynamik. Faradays Konzepte und seine Ansicht von der Einheitlichkeit der Natur, die ohne eine einzige mathematische Formel auskamen, hinterließen beim jungen James Clerk Maxwell einen tiefen Eindruck. Maxwell stellte es sich zur Aufgabe, Faradays experimentelle Befunde und ihre Beschreibung mittels Kraftlinien und Felder in eine mathematische Darstellung zu überführen. Maxwells erster größerer Aufsatz über Elektrizität "On Faraday’s Lines of Force" ("Über Faradays Kraftlinien") erschien 1856. Auf Grundlage einer Analogie zur Hydrodynamik stellte Maxwell darin eine erste Theorie des Elektromagnetismus auf, indem er die Vektorgrößen elektrische Feldstärke, magnetische Feldstärke, elektrische Stromdichte und magnetische Flussdichte einführte und mit Hilfe des Vektorpotentials zueinander in Beziehung setzte. Fünf Jahre später berücksichtigte Maxwell in "On Physical Lines of Force" ("Über physikalische Kraftlinien") auch das Medium, in dem die elektromagnetischen Kräfte wirkten. Er modellierte das Medium durch elastische Eigenschaften. Daraus ergab sich, dass eine zeitliche Änderung eines elektrischen Feldes zu einem zusätzlichen Verschiebungsstrom führt. Außerdem ergab sich, dass Licht eine transversale Wellenbewegung des Mediums ist, womit Faradays Spekulation über die Natur des Lichtes bestätigt wurde. Die weitere Ausarbeitung der Theorie durch Maxwell führte 1864 schließlich zur Formulierung der Maxwellschen Gleichungen, welche die Grundlage der Elektrodynamik bilden und mit denen sich alle von Faraday gefundenen elektromagnetischen Entdeckungen erklären lassen. Eine der vier Maxwellschen Gleichungen ist eine mathematische Beschreibung der von Faraday entdeckten elektromagnetischen Induktion. Öffentliche Wahrnehmung. a> ist eine der wenigen Statuen im Londoner Freiland, die einem Wissenschaftler gewidmet sind. Am Ende des 19. Jahrhunderts wurde Faraday als Erfinder des Elektromotors, des Transformators und des Generators sowie als Entdecker von Benzol, des magnetooptischen Effektes, des Diamagnetismus und als Schöpfer der elektromagnetischen Feldtheorie wahrgenommen. 1868 erschien John Tyndalls Biografie "Faraday as a Discoverer" ("Faraday und seine Entdeckungen"). Tyndall, der Nachfolger von Brande an der Royal Institution war, beschrieb darin hauptsächlich Faradays wissenschaftliche Entdeckungen. Hermann Helmholtz, der Tyndalls Biografie ins Deutsche übersetzte, ergänzte diese durch zahlreiche biografische Anmerkungen. Kurz darauf publizierte Henry Bence Jones, Sekretär der Royal Institution und Arzt Faradays, eine typische viktorianische „Life-and-Letters“-Biografie, für die er auf Faradays Briefe, seine Labortagebücher und andere unveröffentlichte Manuskripte zurückgriff und Ausschnitte aus Tyndalls Biografie nutzte. Bence Jones zweibändige Biografie ist noch heute eine wichtige Quelle, da einige der darin zitierten Briefe und Tagebücher nicht mehr auffindbar sind. Diese und weitere Darstellungen von Faraday führten zu einem Bild eines Forschers, der allein und in der Abgeschiedenheit seines Labors an der Royal Institution den Naturgeheimnissen auf den Grund ging. Instrumentalisierung. Nach dem Ende des Ersten Weltkrieges versuchten die etablierte Gasindustrie und die aufstrebende Elektroindustrie, deren Ziel die umfassende Elektrifizierung Großbritanniens war und die sich damit in unmittelbarer Konkurrenz zur Gasindustrie befand, in den 1920er Jahren die Bekanntheit Faradays für ihre jeweiligen Ziele zu nutzen. Anlässlich des einhundertsten Jahrestages der Entdeckung von Benzol konstituierte sich unter dem Vorsitz des Chemikers Henry Edward Armstrong ein Komitee aus Mitgliedern der Royal Institution, der Chemical Society, der Society of Chemical Industry und der Association of British Chemical Manufacturers. Während der Feierlichkeiten im Juni 1925 wurde hervorgehoben, welche Bedeutung Faraday für die moderne Chemieindustrie habe, und er wurde als „Vater der Chemieindustrie“ zelebriert. Auf Initiative von Walter Adolph Vignoles (1874–1953), Direktor der Electrical Development Association, und mit Unterstützung von William Henry Bragg, Direktor des Davy-Faraday Research Laboratory an der Royal Institution, wurde im Februar 1928 ein neunköpfiges Komitee berufen, das die Feierlichkeiten aus Anlass des einhundertsten Jahrestages der Entdeckung der elektromagnetischen Induktion 1931 organisieren sollte. Vom 23. September bis 3. Oktober 1931 fand in der Royal Albert Hall eine Ausstellung zu Ehren Faradays und seiner Entdeckung statt. Den Mittelpunkt der Ausstellung bildete eine Kopie der von John Henry Foley (1818–1874) und Thomas Brock (1847–1922) geschaffenen Skulptur, die sich seit 1876 in der Royal Institution befand und die Faraday in akademischer Kleidung mit seinem Induktionsring zeigte. In unmittelbarer Nähe der Skulptur befanden sich die einfachen Dinge, mit denen Faraday seine ersten Experimente durchführte: ein Draht, ein Magnet und ein Quecksilbertropfen. Die Skulptur bildete den Mittelpunkt für die darum kreisförmig angeordneten Ausstellungsstände. Auf den der Skulptur nächstgelegenen Ständen wurden die von Faraday für die einzelnen Experimente benutzten Apparaturen und seine damit verbundenen Aufzeichnungen gezeigt. Die äußeren Stände demonstrierten die daraus hervorgegangenen modernen Technologien der Elektroindustrie. Eine 12-seitige Broschüre, die die Ausstellung begleitete und von der etwa 100.000 Kopien verteilt wurden, trug den Titel "Faraday: The Story of an Errand-Boy. Who Changed the World" ("Faraday: Die Geschichte eines Laufburschen, der die Welt veränderte"). Die aufwändige Ausstellung von 1931 und die damit verbundenen Feierlichkeiten waren einerseits dem Bestreben der Elektroindustrie geschuldet, Elektrizität in vermarktbare Produkte zu verwandeln. Andererseits unterstützten sie auch das Bestreben der Naturwissenschaftler, zu zeigen, wie Grundlagenforschung zur Entwicklung neuer Technologien beitragen kann. Auszeichnungen und Würdigung. Faradays Biograf Henry Bence Jones verzeichnet insgesamt 95 Ehrentitel und Auszeichnungen. Die erste Würdigung durch eine Gelehrtengesellschaft wurde Faraday 1823 durch die Cambridge Philosophical Society zuteil, die ihn als ihr Ehrenmitglied aufnahm. 1832 wurde er in die American Academy of Arts and Sciences gewählt. Auf Bestreben von Jean-Baptiste André Dumas wurde Faraday 1844 als eines der acht Auslandsmitglieder in die Académie des sciences gewählt. Im Jahre 1857 wurde er zum Mitglied der Leopoldina gewählt. 1864 wurde er letztmals durch die Società Reale di Napoli geehrt, die ihn als assoziiertes Auslandsmitglied führte. Die Royal Society zeichnete ihn mit der Copley-Medaille (1832 und 1838), der Royal Medal (1835 und 1846) und der Rumford-Medaille (1846) aus. Das Angebot, Präsident der Royal Society zu werden, lehnte Faraday zweimal (1848 und 1858) ab. 1842 erhielt Faraday den preußischen Verdienstorden Pour le Mérite. Ein speziell für die Verlegung von Seekabeln gebauter Kabelleger, die "Faraday", wurde 1874 von seinem Konstrukteur Carl Wilhelm Siemens nach Faraday benannt. Der in Paris tagende "Congrès international d’électriciens" ("Internationaler Elektrikerkongress") beschloss am 22. September 1881, die Einheit für die elektrische Kapazität zu seinen Ehren Farad zu nennen. Ebenso sind nach ihm der Mondkrater Faraday und der Asteroid Faraday benannt. William Whewell ehrte Faraday und Davy mit der Benennung einer seiner „Epochen der Chemie“. Am 5. Juni 1991 emittierte die Bank of England eine neue 20-Pfund-Sterling-Banknote mit dem Bildnis von Faraday, die bis zum 28. Februar 2001 gültiges Zahlungsmittel war. Mehrere Preise sind nach ihm benannt, unter anderem die Faraday-Medaille (IOP), Faraday-Medaille (IEE) und der Michael-Faraday-Preis der Royal Society. Nachlass und Briefwechsel. Holzkiste von Michael Faraday zur Verwahrung von Chemikalien und Schriftstücken, 19. Jahrhundert Faradays schriftlicher Nachlass ist wahrscheinlich der umfangreichste, den ein Naturforscher in der Geschichte der Naturwissenschaften hinterlassen hat. Er umfasst seine Labortagebücher, Tagebücher, Commonplace-Books, Notizen, Manuskripte, Briefe, Bücher und anderes. Im Nachlass finden sich Aufzeichnungen zu etwa 30.000 von Faraday durchgeführten Experimenten. Anfang 1855 gab Faraday erste Anweisungen zur Regelung seines Nachlasses. Er hinterließ der Royal Institution seine Labortagebücher, einige Sonderdrucke und andere persönliche Dinge. Nach Faradays Tod erhielt die Royal Institution weiteres Material von seiner Frau Sarah. Trinity House überließ sie die Akten mit seinen Arbeiten für die Behörde. Diese befinden sich heute in der Guildhall Library. Etliche Stücke gab sie zur Erinnerung an Faraday an Freunde und Verwandte. Ein Teil davon gelangte Ende 1915 in den Besitz der Institution of Electrical Engineers. Die Manuskripte von Faradays Artikeln für die "Philosophical Transactions" wurden, nachdem er sie zur Veröffentlichung eingereicht hatte, Eigentum der Royal Society. Die Hälfte von ihnen blieb bewahrt. Von Faradays Korrespondenz sind etwa 4800 Briefe erhalten, die sich in 230 Archiven auf der ganzen Welt befinden. Mimese. a> ähneln äußere Erscheinung und Verhalten einem Blatt. Als Mimese (gr. "mímēsis", Nachahmung) wird in der Biologie eine Form der Tarnung bezeichnet, bei der ein Lebewesen in Gestalt, Farbe und Haltung einen Teil seines Lebensraumes annimmt und so für optisch ausgerichtete Feinde nicht mehr von der Umwelt unterschieden werden kann. Die Mimese wird auch als Tarn- oder Verbergtracht bezeichnet und unterscheidet sich damit von der Mimikry, die eine Warntracht darstellt. Im englischen Sprachgebrauch wird die Mimese allerdings häufig zur Mimikry gerechnet. Diese Art der Tarnung wurde bereits vor 50 Millionen Jahren von Kleinschmetterlingen angewendet, die im Larvenstadium ihren Köcher mit allerlei Gegenständen des Waldbodens tarnten. Beispiele hierfür sind als Inklusen (Einschlüsse) im Baltischen Bernstein erhalten. Mimikry. Mimikry (f.) bezeichnet in der Biologie die auffallend große Ähnlichkeit der gestaltlichen, farblichen Muster gewisser Tier- und Pflanzenarten mit den Mustern anderer Arten, sofern angenommen wird, dass diese Ähnlichkeiten für die ersteren Organismen mit Überlebens- oder Vermehrungsvorteilen verbunden sind. Solche Muster wurden im Verlauf der Evolution der betreffenden Arten hervorgebracht und dienen verschiedenen Zwecken. Eine der häufigsten Formen von Mimikry, bei der es um Abschreckung bzw. Schutz zu gehen scheint, zeigen jene in Wirklichkeit sehr harmlosen Arten, die die grell gefärbten Warnmuster von Arten tragen, die aufgrund etwa ihrer mit Giftstacheln bewaffneten Gefährlichkeit von potentiellen Feinden gemieden werden. Eine nicht hierdrauf und auch nicht auf bloße Tarnung abzielende Form der Mimikry findet sich wiederum bei jenen Orchideen, deren Blüten die Gestalt und sogar den Duft der Bienenköniginnen auf ihrem Hochzeitsflug 'nachahmen' - für die schwärmenden Drohnen eine unwiderstehliche Verlockung, auf den Blüten dieser Orchideenart zu landen. Der die Tiere 'irreführende' Überlebensvorteil auf Seiten der Pflanzen wäre hierbei der, die Tiere den Akt der Bestäubung vollziehen zu lassen. Wie diese und weitere, sogar bis in den Bereich der Molekularbiologie hinabreichenden Varianten der Mimikry fundiert zu unterscheiden und jeweils zu benennen wären, stellt eine aktuelle Diskussion unter den Forschern dar. Einige Wissenschaftler schlagen vor, die Bezeichnung "Mimikry" auf die Bates’sche Mimikry zu beschränken; die hauptsächlichen unter der Vielzahl erwogener Argumente werden im Artikel weiter unten angesprochen. Wortherkunft. Die Bezeichnung "Mimikry" ist abgeleitet von englisch "mimicry" (= „Nachahmung“), was wiederum abgeleitet ist von "to mimic": „nachahmen, mimen“ + Suffix "-ry" (entsprechend dt. „-erei“) und entlehnt aus "mímos" ‚Nachahmer, Imitator, Schauspieler‘. Prinzip: Signalfälschung. Mimikry bewirkt durch ihre spezifischen Gestalten und Farben eine Täuschung auf Seiten der Signalempfänger – gleichsam ein „gefälschtes“ Signal, das die Signalempfänger entweder als "Verlockung', als "Gefahr" oder auch als für sie 'irrelevant" interpretieren (eigentliche Tarnung). Diese im Verlauf der Stammesgeschichte entstandenen analogischen Muster haben im Kontext der Evolutionstheorie den allgemeinen biologischen Zweck, die Überlebenschancen der Individuen der betreffenden Art zu erhöhen. Wie für die Entstehung aller Arten, nahm Darwin auch in Bezug der Mimikry betreibenden Arten an, dass sich ihre täuschende 'Nachahmung' von 'Vorbildern' nach und nach auf dem Wege der selektiv begünstigenden Verstärkung entsprechender Mutationen herausgebildet hat. Problematik der genauen Klassifizierung. Nicht immer ist es möglich, eine klare Abgrenzung zwischen Mimikry und Mimese zu erzielen; ein Beispiel hierfür ist die afrikanische „Teufelsblume“ "(Idolomantis diabolicum)", eine Fangschrecke, deren mit blattförmig gewachsenen Fangarmen ausgestatteter Vorderleib einer Blüte ähnelt. Während viele Insektenarten diese „Blüte“ nur als für sie vermeintlich harmlosen Ruheplatz anfliegen (Mimese), werden andere Arten von ihrem vermeintlichen Futterplatz angelockt (Peckham’sche Mimikry) – und ebenfalls gefressen. Diese Unterscheidung macht deutlich, dass die Art der "Interpretation" des Signals durch den jeweiligen Empfänger maßgeblich ist, ob das Signal als Mimesis oder als Mimikry klassifiziert wird. Bates’sche Mimikry. Die Bates’sche Mimikry ist die bekannteste Form der Mimikry. Sie wurde 1862 von Henry Walter Bates in den "Transactions" der "Linnean Society" zu London erstmals wissenschaftlich beschrieben, nachdem er zwischen 1849 und 1860 in den „"Urwäldern"“ im brasilianischen Amazonasgebiet umhergestreift war und dort u. a. die Schmetterlingsarten erforscht hatte. Bates bezeichnete die Nachahmung eines wehrhaften oder ungenießbaren Tieres durch harmlose Tiere zur Täuschung von Feinden als Mimikry. Inzwischen ist bekannt, dass es sich hierbei um einen Spezialfall der "Schutzmimikry" handelt, die den Namen des Entdeckers erhielt. Historisches. Im Jahre 1844 erschien in England unter dem Titel „Vestiges of natural history of creation“ eine von Robert Chambers anonym verfasste Broschüre, die jahrelang für Aufregung sorgte, denn sie enthielt eine Reihe von Theorien über die Entstehung der Welt und der Tiere. Die Broschüre wurde in Deutschland unter dem Titel „Natürliche Geschichte der Schöpfung“ bekannt. Der junge britische Zoologe Alfred Russel Wallace interessierte sich für diese Broschüre und er begann, über die Entstehung der Arten nachzudenken. Er lernte den britischen Entomologen Henry Walter Bates kennen, der ebenfalls von dieser Broschüre sehr angetan war. Wallace schlug Bates vor, gemeinsam eine Reise nach Südamerika zu unternehmen. Beide verfolgten ein ehrgeiziges Ziel, denn sie wollten in den Tropen Tatsachen über den Ursprung der Arten sammeln. Dort sind die beiden unabhängig von Darwin auf die Idee des Prinzips der natürlichen "Zuchtwahl" (Auslese) gekommen. Während Wallace nur drei Jahre im Amazonas-Regenwald Brasiliens blieb und dann in den malaiischen Archipel weiterzog, sammelte Bates elf Jahre lang dort Tiere und Pflanzen. Er hatte eine sehr große Kollektion mit vielen gänzlich unbekannten Arten, doch im Unterschied zu vielen früheren Reisenden betätigte sich Bates bereits als echter Naturforscher, der nicht nur seltenen Tieren nachspürte, sondern auch die Wechselbeziehungen zwischen verschiedenen Tierarten und deren Verhaltensweisen beobachtete. Er stellte beim Sortieren seiner umfangreichen Schmetterlingssammlung immer wieder fest, dass sich unter den farbenprächtigen Edelfaltern einzelne Exemplare befanden, die sehr selten waren und zu einer ganz anderen Familie, den Weißlingen, gehörten. Die Ähnlichkeit dieser beiden Arten war so groß, dass sie als lebende Falter praktisch nicht voreinander zu unterscheiden waren. Bates erwähnte einmal: „"Es ist mir nie gelungen, die "Leptalis"-Arten von den ihnen ähnlichen Arten zu unterscheiden."“ Genaueres zur Entdeckung von Bates. Die Gattung "Dismorphia", früher "Leptalis", bildet eine ganze Reihe verschiedener Arten aus. Diese Arten gleichen außerordentlich verschiedenen Ithomiini-Arten. "Dismorphia" zählt zur Familie der Weißlinge (Pieridae). Sehr auffallend ist es, dass "Dismorphia" nicht nur in ihrer Färbung, sondern auch in ihrer Flügelform ganz erheblich von ihren Verwandten abweicht. Selbst der gute Schmetterlingskenner Bates hätte die Art beim Sortieren seiner Sammlung beinahe falsch eingeordnet. Denn viele "Dismorphia"-Arten gleichen äußerlich verschiedenen "Ithomiini"-Arten viel mehr als der eigenen Verwandtschaft. Die Ithomiini gehören jedoch zu einer ganz anderen Familie, nämlich den Edelfaltern (Nymphalidae). Weder Verwandtschaft noch ähnliche Lebensweise kamen als Grund für die großartige Übereinstimmung zwischen "Dismorphia" und den Ithomiini in Frage. Bates suchte nach einer anderen Erklärung. Das Grundproblem war, warum die Schmetterlinge ausgerechnet den Edelfaltern der Tribus Ithomiini glichen. Er hatte beobachtet, dass die Ithomiini-Arten sehr häufig vorkamen, auffallend bunt waren und so langsam flogen, dass sie leicht zu fangen waren. Dies machte den Gelehrten stutzig. Bates konnte nie beobachten, dass die von Vögeln erbeuteten Ithomiini-Arten von diesen wirklich gefressen werden. Daraus folgerte er, dass diese Schmetterlinge ungenießbar sein müssten: Ekelgeschmack, Giftigkeit, … Vögel würden dies schnell feststellen, sich das Aussehen der ungenießbaren Falter einprägen und sie künftig meiden. Gäbe es nun im selben Gebiet einen deutlich selteneren Schmetterling, der – obwohl prinzipiell genießbar – die Ithomiini-Arten in Aussehen und Verhalten nachahmte, so würde er die Vögel täuschen und gleichfalls nicht gefressen werden. Solche selteneren Schmetterlinge waren "Dismorphia". Europäisches Beispiel für Bates’sche Mimikry. In Europa sind Wespen, Bienen und Hummeln weit verbreitet. Sie alle, jedenfalls die stachelbewehrten Weibchen, werden von einigen anderen, offenbar völlig wehrlosen Insekten „nachgeahmt“. Giftige und ungenießbare Arten haben oft eine auffallende Färbung, eine so genannte Warntracht. Wird diese nachgeahmt, spricht man auch von Scheinwarntracht. Unter den Fliegen kennen wir die Familie der Schwebfliegen, bei der viele Arten anscheinend auf „Signalfälschung“ spezialisiert sind. Hier findet man zahlreiche Arten, die im Aussehen den wehrhaften Wespen und Honigbienen stark ähneln. Die Schwebfliegen der Gattung "Eristalis" ahmen mehr oder weniger gut die Europäische Honigbiene nach und werden deshalb auch als „Mistbienen“ bezeichnet; ihre „Rattenschwanzlarven“ entwickeln sich meist in der Gülle von Misthaufen. Noch auffälliger ist die Ähnlichkeit zahlreicher Schwebfliegen mit Wespen. Sie besitzen das leuchtend gelb-schwarze „Warnsignal“ auf den Hinterleibern ihrer wehrhaften Vorbilder und verunsichern so häufig Menschen, die Schwebfliegen und Wespen nicht unterscheiden können. Wenn man jedoch Schwebfliegen genauer betrachtet, sind sie relativ leicht als ganz normale, harmlose Fliegen zu identifizieren, denn ihnen fehlen einige charakteristische Merkmale der Wespen, die in die Ordnung der Hautflügler gehören, während Schwebfliegen in die Ordnung der Zweiflügler gehören. Wespen haben immer vier Flügel und längere, gekniete Fühler, während Fliegen nur zwei Hauptflügel und stummelförmige Fühler haben. Zudem können Schwebfliegen „schweben“, das heißt, ähnlich einem Hubschrauber in der Luft am selben Ort verharren. Das „Warnsignal“ der Wespen nutzen auch andere Insektenarten. Unter den Käfern kann man etwa den Wespenbock und einige andere Bockkäfer auf den ersten Blick für Wespen halten. Die Nachahmung der großen Hornissen und Wespen durch den Hornissen-Glasflügler, einen harmlosen Schmetterling, ist so vollkommen, dass er in der Größe, Färbung und Flügelhaltung der gefürchteten Hornisse fast gleicht. Auch Hummeln werden von einem Schmetterling nachgeahmt: vom Hummelschwärmer. Die Nachahmung wehrhafter Vorbilder sollte sich nicht nur auf Körpermerkmale beschränken. Weitere Übereinstimmungen im Verhalten, im Lebensraum und im Lebensrhythmus tragen dazu bei, dass das Vorbild und der Nachahmer miteinander verwechselt werden. Unerfahrene Räuber fressen die wehrlosen Nachahmer, z. B. wespenähnliche Schwebfliegen, sogar sehr gerne. Erjagten aber Kröten und Vögel zuerst einige der wehrhaften Wespen, lehnen sie anschließend auch ähnliche Schwebfliegen für lange Zeit ab. Allerdings können viele Vögel und andere Räuber Farben und Muster sehr gut erkennen und genau unterscheiden. Nachahmer stehen somit vor dem Problem, dass sie ihren Vorbildern so weitgehend wie möglich gleichen müssen. Da die Existenz ungiftiger Nachahmer den Lernerfolg bzw. das Vermeidungsverhalten der Fressfeinde verringert, ist es wichtig, dass das zahlenmäßige Verhältnis unausgewogen ist, also nicht zu viele harmlose Nachahmer entstehen. Müller’sche Mimikry. Nach Lunau liegt hier im eigentlichen Sinne keine Mimikry vor, sondern Signalnormierung, denn hier passen sich verschiedene Arten aus verschiedenen Gattungen aneinander an, die ihre Vorzüge teilen. Der deutsche Biologe Johann Friedrich Theodor Müller (1821–1897) fand bei seinen Beobachtungen von Schmetterlingen heraus, dass gleich aussehende Tiere nicht immer derselben Gattung angehören müssen. Im Laufe der Stammesgeschichte hatten sich ungenießbare Schmetterlinge eine gemeinsame Warntracht zugelegt, so dass die Fressfeinde sie nicht mehr auseinanderhalten konnten. Daher musste der Fressfeind nur bei einem Tier die schlechte Erfahrung machen und mied in Zukunft alle gleich aussehenden Tiere. Hiervon profitieren beide Arten. Beispiele bei den Pflanzen. Hier betrifft es vor allem Blüten, die sich sehr ähnlich sehen und alle z. B. Nektar anbieten. Mertens’sche Mimikry. Passt sich eine gefährliche oder ungefährliche Art einer mäßig gefährlichen Art an, so spricht man von Mertens’scher Mimikry. Diese Bezeichnung wurde durch den deutschen Zoologen Robert Mertens (1894–1975) begründet. Ein Beispiel für diese Art Mimikry sind die Korallenschlangen der Gattung "Micrurus" und "Micruroides". a> (Cemophora coccinea), ein Beispiel für Mimikry a> (Lampropeltis triangulum elapsoides), ein zweites Mimikrybeispiel Auf dem amerikanischen Kontinent kommen etwa 75 außergewöhnlich farbenprächtige Korallenschlangenarten vor. Ihre leuchtenden Farben Gelb und Rot dominieren neben dem Schwarz. Sie können daher leicht verwechselt werden. Diese Schlangen sind nicht näher verwandt und gehören zu 18 verschiedenen Gattungen. Die echten Korallenschlangen haben einen sehr effektiven Giftapparat, und das Gift ist ein tödliches Nervengift. Sie sind aber so klein, und ihre Kiefer sind so schwach, dass ihr Biss für den Menschen zwar sehr schmerzhaft, aber nicht sehr gefährlich ist. Die nur mäßig giftigen Korallennattern zählen zu den Trugnattern. Bei ihnen sind im Unterschied zu den Giftnattern nur die hinteren Zähne als Giftzähne ausgebildet. Sie haben ein verhältnismäßig schwaches Gift, das für den Menschen nicht tödlich ist. Die Korallennattern gehören, wie die völlig harmlose Milchschlange, zu den ungiftigen Nattern. Nach Einschätzung einiger Forscher haben sich in diesem Fall die hochgiftigen (und die ungiftigen) Schlangen den mäßig giftigen im Aussehen angepasst. Die hochgiftigen Schlangen können sich (auf Grund ihrer Giftigkeit, aber geringeren Stärke) zwar gut gegen kleinere Feinde mit nicht zu dicker Haut zur Wehr setzen. Da diese aber, falls sie gebissen worden sind, mit großer Wahrscheinlichkeit am Gift sterben und deswegen nicht aus ihrem Verhalten lernen können, profitieren die hochgiftigen Korallenschlangen davon, der weniger giftigen Gattung zu ähneln. Ein potentieller Angreifer könnte eine Begegnung mit Exemplaren der letzteren Gattung durchaus überlebt haben, aber aufgrund dieser unangenehmen Erfahrung Schlangen dieses Aussehens meiden. Auch die ungiftigen Korallenschlangen genießen Schutz durch ihre Ähnlichkeit zur mäßig giftigen Gattung. Peckham’sche Mimikry. Anders als die oben genannten Mimikry-Formen hat die Peckham’sche Mimikry (nach George Peckham und Elizabeth Peckham, 1889), auch "aggressive Mimikry" genannt, nicht zur Folge, dass Angreifer abgewendet werden; im Gegenteil, sie bewirkt, dass andere Arten angelockt werden. Ein Beispiel ist der Seeteufel "Lophius spec.", eine Meeresfischart. Er hat am isoliert stehenden vordersten Strahl seiner Rückenflosse ein Hautanhängsel, das er wie einen Wurm bewegen kann, mit der Folge, dass andere Fische angelockt und so zu einer leichten Beute werden. Ein anderes Beispiel sind Orchideen der Gattung "Ophrys". Sie ahmen mit ihren Blütenblättern nicht nur das Aussehen und das Anfühlen von weiblichen Solitär-Bienen nach und locken so paarungsbereite Männchen an, sondern sie sezernieren sogar noch wirkungsvollere Sexuallockstoffe (Insektenpheromone) als die echten Weibchen. Die Männchen bestäuben so beim „Begattungsakt“ (genannt "Pseudokopulation") die Blüten. Auch die Kronblätter der Blüten des südafrikanischen Korbblütlers "Gorteria diffusa" ahmen weibliche Insekten nach, die insbesondere Männchen aus der Gruppe der Wollschweber (bombyliid flies) anlocken. Die getäuschten Individuen einer Art („Signalempfänger“) erleiden, statistisch gesehen, einen Fortpflanzungsnachteil. Es pflanzen sich mehr jener Individuen fort, die sich nicht täuschen ließen. Auch der erfolgreiche Täuscher („Signalfälscher“) genießt höhere Fortpflanzungschancen. Dadurch kommt es zum evolutionären Wettlauf (galoppierende Koevolution), bei dem die Täuschungsqualität der Signalfälscher und das Unterscheidungsvermögen der Signalempfänger ein hohes Niveau erreichen können. So täuschen Pflanzen der Gattung "Rafflesia" mit ihren Blüten mittels Farbe, Größe, Geruch und Oberflächenstruktur einen Kadaver vor. Viele Fliegen, die diese Blüte passieren, fallen auf den Trick trotz der Kombination an Täuschreizen nicht herein. Um das Erkennen zu erschweren, ist die Variation der Täuschungsreize innerhalb einer Art (intraspezifisch) oft sehr hoch (kein Ophrys-Blütenblatt gleicht dem anderen). Mimikry – nicht nur die aggressive – muss sich auch nicht auf das Aussehen beziehen. Weibchen der Leuchtkäfer-Gattung "Photuris" ahmen die charakteristischen Leuchtsignale von Weibchen anderer Leuchtkäferarten aus der Gattung "Photinus" nach, locken deren Männchen an und verzehren sie. Die Männchen ihrerseits landen häufig erst in der näheren Umgebung, um sich ein Bild vom Weibchen zu machen. Spinnenfresser zupfen mit den Beinen an den Netzen anderer Spinnen, imitieren auf diese Weise im Netz gefangene Beute und fressen die herbeieilende Netzbesitzerin. Molekulare Mimikry. Als molekulare Mimikry wird der Umstand bezeichnet, dass Moleküle auf der Oberfläche von Krankheitserregern körpereigenen Molekülen ähneln oder mit ihnen identisch sind. Dies stellt für den Erreger eine Tarnung gegenüber immunkompetenten Zellen dar, denen das Erkennen der Keime als Fremdstruktur somit erschwert wird. Werden diese Moleküle trotzdem vom Immunsystem als Antigen erkannt, kann sich die darauf folgende Immunreaktion nicht nur gegen den Erreger, sondern auch gegen körpereigenes Gewebe richten. Dieser Vorgang wird auch Kreuzreaktion genannt und gilt als eine mögliche Ursache für die Entstehung von Autoimmunerkrankungen. Molekulare Mimikry wird als Ursache für Krankheiten wie Multiple Sklerose, rheumatoide Arthritis und das Magengeschwür diskutiert. Die nur auf der südchinesischen Insel Hainan vorkommende Orchideenart "Dendrobium sinense" lockt ihre Bestäuber, Hornissen der Art "Vespa bicolor" an, indem sie unter anderem die chemische Verbindung (Z)-11-Eicosen-1-ol produziert. Diese Substanz wurde erstmals 2009 bei einer Pflanze nachgewiesen. Sie ist aber seit langem bekannt dafür, dass sie im „Alarmpheromon“ von Honigbienen vorkommt, die von Hornissen häufig als Beute gejagt werden. In Verhaltensexperimenten wurde gezeigt, dass Hornissen vom Duft dieser Verbindung angelockt werden. Weitere Beobachtungen ergaben, dass Hornissen nicht auf den Blüten landen, sondern nur kurz und heftig mit dem Kopf gegen das rote Zentrum einer Blüte stoßen, so als ob sie einen Beutezugriff durchführen würden und dadurch zur Bestäubung der Blüte beitragen. Die Germerblättrige Stendelwurz ("Epipactis veratrifolia") lockt Schwebfliegen durch "pheromone mimicry" (dt. "Pheromon-Mimikry") als Bestäuber an. Die Pflanze produziert die Substanzen α- und β-Pinen, β-Myrcen sowie β-Phellandren, die auch die chemischen Alarmsubstanzen von Blattläusen sind. Wahrnehmung dieser Substanzen löst bei Schwebfliegen Eiablage neben den vermeintlichen Blattläusen aus, da schlüpfende Schwebfliegenlarven die Eier als Nahrung nutzen. Münzen des Mittelalters. Münzen des Mittelalters sind aus verschiedenen Regionen der Welt bekannt. Die europäischen Mittelaltermünzen fußten auf der römischen Währung der Antike. Die römischen Münzen hatten ihre Impulse auch aus den altgriechischen Münzen empfangen. Aus beiden Wurzeln entwickelten sich im Frühmittelalter auch die byzantinischen Münzen. Islamische Münzen waren zwar von den altgriechischen und den römischen Münzen beeinflusst worden, hatten aber als reine Schriftmünzen mit arabischer Schrift und ohne bildhafte Motive eine ganz andere Erscheinung. Europäische Münzen des Mittelalters. a>e sind die ältesten in Sachsen in einer Reichsmünzstätte im 10. und 11. Jahrhundert geprägten Münzen Von der Spätantike bis hin zum Frühmittelalter ging der Umlauf von Münzen in Europa stark zurück. Der Tauschhandel nahm zu und größere Geldgeschäfte wurden oft mit ungemünztem Metall beglichen. Die wenigen Münzen waren meist Kopien der römischen Vorbilder. Münzordnungen der verschiedenen Herrscher legten meist nur fest, wie schwer die einzelnen Münzen sein sollten, an der Gestaltung änderten sie nichts. Im fränkischen Reich und seinen Nachfolgereichen (Frankreich, Ostfrankenreich) war der Denar oder Pfennig die nahezu ausschließlich geprägte Münze. Allerdings weitete sich das ursprünglich königliche Münzrecht im Heiligen Römischen Reich zunehmend auf weitere weltliche und geistliche Herrscher aus, was eine Vielzahl an unterschiedlichen Versionen des Pfennigs (Regionaler Pfennig seit dem 12. Jahrhundert) und eine allgemeine Verringerung des Silbergehalts der Münzen zur Folge hatte. Im 10. und 11. Jahrhundert begann auch in Osteuropa eine eigenständige Münztradition. Von Mitte des 12. Jahrhunderts bis ins 14. Jahrhundert waren fast im gesamten deutschsprachigen Raum (mit Ausnahme des Rheinlands) Brakteaten die vorherrschende Münzsorte. Diese dünnen, einseitig geprägten silbernen Pfennigmünzen setzten gewissermaßen den Prozess des Gewichtsverlustes der alten Pfennige fort. Mit der geringen Dicke der Münzen vergrößerte sich aber der Durchmesser, was vorübergehend Gelegenheit für eine etwas kunstvollere Gestaltung der Münzbilder bot. Zwar blieben Herrscherbilder dominierend, aber zunehmend tauchten auch andere Motive auf. Für die Thüringer Landgrafen ist der Reiterbrakteat der Münzstätten Eisenach und Gotha von etwa 1150 bis 1247, geprägt unter den Ludowingern und ab 1247 bis etwa 1290 unter den Wettinern nach der Vereinigung von Meißen und Thüringen, die typische Pfennigmünze. Im Spätmittelalter verfiel dann aber auch die Gestaltung der Brakteaten zusehends. In einigen Schweizer Kantonen wurden noch bis ins 18. Jahrhundert brakteatenartige Rappen, Haller und Angster hergestellt. Brakteaten wurden von Zeit zu Zeit „verrufen“, d. h. für ungültig erklärt und von den Münzherren zurückgefordert, um sie gegen eine geringere Menge neue Münzen umzutauschen. Der Abschlag konnte bis zu 25 % betragen. Dies war eine damals übliche Form der Steuererhebung. Da solche "Münzverrufungen" immer rascher aufeinander folgten, entstand Unmut und der Ruf nach einem dauernhaften Geld, einem sogenannten „ewigen Pfennig“. Dies führte zur Aufgabe der Brakteaten. Goldmünzen wurden im Früh- und Hochmittelalter nur selten geschlagen. Zu den prachtvollsten zählen die Augustalen Friedrichs II. Erst im 13. Jahrhundert setzten verstärkte Goldprägungen ein. Diese Entwicklung ging von den italienischen Handelsstädten aus, allen voran Florenz mit den Florenen und Venedig mit den erstmals 1284 geprägten Dukaten (auch Zechinen genannt). Durch den wirtschaftlichen Einfluss der Städte verbreiteten die Münzen sich schnell und viele Herrscher nahmen sie als Vorbild für eigene Prägungen. In Frankreich und England waren Goldmünzen weiter verbreitet und die einzelnen Stücke deutlich größer als im Reich. Als weitere Entwicklung des 13. Jahrhunderts kam in Deutschland der Groschen als größere Silbermünze auf. Die Münzbilder des Groschens zeigten erstmals verstärkt auch Fürsten des jeweiligen Territoriums. Insgesamt nahm die Kunstfertigkeit der Prägungen wieder zu. Stilelemente der Gotik zeigten sich auf den Münzen. Im deutschen Münzrecht war das Jahr 1356 ein entscheidendes Datum, als der Kaiser mit einer „Goldenen Bulle“ das Münzrecht der Kurfürsten ausdrücklich anerkannte. Zuvor war bereits der reichsfreien Stadt Lübeck 1340 erstmals das Prägen von Goldgulden zugestanden worden. Von diesem Zeitpunkt bis 1871 war die Münzgeschichte in Deutschland von großer Vielfalt geprägt, da viele Staaten ihr eigenes Geld ausgaben. Das Wissen um die Bedeutung der Münzen ist bei archäologischen Untersuchungen von großem Nutzen, da durch die Münzen ausgegrabene Schichten relativ genau datiert werden können. Wertangaben lassen sich endgültig keine geben, da bei der Prägung der Münzen der Edelmetallgehalt stark schwankte, das heißt in der Praxis im Laufe der Zeit abnahm. Die Inhaber des örtlichen Münzrechts schmolzen insbesondere fremde hochwertige Münzen ein, um daraus eigene Münzen mit verringertem Feingehalt zu prägen. Den Unterschied zwischen dem bis zu diesem Zeitpunkt bekannten Silber- oder Goldgehalt zum neuen niedrigeren Wert konnte der Münzrechtsinhaber als Gewinn einstreichen. Auch die Kaufkraft der Münzen schwankte erheblich unter dem Eindruck von wirtschaftlichen Erfolgs- und Krisenzeiten, Kriegen und Seuchen. Die Umrechnungstabelle soll nur einen Anhaltspunkt für die relativen Werte der Münzen geben. Da es eine Vielzahl von Währungen gab, gab es auch unterschiedliche Umrechnungssysteme. So konnte der Taler einen Wert von 20 bis 48 Schilling bzw. Groschen haben, während der Groschen manchmal auch mehr oder weniger als 12 Pfennige wert war, der Taler auch einem Gulden entsprechen konnte usw. Marseille. Marseille (deutsch veraltet: "Massilien", okzitanisch: "Marselha" oder "Marsiho") ist die wichtigste französische und eine bedeutende europäische Hafenstadt. Sie liegt am Golfe du Lion, einer Mittelmeerbucht. Die Stadt, deren Einwohner sich "Marseillais" nennen, ist Hauptstadt des Départements Bouches-du-Rhône in der Region Provence-Alpes-Côte d’Azur. Marseille ist mit Einwohnern (Stand) nach Paris die zweitgrößte Stadt Frankreichs. Das Ballungsgebiet Communauté urbaine Marseille Provence Métropole hat, wenn man die angrenzenden Städte und Gemeinden wie Allauch, Aubagne und Penne-sur-Huveaune hinzuzählt, ungefähr 1,35 Millionen Einwohner und ist damit nach Paris und Lyon die drittgrößte Agglomeration Frankreichs. Marseille war 2013 gemeinsam mit der slowakischen Stadt Košice Kulturhauptstadt Europas. Geographie. Marseille liegt zwischen 0 und (am offiziellen Zentrum Noailles) hoch. Das gebirgige Umland, das Massif des Calanques, findet seine höchste Erhebung im hohen Croix de Garlaban. Im Nordwesten grenzt die Stadt an die Chaîne de l’Estaque, eine aus Kalkfelsen bestehende Bergkette hinter l’Estaque, die den Étang de Berre, ein großes salzhaltiges Binnengewässer, in dem Muschelzucht betrieben wird, vom Meer abtrennt. Durch die Lage herrscht in Marseille ein mediterranes Klima. Die nördlichen Stadtteile gelten als arm, die südlichen als reich. Legende der Stadtgründung. Der Legende nach entstand die Stadt, als griechische Seefahrer die Mittelmeerküste erkundeten. Sie landeten an dem Tag an der Küste des heutigen Marseille, als der keltische König Nann einen Gatten für seine Tochter Gyptis suchte. Gyptis sollte unter allen versammelten jungen Männern demjenigen einen Kelch reichen, den sie zu heiraten wünschte. Überraschenderweise war es Protis, der Anführer der Neuankömmlinge, dem sie das Gefäß übergab. Die beiden heirateten, und Griechen und Kelten gründeten gemeinsam die Siedlung "Massalia". Antiker griechischer Handelsstützpunkt. Griechische Seehändler aus Phokäa in Kleinasien besuchten im 7. Jahrhundert v. Chr. die Südküste Frankreichs nahe der Mündung der Rhône, um mit den ligurischen Stämmen Handel zu treiben. Vor allem war Zinn als Bestandteil der Bronze bei den Griechen begehrt. Im Gegenzug fanden feine Töpferwaren und Schmuck den Weg in die Häuser der lokalen Fürsten. An der schroffen und felsigen Küste waren geschützte Landeplätze rar, und so steuerte man mit der Zeit immer wieder den natürlichen Hafen des heutigen Marseille an, wo die Galeeren vor Wind und Wellen geschützt waren. Um 620–600 v. Chr. gründeten die Griechen dank einer Landschenkung des ligurischen Fürsten an diesem Hafen eine dauerhaft bewohnte Handelspräsenz und nannten sie "Massalia" (griechisch Μασσαλία, lateinisch "Massilia"), das heutige Marseille. Griechische Kolonialisierung. Die Siedlung wuchs zur reichsten und größten griechischen Kolonie am Mittelmeer, die mit der Anbindung an die natürliche Handelsstraße der Rhône kulturellen Einfluss bis weit in das Hinterland hatte. Ein Beleg für diesen Einfluss ist die Verwendung der griechischen Buchstaben bei den Helvetiern zur Zeit Cäsars. Auch in einigen südfranzösischen Dialekten scheint sich der griechische Einfluss erhalten zu haben. Málaga, Korsika und Nizza wurden ebenfalls von Zuzüglern aus Phokäa besiedelt, die eine Kolonie nach der anderen gründeten. Mit der Zeit wurde Massalia so groß und bedeutend, dass es selbst Siedler ausschickte, um Handelsposten und Kolonien im Westen bis hin nach Spanien zu gründen. Der Expansion der Phokaier und Massalioten wurde durch die Koalition der Etrusker und Karthager in der Seeschlacht bei Alalia ein Ende gesetzt. Um das Jahr 545 v. Chr. kamen erneut Zusiedler aus Phokäa in die Stadt. Sie waren geflohen, nachdem Harpagos, Statthalter des Königs Kyros II. von Persien, Phokäa erobert hatte. Es gab immer wieder Konflikte mit den Gallien beherrschenden keltischen Stämmen. 125 v. Chr. rief Massalia die Truppen des Römischen Reiches um Hilfe gegen die Angriffe gallischer Stämme (Ligurer, Allobroger, Salluvier, Arverner und Vokontier). Im Laufe der Kriegshandlungen wurde das gesamte Gebiet des südlichen Galliens von den Römern als Provinz "Gallia Narbonensis" annektiert. Die Stadt selbst jedoch konnte ihre Unabhängigkeit noch einige Jahrzehnte bewahren. In den Jahren des Bürgerkrieges zwischen Julius Cäsar und Gnaeus Pompeius wollte sich Massalia neutral verhalten, doch dies wurde von Cäsar nicht geduldet. Im Jahr 49 v. Chr. wurde sie schließlich nach sechsmonatiger Belagerung erobert und in die Provinz Narbonensis integriert. Als solches blieb sie bis zum Ende des Römischen Reiches dessen Bestandteil. Anfang des 5. Jahrhunderts wurde am Südufer des Alten Hafens das Kloster Saint-Victor gegründet, das von 750 bis 960 die Residenz der Bischöfe von Marseille war. 481 fiel die Stadt an die Westgoten, 508 an die Ostgoten, 536 an die Franken und 879 an Niederburgund. Nachdem die Sarazenen sie zerstört hatten, wurde die Stadt im 10. Jahrhundert wiederaufgebaut und den Vicomtes de Marseille unterstellt. Mittelalter und Frühe Neuzeit. Zwischen 1216 und 1218 wurde Marseille zur selbstständigen Republik und schließlich 1481 mit Frankreich vereinigt. Es gilt als gesichert, dass über Marseille der Schwarze Tod im 14. Jahrhundert nach Nordeuropa eingeschleppt wurde. 1720 und 1721 starben beim Ausbruch der Pest mit 50.000 Menschen die Hälfte der Bevölkerung Marseilles. Im Zusammenhang mit dieser schweren Epidemie wurde vom König den Stadträten eine militärische Kommandantur, eine 'Pest-Polizei', beiseite gestellt, um der Lage Herr zu werden. Die Stadt hatte damit eine doppelte Führung. Das Stadtgebiet wurde in verschiedene Bereiche eingeteilt, um die Überwachung zu gewährleisten und das Risiko der Ansteckung zu verringern. Die Bevölkerung von Marseille war seit jeher stolz und unabhängig und im ganzen Land bekannt, sich gerne gegen die Obrigkeit und den König aufzulehnen. So schickte die Stadt im Jahr 1792 500 freiwillige Kämpfer, um die neue Regierung der Aufständischen während der Französischen Revolution zu unterstützen. Das von den Kämpfern aus Marseille in den Straßen von Paris gesungene Lied wurde als die Marseillaise bekannt. Am 14. Juli 1795 wurde die Marseillaise zur französischen Nationalhymne erklärt. Neuzeit. Im 19. Jahrhundert wuchs Marseille zum bedeutendsten Hafen des französischen Kaiserreiches, vor allem wegen der französischen Kolonialisierung in Afrika und Indochina. Die Entwicklung und Bedeutung des Hafens verstärkte sich mit dem Beginn der Industrialisierung und der Eröffnung des Sueskanals 1869. Am 9. Oktober 1934 fielen der jugoslawische König Alexander I. und der französische Außenminister Louis Barthou vor der Börse einem Mordanschlag eines Attentäters der kroatisch-nationalistischen Ustascha-Bewegung zum Opfer. Notre Dame De La Garde Zerstörung des alten Hafenviertels 1943 Nach der Kapitulation der Streitkräfte Frankreichs vor der Wehrmacht gehörte Marseille zunächst zur "Zone libre", die unter Verwaltung des Vichy-Regimes stand. Im Januar und Februar 1943 wurde nach Himmlers Anweisung ein Großteil der historischen Altstadt ("Vieux Port") von Truppen der Wehrmacht und der Waffen-SS unter Beteiligung von Rolf Mühler und Günter Hellwing (später SPD-Parteivorstand) gesprengt. 27.000 Einwohner wurden aus der Altstadt, die der Besatzungsmacht als ein Hort der Résistance galt, zwangsumgesiedelt (Himmler hatte 100.000 Deportierte verlangt). 1.640 Bewohner der Stadt, darunter etwa 800 Juden, wurden als „unerwünschte und antisoziale Elemente“ festgesetzt und später ins Reichsgebiet bzw. nach Polen deportiert. Zerstört wurden bei der Sprengung der Altstadt 1924 Gebäude. Ein Teil der Täter wurde 1954 in den Prozessen gegen Mühler u. a. sowie gegen Carl Oberg u. a. wegen dieser Kriegsverbrechen angeklagt, etliche wurden in Abwesenheit zum Tod verurteilt, ohne dass die französische Justiz ihrer habhaft werden konnte: Die Bundesrepublik lieferte sie nicht aus und klagte sie selbst nicht an. So wurde das Kriegsverbrechen der Altstadtvernichtung nie gesühnt. Hitler ernannte im Januar 1944 alle wichtigen Hafenstädte im Westen – so auch Marseille – zu „Festungen“. Am 27. Mai 1944 griffen amerikanische Bomber die deutschen Militäranlagen in Marseille an. Am 28. August kapitulierten nach einwöchigem Kampf die deutschen Besatzer gegenüber den Truppen des Freien Frankreich. Die Verteidiger kämpften nicht so fanatisch wie zum Beispiel in OKW-Befehlen von Februar 1944 zur Verteidigung von Festungen gefordert. Darin war befohlen, 'bis zum letzten Mann' zu kämpfen und keinesfalls zu kapitulieren. Gegenwart. Der alte Hafen von Marseille, 2005 Im starken wirtschaftlichen Aufschwung der Nachkriegszeit ("trentes glorieuses") wuchs die Stadt weiter und nach der Unabhängigkeit Algeriens 1962 ließen sich Zehntausende Algerienfranzosen ("pieds-noirs"), die das Land verlassen mussten, in Marseille nieder. Hierfür wurden Wohnsiedlungen im Norden der Stadt errichtet. Seit den 1970er Jahren kam es zu erheblichen Problemen mit dem zeitgleichen Niedergang der traditionellen Industrien durch Strukturwandel, unkontrollierte Einwanderung, zunehmende Kriminalität, Verschmutzung und wachsenden Verkehr. 1973 kam es zu einer Welle von rassistischen Ausschreitungen gegen algerische Einwanderer, bei denen bis zu 100 Menschen umkamen und die für Entsetzen in der französischen Öffentlichkeit sorgten. Marseille verlor innerhalb von zehn Jahren 10 % seiner Bevölkerung durch Abwanderung, u. a. in die Vorstädte, wo sich die wohlhabenderen Bewohner niederließen. Die Bürgermeister unternahmen in dieser Zeit große Anstrengungen, um der Kriminalität, der großen Zahl der illegalen Einwanderer aus Nordafrika sowie des Verfalls der Stadt Herr zu werden. Jugendliche aus den sozialen Brennpunkten der Stadt begründeten in den 1980er Jahren den französischen Hip-Hop. Seit den 90er Jahren wandelt sich das Bild der Stadt langsam. Mit dem Stadterneuerungsprojekt Euromediterrannée wurden große staatliche Mittel in die Marseiller Wirtschaft gepumpt. Alte Industriebauten wurden kulturellen Zwecken gewidmet, private Investoren wie der amerikanische Pensionsfonds Lone Star wirkten mit am Vorhaben der urbanistischen Aufwertung der im Zweiten Kaiserreich geschaffenen Prachtstraße Rue de la République. Die Stadt unternimmt große Anstrengungen, um das Stadtbild zu verschönern, ist aber auch mit der Kritik konfrontiert, durch Gentrifizierung die weniger wohlhabenden Stadtbewohner aus dem Zentrum zu vertreiben. Entwicklung der Einwohnerzahl. Marseille ist als Frankreichs „Tor zum Mittelmeer“ wie kaum eine andere Stadt neben Paris durch Einwanderer geprägt. In der Zeit um 1900 waren dies v. a. Italiener, nach dem Zweiten Weltkrieg kamen europäischstämmige Algerienfranzosen ("pieds-noirs", zu dt. „Schwarzfüße“) sowie Bewohner der ehemaligen französischen Kolonien aus dem Maghreb und Schwarzafrika hinzu. Der Ausländeranteil liegt heute bei etwa 10 %, der Migrantenanteil insgesamt bei etwa 40 %. Werden frühere Einwanderungsbewegungen dazu gezählt, haben 90 % der Bevölkerung Vorfahren, die nicht aus Frankreich stammen. Religiöses Leben. Neben christlichen Gemeinschaften, vor allem der katholischen Kirche, spielen das Judentum und der Islam eine bedeutende Rolle in der Stadt. Rund 30 bis 40 Prozent der Bevölkerung von Marseille sind muslimischer Abstammung, von denen die meisten in den ärmeren Vierteln im Norden der Stadt, dem 3., 2., 1., 13., 14. und 15. Arrondissement, leben. Eine der wichtigsten Persönlichkeiten des Islam in Frankreich, Soheib Bencheikh, Großmufti von Frankreich, vertritt eine liberale Form des Islam. In letzter Zeit gewinnen aber auch fundamentalistische Strömungen an Einfluss. In Marseille existiert mit rund 75.000 Juden die bedeutendste jüdische Gemeinde außerhalb Israels an der Mittelmeerküste. In den 44 Marseiller Synagogen beten täglich rund 5.000 Menschen. Die größte und wichtigste Synagoge ist die Große Synagoge ("Grande synagogue de Marseille"), die im 6. Arrondissement liegt. Es gibt 20 jüdische Studienzentren, 17 jüdische Schulen, ein Bet Din und derzeit 48 Rabbiner. Kriminalität. Besonders in den nördlich gelegenen Wohnvierteln spielt Kriminalität eine große Rolle, die vor allem durch soziale Probleme bedingt ist. Marseille war seit den 1950er Jahren durch Einwanderung aus dem Maghreb geprägt; durch die Deindustrialisierung in den traditionellen Bereichen wie dem Schiffbau und der Schwerindustrie herrscht unter den Einwanderern hohe Jugendarbeitslosigkeit und Armut, der Drogenhandel sichert nicht selten ein Einkommen. Der Zusammenhalt innerhalb und zwischen den Einwanderergruppen wird immer brüchiger, damit mangelt es zunehmend an einer sozialen Struktur, was Kriminalität begünstigt. Die Preise für Waffen sinken, Raubüberfälle werden häufig auch mit falschen Waffen verübt. Seit 2007 wurden zugleich 350 Stellen bei der Polizei gestrichen. Die Stadtverwaltung überwacht inzwischen mit rund 200 Videokameras (Stand Frühjahr 2013) und etwa 40 Einsatzkräften den öffentlichen Raum rund um die Uhr. In den Vierteln um den Innenstadtbereich rund um den "Vieux Port" sind zudem Polizeieinheiten auf Mountainbikes präsent, die auch in den engen Gassen und auf den Treppen sehr mobil sind. Politik. Die Stadt Marseille teilt sich in 16 Arrondissements (Stadtbezirke) mit insgesamt 111 Stadtvierteln. Wappen. Beschreibung: In Weiß ein blaues durchgehendes gemeines Kreuz. Das alte Rathaus von Marseille Musée des Civilisations de l’Europe et de la Méditerranée. Das Museum der Zivilisationen Europas und des Mittelmeers (französisch: "Musée des Civilisations de l’Europe et de la Méditerranée", kurz: "MuCEM") wurde im Zuge Marseilles als Kulturhauptstadt Europas am 7. Juni 2013 eröffnet. Musée Regards de Provence. Ebenfalls im Rahmen der Kulturhauptstadt Europas wurde das "Musée Regards de Provence" am 1. März 2013 in der ehemaligen Sanitärstation des Marseiller Hafens eröffnet. Das Gebäude wurde 1948 von Fernand Pouillon entworfen. Zu der ständigen Ausstellung "Mémoire de la Station Sanitaire" (Erinnerung an die Sanitärstation) gehört eine Videoinstallation im Dampf- und Maschinenraum. Die jeweils aktuellen Zusammenstellungen von Bildern, Zeichnungen, Fotografien und Plastiken präsentieren Werke im Zusammenhang mit Marseille, der Provence und dem gesamten Mittelmeerraum. Musée d’Art Contemporain. Das "Musée d’Art Contemporain (MAC)" (Museum für zeitgenössische Kunst) präsentiert in wechselnden Ausstellungen Werke zeitgenössischer Künstler, z. B. Monographien von Gordon Matta-Clark, Rosemarie Trockel, Dieter Roth, Franz West und Rodney Graham. Musée des Beaux-Arts. Das "Musée des Beaux-Arts" (Museum der Schönen Künste) präsentiert nach der Neueröffnung im Juni 2013 im Schwerpunkt Gemälde aus dem 17. und 18. Jahrhundert. Darunter sind Werke italienischer Meister wie Perugino, Guercino, Carracci der Pannini und französischer Künstler wie Champaigne, Vouet, Lesueur, Greuze, Vernet, Hubert Robert und David. Zudem sind die Niederländer Peter Paul Rubens, Jacob Jordaens und Frans Snyders vertreten. Die Französische Schule des 19. Jahrhunderts ist ein Schwerpunkt der Sammlung. Neben dessen Meistern Courbet, Corot, Daubigny, Millet und Puvis de Chavanne werden Werke von Vertretern der Marseiller Schule gezeigt, darunter Loubon, Guigou oder Ziem. "Die innere Stimme", ein Meisterwerk von Auguste Rodin, das der Bildhauer dem Museum vermachte, und die Büsten von Prominenten wie Juste Milieu oder Ratapoil Daumier sind Beispiele für Werke der Bildhauerei des 19. Jahrhunderts. Musée d’Histoire Naturelle. Das "Musée d’Histoire Naturelle" (Naturgeschichtliches Museum) zeigt zoologische und geologische Ausstellungen und befindet sich wie das "Musée des Beaux-Arts" in den Seitenflügeln des Palais Longchamp (siehe Bauwerke). Centre de la Vieille Charité. Das Centre de la Vieille Charité, das ehemalige Krankenhaus der Armen, beherbergt das Musée d’Archéologie Méditerranéenne (Museum für Mittelmeer-Archäologie) und das "Musée d’arts Africains, Océaniens et Amérindiens" (Museum für afrikanische, ozeanische und indianische Kunst). Musée Cantini. Das im bürgerlichen 6. Arrondissement gelegene Museum Musée Cantini gründet auf das Vermächtnis des Bildhauers "Jules Cantini", von dem auch die Marmorplastik am "Place de Castellan" stammt und der das Gebäude und seine Sammlung 1916 der Stadt übereignete. Mit Ankäufen, zahlreichen Spenden und Unterstützung durch staatliche Museen (Musée national d’art moderne, Fonds National d’Art Contemporain, Musée National Picasso, Musée d’Orsay) wurde die Sammlung ergänzt und präsentiert heute die bildende Kunst des 20. Jahrhunderts. Im Museum finden kontinuierlich Wechselausstellungen zur zeitgenössischen Kunst statt. Musée de la Marine et de l’Economie de Marseille. Im 1852 bis 1860 am unteren Teil der Canebière, nahe dem Alten Hafen von Pascal Coste erbauten Palais de la Bourse (Börse) befindet sich heute das "Musée de la Marine et de l’Economie de Marseille" (Museum für Seefahrt und Wirtschaft). Es finden dort Ausstellungen zu Handel, Wirtschaft und Verkehr statt, die kommunale Einrichtung dient aber auch der Förderung der regionalen Wirtschaft. Musée d’Histoire et Port antique. Das "Musée d’Histoire et Port antique" (Museum der Stadt- und Hafengeschichte) präsentiert die Geschichte der Stadt von deren Gründung bis ins 19. Jahrhundert. Kino des Mittelmeerraumes. Seit 2011 gibt es ein Filmmuseum im Château de la Buzine, welches sich dem Kino des Mittelmeerraums widmet. Notre-Dame de la Garde. Südlich des Stadtkerns befindet sich die von Henri-Jacques Espérandieu im neobyzantinischen Stil entworfene Notre-Dame de la Garde, die in den Jahren 1853 bis 1864 an der Stelle einer mittelalterlichen Wallfahrtskapelle errichtet wurde. Sie befindet sich auf einem 147 m hohen Kalkfelsen und ist neben dem vor dem Hafen liegenden Château d’If das Wahrzeichen von Marseille. „La Bonne Mère“, wie sie im Volksmund genannt wird, birgt eine monumentale Sammlung an Votivbildern. Von den Aussichtsplattformen hat man einen spektakulären Blick über die Stadt. Vieux Port. Alter Hafen mit Blick auf Notre-Dame de la Garde Im Zentrum der Stadt liegt der Alte Hafen "Vieux Port". Am Quai des Belges gibt es einen Fischmarkt. Etwa zur Mitte der Strecke zum "Cours Saint-Louis" hin befindet sich die Börse (Palais de la Bourse), wo das "Musée de la Marine et de l’Économie de Marseille" untergebracht ist. Beim "Musée des Docks Romains" befanden sich die Hafenanlagen aus dem ersten Jahrhundert unserer Zeitrechnung. Das "Musée d’Histoire de Marseille" wurde um einige Überreste des antiken Hafens herum angelegt. Vom Alten Hafen aus fahren kleine Transportschiffe und Touristenboote zu den Frioul-Inseln, bestehend aus den Inseln Ratonneau, Pomègues und If mit dem Château d’If. Einige Schiffe fahren vorbei an den Calanques ins etwa fünfzehn Kilometer entfernte Cassis (Bouches-du-Rhône) mit Europas höchster Klippe. La Canebière. Vom Alten Hafen aus zieht sich in nordöstlicher Richtung die etwa einen Kilometer lange ehemalige Prachtstraße "La Canebière" bis zur Kirche "Église des Réformés". Der Straßenname stammt vom provenzalischen Begriff "Canabiero" und bezieht sich auf den Handel von Hanf Cannabis sativa. Die Canebière wurde von Geschäftshäusern und Cafés gesäumt und früher oft mit der Pariser Avenue des Champs-Élysées verglichen. Die Straße wandelte sich seit den 1970er-Jahren im Zuge der Zunahme des Straßenverkehrs in eine stark befahrene Straße. Zwischen "Cours Belsunce" beziehungsweise "Cours Saint-Louis" und "Boulevard Dugommier"/"Boulevard Garibaldi" überwiegen verfallende oder vernachlässigte Fassaden. Quartier du Panier. Der Alte Hafen von Marseille vom Quai du Port, der Panier-Seite aus fotografiert Das Quartier du Panier liegt nördlich des Alten Hafens im 2. Arrondissement und wird von den Einheimischen knapp „Panier“ genannt. Es ist der Ort der ersten Besiedelung Marseilles. Hinter dem barocken Rathaus (Hôtel de ville), in dem das Bürgermeisteramt (Mairie) untergebracht ist, beginnt der verhältnismäßig unberührte alte Kern Marseilles. Auf dem "Place des Moulins", einer der beiden Hügel des antiken Marseille, standen seit der Frühzeit die Windmühlen der Stadt. Die Grundrisse der Straßen und Treppen entsprechen zum großen Teil der griechischen Zeit, neue Häuser wurden auf den Grundstücken und Mauern der alten Häuser erbaut. Die heutigen Häuser stammen überwiegend aus dem 18., einige aus dem 16. und 17. Jahrhundert. Auf dem anderen hohen Hügel der antiken Stadt erbauten die Griechen eine Agora; heute säumen alte Bistros den an der "Rue Saint-Pons" gelegenen Platz. Noch im Panier, ebenfalls westlich des Alten Hafens befindet sich die wie Notre-Dame de la Garde im neobyzantinischen Stil erbaute Cathédrale de la Major. Sie entstand zwischen 1852 und 1893 und besitzt zwei kuppelgekrönte Türme sowie eine 16 Meter hohe Vierungskuppel. Am "Quai du Port" entstanden in den 1960er/70er Jahren fünfstöckige Neubauten. Dahinter befindet sich eine weitere Reihe Wohnhäuser: Werkbund-Nachläufer, eine Art in die Länge und die Höhe gezogener Kleinteiligkeit, die sich in erkerförmigen Backsteinapplikationen ausdrückt. Vorher befand sich dort das eigentliche Hafenviertel, ein verzweigtes Netz aus Wohnhäusern aus dem 17. Jahrhundert, vielen kleinen Gassen und Treppen. Die im November 1942 in Marseille einmarschierten Deutschen sahen darin einen Unsicherheitsfaktor sowie einen „Hort“ der Résistance. Im Januar 1943 begannen deutsche Truppen nach der sogenannten „Évacuation“ von fast 27.000 Einwohnern in ein Gefangenenlager bei Fréjus unter Befehl des Generalfeldmarschalls von Rundstedt mit der Sprengung des Hafenviertels (1924 Gebäude). Hinter dem "Place de la Joliette" erstreckt sich der Neue Hafen "(Port Moderne)". Die hier gelegenen Docks de Marseille sind oder werden im Rahmen der Euroméditerranée zu Büros, Wohnungen oder Veranstaltungsstätten umgewandelt. Kulinarisches. In Marseille gibt es neben der traditionellen provenzalischen Küche durch den großen Anteil von Einwanderern auch viele Einflüsse aus dem gesamten Mittelmeerraum: Es wird levantinisch, maghrebinisch, griechisch, italienisch, korsisch, spanisch, jüdisch-sephardisch und armenisch gekocht. Die Bouillabaisse stammt aus Marseille und ist in ganz Frankreich und über das Land hinaus bekannt. In den Restaurants von Marseille gehört diese ursprünglich von Fischern aus nicht verkauften Fischen, Crevetten und Muscheln gekochte Suppe zum Standard. "Les pieds et paquets" bezeichnet Pansen vom Schaf oder Lamm, der gerollt und mit Speck, Knoblauch und Petersilie gefüllt wird. Dazu werden "Pied-de-mouton" bzw. "Schafsfußpilze" angerichtet. In der traditionellen Marseiller Küche wird (wie überall in Frankreich) frisch und mit Zutaten aus der Region gekocht. Fisch und Meeresfrüchte werden bevorzugt, allerdings auch Fleisch und Geflügel oft zubereitet. Veranstaltungen. In Marseille findet alljährlich mit der „Mondial La Marseillaise à Pétanque“ das größte Pétanque-Turnier der Welt statt. 2006 waren zum Beispiel 4.112 Mannschaften mit 12.336 Spielern am Start. Seit 1979 ist Marseille am letzten Oktobersonntag Startort von Marseille – Cassis, einem der populärsten Straßenläufe Frankreichs. 2010 wurde Marseille zur Kulturhauptstadt Europas 2013 gewählt. Dafür wurden mehrere Stadtteile aufwändig restauriert und umstrukturiert. Im Jahr 2012 fand in Marseille das 6. Weltwasserforum statt, da Marseille seit 1996 Welthauptstadt des Wassers ist. 2013 fand in den "Docks des Suds" das 9. Mal das Weltmusikfestival "Babel Med Music" mit einem umfangreichen Kongress- und Messeprogramm und zahlreichen Konzerten statt. Musik. Neben den typischen französischen Chansons ist Marseille vor allem eine feste Größe im französischen Hip-Hop. Mitte der 80er Jahre begannen Gruppen wie IAM vor allem die Jugendlichen aus Migrantenfamilien für den neuen Musikstil zu begeistern. Heute ist der französische Hip-Hop-Markt, vor allem auch dank der Künstler aus Marseille, nach dem der USA der zweitgrößte der Welt. Naturdenkmäler. Im April 2012 wurde der "Parc National des Calanques" offiziell eingeweiht. Der Nationalpark erstreckt sich von Marseille über sechs weitere Gemeinden und dient dem Schutz der Calanques, des küstennahen Kalksteingebirges einschließlich des Uferraumes. Er umfasst in der Kernzone ein Gebiet von rund 11.200 ha Land- und 78.000 ha Seefläche, in der Randzone ungefähr 34.000 ha Land- und 145.000 ha Seefläche. Zum Schutzkonzept gehören u.a. eine aufwändige Besucherführung durch Anlage von markierten Wanderpfaden und ein strenges Betretungsverbot bei Waldbrandgefahr. Olympique de Marseille. In Marseille ist der 1899 gegründete und national und international sehr erfolgreiche Fußballclub Olympique de Marseille beheimatet. Die Heimspiele werden im 67.000 Zuschauer fassenden Stade Vélodrome ausgetragen. Vereinsfarben sind weiß und azurblau. Mondial la Marseillaise à pétanque. In Marseille findet alljährlich mit der "Mondial la Marseillaise à pétanque" das größte Pétanque-Turnier der Welt statt. Es ist ein für alle Pétanque-Spieler offenes Turnier. Eine Lizenz ist zur Teilnahme nicht erforderlich. 2006 waren zum Beispiel 4.112 Équipes (Mannschaften) mit 12.336 Spielern am Start. Es wird im unweit des Strandes gelegenen Parc Borély und den angrenzenden Geländen ausgetragen, das Finale immer am Alten Hafen. Vor diesem Turnier finden im Parc Borely auch die ebenfalls jährlich stattfindenden Meisterschaften des Jeu Provençal statt. Dabei handelt es sich um die alte, historische Version des Boule (Pétanque)-Spiels, das seinen Ursprung in der Provence hat. Auch hier nehmen tausende von Spielern teil, die jedoch naturgemäß aus den südlichen Region (Frankreich) kommen. Wirtschaft und Standortfaktoren. Bedeutende Industriezweige sind die Fahrzeug-, Maschinen-, Metall- und Nahrungsmittelindustrie. In Marseille befindet sich das Gefängnis Les Baumettes. Marseille ist auch ein Schwerpunkt in der kunsthandwerklichen Herstellung von Santons. 35 Hersteller (von 200 der Provence) leben in Marseille. In der Weihnachtszeit findet ein fast ausschließlich diesem Thema gewidmeter Markt auf der Canebière statt. Medien. Wichtigste Zeitung ist "La Provence". Bahnfern- und Güterverkehr. Die Große Freitreppe zum Bahnhof Saint-Charles Marseille ist über die 2001 in Betrieb genommene Schnellfahrstrecke Méditerranée mit dem TGV in etwa drei Stunden vom 750 km entfernten Paris (Gare de Lyon) zu erreichen. Der Ankunftsbahnhof dieser Züge ist der auf einer Anhöhe liegende Kopfbahnhof Saint-Charles. Der am 8. Januar 1848 eröffnete, mittlerweile auf 14 Gleise ausgebaute Bahnhof bildet den zentralen Verkehrsknotenpunkt der Stadt. Neben den TGV-Zügen fahren dort zahlreiche andere Fernzüge und Regionalzüge ab. Seit März 2012 existiert eine tägliche direkte Verbindung in acht Stunden nach Frankfurt am Main, außerdem verkehrt in den Sommermonaten ein Thalys-Zugpaar direkt nach Amsterdam. Zwischen Marseille und Avignon liegt bei Miramas der Bahnknotenpunkt mit Rangierbahnhof, über den Marseille als industrieller Ballungsraum und mit dem größten europäischen Hafen am Mittelmeer an das Netz des Eisenbahngüterverkehrs angeschlossen ist. Straßenverkehr. Unter der südlichen Altstadt und dem Vieux-Port hindurch führt der mautpflichtige Straßentunnel "Saint-Laurent" oder auch "Tunnel du Vieux-Port". Die aus Norden kommenden Autobahnen sind mit der Ostumgehung Marseilles über einen weiteren Tunnel ("Viaduc de Plombières") verbunden. Die Autobahnen Marseille–Lyon und Marseille–Toulon werden durch einen Tunnel verbunden. Öffentlicher Personennahverkehr. Die Verkehrsmittel im öffentlichen Personennahverkehr (ÖPNV) in Marseille werden von der RTM "(Régie des Transports Marseillais)" betrieben. Metro und Straßenbahn. Video der Straßenbahn der Linie 2 in Marseille Die 1977 eröffnete und später mehrmals erweiterte und ausgebaute U-Bahn Marseille verfügt über zwei Linien. Die beiden Linien kreuzen sich zweimal, an der Station "Castellane" und am Hauptbahnhof "Saint Charles". Die Streckenführung ist in der Innenstadt unterirdisch, außerhalb der Stadt fahren die Züge oberirdisch oder als Hochbahn auf Pfeilern. Die Wagen verfügen über luftgefüllte, schienengeführte Reifen mit Stromversorgung mittels dritter Stromschiene. Vorbild war hier die Pariser Metro. Mitte der 1990er Jahre kam es in Marseille aufgrund von stark zunehmendem Straßenverkehr zu Überlegungen, die aus dem Stadtbild verschwundene Straßenbahn wieder einzuführen. Bis dahin wurde die Straßenbahn verpönt und galt als nicht zeitgemäß und unbequem, hatte man doch die seit 1876 existierenden und ehemals zahlreichen Strecken ab Mitte des 20. Jahrhunderts bis auf eine Linie eingestellt. Man entschloss sich, die bestehende Strecke zu sanieren sowie weitere neu zu bauen. Seit Juli 2007 ist die erste der beiden neuen Trambahnlinien auf dem Abschnitt Euroméditerranée-Les Caillols in Betrieb. Die Fahrzeuge für diese Linien werden seit 2006 in Wien von "Bombardier Transportation" Österreich produziert. Die Inbetriebnahme der Straßenbahnwagen erfolgte auf dem Testgleis der Wiener Linien. Busverkehr. Innerstädtisch sind in Marseille über 80 Buslinien eingerichtet. Sie verkehren frankreichtypisch abends und sonntags nach einem deutlich ausgedünntem Fahrplan. Mit den städtischen Linien erreicht man auch die Calanques. Weitere Linien bieten Verbindungen ins Umland, unter anderem in die Küstenregion mit anderen Zielen in den Calanques. Flugverkehr. Der für Südfrankreich bedeutende, da zentral gelegene Flughafen Marseille (frz. "Aéroport Marseille Provence") befindet sich 20 km nordwestlich von Marseille und südwestlich des Étang de Berre bei der Stadt Marignane. Er wird von zahlreichen internationalen Fluglinien bedient, auch von mehreren deutschen Flughäfen. Schiffsverkehr. In der ab 1844 angelegten Hafenanlage des "Port Moderne" befindet sich der Fährhafen von Marseille. Er ist einer der wichtigsten Häfen für Reisende in den Maghreb und nach Korsika. Mehrere Routen verbinden Marseille täglich mit den größten Fährhäfen Nordafrikas. In Korsika werden Ajaccio und Bastia täglich, Calvi, Propriano (mit Weiterfahrt nach Porto Torres auf Sardinien und Porto Vecchio) mehrmals wöchentlich angelaufen. Die für den Güterverkehr wesentlich bedeutenderen Hafenanlagen des Marseille Europort liegen u. a. in dem ca. 50 Kilometer westlich gelegenen Fos-sur-Mer. Fahrradverkehr. 2007 wurde der öffentliche Fahrradverleih "Le Vélo" installiert, über den mit EC- oder Kreditkarte bzw. über eine Registrierung beim städtischen Anbieter Fahrräder ausgeliehen werden können. Die Stationen sind nach dessen Angaben höchstens rund fünfhundert Meter voneinander entfernt und im Wesentlichen über das Kernstadtgebiet und an Straßen, die ins Zentrum führen, verteilt. Es stehen ca. 1'000 Fahrräder an 130 Stationen zur Verfügung. Das System funktioniert gleich wie Vélib’ in Paris, die Tarife sind jedoch günstiger: das 7-Tage-Abonnement kostet 1 €, das Jahresabonnement 5 €, die erste halbe Stunde ist gratis, jede weitere Stunde 1 €, mit Jahresabonnement 0.50 €. Das Angebot unterstützt die stadtplanerische Ausrichtung auf den Ausbau des Radverkehrs mit breiten Radwegen besonders entlang der Ausfallstraßen und in das neue Dock-Viertel am Hafen. Metropolenwanderweg. Im Rahmen der Kulturhauptstadtregion 2013 wurde ein sogenannter "Metropolenwanderweg" eingerichtet, der europäische Fernwanderweg GR 2013. Er führt durch die Stadt, ihre Vorstädte und ihre Peripherie. Der Weg soll der Bevölkerung ermöglichen, alle Teile der Stadt zu Fuß zu erwandern – inklusive der sonst gemiedenen Randgebiete. Söhne und Töchter der Stadt. Zu den Marseiller Prominenten gehören der Zeichner Honoré Daumier, der Schauspieler Fernandel und der Sportler Zinédine Zidane. Modem. Das Modem (aus Modulator und Demodulator gebildetes Portmanteauwort, daher auch manchmal männl. "der" Modem) ist ein Gerät, um digitale Signale über weite Übertragungswege zwischen zwei digitalen Endgeräten auszutauschen. Vom sendenden Modem wird ein digitales Signal auf eine Trägerfrequenz im Hochfrequenzbereich aufmoduliert, vom empfangenden Modem wird daraus die ursprüngliche Information durch Demodulieren zurückgewonnen. Dabei arbeiten Modems des neueren Standards DSL mit höheren Trägerfrequenzen und größeren Bandbreiten auf der Telefonleitung als die Modelle nach dem älteren „Schmalband“-Standard. Der Begriff Modem war in den 1970er und 1980er Jahren präsenter als später, weil die Benutzung eines Modems damals synonym mit online gehen war, also damit, seinen Computer mit anderen zu vernetzen. Die Netze jener Zeit hießen Mailboxen. Geschichte des Modems in Deutschland. Bei der "Deutschen Bundespost" wurden Modulationsverfahren schon früh in der Rundfunktechnik und später auch in der Trägerfrequenztechnik eingesetzt (wireless modulation). Der Einsatz in der leitungsgebundenen Kommunikation (wireline modulation) begann in Deutschland 1966 mit der Vorstellung der ersten Modems durch die Deutsche Bundespost. Postmodem D 200 S (oben) mit Modemadapter MODAP des Herstellers DEC Diese Geräte hatten ein Blechgehäuse mit den Außenmaßen von etwa 60 cm × 30 cm × 20 cm und waren für die Wandmontage vorgesehen. Sie wurden "Übergangsmodem D 1200 S" genannt. Die Zahl 1200 stand für die maximale Übertragungsgeschwindigkeit in bit/s, der Buchstabe S für „Serielle Übertragung“ (zur Unterscheidung von Modems mit paralleler Übertragung). Als direkte Nachfolger gab es Modems als Tischgerät mit der Bezeichnung "Einheits-Postmodem D 1200 S" und "Einheits-Postmodem D 200 S". Diese entsprachen den ITU-T-Empfehlungen V.23 (1200 bit/s, Halbduplex-Betrieb, Möglichkeiten eines Hilfskanals und einer synchronen Übertragung durch Einsatz einer Taktbaugruppe) bzw. V.21 (asynchrone Duplex-Übertragung mit 200 oder 300 bit/s). Bis Mitte der achtziger Jahre war es in Deutschland wie in vielen anderen Ländern nicht erlaubt, andere als posteigene Modems an die Telefonleitung anzuschließen. Das Modem zählte als Netzabschluss, der wie die Leitung auch zum Telefonnetz und damit zum Hoheitsbereich der staatlichen Deutschen Bundespost gehörte. Als trotzdem zunehmend private Modems benutzt wurden, weil diese erheblich billiger, schneller und auch noch benutzerfreundlicher waren als die Post-Modems, ließ sich das Modem-Monopol nicht mehr aufrechterhalten und wurde aufgehoben. Die Deutsche Bundespost verlangte außerdem, dass die an ihre Modems angeschlossenen Geräte eine Zulassung des Fernmeldetechnischen Zentralamts besaßen. Da das speziell bei größeren Rechnersystemen nur schwer zu realisieren war, gingen einige Hersteller dazu über, sogenannte "Modemadapter" zu bauen. Diese Geräte waren bis auf einige Leuchtdioden zum Anzeigen der Modem-Steuersignale praktisch funktionslos, erhielten aber problemlos die Zulassung (siehe Bild rechts mit dem MODAP der Firma DEC unter dem DS 200 S). Wählmodem. Elsa-Microlink-33.6TQV, Einwahl zu T-Online im Jahr 2010 Ende der 1980er Jahre gab es die ersten Telefonmodems, eine Weiterentwicklung der Akustikkoppler, üblich waren hier Geschwindigkeiten von 300 baud, das erste 2400 baud Modem wurde 1990 auf der CeBit vorgestellt, ein Jahr später folgte das erste postzugelassene Modem mit 9600 baud, das über Datenkompression sogar bis zu 38400 baud schaffte. Diese Datenübertragungs-Geschwindigkeit lag höher als bei den meisten Akustikkopplern, die in der Regel nur eine Geschwindigkeit von 300 baud hatten. Die Deutsche Bundespost erlaubte jedoch an den deutschen Telefonnetzen nur die Nutzung ihrer eigenen Modems, die entweder monatlich gemietet oder gekauft werden konnten. Da diese Preise deutlich die Preise anderer Modem-Hersteller übertraf, wurden vielfach die Modems der anderen Hersteller illegal am deutschen Telefonnetz betrieben. Genutzt wurden diese illegalen Modems zum großen Teil von Hackern und Crackern, die über die Telefonleitung illegale Mailbox-Systeme betrieben, Informationen über Datex-P austauschten oder Raubkopien verbreiteten und tauschten. Erste Mailboxverbunde waren das Fido- und MausNet sowie Zerberus, einzelne Mailboxen stellten die WDR- und Elsa-Mailbox oder YFTN dar. Ende der 80er Jahre wurde das UseNet mit seiner Forenstruktur über Hochschulen für Studenten zugänglich. Mitte der 1990er Jahre wurde das Internet für die breite Masse populärer; die Post lockerte ihre Gesetze, sodass nun auch Nicht-Post-Modems ans deutsche Telefonnetz angeschlossen werden dürften. Ende der 1990er Jahre lag die maximale Datenübertragungs-Geschwindigkeit von Modems bei der V.92 CCITT-Norm (Empf. max. 56000, Senden 48000). Zu dieser Zeit waren externe Modems die Ausnahme; interne Modem-Steckkarten für den PC waren am häufigsten verbreitet, häufig mit integriertem Faxmodem. Telefonmodem. "Telefonmodems" für POTS-Anschlüsse sind an die Besonderheiten des Telefonnetzes angepasst. Für die Übertragung steht allein das Frequenzband von 300 Hz bis 3400 Hz zur Verfügung. Anschlüsse an einer digitalen Vermittlungsstelle erweitern dieses Band auf 0 bis 4000 Hz. Die ersten Modems wurden von der ITU-T im Jahr 1964 international normiert; es handelte sich um Geräte mit einer Übertragungsgeschwindigkeit von 300bit/s (V.21, duplex) und 1200 bit/s (V.23, halbduplex). Die ersten Telefonmodems für den Computer-Massenmarkt wurden noch nicht elektrisch ans Telefonnetz angekoppelt, sondern stellten die Verbindung mittels geeigneter Schallwandler – der sogenannten Akustikkoppler – über den Hörer eines vorhandenen Telefons her. Dieser wurde mechanisch am Modem befestigt. Nebengeräusche führten schnell zu Übertragungsfehlern, weshalb die Schalen der Akustikkoppler oft in Kissen eingehüllt wurden. Dabei wurde mit 110 baud, später 300 baud mit dem Modulationsverfahren FSK übertragen. Da die zu übertragenden Daten typischerweise gemäß den Standards für die serielle Datenübertragung auf Leitungen (V.24 bzw. RS-232) kodiert waren, ergab sich in der Praxis eine geringere effektive Datenrate. Diese frühen Modem-Typen mussten für die Zulassung einer Typmusterprüfung der Deutschen Bundespost unterzogen werden, was zu hohen Verkaufspreisen führte. Die Ungleichung „Datenrate ist kleiner als Baudrate“ wurde erst durch die Realisierung von intelligenteren Modems mit eingebauter Datenkompression aufgehoben. In dieser Zeit wurde durch die Telekommunikationsfirma Hayes auch der heutige De-facto-Standard für Modems, der sogenannte AT-Befehlssatz, implementiert, der später von zahlreichen Herstellern übernommen und erweitert wurde. Leistungsfähigere Modulationsverfahren wie PSK und QAM sowie eine intelligente Messung und Aushandlung der für die Leitung und die Gegenstelle maximal möglichen Baudrate nach dem Verbindungsaufbau steigerten die erreichbare Übertragungsgeschwindigkeit weiter. Aufgrund der immer größeren Leistungsfähigkeit der Modemprozessoren sowie insbesondere den Übertragungsverfahren, zum Beispiel durch Kompression, gibt es heute weitere Leistungsmerkmale, die aber den Grundrahmen des Modem-Konzepts sprengen. Zu nennen sind insbesondere die Fax-Funktion (Faxmodem) und die Anrufbeantworter-Funktion (Voice-Modem). Es gibt sogar Modelle, die das computergestützte Telefonieren erlauben. Die Unterstützung schlägt sich durch zusätzliche Befehle im Rahmen des AT-Befehlssatzes nieder. Darüber hinaus existieren Modems mit integrierten Fax- und E-Mail-Protokollen (POP3/SMTP) sowie SMS-Funktionalität zum autonomen Versand und Empfang von Nachrichten. Im analogen Telefonnetz, in dem die Übertragungsbandbreite auf 3,1 kHz begrenzt ist, ist nach dem Shannon-Theorem die maximale Datenübertragungsrate bei üblicher Leitungsqualität auf 30 bis 40 kbit/s begrenzt. Eine Download-Datenrate von 56 kbit/s (V.90, V.92) ist im Telefonnetz nur bei einem Analoganschluss möglich, der an eine digitale Vermittlungsstelle gekoppelt ist. Dabei synchronisiert sich das Modem mit dem Wandlertakt der Vermittlung. Die sendende Gegenstelle, z. B. ein Einwahlknoten, muss dafür jedoch voll digital sein. Die Upload-Geschwindigkeit bleibt jedoch weiterhin analog begrenzt. Modemverbindungen per Telefonnetz werden auch oft als "Dial-Up-Verbindung" bezeichnet, da vor der Herstellung der Datenverbindung ein Wählvorgang notwendig ist. Beispiele für Modemwählverbindungen sind z. B. BTX, Datex-P oder die analoge Einwahl ins Internet über einen Internet-Provider. Die ersten Einwahlen Ende der 80er Jahre mit 300 baud Modems, zum Beispiel beim WDR, fanden jedoch über die Eingabe der Telefonnummer statt. Die Einwahl per ISDN unterscheidet sich davon insofern, als dort alles digital abläuft, also nicht mehr moduliert wird und somit auch kein Modem mehr beteiligt ist. Dennoch liest man häufig die falsche Bezeichnung "ISDN-Modem" für ein ISDN-Anschlussgerät oder eine ISDN-Karte. Die erste ISDN Verbindungsmöglichkeiten wurden 1992 auf der CeBit präsentiert. Während in der Frühphase vor allem Fernschreiberaufgaben an Modems delegiert wurden, kam es später zur Entwicklung der Mailboxszene, die mit Protokollen wie Kermit oder Z-Modem arbeitete. Daneben fand sich im kommerziellen Bereich X.25 als Vermittlungsschicht. Heute dominiert in der Vermittlungsschicht vor allem IP für den Datenaustausch per Telefonmodem. Faxmodem. "Faxmodems" beherrschen neben der gewöhnlichen Funktion zur Datenübertragung auch ein Protokoll zur Übertragung von Faxen. Die meisten Faxmodems können Faxe mit 14400 bit/s übertragen. Die Übertragung erfolgt dabei über gewöhnliche Telefonleitungen. Mit Hilfe eines Faxmodems kann man einen Computer also als Faxgerät verwenden – oft nur zum Senden, aber auch Empfangen ist möglich. Softmodem/Winmodem. "Softmodems" sind spezielle Modems, bei denen einige Teile der Hardware-Funktionalität aus Kostengründen in den Gerätetreiber ausgelagert wurden. Oft übernimmt die Soundkarte bzw. die entsprechende Baugruppe der Hauptplatine die eigentlichen Modem-Funktionen; physisch sind nur noch die Kontakte zum Telefonnetz vorhanden. "Winmodems" sind Softmodems, die insbesondere für Microsoft Windows hergestellt wurden. Sie funktionieren meistens nur mit den zur Zeit ihrer Herstellung aktuellen Windows-Versionen. Auf alternativen Betriebssystemen wie z. B. Linux können sie nicht oder nur mit Schwierigkeiten verwendet werden, da hier meist keine Treiber existieren. Standleitungsmodem. Im Gegensatz zu Telefonmodems bieten "Standleitungsmodems" eine Punkt-zu-Punkt-Verbindung. Sie sind also fest mit immer derselben Gegenstelle verbunden; ein Wählvorgang vor der Verbindungsaufnahme entfällt. Standleitungen werden meistens von Banken und Großunternehmen genutzt.Vergleichbare kostengünstigere Lösungen für den Heimbereich sind meistens nur Quasi-Standleitungen, da der Anbieter oft eine Zwangstrennung der Verbindung im Tageszyklus vorsieht. Während die Bandbreite im analogen Telefonnetz aus technisch-wirtschaftlichen Überlegungen heraus begrenzt ist, erlauben die normalen – teilweise aber zusätzlich geschirmten – Zweidraht-Telefonleitungen in diesem Fall durchaus höhere Bandbreiten. DSL-Modem. "DSL-Modems" ermöglichen wesentlich höhere Übertragungsraten. Um das herkömmliche Telefonsignal und das zusätzliche Hochgeschwindigkeitssignal auf derselben Leitung gleichzeitig übertragen zu können, wird das Hochgeschwindigkeitssignal in einen höher gelegenen Frequenzbereich hochmoduliert, ehe beide Signale dann auf dieselbe Leitung gelegt werden. Auf der Empfängerseite werden die Signale durch einen sogenannten Splitter (eine Frequenzweiche) wieder getrennt und das Hochgeschwindigkeitssignal der Demodulierung im dortigen Modem zugeführt. Gebräuchliche Datenraten bei ADSL reichen bis 25 Mbit/s im Download. Der Upload ist bei ADSL auf einen niedrigeren Wert begrenzt. Die Datenrate unterliegt bei großem Abstand zur Vermittlungsstelle aus technischen Gründen Begrenzungen. In der Vermittlungsstelle wird meistens an ein rein digitales Netzwerk-Backbone angekoppelt. Glasfasermodem. "Glasfasermodems" (ONT-Optical Network Termination) erlauben gegenüber DSL-Modems noch deutlich höhere Übertragungsraten, welche nahezu nicht eingeschränkt sind. Über Glasfaser wird kein herkömmliches Telefonsignal, sondern nur VoIP übertragen, weshalb das Glasfasermodem nur eine Verbindung herstellen muss - nämlich zum Internet. Eingesetzt werden hierzu die Techniken AON oder PON (zurzeit in Deutschland genutzte Technik). Das Glasfasermodem konventiert elektrische Signale (z.B. von einem LAN/Twisted Pair-Kabel) in optische Signale (z.B. einer Glasfaser). Glasfasermodems werden zurzeit oft noch separat zu einem Router installiert; es gibt noch nicht viele Router, welche eines integriert haben. Die Verbindung wird nicht vom Glasfasermodem selbst, sondern vom Router aufgebaut, denn dieser kommuniziert mit der Vermittlungsstelle, während das Glasfasermodem seine Anfragen auf die Glasfaser umsetzt und umgekehrt. Kabelmodem. "Kabelmodems" für die Datenübertragung über TV-Kabelnetze sind als eine Art Standleitungsmodem zu sehen. Früher wurde teilweise zusätzlich ein Telefonmodem verwendet, um einen Rückkanal zu ermöglichen. Diese Technik ist heute nicht mehr erforderlich, da Anbieter wie Kabel Deutschland, Kabel BW oder Unitymedia ihr Kabelnetz mittlerweile mit Rückkanal ausbauen. Über TV-Kabelmodems werden heute die gleichen Datenraten wie bei der Datenübertragung mittels DSL-Modems angeboten, Datenraten wie 150 Mbit/s gehen sogar darüber hinaus. Die Kabelnetzbetreiber implementieren meist auch Telefonie über die Kabelmodems. Stromleitungsmodem. Auch die Modulation von Datensignalen auf Stromleitungen ist möglich. Ein spezieller, aber einfacher Anwendungsfall ist die so genannte Rundsteuertechnik der Energieversorgungsunternehmen, mit denen z. B. die Umschaltung der Stromzähler zwischen Tag- und Nachtstrom bewerkstelligt wird. In jüngerer Vergangenheit wurden auch Vermarktungsversuche für Hochgeschwindigkeitsmodems (meistens bis etwa 1 MBit/s) unter dem Sammelbegriff PLC (PowerLine Communication) unternommen, die aber über die Erprobungsphase nie hinauskamen und im Endeffekt nicht an das Preis-Leistungs-Verhältnis sowie die Übertragungssicherheit der DSL-Technik heranreichen konnten. Auch die durch diese Technik erzeugten HF-Störungen sind nicht unproblematisch. Die Technik nutzt dabei typischerweise zahlreiche einzelne Trägerfrequenzen im Bereich zwischen 500 kHz und 10 MHz zur Modulation und Demodulation der Nutzdaten. Funkmodem. Oft sind "Funkmodems" in anderen Geräten – etwa in Mobiltelefonen – integriert, und der jeweilige Kanal wird mehrfach genutzt (z. B. bei Tonrufsystemen für Sprache und Daten). Im Funkbereich existieren zahlreiche Anwendungen, mit denen Fernwirk- oder Fernsteuerungsaufgaben per Modulation gelöst werden. Ein Beispiel sind Funkfernsteuerungen im Modellbau. Das GSM-, das UMTS- und das LTE-Netz benutzen für die Datenübertragung per Funk Modulationsverfahren mit digitaler Modulation, während das Vorgängersystem C-Netz noch analoge Modulation verwendete. Digital ist hierbei das Nutzsignal, das vom Modulator in ein Funksignal umgesetzt wird. Hierdurch wird die Übertragung deutlich unempfindlicher gegen Störungen, da das digitale Nutzsignal im Gegensatz zum kontinuierlichen analogen Signal nur bekannte, diskrete Werte annehmen kann, auf die der Empfänger auch bei (nicht zu starken) Störungen in der Übertragung noch schließen kann. Die in zunehmendem Maß verbreiteten UMTS-Modems sind ebenfalls Funkmodems. Satmodem. "Satmodems" oder "Satelliten-Modems" dienen der Datenübertragung über einen Kommunikationssatelliten. Hierfür wandeln Satelliten-Modems einen Eingangs-Bitstrom in ein Funksignal um und umgekehrt. Es gibt eine breite Palette von Satelliten-Modems, von preiswerten Geräten für den Internetzugang zu Hause bis hin zu kostspieligen multifunktionalen Geräten für den Einsatz in Unternehmen. Dabei werden Geräte, die nur einen Demodulator für das Herunterladen von Daten via Satellit besitzen, auch als Satelliten-Modems bezeichnet. In diesem Fall werden die hochgeladenen Daten durch ein herkömmliches Telefonmodem, DSL-Modem oder ISDN übertragen. Modem-Bauformen. Verschiedene Bauformen des gleichen Modems Das typische PC-Modem ist ein externes Gerät in flacher Bauform mit serieller Schnittstelle. Es wird meist per RS-232 oder zunehmend durch USB mit einem Rechner verbunden. Die Stromversorgung erfolgt normalerweise durch ein Steckernetzteil. Zur Statusanzeige befindet sich an der Vorderseite oft eine Zeile mit Leuchtdioden, die den Zustand der Schnittstellenleitungen anzeigen. Im professionellen Bereich gibt es daneben auch eine Bauform, die den Einbau in 19-Zoll-Gehäuse erlaubt. Im industriellen Bereich hat sich für Modems ein Gehäuse für die DIN-Hutschienenmontage im Schaltschrank etabliert. Eine alternative Bauform für Modems ist die Steckkartenform für einen standardisierten Steckplatz (i. a. PCI bei stationären PCs, Mini-PCI oder PCMCIA bei Notebooks) oder einen proprietären Sockel. Hier ist meistens noch eine zusätzliche Kapselung oder Schirmung vorhanden, um eine gegenseitige Störung von PC und Telefonleitung zu vermeiden. Der Status des Modems wird meist durch eine PC-Software angezeigt. Markt. Der Begriff Markt (von lat.: "mercatus" Handel, zu "merx" Ware) bezeichnet allgemeinsprachlich einen Ort, an dem Waren regelmäßig auf einem meist zentralen Platz gehandelt werden. Das traditionelle Zeichen eigener Markthoheit einer Stadt war seit dem Mittelalter in Teilen Europas der Roland. Im volkswirtschaftlichen bzw. ökonomischen Sinne bezeichnet der Begriff Markt das geregelte Zusammenführen von Angebot und Nachfrage an Waren, Dienstleistungen und Rechten. Marktrecht und Marktplatz. Ein Marktplatz ist ein städtischer Platz (z. B. Gendarmenmarkt in Berlin), auf dem regelmäßig Verkaufsveranstaltungen (Märkte) abgehalten werden oder wurden. Dieser so genannte Marktplatz ist in der Regel der zentrale Platz in einer Stadt, an dem auch das Rathaus errichtet wurde. In größeren Städten existierten oft mehrere Marktplätze, auf denen früher spezifische Waren angeboten wurden. Um Märkte nicht unter freiem Himmel abhalten zu müssen, wurden in vielen Städten Markthallen errichtet. Das Recht, einen Markt abzuhalten (Marktrecht) war im Mittelalter für die städtische Entwicklung entscheidend, und galt als erste Stufe zum Stadtrecht. Der Roland als traditionelles Symbol der Markthoheit findet sich heute noch als Standbild in etlichen deutschen Städten, z. B. in Brandenburg an der Havel, Halberstadt, Stendal, Wedel und Zerbst. „Markt“ ist auch in einigen Bundesländern wie zum Beispiel Bayern, Sachsen die offizielle Bezeichnung für eine Gemeinde, die einen Status zwischen Dorf und Stadt einnimmt. Dieser Status war früher mit der Verleihung des Marktrechts verbunden. In anderen Bundesländern gibt es dafür andere Bezeichnungen. In Bayern und Österreich ist der Begriff Markt bis heute teilweise offizieller Bestandteil des Ortsnamens. So weisen Ortsnamen wie Sobótka, Szombathely oder Samstagsberg auf das samstägliche Marktrecht hin. Externe Märkte. In frühen Gesellschaften betrieben Stammesgemeinschaften Handel mit nahestehenden Gruppen. Dieser Handel in externen Märkten war primär eine Angelegenheit zwischen verschiedenen ethnischen Gruppierungen und geschah weniger innerhalb der Mitglieder eines Stammes. Händlermarkt. Während interne Märkte typischerweise lokale Märkte waren, an denen sich die Menschen mit den unmittelbar benötigten Gütern versorgten, tauchten sehr früh auch zwischenstaatliche Märkte auf. Dieser Handel über lange Distanzen war zwar mit größeren Schwierigkeiten verbunden als der lokale Handel, er konnte aber auch sehr profitabel sein. Eine ursprüngliche Form des Austausches von Gütern zwischen Händlern waren die Messen. Diese fanden periodisch statt. Die meisten europäischen Händlermärkte fanden im Raum zwischen Italien und Flandern statt. Auf diesen Messen wurden wesentlich Güter des Südens, inklusive Gewürze aus Asien, mit Gütern aus dem Norden, vor allem Wolle aus England und Flandern ausgetauscht. Diese Messen hatten ihre Hochblüten zwischen dem 11. und dem 14. Jahrhundert. Die Messen waren nicht nur Ort des Handels. Auf ihnen fanden eine Reihe von festlichen und anderen Aktivitäten statt, welche den eigentlichen Austausch von Gütern einrahmten. Sie waren offen für gewöhnliche Leute. Messe bedeutete Lärm, Unruhe, Musik, fröhliche Menschen, Unordnung. Auch deshalb hatten diese Messen sogar eigene Richter, die für Ruhe und Ordnung zu sorgen hatten und für Rechtsprechung im Streitfall sorgten. Vitten (singular: Vitte) entwickelten sich im 13. Jahrhundert im Ostseeraum. Der Begriff bedeutete Heringsanlandeplatz. Der Heringshandel war im Mittelalter ein bedeutender Handelszweig, war doch der Hering für alle Bevölkerungsschichten eine für die Ernährung wichtige und erschwingliche Eiweißquelle. Große Heringsvorkommen im Bereich der dänisch-schwedischen Ostseeküste führten zu saisonal bestehenden Handelsorten, den "Vitten", die jeweils im Besitz einzelner Hansestädte waren. In der jeweiligen Fangsaison siedelten sich vorübergehend bis zu zwanzigtausend Menschen (Kaufleute, Handwerker, Fischer, Böttcher usw.) an. Gegenstand der Tätigkeit in diesen Orten waren der Heringsfang, das Ausnehmen und Einpökeln der Fische in Eichenfässern und der Handel und das Handwerk rund um diese Tätigkeiten. Die Größe der Fässer war weitgehend vorgeschrieben, so dass jedes Fass 900 bis 1000 Heringe enthielt (wobei das Salz ein Fünftel des Fassinhaltes ausmachte). Der Preis richtete sich nach der Zahl der Heringe, nicht nach dem Fassgewicht. Der weitere Vertrieb der eingepökelten und damit sehr haltbaren Heringe erfolgte auf dem gesamten Festland. Nationale Märkte. Unter einem nationalen Markt versteht man einen einheitlichen und nicht beschränkten Handelsraum innerhalb der Grenzen eines Nationalstaates. Während im Mittelalter Märkte regional stark beschränkt und durch Zölle geschützt waren, wurden während des Merkantilismus Handelsbarrieren gelockert und zu Beginn des 20. Jahrhunderts innerhalb von Nationalstaaten vollständig aufgelöst. Treiber dieser Entwicklung war nicht die ökonomische Macht, sondern politische Entscheidungen wie z. B. die Niederlassungsfreiheit und die technologische Entwicklung von Kommunikationsmöglichkeiten. Internationale Märkte. Ab 200 v. Chr. gab es die ersten Handelsrouten zwischen dem Mittelmeerraum und China, hierauf wurden sowohl auf Landweg als auch auf Seeweg vor allem Luxusgüter transportiert. Durch Entwicklungen in der Seefahrt konnten ab dem 13. Jahrhundert auch Güter des täglichen Gebrauchs gewinnbringend transportiert werden. Die industrielle Revolution in Europa führte zu einer Explosion des internationalen Handelsvolumens. Auf Grund seiner Vormachtstellung nahm Europa hierbei eine führende Position ein. Sowohl die beiden Weltkriege als auch die Depression der 1920er Jahre verlangsamten den Entwicklungsprozess des Welthandels. Danach bauten die USA den internationalen Handel wieder auf und unterstützt durch einen europäischen Aufschwung entwickelt sich eine Global Economy. Geld- und Kapitalmärkte. Ursprünglich wurden Geld und Kapital weitgehend als neutrales Gut betrachtet. Die Entwicklung des eigentlichen Bankenwesens in Europa setzte mit der Lockerung des kirchlichen Zinsverbotes in der Renaissance ein. Damals war das Zielpublikum dieser Dienstleistung eher eine vermögende, politische und unternehmerisch einflussreiche Elite. Mit der Industrialisierung wuchs die Anzahl der Lohnarbeiter sprunghaft an, welche die Möglichkeit und das Bedürfnis hatten, Geld zu sparen. Zu dieser Zeit nahm die Wichtigkeit der Zentralbanken und organisierten Börsen zu, auch auf Grund der Internationalisierung. Man erreichte einen ersten Höhepunkt vor Ausbruch des Ersten Weltkrieges. Diese Zeit, auch die Zeit der Robber Barrons in den Vereinigten Staaten, zeichnet sich durch eine kaum existente Regulierung des Kapitalmarktes aus. Nach einer Regulierungswelle der 1930er Jahre und nach dem Zweiten Weltkrieg sind diese Märkte heute sehr dynamisch und liberal organisiert. Das richtige Ausmaß der Regulierung ist Teil der zeitgenössischen Diskussion. Nichtökonomische Märkte. Im Gefolge der Theorie sozialer Systeme nach Niklas Luhmann lässt sich der Markt auch als „innere Umwelt“ der Wirtschaft denken. Als Horizont aller "möglichen" Investitionsentscheidungen erscheint der Markt demnach als Umwelt der tatsächlich "realisierten" wirtschaftlichen Investitionen. Derartige „innere Umwelten“ lassen sich Dirk Baecker zufolge allerdings auch mit Blick auf weitere Funktionssysteme der Gesellschaft beobachten. Auch Autoren wie Pierre Bourdieu, James Samuel Coleman und Gary Becker gehen von der Existenz nichtökonomischer Märkte aus. Entsprechend stellt sich in den Arbeiten von Steffen Roth die Frage, wie ein allgemeiner Marktbegriff bestellt sein muss, auf dessen Grundlage sich Märkte in Zeitaltern und Weltregionen beobachten lassen, in denen funktionale Differenzierung nicht die Hauptrolle spielt(e). Arten von Märkten. Aus dem ortsbezogenen Marktbegriff hat sich im Laufe der Zeit ein auf die Verkaufsform bezogener Marktbegriff abgeleitet. Heute unterscheidet man eine ganze Reihe unterschiedlicher Märkte. Markt als offene Verkaufsveranstaltung. Markt ist ebenfalls die Bezeichnung der Verkaufsveranstaltung an sich, zu der in regelmäßigen oder unregelmäßigen Abständen an einem bestimmten Ort - meist dem Marktplatz in der Stadtmitte - Händler zusammenkommen, um Waren des täglichen Bedarfs an Ständen zu verkaufen (so genannte Krämer- oder Krammärkte), oft in Form eines Wochen- oder Jahrmarktes. Werden auf einem Markt gebrauchte Waren wie beispielsweise benutzte Haushaltsgegenstände oder Kleidung aus zweiter Hand angeboten, spricht man von Flohmarkt oder Trödelmarkt. Neben solchen allgemeinen Marktveranstaltungen hat sich im Lauf der Geschichte eine ganze Reihe spezieller Veranstaltungen in Marktform entwickelt; hierzu zählen beispielsweise Obst- und Fischmärkte (wie zum Beispiel der Viktualienmarkt oder der Hamburger Fischmarkt), Bauernmärkte, aber auch Weihnachtsmärkte und Messen. Traditioneller lokaler Markt. Hervorgegangen aus den auf Tauschhandel basierenden Märkten der frühen Geschichte oder indigener Kulturen existieren heute vor allem in den Entwicklungsländern lokale Märkte für die Produkte traditionellen Wirtschaftens, bei denen die Erzeuger "direkt" ihre Waren verkaufen oder gegen andere Güter eintauschen. Das entscheidende Merkmal solcher Märkte ist die reine Versorgungsorientierung; Gewinnerwirtschaftung und Profit spielen hier keine Rolle. Großmarkt. Ein Großmarkt ist ein Ort (oft eine Großmarkthalle), an dem zum Beispiel Lebensmittel und Blumen an Wiederverkäufer (z. B. Einzelhandelsgeschäfte, Gastronomie) verkauft werden (Großhandel). Supermarkt. Ein Supermarkt ist ein Laden, der verschiedene Waren des täglichen Bedarfs anbietet. Die moderne Markthalle nimmt mit ihren meist festen Ständen eine Zwischenstellung zwischen Markt und Supermarkt ein. Börse. Börsen sind Spezialmärkte für Aktien, Kuxe, Obligationen, Versicherungen, Öl, Immobilien u. a. m. Nach der Art des Handels lassen sie sich unterteilen in Börsensegmente genannte Teilmärkte wie geregelter Markt, amtlicher Markt und Freiverkehr. Marktbegriff in der Wirtschaft. Der Begriff Markt bezeichnet in der Wirtschaft ganz allgemein den (realen oder virtuellen) Ort des Zusammentreffens von Angebot und Nachfrage von und nach einem Gut. Ist das Angebot größer als die Nachfrage, spricht man von einem Käufermarkt. Wenn das Angebot kleiner ist als die Nachfrage, handelt es sich um einen Verkäufermarkt. Stimmen Angebot und Nachfrage bei einem Gut überein, so spricht man vom Marktgleichgewicht. Es ist gekennzeichnet durch den Gleichgewichtspreis (vulgo auch Marktpreis) und die durch ihn bestimmte gleichgewichtige Menge. Unter bestimmten Bedingungen erreicht eine Ökonomie, in der alle Güter auf Märkten frei getauscht werden, eine pareto-effiziente Ressourcenallokation (Erster Hauptsatz der Wohlfahrtsökonomik). Diese Aussage bildet das theoretische Fundament für das in vielen Ländern vorherrschende Wirtschaftssystem der Marktwirtschaft. Sind die Annahmen des Ersten Hauptsatzes der Wohlfahrtsökonomik verletzt, so ist die Güterallokation über Märkte im Allgemeinen ineffizient (sog. Marktversagen). Andreas Scharf und Bernd Schubert definieren den Markt folgendermaßen: "Ein Markt besteht aus allen tatsächlichen und potenziellen Abnehmern mit einem spezifischen Bedürfnis, welches die Unternehmung mit ihrem Produkt zu befriedigen versucht." Paul Samuelson und William Nordhaus definieren den Markt wie folgt: "Ein Markt ist ein Mechanismus, mit dessen Hilfe Käufer und Verkäufer miteinander in Beziehung treten, um Preis und Menge einer Ware oder Dienstleistung zu ermitteln." Aus unternehmerischer Sicht bezeichnet man als Markt ein Absatzgebiet. Der Terminus "neue Märkte erschließen" bezeichnet heute eine Grundanforderung für jedes wachstumsorientierte Unternehmen. Der relevante Gesamtmarkt lässt sich dabei in Marktsegmente unterteilen. Aus der großen Bedeutung des Absatzgebietes für ein Unternehmen hat sich in der Betriebswirtschaftslehre das Fachgebiet Marketing entwickelt. „Markt“ im Sinne des Marketings bezeichnet Kundengruppen, die einem spezifischen Bedürfnis bzw. Bedürfniscluster zugeordnet werden können und kombiniert dieses mit Produkten und Serviceleistungen der Anbieter. Auf dem Markt treffen also Bedürfnisse und Lösungen zusammen. Bedürfnisse/ Kundengruppen oder Lösungen jeweils allein bilden keinen Markt. Erst wenn Bedürfnisse und Lösungen kombiniert werden, ergibt sich ein Markt (vgl. auch Begriff relevanter Markt). Märkte haben im Zusammenhang mit Marketing allgemein eine doppelte Funktion, denn sie sind Bezugsobjekte und Zielobjekte des Marketing zugleich. In der Tat stellen Märkte als Bezugsobjekte des Marketings die Rahmenbedingungen für das Marketing eines Unternehmens, da das Marketing auf den Märkten stattfindet und dementsprechend stark von den Marktakteuren geprägt wird. Gleichzeitig streben Unternehmen mit ihren Marketingaktivitäten jedoch auch eine Gestaltung bzw. Beeinflussung der Märkte und Marktakteure an, wodurch die Märkte zu Zielobjekten des Marketings werden. Dabei sollte die Marktgestaltung bzw. -beeinflussung sich so darstellen, als dass das (potenzielle) Kundenverhalten möglichst zum Vorteil des Unternehmens ist. Die Betriebswirtschaftslehre des Handels hat ein eigenständiges "Märktegenerierungskonzept" entwickelt. Danach generieren und organisieren Handelsunternehmen, und zwar schon jedes einzelne Unternehmen, komplette Märkte als spezifische (tertiäre) Güter: "Absatzmärkte" für Lieferanten und gleichzeitig "Beschaffungsmärkte" für Kunden. Nicht nur in dieser permanenten und gleichzeitigen Organisation von Warenmärkten für verschiedene Marktteilnehmer liegt die fundamentale Bedeutung des Handels für die Marktwirtschaft. Hinzu kommt die Tatsache, dass Handelsunternehmen durch ihre freie Sortiments- und Preisbildung originären "Wettbewerb" (Produktwettbewerb) schaffen. "Allein dadurch, dass Waren verschiedener Hersteller als Alternativen im Regal, Schaufenster, Versandhauskatalog usw. unmittelbar nebeneinander gestellt sind und zur freien Marktentnahme, zur freien Konsumwahl dargeboten werden, entstehen Wettbewerbssituationen. Jeder Handelsbetrieb unterläuft damit (wohl weitgehend unbewusst) den Hang eines jeden Herstellers zur Monopolisierung, die 'propensity to monopolize' nach Joan "Robinson"." Nach der Zahl der Anbieter und Nachfrager werden Märkte in Marktformen eingeteilt. Diese Einteilung wird vor allem zur Erklärung der Marktpreisbildung genutzt. Man unterscheidet Marktbegriff in der Soziologie. In der Soziologie wird der Markt als "allgemeines Muster gesellschaftlichen Handelns" seit Ferdinand Tönnies (für „Gesellschaft“ gegenüber „Gemeinschaft“) und Max Weber genutzt, er umfasst in seiner weitest greifenden Ausprägung "jeden Tausch" sozialer Sanktionen (also auch negativer Sanktionen bis hin zum Krieg). Der Ethnosoziologe Georg Elwert hat diesen Ansatz benutzt, um die „Gewaltmärkte“ von Warlords zu analysieren. Anmerkungen. Markt Mauna Loa. Zusammen mit vier weiteren Vulkanen formt der Mauna Loa die Insel Hawaii. a>-Krater über den Kīlauea zur Mauna Loa Der Mauna Loa ist einer der größten aktiven Vulkane der Erde und liegt mitten im Pazifik auf der Hauptinsel der Inselgruppe von Hawaii. Name. Der Name Mauna Loa bedeutet hawaiisch: "langer Berg", was sich durch seine von NNO nach SSW langgestreckte Form erklärt. Lage. Der Schildvulkan nimmt einen Großteil von Hawaii, der größten Insel der hawaiischen Inselgruppe, ein. Wichtigste Daten. Der Berg ragt auf, reicht aber weitere 5000 m bis zu seinem submarinen Fuß ins Meer hinunter, wenn man noch dazu die Annahme einbezieht, dass sich durch das Gewicht des Berges der Meeresboden um ca. 8000 m abgesenkt hat, könnte man auf eine theoretische Gesamthöhe von 17.000 m kommen.. Seine Länge beträgt ca. 120 km. Er bedeckt 5270 km² und hat ein Volumen von etwa 80.000 km3. Satellitenbild der Insel Hawaii, Mauna Loa mit den Riftzonen Mitte und Südwesten Aufbau des Vulkans. Es handelt sich um einen langgestreckten Schildvulkan mit einer Gipfelcaldera, die 3x5 km misst und eine Tiefe von 183 m aufweist. Diese Caldera ist vermutlich vor 600 – 750 Jahren eingestürzt, und zwar in einer älteren, 6x8 km großen Caldera. Mauna Loa befindet sich derzeit noch im 2. Aufbaustadium von vulkanischen Ozeaninseln, dem Schildstadium. Der untere Teil des Vulkans ist bis ca. 1.000.000 Jahre alt und stammt aus dem 1. Aufbaustadium, dem Seamountstadium. Dieser untere Teil ist gekennzeichnet durch Kissenlaven und Hyaloklastiten, der obere Teil vor allem durch Tholeiitbasalten von geringer Viskosität. Wie auf vielen großen Vulkanen befinden sich auch auf Mauna Loa Vulkanspalten, die in diesem Fall für die längliche Form des Vulkangebäudes verantwortlich sind. Hier handelt es sich um zwei axiale Riftzonen, die vom Gipfelkrater Mokuaweoweo ausgehen. Jede von ihnen enthält magmagefüllte Spalten. Eruptionsgeschichte. Letzter Ausbruch von Mauna Loa 1984 Man vermutet, dass die ersten Eruptionen im System vor 1.000.000 bis 700.000 Jahren stattfanden. Vor geschätzten 400.000 Jahren hat der Vulkan das Seamount-Stadium überwunden und Laven bzw. Tephra produziert, wobei aber die ältesten tatsächlich bisher eindeutig datierbaren Gesteine ein Alter von ca. 200.000 Jahren aufweisen.. Nur wenig ist von Ausbrüchen während der Zeit der rein polynesischen Besiedelung bekannt. Aus dem Jahre 1832 verfügt man über den Bericht eines Missionars über einen Ausbruch des Mauna Loa, allerdings befand sich der Berichterstatter auf der Nachbarinsel Maui, ca. 190 km entfernt. Seither weiß man von mindestens 33 Eruptionen des Mauna Loa bis zur bisher letzten von 1984, davon 17 Ausbrüche im 19. Jahrhundert und 15 im 20. Jahrhundert. Ein Ausbruch im 19. Jahrhundert dauerte ein ganzes Jahr, von August 1871 bis August 1872. Dabei wurden insgesamt 4,1 km3 Laven produziert. Die Ausbruchsserie im Jahre 1950. Es handelt sich hier um den spektakulärsten Ausbruch des Vulkans Mauna Loa in historischer Zeit. Der Ausbruch konzentrierte sich auf die Südwestflanke des Berges, wobei sich eine 20 km lange Eruptionsspalte über die Riftzone zog. Dabei folgten die Ausbrüche dem an des Mauna Loa festgestellten Rhythmus, wobei eine Gipfeleruption meist nach etwa 1-2 Jahren einen Flankenausbruch nach sich zieht. Obwohl die Eruptionsstellen in einer Höhe zwischen ca. 3.200 m über dem Meer lagen, erreichten die Laven dieses in weniger als 4 Stunden. Zahlreiche Lavaströme entstanden im Lauf der Eruptionen aus gestaffelt angeordneten Spalten, jedoch blieb der angerichtete Schaden relativ gering. Die ʻAʻā-Laven eines Lavastroms strömten mit einer Geschwindigkeit mit bis zu 48 km/h zu Tal. Besonders spektakulär war das Einströmen dieser Laven ins Meer. Während der 23 Tage lang anhaltenden Ausbrüche hatte der Vulkan schließlich 376 Mio. m³ an Laven produziert, wobei es sich um den Ausbruch mit der größten bisher bekannten Abflussrate auf Hawaii handelt. Der Ausbruch 1984. Seit der Ausbruchsserie von 1975 hatte man im Vulkan Mauna Loa zunehmende Aufwölbung festgestellt. Hierzu gesellten sich im Frühjahr 1984 Erdbebenschwärme, wovon die tiefst gelegenen Erdbeben bei 13 km geortet wurden und die heftigsten eine Stärke von 6,6 erreichten. Die ließ auf die Intrusion von Dykes schließen. Kurz vor dem Beginn der Ausbrüche am 24. März 1984 steigerte sich die Zahl der Mikrobeben und Vulkanischer Tremor setzte ein, so dass man auf dem 42 km entfernten Mauna Kea die empfindlichen Teleskope nicht mehr ruhig halten konnte. Am 25. März setzten die eigentlichen Ausbrüche zunächst mit Lavafontänen im Südwesten der Gipfelcaldera ein. Schon nach 2-3 Stunden war ein Großteil der Caldera mit Lava bedeckt. Am Spätnachmittag verlagerte sich die Aktivität auf die nordöstliche Riftzone ca. 650 m unterhalb des Gipfels. In den nächsten Tagen bedrohten die Lavaflüsse die Stadt Hilo, stoppten jedoch am Rande derselben, weil sich die Lava schließlich mittels Durchbrechung von Levees auf ein weites Hanggebiet verteilt hatte und nicht mehr kanalisiert in wenigen Rinnen strömte. Außerdem hatte sich durch Abkühlung ihre Viskosität erhöht (ʻAʻā-Lava), die Hangneigung vor der Stadt war gering und Bewuchs bremste die Lavaströme ab. Am 15. April war die Ausbruchsserie beendet.. Entwicklung im Jahre 2007 und Situation 2012. Seit Anfang Juli 2004 wurde in der Tiefe des Mauna Loa eine steigende Anzahl vulkanischer Tremoren registriert. Die Anzahl der Beben fluktuierte von Woche zu Woche, war aber höher als normal. Alleine in der ersten Septemberwoche des Jahres 2004 waren es mehr als 350 Erdbeben in 35 bis 50 km Tiefe. Es handelte sich hierbei um langperiodische Erdbeben, deren Schockwellen allmählich aus dem seismischen Hintergrund hervortreten. Dies war seit dem Beginn der Aufzeichnungen im Jahre 1960 noch nicht vorgekommen. Die Veröffentlichung einer geophysikalischen Studie führte im Mai 2007 zu einem starken Medienecho. Manche Meldungen erweckten dabei den Eindruck, dass ein Ausbruch kurz bevorstehen würde. Das "Hawaiian Volcano Observatory" stellte in einem Bericht am 21. Mai fest, dass es keine signifikanten Veränderungen gäbe. Wie viele Calderen, etwa Campi flegrei oder Askja, scheint Mauna Loa zu „atmen“. So stellte man unmittelbar nach der Ausbruchsserie von 1984 eine beginnende Auswölbung fest, die sich aber dann für etliche Jahre ins Gegenteil kehrte. Erst ab 2002 begann der Vulkan sich neuerlich aufzuwölben, was aber bis 2009 wieder abgebremst wurde. Seit 2010 ist nur eine sehr langsame Aufwölbung zu verzeichnen. Im Herbst 2012 erweist sich der Vulkan als ruhig. Keine signifikante Aufwölbung wurde festgestellt und nur wenige oberflächennahe Erdbeben, auch keine auffallenden Gasemissionen. Hot Spot. Karte der Hawaii-Emperor-Insel- und Seamountkette Mauna Loa sowie die anderen Vulkane auf Hawaii, Mauna Kea, Hualālai und Kīlauea, sind über einem Hot-Spot entstanden. Hot-Spots sind Gebiete, wo aus dem tiefen Erdmantel aufsteigende heiße Aufströme, sogenannte "Plumes", Material bis an die Erdoberfläche transportieren. Im Fall von Hawaii wird die Region auf der pazifischen Lithosphärenplatte durch die Plattentektonik langsam über den Hot-Spot geschoben, wodurch im Abstand vieler Millionen Jahre eine ganze Kette von Vulkaninseln und Seamounts, die Hawaii-Emperor-Kette gebildet wurde, die von den Aleuten bis in die Mitte des Pazifiks reicht. Man hat diese Theorie auch verwendet, um die unterschiedlichen Zusammensetzung von Laven von Mauna Loa im Vergleich mit solchen von Mauna Kea zu erklären. Die tholeiitischen Basalte von Mauna Loa, ein Vulkan, der sich im Stadium des Schildaufbaus befindet, sind demnach Folge einer Position direkt über dem Hot Spot. Wohingegen Mauna Kea schon im nächsten Stadium angelangt ist, nicht mehr direkt über dem Hot spot liegt, und Basalte der alkalischen Serie produziert. Manche Forscher erklärten dies mit von der chemischen Zusammensetzung her unterschiedlichen Zonen des Mantels, von denen das Magma stammen würde, andere mit unterschiedlicher Zonierung des aufsteigenden Mantel Plumes. Untersuchungen zur Vegetation am Vulkan Mauna Loa. Im Jahre 1997 wurden am Mauna Loa Untersuchungen an sechs verschiedenen Orten zum Wachstum von Eisenhölzern durchgeführt, einem blühenden Strauch, der dem Rhododendron ähnelt und für den Pazifikraum typisch ist. Man wollte unterschiedliche Vegetationsbedingungen, vor allem den Einfluss von Höhe und Temperatur testen. Wie zu erwarten stellte sich heraus, dass die in unteren Lagen angesiedelten Pflanzen (auf ca. 700 m) besser gediehen als die in ca. 1600 m Höhe. Interessant scheint jedoch, dass man Mauna Loa aus einigen Gründen für solche Tests als besonders geeignet empfand: Wegen der isolierten Lage gedeiht auf den Inseln nur eine begrenzte Artenzahl. Zudem existieren auf dem Schildvulkan erkaltete Lavaströme, die viele Klimabereiche abdecken, so dass sich ein sehr homogenes Bild des Bodens ergibt. Mythen und Legenden um Mauna Loa. Die Vulkangöttin Pele soll eines Tages inkognito mit Poliʻahu, der Schneegöttin des Mauna Kea, ein Schlittenrennen gefahren sein. Plötzlich aber sprang Feuer aus der Erde und Poliʻahu erkannte ihre Feindin Pele. Eines Tages wird Pele von ihrer Schwester verbannt und sucht Zuflucht im Tor zur Unterwelt, Mauna Loa, wo sie von da an wohnt. Die Einheimischen glauben, dass die Göttin Pele vor einer Eruption einen weißen Hund die Hänge des Berges herunter zu den Menschen schickt, um sie zu warnen. Observatorien auf dem Mauna Loa. Auf dem Mauna Loa befinden sich die Messstation Mauna Loa, eine meteorologische Messstation, die vor allem auf Kohlendioxid-Messungen spezialisiert ist, sowie eine Sternwarte. Mauna Kea. Das Gebiet des Mauna kea Der Vulkan Mauna Kea (hawaiisch für "Weißer Berg") ist mit etwa der höchste Berg auf Hawaii. Geologie. Der Mauna Kea ist vulkanischen Ursprungs. Vom Meeresgrund etwa 6.000 Meter unter der Oberfläche bis zum Gipfel ist er über 10.000 Meter hoch. Da er auf Grund seines hohen Gewichts in den Meeresboden eingesackt ist, liegt der eigentliche Fuß des Berges unter dem Meeresgrund. Vom Fuß bis zum Gipfel ist der Mauna Kea über 17.000 Meter hoch. Mauna Kea sowie die anderen Vulkane auf Hawaii, Mauna Loa, Hualālai und Kīlauea, sind über einem Hotspot entstanden, an dem aus dem tiefen Erdmantel aufsteigende heiße Aufströme, sogenannte "Plumes", Material bis an die Erdoberfläche transportieren. Im Fall von Hawaii wurde die Region mit der pazifischen Lithosphärenplatte durch die Plattentektonik langsam darüberbewegt, wodurch im Abstand vieler Millionen Jahre eine ganze Kette von Vulkaninseln von den Aleuten bis heute mitten im Pazifik gebildet wurde. Im Gegensatz zu seinem Nachbarn Mauna Loa ist der Mauna Kea derzeit nicht aktiv und gilt als "schlafender Vulkan". Sein Alter wird auf eine Million Jahre geschätzt, die ältesten gefundenen Steine wurden auf etwas über 200.000 Jahre datiert. Die letzte aktive Phase mit mindestens sieben Ausbrüchen fand vor ca. 6.000 bis vor 4.000 Jahren statt. Es gab bereits zuvor Ruhephasen mit einer längeren Dauer als 4.500 Jahre, insofern ist die gegenwärtige lange Ruhephase nicht notwendigerweise ein Zeichen für einen erloschenen Vulkan. Seit 2002 läuft ein Tiefbohrprojekt auf dem Vulkan. Durch die Untersuchung der geförderten Gesteinsproben aus dem Inneren des Vulkans möchte man weitere Erkenntnisse über das Erdinnere gewinnen. Sternwarte. Auf dem Mauna Kea befindet sich das Mauna-Kea-Observatorium, eine Gruppe internationaler Observatorien, die zusammen die größte Sternwarte der Welt bilden. Darunter befindet sich unter anderem das Keck-Observatorium mit seinen beiden 10-m-Spiegeln, die zu den derzeit leistungsfähigsten Teleskopen weltweit gehören. Da die Teleskope sehr empfindlich auf Lageveränderungen des Untergrunds reagieren, würde ein typisches Aufblähen des Berges als Zeichen wieder beginnender Aktivität sofort registriert werden. Mailbox (Computer). Eine Mailbox, außerhalb des deutschen Sprachraums Bulletin Board System (BBS) (englisch für Anschlagbrett/elektronisches schwarzes Brett) genannt, ist ein meist privat betriebenes Rechnersystem, das per Datenfernübertragung (DFÜ) zur Kommunikation und zum Datenaustausch genutzt werden kann. Es wurde anfangs in Assembler, später in Dbase, Pascal, C oder auch TurboBasic programmiert und stellte ein umfangreiches System der Datenkommunikation ähnlich einem heutigen Server dar. Der einfache Name Mailbox leitet sich daher aus der ursprünglichen Funktion her und wurde auf das ganze System übertragen. Der verantwortliche Betreiber hat den Status des System Operators (Sysop), sein Aufgabenbereich gleicht dem eines Administrators. Jeder Benutzer (User) der Mailbox hat ein eigenes Postfach, in dem elektronische Nachrichten für ihn gespeichert und von ihm abgerufen werden können. Zudem gibt es meist öffentliche Bereiche, oft Foren, Bretter oder Echos genannt, in denen die Benutzer sich austauschen und diskutieren können. Eine durchschnittliche Mailbox bot im Schnitt mehr als 300 Bretter, also Newsbereiche an, in der die Besucher (User) lesen, schreiben und antworten konnten. Häufig boten Mailboxen darüber hinaus einen umfangreichen Download-Bereich für Dateien an oder bieten Zusatzleistungen wie z. B. Onlinespiele an (diese Zusatzleistungen bzw. Onlinespiele wurden „Doors“ genannt). Die Grafik entsprach mindestens der des vom Fernsehen her bekannten Videotext. Beispiele dafür sind auf der rückblickenden Homepage der maXou BBS zu sehen. In der Regel war die Nutzung der Mailboxen für die Nutzer, bis auf die eigentlichen Verbindungsentgelte der Datenleitung (Telefonleitung), kostenlos. Viele Mailboxen waren untereinander vernetzt und tauschten in regelmäßigem Abstand ihre Daten untereinander aus. In der Mailboxsprache wurde dieser Vorgang auch pollen genannt. In der Anfangszeit um 1990 arbeiteten sie mit durchschnittlich 300 bis 2.400, ab 1992 mit 14.400 und in der Endphase mit 56.000 Bits pro Sekunde. Auf diese Weise konnten Benutzer unterschiedlicher Mailboxen schnell und kostengünstig miteinander kommunizieren. Eine durchschnittliche Mailbox hatte um 1992 etwa 5.000 User, als diese Zahl anwuchs, stellte man mehrere Modemleitungen nebeneinander. So kamen einige Mailboxen auf mehr als 10.000 User. In der Hochphase 1995 dürfte es etwa geschätzte 1.000 Mailboxen in Deutschland gegeben haben. Geschichte. Mit der schnellen Verbreitung der ersten Personal Computer, vor allem des Apple II, und der ersten brauchbaren Akustikkoppler und Modems entstanden die privat betriebenen Mailboxen ab Ende der 1970er Jahre vor allem in den Großstädten der USA. Dort waren damals Ortsgespräche kostenlos, was die Verbreitung der Mailboxen besonders in den Ballungsräumen beschleunigte. In Deutschland, wo die Personalcomputer etwas später aufkamen, wurde 1980 unter Postminister Kurt Gscheidle (SPD) der Zeittakt für Ortsgespräche eingeführt. Außerdem war in Deutschland die Zulassungspolitik für Modems sehr viel strenger, wodurch sich die Mailbox-Szene in Deutschland deutlich langsamer entwickelte als in den USA und nicht die amerikanischen Ausmaße erreichte. In West-Berlin, wo der Zeittakt bis zum 31. August 1992 nicht galt (man konnte also für 23 Pfennig beliebig lang in der Leitung bleiben), war die Mailboxdichte deutlich höher als in Westdeutschland. Das weltgrößte private Mailbox-Netz, das FidoNet (kurz Fido), entstand 1984 und verbreitete sich schnell weltweit. Kurze Zeit später entstanden in Deutschland weitere Mailbox-Netze wie das MausNet, Z-Netz (ehemals Zerberus-Netz), Quicknetz, GS-Net, T-Netz, AmNet und das RaveNet, die aber keine oder nur geringe internationale Verbreitung fanden. Auch politische Aktivisten, die sich den Neuen Sozialen Bewegungen zurechneten, bauten verschiedene Mailbox-Netze auf; im deutschsprachigen Raum war das größte das CL-Netz. Die Ökologisch-Demokratische Partei „ödp“ nutzte vor ihrem Internetauftritt seit etwa 1989 das auf Fido basierende ödp-Net. Obwohl die von den verschiedenen Netzen verwendete Software zueinander inkompatibel war, entstanden zwischen diesen Netzen rasch Schnittstellen, sogenannte Gateways, mit denen über die Netzgrenzen hinweg Nachrichten verschickt werden konnten. Diese Gateways regulierten auch den Datenaustausch mit Amerika, sodass in vielen Mailboxen auch englischsprachige News und Diskussionsebenen zur Verfügung gestellt wurden. Zwischen 1989 und 1996 erreichte die Zahl der Mailbox-Benutzer ihren Höhepunkt. Sie wird auf etwa 1,56 Millionen allein im FidoNet geschätzt. Mit der seither zunehmenden Verbreitung des Internets gingen die Benutzerzahlen jedoch stark zurück. Mäeutik. Mäeutik ist die gängige latinisierte Form des aus dem Altgriechischen stammenden metaphorischen Begriffs Maieutik ("maieutikḗ [téchnē]" „Hebammenkunst“). Es handelt sich um ein auf den griechischen Philosophen Sokrates zurückgeführtes didaktisches Vorgehen, das Sokrates der Überlieferung zufolge mit der Tätigkeit einer Hebamme verglichen hat. Gemeint ist, dass man einer Person zu einer Erkenntnis verhilft, indem man sie durch geeignete Fragen dazu veranlasst, den betreffenden Sachverhalt selbst herauszufinden. So wird die Einsicht mit Hilfe der Hebamme – des Didaktikers – geboren, der Lernende ist der Gebärende. Den Gegensatz dazu bildet Unterricht, in dem der Lehrer den Schülern den Stoff dozierend mitteilt. Vom 18. Jahrhundert an wurde die Grundidee verschiedentlich aufgegriffen und in abgewandelter Form zum Ausgangspunkt für die Entwicklung neuer Konzepte der Vermittlung von Einsichten gemacht. Platons Darstellung. Sokrates’ Schüler Platon gibt in einer Reihe seiner literarisch gestalteten Dialoge Hinweise auf eine didaktisch motivierte Kunst der Gesprächslenkung, die sein Lehrer praktiziert habe. Er lässt Sokrates in den Dialogen als Hauptsprecher auftreten und die mäeutische Vorgehensweise im Umgang mit einzelnen Problemen und Gesprächspartnern demonstrieren. In neuzeitlicher Literatur zur Geschichte der Philosophie wird die auf Sokrates zurückgeführte Form des philosophischen Diskurses als „sokratische Methode“ bezeichnet. Die Mäeutik ist der didaktische Aspekt der nach Sokrates benannten Methode. In Platons Dialog "Theaitetos" vergleicht Sokrates seine Didaktik mit der Berufstätigkeit seiner Mutter, einer Hebamme. Er helfe den Seelen bei der Geburt ihrer Einsichten wie die Hebamme den Frauen bei der Geburt ihrer Kinder. Seinem Gesprächspartner, dem Mathematiker Theaitetos, der schon lange vergeblich nach der Definition von „Wissen“ sucht, erklärt Sokrates, er – Theaitetos – sei gleichsam „schwanger“ und leide unter Geburtsschmerzen. Nun werde Hebammenkunst benötigt, damit die Erkenntnis (die Antwort auf die Frage, was Wissen ist) hervorgebracht („geboren“) werden könne. So wie eine Hebamme, die selbst nicht mehr gebären kann, anderen bei der Entbindung beisteht, so verfahre er, Sokrates: Er gebäre selbst keine Weisheit, sondern stehe nur anderen beim Hervorbringen ihrer Erkenntnisse bei. Niemals belehre er seine Schüler, aber er ermögliche denen, die sich ernsthaft bemühten, schnelle Fortschritte. Mit der Geburtshilfe befähige er sie, in sich selbst viel Schönes zu entdecken und festzuhalten. Die Geburtshilfe, die Sokrates leistet, besteht in seiner Technik des zielführenden Fragens. Mit ihr bringt er seine Gesprächspartner dazu, vorhandene irrige Vorstellungen zu durchschauen und aufzugeben. Das führt oft dazu, dass sie in eine Ratlosigkeit (Aporie) geraten. Im weiteren Verlauf des Gesprächs kommen sie aber auf neue Gedanken. Diese werden wiederum mittels der Fragetechnik auf ihre Stimmigkeit überprüft. Schließlich gelingt es dem mäeutisch Befragten, entweder den tatsächlichen Sachverhalt selbst zu entdecken oder sich zumindest der Wahrheit anzunähern. Diese Hilfe beim Suchen und Finden von Erkenntnissen, wobei auf Belehrung konsequent verzichtet wird, erscheint in Platons Darstellung als spezifisch sokratische Alternative zur konventionellen Wissensvermittlung durch Weiterreichen und Einüben von Lehrstoff. Die Hebammenkunst beschränkt sich nach Sokrates’ Darstellung im "Theaitetos" nicht darauf, dem Schüler zur Geburt seiner Lösungen philosophischer Probleme zu verhelfen. Manches, was von den Schülern geboren wird, ist missgestaltet, das heißt, die vermeintliche Problemlösung ist untauglich. Der erfahrene Geburtshelfer erkennt das und sorgt unnachsichtig dafür, dass das Unbrauchbare weggeworfen wird. Damit zieht sich Sokrates oft den Zorn der Schüler zu, da sie nicht verstehen, dass das nur zu ihrem Besten geschieht. Im Gespräch mit Theaitetos verfolgt Sokrates die Analogie zwischen seiner Mäeutik und der Hebammentätigkeit weiter. Eine Hebamme kann erkennen, ob überhaupt eine Schwangerschaft vorliegt; sie kann die Wehen beschleunigen oder hinauszögern oder auch eine Abtreibung einleiten. Außerdem eignet sie sich hervorragend als Heiratsvermittlerin. Über solche Kompetenz verfügt auf analoge Weise auch der geistige Geburtshelfer Sokrates. Er vermittelt „Heiraten“, indem er Lernbegierige zu passenden Lehrern schickt, wenn er sieht, dass sie sich nicht für seine mäeutische Kunst eignen. Solche Entscheidungen trifft er aufgrund seiner Fähigkeit einzuschätzen, welche Seelen in der Lage sind, wertvolle Erkenntnisse hervorzubringen, und welche nicht wirklich schwanger sind oder nur Untaugliches gebären können. Nach dieser Einschätzung wählt er die aus, denen er Geburtshilfe leistet; die anderen schickt er weg. Sokrates weist im "Theaitetos" darauf hin, dass Hebammen selbst Mütter seien und daher eigene Erfahrungen mit dem Geburtsvorgang hätten, was für ihren Beruf auch notwendig sei. Er hingegen sei zeit seines Lebens unfruchtbar gewesen, ihm sei das Gebären von Erkenntnissen nicht vergönnt gewesen. Dennoch könne er als Hebamme fungieren und anderen zu ihren Geburten verhelfen. Dies ist das in der Forschung oft diskutierte Paradox des sokratischen Nichtwissens: Sokrates stellt seine eigene Unwissenheit fest und erhebt zugleich den Anspruch, anderen bei der Erkenntnissuche helfen zu können. Die wahrscheinlichste Erklärung dafür ist, dass Sokrates, wenn er von seiner eigenen Unfruchtbarkeit und Unwissenheit spricht, an ein unumstößliches Wissen im Sinne einer auf zwingender Beweisführung basierenden Wahrheitskenntnis denkt. Für ihn wäre nur ein solches Wissen, über das er nicht verfügt, befriedigend, doch hat er es nicht gebären können, und er kennt auch niemand, der es besitzt. Mit den Geburten, zu denen er anderen verhilft, meint er nur Ergebnisse, die er zwar für gut begründet und richtig hält, deren Richtigkeit er aber nicht beweisen kann. Diese Ergebnisse sind zwar wertvoll, stellen aber kein Wissen im strengen Sinn dar. Die Frage der historischen Realität. Aus altertumswissenschaftlicher Sicht erscheint fast alles, was über die „sokratische Methode“ und die Mäeutik überliefert ist, als problematisch und ist umstritten. Da Sokrates keine Schriften hinterlassen hat, ist die Mäeutik nur aus Platons Angaben und einer mutmaßlichen Anspielung bei Aristophanes bekannt. Die Frage nach dem Verhältnis zwischen dem literarisch geschilderten „platonischen“ (in Platons Dialogen auftretenden) Sokrates und Sokrates als historischer Persönlichkeit gehört zu den schwierigsten Problemen der antiken Philosophiegeschichte. Nur wenn man Platon eine einigermaßen wirklichkeitsnahe Darstellung zutraut, kann ein Begriff wie „sokratische Methode“ – bezogen auf den historischen Sokrates – sinnvoll sein. Skeptische Forscher beschränken sich auf die Feststellung, dass Platon als Schriftsteller seinem Lehrer, den er als Meister des Dialogs ins beste Licht rückt, eine bestimmte überlegene Art der Gesprächsführung zuschreibt. Umstritten ist nicht nur die Existenz einer „Methode“ des historischen Sokrates, sondern auch die Frage, ob der historische Sokrates seine Dialogpraxis als Hebammenkunst aufgefasst und bezeichnet hat oder der Vergleich mit der Geburtshilfe ein Einfall Platons war. Einige Indizien deuten darauf, dass der historische Sokrates tatsächlich seine Hilfestellung beim philosophischen Nachforschen mit der Tätigkeit einer Hebamme verglichen und in dieser Metapher sein Verständnis von Erkenntnisvermittlung zusammengefasst hat. Allerdings gibt es auch gewichtige Gegenargumente. Für die Historizität spricht insbesondere der Umstand, dass der Komödiendichter Aristophanes, ein Zeitgenosse des Sokrates, anscheinend in seiner Komödie „Die Wolken“ auf die Geburtshilfe-Metapher anspielt. Aristophanes lässt einen Schüler des Sokrates, der beim Nachdenken unterbrochen wird, dem Störer vorwerfen, die Unterbrechung habe die Fehlgeburt einer Erkenntnis ausgelöst. Ein Problem besteht allerdings darin, dass der platonische Sokrates im "Theaitetos" feststellt, die Mäeutik sei damals – in seinem Todesjahr 399 v. Chr. – in der Öffentlichkeit noch unbekannt gewesen. Wenn das historisch zutrifft, ergibt eine Anspielung in der schon 423 v. Chr. aufgeführten Komödie keinen Sinn. Philosophie. Im 16. Jahrhundert befasste sich Michel de Montaigne mit der Vorgehensweise des platonischen Sokrates, schrieb ihm aber keine eigene mäeutische Methode zu. Erst im 18. Jahrhundert wurde der Gedanke der Hebammenkunst wiederentdeckt und erlangte große Beliebtheit. Sokratisches Philosophieren („Sokratik“) wurde nun in weiten Kreisen mit Mäeutik gleichgesetzt. Der dänische Philosoph Søren Kierkegaard (1813–1855) schätzte Sokrates sehr und setzte sich intensiv mit der Mäeutik auseinander. Er betrachtete den angemessenen Umgang mit dem Thema Liebe und das richtige Verhalten in der christlichen Liebespraxis als mäeutisch. In seiner Schrift "Werke der Liebe" beschrieb er sein Konzept einer indirekten Vorgehensweise in der Kommunikation über das Thema Liebe und einer absoluten Selbstlosigkeit bei der Ausführung von Werken der Liebe. Er meinte, es seien Werke Gottes; der liebende Mensch solle sich bewusst sein, dass ihm nur eine mäeutische Rolle zukomme, und solle sich entsprechend verhalten. Der Göttinger Philosoph Leonard Nelson (1882–1927) entwickelte Grundsätze einer gemeinsamen philosophischen Erkenntnisbemühung, die er als sokratisches Gespräch bezeichnete. Anfangs war das sokratische Gespräch nur für den Philosophieunterricht an den Universitäten gedacht. Nelson charakterisierte es als die Kunst, nicht Philosophie, sondern Philosophieren zu lehren, nicht über Philosophen zu unterrichten, sondern Schüler zu Philosophen zu machen. 1922 hielt er den Vortrag "Die sokratische Methode", in dem er sein Dialogverständnis darstellte. Dieser Vortrag wurde erst 1929 posthum veröffentlicht. An die Vorgehensweise des Sokrates anknüpfend vertrat Nelson die Auffassung, der Einfluss von Urteilen des Lehrers (Gesprächsleiters) auf den Schüler müsse unbedingt ausgeschaltet werden, damit der Schüler unbefangen zu einem eigenen Urteil gelangen könne. Nelsons Schüler Gustav Heckmann (1898–1996) setzte die Entwicklung der Methode fort. Das sokratische Gespräch nach Nelson und Heckmann wird weiterhin praktiziert, vor allem in der Erwachsenenbildung. Dazu gehört auch die Mäeutik. Ein wesentlicher Unterschied zur Mäeutik des Sokrates besteht jedoch darin, dass bei Nelson nicht Dialoge stattfinden, in denen jeweils eine Person einer anderen Hilfe leistet, sondern ein Gruppengespräch. Dabei spricht der Gesprächsleiter nicht selbst zur Sache, sondern übernimmt nur die Hebammenrolle. Auch in einer neueren, fortentwickelten Variante des sokratischen Gesprächs in der Tradition von Nelson und Heckmann fällt die Hebammenrolle gewöhnlich dem Gesprächsleiter zu, doch ist es in der heutigen Praxis grundsätzlich möglich, dass jeder hinreichend erfahrene Gesprächsteilnehmer diese Rolle für einen anderen übernimmt. Eine Aufhebung der Rollen-Asymmetrie wird angestrebt. Der Poststrukturalist Roland Barthes wendet sich im Rahmen seiner Kritik am Logozentrismus auch gegen die sokratische Mäeutik; er sieht in der Vorgehensweise des Sokrates das Bestreben, „den anderen zur äußersten Schande zu treiben: sich zu widersprechen“. Didaktik. Die sokratische Gesprächsführung wurde im 18. Jahrhundert (ab 1735) zum Vorbild einer Unterrichtsmethode, die Erotematik („Fragekunst“) genannt wurde. Die Erotematik wurde in der Religionspädagogik eingesetzt und beherrschte bis ins frühe 19. Jahrhundert im deutschen Sprachraum die Katechetik beider Konfessionen. Vor allem im evangelischen Raum hatte sie viele Anhänger, die eifrig für sie eintraten. Ein führender Vertreter dieser Richtung war der evangelische Theologe Johann Friedrich Christoph Gräffe, der die einflussreiche Schrift "Die Sokratik nach ihrer ursprünglichen Beschaffenheit in katechetischer Rücksicht betrachtet" veröffentlichte. Auch die aufklärerisch gesinnten evangelischen Theologen Karl Friedrich Bahrdt, Johann Lorenz Mosheim, Gustav Friedrich Dinter und Johann Georg Sulzer setzten sich für die Mäeutik ein. In zahlreichen Abhandlungen wurde sie propagiert. Auf katholischer Seite waren Franz Michael Vierthaler und Bernhard Galura namhafte Vertreter der Mäeutik. Man glaubte, die im Religionsunterricht vermittelten Glaubenssätze seien im Sinne einer natürlichen Theologie im Menschen angelegt und könnten ihm durch geschicktes Fragen entlockt werden. Auch Johann Georg Hamann knüpfte in seinen Ausführungen, mit denen er zum Christentum hinführen wollte, an die sokratische Hebammenkunst an. Auch außerhalb theologischer Kreise fand die Mäeutik im Zeitalter der Aufklärung viel Anklang, unter anderem bei Moses Mendelssohn, Lessing und Wieland sowie bei dem Pädagogen Ernst Christian Trapp. Immanuel Kant empfahl für die Didaktik der Ethik die „dialogische Lehrart“. Sie besteht nach seiner Beschreibung darin, dass "der Lehrer das, was er seine Jünger lehren will, ihnen abfrägt", wobei er sich an die Vernunft der Schüler wendet. Das kann nach Kants Auffassung nur dialogisch geschehen, indem "Lehrer und Schüler einander wechselseitig fragen und antworten". Der Lehrer leitet durch Fragen den Gedankengang des Schülers, indem er "die Anlage zu gewissen Begriffen in demselben durch vorgelegte Fälle blos entwickelt (er ist die Hebamme seiner Gedanken)." Der Schüler hilft seinerseits durch seine Gegenfragen dem Lehrer, die Fragetechnik zu verbessern. Nicht nur theologischen und philosophischen Stoff vermittelte man auf „sokratische“ Weise; auch mathematische und gesellschaftliche Fragen wurden nun in „sokratischen Gesprächen“ behandelt. In der zweiten Hälfte des 18. Jahrhunderts wurde das Wort „Maieutik“ als deutsches Fremdwort geprägt. Ein wesentlicher Unterschied zwischen der Fragekunst des platonischen Sokrates und der pädagogischen Mäeutik des 18. und 19. Jahrhunderts besteht darin, dass die negative Vorgehensweise des Sokrates in ihr Gegenteil verkehrt wurde. Sokrates ließ seine Gesprächspartner ihre Ansichten vortragen und widerlegte sie dann. Die neuzeitlichen Pädagogen hingegen versuchten dem Schüler positive Aussagen zu entlocken, die dem entsprachen, was sie selbst für wahr hielten. Ein Kritiker der Mäeutik im Religionsunterricht war Johann Heinrich Pestalozzi. Er hielt die Vermischung von Sokratik und Katechese für abwegig. Außerdem sei das „Sokratisieren“ für Kinder unmöglich, da ihnen die nötigen Vorkenntnisse fehlten. Man habe sich zu Unrecht Wunder davon erträumt. Auch Johann Gottlieb Schummel beurteilte die verbreitete Begeisterung der Pädagogen für die Mäeutik skeptisch. In seinem satirischen Roman Spitzbart (1779) machte er sich darüber lustig. 1845 veröffentlichte der Mathematiker Karl Weierstraß einen Aufsatz "Über die Sokratische Lehrmethode und deren Anwendbarkeit beim Schulunterrichte". Er meinte, die Methode sei an und für sich hervorragend, aber in der Schule nur beschränkt einsetzbar. Für naturwissenschaftliche Fächer sei sie ungeeignet, für den größten Teil des Gymnasialunterrichts komme sie nicht in Betracht. Ihr Anwendungsbereich seien die philosophischen Wissenschaften, die reine Mathematik und die Theorie der allgemeinen Gesetze der Sprache. Sie verhelfe dem Schüler zu Erkenntnissen, deren Quelle unmittelbar in den Anlagen der menschlichen Natur sei. Die häufig praktizierte fragend-entwickelnde Unterrichtsmethode wird von ihren Vertretern als Weiterentwicklung der Mäeutik des Sokrates betrachtet. Sie krankt nach heutigem didaktischem Forschungsstand an der zu starken Steuerung der Lernprozesse durch die Lehrperson, die zu wenig Eigeninitiative der Lernenden zulässt. In zeitgerechter Weiterentwicklung wird die sokratische Mäeutik heute als Methode des entdeckenden und mehrdimensionalen Lernens in vielen Lehr- und Lernbereichen, etwa der Verkehrspädagogik, praktiziert: Die Lehrperson holt das Kind in seinem Erlebnis- und Erfahrungshorizont ab und fördert es durch entsprechende Impulse und Fragestellungen zu eigenen Erkenntnissen und selbstbestimmtem Handeln. In Abwandlung und Erweiterung eines Leitworts der Montessoripädagogik arbeitet die „Verkehrserziehung vom Kinde aus“ unter der didaktischen Zielvorstellung „"Hilf mir, die Umwelt selbst zu entdecken und eigenverantwortlich zu handeln"“. Die Kinder entwickeln auf diesem Wege aus eigenem Verständnis und herausgeforderten eigenen Überlegungen ihrem Denken gemäße Formen des Verkehrens wie den verträglichen Umgang miteinander, die partnerschaftliche Nutzung des Verkehrsraums, den Entwurf von angemessenen Verständigungsformen, die Gestaltung von anschaulichen Verkehrszeichen oder akzeptierten Verkehrssanktionen. Stefan Lindl hat eine „repräsentationsanalytische Maieutik“ entwickelt, die verborgene Fähigkeiten und Kompetenzen im Gespräch ans Licht bringen soll. Verhaltenstherapie. In der Kognitiven Verhaltenstherapie (KVT) und der Rational-Emotiven Verhaltenstherapie (REVT) wird eine Technik angewendet, die an die sokratische Vorgehensweise anknüpft. Es wird dabei davon ausgegangen, dass irrationale Grundannahmen des Klienten Ursache seiner psychischen Störung sein können. Mit Hilfe der Gesprächstechnik („sokratischer Dialog“) versucht der Therapeut, diese Grundannahmen zu identifizieren und schrittweise zu verändern. Pflege. In der Gesundheits- und Krankenpflege bezeichnet der Begriff „Mäeutik“ den in den Niederlanden entstandenen Begriff "erlebensorientierte Pflege", welcher auf dem mäeutischen Konzept des ´Instituts voor Maieutische Ontwikkeling in de Zorgpraktijk´ (IMOZ) basiert. Die Pflege-Mäeutik wurde in den 1990er Jahren in den Niederlanden von Cora van der Kooij besonders zur Betreuung von Menschen mit Demenzerkrankungen entwickelt. Das "mäeutische Konzept" hat zum Ziel, die Intuition des pflegerischen Handelns bei Pflegekräften mit Begriffen und einer integrierenden Theorie zu untermauern. Der Begriff mäeutisch steht für das Bewusstmachen des intuitiven Wissen bzw. von Erfahrungen. Zur Anwendung des mäeutischen Konzeptes bedarf es einer besonderen Schulung des Personals, die vor allem in Pflegeheimen und Hospizen, aber auch in Einrichtungen zur Betreuung von geistig Behinderten und Menschen mit Demenzerkrankungen arbeiten. Dabei geht es darum, die gefühlsmäßige Wechselwirkung von Betreuern und Bewohnern zu ermöglichen und deren Wechselwirkungen zu verstehen und, soweit das wünschenswert ist, zu verändern. Die Mäeutik geht davon aus, dass es zwei Erlebniswelten gibt: die Erlebniswelt der Bewohner und die der Betreuer. Cora van der Kooij bezieht sich auf den Gedanken der „Geburtshilfe“ des platonischen Sokrates. Sie will „Geburtshilfe“ für die Bewusstwerdung des Pflegepersonals leisten. In Kursen soll den Pflegekräften die Fähigkeit vermittelt werden, die Belastungen ihres beruflichen Alltags besser zu bewältigen. Mnemotechnik. Mnemotechnik, auch Gedächtnistraining (von griech. μνήμη "mnémē" ‚Gedächtnis‘, ‚Erinnerung‘ und τέχνη "téchnē" ‚Kunst‘) ist ein Kunstwort, das seit dem 19. Jahrhundert für "ars memoriae" und "ars reminiscentiae" („Gedächtniskunst“) benutzt wird, meist gleichbedeutend mit Mnemonik (griech. μνημονικά "mnēmoniká"). Mnemotechniken dienen damit der „Verbesserung des Speicherns und Behaltens von Informationen“ im Langzeitgedächtnis. Die Mnemotechnik entwickelt Merkhilfen (Eselsbrücken), zum Beispiel als Merksatz, Reim, Schema oder Grafik. Neben kleinen Merkhilfen gehören zu den Mnemotechniken aber auch komplexe Systeme, mit deren Hilfe man sich an ganze Bücher, Listen mit Tausenden von Wörtern oder tausendstellige Zahlen sicher erinnern kann. Geschichte. Es ist überliefert, dass sich die Redner des antiken Griechenlands und Roms oftmals mnemotechnischer Mittel bedienten. Der Dichter, Staatsmann und Weltweise Simonides von Keos galt allgemein als Erfinder der Gedächtniskunst. Diesbezügliche Aussagen finden sich bei Cicero, Quintilian, Plinius, Aelianus, Ammianus Marcellinus, Suidas und in der Parischen Chronik. Die Parische Chronik ist eine Marmortafel von etwa 264 vor Christus, die im siebzehnten Jahrhundert auf Paros gefunden wurde und die legendären Daten von Entdeckungen verzeichnet, wie die der Flöte, der Einführung des Getreides durch Ceres und Triptolemos und der Veröffentlichung von Orpheus Dichtungen, sowie in der geschichtlichen Zeit vor allem Feste und die dabei verliehenen Preise verzeichnet. Darunter gibt es auch einen Passus über Simonides: "„Seit der Zeit, da der Keaner Simonides, Sohn des Leoprepes, der Erfinder des Systems der Gedächtnishilfen, den Chorpreis in Athen gewann und Statuen zu Ehren des Harmodios und des Aristogeiton errichtet wurden 213 Jahre.“" (das wäre 477 vor Christus). „Bei einem Festmahl, das von einem thessalischen Edlen namens Skopas veranstaltet wurde, trug Simonides zu Ehren seines Gastgebers ein lyrisches Gedicht vor, das auch einen Abschnitt zum Ruhm der Götter Kastor und Pollux enthielt. Der sparsame Skopas teilte dem Dichter mit, er werde ihm nur die Hälfte der für das Loblied vereinbarten Summe zahlen, den Rest solle er sich von den Zwillingsgöttern geben lassen, denen er das halbe Gedicht gewidmet habe. Wenig später wurde dem Simonides die Nachricht gebracht, draußen warteten zwei junge Männer, die ihn sprechen wollten. Er verließ das Festmahl, konnte aber draußen niemanden sehen. Während seiner Abwesenheit stürzte das Dach des Festsaals ein und begrub Skopas und seine Gäste unter seinen Trümmern. Die Leichen waren so zermalmt, dass die Verwandten, die sie zur Bestattung abholen wollten, sie nicht identifizieren konnten. Da sich aber Simonides daran erinnerte, wie sie bei Tisch gesessen hatten, konnte er den Angehörigen zeigen, welcher jeweils ihr Toter war. Die unsichtbaren Besucher, Kastor und Pollux, hatten für ihren Anteil an dem Loblied freigebig gezahlt, indem sie Simonides unmittelbar vor dem Einsturz vom Festmahl entfernt hatten“. Die anderen beiden Hauptwerke sind "Institutio oratoria", ein Rhetoriklehrbuch von Quintilian, und das anonyme "Ad C. Herennium libri IV". Letzteres, "Ad Herennium", im Mittelalter fälschlich Cicero zugeschrieben, bildete das Muster, an dem sich die zahlreichen mittelalterlichen Texte zur Gedächtniskunst – immer als Teil der Rhetorikausbildung – orientierten. Zwischen 410 und 430 n. Chr. verfasste Martianus Capella die Schrift "De nuptiis Philologiae et Mercuriae" (Von der Heirat der Philologie mit Mercurius), die die Grundzüge der sieben freien Künste des antiken Bildungssystems (Grammatik, Rhetorik, Dialektik, Arithmetik, Geometrie, Musik, Astronomie) darstellt und damit zu einer Grundlage des mittelalterlichen Bildungssystems wurde. In dieser Schrift bildet die "memoria" einen Teil der Rhetorik. Die Kirchenlehrer Albertus Magnus in "De Bono" (vom Guten) und Thomas von Aquin in seiner "Summa Theologiae" behandelten die Gedächtniskunst dagegen im Zusammenhang der Tugendlehre, und zwar als Teil der Prudentia (Weisheit), ein Bezug, der die Gedächtniskunst späterhin vor theologischen Angriffen schützte. Auf Thomas von Aquin beriefen sich nämlich später fast alle Autoren zur Rechtfertigung und Begründung ihrer Schriften. Merksprüche. Mit dem folgenden Satz kann man sich die Planeten­reihenfolge, von der Sonne aus, einprägen: „Mein Vater erklärt mir jeden Sonntag unseren Nachthimmel.“ Dabei steht jeder der Anfangsbuchstaben für einen Planeten mit dem gleichen Anfangsbuchstaben. Das M in Mein für Merkur (sonnennächster Planet), das V in Vater für Venus (zweitnächster Planet von der Sonne aus), und so weiter für Erde, Mars, Jupiter, Saturn, Uranus und Neptun. Die Merkhilfe setzt voraus, dass man die Planetennamen kennt. Erleichtert wird das Lernen, genau wie bei den komplexen Systemen, wenn man sich den Inhalt der fiktiven Szene, die der Satz beschreibt, möglichst anschaulich, lebendig und farbig vorstellt. Es wäre von Vorteil, wenn man sich den Vater vorstellt, wie er die Planeten mittels einer Zeichnung in einem großen Buch oder einer Wandtafel erklärt. Natürlich mit dem eigenen Vater, in der Atmosphäre und der Umgebung, die in der eigenen Erinnerung sonntags für die eigene Familie typisch ist oder war. Das innere Wiederholen des Satzes sollte betont auf jedes einzelne Wort erfolgen. Dieses Beispiel für eine einfache Mnemotechnik enthält bereits die beiden Grundelemente auch der kompliziertesten mnemotechnischen Universalsysteme, nämlich Ordnung/feste Reihenfolge auf der einen und anschauliche Bilder sowohl für das Ordnungssystem als auch für das gemerkte Wissen auf der anderen Seite. Ein weiteres Beispiel ist: „Klio/me/ter/thal/Eu/er/ur/po/kal“ für die 9 Musen des klassischen Altertums: Klio, Melpomene, Terpsichore, Thalia, Euterpe, Erato, Urania, Polyhymnia und Kalliope. Ein bekanntes Beispiel für das Erlernen des Quintenzirkels ist der Satz: „Geh Du Alter Esel, Hole Fische“. Hilfe leistet durch mnemotechnischen Ansatz ein visueller Vergleich mit kindgerechten Abbildungen. Wichtig ist dabei auch die Wahl von Bildern mit phonetisch treffender Aussprache, also zum Beispiel „Elefant“ und nicht „Eimer“. „Elefant“ hat den weiteren Vorteil, dass es nicht missverständlich ist, im Gegensatz zu „Esel“, der fälschlich auf "Es" deutet. Kettenmethode, Assoziationsketten. Bei typischen Methoden der Mnemotechnik werden die zu lernenden Begriffe wie die Glieder einer Kette so aneinander gehängt, dass die richtige Reihenfolge erhalten bleibt. Man denkt sich einfach eine Geschichte aus, in der die Begriffe vorkommen. Die Gefahr besteht darin, dass, wenn ein Kettenglied verloren geht, die gesamte Assoziationskette sozusagen „reißt“. Es gibt aber auch spezifische Methoden, bei denen diese Gefahr minimiert werden kann. Die Methoden lassen sich auf Wissensgebiete anwenden, bei denen es auf Stichworte und deren Vollständigkeit und richtige Reihenfolge ankommt. Die verbreitetsten davon sind Zahlen-Symbol-Systeme, das Buchstaben-System sowie die Loci-Methode, die das älteste System ist. Sprachen- und Vokabellernen. Ein bekanntes Wort, das ähnlich klingt wie die zu lernende Vokabel, ist das Schlüsselwort. Aus dem Schlüsselwort und der Bedeutung der Vokabel wird im Geist ein Bild erstellt. Zahl-Symbol-System. Weitere Zahlenordnungssysteme sind das Zahl-Reim-System sowie das umfassendere Major-System, bei dem den Ziffern Konsonanten zugeordnet werden. Alphabet-Methode. Bei der Alphabet-Methode bilden die Buchstaben des Alphabetes mit je einem damit fest verknüpften Bild das Erinnerungsgrundgerüst, wobei auch hier die zu merkenden Wörter in Bilder umgewandelt und mit je einem Bild verbunden werden, das fest für einen Buchstaben steht. Die Bilder für jeden Buchstaben werden aber nicht wie bei der einfachen Zahlen-Methode aus der Form (für 1 steht eine Kerze, ein Füller oder ein Lineal) gebildet, sondern aus einem Wort mit dem gleichen Anfangsbuchstaben. Beim Aufbau des Systems kann sich der Nutzer z. B. dafür entscheiden, sich für Z das Wort und Bild Zitrone zu merken. Ist das Wort „Relativitätstheorie“ in der Liste der Wörter, die man sich gerade merken will und steht es neben „Z“, dann könnte man sich Einstein vorstellen mit einer Tafel, auf der Formeln stehen, während er in eine halbe Zitrone beißt und das Gesicht verzieht. Gerade dieses Bild, in das man noch Geruch und Geschmack einbezieht, ist ein gutes Beispiel für ein Bild, das kaum vergessen wird, weil das Gehirn lebendige Bilder gut speichert. In Kombination mit einem Ordnungsmerkmal, hier der Buchstabe Z, der die Erinnerung aufrufbar macht, ist es leicht möglich eine Liste von Wörtern auswendig zu lernen und in Reihenfolge wiederzugeben oder bei Nennung eines Buchstabens das jeweilige dazu gemerkte Wort wiederzugeben. Loci-Methode. Eine bekannte und verbreitete mnemotechnische Assoziationstechnik ist die Loci-Methode (von lateinisch "locus" für Ort/Platz). Es war die Hauptmethode in der Antike und im Mittelalter. Um diese Technik zu beherrschen, braucht es nur sehr wenig Aufwand. Wenn man sich auf herkömmliche Weise eine Abfolge von Dingen zu merken versucht, gerät oft vieles im Gehirn durcheinander. Mithilfe der Loci-Technik werden die Lerninhalte geordnet „encodiert“. In der Loci-Technik wird für jeden Begriff ein eigener Platz reserviert, quasi Variablen geschaffen, die mit verschiedenen Inhalten belegt werden können. Diese Variablen liegen in einer übergeordneten, fixen Struktur, sodass es möglich wird, bei der Wiedergabe die genaue Reihenfolge einzuhalten. Die fixe Struktur, von der vorher die Rede war, kann ein wohlbekannter Weg sein, aber auch ein Raum. Es muss im zweiten Falle nicht unbedingt ein realer Raum sein. Man kann sich selbst seinen eigenen Raum schaffen, dies muss jedoch in größtmöglicher Detailgenauigkeit geschehen. Bei beiden Varianten ist es notwendig, ganz eindeutige Plätze auszuwählen, wo später die zu merkenden Dinge abgelegt werden können. Anschließend kann man auf die geistig vorbereiteten Plätze das zu Merkende in Form lebendiger Bilder ablegen; besonders günstig ist es, wenn man mehrere Dinge zuerst zu einem Assoziationsbild verknüpft und dann erst gedanklich ablegt. So wird „Platz gespart“ und man erinnert sich obendrein noch leichter. Man kann den Weg oder das Zimmer immer wieder benutzen, quasi neu „beschreiben“. Bekanntes Beispiel. Die Gliederung einer typischen frei gesprochenen Rede kann man sich mit der Frontansicht eines griechischen Tempels merken. Die Einleitung der Rede wird mit den Treppenstufen assoziiert, die rechte, sonnenbeschienene Säule mit den Pro-Argumenten und die linke, schattige Säule mit den Kontra-Argumenten. Die mittlere, halbschattige Säule führt Gemeinsamkeiten beziehungsweise unvereinbare Gegensätze zusammen. Das spitz zulaufende Dach des Tempels wird mit dem Endergebnis (beispielsweise ein Kompromiss oder eine Synthese) assoziiert. Gedächtnispalast. Ein Gedächtnispalast ist ein fiktives, im Kopf existierendes Gebilde, das dazu dient, Wissen langfristig abzuspeichern bzw. durch seine örtliche Struktur Logik in ein im Kopf bereits vorhandenes Wissen zu bringen. Er baut im Wesentlichen auf dem Prinzip der Loci-Methode auf, jedoch gibt es bei seinem „Bau“ einige grundlegende Unterschiede. Gedächtnisprinzipien. Das Gedächtnis funktioniert nach gewissen Prinzipien, welche man für eine effiziente und möglichst langfristige Abspeicherung anwenden sollte. Mnemotechnische Mentalfaktoren. "All Factors Lead To Very Efficient Learning" "(Assoziation, Fantasie, Logik, Transformation, Visualisierung, Emotion, Lokalisation)" Hilfe zur Anwendung. Der wichtigste Schritt bei der Mnemotechnik besteht darin, sich die generierten Bilderkombinationen oder Filme auf seiner inneren Leinwand vorzustellen. Also Augen zu und vor den inneren Augen sehen. Erst damit erreicht man das beste Ergebnis. Mark Twain. Samuel Langhorne Clemens (* 30. November 1835 in Florida, Missouri; † 21. April 1910 in Redding, Connecticut) – besser bekannt unter seinem Pseudonym Mark Twain – war ein US-amerikanischer Schriftsteller. Mark Twain ist vor allem als Autor der Bücher über die Abenteuer von Tom Sawyer und Huckleberry Finn bekannt. Er war ein Vertreter des Literatur-Genres „amerikanischer Realismus“ und ist besonders wegen seiner humoristischen, von Lokalkolorit und genauen Beobachtungen sozialen Verhaltens geprägten Erzählungen sowie aufgrund seiner scharfzüngigen Kritik an der amerikanischen Gesellschaft berühmt. In seinen Werken beschreibt er den alltäglichen Rassismus; seine Protagonisten durchschauen die Heuchelei und Verlogenheit der herrschenden Verhältnisse. Leben. Das Leben Mark Twains war von Widersprüchen gezeichnet. Der Mann, der den "American Way of Life" scharfzüngig kritisierte, strebte selbst nach Erfolg und Anerkennung. Er floh vor dem Sezessionskrieg nach Westen und erlebte später seinen größten wirtschaftlichen Erfolg als Verleger der Autobiografie des einstigen Kriegshelden Ulysses S. Grant. Obwohl er den größten Teil seines Lebens an der Ostküste der Vereinigten Staaten und in Europa verbrachte, war Mark Twain "der" Chronist des amerikanischen Westens. Kindheit und Jugend. Samuel kam als Frühgeburt am 30. November 1835 als sechstes Kind von Jane Lampton Clemens und John Marshall Clemens in Florida, Missouri zur Welt. Als er vier Jahre alt war, zog seine Familie in die Kleinstadt Hannibal. Obwohl die Eltern sich bemühten, eine sichere wirtschaftliche Existenz aufzubauen, rutschten sie sozial immer weiter ab und waren schließlich 1842 gezwungen, ihre einzige Sklavin Jenny zu verkaufen. Im Jahre 1846 zogen sie bei einem Apotheker ein und hielten, anstatt Miete zu zahlen, das Haus instand. Diese Zeit der Jugend und die Hafenstadt am Mississippi River waren es, die später die Kulisse für die Abenteuer des Huckleberry Finn boten. Als Samuel elf Jahre alt war, starb sein Vater. Er begann bei der Zeitung "Missouri Courier" eine Ausbildung als Schriftsetzer. Sein Bruder Orion kaufte das "Hannibal Journal", in dem Samuel erste kurze Artikel veröffentlichen konnte. Bis zu seinem 18. Lebensjahr blieb Samuel Clemens in Hannibal und publizierte 1852 "The Dandy Frightening the Squatter" unter seinem ersten Pseudonym „W. Epaminondas Adrastus Perkins“. Erste Reisen. Von 1852 an reiste er als wandernder Schriftsetzer durch den Osten und Mittleren Westen. Aus St. Louis, Philadelphia, New York City und Washington, D.C. schrieb er Reiseberichte für die Zeitung seines Bruders. In New York City verbrachte er viele Abende in den Astor- und Lenox-Bibliotheken (heute beide New York Public Library), um seine bis dahin mangelhafte Allgemeinbildung erheblich zu verbessern. Leben auf dem Mississippi. Ab 1855 lebte Clemens in St. Louis und plante, Lotse auf einem Mississippidampfer zu werden. Er begann 1857 eine entsprechende Ausbildung, erhielt 1859 seine Lizenz und war bis 1861 in dem Beruf tätig. In der dortigen Freimaurerloge „Polar Star Lodge No. 79“ wurde er am 22. Mai 1861 aufgenommen, am 12. Juni 1861 zum Grad des Gesellen befördert und am 10. Juli 1861 zum Meister erhoben. Später schloss man ihn aus der Loge aus, nahm dies aber am 24. April 1867 zurück. Auf seiner Reise nach Palästina schickte er an diese Loge einen Knüpfel mit folgender Notiz: („Dieser Knüpfel besteht aus Zedernholz, geschnitten im Wald des Libanon, von wo Salomo das Bauholz für den Tempel bezog.“) Den Knüpfel ließ er in Alexandria aus dem Zedernholz herstellen, das er selbst vor den Mauern Jerusalems geschnitten hatte. Am 8. April 1868 wurde der Knüpfel der Logengemeinschaft präsentiert. Am 8. Oktober 1868 trat Clemens aus der Loge aus. Der Ausbruch des Sezessionskriegs 1861 brachte die Flussschifffahrt auf dem Mississippi und dem Missouri zum Erliegen und Clemens wurde arbeitslos. Nach zweiwöchiger Militärzeit bei der Missouri State Guard, Staatsmiliz, die an der Seite der Confederate States Army kämpfte, quittierte er den Dienst für die Südstaaten und setzte sich mit seinem Bruder Orion nach Westen ab. Goldgräber in Virginia City. Samuel Clemens meldete sich in der neu gegründeten Siedlung Virginia City, Nevada, in der Menschen aus verschiedenen Ländern zusammentrafen, als Goldgräber. Doch war die Arbeit in den Minen beschwerlich und finanziell wenig ertragreich. Daher arbeitete Clemens ab 1862 als Reporter für den "Territorial Enterprise" in Virginia City. Er berichtete aus den Saloons der Goldgräberstadt und brachte Klatschgeschichten, die manchmal hart an der Grenze zur Verleumdung lagen. 1863 musste er wegen eines Streits fluchtartig die Stadt verlassen. Jedenfalls hatte er mit seinen gut ausgeschmückten Reportagen für den "Territorial Enterprise" einen Anteil an dem Mythos, der sich rund um den „Wilden Westen“ bildete. Die „Geburt“ des Mark Twain. Am 3. Februar 1863 benutzte er erstmals das Pseudonym „Mark Twain“, unter dem er seine schriftstellerische Karriere ernsthaft begann. "Mark Twain" ist ein Ruf aus der Sprache der Mississippi-Flussschiffer. Er bedeutet „Zwei Faden (rd. 3,65 m; entspricht 4 Yard oder 12 Fuß) Wassertiefe“ und ist eine Erinnerung an seinen Lebensabschnitt als Steuermann auf dem flachen und trüben Mississippi, wo man die Wassertiefe häufig messen musste, um nicht auf Grund zu laufen. Ab 1864 zog Mark Twain kreuz und quer durch die Vereinigten Staaten: Zunächst nach San Francisco, wo er unter anderem für den damaligen San Francisco Dramatic Chronicle arbeitete. Für Twain, war es kurz vor seinem 30. Geburtstag eine Krisenzeit, da er sich ungewöhnlich für die Zeit noch nicht für einen Beruf entschieden hatte, er viele Schulden hatte und viel Alkohol trank. Er äußert in einem Brief an seinen Bruder sogar Suizidgedanken. Die Artikel, die in San Francisco entstanden, werden von Fachleuten trotz oftmals fehlender Autorennennung als typische Beispiele für Twains Stil beschrieben. Von San Francisco zog Twain wieder nach Nevada und Kalifornien. Nach einer Reise in das Königreich Hawaiʻi im Jahre 1866 kehrte er nach Kalifornien zurück. Seine ersten Geschichten erschienen 1864/65 in Charles Henry Webbs Wochenzeitschrift "The Californian". Die 1865 entstandene Geschichte "The Celebrated Jumping Frog of Calaveras County" brachte Mark Twain erstmals in das Rampenlicht der US-amerikanischen Öffentlichkeit. Danach konnte er durch Reden im Rahmen eines Weiterbildungsprogramms für die amerikanische Bevölkerung seinen Lebensunterhalt verdienen und begann, für Zeitschriften aus New York zu schreiben. Sein erstes Reisebuch "The Innocents Abroad" („Die Arglosen im Ausland“, 1869) basierte auf einer fünfeinhalbmonatigen Schiffsreise nach Europa und in den Nahen Osten, die er 1867 unternahm. In "A Tramp Abroad" („Bummel durch Europa“, 1880) verarbeitete Twain Erlebnisse und Erfahrungen seiner zweiten Europareise von 1878, die ihn durch Deutschland, die Schweiz und Italien führte. In diesem Buch veröffentlichte er im Anhang auch den berühmten Aufsatz "The Awful German Language" („Die schreckliche deutsche Sprache“), in dem er humorvoll die Eigenheiten und Schwierigkeiten der deutschen Sprache erläutert. Besonders prägte ihn jedoch laut seiner Reisebeschreibung der dreimonatige Aufenthalt in Heidelberg und dessen kurpfälzischer Umgebung, von der er begeistert schrieb. An der Ostküste. 1870 heiratete Twain Olivia Langdon (1845–1904), die seit ihrem sechzehnten Lebensjahr durch einen Sturz auf dem Eis zum Teil gelähmt war und infolgedessen zwei Jahre nicht aufstehen konnte. Unter seiner Pflege und mit ihrer eigenen Willensstärke erholte sie sich nach und nach. Twains Wohnhaus in Hartford, das Mark Twain House & Museum Samuels und Olivias erstes Kind, Langdon Clemens, kam als schwächliche Frühgeburt zur Welt. Das Kind starb zwei Jahre später. Im selben Jahr, 1872, wurde die Tochter Susy geboren. 1871 ließ er sich in Hartford, Connecticut nieder, wo er siebzehn Jahre lang als erfolgreicher und bekannter Autor lebte. Er wohnte dort im heutigen Mark Twain House in unmittelbarer Nachbarschaft von Harriet Beecher Stowe, die seine negative Haltung zur Sklaverei in den Vereinigten Staaten ungemein bestärkte. In dieser Zeit schrieb er seine besten Werke: "Roughing It" („Durch Dick und Dünn“, 1872), "The Adventures of Tom Sawyer" („Die Abenteuer des Tom Sawyer“, 1876), "Life on the Mississippi" („Leben auf dem Mississippi“, 1883) und sein Meisterwerk "The Adventures of Huckleberry Finn" („Die Abenteuer des Huckleberry Finn“, 1884). 1874 erstand Mark Twain in Boston eine Remington Arms-Schreibmaschine und lieferte mit "Life on the Mississippi" als erster Autor seinem Verlag ein maschinengeschriebenes Buchmanuskript ab. Aufgrund einer autobiografischen Notiz wird diese Tatsache oft fälschlicherweise seinem Werk "Tom Sawyers Abenteuer" zugeschrieben. Seine schriftstellerischen Aktivitäten verband er mit ausgiebigen Reisen. Europareise. Im Jahr 1891 reiste er erneut nach Europa, wo er neun Jahre blieb und auf Vortragstournee ging, um seine Schulden abzuzahlen. Als Wohnsitz wählte er anfangs für einige Monate Berlin, das ihm so gut gefiel ("luminous centre of intelligence […] a wonderful city."), dass er später seine beiden Töchter dorthin zum Studium schickte. Vom 28. September 1897 bis 27. Mai 1899 lebte Twain in Wien, da seine Tochter Clara bei Theodor Leschetizky Klavierunterricht nehmen wollte. Neun Monate seines Wiener Lebens hat Twain in zwei Hotels verbracht. Das erste war das Hotel Metropol und vom Oktober 1898 bis Mai 1899 im Hotel Krantz, dem heutigen Hotel Ambassador. In seinem Essay "Stirring Times in Austria" beschrieb er das vom Antisemitismus geprägte politische Klima im Wien Karl Luegers. 1898 hatte er in Kaltenleutgeben in Niederösterreich seinen Sommersitz, wo er wichtige Teile seiner Autobiografie schrieb. Vor seiner Abreise aus Wien war Twain zu einer Audienz bei Kaiser Franz Joseph I. eingeladen. Geschäftsmann. Twain begann seine Karriere als Unternehmer im Jahre 1869 mit dem Kauf eines Anteils an der Zeitung "Buffalo Express". Sein erfolgreichstes Geschäft wurde jedoch die Beteiligung an dem Verlag "Charles L. Webster & Co.", der insbesondere mit der Biografie des Bürgerkriegsgenerals und späteren Präsidenten Ulysses S. Grant große Gewinne erzielte. Schicksalsschläge. Bildrelief an Mark Twains Grab in Elmira, NY 1894 wurde Mark Twain seine Beteiligung an der Druckerei und dem Verlagshaus zum finanziellen Verhängnis. Deren Investition in eine fehlerhafte Setzmaschine trieb auch ihn in den Konkurs. Um seine Finanzen zu ordnen, begann er eine weltweite Tournee mit Lesungen seiner Werke. Dabei war ihm die Unterstützung durch Henry Huttleston Rogers, des in finanziellen Angelegenheiten versierten Vizepräsidenten von Standard Oil, eine große Hilfe. Während dieser Reise starb Twains Tochter Susy an Meningitis († 1896). Drei von vier Kindern und auch seine Frau Olivia starben vor ihm. In seinen späteren Werken verarbeitete er diese Schicksalsschläge zunehmend mit Ironie und Sarkasmus, in seiner Autobiografie jedoch mit großer Würde. Nur Tochter Clara (1874–1962) überlebte ihn. Ausstellung. Anlässlich des 100. Todestages von Mark Twain fand in der Morgan Library & Museum in New York City die Ausstellung "A Skeptic’s Progress" statt. Würdigung. Mark Twain auf einem Kurzfilm (1909) T. S. Eliot bezeichnete Twains Romanfigur „Huckleberry Finn“ als eine bleibende Symbolfigur in der Welt der Fiktion ("„one of the permanent symbolic figures of fiction“") Die "Mark Twain Memorial Bridge" ist der Name zweier Brücken, die den Mississippi River in Hannibal überqueren. Die Brücken wurden Twain zu Ehren benannt, der seine Kindheit in Hannibal verbrachte. Der Bundesstaat Missouri brachte eine steinerne Gedenktafel mit dem Konterfei Twains an der Missouri zugewandten Brücke an. Der US-amerikanische Maler und Bildhauer Walter Russell fertigte eine Skulptur zum Gedächtnis an Mark Twain: „The Mark Twain Memorial“. Dieses zeigt Twain in der Mitte der Charaktere seiner Bücher sitzend. Seit 2013 befindet sich eine Bronzestatue des Schriftstellers an der Brausebrücke im Lüneburger Hafen. In Berlin-Tiergarten erinnert seit Mitte September 2011 am Postamt in der Körnerstraße 7 eine Berliner Gedenktafel an Mark Twain; sie bezieht sich auf seinen mehrmonatigen Berliner Aufenthalt im Winter 1891/1892. In Berlin-Hellersdorf wurde schon früher eine Straße nach ihm benannt, ebenso in Halle (Saale), Augsburg, Viernheim, Braunschweig, München, Delmenhorst und Heidelberg. Der Asteroid (2362) Mark Twain trägt seinen Namen. Trivia. Im November 2010 erbrachte die Versteigerung eines handschriftlichen Kapitels von "A Tramp Abroad" fast 80.000 $. Mark Twain wurde geboren, nachdem der Halleysche Komet sichtbar geworden war (seit 16. November 1835), und starb – fast auf den Tag genau, wie von ihm erhofft – einen Tag nach dessen erneuter Sichtung. In einer Doppelfolge von „“ (Gefahr aus dem 19. Jahrhundert) wird Clemens dargestellt, wie er eine unfreiwillige Zeitreise von Commander Data entdeckt. In der Episode besteht Clemens gegenüber einem Journalisten, der ihn mit Mr. Twain anspricht, darauf, bei seinem bürgerlichen Namen genannt zu werden. Außerdem taucht der Autor Jack London auf, der als junger Hotelpage mit Clemens ins Gespräch kommt und – der Darstellung zufolge – von Clemens motiviert wird, eine Karriere als Autor anzustreben. Werke. Mark Twains Satire ist oft so entlarvend und bissig, dass zahlreiche Jugendbuchausgaben von "Tom Sawyer" oder "Huckleberry Finn" entschärft und Ausgaben "ad usum Delphini" angefertigt wurden. Erkennbar sind solche Fassungen an Beschreibungen wie „Eine Bearbeitung für die Jugend“ oder Vermerken wie „Gekürzt“. Hier, wie auch im Kinderbuchklassiker "The Prince and the Pauper" ("Der Prinz und der Bettelknabe"), zeigt er die Welt der armen, unteren sozialen Schichten auf. In seinen Arbeiten als Journalist prangerte er religiöse Heuchelei, Polizeiübergriffe auf Minderheiten, korrumpierte und betrügerische Senatoren an. Er kritisierte die Gier nach Macht und die „Geldlust“, die er als Amerikas Krankheit bezeichnete. Dabei nahm er besonders die Christian Science und ihre Gründerin Mary Baker Eddy polemisch aufs Korn. Er war negativ beeindruckt von dem schnellen Wachstum dieser Bewegung, korrigierte später aber seine harsche Kritik. In der literarischen Würdigung seines Werkes ist jedoch kaum ein anderer nordamerikanischer Autor ähnlichen Schwankungen unterworfen gewesen wie Mark Twain. Die Skala der Werturteile reichte dabei vom Vorwurf der Primitivität bis zur Einreihung unter die Großen der Weltliteratur. Er war außerdem ein wichtiges Mitglied der antiimperialistischen Bewegung der USA, die als Reaktion auf die Annektierung Puerto Ricos, der Marianen und der Philippinen nach dem Spanisch-Amerikanischen Krieg gegründet wurde. So war er von 1901 bis 1910 Vizepräsident der American Anti-Imperialist League. Twain schrieb während des Philippinisch-Amerikanischen Krieges, der von 1899 bis 1902 andauerte, mehrere Zeitungsartikel, die die Kriegführung der Vereinigten Staaten auf den Philippinen anprangerten. Mark Twain übersetzte auch den Struwwelpeter ins Englische. Die erstmals ungefilterte Veröffentlichung seiner Autobiografie erfolgte im November 2010 bei der University of California Press. Englische Werkausgabe. Einband der englischen Ausgabe "Ein Yankee am Hofe des König Artus" 1889 In der "Library of America" ist eine siebenbändige Ausgabe der wichtigsten Werke erschienen. Martin Schrettinger. Martin Willibald Schrettinger OSB (* 17. Juni 1772 in Neumarkt in der Oberpfalz; † 12. April 1851 in München) war ein deutscher Priester und Bibliothekar. Leben. 1793 legte er im Benediktinerkloster Weißenohe (Oberfranken) die Profess ab, 1795 empfing er die Priesterweihe und ab 1800 arbeitete er als Klosterbibliothekar. Vielseitig literarisch, musisch und künstlerisch begabt, entwickelte er sich zu einem der führenden Köpfe der Fraktion der Aufklärer in seinem Konvent. Im Jahre 1802 – kurz vor der Aufhebung des Klosters und um dessen Aufhebung voranzutreiben – ging er nach München, wo ihn die Königliche Hofbibliothek beschäftigte. 1806 wurde er dort Kustos und 1823 Unterbibliothekar. 1839 wurde er – unter Beibehaltung seiner Stelle als Bibliothekar – Kanonikus am Münchener Stift St. Kajetan. Wirkung. Schrettinger gilt zusammen mit Friedrich Adolf Ebert als Begründer der modernen Bibliothekswissenschaft und war auch der erste, der diesen Begriff benutzte. Er engagierte sich für eine Aufstellung der Bibliotheksbestände nach Sachgruppen und Unterabteilungen und forderte eine Bestandserschließung durch einen alphabetischen Verfasserkatalog und einen Standortkatalog. Sein im Jahre 1819 begonnener, nach Schlagwörtern geordneter „Realkatalog“, der selbst von modernen Bibliothekaren zuweilen noch konsultiert wird, blieb unvollendet. Main. Der Main ist mit 527 km Fließstrecke der längste rechte Nebenfluss des Rheins. Die Quellflüsse des Mains entspringen im Fichtelgebirge (Weißer Main) und in der Fränkischen Alb (Roter Main). Am westlichen Rand der Stadt Kulmbach im Stadtteil Melkendorf nahe dem Schloss Steinenhausen vereinigen sich die beiden Quellflüsse zum eigentlichen Main. Der Flusslauf hält trotz vieler markanter Richtungswechsel seine – in Mitteleuropa seltene – ostwestliche Hauptrichtung bei und berührt dabei mehrere fränkische Mittelgebirge, das fränkische Weinbaugebiet und zahlreiche, teils gut erhaltene historische Stadtkerne. Besonders prägnante Großstadträume durchfließt der Main in Würzburg und Frankfurt. Gegenüber der Mainzer Altstadt – zwischen Ginsheim-Gustavsburg und dem Wiesbadener Stadtteil Mainz-Kostheim – mündet er in den Rhein. Von dort (Kilometer 0) bis oberhalb der Eisenbahnbrücke bei Hallstadt (Kilometer 387,69) ist der Main ("Ma") Bundeswasserstraße. Daten. Für die Längenangaben zum Main gibt es unterschiedliche Bezüge. Zusammen mit dem längeren Quellfluss, dem Roten Main, ergibt sich eine Fließlänge von 527 km, zusammen mit dem größeren, aber kürzeren Quellfluss, dem Weißen Main, eine von 518 km. Der Flussabschnitt ohne Namenszusatz, also ab Vereinigung der Quellflüsse, hat eine Länge von 472 km. Rund 81 km unterhalb der Vereinigung mündet die Regnitz ein, die deutlich größer ist als der Main. Rechnet man die Regnitz mit Rednitz einschließlich Fränkischer Rezat als Quellfluss, ergibt sich eine Gesamtlänge von 553 km. Vor der Deutschen Wiedervereinigung wurde der Main mitunter als der längste Fluss, der ausschließlich in der Bundesrepublik floss, bezeichnet. Das Einzugsgebiet des Mains und seiner Nebenflüsse umfasst 27.292 km² und erstreckt sich über den größten Teil Frankens, den nordöstlichsten Teil Badens und den Norden Südhessens. Es grenzt im Süden an das Einzugsgebiet der Donau (wenige hundert Meter südlich der Weißmainquelle liegt die Quelle der Fichtelnaab, die über Naab und Donau ins Schwarze Meer abfließt); die Grenze zwischen beiden ist Teil der Europäischen Hauptwasserscheide. Der Main ist mit einem mittleren Abfluss von 225 m³ pro Sekunde an der Mündung in den Rhein nach Aare (560 m3/s), Maas (357 m3/s) und Mosel (315 m3/s) der viertgrößte Nebenfluss des Rheins. Die 388 km lange schiffbare Strecke beginnt bei Bamberg und ist seit 1992 über den Main-Donau-Kanal mit der Donau verbunden. Vor allem im Ballungsraum Rhein-Main um Frankfurt befinden sich mehrere große Binnenhäfen. Der Main verläuft durch die Bundesländer Bayern und Hessen. Baden-Württemberg hat im Bereich der Städte Freudenberg und Wertheim auf rund 25 km Länge Anteil am linken Ufer. Entlang des Mains verlaufen der Main-Wanderweg und der Main-Radweg. "Siehe auch:" Liste von Städten und Orten am Main Name. Der Name "Main" ist keltischen Ursprungs; die Kelten nannten den Fluss "Moin" oder "Mogin." Als die Römer zu Beginn des 1. Jahrhunderts n. Chr. in das Gebiet kamen, latinisierten sie den Namen zu "Moenus". Den ältesten Beleg (als "Moenis") liefert Pomponius Mela (kurz nach 43/44 n. Chr.), spätere Erwähnungen finden sich z. B. bei Plinius ("Naturalis historia") oder Tacitus ("Germania"). Flüsse ähnlichen Namens gibt es in Irland ("Maoin") und Britannien ("Meon," lat. "maionus"). Für den Ursprung des Namens werden mehrere Erklärungen erwogen. Einige Autoren führen ihn auf ein indogermanisches Wort "mei" mit der Bedeutung "Wasser" zurück (vgl. lettisch "maina" oder litauisch "maiva:" "Sumpf"), andere auf eine Mauer oder einen Zaun (vgl. lat. "moenia:" Ringmauer). Im Mittelalter wurde der Fluss zumeist als "Moyn" oder "Moyne" überliefert, der Name "Meyn" erschien erstmals im 14. Jahrhundert. Flusslauf. Der Main fließt in weiten Bögen von Ost nach West durch Oberfranken, Unterfranken und Südhessen und durchquert dabei die Städte Bayreuth (am Roten Main), Kulmbach, Lichtenfels, Schweinfurt, Würzburg, Aschaffenburg und Frankfurt am Main, dann mündet er an der "Mainspitze" gegenüber von Mainz in den Rhein. Während der Main vor allem im unterfränkischen Abschnitt durch siedlungsarmes Gebiet fließt, ist ein Großteil der Untermainebene von Aschaffenburg bis zur Mündung von den großen Siedlungsflächen und vielen Verkehrswegen der Rhein-Main-Region bestimmt. Quellflüsse. Der Main hat zwei kurze Quellflüsse, den "Weißen" und den "Roten Main." Weißer Main. Der 41 km lange "Weiße Main" ist der rechte und nördliche Quellfluss des Mains. Er entspringt im Fichtelgebirge – 20 km Luftlinie nordöstlich von Bayreuth, nordwestlich von Fichtelberg. Seine in Granit gefasste Quelle liegt auf am Osthang des 1024 m hohen Ochsenkopfs. Der Weiße Main durchfließt zunächst das 679 m hoch gelegene Bischofsgrün, dann das Heilbad Berneck, das durch sein Zisterzienserinnenkloster bekannte Himmelkron und schließlich nördlich der Plassenburg die Bierstadt Kulmbach. Hier verläuft er in einer bereits in den 1930er Jahren zum Schutz vor Hochwasser angelegten Flutmulde. Der Weiße Main verdankt seinen Namen dem hellen Granitgestein seines Quellgebiets, das sein Wasser weißlich erscheinen lässt. Roter Main. Der 73 km lange "Rote Main" ist der linke und südliche Quellfluss des Mains. Er entspringt in der Fränkischen Alb – 10 km südlich von Bayreuth, 5 km westlich von Creußen. Seine ungefasste Quelle (hölzernes Rohr) liegt im Lindenhardter Forst knapp 2 km nordwestlich von Hörlasreuth. Der Fluss führt Sediment aus dem lehmigen Grund seines Einzugsgebiets mit, was ihm eine rötliche Farbe gibt und seinen Namen bestimmte. Hörlasreuth ist das erste Dorf, das der Rote Main berührt, das Städtchen Creußen der erste größere Ort. Der Rote Main fließt weiter in nördlicher Richtung bis Bayreuth und dann in zahlreichen Mäandern nordwestwärts durch ein weites Tal. Die beiden Quellflüsse vereinigen sich am westlichen Stadtrand von Kulmbach bei Schloss Steinenhausen. An dieser Stelle beginnt der als "Main" bezeichnete Flussabschnitt (). Hier endet die flussaufwärtige Zählung der Flusskilometer. Der Main in Oberfranken. Die Basilika Vierzehnheiligen hoch über dem Maintal Das Gebiet von den Quellflüssen bis zur Höhe Bambergs wird als Obermainland bezeichnet. Vom Zusammenfluss der beiden Quellflüsse in Kulmbach am Schloss Steinenhausen ab fließt der junge Main westwärts durch ein weites Tal am Nordrand der Fränkischen Alb. Nach den zwei Mittelstädten Bayreuth und Kulmbach an seinen Quellflüssen berührt er nun die ersten zwei der zahlreichen Kleinstädte an seinen Ufern mit gut erhaltenem historischem Stadtbild, dies sind das aus einer karolingischen Burg hervorgegangene Burgkunstadt und Lichtenfels (Rathaus 1740 von Heinrich Dientzenhofer, Stadtschloss, Pfarrkirche, Tortürme). In Burgkunstadt mündet als linker Nebenfluss die Wei"s"main, nicht zu verwechseln mit dem Weißen Main, der auch Wei"ß"main genannt wird. Zwischen Lichtenfels und der Kleinstadt Bad Staffelstein durchfließt der Main einen kulturell reichen, weiten Talraum. Hier steht auf einer Anhöhe über dem linken Ufer eines der bedeutendsten Bauwerke des deutschen Barocks, die nach Plänen von Balthasar Neumann erbaute Wallfahrtskirche Vierzehnheiligen. (Flussabwärts gibt es weitere Bauwerke Neumanns, besonders in und um Würzburg.) Das gegenüber liegende Ufer wird überragt von den Barockbauten des im 11. Jahrhundert gegründeten Benediktinerklosters Banz. Der Staffelberg, Bad Staffelstein und das Maintal Oberhalb von Bad Staffelstein mit historischem Stadtbild und großem Fachwerkrathaus aus dem 17. Jahrhundert liegt der 540 m hohe Staffelberg, dessen felsiges Gipfelplateau seit der Steinzeit besiedelt war. Dort wird die im 2. Jahrhundert v. Chr. vom griechischen Geographen Claudius Ptolemäus erwähnte keltische Stadt Menosgada vermutet, die um 30 v. Chr. aufgegeben wurde. In von nun an südlicher Richtung durchzieht der Main in zahlreichen Flussschlingen eine Auenlandschaft, nimmt bei Breitengüßbach von rechts die Itz auf und erreicht nach einigen Kilometern die nordwestliche Stadtgrenze von Bamberg. Hier strömt ihm als weitaus größter Nebenfluss die Regnitz zu, deren nordwestliche Fließrichtung der Main nun aufnimmt. Überragt vom romanischen Kaiserdom erstreckt sich die aus mehreren Siedlungskernen entstandene Altstadt auf beiden Ufern und einigen Inseln der Regnitz, die auch das im 15. Jahrhundert erbaute Alte Rathaus umfließt. Sie gilt als größter unversehrt erhaltener Stadtkern in Deutschland und wurde 1993 von der UNESCO als Weltkulturerbe anerkannt. In Bamberg beginnt der 1992 fertiggestellte Main-Donau-Kanal, über den bereits seit 1972 die Industrieregion um Nürnberg an das deutsche Binnenschiffahrtsnetz angeschlossen ist. Seine Kilometerzählung beginnt an der Mündung der Regnitz in den Main (Main-km 384,07) bei Bischberg. Etwa 2 km oberhalb der Regnitzmündung liegt am Nordufer der 1962 eröffnete Hafen Bambergs. Bereits 1846 war der Ludwig-Donau-Main-Kanal zwischen Bamberg am Main und Kelheim an der Donau eröffnet worden. Der im Zweiten Weltkrieg beschädigte Kanal wurde 1950 aufgegeben. Unterhalb von Bamberg fließt der nun schiffbare Main rund 20 km weit ungewöhnlich geradlinig und in westliche Richtung einschwenkend bis nach Schweinfurt. Er trennt die Haßberge rechts vom Steigerwald links. Auch dort liegen Kleinstädte mit gut erhaltenen historischen Kernen wie die Burgstadt Eltmann, Zeil mit seinem Fachwerk-Marktplatz oder Haßfurt mit der gotischen "Ritterkapelle" und dem Kloster Mariaburghausen am Ufer. In Limbach und Zeil gibt es bekannte Wallfahrtskirchen. In Schweinfurt erreicht er das so genannte "Maindreieck", die erste – vor dem "Mainviereck" – von zwei in der Landschaft auffälligen Verlaufsabschnitten des Flusses in Unterfranken. Maindreieck. Das Maindreieck und die Mainschleife bei Volkach Die zwei Schenkel des Maindreiecks spannt der Main zwischen den Städten Schweinfurt und Frickenhausen am Main sowie dem nahen Ochsenfurt und Gemünden auf, sie bilden auf der Landkarte ein nach Norden offenes abgestumpftes Dreieck. Im Frühmittelalter war diese Landschaft der Osten des Waldsassengaus. Am Maindreieck und seiner Umgebung liegt ein großer Teil der Anbaufläche des Weinbaugebietes Franken. Es beginnt mit der ehemaligen Freien Reichsstadt Schweinfurt, die später zum Schwerpunkt der Kugellagerindustrie wurde. Daher wurde die Stadt im Zweiten Weltkrieg Ziel verheerender Luftangriffe der sogenannten Operation Double Strike. Zu den Kunstschätzen Schweinfurts gehört das Alte Rathaus (1572), eines der schönsten Bauwerke der süddeutschen Renaissance. Wenige Kilometer unterhalb von Schweinfurt steht am linken Mainufer das Kernkraftwerk Grafenrheinfeld, dessen zwei jeweils 143 m hohe und mit Mainwasser betriebene Kühltürme das Landschaftsbild beherrschen. Alte Mainbrücke in Ochsenfurt, 1945 zerstörtAlte Mainbrücke und Festung Marienberg in Würzburg Nach rund 20 km auf dem südwärtigen Schenkel bildet der Fluss die "Mainschleife," an deren Scheitelpunkt die Stadt Volkach liegt, bekannt durch ihren Weinbau und die Wallfahrtskirche Maria im Weingarten. Der Main umläuft hier in weitem Bogen einen Bergsporn mit der Vogelsburg auf der Höhe, von wo aus einst der Schiffsverkehr auf dem Fluss kontrolliert werden konnte. Der südliche Teil der Mainschleife ist bis Gerlachshausen wegen der engen Flusskrümmungen bei Escherndorf durch den Schleusen- und Kraftwerkskanal Gerlachshausen (Mainkanal), für die Schifffahrt abgeschnitten. Der 6 km lange und 30 m breite, tief eingeschnittene Kanal wurde von 1950 bis 1957 im Rahmen der „Notstandsmaßnahme der wertschaffenden Arbeitslosenfürsorge“ angelegt. Dadurch entstand die sogenannte "Weininsel" mit den Weinorten Nordheim und Sommerach sowie dem Volkacher Ortsteil Hallburg. Die Volkacher Mainschleife ist vom Bayerischen Landesamt für Umwelt als Geotop und Landschaftsschutzgebiet ausgewiesen. Rund 10 km flussabwärts liegt auf dem linken Ufer die von Benediktinermönchen bewohnte Abtei Münsterschwarzach mit monumentaler Kirche. Kurz darauf folgt gegenüber das Weinstädtchen Dettelbach mit Stadtbefestigung und mittelalterlichem Erscheinungsbild. Die historische Weinhandelsstadt Kitzingen (Mainbrücke aus dem Mittelalter, Falterturm), Marktbreit (Renaissance-Rathaus, barocke Weinhandelshäuser) und Ochsenfurt (gotisches Rathaus und teilweise erhaltene Mainbrücke von 1519) liegen schon nahe der Südspitze des Maindreiecks, wo der Flusslauf seinen südlichsten Punkt erreicht. Auf dem westlichen Schenkel des Maindreiecks folgen Winterhausen, Sommerhausen, Eibelstadt und Randersacker. Beidseits des Flusses erstreckt sich dann Würzburg, die zweitgrößte Stadt Frankens. Ihre in Teilen erhaltene Altstadt umfasst bedeutende Bauwerke wie den romanischen Dom oder die Festung Marienberg. Die als Weltkulturerbe ausgewiesene barocke Residenz und die Sommerresidenz der Würzburger Fürstbischöfe mit einer Rokoko-Gartenanlage im benachbarten Veitshöchheim sind Werke Balthasar Neumanns. Der westliche Schenkel des Maindreiecks ist ansonsten weniger dicht besiedelt; nordwestlich von Würzburg gibt es an größeren Siedlungen nur die Kleinstädte Karlstadt und Gemünden, wo mit der Südwendung des Flusses das "Maindreieck" in das "Mainviereck" übergeht. Mainviereck. Der Main bei Wertheim, 1822 Eckpunkte dieses nach Norden hin offenen Vierecks sind nacheinander die Städte Gemünden, Wertheim, Miltenberg und Aschaffenburg. Der Main umfließt in diesem Abschnitt auf etwa 100 km den südlichen Teil des Spessarts. In Gemünden mündet von Nordosten der größte rechte Nebenfluss des Mains, die Fränkische Saale und in Lohr der größte Fluss aus dem Spessart, die Lohr. Ab hier wird das nun in Richtung Süden verlaufende Maintal enger, waldreich und siedlungsarm. Acht Kilometer südlich von Lohr liegt auf der rechten Seite Neustadt am Main mit einem 1250 Jahre alten ehemaligen Benediktinerkloster. Von ihm und von Würzburg ging die Christianisierung Ostfrankens im 8. Jahrhundert aus. Eine Fußgängerbrücke verbindet Neustadt mit seinem Ortsteil Erlach, einer ehemaligen Schiffersiedlung. Rothenfels zu Füßen der romanischen gleichnamigen Burg ist mit etwa 1000 Einwohnern die kleinste Stadt Bayerns. Erst am südöstlichen Eckpunkt des Mainvierecks folgen mit Marktheidenfeld und Wertheim wieder zwei Kleinstädte. Unmittelbar oberhalb Wertheims bildet der Main wiederum eine lange Schlinge, das sogenannte "Himmelreich". Dort umfließt er auf fünf Kilometer Länge einen südlich auslaufenden Sporn, der an seiner schmalsten Stelle nur 500 m breit ist. In Wertheim mit mittelalterlichem Stadtbild und Burgruine mündet von Süden die Tauber in den Main. Ab Wertheim fließt der Main in Mäandern nach Westen, wobei er die Länder Baden-Württemberg und Bayern trennt. Wertheim am linken Mainufer war badisch und gehört heute zu Baden-Württemberg, das rechtsmainische und wesentlich ältere Kreuzwertheim ist dagegen bayerisch. Das Landschaftsbild ähnelt nun dem an der östlichen Seite des Vierecks. Im gewundenen, waldreichen Tal, das den Spessart im Süden begrenzt, liegen die zwei von Burgen überragten Städtchen Stadtprozelten und Freudenberg, sowie die älteste Siedlung der Gegend, Dorfprozelten. Die südwestliche Ecke des Mainvierecks markiert die Fachwerkstadt Miltenberg an der Mündung der Mud. Viele mittelalterliche Kirchen, etwa in Frankfurt oder Mainz, wurden aus Miltenberger Buntsandstein errichtet, der von den Steinbrüchen zu den Baustellen verschifft wurde. In nun wieder nach Norden gerichteten Tal zwischen Odenwald und Spessart lag die im 17. Jahrhundert verschwundene alemannische Siedlung Grubingen, deren Kirche St. Michaelis noch bis 1778 am Mainufer stand. Es folgen weitere Kleinstädte mit gut erhaltenen Ortskernen, wie Klingenberg und Obernburg. Die Siedlungsdichte entlang des Mains nimmt nun deutlich zu. In Aschaffenburg ist der Ballungsraum Rhein-Main erreicht, die zweitgrößte deutsche Metropolregion. Das Wahrzeichen der ehemaligen kurmainzischen Residenzstadt, das Renaissanceschloss Johannisburg, liegt rechts über dem Prallufer eines weit nach Osten ausgreifenden Mainbogens; ein Wenig unterhalb das von König Ludwig I. erbaute Pompejianum. Der Untermain. Als „Bayerischen Untermain“ bezeichnet man die Landkreise Miltenberg und Aschaffenburg sowie die Kreisfreie Stadt Aschaffenburg. Dieser Bereich überschneidet sich also mit dem Mainviereck. Von Seligenstadt bis zur Mündung, also im gesamten hessischen Abschnitt, fließt der Main durch eine dicht bebaute Stadtlandschaft. Nur vereinzelt finden sich über mehrere Kilometer unbebaute Uferstrecken. Am nun frei mäandrierenden, allmählich nach Nordwesten einschwenkenden Flusslauf liegt links die auf ein römisches Kastell zurückgehende Stadt Seligenstadt mit der karolingischen Einhard-Basilika und einer staufischen Pfalz. Gegenüber liegt das zu Bayern gehörende Karlstein. Auf dem rechten Ufer, in Karlstein, entstand 1961, das erste Atomkraftwerk der Bundesrepublik. Der Versuchsreaktor wurde 1985 stillgelegt und bis Ende des Jahres 2008 abgebaut. In Kahl, der tiefst gelegenen Gemeinde in Bayern, mündet das gleichnamige Flüsschen auf von rechts in den Main. Die erste hessische Gemeinde auf dem rechten Mainufer ist Großkrotzenburg mit dem weithin sichtbaren Großkraftwerk Staudinger. Auf dem gegenüberliegenden Ufer liegt Hainburg. Beide Ufer verbindet unterhalb des Kraftwerks eine moderne Straßenbrücke, die "Limesbrücke". Auf dem rechten Ufer folgt Großauheim, heute ein Stadtteil der knapp 90.000 Einwohner zählenden Industriestadt Hanau. Linksmainische Stadtteile sind Klein-Auheim und Steinheim, dem der Hanauer Mainhafen gegenüberliegt, einer der größten Binnenhäfen am Main. Der historische Kern der ehemaligen Residenz- und Garnisonsstadt liegt auf dem rechten Ufer. Er wurde 1945 bei mehreren Luftangriffen fast ganz zerstört. Zur Neustadt Hanau führte der historische Mainkanal, dessen flussnächsten Abschnitt heute noch das Wasser- und Schifffahrtsamt Aschaffenburg als Diensthafen nutzt. Zwischen der Neustadt Hanau und dem barocken Schloss Philippsruhe in Kesselstadt verläuft parallel zum Fluss die Philippsruher Allee, zugleich ein Maindamm, der in der Mitte des 18. Jahrhunderts errichtet wurde. Unterbrochen wird die Allee von der Mündung der Kinzig, die in einem weiten Bogen fast die gesamte Hanauer Altstadt umfließt. Den Main überspannen im Bereich der Stadt Hanau insgesamt drei Brücken. Der Main bei Offenbach am Main mit dem Offenbacher Hafen Unterhalb Hanaus fließt der Main nach Westen und erreicht kurz darauf den S-förmigen Mainbogen zwischen Maintal und Frankfurt rechts und Offenbach links. Dort liegen am südlichen Ufer die Offenbacher Stadtteile Rumpenheim mit dem Rumpenheimer Schloss und Bürgel. Dazwischen liegt in der Aue das Naturschutzgebiet Schultheisweiher. Zwei Autofähren verbinden das Offenbacher Ufer mit der Stadt Maintal. Auf dem Prallufer der anschließenden Schlinge liegt linksufrig das Zentrum der 120.000 Einwohner zählenden Industrie- und Lederwarenstadt Offenbach am Main. Das markanteste Bauwerk an der Offenbacher Mainfront ist das Isenburger Schloss. Von der Schlinge eingefasst liegt gegenüber der Frankfurter Stadtteil Fechenheim. Dort tritt der Main in eines der größten zusammenhängenden Gewerbegebiete Deutschlands ein, es reicht vom Frankfurter Stadtteil Bergen-Enkheim über Fechenheim und das Ostend bis auf die südliche Mainseite nach Offenbach. In ihm befinden sich drei Mainhäfen: der Hafen Offenbach, der Frankfurter Oberhafen und der Osthafen, mit insgesamt fünf großen Hafenbecken. Im Zuge des Strukturwandels der letzten Jahre wurde ein Teil der Hafenanlagen stillgelegt. Auf der Mole des Offenbacher Hafens ist ein Beach-Club entstanden. Kurz unterhalb der Staustufe Offenbach liegt auf dem linken Ufer die Frankfurter Gerbermühle, ein beliebter Ausflugsort. Dort trafen sich im September 1815 Johann Wolfgang von Goethe und Marianne von Willemer zum Tête-à-tête. Der nun folgende Flussabschnitt in der Frankfurter Innenstadt bietet zwischen der Deutschherrnbrücke und der Main-Neckar-Brücke eine großstädtische Szenerie, die mit ihren Uferpromenaden in einer Reihe steht mit den Rheinfronten von Köln und Düsseldorf, dem Dresdner Terrassenufer oder der Binnenalster in Hamburg. Neun Brücken überspannen auf diesen gut vier Kilometern den Fluss, und zwei Strecken der Frankfurter S- und U-Bahn unterqueren ihn in den beiden einzigen Maintunneln. Bei Annäherung von Osten bietet sich das bekannte Bild mit den Türmen des Kaiserdoms und der Altstadtkirchen im Vorder- und den Hochhäusern der Skyline im Hintergrund. Auf dem rechten Ufer liegt die Altstadt, auf dem linken der Bezirk Sachsenhausen mit dem Museumsufer. Auf Höhe der historischen Alten Brücke liegt eine Insel im Main; zwischen dem Saalhof am Römerberg und der Sachsenhäuser Dreikönigskirche kreuzt ihn der Eiserne Steg. Kurz vor Ende des Innenstadtabschnitts liegt auf der rechten Seite das inzwischen als Yachthafen dienende Becken des stillgelegten Frankfurter Westhafens; auf dem ehemaligen Hafengelände entstand ein neues Wohn- und Gewerbegebiet. Einige Kilometer unterhalb der Innenstadt, an der Mündung der Nidda, liegt die heute zu Frankfurt gehörende alte Stadt Höchst erhöht über dem rechten Mainufer. Der Renaissanceturm des erzbischöflichen Schlosses, die karolingische Justinuskirche und die erhaltene Stadtbefestigung sind weithin sichtbar. Unmittelbar westlich der Höchster Altstadt folgt beiderseits des Mains der vier Quadratkilometer große Industriepark Höchst, das ehemalige Stammwerk des Chemiekonzerns Hoechst AG, auf dessen Gelände sich der "Trimodalport", ein Gewerbehafen mit Containerumschlag und Bahnanschluss, befindet. Auf der rechten Seite erscheint der Frankfurter Stadtteil Sindlingen, nach einer langgezogenen Linkskurve kommt auf der linken Seite Kelsterbach in Sicht (Schiffsanleger). Untermain im Frühmittelalter mit südlichem Seitenarm (Horlache) Kilometerstein Null an der Mainmündung auf der Maaraue in Mainz-Kostheim Am weiten Kelsterbacher Bogen liegt links ein Ölhafen (genutzt u. a. für den Frankfurter Flughafen) und Anlegestellen für Güterschiffe. Etwas erhöht über dem rechten Ufer liegt Hattersheim-Okriftel mit einem kleinen Fähranleger (Okriftel–Kelsterbach, Personen und Fahrräder, Sommerbetrieb; Möglichkeit, Boote zu Wasser zu lassen), der ehemaligen Fabrik Phrix (Teil der Route der Industriekultur Rhein-Main), sowie einer Kies- und Sandverladestelle. Auch der Fachwerkort Eddersheim unterhalb der gleichnamigen Staustufe liegt etwas erhöht am rechten Ufer. Nach Unterquerung der A 3 und der Neubaustrecke Frankfurt-Köln befindet sich links ein Ölhafen der Firma Shell Oil GmbH. Die beidseits nun wieder ländlicher geprägten Ufer sind baumbestanden; einige sandige Abschnitte werden zum Baden genutzt. Bei Raunheim verläuft auf dem linken Ufer die B 43. Die ehemalige Staustufe Raunheim ist Quartier des Yachtclubs Untermain mit Hafen und Schiffsanlegern. In der Literatur gibt es Hinweise auf einen alten Mainarm, der sich zwischen Raunheim und Rüsselsheim am Main vom Hauptarm trennte, entlang der Rüsselsheimer Stadtteile Haßloch und Königstädten floss und schließlich, mit dem früheren Neckarlauf vereint, bei Ginsheim in den Rhein mündete. Der Horlachgraben, östlich und südlich von Haßloch, lässt dies noch heute erahnen. Rechts des Mains liegt die Stadt Flörsheim mit Schiffsanleger und Bootshaus des Ruderclubs, einem Hafen für Kiesumschlag und dem Hafen des Shell-Tanklagers, links des Mains die großzügig angelegte Stadt Rüsselsheim am Main mit dem Stammwerk der Adam Opel AG. Kurz vor der Mündung, bei Hochheim, ziehen sich Weinberge bis ans rechte Ufer; diese bekannten Hochheimer Weingärten zählen bereits zum Weinbaugebiet Rheingau. Stromabwärts Hochheims und der gegenüber liegenden Gemeinde Bischofsheim überqueren die Hochheimer Brücke als Teil des Mainzer Autobahnrings und die Eisenbahnbrücke Hochheim den Main. Die letzten Orte am Main sind Kostheim auf dem rechten und Gustavsburg auf dem linken Ufer, beide waren zusammen mit Bischofsheim rechtsrheinische Stadtteile von Mainz, die 1945 durch eine alliierte Zonengrenze von der Stadt Mainz getrennt wurden. Seitdem ist Kostheim ein Stadtteil von Wiesbaden und Gustavsburg gehört zur Stadt Ginsheim-Gustavsburg. In Höhe von Gustavsburg liegt die Staustufe Kostheim als letzte Staustufe des Mains. Die Mündung in den Rhein, Mainspitze genannt, liegt gegenüber der Mainzer Zitadelle, ein anderer ehemaliger Mündungsarm wurde zum Kostheimer "Floßhafen", der mit dem Main und dem Rhein zusammen die Insel Maaraue einschließt. Nebenflüsse. Die Pegnitz in der Nürnberger Altstadt Die längsten Nebenflüsse des Mains sind die Fränkische Saale (rechts, 125 km), die Tauber (links, 114 km), die Nidda (rechts, 90 km), die Kinzig (rechts, 86 km) und die Regnitz (links, 59 km). Zusammen mit ihrem Quellfluss Pegnitz ist die Regnitz allerdings 162 km lang und damit der längste Nebenfluss. Zudem führt die Regnitz an der Mündung deutlich mehr Wasser (56,6 m³/s) als der Main (44,7 m³/s), so dass sie hydrographisch sogar als der Hauptfluss des Mainsystems gelten kann. An der Pegnitz liegt außerdem die mit Abstand größte Stadt an einem Main-Zufluss, Nürnberg. Im Folgenden sind die Nebenflüsse des Mains mit mehr als 20 km Länge aufgelistet. Der Ausbau zur Großschifffahrtsstraße. Parallel zur Einführung der Kettenschifffahrt wurde der Ausbau des Mains durch den Bau von Staustufen vorangetrieben. Er erfolgte in mehreren Schritten flussaufwärts. 1901 wurden Staustufe und Hafen Offenbach in Betrieb genommen; die Staustufe wurde 1949–1957 durch eine neue ersetzt. 1921 war mit der Eröffnung des Hafens Aschaffenburg der Abschnitt bis Aschaffenburg mit sechs Staustufen fertiggestellt; 1965–1983 wurden davon drei Stufen durch Neubauten ersetzt und drei abgebrochen. Nachdem der Main am 1. April 1921 Reichswasserstraße geworden war, schlossen das Deutsche Reich und der Freistaat Bayern am 13. Juni 1921 den Vertrag über die Ausführung der Main-Donau-Wasserstraße zwischen Aschaffenburg und der deutschen Grenze unterhalb Passau als Großschifffahrtsstraße für Schiffe bis zu 1500 t Tragfähigkeit. Noch im selben Jahr gründeten sie zur Finanzierung der Bauvorhaben die Rhein-Main-Donau AG (RMD) in München. Für die von ihr mitzubauenden Wasserkraftwerke erhielt die RMD eine Betriebskonzession bis 2050, um mit den Erträgen die Baudarlehen zu tilgen. Danach geht das Recht zur Wasserkraftnutzung auf die Bundesrepublik Deutschland über. Heute werden die Stauwehre von EON gesteuert, da EON auch die Kraftwerke nutzt. Die jeweils fertiggestellten Wasserstraßenabschnitte wurden der Wasser- und Schifffahrtsverwaltung des Bundes übergeben. Bis 1941 waren bis Würzburg weitere 13 Staustufen gebaut und der Hafen Würzburg ging in Betrieb. 1950 begann der Ausbau des Mains zwischen Würzburg und Bamberg mit 14 Staustufen. Dabei wurden die Erfahrungen der Vorkriegszeit genutzt, so dass die neue Strecke von vorneherein leistungsfähiger wurde. Eine besondere Herausforderung war der Bau der Würzburger Schleuse, um die Wasserstraße unter der historischen Alten Mainbrücke hindurch und vor der Festung Marienberg entlangzuführen. Am 25. September 1962 war zugleich mit dem Staatshafen Bamberg der Ausbau des Mains bis Bamberg vollendet. In Bamberg beginnt der Main-Donau-Kanal, der die Wasserstraßen Westeuropas mit der Donau verbindet. Zwischen Viereth bei Bamberg und der Main-Mündung liegen heute 34 Staustufen, die auf 388 km zusammen einen Höhenunterschied von 149 m (bei Mittelwasserstand des Rheins) überwinden. Die Fallhöhen an den Staustufen liegen zwischen 2,36 und 7,59 m. Die Länge der Stauhaltungen liegt zwischen 5 und 19 km. Die Schleusenkammern sind durchschnittlich 300 m lang und 12 m breit, wobei die Schleusen oberhalb Würzburgs ein Mittelhaupt haben für eine kleinere und eine größere Teilkammer zur Wasserersparnis je nach Verkehrsaufkommen. Sechs Staustufen unterhalb von Aschaffenburg haben eine zweite Schleuse, in Kostheim, Eddersheim und Griesheim mit einer Breite von 15 m. Die in der Regel dreifeldrigen Wehre haben Walzen als Verschlusskörper. Alle Staustufen sind mit Fischtreppen als Aufstiegshilfe ausgestattet. Außer Viereth und Würzburg verfügen alle Staustufen über eine Bootsschleuse. Die Gesamtausbauleistung der 33 Wasserkraftwerke beträgt 127,55 MW. Staustufen. Als Teil der Staustufe Gerlachshausen gibt es bei Volkach ein Wehr mit Bootsschleuse und Wasserkraftwerk, das für den notwendigen Wasserstand im Kanal nach Gerlachshausen sorgt. Umgekehrt ist der Schleusenkanal durch ein Hochwassersperrtor gegen Hochwasser geschützt. Über das Wehr wird eine Restwassermenge an den "Altmain" abgegeben. Zahlreiche Stauhaltungen sind zum Landschaftsschutzgebiet erklärt worden und dienen als Vorbild für Flussausbauten in ganz Europa. Zwischen der Mündung und der Schleuse Lengfurt bei Triefenstein ist die Fahrrinne ganzjährig mindestens 2,90 m tief. Der Main ist auf diesem Abschnitt für Schiffe bis 135 m Länge, Schubverbände und Koppelverbände bis 185 m Länge und 11,45 m Breite befahrbar. Er ist dort in die europäische Wasserstraßenklasse "Vb" eingeordnet. Koppelverbände und Einzelfahrer über 110 m benötigen eine Sondergenehmigung. Die Strecke bis zum Main-Donau-Kanal soll bis zum Jahr 2018 von 2,50 m auf 2,90 m Fahrrinnentiefe und 40 m Fahrrinnenbreite ausgebaut werden. Nach einem landschaftspflegerischen Begleitplan sind dabei Ausgleichs- und Ersatzmaßnahmen für Eingriffe in Natur und Landschaft vorgesehen. Bis dahin entspricht der Abschnitt ab Lengfurt der Wasserstraßenklasse "Va" (Schiffe bis 110 m Länge). Verkehrswege im Maintal. Wie an den meisten Flüssen entstanden auch am Main früh Uferwege, die für die Treidelschifffahrt genutzt wurden. Aufgrund der in Flussnähe üblicherweise höheren Siedlungsdichte und der bergigen Topographie der Umgebung diente das Maintal auch als Trasse neuzeitlicher Verkehrswege, also für Eisenbahnen und moderne Straßen. Eisenbahnen. Die Eisenbahn nutzt den größten Teil des Maintals für Ost-West-Verbindungen. Lediglich im Bereich des Maindrei- und des -vierecks kürzen die Hauptstrecken etwas ab, zum Teil wird der Flusslauf dann über Nebenstrecken erschlossen. Straßenverkehr. Der Mainlauf wird fast auf ganzer Länge von Bundesstraßen begleitet. Dies betrifft auch die beiden Quellflüsse. Den Roten Main begleitet ab Creußen über Bayreuth bis Kulmbach die Bundesstraße 85. Der Weiße Main trifft bereits wenige 100 m nach seiner Quelle auf die Bundesstraße 303, die ihn bis Untersteinach begleitet. Ab dort folgt ihm die B 289 bis Kulmbach. Diese Straße begleitet den vereinigten Main bis Lichtenfels (Oberfranken), ab dort verläuft die BAB 73 am linken Ufer bis Bamberg. Von dort bis Schweinfurt führt die B 26, die in Eltmann vom linken auf das rechte Ufer wechselt. In meist größerem Abstand folgt auch die Bundesautobahn 70, die sogenannte Maintalautobahn, von Bamberg bis Schweinfurt dem Verlauf des Maines, den sie bei Bamberg, Eltmann und Schweinfurt quert. Unterhalb von Schweinfurt fließt der Main stellenweise ohne begleitende Straße. Die B 26 nimmt den direkten Weg nach Karlstadt ohne den Umweg über das Maindreieck, die B 19 führt direkt nach Würzburg. Von Ochsenfurt bis Würzburg verläuft wieder eine Bundesstraße auf dem rechten Mainufer, die B 13, bis Karlstadt die B 27, bis Lohr dann wieder die B 26. Die dünn besiedelte Ost- und Südseite des Mainvierecks wird durch flussbegleitende Landesstraßen erschlossen. Von Miltenberg bis Aschaffenburg verläuft mit der B 469 wieder eine Bundesstraße auf dem linken Mainufer. Von Aschaffenburg über Hanau und die Frankfurter Innenstadt bis Frankfurt-Höchst verläuft die B 8 auf der rechten Mainseite, teilweise jedoch etwas abseits des Flusses. Auch die B 43 verlässt auf ihrem Weg von Hanau über Offenbach am Main und Rüsselsheim am Main nach Mainz gelegentlich das Blickfeld des linken Ufers, vor allem zwischen Frankfurt-Sachsenhausen und Kelsterbach. Auf dem rechten Mainufer begleitet in einigem Abstand zum Fluss die Bundesstraße 40 die letzten Kilometer des Mains von Hattersheim bis Mainz. Mainfähren. Nach wie vor werden am Main zwölf Fähren betrieben, obwohl in den letzten 40 Jahren bereits viele wegen Unrentabilität stillgelegt werden mussten. Die Fähren werden in der Regel von den Kommunen an die Fährleute verpachtet, belasten aber wegen der erforderlichen Zuschüsse die kommunalen Haushalte erheblich. Die Mehrzahl der Fähren ist für den Transport von Personenwagen und Lastkraftwagen bis zu einem bestimmten Gesamtgewicht eingerichtet, einige nur für Personen und Fahrräder. Ein Teil der Fähren ist freifahrend, die anderen am Hochseil geführt, aber mit eigenem Antrieb. Verkehrlich haben die Fähren nach wie vor eine wesentliche Bedeutung. Vor allem der Landwirtschaft bringen sie einen erheblichen Zeitvorteil, da sie einen Umweg von bis zu 20 km ersparen. Die Fähre zwischen Escherndorf und Nordheim, westlich von Volkach, liegt an dem durch den Schleusen- und Kraftwerkskanal Gerlachshausen abgeschnittenen Abschnitt des Mains (Altmain). Der Main in der Kunst. Prosatexte über den Main sind dagegen sehr zahlreich, vor allem Reisebeschreibungen und Feuilletons. Eine Reihe von Metaphern entstanden über den Main, z. B. "Weißwurstäquator" (um die kulturelle Grenze zwischen Nord- und Süddeutschland zu charakterisieren), "Mainlinie" (Die Sprachgrenze zwischen mitteldeutschen und oberdeutschen Dialekten) oder "Pfaffengasse des Deutschen Reiches" (wegen der zahlreichen Bistümer, bischöflichen Residenzen und Klöster am Main). Zu den Schriftstellern, die Prosatexte über den Main hinterlassen haben, zählen: Wilhelm Heinrich Wackenroder, Ludwig Tieck, Heinrich von Kleist (in Briefen an seine Braut), Clemens Brentano, Friedrich Stoltze, Rudolf G. Binding, Alfons Paquet und Eva Demski. Zahlreiche Maler haben den Fluss in ihren Werken dargestellt, u. a. Conrad Faber, Matthäus Merian, Domenico Quaglio, Gustave Courbet und Max Beckmann. Unter den frühen Fotografen des Mains ist Carl Friedrich Mylius hervorzuheben. Marschflugkörper. Ein Marschflugkörper (engl. "cruise missile", eingedeutscht: Cruise-Missile) ist ein unbemannter militärischer Lenkflugkörper mit einem Sprengkopf, der sich selbst ins Ziel steuert. Er unterscheidet sich von einer ballistischen Rakete durch den permanenten Antrieb während des gesamten Fluges sowie durch den aerodynamischen Flug, häufig unterstützt durch Tragflächen – im Unterschied zu taktischen und strategischen Boden-Boden-Raketen. Die Navigation erfolgt meist durch eine Kombination von Trägheitsnavigation, Gelände-Kontur-Abgleich, Zielgebiets-Bild-Abgleich (Digital Scene-Mapping Area Correlator, DSMAC) und Satellitennavigation, teils auch mit Unterstützung durch ein Synthetic Aperture Radar. Der Antrieb erfolgt im Allgemeinen durch ein Strahltriebwerk, als Turbofan oder auch als Ramjet, teils auch durch Raketentriebwerk, wie häufig bei schnellen Seezielflugkörpern. Die Waffe kann von U-Booten, Schiffen, Flugzeugen oder von Land gestartet werden und fliegt mit einer Höhe von 15 bis 100 Metern so niedrig, dass sie nur schwer vom gegnerischen Radar erfasst werden kann. Auch für Infrarot-Sensoren ist sie auf Grund ihrer geringen Hitzeemission nur schwer erkennbar. Kategorisierungen. Moderne Marschflugkörper können nach ihrer Größe, Geschwindigkeit und Reichweite kategorisiert werden. Entwicklung. a>, bekannter als „V1“ – Vorläufer der modernen Marschflugkörper. a>-3 schneller Marschflugkörper der USA von 1956 a> war 1959 der erste Marschflugkörper, der mit einer Kernwaffe bestückt wurde Bereits im Ersten Weltkrieg hatte es bei den kriegsführenden Nationen verschiedene Versuche gegeben. So hatte es unter anderem mit dem Kettering Bug einen selbständig gesteuerten unbemannten "aerial torpedo" – nicht zu verwechseln mit der deutschen Bezeichnung "Lufttorpedo" – gegeben, der bei 250 kg Gewicht eine Reichweite von 70 km erreichte. In Deutschland wurden bereits im Herbst 1915 mit dem Heeresluftschiff P IV (Parseval PL 16) in Berlin-Biesdorf Torpedogleiter-Versuche von der Firma Siemens-Schuckert unternommen. Später folgten ebenfalls in Biesdorf Versuche mit dem Heeres-Parseval PL25. Im Sommer 1917 wurden in Hannover (Lufthafen Vahrenwalder Heide) mit dem Heeresluftschiff Z XII (LZ 26) Torpedogleiter abgeworfen und ferngesteuert. Die Marineluftschiffe L 25 (ex Heeresluftschiff LZ 88) und L 35 unternahmen ebenfalls vom Sommer 1917 an bis zum Kriegsende 1918 Versuche mit Torpedogleitern an verschiedenen Orten, unter anderem auf dem Zentralluftschiffhafen Jüterbog. Der letzte Abwurf eines Siemens-Schuckert-Torpedogleiters erfolgte am 2. August 1918. Der Gleiter wog 1000 kg, flog 7,6 km weit und wurde aus 1.200 Metern Höhe abgeworfen. Beim Waffenstillstand hatte Siemens-Schuckert gerade eine neue Versuchsserie in Nordholz begonnen. Es ging dabei um das Riesenflugzeug R VIII (auch von Siemens-Schuckert gebaut), es kam aber nicht zu einem Abwurf. Siemens-Schuckert baute bis November 1918 etwa 100 Torpedogleiter. In Porz-Westhoven bei Köln entwickelte die Firma Mannesmann-MULAG um 1918 unter der Leitung von Villehad Forssman im Auftrag des Reichsmarineamtes unter dem Decknamen "Fledermaus" einen drahtferngesteuerten, zur damaligen Zeit auch als "Lufttorpedo" bezeichneten Lenkflugkörper. Die Erprobung fand auf einem Truppenübungsgelände bei Wahn und Spich statt. Nach dem Wechsel von Siemens wirkte Forssmann in Westhoven am Bau des Riesenflugzeugs Riese von Poll mit, der allerdings nie fertig gebaut wurde. In den 1930er-Jahren wurden in Deutschland verschiedene Typen von aus der Luft abwerfbaren Torpedos mit der Bezeichnung „LT F5b“ erprobt, die auch als "Lufttorpedos" bezeichnet wurden. Die Firma Blohm & Voss entwickelte 1942 den L 10 „Friedensengel“, der am Außenflügel der Ju 88A-4 befestigt wurde. Von dieser Weiterentwicklung der F5b wurden 450 Stück produziert. Später gab es den Nachfolgetyp „L 11 – Schneewittchen“. Von 1936 bis 1940 fanden in der Sowjetunion Versuche mit der RNII 212 statt. In eine ganz andere Richtung und Dimension ging dann der Vorläufer der modernen Marschflugkörper, die deutsche „Vergeltungswaffe“ V1, die im Zweiten Weltkrieg für Angriffe auf London und Antwerpen genutzt wurde. Im Gegensatz zu den modernen Marschflugkörpern war dieser nur mit einem einfachen Autopiloten ausgerüstet. Dieser konnte den Marschflugkörper nach Kompasskurs, Flugzeit und Flughöhe steuern. Die erreichte Zielgenauigkeit lag bei einer Kampfentfernung von 250 km bei 12 km. Das mag gering erscheinen, ist aber bei einem Flächenziel wie London (40 km × 50 km) völlig ausreichend. In den 1950er-Jahren entwickelten sowohl die USA als auch die Sowjetunion eine Reihe von Langstrecken-Marschflugkörpern mit interkontinentalen Reichweiten (USA: SM-62 Snark und SM-64 Navaho; Sowjetunion: Lawotschkin La-350 „Burja“). Technologisch besonders ehrgeizig war das US-Projekt Pluto, das ein nukleares Staustrahltriebwerk vorsah. Der Flugkörper sollte nach Abwurf der Bomben mit Mach 3 im Tiefflug weitere Minuten oder Stunden über feindlichem Gebiet kreisen, um weitere Gebiete radioaktiv zu kontaminieren und durch die Überschalldruckwelle zu zerstören. Das Projekt wurde 1964 nach durchaus erfolgreichen Testläufen jedoch gestoppt, da es der US-Regierung als zu provokativ erschien. Alle diese Projekte wurden wegen der Einführung ballistischer Interkontinentalraketen (ICBM) beendet. Ab 1980 plante die NATO, die Stationierung sowjetischer Mittelstreckenrakete vom Typ SS-20 mit der Stationierung von US-Marschflugkörpern und Pershing-II-Mittelstreckenraketen zu beantworten, bei gleichzeitigem Abrüstungsangebot an die UdSSR. Gegen diesen NATO-Doppelbeschluss (auch als „Nachrüstungsbeschluss“ bekannt) entwickelten sich in den 1980er-Jahren Proteste in der europäischen Friedensbewegung und in der breiteren Öffentlichkeit. Ab 1982 entwickelten die Vereinigten Staaten mit dem AGM-129 einen nuklear bestückten Marschflugkörper, der dank Stealth-Technologie auch von fliegenden sowjetischen Radarsystemen nur schwer entdeckt werden konnte. Nach der Fertigstellung von 460 Stück wurde die Produktion im Jahre 1993 eingestellt, da sich 1991 mit der Sowjetunion der ursprüngliche Gegner aufgelöst hatte. In der ehemaligen Sowjetunion entstanden während der 1980er-Jahre als Gegenstücke zu dem US-amerikanischen Tomahawk und CALCM eine Reihe von Marschflugkörpern: Der luftgestützte AS-15 Kent, der U-Boot-basierte SS-N-21 Sampson sowie der fahrzeuggebundene SS-C-4 Slingshot. In den 1990er Jahren wurde der strategische Marschflugkörper Ch-101 entwickelt. Moderne Marschflugkörper vom Typ Tomahawk und CALCM bildeten sowohl im Zweiten als auch Dritten Golfkrieg die jeweils erste Welle der US-amerikanischen Angriffe, um mit geringem Risiko für die eigenen Truppen die irakische Flugabwehr zu neutralisieren. Der Systempreis für die dabei eingesetzten seegestützten BGM-109-Tomahawk-Marschflugkörper betrug zwischen 600.000 bis 1 Mio. US-Dollar. In den 1990er-Jahren begannen auch mehrere europäische Nationen mit der Entwicklung luftgestützter Marschflugkörper. Im Irak-Krieg 2003 setzte die Royal Air Force erstmals den britischen Marschflugkörper "Storm Shadow" ein, der in Zukunft auch von Frankreich und Saudi-Arabien in Dienst genommen wird. Indien hat zusammen mit Russland den BrahMos-Flugkörper entwickelt, der mit 3.000 kg Startgewicht und bis zu Mach 2,8 der aktuell größte und schnellste Marschflugkörper ist. Der erste Test fand im Juni 2001 statt, die Produktion begann 2004. Der sich derzeit (Juni 2015) noch in Entwicklung befindende Flugkörper "BrahMos II" soll mit Geschwindigkeiten von Mach 5-7 Hyperschallgeschwindigkeit erreichen, die ersten Testflüge sind für 2017 geplant. Deutschland entwickelte gemeinsam mit Schweden den Marschflugkörper "Taurus", der 2005 in die Serienproduktion ging. Pakistan testete im August 2005 erfolgreich seinen Marschflugkörper vom Typ "Hatf VII Babur" mit einer Reichweite von 700 km, der mit Atomsprengköpfen bestückt werden kann. Südkorea entwickelte eigene Marschflugkörper und stellte 2006 den Typ Hyonmu-3A (auch bekannt als Cheon Ryong) mit einer Reichweite bis 500 km in Dienst. Die Volksrepublik China entwickelte nach US-Angaben 2007 einen Marschflugkörper vom Typ DongHai 10 (DH-10) mit einer Reichweite von 2.000 km. Die Volksbefreiungsarmee soll 2008 über 50 Stück verfügen. 2007 sollen 70 Staaten über insgesamt bis zu 80.000 Marschflugkörper verfügen. Im März 2013 und Oktober 2014 testete Indien erstmals einen neu entwickelten atomar bestückbaren Langstrecken-Marschflugkörper mit der Bezeichnung "Nirbhay". Abwehr von Marschflugkörpern. Mit modernen Luft-Luft-Raketen wie beispielsweise der AIM-120 AMRAAM können Abfangjäger Marschflugkörper bekämpfen. Vom Boden aus ist dies durch mehrere vernetzte und radargesteuerte Flugabwehrraketen und Flugabwehrkanonen, beispielsweise einer 35-mm-Oerlikon-Zwillingskanone mit AHEAD-Munition möglich. Margarethe von Trotta. Margarethe von Trotta (Januar 2013) Margarethe von Trotta (* 21. Februar 1942 in Berlin) ist eine deutsche Schauspielerin, Regisseurin und Drehbuchautorin. Leben. Als Staatenlose verbrachte Margarethe von Trotta ihre Kindheit und Jugend mit ihrer Mutter Elisabeth von Trotta, einer deutsch-baltischen Aristokratin, in Düsseldorf. Ihr Vater ist der Maler und Illustrator Alfred Roloff. Nach Ablegen der Mittleren Reife besuchte sie zwei Jahre die Höhere Handelsschule und arbeitete danach in einem Büro. Ihre ersten Filmerfahrungen sammelte sie anschließend bei einem Paris-Aufenthalt. Das Abitur holte sie nach zwei Jahren am Theodor-Fliedner-Gymnasium in Düsseldorf-Kaiserswerth Ostern 1960 nach und begann dann in Düsseldorf ein Kunststudium. Sie wechselte nach München, um dort Germanistik und Romanistik zu studieren. Auch dieses Studium brach sie ab, um an einer Schauspielschule Unterricht nehmen zu können. 1964 hatte sie ihren ersten größeren Auftritt in Dinkelsbühl. Durch ihre Eheschließung mit dem Verlagslektor Jürgen Moeller erhielt sie 1964 die deutsche Staatsbürgerschaft. Aus dieser Ehe stammt ihr Sohn Felix. Die Ehe wurde 1969 geschieden. Nach Auftritten in Stuttgart spielte sie 1969/1970 am Kleinen Theater am Zoo in Frankfurt am Main. In dieser Zeit übernahm sie auch Rollen in vier Filmen von Rainer Werner Fassbinder. 1971 heiratete sie den Regisseur Volker Schlöndorff (Scheidung 1991). Seit 1977 führt sie selbst Regie. Margarethe von Trotta lebte nach ihrer Trennung von Volker Schlöndorff zunächst in Italien und heute in Paris und München. 1978 klagte sie gemeinsam mit Alice Schwarzer, Erika Pluhar, Inge Meysel und vier weiteren Frauen erfolglos gegen die ihrer Meinung nach sexistischen Titelbilder des Boulevardmagazins Stern. Zwar wurde dieser Prozess verloren, dennoch gilt er als populärer Beginn im Kampf gegen Pornografie und Frauenfeindlichkeit. Sie ist Mitglied der Europäischen Filmakademie, der Deutschen Filmakademie, der Akademie der Künste Berlin, Chevalier des Arts et des Lettres, Offizier der Ehrenlegion. Im Wintersemester 2013/14 übernahm Margarethe von Trotta die Mercatorprofessur an der Universität Duisburg-Essen. Michigansee. Der Michigansee (engl. "Lake Michigan") gehört zur Gruppe der fünf Großen Seen Nordamerikas. Er liegt hoch, hat eine Fläche von 58.016 km² und eine maximale Wassertiefe von 281 m (zum Vergleich: die Schweiz hat eine Fläche von 41.287 km²). Seine Länge beträgt 494 km, seine Breite 190 km und das Ufer erstreckt sich über 2633 km. Als einziger der Großen Seen liegt er vollständig in den USA, er grenzt an die Bundesstaaten Indiana, Illinois, Wisconsin und Michigan. Der Name "Michigansee" leitet sich wahrscheinlich von "mishi-gami" ab, was in der Sprache der Anishinabe-Indianer so viel wie "großes Gewässer" (engl. "great water") bedeutet. Der Name des Bundesstaates Michigan ist wiederum dem Namen des Sees entlehnt. Durch die Mackinacstraße (engl. "Straits of Mackinac") ist der Michigansee mit dem Huronsee verbunden. Hydrologisch handelt es sich bei Michigan- und Huronsee aber um einen einzigen See, die Mackinacstraße ist mit ca. 6 km Breite die engste Stelle. Dementsprechend gibt es dort auch kein Gefälle. Höhenunterschiede zwischen beiden Seen sind durch Gezeiten bedingt. Die Strände von Nordmichigan sind die einzigen Strände weltweit, an denen man Petoskey-Steine finden kann. 1838 wurde begonnen, den Clinton-Kalamazoo-Kanal zum Lake St.Clair zu bauen, der jedoch nie fertiggestellt wurde. Am Ostufer des Sees befindet sich das Naturschutzgebiet Sleeping Bear Dunes. Am Ostufer befindet sich auch das Pumpspeicherkraftwerk Ludington. Schifffahrt. Der Schifffahrtsverkehr auf dem Michigansee hat Tradition. Im 21. Jahrhundert findet der Verkehr hauptsächlich mit modernen Fähren und Frachtschifffahrt statt. Ein Oldtimer der Schifffahrt auf dem Michigansee ist die City of Milwaukee. Schiffsunglücke. Auf dem Michigansee ereigneten sich einige der schwersten Schiffsunglücke in der amerikanischen Geschichte, die heftigen Niederschlag in zeitgenössischen Medien fanden, für viel Aufruhr sorgten und teilweise Einfluss auf neue Sicherheitsregulierungen hatten. Am 22. November 1847 kam es durch überhitzte Dampfkessel auf dem Raddampfer "Phoenix" zu einem Brand, der das Schiff zerstörte und sinken ließ; ca. 250 Menschen starben. Am 24. September 1856 ereignete sich mit dem Untergang der "Niagara" mit 60 bis 70 Toten (die Quellen gehen auseinander) eines der schwersten Transportunglücke des Bundesstaats Wisconsin. Am 8. September 1860 kam es auf dem Michigansee zum bisher schwersten Schiffsunglück in der Geschichte der Großen Seen, als der Raddampfer "Lady Elgin" nach der Kollision mit einem Schoner unterging. Etwa 400 Menschen kamen ums Leben. Weblinks. SMichigansee Megalithkultur. Als Megalithkultur ("mega" „groß“ und "lithos" „Stein“) wird unzutreffend eine Reihe nicht miteinander verwandter, europäischer bzw. zirkummediterraner archäologischer Kulturen der Jungsteinzeit und der Bronzezeit bezeichnet. Der Begriff „Megalithkultur“ beinhaltet nach Jean-Pierre Mohen drei Kriterien: ein Tumulus (Hügelgrab), lokale Begräbnisriten und „große Steine“, weitere Gemeinsamkeiten fehlen. Der Brauch, Tote in Großsteingräbern zu deponieren, entwickelte sich unabhängig voneinander in verschiedenen Teilen der Erde. Allerdings gibt es übergeordnete geistig-religiöse und soziologische Deutungsversuche. Im 19. Jahrhundert vermuteten einige Forscher hinter den Anlagen eine religiöse Bewegung. Vere Gordon Childe nahm an, dass sich diese in mehrere Sekten spaltete. Die betreffenden Bauwerke (Megalithanlagen) bestehen aus unbearbeiteten, später oder regional (Malta, Sardinien) auch aus bearbeiteten Steinblöcken. Daneben finden sich aufgerichtete erratische Blöcke oder Steine, die ein Gewicht bis zu 350 t (Grand Menhir Brisé), in der Regel aber 15–20 t haben. Die Steinsetzungen aus Megalithen enthalten oft Tote oder deren Teile. Aber auch nicht- oder nur teilmegalithische Anlagen (Barnenez) werden der Gruppe zugerechnet. Die Bauten beziehungsweise Steinsetzungen werden in Deutschland je nach Ausführung und vermutetem Verwendungszweck als "Hünengräber", Dolmen, Ganggräber, Menhire, Steinkisten, Steinkreise oder Steinreihen bezeichnet. Steinkreise heißen in Westeuropa auch Cromlech. Henges in Großbritannien und Irland können durch Steinkreise gefasst sein. Verbreitung megalithischer Bauweisen in Europa, Nordafrika und Vorderasien (gelb) Geologische Gründe. Keine Zivilisation war von der Bodenformation so abhängig wie die Megalithkultur. Der geologische Einfluss ist sowohl beim Baumaterial als auch im Hinblick auf die Verteilung der Anlagen zu erkennen. Verbreitungsgebiete sind nicht immer deckungsgleich mit archäologischen Kulturen, sondern mit Ressourcen. So ist die ansonsten einheitliche TBK im Osten ihres Verbreitungsgebietes megalithlos. Dasselbe gilt z.B. für die britische Megalithkultur, die in Ostengland keine Steinbauten errichtete. So werden die Antas in Galizien im Allgemeinen auf Granitboden aus einheimischen, lokalen Material errichtet. Lokales Material wurde verwendet, um Transportenergie zu sparen oder die besondere Beschaffenheit des Gesteins zu nutzen (Härte, Spaltbarkeit etc.) In Galizien wurden systematische Untersuchungen über den Zusammenhang zwischen der geologischen Gegebenheit und den Megalithanlagen durchgeführt. Dabei wurde ersichtlich, wie sehr die Erbauer der Anlagen von der Bodenbeschaffenheit abhängig waren. In der Umgebung von Xallas stehen sieben von acht Anlagen auf Granitböden und nur eine (Casa dos Mouros) auf paläozoischen Sedimenten. Fünf sind aus anstehendem Material errichtet worden, während für die Übrigen Material aus einer Entfernung von 1,5 bis 2 km herangeschafft wurde. Demnach wurde Granitgestein dem paläozoischen Sediment vorgezogen, da letzteres schwer auszugraben, zu bearbeiten und zu wenig widerstandsfähig ist. Mittel- und Nordeuropa. Seit etwa 4200 v. Chr. in der Norddeutschen Tiefebene zwischen den Niederlanden und der Weichsel sowie im südlichen Skandinavien nachgewiesen, erbauten die Träger der Trichterbecherkultur ebenso wie der primär in Westfalen und Hessen verbreiteten Wartberg-Kultur (westliche TRB-Gruppe) ab 3500 v. Chr. die zu dieser Zeit völlig neuartigen Anlagen. Vorwiegend mittels großer Findlinge wurden große, teilweise begehbare Kammern errichtet, in denen ausgewählte Tote und Beigaben deponiert wurden. Die unter dem volkstümlichen Namen „Hünengräber“ (Hüne = Riese) bekannten Anlagen dienten einer Siedlungskammer oder einer Region als Grablege. Sie wurden über einige Generationen genutzt und dann verschlossen und mit einem Erdhügel bedeckt. Daneben sind auch Mauerkammergräber, Monolithgräber und hölzerne Totenhütten bekannt. Dem gegenüber steht die Tradition der aus Holz und Erde errichteten Kreisgrabenanlagen, die vorwiegend im Bereich der östlichen TRB und der östlichen Linearbandkeramik zwischen 4.900 und 4.000 v. Chr. bzw. entlang ihres Siedlungsweges zwischen der unteren Donau und der Nord-/Ostsee errichtet wurden. Aufgrund ihrer Bauweise aus Holz gelten sie zwar nicht als Megalithtechnik, sind aber in ihren Ausmaßen (bis zu 150 m Durchmesser) durchaus vergleichbar. Ihr Erhaltungszustand ist gegenüber der Megalithtechnik naturgemäß weniger langlebig. Eine Mischung beider Bautraditionen ist im Bereich Deutschland feststellbar und begründet die enorme Vielfalt und Experimentierfreude der Megalithtechnik. Die Megalithanlagen wurden durch die Angehörigen der Schnurkeramik, der Kugelamphoren-Kultur und der Glockenbecherkultur teilweise ausgeräumt und nachgenutzt. Zugleich schufen diese aber auch neue Megalithbauten und Kreisgrabenanlagen. Im Mai 2009 wurde in Niedersachsen die Autoferienstraße „Straße der Megalithkultur“ eingeweiht. Sie verläuft von Osnabrück über Bramsche, Fürstenau, Meppen und Wildeshausen bis nach Oldenburg. Die Ferienstraße ist ausgeschildert. Bretagne, Normandie, Irland und Großbritannien. Megalithreihen bei Carnac (Frankreich, Bretagne) In der Bretagne ab etwa 4500 v. Chr. wurden wie auch später auf den Britischen Inseln megalithische Bauten oder Steinsetzungen errichtet, die auch die Shetlandinseln und die Orkney (Maes Howe, Ring of Brodgar) erreichten. Sie werden in verschiedene Typen eingeteilt; siehe Nordische Megalitharchitektur und Britische Megalithik. Die bretonischen Anlagen galten lange als die ältesten in Europa. Forschungen 2006 erbrachten in Rots und Ernes, bei Caen und Colombiers bei Alençon, alle in der Normandie, noch ältere Daten. Besonders in der Bretagne, Irland und Großbritannien wurden neben diesen großen Megalithanlagen etwa ab 3200 v. Chr. Steinkreise und Steinreihen errichtet, deren bekannteste Beispiele Stonehenge (Salisbury, England), Callanish (Isle of Lewis, Schottland) und Carnac (Bretagne) sind. Ihre genaue Aufgabe ist unbekannt. Neben der Verwendung zur Anzeige astronomischer Daten wie der Sonnenwende werden auch kultische Funktionen angenommen. Die Interpretation mancher der Darstellungen als Dolmengöttin geht auf Henri Breuil zurück und stützt sich zum Teil auf eine fehlerhafte Umzeichnung. Iberische Halbinsel. Auf der iberischen Halbinsel begann die Errichtung von Großsteingräbern mit dem Epi-Cardial und setzte sich bis in die kupferzeitliche Almeriakultur fort. Sie sind mit Ausnahme der Ostküste überall zu finden. Besonders häufig sind Großsteingräber in Portugal und den Randregionen Spaniens, Andalusien, Asturien und Galicien. Eine späte Version entstand auf den Balearen mit Cuevas, Navetas, Talayots Hypostyloi und Taulen. Westeuropa und westliches Mittelmeer. Die Westschweiz, Belgien, Südfrankreich, Aquitanien, Süditalien, Nordafrika und die westmediterranen Inseln Balearen, Korsika, Sardinien, Sizilien und Malta besitzen ebenfalls mehr oder minder bedeutende megalithische Bauten. Im mittleren Westen Frankreichs findet man eine bedeutende Gruppe von Tumuli, die neolithische Nekropole von Bougon, deren ältesten Teile auf 4700 v. Chr. datiert werden. Auf Malta wurden Tempel aus großen bearbeiteten Steinblöcken errichtet, was an dem guten Ausgangsmaterial (weicher Globigerinenkalkstein) lag. Sie besitzen bautechnisch keinerlei Parallelen im Neolithikum Europas. Auch Dolmen (Ta Cenc) wurden später auf dem Archipel errichtet. Felsgräber. Die in den Fels gehöhlten Anlagen (z. B. das Hypogäum von Ħal-Saflieni, die Felsengräber der Balearen (Cuevas) und Sardiniens Domus de Janas) werden zwar nicht als gleichartige Phänomene verstanden, sie sind aber entweder die Vorbilder (Mallorca, Malta und Sardinien) oder Begleiter der westmediterranen Megalitharchitektur. Dolmen treten dagegen auf diesen Inseln erst in der Bronzezeit auf. Ähnliche Formen finden sich in Apulien, auf Sizilien und in Nordafrika (Tunesien, Algerien). Dort wurden Dolmen von den Numidern bis in die römische Zeit für Bestattungen erbaut (Madracen, Tipasa, Tin Hinan). Es gibt auch Hybridformen, die teils als Dolmen und teils als Felsgrab angelegt sind. Südosteuropa und Türkei. In Thrakien, im Grenzgebiet zwischen Bulgarien, Griechenland und der Türkei sowie in Abchasien (Georgien) sind Dolmen und Menhire aus, teilweise bereits geschichtlichen Epochen. In der Türkei finden sich Megalithen in Südostanatolien und wenig bis unerforschte um den Çıldır See und auf seiner Insel Akçakale, in Nordostanatolien. Weltweit. Megalithstrukturen finden sich auch außerhalb Europas, beispielsweise in der Türkei, in Georgien, Syrien und Palästina, aber auch auf der Osterinsel oder in den Hochkulturen Mesoamerikas, in Indien, Indonesien und Korea. In Südamerika entstand eine vorkolumbianische Großsteinarchitektur (Tiahuanaco). In Afrika finden sich megalithische Bauten in Marokko, Tunesien, Algerien und der Zentralafrikanischen Republik sowie die senegambischen Steinkreise in Gambia und in Senegal. Entstehung, Ausbreitung und Träger. Ältere Theorien (Vere Gordon Childe) gingen davon aus, dass sich die Megalithidee durch missionierende Seefahrer entlang der Atlantikküste ausbreitete. Die Theorien über die alleinige Verbreitung der Megalithidee durch Wanderung (Hyperdiffusionismus) werden heute jedoch mehrheitlich abgelehnt. Selbst in Europa liegen entweder zu große Zeiträume oder zu große Entfernungen zwischen dem Auftreten der regionalen Megalithbauformen. So spricht einiges für eine unabhängige homologe Entwicklung, die bei verschiedenen Kulturen zu unterschiedlichen Zeitpunkten auftrat. Regional ist eine Verbreitung astronomischer Kenntnisse und die Errichtung observatorischer Anlagen auch abseits der Megalithregionen gegeben, bei wenigen Megalithanlagen ist jedoch ein astronomischer Bezug belegt. "Primäre Ursache" für die Entstehung der europäischen Megalithkultur war die Neolithisierung Europas, was sich in den Regionen mit Steinressourcen im Verteilungsmuster der Megalithbauten zeigt. Das Neolithikum breitete sich in Europa in zwei Strängen von Süden nach Norden aus und erreichte Mitteleuropa um die Mitte des 6. vorchristlichen Jahrtausends, wobei nach populationgenetischen Untersuchungen etwa durch Luca Cavalli-Sforza und Bryan Sykes (beim sog. Cheddar-Mann) mindestens zwei Populationswellen nachgewiesen werden konnten, die beide aus der Levante kamen. Was Europa angeht, so ging die Wissenschaft vor einigen Jahren von bis zu fünf "Entstehungszentren" der Megalithkultur aus, heute sind es nur noch Westfrankreich und die Iberische Halbinsel. Diese atlantische Verbreitung ist im Gegensatz zu den nordmitteleuopäischen Ganggräbern und Dolmen, die nach 3500 v. Chr. entstanden, sehr alt. Noch jünger sind diese im westmediterranen Inselbereich. Die Trichterbecher-Kulturen führen 3500 v. Chr. die megalithischen Traditionen ein, kennt aber auch andere Bestattungsformen, und nur wenige der damals lebenden Menschen (max. 3 %) wurden in der 700 Jahre währenden Phase megalithisch bestattet. Der Cairn von Barnenez zeigt, dass die "Idee zum Bau" solcher Anlagen aus kleinformatigen Steinen entstand. Die Küsten der Bretagne sind überzogen mit Steinmaterial, das vom Meer aufgeschlossen wurde. Bereits zuvor gab es Tumuli, in denen bestattet wurde. Die Verwendung eines dauerhaften Materials bot sich insbesondere im Küstenbereich an. Johannes Müller formuliert: „Während Ganggräber (gemeint sind Allée couvertes bzw. Galeriegräber) als typisches atlantisches Architekturelement bereits in Vorläufergräbern des Mesolithikums in der Bretagne und auf der Iberischen Halbinsel verbreitet waren, kann die trapezartige Hügelform der ersten Megalithanlagen als Nachahmung der kontinentalen Langhügel betrachtet werden. Die Hügelform breitete sich von Nordpolen Richtung Westen, über das Pariser Becken bis in die Bretagne aus.“ Geistig-religiöse Interpretationen. Für Andrew Sherratt gelten Megalithbauten als Hauptmerkmal der Bauernkulturen, z. B. der Trichterbecher-Kultur (TBK) Nordmitteleuropas und repräsentieren ihre Wertvorstellungen und mythisch-theistische Glaubenswelt. Megalithanlagen waren mit einer Heiligkeit ausgestattet, die von den nachfolgenden Kulturen übernommen wurden und repräsentierten eine Bedeutung, die der "Platz" für die Bauern hatte, waren Schauplatz regelmäßiger Rituale und Zeremonien und wurden errichtet in der Hoffnung, dass sie immerfort über die jährlichen Zyklen des Lebens hinweg bis in die Unendlichkeit Bestand hätten, quasi als Orte mit der Funktion eines kollektiven Gedächtnisses und einer sakralen Landschaftsgestaltung, die sich mitunter zu Zentralheiligtümern mit starker Bindewirkung für die Gemeinschaft entwickelten. Erst die zunächst weit mobileren Schnurbandkeramiker lösten diese Tradition ab und gingen zu kleinen, individuellen Gräbern über. Die kreisförmigen Anlagen der Britischen Inseln, die sog. Henge-Monumente wiederum hätten astronomische Bezüge. Nach der Encyclopedia Britannica kann der Brauch möglicherweise auf einem Kult der Toten und Ahnen beruhen, denen solche Steine eine gewisse Dauerhaftigkeit und monumentale Form verlieh. Teilweise habe man wohl auch geglaubt, dass die Ahnen in ihnen wohnten. Einzelne Steine wie die Menhire seien aber schwieriger zu erklären. Wo sie jedoch in menschliche Form gebracht wurden, könnten sie Symbole des Sitzes der Ahnen gewesen sein. Eine einheitliche Deutung aller megalithischen Monumente sei jedoch nicht möglich, und es sei sicher auch falsch, von einer regelrechten megalithischen Religion zu sprechen, vielmehr solle man bei megalithischen Monumenten besser von einer großartigen Manifestation von Ideen sprechen, die durchaus recht unterschiedlich gewesen sein könnten, unter denen jedoch der Totenkult eine wichtige Rolle gespielt habe. Eine ähnliche Meinung vertritt auch Hermann Müller-Karpe, insbesondere nach Auswertung von Begleitfunden, Idolen, anthropomorphen Stelen, Ritualobjekten und ikonographischen Objekten wie Stierhörnern usw., die seines Erachtens für die iberischen Megalithe eine totenkultische Bedeutung erkennen lassen, zusammen mit einer religiösen Heilshoffnung, die „in neuer Weise die Ewigkeitshoffnung in Form einer expliziten Jenseitsexistenz einbezog“. Außerdem waren sie offenbar Orte, in denen sich die Transformation der Toten zu Ahnen vollzog, wo aber auch die Welt der Toten von der der Lebenden abgegrenzt wurde, wobei oft auffällt, dass es bei der Anlage von Gräbern keine Sichtverbindung zu den Wohnorten und Arealen der Lebenden gibt. Klaus Schmidt urteilt über die megalithischen Anlagen mit ihren Großskulpturen in dem frühneolithischen Göbekli Tepe in Anatolien: „Bei der Suche nach Vergleichen für die anthropomorphen Pfeiler der Steinzeit stößt man schnell auf die europäischen Menhire und ihr nahöstliches Pendant, die Mazzeben (bzw. Masbot) des semitischen Kulturkreises. Ohne dass eine wie auch immer geartete inhaltliche Übereinstimmung der steinzeitlichen Pfeiler mit den genannten jüngeren Phänomenen erweisbar wäre, soll angemerkt sein, dass Menhire und Mazzeben am ehesten als Behausung eines Numens – einer verehrten Gottheit oder eines Totengeistes – gedeutet werden können.“ Daraus zieht er den Schluss, dass Göbekli Tepe als „Monument des Totenkultes zu sehen sei“. Entsprechend urteilt Victor Maag für die weit jüngeren chalkolithischen Megalithe Palästinas (um 4000 v. Chr.), die Megalithe seien Sakralorte gewesen, die von späteren Völkern Palästinas wie den Kanaanäern und Israeliten übernommen und ihren eigenen Anschauungen angepasst worden seien. Von den Schöpfern der Mazzeben, dem von ihnen so genannten „Volk der Totengeister“, hätten sie auch den Brauch übernommen, dort zu schlafen, um Wahrträume zu bekommen, wie dies etwa in der hebräischen Bibel und der ephraimitischen Kultlegende für den Erzvater Jakob beschrieben ist, dem am Stein von Bethel Gott El erschien (Traum von der Himmelsleiter, Gen. 28, 10–22), wonach der Stein zum Kultzentrum wurde. Allerdings sei wohl nur hervorragenden Toten ein solcher Menhir errichtet worden. „Ihnen baute man Dolmen als steineren Häuser, stellte ihnen einen einzelnen großen Felszahn oder eine Felsplatte auf, worin sie sich niederließen, oder man umgab ihr Grab, weil an ihm die einstige ‚Macht‘ der Verstorbenen spürbar wurde, mit einem Cromlech als Abschrankung. In diesem magischen Kreis wurde – jedenfalls durch ein entsprechendes Ritual – der Tote gebannt, damit er nicht herumflanierte. In einzelnen Cromlechs mögen auch ganze Sippen ihre Toten bestattet haben. Solche Cromlechs – die Semiten, die sie in Palästina antrafen, nannten sie Gilgal („Kreis“) – schließen oft eine oder mehrere Mazzeben ein, wodurch seine Erklärung seiner Ansicht nach an Wahrscheinlichkeit gewinnt.“ Soziologische Interpretationen. Studien und Experimente haben gezeigt, wie hoch das technische Wissen der Erbauer von Dolmen gewesen sein mag. In einem Experiment von 1979 waren 200 Menschen notwendig, um einen 32 Tonnen schweren Steinblock zu ziehen und aufzurichten, der immer noch viel leichter war als die 100 Tonnen mancher Monumente. Es ist jedoch nicht gesichert, dass dies den prähistorischen Methoden entspricht. Auch der Transport solcher Blöcke über oft viele Kilometer vom Steinbruch zum Ort des Baues (bei Stonehenge bis zu 380 km) erforderte eine ausgeklügelte Logistik, die nur einer gut organisierten größeren Gemeinschaft zur Verfügung stand. Allerdings weist Andrew Sherratt darauf hin, dass Großbauten wie die europäischen Megalithgräber im Prinzip auch von kleinen Gemeinschaften ohne hierarchische Gesellschaftsstruktur erbaut worden sein könnten. Ob nun große, hierarchisch organisierte oder kleine, wenig geschichtete Gruppen: Die soziale Bedeutung dieser kollektiven Arbeiten muss erheblich gewesen sein. Großbauten, die nur größere und gut organisierte Menschengruppen haben errichten können, sind als Gemeinschaftsleistung zu verstehen. In jedem Fall müssen Ort und Geschehen für die Gemeinschaft aber so bedeutend gewesen sein, dass das Individuum jenen enormen Arbeitseinsatz im Kollektiv zeigte, ohne den einige Anlagen nicht denkbar wären und in diesem Sinne gelten sie auch als Monumente der Sesshaftwerdung mit teilweise überregionaler Bedeutung, da sie benachbarte Gemeinschaften mitunter auch rituell miteinander verbanden oder das Land gar netzartig überzogen, wobei sie jeweils Sichtverbindung zueinander hatten, wie etwa die schwedischen und norddeutschen Megalithgräber des 4. vorchristlichen Jahrtausends zeigen. Sie dienten somit als rituelle Zentren einer durch die bäuerliche Lebensweise bedingten neuen Religion, mit deren Hilfe sich die Megalithbauern des Ackerlandes bemächtigt hatten, das sie nun ernähren musste. Und sie dienten als Markierungen des Territoriums, das gegen andere Gruppen behauptet werden musste, wie vor allem Colin Renfrew vermutete. Ob aber der ökonomische Übergang zu Ackerbau und Viehzucht, die sog. Neolithische Revolution, alleiniger Auslöser der Megalithik gewesen ist, bleibt vor allem für deren Frühphase an der Atlantikküste Nordeuropas fraglich, denn hier fehlen Siedlungen, die Megalithbauten zugeordnet werden könnten. Dass in einigen der Grabbauten relativ wenige Bestattungen gefunden wurden, kann zudem darauf hindeuten, dass in einigen Regionen eine gesellschaftliche und wahrscheinlich auch religiöse Hierarchie existierte; an bestimmten Orten (Bougon in Frankreich und Knowth in Irland) wird diese besonders deutlich. Aber auch geregelte Ausräumprozesse sind denkbar, zudem ist in sauren Böden, wie in großen Teilen Irlands und in der nordeuropäischen Tiefebene ohnehin nicht mit Knochenerhaltung zu rechnen. Klaus Schmidt sieht die Bauten von Göbekli Tepe als die Anfänge einer arbeitsteiligen Gesellschaft, eine der Vorbedingungen bäuerlicher Ökonomie. In Wessex lässt sich nach Chris Scarre im Endneolithikum ein Konzentrationsprozeß beobachten, der mit Stonehenge kulminierte, für dessen Errichtung Millionen von Arbeitsstunden nötig gewesen sind. Nach neueren Untersuchungen könnten zudem auch andere Faktoren bei der Nutzung eine Rolle gespielt haben. So wird etwa für Stonehenge die Rolle als medizinisches Zentrum vermutet, zu dem die Kranken pilgerten, um dort Heilung zu suchen, da sich hier das medizinische Wissen der Zeit auch personell konzentrierte. Moa. Die Moa (Einzahl: der Moa) (Dinornithiformes) waren flugunfähige, heute ausgestorbene Vertreter der Laufvögel. In historischer Zeit waren sie mit neun Arten über beide Inseln Neuseelands verbreitet. Merkmale. Als Urkiefervögel (Palaeognathae) besaßen Moa einen "palaeognathen" Gaumen, das heißt, sie zeigen im Gegensatz zu den so genannten Neukiefervögeln einen "Pterygoid-Palatinum-Komplex" (PPC), der aus den Schädelknochen Flügelbein (Pterygoid), Gaumenbein (Palatinum) und Pflugscharbein (Vomer) besteht. Sie glichen anderen Laufvögeln in einer Anzahl anatomischer Merkmale: Ihre Ober- und Unterkiefer endeten jeweils in einem dreiteiligen Hornschnabel ("Rhamphotheca"), deren mittlerer Kamm flach und von den jeweils seitlichen Schnabelteilen durch Furchen getrennt war. Der Nasalfortsatz des Zwischenkieferbeins war unpaarig und nicht mit dem "Nasale" verschmolzen. Im Beckengürtel war das Fenster zwischen Darmbein und Sitzbein ("Foramen ilioischiadicum") länglich und nach hinten nicht abgeschlossen. Das breite und flache Brustbein war ohne Anzeichen eines Brustbeinkiels ("Carina sterni"). Durch folgende abgeleitete Merkmale des Skeletts, in denen sich Moa von anderen Laufvögeln unterschieden, ist die Ordnung der Moa (Dinornithiformes) definiert: Flügel fehlten völlig. Vom Schultergürtel lag nur ein verkümmerter "Scapulocoracoid" ohne Anzeichen eines Schultergelenksockels vor. Das Becken war breit im Bereich der Hüftgelenkpfanne und dahinter. Das Brustbein zeigte gut ausgeprägte seitliche Fortsätze. Das fußwärtige Ende des Schienbeins war mit einem Sehnenkanal ausgestattet, der von einer knöchernen Verbindung überbrückt wurde. Das Laufbein besaß zwei Hypotarsalkämme anstatt eines. Moa besaßen 21 bis 23 Halswirbel, 6 Brustwirbel, 18 Beckenwirbel und 11 Schwanzwirbel, wobei die letzten Schwanzwirbel nicht zu einem "Pygostyl" verschmolzen waren. Eine Anzahl Schädelmerkmale kommt zu den genannten Charakteristika hinzu. Die meisten Moa-Arten waren kurzbeinig und so groß wie ein Truthahn. Hingegen waren die Weibchen der beiden Arten der Gattung "Dinornis" die größten Vögel Neuseelands. Ihr Gewicht betrug etwa 180 Kilogramm, nach anderen Schätzungen bis zu 270 Kilogramm. Sie hielten den Kopf nach vorne gestreckt und in Höhe des Rückens oder darunter; dies war der Form der Wirbelsäule geschuldet, die vor den Brustwirbeln abwärts gebogen war, mit dem tiefsten Punkt zwischen den Wirbeln 12 und 16 (vom Schädel aus gezählt); die vorderen Halswirbel waren wiederum so kurz, dass sie kaum zur Erhöhung des Kopfes beitrugen. Somit besaßen die größten Vertreter der Moa, die in älteren Rekonstruktionen mit aufrechtem Hals gezeigt wurden und somit höher als ein Afrikanischer Strauß gewesen wären, Kopfhöhen von kaum mehr als zwei Metern. Die größten bekannten Exemplare von Eiern der Moa waren 40 Zentimeter hoch und hatten ein Gewicht von etwa 4500 Gramm, damit entsprach ihr Inhalt dem von mehr als 80 durchschnittlichen Hühnereiern. Verbreitung und Lebensraum. Bei den Moa gab es ursprünglich einige Missverständnisse wegen ihres Habitats. Man verglich sie mit heute lebenden großen Laufvögeln wie Straußen und Nandus und leitete daraus ab, dass sie Vögel des offenen Geländes gewesen sein müssten. So beschrieb der Geologe Julius von Haast, der sich als Erster mit diesen Vögeln intensiv auseinandersetzte, Moa als Vögel der Savanne und des Waldrandes, die kaum jemals in den Wald vordrangen. Bis in die 1950er Jahre blieb diese Theorie verbreitet. Dann erst zeigte die Palynologie, dass Neuseeland vor der Ankunft der Māori mit Ausnahme der subalpinen Zonen vollständig bewaldet war, die Grasländer also keineswegs eine natürliche Landschaft waren. Zudem ergab sich aus der Untersuchung von Mageninhalten, dass alle Arten Knospen, Blätter und Früchte von Waldpflanzen fraßen. Moa lebten auf der Nord- und der Südinsel Neuseelands. Zwei Arten waren ausschließlich auf der Nordinsel, fünf nur auf der Südinsel verbreitet; die anderen zwei Arten fanden sich auf beiden Inseln. Nur von einer "Dinornis"-Art fand man auch spärliche Überreste auf Stewart Island. Lebensweise. Moa waren ausschließlich Pflanzenfresser. Durch Untersuchungen der Muskelmägen bei besonders gut erhaltenen Moa-Fossilien konnte man feststellen, dass "Dinornis" offenbar hauptsächlich Zweige abweideten, während "Emeus" und "Euryapteryx" weichere Kost wie Blätter und Früchte zu sich nahmen. Von Vertretern anderer Gattungen sind keine Mageninhalte bekannt, jedoch bis zu fünf Zentimeter große Magensteine (Gastrolithen). Für einen Anteil tierischer Nahrung gibt es keine Anhaltspunkte. Moa legten ein bis zwei Eier pro Gelege. Man hat bisher etwa dreißig erhaltene Moa-Eier und unzählige Schalenreste gefunden. In den seltensten Fällen gelang es allerdings, die Eier einer Art zuzuordnen. In einem Fall fand man Überreste eines wahrscheinlich brütenden Moa mitsamt Ei, was die Zuordnung einfach machte. In anderen Fällen schloss man durch Vergleiche der Häufigkeit von Moa- und Eier-Fossilien in bestimmten Regionen auf Zusammengehörigkeit. Auffällig ist, dass Moa-Eier ungewöhnlich groß sind. So war das Ei eines "Euryapteryx curtus", eines nur 20 Kilogramm schweren Moa, ebenso groß wie das des sehr viel größeren Emus. Die Eier der "Dinornis"-Weibchen, der größten aller Moa, waren mit Maßen von 24 × 18 cm und Volumina von etwa 4300 cm3 deutlich größer als ein Straußenei und etwa 90-mal so groß wie ein mittleres Hühnerei. Die Größe der Eier lässt den Schluss zu, dass die frisch geschlüpften Jungmoa weit entwickelt und in hohem Maße selbstständig waren. Auch über die Laute, die Moa von sich gaben, konnte man durch die Untersuchung eines mumifizierten "Euryapteryx" Klarheit erlangen. Bei diesem bildet die Luftröhre eine 1,20 Meter lange Schleife, eine Struktur, die man ähnlich beim Trompeterschwan findet. Ein solches Organ ermöglichte dem Vogel, sehr laute und weit tragende Rufe zu erzeugen. Ob andere Moa-Gattungen vergleichbare Vorrichtungen hatten, ist im Moment noch Spekulation. Vor der Ankunft des Menschen war der Haastadler der einzige Feind der Moa. Für ihn waren vor allem die kleinen und mittelgroßen Arten die Hauptbeute. Doch auch die riesigen Weibchen der beiden "Dinornis"-Arten fielen dem gigantischen Greifvogel gelegentlich zum Opfer. Dies weiß man von der Untersuchung der Überreste verschiedener Moa, die schwere Verletzungsspuren des Beckens aufweisen. Sie deuten darauf hin, dass der Adler seine Beute von hinten attackierte. Die Beckenknochen wurden von den Adlerkrallen regelrecht durchstochen. Wachstum, Ontogenese und Populationsstruktur. Gegenüber allen anderen Vogelgruppen, auch anderen Ratiten, zeigten Moa als extreme K-Strategen eine lange Wachstumszeit sowie ein sehr spätes Erreichen der sexuellen Reife. Bei histologischen Untersuchungen der Rindengewebe verschiedener Beinknochen (Oberschenkelknochen, "Tibiotarsus", "Tarsometatarsus") konnten Turvey u. a. (2005) in vier der sechs bekannten Gattungen eine deutliche Zonierung der äußeren Knochenrinde und mehrere jahreszeitlich bedingte Wachstumspausen, so genannte LAGs (englisch: "Lines of Arrested Growth", „Jahresringe“) nachweisen. Sie zeigen, dass die betreffenden Individuen erst nach mehreren Jahren diskontinuierlichen Wachstums ihre endgültige Größe erreichten. Die Riesenmoa der Gattung "Dinornis" wichen von diesem Schema ab. Als Folge eines ausgeprägten Sexualdimorphismus kamen die Weibchen, früher fälschlich als eigene Art "Dinornis giganteus" klassifiziert, auf ein Gewicht von über 200 Kilogramm, während die Männchen etwa bis zu 85 Kilogramm schwer wurden (Bunce u. a. 2003, Huynen u. a. 2003). Um diese Körpergrößen zu erreichen, war das Wachstum der Vertreter der Gattung "Dinornis" offenbar gegenüber dem anderer Moa-Gattungen beschleunigt: Ihr äußeres Knochenrindengewebe (Kortikalis) ist von vielen Blutgefäßen durchzogen, zeigt kaum Zonierungen und weist nur in wenigen Fällen LAGs auf. Offenbar waren die "Dinornis"-Arten nach etwa drei Jahren ausgewachsen, während manche der kleineren Moa wie "Euryapteryx" bis zu neun Jahre dafür benötigten. Um die Altersstruktur von Moa-Populationen aufzuklären, wurden die Moa-Knochen verschiedener Fossilfundorte systematisch untersucht (Turvey und Holdaway (2005)): Es stellte sich für den Fundort Bell Hill Vineyard Swamp (nahe Waikari, North Canterbury auf der Südinsel) heraus, dass nur gut ein Viertel (27,5 %) der dort gesammelten "Dinornis-robustus"-Knochen nicht ausgewachsenen Tieren angehörte, während der Rest von ausgewachsenen, mehrheitlich geschlechtsreifen Individuen stammte. Ähnlich wie es bei den rezenten Kiwis der Fall ist, waren bei manchen der ausgewachsenen Tiere die Mittelfußknochen nicht vollständig verwachsen, was darauf hindeutet, dass sie noch nicht geschlechtsreif waren. Der auffällig geringe Anteil fossil überlieferter Jungtiere könnte darauf hindeuten, dass ein sehr hoher Anteil der Nachkommen das Erwachsenenalter erreichte. Diese Interpretation ist jedoch nur dann zutreffend, wenn die vorliegende Grabgemeinschaft die Verhältnisse einer tatsächlichen Population repräsentiert. Turvey u. a. interpretieren die langsamen Wachstumsraten und die Verzögerung der Geschlechtsreife bei Moa als Ergebnis einer Anpassung an Lebensräume, die frei von räuberischen Säugetieren waren. Die sehr geringe Reproduktionsrate war dafür verantwortlich, dass die Verfolgung durch den Menschen zum schnellen Aussterben führte, bevor andere Faktoren wie beispielsweise der Verlust von Lebensraum sich negativ hätten auswirken können. Ein weiterer, reicher Fundort von Moa-Fossilien ist, ebenfalls in North Canterbury, das Pyramid Valley. Die Ausrottung. Auffällig ist, dass Moa in den Mythen und Sagen der Maoristämme nicht vorkommen. Man konnte daher davon ausgehen, dass ihr Aussterben schon so lange zurückliegt, dass die Existenz der Riesenvögel über die Generationen in Vergessenheit geraten war. Inzwischen lässt sich die Geschichte der Ausrottung recht gut rekonstruieren. Am Ende des 13. Jahrhunderts erreichten polynesische Einwanderer das zuvor wahrscheinlich menschenleere Neuseeland und begannen mit der Auflichtung der geschlossenen Wälder. Frühe polynesische Siedlungsplätze enthalten große Mengen von Moaknochen. Mit Ausnahme von "Pachyornis australis" hat man von jeder Moa-Art Überreste in Verbindung mit Menschen gefunden. Die Moa hatten abgesehen vom Haastadler keine natürlichen Feinde. Allgemein lässt sich bei Vögeln, die auf raubtierfreien Inseln leben, ein Fehlen von Flucht- oder Abwehrverhalten beobachten. So löste wahrscheinlich auch bei den Moa das Auftauchen von menschlichen Jägern weder Flucht noch Gegenwehr aus. Worthy und Holdaway mutmaßen, dass die Moa-Jagd eher einem „Einkauf im Supermarkt“ als einer Jagd gleichgekommen sein dürfte. Schon die polynesischen Hinterlassenschaften aus der zweiten Hälfte des 14. Jahrhunderts weisen keine Moaknochen mehr auf. Dies lässt auf einen extrem kurzen Ausrottungszeitraum schließen. Die Ursprungsbevölkerung Neuseelands wird heute auf 200 Menschen geschätzt. Holdaway und Jacomb machten im Jahr 2000 den Versuch, die Ausrottung der Moa zu rekonstruieren, und kamen für manche Regionen auf extrem kurze Zeiträume; so machten sie für die Coromandel Peninsula einen Zeitabschnitt von nur fünf Jahren für die Ausrottung aller dort heimischen Moa-Spezies plausibel. Die Ausrottung der Moa ging derart schnell vonstatten, dass die Māori nicht einmal auf die Moa-Jagd spezialisierte Waffen entwickeln mussten. Am Ende des 14. Jahrhunderts waren Moa ausgestorben. Es ist denkbar, dass einzelne Exemplare in besonders abgelegenen Regionen länger überlebten. Doch als James Cook 1769 vor Neuseeland vor Anker ging, dürften auch die letzten Moa längst verschwunden gewesen sein. Heute gibt es manche Anhänger der Kryptozoologie, die vor allem im Fjordland nach lebenden Moa suchen. Oft gibt es auch Berichte von Wanderern, die behaupten, Moa gesehen zu haben; gelegentlich werden diese Berichte mit unscharfen Fotos untermauert. Wissenschaftler halten das Überleben der Moa bis in unsere Zeit allerdings für vollkommen ausgeschlossen. Richard Owen neben dem Skelett eines "Dinornis novaezealandiae", einer der beiden Arten, deren Weibchen vormals als „Riesenmoa“ "Dinornis giganteus" fehlgedeutet wurden Die Wiederentdeckung. Da die Moa aus der Überlieferung der Māori verschwunden waren, wurden sie erst anhand von Fossilfunden wiederentdeckt. Wer den ersten Knochen eines Moa fand, ist heute nicht mehr sicher nachvollziehbar. 1838 berichtete der Händler Joel Samuel Pollack von Knochenfunden, auf die ihn Māori aufmerksam gemacht hätten und aus denen er schloss, dass Emus oder Strauße einst in Neuseeland heimisch gewesen seien. Andere Reisende machten fast gleichzeitig ähnliche Entdeckungen. In besonderer Weise widmete sich der Zoologe und Paläontologe Richard Owen (1804–1892) den Moa. Er veröffentlichte 1840 die erste Publikation über die zuvor unbekannten Großvögel ("On the bone of an unknown struthious bird from New Zealand"), in der er zu folgendem Urteil kam: „Ich bin willens, meine Reputation für die Folgerung aufs Spiel zu setzen, dass es in Neuseeland einst straußenartige Vögel gegeben hat oder noch gibt, die in der Größe einem heutigen Strauß nahe oder gar gleichkamen.“ Owen beschrieb die meisten der heute bekannten Moa-Arten und veröffentlichte im Laufe der folgenden fünfzig Jahre fast 50 weitere Artikel über Moa. Weitere große Beiträge zur Moa-Forschung leistete der deutschstämmige Naturforscher Julius von Haast, der eine Sammlung von Moa-Fossilien aufbaute und neben Verdiensten bei der Beschreibung weiterer Arten über die Lebensweise der Moa spekulierte. Obwohl viele seiner Mutmaßungen heute widerlegt sind, findet man sie oft zitiert. So geht auf Haast die heute für unwahrscheinlich gehaltene Hypothese zurück, dass nicht die Māori die Moa ausrotteten, sondern ein vorher in Neuseeland lebendes Volk, das er die „Moa-Jäger“ nannte. Das Wort „Moa“ bedeutet in vielen polynesischen Sprachen schlicht "Henne". Die Anwendung dieses Namens auf die Riesenvögel geht vermutlich auf den Missionar William Colenso zurück, der nach einem Besuch bei den Māori in Waiapu von einem Mythos berichtete, an den die Einheimischen glaubten. Dieser berichte von einem riesenhaften Huhn mit dem Gesicht eines Menschen, das von zwei riesigen Echsen bewacht wurde und jeden Eindringling zu Tode trampele. Dieses Wesen würde Moa genannt. Aufgrund ähnlicher Legenden wurden anfangs auch die Māori-Wörter "Tarepo" und "Te Kura" auf die Riesenvögel bezogen. Letztlich setzte sich die Bezeichnung "Moa" durch. Lebendrekonstruktion eines Moa im "Auckland Museum" (Neuseeland) Systematik. Die folgende Systematik richtet sich nach Bunce et al. (2009). In ihrem Werk bilden die Moa drei verschiedene Familien. Die systematische Stellung der Moa zu anderen Vogelgruppen ist unklar. Da es auf Neuseeland eine weitere Ordnung der Laufvögel gibt, die Kiwis, ist die klassische Sichtweise, beide Taxa als eng verwandt anzusehen. Auch heute noch wird diese Einordnung von manchen Fachleuten favorisiert. So stellen Lee u. a. (1997) Kiwis und Moa aufgrund morphologischer Analysen als Schwestergruppen nebeneinander. Hingegen kommt Cooper (1997, 2001) aufgrund von DNA-Analysen zu dem Schluss, dass Moa als Schwestergruppe einem gemeinsamen Taxon von Straußen, Kasuaren, Emus und Kiwis gegenüberzustellen seien; alle zusammen seien wiederum Schwestergruppe der Nandus. Daneben gibt es weitere Ansätze, die hier nicht einzeln aufgeführt werden sollen. Fossilbericht. Der älteste Fund eines Moa im Fossilbericht ist "Anomalopteryx" aus dem späten Pliozän vor etwa 2,5 Millionen Jahren. Aus dem Pleistozän sind 33 fossile Überreste von Moa bekannt. Funde aus Ablagerungen vor dem Holozän sind demnach sehr selten, dies trifft jedoch für die fossile Überlieferung auf den neuseeländischen Inseln insgesamt zu. Alle bislang gefundenen Moa-Fossilien lassen sich den aus dem Holozän bekannten Arten zuordnen. Demnach sind während des Pleistozäns keine Moa-Arten ausgestorben oder entstanden, sondern lebten nahezu unverändert fort, bis sie beinahe gleichzeitig vom Menschen ausgerottet wurden. Es lässt sich lediglich oft eine leichte Größenabnahme zwischen dem Pleistozän und dem Holozän feststellen. Auch wenn entsprechende fossile Belege fehlen, sind die Moa eine weit ältere Tiergruppe, als ihr Fossilbericht es bislang dokumentiert. Von den Vorfahren der Moa konnten bislang keine Fossilien gefunden werden. Minitel. Minitel 1 aus dem Jahr 1982 Minitel war ein etwa 30 Jahre lang ausschließlich in Frankreich angebotener und genutzter Onlinedienst. Eingeführt wurde das System im Jahr 1982. Technisch ist Minitel mit dem deutschen Bildschirmtext (BTX) vergleichbar, nur dass Minitel ausschließlich eigene Terminals (Bildschirm und Tastatur samt Telefonanschluss) benötigte und keine Nutzung beispielsweise am Fernsehgerät (wie bei BTX) erlaubte. Die Einwahl-Nummer "3615" für die Minitel-Nutzung ermöglichte dank der einfachen Bedienbarkeit der Terminals über mehrere Jahrzehnte hinweg Millionen Franzosen den Zugang zu elektronischen Informations- und Unterhaltungsdiensten. Am 30. Juni 2012 wurde der Dienst, nachdem eine geplante frühere Abschaltung im März 2012 zunächst verschoben worden war, endgültig eingestellt. Entwicklung und Verbreitung. Die französische Regierung unter Präsident Valéry Giscard d’Estaing gab in den 1970er-Jahren die Entwicklung dieses Systems bei der staatlichen Post- und Telefongesellschaft PTT ("Poste, Téléphone et Télécommunications", heute La Poste und France Télécom) in Auftrag. Diese setzte die Aufgabe erfolgreich um und führte das System in Frankreich ein. Im Gegensatz zu BTX in Deutschland konnte sich Minitel in Frankreich jedoch wesentlich umfassender durchsetzen. Einer der Gründe dafür war, dass die notwendige Hardware in Frankreich von der France Télécom kostenlos zur Verfügung gestellt wurde. Nach Testbetrieben im Département Ille-et-Vilaine und in Velizy 1981 startete Minitel 1982 großflächig. Seit Februar 1983 konnten die Franzosen über Minitel kostenlos die digitale Version des Telefonbuchs abrufen. Die Kunden konnten sich entscheiden, ob sie ein gedrucktes Telefonbuch oder ein kostenloses Minitel-Terminal wollten. Dadurch erreichte das System schon früh eine kritische Nutzerzahl. 1990 verfügte Minitel bereits über vier Millionen Nutzer. Das mit Minitel vergleichbare deutsche System Bildschirmtext (BTX), das 1983 mit großem Pomp gestartet war, brachte es 1988 gerade einmal auf rund 100.000 Nutzer. Für das 1984 gestartete österreichische Pendant MUPID meldete die Post im Oktober 1992 15.600 Teilnehmer. Anfangs wurden die Minitel-Geräte mit einer streng nach dem Alphabet aufgebauten Tastatur hergestellt, die erst später auf die gebräuchliche Schreibmaschinen-Tastatur umgestellt wurde. Die Zeitungsbranche in Frankreich bekämpfte das Netzwerk zunächst, da es den Verlust von Kleinanzeigen fürchtete. Für die damalige Zeit war der Dienst sehr fortschrittlich und verbreitete sich schnell. Angebotene Inhalte. Ursprünglich sollte Minitel nur die schweren Telefonbücher ersetzen und Telefonauskünfte erteilen. Relativ schnell wurden aber neue von den Franzosen gerne genutzte Dienste angeboten: u. a. der Wetterbericht, Kontostands-Abfragen, Banküberweisungen, Bahnticket-Bestellungen, Reisebuchungen und selbst Aktienkäufe. Auch beliebte Sex-Dienste wurden unter der Bezeichnung "Minitel rose" angeboten. Der Gründer des heutigen Telekomanbieters Free, Xavier Niel, ist durch diese Dienste reich geworden. Weiterhin bot das System die Möglichkeit der schriftlichen Kommunikation zwischen den Nutzern (eine Art Urform des Chats). Erfolg des Systems. 1985 waren in Frankreich bereits eine Million Geräte in Betrieb. Das Minitel-System war so erfolgreich, dass dessen Einnahmen im Jahre 1996 sogar die des Internets in den USA in diesem Jahr überstiegen. Mit dem System wurde zeitweise mehr als eine Milliarde Euro Umsatz im Jahr gemacht. Seinen Höhepunkt erreichte das Minitel im Jahr 2000, als rund 25 Millionen Franzosen fast neun Millionen Geräte nutzten. Niedergang und Konkurrenz durch das Internet. Mit der Entwicklung des Internets in den USA war das Ende des französischen Systems eingeläutet. Eine neuere Generation von Minitel-Endgeräten konnte zwar z. B. auch Bilder im JPEG-Format empfangen, doch die überwiegend simplen Textbotschaften konnten gegen die im Internet mögliche Informationsübertragung nicht standhalten. Das Minitel blieb ein geschlossenes französisches System ohne Vernetzung mit Benutzern in anderen Ländern. Einige Minitel-Anwendungen funktionierten schließlich auch über das Internet. Die Zeitung Libération machte noch Stunden vor der Abschaltung am 30. Juni 2012 einen Test und rief per Minitel den erotischen Videotext-Dienst "3615 Ulla" auf. Von den rund 300 Nutzern des Dienstes saß kein einziger mehr vor einem Minitel-Terminal, sondern alle nutzten die Online-Version über das Internet. Der Niedergang von Minitel kam sehr langsam. Viele Franzosen wollten sich von Minitel nicht trennen, weshalb das Internet sich zunächst in Frankreich langsamer durchsetzte als anderswo. Im Jahr 2010 gab es immer noch etwa zwei Millionen Minitel-Benutzer. 2.400 Minitel-Dienste waren zu diesem Zeitpunkt noch aktiv (in den 1990er Jahren waren es bis zu 25.000). Zum Zeitpunkt der Abschaltung am 30. Juni 2012 besaßen schließlich nur noch 400.000 Haushalte einen Terminal und 1.800 Dienste waren noch aktiv. Das Ende. Das war für den letzten Betreiber, das Unternehmen Orange, angesichts der Instandhaltungskosten für das Netzwerk letztlich zu wenig. Auch aufgrund der Kosten für die Ersatzteile der Terminals ließ sich das System nicht mehr rentabel betreiben. Letztlich war die Entscheidung für die Einstellung also aus wirtschaftlichen Gründen unvermeidbar. Die Einzelteile der verbliebenen Geräte sollen zu Auto-Stoßstangen oder Mantelhaltern umgearbeitet werden. Eine bei Toulouse gelegene Firma hat sich darauf spezialisiert, die Geräte auszuschlachten und dann die Kunststoff-Teile einer neuen Verwendung zuzuführen. Am Tag der Abschaltung wurde das von den Franzosen einst heiß geliebte Minitel würdig verabschiedet: Unter dem Titel «3615 ne répond plus» (3615 antwortet nicht mehr) konnte dem Pionier des elektronischen Zeitalters und seiner Bedeutung noch einmal nachgespürt werden. In Monaco etwa präsentiert ein Künstler nach Angaben der Gratiszeitung «20 minutes» Minitel-Geräte, die er selbst künstlerisch verfremdet hat. Das Minitel-Konzept. Minitel war ein zentral kontrolliertes und kein freies Netzwerk, an dem die zugelassenen Anbieter von Diensten und der Netzwerkbetreiber verdienen konnten. Günter Hack von News.ORF.at kommentiert die hinter Minitel stehende Idee wie folgt: "„(...) Apples Erfolg mit dem App Store (hat) der Idee des geschlossenen Systems mit eingebauter Bezahlmöglichkeit wieder Auftrieb gegeben. Auch wenn Minitel gegen die schiere Dynamik des freien Netzes und seiner offenen Standards den Kürzeren gezogen hat - die Idee eines konsumorientierten Netzwerks mit simplen Clients, die mit einer streng kontrollierten Zentrale verbunden sind, hat immer noch zahlreiche Freunde in der Medien- und IT-Industrie. Was ist schließlich Facebook anderes als eine Art Minitel, das sich im Internet breitgemacht hat“." MMIX. MMIX ist ein 64-Bit-Modellcomputer "(engl: abstract machine)" mit einem RISC-Befehlssatz. Donald E. Knuth benutzt ihn in seinem mehrbändigen Standardwerk "The Art of Computer Programming," um die vorgestellten Algorithmen zu beschreiben. MMIX ersetzt den älteren MIX-Modellcomputer der ersten Auflagen durch eine moderne, erweiterte Version. Knuth begründet diese Wahl mit dem Hinweis, dass das Programmieren in einer hypothetischen Assemblersprache verhindere, dass sein Werk rasch veraltet wirke. Man habe in den letzten Jahrzehnten immer wieder neue Programmiersprachen gesehen, die nur kurze Zeit Interesse fanden. Zudem erlaube eine hardwarenahe Sprache, die Probleme bei der effizienten Implementation von Algorithmen konkreter darzustellen als eine höhere Programmiersprache. Der MMIX wird über 256 Maschinenbefehle gesteuert. Die meisten, insbesondere die arithmetisch-logischen Befehle, verwenden ausschließlich Register-Operanden. Wie moderne RISC-Prozessoren hat der MMIX mit 256 eine relativ große Zahl von Allzweck-Registern. Zusätzlich gibt es 32 Spezialregister zum Anzeigen von Fehlern und bestimmten Zuständen. Daneben erlaubt MMIX, im Gegensatz zum erwähnten MIX, auch virtuelle Adressierung und damit die Untersuchung von Speicheralgorithmen. Die Tatsache, dass der MMIX nicht als Hardware, sondern als Software-Simulation implementiert ist, ist wohl einer der Gründe, warum er vor allem in der Forschung und der Lehre eingesetzt wird. Insbesondere auf dem Gebiet der Algorithmenentwicklung und der Effizienzmessung von Algorithmen ist der MMIX von großem Nutzen. Die Simulatorsoftware gibt Auskunft über die Laufzeit bzw. die benötigten Taktzyklen und die Anzahl der ausgeführten Befehle einzelner Algorithmen und ermöglicht so einen direkten und ungestörten Vergleich unterschiedlicher Algorithmen. Architektur. MMIX ist ein Binärcomputer mit einem 64-Bit großen virtuellen Adressraum und 32-Bit-Befehlen, die die big-endian-Konvention benutzen. Befehle. Zu allen Befehlen gehören Mnemonics, etwa "ADD" zu 32. Die meisten Befehle haben die Form "OP X,Y,Z", wobei OP für die Anweisung steht und X für das Register, in dem das Ergebnis gespeichert wird. Der Rest bezeichnet die Operanden der Anweisung. Jedes Feld ist acht Bit breit. "ADD $0,$1,3", addiert beispielsweise den Inhalt aus Register $1 zu 3 und speichert das Ergebnis in Register $0. MMIX Programme benutzen normalerweise die MMIXAL-Assembler Sprache (siehe dazu die Hello-World-Seite). Register. Es gibt 256 Allzweckregister "im" MMIX-Chip, die von $0 bis $255 durchnummeriert sind, und 32 Spezialregister. Wenn X eine Zahl von 0 bis einschließlich 255 bezeichnet, legen die Register rL und rG fest, ob $X ein lokales oder globales Register ist. Lokaler Register-Stack. Der lokale Register-Stack führt seine eigenen Unterroutinen mit eigenen rL lokalen Registern ($0 bis $(rL-1)) durch. Die Argumente der Unterprogramme verbleiben bei Aufruf in lokalen Registern des Unterprogramms. Beim Rücksprung aus dem Unterprogramm werden die zuvor auf den Stack gelegten Register ("PUSH") zurückgelesen ("POP"). Da nur 512 lokale, physische Register vorliegen, wird ein Teil des Stacks im Hauptspeicher abgelegt. Mit den Spezialregistern rO und rS kann man einsehen, welcher Teil des lokalen Registerstacks bereits im Speicher liegt. Milch. Milch ist eine weiße, trübe Lösung bzw. kolloidale Dispersion von Proteinen, Milchzucker und Milchfett in Wasser. Gebildet wird sie in den Milchdrüsen der Säugetiere, diese nähren damit ihre Neugeborenen beim namensgebenden Säugen, weibliche Säugetiere stillen ihre Neugeborenen mit Muttermilch. Die Milch domestizierter Tiere nutzt der Mensch zudem auch als Nahrungsmittel. Etymologie. Das Substantiv "Milch", ebenso wie "Molke" und das zugehörige Verb "melken", sind germanischsprachiges Gemeingut (schwed. "mjölk", dän. "mælk", niederl. "melk", engl. "milk", isländ. "mjólk" usw.). Althochdeutsch "miluh" (8. Jh.) wandelt sich zu mittelhochdeutsch "milich, milch". Die fachsprachliche Mehrzahlbildung lautet "Milche" oder auch "Milchen". „Milch“ ist allgemein der Name für eine Nährflüssigkeit, die bei Säugetieren (Mammalia) von weiblichen Individuen nach einer Schwangerschaft durch Drüsen der Milchleisten über Mamillen bzw. Zitzen an Brüsten (Mammae) oder Eutern dem saugenden Nachwuchs (Säugling) als (zunächst einziges) Nahrungsmittel zur Verfügung gestellt wird. Im Deutschen wird der Ausdruck „Milch“ vornehmlich als ein Synonym für "Kuhmilch" gebraucht. Die Milch des Menschen wird distinguierend hingegen explizit als Muttermilch bezeichnet. Im Handel innerhalb der Europäischen Union darf allein die Milch von Kühen als „Milch“ bezeichnet werden (§2 der Milchverordnung definiert „Milch“ als „das durch ein- oder mehrmaliges tägliches Melken gewonnene, unveränderte Eutersekret von zur Milchgewinnung gehaltenen Kühen“). Bei Milch anderer Säugetiere muss zusätzlich die Tierart angegeben werden (beispielsweise Ziegenmilch, Schafmilch, Pferdemilch bzw. Stutenmilch, Kamelmilch, Büffelmilch). Dementsprechend werden Soja-Getränke im Handel auch nicht als „Sojamilch“ ausgewiesen. Produktion. Die Entwicklung der Milchwirtschaft begann im Zuge der so genannten neolithischen Revolution mit der Domestikation von Ziegen und Schafen, etwa vor 10.000 Jahren, in Westasien und andernorts, sowie mit der Domestikation von Auerochsen (Ur) vor etwa 8.500 Jahren vor allem in Südosteuropa. Für die Nahrungsmittelindustrie Europas sind Milchkühe der Hauptlieferant, in den Bergen, ertragsschwachen Gegenden und in früheren Zeiten auch das Schaf (Schafsmilch) und die Ziege (Ziegenmilch). Für Trinkmilch melkt der Mensch auch Hauspferde (Stutenmilch) und Hausesel (Eselsmilch), Yaks in West-China/Tibet, in den Anden Südamerikas teilweise auch Lama (selten). Hoch im Norden wird auch die Milch der Rentiere genutzt; in Asien und Italien zur Käseproduktion (Mozzarella di Bufala) werden Wasserbüffel gemolken und Büffelmilch gewonnen; im arabischen Raum wird, neben Ziegen- und Schafmilch, Milch von Kamelen konsumiert. Mäusemilch wird ausschließlich zu Versuchszwecken gewonnen. In manchen Kulturen, welche meist aus Hirten und Nomaden hervorgegangen sind, steht die Milchtier­haltung, die Milch und ihre Produkte (etwa Käse, Joghurt) im Mittelpunkt der Ernährung und damit auch des Lebens. Ähnlich ist dies auch in der westlichen Welt. Andererseits gibt es auch Völker, die außer Muttermilch gar keine Milch verwenden. Verarbeitung. rect 654 308 761 348 Vorzugsmilch rect 539 258 647 300 Rohmilch rect 779 399 888 441 Fettarme Milch rect 653 402 761 438 Frische Vollmilch rect 860 206 966 252 Rahm rect 579 209 689 249 Sauerrahm rect 1080 209 1188 254 Kondenssahne rect 339 638 447 684 Buttermilch rect 654 707 762 752 Milchpulver rect 656 626 761 672 Kondenssahne rect 777 498 884 539 fettarme H-Milch rect 861 140 965 179 Sahne rect 858 66 965 111 Butter rect 858 8 966 50 Butterschmalz rect 941 398 1046 441 Magermilch rect 938 629 1043 671 Kondensmagermilch rect 941 707 1047 749 Magermilchpulver rect 264 708 369 750 Molkepulver rect 338 578 447 620 Sahnejoghurt rect 339 507 449 552 Joghurt rect 338 410 449 449 Kefir rect 29 357 138 401 Quark rect 231 15 339 62 Schmelzkäse rect 228 69 336 110 Mascarpone rect 300 221 410 257 Frischkäse rect 176 299 285 339 Sauermolke rect 411 66 515 110 Molkenbutter rect 408 138 515 180 Crème fraîche rect 750 138 855 179 Kaffeesahne rect 1082 138 1187 182 Crème double rect 522 135 623 182 Schmand rect 645 140 747 182 Saure Sahne rect 579 65 689 110 Sauerrahmbutter rect 30 216 135 260 Sauermilchkäse rect 32 15 135 59 Hartkäse rect 29 171 134 210 Kochkäse rect 972 69 1076 110 Milchflüssigkeit rect 32 66 135 108 Schnittkäse rect 701 69 807 110 mildgesäuerte Butter rect 300 297 405 344 Süßmolke rect 782 627 885 672 teilentrahmte Kondensmilch rect 26 119 135 161 Weichkäse rect 974 3 1080 50 Geklärte Butter rect 969 138 1074 185 Schlagsahne rect 482 356 587 399 Pasteurisierte Milch rect 179 120 288 158 Brühkäse rect 341 356 447 398 Dickmilch rect 176 170 287 210 Salzlakenkäse rect 176 356 285 402 Dickete rect 176 221 287 261 Molkenkäse rect 854 305 969 351 magere Rohmilch rect 650 497 767 542 H-Vollmilch rect 653 546 761 591 Sterilmilch rect 339 459 444 498 Joghurt mild rect 650 449 762 491 ESL-Milch rect 408 2 663 38 Milchprodukte poly 6 410 320 413 324 683 254 702 260 750 374 755 387 716 471 704 479 477 635 474 647 755 771 755 774 708 926 695 927 747 1050 758 929 752 1055 755 1052 699 1055 623 941 611 920 458 1059 452 1064 384 981 368 983 261 1190 267 1191 768 15 773 6 413 Der als "Veredelung" bezeichnete Herstellungsprozess von zahlreichen Milchprodukten kann als kontrollierter „Verderb“ aufgefasst werden, da hier vor allem der originären Milchflora zugehörende Milchsäurebakterien wirken. Gleiches gilt auch für die Zugabe von Lab, was bewirkt, dass die Milch – ähnlich wie die gesäuerte – koaguliert. Die Verarbeitungsstätten nennt man Molkereien (früher teilweise auch "Meiereien") bzw. Käsereien, typische Produkte sind Sahne, Butter und Buttermilch, Käse, Sauermilch. Milchrohstoffe (Derivate für die Weiterverarbeitung) sind etwa Milchpulver, Molkepulver (Speiseeisproduktion, Zusätze zu anderen Lebensmitteln), Laktose (Milchzucker) und Ähnliches in Lebensmittelherstellung, Pharmazie, Kosmetika usw., Kasein als Klebersubstanz in zahlreichen Branchen. Die Nahrungsmittelindustrie verarbeitet die Milch in zahlreichen Formen und zu vielfältigen Produkten (Produktgruppe: "Milchprodukte"), angefangen von Butter, Rahm, der Verkäsung bis hin zu Backwaren- oder Speiseeis­herstellung, sowie Derivaten, vom Einsatz in der Fleisch­verarbeitung oder in der Fertignahrungs­herstellung bis hin zur Pharmazie und Kosmetika "(Milchrohstoffe)". Eigenschaften. Die Einteilung in Handelsklassen erfolgt in Deutschland durch die Milch-Güteverordnung. Die Kriterien umfassen die Gesamtkeimzahl (niedrige Werte sprechen für Betriebshygiene und gute Tiergesundheit), Eiweiß- und Fettgehalt, Gefrierpunkt (Abweichungen deuten auf Streckung mit Wasser) und Hemmstoffe wie Antibiotika, welche die Weiterverarbeitung der Milch zu Joghurt oder Käse behindern und zum Lieferstopp für den Landwirt führen. Die Dichte von Kuhmilch ist von der Temperatur abhängig; sie beträgt für homogenisierte und pasteurisierte, 3,5 % Fett enthaltende frische Vollmilch bei einer Temperatur von 20 °C etwa 1,032 g/cm³. Zusammensetzung. In der Milch sind Kohlenhydrate, Eiweiße, Vitamine und Spurenelemente im Wasser gelöst, Milchfett im Wasser emulgiert. Anteile der einzelnen Inhaltsstoffe sind jedoch von Tierart zu Tierart unterschiedlich. Bei Tierarten, die einen sehr energieintensiven Stoffwechsel betreiben, ist die Milch besonders reich an Fetten, Proteinen und Kohlenhydraten. Dazu gehört z. B. die Milch von Walen und Eisbären. Innerhalb einer Art haben auch Fütterung, Haltung, Laktations­zeit sowie Gesundheitszustand und Alter der Tiere Einfluss auf die Zusammensetzung der Milch. Die häufigsten Proteine, die etwa 80 % der Gesamtproteinmenge ausmachen, sind die Caseine. Die übrigen Proteine werden auch als "Molkenproteine" zusammengefasst. Unter der Bezeichnung Molkenproteine fasst man beta-Lactoglobulin, alpha-Lactalbumin, Serumalbumin, Immunglobulin und die Proteosepepton zusammen. Die beim längeren Kochen von Milch zu beobachtende Entwicklung einer Haut an der Oberfläche wird durch die hitzeinduzierte Denaturierung von Albumin verursacht. Das wichtigste Kohlenhydrat in der Milch ist Lactose (4,6 % in Kuhmilch), daneben sind Galactose, Glucose und Spuren anderer Kohlenhydrate enthalten. Der pH-Wert von Milch schwankt zwischen 6,7 für frische Milch bis etwa 4,5 für saure Milch. Fettgehalt. Der natürliche Fettgehalt von Kuhmilch liegt bei ca. 4,2 %. Zur Einstellung des Fettgehalts wird die Milch zunächst in einer von Wilhelm Lefeldt für diesen Zweck entwickelten Milchzentrifuge (auch Separator genannt) in Rahm, Magermilch und Nichtmilchbestandteile getrennt. Durch Zentrifugal- und Zentripetalkräfte ordnen sich diese drei Komponenten mit steigender Dichte wie folgt von innen nach außen an: Rahm (innen; Dichte von reinem Milchfett: 0,93 kg/dm³), Magermilch (mittig; Dichte 1,035–1,038 kg/dm³), Nichtmilchbestandteile (außen durch die höchste Dichte). Die Nichtmilchbestandteile werden außen im Separator als Zentrifugenschlamm gesammelt und nach einer bestimmten Zeit bei einer Teilentleerung der Trommel entfernt. Anschließend kann der Fettgehalt der Magermilch durch Hinzufügen von Rahm beliebig eingestellt werden. Sorten. Bezeichnungen wie "Landmilch" mit z. B. 3,8 % Fettgehalt, "Fitmilch" usw. sind keine genormten Bezeichnungen. Milcherzeugnisse oder milcherzeugende Betriebe werden auch häufig nach der Region benannt, aus der sie hauptsächlich stammen, beispielsweise "Gmundner Milch" oder "Berchtesgadener Milch". Ab-Hof-Milch ist Rohmilch, die Verbraucher direkt beim Milchviehbetrieb erhalten. Bei "Lactosefreier Milch" ist der Fettgehalt nicht normiert, bei ihrer Herstellung wird der Milchzucker enzymatisch in Glukose und Galaktose gespalten (siehe Unverträglichkeit). In der landwirtschaftlichen Erzeugung spricht man von "fettkorrigierter Milch" (FCM,), wenn diese 4 Prozent Fett aufweist. Haltbarkeit. Sowohl die frische Milch als auch aufkonzentrierte Milchprodukte wie Kondensmilch oder Kaffeesahne werden durch Erhitzen haltbar gemacht. Die Haltbarkeit bezieht sich immer auf die ungeöffnete, von der Molkerei abgefüllte Milchpackung. Nach der erstmaligen Verwendung ist auch haltbare Milch im Kühlschrank aufzubewahren und sollte innerhalb weniger Tage verbraucht werden. Je nach Kühlschranktemperatur kann die Haltbarkeit auch im geöffneten Zustand deutlich verlängert werden. Eine Absenkung der Kühlschranktemperatur von 7 °C auf 5 °C kann die mikrobielle Stabilität zusätzlich um einige Tage verlängern. Die Verluste von Vitaminen durch diese Verfahren zur Haltbarmachung sind unterschiedlich. Pasteurisierte Milch verliert weniger als 10 % der B-Vitamine im Vergleich zur Rohmilch vor der Pasteurisierung. Der Vitaminverlust durch die Herstellung von ESL-Milch liegt bei durchschnittlich 10 %, nimmt aber durch längere Lagerung weiter zu. Die Ultrahocherhitzung bedingt einen Verlust von etwa 20 %, der jedoch durch lange Lagerung auch weiter stark zunehmen kann. Das hängt vor allem von der Lagertemperatur und der verwendeten Erhitzungstechnik ab (direkt mittels Dampfinjektion oder indirekt), bei direkt erhitzter H-Milch oder ESL-Milch zusätzlich davon, wie gründlich die Milch anschließend entgast wurde. Sterilisierung bedeutet den höchsten Vitaminverlust, je nach Vitamin und Lagerdauer 20-100 %. Der Vitaminverlust durch einfaches Abkochen von Rohmilch liegt bei 10–30 %. Eine andere Konservierungs­art der Milch ist die energieintensive Trocknung zu Milchpulver oder teilweise Entziehung des Wassers (Kondensmilch). Milchpulver finden etwa Verwendung in der Schokoladenindustrie, bei der Herstellung von Säuglingsnahrung, in der parenteralen Ernährung oder als Aufzuchtfutter für Kälber. Bei Rohmilch oder Milch, die lediglich einem thermischen Behandlungsschritt unterzogen worden ist, sammelt sich das Milchfett nach einiger Zeit an der Oberfläche an und bildet eine Rahm­schicht. Durch die Homogenisierung wird dies verhindert, indem die Größe der Fetttröpfchen auf unter 1 µm Durchmesser reduziert wird und damit die Aufrahmung aus physikalischen Gründen nur über einen sehr langen Zeitraum stattfindet. Homogenisierung. Kleine Fetttröpfchen in homogenisierter Milch Ziel der Homogenisierung ist es, den mittleren Durchmesser der in der Milch vorhandenen Fettkügelchen (mittlerer Durchmesser der nativen Globule 10 bis 30 µm) unter hohem Druck (150 bis 300 bar) stark zu reduzieren (mittlerer Tropfendurchmesser 1 bis 2 µm), damit die Milch nicht aufrahmt und wegen der vergrößerten Gesamtoberfläche leichter verdaut werden kann. Industriell geschieht diese „Zerkleinerung“ der Fetttröpfchen in großem Maßstab. Dazu wird die Milch unter hohem Druck auf eine Metallplatte gespritzt. Im Homogenisator wirksame Kräfte sind Scher-/Dehnkräfte, Prallströmungen, aber hauptsächlich Kavitation. Physikalisch gesehen kann zwar eine so behandelte Milch immer noch aufrahmen, allerdings steigt die für eine sichtbare Aufrahmung benötigte Zeit sehr stark an, so dass man über die Produktlebensdauer vereinfacht von einer „Aufrahmungsstabilität“ spricht. Die Homogenisierung allein führt allerdings "nicht" dazu, dass die Milch aus mikrobieller Sicht länger haltbar wird. Konsum. Der Milchkonsum steigt weltweit stark an, jedoch überproportional hauptsächlich in Form von verarbeiteten Milchprodukten. Milchersatz. Milchersatz oder Milchersatzprodukte sind Nahrungsmittel, die geschmacklich oder optisch sowie vom Fett- oder Eiweißgehalt her Milch (oder Milcherzeugnissen) ähneln, ohne aus dieser hergestellt zu sein. Diese werden in der Regel aus pflanzlichen Produkten gewonnen, etwa Getreide- und Sojamilch. Gesundheitliche Aspekte des Milchkonsums. 100 ml Milch enthalten 120 mg Calcium, das der Mensch zum Knochenaufbau benötigt. Milch enthält außerdem viele essentielle Aminosäuren, die für den Körperzellenaufbau benötigt werden. In Käse ist der Anteil an Calcium höher. Die "Nurses’ Health Study" zeigte allerdings, dass erhöhter Milchkonsum allenfalls tendenziell Knochenbrüchen vorbeugt. Auch lässt sich das Calcium aus der Milch isoliert nicht resorbieren, es wird dazu Vitamin D benötigt, das nicht in ausreichendem Maße in der Milch enthalten ist. Eine im Jahr 2005 veröffentlichte Metaanalyse sechs prospektiv untersuchter Kohorten fand, dass geringer Milchkonsum (weniger als ein Glas täglich) mit keinem signifikanten Anstieg des Frakturrisikos assoziiert war. Michael de Vrese vom Max Rubner-Institut erklärte im Jahr 2006, dass „[…] die Vorteile des Milchkonsums […] die etwaigen Risiken übertreffen […].“ Es sei bewiesen, dass ein ausreichender Milchkonsum Osteoporose, Bluthochdruck, Herzinfarkt und Übergewicht vorbeuge. Eine Untersuchung der Universität Kopenhagen aus dem Jahr 2007 hat ergeben, dass das in der Milch enthaltene Calcium oder andere Cofaktoren in Milchprodukten die Fettmenge im Blut nach den Mahlzeiten reduziert. Danach ist die Menge des Blutfettes bei Personen, die Calcium aus Milchprodukten aufnehmen, um 15–19 % niedriger als bei Vergleichspersonen, die Calcium über Calciumsupplemente aufnehmen. Parkinson-Krankheit. Chen et al. untersuchten 2002 den Zusammenhang zwischen der Nahrungsaufnahme und dem Parkinsonrisiko. Sie fanden eine positive Assoziation zwischen der Kuhmilchaufnahme und dem Parkinsonrisiko bei Männern, nicht jedoch bei Frauen. Als Ergebnis einer weiteren Datenauswertung im Jahr 2007 ergab sich zusätzlich eine Risikoerhöhung für weibliche Konsumenten von Milchprodukten, wobei die betrachteten Frauen weniger von der Risikoerhöhung betroffen waren als die Männer. Die Autoren schlossen aus den Daten, dass der Konsum von Milchprodukten das Risiko für Parkinson erhöhen könne, besonders bei Männern. Jedoch seien weitere Studien zur Untersuchung der Befunde und des zugrundeliegenden Mechanismus nötig. Eine japanische Kontrollstudie fand 2011 keinen Zusammenhang zwischen der Aufnahme von Milchprodukten und der Parkinsonkrankheit. Krebs. Milch und viele Milchprodukte sind gute Calciumquellen. Zwei prospektive Kohortenstudien zeigten, dass der Konsum von Calciumdosen > 2000 mg pro Tag mit einem erhöhten Risiko für Prostatakrebs einhergeht. Zwei andere prospektive Kohortenstudien brachten keinen Zusammenhang für Calciumdosen von 1330 und 1840 mg pro Tag. Als Hintergrund für die Risikoerhöhung wird eine mangelhafte Produktion von Vitamin D3 verdächtigt. Eine hohe Calciumzufuhr vermindert die körpereigene Cholecalciferol-Produktion und präklinische Studien zeigten mehrere potenziell nützliche Effekte des Vitamins bezüglich Prostatakrebs. Sonn et al. fanden 2005 im Rahmen einer Übersichtsarbeit unter neun prospektiven Studien fünf, die einen Zusammenhang zwischen dem Konsum von Milchprodukten und dem Prostatakrebsrisiko herstellten. In welchem Ausmaß der Calciumkonsum im Verhältnis zum Fettkonsum aus Milch und Milchprodukten zum Risiko beiträgt, ist unklar. Eine Metaanalyse von Gao et al. kam 2005 zu dem Schluss, dass die hohe Aufnahme von Milchprodukten und Calcium mit einem leicht erhöhten Prostatakrebsrisiko verbunden sein könne. Diese Schlussfolgerung basiert nach Einschätzung durch Severi et al. jedoch auf „relativ schwacher statistischer Evidenz“ und einer „sehr kleinen Effektgröße“. Zudem konnten die Kritiker der Metaanalyse Studiendaten vorweisen, die nicht zur Schlussfolgerung von Gao et al. passen. Laut "Harvard School of Public Health" könne man nicht zuversichtlich sein, dass ein hoher Milch- oder Calciumkonsum empfehlenswert sei. Wissenschaftler der University of Hawaii gehen davon aus, dass ein übermäßiger Konsum an fettarmen Milchprodukten die Wahrscheinlichkeit, an Prostatakrebs zu erkranken, erhöht. Einer gemeinsamen Bewertung durch den "World Cancer Research Fund" und das "American Institute for Cancer Research" aus dem Jahr 2007 zufolge senkt Kuhmilch wahrscheinlich das Darmkrebsrisiko. Wegen der Hinweise, dass sehr hohe (≥ 2 g) Calciumtagesdosen das Prostatakrebsrisiko möglicherweise erhöhen, sprechen die Autoren jedoch keine krebsrelevanten Empfehlungen bezüglich des Konsums von Kuhmilch aus. Laut Michael de Vrese vom "Max Rubner-Institut" ist das Prostatakrebsrisiko aus Milchkonsum noch nicht abschließend bewertet. Diabetes. Studien deuten auf eine Wechselbeziehung zwischen dem regionalen Kuhmilchverbrauch hin: In Japan kamen Mitte der 1980er-Jahre auf 100.000 Einwohner weniger als zwei Kinder, die jährlich neu an Typ-1-Diabetes erkrankten (damaliger Pro-Kopf-Verbrauch: 38 Liter pro Jahr). In Finnland waren es 29 Kinder auf 100.000 Einwohner (damaliger Pro-Kopf-Verbrauch: 229 Liter pro Jahr). Finnische und kanadische Wissenschaftler fanden in den Blutproben mehrerer hundert Kinder, die neu an Diabetes erkrankt waren, Antikörper gegen einen Bestandteil des Milchproteins, das dem natürlichen Protein p69 ähnelt. Sie vermuten, dass das Immunsystem von Babys, die eine genetische Anfälligkeit für Diabetes haben und vor dem fünften oder sechsten Monat Kuhmilch trinken, bei jeder Virusinfektion irrtümlich das natürliche Protein attackiert, wodurch die Bauchspeicheldrüse geschädigt werden kann. Unverträglichkeit. Es existieren Unverträglichkeiten auf das Nahrungsmittel Milch und die daraus hergestellten Produkte. Sie beruhen darauf, dass Milchbestandteile im Körper nicht hinreichend aufgespalten werden können (wegen Laktoseintoleranz oder Milcheiweiß-Unverträglichkeit) oder darauf, dass sonstige Inhaltsstoffe der Milch nicht vertragen werden. Die Fähigkeit, den in der Milch enthaltenen Milchzucker auch als Erwachsener verdauen zu können, ist eine genetisch recht junge Entwicklung und wird auf 8000 bis 9000 Jahre geschätzt. Zu ihrer Ausbreitung kam es vermutlich zuerst in Nord- und Mitteleuropa mit oder kurz nach dem dortigen Beginn des Neolithikums, als sich mit Beginn der Viehzucht die Verträglichkeit als positives Selektionskriterium erwies. Zur Verdauung der Lactose ist das Enzym Lactase erforderlich, dessen Produktion bei Kleinkindern während der Stillzeit voll ausgeprägt ist, in späteren Jahren aber teilweise oder vollständig zurückgeht. Klinische Versuche haben ergeben, dass ein Teil der Menschen aufgrund dessen bei der Aufnahme von Lactose mit Beschwerden (Durchfall, Blähungen, Völlegefühl, Magen­drücken, Aufstoßen, Meteorismus, Koliken, Bauchschmerzen, Darm­krämpfen, Übelkeit bis zum Erbrechen, Migräne­attacken, Kreislaufproblemen, Schwächeanfällen) reagieren (Laktoseintoleranz). Wenn diese Symptome bei Konsum von Milchprodukten in normalen Mengen eintreten, kann eine Milchunverträglichkeit vorliegen. Dieser kann durch Nahrungs­umstellung oder Einnahme von Lactasetabletten begegnet werden. Etwa 10–15 Prozent aller Erwachsenen in Europa vertragen keine lactosehaltige Milch. Die größte Konzentration Erwachsener, die Laktose verwerten können, findet sich in Europa nördlich der Alpen. Über 95 Prozent der Norddeutschen, Niederländer, Dänen, Schweden und anderer Skandinavier verfügen über eine körpereigene Laktase­enzymgenese, um ihr ganzes Leben lang Laktose verdauen zu können. Ein Großteil der mittel- und südasiatischen erwachsenen Bevölkerung verträgt im Erwachsenenalter keine Kuhmilch mehr, bei ihnen besteht eine Laktoseintoleranz. Inzwischen haben sich mehrere Hersteller auf die Produktion laktosefreier Milch und Milchprodukte spezialisiert. Dazu wird der Milch das Enzym Lactase zugesetzt, die die Laktose in ihre Ausgangszucker Glucose und Galaktose spaltet, die Verdauung also quasi vorwegnimmt. Diese laktosefreie Milch schmeckt süßer als Milch, weil die Einzelbestandteile Glukose und Galaktose süßer schmecken als der ursprüngliche Milchzucker. Keimbelastung. Rohmilch ist weitgehend unbehandelte, lediglich filtrierte Milch und kann, abhängig von den hygienischen Bedingungen, schon ab Euter mit Krankheitserregern belastet sein. Beim Verzehr können diese auf den Menschen übertragen werden und Infektionskrankheiten wie Salmonellose, Campylobacter-Enteritis, Staphylokokken-Infektionen, Listeriose, Brucellose, Darmtuberkulose, Brainerd Diarrhoe oder Enterohämorrhagische Colitis auslösen. Zur Minimierung des Infektions­risikos gelten für die Herstellung und den Verkauf von Rohmilch und Rohmilchprodukten in der Europäischen Union besondere Hygienevorschriften. Rohmilch bietet keine ernährungsphysiologischen Vorteile gegenüber hitzebehandelter Milch. Mit der Ausnahme des Vorkommens von Staphylokokken-Enterotoxinen lassen sich durch Pasteurisierung oder Ultrahocherhitzung die mikrobiologischen Gefahren praktisch ausschließen. Lediglich bei Fehlern in der Technik der Wärmebehandlung oder durch anschließende Rekontamination kann auch pasteurisierte Milch einen Auslöser von Infektionen bilden. Diese Unfälle zählen in der modernen Molkereitechnologie allerdings zur Ausnahme. Arzneimittelrückstände. Milch kann von Rückständen pharmazeutischer Wirkstoffe betroffen sein. Da Tierarzneimittel in der Tierhaltung erlaubt sind, müssen Wartezeiten eingehalten werden, damit die Tiere den Großteil wieder ausscheiden, bevor ihre Produkte zum Verbraucher gelangen. Zum Schutz des Verbrauchers vor Nebenwirkungen (wie das Hervorrufen von Krebs oder Erbgutschädigungen) gelten Rückstands-Höchstmengen. Die produzierte Milch wird stichprobenartig auf bestimmte Rückstände untersucht. In Deutschland wird je 15.000 Tonnen Milch eine Probe entnommen; für das Jahr 2005 ergaben sich so 1.834 Proben. 2005 musste die Milch in den Mitgliedstaaten der EU auf mindestens 45 Stoffe untersucht werden. In Deutschland geht man über diese Vorgabe der EU-Kommission jedoch deutlich hinaus: im Jahr 2004 wurde hier auf 351 Stoffe getestet. In den Jahren zwischen 1998 und 2003 wiesen durchschnittlich 0,1 Prozent der in Deutschland untersuchten Milchproben Rückstände auf, die unzulässig waren oder die eine definierte Höchstmenge überschritten. Die Laboratorien der Bundesländer fanden vor allem das in der Tierhaltung verbotene Antibiotikum Chloramphenicol sowie Phenylbutazon, ein nicht zugelassenes, entzündungshemmendes Mittel. In Deutschland macht das Bundesamt für Verbraucherschutz und Lebensmittelsicherheit (BVL) für jedes Bundesland konkrete Vorgaben über die Zahl der zu untersuchenden Tiere oder die tierischen Erzeugnisse, die zu untersuchenden Stoffe, die anzuwendende Methodik und die Probenahme. Bei Betrieben, die im Verdacht stehen, dass Tiere mit verbotenen Stoffen behandelt werden oder dass Tierarzneimittel nicht fachgerecht angewendet werden, führen die Behörden für Lebensmittelüberwachung gezielte Proben durch. Allergien. Das Bundesinstitut für Risikobewertung (BfR) sieht in Kuhmilch eines der „wichtigsten Allergie auslösenden Lebensmittel im Kindesalter“ (neben Hühnerei, Fisch, Soja, Weizen und Erdnüssen/Nüssen). Bei Vorliegen einer familiären Neigung (Atopie) könne es infolge einer Nahrungsmittelallergie zu Neurodermitis, Heuschnupfen und Asthma bronchiale kommen. Unter anderem Kuhmilch stelle auch für Erwachsene ein wichtiges Nahrungsmittelallergen dar. Allergische Reaktionen auf Hühnerei und Kuhmilch verlören sich allerdings häufig in den ersten Lebensjahren. Das Institut empfiehlt, unabhängig von einer möglichen erblichen Disposition, mindestens während der ersten 4–6 Lebensmonate zu stillen und keine Kuhmilch (oder andere Beikost) zu geben. Medici. Wappen der Großherzöge der Toskana aus dem Hause Medici Die Familie Medici (; vollständig de’ Medici) war im Florenz des 15. und 16. Jahrhunderts einer der einflussreichsten Faktoren im Kampf um Macht, Reichtum und Ansehen. Durch geschicktes Taktieren und ein unbarmherziges Ränkespiel stieg sie von einer wohlhabenden, aber unbedeutenden Familie zu einer der einflussreichsten italienischen Dynastien ihrer Zeit auf. Im 16. und 17. Jahrhundert stellten sie zwei Königinnen von Frankreich. Wappen. Die Medici führten einen Rossstirnschild, eine besondere Schildform, die nur in der italienischen Heraldik auftritt. Blasonierung: In Gold sechs schwebende Pillen (Kugeln), 1:2:2:1 gestellt, die oberste blau mit drei goldenen Lilien belegt, die anderen rot. Die Lilien des französischen Königswappens wurden 1465 von Ludwig XI. als Gnadenzeichen verliehen, bis dahin waren die Pillen einheitlich rot. Wenn ein Vollwappen der Großherzöge der Toskana abgebildet wird, sind die Decken rot-golden, und auf dem gekrönten Helm befindet sich eine rote Lilie, darauf ein (naturfarbener oder schwarzer) Sperber, mit dem Schnabel und der erhobenen rechten Klaue einen durch goldenen Ring gezogenes silbernes Band mit der Devise "semper" haltend. Die frühere Helmzier der Medici war auf gekröntem Helm ein wachsender schwarzer Hund mit silbernem Halsband. Die Helmdecken außen gold mit roten Kugeln bestreut, innen silbern-schwarzer Eisenhutfeh. Familiengeschichte. Der Ursprung des Reichtums der Medici war der Textilhandel, der von der Gilde Arte della Lana betrieben wurde; die Grundlage ihrer Macht wurde ihre Beziehung zur florentinischen Volkspartei, den Popularen. Auf dieser Basis begründeten sie ein modernes Bankwesen und dominierten – auch durch ihre Beziehungen zum Papsttum – die damalige europäische Finanzwelt. Durch das Mäzenatentum der Medici und weiterer norditalienischer Kaufleute und Bankiers entwickelten sich Florenz, Venedig, Mailand, Genua und auch Rom zu den kulturellen und wirtschaftlichen Metropolen der damaligen den Europäern bekannten Welt und prägten (beziehungsweise ermöglichten erst) das Zeitalter der Renaissance. Die aus dem Florentiner Umland stammenden Medici lassen sich erstmals in der 2. Hälfte des 13. Jahrhunderts als Amtsinhaber in der Gilde und der Stadt nachweisen. Mit Salvestro di Alamanno (1331–1388), der den "Ciompi-Aufstand" niederschlug und Diktator von Florenz wurde (er wurde 1382 verbannt), traten sie erstmals ins Rampenlicht. Mit seinem Neffen Giovanni di Bicci de’ Medici (1360–1429) und der Entwicklung der Banca dei Medici begann der Aufstieg der Familie: Giovanni wurde zum Bankier des Papstes und zum Vermittler oder Taktierer zwischen dem Stadtadel (Albizzi) und dem Volk. Der ältere Zweig der Familie, die Medici di Cafaggiolo, beherrschte danach Florenz bis 1537 mit zwei Unterbrechungen (1494–1512 und 1527–1530), darunter vor allem Cosimo de’ Medici, genannt „il Vecchio“, der Alte, (1389–1464), und sein Enkel Lorenzo I. de’ Medici, genannt „il Magnifico“, der Prächtige (1449–1492). Der Aufstieg der Familie wurde auch durch Lorenzos dritten Sohn Giuliano II. de’ Medici deutlich, der als Herzog von Nemours der erste Adelige der Familie war, vor allem aber durch seinen zweiten Sohn, Giovanni, als Leo X. der erste Papst (1513–1521) aus der Familie, dem fast unmittelbar darauf sein Vetter Giulio als Clemens VII. (1523–1534) folgte, war aber in der Stadt selbst lange Zeit umstritten. Auch Alessandro Ottaviano de´ Medici, ein Neffe Leo X., regierte als Papst Leo XI. im April 1605 für einige Wochen. Lorenzos Bruder und Mitregent Giuliano I. de’ Medici fiel 1478 einer Verschwörung der Pazzi zum Opfer. Sein ältester Sohn Piero di Lorenzo de’ Medici wurde 1494 bei der Errichtung von Girolamo Savonarolas „Gottesstaat“ vertrieben, und erst 1512 gelang dessen Sohn Lorenzo II. de’ Medici die Rückkehr, der 1527 eine erneute Vertreibung folgte. Nur mit Hilfe des Papstes Clemens VII. und des Kaisers war es im Anschluss an die Krönung Kaiser Karls V. 1530 in Bologna möglich, diese zweite Vertreibung aus der danach kurzzeitig erneuerten Republik Florenz (1527–1530) rückgängig zu machen. Die Umwandlung der Republik in eine Monarchie war jedoch nicht aufzuhalten. Lorenzo II. war 1516 von seinem Onkel, Papst Leo X. zum Herzog von Urbino ernannt worden, sein unehelicher Sohn Alessandro de’ Medici (der auch ein Sohn des Papstes Clemens VII. sein kann) regierte seit 1523 bis zu seiner Vertreibung 1527 die Republik Florenz ähnlich einem Fürsten, nach seiner Wiedereinsetzung ab 1531 offen als vom Kaiser ernannter „Herzog der Republik“. Seine Ermordung 1537 durch Lorenzino de’ Medici, einen Verwandten, wird als letztes Aufflackern der Republik begriffen, kann aber auch einfach die gekränkte Eitelkeit eines bei einer Erbregelung Übergangenen gewesen sein. Lorenzos Tochter, Alessandros Halbschwester, war Caterina de’ Medici, die 1533 den französischen König Heinrich II. heiratete. Alessandro selbst hatte 1536 Margarete von Parma, eine uneheliche Tochter Kaiser Karls, geheiratet. Nach dem Tod Alessandros setzte sich der von diesem favorisierte Cosimo I. aus der jüngeren Linie der Medici durch. Seit 1537 als Herzog in Florenz und seit 1569 als päpstlicher Großherzog der Toskana (der Titel wurde 1575 dem Großherzog Francesco I. von seinem Schwager Kaiser Maximilian II. bestätigt) hatte er die Erblichkeit der Medici-Herrschaft eingeführt. Seine Nachkommen, unter denen vor allem Cosimo II. (1590–1621) als Beschützer Galileo Galileis, und Maria de’ Medici, die Tochter Francescos und Ehefrau des französischen Königs Heinrich IV., herausragen, regierten die Toskana bis zu ihrem Aussterben 1737. Nach dem Tod des letzten Großherzogs vermachte seine überlebende Schwester Anna Maria Luisa de’ Medici (1667–1743) die gesammelten Kunstschätze der Medici der Stadt Florenz. Das Großherzogtum ging – entsprechend einer Vereinbarung zwischen den europäischen Mächten – auf Franz Stephan von Lothringen über, den Ehemann Maria Theresias und späteren Kaiser, der dafür sein Herzogtum Lothringen an Frankreich übergab. Eine bedeutende netzwerkanalytische Studie von John Padgett und Christopher Ansell zeigt, dass eine Grundlage für den Aufstieg der Medici die besondere Struktur ihres Beziehungsnetzes zwischen den Jahren 1400 und 1434 nach dem Ciompi-Aufstand war. Das Netzwerk der Medici zeigt bei den Beziehungen der Medici in ihrer Partei eine Trennung von Heirats- und ökonomischen Beziehungen. So handelten sie zwar mit den aufsteigenden Wolltuchhändlern, heirateten aber hauptsächlich in noble Familien, die nicht aus ihrem Viertel, San Giovanni, kamen. Dies führte dazu, dass sie in ihrer Partei, anders als die Oligarchen, also die herrschende Elite um die Albizzi, eine zentrale und mächtige Position innehatten und nicht durch andere Familien erpressbar waren. Kunst, Architektur und Wissenschaft. Die größten Leistungen mit Hilfe des Geldes der Medici wurden in Kunst und Architektur vollbracht. Giovanni di Bicci förderte Masaccio und beauftragte Filippo Brunelleschi 1419 mit der Wiederherstellung der Basilica di San Lorenzo di Firenze, die zur Grablege der Medici wurde. Die Künstler, die Cosimo de’ Medici um sich hatte, waren Donatello und Filippo Lippi. Ihr wichtigster Beitrag war jedoch die Förderung Michelangelos, der für eine Reihe von Familienmitgliedern arbeitete, beginnend mit Lorenzo I. de’ Medici, mit dem er den Mittagstisch teilte. Zu seiner Zeit wurden in Florenz so bedeutende Künstler und Gelehrte gefördert wie Angelo Poliziano, Cristoforo Landino, Giovanni Pico della Mirandola, Francesco Granacci, Sandro Botticelli, Marsilio Ficino und Leonardo da Vinci. Über die reine Beauftragung von Künstlern hinaus waren die Medici auch erfolgreiche Sammler, deren Erwerbungen heute den Kern der Uffizien, des Kunstmuseums der Stadt Florenz bilden. In der Architektur gehen einige bedeutende Bauwerke in Florenz auf die Medici zurück, neben der Basilica di San Lorenzo Untersuchungen der Medici-Gräber. Ende April 2004 haben italienische Wissenschaftler unter der Leitung des Paläopathologen Gino Fornaciari damit begonnen, die Gräber von insgesamt 49 Mitgliedern der Familie zu öffnen. Ziel sei es, die genauen Todesursachen, Krankheiten sowie Ernährungsgewohnheiten der Angehörigen zu erforschen. Zunächst wurden verschiedene Grabmäler in den Medici-Kapellen sowie in der Kirche San Lorenzo geöffnet. Dabei wurde gleich zu Beginn der Untersuchungen eine sensationelle Entdeckung gemacht: Unter der Gruft von Gian Gastone wurde eine bislang nicht bekannte Krypta entdeckt, in der acht Leichen gefunden wurden. Die italienischen Wissenschaftler versuchen nun herauszufinden, unter welchen Umständen die Toten – unter denen sich auch Kinder und Jugendliche befinden – ums Leben gekommen sind und warum sie versteckt bestattet wurden. Es wird angenommen, dass es sich dabei ebenfalls um Angehörige des Medici-Geschlechts handelt. Obwohl das Projekt erst in der kommenden Zeit zu Ende gebracht sein wird, steht inzwischen fest, dass die Medici entgegen der gängigen Meinung nicht an Gicht, sondern an einer genetisch bedingten Form der Arthrose erkrankt waren. Zudem aßen sie neben Fleisch auch viel Gemüse und Getreide. Außerdem litten viele Mitglieder der Familie an Karies. An den Knochen von Eleonora von Toledo konnte man feststellen, dass sie vermutlich häufig geritten ist. Eine weitere überraschende Erkenntnis liegt darin, dass entgegen anderslautenden Behauptungen von Historikern des 16. Jahrhunderts Don Garzia de’ Medici seinen Bruder Giovanni nicht getötet hat. An dem Skelett konnten keine Verletzungen gefunden werden. Stattdessen starben beide Brüder vermutlich an Malaria, die sie sich bei Jagdausflügen in der Maremma zugezogen haben könnten. Siehe auch. Nepotismus am Heiligen Stuhl Makro. Ein Makro ist in der Softwareentwicklung eine unter einer bestimmten Bezeichnung (Makroname) zusammengefasste Folge von Anweisungen oder Deklarationen, um diese (anstelle der Einzelanweisungen, i. d. R. an mehreren Stellen im Programm) mit nur einem einfachen Aufruf ausführen zu können. Alle Anweisungen des Makros werden automatisch an der Programmstelle ausgeführt, an denen das Makro codiert wurde. Makros sind eine Variante von Unterprogrammen und können (je nach Implementierung) auch mit Parametern aufgerufen werden. Man unterscheidet Systemmakros (z. B. OPEN (Dateien), PRINT …) und von Benutzern selbst erstellte Makros (z. B. um Prüf- oder Berechnungsfunktionen auszuführen, z. B. Bankleitzahl prüfen). Makros werden z. B. in der Tabellenkalkulation, in der Textverarbeitung und in Datenbanken eingesetzt. Die Arbeit mit diesen Programmen wird erleichtert und beschleunigt, indem eine Befehlsfolge, die häufig gebraucht wird, mit Hilfe eines Makros aufgerufen werden kann. Je nach Softwaretyp können Makros auch über einen Tastenschlüssel oder mit Hilfe eines Menünamens aufgerufen werden. Üblicherweise werden Programme in einer der Programmiersprachen (z. B. Assembler, BASIC, Pascal) kodiert. Es ist auch möglich, innerhalb einer Standardsoftware (z. B. Microsoft Office) eine eigene Programmiersprache zu benutzen. Dabei kann die Programmiersprache softwarebezogen (z. B. Programmierungen in Microsoft Excel mit VBA) oder zur Programmierung ganz allgemein angewandt werden (z. B. Lösungen eines mathematischen Problems). Etymologie. Das Wort "Makro" ist entlehnt aus dem gleichbedeutenden engl. "macro", eine Verkürzung von "macroinstruction", wörtlich in etwa „Groß-Befehl“ (griechisch, "makros" bedeutet „groß“ oder „weit“). Makros in der Programmierung. Ein Makro in der Programmierung ist ein kleines Stück Programmcode, das von einem Interpreter oder Präprozessor durch ein größeres Stück Programmcode ersetzt wird. Damit ist es möglich, oft wiederkehrende Programmstrukturen durch Kürzel zu vereinfachen oder literale Konstanten durch semantische Bezeichnungen zu ersetzen. Makros in Anwendungsprogrammen. Hier sind es nicht die Programmierer, sondern die Benutzer der Software, die per Makros gewisse Arbeitsschritte effizient zusammenfassen können. Menschheit. Menschheit (von althochdeutsch "mennisgheit" „menschliche Natur, menschliches Wesen“) bezeichnet die Gesamtheit aller Menschen, im engeren Sinne die gesamte Weltbevölkerung, oder in einem abstrakteren Sinne die soziale Einheit aller Menschen, beispielsweise bei vermuteten oder tatsächlichen gemeinsamen Entscheidungen oder Interessen sämtlicher Menschen. Mimi Leder. Mimi Leder (* 26. Januar 1952 in New York, New York) ist eine US-amerikanische Filmregisseurin. Leben. Mimi Leder ist eine Tochter des Regisseurs Paul Leder und ihrer Mutter Etyl Leder. Sie begann ihre Karriere in den 1970ern als Drehbuchautorin bei Projekten wie "Spawn of the Slithis" (1978) and "Hill Street Blues" (1981). 1986 begann Leder mit der Regie bei "L.A. Law". In den 1990er Jahren führte sie bei rund einem Dutzend Episoden von "Emergency Room" und gewann dafür Emmy Awards. In den späten 1990er- und frühen 2000er-Jahren führte sie Regie bei mehreren Actionfilmen und Dramen wie "The Peacemaker", "Deep Impact" und "Das Glücksprinzip". Ihr Hauptaugenmerk liegt aber auf Fernsehproduktionen. Das American Film Institute zeichnete sie 1999 mit dem Franklin J. Schaffner Award aus. Leder ist mit Gary Werntz verheiratet und hat mit diesem eine Tochter, Hannah Werntz, welche in einigen von Leders Filmen mitgespielt hat. Mount Everest. Der Mount Everest ist mit der höchste Berg im Himalaya und der höchste Berg der Erde. Er gehört zu den 14 Achttausendern und zu den Seven Summits. Der Mount Everest ist seit 1856 nach dem britischen Landvermesser George Everest benannt. Auf Nepali heißt der Berg Sagarmatha, auf Tibetisch Qomolangma (deutsche Aussprache „Tschomolangma“; englische Umschrift "Chomolungma"). Der Mount Everest befindet sich im Mahalangur Himal in der Region Khumbu in Nepal an der Grenze zu China (Autonomes Gebiet Tibet); der westliche und südöstliche seiner drei Gipfelgrate bilden die Grenze. Auf nepalesischer Seite ist er Teil des Sagarmatha-Nationalparks, der zum UNESCO-Welterbe gehört. Auf der Nordseite gehört er zum "Qomolangma National Nature Reserve", das mit dem von der UNESCO ausgewiesenen "Qomolangma-Biosphärenreservat" korrespondiert. Edmund Hillary und Tenzing Norgay gelang am 29. Mai 1953 die Erstbesteigung des „dritten Pols“. Am 8. Mai 1978 bestiegen Reinhold Messner und Peter Habeler den Gipfel erstmals ohne zusätzlichen Sauerstoff. Namen des Mount Everest. Auf Nepali wird der Berg "Sagarmatha" („Stirn des Himmels“) und auf Tibetisch "Jo mo klungs ma" (in offizieller Transkription: "Qomolangma"; „Mutter des Universums“) genannt. Der chinesische Name "Zhūmùlǎngmǎ Fēng" ist eine phonetische Wiedergabe des Tibetischen. Die heute in Europa übliche Transkription ist das englische "Chomolungma". Das in deutschsprachigen, vor allem älteren, Texten verwendete Tschomolungma wird zugunsten von Chomolungma aus neueren deutschsprachigen Quellen verdrängt. Sir George Everest war lange Jahre Leiter der Großen Trigonometrischen Vermessung Indiens und Surveyor General of India. Unter seinem Nachfolger Andrew Scott Waugh wurde der zunächst als „Peak b“ bezeichnete Gipfel 1848 erstmals von Indien aus vermessen, da Nepal den Zugang zu seinem Territorium verweigerte. Nach weiteren Vermessungsarbeiten über Entfernungen bis zu 200 km folgten umfangreiche, komplexe Berechnungen durch Radhanath Sikdar in den Computing Offices in Dehradun, der 1852 zu dem Ergebnis kam, dass der inzwischen als „Peak XV“ („Gipfel 15“) bezeichnete Gipfel mit 29.002 Fuß (8.840 m) höher ist als alle anderen bisher bekannten Berge. Um letzte Zweifel an der Genauigkeit der Vermessungen wegen der großen Entfernungen auszuräumen, gab Andrew Waugh dieses Ergebnis erst 1856 in einem Schreiben an die Royal Geographical Society bekannt. Dabei benannte er den Berg zu Ehren seines Vorgängers als "Mount Everest". Die heutzutage gebräuchliche Aussprache von Mount Everest lautet, Sir George sprach seinen eigenen Nachnamen allerdings aus. Ausschnitt aus Stielers Handatlas von 1891 mit der Namensnennung "Gaurisankar" Vor allem im deutschen Sprachraum war der Berg lange als "Gauri Sankar" bekannt. Dies beruhte auf einem Missverständnis des deutschen Himalaya-Pioniers Hermann von Schlagintweit. Dieser hatte 1855 versucht, den eben erst als höchsten Berg der Erde errechneten, aber unbekannten Peak XV zu erkunden. Aus der Nähe von Kathmandu betrachtete er die Westseite des Gebirges und sah einen Berg, der in Richtung des Everest lag und alle anderen Berge überragte. Dieser Berg war den Nepali als Gaurisankar bekannt, Schlagintweit hielt ihn jedoch für den mysteriösen Peak XV. Auf diesem Irrtum beruhend und aus Ablehnung des englischen Namen Mount Everest zu Gunsten des „schönen alten Namen[s] Gaurisankar“ wurde in Deutschland diese Bezeichnung für den höchsten Berg der Welt in die Atlanten aufgenommen und in Schulen gelehrt. 1903 wurde festgestellt, dass es sich beim Gaurisankar um einen anderen, nämlich den 7145 m hohen Peak XX handelt; seine Entfernung zum Everest beträgt 58 km. Mythologische Bedeutung. a> in Tibet und Mount Everest. Wie im Grunde alle markanten Gipfel der Khumbu-Region ist auch der Mount Everest für die Sherpas ein heiliger Berg. Der Buddhismus ist bei diesem Volk mit ursprünglicheren Religionen, insbesondere Animismus und Bön, gepaart. Nach der Auffassung der Sherpas bewohnen Geister und Dämonen Quellen, Bäume und eben auch die Gipfel. Der Mount Everest ist nach Ansicht der Buddhisten der Sitz von Jomo Miyo Lang Sangma, einer der fünf „Schwestern des langen Lebens“, die auf den fünf höchsten Gipfeln des Himalaya wohnen. Jomo Miyo Lang Sangma gibt den Menschen Nahrungsmittel. Stupa mit Gebetsfahnen im Everest-Basislager Der große Heilige Padmasambhava, der den Buddhismus von Indien nach Tibet brachte, veranstaltete der Sage nach einen Wettlauf zum Gipfel des Mount Everest. Nachdem Padmasambhava einige Zeit auf dem Gipfel meditiert und mit den Dämonen gekämpft hatte, wurde er von einem Lama der Bön-Religion herausgefordert. Es ging um die Frage, wer von beiden mächtiger sei. Der Lama der Bön-Religion machte sich noch in der Nacht auf den Weg, getragen von seiner magischen Trommel, Padmasambhava erst bei Tagesanbruch. Er gewann trotzdem den Wettlauf, weil er, auf einem Stuhl sitzend, von einem Lichtstrahl direkt zum Gipfel gebracht wurde. Nachdem Padmasambhava einige Zeit oben gewartet hatte, ließ er seinen Stuhl zurück und begann mit dem Abstieg. Der Bön-Lama gab sich geschlagen und ließ seine Trommel zurück. Bis heute sagt man, dass die Geister die Trommel schlagen, wenn eine Lawine zu Tale donnert. Auf Grund dieser Bedeutung wird vor einer Besteigung von den Sherpas eine Opferzeremonie durchgeführt, die sogenannte Puja-Zeremonie. Die Sherpas sind davon überzeugt, dass eine Puja zwingend notwendig ist, um Unheil abzuwenden. Dieses Opferfest ist für ihren Seelenfrieden unabdingbar, und im Allgemeinen nehmen auch alle westlichen Expeditionsteilnehmer daran teil, da sonst, nach dem Glauben der Sherpas, die Berggötter zornig würden, und zwar nicht nur gegenüber den Ausländern, sondern besonders auch gegenüber den Sherpas, die solches zugelassen hätten. Religiöse Symbole wie Manisteine und ein Stupa mit Gebetsfahnen, die mit Mantras bedruckt sind, finden sich am Fuß des Mount Everest. Auf dem Weg zum Everest-Basislager (Mount Everest Trek), am Thokla-Pass zwischen Dingboche und Lobuche, wurde eine Gedenkstätte für die Opfer des Everest angelegt. Den Toten ist mit einem so genannten Steinmann, einem Stapel aufgetürmter Steine, oder einer Stele die letzte Ehre erwiesen. Geologie. Der Mount Everest ist, wie der gesamte Himalaya, während der alpidischen Gebirgsbildung entstanden. Die Konvergenz der indischen Platte und der eurasischen Platte führte zur Schließung der Tethys mit Beginn vor etwa 50 Millionen Jahren im Eozän und in Folge zur Kollision der Kontinente Indien und Asien. Die wesentlich kleinere indische Platte schiebt sich nach wie vor mit einer Rate von etwa drei Zentimetern pro Jahr unter Eurasien. Der Mount Everest wächst infolge der mit der Kollision verbundenen Verdickung der kontinentalen Kruste noch immer, allerdings nur wenige Millimeter im Jahr. Die fortdauernde Hebung wird dabei durch isostatische Ausgleichsbewegungen verursacht, die aus dem Dichteunterschied der gestapelten Kruste im Bereich des Gebirges und der (dichteren) Asthenosphäre folgt. Der Krustenblock erhält dabei einen Auftrieb wie ein Korken im Wasser. Durch den hohen Umschließungsdruck und die hohen Temperaturen bei der Versenkung in den oberen Erdmantel wurden die ursprünglichen Krustengesteine metamorph umgewandelt. Im Everest-Massiv besteht die unterste Einheit der Gipfelpyramide (oberhalb) hauptsächlich aus metamorphen Gesteinen, vor allem dunklen, biotitreichen Gneisen. Die Grenze zu den darüber liegenden Graniten ist durch pegmatitische Gänge relativ deutlich markiert. Der so genannte "„Nuptse-Granit“" (benannt nach dem Nachbarberg Nuptse) ist ein heller Granit, der neben Quarz und Feldspat hauptsächlich Muskovit, Biotit und Turmalin enthält. Er verwittert typischerweise zu großen Blöcken. Auf über Höhe liegen metamorph überprägte Sedimentgesteine. Diese fossilreichen mikritischen Kalksteine bis Tonsteine enthalten Trilobiten, Ostrakoden sowie Seelilien und Haarsterne (Crinoidenkalk). Sie haben eine helle gelbliche Farbe und werden als "„Gelbes Band“" bezeichnet. Sie wurden bei der Gebirgsbildung auf den kristallinen Sockel aus Gneisen und Graniten überschoben und fallen nach Südwesten ein. Daher sind die Gesteine an der Südwestseite des Everest niedriger anzutreffen als an der Nordseite. Die oberste Gipfelpyramide des Everest besteht aus grauem Kalkstein mit Einlagerungen von Sand und Schutt, der nur in geringem Maße der Metamorphose unterlag. Durch das Erdbeben vom 25. April 2015 wurde der Mount Everest nach übereinstimmenden Messungen der chinesischen National Administration of Surveying, Mapping and Geoinformation und US-amerikanische Geologen um drei Zentimeter in südwestlicher Richtung verschoben. Das Beben vom 12. Mai 2015 hatte keine Auswirkungen auf die Lage des Berges. Weitere Untersuchungen ergaben, dass der Berg sich innerhalb von zehn Jahren zuvor mit einer Geschwindigkeit von vier Zentimetern pro Jahr um insgesamt 40 Zentimeter nach Nordosten verschoben sowie um 0,3 cm pro Jahr angehoben hat. Topographie. Ansicht der Gipfelpyramide des Mount Everest (ca. obere 1500 Höhenmeter) von Westen, mit dem deutlich sichtbaren „Gelben Band“ Die Gipfelpyramide ist durch Erosion und gewaltige Gletscher modelliert. Die drei Hauptkämme – Westgrat, Nord-/Nordostgrat und Südostgrat – untergliedern den Gipfel in drei Hauptwände – Südwestwand, Nordwand und Ostwand (Kangshung-Flanke). Außerdem trennen die Grate die drei sich vom Mount Everest und seinen Nachbargipfeln ergießenden Gletscher: Khumbu-Gletscher, Rongpu-Gletscher (auch "Rongbuk-Gletscher") und Kangshung-Gletscher. Südostgrat und Westgrat sowie deren Fortsetzungen bilden die weitere Grenze zwischen Tibet und Nepal. Der Südostgrat verbindet den Mount Everest mit dem hohen Lhotse, der niedrigste Punkt dieses Grats ist der hohe Südsattel (South Col). Im weiteren Verlauf setzt sich der Grat vom Lhotse in Richtung Lhotse Shar () und Peak 38 () fort. Der Westgrat läuft zunächst in einen Nebengipfel – die sogenannte "Westschulter" – aus, welche zum "Lho-La-Pass" () abfällt und sich dann in die Bergkette aus Khumbutse (), Lingtren () und Pumori () fortsetzt. Der auf tibetischer Seite befindliche Nordostgrat zielt vom Gipfel über drei Felsstufen und drei Felsnadeln bis zum östlichen Rongpu-Gletscher hinunter. Von ihm zweigt unterhalb der Stufen und oberhalb der Nadeln der Nordgrat auf einer Höhe von ab und verbindet den Mount Everest über den niedrigsten Punkt am Nordsattel () mit dem hohen Changtse. Vom Lhotse zieht auf nepalesischer Seite in westliche Richtung der lange Bergkamm des Nuptse (), der vom Mount Everest durch das Tal des Schweigens und den Khumbu-Gletscher getrennt wird. Die Wände des Everest sind unterschiedlich gegliedert. Die Südwestwand zum Tal des Schweigens weist zwei markante Pfeiler aus. Sie ist im Ganzen steil (um 60–70 Grad). Die Nordwand ist im Wesentlichen gegliedert durch zwei hochgelegene Couloirs, das Norton-Couloir und das Hornbein-Couloir. Die Neigung der Nordwand variiert um 40–45 Grad. Die stark vergletscherte Ostwand oder Kangshung-Wand hat drei Hauptpfeiler. Sie ist im unteren Teil sehr steil (bis 80 Grad), und im oberen, schwächer geneigten Teil von Hängegletschern markiert. Klima. Die klimatischen Bedingungen am Mount Everest sind extrem. Im Januar, dem kältesten Monat, beträgt die Durchschnittstemperatur auf dem Gipfel −36 °C und kann auf Werte bis zu −60 °C fallen. Auch im wärmsten Monat, dem Juli, steigen die Temperaturen nicht über die Frostgrenze, die Durchschnittstemperatur auf dem Gipfel beträgt dann −19 °C. Im Winter und Frühling herrschen Winde aus westlichen Richtungen vor. Die feuchtigkeitsbeladene Luft kondensiert zu einer weißen, nach Osten zeigenden Wolke (verfälschend häufig als „Schneefahne“ bezeichnet). Wegen dieser Wolkenfahnen hielt man den Himalaya ursprünglich für eine Vulkankette. Anhand der Wolkenfahne des Mount Everest schätzen Bergsteiger auch die Windgeschwindigkeit auf dem Gipfel ab: Bei etwa 80 km/h steht sie rechtwinklig zum Gipfel, bei höheren neigt sie sich nach unten und bei niedrigeren nach oben. Im Winter prallt der südwestliche Jetstream auf den Gipfel und kann Windgeschwindigkeiten von bis zu 285 km/h verursachen. Von Juni bis September gelangt der Berg unter den Einfluss des Indischen Monsuns. In dieser Zeit fallen die meisten Niederschläge, und heftige Schneestürme prägen das Wetter. Wie in allen Hochgebirgsregionen kann es zu raschen Wetterumschwüngen kommen. Dies gilt auch für die beiden Besteigungssaisonen im Mai und Oktober. Plötzlich einsetzende Temperaturstürze, Stürme und Schneefälle von bis zu drei Meter pro Tag sind nicht außergewöhnlich. Zumeist gibt es in der jeweiligen Saison nur wenige Tage mit stabilem Wetter – die sogenannten „Fenstertage“ –, an denen eine Besteigung am ehesten möglich ist. Fauna und Flora. Aufgrund der großen Höhe beträgt der Luftdruck auf dem Mount Everest mit 326 mbar nur knapp ein Drittel des Normaldrucks auf Meeresspiegelniveau (temperaturabhängige barometrische Höhenformel). Hierdurch verschiebt sich der Siedepunkt des Wassers von 100 °C bei Normalbedingungen auf nur 70 °C, und der Sauerstoffpartialdruck der Luft beträgt nur noch ein Drittel des Meeresspiegelniveaus. Hinzu kommen extreme Temperaturschwankungen und starke Winde. An diese äußerst lebensfeindliche Umwelt konnten sich nur wenige Tiere anpassen, Blütenpflanzen sind im Bereich des ewigen Eises nicht mehr zu finden. "Euophrys omnisuperstes", ein kleiner Vertreter der Springspinnen (Salticidae), wurde bereits 1924 von R.W.G. Hingston bis zu einer Höhe von beobachtet. Seine Nahrungsgrundlage blieb lange ein Rätsel. Erst 1954 entdeckte man, dass sie sich von Fliegen und Springschwänzen (Collembola) ernähren, die bis zu einer Höhe von anzutreffen sind. Letztere leben von Pilzen und Flechten, die herangewehtes organisches Material abbauen. Bei der 1924 durchgeführten Everestexpedition wurden Flechten zwischen 4600 und gesammelt. Darauf basierend konnte R. Paulson 1925 etwa 30 Arten nachweisen. Von den Wirbeltieren sind nur einige Vögel in der Lage, sich der extremen Höhe dauerhaft anzupassen. Die Streifengans ("Anser indicus") hält sich bis in Höhen von auf. Alpenkrähen ("Pyrrhocorax pyrrhocorax") wurden selbst am hohen Südsattel beobachtet, wo sie sich von Abfällen, aber auch von tödlich verunglückten Bergsteigern ernähren. Der Leichnam von George Mallory, den man auf ca. fand, wurde vermutlich ebenfalls von Vögeln angefressen. Höhenangaben und -messungen. Waughs Karte der Survey of India Die Höhe des Mount Everest wurde in vielen Messungen bestimmt. Dabei ergaben sich Höhenangaben zwischen 8844 und. Auf Grund der Höhe (Todeszone) und der Eisschicht auf dem Gipfel gestaltet sich die Messung schwierig. Die Eisschicht auf dem Gipfel wird nicht in die Höhe mit eingerechnet, da sie starken Schwankungen unterliegt. Die exakte Höhe muss sich folglich auf die Höhe des Felssockels darunter beziehen. Bei den ersten Messungen war dies noch nicht möglich. Ein weiteres Problem ist die Bezugsgröße Meeresspiegel. Chinesische Messungen gehen vom definiertem Nullpunkt eines Pegels in Qingdao, nepalesische Messungen vom Nullpunkt eines Pegels in Karatschi aus. Die Distanz beider Orte beträgt mehr als 6000 Kilometer, und allein aus diesem unterschiedlichen Bezugssystem ergeben sich deutliche Differenzen. Darüber hinaus basieren GPS-Höhenangaben auf einem vereinfachten Modell der Erde, dem Referenzellipsoid des World Geodetic System 1984. Bei solchen Messungen muss also noch die Differenz zwischen Geoid und Referenzellipsoid berücksichtigt werden, wie beispielsweise bei der Messung im Mai 2004 geschehen. Die Angabe für die Gipfelhöhe des Mount Everest ist seit der ersten Messung im Jahre 1848 mehrfach korrigiert worden. 1856 wurde aus Angaben von sechs verschiedenen Vermessungsstationen errechnet. Die Stationen befanden sich allerdings über 150 Kilometer vom Everestmassiv entfernt, da die Vermesser des britischen Indian Survey nicht nach Nepal einreisen durften. Bis dahin sah man den Dhaulagiri (), den ersten entdeckten Achttausender, und ab 1838 den Kangchendzönga () als höchsten Berg an. Blick auf das Everestmassiv (Ostwand) aus dem Weltraum Region Khumbu mit Mount Everest Die lange Zeit geltende Höhenangabe von war 1954 vom Survey of India aus den Messdaten von insgesamt zwölf Vermessungsstationen als Mittelwert errechnet worden. Diese Angabe wurde von einer chinesischen Expedition im Jahre 1975 bestätigt – sie stellte fest. Auch eine im September 1992 als erste mit modernen Mitteln angestellte Höhenvermessung eines chinesisch-italienischen Expeditionsteams direkt am Berg ergab mit nahezu den gleichen Wert. Die dabei verwendeten Daten stammten sowohl aus Messungen mit herkömmlichen Theodoliten als auch aus Lasermessungen und GPS-Signalen. Sehr genaue Messungen mit Hilfe mehrerer GPS-Empfänger am 5. Mai 1999 ergaben eine Höhe von. Jene Angabe basiert auf der Höhe des Felssockels. Die Stärke der Schicht aus Eis und Schnee am Gipfel schwankt je nach Jahreszeit und Niederschlagsmengen der Monsunzeit etwa im Bereich zwischen einem und drei Metern. Bei einer Messung im Mai 2004 wurden acht Radarreflektoren am Gipfel verankert und so die Höhe des Felssockels bestimmt. Im Anschluss wurde die jeweilige Höhe der Radarprofile ermittelt. Von dieser Höhe wurde dann die Dicke der Eisschicht abgezogen. Der Everest hatte nach dieser Messung eine Höhe von, mit einer Ungenauigkeit von ±0,23 Meter. Damit konnte die Höhe aus dem Jahr 1992 bestätigt werden. Die neueste Messung stammt aus dem Mai 2005, durchgeführt wiederum von einer chinesischen Expedition. Sie ergab für den Berg eine Höhe von, bei einer Ungenauigkeit von ±0,21 Meter. Er ist damit etwa 3,7 Meter niedriger als seit der chinesischen Messung von 1975 angenommen. Allerdings bezieht sich die aktuelle Angabe, wie auch schon die von 1999 und 2004, nur auf den reinen Felssockel. Diese letzte Untersuchung wurde von Chinas Nordseite und nicht vom nepalesischen Süden aus unternommen und dauerte ein Jahr. Eingesetzt wurden Radardetektoren sowie Lasermessgeräte und Satellitenortungssysteme. Während der Mount Everest die höchste Erhebung über dem Meeresspiegel ist, existieren noch zwei weitere Berge, die den Titel „höchster Berg der Erde“ verdienen. Vom Fuß des Berges aus gemessen ist dies der Vulkan Mauna Kea auf Hawaii, vom Erdmittelpunkt aus gerechnet der Chimborazo in Ecuador. Erste Besteigungsversuche. Die britische Armee-Expedition von Francis Younghusband bahnte sich im Jahre 1904 gewaltsam ihren Weg durch Tibet, um das Land zur Öffnung seiner Grenzen und Gewährung von Handelsprivilegien zu zwingen. Dabei wurde von J. Claude White auch die erste detaillierte Fotografie der Ostflanke von Kampa Dzong aus (etwa 150 Kilometer Entfernung) angefertigt. Bei den eigentlichen Erkundungs- und Besteigungsexpeditionen wurde dagegen versucht, eine Genehmigung durch den Dalai Lama zu erhalten. Es dauerte bis zum Jahr 1921, ehe er der Royal Geographical Society diese Erlaubnis aussprach, welche daraufhin 1921, 1922 und 1924 Expeditionen entsandte. Die erste Britische Erkundungsexpedition wurde 1921 in das Gebiet entsendet. Hier ging es aber noch nicht primär um die Besteigung des Berges, sondern um geologische Vermessungen, die Kartierung des Gebietes und eine erste Erkundung möglicher Aufstiegsrouten. Teilnehmer der Expedition beendeten die Vermessung von 31.000 Quadratkilometern. Im Verlaufe dieser Expedition entdeckte George Mallory vom Lhakpa La aus eine gangbare Route zum Gipfel, die seitherige Standard-Nordroute durch das Tal des östlichen Rongpu-Gletschers auf den Nordsattel. Ein kurzfristig angegangener Besteigungsversuch scheiterte auf dem Nordsattel am einsetzenden Monsun. In den Jahren 1922 und 1924 wurden mehrere Besteigungsversuche unternommen, die vor allem mit dem Namen Mallory verbunden sind. Beim dritten Versuch der 1922er Expedition löste sich am 7. Juni während des Aufstiegs vom Lager III eine Lawine und riss sieben Träger in den Tod. Im Mai/Juni 1924 unternahm eine Expedition mehrere Anläufe, musste sie aber wegen schlechten Wetters immer wieder aufgeben. Mallory und Andrew Irvine kehrten von ihrem Aufstiegsversuch nicht mehr zurück. Bis heute gibt es Diskussionen um die Frage, ob sie auf dem Gipfel waren oder bereits vorher zu Tode kamen. Mallorys Leiche wurde 1999 ohne eindeutigen Beweis für das Erreichen des Gipfels gefunden, Irvine ist nach wie vor verschollen. Auch in den 1930er Jahren versuchten mehrere britische Expeditionen, den Gipfel des Mount Everest zu erreichen, bei denen erstmals auch Tenzing Norgay als Träger dabei war. In den 1940er Jahren gab es keine ernsthaften Besteigungsversuche. In den 1950er Jahren gab es einen Wettlauf zweier Nationen um den Gipfel. Infolge der chinesischen Okkupation war Tibet für Ausländer nicht mehr zugänglich, jedoch hatte das Königreich Nepal, das zwischen 1815 und 1945 Ausländern die Einreise und damit die Erkundung des Himalaya verwehrt hatte, seine Blockadehaltung inzwischen aufgegeben und einzelne Expeditionen genehmigt. Die Südwestseite des Everest war kaum bekannt, Mallory konnte zwar 1921 vom Lho La aus einen Blick auf die Südseite und in das Western Cwm werfen, ob von dort aus aber der Berg besteigbar oder zumindest der Südsattel erreichbar sei, blieb unbekannt. 1951 erkundete eine britische Expedition diesen Zugangsweg. 1952 wurden zwei Schweizer Expeditionen genehmigt, die aber ebenfalls scheiterten. Die erfolgreiche Erstbesteigung. Edmund Hillary, 1957 in der Antarktis, vier Jahre nach seiner Erstbesteigung des Mount Everest 1953 wurde die neunte britische Expedition zum Mount Everest, diesmal unter der Leitung von John Hunt ausgerichtet. Nachdem mehrere Hochlager errichtet worden waren, wurden zwei Seilschaften gebildet. Die erste Seilschaft sollte quasi einen Schnellschuss wagen, die zweite dann bei Misserfolg das letzte Hochlager weiter nach oben verlegen. So sollte der Erfolg sichergestellt werden. Die erste Seilschaft bestand aus Tom Bourdillon und Charles Evans. Sie erreichten am 26. Mai den Südgipfel, mussten aber aufgeben, weil die von Bourdillon und seinem Vater entwickelten geschlossenen Sauerstoffsysteme infolge Vereisung versagten. Dies kostete sie so viel Zeit, dass ein weiterer Aufstieg keine Chance für einen sicheren Abstieg gelassen hätte. Die zweite Seilschaft verwendete nun ein traditionelles, offenes Sauerstoffsystem. Zwei Tage später schafften es der Neuseeländer Edmund Hillary und die Sherpas Tenzing Norgay und Ang Nyima, das letzte Lager auf eine Höhe von zu verlegen. Ang Nyima stieg dann wieder ab, während Hillary und Norgay am 29. Mai um 6:30 Uhr Richtung Gipfel aufbrachen. Da sie weiter oben am Berg losstiegen, erreichten sie den Südgipfel bereits um 9:00 Uhr. Gegen 10:00 Uhr erreichten sie eine Felsstufe, die später Hillary Step genannt wurde und die das letzte bergsteigerische Hindernis darstellt. Gegen 11:30 Uhr standen sie auf dem Gipfel. Hillarys erste Worte an seinen langjährigen Freund George Lowe nach seiner Rückkehr waren: ' Die Meldung von der erfolgreichen Erstbesteigung erreichte London am Morgen der Krönung von Elisabeth II. Am 16. Juli 1953 wurde Hillary der Order of the British Empire verliehen, der gleichzeitig seine Erhebung in den Adelsstand des britischen Königreichs bedeutete. Norgay wurde von Elisabeth II. durch die Verleihung der George Medal geehrt. Die Erstbesteigung löste ein großes internationales Echo aus und wurde als Eroberung des „dritten Pols“ (nach Nord- und Südpol) gefeiert. Wer von beiden zuerst auf dem Gipfel stand, war Gegenstand eines heftigen Disputs. Ein Gipfelfoto existiert nur von Tenzing Norgay, da dieser nicht in der Lage war, die Kamera zu bedienen und somit Hillary nicht ablichten konnte. Hillary sagte mal, dass der Gipfel des Everest kein geeigneter Ort sei, um dort jemandem das Fotografieren beizubringen. Tenzing Norgay wurde von asiatischer Seite als Erstbesteiger gefeiert und ihm sogar eine Unterschrift unter ein entsprechendes Dokument abgenötigt. Er gab aber 1955 zu, dass Hillary zuerst seinen Fuß auf den Gipfel setzte. Beide betonten jedoch, dass die Erstbesteigung das Werk eines Teams war und blieben lebenslang befreundet. Hillary sagte auch, dass er sich nach Spuren umgesehen habe, die eventuell von einem Gipfelgang von Mallory oder Irvine stammten, habe aber nichts erkennen können, das zeige, dass zuvor schon einmal jemand dort gewesen sei. Der Frage, ob er denke, dass er tatsächlich der erste ganz oben gewesen sei, entgegnete er unwiderleglich, er wisse, dass er ganz oben war und auch heil wieder heruntergekommen sei – und das sei das, worauf es ankomme. 1950er und 1960er Jahre. 1956 war erneut eine Schweizer Expedition am Berg. Den Bergsteigern Ernst Schmied und Jürg Marmet am 23. Mai sowie einen Tag später Dölf Reist und Hansruedi von Gunten gelang die zweite beziehungsweise dritte Besteigung auf der Route der Erstbesteiger. Ernst Reiss und Fritz Luchsinger gelang im Rahmen dieser Expedition am 18. Mai die Erstbesteigung des benachbarten Lhotse. 1960 wurde der Mount Everest erstmals von tibetischer Seite aus (Nordostgrat) durch eine chinesische Expedition bestiegen. Die Bergsteiger Wang Fu-chou, Konbu und Qu Yinhua waren vermutlich die ersten, die den Second Step erklettern konnten. Das letzte Stück soll Chu Ying-hua sogar barfüßig von den Schultern eines Teamkollegen gemeistert haben. Diese Besteigung wurde jedoch vereinzelt angezweifelt, da es keine sichere Dokumentation für den Gipfelsieg gibt. Ein damals veröffentlichtes Foto zeigt aber den Berg oberhalb des Second Step. Mittlerweile wird diese Besteigung offiziell anerkannt. Besser dokumentiert und daher vereinzelt noch als Erstbesteigung dieser Route angesehen ist die einer ebenfalls chinesischen Expedition im Jahr 1975. 1963 eröffnete die erste amerikanische Expedition unter der Leitung von Norman Dyhrenfurth eine neue Route über den Westgrat. Tom Hornbein und Willi Unsoeld stiegen vom Tal des Schweigens aus auf die Westschulter, folgten dem Westgrat, mussten dann aber wegen zu großer technischer Schwierigkeiten auf dem Grat in die Nordwand ausweichen. Sie stiegen in der seither „Hornbein-Couloir“ genannten Schlucht der Nordwand zum Gipfel und führten dann die erste Überschreitung des Mount Everest durch, indem sie ihren auf der Südroute angestiegenen Kameraden im Abstieg folgten. Diese Überschreitung war zugleich die erste Überschreitung eines Achttausenders überhaupt. Die 1970er Jahre. Am 16. Mai 1975 stand mit der Japanerin Junko Tabei die erste Frau auf dem Gipfel. Wenig später erreichte die Tibeterin Phantog als Teilnehmerin der chinesischen Nordgrat-Expedition als zweite Frau den Gipfel. Im selben Jahr wurde die Südwestwand, die sich 2500 m aus dem Tal des Schweigens erhebt, von einer britischen Expedition unter Leitung von Chris Bonington durch Doug Scott und Dougal Haston zum ersten Mal bewältigt. An dieser Wand waren zuvor bereits sechs Expeditionen gescheitert. Die Schlüsselstelle in der Route ist die Überwindung eines gewaltigen Felsbandes oberhalb der schneegefüllten Rinne. Doug Scott und Dougal Haston biwakierten beim Abstieg eine Nacht in einer Schneehöhle am Südgipfel (). Am 3. Mai 1978 war mit Robert Schauer der erste Österreicher auf dem Gipfel. Schauer glückte 18 Jahre später eine zweite und 2004 eine dritte Besteigung. Nur fünf Tage später, am 8. Mai 1978, bezwangen Reinhold Messner und Peter Habeler den Gipfel erstmals ohne zusätzlichen Sauerstoff. Weitere drei Tage später erreichte Reinhard Karl aus derselben Expedition als erster Deutscher den Gipfel. Weitaus weniger bekannt ist, dass im Herbst desselben Jahres Hans Engl als erster Deutscher den Gipfel ebenfalls ohne zusätzlichen Sauerstoff erklomm. Dem Österreicher Franz Oppurg gelang am 14. Mai 1978 die erste Solobesteigung des Mount Everest. Die erste deutsche Frau stand 1979 auf dem Gipfel: Hannelore Schmatz kam aber beim Abstieg ums Leben. Die wohl schwierigste Grat-Route, der direkte Westgrat, wurde ebenfalls 1979 durch eine jugoslawische Expedition gemeistert. Andrej Štremfelj und Jernej Zaplotnik überwanden schwierigste Felspassagen. 1980er und 1990er Jahre. In den 1980er Jahren gelangen die erste Winter- und die erste Alleinbegehung sowie neue, schwierige Routen auf den Gipfel. Die erste Winterbegehung der Südsattelroute praktizierte 1980 eine polnische Expedition. Am 17. Februar erreichten Leszek Cichy und Krzysztof Wielicki den Gipfel, wobei sie mit Temperaturen von bis zu −45 °C und Windgeschwindigkeiten von fast 200 km/h zu kämpfen hatten. Im selben Jahr gelang Reinhold Messner die erste Alleinbegehung des Berges im reinen Alpinstil. Zudem wurde die Nordwand von den Japanern Takashi Ozaki und Tsuneo Shigehiro erstmals vollständig durchstiegen. Jerzy Kukuczka war mit einer polnischen Expedition am Südpfeiler erfolgreich. 1982 eröffnete eine sowjetische Expedition eine neue Route über den Südwestpfeiler. Die Ostwand wurde 1983 durch die US-Amerikaner Louis Reichardt, Kim Momb und Carlos Buhler bezwungen. 1986 durchstiegen Erhard Loretan und Jean Troillet das Hornbein-Couloir. Im Jahr 1995 wurde der lange Nordostgrat vollständig bis zum Gipfel begangen. Im selben Jahr schaffte es die Schottin Alison Hargreaves als erste Frau ohne zusätzlichen Sauerstoff auf den Gipfel. 1996 wurde die Saison durch zwölf Todesfälle überschattet, die bis zu diesem Zeitpunkt tödlichste Saison am Mount Everest. In einem am Mittag aufziehenden Höhensturm kamen mehrere Bergsteiger aus der Gipfelzone nicht mehr zurück zu ihren Zelten, unter anderem sehr erfahrene Expeditionsleiter, die zuvor schon mehrfach oben gewesen waren. Einzelheiten dazu stellt der Artikel "Unglück am Mount Everest (1996)" dar. Der britische Abenteurer Bear Grylls bestieg 1998 als damals jüngster Brite mit 23 Jahren den Mount Everest. Am 27. Mai 1999 schaffte Helga Hengge über die Nordroute als erste Deutsche die erfolgreiche Besteigung. Seit 2000. Evelyne Binsack erreichte am 23. Mai 2001 als erste Schweizerin den Gipfel. 2004 eröffnete eine russische Expedition eine neue Route durch die Nordwand, die weitgehend eine Direttissima darstellt. Am 30. Mai erreichten Pawel Schabalin, Ilja Tuchvatullin und Andrej Mariew den Gipfel. Anlässlich der Olympischen Sommerspiele 2008 in Peking wurde die olympische Fackel während des Fackellaufes am 8. Mai 2008 von Bergsteigern von der tibetischen Seite auf den Gipfel gebracht. Um dies medial besser präsentieren zu können, wurde die Straße zum nördlichen Basislager im Rongpu-Tal befestigt, und der Mobilfunkanbieter China Mobile installierte im Jahr 2007 insgesamt drei Sendemasten (auf 5200, 5800 und Höhe). Vor und während der Besteigung mit der Fackel war der Berg für alle anderen Bergsteiger gesperrt. Die Südkoreaner Park Young-seok, Kang Ki-seok, Jin Jae-chang und Shin Dong-min eröffneten im Jahr 2009 eine neue Route in der Westwand. Als erste Österreicherin erreichte Sylvia Studer gemeinsam mit ihrer Tochter Claudia und ihrem Mann Wilfried 2010 den Gipfel. Am 18. April 2014 kamen auf der nepalesischen Seite 16 Menschen (darunter drei Vermisste) durch eine Lawine im Khumbu-Eisbruch auf 5800 Meter Höhe ums Leben, das bis dahin folgenreichste Unglück in der Besteigungsgeschichte. Aufgrund des Erdbebens vom 25. April 2015 kam es zu Lawinen im Bereich des Basislagers. Dabei kamen mindestens 18 Personen ums Leben, was das bisher schwerste Unglück in der Besteigungsgeschichte darstellt. Zum Zeitpunkt des Unglücks am Samstag hielten sich nach offiziellen Angaben etwa 1000 Bergsteiger und Träger am Mount Everest auf. Nach dem Erdbeben verboten die chinesischen Behörden aufgrund möglicher Gefahren durch locker gewordenes Eis und Gestein die weitere Besteigung des Mount Everest über die Nordroute bis zum Vormonsun 2016. In Nepal wurde kein offizielles Besteigungsverbot erlassen, da aber der Khumbu-Eisbruch nicht erneut versichert werden konnte, endeten auch auf der Südroute die Besteigungsversuche. Kommerzielle Besteigungen. Seit den 1980er Jahren ist eine regelrechte Everest-Euphorie ausgebrochen, was zu einem deutlichen Anstieg der Zahl der Gipfelbesteigungen geführt hat. Während bis 1979 – also innerhalb von 27 Jahren seit der Erstbesteigung – nur 99 Menschen auf dem Gipfel waren (drei von ihnen zweimal), verdoppelte sich die Zahl der Gipfelbesteigungen zwischen 1980 und 1985 – innerhalb von nur sechs Jahren. 1993 erreichten erstmals mehr als 100 Menschen in einem Jahr den Gipfel. Im Jahr 2003 konnten mit 266 erstmals mehr als 200 Besteigungen gezählt werden. In der Rekordsaison 2007 wurde der höchste Punkt von 604 Bergsteigern erreicht. Da in diesem Jahr einige Bergsteiger mehrmals auf dem Gipfel standen, konnten sogar 630 Besteigungen gezählt werden. Das Spektrum der Gipfelaspiranten reicht von erfahrenen Alpinisten bis zu weniger geübten, die sich auf die von ihren Bergführern gelegten Fixseile verlassen müssen. Die Kosten hierfür betragen zwischen 13.000 und 65.000 US-Dollar. Im Jahr 2010 stiegen von der nepalesischen Seite 30 Teams auf, mit denen 170 Bergsteiger den Gipfel erreichten. Alleine die Gebühren für Genehmigungen für diese 30 Teams betrugen 2.343.000 US-Dollar, das sind 77 Prozent aller vom Staat eingenommenen Besteigungsgebühren im Jahr 2010 (für einige Berge in Nepal werden die Genehmigungen nicht vom Staat, sondern von der „Nepal Mountineering Association“ vergeben). Etwa ein Drittel aller Bergsteiger am Everest gehören zu einer kommerziellen Expedition. Nach wie vor sind Besteigungen ohne Flaschensauerstoff selten. Das Expeditions-Bergsteigen am Everest in der klassischen „Himalaya-Belagerungstaktik“ wird seit den Erfolgen Messners (1978 Besteigung mit Habeler, 1980 Alleingang, beide Male ohne zusätzlichen Sauerstoff) immer kritischer betrachtet: Die Anziehungskraft des höchsten Berges der Erde lockt viele, die sich dieser Herausforderung nur stellen können, wenn sie sich umfangreich Hilfe kaufen; Träger, die sie vom Schleppen aller Lasten außer der minimalen persönlichen Ausrüstung entbinden, sogar die Zelte und die Schlafsäcke werden von Sherpas getragen, damit der teuer zahlende Kunde seine Kräfte für den Gipfel aufsparen kann. Von vielen renommierten Bergsteigern wird der Mount Everest wegen des großen Andrangs mittlerweile gemieden. Leiche eines indischen Bergsteigers, der 1996 ums Leben kam Bei zwei kommerziellen Besteigungen fanden 1996 zwölf Menschen den Tod, weil sie hoch oben von einem plötzlichen Wetterumschwungen überrascht wurden. Diese Ereignisse sind in dem IMAX-Film "Everest – Gipfel ohne Gnade" und in den Büchern von Jon Krakauer ("In eisige Höhen") und Anatoli Bukrejew ("Der Gipfel. Tragödie am Mount Everest") beschrieben. Die Routen auf den hohen Hängen des Mount Everest sind von den Leichen gestorbener Bergsteiger gesäumt: Über 200 Menschen ließen beim Versuch der Besteigung ihr Leben. Die Versuchung unbedingt auf dem höchsten festen Punkt der Erdoberfläche stehen zu wollen ist groß für viele nicht ausreichend Erfahrene. Anstrengung und Sauerstoffmangel führen zu schlechteren Reaktionen und eingeschränkten Denkvermögen, welche die Entscheidung zur Umkehr bei widrigen Verhältnissen erschwert. An manchen der jeweils sehr wenigen „Fenstertage“ im Jahr (im Mai, vor dem Aufkommen des Monsuns) stauen sich an den klettertechnisch schwierigeren, mit Fixseilen gesicherten Stellen die Aufstiegswilligen teils mehrere Stunden lang: Die Zeit verrinnt, man kühlt beim Warten aus und die Gefahr steigt, nicht mehr bei Tageslicht absteigen zu können. Wer hoch oben am Everest in die zweite Nacht gerät (der Endaufstieg muss in der Nacht davor vor Mitternacht beginnen), hat extrem schlechte Aussichten, ohne schwere körperliche Schäden (erfrorene Zehen, Füße, Finger, Nase) wieder vom Berg herabzukommen. Auch die Hilfsmöglichkeiten der Bergführer sind in der extremen Umgebung auf den letzten zweitausend Höhenmetern sehr begrenzt. Hilfeleistung unterbleibt oft auch wegen des Risikos eigener gesundheitlicher Schäden oder wegen der Vereitelung der eigenen Gipfelchancen. Umweltverschmutzung durch den Bergsport. Ein weiteres Problem dieser Art von „Tourismus“ ist, dass die Umweltverschmutzung der Lager durch Müll (Zelte, Sauerstoffflaschen, Speisereste, Dosen und Medikamente) rapide zugenommen hat. Der Südsattel wurde schon als „höchste Müllkippe der Erde“ tituliert. Mittlerweile wird von administrativer Seite verstärkt versucht, diese Begleiterscheinungen zu reduzieren. Jede Expedition muss ein Müllpfand hinterlegen, das nur zurückbezahlt wird, wenn die gesamte Ausrüstung und sogar die Fäkalien aus dem Basislager wieder abtransportiert werden. Zudem werden in regelmäßigen Abständen Expeditionen ausgerichtet, die Müll aus den Hochlagern vom Berg herunterholen. Seit dem Frühjahr 2014 sind Bergsteiger sogar verpflichtet, mindestens 8 Kilogramm Altmüll auf dem Abstieg einzusammeln und mitzubringen. Auch private Initiativen versuchen das Problem zu mildern. Der Japaner Ken Noguchi hat bereits fünf Säuberungsexpeditionen ausgerichtet und dabei neun Tonnen Abfälle abtransportiert. Im Jahr 2010 startete eine Initiative von 20 Sherpas unter Leitung von Namgyal Sherpa, die das Ziel hatte, den Berg von mindestens 3.000 kg Bergsteiger-Müll (alte Zelte, Seile, Sauerstoffflaschen, Nahrungsmittelverpackungen, u. a.) zu säubern. Nebenbei sollten auch die Leichen von mehreren Bergsteigern (u. a. Scott Fischer † 1996, Gianni Goltz † 2008, Rob Hall † 1996) geborgen werden. Eine weitere Herausforderung für die fragile Hochgebirgsökologie und für die Einheimischen resultiert aus dem Bauboom am Everest, der ein neues Kapitel des dortigen Fremdenverkehrs einleitet. Hotelähnliche Komfort-Lodges setzen bisher nicht gekannte Maßstäbe, sie befinden sich nicht mehr an den traditionellen Siedlungsschwerpunkten und bieten für den „Komforttrekker“ einen an die örtlichen Verhältnisse unangepassten Luxus ("siehe auch" Mount Everest Trek). Statistik. Vor den anvisierten Gipfeltagen steigen die Bergsteiger an Fixseilen entlang durch die Lhotse-Wand. Oben auf der Moräne ist Lager II zu erkennen. Seit der Entdeckung von 1852, dass der Everest der höchste Berg der Erde ist, mussten 21 Menschen ihr Leben lassen, 15 Expeditionen aufbrechen und 101 Jahre vergehen, bis der höchste Punkt des Everest schließlich zum ersten Mal betreten wurde. Die Statistik listet bis Ende 2006 über 14.000 Besteigungsversuche, von denen 3057 erfolgreich waren. Nur etwa einer von fünf Aspiranten schafft es also, den Gipfel zu erreichen. Bis Ende 2010 können insgesamt 5104 Gipfelerfolge gezählt werden. Davon wurden nur 173 Besteigungen ohne Zusatzsauerstoff durchgeführt. Demzufolge sind die Hälfte aller erfolgreichen Besteigungen bis Ende 2010 innerhalb von fünf Jahren (2006–2010) durchgeführt worden. Bis 2013 starben am Everest insgesamt 248 Menschen – 140 auf nepalesischer und 108 auf der tibetischen Seite. Häufige Todesursachen sind Abstürze, Erfrierung, Erschöpfung, Höhenkrankheit und Lawinen. Die meisten Bergsteiger verunglücken oberhalb von während des Abstiegs. Besteigungen ohne Flaschensauerstoff sind durchschnittlich nur halb so oft erfolgreich und mit einem doppelt so großen Todesrisiko behaftet wie Besteigungen mit Flaschensauerstoff. Am 23. Mai 2010, dem bisher größten Ansturm, standen 169 Menschen auf dem höchsten Berg der Erde. Die schnellste Besteigung gelang dem Sherpa Pemba Dorjee, der am 21. Mai 2004 den Aufstieg vom Basislager zum Gipfel in nur 8:10 Stunden schaffte. Auf der Nordroute hält Christian Stangl seit dem Jahr 2006 mit 16:42 den Rekord, wobei er allerdings am vorgeschobenen Basislager startete. Hans Kammerlander brauchte auf derselben Route zehn Jahre zuvor nur wenige Minuten länger. Bei diesen Schnellbesteigungen ist aber zu beachten, dass der genaue Startpunkt bei jeder Besteigung anders war und sie deshalb kaum miteinander verglichen werden können. Die meisten Besteigungen hat bisher der Sherpa Appa durchgeführt, der mittlerweile 21 Mal (Stand: Mai 2011) auf dem Gipfel stand. Der jüngste Besteiger war der US-Amerikaner Jordan Romero, der im Jahr 2010 im Alter von 13 Jahren den Gipfel erreichte. Mit einem Alter von 80 Jahren war der Japaner Yūichirō Miura am 23. Mai 2013 der älteste Mensch auf dem Gipfel. Er war damit auch der älteste Mensch überhaupt, der je auf einem Achttausender stand. Die bisher älteste Frau, die auf dem Everest war, ist die Japanerin Tamae Watanabe. Sie erreichte erstmals am 16. Mai 2002 als schon damals mit 63 Jahren älteste Besteigerin den Gipfel über die Südostroute von Nepal aus. Durch eine erneute Begehung des Gipfels am 19. Mai 2012 über die Nordroute von Tibet aus erhöhte sie ihren eigenen, bis dahin ungeschlagenen Altersrekord auf 73 Jahre. Routen. Die beiden Hauptrouten des Mount Everest. Am Everest gibt es bis heute insgesamt 20 Routen. Die beiden Standardrouten sind die Südroute und die Nordroute. Die weiteren Routen sind technisch deutlich schwieriger und zum größten Teil nur einmalig begangen worden. Endpunkt aller Routen ist ein nur etwa zwei Quadratmeter großes Gipfelplateau. Die chinesische Nordroute ist im Vergleich zur nepalesischen Südroute mit etwa 40.000 US-$ (Stand 2005) für den zahlenden Kunden um ein Drittel „preiswerter“, wenn man sich einer der zahlreichen geführten Expeditionen anschließt. Der Grund dafür sind logistische Vorteile (niedrigere Gebühren für die staatliche Genehmigung einer Expedition, Zahl der notwendigen Yaks und Träger, Zahl der Sauerstoffflaschen und weiteres). Die prozentuale Erfolgsrate der Nordroute ist jedoch aufgrund der sehr weiten Wege geringer als auf der Südroute. In jedem Fall muss man sich der Gefahren des geringen Sauerstoffgehalts der Luft, plötzlicher Wetterumschwünge und heftiger, äußerst kalter Winde auf den Graten bewusst sein. Der Aufenthalt in der so genannten „Todeszone“ oberhalb ist auf der Nordroute um ein bis zwei Tage länger; dementsprechend ist das Risiko, wegen widrigen Wetters oben festzusitzen oder gar unterwegs in Nebel oder Schneesturm zu geraten, auf der Nordseite höher. Südroute. Khumbu-Eisbruch. Der Gipfel ist aus dieser Perspektive nicht zu sehen. Die Südroute gilt als Standardroute und wurde auch bei der Erstbesteigung gewählt. Vom Basislager auf der nepalesischen Südseite auf etwa führt sie zunächst durch den Khumbu-Eisbruch "(Khumbu Icefall)": eine steile Passage, in der das Gletschereis aus dem Tal des Schweigens 600 Meter abfällt und in große Blöcke – sogenannte Séracs – zerbricht, die den Aufstieg sehr erschweren. Da sie aufgrund der Eisbewegung jederzeit umstürzen können, ist es nur zu kühlen Tageszeiten ratsam, sie zu durchklettern. Der Khumbu-Eisbruch wird jeweils zu Saisonbeginn von einem Team aus Sherpas mit Leitern und Fixseilen gesichert. Diese gesicherte Route wird von allen Expeditionen gemeinsam genutzt. Der weitere Verlauf der Route führt durch das Tal des Schweigens (Western Cwm, „kuum“ gesprochen, aus dem Walisischen). Das "Western Cwm" ist ein von Mount Everest, Lhotse und Nuptse eingeschlossenes Kar mit etwa 3 Kilometer Länge und das höchstgelegene Kar der Erde. Nach Durchquerung dieses Talkessels setzt sich der Weg über die vergletscherte westliche Lhotse-Flanke fort. Sie ist etwa 60 Grad steil und umfasst 1000 Höhenmeter. Im oberen Teil der Wand führt die Route über den Genfer Sporn zum zwischen Lhotse und Everest gelegenen Südsattel "(South Col)" auf etwa Höhe, wo fast alle Expeditionen das Hochlager für die Gipfeletappe einrichten. Es wurden allerdings auch schon noch höher gelegene Lager eingerichtet. Vom Südsattel aus führt der Weg den Grat des Everest hinauf bis zum Südgipfel etwa 100 Höhenmeter unterhalb des eigentlichen Gipfels, dann über das letzte große Hindernis, eine etwa zwölf Meter hohe, fast senkrechte Felskante, den Hillary Step. Nordroute. Die Alternative zur Südroute ist die Nordroute von der chinesischen Seite aus. Sie beginnt im Rongpu-Tal mit einem Basislager in etwa Höhe und führt in einem Zweitagestrek mit Yak-Transport in das Tal des östlichen Rongpu-Gletschers, wo sich am Fuß der Nordsattel-Wand das vorgeschobene Basislager (ABC, "advanced base camp") befindet. Dann geht die Tour den Steilhang hinauf auf den Nordsattel "(North Col)" mit etwa Höhe, von wo aus die ausgesetzten Gipfelgrate (Nordgrat und Nordostgrat) den weiteren Aufstieg über geringer geneigte Grate (im Vergleich zur steileren Südroute) ermöglichen. Ernsthaftes kräftezehrendes und klettertechnisches Hindernis ist hinter dem letzten Lager in etwa Höhe hoch auf dem oberen Grat die mittlere der drei Felsstufen "(Second Step)" mit einer Fußhöhe auf etwa. Der Second Step weist eine Kletterhöhe von etwa vierzig Metern auf, die letzten fünf Meter sind fast senkrecht. Hier wurde von einer chinesischen Expedition im Jahr 1975 eine Leiter befestigt. Von dort führt die zumeist auf dem Grat verlaufende Route noch recht weit und auch über das bis zu 50 Grad steile Gipfelschneefeld. Bei seiner Alleinbegehung des Mount Everest umging Reinhold Messner den Second Step und wählte einen Weg durch das Norton-Couloir. Direttissime. Zwei der drei Hauptwände wurden bereits in etwa direkter Falllinie zum Gipfel (Direttissima) bezwungen: 1975 die Südwestwand und 2004 die Nordwand. An der Ostwand "(Kangshung-Wand)" gibt es zwei erstiegene Routen, die jedoch nicht als Direttissime gezählt werden können. Die Ostwand- oder Kangshung-Direttissima ist somit bislang unbewältigt. Unternähme man diese, so müsste man in einer der – vom Fuß zum Gipfel gerechnet – höchsten Wände der Erde weit mehr als 3500 Meter steilen, lawinengefährdeten Felsen durchsteigen. Luftfahrzeuge am Everest. Am 3. April 1933 wurde der Mount Everest erstmals von einem Flugzeug überflogen, einer Westland PV-3 (Kennzeichen: G-ACAZ) und einer sie begleitenden Westland PV-6 (G-ACBR), beide ausgerüstet mit einem Bristol-Pegasus-Motor. Unter der Leitung von Douglas Douglas-Hamilton, Lord Clydesdale und späterer 14. Duke of Hamilton, wurden während des Fluges mit offenen Doppeldeckern wichtige Erkenntnisse über Flüge in großer Höhe gesammelt, die zur weiteren Entwicklung der Druckkabine beitrugen. Der Franzose Didier Delsalle landete am 14. und am 15. Mai 2005 als erster Mensch auf dem Gipfel des Mount Everest: mit einem speziell präparierten Hubschrauber vom Typ Eurocopter AS 350 B-3, mit „Hover Landings“. D. h. bei fast voller Motorleistung nur eben aufgesetzt, um bei Gefahren oder Böen unmittelbar wieder starten zu können. Er stieg am Gipfel nicht aus und konnte dort auch keine Lasten aufnehmen. 2007 überflog Bear Grylls den Mount Everest mit einem Motorschirm. Weblinks. Everest, Lhotse und Nuptse am Morgen Monopol. Als Monopol (Zusammensetzung aus „allein“ und ' „verkaufen“) bezeichnet man in den Wirtschaftswissenschaften eine Marktsituation (Marktform), in der für ein ökonomisches Gut nur "ein" Anbieter vorhanden ist. Bedeutungsgleich spricht man auch von einem reinen Monopol, um von Marktformen zu unterscheiden, in denen beispielsweise nur in einem kleineren Teilbereich Monopolstrukturen vorherrschen (wie im Fall "monopolistischer Konkurrenz," siehe auch unten der Abschnitt "Quasi-Monopol"). Mitunter wird auch, entgegen der etymologischen Bedeutung ("pōlein" „verkaufen“) sowie der in diesem Artikel zugrunde gelegten Definition eine Marktsituation als Monopol bezeichnet, in der nur ein Nachfrager auftritt. Man spricht bei dieser Form dann von einem "Nachfragemonopol" in Abgrenzung vom oben skizzierten "Angebotsmonopol;" üblich ist für das Nachfragemonopol jedoch die (auch etymologisch stimmige) Bezeichnung "Monopson." Abgrenzung von strukturverwandten Marktsituationen. Bei einem bilateralen Monopol stehen sich ein Anbieter und ein Nachfrager gegenüber. Sind nur wenige Marktteilnehmer vorhanden, spricht man von einem Oligopol. Treten zwei Marktteilnehmer auf, handelt es sich um ein Duopol. Abhängig vom jeweiligen Kontext wird der Begriff Monopol häufig auch für eine Marktsituation mit unvollständiger Konkurrenz angewandt, bei der es auf der Anbieterseite zwar mehrere Marktteilnehmer gibt, davon aber einer aufgrund von deutlichen Wettbewerbsvorteilen eine so marktbeherrschende Stellung einnimmt, dass er in der Preisbildung weitgehend unabhängig vom Wettbewerb ist (Quasi-Monopol). Eine Sonderform des Monopols ist das Staatsmonopol; hier tritt der Staat als alleiniger Anbieter eines Gutes auf. Das Gegenstück zum Monopol ist das Polypol. Reine natürliche Monopole. Das Monopol existiert idealtypisch ohne marktregulierenden Einfluss, z. B. weil ein Anbieter alleine Zugriff auf bestimmte Rohstoffe hat oder alleinig über bedeutende Technologien verfügt (z. B. durch Marktvorsprung). Häufig ergibt sich das natürliche Monopol auch aus natürlichen Markteintrittsbarrieren, insbesondere wenn eine aufwendige flächendeckende Infrastruktur erforderlich ist, wie bei Eisenbahnnetzen oder der Versorgung mit Strom, Wasser oder Gas. Ein natürliches Monopol im engeren Sinn ist eine Marktform, in der ein Unternehmen mit sinkenden Durchschnittskosten bei steigender Produktionsmenge die Nachfrage befriedigen kann; in diesem Fall produziert ein einzelnes Unternehmen dauerhaft kostengünstiger und kann Konkurrenten vom Markt verdrängen. Quasi-Monopol. Wenn es auf einem Markt zwar mehr als einen Anbieter gibt, von denen einer aber aufgrund eines sehr starken natürlichen Wettbewerbsvorteils eine marktbeherrschende Stellung hat, spricht man von einem Quasi-Monopol. Es handelt sich um kein echtes Monopol, kommt diesem in seinen Auswirkungen aber nahe. Quasi-Monopole sind besonders häufig in der Informationstechnologie zu finden: Die Gestaltung von Software und Daten richtet sich häufig nach bestimmten Quasi-Standards, an denen nur ein Anbieter die Rechte hat bzw. bei denen es für Wettbewerber zu aufwendig wäre, kompatible Produkte zu einem wettbewerbsfähigen Preis zu entwickeln. (Letzteres insbesondere, da die kostengünstige digitale Reproduktion es dem Marktführer leicht macht, einen Wettbewerber preislich zu unterbieten und ihm so den Markteintritt zu erschweren.) Wer nach einem solchen Quasi-Standard arbeitende Software oder Daten nutzen oder mit anderen austauschen will, ist auf die Produkte dieses Anbieters angewiesen. Das bekannteste Beispiel ist Microsoft, das mit Microsoft Windows ein Quasi-Monopol für PC-Betriebssysteme und mit Microsoft Office ein Quasi-Monopol für Office-Suiten innehat. Quasi-Monopole im Bereich der Informationstechnologie können unter Umständen durch die konsequente Nutzung offener Standards verhindert werden. Ein weiteres Beispiel für ein Quasi-Monopol war Lego auf dem Markt für Steckbausteine aus Plastik. Kollektivmonopol. Kollektivmonopol (auch "Vertragliches Monopol"): Das Monopol existiert, da sich alle Anbieter oder Nachfrager auf gemeinsame Leistungen und Preise festlegen (etwa durch ein Kartell) und so der Wettbewerb ausgeschaltet wird. In den meisten Ländern sind solche Absprachen in der Regel illegal (in Deutschland: Gesetz gegen Wettbewerbsbeschränkungen). Rechtliches Monopol. Als rechtliches Monopol bezeichnet man ein Monopol, das aufgrund einer gesetzlichen Bestimmung existiert. Diese Form findet man heutzutage beim Staat (z. B. Außenhandelsmonopol in Artikel 14h der Sowjetischen Verfassung von 1936) und bei (auch ehemaligen) Staatsbetrieben (z. B. Postmonopol); die wenigen Ausnahmen wie das Zündwarenmonopol, Branntweinmonopol oder das Salzregal sind in modernen Wirtschaftsordnungen weitgehend abgeschafft. In der Vergangenheit herrschte in der Feuerversicherung ein Monopol durch die Versicherungspflicht bei den regionalen öffentlich-rechtlichen Versicherern. Auch Monopole aufgrund von Patenten und anderen immateriellen Monopolrechten wie dem Urheberrecht werden zu dieser Kategorie gezählt. Preissetzungsverhalten des Monopolisten. Aus praktischen Gründen wird üblicherweise letzteres Problem betrachtet. Lösen mithilfe der Produktregel und Umstellen liefert die Bedingung erster Ordnung für das Gewinnoptimum wobei formula_11 die Preiselastizität der Nachfrage zur Gütermenge formula_12 ist. Dabei wird formula_11 als negativ angenommen (Gesetz der Nachfrage), sodass Im Optimum des Monopolisten entspricht also der Lerner-Index dem Kehrwert der betragsmäßigen Nachfrageelastizität. Für die Nachfrageelastizität gilt mit dieser Bedingung formula_15, weil formula_16 und formula_17 gemäß Annahme. An dieser Bedingung ist somit auch direkt ablesbar, dass der Monopolpreis über den Grenzkosten liegt. Hieran wird der Unterschied zum Fall vollkommenen Wettbewerbs deutlich, wo im Optimum der Preis den Grenzkosten entspricht. Zudem ist ersichtlich, dass der mögliche Preis umso höher im Verhältnis zu den Grenzkosten sein kann, je inelastischer die Güternachfrage ist. Inzidenz. Aus dem skizzierten Preissetzungsprozess folgt die Ineffizienz eines Monopols. Intuitiv ist dies an der Preisgestaltung direkt ersichtlich, denn wenn der Preis oberhalb der Grenzkosten liegt, gibt es – eine hinreichende Zahl von Nachfragern vorausgesetzt – auch solche Nachfrager, deren Zahlungsbereitschaft zwischen den Grenzkosten und dem Monopolpreis liegt. Damit existiert aber eine für beide Seiten profitable Nachverhandlung, bei der der Monopolist diesen Nachfragern eine Einheit des Gutes zu einem Preis verkauft, der zwischen den eigenen Grenzkosten und der Zahlungsbereitschaft der Nachfrager liegt. Folglich ist die aus einem Monopol resultierende Ressourcenallokation nicht pareto-effizient. Dass der Monopolist dennoch einen Preis wählt (bzw. eine Menge, die diesen Preis zur Folge hat), liegt daran, dass er im Standardmodell keine Möglichkeit hat, zwischen verschiedenen Käufergruppen zu diskriminieren – vielmehr setzt er einen Preis, der für alle Käufer gilt. Dass der Monopolpreis nach oben vom Kompetitivpreis abweicht, liegt demnach daran, dass der Verlust, den er bei einer marginalen Preissenkung im Segment der relativ zahlungskräftigen Nachfrager zu tragen hätte, größer wäre als der Gewinn, den er durch die dadurch bewirkte Vergrößerung des Abnehmerkreises generieren könnte. Der Preiseffekt hat eine entsprechende Wirkung auch bezüglich der angebotenen Menge. Ein Monopolist bietet im Gewinnoptimum eine geringere Gütermenge an, als er dies in einem kompetitiven Umfeld täte. Zudem bestehen freilich auch weitere, nicht modellierte potenziell wohlfahrtsmindernde Effekte eines Monopols. So wird man infolge der marktbeherrschenden Stellung bzw. des ausbleibenden Konkurrenzdrucks mithin mit einem schlechteren Leistungsangebot am Markt konfrontiert. Weiterhin sind Monopolisten oft eher wenig innovationsfreudig (dynamische Ineffizienz). Quantifizierung des Wohlfahrtsverlusts. upright=1.3 Will man den Wohlfahrtsverlust quantifizieren, kann auf das Schaubild von Angebot- und Nachfragekurve zurückgegriffen werden (siehe Abb. 1). Im vollständigen Wettbewerb (Polypol) entsprechen sich Angebot und Nachfrage; die gehandelte Menge beträgt "X"Pol, der zugehörige Preis "p"Pol. Wie oben gezeigt, ist der Preis in einem Monopol jedoch höher (hier: "p"Mon) und die Menge entsprechend geringer (hier: "X"Mon). Dadurch ergeben sich bei der Analyse der Konsumenten- und Produzentenrente erhebliche Verschiebungen. In Abb. 1 entspricht die Konsumentenrente nur noch dem grau unterlegten Dreieck. Denn Konsumenten, die eine Zahlungsbereitschaft von weniger als dem Monopolpreis haben, erwerben das Gut erst gar nicht; die Produzentenrente entspricht der gesamten hellblauen Fläche. Im Vergleich zum Polypol sieht man, dass der rechteckige Teil der blauen Fläche nunmehr auch der Produzentenrente zuzurechnen ist – im Polypol war sie noch Bestandteil der Konsumentenrente. Der Grund dafür besteht wiederum im höheren Preis bzw. der Tatsache, dass dieser nun weiter oberhalb der in der Angebotsfunktion zum Ausdruck kommenden Grenzkosten liegt. Da die Menge aber nur "X"Mon beträgt, erkennt man insgesamt, dass die Summe aus Konsumenten- und Produzentenrente im Fall des Monopols geringer ist als im Polypol: Die rot eingefärbten Flächen zählen nicht mehr dazu, sie sind gewissermaßen infolge der ineffizient geringen Bereitstellung des Gutes „verloren“; man bezeichnet sie im Englischen entsprechend auch als "deadweight loss." Die gesamte rote Fläche bildet das so genannte Harberger-Dreieck. Wohlfahrtssteigerung durch Preisdiskriminierung. Durch verschiedene Formen der Preisdiskriminierung kann das Monopolergebnis beeinflusst werden. Kann ein Monopolist beispielsweise "perfekt diskriminieren" (Preisdiskriminierung 1. Grades), kann er von jedem Konsumenten dessen Reservationspreis (das heißt den höchsten Preis, den dieser zu zahlen bereit ist) verlangen und das Gut an diejenigen Nachfrage verkaufen, die die höchste Wertschätzung haben. Es tritt dann kein Wohlfahrtsverlust ein, weil er dieselbe Menge absetzt, wie sich auch im Wettbewerbsfall ergeben würde: Der perfekt preisdiskiminierende Monopolist verkauft jedem sein Gut, der eine marginale Zahlungsbereitschaft aufweist, die mindestens den Grenzkosten der Produktion entspricht, und er verlangt dafür einen Betrag, der genau der individuellen Zahlungsbereitschaft entspricht. Dieses Ergebnis ist dementsprechend auch pareto-effizient, weil jede Änderung der resultierenden Allokation zur Folge hätte, dass der Monopolist (der ja eben die vollständige Rente erhält) schlechter gestellt wird. Mehrprodukt-Monopol. Die bisher betrachteten Monopole sind allesamt Einprodukt-Monopole, das heißt ein Anbieter ist Monopolist bezüglich eines Gutes. Die Situation verändert sich, wenn der Anbieter Monopolist für mehrere Güter ist, weil zwischen den beiden Gütern Interdependenzen bestehen können (Substitutions- bzw. komplementäre Beziehung) – dadurch ändert sich auch das Preissetzungsverhalten des Monopolanbieters. Sei formula_18 (formula_19) die Nachfrage nach Gut formula_20 in Abhängigkeit von den Preisen formula_21 aller Güter; sei formula_22 die additiv-separable Kostenfunktion in Abhängigkeit von der Menge aller angebotener Güter. Das Maximierungsproblem (hier aus Gründen der Vereinfachung und der Nutzbarkeit des Resultats bezüglich des Preises formuliert) lautet und führt auf die Bedingungen erster Ordnung formula_24, Das heißt: Im Gewinnoptimum des Mehrprodukt-Monopolisten (auch: Multiprodukt-Monopolisten) gilt für jedes angebotene Gut, dass der Lerner-Index für dieses Gut (linke Seite der Bedingung) dem so genannten Ramsey-Index für das Gut (rechte Seite) entspricht. Man beachte, dass dies impliziert, dass bei Vorliegen von Substituten (formula_26) der Lerner-Index größer ist als der Kehrwert der (Eigenpreis)elastizität, mithin also dass ein höherer Preis gesetzt wird als im Fall des Einprodukt-Monopolisten (siehe oben). Umgekehrtes gilt für den Fall von Komplementärgütern (formula_27) – hier liegt der gesetzte Preis sogar unterhalb des Preises, den der Monopolist anstreben würde, wenn er nicht auf beiden Gütermärkten eine Monopolstellung innehätte. Monopolsicherung. Viele Produkte sind durch andere ersetzbar (das heißt, sie können substituiert werden). Dabei muss unter Umständen auf einzelne Eigenschaften verzichtet werden. Dies spielt oft jedoch eine untergeordnete Rolle, wenn dadurch ein günstigerer Preis erzielt wird und eine größere Auswahl an Anbietern zur Verfügung steht. Dies begrenzt die praktische Wirkung von Angebotsmonopolen. Da eine Monopolstellung höchstmöglichen Gewinn verspricht, wird ein Monopolist darauf abzielen, den Markt auch weiterhin vor möglichen Konkurrenten abzuschirmen. Um dies zu erreichen, wird immer wieder auch zu unlauteren oder marktverzerrenden Mitteln gegriffen. Beispiel einer solchen Praxis ist das Dumping: Produkte werden eine gewisse Zeit lang zu nicht kostendeckenden Preisen angeboten, bis der Konkurrent aus dem Markt verdrängt wurde, um anschließend die Preise wieder zu erhöhen. Diese Situation kann auch durch ein Kartell entstehen, oder durch ein Oligopol. Auch hier gibt es zum Teil gesetzliche Einschränkungen (siehe Verbot des Verkaufs auf Verlust in Frankreich). Falls Monopole nicht aus natürlichen Gründen aufgebrochen werden, greift gelegentlich der Staat aus wettbewerbsrechtlichen Gründen ein. Meistens liegt in diesen Fällen ein Verstoß gegen die jeweilige nationale Gesetzgebung vor (in Deutschland sind dies das Gesetz gegen den unlauteren Wettbewerb und das Gesetz gegen Wettbewerbsbeschränkungen). Beispielsweise wurde das Unternehmen Microsoft, ein Quasi-Monopolist, wegen Missbrauchs seiner Marktmacht verurteilt. Nach der Theorie bestreitbarer Märkte reicht häufig die Bestreitbarkeit des Monopols aus: Hierzu muss glaubwürdig angedroht werden, dass die Monopolstellung verloren gehen kann, wenn bestimmte Vorgaben nicht eingehalten werden. Die Glaubwürdigkeit steigt insbesondere, wenn die Marktaustrittskosten gering sind. Angreifbarkeit von Monopolen. Im Anschluss an William J. Baumols Theorie bestreitbarer Märkte wird die Ansicht vertreten, dass das Vorliegen eines Monopols keine Maßnahmen von Wettbewerbsbehörden erfordern würde, weil der Wettbewerb zwar nicht in Form mehrerer Anbieter "sichtbar" sei, er wirke aber in latenter Weise. Je nach den Rahmenbedingungen, die sein Monopol begründen, könne ein Monopolist bei seinen Entscheidungen in Bezug auf die Preissetzung oder sein Leistungsangebot (Menge, Qualität), bestimmten Restriktionen unterworfen sein. Dadurch sinke seine Monopolrente. Ein bestreitbarer Markt könne einen Monopolisten disziplinieren. Liegt der Angebotspreis über den Markteintrittskosten, besteht die Gefahr, dass Angebotskonkurrenten in den Markt eintreten. Liegt der Angebotspreis über den Preisen für Substitutionsgüter können Nachfrager auf vergleichbare Produkte umsteigen. Der Angebotspreis sinkt dann im Extremfall bis zur Preisuntergrenze, die wie beim Oligopol oder beim Polypol entweder durch die Durchschnittskosten oder die Grenzkosten bestimmt wird. Ein jederzeit angreifbares Monopol bezeichnet man als morphologisches Monopol. Es wird häufig zumindest für kurze Zeit für wünschenswert gehalten, um für technischen Fortschritt zu sorgen. Ordoliberale wie Walter Eucken weisen dieses Argument jedoch zurück, da jedes Monopol grundsätzlich der wirtschaftspolitischen Zielsetzung eines optimalen Allokationsgleichgewichts widerspreche. Nachfragemonopole. Unter einem Nachfragemonopol (auch Monopson) versteht man eine Marktsituation mit mehreren Anbietern, aber nur einem Nachfrager. Ein Beispiel ist der Rüstungsmarkt in einer geschlossenen Volkswirtschaft. In der Realität kommt ein Monopson nur sehr eingeschränkt vor. Bei "wenigen" Anbietern und einem Nachfrager spricht man auch von einem "beschränkten Monopson". Diese Marktform findet sich häufig bei Ausschreibungsverfahren im Schienenpersonennahverkehr; dort treten eine Landesverkehrsgesellschaft als Nachfrager und die Eisenbahnverkehrsunternehmen, die sich um den angebotenen Verkehrsvertrag bewerben, als Anbieter auf. Bilaterale Monopole. Stehen einem Monopolisten nur wenige Nachfrager/Anbieter gegenüber, handelt es sich um ein beschränktes Monopol. Treten auf beiden Seiten nur ein Anbieter und ein Nachfrager auf, spricht man von einem bilateralen Monopol. Dies ist zu unterscheiden von einer Situation mit zwei Anbietern, dem so genannten Duopol. Gibt es auf einem Markt zwar mehr als einen Anbieter oder Nachfrager, aber dennoch nur sehr wenige, so spricht man von einem Oligopol. Madrider Abkommen über die internationale Registrierung von Marken. Das Madrider Abkommen über die internationale Registrierung von Marken (kurz: Madrider Markenabkommen oder MMA) von 1891 ist ein Abkommen zwischen einer Vielzahl von Ländern, durch welche nationale Marken eines Verbandsstaates auch in den anderen Verbandsstaaten Schutz genießen können und somit eine international registrierte (IR) Marke geschaffen werden kann. Das Abkommen wurde in den Jahren 1900, 1911, 1925, 1934, 1957 revidiert. Eine wichtige weitere Revision geschah 1967 in Stockholm. Vertragssprache dieses Abkommens ist nach Regel 6 des Abkommens Französisch. Hilfsweise können Gesuche auch in Englisch abgefasst werden. Das Madrider Markenabkommen wird von der WIPO in Genf verwaltet und die fälligen Gebühren werden in Schweizer Franken bemessen. Im Jahre 2007 wurden bei der WIPO 38.471 Anträge auf Registrierung eingereicht. Prozedere, um den Status als IR-Marke zu erlangen. Das MMA vereinfacht so eine mühsamere und teurere Parallelanmeldung bei einer Mehrzahl von nationalen Markenämtern. Die IR-Marke ist jedoch noch in den ersten fünf Jahren nach internationalen Registrierung vernichtbar, sofern die Basismarke innerhalb der fünf Jahre keinen Schutz mehr genießt. Die IR-Marke genießt eine Schutzdauer von 10 Jahren kann aber immer wieder für einen Zeitabschnitt von zehn Jahren, gerechnet vom Ablauf des vorhergehenden Zeitabschnitts an, durch Zahlung der Grundgebühr und gegebenenfalls der Zusatz- und Ergänzungsgebühren erneuert werden. Protokoll zum Madrider Abkommen über die internationale Registrierung von Marken (PMMA). Neben dem MMA ist im Jahre 1989 ein Zusatzprotokoll geschlossen worden. Dieses steht rechtlich selbständig neben dem MMA, wirkt sich aber auch auf das MMA aus. Staaten müssen, auch wenn sie schon Mitgliedstaaten des MMA sind, dem Protokoll gesondert beitreten. Die Gesamtheit der Staaten, die beiden Abkommen beigetreten sind, heißen Madrider Verband. Auch Organisationen können dem Protokoll beitreten, so ist zum Beispiel die Europäische Gemeinschaft Verbandsmitglied. Somit verbindet das Protokoll die international registrierte Marke mit dem System der EG-Marke. Über eine IR-Marke kann also eine Gemeinschaftsmarke geschaffen werden. Weiterhin erleichtert das Protokoll die Registrierung der IR-Marke, so dass zum Beispiel die internationale Anmeldung schon mit Stellung des nationalen Markenantrages eingereicht werden kann und nicht bis zur Eintragung der nationalen Marke gewartet werden muss. Auch sind die Fristen und Schutzdauer länger. Marke (Recht). a>") handelt, die zur Eintragung in einem Markenregister angloamerikanischer Prägung angemeldet ist.) Eine Marke oder ein Markenzeichen () wurde mit der Markenrechtsreform 1995 offiziell in Deutschland eingeführt. Das Warenzeichen als traditionelle Bezeichnung war mit dem notwendig gewordenen Schutz von Dienstleistungen als Produkt nicht mehr umfassend genug aussagekräftig geworden. Nun erweitert ein besonderes, rechtlich geschütztes Zeichen, das vor allem dazu dient, Waren oder Dienstleistungen eines Unternehmens von konkurrierenden Waren oder Dienstleistungen anderer Unternehmen zu unterscheiden, den Kanon der Immaterialgüterrechte. Eine Marke kann aber auch dazu verwendet werden, um ein ganzes Unternehmen oder das Leistungsangebot eines ganzen geographischen Orts (Land, Region, Stadt) eindeutig zu kennzeichnen und von konkurrierenden Unternehmen oder Angeboten abzugrenzen. Marken können eine einzelne Darstellung oder eine Kombination von einem oder mehrerer Buchstaben, Zeichen, Wörter, Namen, Slogans, Logos, Symbolen, Bildern, Klängen, Klangfolgen bzw. von Erscheinungsformen und Mustern von und für Produkte verschiedener Art sein. Markenrechte sind ähnlich wie Patente und Urheberrechte immaterielle Monopolrechte, oft auch als geistiges Eigentum bezeichnet. Trotz enger Berührungspunkte ist der juristische Marken-Begriff klar vom Marken-Verständnis im Marketing abzugrenzen. Während Ersterer ein individuelles, rechtlich geschütztes "Zeichen" benennt, steht Letzteres für die Gesamtheit der individuellen, oft patentierten "Eigenschaften" eines Wirtschaftsgutes, das mit einem Markennamen in Verbindung steht (siehe Marke (Marketing)). Begriff der „Marke“. Der Begriff Marke geht auf das mittelhochdeutsche Wort „marc“ zurück, das für „Grenze oder Grenzgebiet“ steht (siehe auch Mark). Während das Reichsmarkenschutzgesetz von 1874 bereits von einer „Marke“ sprach, prägte der Gesetzgeber in dem Warenbezeichnungsgesetz aus dem Jahre 1894 den Rechtsbegriff „Warenzeichen“. Das Warenzeichengesetz von 1936 hielt an diesem Sprachgebrauch fest. Im Zuge der erwähnten Markenrechtsreform in Deutschland wurde am 1. Januar 1995, mit der Einführung des Markengesetzes - (MarkenG), im Gesetzestext das Warenzeichen wieder durch die Marke ersetzt, da bereits seit Ende der 1960er Jahre nicht nur Waren, sondern auch Dienstleistungen unter einem geschützten Zeichen vertrieben werden können. Der Begriff des Warenzeichens war jedoch nicht nur deswegen inzwischen zu eng gefasst. Denn auch der Wandel von der bisher schlichteren Bezeichnung einer Ware hin zur „Markierung" mittels einer wesentlich vielfältiger gewordenen Wiedergabe von Wort, Bild, Form und Ton als ein Werbeträger, waren der Grund für den Wechsel der Bezeichnungen. In der Literatur und im allgemeinen Sprachgebrauch werden die Begriffe „Warenzeichen“ und „Marke“ allerdings noch häufig synonym verwendet. Dem Markengesetz zufolge versteht man unter einer Marke ein Zeichen, das dazu dient, Waren und Dienstleistungen eines Unternehmens von denen anderer Unternehmen zu unterscheiden (Herkunftsfunktion). Daher umfasst eine Marke immer ein Zeichen und eine Sammlung von Waren oder Dienstleistungen, die durch das Zeichen von gleichen oder ähnlichen Waren oder Dienstleistungen anderer Unternehmen unterschieden werden können. Geschichte. Historische Stadtmarke zur Kennzeichnung städtischen Besitzes Die Geschichte der Marke geht auf die Zeit zurück, in der Händler begannen, die bislang in namenlosen Säcken beschafften Produkte – zumeist Lebensmittel – mit einem Etikett, zu versehen: Die Ware wurde in einer Art „Händlerverpackung“ abgefüllt. Somit waren – zumindest im Lebensmittelbereich – die Handelsmarken die ersten Marken ihrer Zeit. Ähnliche Bestrebungen hatten jedoch auch Produzenten und Handwerker. So setzt seit dem Mittelalter jeder Handwerker sein Zeichen (Signet) an eine bestimmte Stelle wie beispielsweise Balken oder Gemäuer. Herkunftsbezeichnungen, Herstellerzeichen und Signets im Sinne der Handelsmarke sind schon seit der griechischen Antike bekannt und finden sich auf Töpferwaren und Figuren, die vornehmlich als Exportartikel produziert wurden. Sie dienten (wie auch heute noch) der Qualitäts- und Originalitätssicherheit der Käufer des vertreibenden Handelshauses und deren Partnern. Die gleiche Funktion hatten auch Siegel, die Gefäße und Säcke verschlossen, und die ebenfalls zu den Vorfahren der „Marke“ zählen. Auch aus der Antike sind bereits Siegel und Abzeichen, oder auch einfach das Benutzen bestimmter Formen von Verpackungen und Behältnissen, bekannt, die die Herkunft und Zugehörigkeit bestimmter Produkte zu bestimmten Werkstätten oder Herstellungsgebieten symbolisieren sollten. Welche Rechte und Pflichten damit verbunden waren, ist natürlich heute nur noch schwer feststellbar. Genau wie heute standen diese Zeichen aber für eine gewisse Qualität und wurden höchstwahrscheinlich auch schon gefälscht und nachgeahmt, um eine solche zu simulieren. Eine weitere Wurzel ist im Bereich der Künste zu sehen. Seit der Renaissance wurde es üblich, dass Künstler ihre Werke nicht mehr namenlos fertigten, sondern sie signierten. Hier waren schon bald deutliche Profilbildungen erkennbar, nicht nur bezüglich handwerklichen Könnens, sondern auch bezüglich Stil, Kunstauffassung und ideologischem Standpunkt des Künstlers. Bald kam es zu regelrechten Verehrungen von Künstlerpersönlichkeiten. Sie gipfelten im Genie-Kult um 1800. Das Konzept, den Künstlernamen als Marke für künstlerische Autorschaft zu verwenden, ließ sich auf zahlreiche Kreativprodukte übertragen. Marke in diesem Sinne als Kennzeichnung künstlerischer Autorschaft ist heute auch im weiten Spektrum des Designs und für urheberrechtliche geschützte Werke anderer Art präsent. 1887 wurde in Großbritannien die Pflicht zur Anbringung der Kennzeichnung "Made in Germany" mit dem "Merchandise Marks Act" eingeführt – allerdings nicht als Qualitätssymbol, sondern um britische Konsumenten vor der als minderwertig geltenden Konkurrenz aus Deutschland zu schützen. Wert einer Marke. Der Wert des immateriellen Monopolrechts einer eingetragenen Marke bemisst sich nach deren den Absatz des Markeninhabers und seine Unternehmungen fördernde Wirkung. Die entsprechende methodische Bewertung kann weder durch Experiment noch durch Messung festgestellt werden, ohne die Marke zu beschädigen. Ersatzweise sind detaillierte Bewertungsverfahren bekannt, welche das Gesamtproblem in überschaubare Teilprobleme zerlegen. Eine experimentelle, aber in der Validität beschränkte Ersatzmethode ist das Experiment durch Aufbau einer neuen Marke in demselben Markt und das Messen entsprechenden Aufwandes. Daher ist fast ausschließlich die Taxierung des Wertes einer Marke allein durch eine Schätzung möglich. Markenformen. Die häufigsten Markenformen sind die Wort- und die Bildmarken. Darüber hinaus gibt es die kombinierten Bildmarken. Letztere bestehen aus einem Wort- und einem Bildbestandteil, die einen Gesamteindruck ergeben. Darüber hinaus sind in den letzten Jahren weitere Markenformen hinzugekommen. Insbesondere die abstrakten Farbmarken, Hörmarken, Geruchsmarken, Slogans und dreidimensionale Markenformen. Die (durch europarechtliche Vorgaben beeinflusste) Rechtsentwicklung zur Eintragungsfähigkeit und zum Schutzbereich solcher Marken im Verletzungsfall ist noch nicht abgeschlossen. Eintragungsverfahren (national). In erster Linie entsteht der Markenschutz durch die Eintragung der Marke. In vielen Staaten wie Deutschland, Österreich, der Schweiz und Liechtenstein regeln dies nationale Patentämter. Im Einzelnen sind dies das Patent- und Markenamt in München, das Patentamt in Wien, das Eidgenössische Institut für Geistiges Eigentum in Bern und das Amt für Volkswirtschaft (AVW), Fachbereich Immaterialgüterrechte in Vaduz. Nahezu sämtliche Staaten der Welt verfügen über ähnliche Einrichtungen und haben ähnliche Vorschriften, die die Eintragung von Marken vorsehen. Diese nationalen Marken gelten jeweils nur für ein Land. Internationale oder europäische Marken sind gemäß der Pariser Übereinkunft, dem Madrider Abkommen sowie beim Europäischen Patentamt einzutragen. Es gibt unterschiedliche Wege zur Entstehung des Markenschutzes. Eine Marke kann auch durch Benutzung entstehen, sofern die Marke Verkehrsgeltung erworben hat (Benutzungsmarke, Nr. 2 MarkenG). Dies ist dann der Fall, wenn ein erheblicher Teil der Abnehmer der von der Marke beanspruchten Waren und Dienstleistungen diese Marke einem Unternehmen zuordnen. Darüber hinaus kann auch durch eine notorische Bekanntheit der Marke Markenschutz entstehen (Notorietätsmarke, Nr. 3 MarkenG). Den überwiegenden Teil der Marken in Deutschland stellen die Registermarken (Registermarke, Nr. 1 MarkenG) dar, da es eines erheblichen Aufwandes bedarf, Verkehrsgeltung oder gar notorische Bekanntheit für eine Marke zu erzielen. In der Regel sind Benutzungsmarken nur bei Waren oder Dienstleistungen anzutreffen, die ein sehr kleines, spezielles Publikum ansprechen, beispielsweise im Spezialmaschinenbau. Die Registermarke, auf die im Folgenden eingegangen wird, ist ein förmliches, absolutes Immaterialgüterrecht. Grundsätze der Recherche. Vor der Markeneintragung sind vom Anmelder einige Punkte zu beachten, damit im Anschluss zum einen der Markenschutz überhaupt gewährt wird und zum anderen im Falle der Eintragung optimaler Markenschutz besteht. Häufig unterschätzen Unternehmen diese Tatsache und melden ihre neue Marke aus Unwissenheit ohne sorgfältige Vorbereitung beim entsprechenden Amt an. Entsprechend groß ist dann die Überraschung, wenn es zu Widersprüchen von Markeninhabern bereits bestehender und damit prioritätsälterer Marken kommt. Die Wahrscheinlichkeit von Übereinstimmungen von Silben oder ganzer Wortbestandteile neuer Namen mit bereits registrierten Kennzeichen steigt von Tag zu Tag. Im markenrechtlichen Sinne spricht man in diesem Fall dann von Kollisionen, die weitreichende Konsequenzen haben können. Die Markenämter prüfen solche Fragen nicht. Es obliegt dem Markenanmelder selbst, dafür Sorge zu tragen, dass die neue Marke keine Rechte anderer Marken verletzt. Deshalb werden vor einer Anmeldung professionelle Markenrecherchen durch Patent- oder Markenanwälte und durch spezialisierte Rechercheunternehmen empfohlen. Vorbereitung der Recherche. Eigenrecherchen oder „In-House-Recherchen“ über gängige Suchmaschinen können der erste Schritt sein. Im nächsten Schritt müssen die entsprechenden Datenbanken durchsucht werden. Die Recherche- und Suchstrategie und die damit verbundene Qualität der Ergebnisse ist abhängig von den verwendeten Datenquellen sowie der praktischen Erfahrung der Rechercheure. Ermittelt die Markenrecherche keine relevanten, bestehenden Marken, so gibt das dem Anmelder die notwendige Sicherheit, weiter mit der neuen Marke agieren zu können. Identitätsrecherchen. Diese Rechercheart klärt, ob die neue Marke in identischer Form für die gleichen oder ähnlichen Waren oder Dienstleistungen schon von Mitbewerbern angemeldet und vom entsprechenden Markenamt registriert wurde. Identität bedeutet in diesem Fall absolute Identität, das heißt, Coca Cola ist gleich Coca Cola und nur Coca Cola und nicht Koka Kola. Ähnlichkeitsrecherchen. Ähnlichkeitsrecherchen prüfen, ob die neue Marke bei den relevanten Markenämtern in ähnlicher Form für gleiche oder ähnliche Waren oder Dienstleistungen schon angemeldet wurde und entsprechender Markenschutz besteht. Ähnlichkeit bedeutet in diesem Fall optische oder klangliche Ähnlichkeit, z.B. "adidas" ist ähnlich "abibas" und "adi dash". Bei der Ähnlichkeitsrecherche wird im Normalfall auch die Identität geprüft. Professionelle Ähnlichkeitsrecherchen nutzen entsprechende Algorithmen, um schriftbildliche und phonetische Ähnlichkeiten mit älteren Schutzrechten zu ermitteln, und gehen damit über die Möglichkeiten der von den Markenämtern zur Verfügung gestellten Datenbanken hinaus. Durchführung der Recherche. Die Rechercheart ergibt sich in erster Linie aus der neuen Marke oder dem Begriff selbst. Grundsätzlich gilt, je beschreibender der Begriff ist (Online-Lexikon), desto mehr wird die Identitätsrecherche angeraten. Je generischer der Begriff ist (Wikipedia), desto sinnvoller ist die Ähnlichkeitsrecherche. Die Länder und Wirtschaftsräume, in denen die neue Marke später benutzt werden soll, determinieren die abzuprüfenden Datenbanken und -quellen. Soll eine Marke ausschließlich auf dem deutschen Markt benutzt werden (wird also auch in der Zukunft keine Internationalisierung der Marke angestrebt) genügt es, nur in den Markenbeständen des DPMA zu recherchieren. Für die Eintragung von Marken ist es auch wichtig, für welche Waren und Dienstleistungen der Markenschutz erlangt werden soll. Hierfür dient die internationale Markenklassifikation (Nizza-Klassifikation), die die verschiedenen Waren- und Dienstleistungsarten in insgesamt 45 Klassen untergliedert. Das Angebot, das mit der neuen Marke benannt werden soll, bestimmt insofern die Klassen, für die der Schutz erlangt werden soll. Auch hier sollte man die strategische Ausrichtung der Marke, inkl. Lizenzierungen, beachten. "Beispiel: Entwickelt ein Bekleidungsunternehmen eine neue Marke, so ist der Markenschutz zunächst für Klasse 25 anzustreben. Will man später weitere Produkte wie Schuhe, Uhren oder Brillen unter dem Markennamen vertreiben, muss der Schutz auf die Klassen dieser Produkte ausgedehnt werden." Nach Klärung dieser Fragen ist zu entscheiden, ob man die Recherche selbst durchführt oder ein Rechercheunternehmen beauftragt. Bei dieser Entscheidung kann die Homepage des Deutschen Patent- und Markenamtes (DPMA) helfen. Ein erfahrener Markenfachmann kann aufgrund seiner Ausbildung und Tätigkeit besser in der Lage sein, Kollisionen der neuen Marke mit bestehenden Marken festzustellen und Auskünfte zu erteilen oder Maßnahmen zu ergreifen. Werden keine Kollisionsgefahren gesehen, dann steht dem Eintragungsverfahren zunächst nichts mehr entgegen. Eintragungsverfahren (Deutschland). Grundlage zur Erlangung des Markenschutzes durch eine Registermarke ist ein Antrag, der beim Deutsches Patent- und Markenamt (DPMA) einzureichen ist. Dieser Antrag muss Angaben enthalten, die es erlauben, die Identität des Anmelders festzustellen, sowie eine Wiedergabe der Marke und eine Angabe der Waren oder Dienstleistungen, für die die Eintragung beantragt wird (Abs. 2 MarkenG, siehe Markenklassifikation). Ist der Antrag mit den genannten Angaben beim DPMA eingegangen, so wird ein sogenannter Anmeldetag begründet (Abs. 1 MarkenG). Dieser Anmeldetag bestimmt den Zeitrang der Anmeldung. Dieser Antrag kann zwar zunächst formlos eingereicht werden, jedoch verlangt das DPMA die Verwendung des entsprechenden Formulars, das nachgereicht werden kann (Abs. 1 MarkenG). Für den Zeitrang kommt es jedoch auf den Antrag, nicht auf das Formular an. Steht der Anmeldetag der Marke fest, so wird diese Anmeldung veröffentlicht (§ 33 Abs. 3 MarkenG). Anschließend beginnt die Prüfung auf „absolute Schutzhindernisse“ beim DPMA. Diese absoluten Schutzhindernisse sind in, und MarkenG definiert. Im Wesentlichen wird hierbei geprüft, ob das als Marke angemeldete Zeichen überhaupt geeignet ist, Waren oder Dienstleistungen eines Unternehmens von denjenigen anderer Unternehmen zu unterscheiden (Unterscheidungseignung, § 3 MarkenG), ob das Zeichen grafisch darstellbar ist (§ 8 Abs. 1 MarkenG), ob das Zeichen für die beanspruchten Waren oder Dienstleistungen unterscheidungskräftig ist (§ 8 Abs. 2 Nr. 1 MarkenG), sowie ob ein Freihalteinteresse an dem Zeichen für Mitbewerber besteht (§ 8 Abs. 2 Nr. 2 MarkenG). Darüber hinaus darf die Marke nicht ausschließlich aus Zeichen oder Angaben bestehen, die im allgemeinen Sprachgebrauch zur Bezeichnung der Waren oder Dienstleistungen üblich geworden sind (§ 8 Abs. 2 Nr. 3 MarkenG). Außerdem werden Marken nicht eingetragen, die zu einer notorisch bekannten Marke mit älterem Zeitrang ähnlich oder mit ihr identisch sind. Führt diese Prüfung zu keinen Beanstandungen, wird die Marke in das Markenregister eingetragen. Die Gebühr für eine Markeneintragung beträgt in Deutschland 300 Euro, nicht zu verwechseln mit der Verlängerungsgebühr, siehe Schutzdauer. Ist eine Marke im Markenregister eingetragen, darf sie vom Markeninhaber mit dem Symbol ® (von englisch "“registered trade mark“" = eingetragene Waren- oder Dienstleistungsmarke) neben der Marke gekennzeichnet werden. Es besteht aber keine Pflicht zu dieser Kennzeichnung. Eintragungsverfahren (international). Auf internationaler Ebene existieren seit 1883 die Pariser Verbandsübereinkunft (PVÜ), in der wesentlich einheitliche Regeln für Patente und Handelsmarken vereinbart sind und seit 1891 das Madrider Abkommen (MMA), das Vereinbarungen über die internationale Registrierung von nationalen Marken trifft. Nach dem sogenannten Madrider System, benannt nach dem Madrider Abkommen und dem Protokoll zum Madrider Abkommen, können international registrierte Marken (IR-Marken) erlangt werden. Die dafür zuständige Weltorganisation für Geistiges Eigentum (WIPO) in Genf erteilt dabei ein Bündel von IR-Marken, die in ihrem Schutzumfang den nationalen Marken gleichstehen. Eintragungsverfahren (europäisch). Durch die europäische Gemeinschaftsmarkenverordnung der Mitgliedsstaaten der EU wurde das Harmonisierungsamt für den Binnenmarkt in Alicante gegründet. Dieses ist für die Erteilung von Gemeinschaftsgeschmacksmustern und Gemeinschaftsmarken (EU-Marken) zuständig, die in allen (derzeit 28) Mitgliedstaaten der Europäischen Union gelten. Der administrative Aufwand einer Anmeldung ist vergleichbar mit der nationalen Eintragung. Als eine weitere zwischenstaatliche, aber EU-unabhängige Organisation von 38 Staaten des Kontinents einschließlich der Türkei hat für Einträge und europäisches Markenrecht das Europäische Patentamt – wie das regionale deutsche – seinen Sitz in München. Eintragungsverfahren (angloamerikanisch). Im Gegensatz zum mitteleuropäischen, deutschsprachigen Raum gibt es im Angloamerikanischen eine Vorstufe mit Rechtsstatus der Eintragung. Zum einen für Waren die Unregistered Trademark (TM) und für Dienstleistungen die Service Mark (SM). Der gleichwertige Eintrag in beiden Hemisphären von Marken ist dann die Registered Trademark, deren Zeichen das R im Kreis ® ist. Ein weiterer Unterschied besteht aber auch bei den bearbeitenden Institutionen. Beide Einrichtungen im Vereinigten Königreich das Intellectual Property Office (United Kingdom) (IPO) im südwalesischen Newport ansässig sowie in den Vereinigten Staaten das United States Patent and Trademark Office (PTO oder USPTO) in Alexandria im Staat Virginia haben zusätzlich den Schutz Geistigen Urheberrechts zur Aufgabe. Ähnlich wie in angloamerikanischen Institutionen erfolgt in der Russischen Föderation die Eintragung von Markenrechten zusammen mit Patenten und dem Geistigen Urheberrecht. Die betreffende Registratur ist hier der „Föderative Dienst Geistiger Urheberschaft" (Роспатент-RussPatent). Auch die zu vergebenen Bezeichnungen entsprechen den drei angloamerikanischen Äquivalenten TM, SM und ®. Markenüberwachung. Eine Markenüberwachung ist die systematische und permanente Beobachtung der relevanten Markenregister nach möglichen Kollisionsmarken. Sie ist nach erfolgreicher Eintragung empfehlenswert, um die Marke gegen mögliche Gefahren verteidigen zu können. Seit dem Jahr 2000 wurden allein in Deutschland jedes Jahr im Schnitt knapp 70.000 neue Marken beim DPMA angemeldet. Somit ist die Wahrscheinlichkeit recht hoch, dass neu angemeldete Marken gegen Schutzrechte anderer bereits registrierter und damit prioritätsälterer Marken verstoßen. Hinzukommt, dass das Amt nicht prüft, ob es bereits gleiche oder ähnliche Marken anderer Markeninhaber in gleichen oder ähnlichen Waren- und Dienstleistungsklassen gibt. Diese bewusste oder unbewusste Identität oder Ähnlichkeit zu bestehenden Marken führt zu Bedrohungen wie Nachahmung, Markenpiraterie, Verballhornung, Verunglimpfung, Bootlegging, Verwässerung oder Verwechslung. Der Markeninhaber der bestehenden, älteren Marke erfährt von der Bedrohung im Regelfall erst dann, wenn es zu spät ist, das heißt, wenn sich die neue Marke am Markt auf Kosten der alten Marke positioniert und etabliert hat. Die Verteidigung der Rechte der alten Marke ist dann gegebenenfalls schwierig und kostenintensiv. Um der Schwächung der eigenen Marke frühzeitig begegnen zu können, bieten spezialisierte Dienstleistungsunternehmen sog. Markenüberwachungen an. Deren Gegenstand ist die Marke in ihrer registrierten Form. Bei Wortmarken sind dies der oder die Wortbestandteil(e) oder Silben, bei Wort-Bild-Marken entsprechend die Wort- und Bildbestandteile und bei Bildmarken die Grafik oder die bildliche Darstellung. Dies gilt analog für Farb- und Hörmarken. Die Marke wird üblicherweise in allen Markenregistern, in denen sie angemeldet ist und in allen Waren- und Dienstleistungsklassen überwacht. Die Überwachungsunternehmen kontrollieren in regelmäßigen Abständen die entsprechenden Markenneuanmeldungen in den relevanten Registern und Klassen auf sogenannte Kollisionen. Das heißt, es werden systematisch zur Überwachungsmarke identische und optisch, akustisch oder konzeptionell ähnliche Marken ermittelt. Die Überwachungsergebnisse bekommt der Auftraggeber (Unternehmen, Anwalt oder Kanzlei) in Form sogenannter Kollisionshinweise oder Überwachungsberichte mitgeteilt. Diese enthalten in der Regel den Namen der Kollisionsmarke, Darstellung der Marke, Register, Waren- und Dienstleistungsklassen, Inhaber und Vertreter der Kollisionsmarke sowie Informationen zu den Widerspruchsfristen. Der Kollisionshinweise und der Überwachungsbericht ist für den Markeninhaber oder seinen Anwalt dann die Entscheidungsbasis, ob er gegen die Kollisionsmarke vorgehen wird und welche Maßnahmen er ergreift. Widerspruchs- und Löschungsverfahren. Nachdem die Eintragung der Marke im Markenblatt veröffentlicht worden ist, können Inhaber von eingetragenen Marken, Benutzungsmarken oder geschäftlichen Bezeichnungen (Unternehmenskennzeichen und Werktitel) mit älterem Zeitrang innerhalb von drei Monaten Widerspruch gegen die Eintragung der jüngeren Marke erheben (MarkenG). Der Widerspruch ist schriftlich zu erheben, muss aber nicht begründet werden. Notwendig ist lediglich, dass die angegriffene Marke, das Widerspruchskennzeichen (also die Marke oder die geschäftliche Bezeichnung mit älterem Zeitrang) sowie die Identität des Widersprechenden für das DPMA feststellbar sind. Diese Angaben können nach Ablauf der Dreimonatsfrist nicht nachgereicht werden. Auch hierzu soll ein Formblatt des DPMA verwendet werden (Abs. 2, MarkenV). Im Widerspruchsverfahren, das ein kursorisches, auf eine Vielzahl von Fällen ausgerichtetes, standardisiertes Verfahren ist, wird nun geprüft, inwieweit Identität (Abs. 1 Nr. 1 MarkenG) oder Verwechslungsgefahr (Abs. 1 Nr. 2 MarkenG) zwischen der jüngeren Marke und dem älteren Widerspruchskennzeichen besteht. Die Prüfung der Verwechslungsgefahr erfolgt für jede Ware oder Dienstleistung einzeln. Je ähnlicher die einzelnen Waren oder Dienstleistungen einander sind, desto unähnlicher müssen die Marken oder Kennzeichen sein und umgekehrt. Außerdem wird die Kennzeichnungskraft des Widerspruchskennzeichens, also seine Fähigkeit, bei identischen Waren oder Dienstleistungen vom Verkehr wiedererkannt zu werden, berücksichtigt. Als Folge daraus können Teile des Waren- und Dienstleistungsverzeichnisses der jüngeren Marke oder die gesamte jüngere Marke gelöscht werden. Ein Widerspruch kann darauf gestützt werden, dass ein älteres, identisches oder verwechslungsfähiges Kennzeichen oder eine notorisch bekannte Marke entgegensteht (=relative Schutzhindernisse) oder dass die Marke für einen Agenten oder Vertreter des Markeninhabers angemeldet wurde. Wenn der Widerspruch auf eine ältere eingetragene Marke gestützt ist, so muss diese gemäß MarkenG auch rechtserhaltend benutzt worden sein, sofern der Inhaber der jüngeren Marke dies bestreitet, es sei denn, zwischen der Eintragung der älteren Marke und der Veröffentlichung der Eintragung der jüngeren Marke oder der Entscheidung über den Widerspruch liegt nur ein Zeitraum von weniger als fünf Jahren (Benutzungsschonfrist, Abs. 1 MarkenG). Ferner kann die Marke nach ihrer Eintragung jederzeit mittels eines Löschungsverfahrens aus dem Register gelöscht werden. Löschungsgründe sind Verfall (MarkenG), absolute Schutzhindernisse (MarkenG), das heißt, die Marke selbst eignet sich nicht als Herkunftshinweis nach MarkenG oder relative Schutzhindernisse (MarkenG), also ältere Marken oder Kennzeichen. Beim DPMA kann die Löschung wegen Verfalls oder absoluter Schutzhindernisse beantragt werden. Bei den Zivilgerichten kann Klage auf Löschung wegen Verfalls oder Bestehens älterer Rechte erhoben werden. Exkurs: Einrede der Nichtbenutzung. Der Inhaber der jüngeren Marke kann im Widerspruchsverfahren auch die Einrede der Nichtbenutzung erheben. Grundsätzlich muss eine Marke rechtserhaltend benutzt werden, ansonsten kann sie wegen Verfalls nach MarkenG gelöscht werden. Aus einer für die betreffenden Waren oder Dienstleistungen nicht benutzten Marke können keine Rechte mehr geltend gemacht werden. In den ersten fünf Jahren nach Eintragung ist jedoch keine Benutzung zur Durchsetzung des Markenrechts erforderlich, vgl. MarkenG. Die Entfernung unbenutzter Marken aus dem Register ist sinnvoll, da geschützte Zeichen, wenn sie nicht mehr benötigt werden, der Allgemeinheit wieder zur Verfügung stehen sollen. Im Gegensatz zum Patent, das eine erfinderische Leistung belohnt, ist eine solche Leistung bei einer Marke nicht zu erkennen. Als Konsequenz daraus hat der Gesetzgeber die Benutzungspflicht vorgesehen, die jedoch nicht für junge Marken innerhalb der Benutzungsschonfrist gilt. Wird im Löschungsverfahren die Benutzung nur für einige, jedoch nicht für alle Waren oder Dienstleistungen nachgewiesen, dann wird die Marke für die nicht benutzten Waren oder Dienstleistungen gelöscht und verbleibt mit denjenigen, für die die Benutzung nachgewiesen wurde. Somit verbleibt die Marke zwar im Register – schließlich kann das DPMA die Benutzung einer Marke nicht laufend kontrollieren – aber derjenige, der im Verletzungsverfahren aus der Marke in Anspruch genommen wird, kann die Einrede der Nichtbenutzung erheben, wodurch der Inhaber der älteren Widerspruchsmarke keine Rechte mehr geltend machen kann. Wird im Widerspruchsverfahren vom Inhaber der jüngeren Marke die Einrede der Nichtbenutzung erhoben, so kann freilich der Widersprechende die Benutzung seiner Marke glaubhaft machen. Der Widerspruch hat dann nur Erfolg, wenn dem Widersprechenden die Glaubhaftmachung der Benutzung gelingt, was sich im Einzelfall als schwierig herausstellen kann. In der Praxis ist es daher für einen Markeninhaber überaus sinnvoll, alte Verpackungen seiner Waren sowie die dazugehörigen Rechnungen und Lieferscheine – auch über die gesetzlichen, insbesondere steuerrechtlichen Aufbewahrungsfristen hinaus – aufzubewahren. Es muss eine direkte erkennbare Verknüpfung der Marke mit der Ware oder Dienstleistung zu erkennen sein, beispielsweise als sichtbare Aufschrift oder als konkrete Produktbeschreibung innerhalb einer Rechnung. Der gemeinsame Abdruck der Ware mit dem Markennamen in einer Broschüre ohne direkte Verknüpfung bietet jedoch Schwierigkeiten bei der Glaubhaftmachung. Die Benutzung muss klar auf Zeitabschnitte und Regionen bezogen sein; ein Nachweis, europaweit in den letzten vier Jahren x Stück verkauft zu haben ist zu unpräzise. Zur Glaubhaftmachung sind auch eidesstattliche Versicherungen zugelassen. Grundsätze und Beispiele. In der Praxis ergeben sich Grundsätze, die im Folgenden anhand von Beispielen nicht abschließend dargestellt sind. Rechte aus einer Marke (Markenschutz). Der Markeninhaber hat gegen einen Verletzer einen Unterlassungsanspruch gegen die kennzeichenmäßige Benutzung der Marke, sofern das verwendete Zeichen mit der eingetragenen Marke identisch oder verwechselbar ähnlich ist und das Zeichen für identische oder ähnliche Dienstleistungen oder Waren verwendet wird, für die die Marke eingetragen ist (umgangssprachlich „Markenpiraterie“). Vom Verletzer kann Unterlassung, Beseitigung durch Vernichtung der widerrechtlich mit der Marke versehenen Waren oder zumindest Entfernung der Marke, Auskunft über den Umfang der Benutzung und Schadenersatz verlangt werden. Der Schadenersatz kann auf drei verschiedene Weisen berechnet werden: Der Markeninhaber kann Zahlung einer angemessenen Lizenzgebühr, Herausgabe des Verletzergewinns oder Ersatz der eigenen Mindereinnahmen verlangen. Auf Antrag (vgl. Strafantrag) des Verletzten wird auch eine strafrechtliche Verfolgung eingeleitet. Wenn Rechte aus der eingetragenen Marke geltend gemacht werden, so muss diese auch benutzt sein, es sei denn, die Marke befindet sich noch in der Benutzungsschonfrist nach MarkenG von fünf Jahren, die nach Eintragung beginnt. Gemäß Satz 1 MarkenG entsteht der Markenschutz durch die Eintragung eines Zeichens als Marke in das vom Patentamt geführte Register. Daher kann sich die Öffentlichkeit darüber informieren, welche Kennzeichen geschützt sind und welche nicht. Hierzu führt das Deutsche Patent- und Markenamt ein öffentlich zugängliches Register, in dem alle bibliografischen Daten, auch der Namen des Markeninhabers, hinterlegt sind. Die Frage der Akteneinsicht bei Markenanmeldungen (also noch nicht eingetragenen Marken) wurde zuletzt in der BGH-Entscheidung vom 10. April 2007, I ZB 15/06 behandelt. Demnach wird zwischen dem berechtigten Interesse des Antragstellers und dem Geheimhaltungsinteresse (darunter fällt auch das Recht auf informationelle Selbstbestimmung) des Anmelders abgewogen. Der Markenanmelder hat die Gründe darzulegen, die gegen eine Akteneinsicht sprechen. Schutzdauer. Die Schutzdauer ist grundsätzlich nicht beschränkt. In Deutschland, wie auch in Österreich und der Schweiz – hier erst seit dem 1. April 1993, alle davor angemeldeten Marken haben eine 20-jährige Schutzdauer – beträgt sie zwar ab dem Tag der Anmeldung zehn Jahre, kann aber gegen fristgerechte Zahlung einer Gebühr (in Deutschland 750 Euro) beliebig oft um weitere zehn Jahre verlängert werden. Der Markenschutz erlischt daher nur durch Nichtzahlung der Gebühr, durch Nichtbenutzung oder durch ein „Verkommen“ der Marke zum Gattungsbegriff. Der Bundesgerichtshof hat in der Entscheidung vom 21. Juli 2005 (Az. I ZR 293/02) über verschiedene eingetragene Wort- und Wort-/Bildmarken des Handelskonzerns Otto entschieden und das Unternehmen schließlich zur Löschung wegen Nichtbenutzung verurteilt. Hier waren die Marken lediglich auf Katalogen und Versandtaschen angebracht, nicht aber auf der Ware selbst. Der Bundesgerichtshof hat darin keine geeignete rechtserhaltende Benutzung der Marke gesehen. Übertragung und Übergang. Das Recht an einer Marke kann gemäß MarkenG auf einen anderen Inhaber übertragen werden oder im Wege der Rechtsnachfolge übergehen. Die Änderung der Inhaberschaft kann sich auf alle angemeldeten Waren und Dienstleistungen oder auch nur auf Teile davon beziehen. Die Eintragung des Inhaberwechsels beim Deutschen Patent- und Markenamt verursacht keine Gebühren. Wenn nur Teile übertragen werden, ist jedoch eine Gebühr in Höhe von 300 Euro zu zahlen. Moving Picture Experts Group. Logo der "Moving Picture Experts Group" Drei der MPEG-Standards und die dazu gehörenden Medien Die Moving Picture Experts Group (MPEG, engl. "„Expertengruppe für bewegte Bilder“") ist eine Gruppe von Experten, die sich mit der Standardisierung von Videokompression und den dazugehörenden Bereichen, wie Audiodatenkompression oder Containerformaten, beschäftigt. Umgangssprachlich wird mit „MPEG“ meistens nicht die Expertengruppe, sondern ein spezieller MPEG-Standard bezeichnet. Drei- oder viermal jährlich kommt die MPEG in fünftägigen Treffen zusammen. Etwa 350 Experten aus 200 Unternehmen und Organisationen aus 20 verschiedenen Ländern nehmen an diesen Treffen, den MPEG-Meetings, teil. Die offizielle Bezeichnung für MPEG ist ISO/IEC JTC1/SC29/WG11 (International Organization for Standardization/International Electrotechnical Commission, Joint Technical Committee 1, Subcommittee 29, Working Group 11). Die Standards werden mit der Internationalen Fernmeldeunion (ITU) abgeglichen und größtenteils in gemeinsamen Arbeitsgruppen entwickelt. Prominentestes Beispiel ist der MPEG-4 AVC Standard, der im Wortlaut identisch als ITU-T H.264 verabschiedet wurde. MPEG-Formate. MPEG standardisiert nur den Bitstream (Abfolge der Bits) und den Dekodierer (als sogenannte Terminal-Architektur). Der Kodierer wird nicht standardisiert, so dass Raum für Effizienzsteigerungen bleibt. Es werden Musterimplementierungen ("verification models") vorgeschlagen, die aber weder besonders schnell noch besonders effizient sind, da sie lediglich die Machbarkeit zeigen. Daher schreiben kommerzielle Anbieter die Implementierungen von MPEG-Kodierern von Grund auf neu, um entweder effizientere, qualitativ bessere Umsetzung des Originalmaterials in den codierten Datenstrom oder eine schnellere Implementierung zu erreichen. Die MPEG spezifiziert sowohl Containerformate als auch Codecs. Dadurch können beispielsweise in MPEG-2 kodierte Videospuren auch in (technisch allerdings unterlegenen) AVI-Containern abgelegt werden und nicht nur in hauseigenen MPEG-Containern. Normenaufbau. Üblicherweise ist eine MPEG-Norm in mehrere Teile aufgeteilt (bspw. ISO-IEC 14496: MPEG-4). Makroökonomie. Die Makroökonomie (von griechisch "μακρός" "makros" „groß“; "οἶκος", "oíkos" „Haus“ und "νόμος", "nomos" „Gesetz“), auch "Makroökonomik", "makroökonomische Theorie" oder "Makrotheorie", ist ein Teil der Volkswirtschaftslehre. Die Makroökonomie befasst sich mit dem gesamtwirtschaftlichen Verhalten der Sektoren, mit der Analyse der gesamtwirtschaftlichen Märkte und den Zusammenhängen. Der Begriff Makroökonomik wird in der Literatur überwiegend synonym verwendet. Manche Autoren unterscheiden jedoch zwischen der Makroökonomik als der Wissenschaft und der Makroökonomie als deren Untersuchungsgegenstand. Überblick. Die Makroökonomie ist die Wissenschaft der gesamtwirtschaftlichen Vorgänge. Das Tableau économique von François Quesnay ist das erste moderne makroökonomische Totalmodell. Quesnay modellierte einen einfachen Wirtschaftskreislauf. Die Wirtschaftsbeziehungen dreier Klassen bestehend aus den Bauern, den Kaufleuten und Handwerkern und den Grundeigentümern wurden erklärt. Hintergründe. Die Makroökonomie versucht, die wesentlichen Bestimmungsgründe, die internationalen Unterschiede und die zeitliche Entwicklung makroökonomischer (gesamtwirtschaftlicher) Schlüsselvariablen, wie zum Beispiel gesamtwirtschaftliche Produktion von Gütern und Dienstleistungen, Gesamteinkommen, Arbeitslosigkeit, Inflation und Zahlungsbilanz, zu erklären. Als Begründer der Makroökonomie gilt John Maynard Keynes, der 1936 die erste "simultane" Analyse der makroökonomischen Schlüsselvariablen vorlegte. Wichtige Teilgebiete der makroökonomischen Theorie sind die Volkswirtschaftliche Gesamtrechnung, die Einkommens- und Beschäftigungstheorie, die Wachstumstheorie und die Konjunkturtheorie. Die Trennung zwischen Mikroökonomie und Makroökonomie ist bisweilen problematisch. Viele Teilgebiete der Volkswirtschaftslehre, insbesondere die monetäre Theorie (Geldtheorie und Theorie der Geldpolitik), die Finanzwissenschaft, die Außenwirtschaftstheorie und die Verteilungstheorie, weisen Elemente der Mikroökonomie und der Makroökonomie auf. Mittelpunkt makroökonomischer Theorien ist schließlich die Frage nach der Rolle des Staates im gesamtwirtschaftlichen Kontext; aus den Theorien werden Empfehlungen an die Wirtschaftspolitik abgeleitet. Regierungen versuchen, die Größen, die auf Grund der ex-post-Betrachtung als maßgeblich erscheinen, zu ändern. So werden durch Änderungen bei Steuern, Zinsen oder Staatsausgaben politisch definierte Ziele wie Preisniveaustabilität, Vollbeschäftigung, außenwirtschaftliches Gleichgewicht und/oder Wirtschaftswachstum angestrebt (siehe auch Magisches Viereck). Makroökonomische Kenngrößen spielen daher im politischen Legitimationsprozess eine wichtige Rolle, da sie von den Wählern als Hinweis auf die Qualität der Arbeit einer Regierung gedeutet werden. Heute werden makroökonomische Analysen häufig auf mikroökonomischen Zusammenhängen aufgebaut (sogenannte Mikrofundierung). Allerdings ergeben sich hierbei viele Probleme, da sich mikroökonomische Zusammenhänge nicht ohne weiteres auf die Makroökonomie übertragen lassen. Beispielsweise besagt das Sonnenschein-Mantel-Debreu-Theorem, dass die aggregierte Nachfragefunktion nur einen Teil der Eigenschaften der individuellen Nachfragefunktionen übernimmt, wodurch multiple Gleichgewichte theoretisch möglich würden. Der Keynesianismus verfügt nur innerhalb der Neuen Makroökonomie in Teilen über eine eigenständige Mikrofundierung. Er greift weitestgehend auf die neoklassische Mikroökonomie zurück. Auf dem Gütermarkt wird das homogene Inlandsprodukt gehandelt, das fiktiv in den privaten Konsum, den Staatskonsum, die Investitionen sowie die Importe und Exporte aufgespalten wird. In der Makroökonomie existieren verschiedene Erklärungsansätze. Es lässt sich indessen rechtfertigen, letztlich nur von zwei Erklärungsmustern (Paradigmen) zu sprechen. Auf der einen Seite steht die klassische Makroökonomik, die durch den Monetarismus und die Neue Klassische Makroökonomik neu begründet und verfeinert wurde. Auf der anderen Seite steht der Keynesianismus. Abgrenzung. Die Volkswirtschaftslehre unterscheidet sich in zwei große Hauptteile, die Mikroökonomie und die Makroökonomie. Diese lassen sich nicht exakt voneinander trennen, sondern ergänzen sich gegenseitig. Mikroökonomie und Makroökonomie analysieren beide die Verhaltensweisen von Wirtschaftssubjekten. Im Mittelpunkt der Mikroökonomie steht dabei das einzelne Wirtschaftssubjekt, bei der Makroökonomie hingegen das Durchschnittsverhalten der Wirtschaftssubjekte. Das heißt, dass in der Mikroökonomie zum Beispiel die Nachfrage eines einzelnen Haushaltes untersucht wird, während die Makroökonomie die aggregierte Nachfrage, also die gesamte Nachfrage aller Haushalte analysiert. Hinzu kommt, dass in der Makroökonomie auch Bereiche in die Untersuchung mit einbezogen werden, die in der Mikroökonomie nicht berücksichtigt werden, wie zum Beispiel die Bedeutung des Staates oder des Auslandes. Zusammenfassend ist festzustellen: Die Mikroökonomie befasst sich hauptsächlich mit einzelnen Märkten, also mit Märkten von bestimmten Gütern und deren Analyse. Die Makroökonomie hingegen betrachtet die aggregierten Einzelmärkte wie den Gütermarkt oder den Geldmarkt und die daraus resultierenden wirtschaftlichen Gesamtzusammenhänge. Dabei greift die Makroökonomie auf die in der Mikroökonomie untersuchten Einzelentscheidungen der Wirtschaftssubjekte zurück. Die Vorläufer. Erste Fragen zu ökonomischen Sachverhalten finden sich bereits in der Antike. So werden schon in „Politeia“ von Platon Aussagen zu den Vorteilen der Arbeitsteilung oder in den Erörterungen des Wertes von Aristoteles werden Aussagen zum Geld und zum Zins getroffen. Dies sind Gedanken, welche sicherlich bereits zu früherer Zeit aufkamen. Das Besondere an den Griechen und Römern, den Scholastikern und Naturrechtsphilosophen ist allerdings, dass sie nicht die Volkswirtschaftslehre als solche in den Vordergrund stellten, sondern sie die ökonomischen Probleme immer im Zusammenhang mit einer anderen Wissenschaft betrachteten, beispielsweise der Ethik, der Rechtswissenschaft oder der politischen Philosophie. Eine eigentliche Wirtschaftswissenschaft liegt hier allerdings nicht vor. Jedoch sollte man die Mitarbeit dieser Autoren nicht unterschätzen, da ihr Beitrag einer der beiden Urquellen ökonomischer Forschung gleichwertig ist. Eine andere Quelle ist das Werk diverser Autoren, welche sich mit praktischen und politischen Fragen der Wirtschaftsführung und auch der Verwaltung befassten. Zu diesen Autoren zählen unter anderem Lehrer der damaligen Verwaltungshochschulen, Bürokraten, Politiker und Geschäftsleute. Da sie Praxiserfahrung mitbrachten, war ihnen die analytische Darstellung ihrer Ideen weniger wichtig als das eingebrachte Tatsachenwissen. Im 16. und 17. Jahrhundert stieg die Zahl der Veröffentlichungen derart an, dass die Hauptaussagen der formulierten Gedanken den Namen Merkantilismus prägten. Hauptaufgabe des Merkantilismus war es, die nationale Handelskraft zu unterstützen und die Beschaffung von Einnahmen für die Schatzkammer der Fürsten (auch camera genannt). Daraus leitet sich die Bezeichnung Kameralismus ab, welche den deutschen Merkantilismus bezeichnet. Sie stellt einen Vorläufer der deutschen Finanzwissenschaft dar. Eine erste wichtige Persönlichkeit in der Entstehung der ökonomischen Analyse ist Sir William Petty. Petty stellte die These des volkswirtschaftlichen „Überschusses“ und damit die ausschlaggebende Eigenschaft einer Klassischen Ökonomik. Mitte des 18. Jahrhunderts schloss sich in Frankreich eine Gruppe von Autoren zusammen und gründeten eine Schule. Sie nannten sich „les économistes“, heute würde man sie als Physiokraten bezeichnen. Der Arzt Francois Quesnay war Gründer und Oberhaupt dieser Einrichtung. Er war der erste, der eine gesamte Analyse des Wirtschaftsprozesses aufstellte, die auch die Kreislauftheorie mit einbeschloss. Diese Leistung ist beachtenswert. Beeinflussung erhielten die Physiokraten von Richard Cantillon, der erstmals näher auf das Problem der Allokation einging und der zeigte, welchen Einfluss die Nachfrage über eine Änderung der relativen Preise auf die Zusammensetzung der volkswirtschaftlichen Produktion hat. Anne Robert Jacques Turgot, der eine enge Verbindung zu den Physiokraten besaß, erarbeitete zu dieser Zeit ebenfalls eine weitestgehend umfassende Wirtschaftstheorie und entwickelte außerdem Beiträge, aufgrund deren man ihn heute zu den herausragenden klassischen Ökonomen zählt. Die Klassik. Der Beginn der Klassik liegt im Jahr 1770, gehört also zu dem Jahrzehnt, in dem Turgots Hauptwerk und das wohl populärste ökonomische Buch, nämlich „An Inquiry into the Nature and Causes of the Wealth of Nations“ von Adam Smith, entstanden. Smith war Professor für Moralphilosophie an der Universität Glasgow und die Bedeutung seines Werkes kam einerseits von seinem eigenen analytischen Einsatz, zum größten Teil aber vom Festhalten der bereits vorhandenen Erkenntnisse. Durch sein Werk wurde die Volkswirtschaft als selbständiges Wissensgebiet anerkannt. Orientiert man sich an Schumpeters Aussage, dass die Erkenntnis einer Wissenschaft die Erkenntnis ihrer selbst sei, so war dies der Schritt, mit dem die Ökonomie eine eigenständige wissenschaftliche Disziplin wurde. Die Klassik macht nur Sinn, wenn man sie im Kontext der ihr vorangegangenen Epochen betrachtet. Mit dem Werk von Smith und den Beiträgen der Vorläufer als Grundlage beschäftigten sich die Ökonomen der Klassik mit allen essentiellen Fragen, die den Inhalt der heutigen Volkswirtschaftslehre ausmachen. Einen Kernpunkt der Klassischen Ökonomie stellt das Harmonieprinzip dar. Damit gemeint ist die Gewissheit der Funktionstüchtigkeit einer Marktwirtschaft, wie Smith sie mit seiner „invisible hand“ bildlich darstellt. Die „unsichtbare Hand“ in Form des Preismechanismus rief aufgrund der rationalen und individuellen Handlungsweise des Einzelnen eine Ordnung der Wirtschaftspläne hervor. Hintergrund des Ganzen ist eine natürliche Ordnung, die sich der gegebenen Ordnung möglichst anpassen sollte, um eine größtmögliche gesellschaftliche Wohlfahrt herzustellen. Sehr wichtig ist dabei, dass sich der Staat weitestgehend aus dem Wirtschaftsleben heraushält. Der Staat sollte lieber seinen zwei wichtigen Funktionen nachkommen, nämlich der inneren und äußeren Sicherheit sowie der Verwirklichung eines geeigneten Rechtssystems mit Handlungsfreiheit sowie Schutz des Privateigentums. Das Hauptinteresse des Klassikers galt vielmehr den Aussagen, die bereits zum Überschuss getroffen wurden. Für sie waren die größten Probleme die Entstehung des Überschusses, wie er auf die unterschiedlichen Bevölkerungsschichten verteilt werden sollte und seine eventuelle Verwendung für „Luxuskonsum“ oder „Ersparnis“. Auf die Verwendung des Überschusses legten die Ökonomen besonderes Augenmerk. Sie entscheiden sich klar für die zweite Verwendungsmöglichkeit, da eine Erhöhung der Ersparnisse langfristig dem "Wohlstand der Nationen" dient und diesen erhöht. Außergewöhnliche Volkswirte dieser Epoche sind neben Adam Smith vor allem Thomas Malthus, Jean Baptiste Say, David Ricardo und John Stuart Mill. Die Idee einer „Klassischen“ Periode hat ihren Ursprung bei Karl Marx, der ebenso bedeutsam ist wie die Klassiker und John Stuart Mill als deren letzten Vertreter ansah. Das Ende der klassischen Epoche befindet sich, wenn man der Marxschen Einteilung folgt, im Jahr 1870 und ist gleichzeitig der Beginn der Neoklassik. Die Neoklassik. Der Marginalismus als Überschrift für Grenzbetrachtungen, zu denen unter anderem die Grenzkosten und der Grenznutzen zählen, gehört ohne jeden Zweifel zu den wichtigsten Innovationen der Neoklassik. Er ermöglichte es, das wirtschaftliche Verhalten auf einzelne Individuen zurückzuführen. Während der klassischen Epoche stand noch die makroökonomische Betrachtungsweise im Vordergrund, während in der Neoklassik ein universelles Individuum im Mittelpunkt der Analyse steht. Diese Sicht kann man als mikroökonomisch bezeichnen. In der Werttheorie kam der neoklassische Marginalismus zum ersten Mal zum Ausdruck und zog außerdem noch eine weitere einschneidende Veränderung nach sich. War für die Klassiker noch der Wert eines Gutes gleich den Kosten der Produktion, so sind die frühen Neoklassiker der Meinung, dass derjenige Preis, den die Nachfrager zu zahlen bereit sind, also der Marktpreis, sich durch den Grenznutzen bestimmt. Die Wertlehre, welche hier Anwendung findet ist im Unterschied zur Klassik subjektiv geprägt. Auch ist der Schwerpunkt, welcher im Mittelpunkt der Überlegungen steht, ein anderer als der in der klassischen Epoche. Die Neoklassik befasst sich hauptsächlich damit, wie knappe vorhandene Ressourcen verteilt werden. Diese Überlegungen führten zum Ergebnis, dass sich die Angebotsstruktur durch den relativen Preismechanismus der Nachfragestruktur angleicht und somit eine optimale Allokation entsteht. Als Autoren, die fast zeitgleich und unabhängig voneinander die „marginalistische Revolution“ einleiteten, sind William Stanley Jevons, Carl Menger und Léon Walras zu nennen. Das Hauptthema ihrer Ausführungen zu diesem Thema ist der Grenznutzen. Durch das Anwenden der Grenznutzentheorie erreichten Jevons und Walras, dass heute gebräuchliche mathematische Anwendungen als Standard eingeführt wurden. Alfred Marshall, Professor an der Universität in Cambridge, war einer der außergewöhnlichsten Autoren der Neoklassik. Durch seine Aussagen zum objektiven und subjektiven Wert wurde die geometrische Darstellung von Angebots- und Nachfragefunktionen entwickelt. Die Angebotskurve stellt hierbei den objektiven, die Nachfragekurve den subjektiven Teil dar. Durch die Zusammenführung beider Funktionen kann man den Marktpreis und den natürlichen Preis ermitteln. Weitere wichtige Autoren der Neoklassik sind Irving Fisher, Vilfredo Pareto, Knut Wicksell sowie Arthur Cecil Pigou. Geschichtlich betrachtet liegt das Ende der Neoklassik zu Beginn des Ersten Weltkrieges. Analytisch betrachtet findet sich dafür kein Zeitpunkt, ein Ende ist nicht genau datiert. Die Neoklassische Art der Analyse wird auch heute noch sehr oft verwendet. Von Keynes bis zur Gegenwart. In der zweiten Dekade des 20. Jahrhunderts trat der Ökonom John Maynard Keynes, dessen Höhepunkt sein 1936 erschienenes Werk „General Theory of Employment, Interest and Money“ ist, in den Vordergrund. Keynes ist es zu verdanken, dass die Makroökonomie heute eine so große Bedeutung hat. Die aufgrund von Keynes mehr in den Mittelpunkt gerückte Makroökonomie anstelle der Mikroökonomie ist mit der Änderung des Erklärungszieles verbunden. In der Keynschen Theorie wird hauptsächlich das Beschäftigungsproblem betrachtet. Keynes hat sich in seinen Ausführungen hauptsächlich mit der Beobachtung des Auslastungsgrades nicht vollbeschäftigter Produktionsfaktoren beschäftigt. Diese Änderung der Betrachtungsweise hängt mit zwei Faktoren zusammen. Zum einen mit der zur damaligen Zeit stattfindenden Weltwirtschaftskrise. Und zum zweiten mit der Umstellung von der langfristigen auf die kurzfristige Analyse. Eine weitere wesentliche Veränderung, welche durch Keynes ins Rollen kam, war die Spaltung der Wirtschaftstheorie. Neben der neoklassischen Analysetechnik rief Keynes eine zweite Art der Analyse ins Leben. Diese war allerdings so anders konzipiert, dass ein Vergleich undenkbar ist. Makroökonomie in geschlossener Volkswirtschaft. Unter einer geschlossenen Volkswirtschaft ist eine Volkswirtschaft ohne Handelsbeziehungen zum Ausland zu verstehen. Demnach sind Exporte und Importe gleich Null. Diese Annahme steht im Widerspruch zur Realität, denn alle modernen Volkswirtschaften haben zahlreiche und komplexe Handelsbeziehungen mit dem Rest der Welt. Gütermarkt. Der Gütermarkt umfasst in der Makroökonomie alle Märkte, auf denen Waren und Dienstleistungen gehandelt werden. Auf ihm kommen das aggregierte Angebot und die aggregierte Nachfrage einer Volkswirtschaft zusammen. Der Gütermarkt beinhaltet somit sowohl den Konsum als auch die Investitionen. Bei der grafischen Betrachtung des Gütermarktgleichgewichts trifft man auf die IS-Funktion. Diese stellt die Fülle aller Zusammenstellungen von Zinssatz und Volkseinkommen dar, bei denen ein Gleichgewicht besteht. Geldmarkt. Unter einem Geldmarkt ist ein Ort zu verstehen, auf welchem alle geldlichen Transaktionen stattfinden. Dabei werden Einnahmen und Ausgaben saldiert und in einer bestimmten Geldhaltung niedergeschlagen. Um die gewünschte Nachfrage zu ermitteln muss man zwei Sichtweisen aufgreifen. Zum einen ergibt sich diese aus dem Bedürfnis nach sofortiger Abwicklung laufender Transaktionen. Diese sogenannte "Transaktionskasse" verhält sich proportional zum Einkommen. Je höher das Einkommen ist umso mehr Transaktionen können getätigt werden. Zweitens ist trotz positiver, aber niedriger Zinsen eine Geldhaltung aus dem Vermögensmotiv sinnvoll, wenn steigende Zinsen zu erwarten sind. Mit der zu erwartenden Zinssteigerung ist nämlich auch mit Kursverlusten bei Wertpapieren zu rechnen. Die daraus abgeleitete "Spekulationskasse" steigt also mit sinkendem Zins. Schlussfolgernd wird das Geldangebot durch die Kreditvergabe bzw. die Wertpapierkäufe der Notenbank bestimmt. Dies ist mittels der LM-Funktion grafisch abbildbar. Bei gegebener Geldmenge verläuft die Geldmarktgleichgewichtskurve LM mit positiver Steigung im Zins-Einkommens-Koordinatensystem. Güter-Geldmarktmodell. Bei diesem Modell werden nun die beiden Teilmärkte "Gütermarkt" und "Geldmarkt" verbunden. Aus der Ableitung des Schnittpunkts der beiden Kurven ergibt sich das IS-LM-Modell. Dieses Modell basiert auf dem makroökonomischen Fixpreismodell von John R. Hicks. Durch die Zusammensetzung von Geld- und Gütermarkt legt das IS-LM-Modell die Gleichgewichtswerte des Zinssatzes und des Volkseinkommens fest. Es eignet sich zur kurzfristigen Untersuchung der Globalsteuerung. Arbeitsmarkt. Auf dem Arbeitsmarkt treffen Angebot und Nachfrage nach Arbeitskraft zusammen. Dabei fungieren Arbeitnehmer als Anbieter von Arbeit. Die Unternehmen fragen diese dann nach. Für Sie stellt die Arbeit somit einen Produktionsfaktor dar. Demnach ist die Arbeitsnachfrage auch im Zusammenhang mit der Produktionsbedingung zu sehen, welche durch die volkswirtschaftliche Produktionsfunktion beschrieben werden. In den vergangenen Jahren hatte der Arbeitsmarkt immer häufiger mit Wachstumsschwächen zu kämpfen. Sichtbar wurde dies vor allem durch den hohen Grad der Arbeitslosigkeit. Güter-Geldmarktmodell ergänzt um Arbeitsmarktmodell. Wie schon aufgeführt, stellt das Güter-Geldmarktmodell den Zusammenschluss der beiden Teilmärkte dar. Die grafische Darstellung erfolgt durch das IS-LM-Modell. Wenn nun das Gleichgewicht auf dem Arbeitsmarkt hinzugezogen wird, gelangen wir zum AS-AD-Modell. Dieses geht von der Annahme aus, dass eine natürliche Arbeitslosenquote besteht, welche sich mittelfristig einstellt. Nur wenn tatsächliche und natürliche Arbeitslosigkeit übereinstimmen kommt es zum Gleichgewicht auf dem Arbeitsmarkt. Mit der AS-Kurve wird jetzt weiterführend das gesamtwirtschaftliche Angebot betrachtet. Es wird demzufolge nicht mehr – wie noch im IS-LM-Modell – von einem völlig preiselastischen Angebot (und damit konstanten Preisen) ausgegangen. Vielmehr berücksichtigt man nun mögliche Preisreaktionen und deren Folgen für das gesamtwirtschaftliche Gleichgewicht. Makroökonomie in offener Volkswirtschaft. Bei der offenen Volkswirtschaft wird das Ausland mit einbezogen, d. h. Importe und Exporte spielen im Gegensatz zur geschlossenen Volkswirtschaft eine entscheidende Rolle. Besondere Bedeutung haben hierbei die Außenbeziehungen einer Volkswirtschaft. Diese werden in der Außenwirtschaftsrechnung erfasst, welche eine Nebenrechnung der Volkswirtschaftlichen Gesamtrechnung (VGR) ist. Die wichtigsten Teile der Außenwirtschaftsrechnung sind die Zahlungsbilanz und die Erfassung der Wechselkurse. Zahlungsbilanz. In der Zahlungsbilanz werden alle wirtschaftlichen Transaktionen zwischen Inländern und Ausländern erfasst. Die Leistungsbilanz unterteilt sich wiederum in vier Unterbilanzen. Diese sind die Handelsbilanz, die Dienstleistungsbilanz, die Bilanz der Erwerbs- und Vermögenseinkommen und die Bilanz der laufenden Übertragungen. Die Zahlungsbilanz kann ausgeglichen sein, ein Defizit oder einen Überschuss aufweisen. Bei einem Zahlungsbilanzgleichgewicht ist die Summe der Salden der Leistungsbilanz und der Kapitalbilanz gleich Null. Ist die Summe aus Leistungsbilanz und Kapitalbilanz kleiner als Null liegt ein Zahlungsbilanzdefizit vor, ist sie größer als Null, so liegt ein Zahlungsbilanzüberschuss vor. Bei einem Zahlungsbilanzdefizit übersteigt das Euro-Angebot die Euro-Nachfrage und die US-Dollar-Nachfrage übersteigt das US-Dollar-Angebot (bei Annahme der beiden Währungen Euro und US-Dollar). Im umgekehrten Fall, bei einem Zahlungsbilanzüberschuss, ist die Euro-Nachfrage größer als das Euro-Angebot und das US-Dollar-Angebot größer als die US-Dollar-Nachfrage. Wechselkurse. Als Wechselkurs wird der Preis einer Währung ausgedrückt in einer anderen Währung bezeichnet. Durch Wechselkurse ist ein Vergleich von Preisen für Güter und Dienstleistungen aus verschiedenen Ländern möglich. Daher sind sie für den internationalen Handel von großer Bedeutung. Es wird zwischen nominalen und realen Wechselkurs unterschieden. Der nominale Wechselkurs gibt den relativen Preis der Währungen zweier Länder an, während beim realen Wechselkurs die relativen Preise für ausländische und inländische Güter verglichen werden. Preis- und Mengennotierung. Der nominale Wechselkurs kann in Preis- und Mengennotierung ausgewiesen werden. Die Preisnotierung gibt an, wie viele Einheiten inländischer Währung gezahlt werden müssen um eine Einheit der ausländischen Währung zu erhalten (z. B. Euro je Dollar). Bei der Mengennotierung ist es genau umgekehrt. Hier geht es darum, wie viele Einheiten der ausländischen Währung hergegeben werden müssen um eine Einheit der inländischen Währung zu bekommen (z. B. Dollar je Euro). Wechselkurssysteme. Ist die Zahlungsbilanz unausgeglichen kann es zu Anpassungsprozessen kommen. Dies ist jedoch abhängig vom Wechselkurssystem, wo zwischen flexiblen und festen/fixen Wechselkursen unterschieden wird. Bei flexiblen Wechselkursen erfolgt die Kursbildung durch den reinen Marktprozess, d. h. durch das Zusammentreffen von Angebot und Nachfrage. Liegt nun ein Zahlungsbilanzdefizit vor, wird der US-Dollar-Wechselkurs steigen und der Euro-Wechselkurs fallen. Damit wird der Dollar aufgewertet und der Euro abgewertet. Im Falle eines Zahlungsbilanzüberschusses ergibt sich der umgekehrte Anpassungsprozess. Dagegen wird bei festen Wechselkursen zwischen den Staaten ein festgelegter Kurs für den Währungsumtausch vereinbart. Hier spricht man auch von einer Wechselkursparität. Ein Anpassungsprozess wie bei flexiblen Wechselkursen findet allerdings nicht statt, da eine Veränderung der Wechselkurse nicht erfolgen soll. Zinsparität. Die Zinsparitätentheorie erklärt, warum sich Wechselkurse ändern. Sie besagt, dass bei gleichen Risiken der Kapitalanlage, das Kapital dorthin fließt, wo es die höchsten Ertragsraten/Renditen gibt. Makroökonomische Totalanalyse. Die makroökonomische Totalanalyse betrachtet alle Märkte (Güter-, Geld-, Wertpapier- und Arbeitsmarkt) im Zusammenhang. Sie umfasst alle Interaktionen zwischen Konsumenten und Produzenten auf den Märkten, also die Handlungen aller Wirtschaftssubjekte. Zur Vereinfachung werden dabei bestimmte fixe Daten und Verhaltensweisen verwendet und die Analyse wird auf die Preistheorie und das Streben in Richtung der Gleichgewichtszustände reduziert. Obwohl diese Analyseart theoretisch umfassender ist, werden aus Kostengründen oder aufgrund der aufwändigen Datenbeschaffung meist Partialmodelle eingesetzt. Makroökonomisches Gleichgewicht. Die Grundlage des makroökonomischen Gleichgewichts basiert auf der Annahme einer "unsichtbaren Hand" von Adam Smith. Demnach stellt sich langfristig gesehen in einem Marktsystem eine Gleichgewichtssituation ein. Finanzpolitik. Die Finanzpolitik beinhaltet alle Entscheidungen bezüglich der Budgets oder Haushaltspläne im Staat, vor allem die Festlegung der Höhe und Art der Einnahmen und Ausgaben. Lohnpolitik. Lohnpolitik umfasst alle Maßnahmen zur Gestaltung von Höhe, Struktur und Ausrichtung der Löhne. Der vollkommene makroökonomische Arbeitsmarkt (neoklassischer Ansatz) ist teilweise unvereinbar mit der modernen volkswirtschaftlichen Realität. Freie Lohnbildung aus Nachfrage und Angebot ist in Teilen des Arbeitsmarktes möglich, aber meist werden die Lohnsätze zwischen den Gewerkschaften und den Unternehmerverbänden ausgehandelt und in Tarifverträgen festgehalten. Fiskalpolitik. Die Festlegung von Steuern T und Staatsausgaben G (Erhöhung bzw. Senkung) durch die Regierung nennt man Fiskalpolitik. Hierzu zählen alle Entscheidungen zu Staatskäufen, Transferzahlungen und Steuerstruktur. Fiskalpolitik ist ein Teil der Finanzpolitik. Soll ein staatliches Budgetdefizit abgebaut werden, in dem der Staat die Steuern erhöht bzw. die Staatsausgaben senkt, so wird dies kontraktive Fiskalpolitik genannt. Wird dagegen das Staatsdefizit ausgeweitet durch eine Steuersenkung bzw. Erhöhung der Staatsausgaben, so wird dies als expansive Fiskalpolitik bezeichnet. Inflation. Inflation ist ein Anstieg des allgemeinen Preisniveaus über längere Zeit. Deflation. Deflation ist eine negative Inflation, das heißt, das allgemeine Preisniveau fällt. Depression. Depression ist eine lang anhaltende Rezession. Hyperinflation. Hyperinflation bezeichnet eine sehr hohe Inflation. Rezession. Als Rezession wird ein negatives BIP-Wachstum in zwei oder mehr aufeinander folgenden Quartalen bezeichnet (negative Wachstumsraten). Stagnation. Als Stagnation wird eine konjunkturelle Phase ohne wirtschaftliches Wachstum bezeichnet. Stagflation. Stagflation bezeichnet eine Kombination von Stagnation und Inflation. Maschinensprache. Maschinensprache (auch Maschinencode oder nativer Code genannt) ist eine Programmiersprache, in der die Instruktionen, die vom Prozessor eines Computers direkt ausgeführt werden können, als Sprachelemente festgelegt sind – die „Programmiersprache eines Computers“. Die Menge und die formale Struktur/Syntax dieser auch „Anweisungen“ oder „Befehle“ genannten Instruktionen sind je Prozessortyp als Befehlssatz definiert. Ein "Befehl" ist hierbei eine Anweisung an den Prozessor, eine bestimmte Operation durchzuführen, beispielsweise eine Addition oder einen Wertevergleich. Jede funktionelle Leistung eines Prozessors ist Ergebnis der Ausführung von "Maschinencode" bzw. eines "Maschinenprogramms", das heißt eines in Maschinensprache vorliegenden Programms. Programmcode in Maschinensprache wird heutzutage kaum mehr von Programmierern direkt erzeugt, sondern unter Nutzung einer höheren Programmiersprache oder einer Assemblersprache, wobei erst mithilfe eines Compilers und/oder Assemblers und/oder Linkers ausführbarer Maschinencode entsteht. Wird von „Programmierung in Maschinensprache“ gesprochen, ist heute üblicherweise die Programmierung in Assemblersprache gemeint. Aus den Anweisungen eines in einer Interpretersprache erstellten Programms erzeugt ein Interpreter programmintern die Maschinenbefehle, die vom Prozessor auszuführen sind. Maschinenprogramm. ,Maschinenprogramm‘, Begriffszusammenhänge und im Sprachgebrauch auftretende Synonyme Maschinenprogramme finden in allen Geräten mit einem Prozessor Verwendung, also von Großrechnern über Personal Computer und Smartphones bis hin zu eingebetteten (embedded) Systemen in modernen Waschmaschinen, Radios oder Steuerungen im Kraftfahrzeug für ABS oder Airbag. Auf PCs stehen sie unter anderem in ausführbaren Dateien. Zusätzlich gibt es eine BIOS oder UEFI genannte Firmware, die den Bootvorgang einleitet und einige wichtige Funktionen fürs Betriebssystem bereitstellt. Maschinenprogramme findet man beispielsweise auf Windows-PCs in Dateien mit der Dateinamenserweiterung „.exe“. Unter vielen anderen Betriebssystemen werden ausführbare Dateien auch ohne besondere Endung und meist in speziellen Programmbibliotheken geführt und anders bezeichnet, z. B. unter OS als „Lademodul“. Bei vielen eingebetteten (embedded) Systemen oder Mikrocontrollern befinden sich das Maschinenprogramm oder Teile davon, z. B. ein Bootloader, permanent im ROM. Maschinenprogramme in einer Datei können mit einem Hex-Editor betrachtet, theoretisch auch verändert oder sogar erstellt werden. Üblicherweise erfolgt beides jedoch über den Quelltext des Programms, der programmiersprachenabhängig von einem Assembler oder Compiler in ein Maschinenprogramm übersetzt wird. Maschinencode kann durch einen Disassembler wieder in Assemblerformat rückübersetzt werden, die Umwandlung in eine höhere Programmiersprache durch einen Decompiler unterliegt jedoch starken Einschränkungen. Unterschiede zur Assemblersprache. Das Programm im "Maschinencode" besteht aus einer Folge von Bytes, die sowohl Befehle als auch Daten repräsentieren. Da dieser Code für den Menschen schwer lesbar ist, werden in der Assemblersprache die Befehle durch besser verständliche Abkürzungen, sogenannte Mnemonics, dargestellt. Quell- und Zielfelder sowie andere Angaben in den Befehlen können mit symbolischen Namen (z. B. 'ZEILE') notiert werden, ggf. ergänzt um numerische Zahlenwerte (z. B. für eine individuelle Längenangabe, Registernummern usw.). Die meisten der vorgenannten, zur Assemblersprache genannten Aspekte gelten in ähnlicher Weise auch für höhere Programmiersprachen – wobei diese sich gegenüber der Assemblersprache durch weitere (Leistungs-)Merkmale unterscheiden. Programmiersprache C. Der Compiler schreibt diesen Maschinencode, gemeinsam mit weiteren zur Ausführung notwendigen Informationen, in eine sogenannte ausführbare Datei. Zur Ausführung wird der Maschinencode vom Lader des Betriebssystems in den Arbeitsspeicher geladen. Anschließend ruft es die Funktion "main" des Programms auf, und die CPU beginnt mit der Abarbeitung der Maschinenbefehle. Beispiel IBM-Serie OS/390. "Das Beispiel beschreibt Maschinencode für IBM-Großrechner, z. B. der Serie 390:" Der Maschinencode entsteht beim Assemblieren bzw. beim Compilieren der Quellcodedateien und wird vom „Linkage Editor“, ggf. unter Hinzufügen weiterer Module, als ausführbares Programm in einer Programmbibliothek bereitgestellt. Zur Ausführung wird dieses Programm in den Hauptspeicher geladen. Der Maschinencode dieser Programme enthält Befehle und Daten gemischt - wie dies bei Computern der Von-Neumann-Architektur möglich ist (im Gegensatz z. B. zur Harvard-Architektur). Bei längeren Datenfeldern existieren ggf. führende Nullen zusätzlich oder bei Text nachfolgende Leerstellen. Für jedes vorgesehene Datenfeld ist eine 'Adresse' festgelegt, an der es beginnt und wo es entsprechend seiner Länge und seinem Format gespeichert ist. Bei „Bedingung erfüllt“ wird nach XXX (= reale Adresse 6C4A64) verzweigt, andernfalls wird im Maschinencode mit codice_1 fortgefahren. Häufig generieren Hochsprachen zusätzliche Befehle, z. B. um Feldlängen oder Datenformate zu egalisieren, Register zu laden oder Adressen in Arrays zu berechnen. Man erkennt, dass die Befehle unterschiedliche "Längen" aufweisen. Das Steuerwerk des Rechners erkennt die Länge an den ersten beiden Bits des Befehlscodes und schaltet das Befehlszählregister dementsprechend weiter. An genau dieser Stelle wird das Programm fortgesetzt – falls kein Sprungbefehl auszuführen ist. "Speicheradressen" werden im Maschinencode immer durch eine (oder zwei) Registerangabe(n), zusätzlich optional durch eine im Befehl angegebene „Distanz“ dargestellt. Zur Ausführung wird beim Programmstart ein bestimmtes Register vom Betriebssystem mit der Adresse geladen, an die das Programm in den Speicher geladen wurde. Von diesem Wert ausgehend, werden im Programmcode (bei ASS programmiert, bei Hochsprachen generiert) die Basisregister geladen, wodurch die mit relativen Adressen versehenen Befehle die tatsächlichen Speicherstellen ansprechen. Zur Ausführung von "Systemfunktionen" (wie Ausgabebefehle, Abfrage von Datum/Uhrzeit, Tastatureingabe, Laden von Unterprogrammen u. v. a.) wird im Maschinenprogramm lediglich ein Systemaufruf mit dem Befehl 'SVC' (Supervisor Call) abgesetzt. Im zweiten Byte ist die auszuführende Funktion spezifiziert (Verzeichnis siehe); weitere Parameter für die Funktion werden über eine in ihrer Struktur festgelegte Datenschnittstelle übergeben, auf deren Adresse ein implizit vereinbartes (nicht im Befehl angegebenes) Register zeigt. Beispiel: X'05 08' = LOAD, Parameter = Pgm-Name etc. Die die aufgerufenen Funktionen ausführenden Befehle sind Maschinencode des Betriebssystems. Sie werden dort ausgeführt und führen anschließend zu dem dem SVC folgenden Befehl zurück. Befehlsvorrat. "Hinweis:" Die genannten Befehlskürzel sind nur Beispiele; Befehle werden prozessorabhängig unterschiedlich benannt. "Adressierung und Ergebnisanzeige:" Fast alle Befehle adressieren die betroffenen Speicherpositionen (häufig Quelle/Ziel, zu vergleichend/Vergleichswert usw.) über definierte Register. Ebenso gibt der Prozessor seine Ergebnisse und relevante Zusatzinformationen über festgelegte Register und/oder über Flags im Statusregister zurück. Dies ermöglicht es, im weiteren Programmablauf diese Informationen auszuwerten und darauf zu reagieren. Die Länge der Befehle und die Größe von Quell- und Zieloperanden können je nach Architektur unterschiedlich sein. Beispiel: Ein Additionsbefehl wie ADC (add with carry) signalisiert dem weiteren Programmablauf ein Überschreiten des gültigen Wertebereichs über das Setzen des Carry- und Overflow-Flags hinaus. "Unterschiede:" Der Befehlsvorrat einzelner Prozessoren ist unterschiedlich. Nicht alle Befehle sind auf jedem Prozessortyp und in jeder Prozessor-Generation verfügbar. Beispiel: Ein einfacher Grundbefehl wie "SHL/SHR", der einen Registerwert um eine bestimmte Anzahl von Stellen nach links oder rechts verschiebt ist schon im 8086 vorhanden. Die mächtigere Variante "SHLD/SHRD", welche zusätzlich die entstehenden Leerstellen aus einem anderen Integerwert auffüllt, ist erst ab dem 80386 implementiert. "Mächtigkeit:" Der Befehlsvorrat eines Prozessors stellt dabei Befehle unterschiedlich mächtiger Funktionalität bereit. Neben einfachen, einstufigen Grundoperationen stehen auch Befehle zur Verfügung, die mehrere Operationen in einem Befehl bündeln. Beispiele: Der Befehl "CMP" (compare) ermöglicht den Vergleich zweier Werte auf , =. Der Befehl XCHG (exchange) vertauscht die Positionen zweier Operanden. Der Befehl "CMPXCHG" (compare and exchange) kombiniert diese beiden Befehle und ermöglicht einen bedingungsabhängigen Datenaustausch in einem Befehl. Während der Befehl "BT (bit test)" nur den Zustand eines einzelnen Bits in einem Integerwert prüft, ermöglichen es die Befehle "BTC, BTR", und "BTS" darüber hinaus, das geprüfte Bit abhängig vom Ergebnis der Prüfung zu setzen "(BTS)", zu löschen "(BTR)", oder zu invertieren "(BTC)". Generell unterscheidet man zwischen CPUs mit RISC- ("Reduced instruction set computer") oder CISC- ("Complex instruction set computer") Befehlssatz. Erstere haben einen bedeutend weniger mächtigen Befehlssatz, können jeden einzelnen Befehl aber typischerweise in einem Taktzyklus abarbeiten. Moderne CPUs mit CISC-Befehlssatz (darunter fallen heute fast ausschließlich x86-kompatible CPUs) dekodieren zur schnelleren Abarbeitung die komplexen CISC-Befehle zur Ausführung intern in eine RISC-ähnliche Mikrocontroller-Sprache. "Performance:" Jeder Befehl wird in einer in Datenblättern angegebenen Anzahl von Taktzyklen des Prozessors abgearbeitet. Deren Kenntnis ermöglicht es dem Programmierer (bei extrem zeitkritischen Anwendungen) beispielsweise, Befehle mit vielen Taktzyklen durch mehrere, in der Summe aber effizientere Befehle zu ersetzen. Kategorisierung der Befehle. In vielen modernen Prozessoren sind die Befehle der Maschinensprache, zumindest die komplexeren unter ihnen, intern durch Mikroprogramme realisiert. Das ist insbesondere bei der CISC-Architektur der Fall. Monochrome Malerei. Bei der monochromen Malerei beschränkt sich der Künstler auf den Gebrauch einer Farbe oder eine Farbe ist zumindest vorherrschend. Nicht unter diesen Begriff gerechnet werden graphische Werke, wobei aber Lavierung in Tusche als Grenzfall beziehungsweise eigenständige Werkgattung gesehen wird, so etwa Chinesische Tuschmalerei. Begrifflichkeit. Die Bezeichnung "Monochromie" kommt vom griechischen monos = „einzig“ und chroma = „Farbe“. Sie ist der Gegensatz zur Polychromie (Vielfarbigkeit). Als Monochrome Malerei wird daher die einfarbige Malerei bezeichnet, dabei kann es sich beispielsweise um eine Leinwand handeln, die mit nur einer Farbe bemalt ist. Es kann sich ebenso um eine flächige Ausbreitung einer einzelnen Farbe handeln, hierzu können, je nach Auslegung des Begriffs, auch Farbnuancen und Abstufungen einer Farbe (beispielsweise unterschiedliche Blautöne) hinzugerechnet werden. Monochrome Malerei kann daher auch als Einfarbmalerei bezeichnet werden, wobei der Farbe eine das Werk beherrschende Bedeutung zukommt. Bei der monochromen Malerei werden oftmals hellere und dunklere Tonwerte einer einzigen Farbe verwendet, sie findet sich beispielsweise in Ornamenten oder Mustern auf Tapeten und Stoffen. Dies wird daher oftmals auch als „Ton-in-Ton-Malerei“ bezeichnet. Ton-in-Ton-Malerei. Als Ton-in-Ton-Malerei wird eine meist harmonisch wirkende Malerei bezeichnet, die aus sehr eng verwandten Farbtönungen besteht. Hierbei ist ein Grundton (Mittelton) vorherrschend. Eine frühe Phase der Monochrommalerei findet sich bereits vom Barock bis zum Historismus. Diese Malweise wird auch als "Camaieu" bezeichnet. Wenn lediglich Grautöne verwendet werden, spricht man von "Grisaille".. Daneben gibt es andere Formen, etwa Sepiamalerei im Braun der Tintenfischtinte. Camaïeu. Die Bezeichnung Camaieu stammt vom französischen „peinture en camaïeu“ („gemalt wie eine Kamee“) und bezeichnet eine monochrome Ausgestaltung der Malerei in mehreren Tönungen ein und derselben Farbe. Diese Art der Bildgestaltung war schon im 16. Jahrhundert in Italien gebräuchlich. Im 18. Jahrhundert wurden sie beispielsweise als Miniaturen ausgeführt oder unter Glas, als Dekor in Dosendeckeln oder für Porzellan, eingesetzt. Dabei sollte der Eindruck beispielsweise eines Elfenbeinreliefs erwecken werden. Wurden dafür ausschließlich Gelbtöne verwendet, so nannte man diese Unterart „Cirage“. Monochromatik der Moderne. In der Moderne entwickelte sich eine Monochromatik in extremer Buntmalerei bis hin zu streng monochromatischen Werken, die völlig abstrakt in (nahezu) einem Farbwert gehalten sind. Kasimir Malewitsch ist ein bekannter Maler des 20. Jahrhunderts, der sich damit beschäftigte. Daneben gilt Yves Klein als bedeutender Vertreter. Seine Bildkompositionen sind ganz in einem Ultramarinblau mit dem Namen "International Klein Blue" gehalten, der auch Bestandteil der Bildtitel ist. Er selbst nannte sich „Yves le Monochrome“ und experimentierte seit 1946 mit dieser Praxis. Zu den wichtigsten Vertretern der deutschen monochromen Malerei gehörte Raimund Girke. In einem großen Artikel des "zeitmagazins", einer Beilage der Wochenzeitung "Die Zeit", wurde er einmal als „Der weiße Riese“ bezeichnet, was mit seiner 1957 begonnenen Beschränkung auf die Farbe Weiß zusammenhängt, die er fortan nur noch in geringem Maße modulierte, erst sehr konstruktiv, häufig auf Grundformen wie Kreis und Quadrat beschränkt, später auch freizügiger mit starkem Hang zur gestischen Malerei. Aber immer war die Farbe auf Weiß und Abtönungen des Weiß ins Graue und Blaue beschränkt. Einzelnachweise. !Monochrome Malerei Muslim. Ein Muslim (), auch Moslem, ist ein Angehöriger des Islam. Wörtlich bedeutet das Wort „der sich (Gott) Unterwerfende“ oder „sich (Gott) Hingebende“, analog zu „Islam – Hingabe (an Gott)“. Die weibliche Form im Deutschen ist Muslimin oder Moslemin. In jüngerer Zeit wird für die weibliche Form auch der arabische Begriff Muslima verwendet. Die Begriffe Muselmane und Muselmann sind veraltet. Verbreitung. Die Zahl der Muslime weltweit wird auf 1,57 Milliarden geschätzt. Damit sind sie nach den Christen die zweitgrößte Religionsgemeinschaft. Die Zahl der Muslime wird in Deutschland anhand der Herkunft und der Mitgliedschaft in islamischen Vereinen geschätzt, da der Islam nicht in öffentlich-rechtlichen Religionsgemeinschaften organisiert ist, in denen Muslime eingeschriebenes Mitglied sind. Der Islam kennt keinen mit der Kirchenmitgliedschaft vergleichbaren Status. Als religiöse Bezeichnung. a> aus dem Jahr 1865 mit dem Titel "Gebet in Kairo" Muslim ist, wer das islamische Glaubensbekenntnis (arabisch Schahada) im vollen Bewusstsein vor zwei volljährigen muslimischen Zeugen spricht. Nach islamischem Selbstverständnis ist jedes Neugeborene ein Muslim ("siehe" Fitra) und wird ggfs. erst später durch äußere Einflüsse (z.B. Erziehung) vom islamischen Glauben abgebracht. Mit dem Eintritt in die Geschlechtsreife bekunden auch sie dies durch das Sprechen des Glaubensbekenntnisses (u.a. bei jedem Gebet). Muslim ist, nach islamischem Selbstverständnis, ein Monotheist, der Mohammed als letzten Propheten Gottes (Allahs) anerkennt. Orthodoxe Muslime glauben daran, dass der Koran das offenbarte Wort Gottes ist, das Mohammed durch den Erzengel Gabriel übermittelt wurde. Der hanafitische Rechtsgelehrte asch-Schaibānī zitiert in seinem "Kitāb as-Siyar" einen Hadith, dem zufolge der Prophet Mohammed sagte: „Muslime sollen sich einander gegen den Außenstehenden unterstützen, das Blut aller Muslime hat den gleichen Wert, und derjenige, der am niedrigsten steht (d.h. der Sklave), kann alle anderen binden, wenn er einen Treueid leistet.“ Abgrenzung zu Mu'min. „Wir haben den Islam angenommen“ ("aslamnā"), das Bekenntnis zum Islam, ist nur eine Äußerung ("qaul" = „Parole“), Glaube ("īmān") dagegen ist sowohl Äußerung als auch Tat. Die Annahme des Islam durch verbale Bekundung während Mohammeds Wirken war zunächst die Garantie dafür, dass die arabischen Stämme der Arabischen Halbinsel von den Muslimen weiter nicht mehr bekämpft wurden. Damit stuft der Koran den Glauben höher ein als den bloß formalen Eintritt in den Islam. Die Exegese interpretiert an dieser Stelle das Schlüsselwort "aslamnā" („wir haben den Islam angenommen“) nicht nur in dem sonst üblichen Sinne der Unterwerfung unter den (einzigen) Gott, sondern versteht die Worte der Beduinen im Sinne von „sich ergeben“ und „kapitulieren“ ("istaslamnā") aus Furcht vor Gefangenschaft und weiterer kriegerischen Auseinandersetzung. Die Sufis unterscheiden ebenfalls zwischen einem Muslim und einem „Gläubigen“. Nach ihrer Auffassung unterwirft sich ein Muslim lediglich äußerlich den Geboten Gottes, ein Gläubiger "glaubt" jedoch auch unerschütterlich daran und ist sich dessen bewusst, dass er ununterbrochen „vor seinem Schöpfer steht“. Als ethnische Bezeichnung. In einigen Ländern wird bzw. wurde der Begriff „Muslim“ auch als ethnische Bezeichnung verwendet. Dies war zum Beispiel in der Sozialistischen Föderativen Republik Jugoslawien (1962–1992) der Fall. Hier produzierten in den 1960er Jahren muslimische marxistische Historiker eine große Anzahl von Werken über die Geschichte der bosnischen Muslime und lieferten eine „wissenschaftliche“ Legitimierung für die Anerkennung einer muslimischen Staatsnation. Bei der Volkszählung von 1971 gab die überwältigende Mehrheit der bosnischen Muslime ihre Nationalität als „Muslim im Sinne einer Nation“ an. Diese Bezeichnung wurde 1974 in der neuen jugoslawischen Verfassung offiziell anerkannt. Ein Problem an dem Konzept der neuen bosnischen muslimischen Nationalität war seine Zweideutigkeit, denn der Begriff konnte sowohl die Zugehörigkeit zu einer religiösen Gemeinschaft als auch einer Nationalität bedeuten. Ein Atheist muslimischer Nationalität konnte mithin nicht von einem muslimischen Gläubigen einer anderen Nationalität (albanisch, türkisch) unterschieden werden. Um das Problem zu beseitigen, wurde das Wort Muslim, wenn es die Nationalität bezeichnete, mit großem Anfangsbuchstaben geschrieben ("Musliman"), wenn es die Religionszugehörigkeit bezeichnete, dagegen mit kleinem Anfangsbuchstaben ("musliman"). Die jugoslawische Politik bemühte sich in der Folgezeit darum, das muslimische Nationalitätskonzept von jeglicher religiöser Konnotation fernzuhalten, doch haben anthropologische Studien gezeigt, dass diese Unterscheidung nicht vollständig aufrechterhalten werden konnte. Auch in den 1980er Jahren war für viele bosnische Muslime die nationale Identität noch eng mit dem Islam verbunden. „Mohammedaner“. Die gelegentlich umgangssprachlich gebrauchte, veraltete Bezeichnung „Mohammedaner“ wird von Muslimen im deutschen Sprachraum im Allgemeinen abgelehnt, da Mohammed zwar verehrt, aber nicht angebetet wird und damit nicht den Stellenwert Jesu im Christentum einnimmt. Das arabische hingegen findet sich nach wie vor auch in anderen islamischen Literatursprachen wie Persisch, (Osmanisch-) Türkisch oder Urdu. Die Vergöttlichung Muhammads ist einzelnen Strömungen des Islam jedoch nicht gänzlich fremd: So galt der Muhammadiyya („Die Mohammedaner“) im Irak des 8. und 9. Jahrhunderts Muhammad sowohl als der unbekannte Gott, der sich dem Menschen nicht erschließt, als auch als einzig wahre Manifestation Gottes auf Erden. Auch in einigen Strömungen des Sufismus setzt ab etwa 1100 eine nicht unumstrittene Mohammedmystik ein, für die Mohammed Logos oder universelles Geistwesen ist, das entsprechend verehrt wird. Im arabischsprachigen islamischen Schrifttum, z. B. in der Koranexegese von Ibn Kathir, benutzt man die Ausdrücke wie „prophetische Gesetzgebung“ als Synonym zur „muhammadanischen Gesetzgebung“. Die islamische Gemeinschaft bezeichnet Ibn Kathir auch als „muhammadanische Umma“. Ibn Hadschar al-'Asqalani spricht neben der Sunna des Propheten Mohammed auch von der „muhammadanischen Sunna“ bzw. von der „muhammadanischen Botschaft“. Magnoliengewächse. Die Magnoliengewächse (Magnoliaceae) sind eine Familie der Bedecktsamigen Pflanzen (Magnoliopsida). Sie umfasst zwei Gattungen mit etwa 227 Arten. Beschreibung. Magnoliengewächse sind verholzende Pflanzen: Bäume oder Sträucher. Sie sind immergrün oder laubabwerfend. Die wechselständigen und spiralig angeordneten Laubblätter sind gestielt, groß und einfach. Die Blattspreite ist einfach oder gelappt. Sie besitzen große Nebenblätter. Die Blüten stehen meist einzeln end- oder achselständig. Die gestielten Blüten sind zwittrig (selten eingeschlechtig) und oft groß und prächtig. Anders als die meisten Bedecktsamigen Pflanzen, deren Blütenteile wirtelig angeordnet sind, stehen bei den Magnoliengewächsen alle Blütenblätter (s.l.), also die Blütenhüll-, die Staub- und Fruchtblätter spiralig an der Blütenachse, azyklisch angeordnet und meist in Vielzahl (mehr als je sechs). Die meist vielen freien und oberständigen Fruchtblätter enthalten meist zwei, selten bis 20 Samenanlagen. Als Früchte werden Balg- oder Hülsenfrüchte gebildet, die spiralig in zapfenförmigen Samenständen stehen. Da diese Anordnung auch bei frühen fossilen Bedecktsamern gefunden wird, gelten die Pflanzen dieser Familie als entwicklungsgeschichtlich alt (oder primitiv). Die Bestäubung erfolgt meist durch Käfer. Blütenformel: formula_1 12px formula_2 oder 12px formula_3. Verbreitung. Diese Pflanzenfamilie ist in Amerika und Ostasien verbreitet. Die überwiegende Zahl der Arten wächst in den gemäßigten und tropischen Zonen Südostasiens, vom Himalaja ostwärts bis nach Japan und südostwärts über die malaiische Inselgruppe bis nach Neuguinea und Neubritannien. Die übrigen Arten sind in den gemäßigten südöstlichen Teilen Nordamerikas über das tropische Südamerika bis nach Brasilien verbreitet. Systematik. Die Systematik der Familie Magnoliaceae wird kontrovers diskutiert (siehe AGP-Website und Literatur unten). Dabei wurde vorgeschlagen, dass es zwei Unterfamilien gibt. Die Unterfamilie Liriodendroidae mit der einzigen Gattung "Liriodendron" und die Unterfamilie Magnolioideae. Die Unterfamilie Magnolioideae enthält nach Meinung einiger Autoren die einzige, umfangreiche Gattung "Magnolia" oder nach Meinung besonders chinesischer Autoren (siehe "Flora of China" 2008) bis zu 16 kleine Gattungen. Die Liriodendraceae stellten früher eine eigenständige Familie dar, deren zwei Arten jetzt den Magnoliengewächsen zugeordnet werden. Malpighiengewächse. Die Malpighiengewächse (Malpighiaceae) sind eine Familie in der Ordnung der Malpighienartigen (Malpighiales) der Bedecktsamigen Pflanzen (Magnoliopsida). Die etwa 1300 Arten sind hauptsächlich in den Tropen Südamerikas beheimatet. Die Familie Malpighiaceae ist wahrscheinlich in der Oberkreide vor etwa 68 Millionen Jahren in Südamerika entstanden. Beschreibung. Es sind meist verholzende Pflanzen: Sträucher, Bäume und Lianen, aber auch ausdauernde krautige Pflanzen. Die einfachen Laubblätter sind meist gegenständig. Es sind Nebenblätter vorhanden. Es sind vier oder fünf Kelchblätter vorhanden. Es sind meist fünf Kronblätter vorhanden, welche gestielt sind, der Fachausdruck ist genagelte Kronblätter. Die Blüten enthalten zwei bis 15, meist fünf oder zehn Staubblätter. Zwei bis fünf, meist drei Fruchtblätter sind zu einem unterständigen Fruchtknoten verwachsen. An der Frucht sind oft noch die Kelch- und Staubblätter erhalten. Systematik und Verbreitung. Die Familie Malpighiaceae wurde 1789 durch Antoine Laurent de Jussieu in "Genera Plantarum", S. 252 unter der Bezeichnung „Malpighiae“ aufgestellt. Typusgattung ist "Malpighia" Myrtengewächse. Die Myrtengewächse (Myrtaceae) bilden eine Pflanzenfamilie in der Ordnung der Myrtenartigen (Myrtales). Die Familie wird in zwei Unterfamilien und einige Tribus gegliedert; insgesamt umfasst sie etwa 131 Gattungen mit etwa 4620 Arten. Sie sind vor allem in Australien (etwa 85 Gattungen) und in der Neotropis beheimatet. Nutzung. Neben der namenstiftenden Myrte gehören zur Familie der Myrtengewächse (Myrtaceae) Pflanzenarten wie die Gewürznelke und die Eukalyptus-Arten. Viele Arten liefern ätherischen Ölen für Parfümherstellung und Pharmazie. Einige Arten liefern eßbare Früchte, einige "Psidium"-Arten (beispielsweise die Guave) und "Campomanesia"- sowie "Eugenia"-Arten. Erscheinungsbild und Blätter. Die Pflanzenarten dieser Familie sind meist immergrüne (einige "Eucalyptus"-Arten sind laubabwerfend) Gehölze: Bäume und Sträucher. Sie sind helophytisch bis xerophytisch. Sie enthalten meist reichlich ätherische Öle in schizolysigenen Exktretbehältern. Das Sekundäre Dickenwachstum geht von einem konventionellen Kambiumring aus. Das deutlichste Unterscheidungsmerkmal dieser Familie ist allerdings, dass sich das Phloem innerhalb des Xylem befindet, bei allen anderen Pflanzen ist dies umgekehrt. Sie weisen bikollaterale Leitbündel auf. Die meist gegenständig, seltener wechselständig und spiralig oder wirtelig angeordneten Laubblätter besitzen je nach Art eine sehr unterschiedliche Größe sowie Form und sie können gestielt sein. Die einfache Blattspreite ist ledrig bis krautig und ganzrandig. Die Blattflächen können drüsig gepunktet sein. Die Blätter können normal ausgerichtet sein oder um 90° gedreht. Die Stomata befinden sich meist nur auf einer Blattfläche, oder bei senkrechtgestellten Blättern auf beiden Blattflächen und sind meist anomocytisch oder seltener paracytisch. Bei vielen Arten liegt Heterophyllie vor. Nebenblätter fehlen oder sind nur klein (beispielsweise "Calythrix"). Blütenstände und Blüten. Die Blüten stehen selten einzeln oder meist in end-, seitenständigen oder zwischen den Nodien stehenden (deutlich bei "Beaufortia"-, "Callistemon"- und "Melaleuca"-Arten), zymöse, ährige, schirmrispige, rispige oder köpfchenförmige (beispielsweise "Actinodium") Blütenstände zusammen. Es können Tragblätter vorhanden sein. Bei manchen Arten wirken die Blütenstände mit ihren Tragblättern als Pseudanthien. Unter den Blüten stehen oft zwei Deckblätter. Die Pflanzen sind selten zweihäusig getrenntgeschlechtig (diözisch) oder polygamomonözisch. Ihre selten eingeschlechtigen oder meist zwittrigen, meist radiärsymmetrischen, selten etwas zygomorph (betrifft meist nur das Androeceum) Blüten sind meist vier-, seltener fünfzählig. Es ist oft ein becher- bis röhrenförmig vertiefter Blütenboden vorhanden (= Hypanthium). Es sind meist vier oder fünf (drei bis sechs), freie oder verwachsene Kelchblätter vorhanden oder sie sind nur noch rudimentär zu erkennen. Die vier- oder fünf Kronblätter sind frei oder verwachsen. Die Farben der Kronblätter reichen von weiß bis gelb, oder von rot über rosa- bis purpurfarben, aber blau kommt nicht vor. In der Regel sind, sekundär vermehrt, sehr viele (20 bis 150) freie Staubblätter vorhanden, seltener vier oder fünf, acht oder zehn; sie befinden sich meist am Rand des Hypanthiums. Die Staubblätter können alle fertil oder teilweise zu Staminodien umgewandelt sein. Die Staubfäden können zu Bündeln verwachsen sein (beispielsweise "Lophostemon") und besitzen selten Anhängsel (beispielsweise "Corynanthera"). Die Pollenkörner besitzen meist drei (zwei bis vier) Aperturen und sind selten colpate, meist colporat oder porat, manchmal syncolpat. Es kann ein Diskus vorhanden sein. Meist zwei bis fünf, selten bis zu 16 Fruchtblätter sind zu einem synkarpen, mittel- bis unterständigen, selten fast oberständigen, meist zwei- bis fünf- (ein- bis 16-)kammerigen Fruchtknoten verwachsen. Einkammerigen Fruchtknoten können 30 bis 150 Samenanlagen enthalten, ansonsten enthält jede Fruchtknotenkammer 2 bis 50 Samenanlagen; sie sind hemianatrop bis anatrop und meist bitegmisch und crassinucellat. Jede Blüte enthält nur einen Griffel mit einer Narbe. Die Bestäubung erfolgt durch Insekten (Entomophilie) oder Vögel (Ornithophilie). Früchte und Samen. Die fleischigen oder trockenen, bei Reife sich öffnenden oder geschlossen bleibenden Früchte können Kapselfrüchte, Steinfrüchte, Nuss oder Beeren sein. Die Samen enthalten kein Endosperm und können geflügelt (bei einigen "Eucalyptus"-Arten) oder ungeflügelt sein. Der Embryo ist gerade bis mehr oder weniger stark gekrümmt, manchmal gedreht. Über häufige Polyembryonie wurde berichtet. Chromosomenzahlen. Die Chromosomengrundzahlen betragen n = meist 11 (5 bis 12). Systematik. Die Familie der Myrtaceae wurde 1789 durch Antoine Laurent de Jussieu in "Genera Plantarum", S. 322–323 aufgestellt. Typusgattung ist "Myrtus" Synonyme Myrtaceae sind: Heteropyxidaceae nom. cons., Kaniaceae, Leptospermaceae, Myrrhiniaceae, Psiloxylaceae. Malvengewächse. Die Malvengewächse (Malvaceae) sind eine Familie in der Ordnung der Malvenartigen (Malvales) innerhalb der Bedecktsamigen Pflanzen. Die Familie wird heute in neun Unterfamilien gegliedert mit etwa 243 Gattungen und enthält etwa 4.225 bis 4.300 Arten. Die Malvaceae haben eine weltweite Verbreitung. Bekannteste Nutzpflanzen sind Gemüse-Eibisch, Kakaobaum und Baumwolle. Diese Familie enthält einige Arten, die medizinisch oder für Tees genutzt werden. Viele Arten und besonders ihre Sorten sind Zierpflanzen für Parks, Gärten und Räume. Erscheinungsbild und Laubblätter. Es gibt krautige Pflanzen: einjährige bis ausdauernde und verholzende Pflanzen: Sträucher und Bäume, sehr selten Lianen. Bei den verholzenden Arten ist die Borke faserig. Die Malvengewächse besitzen oft Schleimzellen. Meist sind auf vielen Pflanzenteilen Haare vorhanden, es handelt sich meist typischerweise um Sternhaare. Selten sind Dornen oder Stacheln vorhanden. Es können extraflorale Nektarien vorhanden sein. Die meist wechselständigen Laubblätter sind gestielt. Die fingernervige Blattspreite ist handförmig gelappt bis geteilt oder ungeteilt. Der Blattrand ist glatt, gekerbt, gezähnt oder gesägt; wenn er nicht glatt ist endet ein Blattnerv je Blattzahn. Es sind Nebenblätter vorhanden, sehr selten sind sie reduziert. Blütenstände und Blüten. Selten sind Arten einhäusig (monözisch) oder zweihäusig (diözisch) getrenntgeschlechtig. Die Blüten stehen in seitenständigen, unterschiedlich aufgebauten, oft zymösen Blütenständen zusammen oder die Blütenstände sind reduziert bis auf eine Blüte. Kauliflorie tritt bei einigen tropischen Arten auf (bekanntes Beispiel Kakaobaum ("Theobroma cacao")). Manchmal stehen einige Hochblätter zusammen oder es ist bei sehr vielen Gattungen ein Nebenkelch aus meist drei, selten mehr Hochblättern vorhanden. Die meist gestielten Blüten sind typischerweise radiärsymmetrisch, selten etwas zygomorph (beispielsweise "Helicteres") oder asymmetrisch (beispielsweise "Mansonia"). Die fünfzähligen Blüten sind selten eingeschlechtig oder meist zwittrig mit doppelten Perianth. Die meist fünf Kelchblätter sind oft an ihrer Basis verwachsen und berühren sich im übrigen Bereich nur (valvat). Die meist fünf freien Kronblätter überdecken sich dachziegelartig (imbrikat). Bei einigen Arten sind die Kronblätter reduziert oder fehlen. Bei manchen Arten sind ist die Basis der Staubblätter mit den Kronblättern verwachsen. Bei der Familie der Malvaceae ist ursprünglich nur der innere Kreis mit fünf Staubblättern vorhanden. Bei vielen Taxa existiert als Besonderheit der Blüten eine sogenannte sekundäre Vielzähligkeit der Staubblätter (bis über 1000), dabei wurden die Glieder des inneren Kreises zentripetal vermehrt, wodurch fünf Staubblattgruppen entstanden sind. Oft sind Staminodien vorhanden. Die Staubfäden sind mindestens an ihrer Basis verwachsen. Bei den Unterfamilien Bombacoideae und Malvoideae sind die Staubfäden der vielen Staubblätter zu einer den Stempel umgebenden Röhre verwachsen, der sogenannten Columna. Zahlreiche Vertreter der Unterfamilien Grewioideae, Helicteroideae und Sterculioideae weisen ein Androgynophor auf, das Staubblätter und Gynoeceum aus der Blüte heraushebt. Die Pollen sind in den Unterfamilien verschieden. Zwei bis viele oberständige Fruchtblätter sind frei oder zu einem Fruchtknoten verwachsen. Der Griffel endet in einer kopfigen oder oft fünflappigen Narbe. In den Blüten sind Nektarien vorhanden, die aus zusammengefassten Drüsenhaaren bestehen und sich meist auf den Kelchblättern befinden. Die Bestäubung erfolgt bei vielen Taxa durch Insekten (Entomophilie), einige Taxa besonders der Neuen Welt sind auf Vögel (Ornithophilie) spezialisiert. Früchte und Samen. Bei den Malvaceae gibt es ein breites Spektrum an Fruchttypen. Meist werden Kapselfrüchte oder Spaltfrüchte gebildet, seltener Beeren, Steinfrüchte oder Nüsse. Viele Früchte enthalten Haare. Bei manchen Arten besitzen die Früchte an der Oberfläche Haare oder Stacheln. Die Samen können Haare (bekannt von Baumwolle), Flügel oder einen Arillus (beispielsweise "Durio") besitzen. Bei den Taxa mit Kapselfrüchten sind die Samen die Verbreitungseinheiten (Diasporen) ansonsten sind meist die Früchte die Diasporen. Sie werden überwiegend durch Wind (bekannt von "Tilia", Anemochorie) oder Tiere, selten durch Wasser verbreitet; von Myrmekochorie wird selten berichtet. Inhaltsstoffe und Chromosomen. An Inhaltsstoffen sind Cyclopropenoid-Fettsäuren (Malvalsäure, Sterculiasäure) und Terpenoid-basierte Chinone vorhanden. Die Chromosomenzahlen sind in den Unterfamilien unterschiedlich: Bombacoideae n = 36 (-46), Brownlowioideae n= 10, Byttnerioideae n = (5-7) 10 (-13), Dombeyoideae n = 19, 20, 30 etc., Grewioideae n = 7-9 (10), Helicteroideae n = 9, 14, 20, 25 etc., Malvoideae n = 5-20 (-mehr), Sterculioideae n = (15, 16, 18) 20 (21 etc.), Tilioideae n = 41. Systematik. Die Erstveröffentlichung des Familiennamens Malvaceae erfolgt 1789 durch Antoine-Laurent de Jussieu in "Genera Plantarum", 271. Die Typusgattung ist "Malva" L.. Vor allem molekulargenetische Untersuchungen führten zu großen Änderungen in der Systematik der Ordnung der Malvales. In die Familie der Malvengewächse (Malvaceae) wurden einige Taxa neu eingegliedert, darunter die ehemaligen Familien der Lindengewächse, der Wollbaumgewächse und der Sterkuliengewächse. Diese neu eingeordneten ehemaligen Familien sind nun nur noch Unterfamilien. Die meisten Taxa, die die bisherige Familie der Malvengewächse bildeten, sind jetzt in der Unterfamilie Malvoideae zu finden; deshalb hier die Bezeichnung „Malvengewächse im engeren Sinne“. Die Familie ist jetzt gegliedert in neun Unterfamilien. Synonyme für Malvaceae sind: Bombacaceae nom. cons., Brownlowiaceae, Byttneriaceae nom. cons., Dombeyaceae, Durionaceae, Fremontiaceae nom. illeg., Helicteraceae, Hermanniaceae, Hibiscaceae, Lasiopetalaceae, Melochiaceae, Pentapetaceae, Philippodendraceae, Plagianthaceae, Sparmanniaceae, Sterculiaceae nom. cons., Theobromataceae, Tiliaceae nom. cons., Triplochitonaceae nom. nud. Ökologie. Einige Malvengewächse stellen wichtige Futterpflanzen für den Malven-Dickkopffalter ("Carcharodus alceae") dar. So ernähren sich die Raupen dieser Schmetterlingsart vor allem von Weg-Malven ("Malva neglecta") und Moschus-Malven ("Malva moschata"). Nutzung. Viele Arten und besonders ihre Sorten sind Zierpflanzen für Parks, Gärten und Räume. Die am häufigsten kultivierte Art ist wohl der Chinesische Roseneibisch ("Hibiscus rosa-sinensis") mit hunderten von Sorten, der in den Parks und Gärten der frostfreien Gebiete wichtig ist, aber auch als Zimmerpflanze verwendet wird. Bechermalven, Stockrosen und viele mehr sind in den Gemäßigten Breiten in den Gärten zu finden. Einige Baumarten werden in den Tropen in Parks und Alleen gepflanzt. Es gibt eine Vielzahl von Arten, die vom Menschen vielfältig genutzt werden. Bekannt als Nutzpflanze ist der Kakaobaum. Okra ("Abelmoschus esculentus") ist ein Gemüse. Die Früchte und Blätter des Afrikanischen Affenbrotbaumes sind essbar. Bekannt ist die Durian-Frucht. Diese Familie enthält einige Arten die für Tees genutzt werden. Die medizinische Wirkung vieler Arten beruht vor Allem auf dem enthaltenen Schleim. Bekannt sind auch die Kolabäume ("Cola"). Die Wilde Malve, auch „Große Käsepappel“ genannt, ist eine der ältesten bekannten Gemüse- und Heilpflanzen. Baumwolle und Kenaf, Java-Jute oder Ostindische Hanfrose ("Hibiscus cannabinus") sind wichtige Faserpflanzen. Mobilfunk. Mobilfunk ist die Sammelbezeichnung für den Betrieb von beweglichen Funkgeräten. Darunter fallen vor allem tragbare Telefone, (Mobiltelefone, "siehe auch:" Mobilfunknetz) und in Fahrzeuge eingebaute Wechselsprechgeräte (etwa Taxifunk). Es existieren jedoch viele weitere Anwendungsbereiche, wie zum Beispiel mobile Datenerfassung, Funkrufdienste, Telemetrie, See- und Binnenschifffahrtfunkdienste, Jedermannfunk und Amateurfunk, die nicht ortsgebunden sind. Die deutsche Bundesnetzagentur spricht von "Öffentlichen zellularen Mobilfunkdiensten". Landfunknetze. Das „öffentliche bewegliche Landfunknetz“ (Autotelefon, öffentlicher beweglicher Landfunkdienst, öbL) war ein öffentliches Funknetz der Deutschen Bundespost für Nachrichtenverbindungen von beweglichen Funkstellen untereinander und mit Endstellen des öffentlichen Fernsprechnetzes. Die in diesem Netz gebotenen Dienste hießen „öffentliche bewegliche Landfunkdienste“. Mit dem Landfunknetz war es möglich, über ein Autotelefon In- und Auslandsgespräche über das öffentliche Fernsprechnetz herzustellen: „Der Verbindungsaufbau von einem Teilnehmer des Fernsprechnetzes zum PKW-Teilnehmer erfolgt über die gewöhnlichen Vermittlungseinrichtungen, eine Überleitvermittlung (die in das Funknetz überleitet) sowie über diejenige Landfunkstelle, die dem PKW-Teilnehmer geographisch am nächsten liegt“. Die Fahrzeuge mussten mit einer Sprechfunkanlage ausgerüstet sein und sich im Versorgungsbereich einer festen Landfunkstelle befinden. Satellitenkommunikation. Daneben existierten auch noch satellitengestützte Mobilfunknetze. Die Nutzung dieser Systeme, obwohl sie weltweit funktionieren, ist wegen unhandlicher und teurer Endgeräte und hoher Gesprächskosten nur in speziellen Bereichen sinnvoll. Es etabliert sich aber immer mehr durch bessere Technik und günstigere Preise dort, wo kein Festnetz oder terrestrisches Mobilfunknetz vorhanden ist, so etwa im Nahen Osten. Technische Systematiken. Grob unterschieden werden Einwegesystem (Simplex-Betrieb), Mehrwegesysteme (Halb-Duplex und Duplex) und Mehrbenutzersysteme (Multiplex). Bei Einwegesystemen ist nur der Empfang (Funkruf) oder seltener nur das Senden (Rundfunk, autonome Pegelstandsmelder der Wasserwirtschaft, Wetterstationen oder auch „Abhörwanzen“) möglich. Bei Mehrwegesystemen kann das Endgerät sowohl senden als auch empfangen. Ist dies gleichzeitig möglich (wie bei Mobiltelefonen), so spricht man von Vollduplex. Nicht-öffentliche und öffentliche Mobilfunknetze. Mobilfunk unterteilt sich in einen öffentlichen und einen nicht öffentlichen Teil. Die Aufteilung in öffentliche und nichtöffentliche Funkdienste stammt noch aus der Zeit vor der Postreform I. Derzeit ist in Deutschland die Bundesnetzagentur für die Vergabe der Frequenzen und Genehmigung der Funklizenzen zuständig. Unter den "nicht öffentlichen Mobilfunk" fallen zum Beispiel der Flugfunk und der Betriebsfunk. Das Spektrum der Nutzer des Betriebsfunks reicht von der Polizei, der Feuerwehr und anderen Hilfsorganisationen (BOS-Funk = Behörden und Organisationen mit Sicherheitsaufgaben) über Verkehrsbetriebe (zum Beispiel Flugfunk) und Taxi-Unternehmen bis zu privaten Unternehmen, beispielsweise des Baugewerbes. Als CB-Funk ("Citizens Band Radio", „Bürgerfrequenzband“, Jedermann-Funk, Bürgerfunk) bezeichnet man einen Funk im 11-Meter-Band auf insgesamt 80 Kanälen 26,565 MHz bis 27,405 MHz. Die Reichweite liegt bei etwa 10–15 km bei der höchstzulässigen Ausgangsleistung. Der Betrieb von mobilen Anlagen (insbesondere in Kfz) ist in Deutschland seit 1975 genehmigungs- und gebührenfrei. Der Amateurfunk ist privater Funkverkehr, der das erfolgreiche Ablegen einer Prüfung voraussetzt, die zu einer staatlichen Genehmigung (Amateurfunkgenehmigung) führt. Jedem Funkamateur ist ein Rufzeichen zugeteilt. Die Frequenzen für Funkamateure sind international vereinbart. Insbesondere über Kurzwelle kann jeder Punkt der Erde erreicht werden. Auch ist die Verwendung von Amateurfunksatelliten möglich. Die Nutzung ist jedoch nur für rein private Zwecke erlaubt; das Austauschen von politischen Informationen oder der erwerbsmäßige Gebrauch ist zum Beispiel verboten. In den USA waren die ersten Funkamateure bereits 1911 aktiv, heute weltweit über eine Million, davon 78.000 in Deutschland (Stand 12/2003). Die "öffentlichen Mobilfunknetze" werden von Mobilfunkbetreibern zur Verfügung gestellt. Sie können von jedermann benutzt werden. Die öffentlichen Mobilfunknetze sind die Funktelefonnetze, die Funkrufnetze, das Rheinfunknetz und das Seefunknetz. Schnurlostelefone haben die Aufgabe, ein Funktelefon kurzer Reichweite über eine Basisstation mit dem drahtgebundenen Fernsprechnetz zu verbinden, sowie interne Verbindungen zwischen mehreren, mit der Basisstation verbundenen, Mobilteilen zu ermöglichen. Dies kann jeweils als nicht-öffentliches Mobilfunknetz interpretiert werden. Wirtschaftliche Bedeutung. Heute ist der Mobilfunk ein bedeutender wirtschaftlicher Faktor. Größtenteils private Mobilfunkgesellschaften konkurrieren um Marktanteile in einem in Deutschland gesättigten Markt. Die Mobilfunktechnik spielte eine besondere Rolle in der Entwicklung der New Economy und bei der Schaffung zahlreicher neuer Arbeitsplätze. Gesellschaftliche Aspekte. Der Mobilfunk fand vor allem durch die GSM-Netze für Mobiltelefone (umgangssprachlich Handys) Mitte der 1990er Jahre starke Verbreitung. Dadurch wurde er zu einem gesellschaftlichen Phänomen ("„Handy-Etikette“"). Für eine biologische Wirkung von Mobilfunkgeräten existieren keine Belege, dennoch werden vor allem im esoterischen Umfeld mögliche Gesundheitsschädigungen behauptet. An Sendemasten, die oft aus technischen Gründen an exponierten Lagen aufgestellt werden und dadurch Einfluss auf das Landschaftsbild nehmen wird teilweise aus ästhetischen Gründen Kritik geübt. Durch das Vermieten von Montageflächen für Mobilfunkantennen an geeigneten Bauwerken können Einnahmen erzielt werden. Auf diese Weise werden wenigstens teilweise die Kosten zum Unterhalt etwa historischer Sendetürme als technisches Denkmal gedeckt, wie beispielsweise beim Sendeturms des Senders Gleiwitz, des letzten bestehenden Holzsendeturms. Ökologische Faktoren. Der Betrieb des Mobilfunknetzes verbraucht ungefähr 60 Gigawattstunden pro Jahr. Der Energieverbrauch des Mobilfunknetzes setzt sich aus dem Verbrauch der Basisstationen und der Zugangsnetze zusammen. Dabei entfällt der weitaus größere Teil auf die Basisstationen. Zu Beginn der Verbreitung der Netze stand die Verfügbarkeit und Leistungsfähigkeit im Vordergrund ("Quality of Service, QOS"), Energieeinsparpotentiale wurden vernachlässigt. Dadurch könnten sich in Zukunft beträchtliche Verbesserungen ergeben. Die Optimierung des Energiebedarfs im Mobilfunknetz ist daher ein wesentlicher Aspekt in den Ansätzen zur "Green IT". Geschichte der Mobiltelefonie in Deutschland. Erste Zukunftsvorstellungen von „Taschentelephonen“, mit denen jedermann „sich mit wem er will wird verbinden können, einerlei, wo er auch ist“, wurden 1910 in dem Buch "Die Welt in 100 Jahren" publiziert. Seit 1926 gab es einen Vorläufer des öffentlichen Mobilfunks in Deutschland, den Zugfunk in Form einer handvermittelten öffentlichen Sprechzelle im F-Zug Berlin – Hamburg. Seit 1950 gibt es in der Bundesrepublik Deutschland öffentliche Mobilfunknetze, sie waren nicht auf eine breite Vermarktung ausgelegt. Die Mobilfunknetze in Deutschland sind mit fortlaufenden Großbuchstaben benannt. Die Mobilfunknetze im GSM-Standard wurden in Deutschland anfänglich in D-Netze (900 MHz) und E-Netze (1800 MHz) unterteilt; mittlerweile haben alle vier deutschen GSM-Netze aber auch (in geringerem Umfang) Frequenzen im jeweils anderen Band. E-Plus nutzt das E noch als Markenbestandteil, ebenso bis Anfang 2013 Vodafone das D in der Firmierung Vodafone D2 GmbH. Seitdem verzichtet Vodafone auf den Zusatz „D2“ als Netzhinweis und firmiert als Vodafone GmbH. Das Gesprächsvolumen umfasste in Deutschland im Jahr 2010 91 Milliarden Minuten pro Jahr und hatte damit einen Marktanteil von über 19 Prozent. Mobiltelefonie in Nordkorea. Während Mobiltelefonie in anderen Staaten bereits als alltägliches Kommunikationsmittel etabliert worden war, blieben Mobiltelefone in Nordkorea mehrere Jahre lang verboten. Erst im Dezember 2002 wurden an ausgewählte Bürger versuchsweise 20.000 Mobiltelefone abgegeben, die jedoch schon im Juni 2004 wieder eingezogen wurden. 2007 bot der ägyptische Mischkonzern "Orascom Group" einen Weiterbau der langjährigen Bauruine des Ryugyŏng Hot’el an, sofern dessen Mobilfunktochter Orascom Telecom ein nordkoreanisches Mobilfunknetz aufbauen und über 25 Jahre lang betreiben könne. Daraufhin wurde im Folgejahr das Joint Venture Cheo Technology gegründet, das zu 75 Prozent Orascom und zu 25 Prozent dem nordkoreanischen Staat gehört und eine Lizenz zum Betrieb eines UMTS-Mobilfunknetzes in der Hauptstadt Pjöngjang erhielt. 2008 nahm es das Mobilfunknetz Koryolink in Betrieb. Die ersten vergebenen Telefonnummern begannen mit den Ziffern „1912“, dem Geburtsjahr des ehemaligen Präsidenten Kim Il-sung. Seitdem ist das Telefonieren innerhalb des nordkoreanischen Inlands bei verhältnismäßig hohen Anschaffungskosten möglich, eine SIM-Karte mit 50 MB Datenvolumen kostet an die 200 €. Für Auslandstelefonate existiert eine separate Frequenz, die jedoch in Nordkorea lebenden Ausländern vorbehalten ist. Verbindungen zwischen den beiden Frequenzen sind nicht möglich. Koryolink verzeichnete Ende 2009 90.000 Teilnehmer, Ende 2010 430.000 und im Februar 2012 eine Million. Bislang sind allerdings weder Gespräche ins Ausland noch die Nutzung des mobilen Internets möglich. Weiterhin dürfen die offiziell importierten Mobilgeräte nicht über Memory-Cards, Videokameras oder eine Bluetooth-Funktion verfügen. Gleichwohl wurde 2013 die Produktion des ersten nordkoreanischen Smartphones „Arirang AS1201“ (entspricht den chinesischen Uniscope U1201) verlautbart. Bereits ein Jahr später erschien ein weiteres Modell, das "Arirang AP121" welches allerdings mit dem chinesischen Smartphone "THL W200" identisch ist. Sämtliche Smartphones laufen mit Android, verfügen jedoch über keinen App-Store wie Google Play. Eigene Applikationen zu installieren ist nicht möglich, das muss bei staatlich zugelassenen Händlern geschehen. Medienberichten zufolge müssen Personen, die einen Mobilfunk–Anschluss haben möchten, neben ihren persönlichen Daten auch eine Erklärung darüber abgeben, dass sie keine Anrufe tätigen, deren Inhalt Staatsgeheimnisse berührt und das Gerät auch nicht missbräuchlich verwenden. Zudem soll die Erlaubnis der Sicherheitsbehörden nötig sein. Im Grenzgebiet zu China sollen Menschen aber mithilfe von chinesischen Geräten auf das Netz des Nachbarlandes zugreifen und somit auch Auslandsgespräche führen können. Das Einführen von Handys war bis zum 7. Januar 2013 verboten. Entsprechende Geräte mussten bei Einreise abgegeben werden und wurden dem Eigentümer erst bei Ausreise wieder ausgehändigt. Master Boot Record. Der (kurz MBR) ist ein Startprogramm mit Partitionstabelle für BIOS-basierte Computer (IBM-PC-kompatible Computer). Er befindet sich im ersten Sektor eines in Partitionen aufteilbaren Speichermediums wie beispielsweise einer Festplatte. Das Konzept aus Startprogramm und Partitionstabelle wurde 1983 mit dem IBM-PC XT und MS-DOS/PC DOS 2.0 eingeführt. Als Partitionstabelle hat sich der MBR als De-facto-Standard für Speichermedien aller Art, z. B. USB-Sticks, Speicherkarten oder externe Festplatten, etabliert. Seit ca. 2010 findet bei großen Speichermedien (> 2TiB) zunehmend die GUID-Partitionstabelle Verwendung. Historische Entwicklung. Als der IBM-PC entwickelt wurde, waren Speichermedien zunächst nicht in Partitionen unterteilt. Die Urfassung des IBM-PC, das Modell 5150 von 1981, hatte zwei 5¼″-160-kB-Disketten-Laufwerke. Das mitgelieferte Betriebssystem PC DOS 1.0 (MS-DOS 1.14) konnte dann auch nur mit dieser speziellen Konfiguration umgehen. Das BIOS, eine Neuentwicklung für den IBM-PC, erwartete an Position CHS 0:0:1 (Spur 0, Kopf 0, Sektor 1) den 512 Bytes großen Bootsektor, lud diesen in den Speicher und führte ihn aus. PC DOS 1.0 enthält an dieser Stelle einen Bootsektor, der von dieser fixen Konfiguration ausgeht: 160-kB-Speichermedien mit 8 Sektoren pro Spur. Mit Erscheinen des IBM-PC XT 1983 wurden neuere Disketten-Laufwerke und erstmals auch eine Festplatte eingeführt. Der Bootsektor musste also angepasst werden, da nicht mehr von einer fixen Konfiguration ausgegangen werden konnte. Mit PC DOS 2.0 (MS-DOS 2.0) wurde daher für Disketten der ' (VBR) eingeführt, der einen ' (kurz BPB) für die unterschiedlichen Diskettenformate enthält und vom Code im VBR ausgewertet wird. Somit konnten auch Disketten mit 9 Sektoren pro Spur für die neuen 360-kB-Laufwerke verwendet werden und weitere zukünftige Diskettengeometrien wurden dadurch ermöglicht. Für die Festplatte wurde der ' eingeführt, der nun eine Partitionierung erlaubte. Eine weitere der Einführung von Festplatten geschuldete Neuerung waren Unterverzeichnisse, die mit dem Backslash „\“ getrennt wurden. (Siehe FAT-Dateisystem). Aus Kompatibilitätsgründen wurde die Konvention, den Bootsektor in den Speicher zu laden und auszuführen, beibehalten und sollte bei Datenträgern mit mehreren Partitionen nicht verletzt werden. Die Partitionstabelle ist somit innerhalb des Bootsektors platziert. Die Funktion des Bootloaders ist derart modifiziert, dass der Programmcode im MBR zunächst nur die enthaltene Partitionstabelle auswertet und im Chainloading-Prinzip den eigentlichen Bootloader der aktiven Partition lädt und ausführt. Die Firmware (das BIOS) des Computers braucht daher nichts von Partitionen zu wissen. Funktionen. Auf IBM-PC-kompatiblen Computern wird die Partitionstabelle im Normalfall vom Startprogramm ausgewertet – dieses übernimmt die Funktion eines Bootloaders für BIOS-basierte x86-Computer. Auf Datenträgern, von denen kein Betriebssystem gestartet werden kann oder soll, wird von einem bereits laufenden System nur die Partitionstabelle verwendet – ein eventuell vorhandenes Startprogramm wird dabei nicht genutzt. Dies ist zum Beispiel der Fall, wenn ein USB-Stick, der eine MBR-Partitionstabelle enthält, an einem Computer oder einem anderen Gerät mit USB-Schnittstelle verwendet wird. Bei der GUID-Partitionstabelle (), die bei modernen Systemen zunehmend den MBR als dessen Nachfolger ersetzt, wird der aus Kompatibilitätsgründen enthaltene MBR zum Schutz mit einer den gesamten Speicherbereich belegenden Partition erstellt, damit die in den darauffolgenden Datenblöcken vorhandene GUID-Partitionstabelle und die darin definierten Partitionen nicht unbeabsichtigt überschrieben werden (). Startvorgang (Booten). Um mit dem historischen IBM-PC kompatibel zu bleiben, wird von einem BIOS im Zuge des Startens () normalerweise der erste Sektor eines angeschlossenen Speichermediums gelesen und ausgeführt. Dieser Sektor wird daher auch als Bootsektor bezeichnet. Beim ' übernimmt das Startprogramm die Kontrolle, indem es die Partitionstabelle auswertet und ein ausgewähltes Betriebssystem startet. Im Standard-MBR von MS-DOS/PC DOS 2.0 ist dies der ', der die erste aktive (als bootfähig gekennzeichnete) Partition findet und anschließend den Bootsektor dieser Partition ebenfalls lädt und ausführt. Im Allgemeinen ist es daher nicht das BIOS, das die aktive Partition sucht und den Bootsektor (VBR) dieser Partition startet. Einige Hersteller entwickelten jedoch BIOS-Varianten mit zusätzlichen Funktionen, wie einem Auswahlmenü, um das Starten von einer beliebigen Partition zu erlauben; auch Funktionen, die weitere herstellerspezifische Programme von einer Partition nachladen, sind verbreitet. Dies bietet beispielsweise IBM/Lenovo auf vielen Laptops der ThinkPad-Reihe in Form einer „Servicepartition“, deren Programme direkt aus dem BIOS heraus gestartet werden können. Bei vielen Compaq-Modellen wiederum ist das BIOS-Setup nur über externe Programme erreichbar: Die Taste F10, die vom Anwender während der BIOS-Phase gedrückt werden muss, um das BIOS zu konfigurieren, ist dabei nur dann verfügbar, wenn auch ein nur dafür vorgesehenes DOS-Betriebssystem inklusive Setup- und Diagnoseprogrammen in einer speziellen Partition (Typ 0x12) auf der ersten Festplatte vorhanden ist. Alternativ lässt sich dieses BIOS nur noch über eine Startdiskette mit den entsprechenden Programmen konfigurieren. Obwohl der IBM-PC ursprünglich jede Art von Bootcode unterstützte, prüfen manche BIOS-Varianten vor dem Start, ob eine gültige Partitionstabelle vorhanden ist. Wenn ein PC-System nur den MBR verwendet, merkt der Anwender davon in fast allen Fällen nichts, doch führt dies z. B. bei der Verwendung von GPT-formatierten Datenträgern dazu, dass der Startvorgang durch jenes BIOS unterbrochen wird oder ein Starten dadurch sogar grundsätzlich unmöglich ist. Auch können auf solchen BIOS-Varianten keine Betriebssysteme gestartet werden, die keinen MBR verwenden oder benötigen (wie z. B. FreeBSD oder Eigenbau-Betriebssysteme). Selbst wenn ein gültiger MBR vorhanden ist, prüfen manche BIOS-Varianten zusätzlich, ob eine aktive Primärpartition existiert und ob diese einen Bootsektor enthält. Dieses Verhalten führt dazu, dass ein Betriebssystem, dessen Bootloader im MBR selbst installiert wird und das deswegen keine Partition als aktiv markiert, nicht starten kann und das BIOS stattdessen eine meist uneindeutige Fehlermeldung ausgibt. Startprogramm (Bootloader). Der Bootloader des "Master Boot Record" ist ein kleines Programm, das vom BIOS aufgerufen wird. Dieses lädt den Bootloader immer im 8086-kompatiblen 16-Bit-Modus. Beim Standard-MBR von MS-DOS/PC DOS 2.0 heißt dieses Startprogram ', sucht in der Partitionstabelle nach „sichtbaren“ und „aktiven“ Partitionen und lädt anschließend den Bootsektor der ersten aktiven Partition und führt diesen aus. Im Chainloading-Verfahren wird dann das eigentliche Betriebssystem geladen. Der ' wurde bei jedem Betriebssystem von Microsoft ein wenig verändert, entspricht aber im Wesentlichen immer noch dem ursprünglichen Programmcode von MS-DOS 2.0. Da er grundsätzlich jedes Betriebssystem auf der ersten aktiven Partition starten kann, wird ein ' mit enthaltenem ' auch als Standard-MBR bezeichnet. Der Bootloader kann jedoch durch speziell dafür vorgesehene Programme ersetzt bzw. erweitert werden. Populär sind vor allem Bootmanager, die das vorher enthaltene Startprogramm auslagern und im MBR ersetzen, um stattdessen ein Auswahlmenü oder ähnliches anzuzeigen und so z. B. das Starten von beliebigen Partitionen ermöglichen. Auch gibt es, welche BIOS-Limitierungen durch Geometrieumsetzung umgehen sollen (z. B. um bereitzustellen). Derartige Programme nutzen oft eine eigene Partition oder einen reservierten (unpartitionierten) Bereich auf der Festplatte, von dem weitere Dateien oder weiterer Programmcode nachgeladen wird. Auch Bootviren nutzen den Bootloader des MBR, um vor dem eigentlichen Betriebssystemstart bereits aktiviert zu sein. Ein fehlender oder defekter Bootloader führt dazu, dass vom Datenträger überhaupt nicht gestartet werden kann, selbst wenn in einer der Partitionen ein Betriebssystem mit intaktem Bootsektor vorhanden ist. Da einige Bootloader zusätzliche Dateien nachladen, liegt ein Defekt auch dann vor, wenn zwar der MBR und die Partition des Betriebssystems intakt sind, aber die Dateien des Bootloaders fehlerhaft sind oder fehlen. Das Startprogramm verschiedener Betriebssysteme. Da das Startprogramm () nur zum Starten () eines IBM-PC-kompatiblen Computers vorhanden sein muss, wird es normalerweise bei der Installation eines Betriebssystems in den MBR geschrieben. Dies kann auf unterschiedliche Weise geschehen. DOS und Windows beispielsweise schreiben den "Master Boot Code" immer auch beim Erstellen einer Partitionstabelle durch das Dienstprogramm fdisk. Ist jedoch bereits ein MBR vorhanden, so wird mit fdisk normalerweise der nicht verändert, bei der Installation eines Betriebssystems hingegen meistens schon. Bei den meisten Linux-Distributionen wird der Bootloader im MBR nur durch das Installieren eines spezifischen Linux-Bootloaders initiiert, wenn für diesen als Installationsort der MBR angegeben wurde. DOS und MS-DOS-basierte Windows-Versionen. Unter DOS kann der MBR bei nicht partitionierten Datenträgern mit dem zu DOS gehörigen codice_1 angesehen und bearbeitet werden. Wenn der Datenträger dagegen partitioniert ist, so kann mit codice_2 nur der Boot-Sektor (Boot Record) der jeweiligen Partition angesehen werden. Um auf den MBR zuzugreifen, wird ein Diskeditor (wie z. B. Diskedit.exe, PTEdit.exe etc.) benötigt. MS-DOS und die auf MS-DOS aufbauenden Windowsvarianten (Windows 95 bis Windows Me) überschreiben den Bootloader im MBR bei der Installation ohne Rücksicht auf seinen bisherigen Inhalt. Im Falle eines Fehlers im MBR kann unter DOS mit dem undokumentierten Befehl codice_3 ein neuer Standard-Masterbootrecord geschrieben werden. Dabei wird der gesamte MBR mit Ausnahme der Partitionstabelle überschrieben, wodurch Bootviren entfernt werden können, sofern das Virus nicht den Schreibzugriff auf den Master Boot Record erkennt und abfängt. Allerdings wird bei diesem Vorgehen auch ein eventuell vorhandener Bootmanager entfernt, da seine Anweisungen durch den Standard-Code von MS-DOS überschrieben werden. Windows NT bis Windows XP. Einige Microsoft-Windows-Versionen der NT-Linie, u. a. XP, nicht jedoch NT 4 und 2000, überschreiben den Bootloader (die ersten 446 Bytes des MBR) bei jeder Neuinstallation zwar auch, berücksichtigen aber noch vorhandene Informationen über ein älteres Microsoft-Betriebssystem, also MS-DOS und andere darauf basierende Windows-Versionen. In diesem Fall wird der NTLDR mit Auswahlmöglichkeit zwischen den verschiedenen installierten Microsoft-Betriebssystemen vorkonfiguriert. Für Windows 2000, XP und 2003 gibt es die Wiederherstellungskonsole, hier dient der Befehl codice_4 zur Reparatur des MBR (mit Ausnahme der Datenträgersignatur) und codice_5 zur Reparatur des Bootsektors einer Partition (beide codice_6-Befehle nur für x86-Systeme). Microsoft Windows Vista und 7. Im Gegensatz zu älteren NT-basierten Windows-Systemen startet Vista aus dem Bootsektor den Bootloader „BOOTMGR“ (unter NT/XP war dies „ntldr“). BOOTMGR entnimmt die Informationen zum bootenden Betriebssystem nicht der Datei "boot.ini", sondern der Datei \Boot\BCD, welche entweder auf der EFI-System-Partition liegt oder direkt auf der Systempartition bei BIOS-Systemen. Zum Finden und Adressieren des Startlaufwerks verwendet BOOTMGR die Datenträgersignatur (Bytes 440–443 im MBR) und den Laufwerkstartoffset (in Bytes). Beide Werte sind in der BCD-Datei als BcdDeviceData-Elemente mit der Bezeichnung "X1000001" gespeichert. Zum Ermitteln des Startlaufwerks vergleicht BOOTMGR die Datenträgersignatur aller erkannten Datenträger mit den gewählten Booteinträgen. Wurde die Datenträgersignatur nicht gefunden bzw verändert, verweigert Windows den Start mit einem „winload error "0xc000000e"“. Hat man die Startpartition verschoben oder ist der Laufwerkstartoffset aus einem anderen Grund fehlerhaft, quittiert BOOTMGR das mit „winload error "0xc0000225"“. Die BCD-Datei ist im Gegensatz zur boot.ini keine einfache Textdatei, sondern eine Binärdatei (genauer vom Aufbau her ein Registry Hive) und kann nicht mit einem normalen Texteditor bearbeitet werden. Neben Regedit und dem programmiertechnischen Zugriff auf die BCD-Daten per WMI-Interface ist BCDEdit.exe zur Zeit das einzige von Microsoft bereitgestellte Tool, das eine umfassende Bearbeitung der BCD-Datei ermöglicht. Es kann in einem laufenden Windows (oder von einer entsprechenden Windows-PE-CD) an der Kommandozeile aufgerufen werden. Alternativ kann beim Booten von der Windows-CD über den Punkt „Computer reparieren/Systemwiederherstellungsoptionen“ das Tool bootrec.exe in der Eingabeaufforderung aufgerufen werden. bootrec /fixmbr schreibt einen neuen MBR, bootrec /fixboot einen neuen Startsektor in die Systempartition. Eine Drittanbieter-Alternative ist das Tools EasyBCD, das eine Bearbeitung der BCD-Datei mittels grafischer Oberfläche ermöglicht. Linux (und einige UNIX-Varianten). Linux-Distributionen oder Solaris installieren meist den Bootlader GRUB, seltener den älteren LILO, Syslinux oder andere. GRUB ist in der Lage, verschiedene Betriebssysteme (z. B. Linux, BSD, OS X oder Windows) zu starten. GRUB. Beim Systemstart wird zuerst die „Stage 1“ des GRUB aus dem MBR eingelesen und ausgeführt. Sie hat nur die Aufgabe, die sogenannte „Stage 2“ zu finden. Entweder wird der Sektor des Datenträgers, in dem die „Stage 2“ beginnt, in der „Stage 1“ hinterlegt oder es wird die Partitionsnummer und der Dateipfad angegeben. Im ersten Fall wird direkt die „Stage 2“ geladen. Im zweiten Fall wird zuerst die „Stage 1.5“, die aus einem Dateisystem-Treiber besteht, aus dem Bootsektor einer Partition geladen. Die „Stage 2“ liegt bei unixoiden Betriebssystemen normalerweise in der Datei "/boot/grub/stage2". Die „Stage 2“ liest die Konfiguration aus "/boot/grub/menu.lst" oder "/boot/grub/grub.cfg" ein, zeigt ein Bootmenü an und lädt anschließend den Kernel und sein Image oder startet den Bootloader eines anderen Betriebssystems, wie Windows. LILO. Bei LILO werden alle zum Booten nötigen Daten direkt in den MBR geschrieben. LILO startet immer direkt den ersten Sektor des Kernels. Die LILO-Konfigurationsdatei ("/etc/lilo.conf") dient einzig dem Programm "/sbin/lilo" dazu, einen MBR zu erzeugen. Am Start des Systems ist nur der von "/sbin/lilo" erzeugte MBR beteiligt. Durch dieses einfache Konzept geht einiges an Flexibilität verloren. So muss bei jeder Änderung am Kernel oder an den Bootoptionen ein neuer MBR geschrieben werden. Bootmanager wie GRUB oder Syslinux werten jedes Mal beim Booten ihre Konfigurationsdatei aus und sind zum Teil sogar in der Lage, diese während des Bootmenüs zu modifizieren. Installation, Sicherungskopie und Deinstallation. Mit dem Befehl codice_7 (bei LILO: codice_8) wird die „Stage 1“ von GRUB in den MBR geschrieben und, falls vorgesehen, die „Stage 1.5“ in den Bootsektor einer Partition. Unter Linux kann man den Code-Teil (samt Partitionstabelle) des MBR (s.o) normalerweise mit dem Befehl codice_9 ("/dev/hda" ursprünglich für den ersten IDE-; "/dev/sda" für den ersten SCSI-, S-ATA-, IEEE 1394- oder USB-Datenträger, heute auch für IDE) in einer Datei als Sicherungskopie speichern. Zum Wiederherstellen genügt analog codice_10. Da dieses Vorgehen aber den "gesamten" ersten Sektor der Platte neu schreibt, geht eine zwischenzeitlich geänderte Partitionierung wieder verloren! Daher empfiehlt es sich, nach jeder Umpartitionierung eine neue Backup-Kopie des MBR zu erstellen. Löschen kann man den GRUB- oder LILO-MBR mit dem Befehl codice_11. Dabei wird der Boot-Code des MBR und die Partitionstabelle (Bestandteil des 512 Bytes großen Sektors!) komplett mit Nullen überschrieben. Soll die Partitionstabelle jedoch erhalten bleiben und nur der eigentliche Bootcode überschrieben werden, darf man nur die ersten 440 Bytes überschreiben, z.B.: codice_12. Auch die Installation eines anderen Bootloaders (z. B. NTLDR) löscht in der Regel den Bootcode des zuvor installierten Systems vollständig, lässt die Partitionstabelle jedoch unangetastet. Der Zusatz codice_13 in den gegebenen Beispielen wirkt sich nur aus, wenn das Ziel eine normale (schon früher erstellte) Image-Datei ist. Diese würde andernfalls ohne diesen Zusatz nach dem letzten geschriebenen Byte abgeschnitten werden. Bei Block-Devices (also Festplatten, Partitionen) als Ziel wirkt die Option sich nicht aus. Datenträgersignatur. Die Datenträgersignatur (auch "Festplattenidentifikation", engl. "Disk Signature" bzw. "Disk identifier") wird von Windows 2000 und XP verwendet, um Datenträger, die mit einer klassischen Partitionstabelle versehen sind (von Microsoft "Basisdatenträger" genannt), eindeutig zu identifizieren. Dadurch ist die Datenträgersignatur z. B. bei der Zuordnung von Laufwerksbuchstaben zu Partitionen von entscheidender Bedeutung: Während frühere Windows-Versionen auf die von MS-DOS ermittelten Laufwerksbuchstaben zurückgreifen, sind diese Zuordnungen ab Windows 2000 in Registry-Schlüsseln, u. a. HKLM\SYSTEM\MountedDevices, gespeichert. Bei bestimmten Systemkonstellationen wird die Datenträgersignatur auch in der Datei boot.ini verwendet, die Teil des Bootloaders von Windows NT (NTLDR) ist. Windows vergibt die Datenträgersignatur bei der Initialisierung eines neuen Datenträgers. Der Befehl codice_4 in der Wiederherstellungskonsole von Windows XP lässt die Signatur unverändert. Dagegen frischt der Befehl codice_3, der den Boot-Code neu schreibt, auch die Datenträgersignatur auf. Der Linux-Befehl codice_16""codice_17 überschreibt die Datenträgersignatur mit Nullen, wodurch Windows dazu gebracht wird, eine neue Datenträgersignatur zu erzeugen. Partitionstabelle. Die Partitionstabelle gibt Auskunft über die Partitionen auf einem Datenträger. Ist sie fehlerhaft oder fehlt sie gar vollständig, ist der Zugriff auf die Daten der Partitionen nicht ohne weiteres möglich. In vielen Fällen lässt sich jedoch die Partitionstabelle mit Programmen wie TestDisk wiederherstellen. Der Eintrag jeder Partition enthält zwei CHS-Adressen (die Start- und die Endadresse) sowie eine 32-Bit-lange LBA-Adresse und die 32-Bit-lange LBA-Partitionsgröße. Dadurch lassen sich mit herkömmlichen Partitionstabellen über CHS-Adressierung maximal etwas über 8 GB (ca. 7,8 GiB) große Datenträger und über LBA-Adressierung etwas über 2 TB (knapp 2 TiB) große Partitionen bzw. etwas über 4 TB (knapp 4 TiB) große Datenträger nutzen (wenn vom Betriebssystem unterstützt). Um größere Datenträger oder Partitionen ansprechen zu können, muss die Nachfolgetechnologie GUID Partition Table (GPT) genutzt oder die Sektorengröße vergrößert werden. Aufbau der Partitionstabelle. Die Tabelle befindet sich an Byte 446 (1BEhex) des jeweiligen Sektors und hat maximal 4 Einträge à 16 Byte, sie ist also 64 Byte groß. Daran anschließend folgt die Magic Number, die aus den beiden Byte "55"hex und "AA"hex in den Byte 510 (1FEhex) und 511 (1FFhex) des Sektors besteht. Die nebenstehende Tabelle veranschaulicht die Lage der Partitionstabelle (innerhalb des Bootsektors). Die vier Partitionseinträge sind farblich hervorgehoben. Gelb, grün, cyan und blau sind die Einträge für die vier primären Partitionen. Die Signatur ist rot hinterlegt. Unbenutzte Einträge sind mit Nullen gefüllt. Die Einträge sind im Little-Endian Format abgespeichert. Dabei werden die Zylinder von 0 bis 1023, die Köpfe von 0 bis 254 und die Sektoren von 1 bis 63 gezählt. Die Adressierung durch CHS (1024 Zylinder × 255 Heads × 63 Sektoren × 512 Bytes) erlaubt eine eindeutige Adressierung nur bei Festplatten bis ca. 8,4 GB bzw. 7,8 GiB. Bei solchen (vergleichsweise kleinen) Platten kann also eine Konvertierung von CHS nach LBA vorgenommen werden. Heutige Festplatten haben aber in der Regel deutlich größere Kapazitäten. Die CHS-Werte erhalten daher ihre Maxima vereinfacht mit „1023, 63, 254“, die tatsächliche Datenträgergröße wird jedoch durch das Logical Block Addressing (LBA) angegeben. Aus der Begrenzung der Sektorangabe im „IBM-PC-kompatiblen“ Partitionseintrag auf 32 Bit und der dort üblichen Sektorgröße von 512 Bytes ergibt sich eine maximale Partitionsgröße von knapp 2 TiB ((232−1) × 512 Bytes). Unterteilt man einen Datenträger in mehr als nur eine Partition und lässt die letzte Partition mit maximaler Partitionsgröße auf dem letzten LBA-Sektor beginnen, so lässt sich eine 4,4 TB (ca. 4 TiB) große Festplatte fast vollständig benutzen. Bedingung ist aber, dass die vorherige(n) Partition(en) in der Summe noch nicht an die 2 TiB–Grenze stoßen, der letzte adressierbare LBA-Sektor somit noch frei für die letzte Partition ist, weil sonst das Erstellen dieser letzten Partition fehlschlägt. Ältere Betriebssysteme können Beschränkungen der Datenträgergröße aufweisen. Beispielsweise ist Microsoft Windows XP 32 auf knapp 2,2 TB ((232−1) × 512 Bytes) beschränkt. Ein größerer Datenträger wird auch im unpartitionierten Zustand mit falscher Größe ausgewiesen. Der ausgelöste Überlauf lässt den z. B. ca. 3 TB großen Datenträger nur ca. 800 GB groß scheinen. Schreibzugriffe könnten Datenverluste zur Folge haben. Bei größeren logischen Sektorengrößen erhöhen sich diese Grenzen entsprechend (z.B. bei 4KB-Sektoren auf 32 TiB bzw. 16 TiB), allerdings können ältere Betriebssysteme wie z.B. Windows XP nur von Datenträgern mit 512-Byte-Sektoren booten. Primäre und erweiterte Partitionstabelle. Bei einem am PC partitionierten Medium wird die primäre Partitionstabelle vor der Signatur am Ende des ersten Sektors (Master Boot Record) abgelegt. Die Partitionen in der Partitionstabelle des MBR heißen "Primärpartitionen". Eine einzige Partition im MBR kann jedoch auch als erweitert (extended, Typ 5 oder Fhex) markiert sein. Diese verweist dann im Eintrag Startsektor auf die erste "erweiterte Partitionstabelle". Diese befindet sich im ersten Sektor der erweiterten Partition. Jede erweiterte Partitionstabelle definiert genau eine "logische Partition" und verweist bei Bedarf auf die nächste erweiterte Partitionstabelle. Die erweiterten Partitionstabellen funktionieren nach dem Prinzip der verketteten Liste, daher sind hinter den primären Partitionen beliebig viele logische Partitionen möglich. Als Länge des Eintrags der Typ-5-Partition im MBR ist die Summe aller verketteten logischen Partitionen eingetragen. Da immer ein Sektor von der erweiterten Partitionstabelle eingenommen wird, können erweiterte und logische Partition nicht exakt gleich groß sein. Alte Betriebssysteme erwarten den Start einer Partition immer an den Zylindergrenzen. Daher ergibt sich auch heute noch bei verbreiteten Betriebssystemen eine Lücke von 63 Sektoren zwischen erweiterter Partitionstabelle und dem Startsektor der entsprechenden logischen Partition. Diese Sektoren in der Lücke können z. B. für einen Bootmanager oder zum Verstecken von „geheimen“ Daten, aber auch von Bootsektorviren verwendet werden. Auch wurde dort früher eine BIOS-Erweiterung untergebracht, um auch Festplatten mit mehr als 8 GiB zu unterstützen, falls das BIOS des Mainboards dazu nicht imstande war. Aufgrund der Entwicklung hin zu 4-kiB-Sektoren ist aber ein Alignment auf 63 Sektoren äußerst ungünstig. Daher wird neuerdings eine Lücke von 64 verwendet. Auch andere Zweierpotenzen sind gängig. Bootsektor-Signatur. Die Signatur (auch Magische Zahl genannt) besteht aus den 2 Byte 55hex und AAhex. Auf Little-Endian-Systemen wird dies als 16-Bit-Zahl AA55hex interpretiert. Ist die Signatur vorhanden, so geht das BIOS davon aus, dass ein gültiger Bootsektor vorhanden ist. Wird die Signatur nicht gefunden, vermutet das BIOS einen neuen bzw. gelöschten Datenträger. Der Bootvorgang wird dann abgebrochen und eine Fehlermeldung, etwa „Non-System or Non-Bootable Disk“ ausgegeben. Natürlich ist eine korrekte Signatur keine Garantie für einen vorhandenen und funktionierenden Boot-Code. Sie dient lediglich dazu, zu verhindern, dass „leere“ Bootsektoren oder Zufallsdaten ausgeführt werden. Auch bei Datenträgern, die nicht zum Booten verwendet werden, kann eine fehlende Signatur Auswirkungen haben. Es gibt BIOS-Versionen, die Datenträger ohne gültige Signatur in einem langsameren Modus betreiben. Vor der Geschwindigkeitsmessung (Benchmark) z. B. eines neuen Datenträgers empfiehlt sich daher, zunächst den MBR der betreffenden Platte zu initialisieren. MBR bei EFI-basierten Computern. Bei EFI-basierten Computern kommt anstelle der MBR-Partitionstabelle die neuere "GUID Partition Table" (GPT) zum Einsatz. Aus Gründen der Abwärtskompatibilität enthält jede GPT einen sogenannten Schutz-MBR. Dieser sorgt dafür, dass Betriebssysteme bzw. Programme, die noch nicht mit GPT zurechtkommen, statt eines leeren Datenträgers eine einzige Partition sehen, die über den ganzen Datenträger geht. Dieser Schutz-MBR lässt sich außerdem dazu benutzen, MBR-basierte Betriebssysteme auf EFI-basierten Computern zu installieren, indem die Partitionen der GPT auf die MBR-Partitionstabelle abgebildet werden. Diesen Trick benutzt Apple bei seiner Boot-Camp-Software, die die Installation von nicht GPT-kompatiblen älteren Windows-Versionen auf Intel-basierten Macs erlaubt. Auch die EFI-Applikation "rEFIt" kann mit dem Programm "gptsync" GPT und MBR-Partitionstabelle synchronisieren. Marktzins. Der Marktzins ist der für die jeweilige Laufzeit, Währung und Bonität gezahlte/erhaltene Zins auf den Geld- und Kapitalmärkten (man spricht daher auch von Geldmarktzins und Kapitalmarktzins). Es gibt also nicht "einen" Marktzins, sondern viele Marktzinssätze, die sich nach der Laufzeit und dem Handelssegment richten. Um die Entwicklung der Marktzinsen vergleichbar zu machen, werden Rentenmarktindizes und Zinskurven verwendet. Um den Einfluss der Bonität der einzelnen Marktteilnehmer zu eliminieren, werden üblicherweise Mittelkurse verwendet. Wesentliche Marktzinsen. Für längerfristige Anlagen wird meist der Zinssatz für Pfandbriefe und Hypothekendarlehen veröffentlicht. Verwendung von Marktzinsen. Eine wesentliche Anwendung von Marktzinsen ist die Bankkalkulation mittels der Marktzinsmethode. Weiterhin erfolgt die Bewertung von Derivaten unter Nutzung der Marktzinsen. Marktzinsen sind auch eine wesentliche Kenngröße in der Volkswirtschaftslehre. Marktzins nach Bonität und Laufzeit. Je nach Laufzeit des Kredites/der Anlage unterscheiden sich die Zinsen. Die Abhängigkeit von Zins und Laufzeit wird als Zinsstruktur bezeichnet und üblicherweise grafisch als Zinsstrukturkurve dargestellt. Die oben genannten Marktzinsen sind die Zinsen für den Handel der Banken mit hoher Bonität (d. h. einem guten Rating) untereinander. Alle anderen Marktteilnehmer zahlen aufgrund ihrer weniger guten Bonitätslage oder aufgrund des mit ihrer Geschäftstätigkeit verbundenen Risikos einen höheren Zinssatz (Risikoprämie oder "risk premium"), der das Kreditausfallrisiko des Schuldners widerspiegelt. Aus dem Durchschnitt der Anlagen mit identischer Laufzeit und vergleichbarem Risiko wird ein Marktzinssatz für die jeweilige Risiko- und Laufzeitklasse gebildet. Moosfarne. Die Moosfarne ("Selaginella") sind eine Pflanzengattung, die zu den Bärlapppflanzen (Lycopodiopsida) gehört. Moosfarne sind die einzige Gattung der Familie der Moosfarngewächse (Selaginellaceae) und der Ordnung der Moosfarnartigen (Selaginellales). Die Gattung umfasst weltweit etwa 700 Arten. Es sind meist kleine, krautige Pflanzen, die sich durch ihre Heterosporie, das heißt verschiedenartige Sporen, auszeichnen. Der Verbreitungsschwerpunkt sind die Tropen, mit relativ wenigen Arten in den gemäßigten Zonen. Merkmale. Die Moosfarne ähneln in ihrem Habitus ein wenig manchen Moosen, was sich im ersten Teil des Gattungsnamens niederschlägt. In ihren anatomischen Merkmalen und ihrer Fortpflanzung sind sie jedoch eindeutig Gefäßsporenpflanzen. Sprossachse. Sie besitzen meist niederliegende oder aufrechte, reich gabelig (dichotom) verzweigte Sprossachsen. Einige Arten sind rasenbildend. Wenige Arten klettern an Sträuchern empor und werden mehrere Meter hoch. An den Gabelungsstellen des Sprosses sitzen häufig zylindrische, gestreckte, nach unten gerichtete farb- und blattlose Sprosse, die Wurzelträger oder Rhizophoren. Als Sprossachsen entstehen diese exogen (an der Oberfläche) im Gegensatz zu den endogen (im Inneren) entstehenden Wurzeln, und verzweigen sich ebenfalls gabelig. An ihren Enden stehen Wurzelbüschel. Die Leitbündel der Sprossachse können eine zentrale Protostele bilden, aber auch eine Distele oder Siphonostele. Ein sekundäres Dickenwachstum fehlt. Sehr selten kommen bereits echte Tracheen vor, in denen die Querwände zwischen den Zellen aufgelöst sind, während die Seitenwände die charakteristischen treppenförmigen Verdickungen aufweisen. Die Endodermis einiger Arten (etwa "Selaginella kraussiana") wird von röhrenförmigen Zellen mit Casparyschen Streifen gebildet (Trabeculae). Blätter. Die Blätter sind klein und schuppenartig (Mikrophylle). Sie sitzen schraubig oder – häufiger – gegenständig in vier Zeilen an der Sprossachse. Meist gibt es zwei Reihen von kleinen Oberblättern und zwei Reihen von großen Unterblättern (Anisophyllie). Bei niederliegenden Formen weist bei den Oberblättern die Unterseite nach oben, bei den Unterblättern die Oberseite. Die Blätter haben eine unverzweigte Mittelrippe. Das Mesophyll ist nur selten in Schwamm- und Palisadenparenchym differenziert, in der Regel jedoch dem Schwammparenchym ähnlich. Die Epidermiszellen besitzen Chloroplasten, häufig nur einen schüsselförmigen pro Zelle. Auch im Mesophyll besitzen die Zellen mancher Arten nur einen schüsselförmigen Chloroplasten. In der Blattachsel, am Grund der Blattoberfläche sitzt eine kleine, häutige, chlorophyllfreie Schuppe (Ligula). Sie besitzt bei einigen Arten einen direkten Anschluss an die Tracheiden der Sprossachse und dient der raschen Wasseraufnahme nach Regenfällen. Sporophyllstände. Die Sporophyllstände sind endständig. Sie sind einfach oder verzweigt, vierkantig radiär oder dorsiventral. An jedem Sporophyll steht nur ein einzelnes Sporangium, das an der Blattachsel entspringt. Die Sporangien bilden große (weibliche) Megasporen oder kleine (männliche) Mikrosporen, die Moosfarne sind also heterospor. Beide Sorten kommen an ein und demselben Sporophyllstand vor, die Geschlechtsbestimmung erfolgt bereits in der Diplophase (diplomodifikatorische Geschlechtsbestimmung). Meist befinden sich die Megasporangien am unteren Teil des Sporophyllstandes. Im Megasporangium entwickelt sich nur eine Megasporenmutterzelle weiter, die anderen gehen zugrunde. Aus ihr entwickeln sich durch Meiose vier Megasporen mit buckliger Wand. Bei einigen Arten ist die Zahl reduziert, so bildet "Selaginella rupestris" nur eine Megaspore pro Sporangium; bei anderen ist die Anzahl vermehrt, "Selaginella willdenowii" bildet bis zu 42. Die Sporangienwand öffnet sich bei Reife mit Klappen. In den flach gedrückten Mikrosporangien entwickeln sich viele Mikrosporen, die nach dem Öffnen mit zwei Klappen ausgestreut werden. Die Sporangienwand ist aus drei Zellschichten zusammengesetzt, wobei die mittlere im reifen Sporangium sehr schmal ist. Die innerste ist die Tapetenschicht, die der Ernährung der sich entwickelnden Sporen dient, jedoch erhalten bleibt und sich nicht auflöst, also ein Sekretionstapetum ist. Die Öffnung der Sporangien erfolgt durch einen Kohäsionsmechanismus entlang einer vorbezeichneten Linie. Dabei werden die Sporen ausgeschleudert. Bei einigen Arten verbleiben jedoch die Megasporen an der Mutterpflanze ("S. rupestris"), sodass die Embryos an der Mutterpflanze keimen. Gametophyten. Die Gametophyten sind stark reduziert und verlassen die Sporenwand nicht, beziehungsweise kaum, sie sind also endospor. Die Mikrosporen entwickeln sich meist bereits im Sporangium weiter. Die Sporenzelle teilt sich in eine kleine, linsenförmige Zelle, die alleine das Prothallium vorstellt und meist als Rhizoide gedeutet wird, sowie in eine große Zelle, aus der das einzige Antheridium entsteht. Sie bildet acht sterile Wandzellen und zwei oder vier zentrale spermatogene Zellen. Letztere teilen sich noch mehrmals und bilden die sich abrundenden Spermatozoid-Mutterzellen. Die Wandzellen lösen sich auf und bilden eine Schleimschicht, in deren Mitte sich die Spermatozoid-Mutterzellen befinden. Die Prothalliumzelle bleibt allerdings erhalten. Das Ganze ist weiterhin von der Sporenwand umgeben. Bricht die Mikrosporenwand auf, entlassen auch die Mutterzellen die Spermatozoiden. Diese sind keulenförmig, schwach gekrümmt und besitzen zwei lange Geißeln. Pro Mikrospore werden 128 bis 256 Spermatozoiden gebildet. "S. martensii". Weibliches Prothallium, aus der am Scheitel geöffneten Megasporenwand spm hervortretend, ar unbefruchtet gebliebenes Archegonium, emb1, emb2 Embryonen mit den Embryoträgern et. Die Megasporen beginnen ihre Entwicklung teilweise auch schon im Sporangium. Die Entwicklung unterscheidet sich dabei teilweise je nach Art. Eine Megaspore hat etwa den zehnfachen Durchmesser einer Mikrospore. Die weiblichen Prothallien sind daher weniger stark reduziert als die männlichen. Der Zellkern befindet sich zunächst am Scheitel der Spore. Er teilt sich durch freie Kernteilungen in viele Tochterkerne, die sich dem Wandplasma entlang nach unten verteilen. Nach oder noch während dieses Vorgangs beginnt vom Scheitel her die Bildung von Zellwänden. Es entstehen zunächst große Prothallienzellen, die sich weiter in kleine Zellen teilen. Am Scheitel werden dann einige wenige Archegonien gebildet. Die Bildung der Archegonien findet meist erst statt, wenn die Sporen das Sporangium verlassen haben. Die Sporenwand platzt dann am Scheitel entlang der drei Sporenkanten auf und das Prothallium quillt etwas über den Sporenrand hinaus. Das Prothallium ist und bleibt chlorophyllfrei. Es bildet drei Höcker, an denen Rhizoiden sitzen. Deren Funktion ist die Aufnahme von Wasser und auch die Verankerung des Prothalliums. Bei manchen Arten (etwa "Selaginella galeotti") sind diese Höcker weit aus der Hülle ragende „Arme“. Ein oder zwei Archegonien werden befruchtet. Dazu ist wie bei allen Gefäßsporenpflanzen die Anwesenheit von Wasser nötig, damit die Spermatozoiden zur Eizelle im Archegonium gelangen können. "S. martensii". Längsschnitt durch Embryo. et Embryoträger, w Wurzel, f Fuß, bl Blätter, lig Ligula, st Stammscheitel Embryonalentwicklung. Nach der Befruchtung teilt sich die Zygote in zwei Zellen: die obere vergrößert sich stark, teilt sich im unteren Bereich noch einige Male und entwickelt sich zum Embryoträger (Suspensor). Die untere Zelle entwickelt sich zum eigentlichen Embryo, der sehr bald in ein Blattpaar, den Sprossscheitel, die Wurzel und den Fuß gegliedert ist. Bereits das erste Blattpaar im Embryo besitzt die oben beschriebenen Ligulae. Der Suspensor schiebt den Embryo in das Prothallium hinein, das der Ernährung dient. Mit dem Fuß nimmt der Embryo die Nährstoffe auf. Der Sprossscheitel wächst nach oben, die Wurzel nach unten aus der Megaspore heraus; der junge Keimling bleibt zunächst noch mit dem Fuß im Prothalliumgewebe verankert. Er ähnelt damit einer keimenden Samenpflanze. "S. denticulata", Keimpflänzchen mit der Megaspore Vorkommen. Die Moosfarne haben ihren Verbreitungsschwerpunkt in den feuchten Tropenwäldern und wachsen als Bodendecker. Einige Arten kommen auch in gemäßigten Breiten vor. Die mitteleuropäischen Arten wachsen vor allem in lückigen Rasen, an Felsen und Mauern. Wenige Arten sind an Trockenstandorte angepasst. Ein Beispiel dafür ist die Unechte Rose von Jericho ("Selaginella lepidophylla") aus Mittelamerika, deren Sprosse sich bei Trockenheit einrollen. Systematik und Evolution. Die Gattung "Selaginella" beinhaltet 690 Arten (Stand: Oktober 2015). Die größte Formenmannigfaltigkeit findet sich in den Tropen. In Europa kommen nur fünf Arten vor, von denen nur die ersten beiden in Mitteleuropa heimisch sind. Die ältesten Fossilien der Selaginellales sind aus dem Karbon vor 300 Millionen Jahren bekannt. "Selaginellites" war bereits heterospor und sah den heutigen Arten sehr ähnlich. Ansonsten ist die fossile Überlieferung dieser krautigen Sippe sehr spärlich. Der Name "Selaginella" ist die Verkleinerungsform von lateinisch "selago" = Tannen-Bärlapp, in Anlehnung an das ähnliche Erscheinungsbild. Bedeutung für den Menschen. Die Moosfarne haben keine wesentliche wirtschaftliche Bedeutung. Einige Arten werden als immergrüne Zierpflanzen kultiviert und vor allem kurz vor Silvester parallel zum Glücksklee als sog. "Glücksmoos" in den Handel gebracht, etwa "Selaginella martensii", "Selaginella willdenowii", "Selaginella kraussiana" und "Selaginella uncinata". Etliche werden als Hängepflanzen genutzt. Da sie frostempfindlich sind, werden sie meist nicht im Freien gezogen. Auch die Unechte Rose von Jericho wird im Handel angeboten. Muse (Mythologie). Die Musen (, Einzahl, "Mousa") sind in der griechischen Mythologie Schutzgöttinnen der Künste. Die Überlieferung der uns heute bekannten neun Musen stammt von Hesiod. Die Musen. Homer bzw. die unter seinem Namen überlieferten Epen "Ilias" und "Odyssee" rufen in ihren Proömien jeweils eine (namenlose) „Göttin“ bzw. „Muse“ an. Die neun olympischen Musen. Hesiod (6. Jh. v. Chr.) legt in seiner "Theogonie" die Zahl der Musen auf neun fest; nach ihm sind sie die Töchter der Mnemosyne, der Göttin der Erinnerung, und des Zeus, und auch die von ihm genannten Namen sind kanonisch. Sie werden die "Mnemoniden" oder "olympische Musen" genannt. Klio, Me, Ter, Thal, Eu, Er, Ur, Po, Kal Die drei/vier titanischen Musen. Sie sollen die Töchter von Zeus (oder Uranos) und der Plusia gewesen sein, daher ihr Name. Platon nennt Hesiods "Terpsichore", "Erato", "Kalliope" und "Urania" im Sinne dieser „Besetzung“. Die drei/vier apollonischen Musen. Diese (Nete, Mese, Hypate) spielen als Tetraktys in der Musik der griechischen Antike eine Rolle, die vierte der „Vierheit“ war die "Paramese" – da sich Musiktheorie wie auch Saitenzahl der Lyra verändert haben, kommen dahingehend auch andere Anzahlen vor. Die sieben/neun pierischen Musen. Diese sollen die Kinder des Pieros, Stammvaters der makedonischen Pieria-Thraker, und einer Pimpleischen Nymphe namens Antiope gewesen sein (Cicero, de natura deorum, III 54). Ovid kennt neun pierische Musen, deren Mutter Euippe gewesen sein soll; sie stammen aus Ägypten und fordern die „jüngeren“ olympischen Musen heraus (Wettstreit der Mnemoniden und Pieriden). Diese neun Töchter des Pieros wurden auch Vögeln gleichgesetzt ("Colymbas, Lyngx, Cenchris, Cissa, Chloris, Acalanthis, Nessa, Pipo" und "Dracontis"). Rezeption der Musen. Während die Namen der Musen bei Hesiod lediglich Aspekte der Tanz- und Dichtkunst betonen, werden sie in der späteren Antike auf unterschiedliche Musikinstrumente und Gattungen bezogen, woraus die angegebene kanonische Zuordnung von „Aufgabengebieten“ der Musen hervorgeht. Die zum Gefolge Apollons zählenden Musen sollen am Berg Helikon bei der Quelle Hippokrene zu finden sein, die durch einen Hufschlag des geflügelten Musenrosses (Pegasus) freigelegt wurde. Daher rührt der zum Teil für sie benutzte verkünstelte Name Helikoniades. Anderen Angaben zufolge wohnen die Musen auf dem Berg Parnass (der Apollon geweiht ist), bei der Kastalischen Quelle, deren Wasser Begeisterung und Dichtergabe verleihen soll. Die Heiligtümer der Musen heißen "Museion" (woraus das heutige Wort "Museum" entstand), auch das deutsche Wort "Musik" - die „Kunst der Musen“ - verdankt seinen Namen den Göttinnen. Als Personifizierung oder Werkzeug einer Muse kann die Muse betrachtet werden. Die Römer setzten die Musen mit den Camenae gleich. Der Musenanruf in der Dichtung. Am Anfang antik-griechischer Epen und Hymnen steht oft eine Anrufung der Muse. Homers "Odyssee" beginnt mit den Versen: "Nenne mir, Muse, die Taten des vielgewanderten Mannes, / Welcher so weit geirrt, nach der heiligen Troja Zerstörung". Auch viele römische Dichter bitten die Muse um Inspiration (Vergil in der "Aeneis)", oder um Dauer für ihr Gedicht (Catull in den "Carmina"). Nach der Ächtung der Musen durch die mittelalterliche Kirche folgen Dichter der Neuzeit wieder diesem Gebrauch (Dante, Shakespeare, Milton). Die neun Gesänge von Goethes "Hermann und Dorothea" tragen die Namen der neun Musen. Klopstock ruft im "Messias" statt der Muse die unsterbliche Seele an: "Sing’, unsterbliche Seele, der Menschheit Erlösung". Vladimir Nabokov macht im Titel seiner autobiographischen Schrift "Speak, Memory" von der Form des Musenanrufs Gebrauch und spielt zugleich auf Mnemosyne, Göttin der Erinnerung und Mutter der Musen, an. Mnemosyne (Mythologie). Mnemosyne (griechisch "Μνημοσύνη"; von μνήμη "mnēmē", „Gedächtnis“; vergleiche lateinisch "memoria") ist eine Gestalt der griechischen Mythologie sowie ein Fluss in der Unterwelt, dessen Wasser im Gegensatz zur Lethe nicht Vergessen, sondern Allwissenheit herbeiführte. Verwandtschaft. Mnemosyne ist die Tochter des Uranos und der Gaia, gehört zu den Titanen und gilt als „Göttin“ der Erinnerung. Mnemosyne ist gemäß Hesiod Mutter der neun Musen, die sie dem Zeus in Pierien am Olymp gebar. Hesiod erzählt, dass sich die beiden fern der übrigen Götter neun Nächte lang vereinigten. In älteren Werken sind es auch oft nur drei Musen, die Mnemosyne geboren haben soll. Und manchmal werden diese auch „Mneiai“ genannt, was eine Mehrzahlform des Namens ihrer Mutter darstellt. Maxglan. Maxglan ist ein Stadtteil der Landeshauptstadt Salzburg in Österreich. Geographie. Der geschlossene Siedlungsraum von Maxglan wird im Norden von der Westbahnlinie begrenzt, im Osten von der Linie Aiglhofstraße - Müllner Almkanalarm - Neutorstrasse - Bräuhausstrasse - Glan. Im Süden bilden die Wiesen des Salzburger Flughafens die Grenze, im Westen gegen Taxham hin die Rosa-Hofmann-Straße und die bis zur Bahn gedachte Verlängerung der Favoritagasse. Die Grenze zwischen Maxglan-Riedenburg und dem eigentlichen Stadtteil Riedenburg, der Bräuhausstrasse wird dabei manchmal unterschiedlich gezogen. In Maxglan leben heute 14.000 Menschen. Maxglan ist damit der drittgrößte Stadtteil Salzburgs nach Liefering und Lehen. Im späten 19. und frühen 20. Jahrhundert war Maxglan (nach der Bevölkerungszahl) die nach der Landeshauptstadt zweitgrößte Gemeinde des Landes Salzburg. Geschichte. Maxglan, Kirchenviertel Funde im Raum der einstigen Gemeinde Maxglan sind aus der Steinzeit, der Bronzezeit (Siedlungsreste) und der Hallstattzeit (Grabhügel mit Keramik, Schmuck und Waffen) gefunden worden. Aus römischer Zeit sind Grabfunde und auch Steinreliefe bekannt. Im Frühmittelalter hieß der Ort nach dem Fluss "Glan" (1222: „huebe in glan“). Der Name Glan war also damals Bezeichnung für eine Ortschaft und gleichzeitig für einen Bach. Wohl seit dem 15. Jahrhundert hieß der Ort nach dem Kirchenpatron auch St. Maximilian. Die Gebeine des heiligen Maximilian von Celeia, dessen Gestalt historisch nicht belegt ist, wurden der Legende nach in der ersten Maxglaner Kirche nahe dem Glanbach bestattet. Der Name St. Maximilian an der Glan, hieß später auch "Maxlan" oder und seit dem späten 18. Jahrhundert Maxglan. Der Ort war dank seiner fruchtbaren Ackerböden lange ein vergleichsweise wohlhabendes Bauerndorf, in dem aber auch viele Wäscher und Handwerker lebten. Am 7. Juni 1935 wurde vom Salzburger Landtag die Erweiterung des Gebietes der Landeshauptstadt Salzburg beschlossen. Mit Wirksamkeit vom 1. Juli 1935 kam der Großteil der bisher eigenständigen Gemeinde Maxglan zur Stadt Salzburg. Einige Randflächen wurden an die umliegenden Gemeinden Wals, Siezenheim und Leopoldskron abgetreten, einige kleinere, von diesen Ortschaften abgetrennte und ebenfalls nach Salzburg eingemeindete Flächen werden hingegen seitdem als zum Stadtteil Maxglan gehörig aufgefasst. Pfarrkirche St. Maximilian und Pfarrzentrum St. Benedikt. Urkundlich ist die Kirche seit 1323 erwähnt, die erst eine Filiale der Dompfarre war. 1516–1519 entstand dann der erste größere Kirchenbau unter Erzbischof Leonhard von Keutschach. In der Barockzeit wurde die Kirche mehrfach umgestaltet und erhielt vier barocke Altäre. Seit 1906 ist die Kirche Pfarrkirche. Die Uneinigkeit ob Neumaxglan eine eigene Kirche erhalten oder die alte Kirche erweitert werden sollte verhinderte etliche Jahrzehnte eine bauliche Erweiterung. Erst 1952–1956 konnte der heute noch bestehende Zubau vorgenommen werden, wodurch die Kirche mit ihren zwei Längsschiffen zu einer Doppelkirche wurde. Am alten Friedhofseingang ist auch ein alter römischer Grabstein zu bewundern. Das Pfarrzentrum St. Benedikt entstand an der Stelle des alten Loiplgutes, wobei nach 1960 zuerst das alte Bauerngut trotz seines schlechten Bauzustandes für kirchliche Gemeindearbeit, vor allem die Jugendarbeit genutzt wurde. Im Jahr 1980 konnte das neue Pfarrzentrum eingeweiht werden. Der große Festsaal, Emmaussaal genannt, dient verschiedensten Aufgaben. Der Emmaussaal für 100 Personen, die 6 Räume für die Jugendarbeit, für die Seniorentreffen aber auch den Singkreis und Besprechungszimmer sind hier untergebracht. Der Maxglaner Friedhof. Der Friedhof stammt in seinen Ursprüngen vermutlich aus dem 14. Jahrhundert. Er wurde 1519 gemeinsam mit dem damaligen Kirchenneubau neu geweiht. 1883 und 1901 erfolgten im Zuge des starken Wachstumes der Gemeinde erste Vergrößerungen des zuvor kleinen Dorffriedhofes. Beim Neubau der Kirche mussten etliche Gräber umgebettet werden, die Gräber wurden 1945–1949 in einem angrenzenden, von der Stieglbrauerei erworbenen Grundstück neu angelegt. 1958 wurde an jenem Ort, an dem das im Zweiten Weltkrieg durch Fliegerbomben zerstörte Karlbauerngut lag, ein Kriegerdenkmal errichtet, das 1960 geweiht wurde. Damals war der Friedhof längst wieder zu klein geworden und die Bevölkerung verlangte von der Stadtgemeinde rasch Abhilfe. Aber erst 1969 erfolgte auf einem Grundstück, das zuvor der Österreichischen Post gehört hatte, eine weitere Vergrößerung. 1975 wurde im Friedhof vom Architekten Erich Flir geplant die neue Aussegnungshalle errichtet. Die letzte Friedhofserweiterung fand nach 1990 statt. Auf dem Maxglaner Friedhof wurde der 1994 beim Großen Preis von San Marino in Imola tödlich verunglückte Roland Ratzenberger bestattet. Auch der österreichische Schauspieler Hugo Lindinger hat hier seine Grabstätte. Film. Am 29. Dezember 1921 gründete sich mit der Salzburger Kunstfilm-Industrie-AG die erste Filmproduktionsgesellschaft des Landes Salzburg. Maßgebliche Betreiber waren der Filmregisseur Rudolf Oppelt (1893–1971) und der Maxglaner Brauerbesitzer Heinrich Kiener, der als Mitgründer unter anderem die Räumlichkeiten in den leer stehenden, landwirtschaftlichen Gebäuden der Stieglbrauerei zu Salzburg zur Verfügung stellte. Mit über 700 m² Nutzfläche war es damals, samt Garderoben, Laboratorium, Entwicklungs- und Kopieranstalt, technischem Büro und 5000 m² Freigelände das größte Filmatelier Österreichs. Das bis heute unverändert bestehende Studio zählt damit zu den ältesten Filmateliers der Welt. 1922 übernahm die Wiener PAX Film-GmbH, der auch mehrere Kinos gehörten, die Gesellschaft. Die erste Produktion war der Dokumentarfilm "Die Festspiele 1921" mit historisch wertvollen Aufnahmen von den Salzburger Festspielen jenes Jahres. Der erste Spielfilm "Die Tragödie des Carlo Prinetti" entstand im Sommer 1921 und wurde am 29. Jänner 1924 in Wien uraufgeführt. Das turbulente Drama über das Leben eines Halleiner Salinenarbeiters, zu dem Rudolf Oppelt das Drehbuch verfasste, zeigte den aufkommenden Stummfilmstar Alphons Fryland (1889–1953) als Hauptdarsteller. Es war zugleich die letzte Produktion der Salzburger Kunstfilm, die, samt ihren Wiener Filialbetrieben - darunter einem Filmverleih - wegen der Filmwirtschaftskrise 1925 schließen musste. Das 1927 von Franz Wolf eröffnete Lichtspielhaus Maxglan war zu seiner Zeit das zweitgrößte Kino Österreichs außerhalb der Bundeshauptstadt Wien nach dem Annenhofkino in Graz. Der Eintritt betrug zwischen 70 Groschen und 2 Schilling für den Logenplatz. In dem mit modernen Klapp-Fauteuils der Wiener Firma Thonet ausgestatteten Sälen konnte die Bevölkerung Maxglans und der angrenzenden Stadt Salzburg jeweils mittwochs, samstags sowie an Sonn- und Feiertagen die damals aktuellen Kinohighlights konsumieren. Maxglan und seine Teile. Maxglan besteht aus folgenden Teilen: Altmaxglan mit der zentralen Kirchensiedlung und der randlichen Mühldorfstraßensiedlung, Burgfried, Neumaxglan mit der Aiglhofsiedlung, Maxglan-Riedenburg mit der Torschauersiedlung und Glanhofen. Altmaxglan. Maxglan war im frühen Mittelalter ein Bauerndorf, das sich um die Kirche St. Maximilian herum entwickelte. Ein hier gefundener und in der Südwand eingebauter "Radlstein", Teil eines verloren gegangenen antik-römischen Reliefs belegt die alte Geschichte. Im nächsten Nahbereich finden sich aber auch bronzezeitliche und eisenzeitliche Funde. Burgfried. Zum Namen: Der Burgfried war vermutlich ein uralter befestigter Zufluchtsort von Maxglan. „Burgfried“ (burccride) hieß der Schutzbereich eines Fürstenhofes, einer Stadt oder eines Marktes. Vielleicht lag der älteste befestigte Siedlungskern von Maxglan geschützt von der Glan unmittelbar westlich des heutigen Burgfrieds an der dortigen kleinen Terrassenkante. In der heutigen Lage zwischen Glan- und Mühlbach ist aber ein solcher befestigter Ort kaum vorstellbar. Der Burgfried ist ein Maxglaner Stadtteil, der zwischen den lange großteils unverbauten Flächen zwischen Neumaxglan und Altmaxglan, in Richtung Aiglhof gelegen ist. Räumlich gesehen liegt Burgfried dabei inselartig zwischen der Glan und dem als Werkskanal abzweigenden und wieder in die Glan mündenden Maxglaner Mühlbach. Hier wohnten erhöht an der Glan in historischer Zeit verschiedene Wäscher und Handwerker. An historischen Wäscherhäusern sind (Stand 1830) hier zu nennen: Wäscherlenz (Burgfriedgasse 3, erhalten), Wäscher-Münzer-Haus, Wäscher-Brandhofer-Haus, Wäscher-Marx-Haus, Wäscher-Eglhamer-Haus, Putzwäscherhaus und das Wäscher-Gartner-Haus. Der Raum Burgfried selbst war bis um 1800 eine nasse, oft überschwemmte Weide. An diesen Abschnitt grenzt heute der Stölzlpark. Er ist benannt nach dem Maxglaner Bürgermeister, Landeshauptmann-Stellvertreter und Rechtsanwalt Dr. Arthur Stölzl, der in der großzügigen Villa Arthur wohnte, zu dessen Park der heutige Stölzlpark gehörte. In diesem Park befinden sich heute auch der Verkehrsgarten der Stadt Salzburg, ein Kindergarten und das Maxglaner Heimathaus. Neu-Maxglan. Neumaxglan ist ein Stadtteil, der wesentlich noch in der Gemeinde Maxglan zu Zeiten der Monarchie zwischen 1860 und 1914 entstand. Er liegt zwischen Maxglaner Mühlbach und dem Müllner Arm des Almkanales. Hier liegen die Sonderschule und die Hauptschule von Maxglan. Auch die große Stieglbrauerei siedelte sich hier 1863 an. Vor 1850 bestand hier neben dem an der Glan gelegenen Rochusmeierhof nur ein Bauerngehöft, das Zillnergut. Der Zeit gemäß wurde diese Verbauung plangemäß und rasterartig als weitgehend dreigeschossiger Einzelhausbau vorgenommen. Durch den Aufschwung Neumaxglans stieg die Maxglaner Bevölkerung von 1890 (3465 Einwohner) auf 7204 Einwohner im Jahr 1910 an. Das aufstrebende Neumaxglan und das behäbige Altmaxglan war lange recht gegensätzlich. So leisteten sich etwa beide Teile getrennte Feuerwehren. Die 1919 eröffnete Stieglbahn, eine ausschließlich dem Güterverkehr dienende Anschlussbahn, zog in der Folge weitere Betriebe an. Die Aiglhofsiedlung entstand am Rand zum Stadtteil Mülln auf den wesentlich zu Maxglan gehörigen Aiglhoffeldern und wird zusammen mit den angrenzenden, dicht verbauten Gebieten von Mülln und Lehen vielfach bereits als eigener kleiner Stadtteil wahrgenommen. Der Name leitet sich von dem sich bereits in Mülln befindlichen Aiglhof – auch Lindhof genannt – ab. Westlich des Aiglhofes beginnt der Stadtteil Lehen, nördlich liegt Mülln, östlich der Stadtteil Riedenburg. Innerhalb Maxglans grenzt das Gebiet an Burgfried und Neumaxglan. Geprägt wird das dicht bebaute Wohngebiet von der Aiglhofstraße, samt der Aiglhofkreuzung und der Innsbrucker Bundesstraße, die nach der Ignaz-Harrer-Straße in Lehen als die Straße mit dem höchsten Verkehrsaufkommen in der Landeshauptstadt gilt. An Öffentlichen Einrichtungen befinden sich hier die Sonderschule "Aiglhof I" und im nahen Mülln die Volksschule sowie das Salzburger Landeskrankenhaus. Die Verbauung der Aiglhoffelder wurde bereits 1927 in der damals noch eigenständigen Gemeinde Maxglan konkret geplant. Das preisgekrönte Siegerprojekt des Architekten Lois Welzenbacher (1889–1955) sah die Errichtung von 8.000 Wohnungen vor, konnte aus Geldmangel aber nicht verwirklicht werden. Zu der in Salzburg herrschenden Wohnungsnot kam nach dem „Anschluss“ Österreichs an das Deutsche Reich noch der Bedarf an Unterkünften für die Umsiedler aus Südtirol und für die Offiziere des Wehrkreis-Generalkommandos XVIII hinzu. Im Rahmen eines neuen Aiglhof-Siedlungsprojektes entstanden bis 1941 drei Siedlungen, die Südtiroler-Siedlung (heute Aiglhof I), die Siedlung "Hötzendorfstraße-Römergasse-Radetzkystraße" (Aiglhof 2) und die direkt an die Aiglhofstraße grenzende, eigentliche "Aiglhofsiedlung" (Aiglhof 3). Die Straßen im Aiglhof wurden großteils nach Generälen und Admirälen der Österreichischen Monarchie, wie beispielsweise Franz Conrad von Hötzendorf, Wilhelm von Tegetthoff, Eduard von Böhm-Ermolli und Viktor Graf Dankl von Krasnik benannt. Die Aiglhofsiedlung ist mit den Linien 2 und 4 des Oberleitungsbus Salzburg sowie den Albus-Autobuslinien 20, 24 und 28 erreichbar. Mit der Inbetriebnahme der S-Bahn-Station "Salzburg-Aiglhof" im Bereich der Unterführung der Rudolf-Biebl-Straße ist der dicht verbaute Stadtteil seit dem Jahr 2009 an das Netz der Salzburger S-Bahn angeschlossen. Die Züge der Linien S2 und S3 halten im 15 Minutentakt und erreichen den Hauptbahnhof in wenigen Minuten. Maxglan-Riedenburg. Der südöstliche Teil von Maxglan wird Maxglan-Riedenburg genannt. Er bildet dabei das Bindeglied zum heute eigenständigen Stadtteil Riedenburg mit seiner zentralen Pfarrkirche St. Paul und wurde wesentlich nach dem Zweiten Weltkrieg verbaut. Zuvor gab es hier nur einzeln stehende Gehöfte entlang der Kendlerstraße und einige Wohnbauten entlang der kurzen Stichstraßen Höglstraße-Krailnstraße und Hagmüllerstraße-Waldstraße. Der heutigen Siedlungsraum zwischen Kendlerstraße und Glan wurde erst infolge der Begradigung und Kanalisierung der Glan bebaubar. Der Brauereibetrieb war ursprünglich dort, wo derzeit noch das Gesundheitsamt der Stadt Salzburg untergebracht ist. Der Gasthof und die Brauerei lagen zuerst damit an der dortigen Stieglgasse, die ihrerseits an eine frühere Stiege zum dortigen Almkanal erinnert. Die Brauerei ist 1482 erstmals urkundlich erwähnt. 1863 übersiedelte diese Stieglbrauerei nach Maxglan-Riedenburg. Der Name des landwirtschaftlichen Betriebes der Stieglbrauerei, der Rochushof, erinnert an den Pestpatron, den heiligen Rochus und das dortige Pesthaus (Lazareth zum heiligen Rochus) samt Pestfriedhof, das Fürsterzbischof Paris Lodron 1636 hier errichten ließ. Sigismund Graf Schrattenbach baute das nicht mehr benötigte Pestspital zu einem Arbeitshaus um, von dem der lateinische Spruch „Abstine aut autine“ „Meide (die Straftat) oder leide (die Folgen)“ über dem dortigen Portal angebracht heute noch berichtet. Umgeben von Wiesenresten am Nordrand der Landebahn des Flughafens entwickelte sich ausgehend von einem ersten Siedlungskern am Torschauerweg, der schon um 1935 entstanden war, der kleine Siedlungsraum nach 1953 bis zur heutigen Größe. Der Name Torschauersiedlung erinnert an den ehemals deutschen Ort Torschau in der Mittel-Batschka (Serbien), aus dem etwa 300 vertriebene Volksdeutsche hier 1953 eine neue Heimat fanden. Die ersten 6 Häuser wurden hier von der ersten Donauschwäbischen Baugenossenschaft in Österreich "Neusiedler" errichtet und auf Initiative und Antrag eines der Mitbegründer dieser Genossenschaft aus Torschau, Peter Henkel, als Torschauerweg genannt, nachdem das Amt der Salzburger Landesregierung dem Antrag auf diese Straßenbezeichnung zugestimmt hatte. Glanhofen. "Glanhofen", eine kleine Gehöftgruppe, war bis 1935 eine rein bäuerliche Ortschaft im Gemeindegebiet von Maxglan. Heute liegt der alte Siedlungskern mit seinen kleinen Wohnbauten unmittelbar am Rand der Landebahn des Flughafens und unmittelbar an der stark befahrenen Innsbrucker Bundesstraße. Glanhofen wäre als eigenständiger Stadtteil viel zu klein, es tritt im Stadtgefüge als westlichster Teil des Stadtteiles Maxglan in Erscheinung. Wirtschaft. Im Gebiet von Maxglan befinden sich heute der Salzburger Flughafen, die Stieglbrauerei zu Salzburg und das Stammhaus der Spedition Lagermax. Jugend. In Maxglan gibt es eine große Pfadfindergruppe. Seit 18. Mai 2009 gibt es eine Junge ÖVP Maxglan deren Obmann Martin Zirngibl ist. Sport. Für ein reges Vereinsleben sorgt der Arbeiter-Sportklub Salzburg, der mehrere Sektionen, darunter auch Fußball – einstmals gegründet als "Sportklub Vorwärts Maxglan" – unterhält. Die Frauenfußballmannschaft des ASK Maxglan war 2007/2008 Vize-Meister der 2. Liga Mitte. Seit dem Verlust der Heimstätte im Jahr 2007 spielt die Fußball-Landesligamannschaft des ASK in Liefering. Eine Heimkehr in den ursprünglichen Stadtteil wird angestrebt, lässt sich aber derzeit nicht verwirklichen. Die Damen des ASK Maxglan spielen ab 2008/09 in der Nachbargemeinde Wals-Siezenheim. Bis 2007 war die ASK-Sportanlage zudem auch Spielstätte des American Football Team Salzburg Bulls die nunmehr ihre Heimspiele auf der ASV-Anlage in Itzling austragen. Nutznießer des Verlustes der Sportanlage des ASK ist der neugegründete SV Austria Salzburg, der seither die in MyPhone Austria Stadion umbenannte Anlage als gemietete Heimstätte nützt. Dem Tennissport widmet sich der aus der Tennissektion des ASK entstandene "TC ASKÖ Maxglan". Seit 1902 gibt es den Turnverein Maxglan, den Weltmeisterschaftsteilnehmer wie Heinrich Ulamec und Andrea Schalk bekannt machten. Mathematisches Modell. Ein mathematisches Modell ist ein mittels mathematischer Notation erzeugtes Modell zur Beschreibung eines Ausschnittes der beobachtbaren Welt. Dieses Modell kann in beliebigen, begrenzten Bereichen der beobachtbaren Realität, wie z. B. den Naturwissenschaften, den Wirtschafts- oder Sozialwissenschaften, der Medizin oder den Ingenieurwissenschaften Anwendung finden. Mathematische Modelle erlauben eine logische, strukturelle Durchdringung je nach Art hinsichtlich von geltenden Gesetzmäßigkeiten, erlaubten und nicht erlaubten Zuständen, sowie seiner Dynamik mit dem Ziel, diese Erkenntnisse auf das modellierte System zu übertragen. Der Prozess zur Erstellung eines Modells wird als "Modellierung" bezeichnet. Die Erstellung eines mathematischen Modells für einen Realitätsausschnitt ist nicht mehr Aufgabe der Mathematik, sondern des jeweiligen Wissenschaftsgebietes. Inwieweit ein mathematisches Modell Vorgänge in der Realität korrekt beschreibt, muss durch Messungen überprüft und validiert werden. Ein mathematisches Modell stellt somit einen Realitätsbezug her, der für mathematische Teilgebiete im Allgemeinen nicht vorhanden sein muss. Aufkommen und Verbreitung des Begriffs Modell. Dass Modellvorstellungen eine zunehmend wichtige Rolle in der wissenschaftlichen Theoriebildung spielen, wurde bei der Diskussion von Atommodellen Anfang des 20. Jahrhunderts klar erkannt. Aufgrund der wissenschaftstheoretischen Vorbildfunktion der Physik hat sich der Begriff Modell, wie andere ursprünglich physikalische Begriffe auch, in andere Disziplinen ausgebreitet. Modellgestützte Methoden sind nicht auf die Naturwissenschaften beschränkt. Zum Beispiel beruhen die bekannten zweidimensionalen Auftragungen funktionaler Zusammenhänge in den Wirtschaftswissenschaften auf radikal vereinfachender Modellbildung. System. "Hauptartikel für Systeme innerhalb der Systemtheorie:" Systemtheorie Vereinfacht lässt sich ein System als eine Menge von Objekten beschreiben, die durch Relationen verbunden sind. Ein System kann dabei ein natürliches System (etwa ein See, ein Wald), ein technisches System (etwa ein Motor oder eine Brücke), aber auch ein virtuelles System (etwa die Logik eines Computerspiels) sein. Ein System ist von seiner Umgebung umhüllt. Diese Umgebung wirkt von außen auf das System ein. Derartige Einwirkungen, werden als Relationen formula_1 bezeichnet. Ein System reagiert auf Einwirkungen durch Veränderungen von Systemvariablen. Grundsätzlich hat ein System auch Wirkungen nach außen, also auf die Umgebung. Im Rahmen der Modellierung von Systemen wird diese nach außen gerichtete Wirkung jedoch üblicherweise vernachlässigt. Ein System wird von der Umgebung durch klar definierte Systemgrenzen abgeschlossen. Das bedeutet, dass für die Modellierung ausschließlich die definierten Relationen wirksam sind. Als Beispiel sei die Untersuchung des Phosphoreintrags in einen See genannt. Im Rahmen eines Modells soll als einzige Quelle ein in den See mündender Fluss betrachtet werden, die Grenze des Systems ist in diesem Beispiel dann die Relation „Fluss“. Weitere in der Natur auftauchende Quellen (Grundwasser, Schiffsverkehr, Fische, und so weiter) werden im Modell nicht berücksichtigt. Die Definition eines konkreten Systems als Untersuchungsgegenstand bei der Modellierung von mathematischen Modellen erfolgt durch den Analytiker entsprechend dem Untersuchungsziel. Boxmodell. Schematisch lässt sich ein System über ein sogenanntes Boxmodell darstellen. formula_2 Die Box ist dabei das modellierte System. Die Eingangsrelation formula_3 sind symbolisch die Einwirkungen der Umwelt auf das modellierte System und der ausgehende Pfeil symbobilisiert die Veränderungen des Systems. Zwischen den Systemvariablen formula_4 selbst, können beliebige weitere Relationen bestehen. In der Praxis werden Boxmodelle als Denkhilfe benutzt. Die grafische Darstellung eines Systems vereinfacht die Erkennung von Systemvariablen. Ein modelliertes System kann dabei aus beliebig vielen weiteren Subsystemen bestehen, die jeweils wieder ein eigenes Boxmodell darstellen. Das Boxmodell wird insbesondere in den Ingenieurswissenschaften bei der Erstellung von Computermodellen benutzt. Dabei stellen die Modelle jeweils insgesamt ein Boxmodell (genauer die Relationen innerhalb des Systems) dar. Jedes grafische Element ist wiederum ein eigenes Boxmodell. Zur Vereinfachung wurden dabei unterschiedliche grafische Symbole für Boxmodelle benutzt, etwa ein gewendeltes Symbol um die Systemvariable einer Spule darzustellen. Im Rahmen der Modellierung sind Systeme denkbar, die Wirkungen nach außen haben, aber keine Eingangsrelationen. Etwa ein System welches Zeittakte produziert. Es sind auch Systeme denkbar, die zwar über Eingangsrelationen aber nicht über Auswirkungen verfügen. Zum Beispiel zum Monitoring von Werten. Nach dem Grad der Bestimmtheit eines Boxmodells lassen sich Boxmodelle in Black Box- und White Box-Modelle unterscheiden. Black Box-Modelle beschreiben das Verhalten eines Systems in Form einer Gleichung, ohne dabei die Komplexität des Systems zu berücksichtigen. White Box-Modelle versuchen dagegen ein System so genau wie möglich zu modellieren. Die Wahl eines dieser Modelle ist abhängig vom Untersuchungsgegenstand. Soll ein mathematisches Modell lediglich als Berechnungshilfe dienen, ist eine Black Box ausreichend. Soll das innere Verhalten eines Systems, etwa bei einer Simulation untersucht werden, muss zwangsweise eine White Box erstellt werden. Dimension. "Hauptartikel für physikalische Dimensionen:" Dimension (Größensystem). "Hauptartikel für mathematische Dimensionen:" Dimension (Mathematik) Die Dimension eines Systems ist die Anzahl der Zustandsvariablen, mit der das mathematische Modell beschrieben wird. Modellgleichung. Eine Modellgleichung ist das formelle mathematische Modell eines Systems in Form einer Funktion. Modellgleichungen haben grundsätzlich die Form formula_5 Grundsätzlich kann jede der Mengen leer sein. Oft besteht die Menge auch nur aus einem Element. Es ist daher üblich in einer konkreten Modellgleichung nur benötigte Mengen anzugeben und die Elemente der benötigten Teilmengen per Index zu bestimmen. Abhängig vom Wissenschaftsbereich für den eine Modellgleichung erstellt wird, bekommen die Elemente einer Modellgleichung andere Variablennamen. In den verschiedenen Fachgebieten werden unterschiedliche Variablennamen benutzt, passend zur Fachsprache und üblichen Variablennamen des Gebiets. Klassifizierung mathematischer Modelle. Nach der Art der Gleichungen und Gleichungssysteme Formulierung des Modells. Magnetismus kann verschiedene Ursachen haben; in einem einzelnen Magneten können verschiedene Mechanismen wirken, die den Magnetismus hervorbringen, verstärken oder abschwächen; der Magnet kann aus kompliziert aufgebauten, verunreinigten Materialien bestehen; und so weiter. In dieses Durcheinander versucht man Licht zu bringen, indem man Modellsysteme untersucht. Ein physikalisches Modell für einen Ferromagneten kann etwa so lauten: eine unendlich ausgedehnte (man sieht also von Oberflächeneffekten ab), periodische (man sieht also von Gitterfehlern und Verunreinigungen ab) Anordnung atomarer Dipole (man konzentriert sich auf den Magnetismus gebundener Elektronen und beschreibt diesen in der einfachsten mathematischen Näherung). Validierung des Modells. Man wählt Parameter aus, die man einerseits aus experimentellen Untersuchungen an realen Ferromagneten kennt und die man andererseits auch für das Modell bestimmen kann; im konkreten Beispiel zum Beispiel die magnetische Suszeptibilität als Funktion der Temperatur. Wenn Vorbild und Modell in diesem Parameter übereinstimmen, dann kann man zurückschließen, dass das Modell relevante Aspekte der Wirklichkeit korrekt wiedergibt. Beispiele mathematischer Modelle. Die wohl bekanntesten und ältesten Anwendungsbeispiele für mathematische Modelle sind die natürlichen Zahlen, die die Gesetzmäßigkeiten beim „Zählen“ konkreter Objekte, die erweiterten Zahlenmodelle, die das klassische „Rechnen“ beschreiben, sowie die Geometrie, die die Landmessung ermöglichte. Grenzen mathematischer Modelle. Mathematische Modelle sind eine vereinfachte Darstellung der Realität, nicht die Realität selbst. Sie dienen der Untersuchung von Teilaspekten eines komplexen Systems und nehmen dafür Vereinfachungen in Kauf. In vielen Bereichen würde eine vollständige Modellierung aller Variablen zu einer nicht mehr beherrschbaren Komplexität führen. Modelle, insbesondere solche, die menschliches Verhalten beschreiben, stellen nur eine Annäherung an die Wirklichkeit dar. Es ist nicht immer möglich, mit Modellen die Zukunft berechenbar zu machen. Léon Walras. Marie Esprit Léon Walras (* 16. Dezember 1834 in Évreux, Normandie; † 5. Januar 1910 in Clarens, heute Montreux, Schweiz) war ein französischer Ökonom. Er begründete die Lausanner Schule und gilt als einer der führenden Vertreter der Neoklassik und Urheber des allgemeinen Gleichgewichtsmodells. Jugend. Léon Walras war das älteste von vier Kindern des Antoine-Auguste Walras (1801–1866) aus Montpellier und dessen Ehefrau, der Notarstochter Louise Aline de Sainte Beuve (1811 – 1892), aus Évreux. Durch den beruflichen Aufstieg des Vaters vom Lehrer zum Professor für Philosophie verbrachte Léon Walras seine Kindheit und Jugend in Paris sowie in mehreren Städten Nordfrankreichs, wo er von 1844 bis 1850 das Collège in Caen und anschließend das Lycée in Douai besuchte. Er erlangte 1851 den Abschluss des "Bachelier-ès-lettres." Nach dem Besuch weiterer Kurse in allgemeiner und spezieller Mathematik über jeweils ein Jahr schloss er im Jahr 1853 mit dem "Bachelier-ès-sciences. " ab. Bei der Aufnahmeprüfung (Concours) für die École polytechnique in Paris fiel er zweimal durch. „Sein Studiengang zeigt die praktische Unfähigkeit des Denkers; Mißerfolge, wie sie nicht anders zu erwarten sind, wenn man sich für die École polytechnique durch das Studium Descartes‘ und Newtons vorbereitet; Unlust an ausgefahrenen Bahnen, wie sie jeder Studierende empfindet.“ Er las Cournots "Recherches sur les principes mathématiques de la théorie des richesses" (dt.: "Untersuchungen über die mathematischen Prinzipien der Theorie des Reichtums") und Lagrange. Studium. Als er 1853 zum Studium in die Hauptstadt zurückkehrte, war das gesellschaftliche und kulturelle Leben noch immer von den revolutionären Ideen der 1848er geprägt. Dieser Lebensstil und diese Einstellung der so genannte Bohemien beeinflusste auch Léon Walras. Er führte während und nach seiner Studienzeit in Paris zunächst ein relativ unkonventionelles Leben. Da er an seiner favorisierten Hochschule nicht angenommen wurde, begann er 1854 ein Ingenieur-Studium an der "École des Mines". Schnell stellte er aber fest, dass er nur wenig Interesse am Ingenieurswesen hatte. Daher vernachlässigte er sein Studium und beschäftigte sich vermehrt mit der Literatur, Philosophie, Geschichte, Kunstkritik und Literaturkritik sowie Wirtschaftspolitik und Sozialwissenschaft. Ob er trotzdem einen Abschluss als Ingenieur gemacht hat, lässt sich nicht zweifelsfrei klären. Léon Walras verkehrte in intellektuellen Kreisen in Paris und versuchte sich als Romanautor. Der im Jahr 1858 veröffentlichte Roman "Francis Sauveur" schildert das Leben eines Studenten im Paris der 1850er und soll über starke autobiographische Züge verfügen. Die Abkehr vom Studium wurde von seinen Eltern nicht gern gesehen, insbesondere von seinem Vater. Sie hatten erhofft, dass ihr Sohn Karriere als Bergbauingenieur machte. In einem von Léon Walras als sehr prägend genannten Gespräch gab Auguste Walras seinem Sohn deutlich zu verstehen, dass dieser zumindest das väterliche wirtschafts- und sozialwissenschaftliche Werk fortzusetzen habe. Daher versuchte Léon Walras, sich in den Jahren 1859 bis 1862 mit der journalistischen Arbeit für das "Journal des Economistes" und "La Presse" zu etablieren. Er nutzte die Argumentationen seines Vaters, um die leitenden Gedanken Pierre-Joseph Proudhons zu widerlegen. So entstand in den Jahren 1859/60 sein erstes wirtschaftswissenschaftliches Werk: "L’économie politique et la justice; Examen critique et réfutation des doctrines économiques de M. P. J. Proudhon précédés d'une introduction à l'étude de la question sociale." Mit diesem Aufsatz nahm er im Juni 1860 an einem Wettbewerb beim internationalen Steuerkongress in Lausanne teil und gewann den vierten Preis. Im gleichen Jahr begann er im "Journal des Economistes" seine sechsteilig geplante Artikelserie "Paradoxes Économiques" zu veröffentlichen. Der erste Teil "Paradoxes économiques I (Que le sens commun n’est point le critérium de la science en général, ni en particulier celui de l’économie politique)" beschrieb eine Diskussion zwischen einem Kaufmann und einem Wirtschaftsexperten über unterschiedliche praktische Probleme, wie etwa den Freihandel oder Steuern. Der zweite Teil der Serie war bereits geschrieben, als der Autor sich mit seinem Herausgeber überwarf, so dass jeder weitere Artikel zurückgewiesen wurde. Nachdem er nun im "Journal des Economistes" nicht mehr veröffentlichen konnte, kündigte Walras auch bei "La Presse." Seine Bestrebungen, in Frankreich als Dozent für Ökonomie an einer Universität unterzukommen, scheiterten. Die elf französischen Lehrstühle für Wirtschaftswissen waren mit orthodoxen Ökonomen besetzt und wurden laut Walras’ eigener Aussage nur durch Vetternwirtschaft weitergegeben. Auch sein Bestreben, eine eigene Zeitung über Politik und Sozialwissenschaften zu veröffentlichen, hatte keinen Erfolg, da er die staatliche Genehmigung nicht erhielt. Léon Walras nutzte die Bekanntschaft seines Vaters mit Horace Say, dem Sohn von Jean-Baptiste Say, um eine Anstellung in der Verwaltung der Eisenbahngesellschaft "Chemins de Fer Du Nord" zu finden. Léon Say, der Sohn von Horace Say und spätere Finanzminister, war im Jahr 1862 einer der Direktoren der Eisenbahngesellschaft. Léon Say verhalf ihm später zu einem Posten im Direktorium einer Wechselbank. In den Jahren von 1865 bis 1868 war er dort für die Buchhaltung zuständig und konnte daher auch Artikel bei der von der Bank finanzierten Genossenschaftszeitschrift "Le Travail" veröffentlichen. Nach der Liquidation der Bank Ende 1868 bekam er eine Anstellung im Büro des Bankiers J. Hollander. 1870–1892: Professur in Lausanne. Walras lebte über zehn Jahre mit seiner ersten Ehefrau Célestine Aline Ferbach (1834–1879) zusammen, bevor er sie im Jahr 1869 heiratete. Mit dieser Heirat wurde seine 1863 geborene Zwillingstochter Marie Aline legitimiert, während ihre Zwillingsschwester bereits im Säuglingsalter verstorben war. Léon Walras adoptierte, nachdem er Célestine geheiratet hatte, deren Sohn Georges (1857 – 1934), der einer vorangegangenen nichtehelichen Beziehung entstammte. Célestine Walras starb 1879 nach dreijähriger Krankheit. Um die Kosten für die Behandlung zu decken, verschuldete sich Léon Walras erheblich. Seine finanzielle Situation verbesserte sich erst im Jahr 1884, als er Léonide Désirée Mailly (1826 – 1900) heiratete, da diese eine Leibrente in die Ehe einbrachte. Im Jahr 1892 erhielt Walras nach dem Tod seiner Mutter ein Erbe in Höhe von 100.000 Francs, mit dem er seine Schulden bezahlen konnte und sich eine eigene Leibrente erkaufte. Im Jahr 1870 kam für Léon Walras’ Werdegang die entscheidende Wende. Die Regierung des Schweizer Kantons Waadt lud ihn ein, am Concours für den neu eingerichteten Lehrstuhl der politischen Ökonomie an der Universität von Lausanne teilzunehmen. Die Verantwortlichen erinnerten sich noch immer an seinen im Jahr 1860 beim Steuerkongress eingebrachten Beitrag. Da die siebenköpfige Berufungskommission aus drei Mitgliedern der Kantonsregierung bestand und Léon Walras einen der vier Wirtschaftspolitik-Professoren positiv beeindrucken konnte, ging er als Sieger aus dem Concours hervor. Die ersten Jahre in Lausanne waren seine produktivsten. Er besann sich auf die Kernaussagen der väterlichen Wirtschaftstheorie zurück, dass Knappheit und Nutzen die Quelle des Wertes bildeten und mathematische Hilfsmittel zu benutzen seien. Dabei zog er auch Cournots Werk in seine Überlegungen ein. Sein Vater hatte sich bereits bemüht eine Theorie dahingehend zu skizzieren, aber erst Léon Walras konnte sie formulieren. Seine bedeutendsten Werke entstanden in den 1870ern. Im Jahr 1874 erschien der Aufsatz "Principe d’une théorie mathématique de l'échange" (etwa "Prinzip einer mathematischen Theorie des Tausches") im "Journal des économistes," nachdem er im Jahr zuvor vom Herausgeber bereits einmal zurückgewiesen worden war. Im Jahr 1874 wurde die erste Auflage seines bedeutendsten Werkes herausgegeben, die "Éléments d'économie politique pure, ou théorie de la richesse sociale" (in Englisch: "Elements of Pure Economics, or the Theory of Social Wealth", dt.: "Mathematische Theorie der Preisbestimmung der wirtschaftlichen Güter"). Sie bestehen aus dem "Prinzip einer mathematischen Theorie des Tausches" aus dem Jahr 1873, den "Gleichungen des Tausches" aus dem Jahr 1875 sowie den "Gleichungen der Produktion, Gleichungen der Kapitalisierung und des Kredites" aus dem Jahr 1876. Ludwig Gebhard von Winterfeld (1853 – 1904), ein preußischer Offizier, übersetzte dieses Werk erstmals im Jahr 1881 in die deutsche Sprache, als er sich im Winter 1880/81 in Lausanne aufhielt. Ab 1874 nahm Léon Walras auch Kontakt mit den unterschiedlichsten Wirtschaftswissenschaftlern seiner Zeit auf, unter anderem mit William Stanley Jevons, Antoine-Augustin Cournot, Alfred Marshall, Carl Menger, Philip Wicksteed, Francis Ysidro Edgeworth, Vilfredo Pareto und Knut Wicksell. Er wollte seine Ideen bekannt machen und sah in dieser Kontaktaufnahme zu den wirtschaftswissenschaftlichen Größen seiner Zeit den Weg dazu. Wenig erfolgreich waren die Versuche, seine Ideen und Erkenntnisse, vor allem Geld- und Währungslehre, in Frankreich zu etablieren. Um die hohen Arztkosten der Behandlung seiner Frau Célestine begleichen zu können, musste er neben seiner Tätigkeit an der Universität noch anderen Beschäftigungen nachgehen. Er gab Nachhilfe, schrieb Artikel unter einem Pseudonym für die "Gazette de Lausanne" und die "Bibliothèque Universelle," außerdem war er auch als Berater für die Versicherungsgesellschaft "La Suisse" tätig. 1892–1910: Spätwerk und Tod. Nach seiner Erbschaft im Jahr 1892 wollte Léon Walras sich ursprünglich nur für ein Jahr von seiner Lehrtätigkeit zurückziehen, um seine gesundheitlichen Probleme zu überwinden, doch er nahm seine Dozententätigkeit nie wieder auf. Als Honorarprofessor war er weiterhin für die Universität in Lausanne tätig, musste aber keine Vorlesungen halten. Seinen Lehrstuhl an der Hochschule übernahm Vilfredo Pareto. Seine weiteren wissenschaftlichen Arbeiten waren dann trotz zahlreicher Veröffentlichungen weniger innovativ als redaktionell. Léon Walras’ politische Interessen entsprachen denen seines Vaters, so etwa die Ideen zur Reformierung des Steuersystems und der Landverstaatlichung. Mit "Études d’économie sociale; Théorie de la répartition de la richesse sociale" veröffentlichte Léon Walras im Jahr 1896 eine Sammlung seiner Artikel und Lesungen aus dreißig Jahren über Sozialpolitik. Im Jahr 1898 veröffentlichte er in "Études d’économie politique appliquée; Théorie de la production de la richesse sociale" eine Sammlung seiner Zeitungsartikel und Lesungen sowie Korrespondenz zu wirtschaftswissenschaftlichen Themen. Die "Éléments d’économie politique pure, ou théorie de la richesse sociale" hat er bis zum Jahr 1900 in vier jeweils überarbeiteten Auflagen publiziert. Er war äußerst stolz auf seine Mitgliedschaft bei den wissenschaftlichen Gesellschaften in Europa und den USA sowie die am 21. Juni 1909 erfolgte Ehrung seines vierzigjährigen Dienstjubiläums an der Universität von Lausanne, als eine Bronzebüste aufgestellt wurde. Werk. Walras entwickelte gleichzeitig, aber unabhängig (diese Unabhängigkeit ist umstritten) von Stanley Jevons und Carl Menger das Konzept des Grenznutzens („rareté“ bei Walras). Seine wesentliche Leistung bestand in der Entwicklung eines allgemeinen Gleichgewichtsmodells der Volkswirtschaft. Hierbei agieren beliebig viele Haushalte und Unternehmen auf beliebig vielen Märkten. Walras vermutete die Existenz eines Preissystems mit der Eigenschaft, dass Angebot und Nachfrage auf allen Märkten zugleich übereinstimmen. Formal bewiesen wurde diese Vermutung erst später durch Abraham Wald und im Rahmen des Arrow-Debreu-Gleichgewichtsmodells. Morphologie (Linguistik). Unter Morphologie (von "morphé" ‚Gestalt‘, ‚Form‘, und "lógos" ‚Wort‘, ‚Lehre‘, ‚Vernunft‘), auch: Morphematik oder Morphemik, versteht man in der Sprachwissenschaft ein Teilgebiet der Grammatik. Die Morphologie befasst sich mit der inneren Struktur von Wörtern und widmet sich der Erforschung der kleinsten bedeutungs- und/oder funktionstragenden Elemente einer Sprache, der Morpheme. Die Morphologie wird auch als „Wortgrammatik“ in Anlehnung an den Terminus „Satzgrammatik“ für die Syntax bezeichnet. In der traditionellen Schulgrammatik heißt die Morphologie Formenlehre. Sie behandelt, vom Wort ausgehend, die Analyse der Flexions­formen und der Wortarten und beinhaltet außerdem auch die Wortbildung, die sich freilich gerade nicht mit Wortformen, sondern mit Wortstämmen befasst. Begriffsherkunft. Der Begriff „Morphologie“ wurde im 19. Jahrhundert von den Sprachwissenschaftlern aus einer anderen wissenschaftlichen Disziplin übernommen, um typische Wortbildungsmuster zu beschreiben. Ursprünglich stammt der Ausdruck von Johann Wolfgang von Goethe, der ihn für die Lehre von den Formen, besonders in der Botanik, eingeführt hat. August Schleicher übernahm ihn 1860 für die Sprachwissenschaft, verwendete ihn allerdings nur in einer Überschrift, und der Terminus wurde zunächst wenig beachtet. Den Begriff „Morphem“ verwendet Leonard Bloomfield bereits in seinem Aufsatz ' (1926):. Forschungsfelder und Forschungsinhalte. Die Morphologie ist mit ihren Analysemethoden und Begriffen ganz wesentlich durch den amerikanischen Strukturalismus geprägt; Bloomfield (1933) und Zellig S. Harris (1951) widmen ihr in ihren grundlegenden Werken eigene Kapitel. Abgrenzungsprobleme. Der Status der Morphologie hat sich immer wieder geändert, sowohl bei der Frage, welche Bereiche der Sprachbeschreibung ihr zuzurechnen sind, als auch hinsichtlich ihrer Einbettung in die Regelsysteme der verschiedenen Grammatikmodelle. Zur Abgrenzung der Morphologie von der Syntax s. den Artikel über Syntax. Der Grenzbereich zwischen Morphologie und Syntax ist die Morphosyntax und erforscht die gegenseitigen Beeinflussungen von morphologischen und syntaktischen Prozessen. Die gegenseitigen Abhängigkeiten zwischen morphologischen und phonologischen Prozessen, also Vorgängen betreffend die Sprachlaute, behandelt die Morphonologie. Morphologie als Untersuchung der Wortstruktur generell umfasst in der Regel Wortbildung und Flexion. Einige Schulen betrachten Wortbildung aber als eigene Disziplin. Der Unterschied zwischen Flexion und Wortbildung besteht im Wesentlichen darin, dass durch Wortbildung neue Wörter entstehen, während die Flexion die grammatischen Funktionen der Wörter im Satz zum Ausdruck bringt. So wird aus dem Substantiv „(die) Tat“ durch Wortbildung, beispielsweise durch Ableitung mit dem Präfix „un-“, das neue Wort „Untat“. Durch Flexion aber entsteht aus „Tat“ in einem Satz wie „Die Taten müssen bestraft werden“ kein neues Wort, sondern mit der Form „Taten“ wird das zusätzliche Merkmal Plural angezeigt. „Tat“ und „Untat“ sind demnach zwei verschiedene Wörter, während „Tat“ und „Taten“ zwei Formen desselben Wortes darstellen. Der gleiche Fall liegt etwa bei „schreiben“ und „beschreiben“ vor (zwei Wörter) bzw. „schreiben“ und „schreibst“ (zwei Wortformen). Flexionsmerkmale können auch mehr oder weniger bedeutungshaltig sein (etwa im Fall des Plurals). Abgrenzungschwierigkeiten zwischen Wortbildung und Flexion können dann auftreten, wenn in Flexion und Wortbildung die gleichen grammatischen/semantischen Funktionen zum Ausdruck kommen. Im Deutschen ist das grammatikalische Geschlecht (Genus) eine solche Kategorie: Einerseits gibt es eine Genusflexion bei Artikeln, Adjektiven und Pronomen, das heißt Wörter werden je nach grammatikalischem Geschlecht unterschiedlich flektiert bzw. „der“, „die“ und „das“ sind flektierte Formen des bestimmten Artikels; andererseits existiert bei Substantiven auch eine Genusableitung: aus „Löwe“ wird durch Wortbildung mit dem Suffix „-in“ die weibliche Form „Löwin“. Der Unterschied zwischen Flexion und Wortbildung liegt darin, dass das Auftreten von Flexion auch Gegenstand grammatischer Regeln ist: Ein Artikel muss immer flektiert werden, wenn er in einem Satz verwendet wird; im Regelfall kann man aber nur wenige Substantive durch Genusableitung verändern; in jedem Fall verhalten sich diese dann aber wie eigenständige Wörter, und die Wahl geschieht rein nach der Mitteilungsabsicht. Morph, Allomorph und Morphem. Die Termini „Morph“, „Allomorph“ und „Morphem“ sind Bezeichnungen für die kleinsten bedeutungs- oder funktionstragenden Bestandteile eines Wortes. Als Morphe bezeichnet man die hinsichtlich ihres Typs noch nicht klassifizierten Einheiten. Beispielsweise liegen in den Wörtern „Lehr-er“, „Kind-er“ und „größ-er“ drei "-er"-Morphe vor. Erst nach Eruierung ihrer Funktion und Bedeutung kann man sie bestimmten Morphemen zuordnen: Das "-er" in „Lehrer“ wird zur Bildung des maskulinen „Nomen Agentis“ benutzt, "-er" in „Kinder“ zur Bildung des Plurals und "-er" in „größer“ zur Bildung eines Komparativs. Haben Morphe mit unterschiedlicher Form dieselbe Funktion, handelt es sich um sogenannte Allomorphe eines bestimmten Morphems. So kodieren beispielsweise die Affixe "-er" in „Kinder“, "-e" in „Hunde“, "-(e)n" in "Fragen", "-s" in „Autos“, aber auch das Nullmorphem, wie in „der/die Wagen“, an deutsche Nomen angehängt jeweils Plural; sie sind somit Allomorphe des Pluralmorphems. Haben verschiedene Morpheme dieselbe Form, so handelt es sich um einen Fall von Synkretismus. Regeln der Flexion und Wortbildung. Es lassen sich verschiedene Verfahren oder Regeln unterscheiden, die bei der Flexion und der Wortbildung zu beobachten sind. Flexion (Beugung). Zur Flexion zählen Konjugation und Deklination. Viele Autoren zählen auch die Steigerung, Komparation zur Flexion. An das Grundmorphem "brauch-" wird "e" als Flexionsmorphem für 1. Person Singular Präsens Indikativ Aktiv angehängt. In einigen Theorien wird die Flexion allerdings nicht einer separaten Ebene der Morphologie zugeordnet, sondern in das Gebiet der Syntax eingegliedert, da das Erscheinen von Flexion syntaktischen Regeln unterliegt. Derivation (Wortableitung). Derivation bezeichnet Wortbildung durch Kombination von Wortstämmen und Affixen. An das Grundmorphem "Gesund" wird "heit" angehängt, ein Derivationsmorphem, um Adjektive in Substantive zu überführen. Bei der Bildung des Wortes "Freundlichkeit" wird das Affix "-keit" an einen bereits zusammengesetzten Stamm "freund-lich" angefügt. Komposition (Wortzusammensetzung). Komposition bedeutet die Bildung von Wörtern aus (in der Regel) zwei Wortstämmen, die selbst komplex sein können. Die Bestandteile können also ihrerseits Komposita sein oder Derivationsprodukte. Durch Kombination des Grundmorphems "Sprach(e)" mit dem aus Derivation entstandenen Wort "Wissenschaft" (Ableitung von "Wissen", dies gebildet aus "wiss"+"en") entsteht ein Kompositum. Im Falle des Dreifachkompositums "Schifffahrtsgesellschaft" ist zwischen dem Kompositum "Schifffahrt" und dem Simplex "Gesellschaft" das Fugenelement "-s-" eingefügt. Ein anderes Fugenelement ist etwa "-e-" wie in "Schwein-e-braten" (vorwiegend in Deutschland, dagegen "Schwein-s-braten" vorwiegend in Österreich). In den Fällen "Sprachwissenschaft" und "Schulhof" wird bei den ersten Grundmorphemen "Sprache" und "Schule" der Auslaut getilgt. Kürzungen. - die Abkürzung, bei der man die Anfangsbuchstaben der einzelnen Morpheme, aus denen sich das Wort zusammensetzt, einzeln ausspricht - das Akronym, das denselben Regeln wie die Abkürzung folgt, wobei hier jedoch ein neues phonetisches Wort entsteht - die Kürzung, bei der Wortmaterial gelöscht wird, um ein weniger kompliziertes Wort zu erstellen Konversion. Nicht alle Wissenschaftler zählen auch die Konversion zur Wortbildung. Konversionen sind z. B. Verben, die ohne Morphem nur durch Verwendung und (im Deutschen) durch Großschreibung in Substantive überführt werden. Ein weiteres Beispiel für Konversion ist die Pluralbildung von (das) Kissen zu (die) Kissen. Hier ist gar keine Formänderung sichtbar. Diese Konversion kann als Anwendung eines nicht mit Form behafteten Morphems auf das Wort (das) Kissen angesehen werden. Dieses Morphem wird „Nullmorphem“ oder „Zero-Morphem“ genannt und vielfach in der Form „Ø-Morphem“ geschrieben. Viele Autoren unterscheiden aber Konversion als Verfahren der Wortbildung von Pluralbildung als Verfahren der Flexion. Eine andere Definition von Konversion besagt, dass es sich hierbei um eine geringe Änderung des Morphems handelt und schließt somit die Flexion mit ein. Die vorher erwähnte Form der Konversion wird in diesem Zusammenhang „Null-Ableitung“ genannt. Kontamination (Blending). Hierbei verschmelzen zwei bestehende Wörter zu einem neuen. Die Ausgangswörter sind nicht mehr vollständig erkennbar. Morphologie und formale Sprachen. Aus Sicht der Informatik lassen sich viele morphologische Phänomene mit regulären Ausdrücken formal beschreiben, besonders wenn sie rein aus Affigierungen ohne weitere Veränderungen des Materials bestehen. Einige Phänomene allerdings, so die arabische Derivationsmorphologie, sind mit regulären Sprachen nicht zu erfassen. Einzelnachweise. ! Metastase. Als Metastase (, „Wanderung“) wird in der Medizin eine Absiedelung bezeichnet, meistens im Zusammenhang mit einer Krebserkrankung. Hier wird nur der Begriff "Metastase" im onkologischen Sinn behandelt. Metastase eines Nierenkarzinoms im Knie, Kernspintomografie Bedeutung. Die Fähigkeit eines Tumors zur Metastasierung (Bildung von Metastasen) verschlechtert die Heilungschancen einer Krebserkrankung erheblich. Die tatsächlichen Heilungschancen hängen von der Art und der Lokalisation des Tumors ab. So können einige Tumoren, wie etwa Lymphome, trotz Metastasenbildung noch recht gut auf eine medikamentöse Behandlung ansprechen, während aggressive solide Tumoren infolge des invasiven Wachstums auch ohne Metastasierung so lebensbedrohlich sind, dass sie zum Tod führen können. Schon sehr kleine Tumoren können metastasieren, z. B. ein Brustkrebs von 1 cm Durchmesser in 20 % aller Fälle. Durchschnittlich werden bei 30 % aller Patienten mit Malignomen Metastasen schon bei der Erstdiagnose festgestellt. Bei weiteren 30 % findet man sie erst im weiteren Behandlungsverlauf. Bei Vorliegen von sichtbaren Fernmetastasen sind in der Regel zahlreiche Mikrometastasen vorhanden, was die Prognose erheblich verschlechtert. Entstehung. Metastasen entstehen, indem sich Krebszellen vom ursprünglichen Tumor ablösen, mit dem Blut oder mit der Lymphe wandern und sich in anderen Körperteilen wieder ansiedeln und vermehren. Je nach dem Ausbreitungsweg heißen sie "hämatogene" (Blut) oder "lymphogene" (Lymphe) Metastasen. Ob Krebszellen metastasieren, hängt nach neuesten Forschungsergebnissen von ihrer Fähigkeit ab, embryonale Transkriptionsfaktoren einzuleiten. Invasion. Voraussetzung für die Metastasierung ist, dass der Krebs invasiv wächst, d. h. in angrenzende Strukturen hinein mit Durchbruch in Blut- oder Lymphgefäße. Gutartige Tumoren metastasieren definitionsgemäß niemals. Aber auch nicht jeder invasiv wachsende Tumor verursacht Metastasen. Wenn ein solcher Tumor keine Metastasen bildet, bezeichnet man ihn als "semimaligne" („halb bösartig“). Dies ist beispielsweise bei Basalzellenkrebs der Fall. Solange ein Tumor keine Metastasen bildet, bezieht sich der Begriff "Invasion" auf sein Wachstum in umgebendes Gewebe hinein. Normalerweise wird in diesem Sinne zwischen "Invasion" und "Metastasierung" (Metastasenbildung) unterschieden. Man kann aber auch das Eindringen der Metastasen in andere Regionen des Körpers als "Invasion" bezeichnen und den Begriff in diesem Sinne weiter fassen. Die Fähigkeit, körpereigene Sperren wie die Basalmembran oder die Blut-Hirn-Schranke zu durchdringen, ein Blut- oder Lymphgefäß aktiv aufzusuchen (Chemotaxis), in das Gefäß einzudringen, sich während der Wanderung im Blut gegen das körpereigene Immunsystem zu wehren, andernorts das Gefäß zu verlassen und sich schließlich zu vermehren, wird als "Invasivität" bezeichnet. Sie ist eine aktive Leistung maligner Krebszellen, und zwar abhängig von den jeweiligen genetischen Besonderheiten des individuellen Tumors. Nur etwa 0,01 % aller im Blut zirkulierenden Krebszellen schaffen es schließlich, eine metastatische Kolonie zu bilden. Die biochemischen Vorgänge, die bestimmte Zellen zur Metastasierung befähigen und andere nicht, sind Gegenstand intensiver Forschung. Es konnte z. B. gezeigt werden, dass die verminderte Expression von Cadherinen („Klebemolekülen“) auf ihrer Zellmembran die Tumorzellen beweglicher macht. Für die Anheftung der Zellen im Zielgebiet sollen andere Membranstrukturen, die sogenannten Integrine, eine Rolle spielen. Es sind bereits Onkogene und Tumorsuppressorgene identifiziert worden, deren Expression die Metastasierungstendenz erhöhen bzw. senken kann. Passiv (etwa durch Biopsienadeln) abgelöste und verschleppte Tumorzellen verursachen nur sehr selten Metastasen. Im Blut zirkulierende Krebszellen. Neuere Diagnoseverfahren belegen die Wichtigkeit der zirkulierenden Tumorzellen epithelialen Ursprungs (CETC, "circulating epithelial tumor cells"). In der adjuvanten Situation, das heißt nach der operativen Entfernung des Primärtumors, werden verschiedene Chemotherapieverfahren eingesetzt, um die restlichen im Körper verbliebenen und im Blut zirkulierenden Tumorzellen zu vernichten. Im Jahr 2005 zeigten Gianni Bonadonna und Kollegen, dass ca. 50 % der Chemotherapien zu keinen wesentlich erhöhten Lebensverlängerungen bei den Patienten geführt haben. Dieses Ergebnis kann darauf zurückgeführt werden, dass bei der Auswahl der Chemotherapeutika auf eine Biopsie des Primärtumors zurückgegriffen wird. Einige Wissenschaftler nehmen mittlerweile an, dass die Auswahl der nach den S3-Leitlinien zur Verfügung stehenden Therapeutika mittels Chemosensitivitätstests (In-vitro-Bluttests, bei denen die Absterberate der Tumorzellen unter Zugabe der Therapeutika in einer Blutprobe vor Verabreichung getestet werden) die Wirkungswahrscheinlichkeit der Therapeutika stark verbessern könnte. Organotropie. Der erste Zielort für Metastasen liegt in der Regel stromabwärts, also für Tumoren der Körperwand und Extremitäten in der Lunge und im Gehirn, für Tumoren des Darmes in der Leber (denn das vom Darm kommende Blut fließt zunächst in die Leber und dann erst zum Herzen zurück). Die Lymphgefäße führen zu Lymphknoten, die meist in räumlicher Nähe zum Tumor liegen, für den Brustkrebs z. B. in der Achselhöhle. Es ist aber durchaus möglich, dass ein erster Zielort übersprungen wird. Manche Tumorarten metastasieren in ganz spezifische Organe, etwa Lungenkrebs in die Nebennieren, offenbar infolge von Oberflächeneigenschaften der Krebszellen. Dieser Zielmechanismus (Organotropie, "homing" tumors) ist noch nicht völlig verstanden. Knochenabbau und Angiogenese. Bei osteoklastischen Knochenmetastasen beeinflussen die Tumorzellen die körpereigenen Osteoklasten so, dass diese vermehrt Knochenhartsubstanz abbauen, um das weitere Wachstum der Metastase zu ermöglichen. Nach heutigem Wissensstand sind metastasierende Krebszellen im Gegensatz zu anderen Zellen außerdem dazu in der Lage, umgebende Blutgefäße zum Aussprossen zu veranlassen (Angiogenese). Nur deswegen kann die neue Metastase mit Blut versorgt werden. Tumoren ohne angiogenetische Fähigkeit werden nicht größer als 0,3 mm. Einteilung von Metastasen. Je nach Lokalisation und histologischem Typ metastasieren maligne Tumoren in unterschiedlichem Maße lymphogen und hämatogen. Auch die Lokalisation von Fernmetastasen ist in großem Maße abhängig von Histologie und Lokalisation des Primärtumors. Nach dem gegenwärtigen Kenntnisstand können Fernmetastasen selbst keine Metastasen bilden. Sie entstehen offensichtlich ausschließlich aus Zellen des Primärtumors. Ist ein ganzes Organ, beziehungsweise eine Körperhöhle diffus von Tumorzellen durchsetzt, bezeichnet man dies als Karzinose (oder Karzinomatose). Beispiel: Bauchfellkarzinose bei Darmkrebs. Lokalisation von Fernmetastasen. Niere eines Hundes mit multiplen Metastasen Metastasen vom Pfortadertyp in der Leber eines Hundes, verursacht durch einen Milztumor a> per amplitudenkodiertem Doppler. Der Tumor ist gekennzeichnet durch die Farbansammlung im Zentrum des Bildes. Sp-Milzgewebe Verschiedene Organe haben verschiedene bevorzugte Lokalisationen der Fernmetastasen. In der Regel wird dabei der Pfortader- vom Cava-Typ unterschieden. Einige Tumoren haben ihren ersten Metastasierungsort typischerweise im Knochen, so Prostata (Lendenwirbel- und Beckenbereich), Brustdrüse (Wirbelsäule), Nieren. Verschiedene Tumoren metastasieren auch häufig in die Haut, es handelt sich dabei vor allem um Metastasen des malignen Melanoms sowie anderer Hauttumoren. Auch Lymphome befallen häufig die Haut, allerdings bezeichnet man diesen Befall durch eine Systemerkrankung nicht als Metastase. Fast niemals von Metastasen betroffen sind Herz, Milz und Nieren. Das ist eine erstaunliche Tatsache, weil diese Organe einen hohen Blutdurchfluss haben. Warum sie seltener befallen werden, ist noch nicht sicher abgeklärt. Ebenfalls sehr selten sind Metastasen in anderen Organen wie Bauchspeicheldrüse, Magen, Darm (außer durch lokales Wachstum), Schilddrüse, Thymus und Nebenniere. Untersuchungsmethoden. Bei Krebserkrankungen werden neben dem Primärtumor in der Regel die Lymphknoten der Abflussbahn und „suspekte“ Lymphknoten aus der vorhergehenden Diagnostik (körperliche Untersuchung, Computertomografie, Magnetresonanztomografie) mit entnommen und histopathologisch auf regionäre Metastasen untersucht. Bei unklarer Lymphabflussbahn, z. B. bei Hauttumoren, wird über das Einspritzen radioaktiv markierter Farbe der Sentinel-Knoten („Wächterknoten“) mittels Geigerzähler und Farbmarkierung operativ aufgesucht. Lymphknotenmetastasen verschlechtern die Prognose und führen bei kurativem Ansatz zu einer aggressiveren Therapie. Bei HNO-Tumoren gehört daneben zur Metastasensuche die Panendoskopie. Bei gynäkologischen und urologischen Tumoren ist ein lokoregionäres Tumorwachstum in umliegende Organe besonders häufig, deshalb ist die wichtigste Staginguntersuchung die Computertomografie des kleinen Beckens. Marokko. Marokko (, /) Langform Königreich Marokko, ist ein Staat im Nordwesten Afrikas. Er ist durch die Straße von Gibraltar vom europäischen Kontinent getrennt. Als westlichstes der fünf (mit Westsahara sechs) Maghrebländer grenzt es im Norden an das Mittelmeer, im Westen an den Atlantischen Ozean und im Osten an Algerien. Das nordafrikanische Land ist seit 1956 unabhängig und gemäß Verfassung von 1992 eine konstitutionelle Monarchie. Marokkos Südgrenze ist wegen des Westsaharakonfliktes bis zum Abhalten eines UN-Referendums über die zukünftige Zugehörigkeit der Westsahara international umstritten. Landesname. Während sich das Land in der eigenen offiziellen Staatsbezeichnung „al-Mamlaka al-Maghribīya“ (übersetzt "Das Land des Sonnenuntergangs)" als „Maghrebinisches Königreich“ bezeichnet (bis in die 1960er „Scherifisches Maghrebinisches Königreich“), hat sich international die europäische Ableitung des Namens der ehemaligen Hauptstadt Marrakesch () für das gesamte Königreich Marokko durchgesetzt. Geographie. Im Vergleich mit anderen afrikanischen Staaten besitzt Marokko kein großes Staatsgebiet, in seiner Oberflächenform zeigt es jedoch ein überaus wechselvolles Bild. Im Wesentlichen lassen sich folgende natürliche Einheiten unterscheiden: die Küstenregionen im Norden und Westen; die atlantische Region mit der Marokkanischen Meseta; die montane Region mit dem Hohen und Mittleren Atlas und dem Rifgebirge; schließlich die transmontane Region mit den Plateaus im nordöstlichen Grenzgebiet, dem Antiatlas und den Beckenlandschaften im Randbereich der Sahara. Blick von Spanien nach Marokko Die Mittelmeerküste ist überwiegend steil und felsig und weist viele Kaps und Buchten auf. Nur im Mündungsbereich des Moulouya nahe der algerischen Grenze erweitert sich die mediterrane Küstenlandschaft zu einem Becken. Im Westen läuft der gebirgige Küstenabschnitt in der sichelförmig nach Europa gerichteten Nordwestspitze Afrikas aus. Die Atlantikküste dagegen ist eine flache, kaum gegliederte Ausgleichsküste mit starkem Sandtransport und deshalb nur schlecht für Häfen geeignet. Landeinwärts folgen hier breitere Küstenebenen wie die Niederung des Sebou bei Kenitra und die weitläufige Küstenmeseta von Casablanca. Weiter zum Innern steigt das Gelände auf etwa 450 m über dem Meeresspiegel zum zentralen Teil der Marokkanischen Meseta an, einer weiten Tafellandschaft, die auch als Binnenmeseta oder Hochebene von Marrakesch bezeichnet wird. Sie besteht hauptsächlich aus schwach gewellten, steppenhaften Hochflächen, über die vereinzelt Inselberge aufragen. Im Süden und Osten wird die Meseta von den markanten Gebirgszügen des Hohen und Mittleren Atlas umrahmt. Dieses gewaltige Faltengebirge wurde im Tertiär beim Zusammenstoß der Afrikanischen mit der Eurasischen Platte aus dem damaligen Sedimentationsbecken herausgehoben. Erdbeben wie das von Agadir im Jahre 1960 zeugen davon, dass die gebirgsbildenden Vorgänge in diesem Raum bis heute nicht abgeklungen sind. Das Atlasgebirge bildet gleichsam das morphologische Rückgrat des Landes und stellt sowohl eine naturräumliche als auch eine wirtschaftlich-kulturelle Barriere dar. Als wichtige Klimascheide trennt der Gebirgswall das atlantisch-mediterrane Marokko vom saharisch geprägten Landesteil. Der Hohe Atlas erstreckt sich in leichtem Bogen über rund 800 km von Südwesten nach Nordosten. Mit seinen schroffen, gratigen Gebirgsformen und den steilen Gipfeln hat er Hochgebirgscharakter. Hier liegen die höchsten Erhebungen des gesamten Atlas-Gebirgssystems, ja ganz Nordafrikas, darunter auch der höchste Berg Marokkos, der 4167 m hohe Jabal Toubkal. Nach Nordosten setzt sich der Hohe Atlas im niedrigeren algerischen Sahara-Atlas fort; im zentralen Marokko schließt sich, nördlich versetzt, auf über 300 km der Mittlere Atlas an. Dieser besitzt in seiner östlichen, steil zur Moulouya-Senke abfallenden Kette ebenfalls über 3000 m hohe Gipfel, weist ansonsten jedoch eher Mittelgebirgsformen auf. Den nördlichen Abschnitt des marokkanischen Atlasgebirges bildet das bis zu 2456 m hohe Rif, ein wildzerklüfteter Gebirgsbogen, der sich von der Straße von Gibraltar parallel zur Mittelmeerküste bis zur Mündungsebene des Moulouya erstreckt. Die Längsfurche zwischen dem Rif und dem Mittleren Atlas, die „Pforte von Taza“, ist das wichtigste west-östliche Durchgangstal Marokkos. Östlich des Moulouya-Tals, das im nördlichen Marokko die montane von der transmontanen Region trennt, steigt das Gelände allmählich zu weiten, steppenhaften Plateaus an, die zum Hochland der Schotts in Algerien überleiten. Die Gebirgszüge südöstlich des Atlashauptkammes, der Anti-Atlas und seine östliche Fortsetzung Jabal Sarhro sowie der südlich parallel ziehende Jabal Bani, gehören ihrem Aufbau nach nicht mehr zu den tertiären Faltengebirgen, sondern sind Teil der alten afrikanischen Masse. Im Süden davon erstrecken sich Randlandschaften der Sahara, zu denen auch die Beckenregion des Tafilalt und die Senke des Draa gehören. Im Gebiet der Westsahara folgen auf eine breitere Küstenebene bis über 350 m ansteigende, von Wadis zerschnittene und mit Dünen überzogene Sandsteinplateaus, die gleichfalls der Sahara zuzurechnen sind. Klima. Das Klima Marokkos zeigt einen Übergang vom mediterran beeinflussten Nordwesten des Landes zum saharisch-kontinentalen Südosten und Süden. Der Hohe und Mittlere Atlas, die zusammen als eigener Klimaraum aufzufassen sind, bilden mit ihrem Hauptkamm die Klimascheide. Der nordwestliche Landesteil hat trockenheiße Sommer mit einer mittleren Augusttemperatur von 23 °C und mittleren Temperaturmaxima zwischen 26 °C (Casablanca) und 29 °C (Tanger). Die Winter sind mild (Januarmittel 12 °C) und regenreich, wobei die Niederschlagsmengen nach Süden hin geringer werden (Tanger 900 mm, Agadir 200 mm Jahresniederschlag). Landeinwärts nimmt der mildernde Einfluss des Meeres rasch ab, so dass in der zentralen Meseta und im Atlasgebirge ausgeprägtes Kontinentalklima herrscht: In Marrakesch (Augustmittel 29 °C) können im Sommer 45 °C erreicht werden, während im Winter die Temperaturen um den Gefrierpunkt liegen können; an Niederschlag fallen kaum 250 mm. Dagegen bringen Steigungsregen an der Westabdachung der Gebirge zum Teil mehr als 1000 mm Niederschlag pro Jahr, der über 1000 m Meereshöhe in den Wintermonaten gewöhnlich als Schnee fällt. In den südlich des Atlas gelegenen Sahara-Randgebieten herrscht extrem trockenheißes Wüstenklima. Es fallen nur unregelmäßig Niederschläge, die selten 200 mm im Jahr erreichen, so dass Ackerbau lediglich in Oasen mit Bewässerung betrieben werden kann. Während der Sommermonate weht zeitweise der Scirocco, ein heißer, staubbeladener Wind aus der Sahara. Flora und Fauna. Auch die Pflanzenwelt ist durch das Atlasgebirge zweigeteilt: Nordwestlich des Gebirges überwiegt der mediterrane Bewuchs, südöstlich davon die Wüstensteppe. Geschlossene Waldbestände mit Stein- und Korkeichen, Thujen, Atlas-Zedern und Aleppokiefern finden sich noch in den regenreichen Gebirgszonen und den westlichen Ebenen; sie bedecken nur etwa ein Zehntel der Landesfläche. Im südlichen Küstenbereich wachsen Arganien und Jujuben. Im übrigen Marokko hat der jahrhundertelange Raubbau die Mittelmeervegetation – soweit sie nicht Kulturflächen weichen musste – auf Baumheiden, Erdbeerbäume, Pistazien, Wacholderarten und Zwergpalmen reduziert. Oberhalb der Waldgrenze (bei 3100 m) gibt es eine Stufe von Polsterpflanzen. Jenseits des Atlasgebirges ist Trockensteppenvegetation mit Büschelgräsern und Dornsträuchern vorherrschend; in der nordöstlichen Hochsteppe wächst das widerstandsfähige Halfagras. In den wenigen Oasen werden Dattelpalmen kultiviert. Die wildlebenden Tiere haben sich in die dünnbesiedelten Gebiete Marokkos zurückgezogen; einige Arten, wie etwa der Leopard und der Wüstenluchs, sind vom Aussterben bedroht. Weitere Säugetiere des Landes sind Berberaffen (Magots), Gazellen, Hyänen, Schakale und Wüstenfüchse (Fenneks); auch Reptilien (Eidechsen, Chamäleons, Schildkröten, Schlangen) kommen zahlreich vor. Bis 2003 wurden 452 verschiedene Vogelarten in Marokko nachgewiesen. 209 Arten, 49 % der nachgewiesenen Vogelarten, brüten regelmäßig im Land, während 15 Arten nur unregelmäßig im Land brüten. Unter den nachgewiesenen Vogelarten befinden sich Störche, Adler, Geier, Bussarde und Milane. Es gibt mehrere Nationalparks in Marokko. Das Gebiet um den Jabal Toubkal im Hohen Atlas wurde bereits 1942 zum Nationalpark erklärt. Der Ifrane-Nationalpark schützt ausgedehnte Zedernwälder, in denen Berberaffen leben. Bevölkerung. Etwa 80 % der Bevölkerung sind Berber, davon knapp 60 % arabisierte Berber. Sie sind heute zumeist sesshafte Bauern, nur eine Minderheit lebt noch als Nomaden oder halbnomadisch in abgelegenen Gebieten des Mittleren Atlas oder auf den Hochplateaus im Osten des Landes. Rund 20 % der Marokkaner sind arabischstämmig. Nordmarokko mit der alten Metropole Fès ist eher arabisch (34 % der Bevölkerung Araber, 25 % arabisierte Berber), Südmarokko und dessen Metropole Marrakesch eher berberisch (30 % der Bevölkerung Berber) geprägt. Zudem leben rund 60.000 Ausländer im Land, darunter vor allem Franzosen, Spanier, Italiener, Tunesier und Algerier. Die Bevölkerung ist in Marokko sehr ungleich verteilt. Zwei Drittel der Einwohner leben auf etwa einem Zehntel der Landesfläche im Nordwesten oder Westen. Ballungsgebiete sind die Küstengebiete im Norden und Nordwesten und das Sebou-Tiefland. Obwohl Marokko eine alte Stadtkultur besitzt, leben nur 58,2 % (2011) der Bevölkerung in Städten. Die Verstädterung schreitet langsamer voran als in anderen afrikanischen Staaten. 27,8 % der Einwohner sind jünger als 15 Jahre; die Gruppe der über 65-Jährigen beträgt lediglich 6,1 %. Die Lebenserwartung beträgt 75,9 Jahre. Das Bevölkerungswachstum liegt bei 1 %. Das Durchschnittsalter beträgt 26,9 Jahre (jeweils 2011). Sprache. Etwa 90 % der Marokkaner sprechen das Marokkanische Arabisch, den Hassania-Dialekt nur etwa 0,7 % der Bevölkerung. Von Marokkanern berberischer Abstammung werden diverse Berbersprachen (Taschelhit, Mazirisch, Ghomara, Tarifit, Senhaja de Srair und heute auch noch Judäo-Berberisch) gesprochen – gut die Hälfte der Marokkaner beherrscht eine Berbersprache. Die offiziellen Sprachen Marokkos sind das Arabische und das Mazirische. Französisch wird im gesamten Land als Handels-, Bildungs- und zweite Amtssprache benutzt. Bei der staatlichen Eisenbahn "Office National des Chemins de Fer" (ONCF) ist es die Betriebssprache. Im Norden Marokkos, der Westsahara und um Sidi Ifni wird zusätzlich Spanisch gebraucht. Englisch gewinnt als Sprache der gebildeten Jugend an Bedeutung. Religion. Staatsreligion ist der Islam. Rund 98,7 % der Bevölkerung sind Muslime, davon 90 % Sunniten malikitischer Richtung. 1,1 % der Einwohner bekennen sich zum Christentum (meist Katholiken; siehe Christentum in Marokko) und 0,2 % zum Judentum. In der Volksreligion ist der Glaube an Geister – als Erbe der vorislamischen Berber – tief verwurzelt. Emigration. Zahlreiche Marokkaner leben vorübergehend im Ausland, vor allem in West- und Südeuropa, oder haben ihr Land auf der Suche nach besseren wirtschaftlichen Perspektiven dauerhaft verlassen. In vielen Ländern bilden Marokkaner und Marokkanischstämmige die größte muslimische Gemeinde. Etwa 1,2 Millionen leben in Frankreich, etwa 750.000 in Spanien, etwa 500.000 in Italien, etwa 330.000 in den Niederlanden, etwa 250.000 in Belgien und etwa 100.000 in Deutschland. Weitere Gemeinden existieren auch in Norwegen und in Schweden. Immigration. Mit der wachsenden Wirtschaftskraft des Königreichs wandern immer weniger Marokkaner in andere Staaten aus. Dafür steigt die illegale Zuwanderung von Schwarzafrikanern "(Subsahariens)". Marokko hat sich seit Mitte der 1990er Jahre zu einem Transitland vorwiegend für Migranten aus Westafrika entwickelt, die aus wirtschaftlichen oder politischen Gründen ihre Heimat verlassen haben; von diesen wollen immer mehr dauerhaft im Land bleiben. 2005 lebten 25.000 schwarzafrikanische Migranten legal in Marokko. Da die Einreise nach Europa massiv erschwert worden ist, entschließen sie sich dazu, in Marokko zu bleiben. Neben den afrikanischen Migranten residierten im selben Jahr 28.000 Europäer im Land, überwiegend in Städten wie Marrakesch. Soziale Lage. Marokko liegt beim Pro-Kopf-Einkommen in der höheren Gruppe der afrikanischen Staaten. Die Sozialversicherung umfasst Alters-, Hinterbliebenen- und Invalidenrenten. Auch Leistungen bei Krankheit, Schwangerschaft sowie Familienbeihilfen werden gewährt. Versichert sind allerdings nur Arbeitnehmer in Industrie und Handel, beziehungsweise Genossenschaftsmitglieder. Die Arbeitslosigkeit (2011 durchschnittlich 8,7 %) ist besonders unter Jugendlichen hoch. Viele männliche Jugendliche wandern daher in europäische Staaten aus. Um das Problem der Arbeitslosigkeit zu lösen, gehen staatliche Maßnahmen in Richtung „Marokkanisierung“, das heißt Verdrängung ausländischer Fachkräfte. Die Inflation lag 2004 durchschnittlich bei 1,4 %. Das Gesundheitswesen ist im Vergleich zu anderen afrikanischen Staaten gut entwickelt. Die medizinische Versorgung der Stadtbevölkerung ist allerdings wesentlich besser als die der Landbevölkerung. Knapp die Hälfte aller Ärzte praktiziert in Casablanca und Rabat. Hauptprobleme der Gesundheitsvorsorge sind die Bekämpfung der Durchfall- und Parasitenkrankheiten, der Malaria und teilweise noch der Mangelernährung. Im Jahr 2009 betrugen die Gesundheitsausgaben 1,9 % des Bruttoinlandsprodukts. Zugang zu Sanitäreinrichtungen hatten 2008 nur 69 % der gesamten Bevölkerung. Allgemeine Schulpflicht besteht für 7- bis 13-Jährige, jedoch werden nur 91 % aller Jungen und lediglich 88 % aller Mädchen eingeschult. Noch sind 30 % der Gesellschaft Analphabeten, vor allem ist die ältere Gesellschaft vom Analphabetismus betroffen, die nie eine Schule besuchen musste. Das Schulsystem ist dreistufig: auf fünf Jahre Grundschulausbildung folgen in der Sekundarausbildung eine vierjährige Unterstufe und eine dreijährige Oberstufe. Daran schließt die Hochschulausbildung an. Universitäten befinden sich in Rabat, Casablanca, Oujda, Marrakesch, Ifrane, Fes, Tanger, Tetouan und vereinzelt in kleineren Städten. Auf eine lange Tradition kann die islamische Al-Qarawiyin-Universität in Fes zurückblicken, die bereits 859 gegründet wurde. Antike. Bereits im 2. Jahrtausend v. Chr. besiedelten Berber-Stämme das Gebiet des heutigen Marokko. Vom 12. Jahrhundert v. Chr. an gründeten die Phönizier an der Küste Handelsniederlassungen, darunter auch Karthago im Gebiet des heutigen Tunesien, das seit dem 8. Jahrhundert v. Chr. Stützpunkte im Mittelmeerraum errichtete. Im Innern des Landes bildete sich wahrscheinlich schon im 4. Jahrhundert v. Chr. das Königreich Mauretanien heraus, das durch den Zusammenschluss mehrerer Berber-Stämme entstanden war. Nach der Zerstörung Karthagos im Dritten Punischen Krieg 146 v. Chr. gerieten die Handelsniederlassungen an der Küste wie auch das Königreich Mauretanien unter römischen Einfluss. 33 v. Chr. wurde das Gebiet römisches Protektorat und schließlich 42 n. Chr. als "Mauretania Tingitana" mit der Hauptstadt Tingis (heute Tanger) und "Mauretania Caesariensis" mit der Hauptstadt Caesarea (heute Cherchell in Algerien) zu römischen Provinzen. Rom errichtete in der Folge zum Schutz gegen die im Gebirge und in der Sahara lebenden Berber-Stämme im Süden einen Grenzwall (Limes). 429 fielen die Vandalen in Nordafrika ein, konnten sich jedoch nur bis 477 in Tanger und Ceuta behaupten. Unter Kaiser Justinian I. (527–565) stießen oströmische Truppen bis zur Straße von Gibraltar vor, beschränkten aber ihre Herrschaft im heutigen Marokko ebenfalls auf diese beiden Städte und befestigten sie. Mittelalter. Um 700 erreichten die Araber bei ihren Vorstößen nach Westen die Gegend, begannen mit der Islamisierung der unterworfenen Bevölkerung und benannten sie nach dem arabischen Wort für Westen oder Sonnenuntergang „Maghreb“: "Al-Maghrib" ist heute der offizielle Name Marokkos. Ein islamisierter Berber, Tariq ibn Ziyad, setzte dann 711 mit einer Reitertruppe von Ceuta über die Meerenge nach Spanien über und eroberte das Westgotenreich. Der Ort der Landung, der „Felsen des Tarik“ (arabisch "Jabal Tariq"), trägt seinen Namen: Gibraltar. Die Araber konnten den Widerstand in Nordafrika zunächst jedoch nicht brechen; gegen die Herrschaft der Kalifen kam es um 750 zu zahlreichen Berber-Aufständen. 789 begründete schließlich Mulay Idris als Idris I. die Dynastie der Idrisiden mit der Hauptstadt Fès. Das Reich war bis Ende des 10. Jahrhunderts Zentrum des Islam in Nordafrika. Die von 1062 bis 1147 herrschenden Almoraviden, Angehörige einer Berber-Sekte aus dem Süden, verlegten die Hauptstadt nach Marrakesch. Die Almohaden (1147 bis 1269) machten Marokko zum Herzstück eines Reiches, das sich von Sizilien im Osten über das Atlasgebirge bis weit nach Spanien hinein erstreckte. Die Herrschaft der folgenden Dynastie, der Meriniden, währte etwa 150 Jahre; die Hauptstadt Fès wurde zu einem Zentrum von Kunst und Wissenschaft. 1420 ergriffen die Wattasiden die Macht, gerieten in der Folge aber immer mehr unter den Druck europäischer Mächte. 1492 wurde die Rückeroberung Spaniens durch die Christen (Reconquista) mit der Einnahme Granadas abgeschlossen. Neuzeit. Ab Beginn des 16. Jahrhunderts hatten Portugiesen und Spanier damit begonnen, an der marokkanischen Küste Stützpunkte anzulegen; Spanien hatte bereits unmittelbar nach Abschluss der Reconquista Sidi Ifni und Melilla besetzt. Um 1520 kontrollierte Portugal alle wichtigen Atlantikhäfen des Landes. Unter der mächtigen Dynastie der Saadier entwickelten sich im 16. und 17. Jahrhundert Handelsbeziehungen zu den europäischen Staaten. Frankreich errichtete in den wichtigsten Hafenstädten Konsulate. Um 1669 ergriffen die Alawiden, die noch heute in Marokko herrschende Dynastie, die Macht. Sie befreiten nach und nach die meisten der von Spanien und Portugal besetzten Küstenstädte. Nur Ceuta, Melilla und Sidi Ifni blieben spanisch. Marokko war das erste Land, das die jungen USA 1777 offiziell anerkannte. Der "Moroccan-American Treaty of Friendship" von 1783, der von amerikanischer Seite von John Adams und Thomas Jefferson unterzeichnet wurde, ist somit auch der längste ungebrochene Freundschaftsvertrag der USA mit einem anderen Staat. Nach der Eroberung Algeriens (ab 1830) versuchte Frankreich, seinen Einfluss auf Marokko weiter auszudehnen. 1843/44 kam es zum Krieg, der mit einer Niederlage der marokkanischen Truppen endete. Infolgedessen wurde Marokko zum Zankapfel der miteinander konkurrierenden europäischen Mächte. Für einen reibungslosen Postverkehr mit Deutschland wurden in Marokko deutsche Postämter errichtet; diese arbeiteten von 1899 bis 1914 im französischen und bis 1919 im spanischen Gebiet Zu Beginn des 20. Jahrhunderts kam es im Zuge dieser Entwicklung zu einer Konfrontation Frankreichs mit dem Deutschen Reich, das versuchte, gegen den wachsenden französischen Einfluss in Marokko eigene wirtschaftliche und politische Interessen durchzusetzen. 1905 stattete Kaiser Wilhelm II. dem Sultan in Tanger einen demonstrativen Besuch ab. Dennoch stand das Deutsche Kaiserreich in der Konferenz von Algeciras 1906 mit seinen Ansprüchen isoliert da und es musste im Berliner Marokko-Kongo-Vertrag von 1911 Marokko als französisches Einflussgebiet anerkennen. Bereits ein Jahr später wurde das Land im Protektoratsvertrag vom November 1912 in die Protektorate Französisch-Marokko und Spanisch-Marokko im Norden aufgeteilt; die Stadt Tanger erhielt 1923 als Tanger-Zone internationalen Status. Formal blieb der Sultan Herrscher Marokkos. Im Süden unterstützte Tihami al-Glawi, das Oberhaupt des einflussreichen Glaoui-Berberstammes, von Anfang an das französische Protektoratsregime gegen den Führer des antikolonialen Aufstandes Ahmed al-Hiba (El Hiba) in Südmarokko und Westsahara. Letzterer hatte den Kampf gegen die Kolonialmacht von seinem Vater Mā al-ʿAinin übernommen. Der einhellige Widerstand der Berber im Norden ging zu dieser Zeit von Moha ou Hammon aus, dessen Stammsitz Khénifra die Franzosen am 12. Juni 1914 eroberten. Am 13. November 1914 fügten die unter Moha ou Hammon versammelten Berbertruppen einige Kilometer südlich von Khénifra den Franzosen die schwerste Niederlage während der „Befriedungsaktionen“ zu. Dabei starben 613 französische Soldaten und für den Generalresidenten Hubert Lyautey schien danach das gesamte Protektorat zu scheitern. Auch nach dem Ersten Weltkrieg erhoben sich immer wieder Berber. Unter der Führung von Abd al-Karim brach 1921 in der spanischen Zone der Aufstand der Rif-Kabylen aus. Die Unruhen erfassten auch das französische Protektorat. Erst 1926 gelang es Frankreich und Spanien gemeinsam, den Aufstand niederzuschlagen. Unter Sultan Mohammed V. (1927 bis 1961), der im Zweiten Weltkrieg auf Seiten Frankreichs stand, konnte die arabisch-nationalistische Unabhängigkeitsbewegung an Einfluss gewinnen. 1944 konstituierte sich die „Partei der Unabhängigkeit“ "(Al-hizb al-istiqlal)". Anfang der 1950er Jahre kam es aufgrund der wachsenden Unabhängigkeitsbestrebungen zu Spannungen zwischen dem Sultan und der französischen Protektoratsverwaltung. Im August 1953 verbannten ihn die Franzosen nach Madagaskar und setzten seinen Onkel Muhammad Mulay ibn Arafah als Sultan ein. Daraufhin wurde das Land von einer Welle nationaler Empörung gegen die Fremdherrschaft erfasst. Frankreich und Spanien konnten ihre Protektoratsmacht nicht mehr aufrechterhalten. Muhammad V. konnte im Jahr 1955 zurückkehren. Die volle Unabhängigkeit von Frankreich und Spanien erlangte das Land 1956. Lediglich die Enklaven Ceuta, Melilla und Sidi Ifni (bis 1969) blieben in spanischem Besitz. 1957 nahm Muhammad V. den Königstitel an. Nach seinem Tode 1961 folgte ihm sein Sohn als Hassan II. auf den Thron, der von Anfang an einen Kurs der Westorientierung mit starker Anlehnung an Frankreich und das Europa der späteren EG anstrebte. Die Spannungen mit dem unabhängigen Algerien führten 1963 zum algerisch-marokkanischen Grenzkrieg. In der gesamtarabischen Politik bemühte er sich um eine Mittlerrolle. 1971/72 und 1983 misslangen Versuche, eine Republik zu errichten. 1976 entließ Spanien seine Provinz Spanisch-Sahara (Westsahara) in die Unabhängigkeit. Mauretanien und Marokko teilten das Land kurzerhand unter sich auf. Kurz danach setzten die Kampfhandlungen zwischen der marokkanischen Armee und Einheiten der Frente Polisario (Volksbefreiungsbewegung der Westsahara) sowie Truppenteilen Algeriens ein, das die Polisario unterstützte. Diese rief die „Demokratische Arabische Republik Sahara“ aus und gründete eine Exilregierung. 1979 schloss Mauretanien einen Friedensvertrag mit der Polisario und räumte seinen Anteil an der Westsahara. Daraufhin okkupierte Marokko das ganze Territorium. Seither tobte in der Westsahara ein blutiger Krieg, der Marokko stark belastete. Im August 1988 stimmten das in der Westsahara-Frage international zunehmend isolierte Marokko wie auch die Polisario dem Westsahara-Plan der Vereinten Nationen zu, der einen Waffenstillstand vorsah sowie die Durchführung einer Volksabstimmung über das zukünftige Schicksal des okkupierten Territoriums. 1991 wurde ein Waffenstillstand vereinbart. Das Referendum wurde seither aber immer wieder verschoben, weil beide Seiten keine Einigung über die genaue Zahl der Stimmberechtigten erzielen konnten. Unterdessen betreibt Marokko eine umfassende Besiedlungspolitik in der Westsahara. Ein Großteil der westsaharischen Bevölkerung lebt in Flüchtlingslagern in Algerien. Mit Spanien existieren noch ungelöste Territorialstreitigkeiten über die Exklaven Ceuta und Melilla sowie über die küstennahen Inseln Isla Perejil, Chafarinas, Alhucemas und Vélez de la Gomera. Die Souveränität Spaniens über die genannten Gebiete wird von Marokko nicht anerkannt. Der Streit eskalierte 2002, als ein winziges Kontingent marokkanischer Truppen die Isla Perejil besetzte. Ein spanisches Armeekommando überwältigte die marokkanischen Soldaten unblutig und repatriierte sie. Der Streit wurde dabei diplomatisch durch die Vermittlung der USA und der EU entschärft. Ungeachtet dieses kleinen Zwischenfalles gestaltet sich die praktische Zusammenarbeit spanischer und marokkanischer Behörden vor Ort ausgezeichnet, was beide Seiten stets offiziell beteuerten. Die amerikanisch-marokkanischen Beziehungen sind dagegen so gut, dass die USA Marokko im Juni 2004 den Status eines hauptverbündeten Alliierten außerhalb der NATO zuerkannten. König Mohammed VI. setzte im April 2004 eine unabhängige nationale "Kommission für Gleichheit und Versöhnung" ein, die sich mit der Aufarbeitung von Menschenrechtsverletzungen aus der Regierungszeit seines Vaters, König Hassans, befassen sollte. Ab Dezember 2004 fanden öffentliche Anhörungen ehemaliger Gefangener statt, die auch im Radio und Fernsehen übertragen wurden. Um die Idee der nationalen Versöhnung nicht zu gefährden, wurden die Beschuldigten nicht beim Namen genannt. Hauptziel ist nicht die strafrechtliche Verfolgung der Täter, sondern die moralische Wiedergutmachung für die Opfer und ihre Familien. Die Lage der Menschenrechte bot dennoch Anlass zur Kritik. Die Organisation Reporter ohne Grenzen erhob zur selben Zeit schwere Vorwürfe gegen die Regierung wegen der Inhaftierung und Folterung von Journalisten. Außerdem waren im Zusammenhang mit den Terroranschlägen vom 11. September 2001 sowie von Casablanca (16. Mai 2003) und Madrid (2004) zwischen 2.000 und 7.000 Personen verhaftet worden. Deshalb startete im Mai 2005 ein neues Programm zur wirtschaftlichen und sozialen Entwicklung der Slums, die als Hauptnährboden für islamistische Gewalt gelten. Anfang 2011 kam es unter dem Eindruck des Arabischen Frühlings zu Protesten in mehreren Städten, bei denen eine demokratische Verfassung gefordert wurde. Die Staatsspitze reagierte darauf mit einem Verfassungsreferendum, das von der Oppositionsbewegung jedoch boykottiert wurde. Die mit 98 % Zustimmung angenommene Verfassungsänderung schreibt erstmals Tamazight als Amtssprache neben Arabisch fest und verschiebt einige Kompetenzen vom König auf den Premierminister und das Parlament. Auch ist der König nun verpflichtet, den Premierminister aus der Partei zu ernennen, die bei den Wahlen die meisten Parlamentssitze erhalten hat. Bisher hatte er diesbezüglich freie Hand. Politisches System. Gemäß der Verfassung von 1992, zuletzt geändert 1996, ist Marokko eine konstitutionelle Monarchie, deren derzeitiges Staatsoberhaupt seit dem 24. Juli 1999 König Mohammed VI. ist, der der Dynastie der Alawiden angehört. Er ist Oberbefehlshaber der Streitkräfte. Der König ernennt nicht nur den Ministerpräsidenten, der in der Regel von der stärksten politischen Partei des Parlamentes vorgeschlagen wird, sondern auch einzelne Minister und muss dem gesamten Kabinett zustimmen. Außerdem hat er das Recht, das Parlament jederzeit aufzulösen und den Ausnahmezustand zu verhängen. Im Vergleich zu europäischen Monarchen hat der marokkanische König weitergehende Kompetenzen, wobei jedoch in der Praxis der Ministerpräsident die politischen Tagesgeschäfte führt. Ministerpräsident ist seit November 2011 Abdelilah Benkirane, zuvor Generalsekretär der moderat islamistischen Partei für Gerechtigkeit und Entwicklung (PJD), der seit den Parlamentswahlen in Marokko 2011 stärksten Partei im Parlament. Nach den Wahlen vom 25. November 2007 hatte Abbas El Fassi eine Koalitionsregierung angeführt. Parlament. Marokko verfügt seit der Verfassungsreform von 1996 über ein Zweikammersystem aus Nationalversammlung und Senat. Die Nationalversammlung besteht aus 325 Mitgliedern, die alle fünf Jahre direkt gewählt werden; 30 Sitze sind für Frauen reserviert. Wahlberechtigt sind alle Marokkaner ab dem Alter von 20 Jahren. Die Nationalversammlung kann mit Zweidrittelmehrheit dem Ministerpräsidenten das Misstrauen aussprechen. Der Senat besteht aus 270 Mitgliedern, die alle neun Jahre in indirekter Wahl bestimmt werden. Die vom Parlament verabschiedeten Gesetze bedürfen der Zustimmung des Monarchen. Dieser kann auch Gesetze dem Volk zur Abstimmung vorlegen. Wahlen. Stärkste Parteien wurden 2011 die Partei für Gerechtigkeit und Entwicklung, frz. "Parti de la justice et du développement" (PJD), mit 107 Sitzen, vor der konservativen Partei Istiqlal (PI) mit 60 und dem Bündnis Nationale Sammlung der Unabhängigen mit 52 Sitzen. Insgesamt traten zur Wahl 31 Parteien an. In der Wahl wurden insgesamt 395 Parlamentssitze vergeben, davon 305 Sitze über Parteilisten in 92 Wahlbezirken. Die weiteren 90 Sitze werden über eine so genannte "nationale Liste" gewählt; 60 Sitze sind für Frauen und 30 Sitze für junge Abgeordnete unter 40 Jahren reserviert. Die Parlamentswahlen vom 7. September 2007 hatten sich als relativ frei und fair erwiesen, allerdings bei sehr geringer Wahlbeteiligung. Nur 37 % der Wahlberechtigten gaben ihre Stimmen ab, von denen noch einmal 19 % ungültig waren - ein historisches Tief. Stärkste Parteien wurden Istiqlal, PJD, MP, RNI und UNFP. Die islamisch-orientierte PJD wurde zweitstärkste Partei. Wahlergebnis. Die Wahlbeteiligung lag trotz Boykottaufrufen einiger Oppositionsgruppen bei etwa 45 % und war damit gegenüber der letzten Wahl deutlich höher. Dieser Prozentsatz bezieht sich allerdings lediglich auf die Zahl der registrierten Wähler, die trotz Bevölkerungswachstums mit rund 13,5 Millionen geringer war als 2007 (ca. 15 Millionen). Die wahlberechtigte Bevölkerung insgesamt beträgt rund 21 Millionen. Die restlichen 17 Sitze verteilen sich auf zehn weitere Parteien. Rechtssystem. Die Verfassung des Landes gewährt eine unabhängige Judikative. Das Rechtswesen orientiert sich weitgehend am französischen Vorbild. Im Familien- und Erbrecht gilt die Moudawana, die europäisches Zivilrecht enthält und auf die Gesetze des sunnitischen Islam (Schari’a) zurückgeht. Für Juden gilt talmudisches Familienrecht. Höchste juristische Instanz ist der Oberste Gerichtshof in Rabat. Dessen Richter werden vom König ernannt. Menschenrechte. Amnesty International sieht die Rechte auf Meinungs-, Vereinigungs- und Versammlungsfreiheit im Zusammenhang mit der staatlichen Sicherheit stark eingeschränkt. Die Regierung reagiert teilweise sehr intolerant auf Meinungen oder Informationen, die als Angriff auf die Monarchie gewertet werden. So wurden Menschenrechtsverteidiger, Journalisten und weitere Personen strafrechtlich verfolgt, weil sie Korruption angeprangert und die Behörden kritisiert hatten. Frauen. Frauen und Männer haben laut Verfassung (von 2011) die gleichen Rechte. Die marokkanische Verfassung verlangt außerdem, dass Frauen bei der Eheschließung volljährig sein müssen, obwohl gewisse Ausnahmen zulässig sind. Allerdings hat das marokkanische Justizministerium in einer Studie festgestellt, dass die Zahl von minderjährig Verheirateten von 2004 bis 2013 auf fast das Doppelte angestiegen ist (von 18 341 auf 35 152). Laut Spiegel rechtfertigt das selbst der Ministerpräsident Abdelilah Benkirane mit der Religion als er im Parlament die Frage stellte „Warum akzeptieren wir nicht den heiligen Status, den Gott den Frauen [als Gattin und Mutter] gegeben hat?“. Laut Genfer Weltwirtschaftsforum rangiert Marokko bei den Frauenrechten auf Platz 133 von 142. Das marokkanische Strafgesetz kann gleichgeschlechtliche Handlungen mit einer Gefängnisstrafe von sechs Monaten bis zu drei Jahren ahnden. Das Gesetz findet in der Praxis nur selten Anwendung, trotzdem kommt es immer wieder zu Razzien und Verhaftungen. Außenpolitik. Wegen der Aufnahme der Arabischen Demokratischen Republik Sahara (Westsahara) in die Afrikanische Union (AU) hat Marokko als einziger afrikanischer Staat seine Mitgliedschaft der AU, die Marokko mitbegründet hat, zurückgezogen. Militär. Das marokkanische Militär wurde 1956 nach der Unabhängigkeit von Frankreich und Spanien gegründet. Es ist heute in fünf Teile gegliedert. Zwischen 1951 und 1963 bestanden in Marokko mehrere Basen des US-amerikanischen Strategic Air Command. Das Militär kämpfte 1973 im Jom-Kippur-Krieg, nahm 1975 am Grünen Marsch teil und griff 1977 in den Shaba-Konflikt zwischen Zaire und Angola ein. Am 31. August 2006 wurde die allgemeine Wehrpflicht in Marokko abgeschafft. Die Militärausgaben beliefen sich im Jahr 2004 auf 2,0 Mrd. US-$. Verwaltungsgliederung. Im Rahmen eines Dezentralisierungsprogrammes wurden 1997 die 61 Provinzen zu 16 Regionen (Wilāya, arab. ولاية, Plural: Wilāyāt, arab. ولايات) zusammengefasst. An der Spitze jeder Region steht ein vom König ernannter Wali (Gouverneur). Oued ed Dahab-Lagouira, der größte Teil von Laâyoune-Boujdour und Teile von Guelmim-Es Semara bilden die Westsahara, deren Zugehörigkeit zu Marokko jedoch international nicht anerkannt ist. Marokko gliedert sich nach der Volkszählung von 2004 in 1689 kommunale Einheiten folgender Art: 41 Arrondissements — AR, 193 "municipalités — MU" (Munizipien, städtische Kommunen), 1298 "communes rurales — CR" (ländliche Kommunen) und 157 "autres centres — AC" (andere zentrale Orte). Allgemein. Die Stützen der marokkanischen Volkswirtschaft sind die Landwirtschaft und der Bergbau; daneben wird an einem Aufbau (der Infrastruktur) der Fischindustrie gearbeitet. Von sehr großer Bedeutung ist die Phosphatgewinnung. Die zunehmende Verarbeitung der Rohphosphate in der eigenen Düngemittel- und Chemieindustrie steigert den Ausfuhrwert. Um die Industrialisierung auch in anderen Bereichen voranzutreiben, bemüht sich Marokko um die Ansiedlung ausländischer Investoren. Eine weitere Öffnung des Marktes wurde Mitte der neunziger Jahre angekündigt. Marokko verfügt über eine marktwirtschaftlich orientierte Wirtschaftsordnung, die den Schutz des Eigentums sowie Gewerbe- und Niederlassungsfreiheit und Wettbewerb vorsieht. Zu Zeiten Hassans II. stellte Marokko einen Antrag zur Aufnahme in die EG, der jedoch abgelehnt wurde. Marokkos Ziel einer engeren Anbindung an die EU ist mit der Unterzeichnung eines Assoziationsabkommens mit der EU im Jahr 1996 (in Kraft getreten im Jahr 2000) ein Stück näher gerückt. Seit den späten 1980er Jahren bemüht sich das Königreich, seine Staatsbetriebe zu privatisieren. Mit den USA wurde 2004 eine Freihandelszone vereinbart. Das US-amerikanisch-marokkanische Freihandelsabkommen wurde im Juli 2004 vom US-Senat ratifiziert und wird, sobald es in Kraft tritt, den Handel für 95 % der Industrie- und Konsumgüter ohne Zölle ermöglichen und den Handel mit Agrargütern für beide Länder erheblich erleichtern. Anfang 2014 war die dritte Verhandlungsrunde zu einem Freihandelsabkommen mit der Europäischen Union abgeschlossen. Bodenschätze. Marokko ist reich an Phosphat; etwa 75 % des weltweit geförderten Phosphats stammen aus Marokko. Daneben gibt es Vorkommen von Erdöl, Erdgas, Kohle, Salz, Eisenerz, Blei, Kupfer, Zink, Silber, Gold, Mangan, Nickel, Cobalt. Seinen Bedarf an Energie kann Marokko nur zu rund 13 % aus eigenen Mitteln decken. In der umstrittenen Westsahara sind ebenfalls große Mengen an Phosphat vorhanden, darüber hinaus werden dort große Erdöl- und Erdgas-Vorkommen vermutet. Dass Marokko die Ausfuhr von gefundenen Meteoriten ungewöhnlicherweise rechtlich nicht beschränkt, führt vielfach zur Meteoritensuche in der dort liegenden Wüste, auch dem Einschmuggel von Meteoriten aus Nachbarländern wie etwa Libyen und einem breiten öffentlichen Marktangebot. Ein Crowdfunding zum Ankauf des zweiteiligen größeren Mondmeteorits "Oued Awlitis 001" um 110.000 € für das Naturhistorische Museum Wien misslang im Januar 2015. Elektrizitätsversorgung. Laut dem "Office National de l’Electricité et de l’Eau Potable" (ONEE) betrug die installierte Leistung der Kraftwerke in Marokko am Ende des Jahres 2013 7.342,2 MW, davon entfielen auf kalorische Kraftwerke 5.077 MW (69,15 %), auf Wasserkraftwerke 1.770 MW (24,1 %) und auf Windkraftanlagen 495,2 MW (6,7 %). Insgesamt wurden im Jahre 2013 26,94 Mrd. kWh produziert, davon 22,48 Mrd. (83,44 %) durch kalorische Kraftwerke, 2,99 Mrd. (11,1 %) durch Wasserkraftwerke und 1,356 Mrd. (5,0 %) durch Windkraftanlagen. Im Jahre 2011 lag Marokko sowohl bzgl. der jährlichen Erzeugung mit 23,65 Mrd. kWh als auch bzgl. der installierten Leistung mit 6.413 MW an Stelle 70 in der Welt. Das mit Stand 2014 größte Kraftwerk des Landes ist das Kohlekraftwerk Jorf Lasfar mit einer installierten Leistung von 2.056 MW, das ca. 1/3 des Strombedarfs Marokkos abdeckt. Das Verbundnetz Marokkos ist seit 1997 mit dem europäischen Verbundsystem synchronisiert, als ein erstes Drehstrom-Seekabel (400 kV, 700 MW) von Spanien aus verlegt wurde. 2006 folgte ein weiteres Seekabel mit derselben Leistung, so dass die Übertragungskapazität zwischen Spanien und Marokko jetzt bei 1.400 MW liegt. Marokko bezieht jährlich über 5 Mrd. kWh aus Spanien. Energiewende. Marokko hat sich ambitionierte Ziele gesetzt, die Energiewirtschaft durch eine Energiewende zu transformieren und damit Nachhaltigkeit und Energiesicherheit der Energiewirtschaft Marokkos zu stärken. Die Umstellung von fossilen auf Erneuerbare Energien bei gleichzeitiger Steigerung der Energieeffizienz, die im Rahmen des Nationalen Energieplans vorangetrieben wird, gilt als wichtigste Aufgabe der marokkanischen Politik. Um unabhängiger von fossilen Energieimporten zu werden, investiert das Land in den Ausbau von Wind- und Solarenergie. Am 10. Mai 2013 wurde mit einem symbolischen Spatenstich des Königs Mohammed VI. die Umsetzung des marokkanischen Solarplans, bis zum Jahr 2020 2 GW Solarkapazität aufzubauen, gestartet. Als erstes wird das solarthermische Kraftwerk Ouarzazate errichtet, das unter anderem von Deutschland mit rund 770 Millionen € gefördert wird. Im Februar 2013 teilte der französische Energieversorger GDF Suez mit, dass er in Marokko den nach eigenen Angaben größten Windpark Afrikas bauen (bzw. von Siemens bauen lassen) und betreiben will. Nahe dem Küstenstädtchen Tarfaya sollen 131 Windkraftanlagen mit einer Nennleistung von 300 Megawatt errichtet werden. Die Gesamtkosten des Projekts beziffert GDF Suez auf 450 Millionen Euro. Der Windpark soll 2014 in Betrieb gehen und rund 40 Prozent des stetig ansteigenden Strombedarfs Marokkos liefern. Im März 2014 wurde ein Tender für weitere 850 MW an Windkraftkapazität ausgeschrieben. Bis 2020 sollen 2 GW Windleistung installiert sein und parallel dazu eine eigene Windkraftindustrie aufgebaut werden. Zu diesem Zeitpunkt waren landesweit 495 MW in Betrieb, 450 MW in Bau und über 500 MW in Planung. Landwirtschaft. Die Landwirtschaft Marokkos machte 2003 17 % am BIP aus, kann jedoch als wichtigster Wirtschaftssektor betrachtet werden, da hier 43,6 % der erwerbstätigen Bevölkerung beschäftigt sind. Landwirtschaftlich genutzt werden vor allem der Westen und Nordwesten Marokkos; rund 18 % der Landesfläche sind Ackerland. Umfangreiche Bewässerungskulturen finden sich in den Küstenebenen Rharb (Sebou-Niederung) und Sous sowie bei Marrakesch und Fès; um weitere Flächen bewässern zu können, werden zusätzlich Staudämme gebaut. Die ungleiche Landverteilung zwischen den kleinen Bauern und den Großgrundbesitzern, die den größten Teil des Bodens bewirtschaften, konnte auch durch mehrere Agrarreformen kaum verändert werden. Angebaut werden Getreide (Weizen, Gerste, Mais, Hirse, Reis), Hülsenfrüchte, Zuckerrüben, Datteln, Sonnenblumen, Erdnüsse, Oliven, Zitrusfrüchte (vor allem Orangen), Baumwolle, Wein, Mandeln, Aprikosen, Erdbeeren, Frühkartoffeln, Spargel, Artischocken und Tabak. Die Viehzucht in den Steppen der Meseta, im Osten des Landes und in den Gebirgen wird teilweise nomadisch betrieben (Schafe, Ziegen, Rinder, Esel, Dromedare, Pferde, Geflügel). Rund 10 % des Waldbestandes sind Korkeichen; Marokko ist der drittgrößte Korkproduzent der Welt. Küsten- und Hochseefischerei an der Atlantikküste (Sardinen und Schalentiere) sind bedeutend für den Export. Auf einer Fläche von ca. 250.000 Hektar wird Cannabis angebaut, um Haschisch zu erzeugen, das in Europa einen Marktanteil von etwa 70 % besitzt. Vom Export, der etwa 3.000 Tonnen Haschisch pro Jahr umfasst, leben schätzungsweise 200.000 Bauern mit Familien, also ca. 1 Million Menschen. Industrie. Im Industriesektor, dem Bergbau und der Bauwirtschaft wurden 2003 insgesamt 30 % des BIP erwirtschaftet, dort beschäftigt sind aber nur 19,7 % aller Erwerbstätigen. Die Industrie ist stark auf den Binnenmarkt ausgerichtet; ausländische Märkte gewinnen jedoch an Bedeutung. In der Nahrungsmittelindustrie herrschen die Zucker- und Ölerzeugung sowie die Herstellung von Obst-, Gemüse- und Fischkonserven vor. Günstig entwickelt haben sich Metall- und Kunststoffverarbeitung sowie Kraftfahrzeugindustrie und Montage von Elektrogeräten. Es gibt ferner eine bedeutende chemische Industrie, Zementproduktion und Erdölverarbeitung. Ein nach wie vor wichtiger Wirtschaftszweig ist das traditionelle Handwerk (Teppiche, Leder-, Kupfer-, Gold- und Silberarbeiten). Das größte Unternehmen Marokkos ist die Firma OCP mit Hauptsitz in Casablanca. OCP ist Weltmarktführer in der Phosphat- und Düngemittel-Produktion. Fischerei. Der Haupthandelspartner ist Europa, z. B. in der "Pulindustrie", d. h. gekochte Nordseegarnelen werden zum Pulen (Entfernen der Chitin­hülle) nach Polen, Russland oder Marokko gebracht, weil das Pulen dort 20-mal billiger ist als in Deutschland das Maschinenpulen. Die Jobs sind begehrt. Die Arbeiter, meist Frauen (30 % können lesen und schreiben), können etwa 150 Euro im Monat verdienen. Wenn die Garnelen nach Deutschland zurückkommen, sind sie etwa drei Wochen alt. Das Geld zur Modernisierung der Fischindustrie kommt von der EU. Sie zahlte für Fanglizenzen seit 2007 36 Millionen Euro jährlich. Häfen wurden modernisiert, Fischereizentren und Forschungseinrichtungen wurden gebaut. Allerdings wurden durch die industriellen Massenfangmethoden die Gewässer systematisch leergefischt, die einheimischen Fischer konnten nicht mithalten, um zu Überleben, befördern sie als Fährleute Wirtschaftsflüchtlinge nach Europa (= Kanarische Inseln). „So sorgt die EU indirekt selbst für seeerfahrene ‚Reiseunternehmer/innen‘ und Bootsflüchtlinge“. Dienstleistungen und Tourismus. Im Dienstleistungsbereich wurden 2003 54 % des BIP erwirtschaftet, wobei 36,7 % der Erwerbstätigen in diesem Sektor arbeiten. Marokko ist eines der bedeutendsten Reiseziele Nordafrikas und erwirtschaftet 10 % seiner Devisen durch den Tourismus. Etwa 80 % der Touristen, die Marokko besuchen, sind Europäer; die größte Gruppe stellen Franzosen, gefolgt von Spaniern. Marokko empfing 2013 zehn Millionen Touristen; 2012 waren es 9,4 Millionen, 2008 waren es insgesamt acht Millionen, die einen Umsatz von ca. 115 Milliarden Dirham generierten. Außer der vielfältigen Landschaft und den kulturellen Unterschieden bietet Marokko eine Vielzahl von Sehenswürdigkeiten seiner orientalischen Geschichte. Die am meisten besuchten Städte sind Marrakesch, Agadir, Casablanca, Tanger, Fès, Ouarzazate und Rabat. Im Jahr 2011 betrugen die Einnahmen durch Touristen in Marokko rund 7307 Millionen US-Dollar. Der Tourismus ist einer der wichtigsten Standbeine für die wirtschaftliche Entwicklung Marokkos. Er trägt etwa zehn Prozent zum Bruttoinlandsprodukt bei und sorgt gegenwärtig für mehr als 500.000 Arbeitsplätze. Außenhandel. 1961 wurde ein Handelsabkommen zwischen der Bundesrepublik Deutschland und Marokko abgeschlossen. Exportiert wurden 2004 Güter in einem Gesamtwert von 9,6 Mrd. US-$. Hauptexportgüter Marokkos sind Konsumgüter, die 37 % des Exportvolumens (davon 31 % Textilien) ausmachten. 27 % waren Halbwaren (8 % Phosphorsäure, 6 % Transistoren, 5 % Düngemittel), 16 % Nahrungsmittel, 8 % Investitionsgüter und 7 % Rohstoffe. Hauptabnehmer marokkanischer Güter sind Frankreich (33 %), Spanien (17 %), Großbritannien (8 %), Italien (5 %), die USA (4 %), Indien (4 %) sowie Deutschland und Brasilien (jeweils 3 %). Importiert werden nach Marokko jährlich Güter im Gesamtwert von 14,9 Mrd. US-$. Hauptsächlich handelt es sich hierbei um industrielle Vorprodukte und Halbwaren (23 %), Konsumgüter (23 %), Investitionsgüter (21 %), Rohöl (9 %), Nahrungsmittel (9 %), Brennstoffe (7 %) sowie Tiere und Pflanzen (5 %). Hauptlieferanten dieser Importgüter sind Frankreich (18 %), Spanien (12 %), Italien (7 %), Deutschland (6 %), Russland (6 %), Saudi-Arabien (5 %) und die VR China (4 %). Seine defizitäre Handelsbilanz kann das Land durch Überweisungen der im Ausland tätigen Marokkaner sowie durch steigende Einnahmen aus dem Tourismus teilweise ausgleichen. Allein in Europa leben ca. eine Million marokkanische Arbeitsemigranten, die durch ihre Überweisungen für eine Devisenzufuhr von etwa 2,2 Milliarden Euro sorgen. Staatshaushalt. Der Staatshaushalt umfasste 2009 Ausgaben von umgerechnet 23,9 Mrd. US-Dollar, dem standen Einnahmen von umgerechnet 22,9 Mrd. US-Dollar gegenüber. Daraus ergibt sich ein Haushaltsdefizit in Höhe von 1,1 % des BIP. Die Staatsverschuldung betrug 2009 49,7 Mrd. US-Dollar oder 54,1 % des BIP. Infrastruktur. Die Verkehrswege sind vor allem im Nordwesten gut ausgebaut. Das Straßennetz umfasst 62.000 km, ca. die Hälfte ist asphaltiert. Über 1458 km sind Autobahnen. Im Bereich der Großstädte sind die Straßen zum Teil überlastet. Das vom "Ministère de l’Equipement, du Transport et de la Logistique" unterhaltene Straßennetz wird in vier Kategorien klassifiziert: Autobahnen, Nationalstraßen, Regionalstraßen und Provinzial-Straßen. Schienenverkehr. Die Eisenbahn wird von der staatlichen "Office National des Chemins de Fer (ONCF)" durchgeführt. Das Rückgrat des Eisenbahnnetzes (2.109 Kilometer Streckenlänge) bildet die Strecke von Oujda an der algerischen Grenze über Fes und Casablanca nach Marrakesch, von der mehrere Stichbahnen abzweigen. Über 1.000 km der Eisenbahn sind elektrifiziert. Es sind zwei TGV-Linien zwischen Tanger und Agadir und zwischen Casablanca und Oujda geplant, die bis zum Jahr 2030 in Betrieb gehen sollen. Die erste Etappe, die LGV Tanger–Kenitra, soll im Frühjahr 2018 eröffnet werden. Im Schienengüterverkehr ist der Transport von Phosphat zu den Häfen am Atlantik mit etwa 27 Millionen Tonnen bedeutsam. Luftverkehr. Siehe auch Liste der Flughäfen in Marokko Marokko besitzt ein gut ausgebautes Flugnetz mit 15 internationalen Flughäfen und einer Vielzahl kleiner nationaler Flughäfen. Führender Flughafen ist Casablanca. Der für den Tourismus wichtigste Flughafen ist Agadir. Führende Airline ist die staatliche Royal Air Maroc. Betrieben werden die Flughäfen durch die "Office National des Aéroports (ONDA)". Schiffverkehr. In Tanger entstand 2006–2007 eines der größten Hafenprojekte des Mittelmeerraumes, unter anderem ein Tiefwasser-Containerterminal. Neben dem Containerhafen entstand ein Fährhafen für 5 Millionen Passagiere und 500.000 Fahrzeuge im Jahr, Terminals für Schüttgut, Stückgut, Öl- und Gasterminals. Konkurrent für den Umschlag zwischen Europa und Nordafrika und dem Mittelmeerraum sowie den Golfstaaten Richtung Nordamerika ist der gegenüber gelegene europäische Hafen Algeciras in Spanien. Bildungswesen. Der Schulbesuch ist seit 1963 für 5- bis 13-Jährige obligatorisch und wurde 2002 auf die bis zu 15-Jährigen erweitert. Die Einschulungsquote beträgt 92 %, von den 15-Jährigen besucht jedoch nur noch die Hälfte die Schule. So sind noch etwa knapp 30 (so die offizielle Schätzung) bis 45 % der über 15-Jährigen vor allem in ländlichen Regionen Analphabeten, darunter weitaus mehr Frauen als Männer. Der Unterricht erfolgt in den beiden ersten Schuljahren ausschließlich in arabischer Sprache, danach werden Mathematik und Naturwissenschaften in französischer Sprache unterrichtet. Etwa seit dem Jahr 2000 wurden die Bildungsanstrengungen stark erhöht. Das Bildungsbudget übersteigt seither das vieler anderer arabischer Staaten, jedoch gilt die Effizienz nach Analysen der Weltbank immer noch als sehr gering. Die Abbrecherquote in der Sekundarstufe ist hoch; weniger als 15 Prozent der Schüler erreichen das Abitur. Marokko bildete 2003 mit Jemen und dem Irak nach Weltbankanalysen die Schlussgruppe bei einem Ranking der Schulleistungen in den arabischen Ländern. In Mathematik und Naturwissenschaften stellte Marokko 2003 das absolute Schlusslicht im Vergleich arabischer Länder dar. Ein Schwerpunkt der Bildungsanstrengungen wurde seither auf die Informatikausbildung gelegt. Doch sind auch die neugegründeten Schulen und Hochschulen unterfinanziert. Es fehlt an Computern, Lehrbüchern und Plätzen für Praktika; die Fachrichtungsstruktur geht z. T. am Bedarf vorbei, so dass zahlreiche Absolventen der Sekundarschulen und Hochschulen nur schwer eine angemessene Beschäftigung im Land finden. Die Ursachen dieser Schwächen sieht die Weltbank vor allem in der quantitativ und qualitativ unzureichenden Primarschulbildung, zu der der mit hohen Kosten modernisierte Überbau des Sekundarschulwesens und der Hochschulen in einem Missverhältnis steht, sowie in einer traditionalistischen pädagogischen und didaktischen Ausbildung, zentralistischen Entscheidungsstrukturen und einer fehlenden Evaluation. Dementsprechend ist das berufsbildende Schulwesen nur schwach entwickelt; es fehlt an praktischen Ausbildungsmöglichkeiten. Film. Marokko gilt bis heute als beliebter Schauplatz für Historien- und Bibelverfilmungen. Viele namhafte Regisseure, darunter Ridley Scott (Gladiator, Königreich der Himmel) und Franco Zeffirelli (Jesus von Nazareth) haben hier ihre Filme gedreht. Auch wurde hier zwischen 1993 und 2001 die 13-teilige TV-Serie "Die Bibel" produziert. Viele der Einwohner von Ouarzazate, Aït-Ben-Haddou und der unmittelbaren Umgebung sowie deren Familien leben von der Filmindustrie, da sie bei der Produktion oft für die authentische Komparserie sorgen. Minos. Minos () ist in der griechischen Mythologie Sohn des Zeus und der Europa - und der Bruder von Rhadamanthys und Sarpedon. Er war ein König von Kreta, der Gemahl der Pasiphaë. Mit Pasiphaë war er der Vater von Akakallis, Androgeos, Ariadne, Deukalion, Glaukos, Katreus, Phaidra und Xenodike. Historisches. Herodot bezeichnet Minos als den Errichter der ersten Thalassokratie, die die Piraterie im östlichen Mittelmeer erfolgreich bekämpfte und die Quelle des kretischen Reichtums war. ("Siehe auch" Seeherrschaft.) Nach u.a. Thukydides soll Minos sich die Karer untertänig gemacht (und Milet erobert haben) bzw. von Kreta und/oder den Inseln der Ägäis vertrieben haben und große Teile des ägäischen Meers beherrscht haben. Bezüglich der Frage, ob Kreta während der minoischen Zeit wirklich eine Thalassokratie war, herrscht bis jetzt in der Forschung keine Einigkeit. Minos und Britomartis. Die Nymphe Britomartis war eine Tochter des Zeus und somit Halbschwester des Minos. Dieser verliebte sich in sie und verfolgte das wilde Mädchen neun Monate lang durch die Berge Kretas. Als er sie auf einem steilen Felsen des Diktegebirges fast ergreifen konnte, blieb ihr Kleid an einem Myrtenzweig hängen; sie rettete sich durch einen Sprung ins Meer und landete in den Netzen von Fischern, die sie in Sicherheit brachten. Artemis erhob sie später in den Rang einer Göttin. Minos und Prokris. Um die eheliche Treue ihres Gemahls sicherzustellen, belegte Pasiphaë den König mit einem Zauber: Bei der Umarmung entströmten seinem Leib Schlangen, Skorpione und Tausendfüßler. Da traf Prokris auf der Insel ein, die eben im Streit mit Kephalos lag. Sie heilte Minos von seinem Leiden. Er machte ihr dafür einen unfehlbaren Speer und den schnellen, unsterblichen Hund Lailaps zum Geschenk – Gaben, die einst sein Vater Zeus der Europa überreicht hatte. In einer anderen Version hieß es nur, dass Prokris die einzige war, die mit Minos ungestraft verkehren konnte, weil sie sich zuvor mit der Essenz einer Heilpflanze wappnete. Minos und der Stier. Nach einer Erzählung wurden er und seine Brüder von Asterios, dem König von Kreta, adoptiert. In der Frage, wer dessen Nachfolge antreten sollte, kam es zum Streit zwischen den dreien. Minos rief Poseidon um Beistand an und versprach, was immer aus dem Meer erschiene, dem Gott zu opfern. Poseidon schickte ihm einen prächtigen Stier, so dass damit der Streit entschieden war und Minos König von Kreta wurde. Der Stier gefiel ihm allerdings so gut, daß er ihn nun nicht opfern wollte, sondern ein anderes Rind darbringen ließ. Poseidon erkannte den Betrug und schlug zur Strafe Minos’ Gemahlin Pasiphaë mit dem Verlangen, sich mit dem Stier zu vereinen. Sie ließ sich von Daidalos ein hölzernes Gestell bauen, das mit Kuhhaut verkleidet war. Darin verbarg sie sich und ließ sich so von dem Stier begatten. Als Frucht dieser Vereinigung gebar sie ein menschenfressendes Ungeheuer: den Minotauros, ein Wesen mit menschlichem Körper und Stierkopf. Im Zuge seiner achten Arbeit brachte Herakles den Stier auf die Peloponnes. Dort richtete das wilde Tier großen Schaden an. Androgeos, einer von Minos’ Söhnen, wollte seine Geschicklichkeit im Kampf gegen den Stier erproben, fiel diesem aber zum Opfer. Als Minos die Nachricht erhielt, brach er zu einem Rachefeldzug gegen Athen auf; manche sagten nämlich, König Aigeus von Attika habe Androgeos zu dem Tier geschickt. Minos und die Athener. Er zog zunächst gegen Megara, wo Nisos herrschte, ein Bruder des Aigeus. Nisos verlieh eine purpurne Locke Unsterblichkeit. Seine Tochter Skylla verliebte sich jedoch in den fremden König und schnitt ihrem Vater die Locke ab. Minos siegte, dankte es dem Mädchen aber schlecht: Er ließ sie an seinem Schiff angebunden durch das Meer schleifen. Gegen das wehrhafte Athen allerdings konnte Minos zunächst nichts ausrichten. Also rief er seinen Vater Zeus um Hilfe an; dieser erhörte ihn und sandte Pest und Hungersnot. Den Athenern erlegte Minos nach ihrer Kapitulation eine grausame Steuer auf: Alle neun Jahre mussten sie sieben Jünglinge und sieben Jungfrauen nach Kreta senden, wo diese dem Minotauros geopfert wurden. Minos und das Labyrinth. Für den Minotauros hatte er von Daidalos ein Labyrinth erbauen lassen. Die Jünglinge und Jungfrauen wurden hineingeschickt und so dem Ungeheuer zum Fraß vorgeworfen. Erst Theseus, der Sohn des Aigeus, beendete diesen Opferritus, indem er selbst mitfuhr und den Minotauros tötete. Dabei war ihm Minos’ Tochter Ariadne mit ihrem Faden behilflich; nur so konnte er aus dem Labyrinth wieder herausfinden. Als der Held Kreta verließ, nahm er Ariadne mit sich. Erzürnt sperrte Minos daraufhin den Architekten Daidalos mit dessen Sohn Ikaros in das Labyrinth. Sie konnten entkommen und flohen mit Hilfe selbstgebauter Schwingen von der Insel. Ikaros überlebte den Flug nicht, weil er der Sonne zu nahe kam. Dabei schmolz das Wachs zur Befestigung der Federn und er stürzte ins Meer. Minos aber verfolgte Daidalos bis nach Sizilien, wo dieser bei König Kokalos Schutz gefunden hatte. Kokalos empfing den Kreterkönig mit vorgetäuschter Gastfreundschaft, ließ ihn jedoch im Bade töten. Je nach Version wurde Minos dort von Kokalos’ Töchtern ertränkt oder durch kochendes Wasser ums Leben gebracht. Lange danach soll Theron, Tyrann von Akragas, die Gebeine von König Minos gefunden und nach Kreta zurückgeschickt haben. Minos im Hades. Nach seinem Tode herrschte der weise irdische König Minos mit goldenem Zepter als Richter der Toten in der Unterwelt, an der Seite seines Bruders Rhadamanthys und seines Halbbruders Aiakos. Minos als Namensgeber. Nach Minos wurde die Kultur von Altkreta durch Arthur Evans als minoisch bekannt, was auf eine Benennung durch Arthur Milchhoefer zurückgeht. Bedeutende Zeugnisse dieser Kultur sind die Palastanlagen von Phaistós und Knossós; Letztere war wegen ihrer verwinkelten Architektur vermutlich der Ursprung der Legende vom Labyrinth. Die Verbindung von Minos mit der minoischen Kultur gilt jedoch als nicht gesichert, da ihn Homer nicht nur als Sohn des Zeus, sondern auch als Achäer bezeichnet, die zumeist mit den mykenischen Griechen gleichgesetzt werden. Die retrospektive Vereinnahmung wurde jedoch betrieben, wie die von Zeus und Europa, um die Bedeutung des Zeus zu erhöhen. Zu Blütezeit der kretischen Hochkultur etwa 1.600 v. Chr. war der Zeusglaube noch nicht installiert. Dieser wurde vermutlich in den Dunklen Jahrhunderten oder sogar erst 800 v. Chr. durchgesetzt. Magnetische Feldkonstante. mit den Einheiten Newton (N) und Ampere (A). Terminologie. Historisch hatte die Konstante formula_7 verschiedene Namen. Bis 1987 sprach man von der "„magnetischen Permeabilität des Vakuums“". Jetzt heißt sie in der Physik "magnetische Feldkonstante". Bei formula_11 ist formula_7 die Vakuumpermeabilität und formula_13 die relative Permeabilität. Wert. Hierbei sind formula_19 und formula_20 die Ströme in den Leitern, formula_21 die Länge der Leiter und formula_22 deren Abstand zueinander. Verwendete Einheiten: H – Henry, m – Meter, V – Volt, s – Sekunde, A – Ampere, T – Tesla, J – Joule, N – Newton, kg – Kilogramm, C – Coulomb. Manga. Gang in der Manga-Abteilung einer japanischen Buchhandlung Manga (jap., Hiragana:, Katakana: etwa: "zwangloses, ungezügeltes Bild") ist der japanische Begriff für Comics. Außerhalb von Japan bezeichnet er im fachwissenschaftlichen Sinne ausschließlich aus Japan stammende Comics, anderweitig wird er aber auch zur Bezeichnung von nichtjapanischen Comics mit Manga-Stilelementen verwendet. Die als typisch angesehenen Stilelemente von Manga finden sich auch in japanischen Animationen, den Anime, wieder. Begriffsabgrenzung. Ähnlich wie der westliche Begriff,Comic‘ ist auch,Manga‘ in seiner Bedeutung eher unscharf und schließt neben statischen Bildergeschichten, kurzen Comic Strips und Karikaturen, auch Zeichentrickfilme mit ein. Um sie besser von Comics in Buchform unterscheiden zu können, hat sich für japanische Zeichentrickfilme jedoch weltweit die Verwendung des Fachwortes Anime durchgesetzt. In Japan wird der Begriff,Manga‘ gleichberechtigt mit,Comic‘ ("komikku") für alle Arten von Comics verwendet, unabhängig von ihrer Herkunft. In Abgrenzung zu den japanischen Manga werden Comics aus Südkorea als Manhwa und Comics aus dem chinesischen Raum als Manhua bezeichnet. Im Westen bezeichnete man mit ‚Manga‘ zunächst meist nur Comics aus Japan, mittlerweile wird der Begriff aber vor allem von Comicverlagen auch zunehmend für Comics aus anderen Ländern verwendet, die sich am Stil japanischer Produktionen orientieren. International wird jedoch vor allem in Fankreisen diskutiert, ob auch Werke nicht-japanischer Zeichner als „Manga“ bezeichnet werden können. Während sich im englischen Sprachraum für von englischsprachigen Künstlern gezeichnete Comics im Manga-Stil mittlerweile der Begriff ",original English-language manga‘" (oder kurz ",OEL manga‘") eingebürgert hat, hat sich im Deutschen bislang kein einheitlicher Ausdruck durchgesetzt. Entwicklung der japanischen Comics. Die ältesten bekannten Vorläufer der japanischen Comic-Kunst sind Zeichnungen und Karikaturen aus dem frühen 8. Jahrhundert, die im Jahr 1935 bei Restaurierungsarbeiten am Hōryū-Tempel in Nara auf der Rückseite von Deckenbalken entdeckt wurden. Ausschnitt aus der ersten "chōjū jinbutsu giga"-Bilderrolle, dem Mönch Sōjō Toba (1053–1140) zugeschrieben Buddhistische Mönche begannen schon früh, Bildergeschichten auf Papierrollen zu zeichnen. Das bekannteste dieser Werke ist die erste von insgesamt vier "chōjū jinbutsu giga" (, "Tier-Person-Karikaturen"), die dem Mönch Sōjō Toba (1053–1140) zugeschrieben werden: Dabei handelt es sich um eine Satire, in der sich Tiere wie Menschen verhalten und auch buddhistische Riten karikiert werden. Im 13. Jahrhundert begann man, Tempelwände mit Zeichnungen von Tieren und vom Leben nach dem Tod zu bemalen. Diese Darstellungsform wurde im 16. Jahrhundert auf Holzschnitte übertragen, wobei auch Zeichnungen aus dem Alltagsleben bis hin zu erotischen Bildern hinzukamen. Ab dem späten 17. Jahrhundert entstanden Ukiyo-e genannte Holzschnittbilder, die das unbeschwerte Leben bis hin zu sexuellen Ausschweifungen zum Inhalt hatten und rasch massenhafte Verbreitung fanden. Der Begriff ‚Manga‘, dessen eigentlicher Urheber unbekannt ist, wurde vom Ukiyo-e-Meister Katsushika Hokusai (1760–1849) populär gemacht. Die "Hokusai-Manga" sind Skizzen, die in insgesamt 15 Bänden veröffentlicht wurden und keine zusammenhängende Geschichte erzählen, sondern Momentaufnahmen der japanischen Gesellschaft und Kultur während der späten Edo-Zeit (1603–1868) darstellen. Im frühen 18. Jahrhundert entstanden die nach dem Mönch Sōjō Toba benannten, so genannten Toba-e: Bücher, in denen schwarz-weiße Holzschnittdrucke mit integriertem Text fortlaufende Geschichten bildeten und die hauptsächlich satirischen oder lustigen Inhalt hatten. Im 19. Jahrhundert waren "Toba-e" die beliebteste Lektüre in Japan. Nach Beendigung der Abschließung Japans und der zunehmenden Öffnung nach außen gewann in der zweiten Hälfte des 19. Jahrhunderts das westliche Verlagswesen an Einfluss. Neben neuen, verbesserten Drucktechniken ließ man sich vom Stil europäischer Karikaturen inspirieren, zu dessen Verbreitung in Japan die Satiremagazine "The Japan Punch" (1862–1887, gegründet von Charles Wirgman) und "Tôbaé" (ab 1887, gegründet von Georges Bigot) beitrugen, sowie von den in den USA neu entstehenden "comic strips" von Zeichnern wie Richard Outcault und Rudolph Dirks. Als erster Vorläufer von Manga in heutigem Sinne gilt die 1902 von Rakuten Kitazawa (1876–1955) gezeichnete Geschichte "Tagosakus und Mokubes Besichtigung von Tokio". Kitazawa, der den Begriff ‚Manga‘ in seiner modernen Bedeutung populär machte, gründete auch 1905 das Satiremagazin "Tōkyō Puck" – benannt nach dem britischen (später amerikanischen) Satiremagazin "Puck" – und 1932 die erste japanische Schule für Karikaturisten. Trotz zunehmender Einschränkungsversuche durch die japanische Regierung konnten sich solche grafischen Veröffentlichungen in Japan bis zum Zweiten Weltkrieg halten. Im Zweiten Weltkrieg initiierte die japanische Regierung nach der Auflösung vieler Manga-Zeichnergruppen 1940 die staatliche Dachorganisation "Shin Nippon Mangaka Kyōkai" („Neue Vereinigung der Manga-Zeichner Japans“), und Manga wurden gezielt als Kriegspropaganda eingesetzt. Schon bald nach dem Krieg gründeten sich zahlreiche neue Kleinverlage. Der einflussreichste Wegbereiter des modernen Manga war der Arzt Osamu Tezuka (1928–1989), der nebenher als Zeichner für einen dieser Kleinverlage arbeitete. Beeinflusst vom Stil der frühen Disney-Zeichentrickfilme und von expressionistischen deutschen und französischen Filmen, gab er Anfang der 1950er-Jahre seinen Beruf auf und entwickelte nicht nur die Grundlagen des heutigen Manga-Stils, sondern auch die Basis für die moderne Anime-Industrie. Eines seiner weltweit bekanntesten Werke ist Tetsuwan Atomu (englisch "Astro Boy"), im deutschsprachigen Raum ist er jedoch eher durch seine Fernsehserie Kimba, der weiße Löwe bekannt. Von den japanischen Fans hat Tezuka für seine Verdienste den Ehrentitel "Manga no Kamisama" („Gott des Manga“) verliehen bekommen. Im Herbst 2000 erkannte die japanische Regierung Manga und Anime offiziell als eigenständige, förderungswürdige Kunstform an. Veröffentlichungsformen. Schematische Leserichtung für Mangas, auch innerhalb eines Einzelbildes wird von rechts nach links gelesen. Viele moderne Mangas sind eher bild- als textlastig. Sie sind vor allem in Schwarz-Weiß gehalten und werden entsprechend der traditionellen japanischen Leserichtung von „hinten“ nach „vorne“ und von rechts nach links gelesen. Für eine Übersicht charakteristischer Bild- und Handlungselemente siehe Stilelemente von Manga und Anime. Als Dōjinshi bzw. "Dōjin" bezeichnet man von Fans gezeichnete inoffizielle Fortsetzungen oder Alternativgeschichten zu bekannten Anime bzw. Manga oder Spielen. In Japan werden sie oft von spezialisierten Kleinverlagen oder in Eigeninitiative veröffentlicht. Der zwei Mal jährlich in Tokio stattfindende Comic Market (auch ‚Comiket‘ genannt) ist nicht nur die größte Dōjin-Messe Japans, sondern mit über 40.000 Ausstellern und über 450.000 Besuchern sogar die größte Comic-Veranstaltung der Welt. Inhalte und Genres. Mit der Zeit haben sich bei Manga Untergruppen für nahezu jede Zielgruppe herausgebildet, unterteilt z. B. nach Alter (von Kleinkind-Manga bis zu "Silver Manga" für Senioren), sexueller Orientierung (z. B. Hentai, Yuri und Yaoi) oder Hobbys und Fachgebieten (z. B. Manga, die Jugendlichen traditionelle japanische Kultur wie Kalligrafie und Teezeremonie nahebringen, oder Jidai-geki, die sich mit japanischer Geschichte beschäftigen). Bei Manga für Jugendliche wird zwischen Themen für Mädchen (Shōjo) und für Jungen (Shōnen) unterschieden, bei Manga für Erwachsene zwischen Themen für Frauen (Josei) und für Männer (Seinen). Der Übergang ist dabei oft fließend, und außerhalb Japans sind diese Abgrenzungen weniger scharf. Parallel zu den hauptsächlich für den kommerziellen Markt produzierten Manga entwickelten sich kurz nach dem Zweiten Weltkrieg so genannte alternative Manga, für die der Zeichner Yoshihiro Tatsumi Ende der 1950er-Jahre den Begriff Gekiga prägte. Diese eigenständige Bewegung, die sich eher an eine erwachsene Leserschaft richtete, ermöglichte Künstlern im Vergleich zu den jeweils vorherrschenden Trends größere Freiheiten in Ausdruck und Stil. Als jedoch auch die großen Manga-Verlage mit der Veröffentlichung alternativer Magazine begannen und Gekiga-Serien wie z. B. Golgo 13 sich zu neuen Trendsettern im kommerziellen Bereich entwickelten, ging die Gekiga-Bewegung größtenteils in dem „Mainstream-Manga“ auf. Neben den an demografischen Zielgruppen orientierten Genres bzw. Gattungen haben sich auch thematische Genres herausgebildet, die es so in anderen Comickulturen nicht gibt. Dazu gehören das Sport-Genre, Gourmet und Mah-Jongg. Verbreitung. Doraemon als Werbefigur einer Speditionsfirma Die in Japan bekannteste und am weitesten verbreitete Manga-Figur ist die 1969 entstandene blaue Roboterkatze Doraemon. Manga-Zeichnungen finden auch jenseits des reinen Geschichtenerzählens breite Anwendung, z. B. in Kochbüchern, Bedienungsanleitungen oder bei Hinweisen. Seit 1997 ist die Zahl der Manga Kissa in Japan stark gestiegen. Dabei handelt es sich um Verbindungen aus Café und Manga-Bibliothek, die neben Manga zum Lesen vor Ort auch zahlreiche Annehmlichkeiten anbieten. Preise und Auszeichnungen. Zu den bedeutendsten im Manga-Bereich verliehenen Preisen gehören als älteste Auszeichnung der vom gleichnamigen Verlag 1956 ins Leben gerufene Shogakukan-Manga-Preis für die besten Mangas, sowie der seit 1977 verliehene Kodansha-Manga-Preis und der seit 1997 von der Zeitung Asahi Shimbun jährlich in vier Kategorien vergebene Osamu-Tezuka-Kulturpreis für herausragende Zeichner und Personen oder Institutionen, die sich um die Mangas besonders verdient gemacht haben. Realverfilmungen. Vergleichbar mit US-amerikanischen Comic-Verfilmungen gibt es in der japanischen Filmindustrie seit der Jahrtausendwende zunehmend Bestrebungen, Manga als Realfilme oder -serien umzusetzen; Beispiele hierfür sind Touch, Ichi the Killer, Oldboy oder Uzumaki. Immer mehr japanische Regisseure sind mit Manga aufgewachsen, und der Fortschritt der Tricktechnik ermöglicht mittlerweile die Adaption selbst komplexester Szenen. Zudem können bei einer Manga-Umsetzung die Fans des Originalwerkes auch ohne großen Werbeaufwand erreicht werden. Zu den erfolgreichsten Realverfilmungen von Manga der letzten Jahre zählen unter anderem die Fernsehserie zu Great Teacher Onizuka (1998), deren letzte Folge die höchste jemals erreichte Einschaltquote eines Serienfinales im japanischen Fernsehen hatte, und der Kinofilm zu Nana (2005), der mit einem Einspielergebnis von umgerechnet ungefähr 29 Millionen Euro auf Platz 5 der erfolgreichsten japanischen Kinofilme dieses Jahres kam. Mit Death Note (2006) ist eine Manga-Umsetzung erstmals von vornherein als zweiteilige Kinofassung ausgelegt. Wirtschaftsfaktor. Bahnhofskiosk in Japan. Ein Großteil des Angebotes besteht aus Manga-Taschenbüchern und -Magazinen Jugendliche Manga-Leser in einem japanischen Supermarkt Manga sind eine der Hauptsäulen des japanischen Verlagswesens. Im Jahr 2002 machten sie 38,1 % aller Druckerzeugnisse in Japan aus, wovon knapp 28 % auf Manga-Magazine und knapp 11 % auf Manga-Taschenbücher entfielen (in Deutschland umfassen Comics nur ca. 3 % aller Druckerzeugnisse). Statistisch gesehen kauft jeder Japaner pro Jahr 15 Manga (Deutschland: 0,25 Comics pro Kopf und Jahr). Bei den Umsatzzahlen zeigt sich aktuell ein neuer Trend: Während im Jahr 2004 die Gesamteinnahmen bei Manga-Magazinen noch bei ca. 255 Milliarden Yen und bei Manga-Taschenbüchern bei ca. 250 Milliarden Yen (damals zusammen etwa 3,7 Milliarden Euro) lagen, gingen im Jahr 2005 die Einnahmen bei Manga-Magazinen um 5 % auf 242,1 Milliarden Yen zurück (und lagen damit nur noch bei etwa 70 % der Einnahmen im Jahr 1995), während die Einnahmen bei Manga-Taschenbüchern um 4,2 % auf 260,2 Milliarden Yen stiegen. 2005 war also das erste Jahr in der japanischen Verlagsgeschichte, in dem die Gesamteinnahmen bei Manga-Taschenbüchern höher waren als bei Manga-Magazinen. Auflagenzahlen. Die Gesamtauflage aller Manga (Magazine und Taschenbücher) betrug im Jahr 2004 in Japan 1,38 Milliarden Exemplare, was gegenüber dem Vorjahr einen Rückgang um 3,5 % bedeutete. Für diese seit dem Höhepunkt des Manga-Booms Mitte der 1990er-Jahre stattfindende Reduzierung des Marktes wird unter anderem auch der Rückgang der Geburtenzahlen in Japan insbesondere seit Beginn der 1980er-Jahre verantwortlich gemacht. Die Gesamtauflage aller Manga-Magazine ging 2005 gegenüber dem Vorjahr um durchschnittlich knapp 7 % zurück. "Weekly Shōnen Jump", das erfolgreichste Magazin, erlebte 2005 mit knapp drei Millionen verkaufter Exemplare pro Woche einen Rückgang von „nur“ 1,4 % gegenüber 2004; Mitte der 1990er-Jahre waren von dem Magazin allerdings noch sechs Millionen Exemplare pro Woche verkauft worden. Während durchschnittliche Manga-Serien z. B. im Jahr 1997 mit einer Startauflage von 300.000 bis 500.000 Exemplaren pro Band in den Handel kamen, können die erfolgreichsten Einzelbände Erstauflagen im Millionenbereich erreichen. Den Rekord hält gegenwärtig Band 56 der Serie "One Piece": Anfang Dezember 2009 wurde er in einer Erstauflage von 2,85 Millionen Exemplaren ausgeliefert, wofür der Shueisha-Verlag mit einer neunseitigen Zeitungsanzeige warb. "Golgo 13" (gestartet 1968) und "Kochikame" (gestartet 1977) gehören zugleich auch zu den am längsten ununterbrochen laufenden Manga-Serien und zu denen mit der größten Anzahl an Sammelbänden. Von allen "One Piece"-Bänden zusammen waren im Jahr 2007 bereits 134 Millionen Exemplare und im Dezember 2009 bereits 176 Millionen Exemplare verkauft worden. Manga-Zeichner. Phasen der Entstehung eines Bilds im Manga-Stil Autoren von Manga werden Mangaka genannt. Es gibt in Japan etliche Möglichkeiten, Mangaka zu werden, z. B. durch einen Sieg bei einem Zeichenwettbewerb oder durch eine erfolgreiche Bewerbung bei einem Verlag. Im Allgemeinen beginnt man dann als Assistent für „Anfängerarbeiten“ im Zeichnerteam eines bereits erfolgreichen Manga-Künstlers. Im Laufe der Zeit kann man sich innerhalb des Teams hocharbeiten und bekommt möglicherweise die Chance auf selbstständige Manga-Projekte. Schätzungen zufolge gibt es in Japan ständig einige Zehntausend Zeichenassistenten, von denen der größte Teil mangels Aufstiegschancen jedoch nach relativ kurzer Zeit wieder aussteigt. Auch die meisten der etwa 3.000 hauptberuflich tätigen japanischen Mangaka können ihren Lebensunterhalt nicht alleine durch Zeichnen bestreiten und sind daher auf Nebentätigkeiten oder finanzielle Unterstützung angewiesen. Nur etwa 300 Künstler können ausschließlich vom Manga-Zeichnen leben – als namentlich bekannte Mangaka mit lang laufenden Manga-Serien und großen Teams. Internationale Verbreitung. Manga können laut Andreas Platthaus im Westen den Ruhm für sich in Anspruch nehmen, Comics (die zuvor eher an den Interessen männlicher Leser ausgerichtet waren) erstmals auch bei Mädchen und jungen Frauen beliebt gemacht zu haben. In Japan selbst ist dies nichts Ungewöhnliches, da dort spätestens seit den 1970er-Jahren auch gezielt Manga für Frauen produziert werden. Speziell im deutschsprachigen Raum hat dies aber mittlerweile sogar zu der weltweit einmaligen Auswirkung geführt, dass Manga überwiegend von weiblichen Lesern konsumiert werden. USA. Der erste in den USA veröffentlichte Manga war Barfuß durch Hiroshima, der 1978 von einer in San Francisco und Tokio tätigen Fan-Übersetzergruppe privat verlegt, aber nach kurzer Zeit wieder eingestellt wurde. Größere Verbreitung fanden bald darauf zwei Kurzgeschichten von Shinobu Kaze: Seine zehnseitige Geschichte "Violence Becomes Tranquility" erschien im März 1980 im Comicmagazin „Heavy Metal“, und die sechsseitige Geschichte "Heart And Steel" im Februar 1982 im Magazin „epic“. Im Dezember 1982 unternahm Educomics den Versuch, "Barfuß durch Hiroshima" unter dem Titel "I Saw It" erneut herauszubringen. In dem von Art Spiegelman herausgegebenen Avantgarde-Magazin RAW wurden im Mai 1985 mehrere Kurzgeschichten von Zeichnern des japanischen Magazins Garo veröffentlicht. Ab Mai 1987 erschien bei First Comics die Manga-Serie Lone Wolf & Cub, deren erste Bände aufgrund des großen Verkaufserfolges bereits nach kurzer Zeit nachgedruckt werden mussten. Noch im gleichen Jahr brachte Eclipse Comics die Manga-Serien Kamui, Mai the Psychic Girl und "Area 88" als zweiwöchentlich erscheinende Comichefte heraus. Im Jahr 1988 folgte Marvel Comics mit der Veröffentlichung von Akira, das zu einem Wegbereiter der weltweiten Manga- und Anime-Verbreitung wurde. Die ersten Manga in den USA waren zur Anpassung an die übrigen Comicpublikationen auf Albenformat vergrößert und auf westliche Leserichtung gespiegelt worden. In dieser Phase waren die meisten Manga-Figuren daher scheinbar Linkshänder, und japanische Schriftzeichen auf Schildern und Plakaten wurden seitenverkehrt abgedruckt. Als erster Manga-Band in original japanischer Leserichtung in den USA erschien zwar bereits 1989 "Panorama of Hell" bei Blast Books, doch erst der Tokyopop-Verlag brachte ab 2002 Manga-Serien konsequent ungespiegelt heraus. Im Jahr 2005 betrug der Umsatz des nordamerikanischen Manga-Marktes etwa 125 bis 145 Millionen Euro, und unter den 100 meistverkauften Comicbänden in den USA waren 80 Manga-Bände. Europa. Die ersten Manga in Europa erschienen von Ende 1969 bis Ende 1971 in Fortsetzungskapiteln in einem französischen Kampfsportmagazin. Der erste auf Spanisch veröffentlichte Manga war die Gekiga-Kurzgeschichte "Good-Bye" von Yoshihiro Tatsumi im Jahr 1980 in Ausgabe Nr. 5 der Underground-Comiczeitschrift „El Víbora“, die Zeitschrift veröffentlichte im Laufe der nächsten Jahre weitere Geschichten dieses Zeichners. Als erste Manga-Serie auf Spanisch erschien ab 1984 "Candy Candy Corazón". 1990 begann Glénat mit der französischsprachigen Veröffentlichung von Akira. Der Manga-Anteil am französischen Comicmarkt stieg von 10 % im Jahr 2001 auf 22 % im Jahr 2006. Der Manga-Markt in Großbritannien entwickelte sich später als in den meisten übrigen europäischen Ländern. Während im Jahr 2001 etwa 100.000 Manga-Bände mit einem Gesamtumsatz von umgerechnet 2 Millionen Euro verkauft wurden, waren es im Jahr 2005 knapp 600.000 Manga-Bände mit einem Gesamtumsatz von umgerechnet 7,6 Millionen Euro. Die meisten Manga in Großbritannien werden aus den USA eingeführt, der erste britische Manga-Verlag wurde im August 2005 gegründet. Deutschland. Der Begriff „Manga“ als Name für die Werke Hokusais wurde in der deutschsprachigen Kunstliteratur bereits seit Ende des 19. Jahrhunderts verwendet, meist in der heute veralteten Schreibweise „Mangwa“. Die erste gegenwärtig bekannte, zugleich negativ gefärbte Verwendung des Wortes ‚Manga‘ in deutschsprachigen Medien als Kennzeichnung japanischer Comics findet sich in einer Sonderbeilage der Zeitschrift "stern" vom Juni 1977: "„(...) Höchste Auflagen haben die „Mangas“, Strip-Magazine mit Sadismen, bei deren Anblick vermutlich gar der alte Marquis de Sade noch Neues hätte lernen können“." Die ersten in Deutschland veröffentlichten Manga waren die Einzelbände "Barfuß durch Hiroshima – Eine Bildergeschichte gegen den Krieg" von Keiji Nakazawa (Rowohlt Verlag 1982; ausführlichere Fassung vom Carlsen Verlag 2004), "Heine in Japan" von Keiko Ogata (Verlag der Goethe-Handlung Düsseldorf 1988) und "Japan GmbH" von Shōtarō Ishinomori (Verlag Norman Rentrop 1989), sowie ein Kapitel der Serie "Kozure Ōkami" unter dem Titel "Der Wolf und sein Junges" in der Comic-Anthologie „Macao“ (Borchert & Querengässer 1989; ausführlichere Fassung vom Carlsen Verlag 1996–1997, vollständige Fassung von Planet Manga seit 2003). Während sich in anderen europäischen Ländern wie Italien und Spanien seit Mitte der 1980er-Jahre ein rasch größer werdender Manga-Markt bildete, etablierte sich das Genre in Deutschland ab den 1990er-Jahren dauerhaft. Die erste vollständig auf Deutsch erschienene Serie war ab 1991 "Akira", und die Manga wurden zunächst nach amerikanischem und französischem Vorbild auf „westliche“ Leserichtung gespiegelt, auf Albenformat vergrößert und auf mehr Bände aufgeteilt. Die erste in original japanischer Leserichtung belassene deutschsprachige Veröffentlichung, die dreibändige Serie "Genji Monogatari Asakiyumemishi", erschien 1992 im Okawa-Verlag, der endgültige Durchbruch für ungespiegelte Manga kam Ende 1996 mit der Serie "Dragonball" des Carlsen-Verlags. Mittlerweile erscheinen allein bei den größten deutschen Manga-Verlagen Carlsen Comics, Egmont Manga und Anime (EMA), Tokyopop, Planet Manga (Manga-Label von Panini Comics) und Heyne jährlich über 800 Manga-Bände. Der Versuch, auch monatlich erscheinende Manga-Magazine nach japanischem Vorbild in Deutschland zu etablieren, war langfristig nicht erfolgreich: So wurden die Manga-Magazine "Manga Power" und "Manga Twister" von EMA wegen unzureichender Verkaufszahlen im September 2004 bzw. im Oktober 2006 und "Banzai!" von Carlsen wegen Lizenzproblemen im Dezember 2005 wieder eingestellt. Am längsten hielt sich das Magazin "Daisuki" des Carlsen-Verlags, das im Mai 2012 zum letzten Mal veröffentlicht wurde. Die Entwicklung des Manga-Booms in Deutschland lässt sich zum Beispiel an den Umsatzzahlen des Carlsen-Verlags ablesen: Während der Verlag 1995 Manga für knapp 400.000 Euro verkaufte, lag sein Manga-Umsatz im Jahr 2000 bei über vier Millionen Euro und im Jahr 2002 bei über 16 Millionen Euro. Im Jahr 2005 lag der Manga-Bruttoumsatz in Deutschland bei 70 Millionen Euro. Mit einem Zuwachs von 6,9 % war der Manga-Sektor 2005 der am stärksten wachsende Bereich des deutschen Buchmarktes, dessen Gesamtwachstum bei weniger als 1 % lag. Im Jahr 2005 war Egmont Manga und Anime (EMA) mit einem Jahresumsatz von 15 Millionen Euro Marktführer, im Jahr 2006 lag laut GfK-Angaben Carlsen Comics mit einem Marktanteil von 41 % knapp vor EMA (38 %). Seit der Jahrtausendwende haben Manga auf etablierten deutschen Literaturveranstaltungen wie der Frankfurter Buchmesse und der Leipziger Buchmesse eigene Messebereiche. Seit einigen Jahren gibt es auch deutsche Manga-Auszeichnungen, wie die Kategorien „Manga/Manhwa international“ und „Manga-Eigenpublikation (national)“ des seit 2004 bestehenden Sondermann-Preises der Frankfurter Buchmesse und die 2006 und 2008 kurzzeitig eingeführte Kategorie „Bester Manga“ des Max-und-Moritz-Preises des Comic-Salons Erlangen. Außerdem werden offizielle Manga-Zeichenwettbewerbe initiiert, mit denen gezielt deutsche Nachwuchstalente gefördert werden sollen, wie etwa „Comics in Leipzig“ von der Buchmesse Leipzig oder „MangaMagie“ von den Bahnhofsbuchhandlungen Ludwig. Dabei hat sich gezeigt, dass der überwiegende Anteil deutschsprachiger Mangastil-Zeichner Mädchen und Frauen sind. Mesozoikum. Das Mesozoikum ("mésos" ‚mittlerer‘, ‚mitten‘ und ζῶ "zo" ‚leben‘), auch Erdmittelalter oder Erdmittelzeit, ist ein Erdzeitalter, das vor etwa Millionen Jahren begann und vor etwa Millionen Jahren endete. Es wird in Trias, Jura und Kreide gegliedert. Das Mesozoikum ist innerhalb der Erdgeschichte der mittlere Zeitabschnitt des Phanerozoikums. In diesem Äon folgt das Mesozoikum auf das Paläozoikum (Erdaltertum) und wird vom Känozoikum (Erdneuzeit) abgelöst. Geschichte und Namensgebung. Der Begriff wurde von John Phillips 1841 als Bezeichnung für das 'mittlere Tierleben' (middle animal life), das dem des Paläozoikum folgt, definiert. In seine ursprüngliche Definition nimmt er bereits die Kreide, das 'Oolithic' (= Jura) sowie den 'New Red sandstone' auf. Allerdings konnte bereits Murchinson 1841 zeigen, dass der untere Teil des New Red sandstone zum Perm gehört, wodurch die noch heutige gebräuchliche Gliederung (s.o.) etabliert wurde. Leben im Mesozoikum. Das Mesozoikum begann nach einer ökologischen Katastrophe (Perm-Trias-Grenze) am Ende des Perms (zugleich das Ende des Paläozoikums), deren Ursache noch nicht aufgeklärt ist; bei diesem größten bekannten Massenaussterben der Erdgeschichte starben zwischen 75 % und 90 % aller Tier- und Pflanzenarten aus. Dies ermöglichte die Evolution einer neuartigen Fauna und Flora. Die Dinosaurier entstanden, dominierten die Erde und starben (mit Ausnahme der Vögel) aus. Ihre nächsten heutigen Verwandten sind die Krokodile. Es entwickelten sich außerdem Pterosaurier und eine ganze Reihe von Meeresreptilien, die jedoch alle am Ende des Mesozoikums wieder ausstarben. Darüber hinaus erschienen die ersten kleinen und größeren Säugetiere, die ersten Blütenpflanzen und die meisten Bäume, die wir heute kennen. Hinweise deuten darauf, dass am Ende des Mesozoikums ein Meteorit nahe der Yucatánhalbinsel (Mexiko) einschlug. Dieser sogenannte KT-Impakt wird vielfach für das Aussterben von 50 % aller Tier- und Pflanzenarten verantwortlich gemacht – darunter aller Dinosaurier, Flugsaurier, Ammoniten, Belemniten und die meisten der damals lebenden Meeresreptilien und Vögel. a> ist hier dargestellt anhand der gegenwärtigen Lage der Landmassen. Geologie. Während zu Beginn des Mesozoikums alle Kontinente zu einem „Superkontinent“ (Pangaea) vereint waren, nehmen gegen Ende der Kreidezeit die auseinanderdriftenden Kontinente allmählich ihre heutige Konstellation ein. Klima. Durch das sukzessive Aufbrechen des einstigen Superkontinents Pangaea war das Klima im Mesozoikum einer beständigen Veränderung unterworfen. Am Beginn des Zeitalters finden sich noch riesige Wüsten, bedingt durch die enorme Landfläche Pangaeas – vergleichbar mit der Sahara im heutigen Afrika (siehe hierzu Kontinentalklima). Mit der Entstehung der Tethys zu Beginn des Mesozoikums wurde das Klima allerdings bald feuchter, die Kontinente begannen sich aufzuteilen. Das Klima wurde insgesamt tropisch und ähnelte sich weltweit sehr stark, da das Meer noch nicht wie heute in Atlantik, Pazifik und Indischen Ozean unterteilt war und die Meeresströmungen sich gleichmäßiger verteilen konnten. Selbst die Pole waren eisfrei. Erst mit der Entstehung des Atlantiks und des beginnenden Zerfalls von Pangaea in Kontinente im Jura wurden die weltweiten Meeresströmungen unterbrochen und der weltweite Ausgleich der Klimazonen blieb aus. Dies lässt sich anhand der Jahresringe von versteinertem Holz feststellen. Gegen Ende der Kreide gab es durch den fehlenden globalen Temperaturausgleich erstmals Jahreszeiten mit Kaltzonen im Norden und Süden der Erde. Moiren. Die Moiren oder Moirai, Sg. Moira (, „Anteil, Los, Schicksal“, latein "Moera") sind in der griechischen Mythologie eine Gruppe von Schicksalsgöttinnen. Ihre Entsprechung in der römischen Mythologie sind die Parzen. Bei den Etruskern stehen die Moiren über den Göttern. Begriff. Als Appellativum bedeutet das Wort "moira" einen Teil des Ganzen, wie den Anteil an einer Kriegsbeute. Seit Homer steht es darüber hinaus für das allen Lebewesen von Geburt an zugeteilte Schicksal, das als zwangsläufige Folge der göttlichen Rollenverteilung entsteht. Der Begriff "moira" ist inhaltlich ambivalent, da er zwar in der Regel mit Unheil verbunden wird und euphemistisch für den Tod gebraucht wird, aber auch für das Glück des vom Schicksal Begünstigten stehen kann. Die negative Hauptbedeutung überwiegt nicht nur in der Literatur, sie wird auch aus zahlreichen Grabinschriften vom sechsten vorchristlichen Jahrhundert bis in die Spätantike deutlich. Mythos. Moiren bei der Geburt des Achilles, Haus des Theseus, Paphos (Zypern), 5. Jhdt. n. Chr. In der ältesten Literatur, den Epen Homers, kommt die Moira fast ausschließlich in der Einzahl vor, jedoch nicht im Sinne einer einzelnen Göttin, sondern als personifiziertes Schicksal jedes einzelnen Menschen. Die Unterscheidung zwischen dem appellativen Gebrauch von "moira" und des Gebrauchs als Personifikation ist dabei oft nicht möglich. Deutlich als Göttin erkennbar wird sie etwa, wenn sie im Kampf gemeinsam mit Thanatos oder den Keren erscheint. In der "Ilias" erscheint sie als diejenige, die jeden nach Ablauf seiner Lebenszeit dem Ende zuführt, etwa wenn Lykaon sagt, dass sie ihn zum zweiten Mal den Peliden ausgeliefert habe oder wenn Hektor ihretwegen allein vor den Mauern Trojas bleiben muss und sie ihn heimsucht, als sein Leben beendet wird. Im Kampf führt sie Amphios dem Priamos und Tlepolemos dem Sarpedon zu, da ihre Zeit zu sterben gekommen ist. Die Vorstellung, dass sie für die Sterblichen bei der Geburt einen Faden spinnt, in den das Schicksal bereits hineingesponnen wurde, erscheint bei Hektor, als er nach seinem Tod von Hunden angefressen wird, oder bei Achilleus, der, wenn seine Zeit gekommen ist, alles ertragen muss, was ihm das Schicksal zugesponnen hat, jedoch nicht vorher, als seine Zeit nicht gekommen war und Hera ihn noch beschützen kann. In dieser Bedeutung erscheint sie auch, wenn Agamemnon sagt, dass Zeus, Moira und Erinys ihm Verblendung ins Herz gegeben haben. In der Mehrzahl erscheinen die Moiren bei Homer nur ein einziges Mal und das auch ohne Namensnennung. In der "Odyssee" erscheinen die spinnenden Schwestern an einer Stelle als die Kataklothes (), die „Zuspinnerinnen“. Das Verhältnis der Götter zu den Moiren scheint darauf hinzudeuten, dass die Götter das von ihnen bestimmte Schicksal nicht abändern können. Zeus will Sarpedon retten, dessen Zeit abgelaufen ist, kann es aber nicht ohne die sonstige Ordnung zu zerstören. Besonders er als oberster Gott kann die bestehende Ordnung nicht stören und wird deshalb auch als Zeus Moiragetes verehrt. In der nachhomerischen Literatur treten die Moiren meist als Trias auf, ihre Namen sind Klotho (, "die Spinnerin"), Lachesis (, "die Loserin") und Atropos (, "die Unabwendbare"). Über ihre Abstammung gibt es verschiedene Varianten. In Hesiods "Theogonie" werden die drei Moiren an einer Stelle als Töchter der Nyx, an anderer Stelle als Töchter des Zeus und der Themis und als Schwestern der Horen genannt. Bei den Orphikern sind sie Töchter der Nyx oder der Gaia und des Uranos, Epimenides nennt sie die Töchter von Kronos und Euonyme. Die Literatur bezeugt die anhaltende Vorstellung der großen Macht der Moiren, die jedoch nie verbindlich ausgestaltet wurde. Da die Moiren als überall anwesend gedacht werden konnten, erscheinen sie auf dem Olymp ebenso wie im Hades, dem Tartaros oder unter den Menschen. Ihre Zuschreibungen variieren zwischen den Extremen als Chthonioi bis zu Olympioi an der Seite des Zeus und sie werden sowohl in die Nähe der Horen als auch der Erinyen und Keren gerückt. In Hesiods "Schild des Herakles" stehen sie auf dem Kampfplatz bereit, wenn die Keren sich auf ihre Opfer stürzen, die Keren erscheinen hier lediglich als Vollstrecker des von den Moiren besiegelten Schicksals. Zur Betonung ihrer Nähe zueinander werden die Erinyen bei den Orphikern als Moiren bezeichnet und in einem Hymnus bei Stobaios werden Klotho und Lachesis angerufen, damit diese die Horen schicken. Bei Pindar erscheinen sie als Göttinnen des Rechts, die bösem Ansinnen fern stehen. Sie führen Zeus die Themis als Gattin zu, unterstützen Herakles dabei, die Olympischen Spiele zu stiften, sind die Göttinnen, die mit Eileithyia bei einer Geburt erscheinen und werden ganz allgemein als hilfreiche Göttinnen angerufen. Pausanias erwähnt bei einer Bildbeschreibung der Tyche, diese sei bei Pindar eine der Moiren gewesen. Aischylos betont die Verwandtschaft zu den Erinyen, die bei ihm gemeinsam für die Manneskraft und das Glück der Bräute und als Ordnerinnen des Rechts gepriesen werden, auch wenn das Recht von Apollon durchbrochen wird. In "Der gefesselte Prometheus" wird die Macht der Moiren und Erinyen als gleichermaßen für Menschen und Götter bindend dargestellt: Sie führen das Steuerruder der Notwendigkeit, selbst Zeus als derjenige, der das Gesetz des Schicksals regelt, kann dem bereits bestimmten Schicksal nicht entkommen. Bei Euripides werden die Moiren von Apollon überlistet, werden aber auch als die Zeus' Thron am nächsten Sitzenden angerufen, und in der "Bibliotheke des Apollodor" erwirkt Apollon durch Bitten die Verlängerung des Lebens von Admetos. Bei Aristophanes erscheinen sie in der Unterwelt, singen aber auch auf der Hochzeit von Zeus und Hera. Attribute. Götterszene auf einem römischen Sarkophag, ca. 240 n. Chr. In der Mitte die Moiren Lachesis mit Globus und Klotho mit Spindel In älteren Kunstwerken finden sich noch keine Attribute der Moiren, später dann das Szepter. In römischer Zeit trägt Klotho eine Spindel, Lachesis ein Losstäbchen oder einen Globus und Atropos Schriftrolle oder -tafel oder eine Sonnenuhr. Die Bibliotheke des Apollodor schildert sie in ihrem Kampf gegen die Giganten Agrios und Thoon als mit Eisenkeulen bewaffnet. Etruskische Religion. Zur etruskischen Religion gehörte die Vorstellung von der Vergänglichkeit des Menschen und der Völker. So waren den Etruskern acht oder nach anderen Quellen zehn "saecula" der Existenz gegeben. Ein Saeculum reichte dabei bis der letzte, der im vorangehenden Saeculum geboren worden war, starb. Der Tod des Einzelnen konnte durch religiöse Rituale um bis zu zehn Jahre, das Ende des etruskischen Volkes um bis 30 Jahre hinausgezögert werden. Einen ersten Aufschub gewährte der oberste Gott, Tinia, für einen zweiten aber „waren die noch über den Göttern waltenden Moiren zuständig, deren Namen auszusprechen den Etruskern nicht erlaubt war.“ Mettmann. Mettmann ist die Kreisstadt des gleichnamigen Kreises im Regierungsbezirk Düsseldorf in Nordrhein-Westfalen. Geographische Lage. Mettmann liegt am Rande des rheinischen Schiefergebirges an einer nicht immer eindeutig zu ziehenden Grenze zwischen Rheinland und Bergischem Land. Aus politischer Sicht betrachtet gehört die Kreisstadt mit dem gesamten Kreis Mettmann zum Rheinland, nach historischen Maßstäben und heutigem Regionalbewusstsein wird sie eher dem Bergischen Land zugerechnet. Der niedrigste Punkt im Stadtgebiet mit 75 m ü. NN befindet sich im Neandertal im Bereich des Museums, der höchste Punkt mit 203 m ü. NN liegt an der Stadtgrenze zu Wülfrath (Kreuzung Meiersberger Str./Mettmanner Str.). Nachbargemeinden. Die Stadt grenzt im Westen an die Landeshauptstadt Düsseldorf. Es folgen im Uhrzeigersinn die Städte Ratingen, Wülfrath, Wuppertal, Haan und Erkrath. Mittelalter. Der Name „Mettmann“ kommt aus dem Altdeutschen, von „Medamana“, was so viel wie „Am mittelsten Bach“ bedeutet. Die erste urkundliche Erwähnung der Siedlung erfolgte im Jahre 904. Im Jahre 1363 war Mettmann Sitz der Amtsverwaltung eines von acht Ämtern im Bergischen Land, es sind die acht Ämter, die in der Urkunde zur Übertragung des Landes Blankenberg an Berg genannt sind. Im August 1424 erhob Herzog Adolf VII. Mettmann mit der zugehörigen Honschaft zu einer Freiheit. Dies war durch die neu erworbenen Rechten mit erhebliche Steuer- und Marktprivilegien verbunden, die dem Ort zu wirtschaftlicher Blüte verhalfen. Ab 19. Jahrhundert. 1806 kam das Herzogtum Berg und mit ihm auch das Amt Mettmann unter Napoleon zum Großherzogtum Berg, 1815 wurde Mettmann Teil von Preußen. Der Kreis Mettmann, bestehend aus den fünf Bürgermeistereien Haan, Hardenberg, Mettmann, Velbert und Wülfrath, entstand. Seit 1846 bildete die Bürgermeisterei Mettmann eine Gemeinde gemäß der "Gemeinde-Ordnung für die Rheinprovinz" vom 23. Juli 1845. Am 23. Oktober 1856 wurde der Gemeinde Mettmann von König Friedrich-Wilhelm IV. von Preußen die Rheinische Städteordnung und damit das Stadtrecht verliehen. Nach der Machtübertragung an die Nationalsozialisten diente die Villa Koburg der SA als Sammelstelle und Folterkeller für Verhaftete aus dem Kreis Mettmann. Zum Gedenken an die vielen getöteten und misshandelten Opfer befindet sich am zentralen Lavalplatz in Mettmann ein Denkmal. Am 3. Dezember 1943 stürzte ein britischer Halifax-Bomber mit dem Kennzeichen HR876 nach Flakbeschuss am Gut Benninghof ab. Der Bomber befand sich auf dem Rückflug von einem Angriff auf Berlin. Die siebenköpfige Crew, die aus zwei Kanadiern und fünf Briten bestand, wurde auf dem Düsseldorfer Nordfriedhof beerdigt und später umgebettet. Die letzte Ruhestätte fand die Crew auf dem Ehrenfriedhof im Klever Reichswald. Im Jahre 2014 haben ehrenamtliche Mitarbeiter des LVR-Amtes für Bodendenkmalpflege Teile des Bombers geborgen. Im Laufe der Jahre wechselte der Sitz des Landkreises mehrfach. Neben den Städten Elberfeld und Vohwinkel (heute Teile Wuppertals) war vor allem Düsseldorf lange Zeit Sitz der Kreisverwaltung. Nachdem Mettmann den Zweiten Weltkrieg weitgehend ohne gravierende sichtbare Spuren überstanden hatte, ging der Sitz der Kreisverwaltung 1954 an die Stadt zurück. In dem an die Stadt Wülfrath angrenzenden Ortsteil Obschwarzbach haben sich nach 1945 bevorzugt Flüchtlinge und Spätaussiedler eine neue Heimat geschaffen. 2004 konnte Mettmann sein 1100-jähriges Bestehen feiern und gehört so zu den ältesten Gemeinden im Bergischen Land. Eingemeindungen. Zu Mettmann gehört heute auch der am 1. Januar 1975 eingemeindete Ortsteil Metzkausen, der bis dahin als Sitz der Amtsverwaltung zum Amt Hubbelrath gehörte, das im Zuge der kommunalen Neuordnung zu diesem Tag aufgelöst wurde. Mit diesem Datum vollzog sich auch eine Namensänderung: Aus dem Kreis Düsseldorf-Mettmann wurde der Kreis Mettmann. Bürgermeister. Der Bürgermeister wird seit 2009 für eine Amtszeit von sechs Jahren gewählt. Wappen, Flagge und Logo. Die Kreisstadt Mettmann führt ein Stadtwappen, eine Flagge und ein Dienstsiegel sowie ein Signet (Logo). Wappen. Blasonierung: „In Blau zwei durch einen Torbau mit goldenem (gelbem) Tor verbundene goldene (gelbe) Kirchen, die rechte mit Spitzdach, die linke mit Doppelzwiebel, auf den mit schwarzen Wetterhähnen bekrönten Türmen; dazwischen schwebend eine goldene (gelbe) Krone, ein waagerechtes goldenes (gelbes) Zepter und eine goldene (gelbe) Zunftlade.“ Das Wappen der Kreisstadt zeigt die durch ein Stadttor miteinander verbundene Evangelische Kirche und die Katholische Lambertuskirche sowie eine Krone, ein Zepter und eine Zunftlade zwischen beiden Kirchtürmen. Das Wappen entstammt einem Zunftabzeichen der "Fabricanten und Handwerker der Freiheit Mettmann" von 1778. Es wurde Stadtwappen vom 19. Jahrhundert bis 1938 und erneut seit 1946. 1966 wurde es geringfügig in die heutige Form verändert. Flagge. „Die Farben der Kreisstadt sind blauweiß.“ Beschreibung der Flagge: „Die Stadtflagge führt die Farben blau-weiß-blau quergestreift, im Verhältnis 1:5:1 mit dem Stadtwappen in der Mitte des weißen Feldes.“ Kultur. Goldberger Mühle am Goldberger Teich Mettmann ist Sitz des für den Kreis Mettmann sendenden Lokalradios Radio Neandertal. Bekanntheit erlangte Mettmann auch durch den im Januar 2004 erschienenen Kinofilm "Samba in Mettmann" von und mit Hape Kerkeling. Das 1907 in der Düsseldorfer Straße eröffnete „Weltspiegel-Kinocenter“ zählt heute zu den ältesten Lichtspielhäusern Deutschlands und wird in der dritten Generation geführt. Alljährlich an einem Sonntag Im Frühsommer findet in der Innenstadt die Mettmanner Kunstmeile statt. Hier haben lokale und regionale Künstler die Möglichkeit, ihre Arbeiten zu präsentieren und Kontakte zu knüpfen. Neben einer eigenen Stadthalle, in der auch die Stadtbibliothek untergebracht ist, und in der in losen Abständen Veranstaltungen stattfinden, ist für das Kulturangebot von Bedeutung, dass Mettmann zum Einzugsbereich von fünf Großstädten (Düsseldorf, Köln, Duisburg, Essen und Wuppertal) gehört. Neandertal. Das Neandertal (auch: Neanderthal) gehört teilweise zu Mettmann. Es ist nach dem evangelischen Liederdichter Joachim Neander, der dort seine Spaziergänge zu machen pflegte, benannt. Hier wurden beim Kalksteinabbau die Überreste des nach seinem Fundort Neandertal 1 benannten Neandertalers gefunden. Heute ist das Neandertal ein beliebter Ausflugsort; das Neanderthal-Museum an der Stadtgrenze zu Erkrath hat den berühmten Fund und die menschliche Urgeschichte zum Thema. Weitere Sehenswürdigkeiten. Ein Beispiel für eine Wandlung in der Stadt ist der Jubiläumsplatz im Stadtzentrum von Mettmann, der vor allem in den vergangenen Jahrzehnten vielen Veränderungen unterlag. Hier wurden ab Mitte der 1960er Jahre viele historische Fachwerkhäuser durch damals moderne Bauten (zum Beispiel das Gebäude der Kreissparkasse) ersetzt. Heute ist man sich darüber einig, dass damit ein historischer Teil Mettmanns zerstört wurde. Jedenfalls war es der Zeitgeist der 60er, weg mit dem Alten – hin zum Modernen. Die letzte Änderung kam Anfang dieses Jahrhunderts im Vorlauf der Feierlichkeiten zum 1100-jährigen Bestehen der Stadt. Der Jubiläumsplatz bekam einen neuen Bodenbelag, weg von den Platten und wieder hin zum Kopfsteinpflaster. Das Kunstwerk „Erdstrahlen“ wurde 2006 aufgestellt. Im August 2005 wurde am westlichen Ortseingang von Mettmann mit der Kreispolizeibehörde eines der modernsten Bürogebäude in Nordrhein-Westfalen fertiggestellt. Wirtschaft. Bereits im 19. Jahrhundert etablierte sich Mettmann als Standort für die Besteckindustrie. Vor allem Besteck der 1895 gegründeten Firma "Seibel" konnte sich über die Grenzen Deutschlands einen Namen machen. Heute führt die Firma "Seibel Designpartner GmbH", ansässig im Gewerbegebiet Mettmann Ost, die Tradition fort und stellt dort unter anderem die Besteckserie mono-a her. Die Georg Fischer GmbH produziert am Standort Mettmann seit 1907 Gussteile aus Kugelgraphitguss (Sphäroguss) für Personenwagen und Nutzfahrzeuge. Sie ist damit die letzte metallverarbeitende Zulieferfirma für verschiedene Automobilhersteller, die vor Ort tätig ist. GF beschäftigt rund 1000 Mitarbeiter und hat zurzeit eine Versandmenge von ca. 190.000 Tonnen pro Jahr. Die Firma "Meckenstock", die sich ebenfalls auf Zieh-, Press- und Stanzteilproduktion spezialisiert hatte, beschäftigte bis zu Beginn des 21. Jahrhunderts noch 250 Mitarbeiter. Im Jahr 2000 wurde Insolvenz angemeldet. Die Gebäude unweit der Regiobahn-Haltestelle Mettmann-Stadtwald stehen seitdem leer. Weitere bekannte Firmen mit Sitz in Mettmann sind der Tiefkühlkost-Hersteller und -Vertrieb eismann Tiefkühl-Heimservice GmbH sowie das besonders durch seine Schuhpflegeprodukte bekannt gewordene Unternehmen "Centralin". Mettmann ist auch Sitz des Verkehrsunternehmens Regiobahn GmbH, das die hier endende S-Bahn-Linie betreibt. Mit dem im Jahr 2006 eingerichteten, etwa 10 Hektar großen "Innovationspark Mettmann West" versucht die Stadt höherwertiges Gewerbe, bevorzugt aus dem Technologiesektor, anzusiedeln. Als erstes Unternehmen wechselte im Jahr 2006 die Firma "Bode Timm & Partner GmbH", ein Vermarkter von Anzeigenblättern, von Düsseldorf dorthin. Dort befindet sich unter anderem seit 2008 die "MAG-Autowelt" (Opel, Honda, Chevrolet). Am 14. März 2013 wurde auf dem Gelände des früheren Karstadt- bzw. Hertie-Komplexes ein Einkaufszentrum unter dem Namen "Königshof-Galerie" eröffnet. Verkehr. auf der alten Rheinischen Strecke fährt heute die Regiobahn Durch Mettmann führt die Bahnstrecke Düsseldorf-Derendorf–Dortmund Süd. In Mettmann Stadtwald endet die Regiobahn-Linie S 28 (Mettmann–Erkrath–Düsseldorf–Neuss-Kaarst), welche werktags alle 20 Minuten und am Wochenende alle 30 Minuten verkehrt. Sie bedient drei Haltestellen in Mettmann: Mettmann Stadtwald, Mettmann Zentrum und Neanderthal. Die Wiederbelebung der alten rheinischen Strecke in den neunziger Jahren wurde maßgeblich vom ehemaligen Stadtrat Paul-Heinz Schuh initiiert. Die Linie wird gegenwärtig über die bestehende Strecke zum Bahnhof Dornap-Hahnenfurth und weiter über eine neu zu bauende Abzweigung nach Wuppertal-Vohwinkel ausgebaut werden. Des Weiteren ist eine Verlängerung der Linie im Westen über Viersen nach Venlo im Gespräch. Von 1930 bis 1952 verkehrte zwischen Mettmann und Gruiten der Fahrdrahtbus Mettmann–Gruiten, dies war der erste neuzeitliche Oberleitungsbus Deutschlands. Er wurde von Gustav Kemmann entwickelt. Kemmann stammte aus Mettmann und suchte die anspruchsvolle Strecke im Bergischen Land als Teststrecke aus. Zwischen dem 19. Juli 1909 und dem 17. Mai 1952 verkehrten in Mettmann zudem die Straßenbahnen der Kreis Mettmanner Straßenbahn GmbH. Der übrige öffentliche Nahverkehr in Mettmann wird durch die Rheinbahn betrieben. Sie betreibt dort 13 Buslinien. Mit dem Auto ist Mettmann über die A 3 (Anschlussstelle Mettmann), A 46/A 535 (Anschlussstelle Wuppertal-Dornap), A 44 (Anschlussstelle Ratingen-Schwarzbach) und die B 7 (aus Richtung Düsseldorf/Wuppertal) erreichbar. Der Düsseldorfer Flughafen ist 20 Kilometer entfernt, der Bonn 50 Kilometer. Gesundheitswesen. Mettmann besitzt mit dem evangelischen Krankenhaus in der Gartenstraße ein modernes Krankenhaus mit 237 Betten, das in den kommenden Jahren weiter ausgebaut werden soll. Die Gründung dieses Hauses geht auf das Jahr 1877 zurück. Bildung. Für seine Einwohner hält Mettmann eine große Anzahl verschiedener Schulformen sowie eine eigene Musikschule, eine Volkshochschule, eine Stadtbibliothek, sowie ein umfangreiches Stadtarchiv vor. Seit Oktober 2009 ist Mettmann mit der Eröffnung der FHDW (Fachhochschule der Wirtschaft) Hochschulstandort. Schulen. Die fertiggestellte Fachhochschule der Wirtschaft Sport. Ralph Roese wurde in den Jahren 1931 und 1932 Deutscher Motorrad-Straßenmeister in der Klasse bis 1000 cm³. Anschließend wechselte er zum Automobilrennsport und errang 1938 einen beachtenswerten dritten Platz beim 24-Stunden-Rennen von Spa-Francorchamps. 1939 wurde er deutscher Sportwagenmeister in der Klasse bis 1,5 Liter Hubraum. Der dritte Gesamtrang bei der Mille Miglia 1940 gilt als sein international größter Erfolg. Alle Rennen bestritt er als Werks- und Privatfahrer auf Fahrzeugen von BMW. Der Verein "Mettmanner TV" spielte von 1969 bis 1974 fünf Jahre lang in der Tischtennis-Bundesliga. 1971/72 wurde er Deutscher Meister. Der Hockey- und Tennisverein Mettmanner THC (früher THC Mettmann) spielte jahrelang Leistungssport: Das Hockeyteam in der Oberliga (damals höchste Spielklasse), das Tennisteam in der Regionalliga (damals zweite Liga). Heute spielt die 1. Mannschaft im Hockey in der Oberliga, das Herrenteam im Tennis in der 2. Verbandsliga. Der zurzeit mitgliederstärkste Sportverein (über 5000 Mitglieder) ist "mettmann-sport e.v.". Er wurde am 17. Januar 2005 in das Vereinsregister aufgenommen und trat die Nachfolge dreier alteingesessener Mettmanner Vereine (MTV, MSC, TSV Metzkausen) an. Das Herrenteam der Handball-Abteilung spielt derzeit in der Oberliga, die Damen in der Regionalliga. In Mettmann-Metzkausen entsteht in unmittelbarer Nähe zum Heinrich-Heine-Gymnasium ein neues Sportzentrum für die Stadt Mettmann, das von der Schule sowie von "mettmann-sport e.v." für Fußball und Leichtathletik genutzt wird. Bisher ist allerdings lediglich der erste von drei geplanten Kunstrasen-Fußballplätzen mit Laufbahn fertiggestellt. 2004 wurde das Mettmanner Freibad zum Naturfreibad umgebaut. Hier wird in den Sommermonaten Schwimmvergnügen ohne Chemie geboten. Strandbereiche mit Strandkörben sind ebenso wie ein Matschspielplatz und eine Wasserrutsche im Angebot. Klima. Das Klima in Mettmann ist gemäßigt, aber warm. Durch die Lage zwischen Rheinland und Bergischen Land sind die Winter relativ mild und die Sommer mäßig warm. Der wärmste Monat ist mit 18,0 °C der Juli, am kältesten ist es mit 1,5 °C im Januar. Die Jahresdurchschnittstemperatur beträgt 9,7 °C. Die Niederschläge verteilen sich gleichmäßig über das ganze Jahr mit Maximum im Juni mit 88 und Minimum im Februar mit 55 Millimetern. Pro Jahr fallen 856 Millimeter Niederschlag. Max Born. Max Born (* 11. Dezember 1882 in Breslau; † 5. Januar 1970 in Göttingen) war ein deutscher Mathematiker und Physiker. Für grundlegende Beiträge zur Quantenmechanik wurde er 1954 mit dem Nobelpreis für Physik ausgezeichnet. Leben und Werk. Max Born wurde in Breslau in Schlesien geboren. Er stammte aus einer großbürgerlichen assimilierten deutsch-jüdischen Familie. Sein Vater Gustav Born (1851–1900) war Professor für Anatomie und Embryologie an der Universität Breslau. Nach Besuch des humanistischen König-Wilhelm-Gymnasiums studierte Max Born ab 1901 in Breslau, Heidelberg, Zürich, Cambridge (bei Joseph Larmor und J. J. Thomson) und Göttingen zuerst Rechtswissenschaften und Moralphilosophie, später Mathematik, Physik und Astronomie. Er promovierte 1906 bei David Hilbert in Göttingen (Beiträge zur Bestimmung der Lichtbrechungsverhältnisse doppeltbrechender Krystalle durch Prismenbeobachtungen), dessen physikalischer Assistent er war. 1908/09 studierte er bei Otto Lummer und Ernst Pringsheim senior in Breslau Experimentalphysik, befasste sich aber auch mit Relativitätstheorie (und speziell der Theorie starrer Körper in der Relativitätstheorie und Theorie des Elektrons), was ihm 1909 eine Einladung von Hermann Minkowski nach Göttingen brachte, wo er sich 1909 habilitierte (Untersuchungen über die Stabilität der elastischen Linie in Ebene und Raum, unter verschiedenen Grenzbedingungen). Bald darauf starb Minkowski und Born gab dessen physikalische Arbeiten aus dem Nachlass heraus. Ein weiteres Forschungsfeld war die Theorie atomarer Kristallgitter. Hierüber veröffentlichte er 1915 das Buch "Dynamik der Kristallgitter". Bei Beginn des Ersten Weltkrieges teilte er die allgemeine Kriegsbegeisterung, aber wegen seines Asthmas war er nicht fronteinsatzfähig. Daher meldete er sich bei den Funkern zum Heeresdienst und wurde Mitglied einer Gruppe von Technikern und Physikern unter der Leitung von Max Wien. In dieser Zeit war er bei der Artillerie-Prüfungs-Kommission in einer Gruppe unter der Leitung von Rudolf Ladenburg mit Schallortungs-Versuchen für die Artillerie befasst. Er bemühte sich in dieser Zeit, auch andere Physiker und Mathematiker vom Fronteinsatz abzuziehen und so über den Krieg zu retten. Zu seinen Mitarbeitern zählten z.B. Alfred Landé, Erwin Madelung, Fritz Reiche. Born war nach der Habilitation zunächst Privatdozent in Göttingen, war 1914/1915 außerordentlicher Professor an der Universität Frankfurt und wurde 1915 dann außerordentlicher Professor für theoretische Physik an der Friedrich-Wilhelms-Universität Berlin, wo er mit Max Planck, Albert Einstein und Walther Nernst zusammenarbeitete. 1919 erhielt er seinen ersten Lehrstuhl (ordentlicher Professor) in Frankfurt am Main (wobei er seinen Lehrstuhl mit dem von Max von Laue tauschte, der nach Berlin ging). Born war von 1921 bis 1933 Professor in Göttingen. Hier entwickelte er unter anderem mit Wolfgang Pauli, Werner Heisenberg, Pascual Jordan und Friedrich Hund große Teile der modernen Quantenmechanik. Nach ihm benannte Verfahren wie die Born-Oppenheimer-Näherung in der Molekülphysik (1928) und die Bornsche Näherung in der Streutheorie erinnern an seine Pionierleistungen. Er entwickelte die "statistische Interpretation der Wellenfunktion", die später als Kopenhagener Deutung bekannt wurde und für die er 1954 den Nobelpreis für Physik erhielt. Bereits 1948 wurde ihm die Max-Planck-Medaille verliehen, 1950 die Hughes-Medaille. Max Born beschäftigte sich auch mit theoretischer Optik, über die er mit Emil Wolf ein heute noch bedeutendes Lehrbuch geschrieben hat. Im Jahr 1933, nach der Machterlangung der Nationalsozialisten, wurde Max Born wegen seiner jüdischen Vorfahren und seiner pazifistischen Einstellung zwangsbeurlaubt, aufgrund des Berufsbeamtengesetzes der Hitler-Regierung. 1936 wurde ihm auch die deutsche Staatsbürgerschaft entzogen. Er emigrierte nach England (1939 wurde er britischer Staatsbürger) und hatte zunächst ab 1933 eine Dozentur in Cambridge, dann ab 1936 eine Professur an der Universität von Edinburgh, wo er bis zu seiner Rückkehr nach Deutschland 1953 blieb. Zudem engagierte sich Born für die Notgemeinschaft deutscher Wissenschaftler im Ausland, um anderen verfolgten Akademikern Stellen zu vermitteln. Am 28. Juni 1953 wurde er zum Ehrenbürger von Göttingen ernannt, wo man später auch eine Straße nach ihm benannte. Sein Grab befindet sich auf dem Göttinger Stadtfriedhof, obwohl er zuletzt nicht in Göttingen selbst, sondern in dem nicht weit entfernten Bad Pyrmont lebte. Neben seinen physikalischen Untersuchungen hat sich Max Born immer wieder mit Reden zu philosophischen und gesellschaftspolitischen Themen Gehör zu verschaffen versucht. So war er 1957 Mitunterzeichner des Göttinger Manifests, das sich gegen die atomare Aufrüstung der Bundeswehr wandte. In diesem Zusammenhang hat er wiederholt auf die wichtige Rolle hingewiesen, die seine Frau Hedwig für die Herausbildung und Überprüfung seiner eigenen Standpunkte spielte. Mit ihr zusammen verfasste er unter anderem das Buch "Der Luxus des Gewissens – Erlebnisse und Einsichten im Atomzeitalter" (1958). Friedrich Hund und Max Born, 1966 Mit Albert Einstein verband Born eine lebenslange enge Freundschaft, auch wenn Einstein die Arbeiten Borns zur Quantentheorie skeptisch betrachtete. Sein Briefwechsel mit Einstein, der unter anderem für die Geschichte der Interpretation der Quantenmechanik interessant ist, wurde in Buchform veröffentlicht. Vor allem Born ist Anfang des 20. Jahrhunderts die Herausbildung einer fruchtbaren Schule theoretischer Physiker in Göttingen zu verdanken, zu der auch viele durchreisende ausländische Physiker kamen. Zu seinen Doktoranden zählen Maria Goeppert-Mayer, Victor Weisskopf, Robert Oppenheimer, Siegfried Flügge, Friedrich Hund, Pascual Jordan, Maurice Pryce (in Cambridge), Herbert S. Green (in Edinburgh). Sein Sohn Gustav Victor Rudolf Born ist ein bekannter britischer Pharmakologe. Festkolloquium 1962/1963. Im Wintersemester 1962/63 fand anlässlich des achtzigsten Geburtstages von Max Born am Physik-Fachbereich der Universität Göttingen ein Festkolloquium statt, auf dem Werner Heisenberg über seine damals so genannte „Weltformel“ referierte und auch Friedrich Hund anwesend war (beide Assistenten Max Borns in den zwanziger Jahren). Bei der Diskussion nach dem Vortrag sprang Max Born, der in der Mitte der ersten Bank gesessen hatte, wie ein junger Sportler über die Brüstung und malte nach wenigen Worten eigene Formeln an die Tafel. Die Formeln, die mit der sog. Born-Infeld-Theorie aus den dreißiger Jahren zusammenhingen, verstanden damals allerdings die wenigsten Zuhörer, aber das war auch nicht beabsichtigt: „Für die jungen Leute“ wolle er (der Achtzigjährige[!]) nur "einige Anregungen geben". Silikatverwitterung. Die Silikatverwitterung bezeichnet die hydrolytische Zersetzung von Silikaten, also die chemische Reaktion der Mineralbestandteile mit den formula_1- und formula_2-Ionen des dissoziierten Wassers. Besonders der hydrolytischen Zersetzung ausgesetzt sind Verbindungen, die aus einer schwachen Säure und/oder einer schwachen Base bestehen. Dies sind vor allem Carbonate (die zu Calciumhydrogencarbonat dissoziieren) und Silikate – somit ist ein Großteil der gesteinsbildenden Minerale der Hydrolyse unterworfen. Für die Verwitterung der Silikate soll der Prozess der Hydrolyse am Beispiel des Kalifeldspats erläutert werden, da er mit ca. 20 % Volumenanteil eines der häufigsten Minerale in der Erdkruste darstellt. formula_5 Durch die in der Natur vorkommenden Bodenporenlösungen werden die formula_2-Ionen jedoch durch die Protonen der enthaltenen Säuren neutralisiert. Dabei werden die formula_3-Ionen ausgewaschen, adsorbiert oder als wichtiger Bodennährstoff durch die Pflanzen aufgenommen. Schreitet die Anlagerung der Protonen und formula_2-Ionen an das Kristallgitter des Feldspats voran, werden innerhalb der silikattypischen Tetraederverbindungen die formula_9 - und formula_10 -Bindungen aufgelöst. formula_11 Dieser Schritt der Silikatverwitterung wird Desilifizierung genannt, da der Lösung ein großer Teil des Silikats entzogen wird. Andere Silikate, wie zum Beispiel Glimmer, Hornblenden oder Olivin, sind im Prinzip genauso von diesen Verwitterungsprozessen betroffen. Aus den ionaren und molekularen Zersetzungsprodukten der hydrolytischen Spaltung können als feste Produkte sekundäre (Ton-)Minerale rekristallisieren (zum Beispiel Kaolinit oder Illit). Dabei können die neugebildeten Minerale das Volumen des aufgelösten Minerals ausfüllen und dadurch seine einstige Gestalt annehmen (Pseudomorphose) oder sich an der Gesteinsoberfläche abscheiden. Masse (Physik). Die Masse, auch Ruhemasse oder invariante Masse, ist eine Eigenschaft der Materie. In den meisten physikalischen Größensystemen ist sie eine der Basisgrößen. Sie wird gemäß dem internationalen Einheitensystem in der Einheit Kilogramm angegeben. Das Formelzeichen ist meist formula_1. Die Masse ist eine extensive Größe. Jedes physikalische System hat eine Masse. Sie ist unabhängig von der Bewegung gegenüber einem Bezugssystem. Ist die Masse eines in Bewegung befindlichen Systems nicht null, sind die beiden mit der Bewegung verbundenen Erhaltungsgrößen, Impuls und kinetische Energie, zu seiner Masse proportional. Die Gravitation eines Systems ist proportional zu seiner Masse. Zugleich bestimmt seine Masse die Trägheit, mit der der Bewegungszustand des Systems als Ganzes auf Kräfte reagiert. Diese doppelte Rolle der Masse ist Inhalt des Äquivalenzprinzips. Ferner bestimmt die Masse eines Systems dessen Ruheenergie. Aufgrund der Äquivalenz von Masse und Energie unterscheiden sich die beiden Größen Masse und Ruheenergie nur durch den konstanten Faktor Lichtgeschwindigkeit zum Quadrat (formula_3). Die Masse wird außerhalb der Physik auch als "Gewicht" bezeichnet. Dabei sollte beachtet werden, dass dieses Wort auch für die verwandte, aber nicht identische Bedeutung Gewichtskraft stehen kann. Masse in der klassischen Mechanik. Die Eigenschaft Nr. 1 ist ein Teil des Zweiten Newtonschen Gesetzes und definiert die Bedeutung der physikalischen Größe "Masse" durch ihre Trägheit, allerdings setzt sie die Definition der Größe "Kraft" voraus. Die Eigenschaft Nr. 2 ist Teil des Newtonschen Gravitationsgesetzes, das zur Grundlage der genauen Beschreibung der Erdanziehung und der Planetenbewegung wurde. Sie liefert die benötigte Kraftdefinition, indem sie die Gravitationskraft konkret angibt und damit alle weiteren Kräfte durch Vergleich mit der aus der Gravitation folgenden Gewichtskraft zu messbaren Größen macht. Die im Gravitationsgesetz enthaltene Feststellung, dass es die durch Trägheit definierte Masse ist, welche die Gravitation verursacht, wird als "Äquivalenz von träger und schwerer Masse" bezeichnet. Die beiden nächsten Eigenschaften Nr. 3 und 4 der Masse ergeben sich in der Newtonschen Mechanik als Folgerungen aus der definierenden Eigenschaft Nr. 1. Die Massenerhaltung (Eigenschaft Nr. 5) ist eine Erfahrungstatsache zunächst aus dem Bereich der Mechanik, deren Gültigkeit Ende des 18. Jahrhunderts (vor allem durch Antoine de Lavoisier) auch auf die chemischen Vorgänge ausgeweitet werden konnte. Zusammen entsprechen die drei letztgenannten Eigenschaften genau der Vorstellung von einer unzerstörbaren Substanz, aus der die materielle Welt besteht. Diese beiden Erhaltungssätze für Impuls und Energie sind grundlegend sowohl für die klassische als auch für die moderne Physik und gelten in der gegebenen Formulierung exakt in beiden Bereichen. Auf ihrer Grundlage kann man eine neue Definition der Masse geben, die im Ergebnis mit den fünf oben genannten Eigenschaften übereinstimmt, aber keine von ihnen schon voraussetzt. Man benötigt dazu noch die genaue Festlegung, wie die Beschreibung eines physikalischen Vorgangs abzuändern ist, wenn man in ein bewegtes Bezugssystem wechselt. Es ist kein Rückgriff auf den Kraftbegriff nötig, der nach Ernst Mach, Gustav Kirchhoff, Heinrich Hertz und anderen im 19. Jahrhundert als ungeeignet für einen wissenschaftstheoretisch befriedigenden Grundbegriff kritisiert wurde. Umbruch zur modernen Physik. Im Rahmen der klassischen Physik, und damit auch in der Alltagswelt, gelten alle fünf oben genannten Eigenschaften der Masse. In der von Relativitätstheorie und Quantenphysik geprägten modernen Physik ist ihre Geltung nur noch näherungsweise. H. A. Lorentz entdeckte zu Beginn des 20. Jahrhunderts, dass für elektrodynamische Vorgänge ein Wechsel des Bezugssystems nicht mithilfe der Galilei-Transformation sondern mittels der Lorentz-Transformation vollzogen werden muss. Albert Einstein erkannte, dass dies für jedes physikalische Phänomen gilt, auch im Bereich der Mechanik. Das lässt den Zusammenhang zwischen der Kraft und der von ihr bewirkten Änderung der Geschwindigkeit weit komplizierter werden als in der klassischen Definition der Masse (Eigenschaft Nr. 1) angenommen. Außerdem folgt, dass ein System bei Änderung seiner inneren Energie (das ist der Energieinhalt, den er in seinem Ruhesystem hat) eine dazu proportionale Änderung seiner Masse erfährt. Die Masse eines zusammengesetzten Körpers hängt also nicht nur von den Massen seiner Bestandteile ab, sondern auch von den kinetischen und potenziellen Energien, die diese haben, wenn der Körper als Ganzes ruht. So verliert ein Körper beim Zusammensetzen aus einzelnen Bestandteilen an Masse, wenn Bindungsenergie frei wird, man spricht vom Massendefekt. Umgekehrt vergrößert sich seine Masse, wenn seine Bestandteile sich heftiger bewegen, wie das etwa bei Erwärmung der Fall ist. Dabei ergeben sich die betreffenden Energiewerte stets so, dass man den Wert der Masse bzw. Massenänderung mit dem Quadrat der Lichtgeschwindigkeit multipliziert. Dieser Umrechnungsfaktor ist eine universelle Konstante. Mithin lassen sich Veränderungen der Masse und der Energie überhaupt nicht voneinander trennen, vielmehr besteht eine allgemeine Äquivalenz von Masse und Energie. Die Äquivalenz von Masse und Energie gilt immer. Einem in Ruhe befindlichen Körper muss man entsprechend seiner Masse formula_1 eine Ruheenergie formula_5 zuschreiben (Einsteinsche Gleichung). Umgekehrt muss man nach derselben Gleichung einem System immer auch eine Masse zuschreiben, wenn es Ruheenergie besitzt, d. h. wenn es beim Gesamtimpuls null noch Energie hat. Dies bleibt im Alltag meist verborgen, wird aber besonders deutlich bei der gegenseitigen Vernichtung (Annihilation) von zwei massebehafteten Elementarteilchen, wenn man den Prozess in deren Schwerpunktsystem betrachtet, also im Ruhesystem des Zweiteilchensystems. Es entsteht Vernichtungsstrahlung mit einer Energie, die durch die Ruheenergie des verschwundenen Zweiteilchensystems gegeben ist. Sie hat den Gesamtimpuls null, wie vorher das Zweiteilchensystem auch. Diesem Strahlungsfeld muss auch dieselbe Masse zugeschrieben werden wie dem Zweiteilchensystem, denn es lässt sich kein Unterschied feststellen. Auch masselose Objekte (z. B. zwei oder mehr Lichtquanten) können also Systeme bilden, die eine Masse haben. Im Endergebnis definiert man ganz allgemein die Masse mittels der Gleichung formula_5 durch die Ruheenergie. Damit ist die Masse eine Lorentzinvariante, so wie die nach Newton definierte Masse eine Galilei-Invariante ist. Daher stimmen beide Definitionen der Masse nicht nur im Wert überein, sondern teilen eine tiefliegende Beziehung, an der aber auch ihr Unterschied deutlich wird: Beide Definitionen der Masse ergeben sich in gleicher Weise allein aus dem Erhaltungssatz für den Impuls, wenn man ihn einmal im Ruhesystem formuliert und ein zweites Mal in einem dagegen bewegten Bezugssystem (s. u.). Vollzieht man den Übergang von einer zur anderen Beschreibung mit der nur näherungsweise richtigen Galilei-Transformation, gelangt man zum klassischen Begriff der Masse, vollzieht man ihn mit der Lorentz-Transformation, gelangt man zum modernen Begriff der Masse. Die ursprüngliche Bedeutung der Masse als Maß für die Menge der Materie ist nicht mehr aufrechtzuerhalten. Wechsel im Wortgebrauch. Zu dem genauen Gebrauch der Benennung „Masse“ ist eine historische Anmerkung nötig: Um die klassische Definition der Masse in eine relativistisch korrekte zu überführen, wurde zunächst die Masse eines Systems einfach durch seinen gesamten Energiegehalt definiert, d. h. durch die Summe aus Ruheenergie und kinetischer Energie, dividiert durch den erwähnten universellen Faktor formula_3. So ergab sich die sogenannte „relativistische Masse“, die oft aber einfach nur als „Masse“ bezeichnet wurde. Je kleiner die kinetische Energie eines Systems gegenüber seiner Ruheenergie ist, desto besser stimmen beide Definitionen überein. Jedoch ist diese „relativistische Masse“ für ein und dasselbe System je nach dem Bezugssystem, in dem es beobachtet wird, so verschieden wie seine kinetische Energie. Die „relativistische Masse“ eines Systems variiert also mit seiner Geschwindigkeit, ist lediglich ein anderer Ausdruck für seine jeweilige Gesamtenergie und hat keine eigenständige Bedeutung. Nur die zur Ruheenergie gehörende Masse charakterisiert das System als solches, sie erhielt in diesem Zusammenhang den neuen Namen „Ruhemasse“. Diese Benennungen sind zwar noch häufig anzutreffen, werden aber zunehmend durch die moderne Wortwahl verdrängt: „Masse“ steht darin ausschließlich für die zur Ruheenergie gehörende Masse, ist also eine vom Bezugssystem unabhängige Größe, die das jeweilige System als solches charakterisiert. Definition der Masse mithilfe der Impulserhaltung. Die Herleitung des Massenbegriffs aus der Impulserhaltung beleuchtet sowohl Unterschiede als auch Ähnlichkeiten zwischen der klassischen und der relativistischen Physik. Als Ergebnis der Herleitung sieht man: Wenn jedem Körper einzeln eine zu seiner Geschwindigkeit formula_13 parallele Größe formula_14 zugeordnet werden kann, so dass die Summe dieser beiden Größen bei einem inelastischen Stoß konstant bleibt, dann muss es zu jedem Körper einen vom Bezugssystem unabhängigen Wert formula_1 geben, mit dem formula_16 (klassisch) bzw. formula_17 (relativistisch) gilt. Man bezeichnet formula_18 als den Impuls und formula_1 als die Masse des Körpers. Hiermit ist eine eigenständige Definition der Masse gegeben, die allein auf der Impulserhaltung beruht. Weiter ergibt sich, dass außer der Summe der Impulse in der klassischen Physik auch die Summe der Massen erhalten bleibt, in der relativistischen Physik aber die Summe der Größen formula_20, die (bis auf den universellen Faktor formula_3) die Energien der einzelnen Körper angibt. Für diese Herleitung betrachtet man den vollkommen inelastischen Stoß, d. h. zwei Körper (formula_22), die sich aufeinander zubewegen und zu einem einzigen (formula_23) vereinigen. Die Impulse (formula_24) sind jeweils parallel zur Geschwindigkeit (formula_25), mit zunächst unbekannten Faktoren (formula_26). Impulserhaltung bedeutet Darin sind formula_39 die Geschwindigkeiten der beiden stoßenden Körper im bewegten Bezugssystem. Diese Gleichung zwischen den drei Geschwindigkeiten ist mit der obigen Gleichung zwischen den drei Impulsen nur dann verträglich, wenn Demnach ist in der klassischen Mechanik die Masse eine additive Erhaltungsgröße. Man muss statt der Galilei-Transformation die Lorentz-Transformation zugrundelegen. Dann gilt statt der einfachen Addition der Geschwindigkeitsvektoren das relativistische Additionstheorem. Daraus folgt (nach längerer Rechnung): Nicht formula_50 ist parallel zu formula_37, sondern der Vektor formula_52. Multipliziert mit einer Konstante, die hier im Vorgriff schon mit formula_1 bezeichnet wird, muss sich der Gesamtimpuls formula_54 ergeben. Folglich sind die beiden Impulse der stoßenden Körper durch gegeben. Dies geht für kleine Geschwindigkeiten, wo formula_56 gesetzt werden kann, in die nichtrelativistische Formel formula_57 über, womit der konstante Faktor formula_1 sich tatsächlich als die Masse in relativistischer Definition erweist. Die Gleichung der Impulserhaltung lautet nun Nach dieser Gleichung ist die nach der relativistischen Formel formula_62 berechnete Energie eine additive Erhaltungsgröße. Einheiten. Die SI-Basiseinheit der Masse ist das Kilogramm mit dem Einheitenzeichen kg. Im Zusammenhang mit geschäftlichen Vorgängen ist in den meisten Industrieländern die Verwendung des Kilogramms als Masseneinheit rechtlich vorgeschrieben. Für die Angabe der Masse von Atomen und Molekülen ist die Atomare Masseneinheit (amu) weit verbreitet. Bei Elementarteilchen ist eine Angabe in Elektronenvolt geteilt durch das Quadrat der Lichtgeschwindigkeit üblich. Direkte Massenbestimmung. Die direkte Messung der Masse erfolgt am ruhenden Körper durch Vergleich mit einer Referenzmasse. Zwei Massen sind gleich, wenn sie im selben Schwerefeld die gleiche Gewichtskraft haben. Dies kann man mit einer Balkenwaage überprüfen. Dabei ist die Stärke des Schwerefeldes unerheblich, es muss nur von Null verschieden und an den Orten der beiden Körper gleich sein. Zur Festlegung der Masseneinheit siehe Urkilogramm. Indirekte Massenbestimmung. Die Beschleunigung formula_65 gibt dabei die durch eine Kraft formula_66 verursachte Geschwindigkeitsänderung an. Beispiel zur trägen Masse: Wird ein Körper durch die konstante Kraft formula_67 innerhalb des Zeitintervalls formula_68 um formula_69 schneller, so ist seine Beschleunigung Beispiel zur schweren Masse: Durch die Gravitation der Erde werden frei fallende Körper mit beschleunigt. Ein Körper, der auf der Erdoberfläche mit der Gewichtskraft formula_67 angezogen wird, hat die Masse Klassische Physik. In der klassischen Physik ist die Masse eine Erhaltungsgröße. Das bedeutet, dass sich die Masse in einem geschlossenen System nicht ändert. Wenn beispielsweise ein Stück Holz verbrennt, dann haben nach der klassischen Physik die entstehenden Verbrennungsabgase und die Asche nach der Verbrennung exakt die gleiche Masse wie das Holzstück und der verbrauchte Luftsauerstoff vor der Verbrennung. Dies wird als selbstverständliche empirische Tatsache angenommen, ohne dafür eine Begründung zu geben. Ebenso wenig erklärt die klassische Mechanik die Äquivalenz von schwerer und träger Masse. Als "schwere Masse" bezeichnet man sowohl die Quelle der Gravitationskraft als auch die „Gravitationsladung“. Die von der Masse formula_83 auf die Masse formula_84 ausgeübte Kraft ist wobei die Massen punkt- oder kugelförmig gedacht sind und formula_86 der Vektor von formula_83 nach formula_84 ist. formula_89 ist die Gravitationskonstante, eine Naturkonstante. Hier ist die träge Masse also der Proportionalitätsfaktor zwischen Kraft und Beschleunigung. Definition der Masse als Lorentzinvariante. Darin ist formula_97 die Energie und formula_98 der Betrag des Impulses des Systems. Der Faktor formula_104 heißt auch Lorentzfaktor. In der speziellen Relativitätstheorie ist der Impuls formula_98 also nicht wie bei Newton das Produkt von Masse formula_1 und Geschwindigkeit formula_107. Die Newtonsche Formel gilt nur als Näherung im nichtrelativistischen Grenzfall. Relativistische Masse. Um dennoch die Newtonsche Formel beibehalten zu können, wurde der Begriff relativistische Masse eingeführt, sodass formula_109 gilt. In diesem Zusammenhang wird die Größe formula_1 „Ruhemasse“ genannt und oft mit formula_111 bezeichnet Es gilt also Der Begriff der relativistischen oder relativistisch veränderlichen Masse wird in der populären Literatur heute noch benutzt, jedoch zunehmend vermieden, weil die relativistische Masse formula_113 an Stelle von formula_1 nur in den Gleichungen für den Impuls und für die relativistische Energie formula_115 zu richtigen Ergebnissen führt. Im newtonschen Gravitationsgesetz eingesetzt bringt sie aber falsche Ergebnisse hervor, ebenso im newtonschen Gesetz formula_116, sofern die Kraft nicht senkrecht zur Bewegungsrichtung steht. Der letztgenannte Mangel ergibt sich aus der Definition der Kraft formula_66 durch die zeitliche Änderung des Impulses, in der speziellen Relativitätstheorie also Bildet man hieraus die Größe formula_119 und damit die Größe Man sieht aber, dass die Richtung der Beschleunigung nur dann parallel zur Kraft ist, wenn diese genau senkrecht oder parallel zur Geschwindigkeit einwirkt. Andernfalls hat die Beschleunigung auch einen Anteil, der parallel oder antiparallel zur Geschwindigkeit ist und mit zunehmender Geschwindigkeit anwächst. Zudem ergibt sich die Beschleunigung um den Faktor formula_125 geringer, wenn die Kraft in oder entgegengesetzt zur Richtung der Geschwindigkeit einwirkt als senkrecht dazu. Welche Beschleunigung eine Kraft formula_91 bewirkt, hängt also nach Größe und Richtung von der Geschwindigkeit des Körpers ab. Es gibt keinen einfachen Proportionalitätsfaktor zwischen Kraft und Beschleunigung wie in der newtonschen Mechanik. Die unterschiedliche Trägheit "in Richtung" der Bewegung und "quer dazu" hatte man zunächst mit den Begriffen der longitudinalen und transversalen Masse zu erfassen versucht, die aber heute nicht mehr verwendet werden. Ruheenergie. Damit ist die Ruhenergie durch die Masse des Systems eindeutig bestimmt und umgekehrt. Beide Größen unterscheiden sich nur durch den konstanten Faktor formula_3 und sind daher äquivalent. Die Ruheenergie von Teilchen wirkt sich insbesondere bei Erzeugungs- (z. B. Paarbildung) und Vernichtungsvorgängen (z. B. Annihilation) aus. Die Ruheenergie eines Photons ist null, die des Elektrons beträgt 0,511 MeV, diejenige eines Protons 938 MeV. Mehrteilchensysteme. wobei formula_138 die Anzahl der Teilchen ist. Hierbei ist die invariante Masse des Mehrteilchensystems formula_139 im Allgemeinen nicht gleich der Summe der Massen der Einzelteilchen. Multipliziert man die invariante Masse mit dem konstanten Faktor formula_3, so ergibt sich daraus die Ruheenergie des Systems, in diesem Zusammenhang auch als Schwerpunktsenergie bezeichnet. Diese umfasst nicht nur die Ruheenergien der einzelnen Teilchen, sondern auch ihre Relativbewegung gegenüber dem Schwerpunkt. Zur Erläuterung stelle man sich ein Gefäß vor, das ein Gas enthält. Fügt man dem Gas Energie zu, indem man es komprimiert oder erhitzt, so hat das Gefäß als Ganzes eine erhöhte Schwerpunktsenergie und damit eine größere invariante Masse. Im Detail betrachtet verändert sich die Masse der einzelnen Gasmoleküle dabei nicht, wohl aber ihre kinetische Energie relativ zum gemeinsamen Schwerpunkt. Die Schwerpunktsenergie ist – ebenso wie die invariante Masse – invariant unter Lorentztransformation. Sie gibt den Energiebetrag an, der für die Erzeugung neuer Teilchen bei einer Teilchenkollision zur Verfügung steht, und ist daher in der experimentellen Teilchenphysik von Bedeutung. Massendefekt. Gibt ein geschlossenes System Energie über die Systemgrenzen z. B. in Form von Strahlung ab, so verringert sich der Energieinhalt des Systems und damit seine Masse. In diesem Sinne ist die Masse in der modernen Physik keine Erhaltungsgröße mehr, wenngleich sich dies in alltäglichen Situationen kaum bemerkbar macht. Bei Kernreaktionen werden jedoch Energiemengen umgesetzt, die gegenüber der Ruhenergie der Kernbausteine nicht mehr zu vernachlässigen sind. Die Bindungsenergie führt dazu, dass ein Atomkern eine wägbar geringere Masse hat als die Summe seiner Bausteine. Die Differenz wird Massendefekt genannt. Die Bindungsenergie liegt bei den meisten Atomkernen zwischen 7 und 9 MeV pro Nukleon und bewirkt dadurch einen Massendefekt zwischen 0,7 und 0,9 Prozent. Sehr leichte Atomkerne (2H, 3H, 3He, Li, Be, B) weisen mit 1 bis 6 MeV geringere Bindungsenergien pro Nukleon und mit 0,1 und 0,6 Prozent geringere Massendefekte auf. Die Bindungsenergie chemischer Bindungen liegt mit typischen 2 bis 7 eV pro Bindung (pro Nukleon wäre sie entsprechend dem Molekülgewicht noch einmal deutlich kleiner) um 7 bis 9 Größenordnungen darunter. Daher konnte ein chemischer Massendefekt bisher noch nicht durch Wägung nachgewiesen werden. Zwar liegen die Werte bei einigen Reaktionen im Bereich der Nachweisgrenze aktueller Massekomparatoren (formula_141 Prozent): Der größte chemische Massendefekt ist formula_142 Prozent bei der Bindung formula_143. Zu formula_144 gehört ein Massendefekt von formula_145 Prozent. Jedoch sind diese Reaktionen stark exotherm und müssten daher in dickwandigen und absolut dichten Reaktionsgefäßen stattfinden, sodass die relative Massenänderung, die nach dem Abkühlen zu beobachten wäre, mit formula_146 Prozent in einem nicht mehr nachweisbaren Bereich liegt. Da bei chemischer Bindung der Massendefekt so klein ist, dass er bei keiner Wägung zu bemerken wäre, konnte Ende des 18. Jahrhunderts von Antoine de Lavoisier der Massenerhaltungssatz aufgestellt werden. Diese Erkenntnis trug maßgeblich zur Abkehr von der Alchemie und Phlogistontheorie bei und wurde damit eine wichtige Grundlage der auf den Begriff der chemischen Elemente gestützten Chemie. Allgemeine Relativitätstheorie. In der allgemeinen Relativitätstheorie wird der freie Fall von Körpern im Gravitationsfeld als kräftefrei verstanden. Eventuell wirkende Kräfte würden bewirken, dass die Bahnkurven vom freien Fall abweichen. Wird der Körper vom freien Fall abgehalten, ist eine Kraft nötig, deren Größe zur trägen Masse des Körpers proportional ist. Die Weltlinien frei fallender Teilchen sind die Geraden (genauer: Geodäten) der Raumzeit. Sie sind vollständig durch den anfänglichen Ort und die anfängliche Geschwindigkeit festgelegt und hängen nicht von anderen Eigenschaften wie Größe oder Masse des frei fallenden Teilchens ab (Äquivalenzprinzip). Da die Raumzeit gekrümmt ist, ergibt die Projektion der Geodäten auf den dreidimensionalen Ortsraum normalerweise keine Geraden, sondern beispielsweise Wurfparabeln. Quelle der Gravitation ist in der Grundgleichung der Allgemeinen Relativitätstheorie der Energie-Impuls-Tensor, der sich aus Energiedichte, Impulsdichten, Energieströmen und Impulsströmen zusammensetzt. Da die Energie ruhender Körper durch ihre Masse bestimmt ist, bewirkt allein deren Masse die Gravitation. Kann man die Bewegung der gravitationserzeugenden Körper vernachlässigen und ist die Geschwindigkeit der frei fallenden Teilchen klein gegen die Lichtgeschwindigkeit, so wirkt sich die Masse der gravitationserzeugenden Körper wie in Newtons Gravitationstheorie aus. Für Licht als Testteilchen trifft diese Einschränkung nicht zu: Es wird an der Sonne doppelt so stark abgelenkt, wie nach Newton zu erwarten wäre. Ursprung der Massen der Elementarteilchen. Im Standardmodell der Elementarteilchenphysik wird der Ursprung der Massen der Elementarteilchen durch den Higgs-Mechanismus erklärt. Durch Wechselwirkung mit dem Higgs-Boson, einem skalaren Elementarteilchen, das möglicherweise experimentell beobachtet wurde, erhalten sie eine Masse, wenn das dazugehörende "Higgs-Feld" auch im Vakuum nicht verschwindet. Nur die Masse des Higgs-Bosons selbst wird hierdurch nicht erklärt. Die Massen der Baryonen, zu denen auch Proton und Neutron gehören, sind allerdings ca. 100-mal größer als die Massen der drei Quarks, aus denen sie bestehen. Die Baryonenmassen werden dynamisch erklärt. Ansätze zur Berechnung liefern Gitterrechnungen in der QCD. Halb anschaulich kann man mit der geringen Ausdehnung der Baryonen von etwa 10−15 m argumentieren: Wenn sich die Quarks im Baryon auf so kleinem Raum konzentrieren, haben sie eine so kurze de-Broglie-Wellenlänge, dass ihre kinetische Energie formula_147 nach Einsteins Formel formula_148 erhebliche Masse bedeutet. Drei solcher Konstituenten-Quarks ergeben dann tatsächlich etwa die Masse des Protons oder Neutrons. Die Baryonen machen den größten Teil der Masse sichtbarer Materie aus. Es wird vermutet, dass „WIMPs“ (engl. ') wie etwa das hypothetische LSP (engl. ') die nicht sichtbare "Dunkle Materie" aufbauen könnten. Sprachgebrauch: Masse und Gewicht. Im allgemeinen Sprachgebrauch wird die Masse eines Objekts auch als Gewicht bezeichnet. Beispiele sind das Übergewicht, Leergewicht, Abtropfgewicht oder Gewichtsangaben in Kochrezepten. Dies trifft auch auf viele Gesetze und Verordnungen zu. Beispiele sind das Deutsche Mutterschutzgesetz und das Schweizer Straßenverkehrsgesetz. Beim Gleichsetzen von Masse und Gewichtskraft kann der Eindruck entstehen, die Masse hänge von der vor Ort herrschenden Schwerkraft ab. So ist die folgende Aussage missverständlich: „Auf dem Mond wiegt ein 60 kg schwerer Mensch nur ungefähr 10 kg.“ Klarer ist: „Ein Mensch mit einer Masse von 60 kg wiegt auf dem Mond ungefähr so viel, wie ein Mensch mit einer Masse von 10 kg auf der Erde wiegt.“ Margaret Mitchell. Margaret Munnerlyn Mitchell (* 8. November 1900 in Atlanta, Georgia; † 16. August 1949 ebenda) war eine US-amerikanische Schriftstellerin. Für ihren 1936 erschienenen Südstaaten-Roman "Vom Winde verweht" ("Gone with the Wind") wurde sie 1937 mit dem Pulitzer-Preis ausgezeichnet. Die gleichnamige Verfilmung aus dem Jahr 1939 mit Vivien Leigh und Clark Gable in den Hauptrollen ist einer der erfolgreichsten Filme aller Zeiten. Jugend und Privatleben. Margaret Mitchell House and Museum, Atlanta, Georgia Margaret Mitchell wurde in Atlanta als Tochter von Mary Isabelle „Maybelle“ Stephens und dem Rechtsanwalt Eugene Muse Mitchell geboren. Ihr Spitzname, unter dem sie später auch zuweilen in der Öffentlichkeit auftrat, war Peggy. Nachdem Mitchell ihre Schul- und Collegeausbildung beendet hatte, übernahm sie nach dem frühen Tod der Mutter im Jahr 1918 den elterlichen Haushalt und begann, für die Zeitung "Atlanta Journal" eine wöchentliche Kolumne in der Sonntagsausgabe zu schreiben. Am 2. September 1922 heiratete Mitchell Berrien „Red“ Upshaw, von dem sie sich 1924 wieder scheiden ließ. Am 4. Juli 1925 heiratete sie Upshaws Freund John Marsh. Vom Winde verweht. Mitchell begann 1926, "Vom Winde verweht" zu schreiben, als sie wegen Verletzungen und Arthritis längere Zeit ans Bett gefesselt war. Ihr Mann John Marsh kaufte ihr eine gebrauchte Remington-Reiseschreibmaschine, auf der sie innerhalb der folgenden zehn Jahre das mehr als 1000 Seiten umfassende Buch fertigstellte. Der Roman erschien am 30. Juni 1936. Im gleichen Jahr verkaufte Mitchell die Filmrechte an ihrem Buch für 50.000 US-Dollar an den Produzenten David O. Selznick. 1937 wurde Mitchell für "Vom Winde verweht" mit dem Pulitzer-Preis ausgezeichnet. Späteres Leben und Tod. Ab den 1940er Jahren arbeitete Mitchell ausschließlich ehrenamtlich für wohltätige Zwecke. Unter anderem sponserte sie die medizinische Ausbildung von unterprivilegierten College-Absolventen, gründete Notfallaufnahmen für Schwarze und Weiße am Grady Hospital in Atlanta, engagierte sich in der Afro-Amerikanischen Bewegung für Rechte und Ausbildung der Schwarzen in Atlanta und half während des Zweiten Weltkriegs in verschiedenen Krankenhäusern. Am 11. August 1949 wurde Mitchell beim Überqueren der Peachtree Street von einem betrunkenen Taxifahrer angefahren; ihre Verletzungen waren so schwer, dass sie nicht mehr aus dem Koma erwachte. Margaret Mitchell starb am 16. August 1949 im Grady Hospital und ist auf dem Oakland Cemetery in Atlanta begraben. Nach Mitchells Tod. 1965 wurde Mitchell postum der „Shining Light Award“ von der Atlanta Gas Light und der Radiostation WSB für ihre „Verdienste im Sinne der Menschlichkeit“ verliehen. 1989 wurde das Margaret Mitchell House, in dem "Vom Winde verweht" geschrieben wurde, von Atlantas Bürgermeister zu einem der offiziellen Wahrzeichen der Stadt ernannt. 1997 wurde es für die Öffentlichkeit als Museum freigegeben. 1987 erschien das Buch "Stolz und unbeugsam wie Scarlett. Margaret Mitchells Briefe an ihren Jugendfreund Allen Edee" aus der Zeit zwischen 1919 und 1921. 1996 folgte das Buch "Insel der verlorenen Träume", ein Roman, der 1995 zusammen mit Briefen und Fotos von Margaret Mitchell im Nachlass eines Jugendfreundes entdeckt worden war. Im Jahr 2000 erschien "Before Scarlett", eine Sammlung von bis dahin unveröffentlichten Geschichten und Novellen, die Margaret Mitchell im Alter zwischen sieben und 18 Jahren geschrieben hatte. Magmatisches Gestein. Proben verschiedener magmatischer Gesteine aus den peruanischen Anden Magmatisches Gestein (gr. "mágma" „geknetete Masse“) oder Erstarrungsgestein ist Gestein, das durch abkühlungsbedingtes Erstarren einer Gesteinsschmelze (Magma) entstanden ist. Die Magmatite sind neben den Sedimentgesteinen (Sedimentiten) und den Metamorphiten eine der drei Gesteinshauptgruppen. Gruppierung nach Gefügemerkmalen. Schematische Darstellung magmatischer Phänomene und der Bildung entsprechender magmatischer Gesteine und Gesteinskörper in der Erdkruste und an der Erdoberfläche Nach ihrer Erstarrungstiefe und den sich daraus ergebenden Gefügemerkmalen lassen sich magmatische Gesteine petrografisch in zwei Gruppen unterteilen: Plutonite (Tiefengesteine) entstehen durch Erstarren von Magma tief im Erdinneren, Vulkanite (Ergussgesteine) entstehen aus Magma, das aus dem Erdinneren bis zur Erdoberfläche aufgedrungen, als Lava an der Erdoberfläche ausgetreten und dort erstarrt ist. Ob die Abkühlung und Erstarrung der Gesteinsschmelze ober- oder unterirdisch erfolgt, hat einen deutlichen Einfluss auf die Textur des entstehenden Gesteins. Prinzipiell gilt hierbei: Je schneller die Schmelze erkaltet, desto feinkristalliner („feinkörniger“) wird das Gestein. Je langsamer das Magma abkühlt (bei guter Isolierung durch ein mehrere Kilometer mächtiges Deckgebirge), desto größere Kristalle können sich in der erkaltenden Schmelze bilden. Plutonite. "Plutonite" (nach Pluton, dem griechischen Gott der Unterwelt) oder "Tiefengesteine" werden Magmatite genannt, welche innerhalb der Erdkruste – gewöhnlich in einer Tiefe von einem bis mehreren Kilometern – langsam in einer Magmakammer auskristallisieren. Der entsprechende Gesteinskörper wird als Pluton, oder, wenn er besonders große Abmessungen aufweist und komplex aufgebaut ist, auch als Batholith bezeichnet. Die Plutonite haben eine mittel- bis grobkristalline („grobkörnige“) Struktur, das heißt, die einzelnen Mineralkörner, aus denen das Gestein besteht, sind mit bloßem Auge erkennbar. Der am weitesten verbreitete und bekannteste Vertreter ist der Granit. Vulkanite. "Vulkanite" (nach Vulcanus, dem römischen Gott des Feuers) oder "Ergussgesteine" sind jene Magmatite, die aus einer Gesteinsschmelze hervorgegangen sind, die bis an die Erdoberfläche gelangt ist. Sie werden auch als Extrusiv-, Ausbruchs-, Effusiv- und Vulkanische Gesteine bezeichnet. Das Aufdringen von Magma bis zur Erdoberfläche und die damit verbundenen Naturerscheinungen werden unter dem Begriff Vulkanismus zusammengefasst. Das aus einem Vulkan austretende flüssige Magma (und allgemeinsprachlich auch das nach der Erstarrung daraus hervorgegangene Gestein) wird "Lava" genannt. Weil sie infolge des extremen Temperaturunterschiedes an der Erdoberfläche rasch erstarren, sind vulkanische Gesteine oft sehr feinkörnig oder sogar glasig, da kaum Zeit zum Wachstum größerer Kristalle bleibt. Nicht selten kristallisiert jedoch ein Teil der Schmelze langsam in größerer Tiefe aus. Daher ist für viele Vulkanite ein porphyrisches Gefüge, mit größeren "Einsprenglingen" in einer feinkörnigen "Grundmasse" typisch. Der am weitesten verbreitete und bekannteste Vertreter ist der Basalt. Subvulkanite. Eine Übergangsform zwischen plutonischen und vulkanischen Gesteinen sind die "magmatischen Ganggesteine" (auch Subvulkanite, Übergangsmagmatite, Mesomagmatite oder Mikroplutonite genannt). Sie bilden sich, wenn ein Magma in einer geringen Krustentiefe bzw. in relativer Nähe zur Erdoberfläche weder besonders langsam noch besonders schnell auskristallisiert. Ein spezieller subvulkanischer Gesteinskörper ist der Lakkolith. Ein typischer Vertreter für ein subvulkanisches Gestein ist der Dolerit, das subvulkanische Äquivalent des Basalts bzw. Gabbros (daher auch "Mikrogabbro" genannt). Gruppierung nach der chemischen Zusammensetzung. Die magmatischen Gesteine können auch nach ihrer chemischen Zusammensetzung gruppiert werden. Dabei unterscheidet man anhand des Verhältnisses (mol-%) von K2O+Na2O zu SiO2 zwischen Während bei subalkalinen Magmatiten der Anteil von K2O+Na2O relativ niedrig im Verhältnis zu SiO2 ist, ist er bei Alkali-Magmatiten relativ hoch. Klassifikation. Magmatisches Gestein kann nach verschiedenen Kriterien klassifiziert werden. Eine der gebräuchlichsten Methoden ist die Einteilung im Streckeisendiagramm anhand des Mineralbestandes. Weitere gängige Methoden berücksichtigen die "Helligkeit" (Farbindex), die Textur oder den Chemismus (z. B. den SiO2-Gehalt oder den Gehalt an Alkalien, Eisen, Magnesium oder anderen Elementen). Umwandlung in andere Gesteine. Magmatischen Gesteine unterscheiden sich im Erscheinungsbild stark von Sedimentgesteinen oder Metamorphiten, können aber mineralogisch nahe verwandt sein. Sie werden im Kreislauf der Gesteine in andere Gesteinstypen umgewandelt. Der Zyklus dauert etwa 200 Millionen Jahre. Masse (Soziologie). Masse bezeichnet in der Soziologie eine große Anzahl von Menschen, die konzentriert auf relativ engem Raum physisch miteinander kommunizieren und/oder als Kollektiv gemeinsam sozial handeln. Der Begriff wird oft abwertend gebraucht („dumme Massen“, „Vermassung“), andererseits können Massen als soziale Bewegungen auch kulturell hochstehende Werte wie Gerechtigkeit und Gleichheit ins Bewusstsein der öffentlichen Meinung bringen oder sie als „revolutionäre Massen“ aktiv politisch durchsetzen. Begriffsbestimmungen. „Masse“ wird umgangssprachlich auch oft synonym zu „einfachen Leuten“, „Ungebildeten“, zur „Arbeiterklasse“, allgemeiner auch zum „Volk“ bzw. zur „Bevölkerung“ gebraucht. Gegenbegriffe sind dann „Individuum“, „bedeutende Einzelne“, auch „die Gebildeten“. Der Soziologe Vilfredo Pareto stellt die „Masse“ den „Eliten“ und „Reserveeliten“ gegenüber, ähnlich unterscheidet Charles Wright Mills zwischen „Masse“ und „Machtelite“. Andererseits ist ein zweiter, soziologischer Gegenbegriff auch die „Menge“. Während „Massen“ oft (meist spontane, manchmal aber auch geplante) Hierarchien aufweisen (insbesondere in Form von Anführern und Rädelsführern), sind „Mengen“ unstrukturiert, nur situativ verbunden (z. B. alle Passanten in einer Einkaufsstraße) und tendieren im Gegensatz zu „Massen“ nicht dazu, geschlossen, also aktiv und intentional zu handeln. Soziologische Merkmale. In der Regel geht Massenbildung mit einer Verhaltensenthemmung und einer temporären Überschreitung von sozialen Normen einher. Dies kann sowohl positive Affekte freisetzen (insbesondere soziale Nähe bei Festen und Feiern) als auch negative wie Hass und Aggression (etwa in Form des Lynchmobs). Mitunter können Massenstimmungen sehr rasch umschlagen (der redensartliche „Wankelmut der Massen“), wenn äußere Ereignisse eintreten oder sich Gerüchte innerhalb der Masse verbreiten. Dennoch folgt das soziale Handeln von Massen eigenen Gesetzmäßigkeiten (vgl. „Figuration). Ihre Teilnehmer werden dabei von gemeinsamen Intentionen und Interessen, aber auch von kollektiven emotionalen Affekten und unbewussten Regungen koordiniert. Oft orientieren sich Massen auch an kollektiven Symbolen und Ideen, etwa politischen oder religiösen Konzepten. Eine aktuelle Masse ist alsdann zur Schaffung eigener sozialer Dynamik in der Lage: Im negativen Fall reichen diese von Gerüchtverbreitung, Plünderung, Panik bis hin zu Pogrom und Lynchjustiz, im positiven Fall aber auch von einer friedlichen Kundgebung oder Demonstration über den politischen Widerstand gegen Tyrannei und die Befreiung von Diktaturen in Aufständen und Revolten – bis hin zur revolutionären Ausrufung einer neuen Gesellschaftsform, wie es in der Französischen Revolution 1789 in Frankreich oder in der Februarrevolution 1917 und der folgenden Oktoberrevolution in Russland der Fall war. Herrschende beriefen und berufen sich zu ihrer Legitimation nicht selten auf eine Unterstützung der Massen, erwartbar in Demokratien, aber auch in ‚populistischen‘ Diktaturen (vgl. Tyrannis). Im Marxismus wird die Masse als (zumindest potenziell) revolutionärer, nach Emanzipation strebender Teil der Gesellschaft (insbesondere in Form des Proletariats) als möglicher Träger einer sozialen Revolution gesehen. Gerade der Bezug auf die Interessen der Massen unterscheidet in den Augen der Marxisten die kommunistische Bewegung von anderen historischen sozialen Bewegungen. So schreibt Karl Marx 1848: "„Alle bisherigen Bewegungen waren Bewegungen von Minoritäten oder im Interesse von Minoritäten. Die proletarische Bewegung ist die selbständige Bewegung der ungeheuren Mehrzahl im Interesse der ungeheuren Mehrzahl.“" Doch verstanden Engels und Marx, die Masse der Proletarier von den Massenauftritten (den „Emeuten“ und Aufläufen) der Elenden, des „Lumpenproletariats“, zu unterscheiden. Nach Vilfredo Pareto übernimmt jedoch nach einer erfolgreichen Revolution niemals die „Masse“ selber die Herrschaft, sondern immer eine „Reserveelite“, die die Masse auf ihre Seite gebracht und derart instrumentalisiert hat. Ursachen für Massenbildungen. Spontane Massengeschehnisse, insbesondere in Form von sozialen Protestbewegungen, sind allgemein vor allem in krisenhaften Zusammenhängen erwartbar. Soziale Krisen aufgrund von Inflation, Hungersnöte, Seuchen oder militärischer Konflikte führten seit jeher zu Massenhandeln – daher auch die Bedeutung von Massen in Gestalt "ad hoc" zusammen tretender Volksversammlungen oder Heeresversammlungen (im Römischen Reich oft bis hin zur Ausrufung eines neuen Kaisers). Generell liegt eine Hauptursache für Massenhandeln darin, dass neuartige Krisen nicht durch die in gewohnten Gemeinschaften bewährten Notmaßnahmen bewältigt werden können. Das historische Auftreten von Menschen als Massen ist also nicht nur ein Phänomen höherer Zivilisationen oder gar der Neuzeit, wo es seine Ursache in der mit dem Bevölkerungswachstum verbundenen sinkenden Dichte und Verkleinerung sozialer Netzwerke, zumal bei steigender Urbanisierung und damit der Verunsicherung durch zumeist wirtschaftliche Krisen hat. In der Neuzeit findet sich dagegen eine ganz neue Form der Massenbildung: die Massenkommunikation durch Massenmedien wie Zeitung, Rundfunk oder Fernsehen. Aufgrund ihrer großen Reichweite und Kapazität bieten Massenmedien einerseits die Möglichkeit, große Menschenmassen kommunikativ miteinander zu vernetzen, andererseits gehen sie aufgrund ihrer starren Sender-Empfänger-Struktur meist mit einseitigen Machtstrukturen einher. In der Regel im Besitz großer Konzerne oder des Staates, bilden Massenmedien eigene Strategien zur Massenformierung aus, um die öffentliche Meinung in ihrem Interesse bzw. im Interesse Dritter zu beeinflussen (Propaganda) oder um mehr Waren abzusetzen (Werbung). Elias Canetti schreibt der Masse vor allem den wichtigen Vorgang der "Entladung" zu. Erst dieser Vorgang, wo sich eine Mehrzahl für oder gegen etwas entscheidet, ist nach ihm konstituierendes Element jeglicher Massenbildung. Vorher ist sie quasi nicht existent. Erst wenn Individuen "ihre Verschiedenheiten loswerden und sich als "gleiche" fühlen" entsteht eine Masse mit einer ihr innewohnenden Handlungsrichtung. Theodor W. Adorno kritisierte die industriell produzierte Massenunterhaltung in seinem Schlagwort der „Kulturindustrie“. Eine wesentliche Motivation der kulturindustriell betriebenen „Vermassung“ durch Massenmedien sieht er in der ideologischen Gleichschaltung der Individuen zu gehorsamen Konsumenten und Untertanen. Literatur. Untersucht wurde das Massenphänomen u. a. von Midnight Commander. GNU Midnight Commander, kurz "mc", ist ein freier Klon des DOS-Tools Norton Commander (→ zweispaltige Ansicht) und gehört zu den bekanntesten Konsolen-Programmen unter Linux. Über ein VFS ist auch ein transparenter Zugriff auf Archive und Netzwerkserver möglich, wie z. B. FTP oder Samba. Geschichte. In früheren Versionen von 1999 bis 2001 hatte mc zusätzlich eine grafische Benutzeroberfläche "gmc" und war der erste Dateimanager des Gnome-Projekts, galt aber als sehr fehlerhaft. Nach der Integration von Nautilus als Standard-Dateimanager in GNOME wurden die grafischen Funktionen wieder aus mc entfernt. Das fehlende GUI ist aber auch ein Vorteil, da sich der "mc" so auch über eine Telnet- oder SSH-Verbindung (die in einer Konsole läuft) auf einem Zielsystem nutzen lässt. Zwischenzeitlich wurden zwei Windows-Portierungen des Midnight Commanders umgesetzt, davon wird jedoch nur noch "mcwin32" weiterentwickelt. Die Entwicklung des Midnight Commanders stand mehrere Jahre still, bevor ihn Anfang 2009 eine Gruppe von Programmierern wiederbelebte und Version 4.6.2 veröffentlichte. Trotz der relativ langen Zwischenzeit, in der das Projekt nicht weiterentwickelt wurde, hat es auch heute noch eine sehr weite Verbreitung. Milgram-Experiment. Das Milgram-Experiment ist ein erstmals 1961 in New Haven durchgeführtes psychologisches Experiment, das von dem Psychologen Stanley Milgram entwickelt wurde, um die Bereitschaft durchschnittlicher Personen zu testen, autoritären Anweisungen auch dann Folge zu leisten, wenn sie in direktem Widerspruch zu ihrem Gewissen stehen. Der Versuch bestand darin, dass ein „Lehrer“ – die eigentliche Versuchsperson – einem „Schüler“ (ein Schauspieler) bei Fehlern in der Zusammensetzung von Wortpaaren jeweils einen elektrischen Schlag versetzte. Ein Versuchsleiter (ebenso ein Schauspieler) gab dazu Anweisungen. Die Intensität des elektrischen Schlages sollte nach jedem Fehler erhöht werden. Diese Anordnung wurde in verschiedenen Variationen durchgeführt. Geschichte und Überblick. Angeregt wurde Milgram durch den US-amerikanischen Psychiater Jerome D. Frank, der bereits 1944 der Frage nachgegangen war, wovon die Gehorsamkeitsbereitschaft willkürlich ausgewählter Personen abhängt. Frank verlangte damals von seinen Probanden den Verzehr von zwölf geschmacklosen Keksen – vgl. das Soda-Cracker-Experiment. Der Gruppe wurde gesagt, dass der Verzehr salzloser Kekse wissenschaftlich notwendig sei. Überraschend weigerten sich nur zehn Prozent der Teilnehmer, die Kekse zu essen. Die Ergebnisse des Milgram-Experiments wurden zunächst in einem Artikel mit dem Titel "Behavioral study of obedience" veröffentlicht, der in dem renommierten "Journal of abnormal and social psychology" erschien. 1974 publizierte Milgram sein Werk: "Obedience to Authority. An Experimental View", in dem er die Ergebnisse in einen breiteren Kontext einordnete. Die deutsche Ausgabe kam im selben Jahr heraus. Milgram bezieht sich darin unter anderem auf das 1963 in New York erschienene Werk der politischen Theoretikerin Hannah Arendt "Eichmann in Jerusalem. Ein Bericht von der Banalität des Bösen." Dieses Konzept der Banalität des Bösen, so argumentiert er, komme der Wahrheit sehr nahe. Die fundamentalste Erkenntnis der Untersuchung sei, dass ganz gewöhnliche Menschen, die nur ihre Aufgabe erfüllten und keinerlei persönliche Feindschaft empfinden, zu Handlungen in einem Vernichtungsprozess veranlasst werden können. Der US-amerikanische Historiker Alfred W. McCoy vermutet, Milgram habe das Experiment im Rahmen des CIA-MKULTRA-Programms zur Forschung über Bewusstseinskontrolle durchgeführt. Darauf deute nicht nur der Zeitpunkt hin, sondern auch „das Thema, die militärischen Verbindungen, die umstrittene Finanzierung durch die NSF und deren Ablehnung aller späteren Projekte Milgrams“. Diese Vorwürfe werden auf der Webseite von Milgrams Biograph Thomas Blass ausführlich diskutiert und bestritten. Ablauf des Original-Experiments. Milgram-ExperimentDer ganze Ablauf des Experiments ist wie ein Theaterstück inszeniert, bei dem alle außer dem Probanden eingeweiht sind. Solch eine Experimentalanordnung übernahm Milgram von seinem Lehrer Solomon Asch. Eine Versuchsperson und ein Vertrauter des Versuchsleiters, der vorgab, ebenfalls Versuchsperson zu sein, sollten an einem vermeintlichen Experiment zur Untersuchung des Zusammenhangs von Bestrafung und Lernerfolg teilnehmen. Ein offizieller Versuchsleiter (Experimentator, "V") bestimmte den Schauspieler durch eine fingierte Losziehung zum „Schüler“ "(S)", die tatsächliche Versuchsperson zum „Lehrer“ "(L)". Die Verabreichung eines elektrischen Schlags, mit einer Spannung von 45 Volt, sollte der Versuchsperson die körperlichen Folgen elektrischer Schläge vergegenwärtigen. Zudem wurde das an einen elektrischen Stuhl erinnernde Versuchsinventar gezeigt, auf dem der „Schüler“ getestet werden sollte. Diese Versuchsanordnung mit der gewollten Assoziation wurde von den Probanden zu keinem Zeitpunkt in Frage gestellt. Der Versuch bestand darin, dass der „Lehrer“ dem „Schüler“ bei Fehlern in der Zusammensetzung von Wortpaaren jeweils einen elektrischen Schlag versetzte. Dabei wurde die Spannung nach jedem Fehler um 15 Volt erhöht. In Wirklichkeit erlebte der Schauspieler keine elektrischen Schläge, sondern reagierte nach einem vorher bestimmten Schema, abhängig von der eingestellten Spannung. Erreichte die Spannung beispielsweise 150 Volt, verlangte der Schauspieler, von seinem Stuhl losgebunden zu werden, da er die Schmerzen nicht mehr aushalte. Dagegen forderte der dabei sitzende Experimentator, dass der Versuch zum Nutzen der Wissenschaft fortgeführt werden müsse. Wenn der „Lehrer“ Zweifel äußerte oder gar gehen wollte, forderte der Experimentator in vier standardisierten Sätzen zum Weitermachen auf. Die Sätze wurden nacheinander, nach jedem geäußerten Zweifel der Versuchsperson, gesprochen und führten nach dem vierten Mal zu einem Abbruch des Experimentes seitens des Versuchsleiters. Damit die Sätze immer gleich ausfielen, wurden sie vorher mit dem Schauspieler eingeübt, insbesondere auch, um einen drohenden Unterton zu vermeiden. Es gab noch weitere Standardsätze in antizipierten Verlaufssituationen: Wenn die Versuchsperson fragte, ob der „Schüler“ einen permanenten physischen Schaden davontragen könne, sagte der Versuchsleiter: „Auch wenn die Schocks schmerzvoll sein mögen, das Gewebe (tissue) wird keinen dauerhaften Schaden davontragen, also machen Sie bitte weiter!“ Auf die Aussage des „Lehrers“, der „Schüler“ wolle nicht weitermachen, wurde standardmäßig geantwortet: „Ob es dem Schüler gefällt oder nicht, Sie müssen weitermachen, bis er alle Wörterpaare korrekt gelernt hat. Also bitte machen Sie weiter!“ Wenn nach der Verantwortung gefragt wurde, sagte der Versuchsleiter, er übernehme die Verantwortung für alles, was passiert. Die Versuchsperson reagierte auf die Stromschläge mit auf Band aufgenommenen Schmerzensäußerungen. Diese hatten Milgram in Prätestversionen des Experiments zunächst gefehlt, die Gehorsambereitschaft war dann aber so hoch, dass er sie hinzufügte. Der „Schüler“ war in diesem Fall ein unauffälliger Amerikaner irischer Abstammung und repräsentierte einen Menschentyp, mit dem Fröhlichkeit und Gelassenheit verbunden wurde. Mit dieser Auswahl sollte eine Beeinflussung der Handlungsweise durch eine mentale Disposition des Probanden vermieden werden. Zudem war es wichtig, dass die Versuchspersonen weder von dem Versuchsleiter noch von dem „Schüler“ unbeabsichtigt beeinflusst werden konnten. Der „Lehrer“ konnte selbst bestimmen, zu welchem Zeitpunkt er das Experiment abbrechen wollte. Der Versuchsleiter verhielt sich sachlich, seine Kleidung war in einem unauffälligen Grauton gehalten. Sein Auftreten war bestimmt, aber freundlich. Die Versuchspersonen wurden über eine Anzeige in der Lokalzeitung von New Haven (Connecticut) gesucht, wobei die angegebene Gage von vier US-Dollar plus 50 Cent Fahrtkosten schon für das bloße Erscheinen in Aussicht gestellt wurde. Das Experiment fand in der Regel in einem Labor der Yale-Universität statt und war in der Anzeige als unter der Leitung von Prof. Stanley Milgram stehend gekennzeichnet. Ergebnisse. Folgende Tabelle gibt die Anzahl der Versuchspersonen (Vpn) (n=40), die das Experiment abbrachen, abhängig von der Stärke der letzten applizierten „Schocks“ wieder. 26 Personen gingen in diesem Fall bis zur maximalen Spannung von 450 Volt und nur 14 brachen vorher ab. Variationen des Experiments. Das Ergebnis des ersten Experimentes war derart überraschend, dass Milgram über zwanzig Varianten mit jeweils abweichenden Parametern durchführte. Auch andere Forscher führten Varianten durch. Nähe zwischen „Lehrer“ und „Schüler“. In der letzten Versuchsanordnung musste der Proband, geschützt durch einen Handschuh, die Hand des „Schülers“ auf eine Metallplatte drücken, die vermeintlich elektrisch geladen war. Folgende Tabelle gibt den Zusammenhang zwischen einigen variierenden Versuchsbedingungen, dem Anteil der Versuchspersonen (Vpn), die den maximalen Schock versetzten, und die dazugehörige durchschnittliche Schockstärke an. In der ersten Versuchsreihe waren 65 Prozent der Versuchspersonen bereit, den „Schüler“ mit einem elektrischen Schlag mit den maximalen 450 Volt zu „bestrafen“, allerdings empfanden viele einen starken Gewissenskonflikt. Kein „Lehrer“ brach das Experiment ab, bevor die 300-Volt-Grenze erreicht war. In der vierten Versuchsanordnung, in der die Versuchspersonen den direkten Kontakt zum „Schüler“ hatten, war die erreichte Volt-Stufe am niedrigsten. Autorität des Versuchsleiters. In einer Reihe von Versionen des Experiments wurde die Autorität des Versuchsleiters variiert. Wenn der Versuchsleiter der Bitte des Schülers um Abbruch nachkam und die Versuchsperson zum Abbruch des Experiments aufforderte, so folgte letztere der Anweisung ausnahmslos. In einer Variante des Versuchs, in der zwei Versuchsleiter den Versuch leiteten und dabei Uneinigkeit über die Fortsetzung des Experimentes vorspielten, wurde das Experiment in allen Fällen von der Versuchsperson abgebrochen. Wurden zwei Versuchsleiter eingesetzt, von denen einer die faktische Rolle des Versuchsleiters übernahm, wohingegen der andere Versuchsleiter den „Schüler“ spielte und um Abbrechen bat, gingen 65 Prozent der Teilnehmer bis zum Maximum. Drängte ein „zweiter Lehrer“ statt des Versuchsleiters auf die Fortsetzung des Experimentes, während der Versuchsleiter neutral blieb, so applizierten verhältnismäßig wenige (25 Prozent) der Versuchspersonen den maximalen Schock. In einer Variation von Jerry Burger aus dem Jahr 2009 ließen sich durch eine dritte Person ohne Autorität, die ab den ersten Schreien (75V) auf Abbruch des Experiments drängte, nur wenige Versuchspersonen zum Abbrechen bewegen, solange der Versuchsleiter auf Fortsetzung bestand. Das Ergebnis einer Erweiterung des Experiments im Jahre 1965 war dagegen, dass die Haltung anderer „Lehrer“ einen Einfluss hat. Der Anteil der bedingungslos gehorchenden Probanden nahm stark ab (auf 10 Prozent), sobald zwei weitere vermeintliche „Lehrer“ an dem Experiment teilnahmen, die dem Versuchsleiter Widerstand entgegensetzten. Befürworteten die zwei „Lehrer“ allerdings die Fortführung des Experimentes, so folgten dem 90 Prozent der Probanden. Bei einer weiteren Variation gab sich der Versuchsleiter nicht als Forscher der renommierten Universität Yale aus, sondern als Wissenschaftler des fiktiven kommerziellen „Research Institute of Bridgeport“, dessen Räume sich in einem heruntergekommenen Bürogebäude eines Geschäftsviertels in Bridgeport (Connecticut) befanden. Hierbei sank die Zahl der Probanden, die die höchste Spannung einsetzten, von 65 Prozent auf 48 Prozent. Dieser Unterschied ist allerdings nicht statistisch signifikant. Bestandteil einer anderen Variation war es, dass Milgram den Raum verließ und ein Schauspieler, der sich als Proband darstellte, das Experiment leitete. Hier sank der Anteil der Probanden, die bis zur Höchststufe gingen, auf 20 Prozent. Präsenz des Versuchsleiters. Zudem wurde die Präsenz des Versuchsleiters variiert, der entweder direkt im Raum, nur über Telefon erreichbar oder abwesend sein konnte. Die Instruktionen erfolgten im letzten Fall über ein Tonbandgerät. Die Abwesenheit des Versuchsleiters bewirkte, dass die Gehorsamsrate dreimal niedriger ausfiel als in der Versuchsanordnung mit seiner Anwesenheit. Differenzierung nach Geschlecht. Im Jahr 2006 wurde das Experiment von Jerry Burger an der Santa Clara University unter modifizierten Bedingungen wiederholt. Es wurden Frauen beteiligt, die maximale Spannung betrug 150 Volt. 70 % der Probanden, die allesamt Milgrams Experiment nicht kannten, gingen bis zur Maximalstärke. Der Unterschied gegenüber Milgrams Original-Experiment (83 % der Probanden gingen bis 150 V) ist statistisch nicht signifikant. Andere Kulturen. Das Experiment ist in unterschiedlichen Varianten in anderen Ländern wiederholt worden. Die Ergebnisse bestätigten generell einander, was eine kulturübergreifende Gültigkeit der Ergebnisse zeigt. Reaktion der Versuchspersonen. Es zeigte sich, dass Personen, die die persönliche Verantwortung für ihr Verhalten hoch veranschlagten, das Experiment eher abbrachen und dem Versuchsleiter widersprachen. Langzeitfolgen für die Versuchspersonen. Um den ethischen Aspekten gerecht zu werden, erhielten die Probanden nach Abschluss der Versuchsreihe detaillierte Informationen über das Experiment und dessen Ergebnisse. Um eventuelle Langzeitschäden zu erkennen, wurden in einer Stichprobe die Versuchspersonen ein Jahr nach dem Experiment erneut besucht und befragt. Laut Milgram zeigte das Experiment keine schädlichen Auswirkungen auf die Psyche der Versuchspersonen. 83 Prozent der Teilnehmer gaben an, im Nachhinein froh zu sein, an dem Experiment teilgenommen zu haben. Nur ein Proband von Hundert bedauerte seine Teilnahme. Die meisten Teilnehmer gaben an, etwas über sich gelernt zu haben und Autoritätspersonen daher in Zukunft misstrauischer gegenüberstehen zu wollen. Demgegenüber berichten andere Langzeitstudien von Nervenzusammenbrüchen und posttraumatischen Belastungsstörungen, und einzelne Teilnehmer hatten noch vierzig Jahre später, als sie nochmals untersucht wurden, gesagt, sie seien diesen Schock, dieses Trauma nie mehr losgeworden, also ein Trauma, Täter gewesen zu sein. Der Freiburger Psychologe Joachim Bauer folgert, „dass dieses Experiment die betroffenen Personen gegen ihre eigene Intuition, gegen ihre natürlichen mitmenschlichen Instinkte […] dazu gebracht hat, hier der Autorität zu folgen“. Folgen und Folgerungen für die Psychologie. Heutzutage würde ein vergleichbares Experiment von vielen Psychologen als unethisch zurückgewiesen werden, da es die Versuchspersonen einem starken inneren Druck aussetzt und man sie über den wahren Zweck des Experiments täuscht. An vielen Universitäten stellte man als Reaktion auf diesen Versuch ethische Richtlinien über die Zulassung von psychologischen Experimenten auf. Ob das gewonnene Wissen bei Militär und Geheimdiensten Anwendung fand, ist nicht bekannt. Das Experiment zeigte, dass die meisten Versuchspersonen durch die Situation veranlasst wurden, sich an den Anweisungen des Versuchsleiters und nicht an dem Schmerz der Opfer zu orientieren. Die Veranlassung war am wirksamsten, wenn der Versuchsleiter anwesend war, und am wirkungslosesten, wenn die Instruktionen per Tonband oder Telefon erfolgten. Auch die Nähe zum „Schüler“ beeinflusste die Bereitschaft zum Abbruch des Versuches. So gingen ohne Rückmeldung der „Schüler“ praktisch alle Versuchspersonen bis zur höchsten Schockstufe, während beim direkten Kontakt nur noch 30 Prozent die Höchststufe erreichten. Psychologische und soziologische Erklärungsversuche. Milgram selbst war von den Ergebnissen des Versuchs überrascht. Studenten und Kollegen, denen er von dem Versuch erzählt hatte, schätzten die Zahl derjenigen, die bis zum Maximum gehen, äußerst gering ein. Von Milgram und anderen wurden verschiedene Gründe genannt, die zu solch einer hohen Zahl an gehorsamen Probanden führten. Als mögliche Begründung für das Verhalten der Versuchspersonen kann der Wunsch der Testperson gesehen werden, das freiwillig begonnene Experiment auch tatsächlich abzuschließen und den Erwartungen der Wissenschaftler zu entsprechen (sog. normativer sozialer Einfluss). Die zufällige Auslosung von Lehrer und Schüler schafft zudem eine scheinbar faire Situation. Hinzu kommt, dass die Versuchssituation für die Probanden neu war und deshalb kein erlerntes Handlungsmuster existierte (sog. informativer sozialer Einfluss). Zudem hatten sie kaum Zeit, sich auf die überraschende Situation einzustellen. Ein anderer Erklärungsversuch zielt auf den graduellen Charakter des Experimentes ab, der psychologisch alltäglichen Verhaltensmustern entspricht, diese aber durch die kontinuierliche Steigerung der „Bestrafungsbereitschaft“ sukzessive in Richtung außerordentlicher Verhaltensweisen verschiebe (sog. Dissonanzauflösung). Dies mache die Abschätzung der Folgen für die Probanden schwierig. Dazu passe, dass das Verhalten der Probanden durch die Veränderung situationaler Variablen, etwa der Distanz zum Schüler oder der Anwesenheit des Versuchsleiters, beeinflusst werde, nicht durch das Vorliegen einer charakterlichen Disposition. Soziologisch ist das Experiment daher als Beleg für die Wirksamkeit der Norm des Gehorsams gesehen worden. Über die Sozialisation erlerne das Individuum Gehorsamkeit und Unterordnung. Zunächst im familiären System, später in der Institution Schule. In beiden gesellschaftlichen Kontexten, die für die Prägung des Individuums entscheidend seien, werde Folgsamkeit und Unterordnung positiv sanktioniert. Die Gehorsamkeitsnorm ist an Institutionen und Individuen gebunden, die über einen hohen sozialen Status und/oder Autorität verfügen. Denn wie sich in den Variationen des Versuches andeutete, sinkt mit dem sozialen Status des Versuchsleiters die Bereitschaft zur Gehorsamsleistung. Insbesondere wenn die Autorität in einen bürokratischen Prozess eingebunden ist, der die Delegation der Verantwortung auf eine Institution ermöglicht, steigt die Chance auf Gehorsam selbst bei Befehlen, die als unmoralisch empfunden werden. Reaktionen. Das Experiment wurde vielfach als Beleg dafür verstanden, dass fast jeder Mensch unter bestimmten Bedingungen bereit ist, nicht seinem Gewissen zu folgen, sondern einer Autorität. Daher wird es zur Erklärung der Frage herangezogen, warum Menschen foltern oder Kriegsverbrechen begehen. Wegen seiner spektakulären Ergebnisse wurde das Experiment in einer breiten Öffentlichkeit wahrgenommen. Die New York Times titelte zum Beispiel: „Fünfundsechzig Prozent folgen in einem Test blind dem Befehl, Schmerzen zuzufügen“. Die Times erkennt die Gefahr einer ungebremsten Gehorsamsbereitschaft an und sieht in dem Experiment eine Erklärung für die Verbrechen der Nationalsozialisten und amerikanische Gräueltaten in Vietnam. Andere Blätter kritisieren Milgram und die Yale-Universität für die Zerreißprobe, vor die sie die Probanden stellten. Auch gab es sehr unterschiedliche Interpretationen der Ergebnisse und der konditionierenden Faktoren. Erich Fromm etwa behauptete, Grund für die Bereitschaft, dem Versuchsleiter zu gehorchen, sei das besonders hohe Ansehen, das die Wissenschaft als Institution in Amerika besäße. Das entscheidende Ergebnis sei nicht die Zahl der Teilnehmer, die die Schüler mit den höchsten Spannungen bestraften, sondern der bei fast allen Teilnehmern beobachtbare ausgeprägte Gewissenskonflikt. Die Zahl der Teilnehmer ohne Gewissenskonflikt sei bei Milgram jedoch nicht genannt. Fromm sieht die Berichte über die innere Aufgewühltheit und das Leiden der Probanden beim Handeln gegen das eigene Gewissen als Beleg für die Stärke des moralischen Bewusstseins. Arno Gruen deutet die psychosomatischen Reaktionen der Befragten als ein Zeichen der Entfremdung. Der US-amerikanische Evolutionsbiologe Marc Hauser sieht in dem Experiment eine Bestätigung seiner, in dem Buch "Moral Minds" dargelegten Theorie, dass das menschliche Gehirn evolutionär veranlagte Kapazitäten besitzt, Autorität zu folgen, wie sie auch bei Primaten zu finden sind. Mediale und künstlerische Umsetzung. Aus dem Jahr 1973 stammt ein Theaterstück des britischen Autors Dannie Abse mit dem Titel "The Dogs of Pavlov", das durch die Untersuchung inspiriert ist. 1976 sendete die CBS einen Film namens "The Tenth Level", in dem William Shatner einen an Milgram angelehnten Charakter spielte, der ein ähnliches Experiment durchführte. Regisseur Henri Verneuil baute das Milgram-Experiment in seinen Film "I wie Ikarus" aus dem Jahr 1979 ein. Vordergründig handelt der Film von den Geschehnissen rund um einen Präsidentenmord in einem imaginären Staat; Parallelen zum Attentat auf John F. Kennedy waren wohl erwünscht. Die deutsche Fernseh-Dokumentation "Abraham – Ein Versuch" entstand 1970 an der Forschungsstelle für Psychopathologie und Psychotherapie der Max-Planck-Gesellschaft in München. Sie zeichnet das deutsche Nachfolge-Experiment optisch in allen Einzelheiten nach. Die Ausstrahlung sorgte gerade im Zusammenhang mit der deutschen Geschichte für Diskussionen. Im Jahr 1986 nahm der Musiker Peter Gabriel, der Milgram bewunderte, ein Lied mit dem Titel "We Do What We’re Told (Milgram’s 37)" auf. Der preisgekrönte Kurzfilm "Atrocity" (2005) spielt das Experiment nach. Der britische Zauberkünstler und Mentalist Derren Brown wendet in einer 2006 ausgestrahlten TV-Sendung („The Heist“) das Milgram-Experiment an, um Kandidaten auszusortieren, die mental dazu beeinflusst werden sollen, einen Raubüberfall zu begehen. In der Serie Malcolm mittendrin wird ein ähnliches Experiment durchgeführt, mit Verweis auf das Milgram-Experiment. In der Episode "Das Böse – steckt der Teufel in jedem von uns?" der Reihe Galileo Mystery demonstriert ProSieben 2008 unter anderem das Milgram-Experiment. 2008 nennt sich Folge 17 von Staffel 9 der amerikanischen Krimi-Serie Law and Order - Special Victims Unit „Autorität“. Darin geht es um einen Mann, der sich am Telefon als „Detective Milgram“ ausgibt und Menschen durch diese fingierten Anrufe dazu bringt, unfreiwillig u.a. junge Frauen sexuell zu belästigen. Er wird freigesprochen und beginnt mit einer wachsenden Anhängerschaft gegen blinden Gehorsam zu demonstrieren. Auch 2 Detectives müssen unfreiwillig an einer Abwandlung des original Milgram-Experiments teilnehmen. Im Frühjahr 2009 wurde das Experiment unter Nutzung der „Autorität des Fernsehens“ statt der der Wissenschaft im Rahmen einer vermeintlichen Spielshow in Frankreich wiederholt und aufgezeichnet. Der Film von Christophe Nick wurde am 18. März 2010 erstmals im Abendprogramm (mit dem Vermerk: nicht für Kinder unter 12 Jahren) auf dem Fernsehsender France 2 mit anschließender Diskussionsrunde ausgestrahlt. In dem Fernsehexperiment gingen 80 Prozent der Teilnehmer bis zur höchsten Bestrafungsstufe. Der zweite Track des 2009 erschienenen Albums "InBetweenTheLines" der französischen Ska-Punk Band P.O. Box trägt den Namen "So Milgram knew it". 2009 erschien auch das Album "Avoid The Light" der Postrock-Band Long Distance Calling, auf dem ein Lied den Titel „I Know You, Stanley Milgram!“ trägt. In der Dokumentation "Entdecke! Das Böse in uns" ("US-Original: Curiosity: How Evil Are You?") des Discovery Channels 2011 wird Bezug auf das Experiment genommen und Stanley Milgram im Experiment sowie Interview gezeigt. Im Lied "Caesar" von I Blame Coco findet sich der Satz „It's the Milgram device all over again“, der auf das Experiment anspielt. In der Folge „The Mutilation of the Master Manipulator“ der TV-Serie Bones (Serie 10, Episode 9, Erstausstrahlung am 4. Dezember 2014) wird ein Psychologie-Professor ermordet, der Milgram-Experimente durchführte. Hauptverdächtiger ist zunächst ein Versuchsteilnehmer, der im Experiment glaubte, seinem „Schüler“ einen tödlichen Stromschlag versetzt zu haben. Myanmar. Myanmar, amtlich Republik der Union Myanmar (, "Pyidaunzu Thanmăda Myăma Nainngandaw",), auch Birma oder Burma, ist ein Staat in Südostasien und grenzt an Thailand, Laos, die Volksrepublik China, Indien, Bangladesch und den Golf von Bengalen. Das Land stand seit 1962 unter einer Militärherrschaft, bis diese am 4. Februar 2011 einen zivilen Präsidenten als Staatsoberhaupt einsetzte. Landesname. Myanmar ist im deutschen Sprachraum, im Vereinigten Königreich, in Australien und den USA nach wie vor unter der früheren Schreibweise "Birma" beziehungsweise "Burma" bekannt. Eigentlich handelt es sich bei "Burma" und "Myanmar" nicht um zwei unterschiedliche Bezeichnungen. "Bama" mit verhältnismäßig dumpfem „a“ als erstem Vokal, von dem sich die englisch ausgesprochene Schreibweise "Burma" (und davon in Deutschland wiederum "Birma") herleitet, und "Myanma" sind seit jeher die Bezeichnungen für die größte Bevölkerungsgruppe der "Bamar" in ihrer eigenen Sprache und für ihr Land. Dazu kommen Unterschiede in der Aussprache durch die Dialekte, denn je nachdem, wie stark man die Lippen schließt und wie viel Druck beim ersten Konsonanten entsteht, ist der Übergang von „B“ zu „M“ fließend. Der Begriff "Myanma" soll bis ins ausgehende 11. Jahrhundert zurückgehen und von König Kyanzittha geprägt worden sein. Er entstammt der Schriftsprache und findet sich daher eher in historischen Dokumenten, während "Bama" umgangssprachlich verwendet wird. Seit den 1920er-Jahren gab es Bestrebungen, einen einheitlichen Begriff für alle im jetzigen Myanmar beheimateten Volksgruppen zu finden. So wurde mehrmals "Bama" durch "Myanma" ersetzt und umgekehrt. Die offizielle Umbenennung des Landes in „Republik der Union Myanmar“ ("Pyidaunzu Thanmăda Myăma Nainngandaw") durch das Militär war daher in erster Linie ein Vorhaben mit Außenwirkung. Das Land sollte sich als selbstbewusster Staat präsentieren, der die Kolonialzeit endgültig überwunden hat. Die Umbenennung erfolgte durch das Gesetz Nr. 15/89 vom 18. Juni 1989, das auch die offizielle Schreibweise vieler Ortschaften neu bestimmte. Hierfür wurden die Namen in ihrer ursprünglichen Form, also ohne Veränderungen durch kolonialen Einfluss, und nach ihrer aktuellen Aussprache ins lateinische Alphabet verschriftlicht. Die Vereinten Nationen übernahmen den neuen Namen des Staates wenige Tage nach der Verkündung durch das Militär. Dem sind mittlerweile viele Staaten gefolgt. Die Vereinigten Staaten, Australien sowie weitere Staaten und nichtstaatliche Organisationen halten als Zeichen ihrer Missbilligung des Regimes am Namen "Burma" fest. Auch die Friedensnobelpreisträgerin Aung San Suu Kyi sprach sich 1996 in einem Interview für das "Magazin Marie Claire" für die Beibehaltung von "Burma" aus, zum einen wegen der fehlenden Mitwirkung des Volkes, zum anderen, da der Begriff "Myanmar" eben nicht die Vielfalt der Volksgruppen im Lande widerspiegele. Die deutschschweizerischen und österreichischen Zeitungen verwenden vorwiegend "Burma", während sich die deutschsprachigen Agenturen auf die Bezeichnung "Birma" geeinigt haben. Mehrere deutsche Medien, darunter Spiegel und FAZ, verwenden dennoch die Variante "Burma". Auch in der DDR wurde nur die Namensform "Burma" verwendet. In den Tagesthemen wird stattdessen Myanmar (früheres Birma) verwendet. Im Birmanischen bedeutet die Silbe "Myan" „fest zusammenhaltend“, die Silbe "Mar" „hart“, „stark“ oder auch „mächtig“. Neben der offiziellen Bezeichnung nennen die Einwohner den Staat auch kurz "Myanma Naingngan" („Myanmarischer Staat“). Eine Person aus Myanmar wird in Deutschland laut StAGN "Myanmare" genannt. Geographie. Myanmar grenzt im Norden und Osten an die Volksrepublik China, Laos und Thailand und im Süden an den Indischen Ozean. Das Andamanische Meer trennt Myanmar von den südwestlich gelegenen indischen Inseln der Andamanen und Nikobaren. Im Westen grenzt Myanmar an Bangladesch und die indischen Bundesstaaten Mizoram, Manipur, Nagaland und Arunachal Pradesh. Im Süden liegt die letzte unberührte Inselgruppe, der Mergui-Archipel, vor der Malaiischen Halbinsel. Im Osten des Landes liegt das Shan-Hochland mit Erhebungen von bis zu. Entlang der Südwestküste erstrecken sich Sumpfgebiete, dahinter liegt das Arakan-Joma-Gebirge mit bis zu hohen Bergen. Das Kachin-Bergland, ein südlicher Ausläufer des Himalaya, liegt im Norden, und an der Grenze Myanmar–Indien–China liegt der Hkakabo Razi. Mit seinen ist er der höchste Berg Südostasiens. In der Mitte des Landes, entlang dem Irrawaddy, liegt Zentralmyanmar mit seinen fruchtbaren Böden. Die bedeutendsten Flüsse neben dem Irrawaddy sind Thanlwin, Sittaung, Chindwin und Mekong. Vor der Küste bildet eine abgesunkene Gebirgslandschaft rund 800 Inseln. 40 % der Fläche werden von Primärwald bedeckt, wobei die Waldfläche jährlich um 1,2 % abnimmt. Myanmar befindet sich – mit Ausnahme des äußersten Nordens – im Einflussbereich des Indischen Monsuns. Durch das Relief bedingt sind die Ausprägungen des Monsuns in den einzelnen Landesteilen unterschiedlich. Völker und Sprachen. Myanmar ist ein Vielvölkerstaat mit rund 55 Millionen Einwohnern, die 135 verschiedenen Ethnien angehören. Die größte Ethnie ist mit 70 % Bevölkerungsanteil die der Birmanen "(Bamar)". Die Shan sind die zweitgrößte Volksgruppe (8,5 %) und leben hauptsächlich im Shan-Staat des Landes, in Gebieten ab etwa 1000 Metern Höhe. 6,2 % stellen die überwiegend christlichen Karen und 2,4 % gehören zu den Mon. Die Padaung gehören zur Sprachgruppe der Mon-Khmer und umfassen etwa 150.000 Personen. Sie leben im südlichen Kachin- und im Shanstaat. 2,2 % sind Chin (Tschin) und 1,4 % Kachin. Hauptsächlich im Rakhaing-Staat leben etwa 730.000 Arakanesen. Andere Quellen geben ihren Anteil an der Gesamtbevölkerung sogar mit 4 % an. Ebenfalls im Rakhaing-Staat leben die Rohingya, denen der Status als Volksgruppe verwehrt wird und die von der Regierung als „bengalische Muslime“ bezeichnet werden. Viele von ihnen sind nach Bangladesch geflohen. Ferner stellen die Chinesen 1–2 % und die Inder 1 % der Bevölkerung. Die einzelnen Völker sprechen ihre eigenen Sprachen, Englisch ist Handelssprache. Amtssprache ist die birmanische Sprache. Religion. Die Shwedagon-Pagode in Yangon 2013 Die am weitesten verbreitete Religion in Myanmar ist der Buddhismus. Einige der berühmtesten buddhistischen Kunstwerke (Statuen) im asiatischen Raum befinden sich hier. Vorherrschend ist die frühbuddhistische Theravada-Schule, die im 20. Jahrhundert auch maßgeblichen Einfluss auf die Buddhismus-Rezeption im Westen hatte. So fußen viele der Standardwerke der Vipassana-Meditation (zum Beispiel Nyanaponika: „Geistesschulung durch Achtsamkeit“) auf den Lehren birmanischer Dharma-Meister wie Mahasi Sayadaw, Chanmyay Sayadaw U Janaka, Ledi Sayadaw oder Sayadaw U Pandita. Zu den wichtigsten Heiligtümern zählen vor allem die Shwedagon-Pagode in Rangun, der Goldene Fels südöstlich von Bago und der Mount Popa in der Nähe von Bagan. In der buddhistischen Volksreligion ist der Geisterglaube an die Nats weit verbreitet. Nats haben menschliche Züge, Gefühle, Wünsche und Bedürfnisse, sind gut, hilfreich oder böse und gehässig, vor allem aber mächtig. Sie können, wenn erzürnt, großes Unheil bringen. Während der ihnen gewidmeten Feste werden sie durch "Nat-Gadaw", weibliche Medien (häufig auch Transvestiten) in Trance und Tanz verkörpert. Bei den niederen Nats ist der Bezug zum Animismus deutlich, denn sie leben in oder bei alten Bäumen oder Steinen, auf Bergen oder an Flüssen. Häufig haben sie nichtmenschliche Gestalt. Die an Bäumen, Feldern, Gewässern oder in Dörfern errichteten Nat-Schreine ("nat-sin") ähneln den Geisterhäuschen ("san phra phum") in Thailand. Zum Christentum bekennen sich nach offiziellen Angaben 4 % der Bevölkerung, vor allem in den Volksgruppen der Chin und der Karen, die einem im Jahre 2007 bekannt gewordenen Regierungsprogramm „zur Zerstörung der christlichen Religion in Myanmar“ zufolge, systematisch vertrieben werden sollen. Gesundheit, Bildung und Soziales. Myanmar ist seit einigen Jahren eines der Länder mit besonders hoher AIDS-Zuwachsrate, die von der Junta lange bestritten wurde, was das Problem verschlimmerte. Ursachen sind vor allem die Prostitution, besonders in Rangun, und die verbreitete, traditionelle Drogenabhängigkeit, die infolge der durch den jahrzehntelangen Bürgerkrieg eingetretenen gesellschaftlichen Zerrüttung noch verschärft wird. Der Bildungssektor ist in Myanmar, das eine ausgesprochene Bildungstradition hat, unter dem Militärregime besonders stark geschrumpft. Mehrere Hochschulen wurden vorübergehend oder ganz geschlossen, vor allem aus Angst vor Studentenaufständen und vor der Kritik einer intellektuellen Elite. Lernfreiheit und freie Fächerwahl bestehen nicht, dafür ist es möglich, gewisse Fächer per Fernkurs zu studieren. Auch die Verbreitung von Büchern im universitären Bereich ist stark beschränkt, so kann etwa ein Medizinstudent keine Geschichtsbücher ausleihen. In Myanmar gilt das angloamerikanische Maßsystem, das weltweit sonst nur noch von den USA und Liberia verwendet wird. Geschichte. Im 11. Jahrhundert gründete König Anawrahta das erste birmanische Reich. Im 19. Jahrhundert fiel Birma nach mehreren Kriegen unter britische Herrschaft. Der letzte König von Birma wurde mit seiner Familie durch die britische Besatzung ins Exil nach Indien geschickt, wo er auch starb. Birma wurde Teil von Britisch-Indien. Im Zweiten Weltkrieg wurde Birma von Japan okkupiert und ein Marionettenstaat errichtet. Nach Kriegsende 1945 wurde das Land von den Briten besetzt und erneut in ihr Kolonialreich integriert. 1948 wurde Birma in die Unabhängigkeit entlassen. Seither halten bewaffnete Konflikte in verschiedenen Landesteilen an, wo ethnische Minderheiten gewaltsam für mehr Autonomie oder Unabhängigkeit kämpfen. Nach einer kurzen demokratischen Phase bis 1962 wurde Birma von verschiedenen Militärregimen kontrolliert. Von 1961 bis 1971 war der birmanische Politiker Maha Thray Sithu U Thant der dritte Generalsekretär der Vereinten Nationen. Als es wegen der Weigerung der Regierung Ne Win, ihm ein Staatsbegräbnis auszurichten, in Rangun zu Unruhen kam, wurden diese gewaltsam niedergeschlagen. Am 18. Oktober 1965 verabschiedete der Revolutionsrat ein Gesetz, nach dem alle Wirtschaftsunternehmen verstaatlicht wurden. Wenig später wurden alle christlichen Missionare zum Ende des Jahres 1966 ausgewiesen. Am 8. August 1988 gipfelten monatelange Unruhen (8888 Uprising) wegen der Wirtschaftspolitik des Militärs unter Führung von General Ne Win in der gewaltsamen Niederschlagung von Protesten in der Hauptstadt Rangun mit mehreren Tausend Toten. Ein neues Militärregime unter General Saw Maung etablierte sich als "Staatsrat für die Wiederherstellung von Recht und Ordnung (SLORC)." 1989 wurde das Land in "Myanmar" umbenannt. Als 1990 bei demokratischen Wahlen die oppositionelle Nationale Liga für Demokratie (NLD) einen Erdrutschsieg errang, wurden die Wahlen vom Militärregime für ungültig erklärt, und es kam zu einer blutigen Niederschlagung von friedlichen Studentenprotesten. Das Regime blieb an der Macht. Im November 2005 begann die Regierung mit der Verlegung des Regierungssitzes von Rangun nach Naypyidaw in der Nähe der Stadt Pyinmana (Mandalay-Division). Begründet wurde der Schritt offiziell mit der gegenüber Rangun zentralen Lage der neuen administrativen Hauptstadt. Inoffizielle Spekulationen reichten von der Furcht vor einer ausländischen Invasion vom Meer aus, über Einflüsse von Astrologen auf die Militärmachthaber bis zur Abschottung des Regimes aus Furcht vor möglichen neuen Volksaufständen. In der Reihe der Kritiker des Regimes erschienen im Dezember 2005 erstmals auch die ASEAN-Staaten. Bereits im März 2005 hatte Myanmar auf die turnusmäßige Übernahme des jährlich wechselnden Vorsitzes innerhalb ASEAN zugunsten der Philippinen verzichtet. Ein von den USA im Weltsicherheitsrat eingebrachter Resolutionsentwurf, der das Militärregime zur Einhaltung der Menschenrechte und zur Freilassung aller politischen Gefangenen auffordern sollte, wurde im Januar 2007 mit den Stimmen der Vetomächte Volksrepublik China und Russland abgelehnt. Die im August 2003 vom damaligen Premierminister Khin Nyunt verkündete „Road Map“ für den Weg zur Demokratie nahm mit der erneuten Einberufung der Nationalen Versammlung, die eine neue Verfassung erarbeiten sollte, ihren Lauf. Nach knapp zehnmonatigen Beratungen zwischen dem 17. Mai 2004 und dem 3. September 2007 erklärte der Vorsitzende der Kommission für die Einberufung der Nationalen Versammlung, Generalleutnant Thein Sein, dass man sich auf eine neue Verfassung geeinigt habe, die einen ersten Schritt zur Demokratisierung des Landes darstelle. Einen Termin für ein Referendum über den Verfassungsentwurf oder für freie Parlamentswahlen nannte er jedoch nicht. Am 15. August 2007 wurden sämtliche Subventionen auf Kraftstoffe gestrichen. Die hierdurch auf bis zu 500 Prozent ansteigenden Preise für flüssigen Treibstoff und Gas waren der Anstoß zu Protestdemonstrationen, die sich bis Ende September auf das ganze Land ausweiteten. Sie wurden am 26. September gewaltsam niedergeschlagen. Dabei wurden nach unterschiedlichen Angaben zwischen zehn und mehreren Tausend Mönche und Demonstranten getötet. Im Februar 2008 setzte die Militärjunta ein Referendum über die neue Verfassung im Mai 2008 an. Nach dem Terminplan sollten demokratische Wahlen 2010 stattfinden. In der Nacht zum 3. Mai 2008 wurden Teile des Landes durch den Tropensturm Nargis verwüstet. Nach UNO-Schätzungen vom 9. Mai starben 63.000 bis 101.000 Menschen und rund eine Million wurde obdachlos. Nach Regierungsangaben vom 24. Juni starben 84.537 Menschen, 53.836 gelten als vermisst. Die Militärjunta verweigerte Helfern den Zugang zum Irrawaddy-Flussdelta und beschlagnahmte Hilfsgüterlieferungen aus dem Ausland. Ungeachtet der Katastrophe führte das Regime am 10. Mai 2008 das Verfassungsreferendum wie geplant durch. Lediglich in den am schwersten betroffenen Gebieten wurde der Termin um zwei Wochen verschoben. Nach massiver Wahlfälschung und Einschüchterung verkündete das Militär schließlich eine 92,48-prozentige Zustimmung der wahlberechtigten Bevölkerung zur neuen Verfassung. Am 7. November 2010 fanden die ersten Wahlen seit 1990 statt, woraufhin am 4. Februar 2011 der vorherige Premierminister Thein Sein zum ersten Präsidenten Myanmars seit 1988 ernannt wurde; dieser ist ein Than Shwe nahestehender General. Während die Parlamentswahlen von 2010 noch von der NLD boykottiert wurden, beteiligte sich die führende Oppositionspartei am 1. April 2012 erstmals seit 1990 wieder bei Parlamentswahlen. Bei den Nachwahlen wurden 45 der 664 Sitze in der Volksversammlung neu vergeben. 43 dieser 45 Sitze erhielt die Opposition mit der Friedensnobelpreisträgerin Aung San Suu Kyi. Verfassung. Seit 1993 wurde über eine neue Verfassung beraten. Mit Verweis auf die fehlende Verfassung hatte die Militärregierung jahrelang freie Wahlen verhindert. Im Regierungsentwurf für eine neue Verfassung wurde als neuer offizieller Name "Pyidaungsu Thamada Myanmar Naing-Ngan Daw (Republik der Union von Myanmar)" vorgeschlagen. Außerdem wurde eine Änderung von Staatsflagge und Staatssiegel geplant. Die Diskussionen hierüber verzögerten die Fertigstellung der Verfassung bis zum 3. September 2007. Die Verfassung wurde im Mai 2008 zur Abstimmung vorgelegt. Diese schreibt immer noch Vorrechte des Militärs fest, etwa dass ein Viertel der Parlamentsmandate an Militärangehörige vergeben werden müssen. Nach offizieller Lesart wurde diese Verfassung mit 92,48 Prozent Jastimmen angenommen. Erst am 22. Oktober 2010, rund zwei Wochen vor den für den 7. November 2010 angesetzten Wahlen, wurde der o. a. Namensvorschlag umgesetzt, zusätzlich wurden Flagge und Wappen geändert. Durch ein im März 2010 von der Militärregierung veröffentlichtes Wahlgesetz war die führende NLD-Politikerin und Friedensnobelpreisträgerin Aung San Suu Kyi von den Parlamentswahlen am 7. November 2010 ausgeschlossen worden. Das Gesetz besagt, dass Strafgefangene, zu denen in Myanmar faktisch auch politische Gefangene gezählt werden, nicht Mitglieder einer politischen Partei sein dürfen. Gleichzeitig wurde die NLD dazu gezwungen, Aung San Suu Kyi aus der Partei auszuschließen, sollte sie an den Wahlen teilnehmen wollen. Obwohl das neue Gesetz auf internationale Kritik stieß, annullierte die Militärregierung gleichzeitig das Ergebnis der Parlamentswahl aus dem Jahr 1990, da es nicht mehr mit der neuen Verfassung übereinstimme. Die NLD hatte die Wahl im Jahr 1990 mit großer Mehrheit für sich entscheiden können. Erst auf internationalen Druck entließ die Militärregierung Myanmars Aung San Suu Kyi am 13. November 2010 aus ihrem insgesamt 15 Jahre währenden Hausarrest. Am 7. November 2010 wurden erstmals auf Grundlage der Verfassung von 2010 Allgemeine Wahlen 2010 in Myanmar durchgeführt. Die Union Solidarity and Development Party stellt seit dem 4. Februar 2011 den Staatspräsidenten Thein Sein. Das Amt des Ministerpräsidenten ist bislang unbesetzt, Than Shwe hat somit kein politisches Amt mehr inne. Demokratisierungsprozess. Seit April 2011 sind in Myanmar die Anfänge eines Demokratisierungsprozesses zu verzeichnen. Anlass und Nahziel dieser neuen Politik ist die Lockerung der internationalen Handelsblockaden, die das Land in der Vergangenheit stark isoliert hatten. Unter anderem wurden nach Informationen des Europäischen Auswärtigen Diensts die große Mehrzahl politischer Gefangener freigelassen, neue Vorschriften im Arbeits- und Investitionsrecht erlassen, die Kontrolle der Medien gelockert und mehr als 120 Gewerkschaften genehmigt. Im Juli 2013 kündigte Thin Sein die Freilassung aller politischen Gefangenen bis zum Jahresende an, die ersten der etwa 150 Gefangenen kamen daraufhin eine Woche später frei. Am 1. April 2012 fanden Nachwahlen statt, nachdem zahlreiche Abgeordnete Regierungsämter übernommen und insgesamt 157 Kandidaten von 17 Parteien sich für die Nachbesetzung der freigewordenen 45 Parlamentssitze beworben hatten. Anteilmäßig waren lediglich sechs Millionen Wähler des 54-Millionen-Volks zu diesen Nachwahlen wahlberechtigt. An der Zusammensetzung des Parlaments hat die Nachwahl kaum etwas geändert, da die neu gewählten Abgeordneten mit 45 von insgesamt 664 Abgeordneten nur sieben Prozent aller Mandate innehaben. Die vom Militär dominierte „Union Solidarity and Development“ hat rechnerisch nach wie vor eine klare Mehrheit. Allerdings zog Aung San Suu Kyi als Spitzenkandidatin der Partei NLD im Ergebnis der Nachwahlen erstmals in das Parlament ein – nicht ohne sehr kritisch darauf hinzuweisen, dass die neue Verfassung immer noch Vorrechte des Militärs festschreibt, etwa dass ein Viertel der Parlamentsmandate an Militärangehörige vergeben werden müssen. Suu Kyi wurde auch Vorsitzende des Unterausschusses für Rechtsstaatlichkeit. Die NLD gewann laut Medienberichten in 112 von 129 Wahllokalen die meisten Stimmen. Dies wird vielerorts als Aufbruchzeichen für eine weitere Demokratisierung gewertet. Menschenrechte. Menschenrechtsorganisationen werfen Regierung und Armee Menschenrechtsverstöße wie Zwangsarbeit, Zwangsräumung von Dörfern, Folter, Vergewaltigungen und Einsatz von Kindersoldaten in den bis heute andauernden Kämpfen gegen Aufständische vor, vor allem gegen ethnische Minderheiten wie die Karen. Auch manche Rebellengruppen sollen Kinder rekrutiert und Zivilisten zur Zwangsarbeit verpflichtet haben. Für den Bau einer Gaspipeline von Myanmar nach Thailand durch Total und Unocal (Yadana-Projekt) sollen, um die Pipeline vor Überfällen zu schützen, die Dörfer in diesem Gebiet weiträumig zerstört und die Bevölkerung umgesiedelt worden sein. Die belegten Fälle von Zwangsarbeit, Vertreibung und Mord führten zu Prozessen gegen die beiden Konzerne. Ende Juni 2007 hat das Internationale Komitee vom Roten Kreuz (IKRK) öffentlich der Regierung schwere Menschenrechtsverletzungen vorgeworfen. Normalerweise äußert das IKRK seine Kritik vertraulich, doch da die Machthaber Myanmars nicht auf die Vorwürfe reagierten, habe man die Vorwürfe publik gemacht. Neben der Misshandlung von Gefangenen wurde vor allem die Verfolgung der Karen kritisiert. Der muslimischen Minderheit in Myanmar, den Rohingya, wird die Staatsangehörigkeit verwehrt und ihre Bürgerrechte werden stark eingeschränkt. Von den Vereinten Nationen werden die Rohingya als eine der am stärksten verfolgten Minderheiten der Welt bezeichnet. Im Mai 2013 ordnete die Regierung „zum Abbau von ethnischen Spannungen“ an, dass die Rohingya im Rakhaing-Staat nicht mehr als zwei Kinder haben dürfen, da ihre nach Angaben der Regierung zehnmal so hohe Geburtenrate angeblich die buddhistische Mehrheit in eine Minderheit verwandeln könne. Dem gleichen Ziel diente das Verbot der Polygamie für die Muslime in den an Bangladesch angrenzenden Ortschaften Buthidaung und Maundaw. In der Rangliste 2011 von „Reporter ohne Grenzen“ zur Lage der Pressefreiheit lag Myanmar auf Platz 169 von 179, verbesserte sich aber bis 2014 auf Rang 145 von 180. Im August 2012 wurden die strengen Zensurregelungen gelockert. Veröffentlichungen müssen demnach nicht mehr vorab von der staatlichen Prüfbehörde genehmigt werden, die Zensurbehörde wurde allerdings nicht aufgelöst und publizierte Texte müssen nachträglich auch weiterhin bei der Prüfstelle eingereicht werden. Am 1. April 2013 erschienen erstmals seit 1962 wieder private Zeitungen in Myanmar, zuvor hatte das Informationsministerium acht von 14 Bewerbungen um eine Lizenz stattgegeben. Außenpolitik. Aufgrund seiner Lage befindet sich Myanmar seit seiner Unabhängigkeit in einer besonderen Beziehung zu seinen großen Nachbarn Indien und China. Myanmar unterhält seit 1988 eine besondere Beziehung zur Volksrepublik China, es besteht jedoch keine formelle Allianz. Lange Zeit war auch in offiziellen Stellungnahmen die Auffassung verbreitet, China betreibe seit 1994 auf den Großen und Kleinen Kokosinseln nördlich der indischen Andamanen und Nikobaren einen Stützpunkt für Fernmelde- und Elektronische Aufklärung (SIGINT) und einen Flugplatz. Zudem kursierten Gerüchte über einen (geplanten) U-Boot-Stützpunkt. Allerdings haben sich diese Berichte mittlerweile als Fehlinformation herausgestellt. Die Volksrepublik China hat außerdem Überlandstraßen zwischen der chinesischen Grenze und dem Zentrum Myanmars in der Mandalay-Ebene finanziert und deren Ausbau logistisch unterstützt. Diese Straßen sind panzertauglich konstruiert und sichern den Chinesen den strategischen Zugang zum Indischen Ozean. Neben der militärischen Zusammenarbeit dient Myanmar den Chinesen auch als Transferroute für den Erdöl- und Erdgastransport aus dem Mittleren Osten, sowie als Lieferant von Strom. Dabei besitzt das Land eine gehobene Relevanz für die chinesische Energiesicherheit, da über den Landweg die äußerst verwundbare Malakka-Straße zumindest zu einem Teil umgangen werden kann. Allein seit März 2010 wurden Investitionen der Volksrepublik China von knapp 8,2 Mrd. US$ beschlossen, wovon rund 3,6 Mrd. US$ auf den Bau des Myitsone-Wasserkraftprojekts im Kachin-Staat entfallen. Letzterer wurde 2011 unilateral von der Regierung Myanmars ausgesetzt, was zu einer deutlichen Abkühlung der bilateralen Beziehungen führte. Viele der maßgeblichen Geschäftsleute in Myanmar haben chinesische Wurzeln. Ein Beispiel dafür ist Tun Myint Naing, auch bekannt unter dem Namen Steven Law, der aus der Familie eines Drogenbarons stammt und gegenwärtig als der reichste Mann Myanmars angesehen wird. Ihm gehört die Firma Asia World, die den Zuschlag zu vielen der aktuellen sino-burmesischen Großprojekte (Tiefseehafen in Kyaukpyu, Erdölpipeline, Dammprojekte) im Land erhielt. Innerhalb der Bevölkerung Myanmars wird das chinesische Engagement jedoch als bedrohlich und ausbeuterisch angesehen. Es kursieren über Ausbeutung, Enteignungen Zerstörung der lokalen Infrastruktur sowie Missachtung jeglichen Umweltschutzes, so dass in vielen Gegenden des Landes eine anti-chinesische Stimmung herrscht. Steven Law steht, neben verschiedenen anderen, der Junta nahestehenden Personen, seit 2008 unter US-amerikanischen Sanktionen. Militär. Die Streitkräfte von Myanmar, "Tatmadaw" genannt, umfassen rund 428.000 Soldaten und 72.000 paramilitärische Kräfte wie die Grenztruppen und Spezialpolizeikräfte. Der Verteidigungsetat belief sich 2012 auf etwa 2,5 Milliarden US-Dollar und entsprach 4,8 Prozent des Bruttoinlandsprodukts des Landes. Das Heer ist in 13 Regionalkommandos gegliedert und umfasst 30 Infanteriedivisionen, zwei Panzerdivisionen und zehn Artilleriedivisionen. Zu ihrer Ausrüstung zählen rund 130 Kampfpanzer vom Typ T-72, über 300 Kampfpanzer chinesischer Nachbauten des T-54, rund 150 amphibische Panzer vom Typ PT-76 und 140 Radpanzer EE-9 Cascavel. Die Artillerie verfügt über ein Arsenal an verschiedenen älteren Typen von Haubitzen, Geschützen und Mehrfachraketenwerfern aus verschiedenen Produktionsländern. Die Luftverteidigung verwendet ebenfalls ältere Systeme sowjetischer Herkunft, wie etwa SA-6 Gainful und SA-11 Gadfly. Bedeutende moderne Systeme sind die SA-16 Gimlet, SA-18 Grouse und das russische Kurzstrecken-Luftabwehrraketen-System SA-15 Gauntlet (Tor M1). Der Luftwaffe gehören 15.000 Soldaten an, gegliedert auf acht Luftwaffenstützpunkte und sechs Luftverteidigungssektoren. Sie ist ausgerüstet mit 52 Jagdflugzeugen des chinesischen Typs Chengdu J-7, mehr als 12 Kampfflugzeugen vom Typ MiG-29, 48 NAMC Q-5 (Nanchang A-5) und weiteren Flugzeugen. Über den Umfang und die aktuelle Ausrüstung der Marine gibt es keine aktuellen Daten. Zur Verfügung stehen den offenbar 16.000 Soldaten mindestens drei Korvetten und eine größere Anzahl an Patrouillenbooten und U-Boot-Begleitbooten. Verwaltungsgliederung. Myanmar gliedert sich in sieben "Staaten", sieben "Regionen" und ein "Unionsterritorium". Die Landesteile, die überwiegend von der größten Volksgruppe Myanmars, den "Bamar", besiedelt sind, heißen "Regionen" (bis 2008 "Divisionen"), die Bereiche, die überwiegend von Minderheiten bewohnt werden, "Staaten". Das Unionsterritorium umgibt die Hauptstadt des Landes. Die "Staaten" und "Regionen" sind weiter untergliedert in Distrikte und Gemeinden. Städte. Größte Stadt des Landes ist mit 4.477.782 Einwohnern Rangun, das bis November 2005 auch Hauptstadt des Landes war. Seit Dezember 2005 waren die Regierungsbehörden nach und nach in eine neue Hauptstadt westlich der Kleinstadt Pyinmana, ungefähr 320 km nördlich von Rangun, verlegt worden. Am 6. Februar 2006 war der Umzug sämtlicher Ministerien offiziell abgeschlossen. Die neue Hauptstadt wurde am 22. März 2006 Naypyidaw (Heimstatt der Könige) benannt. Weitere große Städte sind Mandalay, Mawlamyaing, Bago und Pathein. Wirtschaft. Mit einem Bruttonationaleinkommen von 1400 Euro (2010) pro Einwohner gehört Myanmar zu den ärmeren Ländern der Welt. 70 % der Beschäftigten arbeiten in der Landwirtschaft; in ihr werden 43 % des BIP erzeugt, während die Industrie 20 % und der Dienstleistungssektor 37 % beitragen. Vor der Diktatur stand das Land wirtschaftlich sehr gut da und wurde auch „Kornkammer Südostasiens“ genannt, bekannt auch als Kupfer- und Edelsteinlieferant. Durch die politische Öffnung Myanmars werden ausländische Firmen wie Nissan oder Coca-Cola angezogen. Zuvor war Myanmar stark isoliert. Wirtschaftslage. Myanmar kämpfte lange Zeit mit einer starken Inflation; die einheimische Währung Kyat verlor im Zeitraum von 1990 bis 2001 durchschnittlich 34,6 % pro Jahr an Wert; in den Jahren 2002/03 beschleunigte sich die Inflationsrate auf durchschnittlich 46,9 %. Durch die wirtschaftliche Öffnung des Landes durch die Regierung konnte die Inflation drastisch gesenkt werden. Im Jahr 2009 betrug sie nur circa 1,5 %, für 2010 wuchs sie jedoch erneut auf 9,6 % an. Der inoffizielle Wechselkurs zum US-Dollar spiegelt dies eindrücklich wider: Bis 2007 stieg der Preis für 1 US$ auf 1.300 Kyat, während er 2010 im Mittel unter 1000 Kyat sank. Ende Juli 2011 lag er gar bei 785 Kyat / US$. Ein großes Problem des Staates ist der hohe Grad an Korruption. Myanmar belegte 2011 den vorletzten Platz von 183 Staaten, die in der Korruptionsstatistik der Organisation Transparency International gelistet sind. Ein anderes großes Problem sind die exorbitanten Ausgaben für Militär, Polizei und Geheimdienste, die seit Jahren über 50 % des Staatsbudgets ausmachen. Steigende Lebensmittel- und Treibstoffpreise und die Willkürherrschaft des Regimes sorgen bei den Einwohnern für große Unzufriedenheit, die sich zumeist hinter vorgehaltener Hand, aber auch öffentlich äußert. Stromausfälle sind recht häufig. Außenhandel. Die Handelsbilanz war für das Jahr 2010 mit Importen im Wert von 4,532 Milliarden US$ und Exporten im Wert von 7,841 Milliarden Euro stark positiv. Beide Werte sind tatsächlich weitaus höher, da über die Grenzen zu Thailand, China, Indien und Bangladesch im großen Stil geschmuggelt wird. Wichtigste Exportgüter sind Erdgas sowie land- und forstwirtschaftliche Erzeugnisse, während die Importe zu einem großen Teil aus Konsumgütern, Halbfertigwaren und Investitionsgütern bestehen. Aus dem Land geschmuggelt werden vor allem Drogen, Edelsteine, Holz und Reis, während ins Land vornehmlich Konsumgüter und Treibstoff gelangen. Eine ganze Reihe europäischer und amerikanischer Firmen haben sich wegen zu schlechter wirtschaftlicher Aussichten, wegen übertriebener Bürokratie oder der Menschenrechtslage aus Myanmar wieder zurückgezogen; dagegen expandieren besonders Firmen aus Japan, Korea, Singapur und China im Land. Fast die Hälfte der Exporte geht nach Thailand (46,6 %); nächstkleinere Handelspartner sind Indien (12,9 %), China (9 %) und Japan (5,6 %). Größte Importländer dagegen sind China (33,1 %), Thailand (26,3 %) und Singapur (15,2 %). Der größte Importeur myanmarischer Waren in Europa ist Deutschland (Stand 2006: 102 Millionen Euro). Der Export nach Birma lag bei 32 Millionen Euro, was nach Meinung des Auswärtigen Amtes mit den schlechten wirtschaftlichen und politischen Bedingungen im Land zusammenhängt. Der "Ostasiatische Verein", eine deutsche Unternehmerorganisation, ist seit 1997 in Rangun vertreten und plant eine Steigerung der unternehmerischen Aktivitäten. Elektrizitätsversorgung. Die installierte Leistung der Kraftwerke in Myanmar lag im Jahre 2010 bei 3.045 MW und 2013 bei 3.735 MW, davon entfielen auf Wasserkraftwerke 2.780 MW (74 %). Es gibt Schätzungen, dass das Wasserkraftpotential der 4 größten Flüsse in Myanmar – Irrawaddy, Thanlwin, Chindwin und Sittaung – bei 100.000 MW liegt. Die Regierung Myanmars hat daher ehrgeizige Pläne, dieses Potential auch auszuschöpfen. Allerdings ist der aktuelle Status bei verschiedenen Projekten unklar, wie z. B. bei der Myitsone-Talsperre oder der Tasang-Talsperre. Bodenschätze. In Myanmar werden hochwertige Jade und Edelsteine gefördert. Berühmt sind die Taubenblut-Rubine aus den Minen in der Nähe der Stadt Mogok. Dort kommen auch Spinell, Saphir und einige andere Minerale und Edelsteine in hervorragender Qualität vor. Einzigartig ist das Vorkommen von Painit. Gold wird ebenfalls gewaschen, wobei eine beträchtliche Menge davon von Pilgern in Form von hauchdünnen Blättchen auf Zedis (Stupas), Buddha-Statuen und den Goldenen Felsen geklebt wird. Zudem förderte Myanmar 2011 täglich 20.200 Barrel Erdöl sowie jährlich 12,1 Milliarden Kubikmeter Erdgas. Es wurden 2011 jedoch 40.620 Barrel an Erdölprodukten täglich verbraucht. Der Großteil der Ölprodukte muss importiert werden. Die Ausbeutung und Weiterverarbeitung wird einerseits von der staatlichen Ölgesellschaft MOGE (Myanmar Oil and Gas Enterprise) vorgenommen und andererseits von ausländischen Ölkonzernen wie den französischen Konzernen Total und Elf sowie Texaco, Unocal, Amoco, British Premier of UK, Nippon Oil. Total baut mit Unocal eine Gaspipeline von Myanmar nach Thailand. Zwei Milliarden Dollar sollen dafür veranschlagt sein. Tourismus. Myanmar bietet ein großes Angebot an Sehenswürdigkeiten. Die Shwedagon-Stupa in der früheren Hauptstadt Rangun ist die größte und vermutlich wertvollste Stupa der Welt. Sie ist vom Sockel bis zur Turmspitze mit Gold bedeckt. Weitere Hauptattraktionen des Landes sind die weitläufigen Anlagen der alten Hauptstadt Bagan mit über 2000 Sakralbauten aus vier Jahrhunderten, der Goldene Fels bei Kyaikto im Mon-Staat, der Inle-See mit den schwimmenden Gärten, die Stadt Mandalay als kulturelles Zentrum mit vielen Sehenswürdigkeiten auch in ihrer Umgebung. Eine davon ist die zweitschwerste freihängende läutbare Glocke der Welt, die Mingun-Glocke. Sie wurde 1808 auf Veranlassung König Bodawpayas angefertigt. Der im Westen gelegene Rakhaing-Staat besitzt den Strand von Ngapali, der für Urlauber eines der beliebtesten Reiseziele ist. Bekamen Touristen früher nur Visa für maximal eine Woche, so öffnete sich das Land vor einigen Jahren aus wirtschaftlichem Druck und wirbt zunehmend aktiv für den Devisen bringenden Tourismus. Dafür wurden Flughäfen und Straßen mithilfe von Zwangsarbeitern ausgebaut. Viele Menschenrechtsorganisationen und tourismuskritische Vereinigungen (beispielsweise Tourism Concern) riefen Touristen jedoch lange zum Boykott des Landes auf, da diese ihrer Ansicht nach durch Reisen nach Myanmar das Militärregime unterstützten und ihre Devisen nicht bei der Bevölkerung ankämen. Andere regierungsunabhängige Institutionen in Myanmar dagegen warnen vor einem Boykott, da viele Arbeitsplätze z. B. bei Hotels, Airlines, Restaurants, Souvenirgeschäften u. v. m. unmittelbar und mittelbar vom Tourismus abhängen und für diese Menschen von existenzieller Bedeutung sind. Auch sind Touristen eine wichtige Quelle unabhängiger Informationen, die sonst kaum den Weg in und aus dem Land finden. In den vergangenen Jahren verzeichnete das Land einen starken Zuwachs der Besucherzahlen. In den Jahren 2007 und 2008 besuchten insgesamt 220.000 Touristen Myanmar, 2012 waren es bereits eine Million, 2013 zwei Millionen und im Jahr 2014 über drei Millionen Reisende. Für das Jahr 2015 haben sich die Tourismusverantwortlichen das Ziel von fünf Millionen Besuchern gesetzt. Schattenwirtschaft. An der Grenze zu Laos und Thailand hat Myanmar Anteil am sogenannten Goldenen Dreieck, in dem Schlafmohn angebaut wird, um aus ihm Opium zur Heroinproduktion zu gewinnen. Die Bedeutung Myanmars als Lieferant für den weltweiten Heroinmarkt ist zuletzt (2010) durch große Ernteausfälle der Drogenproduktion in Afghanistan und einer Vergrößerung der Anbauflächen wieder gestiegen. Myanmar nimmt in der Welt eine Spitzenposition bei der Produktion von Amphetaminen ein, die auf chemischem Weg leichter, billiger und von der Witterung unabhängiger als Mohn produziert werden können. Sie werden in schwer auffindbaren Dschungel-Fabriken tonnenweise hergestellt und vor allem über Thailand und China in die ganze Welt exportiert. Teilweise sollen die Regierungsvertreter daran mitverdienen, indem mit den involvierten aufständischen Ethnien Waffenstillstände gegen Beteiligungen an den Einnahmen aus dem Drogenhandel ausgehandelt wurden. Auf Wildtiermärkten in Myanmars wird mit Elfenbein-, Nashorn-, und Tigerprodukten gehandelt. Myanmar ist Transit- und Herkunftsland illegaler Wildereiprodukte bedrohter Tierarten. Illegale Arbeit im benachbarten Thailand ist eine weitere inoffizielle Einkommensquelle. Insbesondere finden Menschen aus Myanmar als niedrig entlohnte Haushaltshilfen, Pflegerinnen und Kindermädchen Arbeit in Thailand. Im März 2011 kam es im Grenzgebiet zu Thailand zu einem schweren Erdbeben. Das Militär hinderte ausländische Hilfskräfte daran, bis an den Ort des Epizentrums zu gelangen, was offensichtlich deswegen geschah, um Ausländern keinen Einblick in die Drogengeschäfte der Armee zu gewähren. Viele Bauern werden zum Opium-Anbau gezwungen. Es gibt andere Gegenden, in denen nicht das Militär das Sagen hat, sondern einzelne Rebellengruppen. Dort kontrollieren diese den Drogenanbau. Staatshaushalt. Der Staatshaushalt umfasste 2010 Ausgaben von umgerechnet 2,95 Mrd. US-Dollar, dem standen Einnahmen von umgerechnet 1,37 Mrd. US-Dollar gegenüber. Daraus ergibt sich ein Haushaltsdefizit in Höhe von 3,7 % des BIP. Die Staatsverschuldung betrug 2010 7,14 Mrd. US-Dollar und damit nur noch 16,6 % des BIP. Gegenüber dem Jahr 2004 (63,2 %) konnte sie damit stark abgebaut werden. Flughäfen und Luftverkehrsgesellschaften. Myanmar verfügt derzeit über zwei internationale und 16 lokale Flughäfen, die von nationalen Fluggesellschaften bedient werden. Der größte Flughafen befindet sich nördlich von Rangun. Auch die Stadt Mandalay besitzt einen internationalen Flughafen. Aufgrund des desolaten Straßennetzes und der Größe des Landes ist das Flugzeug das mit Abstand schnellste Verkehrsmittel im Land. Der Sicherheits- und Qualitätsstandard werden teilweise jedoch als rückständig beschrieben. 2011 wurde ein Kooperationsvertrag mit der deutschen Fritz Werner Industrieausruestungen GmbH geschlossen, einige der wichtigsten Flug- und Seehäfen auszubauen bzw. zu modernisieren. Myanmar verfügt über eine, gemessen an der Größe des Landes, relativ hohe Anzahl von Fluggesellschaften. Insbesondere seit dem Ende der reinen Militärdiktatur 2010 gab es viele private Neugründungen. Mit Stand Juni 2015 betreiben folgende myanmarische Airlines Linien- und Charterflüge. Ziele außerhalb Myanmars werden aktuell nur von MIA und Golden Myanmar Airlines angeflogen, die anderen Gesellschaften bedienen die über dreißig Flugziele innerhalb Myanmars. Eisenbahn. Der Ursprung des fast ausschließlich in der Meterspur errichteten Eisenbahnnetzes geht auf die britische Kolonialzeit zurück. Die erste Eisenbahnlinie wurde 1869 zwischen Rangun und dem nordwestlich gelegenen Letpadan eröffnet. 1889 folgte die Linie von Rangun nach Mandalay, die später noch weiter nordwärts bis Myitkyina verlängert wurde. Im Zweiten Weltkrieg ließen die Japaner von Kriegsgefangenen die sogenannte Todeseisenbahn von Thanbyuzayat nach Thailand errichten. Diese Strecke erlangte durch den Film "Die Brücke am Kwai" große Berühmtheit. Sie wurde aber bereits kurz nach Ende des Krieges demontiert. Heute hat das Streckennetz eine Länge von 5099 km (März 2008). Grenzüberschreitende Linien existieren nicht. Rückgrat des Netzes ist die von Mawlamyaing über Rangun und Mandalay nach Myitkyina verlaufende Nord-Süd-Strecke. Innerhalb dieser Strecke kommt dem 622 km langen Abschnitt zwischen Rangun und Mandalay eine besondere Bedeutung zu, die sich unter anderem in seinem teilweise zweigleisigen Ausbau und dem Einsatz moderner und auch nach westlichen Gesichtspunkten komfortabler Expresszüge ausdrückt. Von der Nord-Süd-Strecke führen Stichstrecken unter anderem nach Lashio, Shwenyaung, Bagan und Pyay. Fehlende Investitionen haben zum Verschleiß der Strecken geführt, so dass diese sich heute weitgehend in einem schlechten Zustand befinden. Der Verkehr wird von der staatlichen Gesellschaft Myanma Railways mit Diesellokomotiven abgewickelt. Dampflokomotiven wurden außerordentlich lange, bis etwa 2005 in großer Zahl eingesetzt. Die eingesetzten Züge erreichen oftmals nur Reisegeschwindigkeiten von 30 km/h oder weniger. Selbst die zwischen Rangun und Mandalay verkehrenden Expresszüge benötigen für die 622 km etwa 16 Stunden. Fahrpläne existieren zwar, sie sind aber für den täglichen Betriebsablauf kaum von Bedeutung, da Verspätungen von bis zu mehreren Stunden aufgrund des mangelhaften Streckenzustandes und wegen Unfällen an der Tagesordnung sind. Ebenso kommen aber auch Abfahrten mehrere Stunden vor dem Plan vor. Bei großen Verspätungen lässt die Bahngesellschaft auch schon einmal Züge ausfallen, um die Wagen- und Lokumläufe wieder zu ordnen. Angesichts einer Netzlänge von fast 4.000 km ist die Zahl der täglich eingesetzten Zugpaare mit etwa 100 vergleichsweise gering. Zurzeit sind die Strecken Kyangin (nördl. Irawadi-Region) – Pakokku (515 km) und Kathar – Bhamo (152 km) (Sagaing-Region – Kachin-Staat – Volksrepublik China-Verbindung) im Bau. Zum Zustand und Betrieb der Eisenbahn siehe die Reiseberichte. Straßennetz. Der Straßenverkehr hat sich in Myanmar zum wichtigsten Verkehrsträger entwickelt. Das Straßennetz ist insgesamt 27.000 km lang (2005). Allerdings sind nur 3.200 km asphaltiert. Der Straßenverkehr sieht sich mit schwierigen klimatischen Verhältnissen konfrontiert. Während der Regenzeit sind zahlreiche Straßen wegen Unterspülungen unterbrochen, in der Trockenzeit weicht die Hitze den Asphalt auf. Allerdings sind die Einheimischen sehr einfallsreich, um derartige Hindernisse zu überwinden. Das Benzin ist rationiert. Privatfahrer erhalten offiziell nur neun Liter Benzin am Tag. Musik. Die klassische burmesische Musik unterscheidet sich trotz der frühen Einflüsse aus Indien und China und ab dem 18. Jahrhundert aus Thailand in Melodie und Rhythmus hörbar von der Musik der Nachbarländer. Zu den ersten Instrumenten, die mit der Ausbreitung des Buddhismus im 1. und 2. Jahrhundert n. Chr. aus Indien kamen, gehörten "Vinas," das waren Stabzithern und Bogenharfen. Die alte Bogenharfe "saung gauk" hat als einzige dieser einst über Asien verbreiteten Instrumentengattung in Myanmar überlebt und genießt bis heute als Nationalinstrument höchste Wertschätzung. Die "saung gauk" ist ein Instrument für die Gesangsbegleitung in der feinen höfischen Kammermusik in geschlossenen Räumen, deren Tradition in der Liedsammlung "Mahagita" zusammengefasst ist. Ein großer Teil dieser Sammlung von etwa 500 heute bekannten Liedern geht auf Myawaddy Mingyi U Sa (1766–1853), den bedeutendsten Komponisten und "saung-gauk"-Spieler der Konbaung-Zeit zurück. Zur Kammermusik zählen auch kleine Instrumentalensembles, in denen außerdem das Xylophon "patala" (verwandt mit dem thailändischen "ranat" und dem kambodschanischen "roneat"), die Längsflöte "palwe" und die Zither "do min" eingesetzt werden. Die klassische laute Musik für draußen, für Festveranstaltungen, Tänze und Geisteranbetungsrituale "(Nat Pwe)" bieten die "hsaing waing-"Ensembles. Sie bestehen aus dem namensgebenden Melodieinstrument, einem Kreis von 21 gestimmten Trommeln; einem Kreis mit 21 Buckelgongs ("kyi waing" oder "kyi naung"); ein weiteres Gongspiel ("maung zaing"), ebenfalls in einem Holzgestell; der Doppelrohrblattoboe "hne" (abgeleitet von persisch "surnai") und diverse Trommeln als Rhythmusinstrumente. Bei zwei weiteren, in ländlichen Regionen bei Festen und religiösen Prozessionen gespielten Ensembles stehen große Trommeln im Vordergrund: das Ensemble der bis zu drei Meter langen Bechertrommel "ozi" und der Fasstrommel "dhopat." Beide Gruppen verwenden außerdem Buckelgongs, Paarbecken und Bambusklappern. Die verschiedenen Volksgruppen haben eigene Instrumente und eine eigene traditionelle Musik. Die Mon verwenden ein aus alter Zeit stammendes Zupfinstrument, die dreisaitige Stabzither "mí-gyaùng saung," die sich von hier weiter in Südostasien verbreitet hat. Nach dem Aussehen wird sie Krokodilzither genannt. Als erstes westliches Musikinstrument wurde Ende des 19. Jahrhunderts das Klavier (burmesisch: "sandaya") eingeführt, bis 1920 hatte es zu einem großen Teil die Liedbegleitung von der "saung gauk" übernommen. Ähnlich erfolgreich war die Geige (burmesisch: "deyaw"), später kam die Hawaii-Gitarre hinzu. Alle musikalischen Übernahmen aus dem Ausland, ob es sich um Melodien, Tonskalen (die pentatonische Stimmung stammt aus Thailand) oder Instrumente handelte, wurden grundsätzlich den einheimischen Hörgewohnheiten angeglichen und trugen zur Erweiterung der eigenen Musik bei. Westliche klassische Musik konnte sich nicht durchsetzen. Einer Rückbesinnung auf die eigene Tradition seit Beginn der nationalen Unabhängigkeitsbewegung in den 1920er Jahren steht die Begeisterung für westliche Popmusik bei der jüngeren Generation gegenüber. Deren weit verbreitete, lautstarke und teilweise auch gelungene Nachahmung mit auf Burmesisch verfassten bzw. übersetzten Texten lässt sich als Ausdruck eines Freiheitswillens verstehen. Die Popmusik wird von der Regierung politisch kritisiert und von der älteren Generation moralisch verurteilt. Seit 1993 findet das staatlich finanzierte "Soyaketi"-Festival der darstellenden Künste jährlich im Oktober/November statt. In zweieinhalb Wochen werden Wettbewerbe in den Sparten Gesang, Instrumentalmusik, Gesangskomposition, Tanz und Marionettentheater durchgeführt. Seit 2007 findet die Veranstaltung nicht mehr wie zuvor in Yangoon, sondern am neuen Regierungssitz in Naypyidaw statt. Feste. Das größte und wichtigste Fest in Burma ist das burmesische Neujahrsfest "Thingyan", das dem thailändischen "Songkran" entspricht. Im Volksmund auch als Wasserfest bezeichnet, wird es an drei hintereinanderfolgenden Tagen im April – dem heißesten Monat – mit viel Wasser gefeiert. Mit Wasserpistolen, Wassereimern und sonstigen mit Wasser gefüllten Behältern ziehen die Burmesen auf Ladeflächen von LKW oder zu Fuß durch die Stadt und machen jeden nass. Es gibt auch Umzüge, bei denen zu kräftigen Rhythmen getanzt wird. Das farbenfrohe "Phaungdaw U"-Fest wird zu Ehren Buddhas im Herbst auf dem Inle-See gefeiert. Dabei wird eine Buddha-Statue auf einer geschmückten Barke über den See gefahren. Mönchengladbach. Mönchengladbach (zwischen 1888 und 1960 mit den amtlichen Namen München-Gladbach, "München Gladbach", "M. Gladbach" und zuletzt "Mönchen Gladbach") ist eine kreisfreie deutsche Großstadt im Westen Nordrhein-Westfalens. Die als Oberzentrum eingestufte Stadt liegt im Regierungsbezirk Düsseldorf, sie ist außerdem Bestandteil der Metropolregion Rhein-Ruhr. Das Stadtgebiet von Mönchengladbach erstreckt sich nördlich der Niersquelle, das Mönchengladbacher Stadtzentrum befindet sich rund 25 Kilometer westlich der nordrhein-westfälischen Landeshauptstadt Düsseldorf. Die Stadt Mönchengladbach besteht in ihren heutigen Grenzen seit der Gebietsreform, die am 1. Januar 1975 in Kraft trat, nachdem die (alte) kreisfreie Stadt Mönchengladbach mit der kreisfreien Stadt Rheydt und der Gemeinde Wickrath (Kreis Grevenbroich) zur neuen kreisfreien "Stadt Mönchengladbach" vereinigt wurde. Die Einwohnerzahl stieg im Jahre 1921 erstmals auf über 100.000, so dass Mönchengladbach der Status der Großstadt zuerkannt wurde. Auch in Rheydt wurden ab dem Jahr 1968 mehr als 100.000 Einwohner gezählt. Am betrug die Einwohnerzahl der Stadt. Mönchengladbach verfügt als einzige Stadt in Deutschland über zwei Hauptbahnhöfe. Lage und Umgebung. Mönchengladbach liegt etwa 16 Kilometer westlich des Rheins im Niederrheinischen Tiefland am Ostabfall der Schwalm-Nette-Platte gegen die lössbedeckte Kempen-Aldekerker-Platte und die Niersniederung. Obwohl Mönchengladbach größtenteils im Flachland liegt, sind der Süden (Stadtteil Odenkirchen) und das Stadtzentrum (um Bökelberg und Abteiberg) vergleichsweise hügelig. Diese Hügelketten beschränken sich aber auf das Innere der Stadt. Große Teile der Stadt sind von Wäldern und Parks bedeckt. Der Hardter Wald und Teile Rheindahlens im Westen der Stadt gehören zum Naturpark Maas-Schwalm-Nette. Der höchste Punkt des Stadtgebietes ist die mit nach dem Zweiten Weltkrieg aus Trümmern aufgeschüttete Rheydter Höhe. Der niedrigste Punkt sind die Nierswiesen im Stadtteil Donk mit. Die Länge der Stadtgrenze beträgt insgesamt 86 Kilometer. Die größte Nord-Süd-Ausdehnung beträgt 17; die größte West-Ost-Ausdehnung 18 Kilometer. Der Mittelpunkt des Stadtgebiets liegt im Stadtteil Pongs. Gewässer. Der Gladbach im Osten der Stadt Alle in Mönchengladbach entspringenden Gewässer (bzw. solche, die früher dort entsprungen sind) werden vom Braunkohletagebau – Garzweiler II – beeinflusst, der südlich von Mönchengladbach stattfindet. Das Gebiet nähert sich Mönchengladbach; die Umweltauswirkungen sind erheblich. Gladbach. Der Gladbach, der der Stadt den Namen gegeben hat, hatte seine Quelle im Ortsteil Waldhausen in oder nahe der ehemaligen Brauerei Hensen. Heute ist die Quelle versiegt. Der Gladbachkanal, der ursprünglich auch von der Gladbachquelle gespeist wurde, verläuft entlang des alten Bachbettes zum großen Teil unterirdisch und mündet im Osten der Stadt in die Niers. Zu sehen ist er in Lürrip bis zu seiner Mündung in die Niers. Im Stadtgebiet wird der Verlauf des ehemaligen Gladbachs durch Schilder gekennzeichnet. Niers. Den Süden und Osten des Stadtgebietes durchfließt die Niers, die früher wenige hundert Meter südlich der Stadtgrenze zu Erkelenz bei Kuckum im Kreis Heinsberg entsprang. Infolge der Sümpfungsmaßnahmen im Zuge des Tagebaus Garzweiler II und des damit verbundenen Wegfalls des Ortes Kuckum wurde die Niersquelle im April 2006 auf die Mönchengladbacher Golfsportanlage verlegt. Seitdem entspringt die Niers im Wasserhindernis zwischen den Bahnen 12 und 17 und gelangt dann quer über die Fairways der Bahnen 18 und 1 wieder in ihr altes Flussbett. Die Niers verlässt das Stadtgebiet im Norden der Stadt an Grenze zu Viersen unweit der Trabrennbahn, bevor der Fluss bei Gennep in den Niederlanden in die Maas mündet. Schwalm. Südwestlich der Stadtgrenze (in Wegberg) entspringt die Schwalm. Sie mündet bei Swalmen in den Niederlanden in die Maas. Einer der Flüsse, der auf Mönchengladbacher Stadtgebiet entspringt und in die Schwalm mündet, ist der Knippertzbach. Nachbargemeinden. Schwalmtal, Viersen und Willich (alle Kreis Viersen), Korschenbroich und Jüchen (Rhein-Kreis Neuss) sowie Erkelenz und Wegberg (Kreis Heinsberg). Stadtgebiet und Stadtgliederung. Das Stadtgebiet Mönchengladbachs besteht seit 2009 aus vier (vorher zehn) Stadtbezirken, die in 44 Stadtteile unterteilt sind. In jedem Stadtbezirk gibt es eine Bezirksvertretung unter Vorsitz eines Bezirksvorstehers. Die Bezirksvertretungen sind zu wichtigen, den Stadtbezirk betreffenden Angelegenheiten zu hören und werden bei jeder Kommunalwahl neu gewählt. Die Stadtbezirke mit ihren zugehörigen Stadtteilen Weitere Informationen zum Thema befinden sich in der Liste der Stadtbezirke und Stadtteile von Mönchengladbach. Erste menschliche Spuren. Mönchengladbach (Clabbeck) mit Rheindahlen (Dalen) und Hardt (Haert) (1563) Mönchengladbach (Gelabeeck) auf dem Abteilberg (1573) Mönchengladbach in einer der wenigen Quellen mit latinischen Namen „Gladbacum“, von 1732 Die ersten Siedlungen auf dem Gebiet des heutigen Mönchengladbach sind etwa 300.000 bis 400.000 Jahre alt und zeigen Nachweise des späten "Homo erectus" (= "Homo heidelbergensis") und des Neandertalers. Fundstellen sind vor allen im südlichen Teil des heutigen Stadtgebiets im Umfeld der Niers. Frühgeschichte. Im Jahr 2013 haben Forscher südlich von Schloss Rheydt, auf der ehemaligen rechten Seite der Niers, eine größere Siedlung aus der Altsteinzeit gefunden, die zeigt, das auch vor 13.000 Jahren der Mensch im Umfeld der Niers dauerhaft lebte. Aus der Jungsteinzeit und der Bronzezeit sind zahlreiche Hügelgräber im Hardterwald erhalten. Weitere Funde wurden vor allem in der Umgebung von Mülfort, Wickrathberg, Giesenkirchen-Nord, Giesenkirchen-Mitte, Wanlo und Rheindahlen gemacht. Römische Besiedlung. Zur Römerzeit gehörte das Gebiet des heutigen Mönchengladbach zur Provinz Germania inferior. Es existierten, im 1. bis 3. Jahrhundert, in Mönchengladbach-Mülfort, ein römisches Straßendorf (Vicus Mülfort) mit einer Furt über die sumpfige Niers sowie wichtige Straßenverbindungen ins römische Köln, Xanten, Neuss und an die Maas. Nach der Zerstörung des römischen Dorfes durch die Franken 352 n.Chr. war das Gebiet unbesiedelt. Mittelalter und frühe Neuzeit. Um etwa 800 n. Chr. siedelten sich Franken im Gebiet des heutigen Odenkirchen-Sasserath, Wickrath und auf dem Abteiberg an. Im Jahre 974 kam es zum Bau des Gladbacher Münsters und der Gründung einer Abtei durch den Kölner Erzbischof Gero und seinen Begleiter, den Trierer Mönch Sandrad. Der Bau der ersten Klosterkirche fand neben dem Ort statt, an dem 954 die Ungarn die von Balderich, einem "Vornehmen des Reiches", kurz vor 800 erbaute Kirche zerstört hatten. Die Mönche trieben eine Besiedlung voran und legten dazu im 12. Jahrhundert nördlich der Kirche einen Markt an. Handwerker und Gewerbetreibende ließen sich in der Folgezeit hier nieder. Stadtrechte wurden in den Jahren 1364 bis 1366 erteilt. Die "Stadt" erhielt eine steinerne Stadtmauer, die von den Bürgern zu unterhalten war (Reste davon sind noch am Geroweiher erhalten, ebenso der "Dicke Turm", ein Wehrturm am Waldhausener Berg und an der Rückseite des Kapuzinerplatzes). Bis Ende des 18. Jahrhunderts gehörte die Stadt zum Amt Grevenbroich im Herzogtum Jülich. Franzosenzeit. Gladbach, Rheydt und Wickrath (~ 1760)Am 4. Oktober 1794 marschierten französische Revolutionstruppen in das Stadtgebiet ein. Einen Tag zuvor war die Festung Jülich übergeben worden. Als im Jahre 1801 der deutsche Kaiser Franz II. im Frieden von Lunéville das linke Rheinufer an Frankreich abtrat, wurde Gladbach den französischen Religionsgesetzen unterworfen. Die Abtei wurde aufgelöst; die letzten 31 Mönche verließen das Kloster am 31. Oktober 1802. Die großartige, über die Grenzen Deutschlands bekannte Bibliothek der Abtei wurde zu großen Teilen geraubt oder vernichtet. Von 1798 bis 1814 gehörte die Mairie Gladbach zum Kanton Neersen im Arrondissement de Crévelt im französischen Département de la Roer. Preußische Herrschaft und Kaiserreich. Ab dem Jahre 1815 stand Gladbach unter preußischer Verwaltung und wurde Sitz des Kreises Gladbach, der 1929 aufgelöst wurde. In diesem Zuge wurde Gladbach auch Sitz der gleichnamigen Bürgermeisterei, die 1859 in die Stadt Gladbach und die Bürgermeisterei Obergeburth geteilt wurde. Bis Ende des 19. Jahrhunderts hieß die Stadt "Gladbach" beziehungsweise früher Gleidebach (zahlreiche andere Schreibweisen sind überliefert). Als die Stadt am 1. Januar 1888 kreisfrei wurde, erhielt sie zur besseren Unterscheidung von Bergisch Gladbach den Namen München-Gladbach, was „M. Gladbach“ geschrieben wurde. Am 24. Oktober 1890 wurde in Köln der Volksverein gegründet, wählte aber M. Gladbach als Sitz. Die Bürgermeisterei Obergeburth wurde 1907 in Bürgermeisterei München-Gladbach-Land umbenannt. Stadtkreis und Kreisstadt im preußischen Regierungsbezirk Düsseldorf, links vom Rhein (1919) 64.031 Einwohner, mit dem südlich angrenzenden Rheydt einen geschlossenen Wohnplatz von rund 130.000 Bewohnern bildend. Amtsgericht, Handelskammer, Gymnasium und Realgymnasium, Lykeion (eines mit Aufbau), höhere Fachschule für Textilindustrie; Sitz des Volksvereins für das katholische Deutschland. Hauptsitz der rheinischen Textilindustrie (unter anderem Baumwollspinnereien, Webereien, Färbereien), Eisengießereien, Maschinenfabriken. Die Landgemeinde München-Gladbach hatte 22.614 Einwohner. Weimarer Republik und Nationalsozialismus. 1921 wurden die Stadt Rheindahlen, die Bürgermeisterei München-Gladbach-Land und Neuwerk mit der Stadt München-Gladbach vereinigt. 1929 wurde München-Gladbach mit Rheydt und anderen Gemeinden (unter anderem Rheindahlen, Hardt, Giesenkirchen und Odenkirchen) zur Doppelstadt "Gladbach-Rheydt" vereinigt, jedoch 1933 wieder geteilt (auf Wunsch des Reichspropagandaministers Joseph Goebbels, der ein gebürtiger Rheydter war). Danach hieß Alt-München-Gladbach offiziell "München Gladbach" (ohne Bindestrich) oder kurz "M. Gladbach". Der Zweite Weltkrieg. In der Nacht zum Pfingstsonntag (11./12. Mai) 1940 erlebte die Bevölkerung München-Gladbachs den ersten britischen Luftangriff gegen eine deutsche Stadt im Zweiten Weltkrieg. Der Angriff, der mit insgesamt 37 Flugzeugen erfolgte, galt vor allem dem Straßen- und Eisenbahnnetz in München-Gladbach. Es wurden fünf Bombenabwürfe gezählt. Auch Rheydt wurde angegriffen. Weitere Flächenbombardements der Alliierten auf München-Gladbach und Rheydt folgten in mehreren Großangriffen bis 1945. Den letzten Großangriff mussten die ohnehin schwer getroffenen Städte am 1. Februar 1945 über sich ergehen lassen. Dabei wurden aus 160 Flugzeugen 1200 Spreng- und 65.000 Brandbomben abgeworfen. Bei Kriegsende waren beide Städte zu etwa 65 Prozent zerstört, rund 2000 Zivilpersonen verloren bei den Luftangriffen ihr Leben. Zwischen dem 26. Februar und 1. März wurde von Süden aus das Gebiet des heutigen Mönchengladbach während der Operation Grenade, durch die Alliierten befreit. Dabei wurde im Grenzlandstadion eine Krankenhauseinheit, das 41. Evacuation Hospital, mit 750 mobilen Betten, vom 4. März bis 2. April 1945, stationiert. Noch in den letzten Kriegstagen errichteten die US-Streitkräfte zwischen Mongshof, Wickrathberg und Hochneukirch das neun Quadratkilometer große Gefangenenlager „Wiesenlager Wickrathberg“, das später auch unter Führung der britischen Streitkräfte war. Dort lebten bei voller Belegung mindestens 150.000 deutsche Soldaten. Die Soldaten verbrachten die gesamte Zeit unter schrecklichen Bedingungen draußen und schliefen hauptsächlich in selbstgegrabenen Erdlöchern. Auch die Verpflegung war sehr spärlich. Zeugen sprechen von 20 Todesfällen am Tag. Andere von insgesamt 226 Toten. Die genaue Zahl der Todesopfer ist nicht bekannt. Das Lager existierte von April bis September 1945. Nachkriegszeit bis heute. Nach dem Krieg erlangte in beiden Städten die Textilindustrie langsam wieder an Bedeutung; später wurde sie durch den Maschinenbau ergänzt. 1950 wurde die Sprechweise der Stadt M. Gladbach in "Mönchen Gladbach" geändert, um Verwechslungen mit der Stadt München zu vermeiden, die Schreibweise M. Gladbach blieb aber zunächst erhalten. 1960 wurde schließlich die (bis heute gebräuchliche) Form "Mönchengladbach" eingeführt. Im Jahre 1974 hatte die Stadt insgesamt 147.567 Einwohner, davon Alt-Mönchengladbach 81.756 (hiervon wiederum Stadtmitte 58.511 und Volksgarten 23.245), Rheindahlen 27.707, Hardt 17.142 und Neuwerk 20.962. 1975 schlossen sich – im Zuge der Gebietsreform in Nordrhein-Westfalen – Mönchengladbach, Rheydt und die Gemeinde Wickrath zusammen. Religion. Die Citykirche (ehemals Hauptpfarrkirche St. Mariae Himmelfahrt) in Mönchengladbach Mönchengladbach und Rheydt gehörten anfangs zum Bistum Lüttich. Unter Erzbischof Everger von Köln († 999) kam das Gebiet zum Erzbistum Köln und war dem Archidiakonat des Propstes des St. Viktor-Doms in Xanten, Dekanat Süchteln unterstellt. Die Abtei Gladbach war jedoch relativ autonom und übte über die Stadt Gladbach die kirchlichen Rechte aus. Bis 1802 verblieb das Gebiet beim Erzbistum Köln. In Gladbach konnte die Reformation nach reformiertem Bekenntnis zwar zunächst Fuß fassen, sich dann aber wegen des Widerstands des Abtes nicht durchsetzen, so dass Gladbach eine überwiegend katholische Stadt blieb. Im 16. und 17. Jahrhundert bestand in der Stadt jedoch noch eine radikal-reformatorische Täufergemeinde, die trotz mehrerer Konfiskationen und Ausbürgerungen noch bis zur letzten Vertreibungswelle 1722 Bestand hatte. Die den hochdeutschen Mennoniten zugerechnete Gemeinde soll unter anderem die Weberei in Gladbach eingeführt haben. Stimmen in der Stadt, die Täufer aus wirtschaftlichen Gründen in Gladbach zu tolerieren, fanden keine Umsetzung. Die anderen Protestanten konnten zu Beginn des 17. Jahrhunderts in der „Halle“ auf dem Markt ihre Gottesdienste abhalten. 1684 konnten sie an der Ostseite der Stadt vor der Stadtmauer auch eine Kirche bauen; diese wurde 1857 abgebrochen. Der Neubau der heutigen Christuskirche in der Kapuzinerstraße erfolgte bis 1852. Gegen Ende des 19. Jahrhunderts waren etwa 80 Prozent der Bevölkerung katholisch und 20 Prozent waren Protestanten. Anders war es in Rheydt: Die reformatorische Bewegung setzte dort um 1550 ein. 1560 gab es reformierte Geistliche. 1632 traten die Pfarrer und die Gemeinde in Rheydt auf Druck des protestantischen Herrscherhauses Jülich zum Protestantismus über. Sie unterstanden der Jülicher Provinzialsynode und dem Gladbacher Quartier. Daher war Rheydt eine überwiegend protestantische Stadt. Hier zogen im 19. Jahrhundert im Zuge der Industrialisierung vermehrt Katholiken zu, so dass das Zahlenverhältnis beider Konfessionen relativ ausgeglichen war; später veränderte sich dies stark zugunsten der Katholiken. Im Jahre 1802 wurden die katholischen Pfarrgemeinden dem neu gegründeten Bistum Aachen zugeordnet, das jedoch 1821/1825 bereits wieder aufgehoben wurde, so dass das Gebiet Gladbach/Rheydt ab 1821 erneut zum wiedererrichteten Erzbistum Köln kam. 1930 wurde es dem wieder neuerrichteten Bistum Aachen zugeordnet. Mönchengladbach und Rheydt wurden Sitze von Dekanaten und heute gehören alle Pfarrgemeinden der Stadt Mönchengladbach zur "Region Mönchengladbach". Hauptkirche der Stadt ist das Mönchengladbacher Münster. Mit dem Übergang des Herzogtums Jülich an Preußen 1815 wurden die protestantischen Gemeinden Gladbach und Rheydt sowie die Gemeinden der heutigen Stadtteile Mönchengladbachs Glieder der ab 1817 evangelischen Kirche in Preußen (unierte Kirche) beziehungsweise dessen rheinischer Provinzialkirche. Gladbach wurde Sitz eines Superintendenten, aus dem später der Kirchenkreis Gladbach (heute Gladbach-Neuss) innerhalb der evangelischen Kirche im Rheinland hervorging. In den 1960er Jahren wurden die Kirchengemeinden Mönchengladbach und Rheydt in mehrere Kirchengemeinden aufgeteilt. Alle Kirchengemeinden der heutigen Stadt gehören jedoch zum Kirchenkreis Gladbach-Neuss, der aber auch Gemeinden außerhalb der Stadt Mönchengladbach umfasst. Evangelische Kirchengemeinden im Stadtgebiet sind heute die Gemeinden folgender Kirchen: Christuskirche, Friedenskirche, Großheide, Hardt, Odenkirchen, Rheindahlen (Martin Luther), Rheydt und Wickrathberg. Am 4. September 2009 wurde die "Jugendkirche Rheydt" in Mönchengladbach offiziell eröffnet. Ihr Mittelpunkt ist das "Haus der Jugendkirche" im Zentrum von Mönchengladbach-Rheydt. Hier werden die punktuelle Jugendarbeit und die Kräfte aus den verschiedenen Bezirken unter einem Dach gebündelt. Das "Haus der Jugendkirche" ist ein ehemaliges Schwesternwohnheim und gehört zur Evangelischen Kirchengemeinde Rheydt. Folgende Freikirchen sind in Mönchengladbach vertreten: eine Gemeinde der Evangelisch-methodistischen Kirche, seit 1867 eine Evangelisch-Freikirchliche Gemeinde (Baptisten), eine Christengemeinde (eine Pfingstgemeinde im BFP), sowie die Siebenten-Tags-Adventisten. Der „Treffpunkt-H Christen in Mönchengladbach“, eine freie charismatische Gemeinde, ist eine Freikirche und gehört zum „Forum Leben Netzwerk“. Weiterhin hat die Freie evangelische Gemeinde, kurz FeG, ein Gemeindegründungsprojekt mit zwischenzeitlich regelmäßigen Gottesdiensten in Mönchengladbach. Zudem gibt es weitere religiöse Vereinigungen: die Christengemeinschaft, die Neuapostolische Kirche, die Mormonen (Kirche Jesu Christi der Heiligen der Letzten Tage) und die Christadelphians. Ab dem 18. Jahrhundert bis in die 1930er Jahre bestand in Wickrath und Odenkirchen eine jüdische Gemeinde. Im 19. Jahrhundert existierte jeweils eine Synagoge in Mönchengladbach, Wickrath, Rheydt und Odenkirchen. Im Novemberpogrom 1938 wurden sie zerstört. Nach dem Zweiten Weltkrieg bildete sich in Mönchengladbach wieder eine jüdische Gemeinde. 1967 wurde ein neues Gemeindezentrum mit einer Synagoge eingeweiht (Gemeindehaus mit Gebetssaal). In den letzten Jahrzehnten bildete sich auch eine größere muslimische Gemeinde in Mönchengladbach, bestehend vor allem aus Einwanderern aus muslimischen Ländern und deren Nachkommen. Moscheen betreiben die islamischen Verbände Türkisch-Islamische Union der Anstalt für Religion/DITIB (Diyanet Merkez Camii/Zentrum-Moschee), Verband der Islamischen Kulturzentren/VIKZ und Millî Görüş/IGMG (Hz.-Bilal-Moschee) sowie die Vereine ar-Rahman (auf Arabisch), Nimet Vakfi (Dergah), Islamischer Kulturverein der Roma sowie IAIK Masjid Hijrat e. V. (auf Pashto und Dari). Den örtlichen Aleviten wurde 2012 die bis dahin evangelisch-methodistische Kreuzkirche als neuer Cem-Gemeindesaal übereignet. Im Jahr 2011 verhinderte eine Bürgerinitiative nach langen Auseinandersetzungen in Mönchengladbach-Eicken die Eröffnung einer radikalen salafistischen Moschee. Eingemeindungen. Bereits zwei Jahre später, im Jahre 1800, wurde Hardt der Bürgermeisterei Gladbach zugeordnet, doch gab es bis 1. Januar 1807 noch eine eigene Verwaltungsstelle. Zum 1. Januar 1836 erhielt Hardt jedoch wieder seine Selbständigkeit und wurde um die Honschaften Hehn und Winkeln sowie den restlichen Teil von Vorst, die alle bis dahin zur Bürgermeisterei Obergeburth gehörten, vergrößert. Der Rest von Obergeburt wurde nach Gladbach eingemeindet, ebenso die Honschaften Eicken, Hardterbroich und Teile von Lürrip, die bis dahin zur Bürgermeisterei Oberniedergeburth gehörten. Der Rest von Oberniedergeburth (Üdding und Lürrip teilw.) wurde mit Unterniedergeburt zur Gemeinde Neuwerk zusammengeschlossen. Somit gab es ab 1836 noch drei Gemeinden: "Stadt Gladbach" und Gemeinden "Hardt" und "Neuwerk". Gladbach war jedoch weiterhin in die drei Spezialgemeinden Gladbach, Oberniedergeburth und Obergeburth unterteilt. Teile von Obergeburth wurden 1859 als Gemeinde "Obergeburth" ausgegliedert, während die anderen Teile Obergeburths und Oberniedergeburth bereits seit 1857 zur Stadt Gladbach gehörten, die zum 1. Januar 1888 unter dem Namen „München-Gladbach“ kreisfrei wurde. Zum 1. Januar 1907 wurde die Bürgermeisterei Obergeburth in "Gladbach-Land" umbenannt, bevor diese zum 1. August 1921 mit der Gemeinde Neuwerk und der "Stadt Rheindahlen" (Stadtrechte seit 1354, bis 1876 nur Dahlen) nach München-Gladbach eingemeindet wurde. Am 1. August 1929 erfolgte die Vereinigung der kreisfreien Stadt München-Gladbach mit der Gemeinde Hardt, der kreisfreien Stadt (seit 1907) Rheydt, der Stadt Odenkirchen und dem Amt Schelsen (mit der Gemeinde Giesenkirchen) zur neuen kreisfreien „Stadt Gladbach-Rheydt“. Doch wurde diese Stadt bereits am 1. August 1933 wieder in zwei Städte aufgeteilt: Stadt „München Gladbach“ (mit Hardt) und Stadt „Rheydt“ (mit Odenkirchen, Giesenkirchen und Schelsen). Beide Städte wurden dann im Rahmen der nordrhein-westfälischen Gebietsreform am 1. Januar 1975 unter Einbeziehung der Gemeinde Wickrath (1933 gebildet aus dem Amt Wickrath mit den Ortschaften Beckrath, Wickrathhahn, Herrath, Wickrathberg und Buchholz sowie der Gemeinde Wanlo) zur heutigen kreisfreien Stadt Mönchengladbach vereinigt. Das Zusammengehörigkeitsgefühl der Stadtteile gilt (Stand 2004) als wenig ausgeprägt. Laut einer Studie der Stadtentwicklung Mönchengladbach vom Juni 2004 ist die Stadt eine „nach wie vor innerlich zerrissene Großstadt“, deren „Handeln bisweilen nicht durch das gemeinschaftliche Ziel (bestimmt ist), die Gesamtstadt voranzubringen, sondern vielmehr dadurch, die Stadtbezirksnachbarn mit kritischem Blick zu beobachten“. Einwohnerentwicklung. Im Jahre 1890 lebten in "München-Gladbach" rund 50.000 Menschen. Am 1. August 1921 schlossen sich die kreisfreie Stadt München-Gladbach (64.031 Einwohner 1919), die Landgemeinden München-Gladbach (22.614 Einwohner 1919) und Neuwerk (11.836 Einwohner 1919) sowie die Stadt Rheindalen (8308 Einwohner 1919) zur neuen Großstadt München-Gladbach mit etwa 110.000 Einwohnern zusammen. Am 1. August 1929 stieg durch die Eingemeindung von Rheydt (45.095 Einwohner 1925), Odenkirchen (20.023 Einwohner 1925) und weiterer Orte die Einwohnerzahl der neuen kreisfreien Stadt "Gladbach-Rheydt" auf rund 200.000. Nach der am 1. August 1933 erfolgten Ausgliederung der Stadt Rheydt (mit Odenkirchen, Giesenkirchen und Schelsen) und den Zerstörungen im Zweiten Weltkrieg halbierte sich die Bevölkerung der Stadt "München-Gladbach" im Jahre 1945 auf nur noch 106.000 Einwohner. Am 11. Oktober 1960 erfolgte die Umbenennung in "Mönchengladbach". 1968 überschritt die Einwohnerzahl der Stadt Rheydt die Grenze von 100.000, wodurch sie zur Großstadt wurde. Die Eingemeindung von Rheydt (99.963 Einwohner) und Wickrath (13.961 Einwohner) am 1. Januar 1975 brachte einen Zuwachs von 114.000 Personen auf 263.000 Einwohner. Im Jahre 1996 erreichte die Einwohnerzahl der Stadt mit 266.873 ihren historischen Höchststand. Am 31. Dezember 2007 betrug die „Amtliche Einwohnerzahl“ für Mönchengladbach nach Fortschreibung des Landesamtes für Datenverarbeitung und Statistik Nordrhein-Westfalen 260.018 (nur Hauptwohnsitze und nach Abgleich mit den anderen Landesämtern). Geschichte von Rat und Oberbürgermeister. An der Spitze der Stadt Gladbach standen zunächst die Gerichtsschöffen. Ferner gab es einen Vogt als Vertreter des Landesherrn. Ab 1400 sind erstmals Bürgermeister erwähnt, von denen es zunächst sechs auf Lebenszeit gewählte gab. Diese bildeten den Magistrat. Drei waren Schöffen, die anderen drei von der Bürgerschaft gewählt. Schied ein Schöffe aus, trat der vom Amtmann ernannte Schöffe an dessen Stelle. Schied ein Mitglied der von den Bürgern gewählten Mitglieder aus, wurde aus mehreren Kandidaten ein neuer gewählt. Vom gesamten Magistrat traten zwei Bürgermeister in jährlichem Wechsel als regierender und beisitzender Bürgermeister hervor. Sie leiteten die Stadtverwaltung. Einen Rat gab es erstmals seit 1446, dessen Vorsitzender der regierende Bürgermeister war. In französischer Zeit wurde ab 1797 die Munizipalverfassung eingeführt. Stadtoberhaupt war der ehrenamtliche „Maire“, dem zwei ehrenamtliche Beigeordnete und ein Municipalrat zur Seite standen. 1815 wurde die preußische Bürgermeistereiverfassung, 1845 die Gemeindeordnung der Rheinprovinz und 1856 die preußische Städteordnung. Danach leitete ein Bürgermeister beziehungsweise ab 1869 meist ein Oberbürgermeister die Stadtverwaltung. Ihm stand auch weiterhin ein Rat zur Seite. Während der Zeit des Nationalsozialismus wurde der Oberbürgermeister von der NSDAP eingesetzt. Nach dem Zweiten Weltkrieg setzte die Militärregierung der Britischen Besatzungszone einen neuen Oberbürgermeister ein und 1946 führte sie die Kommunalverfassung nach britischem Vorbild ein. Danach gab es einen vom Volk gewählten „Rat der Stadt“, dessen Mitglieder man als „Stadtverordnete“ bezeichnet. Der Rat wählte anfangs aus seiner Mitte den Oberbürgermeister als Vorsitzenden und Repräsentanten der Stadt, der ehrenamtlich tätig war. Des Weiteren wählte der Rat ab 1946 ebenfalls einen hauptamtlichen Oberstadtdirektor als Leiter der Stadtverwaltung. 1999 wurde die Doppelspitze in der Stadtverwaltung aufgegeben. Seither gibt es nur noch den hauptamtlichen Oberbürgermeister. Dieser ist Vorsitzender des Rates, Leiter der Stadtverwaltung und Repräsentant der Stadt. Er wurde 1999 erstmals direkt vom Volk gewählt. Erste direkt gewählte Oberbürgermeisterin Mönchengladbachs wurde Monika Bartsch (CDU). Die Ämter der Stadtverwaltung sind heute auf die Innenstädte der ehemals selbstständigen Städte Mönchengladbach und Rheydt verteilt. Stadtrat. In der XV. Amtsperiode (2009 bis 2014) des Stadtrats von Mönchengladbach waren sieben Parteien und eine Wählergruppe vertreten. SPD, Bündnis 90/Die Grünen und FDP hatten sich auf Basis eines Kooperationsvertrages zur Ratsmehrheit zusammengeschlossen. Erstmals seit dem Zweiten Weltkrieg war die CDU nicht an der Ratsmehrheit beteiligt. Der Stadtrat besteht aus 66 Stadträten und dem direkt gewählten und stimmberechtigten Oberbürgermeister, der die Sitzungen leitet, aber dem Stadtrat nicht angehört. In der XVI. Amtsperiode (2014 bis 2019) sind zehn Parteien und Wählergruppen vertreten: 29 Sitze entfallen auf die CDU (41,5 % der Stimmen), 20 auf die SPD (29,4 %), 7 auf die Grünen (10,7 %), jeweils 3 auf die FDP (4,5 %) und Linke (4,5 %) und jeweils einer auf Pro NRW (1,9 %), die Freien Wähler (1,8 %), die Piraten (1,5 %), die AfD (1,5 %), die PARTEI (1,3 %) und die NPD (0,9 %). In der Wahlperiode 2014–2020 haben CDU und SPD eine Koalition gebildet. Verschuldung. Die Gesamtsumme der Verschuldung der Stadt Mönchengladbach belief sich zum Jahresende 2012 auf 1,439 Milliarden Euro. Jeder Einwohner war dem entsprechend mit 5.647 Euro verschuldet. Stadtwappen und Stadtflagge. früheres Wappen der Stadt Gladbach-Rheydt Der Stadt Mönchengladbach ist mit Urkunde des Regierungspräsidenten in Düsseldorf vom 7. Februar 1977 das Recht zur Führung eines Wappens und einer Flagge verliehen worden. Der Entwurf des Wappens stammte von Walther Bergmann. Der Wechselbalken steht für die Herren von Quadt, die in Wickrath bis 1796 regierten. Der Abtsstab steht für die Benediktiner, die bis 1802 auf dem Abteiberg Mönchengladbach ansässig waren und das Kreuz symbolisiert die Herren von Bylandt, die in Rheydt herrschten. Die Stadt Mönchengladbach führt ein Banner Rot-Gold (Gelb)-Rot im Verhältnis 1:4:1, längsgestreift mit dem über die Mitte nach oben verschobenen Wappenschild der Stadt, sowie eine Hissflagge Rot-Gold (Gelb)-Rot 1:4:1 quer gestreift mit dem zur Stange verschobenen Wappenschild der Stadt. Die alte Stadt Mönchengladbach führte von 1903 bis 1929 und vom 1. August 1933 bis 31. Dezember 1974 ein anderes Wappen, das den Hl. Vitus sowie einen schwarzen Löwen, beide von einem blauen Wellenbalken getrennt, zeigte. Der Hl. Vitus ist der Patron der Benediktinerabtei und damit der Stadt, der Löwe das Wappentier der Herren von Jülich, die die Siedlung Gladbach zur Stadt erhoben. Der Wellenbalken symbolisiert den Gladbach und machte damit das Stadtwappen zu einem „redenden Wappen“. Die Sterne symbolisieren die "Vierzehn Nothelfer", zu denen Vitus gezählt wird. Der Entwurf des Wappens nach Anregung des damaligen Oberbürgermeisters Hermann Piecq stammt von dessen Schwager Felix Hauptmann, dem das bereits seit dem Mittelalter verwendete städtische Siegel als Vorbild diente. Das Wappen der Stadt Gladbach-Rheydt wurde vom 21. Juni 1932 bis 31. Juli 1933 verwendet und stammt im Entwurf vom damaligen Leiter des städtischen Archivs, Julius Koenzgen, der dazu Elemente des Gladbacher und des Rheydter Wappens kombinierte. Wirtschaft und Infrastruktur. Mönchengladbachs industrieller Aufstieg wurde vor allem durch die Entwicklung der Textilindustrie von der Mitte des 19. bis zur Mitte des 20. Jahrhunderts geprägt. Daneben entwickelte sich auch eine textilorientierte Maschinenindustrie. Nach dem Zweiten Weltkrieg setzte ein umfassender Strukturwandel ein, bei dem die Bedeutung der Textilindustrie abnahm und neue Wirtschaftszweige an Bedeutung gewannen. Derzeit sind nur noch 7 Prozent der Beschäftigten in der einst so dominanten Textil- und Bekleidungsindustrie tätig (Beispielsweise Van Laack und gardeur). Im Rahmen der erfolgreichen Diversifizierung des Wirtschaftsstandorts haben die Stadt und Vertreter der Unternehmen vor Ort im Jahr 1997 die Wirtschaftsförderung Mönchengladbach (WFMG) gegründet. Die WFMG hat gemeinsam mit der Hochschule Niederrhein ein Fünf-Säulen-Modell für die künftige Ausrichtung des Wirtschaftsstandorts entwickelt. Hiernach sind Textil und Mode, Maschinenbau und Elektrotechnik, Logistik, die Kreativwirtschaft sowie das Gesundheitswesen als Leitbranchen für die wirtschaftliche Zukunft der Stadt Mönchengladbach bestimmend. Im Rahmen einer aktiven Clusterpolitik hat die WFMG z. T. eigene Netzwerke für diese Branchen initiiert. Größter Arbeitgeber in Mönchengladbach ist die Santander Consumer Bank, die ihren Hauptsitz an der Aachener Straße, in der Mönchengladbacher Innenstadt hat. Zu den Produkten der breit gefächerten Wirtschaftsstruktur der Stadt zählen unter anderem Werkzeug- und Spinnmaschinen (Dörries Scharmann, Monforts, Trützschler, Schlafhorst), automatische Förderanlagen, Signal- und Systemtechnik (Scheidt & Bachmann), Transformatoren (SMS Meer), Kabel (Nexans Deutschland ehemals Kabelwerk Rheydt), Druckerzeugnisse sowie Nahrungs- und Genussmittel. Darüber hinaus sind noch Bierbrauereien in Mönchengladbach vertreten, wobei vor allem niederrheintypische Altbiere produziert werden. Der Niedergang der Textilindustrie und die wirtschaftlichen Langzeitfolgen konnten so allerdings nicht aufgefangen werden. Vor allem in den 1970er und 1980er Jahren lockte das attraktive Nachtleben noch junges Szene-Publikum aus Düsseldorf an. Heute spielt insbesondere der Tourismus eine gewisse Rolle. Mönchengladbach verfügt über etwa 40 Hotels (z. B.: Hotel Burgund) und Gasthöfe und eine Jugendherberge im Stadtteil Hardter Wald. Insgesamt sind etwa 2000 Betten vorhanden. Die Zahl der Übernachtungen beträgt jährlich über 200.000. 1) Beschäftigtenstatistik Stand: 30. Juni 2012 2) Arbeitslosenstatistik Stand: 31. August 2014 Eisenbahn. Die beiden Hauptbahnhöfe Mönchengladbach und Rheydt liegen an den Fernstrecken Köln–Venlo, Mönchengladbach–Duisburg sowie Aachen–Düsseldorf. Mönchengladbach Hbf hat darüber hinaus einen S-Bahn-Anschluss nach Düsseldorf und Wuppertal (Linie S 8). Weitere Bahnhöfe befinden sich in Odenkirchen, Wickrath und Rheindahlen, außerdem liegen die Haltepunkte Herrath und Lürrip (S-Bahn) sowie Genhausen (RB) im Stadtgebiet. Nach Aufforderungen aus der Politik wird der Mönchengladbacher Hauptbahnhof renoviert. Aufzüge und teilweise neue Treppen sind mittlerweile fertiggestellt. Weiterhin wurde die Empfangshalle bis zum Jahr 2011 im Rahmen der Fußball-Weltmeisterschaft der Frauen 2011 renoviert und neu strukturiert. Der Fernverkehr der Deutschen Bahn AG bediente zwischen 2001 und 2009 die Stadt nur in Ausnahmefällen: Wenn auf der eigentlichen Strecke des ICE International von Amsterdam nach Frankfurt (Main) Gleisbauarbeiten zwischen Oberhausen und Arnhem oder Arnhem und Utrecht stattfinden, wird er über Mönchengladbach, Venlo und Eindhoven sowie ’s-Hertogenbosch nach Utrecht umgeleitet. Ebenfalls umgeleitet werden dann die City Night Line-Züge nach Amsterdam und der EuroNight aus Warschau nach Amsterdam. Seit Dezember 2009 verkehren je ein ICE und ein IC freitags und sonntags, seit 2013 täglich ein IC von Aachen über Mönchengladbach und Rheydt nach Berlin und zurück. Damit ist Mönchengladbach wieder an den regelmäßigen Fernverkehr der Bahn angeschlossen. ÖPNV. Neben den Bahnlinien werden im öffentlichen Personennahverkehr (ÖPNV) die Omnibuslinien von der NEW mobil und aktiv Mönchengladbach (früher NVV mobil und aktiv) betrieben (Mo.–Fr. ca. 5.00 Uhr bis ca. 23.30 Uhr, Sa. ca. 5.30 Uhr bis 0.00 Uhr, So. ca. 9.00 Uhr bis ca. 23.30 Uhr). Alle Linien sind zu einheitlichen Preisen innerhalb des Verkehrsverbundes Rhein-Ruhr (VRR) zu benutzen. An den Wochenenden und in den Nächten vor Feiertagen verkehren bis 3.15 Uhr stündlich Nachtbusse auf sechs Linien als Nachtexpress aus den Stadtzentren von Mönchengladbach und Rheydt in die anliegenden Stadtteile. Mönchengladbach ist eine von wenigen größeren Städten im VRR-Gebiet, die über keine Straßenbahn verfügt. Luftverkehr. Der Verkehrslandeplatz Mönchengladbach wird hauptsächlich durch die private und gewerbliche Allgemeine Luftfahrt genutzt. Ein Linienverkehr findet gegenwärtig nicht statt. Unweit von Mönchengladbach liegt der internationale Flughafen Düsseldorf, der auch Mehrheitsgesellschafter des Mönchengladbacher Flughafens ist. Weitere Anteile hält die Niederrheinische Versorgung und Verkehr AG. Aufgrund der für den Luftverkehr mit größeren Jets zu kurzen Start- und Landebahn von 1200 m sollte der Flughafen ausgebaut werden um einen erneuten Linienflugbetrieb zu ermöglichen. Zwischenzeitlich wurde das notwendige Erörterungsverfahren durchgeführt. Dabei schaffte es die Betreibergesellschaft nicht, einen Bedarf nachzuweisen. Der notwendigen Änderung des Gebietsentwicklungsplanes verweigerte der Regionalrat seine Zustimmung. Auch der Zusammenschluss der 110 wichtigsten Fluggesellschaften in Deutschland BARIG spricht sich nicht für einen Aus- und Neubau des Verkehrslandeplatzes Mönchengladbach aus. Das hierzu notwendige Planfeststellungsverfahren bei der Bezirksregierung Düsseldorf ist inzwischen abgeschlossen. Die Düsseldorfer Flughafengesellschaft will künftig auf einen Ausbau des Mönchengladbacher Flughafens verzichten. Straßen. Mit dem Automobil ist die Stadt über die Bundesautobahnen A 44 (Aachen–Kassel), A 46 (Heinsberg–Bestwig) und A 52 (Roermond–Essen-Marl) sowie A 61 (Venlo–Ludwigshafen) zu erreichen. Mit dem Autobahnkreuz Mönchengladbach im Nordosten und dem Autobahnkreuz Mönchengladbach-Wanlo im Südosten gibt es zwei Autobahnkreuze im Stadtgebiet. Ferner führen die Bundesstraßen B 57, B 59 und B 230 durch das Stadtgebiet. Die Entfernungen in die umliegenden größeren Städte betragen nach Düsseldorf 30 Kilometer, nach Duisburg 35 Kilometer, nach Krefeld 20 Kilometer, nach Köln 60 Kilometer, nach Aachen 60 Kilometer, nach Venlo in den Niederlanden 35 Kilometer und nach Roermond, ebenfalls in den Niederlanden, 35 Kilometer. Radverkehr. Mönchengladbach liegt an der EUROGA-Radroute. Die überwiegend flache niederrheinische Landschaft bietet viele Möglichkeiten für Freizeittouren, zum Beispiel entlang der Niers und auf der NiederRheinroute. Beschilderte Routen auf dem Radverkehrsnetz NRW existieren auch in die benachbarten Kreise Viersen, Neuss und Heinsberg sowie bis nach Düsseldorf und Krefeld. Der Ausbau des innerstädtischen Radwegenetzes war in der Vergangenheit Gegenstand politischer Diskussionen, soll aber offenbar kurzfristig angegangen werden. Am Hauptbahnhof Rheydt befindet sich eine moderne Radstation, die ein komfortables und sicheres Abstellen von Fahrrädern kombiniert mit weiteren Serviceleistungen ermöglicht. Eine weitere Radstation am Hauptbahnhof Mönchengladbach befindet sich in Planung und soll 2015/2016 eröffnet werden. Medien. An der Lüpertzender Straße befindet sich die lokale Radiostation Radio 90,1 Mönchengladbach. Sie ging am 29. September 1990 auf Sendung, am 30. Oktober 1990 wurde die erste Sendung im Rahmen des Bürgerfunkes über die Frequenzen des Senders ausgestrahlt. Seit dem 19. Januar 2009 sendet der Regionale Fernsehsender CityVision täglich von 16:00 bis 24:00 Uhr auf dem Kabelkanal S18 Nachrichten aus Mönchengladbach und dem Umland. Begonnen wurde Jahre zuvor mit der Ausstrahlung auf öffentlichen Leinwänden, z. B. am Alten Markt, in Krankenhäusern und/oder in Fitnessstudios. In Mönchengladbach wird keine eigene Tageszeitung herausgegeben. Über das lokale und regionale Geschehen berichten die Rheinische Post und die Westdeutsche Zeitung sowie zwei kostenlose, werbefinanzierte Zeitungen, die einmal wöchentlich an alle Haushalte verteilt werden (mittwochs der Stadtspiegel und sonntags der Extra-Tipp am Sonntag). Der "Hindenburger" ist eine Stadtzeitschrift rund um Lifestyle, Kultur, Freizeit und Gastronomie, die monatlich kostenlos erscheint und neben Auslage in Geschäften auch an Haushalte verteilt wird. Das "GURU Magazin" mit Ausrichtung auf Gesellschaft und Lifestyle wird an Haushalte direkt verteilt. Seit 1997 gibt es eine Lokalausgabe der Straßenzeitung Fiftyfifty, die von Menschen in sozialer Not verkauft wird und vom Diakonischen Werk Mönchengladbach e. V. herausgegeben wird. In der seit Dezember 2007 existierenden Online-"Bürgerzeitung Mönchengladbach" können die Bürger selber unter der Creative Commons Artikel veröffentlichen, Themenschwerpunkt ist die Kommunalpolitik. Kommunalpolitiker nutzen dieses Medium. In Mönchengladbach befindet sich auch ein Mittelwellensender des AFN, der auf 1143 kHz mit 1 kW Sendeleistung arbeitet. Er verwendet als Sendeantenne einen 45,5 Meter hohen, gegen Erde isolierten Sendemast bei 51°10'2"N 6°23'56"O. Bildung. In Mönchengladbach befinden sich die Fachbereiche Oecotrophologie, Sozialwesen, Textil- und Bekleidungstechnik und Wirtschaftswissenschaften der Hochschule Niederrhein – University of Applied Sciences, deren Sitz sich in Krefeld befindet. Die Fachhochschule wurde 1971 durch Zusammenschluss von zwölf Fach- und Ingenieurschulen, die sich auf mehrere Städte verteilten, gegründet. In Mönchengladbach befindet sich das gesamte Spektrum an allgemein bildenden und beruflichen Schulen in öffentlicher und in privater Trägerschaft. Insgesamt besitzt die Stadt 95 Schulen von den Grundschulen bis zur Hochschule, darunter auch eine Waldorfschule. Die Musikschule der Stadt Mönchengladbach bietet eine musikalische Ausbildung von Kindern bis zur Vorbereitung der Aufnahmeprüfung an einer Musikhochschule. Mehr als 4000 Schüler nehmen die Angebote wahr. Die medicoreha Welsink Akademie führt mit ihren staatlich anerkannten Fachschulen für Physiotherapie und Ergotherapie für 450 Auszubildende die praktische Ausbildung in den Kliniken Maria Hilf durch. American Football. Das MG-Wolfpack spielt aktuell in der Verbandsliga NRW und trägt die Heimspiele im Grenzlandstadion aus. Die Footballabteilung ist Teil des American Sports Mönchengladbach e. V. Billard. Der 1. PBC Neuwerk spielt seit 2014 in der 2. Poolbillard-Bundesliga. Mit Sascha Jülichmanns wurde 2014 zudem ein Mönchengladbacher Deutscher Meister. Bogensport. Der Rheydter Turnverein 1847 e. V. mit seiner Bogensportabteilung ist Mönchengladbachs erfolgreichster Verein im Bogenschießen. Er hat jeweils ein Team in der 1. Bundesliga Nord und in der Regionalliga West. 2008 hat es die Bundesligamannschaft zum ersten Mal in der Vereinsgeschichte in das Bundesligafinale geschafft. Fußball. Mönchengladbachs größter, bekanntester und erfolgreichster Fußballverein ist Borussia Mönchengladbach. Der Traditionsklub feierte in den 1970er Jahren fünf Deutsche Meisterschaften und zwei UEFA-Cup-Siege. Der Verein spielt in der Bundesliga und trägt seine Heimspiele im Stadion im Borussia-Park aus. Borussias U-23-Mannschaft spielt in der Regionalliga und trägt ihre Heimpartien in der Regel im Grenzlandstadion aus. Der älteste Fußballverein der Stadt ist der 1. FC Mönchengladbach. Aus diesem Verein ging Günter Netzer hervor, der von dort zur Borussia Mönchengladbach wechselte. Der Klub wurde 1894 gegründet und spielt aktuell in der Oberliga. Er ist zudem der älteste Fußballverein im Westdeutschen Fußballverband. Handball. In der Stadt sind zahlreiche Vereine mit Junioren- und Seniorenteams vertreten. Die aktuell höchstklassige Mannschaft ist die 1. Mannschaft (Männer) der Handballabteilung von Borussia Mönchengladbach, die in der Oberliga Niederrhein aktiv ist. Heimspiele werden in der Jahnhalle ausgetragen. Aus dem Stadtgebiet sind mehrere Mannschaften ebenfalls in der Verbandsliga vertreten (Frauen: Rheydter TV 1847, Tschft Lürrip; Herren: Tschft Lürrip). Hockey. Der Gladbacher HTC spielt in der Feldhockey-Bundesliga. Der Rheydter Spielverein spielt in der 2. Feldhockey-Bundesliga. Der Gladbacher HTC wurde 2002 deutscher Meister und trägt die Heimspiele auf der vereinseigenen Anlage oder im Warsteiner HockeyPark aus. Dort fand vom 6. bis 17. September 2006 die Feldhockey-Weltmeisterschaft der Herren 2006 statt. Der Rheydter Spielverein ist der älteste Hockeyverein in Mönchengladbach, er wurde 2001 der bislang letzte Deutsche Pokalsieger. Er trägt seine Spiele auf dem eigenen Kunstrasenplatz am Grenzland-Stadion aus. Der RSV war am Ende der Saison 2008/09 in die 1. Bundesliga aufgestiegen. Judo. Der 1. Judo-Club Mönchengladbach ist derzeit der stärkste Judoverein am Niederrhein. Die Frauenmannschaft kämpft seit 2000 in der 1. Bundesliga, die Männermannschaft stieg 2008 in die 1. Bundesliga auf. Der bekannteste Judoka des 450 Mitglieder zählenden Vereins ist der dreifache Olympiateilnehmer Andreas Tölzer. Trabrennsport. Auf der Trabrennbahn Mönchengladbach veranstaltet der „Verein zur Förderung des Rheinischen Trabrennsportes e. V.“ (bis Ende 2007 „Trabrennverein Mönchengladbach e. V.“) regelmäßig Trabrennen. Theater und Musik. Die Vereinigten Städtischen Bühnen Krefeld und Mönchengladbach bieten Oper, Operette, Musical und Schauspiel in den Theaterhäusern beider Städte. Das Kooperationstheater wurde 1950 gegründet. Das begleitende Orchester der Bühnen sind die „Niederrheinischen Sinfoniker“, die auch Sinfoniekonzerte geben. Ferner gibt es das „BIS“ im ehemaligen Museum auf der Bismarckstraße, ein Zentrum für alle Arten von Kultur, so auch Malerei, Jazz und zeitgenössische Musik, „Die Spindel“, eine Kleinkunstbühne im Don Antonio (Haus Ohlenforst), „Das Rote Krokodil“, eine Kleinkunstbühne im Stadtteil Wickrath und den „Theater Spielplatz“, Mönchengladbachs kleinste Bühne. Sie bietet Kabarett, Theater und Literatur und befindet sich in Rheydt. Die „MusicCommunity MG“ ist ein loser Zusammenschluss von Veranstaltern und Kulturförderern in Kooperation mit dem Fachbereich Weiterbildung und Musik der Stadt Mönchengladbach. Jährlich werden auf zehn Veranstaltungen Künstler aus dem Bereich der Popularmusik gefördert. Mit den zweitägigen Musikfestivals citymovement indoor (2006) und dem citymovement outdoor (2007) hat die MusicCommunity MG die Tradition des größten Umsonst- und Draußen-Festivals der Region wieder aufgenommen. Einen weiteren Neuanfang des Umsonst- und Draußen-Festivals am Platz der Republik gibt es seit 2009 unter dem Namen „Horst-Festival“ unter der Organisation des AStA der HSNR. Mönchengladbacher Musikgruppen mit internationalen Erfolgen waren in den 1970er Jahren die Krautrock Band Wallenstein und Anfang bis Mitte der 1990er Jahre die Rockband Sun. Zwischen 1985 und 1991 galt die Jazz-Rock-Pop Band „Newtation“ als regional erfolgreich. Bundesweit bekannt ist EA80, eine der ältesten deutschen Punkbands, die Hard Rock-Band Motorjesus und der Rapper Eko Fresh. Museen. Siehe: Liste der Museen in Mönchengladbach Stolpersteine. Am 27. Januar 2006 hat Gunter Demnig im Stadtteil Odenkirchen die ersten drei Stolpersteine in Mönchengladbach verlegt. Bis November 2013 waren es im ganzen Stadtgebiet 241 Stolpersteine. Klima. Klimatisch zeichnet sich Mönchengladbach durch eine Gunstlage aus, die von der Nordsee und vom Golfstrom beeinflusst wird. Die Winter sind schneearm und der Frühling setzt recht früh ein. Im Jahresdurchschnitt fällt ein Niederschlag von ca. 801 mm. Persönlichkeiten. Einige der in Mönchengladbach geborenen Persönlichkeiten haben national oder international Bekanntheit und Anerkennung erlangt. Die international bekanntesten Mönchengladbacher dürften der Ingenieur Hugo Junkers und die ehemaligen Formel-1-Fahrer Nick Heidfeld und Heinz-Harald Frentzen sein. Der Minister für Propaganda und Volksaufklärung während der Zeit des Nationalsozialismus Joseph Goebbels wurde in Rheydt geboren. Zu den national bekannten Persönlichkeiten zählen unter anderem der ehemalige Ministerpräsident des Landes Nordrhein-Westfalen Franz Meyers, der Tierfilmer Heinz Sielmann, der Kabarettist Volker Pispers, der Autor Walter Moers, der Wissenschaftsastronaut Reinhold Ewald, der Opernsänger Hermin Esser und der virtuose Gitarrist Joscho Stephan. Rheydter Höhe. Die Rheydter Höhe ist ein Trümmerberg im Mönchengladbacher Stadtteil Pongs, Stadtbezirk Süd. Im Volksmund wird die Erhebung als „Monte Clamotte“ oder „Rheydter Müllberg“ bezeichnet. Das Plateau des Hügels stellt mit den höchsten Punkt des Stadtgebiets dar. Mit einer Höhe von von Fuß bis Gipfel ist er der höchste Trümmerberg Deutschlands. Die "Rheydter Höhe" entstand 1945 aus Trümmern, die die Bombardierung der Städte Mönchengladbach und Rheydt hinterlassen hatte. Durch die Bombardierung wurden 65 Prozent der beiden Stadtgebiete zerstört. In den 1950er Jahren deponierte man große Mengen Hausmüll auf dem Trümmerberg. Um das Wachstum von Pflanzen und Bäumen zu ermöglichen, fügte man eine rund ein bis zwei Meter hohe Humusschicht auf den Hausmüll. Dies hatte in den 1990er Jahren die Folge, dass Giftgasemissionen aus den Trümmern traten, von denen heute nichts mehr zu bemerken ist. Allerdings kann man etwa 30 Meter vor der Hochebene, dem Aussichtsplateau, vereinzelt Stücke von Plastiktüten an den Serpentinenwänden erkennen, die mit der Zeit vom Regen freigespült wurden. Am nördlichen Fuß des Trümmerbergs befindet sich ein Wasserspielplatz, ein Weiher sowie der Rheydter Stadtwald mit Grillplätzen, Minigolf, einem Café sowie Möglichkeiten für andere Aktivitäten. Die Dahlener Straße (eine der Hauptverkehrsstraßen der Stadt, verbindet Rheydt mit Rheindahlen) und die A 61 laufen südlich beziehungsweise westlich an der "Rheydter Höhe" vorbei. Mikronation. Als Mikronation, Fantasiestaat oder Scheinstaat werden Gebilde bezeichnet, die wie eigenständige souveräne Staaten auftreten und den Anschein erwecken, mit staatlicher Autorität zu handeln, obwohl bei ihnen Eigenschaften fehlen oder wenigstens stark umstritten sind, die einen Staat nach Völkerrecht ausmachen. International anerkannte souveräne Staaten oder Institutionen verweigern daher die Anerkennung oder reagieren gar nicht, weil sie diese Gebilde und deren Ansprüche nicht ernst nehmen. Teilweise nehmen sich die Gründer selbst nicht ernst oder betreiben die Mikronation lediglich als Staatssimulation oder Spiel im Internet (virtuelle Nation). Die "Staatshandlungen" einer Mikronation und von dieser herausgegebene Ausweise, Urkunden und Dokumente gelten im Rechtsverkehr als unwirksam oder bestenfalls als das zivilrechtliche Auftreten der privaten Interessengruppe oder Einzelperson, die hinter der Mikronation steht. Überwiegend handelt es sich dabei um Personen, die als exzentrisch gelten, oder damit eigentlich ganz andere, meist wirtschaftliche oder lokalpolitische Interessen verfolgen. Begriff und Abgrenzung. Die Herkunft und Bedeutung des Begriffs ist umstritten. Vor allem im deutschsprachigen Internet bezeichnen sich virtuelle Nationen, die lediglich als Simulation oder Online-Spiel existieren, selbst als "Mikronationen" oder abgekürzt "MN" bzw. "µN". Seit einigen Jahren setzt sich "Mikronation" jedoch zunehmend als Oberbegriff für alle Erscheinungsformen von "Schein- und Fantasiestaaten" bis hin zu "Cybernationen" und "Staatssimulationen" durch und findet auch für historische Anomalien oder Staatsgründungen Verwendung, die gescheitert sind oder nur ein zweifelhaftes Maß an Erfolg und Aufmerksamkeit gefunden haben. "Mikronationen" sind von Zwergstaaten klar zu unterscheiden, deren Staatsgebiet zwar extrem klein ist, die aber alle Merkmale eines "echten" Staates nach Völkerrecht aufweisen und von anderen Staaten anerkannt werden. Näherliegend wäre der Vergleich mit den atypischen Völkerrechtssubjekten Heiliger Stuhl, Souveräner Malteserorden oder Internationales Komitee vom Roten Kreuz, denen es ebenfalls an den Voraussetzungen zu einem Staat fehlt. Diese sind jedoch von allen oder zumindest einer Mehrheit der Staaten international anerkannt. Problematischer ist die Unterscheidung zu Gebilden wie den stabilisierten De-facto-Regimes. Auch diese werden gar nicht oder nur von wenigen Staaten offiziell als Staat anerkannt, und das Vorliegen von Staatsmerkmalen ist in der Regel umstritten. Mikronationen verfügen in der Regel jedoch nicht annähernd über deren Größe und Bevölkerung oder sind zumindest nicht in der Lage, ein vergleichbares Maß an tatsächlicher Kontrolle (Staatsgewalt) auszuüben. Territoriale Scheinstaaten. Meist findet sich eine kleine Gruppe von Menschen oder gar eine Einzelperson, die den Herrschaftsanspruch für einen neuen Staat erklärt. Das neue Gebilde beansprucht entweder ein völkerrechtlich unklares Gebiet oder behauptet die Unabhängigkeit durch Abspaltung aus einem bestehenden Staat. Charakteristisch für viele Mikronation-Projekte ist das Erklären von unbewohnten Inseln bzw. Atollen anderer anerkannter Staaten zum eigenen Staatsgebiet. Der Besitz eines Territoriums soll die Legitimität des Anspruchs als Staat unterstreichen. Aus demselben Grund haben die meisten Mikronationen eine Flagge, Nationalhymne oder auch Ehrenzeichen und geben Pässe, Briefmarken und Münzen heraus. Einige Mikronationen, die territoriale Ansprüche erheben, haben damit größere Bekanntheit erlangt, wie z. B. die Hutt-River-Provinz (eine Farm in Western Australia, die sich von Australien für unabhängig und zu einem freien Fürstentum erklärt hat), die Freistadt Christiania bei Kopenhagen, Sealand (eine ehemalige Seefestung vor der britischen Südost-Küste in der Nordsee) oder die Conch Republic (Key West in Florida). Virtuelle Mikronationen. "Siehe Hauptartikel:" virtuelle Nation Oft ist es schwierig, eine Mikronation von einem imaginären Land zu unterscheiden. Rein virtuelle Nationen bezeichnen sich besonders in Deutschland selbst oft als Mikronationen und existieren nur im Internet als Website. Diese nehmen in der realen Welt keine staatlichen Rechte in Anspruch, sondern verstehen sich als Online-Spiel oder Simulation. Mitglieder dieser virtuellen Mikronationen erwerben zunächst virtuelle Bürgerrechte und bilden dann ein komplettes Staatswesen und dessen wirtschaftliche Beziehungen als Politik- und Wirtschaftssimulation nach. Es gibt demokratische und diktatorische, auf die Gegenwart, aber auch auf Historie oder fiktive Zukunft bezogene Mikronationen. Aus privaten Foren, Wikis oder Portalseiten zu diesem Thema lässt sich schließen, dass allein im deutschsprachigen Internet zwischen 70 und 120 solcher Mikronationen existieren. Teilweise unterhalten Mikronationen diplomatische Beziehungen untereinander und lassen sich gemeinsam auf virtuellen Karten von Internet-Welt-Organisationen verzeichnen. Einige virtuelle Mikronationen betreiben auch die Erforschung des virtuellen Weltraums oder beanspruchen außerirdische Territorien, z. B. auf dem Mars. Plasmid. Plasmide sind kleine, in der Regel ringförmige, autonom replizierende, doppelsträngige DNA-Moleküle, die in Bakterien und in Archaeen vorkommen können, aber nicht zum Bakterienchromosom (Kernäquivalent) zählen, also extrachromosomal vorliegen (Abb. 1). Nur selten treten Plasmide auch in Eukaryoten auf (z. B. als "2-Mikrometer-Ring" in "Backhefe"). Ihre Größe beträgt 1 bis über 1000 kBp. Aufbau. Plasmide können viele verschiedene Gene enthalten. Vermitteln diese Gene z. B. eine Antibiotika-Resistenz, kann daraus für das Wirtsbakterium ein Selektionsvorteil resultieren. Jedes Plasmid enthält mindestens eine Sequenz, die als Replikationsursprung (engl. "Origin of Replication", kurz ORI) dient. Ist der Replikationsursprung kompatibel zu dem Bakterienstamm, so kann das Plasmid unabhängig von der chromosomalen DNA repliziert werden (Abb. 2). Plasmide sind somit autonom replizierend (Replikons) und werden vererbt. Je nach Art des Replikationsursprungs liegen in einer Bakterienzelle wenige ("low-copy", aufgrund von Iterons, Antisense-RNA oder ctRNA) oder sehr viele Kopien ("high-copy") vor. "Episome" sind bei Bakterien Plasmide, die sich in die chromosomale DNA des Wirtsorganismus integrieren können, wie das F-Plasmid (Abb. 3). Dort können sie für lange Zeit verbleiben, werden dabei mit jeder Zellteilung des Wirts mit repliziert und können sogar zu einem integralen Bestandteil seiner DNA werden. Sie können jedoch auch wie andere Plasmide eigenständig existieren. Bei den Eukaryoten gelegentlich vorkommende virale Episome wie die cccDNA des Hepatitis-B-Virus oder die Episome der Herpesviren und Adenoviren integrieren nicht in das Genom des Wirtes, sondern liegen daneben im Zellkern vor. Eine Ausnahme bilden die Episome von Pockenviren, welche im Zytosol auftreten. Virale Episome sind Mechanismen zur Immunevasion bei Infektionen mit persistenten Pathogenen. Klassifikation. Es gibt zwei grundlegende Gruppen von Plasmiden, konjugierende und nicht-konjugierende. "Konjugierende" Plasmide enthalten ein so genanntes "tra"-Gen, das die "Konjugation", den parasexuellen Austausch von Plasmiden zwischen zwei Bakterien, auslösen kann (Abb. 4). "Nicht-konjugierende" Plasmide haben diese Fähigkeit nicht, sie können aber zusammen mit konjugierenden Plasmiden während der Konjugation übertragen werden. Verschiedene Plasmidtypen können nebeneinander in ein und derselben Zelle existieren, in "Escherichia coli" z. B. bis zu sieben. Sind zwei Plasmide zueinander inkompatibel, wird eines von ihnen zerstört. Abhängig von der Fähigkeit, nebeneinander in derselben Zelle zu existieren, können sie also in "Inkompatiblitätsgruppen" eingeteilt werden. Eine besondere Art von Plasmiden stellen die sog. Ti-Plasmide (Tumor inducing) dar. Sie sind oft ein Bestandteil von bestimmten Bakterien ("Agrobacterium tumefaciens" oder "Agrobacterium rhizogenes") und werden von diesen in Pflanzen übertragen. Dort verursachen sie die einzige bekannte Krebserkrankung in Pflanzen. Verwendung. Plasmide sind wichtige Werkzeuge der Molekularbiologie, Genetik, Biochemie und anderer biologischer und medizinischer Bereiche. Sie werden dann als Vektoren bezeichnet und dazu benutzt, um Gene zu vervielfältigen oder zu exprimieren. Die gezielte Anpassung eines Vektors wird als "Vektordesign" bezeichnet. Viele der für diese Zwecke eingesetzten Plasmide sind kommerziell erhältlich. Sie leiten sich von den natürlich vorkommenden Plasmiden ab und besitzen noch deren strukturelle Bestandteile wie den Replikationsursprung ("Origin of Replication", ORI). Außerdem wurden sie so verändert, dass sie leicht für Klonierungen verwendet werden können (sie enthalten dafür eine so genannte MCS ("Multiple Cloning Site"), welche Erkennungssequenzen für eine Vielzahl von Restriktionsenzymen enthält): Das zu vervielfältigende Gen wird in Plasmide eingefügt, die über ein Gen mit einer Antibiotika-Resistenz verfügen. Dann werden diese Plasmide in Bakterien eingebracht, die auf einem mit dem entsprechenden Antibiotikum behandelten Nährmedium wachsen. Es werden also nur die Bakterien überleben, die das Plasmid mit der Information für die Antibiotika-Resistenz aufgenommen haben. Bakterien, die das Plasmid nicht aufgenommen haben, sterben durch das Antibiotikum ab. So wirkt das Antibiotikum als Selektionsmarker, der nur die Bakterien mit dem Resistenzplasmid überleben lässt. Meist wird durch das Einfügen des Gens in das Plasmid ein anderes Gen (Reportergen) unterbrochen, welches dann nicht mehr exprimiert werden kann. Diese fehlende Eigenschaft kann zum Screening genutzt werden, weil nur solche Bakterien, welche ein Plasmid mit dem gewünschten Gen aufgenommen haben, diese Eigenschaft nicht mehr besitzen. Bringt man Gene in Plasmide ein, welche dafür sorgen, dass die eingebrachten Gene in großer Menge exprimiert werden ("Expressionsplasmide"), kann man die entsprechenden Genprodukte in großen Mengen gewinnen. Diese Vorgehensweise erlaubt heute die Herstellung von rekombinantem Insulin (also dem Humaninsulin identischen Insulin), welches früher aufwendig aus Bauchspeicheldrüsen von Schweinen isoliert werden musste. Soll ein DNA-Abschnitt in einen Organismus (Bakterium, Pflanze, Tier, Mensch etc.) eingebracht werden, können ebenfalls Plasmide als Überträger verwendet werden. Bei Tier und Mensch ist dieses Verfahren nur bei Zellen in Zellkultur wirklich etabliert, da dort die Zellen als Monolage gut zugänglich sind. Je nach Zelltyp benötigt man für den Transfer entweder gefällte DNA (Muskelzellen durch Endocytose) oder in Liposomen "verpackte" DNA. Es existieren weitere Methoden wie Elektroporation, welche die Transfektionseffizienz weiter erhöhen können. Visualisierung. Plasmide in verschiedenen Konformationen im elektronenmikroskopischen Bild. Plasmide kann man durch geeignete Verfahren im Elektronenmikroskop sichtbar machen, etwa durch Färbung mit Uran-Atomen (BAC-Spreitung). Die Ringstruktur des Plasmids in Form einer um sich selbst gewundenen DNA hat dabei topologische Konsequenzen. Die Plasmide können in drei verschiedenen Gestaltformen vorliegen. Die Supercoil-Form ist die natürliche Konformation des Plasmids. Da die DNA-Doppelhelix um sich selbst gewunden ist und sich in einem geschlossenen Plasmid nicht entwinden kann, entsteht eine Torsionsspannung, wodurch sich das Plasmid im Raum um sich selbst krümmt. Der gleiche Effekt ist bei Telefonschnüren zu beobachten, die sich um ihre eigene Achse festwinden. Bei der offenkettigen Form ist einer der beiden DNA-Stränge an einer Stelle gebrochen, wodurch sich der offene Strang frei um den fixierten drehen kann; dadurch entspannt sich die Torsionsspannung, das Plasmid liegt offen vor. Bei der linearen DNA sind beide Stränge gebrochen, die Kreisstruktur ist aufgehoben. Unterschied zum Chromosom. Die Unterscheidung von Plasmiden und Chromosomen ist nicht ganz einfach. Eine Definition beinhaltet, dass Plasmide kleiner als Chromosomen sind. Allerdings ist z.B. das Plasmid pSymB von "Sinorhizobium meliloti" doppelt so groß wie das primäre Genom von "Mycoplasma pneumoniae". Eine andere Definition ist, das Plasmide keine essentiellen Gene tragen. Allerdings hängt die Frage, was ein „essentielles Gen“ ist, vom Lebensumfeld ab. Eine weitere Definition besagt, dass Plasmide in der Zelle im mehr Kopien vorliegen als Chromosomen. Allerdings liegen Plasmide wie das F-Plasmid in "E. coli" und viele andere in gleicher Kopienzahl wie das Chromosom vor. Ein entscheidendes Charakteristikum eines Chromosoms ist, dass seine Replikation mit dem Zellzyklus koordiniert ist. Das heißt, der Start der Replikation erfolgt bei gleichmäßigem Wachstum immer im gleichen Alter der Bakterienzelle. Nach dieser Definition wäre das zweite Chromosom von "V. cholerae" tatsächlich ein Chromosom. Für Replikons an der Grenze zwischen Chromosomen und Plasmiden wurde der Begriff Chromid vorgeschlagen. Nordsee. Die Nordsee (veraltet "Westsee", "Deutsches Meer") ist ein Schelfmeer am Rand des Atlantischen Ozeans im nordwestlichen Europa. Bis auf die Meerengen beim Ärmelkanal und beim Skagerrak auf drei Seiten von Land begrenzt, öffnet sich das Meer trichterförmig zum nordöstlichen Atlantik. In einem 150-Kilometer-Bereich an der Küste leben rund 80 Millionen Menschen. Die Nordsee selbst ist ein wichtiger Handelsweg und dient als Weg Mittel- und Nordeuropas zu den Weltmärkten. Die südliche Nordsee ist zusammen mit dem angrenzenden Ärmelkanal die am dichtesten befahrene Schifffahrtsregion der Welt. Unter dem Meeresboden befinden sich größere Erdöl- und Erdgasreserven, die seit den 1970er Jahren abgebaut werden. Kommerzielle Fischerei hat den Fischbestand des Meeres in den letzten Jahrzehnten vermindert. Umweltveränderungen entstehen auch dadurch, dass die Abwässer aus Nordeuropa und Teilen Mitteleuropas direkt oder über die angrenzende Ostsee in das Meer fließen. Lage und Ausdehnung. Die Nordsee liegt größtenteils auf dem europäischen Kontinentalschelf. Eine Ausnahme bildet lediglich ein schmales Gebiet der nördlichen Nordsee vor Norwegen. Die Nordsee wird begrenzt von der Insel Großbritannien im Westen und dem nord- und mitteleuropäischen Festland mit Norwegen (Nordost), Dänemark (Ost) sowie Deutschland (Südost), Niederlande (Süd), Belgien und Frankreich (Südwest). Im Südwesten geht die Nordsee durch die Straße von Dover in den Ärmelkanal über, im Osten hat sie über Skagerrak und Kattegat Kontakt zur Ostsee und nach Norden öffnet sie sich trichterförmig zum Europäischen Nordmeer, das im Osten des Nordatlantiks liegt. Neben den offensichtlichen Grenzen durch die Küsten der Anrainerstaaten wird die Nordsee durch eine gedachte Linie vom norwegischen Lindesnes hin zum dänischen Hanstholm in Richtung Skagerrak abgegrenzt. Die nördliche Grenze zum Atlantik ist naturräumlich weniger eindeutig. Traditionell wird eine gedachte Linie von Nordschottland über die Shetlands bis hin zum norwegischen Ålesund angenommen; nach dem Oslo-Pariser-Abkommen von 1962 verläuft sie etwas weiter westlich und nördlich entlang von 5° westlicher Länge und 62° nördlicher Breite auf Höhe des norwegischen Geirangerfjords. Die Nord-Süd-Ausdehnung beträgt 1120 km von 50°56'N bis 62°N. Die maximale Breite von Osten nach Westen beträgt 1001 km von 4°26'W bis 9°50'O. Die Flächenausdehnung der Nordsee beträgt rund 575.000 km² bei einer durchschnittlichen Tiefe von 94 Metern, das ergibt ein Wasservolumen von rund 54.000 km³. Zuflüsse. – siehe auch: Liste der größten in Nordsee, Skagerrak und Kattegat mündenden Flüsse – Firth of Tay bei Dundee Entstehung. Die Nordsee ist ein geologisch altes Meer; ihre Entstehung sowie die Veränderungen in Gestalt und Größe sind über einen Zeitraum von etwa 350 Millionen Jahren zu beobachten. Im Tertiär senkte sich das Nordseebecken endgültig. Die jetzige Form erhielt sie jedoch erst mit dem Ende der letzten Eiszeit vor etwa 11000 Jahren. Auch der jetzige Zustand ist nur ein Stadium in der dynamischen Entwicklung der Nordsee: langfristig lässt sich weiterhin ein Anstieg des Meeresspiegels beobachten, der über die letzten 7500 Jahre gerechnet bei etwa 33 Zentimeter/Jahrhundert liegt (mittleres Tidenhochwasser an den deutschen Küsten). Im 20. Jahrhundert stieg das Wasser um etwa 20 bis 25 Zentimeter. In der Weichseleiszeit waren wie in den anderen Eiszeiten auch große Wassermengen im Eis der Gletscher gebunden, das Inlandeis Skandinaviens war bis zu drei Kilometern dick. Der Meeresspiegel lag auf dem Höhepunkt der Weichseleiszeit bis zu 120 Meter unter dem heutigen Stand, die Küstenlinien verliefen etwa 600 Kilometer nördlich des heutigen Stands. Große Teile der Nordsee lagen damals trocken. Am Ende der Weichseleiszeit lag der Meeresspiegel etwa 60 Meter unter dem heutigen Normalnull, wobei die Küstenlinie nördlich der heutigen Doggerbank verlief. Die gesamte südliche Nordsee war Festland, das sogenannte Doggerland, die britischen Inseln und das europäische Festland waren eine zusammenhängende Landmasse. In den darauf folgenden Jahrtausenden stieg das Wasser, wobei dieser Anstieg im Laufe der Zeit an Geschwindigkeit abnahm. Vor etwa 9850 bis 7100 Jahren wurden Teile des Elbe-Urstromtals überflutet. Etwas später öffnete sich der Ärmelkanal und das Wattenmeer begann sich zu bilden. In der darauf folgenden Zeit wechselten Phasen stärkeren Wasseranstiegs (Transgression) mit solchen einer Wassersenkung (Regression). Vor etwa 5000 Jahren (3000 v. Chr.) lag der Meeresspiegel an der südlichen Küste etwa vier Meter unter dem heutigen Niveau, um den Beginn der christlichen Zeitrechnung knapp zwei Meter unter dem heutigen Meeresspiegel. Nachdem er zwischenzeitlich anstieg, sank er um 1000 wieder auf das Niveau zu Beginn der christlichen Zeitrechnung, um schließlich in mehreren Schüben langsamer weiter zu steigen. Gestalt. Die Nordsee ist ein Schelfmeer mit einer durchschnittlichen Tiefe von nur 94 Metern. Der Meeresboden liegt größtenteils auf dem Schelf, und so steigt die Tiefe von 25 bis 35 Metern im südlichen Teil auf bis zu 100 bis 200 Metern am Kontinentalhang zwischen Norwegen und nördlich der Shetlandinseln. Der gesamte südliche Teil des Meeres ist dabei höchstens 50 Meter tief. Die Ausnahme bildet die Norwegische Rinne; an dieser tiefsten Stelle misst die Nordsee 725 Meter. Die flachste Stelle abseits der Küstengebiete liegt in der Doggerbank. Die südliche Nordsee wird von zahlreichen großen Sandbänken durchzogen. Die Nordsee wird generell in die flache südliche Nordsee, die Zentralnordsee, die nördliche Nordsee und die Norwegische Rinne mit dem Übergang Skagerrak unterteilt. In der südlichen Nordsee geht der Ärmelkanal in die Straße von Dover über. Die Southern Bight liegt vor der niederländischen und belgischen Küste, die Deutsche Bucht inklusive der Helgoländer Bucht vor der deutschen Küste. Das Flachwassergebiet der Doggerbank begrenzt die deutsche Bucht hin zur Zentralnordsee. Das Wattenmeer zieht sich an der südlichen Küste von Den Helder in den Niederlanden nahezu die gesamte deutsche Nordseeküste entlang bis Esbjerg in Dänemark. Die Flachwasserzone Doggerbank ist etwa halb so groß wie die Niederlande mit einer Tiefe zwischen nur 13 Metern bis zu höchstens 20 Metern. Sie ist als Ort zum Fischfang berühmt, bei Stürmen brechen hier sogar häufiger die Wellen. Die Norwegische Rinne ist durchschnittlich 250 bis 300 Meter tief, wird am Übergang zum Skagerrak bis zu 725 Metern tief und spielt eine wichtige Rolle beim Wasseraustausch mit Ostsee und Atlantik. Entlang der Norwegischen Rinne fließt der Norwegische Strom, über den der größte Teil des Nordseewassers in den Atlantik fließt. Ebenso fließt hier ein Großteil des aus der Ostsee stammenden Wassers nach Norden. In der Zentralnordsee, etwa 200 Kilometer östlich der schottischen Stadt Dundee finden sich im "Devil's Hole" weitere Gräben. Die wenige Kilometer langen Gräben gehen in einer Umgebung, die etwa 90 Meter Wassertiefe hat, auf 230 Meter hinunter. Die Straße von Dover erreicht Meerestiefen von etwa 30 Metern, der Meeresgrund fällt nach Westen hin bis zum Ende des Ärmelkanals bis zu 100 Meter ab. Zwischen den Niederlanden und Großbritannien liegen Tiefen zwischen 20 und 30 Metern, die bis zu 45 Meter an der friesischen Front gehen. Grundlegende Daten. Der Salzgehalt des Meerwassers ist orts- und jahreszeitenabhängig und liegt zwischen 15 und 25 Promille in der Nähe der Flussmündungen und bis zu 32 bis 35 Promille in der nördlichen Nordsee. Die Temperatur kann im Sommer 25 °C erreichen und 10 °C im Winter. Die Temperatur variiert dabei stark abhängig vom Einfluss des Atlantiks und der Wassertiefe, vor allem wegen der Meeresströmungen. In der tieferen nördlichen Nordsee, in einem Gebiet südlich und östlich der Shetlands, ist die Wassertemperatur durch das einströmende Atlantikwasser das ganze Jahr über fast konstant bei 10 °C, während an der sehr flachen Wattenmeerküste die größten Temperaturunterschiede auftreten und es in sehr kalten Wintern auch zu Eisbildung kommen kann. Wasserzirkulation. Das Austausch-Salzwasser der Nordsee fließt durch den Ärmelkanal und entlang der schottischen und englischen Küsten aus dem Atlantik in die Nordsee. Größter Süßwasserzulieferer sind die in die Ostsee mündenden Flüsse, die über das Skagerrak ihren Abfluss in die Nordsee finden. Die Nordseeflüsse entwässern etwa 841.500 km² und bringen pro Jahr ungefähr 296 bis 354 km³ Frischwasser ins Meer. Die Ostseeflüsse entwässern mit 1.650.000 km² knapp das doppelte Gebiet und tragen 470 km³ Frischwasser jährlich bei. Entlang der dänischen und norwegischen Küsten fließt das Wasser im Norwegischen Strom in den Atlantik zurück. Dieser bewegt sich vor allem in einer Wassertiefe von 50 bis 100 Metern. Das Brackwasser der Ostsee und aus Nordsee- und Fjorden stammendes Frischwasser sorgen für einen relativ niedrigen Salzgehalt des Stroms. Ein Teil des wärmeren einfließenden Atlantikwassers dreht entlang des Stroms wieder nordwärts und sorgt für einen warmen Kern im Gewässer. Im Winter hat der Strom eine Temperatur von 2 bis 5 °C; die Salinität beträgt weniger als 34,8 Promille. Das durch eine Front getrennte Atlantikwasser der Nordsee ist hingegen über 6 °C warm; der Salzgehalt liegt bei mehr als 35 Promille. In etwa ein bis zwei Jahren ist das Wasser im Meer komplett ausgetauscht. Innerhalb des Meeres lassen sich anhand von Temperatur, Salzgehalt, Nährstoffen und Verschmutzung klare Wasserfronten erkennen, die im Sommer ausgeprägter sind als im Winter. Große Fronten sind die „friesische Front“, die Wasser aus dem Atlantik von Wasser aus dem Ärmelkanal trennt und die „dänische Front“, die Küstenwasser vom Wasser der Zentralnordsee trennt. Die Einmündungen aus den großen Flüssen gehen nur langsam in Nordseewasser über. Wasser aus Rhein und Elbe beispielsweise lässt sich noch bis zur nordwestlichen Küste Dänemarks klar vom Seewasser unterscheiden. Die Auswirkung von Stoffeinträgen aus Flüssen und der Atmosphäre auf die Wasserzirkulation lassen sich als komplexe Szenarien nur mit Hilfe von modernen numerischen Verfahren berechnen. Gezeiten. Die Gezeiten werden durch die Gezeitenwellen aus dem Nordatlantik ausgelöst, da die Nordsee selbst zu klein und zu flach ist, um eine nennenswerte Tide auszubilden. Ebbe und Flut wechseln sich in einem Rhythmus von etwa 12:25 Stunden ab, genauer: Der Zeitabstand bis zur übernächsten Tide beträgt in der Regel 24 h 50 min. Die Gezeitenwelle läuft bedingt durch die Corioliskraft an der Ostküste Schottlands und Englands in südlicher Richtung und erreicht 10 bis 11 Stunden nach Eintreffen in Schottland die Deutsche Bucht. Sie umläuft dabei zwei oder drei amphidromische Punkte. Eine Amphidromie liegt kurz vor der Straße von Dover. Sie bildet sich durch die Gezeitenwelle, die über den Ärmelkanal einläuft, und beeinflusst die Gezeiten in dem schmalen Gebiet De Hoofden in der Southern Bight zwischen Südengland und Belgien und den Niederlanden. Rechnet man diesen Punkt mit, so braucht die Gezeitenwelle von Nordschottland bis Borkum zwölf Stunden länger. Die beiden anderen amphidromischen Punkte liegen kurz vor der Küste Südnorwegens und auf einer Schnittlinie zwischen Süddänemark und Südschottland über der Jütlandbank auf 55° 25' N, 5° 15' E. Sie bilden ein einziges Feld, um das die Gezeiten herumlaufen. "→ Tabelle: Ausgewählte Tidenhübe rund um die Nordsee" Der Tidenhub liegt an der Küste Südnorwegens bei unter einem halben Meter, erhöht sich aber, je weiter eine Küste von der Amphidromie entfernt liegt. Flache Küsten und trichterartige Verengungen erhöhen den Tidenhub. Am größten ist er in der Wash an der englischen Küste, wo ein Tidenhub von 6,8 Metern erreicht wird. Durch Interferenzen mit den Tidenwellen aus dem Ärmelkanal gibt es an der niederländischen Küste bei Rotterdam gespaltene Niedrigwasser und bei Den Helder periodisch zwei- bis dreigipflige Hochwasser. An der deutschen Nordseeküste beträgt der Tidenhub je nach Küstenform und -lage zwischen zwei und viereinhalb Metern. Vor der jütländischen Küste lässt der Tidenhub nach und in Skagerrak und Kattegatt laufen die Gezeitenwellen aus. In Flachwasserbereichen, also nicht zuletzt in der Deutschen Bucht, wird der tatsächliche Tidenhub jedoch stark von weiteren Faktoren wie der Küstenlage und dem herrschenden Wind oder Sturm beeinflusst (Sturmflut). In den Mündungsgebieten der Flüsse kann ein hoher Wasserstand der Flüsse den Fluteffekt maßgeblich verstärken. Flora und Fauna, Umweltschutz. Starke Gezeiten, große algen- und Seetangreiche Flachwasserbereiche, der Strukturreichtum und der große Nährstoffvorrat in der See sorgen für ein vielfältiges Leben in der Nordsee. Lebensraumtypen der Nordsee. Die Nordsee bietet eine Reihe sehr verschiedener Lebensraumtypen, die von unterschiedlichen Biozönosen bewohnt sind. So unterscheidet man grundsätzlich in die Lebensräume der Küstengebiete, die verschiedene Küstentypen wie die Steilküsten, Felsküsten und Sandküsten beinhalten, von den tatsächlichen aquatischen Lebensräumen. Wichtige Übergangsgebiete stellen im Fall der Nordsee zudem die Salzwiesen und die Wattflächen dar, die sich durch einen Wechsel der Lebensbedingungen abhängig von Ebbe und Flut auszeichnen. In der Nordsee liegt das größte und artenreichste Wattenmeer der Welt. Auch die Bereiche der großen Flussmündungen, die Ästuare, die sich durch eine Durchmischung des in die Nordsee fließenden Süßwassers und des salzigen Nordseewassers auszeichnen, stellen einen eigenen Lebensraumtyp dar. Die aquatischen Lebensräume lassen sich zudem in das Freiwasser, das sogenannte Pelagial, sowie den Gewässerboden, das Benthal, unterscheiden. Die benthischen Lebensräume wiederum unterscheiden sich durch ihre Tiefe sowie durch ihre Bodenbeschaffenheit. So können sie felsig, kiesig oder sandig sein, außerdem können sie mehr oder weniger bis gar keine Schlickschichten tragen. Umweltschutz. Die Nordsee leidet durch direkte Einleitungen von Schadstoffen, durch die Schadstoffbelastungen, die die Flüsse mit sich führen, und vor allem in den Küstenregionen unter den Belastungen, die die menschliche Nutzung mit sich bringt. Der Küstenschutz hat an der gesamten südlichen Nordseeküste einen stark landschaftsverändernden Einfluss. Tourismus und Freizeitgestaltung spielen hier eine ambivalente Rolle – zum einen belasten sie die Küstengebiete stark, zum anderen aber geben sie einen direkten ökonomischen Anreiz, die Landschaft weitgehend unversehrt und „schön“ zu erhalten. Wegen Überfischung schrumpfte in den 1970er Jahren vor allem die Population des Nordseeherings. Die Kabeljau-Bestände sind trotz einer gemeinsamen EG-Regulierung aus dem Jahre 1983 in den letzten Jahren extrem zurückgegangen. Zum Schutz der Nordsee trafen die Anliegerstaaten verschiedene Abkommen. Das Bonner Abkommen von 1969 war das erste internationale Abkommen zum Umweltschutz in der Nordsee und betraf ausschließlich die möglichen negativen Folgen der Ölförderung. Die Abkommen von Oslo (1972) und Paris (1974) beschäftigten sich erstmals in größerem Maßstab mit Schadstoffen im Meer; in ihrer Folge verabschiedeten die Anliegerstaaten 1992 die Oslo-Paris-Konvention. Für den Umweltschutz an den Küsten sind die Anliegerländer zuständig, die zu diesem Zweck verschiedene nationale Regelungen getroffen haben. In Deutschland bilden die Nationalparks Wattenmeer in Schleswig-Holstein, Niedersachsen und Hamburg die größten deutschen Nationalparks. Küste und Inseln. Die Nordseeküste befindet sich derzeit in keinem Endzustand, sondern ist in stetiger Bewegung. In jüngerer Zeit trug neben singulären Naturereignissen, wie Sturmfluten, auch die in den letzten 500 Jahren gezielt betriebene Landgewinnung durch den Menschen zur Änderung der Küstenlinie bei. Nördliche Nordsee: Fjorde, Schären, Kliffe. Die Nordsee wird durch ihre größte Insel, Großbritannien, nach Westen begrenzt, allerdings liegt nur die Ostküste an der Nordsee. Zu den größten Inselgruppen, die komplett in der Nordsee liegen, gehören die Shetlandinseln und Orkney. Die nördlichen Nordseeküsten sind glazial geprägt durch die großen Gletscher, die auf ihnen zu den verschiedenen Eiszeiten lagen. Dadurch entstand eine stark gegliederte und zerklüftete Küstenlandschaft. Die Fjorde entstanden durch Gletscher, welche aus dem Hochgebirge durch sie hindurchzogen und in den Untergrund tiefe Rinnen schnitten und schabten. Während des folgenden Anstiegs des Meeresspiegels füllten sich diese mit Wasser. Sie weisen oft steile Küstenlinien auf und sind für Nordseeverhältnisse sehr tief. Fjorde kommen insbesondere an der Küste Norwegens vor. Fjärde sind ähnlich wie die Fjorde aufgebaut, jedoch meist flacher mit breiteren Buchten, in denen sich auch oft kleinere Inseln befinden. Die Gletscher, die zu ihrer Entstehung führten, konnten den Untergrund auf einem größeren Gebiet beeinflussen und räumten so weitere Strecken des Landes ab. Fjärde finden sich vor allem an der schottischen und nordenglischen Nordseeküste. Einzelne Inseln in den Fjärden oder Inseln und Küste sind heute oft durch Nehrungen oder Halbinseln aus Sandablagerungen verbunden. Lokal heißen diese Tombolos. Die Fjärde gehen nach Süden in eine Kliffküste über, die vor allem aus Moränen der Eiszeitgletscher entstanden sind. Durch den horizontalen Aufprall der Nordseeküste entstehen hier Abbruchküsten; das Material, das dabei abbricht, ist wichtiger Sedimentlieferant für das Watt auf der anderen Seite der Nordsee. Große Ästuare (Trichtermündungen) mit den dazugehörigen Watt- und Marschgebieten unterbrechen diese Kliffküste. Große Mündungen im Süden Englands gehören zu den Flüssen Themse und Humber. Sowohl in Südnorwegen als auch an der schwedischen Küste des Skagerraks finden sich Schären. Entstanden ähnlich wie Fjorde und Fjärde hatten hier die Gletscher noch größeren Einfluss auf die Landschaft, so dass diese weiträumig abgetragen wurde. Strandflaten, die sich vor allem in Südnorwegen finden, sind Gesteinsplatten, die oft mehrere Kilometer Ausdehnung haben, fast vollkommen abgeschliffen wurden und heute oft wenige Meter unter der Meeresoberfläche liegen. Südliche Nordsee: Flachküste und Wattenmeer. Die dänische Nordseeküste bei Henne Strand Die Flachküste der südlichen und östlichen Küste bis hinauf nach Dänemark ist in ihren Grundzügen zwar ebenfalls eiszeitlich geformt, ihre Form wird jedoch vor allem durch das Meer und Sedimentablagerungen bestimmt. Der gesamte Küstenverlauf ist flach, die Tiden überschwemmen oft große Landstriche und geben diese danach wieder frei. Das Wasser lagert Sedimente ab. Im mikrotidalen Bereich (bis 1,35 Meter Tidenhub), wie etwa an der niederländischen oder der dänischen Küste, bilden sich Strandwälle mit Dünen. Im mesotidalen Bereich (1,35 bis 2,9 Meter Tidenhub) bilden sich Barriereinseln, im makrotidalen Bereich (über 2,9 Meter), wie etwa in der Elbmündung, bilden sich unterseeische Sandbänke. Die niederländischen West- und die deutschen Ostfriesischen Inseln sind Barriereinseln. Sie entstanden an den Brandungskanten des Meeres, an denen durch die Brandung Sedimente aufgeschüttet und hinter der durch die brechenden Wellen Sedimente abgetragen wurden. Im Laufe der Zeit sammelten sich so Sandplaten an, die schließlich nur noch von Sturmfluten überschwemmt wurden. Die ersten Pflanzen begannen auf den Sandbänken zu siedeln, das Land verfestigte sich. Obwohl sie heute befestigte Inseln sind, befinden sich einige von ihnen auch weiterhin in Bewegung. Für die ostfriesische Insel Juist beispielsweise sind seit 1650 fünf verschiedene Kirchplätze nachweisbar, da der Ort des Kirchenbaus mit der sich verlagernden Insel Schritt halten musste. Zeitweise bestand Juist auch aus zwei Inseln, bevor es wieder zusammenwuchs. Die benachbarte Insel Wangerooge verschob sich in den letzten dreihundert Jahren einmal um ihre komplette Länge nach Osten. Aufgrund der herrschenden Umweltbedingungen wird auf den Ostfriesischen Inseln an den Westküsten Land abgetragen, während sich an den Ostküsten Sedimente ablagern. Die Westküsten werden deshalb heutzutage verstärkt von den Menschen geschützt. Der Wattstrom (auch Balje, Gatt oder Tief) zwischen den Inseln dient zum Durchfluss der Gezeiten, so dass dort die Strömung ein Zusammenwachsen der Inseln verhindert. Die Nordfriesischen Inseln sind hingegen aus den Resten alter Geestkerninseln entstanden, die durch Sturmfluten und Wassereinwirkungen teilweise abgetragen und vom Hinterland getrennt wurden. Sie sind deshalb oft höher und in ihrem Kern weniger stark Veränderungen ausgesetzt als die südlich liegenden Inseln. Außerhalb des Kerns finden sich aber dieselben Prozesse wie an West- und Ostfriesischen Inseln, besonders ausgeprägt auf Sylt, wo ein Durchbruch der Insel im südlichen Bereich droht, während der Lister Hafen im Norden versandet. Die Halligen sind Reste des in mittelalterlichen Sturmfluten untergegangenen Marschlandes. Ihre Gestalt war in der Vergangenheit großen Veränderungen ausgesetzt. Von einmal über hundert Halligen existieren heute nur noch zehn, die übrigen sind entweder abgetragen oder ans Festland angedeicht worden. Die sich nördlich anschließenden Dänischen Wattenmeerinseln sind aus Sandbänken entstanden. Noch bis in das 20. Jahrhundert war die Versandung der Inseln ein großes Problem. Zum Schutz der Inseln wurden kleinere Wälder angelegt. An der südöstlichen Küste finden sich ebenfalls viele ausgedehnte Ästuare wie die von Maas, Rhein, Weser, Elbe oder Eider. Besonders die Southern Bight veränderte sich durch Landgewinnung, denn die Niederländer waren dabei besonders aktiv; das größte Projekt dieser Art war die Abdeichung und die Landgewinnung am IJsselmeer. Zwischen Esbjerg (Dänemark) im Norden und Den Helder (Niederlande) im Westen erstreckt sich das Wattenmeer. Dies ist eine von Ebbe und Flut geprägte Landschaft, von der wichtige Teile mittlerweile zum Nationalpark erklärt wurden. Die Insel Helgoland bildet einen Ausnahmefall, da sie nicht durch das auflaufende Watt entstand, sondern erheblich älter ist und aus Buntsandstein besteht. Sturmfluten. a> waren der erste Versuch der Menschen, sich vor dem Wasser zu schützen Ein aufziehender Sturm über der Nordsee Sturmfluten gefährden besonders die Küsten der Niederlande, Belgiens, Deutschlands und Dänemarks. Diese sind relativ flach, so dass bereits eine relativ geringe Erhöhung des Wasserstandes ausreicht, um weite Landstriche unter Wasser zu setzen. Zudem sind Stürme aus westlichen Richtungen an der Nordsee besonders heftig, so dass die gefährdetsten Stellen die südöstlichen Küsten sind. Winde aus Nordwest treffen dabei vor allem die Niederlande und die niedersächsische Küste, Winde aus West- bis Südwest die schleswig-holsteinische Küste. Im Laufe der Geschichte kosteten Sturmfluten hunderttausenden Menschen das Leben, diese Fluten formten maßgeblich die heutige Küstengestalt mit. Bis in die frühe Neuzeit hinein lagen die Opferzahlen oft bei mehreren zehntausend oder gar hunderttausend Opfern pro Flut. Inwieweit diese Zahlen zuverlässig sind, kann aber nach heutigem Wissen nur schwer eingeschätzt werden. a>, werden nicht mehr aufgebaut. Sie beschleunigten den Landverlust, anstatt ihn zu verlangsamen. Die erste aufgezeichnete Flut war die Julianenflut in den Niederlanden, deren Datumsangabe (17. Februar 1164) allerdings heute bezweifelt wird. Die Erste Marcellusflut 1219 traf vor allem Westfriesland und Ostfriesland, das damals noch bis zur Weser reichte; mit ihr begann der Jadebusen zu entstehen. Bei der Sturmflut von 1228 überliefern die Chroniken 100.000 Tote. Die Zweite Marcellusflut oder "Grote Mandränke" von 1362 traf Süd- und Ostküste der Deutschen Bucht, wieder überliefern die Chroniken 100.000 Tote, die vordere Küstenlinie Nordfrieslands wurde weitgehend zerstört und große Landflächen dauerhaft an die See verloren. Dabei versank auch die heute sagenumwobene Stadt Rungholt. Die Insel Strand entstand. Bei der Burchardiflut ("Zweite Grote Mandränke") 1634 wurde unter anderem die Insel Strand zerstört. Übrig blieben die Halligen. Bei der Neujahrsflut 1721 wurde die Düne von Helgoland getrennt. Im 20. Jahrhundert trafen schwerwiegende Sturmfluten die Niederlande mit der Hollandsturmflut, die am 1. Februar 1953 für über 2.000 Tote sorgte und die Hamburger Sturmflut am 16./17. Februar 1962, bei der 315 Hamburger starben. Die „Jahrhundertflut“ von 1976 und die „Nordfrieslandflut“ von 1981 brachten die höchsten bisher gemessenen Wasserstände an der Nordseeküste. Da nach der Hamburger Flut jedoch der Deichbau und der Küstenschutz erheblich verbessert worden war, kam es hier nur zu Sachschäden. Vom 26. bis zum 28. Februar 1990 wurden innerhalb von drei Tagen fünf Fluten vom Sturm auf maximale Höhen getrieben. In Büsum wurden Windgeschwindigkeiten bis 160 km/h gemessen. Aufgrund des verbesserten Küstenschutzes kam es jedoch nur zu einigen Sachschäden. Küstenschutz. Der Übergangsbereich zwischen Land und Meer an den Gegenden mit flacher Küste war ursprünglich stark amphibisch geprägt. Das Land bestand aus zahlreichen Inseln und Halligen, die durch Flüsse, Bäche und Moore getrennt waren. Das „Festland“ wurde regelmäßig überflutet. In den besonders durch Sturmfluten bedrohten Gegenden siedelten die Menschen zuerst auf natürlichen Erhebungen wie Geestzungen, Dünen oder Uferwällen. Letztere boten aber nur in Phasen sinkender Meeresspiegel hinreichend Schutz. So wurden schon im 1. bis 4. Jahrhundert Siedlungen auf Warften errichtet – künstlichen Hügeln von teilweise mehreren Metern Höhe. Die zweite Warftenperiode begann im 7. Jahrhundert und hielt bis ins 20. Jahrhundert an. Die ersten Deiche waren kleine Ringdeiche um einzelne Felder, die im Sommerhalbjahr ausreichten, die Feldfrüchte, vor Allem Hafer und Pferdebohnen bis zur Ernte zu schützen, aber von den schweren Sturmfluten des Winterhalbjahrs überflutet wurden. Ab dem Beginn des Hochmittelalters begannen die Menschen, die vereinzelten Ringdeiche zu einer Deichlinie direkt an der Küste zusammenzufassen und so langfristig den amphibischen Bereich zwischen Land und Meer in Festland zu verwandeln. Zwar war man schon im 13. Jahrhundert stolz auf den „Goldenen Ring“, einen Deich in gleicher Höhe um ganz Friesland, aber zunächst war die Koordination noch schlecht und die Mittel der einzelnen Landgemeinden unzureichend. Zudem lag bei örtlicher Selbsthilfe die Last der Reparatur von Deichbrüchen bei denjenigen, die am stärksten von einem Meereseinbruch geschädigt worden waren. Erst staatliche Koordination und wirtschaftliche Potenz wie die der Grafschaft Oldenburg konnte die Dienste der Marschbauern und kommerzieller Unternehmer zu effektiven Deichbauten zusammenfassen. Vorbild beim Deichbau waren jahrhundertelang die Niederlande, noch heute ist dort der Rijkswaterstaat die mächtigste Behörde im Lande. Von ihnen wurden mit technischen Errungenschaften auch Irrwege übernommen. Da Erdarbeiten ohne maschinelle Hilfe sehr aufwändig sind und mancherorts auf weichem Untergrund nicht einmal Fuhrwerke (Stürzkarren) eingesetzt werden konnten, stützte man die Flanken der Deiche mit Holzkonstruktionen, um größere Deichhöhen zu erreichen. Die so gebauten Stackdeiche erwiesen sich bei Sturmfluten als anfällig gegen überschlagende Wellen. Zudem wurde das verbaute Holz zunehmend von der Schiffsbohrmuschel zerfressen, die durch den internationalen Seeverkehr aus tropischen Gewässern eingeschleppt worden war. Mit der Verfügbarkeit von Baumaschinen konnten ab dem späten 19. Jahrhundert immer größere Erdmassen zu breiteren und höheren Deichen aufgehäuft werden. Auf besonders weichem Untergrund werden aber Deiche durch Spundwände verstärkt, weil zusätzlich aufgeschüttete Erde im Untergrund versinkt. Eine der ersten großen Maßnahmen, dem Meer durch Verkürzung der Deichlinie weniger zu bieten, war der 1593 (Vorarbeiten) bis 1615 angelegte Ellenser Damm. Als größtes Einzelbauwerk entstand 1927 bis 1932 der Abschlussdeich, der die Zuiderzee zum IJsselmeer machte. Nach der niederländischen Watersnood 1953 und der Sturmflut 1962 an der deutschen Nordseeküste und in Hamburg wurden nicht nur die Deiche noch einmal erhöht. Seither wurden vor allem im Rhein-Maas-Schelde-Delta aber auch an der deutschen Nordseeküste zahlreiche Flussmündungen und Meeresarme durch Sperrwerke gesichert. Um die Küste als natürlichen Lebensraum nicht zu sehr zu beeinträchtigen, sind diese Sperrwerke zunehmend so eingerichtet und gesteuert, dass sie normale Gezeitenströme ganz oder teilweise zulassen und nur bei Sturmflut geschlossen werden, vgl. die Renaturierung der Luneplate. Heutiger Küstenschutz an der flachen Nordseeküste besteht aus mehreren Ebenen. Das Deichvorland nimmt dem Meer bereits einiges an Kraft, mit dem es auf den Deich treffen kann. Liegt der Deich direkt am Meer, ist ein besonders gesicherter Schardeich notwendig. Der Seedeich wurde im Laufe der Zeit immer höher (bis zu 10 Meter) und bekam ein flacheres Profil, um ebenfalls die Angriffskraft der Wellen zu schwächen. Moderne Deiche sind bis zu 100 Meter breit. Dahinter folgt ein Deichverteidigungsweg und meist weiteres dünn besiedeltes Land. Ältere Deichlinien im Hinterland werden mancherorts als zusätzlicher Schutz erhalten, vielerorts aber abgetragen, in Marschen und Poldern ist selbst Erde kostbar. Auch Dünen tragen zum Küstenschutz bei. Mancherorts, besonders an der holländischen Küste zwischen Hoek van Holland und Den Helder, bilden sie den alleinigen Schutz. Andernorts, etwa in Zeeland und auf einigen Nordfriesischen Inseln, wurden sie durch Deiche verstärkt. Sie werden heute mit Strandhafer bepflanzt, um sowohl Erosion durch Wind und Wasser als auch das Wandern der Dünen selbst zu vermindern. Besonders aufwändige Maßnahmen des Küstenschutzes sind die Deltawerke in den Niederlanden oder Sandvorspülungen vor der deutschen Insel Sylt. Menschliche Nutzung. Ungefähre Aufteilung der Nordsee nach Wirtschaftszonen Die südliche Nordseeküste ist sehr dicht besiedelt und wird dementsprechend stark genutzt. In einem 150-Kilometer-Bereich an der Küste leben 80 Millionen Menschen, davon fast die gesamte Bevölkerung der Niederlande und Belgiens, fast alle davon in urbanen Gegenden. In diesen Bereichen haben die Küstenregionen eine Bevölkerungsdichte von über 1.000 Einwohner pro Quadratkilometer. Der Küstenabschnitt zwischen Hamburg und Brüssel ist stark industrialisiert. Hier findet sich eine der größten Ansammlungen von Schwerindustrie weltweit. Politischer Status. Obwohl die faktische Kontrolle der Nordsee seit der Zeit der Wikinger entscheidend für die Machtverhältnisse in Nordwesteuropa war und sich seit dem Ersten Englisch-Niederländischen Seekrieg zur Frage der Weltpolitik entwickelte, gehörte die Nordsee bis nach dem Zweiten Weltkrieg juristisch niemandem, die angrenzenden Staaten nahmen nur schmale Küstengewässer für sich in Anspruch. In den letzten Jahrzehnten hat sich dies allerdings gewandelt. Die an die Nordsee angrenzenden Länder beanspruchen die Zwölfmeilenzone. Die seewärtige Grenze dieser Zone bildet die Grenze des deutschen Hoheitsgebietes. Die Fläche der Nordsee innerhalb des Hoheitsgebietes ist als Seewasserstraße eine Bundeswasserstraße. In der Zwölfmeilenzone nehmen die Länder beispielsweise das exklusive Recht zur Fischerei wahr. Island konnte in den sogenannten Kabeljaukriegen international eine 200-Meilen-Zone der Fischfangrechte durchsetzen, der sich die EU-Staaten anschlossen und so faktisch die Nordsee gegenüber anderen Ländern verschlossen. Der Fischfang ist auf EU-Staaten und den Anrainerstaat Norwegen begrenzt; andere Länder müssen spezielle Abkommen schließen. Die Koordination beruht auf der gemeinsamen Fischereipolitik der EU und Verträgen zwischen der EU und Norwegen. Nachdem unter der Nordsee Bodenschätze gefunden worden waren, nahm Norwegen die Rechte des Übereinkommens über den Festlandsockel für sich in Anspruch, woraufhin die anderen Staaten ebenso verfuhren. Der Nordseeboden ist weitgehend entsprechend dem Mittellinienprinzip aufgeteilt, nach dem die Grenze zwischen zwei Küstenstaaten auf einer gedachten Mittellinie liegt. Nur zwischen den Niederlanden, Deutschland und Dänemark wurde der Boden nach langwierigen Auseinandersetzungen und einem Spruch des Internationalen Gerichtshofs anders verteilt. Da Deutschland aufgrund seiner geografischen Positionen sonst nur einen sehr kleinen Teil Boden im Verhältnis zur Küstenlinie bekommen hätte, gehört nun noch ein weiteres Feld, der sogenannte Entenschnabel, zur deutschen ökonomischen Zone. In Bezug auf Umweltschutz und Meeresverschmutzung hat die 25- bzw. 50-Meilen-Zone des MARPOL "(marine pollution)"-Abkommens Geltung. Die Oslo-Pariser-Abkommen beschäftigen sich ebenfalls mit Fragen des Meeresschutzes in der gesamten Nordsee. Im Wattenmeer sind jeweils die nationalen Staaten zuständig, die dieses Problem national unterschiedlich lösen; um eine gemeinsame Politik in Bezug auf das Wattenmeer zu gewährleisten, tagt die Trilaterale Wattenmeerkommission. Für Schiffssicherheit und eine Koordinierung des Seeverkehrs soll die Europäische Agentur für die Sicherheit des Seeverkehrs sorgen, die Anfang 2003 ihre Arbeit aufnahm. Die Kommission gehört zur EU, Norwegen und Island haben als direkt betroffenen Staaten ebenfalls einen Sitz in ihr. Nach dem 1978 verabschiedeten Paris Memorandum of Understanding haben sich unter anderem alle EU-Staaten verpflichtet regelmäßig 25 Prozent der Schiffe, die einen EU-Hafen anlaufen auf die Einhaltung internationaler Sicherheitsbestimmungen zu überprüfen. Das Wattenmeer und die Küsten Großbritanniens, Belgiens und Frankreichs wurden als Particularly Sensitive Sea Area ausgezeichnet. In der Nordsee gelten ebenso wie in der Ostsee die strengsten Bestimmungen der MARPOL-Konventionen zur Abwasser- und Müllentsorgung vom Schiff aus. Rohstoffe. Ölförderung im norwegischen Sektor nach Ölfeldern 1958 entdeckten Geologen bei Slochteren in der niederländischen Provinz Groningen ein Erdgasfeld. Es stand zu vermuten, dass sich weitere Felder unter der Nordsee befinden würden, jedoch waren zu diesem Zeitpunkt die Besitzrechte an der Nordsee im Hochseebereich unklar. 1966 begannen Probebohrungen, 1969 entdeckte die Phillips Petroleum Company im norwegischen Sektor das "Ekofisk"-Feld – damals eines der 20 größten Erdölfelder der Welt, das sich zudem durch sehr hochwertiges schwefelarmes Öl auszeichnete. Die erste kommerzielle Ausbeutung erfolgte ab 1971, das Ekofisk-Öl wurde erst mit Tankern, ab 1975 mit einer Pipeline ins englische Cleveland und seit 1977 auch mit einer weiteren Pipeline ins deutsche Emden geleitet. In größerem Maßstab beuten die Ölkonzerne die Vorräte der Nordsee jedoch erst seit der Ölkrise aus, als der international steigende Ölpreis dies wirtschaftlich attraktiv machte und die notwendigen hohen Investitionen ermöglichte. In den 1980ern und 1990ern folgten weitere große Entdeckungen von Ölfeldern. Obwohl die Produktionskosten vergleichsweise hoch sind, haben die hohe Qualität des zu fördernden Öls, die politische Stabilität der Region und die Nähe zu den Absatzmärkten Westeuropas die Nordsee zu einer wichtigen Ölregion werden lassen. Mittlerweile gibt es im Meer 450 Bohrinseln, die Nordsee ist das wichtigste Gebiet der Offshore-Förderindustrie. Die meisten Plattformen befinden sich im britischen Sektor der Nordsee, gefolgt vom norwegischen, dem niederländischen und dem dänischen Sektor. Der britische und der norwegische Sektor enthalten dabei mit Abstand die größten Ölreserven. Schätzungen gehen davon aus, dass sich allein im norwegischen Sektor 54 Prozent der Öl- und 45 Prozent der Gasreserven befinden. Bedeutende Ölfelder sind neben dem Ekofisk-Feld auch das norwegische "Statfjord"-Feld, zu dessen Erschließung erstmals die Norwegische Rinne mit einer Pipeline überwunden wurde. Das norwegische Staatsunternehmen Statoil erhält, einem norwegischen Gesetz entsprechend, mindestens 50 Prozent der Anteile an Ölfeldern, die im norwegischen Sektor liegen. Das größte Erdgasfeld der Nordsee ist das "Troll"-Feld. Es liegt in der Norwegischen Rinne in einer Tiefe von 345 Metern, so dass große Anstrengungen unternommen werden mussten, um es überhaupt zu erschließen. Die Bohrplattform ist mit 472 Metern Höhe und 656.000 Tonnen Gewicht die größte Offshore-Bohrplattform und das größte jemals von Menschen transportierte Objekt. Im deutschen Sektor befinden sich nur zwei Plattformen, es handelt sich bei ihm um den am wenigsten erschlossenen Sektor in dieser Hinsicht. Das größere der beiden Felder ist das Ölfeld Mittelplate. Ihren Hochstand erreichte die Förderung 1999, als fast 6 Millionen Barrel (950.000 m³) Erdöl und 280.000.000 m³ Erdgas täglich gefördert wurden. Mittlerweile gilt die Nordsee als erschlossenes Rohstoffgebiet, in dem kaum noch größere Entdeckungen zu erwarten sind. Alle großen Ölkonzerne sind an der Förderung beteiligt, in den letzten Jahren haben aber große Ölkonzerne wie Shell oder BP die Ölförderung in dem Gebiet bereits eingestellt und die Fördermenge geht seit 1999 aufgrund fehlender Reserven kontinuierlich zurück. Der Preis von Brent Crude, eine der ersten in der Nordsee geförderten Ölsorten wird heute als Standard- und Vergleichspreis für Erdöl aus Europa, Afrika und dem Nahen Osten genutzt. Neben Öl und Gas entnehmen die Anrainerstaaten dem Meeresboden jedes Jahr mehrere Millionen Kubikmeter Sand und Kies. Diese werden vor allem für Bauvorhaben, zur Sandaufschüttung an Stränden und zum Küstenschutz verwendet. Größte Entnehmer 2003 waren die Niederlande (etwa 30 Millionen m³) und Dänemark (etwa 10 Millionen m³ im Nordseeraum). 2005 entnahm Deutschland der Nordsee etwa 740.000 m³. Auf Grund der geologischen Entstehung befinden sich unter der Nordsee auch umfangreiche Kohleflöze. Im jüngsten Report der British Geological Survey (BGS) werden die Vorräte auf drei Billionen Tonnen bis 23 Billionen Tonne Kohle geschätzt. Um diese unterseeischen Mengen zu nutzen, plant das Unternehmen „Five-Quarter“ durch „Deep Gas Winning“ eine umweltfreundliche Variante zu finden. Dazu würden in sehr dünnen Bohrungen Sauerstoff und ultraerhitzter Wasserdampf injiziert und es wird Synthesegas, Wasserstoff und Kohlenmonoxid, sowie Methan und Kohlendioxid in den Lagerstätten unter Wasser freigesetzt. Diese Art des Abbaus erfordert keinen Zusatz weiterer Chemikalien wie beim Fracking an Land. Regenerative Energien. Die Nordsee-Anrainerstaaten, allen voran Großbritannien und Dänemark, nutzen seit dem Ende der 1990er Jahre die küstennahen Bereiche der Nordsee zur windbetriebenen Stromproduktion. Erste Windkraftanlagen entstanden vor der englischen Küste (Blyth im Jahre 2000) sowie der dänischen Küste (Windpark Horns Rev im Jahre 2002). Seit 2001 bestehen Planungen, auch in der deutschen Wirtschaftszone der Nordsee Offshore-Windparks zu errichten, welche die gegenüber Windparks an Land erheblich stärkeren und gleichmäßigeren Winde auf See nutzen können. Bisher wurden 697 Windkraftanlagen an 10 Standorten genehmigt (Stand Dezember 2005). Gegen diese Windparks werden jedoch auch Bedenken vorgetragen: Befürchtet werden beispielsweise Schiffskollisionen und eine Beeinträchtigung der Meeresökologie, vornehmlich während des Fundamentbaus. Hinzu kommt, dass die Entfernung zu den Abnehmern zu einem Transportverlust von Energie führt und der Neubau von Leitungen im Wattenmeer erforderlich sein könnte, das jedoch fast komplett als Biosphärenreservat und Nationalpark ausgewiesen ist. Energiegewinnung aus dem Meer befindet sich noch in den Anfangsstadien. Während die südliche Nordsee nach Meinung der meisten Experten zu geringen Tidenhub, Wellen und Strömungen für derartige Versuche aufweist, könnten sich an den Küsten Norwegens und am Übergang zwischen Nordsee und Irischer See geeignete Stellen für Wellen- und Strömungskraftwerke finden. Erste Versuche mit dem Wellenkraftwerk "Wave Dragon" wurden von 2003 bis zum Januar 2005 an der dänischen Küste abgeschlossen. Eine Mini-Pilotanlage für ein Osmosekraftwerk existiert beim norwegischen Trondheim. Fischerei. Seit etwas über hundert Jahren wird an der südlichen Nordseeküste Fischfang in kommerziellem Ausmaß praktiziert. Fischfang in der Nordsee konzentriert sich auch heute noch auf den südlichen Teil und die Küstengewässer, wobei vor allem mit Grundschleppnetzen gearbeitet wird. Durch stetige technische Weiterentwicklung dehnten sich die Fangmengen bis in die 1980er Jahre beständig aus, bis sie mit etwa 3 Millionen Tonnen pro Jahr einen Höchststand erreichten. Seitdem ging die Fangmenge zurück, heute werden etwa 2,3 Millionen Tonnen pro Jahr gewonnen, aber mit teilweise erheblichen Unterschieden in einzelnen Jahren. Neben dem angelandeten Fisch gehen Schätzungen zufolge jährlich in der Nordsee ca. 150.000 Tonnen nicht marktfähiger Beifangfisch und rund 85.000 Tonnen tote oder geschädigte Wirbellose als Beifang wieder über Bord. Vom angelandeten Fisch wird etwa die Hälfte zu Fischmehl und Fischöl verarbeitet. Zu den wichtigen gefangenen Fischen gehören Makrele, Kabeljau, Schellfisch, Wittling, Seelachs, Scholle und Zungen. Ebenfalls werden Nordseegarnele, Hummer und Krabben (Kurzschwanzkrebse) gefangen. Verschiedene Muschelarten wie Miesmuscheln, Kammmuscheln oder Austern werden in Kulturen gezüchtet, so dass man bei der Ernte nicht von Fischerei im eigentlichen Sinne sprechen kann. Der Fischfang in einer so dicht besiedelten Umgebung auf technischem Hochstand bringt die Gefahr der Überfischung mit sich. Obwohl die Fangquoten seit 1983 von der EG/EU reguliert werden, leiden vor allem Schellfisch und Kabeljau durch den Fang. Alleine die Schleppnetzfischerei Dänemarks kostet jährlich 5.000 Schweinswalen das Leben. Seit den 1960er Jahren wurde versucht, die Fischbestände durch verschiedene Regelungen wie bestimmte Fangzeiten, eine begrenzte Zahl von Fischereischiffen etc. zu schonen, diese Regeln wurden aber nicht systematisch angewandt, so dass sie kaum Entlastung brachten. Seitdem mit dem Vereinigten Königreich und Dänemark zwei wichtige Fischereinationen Mitglied der Europäischen Gemeinschaft wurden, versuchen diese mit Hilfe der Gemeinsamen Fischereipolitik das Problem in den Griff zu bekommen, Norwegen hat in der Hinsicht verschiedene Abkommen mit der EG getroffen. Zahlen stammen von der FAO, zitiert nach der University of British Columbia. In der FAO-Fangregion „Nordsee“ sind Skagerrak und Kattegat eingeschlossen. Handelsschifffahrt, Häfen. Im Einzugsbereich der Flüsse, die in die Nordsee münden, leben auf ungefähr 850.000 km² etwa 160 Millionen Menschen. Die Ströme entwässern einen Großteil Westeuropas, darunter ein Viertel Frankreichs, drei Viertel Deutschlands, fast die gesamte Schweiz und Großbritannien, die Hälfte Jütlands, die gesamten Niederlande und Belgien, den Süden Norwegens sowie kleine Teile von Österreich. In diesem Bereich findet sich die größte Ansammlung weltweiter Industrie, allein 15 Prozent der Weltindustrieproduktion finden im Einzugsbereich der Nordsee statt. Europas größte Häfen befinden sich an der Nordsee. Dabei konzentriert sich die Schifffahrt vor allem auf sechs große Häfen. Die kleineren Regionalhäfen haben an Bedeutung verloren; der Containerbetrieb in den vier größten Häfen (Rotterdam, Antwerpen, Hamburg und Bremen/Bremerhaven) hat sich von 1991 bis 2000 um etwa zwei Drittel erhöht. Mit Abstand größter und wichtigster Hafen ist Rotterdam. Nach eigener Auskunft ist das "Hinterland des Hafens ganz Europa". Es gibt wöchentliche Feeder-Verbindungen in 140 andere Städte. Skandinavien und der Ostseeraum werden hauptsächlich über Bremerhaven und Hamburg bedient. Ein Sammelbegriff für (wichtige) Nordseehäfen ist Nordrange. In der Nordsee fanden in den frühen 1990ern 27,5 Prozent der weltweiten Schiffsbewegungen statt, mit steigender Tendenz. Der größte Teil dieser Bewegungen fand in der südlichen Nordsee statt, wiederum ein größerer Teil davon auf der Schifffahrtsstraße zwischen Elbmündung und Ärmelkanal. Seit den späten 1960er Jahren gilt er in der Nordsee ein System der Zwangswege: um den Schiffsverkehr möglichst reibungslos und unfallfrei zu gestalten, werden sowohl spezielle Tiefwasserwege ausgewiesen als auch sich behindernder Schiffsverkehr systematisch getrennt. Die wichtigsten Tiefwasserwege laufen von der Straße von Dover in die Deutsche Bucht. Große Häfen haben jeweils eigene Zugangswege; im Bedarfsfall (nämlich dann wenn sich Sedimente in Fahrrinnen abgelagert haben) stellen Baggerschiffe wieder die benötigte Mindest-Wassertiefe her. Die Nordsee ist viel befahren; auf ihr verlaufen wichtige Handels- und Verkehrswege. Unter Seefahrern ist sie berüchtigt, unter anderem wegen des „Blanken Hans“ und der Untiefen wie der „Große Vogelsand“. Grundseen und sehr schwerer Seegang zu Zeiten der Sturmfluten in Frühling und Herbst haben zu vielen Schiffsunglücken geführt, die in früheren Zeiten gelegentlich auch Strandräubern als Verdienstquelle gedient haben. Tourismus. An den Küsten werden sowohl die Strände als auch die Küstengewässer touristisch genutzt. Touristisch besonders erschlossen sind dabei die belgische, niederländische, deutsche und dänische Küste. In Großbritannien gibt es einzelne Touristenorte an der Nordseeküste. Der Küstentourismus konzentriert sich in England auf die Kanalküste. Windsurfen und Segeln sind wegen des immer vorhandenen Windes beliebte Wassersportarten. Die Nordsee gilt wegen der starken Gezeiten und der vielen Flachwassergebiete in Küstennähe als wesentlich schwieriger zu segelndes Gebiet als Ostsee oder Mittelmeer, so dass hier weit weniger Segler unterwegs sind als an den anderen Küsten. Das Wattwandern an den nordfriesischen Inseln und Halligen, den dänischen und ostfriesischen Inseln, aber auch Angeln und Sporttauchen, beispielsweise das Wracktauchen bei Scapa Flow, ist möglich. Die besonderen klimatischen Bedingungen an z. B. der deutschen Nordseeküste gelten als gesundheitsfördernd. Bereits im 19. Jahrhundert nutzten Reisende ihren Aufenthalt an der Küste als Kur-Urlaub. Die günstigen Klimafaktoren von Luft, Temperatur, Wasser, Wind und Sonnenstrahlung aktivieren Abwehrkräfte und Kreislauf, stärken das Immunsystem und wirken heilend insbesondere auf Haut und Atemwege. Im Sinne der Thalasso-Therapie werden neben den klimatischen Gegebenheiten dabei zur Kuranwendung auch Meerwasser, Schlick, Sole, Algen und Meersalz als Heilmittel genutzt. Eine Besonderheit waren in Deutschland die bis in die 1990er Jahre durchgeführten Butterfahrten, die als Schiffsfahrten außerhalb der Hoheitsgewässer einen zollfreien Einkauf ermöglichten. Namen. Der Atlas "Geographike Hyphegesis" des Claudius Ptolemäus aus dem 2. Jahrhundert n. Chr. führt die Nordsee unter dem griechischen Namen "Germanikòs Ōkeanós". Dieser Name gelangte durch Lehnübersetzung als "Oceanus Germanicus" oder "Mare Germanicum" ins Lateinische, von da ins Englische als "German Sea" und ins Deutsche als "Deutsches Meer". Die im spätmittelhochdeutschen belegte Bezeichnung "nordermer" oder "nortmer" wurde im 17. Jahrhundert durch den heute geläufigen Namen "Nordsee" ersetzt (niederländisch "Noordzee"). In der niederländischen Sprache bildet die "Noordzee" ein Gegensatzpaar mit der "Zuidersee" – der ‚südlichen See‘, von Friesland und der Nordseeküste aus gesehen. Bedingt durch die Verbreitung des von den Hansekaufleuten genutzten Kartenmaterials setzte sich der Name "Nordsee" (engl. "North Sea", frz. "Mer du Nord" etc.) allmählich europaweit durch. Daneben gebräuchliche Namen waren lange Zeit "Mare Frisicum" (Friesisches Meer) und "Westsee", dessen dänische Entsprechung "Vesterhav" neben "Nordsø" heute noch üblich ist. Nordsee als Verkehrsweg auf die britischen Inseln. Die erste geschichtlich verbürgte intensive Nutzung der Nordsee als Verkehrsweg erfolgte durch die Römer. 55 und 54 v. Chr. drang Julius Caesar in Britannien ein (siehe Caesars Britannienfeldzüge). 12 v. Chr. ließ Drusus eine Flotte von über 1000 Schiffen bauen und über den Rhein in die Nordsee segeln. Der überlegenen Zahl, Taktik und Technik der Römer hatten die Friesen und Chauken nichts entgegenzusetzen, und als die Römer zu den Mündungen von Weser und Ems vordrangen, mussten sich die dort ansässigen Stämme ergeben. 5 v. Chr. konnten die römischen Kenntnisse über die Nordsee im Rahmen eines militärischen Vorstoßes unter Tiberius bis hin zur Elbe deutlich erweitert werden: Plinius beschreibt, dass römische Seeverbände an Helgoland vorbeikamen und sich bis an die Nordostküste Dänemarks vorwagten. Mit der Eroberung Britanniens durch Aulus Plautius (43 n. Chr.) begann ein reger und regelmäßiger Schiffsverkehr zwischen den Häfen in Gallien (Portus Itius) und denen in England. Die römische Ära dauerte knapp 350 Jahre und endete mit dem Rückzug der römischen Legionen um das Jahr 400. a> im Nordseeraum um 900. Die Karte verdeutlicht, dass Siedlungsschübe mehrmals quer über die Nordsee verliefen. Im verbleibenden Machtvakuum auf der britischen Insel stießen die ursprünglich aus dem heutigen Norddeutschland und Dänemark stammenden Sachsen, Angeln und Jüten mit der nächsten großen Wanderungsbewegung über die Nordsee vor. Sie waren während der römischen Besatzungszeit Britanniens bereits als Söldner während der Spätphase des Römischen Reiches eingesetzt worden, überquerten in den Jahrhunderten der Völkerwanderung zahlreich die Nordsee und siedelten sich im Süden und Osten Englands an, wobei sie die ursprünglich dort lebenden Kelten in die Gebiete des heutigen Schottlands und Wales vertrieben. Ungefähr im 7. Jahrhundert wanderten die ursprünglich aus den heutigen Niederlanden stammenden Friesen über die Nordsee auf die nordfriesischen Inseln Sylt, Amrum und Föhr aus. In einer zweiten Einwanderungswelle im 11. Jahrhundert wurde auch das jütländische Festland zwischen Eider und Wiedau in Südjütland besiedelt, wo die Friesen auf die Jüten stießen. Das nordfriesische Siedlungsgebiet macht heute einen Großteil des Kreises Nordfriesland aus. Die nächste größere Wanderungswelle über die Nordsee brachte die vor allem aus dem heutigen Dänemark und Norwegen stammenden Nordmannen auf die britischen Inseln. Mit dem Überfall auf Lindisfarne 793 begannen die Plünderungszüge der Wikinger, die die nächsten hundert Jahre vor allem als Piraten und Plünderer unterwegs waren. Sie überfielen küstennahe Klöster, Gehöfte und Städte und fuhren auf den Flüssen landeinwärts. Dem "Anglo-Saxon Chronicle" zufolge begannen sie ab 851, auch zu siedeln. Diese Wanderungsbewegungen aus Skandinavien hielten bis etwa 1050 an. Alfred dem Großen von Wessex gelang es als erstem sächsischen König, den Wikingern Widerstand zu leisten, indem er eine eigene Flotte aufstellte. Er konnte das Gebiet von den Dänen befreien und gilt als erster englischer König. Während das Meer die britischen Angelsachsen von den germanischen Stämmen getrennt hatte, hielten die Skandinavier die gesamte Zeit über die Nordsee Kontakt zur alten Heimat. Somit gehörte der größte Teil der britischen Inseln und der nördliche Teil des Meeres fest zum Machtbereich skandinavischer Könige, den Wikingern. Hardiknut war der letzte dänisch-britische König, nach seinem Tod zerfiel das Reich auf Grund innerer Konflikte, die politische Union zwischen Skandinaviern und Briten über die Nordsee hinweg war getrennt. Nachdem diese Trennung erfolgte, begann die Nordsee vorerst ihre Bedeutung zu verlieren. Seit dem Einfall Wilhelms des Eroberers aus der Normandie im heutigen Frankreich orientierten sich die britischen Inseln ebenso wie die westlichen Küstenregionen der Nordsee entlang der großen europäischen Flüsse nach Süden in Richtung Mittelmeer und Orient. Die wichtigste Verbindung zur Außenwelt für Norddeutschland und Skandinavien war hingegen die Ostsee, wo die Hanse ihre Blütezeit erlebte. Der einzig bedeutendere Handelsweg über die Nordsee führte durch die deutsche Bucht von Flandern in die Häfen der Hansestädte. Hanse. Die Hanse hatte ihren Schwerpunkt zwar in der Ostsee, wichtige Kontore befanden sich aber auch im norwegischen Bergen (Bryggen), dem Stalhof im englischen London und dem flandrischen Hansekontor in Brügge. Der Aufstieg Brügges begann für die Nordsee nicht untypisch mit einer Sturmflut, die 1134 eine tiefe Fahrrinne, den Zwin, riss, die das Anlaufen größerer Handelsschiffe in die Stadt ermöglichte. Zwischen Brügge und London begann sich ein lebhafter Handelsverkehr mit britischer Wolle und flandrischen Tüchern zu entwickeln. Ab dem 13. Jahrhundert reisten deutsche Hanse-Kaufleute regelmäßig nach Brügge und London und begannen, eine regelmäßige Handelsroute in diese Städte aufzubauen. Brügge wurde zum Endpunkt der Ost-West-Handelslinie mit dem Peterhof in Nowgorod in Russland und war über den Schiffsverkehr zugleich mit Frankreich, Italien, Spanien und den Niederlanden verbunden. Schon 1441 musste die Hanse die wirtschaftliche Gleichberechtigung der Niederländer anerkennen, nachdem Brügge als wichtigstem Kontor der Hanse mit Antwerpen ein mächtiger Konkurrent erwachsen war und sich die Niederlande zusätzlich mit den Dänen als den „Herren des Sunds“ verbündet hatten. Die Niederländer begannen nach der gewonnenen Grafenfehde, in die Handelsgebiete der Hanse vorzudringen und einen eigenen Ostseehandel zu betreiben. Welthandelsmacht Niederlande. Die Niederlande entwickelten sich im 16. Jahrhundert zur ersten Welthandelsmacht. Für die Geschichte niederländischer Händler diente die Nordsee selbst nur mehr als Startpunkt für ihre Fahrten über die Ozeane. Sie war zum Tor zur Welt geworden, die Herrschaft über die Nordsee war ausschlaggebend dafür, einen direkten Weg zu den Märkten der Welt zu haben. Während des Achtzigjährigen Krieges begannen die Niederlande auch mit einem groß angelegten Überseehandel – sie jagten Wale nahe Spitzbergen, betrieben Gewürzhandel mit Indien und Indonesien, gründeten Kolonien in Brasilien, Nordamerika (Nieuw Nederland), Südafrika und in der Karibik (vergleiche auch Die große Tulpenmanie). Der Reichtum, den sie aus diesem Handel anhäuften, führte im 17. Jahrhundert zum „Goldenen Zeitalter“ („de gouden eeuw“) der Niederlande. 1651 verhängte England die Navigationsakte, die vielen niederländischen Handelsinteressen schadete. Der Kampf um die Akte mündete 1652 in den Ersten Englisch-Niederländischen Krieg, der 1654 mit dem Frieden von Westminster endete; die Navigationsakte wurde durch die Niederlande anerkannt. 1665 erklärten die Engländer den Niederländern erneut den Krieg: Es begann der Zweite Englisch-Niederländische Krieg. Mit Unterstützung der Franzosen, die in der Zwischenzeit in die Spanischen Niederlande – heute Belgien – einmarschiert waren, gewannen die Niederländer die Oberhand. Engländer und Niederländer schlossen 1667 den Frieden von Breda, nachdem der niederländische Admiral Michiel de Ruyter einen großen Teil der englischen Flotte auf der Themse zerstört hatte. Es wurde vereinbart, dass die Engländer die niederländischen Besitzungen in Nordamerika (das Gebiet um das heutige New York City) behalten durften, während die Niederländer Suriname von den Engländern erhielten. Auch die Navigationsakte wurde zu Gunsten der Niederlande modifiziert. Das Jahr 1672 wurde in den Niederlanden als das „Rampjaar“ („Katastrophenjahr“) bekannt: England erklärte der Republik den Krieg, gefolgt von Frankreich, dem Fürstbistum Münster und Kurköln, die eine Allianz gegen die Niederlande bildeten. Frankreich, Kurköln und das Fürstbistum Münster marschierten in die Republik ein, während die Landung der Engländer an der Küste nur knapp verhindert werden konnte. Die Niederländer bezogen den südlichen Nordseeraum als Hinterland ein: In Schleswig-Holstein zeugen noch heute zahlreiche Hinterlassenschaften von Holländern, die einwanderten oder Handelsgüter mitbrachten. Die Niederländer brachten über das Meer ihre technische Meisterschaft in Deichbau und Entwässerungstechnik mit. Hausbau- und Landwirtschaftstechniken wurden von Holland beeinflusst, die Küstenstriche Schleswig-Holsteins gelangten ebenfalls zu Reichtum. Zahlreiche Bewohner der Küstengebiete heuerten auf niederländischen Schiffen an – besonders bekannt sind wohl die Walfahrer der nordfriesischen Inseln. Die Seemacht England/Großbritannien. Englands Aufstieg zur beherrschenden Seemacht begann 1588, als der Invasionsversuch der spanischen Armada an einer Kombination von herausragenden englischen Seegefechten unter der Führung von Sir Francis Drake und dem schlechten Wetter scheiterte. Die erstarkende englische Marine lieferte sich mehrere Seekriege mit den auf der anderen Nordseeseite liegenden Niederlanden und konnte diese am Ende des 17. Jahrhunderts als weltumspannende Seemacht ablösen. Der Aufbau des Britischen Empires als Reich, „in dem die Sonne nie untergeht“, war nur möglich, weil die britische Marine die europäischen Gewässer und speziell die Nordsee uneingeschränkt beherrschte. Der einzig ernst zu nehmende Versuch, diese Vorherrschaft zu brechen wurde von Napoleon unternommen. Die von Admiral Horatio Nelson gewonnene Schlacht von Trafalgar, die die britische Vorherrschaft zur See für mehr als ein Jahrhundert sicherte, führte dann aber nur zur Kontinentalsperre, mit der Großbritannien von den Importen des europäischen Kontinents abgeschnitten werden sollte. Erster Weltkrieg. In diesem Krieg standen sich in der Nordsee hauptsächlich die Flotten der beiden Anrainer Deutschland (Kaiserliche Marine) und Großbritannien (Grand Fleet) gegenüber. Auf Grund der Übermacht britischer Schiffe konnte die „Grand Fleet“ beinahe ungestört die Seeherrschaft über die Nordsee erlangen und eine Seeblockade einleiten. Das Ziel der Blockade war es, Deutschland von den Schifffahrtswegen zu trennen, um die Versorgung mit kriegswichtigen Importen zu verhindern und das ungestörte Übersetzen des britischen Expeditionskorps zu garantieren. Aufgrund der defensiven Ausstattung Helgolands mit einer starken Küstenverteidigung war für Deutschland nur die Deutsche Bucht gesichert, während die übrige Nordsee und der Ärmelkanal während des gesamten Krieges durch die Royal Navy kontrolliert wurde. a>" im Gefecht auf der Doggerbank (1915) Das erste Seegefecht fand am 28. August 1914 vor Helgoland statt und endete mit einem klaren britischen Sieg. Da die Überwasser-Streitkräfte der kaiserlichen Marine auf offenem Wasser chancenlos waren, leiteten die Deutschen den U-Boot-Krieg ein. Nach anfänglichen Misserfolgen deutscher Unterseeboote gelang es "U 9" am 22. September 1914 drei britische Panzerkreuzer ca. 50 km nördlich von Hoek van Holland zu versenken. Im November 1914 erklärte die britische Kriegsmarine die gesamte Nordsee zur Kriegszone, die daraufhin vermint wurde. Schiffe, die unter der Flagge neutraler Staaten fuhren, konnten in der Nordsee ohne Vorwarnung das Ziel britischer Angriffe werden. Im Gefecht auf der Doggerbank erlitt Deutschland am 24. Januar 1915 eine weitere Niederlage gegen die Briten und in der Folgezeit schlugen sämtliche Versuche, die alliierte Nordseeblockade zu durchbrechen, fehl. Auf Grund dieser Fehlschläge erfolgte am 4. Februar der Beginn des uneingeschränkten U-Boot-Krieges, in dem neben alliierte auch neutrale Schiffe angegriffen werden konnten. Am 31. Mai und 1. Juni 1916 kam es vor Jütland mit der Skagerrakschlacht zur größten Seeschlacht des Ersten Weltkriegs und gemessen an der Zahl der beteiligten Schiffe (258) zur wahrscheinlich größten Seeschlacht der Weltgeschichte. Das Ziel der Deutschen, die britische Marine entscheidend zu schwächen und damit die Aufhebung der Seeblockade zu erzwingen, wurde nicht erreicht. Letztlich endete die Schlacht ohne einen eindeutigen Sieger und Deutschland setzte wieder alle Hoffnungen auf den uneingeschränkten U-Boot-Krieg. Als sich das Ende des Krieges anbahnte, sollte gegen den Willen der neuen deutschen Regierung am 28. Oktober 1918 noch einmal ein Großangriff auf die britische Marine stattfinden, worauf der Kieler Matrosenaufstand ausbrach und der Seekrieg sein Ende fand. Die Meuterei der Matrosen leitete auch die Entwicklung zur Novemberrevolution in Deutschland ein. Zweiter Weltkrieg. a> unter anderem deshalb, weil es die gesamte Küste mit Radar überwachen konnte. Auch der Zweite Weltkrieg war hinsichtlich des Seekrieges auf Seiten der Deutschen Marine vor allem ein U-Boot-Krieg, der allerdings kaum noch in der Nordsee, sondern vor allem im Atlantik ausgetragen wurde. Anders als im Ersten Weltkrieg war die Nordsee auch nicht mehr ausschließliches Hoheitsgebiet der Alliierten, sondern vor allem in den ersten Kriegsjahren Schauplatz einer intensiven Küstenkriegsführung mit kleinen Fahrzeugen wie U-Booten, Minensuchbooten und Schnellbooten. Doch trotz anfänglicher Erfolge, die Großbritannien zeitweise in eine Versorgungskrise brachten, gelang es nicht, den Widerstand entscheidend zu brechen. Wie im Ersten Weltkrieg beherrschten die Alliierten bald die See, speziell wegen der Luftüberlegenheit auch die Nordsee und schnitten Deutschland von überseeischer Versorgung ab. Der damit verbundene Mangel an Ressourcen für die Kriegführung war einer der Gründe dafür, dass der Krieg nicht zu gewinnen war. Am 14. Oktober 1939 gelang es Kapitänleutnant Günther Prien mit dem Unterseeboot "U 47" in die Bucht von Scapa Flow einzudringen und das Kriegsschiff "HMS Royal Oak" mit 1400 Mann Besatzung zu versenken. Am 9. April 1940 lief auf deutscher Seite die Operation Weserübung an, bei der fast die gesamte deutsche Flotte mobilisiert und in Richtung Skandinavien in Fahrt gesetzt wurde. Kurze Zeit später waren die militärischen Ziele der Invasion (Besetzung der norwegischen Häfen, Sicherstellung der Eisenerz-Versorgung, Verhinderung einer zweiten Front im Norden) erreicht und Norwegen und Dänemark besetzt. Diese Besatzung dauerte bis zum Ende des Krieges und während der gesamten Zeit diente der quer über die Nordsee laufende Shetland Bus als wichtiger Flucht- und Versorgungsweg von Norwegen nach Großbritannien. Zuerst von norwegischen Fischerbooten betrieben, wurden diese im Laufe des Krieges durch drei U-Boot-Jäger der Royal Navy ersetzt. Auf Grund der Unterlegenheit bei den größeren Kampfschiffen, deutlich sichtbar durch die frühen Verluste ("Admiral Graf Spee" 1939, "Blücher" 1940 und "Bismarck" 1941), verlegte sich die Kriegsmarine mehr und mehr auf die Kriegsführung mit kleinen Einheiten und die verbliebenen Großkampfschiffe wie die "Tirpitz" ankerten nahezu untätig in Norwegens Fjorden. In den letzten Kriegsjahren und den ersten Nachkriegsjahren unter alliierter Aufsicht wurden große Mengen Munition in der Nordsee verklappt. Während chemische Kampfstoffe vor allem in Skagerrak und Ostsee versenkt wurden, wurde konventionelle Munition (Granaten, Minen, Panzerfäuste, Patronen etc.) in der Deutschen Bucht versenkt. Die Zahlenschätzungen gehen hier weit auseinander, klar scheint jedoch zu sein, dass mehrere hunderttausend Tonnen Munition in der See versenkt wurden. Nach dem Zweiten Weltkrieg. In der Zeit nach dem Zweiten Weltkrieg trat die Nutzung der Nordsee für friedliche Zwecke in den Vordergrund; denn während sich in der Ostsee die Gegner des Kalten Kriegs direkt gegenüberstanden und beäugten, war die Nordsee ein neben Schweden nur von NATO-Mitgliedsstaaten begrenztes Meer. Ökonomische Bedeutung gewann die Nordsee in den 1960ern, als die Anrainerstaaten begannen, gefundenes Erdöl und -gas kommerziell zu nutzen. Die größte Katastrophe in der Geschichte der Öl- und Gasförderung in der Nordsee war der Untergang der Bohrinsel Piper Alpha 1988, bei dem 167 Menschen ums Leben kamen. Im August 2011 erteilte die Deutsche Bundesregierung einen Auftrag zur systematischen archäologischen Prospektion der südlichen Nordsee, auch außerhalb der 12-Seemeilen-Zone, an das Deutsche Schiffahrtsmuseum in Bremerhaven, da der Bestand zahlreicher archäologischer Fundplätze durch geplante Bauvorhaben bedroht ist. Niue. Niue (niueanisch: Niuē; engl.:; alter Name "Savage Island") ist eine isolierte Koralleninsel im Südpazifik in der Nähe von Tonga, 2400 km nordöstlich von Neuseeland. Sie liegt südlich von Samoa und westlich der Cookinseln. Seit 1974 ist Niue durch einen Assoziierungsvertrag mit Neuseeland verbunden. Geographie. Niue ist eines der größten gehobenen Atolle der Welt und 261,46 km² groß. Die Insel wurde bei zwei Erdbeben in zwei Stufen aus dem Meer gehoben. Weitere Hebungen der Insel sind nicht auszuschließen. Das innere Plateau der Insel erhebt sich bis zu 67 m über den Meeresspiegel und zeigt an seinem Rand ein bis zu 30 m steil aufragendes Riff. Von der Gesamtfläche können etwa 80 % für die Landwirtschaft genutzt werden, der Rest besteht aus meist tropischen Wäldern. Die Küste ist stark zerklüftet mit vielen Höhlen und Schluchten, zum Beispiel die Talava Cave an der Nordwestküste oder die Avaiki-Höhle an der Westküste. Nennenswerte Strände existieren nicht. Es gibt 13 Dörfer, darunter den Hauptort Alofi, und einige kleinere Siedlungen. Klima. Die durchschnittliche Temperatur in Niue beträgt 25 °C und im Schnitt fallen etwas mehr als 2000 mm Niederschlag. Da das Regenwasser schnell im porösen Korallenkalkstein versickert, bilden sich keine Gewässer. Man hat deshalb für die Wasserversorgung Zisternen gebaut. Bei stabilen Hochdruck-Wetterlagen liegt Niue auf der Grenze zwischen tropischem und subtropischem Bereich mit südöstlichen Winden. Bei Tiefdruckgebieten dreht der Wind auf Nordwest bis West. Tropische Wirbelstürme kommen ebenfalls aus dieser Himmelsrichtung und haben in den Jahren 1959, 1960, 1970, 1989, 1990 und zuletzt 2004 die Insel heimgesucht. Die durch die Wirbelstürme verursachten hohen Wellenberge richten an Land zwar wegen der Steilküste praktisch keinen Schaden an, die Korallenbänke sind jedoch stark betroffen. Die letzte schwere Sturmflut richtete auf dem gesamten nordwestlichen Küstenabschnitt zwischen Leha Point im Nordosten und Halagigie Point im Westen schwere Verwüstungen an. Am 6. Januar 2004 verwüstete der Zyklon Heta die Pazifikinsel schwer. Zwei Menschen verloren ihr Leben, über 200 Bewohner wurden obdachlos. Fauna. Nur vor und an der Küste Niues lebt die Niue-Plattschwanz-Seeschlange "(Laticauda schystorhyncha)." Sie wird von den Einheimischen „Katuali“ genannt, ist hochgiftig, wird bis zu einem Meter lang und verbringt einen Teil ihres Lebens an Land. Außerdem kommt auf Niue der Palmendieb ("Birgus latro," auch: Kokosnusskrabbe oder Kokosnusskrebs), vor. Landwirtschaft. Die Landwirtschaft wird durch den meist fruchtbaren Boden gefördert. Problematisch ist jedoch, dass dieser nur in einem sehr begrenzten Maße zur Verfügung steht und daher fast ausschließlich der Selbstversorgung dienen kann. Angebaut werden vor allem Kokospalmen, Bananen, Passionsfrüchte, Limonen, Taro, Bataten, Maniok und Yams. Die Viehzucht umfasst vorwiegend Rinder, Schweine und Geflügel. Verwaltungsgliederung. Verwaltungsmäßig wird Niue in 14 „Villages“ (etwa: Gemeinden) gegliedert. Diese entsprechen den Dörfern mit dem jeweiligen Umland, wobei die Hauptstadt Alofi aus den Verwaltungseinheiten Alofi North und Alofi South besteht. Jede Gemeinde hat einen Village Council (Gemeinderat), der seinen eigenen Village Council Chairman wählt. Die Gemeinden entsprechen auch den Wahlbezirken. Jede Gemeinde entsendet einen Assemblyman (Vertreter) in das Parlament von Niue. Avatele Beach im Westen der Insel ist einer der wenigen Strände von Niue (2008) Verwitterungserscheinungen an der Nordküste Niues (2007) Bevölkerung. Niue hat ca. 1400 Einwohner (2012). Eine starke Abwanderung nach Neuseeland hat die Einwohnerzahl seit 1966 um mehr als die Hälfte vermindert. Dies führte zu zahlreichen Wüstungen. In Neuseeland leben heute 20.148 Niueaner. Die Niueaner sprechen eine eigene polynesische Sprache, das Niueanische, dessen nächste verwandte Sprache Tongaisch ist. Daneben wird auch Englisch gesprochen. Etwa drei Viertel der Bevölkerung gehören der reformierten Ekalesia Niue an, daneben gibt es Katholiken, Mormonen, Zeugen Jehovas und Adventisten. Geschichte. Historische Karte von Niue (um 1900) Niue wurde wahrscheinlich seit dem 10. Jahrhundert von Polynesiern von Tonga, Samoa und den Cookinseln besiedelt, hatte danach aber nur wenig Kontakt mit Nachbarinseln und entwickelte sich eigenständig, was sich in großen Unterschieden gegenüber Sprache und Kultur auf anderen Inseln der Region ausdrückt. 1774 entdeckte James Cook Niue für Europa. Er konnte dort wegen der feindlich gesinnten Bevölkerung nicht landen und gab der Insel den Namen Savage Island (Insel der Wilden). Missionare aus England bekehrten um 1846 die meisten Bewohner zum Christentum. Vom 20. April 1900 bis zum 11. Juni 1901 war Niue Teil der British Western Pacific Territories. Am 11. Juni 1901 wurde Niue von Neuseeland als Teil der Cookinseln annektiert. 1904 löste sich Niue von den Cookinseln. 1965 erhielt Niue eine begrenzte Selbstverwaltung. 1974 wurde das Abkommen zur Assoziation mit Neuseeland geschlossen. Politik. Briefmarke zu ½ Penny von 1932 a> auf einer Brief- und Steuermarke von 1932 Der völkerrechtliche Status Niues ist von besonderer Natur. Niue ist ein autonomes Gebiet in „freier Assoziation mit Neuseeland“. Dieser Status wurde von Niue in einem Akt der Selbstbestimmung gewählt, der von den Vereinten Nationen gebilligt wurde und fortlaufend überwacht wird. Diesen Status besitzen auch die Cookinseln. Somit ist Neuseeland Suzerän Niues. Niue ist ein sich selbst verwaltendes Territorium. Die gesetzgebende und ausführende Gewalt unterliegt keinen Beschränkungen durch Neuseeland. Die Einwohner des Landes sind Bürger Neuseelands. Auf Wunsch von Niue nimmt Neuseeland weiterhin bestimmte Zuständigkeiten des Landes im Bereich der Außen- und Sicherheitspolitik wahr. Sowohl Niues abgeschiedene Lage als auch kulturelle und sprachliche Unterschiede zur übrigen polynesischen Bevölkerung der Cookinseln haben zu seiner Selbstverwaltung geführt. Die starke Abwanderung, noch einmal intensiviert durch die Folgen der Sturmkatastrophe, führte 2004 zu Spekulationen neuseeländischer Politiker, dass der Assoziationsstatus in Zukunft zu Gunsten Neuseelands verändert werden könnte. Die vor allem vom neuseeländischen Außenminister Phil Goff vorgebrachten Überlegungen wurden vom niueischen Premierminister Young Vivian entschieden abgelehnt. Niue ist assoziiertes Mitglied des Commonwealth of Nations und seit 1975 Mitglied des Pacific Islands Forum. Eine Mitgliedschaft bei den Vereinten Nationen bleibt dem Inselstaat aufgrund der Assoziierung und der geringen weltweiten Anerkennung bisher verwehrt. Obwohl Niue denselben Status besitzt wie die Cookinseln, hat auch Deutschland den Pazifikstaat bisher nicht anerkannt. Wirtschaft. Niue ist stark von neuseeländischen Hilfszahlungen abhängig, zudem erschütterte der Zyklon Heta die empfindliche Wirtschaft stark: Beim Wiederaufbau ist das Land auf ausländische Hilfe angewiesen. Die Landwirtschaft dient vor allem der Selbstversorgung. Die Industrie verarbeitet vor allem die erzeugten Nahrungsmittel. Der Verkauf von Briefmarken und selbstgemachtem Kunsthandwerk sind wichtige Einnahmequellen. Wie überall in Polynesien leidet die Wirtschaft unter dem Mangel an Ressourcen, der Abgeschiedenheit und der geringen Bevölkerungszahl. Die Regierung versucht, den Tourismus und das Finanzwesen zu fördern. Der Tourismus ist stark eingeschränkt, da es kaum Unterkünfte und keinen nennenswerten Strand gibt. Die schroffen Klippen verhindern fast überall den Zugang zum Meer. Infrastruktur. Niue hat keinen Hafen. Alle Güter müssen mit vor Anker liegenden Schiffen und Barkassen umgeschlagen werden. Auf Niue gibt es mit dem Hanan International Airport einen Flughafen mit asphaltierter Landebahn, der von verschiedenen Airlines angeflogen wird. Bis Oktober 2005 wurde Niue einmal wöchentlich mit Apia (Westsamoa) verbunden. Seit November 2005 wird Niue nun von Air New Zealand ebenfalls einmal wöchentlich ab Auckland angeflogen. Insgesamt hat die Insel 120 Kilometer Straßen 1. Ordnung; davon sind 67 Kilometer Rundstraße. Allerdings gibt es keinen öffentlichen Nahverkehr. Touristen sind auf Mietwagen angewiesen, die nur begrenzt zur Verfügung stehen. In Niue gibt es einen Radio- und einen Fernsehsender sowie ein Internet-Café. Die Nachrichten werden vom neuseeländischen Fernsehen übernommen. Die Insel hat die gleiche Uhrzeit wie Auckland. Da Niue auf der anderen Seite der Datumslinie liegt, ist es einer der wenigen Orte der Erde, an denen man stets nur die Nachrichten „von morgen“ sehen kann. Die Insel plant, als erstes Land der Welt ihren Strombedarf aus Windenergie und Solarenergie decken zu können. Bis 2025 sollen 80 % des benötigten Stoms durch erneuerbare Energien erzeugt werden. Niue sorgte 2003 für Schlagzeilen, als die Internet Users Society Niue (IUSN) ein flächendeckendes, kostenloses WLAN auf der Insel einrichtete. Zunächst gab es Widerstand von der Regierung, die sich im Streit mit der IUSN befindet. Inzwischen sind jedoch bereits 18 Hotspots in Betrieb, ein weiterer ist in Vorbereitung (Stand September 2014). Somit wurde Niue die erste „Wi-Fi Nation“. Top-Level-Domain ".nu". Auf der Insel stehen (2009) 1100 Internet-Usern 382.600 Domains (2008) gegenüber. Der Grund liegt in der internationalen Namenskennung.nu, das in einigen skandinavischen Sprachen und im Niederländischen „jetzt“ bedeutet und entsprechend gern verwendet wird, weil daraus interessante Namen gebildet werden können. Beispielsweise sicherte sich eine schwedische Internetfirma aus Kalmar die Domain "sverige.nu" und vertreibt Domains mit der.nu-Endung. Für die Zuweisung der internationalen Top-Level-Domain setzt die hierfür zuständige IANA einen gewissen Autonomiestatus des betreffenden Gebietes voraus. Da „nu“ auf französisch „nackt“ bedeutet, wird die Domain auch gern für französischsprachige Erotikseiten benutzt. Medien. Der einzige Fernsehsender und der einzige Radiosender (sendet auf FM und AM) auf Niue werden von der Broadcasting Corporation of Niue betrieben, einer staatlichen Rundfunkanstalt. Als vom Staat unabhängiges Medium, das nicht internetbasierend ist, besteht nur die Zeitung Niue Star, die gleichzeitig die einzige Zeitung des Landes ist. Sport. Niue hat eine eigene Fußballnationalmannschaft, der Fußballverband "Niue Island Soccer Association" ist aber nicht Mitglied des Weltfußballverbandes FIFA und lediglich assoziiertes Mitglied des Regionalverbandes OFC. Daher kann sich das Land nicht für Fußball-Weltmeisterschaften oder den OFC Nations Cup qualifizieren. Bisher hat Niue erst zwei Länderspiele absolviert, beide bei den Südpazifik-Spielen 1983. Die Spiele gegen Papua-Neuguinea (0:19) und Tahiti (0:14) gingen verloren. Dagegen besitzt Niue eine relativ erfolgreiche Rugby-Nationalmannschaft, die an der Qualifikation zur WM 2007 teilnahm. In deren Rahmen wurde am 23. Juli 2005 ein Sieg gegen Tahiti (55:8) erreicht, dem jedoch zwei Wochen später eine Niederlage gegen die Cookinseln folgte (5:24), wodurch die Qualifikation für die Endrunde verpasst wurde. Derzeit wird die Mannschaft in der aktuellen Weltrangliste auf Rang 71 geführt. Besonderes Aufsehen erregten zwei Siege gegen das viel höher eingeschätzte Japan Anfang 2003. Münzprägung. Seit einiger Zeit gibt die Regierung von Niue Sammler- und Anlagemünzen heraus. Die Münzen gelten zwar per Beschluss als offizielles Zahlungsmittel, sind zu diesem Zweck auf Niue aber nicht in Gebrauch. Die Motive reichen von Tennisspielern bis zu Figuren aus Disney-Comics und den Science-Fiction-Serien Doctor Who und Star Wars. Darüber hinaus gibt Niue auch bekanntere Münzen aus, wie die „Niue Lunar Serie“ oder die „Niue Turtle“. Beide Münzserien werden, wie viele andere von Niue herausgegebene Geldstücke, von der New Zealand Mint geprägt. Oft haben diese Münzen einen Silber- beziehungsweise Goldanteil von 99.9 %. Niklas Luhmann. Niklas Luhmann (* 8. Dezember 1927 in Lüneburg; † 6. November 1998 in Oerlinghausen) war ein deutscher Soziologe und Gesellschaftstheoretiker. Als wichtigster deutschsprachiger Vertreter der soziologischen Systemtheorie und der Soziokybernetik zählt Luhmann zu den herausragenden Klassikern der Sozialwissenschaften im 20. Jahrhundert. Leben. Luhmann wurde 1927 in die Familie eines Brauereibesitzers in Lüneburg geboren und besuchte das altsprachliche Johanneum. 1944 wurde er im Alter von 16 Jahren offiziell als Luftwaffenhelfer eingezogen, nachdem er schon seit dem 15. Lebensjahr dort tätig gewesen war. Von 1944 bis September 1945 war Luhmann in amerikanischer Kriegsgefangenschaft; seine Behandlung dort erschien ihm später als Wie erst 2007 bekannt wurde, war Niklas Luhmann als Mitglied der NSDAP verzeichnet. Luhmann studierte von 1946 bis 1949 Rechtswissenschaft an der Albert-Ludwigs-Universität Freiburg, mit einem Schwerpunkt auf römischem Recht. Es folgte bis 1953 eine Referendarausbildung in Lüneburg. 1954 bis 1962 war er Verwaltungsbeamter in Lüneburg, 1954 bis 1955 am Oberverwaltungsgericht Lüneburg Assistent des Präsidenten. In dieser Zeit begann er auch mit dem Aufbau seiner Zettelkästen. 1960/61 erhielt Luhmann ein Fortbildungs-Stipendium für die Harvard-Universität, das er nach seiner Beurlaubung wahrnehmen konnte. Dort kam er in Kontakt mit Talcott Parsons und dessen strukturfunktionaler Systemtheorie. Nach seiner Tätigkeit als Referent an der Deutschen Hochschule für Verwaltungswissenschaften Speyer von 1962 bis 1965 und als Abteilungsleiter an der Sozialforschungsstelle an der Universität Münster in Dortmund von 1965 bis 1968 (1965/66 daneben ein Semester Studium der Soziologie an der Westfälischen Wilhelms-Universität in Münster (Westfalen)) wurde er dort 1966 zum Dr. sc. pol. (Doktor der Sozialwissenschaften) promoviert mit dem bereits 1964 erschienenen Buch "Funktionen und Folgen formaler Organisation". Fünf Monate später habilitierte er sich bei Dieter Claessens und Helmut Schelsky mit "Recht und Automation in der öffentlichen Verwaltung. Eine verwaltungswissenschaftliche Untersuchung". Mit seiner Berufung 1968 wurde Luhmann der erste Professor der Universität Bielefeld. Dort trug er zum Aufbau der ersten soziologischen Fakultät im deutschsprachigen Raum bei, lehrte und forschte bis zu seiner Emeritierung 1993. Luhmann heiratete 1960 Ursula von Walter. Aus der Ehe gingen eine Tochter und zwei Söhne hervor. Seine Ehefrau starb 1977; danach zog er seine Kinder allein groß. Nachlass. Luhmanns Kinder stritten jahrelang vor Gericht um die Eigentums- und Urheberrechte an seinem wissenschaftlichen Werk einschließlich des berühmten Zettelkastens, worauf das OLG Hamm im Jahr 2004 entschied, dass allein seiner Tochter die Rechte daran zustehen. Luhmann hatte ihr noch zu Lebzeiten 1995 in einem Vorausvermächtnis alle Urheberrechte zugewendet, da es sein Wunsch war, dass sein geistiges Erbe in einer Hand bleibt. Der Wert seines wissenschaftlichen Nachlasses wird auf einen siebenstelligen Euro-Betrag geschätzt. Die Universität Bielefeld erwarb mit Unterstützung der Krupp-Stiftung seinen Nachlass 2011, um ein "Luhmann-Archiv" zu errichten. Wichtigster Teil des Nachlasses ist der ca. 90.000 Zettel umfassende Zettelkasten, den Luhmann seit den 1950er Jahren gepflegt hat und der die Grundlage des umfangreichen Werkes darstellt. In einem von der Nordrhein-westfälischen Akademie der Wissenschaften und der Künste geförderten Langzeitprojekt der Fakultät für Soziologie der Universität Bielefeld in Kooperation mit dem Cologne Center for eHumanties (CCeH) werden ab 2015 sowohl der Zettelkasten wie die im Nachlass befindlichen Manuskripte - darunter allein vier verschiedene Versionen einer Gesellschaftstheorie aus den 1960er bis 1990er Jahren - digitalisiert und ediert. Charakterisierung des Werkes. Das Lebenswerk Luhmanns ist eine allgemeine und umfassende Theorie der Gesellschaft, welche gleichermaßen Geltung in der wissenschaftlichen Untersuchung sozialer Mikrosysteme (Liebesbeziehungen) und Makrosysteme (Rechtssystem, Politik) beansprucht. Der Anspruch seiner Theorie auf besonders große Tragweite beruht darauf, dass seine Systemtheorie von der Kommunikation anhebt, und die Strukturen der Kommunikation in weitgehend allen sozialen Systemen vergleichbare Formen aufweisen. Luhmanns Systemtheorie kann als Fortsetzung des radikalen Konstruktivismus in der Soziologie verstanden werden. Er knüpft vor allem an die theoretischen Grundlagen Humberto Maturanas und dessen Theorie autopoietischer Systeme an. Ferner lieferten Edmund Husserl und Immanuel Kant wichtige Voraussetzungen, was den theoretischen Zeitbegriff anbelangt, sowie George Spencer-Brown, was den Form- und Sinnbegriff anlangt. Dem gegenüber bricht Luhmann mit theoretischen Grundannahmen der Soziologie und Philosophie, die in unlösbare Paradoxien hineinführen: z.B. ersetzt er Handlung durch Kommunikation als basalen soziologischen Operationstyp. Er bricht auch mit dem klassischen Subjekt-Objekt-Schema und ersetzt es durch die Leitdifferenz System und Umwelt. Bereits 1970 lieferten sich Luhmann und der Soziologe Jürgen Habermas, als jüngster Vertreter der Kritischen Theorie, eine ausführliche Kontroverse zu ihren teils gegensätzlichen Theoriemodellen, welche sie mit einer gemeinsamen Publikation „Theorie der Gesellschaft oder Sozialtechnologie“ dokumentierten. Der wohl wichtigste Streitpunkt dieser Kontroverse war, ob die Soziologie eine moralische Komponente oder eine soziale Utopie (Herrschaftsfreiheit) durchzutragen habe oder lediglich eine Beschreibung der Gesellschaft nach funktionaler Prämisse leisten müsse. Aus der Sicht Luhmanns fällt die Antwort so aus, dass das Erstere nur auf Kosten des Letzteren möglich ist. Wenn sich die Soziologie an der Kritik oder am Diskurs orientiert, so ist sie damit auch an bestimmte Ausgangslagen gebunden und findet fatalerweise nur zu zeitlich begrenzter Gültigkeit. Um dem zu entgehen, muss Luhmann zufolge die Soziologie eine noch tiefer gelegte Abstraktion der sozialen Dynamik finden, die dafür einen zeitlich höheren Geltungsanspruch verwirklichen kann. Die moralische Bewertung und Kritik des Zeitgeschehens werde dadurch keineswegs ausgeschlossen, im Gegenteil, sie werde lediglich aus der Funktion der Soziologie ausgelagert in andere Bereiche, nämlich Politik oder Ethik. Dieser Schritt sei besonders deshalb erforderlich, weil die Soziologie bis dato weder über einen allgemeinen Begriff noch über eine allgemeine Theorie der Gesellschaft verfügt. Für die Soziologie als Wissenschaft sei es notwendig, dass sie ihren Gegenstand in allgemeiner Weise bezeichnen kann. Luhmanns Theorie der Gesellschaft geht davon aus, dass die „moderne“ Gesellschaft durch den Prozess der „funktionalen Differenzierung“ gekennzeichnet ist. Die Gesellschaftsstruktur des alten Europa hat sich aufgrund der Komplexitätszunahme eigener Sinnressourcen von der segmentären zur stratifikatorisch-hierarchischen, und weiter zur funktional differenzierten Ordnung umgeformt. In der Moderne lösen sich zunehmend Teilsysteme aus dem Gesamtkontext der Gesellschaft heraus und grenzen sich nach Maßgabe eigener funktionaler Prämissen vom Rest der Gesellschaft ab (Ausdifferenzierung). Die moderne Gesellschaft ist aufgelöst in eine wachsende Vielheit von Teilsystemen, die sich gegenseitig zur Umwelt haben und die strukturell mehr oder weniger fest aneinander gekoppelt sind. Die Gesellschaft überhaupt stellt für jedes einzelne Teilsystem (und für alle Teilsysteme zusammen) einen identischen Hintergrund dar, der funktional auf die Möglichkeit der Kommunikation hin entworfen werden kann. Luhmann bietet erstmals in der relativ jungen Geschichte der Soziologie (ca. 150–200 Jahre, vergleiche die mindestens 2500 Jahre bestehende Tradition der Philosophie) nach Emil Durkheim, Max Weber und weiteren einen allgemein gültigen und zeitlich konsistenten Begriff der Gesellschaft an, welcher die grundlegende Paradoxie aufzulösen vermag, dass die Soziologie selbst ein Teil der Gesellschaft ist, also selbst ein Teil des Gegenstandes ist, den sie wissenschaftlich zu begreifen sucht und dadurch die Unabhängigkeit und Unbedingtheit dessen, als was Gesellschaft bezeichnet wird, entscheidend beeinträchtigt wird. Schließlich wird alles, womit die Soziologie arbeitet – Sprache, Kommunikation, Buchdruck, Problemlagen, Forschungsziele, Geld usw. – von der Gesellschaft bereitgestellt. Im Sinne der Wissenschaftslogik ist ein selbst entwickelter Gesellschaftsbegriff selbst-implikativ und ungültig. Das Betätigungsfeld der Soziologie muss nach Luhmann zu der Frage umgedreht werden, "wie es trotzdem möglich ist", dass Teilsysteme sich in der Gesellschaft orientieren können und dennoch relativ stabile Strukturen aufweisen und dass sich dauerhafte Institutionen in der Gesellschaft etabliert haben, welche anscheinend (vielleicht aber auch nur scheinbar) die Lage beherrschen. Die Teilsysteme der Gesellschaft werden im Hinblick auf ihre evolutiven, selbst-stabilisierenden, autopoietischen Strukturen hin beobachtet und geben selbst die Antwort darauf, was Gesellschaft ist, indem sie zeigen, wie sie mit der Komplexität und Paradoxierung der Gesellschaft umgehen. Diesen Beobachtungen hat sich Luhmann zugewendet. Bibliographische Zuordnung. Luhmann hat sehr viele Texte und Bücher veröffentlicht. Zwischen 1963 und 1968 erschienen viele Publikationen, die noch thematisch an seine Verwaltungstätigkeit angelehnt waren. Als er 1968 endgültig die universitäre Laufbahn einschlug, erschienen die ersten allgemeinen soziologischen Werke („Zweckbegriff und Systemrationalität. Über die Funktion von Zwecken in sozialen Systemen“), mit denen zugleich auch die Arbeit an der soziologischen Systemtheorie begann. Zwischen 1970 und 1983 erschienen jedes Jahr ein bis drei neue Bücher, in denen er sich Teilproblematiken der Systemtheorie widmete, insbesondere „Soziologische Aufklärung“ (6 Bde.), „Gesellschaftsstruktur und Semantik“ (4 Bde.), „Ausdifferenzierung des Rechts“ und „Liebe als Passion“. 1984 erschien sein (chronologisch) erstes Hauptwerk „Soziale Systeme. Grundriß einer allgemeinen Theorie“. Mit dem von langer Hand vorbereiteten Entwurf gab Luhmann seiner Systemtheorie zum ersten Mal eine einheitliche Gestalt. Nach „Soziale Systeme“ folgten mehrere Bände über Teilsysteme der Gesellschaft („Die Wirtschaft der Gesellschaft“, „Die Wissenschaft der Gesellschaft“, „Die Kunst der Gesellschaft“) und weitere. In diesen Arbeiten wird mit ausreichend tiefem Rückgriff in die Geschichte des jeweiligen Teilsystems dessen Ausdifferenzierung und Evolution nachvollzogen. Es werden die funktionalen Prämissen, die symbiotischen Mechanismen, die symbolisch generalisierten Kommunikationsmedien, sowie die operative Geschlossenheit und Autopoiesis des Teilsystems und dessen Verhältnis und strukturelle Kopplung zur Umwelt untersucht. Luhmann erbrachte hier eine interdisziplinäre Leistung, wie seine vielfältigen bibliographischen Querverweise belegen. Vollendet wurde dieser Entwurf 1997 durch das zweite Hauptwerk „Die Gesellschaft der Gesellschaft“ (2 Bde.), welches die am weitesten ausgearbeitete Fassung seiner Systemtheorie und seines Gesellschaftsbegriffes darstellt. Wirkung und Kritik in der Soziologie und darüber hinaus. Die Luhmannsche Systemtheorie (in Abgrenzung zur allgemeinen Systemtheorie von Ludwig von Bertalanffy u. a. sowie zur Theorie sozialer Systeme von Talcott Parsons) gilt derzeit als eine der erfolgreichsten und verbreitetsten Theorien im deutschen Sprachraum, nicht nur in der Soziologie, sondern auch in diversen Feldern wie der Psychologie, der Theorie des Managements oder der Literaturtheorie. Auch international beeinflusst sie den sozialphilosophischen Diskurs, wobei sich nennenswerte Luhmann-Strömungen in Deutschland, den USA, Japan, Italien und Skandinavien herausgebildet haben. Luhmann bezeichnete sich zwar zeitlebens als Soziologe, doch kann man ihn – ähnlich wie Jürgen Habermas – gleichzeitig auch als Wissenschaftstheoretiker auffassen, der die Soziologie sehr angeregt hat und der eine bemerkenswerte soziologische Urteilskraft besaß. Auch in verschiedenen Bereichen der Philosophie werden Ideen Luhmanns rezipiert. Das Fehlen eines primär normativen Elements in Luhmanns Systemtheorie hat eine teilweise heftige Debatte nicht nur in der Soziologie entfacht. Aus erkenntnistheoretischer Perspektive wird moniert, die Theorie laufe auf Grund ihres tautologischen, deskriptiven Ansatzes ins Leere und sage nicht mehr über die Welt, als was wir aufgrund fachwissenschaftlicher Erkenntnisse ohnehin schon über sie wissen oder wissen könnten. Genau dieser konstruktivistische Ansatz ist wiederum eine wesentliche Eigenschaft der Theorie: Als Beobachter der Welt können wir nach Luhmann nur das identifizieren und beschreiben, was für uns beobachtbar ist. Siehe auch. Als renommierte Wissenschaftler, die an Luhmanns Werk anknüpfen und sich ihm verbunden fühlen, gelten u. a. Dirk Baecker, Elena Esposito, Peter Fuchs, Andreas Göbel, André Kieserling, Armin Nassehi, Rudolf Stichweh, Gunther Teubner, Helmut Willke und David Seidl. Literatur. "Literatur zu Luhmanns "Systemtheorie" findet sich im Artikel Systemtheorie" Nachhaltigkeit. a> schriftlich formuliert (Gedenktafel mit Zitat) Nachhaltigkeit ist ein Handlungsprinzip zur Ressourcen-Nutzung, bei dem die Bewahrung der wesentlichen Eigenschaften, der Stabilität und der natürlichen Regenerationsfähigkeit des jeweiligen Systems im Vordergrund steht. Begriffsgeschichte. Eine erstmalige Verwendung der Bezeichnung "Nachhaltigkeit" in deutscher Sprache im Sinne eines langfristig angelegten verantwortungsbewussten Umgangs mit einer Ressource ist bei Hans Carl von Carlowitz 1713 in seinem Werk "Silvicultura oeconomica" nachgewiesen. Carlowitz fragte. Nachhaltigkeit gilt in einem Wörterbucheintrag von 1910 als Übersetzung von lateinisch "perpetuitas" und ist das Beständige und Unablässige wie auch das ununterbrochen Fortlaufende, das Wirksame und Nachdrückliche oder einfach der Erfolg oder die Wirksamkeit einer Sache. Vor 1860 war die Bezeichnung als Substantiv noch nicht lexikalisch erfasst, im Rechtschreibduden erstmals 1915 (anders das Adjektiv "nachhaltig"); bis in die 1980er Jahre hatte sie alltagssprachlich die Bedeutung von Dauerhaftigkeit und wurde nicht für einen Begriff politischen Sinnes verwendet. Beispielsweise taucht das Wort "nachhaltig" in Meyers Konversations-Lexikon von 1905 auf im Satz, und des Weiteren in der Aussage, dass ein Forst bereits die nachhaltige Form einer Waldwirtschaft darstellt. Traditionelle Nachhaltigkeit. a>) konnte nur aufgrund ihrer nach­haltigen Produktions­weise den Menschen jahr­tausende­lang ein Auskommen bieten a> ist nicht nachhaltig, da sie intensive, natur­fremde Verän­derungen der Systeme und energie­aufwändige Erhaltungs­strategien erfordert Subsistenzorientierte, traditionelle Wirtschaftsformen, die noch weitgehend unverändert sind "(wie Jagen und Sammeln, Feldbau (sofern die Naturgebiete noch ausreichend groß und dünn bevölkert sind) sowie die Fernweidewirtschaft)" bilden stabile und dauerhafte – also im ursprünglichen Sinne nachhaltige – Wirtschaftssysteme, die in vielfältiger Weise mit den natürlichen Ökosystemen vernetzt sind. Sie sind gekennzeichnet durch effiziente, langsame und kontinuierliche Anpassung der Landnutzung an die jeweiligen Standortbedingungen seit Jahrhunderten. Dieser Effekt kehrt sich allerdings mehr und mehr um, wenn ein rapider ökonomischer und sozialer Wandel Probleme schafft, deren Auswirkungen nicht vorhersehbar sind (siehe auch Kalte und heiße Kulturen oder Optionen). Auch die Biodiversitäts-Konvention der UNO erkennt an, dass traditionelle Lebensweisen in besonderem Maße nachhaltig sind und die biologische Vielfalt nicht verringern. Im Gegensatz zu industrialisierten Gesellschaften, die nicht unmittelbar auf ein bestimmtes Gebiet angewiesen sind, haben solche Gemeinschaften ein direktes Interesse an der Aufrechterhaltung und dem Schutz dieser Ökosysteme, deren Stabilität sie nie gefährdet haben. Die Ethnologie hat gezeigt, dass traditionell-nachhaltiges Wirtschaften in sehr vielen indigenen Kulturen "(vor dem Kontakt mit den Europäern)" als moralische Leitlinie einer „heiligen Erdverbundenheit“ im kulturellen Gedächtnis " über animistische Weltbilder, Mythen, Rituale und Tabus" verankert war "(→ siehe auch: Wildes Denken)". Nach Odum und Cannon verfügen alle stabilen Systeme über Mechanismen, die ihren Gleichgewichtszustand möglichst konstant halten und dabei Schwankungen der Umwelt ausgleichen. Die Anthropologen Roy Rappaport, Gerardo Reichel-Dolmatoff und Thomas Harding haben unabhängig voneinander festgestellt, dass die Mythen und rituellen Zyklen der sogenannten „Naturvölker“ genau diese Aufgabe erfüllen und den Gemeinschaften ermöglichen, sich Veränderungen der Umwelt "so weit wie möglich" anzupassen und die Stabilität der Ökosysteme dabei "so wenig wie möglich" zu beeinträchtigen. Aktuelle Konzepte der Nachhaltigkeit. Nachhaltigkeit sollte sich im Idealfall auf ökologische, ökonomische und soziale Aspekte beziehen Die 1983 von den Vereinten Nationen eingesetzte Weltkommission für Umwelt und Entwicklung (Brundtland-Kommission) beeinflusste die internationale Debatte über Entwicklungs- und Umweltpolitik maßgeblich, ohne jedoch auf den Ursprung in der deutschen forstwirtschaftlichen Debatte Bezug zu nehmen. Die Kommission unter dem Vorsitz der ehemaligen norwegischen Ministerpräsidentin Gro Harlem Brundtland hatte den Auftrag, langfristige Perspektiven für eine Entwicklungspolitik aufzuzeigen, die zugleich umweltschonend ist. In ihrem auch als Brundtland-Bericht bekannt gewordenen Abschlussdokument "Unsere gemeinsame Zukunft" aus dem Jahre 1987 ist das von diesem Leitgedanken inspirierte Konzept der nachhaltigen Entwicklung definiert. Definitionsvielfalt. Manche Autoren stellen fest, dass aufgrund der vielfältigen Definition "Nachhaltigkeit" zu einem „Gummiwort“ geworden sei. Zugleich wird aber betont, dass die Idee werde. Um die Unschärfeprobleme mit der Bezeichnung "Nachhaltigkeit" zu umgehen, wird bei Auseinandersetzungen um umweltverträgliche Formen der Zivilisation teilweise auf andere Bezeichnungen ausgewichen wie "Zivilisationsökologie" oder "Zukunftsverträglichkeit", die sich bislang jedoch nicht durchsetzen konnten. Für viele Unternehmen ist das Attribut „nachhaltig“ zu einer inhaltlich schwer überprüfbaren Komponente ihrer PR-Strategie geworden. Demgegenüber stehen Konzepte des Nachhaltigkeitsmanagements, die unternehmerischen Erfolg mit der Berücksichtigung sozialer und ökologischer Aspekte verbinden. Demnach können sich Unternehmen durch besonders nachhaltiges Handeln einen Wettbewerbsvorteil verschaffen. Die deutsche politische Debatte zu diesem Begriff ist auf kommunaler Ebene stark mit den von der UN-Konferenz angeregten Lokalen Agenda 21-Prozessen verbunden. Auf Bundesebene wird die Bezeichnung seit der Enquete-Kommission "Schutz des Menschen und der Umwelt. Ziele und Rahmenbedingungen einer nachhaltig zukunftsverträglichen Entwicklung" von 1995 stärker verwendet, die sich als Runder Tisch verstand. Der 1. Zwischenbericht der Kommission diente schon auf der Rio-Folgekonferenz in New York im Jahr 2000 („Millennium-Gipfel“) dazu, über die deutschen Beiträge zur Umsetzung des Nachhaltigkeitskonzeptes zu berichten. In der bundesdeutschen politischen Debatte hatten Die Grünen den Begriff der Nachhaltigkeit bei der Bundestagswahl 1998 noch dominant besetzt, er fand aber auch Erwähnung bei allen anderen im Bundestag vertretenen Parteien. Zur Bundestagswahl 2002 benutzten dann mit Ausnahme der Grünen die anderen Parteien das Wort Nachhaltigkeit deutlich häufiger als noch vier Jahre zuvor. Nachhaltigkeit in der modernen Wirtschaft und verschiedene Wirtschaftsethiken. Nachhaltigkeit enthält in seiner Grundidee einen Nutzen für alle Beteiligten. Wenn der Umstieg auf nachhaltige Wirtschaftsformen allerdings aus der Not heraus stattfindet, weil der Raubbau an den Ressourcen bereits sehr weit fortgeschritten ist, dann liegt darin durchaus auch Konfliktpotential. In der deutschen Holzwirtschaft des 18. und 19. Jahrhunderts – als es kaum noch Wälder gab – stellten die Menschen sich die Frage, wer von dieser neuen Forstwirtschaft profitieren würde und wer nicht. Dies ist besser zu verstehen, wenn man sich vor Augen führt, dass die Menschen in den Wintern (der damaligen „Kleinen Eiszeit“) auf jedes Klafter Brennholz angewiesen waren, um nicht zu erfrieren. Der Bedarf war unmittelbar da und viel zu groß, um gedeckt zu werden – es herrschte akute Holznot. Nachhaltigkeit in der Forstwirtschaft setzt jedoch voraus, dass genügend Bäume stehen bleiben, die zum Teil mit polizeilicher Gewalt vor dem Diebstahl durch verzweifelte Menschen geschützt werden mussten. Ähnliche „notgedrungene“ Interessenkonflikte sind auch heute noch in vielen Gebieten der Erde an der Tagesordnung, in denen Nachhaltigkeit einen fortgeschrittenen Raubbau ersetzen soll. Nachhaltigkeit in der Kulturgeschichte. Die Mauer des Palastes des Inca Roca hat nach 800 Jahren noch zum größten Teil seine Struktur erhalten aufgrund der Anordnung der Natursteine auch ohne jegliche Bindemittel. Wissenschaft. Seit den 1990er Jahren hat sich an den Universitäten eine eigene Fachrichtung Nachhaltigkeitswissenschaft etabliert. Die Forschung außerhalb des universitären Umfelds wird meist eher unter dem Schlagwort Sozial-ökologische Forschung zusammengefasst. Forschungsansätze in diesen Bereichen werden durch einen Förderschwerpunkt, das Programm „Forschung für nachhaltige Entwicklungen“ (FONA) durch das Bundesministerium für Bildung und Forschung mit öffentlichen Mitteln gefördert. Anfang März 2015 startete das Leistungszentrum Nachhaltigkeit Freiburg, eine Kooperation zwischen der dortigen Albert-Ludwigs-Universität, den fünf Freiburger Instituten der Fraunhofer-Gesellschaft sowie Firmen aus der Industrie. Auszeichnungen. Seit 2008 verleiht die 'Stiftung Deutscher Nachhaltigkeitspreis' jährlich den Deutschen Nachhaltigkeitspreis öffentlichkeitswirksam im Rahmen einer großen Gala. Name. Ein Name ist, nach der aktuellen wissenschaftlichen Forschung, ein verbaler Zugriffsindex auf eine Informationsmenge über ein Individuum. Namen sind somit einer Person, einem Gegenstand, einer organisatorischen Einheit (z. B. einem Betrieb) oder einem Begriff zugeordnete Informationen, die der Identifizierung und Individualisierung dienen sollen (Funktion der Namenklarheit). Mit der wissenschaftlichen Erforschung von Namen beschäftigt sich die Onomastik. Sie unterteilt sich in die Namenkunde, die Geschichte, Gebrauch und Etymologie der Namen klärt, und die Theoretische Namenforschung, die sich mit der Frage beschäftigt: Was ist ein Name? Die Namentheorie beschäftigt sich demnach mit der Hauptbedeutung, der Denotation, der Namen, während sich die Namenkunde über die Denotation hinaus, mit der Konnotation der Namen beschäftigt. Siehe auch Artikel Theoretische Namenforschung und Begriff. Im Judentum. Namen sind im Judentum mehr als Begriffe, das gilt auch für die Gottesnamen. Seine "Gattungsbezeichnung" ist "Elohim", sein „Eigename“ ist "JHWH" - auch Tetragramm genannt -, der mit "Jahwe" oder seltener und später mit Jehova vokalisiert wurde. Die hebräische Konsonantenschrift hatte keine Vokale, erst die Masoreten im Mittelalter fügten Vokale hinzu. So ist "JHWH" eigentlich nicht übersetzbar, weil es kein Name, kein Gedanke, keine Substanz oder Existenz ist. Die zentrale Bedeutung wird allgemein mit "Ich bin" oder "Ich bin da" wiedergegeben und weist auf die Unaussprechlichkeit, Unerklärlichkeit und Unergründlichkeit Gottes hin. JHWH wurde erstmals in Genesis 4,26 gebraucht, Mose beim brennenden Dornbusch in der Wüste offenbart (Exodus 3, 14) und kommt 6.823 in der hebräischen Bibel vor. Aus Scheu und Ehrfurcht vor JHWH, seiner Größe und Heiligkeit wurde JHWH von den Juden nach der babylonischen Gefangenschaft nicht mehr ausgesprochen, stattdessen wurden "adonay" (mein Herr) und heute "ha-schem" (der Name), "ha-makom" (der andere Ort oder die andere Seite) oder "adoschem" (Wortkombination von Herr und Name) gebraucht. Personennamen (Anthroponyme). Die Personennamen umfassen die Bezeichnungen für Einzelwesen (Vornamen und Familiennamen). Volksbezeichnungen und Stammesnamen sind keine Eigennamen, sondern Gattungsnamen. Ein auffälliges Merkmal, das speziell bei Familiennamen im deutschen Sprachraum zu beobachten ist, besteht darin, dass es eine Tendenz zur Variation (Diversifikation) ein und desselben Namens gibt. So existieren als sog. „adjektivische Übernamen“ neben „Lang“ auch die Formen „Lange“, „Langer“ und „Langen“, ein Phänomen, das bei vielen Namen auftritt. Bei Vornamen wiederum ist festzustellen, dass viele von ihnen Benennungsmoden unterliegen, die dafür sorgen, dass ein bestimmter Name häufiger wird, einen Höhepunkt der Beliebtheit erreicht und dann wieder an Häufigkeit verliert. Siehe hierzu auch unter Namensrecht. Künstlernamen/Pseudonyme. In der Kunst spielen Namen eine wichtige Rolle. Mit dem Eigen- oder Künstlernamen sich einen „Namen“ zu erarbeiten, ist eine der größten Motivationen der meisten Künstler. Mit der Bekanntheit des eigenen „Namens“ steigt häufig auch der Handelswert seiner angebotenen Kunst. Salvador Dalí ging gegen Ende seiner Karriere spielerisch mit seinem Namen um. So signierte er weiße Blätter und verkaufte diese. Den Käufern stand es frei, ein Bild zu malen, das den Namen Dalí trug. Kunstnamen. In literarischen und filmischen Werken tragen die handelnden Personen und die Orte, an denen die Handlung stattfindet, zuweilen fiktive sprechende Namen. Hierdurch sollen sie bereits durch ihre äußere Benennung ihrem inneren Wesen nach charakterisiert werden. Das Stilmittel der sprechenden Namen ist bereits seit der Antike bekannt und findet sich ebenso in den mündlichen Überlieferungen von Mythen und Sagen in den verschiedensten Kulturkreisen. In der klassischen allegorischen Literatur bedürfen die Namen meist keiner Interpretation seitens des Lesers. So trifft der Pilger in John Bunyans "The Pilgrim’s Progress" unter anderem den Riesen „Verzweiflung“, der Herr der „Burg des Zweifels“ ist. Ästhetisch reizvollere Codierungen erfolgen insbesondere durch Wortspiele, Buchstabendreher, Lautmalerei oder Akronyme. Geographische Namen (Geographika). Geographische Namen im eigentlichen Sinne sind immer Individualnamen. Geographische Klassennamen werden nicht zu den Geographika (Sg.: "Geographikum") gezählt. Großobjektnamen (Makrotoponyme). Viele dieser Namen können aber auch zu den Mikrotyponymen gerechnet werden, wenn sie kleinere Objekte ansprechen. Himmelskörper- und Sphärennamen (Kosmonyme). Die Einteilung der Himmelskörper- und Sphärennamen erfolgt nach Planeten, Monden, Planetoiden, Sternen "(Astronyme)" und Sternbildern. Dabei wurden zunächst für jene Himmelskörper unseres Sternsystems Namen vergeben, die von der Erde aus sichtbar waren. Sie wurden durchweg nach Göttern aus Mythen benannt, wobei in der Antike jedes Volk seine eigenen Götternamen vergab. Heutzutage haben sich die Götternamen der Römer als Fachterminologie durchgesetzt. Die dazugehörigen Monde erhielten ebenfalls Bezeichnungen aus den Mythen. Diese wurden passend zu den Götternamen des Planeten, den sie umkreisten, vergeben. Ab 1801 begannen sich die astronomischen Forschungen auszuweiten und die ersten Planetoiden wurden gesichtet. Diese erhielten zu Beginn die Namen der Göttinnen. Mit zunehmender Fülle der Kleinplaneten mussten jedoch irdische Frauennamen genutzt werden. Auch die Sternbilder haben in der Mehrzahl einen mythischen Hintergrund. Anders hingegen verfuhr man bei Sternen. Bevor Koordinaten zu ihrer Unterscheidung genutzt wurden, erhielten sie meist arabische Namen nach ihren Entdeckern. Die Araber waren im 8. und 9. Jahrhundert führend in der Astronomie. Sternensysteme oder auch Nebel besitzen hingegen selten Eigennamen. Raumnamen (Choronyme). Nach Peter von Polenz unterteilen sich die Raumnamen in naturräumliche und politische Gebilde. Erstere umfassen Landschaften und Gebiete, letztere fest umgrenzte Räume (Bezirks- und Ländernamen). Bereits in frühester Zeit wurden Stammesbezeichnungen als Raumnamen verwendet. Beispielsweise ist der Name des Landes Sachsen aus dem gleichnamigen Stamm entstanden. Gleiches gilt für Bayern, Thüringen, Holstein und Hessen. Gewässernamen (Hydronyme). Die Gewässernamen sind die ältesten Zeugnisse unserer Sprache. Da insbesondere an den größten Flüssen die ersten Besiedlungen zu finden waren, wurden hier die ersten Gewässernamen vergeben. Daraus resultiert die Beobachtung, dass je größer ein Fluss, umso älter sein Name ist. Es wird zwischen stehenden und fließenden Gewässern unterschieden, wobei insbesondere die fließenden Gewässer im Mittelpunkt des Interesses der Forschung stehen. In der Gewässernamenforschung haben Hans Krahe und dessen Schüler W. P. Schmidt die bis heute stark umstrittene Theorie der "Alteuropäischen Hydronymie" geprägt. Sie besagt, dass es Gewässernamen gibt, die außerhalb ihrer Einzelsprache in ganz Europa Entsprechungen besitzen, wodurch die Existenz einer voreinzelsprachlichen, indogermanischen Sprache belegt werden soll. Ein Beispiel hierfür ist die Isère in Südfrankreich – Iser/Jizera in Tschechien – Isar in Deutschland – IJssel in den Niederlanden. Ortsnamen (Toponyme). Die Ortsnamenforschung beschäftigt sich im Besonderen mit den Strukturen, der Entstehung, dem Wandel und dem Verlust von Siedlungsbenennungen. Sie geht dabei diachronisch vor, indem sie von der heutigen Ortsnamenform ausgehend Belege sammelt und mit Hilfe derer versucht, den ursprünglichen Namen zu rekonstruieren. Anhand dieser Grundform kann die Etymologie des Namens bestimmt werden. Unterschieden wird dabei nach Bildungsweise der Orte und sprachlicher Zugehörigkeit. Flurnamen. Flurnamen sind sprachliche Zeichen, die der Orientierung im Raum, zur Identifizierung sowie Individualisierung von Objekten kleinerer landschaftlicher Einheiten dienen. Dazu gehören: Äcker, Wiesen, Spezialkulturen (Reben, Hanfgärten), Hecken, Wälder, Berge, Täler, Alpen, Felsen, Bäche, Flüsse, Seen, Quellen, Brunnen, Wege, Gassen, Grenzen und Gewerbeanlagen (Köhlereien, Mühlen, Stampfwerke). Flurnamen bezeichnen demnach die unbesiedelten Teile einer Landschaft. Aufgrund ihrer geringen kommunikativen Reichweite werden sie auch als Mikrotoponyme bezeichnet. In der Forschung ist umstritten, ob Objekte innerhalb von Siedlungen den Flurnamen zuzurechnen sind oder nicht. In Bezug auf Bildungsweise und sprachliche Zugehörigkeit sind sie den Ortsnamen vergleichbar. Wegenamen (Hodonyme). Straßennamen (griech. "hodos" „Weg“) dienen der Orientierung in einer Stadt. Sie werden unterteilt in längliche Gebilde "(Prodonyme)" und Plätze "(Agoronyme)". Sie sind im Mittelalter entstanden. Seitdem werden sie oft zu politischen Zwecken genutzt, wobei man sich heute zunehmend um zeitlose Namen bemüht. Hierzu gibt es für die Kommunen Arbeitshilfen, vor allem, um Doppelbenennungen oder gleichklingende Namen zu vermeiden. Im Zuge dieser neuen Benennungssituation sind zunehmend hodonymische Felder entstanden. Das bedeutet, dass zusammenhängende Gebiete nach einheitlichen Gesichtspunkten benannt werden, bspw. nach Komponisten, Blumen oder Planeten. Daneben gibt es auch Hodonyme, die zu den Makrotoponymen gezählt werden können, etwa "Via Appia" für die römische Fernverkehrsstraße oder "Brenner Autobahn", sowie für Eisenbahnstrecken wie "Transsibirische Eisenbahn". Haus- und Hofnamen. Bevor im 18. Jahrhundert nach französischem Vorbild Hausnummern eingeführt wurden, waren die "Haus- und Hofnamen" ein wichtiges Unterscheidungsmerkmal in den Städten. Sie teilten die Städte in Viertel und trennten sie von den Vorstädten und Dörfern. Vor allem die öffentlichen Bauten erhielten Titel, sowie Kaufhäuser und Mietshäuser mit entsprechendem Standard. Nach dem Zweiten Weltkrieg ging die Verwendung von Haus- und Hofnamen stark zurück und ist nur noch in sehr ländlichen, wenig dicht besiedelten Gebieten üblich. Bildungsstättennamen. Bildungsstätten sind Prestigeobjekte, weswegen sie sich besonders zur Namenvergabe eignen. Meist sind die Namen aus einer Nominalgruppenstruktur gebildet, deren Kern ein appellativisches Nomen (Schule, Hochschule, Universität (→ "„Universitätsnamen“"), Institut) bildet. Durch Komposition werden diese mit Attribution oder asyndetischen Nachstellungen verbunden. Die Namen der Bildungseinrichtungen beziehen sich meist auf den Gründer/Stifter, den (finanziellen) Förderer oder auf Patrone, das heißt Personen, die keine direkte Beziehung zu der Bildungseinrichtung haben, aber trotzdem ein besonderes Prestige besitzen. Ziel dieser Namengebung ist, die betreffende Persönlichkeit zu ehren, an sie zu erinnern oder ihre Vorbildfunktion zu betonen. Demgegenüber gibt es Namen, die nur einen intensionalen Gehalt besitzen. Sie teilen lediglich sachliche Informationen mit, um entweder die Institution, die fachliche Spezifikation oder die Trägerschaft zu kennzeichnen. Dabei soll absichtlich auf (selbst)bewertende Informationen verzichtet werden. In Deutschland muss der potentielle Prestigegehalt in sinnvollem Verhältnis zur Wichtigkeit der Institution stehen. Dementsprechend tragen Bildungseinrichtungen mit hohem Prestige keine Patronatsnamen, dagegen beispielsweise Grund- und Hauptschulen meist Namen mit regionaler Bedeutung. Warennamen (Ökonyme). – immer Gattungsnamen, erst die Seriennummer ist der Individualname – Zu den Warennamen gehören Artikelnamen, Markennamen und Firmennamen. Sie müssen bestimmte Informationen an den Käufer übermitteln, sei es über den Hersteller, den Herstellungsort, den Stoff des Produkts, die Eigenschaften des Produkts, den Verwendungszweck oder die Wirkungsweise. Sie sind insofern eine besondere Gruppe, als dass die Namen zu Gattungsbegriffen werden können. Als Beispiel sei hier das Taschentuch von Tempo genannt, das ursprünglich die herstellende Firma betitelte und nun im alltäglichen Sprachgebrauch das Papiertaschentuch betitelt. Mediennamen. Die Namen für die verschiedenen Medien sind durch gesetzliche Regeln definiert und geschützt. Mit der Firma wird ein bestimmtes Unternehmen namentlich gekennzeichnet und somit individualisiert. Tier- und Pflanzennamen. Tiere, zu denen Menschen eine besondere Beziehung aufbauen, erhalten sehr oft Namen, die menschlichen Namen entsprechen. In Märchen, aber auch in Erzählungen der Neuzeit, haben Tiere oft Namen. Dagegen ist die schon seit der Antike nachweisbare von Carl von Linné in unserer heutigen Form eingeführte Nomenklatur nicht im engeren Sinn „Name“, sondern bezieht sich meist auf Eigenschaften, die in die Gattungsnamen eingearbeitet werden. Diese Eigenschaften können sowohl Organe, Aussehen als auch Fundorte beschreiben. Des Weiteren werden auch teilweise Personen gewürdigt, die die Art als erste beschrieben haben bzw. geehrt werden sollen. Deutsche Tier- und Pflanzennamen werden nach ähnlichen Gesichtspunkten gebildet, beruhen jedoch nicht grundsätzlich auf Binominalität. Eine weitere Form der Tier- und Pflanzennamen sind Benennungen von Zuchtformen, also von willentlich erzeugten Kreuzungen bzw. Hybriden von Tieren und Pflanzen. Die Namensgebung erfolgt meist durch die Züchter, die ihre Erzeugnisse oft nach sich selbst oder dem Zuchtort benennen. Allerdings werden vor allem Zuchtpflanzen häufig nach berühmten Persönlichkeiten (z. B. Herrschern) benannt. Meteorologische Namen. Die meteorologischen Namen wurden von Clement Lindley Wragge geprägt. Er vergab als erster weibliche Vornamen für tropische Wirbelwinde und männliche für außertropische Tiefdruckwirbel mit Sturm- und Orkanfeldern. Bekanntermaßen verwendete er mit Vorliebe die Namen ihm missfälliger Politiker. Aber erst in den 1950er Jahren setzte sich die Benennung für meteorologische Erscheinungen durch. Dies resultierte daraus, dass für die Jagdflugzeuge des amerikanischen Militärs eine Umschreibung der Phänomene zu lange dauerte. Zuerst wurden dabei die Unterteilungen von Clement L. Wragge nach männlichen und weiblichen Vornamen beibehalten. Als aber wiederholte Beschwerden an die Öffentlichkeit kamen, beschloss man 1979, beide Geschlechter gleichmäßig mit den Namen der Wirbelstürme zu belasten. Dazu wurde 1979 eine offizielle Liste der IHC herausgegeben. Diese Namensliste ist bis heute Grundlage für die Bezeichnungen tropischer Wirbelstürme. In Deutschland werden seit den 1950er Jahren Hoch- und Tiefdruckgebiete benannt. Diese Liste wurde ursprünglich von Richard Scherhag geschrieben, heute werden die Namen im Rahmen der Aktion Wetterpate von der Technischen Universität in Berlin versteigert. Diese Namen werden inzwischen bei Starkwindereignissen von den Medien auch außerhalb Deutschlands verwendet. Eine Benennung von Tiefdruckgebieten erfolgt auch beim norwegischen Wetterdienst. Gegenstände (Chrematonyme). Auch Gegenstände hatten oder haben Eigennamen; dies ist in verschiedenen Kulturen üblich. So führten etwa bei den Germanen einzelne Schwerter (z. B. Siegfrieds Schwert „Balmung“) oder Helme Namen, heute noch Autos (z. B. die „Grüne Minna“), Schiffe, Eisenbahnzüge, Puppen oder Spieltiere. Verschleierung von Namen. In vielen Fällen und aus unterschiedlichen Motiven heraus werden die echten Namen unkenntlich gemacht. Dies kann dazu dienen, eine Person anonym zu lassen (Kryptonym, Pseudonym) – wie im Falle von „Peter Panter“ für „Kurt Tucholsky“ – oder auch eine erwünschte Wirkung, z. B. in der Werbung, zu erzielen, indem eine einprägsame Bezeichnung gebildet wird (z. B. „Haribo“ für „Hans Riegel, Bonn“). Kryptonyme werden auch genutzt, um Aktionen oder Projekte mit einem „verdeckten“, doch einprägsamen Wort zu benennen. Nordrhein-Westfalen. Nordrhein-Westfalen (, Ländercode "NW", Abkürzung "NRW") ist ein Land im Westen der Bundesrepublik Deutschland. Die Landeshauptstadt ist Düsseldorf, die einwohnerreichste Stadt ist Köln. In der Bundesstadt Bonn befindet sich der zweite Regierungssitz der Bundesrepublik. Nordrhein-Westfalen grenzt im Norden und Nordosten an Niedersachsen, im Südosten an Hessen, im Süden an Rheinland-Pfalz sowie im Westen an Belgien und die Niederlande. Mit rund Millionen Einwohnern ist Nordrhein-Westfalen das bevölkerungsreichste, flächenbezogen mit rund 34.100 Quadratkilometern das viertgrößte deutsche Land. 29 der 76 deutschen Großstädte liegen in seinem stark urbanisierten Gebiet. Der Ballungsraum Rhein-Ruhr im Zentrum des Landes ist mit rund zehn Millionen Bewohnern eine der 30 größten Metropolregionen der Welt und zentraler Teil eines europäischen Verdichtungsraumes. Das Land wurde 1946 von der britischen Besatzungsmacht aus der preußischen Provinz Westfalen und dem Nordteil der ebenfalls preußischen Rheinprovinz (Nordrhein) errichtet und 1947 um das Land Lippe erweitert. Seit 1949 ist Nordrhein-Westfalen ein Land der Bundesrepublik Deutschland. Kulturell ist es kein homogener Raum; besonders zwischen dem Landesteil Rheinland einerseits und den Landesteilen Westfalen und Lippe andererseits bestehen deutliche kulturelle Unterschiede. Den nördlichen Teil des Ballungsraums Rhein-Ruhr bildet das Ruhrgebiet, dessen wirtschaftlicher Aufstieg auf der Industrialisierung und der Montanindustrie, insbesondere dem Kohlebergbau, basierte. Seit dem Niedergang dieser Industrien ab den 1960er Jahren vollzog sich im Rahmen einer postfordistischen und durch Globalisierung geprägten Weltwirtschaft ein bis heute andauernder Strukturwandel. Noch heute ist Nordrhein-Westfalen durch diverse Schlüsselindustrien geprägt und eines der wirtschaftlichen Zentren Deutschlands. Mit einem Anteil von rund 22 Prozent am deutschen Bruttoinlandsprodukt ist Nordrhein-Westfalen das Land mit der höchsten Wirtschaftsleistung. Geographie. a>; Höhenschwerpunkt des naturräumlichen Sauerlandes und Mittelgebirge mit den höchsten Erhebungen Nordrhein-Westfalens a>, seit 2004 der erste Nationalpark in Nordrhein-Westfalen Nordrhein-Westfalen liegt im Westen der Bundesrepublik Deutschland und grenzt im Uhrzeigersinn an Niedersachsen, Hessen, Rheinland-Pfalz, Belgien und die Niederlande. Die Ausdehnung des Landes beträgt von Südwest bis Nordost rund 260 Kilometer. Der Norden des Landes liegt in der Norddeutschen Tiefebene und gliedert sich grob in die Westfälische Bucht, die von den Flüssen Lippe, Ems und Ruhr durchflossen wird, und das Niederrheinische Tiefland beidseitig des Rheins, der der größte Fluss des Landes (und zugleich Deutschlands) ist. Der tiefste Punkt liegt bei im Nordwesten des Landes. Die restlichen Gebiete des Landes haben Anteil an den deutschen Mittelgebirgsregionen. Das Weserbergland an der oberen Weser prägt den Osten des Landes. Die Gebirge des Rheinischen Schiefergebirges nehmen den Süden ein. Das Rheinische Schiefergebirge gliedert sich grob in die linksrheinische Eifel im Südwesten und Bergisches Land sowie Sauerland östlich des Rheins. Der Langenberg im zum Sauerland zählenden Rothaargebirge ist mit der höchste Berg des Landes. Der geographische Mittelpunkt des Landes liegt in Dortmund in der Aplerbecker Mark; bei Selfkant liegt der westlichste Punkt Nordrhein-Westfalens und gleichzeitig Deutschlands. Das Klima Nordrhein-Westfalens weist relativ ausgeglichene Temperatur- und Niederschlagsgänge auf. Die mittleren Jahrestemperaturen betragen abhängig von der Höhenlage zwischen 5 °C und 10 °C. Die jährlichen Niederschläge liegen zwischen 600 Millimeter im Tiefland und 1400 Millimeter in den Mittelgebirgen. Geschichte. Kraft Besatzungsrechts gründete die Besatzungsmacht Großbritannien das Land Nordrhein-Westfalen im Jahr 1946 aus dem Nordteil der preußischen Rheinprovinz (Provinz Nordrhein) sowie der ebenfalls preußischen Provinz Westfalen. Nach der Eingliederung des jahrhundertelang selbstständigen Landes Lippe im Jahr 1947 war der heutige territoriale Zuschnitt erreicht. Auf seinem Staatsgebiet ist Nordrhein-Westfalen in die Rechtsnachfolge des Freistaats Preußen und des Landes Lippe eingetreten. Im Gegensatz zu einigen anderen deutschen Ländern gab es für Nordrhein-Westfalen als Ganzes keinen stark identitätsstiftenden Vorgängerstaat. Bei der Staatsgründung Nordrhein-Westfalens stand auch nicht der Gedanke einer Zusammenführung homogener Gebiete, sondern der Wunsch der britischen Regierung im Vordergrund, das Ruhrgebiet und seine bedeutenden industriellen Ressourcen als Ganzes in ein Land einzubetten. 1949 gründete Nordrhein-Westfalen gemeinsam mit anderen Ländern die Bundesrepublik Deutschland. Größte Herausforderungen in der Nachkriegszeit waren der Wiederaufbau des kriegszerstörten Landes und der Aufbau eines demokratischen Staatswesens. Insbesondere als Folge des Niedergangs der Montanindustrie in Folge von Kohle- und Stahlkrisen sowie des Trends zur Tertiarisierung entwickelte sich die Gestaltung des notwendigen Strukturwandels zu einem zentralen Thema der Landespolitik. Zwischen 1969 und 1975 kam es zu einer kommunalen Gebietsreform, wodurch die Anzahl der Kreisfreien Städte, Kreisangehörigen Gemeinden und Kreise verringert wurde. Die Anzahl der Regierungsbezirke wurde von 6 auf 5 Bezirke verringert. Der ehemalige Regierungsbezirk Aachen wurde mit dem Regierungsbezirk Köln zum neuen Regierungsbezirk Köln zusammengelegt. Die nordrhein-westfälische Stadt Bonn war von 1949 bis 1990 Hauptstadt, noch bis 1999 Regierungssitz der Bundesrepublik Deutschland und beherbergt auch heute noch zahlreiche Bundesbehörden. Politik und Verwaltung. Nordrhein-Westfalen ist gemäß dem Grundgesetz für die Bundesrepublik Deutschland und der Verfassung für das Land Nordrhein-Westfalen ein Land der Bundesrepublik Deutschland. Gemäß seiner Verfassung ist das Land nach den Grundsätzen eines republikanischen, sozialen und demokratischen Rechtsstaats organisiert. Die Legislative liegt maßgeblich beim vom Wahlvolk für die Dauer von fünf Jahren gewählten Landtag. Elemente direkter Demokratie spielen in der Praxis kaum eine Rolle. Seit 2010 tragen SPD und Grüne die Landesregierung. Die Exekutive, welche parlamentsgebunden ist, wird vom Ministerpräsidenten geleitet – zurzeit Hannelore Kraft (SPD). Die Landesverwaltung ist der Landesregierung nachgeordnet. Die Bezirksregierungen für die Regierungsbezirke Düsseldorf, Köln, Münster, Detmold und Arnsberg sind eine mittlere Ebene der Landesverwaltung. Die Landesverfassungsgerichtsbarkeit liegt beim Verfassungsgerichtshof für das Land Nordrhein-Westfalen. Aufgrund seiner Teilsouveränität kann Nordrhein-Westfalen als beschränktes staatliches Völkerrechtssubjekt auf bestimmten Gebieten völkerrechtliche Verträge abschließen. Über den Bundesrat wirkt das Land an der bundesstaatlichen Gesetzgebung und an Angelegenheiten der Europäischen Union mit. Bonn ist als Bundesstadt Sitz zahlreicher Einrichtungen des Bundes, außerdem Standort verschiedener Organisationen der Vereinten Nationen. Demografie. Das Land Nordrhein-Westfalen hat (Stand) Einwohner und ist damit das bevölkerungsreichste deutsche Land. Zugleich ist das Gebiet mit einer Bevölkerungsdichte von Einwohnern pro Quadratkilometer unter den Flächenländern das mit Abstand am dichtesten besiedelte Land. Die Bevölkerung ist dabei jedoch recht ungleich verteilt. Eher dünn besiedelt sind Ostwestfalen-Lippe, das Münsterland, das Tecklenburger Land sowie die eher bergigen Regionen im Süden des Landes. Die Metropolregion Rhein-Ruhr ist mit rund zehn Millionen Einwohnern eine der am dichtesten besiedelten und bevölkerungsreichsten Regionen Europas. Folgende Tabelle zeigt die Bevölkerungsentwicklung des Landes. 2006 beträgt der Anteil der Über-65-Jährigen rund 19,7 Prozent (1950: 8,8 Prozent). Der Anteil der Unter-15-Jährigen beträgt 2006 noch 14,7 Prozent (1950: 22,6 Prozent). 2006 gab es im Land rund 8,5 Millionen Haushalte. Die durchschnittliche Haushaltsgröße beträgt demnach 2,12 Personen. In 37 Prozent dieser Haushalte wohnt allerdings nur eine Person. Noch 1950 betrug die durchschnittliche Haushaltsgröße über 3 Personen. Der Anteil der Einpersonenhaushalte betrug 1950 nur 16,9 Prozent. Der Anteil der Alleinstehenden ist noch höher als der Anteil der Einpersonenhaushalte. 2006 waren rund 39 Prozent der Bevölkerung alleinstehend. In einer „klassischen“ Paarbeziehung mit Kindern leben nur rund ein Viertel der Nordrhein-Westfalen. 2006 hatte Nordrhein-Westfalen mit 1,36 Kindern je Frau die dritthöchste Fertilitätsrate unter den Ländern Deutschlands. 2007 stieg dieser Wert auf 1,39. Jedoch gibt es starke regionale Unterschiede. Vergleichsweise hohe Werte von über 1,5 finden sich im Norden und Osten des Landes. Den Spitzenplatz nimmt der Kreis Lippe mit 1,61 (2007) ein. Niedrige Werte finden sich im Ruhrgebiet, z. B. Bochum mit 1,15 oder Dortmund mit 1,33. Den höchsten Wert im Ruhrgebiet hat Duisburg mit 1,45. Remscheid ist die kreisfreie Stadt in Nordrhein-Westfalen mit der höchsten Fertilitätsrate, 1,56. Sehr niedrige Werte weisen die Landeshauptstadt Düsseldorf mit 1,29 und die bevölkerungsreichste Stadt Köln mit 1,26 auf. Identifikation und kulturelle Identität. a> der politischen Parole „Egalité, Liberté, Fraternité“ – „Gleichheit, Freiheit, Brüderlichkeit“ gedeutet. a> ist das größte Kirchengebäude und eine der größten Touristenattraktionen Nordrhein-Westfalens. Nordrhein-Westfalen wird als ein „Bindestrich-Land“ bezeichnet, weil es unter dem maßgeblichen Einfluss der Besatzungsmacht Großbritannien in den Jahren 1946 und 1947 aus drei historisch unterschiedlichen Landesteilen gebildet wurde und seither noch keine besonders starke Identifikation mit dem Land entstanden ist. Kulturelle Überlegungen traten bei der Staatsgründung hinter wirtschaftlichen Überlegungen, das Ruhrgebiet als Ganzes einzubetten, zurück. Wirtschaftlich waren die Räume des Landes bereits früh, teilweise eng, miteinander verflochten. Die Bewohner der drei Landesteile Westfalen, Lippe und Rheinland haben seit 1946 durchaus eine gewisse Identifikation mit dem Land entwickelt. Besonders seit den 1980er Jahren war ein Durchbruch zu einer deutlichen Landesidentität zu beobachten. Allerdings tritt dieses Bewusstsein häufig noch gegenüber dem Bewusstsein einer Zugehörigkeit zu einem Landesteil Nordrhein-Westfalens zurück. Trennend wirken vor allem die historischen, kulturellen und sprachlichen Unterschiede zwischen dem Rheinland und Westfalen-Lippe. Große Teile von Westfalen-Lippe, vor allem im Norden und Osten, fühlen sich kulturräumlich und historisch den angrenzenden Regionen Niedersachsens verbunden. Aber auch innerhalb der anderen Regionen Nordrhein-Westfalens sind weitere ausgeprägte Regionalidentitäten vorhanden, die sich oftmals auf die in Mittelalter und Neuzeit gebildeten Territorien, ihre Herrscherhäuser und die damit einhergehenden konfessionellen Bindungen zurückführen lassen. Die heute 568,9 km lange rheinisch-westfälische Binnengrenze zwischen den ehemaligen preußischen Provinzen innerhalb des heutigen Landes wird über die preußische Zeit hinweg als uralte Kulturgrenze angesehen, die sich bis auf die fränkisch-sächsische Stammesgrenze des 8. Jahrhunderts zurückverfolgen lässt. Das für so ein kleines Gebiet bemerkenswert ausgeprägte Regionalbewusstsein der Lipper speist sich vor allem aus seiner langen Eigenständigkeit, denn kulturräumlich ist das Lipperland kaum vom restlichen Westfalen, insbesondere dem angrenzenden Minden-Ravensberg abzugrenzen. Die Identität der Rheinländer greift in ihrem Vorstellungsraum ebenfalls über die Grenzen Nordrhein-Westfalens hinaus und bezieht sich entlang des Rheins meist auf einen historischen Kulturraum, der in etwa der ehemaligen Rheinprovinz entspricht, also auch Teile des heutigen Rheinland-Pfalz und Randgebiete Ostbelgiens einbezieht (→ "Rheinlande"). Kennzeichnend für das Selbstbild der Rheinländer ist ferner ihr Bewusstsein für die Verflechtung mit und die Nachbarschaft zu Westeuropa. Im 19. Jahrhundert pflegten viele Bewohner des späteren Nordrhein-Westfalen als „Musspreußen“ weitgehend ein eher distanziertes Verhältnis zu Preußen. Zum Ausdruck kam dies etwa im Köln-Düsseldorfer Verbrüderungsfest im Sommer des Jahres 1843, als rheinische Bürger sich für die Beibehaltung ihres Rheinischen Rechts engagierten. Die Kluft vergrößerte sich für viele durch das Scheitern der Märzrevolution und durch den Kulturkampf, die repressiven Maßnahmen gegen die Bindung vieler Rheinländer und Westfalen an die römisch-katholische Kirche und an den Ultramontanismus. Durch die Gegensätze des im „fernen Berlin“ zentral gesteuerten Staats wurde die rheinische und westfälische Identitätsentwicklung gefördert. Großen Einfluss hatte ferner, dass Preußen die Rheinländer, die bis dahin auf verschiedene Herrschaftsgebiete verteilt gewesen waren, nicht nur in der Rheinprovinz vereinigte, sondern auch die für das rheinische Selbstbild prägende Rheinromantik förderte, vor allem im Bereich Mittelrhein. Entsprechendes lässt sich über die Westfalen sagen, die ebenfalls im 19. Jahrhundert durch Preußen in der Provinz Westfalen vereinigt wurden. Bei den Landesbewohnern mit ausländischer Migrationsgeschichte, deren Anteil gerade in den verstädterten und industrialisierten Regionen nicht gering ist, kommt als identitätsbildender Faktor zur Geltung, dass ihre Kultur und Identität durch die Lebenswelt ihrer unterschiedlichen Herkunftskulturen mitgeprägt wird, etwa bei sogenannten "Ruhrpolen", Aussiedlern und Spätaussiedlern, Türkeistämmigen und ihren Nachfahren. Nicht gering ist zudem der Anteil jener Landesbewohner, die aus anderen Bundesländern oder als sogenannte "Heimatvertriebene" zugezogen sind und so eine in anderen deutschen oder vormals deutschen Landstrichen vorgeprägte Identität „mitgebracht“ haben. Das Merkmal der Mischung und Aufnahme verschiedener Menschen, Kulturen und Traditionen im Rheinland hatte den Schriftsteller Carl Zuckmayer 1946 – also schon lange vor der Arbeitsmigration der sogenannten "Gastarbeiter" – zu seiner Metapher vom Rhein als der „Völkermühle Europas“ geführt. Die alten Gegensätze zwischen den Landesteilen verblassen nur langsam. Die beiden Landschaftsverbände für Westfalen-Lippe und das Rheinland sind mit der regionalen Kulturpflege beauftragt und institutionalisieren gewissermaßen so die kulturräumliche Trennung des Landes. Mit Ostwestfalen-Lippe und insbesondere dem industriekulturell geprägten Ruhrgebiet sind aber mittlerweile auch landesteilübergreifende und neue identitätsstiftende Regionen entstanden. Durch den Prozess der europäischen Integration hat sich außerdem als eine weitere Identitätsebene – oberhalb des vorherrschenden Selbstbildes der Nordrhein-Westfalen als Deutsche – eine europäische Identität stärker ausgeprägt. Über 60 Jahre nach der Gründung Nordrhein-Westfalens ist insgesamt festzustellen, dass das Landesbewusstsein, gefördert durch Veröffentlichungen, Veranstaltungen (z. B. durch den Nordrhein-Westfalen-Tag), Auszeichnungen, Hoheitszeichen und Staatssymbole, Museen mit landesspezifischen Themen, den Bau und die Präsenz repräsentativer staatlicher Gebäude sowie durch Institutionen wie z. B. den Westdeutschen Rundfunk, sich entwickelt und dass die Identität der Landesbewohner sich räumlich zunehmend an den Landesgrenzen orientiert. In unterschiedlicher Weise und Intensität haben die jeweiligen Ministerpräsidenten und Landesregierungen die nordrhein-westfälische Identität der Landesbewohner zu fördern und zu nutzen versucht, etwa Franz Meyers (Gründung der Kunstsammlung Nordrhein-Westfalen), Johannes Rau (Wahlslogan "Wir in NRW", später Name eines Blogs) und Jürgen Rüttgers (Slogan "Wir im Westen", später Stiftung des Nordrhein-Westfalen-Tages). Von einem besonders starken allgemeinen Landesbewusstsein ist gleichwohl noch nicht zu sprechen. Religions- und Weltanschauungsgemeinschaften. Größte religiöse Gruppe sind die römisch-katholischen Christen mit rund 40 Prozent der Gesamtbevölkerung. Zweitgrößte Gruppe sind evangelische Gläubige (rund 30 Prozent). Der Anteil der Konfessionslosen beträgt rund 25 Prozent. Die größte nichtchristliche Bevölkerungsgruppe mit einem religiösen Bekenntnis bilden Muslime, die überwiegend der sunnitischen Glaubensrichtung des Islam angehören. Die Landesverfassung erkennt den Kirchen eine besondere gesellschaftliche Rolle zu, insbesondere in Bereichen des Bildungswesens, und garantiert das Recht auf freie Ausübung einer Religion. Dialekte und Sprachen. Die Dialekte und Sprachen in Nordrhein-Westfalen variieren wegen der kulturräumlichen Uneinheitlichkeit des Landesgebiets. Geprägt werden sie auch durch die sprachräumliche Herkunft zugezogener Bewohner; hierfür ist das Ruhrdeutsch ein Beispiel. Umgangs- und Amtssprache ist Deutsch; die niederdeutsche Sprache wurde weitgehend verdrängt. Historisch bedingt finden sich im rheinischen Landesteil fränkische Dialekte, in Westfalen-Lippe westfälische Dialekte. Durch Immigration und durch den Sprachunterricht an den Schulen hat sich die Mehrsprachigkeit der Bewohner im Laufe der letzten Jahrzehnte beträchtlich erhöht. Persönlichkeiten. Nordrhein-Westfalen bzw. das Gebiet des heutigen Landes hat zahlreiche bedeutende Persönlichkeiten hervorgebracht. Mit an der Spitze internationaler Bekanntheit dürften der Komponist Ludwig van Beethoven, der Maler Peter Paul Rubens und der Rennfahrer Michael Schumacher stehen. Allein vier Bundespräsidenten wurden im späteren Nordrhein-Westfalen geboren: Gustav Heinemann, Heinrich Lübke, Johannes Rau, Walter Scheel. Mit Konrad Adenauer und Gerhard Schröder stammen auch zwei Bundeskanzler aus Nordrhein-Westfalen. Bekannte weitere Persönlichkeiten sind Otto III., Friedrich Engels, Joseph Beuys, Heinrich Böll, Annette von Droste-Hülshoff, Heinrich Heine, Wilhelm Conrad Röntgen und Alfred Krupp. Bildung und Forschung. a>, Sitz und Wahrzeichen der Westfälischen Wilhelms-Universität Das nordrhein-westfälische Schulsystem sieht nach einer vierjährigen Regelzeit auf der Grundschule den Besuch einer der weiterführenden Schulformen Hauptschule, Realschule, Gymnasium, Gesamtschule oder Sekundarschule vor. Höchste schulische Abschlussprüfung ist die Allgemeine Hochschulreife, die nach achtjähriger Regelschulzeit auf einer weiterführenden Schule als Zentralabitur abgelegt wird. Noch in den 1950er Jahren gab es in Nordrhein-Westfalen nur wenige Hochschulen oder vergleichbare Bildungseinrichtungen. Traditionsreiche Universitäten bestanden mit der Westfälischen Wilhelms-Universität in Münster, der Rheinisch-Westfälischen Technischen Hochschule Aachen, der Universität zu Köln und der Rheinischen Friedrich-Wilhelms-Universität in Bonn. Seit den 1960er Jahren wurden vermehrt neue Hochschulen gegründet. An den nordrhein-westfälischen Hochschulen sind im Wintersemester 2014/2015 mehr als 700.000 Studenten eingeschrieben. Die Universitäten Bochum, Duisburg-Essen, Hagen, Köln und Münster sind die größten Universitäten des Landes und gehören zu den zehn größten Universitäten in Deutschland. Insgesamt hat das Land (Stand 2015) inklusive der Fachhochschulen 30 öffentliche Hochschulen, sieben staatliche Kunst- und Musikhochschulen, 30 anerkannte private und kirchliche Hochschulen sowie fünf Fachhochschulen, die nicht der Dienst- und Fachaufsicht des Landes unterliegen. Neben den sonstigen Einrichtungen der Helmholtz-Gemeinschaft, der Max-Planck-Gesellschaft und der Fraunhofer-Gesellschaft ist vor allem das Forschungszentrum Jülich als eine der größten Forschungseinrichtungen Europas bekannt. Die NRW Graduate Schools sind Einrichtungen der Spitzenforschung innerhalb der bestehenden Universitäten. Wirtschaft und Verkehr. a> in Duisburg; ThyssenKrupp ist das größte der verbliebenen Unternehmen aus der Montanindustrie Wirtschaft. "Land von Kohle und Stahl" war in den 1950er und 1960er Jahren eine durchaus treffende Selbst- und Fremdbeschreibung für Nordrhein-Westfalen. Der montanindustriell geprägte Raum an Rhein und Ruhr war eine der wichtigsten Industrieregionen Europas und trug zum Wiederaufbau und zum Wirtschaftswunder nicht nur im Land, sondern in der gesamten Bundesrepublik entscheidend bei. Seine Zukunft war nach dem Zweiten Weltkrieg aufgrund der Ruhrfrage zunächst international politisch umstritten gewesen. Über das Ruhrstatut und den Schuman-Plan wurde ab Ende der 1940er Jahre der Weg hin zu einer europäischen Vergemeinschaftung des Montansektors in Gestalt der Europäischen Gemeinschaft für Kohle und Stahl beschritten. Spätestens seit den 1960er Jahren machte sich die starke Ausrichtung des Ruhrgebiets auf die Montanindustrie dann als Monostruktur negativ bemerkbar. Immer wiederkehrende Stahl- und Kohlekrisen, die sich aufgrund von weltwirtschaftlichen Veränderungen ereigneten, ließen den montanindustriellen Sektor immer mehr zusammenschmelzen. Dagegen erlebten im produzierenden Sektor die Unternehmen jenseits des Ruhrgebiets, insbesondere im Maschinenbau sowie in der metall- und eisenverarbeitenden Industrie, einen erheblichen Aufschwung. Der Strukturwandel fiel in Nordrhein-Westfalen regional sehr unterschiedlich aus. Während immer noch Teile des alten Reviers hohe Arbeitslosenzahlen aufweisen, hat sich ein Strukturwandel von der überwiegend industriell geprägten Gesellschaft zur Wissensgesellschaft vollzogen. Trotz der Strukturprobleme und des jahrelangen unterdurchschnittlichen Wirtschaftswachstums war das Land mit einem BIP von 624,7 Milliarden Euro im Jahr 2014 das wirtschaftsstärkste Land Deutschlands und eines der wichtigsten Wirtschaftszentren der Welt. Das Land erwirtschaftete 2014 rund 21,5 Prozent der deutschen Wirtschaftsleistung. Bei der Betrachtung des Bruttoinlandsprodukts pro Einwohner liegt Nordrhein-Westfalen im Mittelfeld der Länder Westdeutschlands. Die Arbeitslosenquote beträgt. Dieser Wert liegt über der bundesdeutschen und deutlich über der westdeutschen Arbeitslosenquote. Die nordrhein-westfälische Arbeitslosenquote ist die höchste aller westdeutschen Flächenländer. Nach Erhebungen des amerikanischen Wirtschaftsmagazins Fortune haben vier der hundert umsatzstärksten Unternehmen der Welt ihren Sitz in Nordrhein-Westfalen. Einer Erhebung des Wirtschaftsblattes zufolge waren 2009 in Nordrhein-Westfalen die zehn umsatzstärksten Unternehmen E.ON (Versorger), Metro (Einzelhandel), Deutsche Telekom (Telekommunikation), Aldi Nord und Aldi Süd (Einzelhandel), Rewe (Einzelhandel), RWE (Versorger), Deutsche Post AG (Logistik und Transport), ThyssenKrupp (Maschinen- und Anlagenbau), Deutsche BP (Versorger) und die Bayer AG (Pharma und Chemie). Deutschlandweit kann das Land mit rund 135 Milliarden € (rund 29 Prozent aller Direktinvestitionen in Deutschland, beide Stand Ende 2009) die höchsten ausländischen Direktinvestitionen aller deutschen Länder verbuchen. Verkehr. Einhergehend mit der zentralen Lage im wichtigsten europäischen Wirtschaftsraum, der hohen Bevölkerungsdichte, der starken Urbanisierung und der zahlreichen Wirtschaftsstandorte weist Nordrhein-Westfalen eines der dichtesten Verkehrsnetze weltweit auf. Der Bahnhof Köln Eifeltor ist Deutschlands größter Containerumschlagbahnhof für den Straße. Im Güterverkehr zählt der Bahnhof Hagen-Vorhalle zu den größten Rangierbahnhöfen Deutschlands. Der Duisburger Hafen gilt als Verkehrsdrehscheibe der deutschen Binnenschifffahrt. Bedeutendste Binnenwasserstraße in Nordrhein-Westfalen ist der Rhein. Die Ruhr spielt als Transportweg für die Montanindustrie des nach ihr benannten Ruhrgebiets eine wichtige Rolle. Die beiden wichtigsten Drehkreuze im internationalen Flugverkehr sind die Flughäfen Düsseldorf (drittgrößter deutscher Flughafen nach Passagierzahlen) und Bonn (drittgrößter deutscher Flughafen nach Frachtaufkommen). Kunst- und Kulturlandschaft. Die Förderung von Kunst und Kultur in Nordrhein-Westfalen ist in der Landesverfassung als ein Staatsziel festgeschrieben. Nordrhein-Westfalen unterstützt eine Vielzahl an künstlerischen und kulturellen Projekten und Institutionen, fast ausschließlich im Lande, auf Bundesebene die Stiftung Preußischer Kulturbesitz, die Kulturstiftung der Länder, die Kunst- und Ausstellungshalle der Bundesrepublik Deutschland sowie das Goethe-Institut. Alleine durch die bloße Einwohnerzahl des Landes leben im Land zahlreiche Kulturschaffende, nach einer Schätzung etwa 30.000 Künstler. Eine bedeutende Rolle bei der nationalen und internationalen Förderung des Films und der Medien spielt die Film- und Medienstiftung Nordrhein-Westfalen. Vergleichbares leistet die Kunststiftung NRW für den Bereich Kunst und Kultur. Kennzeichnend für die Kunst- und Kulturszene Nordrhein-Westfalens ist ihre Vielfältigkeit und ihr Polyzentrismus. Gründe dafür liegen unter anderem in den ausgeprägten regionalen Unterschieden des Landes in kulturräumlicher Sicht, deren auffälligste Kulturgrenze zwischen Westfalen-Lippe und dem Rheinland verläuft, und in der Landesgeschichte, die das Entstehen einer auch in kultureller Hinsicht dominierenden Metropole oder Residenzstadt nicht ermöglichte. Bedeutende Kultureinrichtungen finden sich daher über das Land verteilt. Impulse für die Kultur- und Kunstentwicklungen im heutigen Land gingen nur selten „von oben aus“. Besonders die Arbeiterkultur im Ruhrgebiet ist dafür ein Beispiel. Die Arbeiterkultur bildete eine der Wurzeln für den Wandel des Ruhrgebiets von einer industriell dominierten Region hin zu einer „Kulturmetropole“, die – wie andere Industrieregionen Nordrhein-Westfalens – ihre Industriekultur weiter als wichtigen Bestandteil ihrer kulturellen Identität sieht. 2010 war das Ruhrgebiet Kulturhauptstadt Europas. Mit der "Art Cologne" ist in Nordrhein-Westfalen die größte Kunstmesse Deutschlands und die älteste der Welt beheimatet. Weitere bekannte Kunstmessen sind die "Große Kunstausstellung NRW Düsseldorf" und der "Rundgang" der Kunstakademie Düsseldorf. Düsseldorf und Köln sind bekannt als Zentren der Kunst und des Kunsthandels sowie Standorte bedeutender Kunstsammlungen und Ausstellungshäuser, darunter in Düsseldorf die Kunstsammlung Nordrhein-Westfalen, die Kunsthalle Düsseldorf, das Museum Kunstpalast und das NRW-Forum, in Köln die Gemäldegalerie Wallraf-Richartz-Museum & Fondation Corboud sowie das Museum Ludwig. In Dortmund befindet sich das Museum Ostwall. Essen ist Standort des Museums Folkwang und in Münster befindet sich das LWL-Museum für Kunst und Kultur. Auf der Museumsmeile in Bonn befinden sich mit dem Kunstmuseum Bonn und der Kunst- und Ausstellungshalle der Bundesrepublik Deutschland zwei der bedeutendsten Kunstmuseen des Landes. Zu den bedeutendsten Theaterbühnen Deutschlands zählen das Schauspielhaus Bochum und das Schauspiel Köln. Die bekanntesten Opernhäuser sind die Oper Köln, das Opernhaus Dortmund, das Aalto-Theater in Essen sowie die Deutsche Oper am Rhein in Düsseldorf und Duisburg. Das Theater Dortmund stellt eines der großen Dreispartenhäuser in Deutschland dar. Das Konzerthaus Dortmund, die Tonhalle Düsseldorf, die Philharmonie Essen und die Kölner Philharmonie sind die bekanntesten Konzerthallen des Landes. Bekannteste Kunsthochschulen sind die Kunstakademie Düsseldorf, die Hochschule für Musik Detmold und die Folkwang Universität der Künste. Architektur. Die größte Touristenattraktion des Landes und zugleich der Bundesrepublik ist der Kölner Dom mit rund sechs Millionen Besuchern jährlich. Neben dem Kölner Dom zählen auch der Aachener Dom und die Schlösser Augustusburg und Falkenlust, seit 2001 die Zeche und Kokerei Zollverein sowie seit 2014 auch das Kloster Corvey zu den UNESCO-Welterbestätten des Landes. Die Zeche ist das herausragendste Beispiel zahlreicher Industriedenkmäler in den Städten an Rhein und Ruhr, deren historische Innenstadtbereiche dagegen im Zweiten Weltkrieg oder bereits während der Industrialisierung vielfach zerstört wurden. Als Staat drückt sich Nordrhein-Westfalen durch eine Vielzahl staatlicher Bauten aus, insbesondere durch den Landtag Nordrhein-Westfalen und die Gebäude der Landesregierung im Regierungsviertel von Düsseldorf. Ludwig Mies van der Rohe ist der weltweit wohl bekannteste Architekt aus dem Gebiet des heutigen Nordrhein-Westfalens. Natur. a> in Ostwestfalen-Lippe ist die bedeutendste zusammenhängende Heidelandschaft Die Natur in Nordrhein-Westfalen ist typisch für den mitteleuropäischen Naturraum. Verbreitet sind in Nordrhein-Westfalen vor allem Arten, die an ausgeräumte Kulturlandschaften oder waldige Mittelgebirgslandschaften angepasst sind. Die ursprüngliche artenreiche Flora und Fauna ist jedoch aufgrund der hohen Siedlungsdichte, der großen Industriezentren des Landes, des Bergbaus, der fast flächendeckenden landwirtschaftlichen und forstwirtschaftlichen Nutzung sowie der fast völligen verkehrstechnischen Erschließung wie in kaum einer anderen Region Europas bedroht. Der Strukturwandel im Ruhrgebiet und Umweltschutzmaßnahmen führten insgesamt zu einer starken Verbesserung der Luft- und Wasserqualität in der Region Rhein-Ruhr. Nordrhein-Westfalen ist etwa zu 25 Prozent bewaldet. Für den Naturschutz und die Naherholung für die Bewohner der dichtbesiedelten Region Rhein-Ruhr weisen daher vor allem die bewaldeten Mittelgebirgsregionen des Landes eine bedeutende Rolle auf. Nordrhein-Westfalen hat Anteil an 14 Naturparks. Der größte dieser Parks ist der Eggegebirge in Ostwestfalen-Lippe. Mit dem Nationalpark Eifel besitzt das Land seit 2004 einen Nationalpark. Tourismus. Insbesondere die südlichen und östlichen Mittelgebirgsregionen sind Tourismusregionen. Wenngleich Nordrhein-Westfalen im nationalen oder europäischen Maßstab kein herausragendes Reiseland ist, sind diese Regionen dennoch Ziel vor allem für Erholung suchende Kurzurlauber aus den großen Ballungsräumen des Landes. Die großen Städte des Landes werben Touristen vor allem mit den oben beschriebenen kulturellen Einrichtungen. Düsseldorf ist Reiseziel japanischer, amerikanischer und britischer Touristen und zieht auch wohlhabende Einzelhandelskunden aus Russland und den arabischen Staaten sowie Kunden aus dem benachbarten Ausland an, vor allem aus den Niederlanden, aus Belgien und Luxemburg. Kulinarisches. In Bezug auf die nordrhein-westfälische Küche ist wieder die Zweiteilung in einen rheinischen und westfälisch-lippischen Teil zu erkennen. Zu der Rheinischen Küche zählen auch die Küchen des Niederrheins und des Bergischen Landes. Die Westfälische Küche und die hierzu zählende Lippische Küche sind im weiteren Sinne ein Teil der norddeutschen Küche. Die Westfälische Küche ist vor allem deftig, ein Beispiel ist Westfälischer Schinken auf Pumpernickel. Auch andere Fleisch-, Wurst- und Brotspezialitäten spielen dort eine große Rolle. Die Rheinische Küche ist ebenfalls bodenständig, erscheint im Vergleich zur Westfälischen Küche aber etwas raffinierter. Ein bekanntes Beispiel für Rheinische Küche ist der Rheinische Sauerbraten. Im Südwesten des Landes am Rhein wird Wein im Weinbaugebiet Mittelrhein (Großlage Petersberg) angebaut. Ansonsten ist Nordrhein-Westfalen ein „Bierland“. Neben dem vor allem in Westfalen verbreiteten Pils gibt es mit Altbier und Kölsch zwei obergärige Biersorten, die vor allem im Rheinland verbreitet sind. Sport. a> das größte vollüberdachte Stadion Deutschlands Der Sport in Nordrhein-Westfalen wird vor allem durch den Fußball geprägt. Nicht nur alleine durch seine Größe und Bevölkerungsdichte zu erklären, weist die Region Rhein-Ruhr eine besonders hohe Dichte erfolgreicher Fußballvereine auf. Zur Tradition der Bergarbeiter im Revier zählte immer auch der Fußball. In der Fußball-Bundesliga ist Nordrhein-Westfalen gemessen an der Einwohnerzahl meist überrepräsentiert. Bundesliga-Vereine sind zurzeit Borussia Dortmund, Borussia Mönchengladbach, der FC Schalke 04, der 1. FC Köln und Bayer 04 Leverkusen. Das größte Fußballstadion Deutschlands ist mit über 80.000 Plätzen der Signal Iduna Park (ehemaliges Westfalenstadion) in Dortmund. Neben dem Fußball werden in Nordrhein-Westfalen aber auch viele andere Sportarten betrieben. Besonders viele Zuschauer ziehen dabei Handball, Eishockey und Basketball an. Feiertage. Neben den bundesweit gültigen Feiertagen Neujahr, Karfreitag, Ostern, Tag der Arbeit, Christi Himmelfahrt, Pfingsten, Tag der Deutschen Einheit und Weihnachten sind in Nordrhein-Westfalen Fronleichnam und Allerheiligen gesetzliche Feiertage. Der Landtag hat am 24. Juni 2015 beschlossen, dass am 31. Oktober 2017 einmalig der Reformationstag als Feiertag begangen wird. Nouvelle Vague. Nouvelle Vague (für "Neue Welle") ist eine Stilrichtung des französischen Kinos, die in zwei Phasen verlief. Die erste, weniger beachtete fand bereits 1918 ihren Anfang und wurde maßgeblich von Marcel D'Herbier geprägt. Ihre Fortsetzung fand die Nouvelle Vague dann in ihrer bedeutenderen Phase in den späten 1950er Jahren. Die Anfänge. Nach dem Ersten Weltkrieg formte sich in der Stummfilmzeit eine eher inhomogene avantgardistische Szene, deren berühmteste Vertreter Abel Gance, René Clair sowie Jean Cocteau waren. Die Entwicklung wurde nachhaltig durch den Zweiten Weltkrieg unterbrochen. Ende der 1950er Jahre entstand dann in Frankreich eine Bewegung unter jungen Cinéasten und den Pionieren der ersten Welle, die sich gegen die eingefahrene Bildsprache und den vorhersagbaren Erzählfluss des etablierten kommerziellen Kinos wandte. Sie griffen die Ideen und Vorstellungen der Vertreter dieser ersten Welle auf. Bekannte Regisseure der Nouvelle Vague wurden später Autoren der Les Cahiers du cinéma. In ihren Artikeln stellten sie sich gegen die Verbiederung und die Vorhersehbarkeit des französischen Qualitätskinos ("cinéma de qualité") und propagierten vor allem Filme von Regisseuren wie Alfred Hitchcock, Howard Hawks, Jean Renoir und Roberto Rossellini. 1954 veröffentlichte François Truffaut den Artikel "Eine gewisse Tendenz im französischen Film" ("Une certaine tendance du cinéma français"). Dieser Text gilt als erste eigene theoretische Grundlage der Nouvelle Vague und wendet sich vor allem gegen jene Drehbuchschreiber, die uninspiriert Romanvorlagen adaptieren, ohne selbst einen Bezug zum Kino zu haben. Die Forderung: "Männer des Kinos" sollten Kino machen und sich nicht von Schriftstellern vorschreiben lassen, was verfilmbar ist und was nicht. Politik der Autoren. Begründet auf den Schriften Alexandre Astrucs und unter Federführung von André Bazin, dem Chefredakteur und einem der Gründer der Cahiers, entwickelten sie die Politik der Autoren ("politique des auteurs"). Diese Politik forderte vom Regisseur, sich an allen Schritten der Filmproduktion zu beteiligen, um so einen eigenen persönlichen Stil entwickeln zu können. Mit dieser charakteristischen Handschrift des Regisseurs sollten die Filme persönlicher und individueller werden und aus dem Schattendasein der Literatur treten. Dabei werde nicht der einzelne Film eines Regisseurs bewertet, sondern immer sein Gesamtwerk. Was zähle, sei das Verhältnis eines Autors zu seinem Film, was sich in der Art seiner Umsetzung ausdrücke. Er unterscheide sich vom Regisseur ("réalisateur"), der stets nur die vom Drehbuchschreiber vorgeschriebene Geschichte umsetze. Autor ("auteur") sei daher, wer Beobachtetes "wieder"erschafft ("récréer"). Er könne insofern einem fremden Stoff durch Bearbeitung und Transzendierung seinen persönlichen Stempel aufdrücken. Die Politik der Autoren soll aber nicht mit dem Autorenfilm in Deutschland verwechselt werden. Auch eine Übersetzung mit "Auteur-Theorie" sei falsch, da sie die mit ihr verbundenen Forderungen an die Regisseure unterschlägt. Michel Marie begreift die Nouvelle Vague als eine Kunst-Schule ("école artistique"). Die Politik der Autoren könne in diesem Sinne als ästhetisches Programm verstanden werden, wonach der Autor seine Weltanschauung ("vision du monde") dem Film einschreibt. Der feste Korpus von Debütfilmen, die sich auf ein gemeinsames Programm beziehen und als Nouvelle Vague wahrgenommen werden, spricht ebenfalls dafür, von einer Schule zu sprechen. Ein fester Gruppenzusammenhang wird durch die publizistische Unterstützung der Filmzeitschriften ("Cahiers du cinéma") gefördert und vor allem - Michel Marie betont dies ausdrücklich - existieren gemeinsame Feinde: die Autoren der Rive Gauche, versammelt um die wesentlich politisiertere Filmzeitschrift Positif. Impulsgeber und Vorläufer der Nouvelle Vague sind im italienischen Neorealismus, in Dokumentarfilmen von Regisseuren wie Jean Rouch und in den US-amerikanischen B-Movies zu suchen. Ästhetik. Durch die Entwicklung neuer leichterer Kameras und lichtempfindlicheren Filmmaterials war es den Filmemachern erstmals möglich, ohne künstliches Licht zu drehen und außerhalb der Filmstudios mit der Handkamera zu arbeiten. Die Fotografie des Kameramanns Raoul Coutard war dabei prägend für die visuelle Ästhetik. Die Regisseure engagierten vor allem junge unbekannte Schauspieler und weniger die etablierten Filmstars. Musik spielte eine wichtige Rolle in den Filmen, ebenso waren neue Filmtechniken und außergewöhnliche Erzählstile charakteristisch. Es entstand der Essayfilm. Die beste Zeit der Nouvelle Vague dauerte bis Mitte der 1960er Jahre. Die entwickelten Effekte und Erzähltechniken werden noch heute, auch in kommerziellen Filmen und der Werbung, verwendet. Natrium. Natrium ist ein häufig vorkommendes chemisches Element mit dem Symbol Na und der Ordnungszahl 11. Im Periodensystem der Elemente steht es in der 3. Periode und als Alkalimetall in der 1. IUPAC-Gruppe bzw. 1. Hauptgruppe. Natrium ist ein Reinelement, dessen einziges stabiles Isotop 23Na ist. Elementares Natrium wurde erstmals 1807 von Humphry Davy durch Schmelzflusselektrolyse aus Natriumhydroxid gewonnen und Sodium genannt. Diese Bezeichnung wird u. a. im englischen und französischen Sprachraum verwendet, Ableitungen hiervon in den romanischen und zum Teil auch in slawischen Sprachen. Der deutsche Name „"Natrium"“ ist über das arabische "natrun", „Natron“, vom ägyptischen "netjerj" abgeleitet. "Natrium" und Ableitungen hiervon sind außer in der deutschen Sprache u. a. auch in Skandinavien, im Niederländischen und einigen slawischen Sprachen in Verwendung. Auch im Japanischen hat Natrium einen deutsch klingenden Namen, nämlich "Natoriumu". Unter Normalbedingungen ist Natrium ein wachsweiches, silberglänzendes und hochreaktives Metall. Wegen seiner starken Reaktivität wird metallisches (elementares) Natrium unter inerten Bedingungen gelagert, meistens in Paraffinöl oder Petroleum, bei größeren Mengen in luftdicht verschlossenen Stahlfässern. In der Erdhülle gehört Natrium zu den zehn häufigsten Elementen und kommt in zahlreichen Mineralen der Erdkruste vor. Auch in Meerwasser ist eine erhebliche Menge Natrium in Form von Natriumionen enthalten. Geschichte. Die Ägypter prägten in der Antike für das aus Sodaseen gewonnene "Soda" den Begriff "netjerj" ("neter"). Die Griechen übernahmen dieses Wort als griech. νίτρον "nitron", die Römer als "nitrium", die Araber als "natrun". Natriumverbindungen sind im Gegensatz zum elementaren Metall schon sehr lange bekannt und wurden seither aus Meerwasser oder Seen gewonnen, aus Erdlagerstätten abgebaut und gehandelt. Die wichtigste Natriumverbindung Kochsalz ("Natriumchlorid") wurde in Bergwerken oder durch Trocknen von Meerwasser oder salzhaltigem Quellwasser in Salinen gewonnen. Der Handel mit Salz war für viele Städte die Grundlage ihres Reichtums, und prägte teils sogar ihren Namen (Salzgitter, Salzburg). Auf den germanischen Namen für Saline (Hall) weisen Ortsnamen wie Hallstatt, Hallein, Halle (Saale), Bad Hall, Bad Reichenhall, Schwäbisch Hall, Schweizerhalle oder Hall in Tirol hin. Auch andere natürlich vorkommende Natriumverbindungen wie Natriumcarbonat ("Soda" oder "Natron") und Natronsalpeter wurden seit der Antike gewonnen und gehandelt. Die Herstellung von elementarem Natrium gelang erst im Jahre 1807 Humphry Davy durch Elektrolyse von geschmolzenem Natriumhydroxid ("Ätznatron") unter Verwendung von Voltaschen Säulen als Stromquelle. Wie er am 19. November 1807 vor der "Royal Society" in London berichtete, gewann er zwei verschiedene Metalle: Das in Soda enthaltene Natrium nannte er "Sodium", was die noch heute gebräuchliche Bezeichnung des Metalls im französischen und englischsprachigen Raum ist; das andere Metall nannte er "Potassium" (Kalium). Berzelius schlug 1811 den heutigen Namen "Natrium" vor. Vorkommen. Im Universum steht Natrium in der Häufigkeit an 14. Stelle, vergleichbar mit Calcium und Nickel. Im ausgestrahlten Licht vieler Himmelskörper, auch dem der Sonne, kann die gelbe Natrium-D-Linie gut nachgewiesen werden. Auf der Erde ist Natrium mit einem Anteil an der Erdkruste von 2,36 % das sechsthäufigste Element. Es kommt aufgrund seiner Reaktivität nicht elementar, sondern stets in Verbindungen, den Natrium-Salzen, vor. Ein großer Speicher von Natrium ist das Meerwasser. Ein Liter Meerwasser enthält durchschnittlich 11 Gramm Natriumionen. Häufige Natriumminerale sind Albit, auch Natronfeldspat genannt, NaAlSi3O8 und Oligoklas (Na,Ca)Al(Si,Al)3O8. Neben diesen gesteinsbildenden Mineralen, die zu den Feldspaten zählen, kommt Natrium in großen Salzlagerstätten vor. Es existieren vor allem große Lagerstätten an Halit (Natriumchlorid, umgangssprachlich häufig „Steinsalz“ genannt), die durch das Austrocknen von Meeresteilen entstanden sind. Diese stellen die wichtigste Quelle zur Gewinnung von Natrium und seinen Verbindungen dar. Bekannte deutsche Salzförderstätten sind unter anderem Salzgitter, Bad Reichenhall, Stade und Bad Friedrichshall. Neben Natriumchlorid kommen auch andere Natriumsalze in der Natur vor. So ist Natriumnitrat oder Natronsalpeter (auch Chilesalpeter genannt) NaNO3 eines der wenigen natürlichen Nitratminerale. Es kommt wegen seiner guten Wasserlöslichkeit aber nur in besonders trockenen Gegenden, wie der Atacamawüste in Chile vor. Vor Erfindung des Haber-Bosch-Verfahrens war dies der wichtigste Rohstoff für viele Düngemittel und Sprengstoffe. Natriumcarbonat Na2CO3 wird ebenfalls natürlich in mehreren Mineralen gefunden. Das bekannteste Mineral ist Soda Na2CO3 · 10 H2O. Es wird in großen Mengen abgebaut und vor allem in der Glasherstellung verwendet. Daneben existieren noch eine Vielzahl weiterer Natriummineralen (siehe auch:). Ein bekanntes ist der Kryolith ("Eisstein", Na3[AlF6]), der in geschmolzenem Zustand als Lösungsmittel für Aluminiumoxid bei der Aluminiumherstellung dient. Da das einzige bekannte Kryolith-Vorkommen in Grönland abgebaut ist, wird Kryolith heute künstlich hergestellt. Gewinnung und Darstellung. Natrium wird hauptsächlich aus Natriumchlorid gewonnen, welches meist bergmännisch oder durch Austrocknung salzhaltiger Lösungen wie dem Meerwasser erhalten wird. Nur ein kleiner Teil des Natriumchlorids wird zu elementarem Natrium weiterverarbeitet, der größte Teil wird als Speisesalz oder für die Herstellung anderer Natriumverbindungen verwendet. Die großtechnische Herstellung von Natrium erfolgt heute durch Schmelzflusselektrolyse von trockenem Natriumchlorid in einer sogenannten Downs-Zelle (1924 patentiert von James C. Downs). Zur Schmelzpunkterniedrigung wird ein eutektisches Salzgemisch aus 60 % Calciumchlorid und 40 % Natriumchlorid eingesetzt, das bei 580 °C schmilzt. Auch Bariumchlorid ist als Zusatz möglich. Es wird eine Spannung von etwa sieben Volt angelegt. Für die Herstellung von einem Kilogramm Natrium werden während der Elektrolyse etwa 10 kWh Strom verbraucht, im gesamten Produktionsprozess etwa 12 kWh. Die zylindrische Elektrolysezelle besteht aus einer mittigen Graphitanode und einem seitlichen Kathodenring aus Eisen. Oberhalb der Zelle ist eine Glocke, die das entstandene Chlor sammelt und abführt. Das Natrium sammelt sich oberhalb der Kathoden und wird durch ein gekühltes Steigrohr aus der Zelle entfernt. Ebenfalls entstandenes Calcium kristallisiert dort aus und fällt in die Schmelze zurück. Die Elektrolyse von Natriumchlorid löste das "Castner-Verfahren" ab. Dabei wurde das Natrium durch Schmelzflusselektrolyse von Natriumhydroxid gewonnen. Dieses hatte zwar den Vorteil des geringeren Schmelzpunktes von Natriumhydroxid (318 °C), es wird aber mehr elektrische Energie benötigt. Seit Einführung der Chlor-Alkali-Schmelzflusselektrolyse hat sich der Preis für Natrium drastisch verringert. Damit ist Natrium volumenbezogen das preiswerteste Leichtmetall überhaupt. Der Preis hängt allerdings stark von den Stromkosten und dem Preis für das ebenfalls entstehende Chlor ab. Physikalische Eigenschaften. Kristallstruktur von Natrium, "a" = 429 pm Natrium ist ein silberweißes, weiches Leichtmetall. In vielen Eigenschaften steht es zwischen Lithium und Kalium. So liegt der Schmelzpunkt mit 97,82 °C zwischen dem des Lithiums (180,54 °C) und dem des Kaliums (63,6 °C). Ähnlich ist dies beim Siedepunkt und der spezifischen Wärmekapazität. Mit einer Dichte von 0,968 g · cm−3 ist Natrium eines der spezifisch leichtesten Elemente. Von den bei Raumtemperatur festen Elementen haben nur noch Lithium und Kalium eine geringere Dichte. Mit einer Mohshärte von 0,5 ist Natrium so weich, dass es mit dem Messer zu schneiden ist. Natrium kristallisiert, wie die anderen Alkalimetalle, im kubischen Kristallsystem in einem raumzentrierten Gitter mit der und zwei Formeleinheiten pro Elementarzelle. Unterhalb von 51 K geht es in eine hexagonal dichteste Kugelpackung mit den Gitterparametern "a" = 376 pm und "c" = 615 pm über. Natriumdampf besteht sowohl aus einzelnen Metallatomen, als auch aus Dimeren der Form Na2. Am Siedepunkt liegen 16 % der Atome als Dimer vor. Der Dampf ist gelb und erscheint in der Durchsicht purpurfarben. Mit Kalium werden in einem weiten Konzentrationsbereich bei Raumtemperatur flüssige Gemische gebildet. Das Phasendiagramm zeigt eine bei 7 °C inkongruent schmelzende Verbindung Na2K und ein Eutektikum bei −12,6 °C mit einem Kaliumgehalt von 77 % (Massenanteil). Chemische Eigenschaften. Wie die anderen Alkalimetalle ist Natrium ein sehr unedles Element (Normalpotential: −2,71 V) und reagiert leicht mit vielen anderen Elementen und zum Teil auch mit Verbindungen. Die Reaktionen sind vor allem mit Nichtmetallen, wie Chlor oder Schwefel, sehr heftig und laufen unter leuchtend gelber Flammenerscheinung ab. Der ansonsten reaktive Sauerstoff stellt eine Besonderheit dar. Natrium und Sauerstoff reagieren ohne Anwesenheit von Wasser bei Raumtemperatur und auch beim Erwärmen nicht direkt miteinander. Unter einer vollkommen wasserfreien Sauerstoff-Atmosphäre kann Natrium sogar geschmolzen werden, ohne dass es zur Reaktion kommt. Sind dagegen Feuchtigkeitsspuren vorhanden, verbrennt es leicht zu Natriumperoxid. Mit Wasser reagiert Natrium unter Bildung von Wasserstoff zu Natriumhydroxid. Hochgeschwindigkeitsaufnahmen der Reaktion von Alkalimetallen mit Wasser legen eine Coulomb-Explosion nahe. In Alkoholen setzt sich Natrium unter Bildung von Wasserstoff zu Natrium-Alkoholaten um. Durch die hohe Reaktionswärme schmilzt es häufig auf. Bei feiner Verteilung des Natriums und der damit einhergehenden großen Reaktionsoberfläche kann die Reaktion explosiv sein und den Wasserstoff entzünden. Kommt Natrium mit chlorierten Verbindungen wie Dichlormethan, Chloroform, Tetrachlormethan in Kontakt, kommt es unter Bildung von Natriumchlorid zu einer schnellen und exothermen Reaktion. Natrium löst sich mit blauer Färbung in flüssigem Ammoniak. Die Farbe beruht auf freien Elektronen, die vom Natrium in die Lösung abgegeben werden. So leitet die Lösung auch elektrischen Strom und ist verdünnt paramagnetisch. Auf ähnliche Art und Weise lässt sich auch das Anion des Natriums, das Natrid-Ion, zum Beispiel in der Form des Kalium(2.2.2-Kryptand)natrids (K+(C222)Na−) darstellen. Es ist ein sehr starkes Reduktionsmittel. Isotope. Von Natrium sind insgesamt 15 Isotope und 2 weitere Kernisomere von 18Na bis 33Na bekannt. Von diesen kommt nur eines, das Isotop 23Na natürlich vor. Damit ist Natrium eines von 22 Reinelementen. Die langlebigsten künstlichen Isotope sind 22Na, das mit einer Halbwertszeit von 2,602 Jahren unter Betazerfall in 22Ne übergeht und 24Na, das mit einer Halbwertszeit von 14,959 Stunden ebenfalls unter Betazerfall zu 24Mg zerfällt. Diese werden als Tracer in der Nuklearmedizin verwendet. Alle anderen Isotope und Isomere haben nur kurze Halbwertszeiten von Sekunden oder Millisekunden. Verwendung. a>, erkennbar am typischen orange-gelben Licht. Es werden große Mengen Natriumchlorid und andere Natriumverbindungen, wie Natriumcarbonat, gefördert. Davon wird aber nur ein sehr kleiner Teil zu Natrium weiterverarbeitet. Der größte Teil wird direkt verwendet oder zu anderen Verbindungen umgesetzt. Über Verwendungsmöglichkeiten von Natriumverbindungen: siehe Abschnitt Verbindungen. Natrium ist das meistgebrauchte Alkalimetall. Es wird für diverse Zwecke sowohl technisch als auch im Labor eingesetzt. Aus einem Teil des Natriums wird eine Anzahl von Natriumverbindungen hergestellt. Dies sind beispielsweise das als Bleichmittel verwendete Natriumperoxid und die starke Base Natriumamid. Diese kommen nicht natürlich vor und können auch nicht direkt aus Natriumchlorid gewonnen werden. Auch Natriumcyanid und Natriumhydrid werden aus Natrium hergestellt. Da Natrium das Erstarrungsgefüge beeinflusst, kann es als Zusatz von Aluminium-Silicium-Legierungen verwendet werden (Veredelungsverfahren nach Aladár Pácz). Katalysator. Natrium katalysiert die Polymerisation von 1,3-Butadien und Isopren. Daher wurde es für die Produktion von künstlichen Kautschuk eingesetzt. Mit Natrium als Katalysator gewonnener Kunststoff, der als Buna bezeichnet wurde, war das erste künstliche Gummi der Welt. Ab 1937 wurde er in den Buna-Werken (benannt nach Butadien und Natrium) in Schkopau produziert. Kühlmittel. Da Natrium mit einer Wärmeleitfähigkeit von 140 W/m·K, die weit über der von Stahl (15 bis 58 W/m·K) liegt, gute Wärmeübertragungseigenschaften und ebenso einen niedrigen Schmelzpunkt mit gleichzeitig großem flüssigen Bereich besitzt, wird es als Kühlmittel zur Kühlung der thermisch hoch beanspruchten Auslassventile in Verbrennungsmotoren verwendet. Hierzu werden die Ventilschäfte hohl ausgeführt und zum Teil mit Natrium gefüllt. Im Betrieb schmilzt das Natrium und schwappt zwischen der heißen und kalten Seite hin und her. Die Wärme wird dadurch vom rotglühend heißen Ventilteller abtransportiert. Auch Schnelle Brüter werden mit geschmolzenem Natrium gekühlt. In solchen Brutreaktoren dürfen die bei der Kernspaltung entstehenden schnellen Neutronen nicht wie in anderen Reaktortypen zwischen den Brennstäben abgebremst werden. Es darf daher zur Kühlung kein Wasser, das als Bremsmittel (Moderator) wirkt, eingesetzt werden. Die Wärme wird dann über einen Sekundärnatriumkreislauf an den Dampferzeuger für den Turbinenbetrieb weitergegeben. Lichterzeugung. Natriumdampflampen nutzen das charakteristische gelbe Licht aus, das Natriumdampf bei einer elektrischen Entladung aussendet. Sie werden aufgrund ihrer hohen Lichtausbeute häufig zur Straßenbeleuchtung eingesetzt. Reduktionsmittel. Einige Metalle, wie Titan, Zirconium, Tantal oder Uran können nicht durch Reduktion mit Kohlenstoff gewonnen werden, weil dabei stabile und nicht abtrennbare Carbide entstehen. Neben einigen anderen Elementen, insbesondere Aluminium und Magnesium, wird daher Natrium als Reduktionsmittel eingesetzt. Ein weiteres Element, zu dessen Darstellung Natrium eingesetzt wird, ist Kalium. Da Kalium ein sehr unedles Element ist, kann es nicht durch Reduktion mit Kohlenstoff gewonnen werden. Eine theoretisch mögliche Herstellung durch Elektrolyse ist technisch auf Grund der guten Löslichkeit von Kalium in einer Kaliumchloridschmelze nicht möglich. Natrium spielt eine wichtige Rolle als Reduktionsmittel in der organischen Synthese. Über lange Zeit war die technisch wichtigste Natriumanwendung die Herstellung von Tetraethylblei aus Chlorethan. Dieses war ein wichtiges Antiklopfmittel, das dem Benzin beigemischt wurde. Aus Umweltschutzgründen wurde die Verwendung von Tetraethylblei stark eingeschränkt oder ganz verboten. Daher ging auch der Verbrauch an Natrium zurück. Auch in anderen Reaktionen wie der Birch-Reduktion und der Pinakol-Kupplung wird Natrium verwendet. Diese sind jedoch eher im Labormaßstab von Interesse. Trocknungsmittel. Da Natrium auch mit Spuren von Wasser reagiert, kann frisch gepresster Natriumdraht als Trocknungsmittel zur Trocknung organischer Lösungsmittel, wie Diethylether oder Toluol, genutzt werden. Für halogenhaltige Lösungsmittel (Beispiele: Methylenchlorid, Chloroform) ist diese Methode "nicht" geeignet, da Natrium mit diesen heftig reagiert. Natrium-Kalium-Legierungen sind bei Raumtemperatur flüssig. Diese dienen zur Wärmeübertragung sowie zur Dehalogenierung in der organischen Synthese. Na-K eignet sich gut zum Trocknen einiger bereits gut vorgetrockneter Lösungsmittel, um besonders niedrige Rest-Wassergehalte zu erreichen. Elektrischer Leiter. Während der 1960er Jahre wurde mit Natriumkabeln mit Polyethylen-Umhüllung experimentiert. Wegen der geringeren Leitfähigkeit hätte ein hypothetisches Natriumkabel einen um 75 % größeren Durchmesser. Nachweis. Der qualitative Nachweis und die quantitative Bestimmung erfolgen atomspektroskopisch durch die intensiv gelbe Flammenfärbung oder genauer über die Na-Doppellinie bei 588,99 nm und 589,59 nm. Der Nachweis von Natrium auf rein chemischem Weg ist sehr schwierig. Da fast alle Natriumverbindungen gut wasserlöslich sind, sind klassische Fällungsreaktionen und gravimetrische Bestimmungen kaum möglich. Ausnahmen bilden das gelbe "Natriummagnesiumuranylacetat" NaMg(UO2)3(CH3COO)9·9 H2O und das farblose "Natriumhexahydroxoantimonat" Na[Sb(OH)6], die beide schwerlöslich sind. Eine Fällungsreaktion mit dem Sulfat-Bismut-Doppelsalz 3Na2SO4*2Bi2(SO4)3*2H2O ist auch möglich. Auch Farbreaktionen sind schwierig, da Natriumionen in wässriger Lösung farblos sind. Von praktischer Bedeutung sind heute daher neben der Ionenchromatographie nur noch die spektroskopischen Methoden. Physiologie. Natrium ist eines der Elemente, die für alle tierischen Organismen essentiell sind. Im tierischen Organismus ist Natrium – zusammen mit Chlor – das neunthäufigste Element und stellt – nach Calcium und Kalium – das dritthäufigste anorganische Ion. Damit zählt es physiologisch zu den Mengenelementen. Natrium liegt in Lebewesen in Form von Na+-Ionen vor. Im menschlichen Körper sind bei einem durchschnittlichen Körpergewicht von 70 kg etwa 100 g Natrium als Na+-Ionen enthalten. Davon liegen zwei Drittel als NaCl und ein Drittel als NaHCO3 vor. Da es im menschlichen Körper 90 % der extrazellulären Elektrolyte ausmacht, bestimmt die Natriumkonzentration über das Gefäßvolumen das Volumen der interstitiellen Flüssigkeit. Empfohlene und tatsächliche Natriumzufuhr. Der Schätzwert für die minimale Zufuhr von Natrium liegt laut den D-A-CH-Referenzwerten bei 550 mg/Tag für Erwachsene. Von verschiedenen Organisationen gibt es jedoch insbesondere Empfehlungen für eine maximale Zufuhr von Natrium (WHO: 2 g/Tag; AHA: 1,5 g/Tag). Die tatsächliche tägliche Natriumzufuhr liegt häufig über diesen Werten. Die Ursache dafür ist unser relativ hoher Salzkonsum (2,5 g Salz enthalten ca. 1 g Natrium). Die Nationale Verzehrsstudie II (NVS II) des Max Rubner-Instituts, bei der der Natriumkonsum anhand von Fragebögen ermittelt wurde, ergab im Median eine Aufnahme von 3,2 g/Tag (Männer) bzw. 2,4 g/Tag (Frauen). Vermutlich liegt die tatsächliche Natriumzufuhr aber noch höher, da die Erfassung über Fragebögen fehleranfällig ist. Als „Goldstandard“ für die Ermittlung der Natriumzufuhr dient die Bestimmung von Natrium im 24-Stunden-Urin. Einem Bericht der WHO zufolge lag in der INTERSALT-Studie die Natriumausscheidung in verschiedenen Orten Deutschlands bei 4,1-4,5 g/Tag (Männer) bzw. 2,7-3,5 g/Tag (Frauen). Regulation des Natriumhaushalts. Der Natriumgehalt wird streng kontrolliert und ist eng verbunden mit der "Regulation des Wasserhaushalts". Die normale Natriumkonzentration im Serum liegt bei etwa 135–145 mmol/l. Ist der Natriumspiegel geringer wird von einer Hyponatriämie gesprochen, bei der es zu einer Steigerung des Zellvolumens kommt. Bei einer Hypernatriämie dagegen ist der Natriumspiegel zu hoch und die Zellen schrumpfen. In beiden Fällen wird vor allem die Funktion des Gehirns beeinträchtigt. Es kann zu epileptischen Anfällen und Bewusstseinsstörungen bis hin zum Koma kommen. Eine wichtige Rolle für die Regulation spielen das Renin-Angiotensin-Aldosteron-System, das Adiuretin und Atriopeptin. Schlüsselorgan bei der Regulation von Natrium ist die Niere. Diese ist dafür zuständig bei einem Natriumüberschuss Wasser zurückzuhalten, um das Natrium im Körper zu verdünnen, und Natrium selbst auszuscheiden. Bei einem Natriummangel wird vermehrt Wasser ausgeschieden und Natrium retiniert. Dabei gilt jedoch zu beachten, dass die Niere einige Zeit braucht, bis sie auf den veränderten Natriumbestand reagieren kann. Verteilung in den Zellen. Im Organismus sind die Na+-Ionen nicht gleichmäßig verteilt, vielmehr sind – wie bei den anderen Ionen auch – die Konzentrationen inner- und außerhalb der Zellen stark verschieden. Diese Konzentrationsgefälle von Na+- und Cl−- (überwiegend außen), K+- sowie organischer Anionen (überwiegend innen) bedingen den Großteil des Membranpotentials lebender Zellen. Dieses Membranpotential und die Ionengradienten sind für die meisten Zellen überlebenswichtig. Da die kleinen anorganischen Ionen wegen der Konzentrationsunterschiede dauernd in den Nachbarbereich wandern, bedarf es eines aktiven Prozesses, der dem entgegensteuert. Die wichtigste Rolle spielt dabei die Natrium-Kalium-Pumpe, die unter Energieverbrauch Na+- und K+-Ionen immer wieder zurückpumpt. Funktionen in Nervenzellen. Na+-Ionen spielen eine wichtige Rolle bei der Entstehung und Weiterleitung von Erregungen in Nervenzellen (und Muskelfasern). An den Postsynapsen von Nervenzellen (und an der neuromuskulären Endplatte der Muskelfasern) befinden sich bestimmte Rezeptoren, die sich nach ihrer Aktivierung durch Überträgerstoffe (Neurotransmitter), die von der vorangehenden Nervenzelle bei deren Erregung ausgeschüttet werden, öffnen und für Natriumionen durchlässig werden. Durch Natriumeinstrom kommt es zu einer lokalen Änderung des im Grundzustand stabilen Membranpotentials der Zelle. Das Innere wird gegenüber dem Äußeren weniger negativ, man spricht von einer Depolarisation. Ist diese Depolarisation nach dem Weg bis zum Axon noch stark genug, kommt es zur Öffnung eines anderen Natriumkanaltyps. Dabei handelt es sich um die spannungsabhängigen Natriumkanäle des Axons, die die örtliche Depolarisation – gemeinsam mit anderen Ionenkanälen – durch einen bestimmten Öffnungs- und Schließrhythmus weiterleiten. An den Axonen der Nervenzellen entsteht so eine fortlaufende Spannungswelle, das Aktionspotential. Bei der Wiederherstellung des Grundzustandes spielt wiederum die Natrium-Kalium-Pumpe eine essentielle Rolle. Natrium bei Pflanzen. Bei Pflanzen spielt Natrium hingegen eine untergeordnete Rolle. Während Kalium für alle Pflanzen und die meisten Mikroorganismen essentiell ist, wird Natrium nur von einigen C4- und CAM-Pflanzen benötigt, von C3-Pflanzen in der Regel jedoch nicht. Je nach Standort haben sich aber davon unabhängig Pflanzen entwickelt, die von einer Natriumaufnahme profitieren können. Diese Pflanzen, Halophyten genannt, kommen besonders in Küstenregionen oder anderen Gebieten vor, in denen der Boden eine hohe Natriumkonzentration aufweist. Halophyten wie die Zuckerrübe, Kohl und viele C4-Gräser sind salztolerant, da sie das Natrium aus dem Zentralzylinder heraus in die Vakuolen der Blattzellen transportieren können, wo es als osmotisch wirksames Ion für eine Erhöhung des Turgors sorgt und dadurch statt des Kaliums die Zellstreckung und das Blattflächenwachstum positiv beeinflusst. Natrium substituiert damit zu einem Teil Kalium, zu einem anderen Teil wirkt es aber auch zusätzlich wachstumsfördernd. Pflanzen, die Natrium nicht aus dem Zentralzylinder heraus in die Blattzellen transportieren können, akkumulieren es im Xylemparenchym. Zu diesen sogenannten natrophoben Pflanzen gehören u. a. Buschbohne und Mais. Das Natrium, gelangte es in die Blattzellen, könnte nicht in die Vakuolen transportiert werden, sondern verbliebe im Zellplasma (Cytosol) und würde dort das für die Bildung von Polymeren wichtige Kalium verdrängen (natriuminduzierter Kaliummangel). Dieses führte schließlich zu einer Hemmung der Photosynthese. Die Akkumulation von Natrium im Zentralzylinder der Wurzel und im Stengelgewebe wirkt sich aber bei hoher Natriumkonzentration negativ für die Pflanze aus. Durch die Erhöhung des osmotischen Wertes wird sie bei der Wasseraufnahme und dem Wassertransport behindert. Es kommt zu einer Wasser- und Nährstoffunterversorgung der Blätter, was zu einer Verringerung der Photosyntheseleistung führt. Da die meisten Pflanzen Natrium nur in geringen Mengen enthalten, müssen viele Pflanzenfresser zusätzliches Natriumchlorid aus natürlichen Salzvorkommen aufnehmen. Sicherheitshinweise. Kleinere Mengen Natrium werden unter Petroleum aufbewahrt. Für größere Mengen gibt es integrierte Handhabungssysteme mit Schutzgasatmosphäre. Das Natrium ist trotz Schutzgas oder Petroleum häufig von einer Schicht aus NaOH und Na2O überzogen. Natriumbrände lassen sich mit Metallbrandpulver (Kochsalz), Kaliumchlorid, Grauguss-Spänen, behelfsweise mit Sand oder trockenem Zement löschen. Sand und Zement reagieren jedoch in gewissem Rahmen mit Natrium, was die Löschwirkung mindert. Keinesfalls dürfen Wasser, Schaum, Löschpulver, Kohlenstoffdioxid oder Halone verwendet werden. Diese Löschmittel reagieren mit Natrium zum Teil stark exotherm, was gegebenenfalls zu stärkeren Bränden und Explosionen führen kann. Verbindungen. In Verbindungen kommt das Natrium ausschließlich in der Oxidationsstufe +1 vor. Alle Verbindungen weisen einen stark ionischen Charakter auf, fast alle sind gut wasserlöslich. Natriumverbindungen zählen zu den wichtigsten Salzen vieler Säuren. Industriell werden meist Natriumsalze zur Gewinnung der entsprechenden Anionen verwendet, da deren Synthese kostengünstig ist. Halogenverbindungen. Natriumchlorid (NaCl), häufig als Speisesalz oder Kochsalz bezeichnet, ist das wichtigste und bekannteste Natriumsalz. Da es in großen Mengen vorkommt, ist es der wichtigste Rohstoff für die Gewinnung von Natrium und anderen Natriumverbindungen. Natriumchlorid stellt auch für den Menschen die wichtigste Natriumquelle dar. Technisch wird es unter anderem zur Konservierung von Lebensmitteln und als Streusalz im Straßenverkehr genutzt. Es ist Namensgeber für die Natriumchlorid-Struktur, eine für viele Salze typische Kristallstruktur. Daneben sind alle anderen möglichen Natriumhalogenide, also Natriumfluorid NaF, Natriumbromid NaBr und Natriumiodid NaI, bekannt und stabil. Sauerstoffverbindungen. Es sind insgesamt fünf Oxide des Natriums bekannt. Dies sind Natriumoxid Na2O, Natriumperoxid Na2O2, Natriumhyperoxid NaO2, Dinatriumtrioxid Na2O3 und Natriumtrioxid NaO3. Natriumoxid ist in vielen Gläsern enthalten, es entsteht bei der Glasherstellung aus dem eingesetzten Natriumcarbonat. Bei der Verbrennung von Natrium entsteht es nur bei bestimmten Temperaturen (150–200 °C) und stöchiometrisch eingesetzten Mengen Natrium und Sauerstoff. Ist dies nicht der Fall, verbrennt Natrium zu Natriumperoxid. Dieses ist ein starkes Oxidationsmittel und das technisch wichtigste Natriumoxid. Es wird als Bleichmittel für Textilien und Papier, sowie als Sauerstoffquelle beim Tauchen und in U-Booten verwendet. Die anderen Oxide sind sehr instabil und zersetzen sich schnell. Natriumhydroxid (NaOH) ist für die Industrie mit die wichtigste Base. Die wässrige Lösung von Natriumhydroxid wird Natronlauge genannt. Sie wird unter anderem für die Herstellung von Seife und Farbstoffen sowie zum Aufschluss von Bauxit bei der Aluminiumproduktion verwendet. Schwefelverbindungen. Mit Schwefelwasserstoff bildet Natrium zwei Salze, das Natriumsulfid Na2S und das Natriumhydrogensulfid NaHS. Beide werden u. a. zur Schwermetallfällung verwendet. Natriumsulfat Na2SO4, das Natriumsalz der Schwefelsäure, wird u. a. in Waschmitteln und in der Papierindustrie im Sulfatverfahren eingesetzt. Wie andere zweiwertige Anionen bildet Sulfat neben dem Natriumsulfat noch Natriumhydrogensulfat. Auch andere Schwefel-Sauerstoffsäuren bilden Natriumsalze. Ein Beispiel ist Natriumthiosulfat Na2S2O3, das in der Fotografie als Fixiersalz verwendet wird. Hydride. In Natriumhydrid NaH und Natriumborhydrid NaBH4 liegt der Wasserstoff in der Oxidationsstufe −1 vor. Beide werden vorwiegend in der organischen Chemie verwendet. Natriumhydrid wird dabei im Wesentlichen als starke, wenig nucleophile Base zur Deprotonierung von Thiolen, Alkoholen, Amiden, C-H-aciden Verbindungen etc. eingesetzt, Natriumborhydrid hingegen zur Reduktion z. B. von Ketonen. Letztere Reaktion kann durch Gegenwart von Cer(III)verbindungen selektiv für Ketone durchgeführt werden (Luche-Reduktion). Kommen sie mit Wasser in Berührung, entsteht gasförmiger Wasserstoff H2. Weitere Natriumverbindungen. Natriumcarbonat Na2CO3 und Natriumhydrogencarbonat NaHCO3 sind die Natriumsalze der Kohlensäure. Sie zählen, neben Natriumchlorid und Natriumhydroxid, zu den wichtigsten Natriumverbindungen. Natriumcarbonat (häufig mit dem Trivialnamen Soda bezeichnet) wird in großen Mengen bei der Glasherstellung benötigt. Natriumhydrogencarbonat wird als Backpulver verwendet. Es bildet beim Erhitzen mit Säuren Kohlenstoffdioxid und Wasser. Natriumnitrat NaNO3, das Natriumsalz der Salpetersäure, ist eine der seltenen natürlich vorkommenden Nitratverbindungen (Chilesalpeter). Natriumnitrat wird als Düngemittel und als Konservierungsmittel verwendet. Organische Verbindungen des Natriums sind im Gegensatz zu denen des Lithiums sehr instabil. Sie sind äußerst reaktiv und können teilweise auch mit sonst unreaktiven aliphatischen Kohlenwasserstoffen reagieren. Ausreichend stabil für Anwendungen in Reaktionen sind nur Verbindungen mit aromatischen Resten, wie Cyclopentadien, die als Reduktionsmittel verwendet werden können. Neon. Neon (griechisch ' „neu“) ist ein chemisches Element mit dem Symbol Ne und der Ordnungszahl 10. Im Periodensystem steht es in der 8. Hauptgruppe, bzw. der 18. IUPAC-Gruppe und zählt daher zu den Edelgasen. Wie die anderen Edelgase ist es ein farbloses, äußerst reaktionsträges, einatomiges Gas. In vielen Eigenschaften wie Schmelz- und Siedepunkt oder Dichte steht es zwischen dem leichteren Helium und dem schwereren Argon. Im Universum gehört Neon zu den häufigsten Elementen, auf der Erde ist es dagegen relativ selten, da wie bei Helium ein großer Teil des Gases in das Weltall entwichen ist. Vorwiegend ist es in der Erdatmosphäre zu finden, nur geringe Mengen sind in Gesteinen eingeschlossen. Wie Krypton und Xenon wurde auch Neon 1898 von William Ramsay und Morris William Travers durch fraktionierte Destillation von flüssiger Luft entdeckt. Die bekannteste Anwendung sind die Leuchtröhren oder Neonlampen, in denen Neon durch Gasentladungen in einer typischen orangeroten Farbe zum Leuchten angeregt wird. Geschichte. 1894 war von Lord Rayleigh und William Ramsay als erstes Edelgas das Argon entdeckt worden. Ramsay isolierte 1895 auch das zuvor nur aus dem Sonnenspektrum bekannte Helium aus Uranerzen. Aus den Gesetzen des Periodensystems erkannte er, dass es zwischen Helium und Argon ein weiteres Element mit einer Atommasse von etwa 20 u geben müsste. Er untersuchte daher ab 1896 zunächst verschiedene Minerale und Meteoriten und die von diesen beim Erhitzen oder Lösen abgegebenen Gase. Ramsay und sein Mitarbeiter Morris William Travers waren dabei jedoch nicht erfolgreich, es wurden Helium und seltener Argon gefunden. Auch die Untersuchung heißer Gase aus Cauterets in Frankreich und aus Island brachten keine Ergebnisse. Schließlich begannen sie, 15 Liter Rohargon, das aus flüssiger Luft isoliert wurde, zu untersuchen und durch Verflüssigen und fraktionierte Destillation zu trennen. Das erste dadurch abgetrennte und am Flammenspektrum nachgewiesene Element war dabei das Krypton, am 13. Juni 1898 gelang schließlich die Isolierung eines leichteren Elementes aus der niedriger siedenden Fraktion des Rohargons. Dieses nannten Ramsay und Travers "Neon", nach dem griechischen ' „neu“. Kurze Zeit später konnten sie aus der Krypton enthaltenden Fraktion ein weiteres Element, das Xenon gewinnen. Die erste Anwendung des neu entdeckten Gases war die 1910 von dem Franzosen Georges Claude entwickelte Neonlampe: In eine Glasröhre gefülltes Neon wird durch hohe Spannungen zum Leuchten angeregt. Nukleosynthese. Neon, vor allem das Isotop 20Ne, ist ein wichtiges Zwischenprodukt in der Nukleosynthese in Sternen, entsteht aber erst beim Kohlenstoffbrennen. Während des Heliumbrennens bei etwa 200 · 108 K entsteht 20Ne auf Grund des geringen Einfangquerschnitts von 16O für α-Teilchen nicht, lediglich die Isotope 21Ne und 22Ne können aus dem schwereren 18O entstehen. Steigen die Temperatur und die Dichte eines Sterns nach Verbrauch des Heliums deutlich an, so kommt es zum Kohlenstoffbrennen, bei dem zwei Kohlenstoffatome zu einem angeregten Magnesiumisotop 24Mg* fusionieren. Aus diesem bildet sich durch α-Zerfall 20Ne. Bei weiterem Temperatur- und Druckanstieg kommt es zum Neonbrennen, bei dem 20Ne im α-Zerfall zu 16O reagiert beziehungsweise mit den entstandenen Heliumkernen zu 24Mg fusioniert. Dieses findet auf Grund der höheren Empfindlichkeit von 20Ne im Vergleich zu 16O gegenüber Gammastrahlung vor den eigentlich zu erwartenden Reaktionen des leichteren Sauerstoffkerns statt. Erst nach Ende des Neonbrennens findet das Sauerstoffbrennen statt, bei dem aus 16O schwerere Elemente wie Silicium, Phosphor und Schwefel gebildet werden. Vorkommen. Neon zählt im Universum zu den häufigsten Elementen, lediglich Wasserstoff, Helium, Sauerstoff, Kohlenstoff und Stickstoff sind häufiger. Auf der Erde ist es dagegen – wie Helium – relativ selten, der Gesamtanteil an der Erdhülle beträgt etwa 0,005 ppm. Der Großteil des Neons befindet sich dabei in der Atmosphäre, mit einem durchschnittlichen Gehalt von 18,18 ppm ist es nach Argon das häufigste Edelgas. Aus der unterschiedlichen Verteilung der leichten und schweren Isotope des Neons auf der Erde und Sonne kann geschlossen werden, dass seit Entstehung der Erde ein Großteil des Neons aus der Atmosphäre entwichen ist und bevorzugt die schwereren Isotope 21Ne und 22Ne zurückgeblieben sind. In kleinen Mengen kommt Neon auch in Gesteinen der Erde vor. Nachgewiesen wurde es in Granit, Basaltgesteinen, Diamanten und vulkanischen Gasen. Auf Grund verschiedener Isotopenzusammensetzungen wird vermutet, dass dieses Neon drei verschiedene Ursprünge hat: Primordiales Neon, dessen Zusammensetzung derjenigen der Sonne entspricht und das ohne Kontakt zur Atmosphäre in Diamanten oder im Erdmantel eingeschlossen ist; atmosphärisches Neon und durch Spallationsreaktionen mit kosmischer Strahlung entstandenes Neon. Auf Gasplaneten wie Jupiter kann auf Grund der hohen Gravitation das Neon nicht entweichen, die Isotopenzusammensetzung entspricht daher derjenigen bei der Bildung des Planeten. Wie von der Raumsonde Galileo festgestellt, entspricht das Verhältnis von 20Ne zu 22Ne demjenigen der Sonne, was Rückschlüsse auf die Entstehungsbedingungen, etwa die Temperatur, bei der Bildung der Gasplaneten zulässt. Gewinnung und Darstellung. Neon lässt sich als Nebenprodukt bei der Luftzerlegung nach dem Linde-Verfahren gewinnen. Nach Abtrennung von Wasser, Kohlenstoffdioxid, Sauerstoff, den bei höheren Temperaturen siedenden Edelgasen und dem Großteil an Stickstoff bleibt ein Gasgemisch zurück, das zu 35 % aus Neon, daneben aus Helium, Wasserstoff und etwa 50 % Stickstoff besteht (jeweils Stoffmengenanteile). Dieses kann auf verschiedene Weisen getrennt werden, so dass am Ende die reinen Gase Neon und Helium gewonnen werden. Eine Möglichkeit ist es, die Gase über Kondensation bei unterschiedlichen Siedepunkten und die Ausnutzung des Joule-Thomson-Effektes zu trennen. Nach Abtrennung des Wasserstoffes über katalytische Reaktion mit zugegebenem Sauerstoff und Entfernung des Wassers wird dabei zunächst bei 30 bar und 66 K der Stickstoff verflüssigt und abgetrennt. Nach der Entfernung des restlichen Stickstoffes durch Adsorption an Silicagel bleibt ein Gasgemisch von etwa 76 % Neon und 24 % Helium zurück. Dieses wird bei Raumtemperatur zunächst auf 180 bar verdichtet und stufenweise auf 50 K abgekühlt. Bei der Expansion auf 25 bar und anschließend auf 1,5 bar kondensiert das Neon, während Helium gasförmig bleibt. Eine genauere Trennung erfolgt danach über eine Kolonne. Eine Alternative ist die Adsorption. Dazu wird nach der Abtrennung des Stickstoffes das Neon bei 5 bar und 67 K an ein Trägermaterial adsorbiert. Dieses gibt bei 3 bar das Neon wieder ab, so dass es vom Helium getrennt werden kann. Um eine größere Reinheit zu erreichen, wird das Neon zweimal nacheinander adsorbiert. Physikalische Eigenschaften. kubisch-dichteste Kugelpackung von festem Neon, "a" = 443 pmLinienspektrum einer Gasentladung in Neon Neon ist ein bei Normalbedingungen einatomiges, farbloses und geruchloses Gas, das bei 27 K (−246 °C) kondensiert und bei 24,57 K (−248,59 °C) erstarrt. Es besitzt damit den kleinsten Temperaturbereich aller Elemente, in dem es flüssig ist. Wie die anderen Edelgase außer dem Helium kristallisiert Neon in einer kubisch dichtesten Kugelpackung mit dem Gitterparameter "a" = 443 pm. Wie alle Edelgase besitzt Neon nur abgeschlossene Schalen (Edelgaskonfiguration). Dadurch lässt sich erklären, dass das Gas stets einatomig vorliegt und die Reaktivität gering ist. Mit einer Dichte von 0,9 kg/m3 bei 0 °C und 1013 hPa ist Neon etwas leichter als Luft, steigt also auf. Im Phasendiagramm liegt der Tripelpunkt bei 24,56 K und 43,37 kPa, der kritische Punkt bei 44,4 K, 265,4 kPa sowie einer kritischen Dichte von 0,483 g/cm3. In Wasser ist Neon schlecht löslich, in einem Liter Wasser können sich bei 20 °C maximal 10,5 ml Neon lösen. Wie andere Edelgase zeigt Neon bei Gasentladungen ein charakteristisches Linienspektrum. Da die Linien im sichtbaren Spektralbereich vorwiegend im roten bis gelben Bereich sind, erscheint das Gas bei einer Entladung in einer typischen roten Farbe. Chemische Eigenschaften. Als typisches Edelgas ist Neon äußerst reaktionsträge, es sind wie beim Helium bislang keine Verbindungen des Elementes bekannt. Sogar Clathrate, bei denen andere Edelgase in anderen Verbindungen physikalisch eingeschlossen sind, sind unbekannt. Nach theoretischen Berechnungen ist Neon das am wenigsten reaktive Element. So ist die berechnete Dissoziationsenthalpie für Verbindungen des Typs NgBeO (Ng: Edelgas) bei der Neonverbindung am geringsten. Es zeigte sich, dass selbst das Neonanalogon der einzig bekannten, nach Rechnungen stabilen Heliumverbindung HHeF nicht stabil sein sollte. Mögliche Erklärungen für diese Ergebnisse sind die größeren Fluor-Wasserstoff-Abstände und damit schwächere Anziehungskräfte im HNe+-Ion im Vergleich zur Helium-Spezies oder abstoßende p-π-Wechselwirkungen in Neon-Kationen. Es sind lediglich aus massenspektrometrischen Untersuchungen einige Ionen bekannt, in denen Neon beteiligt ist. Zu diesen zählen das Ne+-Ion und einige Element-Neon-Ionen wie ArNe+, HeNe+ und HNe+. Isotope. Es sind insgesamt 18 Isotope des Neons zwischen 16Ne und 34Ne bekannt. Von diesen sind drei, 20Ne, 21Ne und 22Ne stabil und kommen auch in der Natur vor. 20Ne kommt mit 90,48 % Anteil mit Abstand am häufigsten vor. 21Ne ist mit 0,27 % Anteil auf der Erde am seltensten und 22Ne kommt mit einer Häufigkeit von 9,25 % in der natürlichen Isotopenverteilung auf der Erde vor. Alle anderen Isotope haben kurze Halbwertszeiten von maximal 3,38 Minuten bei 24Ne. Bedingt durch den Verlust von Neon in das Weltall und die Bildung in Kernreaktionen ist das Verhältnis von 20Ne/22Ne und 21Ne/22Ne von Neon, das in Gesteinen eingeschlossen ist und keinen Kontakt zur Atmosphäre besitzt, nicht immer gleich. Daher lassen sich aus den Isotopenverhältnissen Rückschlüsse auf die Entstehung schließen. So ist in Gesteinen, in denen Neon durch Spallationsreaktionen entstanden ist, der Gehalt an 21Ne erhöht. Primordiales Neon, das vor dem Verlust eines großen Teils des Neons in Gesteinen und Diamanten eingeschlossen wurde, besitzt dagegen einen höheren Anteil an 20Ne. "→ Liste der Neon-Isotope" Biologische Bedeutung. Wie die anderen Edelgase hat Neon auf Grund der Reaktionsträgheit keine biologische Bedeutung und ist auch nicht toxisch. In höheren Konzentrationen wirkt es durch Verdrängung des Sauerstoffs erstickend. Bei Drücken von mehr als 110 bar wirkt es narkotisierend. Verwendung. Auf Grund der Seltenheit und komplizierten Herstellung und des damit einhergehenden höheren Preises im Vergleich zum ähnlichen Argon wird Neon nur in kleineren Mengen verwendet. Neon ist Füllgas von Leuchtröhren und Glimmlampen, in denen es durch Gasentladungen zum Leuchten in einer typischen orangeroten Farbe angeregt wird. Auch in Blitz- und Stroboskoplampen wird Neon als Füllgas genutzt. Helium-Neon-Laser, in denen ein Gemisch an Helium und Neon eingesetzt wird, zählen zu den wichtigeren Lasern. Die notwendige Besetzungsinversion des Laser wird dabei durch die Anregung des Heliums und strahlungslosen Übergang von Elektronen zum Neon erreicht. Die stimulierte Emission erfolgt am Neon bei Wellenlängen von 632,8 nm (rot) sowie 1152,3 nm und 3391 nm (infrarot). Weitere Laserübergänge, etwa im grünen Spektralbereich bei 543,3 nm, sind möglich. Flüssiges Neon kann als Kältemittel eingesetzt werden. Es hat eine 40-mal höhere Kühlleistung als flüssiges Helium und eine dreimal höhere als Wasserstoff. Neon kann im Gemisch mit Sauerstoff als Atemgas für das Tauchen in großer Tiefe genutzt werden. Es wird jedoch nur selten eingesetzt, da es im Vergleich zum ähnlich verwendbaren Helium einen höheren Preis besitzt und auch einen größeren Atemwiderstand aufweist. Neodym. Neodym (Nomenklaturempfehlung war zeitweise "Neodymium") ist ein chemisches Element mit dem Elementsymbol Nd und der Ordnungszahl 60. Im Periodensystem steht es in der Gruppe der Lanthanoide und zählt damit auch zu den Metallen der seltenen Erden. Die Elementbezeichnung leitet sich von den griechischen Worten νέος "neos" ‚neu‘ und δίδυμος "didymos" ‚Zwilling‘ (als Zwilling von Lanthan) ab. Das Metall wird vor allem für starke Magnete verwendet. Geschichte. 1841 extrahierte Carl Gustav Mosander die seltene Erde Didym aus Lanthanoxid. 1874 bemerkte Per Teodor Cleve, dass es sich bei Didym eigentlich um zwei Elemente handelte. Im Jahr 1879 isolierte Lecoq de Boisbaudran Samarium aus Didym, das er aus dem Mineral Samarskit gewann. 1885 gelang es Carl Auer von Welsbach, Didym in Praseodym und Neodym zu trennen, die Salze unterschiedlicher Farbe bilden. Reines metallisches Neodym wurde erst 1925 dargestellt. Vorkommen. Der wichtigste Lieferant mit 97 % der Weltproduktion ist China. Das führt dort zu erheblichen Umweltproblemen. „Bei der Trennung des Neodyms vom geförderten Gestein entstehen giftige Abfallprodukte, außerdem wird radioaktives Uran und Thorium beim Abbauprozess freigesetzt. Diese Stoffe gelangen zumindest teilweise ins Grundwasser, kontaminieren so Fauna und Flora erheblich und werden für den Menschen als gesundheitsschädlich eingestuft“. Weitere wirtschaftlich verwertbare Vorkommen finden sich in Australien. Gewinnung und Herstellung. Wie bei allen Lanthanoiden werden zuerst die Erze durch Flotation angereichert, danach die Metalle in ihre Halogenide umgewandelt und durch fraktionierte Kristallisation, Ionenaustausch oder Extraktion getrennt. Nach einer aufwendigen Abtrennung der Neodymbegleiter wird das Oxid mit Fluorwasserstoff zu Neodym(III)-fluorid umgesetzt und anschließend mit Calcium unter Bildung von Calciumfluorid zu Neodym reduziert. Calciumreste und Verunreinigungen trennt man durch Umschmelzen im Vakuum ab. Die Herstellung durch Elektrolyse von Neodymhalogeniden wird heute selten angewandt. Die chinesische Regierung hat angekündigt, schärfere Umweltauflagen einzuführen und stärker gegen illegale Minen vorzugehen. Anfang Juni 2011 scheint es zu einer ersten Umsetzung dieser Absicht gekommen zu sein. Laut Berichten der Financial Times erhält der staatseigene Produzent (Baotou Steel Rare Earth) das Monopol für den Abbau und die Aufbereitung der Seltenen Erden. 35 lizenzierte Betriebe werden geschlossen und entschädigt, neun weitere nicht lizenzierte Betriebe sollen geschlossen und nicht entschädigt werden. In den U.S.A. wird derzeit die Mine "Mountain Pass" in Kalifornien und in Australien die Mine "Mount Weld" reaktiviert. Beiden Minen werden vom Öko-Institut e. V. akzeptable Umweltschutzsysteme bescheinigt. Allerdings gibt es auch Vorhaben zum kombinierten Abbau Seltener Erden in Grönland, bei denen die giftigen Rückstände in Seen verklappt werden sollen. Die Jahresproduktion wurde 2012 auf 21.000 t geschätzt, davon kommen 91 % aus China. Laut USGS lag der Preis für 1 kg Neodym 2001 unter 10 USD. Der Preis stieg bis 2010 auf 80 USD und erreichte 2011 den Höchststand mit 244 USD je kg. Danach ging er wieder zurück und lag 2013 bei 65 USD je kg. Physikalische Eigenschaften. Das silbrigweiß glänzende Metall gehört zu den Lanthanoiden und Metallen der Seltenen Erden. Es ist an der Luft etwas korrosionsbeständiger als Europium, Lanthan, Cer oder Praseodym, bildet aber leicht eine rosaviolette Oxidschicht aus, welche an der Luft abblättern kann. Chemische Eigenschaften. Bei hohen Temperaturen verbrennt Neodym zum Sesquioxid Nd2O3. Mit Wasser reagiert es unter Bildung von Wasserstoff zum Neodymhydroxid Nd(OH)3. Mit Wasserstoff setzt es sich zum Hydrid NdH2 um. Neben der Hauptwertigkeit/Oxidationszahl 3 kommen unter besonderen Bedingungen auch die Oxidationszahlen 2 und 4 vor. Sonstige Stoffe. Neodym-Eisen-Bor (Nd2Fe14B) ist der Werkstoff, aus dem derzeit die stärksten Dauermagnete hergestellt werden können. Sie erreichen eine Remanenz von bis zu 1,4 Tesla. Die Koerzitivfeldstärke HcJ schwankt im Bereich von 870 bis 2750 kA/m. Neptunium. Neptunium ist ein chemisches Element mit dem Elementsymbol Np und der Ordnungszahl 93. Im Periodensystem steht es in der Gruppe der Actinoide (7. Periode, f-Block). Neptunium ist das erste der sogenannten Transurane, die auf der Erde, bis auf Spuren von Neptunium und Plutonium, nicht mehr natürlich vorkommen. Neptunium ist ein giftiges und radioaktives Schwermetall. Es wurde benannt nach dem Planeten Neptun, der auf den Planeten Uranus folgt. Neptunium folgt im Periodensystem auf Uran, dann folgt Plutonium, das schwerste auf der Erde natürlich vorkommende Element mit der Ordnungszahl 94. Geschichte. Im Mai 1934 äußerte sich Ida Noddack zu den damals bestehenden Lücken im Periodensystem der Elemente und stellte am Ende ihrer Arbeit Überlegungen über die Möglichkeit von Transuranen an. Wenige Wochen später veröffentlichte Enrico Fermi drei Arbeiten zu diesem Thema. Noddack setzte sich im September 1934 kritisch mit der vermeintlichen Entdeckung des Elements 93 durch Fermi auseinander. In ihren Ausführungen nahm sie u. a. die Entdeckung der neutroneninduzierten Kernspaltung vorweg: "Es wäre denkbar, daß bei der Beschießung schwerer Kerne mit Neutronen diese Kerne in mehrere größere Bruchstücke zerfallen, die zwar Isotope bekannter Elemente, aber nicht Nachbarn der bestrahlten Elemente sind." Das radioaktive Element Neptunium synthetisierten Edwin M. McMillan und Philip H. Abelson erstmals 1940 durch Beschuss von Uran mit Neutronen. Arthur C. Wahl und Glenn T. Seaborg entdeckten 1942 das Neptuniumisotop 237Np. Es entsteht aus 237U, das ein β-Strahler mit rund 7 Tagen Halbwertszeit ist, oder durch einen (n, 2n)-Prozess aus 238U. 237Np ist ein α-Strahler mit einer Halbwertszeit von 2,144 · 106 Jahren. Im Jahr 1950 wurden aus 233U, 235U und 238U durch Beschuss mit Deuteronen die Neptuniumisotope 231Np, 232Np und 233Np erzeugt. Im Jahr 1958 wurden aus hochangereichertem 235U durch Beschuss mit Deuteronen die Neptuniumisotope 234Np, 235Np und 236Np erzeugt. Die 1-Stunden Neptunium-Aktivität, die zuvor dem 241Np zugewiesen worden ist, gehört hingegen zum Isotop 240Np. Gewinnung von Neptuniumisotopen. Neptunium entsteht als "Nebenprodukt" der Energiegewinnung in Kernreaktoren. Eine Tonne abgebrannter Kernbrennstoff soll 500 g Neptunium enthalten. So entstandenes Neptunium besteht fast ausschließlich aus dem Isotop 237Np. Es entsteht aus dem Uranisotop 235U durch zweifachen Neutroneneinfang und anschließenden β-Zerfall. Darstellung elementaren Neptuniums. Metallisches Neptunium kann durch Reduktion aus seinen Verbindungen erhalten werden. Zuerst wurde Neptunium(III)-fluorid mit elementarem Barium oder Lithium bei 1200 °C zur Reaktion gebracht. Physikalische Eigenschaften. Neptunium besitzt eine der höchsten Dichten aller Elemente. Neben Rhenium, Osmium, Iridium und Platin ist es eines der wenigen Elemente, die eine höhere Dichte als 20 g/cm3 besitzen. Chemische Eigenschaften. Neptunium bildet eine Reihe von Verbindungen, in denen es in den Oxidationsstufen +3 bis +7 vorliegen kann. Damit besitzt Neptunium zusammen mit Plutonium die höchste mögliche Oxidationsstufe aller Actinoiden. In wässriger Lösung haben die Neptuniumionen charakteristische Farben, so ist das Np3+-Ion purpurviolett, Np4+ gelbgrün, NpVO2+ grün, NpVIO22+ rosarot und NpVIIO23+ tiefgrün. Biologische Aspekte. Eine biologische Funktion des Neptuniums ist nicht bekannt. Anaerobe Mikroorganismen können mittels Mn(II/III)- und Fe(II)-Spezies Np(V) zu Np(IV) reduzieren. Ferner wurden die Faktoren untersucht, die die Biosorption und Bioakkumulation des Neptuniums durch Bakterien beeinflussen. Isotope. Von Neptunium sind insgesamt 20 Isotope und 5 Kernisomere bekannt. Die langlebigsten Isotope sind 237Np mit 2,144 Mio. Jahren, 236Np mit 154.000 Jahren und 235Np mit 396,1 Tagen Halbwertszeit. Die restlichen Isotope und Kernisomere besitzen Halbwertszeiten zwischen 45 Nanosekunden (237"m"1Np) und 4,4 Tagen (234Np). Spaltbarkeit. Eine Probe von Neptunium-Metall (237Np) (glänzend) in Schalen aus angereichertem Uran (schwarz angelaufen). Wie bei allen Transuran-Nukliden ist auch bei den Np-Isotopen die neutroneninduzierte Kernspaltung möglich. Die Isotope mit ungerader Neutronenanzahl im Kern – von den langlebigen also 236Np – haben große Wirkungsquerschnitte für die Spaltung durch thermische Neutronen; beim 236Np beträgt er 2600 Barn, es ist also "leicht spaltbar". Bei dem im Kernreaktorbrennstoff anfallenden 237Np beträgt dieser Wirkungsquerschnitt nur 20 Millibarn. Dieses Isotop ist jedoch aufgrund anderer kernphysikalischer Eigenschaften geeignet, mit der Spaltung durch "schnelle" Neutronen im reinen Material eine Kettenreaktion aufrechtzuerhalten. Im Los Alamos National Laboratory wurde seine kritische Masse experimentell zu etwa 60 kg bestimmt. Daher ist 237Np ein mögliches Material für Kernwaffen. Verwendung. Das in Kernreaktoren aus 235U erbrütete 237Np kann zur Gewinnung von 238Pu zur Verwendung in Radionuklidbatterien genutzt werden. Dazu wird es (zusammen mit unwesentlichen Mengen anderer Neptuniumisotope) vom abgebrannten Reaktorbrennstoff abgetrennt und in Brennstäbe gefüllt, die nur Neptunium enthalten. Diese werden wieder in den Kernreaktor eingesetzt, wo sie erneut mit Neutronen bestrahlt werden; aus dem 237Np wird 238Pu erbrütet. Verbindungen. Neptunium in den Oxidationsstufen +3 bis +7 in wässriger Lösung. Oxide. Bekannt sind Oxide in den Stufen +4 bis +6: Neptunium(IV)-oxid (NpO2), Neptunium(V)-oxid (Np2O5) und Neptunium(VI)-oxid (NpO3 · H2O). Neptuniumdioxid (NpO2) ist das chemisch stabilste Oxid des Neptuniums und findet Verwendung in Kernbrennstäben. Halogenide. Für Neptunium sind Halogenide in den Oxidationsstufen +3 bis +6 bekannt. Für die Stufe +3 sind sämtliche Verbindungen der vier Halogene Fluor, Chlor, Brom und Iod bekannt. Darüber hinaus bildet es Halogenide in den Stufen +4 bis +6. In der Oxidationsstufe +6 ist das Neptuniumhexafluorid (NpF6) von besonderer Bedeutung. Es ist ein orangefarbener Feststoff mit sehr hoher Flüchtigkeit, der schon bei 56 °C in den gasförmigen Zustand übergeht. In dieser Eigenschaft ähnelt es sehr dem Uranhexafluorid und Plutoniumhexafluorid, daher kann es genauso in der Anreicherung und Isotopentrennung verwendet werden. Metallorganische Verbindungen. Analog zu Uranocen, einer Organometallverbindung in der Uran von zwei Cyclooctatetraen-Liganden komplexiert ist, wurden die entsprechenden Komplexe von Thorium, Protactinium, Plutonium, Americium und auch des Neptuniums, (η8-C8H8)2Np, dargestellt. Sicherheitshinweise. Einstufungen nach der Gefahrstoffverordnung liegen nicht vor, weil diese nur die chemische Gefährlichkeit umfassen und eine völlig untergeordnete Rolle gegenüber den auf der Radioaktivität beruhenden Gefahren spielen. Nobelium. Nobelium ist ein ausschließlich künstlich erzeugtes chemisches Element mit dem Elementsymbol No und der Ordnungszahl 102. Im Periodensystem steht es in der Gruppe der Actinoide (7. Periode, f-Block) und zählt auch zu den Transuranen. Nobelium ist ein radioaktives Metall, welches aber aufgrund der geringen zur Verfügung stehenden Mengen bisher nicht als Metall dargestellt wurde. Es wurde 1957 entdeckt und Alfred Nobel zu Ehren benannt. Der Name wurde 1994 endgültig von der IUPAC bestätigt. Geschichte. Über eine Entdeckung wurde erstmals 1957 von einer Wissenschaftler-Arbeitsgruppe aus den USA, Großbritannien und Schweden berichtet. 1958 meinten Albert Ghiorso, Torbjørn Sikkeland, John R. Walton und Glenn T. Seaborg in Berkeley das 254No entdeckt zu haben. Ferner meldete im gleichen Jahr eine sowjetische Gruppe um G. N. Flerov die Entdeckung von ?No. 1964 wurde aus Dubna die Herstellung von 256No gemeldet. Aber erst 1968 wurden in Berkeley aus 249Cf und 12C ca. 3000 Atome 255No erzeugt. Eigenschaften. Im Periodensystem steht das Nobelium mit der Ordnungszahl 102 in der Reihe der Actinoide, sein Vorgänger ist das Mendelevium, das nachfolgende Element ist das Lawrencium. Sein Analogon in der Reihe der Lanthanoide ist das Ytterbium. Nobelium ist ein radioaktives und sehr kurzlebiges Metall. In seinen Verbindungen tritt die Oxidationszahl +2 gegenüber +3 häufiger auf. Sicherheitshinweise. Einstufungen nach der Gefahrstoffverordnung liegen nicht vor, weil diese nur die chemische Gefährlichkeit umfassen und eine völlig untergeordnete Rolle gegenüber den auf der Radioaktivität beruhenden Gefahren spielen. Auch Letzteres gilt nur, wenn es sich um eine dafür relevante Stoffmenge handelt. Niob. Niob (nach Niobe, der Tochter des Tantalos) ist ein chemisches Element mit dem Elementsymbol Nb und der Ordnungszahl 41. Es zählt zu den Übergangsmetallen, im Periodensystem steht es in der 5. Periode sowie der 5. Nebengruppe (Gruppe 5) oder Vanadiumgruppe. Im angelsächsischen Sprachraum wird auch heute noch von vielen Metallurgen, Werkstoffanbietern und im privaten Umgang die schon länger veraltete Bezeichnung "Columbium" und das Kurzzeichen "Cb" verwendet. Das selten vorkommende Schwermetall ist von grauer Farbe und gut schmiedbar. Niob kann aus den Erzen Columbit, Coltan (Columbit-Tantalit) und Loparit gewonnen werden. Es wird hauptsächlich in der Metallurgie verwendet, um Spezialstähle herzustellen und die Schweißbarkeit zu verbessern. Geschichte. Niob wurde 1801 durch Charles Hatchett entdeckt. Er fand es in einer Probe von Columbit-Erz aus einem Flussbett in Massachusetts, das um 1743 nach England verschickt worden war. Hatchett benannte das Element "Columbium" (nach Columbia, der Personifikation der Vereinigten Staaten). Bis Mitte des 19. Jahrhunderts ging man davon aus, dass es sich bei Columbium und dem 1802 entdeckten Tantal um dasselbe Element handelt, da sie in Mineralen fast immer zusammen auftreten (Paragenese). Erst 1844 zeigte der Berliner Professor Heinrich Rose, dass Niob- und Tantalsäure unterschiedliche Stoffe sind. Nicht um die Arbeiten Hatchetts und dessen Namensgebung wissend, nannte er das wiederentdeckte Element aufgrund dessen Ähnlichkeit mit Tantal nach Niobe, der Tochter des Tantalus. Erst nach 100 Jahren Auseinandersetzung legte die International Union of Pure and Applied Chemistry (IUPAC) 1950 "Niob" als offizielle Bezeichnung des Elements fest. 1864 gelang Christian Wilhelm Blomstrand die Herstellung von metallischem Niob durch Reduktion von Niobchlorid mit Wasserstoff in der Hitze. 1866 bestätigte Charles Marignac Tantal als eigenständiges Element. 1907 stellte Werner von Bolton durch Reduktion eines Heptafluoroniobats mit Natrium sehr reines Niob her. Vorkommen. Niob ist ein seltenes Element mit einem Anteil an der Erdkruste von 1,8 · 10−3 %. Es kommt nicht gediegen vor. Aufgrund der ähnlichen Ionenradien kommen Niob und Tantal immer verschwistert vor. Die wichtigsten Minerale sind Columbit (Fe, Mn)(Nb, Ta)2O6, das je nach Gehalt an Niob oder Tantal auch als Niobit oder Tantalit bezeichnet wird, sowie Pyrochlor (NaCaNb2O6F). Einige Nioberze wie Tantalit und Coltan, sowie deren Derivate wurden 2012 von der US-amerikanischen Börsenaufsicht SEC als so genanntes "Konfliktmineral" eingestuft, dessen Verwendung für Unternehmen gegenüber der SEC berichtspflichtig ist. Als Grund hierfür werden die Produktionsorte im Osten des Kongo angeführt, die von Rebellen kontrolliert werden und so im Verdacht stehen, bewaffnete Konflikte mitzufinanzieren. Von wirtschaftlichem Interesse sind Niobvorkommen in Karbonatiten, in deren Verwitterungsböden sich Pyrochlor angereichert hat. Große Erzlager befinden sich in Nigeria, in der Demokratischen Republik Kongo und in Russland. Gewinnung und Darstellung. Da Niob und Tantal immer zusammen vorkommen, werden Niob- und Tantalerze zunächst gemeinsam aufgeschlossen und anschließend durch fraktionierte Kristallisation oder unterschiedliche Löslichkeit in organischen Lösungsmitteln getrennt. Das erste industrielle Trennverfahren solcherart wurde 1866 von Galissard de Marignac entwickelt. Zunächst werden die Erze einem Gemisch von konzentrierter Schwefel- und Flusssäure bei 50–80 °C ausgesetzt. Dabei bilden sich die komplexen Fluoride [NbF7]2− und [TaF7]2−, die leicht löslich sind. Durch Überführung in eine wässrige Phase und Zugabe von Kaliumfluorid können die Dikalium-Salze dieser Fluoride gebildet werden. Dabei ist nur das Tantalfluorid in Wasser schwer löslich und fällt aus. Das leicht lösliche Niobfluorid kann so vom Tantal getrennt werden. Heutzutage ist aber eine Trennung durch Extraktion mit Methylisobutylketon üblich. Eine dritte Möglichkeit der Trennung ist die durch fraktionierte Destillation der Chloride NbCl5 und TaCl5. Diese sind durch Reaktion von Erzen, Koks und Chlor bei hohen Temperaturen darstellbar. Aus dem abgetrennten Niobfluorid wird durch Reaktion mit Sauerstoff zunächst Niobpentoxid hergestellt. Dieses wird entweder mit Kohlenstoff zunächst zu Niobcarbid umgesetzt und dann mit weiterem Niobpentoxid bei 2000 °C im Vakuum zum Metall reduziert oder direkt aluminothermisch gewonnen. Der größte Teil des Niob für die Stahlindustrie wird so produziert, dabei wird noch Eisenoxid zugesetzt, um eine Eisen-Niob-Legierung (60 % Niob) zu erhalten. Werden Halogenide als Ausgangsstoff für die Reduktion eingesetzt, geschieht dies mit Natrium als Reduktionsmittel. Die Jahresproduktion lag 2006 bei fast 60.000 t, 90 % davon wurden in Brasilien gefördert. 2013 betrug die Gesamtmenge des produzierten Niobs 59.400 Tonnen; Hauptproduzenten waren Brasilien (53.100 t) und Kanada (5.260 t). Der USGS gibt als US-Importpreise für eine Eisen-Niob-Legierung ("Ferroniobium" mit einem Anteil von 65 % Niob) 37.781 USD je Tonne im Jahre 2010 und 43.415 USD je Tonne für 2013 an. Eigenschaften. Niob ist ein grau glänzendes, duktiles Schwermetall. Bekannt sind die Oxidationsstufen −3, −1, 0, +1, +2, +3, +4, +5. Wie beim Vanadium, das im Periodensystem über dem Niob steht, ist die Stufe +5 am beständigsten. Das chemische Verhalten des Niobs ist fast identisch mit dem des Tantals, das im Periodensystem direkt unter Niob steht. Infolge der Ausbildung einer Passivschicht (Schutzschicht) ist Niob an der Luft sehr beständig. Die meisten Säuren greifen es bei Raumtemperatur daher nicht an. Nur Flusssäure, vor allem im Gemisch mit Salpetersäure, sowie heiße konzentrierte Schwefelsäure korrodieren metallisches Niob rasch. In heißen Alkalien ist Niob ebenfalls unbeständig, da sie die Passivschicht auflösen. Bei Temperaturen oberhalb von 200 °C beginnt es in Gegenwart von Sauerstoff zu oxidieren. Eine schweißtechnische Bearbeitung von Niob muss wegen seiner Unbeständigkeit an der Luft unter Schutzgasatmosphäre ablaufen. Der Zusatz von Wolfram und Molybdän zu Niob erhöht seine Hitzebeständigkeit, Aluminium seine Festigkeit. Bemerkenswert sind die hohe Sprungtemperatur des Niobs von 9,25 K, unterhalb der es supraleitend ist, sowie seine Eigenschaft, leicht Gase aufzunehmen. Bei Raumtemperatur kann ein Gramm Niob 100 cm³ Wasserstoff aufnehmen, was früher in der Vakuumröhrentechnik ausgenutzt wurde. Verwendung. Niob wird als Legierungszusatz für rostfreie Stähle, Sonderedelstähle (z. B. Rohre für die Salzsäureproduktion) und Nichteisenlegierungen verwendet, da sich niob-legierte Werkstoffe durch eine erhöhte mechanische Festigkeit auszeichnen. Bereits in Konzentrationen von 0,01 bis 0,1 Massenprozent kann Niob in Kombination mit thermomechanischem Walzen die Festigkeit und Zähigkeit von Stahl wesentlich steigern. Erste Versuche zur Verwendung von Niob als Legierungselement (Ersatz von Wolfram) fanden 1925 in den USA statt. Solcherart veredelte Stähle werden häufig im Rohrleitungsbau (Pipeline construction) eingesetzt. Als starker Karbidbildner wird Niob auch in Schweißzusatzwerkstoffen zum Abbinden von Kohlenstoff zulegiert. Der schwarze Teil der Raketendüse besteht aus einer Niob-Titan-Legierung Sicherheitshinweise. Niob gilt zwar als nicht toxisch, jedoch irritiert metallischer Niobstaub Augen und Haut. Niobstaub ist leicht entzündlich. Eine physiologische Wirkungsweise des Niobs ist unbekannt. Nickel. Nickel ist ein chemisches Element mit dem Elementsymbol Ni und der Ordnungszahl 28. Es zählt zu den Übergangsmetallen, im Periodensystem steht es nach der älteren Zählweise in der 8. Nebengruppe oder Eisen-Platin-Gruppe, nach der neueren in der Gruppe 10 oder Nickelgruppe. Geschichte. Nickel wurde erstmals 1751 von Axel Frederic Cronstedt rein dargestellt. Er nannte das Metall 1754 Nickel, abgeleitet von Kupfernickel (schwedisch "kopparnickel"), dem aus dem Erzgebirge stammenden Wort für "Rotnickelkies". So nannten Bergleute das Erz, das aussah wie Kupfererz, aus dem sich aber kein Kupfer gewinnen ließ, als sei es von Berggeistern („Nickeln“) verhext. Eine ähnlich koboldhafte Etymologie findet sich bei Cobalt. Die erste Münze aus reinem Nickel wurde 1881 geprägt. Vorkommen. Presspellets aus Nickel für Legierungszwecke Gediegen, das heißt in elementarer Form vorkommendes Nickel konnte bisher nur an 24 Fundorten nachgewiesen werden (Stand: 2010) und gehört damit zu den seltenen, aber von der International Mineralogical Association (IMA) anerkannten Mineralen (System-Nr. nach Strunz 1.AA.05 bzw. veraltet 1/A.08-10). Sein Massenanteil an der Erdhülle beträgt etwa 0,01 %. Aufgrund geophysikalischer und geochemischer Indizien geht man davon aus, dass sich der größte Teil des Nickels auf der Erde und anderen terrestrischen Planeten im Kern befindet, wo es eine Legierung mit Eisen und einigen leichten Elementen bildet. Im Erdkern beträgt sein Massenanteil nach neuesten Modellen etwa 5,2 %. Anteil der Nickelproduktion aus sulfidischen und lateritischen Erzen Traditionell wurde der größte Teil der Nickelproduktion aus sulfidischen Erzen wie Pentlandit (ca. 34 % Nickel), Nickelmagnetkies (Verwachsungsaggregat aus Pyrrhotin und Pentlandit) sowie einigen weiteren Nickelmineralen wie Millerit (ca. 64–65 % Nickel) und Nickelin (ca. 44 % Nickel) gewonnen. Darüber hinaus werden auch lateritische Nickelerze, vor allem aus Garnierit, einem Gemenge aus Népouit (ca. 46 % Nickel) und Willemseit (ca. 29 % Nickel), als Rohstoffe zur Nickelproduktion abgebaut. Insgesamt sind bisher rund 200 Nickelminerale bekannt, und einige haben noch weit höhere Nickelgehalte als die bereits genannten, kommen jedoch im Gegensatz zu diesen viel seltener vor. Die Gewinnung verschiebt sich aufgrund der Ausbeutung der klassischen sulfidischen Lagerstätten zunehmend zu lateritischen Nickelerzen. Diese müssen jedoch aufwendig per Hochdruck-Säurelaugung () gewonnen werden. Um das Nickel wirtschaftlich abbauen zu können, muss der Nickelgehalt des Erzes mindestens 0,5 % betragen. Die wichtigsten Vorkommen finden sich in Kanada (Sudbury-Becken), Neukaledonien, Russland (Norilsk und Halbinsel Kola), Australien (Queensland) und Kuba (Moa Bay und Nicaro). Ein häufiger Begleiter des Nickels ist Cobalt. Darstellung des Kupfer-Nickel-Feinsteins. Der überwiegende Teil des Nickels wird aus nickel- und kupferhaltigen Eisenerzen wie Nickelmagnetkies gewonnen. Um die Gewinnung wirtschaftlich zu machen, muss das Nickel zunächst durch Flotation auf etwa fünf Prozent Nickelgehalt angereichert werden. Danach wird das Erz ähnlich wie bei der Kupferherstellung geröstet. Dabei wird das Erz zunächst vorgeröstet, um einen Teil des Eisensulfids in Eisenoxid umzuwandeln. Anschließend werden Silikate und Koks dazugegeben, um das Eisenoxid als Eisensilikat zu verschlacken. Gleichzeitig bildet sich der Kupfer-Nickel-Rohstein aus Nickel-, Kupfer und Eisensulfid. Da dieser spezifisch schwerer als die Eisensilicat-Schlacke ist, können die beiden Phasen getrennt abgestochen werden. Anschließend wird der Rohstein in einen Konverter gefüllt und Siliciumdioxid dazugegeben. Es wird Sauerstoff eingeblasen. Dadurch wird das restliche Eisensulfid zu Eisenoxid geröstet und danach verschlackt. Es entsteht der "Kupfer-Nickel-Feinstein", der zu etwa 80 % aus Kupfer und Nickel und zu etwa 20 % aus Schwefel besteht. Gewinnung von Rohnickel. Zur Gewinnung des Rohnickels muss das Nickel vom Kupfer abgetrennt werden. Dazu verschmilzt man den Feinstein mit Natriumsulfid Na2S. Dabei bildet sich nur zwischen Kupfer- und Natriumsulfid ein leicht schmelzendes Doppelsulfid. Es bilden sich zwei einfach zu trennende Phasen aus Kupfer-Natrium-Doppelsulfid (flüssig) und Nickelsulfid. Nach der Abtrennung wird das Nickelsulfid zu Nickeloxid geröstet und danach mit Koks zu Nickel reduziert. Gewinnung von Rein- und Reinstnickel. Elektrolytisch raffiniertes 99,9%iges Nickel als Knolle Um Reinnickel zu gewinnen, wird das Rohnickel elektrolytisch raffiniert. Dazu wird in einer Elektrolysezelle das Rohnickel als Anode, ein Nickelfeinblech als Kathode geschaltet. Als Elektrolyt dient eine Nickelsalzlösung. Während der Elektrolyse gehen an der Anode Nickel und alle unedleren Bestandteile in Lösung. Alle edleren Bestandteile bleiben fest und fallen als Anodenschlamm unter die Elektrode. Dieser dient als wichtige Quelle für die Herstellung von Edelmetallen, wie Gold oder Platin. An der Kathode werden Nickelionen aus der Lösung zu Nickel reduziert, alle unedleren Bestandteile bleiben in Lösung. Die Reinheit von Elektrolytnickel beträgt rund 99,9 %. Für die Gewinnung von Reinstnickel mit einer Reinheit von 99,99 % gibt es als Spezialverfahren das Mond-Verfahren, benannt nach Ludwig Mond, der 1890 Nickeltetracarbonyl entdeckte. Dieses Verfahren beruht auf der Bildung und Zersetzung des Nickeltetracarbonyls. Dazu wird feinverteiltes Rohnickelpulver bei 80 °C in einen Kohlenmonoxidstrom gebracht. Dabei bildet sich gasförmiges Nickeltetracarbonyl. Dieses wird von Flugstaub befreit und in eine 180 °C heiße Zersetzungskammer geleitet. Darin befinden sich kleine Nickelkugeln. An diesen zersetzt sich das Nickeltetracarbonyl wieder zu Nickel und Kohlenmonoxid. Es entsteht dadurch sehr reines Nickel. Physikalische Eigenschaften. Molvolumen als Funktion des Drucks für Nickel bei Zimmertemperatur Nickel ist ein silbrig-weißes Metall, das mit einer Dichte von 8,9 g/cm3 zu den Schwermetallen zählt. Es ist mittelhart (Mohs-Härte 3,8), schmiedbar, duktil und lässt sich ausgezeichnet polieren. Nickel ist wie Eisen und Cobalt ferromagnetisch, wobei die Curie-Temperatur 354 °C beträgt. Das Metall kristallisiert in einer kubisch-flächenzentrierten Kristallstruktur (Kupfer-Typ) in der mit dem Gitterparameter a = 352,4 pm sowie vier Formeleinheiten pro Elementarzelle. Diese Struktur behält es auch bei hohen Drücken bis mindestens 70 GPa bei. Eine weitere, metastabile Modifikation mit kubisch-raumzentrierter Kugelpackung konnte in dünnen Schichten auf Eisen oder Galliumarsenid gewonnen werden. Sie besitzt mit 183 °C eine deutlich geringere Curie-Temperatur. Die Zugfestigkeit von weichgeglühtem Nickel liegt bei 400–450 MPa bei einer Bruchdehnung zwischen 30–45 %. Die Härtewerte liegen um die 80 HB. Kalt verfestigtes Nickel, dessen Bruchdehnung unter 2 % beträgt, erreicht Festigkeiten bis 750 MPa bei Härtewerten um 180 HB. Reinnickelhalbzeuge mit 99 % Ni-Gehalt können kalt hochverfestigt werden. Das Isotop 62Ni hat die höchste Bindungsenergie je Nukleon aller Isotope aller Elemente. Chemische Eigenschaften. Nickel ist bei Raumtemperatur gegen Luft, Wasser, Salzsäure und Laugen sehr beständig. Verdünnte Säuren greifen Nickel nur sehr langsam an. Gegenüber konzentrierten, oxidierenden Säuren (Salpetersäure) tritt analog zum rostfreien Stahl Passivierung ein. Löslich ist Nickel in verdünnter Salpetersäure (ca. 10- bis 15-prozentig). Auch eine halbkonzentrierte Salpetersäure (ca. 30-prozentig) bewirkt noch merkliche Passivierung. Der häufigste Oxidationszustand ist +II, seltener werden −I, 0, +I, +III und +IV beobachtet. Im Nickeltetracarbonyl hat Nickel die Oxidationszahl 0. Nickel(II)-Salze lösen sich in Wasser unter Bildung von Aquakomplexen mit grünlicher Farbe. Fein verteiltes Nickel reagiert mit Kohlenmonoxid bei 50 bis 80 °C zu Nickeltetracarbonyl, Ni(CO)4, einer farblosen, sehr giftigen Flüssigkeit. Diese dient als Zwischenprodukt zur Herstellung von reinstem Nickel nach dem Mond-Verfahren. Bei 180 bis 200 °C zerfällt Nickeltetracarbonyl wieder in Nickel und Kohlenmonoxid. Physiologie. Für Pflanzen und verschiedene Mikroorganismen ist die Essenzialität von Nickel durch Isolierung mehrerer Enzyme (z. B. Urease, Co-F430), die Nickel im aktiven Zentrum enthalten, sowie durch Nachweis von Mangelerscheinungen in nickelarmer Umgebung, die sich durch Zusatz von Ni(II)-Salzen beheben lassen, gesichert. In der Elektrophysiologie werden Nickel-Ionen dazu verwendet, spannungsaktivierte Calciumkanäle zu blockieren. Gesundheitliche Probleme. Nickel ist mit der Nickeldermatitis der häufigste Auslöser für Kontaktallergien: in Deutschland sind schätzungsweise 1,9 bis 4,5 Millionen Menschen gegen Nickel sensibilisiert. Deswegen werden Metalle und Legierungen, die mit der Haut in Kontakt kommen, zunehmend seltener vernickelt. Etwa 10 % aller Kinder sind gegenüber Nickel sensibilisiert. Bei erneutem Kontakt mit dem Allergen können diese mit einer Kontaktallergie reagieren. Das Einatmen anorganischer Nickelverbindungen ist mit einem erhöhten Krebsrisiko für Plattenepithelkarzinome der Lunge und der oberen Luftwege verbunden. Derartige bösartige Neubildungen werden in Deutschland bei berufsbedingter Exposition als Berufskrankheiten anerkannt (BK 4109). Außerdem ist ein erhöhter Nickelgehalt in der Atemluft und im Trinkwasser ein Risikofaktor für eine Sensibilisierung gegen Nickel bei Kindern. Wirtschaftliche Bedeutung. Nickel wird als Metall in geringen Mengen benötigt, der größte Teil der Produktion geht in die Produktion von nichtrostenden Stählen und Nickellegierungen. Die Reserven an nach heutigen Gesichtspunkten abbauwürdigen Nickelvorkommen liegen zwischen 70 und 170 Millionen Tonnen. Gegenwärtig werden weltweit jährlich weit mehr als eine Million Tonnen (2006: 1,340 Mio. Tonnen) gefördert. Der Preis für Nickel unterliegt wegen Finanzmarktspekulationen zeitweise sehr hohen Preisschwankungen. Verwendung als Metall. Reines Nickelmetall wird in feinverteilter Form als Katalysator bei der Hydrierung ungesättigter Fettsäuren verwendet. Auf Grund seiner chemischen Beständigkeit wird Nickel für Apparate im chemischen Labor und der chemischen Industrie verwendet (z. B. Nickeltiegel für Aufschlüsse). Aus Nickelmetall werden Nickellegierungen mit genau bekanntem Verhältnis (z. B. für Münzen) hergestellt. Nickel dient als Überzugsmetall zum Korrosionsschutz („Vernickeln“) von Metallgegenständen: Wegen seiner vor Oxidation schützenden Eigenschaften werden Metalle (insbesondere Eisen) mittels galvanischer Technik für bestimmte technische Zwecke mit einer Nickelschicht überzogen. Ebenfalls genutzt wurde das Metall früher zur Herstellung der Fassungen von Nickelbrillen. Als Betastrahler wird das Nickelisotop 63Ni in Elektroneneinfangdetektoren in Gaschromatografen eingesetzt. Verwendung als Legierung. Nickel ist ein bedeutendes Legierungsmetall, das hauptsächlich zur Stahlveredelung verwendet wird. Der größte Teil des Nickels geht dorthin. Es macht Stahl korrosionsbeständig und erhöht seine Härte, Zähigkeit und Duktilität. Mit Nickel hochlegierte Stähle werden bei besonders korrosiven Umgebungen eingesetzt. Der Edelstahl V2A (der Name entstammt der "Versuchscharge 2 austenitisch" im Krupp-Stahlwerk, entspricht X12CrNi18-8) enthält 8 % Nickel neben 18 % Chrom, V4A (Markennamen Cromargan oder Nirosta) 11 % neben 18 % Chrom und 2 % Molybdän. Nachweis. Fällung des Nickel-Dimethylglyoxim-Komplexes aus einer Nickel(II)-sulfatlösung formula_2. Da Nickel aus ammoniakalischer Lösung mit Dimethylglyoxim quantitativ ausfällt, ist dieser Nachweis auch für die quantitative gravimetrische Nickelanalyse verwendbar. Aus ammoniakalischer Lösung kann auch mittels Elektrogravimetrie an einer Platinnetzelektrode eine quantitative Bestimmung erfolgen. Ähnlich anderen Schwermetallen wird Nickel heute meist durch Atomspektroskopie oder Massenspektrometrie auch im Ultraspurenbereich quantitativ bestimmt. Äußerst empfindlich ist die inverse Voltammetrie mit adsorptiver Anreicherung des Ni-Dimethyglyoxim-Komplexes an hängenden Quecksilbertropfen oder Quecksilberfilmelektroden. Verbindungen. Nickel kommt in Verbindungen hauptsächlich in der Oxidationsstufe +II vor. Die Stufen 0, +I, +III und +IV sind selten und meist instabil. Nickel bildet eine Vielzahl meist farbiger Komplexe. Organische Nickelverbindungen. Nickeltetracarbonyl Ni(CO)4 ist eine farblose, sehr giftige Flüssigkeit. Sie ist ein wichtiges Zwischenprodukt im Mond-Verfahren. Nickeltetracarbonyl war die erste entdeckte Metallcarbonyl-Verbindung. Nickelkomplexe. Lösungen von Tetraamminnickel(II)-sulfat (links) und Kaliumtetracyanoniccolat(II) (rechts) Nickel und dabei v. a. Nickel(II)-Ionen bildet viele, meist farbige Komplexe. Die Koordinationszahlen 6, 5 oder 4 sind am häufigsten. Bei schwachen, einzähnigen Liganden, beispielsweise Wasser, liegen sie meist als oktaedrische und paramagnetische High-spin-Komplexe mit Koordinationszahl 6 vor. Starke Liganden wie Cyanid bilden quadratisch-planare, diamagnetische Low-spin-Komplexe. Ebenfalls einen quadratisch-planaren Komplex bildet Dimethylglyoxim, da der Komplex zusätzlich durch Wasserstoffbrücken stabilisiert ist. Letzterer Bis(dimethylglyoximato)nickel(II)-Komplex ist für den nasschemischen Nickelnachweis von Bedeutung. Eine entsprechende Verbindung entsteht mit Kaliumthiocyanat. Eine sehr empfindliche Verbindung ist das Kaliumhexafluoroniccolat(IV) (K2[NiF6]). Mit einem starken Reduktionsmittel lässt sich aus Kaliumtetracyanoniccolat(II) der zweikernige Komplex K4[Ni2(CN)6] mit einwertigem Nickel herstellen. Daneben existiert eine Vielzahl von Komplexen mit organischen Liganden wie beispielsweise Ethylendiamin oder Anionen von Carbonsäuren. Neutron. Das Neutron (Plural "Neutronen") ist ein elektrisch neutrales Teilchen mit dem Formelzeichen n. Es ist, neben dem Proton, Bestandteil der meisten Atomkerne und somit aller uns vertrauten Materie. Beide gehören zu den Hadronen und Nukleonen. Neutronen existieren auch ohne Einbindung in einen Atomkern. In diesem Zustand werden sie als freie Neutronen bezeichnet und sind instabil. Elementare Eigenschaften. Das Neutron trägt keine elektrische Ladung (daher der Name); es hat aber ein magnetisches Moment von −1,91 Kernmagnetonen. Es gehört mit einer Masse von rund 1,675 · 10−27 kg (also etwa 1,008 665 u) zu den Baryonen und ist aus Quarks aufgebaut – zwei down-Quarks und einem up-Quark (Formel udd). Das Neutron hat den Spin 1/2 und ist damit ein Fermion. Als zusammengesetztes Teilchen ist es räumlich ausgedehnt und hat einen Durchmesser von circa 1,7 · 10−15 m, also 1,7 Femtometer (fm). Das Antiteilchen zum Neutron ist das Antineutron, das erstmals 1956 von Bruce Cork am Bevatron bei Proton-Proton-Kollisionen nachgewiesen wurde. Elementare Wechselwirkungen. Das Neutron unterliegt allen in der Physik bekannten vier Wechselwirkungen: der Gravitationskraft, der starken, der elektromagnetischen und der schwachen Wechselwirkung. Die starke Wechselwirkung – genauer: die „Kernkraft“, eine Art Restwechselwirkung der zwischen den Quarks wirkenden starken Wechselwirkung – ist dafür verantwortlich, dass Neutronen in Kernen gebunden sind, und bestimmt auch das Verhalten von freien Neutronen bei Stößen mit Atomkernen. Das Neutron ist zwar elektrisch neutral und unterliegt damit nicht der elektrostatischen Anziehung oder Abstoßung, aber aufgrund seines magnetischen Moments trotzdem der elektromagnetischen Wechselwirkung. Diese Tatsache sowie die räumliche Ausdehnung sind klare Indizien dafür, dass das Neutron ein zusammengesetztes Teilchen ist. Die schwache Wechselwirkung ist verantwortlich für den Betazerfall des freien Neutrons in ein Proton, ein Elektron und ein Elektron-Antineutrino. Neutronen als Bestandteile von Atomkernen, Isotope. Mit Ausnahme des häufigsten Wasserstoffisotops (Protium, 1H), dessen Atomkern nur aus einem einzelnen Proton besteht und das den normalen Wasserstoff bildet, enthalten alle Atomkerne sowohl Protonen als auch Neutronen. Protonen und Neutronen werden zusammenfassend Nukleonen (von lateinisch "nucleus", Kern) genannt. Die Anzahl der Protonen im Atomkern bestimmt die Kernladung, und damit die Zahl der Elektronen, die im neutralen Atom gebunden sind. Die Elektronenhülle wiederum bestimmt die chemischen Eigenschaften des Atoms. Deswegen gehören sogenannte Isotope, also die Atomsorten mit gleicher Protonen-, aber unterschiedlicher Neutronenzahl, zum gleichen chemischen Element. Ein Neutron und ein Proton haben jeweils fast die gleiche Masse, die allerdings um ein vielfaches höher als die Masse eines Elektrons ist. Die Nukleonenzahl, also die Summe aus der Zahl der Neutronen und der Protonen eines Atoms, wird deswegen auch als Massezahl bezeichnet. Sie stimmt in guter Näherung mit der Gesamtmasse des Atoms in u überein. Wenn einzelne Isotope unterschieden werden sollen, wird die Massezahl meist als Hochzahl vor oder mit einem Bindestrich hinter das Elementsymbol geschrieben, z. B. 60Co oder Co-60, 235U oder U-235. Um aus der Massezahl die Neutronenanzahl zu ermitteln, muss die Ordnungszahl (Protonenanzahl) des Elements abgezogen werden. Uran hat z. B. die Ordnungszahl 92; der Uran-235-Kern enthält also 235 minus 92 gleich 143 Neutronen. Stabilität von Atomkernen. Das Neutron hat eine etwas höhere Masse als das Proton. Daher kann sich ein freies Neutron durch Beta-minus-Zerfall in ein Proton, ein Elektron und ein Elektron-Anti-Neutrino umwandeln. Die Differenz der Masse zwischen dem Neutron und den Zerfallsprodukten wird den Zerfallsprodukten als Bewegungsenergie mitgegeben. In Atomkernen ist die Situation komplizierter: Für den Zusammenhalt des Kerns ist die Kernkraft, eine Art Restwechselwirkung der starken Wechselwirkung verantwortlich. Sie wirkt gleichermaßen auf Neutronen und Protonen anziehend, aber nur auf sehr kurze Distanz (quasi nur auf die unmittelbaren Nachbarn). Daher ist die Bindungsenergie pro Nukleon in allen Atomkernen ungefähr gleich. Die Bindung eines zusätzlichen Neutrons an einen Atomkern setzt einen Energiebetrag frei, der meist ca. einem Prozent der Neutronenmasse entspricht. Protonen werden von der Kernkraft etwa gleich stark gebunden wie Neutronen, jedoch muss hier zusätzlich die elektrische Abstoßung zwischen den positiv geladenen Protonen überwunden werden. Entsprechend geringer ist bei diesen die Energiefreisetzung bei der Bindung an einen Atomkern. Es hängt damit von der Zusammensetzung eines Atomkerns ab, ob die Bindung eines zusätzlichen Neutrons oder eines zusätzlichen Protons zu einem stärkeren Anwachsen der Masse des Kerns führt. Ist der neue Kern mit dem zusätzlichen Neutron schwerer als der mit dem Proton, ist der mit dem zusätzlichen Neutron bestrebt, per Beta-minus-Zerfall ein Neutron in ein Proton zu verwandeln. Ist hingegen der Kern mit dem Proton schwerer, ist dieser bestrebt, per Beta-plus-Zerfall oder Elektroneneinfang ein Proton in ein Neutron umzuwandeln (siehe Mattauchsche Isobarenregel). Es gibt nur ein recht kleines „Fenster“ (fast) gleicher Masse, bei der weder der Beta-minus- noch der Beta-plus-Zerfall (wohl aber der Elektroneneinfang) möglich ist. Solche Nuklidpaare sind z. B. Eisen-55 und Mangan-55 oder Jod-125 und Tellur-125. Es kommt vor, dass zwei Kerne gleicher Massenzahl, die sich in der Protonenzahl um zwei unterscheiden, beide stabil sind. Dies lässt sich dadurch erklären, dass gerade Neutronen- und Protonenzahlen energetisch günstiger sind als ungerade (siehe Paarenergie). Der Kern dazwischen kann dann meist auf zwei Wegen zerfallen: per Beta-minus-Zerfall zu dem Kern mit der nächsthöheren Ordnungszahl oder per Beta-plus-Zerfall oder Elektroneneinfang zu dem Kern mit der nächstniedrigeren Ordnungszahl. In der Regel überwiegt der Zerfallskanal mit der höheren Energiefreisetzung. Als Beispiel sei Arsen-74 angeführt (Ordnungszahl 33, also 33 Protonen und 41 Neutronen), das zu etwa einem Drittel zu Selen-74 (Ordnungszahl 34) und zu zwei Dritteln zu Germanium-74 (Ordnungszahl 32) zerfällt. Von den meisten Elementen existieren nur ein oder wenige stabile Isotope. Kerne mit mehr Neutronen als ihre stabilen Isotope unterliegen meist dem Beta-minus-Zerfall, Kerne mit weniger Neutronen dem Beta-plus-Zerfall. Bei den Ordnungszahlen 43 (Technetium), 61 (Promethium) und allen oberhalb 82 (Blei) gibt es keine stabilen Isotope. Die Instabilität der schweren Kerne ergibt sich aber nicht aus dem Beta-Zerfall, sondern aus der ab dem Eisen abnehmenden Bindungsenergie pro zusätzlichem Nukleon, die zur Folge hat, dass sehr schwere Kerne sich durch Spontanspaltung oder durch Alpha-Zerfall in leichtere umwandeln. Stabile leichte Kerne bestehen aus ungefähr gleich vielen Protonen und Neutronen. Mit steigender Massenzahl wächst die Neutronenzahl überproportional allmählich bis auf fast das Anderthalbfache der Protonenzahl an. Die Nuklidkarte in der üblichen Anordnung nach Segrè (Neutronenzahl nach rechts, Protonenzahl nach oben aufgetragen) macht dies dadurch augenfällig, dass der Streifen der stabilen Nuklide nicht gerade, sondern abwärts gekrümmt verläuft. Erzeugung und Nachweis. Es gibt viele verschiedene Arten von Neutronenquellen, in denen Neutronen aus Atomkernen freigesetzt werden. Zur Untersuchung von kondensierter Materie durch elastische und inelastische Neutronenstreuung werden vor allem Neutronen aus Forschungsreaktoren genutzt. Dort werden die Neutronen bei der Kernspaltung frei. Diese schnellen Neutronen haben Energien im Bereich von einigen MeV und müssen für Materialuntersuchungen erst auf rund ein Millionstel ihrer Bewegungsenergie abgebremst werden. Eine neuere Alternative zu Forschungsreaktoren sind Spallationsquellen. Auch Gewitter können schnelle Neutronen mit Energien bis zu 30 MeV produzieren. Thermische Neutronen. Die Abbremsung von Reaktorneutronen geschieht in einem den Reaktorkern umgebenden Wassertank (leichtes oder schweres Wasser als Moderator). Bei jedem Zusammenstoß eines schnellen Neutrons mit einem Atomkern des Wassers wird Energie an den getroffenen Kern abgegeben. Nach vielen solchen Stößen weisen die Neutronen ein der Wassertemperatur (etwa 300 K, „Zimmertemperatur“) entsprechendes Energiespektrum auf. Man spricht dann von thermischen Neutronen (siehe untenstehende Tabelle). „Kalte“ und „heiße“ Neutronen. Mit zusätzlichen Moderatoren kann das Energiespektrum der Neutronen verschoben werden. Diese zusätzlichen Moderatoren an Forschungsreaktoren bezeichnet man auch als sekundäre Neutronenquellen. Zur Gewinnung von sogenannten kalten Neutronen kommt häufig flüssiges Deuterium mit einer Temperatur von etwa 20 K zum Einsatz. Sogenannte heiße Neutronen werden in der Regel mit Graphit-Moderatoren bei etwa 3000 K erzeugt. Kalte, thermische und heiße Neutronen weisen jeweils eine bestimmte, mehr oder weniger breite Energieverteilung und damit Wellenlängenverteilung auf. In jedem Fall werden die Neutronen durch Strahlrohre (Neutronenleiter) aus dem Moderatortank oder den sekundären Neutronenquellen zu den Experimenten geleitet. Allerdings müssen noch genügend viele Neutronen im Reaktorkern verbleiben oder dorthin zurück reflektiert werden, um die Kettenreaktion aufrechtzuerhalten. "Ultrakalte" Neutronen (UCN) besitzen nur eine sehr geringe kinetische Energie und bewegen sich mit weniger als 5 m/s, wodurch sie sich magnetisch, mechanisch oder gravitativ speichern lassen. Von Gefäßen aus Beryllium, Berylliumoxid oder Nickel werden sie reflektiert. Speicherexperimente ermöglichen minutenlange Beobachtungsdauern, viel länger als bei Strahlexperimenten. Monochromatische Neutronen. Für viele Experimente werden monoenergetische Neutronen, also Neutronen einheitlicher Energie, benötigt. Diese erhält man an Reaktoren z. B. durch den Einsatz eines Monochromators. Dies ist ein Einkristall oder Mosaik-Kristall aus beispielsweise Silizium, Germanium, Kupfer oder Graphit; durch Nutzung bestimmter Bragg-Reflexe und Monochromatorwinkel können verschiedene Wellenlängen (Energien) aus der Wellenlängenverteilung ausgewählt werden (siehe auch Neutronensuperspiegel). Monochromatische Neutronen höherer Energien können an Beschleunigern aus geeigneten Kernreaktionen gewonnen werden. Nachweis. Da Neutronen keine elektrische Ladung tragen, können sie nicht direkt mit auf Ionisierung beruhenden Detektoren nachgewiesen werden. Der Nachweis von Neutronen geschieht mittels Neutronendetektoren. Bei niederen Neutronenenergien (unter etwa 100 keV) beruhen diese stets auf einer geeigneten Kernreaktion. Bei höheren Energien kann stattdessen auch der Rückstoß ausgenutzt werden, den ein geladenes Teilchen (meist Proton) bei der Streuung des Neutrons erfährt. Zerfall des freien Neutrons. Die Lebensdauer beträgt ca. 880 Sekunden (knapp 15 Minuten); dies entspricht einer Halbwertszeit von etwa 610 Sekunden. Das ist die mit Abstand größte Halbwertszeit aller instabilen Elementarteilchen. Sie ist schwierig zu messen, denn ein in normaler materieller Umgebung freigesetztes Neutron (auch in Luft) wird meist in Sekundenbruchteilen wieder von einem Atomkern absorbiert, „erlebt“ seinen Zerfall also nicht. Dementsprechend ist der Zerfall bei praktischen Anwendungen bedeutungslos, und das Neutron kann dafür als stabiles Teilchen angesehen werden. Grundlagenphysikalisch ist der Zerfall jedoch interessant. In einer frühen Phase des Universums machten freie Neutronen einen bedeutenden Teil der Materie aus; man kann die Entstehung besonders der leichten Elemente (und deren Isotopenverteilung) besser nachvollziehen, wenn die Lebensdauer des Neutrons genau bekannt ist. Außerdem erhofft man sich ein besseres Verständnis der schwachen Wechselwirkung. Proton und Elektron sind die Bausteine für ein Wasserstoffatom, so dass größere Mengen freier Neutronen im Weltall zu Wasserstoffgas werden, sobald die β-Strahlen ihre Energie verloren haben. Typische von freien Neutronen ausgelöste Prozesse. "Freie" (also nicht in einem Kern gebundene) Neutronen können an Atomkernen gestreut werden oder von ihnen absorbiert werden, was Kernreaktionen auslösen kann. Die Streuung kann elastisch oder inelastisch sein. Bei inelastischer Streuung verbleibt der Atomkern in einem angeregten Zustand, der dann (meist) durch Emission von Gammastrahlung zum Grundzustand zurückkehrt. Die elastische Streuung schneller Neutronen an Stoßpartnern mit kleinen Atomgewichten („Moderatoren“) bewirkt eine Abbremsung ihrer Geschwindigkeit bis in den thermischen Bereich. Insbesondere thermische, d. h. langsame Neutronen werden von vielen Atomkernen absorbiert. Wird danach nur Gammastrahlung, aber kein anderes Teilchen emittiert, heißt der Vorgang Neutroneneinfang. Der entstandene neue Atomkern ist ein um eine Einheit schwereres Isotop des ursprünglichen Kerns, der radioaktiv sein kann (Neutronenaktivierung). Ist er nicht radioaktiv (z. B. bei Cadmium und Bor), dient dieses Material zum Neutroneneinfang und eignet sich deshalb zur Neutronenabschirmung. Einige wenige Nuklide spalten sich nach dem Absorbieren eines thermischen Neutrons. Dabei werden schnelle Neutronen frei, was – sofern die kritische Masse überschritten ist – nach deren Abbremsung zur Kettenreaktion führt. Dieser Prinzip wird in Kernreaktoren zur Energiegewinnung genutzt und so funktioniert die Atombombe. Eingefangene "schnelle" freie Neutronen lösen Kernreaktionen z. B. des Typs (n, p) oder (n, formula_3) aus, wodurch ebenfalls in vielen Fällen ein Radionuklid-Kern entsteht. Wirkungen auf Materie. Die Materialeigenschaften von Metallen und anderen Werkstoffen werden durch Neutronenbestrahlung verschlechtert. Dies begrenzt die Lebensdauer von Komponenten in z. B. Kernreaktoren. In Kernfusionsreaktoren mit ihrer höheren Energie der Neutronen tritt dieses Problem verstärkt auf. Die Wirkung auf lebendes Gewebe ist ebenfalls schädlich. Sie beruht bei schnellen Neutronen größtenteils auf von diesen angestoßenen Protonen, die einer stark ionisierenden Strahlung entsprechen. Diese Schadwirkung ist gelegentlich als Strahlentherapie zur Bekämpfung von Krebszellen erprobt worden. Thermische Neutronen erzeugen durch Neutroneneinfang in Wasserstoff eine Gammastrahlung, die ihrerseits ionisiert. Geschichte der Entdeckung und Erforschung. Ernest Rutherford sagte im Jahr 1920 einen neutralen Kernbaustein voraus, bei dem es sich möglicherweise um eine Proton-Elektron-Kombination handele, er sprach von einem „kollabierten Wasserstoffatom“. William Draper Harkins bezeichnete dieses Teilchen 1921 als Neutron. Die beobachtete, sehr energiereiche Strahlung hatte ein großes Durchdringungsvermögen durch Materie, zeigte jedoch sonst ein für Gammastrahlung sehr ungewöhnliches Verhalten. Die Strahlen waren zum Beispiel in der Lage, leichte Atome in schnelle Bewegung zu versetzen. Eine genauere Analyse zeigte, dass die Energie dieser „Gammastrahlung“ so groß hätte sein müssen, dass sie alles bis dahin Bekannte weit übertroffen hätte. So kamen mehr und mehr Zweifel auf, ob es sich bei der beobachteten Strahlung wirklich um Gammastrahlen handelte. Entsprechend dem durchgeführten Versuch nannte man die Strahlung inzwischen „Beryllium-Strahlung“. Ein Jahr später, 1931, stellten Irène Joliot-Curie und ihr Ehemann Frédéric Joliot-Curie bei Experimenten mit der Beryllium-Strahlung folgende Tatsache fest: Lässt man die „Beryllium-Strahlung“ in eine Ionisationskammer treffen, so zeigt diese keinen nennenswerten Strom an. Bringt man jedoch vor die Ionisationskammer eine wasserstoffhaltige Materialschicht (zum Beispiel Paraffin), dann steigt der Strom in der Kammer stark an. Als Ursache für den Stromanstieg in der Ionisationskammer vermutete das Ehepaar Joliot-Curie, dass aus dem wasserstoffhaltigen Paraffin Protonen durch die „Beryllium-Strahlung“ herausgelöst werden, welche dann in der Ionisationskammer die notwendige Ionisierung bewirken. Sie konnten ihre Vermutung durch den Nachweis solcher Rückstoß-Protonen in der Wilsonschen Nebelkammer belegen. Als Mechanismus vermuteten Joliot-Curie einen dem Compton-Effekt verwandten Vorgang. Die harte Gammastrahlung sollte den Protonen den notwendigen Impuls übertragen. Abschätzungen zeigten jedoch, dass zur Erzeugung eines Rückstoßprotons, dessen Spurlänge in der Nebelkammer etwa 26 cm betrug, eine Gammaenergie von etwa 50 MeV notwendig wäre, was ziemlich unrealistisch erschien. James Chadwick – ein Schüler Rutherfords, der wie er zunächst die Hypothese eines stark gebundenen Elektron-Proton-Zustands vertrat – glaubte wie dieser nicht an einen „Compton-Effekt beim Proton“ und nahm an, dass die „Beryllium-Strahlung“ aus Teilchen bestehen müsse. Als Irène und Frédéric Joliot-Curie ihre Versuchsergebnisse veröffentlichten, in denen sie zeigten, dass Bothes „Beryllium-Strahlung“ in der Lage war, aus Paraffin Protonen mit hoher Energie herauszuschlagen, war für Chadwick klar, dass es sich nicht um Gammastrahlung, sondern nur um Teilchen mit einer dem Proton vergleichbaren Masse handeln konnte. In den zahlreichen Versuchen wiederholte er die Experimente des Ehepaares Joliot-Curie und bestätigte den Joliot-Curie’schen Kernschleuder-Effekt. Weiterhin konnte er 1932 experimentell nachweisen, dass es sich bei Bothes „Beryllium-Strahlung“ nicht um Gammastrahlen, sondern vielmehr um einen Geschossregen aus schnell bewegten Teilchen handelte, die ungefähr die Masse des Protons besitzen, jedoch elektrisch neutral sind. Er erkannte, dass die Eigenschaften dieses Typs Strahlung eher mit denen eines bereits zwölf Jahre zuvor von Ernest Rutherford als Kernbaustein vermuteten neutralen Teilchens in Einklang zu bringen waren. Da die nunmehr entdeckten Teilchen keine elektrische Ladung trugen, nannte er sie Neutronen. Für die Entdeckung des Neutrons erhielt er 1935 den Nobelpreis für Physik. Mit dieser Entdeckung konnte die Beschreibung des Atomaufbaus vorerst vollendet werden: Der Atomkern, bestehend aus Protonen und Neutronen, wird von einer Hülle aus Elektronen umgeben. Bei einem elektrisch neutralen Atom entspricht die Anzahl der negativ geladenen Elektronen in der Atomhülle stets genau jener der positiv geladenen Protonen im Atomkern, wohingegen die Anzahl der Neutronen im Kern variieren kann. Im gleichen Jahr 1932 stellte Werner Heisenberg seine Nukleonentheorie auf. Um 1940 nahm man an, dass das Neutron eine Verbindung aus Proton und Elektron darstellt. So hätte man alle Atome auf diese zwei Bausteine zurückführen können. Erst mit der weiteren Entwicklung der Quantenmechanik und der Kernphysik wurde klar, dass es keine Elektronen als dauerhafte Bestandteile des Kerns geben kann. Als Wolfgang Pauli 1930 das Auftreten eines (Anti-)Neutrinos beim Betazerfall postulierte, nannte er es noch „Neutron“. Erst später etablierte sich die Bezeichnung Neutrino auf Vorschlag von Enrico Fermi. Nupedia. Nupedia war eine freie, kommerzielle Online-Enzyklopädie in größtenteils englischer Sprache und die Vorläuferin der Wikipedia. Die verwendeten Programme "NupeCode" und der Nachfolger "nunupedia" stehen wie die Wikipedia-Software MediaWiki unter der GNU General Public License. Geschichte. Ins Leben gerufen wurde Nupedia im März 2000 von Jimmy Wales und Larry Sanger. Finanziert wurde das Projekt von Bomis, einem Online-Anbieter für Foren zu den Themen Unterhaltung, Sport, Science-Fiction und Erotik. Nupedia hatte ein aufwendiges, siebenstufiges Peer-Review-Verfahren, das einen hohen Qualitätsstandard der Artikel sicherstellen sollte. Nupedia entwickelte sich sehr langsam. Bis November 2000 waren lediglich zwei Artikel in voller Länge veröffentlicht, nach 18 Monaten waren es etwa 20. Als das Projekt im September 2003 eingestellt wurde, waren lediglich 25 Artikel fertiggestellt. Für die Nupedia erfolgte die Erarbeitung der Artikel mit einem kleineren Kreis von Fachautoren, und vor der Veröffentlichung wurden alle Artikel einer ausführlichen Prüfung unterworfen. Die Artikel unterlagen anfangs der eigenen "Nupedia Open Content License"; im Januar 2001 wechselte man auf Drängen von Richard Stallman zur GNU-Lizenz für freie Dokumentation. Dieser startete aber zu gleicher Zeit das GNUPedia-Projekt, wodurch Befürchtungen einer möglichen Konkurrenz der beiden Projekte geweckt wurden. Da Nupedia einen sehr bürokratischen Arbeitsablauf hatte, waren die Artikel zwar von hoher Qualität, aber das Projekt wuchs nur langsam. 2001 startete Jimmy Wales das Wikipedia-Projekt. Wikipedia war ursprünglich nur als Vorstufe für Nupedia-Artikel gedacht, zog aber viele Akteure an und entwickelte eine große Eigendynamik. Im ersten Monat wurden 200 Artikel erstellt, im ersten Jahr waren es 18.000. Der Erfolg führte nicht nur zur Beendigung des GNUPedia-Projektes, sondern auch von Nupedia. Bomis beendete seine Unterstützung im Januar 2002 und Larry Sanger trat kurz darauf sowohl aus dem Nupedia- als auch aus dem Wikipedia-Projekt aus. In der Folgezeit wurden nur noch zwei Artikel fertiggestellt. Das Projekt wurde im September 2003 beendet. Ein Teil der Artikel wurde in die Wikipedia übernommen. Die Domain nupedia.com, unter der das Projekt früher erreichbar war, wurde inzwischen abgeschaltet. Newton (Einheit). Das Newton (Einheitenzeichen N) ist die im internationalen Einheitensystem (SI) für die physikalische Größe Kraft verwendete Maßeinheit. Sie wurde im Jahre 1946 von der Generalkonferenz für Maß und Gewicht im heutigen Sinn festgelegt und 1948 von ihr nach dem englischen Wissenschaftler Isaac Newton benannt. a>n wird jeweils die Gewichtskraft eines Wägestückes in der Einheit Newton (N) bestimmt. Veranschaulichungen. Ein Newton ist die Größe der Kraft, die aufgebracht werden muss, um einen ruhenden Körper der Masse 1 kg innerhalb einer Sekunde gleichförmig auf die Geschwindigkeit formula_7 zu beschleunigen. Ein Newton ist die Größe der Kraft, die aufgebracht werden muss, um einem Körper der Masse 1 kg die Beschleunigung formula_8 zu erteilen. Ein Newton ist die Größe der Kraft, die aufgebracht werden muss, um bei einer geradlinigen Bewegung die Geschwindigkeit eines Körpers der Masse 1 kg jede Sekunde um formula_7 zu ändern. Wenn man die Gewichtskraft eines Objektes in einem Schwerefeld angeben will (was üblicherweise in Newton erfolgt), ist das zu unterscheiden von der Masse des Objektes, die in Kilogramm angegeben wird. Als Faustregel gilt: 1 kg entspricht auf der Erdoberfläche etwa 10 N, die Einheiten sind aber grundverschieden. Da die mittlere Erdbeschleunigung (der sog. Ortsfaktor) auf Meereshöhe formula_10 beträgt, erfährt ein Körper der Masse 1 kg dort eine Gewichtskraft von 9,81 N. Umgekehrt ist 1 Newton die Gewichtskraft, die auf einen Körper mit der Masse 102 Gramm wirkt. Nikolaus von Kues. Nikolaus von Kues. Zeitgenössisches Stifterbild vom Hochaltar der Kapelle des St.-Nikolaus-Hospitals, Bernkastel-Kues Nikolaus von Kues, latinisiert Nicolaus Cusanus oder "Nicolaus de Cusa" (* 1401 in Kues an der Mosel, heute Bernkastel-Kues; † 11. August 1464 in Todi, Umbrien), war ein schon zu Lebzeiten berühmter, universal gebildeter deutscher Philosoph, Theologe und Mathematiker. Er gehörte zu den ersten deutschen Humanisten in der Epoche des Übergangs zwischen Spätmittelalter und Früher Neuzeit. Ob die herkömmliche Bezeichnung „Mystiker“ für ihn sinnvoll erscheint, hängt von der Definition des Begriffs Mystik ab und wird in der Forschung unterschiedlich beurteilt. In der Kirchenpolitik spielte Nikolaus eine bedeutende Rolle, insbesondere in den Auseinandersetzungen um die Kirchenreform. Auf dem Konzil von Basel stand er anfangs auf der Seite der Mehrheit der Konzilsteilnehmer, die eine Beschränkung der Befugnisse des Papstes forderte. Später wechselte er aber ins päpstliche Lager, das letztlich die Oberhand gewann. Er setzte sich tatkräftig für die päpstlichen Interessen ein, zeigte diplomatisches Geschick und machte eine glanzvolle Karriere als Kardinal (ab 1448), päpstlicher Legat, Fürstbischof von Brixen und Generalvikar im Kirchenstaat. In Brixen stieß er allerdings auf den massiven Widerstand des Adels und des Landesfürsten, gegen den er sich nicht durchsetzen konnte. Als Philosoph stand Nikolaus in der Tradition des Neuplatonismus, dessen Gedankengut er sowohl aus antikem als auch aus mittelalterlichem Schrifttum aufnahm. Sein Denken kreiste um das Konzept des Zusammenfalls der Gegensätze zu einer Einheit, in der sich die Widersprüche zwischen scheinbar Unvereinbarem auflösen. Metaphysisch und theologisch sah er in Gott den Ort dieser Einheit. Auch in der Staatstheorie und Politik bekannte er sich zu einem Einheitsideal. Das Ziel, eine möglichst umfassende Eintracht zu verwirklichen, hatte für ihn höchsten Wert, sachliche Meinungsverschiedenheiten hielt er demgegenüber für zweitrangig. Im Sinne dieser Denkweise entwickelte er eine für seine Zeit ungewöhnliche Vorstellung von religiöser Toleranz. Dem Islam, mit dem er sich intensiv auseinandersetzte, billigte er einen gewissen Wahrheitsgehalt und eine Existenzberechtigung zu. Jugend und Studium. Das Geburtshaus des Nikolaus von Kues Wappen des Nikolaus Cryfftz (Krebs) von Kues Nikolaus von Kues wurde als "Nikolaus Cryfftz" in Kues an der Mosel geboren. Sein Vater Johann („Henne“) Cryfftz war als Schiffer ein wohlhabender Kaufmann. Mit dem Familiennamen Cryfftz (Krebs, lateinisch "Cancer") nannte sich Nikolaus letztmals 1430; dieser Name wurde später hauptsächlich von seinen politischen Gegnern weiter benutzt, während Nikolaus selbst nach Art der Humanisten den Gelehrtennamen "Nicolaus Treverensis" („Nikolaus von Trier“) oder "Nicolaus de Cusa" trug. In Heidelberg immatrikulierte er sich 1416 in der Artistenfakultät der dortigen Universität, in der damals der Nominalismus die vorherrschende philosophische Richtung war. Im folgenden Jahr verließ er Heidelberg. Wahrscheinlich schon damals, spätestens 1420 ging er nach Padua zum Studium des Kirchenrechts, das er im Frühjahr oder Frühsommer 1423 mit der Promotion zum "doctor decretorum" („Doktor der Dekrete“) abschloss. In Padua knüpfte er Kontakte zu Persönlichkeiten, die in der Folgezeit prominente Kirchenmänner wurden, den späteren Kardinälen Giuliano Cesarini und Domenico Capranica. Dort schloss er auch eine lebenslange Freundschaft mit dem bedeutenden Mathematiker und Astronomen Paolo dal Pozzo Toscanelli. Entsprechend seinem allseitigen Bildungsinteresse erwarb er eine Fülle von Kenntnissen auf Gebieten, die in keinem Zusammenhang mit seinem Studienfach standen. Pfründen und Ämter. Spätestens Anfang Februar 1425 war Nikolaus wieder in Kues. Er trat in den Dienst des dort zuständigen Erzbischofs von Trier, Otto von Ziegenhain, in dessen Auftrag er 1427 seine erste Romreise unternahm. Otto machte ihn zu seinem Sekretär und verschaffte ihm zahlreiche Pfründen (mit regelmäßigen Einkünften verbundene kirchliche Ämter), darunter insbesondere die Dekanei am Stift St. Florin in Koblenz mit einem Kanonikat. Der Erwerb von Pfründen war ihm ebenso wie anderen Humanisten stets ein wichtiges Anliegen, denn die damit verbundenen Einkünfte verschafften ihm seinen Lebensunterhalt und die materielle Grundlage für seine ausgedehnten Aktivitäten. Insgesamt hat Nikolaus im Lauf seines Lebens 30 Pfründen entweder besessen oder in seinen Besitz zu bringen versucht. Er kümmerte sich intensiv um seine Pfründen und die mit ihnen verbundene Wirtschaftsführung, wobei ihm seine ökonomische Begabung zugutekam. Damaligem Brauch entsprechend hatte Nikolaus geistliche Ämter inne, ohne die entsprechenden Weihen zu besitzen; die Priesterweihe erhielt er erst zwischen 1436 und 1440. Steinkanzel in der Wendelinusbasilika zu St. Wendel, von Nikolaus von Kues im Jahre 1462 gestiftet Dass er zu den erfolgreichen „Pfründenjägern“ gehörte, zeigt die lange Liste seiner geistlichen Ämter, darunter: Pfarrkirche St. Andreas in Altrich (1425–1429); Kanonikat an St. Simeon in Trier (1426–1428); Pfarrkirche St. Gangolf in Trier (ab 1427); Dekanei an Liebfrauen in Oberwesel (1427–1431, 1431 gegen eine Jahresrente getauscht); Dekanei an St. Florin in Koblenz (1427–1445); Kanonikat an St. Kastor in Karden (1430 bis nach 1452); Kanonikat an St. Florin in Koblenz (ab 1430); Vikarie an St. Paulin in Trier (1430 bis nach 1438); Kanonikat an St. Martin in Oberwesel (1433 bezeugt); Propstei in Münstermaifeld (1435–1445); Pfarrkirche Bernkastel (1436–1441 bezeugt); Propstei in Magdeburg (1437–1439 bezeugt; dort konnte sich Nikolaus jedoch nicht durchsetzen); Kanonikat in Lüttich (1438–1461); Propstei von St. Aposteln in Köln (1441; erlangt, aber nicht realisiert); Johannes-Altar in Münstermaifeld (ab 1442); ein päpstliches Subdiakonat (ab 1443); Pfarrkirche in Schindel (1443–1464); Kanonikat und Domherrenpräbende in Utrecht (1443–1446); Archidiakonat von Brabant (1445–1455/59); Propstei in Oldenzaal (1446 bis 1452/53); Pfarrkirche St. Wendelin in St. Wendel (1446 erstmals bezeugt); Titelkirche San Pietro in Vincoli in Rom (1449–1464); päpstliche Vollmacht zur Übertragung von 10 Kanonikaten sowie zur Reservierung von 10 Präbenden und 20 weiteren Benefizien (1450); Bistum Brixen (1450–1464); Propstei in Münstermaifeld (durch Rücktausch erneut erhalten, 1455/59–1464); Abtei SS. Severo e Martirio bei Orvieto (1463–64); Propstei von St. Mauritius in Hildesheim (1463 erhalten, aber nicht realisiert). Humanistische und wissenschaftliche Aktivitäten. Im Frühjahr 1425 ließ sich Nikolaus an der Universität Köln als Doktor des Kirchenrechts immatrikulieren. Wahrscheinlich unterrichtete er dann dort in der juristischen Fakultät, doch gibt es dafür keinen Beleg. Er schloss Freundschaft mit dem sechs Jahre älteren Professor Heymericus de Campo, der in Köln zunächst an der Fakultät der Artes tätig war und ab 1428 Theologie unterrichtete. Heymericus, der zur Traditionslinie des scholastischen Philosophen und Theologen Albertus Magnus gehörte, beeinflusste Nikolaus stark; er brachte ihm den Neuplatonismus nahe und machte ihn mit den Schriften des Pseudo-Dionysius Areopagita vertraut, die dem Mittelalter spätantikes neuplatonisches Gedankengut vermittelt hatten. 1428 reiste Nikolaus nach Paris, um dort Werke des katalanischen Denkers Raimundus Lullus zu studieren. Er setzte sich intensiv mit Lullus auseinander. Viele Werke des Katalanen schrieb er eigenhändig ab, wobei er sich dazu Notizen machte. Zwei Rufe nach Löwen, wo ihm die Universität eine Kirchenrechtsprofessur anbot, schlug er 1428 und 1435 aus. Als Humanist leistete Nikolaus Bedeutendes in der historisch-philologischen Forschung, sowohl durch Auffindung von Handschriften teils verschollener antiker Werke und Entdeckung unbekannter mittelalterlicher Quellen als auch durch seine kritische Auseinandersetzung mit den Quellentexten. Er gehörte zu den Pionieren der rechtshistorischen Forschung, die damals wegen der Auseinandersetzungen um die Kirchenreform einen besonderen Aktualitätswert hatte. Wegweisend war seine Leistung, nicht nur die gängigen Rechtssammlungen heranzuziehen, sondern auch verschollene Handschriften und Urkunden ausfindig zu machen und für aktuelle Konflikte auszuwerten. Er studierte die alten germanischen Volksrechte und verglich ihre Bestimmungen mit der Rechtspraxis seiner Zeit. In der Kölner Dombibliothek entdeckte er eine Handschrift mit Papstbriefen an die frühmittelalterlichen fränkischen Könige („Codex Carolinus“). 1433 zeigte er erstmals mit philologischen Argumenten, dass die Konstantinische Schenkung, eine angebliche Urkunde Kaiser Konstantins des Großen, auf die sich die Kurie seit dem 11. Jahrhundert zur Begründung ihrer territorialen Ansprüche stützte, eine Fälschung ist. Wenige Jahre später erbrachte Lorenzo Valla einen Beweis der Fälschung, der ebenfalls auf sprachlichen Beobachtungen basierte. Auch die Unechtheit von angeblichen Texten antiker Päpste, die in den pseudo-isidorischen Dekretalen enthalten waren, konnte Nikolaus nachweisen. Unter den Handschriften mit Werken antiker Schriftsteller, die er entdeckte, war eine, die zwölf bis dahin unbekannte Komödien des Plautus enthielt, und eine mit den ersten sechs Büchern der "Annalen" des Tacitus. Wie bei Humanisten üblich war auch Nikolaus bibliophil (bücherliebend), er sammelte eifrig wertvolle Handschriften aller Art, wobei er auch Bände mit prachtvollem Buchschmuck zu schätzen wusste. Allerdings war er kein typischer Renaissance-Humanist, denn das primär an stilistischer Qualität orientierte Literatentum, die Begeisterung für vollendete rhetorische und poetische Kunst spielte bei ihm eine geringe Rolle. Stattdessen zeigte er ein bei damaligen Humanisten seltenes Interesse an eigenständiger Auseinandersetzung mit schwierigen philosophischen und theologischen Fragen. 1450 schloss Nikolaus mit dem Astronomen Georg von Peuerbach Freundschaft. Er beschäftigte sich intensiv mit Astronomie. 1444 kaufte er astronomische Instrumente und Schriften, doch ist unbekannt, ob er die Instrumente auch für eigene Beobachtungen benutzt hat. In seiner Schrift über die Kalenderreform "(De correctione kalendarii)" ging Nikolaus auf die Fehlerhaftigkeit des Julianischen Kalenders und der Osterrechnung ein und war damit ein wichtiger Vertreter der Bemühungen um eine Kalenderreform. Sein Anliegen wurde jedoch erst 1582 durch die Gregorianische Kalenderreform verwirklicht. Konzil von Basel. Anfang 1430 starb Nikolaus’ Förderer Otto von Ziegenhain, der Erzbischof von Trier. Im Streit um die Nachfolge („Trierer Bischofsstreit“) stellte sich Nikolaus auf die Seite des Kandidaten Ulrich von Manderscheid, hinter dem eine starke Adelspartei stand. Ulrichs Rivalen waren Jakob I. von Sierck, den die Mehrheit des Domkapitels gewählt hatte, und Raban von Helmstatt, der Kandidat von Papst Martin V. Ulrich setzte sich mit Gewalt durch und wurde exkommuniziert. Nach dem Tod Papst Martins wandte sich Ulrich Anfang 1432 an das Konzil von Basel, wo er sich gegen den neuen Papst Eugen IV. durchzusetzen hoffte. Er schickte Nikolaus, der sein Sekretär und Kanzler war und ihn bereits auf dem Nürnberger Reichstag 1431 vertreten hatte, nach Basel. Nikolaus erhob die örtliche Auseinandersetzung um das Trierer Erzbistum zu einer Grundsatzfrage, indem er für die Rechte der Laienschaft eintrat, der kein Bischof vom Papst aufgezwungen werden dürfe. Er teilte die Auffassung der Konzilsmehrheit, wonach das, was alle betrifft, auch von allen gebilligt werden muss, und vertrat den Vorrang des göttlichen Rechts und des Naturrechts vor dem positiven Recht. Daran habe sich sogar der Papst zu halten; er müsse daher einen Konsens mit den von seinen Entscheidungen Betroffenen anstreben. Zwar unterlag Ulrich vor dem Konzil, doch konnte Nikolaus dort zunehmend Ansehen und Einfluss gewinnen; sein diplomatisches Geschick und seine Befähigung zur Vermittlung in Konflikten fanden Wertschätzung. Zu den Aufgaben, die ihm übertragen wurden und die er lösen konnte, gehörten die Erzielung eines Kompromisses mit den rebellischen Hussiten, die sich nach anfänglicher Ablehnung auf seine Ideen einließen, und die Klärung der Rolle der päpstlichen Legaten auf dem Konzil. Anfangs stand er schon wegen seiner Rolle als Interessenvertreter Ulrichs auf der Seite der Konziliaristen, die für den Vorrang des Konzils gegenüber dem Papst eintraten und unter den Konzilsteilnehmern in der Mehrheit waren. Als Anhänger Ulrichs war er aus der Sicht der Kurie sogar exkommuniziert. 1436 vollzog er jedoch einen Parteiwechsel und stellte sich auf die Seite der Minderheit, die den Papst unterstützte. Ausschlaggebend war dabei für ihn das Ziel, eine Wiedervereinigung der katholischen Kirche mit der orthodoxen byzantinischen Kirche zu erreichen; diese Absicht glaubte er eher mit dem Papst als mit den Konziliaristen verwirklichen zu können. Der byzantinische Gesandte erkannte die päpstlich gesinnte Konzilsminderheit als rechtmäßige Vertretung der westlichen Kirche an. Inwieweit Nikolaus’ Übertritt zur päpstlichen Partei eine Konsequenz aus seinen schon zuvor vertretenen theoretischen Überzeugungen war, wie er selbst behauptete, und welche Rolle möglicherweise opportunistische Motive spielten, war schon damals umstritten und konnte bis heute nicht eindeutig geklärt werden. Einerseits hatte Nikolaus schon als Konziliarist Argumente vorgebracht, auf die er sich später beim Parteiwechsel berufen konnte, andererseits legte auch ein machtpolitisches Kalkül den Schritt nahe; er hegte die realistische und zutreffende Erwartung, dass das Konzil scheitern werde, und seine Gesinnungsänderung wurde zum Ausgangspunkt für seine glänzende Karriere. Als Gesandter in Konstantinopel. Am 17. Mai 1437 verließ Nikolaus Basel und begab sich im Auftrag der päpstlichen Partei zu Verhandlungen über die Kircheneinheit nach Konstantinopel. Dort setzte er sich gegen eine Gesandtschaft der Konzilsmehrheit durch. Am 27. November 1437 brachen der byzantinische Kaiser Johannes VIII. Palaiologos, der Patriarch von Konstantinopel und zahlreiche Bischöfe der Ostkirche mit den päpstlichen Gesandten, darunter Nikolaus, nach Westen auf. Ihr Ziel war, die Einheit auf einem Unionskonzil zu verwirklichen und so auch militärische Unterstützung für das Byzantinische Reich zu gewinnen, das im Kampf gegen die Türken vom Untergang bedroht war. Zu den Teilnehmern der langen Schiffsreise gehörte der griechische Erzbischof und spätere Kardinal Bessarion, der mit Nikolaus Freundschaft schloss. Am 8. Februar 1438 landeten sie in Venedig. Damit hatte sich Nikolaus erfolgreich auf europäischer Ebene in der Politik profiliert. Als Gesandter in Deutschland. Im März 1438 erklärten die deutschen Kurfürsten und der neue König Albrecht II. ihre Neutralität im Konflikt zwischen Papst Eugen IV. und dem Konzil von Basel. Unter den prominenten päpstlichen Gesandten, welche diese Neutralität aufbrechen und die Deutschen für den Papst gewinnen sollten, war Nikolaus der einzige Deutsche. Zunächst hatte er formal nur einen niederen Rang unter den päpstlichen Beauftragten inne, doch am 22. Juli 1446 wurde er zum Legaten ernannt und übernahm damit eine Schlüsselposition. Seine zentrale Rolle würdigte Enea Silvio de' Piccolomini, der spätere Papst Pius II., indem er ihn den „Herkules der Eugenianer“ nannte; die Gegenseite griff ihn als Verräter an. In dem langwierigen, zehn Jahre dauernden Kampf trat er auf einer Reihe von Reichstagen und Fürstenversammlungen auf, darunter dem Reichstag von Nürnberg 1438, dem Reichstag von Mainz 1441 und dem Fürstentag von Aschaffenburg 1447, auf dem sich die deutschen Fürsten endgültig für den Papst entschieden. 1448 war er maßgeblich am Abschluss des Wiener Konkordats beteiligt, das die kirchlichen Verhältnisse im Reich und die Beziehungen zwischen Reich und Kurie abschließend regelte. Daneben war Nikolaus in diesen Jahren mit einer Fülle von politischen und kirchlichen Aufgaben in Deutschland beschäftigt, wobei es vor allem um Streitschlichtung ging. Dabei war er insbesondere auch in seiner Trierer Heimatregion aktiv. Kardinal und Bischof von Brixen. Nikolaus wurde zur Belohnung für seine erfolgreichen Dienste von Eugen IV. zum Kardinal ernannt, doch starb der Papst, bevor er diesen Schritt öffentlich verkünden konnte. Im anschließenden Konklave wurden bei der Papstwahl bereits Stimmen für Nikolaus abgegeben. Zum Nachfolger Eugens gewählt wurde aber Kardinal Tommaso Parentucelli (Nikolaus V.), ein bedeutender Förderer des Humanismus und langjähriger Freund des Nikolaus von Kues. Er erhob den Kusaner am 20. Dezember 1448 öffentlich zum Kardinal mit der Titelkirche San Pietro in Vincoli, doch nahm der Neuernannte erst am 11. Januar 1450 in Rom den Kardinalshut in Empfang. Er war zu diesem Zeitpunkt der einzige deutsche Kardinal. Am 23. März 1450 wurde er vom Papst zum Bischof des Fürstbistums Brixen im heutigen Südtirol ernannt und am 26. April geweiht. Dort musste er sich gegen das Domkapitel durchsetzen, das bereits den dortigen Kanoniker Leonhard Wismair zum Bischof gewählt hatte. Hinter Leonhard stand Herzog Sigmund „der Münzreiche“ von Österreich, der in Tirol regierte. Im März 1451 kam es in Salzburg zu einer Einigung, Nikolaus erreichte den Rücktritt des Gegenkandidaten und wurde vom Herzog anerkannt. Am 24. Dezember 1450 wurde Nikolaus zum päpstlichen Legaten ernannt und mit außerordentlichen Vollmachten zur Kirchen- und Klosterreform in Deutschland, Österreich und den Niederlanden ausgestattet. Anschließend begab er sich auf die Legationsreise, die bis zum Frühjahr 1452 dauerte. Wiederum bildete die Streitschlichtung einen wesentlichen Teil seiner Aufgaben; zu den Konflikten, mit denen er sich zu befassen hatte, gehörte insbesondere die langwierige Soester Fehde, an deren Beilegung er maßgeblich beteiligt war. Ein wichtiger Auftrag, den er auszuführen hatte, war die Verkündigung des Ablasses, der anlässlich des Jubeljahres 1450 den Gläubigen gewährt wurde. Die Burg Buchenstein (Andraz), auf der Nikolaus Zuflucht fand Bei der Durchführung der Reform trat Nikolaus, der früher durch seine diplomatische, vermittelnde Art erfolgreich gewesen war, nun auf die Autorität seines Amtes gestützt oft hart und kompromisslos auf. Besonders bei den Bettelorden stieß er auf heftigen Widerstand. Auch die von ihm geforderten rigorosen Maßnahmen gegen die Juden riefen bei Bischöfen, beim Rat der Stadt Nürnberg und beim Markgrafen von Brandenburg Protest hervor und fanden auch beim König und beim Papst keine Zustimmung. Er warf den Juden Habgier und Wucher vor und forderte ihre Kennzeichnung durch sichtbare Zeichen an der Kleidung. Nach dem Ende der Legationsreise übernahm Nikolaus im April 1452 persönlich die Verwaltung seines schwer verschuldeten Bistums Brixen. Dort wollte er seine Vorstellungen zur Kirchenreform beispielhaft verwirklichen und ein „kirchliches Musterbistum“ – eine „Art ‚Glaubensschweiz‘“ – errichten. Bei der wirtschaftlichen Sanierung des Bistums war er erfolgreich, doch geriet er in Machtkämpfe mit dem Tiroler Adel. Der Widerstand des Adels entzündete sich vor allem an der von Nikolaus vergeblich erstrebten Reform des Klosters Sonnenburg, das der Versorgung von Töchtern aus adligen Geschlechtern diente. Nach einem langwierigen Streit exkommunizierte Nikolaus die widerspenstige Äbtissin Verena von Stuben und zwang sie schließlich zum Rücktritt. In dem Konflikt kam es sogar – ohne Verschulden von Nikolaus – zu einer militärischen Auseinandersetzung („Schlacht im Enneberg“ am 5. April 1458), in der über 50 Mann fielen. Als Nikolaus 1456 seinem Neffen Simon von Wehlen eine Pfründe im Domkapitel verschaffte und Domherren, die sich dieser Entscheidung widersetzten, exkommunizierte, erregte sein entschiedenes Auftreten Anstoß. Seine Gegner konnten die Unterstützung von Herzog Sigmund gewinnen, dem Nikolaus’ energische Machtausübung generell missfiel. Nikolaus wurde mit Morddrohungen eingeschüchtert. Er zog sich, um sein Leben fürchtend, im Juli 1457 auf die seinem Bistum gehörende Burg Buchenstein (Andraz) zurück, wo er bis September 1458 blieb. Über den gesamten Herrschaftsbereich des Herzogs verhängte er das Interdikt (Verbot gottesdienstlicher Handlungen). Im Mai 1458 trat der konziliaristisch gesinnte Staatsmann Gregor Heimburg in den Dienst Sigmunds. Gregor war ein konsequenter Gegner der päpstlichen Politik und war schon auf den Reichstagen gegen Nikolaus aufgetreten. Schließlich holte Pius II., der im August 1458 den Papstthron bestiegen hatte, Nikolaus nach Rom, wo der Kardinal am 30. September 1458 eintraf. a>, wo Nikolaus von Kues zur Kapitulation gezwungen wurde Am 11. Januar 1459 wurde Nikolaus vom Papst zum Legaten und Generalvikar im Kirchenstaat ernannt. Er übernahm die Leitung des Kirchenstaats, während sich Pius zum Fürstenkongress von Mantua begab. Der Papst wünschte eine Versöhnung zwischen Nikolaus und Sigmund, doch scheiterten seine intensiven Vermittlungsversuche. Der Einfluss Gregor Heimburgs trug erheblich zur Verhärtung der Position des Herzogs bei. Insbesondere über das Recht zur Ausbeutung eines Silberbergwerks bei Garnstein konnte keine Einigung erzielt werden. Im Februar 1460 kehrte Nikolaus nach Brixen zurück und nahm den Kampf um sein Bistum auf. Militärisch war er von Anfang an hoffnungslos unterlegen, überdies konnte er sich nicht auf das Domkapitel und den Klerus verlassen. Viele Geistliche traten für einen Kompromiss ein. Priesterschaft und Bevölkerung waren über das Interdikt erzürnt, das der Kardinal verhängt hatte. Schließlich ging Sigmund zu Ostern 1460 militärisch gegen die Stadt Bruneck vor, wo sich Nikolaus aufhielt. Angesichts der Kräfteverhältnisse gab die Stadt den Kampf schnell auf, Nikolaus zog sich in die Burg zurück. Dort wurde er am 17. April zur Kapitulation gezwungen. Er musste sich zu einer Kriegsentschädigung von 10 000 Rheinischen Gulden verpflichten, auf die Silbergruben verzichten und auch in anderen Streitpunkten nachgeben. Nach seiner Freilassung widerrief er aber alle Zugeständnisse. Am 27. April verließ er Bruneck. Da er in seinem Bistum kaum noch handlungsfähig war, begab er sich zum Papst nach Siena, ohne für seine geistlichen Aufgaben im Bistum einen Vertreter einzusetzen. Der Konflikt dauerte fort. In Italien fand Nikolaus viel Verständnis für seine Position, im deutschen Sprachraum lagen die Sympathien eher auf der Seite Sigmunds. Im August 1460 griff der Papst mit Bann und Interdikt zugunsten des Kardinals ein. Erst im Juni 1464 wurde der Streit beigelegt; Nikolaus blieb Bischof, musste aber die Amtsausübung einem Vertreter überlassen. Seine letzten Lebensjahre verbrachte Nikolaus als Kurienkardinal im Kirchenstaat, wo er ein Konzept zur Reform der Kirchenleitung ausarbeitete, das folgenlos blieb. Seine Verbitterung äußerte er mit den Worten: „Nichts gefällt mir, was hier an der Kurie getrieben wird; alles ist verdorben, keiner tut seine Pflicht. … Wenn ich im Konsistorium endlich einmal von Reform spreche, werde ich ausgelacht.“ Ab 1461 war er schwer krank; unter anderem litt er an der Gicht. Tod, Begräbnis und Nachlass. Grab des Nikolaus von Kues in der Kirche San Pietro in Vincoli, Rom Im Sommer 1464 wurde Nikolaus im Rahmen des von Pius II. betriebenen Kreuzzugsprojekts gegen die Türken beauftragt, sich um eine Schar von 5000 mittellosen und zum Teil erkrankten Kreuzfahrern zu kümmern, die zwischen Rom und Ancona, von wo die Flotte in See stechen sollte, umherirrten. Unterwegs starb er am 11. August in Todi. Sein Leichnam wurde sogleich nach Rom überführt und in seiner Titelkirche San Pietro in Vincoli beigesetzt; sein Herz jedoch wurde auf seinen Wunsch in der Kapelle des von ihm und seinen Geschwistern 1458 gestifteten St. Nikolaus-Hospitals (Cusanusstift) in Kues bestattet. Dem Hospital vermachte er auch den Hauptteil seiner Bibliothek, der sich noch heute dort befindet. Sie gilt mit ihrer Sammlung von Hunderten mittelalterlicher Handschriften und Inkunabeln (Wiegendrucken) aus Theologie, Philosophie, Wissenschaft und Mathematik als die bedeutendste Privatbibliothek, die aus dem Mittelalter erhalten geblieben ist (siehe den Hauptartikel Bibliothek des St. Nikolaus-Hospitals in Bernkastel-Kues). Werke. Nikolaus verfasste mehr als 50 Schriften, davon etwa ein Viertel in Dialogform, die übrigen in der Regel als Abhandlungen, ferner rund 300 Predigten sowie eine Fülle von Akten und Briefen. Seine Werke lassen sich nach dem Inhalt in drei Hauptgruppen gliedern: Philosophie und Theologie, Kirchen- und Staatstheorie, Mathematik und Naturwissenschaft. Eine Sonderstellung nimmt seine kurze Autobiographie ein, die er 1449 schrieb. Er veranlasste selbst eine (allerdings unvollständige) Sammlung seiner Schriften, die in zwei Handschriften seiner Bibliothek in Kues vorliegt. Kirchen- und Staatstheorie. Zu den bekanntesten Werken des Kusaners gehört die 1433/34 in Basel entstandene Schrift "De concordantia catholica" („Über die allumfassende Eintracht“) in drei Büchern. Vom Grundgedanken der Eintracht ausgehend entwickelt Nikolaus im ersten Buch eine allgemeine Kirchenlehre, erläutert im zweiten Buch seine Konzilstheorie und seine Ideen zur Reform von Kirche und Konzilien und legt im dritten Buch seine Staatstheorie und seine Vorstellungen zur Reichsreform dar. In den Zusammenhang der auf dem Konzil von Basel ausgetragenen Konflikte gehören auch weitere Schriften, darunter "De maioritate auctoritatis sacrorum conciliorum supra auctoritatem papae" („Über den Vorrang der Autorität der heiligen Konzilien über die Autorität des Papstes“, 1433), das "Opusculum contra errorem Bohemorum" („Gegen den Irrtum der Böhmen“, 1433) zum Konflikt mit den Hussiten und "De auctoritate praesidendi in concilio generali" („Über den Vorsitz in einem allgemeinen Konzil“, 1434). Seine Auffassungen über eine allgemeine Kirchenreform legt er 1459 in der Schrift "Reformatio generalis" („Allgemeine Reform“) dar. Philosophie und Theologie. In diesem Teil von Nikolaus’ Werk geht es primär um Fragen der Metaphysik und Ontologie und um die theologischen Konsequenzen, die sich aus deren Beantwortung ergeben. Kennzeichnend ist dabei, dass philosophische Aussagen für die Beantwortung theologischer Fragen nutzbar gemacht werden. Schon in einer seiner ersten Schriften, "De docta ignorantia" („Über die belehrte Unwissenheit“, 1440), entwickelt Nikolaus die Grundlagen seiner Theologie und einer damit eng verbundenen spekulativen Kosmologie. Von der Suche nach dem verborgenen Gott, die im Dunkel der Unwissenheit beginnt, und der Erkennbarkeit Gottes handelt ein großer Teil seiner Schriften. Hierzu gehören der "Dialogus de deo abscondito" („Dialog über den verborgenen Gott“, 1444/45), "De quaerendo deum" („Von der Suche nach Gott“, 1445), "De filiatione dei" („Von der Gotteskindschaft“, 1445), "De dato patris luminum" („Über die Gabe des Vaters der Lichter“, 1445/46), der Dialog "Idiota de sapientia" („Der Laie über die Weisheit“, zwei Bücher, 1450), "De theologicis complementis" („Über theologische Ergänzungen“, 1453), "De visione dei" („Von der Gottesschau“, 1453), "De beryllo" („Über den Beryll“, 1458) und "De principio" („Über den Anfang“, auch "Tu quis es", 1459). In seinen letzten Lebensjahren kommt Nikolaus erneut auf diese Thematik zurück und fasst in einigen seiner letzten Schriften seine Ideen zur Gotteserkenntnis zusammen, darunter "De non aliud" („Vom Nichtanderen“, 1461/62), "De venatione sapientiae" („Über die Jagd nach der Weisheit“, 1462/63) und "De apice theoriae" („Über die höchste Stufe der Betrachtung“, 1464), Nikolaus’ letztes Werk; eine Kurzfassung bietet sein "Compendium" (1463/64). Einem Einüben der zur Gottesbetrachtung führenden Schritte dient der "Dialogus de ludo globi" („Dialog über das Kugelspiel“, 1463), in dem Nikolaus anhand des von ihm erfundenen „Kugelspiels“ seine Vorstellung vom Weltall und der Stellung des Menschen darin veranschaulicht. In der Abhandlung "De coniecturis" („Über Mutmaßungen“, um 1442) setzt sich Nikolaus mit dem bereits in "De docta ignorantia" thematisierten Problem der Annäherung an das nicht Wissbare auseinander. Sie erfolgt über Mutmaßungen, mit denen sich der Mensch von einer Stufe zur anderen fortschreitend der Göttlichkeit annähert. Im "Dialogus de genesi" („Dialog über das Werden“, 1447) wird die Frage nach der Entstehung des Alls und dem Ursprung des Seins alles Seienden erörtert. Mit der Intellekt- und Erkenntnistheorie befasst sich der Dialog "Idiota de mente" („Der Laie über den Geist“, 1450). Der „Trialog“ (Dreiergespräch) „Über das Können-Ist“ ("Trialogus de possest", 1460) behandelt den Gottesnamen „Possest“, der Gott bezeichnet als „alles das, was sein kann“ "(omne id quod esse potest)", das realisierte Alles-Können als einzige Wirklichkeit, Zusammenfall von Möglichkeit und Wirklichkeit. Die Frage nach dem Wahrheitsgehalt der verschiedenen religiösen Lehren und nach der Toleranz zwischen den Religionen untersucht Nikolaus in "De pace fidei" („Über den Glaubensfrieden“), einer Schrift, die 1453 unter dem Eindruck der Eroberung Konstantinopels durch die Türken entstand. Speziell unter dem Gesichtspunkt des Verhältnisses zwischen Christentum und Islam erörtert er diese Thematik 1460/61 erneut in der "Cribratio Alkorani" („Sichtung des Korans“, drei Bücher). Eine relativ geringe Rolle spielt in Nikolaus’ Werk die Exegese und biblische Theologie; sie bietet ihm gewöhnlich nur Ausgangspunkte für philosophische Erörterungen. Hierzu gehören die 1441 entstandene Auslegung des Vaterunser (Predigt 24) und die Schrift "De aequalitate" („Über die Gleichheit“, 1459), eine philosophische Auslegung einer Stelle im Prolog des Johannesevangeliums. Eine Sonderstellung nimmt die 1446 verfasste "Coniectura de ultimis diebus" („Mutmaßung über die letzten Tage“) ein, eine Abhandlung, in der Nikolaus den Zeitraum berechnet, in welchem das Weltende und die Auferstehung zu erwarten sei (nach seiner Vermutung 1700–1734). Mathematik und Naturwissenschaft. Das mathematische und naturwissenschaftliche Werk des Cusanus ist vor allem von seinem Interesse an Wissenschaftstheorie und von seinen metaphysisch-theologischen Fragestellungen geprägt; er will von mathematischen zu metaphysischen Einsichten hinführen. Mit Analogien zwischen mathematischem und metaphysischem Denken befasst er sich in Schriften wie "De mathematica perfectione" („Über die mathematische Vollendung“, 1458) und "Aurea propositio in mathematicis" („Der Goldene Satz in der Mathematik“, 1459). Als sein mathematisches Hauptwerk gilt "De mathematicis complementis" („Über mathematische Ergänzungen“, 1453). Mit dem Problem der Kreisquadratur und der Berechnung des Kreisumfangs setzt er sich in mehreren Schriften auseinander, darunter "De circuli quadratura" („Über die Quadratur des Kreises“, 1450), "Quadratura circuli" („Die Kreisquadratur“, 1450), "Dialogus de circuli quadratura" („Dialog über die Quadratur des Kreises“, 1457) und "De caesarea circuli quadratura" („Über die kaiserliche Kreisquadratur“, 1457). Auch in "De mathematica perfectione" befasst sich Nikolaus mit diesem Problem. Er hält eine Kreisquadratur nur näherungsweise für möglich und schlägt dafür ein Verfahren vor. Mit seinem Dialog "Idiota de staticis experimentis" („Der Laie über Versuche mit der Waage“, 1450) gehört er zu den Wegbereitern der Experimentalwissenschaft. "De correctione kalendarii" („Über die Kalenderverbesserung“, auch: "Reparatio kalendarii", 1436) handelt von der damals bereits dringend erforderlichen Kalenderreform, die jedoch erst im 16. Jahrhundert verwirklicht wurde. Einflüsse. Eine Seite einer Abschrift von Proklos' "Parmenides"-Kommentar in lateinischer Übersetzung mit eigenhändigen Randbemerkungen des Nikolaus von Kues (Bernkastel-Kues, Bibliothek des Sankt-Nikolaus-Hospitals, Codex 186, fol. 125r) Cusanus gehört zu den spekulativen Theologen des Spätmittelalters, auf die Meister Eckhart einen wesentlichen Einfluss ausgeübt hat. Er benutzte nur die lateinischen Schriften Eckharts, nicht die deutschen Predigten. Seine Eckharthandschrift, die er mit eigenhändigen Randnotizen versah, ist erhalten. Da eine Anzahl von Eckharts theologischen Thesen kurz nach seinem Tod durch eine päpstliche Bulle als häretisch verurteilt worden war, pflegte man ihn meist ohne Namensnennung zu zitieren. So verfuhr auch Cusanus. Nur in zweien seiner Werke nahm er ausdrücklich auf Eckhart Bezug: in einer lateinischen Predigt und in der "Apologia doctae ignorantiae". In der "Apologia" verteidigte er sich und Eckhart gegen den Pantheismus-Vorwurf Johannes Wencks. Er schrieb, Eckhart sei zwar rechtgläubig gewesen, doch könnten seine Äußerungen leicht missverstanden werden; daher seien seine Werke für das einfache Volk ungeeignet. Einen immensen Einfluss übte der spätantike Neuplatoniker Proklos auf Cusanus aus. Proklisches Gedankengut taucht erstmals um 1442 in der Schrift "De coniecturis" auf. Namentlich erwähnt und direkt zitiert wird Proklos erstmals 1458 in der Schrift "De beryllo". In den Werken aus den letzten Lebensjahren des Kusaners kommt Proklos eine zentrale Bedeutung zu; benutzt werden sein Kommentar zu Platons "Parmenides" sowie ab 1462 auch seine "Theologia Platonis", vereinzelt auch die "Elementatio theologica". Gedankengut neuplatonischen Ursprungs bezog Cusanus überdies auch aus Schriften des Pseudo-Dionysius Areopagita und des Albertus Magnus, insbesondere aus Alberts Dionysius-Kommentar, sowie aus Werken seines Freundes Heymericus de Campo, der die Lehren Alberts gegen die Thomisten verteidigte. Dabei ging es vor allem um das Konzept der Koinzidenz der Gegensätze, dem sich Albert bereits genähert hatte. Wesentliche Anregungen erhielt Cusanus ferner von Raimundus Lullus. Allerdings zitiert er ihn selten und nennt ihn nur zweimal namentlich; diese vorsichtige Haltung dürfte mit der Umstrittenheit der Lehre des Lullus, die an der Theologischen Fakultät der Pariser Universität verboten war, zusammenhängen. Koinzidenztheorie. Nikolaus selbst kennzeichnet den Gedanken der Koinzidenz "(coincidentia oppositorum)", des Zusammenfalls der Gegensätze zu einer Einheit, als Kernelement seiner Betrachtungsweise oder Methode (womit er nicht eine Lehre oder ein System meint). Mit diesem Konzept tritt er als Urheber einer neuen Theorie auf, die der bisherigen Philosophie gefehlt habe. Er meint, alle geistige Anstrengung müsse sich darauf richten, die „einfache Einheit“ zu erreichen, in der alle Arten von Entgegengesetztem "(opposita)" zusammenfallen, somit paradoxerweise auch die kontradiktorischen (widersprüchlichen) Gegensätze, die einander nach dem aristotelischen Satz vom Widerspruch ausschließen. Die Einbeziehung auch dieser Gegensätze in die allumfassende Einheit ist das Neue gegenüber den früheren Ansätzen. Im Sinne der neuplatonischen Tradition betrachtet Nikolaus als letztes Ziel aller Erkenntnisbemühungen den einen schöpferischen Urgrund des Werdens, der zugleich Ausgangspunkt und Bestimmung alles Werdens sei. In theologischer Sprache ausgedrückt ist das Gott, doch argumentiert Nikolaus philosophisch. Den Urgrund identifiziert er mit der äußersten Einfachheit. Zugleich schreibt er ihm aber auch Mannigfaltigkeit zu, denn er sieht in dem schlechthin Einfachen die Quelle der gesamten empirisch feststellbaren Vielheit in der Welt. Gäbe es das Viele neben dem Einen, so wäre das Eine nicht wirklich umfassend, sondern vom Vielen begrenzt. Das Eine ist für Nikolaus nur dadurch unendlich, dass es zugleich auch das Viele ist. Gott ist Einfaltung "(complicatio)" der Welt, die Welt Ausfaltung "(explicatio)" Gottes. Im Sinne seiner mit mathematischen Analogien arbeitenden Ausdrucksweise handelt es sich um ein absolutes Maximum, das zugleich das absolute Minimum ist (als maximale Kleinheit). Dieses Maximum ist keine besondere Substanz, die neben anderen Substanzen besteht, sondern es ist das, worin die Unterschiedlichkeit der Substanzen und überhaupt aller Einzeldinge gründet. Es ist eine Einheit, die in allem erscheint und alles umfasst, also auch das philosophierende und erkennende Subjekt einschließt. Da die Menschen jedoch in ihrem vom Widerspruchsprinzip beherrschten Denken befangen sind, erkennen sie diese Einheit nicht als Grund der Welt, sondern nähern sich ihr auf stets einseitige Weise. Erkennen sie das Unbefriedigende dieser Einseitigkeiten, so gelangen sie zur Auffassung, die Wahrheit sei unerreichbar. Dabei betrachtet sich der Wahrheitssucher als Subjekt, das selbst außerhalb der Wahrheit steht und diese daher in etwas anderem suchen muss. Sein Zweifel an der Auffindbarkeit der Wahrheit kann jedoch überwunden werden, wenn er versteht, dass sie nicht im Anderen zu suchen ist. Vielmehr ist sie gerade das Nicht-Andere "(non-aliud)", denn jedes Einzelne enthält in sich die gesamte Wirklichkeit, mit der es ungeachtet seiner individuellen Separatheit verbunden ist. Das Anderssein kommt nur den Weltdingen zu, insoweit der Verstand sie betrachtet. Die unendliche Einheit veranschaulicht Nikolaus mit dem Beispiel einer unendlichen Geraden. Diese ist nicht nur Gerade, sondern zugleich auch ein Dreieck (mit größter Grundseite und kleinster zugehöriger Höhe), ein Kreis und eine Kugel (mit unendlich großem Durchmesser). Belehrte Unwissenheit und Gotteserkenntnis. In "De docta ignorantia" bekennt sich Nikolaus zur neuplatonischen, besonders von Pseudo-Dionysius betonten negativen Theologie, die alle positiven Aussagen über Gott als unzulänglich und insofern irreführend verwirft. Er wendet sich Gott nicht zu, indem er Wissen über ihn für sich beansprucht, sondern indem er Wissen über sein eigenes Nichtwissen erlangt und damit eine über sich selbst „belehrte Unwissenheit“ "(docta ignorantia)". Seiner Terminologie zufolge ist der menschliche Verstand "(ratio)" die Kraft, welche die Sinneseindrücke ordnet und unter vereinheitlichende Begriffe bringt. Dies geschieht durch Unterscheidung zwischen ihnen, indem der Verstand einschließt und ausschließt und damit auch negiert, wozu die Sinne nicht imstande sind. Der Verstand kann dies, indem er das Unendliche aus seiner Betrachtung fernhält. Alles verstandesmäßige Wissen beruht auf Vergleichen und ist somit auf Relatives bezogen. Daher kann der menschliche Verstand etwas Absolutes wie das Maximum oder das Unendliche nicht erfassen, für ihn besteht zwischen dem Endlichen und dem Unendlichen keine Proportion. Der Mensch verfügt jedoch noch über eine weitere Fähigkeit, die Vernunft "(intellectus)", die weit über dem Verstand steht. Sie ist in der Lage, das unterscheidende Negieren des Verstandes zu negieren und damit zum Begriff der Unendlichkeit und unendlichen Einheit zu gelangen. Dieser ist ein Vernunftinhalt und als solcher jenseits des der Verstandestätigkeit Zugänglichen. Die Vernunft ist zwar endlich und kann daher nach "De docta ignorantia" ebenso wie der Verstand die Widersprüche nicht übersteigen und die Koinzidenz nicht erreichen; da sie aber zugleich „etwas Göttliches“ ist, kann sie die göttliche Wahrheit gleichsam „sehen“ und „berühren“. Später, in "De coniecturis" (um 1442) und den im Zeitraum 1445–1447 verfassten kleinen Schriften, gelangt Nikolaus zu einer optimistischeren Einschätzung der Möglichkeiten der Vernunft. Nun traut er ihr zu, gegen den Widerstand des Verstandes die Widersprüche zu überwinden und damit paradoxe Einsichten zu erlangen, etwa das Größte mit dem Kleinsten gleichzusetzen. Darüber hinaus nimmt er nun die Möglichkeit eines „göttlichen“ Denkens des Menschen an, das nicht mehr im Sinne der negativen Theologie die Verneinung als wahrere Ansicht der Bejahung vorziehe. Auch der Gegensatz von Affirmation und Negation wird im Sinne der Koinzidenzidee transzendiert. Nikolaus behauptet, dieses göttliche Denken lasse auch die Vernunft und deren Verständnis der widersprüchlichen Gegensätze hinter sich, um sich der absoluten Einheit und Unendlichkeit zuzuwenden. Gott sei nicht die Koinzidenz der Gegensätze, sondern das Koinzidenzdenken sei nur die der menschlichen Vernunft angemessene Art, sich ihm zu nähern. Daher bezeichnet Nikolaus 1453 in "De visione dei" die Koinzidenz als „Mauer“ zwischen dem Gottsuchenden und Gott. Diese Mauer hält er aber nicht für prinzipiell unüberwindlich. In seinem letzten Werk, "De apice theoriae", schreibt Nikolaus, er habe sich zu immer größerer Erkenntniszuversicht durchgearbeitet. Sein Optimismus hinsichtlich der Gotteserkenntnis hängt mit seiner Überzeugung von der Gottähnlichkeit des Menschengeistes zusammen. In "De coniecturis" bezeichnet er den Menschen sogar als geschaffenen „zweiten Gott“ – eine für damalige Verhältnisse kühne Formulierung. So wie der göttliche Intellekt die reale Welt schaffe, schaffe der menschliche Intellekt die Welt der Begriffe. Weisheitssuche. 1450 wendet sich Nikolaus im Dialog "Idiota de sapientia" erneut dem Thema der Vernunfttätigkeit zu, diesmal in schroffer Abgrenzung von der scholastischen, aristotelisch geprägten Universitätsphilosophie des Spätmittelalters. Ein „Laie“, d.h. ein universitätsfremder, scheinbar ungebildeter Mensch, unterhält sich mit einem „Redner“, einem rhetorisch ausgebildeten Gelehrten, der sein Wissen nur aus Büchern bezieht, über die Weisheit. Der Laie übernimmt die Rolle, die Sokrates in den Dialogen Platons spielt. Er erklärt dem Redner, dass dessen Anstrengungen, durch Buchwissen Erkenntnis zu erlangen, vergeblich und auch freudlos seien; die aristotelische Schulwissenschaft mit ihren Autoritäten täusche, das Denken eines darin Befangenen sei „gefesselt“ und ermögliche keinen Zugang zur Wahrheit. Der Laie wendet sich nicht nur gegen die von den Humanisten verachtete spätmittelalterliche Scholastik, sondern ebenso gegen den humanistischen Kult der Rhetorik, die dem Bedürfnis nach überflüssiger Ausschmückung Kürze und Klarheit opfere. Schulwissenschaft sei umständlich und mühselig, Weisheit hingegen leicht und direkt zu finden und voller Freuden. Sie sei dem menschlichen Intellekt von Natur aus als dessen Nahrung zugeordnet. Die Möglichkeit zu ihrer Auffindung sei in ihm angelegt, und dies sei der Grund dafür, dass er sich auf die Suche mache und, wenn er das Gesuchte gefunden habe, auch wisse, dass es das Gesuchte sei. In der Weisheit sei der Intellekt lebendig, aus sich heraus tätig und damit glückselig. Seine Befriedigung erlange er in seiner Bewegung auf sein Urbild hin; dieses sei Gott als der Begriff der Begriffe oder der absolute Begriff "(conceptus absolutus)". Voraussetzung dafür sei das Üben des Koinzidenzdenkens, das auch zur Fassbarkeit des Unfassbaren führe. Den damit gemeinten Prozess beschreibt der Laie als unendliche Annäherung durch ständiges Fortschreiten ins Unendliche, unablässiges Aufsteigen "(continue ascendere)". Konkordanzgedanke. Eine zentrale Rolle spielt in Nikolaus' staats- und kirchenpolitischem Denken die Frage, wie zwischen verschiedenen Gruppen und Individuen trotz der Unterschiedlichkeit ihrer Ansichten und Ziele ein einträchtiges Zusammenwirken ermöglicht werden kann. Dafür ist erforderlich, dass sie freiwillig ihr Handeln gegenseitig als legitim anerkennen. Für eine solche Konkordanz müssen rechtlich-institutionelle Voraussetzungen geschaffen werden, wobei das Konsensprinzip als Grundlage der Legitimität in den Regelungen zur Geltung kommen soll. In seiner konziliaristischen Phase war Nikolaus von Marsilius von Padua beeinflusst. Dessen staatstheoretisches Werk "Defensor pacis" zitiert er in "De concordantia catholica" ausgiebig, meist ohne die Quelle zu nennen. Den Gedanken der Konkordanz als Legitimationsprinzip für Herrschaftsausübung vertritt der Kusaner in dieser Schrift sowohl für den weltlichen als auch für den geistlichen Bereich. Nach seiner Ansicht bedürfen Gesetze der Zustimmung der von ihnen Betroffenen, und auch die Obrigkeit ist an sie gebunden. Bei der philosophischen Grundlegung des Rechts beruft er sich auf Cicero und dessen Konzept vom Naturrecht. Das Erstreben des Zuträglichen und Meiden des Schädlichen komme jedem Wesen von Natur aus zu; den Individuen sei ein Sinn gegeben, mit dem sie erkennen können, was für sie nötig ist, und dieser Sinn sei in der Mehrheit der Fälle verlässlich. Diese Denkweise veranlasst Nikolaus zur Befürwortung der Wahlmonarchie, da diese Staatsform dem Naturrecht am meisten entspreche. Er tritt für eine starke Zentralgewalt mit einem stehenden Reichsheer und für ein einheitliches Reichsgesetzbuch und eine Reichssteuer ein. Stellenweise tadelt er die Willkür des Adels, den er als Bürgerlicher generell kritisch betrachtet. Nach seinem Geschichtsverständnis haben sich die Teilgewalten im Reich verselbständigt, auf Kosten des Ganzen die Macht an sich gerissen und das Kaisertum um seine Autorität gebracht. Nun soll das „alte Recht“ wiederhergestellt werden. Der Verwirklichung der Konkordanz soll eine jährlich zusammentretende Ständeversammlung als ständige Einrichtung dienen. Auf den jährlichen Reichsversammlungen sind alle Reichsangelegenheiten zu behandeln. Das Reich soll in zwölf Gerichtsbezirke aufgeteilt werden, deren Gerichte direkt der kaiserlichen Gewalt unterstellt sind und über den landesherrlichen Gerichten stehen. Ferner fordert Nikolaus einen allgemeinen Landfrieden und ein Verbot der Fehde. Bei der Beurteilung und Lösung von Konflikten erhebt Nikolaus sein Einheitsideal zum obersten Wert; sachliche Meinungsverschiedenheiten betrachtet er als zweitrangig, sie dürfen der Einheit nicht im Wege stehen. So fordert er von den Hussiten Unterwerfung unter die aktuellen Gebräuche der römischen Kirche und verwirft ihre Berufung auf eine biblische Tradition, von der die Kirche später abgewichen sei; die Kirche habe ein Recht, Riten zu ändern und die Bibel nach Zeitumständen auszulegen. Er meint, das Urchristentum sei keine Norm und die kirchliche Auslegung eines Bibeltextes stehe über dessen Wortlaut. Es gebe keine anderen Gebote Christi als diejenigen, welche die römische Kirche als solche anerkennt. Diese Auffassung von der Unfehlbarkeit der römischen Kirche hat Nikolaus bereits in seiner konziliaristischen Phase vertreten; dabei bezieht er sich aber nicht auf den Papst, sondern auf die Gesamtkirche. Er weist sogar darauf hin, dass Päpste Häretiker waren, und nennt als Beispiele Liberius und Honorius I., der vom dritten Konzil von Konstantinopel nach seinem Tod verflucht wurde. Damit thematisiert er die „Honoriusfrage“, die noch im 19. Jahrhundert in der Diskussion um die päpstliche Unfehlbarkeit eine wichtige Rolle gespielt hat. Da der Papst in Glaubensfragen irren könne, unterstehe er den Glaubensentscheidungen des Konzils der Gesamtkirche. Die „wahre Kirche“ bestehe aus denjenigen Gläubigen, die in der Christenheit die Mehrheit ausmachen und sich mit der "cathedra Petri", dem römischen Stuhl, verbinden. Die Gewissheit von Glaubensurteilen betrachtet Nikolaus als graduell; je einvernehmlicher eine Entscheidung in der Kirche getroffen werde, desto gewisser sei ihre Richtigkeit. Ein Konzil beziehe seine Autorität aus dem Konsens seiner Teilnehmer; diese seien Repräsentanten der Gesamtheit der Gläubigen. Alle geistliche und weltliche Gewalt sei im Volk in Verborgenheit als realisierbare Möglichkeit (Potenz) vorhanden. Religionsfrieden. Das Ideal der Eintracht strebt Nikolaus nicht nur in Kirche und Staat an, sondern er möchte es auch im Verhältnis zwischen Anhängern verschiedener Glaubensrichtungen verwirklicht sehen. Den Weg dazu sieht er im Dialog über die Glaubensinhalte. Daher setzt er sich wiederholt intensiv mit der Frage nach dem Wahrheitsgehalt der verschiedenen Religionen bzw. Konfessionen auseinander: Judentum, antikes „Heidentum“, Islam, katholisches Christentum, Lehren der „Böhmen“ (Hussiten), der Perser (Zoroastrismus), Chaldäer usw. Er meint, jede Religion habe ein berechtigtes Anliegen und einen bestimmten Zugang zur Wahrheit und sei insofern besser, als ihre Gegner wahrhaben wollen, doch nur im Christentum seien alle diese Anliegen verwirklicht und Teilerkenntnisse vereint. So habe das Judentum mit Recht Gott als absolut, von allem sinnlich Wahrnehmbaren abgelöst erkannt und verehrt. Die Heiden hingegen hätten Gottes Wirken in seinen verschiedenen sichtbaren Werken wahrgenommen und ihm daher gemäß deren Verschiedenheit je verschiedene Namen gegeben; das sei nur scheinbar Polytheismus. Im Christentum sei beides zu finden, einerseits die Transzendenz Gottes, andererseits aber auch ein göttlicher Aspekt des sinnlich Wahrnehmbaren, denn der Mensch und Gott Christus habe beides in sich vereint. Daher verleugne ein Jude, der Christus ablehnt, damit den wahren Kern seiner eigenen Religion. Im Unterschied zur traditionellen christlichen Auffassung stellt Nikolaus die Juden nicht über die Heiden, sondern billigt beiden Religionen gleichermaßen eine gewisse Berechtigung zu, die jedoch dann hinfällig werde, wenn ihre Vertreter sich weigern, die richtig verstandene Verehrung Christi als die eigentliche Verwirklichung des von ihnen Angestrebten zu erkennen. In "De pace fidei" („Über den Glaubensfrieden“) bedient sich Nikolaus zur Darlegung seiner Auffassung einer literarischen Fiktion. Geschildert wird eine Vision eines Mannes – gemeint ist der Autor selbst –, der eine Versammlung im Himmel miterlebt. Unter der Leitung Gottes beraten die Engel und die Seligen über das Elend auf der Erde, das durch gewaltsame religiöse Konflikte verursacht wird. Die weisesten Vertreter der einzelnen Völker werden – wie in Ekstase entrückt – herangezogen. Vor dem Wort Gottes sowie den Aposteln Petrus und Paulus legen sie ihre Standpunkte dar und werden von ihnen über die göttliche Wahrheit belehrt. Die Belehrung erfolgt nicht autoritativ, sondern mittels philosophischer Argumentation; die Weisen treten als Philosophen auf. Sie erhalten den Auftrag, zu ihren Völkern zurückzukehren und in Jerusalem eine Versammlung einzuberufen, auf der ein ewiger weltweiter Glaubensfrieden beschlossen werden soll. In dieser Einkleidung präsentiert Nikolaus seine Meinung über die religiösen Streitigkeiten und deren mögliche Beendigung. Danach hat Gott den einzelnen Völkern zu verschiedenen Zeiten Könige und Propheten geschickt, die das rohe, ungebildete Volk unterwiesen und religiöse Vorschriften und kultische Riten einführten. Die Menschen haben dann jedoch diese „Gewohnheiten“ mit der absoluten Wahrheit verwechselt. Auch weiterhin sind sie der irrigen Überzeugung, ihre religiösen Sitten seien die Umsetzung direkter, wörtlicher Anweisungen Gottes. Daher meinen sie, sie müssten ihren besonderen Glauben, den sie aus Gewohnheit für allein wahr halten, auch mit Waffengewalt gegen die anderen durchsetzen bzw. verteidigen. Damit glauben sie den göttlichen Willen zu erfüllen. In Wahrheit sind aber aus Nikolaus’ Sicht die Verehrungsformen der verschiedenen Religionen und die unterschiedlichen christlichen Riten nur besondere Ausprägungen einer einzigen schlechthin wahren Universalreligion. In dieser kommt Christus die zentrale Funktion des Vermittlers zwischen Gott und den Menschen zu, weil in ihm die göttliche und die menschliche Natur auf die beste überhaupt mögliche Weise vereint sind. Nikolaus versucht zu zeigen, dass die Existenz eines solchen vollkommenen Vermittlers eine notwendige Konsequenz aus Gottes Vollkommenheit sei. Die Einheit unter den Religionsgemeinschaften (lateinisch "sectae"), die Nikolaus analog zu seinem Bemühen um Einheit innerhalb der Christenheit erstrebt, läuft jedoch nicht auf ein Nebeneinander aller ihrer Lehren in Gleichberechtigung hinaus. Vielmehr tritt er dafür ein, den Nichtchristen christliche Glaubensinhalte wie Trinität, Menschwerdung Gottes und Sakramente so zu erläutern, dass die Andersgläubigen die richtig verstandene Verehrung Christi als die eigentliche Grundlage ihres eigenen Glaubens erkennen. Somit sollen die Anhänger anderer Religionen faktisch Christen werden, auch wenn sie an ihren Riten und Gebräuchen wie etwa der Beschneidung festhalten, was Nikolaus ihnen zugesteht. Nikolaus hält sogar eine Vielfalt von Bräuchen und Riten für wünschenswert. Er lässt den Apostel Paulus einen Wettstreit der Völker "(nationes)" befürworten. Jedes Volk solle seine besondere religiöse Tradition pflegen, um die anderen im Wettstreit zu übertreffen. Eine solche Konkurrenz könne die Frömmigkeit fördern. Nikolaus lässt sogar seinen Christus erklären, die Verehrung einer Mehrzahl von Göttern im Polytheismus gelte implizit der allem zugrunde liegenden einen Gottheit und brauche daher nicht abgeschafft zu werden. Es solle nur zusätzlich der Kult der einen Ursache aller Dinge explizit in die religiöse Praxis "(religio manifesta)" der Polytheisten aufgenommen werden. Sie könnten dann ihre Götter weiterhin verehren so wie die Christen ihre Heiligen, sollten aber die Anbetung dem einen Schöpfer vorbehalten. So könne der Konflikt zwischen ihnen und den Monotheisten beigelegt werden. Naturphilosophie. Nikolaus ist der Meinung, das Universum könne nicht als begrenzt vorgestellt werden, da es keine auffindbaren Grenzen habe, doch folgt für ihn aus dieser Unbegrenztheit nicht eine Unendlichkeit in einem absoluten Sinn. Er stellt fest, die Erde sei nicht im Mittelpunkt der Welt, und es sei offenkundig, dass sie sich nicht in Ruhe befinde, wie der Augenschein vortäusche, sondern sich bewege. Sie sei ein „edler Stern“ und als solcher nicht von geringerem Rang als die Sterne am Himmel. Ihre Form sei nur annähernd die einer Kugel, und die Bahnen der Himmelskörper seien keine genauen Kreisbahnen. Außerdem trägt er die Hypothese einer Vielheit von Welten vor. Die Welten bestehen nicht zusammenhanglos nebeneinander, sondern sind in das System des einen Universums integriert, das sie alle umfasst. Mit diesen Ideen vollzieht Nikolaus einen radikalen Bruch mit dem geozentrischen Weltbild der damaligen Kosmologie, das von den Vorstellungen des Ptolemaios und des Aristoteles bestimmt war. Er verwirft den Gedanken eines hierarchischen Aufbaus der Welt mit der Erde als Unterstem und dem Fixsternhimmel als Oberstem sowie die Vorstellung von unbeweglichen Himmelspolen. Das geozentrische Weltbild ersetzt er nicht durch ein heliozentrisches, vielmehr hat für ihn die Welt weder einen Mittelpunkt noch einen Umfang. In einer solchen Welt kann es keine absolute Bewegung geben, da es kein ruhendes Bezugssystem gibt; alle Bewegung ist relativ. Nikolaus argumentiert nicht empirisch und astronomisch, sondern metaphysisch; insofern ist er kein Vorläufer des Kopernikus. So ist seine Überzeugung, nichts in der Natur befinde sich in vollkommener Ruhe, eine Konsequenz seiner Koinzidenzlehre: Gegensätze wie Ruhe und Bewegung können in der Natur nie in reiner Form vorkommen, denn Absolutes ist nur im schlechthin Unendlichen, in dem die Gegensätze zusammenfallen, gegeben. Nikolaus fasst die Welt nicht als Ansammlung von selbständigen Substanzen auf, sondern geht von einer in jedem Einzelding auf jeweils spezifische Weise anwesenden Allnatur aus. In seinem Naturkonzept bilden Einheit und Vielheit keinen ausschließenden Gegensatz, sondern ein sich wechselseitig durchdringendes Gegensatzpaar; daher ist in jedem Einzelding auch die Einheit und damit die gesamte Wirklichkeit gegeben. Hinsichtlich der Naturerkenntnis betont Nikolaus den Aspekt des Quantifizierens, der mathematischen Messbarkeit. Durch Erfassung von Unterschieden im spezifischen Gewicht seien Erkenntnisse über materielle Substanzen zu gewinnen. Krankheiten sollen messbar gemacht werden, damit durch Vergleiche zwischen Messergebnissen auf die richtige Arznei oder den Ausgang der Krankheit geschlossen werden kann. Ebenso sei es möglich, Geschwindigkeiten, Tages- und Jahreszeiten, den Feuchtigkeitsgehalt der Luft, geographische und astronomische Gegebenheiten usw. zu messen. Die Anziehungskraft eines Magneten sei mittels einer Waage messbar. So könne das Verborgene in der Natur gefunden werden. Unbekannt ist allerdings, ob die experimentelle Umsetzung eines oder mehrerer der Messungsvorschläge im Dialog "Idiota de staticis experimentis" jemals ausprobiert worden ist. Die dort vorgeschlagenen Versuche sind nur zum Teil ausführbar. Nikolaus beschränkt sich nicht darauf, die Nützlichkeit des Abmessens zu betonen. Er behauptet, die erkennbaren Dinge seien um der erkennenden Seele willen da; die Welt sei so konstruiert, wie sie ist, damit sie vom Menschen erkannt werde. Daher betrachtet er den messenden Menschen, der allem Geschaffenen ein Maß setzt, als das Maß aller Dinge. Im Gegensatz zur scholastischen Tradition, der zufolge die menschliche Vernunft nur das ermessen kann, was ihren eigenen Rang nicht übersteigt, behauptet er, der menschliche Intellekt messe auch den göttlichen "(mensurat divinum intellectum)". Nikolaus zieht mathematische Gegebenheiten heran, um zu metaphysischen Aussagen hinzuführen und diese symbolhaft zu veranschaulichen, wobei es ihm insbesondere um Transzendenz und Unendlichkeit geht. Seine theologisch motivierten Versuche, mathematisch Endliches zur mathematischen Unendlichkeit zu führen, um den Weg zur Unendlichkeit Gottes bildlich zu erläutern, gehören zu den Vorstufen der Entwicklung der Infinitesimalrechnung. Rezeption. a> in der Kirche San Pietro in Vincoli, Rom Spätmittelalter und Frühe Neuzeit. Eine philosophische oder theologische Schule des Cusanus hat sich nicht gebildet; seine Philosophie wurde nicht in ihrer Gesamtheit, sondern jeweils in Teilen rezipiert. Die starke handschriftliche Verbreitung seiner Werke besonders im süddeutschen und österreichischen Raum zeugt von dem Interesse, das seine Zeitgenossen seinen Ideen entgegenbrachten. Die Schrift über die „belehrte Unwissenheit“ löste unter den Zeitgenossen des Kusaners scharfe Kontroversen aus. Ein prominenter Gegner war der Heidelberger Theologieprofessor Johannes Wenck, der 1442/43 in einer Kampfschrift "De ignota litteratura" („Über die unbekannte Gelehrsamkeit“) Nikolaus der Ketzerei, des Pantheismus und der Zerstörung der Theologie beschuldigte. Darauf reagierte Nikolaus mit Heftigkeit in der Gegenschrift "Apologia doctae ignorantiae" („Verteidigung der belehrten Unwissenheit“, 1449), auf die Wenck wiederum mit einer (nicht erhaltenen) Entgegnung antwortete. Ein weiterer scharfer Gegner von Nikolaus’ theologischen Ansichten war der Kartäuser Vinzenz von Aggsbach, der 1454 einen Brief verfasste, der später als "Impugnatorium laudatorii doctae ignorantiae" („Angriff auf das Lob der ‚belehrten Unwissenheit’“) bekannt wurde. Darin wandte er sich gegen den Benediktiner Bernhard von Waging, einen Anhänger des Cusanus, der 1451/52 ein "Laudatorium doctae ignorantiae" („Lob der ‚belehrten Unwissenheit’“) geschrieben hatte. Bernhard antwortete 1459 mit einem "Defensorium laudatorii doctae ignorantiae" („Verteidigung des Lobes der ‚belehrten Unwissenheit’“). Die Kontroversen wurden noch durch den Umstand verschärft, dass die Hauptgegner der „belehrten Unwissenheit“, Wenck und Aggsbach, außerdem Konziliaristen waren. Ein scharfer Kritiker von Cusanus’ mathematischer Argumentation war der Mathematiker und Astronom Regiomontanus († 1476), der einige Näherungsverfahren zur Kreisquadratur überprüfte und für unzulänglich befand. Er wandte sich gegen die auf Aristoteles und Averroes zurückgehende, im Spätmittelalter verbreitete Ansicht des Cusanus, Geradliniges und Krummliniges sei unvergleichbar und daher könne ein Kreisbogen nicht genau ausgemessen werden. Die Stellungnahme des Regiomontanus, die erst 1533 veröffentlicht wurde, galt in der Folgezeit in Fachkreisen als das maßgebliche Urteil über die mathematischen Bemühungen des Cusanus. Einzelne Elemente der verfassungsrechtlichen Vorschläge des Cusanus, die auch andere Reformtheoretiker in verschiedenen Versionen propagiert hatten, wurden ab Ende des 15. Jahrhunderts im Rahmen der Reichsreform verwirklicht: die geordnete Reichsgerichtsbarkeit, der Ewige Landfriede und ansatzweise die Reichssteuer. Eine Sammlung von Werken des Cusanus "(Opuscula)" wurde 1488 in Straßburg gedruckt. 1514 brachte der Humanist und Cusanus-Verehrer Jacques Lefèvre d’Étaples in Paris eine Gesamtausgabe heraus, die für die folgenden Jahrhunderte zur Standardedition wurde. 1565 erschien ein (fehlerhafter) Nachdruck der Pariser Ausgabe in Basel. In Italien fanden manche Ideen des Cusanus bei Humanisten vergleichbarer Ausrichtung wie Marsilio Ficino und Giovanni Pico della Mirandola Anklang. Im 16. Jahrhundert berief sich der reformierte Theologe Johannes Kymaeus auf Cusanus, dessen Rechtfertigungslehre er als Vorläufer der lutherischen betrachtete. Giordano Bruno knüpfte an die kosmologischen Überlegungen des Cusanus an, warf ihm aber einen Mangel an Klarheit und Konsequenz vor, der das Ergebnis von Befangenheit wegen einer Bindung an konventionelle falsche Prinzipien sei. Johannes Kepler nahm verschiedentlich auf kosmologische und mathematikphilosophische Annahmen des Cusanus Bezug, teils zustimmend, doch überwiegend kritisch (zumal hinsichtlich der naturphilosophischen Konsequenzen). Die Hypothese eines unbegrenzten Alls ohne Mittelpunkt, das eine Vielzahl von Welten umfasst, verwarf er entschieden. Er hielt sie für unvereinbar mit seiner Vorstellung von kosmischer Ordnung und harmonischer Proportion im Universum. Auf Nikolaus von Kues beriefen sich auch Sciencefiction-Autoren des 17. Jahrhunderts. Moderne. Obwohl Cusanus in der Frühen Neuzeit nie – wie man früher irrtümlich glaubte – ganz vergessen war und mitunter sogar intensiv rezipiert wurde, kam es nicht zu einer umfassenden Würdigung seiner Philosophie in ihrer Gesamtheit. Dazu und zu einer entsprechend höheren Bewertung seiner Gesamtleistung ist erst die moderne Forschung gelangt. Sie betont seine Originalität und seine Unabhängigkeit von den Beschränkungen der traditionsgebundenen spätscholastischen Denkweise. Für diese Wertschätzung erwies sich besonders die philosophiehistorische Arbeit von Ernst Cassirer als bahnbrechend. 1927 beschloss die Heidelberger Akademie der Wissenschaften, eine neue kritische Gesamtausgabe der Werke des Cusanus herauszubringen, welche die alten Ausgaben des 16. Jahrhunderts ersetzen sollte. Der erste Band erschien 1932; inzwischen nähert sich das Vorhaben seinem Abschluss. Seit 1976 erscheinen die "Acta Cusana", eine großangelegte Sammlung von Quellen zur Lebensgeschichte des Cusanus. Die Cusanus-Gesellschaft gründete 1960 das Institut für Cusanus-Forschung, das seinen Sitz zunächst in Mainz hatte und sich seit 1980 in Trier befindet. Es veröffentlicht wissenschaftliche Arbeiten auf dem Gebiet der Cusanus-Forschung, darunter seit 1961 die Zeitschrift "Mitteilungen und Forschungsbeiträge der Cusanus-Gesellschaft". Die gängige Einstufung des Cusanus als Mystiker wird in der Forschung unterschiedlich beurteilt. Sie geht von einer Interpretation der Koinzidenzlehre aus, die diese als Beschreibung von mystischer Erfahrung deutet. Rudolf Haubst ordnet die Konzeption der zu belehrenden Unwissenheit der „mystischen Theologie“ zu, wobei diese als „eine Methode, die zur Einung mit Gott hinführe“ aufzufassen sei. Eine Reihe von Forschern betrachten Cusanus im Sinne eines solchen oder ähnlichen Verständnisses als Mystiker. Dabei wird insbesondere hervorgehoben, die Überwindung der „Mauer“ zwischen dem Gottsuchenden und Gott setzte die Aufhebung des Widerspruchsprinzips voraus, was im Rahmen der Philosophie unmöglich sei; der „Sprung über die Mauer“ sei daher ein mystischer Vorgang, mit dem das dem Verstand Unzugängliche mystisch erfasst werde. Die Berechtigung der Bezeichnung des Cusanus als Mystiker wird aus seiner intensiven Auseinandersetzung mit dieser Thematik abgeleitet. Wer die mystische Vereinigungserfahrung als Zielvorstellung vertrete, könne kaum als Nicht-Mystiker erklärt werden. Allerdings steht fest, dass Cusanus nach eigenem Bekunden ein solches Erlebnis nicht zuteilgeworden ist. Wenn man also unter einem Mystiker jemand versteht, der sich auf seine persönliche mystische Erfahrung beruft, fällt Cusanus nicht in diese Kategorie. Hans Gerhard Senger konstatiert, die affektive Mystik des Erlebens sei dem Kardinal unbekannt und suspekt geblieben und er habe sie, da sie kein Gegenstand des Wissens sei, für nicht lehrbar gehalten. Ihm sei es um ein zwar mystisches, aber lehrbares Wissen über Gott gegangen; somit habe er eine „kognitiv-epistemische Mystik mit Theoriestatus“ vertreten. Werner Beierwaltes untersucht mystische Elemente im Denken des Cusanus, wobei er unter Mystik „die höchste Möglichkeit (apex theoriae!) aller Kräfte des Menschen, also der bewußten Einheit seiner intellectualen und affektiven Fähigkeiten und Bedürfnisse“ versteht. Kurt Flasch, der für einen Verzicht auf die Bezeichnung „Mystiker“ plädiert, weist darauf hin, dass der Begriff Mystik vage und dehnbar und wegen seiner Unbestimmtheit problematisch sei. In der Moderne habe sich das Feld der Rationalität verengt; daher erscheine jede Philosophie, die außerhalb dieses engen Feldes liege, als mystisch im Sinne von irrational. Eine solche Terminologie werde aber dem Vernunftverständnis des Cusanus nicht gerecht. Sie sei vielmehr Ausdruck einer Sichtweise, die einem schon zu seiner Zeit erhobenen Einwand gegen seine Koinzidenzlehre zugrunde liege, mit dem er sich habe auseinandersetzen müssen. Cusanusstift, Südansicht von der Moselbrücke aus 1958 veröffentlichte der portugiesische Dichter Jorge de Sena ein Gedicht mit dem Titel "De Docta Ignorantia", zu dem ihn der cusanische Schlüsselbegriff der „belehrten Unwissenheit“ inspiriert hatte. In dem 1981 posthum veröffentlichten historischen Roman "Nuori Johannes" des finnischen Autors Mika Waltari, der 2013 deutsch unter dem Titel "Johannes Peregrinus" erschien, ist Nikolaus von Kues einer der Protagonisten. Thematisiert werden in dem Roman sein Mitwirken am Konzil von Basel, seine Gesandtschaft in Konstantinopel (1437/1438) und seine Teilnahme am Unionskonzil zu Ferrara und Florenz. 2005 veröffentlichte Wolfgang Jeschke den Roman "Das Cusanus-Spiel", in dem Nikolaus als literarische Figur auftritt. Das von Cusanus als Altersheim für Arme gestiftete St-Nikolaus-Hospital (Cusanusstift) in Bernkastel-Kues erfüllt noch heute die Funktion, die der Stifter ihm zugedacht hat. Cusanus wurde Namensgeber einer Reihe von Institutionen, darunter des Cusanuswerks (bischöfliche Studienförderung) und der Cusanus-Akademie in Brixen. Eine Anzahl von Schulen tragen seinen Namen: das Bischöfliche Cusanus-Gymnasium in Koblenz, das Cusanus-Gymnasium in Erkelenz, das Cusanus-Gymnasium in St. Wendel, das Cusanus-Gymnasium in Wittlich, das Nicolaus-Cusanus-Gymnasium in Bergisch Gladbach, das Nicolaus-Cusanus-Gymnasium in Bonn, das Nikolaus-von-Kues-Gymnasium in Bernkastel-Kues und die Cusanusschule, eine Grund- und Hauptschule in Münstermaifeld. Neuseeland. Neuseeland (,) ist ein geographisch isolierter Inselstaat im südlichen Pazifik. Er besteht aus einer Nord- und einer Südinsel sowie zahlreichen kleineren Inseln. Die nächstgelegenen Staaten befinden sich im Westen mit Australien (die Westküsten der beiden Hauptinseln Neuseelands sind zwischen 1530 km und rund 2100 km von der Ostküste Australiens und Tasmaniens entfernt), im Norden mit der französischen Insel Neukaledonien und den Inselstaaten Tonga und Fidschi sowie als Kontinent die Antarktis im Süden. Weder geographisch noch kulturell lässt sich Neuseeland eindeutig einem bestimmten Kontinent zuordnen: Das Land liegt teils auf der australischen, teils auf der pazifischen Platte und ist sowohl mit dem europäisch geprägten Kulturraum Australiens als auch mit dem polynesischen Teil Ozeaniens verbunden. Neuseeland ist ein Königreich im mit demokratisch-parlamentarischer Verfassung. Für einen Industriestaat eher ungewöhnlich sind die Hauptwirtschaftszweige Land- und Forstwirtschaft, Nahrungsmittelindustrie (hauptsächlich Molkereiprodukte) sowie Tourismus. Neuseeland wird vielfach als „grüne Insel“ bezeichnet, was teilweise der dünnen Besiedlung geschuldet ist. Diese und die relative Unberührtheit der Natur sowie die äußerst vielfältige und einzigartige Vegetation sind auch durch die relativ isolierte Lage der Inseln bedingt. Ausdehnung und Lage. Neuseeland besteht aus zwei Hauptinseln, der Nord- und der Südinsel, sowie mehr als 700 kleineren Inseln. Die beiden häufig als (deutsch etwa: Festland Neuseeland) bezeichneten Hauptinseln werden durch die an der schmalsten Stelle 23 km breite Cookstraße voneinander getrennt. Ein Großteil der kleineren Inseln wie etwa, die mitunter noch zum gezählt wird, die Great-Barrier-Insel oder die dicht besiedelte liegen innerhalb einer Zone von 50 km vor der Küste der Hauptinseln. Lediglich die 1000 km nördlich der Nordinsel gelegenen Kermadecinseln, die 700 km östlich liegenden Chathaminseln nahe der Internationalen Datumsgrenze sowie die mehr als 200 km südlich der Südinsel liegenden subantarktischen Inseln in den fünf unbewohnten Inselgruppen der Aucklandinseln, Campbell Islands, Antipoden-, Snares- und der Bountyinseln gehören nicht zum Archipel um die beiden Hauptinseln. Die Nordinsel liegt gänzlich auf der Australischen Platte, die Südinsel teils auf der Australischen und teils auf der Pazifischen Platte. Während der letzten Eiszeit waren die Nord- und die Südinsel miteinander verbunden. Neuseeland erhebt außerdem Anspruch auf das Ross-Nebengebiet in der Antarktis, das auch eine Reihe weiterer Inseln umfasst; dieser Anspruch wird aber international aufgrund des Antarktisvertrags nicht anerkannt. Ferner gehört Tokelau als abhängiges Gebiet zum Staat Neuseeland, und die Cookinseln und Niue sind selbstverwaltete Territorien in freier Assoziierung mit Neuseeland. Diese Gebiete werden im Folgenden nicht weiter berücksichtigt. Die gesamte Landfläche Neuseelands beträgt 268.680 km² und ist damit etwas kleiner als die Italiens oder der Philippinen, aber etwas größer als die des Vereinigten Königreichs. Während die Hauptinseln des Archipels in Ost-West-Richtung nie breiter als 450 km sind, erstrecken sie sich entlang der Hauptachse in nordöstlicher Richtung über 1600 km. Die gesamte Küstenlinie umfasst dabei ungefähr 15.134 km. Die Hoheitsgewässer Neuseelands sind mit 167.653 km² relativ zur Landmasse sehr groß, die Ausschließliche Wirtschaftszone ist mit 3.931.136 km² sogar eine der weltweit größten. Neuseeland befindet sich in der südlichen Hemisphäre. Alle neuseeländischen Inseln liegen isoliert im südwestlichen Pazifischen Ozean. Das Land wird damit im Allgemeinen Ozeanien zugeordnet (insbesondere, wenn der Begriff Ozeanien auch Australien mit einschließt) bzw. in kleinräumigerer Betrachtung als eine Insel Polynesiens angesehen. Teilweise wird es aber aufgrund der kulturellen Gemeinsamkeiten auch dem Kontinent Australien zugeordnet. Als Randmeer des Pazifiks liegt die Tasmansee westlich der beiden Hauptinseln und trennt Neuseeland vom bis zu 2100 km entfernten Australien. Die kürzeste Entfernung beträgt allerdings 1530 km, zwischen der Südinsel Neuseelands und Tasmanien gemessen. Nach Australien ist das antarktische Festland, etwa 3000 km im Süden, die nächste größere Landmasse. Weitere Staaten oder Kolonien in der Nähe Neuseelands sind im Norden Neukaledonien, Tonga und Fidschi. Neuseeland ist der Staat, der am weitesten von Mitteleuropa entfernt liegt: Teile des Landes befinden sich auf der Erdkugel exakt gegenüber von Spanien, sind also dessen Antipoden. Die Ausdehnung Neuseelands von Nord nach Süd wird umgangssprachlich häufig mit „“ („von Cape Reinga bis zum Bluff“) beschrieben, tatsächlich sind aber die am () der nördlichste Punkt der Nordinsel und in den () der südlichste Punkt der Südinsel. Zählt man zum, so ist der südlichste Punkt das (). Nimmt man die außerhalb des Archipels gelegenen Inseln hinzu, so ist in der Gruppe der Kermadecinseln der nördlichste und in der Gruppe der Campbellinseln () der südlichste Punkt des Landes. Der westlichste Punkt des Landes ist auf den Aucklandinseln, der östlichste die in den Chathaminseln. Nimmt man wiederum nur die beiden Hauptinseln, so ist der westlichste und der östlichste Punkt des Landes. Der offizielle Mittelpunkt des Landes befindet sich etwa 24 km südwestlich von Collingwood im Norden der Südinsel und hat die Koordinaten. Neuseeland und die mit ihm assoziierten Territorien liegen in vier verschiedenen Zeitzonen, die Hauptinseln verwenden die NZST, die UTC +12 entspricht. Topographie und Naturräume. Die 113.729 km² große Nordinsel ist die dichter besiedelte Insel Neuseelands. Auf ihr leben etwa drei Viertel der Einwohner, und sowohl die Hauptstadt Wellington als auch die größte Stadt des Landes Auckland liegen auf der Nordinsel. Auckland liegt auf einem Isthmus, der an der engsten Stelle weniger als zwei Kilometer breit ist und den Pazifik von der Tasmansee trennt. Nördlich des Isthmus befindet sich die, die sich wiederum in zahlreiche weitere Halbinseln bis hoch zur aufgliedert. Die Westküste der verläuft relativ glatt. Sie ist geprägt von langen Sandstränden, unter denen der der bekannteste sein dürfte, sowie zwei großen Naturhäfen, dem und dem. Südlich des erstreckt sich der, der bedeutende Kauri-Bäume beherbergt. Die Ostküste dagegen ist zerklüfteter und weist zahlreiche vorgelagerte Inseln auf, beherbergt aber auch einige Naturhäfen. Die bekanntesten dürften die und der Hafen der größten Stadt der Halbinsel, sein. Das Landesinnere wird von land- und forstwirtschaftlich genutztem Hügelland bedeckt. Südlich von Auckland findet sich die Region Waikato. Im Westen dieser Region befindet sich ein Mittelgebirge, die, die aber an der Mündung des Flusses in die Tasmansee in eine sanfte Hügellandschaft übergeht. Östlich der schließen sich die an, eine ausgeprägte Tiefebene, die sich zu beiden Seiten des Waikato erstreckt. Hier liegt Hamilton, die viertgrößte Agglomeration des Landes. Weiter östlich schließen sich dann mit den und dem wieder zwei überwiegend bewaldete Mittelgebirgszüge an. Diese trennen die Region von dem Gebiet rund um die. Im Norden der Bucht liegt die Coromandel Peninsula, die von der bis zu 900 m hohen Bergkette geprägt wird, deren nördlicher Ausläufer die Great-Barrier-Insel ist. Das Zentrum der Insel wird vom dominiert, dessen Vulkane, und den von der UNESCO zum ersten kombinierten Weltkulturerbe und Weltnaturerbe erklärten Tongariro-Nationalpark bilden. Der ist mit die höchste Erhebung der Insel. Nördlich von ihm liegt, genau im Zentrum der Nordinsel, der Lake Taupo, der größte See des Landes. Östlich von diesem liegen der und der Te-Urewera-Nationalpark, zwei ausgedehnte Waldgebiete, die die Region bis zur Ostküste prägen. Dieses Gebiet ist schwach besiedelt und von zahlreichen Mittelgebirgen durchzogen. Die höchste Erhebung ist der hohe, zur gehörende in der Nähe des s. Im Westen der zentralen Hochebene geht die Landschaft in ein bewaldetes raues Hügelland über, das vom und zahlreichen Seitenflüssen durchzogen wird. In der Mitte dieses Tieflands liegt der Whanganui-Nationalpark. Weiter westlich schließt sich daran die in die Tasmansee hineinragende Region Taranaki an. Diese wird vom hohen gleichnamigen Vulkan geprägt. Um den freistehenden Vulkan herum befindet sich ein breiter Regenwaldgürtel, der durch den Egmont-Nationalpark geschützt wird. Die Region ist sehr fruchtbar und ein Zentrum der neuseeländischen Milchproduktion. Südlich der Region um den befindet sich die Manawatuebene, ein Auengebiet um die Flüsse und. Daran schließt sich im weiteren Küstenverlauf die Kapiti Coast an, in deren Süden wiederum die Region Wellington rund um die Hauptstadt liegt. Nach Nordosten wird die Region durch die begrenzt, nach Osten durch die, zwei Mittelgebirgszüge, an die sich im Norden noch die anschließt und die zu einem sich parallel zur Ostküste ziehenden Gebirgsrücken gehören, dem im Norden auch die bereits oben erwähnte angehört. Östlich der Gebirge befindet sich die sumpfige Wairarapaebene, die wiederum durch ein weiteres gebirgiges Gebiet im Osten eingegrenzt wird. Nordöstlich dieser Region findet man schließlich die Region rund um die. In deren Innern ist neben der bereits erwähnten auch die zu finden. Die übrige Region besteht aus sanftem Hügelland sowie der Auenlandschaft um den im Norden und der fruchtbaren Heretaungaebene im Süden. Im Norden schließt sich dann die bereits beschriebene Region um Gisborne an. Die mit 151.215 km² etwas größere Südinsel wird dominiert von den parallel zur Westküste verlaufenden Neuseeländischen Alpen, auch Südalpen genannt. Dieses Hochgebirge ist das höchste Australasiens und Ozeaniens. Die höchste Erhebung in der Gebirgskette stellt mit der dar, gefolgt vom hohen. Insgesamt sind 17 Gipfel höher als. Sowohl die nördlichsten als auch die südlichsten Gebiete der Insel bestehen aus Mittelgebirgen, die teilweise auf über Höhe ansteigen. Die Region zwischen Südalpen und der Tasmansee ist äußerst schmal und gehört zu den niederschlagsreichsten Gebieten der Erde. Aufgrund dessen schieben sich einige Gletscher der Südalpen, wie der Fox- und der Franz-Josef-Gletscher, durch sämtliche Vegetationszonen bis in die Regenwälder in Küstennähe; der äußerste Südwesten bildet reich gegliederte Fjordlandschaften. Weite Teile des Südwestens stehen als Nationalparks unter Schutz; gemeinsam bilden diese die. Östlich der Südalpen befinden sich die, eine große Schwemmebene, die sich gut für landwirtschaftliche Zwecke eignet, etwa für die Viehzucht. Geologie. Bis vor etwa 200 Millionen Jahren gehörte Neuseeland – wie die meisten heutigen Landmassen der Südhalbkugel – zum Urkontinent Gondwana. Der genaue Zeitpunkt steht nicht fest, aber spätestens vor 85 Millionen Jahren, also in der oberen Kreidezeit, trennte sich das Kontinentbruchstück Zealandia mit dem heutigen Neuseeland von der Landmasse, die jetzt Antarktis bildet, bevor sich auch das heutige Australien von diesem Urkontinent loslöste. Seitdem konnte sich somit in Neuseeland eine von allen anderen Landflächen unabhängige Flora und Fauna entwickeln. Nach dieser ereignisreichen Zeit kehrte in der geologischen Geschichte des Landes Ruhe ein, die fortwährende Erosion ließ die geformten Gebirgszüge allmählich verschwinden, es entstanden große, tief gelegene Sumpfgebiete, aus denen im Laufe der Zeit die heutigen Kohlevorkommen hervorgingen. Erst vor weniger als 30 Millionen Jahren endete die ruhige Epoche in der Geologie des Landes und es wurden tief liegende Gebiete aus dem Meer angehoben. Seine Küstenlinie bekam der Pazifikstaat in der Miozän-Epoche erst in Grobform, bevor die Inseln in den letzten paar Millionen Jahren ihre heutige Form erhielten; viele der Berge und Täler wurden sogar erst in den letzten 100.000 Jahren gebildet. Während des Eiszeitalters war vor allem die Südinsel stark vergletschert. Heute befindet sich Neuseeland an der Grenze zwischen Australischer und Pazifischer Platte. Obwohl sich die beiden Platten nicht frontal aufeinander zubewegen, üben sie doch einen großen Einfluss auf das Land aus. Es entstehen zwei Kräfte: eine frontal wirkende sowie eine seitlich wirkende. Die frontale Kraft bildet Verwerfungen, die Druck auf verschiedene Gesteinsschichten ausüben und somit den Boden stetig anheben. Die zweite – seitlich wirkende – Kraft, führt zu so genannten Transformstörungen. Letztere führt zu häufigen Erdbeben im Land, die zum Teil gravierende Auswirkungen auf die Landschaft haben und auch eine ständige Bedrohung für die Bevölkerung darstellen, (siehe Erdbeben in Neuseeland). Neuseeland gehört – wie alle anderen Länder, die an der Grenze zur Pazifischen Platte liegen – zum Pazifischen Feuerring (englisch). Dies äußert sich in Erdbeben, Verwerfungen und erhöhter vulkanischer Aktivität. In Neuseeland liegen einige der aktivsten Vulkane der Erde. Diese befinden sich ausschließlich in der nördlichen Hälfte des Landes, ein Großteil von ihnen ist in der Taupo Volcanic Zone (TVZ) konzentriert, die sich im Zentrum der Nordinsel befindet. So sind zum Beispiel alle drei Vulkane der Zentralen Hochebene noch aktiv, die letzte Eruption des Schichtvulkans ereignete sich im Jahre 2007. In der Gegend der ist die Erdkruste dünn wie kaum anderswo auf der Welt, so dass hier geothermische Aktivitäten jeglicher Art anzutreffen sind. Ein bekannter Vulkan in diesem Gebiet ist, dessen letzte große Eruption im Jahr 2000 stattfand. Neben den Vulkanen zeigen sich die Kräfte der Erde in Form der Geothermie, die als Geysire oder heiße Quellen (insgesamt 67 in Neuseeland) zu Tage treten. Neben dem geothermalen Gebiet um die Stadt Taupo herum existieren noch 29 weitere derartige Gebiete in Neuseeland, hauptsächlich aber auf der Nordinsel, wie zum Beispiel, die und die, aber auch auf der Südinsel, ein bekanntes Beispiel sind die Thermalquellen in. Klima. Schnee auf der Südinsel (Juni 2006) Neuseeland liegt in den gemäßigten Breiten der Südhalbkugel, womit das relativ milde Klima der Inseln begründet werden kann. Die nördlichen Teile der Nordinsel sind von einem mehr subtropischen Klima geprägt, während im Rest des Landes ein gemäßigtes Klima vorherrscht. Die klimatischen Bedingungen Neuseelands werden durch verschiedene Faktoren geprägt. Zuerst muss hier der Inselcharakter hervorgehoben werden, umgeben von ausgedehnten Meeresflächen. Er sorgt für ein maritimes Grundklima mit einem relativ geringen Unterschied zwischen Winter und Sommer und im Durchschnitt eher hohen Niederschlagsmengen. Der gebirgige Charakter des Landes ermöglicht in den Tälern und Becken (z. B. Queenstown, Mackenzie-Becken und Central Otago und Leelagen der Ostküste) durchaus ein kontinental geprägtes Regionalklima mit viel Sonnenschein, geringeren Niederschlägen und großen Temperaturunterschieden zwischen Tag und Nacht. Auch hat die relative Nähe zum großen Kältereservoir der Antarktis mit ihren ganzjährig auftretenden ausgeprägten Kältevorstößen von Süden aus großen Einfluss auf das Klima vor allem der Südinsel. Auf ihrem Weg über das Meer erwärmt sich die Kaltluft zwar rasch, sorgt aber dennoch für z. T. sehr kühle Nachttemperaturen. So kann es sich abseits der Küste vielerorts auch im Sommer vorübergehend auf 5 °C abkühlen. Insbesondere vom Südteil der Südinsel wird immer wieder von kurzzeitigen sommerlichen Schneefällen bis in Lagen unter 1000 m berichtet. Dadurch sind die Temperaturunterschiede zwischen kalten und warmen Tagen eines Monats oft größer als jene zwischen Winter und Sommer. Neuseeland liegt insgesamt in der Westwindzone und wird daher im Winter und Sommer von Südwesten her immer wieder von Tiefdruckgebieten überquert, die häufig auch mit starken Winden oder sogar Stürmen einhergehen (Roaring Forties). Dennoch gibt es auch immer wieder längere Perioden mit Einfluss stabiler Hochdruckgebiete, die zum Teil für wochenlange Trockenheit sorgen können. Der Unterschied zwischen Winter und Sommer ist nicht so grundlegend wie z. B. in Mitteleuropa, jedoch ist die Tiefdruckaktivität im Südwinter und Südfrühling generell höher, während im Südsommer und Südherbst die stabilen Hochdruckgebiete überwiegen und für ruhige Wetterbedingungen sorgen. Sommerliche Tiefdruckgebiete sind zwar weniger häufig, können aber, da sie auch langsamer ziehen, für sehr intensive Regenfälle sorgen, insbesondere wenn sie mit Nordwinden Luftmassen vom tropischen Meer anzapfen und anschließend in Neuseeland auf Gebirgsbarrieren treffen. So kam es im Dezember 2011 in der Region Tasman zu katastrophalen Regenfluten, die an einigen Orten binnen weniger Tage über 1000 mm Niederschlag verursachten – mehr als der mittlere Jahresniederschlag in Deutschland. Alle paar Jahre kommt es ganz im Norden der Nordinsel im Sommer auch zu Einfällen sich auflösender tropischer Stürme, die in der Regel keine extremen Windstärken mehr verursachen, wohl aber ergiebige Regenfälle mit sich bringen. Im nur noch leicht hügeligen nördlichen Teil der Nordinsel kommt es dank des starken ozeanischen Einflusses im Winter nur selten zu Temperaturen unter dem Gefrierpunkt oder zu Schneefällen. Viele Insel- und Küstenlagen sind sogar gänzlich frost- und schneefrei und ermöglichen den Anbau von subtropischen Kulturpflanzen wie Bananen oder Avocados. Der mildernde Einfluss des Meeres dämpft auch die Sommertemperaturen, so dass 30 °C selten erreicht werden. Die Sonnenscheindauer liegt hier bei etwa 2000 Stunden im Jahr. Sonniger ist die Ostküste der Nordinsel. Dank Föhneffekten gibt es hier 2200 Sonnenstunden pro Jahr, und warme Wetterlagen bringen im Winter bis zu 20 °C, im Sommer häufig 30 °C, im Extremfall sogar bis zu 38 °C. Die Städte Gisborne und Napier in dieser Region sind daher auch eine der Hauptanbauregionen für Südfrüchte, wie Orangen, Tangelos, Kiwis oder Avocados. Ganz im Süden der Nordinsel ist das Klima rauer, insbesondere auch dadurch, dass die Westwinde hier zwischen Nord- und Südinsel hindurchkanalisiert werden. Wellington ist daher auch als "Windy City" bekannt und ist häufig auch etwas kühler als seine Umgebung. Die wüstenhaft erscheinende Region Rangipo Desert im Umkreis des Vulkans Ruapehu verdankt ihr Aussehen nicht den geringeren Niederschlägen, sondern mehr den unfruchtbaren Böden und einem aufgrund der Höhenlage rauen und windreichen Klima mit häufigen Nachtfrösten. Generell liegen die Wintertemperaturen auf der Nordinsel meist zwischen 0 und 15 °C in der Nacht und 10 bis 17 °C am Tag. Im Sommer darf man nachts mit 5 bis 20 °C, tags mit 20 bis 30 °C rechnen. Auf der Südinsel unterscheidet sich die Westküste markant von der Ostküste, da der Gebirgsriegel der südlichen Alpen als Hindernis für die vorherrschenden Westwinde wirkt. So treffen die Tiefdruckgebiete praktisch ungehindert auf die steilen Hänge der Westküste und regnen sich dort aus. Dadurch gehören die Jahresniederschläge mit bis zu 7000 mm zu den höchsten der Welt. Besonders wolken- und regenreich ist das nahezu unbesiedelte Fjordland im Südwesten der Südinsel, da der Einfluss der subtropischen Hochdruckgebiete nur selten bis dorthin reicht. Mit 1500 Sonnenstunden gibt es im Fjordland im Mittel etwa so viele Sonnenstunden wie in Großbritannien. Die Temperaturen sind ausgeglichen. Im Küstenbereich gibt es im Winter nur leichte Fröste, aber auch kaum mehr als 15 °C als Höchsttemperatur. Im Sommer liegen die Werte am Tag bei 15 bis 20 °C, nur bei Ostwinden gibt es bei viel Sonne Werte um 25 °C. Die Ostseite der südlichen Alpen einschließlich der Binnentäler ist kontinentaler geprägt. Mit um die 2100 Sonnenstunden, geringeren Niederschlägen (teilweise unter 500 mm im Jahr) und extremeren Temperaturunterschieden erreicht zum Beispiel das landeinwärts gelegene Alexandra (Central Otago) regelmäßig die höchsten Sommertemperaturen im Land. Auch in Christchurch kann es dank Föhnwinden im Sommer häufig 30, im Extremfall 40 °C heiß werden (siehe unten). Zugleich halten aber auch Kältevorstöße aus der Antarktis hier relativ ungehindert Einzug und sorgen für mäßige, landeinwärts auch strenge Fröste im Winter. Auch Sommernächte können z. T. empfindlich kühl sein. Die Region Southland mit Invercargill als größter Stadt ist den kalten Vorstößen aus Süden gänzlich ausgeliefert. So kann es auch im Sommer vorübergehend so kühl werden, dass mit Schneefällen bis unter 1000 m durchaus gerechnet werden kann. Die Nordküste (Marlborough, Nelson) stellt klimatisch das Gegenteil des Südens dar. Diese Region ist die sonnigste im ganzen Land. Mit fast 2500 Sonnenscheinstunden in Blenheim kann sich der Ort mit der französischen Riviera vergleichen. Der Grund für die hohe Sonnenscheindauer liegt in den Gebirgen, die die Region von allen Seiten umschließen und Wolken abhalten. Im Süden und Westen sind dies die südlichen Alpen, im Norden und Osten die Mittelgebirge der Nordinsel. Dennoch kann die Region (außer Blenheim) nicht als trocken bezeichnet werden, da die besonders regenintensiven Wetterlagen mit Nordwinden von Norden her eindringen können und sich an den Nordhängen der Gebirge stauen und abregnen. Diese Region gilt daher als klimatisch besonders begünstigt, da es hier weder am Niederschlag noch am Sonnenschein mangelt. Die Temperaturen sind im Mittel die mildesten der Südinsel, vergleichbar mit dem Klima der Nordinsel. Generell liegt das Temperaturniveau auf der Südinsel (tiefe Lagen) im Winter bei Werten zwischen −5 und 10 °C in der Nacht, und 5 bis 15 °C am Tag. Im Sommer sind es nachts 5 bis 15 °C, tags 15 bis 30 °C. Im Gebirge wird das Wetter rasch rauer, so treten in Tälern auf 1000 m Höhe auch im Sommer Fröste auf, im Winter fällt häufig Schnee. Die höchste offiziell bestätigte Temperatur Neuseelands betrug 42,4 °C und wurde im Februar 1973 sowohl in Rangiora als auch in Christchurch gemessen. Die niedrigste bestätigte Temperatur des Landes wurde mit −25,6 °C im Juli 1903 in Ranfurly erreicht, die zweitniedrigste im Juli 1995 in Ophir. Vegetationsformen. Aus mehreren Gründen weist Neuseeland eine hohe Zahl an unterschiedlichen Vegetationsformationen auf. Zum einen sind über 1600 km Nord-Süd-Erstreckung im Vergleich zur relativ kleinen Landfläche von 268.680 km² extrem lang. Deutschland ist zum Vergleich bei einer Landfläche von 357.000 km² nur etwa 880 km lang. Ein weiterer wichtiger Grund für die Vielzahl an Vegetationsformen sind die großen Höhenunterschiede in Neuseeland. Während zum Beispiel der „große Nachbar“ Australien die 28-fache Fläche umfasst, ist dessen größte Erhebung, der Mount Kosciuszko, nur 2228 m hoch. Hingegen erreicht Neuseelands höchster Berg, der Mount Cook, 3754 m. Zuletzt sorgt auch die durch die Lage der Gebirge bedingte ungleichmäßige Verteilung der Niederschläge für eine Vielfalt an Vegetationsformen. Während fast die gesamte Westküste der Südinsel von dichtem (endemischem) gemäßigtem Regenwald bewachsen ist, gehören die Südlichen Alpen zur alpinen Vegetationsstufe. Die Nähe dieser völlig unterschiedlichen Pflanzenformationen ist ungewöhnlich. So reichen zum Beispiel an keinem anderen Ort der Erde Gletscher so nahe an den Regenwald heran wie in Neuseeland. Die bekanntesten Gletscher sind der Franz-Josef-, der Fox- und der Tasman-Gletscher. In den Ebenen wird intensive Landwirtschaft betrieben, während an vielen anderen Orten extensive Weidewirtschaft vorherrscht. Östlich der Zentralebene ist die Landschaft aufgrund des geringen Niederschlags steppenartig geprägt. Die nördlichen Teile der Nordinsel liegen in der subtropischen Klimazone und sind an weniger besiedelten Orten großteils mit Regenwald bewachsen. Es handelt sich um Regenwälder der gemäßigten und subtropischen Zone, die sich im Hinblick auf Fauna und Flora von den Regenwäldern der tropischen Zone deutlich unterscheiden. Eine vergleichbare Vegetation mit vielfach immergrünen Laub- und Nadelhölzern sowie teilweise Baumfarnen findet sich an der Südküste Südafrikas, in Tasmanien, Chile und entlang der Pazifikküste von Kalifornien bis Kanada. Gewässer. Neuseeland verfügt über eine große Zahl an großen und kleineren Seen. Der, der sich im Zentrum der Nordinsel befindet und durch den in der zentralen Hochebene entspringenden gespeist wird, ist der mit Abstand größte See des Landes. Mit einer Fläche von 622 km² ist er größer als der Bodensee. Der See ist das Produkt eines gewaltigen Ausbruchs des Supervulkans Taupo (Vulkan) und hatte sich in dessen Caldera gebildet. Die nächstgrößeren Seen liegen allesamt auf der Südinsel und wurden von Gletschern ausgeschoben. Der größte dieser Gletscherseen ist der mit einer Fläche von 344 km², gefolgt vom 80 km langen und 291 km² großen nahe Queenstown (Neuseeland) sowie dem 192 km² großen. Ein interessanter Aspekt dieser als bezeichneten Region ist, dass viele der Gletscherseen tiefer sind als ihre Höhenlage, somit befindet sich der Grund der einzelnen Seen unterhalb des Meeresspiegels. Neuseeland wird außerdem von zahlreichen Flüssen und Bächen durchzogen. Der längste Fluss des Landes ist der auf der Nordinsel gelegene mit einer Länge von 425 km, der aus dem gespeist wird und bei südlich von in die Tasmansee mündet. Der im Süden der neuseeländischen Südinsel ist mit 340 km der zweitlängste Fluss des Landes. Er entspringt dem und mündet etwa 75 km südlich von in den Südpazifik. Der drittlängste Fluss des Landes, der 290 km lange, befindet sich wiederum auf der Nordinsel und mündet bei in die. Flora und Fauna. Die Tier- und Pflanzenwelt Neuseelands gehört zu den außergewöhnlichsten der Erde, da die Inselgruppe schon seit sehr langer Zeit von allen anderen Landmassen getrennt ist und sich die Vegetation unabhängig entwickeln konnte. Die größten Gemeinsamkeiten in der Entwicklung der Flora und Fauna weist Neuseeland mit Neukaledonien und der Lord-Howe-Insel auf. Flora. Etwa 85 % der neuseeländischen Pflanzenarten sind endemisch. Waren vor der Ankunft der Māori noch etwa 80 % des Landes mit Wäldern bedeckt, so wachsen heute noch auf gut 24 % der Landesfläche einheimische Wälder, von deren Fläche rund 77 % unter Schutz stehen. Auf rund 5 % der Landesfläche werden von der neuseeländischen Forstwirtschaft schnellwachsende, nicht-einheimische Baumarten wie die Monterey-Kiefer ("Pinus radiata") und der Küstenmammutbaum ("Sequoia sempervirens") angebaut. Die beiden wichtigsten einheimischen Waldtypen des Landes sind einerseits Nadelwälder, beispielsweise aus Steineibengewächsen ("Podocarpaceae") oder Kauri-Bäumen ("Araucariaceae") zusammengesetzt, sowie Laubwälder, die hauptsächlich aus Scheinbuchen ("Nothofagus") bestehen. Die meisten neuseeländischen Bäume sind immergrün. Vor allem die Nadelwälder werden durch Epiphyten wie zum Beispiel dem Nordinsel-Eisenholz ("Metrosideros robusta") in ihrer Erscheinung geprägt, aber auch einige wenige, mit unseren Misteln verwandte Arten leben hemiparasitisch auf Südbuchen. Unterhalb des dichten Walddaches kommen zahlreiche, meist endemische Farne vor. Am imposantesten sind zweifellos die Baumfarne ("Cyatheales"), die bis über zehn Meter hoch werden. Der bekannteste unter den Farnen ist der Ponga oder Silberfarn, er stellt die neuseeländische Nationalpflanze dar. Des Weiteren konnten sich in Neuseeland verschiedene Palmenarten wie zum Beispiel die Nikau-Palme ("Rhopalostylis sapida") entwickeln. Besonders auffällig sind schließlich noch der Pohutukawa ("Metrosideros excelsa"), das Südinsel-Eisenholz ("Metrosideros umbellata") und der sogenannte ("Cordyline australis"). Ungefähr zehn Prozent der Landesfläche sind mit einheimischer Offenlandvegetation bedeckt. Dazu gehören Tussockgrasländer sowie Busch- und Heideland. Wesentliche Teile der einheimischen Vegetation (etwa ein Drittel der Landesfläche) stehen unter Naturschutz, zu guten Teilen in Nationalparks und so genannten. Fauna. Aufgrund der verhältnismäßigen Isolation hat sich in Neuseeland ein einzigartiges Ökosystem entwickelt, dessen herausragendes Merkmal vor der polynesischen Kolonisation das Fehlen jeglicher Art von Landsäugetieren war, mit der Ausnahme von drei Fledermausarten (die zwei Arten der Neuseelandfledermäuse und). Viele der Nischen, die normalerweise von Säugetieren besetzt würden, sind von Vögeln belegt worden. So spielen hier flugunfähige Vögel eine besonders wichtige Rolle. Zu ihnen gehören der Kakapo ("Strigops habroptilus"), der Kiwi ("Apterygidae"), der Takahe ("Porphyrio mantelli"), der Weka ("Gallirallus australis") und der ausgestorbene Moa ("Dinornithiformes"). Die Vögel wurden von Greifvögeln gejagt, von denen der größte, der Haastadler ("Harpagornis moorei"), eine Spannweite von bis zu drei Metern und ein Gewicht von bis zu 14 Kilogramm hatte. Einige der flugunfähigen Arten kommen heute nur noch auf raubtierfreien Inseln vor der Küste Neuseelands vor. Weniger Probleme haben die kräftigen Papageienarten Kea ("Nestor notabilis") und Kaka ("Nestor meridionalis"). Darüber hinaus gibt es zahlreiche Vögel, die über die riesigen Weiten des Pazifiks fliegen, um Teile des Jahres in Neuseeland zu verbringen, wie der Westlandsturmvogel ("Procellaria westlandica"). Auch Königsalbatrosse ("Diomedea epomophora") und Australtölpel ("Morus serrator") nisten hier. Die Küsten teilen sich verschiedene Pinguinarten wie der Dickschnabelpinguin ("Eudyptes pachyrhynchus"), der Gelbaugenpinguin ("Megadyptes antipodes") und der Zwergpinguin ("Eudyptula minor") mit Neuseeländischen Seebären ("Arctocephalus forsteri"), Elefantenrobben ("Mirounga") und Neuseeländische Seelöwen ("Phocarctos hookeri"). Vor den Küsten schließlich sind Delfine und Wale anzutreffen. Beim Hector-Delfin (Cephalorhynchus hectori) und Maui-Delfin (Cephalorhynchus hectori maui) handelt es sich um vom aussterben bedrohte Arten. Momentan gibt es noch 55 Maui-Delfine in den flachen Küstengewässern der Westküste Neuseelands - in den 1970er Jahren waren es noch etwa 1.500 Tiere. Schwalben ließ der Landwirtschaftsminister zu Beginn des 20. Jahrhunderts in größerer Anzahl von Europa nach Neuseeland bringen. Des Weiteren ist Neuseeland die Heimat des Tuatara ("Sphenodon punctatus"), einer uralten Reptilienart, der Neuseeländischen Urfrösche (Leiopelmatidae) und des Weta (Anostostomatidae), eines Insekts, das bis zu 10 cm lang werden kann. Neuseeland ist eines der wenigen Länder der Erde, in denen es keine terrestrischen Schlangen gibt (wohl aber drei Arten von Seeschlangen im umgebenden Meer). Allerdings kommen fast 60 Echsenarten in Neuseeland vor, vor allem Skinke der Gattung "Oligosoma", die Neuseeländischen Braungeckos ("Hoplodactylus") und die Grüngeckos ("Naultinus"). Die Ankunft erst der Māori und später auch der Europäer hat aufgrund der Eingriffe des Menschen in die Natur und wegen absichtlich und unabsichtlich mitgebrachter Tiere (Neozoen), vor allem von Ratten, aber auch von Hunden, Katzen, Igeln, Hermelinen und anderen Wieselarten sowie dem australischen Fuchskusu zu zwei spektakulären Aussterbewellen geführt. Die neuseeländische Regierung versucht mit verschiedenen Maßnahmen, die durch importierte Tiere in ihrer Existenz bedrohten endemischen Arten, allen voran die vielen unterschiedlichen Vögel, vor dem Aussterben zu bewahren. Zum einen wird durch Kastration, zum Beispiel von Katzen, deren Vermehrung verhindert, und zum anderen ist Neuseeland weltweit führend in der Ausrottung eingeführter Tiere und hat damit begonnen, kleinere Inseln vor der Küste wieder in ihren Zustand vor der Kolonisierung zu versetzen und dort wieder einheimische Arten anzusiedeln, um in der nächsten Stufe das Projekt auch auf die beiden Hauptinseln auszudehnen. Im Jahr 1907 kamen durch Geschenk des Österreichischen Kaisers auf Bitte des neuseeländischen Premierministers Seddon drei Paar Gemsen nach Neuseeland. Sie wurden am Hooker-Fluss in der Nähe des Mount Cook ausgesetzt und sollen sich bis 1909 bereits eingelebt und vermehrt haben. Demografie. Bei der Volkszählung im Jahr 2006 lebten zum Stichtag 7. März 4.143.279 Menschen in Neuseeland, das sind 8,4 % mehr als bei der vorhergehenden Volkszählung im Jahre 2001 und doppelt so viele wie 1956. Der vorläufig geschätzte Bevölkerungsstand für das Jahr 2014 betrug per 30. Juni 2014 4.509.900 Einwohner. 23 % der Bevölkerung sind nicht in Neuseeland geboren. Der Bevölkerungszuwachs in den letzten fünf Jahren geht zu etwa zwei Dritteln auf Einwanderungen zurück. Die Bevölkerungsdichte beträgt ungefähr 16 Menschen pro km² (Deutschland: 231 pro km²). Damit gehört Neuseeland zu den dünner besiedelten Ländern der Erde, wenn es auch um ein Vielfaches dichter besiedelt ist als das Nachbarland Australien (2,6 Einwohner pro km²). Dabei verteilt sich die Bevölkerung ungleichmäßig auf die verschiedenen Landesteile. Während auf der größeren Südinsel nur gut eine Million Menschen leben und große Landesteile − wie zum Beispiel Fiordland − so gut wie unbewohnt sind, haben etwa 1,3 Millionen Personen alleine in der Metropolregion Auckland, der größten Stadt des Landes, ihren Wohnsitz. Insgesamt leben über drei Millionen Menschen auf der kleineren Nordinsel. Das Durchschnittsalter liegt (Stand 2006) bei 35,9 Jahren. Die Geburtenrate liegt bei 14,14 pro 1000 Einwohner (Stand 2003), während im gleichen Zeitraum 7,54 Todesfälle pro 1000 Menschen zu verzeichnen waren. Durch Einwanderung wuchs die Bevölkerung um weitere 4,26 Personen pro 1000 Einwohner. Die Kindersterblichkeitsrate lag 2006 bei 5,76 pro 1000 Lebendgeburten, während pro Frau durchschnittlich 1,79 Kinder geboren werden (Fertilitätsrate). Die Lebenserwartung liegt bei der Geburt bei 78,32 Jahren (2003). Während Männer durchschnittlich 75,34 Jahre alt werden, erreichen Frauen im Schnitt ein Alter von 80,44 Jahren. Neuseeland gehört mit einem Urbanisierungsgrad von 86 % im Jahr 2005 zu den Ländern mit der prozentual höchsten Stadtbevölkerung der Erde. Dabei lebt alleine in der Stadt Auckland fast ein Drittel (32 %) der Gesamtbevölkerung des Landes. Ethnische Zusammensetzung. Den größten Teil der Bevölkerung machen Neuseeländer europäischer Abstammung, genannt, aus. Diese Volksgruppe stammt größtenteils von den britischen Inseln, aber auch aus Deutschland, Italien, Polen, den Niederlanden und zahlreichen weiteren europäischen Staaten. Eine besondere deutschsprachige Gruppe stellen die Einwanderer aus Böhmen von 1860 bis 1876 dar, die sich in Puhoi, Ohaupo und Te Rore auf der Nordinsel niedergelassen haben. Insgesamt machen die Neuseeländer europäischer Herkunft etwa 67,6 % der Gesamtbevölkerung aus. Die zweitgrößte Bevölkerungsgruppe bilden die polynesisch-stämmigen indigenen Einwohner Neuseelands, die Māori, denen sich 14,6 % der Bevölkerung zugehörig fühlt. Zwischen 1996 und 2006 stieg der Anteil an Asiaten mit insgesamt 9,6 % zur drittgrößten ethnischen Gruppe auf. Dabei bilden Chinesen mit 2,8 % vor Indern mit 1,7 % die größte Gruppe. Die asiatische Bevölkerungsgruppe überholte bis 2001 die Gruppe von Menschen von den pazifischen Inseln, die 2006 etwa 6,9 % der Landesbevölkerung stellten. Die meisten der pazifischen Insulaner stammen aus Samoa, gefolgt von den Cookinseln sowie Tonga. Insgesamt sind etwa 23 % der Gesamtbevölkerung nicht in Neuseeland geboren. Weltanschauungen. Die größten Konfessionen Neuseelands pro Distrikt In Neuseeland leben vergleichsweise viele Konfessionslose – etwa 32 % der Gesamtbevölkerung gaben bei der Volkszählung 2006 an, keiner Religion zugehörig zu sein. Die vorherrschende Religion ist das Christentum. Die größte christliche Konfession ist die anglikanische Kirche mit etwa 14 %, darauf folgt die römisch-katholische Kirche mit etwa 13 %. Die drittgrößte christliche Konfession schließlich ist die presbyterianische Kirche mit etwa 10 % Anteil an der Bevölkerung. Kleinere christliche Gruppierungen schließen die Methodisten mit etwa 3 % sowie Baptisten (alle Angaben von 2006) und Lutheraner ein. Die meisten Māori sind heute Christen, zudem ist die neuseeländische Ratana-Kirche sehr beliebt. Weitere kleinere Religionsgruppen sind der Buddhismus, dicht gefolgt vom Hinduismus sowie vom Islam. Es gibt auch einige jüdische Gemeinden. Während die anglikanische sowie die presbyterianische Kirche in den letzten Jahren an Mitgliederschwund leiden, verzeichnen die meisten anderen Kirchen Mitgliederzuwächse, meistens durch Einwanderer. Auch die Zahl der Muslime erhöhte sich von 2001 bis 2006 um 52 %. Die katholische Kirche ist in den Großstädten der Nordinsel bereits größte Konfession. Durch den ausgeprägten Anteil an Presbyterianern im Süden der Südinsel kann man heute noch erkennen, dass dieses Gebiet vornehmlich durch schottische Einwanderer besiedelt wurde. Die katholische Bevölkerungsmehrheit in manchen ländlichen Distrikten ist zum Beispiel in Waitakere auf Zuwanderung von Kroaten aus dem Königreich Dalmatien zurückzuführen. Die italienische katholische Gemeinde stellt aufgrund sehr starker Zuwanderung die größte Gruppe innerhalb der neuseeländischen Katholiken dar. Sprachen. Neuseeland hat zwei Amtssprachen: Te Reo Māori und die neuseeländische Gebärdensprache. Die englische Sprache ist, was viele nicht vermuten würden, keine offizielle Amtssprache, sondern wird lediglich als de facto Amtssprache bezeichnet und dies, obwohl Englisch von rund 96 % der neuseeländischen Bevölkerung gesprochen und von offiziellen Stellen als offizielle Sprache verwendet wird. Im August 2015 startete eine Bürgerin des Landes eine Petition mit dem Ziel, Englisch als offizielle Amtssprache in Neuseeland zu führen. Der Ausgang ist noch offen. Während sowohl Māori als auch die neuseeländische Gebärdensprache nur von einem relativ geringen Anteil der Bevölkerung verstanden oder gar aktiv verwendet werden, ist das neuseeländische Englisch die wichtigste Umgangssprache. Diese Varietät der englischen Sprache ist mit dem australischen Englisch verwandt, unterscheidet sich aber von dieser durch die grundsätzlich andere Betonung einiger Vokale und Wörter, sodass Missverständnisse zwischen Sprechern des neuseeländischen und australischen Englisch nicht ausgeschlossen sind. Andere besondere Eigenschaften des neuseeländischen Englisch machen der Māori-Sprache entlehnte Wörter aus. Ihr Gebrauch ist vor allem in der Māori-Bevölkerung verbreitet. Die Amtssprache, Māori (Eigenbezeichnung:), verlor bis in die 1970er Jahre immer mehr an Bedeutung, und die Anzahl der Māori-Sprecher nahm kontinuierlich ab. Am 1. August 1987 wurde Māori aber zur Amtssprache erhoben und seit dieser Zeit wird an immer mehr – öffentlichen wie privaten – Schulen Māori als Wahlfach unterrichtet, so dass auch Neuseeländer europäischer Abstammung Zugang zu dieser Sprache erhalten. Seitdem nimmt die Zahl derer, die Māori sprechen und verstehen, besonders in der Altersgruppe der 3- bis 25-Jährigen, wieder zu. Insgesamt konnten 2006 nach eigenen Angaben 4,2 % der Bevölkerung Māori sprechen. Die neuseeländische Gebärdensprache (englisch:; NZSL) ist seit dem 10. April 2006 ebenfalls offizielle Amtssprache und ist damit die weltweit erste Sprache für Gehörlose, die diesen Status besitzt. Obwohl sie bereits seit 1994 an speziellen Schulen unterrichtet wird und 1998 das erste Wörterbuch für die Sprache veröffentlicht wurde, betrug 2006 die Zahl der Menschen, die die Gebärdensprache beherrschten, gerade einmal 0,6 %. Die Anzahl gehörloser oder hörbehinderter Menschen in Neuseeland ist ungefähr doppelt so hoch. Zusätzlich zu den drei Amtssprachen werden noch zahlreiche andere Sprachen in Neuseeland gesprochen, die von den vielen Einwanderern ins Land gebracht wurden, darunter Samoanisch, Französisch, Hindi, zahlreiche Chinesische Sprachen (vor allem Kantonesisch und Hochchinesisch) und Deutsch. Es gibt in Neuseeland keinen verpflichtenden Fremdsprachenunterricht, nur etwa ein Fünftel aller Schüler an weiterführenden Schulen lernt eine Fremdsprache. Die beliebtesten sind Französisch, Japanisch und Deutsch. Entdeckung und Besiedlung durch Polynesier. Neuseeland wurde gegen Ende des 13. Jahrhunderts, spätestens aber in der ersten Hälfte des 14. Jahrhunderts von Polynesiern entdeckt und in mehreren Einwanderungswellen besiedelt. Die Datierung von Knochen der pazifischen Ratte und von eingeführten Samen mittels der Radiokohlenstoffmethode grenzen diesen Zeitraum auf die Jahre 1280 bis 1350 ein. Die Nachkommen der ersten Einwanderer begründeten die Māori-Kultur. Aus der Besiedlung der Chatham-Inseln östlich von Neuseeland ging die Moriori-Kultur hervor. Ob diese Besiedlung von Neuseeland aus erfolgte, ist umstritten, aber sprachliche Gemeinsamkeiten sind Anzeichen für eine Besiedlung vom Festland aus. Viele der eingewanderten Māori – vor allem auf der Nordinsel – gaben dem Land den Namen Aotearoa, was im Allgemeinen mit „Land der langen weißen Wolke“ übersetzt wird. Die ersten Māori, die das Land erreichten, fanden keine Säugetiere vor. Um sich zu ernähren, jagten sie zunächst Moa. Dieser flugunfähige, dem afrikanischen Strauß entfernt ähnliche Vogel war so binnen weniger Jahre ausgerottet. Ebenso verschwand der Haastadler, der größte Greifvogel der neuzeitlichen Erde; der letzte seiner Art starb vermutlich um 1700. Die erstmalige Besiedlung durch die Māori führte so zum Aussterben mancher Tierart. Später ergänzten die Māori ihren Speiseplan durch die Kultivierung der "Kumara" (Süßkartoffel). Entdeckung und frühe Besiedlung durch Europäer. Eine Nachbildung der "Endeavour", des Schiffs von James Cook Der erste Europäer, der Neuseeland erblickte, war der niederländische Seefahrer Abel Tasman. Seine Aufgabe war es, das „Große südliche Land“ zu finden, weil dort wertvolle Rohstoffe vermutet wurden. Auf seiner Reise entdeckte er im Jahr 1642 ein „großes, hoch gelegenes Land“ auf der Südinsel, die heutige Region West Coast. Er war sich nicht sicher und vermutete, dass er ein weiteres Stück Küste von Staten Landt entdeckt hätte. Als er in der Golden Bay in der heutigen Region Tasman das Land aus der Nähe erkunden wollte, kam es zu einer ersten blutigen Begegnung mit den „Ureinwohnern“, bei der vier niederländische Seeleute getötet wurden. Der „Entdecker Neuseelands“ setzte niemals einen Fuß auf neuseeländischen Boden. Als eine Expedition unter Hendrik Brouwer ein Jahr später festgestellt hatte, dass der von Tasman vorgefundene Küstenstreifen nicht zu gehörte, wurde das Land ' (lateinisch) oder ' (niederländisch) genannt (wie die Provinz Zeeland), in Anlehnung an Australien, das ' oder ' genannt worden war. Erst 1769/70 wurden erneut Expeditionen in die Gewässer um die (auf Englisch) ' genannten Inseln gestartet. Der britische Kapitän James Cook sollte wie Tasman einen vermuteten südlichen Kontinent finden. Im Oktober 1769 traf Cooks Schiff Endeavour von Tahiti kommend am südwestlichen Punkt der Poverty Bay genannten Bucht auf Neuseeland. Nach ersten feindseligen Begegnungen, dann aber auch gelungenen Annäherungsversuchen mit Māori umsegelte Cook zunächst die Nordinsel sowie nach einem längeren Aufenthalt in den Marlborough Sounds die Südinsel und konnte so nachweisen, dass es sich bei Neuseeland um Inseln und nicht um einen Teil eines Kontinents handelte. Cook und die ihn begleitenden Wissenschaftler begannen das Land gründlich zu kartographieren, sie erkundeten ausgiebig Flora und Fauna und sammelten Informationen zu den Māori. Nur wenige Wochen nach Cook erreichte auch Jean François Marie de Surville die Inseln. In den folgenden Jahren wanderten vor allem Walfänger, Robbenfänger und später auch Missionare nach Neuseeland ein. Diese pflegten ausgeprägte Kontakte zu den Māori. Die beiden Parteien trieben regen Handel miteinander, einige Europäer lebten sogar mit den Māori zusammen. Die Geburt der Nation. Die Flagge der "United Tribes of New Zealand" Die bei Tauschgeschäften von den Europäern durch die Māori seit dem Ende des 18. Jahrhunderts erworbenen Schusswaffen begünstigten gewalttätige Auseinandersetzungen, die von 1829 bis 1835 in den Musketenkriegen (englisch: ') gipfelten, bei denen sich zahlreiche Stämme bekämpften und − Schätzungen der Regierung zufolge − etwa 20.000 Menschen zu Tode kamen. Auch durch die Europäer eingeschleppte Krankheiten, gegen deren Erreger die Māori nicht resistent waren, dezimierten ihre Anzahl nachhaltig. In den 1820er Jahren kam es zudem zu ersten bewaffneten Auseinandersetzungen zwischen Māori und Weißen. 1832 schickte die britische Regierung den Gesandten James Busby nach Neuseeland und ernannte ihn zum Residenten. Er sollte den britischen Handel überwachen und kontrollieren und zwischen streitenden Weißen und Māori vermitteln, er war dabei jedoch weitgehend auf sich allein gestellt. Nachdem ein neuseeländisches Handelsschiff wegen des fehlenden Herkunftssymboles im Hafen von Sydney beschlagnahmt worden war und auch nicht unter britischer Flagge fahren durfte, da Neuseeland noch nicht zu Großbritannien gehörte, wählten am 20. März 1834 mehrere Dutzend Māori-Anführer unter seiner Aufsicht eine offizielle Flagge aus, die später zur offiziellen Flagge der (deutsch: "Vereinigte Stämme Neuseelands)" wurde. Da es in Neuseeland noch keine Gesetzgebung gab und die Befürchtung aufkam, dass Frankreich an der Banks Peninsula eine eigene Kolonie gründen könnte, setzte Busby einen Vertrag auf, der am 28. Oktober 1835 von über 30 Māori-Anführern unterzeichnet wurde und als (Unabhängigkeitserklärung) und damit als Gründung der „Vereinigten Stämme“ in die Geschichte einging. Die Souveränität des Landes fand jedoch schon wenige Jahre später ein jähes Ende. Zu diesem Zeitpunkt gab es in Frankreich nämlich tatsächlich Bestrebungen, auf der Südinsel des Landes eine Kolonie zu gründen, was die britische Krone unter allen Umständen verhindern wollte. Da man die „Vereinigten Stämme“ für zu schwach befand, ihre Interessen selbst zu verteidigen, wurde das Land im Januar 1840 vom Britischen Weltreich offiziell annektiert. Um das Vorgehen als rechtmäßig zu erklären, beeilte sich der damalige Generalgouverneur William Hobson, zahlreiche Māori-Häuptlinge nahe dem Ort Waitangi zu versammeln, damit sie am 6. Februar des gleichen Jahres den Vertrag von Waitangi unterzeichnen konnten. Dieses Dokument gilt als die „Geburtsstunde“ des modernen Neuseeland; der Vertrag verband das Land mit der britischen Krone. Gleichzeitig gaben die Māori damit ihre Souveränität auf und bekamen dafür Bürgerrechte zugesichert. Sie durften die Ländereien behalten, die vor Unterzeichnung des Vertrages in ihrem Besitz waren. Im Jahr 1975 wurde schließlich das Waitangi Tribunal eingesetzt, das bei Unstimmigkeiten und Vertragsverletzungen Regelungen trifft und sich auch für Wiedergutmachungen einsetzt. Auf der Südinsel Neuseelands scheiterte die Kolonialisierung durch Frankreich nur knapp. 1840 war Jean Langlois zur Banks Peninsula aufgebrochen, um sie für Frankreich in Besitz zu nehmen. Als der Plan bekannt wurde, sandten die Briten eine Expedition aus, um die Halbinsel für die Krone zu sichern. Langlois erreichte die Gewässer vor dem heutigen Akaroa zwar als erster, konnte aber wegen widriger Winde nicht an Land gehen. Als das Wetter die Landung zuließ, musste er dann erkennen, dass ihm die Briten zuvorgekommen waren. Die französischen Siedler durften sich gleichwohl in Akaroa niederlassen, was heute auch in den französischen Straßennamen sichtbar ist. Kolonialzeit. a>s Tod 1868 während der Neuseelandkriege Die 1839 gegründete New Zealand Company warb um neue Einwanderer. Diese errichteten zahlreiche Städte und Dörfer und besiedelten große Teile des Landes. Sie lebten oft als Bauern in Frieden mit den Māori und kultivierten die Landschaft. Als aber mehr und mehr Einwanderer das Land erreichten und immer größere Landflächen benötigt wurden, kam es zu Zwistigkeiten zwischen Siedlern und Māori. Mit der Zeit wurden die Missstände immer größer, und so kam es schließlich zu offenen bewaffneten Konflikten, die in Northland bereits im Jahr 1840 zu einer kriegerischen Auseinandersetzung anwuchsen. Bis 1860 hatten sich die Kämpfe, die als Neuseelandkriege in die Geschichte eingingen, auf das ganze Land ausgedehnt. Nach diesen Auseinandersetzungen betrug die Zahl der Māori 1891 nur noch 44.000 im Vergleich zu über 120.000 vor dem Jahr 1820. Nach der Unterzeichnung des Vertrages von Waitangi wurde Neuseeland als Teil von New South Wales verwaltet, bis das Land ab 31. Mai 1841 eine eigene Kolonie bildete. Die Europäer besiedelten in den folgenden Jahrzehnten beinahe das gesamte Land und gründeten insgesamt neun Provinzen. Im Jahre 1861 wurden auf der Südinsel große Goldvorkommen entdeckt, was zum Otago-Goldrausch führte. Um separatistische Bewegungen auf der aufstrebenden Südinsel zu verhindern, wurde die ursprünglich in Russell gelegene Hauptstadt von Auckland im hohen Norden nach Wellington in die Mitte des Landes verlegt. Schon vor der Jahrhundertwende setzte Neuseeland im Umgang mit bisher benachteiligten Personengruppen Maßstäbe, was für den Rest der Welt zur damaligen Zeit noch unmöglich schien. Als sich das Land seit 1852 aufgrund des relativ selbständig verwaltete, bekamen ab 1867 auch die männlichen Māori das Wahlrecht und Sitze im Parlament. Am 18. September 1893 wurde in Neuseeland – als erstem Land der Welt – das Frauenwahlrecht eingeführt. Das moderne Neuseeland. Das Land entschied sich 1901 gegen einen Beitritt zum und blieb bis 1907 eine Kolonie, als Neuseeland den Status einer Dominion erhielt und folglich fast unabhängig von Großbritannien wurde. Über die gesamte Kolonialzeit bis in die jüngere Gegenwart hinweg erwies sich das Land als besonders treuer Bündnispartner Großbritanniens. So entsandte Neuseeland Truppen für den Zweiten Burenkrieg, den Ersten und Zweiten Weltkrieg sowie die Sueskrise. Die Frage, seit wann Neuseeland ein eigenständiger Staat ist, ist nicht leicht zu klären, da das Land nach angelsächsischer Tradition keine geschriebene Verfassung besitzt. Neben 1840 (Vertrag von Waitangi) und 1907 (Entstehung der Dominion) gibt es weitere Zeitpunkte auf Neuseelands Weg zur Unabhängigkeit: 1931 wurde von der britischen Regierung der Statut von Westminster (1931) erlassen, das den die Möglichkeit zur Unabhängigkeit gab. 1947 akzeptierte das neuseeländische Parlament mit dem die angebotene völlige Souveränität, die mit der Mitgliedschaft im Commonwealth of Nations verbunden war. Am 25. Dezember 1947 erhielt das Gesetz durch Unterzeichnung durch die britische Krone Rechtskraft. Andererseits gab sich Neuseeland erst 1986 eine vom neuseeländischen Parlament abgesegnete Verfassung, bis dahin galt die Verfassung des noch vom britischen Parlament verabschiedeten. Die am Schwarzen Freitag 1929 eingeläutete Weltwirtschaftskrise traf das wirtschaftlich von Großbritannien abhängige Land sehr hart und führte zur ersten Regierungsbildung durch die New Zealand Labour Party (Arbeiterpartei), die den neuseeländischen Wohlfahrtsstaat etablierte und den Wirtschaftsverkehr weitgehend kontrollierte. Diese Politik wurde über Jahrzehnte erfolgreich praktiziert, bis veränderte Bedingungen zu einem erneuten radikalen Kurswechsel führten. Bereits in den ausgehenden 1960er Jahren schwächelte das hochsubventionierte Staats- und Wirtschaftswesen des Landes und brach mit dem Beitritt Großbritanniens in die EG weitgehend zusammen. Die bewährte enge wirtschaftliche Bindung zum einstigen Mutterland existierte plötzlich nicht mehr. Das Land litt unter hohen Inflationsraten, überbordender Bürokratie und zu hohen Staatsausgaben. Erst eine von der Labour-Regierung unter David Lange 1984 begonnene und unter seinen konservativen Nachfolgern fortgesetzte durchgreifende Liberalisierung brachte auf längere Sicht die Wende, wobei die Arbeitslosenzahlen die langwierigsten Probleme bereiteten. Doch Mitte der 1990er Jahre hatte der Aufschwung das ganze Land bereits an die Spitze der Industrienationen katapultiert. Seit der Machtübernahme der Labour Party unter Helen Clark 1999 wurde diese Wirtschaftspolitik erneut teilweise revidiert, privatisierte Staatsunternehmen zurückgekauft und der soziale Ausgleich, vor allem zwischen dem Wirtschaftszentrum Auckland und dem ländlichen Raum, trat wieder in den Vordergrund. 1951 verbündeten sich die drei Staaten Australien, die USA und Neuseeland zum ANZUS-Sicherheitspakt, um im Hinblick auf den gerade vorübergegangenen Zweiten Weltkrieg zukünftige Konflikte gemeinsam verhindern zu können. Wegen Differenzen über Neuseelands Anti-Atompolitik erfolgte die Suspendierung des Pakts durch die USA im Jahr 1984. Im Zusammenhang mit dem Widerstand gegen das französische Atomwaffen-Programm in Französisch-Polynesien wurde das Greenpeace-Flaggschiff "Rainbow Warrior" 1985 im Hafen von Auckland von französischen Geheimagenten versenkt. Zwei Jahre später erklärte sich Neuseeland zur Atomwaffenfreie Zone. Die Sprache und Kultur der bis in die 1970er Jahre gesellschaftlich marginalisierten Ureinwohner, der Māori, werden heute – in krassem Gegensatz zur Politik des Nachbarn Australien – besonders gefördert; so gibt es Radio, Fernsehen und Zeitungen in der Māori-Sprache, die Abgeordneten der für die Māori reservierten Parlamentssitze werden in gesonderten Wahlkreisen gewählt, und die traditionelle Māori-Kultur wird auch touristisch vermarktet. Im März 2014 wurde die Entfernung des Union Jack als koloniales Zeichen aus der Staatsflagge diskutiert. Im März 2016 entscheiden die Bürger, ob sie die bisherige Nationalflagge beibehalten möchten oder einen neuen Entwurf von Kyle Lockwood, der im ersten Referendum bis Dezember 2015 als Gewinner aus einer Reihe von Vorschlägen hervorging. Staatsorganisation. a> ("Bienenstock") in, Sitz des, der Minister des Kabinetts und Tagungsort des Kabinetts Neuseeland ist eine unabhängige parlamentarische Monarchie, die sich am britischen Vorbild orientiert, aber nur eine Kammer hat, es gibt also kein Oberhaus. Es verfügt als einer von drei Staaten weltweit, neben dem Vereinigten Königreich und Israel, über keine kodifizierte Verfassung. Nach dem ist der Monarch von Großbritannien und Nordirland in seinem Amt als König bzw. Königin von Neuseeland das Staatsoberhaupt. Ein Generalgouverneur repräsentiert wie in jedem Commonwealth Realm das Staatsoberhaupt, er kann jedoch keine Macht auf das Parlament ausüben. Regierungssitz und Sitz des Parlaments ist Wellington. Parteiensystem. Vor der Bildung von politischen Parteien gab es im neuseeländischen Parlament nur einzelne Kandidaten zu wählen. In den letzten Jahrzehnten des 19. Jahrhunderts bildeten sich zunehmend stärker werdende lose Interessengruppen, die sich zu Beginn meist nach geographischer Herkunft der Kandidaten, später dann aber nach politischer Einstellung – Konservatismus oder Liberalismus – zusammenfanden. Generell wird die von John Ballance gegründete und später von Richard Seddon geprägte als erste wirkliche politische Partei Neuseelands angesehen. Sie stellte von 1890 bis 1912 die Regierungsmehrheit. Ab 1903 begannen zahlreiche Parlamentarier damit, sich zu einer konservativen Alternativbewegung zusammenzuschließen, die seit 1909 offiziell als bezeichnet wurde und sich deutlich von der liberalen Partei unterscheiden sollte. Mit dem Zusammenschluss von zahlreichen sozialistischen Gruppierungen zur Labour Party im Jahr 1916 begann der Niedergang der liberalen Partei, die in den folgenden Wahlen keinen Rückhalt mehr aus der Arbeiterklasse hatte und schließlich auch noch auf ihre zweite Wählerbasis, Geschäftsleute und Arbeitgeber, die über den Aufstieg der Social Democratic Party besorgt waren und sich geschlossen der mit ihrem „Anti-Sozialismus“-Programm anschlossen, verzichten mussten. Letztere politische Vereinigung war bis 1928 an der Macht, bis sie von einem Bündnis aus und, der Nachfolgepartei der, abgelöst wurde. Als die Arbeiterpartei 1935 ohne Koalitionspartner die Regierung bilden konnte, fusionierten und zur konservativen, die in der zweiten Hälfte des 20. Jahrhunderts der größte und einzige Konkurrent der war. In den frühen 1990er Jahren wurden zahlreiche kleinere Parteien gegründet, die bekanntesten sind die (1990), (1991) sowie (1993). Diese konnten wegen des Mehrheitswahlrechts trotz großer Stimmenanteile nur wenige Parlamentssitze erringen. Erst nach der Änderung des Wahlsystems im Jahr 1993 und der damit verbundenen Einführung des personalisierten Verhältniswahlrechts zu den Wahlen des House of Representatives (Neuseeland) im Jahr 1996 waren kleinere Parteien in größerem Umfang in der Lage, die Politik des Landes mitzubestimmen. Nach den Wahlen von 2005 dominieren zwar weiter die unter ihrer Vorsitzenden Helen Clark und die unter ihrem Vorsitzenden John Key die neuseeländische Parteienlandschaft und liefern sich bei Wahlen regelmäßig ein Kopf-an-Kopf-Rennen, doch neben diesen beiden Parteien sind noch sechs weitere im Repräsentantenhaus vertreten: die rechtsgerichtete, nationalistische und häufig als populistisch beschriebene Partei, die linksgerichtete, grüne, die 2004 vom ehemaligen Labour-Kabinettsmitglied Tariana Turia gegründete, die sich insbesondere für die Interessen der Māori einsetzt, die christdemokratische Mitte-rechts-Partei, die wirtschaftsliberale und die demokratisch-sozialistische (eine Abspaltung der sozialdemokratischen). Politische Entwicklung. John Key, der 38. Premierminister Neuseelands Die Mitte-links-Koalition der seit 1999 amtierenden Premierministerin wurde bei der Wahl am 8. November 2008 von einer Koalition unter Führung der abgelöst. Der neue Premierminister nahm am 19. November 2008 seine Amtsgeschäfte auf. Seine Regierung wurde von der, und der unterstützt. Die größte Oppositionspartei wurde die. Am 26. November 2011 konnte die regierende unter Ihre Führung mit 48,0 % der abgegebenen Stimmen sogar noch ausbauen und verfehlte mit 60 Sitzen nur knapp die absolute Mehrheit im House of Representatives (Neuseeland). Außen- und Sicherheitspolitik. Die neuseeländischen Streitkräfte (New Zealand Defence Force) gliedern sich in drei Teilstreitkräfte: Die Seestreitkräfte (Royal New Zealand Navy), die Luftstreitkräfte (Royal New Zealand Air Force) sowie die Landstreitkräfte (New Zealand Army), die aus 4500 regulären Soldaten und 2500 weiteren Beschäftigten bestehen. Außenpolitisch hat sich Neuseeland durch seine regelmäßige Beteiligung an Kriegen auf Seiten Großbritanniens profiliert. So beteiligte sich Neuseeland unter anderen am Burenkrieg, dem Ersten und Zweiten Weltkrieg, dem Koreakrieg, dem Vietnamkrieg, dem Zweiten Golfkrieg und dem Krieg in Afghanistan. Ferner stellte bzw. stellt Neuseeland Truppen für verschiedene Friedensmissionen, zum Beispiel in Zypern, Somalia, Bosnien und Herzegowina, im Sinai, in Angola, Kambodscha, an der iranisch-irakischen Grenze sowie in Osttimor bereit. Das militärische Verteidigungsbündnis ANZUS mit den USA und Australien war zwischenzeitlich wegen der strikten Anti-Atom-Politik Neuseelands, in deren Rahmen sich das Land auch gegen die französischen Atomtests im Südpazifik starkmachte, ausgesetzt. Neuseeland gilt den Vereinigten Staaten als einer der treuesten Verbündeten außerhalb der NATO. Neuseeland ist Gründungsmitglied der Vereinten Nationen und des Commonwealth. Weiterhin ist es seit der Gründung am 6. Februar 1947 Mitglied des Sekretariats der Pazifischen Gemeinschaft, der Organisationen der Weltbankgruppe (außer der MIGA), seit der Gründung 1966 der Asiatischen Entwicklungsbank, seit der Gründung am 17. April 1973 des, seit dem 29. Mai 1973 der OECD, seit der Gründung 1980 des Pazifischen Rates für wirtschaftliche Zusammenarbeit, seit der Gründung 1989 der APEC sowie seit dem 1. Januar 1995 der Welthandelsorganisation. Einwanderungspolitik. Neuseeland nimmt derzeit rund 45.000 Einwanderer pro Jahr auf. Das Einwanderungssystem des Landes funktioniert nach einer Punktetabelle, diese bezieht sich nicht nur auf die Schulbildung eines Kandidaten, sondern auch auf die vorhergegangenen Beschäftigungen. Verwaltungsgliederung. Im Vergleich zum föderal gegliederten Australien ist Neuseeland sehr zentralistisch organisiert. Seit einer großen Verwaltungsreform im Jahr 1989 gibt es im Allgemeinen zwei Stufen der Verwaltungsgliederung, die jedoch nur über wenige Ressorts entscheiden können. Die erste Stufe bilden die Regionen (englisch); die zweite Stufe stellen die Distrikte dar, die entweder als (also „Stadtrat“), (also „Rat des Distriktes“) oder – bei den Chatham-Inseln – als (also „Inselrat“) bezeichnet werden. Vier der 16 Regionen sowie die Chatham-Inseln sind zusätzlich für die Aufgaben eines Distriktes verantwortlich, diese werden als bezeichnet. Offiziell agieren die Distrikte unabhängig von den Regionen, so kommt es auch vor, dass sich ein Distrikt in mehreren Regionen befindet. Alle drei Jahre werden die Räte je Region bzw. Distrikt entweder durch Mehrheitswahl oder durch eine übertragbare Einzelstimmgebung bestimmt. Zahlreiche kleinere Außengebiete des Landes, wie zum Beispiel die Kermadecinseln und die zu Neuseeland gehörigen Subantarktischen Inseln, unterstehen verwaltungstechnisch direkt dem. Regionen. Neuseeland ist in 16 Regionen unterteilt, von denen fünf als Unitary Authorities organisiert sind. Während die Regionen reine regionale Aufgaben wahrnehmen, haben die Unitary Authorities zusätzlich auch die Aufgaben der jeweiligen lokalen Ebene zu übernehmen. Die in den Regionen angesiedelten Verwaltungen sind für Umweltschutz und Ressourcen-Management zuständig. Sie überwachen und steuern die Schädlingsbekämpfung, kontrollieren die Flüsse, Seen und die Küste und zeichnen verantwortlich für die Hafenordnungen der jeweiligen Häfen. In ihrem Verantwortungsbereich liegt die Koordination und Unterstützung des öffentlichen Personennahverkehrs, für den sie auch die Lizenzen vergeben. Außerdem sind sie für den regionalen Zivilschutz zuständig. Distrikte. Die lokale Ebene des Staatsaufbaus stellen 16 Stadt- (englisch:) und 57 Bezirksverwaltungen (englisch:) sowie die Verwaltung der Chathaminseln (englisch:) dar. Sie sind für Straßen- und Wegebau, Kanalisation, Baugenehmigungen und sonstige lokale Angelegenheiten zuständig. Städte und Ballungsräume. In Neuseeland gibt es offiziell 16 Städte (). Die größten unter ihnen sind Auckland City mit etwa 405.000, Christchurch mit knapp 350.000 und Manukau mit etwa 330.000, North Shore City mit etwa 205.000, gefolgt von Waitakere und Wellington mit knapp unter 200.000 Einwohnern (Angaben von 2006). Wenn in Neuseeland im allgemeinen Sprachgebrauch die Rede von Städten ist, sind meist Agglomerationen gemeint. Offiziell bezeichnet der von der Statistikbehörde Neuseelands festgesetzte Begriff eine städtische Agglomeration, die gesondert statistisch erfasst wird, obwohl sie nicht mit den Grenzen der oben erläuterten Verwaltungseinheiten übereinstimmt. Der bei weitem größte Ballungsraum ist die Metropole Auckland mit etwa 1,2 Millionen Einwohnern. Somit lebt etwa ein Drittel der neuseeländischen Bevölkerung in der Stadt, die sich aus den vier größten City Councils der Nordinsel (Auckland City, Manukau, North Shore und Waitakere) zusammensetzt und fast so viel Landfläche einnimmt wie ganz London (sieben Millionen Einwohner). Den zweitgrößten Ballungsraum des Landes bildet schließlich die der Großraum Wellington mit etwas über 381.000 Einwohnern (Stand 2013), der sich aus den Wellington City, Porirua, Upper Hutt und Lower Hutt zusammensetzt. Drittgrößte Agglomeration des Landes und mit Abstand größter Ballungsraum der Südinsel ist die „Gartenstadt“ Christchurch mit etwa genauso vielen Bewohnern, der Teile des Selwyn-Distrikts und des Waimakariri-Distrikts zugerechnet werden. Infrastruktur. Im Hinblick auf die dünne Besiedlung ist Neuseeland verkehrstechnisch sehr gut erschlossen. Aufgrund seiner isolierten Insellage sind die Küstenschifffahrt, der Flugverkehr sowie der Straßenverkehr die wichtigsten Transportmittel. Flugverkehr. Eine Boeing 747 der Air New Zealand Neuseeland gehört zu den Ländern mit den meisten Flughäfen pro Kopf. Im Jahr 2002 gab es im Land 113 asphaltierte und nicht asphaltierte Flugplätze. Der Flughafen Auckland ist mit über elf Millionen Passagieren pro Jahr bei weitem der größte Flughafen des Landes. Darauf folgen die internationalen Flughäfen von Christchurch und Wellington, die je etwa vier Millionen Passagiere pro Jahr abfertigen. Die 1940 gegründete Air New Zealand ist mit Abstand die wichtigste Fluggesellschaft des Landes. Pacific Blue, eine Tochtergesellschaft von Virgin Australia (früher "Virgin Blue"), hat sich auf billige Verbindungen zwischen Neuseeland und Australien spezialisiert. Straßenverkehr. Die Ära des neuseeländischen Straßenbaus begann während der Neuseelandkriege mit der südlich von Auckland im Jahr 1861. Inzwischen stellt der Straßenverkehr das wichtigste Transportmedium des Landes dar. Er genießt eine eindeutig höhere Priorität als der Schienenverkehr. Das Rückgrat des Straßennetzes bilden die, durch die das Land zu großen Teilen erschlossen wird. Abgesehen von etwa 150 km Autobahnen, die sich nahe der drei großen Städte Auckland, Wellington und Christchurch befinden, bestehen selbst die wichtigen Überlandstraßen aus nicht mehr als zwei Fahrspuren. Die State Highways sind nicht höhenfrei und führen durch Ortschaften, wenig befahrene Teilstücke der Highways sind sogar nur Schotterstraßen, und insbesondere über Brücken finden sich immer wieder einspurige Streckenabschnitte. Das gesamte Straßennetz umfasst 92.200 km, von denen etwa 54.000 asphaltiert sind. Die Verkehrsregeln Neuseelands sind geregelt im New Zealand Road Code. Demnach gilt Linksverkehr, innerorts eine Höchstgeschwindigkeit von 50 km/h und außerorts üblicherweise 100 km/h. Schifffahrt. Eine Interislander-Fähre in den Marlborough Sounds Die Schifffahrt in Neuseeland ist sowohl für den Personentransport als auch für den Gütertransport wichtig. Die bedeutendste Schifffahrtslinie für den Personentransport ist der Interislander, eine Fährverbindung, die die Nordinsel (Wellington) mit der Südinsel (Picton) verbindet und pro Jahr etwa eine Million Menschen transportiert. Sie überquert auf ihrer drei Stunden langen Fahrt die nur 35 km breite Cookstraße (Diese Zeit wird benötigt, da das Schiff nicht nur die Cookstraße, sondern auch den Tory Channel und die Marlborough Sounds durchqueren muss, insgesamt etwa 70 km.). In Neuseeland existieren 1609 km an Binnenschifffahrtswegen, die aber in der heutigen Zeit keine Bedeutung mehr haben. Schienenverkehr. Ein Wagen der ADL-Klasse der Vorortbahn Auckland In der zweiten Hälfte des 19. Jahrhunderts begann die Errichtung eines ausgedehnten Eisenbahnnetzes im großen Stil. Dabei wurden neben den drei Hauptstrecken (auf der Nordinsel: und; auf der Südinsel:) zahllose private sowie öffentliche Nebenbahnen gebaut, die vom verwaltet wurden. Am Anfang des 20. Jahrhunderts wurden in vielen größeren Städten des Landes unzählige Kilometer an Straßenbahnen gebaut, von denen nur noch die in Christchurch als Touristenattraktion besteht. Bis in die 1950er Jahre waren zumeist Dampflokomotiven im Einsatz, außerdem bestanden einige elektrifizierte Abschnitte. Sukzessive wurden Nebenbahnen geschlossen, zweigleisige Strecken zu eingleisigen zurückgebaut, vorhandene Elektrifizierung wieder entfernt und Passagierverbindungen eingestellt. Von den 3900 Streckenkilometern sind seit der als „“ bezeichneten Wirtschaftspolitik in den 1980er Jahren etwa 500 km entlang des elektrifiziert. Nachdem die staatliche neuseeländische Eisenbahn 1993 für 400 Millionen NZ$ (ca. 202 Millionen €) verkauft war, investierte die Betreiberfirma immer weniger in den Erhalt des Eisenbahnnetzes und verlagerte nach und nach den Transport von Gütern von der Schiene auf die Straße. Außerdem wurden zwischen 1995 und 2004 zahlreiche Personenverbindungen aus wirtschaftlichen Gründen eingestellt, darunter der. Als die Firma vor dem finanziellen Ruin stand, übernahm das australische Infrastrukturunternehmen den Eisenbahnbetrieb, der seitdem unter dem Namen zusammengefasst ist, während der neuseeländische Staat das gesamte Streckennetz im Jahr 2004 für den symbolischen Preis von einem Neuseeland-Dollar zurückkaufte und unter die Verwaltung des staatlichen Unternehmens stellte. Weil sich die neuseeländische Regierung und Toll Rail nicht auf Nutzungsgebühren für die verstaatlichten Schienen einigen konnten und der Staat Jahr für Jahr einige Millionen Neuseeland-Dollar für den Unterhalt des Netzes zuzahlen musste, entschloss sich die Regierung dazu, zum 1. Juli 2008 den Bahnbetrieb für 665 Millionen NZ$ (ca. 336 Millionen €) von Toll Rail zurückzukaufen. Trotz dieser Veränderungen bestehen 2008 nur noch vier Personenfernverkehrsverbindungen, die hauptsächlich touristische Bedeutung besitzen und unter dem Namen firmieren: der fährt von Auckland nach Wellington, der von Picton nach Christchurch und der überquert die Neuseeländischen Alpen von Christchurch nach Greymouth. Die als bezeichnete Verbindung von Palmerston North nach Wellington ist vornehmlich für Pendler gedacht. Daneben existieren noch einige weitere Betreiber, wie zum Beispiel die Taieri Gorge Railway im Gebiet um Dunedin, die sich auf Touristenausflüge in historischen Waggons oder auf historischen Strecken spezialisiert haben. Die Bedeutung des Schienenverkehrs für den Gütertransport nimmt in den letzten Jahren wieder zu. Fast das gesamte Netz wurde in der Kapspur, also einer Breite von 1067 mm erstellt. In den beiden größten Ballungsräumen, Auckland und Wellington, existieren S-Bahn-ähnliche Nahverkehrsnetze, wobei das System in Wellington besser ausgebaut und als einzige Vorortbahn des Landes elektrifiziert ist. Signifikante Verbesserungen für Auckland sind aber geplant. So soll diese bis 2013 vollständig elektrifiziert sein, der unter dem Stadtzentrum verlaufende in mittelfristige Planungen einbezogen werden und der Flughafen besser an das System angebunden werden. Bildungssystem. Für das Bildungssystem in Neuseeland ist das erst seit dem Jahr 1989 bestehende zuständig. In Zukunft soll die zentrale Verwaltung der Schulen und Universitäten gelockert werden, und diese sollen sich zunehmend selbst verwalten. Alle tertiären Bildungseinrichtungen überwacht Die Kindererziehung bis zum fünften Lebensjahr ist privat. Trotzdem besuchen 90 % der Dreijährigen und 98 % der Vierjährigen eine vorschulische Bildungsanstalt, wie zum Beispiel Kindergärten (') oder Spielgruppen ('). Ab Vollendung des fünften Lebensjahres kann das Kind eine Grundschule (') besuchen. Schulpflicht besteht von 6 bis 16 Jahren. Die Ausbildung in der Grundschule erfolgt im Regelfall von Jahr 1 bis Jahr 8, wobei das siebte und das achte Jahr alternativ auch in einer ' abgeleistet werden können. Ab der neunten Jahrgangsstufe wird man an einer weiterführenden Schule (') unterrichtet. Mit Vollendung der elften Klasse kann das ' (NCEA) nach einem Punktesystem erworben werden, was in etwa dem britischen GCSE entspricht (oder dem deutschen Realschulabschluss). Im folgenden Jahr kann man das dieses Abschlusses erwerben. Mit Vollendung des 13. Schuljahres, in der Regel mit etwa 18 Jahren, kann man schließlich den höchsten Schulabschluss erlangen, das des NCEA (oder die ', wie der Abschluss seit 2004 heißt). Dieser entspricht dem deutschen Abitur oder dem britischen. Ein Schuljahr in Neuseeland beginnt normalerweise Ende Januar, dauert bis Mitte Dezember und ist in vier Quartale eingeteilt. Je nach Region schwankt die Klassengröße von 19 bis 24 Schüler (2004). In den PISA-Studien der OECD zeigt sich die große kulturelle Ähnlichkeit zwischen Neuseeland und Australien: In beiden Ländern fallen dieselben Aufgaben den Schülern leicht oder schwer. Kritiker weisen darauf hin, dass zum guten Abschneiden Neuseelands (regelmäßig im obersten Viertel der OECD-Ranglisten) neben einer selektiven Immigrationspolitik auch die Vertrautheit der Schüler mit dem Multiple-Choice-Format, die Herkunft vieler Aufgaben aus dem englischsprachigen Raum und die Ausformulierung sämtlicher Aufgaben durch ein australisches Testunternehmen beitragen dürften. In Neuseeland gibt es 36 tertiäre Ausbildungseinrichtungen, darunter acht staatliche Universitäten ('), 21 staatliche Fachhochschulen (') und technische Hochschulen ('), vier Pädagogische Hochschulen (') und drei (Hochschulen, die auf die Kultur der Māori ausgerichtet sind). Ein akademisches Jahr dauert in Neuseeland von Februar bis November und ist normalerweise in zwei Semester aufgeteilt. Manche Bildungseinrichtungen bieten auch ein Sommer-Trimester (') an. Die älteste Universität Neuseelands ist die 1869 gegründete University of Otago. Erwähnenswert ist die University of Waikato wegen ihrer weltweit einzigartigen Fakultät für Māori-Wissenschaften. Von 1870 bis 1961 war die University of New Zealand die einzige Universität des Landes, die zu einem offiziellen Abschluss führte. Nach ihrer Auflösung entstanden aus den einzelnen Campus (') die heutigen Universitäten. Wirtschaft. Offizielle Währung des Landes ist der Neuseeländische Dollar (auch „Kiwi-Dollar“; NZD, NZ$), der in 100 Cent (ct) unterteilt wird. Dieser ersetzte im Jahr 1967 das britische Pfund Sterling. Seitdem verwendet Neuseeland Einheiten im Dezimalsystem. Seit 1999 ist der Kiwi-Dollar nach dem Australischen Dollar die zweite Währung der Erde, die Kunststoffgeld verwendet; alle Scheine bestehen aus Polypropylen. Im August 2006 wurden wegen steigender Materialkosten und Verwechslungsgefahr kleinere Münzen eingeführt; die bis dahin gültige 50-Cent-Münze zum Beispiel zählte mit einem Durchmesser von 3,2 Zentimetern zu den größten Münzen der Erde. Wirtschaftsentwicklung. Bis zur ersten Hälfte des 20. Jahrhunderts war Neuseeland ein Agrarstaat, in dem der Großteil der Einwohner im primären Sektor tätig war. Mit Abstand wichtigster Handelspartner war das Vereinigte Königreich, in das etwa die Hälfte der in Neuseeland produzierten meist landwirtschaftlichen Güter exportiert wurde. Mit dem EU-Beitritt Großbritanniens im Jahr 1973 änderte sich die wirtschaftliche Situation des Landes grundlegend. Im gleichen Jahr schließlich traf Neuseeland auch noch die weltweite Ölkrise von 1973. Als Folge dieser äußerst negativen Einflüsse stürzte das Land in eine tiefe Wirtschaftskrise. Es dauerte bis 1984, bis die Regierung größere Maßnahmen ergriff. Von diesem Zeitpunkt an entwickelte sich Neuseeland von einer gelenkten Volkswirtschaft mit Schwerpunkt Landwirtschaft zu einer liberalisierten Industrienation mit einem freien Markt, die mit anderen westlichen Nationen konkurrieren kann und zu den am stärksten deregulierten und privatisierten Volkswirtschaften der Welt zählt. Das Land strich zahlreiche Subventionen, zum Beispiel fast vollständig die Agrarsubventionen, des Weiteren wurde der gesamte Warenverkehr liberalisiert und das Mitspracherecht des Staates in Bezug auf Löhne, Zinsen sowie Preise für Güter und Dienstleistungen aufgegeben. Durch eine sparsame Finanzpolitik und große Bemühungen, das Haushaltsdefizit zu verringern, konnte die Inflationsrate von 18 % im Jahr 1987 auf 3,9 % im Jahr 2005 reduziert werden. Zusätzlich wurden in den 1980er und 1990er Jahren fast alle Staatsbetriebe umstrukturiert und privatisiert. Ein Beispiel dafür sind der gesamte Zugverkehr, der ab 1995 bis 2008 von Tranz Rail betrieben wurde (wegen des schlechten Zustands der Gleise und Bahnhöfe wurde das Schienensystem 2004 aber wieder renationalisiert, seit 2008 ist auch der restliche Bahnbetrieb wieder in staatlicher Hand), oder die neuseeländische Telekom. Die Arbeitslosenquote stieg aufgrund verschiedener Maßnahmen kurzfristig zwar bis auf 15 %, Ende 2004 betrug sie allerdings nur noch 3,6 %, der niedrigste Wert innerhalb der OECD. Die Inflationsrate lag bei 2,4 %, das Wirtschaftswachstum betrug von Juli 2003 bis Juni 2004 4,4 %. Einer der Gründe, die das Wirtschaftswachstum dämpfen, sind infrastrukturelle Defizite (Schienenverkehr, Energieversorgung). Nachdem 1998 im Norden des Landes das Stromnetz für 66 Tage zusammenbrach, wurden schrittweise ehemalige Staatsbetriebe wieder verstaatlicht, so unter anderem 2001 die in Konkurs gegangene Fluglinie Air New Zealand. Ebenso beschloss die Regierung 2008 zur Verbesserung des Verkehrsnetzes für umgerechnet 336 Millionen € die 1993 privatisierte Bahn von der australischen Firma Toll Holdings zurückzukaufen. Im Februar 2011 zerstörte ein schweres Erdbeben Teile der Stadt Christchurch, und es kam infolgedessen im Laufe dieses Jahres zu einer beträchtlichen Verlangsamung der wirtschaftlichen Aktivität Neuseelands. Einige Wirtschaftswissenschaftler gehen sogar von einer 15-prozentigen Schrumpfung der Wirtschaft des Landes für das Jahr 2011 aus, was Ende September 2011 zu einer Herabstufung der internationalen Kreditwürdigkeit Neuseelands geführt hat. Seit 2013 befindet sich die neuseeländische Wirtschaft trotz globaler Finanzkrise, Erdbeben und Dürre im wirtschaftlichen Aufschwung: Das gesamte BIP 2013 beläuft sich auf 181,1 Milliarden NZ$, das geschätzte Wachstum für 2013 beträgt 2,7 %. Bodenschätze. Neuseeland ist relativ arm an Bodenschätzen. An Metallen werden lediglich Eisensand, Gold und Silber abgebaut. Obwohl das Land auch über Bauxit-, Kupfer-, Chromiteisenstein-, Cinnabarit-, Kassiterit-, Ilmenit-, Scheelit- und Uranvorkommen verfügt, werden diese nicht oder nicht mehr abgebaut, entweder weil die Vorkommen zu gering sind oder weil der Import günstiger ist. An fossilen Energieträgern verfügt Neuseeland über Braun- und Steinkohlevorkommen, wobei auf der Nordinsel Steinkohle dominiert, die Südinsel verfügt über beide Formen. Insgesamt verfügt das Land über 8,6 Milliarden Tonnen Braunkohle, von denen sich etwa ein Drittel in existierenden Minen hauptsächlich auf der Südinsel befindet. Die Braunkohle stellt mehr als drei Viertel der Gesamtressourcen. Die bedeutendsten Erdöl- und Erdgasfelder befinden sich im Taranaki-Becken in der Tasmansee nahe der Stadt New Plymouth. Etwa die Hälfte des Erdgases fließt in den petrochemischen Sektor und wird zum Beispiel zur Erzeugung von synthetischem Benzin verwendet, ein Viertel wird zur Energieerzeugung benutzt, und der Rest geht an Privathaushalte und Firmen. Darüber hinaus werden noch Tonminerale und Kalkstein abgebaut. Landwirtschaft. Schafe spielen in der neuseeländischen Landwirtschaft immer noch eine große Rolle. Seit Beginn der europäischen Besiedlung ist die Landwirtschaft in Form der Schafzucht auf extensiv bewirtschafteten Ranches ein wichtiges Standbein der neuseeländischen Gesellschaft. Zunächst dienten Schafe ausschließlich als Wolllieferant, seit den 1880er Jahren, als der Export per Kühlschiff möglich wurde, zusätzlich als Fleischlieferant. Zwischenzeitlich hatte Neuseeland in der zweiten Hälfte des 19. Jahrhunderts eine Wirtschaftskrise wegen einbrechender Wollpreise miterlebt. Dennoch blieb die Landwirtschaft über lange Zeit der bedeutendste Wirtschaftszweig. Die Zahl der Schafe ist derzeit rückläufig, im Jahr 2008 gab es etwa 33,9 Millionen, 2009 nur noch 32,4 Millionen. Die Rinderzucht hat sich zu einem wichtigen Bereich entwickelt, die Zahl der Tiere steigt. 2008 lebten 5,3 Millionen Milchkühe in Neuseeland, 90 % der Milchprodukte werden exportiert, damit ist Neuseeland seit Langem der weltweit größte Exporteur von Milchprodukten. Die Rindfleischproduktion Neuseelands ist ebenso weltweit führend, etwa vier Millionen Fleischrinder leben aktuell auf den Inseln. Neben der Tierzucht spielen auch Obst- und Gemüsebau eine große Rolle in der neuseeländischen Landwirtschaft. Innerhalb des 20. Jahrhunderts wurde in Neuseeland der Anbau von vier Kulturpflanzen gestartet, die mit unterschiedlichem Erfolg auf den Weltmarkt gebracht wurden: Macadamiapflanzen, Kulturheidelbeer- und Kiwisträucher sowie Avocadobäume. Unter ihnen war zweifellos die Kiwifrucht am erfolgreichsten. Die ursprünglich aus China stammende Pflanze wird seit den 1980er Jahren auch in anderen Teilen der Erde im großen Stil angebaut. So ist heute (2008) Italien der größte Produzent der Kiwifrucht und verdrängte Neuseeland nach der Volksrepublik China auf Platz drei. Wichtigster Handelspartner für Molkereiprodukte, Obst und Früchte war trotz der großen Entfernungen Großbritannien. Ein Großteil der abgeholzten Gebiete dient als Weideland. Tourismus. Von besonderer Bedeutung für die neuseeländische Wirtschaft ist auch der Tourismus. So gaben im Jahr 2002 nach offiziellen Angaben des neuseeländischen Tourismusministeriums ausländische Touristen über 6,1 Milliarden NZ-Dollar im Land aus. Direkt oder indirekt hängt nach Schätzungen der neuseeländischen Regierung jede zehnte Arbeitsstelle im Land vom Tourismus ab. Die Grundlage des neuseeländischen Tourismus bilden die Vielfalt der Landschaften – Küsten, Seen und Fjorde, Hochgebirge und Gletscher, Vulkane und heiße Quellen –, die ebenso üppige wie fremdartige Vegetation im Bush- wie im Tussockgrass-Country, die Nationalparks auf Nord- und Südinsel, in den Waldgebieten wie im Hochgebirge, die gut ausgebaute Infrastruktur und die aufgeschlossenen Bewohner Neuseelands. Neuseeland zählt mehr als zwei Millionen Touristen pro Jahr und wird oft als sauberer und grüner Abenteuerspielplatz (englisch:) bezeichnet. Bis vor einigen Jahren war der durchschnittliche Neuseeland-Urlauber Rucksacktourist oder Bungeespringer. Obwohl der Abenteuertourismus immer noch eine extrem bedeutende Rolle einnimmt, bemüht sich die neuseeländische Reiseindustrie seit einiger Zeit auch verstärkt um Kurzurlauber mit hohem Budget, die sich als „interaktive Reisende“ sehen. Die Tage der europäischen Abenteuertouristen sind nicht gezählt, aber es gibt eine klare Tendenz zu einem „luxuriösen Neuseeland“. Bislang wurden von Qualmark, Neuseelands offiziellem Bewertungsservice für Unterkünfte, über 160 Hotels mit fünf Sternen ausgezeichnet. Diese Entwicklung findet in den Kreisen von Abenteuerurlaubern und Rucksacktouristen allerdings immer mehr Kritik, da das Land angeblich zunehmend zu einem Pauschal-Urlaubsziel werde. Es ist zwar nicht zu erwarten, dass der Tourismus in Neuseeland in den nächsten Jahren abnimmt, allerdings werden vermutlich in einigen Jahren wesentlich weniger Abenteuerurlauber das Land besuchen. Die neuseeländische Regierung erteilt für viele Staatsangehörige westlicher Länder ein „Working Holiday Scheme Visa“, das in Deutschland oft Work-&-Travel-Visum genannt wird. Mit diesem Visum sind Reisende (zwischen 18 und 30 Jahre) berechtigt, sich bis zu zwölf Monate im Land aufzuhalten und zu arbeiten. Ein solches Visum wird von sehr vielen Europäern und Nordamerikanern genutzt, um eine mehrmonatige Reise durch das Land zu unternehmen und sich zwischendurch mit Jobs wie beispielsweise Erntehelfer die Reisekasse aufzubessern. Deutsche Touristen, Geschäftsreisende und Besucher können sich mit gültigem Reisepass bis zu drei Monate im Land ohne Visum aufhalten. Bis zu neun Monate Aufenthalt ist mit einem „Visitor Visa“ möglich. Eine erneute Einreise ist aber erst nach einer Wartezeit in Höhe der letzten Aufenthaltsdauer erlaubt. Die meisten Touristen kommen an den internationalen Flughäfen in Auckland, Wellington, Christchurch und Queenstown an. Die beliebtesten Reiseziele sind Rotorua, die Waitomo Caves, die Coromandel Peninsula, das Fjordland mit dem Milford Sound, Queenstown, Auckland, die Bay of Islands, Dunedin und die Hawke’s Bay. Außenhandel. Nach dem EU-Beitritt Großbritanniens und der damit gesunkenen Nachfrage nach landwirtschaftlichen Produkten musste Neuseeland nach neuen Märkten Ausschau halten. Mittlerweile sind Australien, die VR China, Japan sowie die ostasiatischen Tigerstaaten die wichtigsten Handelspartner des Landes. Die Wirtschaftskrise in Ostasien 1998/99 hat daher auch Neuseeland einigermaßen schwer getroffen. Neuseeland weist schon seit langer Zeit eine negative Handelsbilanz auf, die etwa acht Prozent des gesamten Bruttoinlandsprodukts darstellt. Alle Exporte Neuseelands beliefen sich im Jahr 2005 auf 29,2 Milliarden US-Dollar, die gesamten Importe auf 35,8 Milliarden US-Dollar. Die wichtigsten Ausfuhrindustrien des Landes sind die Agrarwirtschaft, Gartenbau, Fischerei und die Forstwirtschaft. Weiterhin besitzt Neuseeland nennenswerte produzierende Tourismus- und Dienstleistungsindustrien. Wichtige Einfuhrprodukte sind Automobile, Traktoren, sonstige technische Geräte sowie medizinische Produkte. Deutschland nimmt als Importpartner mit einem Anteil von 5,2 % den fünften Rang ein. Australien ist vor allem auch in wirtschaftlicher Hinsicht der wichtigste Partner Neuseelands. So besteht zwischen beiden Ländern seit 1983 eine 24 Millionen Menschen umfassende Freihandelszone mit dem Namen Closer Economic Relations, die in den darauf folgenden Jahren immer weiter geöffnet und auf fast alle wirtschaftlichen Bereiche ausgeweitet wurde. In Zukunft soll ein gemeinsamer Binnenmarkt Realität werden und zum Beispiel auch Steuern vereinheitlicht werden. Seit 2000 existiert auch mit Singapur eine Freihandelsvereinbarung. Diese wurde 2005 um Chile und Brunei erweitert und ist nun unter dem Namen P4 Agreement (P4-Abkommen) bekannt. Neuseeland sucht weiter nach ähnlichen Abkommen im pazifischen Raum. Seit 2005 werden Verhandlungen über eine Freihandelszone mit der VR China geführt. Energieversorgung. Im Jahr 2014 deckte Neuseeland seinen Primärenergiebedarf zu 40 % mit erneuerbaren Energien, zu 31 % mit Erdöl und zu 23 % mit Erdgas, Kohle spielte nur eine untergeordnete Rolle. Die Stromerzeugung in Höhe von ca. 42,3 Terawattstunden basierte zu 80 % auf erneuerbaren Energien; bis 2025 soll der Anteil im Rahmen der Energiewende auf 90 % steigen. Technisch wäre auch eine vollständige Versorgung ausschließlich mit Strom aus erneuerbaren Energien möglich. Bedeutendste Stromquelle mit 57 % Anteil ist die Wasserkraft, die vornehmlich auf der Südinsel produziert wird, gefolgt von der Geothermie, die bei etwa 16,2 % lag und zugleich auch als bedeutender Wärmelieferant dient. Den wichtigsten fossilen Brennstoff bildet Erdgas, das 15,7 % des Stromerzeugung abdeckt. Obwohl das Land über eigene Öl- und Gasfelder verfügt, ist Neuseeland nicht unabhängig von anderen Fördergebieten der Erde, da das meiste Öl als Kraftstoff für Autos importiert werden muss. Eine immer wichtiger werdende Rolle spielt neben der Solarenergie und der Energiegewinnung aus Biomasse auch die Windenergie. Im August 2015 kündigte der Kraftwerksbetreiber Genesis Energy an, die letzten beiden Kohlekraftwerke in Neuseeland bis 2018 zu schließen, womit Neuseeland den vollständigen Ausstieg aus der Kohleverstromung vollziehen würde. In den 1960er Jahren bestanden zwar Pläne zum Bau von Kernkraftwerken in Neuseeland, die aber nach der Entdeckung großer Kohlelagerstätten und Gasfelder 1972 schließlich verworfen wurden. In den folgenden Jahrzehnten wurde die Wasserkraft immer mehr ausgebaut, und Neuseeland wurde zu einem „Vorzeigeland“ mit einem grünen, sauberen Image. Der gestiegene Verbrauch wurde über Jahre hinweg mit dem Ausbau von Gaskraftwerken kompensiert, deren Auslastung zuletzt aber durch den höheren Anteil erneuerbaren Energien wieder zurück ging. 1987 wurde Neuseeland per Gesetz zu einer „nuklearfreien Zone“ erklärt; der Status ist seither unverändert (Stand Dezember 2015). Staatshaushalt. Der Staatshaushalt umfasste 2009 Ausgaben von umgerechnet 53,7 Milliarden US-Dollar; dem standen Einnahmen von umgerechnet 48,0 Milliarden US-Dollar gegenüber. Daraus ergibt sich ein Haushaltsdefizit in Höhe von 5,1 % des BIP. Die Staatsverschuldung betrug 2009 24,6 Milliarden US-Dollar oder 22,2 % des BIP. Kultur. Seit der zweiten Hälfte des 19. Jahrhunderts prägten größtenteils die europäischen Einwanderer die Kultur Neuseelands. Die meisten Immigranten wanderten aus dem „Mutterland“ Großbritannien ein. Dabei gibt es bedeutende regionale Unterschiede: Der Südteil der Südinsel zum Beispiel ist vornehmlich schottisch geprägt. So soll es in Neuseeland mehr Dudelsäcke geben als in Schottland. In den letzten Jahrzehnten erlebte schließlich auch die Māori-Kultur einen Aufschwung. Außerdem verzeichnete das Land große Einwanderungsströme von den pazifischen Inseln und – vor allem in den letzten Jahren – aus Süd-, Ost- und Südostasien. Diese ethnischen Gruppen leben hauptsächlich im Süden des Großraums Auckland. Folglich treffen in Neuseeland verschiedenste Kulturen aus dem pazifischen Raum auf die westliche Lebensweise Großbritanniens, zu dem das Land immer noch eine starke Bindung hat. In Neuseeland gilt das metrische Einheitensystem. Feiertage. Neben diesen landesweiten Feiertagen wurden 1981 die eingeführt, deren Datum jede (historische) Region Neuseelands selbst festlegen kann. Mit diesen Feiertagen wird an die Gründung der Provinz oder die Ankunft der ersten Siedler in dem bestimmten Gebiet erinnert. Medien. Am 18. April 1840 wurde mit der New Zealand Gazette die erste neuseeländische Zeitung veröffentlicht. Heute beherrscht der zur australischen Gruppe "APN News & Media" gehörige New Zealand Herald aus Auckland mit einer täglichen Auflage von etwa 200.000 Exemplaren den neuseeländischen Zeitungsmarkt. Dieser wird gefolgt von der erst im Jahr 2002 aus einer Fusion entstandenen Dominion Post mit Sitz in Wellington (tägliche Auflage: 100.000 Exemplare) sowie von The Press aus Christchurch mit etwa 90.000 Exemplaren täglich. Letztere gehören beide zur auch in Australien tätigen Fairfax Group. Seit 1925 wurde an der Entwicklung eines landesweit empfangbaren Radiosenders gearbeitet. Dieses Vorhaben war bis etwa 1936 abgeschlossen. Seit 1962 war nicht mehr direkt die Regierung, sondern die New Zealand Broadcasting Corporation (NZBC) für die Verwaltung der öffentlichen Sendestationen des Landes zuständig. Seitdem wurden die Zuständigkeiten oft neu gegliedert, doch ein unkommerzielles Sendeschema blieb integraler Bestandteil von Radio New Zealand, das seit 1995 ein eigenständiges Unternehmen ist, jedoch weiterhin eine Crown Entity darstellt. Neben "Radio New Zealand", das zahlreiche landesweite Radiosender betreibt, existieren zahllose private Sendestationen. Im Fernsehbereich war Neuseeland ein Spätzünder. Nachdem die BBC in Großbritannien schon im Jahr 1936 ihren Betrieb aufnahm, folgten die USA nur drei Jahre später mit der NBC. Das erste offizielle Fernsehprogramm in Neuseeland wurde ab dem 1. Juni 1960 ausgestrahlt und nur in Auckland empfangen. In den folgenden Jahren wurde der Empfang auf den größten Teil des Landes ausgeweitet. Weitere Meilensteine im neuseeländischen Rundfunkbereich folgten 1971, als das Land erstmals Zugang zu Satelliten hatte und somit in der Lage war, Live-Sendungen aus allen Teilen der Erde zu empfangen, und 1974, als das Farbfernsehen wegen der in Christchurch stattfindenden British Commonwealth Games eingeführt wurde. Neben den beiden nationalen Sendestationen TV One und TV2 wurden seit der Deregulierung 1989 einige private Sender eingeführt: Die zum CanWest-Konzern gehörigen TV3 und C4 und zuletzt Prime TV. Des Weiteren gibt es zwei Bezahlfernseh-Anbieter. Seit 2004 gibt es einen nationalen Sender, der überwiegend in Māori sendet. Das auf der digitalen DVB-Technik basierende, frei empfangbare FreeView soll Platz für 18 Sender bieten und das analoge Fernsehen bis spätestens 2016 ablösen. Ein Großteil der neuseeländischen Sender können beispielsweise in Auckland via DVB-T empfangen werden, wobei die nationalen Fernsehsender TV One und TV2 sowie TV3 hochauflösend in 1080i ausstrahlen. Die 1960 eingeführten Rundfunkgebühren wurden 1999 abgeschafft. Film. Peter Jackson ist der bekannteste neuseeländische Regisseur. Von der Stummfilmära an gab es im Wesentlichen nur Dokumentarfilme, als bedeutende Filmschaffende dieser Zeit sind mindestens John O’Shea (Pacific Films) und Rudall Hayward zu erwähnen. 1978 trat der "New Zealand Film Commission Act" in Kraft. Sam Neill drehte 1995 für das British Film Institute über seine Heimat und deren Filmkunst das „Kino der Unruhe“: „Alle Neuseeländer gehen gerne ins Kino“ (bezogen auf die 1950er Jahre). Ihm zufolge war 1977 "Schlafende Hunde" von Roger Donaldson bzw. Ian Mune so etwas wie eine Initialzündung für den neuseeländischen Film. In den letzten Jahren ist Neuseeland, nicht zuletzt durch den weltweiten Erfolg der mit 17 Oscars prämierten Trilogie "Der Herr der Ringe" (; Regie: Peter Jackson) zu einem bekannten Filmland geworden. Neuseeländische Regisseure sind jedoch bereits seit vielen Jahren auch international tätig: So wurde in Cannes bereits 1984 das Erstlingswerk "Vigil" von Vincent Ward gezeigt. Im Jahr 1986 lief der Science-Fiction-Film "Quiet Earth – Das letzte Experiment" (Regie: Geoff Murphy) in deutschen Kinos. In den 1990er Jahren erzielten erstmals auch Filme, die neuseeländische Themen zum Gegenstand haben, internationale Erfolge. Herausragend war dabei das mit drei Oscars und der Goldenen Palme preisgekrönte Drama "Das Piano" der Regisseurin Jane Campion. Etwa zur gleichen Zeit erschienen auch Peter Jacksons Film "Heavenly Creatures" sowie Lee Tamahoris Romanverfilmung "Die letzte Kriegerin" (), die auch dort sehr beliebt ist. Zu den bekanntesten Filmen der letzten Jahre gehört der ebenfalls auf einem Roman basierende Film "Whale Rider" (Regie: Niki Caro). Zwei weitere Filme, die neuseeländische Themen zum Gegenstand haben, sind "Mit Herz und Hand" () von Roger Donaldson und "River Queen" von Vincent Ward. Die international sehr erfolgreiche Fantasy-Serie "Xena" (1995–2001) wurde in Neuseeland gedreht. Die Hauptdarstellerin Lucy Lawless ist gebürtige Neuseeländerin. Zu den neuesten Filmen neuseeländischer Regisseure zählen "King Kong" (Regie: Peter Jackson) und ' (Regie: Andrew Adamson). Für die Spezialeffekte in zahlreichen internationalen Produktionen sorgt der in Wellington ansässige Weta Workshop. Neuseeland dient auch in verschiedenen Filmen als Kulisse, so beispielsweise in "Vertical Limit" und "Last Samurai". Musik. Lorde bei einem Auftritt im Jahr 2014 Neben der traditionellen Maorimusik wird die neuseeländische Unterhaltungsmusik größtenteils von Künstlern bestimmt, die westlich geprägte Musikstile pflegen. Besonders im Indie-Rock sind einige Bands jedoch immer wieder durch ihren eigenwilligen Klang aufgefallen, so dass sich für diesen Teil der Musikszene auch der Begriff "Kiwi Rock" etabliert hat. Einen der weltweit bestverkauften Popsongs aus Neuseeland stellt die 1996 veröffentlichte Single "How Bizarre" der Gruppe OMC dar. Weitere namhafte Künstler mit internationaler Bekanntheit sind die Sängerinnen Lorde, Kimbra, Brooke Fraser, Bic Runga und Ladyhawke sowie die Gruppen The Naked and Famous und Flight of the Conchords. Eine der ersten erfolgreichen Rockbands aus Neuseeland war die Formation Split Enz um die Brüder Neil Finn und Tim Finn, die mit der Single "I Got You" 1980 ihren größten Hit verzeichnen konnte. Beide sind auch heute noch musikalisch aktiv. Neil Finn gründete 1985 zudem die Band Crowded House, deren Song "Don’t Dream It’s Over" 1987 ein Welthit wurde. In den 1980er Jahren beeinflusste das Independent-Label Flying Nun Records den Rocksektor nachhaltig. Während Gruppen wie The Chills, The Clean, The Verlaines und Tall Dwarfs den sogenannten Dunedin Sound prägten, zählen Bailter Space aus Christchurch bis heute zu den bekanntesten Vertretern des neuseeländischen Noise-Rocks. Auch danach brachte die einheimische Musikszene insbesondere in den Bereichen Indie und Alternative Rock eine Vielzahl nennenswerter Bands hervor, dazu gehören unter anderem The Datsuns, The Veils, The Brunettes, The Ruby Suns, OpShop, Evermore, Kerretta und Die! Die! Die!. Das Land verfügt über ein nationales Sinfonieorchester. Aus Neuseeland stammt zudem eine Reihe bekannter Opernstars, dazu zählen vor allem Frances Alda, Malvina Major, Donald McIntyre und Kiri Te Kanawa. Die klassische Sängerin Hayley Westenra ist ebenfalls eine international anerkannte Künstlerin. Literatur. Die Māori besitzen eine ausgeprägte Erzählkultur mit zahlreichen Sagen und Geschichten, die rein mündlich weitergegeben wurden. Seit der Verschriftlichung der Sprache wurden viele von ihnen niedergeschrieben; sie sind teilweise auch in deutscher Übersetzung erschienen. Wichtige Motive der Mythen sind unter anderen die Entstehung der Welt sowie Neuseelands. Letztere ist untrennbar verbunden mit der Geschichte des Halbgottes Maui, der Neuseeland aus dem Meer angelte. Andere Geschichten erzählen von der Reise Kupes, der Neuseeland für die Menschen aus Hawaiki entdeckte, und der Besiedlung des Landes, aber auch vom Leben der Māori im modernen Neuseeland. Einer der bedeutendsten Māori-Autoren der Gegenwart ist Witi Ihimaera. Weitere bekannte Autoren, die Māori-Themen verarbeiten, sind Keri Hulme, Patricia Grace und Alan Duff. Auch wenn Veröffentlichungen in der Sprache Māori zunehmen, ist ein Großteil der neuseeländischen Literatur auf Englisch geschrieben. Die frühesten Schriftstücke über Neuseeland sind die Berichte der europäischen Entdecker, insbesondere die Tagebücher von James Cook, die er bei seinen drei Reisen in den Pazifik führte, sowie der Reisebericht von Georg Forster, der Cook auf dessen zweiter Pazifik-Reise begleitete. Als neuseeländische Autoren werden häufig auch Einwanderer, die im Ausland geboren wurden, und Staatsbürger, die ausgewandert sind, miteingerechnet. Zu letzteren zählt unter anderen Katherine Mansfield. Eine der bekanntesten englischsprachigen Autorinnen Neuseelands ist Janet Frame. Zu den bedeutendsten Autorinnen Neuseelands gehört auch (Alice) Esther Glen (1881–1940), geboren in Christchurch, Neuseeland. Bereits im Alter von 11 Jahren gewann sie einen Kurzgeschichten-Wettbewerb der englischen Zeitschrift "Little Folks". Zu ihren erfolgreichsten Büchern zählen die Kinder- und Jugendbuchklassiker "Six little New Zealanders" (1917) und "Uncles Three at Kamahi" (1926). Seit 1925 war Glen auch journalistisch tätig und engagierte sich in der Sozialarbeit für bedürftige Kinder und Frauen. Ihr zu Ehren wurde 1945 der Esther Glen Award ins Leben gerufen, Neuseelands ältester und bis heute renommiertester Kinderbuchpreis. Sport. In Neuseeland spielt Sport eine sehr große Rolle. In den wichtigsten Sportarten des Commonwealth – Rugby, Cricket und Netball – gehört Neuseeland zur Weltspitze. Bei den Olympischen Sommerspielen sowie den Commonwealth Games gewinnt Neuseeland regelmäßig eine – für seine geringe Einwohnerzahl – relativ hohe Anzahl an Medaillen. In den 1950er bis 1980er Jahren hat Neuseeland immer wieder einige herausragende Leichtathleten hervorgebracht, vor allem Mittel- und Langstreckenläufer sowie Speerwerfer. Derzeit gehört die Kugelstoßerin Valerie Adams (zeitweise unter dem Namen Valerie Vili) zur Weltspitze. Darüber hinaus zählt Neuseeland zu den führenden Nationen beim Segeln. 1995 und 2000 gewann das Team New Zealand unter den Skippern Russell Coutts und Dean Barker den America’s Cup und 2007 und 2013 den Louis Vuitton Cup. Zahlreiche Wassersportarten, zum Beispiel Surfen oder Rudern, gehören zu den in Neuseeland beliebten Freizeitaktivitäten. Dies gilt ebenso für Golf, Tennis sowie eine Vielzahl an Wintersportarten, zum Beispiel Curling, Skifahren oder Snowboarden. Rugby. Nationalsportart des Landes ist Rugby Union. Die neuseeländische Nationalmannschaft heißt aufgrund ihrer durchgehend schwarzen Spielkleidung All Blacks. Trotz der nicht übermäßig großen Einwohnerzahl des Landes haben die All Blacks jahrelang die Weltrangliste angeführt und stehen aktuell auf Platz 1. Sie sind die berühmteste und erfolgreichste Mannschaft in der Geschichte des internationalen Rugby und haben gegen jeden bisherigen Gegner eine positive Gewinnbilanz, also mehr Spiele gewonnen als verloren. Zudem konnte die Mannschaft 1987, 2011 und 2015 die Rugby-Union-Weltmeisterschaft gewinnen und ist somit alleiniger Rekordweltmeister. Neben der Weltmeisterschaft zählt die jährlich ausgetragene Rugby Championship (früher "Tri Nations") gegen die Teams aus Argentinien, Australien und Südafrika zu den festen Turnieren des Teams. Weiterhin spielen Freundschaftsländerspiele auf der traditionellen Europatour im Herbst gegen alle vier Nationalmannschaften der britischen Inseln (England, Irland, Schottland, Wales) oder gegen die British and Irish Lions (All-Star-Auswahl der Länder der britischen Inseln) eine bedeutende Rolle. Neben ihrem sportlichen Erfolg sind die All Blacks auch für den Haka bekannt, einen auf die Māori zurückgehenden Kriegstanz, der vor jeder Partie zelebriert wird. Vereinsrugby spielt in Neuseeland eine unbedeutende Rolle und ist reiner Amateursport. Alle Profiteams sind Provinzmannschaften. Im internationalen Provinzrugby spielen die neuseeländischen Franchise-Teams Blues, Chiefs, Crusaders, Highlanders und Hurricanes in der Super Rugby-Meisterschaft gemeinsam mit Teams aus Australien und Südafrika. Die professionelle neuseelandweite Rugby-Union-Provinzmeisterschaft ist der ITM Cup. In letzter Zeit erfreut sich auch Rugby League steigender Beliebtheit in Neuseeland. Die neuseeländische Rugby-League-Nationalmannschaft gewann 2008 erstmals die Weltmeisterschaft. Seit 1995 spielt mit den New Zealand Warriors ein Team aus Auckland in der australischen National Rugby League. Besonders populär ist Rugby League innerhalb der polynesischen Bevölkerung Neuseelands. Motorsport. Neuseeland hat zusammen mit Australien eine lebendige Motorsportszene und stellte in den 1960er und 1970er Jahren mit Denis Hulme und Chris Amon zwei erfolgreiche Formel-1-Fahrer, Hulme wurde 1967 sogar Formel-1-Weltmeister. Noch bekannter ist jedoch Bruce McLaren, der im Jahr 1966 das bis heute in der Formel 1 bestehende McLaren-Team gründete. Von diesen ist zumindest der Teretonga Park im aktuellen (2011) Rennkalender vertreten. Neue Strecken gibt es bei Timaru (1,6 km bzw. 2,4 km, gegen den Uhrzeigersinn), Taupo (1,3 km, 2,3 km und 3,32 km, gegen den Uhrzeigersinn) und Hampton Downs (2,63 km, im Uhrzeigersinn). In den Jahren 2003 und 2004 wurde auf dem Pukekura Raceway in New Plymouth im Rahmen der Langbahn-Weltmeisterschaft der Langbahn-WM Grand Prix von Neuseeland ausgetragen. Im Western Springs Stadium in Auckland findet seit 2012 im Rahmen der Speedway-Einzel-Weltmeisterschaft der Speedway-WM Grand Prix von Neuseeland statt. Die Speedwayfahrer Ivan Mauger, Barry Briggs und Ronnie Moore holten insgesamt 12 Speedway-Einzel-WM Titel für Neuseeland. Ivan Mauger wurde zudem noch dreimal Langbahn-Weltmeister. Fußball. Einer wachsenden Beliebtheit als Mannschaftssportart erfreut sich der Fußball in Neuseeland. Die Frauennationalmannschaft nahm bereits an vier Fußballweltmeisterschaften teil. Die All Whites genannte Nationalmannschaft der Männer schaffte es nach der WM 1982 erneut zur Weltmeisterschaftsendrunde 2010 in Südafrika, wo die Mannschaft ungeschlagen als Gruppendritter vor Titelverteidiger Italien ausschied. Mit Wellington Phoenix stellt das Land bei den Männern sogar einen Verein in der australischen A-League. Die New Zealand Football Championship löste 2004 die National Soccer League als höchste nationale Spielklasse ab. Zur internationalen Bekanntheit schaffte es Wynton Rufer, der zu Ozeaniens Fußballer des Jahrhunderts gewählt wurde. Er spielte u. a. bei Werder Bremen in der deutschen Bundesliga und war an diversen nationalen und internationalen Erfolgen maßgeblich beteiligt. Ansonsten wird Fußball zwar oft im Amateur-Bereich gespielt, doch selten professionell. Deutschsprachige Persönlichkeiten in Neuseeland. Die Entwicklung Neuseelands haben immer wieder deutschsprachige bzw. deutschstämmige Personen entscheidend mitgestaltet. Bereits im Zuge der ersten Besiedlung Neuseelands erreichten zahlreiche Deutsche, Österreicher und Schweizer das andere Ende der Welt. Die Auswanderer wurden von der New Zealand Company vor allem in Norddeutschland geworben. Während des 19. Jahrhunderts bildeten deutschstämmige Menschen nach Briten die zweitgrößte ethnische Gruppe, die in den Pazifikstaat immigrierte. Sie ließen sich zunächst in der Region um Russell im Norden Neuseelands, auf der Banks Peninsula („German Bay“) im Südosten des Landes, später auch in der Nähe von Nelson im Zentrum des Staates nieder. Viele Ortsnamen zeugen noch heute aus der Zeit der frühen deutschen Einwanderung nach Neuseeland, z. B. „Neudorf“, ein weltweit anerkanntes Weingut nordwestlich von Nelson. Natürliche Zahl. Die natürlichen Zahlen sind die beim Zählen verwendeten Zahlen 1, 2, 3, 4, 5, 6, 7, 8, 9, 10 usw. Oft wird auch die 0 (Null) zu den natürlichen Zahlen gerechnet. Die Menge der natürlichen Zahlen bildet mit der Addition und der Multiplikation zusammen eine mathematische Struktur, die als kommutativer Halbring bezeichnet wird. Bezeichnungskonventionen. Die Menge der natürlichen Zahlen wird mit dem Formelzeichen formula_1 abgekürzt. Der Unicode lautet U+2115 und hat die Gestalt ℕ. Sie umfasst entweder die positiven ganzen Zahlen Beide Konventionen werden uneinheitlich verwendet. Die ältere Tradition zählt die Null nicht zu den natürlichen Zahlen (die Null wurde in Europa erst ab dem 13. Jahrhundert gebräuchlich). Diese Definition ist gängiger in mathematischen Gebieten wie der Zahlentheorie, in denen die Multiplikation der natürlichen Zahlen im Vordergrund steht. In der Logik, der Mengenlehre oder der Informatik ist dagegen die Definition mit Null gebräuchlicher und vereinfacht die Darstellung. Im Zweifelsfall ist die verwendete Definition explizit zu nennen. Für die Menge der natürlichen Zahlen ohne Null führte Dedekind 1888 das Symbol N ein. Sein Symbol wird heute stilisiert als formula_1 oder auch als formula_5 Ab 1894 gebrauchte Peano für die natürlichen Zahlen mit Null das Symbol N0, das heute ebenfalls stilisiert und nach Peano durch formula_6 definiert wird. Wird jedoch das Symbol formula_1 für die natürlichen Zahlen mit Null verwendet, dann wird die Menge der natürlichen Zahlen ohne Null mit formula_8 bezeichnet. Die DIN-Norm 5473 verwendet zum Beispiel formula_1 für die nichtnegativen ganzen Zahlen und formula_10 für die positiven ganzen Zahlen. Deutsche Schulbücher orientieren sich in einigen Bundesländern an dieser DIN-Norm, in anderen, z. B. in Bayern, nicht. Letztlich ist es eine Frage der Definition, welche der beiden Mengen man als "natürlicher" ansehen und welcher man somit diese Bezeichnung als sprachliche Auszeichnung zukommen lassen will. Axiomatisierung. Richard Dedekind definierte 1888 erstmals die natürlichen Zahlen implizit durch Axiome. Unabhängig von ihm stellte Giuseppe Peano 1889 ein einfacheres und zugleich formal präzises Axiomensystem auf. Diese sogenannten Peano-Axiome haben sich durchgesetzt. Während sich das ursprüngliche Axiomensystem in Prädikatenlogik zweiter Stufe formalisieren lässt, wird heute oft eine schwächere Variante in Prädikatenlogik erster Stufe verwendet, die als Peano-Arithmetik bezeichnet wird. Andere Axiomatisierungen der natürlichen Zahlen, die mit der Peano-Arithmetik verwandt sind, sind beispielsweise die Robinson-Arithmetik und die primitiv rekursive Arithmetik. Von Neumanns Modell der natürlichen Zahlen. Peano beschrieb mit seinem Axiomensystem zwar die Eigenschaften von natürlichen Zahlen, sah aber keine Notwendigkeit, deren Existenz zu beweisen. John von Neumann gab eine Möglichkeit an, die natürlichen Zahlen durch Mengen darzustellen, d. h., er beschrieb ein mengentheoretisches Modell der natürlichen Zahlen. Zur Erklärung: Für das Startelement, die „0“, ist die leere Menge formula_12 gewählt worden. Die „1“ ist hingegen die Menge, welche die leere Menge als Element enthält. Dies sind verschiedene Mengen, denn die leere Menge „0“= enthält kein Element, wohingegen die Menge „1“= genau ein Element enthält. Jeder Nachfolger ist vom Vorgänger verschieden, da die Nachfolgermenge ein Element mehr enthält als die Vorgängermenge, nämlich den Vorgänger selbst. Die Existenz jeder einzelnen natürlichen Zahl ist mengentheoretisch schon durch recht schwache Forderungen gesichert. Für die Existenz der "Menge aller natürlichen Zahlen" formula_13 sowie formula_14 benötigt man jedoch in der Zermelo-Fraenkel-Mengenlehre ein eigenes Axiom, das sogenannte Unendlichkeitsaxiom. Eine Verallgemeinerung dieser Konstruktion (Wegfall des fünften Peano-Axioms bzw. Zulassung von weiteren Zahlen ohne Vorgänger) ergibt die Ordinalzahlen. Die natürlichen Zahlen als Teilmenge der reellen Zahlen. Die Einführung der natürlichen Zahlen mit Hilfe der Peano-Axiome ist eine Möglichkeit, die Theorie der natürlichen Zahlen zu begründen. Als Alternative kann man beim Körper formula_15 der reellen Zahlen axiomatisch einsteigen und die natürlichen Zahlen als Teilmenge von formula_15 definieren. Dazu benötigt man zunächst den Begriff einer induktiven Menge. Dann ist formula_14 der Durchschnitt aller induktiven Teilmengen von formula_25 Nostradamus. Nostradamus, latinisiert für Michel de Nostredame'", (* 14. Dezember 1503 in Saint-Rémy-de-Provence, Provence; † 2. Juli 1566 in Salon-de-Provence) war ein französischer Apotheker und hat als Arzt und Astrologe gearbeitet. Schon zu seinen Lebzeiten machten ihn seine prophetischen Gedichte berühmt, welche aus Gruppen von je 100 zusammengefassten Vierzeilern ("Quatrains") bestanden, den sogenannten "Centurien". Michel de Nostredame, Porträt von seinem Sohn César de Nostredame Familie. Seine Eltern waren Jaume de Nostredame, Kornhändler, kirchlicher Notar in Saint-Rémy seit mindestens 1501 und Amtsvorsteher seit 1513, und Reyniere (Renée) de Saint-Rémy. Michel war der älteste Sohn unter den mindestens acht Kindern des Paares. Nachgewiesene Geschwister sind Delphine, Jehan, Pierre, Hector, Louis, Bertrand, Jean II und Antoine. Der vor allem von Nostradamus' Sohn César und seinem Anhänger, Sekretär und Biographen Jean Aymé de Chavigny kolportierten Familienlegende nach waren die Großväter Jean de Saint-Rémy († 1518) und Pierre de Nostredame († vor 1503) Leibärzte des Königs René von Neapel, Sizilien und Jerusalem, Herzog von Lothringen und Graf von Provence (1409–1480), der in die provenzalischen Volkslegenden als „le bon roi René“ eingegangen ist bzw. seines ältesten Sohnes Johann, Herzog von Lothringen und Kalabrien (1425–1470). Vielmehr war Pierre de Nostredame Getreidehändler und Notar, Jean de Saint-Rémy war Mediziner, Stadtkämmerer und Steuereinnehmer. Die Familie väterlicherseits, die aus dem regionalen Judentum stammte, war offenbar mit dem Großvater Pierre (der ursprünglich Guy Gassonet hieß) zum katholischen Glauben konvertiert. Dieser nahm bei der Taufe den Namen Nostredame an – wohl nach der Kirche, in der er getauft wurde, oder nach dem Heiligentag, an dem es geschah. Kindheit und Ausbildung. Seine frühe Kindheit habe er angeblich mit seinem Urgroßvater Jean de Saint-Rémy (und nicht mit seinem Großvater, der René hieß und schon tot war) verbracht, der ihm Latein, Griechisch, Hebräisch, Mathematik und Astrologie beigebracht haben soll: über Jean ist aber nach 1504 eigentlich gar nichts bekannt. 1518, nach dem Tod des Urgroßvaters, wurde Michel zur Universität Avignon geschickt, musste aber ungefähr ein Jahr später sein Studium (das so genannte Trivium, also Grammatik, Rhetorik, Logik) wieder aufgeben, da die Pest ausgebrochen war, und wurde Apotheker. 1529 studierte er zumindest kurzzeitig in Montpellier. Ob er irgendwo anders studiert und dort einen Doktorgrad erworben hat, ist auch nicht bekannt. Bekannt ist nur, dass er sein Wanderleben wieder aufgenommen hat. Wanderjahre. 1533 erhielt er einen Brief des bedeutenden Humanisten Julius Caesar Scaliger, der ihn schließlich einlud mit ihm in Agen zu arbeiten. Er ließ sich im naheliegenden Port-Sainte-Marie nieder, wo er die nächsten vier Jahre blieb. Er heiratete eine Dame, deren Namen mit Henriette d'Encausse angegeben wird, mit der er nach kurzer Zeit einen Sohn und eine Tochter hatte. Nostradamus verlor seine Familie 1535 durch eine nicht genau bekannte Infektionskrankheit (Pest oder vielleicht die erstmals auftretende Diphtherie). Der Brief stammte aus dem Jahr 1561, man könnte jedoch annehmen, dass schon zum Zeitpunkt seiner Vorladung vor die Inquisition (also ca. 1538) Sympathien für die protestantische oder reformierende Sache bestanden, die Verdächtigung also nicht haltlos gewesen wäre. Dies ist aber nicht belegt. In den nächsten fünf Jahren soll er durch das Elsass, Lothringen und in Italien gereist und 1541 wieder in die Provence zurückgekehrt sein. Seine Aufenthalte sind jedoch nicht zu belegen. 1544 bekämpfte er zusammen mit dem Arzt Louis Serre einen Ausbruch der Pest in Marseille, ab Ende Mai 1546 arbeitete er allein in Aix, Salon und 1547 kurz auch (ob gegen die Pest oder nicht ist unbekannt) in Lyon. Sesshaftigkeit. Im Jahr 1547 starb sein Vater, und am 26. November desselben Jahres heiratete er in zweiter Ehe die Saloner Witwe Anne Ponsarde. Da seine Frau vermögend war, konnte er sich in den folgenden Jahren vorwiegend seinen schriftstellerischen Arbeiten widmen. Aus dieser Ehe gingen drei Söhne und drei Töchter hervor (Madeleine, César, Charles, André, Anne und als Letztgeborene Diane). Er scheint sich mit ansehnlichem Erfolg an wirtschaftlichen Unternehmungen und Spekulationen beteiligt zu haben. Nachweisbar ist insbesondere seine spätere Beteiligung am Bau des Kanals zwischen Rhône und Durance durch Adam de Craponne. Mithin war Nostradamus ein für die Zeit durchaus vermögender Mann. Seinen Almanachen verdankte er ein Treffen mit dem französischen König Heinrich II. und dessen Ehefrau Katharina von Medici im Jahr 1555. Der Aufenthalt bei Hofe schien zunächst nicht sehr erfolgreich zu verlaufen, denn der König war an Prophezeiungen nicht besonders interessiert. Nostradamus wurde von Geldproblemen geplagt, was ihn dazu zwang, von dem berühmten Gelehrten Jean Morel ein Darlehen zu nehmen. Zudem kam es in dieser Zeit zu einem ersten Anfall der Gicht, die in den folgenden Jahren zu einem chronischen Leiden wurde. Die Königin jedoch, die weit mehr als ihr Gatte am Okkulten allgemein und an Nostradamus im Besonderen interessiert war, lud ihn ein, Horoskope für ihre Kinder zu erstellen. Im Jahr 1564 – zwei Jahre vor seinem Tod – soll der inzwischen 60-jährige und begüterte Nostradamus anlässlich eines Besuches des neuen Königs Karl IX. und seiner Mutter Katharina in Salon zum Leibarzt des Königs ernannt worden sein. Nostradamus letztes Grab in Saint-Laurent, Salon-de-Provence, wo seine sterblichen Überreste nach 1789 umgebettet wurden In der Nacht vom 1. auf den 2. Juli 1566 starb Nostradamus mit 62 Jahren. Er litt an Wassersucht, vermutlich eine Folge der seit vielen Jahren chronischen Gicht, die zu Nierenversagen führte. Er wurde in der Minoritenkirche Saint-François-de-Salon begraben. In den Wirren der Französischen Revolution wurde sein Grab 1791 von Nationalgardisten aus Marseille geschändet und die Knochen zerstreut. Bei dieser Gelegenheit soll einer der Soldaten Nostradamus' Schädel als Trinkschale verwendet haben. Schließlich wurden die Reste der Gebeine in der Seitenkapelle der Jungfrau Maria der Dominikanerkirche Saint-Laurent-de-Salon erneut bestattet. Seine Frau Anne überlebte ihn um 18 Jahre, sie starb 1584. Die Spur der Familie verliert sich dann im 17. Jahrhundert. Nostradamus als Arzt. Es ist unklar, ob Nostradamus sein Medizinstudium abgeschlossen hat. Laut einem von Guillaume Rondelet, dem damaligen,Studentenprokurator' und späteren Kanzler der Universität Montpellier, stammenden Dokument wurde Nostradamus das weitere Studium verwehrt, da er als Apotheker galt und Apotheker nicht Medizin studieren durften. Die Prophezeiungen. Eine Ausgabe dieser Centurien aus dem Jahr 1589 Drei Jahre nach seiner Eheschließung, im Jahr 1550, begann Nostradamus mit der Verfassung von jährlichen Almanachen, in denen die ersten Prophezeiungen für das jeweilige Jahr abgedruckt wurden, die fünf Jahre später auch Vierzeiler enthielten. Nostradamus hielt an der Veröffentlichung dieser Almanache bis zu seinem Todesjahr fest. Diese Broschüren wurden mit Prophezeiungen in Prosa und auf Französisch anstatt des bisher üblichen Latein veröffentlicht. Aber erst 1555 ging er mit dem an die Öffentlichkeit, was ihn letztendlich berühmt machte. Er gab in Lyon "Les Propheties de M. Michel Nostradamus" mit vier "Centurien" heraus, bestehend aus drei Mal hundert und einmal 53 "Quatrains" genannten Vierzeilern. Typische Merkmale seiner Prophezeiungen sind das fast vollständige Fehlen von konkreten Zeitangaben und Namen und eine sehr metaphorische Sprache, im Manuskript wahrscheinlich ohne Interpunktion, die die Prophezeiungen bis in unsere Zeit rätselhaft hält und auch dann noch immer neue Deutungen zulässt. Viele der Verse enthalten Verweise auf astrologische Konstellationen. Auch wurde festgestellt, dass viele seiner Prophezeiungen Paraphrasen historischer Texte sind, die z. B. aus "De honesta disciplina" des Petrus Crinitus, dem "Liber prodigiorum" des Iulius Obsequens, oder dem "Mirabilis Liber" von 1523, einem Bibelkommentar, stammen. Etwas klarer spricht er im Vorwort an seinen Sohn César zu seinen Prophezeiungen und erklärt, diese reichten „von heute bis ins Jahr 3797“, ohne aber auf ihren Inhalt einzugehen. Es ist eine ungewöhnliche Jahresangabe. Wenn man davon jedoch das Jahr der Veröffentlichung 1555 abzieht kommt man auf einen Geltungszeitraum von 2242 Jahren. Fünf Jahre zuvor hatte seine größte astrologische Quelle Richard Roussat das Jahr 2242 als möglichen Termin für das Ende der Welt veröffentlicht. Bis zu seinem Tod veröffentlichte er sieben Centurien – von drei weiteren wird ohne Beleg angegeben, sie seien bereits zu seinen Lebzeiten 1558 erschienen. Des Weiteren sollen sich in seinem Nachlass weitere Texte befunden haben, die zum Teil in Prosa verfasst waren, zum Teil als Sechszeiler. Die Prosatexte sind (wenn nicht die Almanache selbst) verloren gegangen, die Sechszeiler werden als 11. und 12. Centurie gehandelt, obwohl sie bei weitem nicht aus 200 Strophen bestehen. Eine auch für Nostradamus unerfreuliche Tatsache war es jedoch, dass bereits kurz nach dem Erscheinen seiner Prophezeiungen nicht nur Schmähschriften gegen ihn, sondern auch Fälschungen kursierten, mit denen von seinem Erfolg profitiert werden sollte. Am 30. Juni 1559, bei der Feier des Friedens von Cateau-Cambrésis, bestritt Heinrich II. (* 1519) auf der Rue Saint-Antoine in Paris einen Turnierzweikampf mit stumpfen Waffen mit dem Grafen Montgomery (* um 1530), dem Hauptmann der schottischen Garde; dessen Lanze brach, und ein Splitter drang durch das Visier des Helms über dem rechten Auge des Königs ein. Heinrich II. starb 10 Tage später, am 10. Juli, an einer Hirnhautentzündung. Obwohl diese "Quatrain" stets angeführt wird, wenn ein Beispiel für Nostradamus' erfolgreiche Prophezeiungen zu geben ist, so ist sie durchaus nicht präzise. Dass Heinrich einen goldenen Helm trug, ist nicht belegt. Auch die Bezeichnung des Gegners als junger bzw. alter Löwe ist unklar: Man hat es auf die Turnierembleme gedeutet, jedoch ist weder von Heinrich noch von Montgomery die heraldische Verwendung eines Löwen belegt (das Emblem der Valois-Könige ist zudem der Hahn). Der Lanzensplitter drang nicht ins Auge, sondern darüber ein, das Auge selbst blieb unverletzt. Es handelte sich auch nur um eine Wunde, obwohl einige Berichte von einer weiteren Verletzung am Hals sprechen. Leitet man "classes" alternativ zum griechischen "klasis" vom lateinischen "classis" (Flotte) ab, wird der Sinn auch nicht klarer. Und schließlich kann ein Turnierkampf nur übertragen als Duell auf dem Schlachtfeld gelten. Wirkung und Rezeption. Dank seiner Almanache schon zu Lebzeiten berühmt, ist Nostradamus bis heute einer der bekanntesten Verfasser von Prophezeiungen. Nostradamus wird oftmals als Protagonist in Filmen und Romanen genutzt, und seine Prophezeiungen – oder Imitationen, die ihm zugeschrieben werden – werden immer wieder in Buchform verlegt. Vielen Menschen gelten die Prophezeiungen des Nostradamus als Offenbarung der Zukunft schlechthin, und infolge der vielfachen Interpretationsmöglichkeiten seiner Quatrains lassen sich fast beliebig Übereinstimmungen zwischen Voraussagen und tatsächlichen Ereignissen finden. Der Philosoph Max Dessoir formulierte: „Das Wunder bei Nostradamus ist nicht sein Text, sondern die Auslegekunst seiner Erklärer“. Insbesondere in Zeiten von Krieg oder wirtschaftlicher Instabilität wird seinen Prophezeiungen in besonders hohem Maß Bedeutung zugemessen und zugewiesen. Neve Campbell. Neve Adrianne Campbell (* 3. Oktober 1973 in Guelph, Ontario) ist eine kanadische Schauspielerin. Bekannt wurde sie vor allem als "Sidney Prescott" in der "Scream-Reihe" (1996–2000, 2011) von Wes Craven, sowie als "Julia Salinger" in der Fernsehserie "Party of Five" (1994–2000). Leben und Karriere. Campbell wurde als Tochter eines schottischen Vaters und einer niederländischen Mutter geboren. Ihr Vorname ist der Geburtsname ihrer Mutter und bedeutet "Schnee" auf Italienisch und portugiesisch. Campbell begann ihre Showkarriere als Tänzerin. Sie trainierte an der "National Ballet School of Canada" und trat bei Aufführungen von "Der Nussknacker" und "Dornröschen" auf. Nach mehreren Verletzungen wechselte Campbell mit 15 Jahren vom Ballett zur Schauspielerei, unter anderem spielte sie im "Phantom der Oper" am Pantages-Theater in Toronto mit. Ihre erste nennenswerte Rolle spielte Campbell in der kanadischen Jugendserie "Catwalk" (1992–1993). Bekanntheit erlangte sie durch die Rolle der "Julia Salinger" in der Drama-Serie Party of Five, die sie von 1994 bis 2000 spielte. 1996 feierte Campbell mit dem Film "Der Hexenclub" ihren ersten Kinoerfolg. Im gleichen Jahr schaffte sie den Durchbruch mit der Rolle der "Sidney Prescott" in Wes Cravens Horrorfilm "Scream – Schrei!". In den folgenden Jahren war Campbell in zahlreichen Kinohits zu sehen. 1997 spielte sie in "Scream 2" erneut die Hauptrolle. 1998 war sie neben Matt Dillon und Denise Richards in dem Erotik-Thriller "Wild Things" zu sehen. Im gleichen Jahr spielte sie die Soap-Darstellerin "Julie Black" in dem Drama "Studio 54" mit Ryan Phillippe. In der Komödie "Ein Date zu dritt" spielte sie 1999 an der Seite von Matthew Perry. 1998 wurde sie vom People Magazine unter die „50 schönsten Menschen der Welt“ gewählt. Nachdem sie 2000 in "Scream 3" erneut die "Sidney Prescott" spielte, war sie anschließend überwiegend in Independentfilmen zu sehen. Der Thriller "Panic – Der Tod hat Tradition" (2000) und das Drama "The Company – Das Ensemble" (2003) wurden nur limitiert im Kino veröffentlicht, erhielten aber positive Kritiken. Bei "The Company" war Campbell nicht nur als Hauptdarstellerin, sondern auch als Drehbuchautorin und Produzentin tätig. Der Fernsehfilm "Last Call" (2002), in dem sie die Hauptrolle spielte, wurde 2003 für zwei Emmys nominiert. 2004 war sie im Independentfilm "When Will I Be Loved" nackt zu sehen. Auch dieser Film war trotz guter Kritiken im Kino kein Erfolg. 2006 war sie in dem Theaterstück "Resurrection Blues" zu sehen. Für das Stück stand sie gemeinsam mit Matthew Modine und Maximilian Schell auf der Bühne. Es gab sowohl positive als auch negative Kritiken. Regie führte Robert Altman, mit dem Campbell schon für "The Company" zusammengearbeitet hatte. 2007 spielte sie die Rolle der Reporterin P.D. McCall, die sich unter der Tarnung als Pharmavertreterin Debra das Vertrauen des Mediums Alison Dubois erschleicht, in drei Folgen der dritten Staffel der Mysteryserie "Medium – Nichts bleibt verborgen". Außerdem spielte sie eine Hauptrolle in der kurzlebigen Serie "The Philanthropist" (2009). 2011 war sie zum vierten mal in der Rolle der "Sidney Prescott" in "Scream 4" zu sehen. 2012 hatte sie eine Gastrolle in der Serie "Grey’s Anatomy", sowie 2014 in der Serie "Mad Men". Persönliches. Campbell war von 1995 bis 1998 mit dem kanadischen Schauspieler Jeff Colt verheiratet. 2007 heiratete sie den britischen Schauspieler John Light, mit dem sie 2002 den Film "Investigating Sex – Auf der Suche nach dem perfekten Orgasmus" gedreht hatte. Im Dezember 2010 gab Campbell die Trennung von ihrem Ehemann bekannt. Seit August 2012 ist sie Mutter eines Sohnes. Sie engagiert sich für die kanadische Tourette-Syndrome Foundation und die US-amerikanische Tourette Syndrome Association. Tamara Taylor, mit der Campbell auch in "Party of Five" zusammenspielte, ist eine Cousine zweiten Grades. Neckar. Der Neckar ist ein Nebenfluss des Rheins in Deutschland von 362 km Länge – mit dem längeren Oberlauf Eschach 380 km – der mit seinem annähernd 14.000 km² großen Einzugsgebiet den zentralen Teil Baden-Württembergs entwässert. Der mittlere Abfluss an der Mündung beträgt 145 m³/s. Hydrologisch ist der Neckar damit nach Aare, Maas, Mosel und Main der fünftgrößte Nebenfluss des Rheins und nach Länge wie auch nach Wasserführung der zwölftgrößte Fluss Deutschlands. Der Neckar entspringt auf der Baar bei Villingen-Schwenningen auf. Zunächst fließt er zwischen Schwarzwald und Schwäbischer Alb nach Nordosten, ab dem „Neckarknie“ bei Plochingen nordwestwärts bis nordwärts durch die Ballungsräume von Stuttgart und Heilbronn, dann ab Eberbach im Odenwald westwärts bis Heidelberg und schließlich in der Oberrheinischen Tiefebene nordwestwärts bis Mannheim. Hier mündet er auf 88 m Meereshöhe in den Rhein. Seine drei größten Nebenflüsse sind die Enz, der Kocher und die Jagst. Der Neckar ist von Plochingen abwärts mittels Stauhaltungen zum Großschifffahrtsweg (Bundeswasserstraße) ausgebaut mit bedeutenden Häfen in Stuttgart, Heilbronn und Mannheim. Durch Begradigungen, Eindeichungen und anderes haben die Gewässerstruktur und die Fließdynamik des vormaligen Naturflusses sehr gelitten und die strukturreichen Auenlandschaften sind oft verschwunden. Inzwischen wurden einige Altwasserabschnitte "(Altneckar)" renaturiert, die Wasserqualität hat sich seit den 1970er Jahren erheblich verbessert. Der Neckar fließt fast nur durch Baden-Württemberg. Allein im Odenwald bei Neckarsteinach und bei Hirschhorn ist er abschnittsweise Grenzfluss zu Hessen. Der Stadtteil Ersheim von Hirschhorn, in einer engen nördlichen Neckarschlinge gelegen, und ein flussabwärtiger Abschnitt des linken Ufers sind die einzigen Landesteile Hessens südlich des Neckars. Name. Der Name Neckar ist keltischen Ursprungs und bedeutet "heftiger, böser, schneller Fluss". Er stammt dem ureuropäischen Wort "nik" ab, welches "losstürmen" bedeutet. Die Entwicklung des Namens beginnt in vorchristlicher Zeit mit der Bezeichnung "Nikros", welche über "Nicarus" und "Neccarus" zu "Necker" und letztendlich zum heutigen Wort "Neckar" wurde. Eine nahezu gleiche Namensentwicklung hat der Fluss Necker in der Nordschweiz. Flusslauf. Quellgebiet des Neckars im Schwenninger Moos Das Quellgebiet des Neckars liegt im Schwenninger Moos zwischen Schwenningen und Bad Dürrheim. Die traditionell ausgewiesene Quelle des Flusses liegt im Stadtpark Möglingshöhe in Schwenningen. Vor der Landesgartenschau Villingen-Schwenningen 2010 war der Neckar innerhalb des Stadtgebiets Schwenningen weitestgehend verdolt. Um die Stadt besser gegen zuletzt gehäuft auftretende Hochwasser durch Überfüllung der Dole zu schützen, wurde im Zuge der Landesgartenschau dem Fluss ab der Quelle mehr Stauraum und ein zumeist neues offenes Bachbett geschaffen, das weithin im neu angelegten Gartenschaugelände verläuft. Noch bis kurz vor Rottweil ist der Neckar nur ein kleiner Bach auf der Hochebene der Baar. In Deißlingen-Lauffen hatte er seinen einzigen, vier Meter hohen Wasserfall, der heute trockengelegt ist. Danach fließt der Neckar mit der von der Schwarzwald-Ostabdachung herziehenden und erheblich mehr Wasser führenden Eschach zusammen. Deren am Brogen entspringender Hauptquellast Glasbach ist, hydrografisch betrachtet, der Hauptfluss des Neckar-Flusssystems. Mit diesem Zusammenfluss oberhalb von Rottweil tritt der Neckar in ein enges, waldreiches Tal ein und bahnt sich dann für die nächsten 80 km seinen Weg nach Norden zwischen den Höhenzügen des Schwarzwalds und der Schwäbischen Alb. Nördlich von Rottweil hat er bei der Neckarburg zwei Umlaufberge geschaffen, zwischen denen ihn die A 81 auf der Neckarburgbrücke überspannt. Weiter flussab liegt hoch über dem Neckar die Altstadt von Oberndorf auf einer Kalksinterterrasse, die eines der kesselartigen Nebentäler ausfüllt. Bei Horb wendet er sich vor der Gäuplatte nach Nordosten und fließt dann in dessen Richtung vor dem Albtrauf. Bei Weitingen wird das Tal von der 127 m hohen Neckartalbrücke der A 81 überspannt. Bei Rottenburg tritt er in die Tübinger Talweitung ein. Hinter Tübingen verengt sich das Tal wieder. Ab hier sind die umliegenden Hochflächen wesentlich stärker besiedelt. Bei Plochingen knickt der Neckar am dortigen „Neckarknie“ bei der Mündung der rechts von der Alb her zufließenden Fils scharf nach Nordwesten ab. Von hier an ist er als Schifffahrtsstraße ausgebaut und verläuft bis Stuttgart in weiter, verstädterter, von Verkehrsbauten durchzogener und mit Industrie überbauter Flussaue, die erst im Bereich des Cannstatter Talknickes kurz von großen Parkanlagen unterbrochen wird. Auch hier wieder zeigen die Talränder Kalksinterbildungen. Hinter Stuttgart schlägt er wieder die Generalrichtung nach Norden ein. In einem kurvenreichen und engen Talabschnitt durch den Landkreis Ludwigsburg fließen ihm von rechts bei Remseck die Rems, dann ebenfalls von rechts nördlich von Marbach die Murr zu; nach Passieren der Hessigheimer Felsengärten erreicht ihn danach von links bei Besigheim die wasserreiche Enz. Die einstige Stromschnelle am Lauffener Mäanderhalsdurchbruch ist heute überstaut. Im Unterland um Heilbronn durchläuft der Neckar dann in wieder breiter Aue eine offene Landschaft. Bei Bad Friedrichshall nimmt er auf nur zwei Kilometern Fließstrecke nacheinander von rechts die zwei anderen seiner großen Nebenflüsse auf: erst seinen wasserreichsten Nebenfluss Kocher und kurz darauf seinen offiziell längsten, die Jagst, was zusammen seine Wasserführung ungefähr verdoppelt. Zwischen Bad Wimpfen mit seiner Stauferpfalz und Mosbach tritt der Neckar in den Odenwald ein, wo erneut in einem schluchtartigen Tal hohe, bewaldete Hänge seine Ufer säumen und vor allem rechtsseitig tief eingeschnittene Täler münden. Am letzten seiner markanten Knie bei Eberbach biegt er dabei nach Westen, tritt bei Hirschhorn kurz auf hessisches Gebiet über und ist anschließend bis nach Neckarsteinach auf langen Strecken die Landesgrenze zwischen Baden-Württemberg und Hessen. Bei Neckargemünd mündet von links die Elsenz, ihr Unterlauf nutzt den abwärtigen Teil der sich weit nach Süden ziehenden ehemaligen Maurer Talschlinge, die der Neckar nach einem Mäanderdurchbruch hinterlassen hatte. Bei der Stadt Heidelberg, die im Norden an den Odenwald und im Süden an das Königstuhlmassiv grenzt, ist das Neckartal zwischen beidseits über 400 Meter höheren Bergen am tiefsten eingeschnitten. Nach Passieren der Heidelberger Altstadt tritt der Strom in die weite Oberrheinische Tiefebene ein und mündet nach weiteren rund 25 Kilometern in Mannheim etwa in deren Mitte von rechts in den Rhein. Nebenflüsse. Zur Diskussion der „wahren Quelle“ des Neckars siehe im vorigen Abschnitt. Die größten unter den Zuflüssen des Neckars sind die Enz mit dem größten Einzugsgebiet, der Kocher mit der höchsten mittleren Wasserführung und die Jagst mit der größten Länge. Der Kocher-Nebenfluss Lein ist am Zusammenfluss nicht nur länger als der dortige Oberlauf des Kochers, sondern auch wasserreicher; nach hydrografischer Konvention wäre damit die Lein als Hauptfluss des Kochersystems anzusehen, das mit dann 201 Kilometern längstem Fließweg das der Jagst noch übertrifft. Zuflüsse mit 20 km Länge und mehr. Von der offiziellen Quelle bis zur Mündung aufgezählt. Nach LUBW-BRSWEB, LUBW-FG10, LUBW-GEZG und TK25. Einzugsgebietsgrößen allermeist nach LUBW-GEZG, sonst auf der Hintergrundkarte abgemessen. Länge bevorzugt nach den Datensätzen der LUBW-FG10, selten auf der Hintergrundkarte abgemessen. Namen bevorzugt nach TK25. Mühlkanäle werden meist nicht mit aufgeführt. Flussgeschichte. Historische Neckarläufe an der Mündung Der Ur-Neckar entstand als Stufenrand-Gerinne infolge der allmählichen Heraushebung des Schwarzwaldes und der damit verbundenen erosiven Rückverlegung der Stufen des südwestdeutschen Schichtstufenlandes. Er floss lange Zeit auf der durch die harten Kalke des Muschelkalks bedingten Hochfläche der verschiedenen Gäulandschaften. Bei Horb wurde der Flusslauf durch die Grabenstruktur des sogenannten "Schwäbischen Lineaments", das in etwa parallel zum Stufenrand der Schwäbischen Alb verläuft, nach Nordosten abgelenkt. In der Folge tiefte sich der Neckar in die Muschelkalk-Hochflächen zwischen Rottweil und Rottenburg sowie in die jüngeren Keuper- und Juraschichten im Nordosten ein und schuf im Bereich der morphologisch harten Kalke und Sandsteine enge Durchbruchstäler. Die Flussvertiefung wurde noch durch das weitere Aufdringen des Schwarzwaldes sowie durch rückschreitende Erosion des von Norden angreifenden jüngeren Neckarlaufs vorangetrieben, der bei Plochingen das Urneckar-System anzapfte (daher das Neckarknie), das über die Urlone zur Urdonau floss. Begünstigend in diesem Flussabschnitt wirkte auch der Schurwaldgraben, eine Randverwerfung des Fildergrabens, die sich als Gewässerleitlinie auswirkte. Der heutige Unterlauf des Neckars war ehemals die Ur-Enz, bevor durch rückschreitende Erosion eines bei Besigheim in die Ur-Enz fließenden Nebenflusses das Fluss-System des Ur-Neckars angezapft wurde. Die Enz wurde dadurch zum Nebenfluss des Neckars. Einen Hinweis auf das ehemals weit nach Nordwesten reichende Flusssystem der Donau gibt auch die von Nordwesten nach Südosten, also zur (Ur-)Donau hin verlaufende Eschach. Mit der Rückverlagerung der Schichtstufen wurde sie von einem Neckar-Nebenbach angezapft und um etwa 90° nach Osten abgelenkt. Sie war also aus flusshistorischer Sicht nie ein Quellfluss des Neckars. Bis noch etwa vor 2000 Jahren floss der Neckar im Bereich der Oberrheinischen Tiefebene durch eine Auenlandschaft mit einem Gewirr von Mäandern, Schlingen, Altwässern und verlandeten Armen zwischen Rhein im Westen und Odenwaldfuß im Osten nach Norden und mündete erst nördlich von Darmstadt bei Trebur in den Rhein, also ungefähr 50 Kilometer nördlich der heutigen Mündung in Mannheim. Im 13. Jahrhundert lag die Mündung in den Rhein südlich von Mannheim. In der Folge einer großen Überschwemmung änderte der Neckar um 1275 seinen Lauf und mündet seitdem nördlich der Stadt in den Rhein. Die letzte Änderung erfuhr der Neckar hier im Zusammenhang mit der Rheinbegradigung durch den „Friesenheimer Durchstich“ westlich der heutigen Friesenheimer Insel. Zuvor mündete der Neckar im Bereich des heutigen Industriehafens Mannheim in den Rhein. Dessen neues Flussbett bedingte auch eine Verlegung des Neckars. Nachdem der Altneckar Anfang 1869 abgetrennt war, nahm der Neckar seinen Lauf durch den neuen Neckardurchstich, der 1880 endgültig fertiggestellt war. Naturlandschaft. Bemerkenswert ist der Wechsel zwischen Engtalabschnitten und Talweitungen. Die Engtäler sind überwiegend durch die Eintiefung des Neckars in die Muschelkalkhochfläche und den darunter liegenden Buntsandstein entstanden. Talweitungen bildete der Fluss im Bereich morphologisch weicher Tone und Mergel. Breite Talauen entstanden auch durch die starke Auffüllung mit Auelehmen seit Beginn der Besiedlung in der Jungsteinzeit und die damit einhergehende Entwaldung und Bodenerosion. Im Bereich der Engtäler fallen die Talmäander und Umlaufberge auf. Die Mäander wurden vom Ur-Neckar gebildet, der auf der fast ebenen Muschelkalk-Hochebene träge dahinfloss. Sie bildeten während der Eintiefungsphasen die morphologischen Grundstrukturen und sind im harten Muschelkalkgestein als Talmäander vom Fluss herausgearbeitet worden. Der bekannteste Umlaufberg ist der von Lauffen, dessen Mäanderhals noch in historischer Zeit durchbrach und einen Wasserfall, ein "Laufen", entstehen ließ. An den Prallhängen finden sich häufig Felsen, die von den Kalken des oberen Muschelkalks gebildet werden, wie beispielsweise die Felsengärten bei Hessigheim. Sie lagern auf den Mergeln und Tonen des mittleren Muschelkalks und können in ganzen Gesteinspaketen, sogenannten "Schollen", hangabwärts zum Neckar hin absacken. Im Odenwald laufen von beiden Seiten enge Schluchten und Klingen auf den Neckar zu, so zum Beispiel die Wolfschlucht und die Margarethenschlucht. Kulturlandschaft. Blick von den Hessigheimer Felsengärten ins Neckartal Der Neckar in Neckarsulm, im Hintergrund das Heilbronner Kohlekraftwerk. a>er Ufer mit der Neckarwiese und dem Heiligenberg Über die Landnutzung der ebenen Talniederungen bestehen Konflikte. Es befinden sich dort nährstoffreiche und auf Grund ihres günstigen Gefüges für den Ackerbau sehr gut geeignete Böden. Im stark reliefierten Neckarraum stellt das Neckartal aber die einzige Möglichkeit zum Bau von Verkehrsinfrastruktur dar. Große ebene Flächen sind allerdings auch für die Anlage von Gewerbe- und Industrieanlagen gesucht. Des Weiteren unterliegen die Tallagen der Dynamik des Neckars und seiner Nebenflüsse. Hochwässer können menschliche Nutzungen einschränken oder gefährden. Der Fluss selbst erfüllt schließlich auch eine Funktion als Lebensraum für zahlreiche Tier- und Pflanzenarten. Die Tallagen blieben auf Grund der Hochwassergefährdung lange Zeit unbesiedelt, wurden aber intensiv landwirtschaftlich genutzt. Die Wegeverbindungen verliefen meist über die Höhen und querten die Täler nur, wo Furten über den Neckar führten. Erst die einsetzende Industrialisierung im 19. Jahrhundert brachte einen grundlegenden Nutzungswandel. Der Neckar wurde weitgehend begradigt, um der Hochwasser Herr zu werden und Flächen für Industriebauten zu gewinnen. Gleichzeitig erfolgte der Bau von Bahnstrecken und Chausseen auch im Neckartal. In weiten Teilen wandelte sich die Landschaft des Neckartals von einer Kultur- in eine Industrielandschaft. Ein Beispiel dafür ist das Neckartal zwischen Plochingen und Bad Cannstatt, das von großen Verkehrsadern durchzogen ist. Auch Freizeiteinrichtungen mit großem Flächenbedarf wie die Mercedes-Benz Arena, die Hanns-Martin-Schleyer-Halle oder der Cannstatter Wasen, Austragungsort des zweitgrößten Volksfests Deutschlands, haben dort ihren Platz gefunden. Der Begriff "Wasen" gibt einen Hinweis darauf, dass sich dort ehedem eine Auenwiese befand, auf der das Fest ausgetragen wurde. Markante Punkte der Industrielandschaft im Neckartal sind die hohen Schornsteine der Kohlekraftwerke Deizisau und Heilbronn sowie die Montagehallen des Daimler-Motorenwerks in Untertürkheim und das Audi-Werk in Neckarsulm. Zum großen Teil werden die Tallagen aber auch heute noch ackerbaulich genutzt. Häufig erlauben sie den Anbau lukrativer Sonderkulturen wie Gemüse oder Hopfen, beispielsweise zwischen Rottenburg und Tübingen. Ein Reibungspunkt ist der Kiesabbau in den Talniederungen. Einerseits werden dadurch landwirtschaftliche Flächen der Nutzung entzogen. Andererseits entstanden dadurch große Seen, die heute als Freizeiteinrichtungen gerne genutzt werden, zum Baden, Windsurfen und Angeln. Diese Baggerseen wurden auch zum Lebensraum von Vögeln, Amphibien und anderen Wasserlebewesen. Solche großen Baggerseen befinden sich beispielsweise im Neckartal bei Kirchentellinsfurt und zwischen Freiberg am Neckar und Pleidelsheim. Die Schotterkörper des Neckars haben aber auch eine bedeutende Rolle als Wasserspeicher. Sie werden vielerorts zur Trinkwassergewinnung genutzt. Mit den Tallagen kontrastieren die meist steilen Hänge, die überwiegend bewaldet sind und daher unter forstwirtschaftlicher Nutzung stehen. Die sonnenexponierten Südlagen sind häufig mit Wein bebaut und durch Trockenmauern terrassiert. Dort werden die regionalen Rotwein-Rebsorten Trollinger, Schwarzriesling und Lemberger angebaut, die traditionell in Württemberg auch am meisten getrunken werden. Besonders der mittlere Neckar um Besigheim und Lauffen ist durch teils extreme Steillagen geprägt, die nur in Handarbeit bewirtschaftet werden können. Die Weinterrassen am Neckar liefern mit den Einzugsgebieten der Nebenflüsse den größten Teil der Anbaufläche des Weinbaugebietes Württemberg. Die Weinlagen im Unterlauf von Heinsheim bis Heidelberg zählen zum Anbaugebiet Baden. Bis Ende des 19. Jahrhunderts war der Weinbau im Neckartal noch weiter verbreitet. Von der Aufgabe früherer Weinberge künden heute noch die vielen Weinbergsbrachen insbesondere in ungünstigen Anbaulagen. Dort hat sich oft eine artenreiche Vegetation und Tierwelt wieder eingefunden. Ein Beispiel sind die Südhanglagen des oberhalb des Neckars gelegenen Spitzbergs bei Tübingen. Die Hanglagen des Neckartals sind oft auch bevorzugte Gebiete für Wohnbebauung gehobener Ansprüche, da sie weite und unverbaubare Ausblicke ermöglichen. Der Fluss selbst wurde aufgrund seiner großen Bedeutung für die Binnenschifffahrt (siehe unten) über Jahrhunderte hinweg immer weiter ausgebaut. Mit dem Ausbau zur Großschifffahrtsstraße im 20. Jahrhundert verschwanden zwischen Plochingen und der Mündung auch die letzten freifließenden Abschnitte, der ganze Fluss ab Plochingen besteht heute nur noch aus staugeprägten Bereichen. Renaturierung. Die vielfältige Nutzung als Brauchwasserressource und Wasserstraße, sowie zur Wasserkraftgewinnung brachte erhebliche Eingriffe in das ökologische Gefüge des Flusses mit sich. Mehrere Initiativen setzen sich für die Renaturierung des Neckars, die ökologische Aufwertung des Flusssystems, die Verbesserung der Wasserqualität, verbesserten Hochwasserschutz und die Schaffung attraktiver Naherholungsgebiete entlang des Flusses ein. Auch wenn erst unlängst damit begonnen wurde, den Neckar im Rahmen der bundesweiten Kampagne Lebendige Flüsse und der Aktion "Lebendiger Neckar" von seinem teilweise vorhandenen Betonkorsett zu befreien, so konnte der Fluss doch schon als Naherholungsgebiet und als Lebensraum für Tiere und Pflanzen streckenweise neu entwickelt werden. Der Neckar gilt zwar weithin als Symbol bedrohter Natur – nirgendwo in Deutschland findet sich etwa eine höhere Kraftwerksdichte –, doch wurden inzwischen zahlreiche Naturschutzgebiete ausgewiesen und einzelne Uferabschnitte renaturiert. Bei einem Sauerstoffgehalt unterhalb 4 mg/l werden die Kraftwerksbetreiber dazu veranlasst, mit speziell ausgelegten Turbinen, das Wasser zu belüften. Dadurch gab es im Neckar in den letzten 20 Jahren (2003) kein Fischsterben mehr durch Sauerstoffmangel. Klima. Das Neckartal wirkt als Kaltluftsenke, das heißt bei Strahlungswetterlage fließt die schwerere nächtliche Kaltluft, die sich auf wenig bewachsenen Hochflächen und Kuppen gebildet hat, in die Tallagen ab und sammelt sich dort. Derartige „Kaltluftseen“ können besonders in der kalten Jahreszeit zur Nebelbildung beitragen, während auf den Höhen ringsum die Sonne scheint. Die Orographie des Neckartales begünstigt solche Inversionswetterlagen. Andererseits ist das Neckartal berühmt für sein Weinbauklima. Der Anbau des Württemberger Weins ist im Wesentlichen auf die südexponierten Hanglagen mit hohem Strahlungsgewinn im Neckartal und seinen Nebentälern beschränkt. Zu früheren Zeiten war der Weinbau im Neckarraum weiter verbreitet. Der Weinbau ist sehr arbeitsintensiv und in Württemberg heute nur noch in den besten Lagen gegen das Ausland konkurrenzfähig. Schifffahrt. Zahlreiche Ausgrabungen von Hafenanlagen und Funde lassen darauf schließen, dass bereits zur Römerzeit seit Mitte des 1. Jahrhunderts, besonders auf dem unteren Neckar, eine Neckarschifffahrt zu Tal existierte, vornehmlich wohl zum Transport von Baumaterial für den Limes und Proviant. Danach dürften die Franken die Neckarschifffahrt wieder in Gang gebracht haben. Flößerei ab 1100. Ab etwa 1100 ist die Nutzung des Neckars als Wasserstraße mit Treidelkähnen und Holzflößen belegt. Der Fluss war schon im Hochmittelalter im Bereich einiger Städte durch Stauwehre gesperrt. In Heilbronn wird im Jahr 1146 ein Hafen erstmals erwähnt. Das Neckarprivileg Kaiser Ludwigs des Bayern gewährte 1333 der Reichstadt das Recht auf den Bau eines Stauwehres, nach dessen Bau hier der durchgehende Verkehr auf dem Fluss blockiert war, ein mehrhundertjähriges Ärgernis für andere Anrainer. Das Durchfahrtsrecht für Flößer musste daher vertraglich festgelegt werden. 1342 schlossen Württemberg, die Markgrafschaft Baden und die Reichsstadt Heilbronn einen Floßvertrag zur Öffnung des Neckars für Flöße zwischen Besigheim und Heilbronn. Ein Vertrag von 1476 zwischen der Reichsstadt Esslingen, Württemberg und Österreich vereinbarte ebenfalls freien Floßhandel. Das letzte Floß fuhr am 26. Oktober 1899 durch Tübingen den Neckar hinab. Das Holz aus dem östlichen Nordschwarzwald verbrachte man über den Neckar und dann über den Rhein bis nach Holland; wegen der dort aufblühenden Seefahrt fragte der Schiffbau viel Holz nach. Das Brennholz aus dem Schurwald wurde in Plochingen zu bis zu 260 Meter langen Flößen zusammengestellt. In Tübingen wurden die Neckarflößer von den Studenten mit dem Spottruf „Jockele sperr, sonscht gibt’s an saumäßige Elleboge“ geneckt, was so viel heißt wie „Jockele brems, sonst gibt es einen schlimmen Ellenbogen“, ein durch Unachtsamkeit entstandenes klappmesserartiges Verklemmen der miteinander vertauten Flöße im Fluss. Schifffahrt ab dem 16. Jahrhundert. In der Mitte des 16. Jahrhunderts gewann der Neckar mit dem einsetzenden oberdeutschen Handel als Schifffahrtsweg an Bedeutung. Trotz vieler Eingriffe in den Flusslauf zur Verbesserung der Schifffahrt konnte der von einem Leinpfad begleitete Fluss wegen gefährlicher Stromschnellen und Untiefen nur von kleineren Treidelschiffen befahren werden, die meist auch nur bis Heilbronn verkehrten. Die Schiffbarmachung des oberen Neckars betrieb dann Herzog Christoph von Württemberg, der 1553 von Kaiser Karl V. die nötige Erlaubnis erhielt. Die Stadt Heilbronn beharrte jedoch weiterhin auf ihren Rechten, so dass der Fluss bei Heilbronn versperrt und der obere Neckar und damit auch Württemberg vom Schiffsverkehr vom Rhein her abgeschnitten blieben. Alle verschifften Güter unterlagen dem Heilbronner Stapelrecht. Im späten 16. Jahrhundert verfolgte Herzog Friedrich von Württemberg ebenfalls Pläne zur Schiffsdurchfahrt, verwarf diese jedoch 1598 und plante stattdessen, in Kochendorf einen württembergischen Handelshafen aufzubauen — ebenso erfolglos wie sein Nachfolger Eberhard III., der einen württembergischen Hafen in Untereisesheim anstrebte. In den Notzeiten des 17. Jahrhunderts war die Schifffahrt unbedeutend. "Stift Neuburg und das Neckartal", Ernst Fries, um 1830 Unmittelbar oberhalb von Mannheim waren wegen häufiger Hochwasser Regulierungen notwendig. Nach 1622 wurden kleinere Korrekturen bei den damaligen Neckarschleifen zwischen Feudenheim und der heutigen Friedrich-Ebert-Brücke vorgenommen. Hochwasser überflutete weiterhin die Stadt bedrohlich, zuletzt 1784 und 1789. Entspannung brachte ab 1794 die Begradigung mit vier Durchstichen, verbunden mit Absenkungen der Flusssohle sowie Befestigungsmaßnahmen und Dämmen. Nach Konsolidierung der Verhältnisse im 18. Jahrhundert verkehrten auf dem unteren Neckar regelmäßig kurpfälzische Marktschiffe. Auf dem oberen Neckar fuhren um 1720 für einige Jahre regelmäßig Schiffe zwischen Heilbronn und Cannstatt; die Ausdehnung der Neckarschifffahrt auf das württembergische Plochingen und den Flusslauf oberhalb scheiterte an der Reichsstadt Esslingen. Während der kurpfälzische Schiffsverkehr auf dem unteren Neckar recht erfolgreich war, wurde derjenige auf dem oberen Neckar rasch wieder eingestellt, da der Fluss hier noch nicht zureichend für eine Schifffahrt ausgebaut war und auch keine Mittel für den weiteren Ausbau zur Verfügung standen. Während einer Zeit wirtschaftlichen Aufschwungs im späten 18. Jahrhundert schlossen Württemberg und die Kurpfalz einen Handelsvertrag, um "die Neckarschifffahrt zwischen Mannheim und Cannstatt in Gang zu bringen". 1782 einigten sich Württemberg, die Kurpfalz und die Reichsstadt Heilbronn bei einer Konferenz in Heidelberg auf Erleichterungen im Neckarhandel, die jedoch nur administrativer Natur waren. Der Neckar bei Heilbronn blieb weiterhin durch das dortige Wehr versperrt. Die Zeiten Napoleons um 1800 brachten in Südwestdeutschland der Neckarschifffahrt einen Niedergang. Zwar behinderten nun – weil weite Teile des unteren Neckargebiets an Baden gefallen waren und die Reichsstädte Heilbronn und Esslingen an Württemberg – die vielen Streitigkeiten und Hindernisse der vorigen Kleinstaaten nicht mehr den Handel. Doch wurden während der Kontinentalsperre die Schifffahrt beschränkt und Schiffe und Schiffsgerät beschlagnahmt. Die Einrichtung des "Mannheimer Stapels" im Jahre 1808 verschaffte Mannheimer Kaufleuten die Kontrolle über nahezu den gesamten Neckarhandel. Während der Befreiungskriege verkehrten lediglich noch kleine Schiffe auf dem Neckar, überwiegend für militärische Transporte. Der Wiener Kongress forderte 1814/15 die Freiheit des Verkehrs auf Neckar und Rhein. Durchgängige Schiffbarkeit mit dem Wilhelmskanal 1821. Einmündung des Heilbronner Wilhelmskanals (rechts) in den Nebenarm Heilbronn (Altneckar) (links). Der Kanal machte den Neckar 1821 durchgängig schiffbar. Brückenschleuse von 1884. 1819–1821 wurde in Heilbronn der 550 Meter lange Wilhelmskanal zur Umgehung des gesamten Wehrbereichs mit den vielen Mühlen gebaut, der so den Neckar vom Rhein und nach weiteren Flussbaumaßnahmen bis hinauf nach Cannstatt durchgängig schiffbar machte. Ein Sperrtor am oberen Ende des Kanals konnte ihn bei Hochwasser zum Schutzhafen machen, der schon 1829 zu einem Umschlaghafen ausgebaut wurde. 1827 wurde der "Mannheimer Stapel" aufgehoben, wodurch die Neckarschiffer wieder freien Zugang zum Rhein erhielten. Die "Rheinschiffahrtsakte" von 1831 und in deren Folge die "Neckarschiffahrtsordnung" von 1832 brachten durch vereinfachte Regelungen und Zölle einen erheblichen Aufschwung für die Schifffahrt. Doch galt der Fluss wegen seiner Untiefen und Stromschnellen als einer der gefährlichsten in Deutschland. 1836 wurde die "Neckarschiffergilde" aufgelöst, die seit 1810 versucht hatte, ein Monopol auf den Neckarhandel zu gewinnen. Mit der Ratifizierung der Neckarschiffahrtsordnung 1842 wurden alle Gilden und Zünfte aufgehoben und damit Gewerbefreiheit auf dem Neckar geschaffen. a> auf dem Neckar bei Heilbronn a> war 1905 die größte Neckarbrücke Ab 1841/42 betrieb die Heilbronner Neckar-Dampfschifffahrt einen regelmäßigen Personen- und Stückgutverkehr auf dem Neckar von Heilbronn bis Mannheim. Während man hierfür die modernen Dampfschiffe einsetzte, zogen weiterhin Pferde auf dem Leinpfad die schwereren Lastkähne flussaufwärts, weil die Dampfschiffe dafür noch nicht stark genug waren. Die Konkurrenz der Eisenbahn machte Dampfer wie Treidelkähne in der zweiten Hälfte des 19. Jahrhunderts nach und nach unwirtschaftlich. Ihre Bedeutung behielt dagegen die Neckarflößerei, die sich jedoch auch an die Eisenbahnzeit anpasste. Weil die Stämme aus dem Schwarzwald mehr und mehr mit der Bahn nach Heilbronn gelangten und erst von dort ihre Weiterreise auf dem Wasser antraten, wurde in Heilbronn noch 1875 ein neuer Floßhafen errichtet. Oberhalb Esslingens hatte die Flößerei nur noch geringe Bedeutung, das letzte Floß passierte die Stadt am 28. Oktober 1899. Einen neuen Aufschwung, trotz des Baus der Bahnlinie am Neckar entlang, brachte der Neckarschifffahrt die 1878 begonnene Neckar-Kettenschleppschifffahrt. Zwischen Mannheim und Heilbronn konnten sich Dampfschlepper mit angehängten Kähnen nun an einer 115 km langen, im Fluss verlegten Kette flussaufwärts ziehen. Die Dauer der Fahrt von Mannheim nach Heilbronn verkürzte sich dadurch auf zwei bis drei Tage; auf den von Pferden gezogenen Schiffen hatte sie vorher fünf bis acht Tage gedauert. Oft mangelte es aber an der notwendigen Wassertiefe. Der Volksmund nannte die Kettenschlepper "Neckaresel". Die letzte Kettenschifffahrt wurde noch 1933–1935 zwischen Neckargerach und der Schleuse Kochendorf betrieben. Ausbau zur Großschifffahrtsstraße ab 1921 bis 1968. Um besonders dem aufstrebenden Industrierevier um Stuttgart einen vollschiffigen Wasserstraßenanschluss zu verschaffen, begannen erste Planungen zur Stauregelung (früher: Kanalisierung) des Neckars zwischen Mannheim und Plochingen bereits 1904 mit dem Ziel, weitgehend unabhängig von Natureinflüssen wie Niedrigwasser und Treibeis verkehren zu können. Mit dem württembergischen Beitrag wurde 1905 Otto Konz (1875–1965) beauftragt, der dem Neckarausbau zeitlebens verbunden blieb. Eine Denkschrift von 1910 sah die Auslegung für Schiffe bis zu 1000 Tonnen vor; nach Plänen von 1919 wurde der Verkehr für das 1200-t-Schiff vorgesehen. Da in der Weimarer Reichsverfassung 1919 der Neckar als Reichswasserstraße vorgesehen war (offiziell ab 1. April 1921), wurde 1920 eine reichsunmittelbare Neckarbaudirektion errichtet, deren Leiter Otto Konz wurde. 1921 vereinbarten das Reich, die Neckaruferstaaten Württemberg, Baden und Hessen in einem Staatsvertrag den Ausbau des Neckars zur Großschifffahrtsstraße. Im selben Jahr gründeten sie zur Finanzierung der Bauvorhaben die Neckar AG mit Darlehen vom Reich, den drei Ländern und einigen Kommunen. Als Gegenleistung erhielt die AG das Recht, die von ihr zugleich ausgebauten Wasserkräfte bis 2034 auszunutzen und mit dem Gewinn die Baudarlehen zu tilgen; dies Recht geht dann auf die Bundesrepublik Deutschland über. Zum Vorstand der Neckar AG wurden Otto Hirsch aus dem württembergischen Innenministerium und Otto Konz gewählt. Für die Gestaltung der Staustufe Heidelberg mit Rücksicht auf das weltberühmte Stadtbild und um die weiteren Staustufen bis Heilbronn mit Natur und Landschaft in Einklang zu bringen, fungierte als Architekt Paul Bonatz (1877–1956). 1921 begannen umgehend die Bauarbeiten auf der ganzen Strecke. 1935 waren auf 113 km Länge die ersten elf Staustufen zwischen Mannheim und dem neuen Kanalhafen in Heilbronn vollendet; der Kanalhafen wurde beim späteren Weiterbau zum Schleusenkanal Heilbronn. Während der Fluss ausgebaut und die Staustufen am Neckar errichtet wurden, entstand von 1935 bis 1938 die Neckar-Enz-Stellung, eine aus rund 450 Bunkern bestehende Verteidigungsanlage gegen von Westen anrückende Feinde, die sich zwischen Eberbach und Besigheim auf das natürliche Hindernis des Neckars stützte und dann von Besigheim bis Enzweihingen dem Lauf der Enz folgte. Auch bei Plochingen am oberen Ende der vorgesehenen Schifffahrtsstraße begann man mit Ausbauarbeiten, und es gab darüber hinausgehende Pläne, auch noch die Fils zwischen Plochingen und Göppingen schiffbar zu machen. Das Gelände für einen Hafen bei Göppingen blieb bis 1978 raumplanerisch reserviert. Neckar-Baudirektor Konz ließ auch eine Untertunnelung der Schwäbischen Alb für eine Schifffahrtsverbindung nach Ulm an der Donau planen, um so insgesamt eine Wasserstraße als Bindeglied zwischen Rhein und oberer Donau zu schaffen, wie es der Staatsvertrag von 1921 vorsah. Diese Pläne wurden aber ab 1968 nicht weiter verfolgt. Doch nach 1935 ging der Ausbau nur zögerlich weiter; bis 1943 wurden noch 6 Staustufen oberhalb Heilbronn ohne Schleusen gebaut. Hirsch wurde aus dem Amt gedrängt und 1941 im KZ Mauthausen ermordet, Konz ging aufgrund nationalsozialistischer Repressionen 1938 freiwillig in einstweiligen Ruhestand. Die Bauarbeiten waren während des Zweiten Weltkrieges weitgehend eingestellt. Erst ab 1948 wurde die Stauregelung des Neckars oberhalb Heilbronn fortgeführt, bis 1952 abermals durch Otto Konz. Der Abschnitt bis Stuttgart war 1958 vollendet, und der Hafen Stuttgart wurde durch den Bundespräsidenten Theodor Heuss gemeinsam mit Otto Konz eröffnet. Nach Eröffnung des Hafens Plochingen 1968 war das Ausbauziel für den Neckar nach 47-jähriger Bauzeit erreicht. Der Fluss war an insgesamt 27 Stufen aufgestaut und damit von Mannheim bis Plochingen zur Großschifffahrtsstraße geworden. Jede Staustufe besteht aus einem Wehr mit 2 bis 6 Öffnungen und unterschiedlichen Verschlusskörpern, einer Doppelschleuse und einem ferngesteuerten Wasserkraftwerk nebeneinander im Fluss. An 7 Staustufen, wo ein größerer Aufstau vom Gelände her nicht möglich war, gibt es einen parallelen Schleusen- und Kraftwerkskanal von 1,5 bis 7,5 km Länge und das Flussbett dient als Wehrarm. An weiteren 2 Stufen gibt es einen Durchstich zum Abschneiden einer Flusskrümmung. Insgesamt sind vom Rhein bis zur Remsmündung lediglich 17 % der Strecke ein künstliches Gewässerbett, ansonsten dominiert der Flusscharakter. Bei den letzten 32 km, dem wasserarmen Oberlauf bei gleichzeitiger starker wirtschaftlicher Beanspruchung, zeigte sich aber eine Grenze, so dass dieser Abschnitt fast vollständig künstlich angelegt werden musste. Heutige Nutzung. Der Neckar (Ne) wird nach abschnittsweiser Übernahme von der Neckar AG nunmehr seit 1970 von Mannheim bis Plochingen als Bundeswasserstraße von den Wasser- und Schifffahrtsämtern Stuttgart und Heidelberg verwaltet. Der Bund ist Eigentümer der Wasserstraße. Auch Sportboote einschließlich Paddel- und Ruderboote unterliegen der auf dem Neckar geltenden Binnenschifffahrtsstraßen-Ordnung, die beispielsweise die Kennzeichnungspflicht und die Vorfahrtsregeln enthält. Die wasserwirtschaftliche Nutzung zeigt sich an 159 Wasserentnahmen und 628 Wassereinleitungen. Auf dem Neckar, der vom km 201,5 bei Plochingen bis zur Mündung (km 0) heute der Wasserstraßenklasse Va entspricht, transportierten im Jahr 2012 7332 Binnenschiffe insgesamt 7,5 Millionen t. Den größten Ladungsanteil hatten Baustoffe (1,9 Millionen t.) und Kohle (1,6 Millionen t.) sowie Salz (1,3 Millionen t.). Es wurden 21.000 TEU Container transportiert. Für Touristen verkehren Ausflugsschiffe verschiedener Unternehmen. Auf dem Oberen Neckar wird die Personenschifffahrt durch das Unternehmen Neckar-Käpt’n abgewickelt. Hafenanlagen. Am 8. Dezember 1954 wurde die "Neckarhafen Plochingen GmbH" gegründet. Von 1960 bis 1963 wurde die letzte Staustufe bei Deizisau gebaut. Der Bau des "Neckarhafens Plochingen" begann am 29. April 1964. Das erste Schiff legte am 12. Juli 1968 in Plochingen an, nachdem es zuvor von Gertrud Hartung, der Frau des Bürgermeisters, auf den Namen "Plochingen" getauft worden war. Im Hafen erwirtschafteten 2004 etwa 15 Firmen einen summierten Jahresumsatz von etwa 500 bis 600 Millionen Euro. Der Neckarhafen Stuttgart wurde in zwei Abschnitten erbaut, von 1954 bis 1958 und von 1966 bis 1968. Das Hafengebiet erstreckt sich über eine Gesamtfläche von 100 ha, seine drei Becken bedecken einschließlich der Bundeswasserstraße eine Wasserfläche von 30,7 ha. Den ersten Cannstatter Hafen am Mühlgrün weihte Herzog Eberhard Ludwig im Jahre 1713 ein. Er blieb unbedeutend. Der Hafen Heilbronn ist mit einer Betriebsfläche von 78 Hektar und einer Kailänge von 7,2 Kilometern der nach dem Umschlag siebtgrößte Binnenhafen Deutschlands (Stand 2010) und der größte Hafen am Neckar. Über 50 % des Umschlags am Neckar erfolgen hier, das sind rund 4 Millionen Tonnen pro Jahr. Etwa 60 % des Umschlags fallen auf den Binnenhandel, der Rest auf internationale Güter und Waren. Neben Roh- und Baustoffen (Kohle, Salz) werden unter anderem Getreide, Eisen, Stahl und Holz verladen. Der Mannheimer Hafen ist einer der bedeutendsten Binnenhäfen Europas und der zweitgrößte in Deutschland. Der Hafen hat eine Wasserfläche von 267,9 ha, dazu kommen 863,5 ha Landfläche. Knapp 500 Unternehmen mit 20.000 Arbeitsplätzen haben sich im Hafengebiet niedergelassen. 1968 wurde das erste Container-Terminal in einem Binnenhafen eröffnet. Hinzu kommt eine RoRo-Anlage und seit 1991 ein KLV-Terminal. 2010 wurden wasserseitig 7,64 Millionen t Güter umgeschlagen. Den größten Anteil daran hatten Steinkohle mit 2,2 Millionen t, Nahrungs- und Futtermittel mit 0,92 Millionen t und chemische Erzeugnisse mit 1,59 Millionen t. Am Containerterminal wurden wasserseitig 120.568 Einheiten umgeschlagen. Die Hafenbecken verteilen sich rund um die Neckarmündung an Rhein und Neckar. Den Gesamtkomplex ergänzt der Ludwigshafener Rheinhafen, der sich direkt gegenüber auf der linksrheinischen Seite befindet. Schleusen. Die maximale Größe der auf dem Neckar fahrenden Binnenschiffe ist durch die Abmessungen der Schleusenkammern der 27 Staustufen begrenzt, die in der Regel 110 m lang und 12 m breit sind; die zulässigen Fahrzeugabmessungen sind deshalb 105 m × 11,45 m. Seit 1952 erhielten fast alle Schleusen eine 2. Kammer und wurden so zu Doppelschleusen. An 23 von ihnen wird zur Wasserersparnis im Verbund geschleust, d.h. fast 50 % des Wassers aus der jeweils vollen Kammer wird zum Füllen der leeren Kammer verwendet (sog. Zwillingsschleusen). Zur Vermeidung von Schiffsstau an der Neckarmündung erhielt die Eingangstaustufe Feudenheim 1973 eine weitere Schleuse mit den Abmessungen 190 m × 12 m. Die Staustufen folgen einander im mittleren Abstand von gut sieben Kilometern (zwischen 0,9 und 13,7 km, siehe Tabelle) und dienen der Überwindung eines Höhenunterschieds von 160,70 m bis zum Rhein bei Niedrigwasser. Die Fahrrinnentiefe beträgt seit 2000 durchgehend 2,80 m, so dass etwa der Hafen Stuttgart von Großmotorschiffen des Rheins angelaufen werden kann, die bei einem Tiefgang von 2,60 m eine Tragfähigkeit von rund 2200 t haben. In den nächsten Jahren sollen die Schleusen renoviert und teilweise erweitert werden. Insgesamt investiert der Bund 575 Millionen Euro für dieses Projekt. Für die Umsetzung des Projekts wurde 2007 das Amt für Neckarausbau Heidelberg gegründet. Um den Neckar für 135 m lange Schiffe befahrbar zu machen, wird an jeder Doppelschleuse eine Kammer ausreichend verlängert. Darüber hinaus werden die alten Kammern saniert sowie einzelne Streckenabschnitte und Wendestellen ausgebaut. Die Schleusen zwischen Mannheim und Heilbronn sollen bis 2026 verlängert werden. Die Schleuse Gundelsheim wurde 2012 mit dem Titel „wassersportfreundlichste Schleuse“ ausgezeichnet. Im Gegensatz zu anderen Wasserstraßen wie Mosel oder Main gibt es außer in Bad Cannstatt keine Bootsschleusen. Deshalb werden normalerweise Motoryachten und Segelboote in den Schiffsschleusen mitgeschleust. Die an den anderen 26 Staustufen eingerichteten Bootsschleppen sind oft in schlechtem Zustand oder sogar unbenutzbar. Mancherorts können Kanus bei Erlaubnis durch das Schleusenpersonal ebenfalls die Schleusen mitnutzen, insbesondere bei Gruppenfahrten. Seit 2004 steuert und überwacht die Fernbedienzentrale in Stuttgart-Obertürkheim (FBZ) die Schleusen von Deizisau bis Stuttgart-Hofen am oberen Neckar. Pegel und Hochwasser. Für die Berufs- wie die Freizeitschifffahrt sind die Wasserstände des Neckars entscheidend für seine Befahrbarkeit. Laut Hochwassermeldeordnung (HMO) des Landes Baden-Württemberg gelten folgende Hochwassermeldehöhen an den Pegeln. Der Pegel Plochingen (seit 1905) lag als einziger Pegel an der Wasserstraße Neckar im freien Gefälle. Im Jahre 1962 wurde das bewegliche Wehr Deizisau errichtet. Um die Stauschwankungen fernzuhalten, baute man eine Schwelle rund 100 m unterhalb der Straßenbrücke Plochingen und verlegte den Pegel dorthin. Das große Hochwasser im Februar 1970 zerstörte diese Schwelle aus Schüttsteinen. Da die Kosten für den Neubau einer Schwelle aus Beton zu hoch erschienen, fand man eine wirtschaftlichere Lösung. Aus den Wasserständen und Abflussmengen an den Pegeln Wendlingen (Neckar-km 206,5 – für den Neckar-Oberlauf) und Reichenbach (Fils-km 2,5 – für die zulaufende Fils) werden algorithmisch Wasserstände und Abflussmengen für den alten Pegel Plochingen berechnet und veröffentlicht. Mühlen. Alte Neckarmühle unterhalb von Schloss Horneck in Gundelsheim Kraftwerke. Kombiniertes Wasser- und Kohlekraftwerk in Kiebingen im Jahr 1910 Das Kraftwerk von Lauffen am Neckar 1891 Wehrsteg über den Neckar am Wehr Wieblingen in Heidelberg (Baujahr 1925) Darüber hinaus ist und war der Neckar auch Kühlwasserquelle für Kohle- und Kernkraftwerke. Bei Esslingen-Zell kühlt das Neckarwasser das Deizisau, eines der modernsten Steinkohlekraftwerke in Europa. Es umfasst zwei Blöcke und steht auf den Gemarkungen der beiden Gemeinden Altbach und Deizisau. Es kann einschließlich der Gasturbinen und des Kombiblocks 4 maximal etwa 1270 MW elektrische Leistung ins Netz einspeisen. Das Heizkraftwerk Stuttgart-Gaisburg, die Müllverbrennungsanlage des Kraftwerks Stuttgart-Münster, das Kraftwerk Marbach, das Kraftwerk Walheim, das Kernkraftwerk Neckarwestheim, das Kraftwerk Heilbronn und das stillgelegte Kernkraftwerk Obrigheim beziehen ebenfalls ihr Kühl- bzw. Verdunstungswasser aus dem Neckar. Kreuzungsbauwerke. Über den Neckar führen einige teils sehr alte Brücken. Zu den bekanntesten historischen Neckarbrücken zählt die Alte Brücke in Heidelberg, die bereits im hohen Mittelalter bestand und 1788 in ihrer heutigen Gestalt errichtet wurde. Weitere historische Neckarbrücken sind die im Kern auf 1532 datierende Neckarbrücke in Lauffen am Neckar, die 1742 erbaute Neckarbrücke in Sulz, die Pliensaubrücke, die Alte Agnesbrücke sowie die Innere Brücke in Esslingen und die Ulrichsbrücke in Köngen. Im Jahr 1905 gab es bereits 119 Brücken über den Neckar, deren größte die von 1903 bis 1905 erbaute Neckargartacher Neckarbrücke mit einer Gesamtlänge von 230 Metern war. 1985 führten über die Großschifffahrtsstraße 159 Eisenbahn-, Straßen- und Wegebrücken. Hinzu kamen 126 Freileitungskreuzungen und 67 Düker Burgen und Schlösser. Von Mannheim über Heidelberg, Eberbach, Mosbach bis Heilbronn verläuft die Burgenstraße nahezu parallel zum Neckar und führt auf diesem rund 100 km langen Abschnitt des unteren Neckars an zahlreichen Burgen und Schlössern vorbei. Zuallererst ist natürlich das Heidelberger Schloss zu nennen. Unter den Neckarburgen sind aber auch die vier Burgen in Neckarsteinach, Bergfeste Dilsberg, Burg Eberbach, Burg Hirschhorn, Burg Zwingenberg, Burg Stolzeneck, die Minneburg, Burg Dauchstein, Schloss Neuburg (Baden), die Burg Hornberg (die Burg des Götz von Berlichingen) und die Burg Guttenberg (Deutsche Greifenwarte), Schloss Horneck, Burg Ehrenberg. Im weiteren Verlauf flussaufwärts bis Stuttgart und weiter am oberen Neckar stehen die Burg Horkheim und das Neippergsche Schloss Klingenberg, Schloss Lichtenegg, die Esslinger Burg, Burg Remseck, Schloss Liebenstein, die Weiler Burg, die Ruine Herrenzimmern, das Schloss Hohentübingen, das Schloss Weitenburg, die Ruine Albeck bei Sulz am Neckar sowie die Ruinen Wehrstein und Neckarburg. Nick Nolte. Nicholas King „Nick“ Nolte (* 8. Februar 1941 in Omaha, Nebraska) ist ein US-amerikanischer Schauspieler. Karriere. Nolte begann 1960 seine schauspielerische Karriere bei dem amerikanischen Bühnenensemble "Actor’s Inner Circle of Phoenix" und trat innerhalb der darauffolgenden acht Jahre in etwa 180 Stücken auf. 1968 hatte er Auftritte am "Old Log Theater" in Minneapolis und mit der Experimentalgruppe "La Mama Experimental Theatre" in New York City, bis es ihn nach Los Angeles verschlug, wo er sich niederließ. Für kurze Zeit studierte er Schauspiel bei Stella Adler und trat am Pasadena Playhouse in Pasadena auf. Er konzentrierte sich jedoch bald auf das Film- und Fernsehgeschäft. Einen seiner ersten TV-Auftritte hatte Nolte 1973 in einer Episode der Krimiserie "Die Straßen von San Francisco". 1977 gelang ihm der Durchbruch mit der Serie "Reich und Arm" und hatte im gleichen Jahr seinen ersten Kinoerfolg mit dem Film "Die Tiefe" nach dem Roman von Peter Benchley. Nach einigen erfolgreichen Rollen in den 1980ern stieg er zu einem gefragten Charakterdarsteller auf. 1991 spielte er neben Martin Scorseses Publikumserfolg "Kap der Angst" die Hauptrolle in dem Drama "Herr der Gezeiten" an der Seite von Barbra Streisand. Nolte wurde für seine Leistung mit dem Golden Globe und anderen Auszeichnungen geehrt. Die Rolle brachte ihm zudem seine erste Oscarnominierung ein. Nach einigen mäßig erfolgreichen Projekten konnte er 1997 wieder auf sich aufmerksam machen, als er die Hauptrolle in Oliver Stones Thriller "U-Turn" übernahm. Für seinen Part in "Der Gejagte" von Paul Schrader im gleichen Jahr wurde Nolte erneut für den Oscar und diverse weitere Preise nominiert. Ein Jahr später erhielt er eine größere Rolle in Terrence Malicks Kriegsfilm "Der schmale Grat". Anfang des neuen Jahrtausends wurde seine Hauptrolle in "Der Dieb von Monte Carlo" (2003) von der Kritik hochgelobt, im Filmdrama Clean (2004) spielte er an der Seite von Maggie Cheung, die für ihre Rolle in dem Film den Darstellerpreis der Filmfestspiele von Cannes erhielt. Seither ist Nolte überwiegend in Nebenrollen zu sehen. Die aufsehenerregendste war 2011 im Sportdrama "Warrior", für die er seine insgesamt dritte Oscarnominierung erhielt. Eine tragende Rolle spielte er 2015 in Picknick mit Bären an der Seite von Robert Redford. Allgemeines. Nolte fiel immer wieder öffentlich durch übermäßigen Alkoholkonsum auf. So wurde er u. a. von der Polizei beim Autofahren im betrunkenen Zustand gefasst. Nolte gibt jedoch an, inzwischen vom Alkoholismus geheilt zu sein. Nolte, dreifach geschieden, hat zwei Kinder. Einen Sohn, Brawley Nolte (* 1986), aus einer früheren Ehe, und seit Oktober 2007 eine Tochter mit seiner damals 38 Jahre alten, langjährigen Lebenspartnerin Clytie Lane. Im Jahr 1992 wurde er vom People Magazine zum Sexiest Man Alive gewählt. Sein Vater Frank Nolte hat deutsche Wurzeln. Deutsche Synchronsprecher. Nick Nolte hat einen Stammsprecher, Thomas Danneberg, der ihn fast immer synchronisiert. Wenn dieser nicht zur Verfügung steht dann übernehmen Kollegen wie Rüdiger Bahr, Hartmut Becker, Tommi Piper, Christian Brückner, Ben Becker, Wolf Frass, Reiner Schöne,Thomas Fritsch oder Jochen Striebeck den Part. Niederlande. Die Niederlande (,) sind eine parlamentarische Monarchie und einer der vier autonomen Landesteile des Königreiches der Niederlande. Das weit überwiegend im nördlichen Westeuropa liegende Land wird durch die Nordsee im Norden und Westen, das Königreich Belgien im Süden und die Bundesrepublik Deutschland im Osten begrenzt. Zusammen mit Belgien und Luxemburg bilden die Niederlande die Benelux-Staaten. Die Hauptstadt der Niederlande ist Amsterdam, der Regierungssitz ist Den Haag. Die Niederlande sind Gründungsmitglied der Europäischen Union (EU) und der Europäischen Wirtschaftsgemeinschaft (EWG). Zu dem Gebiet der Niederlande, das in diesem Artikel dargestellt wird, gehören neben den zwölf Provinzen des europäischen Teils die drei Karibikinseln Bonaire, Sint Eustatius und Saba, die in corpore als „besondere Gemeinden“ bezeichnet werden. Diese Konstruktion besteht seit der Auflösung des Landesverbandes der Niederländischen Antillen im Jahre 2010. Weitere karibische Gebiete sind kein integraler Teil der Niederlande, sondern autonome Landesteile im Königreich der Niederlande: dies sind Aruba, Curaçao und Sint Maarten. Landesname. Der offizielle und auch in der Umgangssprache übliche niederländische Name des Landes lautet "Nederland" (Singular), während im Standarddeutschen das Land „Niederlande“ (Plural) heißt und umgangssprachlich zumeist als „Holland“ benannt wird. Der Name „Holland“ bezieht sich eigentlich nur auf den nordwestlichen Teil des Landes, auf die frühere Provinz Holland als bedeutendste Provinz der Republik der Vereinigten Niederlande. Seit Mitte des 19. Jahrhunderts ist diese Provinz aufgeteilt in die zwei Provinzen Nordholland (Hauptstadt Haarlem) und Südholland (Hauptstadt Den Haag). Im Niederländischen verwendet man den Ausdruck "Holland" in erster Linie für diese zwei Provinzen. Ansonsten ist "Holland" eher eine ironische Selbstbezeichnung. Auch beim Fußball lautet die Selbstbezeichnung "Holland", zum Beispiel im Schlachtruf "Hup Holland Hup". Außerhalb der Niederlande werden die Niederländer zumeist als "Holländer" bezeichnet und auch die niederländische Tourismusindustrie und sonstige Wirtschaft vermarkten das Land durchweg als "Holland" (sowohl im Englischen als auch im Standarddeutschen). Niederländer, die nicht aus der Region Holland stammen, hegen meist eine gewisse Abneigung gegenüber der Bezeichnung "Holland" für die Niederlande und "Holländer" für den Niederländer. Der Landesname "Niederlande" (im Plural) ergibt sich aus der Geschichte. Die Niederlande waren Ende des Mittelalters ein Teil des Herrschaftsgebietes des Hauses Burgund. Deren Ländereien gliederten sich im 15. Jahrhundert unter Karl dem Kühnen in die "oberen Lande" (das Herzogtum sowie die Freigrafschaft Burgund und Nebenländer) und die "niederen Lande" (Flandern, Artois mit einem Teil der Picardie, Brabant, Holland, Luxemburg u. a. m.). 1482 gelangte das burgundische Erbe an das Haus Habsburg. Dessen Erblande gliederten sich seinerzeit schon in "Nieder-, Inner-" und "Oberösterreich" (um Wien, Graz und Innsbruck), die "Küstenlande" (an der Adria) und die "Vorlande" (am Oberrhein). So ergab sich einigermaßen konsequent die Bezeichnung "Niederlande", "burgundische Niederlande" bzw. "habsburgische Niederlande" (zunächst "Spanische Niederlande", seit 1714 "Österreichische Niederlande"). (Das burgundische Oberland – das Herzogtum um Dijon, das schon immer außerhalb der Reichsgrenzen gelegen hatte, also die heutige Region Bourgogne – ging 1493 an Frankreich verloren, ebenso 1678 die Freigrafschaft um Besançon, die heutige Franche-Comté.) Im Niederländischen sagt man zu den historischen Regionen auch "de Lage Landen", also die tief oder niedrig liegenden Länder, da es in den Niederlanden kein Gebirge und nur wenige Erhöhungen gibt. Die nordniederländischen Provinzen der Utrechter Union (Holland, Zeeland, Utrecht, Gelderland, Overijssel, Groningen und Friesland) erklärten sich am 26. Juli 1581 unabhängig vom Landesherrn Philipp II. von Spanien. In den Verträgen des Westfälischen Friedens 1648 wurde die Unabhängigkeit vom Heiligen Römischen Reich proklamiert, das Gebiet entsprach in etwa den späteren Niederlanden. Der südliche Teil des Gebietes, inklusive Flandern, verblieb hingegen beim Reich; später entstand daraus der Staat Belgien. Man sprach dann von den nördlichen und den südlichen Niederlanden. Der Wiener Kongress vereinigte Norden und Süden als unabhängigen Staat "Koninkrijk der Nederlanden" noch einmal für kurze Zeit. Jedoch schon 1830 erklärten sich die südlichen Niederlande unter der Bezeichnung "Belgien" für unabhängig. "Belgica" ist der Name einer alten römischen Provinz; seit der Renaissance wurde der Ausdruck als lateinischer Name der Niederlande, auch für deren nördliche Provinzen, verwendet. Im Mittelniederländischen bezeichneten die Adjektive "duutsc" oder "dietsc" (entsprechend dem hochdeutschen "deutsch") die im Volk gesprochenen westgermanischen Mundarten und dienten der Abgrenzung dieser Mundarten gegenüber dem Lateinischen, der Sprache von Verwaltung, Wissenschaft und Kirche. Daraus entstand die englische Bezeichnung "Dutch". "Batavia" ist ein früherer lateinischer Name für die heutigen Niederlande und bezieht sich auf den beim Rheindelta siedelnden germanischen Stamm der Bataver. Die Niederländer nannten die heutige Hauptstadt Indonesiens, Jakarta, während ihrer Kolonialzeit zunächst ebenfalls Batavia. Geographie. Der 1932 errichtete Abschlussdeich trennt das IJsselmeer von der Nordsee Das Sturmflutwehr Oosterscheldekering ist Teil der Deltawerke Ungefähr die Hälfte des Landes liegt weniger als einen Meter über, rund ein Viertel des Landes unterhalb des Meeresspiegels (gemessen bei Amsterdam). Die flachen Gebiete werden in der Regel durch Deiche vor Sturmfluten geschützt, die insgesamt eine Länge von etwa 3.000 km haben. Der höchste Punkt der Niederlande ist mit 877 Metern der Mount Scenery auf der Karibikinsel Saba. Der höchste Punkt des Festlandes, der Vaalserberg im äußersten Süden, in der Provinz Limburg im Dreiländereck zu Deutschland und Belgien, befindet sich 322,5 m über dem Amsterdamer Pegel. Teile der Niederlande, wie zum Beispiel fast die gesamte Provinz Flevoland, wurden durch Landgewinnung dem Meer abgewonnen. Sie werden als Polder (an der deutschen Nordseeküste Koog oder Groden) bezeichnet. Ungefähr ein Fünftel der Landesfläche ist mit Wasser bedeckt, wovon das IJsselmeer den größten Teil ausmacht, eine ehemalige Bucht der Nordsee namens Zuiderzee, die 1932 durch einen 29 km langen Abschlussdeich eingepoldert wurde. Die wichtigsten Flüsse der Niederlande ("de grote rivieren" – die großen Flüsse) sind Rhein, Maas und Schelde. Sie teilen das Land in einen Norden und einen Süden und finden sich wieder im mehr oder weniger zusammenhängenden Rhein-Maas-Delta, der größten und zentralen Landschaft des Staates. Der Rheinstrom verzweigt sich erstmals in unmittelbarer Nähe der Grenze zu Nordrhein-Westfalen. Der Name „Rhein“ geht im Delta bemerkenswerterweise auf weniger wichtige Deltaarme über. Der Hauptstrom des Rheinsystems heißt im Delta anfangs Waal, später Merwede, dann Noord, schließlich Neue Maas. Weitere große Deltaströme sind Nederrijn, Lek und IJssel. Die Maas mündete früher bei Gorinchem in die Waal, seit 1904 ist sie jedoch aufgrund künstlicher Verlegung der Maasmündung mit dem Rheinsystem eigentlich nicht mehr verbunden und fließt über Bergse Maas und Amer in die ehemalige Meeresbucht "Hollands Diep" („Holländische Tiefe“). Von der Schelde liegt lediglich ihr Mündungsbereich nördlich des belgischen Antwerpen in den Niederlanden. Die Hauptwindrichtung ist Südwest, daraus resultiert ein gemäßigtes maritimes Klima mit kühlen Sommern und milden Wintern. Besonders im Westen des Landes, an der Nordseeküste, ist das Klima stärker atlantisch geprägt (milde Winter, kühle Sommer). Nach Osten hin nimmt der atlantische Einfluss etwas ab, sodass man in der Nähe der deutschen Grenze schon eher von subatlantischem Klima sprechen kann mit etwas kälteren Wintern (mild bis mäßig-kalt) und leicht wärmeren Sommern. Bevölkerung. Die Niederlande gehören mit etwa 400 Einwohnern pro Quadratkilometer Landfläche zu den am dichtesten besiedelten Flächenstaaten der Welt (zum Vergleich: weltweiter Durchschnitt 48, Irland 60, Deutschland 231, Nordrhein-Westfalen 528, Namibia 2,4). Im Jahr 2014 zählten die Niederlande 16.829.289 Einwohner, davon wohnte ungefähr die Hälfte in der "Randstad", dem dicht besiedelten Westen des Landes. Die Amtssprache im gesamten Staat ist die niederländische Sprache (Standardniederländisch), die aus niederfränkischen Mundarten in den Niederlanden (niederländische Dialekte) entstanden ist. In der Provinz Friesland ist zusätzlich das eng verwandte Friesisch Verwaltungssprache. In der südwestlichen Hälfte des Landes werden niederfränkische Mundarten gesprochen. Die Ortsdialekte des Südostens gehören zum Ripuarischen und im Nordosten zum Niedersächsischen. Niederfränkische, ripuarische und niedersächsische Mundarten werden im Dialektkontinuum staatsübergreifend auch in Deutschland gesprochen, niederfränkische und ripuarische Dialekte auch in Belgien. In den überseeischen Reichsteilen (in der Karibik) ist Niederländisch Amtssprache, neben entweder Papiamento oder Englisch. Eine Abzweigung des Niederländischen, die inzwischen eine eigene Standardsprache darstellt, ist das Afrikaans in Südafrika. Die Niederländer sind statistisch das Volk mit den körperlich größten Menschen der Welt, im Durchschnitt 1,83 m (Männer) und 1,72 m (Frauen). Die durchschnittliche Lebenserwartung betrug im Jahr 2005 77 Jahre für Männer und 82 Jahre für Frauen. In den Niederlanden leben zwischen 6.000 und 10.000 Sinti und Roma sowie etwa 30.000 sogenannte "woonwagenbewoners". Sie werden abschätzig auch "kampers" genannt, bevorzugen selbst die Bezeichnung "reizigers". Sie leben ortsfest auf Standplätzen in stationären Caravans. Viele üben ambulante Erwerbstätigkeiten aus. Ganz überwiegend gehen sie auf verarmte niederländische Bauern, Landarbeiter und Torfstecher des 18. und 19. Jahrhunderts zurück. Ihre Zahl ist seit dem Ende des Zweiten Weltkriegs im Zusammenhang von Arbeitsmigration und Wohnkosten durch Zuzug aus der Mehrheitsbevölkerung erheblich angewachsen. Die gruppeninterne Sprache "Bargoens" ist eine niederländisch basierte Sondersprache, deutschem Rotwelsch oder Jenisch vergleichbar. In die Niederlande sind Menschen aus der ganzen Welt eingewandert. Abgesehen von vielen Zugezogenen aus den Nachbarstaaten (u. a. aus Deutschland, Belgien und England) leben heute viele Menschen aus anderen Erdteilen hier, wie u. a. aus Marokko und der Türkei, aus den ehemaligen Kronkolonien Indonesien, Suriname und aus der Karibik. Religion in den Niederlanden (2005)(laut "Geloven in het publieke domein" WRR) Religion. Die niederländische Bevölkerung gilt in Europa inzwischen als eine der am wenigsten religiös bzw. kirchlich gebundenen. Über die Hälfte der Bevölkerung ist keiner Religionsgemeinschaft zugehörig und nur 18 % glauben an einen Gott. Den Mitgliederzahlen der Kirchen zufolge ist die wichtigste Religion das Christentum: mit Katholizismus (23,7 %) und Protestantismus (15 %), davon 10 % in der größten protestantischen Kirche – PKN. Insgesamt waren Ende 2005 etwas weniger als 44 % der Niederländer Mitglied einer christlichen Kirche. Etwa 5,7 % der Bevölkerung gehörten dem Islam an, etwa 1,3 % waren Hindus und ebenfalls etwa 1 % waren Buddhisten. 48,4 % oder fast die Hälfte der Niederländer fühlten sich damals keiner Religionsgemeinschaft zugehörig (Stand: 31. Dezember 2005). Andere Zahlen sprechen von 907.000 (oder 5,5 %) Muslimen, 150.000 (oder 0,9 %) Hindus (vor allem aus Suriname), 170.000 (oder 1,0 %) Buddhisten und 18.000 (0,1 %) Juden sowie einer Mehrheit von 51 % der Konfessionslosen (Stand 31. Dezember 2010). a>, Provinz Südholland. 1572 wurde hier die Reformation eingeführt. Typisch für den Calvinismus ist die karge Inneneinrichtung, so sind etwa keine Heiligenbilder vorhanden. Die traditionell größte Bevölkerungsgruppe war jene der Protestanten. Durch Entkirchlichung im 20. Jahrhundert wird sie jedoch mittlerweile zahlenmäßig von den Konfessionslosen und auch den Katholiken übertroffen. Die Protestanten sind in den Niederlanden überwiegend Calvinisten, nach dem vor allem in Genf wirkenden französischen Reformator im 16. Jahrhundert, Johannes Calvin. Die Niederdeutsch-Reformierte Kirche "(Nederduits Gereformeerde Kerk)", die 1571 in Emden gegründet wurde, gilt als „Urkirche“ der Reformierten in den Niederlanden. Heute ist der Calvinismus institutionell mit den Lutheranern in der Protestantischen Kirche in den Niederlanden vereinigt (Unierte Kirche). Im 19. Jahrhundert bildeten sich zwei unterschiedliche calvinistische Richtungen in den Niederlanden heraus, die gemäßigteren und zahlenmäßig stärkeren "hervormden" und die strenggläubigen "gereformeerden". Beide Wörter bedeuten „reformiert“ und wurden ursprünglich unterschiedslos verwendet. Im Deutschen kann man den Unterschied nicht wiedergeben, daher liest man für die "gereformeerden" manchmal „altreformiert“ (obwohl es organisatorisch gesehen die jüngere Richtung ist, eine Abspaltung der "Nederlands hervormde kerk") oder „streng-reformiert“ bzw. „streng-calvinistisch“. Religionsverhältnisse in den Niederlanden im Jahr 1849 Andere christliche Kirchen sind deutlich kleiner. Sie haben jeweils weniger als ein Prozent der Gesamtbevölkerung als Mitglieder. Zu diesen gehören verschiedene evangelische Freikirchen wie die „befreiten“ Reformierten oder Baptisten und Mennoniten (Doopsgezinde). Während der Reformation waren die Niederlande eines der Zentren der Täuferbewegung (siehe Menno Simons). Weiterhin gibt es die im 18. Jahrhundert entstandene Altkatholische Kirche der Niederlande mit dem Sitz des Erzbischofs in Utrecht, von der die nach dem I. Vatikanischen Konzil entstandenen Alt-Katholischen Kirchen abstammen. Insgesamt (Katholiken, Protestanten und Orthodoxe) lebten Ende 2010 6.861.000 Christen (oder 41,3 %) in den Niederlanden. Der Norden und der Westen des Landes waren traditionell protestantisch, während im Süden und Osten die Katholiken die Bevölkerungsmehrheit stellten und teilweise noch stellen. In der Mitte des Landes gibt es einen sogenannten Bibelgürtel "(Bijbelgordel)" mit erhöhtem Anteil von "gereformeerden". Noch immer stellen Katholiken die Mehrheit der Bevölkerung in den meisten Gebieten südlich dieses Bibelgürtels dar (68 % in Limburg). Nördlich und westlich des Bibelgürtels sind die Konfessionslosen deutlich in der Mehrheit. Eine Kirchensteuer wird in den Niederlanden nicht erhoben. Der König ist reformierter Konfession "(hervormden)". Wegen der synodalen Organisation calvinistischer Kirchen hat der Monarch allerdings keine formale Führungsrolle in der Niederländisch-reformierten Kirche inne, wie sie früher bei lutherischen Landesherren in Deutschland und Skandinavien anzutreffen war. Mittelalter und frühe Neuzeit. a>, Gründer der Niederlande (gemalt von Adriaen Thomasz Key, um 1575) Nach der Aufteilung des Frankenreiches gehörten die niederen Lande zum ostfränkischen Königreich "(Regnum Teutonicum)" und danach zum Heiligen Römischen Reich. Unter Kaiser Karl V., der zugleich spanischer König war, war das Land in siebzehn Provinzen aufgeteilt und umfasste auch das heutige Belgien (mit Ausnahme des Fürstbistums Lüttich) und Teile Nordfrankreichs und Westdeutschlands. Unter dem Nachfolger Karls, Philipp II., kam es von 1566 an zu einer Serie von Aufständen. Diese hatten religiöse, politische und wirtschaftliche Ursachen. Philipp II. entsandte den Herzog von Alba in die Niederlande und versuchte, den Aufstand zu unterdrücken. Doch diese harte Politik bewirkte das Gegenteil: 1572 schlugen sich fast alle Städte der Provinz Holland auf die Seite von Wilhelm von Oranien, der den Widerstand gegen Alba anführte. In den nächsten Jahren schlossen sich auch die anderen niederländischen Provinzen diesem Aufstand an. Wilhelm von Oraniens Ideal einer friedlichen Koexistenz der Konfessionen zerbrach jedoch rasch an den Realitäten. Der Graben zwischen spanientreuen Katholiken und radikalen Calvinisten war zu tief aufgerissen und führte dazu, dass sich die calvinistischen Provinzen Holland, Zeeland und Utrecht 1579 zu einem Verteidigungsbündnis zusammenschlossen, der Utrechter Union. Dieser Vertrag wurde zur Gründungsurkunde eines neuen Staates, der Republik der Vereinigten Niederlande. 1581 taten die Generalstaaten – die allgemeine Ständeversammlung – den letzten Schritt und erklärten ihre Unabhängigkeit von der spanischen Krone. In dieser Abschwörungsakte wurde erstmals in der Geschichte überhaupt ein von Gott inthronisierter König für abgesetzt erklärt. Erst nach einem Achtzigjährigen Krieg wurde die Unabhängigkeit der Niederlande von Spanien im Westfälischen Frieden am 15. Mai 1648 anerkannt. Dieses Datum gilt als Geburtstag der heutigen Niederlande, die sich gleichzeitig mit der Schweiz vom Reich trennten. Die südlichen Niederlande – das heutige Belgien – blieben hingegen bei Spanien, so dass die Niederlande fortan geteilt waren. Republik der Sieben Vereinigten Provinzen. In der Folge wuchsen die Niederlande als Republik der Sieben Vereinigten Provinzen zu einer der größten See- und Wirtschaftsmächte des 17. Jahrhunderts heran. Während dieser Zeit wurden Handelsposten auf der ganzen Welt errichtet. Dies ging jedoch nicht vom Staat aus, sondern von den beiden ersten Aktiengesellschaften der Geschichte, der Niederländischen Ostindien-Kompanie (VOC) und der Niederländischen Westindien-Kompanie (WIC). Bekannt ist die Gründung von Neu Amsterdam "(Nieuw Amsterdam)," welches später in New York umbenannt wurde. In Asien schufen die Niederländer ihr Kolonialreich Niederländisch-Indien "(Nederlands-Indië)", das heutige Indonesien, das im Dezember 1949 unabhängig wurde. Auch im Nordosten Südamerikas gewannen die Niederlande Kolonien. Suriname wurde 1975 unabhängig. Bei den Niederlanden verblieben nur noch wenige Inseln in der Karibik. Napoleonische Zeit und 19. Jahrhundert. 1795 wurde mit französischer Unterstützung die Batavische Republik gegründet (benannt nach dem germanischen Stamm der Bataver, der das Gebiet zwischen Rhein und Maas zuerst besiedelt hatte); 1806 machte der französische Kaiser Napoleon I. daraus das Königreich Holland. König wurde Louis-Napoléon Bonaparte, ein Bruder des Kaisers. Kaiser Napoleon l. war nicht zufrieden damit, wie sein Bruder das neue Königreich verwaltete. Im Juli 1810 löste er deshalb das Königreich Holland auf. Die Niederlande wurden dem napoleonischen Frankreich einverleibt. Die Niederlande erlangten ihre Unabhängigkeit im Jahre 1813 zurück. Wilhelm I. aus dem Haus Oranien-Nassau wurde souveräner Fürst der Niederlande; 1815 wurde er König. Der Wiener Kongress fügte 1815 die südlichen Niederlande, das heutige Belgien, dem Königreich hinzu. Man beabsichtigte damit, dass Frankreich in Zukunft im Norden von einem starken Staat begrenzt werde. Die damals verabschiedete Verfassung der Niederlande gilt heute noch, wenn auch mit zahlreichen Änderungen. Die wichtigste, von 1848, führte die Ministerverantwortlichkeit ein und ebnete damit den Weg zum parlamentarischen System. Der Wiener Kongress erhob außerdem das Herzogtum Luxemburg zum Großherzogtum Luxemburg und sprach Luxemburg Wilhelm I. persönlich zu, als Entschädigung für den Verlust seiner Gebiete in Deutschland (Nassau-Dillenburg, Siegen, Hadamar und Diez). Die südlichen Niederlande erlangten nach der belgischen Revolution von 1830 ihre Unabhängigkeit, die allerdings erst 1839 von Wilhelm I. anerkannt wurde. Der niederländische König war seit 1815 auch Großherzog von Luxemburg, wo die Lex Salica kein weibliches Staatsoberhaupt zuließ. Als Wilhelm III. bei seinem Tod 1890 nur eine Tochter (Königin Wilhelmina) hinterließ – seine Söhne waren verstorben –, ging der Luxemburger Thron auf eine andere Erbfolgelinie im Haus Nassau über und Wilhelms Vetter Adolf von Nassau übernahm dort die Regierung. 20. Jahrhundert. Die Niederlande blieben im Ersten Weltkrieg offiziell neutral und konnten sich auch aus dem Krieg heraushalten. Sie hielten ihre Truppen aber dennoch bis zum Kriegsende mobilisiert und hatten überdies mit einer großen Flüchtlingswelle aus dem von Deutschland besetzten Belgien zu tun. Nach dem Ersten Weltkrieg gewährten die Niederlande dem bisherigen Deutschen Kaiser Wilhelm II. Exil. Rotterdam nach dem deutschen Luftangriff, Mai 1940 Auch beim Ausbruch des Zweiten Weltkriegs versuchte die niederländische Regierung zunächst, sich neutral zu verhalten. Hitler jedoch befahl der Wehrmacht die Okkupation der Niederlande, Belgiens und Luxemburgs, damit diese Frankreich unter Umgehung der „Maginot-Linie“ von Norden her einnehmen könne. Nach fünftägigem Kampf zwangen die deutschen Truppen am Abend des 15. Mai 1940 die Niederlande zur Aufgabe. Ausschlaggebend war hierfür das Bombardement von Rotterdam. Die königliche Familie war zu diesem Zeitpunkt schon nach England geflohen. Das Land wurde von da an bis April 1945 von der Wehrmacht besetzt gehalten. Die Nationaal-Socialistische Beweging (NSB) unter Anton Adriaan Mussert arbeitete mit den deutschen Besatzungstruppen zusammen, erlangte aber keinen relevanten Einfluss in der Bevölkerung oder im Besatzungsapparat. Jedoch stellten die Niederlande mit 60.000 Freiwilligen ein bedeutendes Kontingent an ausländischen Freiwilligen in der Waffen-SS. Nach der Invasion kam es zur Judenverfolgung durch die deutschen Besatzer. Der Februarstreik 1941 gegen die Deportationen wurde blutig niedergeschlagen. Von den zu Beginn des Krieges 160.000 jüdischen Niederländern und 20.000 jüdischen Flüchtlingen lebten am Ende des Krieges nur noch etwa 30.000. Symbol für die Judenverfolgung ist der Fall der Anne Frank. Der Deportation in das KZ Auschwitz-Birkenau fielen auch Roma und Sinti "(Manoesje)" aus den Niederlanden zum Opfer. Niederländische Militärkolonne während der ersten „Polizeiaktion“ in Niederländisch-Indien, Sommer 1947 Am 11. Januar 1942 begann die japanische Invasion von Niederländisch-Indien. Die Niederländer kapitulierten am 1. März 1942. Der südliche Teil der Niederlande wurde in der zweiten Hälfte des Jahres 1944 von den vorrückenden Alliierten befreit; der Norden des Landes erst bei Kriegsende. Sofort nach der japanischen Kapitulation riefen die indonesischen Nationalisten am 17. August 1945 die Unabhängigkeit aus. Erst nach militärischen Auseinandersetzungen, „Polizeiaktionen“ genannt, wurde Indonesien am 27. Dezember 1949 formal in die Unabhängigkeit entlassen. Bis 1954 bestand noch eine lose Niederländisch-Indonesische Union. Bei den Niederlanden verblieb bis 1962 der Westteil der Insel Neu-Guinea. Von 1949 bis 1963 waren im Rahmen der Niederländischen Annexionspläne nach dem Zweiten Weltkrieg westdeutsche Gemeinden aus dem Landkreis Geilenkirchen-Heinsberg (Selfkant) und die Gemeinde Elten (bei Emmerich) unter niederländische Verwaltung gestellt. Bestrebungen der niederländischen Regierung, Teile Niedersachsens sowie des westlichen Münster- und Rheinlandes an die Niederlande anzugliedern (Bakker-Schut-Plan), konnten sich nicht durchsetzen. Die Erfahrung der Besatzungszeit bewirkte eine Neuorientierung der niederländischen Außenpolitik. Da die Neutralitätspolitik gescheitert war, schlossen sich die Niederlande der NATO an und gründeten 1952 zusammen mit Deutschland, Frankreich, Belgien, Luxemburg und Italien die Europäische Gemeinschaft für Kohle und Stahl (und damit die spätere Europäische Union). Allerdings strebten sie dabei eine Wirtschaftsgemeinschaft an und keine politische Union. Zum einen fürchteten sie, die Politik eines so großen Staatengebildes als kleines Land nicht entscheidend mitbestimmen zu können, zum anderen betrachteten sie eine von Frankreich und Deutschland dominierte EU als potenzielle Bedrohung ihres engen Verhältnisses zu den Vereinigten Staaten. Traditionell sind die Niederlande eher atlantisch als zum Kontinent hin orientiert. Die Niederlande waren auch Gründungsmitglied der Benelux-Wirtschaftsunion (seit 1944 geplant, am 3. Februar 1958 festgelegt und am 1. November 1960 in Kraft getreten). Die ersten Jahrzehnte der Nachkriegszeit waren von einem ähnlichen Wirtschaftswunder geprägt wie in Deutschland. Schon 1950 lag das Nationaleinkommen höher als vor dem Zweiten Weltkrieg. Die Niederlande zählten damals zu den zehn größten Wirtschaftsmächten der Welt mit international operierenden Konzernen wie Royal Dutch Shell, Unilever und Philips. Dies ermöglichte den Aufbau eines großzügigen Sozialstaates unter Führung von Ministerpräsident Willem Drees. Gesellschaftspolitisch bildeten vor allem die 1960er Jahre eine tiefe Zäsur. Die „Versäulung“, also die strikte Trennung der gesellschaftlichen Milieus von Protestanten, Katholiken, Liberalen und Sozialisten, begann sich aufzulösen. Mitgliederstärke und Einfluss der Kirchen schwanden. Während dieser Umbruch in Ländern wie Deutschland und Frankreich mit schweren gesellschaftlichen Erschütterungen einherging, vollzog er sich in den Niederlanden fast geräuschlos. So gab es keine Studentenunruhen – schon 1970 verabschiedete das Parlament in Den Haag ein Hochschulgesetz, das den Studentenvertretern weitgehende Mitbestimmungsrechte einräumte. Das Kabinett des sozialdemokratischen Ministerpräsidenten Joop den Uyl wählte sich von 1973 bis 1977 das Motto „Die Fantasie an die Macht“. „Die Art, wie die Vertreter der Obrigkeit mit diesen kulturellen Veränderungen umgegangen sind, nötigt Respekt ab“, urteilt der Historiker James C. Kennedy. Das zuvor von sittenstrengem Calvinismus geprägte Land wurde nun zu einem Vorreiter von Liberalismus und gesellschaftlichem Pluralismus. So gehörten die Niederlande zu den ersten Staaten, die den Konsum kleiner Mengen von „weichen Drogen“ wie Haschisch zuließen. Das Verhältnis zwischen Regierung und Opposition, aber auch zwischen Arbeitgebern und Arbeitnehmern war von einer Konsenskultur geprägt, die mit dem Begriff Poldermodell bezeichnet wird. Dieses Modell galt Ende der 1990er Jahre als niederländische Variante des von Bundeskanzler Gerhard Schröder und dem britischen Premierminister Tony Blair propagierten Dritten Weges. Die "Süddeutsche Zeitung" bezeichnete die Niederlande 1993 als „das fortschrittlichste Land Europas“. 21. Jahrhundert. Trotz aller wirtschaftlicher Erfolge war in der niederländischen Gesellschaft zu Beginn des 21. Jahrhunderts ein „untergründiger Strom der Unzufriedenheit“ (Christoph Driessen) wahrnehmbar. Die Gründe dafür waren vielfältig, hatten aber auch mit einem ausgeprägten Hang zur politischen Korrektheit zu tun. Viele Bürger hatten das Gefühl, dass bestimmte Themen wie Ausländerkriminalität oder mangelnde Integration von der politischen Elite nicht offen angesprochen wurden. Das Ausmaß der Unzufriedenheit wurde schlagartig deutlich, als Ende 2001 unter dem Eindruck der Terroranschläge am 11. September ein Politiker völligen neuen Typs die Bühne betrat: der charismatische Rechtspopulist Pim Fortuyn. Binnen weniger Monate stieg seine Bewegung aus dem Nichts zur größten Partei in den Meinungsumfragen auf. Doch dann wurde Fortuyn am 6. Mai 2002, neun Tage vor der Parlamentswahl, von einem fanatischen Tierschützer erschossen. Zwei Jahre später wurden die Niederlande von einem weiteren politischen Mord erschüttert: Am 2. November 2004 schoss ein 26-jähriger gebürtiger Amsterdamer marokkanischer Herkunft den islamkritischen Regisseur Theo van Gogh nieder. Die Morde führten zu heftigen Debatten über das Selbstverständnis der niederländischen Gesellschaft. Insgesamt brachte das 21. Jahrhundert dem Land einen Rechtsruck, weil die Themen von Fortuyn und seinem rechtspopulistischen Nachfolger Geert Wilders auch von anderen Parteien aufgegriffen wurden. Seit April 2001 sind in den Niederlanden gleichgeschlechtliche Ehen möglich. Damit waren die Niederlande der weltweit erste Staat, der über den Status der „eingetragenen Lebenspartnerschaft“ hinauskam und einen rechtlichen Rahmen für homosexuelle Beziehungen einrichtete. Die Niederländer wiesen am 1. Juni 2005 mit einer großen Mehrheit von 61,6 % den Vertrag über eine Verfassung für Europa zurück. Verfassung und Politik. Sitzverteilung nach den Wahlen im Jahre 2010 Die Niederlande sind eine parlamentarische Monarchie. Das Staatsoberhaupt ist der Verfassung zufolge der König, zurzeit König Willem-Alexander. Er ernennt offiziell den Ministerpräsidenten und die Minister, zusammen formen sie die Regierung. Das Parlament, die Generalstaaten "(Staten-Generaal)", besteht aus zwei Kammern. Die erste wird von den Abgeordneten der Provinzparlamente, die zweite von den niederländischen Bürgern nach Listen gewählt. Damit ist die Zweite Kammer "(Tweede Kamer)" die wichtigere; sie entspricht dem deutschen Bundestag oder dem Nationalrat in Österreich und der Schweiz. Formell hat das Parlament nicht über die Zusammensetzung der Regierung zu bestimmen, tatsächlich aber ernennt der König die Minister nach Konsultation der Fraktionen. In der Zweiten Kammer mit 150 Sitzen sind derzeit elf Parteien vertreten. Die vier größten Fraktionen stellen die rechtsliberale VVD, die sozialdemokratische PvdA, die rechtspopulistische PVV und die sozialistische SP. Der christdemokratische CDA war 2006 noch stärkste Kraft im Parlament geworden und stellte von 2002 bis 2010 mit Jan Peter Balkenende den Ministerpräsidenten. Bei der Wahl im Juni 2010 büßte diese Partei durch schwere Verluste ihre Führungsrolle ein. Nach fast viermonatigen Koalitionsgesprächen wurde am 2. Oktober 2010 durch eine Abstimmung auf dem Sonderparteitag der Christdemokraten die letzte Hürde beseitigt, um eine durch die PVV „geduldete“ Koalition von VVD und CDA zu bilden. Der Rechtspopulist Geert Wilders bekam mit seiner Partei PVV dadurch Einfluss auf die niederländische Regierung, ohne ihr selbst anzugehören. Gemäß der Koalitionsvereinbarung vom 30. September 2010 wurde der VVD-Partei- und Fraktionsvorsitzende Mark Rutte am 14. Oktober 2010 neuer Ministerpräsident. Am 23. April 2012 trat er mit seinem Kabinett nach gescheiterten Verhandlungen zu Sparplänen zurück. Ein neues Parlament wurde am 12. September 2012 gewählt. Mark Rutte, dessen VVD wieder als stärkste Kraft aus dieser Wahl hervorging, wurde erneut Ministerpräsident, sein Koalitionspartner ist nun die PvdA. Polizei. Die zentral organisierte niederländische Polizei ("Nationale Politie") beschäftigt etwa 63.000 Bedienstete und unterteilt sich seit einer Reform im Jahr 2013 in eine landesweit eingesetzte nationale Einheit, ein Polizeidienstzentrum sowie in zehn regionale Polizeibezirke. Die niederländische Gendarmerie namens "Koninklijke Marechaussee" mit ungefähr 6.800 Mitarbeitern gehört organisatorisch als eigene Teilstreitkraft zu den niederländischen Streitkräften. Sie hat Aufgaben wie den Grenzschutz, die Bewachung der Flughäfen und den Personenschutz für die Königsfamilie. Militär. Die niederländischen Streitkräfte sind formell eine Institution des Königreichs der Niederlande, nicht (nur) des Landesteils Niederlande. Da aber laut Verfassung die Regierung der Niederlande den Oberbefehl über die Streitkräfte innehat, werden sie faktisch dem Landesteil Niederlande zugerechnet. Die allgemeine Wehrpflicht wurde 1996 auf unbestimmte Zeit ausgesetzt. Die Niederlande verfügen damit über eine Berufsarmee. Die Streitkräfte umfassen insgesamt 53.130 Personen, davon entfallen auf das Heer 23.150, auf die Luftwaffe 11.050 und auf die Marine 12.130 Soldaten. Daneben existiert noch die Koninklijke Marechaussee, seit 1998 als eigenständiger Teil der Streitkräfte. Die Militärausgaben betragen 1,6 % des BIP (zum Vergleich: Deutschland 1,5 %, Vereinigte Staaten 3,4 %). Das niederländische Heer "(Koninklijke Landmacht)" ist auch durch das 1. Deutsch-Niederländische Korps mit der deutschen Bundeswehr verbunden. a> in Den Haag, Sitz des Internationalen Gerichtshofes Internationales. Das Land stimulierte die Einführung des Euros im Jahre 1999 (Vertrag von Maastricht) als Währungseinheit der EU. Seit dem 1. Januar 2002 ist der Euro die offizielle Währungseinheit, der den Gulden ablöste. Provinzen und Gemeinden. Die Niederlande sind ein dezentralisierter Einheitsstaat. Unterhalb der nationalen Ebene gibt es die Provinzen (niederländisch "provincies"). 1579 gab es zunächst sieben Provinzen. Später kamen die sogenannten Generalitätslande (niederländisch "Generaliteitslanden") als Provinzen Nord-Brabant und Limburg hinzu. Drenthe wurde ebenfalls eine eigene Provinz, und die dominierende Provinz Holland wurde 1840 in Nord-Holland und Süd-Holland aufgespalten. Erst 1986 wurde Flevoland als jüngste Provinz gegründet, damit sind es jetzt zwölf. Es wird darüber diskutiert, beispielsweise Rotterdam als "stadsprovincie" auszugliedern oder die drei Nordprovinzen zusammenzulegen. Das Recht dazu hätte der niederländische Innenminister. Allgemein aber sind die Provinzen sehr alt und traditionsreich, sodass mit einer Änderung in naher Zeit nicht zu rechnen ist. Die Provinzen wiederum gliedern sich in 393 Gemeinden ("gemeenten"; Stand: 1. Januar 2015). Eine Einteilung in Landkreise unterhalb der Provinzebene gibt es nicht. Die 393 Gemeinden gehören jeweils einer der zwölf Provinzen an sowie einer der 25 Polizeiregionen. Ferner gibt es noch die "waterschappen", die sich mit Deichschutz und Wasserwirtschaft beschäftigen. Sogenannte Plusregios (niederländisch: "plusregio’s") sind eine Zusammenarbeitsform, die manchmal eine Gruppe von Gemeinden für sich gewählt hat. Beispiele sind das "Stadsgewest Haaglanden", die "Stadsregio Arnhem-Nijmegen" und die "Parkstad Limburg". 2006 gab es acht solcher Plusregios. In den Gemeinden können Stadtbezirke oder räumlich getrennte Städte und Dörfer liegen: die Stadt Amsterdam beispielsweise ist eine Gemeinde mit sieben Stadtbezirken, Oude IJsselstreek ist eine Gemeinde, die eine Stadt sowie mehrere Dörfer und Ortschaften beinhaltet. Die Provinzen haben jeweils ein Parlament "(Provinciale Staten)" und eine Regierung "(College van Gedeputeerde Staten)". Das "College" besteht aus dem Kommissar des Königs "(Commissaris van de Koning)" und gewählten Vertretern des Parlamentes der Provinz. Ähnlich gibt es in den Gemeinden einen Gemeinderat und einen Gemeindevorstand "(College van burgemeester en wethouders)". Der Gemeindevorstand besteht aus dem Bürgermeister und gewählten Vertretern des Gemeinderates. Die Kommissare des Königs und die Bürgermeister werden mit königlichem Beschluss von der Regierung ernannt, im Allgemeinen auf Vorschlag der Staten oder des Gemeinderates. Bei den Provinzen und großen Städten wird die politische Machtverteilung im nationalen Parlament berücksichtigt. Viele Bürgermeister machen eine Karriere im Bürgermeisterberuf, in der sie nacheinander in unterschiedlichen Gemeinden Dienst tun (für eine jeweils sechsjährige Periode, die erneuert werden kann). Ein Bürgermeister ist also nicht der gewählte Vertreter des Gemeinderates oder der lokalen Bevölkerung. Seit Jahren gibt es Initiativen, etwa durch Referenden die Einwohner der Gemeinde an der Auswahl des Bürgermeisters zu beteiligen. 2005 scheiterte ein Gesetzentwurf zur Direktwahl. Allgemeines. Die Niederlande haben ein gut funktionierendes, eher liberales Wirtschaftssystem. Seit den 1980er Jahren hat die Regierung ihre ökonomischen Eingriffe weitgehend zurückgenommen. Mit Zustimmung von Gewerkschaften, Arbeitgebern und Staat erfolgte im Land eine Lohnmäßigung. Die Arbeitslosenquote ist mit 6,8 % (Stand 2014) unter dem europäischen Durchschnitt. Lange vor seinen europäischen Nachbarn sorgte das Land für einen ausgewogenen Staatshaushalt und bekämpfte erfolgreich die Stagnation im Arbeitsmarkt. Beim produzierenden Gewerbe dominieren Lebensmittel (Unilever, Heineken), chemische Industrie (AkzoNobel, DSM), Erdölraffinerie (Shell) und die Herstellung von Elektrogeräten (Philips, TomTom, Océ) sowie LKW (DAF). Dienstleistungen sind außergewöhnlich wichtig. Die großen Finanzdienstleister (ING, Fortis, AEGON), die Welthäfen Rotterdam und Amsterdam und der Flughafen Schiphol (Amsterdam Airport) gehören zu den fünf größten Dienstleistern in Europa. Die hoch technologisierte Landwirtschaft ist außerordentlich produktiv: neben Getreide-, Gemüse-, Früchte- und Schnittblumenanbau – die Tulpenzüchtung beeinflusste sogar die Geschichte des Landes – gibt es noch Milchviehhaltung in großem Maßstab. Letztere liefert die Grundlage für Käse als wichtiges Exportprodukt. Die niederländische Landwirtschaft beschäftigt nur 2 % der Arbeitnehmer, trägt jedoch erheblich zum Export bei. Die Niederlande sind nach den USA und Frankreich der weltweit drittgrößte Exporteur landwirtschaftlicher Erzeugnisse. Als Mitbegründer der Euro-Zone wurde in den Niederlanden für Bankgeschäfte am 1. Januar 1999 die vorherige Währung, der Gulden, durch den Euro ergänzt. Drei Jahre später, am 1. Januar 2002, ersetzten die Euromünzen und -banknoten für die Konsumenten den Gulden als Zahlungsmittel. Auf der nationalen Rückseite der Münzen war bisher ausnahmslos Königin Beatrix abgebildet. Im Vergleich mit dem Bruttoinlandsprodukt der Europäischen Union ausgedrückt in Kaufkraftstandards erreichen die Niederlande einen Index von 126 (EU-25: 100) im Jahr 2005. Die Niederlande haben mehrere Doppelbesteuerungsabkommen mit Deutschland abgeschlossen. Das Kurhaus am Strand von Scheveningen Naturressourcen. Die Niederlande verfügen über Erdgaslager, aus denen nahe Groningen sowie in der südlichen Nordsee in großem Maßstab gefördert wird. 1996 wurden 75,8 Mrd. m³ (nach BP) gefördert. Damit stehen die Niederlande im Ländervergleich bei der Erdgasförderung auf Platz fünf, nach Russland (561,1 Mrd. m³), USA (546,9 Mrd. m³), Kanada (153,0 Mrd. m³) und Großbritannien (84,6 Mrd. m³). Weiterhin gibt es an der emsländischen Grenze kleinere Erdölreserven und größere Salzlagerstätten bei Delfzijl und Hengelo. Abgesehen von Torf (u. a. im Bourtanger Moor) verfügen die Niederlande über keine weiteren nennenswerten Bodenschätze. Staatsausgaben. Der Staatshaushalt umfasste 2009 Ausgaben von umgerechnet 410 Milliarden US-Dollar, dem standen Einnahmen von umgerechnet 368 Milliarden US-Dollar gegenüber. Daraus ergibt sich ein Haushaltsdefizit in Höhe von 5,3 % des Bruttoinlandsproduktes. Die Staatsverschuldung betrug 2009 497 Milliarden US-Dollar oder 62,2 % des Bruttoinlandsproduktes. Verkehrswesen. Die Niederlande besitzen ein gut ausgebautes Straßennetz mit einer Gesamtlänge von 116.500 Kilometern. Das Schienennetz hat eine Gesamtlänge von 2808 Kilometern und ist das am dichtesten befahrene Schienennetz Europas. Das wichtigste Verkehrsunternehmen ist die niederländische Eisenbahngesellschaft "Nederlandse Spoorwegen", kurz NS. Vom gesamten Transport der Niederlande werden 44 % per Straße und 30,5 % per Schiene verfrachtet. Die Niederländer benutzen meistens die Brücken vom Typ Holländerbrücke mit ihrem hoch aufgehängten Gegengewicht. Aber auch einige Schubbrücken, Drehbrücken und Hebebrücken sind noch aktiv und bei Kanal- und Gracht-Querungen im Einsatz. Die Flüsse Rhein, Maas und Schelde, welche aus dem europäischen Ausland durch die Niederlande in die Nordsee fließen, machen die Niederlande zu einem Knotenpunkt der europäischen Binnenschifffahrt. Der Hafen von Rotterdam war jahrzehntelang der größte Hafen der Welt. Diese Position verlor er jedoch im Jahre 2004 an den Hafen von Shanghai. Der Rotterdamer Hafen bleibt jedoch weiterhin der größte Hafen Europas. Weitere wichtige Hafenstädte innerhalb der Niederlande sind Amsterdam, Eemshaven, Vlissingen/Terneuzen. Die Niederlande haben zwei wichtige internationale Flughäfen: Schiphol und Rotterdam-Den Haag. Schiphol ist der größte Flughafen in den Niederlanden und spielt auch eine wichtige internationale Rolle. Er zählt zu den größten Flughäfen in Europa und ist, was die Anzahl der Passagiere betrifft, auf Rang 13 der größten Flughäfen weltweit. In den Niederlanden existieren drei Städte mit einem U-Bahn-System, nämlich Rotterdam, Den Haag und Amsterdam. Alle Straßenbahnen in den Niederlanden, etwa in Amsterdam, Den Haag-Zoetermeer (Zoetermeer: RandstadRail) oder Rotterdam, verwenden die Normalspur. Städtische Busse dürfen offiziell den Gleiskörper mit straßenähnlichem Belag mitbenutzen, um nicht im Verkehr steckenzubleiben. In den Niederlanden ist zudem das Fahrrad "(fiets)" weit verbreitet. Den Radlern stehen oft eigene Verkehrsstreifen oder ein gesondertes Radwegenetz zur Verfügung. Mit durchschnittlich 43 Verkehrstoten pro eine Million Einwohner im Jahr ist der Verkehr in den Niederlanden der sicherste im gesamten EU-Raum. Feiertage. In den Niederlanden gibt es keinen eigentlichen Nationalfeiertag, dafür den Koningsdag. Im Vergleich zu fast allen anderen europäischen Ländern ist der 1. Mai kein Feiertag, und das Ende des Zweiten Weltkriegs wird am 5. Mai (nicht am 8. Mai) begangen, da die deutschen Streitkräfte in den Niederlanden gesondert kapitulierten. a>, Amsterdam. Eines der renommiertesten Kunstmuseen der Welt Malerei und Kunst. Viele weltberühmte Maler waren Niederländer. Einer der bekanntesten frühen Künstler war Hieronymus Bosch. Die Blütezeit der Republik im 17. Jahrhundert, das sogenannte Goldene Zeitalter, brachte große Künstler wie Rembrandt van Rijn, Jan Vermeer, Frans Hals, Carel Fabritius, Gerard Dou, Paulus Potter, Jacob Izaaksoon van Ruisdael oder Jan Steen hervor. Im Goldenen Zeitalter arbeiteten in den Niederlanden circa 700 Maler, die jährlich etwa 70.000 Gemälde fertigstellten. Ein derartiger Gemäldeausstoß ist in der gesamten Kunstgeschichte beispiellos und wurde weder in der italienischen Renaissance noch im Frankreich zur Zeit des Impressionismus erreicht. Berühmte Maler späterer Epochen waren Vincent van Gogh und Piet Mondrian. M. C. Escher und Otto Heinrich Treumann waren bekannte Graphiker. Architektur. Die weltberühmten Mühlen von Kinderdijk Niederländische Architekten gaben wichtige Impulse für die Architektur des 20. Jahrhunderts. Hervorzuheben sind vor allem Hendrik Petrus Berlage und die Architekten der De-Stijl-Gruppe (Robert van ’t Hoff, Jacobus Johannes Pieter Oud, Gerrit Rietveld). Johannes Duiker war ein Vertreter des Neuen Bauens. Mart Stam baute in Deutschland am Neuen Frankfurt und an der Weissenhofsiedlung. Die sogenannte Amsterdamer Schule (Michel de Klerk, "Het Schip") leistete einen bemerkenswerten Beitrag zur expressionistischen Architektur. Auch nach dem Zweiten Weltkrieg traten innovative niederländische Architekten hervor. Aldo van Eyck und Herman Hertzberger prägten die Architekturströmung Strukturalismus. Piet Blom wurde durch seine eigenwilligen Baumhäuser bekannt. Unter den Gegenwartsarchitekten zählt Rem Koolhaas mit seinem Büro Office for Metropolitan Architecture zu den einflussreichsten Vertretern einer zeitgenössischen, auf urbanistischen Erfahrungen beruhenden Architekturrichtung (zeitweise zum Dekonstruktivismus zugeordnet), die weitere weltweit bekannte Büros wie MVRDV, Mecanoo, Erick van Egeraat, Neutelings-Riedijk beeinflussten (großenteils Schüler oder ehem. Mitarbeiter bei OMA). Niederländische Architektur hat seit den 1990er Jahren und immer noch fortdauernd einen erheblichen Einfluss auf die weltweite Architekturentwicklung genommen. Wissenschaft und Technologie. Aus den Niederlanden stammten bedeutende Wissenschaftler wie Erasmus von Rotterdam, Baruch Spinoza, Christiaan Huygens und Antoni van Leeuwenhoek. René Descartes verbrachte den Großteil seiner Schaffenszeit in den Niederlanden. Überhaupt fanden seit der frühen Neuzeit zahlreiche verfolgte Wissenschaftler in den Niederlanden Asyl und Wirkungsmöglichkeiten. Die moderne Soziologie verdankt ihrem niederländischen Begründer S. Rudolf Steinmetz bedeutende Anregungen. Für die Medizin der frühen Neuzeit waren die Bildungseinrichtungen in der Stadt Leiden (insbesondere die Universitätsbibliothek Leiden) ein relevantes Zentrum, von dem wichtige Impulse ausgingen. Heute gibt es 14 staatliche Universitäten in den Niederlanden und zahlreiche Hochschulen. In Noordwijk ist die Europäische Weltraumorganisation angesiedelt. Die Verwaltung der Top-Level-Domain der Niederlande, ".nl", übernimmt die Stichting Internet Domeinregistratie Nederland (SIDN) seit 1996 als Nachfolger des Centrum Wiskunde & Informatica. Das RIPE NCC hat seinen Sitz in Amsterdam. Literatur. Im „Goldenen Zeitalter“ ("De Gouden Eeuw") des 17. Jahrhunderts blühte neben der Malerei auch die Literatur, als bekannteste Vertreter wären Joost van den Vondel und Pieter Corneliszoon Hooft zu nennen. Anne Frank verfasste 1942 bis 1944 ihr weltbekanntes Tagebuch, während sie und ihre Familie in Amsterdam untergetaucht waren, um der Festnahme bzw. der Deportation in ein Vernichtungslager zu entgehen. Als die drei wichtigsten Autoren der zweiten Hälfte des 20. Jahrhunderts gelten Harry Mulisch ("Das Attentat, Die Entdeckung des Himmels", beide auch verfilmt), Willem Frederik Hermans ("Die Dunkelkammer des Damokles", auch verfilmt; "Nie mehr schlafen") und Gerard Reve ("Die Abende, Der vierte Mann", beide auch verfilmt). Zu den auch in Deutschland bekannteren zählen auch Maarten ’t Hart, Cees Nooteboom, Jan Wolkers und Hella Haasse. Musik. Eine hervorragende Strömung der Renaissance war die Niederländer Schule, die jedoch wesentlich von Flamen, Hennegauern und Franzosen getragen wurde. Das niederländische Musikleben war im Bereich der klassischen Musik lange Zeit nicht auf dem Niveau anderer europäischer Staaten organisiert. Erst Ende des 19. Jahrhunderts fand eine Professionalisierung statt und es bildeten sich zahlreiche Orchester und Kammerensembles. Bekanntester Violinist und Orchesterleiter ist seit etwa 1995 André Rieu. Wichtige niederländische Komponisten um 1800 waren beispielsweise der gebürtige Deutsche Johann Wilhelm Wilms sowie Carol Anton Fodor, die sich beide an der Wiener Klassik orientierten. Im 19. Jahrhundert dominierten lange Zeit von der deutschen Romantik beeinflusste Strömungen das Musikleben, u. a. repräsentiert durch Richard Hol. Bernard Zweers versuchte als erster eine spezifisch niederländische Nationalmusik zu entwickeln. Ihm folgten Julius Röntgen und Alphons Diepenbrock, mit denen die niederländische Musik den Anschluss an die internationale Musikentwicklung fand. Wichtige Komponisten im 20. Jahrhundert sind Willem Pijper, Matthijs Vermeulen, Louis Andriessen, Otto Ketting, Ton de Leeuw, Theo Loevendie, Misha Mengelberg, Tristan Keuris und Klaas de Vries (Liste niederländischer Komponisten klassischer Musik). Die wohl bekannteste niederländische Rockband Golden Earring hatte in den 1970er Jahren ihren größten Hit mit "Radar Love". Ebenfalls weltbekannt waren in den 1970er Jahren die Classic-Rock-Bands Ekseption um Rick van der Linden und Focus sowie Shocking Blue mit ihrem Hit "Venus". In den Niederlanden sind auch Eddie Van Halen und Alex Van Halen geboren, die Bandmitglieder der US-amerikanischen Hard Rock Band Van Halen sind. International bekannte niederländische Musiker sind zum Beispiel Herman van Veen, Robert Long, Nits, Candy Dulfer, Anouk Teeuwe, Ellen ten Damme und Tiësto. Das jährlich veranstaltete North Sea Jazz Festival in Ahoy Rotterdam (vorher Den Haag) gehört zu den wichtigsten Jazz-Ereignissen weltweit. Seit einigen Jahren ist "nederlandstalige muziek", Musik in der Landessprache, sehr erfolgreich. Nestor dieser Gattung ist Peter Koelewijn, der schon seit 50 Jahren Rock ’n’ Roll in seiner Muttersprache singt. Später kam Liedermacher Boudewijn de Groot auf. Am Anfang der achtziger Jahre kam ein kurzfristiger Kult der niederländischen Popmusik auf, deren wichtigsten Vertreter Doe Maar, Het Goede Doel und Frank Boeijen waren. Nach 1984 ging die Popularität dieser Gattung stark zurück, um sich zehn Jahre später wieder zu erholen, diesmal aber nicht nur für einige Jahre. Die berühmtesten Pop-/Rockbands der neuen Ära sind Bløf, die meistgespielte Band im niederländischen Radio der vergangenen Jahre, und Acda en de Munnik, ein Duo, das mit Kleinkunstprogrammen bekannt geworden ist. Noch höhere Plattenverkaufszahlen erzielen Schlagerkünstler, wie Marco Borsato, Jan Smit und Frans Bauer. Bekannte niederländische Rapper sind Ali B und Lange Frans. Darüber hinaus sind diverse Arten des Metals in den Niederlanden sehr beliebt. Bekannte niederländische Metalbands sind beispielsweise Heidevolk, Epica, Within Temptation, Delain, The Gathering oder After Forever. Seit den Neunzigern ist eine neue Musikrichtung in den Niederlanden entstanden, die sich in ganz Europa und Amerika immer größerer Beliebtheit erfreut: Hardcore Techno oder Gabber entstand in Rotterdam, Trance wanderte von Deutschland in die Niederlande und hat dort seine weltweit größte Popularität. Bekannte Vertreter sind Angerfist, Neophyte oder DJ Buzz Fuzz. Seit einigen Jahren sind auch die erweiterten Musikrichtungen Jumpstyle, Hardstyle und Speedcore sehr beliebt. Kabarett. Diese Kunstform hat einen sehr hohen Stellenwert bei den Bühnenkunsten in den Niederlanden und wird von der Bevölkerung sehr geschätzt (Redewendungen mit „grapje“ (Witzchen) durchsetzen vielfach die niederlandische Konversation). Großmeisters dieses Faches waren nach dem Zweiten Weltkrieg Wim Kan (politisches Kabarett), Wim Sonneveld, Toon Hermans („de grote drie“) und Jahrzehnte auch in Deutschland Rudi Carrell. Zeitungen und Zeitschriften. Die bedeutendsten Traditionszeitungen sind "De Telegraaf, AD, de Volkskrant, NRC Handelsblad" und "Trouw". Eine historisch wichtige überregionale Tageszeitung war "Het Parool", die später zu einer Amsterdamer Stadtzeitung umkonzipiert wurde. 1999 erschienen mit "metro" und "Sp!ts" die ersten Gratiszeitungen in den Niederlanden, mittlerweile sind "DAG" und "De Pers" hinzugekommen. Diese und das Internet haben den Traditionsblättern zum Teil erhebliche Marktanteile abgenommen. Mit "De Groene Amsterdammer, Elsevier, De Tijd, Vrij Nederland" erscheinen vier politische Wochenzeitschriften. Rundfunk. Wie in vielen europäischen Ländern, unterscheidet man auch in den Niederlanden die Fernsehlandschaft in öffentlich-rechtliche und private Fernsehsender. Zu den öffentlich-rechtlichen Sendern gehören NPO 1, NPO 2 und NPO 3 sowie für Niederländer im Ausland BVN, welche vom Nederlandse Publieke Omroep betrieben werden. Sie werden großteils über Steuern finanziert, teilweise jedoch noch durch das Mitgliedssystem: Ursprünglich waren die Rundfunksender von weltanschaulich orientierten Vereinen errichtet worden, wie das katholische oder das Arbeiterradio. In den Niederlanden gibt es einige Privatsender, z. B. RTL 4, RTL 5, SBS 6, RTL 7, RTL 8, NET 5 und Veronica. Marktführer ist in den Niederlanden die RTL Group mit RTL 4. Die ausländischen TV-Inhalte wie amerikanische Produktionen, welche einen Großteil des niederländischen Fernsehens ausmachen, werden nicht wie in Deutschland synchronisiert, sondern in Originalsprache ausgestrahlt und untertitelt. Sendungen für Kinder bilden durch ihre Synchronisationen eine Ausnahme. Sport. Fußball in den Niederlanden gilt als Nationalsport. Der Vorläufer des Fußball-Verbands Koninklijke Nederlandse Voetbal Bond (KNVB) wurde bereits im Jahr 1889 gegründet. Die Niederländische Fußballnationalmannschaft, kurz "Nederlands elftal" oder „Oranje“ genannt, wird zu den stärksten Nationalmannschaften der Welt gerechnet. Trainer des Teams ist seit 2015 Danny Blind. Er ist der Nachfolger von Guus Hiddink, der sein Amt niederlegte. Die Niederlande haben seit 1976 neun Mal an den Fußball-Europameisterschaften teilgenommen und gewannen 1988 den Titel. Bei der Fußball-Weltmeisterschaft waren sie seit 1934 zehn Mal vertreten und wurden 1974, 1978 und 2010 jeweils Zweiter, bei der WM 2014 Dritter. Im Motorsport sind die Motorrad-WM-Grand-Prix-Rennstrecke in Assen (Dutch TT), die ehemalige Formel-1-Grand-Prix-Rennstrecke in Zandvoort und das Eisstadion De Bonte Wever in Assen mit seinen Eisspeedway-WM-Rennen weltweit ein Begriff. Küche. Ursprünglich unterscheidet sich die niederländische Küche nicht sehr von der deutschen, in der auch Kartoffeln, Gemüse und Würste eine große Rolle spielen (zum Beispiel im "stamppot"). Am bekanntesten sind "frieten" oder "patat", niederl. für Pommes frites, mit verschiedenen Soßen, wobei die wohl bekannteste Kombination aus Mayonnaise und Erdnusssoße (mit Zwiebeln) besteht, das "patatje oorlog". Andere Spezialitäten sind "Goudse kaas" (Goudakäse) und "Hollandse Nieuwe"; bei diesen Matjes handelt es sich um junge, noch nicht geschlechtsreife Heringe. Durch die Vergangenheit als Seemacht kamen allerdings auch kulinarische Einflüsse aus den ehemaligen Kolonien ins Land, zum Beispiel der "nasibal" oder "bamibal". Dabei handelt es sich um Nasi Goreng oder Bami Goreng in Frikadellenform. Über die Grenzen hinaus bekannt sind auch der niederländische Pudding Vla und die Bratrollen, die "frikandel" genannt werden, ebenfalls bekannt sind die frittierten Fischhappen Kibbeling, deren Zubereitung der von Hähnchennuggets ähnelt. Neuronales Netz. Als neuronales Netz wird in den Neurowissenschaften eine Anzahl miteinander verknüpfter Neuronen bezeichnet, die als Teil eines Nervensystems einen funktionellen Zusammenhang bilden. Abstrahiert werden in Computational Neuroscience auch vereinfachte Modelle einer biologischen Vernetzung darunter verstanden. In der Informatik, Informationstechnik und Robotik werden deren Strukturen als künstliches neuronales Netz nachgebildet, simuliert und abgewandelt. Die Vernetzung der Neuronen. Das Nervensystem von Tieren besteht aus Nervenzellen (Neuronen) und Gliazellen sowie einer Umgebung. Die Neuronen sind über Synapsen miteinander verknüpft, die als Verknüpfungsstellen oder Knoten eines interneuronalen Netzwerks aufgefasst werden können. Daneben findet zwischen den Neuronen und der Neuroglia, insbesondere Oligodendroglia und Astroglia, in chemischer und elektrischer Form ein Austausch statt, der die Gewichtung von Signalen verändern kann. Die „Schaltungstechnik“ von Neuronen kennt üblicherweise mehrere Eingänge und einen Ausgang. Wenn die Summe der Eingangssignale einen gewissen Schwellenwert überschreitet, „feuert“ das Neuron: Ein Aktionspotential (AP) wird am Axonhügel ausgelöst, im Initialelement gebildet und entlang des Axons weitergeleitet. Aktionspotentiale bzw. Aktionspotential-Serien sind die primären Ausgangssignale von Neuronen. An chemischen Synapsen werden diese in Transmitter-Quanten als sekundäre Signale umgesetzt. Aufzweigungen seines Axons können das Signal eines Neurons an mehrere andere Neuronen übermitteln ("Divergenz"). Ebenso können einem Neuron Signale von unterschiedlichen Neuronen zufließen ("Konvergenz"), vorwiegend über seine Dendriten als Eingänge. Durch inhibitorische Synapsen kann die Bildung eines AP behindert oder unterdrückt werden. Mit der Verknüpfung erhalten Signale somit ein Vorzeichen und können darüber hinaus an der Verknüpfungsstelle abgeschwächt werden oder verstärkt. Bei häufig wiederholter Übertragung in rascher Folge wird der synaptische Übertragungsmodus länger anhaltend verändert (Langzeit-Potenzierung) und derart geformt (neuronale Plastizität). Lernen. Über das Lernen in neuronalen Netzen gibt es verschiedene, inzwischen gut standardisierte Theorien. Die erste neuronale Lernregel wurde 1949 von Donald O. Hebb beschrieben (Hebbsche Lernregel); wesentliche Entwicklungen erfolgten u. a. durch Arbeiten des Finnen Teuvo Kohonen Mitte der 1980er Jahre. Daraus ergaben sich typische Eigenschaften neuronaler Netze, die gleichermaßen für natürliche, wie für künstliche „neuronale Systeme“ gelten. Dazu gehört die Eigenschaft, dass sie komplexe Muster lernen können, ohne dass eine Abstraktion über die diesen Mustern eventuell zugrunde liegenden Regeln stattfindet. Das heißt, dass neuronale Netze nicht den Gesetzen der sog. künstlichen Intelligenz, sondern einer Art von „natürlicher Intelligenz“ folgen. Das heißt insbesondere auch, dass "nicht" vor dem Lernen erst die Regeln entwickelt werden müssen. Andererseits kann aus dem neuronalen Netz auch nicht nachträglich eine eventuelle Logik ermittelt werden, die dessen Lernerfolg ausmachte. Das Ganze heißt aber nicht, dass logisches Verhalten und präzise Regeln nicht existieren; nur werden diese nicht „von selbst“ durch Erfahrung erworben, sondern müssen durch langjährige „Schulung“ mehr oder minder mühsam erarbeitet werden. Dagegen lernen neuronale Netze nicht "explizit", sondern "implizit". Das „richtige“ Trainieren eines neuronalen Netzes ist Voraussetzung für den Lernerfolg bzw. für die richtige Verarbeitung eines Musters in einem Nervensystem. Umgekehrt gilt, dass eine Vorhersage über die „richtige“ Interpretation eines Musters durch ein neuronales Netz nicht präzise möglich ist, solange nicht dieses spezifische Netz mit dieser spezifischen Lernerfahrung angewendet bzw. durchgerechnet wird. Neuronale Netze haben somit das Problem, dass nach dem Lernvorgang Muster, die nicht den Vorbildern ähneln, die in der Lernmenge implementiert sind, stochastisches (d.h. scheinbar „zufälliges“) Verhalten der Ausgangsneuronen hervorrufen. Dies ist die größte Schwierigkeit, weshalb neuronale Netze bisher nur beschränkt zur Mustererkennung verwendet werden können. Newsgroup. Newsgroups (engl. für "Nachrichtengruppen") sind virtuelle Internetforen (früher auch abseits des Internets in selbständigen (Mailbox-) Netzen), in denen zu einem umgrenzten Themenbereich Textbeiträge (auch Nachrichten, Artikel oder Postings genannt) ausgetauscht werden. Veröffentlicht ein Benutzer einen Artikel in einer Newsgroup, so wird dieser an einen Newsserver gesendet. Dieser kann den Artikel dann seinen Benutzern zur Verfügung stellen und an andere Server weiterleiten, die ihn wiederum ihren Benutzern zur Verfügung stellen. Technik. Technisch wird für Newsgroup-Beiträge das Format von E-Mails verwendet, wobei lediglich einige weitere Typen von "Header"-Zeilen eingeführt wurden. Der RFC 1036 (Request for Comments, Standard for Interchange of USENET Messages) legt die Details fest. Weltweit existieren seit Jahrzehnten verschiedene News-Systeme. Das bekannteste ist dabei das Usenet, das eine Vielzahl von Newsservern weltweit verbindet. Oft sind Newsgroups aber auch rein regional verteilt, oder sie werden in Intranets zur Verfügung gestellt. Dabei kommt häufig das Protokoll NNTP zum Einsatz, in früheren Zeiten vor allem UUCP. Der Zugriff auf Newsgroups erfolgt über spezielle als Newsreader bezeichnete Computerprogramme oder über Webschnittstellen wie Google Groups. Oft sind Newsreader als Teilprogramm in allgemeinen E-Mail-Programmen (z. B. Mozilla Thunderbird) enthalten oder auch als Add-ons für Webbrowser wie Mozilla Firefox verfügbar. Auch „Mail2News-Gateways“ (Gmane) sollen das Arbeiten im Usenet erleichtern. Sie funktionieren aber verglichen mit spezialisierter Software nur mit Einschränkungen. Struktur. Eine Newsgroup wird durch einen hierarchisch aufgebauten Namen gekennzeichnet. Durch diese Hierarchien wird das Usenet in Themenblöcke unterteilt. Die meisten Newsgroups werden dabei den neun größten Hierarchien zugeteilt. Diese sind comp.*, talk.*, soc.*, sci.*, humanities.*, misc.*, news.*, rec.* (den sog. "Big Eight") und alt.*. Außerdem besitzt sie meist eine Kurzbeschreibung, englisch (und im engeren Sinne technisch) "Tagline" genannt, die von vielen Newsreadern angezeigt werden kann. Eine längere Beschreibung findet sich in der optional vorhandenen Charta. Andere Bezeichnungen. In einigen Netzen wie FidoNet, Z-Netz oder MausNet werden Newsgroups bisweilen mit anderen Begriffen bezeichnet. Aus diesem Grund wird auch manchmal das Akronym GABELN (Gruppe, Area, Brett, Echo, Liste, Netz) als allgemeinerer Ausdruck benutzt. Entwicklung. Die Newsgroups werden seit den 2000er Jahren immer mehr von Webforen abgelöst, so dass ihre praktische Bedeutung kontinuierlich abnimmt. Norrköping. Norrköping ist eine Stadt in der schwedischen Provinz Östergötlands län und der historischen Provinz Östergötland. Die Stadt ist Hauptort der gleichnamigen Gemeinde und hat etwa 83.000 Einwohner. Geographie. Norrköping liegt an der Ostseeküste, unweit der Bucht Bråviken. Die Stadt wird vom Motala ström, dem wasserreichen Abfluss des Vättern, durchflossen, der hier nur "Strömmen" genannt wird. In der Stadt selbst bildet der Fluss, über den mehrere Brücken führen, bedeutende Wasserfälle und Stromschnellen, da er im Stadtgebiet einen Höhenunterschied von 22 Metern bewältigt. Die Stadt liegt auf Sedimenten, die sich über dem alten skandinavischen Felssockel des Baltischen Schildes gebildet haben. Im Norden, Osten und Westen der Siedlung breiten sich landwirtschaftliche Nutzflächen aus, während im Süden noch größere Waldflächen vorhanden sind. Geschichte. Der Name des Ortes bezieht sich sehr wahrscheinlich auf seine Lage nördlich "(norr)" in Bezug auf einen Platz, der heute jedoch nicht mehr identifiziert werden kann. Analog dazu erhielt Söderköping seinen Namen durch die südlichere "(söder)" Lage. Es wird vermutet, dass es sich um einen Gerichtsplatz handelte. "Köping" ist die schwedische Bezeichnung für eine Minderstadt. Norrköping wurde erstmals zu Ende des 12. Jahrhunderts erwähnt, erhielt aber erst Anfang des 17. Jahrhunderts einige Bedeutung durch die Fabriken des aus Belgien eingewanderten Louis De Geer. So verdoppelte sich die Einwohnerzahl zwischen 1730 und 1770. In der Stadt wurden mehrere schwedische Reichstage abgehalten. Bedeutend waren der von 1604, als Karl IX. die Königskrone empfing und der von 1800, als Gustav IV. Adolf nebst seiner Gemahlin gekrönt wurde. Mittelalter. Es ist nicht genau datierbar, wann Norrköping gegründet wurde, doch erscheint eine Gründung im frühen Mittelalter als wahrscheinlich. Die Menschen begannen am breiten Fluss zu siedeln, der östlich in den Bråviken mündet, und nutzten das Wasser und die Wasserkraft für Mühlen und Fischfang. Die erste Brücke, die über den Motala ström gebaut wurde, entstand an der Stelle, wo der Fluss eine tiefe und schmale Furche durchfloss. Hier liegt heute die Brücke "Gamlabro" und es wird angenommen, dass sich an gleicher Stelle auch eine Wikingerburg, "Knäppingsborg", befand. In der Nähe der Brücke entstand ein Marktplatz, heute "Gamla torget" („Alter Markt“), und etwas oberhalb eine einfache Holzkirche, die Johannes dem Täufer geweiht war. Später errichtete man eine weitere Kirche, die dem Heiligen Olav geweiht war. Sie soll in einer Bulle des Papstes aus dem 12. Jahrhundert erwähnt worden sein, in der sie als dem Kloster Askeby zugehörig erwähnt wurde, das bereits die Rechte zum Fischfang in Norrköping besessen haben soll. Wie die anderen Kirchen im Stadtgebiet, die dem Heiligen Olav geweiht waren, wurde sie in späterer Zeit durch die Sankt-Olai-Kirche ("Sankt Olai kyrka") ersetzt. Als Königin Sofia ihre Lachsfangrechte 1283 an das Kloster St. Martin in Skänninge schenkte, wurde Norrköping als "Norkøponge" in der Urkunde erwähnt. Über Jahrhunderte war der Lachsfang im Motala ström von Bedeutung, doch hatte sich der König bereits die besten Angelplätze sichern lassen. Diese lagen auf den ehemaligen Inseln "Laxholmen" und "Kvarnholmen". Auch mehrere Klöster der Umgebung besaßen Fischfangrechte. Neben den bereits genannten waren dies u. a. noch die Klöster Vadstena, Varnhem und Vreta. Es wird angenommen, dass Norrköping die Stadtrechte zum ersten Mal zu Beginn des 14. Jahrhunderts erhielt. Unklar ist jedoch, wer die Stadtrechte verlieh. Dagegen existiert ein Dokument vom 7. April 1384, in dem Albrecht von Mecklenburg diese Rechte bekräftigt. 1404 reiste Königin Margrete I. nach Norrköping, um das Erbe von Schwedens größtem damaligen Grundbesitzer Bo Jonsson Grip aufzuteilen. Eine der Burgen in Jonssons Besitz, auf die sie es abgesehen hatte, war "Ringstaholm" auf einer Insel im Motala ström westlich der Stadt. Margrete konnte sich durchsetzen und die Burg fiel an die Krone. Während des Engelbrekt-Aufstandes wurde die Burg 1434 von Bauern belagert. Auf der Burg befand sich der von den Aufständischen gehasste Vogt Henrik Styke, der gezwungen wurde, die Burg aufzugeben. Nachdem die Burg zurückerobert wurde, belagerten aufständische Bauern sie erneut im November 1469. Auch diesmal ergab sich der Befehlshaber Bård Munk und noch im selben Jahr wurde Ringstaholm niedergebrannt. Wie von der Burg existiert vom mittelalterlichen Norrköping überirdisch heute nichts mehr, da alles Bränden zum Opfer fiel. 16. Jahrhundert. "Hedvigs kyrka" am deutschen Markt König Gustav I. Wasa reiste oft durch Norrköping im Zusammenhang mit Besuchen auf Schloss Stegeborg nahe der Bucht "Slätbaken". Er ließ in der Stadt ein königliches Vorratsmagazin anlegen, wo heute die Hedvigskirche steht. Außerdem zog er alle kirchlichen Fischereirechte im Motala ström ein. Die Rolle des Ortes als Exporthafen wuchs in dieser Zeit mit der Bedeutung der Bergbaugebiete in Östergötland. 1567 tobte der Dreikronenkrieg rund um Norrköping und die Stadt wurde zum Schauplatz einer Schlacht zwischen Schweden und Dänen. Die Dänen, angeführt von Daniel Rantzau, drangen von Schonen und Småland kommend immer weiter nach Norden vor. Nach ihrem Einfall in Östergötland konnte die schwedische Armee südlich von Norrköping ein Lager errichten und beschloss, die Dänen an der Brücke Gamlabro zu stoppen. Am 3. Dezember erreichte die dänische Armee Norrköping. Die schwedische Armee hatte bereits die südlich des "Strömmen" gelegenen Häuser niedergebrannt und erwartete das dänische Heer. Auf der anderen Seite des Ufers hatte man ein Haus errichtet, das von Schützen und Kanonen verteidigt wurde. Nach einigen kleinen Gefechten und einem Überraschungsangriff des schwedischen Heeres, der allerdings entdeckt und zurückgeschlagen wurde, zog sich das dänische Heer zurück. Einige Zeit später zettelten die Brüder Johann und Karl einen Aufstand gegen König Erik XIV. an und erklärten den König für abgesetzt. Sein Bruder Johann wurde als Johann III. sein Nachfolger. an. Er bot allen Bewohnern von Norrköping, die ein neues Haus aus Stein errichten, zwölf Jahre ohne Steuern an. Sein Ziel war ein Stadtplan mit geraden Straßen und rechteckigen Quartieren. Im Jahre 1581 errichtete Johann III. ein Schloss in der Stadt, "Norrköpingshus", von dem es allerdings keine Bilder gibt. Überlieferungen zufolge soll es sich um einen plumpen Bau mit etwa 300 Fenstern, zwei Türmen samt Portal und einem Wallgraben gehandelt haben. Das Schloss lag dort, wo heute "Tyska torget" (der „deutsche Markt“) liegt; der dazugehörige Garten "(Trädgården)" erstreckte sich entlang der heutigen "Trädgårdsgatan". Ab 1594 wurde das Schloss von Elisabet Wasa, einer von Gustav Wasas Töchtern, bewohnt. Sie war die Witwe von Christoph von Mecklenburg und zog in die Stadt mit einem Gefolge von etwa 1000 Menschen ein. Durch den Zuzug wuchs die Bevölkerung schlagartig. Das Leben am Hof war glanzvoll und lebhaft, nicht zuletzt, da die königlichen Verwandten in der näheren Umgebung wohnten. Herzog Karl wohnte in Nyköping, Johanns Gemahlin Gunilla Bielke auf Bråborg und weitere Verwandte in Vadstena und Stegeborg. Das Schloss in Stockholm stand zu dieser Zeit leer, da König Johan III. verstorben war und sein Nachfolger Sigismund III. Wasa es vorzog, in Polen zu residieren. Im Herbst 1598 ging Sigismund mit einer polnischen Armee bei Stegeborg an Land und es dauerte nicht lange, bis er auf Karls Truppen stieß. Die Truppen des Herzogs landeten in der Klemme und einige hundert Verletzte wurden in "Norrköpingshus", das jetzt als Lazarett verwendet wurde, behandelt. Die entscheidende Schlacht bei Stångebro fand etwas außerhalb von Linköping statt und wurde vom Heer des Herzogs Karl gewonnen, der später auch König wurde. Herzog Johann und Johannisborg. Der Holmenturm, abgeleitet von "Holmens Bruk" Im Jahre 1604 sollte ein Reichstag in Norrköping abgehalten werden, wo die Erbschaftsfrage geklärt wurde. Dies bedeutete, dass Herzog Karl König wurde und Sigismund abgesetzt wurde. Karls Neffe Johann wurde zum Herzog von Östergötland ernannt, doch war dieser erst 14 Jahre alt. Außerdem brannte Norrköpingshus, wo der Reichstag abgehalten werden sollte, wenige Tage vor der Zusammenkunft nieder. Fünf Jahre später, 1609, war Johann erwachsen genug und nahm die Rolle eines unabhängigen Fürsten ein. Er hatte großes mit der Stadt vor, wollte sie ausbauen und einen komplett neuen Stadtteil nördlich des Flusses anlegen. Johann versuchte die Leute mit zwölf Jahren Steuerfreiheit und weiteren Vorteilen in seine Stadt zu locken. Er rief deutsche Handwerker nach Norrköping, um eine Waffenfabrik auf Kvarnholmen zu bauen, und legte damit den Grundstein für die spätere "Holmens Bruk", die erste Industrie in der Stadt. Am 3. Mai 1613 begann man mit dem Bau eines neuen Schlosses nördlich des Flusses. Es bekam den Namen Schloss Johannisborg und zeitweise waren über 700 Knechte mit dem Bau beschäftigt. Architekt war Hans Fleming und 1618 war der Bau soweit fertiggestellt, dass die Hofverwaltung einziehen konnte. Kurze Zeit später verstarb Herzog Johann im März 1618 und sechs Monate später auch seine Frau Maria Elisabeth. Somit war die Zeit Östergötlands als Herzogtum erloschen. Bald wurde deutlich, dass der Herzog über seine Verhältnisse gelebt hatte und bei Kaufleuten und am Hof große Schulden angehäuft hatte. Der Tod des Herzogs zog negative Auswirkung für Norrköping nach sich. Die Hofverwaltung mit allen Angestellten wurde abgewickelt und die Lieferanten und Handwerker hatten keine Aufträge mehr. Norrköping hatte mittlerweile 2.000 Einwohner. Die Arbeiten am Schloss gingen trotz des Todes weiter, und 1639 konnte das Dach fertiggestellt werden. Richtig abgeschlossen wurden die Arbeiten allerdings nie, da sich das Fundament als nicht stabil genug erwies und ständige Reparaturen nötig waren. Louis De Geer und die ersten Industrien. Im Gegensatz dazu wuchs die Bedeutung des produzierenden Gewerbes. Immer mehr Fuhrwerke steuerten die Stadt an, um die verschiedenen Produkte aus der Grube in Finspång und deren Umgebung zu laden. Auch König Gustav II. Adolf erkannte die Bedeutung einer eigenen Waffenproduktion und kam 1618 nach Finspång, um einen Vertrag über die Produktion von Kanonen bei Wellam de Besche zu unterschreiben. Wellam De Besche leitete zwar die Arbeit in der Grube Finspång, aber in Wirklichkeit unterschrieb der König den Vertrag mit dessen Teilhaber Louis De Geer. Auf Kvarnholmen begann man nun mit der Herstellung von Waffen. Außerdem baute man eine Hammerschmiede, eine Gewehrfabrik und eine Messinghütte. Die ebenfalls neu errichtete Brauerei hatte das Alleinrecht auf die Belieferung der schwedischen Flotte mit Bier. De Geer war 1627 nach Norrköping gekommen, obwohl der nächste Mann des Königs, Axel Oxenstierna, De Geer zum Umzug nach Stockholm überreden wollte. De Geer hatte sich jedoch schon für Norrköping entschieden. Er war sehr geschäftig und immer neue Betriebe, so u. a. eine Schiffswerft, eine Seilerei, eine Papiermühle und eine Kleiderfabrik, kamen hinzu. Die Messingfabrik entwickelte sich zur größten in Schweden. De Geer ließ auch im Ausland Arbeitskräfte anwerben. So kamen z. B. Wallonen aus den Ardennen im heutigen Belgien nach Norrköping. Die internationale Ausrichtung der Stadt prägte die Charakter Norrköpings in den 1630ern. Um 1650 war nach Norrköping nach Stockholm die zweitgrößte Stadt Schwedens mit etwa 6000 Einwohnern. Ehemalige Fabriken Gryt (links) und Drag (hinten rechts) 1627 kaufte Petter Speet die Mühle Drags, "Drags kvarn" und ließ auf dem Gelände eine Kleiderfabrik anlegen. Diese hatte schon von Anfang an große Aufträge für Stoffe für Uniformen der schwedischen Flotte erhalten. Über 300 Jahre sollte die Fabrik eine wichtige Rolle als die größte Industrie der Stadt spielen. Am 29. Juli 1655 brannte die Stadt und fast alles südlich des Flusses wurde zerstört. Die Entwicklung der Stadt stagnierte, doch konnten sich die größten Industrien vom Brand erholen. Die Textilindustrie war jetzt diejenige, die am meisten wuchs. Das größte Unternehmen war zu dieser Zeit "Drags", auch wenn sich Petter Speet zurückgezogen hatte. Sein Nachfolger, Abel Becker, war ein Deutscher aus Lübeck, der in der Stadt bereits 16 Mühlen besaß. Als Königin Christina 1654 auf den Thron verzichtete, erhielt sie Norrköping als Länderei, die sie unterstützen sollte. Bei einem Besuch in Schweden im Zusammenhang mit dem Tod Karl X. Gustavs 1660, kam sie 1661 mit großem Gefolge in die Stadt an und forderte mehr Geld und Unterstützung von der Regierung in Stockholm. Sie ließ sich im ehemaligen Haus Louis De Geers nieder, zog sich aber anderthalb Jahre später wieder nach Rom zurück. Nach ihr wurden die beiden Straßen "Drottninggatan" und "Kristinagatan" sowie der Platz "Kristinaplatsen" benannt. Nach dem Tod De Geers im Jahre 1652 hatten seine Werkstätten verschiedene Eigner bis sie schließlich 1666 vom niederländischen Geschäftsmann Jakob Reenstierna d.Ä. übernommen wurde. Reenstierna erweiterte die Betriebe um eine Gewandfabrik und eine Scherenschleiferei. Die Produkte wurden in Europas größten Handelsstädten durch Handelsvertreter vertrieben, überwiegend durch das Handelshaus "Jean & David" in Amsterdam. Der Export von Messing wurde jedoch durch den Ausbruch des Französisch-Niederländischen Krieges im Jahre 1672 gebremst und eine Überflutung im Frühling 1677 zerstörte Dämme, Wasserräder und Gebäude auf Kvarnholmen. Der Tod Reenstiernas 1678 bedeutete das vorläufige Ende der großen Zeit der Stadt. 18. Jahrhundert. Norrköping mit Schloss Johannisborg vor dem Angriff der Russen 1719 Jakob Reenstierna hinterließ einen großen Schuldenberg. Sein Sohn Abel konnte die Anlagen erst 1689 mit Hilfe einer größeren Anleihe bei der Reichsbank übernehmen. Mit Hilfe weiterer Anleihen wollte er eine Monopolstellung in der europäischen Messingproduktion erzielen, doch dieses Unternehmen schlug fehl und so führte die Bank ab 1704 den Betrieb der Werkstätten weiter. Der Abgang Reenstiernas war der Beginn einer 36-jährigen Periode von Schwierigkeiten für "Holmens Bruk". 1719 befand sich Schweden im Krieg mit Russland. Die Flotte des Zaren bereitete einen Angriff auf Stockholm vor, wo sich der Hauptteil der schwedischen Armee befand, doch dann teilten sich die russischen Verbände und die südlichen Einheiten brandschatzten in Södertälje, Trosa und Nyköping. Am 30. Juli liefen 394 russische Schiffe in den Motala ström ein. Die wenigen schwedischen Soldaten, die in Norrköping stationiert waren, konnten die russischen Truppen nicht daran hindern, die Stadt bis zum 3. August niederzubrennen. Außerdem nahmen die Angreifer aus den Metallwerkstätten 100 Schiffspfund (etwa 17 Tonnen) Messing und 282 Schiffspfund Kupfer mit. 1720 beschloss die schwedische Regierung eine zwanzigjährige Steuerfreiheit für die Stadt, deren Wiederaufbau langsam begann, so dass sie bald 2.600 Einwohner hatte. Treibende Wirtschaftszweige waren jetzt die Tabak- und Zuckerverarbeitung. Vor allem die Herstellung von Snus erlebte ab den 1750er Jahren einen bedeutenden Aufschwung. 1751 kam Petter Swartz (aus "Svartsången", Kroppa, Provinz Värmland) in die Stadt, der eine riesige Snusfabrik an der heutigen "Gamla Rådstugugatan" errichten ließ. Der Tabak wurde überwiegend direkt in Norrköping angebaut, zum Beispiel auf den Feldern um die Sankt-Johannes-Kirche, wo sich drei Tabakscheunen befanden. Das Snus wurde in ganz Schweden verkauft und es gab sieben verschiedene Sorten. 1739 verkaufte die Reichsbank die Messingwerkstätten an die Kaufleute Georg Spalding und Johan Forsberg. Nachdem die Anlagen zwischenzeitlich in Besitz von Johan Henrik Lefebure aus Stockholm waren, der die Herstellung von Fingerhüten einführte, gingen sie zu Beginn des Jahres 1778 an den nur 27-jährigen Elias Pasch. Anfänglich konnten alle Besitzer wirtschaftliche Erfolge erzielen, doch mit der französischen Revolution wurde es schwer, das notwendige Smithsonit zu importieren. Als auch noch die Exportrate von Messing sank, ging das Unternehmen 1793 in Konkurs. Die Konkursverwalter hatten es in diesen unruhigen Zeiten schwer, die Werkstätten zu verkaufen und wurden sie erst 1802 los. Der Reichstag von 1769. Im April 1769 war es wieder Zeit für einen Reichstag in Norrköping, obwohl der König Adolf Friedrich seinen Unwillen darüber zum Ausdruck gebracht hatte. Wahrscheinlich fürchtete er, dass es für ihn und seine Familie eng und unbequem in der Stadt werde, da unter 7.500 Einwohnern 3.000 Gäste untergebracht werden sollten. Der König wurde an der "Drottninggatan" gegenüber dem Rathaus einquartiert und allein für den Hofstaat waren 179 Räume reserviert. Die Priestergilde hatte ihr Domizil in der Sankt-Olai-Kirche, der Bauernstand im städtischen Hörsaal und der Bürgerstand im Rathaus. Als Plenarsaal diente die Hedvigskirche. Viele ausländische Gesandte waren anwesend und die russischen, englischen und dänischen Beamten verteilten große Summen an Bestechungsgeldern um der Partei der Mützen den Wahlsieg zu ermöglichen. Aber es half nichts, die Hutpartei gewann die Wahl. Die jüdische Gemeinde. Die staatliche Behörde für Außenhandel "(Kommerskollegium)" erlaubte 1782 in einem Judengesetz "(Judereglementet)" in drei schwedischen Städten die Ansiedlung von Juden, und zwar in Stockholm, Göteborg und Norrköping. Schon wenige Tage nach Inkrafttreten des Regelwerks beantragte der Händler Jacob Marcus einen Schutzbrief beim Magistrat der Stadt und etablierte ein Großhandelsunternehmen. Ab 1790 befasste er sich mit dem Bedrucken von Baumwollstoffen. Ein weiterer früher Einwanderer war Philip Jeremias, der sich daran versuchte, Öl aus Raps- und Hanfsamen zu pressen. Seine Nachkommen gehörten unter dem Namen Philipsson zu den bekannten Wirtschaftsgrößen von Norrköping. Die dritte bedeutende jüdische Person dieser Zeit war Jacob Wahren, der um 1810 eine Kleidungsfabrik gründete. Im Vergleich zu den anderen beiden Städten hatte die jüdische Bevölkerung in Norrköping immer eine geringe Anzahl. Die erste Synagoge war ein einfaches Gebäude, das 1796 errichtet wurde. Die heutige Synagoge entstand 1858 an der Bråddgatan. Ein jüdischer Friedhof wurde schon um 1780 angelegt. Nach dem Zweiten Weltkrieg nahm die Zahl der jüdischen Bürger in Norrköping ab und zum Ende der 1970er Jahre gab es hier weniger als zehn jüdische Männer im Alter über 13 Jahre für einen Minjan, wie er für einen jüdischen Gottesdienst notwendig ist. Der Reichstag von 1800. Am 10. März 1800 begann ein Reichstag in Norrköping, zu dem Gustav IV. Adolf aufgerufen hatte. Die schwierige finanzielle Lage des Landes sollte diskutiert und der neue König gekrönt werden. Die Verhandlungen liefen kompliziert, da der Adel in vielen Punkten nicht mit dem König übereinstimmte. Ungeachtet dessen fand am 3. April 1800 die Krönungszeremonie statt. Die Wetterverhältnisse bei der Prozession durch die Stadt waren, mit böigem Wind und Regen, der später in Schnee überging, nicht gerade einladend. Die eigentliche Krönung erfolgte in der Sankt-Olai-Kirche. Die Textilindustrie wächst. Norrköping besteht 1876 aus den Gebieten, die heute das Stadtzentrum darstellen. Lithografie von P. Laurentz Andersén Zu Beginn des 19. Jahrhunderts starteten die Industriellen Lars Johan Söderberg und Janne Arosenius die Kleidungsfabrik Gryt, welche sich zur größten Anlage dieser Art in Schweden entwickelte. Beide Unternehmer waren technisch interessiert und rüsteten ihre Anlagen schon 1809 mit Spinnmaschinen aus, was die Produktion enorm steigerte. 1810 deckte Norrköping mit 15 größeren Textilunternehmen die Hälfte der schwedischen Kleidungsherstellung ab. Diese Entwicklung setzte sich fort, so dass 1840 2.800 Personen in 153 Fabriken arbeiteten, von denen 75 zur Textilbranche gehörten. Norrköpings wirtschaftliche Bedeutung für Schweden zu dieser Zeit zeigt sich auch darin, dass die Stadt 1870 mit 15 Prozent an der landesweiten Industrieproduktion noch vor Göteborg (10 %) lag. 1802 wurde bei Holmens Bruk mit der Herstellung von Papier aus Lumpen begonnen. Nach anfänglich mäßigem Erfolg konnte die Papierproduktion zwischen 1835 und 1840 verzehnfacht werden. Zwischenzeitlich war an gleicher Stelle eine Baumwollspinnerei entstanden und um die Produktion beider Industrien weiter zu steigern, bildete man 1854 die Aktiengesellschaft Holmen. Zur Demonstration ihrer Dominanz ließ die Aktiengesellschaft 1856 vom Architekten Carl Theodor Malm ein fünfgeschossiges Fabrikgebäude mit Gasbeleuchtung und Aufzügen errichten, was in jener Zeit neuartig war. Heute wird das Haus von der philosophischen Fakultät der Universität Linköping genutzt. 1822 gab es in Norrköping einen Großbrand, bei dem die südlichen und östlichen Stadtteile niederbrannten. 358 Häuser bzw. Gehöfte verschwanden und circa 3.500 Menschen wurden wohnungslos. Die Situation verdüsterte sich weiter, als 1826 der nächste Brand ausbrach, bei dem 17 Quartiere in der Umgebung der heutigen "Kungsgatan" den Flammen zum Opfer fielen und etwa 2.000 Personen obdachlos wurden. Daraufhin erfolgte ein Verbot von Holzhäusern in der Stadt. Industriebetriebe die nicht mit der Textilbranche in Verbindung standen gab es nur sehr spärlich in der Stadt. Eine der wenigen Ausnahmen war das Druckereigewerbe. Von den zwei lithografischen Anstalten Schwedens dieser Zeit hatte die in Norrköping gelegene 160 Angestellte und jene in Malmö nur zwei. 1841 wurde an der Südseite des Motala ström mit dem Aufbau der Werft begonnen. Hier stellte man Schwedens erstes Dampfboot mit Propellerantrieb her und lieferte es an den russischen Zaren. Das Schiff erreichte eine Geschwindigkeit von zehn Knoten, was die lokale Presse als Weltrekord bezeichnete. Ab 1850 hatte die Werft 600 Angestellte, womit sie Schwedens größte Werftindustrie darstellte. In den 1860er Jahren ging die Nachfrage nach Kleidungsstücken zurück, so dass ein Drittel der Fabriken verschwand. Zehn Jahre später ging es dann schon wieder aufwärts, was vor allem auf eine verstärkte Mechanisierung und Rationalisierung zurückzuführen war. Da man viele Handwebstühle durch mechanische Webstühle ersetzte, stieg die Anzahl der Beschäftigten nur um 25 Prozent, während die Industrieproduktion um 50 Prozent zunahm. Im Vergleich mit anderen schwedischen Städten erfolgte der Boom in Norrköping jedoch weniger deutlich. Der landesweite Ausbau des Eisenbahnnetzes verlagerte den Export von Produkten in andere Häfen und die Nachfrage nach Textilien stieg nicht so stark wie die Nachfrage nach anderen Erzeugnissen. Soziale Probleme. Ein Platz in Norrköping um 1902 Der industrielle Aufschwung führte zum Auftreten vorher nicht gekannter sozialer Probleme, wie z. B. das Wohnungsproblem. Die Wellen der starken Einwanderung dauerten aber immer nur wenige Jahre und diese Schwankungen machten das Baugeschäft riskant. Ein Bau der während der Hochkonjunktur begonnen wurde, konnte unter schlechten Bedingungen bei Niedrigkonjunktur fertig sein, so dass der Bauherr keine Abnehmer fand. Zwischen 1870 und 1904 gab es vier Perioden mit Hochkonjunktur. Aus dem Wohnungsproblem resultierte eine Überfüllung vieler Häuser, so dass einige Stadtteile den Charakter von Slums erhielten. Zu dieser Zeit bestanden 95 Prozent der Wohnungen Norrköpings aus einem Raum, mit oder ohne Küche. Die Grenze zu den Vororten "Östra Eneby" und "Borg" war bald so undeutlich, dass man von einem zusammenhängenden Stadtgebiet sprechen konnte. Trotzdem fühlten sich die Amtsträger Norrköpings nicht verantwortlich für diese Gebiete und es wurde auch behauptet, dass diese Verantwortlichen nichts gegen die sozialen Missstände im Zentrum unternahmen, da sie hofften, dass die Menschen sich genötigt fühlen, vor die Stadtgrenze zu ziehen. Der Schulinspektor Norrköpings verglich die Häuser in den Arbeitervierteln Östra Enebys mit „elendigen Kojen“. Vier Fünftel der Bevölkerung Östra Enebys arbeiteten in Norrköping. Die harten Arbeitsbedingungen zeigten sich zum Beispiel darin, dass die Arbeitszeit bei der Trikotagenfabrik "Wiechel" von 6 Uhr morgens bis 19 Uhr ging (sonnabends bis 18 Uhr). Kinderarbeit war üblich, der Anteil der Angestellten unter 18 Jahren in der Textilindustrie Norrköpings lag bis 1912 bei 15 bis 20 Prozent. Die Arbeit in der Textilbranche galt als ausgesprochene Frauenarbeit und so lagen die Löhne niedrig. Die weiblichen Angestellten der Trikotagenfabrik verdienten ungefähr 3 Kronen und 50 Öre pro Woche. Es wird geschätzt, dass der Jahreslohn bei den Baumwollwebereien zwischen 275 und 320 Kronen lag. Bei dem Unternehmen "Holmens" verdiente im Jahr 1889 eine Weberin etwa 5 Kronen und ein männlicher Arbeiter circa neun Kronen pro Woche. 20. Jahrhundert bis heute. Ab 1904 erhielt Norrköping ein eigenes Straßenbahnnetz, wobei die erste Linie 4 km lang war. Die Hochkonjunktur der Jahrhundertwende machte sich in Norrköping weniger stark bemerkbar. So sank der Anteil der Stadt an der landesweiten Wollproduktion von 40 Prozent im Jahre 1896 auf 30 Prozent im Jahre 1912. Der Rückgang beruhte vor allem auf der zunehmenden Konkurrenz aus Borås, Malmö und Kristianstad. 1913 vereinigten sich vier Wollfabriken Norrköpings zu AB Förenade Yllefabrikerna (YFA) mit zusammen 1.500 Angestellten. Die Baumwollspinnereien des Ortes konnten dagegen ihre Position verteidigen. So gab es 1908 zwei dominierende Unternehmen mit je etwa 1000 Angestellten. In der Zeit zwischen den Weltkriegen expandierte die schwedische Textilindustrie stark, wovon Norrköping profitierte. Im Zweiten Weltkrieg sanken die Verkaufszahlen für zivile Kleidungsstücke wieder, doch die schwedische Armee hatte einen um das Zehnfache gesteigerten Verbrauch. Nach dem Krieg etablierten sich wieder ein paar kleinere Textilbetriebe mit nur wenigen Webstühlen. Die Krise der Textilindustrie. Das Arbeitsmilieu in den Textilfabriken zeichnete sich durch starke Lärm- und Staubbelästigung aus. Das Bild zeigt eine Arbeiterin des Unternehmens Drags in den 1920er Jahren. In den 1950er Jahren änderten sich die Kaufgewohnheiten der Bürger. An die Stelle von Produkten aus Wolle wie Mänteln, Kostümen und Überröcken traten leichtere Kleidungsstücke wie Hosen, Jacken und Kleider. Diese Produkte wurden im Ausland billiger produziert. Auch der Wechsel zu synthetischen Materialien ließ die Produktion von Baumwollhemden sinken. Die Löhne der Textilarbeiter gehörten zu den niedrigsten im Lande, doch die Löhne italienischer Arbeiter entsprachen nur 40 % und die der japanischen Angestellten sogar nur 10 % der schwedischen Löhne. Zuerst traf die Krise nur kleinere Betriebe, doch ab 1954 begannen auch große Unternehmen ihre Tore zu schließen. Aufgrund des Rückgangs begann die Gemeindeverwaltung ab den 1960er Jahren intensiv für den Standort zu werben. Einige Betriebe aus anderen Wirtschaftszweigen zogen in die leerstehenden Werkshallen. Es gab auch Versuche, die Baumwollverarbeitung zu retten, indem die Produktion in die Vororte der Stadt verlegt wurde, doch diese Einrichtungen wurden letztendlich nur noch als Lagerräume genutzt. Am deutlichsten machte sich die Schließung des Unternehmens YFA bemerkbar, wo 1970 schlagartig 862 Angestellte arbeitslos wurden. Trotz staatlicher Unterstützung betrachtete die Unternehmensleitung die Weiterführung der Produktion als uneffektiv. Diese Schließung markierte das Ende einer 350-jährigen Textilproduktion im zentralen Norrköping. Andere Entwicklungen. In den 1930er Jahren schloss die Snusfabrik von Carl Swartz, doch noch bis 1947 wurde im Ort Tabak angebaut und 1951 riss man die letzte Tabakscheune ab. Da die Stadt vor 1971 eine eigene Verwaltungseinheit darstellte, erhielt sie keine Steuern von Arbeitern, die außerhalb der Stadtgrenze wohnten. Der schwedische Reichstag beschloss deshalb eine Zusammenlegung der Gemeinden Skärblacka, Kvillinge und Kolmården mit Norrköping im Zuge der allgemeinen Gemeindereform. 1974 wurde auch die Gemeinde Vikbolandet mit aufgenommen. Um den Verlust der Textilproduktion zu kompensieren, beschloss die schwedische Regierung 1971 den Umzug mehrerer staatlicher Behörden aus Stockholm nach Norrköping. Bevölkerungsentwicklung. Während nach der Gründung der Stadt die Bevölkerung erst langsam wuchs, erhöhte sie sich kräftig durch die Ansiedlung von Industriebetrieben und die Industrialisierung im 18. und 19. Jahrhundert. So zählte Norrköping 1850 mit etwa 17.000 Einwohnern neben Stockholm (93.000), Göteborg (26.000) Karlskrona (14.000) und Malmö (13.000) zu den fünf Städten mit mehr als 10.000 Einwohnern. Nach den Stilllegungen, vor allem im Industriesektor, sind viele Bewohner ab den 1970ern weggezogen. Norrköping hatte zwischen den Jahren 1995 und 2000 in ganz Schweden den höchsten Wegzug mit 1.659 Personen, was etwa zwei Prozent der Bevölkerung entsprach. In den 2000er-Jahren stieg die Einwohnerzahl wieder an. Stadtbild. Norrköping im Jahr 1913. Die Bebauung außerhalb der Promenaden ist immer noch recht gering. Das Zentrum der Stadt liegt beim Platz "Gamla torget". Dieser ist heute mit Häusern aus dem 18. und 19. Jahrhundert umgeben. Auf dem Platz befindet sich eine Statue von Carl Milles, die Louis De Geer zeigt. Die "Drottninggatan" ist Norrköpings Hauptstraße und erstreckt sich vom 1866 erbauten Bahnhof bis zum Kunstmuseum. Hinter dem Bahnhof liegen die Parks "Järnvägsparken" und "Karl Johans-parken". Hier gibt es auch eine international bedeutende Kakteenrabatte, die in den zwanziger Jahren des 20. Jahrhunderts angelegt wurde. An der Westseite des Karl-Johan-Parks liegen das „Alte Stadthaus“ von 1801, das ehemalige „Große Hotel“ von 1854 und der Stall von 1857. Etwas weiter entfernt befindet sich das „Große Theater“ "(Stora teatern)", das 1908 vom Architekten Axel Anderberg im Jugendstil errichtet wurde. Auf der anderen Seite des Flusses Motala ström liegt der „deutsche Platz“ "(Tyska torget)" mit dem Rathaus von 1910, der "Hedvigs kyrka", dem Grand Hotel und dem ehemaligen Bankpalast. Am südlichen Ende der Drottninggatan liegt das kommerzielle Zentrum Norrköpings mit mehreren Warenhäusern. Wie in vielen anderen Städten, gab es auch in Norrköping in den sechziger Jahren des 20. Jahrhunderts eine Abrisswelle, bei der viele ältere Gebäude durch Häuser im modernen Stil ersetzt wurden. Entlang des Motala ström liegt die so genannte „Industrielandschaft“, die hauptsächlich aus alten Fabrikgebäuden aus der Zeit zwischen 1850 und 1917 besteht. In den 1970er Jahren war ein Großteil der Gebäude verfallen, doch heute sind die ursprünglichen Industriebauten anderweitig genutzt. So zog das Symphonieorchester von Norrköping in ein Gebäude, das früher eine Papiermühle war. Im siebeneckigen Gebäude "Strykjärnet", das 1917 als Weberei gebaut wurde, befindet sich nun das „Museum der Arbeit“ (Architekt Folke Bensow). Auch eine Außenstelle der Universität Linköping nutzt eine ehemalige Wollfabrik. Der Stadtkern wird von der nördlichen, östlichen und südlichen Promenade und vom Volkspark umschlossen. Als die Promenaden in der zweiten Hälfte des 19. Jahrhunderts angelegt wurden, gab es einen großen Bedarf an Schulen, so dass es hier eine Häufung dieser Einrichtungen gibt. Für die Promenaden zeichnete sich der 26-jährige Gartenarchitekt Knut Forsberg verantwortlich, der auch einen preisbelohnten Entwurf für den Park Bois de Boulogne in Paris geliefert und den Berzeliipark in Stockholm entworfen hatte. Ab 1858 entstand die 3,5 Kilometer lange nördliche Promenade mit Linden in vier Reihen und Fahrbahn in der Mitte. 1896 waren auch die östliche und südliche Promenade fertig und insgesamt hatte man 2.025 Bäume gepflanzt. Von den Gebieten mit Einfamilienhäusern ist die so genannte „rote Stadt“ interessant, wo zwischen 1917 und 1918 Holzhäuser für Arbeiter gebaut wurden, die einheitlich im typisch schwedischen Falunrot angestrichen sind. Der Stadtteil "Kneippen" entstand um 1900 als Villastadt für die gehobene Mittelklasse. Das Zentrum des Stadtteils war zwischen 1898 und 1918 eine viel besuchte Kuranlage mit Kurhotel, Gästehaus und Restaurants, die nach dem Vorbild des Kneippkurortes Bad Wörishofen in Bayern errichtet worden war. Viele der älteren Gebäude wurden nach dem Zweiten Weltkrieg abgerissen, doch das Flair der Jahrhundertwende ist immer noch erkennbar. Am südlichen Stadtrand, im Wald "Vrinneviskogen" gelegen, befindet sich mit dem "Vrinnevisjukhus" das nach dem Universitätskrankenhaus in Linköping zweitgrößte Krankenhaus in Östergötlands län. Das dritte, vom Landsting betriebene Krankenhaus ist "Lasarettet" in Motala. Vrinnevisjukhuset hat etwa 410 Behandlungsplätze und zirka 2.200 Angestellte. Im Einzugsbereich im östlichen Östergötland leben 170.000 Menschen. Außerdem wird das Krankenhaus als Ausstellungsfläche für Moderne Kunst genutzt. Stadtwappen. Das Wappen von Norrköping zeigt Olav den Heiligen von Norwegen, welcher als Schutzheiliger Norrköpings fungiert, mit seinen Attributen Streitaxt und Reichsapfel auf einem roten Thron. Im frühen 20. Jahrhundert wurde zeitweilig ein anderes Wappen verwendet, das ein gekröntes "N" sowie eine Axt und ein Zepter zeigte. Das Stadtwappen ist gleichzeitig das Wappen der Gemeinde. Politik. Hauptartikel: Politik Die politische Exekutive für Norrköping ist die Gemeindeverwaltung "(Kommunstyrelse)" der Gemeinde Norrköping. Diese ist neben dem Stadtgebiet des Zentralortes auch für andere Ortschaften "(tätorter)" und ländliche Zonen im Gemeindegebiet verantwortlich. Wirtschaft. Campus Norrköping im ehemaligen Ericsson-Gebäude Die Textilindustrie war über 400 Jahre der dominierende Wirtschaftszweig, der zur Blüte der Stadt führte, doch in den 1960er Jahren schlossen die meisten Fabriken aufgrund der starken ausländischen Konkurrenz. Heute existiert nur noch eine einzige Textilfabrik in Norrköping, die von einer Tochtergesellschaft von Borås Wäfveri AB betrieben wird. Ericsson produzierte hier längere Zeit Leiterplatten, doch auch dieses Werk ist heute stillgelegt. Gegenwärtig gibt es die meisten Unternehmen in den Branchen Papier- und Verpackungsindustrie, Logistik/Transport, Elektronik, IT/Media sowie Handel. Mehrere große Unternehmen (z. B. Philips, Bosch, Goodyear Tire & Rubber Company) haben ihre Zentrallager in Norrköping und steuern von hier aus die Belieferung ihrer Standorte in Schweden. Eine Außenstelle der Universität Linköping betreibt intensive Forschung in Norrköping, was zur Ansiedlung von mehreren Kleinbetrieben im Umfeld des Campus führte. In Norrköping haben die staatlichen Einrichtungen Ausländerbehörde "(Migrationsverket)", "Integrationsverket", Zentralamt für Luftfahrt "(Luftfartsstyrelsen)", Koordinierung für Gefangenenbetreuung "(Kriminalvårdsstyrelsen)", Seefahrtsbehörde "(Sjöfartsverket)" und das Schwedische Meteorologische Institut "(Sveriges meteorologiska och hydrologiska institut)" ihren Hauptsitz. Einige bedeutende Unternehmen der Stadt sind in der folgenden Tabelle aufgeführt. Bildung. Norrköping bietet ein Schulangebot, das Kindergärten "(förskolor)", Grundschulen "(grundskolor)" und vier kommunale sowie ein dem Länsting unterstehendes Gymnasien "(gymnasieskolor)" umfasst. Außerdem gibt es acht Gymnasien in freier Trägerschaft "(friskolor)". Daneben gibt es Sonderschulen für verhaltensgestörte Kinder auf Grundschulniveau ("särskolor", "träningsskolor") sowie nach Ende der Schulpflicht auch auf Gymnasialniveau "(gymnasiesärskola)". Einige komplette Sonderschulklassen "(särskoleklasser)" sind in andere Schulen integriert, sofern die Kinder nicht durch Individualbetreuung in Grundschulklassen integriert werden können. In einem ehemaligen Produktionsgebäude von Ericsson und weiteren alten Gebäuden in der Industrilandskapet entlang des Motala Ström befindet sich der "Campus Norrköping" als Außenstelle der Universität Linköping. Etwa 6000 Studenten studieren hier in den Bereichen Gesellschaftswissenschaften, Geisteswissenschaften oder auf Lehramt. Medien. In Norrköping erscheinen mit "Norrköpings Tidningar" und "Folkbladet" zwei überwiegend regional ausgerichtete Tageszeitungen. "Norrköpings Tidningar" (NT) ist die älteste, heute noch erscheinende Zeitung in Schweden und einer der zehn ältesten Zeitungen der Welt. Gegründet wurde sie 1758 von Johan Edman als "Norrköpings weko-tidningar". 1787 wurde die Zeitung in den heutigen Namen umbenannt, erschien aber nur zweimal wöchentlich. Seit 1875 ist der die Zeitung herausgebende Verlag eine Aktiengesellschaft und die Zeitung erscheint heute täglich. Aus dem Verlag hat sich mit der Zeit ein Medienhaus entwickelt, das heute weitere Zeitungen besitzt. Seit 1947 sind die Anteile im Besitz der Stiftung Erik & Asta Sundin. "Folkbladet" wurde 1905 als "Östergötlands Folkblad" von Arbeitern als Gegengewicht zur eher bürgerlich ausgerichteten "Norrköpings Tidningar" gegründet. In den 1960ern wurde sie mit dem "Östgöten" aus Linköping fusioniert und erschien als "Folkbladet Östgöten". Seit 1998 hat die Zeitung wieder ihren alten Namen und gehört seit 2000 über den Verlag "Nya Folkbladet i Östergötland AB" zum Medienhaus "Norrköpings Tidningar". Zusammen mit dem Verlag des "Östgöta Correspondenten" verteilt "Norrköpings Tidningar" darüber hinaus die Gratiszeitung "Extra" in Östergötland. Als weitere Gratiszeitung ist die Landesausgabe "(riks)" der metro erhältlich. Neben Printmedien befinden sich in Norrköping auch Regionalstudios und -redaktionen des öffentlich-rechtlichen Fernsehens Sveriges Television und Radios Sveriges Radio. Produziert werden "Östnytt" bzw. "P4 Östergötland". Außerdem ist eine von 16 Regionalstationen des privaten Fernsehsenders TV 4, TV 4 Öst, in Norrköping ansässig und produziert ein regionales Nachrichtenprogramm. Theater. Das neue Konzerthaus in der Bildmitte Das erste Theater der Stadt war "Egges teater", welches im Garten des Schankwirtes Johan Ulric Egge gelegen war. Am 5. August 1776 erlebte hier Romeo und Julia von Shakespeare seine schwedische Uraufführung. Die Bewohner Norrköpings waren so vernarrt in die Vorstellungen, dass sich die Theaterleitung gezwungen sah auch am Sonntag zu spielen, was für den Regisseur eine Klage wegen Nichteinhaltung des Sabbats zur Folge hatte. Er wurde aber freigesprochen und später erließ Gustav III. ein Dekret, welches den Theatern in Stockholm, Göteborg, Åbo und Norrköping Vorstellungen am Sonntag erlaubte. 1791 entstand das "Dahlbergs teater" in einem ehemaligen Tabaklager. 1798 gesellte sich die Einrichtung "Saltängsteater" dazu, welches bis 1850 bestand. In dieser Zeit waren romantische Stücke beliebt und so wurden hier Werke von Schiller, Oehlenschläger und Grillparzer erstmals in Schweden aufgeführt. 1850 ließ der Geschäftsmann Gustav Adolf Eklund das "Eklunds teater" auf einem Grundstück hinter dem Grand Hotel errichten. Hier wurden vor allem Werke von Dramatikern wie Ibsen, Bjørnson und Strindberg gezeigt. 1866 begann die Arbeitervereinigung der Stadt mit Darbietungen ihres Amateurtheaters. Einige bekannte Filmschauspieler des Landes erhielten hier ihre Ausbildung. 1908 ersetzte man Eklunds teater mit dem Großen Theater "(Stora teatern)" an gleicher Stelle. Anfänglich kamen verschiedene Theatergesellschaften zu Gast und in den 1920er und 1930er Jahren zeigten Ernst Rolf und Karl Gerhard ihre Revuen. Das Theater ist heute Heimstätte der Gesellschaft "Östgötateater". Museen und Skulpturen. Der Premierminister und Snusfabrikant Carl Swartz spendete 1903 sein Heim, die Villa Swartz, der Stadt. Zusammen mit einer früheren Kunstspende entstand daraus das Kunstmuseum von Norrköping. Es zeigte sich aber, dass die Räumlichkeiten zu klein sind, da man auch die Stadtbibliothek und das Heimatmuseum an gleicher Stelle unterbringen wollte. Der Neubau wurde 1941 begonnen doch aufgrund des Zweiten Weltkrieges entstand nur ein eingeschossiger Bau, so dass die Bibliothek nicht mit untergebracht werden konnte. Diese zog 1973 in ein eigenes Gebäude. 1961 schuf der Bildhauer Arne Jones die Skulptur "Spiral åtbörd", die vor dem Kunstmuseum aufgestellt wurde und anfänglich zwiespältige Reaktionen hervorrief. Später entwickelte sich die Skulptur zu einer Art Symbol für die Stadt, was sich unter anderem in dem Erscheinen der kommunalen Zeitung „Norrköping Spiralen“ und der Benennung eines Kaufhauses nach ihr zeigte. Im Park vor dem Gemeindehaus steht die Skulptur "Prisma", die bei ihrer Errichtung 1967, das größte Glaskunstwerk der Welt war. Musik. 1912 entstand die Orchestervereinigung von Norrköping als Zusammenschluss von Amateur- und Militärmusikern. Sie bezog ein Jahr später ihr neues Domizil in einem Konzert- und Vorlesungssaal, der in einer ehemaligen Kirche gebaut wurde. Da der Verein staatliche Fördermittel erhielt konnten zwei Mal pro Woche Vorstellungen gegeben werden. Nachdem das Orchester auf 87 Mitglieder angewachsen war und seinen Namen in Norrköpings Sinfonieorchester änderte, wurde die alte Spielstätte zu klein. Das neue Konzerthaus wurde 1994 eingeweiht und trägt den Namen "Louis De Geer". Eisenbahn. Die erste Eisenbahnlinie von Norrköping nach Katrineholm wurde am 3. Juli 1866 eingeweiht. Am 16. Oktober 1872 kam ein Anschluss nach Linköping hinzu. Bei den Bürgern der Stadt wurde es populär mit der Bahn, die eine „unglaubliche“ Geschwindigkeit von 50 km/h erreichte, sonntägliche Ausflüge in die Umgebung Norrköpings zu unternehmen. Ab den 1870er Jahren erfolgte eine gewaltige Expansion des Gütertransportes. Zum Beispiel stieg der Transport von Steinkohle ab 1870 mit etwa 400 Tonnen auf etwa 37.000 Tonnen um das Jahr 1900. Norrköping wurde mit seiner Umgebung auch durch Schmalspurbahnen verbunden. Das Netz dieser Bahnen war hier weit verzweigt und mit den Einrichtungen anderer Provinzen verbunden. Zu Beginn des 20. Jahrhunderts hatte Norrköping noch drei Bahnhöfe: "Centralstationen", "Västra station" und "Östra station". In den folgenden Jahren entwickelte sich die Stadt zum Eisenbahnknotenpunkt. Heute dauert eine Fahrt nach Stockholm mit dem "InterCity" knapp zwei Stunden und mit dem Schnellzug X2000 etwa 78 Minuten. Nach Malmö beträgt die Reisezeit mit dem X2000 etwas weniger als drei Stunden. Ein geplanter vierspuriger Ausbau der Strecke nach Stockholm "(Ostlänken)" soll die Reisezeit auf 45 Minuten verkürzen. Flugzeug. Der bis zum 1. Juli 2006 vom Luftfartsverket geführte Flugplatz "Kungsängens flygplats" östlich von Norrköping hat nach einem Rückgang der Passagierzahlen in den letzten Jahren keine positive Bilanz vorzuweisen. Um einer Schließung vorzubeugen, wurde er von der Gemeinde Norrköping übernommen. Die Passagierzahlen gehen seitdem wieder nach oben. Der Flugplatz wurde 1934 eingeweiht und zwei Jahre später der reguläre Passagierflugverkehr aufgenommen. Er ist Schwedens ältester noch in Betrieb befindlicher Flugplatz. Täglicher Flugverkehr besteht (2013) nach Kopenhagen und Helsinki. Zusätzlich bestehen besonders im Sommer einige Charter-Verbindungen zu Zielen am Mittelmeer. Der Flugplatz wird auch für Frachttransporte genutzt. Icelandair betreibt eine feste Frachtlinie von Norrköping nach New York via Reykjavik. Straße. Einige große Straßenverbindungen kreuzen sich in Norrköping. Die Autobahn E 4 geht westlich an der Stadt entlang, während die E 22 hier beginnt und über Kalmar nach Malmö führt. Die Hauptstraßen ("riksväg") 51, 55 und 56 verbinden die Stadt mit Örebro, Uppsala und Gävle. Straßenbahn. Hauptartikel: "Straßenbahn Norrköping" Neben Göteborg und Stockholm ist Norrköping die einzige Stadt in Schweden, die an der Straßenbahn als innerörtlichem Nahverkehrsmittel festgehalten hat. Es wurden einige Straßenbahnwagen angekauft, die vorher in Duisburg verkehrten und noch immer Namen deutscher Städte tragen (wie z. B. "Braunschweig"). Der Bau der Straßenbahnlinien begann 1902 mit einem Vertrag zwischen der Stadtverwaltung und AEG. Zwei Jahre später konnten sich die Wagen auf den einspurigen Strecken in Bewegung setzen und zwischen 1913 und 1914 erfolgte ein Ausbau zur Doppelspur. Die Wagen hatten schon von Beginn an eine Färbung zwischen Gelb und Orange, welche die Bezeichnung "Norrköpingsgult" erhielt. Als die Verkehrsverwaltung Östergötlands in den 1990er Jahren ihre Wagen vereinheitlichen wollten, was für den hinteren Wagenteil eine rote Farbe bedeutet hätte, gab es einen lauten Bürgerprotest und somit keine Veränderungen. Hafen. Norrköping besitzt mehrere Hafenanlagen. Im stadtnahen "Inneren Hafen" können Schiffe bis neun Meter Tiefgang anlegen, während im Tiefhafen "Pampushamnen" auf der Halbinsel Händelö die mittlere Wassertiefe bis 12,4 Meter beträgt und er somit auch für große Frachtschiffe ausgelegt ist. Betrieben wird der Hafen von "Norrköpings Hamn och Stuveri AB" und jedes Jahr landen hier etwa 1.300 Schiffe an. 2005 wurden 4.100.000 Tonnen Güter im Hafen umgeschlagen, gemäß einer 2005 durchgeführten Untersuchung ist der Hafen damit der zehntgrößte Schwedens. Früher war es für Schiffe schwierig in den Hafen von Norrköping zu gelangen, da der Motala ström kurz vor seiner Mündung in den Bråviken einen kräftigen Schwung um Händelö machte. Mit der Einweihung des Lindö-Kanals am 18. Juni 1962 unter Anwesenheit des Königs Gustav VI. Adolf war dieses Problem gelöst. Gleichzeitig entstand auf Händelö ein Ölhafen mit drei Pieren. Bis Herbst 2008 soll die wichtigste Fahrrinne von 60 auf 100 Meter verbreitert und auf mehr als 13,5 Meter vertieft werden. Während im Inneren Hafen überwiegend Produkte für die Holzverarbeitung und -produktion sowie Kohle und Koks umgeschlagen werden, sind die äußeren Kaianlagen für den Containerumschlag und Erdölprodukte ausgelegt. Sport. Der Fußballverein IFK Norrköping zählt mit zwölf nationalen Meisterschaften und sechs Siegen im schwedischen Pokalwettbewerb zu den erfolgreichsten Mannschaften des Landes. Diese Erfolge wurden überwiegend um das Jahr 1960 erzielt. Heute spielt der Verein in der ersten Liga, der Allsvenskan, und trägt seine Heimspiele in Norrköpings Idrottspark aus, der auch während der Fußball-Europameisterschaft 1992 als Spielstätte für drei Vorrundenspiele diente. Neben IFK Norrköping sind noch die Vereine IF Sylvia und IK Sleipner bekannte Fußballvereine. Gegenwärtig ist nur ein weiterer Sportverein der Stadt erstklassig. Dies ist der Basketballclub Norrköping Dolphins, von dem sowohl die Herrenmannschaft als auch die Damenmannschaft in der jeweiligen ersten Ligen spielen. Andere bekannte Vereine sind der Speedwayclub "Vargarna" und der Eishockeyclub IK Vita Hästen (beide 2. Liga). Städtepartnerschaften. Die Zusammenarbeit mit den zwei norwegischen Ortschaften besteht seit den 1940er Jahren. Alle hier genannten nordischen Orte arbeiten auf der Basis einer „Nordischen Plattform“ verstärkt zusammen. Nil. Der Nil (, "an-Nīl"; von altgriechisch Νεῖλος "Neilos", latinisiert "Nilus"; altägyptisch Iteru, Gery, koptisch Piaro oder Phiaro) ist ein Strom in Afrika. Er entspringt in den Bergen von Ruanda und Burundi, durchfließt dann Tansania, Uganda, den Südsudan und den Sudan, bevor er in Ägypten in das Mittelmeer mündet und ist mit 6852 km der längste Fluss der Erde. Der Nil erhält das meiste Wasser aus den wechselfeuchten Tropen Ostafrikas und zu einem geringeren Teil aus den immerfeuchten Tropen Mittelafrikas und durchquert dann als einziger Fluss der Erde vollständig einen der beiden subtropischen Trockengürtel, der hier zudem die größte Wüste der Erde, die Sahara, hervorgebracht hat. Die besonderen Eigenheiten des Flusses ließen an seinen Ufern eine der frühesten Hochkulturen entstehen. Auch heute noch ist der Nil für Ägypten von entscheidender wirtschaftlicher Bedeutung. Gewässerdaten. Mit 6852 Kilometern Länge (nach verbreiteten anderen Angaben 6671 km) ist der Nil vor dem Amazonas der längste Fluss der Erde. Vom Victoriasee aus verbleiben noch rund 5960 Kilometer Fließweg, von Khartum, wo der "Blaue Nil" in den "Weißen Nil" fließt, rund 3090 Kilometer und von der Landesgrenze von Sudan/Ägypten bis zur Mündung noch rund 1510 Kilometer. Von der mittleren Wasserführung von 2770 m³/s unterhalb der Einmündung des Atbara im Mittellauf erreichen unter natürlichen Bedingungen nur etwa 1250 m³/s das Mündungsgebiet unweit von Kairo; hinsichtlich der Wasserführung wird der Nil somit von zahlreichen Flüssen geringerer Länge weit übertroffen. Bedingt durch die starken Entnahmen zu Bewässerungszwecken erreichen heute nur rund 140 m³/s das Mittelmeer. Die Wasserführung des Nils schwankt stark, so wurden in Assuan in der Periode 1971/72 nur 50 Mrd. m³/Jahr gemessen, in der Periode 1975/76 aber 100 Mrd. m³/Jahr. Der Effekt der Schwankungen wird dadurch verstärkt, dass häufig mehrere wasserarme Jahre aufeinanderfolgen und ebenso mehrere wasserreiche Jahre. Die 1960er Jahre führte der Nil viel Wasser, während die 1980er Jahre niedrige Wasserstände hatten. Auch die beiden Quellflüsse gleichen die Wasserführung des Nils nur selten aus. Sie können beide viel Wasser führen oder, wie in den 1980er Jahren, beide wenig Wasser, was für Ägypten fast zu katastrophalen Folgen führte. Dominanz des Weißen Nil (unten) über den Blauen Nil (rechts) in der Trockenzeit (April) Dominanz des Blauen Nil über den zurückgestauten Weißen Nil zur Regenzeit (August) Quellflüsse. Der Nil besitzt zwei Quellflüsse: den kürzeren, aber wasserreicheren Blauen Nil und den wesentlich längeren Weißen Nil. Letzterer bildet die Hauptachse des Einzugsgebietes, das mit rund 3.255.000 km² nur wenig kleiner ist als das des Kongo (3.731.000 km²). Blauer Nil. Der Blaue Nil entwässert große Teile des niederschlagsreichen Hochlandes von Abessinien. Seine Quellflüsse sammeln sich im großen Tanasee. Bald nach Verlassen des Sees bildet der Blaue Nil den Wasserfall "Tis Issat" und fließt durch lange, bis 1.500 m tiefe Cañons. Bedingt durch internationale Restriktionen konnte er in Äthiopien lange nur geringfügig genutzt werden. Inzwischen ist die Grand-Ethiopian-Renaissance-Talsperre im Bau, die zumindest in der Lage sein wird, die Wasserführung des Blauen Nils zu beeinflussen. Im Sudan wird der Blaue Nil durch den Roseires-Damm und den Sennar-Damm zur Bewässerung vor allem des Gezira-Projektes und zur Energiegewinnung aufgestaut. Nach einer Lauflänge von 1.783 km fließt er bei Khartum mit dem im Mittel um etwa ein Viertel weniger Wasser führenden Weißen Nil zusammen. Der Blaue Nil ist sedimentreich und war deshalb früher der Hauptlieferant der für die Ablagerung des fruchtbaren Nilschlammes in Ägypten wichtigen Nilschwemme, die aber spätestens seit dem Bau des Assuan-Staudamms ihre Bedeutung verloren hat. Sie fand, abhängig vom Verlauf der Regenzeit im äthiopischen Hochland, in den Monaten Juli bis Oktober statt. In dieser Zeit führt der Blaue Nil im Mittel gut fünfmal so viel Wasser wie der Weiße Nil, der eine wesentlich gleichmäßigere Wasserführung zeigt. Umgekehrt führt im Mittel der übrigen acht Monate der Weiße Nil fast das 1,8-fache des Blauen Nil. Weißer Nil. Der Weiße Nil wird trotz geringerer Wasserführung meistens als eigentlicher Nil angesehen. Er hat gegenüber dem Blauen Nil ein mehr als fünfmal so großes Einzugsgebiet und mit rund 3800 Kilometern eine mehr als 2,5-fache Länge. Der Weiße Nil entsteht in den hoch gelegenen Hügelländern von Burundi, Ruanda und Tansania aus dem burundischen Quellfluss Luvironza-Ruvuvu und dem ruandischen Quellfluss Rukarara-Nyabarongo, die in den Kagera (im Oberlauf auch "Akagera") fließen. Der Kagera ist der größte Victoriasee-Zufluss, der im nördlichen Tansania sein Westufer erreicht. Das Einzugsgebiet des Kagera (ca. 60.000 km²) entwässert den größten Teil von Ruanda, die Hälfte des Staates Burundi, aber auch kleine Teile Nordwest-Tansanias. Früher wurde der Kagera oft nicht als Teil des Nil angesehen, trotz seiner Länge von insgesamt weit über 900 Kilometern und einer Wasserführung von über 230 m³/s. Der "Victoria-Nil" verlässt den Victoriasee im Norden in Uganda. Kurz unterhalb der einstigen "Owen Falls" und "Ripon Falls" wird er so hoch aufgestaut, dass auch der Seespiegel des Viktoriasees um bis zu drei Meter angehoben werden kann. Unterhalb der Bujagali-Stromschnellen und dem Kyogasee wird er "Kyoga-Nil" genannt, der über die Karuma Falls und die Murchison Falls in den Albertsee fließt. Als "Albert-Nil" fließt er aus dem See bis zur Grenze zu Südsudan. Ab dort heißt er Flusslauf "Bahr al-Dschabal" (arabisch: "Bergfluss"; auch "Bahr al-Jabal", "Bahr el-Dschebel"). Bei der Stadt Juba verlässt er das Hochland und tritt bei der Stadt Bur in das Sumpfgebiet des Sudd ein, das sich über fast 400 Kilometer nach Norden erstreckt. Hier verdunsten 51 Prozent des Nilwassers, wobei die Wasserführung von 1048 m³/s auf 510 m³/s abnimmt. Kurz vor Verlassen des Sudd trifft der Bahr al-Dschabal mit dem von links kommenden, langen, aber wasserarmen Fluss Bahr al-Ghazāl (2 m³/s) im No-See zusammen und wird von dort an als "Bahr al-Abiad" ("Weißer Nil") bezeichnet, der nun zunächst ostwärts weiterfließt. Bei der Stadt Malakal münden rechts der unvollendete Jonglei-Kanal und der kräftige, lehmfarbene Sobat (412 m³/s). Dann fließt er nordwärts weiter in Richtung Khartum und Omdurman, wo er auf den Blauen Nil trifft, der von rechts (Südosten) aus Äthiopien kommt. Nil (Nahr an-Nīl). Von Khartum flussabwärts wird der Strom als "Nahr an-Nīl" (arabisch: "Nilfluss") bezeichnet. Er fließt als so genannter Fremdlingsfluss durch ausgedehnte Wüstenlandschaften S-förmig weiter nach Norden. Im Westen beginnt die Libysche Wüste, östlich bis zum Roten Meer liegt die Nubische Wüste, die in Ägypten Arabische Wüste genannt wird. In den nordsudanesischen und ägyptischen Wüstengebieten bildet der Nil eine 5 bis 20 Kilometer breite Niederung; es ist eine lebenswichtige Fluss-Oase und die landwirtschaftliche Grundlage Ägyptens. Der ruhige und breite Lauf des Nils wird in den sechs Katarakten durch Engstellen und Felsen gestört, von denen drei inzwischen aber in Stauseen verschwunden sind. Etwa 300 km unterhalb von Khartum mündet der Atbara, ein aus dem äthiopischen Hochland kommender, sedimentreicher Gebirgsfluss, der während der dreimonatigen Flutperiode dem Nil einen erheblichen Teil seiner Wassermenge zuführt, in der Trockenzeit jedoch fast ganz versiegt. Er ist der letzte Zufluss des Nils vor seiner Mündung in das Mittelmeer. Der vierte Katarakt etwa 400 Kilometer nördlich von Khartum wurde durch den neuen Merowe-Stausee geflutet, der 2009 den Vollstau erreichte. Bei Al Dabba am südlichen Ende des Nilbogens mündet von Westen der kein Wasser mehr führende Wadi Howar, der frühere "Gelbe Nil". Kurz vor Wadi Halfa erreicht der Nil den Nubia-See, den im Sudan liegenden Abschnitt des Nassersees, der durch den von 1960 bis 1971 errichteten Assuan-Damm aufgestaut wird. Im ägyptischen Teil des Stausees befindet sich nördlich von Abu Simbel eine große Pumpstation, die das Toshka-Projekt mit Wasser versorgt. Auf der fast 1000 km langen Strecke vom Assuan-Staudamm bis nach Kairo ist der Nil zu einem riesigen Bewässerungskanal geworden, seit Muhammad Ali Pascha (1805–1848 Vizekönig von Ägypten) die Delta Barrages bauen ließ und begann, die Bewässerungsmethoden am Nil von der seit den Pharaonen praktizierten saisonalen Bewässerung in Überschwemmungsbassins auf ganzjährige Kanalbewässerung umzustellen. Der 1873 fertiggestellte, etwa 350 km lange Ibrahimiyya-Kanal, der über den Bahr Yusuf-Kanal auch das Fayyum-Becken im Westen des Nils versorgt, war die nächste große Maßnahme. Beginnend mit der alten Assuan-Staumauer, dem Asyut-Stauwehr und dem Zifta-Stauwehr wurden seit Anfang des 20. Jahrhunderts eine Reihe von Stauwehren und tausende Kilometer von Kanälen gebaut, die weitgehend gleichmäßig mit Wasser versorgt werden. Auch nach dem Assuan-Staudamm wurden und werden weitere Staumauern gebaut: vgl. dazu die Liste der Talsperren am Nil. Delta. Karte des Nildeltas um 1930 Unterhalb von Kairo fächert sich der Nil zum etwa 24.000 km² großen Nildelta auf, über das er in zwei Hauptarmen in das Mittelmeer mündet. Seit dem Bau des Assuan-Staudamms in den 1960er Jahren und der dadurch ausbleibenden Nilschwemme wächst das Flussdelta nicht mehr weiter ins Meer, sondern wird teilweise durch die Brandung abgetragen. Nur der linke, der "Rosetta-Arm", erreicht noch ständig das Meer; der "Damietta-Arm" wird kurz vor der Mündung abgedämmt, so dass sein Wasser oft nur über Bewässerungskanäle das offene Meer erreicht. Als Hauptgründe für die Verringerung der Abflussmenge des Nil gelten die intensivere Bewässerung deutlich vergrößerter Agrarflächen und die Verdunstungsverluste über dem Nassersee. Blauer Nil. Der Blaue Nil fließt durch Plateaulandschaften mit vielfach horizontal lagernden Schichten, in deren tief eingeschnittenen Tälern er zahlreiche Stromschnellen bildet. Der einzige große Wasserfall ist der wohl bekannteste im Flusssystem des Nil, der "Tis Issat". Katarakte am Mittellauf. Im Mittellauf des Nil, unterhalb des Zusammenflusses von Blauem Nil und Weißem Nil, ist das Flussbett durch sechs natürliche Granitbarrieren gekennzeichnet, die wesentlich härter sind als das umgebende Sedimentgestein und die Nilsedimente. Man hat die Katarakte seit alters schlicht nummeriert, und zwar flussaufwärts: Der erste Katarakt liegt bei Assuan, der heute allerdings – wie der zweite – vom Nassersee überstaut ist. Der dritte Katarakt liegt wenig nördlich von Kerma, der vierte nordöstlich von Karima und verschwand 2008 im Merowe-Stausee, und der fünfte 50 km nördlich von Barbar. Der oberste Katarakt liegt etwa 75 km nördlich von Omdurman. Im alten Ägypten bildeten die gefürchteten Katarakte die Grenzen zwischen den Königreichen. Sie sind bis heute Hindernisse für die Schifffahrt, bei Niedrigwasser wegen verborgener Klippen und unübersichtlicher schmaler Felsrinnen und bei Hochwasser wegen der reißenden Strömung. Es wird stromaufwärts gezählt (Nord nach Süd), der erste Katarakt befindet sich im heutigen Ägypten; der zweite bis sechste Katarakt befinden sich im Sudan. Wasserbauliche Eingriffe. Die wasserbaulichen Eingriffe am Nil wurden durch den Wechsel der Bewässerungsmethoden am Nil in Ägypten von der Überflutung von Überschwemmungsbassins zur dauerhaften Kanalbewässerung veranlasst. In neuererer Zeit wurden und werden außerdem Wasserkraftwerke gebaut (vgl. Liste der Talsperren am Nil). Überschwemmungsbassins. Die natürliche Wasserführung des Nils war geprägt durch den Wechsel zwischen der Flut im August, September und Oktober und dem anschließenden Rückgang des Wasserstandes bis auf ein Siebtel des Maximums. Auch im Vergleich der Jahre gab es starke Schwankungen sowohl bei der Höhe der Fluten als auch beim Niedrigwasser. Zur Bewässerung landwirtschaftlich genutzter Felder wurde die Flut in große Überschwemmungsbassins geleitet, die nach der Durchfeuchtung des Bodens und dem Absetzen des Nilschlamms wieder geleert wurden. Die Aussaat erfolgte unmittelbar danach auf dem durchfeuchteten Boden, die Ernte konnte und musste schon nach rund drei Monaten erfolgen, bevor die sommerliche Hitze die Böden austrocknete und kein landwirtschaftlicher Anbau mehr möglich war. Dauerhafte Kanalbewässerung. Muhammad Ali Pascha (1805–1848 Vizekönig von Ägypten) ließ die Delta Barrages bauen, die in der Niedrigwasserperiode den Nil um max. vier Meter aufstauten, was genügte, um abwechselnd einen Teil des Nildeltas zu bewässern. Dadurch wurden zusätzliche Anbauflächen im Nildelta erschlossen und erstmals konnte Baumwolle angebaut werden, die langfristig und gleichmäßig bewässerte Felder benötigt. Außerdem wurden zwei Ernten möglich. Ismail Pascha (1863–1879 Vizekönig) dehnte die Methode auf Oberägypten aus und ließ dazu den Ibrahimiyya-Kanal bauen, der 1873 fertiggestellt wurde. Der damals 320 km lange Kanal wurde in Asyut ohne besondere Bauwerke aus dem Nil ausgeleitet, um die Zuckerrohrfelder des Vizekönigs zu bewässern. Eine Abzweigung füllt den Bahr Yusuf-Kanal zum Fayyum-Becken. Überbrückung der Niedrigwasserperiode. Die Delta Barrages erwiesen sich nach ihrer Sanierung durch die Briten Ende des 19. Jahrhunderts als sehr erfolgreich. Deshalb baute man 1902 die Assuan-Staumauer, das Asyut-Stauwehr und das Zifta-Stauwehr. Die Staumauer in Assuan sollte während der Flut so viel Wasser aufstauen, dass in der anschließenden Niedrigwasserperiode alle abwärts gelegenen Bewässerungskanäle ausreichend versorgt werden konnten. Das Asyut-Stauwehr diente dabei zur Steuerung des Zuflusses zum Ibrahimiyya-Kanal. Infolge der fortschreitenden Umwandlung von Überschwemmungsbassins in dauerhaft bewässerte Felder war das Stauvolumen der Assuan-Staumauer bald nicht mehr ausreichend, so dass sie 1912 und ein weiteres Mal 1934 erhöht werden musste. Dabei wurde auch das erste Wasserkraftwerk am Nil eingebaut. Für den Zufluss zu den weiteren Kanälen wurde 1906 das Esna-Stauwehr und 1930 das Naga-Hammadi-Wehr gebaut. 1937 wurde der Jebel-Aulia-Damm im Weißen Nil oberhalb von Khartum ebenfalls zu dem Zweck gebaut, Wasser aufzustauen und während der Niedrigwasserperiode abzugeben. Im Nildelta verbesserte der Zifta-Damm die Wasserverteilung im Bereich des Damietta-Arms, 1938 ersetzten die Muhammad Ali Barrages die alt gewordenen Delta Barrages. Mit diesen umfangreichen Baumaßnahmen aus Stauwehren im Nil und Bewässerungskanälen zu seinen beiden Seiten wurde der größere Teil der landwirtschaftlichen Flächen Ägyptens auf die dauerhafte Kanalbewässerung umgestellt. Die früher grundlegende Bedeutung des Nilschlamms wurde dadurch nachrangig. Zwar hatten alle Stauwehre und selbst die Assuan-Staumauer noch Tore, um einen Teil der Flut passieren zu lassen, wichtig war aber die Bevorratung von ausreichend Wasser für die Sommermonate und die gleichmäßige Versorgung der Kanäle. Der Nilschlamm war dabei manchmal hinderlich, wenn er die Kanäle zusetzte und mühsam geräumt werden musste. Überbrückung mehrjähriger Dürrezeiten. Schon um 1900 hatten die Briten Überlegungen angestellt, wie geringe Wasserstände ausgeglichen werden und den Feldern in Ägypten zusätzliches Wasser zugeführt werden könnte. Bereits damals wurde eine Aufstauung des Tanasees und des Victoriasees, ein Kanal entlang des Sudds und ein Reservoir im Weißen Nil oberhalb Khartum in Erwägung gezogen. Das von der Assuan-Staumauer aufgestaute Volumen war auch nach ihren Erhöhungen nicht ausreichend, um ein ganzes Jahr mit extrem niedrigen Wasserständen oder um zwei aufeinanderfolgende Perioden mit niedrigen Wasserständen zu überbrücken und damit zu verhindern, dass die ägyptische Landwirtschaft verdorrt. Zur Abwendung einer solchen, für Ägypten katastrophalen Entwicklung wurde in den Jahren von 1960 bis 1971 der Assuan-Staudamm ("Assuan-Hochdamm") gebaut. Dafür wurde in Kauf genommen, dass die Nilflut endgültig im Nassersee endete und der Nilschlamm Ägypten nicht mehr erreicht. Inzwischen endet die Flut bereits im Sudan im Stausee des Merowe-Damms. Zusätzliches Wasser. Im Sudd, dem im Südsudan gelegenen riesigen Sumpfgebiet, verdunstet 53 % des Wassers des Weißen Nils. Um diesen Verlust zu verringern und mehr Wasser durch den Weißen Nil nach Ägypten zu leiten, wurde 1974 mit dem Bau des Jonglei-Kanal begonnen, durch den das Wasser des Weißen Nils am Sudd vorbeifließen sollte. Der Bau ist 1984 durch den Bürgerkrieg im Sudan unterbrochen und seitdem nicht mehr aufgenommen worden. Nutzungskonflikte. Da im Jahresmittel nur noch gut fünf Prozent des Abflusses unterhalb der Atbara-Mündung das Mittelmeer erreichen, ist eine Verschärfung der Konflikte um die Wasserverteilung absehbar. Ägypten und der Sudan stellten im Jahre 1959 in bilateralen Verhandlungen fest, dass die jährliche Gesamtmenge des verfügbaren Nilwassers durchschnittlich 84 Mrd. m³ beträgt, wovon jährlich durchschnittlich 10 Mrd. m³ durch Verdunstung und Versickerung verlorengehen würden. Gemessen wurde der Wasserdurchsatz (rund 2660 m³/s) auf der Höhe des alten Assuan-Staudamms. Ägypten bewilligte sich jährlich 55,5 Mrd. m³ und gestand dem Sudan 18,5 Mrd. m³ zu. Da der Nil aber "zehn" Anrainerstaaten hat, von denen die meisten im Abkommen von 1959 nicht erwähnt wurden, ergibt sich für den größten Teil der rund 300 Millionen Flussanwohner eine Unterversorgung, da Ägypten seine Wasseransprüche notfalls mit Gewalt durchsetzen will. In der seit 1999 bestehenden Nile Basin Initiative wird zwar versucht, partnerschaftliche Regelungen herbeizuführen, doch das bestehende Ungleichgewicht, in dem Ägypten und Sudan rund 88 % der Wassernutzung vorbehalten sind, wogegen Äthiopien, aus dessen Staatsgebiet rund 90 % des Abflusses stammen, nur eine minimale Nutzung zugestanden wird, äußert sich inzwischen in einer separaten Rahmenvereinbarung der Oberlieger-Staaten aus dem Jahr 2010 mit dem Ziel größerer Eigennutzung (Abkommen von Entebbe). Eine solche verstärkte Nutzung stellt auch das im Bau befindliche ugandische Wasserkraftwerk unterhalb der Bujagali-Stromschnellen des Viktoria-Nil dar. Altes Ägypten. Der Nil wurde von den alten Ägyptern selbst nur "großer Fluss" bzw. "Strom" genannt. Der Terminus "Nil" bürgerte sich erst durch das griechische "Neilos" ein.. Der Nil begünstigte die Entstehung einer Kultur an den Nilufern des Alten Ägyptens. Ohne ihn wäre das Land eine einzige Wüste. Man sieht es daran, dass er im Westen von der Libyschen und im Osten von der Nubischen Wüste sowie der Arabischen Wüste eingefasst wird, wo bis auf ein paar Oasen kein Wasser existiert und somit Landwirtschaft und Kultur unmöglich waren bzw. sind. Erst durch den fruchtbaren Schlamm, den der Nil bei seinen Hochwassern über das Land verteilt, konnten Nutzpflanzen angebaut und Landwirtschaft betrieben werden. Außerdem wurde der sehr tonhaltige Schlamm, den die Nilschwemme brachte, zum Häuserbau benutzt. Während die vom Nil geführte Wassermenge ihren Tiefstand zumeist im April erreicht(e), stieg diese bis Ende August auf das etwa 50- bis 60-fache an. Einmal im Jahr überschwemmte der Nil das Land und bedeckte einen bis zu mehrere Kilometer breiten Streifen Land (sog. Nilschwelle). Wenn das Wasser abfloss und verdunstete, hinterließ er fruchtbaren, dunklen Schlamm (so wäre dies auch heute noch, wenn es den Assuan-Staudamm nicht gäbe), der dem Alten Ägypten seinen Namen gab (Kemet – „Das schwarze Land“). Um diese Anbaufläche für Getreide vollständig nutzen zu können, siedelten die Ägypter meist direkt entlang des Nil, aber auch etwas abseits des Flusses in der Wüste. Um für die Wüstensiedlungen und für Trockenzeiten Wasser speichern zu können, mussten sie Kanäle und künstliche Seen anlegen. Da der einzelne ägyptische Bauer diese nicht bauen konnte, schlossen sich die Bewohner eines Landstriches zusammen und bildeten Gaue, die von Gaufürsten verwaltet wurden. Der Pegelstand des Nil hatte zur Zeit der Überschwemmung eine Schwankungsbreite von bis zu acht Metern. Er wurde an Nilometern gemessen, beispielsweise Per Hapi. Da bei niedrigem Stand manche Landstriche nicht überschwemmt wurden und die dort lebenden Bauern hungerten, wurden die Steuern nach dem Stand des Nil festgesetzt. Stieg der Nil aber zu hoch, drohte das Brechen von Dämmen und die Zerstörung von Häusern. Dadurch wurden schon früh Geometer benötigt, die das Land neu ausmaßen und die Feldergrenzen neu festlegten. Der Nil war der Haupthandelsweg Ägyptens. Über den Fluss wurde beispielsweise Holz transportiert, das in Ägypten fast überhaupt nicht vorkommt. Es wurde aus Syrien und Palästina importiert. Außerdem wurden Steinblöcke für den Bau von Pyramiden auf Schiffen transportiert. Der Schiffsverkehr war auf den Tag begrenzt, da man in der Nacht Gefahr lief, auf Sandbänke zu laufen. Bei sehr niedrigem Wasserstand wurden die Schiffe über kurze Strecken über Land gezogen. Das Segel wurde erst 3350 v. Chr. eingeführt. Römerzeit. Bereits die alten Römer waren auf der Suche nach den Quellen des riesigen Stromes („caput Nili quaerere“, im Vulgärlateinischen doppeldeutig, da auch als „Das Haupt des Nichts suchen“ übersetzbar.). Im zweiten Jahrhundert nach der Zeitenwende schrieb Claudius Ptolemäus aufgrund von Reiseberichten, der Nil entströme zwei großen Binnenseen in Äquatornähe. Nahe der Seen erhöben sich die Montes Lunae. Dieser Aussage und seiner Weltkarte folgten arabische und europäische Darstellungen des Mittelalters. Neuzeit. Der portugiesische Jesuitenmissionar Pater Pedro Páez (1564–1622) entdeckte 1613 die Quelle des Blauen Nil. Der schottische Afrikaforscher James Bruce (1730–1794) entdeckte die Quelle am 4. November 1770 wieder und beanspruchte den Ruhm (vergeblich) für sich. Viele Afrikaforscher haben versucht, die tatsächliche Quelle des Weißen Nils zu finden. Auch der Brite Samuel White Baker und der Italiener Romolo Gessi, die sich ebenfalls auf die Suche machten, haben erfolgreiche Expeditionen unternommen. Unterdessen hatte das auf Stereoskopien spezialisierte Pariser Familienunternehmen Léon & Lévy anlässlich der Einweihung des Sueskanals 1869 dem Fotografen Auguste-Rosalie Bisson dessen „Reise auf dem Nil“ finanziert, wovon rund 300 Aufnahmen reproduziert wurden. Die Briten begannen schon bald nach der Übernahme der Kontrolle in Ägypten mit der hydrologischen Erforschung und Dokumentation des Nils. Bekannt geworden sind in diesem Zusammenhang William Willcocks, der Erbauer der ersten Assuan-Staumauer, und insbesondere Harold Edwin Hurst, der während seiner 62-jährigen Tätigkeit im Dienst der ägyptischen Regierung die wohl größte Datenmenge erforschte, sammelte und dokumentierte, die je über einen Fluss zusammengetragen wurde. Bei der Ermittlung des für die "Century Storage" erforderlichen Stauvolumens entdeckte Hurst das später nach ihm benannte Phänomen, dass sich aus seinen empirischen Daten eindeutig ein größeres Volumen ergab, als es nach den damals gebräuchlichen theoretischen Berechnungsmethoden zu erwarten gewesen wäre. Fauna. Nilhechte wie diese "Mormyrus"-Art verdanken dem Fluss ihren deutschen Trivialnamen Der Nil wird von über 120 Fischarten bewohnt, was für einen Fluss dieser Länge nicht viele sind. Endemisch sind etwa ein Viertel der Arten, eine endemische Gattung gibt es nicht. Das Niltal bildet keine zoogeografische Einheit, etwa 75 Arten kommen auch im Stromgebiet des Niger und die meisten dieser Arten auch in anderen westafrikanischen Flüssen vor. Über 20 im Nil lebende Fischarten sind auch im Kongobecken zu Hause. Zu den großen im Nil lebenden Fischarten gehören der Plankton fressende Afrikanische Knochenzüngler ("Heterotis niloticus") und die Raubfische Großnilhecht ("Gymnarchus niloticus") und Nilbarsch ("Lates niloticus"). Die Zitterwelse sind mit zwei Arten vertreten, "Malapterurus electricus" und "Malapterurus minjiriya". Die artenreichste Fischfamilie sind die Karpfenfische (Cyprinidae) mit 18 Arten und die Nilhechte (Mormyridae) mit 16 Arten. Viele weitere Tierarten erhielten nach dem Fluss ihren Namen, so etwa das Nilkrokodil, die Nilgans, die Nil-Grasratte, der Nilwaran und auch das Nil- oder Flusspferd, welches aber heute im Unterlauf nicht mehr vorkommt. Viele Tiere nutzten die Ägypter als Haustiere oder Vorbilder für Götter. Städte am Nil-Ufer. Die Millionenstädte Kairo, Gizeh (beide Ägypten) und Khartum (Sudan) sind die größten Städte. Die alten Ägypter bauten ihre Städte oft an den fruchtbaren Ebenen des heiligen Flusses. Viele Katarakte und Stauanlagen wurden, unter anderem für die Besiedlung, errichtet. Brücken. Im Nildelta wurden seit der von Robert Stephenson in den Jahren 1852 bis 1856 gebauten Eisenbahn von Alexandria nach Kairo und den beiden 1862 fertiggestellten Abschnitten der Delta Barrages über den Rosetta- und den Damietta-Arm noch zahlreiche weitere Brücken gebaut. In Kairo war die 1871 eröffnete "Kobri el Gezira" die erste Brücke zur Insel al-Gezira. Inzwischen verbinden mehrere, bis zu zehnspurige Brücken das Zentrum mit der Insel sowie dem gegenüberliegenden Flussufer. Zwischen Kairo und Khartum gab es lange nur die 1902 fertiggestellten Stauwehre in Asyut und Assuan, über die eine Straße verlief. Im Sudan wurde wenige Jahre darauf die Eisenbahn von Port Sudan nach Khartum und Wadi Halfa und der Zweig von Khartum über Sannar und Kusti nach El Obeid mit der An-Nil-al-azraq-Brücke über den Blauen Nil in Khartum und der Kusti-Eisenbahnbrücke über den Weißen Nil gebaut. Ägypten hat insbesondere in den letzten Jahrzehnten unterhalb von Assuan zahlreiche Straßenbrücken gebaut, so dass etwa alle 50 bis 100 km eine feste Querung besteht. Im Sudan wurden Brücken in Khartum erstellt sowie einige wenige in dem kaum besiedelten Abschnitt oberhalb des Nassersees. Außerdem gibt es oberhalb von Khartum nun je drei Straßenbrücken über den Weißen und den Blauen Nil. Südlich des Sudan gibt es über den Blauen und den Weißen Nil nur jeweils fünf feste Querungen, darunter in Äthiopien die beiden portugiesischen Brücken unterhalb des Tanasees aus dem 17. Jahrhundert, die mit Abstand die ältesten Nilbrücken sind. Niedersachsen. Niedersachsen (saterfriesisch "Läichsaksen", Landescode "NI", Abkürzung "Nds.") ist ein Land im Nordwesten der Bundesrepublik Deutschland. Das Flächenland von rund 47.600 km² steht unter den 16 deutschen Ländern auf dem zweiten Platz hinter Bayern und nimmt bei einer Einwohnerzahl von rund 7,8 Millionen Platz vier ein. Neben der Landeshauptstadt Hannover gibt es fünf weitere Großstädte. Die Agglomerationen der Länder Bremen und Hamburg reichen weit nach Niedersachsen hinein. Das heutige Land Niedersachsen entstand nach dem Zweiten Weltkrieg durch die Vereinigung des Landes Hannover mit den Freistaaten Braunschweig, Oldenburg und Schaumburg-Lippe. Geographische Lage. Meistens wird Niedersachsen als Teil Norddeutschlands wahrgenommen, wobei es gegen diese pauschale Zuordnung aus verschiedenen Gründen häufig kontroverse Ansichten gibt "(siehe hierzu auch im Hauptartikel Norddeutschland)". Niedersachsen hat im Norden eine natürliche Begrenzung durch die Nordsee und den Unterlauf (Unterelbe) sowie den unteren Mittellauf der Elbe. Ausgenommen hiervon sind das Amt Neuhaus, das nordöstlich der Elbe liegt, und die südelbischen Teile Hamburgs. Als Enklave vom Landesgebiet umgeben ist das aus den Städten Bremen und Bremerhaven bestehende Land Bremen. Zum Ausgleich der Nachteile, die durch Bremens Enklavenlage entstehen, wurde die Kooperation im Rahmen der Oldenburg begründet. Im Südosten verläuft die Landesgrenze durch das Mittelgebirge des Harzes. Der Nordosten und der Westen des Landes – insgesamt rund drei Viertel der Landesfläche – gehören zur Norddeutschen Tiefebene, der Süden zum Niedersächsischen Bergland mit dem Weserbergland, Leinebergland, Schaumburger Land, Braunschweiger Land, Untereichsfeld, Elm und Lappwald. Im Nordosten Niedersachsens liegen die Lüneburger Heide und das von der Stader Geest dominierte Elbe-Weser-Dreieck. Während dort ärmere Sandböden der Geest vorherrschen, finden sich im mittleren Osten und Südosten in der Lössbördenzone ertragreiche Böden mit hoher natürlicher Fruchtbarkeit. Unter diesen Voraussetzungen (lehm- und sandhaltige Böden) gilt das Land landwirtschaftlich als gut erschlossen. Im Westen liegen die Grafschaft Bentheim, das Osnabrücker Land, das Emsland, das Oldenburger Land, das Ammerland, das Oldenburger Münsterland und – an der Küste – Ostfriesland. Der höchste Berg Niedersachsens ist der Wurmberg im Harz mit. Für weitere Berge siehe: Liste von Bergen und Erhebungen in Niedersachsen. Die meisten Berge und Hügel sind im Südosten des Landes zu finden. Der tiefste Geländepunkt ist mit rund zweieinhalb Metern unter dem Meeresspiegel eine Senke bei Freepsum in Ostfriesland. Der Siedlungs-, Wirtschafts- und infrastrukturelle Schwerpunkt Niedersachsens befindet sich im Bereich der Städte Stadthagen – Hannover mit Region Hannover – Celle – Braunschweig – Wolfsburg – Hildesheim – Salzgitter. Sie bilden mit dem in Südniedersachsen liegenden Göttingen den Kern der Metropolregion Hannover-Braunschweig-Göttingen-Wolfsburg. Großbereiche. Niedersachsen weist eine deutliche regionale Gliederung auf, die sich sowohl an landschaftlichen Gegebenheiten als auch an historischen, traditionell-konfessionellen und kulturellen Entwicklungslinien manifestiert. In den früher eigenständigen Teilgebieten Braunschweig, Hannover, Oldenburg und Schaumburg, insbesondere in deren Kerngebieten, findet man bis heute häufig einen ausgeprägten Lokalpatriotismus vor, ebenso in Ostfriesland und in den traditionell römisch-katholisch geprägten Regionen Emsland, Eichsfeld und Oldenburger Münsterland. Im Umland der Hansestädte Bremen und Hamburg dominiert dagegen häufiger eine Orientierung in Richtung dieser Zentren. Die heutigen Metropolregionen, die sich auf niedersächsischem Gebiet befinden, tragen der im Alltag relevanten regional vorherrschenden Orientierung Rechnung, die sich beispielsweise in Form von wirtschaftlicher Zusammenarbeit und Pendlerströmen äußert. Frühere Verwaltungs- und Regierungsbezirke. Noch heute orientieren sich die Einzugsbereiche vieler kirchlicher und gesellschaftlicher Institutionen, Grenzen von Handelskammern und kultureller Einrichtungen an den historischen Gebieten, die bis 1978 in Form von Verwaltungs- und Regierungsbezirken bestanden und aktuell in den Landschaften und Landschaftsverbänden fortbestehen. Auf den nach 1978 durch Zusammenlegungen entstandenen vergrößerten Regierungsbezirken basiert der Einzugsbereich der heutigen Regionalbeauftragten der Landesregierung. Nachbarländer. Niedersachsen ist das Bundesland mit den meisten benachbarten Ländern. Angrenzende Länder sind Bremen, Hamburg, Schleswig-Holstein, Mecklenburg-Vorpommern, Brandenburg, Sachsen-Anhalt, Thüringen, Hessen und Nordrhein-Westfalen. Niedersachsen hat außerdem eine Grenze zu den niederländischen Provinzen Overijssel, Drente und Groningen. Im Bereich der Emsmündung ist der genaue Grenzverlauf zwischen Deutschland und den Niederlanden völkerrechtlich nicht genau festgelegt. Zwar einigten sich die beiden Staaten im "Vertrag zwischen der Bundesrepublik Deutschland und dem Königreich der Niederlande über die Regelung der Zusammenarbeit in der Emsmündung" vom 8. April 1960 auf eine gute partnerschaftliche Zusammenarbeit, jedoch kommt es in Detailfragen immer wieder zu Differenzen, zuletzt zum Beispiel um die Genehmigung von geplanten Offshore-Windparks. Flüsse. Alle Flüsse in Niedersachsen fließen direkt oder indirekt in die Nordsee. Man unterscheidet die drei Einzugsgebiete von Ems, Weser und Elbe. Lediglich die Flüsse Vechte, Harle, Jade und Maade gehören keinem der vorgenannten Einzugsgebiete an. Seen. Niedersachsen ist reich an natürlichen Seen, die in der Regel nur eine geringe durchschnittliche Tiefe haben. Der größte See ist das Steinhuder Meer mit einer Fläche von 29,1 km², gefolgt vom Dümmer mit 13,5 km² und dem Zwischenahner Meer mit 5,5 km². Viertgrößter See ist das Große Meer in Ostfriesland mit 2,89 km². Über den niedersächsischen Badegewässer-Atlas kann man verschiedene Informationen zu den rund 280 Badegewässern Niedersachsens finden. Neben der Badegewässerqualität findet man auch Informationen über die Lage und die Infrastruktur wie zum Beispiel Parkplätze, sanitäre Anlagen oder Badeaufsicht. Die Badegewässerqualität wird auf Grundlage der Überwachungsergebnisse der letzten vier Badesaisons bestimmt. Jedes Badegewässer erhält dementsprechend eine Qualitätskategorie von „ausgezeichnet“ bis „mangelhaft“. Talsperren. In Niedersachsen gibt es 86 Talsperren, die vom Niedersächsischen Landesbetrieb für Wasserwirtschaft, Küsten- und Naturschutz (NLWKN) überwacht werden. In dieser Gesamtzahl sind gemäß der Talsperrendefinition auch etwa 30 Oberharzer Stauteiche der Oberharzer Teiche enthalten, die einen wesentlichen Teil des Oberharzer Wasserregal darstellen. Das Oberharzer Wasserregal gilt als das weltweit bedeutendste vorindustrielle Wasserwirtschaftssystem des Bergbaus und wurde 2010 zum UNESCO-Weltkulturerbe erklärt. Die meisten niedersächsischen Talsperren befinden sich im Harz, der zu den niederschlagsreichsten Gegenden in Deutschland zählt. 78 Talsperren befinden sich in den Gewässereinzugsgebieten von Oker, Innerste, Rhume, Leine und Aller. In den Gewässereinzugsgebieten von Ems, Hase und Hunte gibt es fünf Sperren, im Bereich der Ilmenau liegen zwei Sperren, nur eine Talsperre existiert im niedersächsischen Gewässereinzugsgebiet der Weser. Die Talsperren werden sowohl für die Trinkwassergewinnung, als auch für den Hochwasserschutz genutzt. Die größte Talsperre in Niedersachsen ist die Okertalsperre mit einem Speichervolumen von 47,4 Millionen Kubikmeter. Die älteste Talsperre ist die Sösetalsperre bei Osterode am Harz, die von 1928 bis 1931 an der Söse gebaut wurde. Landschaftsschutzgebiete. Ende 2011 gab es in Niedersachsen 1.272 Landschaftsschutzgebiete mit einer Gesamtfläche von 9.857 Quadratkilometer. Das sind 18,58 Prozent der Gesamtfläche von Niedersachsen. Die größten Landschaftsschutzgebiete sind das Landschaftsschutzgebiet Südheide mit 43.775 Hektar, das Landschaftsschutzgebiet Harz im Landkreis Goslar mit 39.018 Hektar sowie das Landschaftsschutzgebiet Elbhöhen-Drawehn mit 37.105 Hektar. Naturschutzgebiete. Weiterhin bestanden Ende 2011 772 Naturschutzgebiete mit einer Fläche von 1.988 Quadratkilometer, was einem Anteil von 3,75 Prozent an der Gesamtfläche Niedersachsen entsprach. Das größte Naturschutzgebiet ist das Naturschutzgebiet Lüneburger Heide mit 23.437 Hektar, gefolgt von dem Naturschutzgebiet Borkum Riff mit 10.000 Hektar und dem Naturschutzgebiet Esterweger Dose mit 4.747 Hektar. Das Naturschutzgebiet Lüneburger Heide ist auch das älteste Naturschutzgebiet in Niedersachsen. Es wurde bereits am 12. Januar 1922 unter Schutz gestellt. Naturparks. Niedersachsen weist außerdem 13 Naturparks mit einer Fläche von zusammen 937.721 Hektar aus. Das sind 17,68 Prozent der Landesfläche. Es handelt sich um die Naturparks Dümmer, Elbhöhen-Wendland, Elm-Lappwald, Harz, Lüneburger Heide, Münden, Terra.vita, Solling-Vogler, Steinhuder Meer, Südheide, Weserbergland, Wildeshauser Geest, Bourtanger Moor-Bargerveen. Größter Naturpark ist die Wildeshauser Geest mit 155.400 Hektar. Nationalparks. Zum Schutze des Ökosystems und zur Erholung reiht sich Niedersachsen mit dem Nationalpark Niedersächsisches Wattenmeer (345.800 ha) in eine fast durchgängige Kette von Schutzgebieten des Wattenmeers zwischen Blåvandshuk (Dänemark) bis Den Helder (Niederlande) ein. Zusammen mit Sachsen-Anhalt wurde der Nationalpark Harz (ca. 15.800 ha in Niedersachsen und 8.900 ha in Sachsen-Anhalt) mit seinen ausgedehnten Waldgebieten und Mooren ebenso als deutscher Nationalpark ausgewiesen. Klima. Niedersachsen gehört zur gemäßigten Klimazone Mitteleuropas im Bereich der Westwindzone und befindet sich im Übergangsbereich zwischen dem maritimen Klima in Westeuropa und dem kontinentalen Klima in Osteuropa. Dieser Übergang macht sich innerhalb des Landes deutlich bemerkbar: Während der Nordwesten ein atlantisches (Nordseeküste) bis subatlantisches Klima mit im Jahresverlauf vergleichsweise geringer Temperaturamplitude und einem Wasserbilanzüberschuss aufweist, wird das Klima nach Südosten hin zunehmend kontinentaler beeinflusst. Dies wird an stärkeren Temperaturunterschieden zwischen Sommer- und Winterhalbjahr sowie an geringeren und jahreszeitlich ungleich verteilten Niederschlägen deutlich. Am stärksten ist diese subkontinentale Färbung im Wendland, im Weserbergland (Hameln bis Göttingen) und im Raum Helmstedt ausgeprägt. Im Harz sind die höchsten Niederschläge zu verzeichnen, da der niedersächsische Teil die Luvseite dieses Mittelgebirges darstellt, an der sich unter anderem Steigungsregen entlädt. Die Jahresmitteltemperatur liegt bei 8 °C (7,5 °C im Alten Land und 8,5 °C im Kreis Cloppenburg). Geschichte bis zur Gründung des Landes. a>e zu Beginn des 16. Jahrhunderts. In Rot der Niedersächsische Reichskreis, in Hellbraun der Niederrheinisch-Westfälische Reichskreis Vor 1946 bezog sich das Wort „Niedersachsen“ nicht auf genau das Gebiet, welches das heutige Land Niedersachsen ausmacht. Den Kern des „Niedersachsen“ genannten Gebiets machten die Regionen aus, in denen der germanische Volksstamm der Sachsen lebte. Allerdings gehören zum Land Niedersachsen auch Gebiete, die von Friesen bewohnt wurden und werden oder in denen früher slawische Polaben lebten. Der letzte sächsische Herzog, der auch über Westfalen herrschte, war Heinrich der Löwe. Nach dessen Entmachtung im Jahr 1180 wurde der Begriff „Niedersachsen“ zur Abgrenzung des Herrschaftsgebiets der Welfen, einerseits von Westfalen, andererseits von dem sich später „Sachsen“ nennenden Gebiet an der oberen Elbe, benutzt. Bis zum Wiener Kongress (1814/1815). Der Name und das Wappen des heutigen Landes greifen auf den germanischen Volksstamm der Sachsen zurück. Teile des Stammesverbandes der Sachsen drangen während der Völkerwanderungszeit ab dem 3. Jahrhundert aus ihrer Heimat in Holstein über die Elbe nach Süden vor, wo sie sich in den damals von anderen Volksstämmen dünn besiedelten Gebieten in den übrigen niederen Landen, im heutigen Nordwestdeutschland und im nordöstlichen Teil der heutigen Niederlande ausbreiteten. Etwa ab dem 7. Jahrhundert hatten die Sachsen einen Siedlungsraum besetzt, der etwa den heutigen Ländern Niedersachsen, Westfalen und einigen östlich angrenzenden Gebieten wie dem West- und Nordteil Sachsen-Anhalts entsprach. Das Gebiet der Sachsen war in etwa 60 Gaue unterteilt. Die Friesen waren nicht in dieses Gebiet einbezogen; sie bewahrten sich über Jahrhunderte in der nordwestlichsten Region des heutigen niedersächsischen Raums ihre Eigenständigkeit. Die (Ur-)Sprache der Bevölkerung im Gebiet Altsachsens ist das Sächsische, eine Sprachvarietät im niederdeutschen Sprachraum. Die dauerhafte Abgrenzung des später "Niedersachsen" genannten Gebietes von Westfalen begann im 12. Jahrhundert. Im Jahr 1260 wurden in einem Vertrag zwischen dem Erzbistum Köln und dem Herzogtum Braunschweig-Lüneburg die Interessengebiete beider Territorien voneinander abgegrenzt. Die Grenze verlief bis nördlich von Nienburg entlang der Weser. Der nördliche Teil des Weser-Ems-Gebiets wurde dem Einflussbereich Braunschweig-Lüneburgs zugerechnet. Das Wort „Niedersachsen“ wurde erstmals vor 1300 in einer niederländischen Reimchronik benutzt. Seit dem 14. Jahrhundert bezeichnete es (im Gegensatz zu Sachsen-Wittenberg) das Herzogtum Sachsen-Lauenburg. Bei der Gründung von Reichskreisen ab 1500 wurde der Niedersächsische Reichskreis vom Niederrheinisch-Westfälischen Reichskreis unterschieden. Letzterem wurden folgende (teilweise) heute zum Land Niedersachsen gehörenden Gebiete zugeordnet: das Hochstift Osnabrück, das Hochstift Münster, die Grafschaft Bentheim, die Grafschaft Hoya, das Fürstentum Ostfriesland, das Fürstentum Verden, die Grafschaft Diepholz, die Grafschaft Oldenburg, die Grafschaft Schaumburg und die Grafschaft Spiegelberg. Gleichzeitig unterschied man den Ostteil des alten Sachsenlandes von den später aus dynastischen Gründen „Obersachsen“ genannten mitteldeutschen Fürstentümern (siehe auch → Kurfürstentum Sachsen, Geschichte Sachsens). Die enge geschichtliche Verbindung der im heutigen Niedersachsen gelegenen Länder des Niedersächsischen Reichskreises bestand über Jahrhunderte vor allem in dynastischer Hinsicht. Die meisten Vorgängerterritorien des Landes waren Teilfürstentümer des mittelalterlichen welfischen Herzogtums Braunschweig-Lüneburg. Alle welfischen Fürsten nannten sich in ihren jeweiligen oft zersplitterten und immer wieder vereinigten Fürstentümern "Herzöge zu Braunschweig und Lüneburg". Die „Hanseatischen Departements“ bestanden von 1811 bis 1813 Zwischen 1806 und 1813 gehörten die meisten Teile des heutigen Niedersachsen zum Rheinbund oder zum Napoleonischen Frankreich. Nach der Schlacht bei Jena und Auerstedt 1806 wurden Ostfriesland und das Jeverland in das Königreich Holland und damit in den französischen Machtbereich eingegliedert. 1810 wurde das Gebiet als Departement "Ems-Orientale" unmittelbar dem französischen Kaiserreich unterstellt. Dabei wurde das Rheiderland im westlichen Ostfriesland aufgrund alter niederländischer Ansprüche aus Ostfriesland ausgegliedert und dem niederländischen Departement "Ems-Occidental" mit der Hauptstadt Groningen zugeschlagen. Am 1. Januar 1811 wurden die drei Hanseatischen Departements – "Departement der Elbe-Mündung" mit der Hauptstadt Hamburg, "Departement der Wesermündung" mit der Hauptstadt Bremen und "Departement der Ober-Ems" mit der Hauptstadt Osnabrück – gebildet. Am 27. April 1811 kam das "Departement der Lippe" mit der Hauptstadt Münster hinzu. Zu diesem Department gehörten Teile des heutigen Emslands. Nach der Niederlage Napoleons wurden diese Departments von 1813 bis 1815 wieder aufgelöst. Bis zum Untergang des Königreichs Hannover. Im Laufe der Zeit waren östlich der Weser zwei größere Fürstentümer übrig geblieben: das Königreich Hannover und das Herzogtum Braunschweig (nach 1919 Freistaat/Land). Geschichtlich besteht eine enge, durch die Personalunion des 18. Jahrhunderts begründete Bindung des Adelshauses in Hannover (Kurfürstentum Braunschweig-Lüneburg) an das Vereinigte Königreich Großbritannien und Nordirland. Westlich der Hunte setzte ab 1815 ein „Entwestfalisierungs-Prozess“ ein: Nach dem Wiener Kongress gelangten die Gebiete der späteren Regierungsbezirke Osnabrück und Aurich an das Königreich Hannover. Bis zum Ende der Weimarer Republik. Nach dem Deutschen Krieg 1866 wurde das Königreich Hannover vom Königreich Preußen annektiert und zur preußischen Provinz „degradiert“. Dagegen bewahrten das Großherzogtum Oldenburg, das Herzogtum Braunschweig und das Fürstentum Schaumburg-Lippe bis zum 1. November 1946 ihre territoriale Autonomie innerhalb Deutschlands. In einem Vortrag am 14. September 2007 beschrieb Dietmar von Reeken die Entstehung eines „Niedersachsenbewusstseins“ im 19. Jahrhundert, dessen räumliche Basis als Raumkonstrukt im 19. Jahrhundert erfunden worden sei: Die entstehenden Heimatvereine und die dazugehörigen Zeitschriften trugen den Begriff „Niedersachsen“ bzw. „niedersächsisch“ als Programmatik im Namen. Ende der 1920er-Jahre habe im Kontext der Diskussionen um eine Reichsreform und forciert durch die sich verbreitenden Heimatbewegungen eine fünfundzwanzigjährige Auseinandersetzung zwischen „Niedersachsen“ und „Westfalen“ begonnen. Träger dieser Auseinandersetzung seien Verwaltungsbeamte und Politiker gewesen; regional arbeitende Wissenschaftler aus unterschiedlichen Disziplinen hätten die Argumente geliefert. In den 1930er Jahren habe ein reales Niedersachsen noch nicht existiert, jedoch eine Fülle von Institutionen, die sich „niedersächsisch“ genannt hätten. Die Motive und Argumente bei den Auseinandersetzungen zwischen „Niedersachsen“ und „Westfalen“ seien auf beiden Seiten sehr ähnlich gewesen: ökonomische Interessen, politische Zielsetzungen, kulturelle Interessen und historische Aspekte. 2006 sagte Thomas Vogtherr in einem Festvortrag aus Anlass des 60. Jahrestages der Gründung des Landes Niedersachsen den Vorgang: „Niedersachsen […] ist eine Erfindung des 19. Jahrhunderts, die über viele Zwischenstationen als Ergebnis des Zweiten Weltkrieges zur politischen Realität wurde.“ Wer nach 1866 von „Niedersachsen“ sprach, der dachte Vogtherr zufolge darin eine antipreußische Spitze mit. Wer die Werte der niedersächsischen Heimat beschwor, der wollte sich vom Berliner Zentralismus absetzen. Wer die Ausweitung des Niedersachsenbegriffes auf Oldenburg oder Braunschweig behauptete, der versuchte, die Einwohner dieser immer noch selbständigen Herrschaftsgebiete gewissermaßen in eine antipreußische Kollektivhaftung zu nehmen. In den Jahren nach 1866 nahm die Zahl der Bücher, in deren Titel das Stichwort „Niedersachsen“ auftauchte, geradezu explosionsartig zu. 1920 wurde das gesamte Weser-Ems-Gebiet (einschließlich der Stadt Bremen) einem Wahlkreisverband IX (Niedersachsen) zugeordnet. Dies kann man als Indiz dafür sehen, dass damals die westlichen Regierungsbezirke der preußischen Provinz Hannover und das Land Oldenburg als „niedersächsisch“ empfunden wurden. Vorläufer des heutigen Landes Niedersachsen sind Länder, die geographisch und auch teilweise institutionell schon früh miteinander verzahnt waren. Die (nicht mit dem Fürstentum Schaumburg-Lippe zu verwechselnde) Grafschaft Schaumburg um die Städte Rinteln und Hessisch Oldendorf gehörte zwar bis 1932 zur preußischen Provinz Hessen-Nassau, die auch weite Teile des heutigen Bundeslandes Hessen einschließlich der Städte Kassel, Wiesbaden und Frankfurt am Main umfasste; 1932 wurde die Grafschaft Schaumburg aber Teil der preußischen Provinz Hannover. Ebenfalls vor 1945, nämlich 1937, wurde die Stadt Cuxhaven durch das Groß-Hamburg-Gesetz vollständig in die preußische Provinz Hannover eingegliedert, so dass bei der Gründung des Landes Niedersachsen zum 1. November 1946 nur noch vier Länder fusioniert werden mussten. Mit Ausnahme Bremens und der Gebiete, die nach 1945 an die SBZ abgetreten worden waren, wurden 1946 alle Gebiete dem Land Niedersachsen zugeordnet, die bereits 1920 zum „Wahlkreisverband Niedersachsen“ zusammengefasst worden waren. Bis zum Ende des Zweiten Weltkriegs. 1934 äußerte sich Hermann Lübbing zur Zukunft des Landes Oldenburg. Er sieht das Land Oldenburg in der Rolle einer umworbenen Braut mit zwei Verehrern, nämlich den Anhängern eines Landes Niedersachsen und den Anhängern eines Westfalens in der Tradition des Niederrheinisch-Westfälischen Reichskreises. Beiden Gruppen hält Lübbing vor, sie respektierten nicht die Gegebenheiten, d. h. erstens die existierenden, mit Traditionen verbundenen politischen Grenzen, zweitens die natürlichen Grenzen („Nieder-“ verweise auf die Norddeutsche Tiefebene; dem Einbezug weiter Mittelgebirgsregionen fehle so die Begründung; ebenso gebe es keine stimmige naturräumliche Erklärung für die Ostgrenze Niedersachsens) sowie drittens die Stammesgrenzen (Friesen seien keine Sachsen). Die „Braut Oldenburg“ habe sich, so Lübbing, „das Opfer ihrer Selbständigkeit für ein neues Deutsches Reich“ (quasi mit den Nationalsozialisten als „Bräutigam“) vorbehalten. Offenbar befürwortet Lübbing 1934 weder ein „Groß-Hannover“ noch ein „Groß-Westfalen“ als neue Heimat für die Oldenburger, sondern eher eine Art „Groß-Oldenburg“, das zwar auf dem Wiener Kongress 1815 verworfen worden sein soll, aber in Form des Gaues Weser-Ems der NSDAP 1925 (parteiintern) bzw. 1933 (für die Staatsorganisation maßgeblich) Gestalt angenommen hat. Dieser Gau stellte insofern tatsächlich eine Art „Groß-Oldenburg“ dar, als beide Gauleiter, Carl Röver und Paul Wegener, aus dem Land Oldenburg stammten und als von der Stadt Oldenburg aus, wo die Nationalsozialisten 1932 ihre erste Landesregierung im Deutschen Reich bilden konnten, auch die zuvor selbstständige Stadt Bremen verwaltet werden sollte. Allerdings war der Gauleiter Weser-Ems nur im Land Oldenburg und in der Hansestadt Bremen auch Reichsstatthalter. Die einem Reichsstatthalter vergleichbare Stellung in den Regierungsbezirken Aurich und Osnabrück hatte der Oberpräsident der preußischen Provinz Hannover inne, so dass der Einfluss Rövers und Wegeners auf diese Teile des Gaues Weser-Ems begrenzt blieb. Nach dem Ende des Zweiten Weltkriegs. Britische Besatzungszone ab 8. Juni 1947 Nach dem Zweiten Weltkrieg lag Nordwestdeutschland größtenteils in der britischen Besatzungszone. Mit der Verordnung Nr. 46 der britischen Militärregierung vom 23. August 1946 "„Betreffend die Auflösung der Provinzen des ehemaligen Landes Preußen in der Britischen Zone und ihre Neubildung als selbständige Länder“" wurde auf dem Gebiet der preußischen Provinz Hannover zunächst das Land Hannover errichtet. Dessen Ministerpräsident Hinrich Wilhelm Kopf hatte schon im Juni 1945 die Bildung eines Landes Niedersachsen angeregt, das möglichst große Gebiete in der Mitte der britischen Zone abdecken sollte. Neben den Gebieten, die später tatsächlich Niedersachsen zugeordnet wurden, forderte Kopf in einer Denkschrift vom April 1946 den Einbezug des ehemaligen preußischen Bezirks Minden-Ravensberg (also der westfälischen Städte Bielefeld und Herford sowie der westfälischen Kreise Minden, Lübbecke, Bielefeld, Herford und Halle (Westf.)), des Kreises Tecklenburg sowie des Landes Lippe. Kopfs Plan beruht letztlich auf einem bereits Ende der 1920er Jahre von Georg Schnath und Kurt Brüning vorgelegten Entwurf zur Reform des Deutschen Reiches. Die „Welfenlastigkeit“ dieses Entwurfs habe, so Thomas Vogtherr, nach 1946 die Entwicklung einer „niedersächsischen Identität“ nicht erleichtert. Ein alternatives, von Politikern in Oldenburg und Braunschweig propagiertes Modell sah vor, im Nordwesten ein eigenes Land „Weser-Ems“ zu gründen, das aus dem Land Oldenburg, der Hansestadt Bremen und den Regierungsbezirken Aurich und Osnabrück bestehen sollte. Einige Vertreter des Landes Oldenburg forderten sogar den Einbezug der hannoverschen Landkreise Diepholz, Syke, Osterholz-Scharmbeck und Wesermünde in das neu zu gründende Land „Weser-Ems“. Ebenso sollte im Südosten ein um den Regierungsbezirk Hildesheim und den Landkreis Gifhorn vergrößertes Land Braunschweig erhalten bleiben. Wäre dieser Plan umgesetzt worden, bestünde das Gebiet des heutigen Niedersachsens aus drei flächenmäßig etwa gleich großen Ländern. Der Kreistag des Landkreises Vechta protestierte am 12. Juni 1946 gegen eine Zuordnung des Kreises zum „Großraum Hannover“. Im Falle einer Auflösung des Landes Oldenburg solle der Kreis Vechta vielmehr in den Raum Westfalen eingebunden werden. Insbesondere in Kreisen des politischen Katholizismus war die Auffassung weit verbreitet, das Oldenburger Münsterland und der Regierungsbezirk Osnabrück sollten einem neu zu gründenden Land „Westfalen“ zugeschlagen werden. Seit der Gründung der Länder Nordrhein-Westfalen und Hannover am 23. August 1946 ist die nördliche und östliche Grenze Nordrhein-Westfalens weitgehend mit der entsprechenden Grenze der preußischen Provinz Westfalen identisch. Nur das Land Lippe wurde erst im Januar 1947 Nordrhein-Westfalen zugeordnet. Dadurch wurde ein Großteil der Gebiete links der Oberweser nordrhein-westfälisch. Forderungen niederländischer Politiker, denen zufolge die Niederlande deutsche Gebiete östlich der deutsch-niederländischen Grenze als Reparationen erhalten sollten, wurden erst auf der Londoner Deutschland-Konferenz am 26. März 1949 weitestgehend ad acta gelegt. Tatsächlich wurden 1949 im Westen Niedersachsens nur ca. 1,3 Quadratkilometer an die Niederlande abgetreten. Nachkriegszeit. Am 9. Dezember 1946 trat der erste niedersächsische Landtag zusammen. Er war nicht gewählt, sondern von der britischen Besatzungsverwaltung eingesetzt (ernannter Landtag). Noch am selben Tag wählte der Landtag Hinrich Wilhelm Kopf (SPD), den vormaligen hannoverschen Regierungspräsidenten, zum ersten Ministerpräsidenten. Hinrich Wilhelm Kopf blieb – unterbrochen von der Regierungszeit Heinrich Hellweges (1955–1959) – bis 1961 Regierungschef in Niedersachsen. Am 13. April 1951 trat die „Vorläufige Niedersächsische Verfassung“ in Kraft. Wichtigstes Problem der ersten Nachkriegsjahre war die große Zahl an Flüchtlingen aus dem Osten des untergegangenen Großdeutschen Reiches, die in dem großen Flächenland Zuflucht suchten. Niedersachsen lag am westlichen Ende der direkten Fluchtroute aus Ostpreußen und hatte die längste Grenze zur sowjetischen Besatzungszone. Niedersachsen übernahm am 3. Oktober 1950 die Patenschaft für die hier sehr zahlreichen Flüchtlinge aus Schlesien. Noch 1950 fehlten nach offiziellen Zahlen rund 730.000 Wohnungen. Während der Zeit der deutschen Teilung wurde über den niedersächsischen Kontrollpunkt Helmstedt zur Deutschen Demokratischen Republik, der sich von 1945 bis 1990 zum größten europäischen Grenzübergang entwickelte, die Hauptlast des Transitverkehrs nach West-Berlin abgewickelt. Im Zeichen des Kalten Krieges war Niedersachsen aufgrund der Lage des Landes am „Eisernen Vorhang“ und der strategischen Bedeutung der Norddeutschen Tiefebene jahrzehntelang Stationierungsschwerpunkt der NATO; neben britischen und niederländischen Truppen wurden seit Ende der 1950er Jahre starke Heeresverbände der deutschen Bundeswehr hier stationiert. Konsolidierung. Wirtschaftlich prägend für das Land wurde der Volkswagen-Konzern, der 1945 zunächst unter britischer Aufsicht wieder mit der Produktion von Zivilfahrzeugen begann und 1949 in den Besitz des neu gegründeten westdeutschen Staates (BRD) und des Landes Niedersachsen überging. Insgesamt zählte Niedersachsen mit seiner großen, ländlich geprägten Fläche und seinen wenigen städtischen Zentren lange zu den strukturschwachen Regionen der Bundesrepublik. 1960 waren 20 Prozent der Erwerbstätigen in der Landwirtschaft beschäftigt. Im übrigen Bundesgebiet lag dieser Wert bei 14 Prozent. Auch in wirtschaftlich günstigen Zeiten blieb die Arbeitslosenquote in Niedersachsen konstant höher als im Bundesdurchschnitt. 1961 trat Georg Diederichs als Nachfolger von Hinrich Wilhelm Kopf das Amt des Ministerpräsidenten von Niedersachsen an. Er wurde hierin 1970 von Alfred Kubel abgelöst. Die Auseinandersetzungen um das Atommülllager Gorleben, die in der Regierungszeit von Ministerpräsident Ernst Albrecht (1976–1990) begannen, spielen in der niedersächsischen Landes- ebenso wie in der Bundespolitik seit Ende der 1970er Jahre eine wichtige Rolle. Nach der Wiedervereinigung. 1990 trat Gerhard Schröder das Amt des Ministerpräsidenten an. Am 1. Juni 1993 trat die neue Verfassung des Landes in Kraft, die die „Vorläufige Niedersächsische Verfassung“ von 1951 ablöste. Sie ermöglicht erstmals Volksbegehren und Volksentscheide und verankert den Umweltschutz als Staatsgrundsatz. Das ehemals hannoversche Amt Neuhaus mit den damaligen Gemeinden Dellien, Haar, Kaarßen, Neuhaus (Elbe), Stapel, Sückau, Sumte und Tripkau sowie die Ortsteile Neu Bleckede, Neu Wendischthun und Stiepelse der Gemeinde Teldau und das historisch-hannoversche Gebiet im Forstrevier Bohldamm in der Gemeinde Garlitz wechselten mit Wirkung vom 30. Juni 1993 von Mecklenburg-Vorpommern zum Land Niedersachsen (Landkreis Lüneburg). Neu Bleckede und Neu Wendischthun wurden am selben Tag wieder in die Stadt Bleckede eingemeindet, zu der sie bis 1945 gehört hatten. Aus den übrigen Gemeinden und Ortsteilen wurde am 1. Oktober 1993 die neue Einheitsgemeinde Amt Neuhaus gebildet. 1998 löste Gerhard Glogowski den ins Bundeskanzleramt gewechselten Gerhard Schröder ab. Da er mit verschiedenen Skandalen in seiner Heimatstadt Braunschweig in Verbindung gebracht wurde, trat er 1999 zurück und wurde von Sigmar Gabriel abgelöst. Neuere Entwicklungen. Von 2003 bis zu seiner Annahme der Wahl zum Bundespräsidenten 2010 war Christian Wulff Ministerpräsident in Niedersachsen. Der Osnabrücker stand wie sein Nachfolger David McAllister einer CDU geführten Koalitionsregierung mit der FDP vor. Zum 1. Januar 2005 wurden die vier Regierungsbezirke, in die Niedersachsen seit 1978 gegliedert war, aufgelöst. Dies waren die Regierungsbezirke Braunschweig, Hannover, Lüneburg und Weser-Ems. Der Regierungsbezirk Braunschweig war seinerseits 1978 aus der Zusammenlegung des Verwaltungsbezirks Braunschweig mit Teilen des ehemaligen Regierungsbezirks Hildesheim und Teilen des Altbezirks Lüneburg, der „neue“ Regierungsbezirk Hannover aus der Erweiterung des Altbezirks Hannover um Teile des ehemaligen Regierungsbezirks Hildesheim, der Regierungsbezirk Lüneburg aus Fusion des größten Teils des Altbezirks Lüneburg mit dem ehemaligen Regierungsbezirk Stade, der Regierungsbezirk Weser-Ems aus der Zusammenlegung des Verwaltungsbezirks Oldenburg (Oldb) mit den ehemaligen Regierungsbezirken Aurich und Osnabrück entstanden. Anstelle der Bezirksregierungen wurden für besondere Aufgaben Regierungsvertretungen an den Standorten Braunschweig, Hannover, Lüneburg und Oldenburg eingerichtet. Nach der Landtagswahl im Januar 2013 kam es zu einer Regierungsbildung unter Stephan Weil von der SPD. Anstelle der Regierungsvertretungen für die Bereiche der ehemaligen Regierungsbezirke wurden sogenannte "Landesbeauftragte" als regionale Ansprechpartner der Landesregierung installiert, die erweiterte Kompetenzen haben. Staatsrecht. Die Niedersächsische Verfassung stammt vom 19. Mai 1993 und ist am 1. Juni 1993 in Kraft getreten. Die Geschichte ist – im Unterschied zu derjenigen anderer Landesverfassungen – stark an die Entwicklung Deutschlands geknüpft. Im Jahre 1951 wurde eine Übergangsverfassung (Vorläufige Niedersächsische Verfassung) verabschiedet, die die staatlichen Grundlagen in der Zeit bis zur Wiedervereinigung regelte. Da sich die Vorläufige Niedersächsische Verfassung auf das Grundgesetz beziehen konnte, verzichtete man auf einen Grundrechtekatalog. Mit der Wiedervereinigung Deutschlands entfiel der Vorbehalt der Vorläufigkeit. Auf der Grundlage der Vorläufigen Niedersächsischen Verfassung wurde die neue Niedersächsische Verfassung von 1993 aufgebaut. Landespolitik. Der letzte Regierungswechsel erfolgte am 19. Februar 2013 nach der Landtagswahl am 20. Januar 2013. Die CDU wurde zwar stärkste Fraktion, zusammen mit den Grünen errang die SPD jedoch eine knappe Mehrheit von einer Stimme im neugewählten Landtag. SPD und Grüne bildeten daraufhin die neue Landesregierung mit Stephan Weil als Ministerpräsident, die ebenfalls vom Landtag im Amt bestätigt wurde. Damit war die Vorgängerregierung unter David McAllister abgewählt. Die letzte Landtagswahl fand am 20. Januar 2013 statt. Die nächste findet regulär 2018 statt. Öffentliche Finanzen. Neuverschuldung Niedersachsens seit 1990 unter SPD und CDU in Mio. Euro Zum 31. Dezember 2006 wurde eine Schuldensumme von 48,7 Milliarden Euro ermittelt. Davon beliefen sich die Wertpapierschulden auf rund 20,5 Milliarden Euro, während die Schulden aus Schuldscheindarlehen allein bei inländischen Banken und Sparkassen rund 26,4 Milliarden Euro betrugen. Im Jahr 2007 wurden 950 Millionen Euro neue Schulden aufgenommen. Für das Jahr 2008 wurde eine Neuverschuldung von 550 Millionen Euro geplant und erreicht. Die für 2010 geplante Reduzierung der Neuverschuldung auf 0 EUR konnte aufgrund der Wirtschafts- und Finanzkrise nicht umgesetzt werden. Stattdessen erfolgte für 2009 eine Neuverschuldung von 2.300 Millionen EUR. Der "Bund der Steuerzahler Niedersachsen und Bremen e. V." unterhält im niedersächsischen Landtag in Hannover eine Schuldenuhr, die den Zuwachs der Staatsverschuldung in Niedersachsen verdeutlicht. Nach einem Spitzenwert von 93 Euro pro Sekunde aus dem Jahr 2002 konnten die Schulden in den darauf folgenden Jahren von 90 Euro pro Sekunde im Jahr 2003 auf 30 Euro pro Sekunde im Jahr 2007 und auf 17 Euro pro Sekunde im Jahr 2008 gesenkt werden. 2010 sollte der Wert eigentlich auf 0 Euro pro Sekunde gesenkt werden und damit die Staatsverschuldung zum Stillstand gebracht werden. Aufgrund der Wirtschafts- und Finanzkrise stieg der Wert jedoch wieder auf den Rekordbetrag von 105 Euro pro Sekunde. Bundes- und Europapolitik. Im Bundesrat hat Niedersachsen ebenso wie Bayern, Baden-Württemberg und Nordrhein-Westfalen die höchstmögliche Anzahl von sechs Stimmen. Vertreten wird Niedersachsen durch den Ministerpräsidenten Stephan Weil, seinen Stellvertreter, Umweltminister Stefan Wenzel, Kultusministerin Frauke Heiligenstadt, Innenminister Boris Pistorius, Justizministerin Antje Niewisch-Lennartz und Sozialministerin Cornelia Rundt. Die Arbeit im Bundesrat wird von der Vertretung des Landes Niedersachsen beim Bund koordiniert. 66 Abgeordnete vertreten die niedersächsischen Bürgerinnen und Bürger im Deutschen Bundestag: 31 von der CDU, 25 von der SPD, sechs von Bündnis 90/Die Grünen sowie vier von der Linkspartei. Dem Europäischen Parlament gehören zehn Abgeordnete aus Niedersachsen an: vier von der CDU, zwei von der SPD, zwei von Bündnis 90/Die Grünen und jeweils einer von FDP und Linkspartei. In Brüssel unterhält das Land Niedersachsen zur Koordinierung der Europapolitik und Repräsentanz die Vertretung des Landes Niedersachsen bei der Europäischen Union. Innere Sicherheit. Die "Polizei Niedersachsen" ist die niedersächsische Landespolizei. Sie untersteht dem Niedersächsischen Ministerium für Inneres und Sport. Sie hat als Exekutivorgan des Landes Niedersachsen im Rahmen des Polizeirechts den Auftrag der Gewährleistung der öffentlichen Sicherheit und Ordnung. Als Strafverfolgungsbehörde geht sie gegen ordnungswidrige und strafbare Handlungen vor, ermittelt Täter und analysiert Tatmuster. Eine weitere Aufgabe ist die Gefahrenabwehr im Bereich der inneren Sicherheit. Im Rahmen der Verkehrsüberwachung regelt sie Verkehrsströme und hat eine tragende Rolle in der Notfallhilfe (Notruf). Ferner sorgt die Polizei in enger Kooperation mit der Judikative und anderen Behörden für die Verbrechensprävention, um bereits im Vorfeld mögliche Straftaten zu erkennen und zu verhindern. Geburtsstunde der niedersächsischen Landespolizei ist der 1. April 1951, als das "Niedersächsisches Gesetz über die öffentliche Sicherheit und Ordnung" ("SOG") in Kraft trat. Zuvor war die Polizei in der Nachkriegszeit aufgrund der britischen Besatzung nach deren Vorbild kommunal organisiert. Bei der großen Polizeireform von 1994 wurden die Sparten Schutz- und Kriminalpolizei zusammengeführt. Die gegenwärtige (2011) Struktur der Polizeiorganisation in Niedersachsen entstand durch eine bedeutende Umorganisation im Jahre 2004. Dabei wurde die Polizei aus den vier 2004 aufgelösten Bezirksregierungen (Braunschweig, Hannover, Weser-Ems, Lüneburg) herausgenommen. Daraus entstanden die gegenwärtigen Polizeidirektionen in der Fläche. In Niedersachsen gibt es rund 500 Polizeidienststellen, wobei an 140 Standorten ein Rund-um-die-Uhr-Schichtbetrieb stattfindet. Es werden rund 23.000 Bedienstete beschäftigt, von denen etwa 18.500 verbeamtet sind. Landeswappen. Das Land Niedersachsen führt als Landeswappen einen Halbrundschild mit einem springenden weißen Ross (Wappentier) im roten Feld. Das Wappen geht auf die welfischen Herzöge zurück, die mit dem Sachsenross ihren Anspruch auf das Gebiet der alten Sachsen zur Zeit des berühmten Herzogs Widukind dokumentieren wollten. In der Folgezeit diente das Sachsenross als Wappenbild verschiedener Herrscher. So fand es Eingang in die Wappen des Kurfürstentums als auch des Königreichs und der Provinz Hannover, aber auch des Herzogtums und des Freistaates Braunschweig. 1946 wurde das Sachsenross zum zunächst inoffiziellen Landeswappen gewählt und im April 1951 nach ausführlicher Aussprache im Landtag als Landeswappen bestätigt. Landesflagge. Das Land führt in der Landesflagge die Landesfarben Schwarz-Rot-Gold mit dem Landeswappen. Angesichts der unterschiedlichen wie traditionsreichen historischen Landesfarben der Länder, aus denen Niedersachsen hervorgegangen war, einigten sich die Landesgründer auf die heute geltende schwarz-rot-goldene Landesflagge mit dem Landeswappen als Kompromiss. Partnerschaften. Das Land Niedersachsen pflegt einige internationale Partnerschaften. Innerhalb von Europa besteht eine partnerschaftliche Zusammenarbeit mit der Region Haute-Normandie in Frankreich, den Niederlanden und den Woiwodschaften Großpolen und Niederschlesien in Polen. Außerhalb Europas bestehen Partnerschaften in der Provinz Anhui in der Volksrepublik China, der Präfektur Tokushima in Japan, den Regionen Perm und Tjumen in Russland und der Provinz Eastern Cape in Südafrika. Hymne. Niedersachsen hat keine offizielle Landeshymne. Als inoffizielle Hymne des Landes Niedersachsen wird manchmal das Niedersachsenlied angesehen. Es wurde bereits 1926, also rund 20 Jahre vor der Gründung des Bundeslandes im Jahr 1946, von Hermann Grote verfasst und komponiert. Der Originaltext von Grote wird oft unter verschiedenen Aspekten kritisiert und als politisch inkorrekt bezeichnet, sodass inzwischen verschiedene angepasste Textversionen entstanden. Allen ist gemeinsam, dass sie sich nicht durchsetzen konnten. Häufig werden bei feierlichen Anlässen heute noch Musikstücke mit Bezug zu den Vorläuferstaaten Niedersachsens oder mit anderem regionalem Bezug gespielt. Auszeichnungen. Die höchste Auszeichnung, die das Land Niedersachsen verleiht, ist die Niedersächsische Landesmedaille. Für Verdienste in der Landespolitik wird der Niedersächsische Verdienstorden verliehen. Außerdem vergibt der Ministerpräsident seit 2002 den Niedersächsischen Staatspreis, der früher „Niedersachsenpreis“ hieß. Als Musikpreis verleiht Niedersachsen jährlich den Praetorius Musikpreis und als Literaturpreis jährlich den Nicolas-Born-Preis. Verwaltungsgliederung. Das Land ist in 158 Städte, 51 Flecken und 762 Gemeinden (davon 684 in Samtgemeinden) sowie 25 gemeindefreie Gebiete unterteilt, die insgesamt 37 Landkreise, eine Region und acht kreisfreie Städte bilden. Größte Städte. Niedersachsen hat sechs Großstädte, von denen die Landeshauptstadt Hannover mit deutlichem Abstand die meisten Einwohner hat. Die zweitgrößte Stadt Braunschweig erreicht mit Einwohnern nicht einmal die Hälfte der Einwohnerzahl von Hannover mit Einwohnern. Auf den weiteren Rängen folgen mit großem Abstand die Städte Oldenburg mit Einwohnern und Osnabrück mit. Die weiteren Großstädte sind Wolfsburg mit und Göttingen mit Einwohnern. Die größten Mittelstädte sind ehemalige Großstädte: Hildesheim mit und Salzgitter mit Einwohnern. Metropolregionen. In Niedersachsen sind drei Metropolregionen ausgewiesen, von denen die Metropolregion Hannover-Braunschweig-Göttingen-Wolfsburg vollständig in Niedersachsen liegt. Die Metropolregion Hamburg umfasst neben Hamburg auch Gebiete von Mecklenburg-Vorpommern, Niedersachsen und Schleswig-Holstein. Die Metropolregion Bremen-Oldenburg schließt das Bremer und Bremerhavener Stadtgebiet mit ein. Als Metropolregion wird ein stark verdichteter Ballungsraum einer Metropole bezeichnet, der als Motor der sozialen, gesellschaftlichen und wirtschaftlichen Entwicklung eines Landes betrachtet. In Deutschland wurden Metropolregionen erstmals 1995 durch die Ministerkonferenz für Raumordnung definiert. Abgeschlossene Verwaltungsreformen. Im Zuge der kommunalen Neugliederung/Gebietsreform in den 1960er bis 1980er Jahren ist die Zahl der kreisfreien Städte von 16 auf neun und die der Landkreise von 60 auf 38 reduziert worden. Von ehemals über 4000 Gemeinden blieben rund 2000 bestehen, die sich nun als Einheitsgemeinden oder Mitgliedsgemeinden von Samtgemeinden organisierten. Die durchgeführten Reformen waren dabei in der Bevölkerung und Politik umstritten und führten auch zu zahlreichen Klagen vor dem Staatsgerichtshof wie auch dem Bundesverfassungsgericht. Folgende kreisfreie Städte wurden in Landkreise eingegliedert: Celle, Cuxhaven, Goslar, Göttingen, Hameln, Hildesheim und Lüneburg. Folgende Landkreise wurden aufgelöst: Alfeld (Leine), Aschendorf-Hümmling, Bersenbrück, Blankenburg, Braunschweig, Bremervörde, Burgdorf, Duderstadt, Einbeck, Fallingbostel, Gandersheim, Grafschaft Hoya, Grafschaft Schaumburg, Hildesheim-Marienburg, Land Hadeln, Lingen, Melle, Meppen, Münden, Neustadt am Rübenberge, Norden, Schaumburg-Lippe, Soltau, Springe, Wesermünde, Wittlage, Wittmund und Zellerfeld. Der Landkreis Wittmund ist 1980 wieder eingerichtet worden. 2001 wurden der Landkreis Hannover und die kreisfreie Stadt Hannover zur Region Hannover zusammengeführt. Bis 1978 war Niedersachsen in die aus den vorherigen gleichnamigen Ländern hervorgegangenen Verwaltungsbezirke Oldenburg und Braunschweig sowie die aus den vorher hannoverschen Bezirken hervorgegangenen Regierungsbezirke Stade, Lüneburg, Hannover, Hildesheim, Osnabrück und Aurich unterteilt. Das früher eigenständige Land Schaumburg-Lippe gehörte bis 1978 zum Regierungsbezirk Hannover. Diese Verwaltungsinstanzen gehen geschichtlich häufig auf sehr viel ältere Vorgängerinstitutionen zurück. Ihre Grenzen und Einzugsbereiche spielen auch heute noch bei vielen Institutionen eine Rolle. 1978 erfolgte eine Neugliederung in vier Regierungsbezirke, die zum 1. Januar 2005 aufgelöst wurden. Es handelte sich um die Regierungsbezirke Braunschweig, Hannover, Lüneburg und Weser-Ems. Ihre Behörden, die Bezirksregierungen, wurden aufgelöst. Die Zuständigkeiten der Bezirksregierungen wurden auf andere Landesbehörden und Körperschaften umverteilt. So wurde die Aufgabe der „überörtlichen Kommunalprüfung“ an die 2005 neu gegründete Niedersächsische Kommunalprüfungsanstalt übertragen. Die neue SPD-geführte Landesregierung führte 2014 die Institution des Landesbeauftragten zur Repräsentation der Landesregierung in den Regionen ein. Zuständigkeitsbereiche der Regionalbeauftragten. 2014 wurden von der Landesregierung Regionalbeauftragte ernannt, um die bisherigen Regierungsvertretungen abzulösen. Die Zuständigkeitsbereiche der Regionalbeauftragten orientieren sich an den Grenzen der Regierungsbezirke, die zwischen 1978 und 2004 bestanden. Geplante Verwaltungsreformen. Insbesondere seit Auflösung der Regierungsbezirke im Jahr 2004 gibt es immer wieder Vorschläge, die entstandene Lücke (eine Gebietskörperschaft mittlerer Größe zwischen dem Land und den Kommunen fehlt jetzt) zu schließen. Diese Vorschläge beinhalten beispielsweise den Zusammenschluss von Landkreisen, aus denen dadurch nach Vorbild der 2001 entstandenen Region Hannover vergleichbare Gebietskörperschaften werden. Konkrete Vorschläge umfassen die Fusion des Landkreises Lüchow-Dannenberg mit einem oder beider seiner niedersächsischen Nachbarkreise, eine Zusammenfassung der Landkreise im Raum Braunschweig, die Fusion der Landkreise Schaumburg, Hameln-Pyrmont und Holzminden im Weserbergland, Reformen im Küstenbereich und im niedersächsischen Umland von Hamburg und Bremen. Eine Fusion der Landkreise Rotenburg (Wümme) und Verden wurde auch wiederholt vorgeschlagen, stößt aber insbesondere bei den Unionspolitikern vor Ort auf Ablehnung. Eine ab dem Dezember 2012 diskutierte Fusion der Stadt Wilhelmshaven mit dem benachbarten Landkreis Friesland wurde trotz eines positiven Gutachtens der Kommunalen Gemeinschaftsstelle für Verwaltungsmanagement (KGSt) von den beteiligten Kommunen mit großer Mehrheit im Dezember 2013 abgelehnt. Die von vornherein positiv verlaufenen Fusionsgespräche der Kreistage der Landkreise Göttingen und Osterode am Harz über die Bildung eines neuen Landkreises Göttingen am 1. November 2016 wurden mit einem Gebietsänderungsvertrag am 1. Februar 2014 besiegelt. Gleichzeitig wurden auch Fusionsgespräche zwischen den Landkreisen Hildesheim und Peine geführt, die im Juli 2015 durch eine gescheiterte Abstimmung im Landkreis Hildesheim beendet wurden. Länderfusion und Verhältnis zu Bremen. Seit Jahren wird regelmäßig ein Zusammenschluss der Länder Niedersachsen und Bremen ins Gespräch gebracht. Der niedersächsische Ministerpräsident schlug zuletzt Anfang 2009 einen solchen Zusammenschluss vor. Eine Fusion stößt traditionell insbesondere in Bremen auf Ablehnung. Im Verhältnis zwischen Bremen und Niedersachsen kam es in der Vergangenheit immer wieder zu Irritationen, die häufig auf von Bremer Seite als ungünstig empfundene Aspekte der Raumordnungs- und Wirtschaftsplanung niedersächsischer Umlandkommunen basierte, wo große Gewerbegebiete in Konkurrenz zur Bremer Wirtschaft entstanden (unter anderem Entstehung von Speckgürteln). Im Gegenzug werden von niedersächsischer Seite häufig sogenannte „Bremer Alleingänge“ in der Infrastrukturplanung kritisiert. Insofern ist das bremisch-niedersächsische Verhältnis von weitaus größeren Dissonanzen geprägt als beispielsweise dasjenige zwischen Hamburg und Schleswig-Holstein. Einzelne Projekte sind dagegen von Kooperation geprägt, beispielsweise die Einführung der Niedersachsen, die Implementierung der Oldenburg, der JadeWeserPort und die Verlängerung von Straßenbahnlinien aus Bremen ins niedersächsische Umland. 2010 äußerte sich der damalige niedersächsische Ministerpräsident McAllister zugunsten einer Kooperation der Bundesländer anstelle einer Fusion. Er lehne eine Fusion zwar nicht ab, die Initiative hierzu müsse aber von Bremen ausgehen, was nicht zu erwarten sei. Wirtschaft und Infrastruktur. a> der Salzgitter AG, 27. April 1961 Bruttoinlandsprodukt. Im Vergleich mit dem Bruttoinlandsprodukt der Europäischen Union, ausgedrückt in Kaufkraftstandards, erreicht Niedersachsen einen Index von 101,4 (EU-27: 100, Deutschland: 115,2) im Jahr 2005. Damit liegt Niedersachsen knapp über dem EU-Durchschnitt, jedoch deutlich unter dem Wert Deutschlands. Im Jahr 2010 betrug das Wirtschaftswachstum in Niedersachsen 3,4 % zum Vorjahr, im ersten Halbjahr 2011 konnte ein Wachstum von 3,3 % gegenüber dem entsprechenden Vorjahreszeitraum festgestellt werden. Unternehmen. Zu den größten niedersächsischen Unternehmen – jeweils im Hinblick auf ihre Wertschöpfung – gehörten im Jahr 2012 die Volkswagen AG (Wolfsburg) und die Continental AG (Hannover). Platz drei belegte die TUI AG vor der Versicherungsgruppe Talanx AG und der Salzgitter AG. Auf Platz sechs befand sich der Energieversorger EWE AG gefolgt von der Norddeutschen Landesbank. Im wichtigsten deutschen Aktienindex DAX, der die Entwicklung der 30 größten und umsatzstärksten deutschen Aktien widerspiegelt, sind die Volkswagen AG (Wolfsburg) und die Continental AG (Hannover) vertreten. Im Aktienindex NISAX20, der 2002 von der Norddeutschen Landesbank NORD/LB ins Leben gerufen wurde und von der Deutschen Börse berechnet wird, sind die 20 wichtigsten börsennotierten Unternehmen Niedersachsens gelistet. Landwirtschaft. Die Landwirtschaft findet in Niedersachsen sehr unterschiedliche Bedingungen vor. Die Böden in der Hildesheimer Börde und zwischen Harz und Mittellandkanal zeichnen sich durch sehr hohe Bodenzahlen aus und eignen sich besonders für den Anbau von Zuckerrüben und Getreide. In der Lüneburger Heide ist der Boden karg; Hauptprodukte sind Kartoffeln und als Spezialität Spargel. In den Marschgebieten an der Küste dominiert hingegen die Viehzucht. Neben Getreide werden Raps, Zuckerrüben, Salat (speziell Eisbergsalat), Kohl, Möhren (Mohrrüben, Karotten) und dank des sandhaltigen Bodens Spargel in Teilen des Landes angebaut. Bekannt ist auch die niedersächsische Grünkohlkultur (in südöstlichen Regionen auch die Variante Braunkohl). Neben dem Gemüseanbau und der Viehzucht ist der Obstanbau (speziell im Norden, Altes Land) ein wichtiger Wirtschaftszweig. Darüber hinaus ist in Niedersachsen das Agribusiness als der Landwirtschaft vor- und nachgelagerte Wirtschaftsstufe von großer Bedeutung. Industrie. Das industrielle Zentrum Niedersachsens befindet sich im Raum Hannover-Braunschweig-Wolfsburg mit mehreren Automobilwerken – darunter das Stammwerk Wolfsburg der Volkswagen AG, die Werke Braunschweig und Salzgitter sowie das Nutzfahrzeugwerk Hannover. Hinzu kommt die in Peine und Salzgitter ansässige Stahlindustrie. Im Maschinen- und Anlagenbau sind ferner insbesondere die Bereiche Landtechnik, Windenergieanlagen, Biogasanlagen und Offshore-Zulieferung von Bedeutung. Weiterhin ist Niedersachsen deutschlandweit führend beim Abbau und der Verwertung von Rohstoffen wie Torf, Sand und Kies. Die Verarbeitung landwirtschaftlicher Produkte und Lebensmittelherstellung gehört ebenfalls zu den großen Industriezweigen in Niedersachsen. Wirtschaft an der Küste. Neben dem Tourismus steht an der Nordseeküste die Fischverarbeitung im Vordergrund, während die Bedeutung des Schiffbaus seit der Werftenkrise stark abgenommen hat. Die neun niedersächsischen Seehäfen Brake, Cuxhaven, Emden, Leer, Nordenham, Oldenburg, Papenburg, Stade und Wilhelmshaven sind als Seaports of Niedersachsen organisiert. Im Jahr 2014 wurden über diese Häfen 46,4 Millionen Tonnen Güter umgeschlagen. Der Umschlag von Neufahrzeugen lag in den niedersächsischen Seehäfen 2014 bei 1.702.706 Fahrzeuge (2013: 1.597.945). Besonders der Hafen Emden fungiert auch als Verschiffungshafen für die im dortigen Werk gebauten VW-Fahrzeuge (1,25 Millionen Pkw im Jahr 2011), aber auch in Cuxhaven werden Neufahrzeuge umgeschlagen. Oldenburg ist wichtiger Hafenstandort für den Umschlag landwirtschaftlicher Güter. Von wachsender Bedeutung für die niedersächsischen Seehäfen ist zudem das Geschäft mit Offshore-Windenergieanlagen. Aufgrund des zu erwartenden Wachstums des Warenverkehrsaufkommens werden die niedersächsischen Seehäfen noch weiter ausgebaut, für 2012/2013 waren Investitionen von rund 60 Millionen Euro vorgesehen. Im niedersächsischen Schiffbau ist insbesondere die Meyer Werft in Papenburg von Bedeutung. Bundeswehr als Wirtschaftsfaktor. Die Bundeswehr wird auch künftig ein wichtiger Arbeitgeber in Niedersachsen sein. Mit über 55.000 Soldaten und zivilen Beschäftigten wird Niedersachsen voraussichtlich auch nach der geplanten Bundeswehrreduzierung das Bundesland mit der größten Zahl von Bundeswehrbediensteten sein, wenngleich auch für Niedersachsen starke Einschnitte zu befürchten sind. Der Truppenübungsplatz Bergen im Südteil der Lüneburger Heide ist mit 284 km² der größte Truppenübungsplatz in Europa. Er wurde ab 1935 von der deutschen Wehrmacht eingerichtet und nach dem Ende des Zweiten Weltkrieges 1945 von den britischen Besatzungstruppen übernommen und kontinuierlich erweitert. Seit den 1960er Jahren wird das Areal zudem von der Bundeswehr und Streitkräften der NATO genutzt. Große Teile der Deutschen Marine sind in Wilhelmshaven am Marinestützpunkt Heppenser Groden stationiert. Wilhelmshaven ist heute der größte Standort der Deutschen Marine und der zweitgrößte Standort der Bundeswehr. Nach der Umsetzung des neuen Bundeswehrstationierungskonzepts 2011 wird Wilhelmshaven künftig der mit Abstand größte Standort der Bundeswehr sein. Die Luftwaffe ist auf den Fliegerhorsten Bückeburg, Celle, Faßberg, Nordholz, Wittmundhafen und Wunstorf vertreten. Energiewirtschaft. In Niedersachsen sind zwei Kernkraftwerke in Betrieb: Dabei handelt es sich um das Kernkraftwerk Emsland sowie um das Kernkraftwerk Grohnde. Das Kernkraftwerk Stade wurde 2003 stillgelegt. Ein weiteres Kernkraftwerk, das Kernkraftwerk Unterweser wurde 2011 infolge des nach der Nuklearkatastrophe von Fukushima eingeführten Atommoratoriums vom Netz genommen und abgeschaltet. Daneben existieren mehrere konventionelle Kohle- und Gaskraftwerke, beispielsweise das Kraftwerk Mehrum oder das Erdgaskraftwerk Emsland. Die Stadt Wilhelmshaven ist Standort von zwei Kohlekraftwerken (Betreiber: E.ON und GDF Suez). Niedersachsen verfügt über die größten Erdgasvorkommen Deutschlands. 95 % der deutschen Erdgasförderung sowie 40 % der deutschen Erdölförderung entfallen auf Niedersachsen. Das Land hatte 2011 im nationalen Vergleich die höchste Stromproduktion aus Biogas (4.190 Millionen Kilowattstunden). In einigen Disziplinen des Verkehrssektors ist das Bundesland im nationalen Vergleich fortschrittlich: 84 Bioethanol-Tankstellen (Platz 1) und 33 Pflanzenöl-Tankstellen (Platz 3) versorgen Fahrzeuge mit klimaschonenden Kraftstoffen. Eine Spitzenposition nimmt Niedersachsen auch bei der Windenergie ein. So haben mehrere Windkraftanlagenhersteller Produktionsstätten in Niedersachsen, z. B. Enercon mit Standorten in Aurich, Emden und Haren, Bard in Emden und Cuxhaven sowie GE Wind Energy in Salzbergen. Von den rund 31,3 Gigawatt, die Ende 2012 in Deutschland installiert waren, befanden sich ca. 7,3 Gigawatt in dem Bundesland; weitere sind an Land sowie vor der Küste geplant bzw. im Bau (siehe auch: Liste der Offshore-Windparks). Ende 2012 standen 5.477 Windkraftanlagen, rund ein Viertel aller deutschen Anlagen, zwischen Ostfriesland und dem Harz. Windkraftanlagen speisten 2010 rund 9.200 Millionen Kilowattstunden (kWh) Strom ins Netz. Zuwachs gab es auch bei der Wärmeerzeugung aus Solarthermie: Sie stieg von 382 Mio. kWh im Jahr 2008 auf 532 Mio. kWh im Jahr 2011. Nicht zuletzt investiert Niedersachsen weiter in die Weiterentwicklung der Erneuerbare-Energien-Technologien. Im Jahr 2010 floss mit 15,1 Mio. Euro das meiste Geld in die Forschung. Tourismus. Niedersachsen belegt im Bundesvergleich für 2013 mit 39,9 Millionen Übernachtungen hinter Bayern, Baden-Württemberg und Nordrhein-Westfalen den 4. Rang. Messe. Ein bedeutender Wirtschaftsfaktor sind die in Hannover stattfindenden Messen der Deutschen Messe AG. Einzelne Messen sind die größten ihrer Art weltweit. Zu den wichtigsten Messen gehören hierbei die CeBIT, Hannover Messe, IAA Nutzfahrzeuge, Infa, Agritechnica und IdeenExpo. Medien. In Niedersachsen gibt es seit 1984 neben dem aus Gebühren finanzierten öffentlich-rechtlichen Rundfunk den werbefinanzierten privaten Rundfunk. Für die Entwicklung und Förderung des privaten Rundfunks ist die Niedersächsische Landesmedienanstalt zuständig. Sie lizenziert private Hörfunk- und Fernsehanbieter und beaufsichtigt deren Programme. Weitere Aufgaben sind die Aufsicht in Bezug auf die Einhaltung des Jugendschutzes bei den privaten Anbietern von Telemedien in Niedersachsen sowie die Förderung des Bürgerrundfunks. Hörfunk. Der öffentlich-rechtliche Hörfunk wird vom Norddeutschen Rundfunk betrieben, der für Niedersachsen ein landesspezifisches Programm sendet. Der Norddeutsche Rundfunk (NDR) unterhält dazu in der Landeshauptstadt Hannover ein Landesfunkhaus für Hörfunk und Fernsehen, in dem das Regionalprogramm für Niedersachsen gestaltet wird. Darüber hinaus ist der NDR in mehreren Städten Niedersachsens mit Regionalstudios und Korrespondentenbüros vertreten. Regionalstudios gibt es in Braunschweig, Göttingen, Lüneburg, Oldenburg und Osnabrück; Korrespondentenbüros in Lingen/Emsland, Otterndorf/Niederelbe, Esens/Ostfriesland, Vechta, Verden, Hameln/Weserbergland und Wilhelmshaven. Im privaten Hörfunk gibt es mit radio ffn, Antenne Niedersachsen und Radio 21 drei landesweit sendende private Radioketten. Daneben sorgen 15 nichtkommerzielle, gemeinnützige Veranstalter von Bürgerrundfunk für Vielfalt in den jeweiligen lokalen Regionen. Unter den Betreibern befinden sich zehn Bürgerradios, zwei Bürgerfernsehveranstalter und drei Sender, die ein Hörfunk- und Fernsehprogramm bieten. Mit der Neufassung des Niedersächsischen Mediengesetzes dürfen seit dem 1. Januar 2011 auch lokale und regionale werbe-finanzierte Hörfunksender zugelassen werden. Die ersten zugelassenen Lokalsender waren "Radio Hannover", "teutoRADIO Osnabrück", "Radio38", "BWReins" und "Radio Nienburg". Fernsehen. Das NDR Fernsehen ist das regionale öffentlich-rechtliche Fernsehprogramm des Norddeutschen Rundfunks, das gemeinsam mit Radio Bremen für die Länder Niedersachsen, Hamburg, Mecklenburg-Vorpommern und Schleswig-Holstein produziert wird. Als private Fernsehveranstalter senden RTL Nord und Sat.1 Norddeutschland landesspezifische Regionalprogramme wie Guten Abend RTL und. Mit der Neufassung des Niedersächsischen Mediengesetzes dürfen seit dem 1. Januar 2011 auch lokale und regionale werbe-finanzierte Fernsehsender zugelassen werden. Den Anfang machten der Friesische Rundfunk, "regiotv", "heimatLIVE", "Hannover TV", "os1.tv", "ev1.tv" sowie fan24.tv. Zeitungen. In Niedersachsen erscheinen rund 50 regionale Tageszeitungen, die jedoch keine große bundesweite Bedeutung haben. Die größten Zeitungen sind die Hannoversche Allgemeine, die Braunschweiger Zeitung, die Neue Osnabrücker Zeitung, die Nordwest-Zeitung und die Kreiszeitung Syke. Eine Besonderheit stellt die Niedersächsische Allgemeine dar, deren Verbreitungsgebiet länderübergreifend ist und den Bereich Nordhessen und Südniedersachsen abdeckt. Verkehr. Flughäfen und Landeplätze in Niedersachsen und Bremen Schienenverkehr. Wichtigster Verkehrsknotenpunkt im Schienenverkehr ist die Landeshauptstadt Hannover. Die wichtigsten Eisenbahnstrecken verlaufen von Süddeutschland über Göttingen und Hannover nach Hamburg, vom Amsterdam über Hannover und Braunschweig oder Wolfsburg nach Berlin und vom Ruhrgebiet über Münster, Osnabrück und Bremen nach Hamburg. Wichtig sind ferner die Bahnstrecke Hannover–Bremen und die Emslandstrecke. Zurzeit werden verschiedene Streckenvarianten diskutiert, welche die Seehäfen im Güterverkehr an das Hinterland anbinden sollen. Außerdem ist die Ertüchtigung der Verbindungen Hannover–Hamburg und Hannover–Bremen geplant, die beispielsweise durch Bau der Y-Trasse oder den Ausbau der Verbindung von Verden (Aller) über Rotenburg (Wümme) nach Hamburg bei gleichzeitigem Ausbau der Bahnstrecke Hannover–Verden (Aller)–Bremen erfolgen könnte. Die Landesnahverkehrsgesellschaft Niedersachsen mbH (LNVG) ist ein Aufgabenträger für den schienengebundenen Nahverkehr in Niedersachsen. Sie ist eine hundertprozentige Tochter des Landes Niedersachsen und hat ihren Sitz in Hannover. Gegründet wurde sie im März 1996. Straßenverkehr. Entsprechend der Bevölkerungsverteilung befindet sich ein Schwerpunkt des Straßennetzes im südöstlichen Niedersachsen mit den Zentren Hannover, Braunschweig, Hildesheim und Salzgitter. In diesem Raum kreuzen sich die Autobahnen vom Ruhrgebiet nach Berlin und von Süddeutschland an die Küste. Dies sind die Autobahnen A 2 und A 7/A 27 sowie die A 39, die das östliche Niedersachsen erschließen soll. Weitere wichtige Autobahnen verlaufen vom Ruhrgebiet über Osnabrück und Bremen nach Hamburg (A 1 (Hansalinie)), vom Ruhrgebiet nach Emden (Emslandautobahn) sowie von Amsterdam über Osnabrück nach Hannover (A 30 und A 2). Flugverkehr. Die für das Land wichtigsten Luftdrehkreuze sind der Flughafen Hannover-Langenhagen (HAJ) sowie die außerhalb Niedersachsens gelegenen Flughäfen Bremen (BRE), Hamburg (HAM) und Osnabrück (FMO). Schifffahrt. Die größten Seehäfen in Niedersachsen befinden sich in Wilhelmshaven, Nordenham, Emden, Cuxhaven und Brake. Die wichtigste Binnenwasserstraßen sind der Mittellandkanal, die Weser, die Elbe und die Ems. Im Norden von Wilhelmshaven befindet sich der JadeWeserPort als Tiefwasserhafen für große Containerschiffe. Der neu aufgespülte Containerhafen ist eines der größten Infrastrukturprojekte der letzten Jahrzehnte in Norddeutschland. Der Hafen wurde mit finanzieller Unterstützung der Länder Bremen und Niedersachsen gebaut und am 21. September 2012 offiziell in Betrieb genommen. Rund eine Milliarde Euro haben die beiden Bundesländer sowie der Hafenbetreiber Eurogate investiert. Wissenschaft. Aula der Georg-August-Universität in Göttingen Bedeutende wissenschaftliche Standorte sind Göttingen, Hannover und Braunschweig mit der Georg-August-Universität Göttingen, der Gottfried-Wilhelm-Leibniz-Universität Hannover, der Medizinischen Hochschule Hannover und der Tierärztlichen Hochschule Hannover, der Hochschule für Bildende Künste Braunschweig, sowie der Technischen Universität Braunschweig. Weitere wichtige wissenschaftliche Einrichtungen sind die Jade-Hochschule, die Leer, die Ostfalia-Hochschule für angewandte Wissenschaften, die Universität Osnabrück, die Carl-von-Ossietzky-Universität Oldenburg, die Technische Universität Clausthal, die Leuphana-Universität Lüneburg, die Universität Hildesheim, die Universität Vechta und die Herzog August Bibliothek in Wolfenbüttel. Die Hochschule Osnabrück ist die größte Fachhochschule des Landes. Allgemeines. In kulturellen Dingen weist das Land eine große regionale Differenzierung auf und zeigt fließende Übergänge insbesondere nach Westfalen. Nach dem Zweiten Weltkrieg wurde Niedersachsen außerdem für viele Flüchtlinge und Vertriebene aus den deutschen Ostgebieten zur neuen Heimat, die sich meistens in den Städten, aber vielfach auch in kleinsten Dörfern niederließen und diese seitdem mitprägen. Die vielen militärischen Einrichtungen, Industriebetriebe und Wissenschaftseinrichtungen in Niedersachsen und auch in den benachbarten Stadtstaaten führten außerdem zur Zuwanderung von Menschen aus anderen Regionen Deutschlands. Hinzu kommen viele Zuwanderer, die als sogenannte Gastarbeiter ins Land kamen, sowie Neubürger aus den Ländern des ehemaligen Ostblocks. Aufgrund dieser Heterogenität der Bevölkerung hat Niedersachsen keine Einwohnerschaft, die im ethnisch-kulturellen Sinne als "die Niedersachsen" bezeichnet werden kann. Als "die Niedersachsen" bezeichnet man daher am ehesten schlicht diejenigen, die ihren Wohnsitz, ihre Heimat oder Wahlheimat im Land Niedersachsen haben. Traditionell ansässige Bevölkerungsgruppen. Die bereits vor Gründung des Landes Niedersachsen in den früheren Ländern Braunschweig, Hannover, Oldenburg und Schaumburg-Lippe ansässigen Bevölkerungsteile weisen viele Gemeinsamkeiten sowohl untereinander als auch mit nord- und nordwestdeutschen Nachbarregionen auf wie beispielsweise den Gebrauch der ursprünglichen Ortsdialekte des Niederdeutschen, das umgangssprachlich meistens als "Plattdeutsch" bezeichnet wird. Gemeinsamkeiten bestehen auch in bestimmten Aspekten der vorherrschenden traditionellen Architektur und Bauweise (Backsteinbauweise) von Gebäuden ("Niedersachsenhaus"). Der größere Teil des Landes ist traditionell evangelisch-lutherisch, einige Landesteile aber auch römisch-katholisch geprägt. Daneben gab es über Jahrhunderte bestehende jüdische Gemeinden, die über das gesamte Land verteilt waren und deren Mitglieder die jeweiligen Orte häufig mitprägten. Jüdische Gemeinden bestehen heute nur noch in den größeren Städten. Die Gemeindemitglieder sind häufig aus Osteuropa zugewandert. Im Saterland existiert eine alteingesessene saterfriesische Sprachminderheit. Auch über das Saterland hinaus sind Teile der Bevölkerung im nordwestlichen Niedersachsen Angehörige der Volksgruppe der Friesen, die den Status einer nationalen Minderheit besitzt. In Niedersachsen leben teilweise seit Jahrhunderten ansässige Minderheiten von Sinti und Roma. Der erste Nachweis stammt aus dem Jahr 1407 aus Hildesheim. Zuwanderung. Nach dem Zweiten Weltkrieg war Niedersachsen eines der Hauptansiedlungsgebiete für Heimatvertriebene aus Schlesien, Ostpreußen, Hinterpommern, der Neumark und weiteren ehemals deutschen Ostgebieten, von vertriebenen Deutschböhmen aus der Tschechoslowakei und von Deutschen aus weiteren Gebieten wie Bessarabien (nach Personenzahl absteigend geordnet). Nach der letzten entsprechend aufgeschlüsselten Zählung waren 30 % der Einwohner Niedersachsens Flüchtlinge, Vertriebene oder Kinder aus entsprechenden Familien. Hinzu kamen ab den 1960er Jahren deutschstämmige Aussiedler aus Siebenbürgen, ab den 1970er Jahren aus Oberschlesien und anderen Regionen Polens sowie ab den 1980er Jahren russlanddeutsche Aussiedler sowie Spätaussiedler mit ihren fremdsprachigen Familienangehörigen. Darüber hinaus entstand besonders durch die vielen Industriebetriebe im Raum Hannover-Braunschweig-Salzgitter-Wolfsburg, aber auch in den nach Niedersachsen reichenden Ballungsräumen Bremen und Hamburg bereits während des Wirtschaftswunders ein hoher Bedarf an Arbeitskräften, weswegen man zahlreiche Fremdarbeiter aus Italien, Spanien und der Türkei anwarb, die häufig in Niedersachsen blieben. Amtssprache. Amtssprache ist Deutsch. Die Minderheitensprache Saterfriesisch und die Regionalsprache Niederdeutsch sind nach der Europäischen Charta der Regional- oder Minderheitensprachen besonders geschützt und zum Amtsgebrauch zugelassen. Heutige Situation. Heute wird in Niedersachsen vornehmlich Standarddeutsch gesprochen. Bis ins 19. Jahrhundert spielte das Standarddeutsche in Niedersachsen nur als Schriftsprache eine Rolle. Im Lauf des 19. und 20. Jahrhunderts fand der Prozess der Ablösung der bisherigen in Niedersachsen gesprochenen Sprachen durch das Standarddeutsche statt. Beschleunigt wurde diese Entwicklung auch durch die Integration von aus dem ostmitteldeutschen Dialektgebiet – beispielsweise aus Schlesien – stammenden Flüchtlingen und Heimatvertriebenen nach dem Zweiten Weltkrieg. Dabei bestand lange neben dem „reinen“ Standarddeutsch eine Sprachform, die durch ein starkes niederdeutsches Substrat geprägt war; diese Sprachform ist in ihrer extremen Form als Missingsch bekannt. Heute ist diese „Zwischenform“ aber noch bedrohter als das Niederdeutsche. Außer dem Standarddeutschen sind auch noch das Saterfriesische sowie das Erzgebirgische im Oberharz lebendig, während die bis vor einigen Jahrzehnten dominierende Sprache, das Niedersächsische, in den meisten Regionen bedroht ist; "Ostfriesland" ist das prominenteste Beispiel für eine Region, in der dies bisher weniger der Fall ist. Auf der anderen Seite ist das ostfälische Niederdeutsch besonders bedroht und in einigen Regionen wohl schon ausgestorben, sicher in den größeren Städten. Die ostfälische Aussprache des Standarddeutschen wird in anderen Regionen des deutschen Sprachraums bis heute oft fälschlicherweise mit der modernen Aussprache des Standarddeutschen verwechselt. Dieses Missverständnis dürfte darauf zurückzuführen sein, dass sich das Standarddeutsche im ostfälischen Dialektraum sehr früh durchsetzte und die einheimischen Mundarten verdrängte. Dadurch galt die deutsche Standardsprache in der Folgezeit insbesondere Sprechern süddeutscher Dialekte als „Mundart Hannovers“. Als Schriftsprache dienen in Niedersachsen seit dem 16. Jahrhundert Standarddeutsch sowie im westlichen Ostfriesland und in der Grafschaft Bentheim Niederländisch, seit Beginn des 20. Jahrhunderts nur noch Standarddeutsch. Die am weitesten verbreiteten Sprachen von Zuwanderergruppen (Ausländer) sind zum einen Türkisch, Kurdisch, Arabisch, Italienisch, Serbisch, Kroatisch, Albanisch, Romanes und Griechisch sowie zum anderen Russisch und Polnisch, die von Teilen der deutschstämmigen Aussiedler gesprochen werden. Außerdem ist Englisch bedingt durch Truppenstationierungen im Rahmen der NATO in einigen Regionen verbreitet. „Plattdeutsch“. Bevor sich das Standarddeutsche durchsetzte, wurden in Niedersachsen vornehmlich niederdeutsche Dialekte gesprochen. Diese Dialekte sind heute als "Plattdeutsch" bekannt. Die einzelnen niedersächsischen Ortsdialekte werden von ihren Sprechern "Platt" genannt, wie auch viele Dialekte in der Mitte Deutschlands. Die niederdeutschen Dialekte in Niedersachsen können vier Dialektgruppen zugeordnet werden: Ostniederdeutsch im Wendland, Ostfälisch im Südosten, Westfälisch in Osnabrück und im südlichen Landkreis Osnabrück sowie Nordniedersächsisch im übrigen Land. Das Nordniedersächsische lässt sich noch in das Westniedersächsische und das übrige Nordniedersächsische teilen. Hervorzuheben ist das ostfriesische Platt, das durch sein friesisches Substrat Besonderheiten aufweist und im Vergleich zu anderen niederdeutschen Dialekten am wenigsten vom Aussterben bedroht ist. Weitere traditionelle Sprachen und Dialekte. Außer dem Niederdeutschen gab es weitere Sprachvarietäten im Gebiet des heutigen Niedersachsens. Im friesisch besiedelten Küstengebiet von der niederländischen Grenze bis zum Land Wursten war die variantenreiche ostfriesische Sprache beheimatet, von der heute nur noch das Saterfriesische in der Gemeinde Saterland existiert. Daneben sprechen auch einige lange ansässige Bevölkerungsgruppen auf dem Mitteldeutschen basierende Dialekte, die zur Untergruppe des Ostmitteldeutschen gehören. Aufgrund der Zuwanderung von Bergleuten in den Oberharz im Mittelalter werden dort erzgebirgische Dialekte gesprochen, am Südrand des Harzes ist Nordthüringisch im Gebrauch. Seit dem 18. Jahrhundert gab es außerdem eine kleine pfälzischsprachige Gruppe in Veltenhof, seit 1931 ein Stadtteil Braunschweigs. Bis ins 18. Jahrhundert hielt sich im Wendland auch das slawische Polabisch. Die in Niedersachsen ansässigen Sinti und Roma sprechen Romani. Weltanschauungen und Religionen. Die größten Konfessionsgemeinschaften bilden die evangelischen Kirchen (48,5 % der Bevölkerung) und die römisch-katholische Kirche (17,3 % der Bevölkerung). Rund 34 % der Bevölkerung bekennen sich zu keiner dieser beiden Religionsgemeinschaften. (Statistik der EKD, Stand 31. Dezember 2011) Weltanschauungsgemeinschaften. Nichtreligiöse Menschen sind unter anderem im Humanistischen Verband Deutschlands, einer Weltanschauungsgemeinschaft und Körperschaft des öffentlichen Rechts organisiert. Sitz des niedersächsischen Verbandes ist in Hannover. Er umfasst zwei Kreis- sowie 17 Ortsverbände und versteht sich als Interessenvertretung konfessionsloser Menschen, seit 1970 existiert ein entsprechender Staatsvertrag mit dem Land. Der Verband ist in Niedersachsen ein Träger mehrerer Kindertagesstätten, führt Jugendfahrten sowie Bildungsveranstaltungen durch und bietet unter anderem Namensfeiern, Jugendfeiern, weltliche Hochzeitsfeiern und Trauerfeiern an. Protestantismus. a> mit dem höchsten Kirchturm Niedersachsens (114,5 Meter) Der größte Teil Niedersachsens ist nach der Reformation durch die Evangelisch-lutherische Kirchen geprägt. Lutherische Landeskirchen existieren als Evangelisch-Lutherische Landeskirche Hannovers, Evangelisch-Lutherische Landeskirche Schaumburg-Lippe, Evangelisch-Lutherische Landeskirche in Braunschweig und Evangelisch-Lutherische Kirche in Oldenburg. Neben den lutherischen Landeskirchen existiert die altkonfessionelle Selbständige Evangelisch-Lutherische Kirche, die in Niedersachsen eines ihrer Hauptverbreitungsgebiete hat. Einige Regionen vor allem im Westen des Landes sind traditionell evangelisch-reformiert. Dies sind vor allem der Westen Ostfrieslands und die Grafschaft Bentheim. Sie sind das Zentrum der Evangelisch-reformierten Kirche in Nordwestdeutschland; diese verfügt über eine eigene landeskirchliche Organisation, während im größten Teil des übrigen Deutschland die reformierten und lutherischen Kirchen seit dem 19. Jahrhundert in einer Kirchenunion miteinander verbunden sind. In der gleichen Region gibt es ferner noch evangelisch-altreformierte Kirchen. Die evangelischen Landeskirchen sind seit 1971 in der Konföderation evangelischer Kirchen in Niedersachsen verbunden. Neben den protestantischen Landeskirchen wirken auch viele evangelische Freikirchen im Bereich des Landes Niedersachsen. Die älteste unter ihnen ist die Mennonitenkirche. Ihre Wurzeln reichen in die Reformationszeit und hier in die Täuferbewegung zurück. Der Bund Evangelisch-Freikirchlicher Gemeinden (Baptisten- und Brüdergemeinden) besitzt in Niedersachsen drei Landesverbände: den "Landesverband Niedersachsen-Ostwestfalen-Sachsen-Anhalt", "Baptisten im Nordwesten" und den "Landesverband Norddeutschland". Weitere Freikirchen in Niedersachsen sind unter anderem die Evangelisch-methodistische Kirche, die Freikirche der Siebenten-Tags-Adventisten und der Bund Freier evangelischer Gemeinden. Katholizismus. Das Emsland, das Oldenburger Münsterland, die Stadt Twistringen, das Untereichsfeld und die sogenannten Stiftsdörfer des Hochstifts Hildesheim sind traditionell römisch-katholisch geprägt; die Städte Hildesheim und Osnabrück sowie die Dörfer des ehem. Hochstift Osnabrück sind etwa zur Hälfte römisch-katholisch; daneben gibt es unter letzteren zahlreiche Gemeinden, die auch traditionell gemischt-konfessionell sind. Die römisch-katholischen Gemeinden gehören zu den Bistümern Hildesheim und Osnabrück (beides Suffraganbistümer des Erzbistums Hamburg) und zum Bistum Münster (Suffraganbistum des Erzbistums Köln). Die römisch-katholische Gemeinde der Stadt Bad Pyrmont gehört zum Erzbistum Paderborn. Durch die Ansiedlung von Vertriebenen nach dem Zweiten Weltkrieg – insbesondere von Katholiken aus Oberschlesien, dem Ermland und von Deutschböhmen und Deutschmährern in vormals rein evangelischen Regionen – und durch den Zuzug von Spätaussiedlern existieren jedoch mittlerweile große Gemeinden der jeweils anderen großen christlichen Konfession in früher nahezu rein-konfessionell geprägten Regionen. Einziger bedeutender Heiliger Niedersachsens ist Jordan von Sachsen. Hannover ist Sitz eines Dekanates der altkatholischen Kirche. Das Gebiet dieses "Dekanats Nord" umfasst neben Niedersachsen auch Bremen, Hamburg und Schleswig-Holstein. Islam. Nach dem Krieg kam es zur Bildung von islamischen Gemeinden vor allem für türkischstämmige Einwohner. Die meisten Moscheegemeinden gehören zur DİTİB oder zur IGMG. Es bestehen noch weitere Gemeinden, unter anderem schiitische Gemeinden und Moscheevereine der Ahmadiyya Muslim Jamaat. Aleviten. Auch die Aleviten bilden mit zahlreichen Ortsgemeinden eine größere konfessionelle Minderheit in Niedersachsen, die sich ebenfalls aus Einwohnern mit Wurzeln in der Türkei gebildet haben. Die alevitischen Ortsgemeinden sind in der Alevitischen Gemeinde Deutschlands (türkisch: Almanya Alevi Birlikleri Federasyonu, Abk.: AABF) zusammengeschlossen. Seit dem Schuljahr 2011/2012 ist die AABF in Niedersachsen offizieller Träger des alevitischen Religionsunterrichts. Judentum. Vom jüdischen Leben in Niedersachsen vor der Shoa zeugen einige noch vorhandene historische Synagogen. Nach dem Zweiten Weltkrieg entstanden einige wenige jüdische Gemeinden neu. Durch den Zuzug vieler jüdischer Menschen aus der ehemaligen Sowjetunion verzeichnen die jüdischen Gemeinden seit 1990 ein verstärktes Wachstum. Die größte jüdische Gemeinde in Niedersachsen ist die "Jüdische Gemeinde Hannover K. d. ö. R." mit ungefähr 4.500 Mitgliedern. Die jüdischen Gemeinden sind im eher traditionellen Landesverband der Jüdischen Gemeinden von Niedersachsen sowie im liberalen Landesverband der israelitischen Kultusgemeinden von Niedersachsen organisiert. Beide Landesverbände sind Mitglied im Zentralrat der Juden in Deutschland. Weitere Glaubensgemeinschaften. In Niedersachsen leben rund 40.000 Jesiden, die hier häufig größere Gemeinden bilden. Die größte jesidische Gemeinde in Niedersachsen liegt in Celle. Sie ist gleichzeitig die größte Gemeinde in Deutschland. Weitere bedeutende Gemeinden befinden sich in Bad Zwischenahn, Hannover und Oldenburg. 2007 wurde in Oldenburg der "Zentralrat der Yeziden in Deutschland" gegründet, der sich die „Förderung und Pflege religiöser und kultureller Aufgaben der yezidischen Gemeinden“ und „die Vertretung der gemeinsamen politischen Interessen der yezidischen Gemeinschaft“ zum Ziel gesetzt hat. Die in Niedersachsen lebenden neuapostolischen Christen werden von vier Apostelbereichen betreut, d. h. von Bremen, Hamburg, Nordrhein-Westfalen und einem eigenen kleinen Bereich Niedersachsen. Es gibt rund 13.000 aktive Zeugen Jehovas in Niedersachsen, die 187 Gemeinden bilden. In 124 Gemeinden befinden sich sogenannte Königreichssäle, wie die Kirchengebäude der Zeugen Jehovas genannt werden. UNESCO-Welterbe. Als Welterbe in Deutschland befinden sich in Niedersachsen vier UNESCO-Weltkulturerbestätten. Dazu zählt die zweiteilige Erbestätte des Dom St. Mariae und die Michaeliskirche in Hildesheim. Die dreiteilige Erbestätte im West-Harz besteht aus dem Bergwerk Rammelsberg, der Altstadt von Goslar und dem Oberharzer Wasserregal mit der Grube Samson sowie dem Kloster Walkenried. Jüngste Welterbestätte wurde 2011 das Fagus-Werk in Alfeld. Das niedersächsische Wattenmeer ist ein Weltnaturerbe. In der Gottfried Wilhelm Leibniz Bibliothek – Niedersächsische Landesbibliothek liegt der Briefwechsel von Leibniz, der seit 2007 zum Weltdokumentenerbe der UNESCO gehört. In der Niedersächsischen Staats- und Universitätsbibliothek in Göttingen ist die 42-zeilige, auf Pergament gedruckte Gutenberg-Bibel Weltdokumentenerbe. Im Jahre 2012 nominierte das Land Niedersachsen die Kulturlandschaften Altes Land und die Rundlingsdörfer im Hannoverschen Wendland für die deutsche Tentativliste bei zukünftigen UNESCO-Welterbeanträgen, für die jedes Bundesland zwei Vorschläge liefern darf. Das Niedersächsische Ministerium für Wissenschaft und Kultur gab die beiden Kandidaten am 18. Juni 2012 nach einem 2011 begonnenen Auswahlverfahren bekannt. Im Jahre 2013 wird die Kultusministerkonferenz entscheiden, welche Anträge der Bundesländer auf die deutsche Tentativliste gesetzt werden, von der die UNESCO frühestens ab 2017 neue Welterbestätten auswählt. Weitere Bewerbungen gaben auf Landesebene die Stadt Lüneburg für ihre Altstadt und der Verein Naturschutzpark (VNP) für die Lüneburger Heide ab. Das Ministerium empfahl beiden Institutionen, jeweils serielle Anträge zu stellen, bei Lüneburg gemeinsam mit vergleichbaren „Salzorten" und beim VNP gemeinsam mit anderen „agro-pastoralen" Orten. Der Antrag der Stadt Wunstorf auf Nominierung der Sigwardskirche in Idensen als bedeutender sakraler Kleinbau der Romanik wurde aus taktischen Gründen nicht berücksichtigt. Landschaften und Landschaftsverbände. Nach Auflösung der Regierungsbezirke wurden zwischen dem Land Niedersachsen auf der einen Seite und den Landschaften und Landschaftsverbänden auf der anderen Seite Verträge geschlossen, nach denen diese künftig für kulturelle Belange in den jeweiligen Regionen verantwortlich sind. Architektur. Baugeschichtlich bedeutsam in Niedersachsen war die Epoche der Renaissance, die sich in vielen Bauten im Stil der Weserrenaissance widerspiegelt. Eine weitere Sehenswürdigkeit sind die Herrenhäuser Gärten in Hannover, darunter der Große Garten, einer der bedeutendsten europäischen Barockgärten. In Osnabrück finden sich viele Gebäude des Klassizismus und der Zeit des Rokoko. Sehenswürdigkeiten sind die Altstadt mit Dom und dem Rathaus des Westfälischen Friedens, zahlreiche Steinwerke wie der Ledenhof und Fachwerkhäuser. Auch Niedersachsens größtes Barockschloss, das Schloss Osnabrück, und mit St. Katharinen das höchste mittelalterliche spätgotische Bauwerk sind hier zu sehen. Von baugeschichtlicher und kunsthistorischer Bedeutung ist die Doppelanlage von Schloss und Benediktinerabtei Iburg in Bad Iburg. Sie weist im Rittersaal mit der Arbeit von Andrea Alovisii die einzig erhaltene Deckenmalerei in perspektivischer Scheinarchitektur nördlich der Alpen auf. Bildende Kunst. Der Barkenhoff wurde zum Mittelpunkt der Worpsweder Künstlerbewegung. Niedersachsen hat seit dem 19. Jahrhundert bedeutende Künstler von internationalem Rang hervorgebracht. Der populärste ist wohl Wilhelm Busch, der durch seine Bildergeschichten bekannt wurde. Weniger bekannt ist sein Werk als Landschaftsmaler. Er schuf mehr als 1000 Gemälde, die erst posthum veröffentlicht wurden. 1895 kaufte der Künstler Heinrich Vogeler den Barkenhoff in Worpswede und gründete damit die Künstlerkolonie Worpswede. Diese war Heimat namhafter Künstler des deutschen Impressionismus und des Expressionismus. Die bekanntesten Künstler der ersten Generation der Kolonie waren Fritz Mackensen, Paula Modersohn-Becker, Otto Modersohn, Fritz Overbeck, Heinrich Vogeler, Clara Westhoff, Hans am Ende, Richard Oelze sowie Rainer Maria Rilke. Neben der Künstlerkolonie in Worpswede gab es in Niedersachsen noch weitere Orte, die die Künstler anzogen. In Dötlingen an der Hunte, einem kleinen Ort in der Wildeshauser Geest, lebten und arbeiteten ab 1900 Künstler wie Georg Müller vom Siel, August Kaufhold und Otto Pankok. Von 1907 bis 1912 verbrachten Maler der Künstlergruppe Die Brücke die Sommermonate regelmäßig in Dangast, einem Küstenort am südlichen Jadebusen. Karl Schmidt-Rottluff wurde dabei 1907 und 1908 von Erich Heckel begleitet und im Juni 1910 folgte Max Pechstein seinen Malerkollegen. Zahlreiche Werke dieser expressionistische Künstler zeigen Dangaster Motive. Zwischen den 1920er und 1930er Jahren war der hannoversche Maler und Lyriker Kurt Schwitters in Niedersachsen tätig. Er ist der Erfinder der Merzkunst, die als Weiterentwicklung des Dadaismus gilt. Schwitters bezeichnete sich selbst nicht als Dadaist, sondern als Merzkünstler, arbeitete jedoch zeitweise eng mit den Berliner Dadaisten zusammen. Seine bekanntesten Gedichte sind „An Anna Blume“ und die „Sonate in Urlauten“. Von den Nationalsozialisten als „entartet“ eingestuft, flüchtete der Künstler 1937 und kehrte nie mehr in seine Heimatstadt zurück. Eine Rekonstruktion seines berühmten Merzbaus ist im Sprengel-Museum in Hannover zu besichtigen. Ebenfalls große Bekanntheit erlangte der jüdische Maler Felix Nussbaum (1904–1944). Als Maler der Neuen Sachlichkeit zählte er zur „verschollenen Generation“ der um 1900 Geborenen. Viele seiner Werke thematisieren den Holocaust, dem er 1944 selbst zum Opfer fiel. Erhebliche Bekanntheit erreichte auch der Maler, Zeichner, Grafiker und Bildhauer Kurt Sohns (1907–1990). Der 1940 geborene Neodadaist, Performance- und Konzeptkünstler Timm Ulrichs erlangte internationale Bekanntheit. Er war unter anderem 1977 auf der documenta 6 vertreten. Im Jahr 2001 erhielt er den Niedersächsischen Staatspreis. Niedersachsen verfügt über zwei Kunsthochschulen: die Hochschule für Bildende Künste Braunschweig und die Hochschule für Musik und Theater Hannover. Darüber hinaus bietet die Fachhochschule Ottersberg die Studiengänge „Kunst im Sozialen. Kunsttherapie“, „Theater im Sozialen“ und „Freie Bildende Kunst“ an. Musik. Das Küstengebiet zwischen Ems, Weser und Elbe verfügt über eine einzigartige Orgelkultur mit historischen Orgeln aus über 500 Jahren. Allein aus der Zeit vor 1700 sind mehr als 300 Register erhalten. In der Orgellandschaft Ostfriesland sind Instrumente seit der Spätgotik weitgehend original bewahrt geblieben, wie die Orgel in Rysum von 1457, die zu den ältesten Orgeln weltweit zählt. Von besonderer Bedeutung sind die Werke von Arp Schnitger, dem Vollender der norddeutschen Barockorgel. Seine Instrumente waren stilbildend und haben den Orgelbau auf der ganzen Welt beeinflusst. In der Orgellandschaft zwischen Elbe und Weser finden sich einige der besterhaltenen Schnitger-Orgeln. Auch die Orgellandschaften Südniedersachsen, Braunschweig, Lüneburg und Oldenburg entwickelten sich zu ausgeprägten Kulturlandschaften. Im Bereich der Restaurierung der alten Instrumente hat Jürgen Ahrend Orgelbau aus Leer-Loga Maßstäbe gesetzt. Durch Konzertreihen, Festivals und Akademien und Musikzentren wird die niedersächsische Musikkultur der Öffentlichkeit erschlossen. Die Internationalen Händel-Festspiele Göttingen sind das älteste Musikfestival für Alte Musik weltweit und die Sommerlichen Musiktage Hitzacker das älteste bundesdeutsche Festival für Kammermusik. Die 2009 gegründete Landesmusikakademie Niedersachsen ist Heimstätte des Niedersächsischen Jugendsinfonieorchesters und des Landesjugendchors Niedersachsen. Hannover ist Sitz der NDR Radiophilharmonie. Theater. Die niedersächsische Theaterlandschaft besteht aus drei Staatstheatern, der Landesbühne in Wilhelmshaven, fünf kommunalen und rund 90 freien Theatern sowie weitere Amateurtheater, Freilicht- und Niederdeutsche Bühnen. Das Niedersächsische Staatstheater Hannover in Hannover, das Oldenburgisches Staatstheater in Oldenburg und das Staatstheater Braunschweig in Braunschweig werden mit Hilfe von Landesmitteln finanziert. Die "Staatstheater Hannover GmbH" ist eine 100-prozentige Landestochter, das Oldenburgische Staatstheater wird zu drei Vierteln, das Staatstheater Braunschweig zu zwei Dritteln mit Landesmitteln unterstützt. Kommunale Theater sind das Schloßtheater Celle in Celle, das Deutsche Theater in Göttingen, das aus dem Stadttheater Hildesheim und der Landesbühne Hannover fusionierte Theater für Niedersachsen mit Sitz in Hildesheim, das Theater Lüneburg in Lüneburg, die Städtischen Bühnen in Osnabrück sowie die Landesbühne Niedersachsen Nord in Wilhelmshaven. Sie erhalten Landesförderungen. Mit dem "Landesverband der Freien Theater in Niedersachsen e. V." wurde 1991 eine Interessenvertretung der professionellen freien Theater in Niedersachsen gegründet, die durch das Land Niedersachsen regelmäßig gefördert wird. Museen und Kunstinstitutionen. In Niedersachsen gibt es rund 650 unterschiedliche Museen und Heimatstuben, die kulturhistorische Zeugnisse und Kunst aller Epochen sammeln und ausstellen. Über 50 % dieser Museen wurden nach 1965 gegründet. Das älteste Museum war das 1754 von Herzog Carl I. eröffnete "Kunst- und Naturalienkabinett" in Braunschweig, das ein Vorläufer des Herzog-Anton-Ulrich-Museums und des Staatlichen Naturhistorischen Museums ist. Das Land führt drei Landesmuseen mit sechs Museen in Hannover, Braunschweig und Oldenburg als staatliche Einrichtungen. In Braunschweig sind dies das Braunschweigische Landesmuseum, das Herzog-Anton-Ulrich-Museum und das Staatlich Naturhistorische Museum. In Oldenburg besteht es aus dem Landesmuseum für Kunst und Kulturgeschichte und dem Landesmuseum für Natur und Mensch. In Hannover befindet sich das Niedersächsische Landesmuseum Hannover. Die meisten Museen in Niedersachsen befinden sich in der Trägerschaft von Kommunen, Landkreisen oder in privater Trägerschaft von Vereinen. Viele von ihnen werden ehrenamtlich geleitet, einige vom Land Niedersachsen institutionell gefördert. Über 50 % der Museen gehören in die Kategorie Heimatmuseen und Heimatstuben. Der "Museumsverband für Niedersachsen und Bremen e. V." ist die Interessenvertretung der Museen. Er berät und betreut seine Mitglieder mit dem Ziel, das Natur- und Kulturerbe in den Museen zu bewahren und zu vermitteln. Dabei übernimmt er die Information der Mitglieder und fördert den Erfahrungsaustausch und die Fortbildung der Museen in museumstechnischer und wissenschaftlicher Hinsicht. Bibliotheken. Niedersachsen besitzt aufgrund seiner Geschichte mehrere traditionsreiche historische Bibliotheken. Drei Bibliotheken sind als Landesbibliotheken von besonderer Bedeutung und wurden durch ihre reichen Altbestände an einmaligen Handschriften und Frühdrucken zu international gefragten Forschungseinrichtungen. Die drei Landesbibliotheken sind die Herzog August Bibliothek in Wolfenbüttel, die Gottfried Wilhelm Leibniz Bibliothek – Niedersächsische Landesbibliothek in Hannover und die Landesbibliothek Oldenburg in Oldenburg. Die "Herzog August Bibliothek" hat sich als Forschungs- und Studienstätte für das Mittelalter und die frühe Neuzeit einen internationalen Namen gemacht. In der Bibliothek wird seit 1989 das zwischen 1174 und 1189 entstandene Evangeliar des Welfenherzogs Heinrich der Löwe aufbewahrt. Es gilt als eines der teuersten Bücher der Welt. Die "Gottfried Wilhelm Leibniz Bibliothek" beherbergt den Nachlass von Gottfried Wilhelm Leibniz, der die Bibliothek von 1676 bis 1716 als Präfekt leitete. Der in seinem Nachlass aufbewahrte Briefwechsel umfasst rund 15.000 Briefe mit 1.100 verschiedenen Korrespondenten. Der Briefwechsel wurde im Herbst 2007 zum UNESCO-Weltdokumentenerbe "(Memory of the World)" erklärt. Mit der Technischen Informationsbibliothek befindet sich in Hannover eine der weltweit größten Spezialbibliotheken für Technik und Naturwissenschaft sowie eine von drei Zentralen Fachbibliotheken Deutschlands. Schriftsteller. Der Roman "Im Westen nichts Neues" (1929) begründete den weltweiten Ruhm von Erich Maria Remarque, der am 22. Juni 1898 in Osnabrück geboren wurde. Er setzte sich in seinen Werken kritisch mit der deutschen Geschichte auseinander und zählt zu den meistgelesenen deutschen Autoren des 20. Jahrhunderts. Er starb am 25. September 1970 in Locarno. Die Verbitterung über seine Ausbürgerung aus Deutschland überwand Remarque nie. Von 1900 bis 1902 war der bedeutende österreichische Lyriker Rainer Maria Rilke in der Worpsweder Künstlerkolonie ansässig, wo er die Bildhauerin Clara Westhoff heiratete, mit der er 1901 eine Tochter hatte. Danach verschlug es den expressionistischen Autor nach Paris. Der neben Rilke bedeutendste niedersächsische Schriftsteller der Moderne ist Arno Schmidt. Der avantgardistische Schriftsteller lebte von 1958 bis zu seinem Tode 1979 in Bargfeld. Schmidt schrieb neben experimentellen Romanen wie seinem Hauptwerk "Zettel’s Traum" auch Übersetzungen, etwa von James Joyce, Edgar Allan Poe oder James Fenimore Cooper. Als einer der bedeutendsten deutschen Lyriker der 1970er Jahre gilt der 1940 in Vechta geborene und 1975 bei einem Autounfall in London verstorbene Schriftsteller Rolf Dieter Brinkmann. Seine Werke sind beeinflusst vom Nouveau Roman und der amerikanischen Beat-Generation, um deren Veröffentlichung in Deutschland er sich verdient gemacht hat. In Nartum, Landkreis Rotenburg (Wümme) lebte Walter Kempowski von 1965 bis zu seinem Tode 2007. Er wurde vor allem durch seine stark autobiografisch geprägten Romane der "Deutschen Chronik" bekannt sowie durch sein Projekt "Das Echolot", in dem er Tagebücher, Briefe und andere Alltagszeugnisse unterschiedlicher Herkunft zu collagenartigen Zeitgemälden verarbeitete. Literaturbüros. Literaturbüros (auch Literaturhäuser) des Landes Niedersachsen gibt es in Braunschweig, Göttingen, Hannover, Lüneburg, Oldenburg und Osnabrück. Gedenkstätten. Mehr als 60 Gedenkstätten und Geschichtsinitiativen erinnern in Niedersachsen an die Opfer des Nationalsozialismus. Unter den Gedenkstätten befinden sich historische Orte wie Konzentrations-, Kriegsgefangenen- und Arbeitslager, Gefängnisse, Synagogen und Deportationsorte. Geschichtsinitiativen zur Erinnerung an die NS-Verbrechen unterstützen mit Hilfe von unterschiedlichen Aktivitäten wie Gedenk- und Kulturveranstaltungen sowie Dauer- und Wanderausstellungen diese Erinnerungskultur. 1990 verpflichtete sich Niedersachsen als erstes deutsches Bundesland dazu, regionale Gedenkstätten für die Opfer des Nationalsozialismus mit einer regelmäßigen Förderung aus Landesmitteln zu unterstützen. 2004 verabschiedete der Landtag das Gesetz über die "Stiftung niedersächsischer Gedenkstätten". Die Stiftung des öffentlichen Rechts mit Sitz in Celle nimmt seitdem im Auftrag des Landes verschieden Aufgaben zur Förderung der Gedenkstättenarbeit wahr. Unter anderem ist sie für die vom Land unterhaltenen Gedenkstätten Bergen-Belsen und Wolfenbüttel zuständig. Weitere Beispiele für Stiftungen für niedersächsische Gedenkstätten sind die "Stiftung Gedenkstätte Esterwegen" sowie die "Stiftung Lager Sandbostel". Die nichtstaatlichen Gedenkstätten und Geschichtsinitiativen haben sich im Januar 2000 zur "Interessengemeinschaft niedersächsischer Gedenkstätten und Initiativen zur Erinnerung an die NS-Verbrechen e. V." zusammengeschlossen. Die Interessengemeinschaft berät ihre Mitglieder über Förderungsmöglichkeiten, koordiniert Forschungsprojekte, Veranstaltungen sowie Wanderausstellungen und richtet verschiedene Seminare zur Schwerpunktthemen der Gedenkstättenarbeit aus. Gartenschauen. Logo der Niedersächsischen Landesgartenschau in Bad Essen, 2010 In Hannover fand die Bundesgartenschau 1951 statt, die heute als erste Bundesgartenschau in Deutschland gilt. Sie war die erste und bis heute einzige Bundesgartenschau in Niedersachsen. Anfang 2000 folgte das Land dem Vorbild anderer Bundesländer und konzipierte eine eigene Landesgartenschau. Die erste Niedersächsische Landesgartenschau fand im Jahr 2002 in Bad Zwischenahn (Park der Gärten) statt. Im Jahr 2004 wurde die Ausrichtung der Landesgartenschau durch die Stadt Wolfsburg übernommen, danach folgten 2006 die Stadt Winsen und 2010 die Gemeinde Bad Essen. Die letzte Landesgartenschau wurde im Jahr 2014 von der Stadt Papenburg ausgerichtet. Kulinarisches. a> mit dem Restaurant „"la vie"“ (Osnabrück) Die Niedersächsische Küche besteht aus einer Vielzahl regionaler, norddeutscher Küchen, die sich aber in weiten Teilen sehr ähneln, so z. B. der Oldenburger, Braunschweiger, oder der Ostfriesischen. Sie ist meist sehr deftig. Beliebtes und landestypisches Gemüse im Winter ist der Grünkohl, der insbesondere im Rahmen von traditionellen Grünkohlessen verzehrt wird. Ebenso sehr bekannt und typisch ist die Ostfriesische Teekultur in Ostfriesland. Neben der vielfältigen regionalen Küche gibt es in Niedersachsen mehrere Restaurants, die zur Spitzen-Gastronomie in Deutschland gehören. Der Gastronomie-Führer Michelin zeichnete in seiner Ausgabe von 2012 14 niedersächsische Restaurants mit seinen bekannten Sternen aus, davon zwei mit der höchsten Auszeichnung von drei Sternen. Die mit drei Sternen ausgezeichneten Restaurants sind das "La Vie" von Thomas Bühner in Osnabrück und das "Aqua" von Sven Elverfeld in Wolfsburg. Das "Sterneck" in Cuxhaven ist das einzige Zwei-Sterne Restaurant in Niedersachsen. Die Restaurants "Apicus" in Bad Zwischenahn, "Perior" in Leer, "Seesteg" auf Norderney, "Marco Polo" in Wilhelmshaven, "Keilings Restaurant" in Bad Bentheim, "Schlosshotel Münchhausen" in Aerzen, "Ole Deele" in Burgwedel, "Endtenfang" in Celle, "Zum Heidkrug" in Lüneburg, "La Forge" in Bad Nenndorf sowie das "La Fontaine" in Wolfsburg erhielten jeweils einen Michelin-Stern. Feiertage. In Niedersachsen sind nur die neun bundeseinheitlichen Feiertage Neujahr, Karfreitag, Ostern, Tag der Arbeit, Christi Himmelfahrt, Pfingsten, Tag der Deutschen Einheit und Weihnachten gesetzliche Feiertage. Volksfeste. Das Landesfest des Landes Niedersachsen ist der Tag der Niedersachsen, ein dreitägiges kulturelles Fest, das seit 1981 jährlich von einer anderen niedersächsische Stadt ausgerichtet wird. Der TdN soll die kulturelle Vielfalt des Landes Niedersachsen zeigen und wird von der durchführenden Stadt sowie dem "Programmbeirat des Tag der Niedersachsen" organisiert. Im Programmbeirat sind das Niedersächsische Ministerium für Inneres und Sport sowie verschiedene Landesverbände vertreten. In der Landeshauptstadt Hannover finden einige Veranstaltungen mit den höchsten Besucherzahlen in Niedersachsen statt. Das größte Ereignis in Hannover ist das im August stattfindende Maschseefest, das 2012 in drei Wochen rund 2,3 Millionen Besucher zählte. Das Schützenfest Hannover auf dem Schützenplatz gilt als das größte Schützenfest der Welt. Die zehntägige Veranstaltung wird jedes Jahr im Juli von bis zu 1,5 Millionen Gästen aufgesucht. Ebenfalls auf dem Schützenplatz werden das Frühlingsfest Hannover sowie das Oktoberfest Hannover ausgerichtet. Beide Volksfeste werden von der „Arbeitsgemeinschaft für Volksfeste Hannover“ veranstaltet. Das Frühlingsfest bringt es auf bis zu eine Million Besucher. Das Oktoberfest Hannover ist nach dem Oktoberfest in München das größte Oktoberfest in Deutschland. Die 17 Tage dauernde Veranstaltung hat bis zu 900.000 Besucher. In Oldenburg veranstaltet man jährlich im Herbst den traditionellen Oldenburger Kramermarkt. Die zehn Tage dauernde Veranstaltung hat bis zu 1,5 Millionen Besucher. In der Kreisstadt Vechta findet mit dem Stoppelmarkt einer der ältesten Jahrmärkte Deutschlands statt. Mit bis zu 800.000 Besuchern gehört das sechstägige Fest zu den größten Volksfesten in Niedersachsen. Den Gallimarkt in Leer gibt es schon seit 1508. Er ist mit bis zu 500.000 Besuchern das größte Volksfest in Ostfriesland. Ein weiteres Volksfest mit Tradition ist der Roonkarker Mart in der Wesermarsch, der 2012 offiziell als "879. Roonkarker Mart" veranstaltet wurde. In der Nordseestadt Wilhelmshaven feierte man beim Wochenende an der Jade 1999 den bisherigen Besucherrekord mit 385.000 Besuchern. Weitere Volksfeste sind der Brokser Heiratsmarkt, die Osnabrücker Maiwoche sowie zahlreiche Weihnachtsmärkte. Sport. a> ist der größte Sportverein in Niedersachsen Der Landessportbund Niedersachsen ist der Dachverband von rund 9.600 niedersächsischen Sportvereinen mit rund 2,70 Millionen Mitgliedschaften. Rund 57 % der Mitglieder sind männlich. Die Zahl der unter 18-jährigen Mitglieder liegt bei 33,1 %. Auch in dieser Altersklasse sind mehr Jungen als Mädchen in Sportvereinen aktiv. Der Landessportbund gliedert sich in 48 regionalen Sportbünden, die sich an den Landkreisen bzw. kreisfreien Städten orientieren. Die "Sportjugend Niedersachsen" ist die Jugendorganisation des Landessportbund. Die Vereine haben sich zudem in Landesfachverbänden organisiert. Der Landesfachverband mit den meisten Mitgliedern ist der "Niedersächsische Turner-Bund" mit 770.007 Mitgliedern, gefolgt vom "Niedersächsischen Fußballverband" mit 651.402 und dem "Schützenbund Niedersachsen" mit 215.049 Mitgliedern. Auf den weiteren Rängen folgen der "Niedersächsische Tennisverband" mit 136.573 und der "Niedersächsischer Reiterverband" mit 127.333 Mitgliedern. Handball, Tischtennis, Leichtathletik, Schwimmen sowie der Behindertensport belegen die weiteren Plätze. Die größten Sportvereine sind "Hannover 96" mit 18.900 Mitgliedern, der "ASC 1846 Göttingen" mit 8.707, der "MTV 1849" mit 8.111, der "Todtglüsinger SV v. 1930" mit 7.211 sowie "Eintracht Hildesheim" mit 7.135 Mitgliedern. Organisatorisch sind die niedersächsischen Sportinstitutionen und -vereine eng mit denjenigen aus dem Land Bremen verzahnt. Niedersachsen war 1980 das erste Bundesland, das sich gezielt mit seiner Sportgeschichte befasst hat. In enger Verbindung mit der Georg-August-Universität Göttingen wurde aus einem Förderkreis Sportgeschichte in Hoya unter dem Vorsitz von Wilhelm Henze und der Leitung des Wiss. Beirats von Arnd Krüger das Niedersächsische Institut für Sportgeschichte e. V. gegründet. Hier wurden sowohl die traditionellen Sportspiele wie Boßeln und Klootschießen erforscht als auch der historisch-politische Hintergrund der Geschichte des Sports in Norddeutschland erarbeitet. Dort gibt es auch Ehrengalerie mit wichtigen Personen des niedersächsischen Sports. Fußball. In der Bundesliga spielen die Fußballvereine Hannover 96 und VfL Wolfsburg, Eintracht Braunschweig spielt in der 2. Bundesliga und der VfL Osnabrück in der 3. Liga. Populär sind daneben im Bremer Umland der SV Werder Bremen und im Hamburger Umland der Hamburger SV sowie der FC St. Pauli. Der Niedersächsische Fußballverband veranstaltet zudem die Fußball-Oberliga Niedersachsen als höchste landesweite Liga und den Niedersachsenpokal. Im Frauenfußball spielt ebenfalls der VfL Wolfsburg und außerdem der BV Cloppenburg erstklassig. In der 2. Frauen-Bundesliga spielen zudem der SV Meppen und der Mellendorfer TV. Handball. Niedersachsen beheimatet mit dem TSV Hannover-Burgdorf einen Handballverein der 1. Bundesliga. In der 2. Handball-Bundesliga spielen HSG Nordhorn-Lingen und die Handballfreunde Springe. (Stand: Saison 2014/2015). In der 3. Bundesliga spielt der Northeimer HC (Stand: Saison 2014/2015) In der 1. Handballbundesliga der Frauen sind außerdem der VfL Oldenburg und der Buxtehuder SV beheimatet. Basketball. In der ersten Basketball-Bundesliga ist Niedersachsen durch BG Göttingen, Artland Dragons (Quakenbrück; Pokalsieger 2008), die EWE Baskets Oldenburg (Deutscher Meister 2009, Champions-Cup-Sieger 2009) und die Basketball Löwen Braunschweig vertreten. In der 2. Bundesliga Pro A spielen die Cuxhaven BasCats und der SC Rasta Vechta. In der 2. Bundesliga Pro B spielen ferner die SUM Baskets Braunschweig und der BAWE Oldenburger TB. Eishockey. In der höchsten deutschen Eishockey-Spielkasse, der Deutschen Eishockey Liga (DEL), spielen die Grizzly Adams Wolfsburg. In der Oberliga spielen zudem die ehemalige DEL-Mannschaft der Hannover Scorpions (Deutscher Meister der 10; mittlerweile ansässig in Langenhagen) sowie die Hannover Indians. Wassersport. An der Küste wie auch an den großen Seen und Flüssen ist der Wassersport ebenso populär wie das Angeln. Cuxhaven ist lagebedingt eine traditionsreiche Stätte des Segelns; so war es auch bereits Anlegehafen des Tall Ships’ Race. Die Deutschen Schwimmwintermeisterschaften 2006 wurden in Hannover ausgetragen. Wasserball. Niedersachsen ist dank der Teams der Region Hannover seit Jahrzehnten eine Wasserball-Hochburg. Wasserfreunde 98 Hannover wurde zwischen 1921 und 1948 achtmal deutscher Meister und stellte vier Spieler beim Olympiasieg 1928. Wassersport Hannover-Linden wurde 1993 deutscher Meister, 1998 und 2003 deutscher Pokalsieger. Beide Traditionsvereine sind 2012 zu dem neuen Großverein Waspo 98 Hannover fusioniert, der 2012/2013 als erster niedersächsischer Verein in der Champions League gespielt hat. Neben den beiden Klubs spielten auch Eintracht Braunschweig, Hellas 1899 Hildesheim, Freie Schwimmer Hannover, WSV 21 Wolfenbüttel und die SpVg Laatzen zeitweilig in der Wasserball-Bundesliga. Zuletzt ist 2012 der neue Klub White Sharks Hannover in die erste Liga aufgestiegen. Pferdesport. Der Raum Verden (Aller), der Raum Vechta, das Osnabrücker Land (hier insbesondere Hagen a. T. W. und Ankum), das Oldenburger Land, das Celler Land und Südniedersachsen sind bekannt als Zentren des Pferdesports. Zudem sind Zucht und Haltung von Hannoveranern und anderen Pferden in vielen Landstrichen ein Wirtschafts- und Freizeitfaktor, sodass Niedersachsen als Pferdeland gilt. In Luhmühlen, dem Zentrum der Vielseitigkeitsreiterei in Niedersachsen, wurden 2011 die Vielseitigkeits-Europameisterschaften ausgetragen. Von 1999 bis 2013 wurde in Lingen (Ems) das Internationale Dressurfestival Lingen veranstaltet. American Football. Im American Football spielen die New Yorker Lions (bis 2010 "Braunschweig Lions") seit der Saison 1994 ununterbrochen in der German Football League und sind mit zehn German-Bowl-Siegen deutscher Rekordmeister. Baseball. In der Baseball-Bundesliga spielt der Baseballverein Dohren Wild Farmers (Landkreis Harburg). In der 2. Baseball-Bundesliga ist Braunschweig mit den Spot Up 89ers vertreten. Rugby. Hannover ist eine Hochburg des deutschen Rugby-Sports. Rekordmeister ist der TSV Victoria Linden mit 20 Meistertiteln, davon acht in der seit 1971 bestehenden Rugby-Bundesliga. Von 1909 bis 2005 trat – mit Ausnahme von 1913 – ein hannoverscher Verein in jedem Endspiel um die Deutsche Meisterschaft an. In der 1. Bundesliga spielt Hannover 78, in der 2. Bundesliga die Vereine TSV Victoria Linden, SC Germania List und Deutscher Rugby Club Hannover. Drachenboot. Hannover beheimatet mit dem All Sports Team Hannover eine Topmannschaft im Drachenbootsport. Das Team konnte seit seiner Gründung im Jahre 2000 bisher über 100 Medaillen auf nationalen und internationalen Meisterschaften erringen, darunter allein im Jahre 2012 zehn deutsche Meistertitel. Außerdem stellte es über mehrere Jahre den Kern der deutschen Premier-Mixed-Nationalmannschaft. Das Team ist dem Hannoverschen Kanuclub (HKC) von 1921 angeschlossen und trainiert auf dem Maschsee. Das "All Sports Team" wurde zur „Mannschaft des Jahres 2013“ in Niedersachsen gewählt, vor den Bundesliga-Handballern aus Burgdorf und dem Frauenfußball-Championleaguesieger VfL Wolfsburg. Weitere Sportarten. Niedersachsen bietet sich zum Wandern und Radfahren an. Daneben werden mancherorts noch traditionelle Sportarten gepflegt. So ist in Ostfriesland, im Emsland und im Ammerland das Boßeln und das Klootschießen populär. Im Emsland und in der Grafschaft Bentheim wird ferner das Kloatscheeten ausgeübt. Im Harz gibt es vielfältige Möglichkeiten für die Ausübung verschiedener Wintersportarten. In Ostfriesland findet jährlich der Ossiloop statt. Zwischen 1977 und 2007 fand jährlich die Niedersachsen-Rundfahrt statt. Seit 1968 wird jährlich in Osnabrück mit dem Osnabrücker Bergrennen das einzige Bergrennen Niedersachsens durchgeführt. In der Gemeinde Halbemond (Samtgemeinde Hage im Landkreis Aurich, Ostfriesland) befindet sich das Motodrom Halbemond, in dem Motorrad-Speedwayrennen ausgetragen werden. Das Stadion fasst 34.000 Zuschauer auf 30.000 Steh- und 4.000 Sitzplätzen. Es ist nach der Hannoveraner HDI-Arena das zweitgrößte Stadion in Niedersachsen und das größte reine Speedwaystadion in Europa. 1983 wurde hier der Kieler Egon Müller Speedway-Weltmeister. In Scheeßel gibt es eine Sandrennbahn für Motorradrennen, den sogenannten Eichenring. Hier werden seit den 1960er-Jahren vornehmlich nationale und internationale Sandbahnrennen ausgetragen, beispielsweise Finalläufe zur Sandbahn-EM, Langbahn-WM und Deutsche Meisterschaften. Nero. Nero Claudius Caesar Augustus Germanicus (* 15. Dezember 37 in Antium; † 9. oder 11. Juni 68 bei Rom) war von 54 bis 68 Kaiser des Römischen Reiches. Er sah sich selbst als Künstler und war der letzte Vertreter der julisch-claudischen Dynastie. Herkunft und Jugend. Der junge Nero mit seiner Mutter Agrippina Nero wurde als Sohn von Gnaeus Domitius Ahenobarbus und Iulia Agrippina, einer Schwester des Kaisers Caligula, in Antium an der Küste Latiums geboren. Er trug zunächst den Namen Lucius Domitius Ahenobarbus. Wie die meisten männlichen Mitglieder seiner Familie war Nero blond oder rotblond und blauäugig. Er soll, wie Plinius der Ältere berichtet, mit den Füßen zuerst, also in der Steißlage geboren worden sein. Weil seine Mutter von Caligula ins Exil geschickt worden war, verbrachte er einen Teil seiner Kleinkindzeit bei seiner Tante Domitia Lepida. Die als schön geltende Agrippina war für ihren Ehrgeiz, Stolz und Mut, aber auch für ihren Machthunger bekannt. Spätestens seit sie nach dem Tod ihres zweiten Mannes Gaius Sallustius Crispus Passienus im Jahre 49 Kaiser Claudius, ihren Onkel, geheiratet hatte, verfolgte sie das Ziel, ihren Sohn Lucius zum Kaiser zu machen. Deshalb sorgte sie für eine hervorragende Ausbildung Neros in Literatur, Latein und Mathematik. Nach Vollendung seines zwölften Lebensjahres sorgte sie für die Rückberufung Senecas aus der Verbannung und machte ihn zum Lehrer ihres Sohnes. Seneca war ein bekannter Philosoph und einflussreicher Politiker, der das Leben Neros entscheidend prägte. Der junge Nero erhielt eine standesgemäße Ausbildung und interessierte sich vor allem für Kunst, Architektur und das Theater. Aufstieg zum Herrscher. Agrippina und Nero (ca. 54-59 n. Chr.). Am 25. Februar 50 adoptierte Claudius seinen Stiefsohn Lucius Domitius Ahenobarbus. Dieser hieß jetzt mit vollem Namen "Tiberius Claudius Nero Caesar" oder auch "Nero Claudius Caesar Drusus Germanicus". Er stand durch Einflussnahme seiner Mutter kurz darauf an erster Stelle in der Thronfolge. Bereits mit 14 wurde er für erwachsen erklärt und zum Senator und Prokonsul ernannt. Der um drei Jahre jüngere Sohn von Claudius, Britannicus, wurde zwar nicht von der Thronfolge ausgeschlossen, jedoch mit der Adoption und den Ämtern, die Nero erhielt, ihm aber offensichtlich nachgestellt. Bereits vor der Eheschließung seiner Mutter mit dem Kaiser im Jahr 47 hatte Nero im Alter von 9 Jahren bei der 800-Jahr-Feier Roms als Anführer der aristokratischen Jugend bei den Reiterspielen mehr Beifall erhalten als der ebenfalls teilnehmende sechsjährige Kaisersohn. Drei Jahre später forcierte Agrippina eine Ehe zwischen ihrem 16-jährigen Sohn und der 13-jährigen Tochter des Claudius, Octavia. Um Blutschande zu vermeiden, wurde die Tochter von Claudius von den Octaviern adoptiert, sodass sie kein Mitglied der "gens Claudia" mehr war und den durch die Adoption zum claudischen Haus gehörenden Nero heiraten konnte. Damit war er nicht nur väterlicher- und mütterlicherseits mit dem julisch-claudischen Haus verwandt, sondern faktisch auch mit dem aktuellen Herrscher verschwägert. Allerdings war Neros Position noch nicht endgültig gesichert, denn Claudius schloss eine Machtteilung zwischen ihm und Britannicus, der im März 55 volljährig werden würde, nicht mehr aus. Dies führte zu heftigen Streitigkeiten zwischen dem Kaiser und Agrippina. Vermutlich um bereits vor der Volljährigkeit des leiblichen Sohnes Fakten zu schaffen und Nero den Thron zu sichern, ließ Agrippina Claudius bei einem Mahl mit Pilzen vergiften. Er starb am 13. Oktober 54. Nero wurde vom Prätorianerpräfekten Burrus, einem Protegé Agrippinas, aus dem Palast geführt, wo die Garde ihn mit Jubel- und Imperatorrufen begrüßte. Innenpolitik. Die Herrschaft begann positiv. Er zeigte sich in den ersten Jahren als fähiger und eigenständig handelnder Richter, der sein Urteil wohlüberlegt fällte. Er betonte die Eigenständigkeit der senatorischen Rechtsprechung, schaffte die unter Claudius gefürchteten "maiestas"-Prozesse ab und war beim Volk durch Senkung des Getreidepreises und die Veranstaltung von Spielen beliebt. Von Nero ist der Satz „Wenn ich doch bloß nicht schreiben könnte!“ überliefert. Er soll ihn gesagt haben, als er zum ersten Mal ein Todesurteil unterschreiben musste. Die meisten Verbrecher verurteilte er zur Zwangsarbeit, während der Adel ins Exil verbannt oder zum Suizid gedrängt wurde. Die ersten fünf Jahre gelten als "quinquennium Neronis", das glückliche Jahrfünft. Der Einfluss von Seneca, Burrus und anfangs auch von Agrippina auf Nero in dieser Zeit scheint ursächlich für die guten Regierungsjahre. Verhältnis zum Senat. Der Senat hatte nur der durch die Prätorianer geschaffenen Lage nach der Ausrufung Neros zum Kaiser zustimmen können. Der Ausschluss von Britannicus stieß vereinzelt auf Argwohn und die Gerüchte um den Tod von Claudius wollten nicht verstummen. Doch die Lobrede des jungen Princeps auf seinen verstorbenen Vater, dessen Divinisierung und die Rede vor den Senatoren deuteten auf einen gemäßigten Herrscher hin, der den "mos maiorum" akzeptierte. Er stellte sich in die Tradition von Augustus und lobte den guten Willen des Senats sowie seine Ratgeber. Insbesondere die Ablehnung der kaiserlichen Einmischungen in senatorische Angelegenheiten, die unter Claudius zu Erbitterung geführt hatte, musste den Senatoren gefallen. Nero stellte heraus, dass er sich in erster Linie um die Außenpolitik kümmern wollte. Das erste Jahr seines Prinzipats erfuhr einen positiven Abschluss, indem er seine eigenen Standbilder ablehnte und seinem Mitkonsul des Jahres 55 untersagte, auf die Handlungen des Kaisers zu schwören. Damit wurden die Würde und Eigenständigkeit des Konsulats betont, „was hohes Lob bei den Vätern fand“. Auch die Unterstützung von mittellosen Senatoren, die nur viermalige Besetzung des Konsulats und die Nachbesetzung von Senatsposten in konservativem Sinne zeugten von einem guten Princeps. Mit dem Tod von Burrus im Jahr 62, dem Wunsch Senecas, sich vom Hofe zurückzuziehen, der Scheidung von Octavia und Benennung von Tigellinus zum Prätorianerpräfekten verschlechterte sich Neros Verhältnis zum Senat stetig. Nach dem Brand von Rom nahm die Opposition immer mehr zu, mehrere Verschwörungen wurden aufgedeckt. Bekannte Opfer der darauffolgenden Säuberungen waren Seneca, Lucan und Petronius (siehe auch Pisonische Verschwörung). Auch Neros Verschwendungssucht stieß zunehmend auf Ablehnung. Der große Brand von Rom und die Christenverfolgung. Wandmalerei in der Domus Aurea In der Nacht vom 18. zum 19. Juli 64 brach in Rom ein Brand aus, der sich durch starken Wind sowie dichte und hohe Bebauung rasch ausbreitete. Innerhalb von neun Tagen wurden zehn von 14 Stadtteilen angegriffen und drei komplett vernichtet. Es wurden Gerüchte laut, dass Nero selbst das Feuer habe legen lassen, um die Stadt neu aufzubauen und insbesondere Platz für einen riesigen Palast, das „Goldene Haus“ (Domus Aurea), zu schaffen. Angeblich beobachtete und besang er den Brand vom Turm des Maecenas aus, während er sich selbst auf der Lyra begleitete und Verse vom Fall Trojas deklamierte. Laut Tacitus habe er dies zu Hause getan. Tatsächlich aber befand sich Nero in seinem 50 Kilometer weit entfernten Geburtsort, seiner Sommerresidenz Antium, während der Palatin in Flammen stand. Er reiste nach Rom zurück, öffnete seine Gebäude für Obdachlose und senkte den Getreidepreis. Wahrscheinlich brach der Brand, wie viele andere auch, auf einem Marktplatz durch Unvorsichtigkeit aus. Dennoch ist Nero als Brandstifter Roms in die Geschichte eingegangen. Dass er selbst die Stadt angezündet hat, kann ausgeschlossen werden, eine Beauftragung anderer jedoch nicht, zumal nach den ersten Löscharbeiten weitere Feuer nahe bei dem Haus des Prätorianerpräfekten Tigellinus ausbrachen. Aufgrund der Gerüchte, er habe das Feuer gelegt oder wenigstens davon profitiert, brauchte Nero einen anderen Schuldigen für den Brand. Dafür bot sich die Sekte der "Chrestiani" (griechisch: Christen) an, die in der Bevölkerung verhasst waren. Sie wurden verhaftet und viele zu grausamen Todesstrafen verurteilt. Die meisten wurden verbrannt, da dies die im römischen Recht für Brandstifter vorgesehene Strafe war, einige gekreuzigt oder in Felle gesteckt und in der Arena den Tieren vorgeworfen. Diese Christenverfolgung unter Nero, die auf Rom beschränkt blieb, war das erste einer vermuteten Reihe lokaler Pogrome, die der Verfolgung unter Domitian und den systematischen Verfolgungen im 3. Jahrhundert vorausgingen. Tacitus berichtet, dass es in Rom Ablehnung der Verfolgung gab: „Daher wurde auch für noch so Schuldige, welche die härtesten Strafen verdienten, Mitleiden rege, als würden sie nicht dem allgemeinen Besten, sondern der Mordlust eines einzigen geopfert.“ Der juristisch gebildete christliche Apologet Tertullian (ca. 160–220) wies im Jahre 197 eindringlich darauf hin, dass die Christenheit keine provinzielle Sekte gewesen sei, sondern dass die Bezeichnung „Christ“ von Anfang an die Aufmerksamkeit der kaiserlichen Behörden auf sich gezogen habe. Dabei gibt er an, dass das einzige Dekret Neros, das bei seinem Tode nicht aufgehoben wurde, dasjenige gegen die Christen gewesen sei. Einer weitverbreiteten altkirchlichen Legende nach sind unter Nero auch die Apostel Paulus und Petrus in Rom hingerichtet worden. Dies wird von einigen Forschern jedoch angezweifelt, zumal die Überlieferung auch davon berichtet, dass Paulus nach einem längeren förmlichen Prozess und Petrus zu einem späteren Zeitpunkt hingerichtet wurde. Für die Finanzierung des Wiederaufbaus plünderte Nero die Tempel im ganzen Reich. Möglicherweise liegt hier eine der Ursachen für die Zuspitzung der Ausbeutung von Judäa, die im Jahre 66 zum jüdischen Krieg führte. Von den Geldnöten des Kaisers zeugt auch die von Tacitus und Sueton überlieferte Geschichte des Caesellius Bassus. Beim Wiederaufbau Roms ließ Nero breitere Straßen anlegen und beschränkte die maximale Höhe der Häuser, die nun alle eigene Mauern haben mussten, auf 25 Meter; überall sorgte er für Brandschutzmaßnahmen. Trotz dieser Maßnahmen lastete die plebs urbana dem Princeps den Brand an und sah in seinem Wiederaufbau nach Brandschutzaspekten eine zusätzliche Belastung. Sich selbst ließ Nero ein riesiges, prunkvolles Anwesen mit großen Kunstschätzen und technischen Raffinessen errichten, die "Domus Aurea" (das „Goldene Haus“). Das Anwesen wurde kurz nach Neros Tod geplündert und teilweise abgerissen. Die flavischen Kaiser ließen auf dem Areal des dazugehörigen Sees das Kolosseum errichten. In dessen Ruinen wurde am 14. Januar 1506 die Laokoon-Gruppe entdeckt. Außenpolitik. In der Außenpolitik verließ sich Nero auf die von ihm ausgewählten Statthalter und Befehlshaber. Obwohl er als erster Princeps in der Geschichte Roms nie selbst an einem Feldzug teilnahm, konnte er durch die Fähigkeit der Kommandanten einige Erfolge feiern. Unterwerfung und Eingliederung Armeniens. Zu den wichtigsten gehören die Siege seines Feldherrn Gnaeus Domitius Corbulo über die Parther in Armenien. Das Land lag sowohl im Einflussbereich Roms als auch dem der Parther und bildete einen Puffer zwischen beiden Reichen. Bereits unter Claudius kam es zu Spannungen, in deren Folge der parthische Großkönig Vologaeses I. in Armenien einmarschierte und seinen Bruder Tiridates statt des romfreundlichen Mithradates auf den Thron brachte. Im Winter 54 setzte Nero den bewährten Corbulo als Statthalter der Provinz Cappadokia ein. Mit einem groß aufgestellten Heer und lokaler Unterstützung begann Corbulo 58 einen Feldzug, nachdem er erfolglos versucht hatte, mit Vologaeses zu verhandeln. Relativ rasch nahmen die römischen Truppen Artaxarta und Tigranocerta ein, Tiridates floh an den parthischen Hof. Tigranes VI., der die meiste Zeit seines Lebens in Rom verbracht hatte, wurde als Herrscher installiert. Der Erfolg wurde in Rom mit einem Triumphbogen gefeiert, zur Überraschung vieler hatte der junge Kaiser sich mit seiner Reaktion und der Auswahl Corbulos bewährt. Der Frieden in Armenien jedoch war brüchig. Nachdem Corbulo den Befehl in Syria übernommen hatte, zeigte Tigranes sich als unfähig und fiel mit römischen Truppen in Adiabene ein, das zum parthischen Reich gehörte. Daraufhin marschierte Vologaeses selbst auf Syrien, während sein Bruder Armenien angreifen sollte. Corbulo konnte den Einmarsch an beiden Linien stoppen, entfernte Tigranes vom armenischen Thron und verhandelte erneut. Sein Vorschlag war weiterhin, den Thron Tiridates zu geben, doch er sollte die Königswürde in Rom und von Nero empfangen. Der parthische Großkönig willigte ein und schickte eine Gesandtschaft nach Rom, die im Jahr 62 eintraf und ohne Ergebnis wieder abreiste. Vologaeses eröffnete den Krieg erneut. Nach anfänglichen Erfolgen wurde die Lage der römischen Truppen gefährlich, bis Corbulo mit einer Mischung aus Drohung, militärischer Härte und Diplomatie wieder Verhandlungen erreichte. Die Parther und die Römer zogen sich aus Armenien zurück, das sich selbst überlassen werden sollte. Nach Rom wurde gemeldet, die Situation habe sich positiv entwickelt. Als die zweite parthische Gesandtschaft 63 in Rom eintraf und grundsätzlich zwar Bereitschaft zeigte, nun die Krone aus den Händen Neros zu empfangen, doch dies in eine nicht näher bestimmbare Zukunft verlegte, wurden sie das zweite Mal zurückgeschickt. Corbulo erhielt ein "imperium maius" mit dem Auftrag, Armenien endgültig in römischem Sinn zu befrieden. Der Oberbefehlshaber zog fünf Legionen und Hilfstruppen zusammen. Die Drohung zeigte Wirkung, Tiridates erklärte sich nun bereit, die Königswürde in Rom zu empfangen. In einem persönlichen Gespräch zwischen Corbulo und Vologaeses stimmte der Großkönig zu. Die Verleihung der Königswürde aus Neros Hand an den armenischen König Tiridates im Jahr 66 wurde der größte Triumph für den Princeps und eine gelungene Inszenierung zugleich. Befriedung Britanniens. Unter Claudius war bereits ein Teil Britanniens zu einer römischen Provinz gemacht worden. Es gab keine Festgrenzlinie zum unbefriedeten Gebiet, zur Stabilisierung wurden Stammesfürsten als Klientelkönige benutzt. Im Jahr 58 setzte Nero mit Gaius Suetonius Paulinus einen erfahrenen Legaten ein, der sich an Corbulos Erfolgen in Armenien messen lassen musste. So ging er mit aller Härte gegen die Aufständischen auf der Insel Mona vor: Er ließ Männer, Frauen und Druiden töten und schändete die heiligen Haine. Unterdessen brach ein Aufstand in der Provinz aus. Der mit den Römern befreundete Stamm der Icener, der nahe der Provinzhauptstadt Camulodunum siedelte, sah aufgrund der teils rücksichtslosen römischen Politik nur noch die Möglichkeit, mit Waffengewalt gegen die Besatzer vorzugehen. Die Römer hatten zuvor die Erbansprüche der Königswitwe Boudicca ignoriert und sie und ihre Töchter vergewaltigt. Zudem hatten römische Kreditgeber ihre Kredite an britannische Adlige gekündigt, was diese in erhebliche Schwierigkeiten brachte. Die Rebellen konnten zuerst Erfolge verbuchen, Londinium, Camoludunum und Verulanium werden geplündert und teils zerstört, der Tempel von Claudius geschleift und der in Abwesenheit von Paulinus befehlshabende Prokurator Caetus Decianus vernichtend geschlagen. Die Lage schien so katastrophal, dass Nero darüber nachgedacht haben soll, die Insel aufzugeben. Paulinus versuchte so schnell wie möglich mit seinen vier Legionen aus Wales zu Hilfe zu kommen. Er traf auf die verbündeten aufständischen Truppen unter der Führung von Boudicca und stellte sie zur Schlacht. Sie wurde vernichtend geschlagen und beging Selbstmord, ihre Anhänger wurden zum größten Teil getötet oder ermordet, Britannien war befriedet. Um nach dem militärischen Sieg auch die wirtschaftliche Kontrolle wieder zu erlangen, schickte Nero einen neuen Finanzverwalter, Gaius Iulius Alpinus Classicianus, in die Provinz. Classicianus und Paulinus hegten eine tiefe Abneigung gegeneinander und arbeiteten nicht zusammen, sodass der Finanzprokurator um die Ablösung des Feldherrn bat. Um sich ein Bild machen zu können, sandte Nero seinen Freigelassenen Polyclitus nach Britannien. Diese Maßnahme stieß sowohl bei den römischen Statthaltern als auch beim einheimischen Adel auf Unverständnis und Ablehnung. Dennoch schaffte Polyclitus es, eine akzeptable Lösung zu finden: Paulinus konnte in Britannien verbleiben, hatte sein Heer jedoch Publius Petronius Turpilianus zu übergeben, der sich „trägem Nichtstun hingab“ und somit für Frieden sorge. Der Aufstand in Iudaea. Ein weiterer Schauplatz der Außenpolitik war Iudäa. Unter den Prokuratoren Marcus Antonius Felix, einem Bruder des Freigelassenen Pallas, und Gessius Florus, einem Günstling Poppaeas, hatte sich das Klima zwischen Juden, Griechen und Römern nicht positiv entwickelt. Als Florus ausstehende Steuern aus dem Tempelschatz begleichen ließ, begann der jüdische Aufstand. Im Mai 66 wurden römische Hilfstruppen in Masada getötet, der syrische Statthalter Gaius Cestius Gallus erlitt Ende 66 eine herbe Niederlage. Daraufhin betraute Nero, der in Griechenland weilte, den bewährten Heerführer Vespasian mit dem Oberbefehl im jüdischen Krieg und Gaius Licinius Mucianus mit der Statthalterschaft Syriens. Vespasian zog in Syrien 60.000 Mann aus den Truppen und Hilfstruppen zusammen und errang in kurzer Zeit Erfolge. Im Juli 67 eroberte er Iotapata, das von Joseph ben Mathitjahu befehligt worden war. Die endgültige Niederschlagung des Aufstandes zog sich aufgrund von Neros Selbstmord und dem Vierkaiserjahr bis 74. Verbrechen. Nero werden zahlreiche Verbrechen angelastet; so soll er im Jahr 55 seinen Stiefbruder Britannicus vergiftet haben. Da dieser jedoch schon seit seiner Kindheit an Epilepsie litt und körperlich schwächlich war, ist sich die Geschichtsschreibung über den Wahrheitsgehalt dieser Geschichte nicht einig. Es ist auch möglich, dass Britannicus an einem Anfall gestorben ist. Agrippina verlor nach und nach die Kontrolle über ihren Sohn. Sie drohte deshalb durch Intrigen, Verschwörungen und Bestechungen Nero zu stürzen. Nero, der seine Mutter fürchtete, setzte eine Untersuchungskommission ein, der auch Seneca angehörte, die Agrippina jedoch nichts nachweisen konnte. Unter Mithilfe seines ehemaligen Lehrers Anicetus, inzwischen zum Admiral geworden, wollte er Agrippina mit einem eigens dafür präparierten Schiff versenken lassen. Es gelang dieser jedoch, an Land zu schwimmen. Am 23. März 59 ließ er sie in ihrer Villa ermorden, als Rechtfertigung wurde ihr ein Anschlag auf Nero unterstellt und notdürftig bewiesen. Die Beteiligung von Seneca und Burrus an diesem Verbrechen ist unklar. Vermutlich wussten sie von dem Anschlag zu Wasser nichts, befürworteten jedoch die anschließende Ermordung. Nero ließ auch zahlreiche Hochverratsprozesse durchführen und zog – wie es übliche Praxis war – das Vermögen der Hingerichteten ein. Nero verliebte sich Ende 58 in Poppaea Sabina. Diese forderte ihn auf, Octavia zu verstoßen. Schließlich ließ der Kaiser 62 seiner kinderlosen Frau ein Verhältnis mit einem Sklaven anhängen und verbannte sie, um zwölf Tage später seine Geliebte zu heiraten. Es kam daraufhin zu schweren Unruhen und Aufständen, weil Octavia beim Volk sehr beliebt war. Deshalb ließ Nero das Gerücht streuen, Octavia habe zusammen mit ihrem Geliebten versucht, den Kaiser abzusetzen, und Nero verbannte sie auf eine Insel. Nero gab den Auftrag, ihr die Pulsadern aufzuschneiden und sie in heißem Dampf zu ersticken, was wenige Tage später auch erfolgte. Nero und Poppaea hatten eine gemeinsame Tochter, Claudia. Sie wurde am 21. Januar 63 geboren, starb jedoch vier Monate später. Zwei Jahre später war Poppaea wieder schwanger. Es wird behauptet, Nero hätte sie während dieser Zeit aus Verärgerung durch einen Fußtritt in den Unterleib getötet, diese Darstellung ist jedoch umstritten; sicher ist nur, dass Poppaea während ihrer Schwangerschaft im Jahre 65 gestorben ist. Nach Poppaeas Tod heiratete Nero Statilia Messalina, die Witwe des Konsuls des Jahres 65 Marcus Iulius Vestinus Atticus, den er nach der Aufdeckung der Pisonischen Verschwörung bei einem Gastmahl zum Selbstmord gezwungen hatte, obwohl dieser nicht daran beteiligt gewesen war. Nero wollte ihn vermutlich ausschalten, um Statilia, die bereits einige Zeit seine Geliebte war, selbst heiraten zu können. Ob schon zu Poppaeas Lebzeiten ein Verhältnis der beiden bestanden hatte, ist dabei nicht klar. Nero als Künstler. Seit seiner Jugend hatte Nero einen Hang zu allen schönen Künsten. Bei der römischen Oberschicht waren künstlerische und literarische Ambitionen zwar gern gesehen, doch sie sollten im kleinen, privaten Kreis ausgelebt werden, nicht auf der öffentlichen Bühne und erst recht nicht vor dem Volk. Spätestens seit 60 kam der Künstler, der um Anerkennung buhlte, in Nero immer mehr zum Vorschein. Schon vorher hatten Seneca und Burrus dem Herrscher kleine Ausflüge in die Arena und auf die Bühne gestatten müssen, diese fanden allerdings vorerst nur mit Freunden und für Freunde und Mitglieder des Hofes statt. Im Jahr 59 veranstaltete Nero um seine traditionelle Bartabnahme ein Fest, die "Iuvenalia". Bei dieser Gelegenheit traten jedoch nicht professionelle Künstler auf, sondern Senatoren und Ritter, was für die römische Aristokratie so degoutant wie verdammenswert war. Am Ende der Spiele trat Nero selbst auf. Im folgenden Jahr stiftete der Kaiser die "Neronia", Spiele, die sich an den griechischen Spielen orientierten und in Neapel stattfanden, weil dort das Publikum Aufführungen jeder Art offener gegenüberstand als in Rom. Auch hier trat der Princeps öffentlich und erstmals vor einer großen Zuschauerzahl auf. Bei den nächsten "Neronia", die aufgrund des Brandes von Rom erst 65 stattfanden, präsentierte sich Nero in Rom. Der Senat versuchte dies zu verhindern, indem er dem Princeps bereits vorher den Sieges- und Ehrenkranz anbot, doch Nero wollte keine Begünstigung und den Auftritt. Während das Volk die Darstellung des Kaisers genoss, waren Senatoren und auswärtige Staatsgäste angewidert und entsetzt. Vespasian soll bei dieser Aufführung auch anwesend gewesen und eingeschlafen sein, was ihn fast das Leben gekostet hätte, denn der Kaiser erwartete Aufmerksamkeit und verbot ein vorzeitiges Verlassen des Schauplatzes. Nero förderte in seiner Regierungszeit die Naturwissenschaften, die Geographie und den Handel, ganz besonders aber Kunst und Kultur, wobei er allem Griechischen verbunden war und sich bewusst als Philhellene verstand. Er organisierte eine Expedition zur Entdeckung der Nilquelle, die jedoch scheiterte, und Ausgrabungen in Karthago. Er selbst hielt sich für einen talentierten Sänger, Dichter und Lyraspieler. Sein erster Auftritt in Neapel brachte ihm, vor allem aufgrund seiner mitgereisten Prätorianer, den ersten Preis im musischen Wettbewerb. Sein Philhellenismus brachte ihm auch den Titel eines Periodoniken ein, eines Siegers in musischen Wettbewerben bei den Spielen von Delphi, Nemea und Korinth. Im Jahr 66 reiste Nero nach Griechenland, wo er an den Olympischen Spielen teilnahm und in mehreren hellenischen Städten Theateraufführungen gab, bei denen er sich auch in Frauenrollen, als Kitharasänger und bei sportlichen Wettkämpfen gefiel. Er soll in diesem Jahr bei Wettstreiten aller Art 1808 Siegespreise erhalten haben. Alle vier panhellenischen Spiele ließ er in einem Jahr abhalten. Als Verehrer der griechischen Kultur hielt er sich über ein Jahr lang in Griechenland auf, bis er von seinem Freigelassenen und Statthalter in Rom, Helius, zur Rückkehr nach Rom gedrängt wurde, wo die Stimmung sich inzwischen sehr verschlechtert hatte. Zwar kehrte er im Januar 68 unter großem Jubel nach Rom zurück, er gab sich jedoch ganz seinen Vergnügungen hin, besuchte Theater und Konzerte, ließ Wettspiele veranstalten und trat selbst als Künstler auf, wobei er immense Schulden machte. Der Skandal an Neros Künstlertum war nicht seine Liebe für Schauspielerei, Theater, Poesie und Musik, sondern sein Streben nach künstlerischer Perfektion und Produktion vor einem Publikum. Nach den Konventionen der Aristokratie und der Erwartung an einen Princeps waren das Auftreten bei Wettkämpfen, Wettfahrten und Theaterstücken unerhört – derartig benahm sich der Herrscher der bekannten Welt, Vater des Vaterlandes und Garant für das Wohlergehen des Staates nicht. Machtverlust und Tod. Nero hatte schon vor seiner Griechenlandreise Argwohn gegenüber zu mächtigen Feldherrn entwickelt und Corbulo nach Korinth und zum Selbstmord beordert. Ob Corbulo in die Vinicianische Verschwörung eingeweiht war, ist ungeklärt. Den ersten Schritt zu Neros Untergang machte nun Gaius Iulius Vindex, Statthalter der Provinz "Gallia Lugudunensis". Er entstammte gallischem Hochadel und rief seine Landsleute und die Statthalter der angrenzenden Provinzen, in erster Linie Galba in "Hispania Tarraconensis" sowie Verginius Rufus und Fonteius Capito, zum Aufstand gegen den unwürdigen Princeps auf. Galba und die germanischen Kommandanten warteten jedoch ab. Nero erhielt die Nachricht in Neapel und blieb gelassen. Weitere Nachrichten aus Gallien und Erlasse von Vindex bewegten den Kaiser dazu, nach Rom zu reiten. Erst als er erfuhr, dass Galba sich doch Vindex und Otho mit der Provinz Lusitania angeschlossen habe, reagierte er mit Klagen und Zaudern. Angeblich soll er in Ohnmacht gefallen sein. Inzwischen müssen die beiden Prätorianerpräfekten des Kaisers zu der Einsicht gelangt sein, Nero nicht länger unterstützen zu wollen. Ob Tigellinus bereits jetzt von seinem Gönner abfiel, lässt sich nicht sagen, die Quellen schweigen über ihn. Seinem Amtskollegen Gaius Nymphidius Sabinus, der nach dem Ausscheiden des Lucius Faenius Rufus den Posten übernommen hatte, oblag nun das Handeln. Senat und römische Oberschicht waren nach den Ausschweifungen des Kaisers und den Hinrichtungen in ihren Reihen ohnehin gegen den Princeps eingestellt. Sie empfingen jetzt heimlich einen Abgesandten Galbas, den Freigelassenen Icelus Marcianus. Als die Nachricht eintraf, weitere Heere seien zu Galba übergelaufen, wurde Nero panisch. Er beschloss erst jetzt – oder hatte dies vielleicht schon länger für den Notfall geplant – nach Ägypten zu fliehen. Nero gab seinen vermeintlich treuesten Beratern, darunter Nymphidius, den Befehl, in Ostia eine Flotte seeklar zu machen. Auf seinem Weg zum Hafen machte Nero noch ein letztes Mal in einem seiner Landgüter halt und schlief dort kurz ein. Als er aufwachte, musste er feststellen, dass seine Leibgarde, die ihn schützen sollte, abgezogen war: Nymphidius war gleich nach Aufbruch des Kaisers in das Prätorianerlager gegangen und hatte dort behauptet, Nero sei bereits auf dem Weg nach Ägypten. Er war es auch, der den Kaiser zum Zwischenaufenthalt auf dem Landgut überredet hatte. Mit einem Versprechen von 30.000 Sesterzen pro Mann konnte er die Prätorianer „überzeugen“, Galba als neuen Kaiser auszurufen. Nero erkannte den Ernst seiner Lage und versuchte, bei einem seiner früheren Freunde Unterschlupf zu finden. Niemand wollte ihm Asyl gewähren, außer seinem Freigelassenen Phaon. Sofort machte sich der Princeps mit nur vier Begleitern auf den Weg. Auf seiner Flucht hörte er noch die Soldaten, wie sie Galba als neuem Princeps Glück wünschten. Immer wieder soll er ausgerufen haben: „Welch Künstler geht mit mir zugrunde!“ Unterdessen erreichte ihn ein Schreiben, das beinhaltete, dass er vom Senat zum "hostis" (Feind des Volkes) erklärt worden sei, und man ihn suche, um ihm die entsprechende Bestrafung – inklusive der damnatio memoriae – angedeihen zu lassen. Trotz der Panik schob Nero die Ausführung seines Selbstmordes so lange auf, bis er herannahende Pferde hörte. Mit Hilfe seines Sekretärs Epaphroditus stach er sich einen Dolch in die Kehle. Als ihm ein römischer Soldat das Leben retten wollte, um die Belohnung zu erhalten, die auf den lebenden Nero ausgesetzt war, soll er noch in Verkennung der Tatsachen „Zu spät. Das ist Treue.“ gesagt haben. So starb Nero am 9. oder 11. Juni 68. Sein Leichnam wurde verbrannt und im Familiengrab der "gens Domitia" auf dem "collis hortulorum" (jetzt Pincio) mit großem Aufwand beigesetzt. Die Standbilder des zum Staatsfeind erklärten Nero wurden zwar vernichtet, doch aufgrund der Umstände seines Todes und seines Lebenswandels kursierten, besonders im Osten, immer wieder Gerüchte, er lebe noch und werde wieder den Thron besteigen (siehe Terentius Maximus). Die Tatsache, dass das römische Reich keinen ernsthaften Schaden nahm, liegt nicht zuletzt daran, dass der Verwaltungsapparat weiter funktionierte und die Grenzsicherung durch die Armee weiterhin gewährleistet war. Die Regierungszeit Vespasians, der sich im Vierkaiserjahr schließlich durchsetzte und das Reich wieder stabilisierte, stellte einen Neuanfang gegenüber der Herrschaft Neros dar. Nero im Urteil der Nachwelt. Nero ist einer der umstrittensten Kaiser der römischen Geschichte. Während antike Autoren ihm durchaus positive Seiten abgewannen, überwog schon bald nach seinem Tod die Ablehnung der Politik und insbesondere der Persönlichkeit Neros. Die Senatorische Geschichtsschreibung, wie Sueton und Tacitus, deren Werke neben Cassius Dio die wichtigsten Quellen zum Leben des Kaisers darstellen, gab ihrer Verachtung offen Ausdruck. Bei Aurelius Victor werden die ersten Jahre des Prinzipats als sehr positiv gezeichnet, bevor Nero „Scham und Ekel“ erregte. Petronius und Lucan erwähnen den Kaiser kurz in ihren Werken; für eine Charakterisierung reichen die Stellen allerdings nicht. Umstritten ist bis heute nicht nur die Rolle, die Seneca als Lehrer und Berater einnahm, sondern auch die Bewertung seiner Schriften. In "(ad Neronem Caesarem) de clementia" zeigt der Philosoph den Kaiser indirekt als gütigen Herrscher, auf dessen Entwicklung man hoffen kann. Da Seneca jedoch direkt durch die Erziehung Neros und indirekt durch seine Position am Hof in die Regierung eingebunden und damit vom Princeps abhängig war, ist die Neutralität seiner Angaben fraglich. Auf der anderen Seite lässt sich anführen, dass Seneca seinem Schüler nicht die positive Seite der Milde dargestellt hätte, wenn er nicht vom Nutzen und damit von Neros Beeinflussbarkeit im besseren Sinne überzeugt gewesen wäre. Die in den meisten Quellen ausgedrückte Verachtung hatte ihren Grund teils in der Abneigung der Römer gegen Neros Vorliebe für alles Griechische, teils – etwa bei Tacitus – in der Ablehnung des Kaisertums überhaupt, als dessen Entartung Neros Herrschaft erschien. Ein weiterer Grund waren Neros unberechenbare Handlungen, wie die Familienmorde, die Hinrichtungswellen oder unterstützten Selbstmorde, sowie seine Vernachlässigung des Staates und seine Haltung gegenüber dem Senat. Andererseits gehörte Nero, vermutlich zur Unzufriedenheit des Militärs, zu den insgesamt drei römischen Kaisern, die die Pforten des Janustempels zum Zeichen des äußeren Friedens schlossen. Christliche Autoren späterer Jahrhunderte, die Nero schon wegen der Hinrichtung ihrer Glaubensbrüder nach dem Brand von Rom verurteilten, prägten endgültig das Bild des Kaisers als größenwahnsinnigem Tyrannen. Im Mittelalter galt er geradezu als Verkörperung des Antichristen. Dieses Bild des Tyrannen – das nicht nur in späteren christlichen, sondern auch schon in den ältesten heidnisch-antiken Quellen vorzufinden ist – überwiegt bis heute. Einige Autoren haben in jüngster Zeit eine Rehabilitierung Neros als humanistischer Herrscher versucht. Dabei wurde vor allem das Augenmerk auf die Dreigliederung der römischen Gesellschaft in Kaiser, Aristokratie und Volk gelegt. Den nachdrücklichsten Versuch Nero zu rehabilitieren machte Massimo Fini in seiner 1994 erschienen, nicht wissenschaftlichen Biografie mit dem eindeutigen Untertitel "Zweitausend Jahre Verleumdung". Nero verfolgte eine eher volkstümliche Politik, was auch durch Äußerlichkeiten gezeigt wurde. So war er zum Beispiel Anhänger der „Grünen“, einer von vier klassischen Mannschaften beim Wagenrennen, die auch bei der Plebs beliebt waren. Seine künstlerischen Darbietungen und die Teilnahme an Wettfahrten verstärkten Neros populären Ruf. Die Annäherung des Kaisers an das Volk führte in Aristokratie und Patriziat zu einer schlechten Beurteilung. Quellen aus dem Stand der Plebejer existieren nicht beziehungsweise sind nicht überliefert. Bemerkenswert ist, dass nach Neros Tod das Volk in Rom die wieder gewonnene Freiheit feierte, doch schon bald nach seiner Bestattung auf Staatskosten sein Grab besucht und mit Blumen geschmückt wurde. Bei den Parthern wurde Nero als guter Princeps verehrt, und gerade in den östlichen Provinzen tauchten in den folgenden Jahren immer wieder falsche Neros auf, die dem Gerücht, er lebe noch und werde wiederkommen, neue Nahrung gaben oder daraus resultierten. Die moderne Forschung sieht in den (ersten) fünf Jahren seiner Regierung eine reformorientierte, änderungswillige Periode, in der das Verhältnis zwischen Nero und seinen Beratern Burrus und Seneca ausschlaggebend war. Sogar Neros Vorliebe für künstlerische Vergnügen hatte einen positiven Aspekt: So viel Zerstreuung und Aufmerksamkeit waren dem stadtrömischen Volk lange nicht zuteilgeworden. Die zusätzlichen Getreidelieferungen sorgten für relativen Wohlstand, die Veteranen und Prätorianer waren mehr als nur gut versorgt. Der Bruch in den Jahren 59 und 62 und die Dekadenz bis zur Tyrannei der folgenden Regierungszeit lassen sich kaum nachvollziehen, ohne dem Princeps von Beginn an einen lasterhaften Charakter zu unterstellen. Mit dem Rückzug der Berater und Staatslenker der ersten Stunde und mit der Ermordung Agrippinas entfaltete sich Neros ‚dunkle‘ Seite mehr und mehr. Mit der Bestärkung und Beeinflussung durch Tigellinus fühlte der Kaiser sich vermutlich immer wohler in seiner Rolle als Schauspieler und Sänger und entwickelte sich zu einem Tyrannen. Die Konsequenz davon war die Vernachlässigung der Staatsgeschäfte mit extremer Schuldenaufnahme. Nero-Rezeption. Die Zeit Neros, besonders der Brand Roms und die Christenverfolgung, inspirierte zahlreiche dramatische und musikalische Bearbeitungen, so die von Claudio Monteverdi ("L’incoronazione di Poppea" 1642), Jean Racine ("Britannicus", 1669), Georg Friedrich Händel ("Nero" 1705, "Agrippina" 1710), Reinhard Keiser ("Octavia" 1705), Anton Rubinstein ("Nero" 1879), Arrigo Boito ("Nerone", Uraufführung posthum 1924), Feliks Nowowiejski ("Quo vadis?, 1903"), Jean Nougues ("Quo vadis?" 1910) und Pietro Mascagni ("Nerone" 1935). Unter den historischen Romanen dürfte Henryk Sienkiewicz’ "Quo Vadis", erschienen 1895, wohl am bekanntesten sein. Das Buch wurde mehrmals verfilmt. Bekannt ist vor allem der Monumentalfilm Quo vadis? von 1951, in dem Peter Ustinov den Kaiser verkörperte und dafür für den Oscar nominiert wurde. 2001 entstand die polnische Filmversion von Filmregisseur Jerzy Kawalerowicz, 2004 der TV-Zweiteiler "Nero – Die dunkle Seite der Macht" mit Hans Matheson in der Hauptrolle. Feuchtwangers Roman "Der falsche Nero" spielt um die Zeit nach dem Tod des Kaisers. Es gibt über 100 Romane, die sich mit Nero oder seiner Zeit beschäftigen, wobei die Genres vom Krimi über die vermeintliche Autobiografie bis zur Liebestragödie reichen. Neben Finis nichtwissenschaftlicher Abhandlung erscheinen auch immer wieder andere Biografien Neros, die einem wissenschaftlichen Anspruch genügen wollen. Die letzte stammt von Jacques Robichon aus dem Jahr 2004. Er orientiert sich in erster Linie an Sueton und skizziert Nero als halbwahnsinnigen, sexbesessenen und unfähigen Tyrannen und selbstverliebten Künstler. In den letzten Monaten des Zweiten Weltkriegs ging ein Befehl Hitlers zur Zerstörung der deutschen Infrastruktur mit dem Namen Nerobefehl in die Geschichte ein. Dabei wurde darauf angespielt, dass sich dieser Befehl wie die Brandstiftung Roms gegen das eigene Volk richtete. Norwegen. Das Königreich Norwegen (, altnordisch "*Norðvegr, Norvegr, Noregr" „Nordweg“) ist ein Staat in Nordeuropa. Norwegen liegt auf der Skandinavischen Halbinsel und grenzt im Osten an Schweden und im Nordosten an Finnland und Russland. Die Wirtschaftszone Norwegens in der Nordsee grenzt im Süden an die Dänemarks und im Westen an die Schottlands. Norwegens Staatsform entspricht der einer konstitutionellen Monarchie mit stark parlamentarischen Zügen. Das Königreich ist als dezentraler Einheitsstaat organisiert. Das Land ist unter anderem Mitglied der NATO, des Nordischen Rates, der OECD und der Vereinten Nationen. Der Index für menschliche Entwicklung (HDI) der UN stuft Norwegen seit vielen Jahren als das weltweit am weitesten entwickelte Land ein. Darüber hinaus ist es laut dem Demokratieindex der britischen Zeitschrift "The Economist" der demokratischste Staat der Welt. Binnenland. Die Längenausdehnung des Landes ist beträchtlich, die Luftlinie von Kristiansand im Süden nach Hammerfest in der Nähe des Nordkapps beträgt 1.572 km, also 43 km mehr als die 1.529 km von Kristiansand nach Genua am Mittelmeer. Die Grenze zu Schweden ist 1619 km lang, die zu Finnland 727 km und die zu Russland 196 km. Geologie. Landschaftlich ist Norwegen geprägt von Gebirgsmassiven und kargen Hochebenen, den Fjells. 26 Gipfel liegen über 2300 Meter. Die höchste Erhebung des Festlandes ist der Galdhøpiggen mit 2469 Meter. Er liegt im Gebirgszug Jotunheimen. Der Untergrund Norwegens besteht größtenteils aus alten, harten Gesteinen aus Silur, Kambrium und Eozoikum, deren Faltung besonders lange zurückliegt (Kaledonische Orogenese). Die Oberflächenmodellierung geschah vor allem durch die Vergletscherung in den Kaltzeiten. Die bekanntesten eiszeitlich entstandenen Landschaftsformen sind die Fjorde (siehe Liste mit Karte) an der Küste. Auf gleiche Weise sind die meisten Binnenseen (siehe Liste) entstanden, sind also Fjordseen. Manche tragen „-fjord“ im Namen. Größter Binnensee ist der Mjøsa mit einer Fläche von 365 km² (etwa zwei Drittel des Bodensees). Wie der Oslofjord ist er nicht rein glazialen Ursprungs, sondern Teil eines Grabenbruchs. Die jüngere Erosion durch Fließgewässer ist vergleichsweise gering. Daher gibt es viele Stromschnellen und hohe Wasserfälle, und die fischreichen Flüsse fließen durch zahlreiche natürliche Seen. In den unteren Höhenlagen gibt es verschiedene Formen von Moränenhügeln, unter anderem die durch Schmelzwasser angeschütteten Åser. Flüsse. Der längste Fluss des Landes, Glomma, ist 601 km lang und mündet bei Fredrikstad in den Oslofjord. Ein kleiner Teil seiner Zuflüsse kommt aus Schweden. Das größte nach Schweden entwässerte Gebiet Norwegens ist der Einzugsbereich des Trysilelva, der in Schweden Klarälv heißt. Nördlich davon folgt die Landesgrenze nicht genau der skandinavischen Hauptwasserscheide, so dass kleinere Gebiete Norwegens in die Ostsee entwässert werden und kleinere Gebiete Schwedens ins Europäische Nordmeer. Nicht zuletzt wegen der Gliederung der Flussläufe durch Seen tragen nicht wenige Flüsse in ihrem Verlauf mehrere Namen. Küste. Die etwa 25.000 km lange Atlantikküste (mit den Küsten aller Inseln über 80.000 km) besteht aus vielen schmalen und tiefen Buchten, den Fjorden, mit denen das salzige Meer vielerorts weit ins Land reicht. Ohne sie wäre die Atlantikgrenze 2650 km lang. Ungefähr 150.000 Inseln umgeben das Land. Die oft fjordartig engen Meeresarme zwischen Festland und Inseln sowie zwischen Inseln untereinander tragen großenteils „Sund“ im Namen, manche auch „Fjord“. Die wohl bekanntesten Inselgruppen sind Lofoten und Vesterålen, beide nördlich des Polarkreises gelegen. Beiden Gruppen zugerechnet wird Hinnøya, mit einer Fläche von 2204 km² Norwegens größte Insel in Küstennähe. Wie für ein bergiges Land nicht anders zu erwarten, sind große Teile der Küsten felsig. Nur an geschützten Stellen gibt es etwas Sandstrand. In einigen Küstenabschnitten gibt es außer hoch aus dem Wasser ragenden Inseln felsige Schären, die sich kaum über die Wellen erheben. Gezeiten. Datei:Tides in Norway.png|mini|300px|Tidenhübe und Chronologie der Gezeitenwellen an der norwegischen Küste (+ … a>) Das Verhalten der Gezeiten unterscheidet sich deutlich von dem an den südlichen und westlichen Küsten der Nordsee. Die Südwestküste Norwegens liegt in der Nähe eines Amphidromiezentrums. Hier ist der Tidenhub gering und die Reihenfolge des Tideneintritts an verschiedenen Orten schwankend. Östlich davon, am Skagerrak, ist die Bewegung der Tidenwellen gleichmäßiger, aber der Tidenhub ebenfalls gering. Nördlich von Bergen ist der Tidenhub größer und es gibt eine eindeutige Bewegungsrichtung von Westnorwegen in Richtung Barentssee. Da das Europäische Nordmeer im Unterschied zur flachen Nordsee die Tidenkinetik eines Ozeans hat, wandert die Tidenwelle sehr schnell. Der Zeitunterschied zwischen den Pegeln im Verhältnis zu ihrem Abstand bis zum Nordkapp ist deutlich geringer als beispielsweise an deutschen Küsten. Weiter entfernte Inseln. Zum Königreich Norwegen gehören neben dem kontinentalen „Hauptland“ "(hovedland)" die im Nordatlantik beziehungsweise im Nordpolarmeer gelegene Inselgruppe Spitzbergen (norw. Svalbard) mit der Bäreninsel sowie die Insel Jan Mayen. Unter norwegischer Verwaltung steht zudem die Bouvetinsel im Südpolarmeer. Sie gilt nicht als Teil des Königreichs Norwegen, sondern als abhängiges Gebiet "(norwegisch: biland)". Zwei Gebiete südlich des 60. Breitengrades werden von Norwegen jeweils als "biland" beansprucht, sie sind als norwegisches Hoheitsgebiet international nicht anerkannt. Es handelt sich um die Peter-I.-Insel im Südpolarmeer und das Königin-Maud-Land in der Antarktis, einen Sektor des Antarktischen Kontinents zwischen 20° West und 45° Ost. Städte und Ballungsräume. Neben Oslo (626.000 Einwohner) hat Norwegen drei weitere Städte mit mehr als 100.000 Einwohnern; es sind Bergen (269.000), Trondheim (180.000) und Stavanger (130.000). Große Ballungsräume sind die beiden Städte Fredrikstad (77.849) und Sarpsborg (54.136) mit gemeinsam 131.985 Einwohnern sowie Drammen (66.802) mit Teilen der Gemeinden Lier, Nedre Eiker und Øvre Eiker mit etwas über 100.000 Einwohnern. Klima. In Norwegen trennt der Gebirgszug der Skanden den schmalen, humid geprägten Küstenstreifen im Westen vom kontinental geprägten Klima im Osten. Norwegens Westküste hat für seine nördliche Breite ein ausgesprochen mildes und feuchtes Klima. Der Grund dafür ist der Nordatlantikstrom, der relativ warmes Wasser aus niederen Breiten bis weit nach Norden strömen lässt. Die Küste bleibt deshalb den gesamten Winter über weitgehend eisfrei. Die mildernde Wirkung des Meeres ist – bedingt durch auflandige Winde – in den Lufttemperaturen (ca. −5 °C bis +2 °C) zu spüren. Die vom Meer aufgenommene Feuchtigkeit regnet an der Westseite der Gebirge ab. So zählt die Stadt Bergen zu den regenreichsten Städten Europas. Im Lee der Gebirge sind die Niederschlagsmengen eher gering. Die Niederschlagsmenge nimmt von Süden nach Norden ab und ist entlang des gesamten Küstenstreifens im Mai deutlich geringer als im Herbst. Je weiter man ins Landesinnere kommt, umso stärker ist das Klima kontinental geprägt. Die Niederschläge nehmen ab, die Temperaturen sind im Sommer höher, im Winter dagegen deutlich niedriger. Die Temperaturamplitude ist hier also wesentlich ausgeprägter als jene an der vom Golfstrom beeinflussten Westküste. Flora. In Norwegen leben über 1300 Arten Samenpflanzen und Farne. Über die Hälfte der Pflanzenarten gedeiht in Waldgebieten. Im Laubwald ändert sich der Lichteinfall auf dem Waldboden stark im Lauf der Jahreszeit. Daher befinden sich im Laubwald viele Frühjahrsblüher. Sie blühen schnell nach der Frostperiode und bilden die Früchte und Samen noch vor dem Sommer aus. Häufige Pflanzenarten der Krautschicht von Laubwäldern sind: Waldmeister ("Galium odoratum"), Quirlblättrige Weißwurz ("Polygonalem verticillatum"), Bärlauch ("Allium ursinum"), Maiglöckchen ("Convallaria majalis"), Leberblümchen ("Hepatica nobilis"), Wald-Gelbstern ("Gagea lutea"), Ähriges Christophskraut ("Actaea spicata"), Wechselblättriges Milzkraut ("Chrysosplenium alternifolium"), Scharbockskraut ("Ficaria verna"), Buschwindröschen ("Anemone nemorosa"), Straußenfarn ("Matteuccia struthiopteris"), Wald-Schachtelhalm ("Equisetum sylvaticum"). Im Nadelwald leben Pflanzen unter konstanten Lichtverhältnissen, da Nadelbäume ihre Nadeln nicht saisonal verlieren. Somit sind die Pflanzen am Boden ständig im unterschiedlichen Maße dem Schatten ausgesetzt. Darüber hinaus gibt es in Norwegen zwei unterschiedliche Typen von Nadelwäldern, den Fichtenwald und den Kiefernwald. Im feuchterem Klima des Fichtenwaldes wachsen mehr arktische Arten als im trockenen Kiefernwald. Häufige Pflanzenarten der Krautschicht von Laubwäldern sind: Heidelbeere ("Vaccinium myrtillus"), Preiselbeere ("Vaccinium vitis-idaea"), Rauschbeere ("Vaccinium uliginosum"), Besenheide ("Calluna vulgaris"), Blauheide ("Phyllodoce caerulea"), Schwarze Krähenbeere ("Empetrum nigrum"), Rundblättriges Wintergrün ("Pyrola rotundifolia"), Kleines Wintergrün ("Pyrola minor"), Siebenstern ("Trientalis europaea"), "Melampyrum sylvaticum", Moosglöckchen ("Linnaea borealis"), Waldsauerklee ("Oxalis acetosella"), Hain-Veilchen ("Viola riviniana") und der seltene Gelbe Frauenschuh ("Cypripedium calceolus"). Im Hochstaudenwald sind häufige Arten: Alpen-Milchlattich ("Cicerbita alpina"), Hain-Sternmiere ("Stellaria nemorum"), Hoher Baldrian ("Valeriana sambucifolia"), Verschiedenblättrige Kratzdistel ("Cirsium heterophyllum"), Breitblättrige Glockenblume ("Campanula latifolia"), Trollblume ("Trollius europaeus"), "Aconitum septentrionale", Waldstorchschnabel ("Geranium silvaticum"), Ruprechtskraut ("Geranium robertianum"). Häufige Arten in der Taiga sind: Sumpfporst "(Ledum palustre)", "Polemonium acutiflorum", "Ranunculus lapponicus", Allackerbeere ("Rubus arcticus"), "Lactuca sibirica", Langblättriger Ehrenpreis ("Veronica longifolia"), "Thalictrum rariflorum", "Thalictrum minus" subsp. "kemense", "Thymus serpyllum" subsp. "tanasensis". In Norwegen existieren über 40.000 Seen und weit mehr Moore und Sumpfgebiete. Viele davon liegen in Waldgebieten. Plätze, die ausreichend Nährstoffe zu Verfügung stellen und reich an Mineralien sind, weisen eine hohe Artenvielfalt auf. In anderen Gebieten mit wenig Nährstoffen gedeihen nur wenige Arten, diese dafür um so zahlreicher. Die Bruchwälder wechseln im Aussehen und ihrer Ökologie. Die meisten der Waldseen ohne Zu- und Abfluss sind dystrophe Gewässer, in denen nur wenige Nährstoffe und wenig Sauerstoff vorhanden ist. Das Wasser hat eine braune Färbung, und der Boden ist schlammig. Oft gibt es Torf an den Uferkanten. Andere Seen sind flach und bekommen all ihre Nährstoffe aus dem Regenwasser. Häufig entsteht dort Torf, da im sauerstoffarmen Moorboden keine Pflanzenreste verrotten können. Wenn aus den Bergen stetig Wasser einsickert, entsteht eine üppige Vegetation. Solche Gebiete wurden im Volksmund Heumoore genannt, da die Bevölkerung früher das Gras aberntete. Die großen Seen in Norwegen sind meist oligotroph. Das Wasser ist klar mit großer Sichttiefe und ebenfalls nährstoffarm. Der Boden besteht aus Steinen, Kies und Sand. Hier herrscht eine andere Flora als in den Waldseen. Häufige Sumpf- und Wasserpflanzen sind: Weiße Seerose ("Nymphaea alba"), Gelbe Teichrose ("Nuphar lutea"), Schild-Wasserhahnenfuß ("Ranunculus peltatus"), Sumpfdotterblume ("Caltha palustris"), Moltebeere "(Rubus chamaemorus"), Sumpf-Blutauge ("Potentilla palustris"), Rundblättriger Sonnentau ("Drosera rotundifolia"), Langblättriger Sonnentau ("Drosera anglica"), Sumpf-Veilchen ("Viola palustris"), Sumpf-Weidenröschen ("Epilobium palustre"), Wechselblütiges Tausendblatt ("Myriophyllum alterniflorum"), Tannenwedel ("Hippuris vulgaris"), Gewöhnliche Moosbeere ("Vaccinium oxycoccos"), Rosmarinheide ("Andromeda polifolia"), Fieberklee ("Menyanthes trifoliata"), Glocken-Heide ("Erica tetralix"), Straußblütiger Gilbweiderich ("Lysimachia thyrsiflora"), Sumpf-Läusekraut ("Pedicularis palustris"), Gemeines Fettkraut ("Pinguicula vulgaris"), Wasser-Lobelie ("Lobelia dortmanna"), Sumpf-Kratzdistel ("Cirsium palustre"), Sumpf-Schwertlilie ("Iris pseudacorus"), Moorlilie ("Narthecium ossifragum"), Scheiden-Wollgras ("Eriophorum vaginatum"), Schmalblättriges Wollgras ("Eriophorum angustifolium"), Schwimmendes Laichkraut ("Potamogeton natans"), Schmalblättriger Igelkolben ("Sparganium angustifolium"). Es gibt über 12.000 Flechten-Arten in Norwegen. Darunter beispielsweise: Echte Rentierflechte ("Cladonia rangiferina"), Ebenästige Rentierflechte ("Cladonia portentosa"), "Cladonia bellidiflora", Blasenflechte ("Hypogymnia physodes"), Gewöhnliche Gelbflechte ("Xanthoria parietina"), Baummoos ("Pseudevernia furfuracea"), Bartflechten ("Usnea" spec.). In Norwegen gibt es über 800 Arten von Moosen. Die Mehrheit davon ist in Waldgebieten vertreten. Sie besiedeln zudem Moor- und Feuchtgebiete sowie langsam fließende, steinige Bäche und Flüsse. Das im Wasser am häufigsten verbreitete Moos ist das Gewöhnliche Quellmoos ("Fontinalis antipyretica"), das bis zu 20 cm lang werden kann. In Moor- und Feuchtgebieten dominieren Torfmoose, von denen in Norwegen 25 Arten bekannt sind. Sie wurden früher als Dämmmaterial für den Hausbau eingesetzt. Im Vestlandet, wo ein feuchtes Klima eine lange Wachstumsphase ermöglicht, sind über drei Meter dicke Torfmoosschichten bekannt. Wegen seiner Größe und des langsamen Wachstums sind Moose im Wald auf Standorte mit wenig Konkurrenz abgedrängt. So findet man sie auf Steinen, Holz, sandigen Hängen und Stein oder Erdhügeln sowie in den dunkelsten Waldpartien. Im Heidelbeer-Nadelwald findet man etliche Arten der Gabelzahn- und Etagenmoose, da sie nur wenig Licht zum Überleben brauchen. Beispielsweise: Widertonmoose ("Polytrichum" spec.), "Racomitrium uliginosum", "Bryum hygrometricum". Es gibt 10.000 Arten an Pilzen (Fungi) in Norwegen, wovon rund 6000 im Wald beheimatet sind. Nur um die 2500 Arten davon bilden im Herbst Fruchtkörper aus. Die Stielporlingsverwandten (Polyporaceae) stellen die wichtigste Gruppe der holzabbauenden Pilze dar, von denen es in Norwegen über 300 Arten gibt. Diese Pilze verursachen in der Forstwirtschaft Schäden in Höhe von mehreren 100 Millionen norwegischen Kronen, da der Schaden meist erst beim Fällen entdeckt wird. Pilz-Arten in Norwegen sind beispielsweise: Birkenporling ("Piptoporus betulinus"), Zaun-Blättling ("Gloeophyllum sepiarium"), Rotrandiger Baumschwamm ("Fomitopsis pinicola"), Nördlicher Zinnoberschwamm ("Pycnoporus cinnabarinus"), Semmel-Stoppelpilz ("Hydnum repandum"), Schaf-Porling ("Albatrellus ovinus"), Echter Pfifferling ("Cantharellus cibarius"), Trompetenpfifferling ("Craterellus tubaeformis"), Birken-Rotkappe ("Leccinum versipelle"), Gemeiner Steinpilz ("Boletus edulis"), Edel-Reizker ("Lactarius deliciosus"), Reifpilz ("Cortinarius caperatus"), Gemeines Stockschwämmchen ("Kuehneromyces mutables"), Stäublinge ("Lycoperdon" spec.). Einwohnerzahl und Zusammensetzung. Die Bevölkerung des Landes verteilt sich mit 75 % auf die größeren Städte und 25 % auf die ländlichen Gebiete. Dabei ist signifikant, dass die Bevölkerungsdichte ein erhebliches Gefälle zwischen den relativ dicht besiedelten südlichen und westlichen Küsten- und küstennahen Regionen und dem deutlich dünner besiedelten Norden des Landes aufweist. Neben dem relativ moderaten Nord-Süd-Gefälle zeigt sich ein deutlicheres Gefälle zwischen den stärker besiedelten Küstenregionen und dem Landesinneren mit kaum bewohntem Hochland und teilweise sehr dicht besiedelten Tälern. Im 20. Jahrhundert hat sich die Bevölkerung des Landes mehr als verdoppelt: von 2,21 Millionen (1900) auf 5,05 Millionen (1. Januar 2013). Momentan steigt die Einwohnerzahl um ca. 65.000 Menschen pro Jahr (Stand: 2012). Neben einer der höchsten Geburtenraten Europas ist der Zuzug ausländischer Arbeitskräfte und deren Familien sowie zunehmend der von wohlhabenden ausländischen Pensionären für dieses Wachstum verantwortlich. In Norwegen lebt mit 60.000 bis 100.000 Menschen die größte Gruppe der Samen, ein indigenes Volk im Norden Fennoskandinaviens. Die Waldfinnen, die Kvenen, die sogenannten Tatere, die Roma und die Juden haben einen Status als nationale Minorität inne. Beschäftigung. Nach Angaben des staatlichen "Statistischen Zentralbüros" in Oslo waren im 4. Quartal 2012 insgesamt 86.000 Menschen als arbeitslos registriert, das entsprach einer Arbeitslosenquote von 3,2 %. Diese liegt weit unter dem Durchschnitt der EU- und OECD-Länder. Im Verhältnis zum Juli 2009 (3,0 %) stieg die Quote in Norwegen um 0,2 Prozentpunkte. Mit einer Quote von 6,0 % (November 2012) sind die Einwanderer von der Arbeitslosigkeit überdurchschnittlich stark betroffen. Wachstumsbranchen sind derzeit vor allem der Bereich "finanzielle Dienstleistungen" sowie der gesamte Gesundheits- und Sozialsektor. Die Bauwirtschaft wächst derzeit überproportional. In der Landwirtschaft arbeiten 3,2 %, im Dienstleistungssektor 76 % und in der Industrie etwa 21 % der Beschäftigten (2009). Norwegen weist aktuell einen erheblichen Fachkräftemangel auf. Um diesen Mangel zu beheben, werden gezielt EU-Ausländer als Gastarbeiter angeworben. Um die Attraktivität für ausländische Arbeitnehmer zu steigern, gewährt der norwegische Staat zahlreiche Starthilfen und finanzielle Anreize in den ersten 24 Monaten. Religion. Die elf Bistümer der Norwegischen Kirche Größte Glaubensgemeinschaft ist die evangelisch-lutherische Volkskirche, sie wird vom Präses der Bischofskonferenz geleitet. Alle Einwohner Norwegens haben seit 1851 das Recht der freien Religionsausübung. Rund zehn Prozent nehmen regelmäßig an Gottesdiensten oder anderen religiösen Veranstaltungen teil. Im Jahr 2011 waren in Norwegen etwa 800 Juden Mitglieder einer Gemeinde (siehe Hauptartikel: Geschichte der Juden in Norwegen). Weltanschauungsgemeinschaften. In Norwegen gibt es einen humanistischen Verband, den Human-Etisk Forbund, eine Weltanschauungsgemeinschaft von nichtreligiösen und bekenntnisfreien Menschen. Der Verband wurde 1956 gegründet. Ende 2011 zählte er rund 80.000 Mitglieder, was rund 1,6 Prozent der Bevölkerung entspricht. Bildung. Die Schulpflicht wurde in Norwegen 1739 eingeführt. 1889 wurde festgelegt, dass die Schulpflicht sieben Jahre dauert, 1969 wurde sie auf neun und 1997 auf zehn Jahre verlängert. Die Kinder werden mit fünf oder sechs Jahren eingeschult. Der überwiegende Teil der Schüler besucht nach Abschluss der 10. Klasse eine weiterführende (videregående) Schule. Diese ist geteilt in studienvorbereitende Schulzweige, die der gymnasialen Oberstufe entsprechen, sowie arbeitsvorbereitende Schulzweige, die einer Lehrstelle mit Berufsschulpflicht vergleichbar sind. Samische Schüler und Schülerinnen haben ein Recht auf Unterricht in Samisch, wenn sie in samischen Gebieten leben oder wenn es Gruppen von mindestens zehn Schülern sind. Für Einwandererkinder im Schulalter muss der norwegische Staat in jeder Kommune kostenlose Sprachkurse anbieten. Für Flüchtlinge gibt es kostenlose Sprach- und Integrationskurse für Erwachsene. Studierende in Norwegen haben Anspruch auf einen Ausbildungskredit, "studielån". Es gibt ein umfassendes System für Erwachsenenbildung, das allen in Norwegen lebenden Erwachsenen offensteht. (Siehe auch: Liste der Universitäten und Hochschulen in Norwegen, Volkshochschulen in Norwegen). Sprachen. Norwegisch ist eine nordgermanische Sprache, z. T. stark geprägt vom Mittelniederdeutschen. Die Schriftsprache teilt sich in zwei Varietäten: Etwa 85–90 % der Einheimischen schreiben "Bokmål" (wörtlich: „Buch-Sprache“) oder "Riksmål" (deutsch: Reichsnorwegisch, ohne offiziellen Status), ein Idiom, das als von verschiedenen ostnorwegischen Mundarten beeinflusste Variante des Dänischen anzusehen ist. Etwa 10–15 % schreiben "Nynorsk" (‚Neu-Norwegisch‘). Diese Sprache, die bis 1929 als "Landsmål" bezeichnet wurde, ist seit 1885 als zweite offizielle Schriftsprache anerkannt. Sie wurde von Ivar Aasen aus den Dialekten des westlichen Teils des Landes geformt und wird heute vor allem an der Westküste, in der Fjordregion und in Teilen der Telemark verwendet. In der Schule müssen norwegische Schüler sowohl Bokmål als auch Nynorsk lernen. Als gesprochene Sprache spielen die Dialekte heute noch immer eine große Rolle. Neben Norwegisch werden von den nationalen Minderheiten noch Samisch (etwa 10.000 bis 20.000 Sprecher) und Kvenisch oder Finnisch (10.000 bis 15.000) vor allem im Norden des Landes sowie norwegisches Romani (einige Hundert bis ein paar Tausend), Romani (300 bis 400) und Jiddisch (1100) gesprochen. In den Kommunen mit überwiegend samischer Bevölkerung ist Samisch seit 1992 Schulpflichtfach. Norweger lernen wahlfrei meist Deutsch, Spanisch oder Französisch und obligatorisch Englisch als Fremdsprachen in der Schule. Deutsch war bis in die 1950er Jahre wie im restlichen Skandinavien traditionell die erste Fremdsprache in Norwegen. Heute ist Englisch der Verbreitung nach die erste Fremdsprache, vor Deutsch und Spanisch als zweiter Fremdsprache und Französisch als dritter Fremdsprache. Englisch, Deutsch und Französisch haben einen offiziellen Status als „Primärfremdsprachen“ und können z. B. als Dissertationssprachen in allen Fächern an den Universitäten verwendet werden. Spanisch wird als zweite oder dritte Fremdsprache immer populärer. Geschichte. Schweden und Norwegen um 1888 Die menschliche Besiedlung des heutigen Staatsgebiets begann nach der letzten Kaltzeit etwa im 8. Jahrtausend v. Chr., als Jäger und Sammler dem schmelzenden Eis nach Norden folgten. Die älteste Fundstätte ist "Blomvåg" in der Kommune Øygarden in Hordaland mit Artefakten, die auf 10.500 v. Chr. datiert werden. Der steinzeitlichen Megalithkultur Skandinaviens folgten in der Bronze- und Eisenzeit germanische Einflüsse. In der Zeit der Wikinger (800–1050) wurde Norwegen durch König Harald Hårfagre um das Jahr 900 geeint. In dieser Zeit wurden von Norwegen aus Island, die Färöer und Grönland besiedelt. Einige – unter der Führung von bspw. Bjarni Herjúlfsson, Thorvald Eiriksson und Leif Eriksson – erreichten auf mehreren Fahrten um 1000 n. Chr. sogar Neufundland vor der Nordostküste des etwa 500 Jahre später als Amerika bezeichneten Kontinents. Auch die Normandie in Frankreich wurde von den ‚Nordmännern‘ besiedelt. Die Orkney- und die Shetlandinseln wurden gleichfalls von norwegischen Wikingern in Besitz genommen und gehörten bis 1472 zu Norwegen. Ab 1380 in Personalunion mit Dänemark, trat Norwegen 1397 der Kalmarer Union bei und wurde hierin ein relativ unbedeutendes Mitglied. Das "Kalmarer Reich" hielt formell bis zum Ausscheiden Schwedens (1523), mit Dänemark bis 1814. Wegen politischer Unterstützung Frankreichs musste Dänemark nach den Napoleonischen Kriegen Norwegen am 14. Januar 1814 im Kieler Frieden an den König von Schweden abtreten. Allerdings gab es keine direkte Übergabe, so dass Norwegen für kurze Zeit unabhängig wurde und sich in einer Nationalversammlung am 17. Mai 1814 in Eidsvoll eine Verfassung gab, die mit leichten Änderungen bis heute Gültigkeit besitzt. Das Storting arrangierte im Jahr 1836 die erste 17.-Mai-Feier; seit diesem Tag wird der 17. Mai als Norwegens Nationalfeiertag angesehen. Es folgten 91 Jahre Personalunion mit Schweden, bevor diese nach einer Volksabstimmung, in der sich eine überwältigende Mehrheit der Norweger für die Beendigung der Union ausgesprochen hatten, am 13. August 1905 aufgelöst wurde. Norwegischer König wurde als Haakon VII. Prinz Carl aus dem Haus Glücksburg. Im Ersten Weltkrieg erklärte Norwegen zusammen mit Dänemark und Schweden seine Neutralität. 1920 trat das Land dem Völkerbund bei. Am 9. April 1940 wurde das neutrale Norwegen im Zweiten Weltkrieg im "Unternehmen Weserübung" vom Deutschen Reich besetzt. Als Reichskommissar für das besetzte Norwegen wurde Josef Terboven ernannt. Militärisch wurde die Okkupation begründet mit der bevorstehenden Landung britischer Truppen sowie den strategisch wichtigen Häfen an der norwegischen Küste, die für den Nachschub an Eisenerz aus dem schwedischen Kiruna wichtig waren. Vor allem die Bedeutung Narviks für die deutsche Kriegswirtschaft ist heute umstritten, denn das „Dritte Reich“ war weniger auf die schwedischen Eisenerzlieferungen angewiesen als gemeinhin angenommen. Vielmehr galt es, die Briten durch die Besetzung des Hafens von seinen schwedischen Erzzufuhren abzuschneiden. Dies findet seine Bestätigung in der Anweisung Hitlers, die Hafenanlagen für den Gegner – und damit zwangsläufig für das Deutsche Reich – unbrauchbar zu machen. Von größerer Bedeutung waren die norwegischen Rohstoffe für die deutsche Kriegswirtschaft, was die Besetzung des Landes zur Schaffung eines „Europäischen Großwirtschaftsraumes“ unter deutscher Hegemonie erforderlich machte. Als Hauptrohstoffe seien Aluminium, Molybdän und Schwefelkies genannt. Norwegen leistete zwar sechs Wochen lang militärischen Widerstand, war aber der deutschen Marine unterlegen. Außerdem gab es norwegische Nationalsozialisten (unter ihnen Vidkun Quisling), die sich mit den Deutschen verbündeten und dadurch schließlich an die Macht kamen. Da der größte Teil der norwegischen Bevölkerung ihnen ablehnend gegenüberstand, erlangten Widerstandsorganisationen einen hohen Stellenwert. Eine Folge der deutschen Besatzungszeit waren die sogenannten "tyskerbarna", die von deutschen Soldaten mit Norwegerinnen gezeugten „Deutschenkinder“. Ihre Mütter bezeichnete man abwertend als "tyskertøser" (etwa: „Deutschenflittchen“). Die etwa 10.000–12.000 Kinder waren in der norwegischen Nachkriegsgesellschaft massiven Diskriminierungen ausgesetzt und wurden teilweise misshandelt. Erst 1998 bat Ministerpräsident Kjell Magne Bondevik die "tyskerbarn" um Entschuldigung für das an ihnen begangene Unrecht. Lange unerforscht blieb die Entrechtung und Deportation der norwegischen Juden. Knapp 800 der ca. 2100 Juden, die hauptsächlich in Oslo und Trondheim lebten, wurden in das Vernichtungslager Auschwitz-Birkenau transportiert und dort ermordet. Zu den Opfern zählten Ruth Maier und die 15-jährige Schülerin Kathe Lasnik, deren Schicksal der Philosoph Espen Søbye aufgearbeitet hat. 1949 gehörte Norwegen zu den Gründungsmitgliedern der NATO, 1960 wurde mit Dänemark, Österreich, Portugal, Schweden, der Schweiz und dem Vereinigten Königreich die Europäische Freihandelsassoziation (EFTA) gegründet. Die moderne Geschichte seit 1969 ist geprägt von Wachstum und Reichtum durch das Erdöl. Ein Beitritt zur Europäischen Union wurde in Volksabstimmungen zweimal abgelehnt (25. September 1972 und 28. November 1994). Norwegen ist als Mitglied im Europäischen Wirtschaftsraum (EWR) in vielen Belangen einem EU-Mitglied gleichgestellt und darüber hinaus als Teil der Nordischen Passunion Mitglied des Schengener Abkommens (siehe: "Norwegen und die Europäische Union"). Am 22. Juli 2011 wurden zwei verheerende Anschläge in Oslo und auf der Insel Utøya verübt, die insgesamt 77 Todesopfer forderten. Premierminister Jens Stoltenberg bezeichnete den Anschlag als „nationale Tragödie“ und als schlimmste Gewalttat seit dem Zweiten Weltkrieg. Grundlagen und Geschichte. Die norwegische Verfassung vom 17. Mai 1814 ist von der französischen Verfassung Ende des 18. Jahrhunderts inspiriert. Das Prinzip der Gewaltenteilung von Montesquieu war wesentliches Vorbild. Trotz dieses liberalen Einflusses war Juden das Betreten des Reichs bis 1851 verboten. Die in der Verfassung festgeschriebene Gewaltenteilung führte im Verlauf des 19. Jahrhunderts zu mehreren Machtproben zwischen der Regierungsbürokratie (Exekutive), die wesentlich vom schwedischen Königshaus kontrolliert wurde, und dem Storting (der norwegischen Nationalversammlung; Legislative). Die Krone versuchte, ihre Privilegien als Exekutivmacht auszubauen und das Storting unter Berufung auf die Verfassung weitgehend von den Regierungsgeschäften auszuschließen. Der Konflikt spitzte sich weiter zu, als sich im Zuge der Industrialisierung die Klassenunterschiede zwischen der beamteten Machtelite und dem aufsteigenden Bürgertum in Norwegen verschärften. In der Gesellschaft wuchs die Ablehnung des königlichen Beamtenstaates. In der Kommunalpolitik war der nationale Regierungsapparat bereits 1837 durch die Einführung der lokalen Selbstverwaltung praktisch entmachtet. Entsprechend energisch bemühte sich der schwedische Adel um die Wahrung seines Einflusses auf nationaler Ebene. Die Spannungen eskalierten bis 1884, dem Jahr, das in Norwegen die Einführung des Parlamentarismus markiert. Der bürgerlich-liberale Stortingsabgeordnete Johan Sverdrup setzte gegen den Widerstand des Königs Oskar II. von Norwegen das staatsrechtliche Prinzip durch, dass eine Regierung für den eigenen Machterhalt die Unterstützung des Storting benötigt. Durch diese Abhängigkeit war die durch die Gewaltenteilung festgeschriebene politische Souveränität der Monarchie zugunsten einer Stärkung des Parlaments faktisch aufgehoben. Der König musste Sverdrup als neuen Ministerpräsidenten mit der Regierungsbildung beauftragen. Nach dem Zweiten Weltkrieg verfügte die sozialdemokratische Arbeiterpartei unter Einar Gerhardsen von 1945 bis 1961 über eine absolute Mehrheit. Danach wurden in der Regel Minderheitsregierungen gebildet. In jüngster Vergangenheit war die Tendenz zu beobachten, Koalitionsregierungen mit fester Mehrheit im Parlament zu bilden und auf Grundlage eines Koalitionsvertrags zu agieren. Große Koalitionen zwischen Sozialdemokraten und Konservativen hat es bislang nicht gegeben. Bei der Parlamentswahl am 9. September 2009 wurde die Arbeiderpartiet mit 30,8 % der Stimmen stärkste Partei im Storting. Die Koalition aus Arbeiderpartiet, Senterpartiet und Sosialistisk Venstreparti wurde nach der Parlamentswahl 2013 von einer Koalition der Høyre (Konservative) und Fremskrittspartiet (dt. „Fortschrittspartei“) unter der Führung von Ministerpräsidentin Erna Solberg abgelöst. Politisches System. Der König ernennt den Ministerpräsidenten und auf dessen Vorschlag die Minister. In Norwegen gilt außerdem das Prinzip des Parlamentarismus: Das Parlament, das aus 169 Abgeordneten besteht, kontrolliert die Regierung, sie ist vom Vertrauen der Mehrheit des Parlaments abhängig. Alle vier Jahre werden neue Repräsentanten gewählt (bis 1936 jedes dritte Jahr). Das Parlament Storting bestand lange Zeit aus zwei Kammern, Odelsting und Lagting. Allerdings wurde diese Trennung nur im Gesetzgebungsverfahren vorgenommen, sodass es sich faktisch um ein Einkammersystem handelte. Seit 2009 ist es offiziell ein Einkammerparlament. Das Staatsoberhaupt ist König Harald V. Die norwegische Monarchie verzichtet zwar stärker als viele andere Länder auf höfischen Prunk, aber über die unter seiner Leitung regelmäßig stattfindenden Sitzungen des Staatsrates, dem alle Minister angehören, ist der König in die Handlungen der Regierung eingebunden. Unbeschadet des einheitsstaatlichen Aufbaus Norwegens ist die kommunale Selbstverwaltung gewährleistet. Gewerkschaften. In Norwegen sind 1,33 Millionen Arbeitnehmer Mitglied einer Gewerkschaft, davon 830.000 im Dachverband Landsorganisasjonen i Norge (LO), 200.000 im Yrkesorganisasjonenes Sentralforbund (YS), 131.000 in "Akademikerne" und 230.000 in "Unio" (Stand: August 2007). Durch die starke gewerkschaftliche Orientierung konnte sich 1924 in Norwegen ein starker eigener "Arbeitersportverband" entwickeln. Militär. Die norwegische Armee "(Forsvaret)" besteht aus den vier Teilstreitkräften Heer "(Hæren)", Marine "(Sjøforsvaret)", Luftwaffe "(Luftforsvaret)" und der Heimatschutzmiliz "(Heimevernet)". Es existiert eine zwölfmonatige Wehrpflicht für Männer und Frauen. Für das Jahr 2012 wurden die Ausgaben für das Militär auf 40,5 Milliarden Kronen veranschlagt. Norwegen ist ein Gründungsmitglied der NATO. Mitte des Jahres 2007 hat die Norwegische Luftwaffe von den USA den Schutz des Nachbarlandes Island übernommen, das über keine eigenen Streitkräfte verfügt. Außenpolitik. Mit Deutschland unterhält Norwegen direkte Beziehungen seit der Unabhängigkeit im Jahr 1905. Norwegen betrachtet Deutschland als einen der wichtigsten Partner in Europa, sowohl wegen seiner wirtschaftlichen Bedeutung, als auch wegen politischer und kultureller Zusammenarbeit. Das norwegische Außenministerium bezeichnet Deutschland als Schlüsselland für die Wahrnehmung seiner Interessen gegenüber der EU. Gemeinsam mit den anderen nordischen Staaten unterhält Norwegen im Komplex der Nordischen Botschaften seine Vertretung in Berlin. In Hamburg ist außerdem ein Generalkonsulat angesiedelt. Die deutsche Botschaft in Oslo liegt wenige Minuten vom königlichen Schloss entfernt im Stadtteil Frogner. Österreich und Norwegen nahmen 1906 diplomatische Beziehungen auf. Das heutige Verhältnis sieht man in Norwegen als gut entwickelt auf kultureller Ebene, aber bescheiden im wirtschaftlichen Bereich, die Zahl der gegenseitigen Besuche als mäßig häufig. In Wien hat Norwegen eine Botschaft für den Kontakt mit der Republik Österreich sowie jeweils eine Vertretung zu den in Wien ansässigen internationalen Organisationen und zur OSZE. Ebenfalls im Viertel Frogner liegt die österreichische Botschaft in Oslo. Die Beziehungen zur Schweiz und zu Liechtenstein basieren besonders auf wirtschaftlichen und handelspolitischen Themen, insbesondere durch die Verbindung über die gemeinsame EFTA-Mitgliedschaft. Die kulturellen Kontakte werden als gut, jedoch nicht umfassend beschrieben. In Bern hat Norwegen eine Botschaft, Konsulate außerdem in Genf, Zürich und Locarno. In Genf besteht daneben eine ständige Vertretung gegenüber den internationalen Organisationen. Für Liechtenstein sind die norwegischen Vertretungen in der Schweiz mit zuständig, das Fürstentum unterhält Kontakte nach Norwegen wiederum über die Botschaften beider Länder in Bern. Die Schweizer Botschaft in Oslo ist nur wenige Blocks von der österreichischen entfernt. Verwaltungsgliederung. Das Land ist in 19 Verwaltungsprovinzen (Fylker) eingeteilt, die zu fünf statistischen Regionen ("landsdel", dt. Landesteil) zusammengefasst werden. Hinzu kommen Spitzbergen und Jan Mayen, die zwar außerhalb der Provinzstruktur stehen und keine Gemeinden haben, jedoch unmittelbare Teile des Königreichs Norwegen sind. Die kleinste Provinz nach Fläche ist die Hauptstadt Oslo. In Norwegen gibt es seit dem 1. Januar 2006 431 Kommunen. In ihnen werden alle vier Jahre die Repräsentanten für die lokale Verwaltung gewählt. Neben den administrativen Regionen gibt es weitere statistische Regionen, die nicht zwingend an Provinzgrenzen ausgerichtet sind. Zur Region Midt-Norge (dt. "Mittelnorwegen") zählt man die beiden Provinzen von Trøndelag und Møre og Romsdal. Die Inselgruppe Spitzbergen wird administrativ nicht zu Nord-Norge gezählt sondern untersteht einem Präfekten "(Sysselmann)", der dem Justizministerium berichtet, während die Bezirkshauptleute "(Fylkesmannen)" dem Verwaltungsministerium berichten. Es existieren Bestrebungen zu einer Verwaltungsreform mit Bildung von sieben Regionen, die eine vergrößerte Hauptstadtregion um Oslo beinhaltet. Wirtschaft. Norwegen besaß laut HDI-Rang in den Jahren 2001 bis 2006 den höchsten Lebensstandard der Welt. 2007 bis 2008 belegte das Land hinter Island Platz 2. Doch 2009 konnte es sich wieder Platz 1 im HDI-Rang sichern. Das Pro-Kopf-Einkommen in Norwegen ist eines der höchsten, ebenso das Kindergeld. Im Vergleich mit dem durchschnittlichen Bruttoinlandsprodukt (BIP) pro Kopf der EU (EU25 = 100) erreicht Norwegen 2005 einen Index von 169. Norwegen hat als erstes Land 2003 eine Geschlechterquote eingeführt. Seit 2008 ist eine Quote von mindestens 40 % Frauen in Aufsichtsräten börsennotierter Unternehmen gesetzlich vorgeschrieben. Energie. Die wichtigste Energiequelle der Gewerbebetriebe und Privathaushalte in Norwegen stellt die elektrische Energie dar. Diese Energie ist mit 45 bis 55 Øre pro kWh (6 bis 7 ct) (Stand Januar 2007) im Vergleich zu Deutschland mit etwa 18,69 ct pro kWh für den Endverbraucher sehr günstig. Der Grund hierfür liegt in der Art der Energiegewinnung und den bislang noch geringen Exportmengen: Nahezu der gesamte Strombedarf (etwa 98 %) in Norwegen wird durch heimische Wasserkraftwerke gedeckt. Im gesamten Land existieren weder Kern- noch Kohlekraftwerke (ausgenommen das Kohlekraftwerk in Longyearbyen auf Spitzbergen). Das von Norwegen geförderte Erdöl und Erdgas wird nicht für die Stromversorgung im eigenen Land eingesetzt. Die Nutzung der Wasserkraft hat in Norwegen eine lange Tradition und war Grundlage der Industrialisierung des Landes. Auf einfache Wassermühlen, Hammerwerke u. ä. folgten wassergetriebene Generatoren zur Gewinnung elektrischer Energie. Um in der stark zerklüfteten Landschaft Norwegens eine flächendeckende Energieversorgung mit Elektrizität zu schaffen, wurden dezentral kleine und große Wasserkraftwerke errichtet, die ihr näheres Umfeld mit Energie versorgten. Diese kleingliederige Struktur ist noch heute in Norwegen erhalten: Es gibt zahlreiche kleinere und größere, private und öffentliche, lokale und staatliche Energieversorger. Als Folge der relativ niedrigen Endverbraucherpreise, die keinen Anreiz für Energieeffizienz- oder Energieeinsparmaßnahmen bieten, ist der Stromverbrauch in Norwegen sehr hoch. Der Energieverbrauch liegt weit über dem Durchschnitt der OECD-Länder, der Stromverbrauch ist mit 23.200 Kilowattstunden pro Kopf gar der höchste weltweit. Einer der Hauptgründe hierfür ist, dass die Mehrheit der Gebäude direkt mit Strom geheizt wird. Es ist vielerorts selbstverständlich, dass das Licht in Räumen brennt, die über Stunden und Tage nicht genutzt werden. In einigen öffentlichen Gebäuden sind nicht einmal Lichtschalter vorhanden. Seit einigen Jahren wird zudem noch die Windenergie ausgebaut. 2014 waren Windkraftanlagen mit einer Leistung von 819 MW installiert. Aufgrund des hohen Potentials für Pumpspeicherkraftwerke, die im Rahmen der Energiewende und dem damit einhergehenden Zubau variabler Erneuerbarer Energien verstärkt an Bedeutung gewinnen, intensiviert Norwegen den Stromaustausch mit anderen Europäischen Staaten. Traditionell verfügt das Land über sehr gut ausgebaute Stromkuppelstellen mit Schweden und Dänemark. 2008 wurde mit NorNed ein Seekabelverbindung mit den Niederlanden in Betrieb genommen, weitere Projekte befinden sich in der Umsetzungsphase. So wurden 2015 die ersten Aufträge für den Bau des Seekabels NordLink vergeben, das ab 2019 Norwegen und Deutschland verbinden soll. Ebenfalls 2015 wurde von National Grid und Statnett ein Seekabel zwischen Norwegen und England vereinbart, das 2021 in Betrieb gehen soll. Erdöl. Norwegen ist der weltweit dreizehntgrößte Förderer von Erdöl mit etwa drei Prozent der Welterdölförderung (Stand 2008). Die Erdölförderung erreichte ihr Maximum im Jahre 2001 und nimmt jedes Jahr mit etwa vier Prozent ab. 2007 wurden 148 Millionen Sm3 (Standardkubikmeter) Erdöl gefördert. Die verbleibenden Reserven betrugen 2007 noch 1,3 Milliarden Sm3. Die abnehmende Erdölförderung wird gegenwärtig durch eine erhöhte Erdgasförderung ersetzt. Die hohen Weltmarktpreise für Öl, die starke Förderung und die vergleichsweise geringe Bevölkerung tragen zu Norwegens sehr hohem Pro-Kopf-Einkommen bei. Die Norweger haben erkannt, dass die Ölreserven voraussichtlich nur noch einige Jahrzehnte reichen. Das bestehende sehr engmaschige soziale Netz, das teuer ist, soll ebenso langfristig gesichert werden. Dies erfordert eine besondere Strategie für die Zukunft, wenn der Wohlstand Norwegens dauerhaft gesichert werden soll. Daher wurde 1990 ein besonderes Investmentkonzept entwickelt: der Ölfonds. In diesem werden die enormen Erträge aus dem Ölexport angelegt. Dies geschieht ausschließlich auf ausländischen Märkten, um ein Überhitzen der inländischen Wirtschaft und eine Aufwertung der norwegischen Krone zu verhindern. Der staatlich geführte Ölfonds Statens pensjonsfond soll so eine Rücklage bilden für die Zeit, in der die Ölreserven zur Neige gehen. Der Wert des norwegischen Ölfonds beträgt ca. 737 Milliarden Euro (7019 Milliarden NOK) (Stand 3. Quartal 2015). Dies entspricht einem Betrag von ca. 142.927 Euro pro Norweger. Die Wachstumsprognose aus dem Budget 2016 geht von einem Wert von ca. 827 Milliarden Euro (7879 Milliarden NOK) bis zum Jahr 2018 und von ca. 929 Milliarden Euro (8848 Milliarden NOK) bis zum Jahr 2020 aus. Nach dem Einbruch des Ölpreises in der zweiten Jahreshälfte 2014 stockten sowohl die Förderung als auch die Erschließungstätigkeiten für die Ölgewinnung in größeren Tiefen wegen der hohen Kosten. In Norwegen sollen rund zehn Prozent der rund 100.000 Arbeitsplätze in der Ölindustrie zur Disposition stehen. Der staatliche Energiekonzern "Statoil" geriet 2014 erstmals seit seinem Börsengang in die roten Zahlen. Softwareindustrie. Der Internet-Browser Opera kommt aus Norwegen. Qt Development Frameworks, die Entwickler der Qt-Softwarebibliothek, sind ebenfalls in Norwegen ansässig. Der Antivirensoftwarehersteller Norman hat seinen Firmensitz in Norwegen. Tourismus. Die eindrucksvolle Natur Norwegens lockt jedes Jahr Millionen von Touristen nach Norwegen. Das Nordkap und der Geirangerfjord gehören zu den meistbesuchten Touristenattraktionen des Landes. Die traditionelle Postschifflinie entlang der Westküste, die Hurtigruten, hat sich zu einem Touristenmagneten entwickelt. Wer von Oslo aus nach Bergen, also an die Westküste fährt, durchquert die Provinz Telemark. Von den Straßen oder der Strecke der Bergenbahn, die Höhen von mehr als 1000 Meter über dem Meeresspiegel erreichen, lassen sich dort selbst im Hochsommer die schneebedeckten Gipfel in wenigen Metern Entfernung betrachten. Neben dem bekannten Holmenkollen mit seinen Skisprungschanzen und dem Olympia-Ort Lillehammer weist Norwegen, das als die Wiege des Skilaufes gilt, viele attraktive Skigebiete auf. Der nördlich von Dombås gelegenen Hochgebirgspark Dovrefjell, mit dem 2286 Meter hohen Berg Snøhetta ist nicht nur ein ausgezeichnetes Wander- und Wintersportgebiet, sondern auch eine der wenigen Regionen Europas, in der es noch freilebende Moschusochsen gibt. Besonders beliebt bei Alpinisten ist das Gebirge Jotunheimen mit den beiden höchsten Berggipfeln des Landes, Galdhøpiggen und Glittertind. Außerdem der westlich davon gelegene Nationalpark mit dem größten zusammenhängenden Kontinentalgletscher Jostedalsbreen. Trekkingtouren können tagelang durch die bergige Tundrenlandschaft des Hochplateaus Hardangervidda unternommen werden. Die Insel Røst auf den Lofoten beherbergt mit rund 2,5 Millionen Brutvögeln den größten Vogelfelsen Norwegens. Weit weniger Vögel brüten auf der südwestlich von Ålesund gelegenen Vogelinsel Runde. Diese Insel ist mit Brücken mit dem Festland verbunden und für Touristen und Wissenschaftler leicht zu erreichen. Fischerei und Walfang. Transport von Trockenfisch per Schiff von den Lofoten um 1890 Norwegen gehört zu den größten Fischerei-Nationen der Welt. Die norwegische Fischereizone reicht bis zu den Bänken von Neufundland. Gefangen werden vorwiegend Dorsch, Hering, Schellfisch, Makrele und Garnelen. Daneben hat in den vergangenen 20 Jahren die Fischzucht in sogenannten Aquakulturen an Bedeutung erlangt. Vor allem Lachs und Kabeljau werden dort gezüchtet. Fisch und Fischprodukte nehmen 5,3 % des Gesamtexports des Landes ein und sind somit der drittgrößte Exportartikel, nach Öl, Gas und Metall. Norwegen verfügte daneben über eine sehr lange Walfang-Tradition. Mit dem Verbot des kommerziellen Walfanges 1986 ist dieser Wirtschaftszweig weitgehend in der Bedeutungslosigkeit versunken. Daran ändert nichts, dass Norwegen gegen das kommerzielle Walfangverbot der Internationalen Walfangkommission IWC von 1986 Widerspruch eingelegt hat und somit nicht daran gebunden ist. Norwegen betreibt als eines von wenigen Ländern weltweit nun erneut kommerziellen Walfang – wenn auch in vergleichsweise geringem Umfang. Dies findet international großen Widerspruch und wird unter anderem von der Europäischen Union kritisiert. Schiffbau und Seeschifffahrt. Eine weitere große Tradition hat in Norwegen die Seeschifffahrt. Norwegen weist bis heute die viertgrößte Handelsflotte der Welt auf. Gemessen am Bruttoinlandsprodukt machen Schifffahrt und Schiffbau sowie damit verwandte Branchen den zweitgrößten Wirtschaftszweig Norwegens aus. Im Jahr 2011 waren in Norwegen 1281 in Norwegen registrierte Schiffe sowie 117 im Ausland registrierte norwegische Schiffe über 1000 BRT in Gebrauch. Medien und Telekommunikation. Die Nutzung von Tageszeitungen ist im europäischen Vergleich in Norwegen sehr hoch. Im Jahr 2011 lasen an einem durchschnittlichen Tag etwa 63 % der Bevölkerung eine Zeitung; die Lesedauer betrug durchschnittlich 23 Minuten. 2012 nutzten nach einer repräsentativen Befragung für das "Norsk mediebarometer" 25 Prozent der Befragten zwei und mehr Zeitungen; 1991 waren das noch 50 Prozent. Die Leserzahlen bei Printmedien sind generell rückläufig – so lag der Anteil 1997 noch bei 84 % – und verlagern sich zunehmend ins Internet. Die auflagenstärksten Titel des Landes sind die Qualitätszeitungen "Aftenposten" und "Bergens Tidende" sowie die Boulevardzeitungen "Verdens Gang" (VG) und "Dagbladet". Ende 2010 erschienen 226 Zeitungen in Norwegen. Die öffentlich-rechtliche Rundfunkanstalt NRK bietet landesweite Fernseh- und Radioprogramme sowie regionale Angebote. Der größte private Fernsehsender ist TV 2, zu dessen Holding die privaten Radiostationen von Radio Norge gehören. 2011 verfügten 93 % der Bevölkerung über einen Personal Computer in der eigenen Wohnung, 92 % hatten Zugang zum Internet und 83 % Breitband-Internetzugang. Bereits 2004 besaßen 90 % ein eigenes Mobiltelefon. Bis zum 31. Dezember 2004 waren annähernd 5 Millionen Mobiltelefonverträge abgeschlossen worden. Größter Telekommunikationsanbieter des Landes ist Telenor. Alkoholmonopol. Norwegen betreibt eine überaus restriktive Alkoholpolitik. Alkoholische Getränke ab 4,8 Volumenprozent können nicht in Supermärkten oder Discountern gekauft werden, sondern nur in eigens vom Staat errichteten Läden, genannt Vinmonopolet. Solche Geschäfte, die 1922 während der Prohibition in Norwegen entstanden, findet man in den meisten Städten. Die Preise liegen dabei erheblich über dem im deutschsprachigen Raum üblichen Niveau. Eine Sonderstellung nehmen Getränke mit niedrigem Alkoholanteil ein. Dabei entscheidet jede norwegische Gemeinde individuell über den Verkauf. Dadurch können unter anderem einige Biere in gewöhnlichen Supermärkten erworben werden. Der Alkoholverkauf im Vinmonopol ist an normalen Werktagen bis 18 Uhr, an Samstagen bis 15 Uhr möglich. In Supermärkten kann man bis 20 Uhr werktags und bis 18 Uhr samstags Bier kaufen. Ein Verkaufsverbot gilt grundsätzlich an offiziellen Feier- und Wahltagen. Sämtliche alkoholische Getränke und Zigaretten werden nur an Personen ab 18 Jahre abgegeben, und das Trinken in der Öffentlichkeit ist verboten. Um Alkohol zu konsumieren, muss man sich auf einem Privatgrundstück befinden. Die Preise für ein Bier („Øl“) in einem gewöhnlichen Gastronomie-Betrieb liegen im mittleren bis hohen einstelligen Euro-Bereich, in Einzelfällen auch darüber. Üblicherweise sind wenigstens fünf Euro zu zahlen. Lange Tradition haben in Norwegen die sogenannten Weihnachtsbiere („Juleøl“). Solche Biere gibt es in großer Zahl in allen nordischen Ländern; alleine in Norwegen sind mehrere Dutzend Sorten erhältlich. Sie sind schwerer und dunkler als gewöhnliche Biere. Schon zu Wikingerzeiten prostete man sich um die Wintersonnenwende mit Bier zu, um die Götter zu ehren. Christliche Kreise versuchten in den 1960er Jahren erfolglos, das Juleøl zu verbieten. Norwegen verbraucht jährlich rund 4,4 l reinen Alkohol pro Kopf und zählt damit zu den Ländern mit dem niedrigsten Pro-Kopf-Konsum von Alkohol (Deutschland: 10,2 l pro Kopf). Selbst der Spirituosen-Konsum ist mit 2,9 l pro Kopf deutlich niedriger als in anderen Ländern (Deutschland: 5,7 l pro Kopf). Mit rund 0,40 Euro für ein gewöhnliches 0,2-l-Glas erhebt Norwegen außerdem die europaweit höchste Biersteuer (Deutschland: 0,019 Euro). Die norwegischen Alkoholbestimmungen sind für Nordeuropa keineswegs unüblich. Finnland und Schweden sind für eine ähnlich strikte Politik bekannt. Allerdings liegt das Preisniveau in den beiden Nachbarländern heute deutlich niedriger als in Norwegen. Daher ist in grenznahen Regionen zu Norwegen ein regelrechter Alkoholtourismus zu beobachten, der nur schwer zu kontrollieren ist. In diesem Kontext ist unter Norwegern die ironische Bezeichnung „süßer Bruder“ für Schweden längst etabliert. Außenhandel. Insgesamt ist der Außenhandel für Norwegen positiv (Exportüberschuss von 300 Milliarden NOK 2005). Importiert wird zu ca. 70 Prozent aus der Europäischen Union. Haupteinfuhrgüter sind Maschinen und Fahrzeuge mit knapp 40 Prozent. Der Export geht ebenfalls hauptsächlich in die EU (ca. 81 Prozent). Mit knapp 70 Prozent bilden hier die Brennstoffe den mit Abstand größten Posten. Staatshaushalt. Der Staatshaushalt umfasste 2010 Ausgaben von umgerechnet 178 Milliarden US-Dollar, dem standen Einnahmen von umgerechnet 226,8 Milliarden US-Dollar gegenüber. Die Staatsverschuldung betrug 2010 47,7 % des BIP. Verkehr. Die Geographie Norwegens gibt der Schifffahrt eine besonders große Bedeutung und bedeutet für Straßen- und Schienenverkehr eine ständige Herausforderung. In Norwegen gibt es 91.852 Kilometer Straße, von denen 71.185 Kilometer asphaltiert sind. Norwegen hat mit dem im Jahr 2000 eröffneten 24,5 Kilometer langen Lærdalstunnel den längsten Straßentunnel der Welt. Mit dem im Februar 2008 eröffneten Eiksundtunnel besitzt Norwegen den mit einer Tiefe von 287 Meter derzeit tiefsten Unterseetunnel der Welt. Besonders im Fjordland und den Küstenregionen sind die Fähren von sehr großer Bedeutung für den Verkehr. Das Schienennetz umfasst 4077 Kilometer, von denen 2518 Kilometer elektrifiziert sind. Die staatliche Bahngesellschaft Norges Statsbaner betrieb von 1883 bis 1996 fast den gesamten Eisenbahnverkehr samt Streckennetz. Seit 2002 ist sie als Aktiengesellschaft Norges Statsbaner AS nur noch für den Personenverkehr auf der Schiene verantwortlich. Die wichtigsten Häfen des Landes sind Borg Havn, Bergen, Mo i Rana, Molde, Mongstad, Narvik, Oslo und Sture. Von Bergen bis Kirkenes verkehren im täglichen Liniendienst die Schiffe der Hurtigruten. Für den internationalen Verkehr bedeutsam sind die Hochseefähren, die das Land mit den Britischen Inseln, Dänemark, Schweden und Deutschland verbinden. Dem Flugverkehr dienen 101 kleinere und größere Flughäfen. In Norwegen gibt es bei Verstößen im Straßenverkehr Bußgelder, die deutlich höher sind als in Deutschland. Beispiel: Auf Landstraßen darf in Norwegen nur mit maximal 80 km/h gefahren werden. Fährt man mit etwas mehr als 100 km/h, wird dies mit einem Bußgeld von umgerechnet 1040 Euro geahndet. Wenn man nicht in der Lage ist, das Bußgeld zu bezahlen, droht eine Haft von drei bis 20 Tagen. Bibliothekswesen. Das Bibliothekswesen Norwegens wird von der bibliothekarischen Fachwelt als vorbildlich angesehen. Es gibt 892 kommunale öffentliche Bibliotheken, 336 wissenschaftliche Bibliotheken und 19 Landesbibliotheken sowie die Norwegische Nationalbibliothek. Das seit 1834 bestehende Bibliotheksgesetz schreibt den kostenlosen Zugang zu Bibliotheken vor. Norwegen hat eines der umfassendsten Systeme für Pflichtexemplarabgabe weltweit. Frauenrechte. Norwegen gilt als Pionier der Frauenrechte. So wurde die Norwegische Frauenrechtsvereinigung bereits 1884 von vielen der prominentesten Persönlichkeiten der Zeit, darunter mehrere Ministerpräsidenten, gegründet. 1978 wurde Eva Kolstad die weltweit erste Ombud für Gleichstellung. Literatur. Norwegen erlebte in der letzten Hälfte des 19. Jahrhunderts einen kulturellen Aufschwung, an dem Autoren wie Henrik Ibsen, Bjørnstjerne Bjørnson, Alexander Kielland, Jonas Lie, Amalie Skram, Arne Garborg, Hans E. Kinck und Knut Hamsun einen maßgeblichen Anteil hatten. Drei Norweger erhielten den Nobelpreis für Literatur: Bjørnstjerne Bjørnson (1903), Knut Hamsun (1920) und Sigrid Undset (1928). Auf dem Pressefreiheitsindex 2013 von Reporter ohne Grenzen kam Norwegen nach Finnland und den Niederlanden auf Platz 3 von 139 Ländern. Musik, Theater, bildende Kunst. Die wichtigsten Theaterbühnen sind "Den Norske Opera & Ballett" (Oper und Nationalballett im neuen Opernhaus Oslo), das "Nationaltheatret" in Oslo, "Den Nationale Scene" in Bergen und das Nynorsk-Theater "Det Norske Teatret" in Oslo. Der bekannteste norwegische Komponist ist Edvard Grieg. Weitere Komponisten von Bedeutung sind u. a. Johan Svendsen, Christian Sinding, Ole Bull, Fartein Valen, Harald Sæverud und Geirr Tveitt. Bekannte Bands aus dem Bereich der Pop- und Rockmusik sind a-ha, Apoptygma Berzerk, BigBang, Trail of Tears, Storm, Kaizers Orchestra und Motorpsycho. Norwegen ist in der Metal-Szene berühmt für seine zahlreichen Black-Metal-Bands, dort begann die zweite Welle der Bewegung mit Mayhem und von ihnen beeinflussten Bands wie Burzum, Dimmu Borgir, Gorgoroth, Immortal und Darkthrone, die über die Szene hinaus bekannt sind. Norwegen verfügt weiterhin über eine sehr vitale Jazz-Szene. Wichtige Vertreter sind Jan Garbarek, Nils Petter Molvær, Arild Andersen, Rebekka Bakken, Silje Nergaard, Bugge Wesseltoft, Eivind Aarset, Terje Rypdal, Ketil Bjørnstad, Sidsel Endresen, Solveig Slettahjell, Kirsti Huke und die Jazz-Rock-Band Dadafon um die Sängerin Kristin Asbjørnsen. Der bekannteste Maler ist Edvard Munch, seine Werke sind größtenteils im Munch-Museum in Oslo zu sehen. Auf dem Gebiet der Fotografie, speziell der Landschaftsfotografie prägte Knud Knudsen die Vorstellungen der norwegischen Landschaften des 19. Jahrhunderts. Der größte Teil seines umfangreichen Nachlasses ist in der Universitätsbibliothek von Bergen archiviert. Die Stadt Bergen war europäische Kulturhauptstadt 2000; Stavanger war es im Jahr 2008. Sport. Norwegen ist in erster Linie eine Wintersportnation und hat eine lange Tradition im nordischen Skisport. Viele Entwicklungen des Skisports stammen aus Norwegen; in vielen dieser Disziplinen ist das Land bei internationalen Wettbewerben oft führend. Zentrum des Wintersports ist der Holmenkollen in Oslo. Dort haben 2011 zum vierten Mal die Nordischen Skiweltmeisterschaften stattgefunden; 1952 wurden ebenfalls dort die ersten Olympischen Winterspiele Skandinaviens veranstaltet. Zudem fanden 1994 in Lillehammer Olympische Winterspiele statt. Besonders erfolgreiche Wintersportler waren Oscar Mathisen, Sonja Henie, Liv Grete Skjelbreid, Vegard Ulvang, Bjørn Dæhlie (mit acht olympischen Goldmedaillen bis 2010 erfolgreichster Wintersportler), Kjetil André Aamodt und Johann Olav Koss. Aktuelle Spitzensportler sind die Skispringer Tom Hilde und Anders Jacobsen, die Skilangläuferin Marit Bjørgen, der erfolgreichste Biathlet aller Zeiten, Ole Einar Bjørndalen, und der Skirennläufer Aksel Lund Svindal. Die Norwegische Eishockeynationalmannschaft der Herren kommt dagegen von ihrer Spielstärke und Bedeutung her nicht an Finnland und Schweden heran. Indessen gehört Norwegen seit Jahren zu den führenden Nationen im Curling und gewann bei den Olympischen Spielen und Weltmeisterschaften bereits mehrere Medaillen. Der größte Erfolg der Norwegischen Fußballnationalmannschaft der Herren ist die Bronzemedaille bei den Olympischen Sommerspielen 1936. Dreimal (1938, 1994 und 1998) konnte sich die Mannschaft für die Fußballweltmeisterschaft qualifizieren und nahm einmal (2000) an der Europameisterschaft teil. Zu den bekannten aktuellen Fußballspielern zählen John Arne Riise und Ole Gunnar Solskjær, die in der englischen Premier League spielten und mit ihren Vereinen die UEFA Champions League gewannen. Mit Rune Bratseth, der 1988 und 1993 mit Werder Bremen Deutscher Meister wurde, erlebte die Nationalmannschaft in den 1990er Jahren einen Aufschwung. Zuletzt konnte sie sich nicht mehr für die Welt- und Europameisterschaften qualifizieren. Erfolgreicher ist die Norwegische Fußballnationalmannschaft der Frauen: Sie konnte bisher als einzige Mannschaft Europameister (1987 und 1993), Weltmeister (1995) und Olympiasieger (2000) werden. Außer 2004 nahm sie an allen großen Turnieren teil. Im Handball sind die norwegischen Damen erfolgreicher als die Herren. Während letztere lediglich zwei WM- und drei EM-Teilnahmen vorweisen können und bei der EM im eigenen Land (2008) den sechsten Platz belegten, zählt die Norwegische Frauen-Handballnationalmannschaft zur Weltspitze. Sie gewann u. a. dreimal die Handball-Weltmeisterschaft (1999, 2011 und 2015) sowie dreimal die Handball-Europameisterschaft. Bei der letzten WM 2009 belegte sie den dritten Rang. Sie erkämpfte sich außerdem drei olympische Medaillen. Recht erfolgreich sind sowohl bei den Damen als auch bei den Herren die Beachvolleyballer, die zur erweiterten Weltspitze zählen. Bei Leichtathletik-Welt- und Europameisterschaften sowie Olympischen Spielen konnten norwegische Leichtathleten bisher 20 Goldmedaillen gewinnen. Bekannte norwegische Leichtathleten sind die Läuferinnen Grete Waitz, die 1983 als erste Frau die Weltmeisterschaft im Marathonlauf gewann, und die Speerwerferin Trine Hattestad, die Europa- und Weltmeisterin sowie Olympiasiegerin wurde und zwischenzeitlich den Weltrekord hielt. Das Segeln gehört in Norwegen ebenfalls zu den Volkssportarten. Die norwegischen Könige Olav V. und Harald V. nahmen für ihr Land erfolgreich an den Olympischen Spielen und Weltmeisterschaften teil. Siren Sundby ist eine der besten Seglerinnen der Gegenwart und wurde Weltseglerin des Jahres 2003. Wie sonst in Skandinavien ist Orientierungslauf eine der größten Volkssportarten. Magnus Carlsen ist seit 2013 Weltmeister im Schachsport; seit Juli 2011 führt er ununterbrochen die Weltrangliste an "(Stand: November 2015)". Nach Angaben von Simen Agdestein hat dies in Norwegen einen Schachboom ausgelöst. Der Motorradsport spielt in Norwegen eine wichtige Rolle: Im Olympischen Eisstadion von Hamar fanden mehrmals im Rahmen der Eisspeedway-Weltmeisterschaften WM-Qualifikationsläufe statt, ebenfalls wurde dort bereits im Rahmen der Speedway-Einzelweltmeisterschaft der Speedway-WM Grand Prix von Skandinavien ausgefahren. Auf der über 1000 m langen Trabrennbahn von Forus wurde von 2011 bis 2013 im Rahmen der Langbahn-Weltmeisterschaften der Langbahn-WM Grand Prix von Norwegen ausgetragen. Der erfolgreichste Speedway- und Langbahnfahrer Norwegens ist Rune Holta, der 1994 Junioren-Vizeweltmeister wurde und mehrere Jahre im Speedway-WM Grand Prix stand. Aufgrund seiner polnischen Mutter besitzt Rune Holta auch einen polnischen Pass, eine polnische Lizenz, fährt und lebt in Polen und wurde schon mehrmals mit Polen Team-Weltmeister. Speedway-Rennbahnen finden sich in Stavanger, Sandnes, Skien und Kristiansand. Napster. Napster war eine Musiktauschbörse, die von Shawn Fanning, John Fanning und Sean Parker gegründet wurde und 1999 online ging. Sie sollte dem Zweck dienen, leichter MP3-Musikdateien über das Internet verteilen zu können. Verwendete Technik. Revolutionär war dabei sein Peer-to-Peer-Ansatz (P2P). Die Napster-Software durchsuchte den Rechner, auf dem sie installiert war, nach MP3-Dateien und meldete die Ergebnisse an einen zentralen Server im Internet, wo auch die Angebote und Suchanfragen der anderen Teilnehmer eingingen. Der Server meldete als Ergebnis auf eine Anfrage die IP-Adressen der Computer zurück, die die gesuchte Musikdatei anboten. Die beiden Clients konnten sich daraufhin direkt miteinander verbinden (Peer-to-Peer) und das Musikstück kopieren. Ein multiples Laden von mehreren Quellen, wie es später bei anderen Musiktauschbörsen eingeführt wurde, war mit dem offiziellen Client nicht möglich. Napster und die Community. Zeitweilig war Napster die am schnellsten wachsende Community (Gemeinschaft) des Internets. Dies erklärt sich durch die Kostenfreiheit des Systems und die attraktiven Inhalte. Kurz vor ihrem Ableben im Februar 2001 umfasste die Napster-Community etwa 80 Millionen Nutzer weltweit, davon waren 1,6 Millionen Nutzer ständig online; alleine im Januar 2001 betrug das Tauschvolumen rund zwei Milliarden Dateien. Rechtliche Schritte und Abschaltung. Als verhängnisvoll erwies sich für Napster das Server-Client-System, das auf zentrale Rechner zur Weitervermittlung der Suchanfragen angewiesen war. Dadurch konnten die Rechteverwerter der Musikindustrie sowie die RIAA (Recording Industry Association of America) Napster mit Klagen überziehen und die Stilllegung der Server verlangen. Schließlich wurde Napster zur Installation von Filtersoftware gezwungen, die aber nie richtig funktionierte, da die Benutzer die Filter erfindungsreich mit Dateiumbenennungen umgehen konnten (Metallica zu EtallicaM oder acillatem etc.). Zuvor hatte sich Bertelsmann in einem damals sensationellen Coup bei Napster eingekauft, zunächst als Kredit mit der Option, später den Kredit in einen Anteil umwandeln zu dürfen. Am Ende wurde Napster in der ursprünglichen Form jedoch abgeschaltet. Alternativen. Während der Querelen zwischen Napster und der Musikindustrie kamen mehrere alternative P2P-Programme auf, zum Beispiel verschiedene Programme, die auf dem Gnutella-Netzwerk (z. B. LimeWire) basierten. Das Neue an ihnen war, dass keine zentralen Rechner zur Weitervermittlung der Suchanfragen mehr nötig waren. Das einst populäre, in Aufbau und Aussehen Napster ähnliche FastTrack-Netzwerk (z. B. Kazaa) wurde jedoch mit ähnlichen rechtlichen Problemen konfrontiert wie seinerzeit Napster, womit auch ein rapider Schwund an Nutzern einherging. Weiterhin beliebt sind das EDonkey2000-Netzwerk (z. B. eMule) und das BitTorrent-Netzwerk (z. B. Vuze). Im Februar 2003 wurde von mehreren US-amerikanischen Komponisten und Plattenfirmen gegen den Bertelsmann-Verlag Klage erhoben. Der Vorwurf lautete, durch Kauf und Unterstützung Napsters die Verbreitung von Raubkopien ermöglicht und großen wirtschaftlichen Schaden angerichtet zu haben. Verwendete Technik heute. Dank mehrerer alternativer Serverimplementierungen wird auch heute noch das ursprüngliche Napsterprotokoll verwendet. Der (historisch) wichtigste Server ist OpenNap. Durch Veröffentlichung des Protokolls ermöglichte dieser erst, dass mehrere (meist Open-Source) Clients implementiert wurden. Die heute am häufigsten eingesetzte Implementierung ist allerdings SlavaNap. Napster im Film. Im Film "The Italian Job – Jagd auf Millionen" behauptet der Charakter Lyle, der Erfinder von Napster zu sein. Sein ehemaliger Mitbewohner Shawn Fanning soll die Diskette mit der Software entwendet haben. Für die Verfilmung einer Rückblende stand Shawn Fanning selbst für einen Cameo-Auftritt zur Verfügung. Zudem wird Napster im Film "The Social Network" (2010) erwähnt, "Justin Timberlake" spielt den Napster-Gründer Sean Parker. Neptun (Planet). Der Neptun ist von der Sonne aus gezählt mit einer Entfernung von durchschnittlich 4,5 Milliarden Kilometern der achte und äußerste Planet im Sonnensystem. Er wurde im Jahr 1846 aufgrund von Berechnungen aus Bahnstörungen des Uranus durch den französischen Mathematiker Urbain Le Verrier von dem deutschen Astronomen Johann Gottfried Galle entdeckt und zeigt eine Scheibe von 2″. Mit einem Durchmesser von fast 50.000 Kilometern, knapp dem vierfachen Durchmesser der Erde, und dem 57,74-fachen Erdvolumen ist er nach Uranus der viertgrößte Planet des Sonnensystems. Zusammen mit dem Uranus bildet Neptun die Untergruppe der „Eisriesen“. Neptun dominiert durch seine Größe die Außenzone des Planetensystems, was sich zum Beispiel an der Umlaufzeit einiger „Transneptune“ wie Pluto und der Plutino-Gruppe zeigt, die genau das 1,5-Fache der Umlaufzeit von Neptun beträgt (eine Bahnresonanz von 3:2). Von Neptun sind derzeit 14 Monde bekannt. Der mit Abstand größte unter ihnen ist Triton mit 2700 Kilometern Durchmesser. Der Gasplanet ist nach Neptun benannt, dem römischen Gott des Meeres und der Fließgewässer. Sein Zeichen ist ein stilisierter Dreizack, die Waffe des Meeresgottes. Bei der Suche nach Exoplaneten werden Objekte, die eine ähnliche Masse wie Neptun aufweisen, von Astronomen analog zu den extrasolaren „Jupiters“ oder „Hot Jupiters“ manchmal als Planet der „Neptun-Klasse“ oder als „Hot Neptune“ bezeichnet. Umlaufbahn. Neptuns Umlaufbahn um die Sonne ist mit einer Exzentrizität von 0,0113 fast kreisförmig. Sein sonnennächster Punkt, das Perihel, liegt bei 29,709 AE und sein sonnenfernster Punkt, das Aphel, bei 30,385 AE. Er ist damit der äußerste Planet des Sonnensystems. Seine Bahnebene ist mit 1,769° nur leicht gegen die Ekliptik (Bahnebene der Erde) geneigt. Für einen Umlauf um die Sonne benötigt Neptun etwa 165 Jahre. Im äußeren Bereich des Sonnensystems beeinflusst Neptun aufgrund seiner relativ großen Masse die Bahnen vieler kleinerer Körper wie die der Plutinos und der Transneptune. Plutos Umlaufbahn ist so exzentrisch, dass er in seinem Perihel der Sonne näher kommt als Neptun. Aus der Perspektive des Nordpols der Ekliptik – senkrecht zur Ekliptikebene – scheinen sich daher ihre Bahnen zu schneiden. Allerdings ist die Umlaufbahn von Pluto um mehr als 17,1° zur Ebene der Ekliptik geneigt. Zum Zeitpunkt der Nähe Plutos zur Sonne befindet sich Pluto fast an seinem nördlichsten Punkt über der Ekliptikebene und schneidet daher nicht die Bahn Neptuns. Zusätzlich zwingt Neptun Pluto eine 2:3-Bahnresonanz auf. Während Neptun drei Sonnenumläufe vollführt, umrundet Pluto nur zweimal die Sonne. Die Bahnen sind so synchronisiert, dass Neptun bei der scheinbaren Kreuzung der Umlaufbahn Plutos immer weit von ihm entfernt ist. Von 1979 bis 1999 war Pluto der Sonne näher als Neptun. Am 12. Juli 2011 ist Neptun an jenen Punkt seiner Bahn zurückgekehrt, an dem er sich bei seiner Entdeckung am 23. September 1846 befand. Rotation. Mit einer Rotationsperiode von 15 Stunden, 57 Minuten und 59 Sekunden rotiert Neptun wie die anderen drei Gasplaneten sehr rasch. Die Folge dieser schnellen Rotation ist eine Abplattung von 1,7 %. Somit ist der Durchmesser an den Polen etwa 1000 km geringer als am Äquator. Die Neigung des Äquators gegenüber seiner Bahnebene beträgt 28,32°. Die Schrägstellung seiner Rotationsachse ist damit etwas höher als die der Erde. Physikalische Eigenschaften. Neptun gehört mit einem Durchmesser von knapp 50.000 km zu den Gasriesen. Mit einer Dichte von 1,64 g/cm³ ist er der kompakteste Gasplanet. Auch wenn Neptun etwas kleiner ist als Uranus, ist Neptun mit der 17-fachen Erdmasse massiver. Jupiter ist immerhin noch 18-mal massereicher als Neptun. Die äquatoriale Fallbeschleunigung am Nullniveau ist unter den Planeten des Sonnensystems nur bei Jupiter höher als bei Neptun (23,12 m/s² verglichen mit 11,15 m/s²). Obere Schichten. Neptun in natürlichen Farben mit drei Monden Die oberen Schichten der Atmosphäre bestehen hauptsächlich aus Wasserstoff (80 ± 3,2 Vol-%) und Helium (19 ± 3,2 Vol-%), etwas Methan (1,5 ± 0,5 Vol-%), deuteriertem Wasserstoff HD (192 Vol-ppm) und Spuren von Ethan (1,5 Vol-ppm). Neptuns blaue Farbe wird wie bei Uranus durch das Methan verursacht, das rotes Licht absorbiert. Markante Absorptionsbanden von Methan treten im roten und infraroten Teil des Spektrums bei Wellenlängen über 600 nm auf. Seine blaue Farbe erscheint jedoch viel kräftiger als die des blaugrünen Uranus, dessen Atmosphäre ähnlich aufgebaut ist. Vermutlich ist ein weiterer Bestandteil der Atmosphäre für Neptuns intensivere Farbe verantwortlich. Die oberen Schichten haben eine Ausdehnung von etwa 10 bis 20 % des Planetenradius. Höhere Konzentrationen von Methan, Ammoniak und Wasser sind in den unteren Bereichen der Atmosphäre vorhanden. Da Neptun die Sonne in großem Abstand umläuft, empfängt er von ihr nur wenig Wärme. Seine Temperatur beträgt in der Tiefe, bei der ein Druck von 0,1 bar herrscht, etwa −218 °C (55 K) und bei 1 bar −201 °C (72 K). Damit ist der Planet einer der kältesten Orte des Sonnensystems. Durch die Schrägstellung der Achse ist momentan am Südpol Hochsommer. Dieser ist schon seit über 40 Jahren (dem Viertel eines Neptunjahres) der Sonne ausgesetzt, das nächste Äquinoktium ist erst 2038. Trotz des großen Abstandes zur Sonne reicht die empfangene Energie, diese Gebiete bis zu 10 K wärmer werden zu lassen als die restlichen Regionen Neptuns. Man kann keine klar nach unten begrenzte Atmosphäre definieren, denn das Gas überschreitet mit zunehmender Tiefe den kritischen Druck oberhalb der kritischen Temperatur. Daher gibt es keinen Phasenübergang in den flüssigen Aggregatzustand, sodass es keine fest definierte Oberfläche des Planeten gibt. Innerer Aufbau. Uranus und Neptun sind „Eisriesen“. Sie haben einen größeren festen Kern als Jupiter und Saturn. Wie Uranus könnte er mehr oder weniger einheitlich in seiner Zusammensetzung sein. Im Gegensatz dazu haben Jupiter und Saturn getrennte innere Schichten aufzuweisen. Es wird angenommen, dass sich im Zentrum ein fester Kern von etwa 1- bis 1 ½-facher Erdmasse befindet. Dieser besteht aus Gestein und Metall und ist nicht größer als die Erde. Die Temperatur in seinem Zentrum liegt bei etwa 7000 °C und der Druck beträgt einige Millionen bar. Umgeben ist das Zentrum von einem Mantel oder Ozean aus einer Mischung von Fels, Wasser, Ammoniak und Methan, der einer Masse von 10- bis 15-facher Erdmasse entspricht (diese Mixtur aus Wasser, Methan oder Ammoniak wird von den Planetologen als Eis bezeichnet, auch wenn sie in Wirklichkeit heiße und sehr dichte Flüssigkeiten sind und diese Stoffe im äußeren Sonnensystem normalerweise im festen Zustand auftreten). Die den Mantel umgebende obere Schicht hat einen Anteil von etwa ein bis zwei Erdmassen. Vergleicht man die Rotationsgeschwindigkeit mit dem Faktor der Abplattung, zeigt sich, dass die Masse im Inneren Neptuns gleichmäßiger als beim Uranus verteilt ist. Bei Uranus wird die Masse Richtung Zentrum viel dichter als bei Neptun. Neptun hat ebenso wie Jupiter und Saturn eine innere Wärmequelle. Er strahlt etwa das 2,7-Fache der Energie, die er von der Sonnenstrahlung absorbiert, ab. Ein Grund dafür könnten radioaktive Prozesse sein, die den Planetenkern aufheizen. Eine weitere Möglichkeit wäre die Abstrahlung der noch vorhandenen Hitze, die während der Entstehung durch einfallende Materie des Planeten gebildet wurde. Es könnte auch das Brechen von Schwerewellen über der Tropopause die Ursache dieser Wärmeabgabe sein. Jahreszeiten. Wissenschaftler der University of Wisconsin–Madison und des Jet Propulsion Laboratory der NASA untersuchten in den Jahren 1996, 1998 und 2002 jeweils eine volle Umdrehung des Neptun. Dabei bemerkten sie in der südlichen Hemisphäre eine zunehmende Helligkeit und eine höhere Wolkendichte, während nahe dem Äquator kaum Veränderungen stattzufinden schienen. Damit bestätigten sie die Berichte des Lowell-Observatoriums aus dem Jahre 1980, von dem aus das Phänomen zum ersten Mal beobachtet wurde. Genau wie auf der Erde sorgt während eines Neptunjahres die Achsenneigung des Neptuns für eine Veränderung in der Sonneneinstrahlung und führt somit zu Jahreszeiten. Sie dauern jedoch im Gegensatz zur Erde mehr als 40 Jahre. Meteorologie. Ein Unterschied zwischen Neptun und Uranus ist das Ausmaß der meteorologischen Aktivität. Als die Raumsonde Voyager 2 1986 an Uranus vorbeiflog, war dieser Planet praktisch strukturlos, während Neptun 1989 beim Anflug von Voyager 2 bemerkenswerte Wetterphänomene zeigte. Lange helle Wolken, die den Cirruswolken der Erde ähnelten, wurden hoch in Neptuns Atmosphäre ausgemacht. Durch die schnelle Rotation haben seine hohen Wolkenschichten ebenfalls eine streifenartige Struktur. Man könnte erwarten, dass mit steigender Entfernung zur Sonne immer weniger Energie vorhanden wäre, um Winde anzutreiben. Auf Jupiter entstehen Winde mit bis zu mehreren hundert km/h. Neptun nimmt jedoch pro Flächeneinheit nur drei Prozent der Sonnenenergie des Jupiters oder ein Tausendstel der Sonneneinstrahlung der Erde auf. Trotzdem entdeckten die Wissenschaftler auf Neptun statt langsamerer Winde dynamische Stürme mit über 1600 km/h (Spitzenwerte bis zu 2100 km/h). Die höchste jemals gemessene Windgeschwindigkeit des Sonnensystems wurde somit in Neptuns Atmosphäre erreicht. Da den Neptun relativ wenig solare Energie erreicht, wird vermutet, dass einmal in Gang gekommene Winde kaum abgebremst werden. Bei ausreichend vorhandener Energie müssten Turbulenzen entstehen, die den Winden Widerstand entgegenstellen (wie es bei Jupiter der Fall ist). Das scheint bei Neptun nicht der Fall zu sein, wodurch extrem hohe Geschwindigkeiten zu beobachten sind. Einer anderen Theorie zufolge treiben innere Wärmequellen die Winde an. Es sieht aus, als ob sich Neptuns Atmosphäre sehr schnell verändert. Schon geringe Temperaturunterschiede zwischen der oberen frostigen Wolkenobergrenze und der unteren Wolkenschicht, verstärkt durch Neptuns starke innere Wärmequelle, könnten für die Instabilitäten in der Atmosphäre verantwortlich sein. In Neptuns kalter Atmosphäre mit Temperaturen von −218 °C (55 K) setzen sich die Cirruswolken aus gefrorenem Methan und weniger aus Wassereiskristallen (wie auf der Erde) zusammen. Zyklon. Der „Great Dark Spot“ von Voyager 2 aus gesehen 1989 wurde durch Voyager 2 in der südlichen Hemisphäre Neptuns der sogenannte „Great Dark Spot“ („Großer Dunkler Fleck“) entdeckt. Dieses Zyklonsystem, das dem „Kleinen Roten Fleck“ und „Großen Roten Fleck“ des Jupiters ähnelt und ein Hochdruckgebiet darstellt, erstreckte sich über ein Gebiet der Größe Eurasiens. Ursprünglich dachte man, das Gebilde sei selbst eine Wolke. Später einigte man sich auf ein Loch in der sichtbaren Wolkendecke. Der „Great Dark Spot“ ("GDS") befand sich auf 22° südlicher Breite und umrundete Neptun in 18,3 Stunden. Die Form des Systems legt nahe, dass das Sturmsystem gegen den Uhrzeigersinn rotiert. Die hellen Wolken östlich und südlich des "GDSs" änderten ihr Aussehen innerhalb weniger Stunden. Der "GDS" wurde jedoch am 2. November 1994 vom Hubble-Weltraumteleskop nicht mehr wiedergefunden. Der Grund für das Verschwinden des "GDSs" ist unbekannt. Einer Theorie nach könnte die vom Planetenkern stammende Hitze das Gleichgewicht der Atmosphäre gestört und existierende, umlaufende Strukturen zerrissen haben. Er könnte sich auch einfach aufgelöst haben oder von anderen Teilen der Atmosphäre verdeckt worden sein. Stattdessen wurde ein neuer Sturm, der dem "GDS" ähnelt, in der nördlichen Hemisphäre entdeckt. Scooter. Der „Scooter“ ist ein anderer Sturm. Er bildet weiße Wolkengruppen südlich des "GDSs". Seinen Spitznamen bekam er, als er 1989 in den Monaten vor der Ankunft von Voyager 2 bei Neptun entdeckt wurde. Dieser bewegt sich in 16 Stunden einmal um Neptun und ist damit viel schneller, als sich der "GDS" bewegte. Das Gebilde könnte eine Rauchfahne sein, die aus unteren Schichten aufsteigt. Nachfolgende Bilder zeigten Wolken, die sich noch schneller als der „Scooter“ bewegten. Der „Small Dark Spot“ (D2) ist ein südlicher Zyklonsturm, der im Uhrzeigersinn rotiert. Er war der zweitstärkste Sturm während der Begegnung 1989. Anfangs war er völlig dunkel. Als sich aber Voyager 2 dem Planeten annäherte, entwickelte sich ein heller Kern, der in den meisten hoch auflösenden Bildern zu sehen ist. Magnetfeld. Neptun und auch Uranus besitzen nur eine dünne Schicht leitenden, metallischen Materials und erzeugen deshalb kein Dipol-, sondern ein Quadrupolfeld mit zwei Nord- und zwei Südpolen. Das Magnetfeld ist gegenüber der Rotationsachse mit 47° stark geneigt. Die Feldstärke am Äquator beträgt etwa 1,4 µT und beträgt damit etwa des äquatorialen Feldes Jupiters (420 µT) und des äquatorialen Erdfeldes (30 µT). Das magnetische Dipolmoment, das ein Maß für die Stärke des Magnetfeldes bei vorgegebenem Abstand vom Zentrum des Planeten darstellt, ist mit 2,2 · 1017 Tm³ 28-mal stärker als das Magnetfeld der Erde (7,9 · 1015 Tm³). Der Mittelpunkt des Magnetfeldes ist um etwa 13.500 km vom Mittelpunkt des Planeten verschoben, so dass es wahrscheinlich ist, dass das Magnetfeld in höheren Schichten als bei Erde, Jupiter oder Saturn entsteht. Die Ursache der Ausrichtung des Feldes könnte in den Fließbewegungen im Inneren des Planeten bestehen. Möglicherweise befindet es sich in einer Phase der Umpolung. An den magnetischen Polen wurden von Voyager 2 auch schwache komplexe Polarlichter entdeckt. Ringsystem. Neptun hat ein sehr feines azurfarbenes Ringsystem, das aus mehreren ausgeprägten Ringen und den ungewöhnlichen Ringbögen im äußeren "Adams"-Ring besteht. Die Ringe sind, wie auch die Ringe von Uranus und Jupiter, ungewöhnlich dunkel und enthalten einen hohen Anteil mikroskopischen Staubes, der aus Einschlägen winziger Meteoriten auf Neptuns Monden stammen könnte. Als die Ringe in den 1980er Jahren durch ein Team von Edward Guinan mittels Sternverdunkelungen entdeckt wurden, wurde vermutet, sie seien nicht komplett. Die Beobachtungen von Voyager 2 widerlegten diese Annahme. Die Ursache für diese Erscheinung sind helle Klumpen im Ringsystem. Der Grund der „klumpigen“ Struktur ist bisher noch ungeklärt. Die Gravitationswechselwirkung mit kleinen Monden in der Ringumgebung könnte zu dieser Ansammlung beitragen. Die Ringe wurden nach Astronomen benannt, die bedeutende Beiträge zur Erforschung Neptuns lieferten. Vier Monde Neptuns (Naiad, Thalassa, Despina und Galatea) umlaufen Neptun innerhalb der Ringregion. Innere Ringe. Neptuns Ringsystem (von Voyager 2) "LeVerrier"- und "Galle"-Ring sind ebenso wie die Ringbögen sehr staubhaltig. Kleine Schäfermonde bei den schmaleren Ringen verhindern, dass die Ringe auseinander treiben und damit diffuser werden. Die Bilder von Voyager 2 deuten noch eine breite Scheibe diffusen Materials an. Sie scheint sich innerhalb des Radius von 50.000 km des "Galle"-Rings zu erstrecken. Diese Scheibe ist wegen Neptuns Glanz nicht leicht zu erkennen, weswegen ihre Existenz als nicht sicher gilt. Der Adams-Ring und die Ringbögen. Der auffälligste Ring ist der schmale äußere "Adams"-Ring, obwohl er verglichen mit den Ringen des Saturns und des Uranus immer noch sehr schwach erscheint. Seine ursprüngliche Bezeichnung war 1989 N1R. Als Besonderheit beinhaltet er mehrere längliche Bogenabschnitte, die jeweils 4–10° der Gesamtlänge des Ringes umspannen. Diese Ringbögen sind viel heller und undurchsichtiger als der Rest des Ringes und weisen eine entfernte Ähnlichkeit mit dem "G-Ring" des Saturns auf. Die Existenz der Ringbögen ist physikalisch nur schwierig zu erklären. Aufgrund der Bewegungsgesetze muss erwartet werden, dass sich die Bogensegmente innerhalb kurzer Zeit zu vollständigen Ringen verteilen. Der "Adams"-Ring hat 42 radiale Verschlingungen mit einer Amplitude von etwa 30 km. Diese Strukturen und die Begrenzung der Ringbögen werden vermutlich durch den gravitativen Einfluss des Mondes Galatea, der nur 1000 km innerhalb des Ringes rotiert, verursacht. Der Wert der Amplitude wurde verwendet, um Galateas Masse zu bestimmen. Die drei Hauptbögen werden "Liberté", "Égalité" und "Fraternité" (Freiheit, Gleichheit und Brüderlichkeit nach dem berühmten Motto der Französischen Revolution) genannt. Diese Bezeichnung wurde von den ursprünglichen Entdeckern, die sie während der Sternbedeckungen 1984 und 1985 entdeckten, vorgeschlagen. Alle Ringbögen sind nahe beisammen und umspannen gemeinsam eine Länge von unter 40°. Die höchstauflösenden Bilder von Voyager 2 enthüllten eine ausgesprochen klumpige Struktur in den Bögen. Der typische Abstand zwischen sichtbaren Klumpen beträgt 0,1° bis 0,2°. Dies entspricht 100 bis 200 km entlang des Ringes. Da die Brocken nicht aufgelöst wurden, ist nicht bekannt, ob sie größere Teile enthalten. Sie enthalten jedoch Konzentrationen von mikroskopischem Staub, was durch ihre erhöhte Helligkeit, wenn sie von der Sonne hinterleuchtet werden, belegt wird. Wie bei allen Ringen Neptuns ist der feine Staub ein wichtiger Bestandteil. Während schon im zusammenhängenden Hintergrundring viel Staub vorhanden ist, spielt er für die Ringbögen eine noch größere Rolle. Dort ist er für den Großteil des gestreuten Lichtes verantwortlich. Dies steht zum Beispiel in Kontrast zu den Hauptringen Saturns, dessen Hauptring weniger als ein Prozent Staub enthält. Der „Adams“-Ring hat eine intensive rote Farbe und der diffuse Hintergrundring variiert entlang der Länge in seiner Helligkeit. Der Ring ist auf der gegenüberliegenden Seite etwa 50 % dunkler. Dynamik der Ringbögen. Mit Betriebsbeginn des Hubble-Teleskops und erdgebundener Teleskope mit adaptiver Optik wurden die Ringbögen beginnend mit 1998 wieder mehrere Male beobachtet. Man bemerkte, dass die Ringbögen überraschend dynamisch waren und sich über einige Jahre beträchtlich veränderten. "Fraternité" und "Égalité" haben ihre Materie getauscht und ihre Längen merkbar geändert. Im Jahr 2005 veröffentlichte erdgebundene Untersuchungen zeigen, dass Neptuns Ringe deutlich instabiler sind, als bisher angenommen. Insbesondere der "Liberté"-Ringbogen ermattet und könnte in weniger als einem Jahrhundert verschwunden sein. Seine Helligkeit betrug 2003 nur mehr 30 % seiner ursprünglichen Helligkeit von 1989 und ist in den Bildern des Hubble-Weltraumteleskops vom Juni 2005 kaum noch zu sehen. In der Zwischenzeit scheint der Bogen ein gespaltenes, zweifach gekrümmtes Profil bekommen zu haben und wanderte mehrere Bogengrade näher zum stabileren "Égalité". Beim "Courage"-Ringbogen, der während des Vorbeifluges von Voyager 2 sehr matt wirkte, wurde 1998 eine Aufhellung beobachtet. In letzter Zeit war er wieder so dunkel wie bei seiner Entdeckung und hat sich um zusätzliche 8° gegenüber den anderen Ringbögen vorwärts bewegt. Es gab einige Anzeichen, dass die Ringbögen allgemein mehr und mehr verblassen. Beobachtungen im sichtbaren Bereich zeigen jedoch, dass die Gesamtmenge der Materie in den Ringbögen ungefähr gleich blieb, die Ringbögen jedoch im infraroten Bereich im Vergleich zu früheren Aufnahmen dunkler wurden. Diese Dynamik der Ringbögen ist derzeit noch nicht verstanden und die neuen Beobachtungen stellen den bisherigen Kenntnisstand über Neptuns Ringsystem in Frage. Entdeckung und Beobachtungen der Ringe. Neptuns Ringsystem mit einigen Mondbahnen (maßstabsgerecht) Das erste Anzeichen der Ringe um Neptun waren Beobachtungen von Sternbedeckungen. Auch wenn etwa 50 von ihnen vor dem Besuch durch Voyager 2 beobachtet wurden, gaben in den frühen 1980er Jahren nur fünf von den Beobachtungen Anzeichen von Ringen wieder. Hinweise auf unvollständige Ringe wurden Mitte der 1980er Jahre gefunden, als Beobachtungen einer Sternbedeckung durch Neptun zusätzlich gelegentliches Aufblinken vor oder nach der Verdeckung des Sterns durch den Planeten zeigten. Dies war der Nachweis, dass die Ringe nicht komplett (oder nicht durchgängig) waren. Der Vorbeiflug an Neptun durch Voyager 2 1989 trug einen Großteil zum aktuellen Wissensstand über die Ringe bei. Bilder der Raumsonde zeigten den Aufbau des Ringsystems, das aus mehreren lichtschwachen, dünnen Ringen besteht. Verschiedene andere Ringe wurden von den Kameras der Sonde entdeckt. Zusätzlich zum schmalen "Adams"-Ring, der sich 62.930 km vom Zentrum Neptuns entfernt befindet, wurden der "LeVerrier"-Ring bei 53.200 km und der breitere, dunklere "Galle"-Ring bei 41.900 km entdeckt. Die blasse Erweiterung des "LeVerrier"-Rings nach außen wurde nach "Lassell" benannt und ist an seiner äußeren Kante durch den "Arago"-Ring bei 57.600 km begrenzt. Durch Voyager 2s Bilder der Ringbögen konnte die Frage ihrer Unvollständigkeit beantwortet werden. Der Staubanteil wurde durch das Vergleichen der Helligkeit der Ringe bei frontaler und bei rückwärtiger Sonnenbeleuchtung geschätzt. Mikroskopischer Staub erscheint heller, wenn dieser von der Sonne aus dem Hintergrund beleuchtet wird. Dagegen werden größere Partikel dunkler, da nur ihre „Nachtseite“ sichtbar ist. Von den äußeren Planeten können nur Raumfahrzeuge solch eine Gegenlicht-Ansicht liefern, die für diese Art von Analyse nötig ist. Vor kurzem wurden, dank der Fortschritte bei Auflösung und höherer Lichtausbeute, die hellsten Teile des Ringes (die Ringbögen des "Adams"-Rings) mit erdgebundenen Teleskopen untersucht. Sie sind leicht über den Rauschpegel der von Methan absorbierten Wellenlängen erkennbar, bei dem der Glanz Neptuns bedeutend reduziert wurde. Die undeutlicheren Ringe liegen immer noch weit unterhalb der Schwelle der Sichtbarkeit. Entstehung und Migration. Die Entstehung und Formation der Eisriesen Neptun und Uranus ist schwierig zu erklären. Laut derzeitigen (Stand 2014) Modellen der Planetenentstehung war die Dichte der Materie in den äußeren Regionen des Sonnensystems zu gering, um basierend auf der traditionell akzeptierten Theorie der Kern-Akkretion so große Körper zu formen. Eine alternative Hypothese schlägt vor, dass die Eisriesen nicht durch Kernakkretion von Materie entstanden seien, sondern durch Instabilitäten innerhalb der ursprünglichen protoplanetaren Scheibe. Später seien ihre Atmosphären durch die Strahlung eines nahen massiven Sterns der Spektralklasse O oder B weggetrieben worden. Ein anderer Vorschlag besagt, dass die beiden Planeten sich viel näher der Sonne geformt hätten, wo die Dichte der Materie höher war, und sie daraufhin nach und nach zu ihren derzeitigen Orbits gewandert seien. Die Wanderungstheorie wird aufgrund der Möglichkeit favorisiert, dass sie die derzeitigen Resonanzen der Umlaufbahnen im Kuipergürtel, besonders die 2:5-Resonanzen, erklären kann. Während Neptun nach außen wanderte, kollidierte er mit ursprünglichen Objekten des Kuipergürtels. Dies rief neue Resonanzen hervor und führte bei anderen Körpern zu einem Chaos ihrer Orbits. Man nimmt an, dass die Objekte in der Scattered disk durch Interaktionen mit den Resonanzen, die von Neptuns Migration hervorgerufen wurden, in ihre jetzige Position platziert wurden. 2004 wurde durch ein Computermodell (dem Nizza-Modell) von Alessandro Morbidelli (Côte d’Azur Observatory in Nizza) die Möglichkeit aufgezeigt, dass die Wanderung Neptuns in Richtung des Kuipergürtels durch die Bildung einer 1:2-Bahnresonanz von Jupiter und Saturn ausgelöst sein könnte. Dabei hätte sich ein gravitativer Schub gebildet, der beide, Uranus und Neptun, vorangetrieben hätte. Diese wären dann in weiter außen liegende Umlaufbahnen gelangt und hätten dabei sogar ihre Plätze getauscht. Die daraus resultierende Verdrängung der Objekte des ursprünglichen Kuipergürtels könnte auch das Große Bombardement, das 600 Millionen Jahre nach der Bildung des Sonnensystems auftrat, und das Auftauchen der Trojaner Jupiters erklären. Nach anderen Forschungsergebnissen hat Neptun nicht die Objekte des Kuipergürtels aus ihren ursprünglichen Umlaufbahnen geworfen. Denn Doppelasteroiden, die sich als Partner einander in großem Abstand umkreisen, wären beim Swing-by durch Neptuns starke Gravitation zu Einzelasteroiden getrennt worden. Monde. Bei Neptun sind 14 Monde bekannt. Der bei weitem größte von ihnen ist Triton. Er wurde 17 Tage nach der Entdeckung des Neptun von William Lassell entdeckt. Aufgrund seiner großen Nähe zu Neptun ist er zu einer gebundenen Rotation gezwungen. Möglich wäre, dass Triton einmal ein Objekt des Kuipergürtels war und von Neptun eingefangen wurde. Im Gegensatz zu allen anderen großen Monden im Sonnensystem läuft er retrograd (rückläufig, also entgegengesetzt der Rotation des Planeten) um Neptun. Er nähert sich Neptun langsam auf einer Spiralbahn, um schließlich bei der Überschreitung der Roche-Grenze zerrissen zu werden. Triton ist mit Temperaturen von −235 °C (38 K) das kälteste jemals im Sonnensystem gemessene Objekt. Es dauerte einhundert Jahre, bis Neptuns zweiter Mond, Nereid, entdeckt wurde. Nereid hat eine der exzentrischsten Umlaufbahnen aller Monde des Sonnensystems. Die restlichen zwölf sind bis auf Proteus viel kleiner und wurden alle erst in dem Zeitraum von 1989 bis 2013 entdeckt. Von Juli bis September 1989 entdeckte die Weltraumsonde Voyager 2 sechs Neptunmonde. Auffällig ist der unregelmäßig geformte Proteus mit seiner dunklen, rußähnlichen Erscheinung. Die vier innersten Neptunmonde Naiad, Thalassa, Despina und Galatea haben Umlaufbahnen innerhalb der Neptunringe. Den ersten Hinweis auf den von innen nächstfolgenden Mond Larissa gab es 1981, als er einen Stern bedeckte, wobei man zunächst einen Teil eines Ringbogens vermutete. Als Voyager 2 1989 Neptun erforschte, stellte sich heraus, dass diese Sternbedeckung durch einen Mond verursacht wurde. Fünf weitere irreguläre Monde Neptuns wurden 2002 und 2003 entdeckt und 2004 bekannt gegeben. Zwei der neu entdeckten Monde, Psamathe und Neso, haben die größten Umlaufbahnen aller natürlichen Monde im Sonnensystem, die bis jetzt bekannt sind. Sie brauchen 25 Jahre, um Neptun zu umkreisen. Ihre durchschnittliche Distanz zum Neptun ist das 125-Fache des Abstandes des Mondes zur Erde. Im Jahr 2013 wurde durch Beobachtungen des Weltraumteleskops Hubble ein weiterer Mond entdeckt. Er hat einen Durchmesser von knapp 20 Kilometern und umkreist den Planeten in 23 Stunden. Der von Mark Showalter vom SETI-Institut in Mountain View/Kalifornien entdeckte Mond trägt die vorläufige Bezeichnung 2004 N 1. Da Neptun der römische Gott des Meeres war, wurden die Monde des Planeten nach anderen, untergeordneten Meeresgöttern benannt. Entstehung der Monde. Wahrscheinlich sind die inneren Monde nicht mit Neptun entstanden, sondern wurden durch Bruchstücke, die sich beim Einfangen von Triton entwickelt haben, gebildet. Tritons ursprüngliche Umlaufbahn, die er nach dem Einfangen durch Neptun innehatte, war sehr exzentrisch. Dadurch kam es zu chaotischen Störungen der ursprünglichen inneren Neptunmonde, die kollidierten und zu einer Geröllscheibe zerkleinert wurden. Erst als Triton nach und nach eine Kreisbahn annahm, konnten sich die Teile der Geröllscheibe wieder zu neuen Monden zusammenfügen. Der Ablauf der Einbindung Tritons als Mond war über die Jahre Thema einiger Theorien. Heute nehmen die Astronomen an, dass er während einer Begegnung von drei Objekten an Neptun gebunden wurde. In diesem Szenario war Triton das Objekt eines Doppelsystems1, das die heftige Begegnung mit Neptun überstanden hatte. Numerische Simulationen zeigen, dass ein anderer 2002 entdeckter Mond, Halimede, seit seiner Entstehung eine hohe Wahrscheinlichkeit hatte, mit Nereid zu kollidieren. Da beide Monde eine ähnlich graue Farbe aufzuweisen scheinen, könnten sie Fragmente des Mondes Nereid sein. 1Binäre Objekte, gravitative Verbindungen von zwei Körpern, sind unter transneptunischen Objekten oft anzutreffen (> 10 %; die bekannteste ist Pluto-Charon) und nicht so häufig bei Asteroiden wie bei 243 Ida und Dactyl. Irreguläre Monde. Irreguläre Monde sind eingefangene Satelliten in großem Abstand, haben eine hohe Bahnneigung und sind meist rückläufig. Das Diagramm illustriert die Umlaufbahnen von Neptuns irregulären Monden, die bis jetzt entdeckt wurden. Die Exzentrizität der Bahnen wird durch gelbe Segmente (die den Bereich vom Perizentrum bis zum Apozentrum überstreichen) und die Inklination durch die Y-Achse dargestellt. Die Satelliten oberhalb der X-Achse bewegen sich prograd (rechtläufig), die Satelliten darunter retrograd (rückläufig). Die X-Achse ist mit Gm (Millionen km) sowie dem betreffenden Bruchteil der Hill-Sphäre beschriftet. Der gravitative Einfluss, innerhalb dessen ein Umlauf um den Planeten möglich ist, reicht bei Neptun etwa 116 Millionen km in den Raum. Aufgrund der Ähnlichkeit der Umlaufbahnen von Neso und Psamathe könnten diese Monde von einem größeren, in der Vergangenheit auseinandergebrochenen Mond abstammen. Triton ist hier nicht zu sehen. Er bewegt sich rückläufig, hat jedoch eine fast kreisförmige Bahn. Bei Nereid, der sich auf einer rechtläufigen, jedoch sehr exzentrischen Bahn bewegt, wird vermutet, dass er während der „Integration“ Tritons in das Neptunsystem in seiner Bahn massiv gestört wurde. Bahnresonanzen. Neptuns Umlaufbahn hat einen erheblichen Einfluss auf die direkt dahinter liegende Region, die als Kuipergürtel bekannt ist. Der Kuipergürtel ist ein Ring aus kleinen eisigen Objekten. Er ist mit dem Asteroidengürtel vergleichbar, jedoch viel größer und erstreckt sich von Neptuns Umlaufbahn (30 AE Sonnenabstand) bis 55 AE Distanz zur Sonne. Wie Jupiters Schwerkraft den Asteroidengürtel beherrscht, in dem er die Struktur formt, so beeinflusst auch Neptuns Schwerkraft den Kuipergürtel. Über das Alter des Sonnensystems wurden bestimmte Regionen des Kuipergürtels durch Neptuns Schwerkraft destabilisiert, u. a. wurden Löcher in der Struktur des Kuipergürtels gebildet. Der Bereich zwischen 40 und 42 AE Entfernung von der Sonne ist solch ein Beispiel. Es existieren jedoch Orbits innerhalb dieser leeren Regionen, in denen Objekte über das Alter des Sonnensystems hinaus existieren können. Diese Bahnresonanzen treten auf, wenn die Umlaufbahn eines Objektes um die Sonne einen genauen Bruchteil von Neptuns Bahn darstellt, wie ½ oder ¾. Wenn, angenommen, ein Körper einmal pro zwei Neptunumläufen die Sonne umkreist, wird er nur den halben Umlauf beenden, wenn Neptun wieder an die vorherige Stelle zurückkehrt. Das passiert auch auf der anderen Seite der Sonne. Der am häufigsten bevölkerte resonante Orbit im Kuipergürtel, mit über 200 bekannten Objekten, ist die ⅔-Resonanz. Die Objekte in diesem Orbit beenden einen Umlauf pro 1 ½ Neptunumläufen. Sie werden die Plutinos genannt, da sie die größten im Kuipergürtel darstellen und sich auch Pluto in ihnen befindet. Obwohl Pluto Neptuns Umlaufbahn regelmäßig kreuzt, können die beiden aufgrund der ⅔-Resonanz niemals kollidieren. Andere, dünner besiedelte Resonanzen existieren auf der ¾-, ⅗-, - und der ⅖-Resonanz. Neptun besitzt eine Anzahl von Trojanern („neptunische Trojaner“), die die Lagrange-Punkte L4 und L5 besetzen. Es gibt hier gravitativ stabile Regionen vor und hinter seiner Umlaufbahn. Neptunische Trojaner werden oft als in -Resonanz zu Neptun beschrieben. Die Trojaner sind in ihren Orbits bemerkenswert stabil und sind wahrscheinlich nicht durch Neptun eingefangen worden, sondern haben sich neben ihm gebildet. Trojaner. Es sind mehrere Neptun-Trojaner, zum Beispiel 2001 QR322, (385571) Otrera, 2005 TN53, (385695) 2005 TO74, 2006 RJ103, (309239) 2007 RW10 und 2007 VL305. Sie werden in Analogie zu asteroiden Trojanern so genannt. Die Objekte eilen dem Planeten 60° auf dem Lagrangepunkt L4 voraus (der verlängerten gekrümmten Kurve der Planetenbahn) und haben die gleiche Umlaufzeit wie der Planet. Am 12. August 2010 gab das Department of Terrestrial Magnetism (DTM) der Carnegie Institution for Science in Washington, D.C. die Entdeckung eines Trojaners auf der Langrange-Position L5 durch Scott Sheppard und Chadwick Trujillo bekannt: 2008 LC18. Es ist der erste nachgewiesene Neptun-Trojaner auf dieser Position. Die Entdeckung von 2005 TN53 mit einer hohen Bahnneigung (> 25°) ist signifikant, da dies auf eine dichte Wolke von Trojanern hinweisen könnte. Es wird angenommen, dass große (Radius ≈ 100 km) neptunische Trojaner die Anzahl der Trojaner Jupiters um eine Größenordnung übertreffen könnten. Es wurde auch überlegt im Rahmen der Mission der Raumsonde New Horizons während ihrer Fahrt zu Pluto, die Trojaner 2008 LC18 und eventuell weitere in der näheren Zukunft entdeckte nachfolgende (L5) Trojaner zu beobachten, sofern sie der Sonde nahe genug kommen. Ein Kandidat war 2011 HM102. Da sich New Horizons diesem Himmelskörper jedoch bis auf höchstens 180 Mio. km näherte, was für eine sinnvolle Beobachtung nicht ausreichte, wurde schließlich auf eine Beobachtung verzichtet. Beobachtung. Neptun ist wegen seiner scheinbaren Helligkeit zwischen +7,8m und +8,0m mit dem freien Auge nie sichtbar. Sogar Jupiters Galileische Monde, der Zwergplanet (1) Ceres und die Asteroiden (4) Vesta, (2) Pallas, (7) Iris, (3) Juno und (6) Hebe sind heller als Neptun. In einem starken Fernglas oder einem Teleskop erscheint er als blaues Scheibchen, dessen Erscheinung Uranus ähnelt. Die blaue Farbe stammt vom Methan seiner Atmosphäre. Der scheinbare Durchmesser beträgt etwa 2,5 Bogensekunden. Seine kleine scheinbare Größe macht eine Beobachtung zur Herausforderung. Die meisten Daten von Teleskopen waren bis zum Beginn des Betriebs des Hubble-Weltraumteleskops und erdgebundener Teleskope mit adaptiver Optik sehr limitiert. Wie alle Planeten und Asteroide jenseits der Erde zeigt Neptun manchmal eine scheinbare Rückwärtsbewegung. Zusätzlich zum Beginn der Rückläufigkeit gibt es in einer synodischen Periode noch andere Ereignisse wie die Opposition, die Rückkehr zur rechtläufigen Bewegung und die Konjunktion zur Sonne. Entdeckung und Benennung. a>, der Mathematiker, der Neptun mit entdeckte Schon Galileo Galilei hatte Neptun am 28. Dezember 1612 und nochmals am 27. Januar 1613 gesehen. Aus seinen Aufzeichnungen vom Januar 1613 geht eine Beobachtung der Konjunktion mit dem Jupiter hervor, bei der Galilei den Neptun jedoch für einen Jupitermond oder einen Fixstern gehalten hatte. Zum Zeitpunkt seiner ersten Beobachtung im Dezember 1612 war der Planet stationär, da er gerade an diesem Tag begann, sich rückwärts zu bewegen. Dies war der Beginn des jährlichen Zyklus der retrograden Bewegung. Die Bewegung Neptuns war viel zu gering, um sie mit Galileos kleinem Teleskop feststellen zu können. Hätte er Neptun nur wenige Tage früher beobachtet, wäre seine Bewegung am Himmel viel deutlicher gewesen. 1821 veröffentlichte Alexis Bouvard astronomische Tabellen über die Bahn des Uranus. Nachfolgende Beobachtungen enthüllten erhebliche Diskrepanzen mit den berechneten Werten. Die Bewegung des Uranus um die Sonne zeigte Störungen und entsprach nicht den keplerschen Gesetzen. Astronomen wie Bouvard vermuteten daher, dass es einen weiteren Planeten jenseits des Uranus geben müsse, der durch seine Gravitationskraft die Bewegung des Uranus störe. 1843 berechnete John Adams die Umlaufbahn dieses hypothetischen weiteren Planeten und sandte seine Berechnungen zu Sir George Airy, dem damaligen „Astronomer Royal“. Dieser bat Adams um nähere Erklärung. Adams begann ein Antwortschreiben, das er jedoch niemals abschickte. Unabhängig davon errechnete 1846 der französische Mathematiker Urbain Le Verrier die Position, an der sich der unbekannte Planet befinden müsste, wobei die Berechnung von Le Verrier wesentlich genauer als die von Adams war. Aber auch diese Arbeit rief kein größeres Interesse hervor. John Herschel setzte sich noch in diesem Jahr für den mathematischen Ansatz ein und überredete James Challis, den Planeten aufzuspüren. Im Juli 1846 begann Challis nach einem längeren Aufschub widerwillig mit der Suche. Die Berechnung von Adams diente Challis aus Cambridge als Vorlage für seine Beobachtungen am 4. und 12. August 1846. Challis erkannte erst später, dass er den Planeten zweimal beobachtet hatte. Die Identifizierung scheiterte wegen seiner saloppen Einstellung zu dieser Arbeit. Weil Challis die Beobachtungen der verschiedenen Abende noch nicht miteinander verglichen hatte, erkannte er Neptun, obwohl der seine Position am Himmel veränderte, unter den zahlreichen Sternen noch nicht als Planeten. Währenddessen bat Le Verrier in einem Brief an Johann Gottfried Galle, Observator an der Berliner Sternwarte, nach dem vorhergesagten Planeten Ausschau zu halten: "„Ich suche einen hartnäckigen Beobachter, der bereit wäre, einige Zeit einen Himmelsabschnitt zu untersuchen, in dem es möglicherweise einen Planeten zu entdecken gibt.“" Er beschrieb die berechnete Position und wies darauf hin, dass der Planet mit einem geschätzten Durchmesser von etwas über drei Bogensekunden im Fernrohr als kleines Scheibchen erkennbar und so von einem Fixstern zu unterscheiden sein sollte. Der Brief traf am 23. September 1846 in Berlin ein und Galle erhielt vom Direktor der Sternwarte, Franz Encke, die Erlaubnis, nach dem Planeten zu suchen. Noch am selben Abend hielt Galle gemeinsam mit dem Sternwartengehilfen Heinrich d’Arrest in der fraglichen Himmelsgegend Ausschau nach einem Planetenscheibchen, blieb aber zunächst erfolglos. D’Arrest schlug schließlich vor, die Sterne mit den Berliner akademischen Sternkarten zu vergleichen. Die Sternwarte besaß tatsächlich das betreffende Blatt des noch sehr lückenhaften Kartenwerkes, nämlich die von Carl Bremiker erst kurz zuvor fertiggestellte und noch nicht im Handel erhältliche „Hora XXI“. Wieder zurück am Fernrohr, begann Galle die im Fernrohr sichtbaren Sterne anzusagen, während d’Arrest diese Sterne mit der Karte verglich. Es dauerte nicht lange, bis d’Arrest rief: "„Dieser Stern ist nicht auf der Karte!“" Gemeinsam mit dem herbeigerufenen Encke vermaßen sie wiederholt die Koordinaten des am Himmel, aber nicht in der Karte gefundenen Sterns 8. Größe und glaubten eine geringfügige Bewegung zu sehen, konnten sie aber noch nicht sicher feststellen. Der verdächtige Stern lag nur etwa ein Grad von der vorhergesagten Position entfernt. Am nächsten Abend ließen erneute Positionsbestimmungen keinen Zweifel, dass der Stern sich mittlerweile bewegt hatte, und zwar um den Betrag, der gemäß der von Le Verrier errechneten Bahn zu erwarten war. Die genaue Betrachtung zeigte ein kleines, auf gut zweieinhalb Bogensekunden Durchmesser geschätztes Scheibchen. Galle konnte Le Verrier den Erfolg der kurzen Suche melden: "„Der Planet, dessen Position Sie errechnet haben, existiert tatsächlich“". Damit war Neptun der erste Planet, der nicht durch systematische Suche, sondern durch eine mathematische Vorhersage entdeckt wurde. Nachdem die Hintergründe über die Entdeckung bekannt wurden, gab es eine breite Zustimmung darüber, dass beide, Le Verrier und Adams gemeinsam mit Galle die Ehre der Entdeckung verdient hätten. Jedoch wurde diese Angelegenheit mit der Wiederentdeckung der „Neptune papers“ (historische Dokumente vom „Royal Greenwich Observatory“) wieder neu aufgerollt. Diese waren im Besitz des Astronomen Olin Eggen und wurden von ihm anscheinend für fast drei Jahrzehnte unterschlagen. Direkt nach seinem Tod wurden sie 1998 wiederentdeckt. Nach der Überprüfung der Dokumente waren einige Historiker der Ansicht, dass Le Verrier mehr Ehre als Entdecker gebühre als Adams. Kurz nach seiner Entdeckung wurde Neptun einfach als „der Planet außerhalb von Uranus“ oder „Le Verriers Planet“ genannt. Der erste Vorschlag eines Namens kam von Galle. Er schlug den Namen "„Janus“" vor. In England warb Challis für "„Oceanus“". In Frankreich machte François Arago den Vorschlag, den neuen Planeten "„LeVerrier“" zu nennen. Dieser Vorschlag wurde außerhalb Frankreichs vehement abgelehnt. Französische Jahrbücher führten sofort wieder den Namen "„Herschel“" für Uranus und "„Leverrier“" für den neuen Planeten ein. In der Zwischenzeit schlug Adams unabhängig davon vor, den Namen von "Georgian" auf "Uranus" zu ändern, während Le Verrier den Namen "„Neptun“" für den neuen Planeten vorschlug. Friedrich Struve unterstützte den Namen am 29. Dezember 1846 gegenüber der Sankt Petersburger Akademie der Wissenschaften. Bald wurde "„Neptun“" die international akzeptierte Bezeichnung. In der römischen Mythologie war Neptunus der Gott des Meeres, der seine Entsprechung im griechischen Gott Poseidon hatte. Der Name stand in Übereinstimmung mit den mythologischen Namen der anderen Planeten, von denen alle bis auf Uranus schon in der Antike benannt wurden. Der Name des Planeten ist in ostasiatische Sprachen (Chinesisch, Japanisch, Koreanisch, Vietnamesisch) wörtlich mit "Meerkönig-Stern" übersetzt worden. In Indien wurde der Planet Varuna (Devanāgarī: वरुण), nach dem Gott des Meeres in der historischen vedischen/hinduistischen Mythologie, genannt. Dieser Gott entspricht Poseidon in der griechischen und Neptun in der römischen Mythologie. Erforschung. a>. Er zeigt ein vertikales Relief und helle Wolkenstreifen. Die Wolken sind 50 km bis 160 km breit und tausende Kilometer lang. Voyager 2 war die erste und bislang einzige Raumsonde, die Neptun besucht hat. Sie flog über den Nordpol von Neptun und passierte den Planeten am 25. August 1989 in nur 4950 Kilometer Abstand. Seit die Sonde die Erde verlassen hatte, war dies die größte Annäherung an ein Objekt. Da dies der letzte große Planet war, den Voyager 2 besuchen konnte, wurde ohne Rücksicht auf die Folgen ihrer Flugbahn beschlossen, dass eine nahe Schwerkraftumlenkung (Fly-by) zum Mond Triton erfolgen sollte. Bei der Begegnung von Voyager 1 mit Saturn und seinem Mond Titan wurde dies ebenfalls so durchgeführt. Voyager 2 untersuchte die Atmosphäre, Ringe, Magnetosphäre und die Monde Neptuns. Die Sonde entdeckte den „Great Dark Spot“, den mandelförmigen „Small Dark Spot“ (D2) und eine helle, sich hoch über der Wolkendecke schnell bewegende Wolke, die „Scooter“ genannt wurde. Wegen des großen Abstandes erscheint die Sonne über 1000-mal schwächer als auf der Erde, wobei sie mit einer Helligkeit von −21m immer noch sehr hell strahlt. Deshalb stellte man erstaunt fest, dass auf Neptun die stärksten Winde aller Gasriesen wehen. Durch die Sonde wurden vier Ringe gefunden und die Ringbögen nachgewiesen. Mit Hilfe ihres „Planetary Radio Astronomy Instruments“ konnte ein Neptuntag auf 16 Stunden und 7 Minuten bestimmt werden. Es wurden Polarlichter (Auroras) entdeckt, die ähnlich der irdischen, jedoch viel komplexer als diese waren. Voyager 2 entdeckte sechs Monde. Drei Monde wurden im Detail fotografiert: Proteus, Nereid, und Triton. Obwohl Nereid schon 1949 entdeckt wurde, war noch sehr wenig über den Mond bekannt. Die Sonde näherte sich Triton bis auf 40.000 km. Der Trabant war das letzte Missionsziel von Voyager 2. Triton enthüllte bemerkenswert aktive Geysire und man entdeckte Polarkappen. Eine sehr schwache Atmosphäre mit dünnen Wolken wurde auf dem Trabanten festgestellt. Die Bilder, die von Voyager 2 zur Erde zurückgesendet wurden, wurden die Basis eines PBS (Public Broadcasting Service) Nachtprogramms, das sich „Neptune All Night“ nannte. Mögliche zukünftige Missionen. Neptun ist ein Gasriese ohne feste Oberfläche. Daher ist eine Mission an der Oberfläche des Planeten mit einer Landeeinheit oder einem Rover nicht möglich. Das California Institute of Technology (Caltech) arbeitete im Auftrag der US-Raumfahrtbehörde NASA einen Missionsvorschlag für einen Neptun-Orbiter aus, der über einen Kernreaktor als Energiequelle verfügen und den Planeten aus einer Umlaufbahn heraus umfassend untersuchen sollte. Die Sonde hätte außerdem eine oder mehrere Atmosphärenkapseln auf Neptun abwerfen sowie einen oder mehrere Mini-Lander auf Triton absetzen können. Bevorzugte Landeplätze auf Triton wären der Nord- und Südpol, wo große Mengen von Wassereis entdeckt wurden. Ein alternativer Vorschlag kam von dem Planetologen Andrew Ingersoll, einem Studienleiter am CalTech. Ingersoll und seine Mitarbeiter stellten sich eine Mission ähnlich der von Cassini vor, die für die Reise zu Neptun und seinem Mond eine Rakete mit konventionellem Antrieb und die Schwerkraft nutzen sollte. Keiner der Missionsvorschläge hat die Projektplanungsphase erreicht. Inzwischen (November 2009) wurde die Mission offensichtlich gestrichen, da sie nicht mehr in den “Solar System Strategic Exploration Plans” aufgeführt wird. Neal Stephenson. Neal Town Stephenson (* 31. Oktober 1959 in Fort Meade, Maryland, USA) ist ein in Seattle lebender Schriftsteller. In seinen Science-Fiction-Romanen spiegeln sich seine Experimente mit neuen Medien wie virtueller Realität und dem World Wide Web wider. Er gilt deshalb als einer der Hauptvertreter des Cyberpunk. Auf sein Werk "Snow Crash" geht der Begriff "Avatar", in der Bedeutung für animierte Profile, zurück. Leben. Neal Stephenson stammt aus einer Familie von Ingenieuren und Naturwissenschaftlern: Seine Mutter arbeitete als Biochemikerin in einem Labor, sein Vater lehrte Elektrotechnik, die Großväter waren Professoren für Physik und Biochemie. 1960 zog die Familie mit ihm nach Champaign-Urbana, wo er bis 1966 aufwuchs. Danach lebte er in Ames und schloss dort 1977 die High School ab. Er studierte zuerst Physik, dann bis 1981 Geografie an der Boston University. Er war zeitweise als Berater für das von Jeff Bezos gegründete private Raumfahrtunternehmen Blue Origin tätig und ist Mitbegründer der Softwarefirma "Subutai Corporation". Werke. Oft mischen sich in seinen Büchern historische Elemente mit futuristischen Technikfantasien; so porträtiert er beispielsweise in "The Diamond Age" eine Gesellschaft, die sich hochentwickelter Nanotechnologie bedient, aber gesellschaftlich einem viktorianisch-puritanischen Rollenmodell huldigt. Seit Ende der 1990er Jahre widmet sich Stephenson historischen Stoffen, jedoch mit der Sensibilität eines Science-Fiction-Autors. Wie viele Autoren hält Stephenson wenig von strengen Genre-Abgrenzungen. Vordergründig sind Cryptonomicon und der "Barock-Zyklus" dem Genre des historischen Romans zuzuordnen, beide Werke sind jedoch gesättigt mit typischen SF-Motiven. Sein Roman "Snow Crash" spielt in einem Amerika, das in unzählige Mininationen zersplittert ist, die als Franchiseunternehmen großer Konzerne betrieben werden, und das bis hin zu Polizei und Strafvollzug vollständig privatisiert wurde. Eine wichtige Rolle spielt dabei ein fortgeschrittenes System der virtuellen Realität, das mit einer florierenden Hacker-Kultur einhergeht. Weitere Bezüge bestehen zu der sumerischen Mythologie mit ihrem Gott Enki. 1995/96 ging er im Auftrag des Wired auf Weltreise und erkundete als "Hacker tourist" die technischen, wirtschaftlichen und historischen Seiten der Verlegung von Seekabeln, anhand des Projektes Fiber-Optic Link Around the Globe. Sein Essay erschien im Dezember 1996 unter dem Titel "Mother Earth - Mother Board". Einige der auf der Reise gemachten Erfahrungen brachte er in sein nächstes Buch ein. Sein "Cryptonomicon" befasst sich in zwei Zeitsträngen (1940er und 1990er Jahre) mit dem Thema Kryptographie. Stephenson verwebt hier die Lebensgeschichte von Lawrence Pritchard Waterhouse, eines fiktiven, an der Entschlüsselung der Enigma beteiligten Mathematikers während des Zweiten Weltkriegs mit der Geschichte seines Enkels Randy Waterhouse, der in Südostasien einen Datenhafen errichten will. Eine zentrale Rolle im Roman spielt der von Bruce Schneier entworfene Verschlüsselungsalgorithmus Solitaire. Die acht Romane des "Barock-Zyklus" wurden in den drei Bänden "Quicksilver", "Confusion" und "Principia" veröffentlicht und spielen Mitte des 17. bis Anfang des 18. Jahrhunderts. Sie erzählen in mehreren Handlungssträngen die Geschichten des Mitglieds der Royal Society "Daniel Waterhouse", der mehr durch Zufall in den Adelsstand aufsteigenden Ränkeschmiedin "Eliza" und des Vagabunden "Jack Shaftoe" und bieten eine umfangreiche Vorgeschichte der Familien, die auch in "Cryptonomicon" auftreten. Die Epoche von 1655 bis 1714 wird von Stephenson mit sehr vielschichtig und detailliert recherchiertem Hintergrundwissen mit ihren religiösen, politischen, gesellschaftlichen, wirtschaftlichen, kulturellen, wissenschaftlichen und technischen Umwälzungen auf insgesamt über 3000 Seiten in mehreren parallelen, miteinander verwobenen Handlungssträngen pointiert, unterhaltsam und spannend dargestellt. Insbesondere die Darstellung der Entstehung des modernen Finanzsystems (globaler Handel, Banken- und Börsenwesen) sind mehr als nur ein Romanhintergrund und erläutern noch immer aktuelle Mechanismen und Zusammenhänge. Stephensons im Internet veröffentlichtes "In the Beginning… Was the Command Line" (auf Deutsch "Die Diktatur des schönen Scheins. Wie grafische Oberflächen die Computernutzer entmündigen") ist im Gegensatz zu seinen anderen Werken kein Roman, sondern ein Aufsatz über freie Software. Insbesondere werden die Betriebssysteme Mac OS, Linux, Microsoft Windows und BeOS metaphorisch dargestellt. Neal Stephensons Roman Anathem ist von den Ideen der Long Now Foundation beeinflusst. "Reamde" (dt. "Error") ist ein Action-Roman, der ähnlich wie Cory Doctorows Roman "For the Win" vor dem Hintergrund eines fiktiven MMORPGs spielt. In "Reamde" dienen Computerspiele und -equipment allerdings lediglich als loser Rahmen für eine von detailreich beschriebenen Actionszenen geprägten Handlung. Der Text enthält anders als seine Romane wie "Snow Crash" oder "Diamond Age" kaum visionäre bzw. Science-Fiction-Elemente. Seveneves (dt. Amalthea) beschreibt das Überleben der Menschheit nachdem der Mond zerbrochen ist und in Stücken auf die Erde stürzt und so die Erdoberfläche für Jahrhunderte unbewohnbar macht. Zahlensymbolik. Unter Zahlensymbolik (auch: "Numerologie" und "Zahlenmystik") versteht man die Zuweisung von Bedeutungen an einzelne Zahlen oder Zahlenkombinationen, wobei die Zahlen eine sinnbildliche Funktion erhalten, die über ihre mathematische Bedeutung hinausgehen. Diese Sichtweise gehört, mit Unterschieden in Ausprägung und Funktion, in das Spektrum von Brauchtum, Mystik, Dichtung und Esoterik. Naturwissenschaftlich ist das Thema nur insofern relevant, als Physik und Mathematik seine esoterischen Aspekte widerlegen. Wissenschaftliche Relevanz haben zahlensymbolische Themen im Bereich der Linguistik (Semantik), der Theologie sowie der empirischen Kulturwissenschaften (Brauchtumskunde). Gebrauch. Im Gegensatz zum mathematisch-naturwissenschaftlichen Zahlenverständnis, bei dem Zahlen rein formale Funktionen haben, charakterisiert die Zahlensymbolik Zahlen inhaltlich, indem sie ihnen feste Zusammenhänge mit realen oder angenommenen nichtmathematischen Dingen bzw. Sachverhalten zuschreibt. Die Zahlen erhalten somit eine semantische Bedeutung, die sie in der Mathematik nicht haben. In Brauchtum, Mystik und Religion werden mit semantischer Bedeutung aufgeladene Zahlen für verschiedene Zwecke genutzt, bspw. als Symbol, Metapher oder auch für rituelle Zwecke (bspw. Orakel). Dabei werden oft auch Werturteile über die Dinge auf die entsprechenden Zahlen übertragen oder Werturteile über die Zahlen auf mit ihnen zahlensymbolisch verknüpfte Dinge. Jede Zahl erhält einen spezifischen Charakter, eine individuelle Qualität und Eigenschaften wie beispielsweise "männlich", "weiblich", "glückverheißend" oder "heilig". Bisweilen wird dabei auf das Phänomen der Synchronizität verwiesen. Einen Ausgangspunkt für Spekulationen der Zahlensymbolik bilden unter anderem Zahlen, die in Naturgegebenheiten wie den Mondphasen oder grundlegenden kulturellen Konventionen wie der Siebentägigkeit der Woche eine Rolle spielen. Hierzu gehört insbesondere die Bedeutung der Zahl Zehn aufgrund der Anzahl der Finger sowie im Dezimalsystem. Zahlensymbolik ist weltweit in zahlreichen Kulturen und Religionen verbreitet. Die erste und umfassende Systematik der abendländischen Numerologie auf biblischer Grundlage wurde im ausgehenden 16. Jahrhundert von Pietro Bongo erarbeitet. Alphabetische Systeme. Es gibt zahlreiche Numerologiesysteme, die bestimmten Buchstaben im Alphabet einen numerischen Wert geben. Beispiele hierfür sind das Abdschad, die Hebräische Zahlschrift und die Armenische Zahlschrift. Die jüdische Tradition der Interpretation von Worten aufgrund ihrer numerischen Werte wird Gematrie genannt. Das arabische System der Numerologie ist das Abdschad. In diesem System hat jeder Buchstabe des arabischen Alphabets einen bestimmten Wert. Die chinesische Numerologie unterscheidet sich hingegen von den alphabetischen Systemen. Hier wird einer bestimmten Zahl oder einer bestimmten Kombination von Ziffern eine unterschiedliche Bedeutung zugeschrieben. Prinzipiell werden in der chinesischen Numerologie gerade Zahlen als glückbringend beschrieben. Die traditionelle chinesische Medizin basiert ihr System auf numerischen Assoziationen (bspw. 365 Teile des Körpers - einer für jeden Tag des Jahres - als Basis zur Lokalisierung der Akupunkturpunkte). Alchemie. Manche Theorien in der Alchemie lassen sich auf numerologische Prinzipien zurückführen. Beispielsweise basierte der iranische Alchemist Dschābir ibn Ḥayyān seine Experimente auf einem eigens ausgearbeiteten numerologischen System aufgrund der Bezeichnung der verwendeten Substanzen in arabischer Sprache. Wissenschaft. Wissenschaftliche Theorien werden oftmals als "Numerologie" bezeichnet, wenn der ursprüngliche Zweck der Studie auf einer Reihe von Mustern basiert, anstatt auf wissenschaftliche Beobachtungen zu beruhen. Dieser umgangssprachliche Gebrauch des Begriffs ist in wissenschaftlichen Kommentaren weit verbreitet und wird im Wesentlichen dafür verwendet um eine Theorie bzw. eine wissenschaftliche Publikation als zweifelhaft zu verwerfen. Das bekannteste Beispiel der Numerologie in der Wissenschaft ist die Large Number Hypothesis, die 1937 von Paul Dirac aufgestellt wurde. Dabei handelt es sich um eine Theorie, die sich mit der seltsamen Häufung von absoluten Verhältnissen in der Größenordnung der Zahl 1040 beschäftigt. Mit der Hypothese beschäftigten sich auch andere Persönlichkeiten. wie der Mathematiker Hermann Weyl und der Astronom Arthur Stanley Eddington. Die Entdeckung atomarer Triaden, die sich mit den Elementen einer Gruppe oder Spalte des Periodensystems beschäftigt, wurde als eine Form der Numerologie bezeichnet, die schließlich zur Entstehung des Periodensystems führte. In diesen Triaden wird das durchschnittliche Atomgewicht des leichtesten und schwersten Elements einer Gruppe errechnet, welches dann annähernd dem Atomgewicht des mittleren Elements entspricht. Obwohl diese Methode nicht mit jedem Triplett funktioniert, basierten manche wissenschaftliche Arbeiten in der Folge auf dieser Beobachtung. Spiele. Methoden in Spielen, die den Einsatz von "Glückszahlen" erlauben (Lotto, Bingo, Roulette, usw.) entsprechen dem Konzept der Numerologie. Obwohl keine Strategie angewandt werden kann, die die Chancen des Spielers zu gewinnen erhöhen, kann dieser auf "Glückszahlen" setzen, von denen er glaubt, dass sie ihm helfen könnten. Zwar gibt es keinerlei Evidenz dafür, dass eine solche numerologische Strategie ein besseres Resultat hätte, als das zufällige Setzen irgendwelcher Zahlen, dennoch werden solche Methoden oftmals von Casinobetreibern unterstützt. Kultur- und Sprachwissenschaften. Zu den Wissenschaften, die sich ernsthaft mit Zahlensymbolik befassen, gehören unter anderem die Theologie (Zahlensymbolik in der Bibel, Bibelexegese), Linguistik (Zahlen als semantisch relevante Objekte) und die Kulturwissenschaften (Zahlen in Brauchtum, Ritus und Aberglaube). Speziell in der Theologie ist ein zahlensymbolisches Verständnis von großer Bedeutung, da ohne ein solches die Exegese und Analyse historischer und religiöser Texte kaum möglich wäre. Praktische esoterische Anwendungen als Orakeltechnik unter dem Begriff "Numerologie" sind sozial- und kulturwissenschaftlich nur hinsichtlich ihrer sozialen und psychologischen Auswirkungen auf das Individuum und die Gesellschaft von wissenschaftlichem Interesse. Naturwissenschaften. Aus naturwissenschaftlicher Sicht sind zahlensymbolische (numerologische) Annahmen zu esoterischen Zwecken (bspw. Wahrsagungen, okkulte Erkenntnisse) schlicht falsch und unstrittig dem Bereich des Aberglaubens zuzuordnen. Numerologische Verfahren zur Wahrsagung sind, wie alle okkulten Zukunftsvorhersagen, naturwissenschaftlich generell als Irrglaube zu werten. Auch in esoterischen Kreisen vorkommende Behauptungen, symbolische Zahlenverhältnisse würden Naturgegebenheiten getreu abbilden, sind wissenschaftlich unhaltbar. Meist entziehen sich aber solche Aussagen wegen mangelnder Präzision und unterschiedlicher Interpretierbarkeit einer wissenschaftlichen Falsifikation. Auch Hypothesen, bei denen archäologische Befunde auf unseriöse Weise mit astrophysikalischen und geophysikalischen Gegebenheiten in Verbindung gebracht werden, woraus Schlüsse auf eine angebliche verborgene Zahlensymbolik in Bauwerken wie der Cheops-Pyramide gezogen werden, gelten als unwissenschaftlich. Zahlensymbolik in der Bibel. Nach biblischer Vorstellung hat der Schöpfer Sonne und Mond zur „Herrschaft“ über Tag und Nacht eingesetzt (Gen 1,17f) und in seiner "Weisheit" „alles nach Maß, Zahl und Gewicht geordnet“ (Weish 11,20). Zahlensymbolische Deutungsansätze wie die von Friedrich Weinreb folgern hieraus, die Bibel sei ebenso wie der Kosmos von Zahlenverhältnissen bestimmt. Aleph und Jod: 1 und 10. Die zahlensymbolische Deutung der Bibel beruht wesentlich auf den Zahlenwerten der 22 Buchstaben des hebräischen Alphabets, die im Hebräischen zugleich als Zahlzeichen genutzt werden. Dieser Wert entspricht dem von 1 bis 22 als Ordinalzahl oder von 1 bis 9, 10 bis 90 und 100 bis 400 als so genanntem „äußerem Wert“; der „volle Wert“ besteht in der Summe des äußeren Wertes der ausgeschriebenen Buchstabenzahlen. So hat zum Beispiel "Aleph" (1-30-80) den äußeren Wert 1 und den vollen Wert 111 als Summe von 1 (Aleph), 30 (Lamed) und 80 (Peh). Als Ursprung und Urkeim der Buchstaben wie der Zahlen gilt der kleinste Buchstabe "Jod" mit dem Zahlenwert Zehn. Dieses Jod ist im Aleph (א) doppelt enthalten: als Jod oben und als unteres Jod, verbunden durch eine Waw (= 6 sowie ‚und’ als Verbindung von Himmel und Erde). Das obere Jod repräsentiert den Schöpfer, das um 180° gedrehte untere Jod den am 6. Schöpfungstag (Waw) als Verbindung von Himmel und Erde geschaffenen Menschen, gespalten in 5 und 5, seine rechte, innere, männliche (‚Himmel’) und seine linke, äußere, weibliche Seite (‚Erde’). Der Mensch wird als letztes Geschöpf geschaffen „in Gottes Bild, in Gottes Gleichnis, mit der ‚Eins’ auch schon in sich, Mann und Frau als ein Wesen“, mit dem wieder alles Geschaffene zur Einheit zurückkehren sollte: „So schuf Gott die Zehn auch unten, wie dies in den ersten zehn Schöpfungsworten der ersten Schöpfungsgeschichte zum Ausdruck kommt. Und so stand der Mensch also auch unten, mit allem um sich herum, gegenüber der Zehn oben.“ Die ungerade Zahl 5 hat also hier eine doppelte Bedeutung, sie kann ‚männlich’ (himmlisch) oder ‚weiblich’ (irdisch) sein. Mit dem Bund der Beschneidung erhalten Abram und Sarai jeweils den Buchstaben He (= 5) in ihren Namen in der Mitte und am Ende eingefügt: aus Abram wird so Abraham, aus Sarai wird Sarah (Gen 17,5.15). Ihre gemeinsame Frucht als ‚Sohn der Verheißung’ ist dann Jizchak (Isaak) mit Jod (10) am Anfang des Namens. Die beiden eingefügten He entsprechen zugleich den beiden He im Gottesnamen, dem Tetragramm JHWH, in Zahlen 10-5-6-5, zu lesen als 10 = 5 ‚und’ 5. Zentrale Bedeutung der Zahl 5. Die Zahl des Namens Abram (1-2-200-40 = 243) wird durch Einfügung des He oder der 5 auf 248 erhöht. Mit dieser Zahl wird in der jüdischen Überlieferung „die Zahl der Teile des menschlichen Skeletts angegeben, dessen also, was den Menschen durch diese Welt trägt“ (auch der Lastenträger ‚Esel’, "chamor", 8-40-200, der in der Bibel den menschlichen Körper symbolisiert, hat diesen Wert 248, ebenso "chemer" = ‚Lehm’, woraus in der Bibel der Körper gebildet wird). Außerdem ist 248 „die Zahl der ‚positiven’ Taten, die der Mensch tun müsste, um seine Existenz in dieser Welt zu bauen“; dem stehen 365 Dinge gegenüber, die zu meiden sind: „Die 248 positiven Taten, die Aktivitäten, werden ‚männliche Seite’ genannt und sind im Körper im Skelett, das trägt und Bewegung ermöglicht, während die 365 negativen Taten das Passive, das ‚Weibliche’, darstellen, das im Körper in der ‚Fleisch’-Seite ausgedrückt wird, die ja auch kam, um den Platz der Frau auszufüllen (Gen 2,21).“ Die erste biblische Schöpfungserzählung wird in Gen 2,3 abgeschlossen mit der Wendung ‚da diese geschaffen wurden’, hebr. "behibaram", 2-5-2-200-1-40. Das sind dieselben Wort-/Zahlkomponenten wie bei Abraham, nur in anderer Reihenfolge: „Der neue Name Abraham war schon in der Struktur dieses Wortes ‚behibaram’ enthalten, womit die Schöpfung von Himmel und Erde ausgedrückt wird, und zwar schon so, wie er dann zustande kommen sollte. Erst ohne die 5, dann mit der 5, darum mit dieser kleinen He, der erst nur im Keim anwesenden He darin.“ „Der besondere Charakter dieser 5 an dieser Stelle bewirkt nun, dass diese Passage [Gen 2,3] in der Überlieferung gelesen wird als ‚mit der 5 schuf er sie’“ (die Welt). Die irdisch-materielle Welt und Zeit wird aber durch die Zahl 4 (40, 400) ausgedrückt (vgl. die 4 Mondphasen): „Die Zahl Fünf ist dann bereits von anderer Ordnung“, nämlich Zahl des Geistes und des Jenseitigen. Um die 5 hier auszudrücken, bedarf es des ‚Bundes’ als Verbindung der ‚weiblichen’ 4 (Welt, Nacht) mit der ‚männlichen’ 1 (Gott, Sonne). Daraus ergibt sich die für die Bibel zentrale Bedeutung der Zahl 5 sowie dann auch der Zahlen 50 und 500 (s.u.). Auch im alten China hat die 5 die zentrale Stellung unter den neun Zahl-Archetypen, so insbesondere in den ‚magischen’ Zahlenquadraten. Im Buddhismus verkörpert der „fünfte Buddha“ eine „Synthese und Transzendenz“, ein „Transzendieren Ich-bezogener Haltungen“; der Weg führt über die in den vier Elementen symbolisierte "Libido", die der ‚Verwandlung’ bedarf. Das grundlegende 1–4-Prinzip: Symbol des Bundes. Das Verhältnis Gott – Welt wird zahlensymbolisch durch das 1–4-Prinzip ausgedrückt: „Die Welt wurde tatsächlich mit der 5 geschaffen, als Eins [und auf Einheit hin], sie hat dies schon in sich. Die 1–4 ist in der Schöpfung eigentlich schon die 5. Nur ist das noch verborgen, es kann noch nicht recht zum Ausdruck kommen.“ Die verborgene Einheit der beiden Seiten der Schöpfung zeigt sich in den beiden Bäumen, die gemeinsam in der einen ‚Mitte’ des Garten Eden stehen: dem Baum des Lebens (= 1) und dem Baum der Erkenntnis von Gut und Böse (= 4). Sodann zeigt sie sich im Namen Adam, hebr. a-d-m = 1-4-40, in den vier Flüssen aus dem einen Strom (Gen 2,10), in der Gestalt des Menschen (1 Kopf, vier Gliedmaßen), in seiner Hand (ein opponierbarer Daumen, vier Finger), im Verhältnis von Atem (1) und Herzschlägen (4) sowie im Atem selbst (ein Teil Sauerstoff, vier Teile Stickstoff): „Der Mensch braucht zum Leben die Eins aus der Fünf. Im Wort der Bibel zählt der ‚Baum des Lebens’ genau Eins zur Vier vom ‚Baum des Wissens’.“ Der Kern der Bibel, die Thora, hat von daher fünf Bücher im Verhältnis 1 (Genesis) zu 4 (die anderen vier Bücher Mose). Auch der Begriff Wahrheit, "emeth", 1-40-400, drückt dieses 1–4-Prinzip aus (ohne die 1 bleibt ‚meth’ = Tod). Wie die 5 schon die jenseitige Einheit anzeigt, so auch die 50 (als Überstieg über die 49 = 7² der 7-Tage-Schöpfung): „Dass mit der 50 eine neue Welt beginnt, können wir durch die ganze Bibel verfolgen“ (s.u. fünfzig). Die 500 (400 + 100) drückt das 1–4-Prinzip in der Zukunft als Vollendung der Welt aus. 500 ist die Zahl der Auferstehung (vgl. die 500 Auferstehungszeugen in 1 Kor 15,6) und der Außenmaße des Neuen Tempels analog zum Leib der Auferstehung (Ez 42,20; vgl. Joh 2,20-22). „Es gibt keinen Buchstaben für die 500. (…) Die 500 als Maß gibt also an, dass man diesen Baum des Lebens in dieser Welt, die mit der 400 [dem ursprünglich kreuzförmigen Taw] enden muss, nicht wird umfassen können. (…) Doch wird diese 500 wohl einmal zustandekommen. Das ist es, was die Propheten verkünden, aber nicht für die nahe Zukunft, nicht für diese Welt. Die 500 wird zustandekommen, wenn die 300 des Mannes [als Geist-Prinzip] und die 400 der Frau [als Materie-Prinzip] sich selbst erfüllt haben und zu der Einheit zusammengewachsen sind, die das ‚Kind’ hervorbringt, wenn also [nach dem Satz des Pythagoras] die 300² + 400² die 500² ergibt.“ Die Zahlen 300 und 500. In der biblischen Zahlensymbolik sind so die Zahlen 100 (Kof) und 300 (Schin) gleichsam austauschbar. 300 ist der Zahlenwert vom Geist Gottes: "ruach elohim" (200-6-8 1-30-5-10-40; vgl. Gen 1,2). 300 und 400 oder Schin und Taw bilden den Namen "Scheth" jenes Sohnes, den Adam anstelle des erschlagenen Abel zeugt – als ‚Grundlage aller Generationen’ (Gen 4,25; 5,3). Dieselbe Grundlage zeigt sich im Grundstein der Schöpfung "Schethi-jah" (Jah ist Kurzform des Gottesnamens). Die Verbindung der beiden Schöpfungsprinzipien geschieht im Bund und nach dem [Sündenfall] im Opfer (als ‚Erhöhung’, griech. ana-phora) im Tempel, beginnend mit der Beschneidung am ‚8. Tag’ (als Überstieg über die 7-Tage-Schöpfung analog zum 50. Tag). „Der neue Mensch, der des achten Tages, ist schon durch sein Kommen zur ‚Einswerdung’ in dieser Welt des siebten Tages von der verdunkelnden Umhüllung des Körperlichen befreit.“ Der Schöpferauftrag „Seid fruchtbar und mehret euch“ (Gen 1,28) zielt nicht auf eine möglichst große irdische Fruchtbarkeit, sondern auf die Fruchtbarkeit im Geist als Einswerden mit Gott (vgl. die ‚9’ oder 3² Früchte des Geistes in Gal 5,22f). Hebräisch heißt der Schöpferauftrag „"pru urebu", 80-200-6 und 6-200-26, Totalwert 500“. Schöpfung bedeutet biblisch ein Heraustreten aus der Einheit Gottes im ‚Zweimachen’, aber auf die Einswerdung und das Einssein mit Gott hin (‚erschaffen’ ist hebr. "bara", 2-200-1). Die Schöpfung endet deshalb nicht nach sechs (2 x 3) Tagen, sondern führt in den 7. Tag (Sabbat), der schon die Einheit des jenseitigen ewigen 8. Tages der Auferstehung antizipiert. Die Acht ist 2³: die Zweiheit der Welt erhöht und verklärt in der 3. Geistpotenz und so „das Ziel der Zweiheit“ der Welt. Der 6., 7. und 8. Tag oder Vergangenheit, Gegenwart und Zukunft bilden in ihrer Einheit das Triduum Sacrum als Mitte des Kirchenjahres. Biblische Warnungen vor Missbrauch der Zahlensymbolik. Den biblischen Erzählungen liegen somit bestimmte Zahlen-Proportionen (‚Logoi’, s.o.) und Strukturen zugrunde, wodurch sie erst verständlich werden. Friedrich Weinreb spricht von einem System, das so klar und eindeutig ist, dass sich jegliches „Jonglieren mit Zahlen“ verbietet: „Jeder Umgang mit Zahlen muss von einem eindeutigen Prinzip ausgehen, und dieses Prinzip darf niemals seine Gültigkeit verlieren. Wenn man Zahlen nur so addiert, subtrahiert oder multipliziert, um ein bestimmtes Ergebnis zu erzielen, ist dies nichts anderes als Betrug oder extreme Dummheit.“ Vor solchem Missbrauch warnt auch schon Bischof Irenäus von Lyon im Hinblick auf gnostische und häretische Kreise, die im 1. und 2. Jahrhundert ausgiebig von der Zahlensymbolik Gebrauch gemacht haben: Die Zahlensymbolik „ist nämlich ein unsicheres Verfahren, weil sie (sc. die Zahlen usw.) vielfältig und wechselhaft sind und weil jedes Argument, das sich heute jemand ausdenkt, Zeugnisses aus ihnen beziehen kann, die der Wahrheit widersprechen, denn sie können auf alles mögliche angewendet werden. Vielmehr muss man diese Zahlen und die geschaffenen Dinge nach der zugrundeliegenden Beweisführung der Wahrheit ausrichten. Denn die ‚Lehre’ ergibt sich nicht aus den Zahlen, sondern die Zahlen aus der Lehre, und Gott ist nicht aus der Schöpfung, sondern die Schöpfung aus Gott abzuleiten.“ Irenäus erteilt damit der Zahlensymbolik aber keine generelle Absage. So besteht er darauf, dass es genau vier Evangelien sein müssen: „Da die Welt, in der wir leben, sich in vier Gegenden teilt und weil es vier Hauptwindrichtungen gibt, die Kirche aber auf der ganzen Erde verbreitet ist, Säule und Stütze (vgl. 1 Tim 3,15) der Kirche das Evangelium und der Geist des Lebens ist …, da leuchtet es ein, dass der Erbauer des Alls, der Logos, ‚der auf den Kerubim thront’ (Ps 80,2; LXX Ps 79,2) und ‚das All zusammenhält’ (Weish 1,7), uns bei seinem Erscheinen vor den Menschen das Evangelium in vierfacher Gestalt gab, aber zusammengehalten vom einen Geist.“ Im Grunde wendet Irenäus hier das biblische 1–4-Prinzip an; doch scheint er es als solches nicht zu kennen. Denn bei der Zahl der Bünde (mit Adam, Noah, Mose und Jesus) rekurriert er auf die Zahl 4 (den Bund mit Abraham lässt er aus), während richtigerweise von fünf Bünden die Rede sein muss; denn derjenige Bund, „der den Menschen erneuert und alles in sich zusammenfasst, was vom Evangelium gilt, das die Menschen erhebt und sie beflügelt zum Himmelreich“, kann nicht der vierte sein, sondern nur der fünfte als Quintessenz (vgl. die vier Weltreiche und das eine Himmelreich in Dan 2,1-49 und Dan 7,1-18). Biblische Zahlensymbolik im Einzelnen. Auf dieser Grundlage können die Zahlen auch im Einzelnen gedeutet werden, wobei die Symbolik der größeren Zahlen (Zehner und Hunderter) immer auf der Symbolik der Grundzahlen (Einer) aufbaut. Babylonien. Für altorientalische Religionen wie z. B. in Babylon haben Zahlen eine mystische Bedeutung. Bestimmte Zahlen entsprechen dem Einfluss der Gestirne und Konstellationen Ostasien. Eine zentrale Rolle spielt(e) die Zahlensymbolik auch im alten wie modernen China. Von besonderer Bedeutung sind etwa die 3 als Grundlage zahlreicher Triaden, die fünf, die acht, sowie schließlich die 12 als Determinante des Kalenders wie des Tierkreises. Die 4 () ist die Unglückszahl, weil sie im Chinesischen ähnlich wie „sterben“ und „Tod“ () klingt. Weitere Unglückszahlen sind die 7 und die 10. Daher werden die Zahlen 4, 7 und 10 in China und Japan möglichst vermieden oder ersetzt. 8 () ist durch eine Lautähnlichkeit (zu „gedeihen“, „Reichtum“) die Glückszahl. Im ostasiatischen Raum herrscht eine Interpretation, die z. B. in die dortige ganzheitliche Baubiologie gemäß der Feng-Shui-Lehre eingeflossen ist. Verwandte Themen sind hier unter anderem die auf Yin und Yang basierende Sichtweise der Welt. Bahai Religion. Bei den Bahai haben die Zahlen Neun und Neunzehn eine besondere Bedeutung. Zahlen im Märchen. In Märchen werden Zahlen als Symbole mit einer magischen Bedeutung dargestellt. Die Zahlen 3, 7 und 13 haben besonders hervorgehobene Bedeutungen, da sie den Hauptfiguren Glück oder Pech bringen. So klappt etwas erst beim dritten Versuch, wie in Rotkäppchen, oder die dreizehnte Fee spricht einen Fluch aus. So ist zum Beispiel in dem Märchen Aschenputtel von drei Kleidern und drei Abenden die Rede. Am dritten Abend verliert sie ihren Schuh, was ihr Glück bringt. Jedoch kommen auch andere Zahlen gehäuft in Märchen vor. Die 12 zum Beispiel kommt oft in Märchen vor, erhält jedoch eine eher neutrale Stellung, da am Ende eine 13te Person hinzukommt oder ähnliches. Oft werden Sprüche wiederholt, was oft 2- oder 4-mal geschieht. In Rapunzel wird zum Beispiel der Satz „Rapunzel, Rapunzel, laß dein Haar herunter“ 4-mal wiederholt. Zahlen aus Wörtern. Zur Zahlensymbolik gehört auch die Umwandlung von Wörtern in Zahlenwerte verstanden. Hierzu werden einzelnen Buchstaben Zahlenwerte zugeordnet, die dann gemäß verschiedener Rechenverfahren, die in der Regel die Bildung der Quersumme beinhalten, in Ergebniszahlen resultieren. Die Bedeutung dieser Ergebniszahlen wird aus Tabellen entnommen, die an die Bedeutungen des Tarot erinnern. Hebräisch-Griechisch-Deutsches Zahlen-Alphabet. Verfahren zur Namenszahlberechnung sind verbreitet von Cheiro und Reichstein. Ähnlich dem Tageshoroskop existieren auch Zuordnungen von Zahlenwerten zu Kalendertagen. Moderner Aberglaube. In den USA wird auch heute noch vermieden, ein 13tes Stockwerk zu benennen. Stattdessen wird es beispielsweise mit „12A“ beziffert oder gleich mit 14. Ähnlich ist es in Flugzeugen oder auf Kreuzfahrtschiffen, wo es keine 13. Sitzreihe oder kein 13. Deck gibt. Auch in Krankenhäusern wird auf ein Zimmer mit der Nummer 13 verzichtet, im Formel-1-Motorsport auf die Wagennummer 13 (nicht aber auf den 13. Startplatz). In Wellington, der Hauptstadt Neuseelands, befinden sich staatliche Büros oft im 13. Stock, weil diese nicht an Geschäftsleute vermietbar sind; diese haben offenbar Bedenken, eine solche Adresse könnte geschäftsschädigend sein. Einige Verschwörungstheoretiker messen Zahlen eine große Bedeutung zu, beispielsweise der Dreiundzwanzig. In esoterischen Zirkeln kursieren zudem Theorien zu symmetrischen Zahlen (), welches wissenschaftlich gesehen am ehesten in den Bereich der selektiven Wahrnehmung gehört. Das Weihenstephaner Bräustüberl in Freising wird von Studenten der TU München als "Hörsaal 13" bezeichnet. Am Campus Freising-Weihenstephan existiert offiziell kein Hörsaal mit der Nummer Dreizehn. OPENSTEP. OPENSTEP (in Großbuchstaben), bis Version 3.3 (1995) NeXTStep oder NeXTSTEP, war ein Betriebssystem des Unternehmens NeXT, das Steve Jobs nach seinem Weggang von Apple 1985 gegründet hatte. Es basiert auf dem Unix-ähnlichen Betriebssystem BSD in Version 4.3 und einem Mach-2.5-Kernel. Verbreitung hatte es vor allem im wissenschaftlichen, aber auch im Bankbereich, wo dank der damals ungewöhnlichen, objektorientierten Entwicklungsumgebung schnell komplexe Applikationen gebaut werden konnten. NeXT wurde 1996 von Apple aufgekauft und Steve Jobs kehrte im Sommer 1997 zu Apple als CEO zurück. OPENSTEP wurde unter dem Codenamen Rhapsody weiterentwickelt und ab 2000 als "Mac OS X", das seit 2012 nur noch OS X heißt, auf den Markt gebracht. Sein Unix-Unterbau erhielt den Namen Darwin. Konzepte. Bei NeXTStep handelt es sich um ein Microkernel-Betriebssystem, das den Mach-Mikrokernel verwendet. Auf Basis dieses Kernels ist ein gewöhnliches BSD-Unix aufgebaut. Dadurch bietet NeXTStep Funktionen wie präemptives Multitasking, Multithreading und Speicherschutz, jedoch fehlt Multiprozessorunterstützung; diese war im Mach-Kernel zwar vorgesehen, wurde aber nicht aktiviert. Zur Grafikausgabe wird Display PostScript von Adobe verwendet, dies ist die PostScript-Variante für Monitore (statt für Drucker) und ermöglicht echtes WYSIWYG. Zusammen mit Display PostScript kommt ein objektorientiertes Anwendungs-Framework zum Einsatz, das die Programmierung von grafischen Benutzeroberflächen stark vereinfacht. Objective-C wird als Standard-Programmiersprache unter NeXTStep eingesetzt und war mit ein Grund für die OO-Entwickler-Tools, die mit dem Betriebssystem mitgeliefert wurden. Als Dateisystem wird das auch bei den verschiedenen BSD-Unix-Varianten eingesetzte UFS verwendet. Die Benutzerumgebung ist standardmäßig reichhaltig ausgestattet. Es gibt einen Installer/Deinstaller, das Webster-Wörterbuch, einen leistungsfähigen Texteditor, Softwareschnittstellen für eine Fax-Einbindung, etc. NeXTStep/OPENSTEP und OpenStep. Die NeXTStep-Spezifikation wurde gemeinsam mit Sun zur OpenStep-Spezifikation erweitert, von Sun dann jedoch zugunsten von Java fallengelassen. 1993 verabschiedete sich NeXT vom Hardwaregeschäft, wurde zum reinen Softwarehersteller und entwickelte NeXTStep weiter zu OPENSTEP worin OpenStep implementiert war. „NeXTStep“ und „OPENSTEP“ (ab Version 4.0) bezeichnen dabei das Betriebssystem, während die Spezifikation, auf der auch GNUstep basiert, „OpenStep“ geschrieben wird. NeXTStep 3.1 läuft auf NeXT-Computern mit Motorolas 68030- und 68040-Prozessoren, auf Intel-Hardware, einigen PA-RISC-Workstations von HP (konkret die Workstation HP 9000 Model 712 "Gecko"), auf SPARC und zumindest im Labor auch auf PowerPC. In Version 4.0 entfällt die Unterstützung für PA-RISC und SPARC und die Variante "OPENSTEP Enterprise" lief als „Aufsatz“ auf Windows NT statt der eigenen Unix-Variante. NeXTStep/OPENSTEP und OS X. Ab Mitte der 1990er-Jahre war Apple auf der Suche nach einem Nachfolger für das damals als technisch veraltet geltende System 7, dem Betriebssystem für Macintosh-Computer, das ab Version 7.6 den Namen Mac OS trug. Die Wahl fiel schließlich auf NeXTStep der Firma NeXT – 1996 wurde das Unternehmen von Apple übernommen und ein neues Betriebssystem auf Basis von OPENSTEP entwickelt, das zunächst den Codenamen „Rhapsody“ trug. Dabei wurde das Betriebssystem nicht nur auf die PowerPC-Plattform des Macintosh portiert, es wurde auch der Unix-Unterbau von BSD4.3 auf BSD4.4-Lite aktualisiert und der Kernel von Mach 2.5 auf einen Hybrid zwischen Mach 3.0 und dem monolithischen FreeBSD-Kernel neu implementiert. Erstmals wurde der Unix-Unterbau inklusive XNU-Kernel vollständig als Open Source ausgegliedert und als eigenständiges Betriebssystem verfügbar gemacht: Darwin. Rhapsody besaß das Look and Feel des klassischen Mac OS (das Platinum-Design von Mac OS 8) und war nur als Vorschau für Entwickler veröffentlicht worden. Mit Aqua wurde jedoch ein neues Aussehen für das Nachfolgebetriebssystem von Mac OS entwickelt, das im März 2001 unter dem Namen Mac OS X erschien. Um die zeitliche Lücke zu füllen wurde 1999 ein direkt auf Rhapsody basierendes Server-Betriebssystem, das ebenfalls den Namen Mac OS X trug, nur mehr für die hauseigenen Power-Macintosh-Computer veröffentlicht – im Gegensatz zu Rhapsody, das noch auf Intel-i486- und PowerPC-Hardware lief, erschien Mac OS X Server 1.0 (Rhapsody 5.3), ebenfalls noch im Platinum-Design ohne Aqua, nur für die Power-Macintosh-Serie. Intern wurde indes weiterhin sichergestellt, dass Mac OS X portierbar blieb – der Darwin-Teil etwa lief von Anfang an neben PowerPC auch auf Intel. Bei der Umstellung von der PowerPC- auf die Intel-Architektur 2006 profitierte Apple von diesem Erbe – obwohl seit der ersten Veröffentlichung von Mac OS X nur mehr eigene Hardware unterstützt wurde, war ein Architekturwechsel auf Basis des Darwin-Betriebssystems, das wiederum direkt von Rhapsody, OPENSTEP und NeXTStep abstammt, relativ einfach möglich. Auch die Portierung auf die ARM-Architektur mit iOS ist dieser Abstammung zu verdanken. Seit 2012 heißt das Betriebssystem nur noch OS X – ohne „Mac“ im Namen, weil es mit iOS nunmehr auch auf anderen Geräten läuft. Das letzte Rhapsody-Betriebssystem, Mac OS X Server 1.2v3, trägt die interne Versionsnummer 5.6 und ist somit noch direkt von NeXTStep, bis Version 3.3, und OPENSTEP, bis Version 4.2, abgeleitet. Auch die Codenamen folgen denen von NeXTStep und OPENSTEP, z. B. „Lightning9I“ für NeXTStep 3.3 und „Titan1U“ für Rhapsody 5.1. Im Gegensatz dazu wird bei der Weiterentwicklung von Rhapsody, Mac OS X ab 10.0 und den vorangegangenen Preview- und Beta-Versionen, die Versionsnummer zu Mac OS (bis 9.2.2) in Bezug gebracht, um dessen Rolle als Mac-OS-Nachfolge zu unterstreichen. Auch die Versionsnummern von Darwin sind mit Mac OS X bzw. OS X synchronisiert. Nur der XNU-Kernel trägt eine unabhängige Versionierung, die mit der Entwicklung von Mac OS X begonnen wurde; der Kernel selbst basiert auf dem Rhapsody-Kernel, welcher wiederum aus dem OPENSTEP-Kernel entwickelt wurde. Verschiedenes. Screenshot von "WorldWideWeb", dem ersten Webbrowser, unter NeXTStep. Network WorldWide Projects. Im Rahmen der Weltausstellung Expo 2000 in Hannover wurde das Programm „Weltweite Projekte“ („Network WorldWide Projects“, NWWP) erstmals der Öffentlichkeit vorgestellt. Die Idee, mehr als 700 beispielhafte Projekte aus aller Welt zusammenzubringen und ihre Initiativen einer breiten Öffentlichkeit vorzustellen, hat sich als ein weitreichender Erfolg für die Bewegung der organisierten Zivilgesellschaft erwiesen. Projekte aus diesem Programm haben sich bereits während der EXPO zur Initiative NWWP zusammengeschlossen, um das Kapital aus Erfahrungswissen und Kommunikationsprozessen weiter auszubauen, anderen zugänglich zu machen und mit Hilfe weiterer Partner zu fördern. Damit sollen insbesondere auch Innovationen auf sozialem, gesellschaftlichem und ökologischem Gebiet weiter verbreitet und gestärkt werden. NWWP hat sich Anfang 2001 als Verein konstituiert und versteht sich als eine Nachfolgeorganisation des Programms „Weltweite Projekte“. NWWP greift den Impuls der im Rahmen der EXPO 2000 entstandenen „Global Dialogue“-Konferenzen auf und führt ihn weiter. Dadurch wurden bereits 100 international tätige Organisationen zusammengebracht mit dem Ziel, diesen selbst eine Stimme zu geben. NWWP möchte diese Organisationen weiter miteinander vernetzen, neue Partner hinzugewinnen und eine Plattform sein, auf der die handelnden Personen und deren Projekte im Mittelpunkt des Gespräches stehen. Die Vielfalt der Menschen und ihrer Konzepte sollen in einer Begegnung „von Gleich zu Gleich“ Achtung und Ausdruck finden. NWWP ist unabhängig von politischen Parteien und verfolgt ausschließlich gemeinnützige Ziele mit Schwerpunkten im Umweltschutz, in Entwicklungs-, Friedens- und Menschenrechtsfragen, bei der Überwindung von Armut sowie der Demokratisierung globaler Prozesse. Der Verein NWWP lässt sich insbesondere von dem Bemühen um eine nachhaltige Entwicklung leiten, wie es in den Grundlagen der Agenda 21 sowie in den Beschlüssen der großen Konferenzen der letzten Jahre verankert ist (wie z. B., We the People Declaration, Habitat Istanbul, Erdgipfel Rio 92). Nichtregierungsorganisation. Eine Nichtregierungsorganisation (NRO bzw. aus dem Englischen NGO) oder auch nichtstaatliche Organisation ist ein zivilgesellschaftlich zustande gekommener Interessenverband. Der englische Begriff "non-governmental organization" wurde einst von den Vereinten Nationen (UNO) eingeführt, um Vertreter der Zivilgesellschaft, die sich an den politischen Prozessen der UNO beteiligen, von den staatlichen Vertretern abzugrenzen; "non-governmental" bedeutet dabei „nichtstaatlich“ im Sinne von „staatsunabhängig“, „regierungsunabhängig“. Heute wird der Begriff von und für Vereinigungen benutzt, die sich insbesondere sozial- und umweltpolitisch engagieren, und zwar unabhängig von einer Beziehung zur UNO. Gemäß Artikel 71 der UN-Charta können Nichtregierungsorganisationen Konsultativstatus beim Wirtschafts- und Sozialrat der Vereinten Nationen (ECOSOC) erlangen, wenn sie die in der ECOSOC-Resolution 1996/31 festgelegten Kriterien erfüllen. Einerseits wird eine NRO (engl. "NGO"), die weltweit aktiv ist, als internationale Nichtregierungsorganisation (INGO) bezeichnet; andererseits wird INGO vom Europarat für die Gemeinschaft der national-tätigen NRO mit ihren europäischen Partner-NROs benutzt, die Teilnehmerstatus bei der Konferenz der internationalen Nichtregierungsorganisationen haben "(vgl. NRO-Bewerbung für einen Teilnahme-Status beim Europarat)". Begriff. Die deutsche Bezeichnung "Nichtregierungsorganisation" ist angelehnt an den englischen Ausdruck "(NGO)". Teilweise wird auch die Bezeichnung "nichtstaatliche Organisation" benutzt. Sie überträgt den angloamerikanischen Begriff "governmental" präziser; die Übersetzung für "Regierung" wäre im amerikanischen Englisch nicht "government", sondern "administration". Dennoch hat sich der Begriff "Nichtregierungsorganisation" im Deutschen weitgehend durchgesetzt, dazu die englische Abkürzung "NGO" (anstelle von "NRO"). Im Englischen werden auch folgende Begriffe verwendet: "independent sector", "volunteer sector", "civic society", "grassroots organizations" respektive "transnational social movement organizations", "private voluntary organizations", "self-help organizations", häufig auch "non-state actors (NSAs)". Letzterer Begriff ist allerdings weiter gefasst und umschließt neben NGOs auch transnationale Unternehmen (TNCs) sowie z. B. kriminelle Vereinigungen. In der britischen Forschung wird NGO auch in Verbindung gebracht mit der "global civil society", einer globalen Zivilgesellschaft, z. B. bei Mary Kaldor. Im herkömmlichen deutschen Sprachgebrauch sind "Nichtregierungsorganisationen" einfach "Verbände". Im Deutschen wird teils auch vom "Dritten Sektor" gesprochen. Dieser Begriff geht auf den US-amerikanischen Soziologen Amitai Etzioni zurück. Strukturen. Viele nichtstaatliche Organisationen fordern von der Europäischen Kommission die Schaffung einer Rechtsform „Europäischer Verein“, um so eine der Europäischen Aktiengesellschaft ähnliche gemeinschaftsweite Rechtsfähigkeit zu schaffen. Es existieren verschiedene Klassifikationssysteme für nichtstaatliche Organisationen. Das der Weltbank etwa unterscheidet zwischen operativen und beratenden Organisationen. Rechtsstellung. Der Europarat legte 1986 ein "Europäisches Übereinkommen über die Anerkennung der Rechtspersönlichkeit internationaler nichtstaatlicher Organisationen" vor (SEV-Nr.: 124, auch Konvention Nr. 124 genannt). Es trat 1991 in Kraft und die Ratifikation begann. Etwa ein Viertel der Mitgliedstaaten ist dieser Konvention zur Rechtsstellung von internationalen Nichtregierungsorganisationen bisher beigetreten, so Belgien, Frankreich, Niederlande, Österreich, Schweiz und das Vereinigte Königreich u.a. (Stand Sommer 2015) Verhaltenskodex für die Bürgerbeteiligung. In modernen Demokratien bereitet die Entfremdung der Bürger von politischen Prozessen zunehmende Sorge. Juni 2007 forderte die Konferenz der internationalen Nichtregierungsorganisationen im Europarat, einen Verhaltenskodex für die Bürgerbeteiligung auszuarbeiten – insbesondere zu konkreten Mechanismen für eine NRO-Beteiligung bei Entscheidungsprozessen und Mitwirkung der Zivilgesellschaft an der öffentlichen Politik. Das Ministerkomitee des Europarats beschloss im Oktober 2007 eine Empfehlung zur Rechtsstellung von nicht-staatlichen Organisationen und beschrieb die Struktur einer NRO und ihren Stand in der Demokratie. 2009 legte die europäische INGO-Konferenz ein anwenderfreundliches, strukturiertes und pragmatisches Instrument für Entscheidungsträger und eine organisierte Zivilgesellschaft, einschließlich NRO vor, um die Beteiligung der Bürger am demokratischen Prozess auf lokaler, regionaler und nationaler Ebene zu stärken. Der Verhaltenskodex soll auf europäischer Ebene eine Reihe von allgemeinen Grundsätzen, Richtlinien, Werkzeugen und Mechanismen für die Bürgerbeteiligung beim politischen Entscheidungsprozess definieren. Kreislauf eines politischen Prozesses. In jeder Phase des Kreislaufs eines politischen Entscheidungsprozesses können Bürger mitwirken, so eine Empfehlung der Konferenz der nicht-staatlichen internationalen Organisationen im Europarat. Beim Agenda-Setting legt die organisierte Bürgerschaft gemeinsam mit Politik und Verwaltung ein politisches Schwerpunktthema fest. Durch formelle Bürgerbeteiligung entscheiden die Bürger nach der Ausarbeitung, was umgesetzt werden soll und wirken dabei mit. In der Überwachungsphase der Durchführung von Beschlüssen ergeben sich Gründe zur Neuformulierung der Agenda "(vgl. PDCA-Zyklus)". Matrix der Bürgerbeteiligung im politischen Prozess. Bei den Schritten eines politischen Entscheidungsprozesses können die NROs auf verschiedenen Beteiligungsebenen Einfluss nehmen. Die Konferenz der internationalen nichtstaatlichen Organisationen im Europarat empfiehlt eine Matrix, in der für jede Stufe die Art und Weise der Beteiligung von NROs dargestellt wird. So strukturieren bisher angewandte Methoden der Bürgerbeteiligung zumeist die Beratung (vgl. Konsultation) oder den Dialog in einer frühen Phase des politischen Prozesses. Mitentscheidungen durch die organisierte Bürgerschaft oder die Zusammenarbeit in gemeinsamen Gremien und Komitees von Bürgern und Politik/Verwaltung - wie von der europäischen INGO-Konferenz in der Matrix dargelegt und beschlossen, sind Ziele einer zukünftigen Entwicklung "(vgl. Spektrum der Bürgerbeteiligung)". Finanzierung. Größere Nichtregierungsorganisationen weisen mitunter Jahresbudgets von mehreren Millionen Euro auf. Der Haushalt der Human Rights Watch etwa umfasste 2003 21,7 Mio. US-Dollar. Haupteinnahmequellen sind neben den Mitgliedsbeiträgen vor allem auch Spenden, die Erlöse aus dem Verkauf von Waren und Dienstleistungen sowie staatliche Zuwendungen. Anders als der Begriff nahelegt, hängen aber auch viele Nichtregierungsorganisationen in erheblichem Maße von staatlichen Mitteln ab. So wird etwa das 162 Mio. US-Dollar umfassende Budget der Nothilfe- und Entwicklungsorganisation Oxfam zu einem Viertel aus Mitteln des Vereinigten Königreichs sowie der Europäischen Union finanziert. Weiterhin werden Nichtregierungsorganisationen auch betrieben, um inoffiziell Einfluss auf die Politik und öffentliche Meinung in anderen Ländern zu nehmen. So hat die russische Regierung den USA mehrfach vorgeworfen, etwa die Aufstände in der Ukraine (Orange Revolution) und Georgien (Rosenrevolution) massiv finanziell zu fördern und hat mit dieser Begründung im Jahre 2005 selbst strengere Gesetze für NGOs im eigenen Land erlassen. September 2003. Weblinks. 2003 März 2002. Weblinks. 2002 April 2002. Weblinks. 2002 Mai 2002. Weblinks. 2002 Juni 2002. Mittwoch, 5. Juni. a>. Außerdem zu sehen sind zwei Fäuste und zwei Gewehre Weblinks. 2002 Juli 2002. Weblinks. 2002 Nerva. Marcus Cocceius Nerva (* 8. November 30 in Narnia in Umbrien; † 27. Januar 98 in Rom) war als Nachfolger Domitians von 96 bis 98 römischer Kaiser. Karriere bis 96. Nerva entstammte wie Vespasian, der Gründer der flavischen Dynastie, der italischen Nobilität, nicht wie dessen Vorgänger der römischen. Seine Familie stammte aus der nördlich von Rom gelegenen etrurischen Stadt Narni. Sein Großvater und Vater waren bedeutende Juristen mit engem Kontakt zum julisch-claudischen Kaiserhaus. Ein Onkel hatte Rubellia Bassa, die Tochter der Iulia Livia und Urenkelin des Tiberius, geheiratet. Büste von Kaiser Nerva im späten 1. Jahrhundert in Chalcedon aus der privaten Sammlung. Als erste Stufen von Nervas "cursus honorum" lassen sich das Priesteramt eines "salius Palatinus" nachweisen, ein Kommando über eine Reiterschwadron, das Amt des "praefectus urbi" während der "feriae Latinae" und die Quästur (wohl als "quaestor Augusti"). Im Jahr 65 war er an der Aufdeckung der pisonischen Verschwörung beteiligt, eines Mordkomplottes von Senatoren gegen Kaiser Nero. Gemeinsam mit dem Prätorianerpräfekten Gaius Ofonius Tigellinus und dem Konsular Publius Petronius Turpilianus erhielt er dafür die "ornamenta triumphalia", also alle Ehrungen eines Triumphators bis auf den Triumphzug selbst, der seit Augustus den Kaisern vorbehalten war. Statuen von ihm und Tigellinus wurden im kaiserlichen Palast aufgestellt – für Personen, die nicht der kaiserlichen Familie angehörten, eine ganz außergewöhnliche Ehre. Eine weitere Ehrenstatue Nervas wurde auf dem Forum Romanum aufgestellt. Im Jahr 66 erreichte Nerva die Prätur. Auch nach Neros Ermordung konnte er unter den flavischen Kaisern eine einflussreiche Stellung behaupten. Das Konsulat bekleidete er zweimal: gemeinsam mit Vespasian im Jahr 71 und mit Domitian im Jahr 90. Kaiser. Nach der Ermordung Domitians 96 wurde der angesehene Jurist mit Unterstützung der Verschwörer vom Senat am 18. September 96 zu dessen Nachfolger erwählt, weil er schon älter und zudem kinderlos war. Als Antwort auf Domitians Terrorherrschaft ging Nerva zu einer neuen Haltung über und verband das Prinzipat mit der Freiheit "(principatum ac libertatem)". Zunächst wurde über Domitian die "damnatio memoriae" verhängt. Dann ließ Nerva diejenigen frei, die wegen Verrats im Gefängnis waren, verbot weitere Anklagen wegen Verrats, verbot die Majestätsprozesse und gab viel von dem konfiszierten Eigentum zurück. Die Senatoren wurden der kaiserlichen Gerichtsbarkeit entzogen und unterlagen nur der des Senats. Im Senat wurde die geheime Abstimmung eingeführt. Darüber hinaus schaffte er unentgeltliche Requirierungen in Italien für die staatliche Post ab. Durch große Sparsamkeit gelang es ihm, die zerrütteten Staatsfinanzen zu sanieren, wofür er auch sein eigenes Vermögen opferte. Seine mildtätige und besonnene Regierung zeigte sich u. a. in der Einrichtung staatlicher Alimentarfonds, die hilfsbedürftigen Kindern Unterhalt und Ausbildung ermöglichten. An notleidende römische Bürger wurde während seiner Regentschaft Land im Wert von 60 Millionen Sesterzen verteilt. Nerva ließ den von Domitian begonnenen Bau eines neuen Forums, das das alte Forum Romanum mit den Kaiserforen verbinden sollte, fertigstellen ("forum transitorium" oder Nervaforum). Er bestellte Sextus Iulius Frontinus zum "curator aquarum" und ernannte ihn 98 zum Konsul. Auch der spätere Historiker Tacitus erlangte unter seiner Regierung ein Konsulat. Mitte 97 meuterte die Prätorianergarde, die er nicht wie seine Vorgänger mit üppigen Geldgeschenken überhäuft hatte. Nerva adoptierte daraufhin am 27. Oktober 97 den aus Spanien stammenden Trajan, einen Kommandeur der Armeen an der germanischen Grenze, der bei den Soldaten großes Ansehen und Rückhalt genoss. Damit begründete er das Adoptivkaisertum („Zeitalter der Guten Kaiser“), das jedoch entgegen früherer Anschauung nicht mit einer bewussten Abkehr vom dynastischen Prinzip und aus der schlechten Erfahrung, die Rom mit manchem unzulänglichen dynastischen Nachfolger erleiden musste, sondern dem Faktum kaiserlicher Kinderlosigkeit geschuldet war. Am 1. Januar 98 erlitt Nerva während einer Privataudienz einen Schlaganfall und starb drei Wochen später in seiner Villa in den Gärten des Sallust. Er war der letzte römische Kaiser, dessen Asche im Mausoleum des Augustus auf dem Marsfeld beigesetzt wurde. Sein vollständiger Titel zum Zeitpunkt seines Todes war "Imperator Nerva Caesar Augustus Germanicus, Pontifex maximus, Tribuniciae potestatis III, Consul IV, Imperator II, Pater patriae". Naturschutzorganisation. Eine Naturschutzorganisation ist ein Zusammenschluss von Personen (meist als Verein) mit dem Ziel, die belebte Natur oder spezielle Bereiche zu schützen. Darunter fallen alle Organisationen, die sich im weitesten Sinne um Schutz und Erhaltung der Landschaft, um Schutz, Hege und Pflege von Tier- oder Pflanzenarten oder auch von Schutzgebieten und Biotopen kümmern. Es gibt zum einen Vereine, die einen Schwerpunkt haben, den Schutz einer Art oder eines Schutzgebiets betreiben und oft nur mit wenigen, engagierten Spezialisten agieren, so die Fischerei- und Jagdverbände. Zum anderen gibt es die Universalisten wie NABU oder BUND, die überregional tätig sind. Diese Verbände werden in Deutschland nach Bundesnaturschutzgesetz und entsprechenden Bestimmungen im Landesnaturschutzgesetz des jeweiligen Bundeslandes als "Naturschutzverband" anerkannt und damit anhörungsberechtigt vor allem bei der Vorbereitung von Planfeststellungsverfahren, Flächennutzungsplänen oder Bauleitplänen. Aufgrund der früheren Anerkennungsgrundlage BNatSchG werden die langjährig anerkannten Verbände traditionell immer noch „29er Verbände“ genannt. Im aktuellen Naturschutzrecht gibt es eine Überleitungsklausel in BNatSchG. Manche Verbände sind neben dem Naturschutz auch im Bereich Umweltschutz aktiv, z. B. der BUND oder die GNOR e.V. Im Mai 2011 urteilte der EuGH, dass Umweltverbände auch weitgehender als bisher vor den Gerichten klagen dürfen (sog. Verbandsklage). Wirtschaftsverbände fürchteten eine Klagewelle, während der Umweltausschuss des Bundesrates ein Jahr später eine rückläufige Zahl von Umweltklagen konstatierte und den Umweltverbänden eine besondere Sorgfalt beim Umgang mit Verbandsklagen zusprach. Österreich. In Österreich wird ein Naturschutzanwalt von Naturschutzorganisationen gewählt oder vom Land bestellt. Diese Vereinigungen müssen laut Satzung den Naturschutz als Ziel oder als Schwerpunkt der Arbeit haben, möglichst flächendeckend tätig sein und eine Mindestzahl von Mitgliedern haben. Siehe auch. Artenschutz, Naturschutz, Tierschutz, Umweltschutz, Umweltschutzorganisation Neues Testament. Das Neue Testament, abgekürzt NT, ist eine Sammlung von 27 Schriften des Urchristentums in griechischer Sprache, die Jesus Christus als den zur Rettung Israels und des Kosmos gekommenen Messias und Sohn Gottes verkünden. Diese neutestamentlichen Schriften beziehen sich oft auf das Alte Testament, die heiligen Schriften der Juden. Die Schriften des Alten und Neuen Testaments bilden insgesamt die Bibel; diese wird von allen Richtungen des Christentums als Wort Gottes und Grundlage des Glaubens betrachtet. Der Begriff "Testament" ist abgeleitet von lat. "testamentum"; das ist eine Übersetzung von hebr. בְּרִית (berît) bzw. griech. διαθήκη (diathēkē), zu deutsch „Bund“. Anstelle vom „Neuen Testament“ wird daher gelegentlich auch von den „Schriften des Neuen Bundes“ gesprochen. Die Schriften des NT lassen sich in vier Textgattungen unterscheiden: Erstens die vier Evangelien, die Jesu Leben, Sterben und Auferstehen erzählend entfalten, zweitens die Apostelgeschichte, drittens 21 Briefe an christliche Gemeinden und Mitarbeiter sowie viertens eine Apokalypse, die Johannesoffenbarung. Insgesamt enthält das NT rund 140.000 Wörter. Begriff. Der Begriff entwickelte sich aus dem griechischen „καινὴ διαθήκη“ (kainē diathēkē), was „neuer Bund“ heißt und ins Lateinische mit „Novum Testamentum“ übersetzt wurde. Der Bund zwischen Gott und seinem Volk Israel ist ein zentrales Thema des Tanach. Nach dem Lukasevangelium verwendet Jesus Christus den Ausdruck beim letzten Abendmahl. Der Begriff erscheint dort wahrscheinlich in Anlehnung an das Wort des Propheten Jeremia: „Seht, es werden Tage kommen – Spruch des Herrn –, in denen ich mit dem Haus Israel und dem Haus Juda einen neuen Bund schließen werde.“ Die Schriften des Neuen Testaments wurden in griechischer Sprache aufgezeichnet („Novum Testamentum Graece“). Dabei handelt es sich um das sogenannte Koine-Griechisch. Die Semitismen der eingeflossenen griechischen Sprache der biblischen Septuaginta nennt man Bibelgriechisch. Manchmal wird diskutiert, ob Teile des Neuen Testaments ursprünglich in Aramäisch verfasst seien, der Sprache Jesu und der ersten Christen. Es gibt für solche Annahmen jedoch keine antiken Textzeugnisse; alle neutestamentlichen Handschriften, auch die ältesten, sind in griechischer Sprache verfasst. In dieser Übersetzung wird der griechische Begriff διαθήκη zunächst als „Bund“, dann als „Testament“ wiedergegeben. Die Übersetzung reflektiert so die zwei Bedeutungsebenen des christlichen Begriffs. Jesus wird in den Schriften des Neuen Testaments als praktizierender und beschnittener Jude dargestellt, der die Gebote und die Weisheiten des Tanach lehrt. Der Neue Bund beginnt somit nach der Erzählung von Tod und Auferstehung Jesu Christi zum Ende der christlichen Evangelien. Die Beziehung von „Altem“ zu „Neuem“ Bund bzw. Testament ist ein wichtiges Thema im christlich-jüdischen Dialog. Von jüdischer Seite werden die Begriffe teilweise als wertend empfunden. Daher wird das Alte Testament auch als „Erstes Testament“ bezeichnet, um dem Verständnis der Ablösung des Alten Testaments durch das Neue entgegenzuwirken. Eine analoge Bezeichnung des Neuen Testaments als „Zweites Testament“ erfolgt jedoch eher selten. Die vier Evangelien. Das NT beginnt mit den vier kanonischen Evangelien nach Matthäus, Markus, Lukas und Johannes. Obwohl die Evangelien am Anfang moderner Bibelausgaben stehen, sind sie doch erst nach den Paulusbriefen entstanden. Inhaltlich wollen sie der guten Nachricht (εὐαγγέλιον, Evangelium) von der Versöhnung der Menschen mit Gott in Jesus Christus Ausdruck geben. Dazu sammeln sie Reden und Begebenheiten hauptsächlich aus der Zeitspanne vom ersten öffentlichen Auftreten Jesu bis zu seinem Tod und der Auferstehung. Die Darstellung der letzten Tage bis zu seiner Kreuzigung ist besonders ausführlich. Enthalten sind viele Sprüche und zusammengefasste Reden sowie Wundergeschichten, theologische Deutungen, Parabeln und Dialoge zwischen Jesus, seinen Anhängern und seinen Gegnern und Geschichten über seine Auferstehung von den Toten. Die Apostelgeschichte. Die Apostelgeschichte des Lukas (auch „Acta Apostolorum“) ist die Fortsetzung des Evangeliums nach Lukas vom selben Verfasser. Zentrale Punkte sind das Pfingstereignis und die Aussendung der Jünger. Die „Taten der Apostel“, wie der griechische Titel übersetzt lautet, enthalten Geschichten über die ersten Märtyrer Stephanus und Jakobus den Gerechten, einen Bruder Jesu. Darüber hinaus vermittelt der Text Informationen über die Urgemeinde in Jerusalem (Jerusalemer Urgemeinde) und über das Leben der ersten Christen. Die zweite Hälfte beschäftigt sich hauptsächlich mit dem Apostel Paulus. Berichtet wird seine Anfangszeit als Verfolger der Christengemeinde, seine Bekehrung und seine Missionsarbeit in Kleinasien und Europa. Die Apostelgeschichte endet mit der letzten Station des Paulus in Rom. Das Ende des Paulus wird vorausgesetzt, jedoch nicht mitgeteilt. Die handschriftliche Überlieferung kombinierte die Apostelgeschichte häufig mit den katholischen Briefen zu einem gemeinsamen Textcorpus. Die Briefe. Von den 27 Schriften des NT sind 21 selbständige Briefe, die üblicherweise nach tatsächlicher bzw. vermeintlicher Verfasserschaft, Funktion oder Adressatenkreis klassifiziert werden. Die Paulusbriefe. Im Neuen Testament finden sich eine Reihe von Schriften, die als Verfasser den Apostel Paulus angeben, die Paulusbriefe (Corpus Paulinum). Mindestens sieben dieser Briefe gelten als mit Sicherheit von Paulus verfasst, für die anderen wird mit unterschiedlich gewichtigen Gründen eine spätere Verfasserschaft von Schülern des Paulus angenommen. Zu den „echten“ Paulusbriefen zählen der Römerbrief, beide Korintherbriefe, der Galaterbrief, Philipperbrief, erster Thessalonicherbrief und der Brief an Philemon. Als „Deuteropaulinen“ gelten der zweite Thessalonicherbrief, Epheserbrief, beide Briefe an Timotheus und der Brief an Titus. Die paulinische Verfasserschaft des Kolosserbriefes ist umstritten. Die protopaulinischen Briefe sind die frühesten Schriften des Neuen Testaments. Oftmals ordnet man die Briefe in Kategorien ein. Die „Gefangenschaftsbriefe“ wurden nach den Angaben in den Briefen des Paulus aus dem Gefängnis geschrieben. Die drei sogenannten Pastoralbriefe geben Antworten auf Leitungs- und Gemeindefragen. Inhaltlich befassen sich die Paulusbriefe mit theologischen Fragen, mit den Zuständen in den Gemeinden, mit ethischen Fragen, mit inhaltlichen Differenzen der ersten christlichen Gruppen und mit der Abwehr von Irrlehren. Der Brief an die Hebräer. Der Hebräerbrief spielt eine Sonderrolle unter den Briefen des Neuen Testaments. Er nennt selbst keinen Verfasser. Die Alte Kirche nahm an, Paulus sei der Verfasser. Diese Vorstellung wurde jedoch in der modernen Bibelwissenschaft weitgehend aufgegeben. Der Verfasser ist anonym, was aber nicht bedeutet, dass der Brief inhaltlich weniger bedeutsam ist. Da der Hebräerbrief als Paulusbrief betrachtet wurde, findet er sich daher in älteren Handschriften im Corpus Paulinum integriert. Aus textkritischer Betrachtung gehört daher der Hebräerbrief nach wie vor zum Corpus Paulinum, während die darin vertretene Theologie sich in ihrer Ausrichtung deutlich von Paulus unterscheidet. Die katholischen Briefe. Die so genannten „katholischen Briefe“ sind nicht an eine bestimmte Person oder Gemeinde gerichtet, sondern an viele Christen oder an die Christenheit allgemein. Die Bezeichnung „katholisch“ bezieht sich hier nicht auf die römisch-katholische Kirche, sondern das griechische Wort "katholikos" bedeutet „allgemein, umfassend“. Die katholischen Briefe nennen Petrus oder Johannes (also die bekanntesten der zwölf Apostel) sowie Jakobus oder Judas (wohl Verwandte Jesu) als Verfasser. Die meisten Theologen halten diese Verfasserangaben jedoch für unzutreffend, und betrachten diese Briefe als Pseudepigraphen. Die Offenbarung des Johannes. Die Offenbarung des Johannes enthält die Visionen des Verfassers Johannes in Form eines Briefes. Geschichte und Kanonisierung des Neuen Testaments. Zu Beginn waren die einzelnen Schriften des Neuen Testaments in christlichen Gemeinden unabhängig voneinander im Umlauf. Eine erste Sammlung stellt vermutlich das Corpus Paulinum dar, denn es ist bekannt, dass gegen Ende des 1. Jahrhunderts paulinische Briefe zusammengefasst worden sind, um sie zu erhalten. Diese Zusammenfassungen zirkulierten in einigen Gemeinden. Aus dem zweiten bis vierten Jahrhundert sind verschiedene Zusammenstellungen der kanonischen Schriften erhalten, der Kanon Muratori sowie Kanonlisten von Irenäus, Origenes, Eusebius von Caesarea, Cyril von Jerusalem und Gregor von Nazianz. Die formale Kanonisierung des Neuen Testaments fand im vierten Jahrhundert statt. Als wichtigstes Schreiben in der Geschichte des neutestamentlichen Kanon gilt dabei der 39. Osterfestbrief des Bischofs Athanasius von Alexandria aus dem Jahr 367, der die bis heute in allen christlichen Kirchen anerkannten 27 Schriften des Neuen Testaments aufzählt und als für die Kirche verbindlich einstuft. Bestätigt wird dieses durch das Decretum Gelasianum, das außerdem bestimmte Schriften anerkennt, sie aber nicht zum Kanon zählt und andere definitiv ausscheidet. Unumstritten waren immer die vier kanonischen Evangelien, die Apostelgeschichte, die Paulusbriefe, die Pastoralbriefe und der 1. Brief des Johannes. Teilweise angezweifelt, aber schließlich anerkannt wurden der Hebräerbrief, der Brief des Jakobus, der 1. und 2. Brief des Petrus, der 2. und 3. Brief des Johannes, der Brief des Judas und die Offenbarung des Johannes. Einige Schriften wurden teilweise anerkannt, aber schließlich nicht ins Neue Testament aufgenommen: der 1. und 2. Clemensbrief, die Didache, der Barnabasbrief, der Hirte des Hermas, das Hebräerevangelium, die Offenbarung des Petrus. Die übrigen neutestamentlichen Apokryphen sind in keiner Kanonliste aufgeführt. Bedeutung. Das Neue Testament gehört zu den einflussreichsten Werken der Weltliteratur; es prägte die europäische und die amerikanische Kultur. Zahlreiche Kunst- und Musikwerke verarbeiten Motive und Texte aus dem Neuen Testament. Als Bestandteil der Bibel ist das Neue Testament die Grundlage für den christlichen Glauben in den unterschiedlichen Ausprägungen. Texte aus dem Neuen Testament werden regelmäßig im christlichen Gottesdienst gelesen und sind wesentlicher Bestandteil der Liturgie. Auch für den persönlichen Glauben der Christen spielt es eine wichtige Rolle. Neutestamentliche Wissenschaft. Neutestamentliche Fachwissenschaftler arbeiten im deutschen Sprachraum größtenteils an evangelischen und katholischen theologischen Fakultäten. Üblicherweise hat jede Theologische Fakultät mindestens einen Lehrstuhl für Neues Testament. An katholischen Fakultäten unterrichteten Gelehrte mit Priesterweihe. Wer als evangelischer Theologe zum Katholizismus konvertierte, erlitt wegen der ihm fehlenden Priesterweihe einen „Karriere-Knick“ (etwa der 1953 konvertierende Heinrich Schlier). Erst 1973 wurde Norbert Brox als „Laie“ Professor in Regensburg. Im katholischen Bereich wurden manche Priester armer Herkunft zu neutestamentlichen Forschern; im evangelischen Bereich waren die Neutestamentler oft Söhne von Pfarrern oder Lehrern. Nur ausnahmsweise wurden Neutestamentler ohne Habilitation Universitätsprofessoren. So wurde Werner Georg Kümmel 1932 mit knapp 27 Jahren zum außerordentlichen Professor an die Universität Zürich berufen. Die Verbindung mit ihrer Kirche bedeutete für die Neutestamentler eine gewisse Einschränkung in der Meinungsfreiheit. 1952 sprach die Synode der Evangelisch-Lutherischen Kirche Rudolf Bultmann das Recht ab, lutherischer Theologe zu sein; das wurde 1973 zurückgenommen. Ein anderes Beispiel ist Gerd Lüdemann, der seinen Lehrstuhl verloren hat. Die Einengung durch kirchliche Vorgaben war im katholischen Bereich noch deutlich größer, vor allem bis zum Zweiten Vatikanischen Konzil. Die ursprünglich eher konservative NT-Einleitung von Alfred Wikenhauser wurde in der 1973 von Josef Schmid überarbeiteten 6. Auflage stärker dem historisch-kritischen Trend angenähert. Neil Armstrong. Neil Alden Armstrong (* 5. August 1930 bei Wapakoneta, Ohio; † 25. August 2012 in Cincinnati, Ohio) war ein US-amerikanischer Testpilot und Astronaut. Er war Kommandant von Apollo 11, die mit Buzz Aldrin und Michael Collins zum Mond flog. Am 21. Juli 1969 betrat er als erster Mensch den Mond. Jugend und Ausbildung. Neil Armstrong kam 1930 auf einer Farm, zehn Kilometer von Wapakoneta (Ohio) entfernt gelegen, zur Welt. Sein Vater Stephen war staatlicher Rechnungsprüfer, seine Mutter Viola Engel, Tochter des deutschen Auswanderers Martin August Engel, war Hausfrau. Friedrich Kötter, einer von Armstrongs Urgroßvätern, stammte aus Ladbergen im heutigen Nordrhein-Westfalen. Seit seiner Jugend, als er Pfadfinder bei den Boy Scouts of America war, faszinierte ihn die Fliegerei. Er baute Modellflugzeuge und erwarb im Alter von 17 Jahren eine Pilotenlizenz. Nach der High School nahm er 1947 mit Hilfe eines Stipendiums der US-Marine an der Purdue University ein Studium auf, um Flugzeugingenieur zu werden. Er hatte drei Semester absolviert, als ihn die Navy im Januar 1949 zum Militärdienst einzog und nach Florida entsandte. In Pensacola wurde er zum Kampfpiloten ausgebildet. Armstrong nahm ab 1950 am Koreakrieg teil. Er gehörte dem "Fighter Squadron 51 (VF-51)" an und war mit 20 Jahren das jüngste Mitglied der Einheit, die auf dem Flugzeugträger USS Essex stationiert war. Von dort flog er mit seiner einsitzigen F9F „Panther“ insgesamt 78 Einsätze. Die meiste Zeit unternahm er Aufklärungsflüge. Am 3. September 1951 wurde sein Flugzeug im Tiefflug durch ein quer über ein tiefes Tal gespanntes Seil beschädigt. Ein Teil der Tragfläche wurde dabei abgeschnitten, so dass eine normale Landung nicht mehr möglich war. Armstrong flog zum Flugplatz von Pohang, der unter US-amerikanischer Kontrolle stand, und katapultierte sich mit dem Schleudersitz heraus. Im Frühjahr des Jahres 1952 kehrte Armstrong von seinem Kriegseinsatz in die USA zurück und verließ die Navy im August desselben Jahres. Er setzte sein Studium an der Purdue University fort und erhielt im Januar 1955 den Bachelor in Luftfahrttechnik. Mit diesem Diplom bewarb er sich als Testpilot beim National Advisory Committee for Aeronautics (NACA), dem Vorläufer der NASA. Er wurde angestellt, konnte jedoch die gewünschte Position nicht antreten. Ursprünglich hatte er sich für die High-Speed Flight Station (HSFS) auf der Edwards Air Force Base beworben. Zunächst war keine Stelle in Kalifornien frei, deshalb arbeitete er anfangs am Lewis Flight Propulsion Laboratory in Ohio. Als im Sommer 1955 eine Stelle als Testpilot frei wurde, packte er sofort die Koffer und fuhr zur HSFS nach Los Angeles. An der HSFS erprobte Armstrong (neben vielen anderen Flugzeugtypen) die Raketenflugzeuge Bell X-1 und North American X-15. Seine eigentliche Aufgabe war, die getesteten Flugzeuge konstruktiv zu verbessern: „Our principal responsibilty was engineering work.“ Zehn Jahre nachdem Chuck Yeager mit der X-1 erstmals die Schallmauer durchbrochen hatte, flog Armstrong mit der „Glamorous Glennis“. Im November 1960 hatte er seinen Jungfernflug auf der X-15. Die höchste Geschwindigkeit, die er auf dieser Maschine erreichte, war Mach 5,74 (6419 km/h) im Juli 1962. Außerdem war Armstrong zwischen November 1960 bis zu seinem Wechsel ins Raumfahrtprogramm 1962 einer der für die X-20 vorgesehenen Piloten. Daneben belegte er Studienkurse in Luft- und Raumfahrttechnik an der Universität von Südkalifornien (Graduate Studies). Armstrong gehörte zu den neun Testpiloten, die im Juni 1958 von der US-Luftwaffe für das Projekt „Man In Space Soonest“ (MISS) ausgewählt wurden, die erste US-amerikanische Astronautengruppe. Das MISS-Projekt wurde jedoch kurz darauf abgesagt, als die NASA gegründet wurde und alle Aktivitäten der US-amerikanischen Weltraumfahrt übernahm. NASA-Tätigkeit. Für die erste Astronautengruppe (Mercury Seven), die von der NASA ausgewählt wurde, kam Armstrong nicht in Frage, da er zu diesem Zeitpunkt bereits wieder Zivilist war und nur Militärangehörige für diese Gruppe ausgewählt werden durften. Bei der zweiten Astronautengruppe kam er jedoch zum Zug und wurde am 17. September 1962 mit acht anderen zukünftigen Raumfahrern der Öffentlichkeit vorgestellt. In der ersten Zeit als Astronaut übernahm er für das Gemini-Programm als Spezialgebiet die Simulatoren. Einsatz im Gemini-Programm. Im Februar 1965 wurde Armstrong als Ersatzmann für Gordon Cooper zum Kommandanten der Mission Gemini 5 ernannt. Er kam nicht zum Einsatz, diente aber als Verbindungssprecher (Capcom). Nach Abschluss dieses Fluges wurde er als Kommandant des Fluges Gemini 8 nominiert, der am 16. März 1966 begann. Armstrong war damit einer der wenigen Astronauten, denen die NASA bereits beim ersten Raumflug ein Kommando übertrug. Während dieser Mission koppelten er und sein Pilot David Scott zum ersten Mal zwei Raumfahrzeuge im All aneinander, jedoch geriet Gemini 8 stark ins Taumeln. Armstrong brachte die Lage unter Kontrolle, die Mission wurde aber gekürzt. Das war das erste Mal, dass ein Raumflug vorzeitig beendet wurde. Nach seiner Landung wurde Armstrong als Ersatz-Kommandant für den Flug Gemini 11 im September 1966 eingeteilt. Bei der Mission Gemini 9 im Juni 1966 diente Armstrong wieder als Capcom. Mannschaftseinteilung im Apollo-Programm. Weil Armstrong damit noch relativ lang im Gemini-Programm eingebunden war, gehörte er nicht zu den sechs Kommandanten, die für die ersten Apollo-Flüge nominiert wurden. Erst nach der Katastrophe von Apollo 1 und dem Tod von Gus Grissom im Januar 1967 rückte er nach und wurde im November 1967 zum Ersatzkommandanten des dritten bemannten Apollo-Flugs nominiert. Damit hatte er große Chancen, dem sechsten Flug als Kommandant vorzustehen. Weil damals noch nicht klar war, wie viele Apollo-Testflüge notwendig sein würden, stand damit auch noch nicht fest, ob das ein Flug mit einer Mondlandung sein würde. Die erste Mondlandung war frühestens für die fünfte bemannte Mission vorgesehen. Verzögerungen bei der Entwicklung der Mondlandefähre führten im Sommer 1968 zu einer Umplanung der Apollo-Flüge: der dritte bemannte Testflug (Mission E) wurde gestrichen, stattdessen wurde ein Mondflug ohne Mondfähre zwischen erstem und zweiten Testflug (Missionen C und D) eingefügt, der unter der Bezeichnung Apollo 8 durchgeführt wurde. Armstrong wurde somit Ersatzkommandant für den ersten bemannten Flug zum Mond. Wie üblich wurde die Ersatzmannschaft als Hauptmannschaft für den drittnächsten Flug, Apollo 11 eingeteilt. Bei einem Erfolg der nächsten beiden Flüge Apollo 9 und Apollo 10 wäre das der erste Versuch einer bemannten Mondlandung. Die Nominierung Armstrongs als ersten Menschen, der seinen Fuß auf die Mondoberfläche setzen sollte, war also keineswegs von langer Hand vorbereitet. Wie er selbst schon 1966 in einem Interview sagte: Wer dieser Mensch ist, das entscheidet eine Art glücklicher Umstand (“who the person is is sort of happenstance”). Die Umplanung von Apollo 8, der Erfolg von Apollo 9 und Apollo 10 und auch der Tod Grissoms hatten dabei eine Rolle gespielt. Die Mondlandung. Neil Armstrong beim ersten Betreten des Mondes am 21. Juli 1969. Armstrong räumte erst während eines Interviews für das Buch "Chariots for Apollo" (1986) — nach vielen Jahren unterschiedlichster Berichte, Beweise und angeblicher Gegenbeweise — seinen Versprecher das erste Mal ein. Die gewaltige wissenschaftliche und kulturelle Bedeutung der ersten Mondlandung stellte seinen Versprecher jedoch in den Schatten, und obwohl er die vorgesehenen Zeilen nicht akkurat wiedergab, gehören sie zu den weltweit berühmtesten Worten, die je ein Mensch gesprochen hat. Angeblich sprach Armstrong, bevor er in die Mondlandefähre zurückkehrte, noch den Satz "Good Luck, Mr. Gorsky". Armstrong selbst dementierte diese moderne Sage bereits 1995. Für seine Leistung erhielt Armstrong 1969 die Presidential Medal of Freedom. Das Leben nach Apollo. Armstrong (2. v. r.) mit Apollo-11-Crew und US-Präsident Bush 2004 im Weißen Haus 1970 wurde Armstrong zum stellvertretenden Leiter des Washingtoner Aeronautikbüros der NASA befördert. Im gleichen Jahr erhielt er auch den Master in Luft- und Raumfahrttechnik an der University of Southern California und einen Ehrendoktor in Ingenieurwissenschaften von der Purdue Universität. 1971 verließ er die Behörde. Nach seinem Ausscheiden aus der NASA lehrte er von 1971 bis 1979 als Professor für Luft- und Raumfahrttechnik an der University of Cincinnati. Danach wechselte er in die Wirtschaft, wo er Aufsichtsratsmandate und Managementposten innehatte. Er wurde durch die Gründung eigener Firmen zum Millionär. Von 1985 bis 1986 war Armstrong in der nationalen Kommission für Raumfahrt und wurde 1986 als zweiter Vorsitzender in die Kommission zur Untersuchung der Challenger-Katastrophe berufen. 1989 trat er dem Direktorium von Thiokol bei, dem Hersteller der Feststoffbooster des Space Shuttle. Armstrong galt als starker Befürworter einer bemannten Mars-Mission. 2004 rief er die US-Amerikaner zu Rückhalt und Unterstützung des US-Präsidenten George W. Bush für künftige Mond- und Mars-Missionen der NASA auf. 2010 kritisierte er die Entscheidung Präsident Barack Obamas, keine Menschen mehr zum Mond schicken zu wollen. In einem von ihm maßgeblich mit-initiierten offenen Brief an Obama äußern die Unterzeichner sich „sehr beunruhigt“, dass die USA ihre „hart errungene globale Führung in der Raumfahrttechnologie an andere Nationen abtreten“. Privat. Armstrong heiratete im Januar 1956 seine Studentenliebe Janet Shearon. Das Paar hatte zwei Söhne und eine Tochter, die aber bereits im Alter von zwei Jahren starb. Janet und Neil Armstrong ließen sich 1994 nach langjähriger Trennung scheiden. Im gleichen Jahr heiratete er seine zweite Ehefrau Carol Held Knight. Mit ihr lebte er zuletzt zurückgezogen in der Nähe von Cincinnati. Am 7. August 2012 wurden vier Stenosen in Armstrongs Herzkranzgefäßen festgestellt, welche eine sofortige Bypass-Operation nötig machten. Neil Armstrong starb am 25. August 2012 an den Folgen dieser Operation. Am 15. September 2012 wurde die Asche von Armstrong vom Deck des Kreuzers USS Philippine Sea im Atlantik dem Meer übergeben. Ehrungen. Armstrong wurde als erstem Astronauten die Congressional Space Medal of Honor verliehen. 1969 bekam er die Freiheitsmedaille („The Presidential Medal of Freedom“), die höchste zivile Auszeichnung in den USA. Im Jahr 1979 wurde er als dritter Raumfahrer in die National Aviation Hall of Fame aufgenommen. Die Universität von Südkalifornien verlieh ihm 2005 die Ehrendoktorwürde. Im September 2012 benannte die US Navy das Forschungsschiff "USNS Neil Armstrong (T-AGOR-27)" nach ihm. Das "Dryden Flight Research Center" wurde zu seinen Ehren im Januar 2014 in Neil A. Armstrong Flight Research Center umbenannt. Nürnberg. Blick vom Burgberg auf die Altstadt a> umschließt die Altstadt noch heute fast vollständig Nürnberg (fränkisch "Nämberch") ist eine kreisfreie Großstadt im Regierungsbezirk Mittelfranken des Freistaats Bayern. Sie ist mit Einwohnern (Stand) nach München die zweitgrößte Stadt Bayerns und gehört zu den 15 größten Städten Deutschlands. Zusammen mit den Nachbarstädten Fürth, Erlangen und Schwabach leben rund 1,2 Millionen Menschen im Ballungsraum Nürnberg, der in Franken wirtschaftlich und kulturell auch das Zentrum der 3,5 Millionen Einwohner zählenden Metropolregion Nürnberg darstellt. Name, Wappen und Signet. Der Name der Stadt leitet sich von "nor" für "steiniger Fels" ab und bezeichnete den von weit her sichtbaren Keuperfels mit der Burg. Sie und die zu ihren Füßen entstandene Siedlung wurden wohl nach dem Felsberg benannt. Daneben gibt es die These, dass sich der Name der Stadt von dem Personennamen "Noro" ableitet. Andere Deutungen wie „Nero-berg“, „Nur-ein-Berg“ oder „Neuberg“ erwiesen sich als falsch. Der Beiname Noris kam bereits im Humanismus auf. Erstmals bezeichnete Helius Eobanus Hessus Nürnberg als „noris amoena“ (liebliche Noris). Hessus lehnte sich dabei an die lateinische Schreibung des Stadtnamens in Urkunden als „Noricum“ oder „Norimberg“ an. Der Arzt Johann Helwig personifizierte 1650 in einer Dichtung diesen Beinamen als mythische Nymphe "Noris", die seitdem als bildungssprachliche Allegorie der Stadt häufig Verwendung findet. Blasonierung Großes Wappen: „In Blau ein goldener Jungfrauenadler mit naturfarbenem, jugendlichem Haupt mit goldenem, wallendem Haar und goldener Blattkrone.“ Dieses Wappen wurde schon im Siegel von 1220 verwendet und versinnbildlicht das Reich (Reichsstadt). Der Kopf wurde zeitweise als Frauenkopf dargestellt. In seiner heutigen Form wurde das Große Wappen 1936 verliehen und 1963 vom Stadtrat bestätigt. Es wird in der Regel in den Behördensiegeln (nicht jedoch vom Standesamt, welches das amtliche bayerische Wappen führt), von den Bürgermeistern und vom Stadtrat und auf historischen städtischen Gebäuden geführt und darf nur mit einer Ausnahmegenehmigung, die nur selten erteilt wird, von Vereinen oder Firmen verwendet werden. Blasonierung Kleines Wappen: „Gespalten, vorne in Gold ein halber, rot gezungten und golden bewehrten schwarzen Adler am Spalt, hinten fünfmal schräg geteilt von Rot und Silber.“ Die Schrägteilung ist schon seit 1260 nachweisbar. Der Reichsadler kam ab 1350 hinzu und stellte somit das Rücksiegel dar. Seit 1513 wurde diese Abbildung in den Siegeln der Ämter und Außenbehörden Nürnbergs verwendet, wobei die Zahl der Schrägbalken und die Farbgebung mehrmals variierten. Die heute noch gebräuchliche Form wurde 1936 zusammen mit dem Großen Wappen verliehen. Aus dem Kleinen Wappen leitet sich auch die Stadtflagge ab. Das Kleine Wappen darf zu Werbezwecken von in Nürnberg ansässigen Unternehmen geführt oder auf Waren angebracht werden, solange nicht der Eindruck einer amtlichen Verwendung entsteht und das Wappen heraldisch und künstlerisch korrekt wiedergegeben wird. Beide Stadtwappen sind genehmigungspflichtig. Ein Signet verwendet die Stadt neben den traditionellen Wappen seit den 70er Jahren. Das ursprüngliche Signet, auch Logo genannt, zeigte ein stilisiertes N, das an die von Rot und Silber geteilte Seite des Kleinen Stadtwappens erinnert. 1993 wurde dann ein Stadtlogo entwickelt, das die langgezogene Silhouette der Nürnberger Burg aufgriff und sich als Erkennungszeichen der Stadt etablierte. Allerdings gelang es nicht, daraus ein einheitliches Corporate Design zu entwickeln. Außerdem erwies sich das alte Logo wegen seiner horizontalen Ausprägung als unflexibel. 2009 gab es im Rathaus daher Bestrebungen, ein leichter handhabbares Logo und eine einheitlicheres Auftreten zu entwickeln. Seit Juli 2011 wird das neue Stadtlogo und Corporate Design schrittweise eingeführt. Neben dem Stadtlogo wird auch das Logo der gleichnamigen Metropolenregion von der Stadt häufig verwendet. Dadurch soll der Zusammenhang zwischen der Städteregion und dem Ballungsraum mit den benachbarten Landkreisen stärker in der Öffentlichkeit wahrgenommen werden. Geographie. Nürnbergs Stadtgliederung und seine Umgebung Statistische Bezirke und Stadtteile in Nürnberg Geographische Lage. Nürnberg liegt zu beiden Seiten der Pegnitz, die etwa 80 Kilometer nordöstlich der Stadt entspringt und das Stadtgebiet auf einer Länge von etwa 14 Kilometern von Ost nach West durchquert. Im Bereich der Altstadt wurde der Fluss stark kanalisiert. Im benachbarten Fürth fließen die Pegnitz und die Rednitz zusammen und bilden die Regnitz. Vor allem im Norden und Nordwesten von Nürnberg ist die Landschaft stark durch die Anschwemmungen der Pegnitz geprägt. Im Norden Nürnbergs befindet sich mit dem Knoblauchsland ein wichtiges Gemüseanbaugebiet. Im Süden, Osten und Norden der Stadt erstreckt sich der Nürnberger Reichswald. Der Unterboden Nürnbergs besteht aus weichem Sandstein, der im Keuper entstanden ist. Nordöstlich von Nürnberg befindet sich die Fränkische Schweiz, ein Mittelgebirge mit einer Höhe von teilweise über 600 Metern über dem Meeresspiegel. Ausdehnung des Stadtgebietes. Das Gebiet der Stadt umfasst eine Fläche von 186,38 km². Im Westen ist die Bebauung mit der Nachbarstadt Fürth und im Südwesten mit Stein zusammengewachsen. Nördlich der Stadt liegt relativ flach das fruchtbare Knoblauchsland, das zugleich auch die westliche Anflugschneise für den Nürnberger Flughafen bildet, sowie nach Nordosten hin der Sebalder Reichswald. Die nördliche Begrenzung der Altstadt bildet der Burgberg mit der Nürnberger Burg und der in großen Teilen erhaltenen Stadtmauer; etwas östlich, ebenfalls auf der Nordseite der Pegnitz, erhebt sich der parkartig gestaltete Rechenberg. Stadtgliederung. 1968 wurde das Stadtgebiet für planerische Zwecke im Sinne einer kleinräumigen Gliederung in 87 Statistische Bezirke und in Blöcke unterteilt. Diese Statistischen Bezirke werden in 10 Statistischen Stadtteilen zusammengefasst. Diese verwaltungstechnische Einteilung spielt im Bewusstsein der Bevölkerung jedoch kaum eine Rolle, vielmehr orientiert man sich im Alltagsleben an den traditionellen Namen der Orte. Eingemeindungen. Bis 1825 umfasste das Stadtgebiet 160,84 ha. Seitdem wurden, nachdem die Einwohnerzahl der Stadt infolge der Industriellen Revolution immer mehr gestiegen war und die Stadt sich immer weiter ausgedehnt hatte, mehrere ehemals selbstständige Gemeinden in das Stadtgebiet eingegliedert, so dass die Stadt heute über eine Fläche von etwa 186,4 km² verfügt. Einwohnerentwicklung seit 1800 in Nürnberg Nachbargemeinden. Erlangen (kreisfreie Stadt), Neunhofer Forst, Kraftshofer Forst und Erlenstegener Forst (Landkreis Erlangen-Höchstadt), Schwaig bei Nürnberg, Laufamholzer Forst, Zerzabelshofer Forst, Forsthof, gemeindefreies Gebiet Fischbach, Feuchter Forst und Feucht (alle Landkreis Nürnberger Land), Wendelstein und Forst Kleinschwarzenlohe (Landkreis Roth), Schwabach (kreisfreie Stadt), Rohr (Landkreis Roth), Stein und Oberasbach (Landkreis Fürth) sowie Fürth (kreisfreie Stadt). An die zur Stadt Nürnberg gehörende Exklave Brunn grenzen die gemeindefreien Gebiete Brunn, Winkelhaid und Fischbach (alle im Landkreis Nürnberger Land). Klima. Nürnberg hat ein humides kühlgemäßigtes Übergangsklima, das weder sehr kontinental noch sehr maritim ausgeprägt ist. Die monatlichen Durchschnittstemperaturen schwanken zwischen −1,4 °C im Januar und 18 °C im August, jedoch werden an einigen Tagen im Sommer Spitzentemperaturen von über 35 °C erreicht. Die Niederschlagsmenge ist etwas geringer als für die geographische Lage üblich. Ursache dafür ist die Lage Nürnbergs im Fränkischen Becken; diese schwach ausgeprägte Kessellage hält feuchte Luftmassen vom Stadtgebiet fern. Mitunter kommt es über Nürnberg zu heftigen Stürmen und Unwettern, so zuletzt am 28. August 2006, als eine Windhose im Stadtteil Gartenstadt mehrere Häuser zum Teil schwer beschädigte. Einwohnerentwicklung. Mit Beginn der Industrialisierung im 19. Jahrhundert setzte ein starkes Bevölkerungswachstum ein. 1812 lebten in der Stadt erst 26.000 Menschen, so überschritt die Einwohnerzahl Nürnbergs im Laufe des Jahres 1881 die Grenze von 100.000 Einwohnern und machte sie zur Großstadt. 1900 hatte die Stadt über 250.000 Einwohner, bis 1972 verdoppelte sich diese Zahl auf den historischen Höchststand von 515.000. Bis 1985 fiel die Bevölkerungszahl auf 465.000, inzwischen ist sie wieder gestiegen. Am 31. Dezember 2008 betrug die "Amtliche Einwohnerzahl" für Nürnberg nach Fortschreibung des Bayerischen Landesamtes für Statistik und Datenverarbeitung 503.638. Am 18. November 2006 wurde in Nürnberg zum dritten Mal innerhalb von 40 Jahren der 500.000ste Bürger geboren. Lebensqualität. Nürnberg gelangte in der Studie "Worldwide Quality of Living Survey" des Beratungsunternehmens Mercer zum wiederholten Mal unter die ersten 25 Plätze der Städte mit der besten Lebensqualität weltweit und erreichte 2010 unter den deutschen Städten den sechsten Platz. Dabei flossen unter anderem soziale, wirtschaftliche und umweltorientierte Kriterien sowie Kultur, Bildungsangebot, Infrastruktur und Gesundheitsversorgung ein. Im Umweltranking schnitt Nürnberg als beste deutsche Stadt auf Platz 13 ab. Dialekt. Die Nürnberger Mundart zählt zur ostfränkischen Dialektgruppe, doch trägt sie deutliche Züge des Nordbairischen (beispielsweise gestürzte Diphthonge) und bildet einen Übergang zwischen den beiden Dialektgruppen. In der Forschung geht man heute davon aus, dass im Spätmittelalter der Stadtdialekt noch überwiegend zum Nordbairischen tendierte. In den letzten 200 Jahren beobachtet man dagegen eine Abkehr von bairischen zu ostfränkischen Merkmalen, obwohl es gerade im industriellen Zeitalter einen hohen Zuzug aus der Oberpfalz gab. Der Dialekt der Nachbarstadt Fürth ist bis auf Unterschiede bei der Pluralbildung und den Verkleinerungsformen sehr ähnlich. Mehrere Autoren wie Fitzgerald Kusz oder Klaus Schamberger pflegen noch den Stadtdialekt. Einige sind Mitglieder des Collegiums Nürnberger Mundartdichter. Unter der jüngeren Bevölkerung wird kaum noch die Stadtmundart verwendet. Man begegnet oft in den Medien einem "Nürnberger Fränkisch", das eher auf umgangssprachlichen Formen als auf dem zu verschwinden drohenden Stadtdialekt basiert. Dokumentiert wurde die Nürnberger Mundart durch Tonaufnahmen im Rahmen der Erstellung des Bayerischen Sprachatlasses und einer 1907 herausgegebenen Grammatik. Christentum. Das Gebiet des späteren Nürnberg gehörte ursprünglich zum Bistum Eichstätt. Ab 1016 wurde das Gebiet nördlich der Pegnitz dem Bistum Bamberg zugeordnet. 1525 führte die Reichsstadt Nürnberg die Reformation nach lutherischem Bekenntnis ein. Danach blieb sie über Jahrhunderte eine protestantische Stadt. Lediglich das exterritoriale Gebiet der Deutschordensniederlassung blieb katholisch. Nach dem Übergang der Stadt an Bayern 1808 gehörten die protestantischen Einwohner zur protestantischen Kirche des Königreichs Bayern, die zunächst lutherische und reformierte Gemeinden umfasste. Im gleichen Jahr wurde das Generaldekanat, 1810 das Dekanat Nürnberg und 1934 der Kirchenkreis Nürnberg eingerichtet. Die Kirchengemeinden der Stadt Nürnberg gehören heute zum Dekanat Nürnberg mit fünf Prodekanaten (Nürnberg-Mitte, -Nord, -Ost, -West und -Süd). Nürnberg ist Bischofssitz des gleichnamigen Kirchenkreises der Evangelisch-Lutherischen Kirche in Bayern. Die evangelisch-lutherische Kirche unterhält eine kirchliche Schule, die Wilhelm-Löhe-Schule Nürnberg als evangelisch-kooperative Gesamtschule, eine Fachhochschule sowie das Haus Eckstein als Stadtakademie. Diakonische Einrichtungen für ältere Menschen, Kliniken und Fachschulen werden vom Diakoniewerk Neuendettelsau getragen. Die Rummelsberger Diakonie engagiert sich ebenfalls im Raum Nürnberg mit verschiedenen Einrichtungen. Seit dem 19. Jahrhundert gab es auch eine eigene Gemeinde der reformierten Gemeindeglieder, die 1853 zusammen mit den anderen reformierten Gemeinden Bayerns eine eigene Synode erhielt. 1919 trennten sich die reformierten Gemeinden formell von der protestantischen Kirche Bayerns. Seither gab es in Bayern zwei protestantische Landeskirchen, die Evangelisch-Lutherische Kirche in Bayern und die Reformierte Synode in Bayern rechts des Rheins, die sich seit 1949 Evangelisch-reformierte Kirche in Bayern nannte und heute Teil der Evangelisch-reformierten Kirche – Synode evangelisch-reformierter Kirchen in Bayern und Nordwestdeutschland (Synodalverband XI) ist. Etwa 30 % der Bewohner Nürnbergs sind evangelischer Konfession. Spätestens seit dem 18. Jahrhundert nahm die Zahl der Katholiken in der Stadt wieder zu. Im Jahre 1810 entstand die erste katholische Gemeinde in Nürnberg seit der Reformation. Sie erhielt 1816 die Frauenkirche zur dauerhaften Nutzung. Seither entstanden weitere Gemeinden. Insbesondere durch die Eingliederung katholischer Vororte in Nürnberg wuchs der Anteil der Katholiken im 20. Jahrhundert auf ein Drittel der Bevölkerung. Die 46 Pfarrgemeinden der Stadt gehören überwiegend zum Dekanat Nürnberg des Erzbistums Bamberg. Die Pfarreien in den südlichen Stadtteilen gehören zum Dekanat Nürnberg-Süd des Bistums Eichstätt. Beide Diözesen haben sich für eine einheitliche Außendarstellung zur Katholischen Stadtkirche Nürnberg zusammengeschlossen. Viele der kirchlichen Einrichtungen sind im Haus der Stadtkirche untergebracht. Etwa 26 % der Einwohner Nürnbergs sind römisch-katholischer Konfession. Neben den Landeskirchen gibt es eine Vielzahl von evangelischen Freikirchen, teils evangelikalen Gemeinden, in Nürnberg, darunter neun zum BFP gehörende Pfingstgemeinden, zwei Evangelisch-Freikirchliche Gemeinden, vier Gemeinden der Evangelisch-methodistischen Kirche, eine Gemeinde der Mennoniten, eine Mennonitische Brüdergemeinde, eine Freie evangelische Gemeinde und sechs Gemeinden der Siebenten-Tags-Adventisten. Viele dieser Gemeinden, teils mit, teils ohne Dachverband, haben sich in der Evangelischen Allianz Nürnberg zusammengeschlossen, um gemeinsame Projekte wie den "Gebetsladen" beim CVJM Kornmarkt oder andere übergemeindliche Projekte durchzuführen. Die Heilsarmee leistet mit ihrem Sozialwerk in Nürnberg mit rund 300 Bewohnern und 70 Mitarbeitern in der Obdachlosen- und Drogenabhängigenhilfe einen bedeutenden Beitrag zur örtlichen Sozialarbeit. Ferner sind die Altkatholische Kirche und die Apostolische Gemeinschaft mit jeweils einer Gemeinde vertreten. Beide Kirchen sind, wie einige der oben genannten, Mitglieder in der Arbeitsgemeinschaft Christlicher Kirchen der Stadt. Die orthodoxe Konfession ist in Nürnberg seit Jahrzehnten mit nationalkirchlichen Gemeinden aufgrund verschiedener Einwanderungswellen stark vertreten. Unmittelbar nach dem Zweiten Weltkrieg entstand eine kleine russisch-orthodoxe Gemeinde. in der Folge kamen die griechisch-orthodoxe Kirchengemeinde Heiliger Apostel Paulus, die in der Oberen Kanalstraße 35 eine große Kirche besitzt, sowie die serbisch-orthodoxe Kirchengemeinde der Heiligen Kyrill und Methodius in der Kranichstraße 4 hinzu. Nürnberg ist Sitz der Metropolie für Deutschland, Zentral- und Nordeuropa der Rumänisch-Orthodoxen Kirche. Diese unterhält das Kloster Heilige Märtyrer Brâncoveanu und die Pfarrei Heiliger Märtyrer Demetrios. Die Kirche in der Fürther Straße 166 ist mit Fresken im orthodoxen Stil ausgemalt. Nach Jahrhunderten ist Nürnberg erstmals Sitz eines Erzbistums und Metropolitan-Sitz geworden. Mit der Gemeinde der Seligen Xenia von Sankt Petersburg besteht auch eine Gemeinde der Russisch-Orthodoxen Kirche. Der christliche Orient ist durch drei koptische Kirchen vertreten: die Ägyptische Koptisch-Orthodoxe Gemeinde, die Äthiopisch-Orthodoxe Gemeinde und die Eritreisch-Orthodoxe Gemeinde. Ferner sind die Armenische Orthodoxe Kirche und die irakische christliche Kirche der Chaldäer vertreten. Zu den Pfingstkirchen gehören vor allem Afrikaner, die in unabhängigen Pfingstkirchen aus Ghana und Nigeria organisiert sind, so in der Church of Pentecost, Nimrodstraße 10 und Lateinamerikaner mit einer portugiesisch-sprachigen Pfingstgemeinde in der Adam-Klein-Straße 26. Die Gottesdienste der Anglikanischen Gemeinde, in der Kirche St. Jakob oder der International Baptist Church, in der Baptistischen Kirche, Sperberstr. 166 werden vor allem von Briten und Amerikanern besucht. Auch die Methodistische Kirche ist in Nürnberg heimisch, ebenso gibt es mehrere Gemeinden der Neuapostolischen Kirche. In der Hirschelgasse unterhält die Christliche Wissenschaft (Christian Science) ein Kirchengebäude mit Leseraum. Die Zeugen Jehovas und die Kirche Jesu Christi der Heiligen der letzten Tage, auch Mormonen genannt, sind in Nürnberg mit einigen Gemeinden vertreten. Islam. 1616 erschien in Nürnberg die Übersetzung des Korans von Salomon Schweigger, die erste Übersetzung ins Deutsche. Die meisten Muslime Nürnbergs sind Sunniten. Seit Anfang 1970 gibt es in Nürnberg Gemeinschaften zur Pflege und Förderung des islamischen Glaubens und islamischer Kultur. Die 1974 gegründete Türkische Gemeinschaft e. V. ist der älteste dieser Vereine. Das 1976 gegründete Islamische Kulturzentrum ist seit 1993 im Spittlertorgraben mit der Ayasofya-Cami-Moschee ansässig und gehört zum Verband der islamischen Kulturzentren Köln. Der Türkisch-Islamische Kulturverein existiert seit 1979. 1996 wurde mit der Eyüp-Sultan-Moschee die größte Moschee in Bayern und die drittgrößte in Deutschland eröffnet. Die einzige Moschee in Nürnberg, die in größerem Rahmen auch deutschsprachige Angebote macht, ist die der Islamischen Gemeinde Nürnberg (IGN). Die Schiiten sind in Nürnberg mit Begegnungs- und Gebetszentren präsent. Aleviten. In Nürnberg besteht eine Gemeinde der Alevitische Gemeinschaft und ein alevitischer Kulturverein. Judentum. Otto von Freising berichtete als Erster, dass im Jahre 1146 mehrere Juden in Nürnberg Aufnahme fanden, nachdem sie aus dem Rheinland vertrieben worden waren, wo der französische Zisterziensermönch Radulf im Vorfeld des Zweiten Kreuzzuges zu Pogromen aufrief. Wahrscheinlich bestand aber bereits früher eine Ansiedlung südöstlich der Sebalduskirche, die wie das Egidienkloster außerhalb der Sebalder Stadtmauern und im Jahre 1150 bei der ersten Stadterweiterung mit eingeschlossen wurde. Aktuellere archäologische Untersuchungen konnten dieses Siedlungsgebiet allerdings nicht bestätigen. Eine Ansiedlung in Ghettos hatte es im Hochmittelalter noch nicht gegeben, doch könnte der heutige Obstmarkt als Siedlungskern infrage kommen. Man vermutet daher eine Umsiedlung auf das trockengelegte Gebiet am heutigen Hauptmarkt erst um das Jahr 1250. Die erste Synagoge ist für das Jahr 1296 bezeugt. Im Zuge der Thronstreitigkeiten zwischen Habsburgern und Nassauern setzte die Judenverfolgung mit dem Ausgangspunkt Röttingen auch massiv in Süddeutschland ein und es kam zum Rintfleisch-Pogrom. In Nürnberg floh die jüdische Bevölkerung auf einen Teil der Burg, doch wurde dieser von der wütenden Menge niedergebrannt. Das Nürnberger Memorbuch listet 628 Tote auf. Kurze Zeit danach war eine Rückkehr und Neuansiedlung wieder möglich. Doch bereits 1349 kam es infolge der Pestpogrome wieder zu Massakern, bei denen 562 Menschen, wohl etwa ein Drittel der jüdischen Gemeinde, den Ausschreitungen zum Opfer fielen. Nach Konrad von Megenbergs Bericht brach die Pest in der Stadt erst zwei Jahre später aus, sodass neben den vorgebrachten Motiven wohl auch der Neubau des Hauptmarktes und die Bereicherung im Vordergrund standen, wie auch die von Karl IV. erteilten Privilegien vermuten lassen. Auf dem Platz der Synagoge wurde auf Geheiß Karls IV. die heutige Frauenkirche errichtet. Abermals folgte der Vertreibung die Wiederaufnahme. Das neue Siedlungsgebiet lag bei dem früheren Judenfriedhof (bei der späteren Judengasse/Wunderburggasse). Ab dem Jahr 1473 gab es wieder Pläne zur Judenausweisung. Im Jahr 1498 befahl Maximilian I. auf Anraten der Stadt die Ausweisung und Enteignung. Gleichzeitig versuchte der Stadtrat gewaltsame Übergriffe zu vermeiden, stellte solche unter Strafe und gewährleistete die „Sicherheit“ durch Stadtknechte. Zwischen dem 20. Februar und 10. März 1499 mussten die Juden die Stadt verlassen. Doch entwickelte sich ab 1528 in der unmittelbaren Nachbarstadt Fürth ein aufblühendes jüdisches Gemeindeleben, das sich bis ins 20. Jahrhundert hielt. In Nürnberg wurde erst wieder 1850 eine Ansiedlung zugelassen, doch nahm das Judentum in der Stadt raschen Aufschwung und zählte bereits im Jahr 1871 1831 Mitglieder. Mit Einweihung der neugebauten Synagoge 1874 am heutigen Hans-Sachs-Platz hatte die jüdische Gemeinde ein neues Zuhause. 1902 wurde eine orthodoxe Synagoge in der Essenweinstraße geweiht. 1922 umfasste die jüdische Gemeinde in Nürnberg 9280 Mitglieder. Nach der Machtergreifung Hitlers 1933 wanderten zahlreiche Gemeindemitglieder aus. Die Zahl der jüdischen Nürnberger Bevölkerung verminderte sich über die Jahre 1934 bis 1940 um 5638. Bereits im August 1938 ließ Julius Streicher die Nürnberger Hauptsynagoge abreißen; die Synagoge an der Essenweinstraße wurde im Zuge der Novemberpogrome in der Nacht vom 9. zum 10. November 1938 abgebrannt. Meist in der Nacht zum 29. Oktober 1938 wurden Juden im Rahmen der „Polenaktion“, wie auch in Nürnberg, aus ihren Wohnungen geholt, in bewachten Zügen und Lastwagen zur deutsch-polnischen Grenze abtransportiert und hinübergejagt. Insgesamt wurden 1631 Nürnberger jüdischen Glaubens Opfer des Nationalsozialismus. Die heutige Israelitische Kultusgemeinde Nürnberg hat seit 1984 in der Johann-Priem-Straße ihren Sitz gefunden. Jedoch ist die räumliche Kapazität dieser Synagoge nach eigenen Angaben mit derzeit 1999 Mitgliedern (Stand 2013) nicht mehr ausreichend. Zur orthodoxen Richtung des Judentums gehört die Synagoge Adass Israel, zur chassidischen Richtung des Judentums die Synagoge Chabad. Bahai-Religion. Die Bahai-Religion ist in Nürnberg mit einer Gemeinde vertreten. Hinduismus. Die Hindu-Religion ist in Nürnberg mit einem Tempel, "Sri Sithivinayagar" präsent, der von einer vorwiegend tamilischen Gemeinde getragen wird. Buddhismus. Verschiedene buddhistische Gemeinden des Theravada, Mahayana und Vajrayana sind in Nürnberg mit Studien- und Meditationsgruppen aktiv. Zum Vajrayana-Buddhismus gehört das Buddhistische Zentrum in der Bismarckstraße 14, zum Theravada-Buddhismus das Buddhistische Zentrum Nürnberger LAND e. V., Lenzstraße 5. Im Jahr 2009 hat die thailändische Gemeinde ihren zweiten buddhistischen Tempel, das "Wat Thepwongsaram", an der Rothenburger Straße eingeweiht. Seit September 2012 gibt es in Nürnberg-Eibach das buddhistische Kloster Vinh Nghiem, das von der Vietnamesisch-Buddhistischen Gemeinde Franken unter Leitung von Mönchen aus Vietnam und Deutschland geführt wird. Das Kloster gehört zum Mahayana-Buddhismus. Weitere Religionsgemeinschaften. Zuflucht gefunden hat in Nürnberg die fast ausgestorbene Religionsgemeinschaft der mandäischen Gemeinde. Anthroposophie. Die Anthroposophie, die in Nürnberg eigene Wurzeln hat, ist als Glaubensgemeinschaft in der Krelingstraße 26, mit der „Rudolf-Steiner-Schule“ und einem Kulturhaus, dem Rudolf-Steiner-Haus, Rieterstraße 20, präsent. Humanistischer Verband Deutschlands. In Nürnberg gibt es einen aktiven Landesverband des Humanistischen Verbandes Deutschland (HVD), der eine anerkannte Weltanschauungsgemeinschaft nichtreligiöser Menschen ist. Seine Angehörigen berufen sich auf eine mehr als 160-jährige Geschichte in der Region. 1994 benannte sich der bfg Nürnberg K.d.ö.R. in HVD Nürnberg K.d.ö.R. um und schloss sich dem ein Jahr zuvor gegründeten Bundesverband an. 2011 wurde der Verband mit Sitz in Nürnberg durch das bayerische Kultusministerium als Landesverband anerkannt. Der Verband betreibt außerdem den Turm der Sinne am Westtor der Nürnberger Stadtmauer. Anfänge der Stadt. Erste Siedlungsspuren in der Nähe des heutigen Hauptmarktes werden um das Jahr 850 datiert. Wann die Stadt gegründet wurde, ist nicht überliefert, es könnte zwischen 1000 und 1040 im Zuge der Sicherung des Grenzgebietes zwischen Sachsen, Bayern, Ostfranken und Böhmen am Schnittpunkt wichtiger Straßen gewesen sein. Es lassen sich heute mehrere frühe Siedlungszentren ausmachen. Dazu gehören vermutlich zwei Königshöfe um St. Egidien und St. Jakob sowie das Areal zwischen Sebalduskirche und Burg. Die Siedlung hatte jedenfalls von Anfang an Marktrecht. Die Stadt wurde 1050 als "nuorenberc" in der so genannten "Sigena-Urkunde" von Kaiser Heinrich III. erstmals erwähnt. Als kaiserlicher Stützpunkt war die Nürnberger Burg (Kaiserburg) bald bedeutsam für das Reich. 1065 bildet Heinrich IV. aus dem Reichsgut Nürnberg und Umland einen eigenen Hochgerichts- und Verwaltungsbezirk. Konrad III. verlieh die neu errichtete Burggrafschaft mit Gericht und Verwaltung an die Edelfreien von Raabs (aus Niederösterreich), 1190/91 wurde sie von Friedrich I. von Nürnberg-Zollern übernommen. Mit dem "Großen Freiheitsbrief" machte Kaiser Friedrich II. Nürnberg 1219 zur Freien Reichsstadt. Der Einfluss der Burggrafen von Nürnberg beschränkte sich bald auf die "Burggrafenburg" und endete vollständig, als der letzte Burggraf Friedrich VI. die Burggrafenburg 1427 an den Rat der Stadt Nürnberg verkaufte. Von da an bis zum Übergang an das Königreich Bayern lagen die politischen Geschicke der Stadt komplett in der Hand dieses Rates, wobei das Haus Hohenzollern den Titel "Burggraf von Nürnberg" bis 1918 führte. Spätmittelalter und Frühe Neuzeit. a>, war ein wichtiger Impuls für die wirtschaftliche Blüte. Das Gebiet der Reichsstadt Nürnberg Viele Kaiser wählten Nürnberg gern als Aufenthaltsort, darunter Karl IV., der 1356 in Nürnberg die Goldene Bulle erließ. 1423 übergab Kaiser Sigismund die Reichskleinodien der Stadt, von der sie bis Anfang des 19. Jahrhunderts aufbewahrt wurden. Die Jahre zwischen 1470 und 1530 gelten allgemein als die Blütezeit der Stadt – trotz immer wiederkehrender Fehden und Konflikten mit Rittern wie Götz von Berlichingen und Conz Schott von Schottenstein, die aber nach 1512 durch das Heer des Fränkischen Reichskreises unterbunden wurden. Der Reichtum der Stadt kam durch das ausgezeichnete Handwerk sowie die günstige Lage als Handelsplatz in der Mitte Europas zustande. Reger Handel wurde mit der Levante betrieben. In dieser Zeit zählte Nürnberg zusammen mit Köln und Prag zu den größten Städten des Heiligen Römischen Reiches. Im Dreißigjährigen Krieg war die Gegend um Nürnberg Schauplatz eines mehrere Jahre andauernden Stellungskriegs der Kriegsparteien. Zwar wurde die Stadt nicht erobert, aber durch die Verwüstungen im Umland dauerhaft wirtschaftlich geschwächt. Nach dem Krieg fand 1649 in Nürnberg das „Friedensmahl“ statt, bei dem die Konfliktparteien in mehrere Tage andauernden Feierlichkeiten den Frieden besiegelten. Durch die Reichsdefensionsordnung von 1681 wurde Nürnberg verpflichtet, neun Kompanien zu den drei Infanterieregimentern des Fränkischen Reichskreises zu stellen, die im Falle einer Reichsexekution dem Reichsheer eingegliedert würden. Am 13. Oktober 1792 wird mit dem Kunstverein Nürnberg der erste Kunstverein Deutschlands gegründet. 19. und frühes 20. Jahrhundert. Einschneidende Ereignisse spielten sich von 1796 bis 1806 ab. Nach Drängen der preußischen Verwaltung im benachbarten Ansbach unterstellte sich Nürnberg schließlich der preußischen Herrschaft. Der Vertrag wurde nicht vollzogen, da Preußen von Nürnbergs Schulden abgeschreckt wurde. Gleichzeitig hatte sich in der Nürnberger Bevölkerung großer Unmut gegen die zunehmend als korrupt empfundene Herrschaft der patrizischen Familien aufgestaut. Diese Vorgänge erschütterten die reichsstädtische Verfassung in ihren Grundfesten und brachten die Stadt an den Rand eines Umsturzes. Im Reichsdeputationshauptschluss vom 25. Februar 1803 blieb Nürnberg dennoch zunächst weiter unabhängig, bis nach Unterzeichnung der Rheinbundakte und dem Ende des Alten Reiches französische Truppen Nürnberg besetzten. Am 15. September 1806 übergab die französische Armee schließlich die Stadt dem Königreich Bayern, das alsbald eine Zivilverwaltung installierte und die Stadt administrativ in das Königreich eingliederte. Das Königreich Bayern übernahm 1806 die exorbitanten Schulden der Reichsstadt Nürnberg als Teil der gesamtbayerischen Staatsschulden und sorgte damit für deren Konsolidierung und Tilgung. Durch die bayerische Gesetzgebung wurden die Katholiken, die bisher in der Stadt nur geduldet waren, den Protestanten rechtlich gleichgestellt. Im 19. Jahrhundert entwickelte sich Nürnberg zu einem der industriellen Zentren in Bayern. So fuhr 1835 als erste Eisenbahn für den Personenverkehr in Deutschland der „Adler“ von Nürnberg nach Fürth. In der zweiten Hälfte des 19. Jahrhunderts wurde in Nürnberg das Rauschgold erfunden. Nürnberg entwickelte sich zwischen 1870 und 1939 zu einem Zentrum der Spielwaren- und Modelleisenbahnindustrie. Viele kleine Werkstätten bis hin zu Großbetrieben produzierten Blechspielwaren (Tinplate-Spielwaren). Dabei tat sich besonders die Firma Bing hervor, die den Sprung von der handwerklichen Fertigung (Schneiden, Löten, Bemalen) zur industriellen Fertigung (Lithographieren, Stanzen, Verlaschen) vollzog und durch die kostengünstige Produkte zum weltweit größten Spielwarenhersteller heranwuchs. Viele dieser Spielwarenhersteller waren im jüdischen Besitz und wurden in den Jahren 1936 bis 1938 Opfer der von den Nationalsozialisten erzwungenen „Arisierung“. Marsch von SA-Kolonnen mit Hakenkreuz-Fahnen zu den Reichsparteitagen in Nürnberg im September 1935 In den 1920er-Jahren fanden in Nürnberg die ersten Reichsparteitage der Nationalsozialisten statt. In Nürnberg selbst konnte die NSDAP bei Wahlen nie gewinnen. Die Stadt wurde überwiegend von der liberalen DDP regiert. Gleichzeitig war Nürnberg aufgrund seiner Bedeutung als Industriestandort ein Zentrum der bayerischen Sozialdemokratie. Zeit des Nationalsozialismus. Zerstörungen in Nürnberg 1945 (Egidienplatz) Während der Zeit des Nationalsozialismus wurde Nürnberg von den Nationalsozialisten als „Stadt der Reichsparteitage“ zu einem der wichtigsten Orte nationalsozialistischer Propaganda. Die Nürnberger Gesetze, auch Nürnberger Rassegesetze genannt, wurden am 15. September 1935 vom Reichstag auf dem 7. Reichsparteitag der NSDAP („Reichsparteitag der Freiheit“) in Nürnberg einstimmig beschlossen. Mit ihnen stellten die Nationalsozialisten ihre antisemitische Ideologie auf eine juristische Grundlage. Im Zweiten Weltkrieg war Nürnberg eines der häufigen Ziele alliierter Luftangriffe, die die Stadt schwer beschädigten. Am 2. Januar 1945 wurde die Nürnberger Altstadt fast vollständig zerstört. Auch in der fünftägigen Schlacht um Nürnberg im April 1945 wurde historische Bausubstanz zerstört. Nach dem Krieg gab es Überlegungen, die zerstörte Stadt komplett aufzugeben und an anderer Stelle neu aufzubauen. Nachkriegszeit und Wiederaufbau. Nach dem Zweiten Weltkrieg herrschten Lebensmittelknappheit und Wohnraummangel in der Stadt. Von den 134.000 Wohnungen vor Kriegsbeginn waren nur 14.500 unbeschädigt geblieben. Martin Treu und Hans Ziegler wurden von der amerikanischen Militärregierung im Juli 1945 zu den neuen Oberbürgermeistern der Stadt ernannt. Parallel zur Entnazifizierung auf kommunaler Ebene fanden auch ab November 1945 im Justizpalast an der Fürther Straße die Nürnberger Prozesse gegen führende Kriegsverbrecher der nationalsozialistischen Diktatur statt. Da der Justizpalast mit dem angrenzenden Gefängnis den Krieg weitgehend unbeschadet überstanden hatte, wählte man Nürnberg anstatt Berlin als Ort der Prozesse, zumal auch Nürnberg als Stadt der Reichsparteitage eine ähnlich symbolische Bedeutung hatte wie die Hauptstadt oder München. Die Altstadt 1969 nach dem Wiederaufbau Anfang 1948 wurde in einem Architekturwettbewerb entschieden, die weitgehend zerstörte Stadt nach Bebauungsplänen von Heinz Schmeißner und Wilhelm Schlegtendal wiederaufzubauen, 1949 fand in Nürnberg die Deutsche Bauausstellung unter dem Motto „Wir müssen bauen“ statt. Beim Wiederaufbau orientierte man sich weitestgehend an den historischen Stadtstrukturen, so dass diese an vielen Plätzen trotz der überwiegend zerstörten Bausubstanz noch immer ablesbar sind. Besonders die Dachlandschaft ist wieder ähnlich dem Vorkriegszustand ausgebildet worden. Auch viele bedeutende Kirchbauten wurden weitgehend rekonstruiert, ebenso Bauten entlang der Historischen Meile wie die Reichsburg. Bedeutende Bürgerhäuser wie das Toplerhaus und das Pellerhaus oder die Bauten am Hauptmarkt wurden allerdings nicht oder nur teilweise wiederaufgebaut. Vom Wirtschaftswunder bis zur Wende. Die im benachbarten Fürth ansässigen Grundig-Werke waren eines der führenden Unternehmen zur Zeit des Wirtschaftswunders. Qualitätsprüfung eines Fernsehers, 1959 Nach dem Krieg änderte sich das wirtschaftliche Profil der Stadt. Traditionsreiche Wirtschaftszweige wie die Nürnberger Motorradindustrie (siehe auch: Zweirad Union und Hercules) konnten nicht mehr an die Erfolge in der ersten Jahrhunderthälfte anknüpfen. Dagegen expandierten Firmen wie die AEG oder Photo Porst. Ende der 50er Jahre fehlten noch immer 47.000 Wohnungen. 1957 wurde von der städtischen Wohnungsbaugesellschaft der Grundstein für den neuen Stadtteil Langwasser gelegt, dessen Bau das größte Projekt zur Erweiterung einer Stadt in der Bundesrepublik war. 1967 wurde die letzte Baulücke am Hauptmarkt geschlossen. Nürnberger Unternehmen wie Siemens-Schuckert, Schöller-Eis, MAN, Zündapp sowie der 1957 von den Fürther Grundig-Werken übernommene Bürogerätehersteller Triumph-Adler hatten maßgeblichen Anteil am sogenannten Wirtschaftswunder. Die Anzahl der Beschäftigten in der Industrie stieg von 77.000 (1950) auf 120.000 (1960). Besondere Bedeutung hat Nürnberg durch die seit 1950 jährlich stattfindende Nürnberger Spielwarenmesse gewonnen, die heute im 1973 vollendeten Messezentrum in Langwasser stattfindet. Weitere bedeutende Infrastrukturprojekte der Nachkriegszeit waren: 1955 die Eröffnung des Flughafens, 1967 der Baubeginn einer U-Bahn und 1972 die Fertigstellung des Bayernhafens am Main-Donau-Kanal. Bauwerke. Bis zum Zweiten Weltkrieg war Nürnberg die einzige Großstadt Deutschlands, in der sich der historische Stadtkern samt Befestigungsanlagen fast unverändert erhalten hatte. Im Bewusstsein dieser herausragenden kultur- und kunsthistorischen Bedeutung wurden bereits vor der Zerstörung Maßnahmen zur Rettung und originalgetreuen Wiederherstellung der wichtigsten Gebäude ergriffen. Am Ende hatten nur zehn Prozent der Baumasse die Bombardierungen unbeschadet überstanden. Die Stadt Nürnberg entschied sich beim Wiederaufbau, anders als die meisten anderen deutschen Städte dieser Zeit, die Struktur der Altstadt zu bewahren, und schaffte es, die wertvolle historische Bausubstanz in einen angemessenen neueren Kontext einzubinden. Daher ist die Altstadt nicht nur Zeugnis des Mittelalters und der Frühen Neuzeit, sondern auch des Wiederaufbaus und der Moderne. Romanik (bis ca. 1250). Die Nürnberger Burg zählt mit ihrer Geschichte und Architektur zu den bedeutendsten Wehranlagen Europas. Die Kaiserburg, die unter Konrad III. sowie Friedrich Barbarossa gebaut wurde, behielt vor allem mit der Kaiserkapelle und dem Heidenturm ihre romanische Bauform über die Jahrhunderte. Das Nassauer Haus ist das älteste Gebäude im Lorenzer Stadtteil und datiert mit seinen beiden unteren Geschossen bis in das 12. Jahrhundert zurück. Die Sebalduskirche ist die ältere der beiden Hauptkirchen und entstand auf dem Platz eines Vorgängerkirchenbaus im Ausklang der Romanik (Langschiff) etwa von 1230 bis 1275. Gotik (bis ca. 1500). Zwischen 1332 und 1339 wurde das Heilig-Geist-Spital als Stiftung des reichen Bürgers Konrad Groß erbaut. Nach den Judenpogromen entstand ab 1349 im Auftrag von Karl IV. die Frauenkirche auf dem Platz der früheren Synagoge. Der Schöne Brunnen wurde zwischen 1389 und 1396 geschaffen und zeigt mit 40 Personenskulpturen die Institutionen der damaligen Zeit in einer hierarchisierenden Darstellung. Der Bau der Lorenzkirche wurde um 1250 begonnen und erstreckte sich über drei Bauabschnitte bis 1477. Auch sie wurde auf dem Platz eines Vorgängerbaus errichtet. Die Sebalduskirche erhielt den gotischen Hallenchor. Der Reichtum der Stadt zeigte sich an der Wohnkultur der reichen Bürger, sodass gegen Ende der Gotik zahlreiche mächtige Bürgerhäuser das Stadtbild prägten. Es entwickelte sich eine Innenhofkultur, die in der Renaissance zu voller Blüte kam. Renaissance. Die Freie Reichsstadt verfolgte eine für diese Zeit typische Expansionsstrategie, sodass ab 1500 auch mehrere Patrizierfamilien Herrensitze außerhalb der damaligen Stadtmauern erwarben. Erhalten und sehenswert sind das Grundherrenschloss, der Herrensitz Hummelstein, das Petzenschloss, der Herrensitz Schoppershof, Schübelsberg, das Tucherschloss, der Weigelshof und das Zeltnerschlösschen. Das Pellerhaus (1602–1605) galt als ein Hauptwerk der deutschen Hochrenaissance (im Krieg teilzerstört und modern wiederaufgebaut; es ist vorgesehen, das Haus teilweise zu rekonstruieren). Der Hirsvogelsaal (1534) als Beispiel der Festarchitektur des Patriziats wurde wiederaufgebaut. Die Fleischbrücke wurde 1596–1598 vom Ratsbaumeister Wolf-Jacob Stromer wegen der Strömung nach dem Vorbild der Rialto-Brücke in einem Bogen errichtet. Da sie als Hauptverkehrsader diente, musste sie wesentlich flacher verlaufen und galt lange Zeit als außergewöhnlich in der Brückenbaukunst. Der mächtige Wolff’sche Rathausbau wurde in den Jahren 1616 bis 1622 errichtet und deutet mit seinen Stilelementen bereits den Übergang zum späteren Barock an. Er wurde während des Zweiten Weltkrieges zum Teil zerstört und wurde in einer längeren Rekonstruktionsphase erst relativ spät in den 1960er Jahren wieder komplett hergestellt. Barock und Rokoko. Das Barockzeitalter prägte das gotisch und im Stil der Renaissance dominierte Stadtbild nicht um. Einzige Barockkirche in der Altstadt ist die Egidienkirche (barocker Umbau 1711–1718); sie zeigt bereits den stilistischen Übergang zum Rokoko. Barocke Bürgerhauser sind in der Altstadt nur vereinzelt erhalten geblieben. Der Maxplatz ist noch ein rudimentär erhaltener planmäßig angelegter Barockplatz in der nordwestlichen Altstadt. Im außerhalb der Altstadt gelegenen Stadtteil St. Johannis befinden sich zahlreiche barocke Bürgerhäuser und Gartenanlagen (Hesperidengärten). Der Neptunbrunnen (1660–1668), größte barocke Brunnenanlage nördlich der Alpen, wurde 1797 an das Schloss Peterhof (Russland) verkauft, ein Zweitguss stand von 1902 bis 1934 auf dem Hauptmarkt und befindet sich heute im Stadtpark. Klassizismus. Die klassizistische Kirche St. Elisabeth trägt eine 1803 fertiggestellte 50 Meter hohe Kuppel. Innerhalb des Kirchenraumes befinden sich 40 korinthische Säulen. Ihre Anordnung führt dazu, dass jeder der drei Kirchenbereiche wie ein eigenständiger Raum wirkt. Klassizistisch ist auch das Tucher’sche Palais am Egidienberg. Historismus. Dem Stil des Historismus gehören die 1890 entstandene Villa Spaeth, der 1904 gebaute Hauptbahnhof Nürnberg, das 1906 fertiggestellte Opernhaus an. Des Weiteren finden sich in der Ludwigstraße das Kaufhaus Weißer Turm, das sich am Bahnhofsplatz befindliche Grand-Hotel und der Justizpalast an der Fürther Straße. Der Historismus in Nürnberg strebte mit dem Nürnberger Stil die Wiederaufnahme der nürnbergischen Bautradition der Spätgotik und Renaissance an. Dieser hat eine besondere lokale Ausprägung erfahren. Hierzu gehörten das 1888 bis 1889 erbaute Hotel Deutscher Kaiser, das 1899 erbaute Schloss Stein und das von 1893 bis 1895 entstandene Hansa-Haus. Jugendstil und Reformarchitektur. Der Jugendstil entfaltete sich in Nürnberg zunächst als Kunsthandwerk mit Gebrauchsgegenständen. Als Baustil dauerte er nur verhältnismäßig kurz an. Viele Jugendstilgroßbauten wurden bereits in der nationalsozialistischen Ära abgerissen (Ausstellungshallen am Dutzendteich) und fielen dem Zweiten Weltkrieg und Abbrüchen in den 1950er und 1960er Jahren zu Opfer. Erhalten ist das Jugendstilviertel Gärten hinter der Veste, das Volksbad, die Bismarck-Schule und die alte Eingangshalle des Germanischen Nationalmuseums. Die Reformideen der Gartenstadt-Bewegung von Ebenezer Howard wurden von der Ende des 19. Jahrhunderts schnell gewachsenen und verdichteten Stadt aufgegriffen. Dabei entstanden kurz vor dem Ersten Weltkrieg die Wohnkolonie Rangierbahnhof, die Gartenstadt Nürnberg, die MAN-Werksiedlung Werderau und die Fliegersiedlung an der Regensburger Straße. Moderne und Postmoderne. Aula der Akademie der Bildenden Künste Die Akademie der Bildenden Künste von Sep Ruf ist die erste denkmalgeschützte Nachkriegsarchitektur Süddeutschlands. Zwischen 1975 und 1977 wurde im Stadtteil Schweinau der Fernmeldeturm Nürnberg errichtet. Dieser ist nach einem Austausch der Turmantennen im Jahr 2005 292,80 Meter hoch und der drittgrößte Fernmeldeturm Deutschlands. Der in 185 Meter Höhe befindliche eiförmige Turmkorb gibt dem Turm den Spitznamen „Nürnberger Ei“. Erst seit 1988 werden die Programme von Sat.1 und RTLplus ausgestrahlt. Weitere Sehenswürdigkeiten. In Nürnberg befinden sich zahlreiche Steinkreuze die zum größten Teil auch als Baudenkmal ausgewiesen sind. Stadtrat und Bürgermeister. Das Rathaus am Hauptmarkt ist das kommunalpolitische Zentrum Nürnberg wird (mit einer Unterbrechung von 1996–2002) von SPD-Oberbürgermeistern regiert. Der Stadtrat ist die kommunale Volksvertretung der Stadt Nürnberg. Über die Vergabe der 71 Sitze (70 Stadträte und der Oberbürgermeister) entscheiden die Bürger alle sechs Jahre bei den Kommunalwahlen. SPD, CSU und Grüne bilden jeweils eine Fraktion. FDP, Freie Wähler (1 von 2 gewählten FW-Mitgliedern des Rats), Piraten und ÖDP bilden zusammen eine Ausschussgemeinschaft. Oberbürgermeister ist seit 2002 Ulrich Maly (SPD). Bei der Kommunalwahl am 2. März 2008 und Kommunalwahl am 16. März 2014 wurde Ulrich Maly im ersten Wahlgang für eine weitere Amtsperiode bestätigt. Zweiter Bürgermeister ist Christian Vogel (SPD), zuständig für das Referat Bürgerämter, Tiergarten und Feuerwehr. Dritter Bürgermeister ist Klemens Gsell (CSU), zuständig für das Referat Schule. Städtepartnerschaften. Heilig-Geist-Haus (Amt für Internationale Beziehungen) Nürnberg hat insgesamt 13 Städtepartnerschaften, Vertreter dieser und befreundeter Städte präsentieren alljährlich eigene Erzeugnisse (Kunsthandwerk, Spezialitäten, Textilien etc.) auf dem „Markt der Partnerstädte“ im Rahmen des Christkindlesmarktes. Private Freundeskreise und Jugendaustausche intensivieren die Kontakte ebenso wie praktische Hilfe, so wurden den Städten Krakau und Antalya ausgemusterte betriebsbereite Straßenbahnen geschenkt. Die erste Städtepartnerschaft wurde 1954 mit Nizza geschlossen und 2004 nochmals bekräftigt. Die 1979 geschlossene Partnerschaft mit Krakau stellt die Stadt Nürnberg auf ihren Internetseiten als „erfolgreiches Beispiel für die Zusammenarbeit von zwei Städten, die als Beitrag zur Normalisierung der Beziehungen zweier Völker begründet wurde“ dar. Als wirtschaftliche und kulturelle Repräsentanz existiert im Nürnberger Tratzenzwingerturm das "Krakauer Haus" und ein "Nürnberger Haus" im Krakauer Stadtteil Kazimierz. Eine der laut Stadt intensivsten Partnerschaftsbeziehungen besteht seit 1982 mit Skopje. Neben Jugendaustauschen und gegenseitigen Künstlerbesuchen existiert mit der gemeinsamen Ausgrabung des antiken Skopje durch mazedonische Archäologen zusammen mit der Naturhistorischen Gesellschaft Nürnberg ein weiteres Partnerschaftsprojekt. Es startete im Frühjahr 1998 und wird voraussichtlich 50 Jahre in Anspruch nehmen. Die Partnerschaft mit San Carlos in Nicaragua wurde 1984 von einer Nürnberger Bürgerinitiative angeregt und noch während des Contra-Krieges 1985 abgeschlossen. Insbesondere durch Jugendaustausche wurde die Stadt gefördert. So verfügen die Sancarleños unter anderem über eine ausgebaute Wasserversorgung, einen Krankenhausneubau, Humuslatrinen, eine Oberschule und ein Kulturhaus. Seit demselben Jahr verbindet Nürnberg und Glasgow nach über 30 Jahren intensiver Jugendaustausche eine Partnerschaft. Hilfeleistung stand im Mittelpunkt der Anfang 1990 geschlossenen Partnerschaft zwischen Charkiw und Nürnberg, da viele der nach der Katastrophe von Tschernobyl eingesetzten Liquidatoren von dort kamen. Mit Unterstützung des Chemischen Untersuchungsamts Nürnberg baut die Charkiwer Akademie für Lebensmitteltechnologie und Management in einem Pilotprojekt ein Labor zur Untersuchung von Lebensmitteln für die ganze Ukraine auf. Seit Mitte des 13. Jahrhunderts bestanden zwischen Nürnberg und Prag Handelsbeziehungen, 1990 wurde ein Partnerschaftsvertrag unterzeichnet. Lange dauerte es, bis es zur Partnerschaft mit Hadera kam. Seit 1974 fanden regelmäßige Austausche zwischen Deutschen und Israelis statt. Arno Hamburger, SPD-Stadtrat und Vorsitzender der Israelitischen Kultusgemeinde Nürnbergs, brachte von einem dieser Austausche 1986 einen unterschriebenen Freundschaftsvertrag mit, dem 1995 ein offizieller Städtepartnerschaftsvertrag folgte. 1988 wurde mit dem damals in der Deutschen Demokratischen Republik liegenden ostthüringischen Gera ein Städtepartnerschaftsvertrag unterzeichnet, der 1990 in ein Freundschaftsabkommen umgewandelt und 1997 noch einmal aktualisiert wurde. Ebenfalls 1997 entstand eine Partnerschaft mit Antalya. Im Rahmen einer Regionalpartnerschaft der Städte und Landkreise in der Planungsregion Industrieregion Mittelfranken mit der Sonderwirtschaftszone Shenzhen entstand die Städtepartnerschaft mit Nürnberg. Engen Austausch gibt es zwischen den Zoos der Städte und zwischen der Technischen Hochschule Nürnberg Georg Simon Ohm und dem "Shenzhen Polytechnic". 1998 wurden die Partnerschaften mit Kavala in Griechenland und Atlanta in den USA geschlossen. Bereits im frühen 14. Jahrhundert bestanden Handelsbeziehungen mit Venedig. Die Nürnberger Kaufmannschaft erlangte starken Einfluss auf die mitteleuropäischen Märkte für Gewürze, Seide und Baumwolle. Sie exportierten aber auch über Venedig Nürnberger Tand, Tuche, Leder, Honig und Bernstein. An diese Beziehung anknüpfend wurde 1999 eine Partnerschaft vereinbart. Nach dem Seebeben im Indischen Ozean 2004 übernahm die Stadt Nürnberg 2005 die Patenschaft für Kalkudah auf Sri Lanka. 2007 wurde Nürnberg für seine Bemühungen um den europäischen Integrationsgedanken mit dem Europapreis der Europäischen Union ausgezeichnet. Bereits am 20. Oktober 1954 leisteten die Bürgermeister von Venedig und Nürnberg zusammen mit den Vertretern von Nizza, Locarno und Brügge auf dem Markusplatz den so genannten „Verbrüderungseid“, in dem es (in der deutschen Übersetzung) heißt: „… Verpflichten uns am heutigen Tage feierlich, die ständigen Bande zwischen den Städteverwaltungen unserer Städte zu bewahren, auf allen Gebieten den Austausch ihrer Einwohner zu unterstützen und durch eine bessere gegenseitige Verständigung das wache Gefühl der europäischen Brüderlichkeit zu fördern …“. Am 25. September 1999 wurde auf dieser Grundlage zwischen Venedig und Nürnberg lediglich eine „Neuaufnahme ihrer freundschaftlichen Beziehungen“ beschlossen. Am 6. Mai 2010 wurde ein Städtepartnerschaftsvertrag mit der spanischen Stadt Córdoba geschlossen, der einen Austausch und Kooperation auf verschiedenen Ebenen vorsieht. Die Initiative zu dieser Partnerschaft gingen vom seit 1961 bestehenden Verein "Centro Español" und seiner interkulturellen Arbeit aus. Stadt des Friedens und der Menschenrechte. Durch die Rolle Nürnbergs während der nationalsozialistischen Gewaltherrschaft fühlt sich die Stadt in besonderem Maße verpflichtet, einen aktiven Beitrag zum Frieden und zur Verwirklichung der Menschenrechte zu leisten. Zu diesem Zwecke wurden unter anderem die Straße der Menschenrechte, ein Mahnmal für die Würde des Menschen sowie das Dokumentationszentrum Reichsparteitagsgelände, das über die Zeit des Nationalsozialismus in Nürnberg informiert, errichtet. Seit 1995 wird der Internationale Nürnberger Menschenrechtspreis an Personen verliehen, die sich für die Einhaltung der Menschenrechte einsetzen. Das Nürnberger Menschenrechtszentrum, ein Verein, der sich für die Würde des Menschen einsetzt und das Nürnberger Menschenrechtsbüro wurden gegründet. Alle zwei Jahre wird der Deutsche Menschenrechts-Filmpreis verliehen. Das Nürnberger Filmfestival der Menschenrechte ist ein fester Bestandteil des Kulturprogramms der Stadt. Die Stadt Nürnberg wurde am 10. Dezember 2000 in Paris mit dem UNESCO-Preis für Menschenrechtserziehung ausgezeichnet. Damit würdigte die UNESCO den vorbildlichen Einsatz der Stadt Nürnberg für Frieden und Achtung der Menschenrechte. Die Stadt Nürnberg bewirbt sich um Aufnahme in die Weltkulturerbeliste der Unesco mit dem Saal 600 im Justizgebäude, in dem ab 20. November 1945 das Internationale Militärtribunal tagte. Alle ein bis zwei Jahre wird der Preis der Stadt Nürnberg an Personen mit herausragenden Leistungen in Kunst und Wissenschaft verliehen. Wirtschaft. Industriestruktur der Stadt Nürnberg im Vergleich zum Bund Über Standortkompetenzen verfügt Nürnberg insbesondere in den Bereichen Kommunikationstechnik, Marktforschung, Druck, Energie und Leistungselektronik sowie Verkehr und Logistik. Für das Jahr 2007 fand auf dem Stadtgebiet eine Bruttowertschöpfung von 20,3 Milliarden Euro statt. Dazu trug der Dienstleistungsbereich zu etwa 75 Prozent und das produzierende Gewerbe zu 25 Prozent bei. Die Arbeitslosenquote lag etwa auf Bundesdurchschnitt, jedoch deutlich über dem Schnitt in Bayern. Der Einzelhandelsumsatz beträgt 3,5 Milliarden Euro (Stand: 2008), was pro Kopf gerechnet der dritthöchste Wert nach München und Düsseldorf in Deutschland ist. Landwirtschaft und Bodenschätze. Mit dem Knoblauchsland verfügt Nürnberg im Norden über ein großes Gemüseanbaugebiet von überregionaler Bedeutung, das vor allem für seinen Spargelanbau bekannt ist. Des Weiteren befindet sich in der Umgebung des eingemeindeten Worzeldorf ein Sandsteinvorkommen aus Worzeldorfer Sandstein, das für Nürnberg große kunsthistorische Bedeutung hat, da zahlreiche Bauwerke aus diesem Baustoff errichtet wurden. Der auf gemeindefreiem Gebiet um Nürnberg befindliche Nürnberger Reichswald ist seit Jahrhunderten ein Lieferant von Holz; auch befinden sich hier große Tagebaue für Bausand. Industrie. Ein Teil des ehemaligen AEG-Industriegeländes in Muggenhof ist heute als "Auf AEG" Kulturwerkstadt und Bürofläche. Nürnberg ist ein Zentrum in den Bereichen Informations- und Kommunikationsindustrie, Verkehr und Logistik, Energietechnologie und Leistungselektronik. Nürnberg ist noch vor Hamburg bedeutendster Druckstandort Deutschlands. Im Norden der Stadt unterhält die Firma Alcatel-Lucent das "Optical Center of Excellence", ihr größtes Forschungszentrum außerhalb der USA. Dennoch musste Nürnberg in den letzten 25 Jahren immer wieder Werkschließungen und die Verlagerung von Arbeitsplätzen hinnehmen. Besonders betroffen war davon die Sparte Maschinenbau und Haushaltselektronik. So wurde das Gelände der MAN im Süden Nürnbergs im Laufe der Zeit stetig verkleinert. Ende der 1990er Jahre wurden bei Tochtergesellschaften und Ausgründungen 3000 Mitarbeiter entlassen. Mitte der 1980er Jahre begann der Niedergang des Büromaschinenherstellers Triumph-Adler. 2003 gingen im Rahmen der Auflösung des Grundig-AG-Konzerns rund 1300 Stellen in Nürnberg verloren. Zwischen der ersten Hälfte des Jahres 2006 und März 2007 schloss das Nürnberger AEG-Werk mit einem Verlust von 1750 Stellen. Dienstleistungen. Das Großversandhaus des ehemaligen Quelle-Konzerns Der Nürnberger "Business Tower", das zweithöchste Bürogebäude Bayerns Im Bereich der Marktforschung ist Nürnberg bundesweit führend: jeder dritte deutsche Marktforscher arbeitet hier. So verfügt Nürnberg beispielsweise mit der Nürnberger Versicherungsgruppe, der DATEV oder der Gesellschaft für Konsumforschung über mehrere Großunternehmen im Dienstleistungssektor. Darüber hinaus ist Nürnberg ein bedeutender Standort für Call-Center und für Unternehmen aus dem Bereich Neue Medien. So haben hotel.de und Immowelt hier ihren Sitz. Der ehemals weltgrößte Versandhaus-Konzern Quelle GmbH ging im Juni 2009 in Insolvenz und wurde ab Oktober aufgelöst. 3700 Mitarbeiter wurden in Nürnberg und Fürth arbeitslos, weitere Arbeitsplatzverluste gibt es bei Dienstleistern wie DHL und Zulieferern. Gewerbegebiete bzw. Gewerbeparks. Insbesondere in den letzten 15 Jahren sind in Nürnberg zahlreiche Gewerbegebiete und Gewerbeparks entstanden. Grund für die Schaffung war oft eine innerstädtische Raumneuordnung, da ehemalige Industriegebiete nach dem Weggang der Industrie aufgelassen worden waren. Messe. Die Messe Nürnberg ist einer der bedeutendsten Kongress- und Messestandorte Deutschlands und steht weltweit in der Liste der Top 20. Hier findet unter anderem jährlich Fachmessen wie die Spielwarenmesse oder die BioFach sowie Publikumsveranstaltungen (beispielsweise die Consumenta) statt. Zeitungen, Zeitschriften und regelmäßige Publikationen. Die großen Nürnberger Tageszeitungen sind die "Nürnberger Nachrichten" (NN), die "Nürnberger Zeitung" (NZ) sowie die "Bild-Zeitung" Nürnberg. Von der Stadt selbst herausgegeben wird die anspruchsvoll gestaltete Zeitschrift "Nürnberg Heute"; sie beleuchtet Stadtgeschehen und -entwicklung. Bundesweit erscheint das Sportmagazin "Kicker" des Nürnberger Olympia-Verlags. Rundfunk. Der Bayerische Rundfunk betreibt in Nürnberg das Studio Franken, welches für die Hörfunk- und Fernsehberichterstattung aus einem großen Teil Frankens zuständig ist. Der private Fernsehsender Franken Fernsehen hat sein Programm auf den Großraum Nürnberg-Fürth-Erlangen sowie ganz Mittelfranken und die westliche Oberpfalz ausgerichtet. Seit dem März 2006 betreibt der IT-Outsourcer Atos den Leitstand des Rechenzentrums für Sky Fernsehen GmbH in Nürnberg. Es gibt zahlreiche kommerzielle und nichtkommerzielle lokale Radiosender. Als Funkhaus Nürnberg firmieren mehrere private Hörfunkstationen. Seit dem 30. Mai 2005 werden 24 Fernsehsender digital im DVB-T Format vom Fernmeldeturm Nürnberg ausgestrahlt. Druck. Nürnberg ist ein bedeutender Druckstandort in Deutschland. Im Jahr 2002 sorgten über 6000 Beschäftigte in 43 Betrieben für einen Umsatz von mehr als 1,2 Milliarden EUR. Die größten Druckereien Nürnbergs sind die Firmen Prinovis (vormals: maul-belser) und die Schlott Gruppe AG mit ihren Unternehmen „u. e. sebald Tiefdruck“ und „heckel Rollenoffset“ (gehört seit 1. Oktober 2005 zu Konradin-Druck). Heute sind die c’t (ca. 500.000), das Kicker-Sportmagazin und die Nürnberger Nachrichten, eine der größten deutschen Regionalzeitungen mit einer Auflage von rund 300.000 Exemplaren, bedeutend. Fernverkehr. Der Nürnberger Hauptbahnhof im Stil des Neobarock Als größter Dienstleister für den landgebundenen öffentlichen Verkehr tritt die Deutsche Bahn auf. Der Hauptbahnhof Nürnberg wirkt als Drehkreuz für den Schienenfernverkehr in Nordbayern. Nürnberg liegt im Schnittpunkt mehrerer ICE- und IC- sowie einzelner D-Zug-Linien. Nachdem vom ZOB Nürnberg bis Anfang des Jahres 2013 hauptsächlich osteuropäische Ziele per Fernbus angefahren wurden, bieten die seit der Liberalisierung des Marktes neu auftretenden Fernbusanbieter wie z. B. FlixBus oder Bus and Fly, inzwischen auch viele innerdeutsche Verbindungen von Nürnberg aus an. Regionalverkehr. Das Fernverkehrsnetz wird durch zahlreiche Regionalverbindungen ergänzt. Regional-Express- und Regionalbahn-Züge bedienen die Eisenbahnstrecken in Richtung Amberg, Ansbach, Forchheim, Kitzingen, Neumarkt in der Oberpfalz, Pegnitz und Treuchtlingen. Auf der seit dem 10. Dezember 2006 vollständig in das Fernverkehrsnetz integrierten Schnellfahrstrecke Nürnberg–Ingolstadt–München verkehrt neben den normalen ICE-Zügen mit dem München-Nürnberg-Express der schnellste Regional-Express Deutschlands. Ein einheitliches Preissystem erlaubt die Benutzung regionaler und städtischer Verkehrsmittel mit ein und derselben Fahrkarte. Die Tarife des Verkehrsverbund Großraum Nürnberg (VGN) gelten in ganz Mittelfranken sowie in Teilen der Regionen Oberfranken, Unterfranken und Oberpfalz. Stadtverkehr. Die städtischen Linien des öffentlichen Nahverkehrs werden durch die Verkehrs-Aktiengesellschaft Nürnberg (VAG) betrieben. Rückgrat des Verkehrs bildet das Schienennetz, bestehend aus fünf Straßenbahn- und drei U-Bahn-Linien. Die vier S-Bahn-Linien der Deutschen Bahn dürfen ebenfalls zum Teil dem Stadtverkehr zugerechnet werden, da sie einen nennenswerten Anteil des Nürnberger Binnenverkehrs bewältigen. Die 51 Stadtbuslinien erschließen die nicht mit U-, S- oder Straßenbahn angebundenen Stadtteile. Nach dem Generalverkehrsplan 1972 und der ÖPNV-Planung 1993 arbeitet die Stadt Nürnberg zusammen mit einem externen Ingenieursbüro seit 2008 an einem Nahverkehrsentwicklungsplan 2025+ (NVEP 2025). Ziel dabei ist es, einen attraktiven Ausbauplan für den Nahverkehr zu entwickeln, damit in Zukunft mehr Pendler den ÖPNV nutzen. Individualverkehr. Autobahnen und Hauptstraßen im Großraum Nürnberg Stadtstraßen. Die Gesamtlänge aller Straßen im Stadtgebiet beträgt 1138,8 Kilometer (Stand 1. Januar 2006). An mehr als 500 Knotenpunkten wird der Verkehr durch Lichtsignalanlagen geregelt. Je nach Tageszeit und Verkehrssituation werden die Programme an den Lichtsignalanlagen automatisch oder manuell umgeschaltet. Feuerwehr, Straßenbahn und Linienbusse erhalten an über 100 Kreuzungen automatisch Vorrang. Auf 1000 Einwohner kommen durchschnittlich 582 Kraftfahrzeuge. Ein großer Anteil am Verkehr in Nürnberg wird den täglichen Pendlerströmen zugerechnet. Im Jahr 2005 wurden in einer Werktag-Stichprobe 572.543 stadtgrenzüberschreitende Kraftfahrzeugfahrten gezählt. Der Frankenschnellweg (A 73) wurde auf dem Stadtgebiet zur Kommunalstraße umgewidmet. Bis 2020 soll die Schnellstraße kreuzungsfrei ausgebaut werden und von der Rothenburger Straße bis zur Otto-Brenner-Brücke als Tunnel geführt werden. Hierdurch sollen auch die Emissionen sowie die Schrankenwirkung zwischen den Stadtteilen reduziert werden. Im nördlichen Bauabschnitt wird der Lärmschutz ausgebaut. Die „Neue Kohlenhofstraße“ soll ebenfalls die umliegenden Stadtteile entlasten. Das Projekt wird rund 400 Millionen Euro kosten. Laut Verkehrsunfallstatistik wurden im Jahr 2004 auf städtischen Straßen 2703 Menschen verletzt und 11 Menschen getötet. Dynamisches Verkehrsleitsystem. Einer von über 140 dynamischen Wegweisern (Karl-Schönleben-Straße) Zur Steuerung des Verkehrsflusses bei Veranstaltungen oder in besonderen Situationen, wie Baustellen und Unfällen, besitzt Nürnberg ein dynamisches Verkehrsleitsystem. Induktionsschleifen in den Fahrbahnen erfassen Fahrzeuganzahl, -typ und ungefähre Geschwindigkeit. Diese Informationen werden automatisch oder manuell analysiert und führen zu verkehrssituationsabhängigen Anzeigen auf dynamischen Wegweisern im Stadtgebiet sowie auf den umliegenden Autobahnen. Das dynamische Verkehrsleitsystem Nürnberg ist in seiner Art das größte in Europa. Radverkehr. Für den Radverkehr in Nürnberg wurde ein eigenes Wegweisersystem eingeführt. Zahlreiche Einbahnstraßen wurden in Gegenrichtung für den Radverkehr freigegeben. Der ADAC bewertete das Radwegenetz im Jahr 2003 als durchschnittlich. Kritisiert wird das Fehlen von Radwegen oder Radstreifen entlang von Hauptverkehrsstraßen; als Beispiel sind Bucher Straße und Tafelfeldstraße genannt. Gelobt werden die relativ geringe Unfallzahl und radfahrergünstige Ampelschaltungen. In einer Umfrage des ADFC im Jahr 2005 nimmt Nürnberg im Kreis der Städte mit über 200.000 Einwohnern einen mittleren Platz ein (Rang 13 von 28 bei einem Notenmittelwert von 3,84). Gelobt wurde die Erreichbarkeit des Stadtzentrums, bemängelt wurde hingegen insbesondere die Verkehrsführung an Baustellen. Fußwege. Nürnberg besitzt allein in der ca. 1,6 km² großen Altstadt mehrere Fußgängerzonen mit einer Gesamtlänge von ca. 5700 Metern. Der Stadtrat hatte 1966 beschlossen, eine Fußgängerzone einzurichten, da durch den Bau der U-Bahn die Einstellung des Oberflächenverkehrs möglich wurde. 1973 wurde ein städtebaulicher Wettbewerb durchgeführt, aus dem ein Vorschlag von Bernhard Winkler als Sieger hervorging. Nach diesem Plan begann 1975 die Einrichtung der Fußgängerzone. Die Fußwege entlang Pegnitz, Wöhrder Wiese und Wöhrder See gelten als attraktiv und werden von vielen Spaziergängern, Joggern und Radfahrern genutzt. Luftverkehr. Mit dem Flughafen Nürnberg (Airport Nürnberg), der im Norden der Stadt liegt, ist Nürnberg national und international angebunden. Die Anzahl von Starts und Landungen ist seit dem Jahr 1998 von 84.041 auf 78.043 (Stand 2006) gesunken, während die Zahl der beförderten Passagiere im gleichen Zeitraum von 2.529.307 auf 3.965.357 gestiegen ist. Im Jahr 2008 waren es 4,274 Millionen. Schiffsverkehr. a> verknüpft als trimodaler Güterumschlagsplatz den Wasserweg mit Schiene und Straße An das nationale und internationale Wasserstraßennetz ist Nürnberg durch den am westlichen Stadtrand verlaufenden Main-Donau-Kanal angebunden. Neben dem Bayernhafen Nürnberg ist auf dem Hafengelände im Süden der Stadt das größte Güterverkehrszentrum (GVZ) Süddeutschlands beheimatet. Nürnberg ist eine wichtige Station für Flusskreuzfahrten zwischen Donau und Rhein, die Anlegestelle wurde 2014 stark ausgebaut und bietet nun zehn Liegeplätze. Öffentliche Sicherheit. Der Rettungsdienst wird durch die Hilfsorganisationen Arbeiter-Samariter-Bund (ASB), Bayerisches Rotes Kreuz (BRK), Johanniter (JUH) und Malteser Hilfsdienst (MHD) sichergestellt. Zudem beteiligt sich das private Unternehmen „Münchner Krankentransporte OHG“ (MKT) im Bereich Krankentransport. Allgemeinbildende Schulen. Zum weiteren Bildungsangebot im Stadtgebiet gehören 13 Gymnasien, fünf Realschulen (öffentlich und privat), drei Gesamtschulen (öffentlich und privat), je zwei Fach- und Berufsoberschulen sowie zahlreiche Berufs-, Berufsfach-, Fach-, Haupt- und Grundschulen. Die Stadt Nürnberg betreibt ein Pädagogisches Institut, das die Schulen bei der Schulentwicklung unterstützt sowie einen Schulpsychologischen Dienst, die ihren Sitz im Haus der Pädagogik haben. Hochschulen. Im Mai 1526 wurde in Nürnberg das Gymnasium St. Egidien gegründet, aus dem nach nur neunjähriger Betriebszeit schließlich 1575 die vom Nürnberger Stadtrat gegründete Akademie "Publica et trivialis schola" und 1622 die Universität in Altdorf bei Nürnberg offiziell hervorging. Nürnberg ist Standort der Wirtschafts- und Sozialwissenschaftlichen Fakultät (ehemals: Hochschule für Wirtschafts- und Sozialwissenschaften Nürnberg) sowie der Erziehungswissenschaftlichen Fakultät der Friedrich-Alexander-Universität Erlangen-Nürnberg. Weitere Hochschulen sind die Technische Hochschule Nürnberg Georg Simon Ohm, die Akademie der Bildenden Künste Nürnberg, die Evangelische Hochschule Nürnberg und die Hochschule für Musik Nürnberg. Die nordrhein-westfälische Fernuniversität in Hagen unterhält ein Regionalzentrum in Nürnberg. Das Bildungszentrum Nürnberg am Gewerbemuseumsplatz Erwachsenenbildung. Die Volkshochschule Nürnberg (BZ Nürnberg) bietet jährlich in den Bereichen Gesellschaft, Gesundheit, Beruf und Karriere, Sozial-integrative Bildung, Kultur, Sprachen, Planetarium und Lernwelten rund 6000 Veranstaltungen an. Neben dem Hauptstandort am Gewerbemuseumsplatz wird seit 2009 auch in Zusammenarbeit mit dem Amt für Kultur und Freizeit der so genannte Südpunkt betrieben Bibliotheken und Archive. Die Stadtbibliothek Nürnberg ist die älteste Stadtbibliothek im deutschen Sprachraum und ging aus der seit 1370 nachweisbaren Ratsbibliothek hervor. Sie umfasst die Bibliothek Egidienplatz (im Pellerhaus), die Zentralbibliothek am Gewerbemuseumsplatz, mehrere Spezialbibliotheken sowie Stadtteil- und Fahrbibliotheken. Nach Anschluss des aktuellen Umbaus sollen die Musikbibliothek und die Bibliothek am Egidienplatz mit dem bestehenden Angebot zu einer modernen Zentralbibliothek im Luitpoldhaus zusammengeführt werden. Insgesamt hat die Stadtbibliothek einen Bestand von mehr als 900.000 Medien. Sie besitzt zudem rund 3000 Handschriften, 2100 Inkunabeln und 77.000 alte Drucke. Die Universitätsbibliothek Erlangen Nürnberg betreibt auf dem Stadtgebiet ihre Wirtschafts- und Sozialwissenschaftliche Zweigbibliothek (WSZB) sowie die Erziehungswissenschaftliche Zweigbibliothek (EZB). Daneben bietet die Bibliothek der Technischen Hochschule Nürnberg Georg Simon Ohm rund 190.000 Medien sowie die Bibliothek des Germanischen Nationalmuseums rund 500.000 Medien an, unter denen sich 3380 Handschriften und etwa 1000 Inkunabeln und 3000 Drucke des 16. Jahrhunderts finden. Die beiden wichtigen Archive in Nürnberg werden nach Trägerschaft unterschieden und sind das Stadtarchiv Nürnberg und das Staatsarchiv Nürnberg. Forschungseinrichtungen. Im Nordosten der Stadt unterhält die Firma Alcatel-Lucent das „Optical Center of Excellence“. Dort befindet sich auch eine Forschungseinrichtung des Fraunhofer-Instituts für Integrierte Schaltungen (IIS). Nürnberg ist ein Zentrum der Arbeitsmarkt- und Berufsforschung. Das Institut für Arbeitsmarkt- und Berufsforschung (IAB) und das Forschungsinstitut Betriebliche Bildung (f-bb) arbeiten in diesem Gebiet. 2009 beschloss die Bayerische Staatsregierung den Aufbau des Energie Campus Nürnberg (EnCN), der zunächst auf 5 Jahre mit 50 Millionen Euro gefördert werden soll. Im Energie Campus Nürnberg wurden bereits bestehende Forschungseinrichtungen auf dem Feld der Energieforschung der Friedrich-Alexander-Universität Erlangen-Nürnberg, der Technischen Hochschule Nürnberg Georg Simon Ohm, des Fraunhofer-Instituts für Integrierte Schaltungen, des Fraunhofer-Instituts für Integrierte Systeme und Bauelementetechnologie und des Fraunhofer-Instituts für Bauphysik sowie des Bayerischen Zentrums für Angewandte Energieforschung vernetzt und mit Forschungsmitteln ausgestattet. Museen. Nürnberg besitzt viele kunst- und kulturgeschichtliche Museen. Unter anderem Gedenkstätten. An mehreren Stellen der Stadt wird der Opfer der NS-Gewaltherrschaft gedacht. Auf dem Jüdischen Friedhof in der "Schnieglinger Straße 155" (Westfriedhof) befinden sich die Gräber von 31 KZ-Häftlingen, und eine Gedenkplatte beim Monument für die jüdischen Gefallenen des Ersten Weltkrieges erinnert an die jüdischen Bürger, die Opfer der Shoa wurden. Ein Gedenkstein auf dem "Südfriedhof" aus dem Jahr 1963 bewahrt die Erinnerung an 3.554 sowjetische Staatsbürger, die Opfer von KZ-Haft und der Zwangsarbeit wurden. Am Plärrer wurde 2007 das Zwangsarbeiter-Mahnmal „Transit“ eingeweiht, das an die im Zweiten Weltkrieg nach Nürnberg verschleppten Zwangsarbeiter erinnert. Am "Hans-Sachs-Platz", am Kopf der "Spitalbrücke", wird mit einem Gedenkstein der geschändeten Hauptsynagoge und der etwa 1700 jüdischen Bürger gedacht, denen die NS-Machthaber Gotteshaus und Leben nahmen. Ähnliches ist auf einer Gedenktafel zu lesen, die im neuen Jüdischen Gemeindezentrum "Priemstraße 20" angebracht ist. Im Nebengebäude des Nürnberger Justizgebäudes an der Bärenschanzstraße 72, in dessen "Schwurgerichtssaal 600" die Nürnberger Prozesse stattfanden, ist seit 2010 das Museum „Memorium Nürnberger Prozesse“ eingerichtet. Theater und Kinos. Neben dem kommunalen Filmhaus Nürnberg und dem Fremdsprachenkino Roxy gibt es das Cinecittà Nürnberg (nach eigenen Angaben größter Kinokomplex Deutschlands), den Kinopalast Admiral und einige kleinere (Programm-)Kinos. Musik. Die Nürnberger Symphoniker in der Meistersingerhalle Regelmäßige Veranstaltungen. Die Altstadt mit ihrer Geschichte ist Ort zahlreicher Veranstaltungen. So bieten Stadt(ver)führungen die Gelegenheit für Einheimische wie Touristen, Nürnberg neu zu entdecken. Unter einem jährlich wechselnden Thema bieten Experten, Prominente und Stadtführer zahlreiche Führungen innerhalb eines Rahmenprogramms an. Die Blaue Nacht findet seit dem Jahr 2000 jährlich mit einem jeweils wechselnden inhaltlichen Schwerpunkt statt und lädt ein, die zahlreichen Museen und Kultureinrichtungen vom frühen Abend bis in die Morgenstunden mit zahlreichen Darbietungen und Performances kennenzulernen. Die Altstadt erstrahlt in dieser Nacht in einem blauen Licht. Im Dezember zieht der berühmte Nürnberger Christkindlesmarkt am Hauptmarkt Besucher aus aller Welt an. Am Rathausplatz präsentieren sich zu dieser Zeit auch die zahlreichen befreundeten und Partner-Städte. Die Tradition des Chriskindlesmarkts in Nürnberg lässt sich bis zum Jahr 1628 zurückverfolgen Die Blaue Nacht ist eine Kulturnacht mit geöffneten Museen und Performances Ein Bierzelt vor der Eröffnung auf dem Nürnberger Volksfest Daneben beheimatet Nürnberg zahlreiche Musikfestivals der verschiedensten Musikstile. Das Nürnberger Bardentreffen ist am ersten Wochenende der Schulsommerferien mit 200.000 Besuchern das größte Weltmusik- und Songwriter-Festival weltweit. Rund 100.000 Besucher kommen jährlich zum kostenlosen Klassik Open Air, bei dem die Nürnberger Symphoniker und die Nürnberger Philharmoniker zu einer ungezwungenen Picknick-Atmosphäre am Luitpoldhain an zwei Abenden auftreten. Seit 1997 treten bei Rock im Park international bekannte Künstler der Rock- und Popmusik vor etwa 70.000 Besuchern im Volkspark Dutzendteich auf. Zusammen mit Rock am Ring ist es das größte Festival dieser Art in Deutschland. Das Brückenfestival am Pegnitzgrund unter der Theodor-Heuss-Brücke bietet abseits des Mainstreams eintrittsfrei zahlreiche Auftritte und mit der Internationale Orgelwoche Nürnberg ist Nürnberg Gastgeber für das wohl größte und älteste Festival für geistliche Musik und Orgelmusik. Der Opernball findet jährlich im Opernhaus des Staatstheaters Nürnberg statt. Das Türkisch-Deutsche Filmfestival ist eine bedeutende interkulturelle Veranstaltung, da es auch international Aufmerksamkeit erfährt. Daneben gibt es auch das internationale Filmfestival der Menschenrechte. Die Nürnberger Autorengespräche zu aktuellen und zeitgeschichtlichen Themen im Kontext der geschichtlichen Rolle der Stadt fanden zuletzt 2005 statt. Seit 2003 lädt die Region Nürnberg/Erlangen/Fürth zusammen mit den Hochschulen und innovativen Unternehmen alle zwei Jahre zur Langen Nacht der Wissenschaften ein. Das Radrennen Rund um die Nürnberger Altstadt ist als Eintagesrennen für Amateure und Profis mit seinem Rahmenprogramm entlang der Stadtmauer Anziehungspunkt für Zuschauer. Ebenso große Beliebtheit erfährt der Nürnberger Stadtlauf. Auf seiner Strecke in der südlichen Altstadt und entlang des Wöhrder Sees starten jährlich rund 7000 Freizeitsportler. Daneben wird jährlich auf dem Norisring ein Rennen der DTM ausgetragen. Zu dem Rennen, das vom "Motorsportclub Nürnberg" ausgerichtet wird, kamen 2006 über 150.000 Besucher. Das Nürnberger Volksfest entstand am 25. August 1926 ähnlich wie das Münchner Oktoberfest zu Ehren des bayerischen Königs Ludwigs I. Seit 1919 findet parallel dazu in der ersten Jahreshälfte das Frühlingsfest statt. Mit ihren Attraktionen und Bierzelten locken die Feste jeweils etwa 1,6 Mio. Besucher an. Daneben gibt es im Herbst auch das Altstadtfest mit Verkaufsbuden am Hauptmarkt und den Fest-Stuben und Zelten am Hans-Sachs-Platz und auf der Insel Schütt. Eröffnet wird das Altstadtfest mit dem traditionellen Fischerstechen, das seit dem Mittelalter als Brauchspiel belegt ist und bei dem zwei Mannschaften in Wettstreit treten, sich auf der Pegnitz von kleinen Kähnen zu stoßen. Das Altstadtfest greift das traditionelle Patronatsfest des Heiligen Egidius auf, das vom Spätmittelalter bis ins 19. Jahrhundert gefeiert wurde. In seiner heutigen Form findet es seit 1975/1984 statt und hat über eine Million Besucher. Durch den bekannten Karnevalisten Bromig und Stadtrat Horst Volk wurde das Fischerstechen 1964 wieder ins Leben gerufen. Seit 1970 wird es jährlich beim Nürnberger Altstadtfest durchgeführt. Der mittlerweile verstorbene ehemalige Stadtrat Horst Volk war auch maßgeblicher Initiator der Neuauflage und Wiederentdeckung des Altstadtfestes. Ein Höhepunkt der fränkischen Festkultur ist die Kirchweih (fränk. "Kärwa"), die je nach Stadtteil oder Dorf zu verschiedenen Zeiten stattfindet. Die traditionelle Form der Dorfkirchweih hat sich neben dem Nürnberger Umland auch in Dörfern (beispielsweise Neunhof oder Großgründlach) des Knoblauchslands erhalten. Bekannt ist daneben auch die Johanniskirchweih des Stadtteils St. Johannis. Nachtleben. In der Nürnberger Altstadt befinden sich Kneipen und Bars vor allem unterhalb der Burg, in der Umgebung der Weißgerbergasse und entlang der Pegnitz. Größere Diskotheken und Clubs liegen meist außerhalb der Altstadt. Die Musikrichtungen Rock, Pop und Hip Hop werden unter anderem in einem Diskothekenzentrum im und um das ehemalige Gebäude der Vereinigten Margarinewerken RESI in der Klingenhofstraße gespielt. Eher abseits vom Mainstream trifft man sich in den Kulturzentren der Frankenstraße sowie in den Diskothek und Clubs der Vogelweiherstraße. Auch das Programm im K4 (Kulturzentrum) und den verschiedenen Kulturläden in den Stadtteilen bereichern das abendliche Angebot. Am Paniersplatz findet sich ein renommierter Jazz-Club. Gehobenere Restaurants liegen unter anderem am Weinmarkt sowie nahe dem Germanischen Nationalmuseum. Dem zunehmenden Problem von Alkoholexzessen vor allem bei Jugendlichen ist die Stadt im Jahr 2007 und 2008 im Marienbergpark im Bereich des Marienbucks und des Marienbergsees sowie am Pegnitzgrund mit verstärkten Kontrollen und im Bereich Kohlenhof (Flatrate-Partys örtlicher Diskotheken) mit einem Verbot begegnet, letzteres offenbar mit Vorbildcharakter auch für andere Großstädte. Die öffentlichen Verkehrsbetriebe VAG bieten in den Nächten vor Samstag und Sonntag sowie vor Feiertagen und Brückentagen einen Nachtbusverkehr an, der die gesamte engere Region erschließt und dessen Linien jede volle Stunde vom Hauptbahnhof abfahren. Grünflächen und Naherholungsgebiete. Die Stadt wird im Osten vom Reichswald umschlossen, den die Pegnitz in eine nördliche „Sebalder“ und eine südliche „Lorenzer“ Hälfte teilt. Der Reichswald dient als weitläufiges Naherholungsgebiet sowie Frischluft- und Wasserreservoir und ist als größter Kulturforst Europas mit seinen 25.000 ha seit 1979 Bannwald. Der hohe Nadelholz-Bestand geht auf die Einführung der Waldsaat durch den Nürnberger Ratsherren Peter Stromer 1343 zurück. Die Wöhrder Wiese nahe der Altstadt Heute versucht man den Laubholzanteil kontinuierlich zu erhöhen. An den Lorenzer Reichswald grenzt der Schmausenbuck als beliebtes Ausflugsziel, der mit 309 Metern einer der höchsten Punkte im Stadtgebiet ist, früher als Sandsteinbruch diente und seit 1939 den damals neu angelegten Nürnberger Tiergarten beherbergt. Am Rande des Sebalder Reichwalds in der Nähe von Kraftshof liegt der Irrhain. Er wurde vom Pfarrer Martin Limburger und dem barocken Dichterverband Pegnesischer Blumenorden als „Symbol des Weltirrwalds“ angelegt. Der Moritzberg, dessen gleichnamiger Ort heute offiziell zu Röthenbach gehört und im Lorenzer Reichswald liegt, gilt mit seinen 598 Metern als Hausberg der Nürnberger und ist neben der fränkischen Moritzbergkirchweih am Sonntag vor dem Bartholomäustag bei schönen Wetter das ganze Jahr Anziehungspunkt. Daneben sind kunstvolle und historisch bedeutende Gartenanlagen der barocke Schlosspark von Neunhof, die Hesperidengärten in St. Johannis und der so genannte Bürgermeistergarten sowie der Burggarten auf den Basteien der Stadtbefestigung neben der Kaiserburg. Weitere kleinere Parkanlagen sind der Archivpark in der Nähe des Friedrich-Ebert-Platzes, umrahmt von Gebäuden aus der Gründerzeit und des Jugendstils, der Cramer-Klett-Park mit seinen klassizistischen Gartenbauten, der intensiv genutzte Rosenaupark nahe dem Plärrer, der Südstadtpark sowie der Platnersberg und der Rechenberg im Osten der Stadt. In der Altstadt lädt das Ufer der Pegnitz immer wieder zum Entspannen ein. Diese bildet östlich des Altstadtrings, dessen Stadtmauergraben ebenfalls parkähnlich begrünt ist, neben der Wöhrder Wiese den aufgestauten Wöhrder See. Dort finden sich beliebte Biergärten sowie das Erfahrungsfeld zur Entfaltung der Sinne. Der Dutzendteich (von "dutze" für Schilfrohr) ist ein um 1430 aufgestauter See in südöstlicher Richtung vom Zentrum. Er diente als Fischweiher und war schon im 16./17. Jahrhundert ein beliebtes Ausflugsziel. Zusammen mit dem angrenzenden Luitpoldhain wurde er 1906 als Fläche für die Bayerische Landes-Gewerbe-Industrie und Kunstausstellung unter Prinzregent Luitpold genutzt. Nach 1933 in der NS-Zeit wurde das Gebiet zum Reichsparteitagsgelände umgestaltet und vor allem der Dutzendteich erheblich verkleinert. Auch wenn heute noch zum Teil unklar ist, wie man mit dem in der NS-Zeit entstandenen Areal neben einer musealen und mahnenden Nutzung umgehen soll, ist der Volkspark Dutzendteich wieder ein beliebtes Naherholungsgebiet. Der Nürnberger Gartendirektor Alfred Hensel, der den 100 ha großen Volkspark am Dutzendteich und darüber hinaus Sport- und Spielplätze, die Umgestaltung der Luitpoldarena sowie die Landschaftsgestaltung des 60 ha großen Nürnberger Tiergartens geplant hatte, bekam 1942 die Aufgabe, ein integriertes Grünflächensystem für die Stadt und umgebende Bereiche zu entwickeln. Es entstand ein zusammenhängendes Areal mit einer Längsausdehnung von 20 km, das bestehende Grünanlagen einbezog und Fußgängerverbindungen schuf. Daneben entstanden in der Nachkriegszeit zwischen 1959 und 1973 auf dem Gebiet des ehemaligen Flughafens in Ziegelstein der Volkspark Marienberg im Stil eines englischen Landschaftsparks. Ein weiterer Volkspark entstand zwischen 1970 und 1981 mit dem Westpark (11 ha) im Stadtteil St. Leonhard. Der Stadtpark wurde nach der ersten bayerischen Landesausstellung 1882 auf dem Maxfeld angelegt. Heute ist dort auch der Neptunbrunnen aufgestellt. Am Stadtrand im Stadtteil Röthenbach liegen zudem der weitläufige Faberpark (25 ha) sowie im Stadtteil Gebersdorf ein Teil des Naturschutzgebiets Hainberg mit seinen schützenswerten und seltenen Sandgrasflächen. Siehe auch Liste der Naturschutzgebiete in der Stadt Nürnberg und Liste der Landschaftsschutzgebiete in der Stadt Nürnberg. In der Region bieten zudem die Fränkische Schweiz im Norden mit ihren Klettermöglichkeiten, die Hersbrucker Schweiz im Osten mit ihren Wanderwegen und die Gewässer des Fränkischen Seenlands und der Altmühl im Süden zahlreiche Möglichkeiten für Aktivsportarten rund um die Stadt. Ursprünge des Sports in Nürnberg. Seit dem 14. Jahrhundert entstanden in Nürnberg sportähnliche Gemeinschaften der Schützen und Fechter. 1434 richtete der Rat auf der "Hallerwiese" einen Sport-, Spiel-, Fest- und Schützenplatz ein, der als ältester Deutschlands gilt. 1628 wurde auf der Hinteren Insel Schütt das Fechthaus errichtet. Die Geschichte des modernen Sports begann in Nürnberg, wie anderswo, erst Mitte des 19. Jahrhunderts. 1846 organisierte sich erstmals die Turnbewegung im Turn- und Sportverein 1846 Nürnberg. Der "Turnverein Gleishammer" war der erste süddeutsche Turnverein, der 1893 den Bruch mit der bürgerlichen Turnbewegung vollzog und sich der neu entstandenen sozialdemokratischen Arbeitersportbewegung anschloss. Innerhalb kürzester Zeit entwickelt sich Nürnberg zum süddeutschen Zentrum des Arbeitersports. Entwicklung zur Sporthochburg. a> das dritte Mal Deutscher Meister wurde. Die Dominanz Nürnberger Arbeitersportvereine in den 1920er und frühen 1930er Jahren war ein Teil von Nürnbergs Entwicklung zu einer "Sporthochburg". Die Bedeutung des Nürnberger Fußballs war eine zweite wichtige Komponente. Der 1. FC Nürnberg (FCN) war der erfolgreichste deutsche Fußballverein dieser Zeit und errang zwischen 1920 und 1936 sechsmal die Deutsche Meisterschaft. Mit 9 Meistertiteln ist der FCN noch immer Vize-Rekordmeister. Spieler des 1. FC Nürnberg stellten phasenweise die Hälfte der Spieler der deutschen Fußballnationalmannschaft. In den 1920er Jahren baute die Stadt mit dem eine moderne Sportstätte mit Aschenbahn und angeschlossenem Schwimmbad. Den Ruf als "Sporthochburg" ergänzten die Erfolge Nürnberger Vereine im Kraftsport, Ringen und besonders im Radsport. Allein zwischen 1890 und 1900 waren 52 Radsportvereine gegründet worden. In Nürnberg wurde die erste Radrennbahn Bayerns errichtet, 1912 wurde die noch heute existierende "Radrennbahn Reichelsdorfer Keller" eröffnet. Besonders die Steherrennen erfreuten sich großer Popularität. Nach dem Zweiten Weltkrieg konnte Nürnberg seinen Ruf als "Sporthochburg" nur noch in den 1950er- und 1960er-Jahren aufrechterhalten. Im Radsport und in der Leichtathletik brachte Nürnberg noch vereinzelt herausragende Sportler hervor. Im Handball dominierten die Frauen des 1. FC Nürnberg in den 1960ern. Mit dem Abstieg der Fußballherren des 1. FC Nürnberg 1969, unmittelbar nachdem 1968 letztmals die Deutsche Fußballmeisterschaft errungen wurde, vollzog sich parallel ein Wandel im Nürnberger Sport. Seit Ende der 1970er Jahre bis 2005 fand in unregelmäßigen Abständen der Nürnberg-Marathon statt. Krise des Leistungssports. National und international erfolgreich wurden nur noch Randsportarten wie Faustball beim "Turnverein Eibach 1903" oder Ringen beim SV St. Johannis 07 um Olympiasieger Pasquale Passarelli betrieben. Viele Sportvereine zogen sich aus dem Leistungssport zurück und widmeten sich dem Breitensport. Der "Post SV Nürnberg" wurde auf diese Art in den 1980ern zum mitgliederstärksten deutschen Sportverein und ist 2006 noch zweitgrößter Sportverein Bayerns. Versuche, außer Fußball auch wieder anderen Leistungssport zu etablieren, endeten mit dem finanziellen Kollaps der Vereine. So musste sich der Turn- und Sportverein 1888 Nürnberg 1990 aus der 2. Handballbundesliga zurückziehen, nachdem er in den 1980ern mehrmals in die 1. Bundesliga aufgestiegen war. Rückkehr zum Spitzensport. In den 1990ern und seit der Jahrtausendwende gelang es Nürnberger Vereinen jedoch, in allen populären Mannschaftssportarten erfolgreich zu arbeiten. So kehrte die Herrenfußballabteilung des 1. FC Nürnberg nach dem zwischenzeitlichen Abstieg in die Drittklassigkeit wieder in die 1. Bundesliga zurück. Nach 39 Jahren ohne Titel gewann der "Club" im Jahre 2007 den DFB-Pokal und spielte erstmals seit 19 Jahren wieder international. Die Handballfrauen des 1. FC Nürnberg konnten an ihre erfolgreiche Zeit in den 1960ern anknüpfen und gewannen zuletzt 2008 die deutsche Meisterschaft. Im American Football spielten die Nürnberg Rams von 1983 bis 1998 in der 1. Bundesliga und errangen 1987, 1989, 1991 und 1996 die Meisterschaft in der Süd-Gruppe. Im Eishockey konnten sich die Nürnberg Ice Tigers als Spitzenverein in der höchsten Spielklasse etablieren. 1999 und 2007 wurden die Ice Tigers Deutscher Vize-Meister. Seit 2006 tragen sie an Stelle des Stadtnamens den Namen des Sponsors im Vereinsnamen. Um eine dauerhafte Grundlage für einen Verein in der höchsten Eishockeyspielklasse zu schaffen, wurde im Februar 2001 die bis zu 11.000 Zuschauer fassende Arena Nürnberger Versicherung eröffnet. In dieser Multifunktionsarena spielten von 2005 bis 2007 auch die Sellbytel Baskets Nürnberg, die in dieser Zeit der Basketball-Bundesliga angehörten. Die Arena wurde auch von den Brose Baskets aus Bamberg für die Austragung der Spiele in der ULEB Euroleague genutzt, bevor diese ihre eigene Arena ausbauten. In Nürnberg gibt es nach dem Ende von "Falke" noch den Nürnberger Basketball Club in der zweiten Bundesliga Pro A. In der Feldhockey-Bundesliga ist seit 2007 der Nürnberger HTC vertreten. In der Hallenhockey-Bundesliga waren die Nürnberger sogar mit zwei Vereinen vertreten. Von 2007 bis 2009 spielte die HG Nürnberg erstklassig, der Nürnberger HTC ist seit 2008 in der 1. Liga vertreten. Die Herren des Tennis-Club 1. FC Nürnberg gehörten von 2005 bis 2007 wieder der Bundesliga an. Anfang 2006 kehrte die Ringerstaffel des SV St. Johannis 07 zurück in die 1. Bundesliga, der sie bis Ende 2008 angehörten. Die Rückkehr Nürnbergs in die Riege der Sporthochburgen wurde 2004 mit der Gründung der Deutschen Akademie für Fußball-Kultur untermauert, die seitdem den Zwischenraum zwischen dem sportlichen Aspekt des Fußballs und dem Feuilleton besetzt. Innerhalb des TSC (Tanz-Sport-Club) Rot-Gold-Casino e. V. Nürnberg gibt es eine kleine, aber sehr erfolgreiche Abteilung Rollstuhltanz. Eines der Paare (Claudia Maierl und Christian Feeß) vertritt den Verein auf nationalem und internationalem Parkett. Es ist Deutscher Meister der Klasse LWD1 2005, 2006, 2008 und 2009. Eine der Standardformationen des TSC Rot-Gold-Casino Nürnberg hat eine Standardformation, welche in der 1. Bundesliga tanzt. Eine der ebenfalls dort ansässigen Lateinformationen tanzt in der 2. Bundesliga. Regionale Spezialitäten. Bereits in den Jahren zwischen 1302 und 1310 erließ der Rat der Stadt ein Gebot, ausschließlich mit Gerste zu brauen. Obwohl lange Zeit das untergärig gebraute, stark gehopfte Rotbier in Nürnberg am meisten verbreitet war, ist es heute fast unbekannt. Seit 1531 wurde auch Weißbier gebraut. Aber auch Wein war ein geschätztes Getränk. Die Felsengänge verweisen noch auf die hohe Bedeutung der Braukunst in Nürnberg. Noch im Jahr 1880 stand Nürnberg mit einer Menge von 173.000 Hektolitern an der Spitze des bayerischen Bierexports. Heute sind in der Stadt selbst nur noch wenige Brauereien verblieben, doch hat die Region weiterhin eine hohe Brauereidichte. Diese Kleinbrauereien genießen einen ausgezeichneten Ruf. Bekannt und geschätzt ist auch das Spalter Bier, gebraut aus dem dort angebauten Hopfen. Die bekannteste Wurstspezialität der Stadt ist die Nürnberger Rostbratwurst. Bereits 1497 schrieb der Stadtrat Zutaten und Größe vor. Die geringe Größe von nur sieben bis neun Zentimetern scheint Ausdruck der hohen Preise in Nürnberg zur Zeit des Mittelalters gewesen zu sein. Doch ist das neben der typischen Majoran-Note das Geheimnis ihres Geschmacks, da wegen des günstigen Verhältnisses von Oberfläche und Volumen das Grillaroma des Buchenfeuers besser angenommen wird. Sie wird entweder im Brötchen (fränk. "Weggla") mit Senf oder zu gekochtem Sauerkraut, dann allerdings – von den Einheimischen bevorzugt – mit Meerrettich, fränkisch Kren genannt, gegessen. Als Sauere Zipfel bezeichnet man die in einem Essigsud mit Zwiebeln gekochten Nürnberger Bratwürste. Daneben ist auch die Stadtwurst eine geschätzte Wurstspezialität Nürnbergs. Als "Stadtwurst mit Musik" wird sie in zahlreichen Biergärten im Sommer, dünn aufgeschnitten auf einem Teller, mit fein gehackten Zwiebeln, einem mild-säuerlichen Essigdressing und einigen Scheiben Holzofenbrot serviert. Auch der Ochsenmaulsalat hat einen leicht säuerlich erfrischenden Geschmack. Als Süßwasserfisch wird der Karpfen gebacken oder blau aus der traditionellen Küche der Stadt und in der Region gegessen. Ein typischer Sonntagsbraten ist das Schäuferle mit rohen Klößen. Daneben wird der fränkische Sauerbraten geschätzt, dessen Soße mit einem Soßenlebkuchen verfeinert wird. Die traditionelle Verwendung einer Vielzahl von Gewürzen ist wohl auf den ausgedehnten Fernhandel im Mittelalter zurückzuführen. Auch der überregional bekannte Nürnberger Lebkuchen steht für diesen Aromenreichtum. Seine Produktion in der Stadt ist seit dem 13. Jahrhundert belegt. Zur Kirchweih im Sommer werden traditionell Knieküchle gebacken. Persönlichkeiten. Aus Nürnberg stammen bekannte Persönlichkeiten wie Albrecht Dürer (Maler), Martin Behaim (Erfinder des ersten Globus), Hans Sachs (Dichter), Peter Henlein (vorgeblicher Erfinder der Taschenuhr), Johann Benjamin Erhard (Philosoph), Anton Koberger (Buchdrucker und -händler), Veit Stoß (Bildhauer, Schnitzer), Adam Kraft (Bildhauer), Georg Philipp Harsdörffer (Dichter), Johann Pachelbel (Komponist), Sigmund Schuckert (Erfinder und Industrieller), Theodor von Cramer-Klett (Firmengründer), Max Grundig (Firmengründer), Hugo Distler (Komponist), Theo Schöller (Unternehmer), Hermann Zapf (Typograf), Günther Beckstein (ehemaliger bayerischer Ministerpräsident) und Markus Söder (bayerischer Staatsminister der Finanzen). Daneben war die Stadt aber auch Anziehungspunkt und Teil des Lebens vieler bekannter Personen, wie Georg Wilhelm Friedrich Hegel (Philosoph) und Ludwig Feuerbach (Philosoph). Sagen, Legenden und Anekdoten. Viele Orte der Stadt sind mit Sagen verbunden, wie die Burgmauer, über die Eppelein von Gailingen mit seinem Pferd der Sage nach sprang. Der Stadtpatron St. Sebaldus habe nicht nur zahlreiche Wunder gewirkt, sondern wollte angeblich auch so lange nicht ruhen, bis man die Sebalduskirche errichtete. Kunigunde von Orlamünde habe ihre beiden Kinder ermordet, nachdem sie eine Äußerung des geliebten Burggrafen von Nürnberg missverstand, tat Buße und gründete das ehemalige Kloster Himmelthron außerhalb der Stadtmauern im heutigen Stadtteil Großgründlach. Nach ihrem Tod warne sie als Weiße Frau vor Unglück. Auf dem Unschlittplatz tauchte 1828 Kaspar Hauser auf, der als mysteriöses Findelkind großes Interesse erregte. Auch Schwänke wie Till Eulenspiegel benennen und spielen zum Teil an konkreten Orten der Stadt. Bekannt ist auch der Nürnberger Trichter, eine oft scherzhaft aufgefasste Allegorie für ein mechanisches Verständnis des Lernens, wonach Wissen einflößbar ist, ohne dass es Lernbereitschaft oder Begabung bedarf. Wissenswertes. a> mit historischem Gebäude von Nürnberg Auf der letzten Serie der D-Mark-Banknoten fand sich auf der 500-D-Mark-Banknote, links neben dem Porträt der Naturforscherin Maria Sibylla Merian, eine Collage verschiedener historischer Bauwerke von Nürnberg. Dort sind die Kaiserburg mit Sinwellturm und Kaiserstallung, die Sebalduskirche, die Frauenkirche, das Albrecht-Dürer-Haus, das Fembohaus, das Nassauer Haus, der Weinstadel, das Heilig-Geist-Spital, die Mauthalle, die Lorenzkirche und die Stadtbefestigung zu sehen. Nürnberg stand für einige literarische und musikalische Werke Pate. Dazu zählen unter anderem die Oper "Die Meistersinger von Nürnberg" von Richard Wagner, Adolphe Adams Oper "La poupée de Nuremberg" ("Die Nürnberger Puppe"), ebenso wie Alexandre Dumas’ Erzählung "Histoire d'un casse-noisette" ("Die Geschichte eines Nussknackers"), welche von Pjotr Iljitsch Tschaikowski zum berühmten Ballett vertont wurde. Napoleon Bonaparte. Napoleon Bonaparte, als Kaiser Napoleon I. (oder "Napoléon Ier"); (* 15. August 1769 in Ajaccio auf Korsika als "Napoleone Buonaparte"; † 5. Mai 1821 in Longwood House auf St. Helena im Südatlantik) war ein französischer General, revolutionärer Diktator und Kaiser. Aus korsischer Familie stammend, stieg Bonaparte während der Französischen Revolution in der Armee auf. Er erwies sich als ein militärisches Talent ersten Ranges. Vor allem die Feldzüge in Italien und in Ägypten machten ihn populär. Dies ermöglichte ihm, durch den Staatsstreich des 18. Brumaire VIII (9. November 1799), zunächst als einer von drei Konsuln die Macht in Frankreich zu übernehmen. Von 1799 bis 1804 als Erster Konsul der Französischen Republik und anschließend bis 1814 als Kaiser der Franzosen stand er einem diktatorischen Regime mit plebiszitären Elementen vor. Durch verschiedene Reformen – etwa die der Justiz durch den Code civil oder die der Verwaltung – hat Napoleon die staatlichen Strukturen Frankreichs bis in die Gegenwart hinein geprägt und die Schaffung eines modernen Zivilrechts in besetzten europäischen Staaten initiiert. Außenpolitisch errang er, gestützt auf die Armee, zeitweise die Herrschaft über weite Teile Kontinentaleuropas. Er war ab 1805 auch König von Italien und von 1806 bis 1813 Protektor des Rheinbundes. Durch die von ihm initiierte Auflösung des Heiligen Römischen Reiches wurde die staatliche Gestaltung Mitteleuropas zu einer zentralen Frage im 19. Jahrhundert. Hatte er anfangs selbst noch den Nationalstaatsgedanken außerhalb Frankreichs verbreitet, erschwerte der Erfolg gerade dieses Gedankens besonders in Spanien, in Deutschland und schließlich auch in Russland die Aufrechterhaltung der napoleonischen Ordnung in Europa. Der katastrophale Ausgang des Feldzugs gegen Russland ab 1812 führte letztlich zum Sturz Napoleons. Nach einer kurzen Phase der Verbannung auf Elba kehrte er für hundert Tage an die Macht zurück. In der Schlacht bei Waterloo wurde er endgültig besiegt und bis zu seinem Lebensende auf die Insel St. Helena verbannt. Kindheit. Napoleon wurde als "Napoleone Buonaparte" (korsisch "Nabulione") in Ajaccio auf der Insel Korsika geboren, die nach einem langen Unabhängigkeitskrieg gegen Genua 1768 an Frankreich verkauft worden war. Er war der zweite Sohn von Carlo Buonaparte und Letizia Ramolino, die gemeinsam 13 Kinder hatten, von denen jedoch nur acht die frühen Kindheitsjahre überlebten. Die Familie gehörte dem korsischen Kleinadel an und war seit dem frühen 16. Jahrhundert auf der Insel präsent. Ihre Wurzeln liegen in der italienischen Toskana. Napoleons Großvater war der korsische Politiker Giuseppe Maria Buonaparte; sein Vater Carlo war der Sekretär von Pascal Paoli, einem korsischen Revolutionär und Widerstandskämpfer, und hatte mit diesem für die Unabhängigkeit Korsikas gekämpft. Nach anfänglichen Erfolgen wurden die Aufständischen in der Schlacht von Pontenuovo vernichtend geschlagen, und Paoli ging in das Exil nach Großbritannien. Die Klagen über die verlorene Freiheit und die Opfer gehörten zu den ersten prägenden Einflüssen von Napoleons Kindheit, und Paoli blieb bis in die 1790er Jahre sein Idol und Vorbild. Napoleons Vater hatte als studierter Jurist zwar an einer korsischen Verfassung mitgearbeitet, beugte sich aber 1769 rasch der französischen Oberhoheit. Er arbeitete fortan als Advokat und Richter sowie als Winzer und Landwirt auf seinen Gütern. Sein Entgegenkommen brachte ihm die Gunst der neuen französischen Herren ein. Im Jahr 1771 wurde Carlo besoldeter Assessor in Ajaccio. Darüber hinaus war er gewählter Adelsvertreter im korsischen Standesparlament und in Paris. Die erste wenig anspruchsvolle Ausbildung erhielten die Kinder der Buonapartes in der Stadtschule von Ajaccio, später wurden Napoleon und einige seiner Geschwister von einem Abbé in Schreiben und Rechnen unterrichtet. Vor allem in letzterem soll sich Napoleon ausgezeichnet haben. Aufgrund der umfangreichen Bibliothek des Vaters und seines Einflusses interessierten sich seine älteren Söhne früh für Geschichte, Literatur und Jura. Jugend und militärische Ausbildung. Aufgrund seiner Zusammenarbeit mit den Franzosen gelang es Carlo Buonaparte, vom Gouverneur Korsikas, Louis Charles Graf de Marbeuf, königliche Stipendien für seine Söhne Napoleon und Joseph zu erhalten. Während der ältere Sohn auf den Priesterberuf vorbereitet werden sollte, war der jüngere für die Militärlaufbahn vorgesehen. Im Dezember 1778 verließen beide zusammen die Insel und kamen zunächst auf das Collège von Autun, um vor allem die französische Sprache zu lernen. Im folgenden Jahr ging Napoleon an die Kadettenschule von Brienne. Hier galt der wenig wohlhabende Stipendiat und einzige Korse als Außenseiter. Napoleon im Alter von 16 Jahren (Kreidezeichnung eines unbekannten Zeichners, 1785) Seine schulischen Leistungen waren unterschiedlich; ein besonderes Talent entwickelte er in der Mathematik. Sein Latein blieb so schlecht, dass er darin gar nicht erst geprüft wurde. Seine Orthographie im Französischen war mangelhaft, sein Stil hatte sich dagegen durch umfangreiche Lektüre deutlich verbessert. Dabei interessierte er sich für die großen Helden der Geschichte wie Alexander den Großen und Julius Caesar. Nach einer problemlos bestandenen Prüfung war er zunächst für eine Marinelaufbahn vorgesehen, aber nicht zuletzt der Einspruch der Mutter verhinderte dies. Stattdessen prädestinierten ihn seine mathematischen Kenntnisse für die Artillerie. 1784 wurde er in der École royale militaire in Paris, der renommiertesten Militärschule des Landes, angenommen. Dort lernte er in der Artillerie-Klasse Hydrostatik, Differential- und Integralrechnung. Daneben wurden Staatsrecht und Befestigungskunde gelehrt. Als am 24. Februar 1785 sein Vater an Magenkrebs starb, übernahm Napoleon die Rolle des Familienoberhauptes, die eigentlich seinem älteren Bruder Joseph Bonaparte zustand. Im selben Jahr konnte Napoleon seine Ausbildung aufgrund seiner guten Leistungen vorzeitig beenden und erhielt, kaum 16 Jahre alt, sein Offizierspatent. Er trat in das Regiment "La Fère" in Valence ein. Dort nahm er als Sous-lieutenant im Januar 1786 seinen Dienst auf, bis er im Juni 1788 nach Auxonne (bei Dijon) versetzt wurde. Um seine Mutter zu entlasten, nahm er seinen elfjährigen Bruder Louis zu sich und kümmerte sich um dessen Erziehung. In seiner Freizeit widmete er sich der Literatur und der Schriftstellerei. Er las in dieser Zeit sehr viel. Die Lektüre reichte von Romanen bis zu Lehrbüchern, von antiken Werken wie denen Platons bis zu neuzeitlichen Werken wie denen von Voltaire, Corneille und Lavater oder naturwissenschaftlichen Werken wie Rollins "Geschichte des Altertums", Buffons "Histoire naturelle" oder Marignys "Geschichte der Araber". "Die Leiden des jungen Werthers" von Johann Wolfgang von Goethe hat Napoleon mehrfach gelesen. Daneben studierte er eine Reihe militärischer Standardwerke der Zeit. Als er sich später zunehmend für Politik interessierte, wurde Jean-Jacques Rousseau sein großes Vorbild. Eine konstitutionelle Monarchie wie die Großbritanniens schien ihm vorbildlich. Später ebenfalls von Bedeutung war Guillaume Raynal. Die Revolution und korsische Ambitionen. Napoleone Buonaparte als Oberstleutnant der korsischen Nationalgarde (1792) Napoleon begrüßte die Französische Revolution im Sommer 1789 ausdrücklich, auch wenn er die damit verbundenen Unruhen und Ausschreitungen verurteilte. Er schwor der neuen Ordnung mit seinem Regiment Ende August die Treue. Allerdings sah er die Revolution primär als Chance für die Befreiung Korsikas. Im September nahm er Urlaub von der Armee und kehrte nach Ajaccio zurück. Zusammen mit seinem Bruder Joseph entfaltete er dort umfangreiche politische Aktivitäten. Als Folge der Revolution konnte der Volksheld Pascal Paoli wieder aus dem Exil zurückkehren. Zwar verherrlichte Napoleon in einer Flugschrift Paoli als sein Vorbild, dieser aber misstraute den Söhnen des zu den Franzosen übergegangenen Carlo Buonaparte. 1791 kehrte Napoleon zu seinem Regiment zurück und wurde zum Lieutenant befördert. Nach der versuchten Flucht Ludwigs XVI. im Juni des Jahres erklärte sich Napoleon zum Republikaner und trat dem örtlichen Jakobinerclub bei. Als Wettbewerbstext für die Akademie in Lyon reichte er eine Schrift mit stark republikanisch geprägten Ansätzen ein. Der Aufenthalt bei der Truppe war kurz und Ende 1791 war Napoleon wieder auf Korsika. Dort schaffte er es, gegen den Willen Paolis durch Wahlmanipulation zum Führer der Nationalgarde aufzusteigen. In der Folge wurde deutlich, dass Napoleon diese Position nutzte, um seinen politischen Einfluss gegenüber Paoli auszubauen. Nachdem seine Truppe in blutige Unruhen verwickelt worden war, wurde die Einheit ins Innere der Insel verlegt, und Napoleon kehrte nach Frankreich zurück. Wegen zahlreicher Klagen aus Korsika über die Handlungen Napoleons und seine Überschreitung seines Urlaubs wurde er Anfang 1792 aus der Armee entlassen. Als er daraufhin nach Paris reiste, um seine Wiedereinstellung zu erreichen, wurde ihm diese nicht nur gewährt, sondern aus Mangel an Offizieren wurde er zum Capitaine befördert. Er kehrte allerdings schon bald wieder nach Korsika zurück. Von dort aus beteiligte er sich mit seiner Freiwilligeneinheit am Gefecht bei La Maddalena, einer Militäraktion im Nordosten Sardiniens gegen das Königreich Sardinien-Piemont. Der Versuch, mit seiner Truppe eine zu Sardinien gehörende Insel zu erobern, scheiterte kläglich, weil die Besatzung der Schiffe meuterte. Nachdem der inzwischen neu gebildete Nationalkonvent die Verhaftung Paolis angeordnet hatte und sich Lucien Bonaparte in einem Brief rühmte, dass die Familie Buonaparte dafür verantwortlich sei, musste diese vor dem Zorn der Paolianhänger von der Insel fliehen. Dies bedeutete für die Familie ein Leben im französischen Exil und für Napoleon das Ende seiner korsischen Ambitionen. Soldat der Revolution. Nach der Flucht kehrte Napoleon zu seinem in Südfrankreich stationierten Regiment zurück. In Frankreich hatten inzwischen die Jakobiner des Maximilien de Robespierre die Macht übernommen. Hatte sich Napoleon ein Jahr zuvor noch von den Jakobinern distanziert, diente er nunmehr der neuen Führung. Im Juni 1793 verfasste er eine Broschüre, in der er seine politische Position darlegte. In Form eines fiktiven Dialogs ließ diese keinen Zweifel an Bonapartes Zustimmung zum Regime aufkommen. Der Bruder Robespierres, Augustin, der sich als Beauftragter des Konvents im Süden aufhielt, wurde auf Napoleon aufmerksam und ließ seine Schrift drucken. Außerdem wurde Napoleon zum Kommandanten der Artillerie bei der Belagerung der von aufständischen gemäßigten Revolutionären und Royalisten gehaltenen Stadt Toulon ernannt. Die Aufständischen wurden von der britischen Flotte unterstützt. Die Ausschaltung dieses potentiellen Brückenkopfes für die britische Armee war also von großer Bedeutung. Am 25. November 1793 trug Napoleon dem Befehlshaber General Dugommier seinen Plan für den Sturm auf die Stadt vor. Dieser führte am 19. Dezember zur Eroberung von Toulon. Der Erfolg war der eigentliche Beginn des Aufstiegs Napoleons. Am 22. Dezember wurde er zum Dank mit nur 24 Jahren zum Général de brigade befördert. Er erhielt das Kommando über die Artillerie der Italienarmee, die in Nizza aufgestellt wurde. Nach dem Sturz der Jakobinerherrschaft wurde Napoleon als Parteigänger Robespierres zeitweise inhaftiert, bald aber wieder freigelassen. Seine militärische Karriere erhielt durch die politische Wende einen Rückschlag und führte zum Verlust seines Kommandos. Napoleon lebte nun mit der übrigen Familie Buonaparte in Marseille. Sein Bruder Joseph warb dort um die Hand der Julie Clary und Napoleon verliebte sich in deren Schwester Désirée Clary, die spätere Frau von Jean-Baptiste Bernadotte, dem späteren Marschall und nachmaligen König von Schweden. Unter dem Eindruck dieser Beziehung begann Bonaparte den autobiographisch gefärbten Roman "Clisson et Eugénie" zu verfassen, der über das Entwurfstadium nicht hinauskam. Um seine Karriere zu retten, reiste Napoleon nach Paris und versuchte, sich den neuen Machthabern, den sogenannten Thermidorianern um Paul de Barras, anzudienen. Als es in Paris zu einem Aufstand von rechts kam, wurde Barras zum Oberbefehlshaber der Armee des Inneren ernannt. Ohne eigene militärische Kenntnisse holte er Bonaparte an seine Seite. Dieser ließ mit konzentriertem Geschützfeuer die Aufständischen am 5. Oktober 1795 zusammenschießen. Zum Dank wurde er zum Général de division befördert und kurze Zeit später zum Oberbefehlshaber im Inneren ernannt. Bonaparte lernte im privaten Umfeld der neuen Machthaber Joséphine de Beauharnais kennen. Diese war Witwe des hingerichteten Alexandre de Beauharnais und ehemalige Geliebte von Barras. Für Joséphine, die deutlich älter als Napoleon war, schien bei einer Heirat dessen neue Karriere eine Möglichkeit zu sein, ihren kostspieligen Lebensstil zu finanzieren. Napoleon seinerseits war in Joséphine sicherlich verliebt, aber bei ihm spielten bei dieser Verbindung auch rationale Überlegungen eine Rolle. Damit wurde die Verbindung zu Barras weiter gestärkt und er fand Einlass in die Pariser Gesellschaft. Bonaparte brach die Beziehung zu Désirée Clary ab und heiratete am 9. März 1796 Joséphine. Der Italienfeldzug. Nur zwei Tage nach seiner Hochzeit reiste Napoleon nach Nizza ab, um den Oberbefehl über die Italienarmee zu übernehmen. Seit dieser Zeit nannte er sich anstatt des italienischen Buonaparte französisch Bonaparte. Die ihm unterstellten Generale, wie Pierre-François-Charles Augereau oder André Masséna, standen dem Günstling des Direktoriums anfangs skeptisch gegenüber. Durch sein energisches Auftreten verschaffte sich Bonaparte aber bald allgemeinen Respekt. Die Italienarmee von etwa 40.000 Mann war schlecht ausgerüstet und die Soldaten hatten seit Monaten keinen Sold mehr bekommen. Entsprechend schlecht war die Moral der Truppe. Napoleon gelang es rasch, mit verschiedenen Ansprachen die Begeisterung der Armee zu wecken. „Ich will Euch in die fruchtbarsten Ebenen der Welt führen. Reiche Provinzen, große Städte werden in Eure Hände fallen; dort werdet Ihr Ehre, Ruhm und Reichtümer finden.“ Zur Festigung dieser Begeisterung setzte Bonaparte modern anmutende Propagandamaßnahmen ein. So gab die Armee mit dem "Courier de l’Armée d’Italie" eine eigene Zeitung heraus, die nicht zuletzt den Feldherrn in ein günstiges Licht setzen sollte. An der systematischen Pressearbeit hielt Bonaparte in Zukunft fest. Auch militärisch wurde Italien zum Prototyp zukünftiger Feldzüge. Das militärische Credo des gelernten Artilleristen Napoleon lautete: „Es ist mit den Systemen der Kriege wie mit Belagerungen von Festungen. Man muss sein Feuer auf ein und denselben Punkt konzentrieren. Nachdem die Bresche geschlagen und das Gleichgewicht gestört ist, ergibt sich alles Übrige wie von selbst.“ Danach handelte er. Bonaparte zog seine Kräfte an einer Stelle zusammen und setzte diese geballte Macht ein. Voraussetzung war, dass seine Einheiten schneller marschierten als die der Gegner. In dieser Hinsicht waren die Truppen der Republik, die sich vor allem aus dem durchmarschierten Gebiet ernährten, den Truppen nach Art des Ancien Régime mit ihrem großen Tross deutlich überlegen. Ein weiterer Unterschied war, dass die Generäle der Revolutionsarmeen, die einen totalen Volkskrieg führten, weniger Rücksicht auf Verluste nahmen als die Befehlshaber der alten Armeen des 18. Jahrhunderts. Besser als andere Generale erkannte Napoleon während einer Schlacht, wo er mit seinen Truppen massiert angreifen musste, um den entscheidenden Durchbruch zu erzielen. Beim italienischen Feldzug standen den Franzosen in Norditalien österreichische und sardinisch-piemontesische Truppen von zusammen etwa 70.000 Mann gegenüber. Die konservativen Feldherren der Gegner mit ihren inzwischen längst überholten Kriegstechniken wurden schlichtweg überrannt. Zunächst wurden die beiden Armeen der Gegner in einer Reihe von Schlachten voneinander getrennt. Nachdem König Viktor Amadeus III. von Sardinien nach der Niederlage bei Mondovì um Frieden gebeten hatte, wandte sich Napoleon den Österreichern zu und besiegte sie am 10. Mai 1796 bei der Schlacht von Lodi. Nicht nur seine Soldaten bejubelten den Feldherrn. Auch die Einwohner Mailands bereiteten Bonaparte als scheinbarem Befreier einen begeisterten Empfang. Die anderen italienischen Staaten bemühten sich, mit Geld und der Übergabe von Kunstschätzen den Frieden zu retten. Nach der Schlacht von Lodi begann bei Napoleon die Überzeugung zu wachsen, dass er nicht nur als Militär, sondern auch politisch eine Rolle spielen würde. Die Belagerung der strategisch wichtigen Stadt Mantua dauerte sechs Monate. Während dieser Zeit wurden verschiedene Entsatzarmeen von Bonaparte geschlagen. Nach der Kapitulation am 2. Februar 1797 war der Weg über die Alpenpässe frei. Österreich, unter der militärischen Führung von Erzherzog Karl, musste daraufhin den Frieden von Campo Formio annehmen und dabei erhebliche Gebietsverluste hinnehmen. In Italien errichtete Bonaparte mit der Cisalpinischen Republik und der Ligurischen Republik Tochterstaaten der französischen Republik. Die eigenmächtige Handlungsweise und wachsende Popularität Bonapartes verstärkten beim herrschenden Direktorium das Misstrauen. Sie konnten aber kaum etwas gegen den begeisterten Empfang durch die Bevölkerung nach Bonapartes Rückkehr unternehmen. Die Expedition nach Ägypten. Napoleon fürchtete nach der Rückkehr aus Italien, dass sein Ruhm bald wieder verblassen würde, und drängte das Direktorium, ihm ein neues militärisches Kommando zuzuweisen. Als sich die anfänglich geplante Invasion Großbritanniens als undurchführbar erwies, stimmte die Regierung dem Plan einer Eroberung von Ägypten zu. Ziel war es, Großbritanniens Zugang nach Indien zu stören. Eine von Kriegsschiffen eskortierte Transportflotte lichtete am 19. Mai 1798 die Anker. An Bord waren neben 38.000 Soldaten auch zahlreiche Wissenschaftler und Künstler, die das Land, seine Geschichte und Kunstdenkmäler erforschen und in Ägypten moderne politische und wirtschaftliche Strukturen aufbauen sollten. Nachdem die Franzosen unterwegs die Insel Malta besetzt hatten, landete die Armee am 1. Juli 1798 in Ägypten. Am 21. Juli besiegten die französischen Expeditionsstreitkräfte eine Mamlukenarmee in der Schlacht bei den Pyramiden und zogen am 23. Juli in Kairo ein. Dort erreichte Napoleon die Nachricht, dass seine Schiffe von einer britischen Flotte unter Horatio Nelson bei Abukir versenkt worden waren. Die Ägyptenarmee war damit weitgehend vom Mutterland abgeschnitten. Mit Hilfe der mitgereisten Experten begann Bonaparte mit verschiedenen Reformen und gründete das Institut d’Égypte, das zu einer Keimzelle der Ägyptologie wurde. Im Zuge der Expedition wurde unter anderem der Stein von Rosette gefunden. Eine Abschrift dieser mehrsprachigen Inschrift ermöglichte Jean-François Champollion 1822 die Entschlüsselung der Hieroglyphen. Von den Ägyptern wurde Napoleon nicht wie in Italien als Befreier, sondern als Ungläubiger und fremder Eroberer angesehen. Ein Aufstand in Kairo musste gewaltsam niedergeschlagen werden. Da Ägypten offiziell Teil des Osmanischen Reiches war, erklärte dieses Frankreich den Krieg. Napoleon marschierte daraufhin mit einem Teil seiner Armee den neuen Gegnern in Richtung Palästina entgegen. Die Eroberung von Jaffa und Gaza gelang, doch die Festung in Akkon konnte sich halten. Nachdem die französische Armee durch die Pest dezimiert worden war, musste Napoleon sich nach Ägypten zurückziehen. Dort konnten die Franzosen eine osmanische Armee in der Schlacht von Abukir am 25. Juli 1799 zwar noch einmal besiegen, aber für Napoleon war klar, dass die Ziele der Expedition nicht mehr durchsetzbar waren. Außerdem spitzten sich die außenpolitische Lage in Europa durch den Vormarsch alliierter Truppen im Zuge des zweiten Koalitionskrieges und die innenpolitische Krise in Frankreich zu. Dies veranlasste Bonaparte, Ägypten unter Zurücklassung der Expeditionstruppen am 23. August 1799 zu verlassen. Mit viel Glück segelte er durch die Blockade der Royal Navy und erreichte am 30. September Ajaccio auf Korsika. Das französische Festland betrat er bei Saint-Raphaël wieder am 9. Oktober. In Frankreich spielte das Scheitern der Expedition kaum eine Rolle, vielmehr wurde Bonaparte bei seinem Weg nach Paris als Volksheld gefeiert. Viele Bürger erhofften sich von ihm militärische Erfolge, die Wiederherstellung des Friedens in der Außenpolitik und innenpolitisch die Überwindung des abgewirtschafteten und korrupten Direktoriums. Staatsstreich des 18. Brumaire VIII.. Nicht nur in der Bevölkerung hatte das Direktorium als bestehende Regierung jegliches Vertrauen verloren, auch im Direktorium selbst spielten Emmanuel Joseph Sieyès und Roger Ducos mit dem Gedanken an einen Staatsstreich und setzten hierbei auf die militärische Hilfe durch Napoleon. Napoleon konnte nicht Mitglied des Direktoriums werden, da man dafür laut Verfassung mindestens 40 Jahre alt sein musste. Am 9. November 1799 schien der Staatsstreich des 18. Brumaire VIII durch politische Manipulationen zu gelingen. Als sich die beiden Parlamentskammern am nächsten Tag widerspenstig zeigten und eine wirre Rede Napoleons die Lage noch verschlimmerte, wurden die Kammern durch die Grenadiere Bonapartes auseinandergetrieben. Ein Rumpfparlament billigte die Pläne zur Einrichtung der Konsulatsverfassung unter den Konsuln Bonaparte, Sieyes und Ducos. In der Folge gelang es Napoleon als dem Ersten Konsul, seine Mitverschwörer ins politische Abseits zu drängen und durch die willfährigen Jean-Jacques Régis de Cambacérès und Charles-François Lebrun zu ersetzen. Der dreißigjährige Bonaparte wurde so als Erster Konsul faktisch zum Alleinherrscher. Napoleon Bonaparte als Erster Konsul der Französischen Republik. Nach der neuen Verfassung vom 25. Dezember 1799 wurde der Erste Konsul für zehn Jahre gewählt und hatte weitreichende Vollmachten. So lag das Recht zur Gesetzesinitiative bei ihm, er ernannte die Minister und die weiteren hohen Staatsbeamten. Dagegen waren die Mitwirkungsrechte der beiden Parlamentskammern ("corps legislatif" und Tribunat) begrenzt. Insgesamt legitimierte die Verfassung eine verdeckte Diktatur Bonapartes. Eine Volksabstimmung, deren Ergebnisse geschönt waren, ergab die Zustimmung der Bürger zur neuen Verfassung. Gewissermaßen als Regierungsprogramm gab Bonaparte die Parole aus: „Bürger! Die Revolution ist zu den Grundsätzen zurückgekehrt, von denen sie ausging; sie ist zu Ende.“ Dies entsprach dem Wunsch vor allem der bürgerlichen Schichten. Sie wollten die Errungenschaften der Revolution, wie die Abschaffung feudaler Privilegien oder die Rechtsgleichheit, zwar bewahrt sehen, verlangten aber auch nach Schutz vor Umtrieben der Radikalen oder Unruhen der Unterschichten. Dem trug der neue Machthaber Rechnung. Die Ordnung in einigen Unruhegebieten wurde wiederhergestellt. In verschiedenen Bereichen ließ Napoleon Reformen durchführen, die teilweise weit über seine Herrschaftszeit hinaus Bestand hatten. Dazu gehören die weitere Zentralisierung der Verwaltung, der Ausbau der Verkehrsinfrastruktur, die Sanierung der Staatsfinanzen, eine Währungsreform, die im Kern bis 1914 Bestand hatte, die Gründung der Banque de France und schließlich 1804 der Erlass des Gesetzbuches Code civil, der als "Code Napoléon" bekannt ist. Dieser hat bis zum heutigen Tag in vielen Ländern Bedeutung und blieb auch in einigen Teilen Deutschlands bis 1900 in Kraft. Für besondere Verdienste stiftete Bonaparte 1802 die Ehrenlegion. Napoleon ließ die organisierte politische Opposition bekämpfen, gleichzeitig versuchte er, sowohl die ehemaligen Anhänger der Jakobiner wie auch die Royalisten in den neuen Staat zu integrieren. Im Fall der letzteren spielte das Konkordat mit Papst Pius VII. von 1801 eine wichtige Rolle. Als Bonaparte nach einer aufgedeckten Verschwörung im August 1803 um Georges Cadoudal, Pichegru und General Moreau den Herzog von Enghien, einen Angehörigen des ehemaligen Königshauses, in Deutschland entführen ließ und dessen Aburteilung und Erschießung in Frankreich befahl, bedeutete dies einen Rückschlag für den Versöhnungsprozess und löste insbesondere im Ausland heftige Proteste aus. Außenpolitisch ging es zunächst darum, den zweiten Koalitionskrieg siegreich zu beenden. Mit seiner Armee zog er nach dem Vorbild von Hannibal über die Alpen. Der Sieg in der Schlacht bei Marengo am 14. Juni 1800 war allerdings vor allem General Desaix zu verdanken, der in der Schlacht fiel. Nach dem entscheidenden Sieg der von General Jean-Victor Moreau geführten Truppen in der Schlacht von Hohenlinden wurde am 9. Februar 1801 in Lunéville der Frieden mit Österreich geschlossen. Der Frieden mit Russland folgte am 8. Oktober 1801, und der Frieden von Amiens beendete am 25. März 1802 den Krieg mit Großbritannien. In Übersee führte Napoleons Abschaffung der zwar am 4. Februar 1794 beschlossenen – aber nie umgesetzten – Dekrete gegen den Code Noir und die Sklaverei auf Saint-Domingue zu neuen Aufständen und schließlich am 1. Januar 1804 zur Unabhängigkeitserklärung unter neuem Namen: Haiti. Im Jahr 1803 verkaufte Bonaparte Louisiana (Neufrankreich) an die Vereinigten Staaten (→ Louisiana Purchase). Damit zog sich Frankreich gänzlich vom nordamerikanischen Kontinent zurück. 1805 verfügte Napoleon die weitere Anwendung des Code Noir ausdrücklich, so dass er bis zur Abschaffung der Sklaverei in französischen Kolonien – soweit noch im Besitz Frankreichs – bis zum Jahre 1848 galt. Die innen- und außenpolitischen Erfolge ermöglichten es Bonaparte, sich – legitimiert durch eine weitere Volksabstimmung am 2. August 1802 – zum Konsul auf Lebenszeit erklären zu lassen. 3 Millionen abstimmende Franzosen entschieden sich für ein „Ja“, 1600 für ein „Nein“. Die Bestimmung, seinen Nachfolger selbst auswählen zu können, und die Einführung einer regelrechten Hofhaltung in den Tuilerien waren Schritte auf dem Weg zur Monarchie. Die Friedenszeit dauerte nicht lange. Napoleons Außenpolitik mit der Annexion von Piemont, der engen Bindung der Schweiz an Frankreich, der Verordnung einer neuen Verfassung in Holland und letztlich der Streit um den Status der Insel Malta führten zur Kriegserklärung Großbritanniens. In den ersten Jahren blieben deren Auswirkungen begrenzt. Während Großbritannien vor allem einen Kolonial- und Seekrieg führte, sperrte Bonaparte seinen Machtbereich für britische Waren und annektierte Hannover. Der Plan einer Invasion Großbritanniens wurde 1805 erneut aufgegeben. Der Aufstieg des Kaiserreiches und die Neuordnung Europas. Nachdem Napoleon durch eine Volksabstimmung und den Senat die Kaiserwürde angetragen worden war, krönte sich Napoleon am 2. Dezember 1804 in der Zeremonie in Anwesenheit von Pius VII. selbst in der Kathedrale Notre Dame de Paris zum Kaiser. Während die Annahme der Kaiserkrone nach innen sein Prestige weiter erhöhen sollte, war es nach außen ein Versuch, sein Regime dynastisch zu legitimieren. Gleichzeitig signalisierte der Kaisertitel jedoch den Anspruch auf die zukünftige Gestaltung Europas. Der Titel „Kaiser der Franzosen“ bedeutete, dass dieser sich letztlich als Kaiser eines Volkes und nicht eines Reiches sah. Napoleon sah sich als Volkssouverän und nicht, wie alle römischen Kaiser zuvor, als von Gott gekrönter Kaiser (Gottesgnadentum). Am 26. Mai 1805 wurde Napoleon im Mailänder Dom mit der Eisernen Krone der Langobarden zum König von Italien gekrönt. Diese Krönungen führten zu weiteren Konflikten in den internationalen Beziehungen. Zar Alexander I. ging im April 1805 ein Bündnis mit Großbritannien ein. Ziel war es, Frankreich auf die Grenzen von 1792 zurückzuwerfen. Dem schlossen sich Österreich, Schweden und Neapel an. Nur Preußen beteiligte sich nicht an dieser Dritten Koalition. Umgekehrt traten die nach dem Reichsdeputationshauptschluss gestärkten deutschen Länder Bayern, Württemberg und Baden auf Seiten Bonapartes in den Krieg ein. Gemäß seiner schon früher bewährten Taktik, die feindlichen Armeen voneinander zu trennen und nacheinander zu schlagen, wandte sich Napoleon zunächst gegen Österreich. Der erste Schlag traf mit einer Blitzkampagne die Österreicher in den Schlachten von Elchingen und von Ulm (25. September – 20. Oktober 1805), wo General Karl Mack von Leiberich gezwungen wurde, mit einem Teil der Armee, die anfangs 70.000 Mann stark war, zu kapitulieren. Damit stand Napoleon der Weg nach Wien offen: Nach kleineren Kämpfen entlang der Donau gelang seinen Truppen am 13. November die kampflose Einnahme Wiens. Im Anschluss lockte Napoleon die Russen und Österreicher durch geschickte Vortäuschung eigener Schwäche in die Schlacht bei Austerlitz, die er am 2. Dezember 1805 gewann. Zwar wurde die französische Flotte bei Trafalgar von Nelson am 21. Oktober 1805 vernichtend geschlagen, aber auf dem Kontinent bedeutete Austerlitz die Entscheidung. Am 26. Dezember 1805 wurde mit Österreich der Friedensvertrag von Pressburg geschlossen. Die Bedingungen waren hart. Die Habsburgermonarchie verlor Tirol und Vorarlberg an Bayern und ihre letzten italienischen Besitzungen fielen an das napoleonische Königreich Italien. Zum Dank für ihre Unterstützung wurden die Kurfürsten von Bayern und Württemberg zu Königen erhoben. Um die Erfolge zu sichern, betrieb Napoleon mit den jüngeren Angehörigen seiner Familie gezielte Heiratspolitik und setzte Geschwister und Gefolgsleute als Herrscher der abhängigen Staaten ein. So wurde Joseph 1806 zunächst König von Neapel und 1808 König von Spanien, Louis wurde 1806 König von Holland. Seine Schwester Elisa wurde 1805 Fürstin von Lucca und Piombino, 1809 Großherzogin der Toskana, Pauline war vorübergehend Herzogin von Parma und darüber hinaus Herzogin von Guastalla. Caroline Bonaparte wurde als Frau von Joachim Murat 1806 Großherzogin von Berg, 1808 Königin von Neapel. Jérôme wurde 1807 König des neugeschaffenen Königreichs Westphalen. Napoleons Adoptivtochter Stéphanie de Beauharnais heiratete 1806 Erbprinz Karl von Baden und wurde 1811 Großherzogin von Baden. Einzig Napoleons Bruder Lucien, mit dem er sich überworfen hatte, ging weitgehend leer aus. Deutsche Ausgabe, Code civile von 1807, Museum Hambacher Schloss In Deutschland wurde am 16. Juli 1806 aus anfangs 16 Ländern der Rheinbund gegründet. Seine Mitglieder verpflichteten sich zur militärischen Unterstützung Frankreichs und zum Austritt aus dem Heiligen Römischen Reich. Protektor des Bundes – als im politischen Wortsinn Beschützer oder als eine Schutzmacht – war Napoleon. Daraufhin legte Franz II. die Kaiserkrone des Heiligen Römischen Reiches nieder. Bereits zum Jahre 1808 hin gehörten fast alle deutschen Staaten außer Österreich und Preußen zum Rheinbund. Es entwickelte sich sozusagen ein „Drittes Deutschland“ ohne Österreich und Preußen (die "Triasidee)". Umfangreiche Zentralisierung des Staatswesens nach französischem Vorbild – im oft noch ständisch organisierten „Flickenteppich“ Deutschland – gingen mit der Einführung von Prinzipien der Französischen Revolution, wie Gleichheit, Eigentumsrechte und dergleichen (allgemeine Grundrechte), aber auch mit der Reform des Agrar-, Bildungs-, Wirtschafts-, Steuer- und Finanzwesens einher. Im Gegensatz zu den vergleichbaren, eher harmonisch und von innen heraus praktizierten, preußischen Neuerungen, wurden von der Bevölkerung die französischen zunehmend als rigoros und als von außen aufgezwungen empfunden. Das Verwaltungssystem war oft langsam und wurde meist nur unvollständig übernommen. Es blieb ein Torso, wie das gesamte napoleonisch-rheinbündische Reformwerk. Die ständige Aushebung neuer Soldaten, hohen Steuern, Nachteile der Kontinentalsperre, Repressionsmaßnahmen von Polizei und Militär sowie der starke bürokratische Zugriff auf praktisch jeden Bürger führten zu Unmut. Immerhin durch Bildungsreform wurde ein zuverlässiges Berufsbeamtentum herangebildet, Steuer- und Finanzreform bewirkten Aufschwung im Handel und Erstarken des Handels- und Finanzbürgertums. Kapitalmärkte wuchsen, ebenso wie die Zahl an Anlegern, denen nun auch durch das verbesserte Recht auf Eigentum, Garantien zum Wirtschaften gegeben wurde. Nach der Abdankung Napoleons wurden diese Regionen Zentren des deutschen Frühliberalismus und Frühkonstitutionalismus. Nachdem auch das Vorhaben von 1806 einen Staatenbund mit gemeinsamen Verfassungsorganen aufzubauen am Widerstand der größeren Mitgliedsstaaten scheiterte, blieb der Rheinbund im Wesentlichen nur ein Militärbündnis deutscher Staaten mit Frankreich. Das Hauptziel Napoleons war eine Angleichung der staatlichen Strukturen zur Stabilisierung der französischen Herrschaft über Europa. Machtpolitische und militärische Überlegungen hatten im Zweifel Vorrang vor liberalen Reformideen. Der Historiker Rainer Wohlfeil merkt an, dass Napoleon kein wirkliches Konzept für die Neugestaltung Europas hatte, vielmehr war beispielsweise die Rheinbundpolitik Ausdruck eines „situationsverhafteten instinktiven Machtwillens“. Napoleon, die christlichen Kirchen und das Judentum. Napoleon versuchte, die Kirchen und Glaubensrichtungen durch Wiederzulassung, Gleichstellung und Anbindung unter Kontrolle zu halten. Trotz der grundsätzlichen Trennung von Staat und Kirche brachte 1801 das Konkordat mit Papst Pius VII. einen gewissen Ausgleich. Der Katholizismus wurde zwar nicht mehr als Staatsreligion, jedoch als Religion der Mehrheit des Volkes anerkannt. Napoleon behielt das Recht der Bischofsernennung, während der Papst das Recht der Weihe hatte. 1791 hatten die Juden Frankreichs den Status eines Bürgers ("citoyen") bekommen. Dies brachte ihnen zum ersten Mal in einem europäischen Land die Bürgerrechte. Sie verloren dafür ihre bisherige Teilautonomie und mussten Militärdienst leisten. „"Napoleon stellt den Kult der Israeliten wieder her"“, 30. Mai 1806 Mit der Einführung von Konsistorien im Jahre 1808 untermauerte Napoleon die administrative Gleichstellung der Juden und setzte sie auch in den eroberten linksrheinischen Gebieten durch, stieß aber rechts des Rheins auf Widerstand. Dennoch folgten von 1800 bis 1812 fast alle deutschen Staaten den erneut erhobenen Forderungen Christian Konrad Wilhelm von Dohms. Die von Napoleon eingeführten Reformen wurden von einem Großteil der jüdischen Gemeindevorstände zunächst begrüßt, in der Hoffnung, dass das Judentum in Frankreich auf diese Weise einen ähnlichen Status wie die katholische Kirche im Konkordat von 1801 und die Protestanten in den „organischen Artikeln“ von 1802 erhalten würde. Napoleon selbst war bestrebt, ein Mittel zur Kontrolle der jüdischen Gemeinde zur Verfügung zu haben und gleichzeitig die Juden als Bürger in seine französische Gesellschaft zu integrieren. Die Statuten des Konsistoriums wurden durch kaiserlichen Erlass am 17. März 1808 in Kraft gesetzt. Als "„Décret infame“" (wörtlich: „schändliches Dekret“), mit dem das napoleonische Frankreich in einem Rückschritt gegenüber früheren emanzipierenden Gesetzen diskriminierende Vorschriften für Juden wieder einführt, wurde es bald von jüdischer Seite bezeichnet. Seine Judenbehandlung wurde von der Russisch-Orthodoxen Kirche dagegen als Bevorzugung und er selbst gar als „Antichrist und Feind Gottes“ klassifiziert. Krieg gegen Preußen und Russland. Inzwischen hatten sich die Beziehungen Frankreichs zu Preußen verschlechtert. Nachdem dieses mit Russland ein geheimes Bündnis geschlossen hatte, wurde Napoleon am 26. August 1806 ultimativ aufgefordert, seine Truppen hinter den Rhein zurückzuziehen. Dies betrachtete Bonaparte als Kriegserklärung. Er stieß im Oktober 1806 mit seinen Truppen vom Main aus durch Thüringen auf die preußische Hauptstadt Berlin vor. Die in der Schlacht bei Jena und Auerstedt geschlagene preußische Armee löste sich in den folgenden Wochen nahezu auf. Das Fürstentum Erfurt wurde als kaiserliche Staatsdomäne direkt Napoleon unterstellt, während die umliegenden thüringischen Staaten dem Rheinbund beitraten. Die französischen Truppen marschierten in Berlin ein. Nun unterstützte das in den Osten Preußens einmarschierte russische Heer die dorthin entkommenen preußischen Truppen. Bei dem Feldzug zeigten sich erstmals deutliche Grenzen der napoleonischen Armee. Das Land war zu weitläufig und die Wege zu schlecht für rasche Truppenbewegungen. Die Versorgung der Armee war unzureichend und die Russen unter General Levin August von Bennigsen wichen immer weiter zurück, ohne sich zur Schlacht stellen zu lassen. Den Winter 1806/1807 verbrachte Napoleon in Warschau, wo ihn polnische Patrioten zur Wiederherstellung Polens drängten. Dort begann auch Bonapartes langjährige Beziehung zu Gräfin Walewska, mit der er ein Kind zeugte. Erst am 8. Februar 1807 kam es zur Schlacht bei Preußisch Eylau, ohne dass eine Entscheidung gefallen wäre. Am 14. Juni 1807 konnte Bonaparte Bennigsen in der Schlacht bei Friedland entscheidend schlagen. Am 7. Juli schlossen Frankreich, Russland und Preußen den Frieden von Tilsit. Für Preußen waren die Friedensbedingungen katastrophal. Alle Gebiete westlich der Elbe gingen verloren und wurden Grundlage für das neue Königreich Westphalen. Die von Preußen bei den Teilungen Polens 1793 und 1795 einverleibten Gebiete wurden zum Herzogtum Warschau erhoben. Insgesamt verlor Preußen etwa die Hälfte seines bisherigen Territoriums, musste zudem noch hohe Kontributionen zahlen und durfte nur noch in einem beschränkten Umfang eine Armee unterhalten. Fast ganz Kontinentaleuropa war nun unter direkter oder indirekter Kontrolle Napoleons. Gegen das weiter feindlich gesinnte Großbritannien verhängte Bonaparte mit der Kontinentalsperre einen europaweiten Handelsboykott. Das System in der Defensive. In den Jahren nach dem Frieden von Tilsit befand sich Napoléon auf dem Höhepunkt seiner Macht. Im Inneren seines Herrschaftsbereiches verstärkten sich in dieser Zeit die despotischen Tendenzen. Kritik an seiner Amtsführung duldete Bonaparte immer weniger. Weil Außenminister Talleyrand Widerspruch gegen die Expansionspolitik anmeldete, wurde er 1807 entlassen. Die Zensur und Gängelung der Presse wurden verschärft. Das Theaterdekret von 1807 schränkte den Spielraum der Pariser Bühnen ein. Der Personenkult um den Kaiser wuchs. Die Aristokratisierung schritt weiter fort. Im Jahr 1808 wurde per Gesetz ein neuer Adel geschaffen. Daneben spielten am Hofe immer mehr alte Aristokraten des Ancien Régime eine Rolle. In weiten Teilen der Bevölkerung, die noch immer vom Gleichheitsideal der Revolution geprägt war, wurde diese Entwicklung kritisch gesehen. Außenpolitisch stand die Durchsetzung der Kontinentalsperre gegen Großbritannien im Vordergrund. In Italien gelang dies teilweise mit Gewalt. Mit Zustimmung des Königs marschierte eine französische Armee zur Besetzung Portugals durch Spanien. Napoleon nutzte einen Thronstreit zwischen dem spanischen König Karl IV. und dessen Sohn Ferdinand VII. aus, und setzte in einem politischen Coup, gestützt auf die französischen Truppen im Land, seinen Bruder Joseph als König von Spanien ein. Unmittelbar danach brach in Spanien eine allgemeine nationale Erhebung aus, die Joseph Bonaparte zur Flucht aus Madrid zwang. Unterstützt wurden die Spanier von einem britischen Expeditionskorps unter Arthur Wellesley, dem späteren Herzog von Wellington. Nach der Kapitulation seines Generals Junot musste Napoleon selbst eingreifen. Nachdem er auf dem Erfurter Fürstenkongress im Oktober 1808 versucht hatte, die europäischen Mächte zum Stillhalten zu bewegen, rückte Bonaparte mit seinen besten Truppen in Spanien ein. Anfangs gegen reguläre Soldaten erfolgreich, wurde die Grande Armée mit einem erbittert geführten Guerillakrieg konfrontiert. Ohne greifbaren Erfolg kehrte Napoleon zu Beginn des Jahres 1809 nach Frankreich zurück. Der Kleinkrieg in Spanien blieb ein ungelöstes Problem, das starke Truppenverbände band und kostspielig war. Kurz nach der Rückkehr marschierte die österreichische Armee unter Karl von Österreich-Teschen in Bayern ein. Österreich setzte dabei auf nationale Parolen und traf in der eigenen Monarchie und in Deutschland auf Zustimmung. In Tirol kam es daraufhin zur Erhebung von Andreas Hofer gegen die bayerischen Besatzungstruppen. In Norddeutschland versuchten Ferdinand von Schill oder die Schwarze Schar militärischen Widerstand zu leisten. Vor allem Intellektuelle wie Joseph Görres, Johann Gottlieb Fichte, Ernst Moritz Arndt und andere begannen mit teils nationalistischen Tönen die französische Fremdherrschaft anzugreifen. Allerdings war das napoleonische System noch stark genug, um Preußen oder die Rheinbundfürsten weiter zu binden. Daher stand Österreich auf dem Kontinent Napoleon isoliert gegenüber. Napoleon traf am 16. April 1809 in Donauwörth ein. Am 21. Mai 1809 überquerten seine Truppen südöstlich Wiens die Donau. In der Schlacht bei Aspern-Essling stoppten die Österreicher den französischen Vormarsch. Diese Schlacht wurde zur ersten Niederlage Napoleons. In der Schlacht bei Wagram konnte er aber letztendlich Erzherzog Karl besiegen. Im Frieden von Schönbrunn musste Österreich daraufhin auf Dalmatien, Zentralkroatien, die Krain, das Küstenland, Salzburg und das Innviertel verzichten, womit es etwa die Hälfte seiner Erbländer verlor und beinahe aus den alten römisch-deutschen Reichgrenzen verdrängt war. Das Land musste der anti-britischen Kontinentalsperre beitreten und sein Heer auf 150.000 Mann reduzieren. Ferner wurde ein Militärbündnis zwischen Österreich und Frankreich geschlossen. Im selben Jahr ließ sich Napoleon von Joséphine scheiden, da ihre Ehe kinderlos blieb. In der Hoffnung auf die Anerkennung durch die alten Dynastien und die Festigung des Bündnisses mit Österreich heiratete Bonaparte 1810 Marie-Louise von Habsburg, die älteste Tochter des österreichischen Kaisers Franz I. Aus der Ehe ging mit dem 1811 geborenen Napoleon II. der gewünschte Thronfolger hervor. Im Glauben, damit eine neue Dynastie begründet zu haben, wurden im ganzen Kaiserreich Feiern angeordnet, von denen einige Teil eines dauerhaften napoleonischen Festkalenders werden sollten. Die Schwäche der neu etablierten Dynastie wurde durch die Verschwörung des Generals Malet 1812 sichtbar. Der Russlandfeldzug. Zar Alexander I. von Russland war Ende 1810 aus wirtschaftlichen Gründen nicht mehr bereit, sich an der von Napoleon verhängten Kontinentalsperre gegen Großbritannien zu beteiligen. Da Napoleon diese als einziges Kampfmittel gegen Großbritannien ansah, führten die Position Russlands und weitere Faktoren dazu, dass sich die Beziehungen zwischen beiden Seiten abkühlten. Bonaparte bereitete sich im Jahr 1811 und in der ersten Hälfte des Jahres 1812 auf einen Krieg mit Russland vor. Die Rheinbundstaaten wurden verpflichtet, ihre Kontingente zu erhöhen, und auch Österreich und Preußen sahen sich genötigt, Truppen zu stellen. Nur Schweden hielt sich unter dem neuen Kronprinzen und ehemaligen französischen General Bernadotte abseits und verbündete sich mit Russland. Insgesamt soll die Grande Armée bei ihrem Aufmarsch 590.000 Mann stark gewesen sein. Diese Zahlen gelten heute aber als übertrieben. Tatsächlich standen beim Einmarsch nach Russland höchstens 450.000 Mann zur Verfügung. Trotzdem war es die größte Armee, die es in Europa bis dahin gegeben hatte. Napoleon auf dem Rückzug (Gemälde von Adolf Northern) Am 24. Juni 1812 überschritt Napoleon die Memel. Sein Plan für den Feldzug in Russland, dort als "Vaterländischer Krieg" bezeichnet, war es, wie in den bisherigen "Blitzfeldzügen" eine schnelle spektakuläre Entscheidungsschlacht herbeizuführen, die den Krieg bald beenden und Friedensverhandlungen einleiten sollte. Doch die russischen Truppen unter der Führung von Barclay de Tolly wichen in die Weiten des Landes zurück. Die bisherige Methode, die Armee aus den Erzeugnissen des Landes zu versorgen, funktionierte nicht, da die Russen eine Politik der verbrannten Erde betrieben. Daneben führten mangelhafte Logistik und ungünstige Witterungsverhältnisse dazu, dass sich die Truppenstärke schon ohne Feindberührung beträchtlich verringerte. Bereits am 17. August 1812, als die Truppe Smolensk erreichte, war sie nur noch 160.000 Mann stark. Vor Moskau stellten sich die Russen unter Kutusow zur Schlacht. Die Schlacht von Borodino konnte Napoleon zwar gewinnen, aber sie wurde zur verlustreichsten Auseinandersetzung der napoleonischen Kriege überhaupt: etwa 45.000 Tote oder Verwundete auf russischer Seite und 28.000 auf französischer Seite waren zu beklagen. Erst im Ersten Weltkrieg gab es noch höhere Opferzahlen an einem einzigen Tag. Durch diesen Pyrrhussieg gelang es Napoleon zunächst, ohne weiteren Kampf Moskau einzunehmen. Nach dem Einmarsch wurde die Stadt – vermutlich von den Russen selbst – in Brand gesetzt. Die Soldaten der Grande Armée litten unter Hunger, Krankheiten, Schnee und Kälte. Der Zar verweigerte Verhandlungen. Am 18. Oktober gab Napoleon den Befehl zum Abmarsch. Fehlender Nachschub, Krankheiten sowie ständige Angriffe der russischen Kosaken setzten den französischen Truppen schwer zu. In der Schlacht an der Beresina wurde Napoleons Grande Armee endgültig zerschlagen. Nur 18.000 napoleonische Soldaten übertraten im Dezember 1812 die preußische Grenze an der Memel. Der Befehlshaber des preußischen Hilfskorps, Yorck von Wartenburg, trennte sich von der Grande Armée und schloss eigenmächtig einen Waffenstillstand mit dem Zaren (Konvention von Tauroggen). Napoleon war schon vorher nach Paris geflohen, um eine neue Armee aufzustellen. Noch während des verlustreichen Rückzugs ließ der kaiserliche Hof vermelden: „Die Gesundheit seiner Majestät war niemals besser.“ („La santé de Sa Majesté n’a jamais été meilleure.“, 29. Bulletin der Grande Armée v. 17. Dezember 1812). Der Zusammenbruch. a> (Gemälde von Antoine Alphonse Montfort) Erste Abdankung Napoleons vom 12. April 1814. Seine Unterschrift auf der Urkunde. In Deutschland führte die Niederlage Napoleons zu einem Aufschwung der nationalen Bewegung. Der Druck der öffentlichen Meinung führte dazu, dass bisherige Verbündete Bonapartes sich der Gegenseite zuwandten. König Friedrich Wilhelm III. schloss mit dem Vertrag von Kalisch ein Bündnis mit Russland und rief zum Befreiungskrieg auf. Dem folgten anfangs nur wenige deutsche Länder, auch Österreich hielt sich zunächst von diesem Bündnis fern. Unmittelbar nach seiner Rückkehr begann Napoleon damit, neue Soldaten auszuheben. Mit einer nur schlecht ausgebildeten Armee, der es zudem an Kavallerie mangelte, marschierte Bonaparte nach Deutschland. Anfangs zeigten sich noch einmal die militärischen Fähigkeiten Napoleons. Er siegte am 2. Mai 1813 bei Großgörschen und am 20./21. Mai bei Bautzen. Die reorganisierte preußische Armee hatte sich in einen ernstzunehmenden Gegner gewandelt, der den Franzosen hohe Verluste beibrachte. Aus diesem Grund stimmte Bonaparte einem Waffenstillstand zu. Diesen nutzten die Gegner dazu, Österreich auf ihre Seite zu ziehen. Auf einem Friedenskongress in Prag wurde Napoleon ein Ultimatum gestellt, das unter anderem die Auflösung des Rheinbundes, die Aufgabe des Großherzogtums Warschau sowie die Wiederherstellung Preußens in den Grenzen von 1806 vorsah. Da dies faktisch die Aufgabe der französischen Vormacht in Europa bedeutet hätte, ging Napoleon darauf nicht ein. Daraufhin erklärte Österreich Frankreich den Krieg. Preußen, Russland und Österreich schlossen die Allianzverträge von Teplitz ab. Da auch Schweden sich an der Koalition beteiligte, standen nunmehr alle nicht von Bonaparte direkt oder indirekt kontrollierten Staaten in Europa gegen ihn. Im folgenden Feldzug spielten die Verbündeten ihre zahlenmäßige Überlegenheit aus, wichen infolge der Strategie von Trachenberg einer Entscheidungsschlacht mit der französischen Hauptarmee anfangs aus und fügten den Truppen der napoleonischen Marschälle erhebliche Verluste zu. Immer stärker wurde der Bewegungsspielraum der französischen Hauptarmee begrenzt. Die endgültige Niederlage der Franzosen kam 1813 in der Völkerschlacht bei Leipzig. Schon wenige Tage zuvor war Bayern im Vertrag von Ried zu Österreich übergegangen und hatte Frankreich den Krieg erklärt. In den Tagen von Leipzig wechselten die Rheinbundfürsten mit Ausnahme der Könige Sachsens und Westphalens die Seiten. Napoleon zog sich mit den Resten seiner Armee hinter den Rhein zurück. Andere Mächte spielen mit Napoleon (Karikatur 1814) An der spanischen Front rückte Wellington bis zur französischen Grenze vor. Im Inneren Frankreichs regte sich erstmals seit langem öffentlicher Widerspruch gegen das Regime. Als die gesetzgebende Körperschaft bürgerliche Freiheitsrechte einforderte, ließ Napoleon diese schließen. Die Rekrutierung neuer Soldaten stieß wegen der nachlassenden Unterstützung für Bonaparte auf erhebliche Schwierigkeiten, so dass Napoleon den alliierten Streitkräften nur noch eine zahlenmäßig unterlegene und schlecht ausgebildete Armee entgegensetzen konnte. Dennoch zeigte sich angesichts der unmittelbaren Bedrohung noch einmal Napoleons Geschick als Feldherr. Trotz deutlich unterlegener Kräfte gelang es durch geschicktes und temporeiches Manövrieren, die zahlenmäßig drückend überlegenen, aber getrennt marschierenden Feinde mehrfach zu schlagen. Diese Erfolge veranlassten ihn, sich bei einem weiteren Friedensangebot auf dem Kongress von Châtillon ablehnend zu zeigen. In der Folge war jedoch klar, dass er der zahlenmäßigen Überlegenheit nicht mehr gewachsen war. Daher nahmen die alliierten Truppen nach der Schlacht bei Paris am 31. März 1814 die Hauptstadt ein. Der Kaiser verlor daraufhin jegliche Unterstützung der Armee, der Politik und selbst enger Getreuer. Am 2. April 1814 sprach der Senat die Absetzung des Kaisers aus. Am 6. April dankte er zu Gunsten seines Sohnes ab. Damit waren die Alliierten nicht einverstanden. Sie verlangten vom Kaiser, bedingungslos abzudanken und boten den Vertrag vom 11. April 1814 zur Unterschrift an. Diese Offerte unterschrieb Napoleon unter dem Datum vom 12. April, nachdem er in der Nacht vom 12. auf den 13. April einen Suizidversuch unternommen haben soll. Ihm wurde die Insel Elba als Wohnsitz zugewiesen und einzig der Kaisertitel belassen. Elba, Herrschaft der Hundert Tage und Waterloo. Die Reise auf die Insel Elba dauerte vom 25. bis 27. April 1814. Da Anschläge auf seine Person befürchtet wurden, trug Napoleon als Vorsichtsmaßnahme und gleichsam als Verkleidung den Mantel des russischen Generals Schuwalow. Er war nun der Herrscher über einen Staat mit 10.000 Einwohnern und einer Armee von 1.000 Mann. Hier bewohnte er die Palazzina del I Mulini in Portoferraio. Er begann zwar eine umfangreiche Reformtätigkeit, die ihn als ehemaligen Beherrscher Europas aber nicht ausfüllen konnte. Durch ein Netz von Agenten wusste er genau, dass es in Frankreich nach der Restauration unter Ludwig XVIII. eine weit verbreitete Unzufriedenheit gab. Ermutigt von diesen Meldungen kehrte Napoleon am 1. März 1815 nach Frankreich zurück. Die Soldaten, die ihn hätten aufhalten sollen, liefen zu ihm über. Am 19. März 1815 floh König Ludwig aus den Tuilerien. Zwar wurde die Verfassung des Kaiserreichs teilweise liberalisiert, aber die Zustimmung zum wiederhergestellten napoleonischen Regime blieb begrenzt. Aufgeschreckt von den Ereignissen in Frankreich, entschieden sich Österreich, Russland, Großbritannien und Preußen daraufhin auf dem Wiener Kongress zum militärischen Eingreifen. Am 25. März erneuerten sie ihre Allianz von 1814. Trotz aller Schwierigkeiten gelang es Napoleon, eine gut ausgerüstete Armee aus 125.000 erfahrenen Soldaten auszuheben. Er ließ eine provisorische Regierung unter Marschall Davout in Paris zurück und marschierte gegen die Allianz. Wie gewohnt plante Bonaparte die Gegner nacheinander zu schlagen. Anfangs gelang es ihm bei Charleroi, einen Keil zwischen die britische Armee unter Wellington und die preußischen Truppen unter Blücher zu treiben. Am 16. Juni schlug er die Verbündeten in der Schlacht bei Quatre-Bras und der Schlacht bei Ligny. Am 18. Juni 1815 griff Napoleon die alliierte Armee von Wellington nahe dem belgischen Ort Waterloo an. Wellington gelang es, die günstige Stellung gegen alle französischen Angriffe im Wesentlichen zu halten. Die preußischen Truppen unter Marschall Blücher trafen rechtzeitig ein und Napoleon wurde geschlagen. Das Ende dieser Schlacht bedeutete faktisch das Ende der "Herrschaft der hundert Tage". Bei seiner Rückkehr nach Paris trat Napoleon am 22. Juni 1815 zurück, nachdem er bei Parlament und ehemaligen Getreuen jegliche Unterstützung verloren hatte. Weder die Hoffnung auf eine Emigration nach Amerika noch auf politisches Asyl in Großbritannien erfüllte sich, stattdessen wurde Napoleon auf Beschluss der Alliierten nach St. Helena im Südatlantik verbannt. Am 8. August ging der ehemalige Kaiser mit seinen Begleitern an Bord des Schiffes, das ihn in den Südatlantik bringen sollte. Am 18. Oktober wurde die Insel erreicht. Verbannung, das Ende auf St. Helena und Beisetzung. a>, Napoleons Exilwohnsitz von 1815 bis zu seinem Tode 1821 Auf der britischen Insel St. Helena wurde Bonaparte und seinen wenigen Begleitern der Wohnsitz des Gouverneurs Longwood House zugewiesen. Nach Napoleons Willen hielten die Franzosen die Illusion eines kaiserlichen Hofstaates aufrecht. Bonaparte schrieb seine Memoiren. Im Laufe der Zeit verschlechterte sich der Gesundheitszustand Napoleons zusehends, bis er schließlich am 5. Mai 1821 starb. Sein Leichnam wurde noch am selben Tag obduziert. Der englische Kapitän Frederick Marryat fertigte eine Skizze des Leichnams an, die erhalten geblieben und im Londoner National Maritime Museum ausgestellt ist. Der Leichnam wurde am 9. Mai in einem vierfachen Sarg beigesetzt. In der medizinischen Fachliteratur ist überzeugend dargelegt, dass Napoleon an fortgeschrittenem Magenkrebs mit Lymphknotenbefall verstarb. Unmittelbare Todesursache war aller Wahrscheinlichkeit nach eine durch das Karzinom ausgelöste starke Magenblutung. Neue Forschungsergebnisse legen darüber hinaus nahe, dass der bösartige Tumor nicht, wie früher vermutet, familiär bedingt war – bis heute sind die Todesursachen anderer Familienmitglieder nicht geklärt. Vielmehr sei das Karzinom auf Basis einer chronischen Gastritis entstanden (Typ-B-Gastritis bei HP-Infektion). Andere Vermutungen zur Todesursache sind weitgehend widerlegt. Eine davon lautet, dass Napoleon sukzessiv durch Arsen vergiftet worden sein könnte, zum Beispiel von General Charles-Tristan de Montholon oder durch die arsenhaltige Farbe (Schweinfurter Grün) in seinen Tapeten. Mit letzter Gewissheit werden sich die genauen Ursachen seines Todes heute wohl nicht mehr klären lassen. Doch eine italienische Forschergruppe kam zu dem Ergebnis, dass Napoleon nicht vergiftet wurde (zumindest nicht absichtlich). Durch eine Haaranalyse wurde festgestellt, dass in allen betrachteten Lebensphasen ähnlich hohe Gehalte des giftigen Stoffes im Körper vorhanden waren. Nach seinem Tod setzten sich die Bonapartisten für die Thronansprüche der Familie Bonaparte ein. So trugen die Bonapartisten wesentlich zum Aufstieg Napoleons III. bei. Sie übten auf das Heer und die Beamtenschaft noch nach dessen Sturz großen Einfluss aus. Erst in den 1880er Jahren verlor der Bonapartismus an Bedeutung. Fast zwanzig Jahre nach seinem Tod wurde Napoleon Bonapartes Leichnam am 15. Oktober 1840 exhumiert. Auf der Fregatte "Belle Poule" wurden die sterblichen Überreste zurück nach Frankreich gebracht und in den Pariser Invalidendom überführt. Er ist dort seit dem 15. Dezember 1840 in einem Sarkophag beigesetzt. Aus der Ehe mit Joséphine. Die Ehe mit Joséphine blieb kinderlos. Napoleon adoptierte die Kinder aus Joséphines erster Ehe mit Alexandre de Beauharnais: Eugène und Hortense, der Gattin seines Bruders und Mutter von Napoleon III. Beide Adoptivkinder haben zahlreiche Nachkommen. Aus der Ehe mit Marie-Luise. 1811 gebar seine zweite Frau Marie-Louise von Österreich den Thronfolger Napoleon II., der 1832 kinderlos verstarb. Außereheliche Kinder. Zu Napoleons weiteren Geliebten gehörten u. a. die Schauspielerinnen Marguerite-Joséphine Georges, genannt Georgina, und Catherine Josephine Duchesnois (1777–1835); Madame Duchâtel, Frau eines älteren Staatsrates; Carlotta Gazzani, eine genuesische Tänzerin, die von Napoleon zur Vorleserin von Joséphine ernannt wurde, und teilweise Frauen seiner Offiziere. Körpergröße. Es ist ein verbreiteter Geschichtsmythos, dass Napoleon von geringer Körpergröße gewesen sei. Dies wurde von der englischen Propaganda popularisiert, die Napoleon in ihren Karikaturen immer als ausgesprochen klein darstellte: 1803 zeichnete James Gillray ihn etwa als Gulliver im Land der Riesen, wobei Georg III. die Rolle des Königs von Brobdingnag übernahm. Ein weiteres Beispiel ist die Karikatur "The Plumpudding in Danger" aus dem Jahr 1805, die zeigt, wie William Pitt und ein ausgesprochen schmächtiger Napoleon sich die Weltkugel aufteilen. Von Gillray stammt auch der Spitzname „Little Boney“ (übersetzt etwa: „Der kleine Knochige“), der sich rasch weit verbreitete. Der österreichische Psychologe Alfred Adler prägte infolgedessen den Begriff Napoleon-Komplex, um den Minderwertigkeitskomplex kleingewachsener Männer und dessen Überkompensation zu beschreiben. Napoleons tatsächliche, von seinem Kammerdiener Louis Constant Wairy in französischen Maßeinheiten überlieferte Körpergröße betrug "cinq pieds deux pouces trois lignes" („fünf Fuß, zwei Zoll, drei Linien“). Somit erreichte Napoleon mit gut 1,68 m eine für Männer seiner Zeit durchschnittliche Körpergröße. Die Legende ist möglicherweise auch auf Unterschiede des Längenmaßes "Fuß" zurückzuführen: Ein englischer "foot" misst 30,48 cm und damit fast exakt zwei Zentimeter weniger als der seinerzeitige französische "pied" (32,48 cm), was bei fünf Fuß einen Unterschied von zehn Zentimetern ausmacht. Daneben könnte Napoleons Vorliebe, sich mit hoch gewachsenem Gefolge zu umgeben, eine Rolle gespielt haben. Museale Rezeption. Im Heeresgeschichtlichen Museum in Wien sind die Koalitionskriege in einem eigenen Saal (Saal III – Saal der Franzosenkriege) im Detail dokumentiert. Zur Person Napoleons selbst befindet sich dort ein Porträt, das ihn als König von Italien zeigt und von seinem Mailänder Hofmaler Andrea Appiani stammt. Weiters ist auch der Mantel ausgestellt, den Napoleon vom 25. bis 27. April 1814 während der Reise von Fontainebleau in die Verbannung auf Elba trug. Ein besonderes Stück ist auch die Kuriertasche Napoleons mit der Aufschrift: "Dépéches de sa Majesté Napoleon Empereur et Roi" und "Départ de Paris pour le Quartier Général" (Abgang von Paris nach dem Hauptquartier). In der Schatzkammer in Wien befinden sich im Bereich „Napoleonica“ Relikte aus dem Besitz Napoleons und der Kaiserin Marie-Louise, insbesondere die Wiege des kleinen Napoleon Franz. Das so genannte Napoleonzimmer im Schloss Schönbrunn wurde von Napoleon vermutlich als Schlafzimmer benutzt, als er in den Jahren 1805 und 1809 Wien besetzte und das Schloss zum Hauptquartier wählte. Spielfilme/TV-Produktionen. Seit 1908 tauchte die Figur des Napoleon in mehr als 300 Spielfilmen oder TV-Produktionen auf. Napoleon zählt damit neben Adolf Hitler zu den historischen Persönlichkeiten, die am häufigsten in Filmen zu sehen sind (oft allerdings auch in Nebenrollen), und wurde von hunderten von Schauspielern verkörpert. Napoleon wurde außerdem von so bekannten Schauspielern dargestellt wie Charles Vanel (1927–1929), Werner Krauß (1929 und 1935), Claude Rains (1936), Sacha Guitry/Jean-Louis Barrault (1942), Paul Dahlke (1949), James Mason (1953), René Deltgen (1957), Dennis Hopper (1957), Klaus Schwarzkopf (1968), Eli Wallach (1970), Stacy Keach (1973), Armand Assante (1987), David Suchet (2000) oder Daniel Auteuil (2006). Napoleon taucht in zahlreichen Fernsehfilmen und -serien auf. Das anhaltende Interesse an der Figur zeigt sich daran, dass regelmäßig zwei oder drei TV-Produktionen pro Jahr entstehen, in denen Napoleon zu sehen ist. Gelegentlich wird er auch in parodistischer Weise dargestellt ("Monty Pythons Flying Circus", "Saturday Night Live"). Ridley Scotts von der Kritik gelobter Film "Die Duellisten" (1976) spielt während der Napoleonischen Kriege. Napoleon selbst taucht darin aber nicht auf. Star-Regisseur Stanley Kubrick plante in den späten 1960er Jahren einen großangelegten Napoleon-Film und stellte jahrelang eine umfangreiche Dokumentation zum Thema zusammen. Eine Finanzierung dieses Films kam allerdings nicht zustande, da die Filmstudios – auch, weil "Waterloo" 1970 gefloppt hatte – der Ansicht waren, Kostümfilme seien aus der Mode. Die Titelrolle hatte Kubrick dem österreichischen Schauspieler Oskar Werner angeboten. Einige der Produktionsentwürfe verwendete Kubrick später für sein Historien-Epos "Barry Lyndon" (1975). Kubricks Schwager und ehemaliger Produzent Jan Harlan hat alle Unterlagen zusammengestellt und hofft, dass das Napoleon-Projekt doch noch realisiert werden kann. 2011 erschien im deutschen Taschen-Verlag das mehr als 1000-seitige Buch "Stanley Kubrick – Napoleon: The Greatest Movie Never Made", das einen Überblick über Kubricks Produktionsvorbereitungen und seine enorme Materialsammlung bietet. Einzelnachweise. Napoleon Nachrichtentechnik. Die Nachrichtentechnik ist eine Ingenieurwissenschaft, die sich als Teilgebiet der Elektrotechnik mit der Aufnahme, Übertragung, Verarbeitung und Speicherung von Nachrichten (Informationen) beschäftigt. Definition und Abgrenzung. Die Nachrichtentechnik beschäftigt sich mit der Gewinnung, Umwandlung, Übertragung, Vermittlung, Speicherung, Verarbeitung und Ausgabe von informationstragenden Signalen. Die Hauptaufgabe der Nachrichtentechnik ist es, Informationen möglichst unverfälscht von einer oder mehreren Informationsquellen zu einer oder mehreren -senken zu übertragen. Zur Nachrichtentechnik zählt neben zahlreichen anderen Disziplinen auch die Telekommunikation. Telekommunikation ist Informationsaustausch zwischen räumlich entfernten Informationsquellen und -senken unter Benutzung nachrichtentechnischer Systeme. Gelegentlich wird die Nachrichtentechnik/Kommunikationstechnik mit der Kommunikationswissenschaft verwechselt. Die Nachrichtentechnik befasst sich mit den technischen Systemen zur Kommunikation, die Kommunikationswissenschaft befasst sich hingegen mit der Kommunikation zwischen Entitäten. (Übertragung und Verarbeitung) Im Allgemeinen zwischen Menschen, aber auch zwischen Maschinen wie z.B. Computern. Ein Teilgebiet sind Massenmedien-Inhalte (zum Beispiel Werbung), die über nachrichtentechnische Systeme (zum Beispiel Rundfunk), aber auch über klassische Medien (zum Beispiel Zeitungen, Vorträge) verteilt werden und wie diese auf die Menschen wirken. Geschichte. Bedingt durch neue wissenschaftliche Erkenntnisse erweiterten sich die Möglichkeiten der Nachrichtentechnik kontinuierlich. Diese Entwicklung fand auch im Wandel des Namens dieser Ingenieurdisziplin ihren Ausdruck. Sprach man anfänglich von "Schwachstromtechnik", so wurde etwa 1909 durch Rudolf Franke der Name "Fernmeldetechnik" geprägt. Heute spricht man auch von "Informations- und Kommunikationstechnik". Teilgebiete. Die Nachrichtentechnik umfasst ein sehr großes Aufgabengebiet, so dass sich eine ganze Reihe von Teilgebieten herausgebildet hat. Frequenzbereiche. Entsprechend den verwendeten Frequenzen unterscheidet man in der Nachrichtentechnik Anwendungsbereiche. Die größte von Menschenhand geschaffene Maschine ist ein nachrichtentechnisches System: Das weltweite Telefonnetz. Ein weiteres nachrichtentechnisches System, das Internet, ist auf dem Weg dem Telefonnetz diesen Rang abzulaufen, nicht zuletzt dadurch, dass das Internet Aufgaben des Telefonnetzes übernimmt. Physikalisch sind diese Systeme so verzahnt, dass keine Abgrenzung mehr möglich ist. Das Internet ist ein Beispiel für die fließenden Übergänge von der Nachrichtentechnik zur Informatik. Einerseits sind nachrichtentechnische Systeme häufig wichtige Komponenten in den Rechnersystemen der technischen und angewandten Informatik, andererseits basieren moderne nachrichtentechnische Systeme häufig auf Theorien und Verfahren der Informatik und sind im Kern Rechnersysteme. November. Der November ist der elfte Monat des Jahres im gregorianischen Kalender. Er hat 30 Tage. Der November beginnt mit demselben Wochentag wie der März und außer in Schaltjahren auch wie der Februar. Der Name. Alte deutsche Namen für den November sind "Windmond" (eingeführt von Karl dem Großen im 8. Jahrhundert), "Wintermonat" und "Nebelung". In den Niederlanden wurde der Monat auch "Schlachtmond" oder "Schlachtemonat" genannt, da zu dieser Zeit das Einschlachten der Schweine üblich war. Aufgrund der zahlreichen Anlässe des Totengedenkens trägt der November auch die Bezeichnung "Trauermonat". Im römischen Kalender war der November ursprünglich der neunte Monat (lat. "novem" = neun). Im Jahr 153 v. Chr. wurde der Jahresbeginn allerdings um zwei Monate vorverlegt, sodass die direkte Beziehung zwischen Name und Monatszählung verloren ging. Dies wird manchmal bei der Übertragung der früher oft verwendeten lateinischen Datumsangaben vergessen. Unter Kaiser Commodus wurde der Monat in "Romanus" umbenannt, nach dem Tod des Kaiser erhielt er aber wieder seinen alten Namen zurück. Besondere Feiertage und Feste im deutschen Sprachraum. Im Kirchenjahr gilt der November als ein Monat der Besinnung und des Gedenkens. Allerheiligen gedenkt die römisch-katholische Kirche aller ihrer Heiligen, dieser Gedenktag wird immer am 1. November begangen. Darauf folgt am 2. November Allerseelen, an dem die römisch-katholische Kirche der Verstorbenen gedenkt. Der 11. November ist der sog. Martinstag, ein Festtag der römisch-katholischen Kirche zu Ehren ihres Heiligen Martin von Tours. Ebenfalls am 11.11. um 11:11:11 Uhr wird die neue Kampagne im Karneval ausgerufen. Der Volkstrauertag wird immer zwei Sonntage vor dem 1. Advent begangen und ist der Gedenktag für die gefallenen deutschen Soldaten der beiden Weltkriege. Am Mittwoch zwischen Volkstrauertag und Totensonntag liegt der Buß- und Bettag, ein Feiertag der evangelischen Kirche, an welchem man sich wieder mehr Gott zuwenden soll. Einen Sonntag vor dem 1. Advent liegt der Totensonntag, an dem die evangelische Kirche der Verstorbenen gedenkt. Die katholische Kirche feiert an diesem Tag den Christkönigssonntag. Der 1. Advent liegt in vier von sieben Fällen im November. Mit dem 1. Advent beginnt die Adventszeit und das Warten auf Weihnachten. Der Sonntag vor dem 1. Advent bildet auch den letzten Sonntag des Kirchenjahres. Der letzte Tag im Kirchenjahr jedoch liegt, gemäß der kirchlichen Wochendefinition (abweichend von der DIN-Norm), am darauffolgenden Samstag; dieser kann damit spätestens am 2. Dezember liegen, in 5 von 7 Fällen liegt er aber im November. Tierkreiszeichen. Im November dominiert das Tierkreiszeichen bzw. Sternzeichen des Skorpions (24.10. bis 22.11.), gegen Ende des Monats geht es zum Schützen (23.11. bis 21.12.) über. Verschiedenes. Die Durchschnittstemperatur der Erde in Bodennähe hatte ihren November-Höchststand seit Beginn der Messungen im Jahr 1891 im November 2013. Der Temperaturdurchschnitt habe 0,78 Grad Celsius über dem Durchschnitt von 12,9 Grad gelegen. Im 37. Jahr in Folge war der November damit wärmer als im Durchschnitt des 20. Jahrhunderts; der letzte kühlere ereignete sich 1976. Zudem war es der 345. Monat in Folge, der über dem Jahrhundertschnitt lag. (siehe auch globale Erwärmung) November ist auch die Bezeichnung für das „N“ im ICAO-Alphabet. Niccolò Machiavelli. Niccolò di Bernardo dei Machiavelli (* 3. Mai 1469 in Florenz, Republik Florenz; † 21. Juni 1527 ebenda) war ein florentinischer Philosoph, Politiker, Diplomat, Chronist und Dichter. Vor allem aufgrund seines Werkes "Il Principe" (dt. "Der Fürst") gilt er als einer der bedeutendsten Staatsphilosophen der Neuzeit. Machiavelli ging es hier – im Ansatz neutral – darum, Macht analytisch zu untersuchen, anstatt normativ vorzugehen und die Differenz zwischen dem, was sein soll, und dem, was ist, festzustellen. Er orientierte sich in seiner Analyse an dem, was er für empirisch feststellbar hielt. Sein politisches und literarisches Werk "Discorsi" ist darüber in den Hintergrund getreten. Der später geprägte Begriff "Machiavellismus" wird oft als abwertende Beschreibung eines Verhaltens gebraucht, das zwar raffiniert ist, aber ohne ethische Einflüsse von Moral und Sittlichkeit die eigene Macht und das eigene Wohl als Ziel sieht. Sein Name wird daher heute häufig mit rücksichtsloser Machtpolitik unter Ausnutzung aller Mittel verbunden. Herkunft, republikanische Prägung und Ablehnung der Medici. Niccolò Machiavelli entstammte einer angesehenen, jedoch verarmten Familie. Er wuchs zusammen mit seinen drei Geschwistern Primavera, Margherita und Totto Machiavelli bei seinen Eltern Bernardo di Niccolò Machiavelli und dessen Frau Bartolomea di Stefano Nelli im Florentiner Stadtviertel Santo Spirito südlich des Arno auf. Über seine Mutter ist nur bekannt, dass sie belesen war und kleinere Schriften verfasste. Der Vater arbeitete hauptsächlich als Anwalt, war aber in dem Beruf erfolglos und verarmte. Mit seinem geringen Gehalt unterhielt er eine kleine Bibliothek und ermöglichte seinem Sohn Niccolò eine umfassende humanistische Bildung. So lernte Machiavelli schon früh autodidaktisch die Werke antiker Klassiker kennen, unter anderen die Werke von Aristoteles, Boethius, Cicero (De officiis) und Claudius Ptolemäus. Er wurde von Privatlehrern in den Sieben Freien Künsten unterwiesen und lernte Grammatik und Latein früher als heute üblich. Seine Briefe unterschrieb er mit unterschiedlichen Varianten seines Namens wie „Niccolò“, „Nicolò“, „Nicholò“, und „Machiavelli“, „Macchiavelli“, „Machiavegli“, „Macchiavegli“. Der Sohn eines erfolglosen und verarmten Advokaten unter der Herrschaft der Medici entwickelte, wie sein Biograph Volker Reinhardt schreibt, eine tiefe Abneigung gegen diese mächtige Familie und deren politischen Manipulationen und erkannte früh, dass Politik im „Ringen von Interessen und sozialen Schichten“ besteht. Republikanischer Politiker und Florentiner Amtsträger. Am 23. Mai 1498 wurde der dominikanische Bußprediger Girolamo Savonarola als Ketzer verbrannt. Durch die anschließenden „Säuberungen“ wurde erst Machiavellis neue Stelle frei, was ihn gleich mit der harten Seite der Politik vertraut machte. Man wählte ihn am 15. Juni 1498 unter vier Bewerbern zum Staatssekretär der Zweiten Kanzlei des Rats der „Dieci di pace e di libertà“ ("Rat der Zehn", wörtlich: „Zehn von Frieden und Freiheit“) der Republik Florenz; er war bis 1512 als solcher für die Außen- und Verteidigungspolitik zuständig. Diese Wahl – für Maurizio Viroli aus dem Nichts – war für Volker Reinhardt im Rückblick überraschend, da Machiavelli zuvor „keinerlei Spuren in öffentlichen Dokumenten hinterlassen“ und gegen die starke Konkurrenz eines Professors für Beredsamkeit und zweier studierter Juristen zu bestehen hatte. Am 19. Juni bestätigte der Große Rat von Florenz seine Ernennung. Volker Reinhardt vermutet, dass er „gewichtige Fürsprecher“ haben musste, da die Strukturen der Politik von familiären Netzwerken geprägt waren. Maurizio Viroli benennt einige dieser Fürsprecher; Machiavelli wurde offenbar deshalb Zweiter Kanzler, weil er weder den vertriebenen Medici noch Savonarola nahestand. Viroli weist darauf hin, dass Machiavelli von Ricciardo Becchi, dem florentinischen Botschafter in Rom, den Auftrag erhalten hatte, eine Predigt Savonarolas am 1. und 2. März 1498 in San Marco zu besuchen. Machiavelli schrieb am 9. März einen Brief an Becchi, in dem Savonarola nicht gut wegkam. Außerdem wurde Machiavelli nach Viroli vom Ersten Kanzler, Marcello Virgilio Adriani, unterstützt. Im Mai 1500 wurde Niccolò Machiavelli durch den Tod seines Vaters Bernardo Oberhaupt seines Familienzweiges. Im Sommer 1501 heiratete er Marietta Corsini, wie damals üblich nach sozialen und ökonomischen Gesichtspunkten. Mit ihr hatte er fünf Söhne und eine Tochter. Einer der Söhne seiner Tochter Bartolommea ordnete und veröffentlichte seinen Nachlass. Diplomatische Missionen für die Republik. Machiavellis erste Dienstreise führte ihn nach Piombino zu Jacopo IV. Appiano und hatte mit dem Kampf um Pisa zu tun. Seine nächste Reise im Juli 1499 ging nach Forlì, wo er mit Caterina Sforza über militärische Unterstützungszahlungen Florenz‘ (für Condottiere) verhandelte. In seiner gesamten Amtszeit bis 1512 wurde er während seiner Abwesenheiten vom Büroleiter "(coadiutore)" Biagio Buonaccorsi unterrichtet, über das Geschehen in Italien und über den „aktuellen Kanzleiklatsch“. Im Sommer 1499 setzte Florenz im Kampf um Pisa auf französische Hilfe, die aber auch keinen Erfolg brachte. Deshalb wurde Machiavelli unter der Führung von Luca degli Albizzi dorthin geschickt. Aber Pisa wurde wieder nicht erobert. Daraufhin wurde Machiavelli unter der Führung des Patriziers Francesco della Casa im Juli 1500 zum französischen Hof geschickt, um darüber mit Ludwig XII. zu verhandeln. Der König war nicht einfach ausfindig zu machen, da er der grassierenden Pest wegen von Schloss zu Schloss reiste; sie trafen ihn am 26. Juli in Lyon an. Machiavelli kam durch die Verhandlungen zum Schluss, dass man sich auf Ludwig XII. nicht verlassen konnte, da er „gierig, käuflich, verräterisch [und] opportunistisch“ sei. Nach Volker Reinhardt lernte Machiavelli aus dieser Reise, dass Menschen, je näher sie der Macht kamen, desto stärker von Ehrgeiz "(avarizia)" beherrscht würden, gerade wenn man alles erreicht habe und nichts mehr zu gewinnen sei. Das habe Machiavelli auf Florenz übertragen: „Mit Wankelmut und Nachgiebigkeit erreichte man gar nichts.“ Am 14. Januar 1501 traf Machiavelli wieder in Florenz ein. Cesare Borgia als Herzog von Valentinois Cesare Borgia eroberte 1501 Piombino; am 4. Juni begann Arezzo einen Aufstand gegen die Florentiner Herrschaft. Andere Orte folgten der Rebellion, in die Cesare Borgia wahrscheinlich verwickelt war. Um Näheres über ihn zu erfahren, schickte man Francesco Soderini, Bischof von Volterra, und Machiavelli am 22. Juni 1502 nach Urbino, das sie drei Tage später erreichten. Dort beschäftigte sich Machiavelli intensiv mit Cesare Borgia, dem Sohn des Papstes Alexander VI., der Machiavelli später zu seinem Hauptwerk "Der Fürst" anregte. Nach gut drei Wochen trennte man sich ohne Vertragsabschluss. Nach der Rückkehr wurde Piero Soderini, der Bruder Francescos, zum Florentiner Staatsoberhaupt auf Lebenszeit gewählt. Am 6. Oktober 1502 brach Machiavelli nach Imola auf, um dort in der Nacht auf dem 8. Oktober erstmals mit Cesare Borgia zu sprechen. Am 23. Oktober beurteilte er ihn in einem Brief nach Florenz: „… Was seinen Staat betrifft, den ich aus der Nähe zu studieren Gelegenheit hatte, so ist er ausschließlich auf Glück "(fortuna)" aufgebaut. Das heißt, seine Macht beruht auf der sicheren Meinung, dass ihn der König von Frankreich mit Truppen unterstützt und der Papst mit Geld.“ Am 31. Dezember lud Cesare Borgia seine Gegner unter dem Vorwand der Versöhnung nach Senigallia; alle kamen. Zwei ließ er sofort erwürgen, zwei behielt er als Geiseln und rief gleich darauf mitten in der Nacht Machiavelli zu sich, der sich vom „übermenschlichen Mut“ beeindruckt zeigte und dieses Geschehen später schriftstellerisch überhöht schilderte, wodurch es „Ewigkeitswert“ erhielt. Am 18. August 1503 starb der Papst, der Vater Cesare Borgias; seine Macht schrumpfte, obwohl er weiterhin von Frankreich unterstützt wurde. Der neu gewählte Papst Pius III. starb knapp vier Wochen nach seiner Ernennung. Daraufhin wurde Machiavelli Ende September von der Signoria nach Rom zur Papstwahl geschickt, wo er mit allen Mächtigen seiner Zeit Gespräche führte. Am 1. November 1503 wurde Julius II. zum Papst gewählt, weil er nach Machiavellis Ansicht den „Wählern das Blaue vom Himmel herunter versprochen [hatte], und zwar jedem das, was er am meisten wünschte“; Cesare Borgia wurden die Romagna mit der Festung Ostia und die Leitung der Truppen des Papstes versprochen. Mitte November wurde Cesare Borgia dort gefangen genommen und erpresst, wie Machiavelli „[m]it unüberhörbarem Behagen“ berichtete. Nachdem die Spanier am 28. Dezember 1503 überraschend die Franzosen in einer Schlacht geschlagen hatten, wurde Machiavelli am 19. Januar 1504 zum französischen König Ludwig XII. geschickt und blieb dort bis zum Waffenstillstand im Februar 1504. Machiavellis Militärreform: Bürgermiliz statt Söldnerheer. Der Kampf um das abtrünnige Pisa beschäftigte die Stadt Florenz weiter. Da Söldner nach Machiavellis Auffassung (erhärtet in bitteren eigenen Erfahrungen mit Söldnerführern) generell unzuverlässig und allein auf ihre eigenen Interessen bedacht waren, schuf Machiavelli ab 1506 ein Heer nach römischem Vorbild, in dem eine Anzahl florentinischer Bürger und Bauern dienen mussten. Machiavelli schrieb: „… ihr werdet es noch sehen, welchen Unterschied es ausmacht, Bürger-Soldaten nach Tüchtigkeitsauslese und nicht nach Korruption zu bekommen.“ Nach Volker Reinhardt wollte Machiavelli damit das Florentiner Gemeinwesen grundlegend umwandeln und statt Patronage Leistung und Verdienst zur Grundlage machen. Durch diese Reformen bekam Machiavelli ein neues Amt im Magistrat; er leitete ohne zusätzliches Gehalt die Militärbehörde. Ihm oblag die Kriegsführung ebenso wie vor allem die Aufstellung, Ausbildung und Versorgung der neugegründeten Miliz, von der er sich den Aufstieg und das politische Überleben der Republik Florenz versprach. Die Aristokraten der Stadt waren über diese sonst allgemein anerkannte Bürgermiliz nicht erfreut, wie Maurizio Viroli urteilt, etwa Alamanno Salviati, einer der Führer der aristokratischen Opposition gegen Piero Soderini. Begegnung mit Papst Julius II. und Reise nach Deutschland. Von August bis November 1506 wurde „der Menschen-Erforscher“ Machiavelli zu Papst Julius II. nach Rom geschickt, um sich und der Stadt Florenz ein Bild vom Papst und seiner Ziele zu machen. Machiavelli beschrieb ihn wie folgt: „Wer sein Wesen gut kennt, weiß, dass er zur Heftigkeit und Überstürzung neigt und dass diese Überstürzung, Bologna zurückzuerobern, die am wenigsten gefährliche Überstürzung sein wird, zu der er neigen wird“; der Papst strebe also nichts anderes als die Vorrangstellung in Italien an. Machiavelli wurde am 19. Juni 1507 zum Geschäftsträger der Republik beim römisch-deutschen Kaiser Maximilian I. gewählt, was wenige Tage darauf auf Druck von Aristokraten zurückgenommen wurde, da der Sohn eines verarmten Anwalts ihnen nicht standesgemäß schien. Stattdessen schickte man Francesco Vettori, der aber nicht die üblichen, geforderten Berichte an Piero Soderini lieferte. Machiavelli war über die Entscheidung bitter enttäuscht. Er fühlte sich betrogen und zurückgesetzt. Am 17. Dezember machte sich Machiavelli dann doch im Auftrag der Stadt nach Südtirol auf und traf am 11. Januar 1508 in Bozen beim Kaiser ein. Aus der folgenden Zusammenarbeit mit Vettori entstand eine lebenslange Freundschaft. Machiavellis Aufgabe war es, dem Kaiser Florenz zu erklären; unlösbar für ihn, da Maximilian offenbar selbst nicht klar war, was er wollte. Machiavelli blieb bis zum Frühjahr beim Kaiser und verfasste darüber Berichte. Die Eindrücke der Reise über die Schweiz nach Deutschland reflektierte er und kam zu dem Ergebnis, die Schweizer genössen „ohne jeden Unterschied des Ranges – mit Ausnahme derer, die als gewählte Amtsträger tätig sind – eine wirkliche freie Freiheit“, im Gegensatz zu Florenz, wo es seiner Meinung nach „eine unfreie Freiheit“ gab, die nicht nach persönlichem Verdienst, sondern nach Familie ging. Damit kehrte Machiavelli nach Volker Reinhardt eine jahrhundertealte Werteordnung um. Die Schweizer und Deutschen seien nicht mehr Barbaren, sondern Vorbild für Italien. Sieg von Machiavellis Bürgermiliz in Pisa. Im Februar und März führte Machiavelli seine Bauernmiliz nach Pisa, das am 8. Juni 1509 nach kurzem Kampf kapitulierte. Pisa wurde nach Ansicht Machiavellis für seinen langjährigen Widerstand nicht genügend bestraft, so dass es sich bei nächster Gelegenheit wieder erheben würde. Dennoch war der triumphale Sieg über Pisa der größte politische Erfolg Machiavellis, der ihm jedoch nur kurz gedankt wurde. Er selbst musste nach Verona, während Luigi Guicciardini, ein Patrizier, seinen deutlich prestigeträchtigeren Auftrag in Mantua übernahm, was Machiavelli (so Volker Reinhardt) als „unerträgliche Herabwürdigung“ betrachtete. Kontakt zu Leonardo da Vinci; Empirisches Denken. Mit Leonardo da Vinci arbeitete er in seiner Zeit in Florenz eng zusammen. So waren beide am Hofe Cesare Borgias, der von da Vinci gemalt wurde. Um Pisa zu besiegen, wurde erwogen, einen Kanal zu bauen, um den Arno umzuleiten und auf diese Weise Pisa vom Meer abzuschneiden. An diesem Kriegsprojekt war da Vinci als Naturforscher und Zeichner beteiligt. Er malte ein Bild über die Schlacht von Anghiari, und Machiavelli beschrieb diese Schlacht in den "Florentiner Geschichten". Dirk Hoeges geht davon aus, dass Machiavelli durch die Zusammenarbeit mit da Vinci lernte, dass Erfahrungswissen (Empirie) eine sicherere Quelle ist als das bisher übliche Wissen der Humanisten. Er betont: Machiavelli „kehrt als Grundlage seiner Schrift [Der Fürst] die Erfahrung hervor, die über die Dauer vieler Jahre zur kompetenten Wahrnehmung der Wirklichkeit geführt hat.“ Florenz im Machtkampf zwischen Frankreich und dem Papst. Florenz geriet 1510 zwischen die Fronten im unerwarteten Konflikt zwischen Papst Julius II. und dem französischen König Ludwig XII. Machiavelli wurde daraufhin nach Lyon geschickt, wo er am 7. Juli 1510 eintraf. Traditionell hatte Florenz ein Bündnis mit dem französischen Hof, wollte es sich aber nicht mit dem Papst verscherzen. Florenz war in einer schwierigen Position zwischen den Blöcken, die beide Unterstützung verlangten und beide ungleich stärker waren. Dieser Konflikt war nicht auflösbar, so dass Machiavelli bis zum September dort bleiben musste, ohne eine diplomatisch „klare Linie“ zu finden. So schickte er, was sehr ungewöhnlich war, seine Berichte ohne jegliche Kommentare nach Florenz. In ihnen schätzte er die kommende politische Weltmachtstellung des mit dem Papst verbundenen Spanien völlig falsch ein. Florenz entschied sich für Frankreich und gegen den Papst. Volker Reinhardt urteilt, „die Macht der Tradition“ habe hier in einer Krisenlage „auch in einem so unkonventionellen Geist“ gewirkt; zudem sei er zum „Gefangenen seiner eigenen Dogmen“ geworden: „Spanien zählte nicht, weil es sich von den ewig gültigen Vorbildern des alten Roms entfernt hatte.“ Im Oktober 1510 erkrankte der greise Papst schwer, erholte sich aber schnell wieder. Wäre der Papst zu dem Zeitpunkt gestorben, hätte Machiavelli seine Hauptwerke vermutlich nie geschrieben. In dem Machtkampf lud Ludwig XII. zu einem Konzil nach Pisa zum 1. September 1511 ein. Pisa gehörte zu Florenz und stimmte dem Konzil zu, womit Florenz sich endgültig die Feindschaft des Papstes zuzog. Der Papst berief daraufhin selbst zu einem Konzil nach Rom in den Lateran ein. Im Mai 1511 wurde Machiavelli nach Monaco geschickt. Die Mission verlief ergebnislos, sticht aber aus den zahlreichen Missionen Machiavellis insofern heraus, als er während dieser Mission ausdrücklich als Botschafter bezeichnet wurde. Im September 1511 wurde Machiavelli angesichts der ungeklärten Lage wieder zum französischen König geschickt. Sein Auftrag war zu erreichen, dass das kompromissverhindernde Konzil in Pisa entweder abgesagt oder verlegt würde, oder dass mindestens die anreisenden Kardinäle nicht über Florenz reisen würden, um den Papst nicht weiter zu provozieren. Aber die Reise war erfolglos. Der Papst verhängte sogar ein Interdikt über Florenz. Am 4. Oktober 1511 wurde Machiavelli zur Rückkehr abberufen. Die Situation in Florenz wurde immer prekärer, da Ferdinand II. und die Republik Venedig mit dem Papst eine Heilige Liga bildeten. Deswegen wurde Machiavelli im November 1511 als Quartiermeister mit 300 Fußsoldaten seiner Miliz nach Pisa geschickt. Die Pisaner hatten den angereisten Kardinälen bisher eine standesgemäße Begrüßung verweigert. Er sollte dies nachholen und die Kardinäle dazu bewegen, das Konzil anderswo fortzusetzen. Danach musste er Soldaten anwerben, da Florenz sich auf einen Krieg mit dem Papst vorbereitete. Im selben Monat hob der Papst das Interdikt wieder auf; die Kardinäle reisten von Pisa nach Mailand. Der florentinische Kardinal Giovanni de’ Medici, der spätere Papst Leo X., gewann in Rom immer mehr Einfluss. Es schien so, dass eine Übereinkunft mit dem Papst zustande kommen würde. Trotzdem stand Piero Soderini weiter zum französischen König. Man schickte Antonio Strozzi als Botschafter nach Rom, um die Lage zu sondieren. Im Februar 1512 eroberten französische Truppen Brescia; am 11. April wurden Truppen der Heiligen Liga bei Ravenna besiegt; die französischen Truppen hatten dabei aber viele Gefallene. Kardinal Giovanni de’ Medici geriet in Gefangenschaft, konnte aber kurz darauf durch Glück nach Rom fliehen. Da Florenz weiter im Alarmzustand war, erhielt Machiavelli immer wieder Aufträge für militärische Missionen, um Soldaten auszuheben und Festungen zu inspizieren. Am 13. Juni 1511 gewannen päpstliche Truppen Bologna zurück; Pavia wurde von den Schweizern erobert. Mailand wurde am 20. Juni eingenommen. Am 11. Juli 1512 versuchte der spanische Botschafter in Florenz, die Republik zum Beitritt zur Liga gegen Frankreich zu überreden. Doch das Staatsoberhaupt Piero Soderini setzte weiterhin auf die Franzosen. Am 30. Juli 1512 versuchte sich Florenz gegen ca. 30.000 Dukaten von Frankreich freizukaufen; wie Volker Reinhardt urteilt, „Politik im schlimmsten Kaufmanns-Stil“, die Machiavelli schon gegenüber Cesare Borgias Dominanz ein Jahrzehnt früher versucht hatte. Es war ein Kompromiss, mit dem man zusätzlich noch den französischen König verärgerte. Diplomatische und militärische Totalniederlage von Florenz. Am 22. August 1512 wurde Machiavelli von seinen militärischen Missionen zurückgerufen. Die päpstliche Allianz wollte unter spanischer Führung gegen Florenz vorgehen. Der spanische Heerführer Raimondo de Cardona bot Florenz an, gegen Zahlung von 30.000 Florin abzuziehen. Florenz lehnte ab; als aber am 29. August Prato erobert und grausam geplündert worden war, sah sich die Stadt gezwungen, die Summe an Spanien zu entrichten, um nicht wie Prato zu enden. Rückkehr der Medici, Sturz Machiavellis. Am 31. August wurde Soderini aus Florenz geführt; die Medici kehrten, vom spanischen Vizekönig geschützt, zurück. Kardinal Giovanni de’ Medici, sein Bruder Guiliano und sein Neffe Giulio übernahmen die Macht, verteilten Posten an ihre Gefolgschaft und entfernten diejenigen, denen sie misstrauten – darunter an prominenter Stelle Machiavelli. Er verlor seine Ämter (Jahresgehalt 200 Florin) am 7. November, ihm folgte Niccolò Michelozzi nach. Der Erste Kanzler, Marcello Virgilio Adriani, behielt dagegen wie die meisten Amtsträger sein Amt, bis er 1522 starb. Herfried Münkler sieht Machiavellis Amtsenthebung als Beleg für die politische Bedeutung, die die Medici ihm zusprachen. Drei Tage später, am 10. November 1512, verurteilte man Machiavelli dazu, 1000 Florin zu hinterlegen, die sein „künftiges Wohlverhalten“ sicherstellen sollten. Da er nicht genügend Kapital besaß, sprangen drei Freunde ein. Am 17. November wurde Machiavelli verboten, den Regierungspalast zu betreten, obwohl noch öffentliche Gelder in seinem Besitz waren und er diese dort abrechnen musste; dabei wurde kein Fehlbetrag gefunden, was für Volker Reinhardt dafür spricht, dass Machiavelli den „Ruhmestitel“, „unbestechlich zu sein“, zu Recht führte. Ansicht des Hauses, in dem sich Macchiavelli während seines Exils aufhielt, in San Casciano in Val di Pesa, Ortsteil Sant’Andrea in Percussina Gefangenschaft und Folter. Die restituierte Herrschaft der Medici blieb nicht unbestritten. Verschwörer um Agostino Capponi und Pietropaola Boscoli konspirierten gegen die Medici und erstellten im Februar 1513 eine Liste, in der sie Gegner der Medici nannten; auf Platz sieben stand Machiavelli. Er war nicht zuhause, als die Staatspolizei ihn aufsuchte, stellte sich aber kurz darauf. Wie damals üblich, wurde Machiavelli bei den Verhören gefoltert und sechsmal ohne Ergebnis,aufgehängt‘; Capponi und Boscoli richtete man am 23. Februar hin. Am 11. März 1513 wurde Giovanni de’ Medici zum Papst gewählt und nannte sich Leo X. Dies wurde in Florenz gefeiert und die Gefangenen amnestiert, so dass Machiavelli am 12. März wieder frei war. Für Volker Reinhardt „ist es äußerst unwahrscheinlich, dass er [Machiavelli] sich in das dilettantische Komplott von Februar 1513 verwickeln ließ.“ Der Fall von Florenz als Bruch im Leben Machiavellis. Machiavelli war von der Niederlage der florentinischen Republik – mit der sein persönliches Scheitern einhergegangen war – tief getroffen. Er reflektierte den Fall der Republik Florenz in einem Brief, den er an eine anonyme Adlige richtete, und kritisierte seinen politischen Führer Soderini scharf. Nach Machiavelli war Piero Soderini „ein Gefangener seiner Illusionen“. Einige Wochen kritisierte Machiavelli in einem Brief an Piero Soderini, der nach Siena ins Exil gegangen war, in den Worten von Volker Reinhardt, dass Soderini „das Grundgesetz der Politik, dass der Zweck die Mittel heiligt, nicht nur verkannt, sondern in sein ängstliches Gegenteil verkehrt hat. Er wollte es zu vielen recht machen und hat darüber die erste Pflicht des Staatsmanns, den Staat um jeden Preis zu erhalten, vernachlässigt.“ Eigene politische Fehler sah und analysierte er dabei nicht. Machiavelli, der Reformer, erntet seiner Meinung nach nur Undank durch Neid und Missgunst seiner Florentiner Mitbürger. Leben in Armut. In den folgenden Jahren wohnte er mit seiner Frau und den mittlerweile sechs Kindern auf seinem kleinen Landgut, das "Albergaccio" in dem Dorf Sant’Andrea in Percussina 15 Kilometer südwestlich von Florenz. Machiavelli ertrug es nicht mehr, tatenlos in Florenz zu leben, da er bei den Medici nicht mehr gefragt war. Innerhalb eines halben Jahres nach seiner Folter schrieb er sein berühmtestes Werk "Il Principe" 1513. Der ursprüngliche Titel hieß "De principatibus" "(Von den Fürstentümern)" und „ist ein sprachliches Täuschungsmanöver, das die Humanisten lächerlich machen soll.“ Die Kapitelüberschriften sind lateinisch verfasst, der Text aber in der toskanischen Volkssprache, dem heutigen Italienisch. Streben nach politischer Rehabilitierung und der Rückkehr in politische Ämter. Machiavelli versuchte in der Zeit seiner allmählich gelockerten Verbannung, durch politische Dienste und Schriften in Ämter und Würden zurückzukehren. Dieses Bestreben bestimmte den Rest seines Lebens. Reisen, Verfassungsanalysen und Denkschriften Machiavellis. Machiavelli machte einige Geschäftsreisen (1516 Livorno, 1518 Genua, 1519 und 1520 Lucca). In dem Memorandum "Über die Angelegenheiten" von Lucca schrieb er, dass die Verfassung für Florenz „vorbildlich sein sollte“, da die Mitglieder der Stadtregierung nicht über zu viel persönliche Macht verfügten und der Große Rat kontrolliert wurde. Wer dort zehn Mal notiert wurde, musste tatsächlich gehen. Schon in der "Discorsi" schrieb Machiavelli, dass „die republikanischen Grundwerte … bei der breiten Masse besser geschützt“ würden als bei den einflussreichen Familien. Lorenzo de’ Medici, Herzog von Urbino Nach dem frühen Tod Lorenzo de’ Medicis am 4. Mai 1519 veranstaltete der Kardinal Giulio de’ Medici (später Papst Clemens VII.) „ein regelrechtes Brainstorming“ über die Zukunft der Stadt Florenz. Machiavelli beteiligte sich mit der Denkschrift "Abhandlung über die florentinischen Angelegenheiten nach dem Tod Lorenzo de’ Medicis". Machiavelli empfahl dem Kardinal, nach einer Analyse der Geschichte der Stadt, dass die Medici zunächst an der Macht bleiben sollten, es solle aber „einen engen Rat der 65, einen mittleren Rat der 100 und einen großen Rat der 1000“ geben: Ersterem solle die Exekutive obliegen, dem dritten die Legislative und dem mittleren eine Scharnierfunktion. Nach dem Ableben der Medici solle alle Macht an die Räte gehen. Machiavelli war sich sicher, dass die verbliebenen Medici nicht mehr lange leben würden, da 1520 nur zwei zehnjährige illegitime Kinder, Alessandro de’ Medici und Ippolito de’ Medici, für die nächste Generation der Medici zur Verfügung standen. In dieser bahnbrechenden Schrift, für Reinhardt einem „unerhörten Memorandum“, zog Machiavelli den praktischen Nutzen aus seiner Schrift über die Fürstentümer. Für eine derartige, revolutionär wirkende Offenheit gab es nicht nur kein Vorbild, Machiavellis Menschenbild der "ambizione" und der "avarizia" sprach selbst dagegen, dass die Medici freiwillig mit Blick auf ihr zu erwartendes Ableben präventiv auf die Macht verzichteten. Auch das von ihm verfasste „Gesetz der Geschichte“ sprach dagegen. In seiner Rolle als „Außenseiter […] quer zu den Mächtigen und außerhalb aller einflussreichen Zirkel“ hatte Machiavelli nichts mehr zu verlieren; tiefer als im Jahr 1519 konnte Machiavelli nicht mehr fallen. Zu gewinnen hatte er durch solche schonungslosen Betrachtungen aber auch nichts. Die beiden Medici setzten nichts von Machiavellis Vorschlägen um und förderten auch keinen Neuanfang seiner Karriere. Im Mai 1521 wurde Machiavelli vom Amt für öffentliche Angelegenheiten in Florenz nach Carpi (bei Modena) geschickt, um einen Fastenprediger auszusuchen. Die Mission war erfolglos, aber Machiavelli berichtete in zynischen Briefen von seiner Reise. Dadurch verlor er Reputation bei den Regierenden und den eigenen Glauben an die Wirksamkeit seines Rates. Krise und Behauptung der Medici. Am 1. Dezember 1521 starb Leo X. mit 46 Jahren. Wie von Machiavelli erwartet und mit wenig Feingefühl veröffentlicht, blieb den Medici neben den beiden jungen unehelichen Söhnen nur noch der Kardinal Giulio de’ Medici, der nun erneut aufrief, Ideen zu sammeln, wie es mit Florenz weitergehen solle. Machiavelli nahm auch diesmal kein Blatt vor den Mund und forderte „eine Republik zu schaffen, die sich auf den gemeinsamen Nutzen aller Bürger gründete:“ Nach Machiavelli sollte es einen Großen Rat geben mit „umfassenden Kompetenzen, Gesetze zu erlassen“; ein mittleren Rat „mit hundert Mitgliedern, die sich um Steuern und Finanzen kümmern“ und „zehn frei gewählte «Reformer»“ sollen zusammen mit dem Kardinal Giulio de’ Medici alles weitere regeln, durften jedoch die Rechte des Großen Rates nicht antasten, und ihre Vollmacht war auf ein Jahr beschränkt. Damit war das Ende der Medici für Machiavelli besiegelt. Im Juni 1522 wurde der Niederländer Adriaan Florisz d’Edel zum Papst Hadrian VI. gewählt. Hadrian VI. versuchte in Rom Reformen durchzusetzen und verschaffte sich viele Feinde; als er am 14. September 1523 starb, trauerten wenige Kardinäle. Am 19. November wurde der letzte Medici Kardinal Giulio de’ Medici zum Papst Clemens VII. ernannt. Machiavelli war sicherlich verzweifelt darüber, wie viel Glück die Medici hatten. In Florenz wurde einer der beiden unehelichen Söhne, Alessandro de’ Medici, als Stellvertreter von Kardinal Giulio de’ Medici benannt. Da Alessandro erst zwölf Jahre alt war, wurde Kardinal Silvio Passerini (* 1469, † 20. April 1529) als Florentiner Sachwalter bestimmt; die von Machiavelli favorisierte Republik führten die Medici nicht ein. Widerwilliges Arrangement mit der Herrschaft der Medici. Machiavelli blieb wenig übrig als sich mit der Präsenz der Medici zu arrangieren. Im Auftrag Kardinal Giulio de’ Medicis schrieb Machiavelli die "Geschichte von Florenz" "(Istorie Fiorentine)" und erhielt dafür 100 Florin. In dem Werk beschrieb er die Medici positiv, äußerte aber – nach Volker Reinhardt – unterschwellige Kritik: Im März 1525 war die "Istorie Fiorentine" bis zum Jahr 1492 fertig. Weiter wagte Machiavelli nicht zu schreiben und fürchtete, beim jetzigen Papst vollends in Ungnade zu fallen, wenn er seine Sicht unverschlüsselt schreibe. So wählte Machiavelli einen Mittelweg. Er lobte scheinbar Cosimo de’ Medici (1389–1464) und stellte ihn als perfekten Fürsten dar, aber er stellt ihn auch als Paten von Florenz dar, da dank seines Geldes alle von ihm abhängig waren. Cosimo befriedete Florenz, lähmte aber gleichzeitig den Ehrgeiz. Dadurch erstickte er den Antrieb bei den Bürgern, selbstständig zu sein. Außerdem stiegen die Anhänger der Medici in Florenz auf und nicht die Besten, was die Medici, nicht aber den Florentiner Staat stärkte. Machiavelli schrieb dieses Geschichtswerk inhaltlich im Gegensatz zu den bisher üblichen – moralisch wertenden – Werken, da er die eigentlichen, pessimistisch eingeschätzten Triebkräfte menschlichen Handelns in der Geschichte beschrieb. Nach Reinhardt ging es Machiavelli darum, „hinter die Fassaden der Propaganda zu blicken und die Kräfte aufzuzeigen, die ungerechte Sozial- und Staatsordnungen zusammen hielten: Täuschung und Gewalt auf der Seite der Mächtigen, Angst und Aberglaube bei den Unterdrückten.“ So berichtet Machiavelli in der "Istorie Fiorentine" vom Aufstand der rechtlosen Wollarbeiter (Ciompi-Aufstand) 1378. Ihre Forderungen waren nach Machiavelli unter anderem, eine eigene Zunft zu bekommen und einen Anteil an den Ämtern in Florenz. Der Aufstand scheiterte nach Machiavelli deshalb, weil die Solidarität der Wollarbeiter nicht groß genug war und sie den Aufstand aus Furcht vor Strafe nicht bis zum Ende durchzogen, also nicht ausreichend Entschiedenheit bewiesen. Machiavellis Auffassung nach hätten die Wollarbeiter „dafür sorgen [müssen], dass [sie] für das, was [sie] in den letzten Tagen getan haben, nicht bestraft werden können. […] denn wo viele die Gesetze übertreten, wird niemand belangt.“ Machiavelli hielt damit den passiven Florentinern den Spiegel vor: „Alle Macht ist Raub und all ihre Rechtfertigung pure Ideologie.“ Machiavelli übergab das Werk im Mai 1525 dem Papst Clemens VII. Er gab Machiavelli dafür 120 Golddukaten aus seinem persönlichen Vermögen. Am 11. oder 12. Juni verließ er Rom und erreichte Faenza am 21. Juni. Im Auftrag des Papstes sollte Machiavelli mit Francesco Guicciardini über das Verhalten der Italiener gegenüber Karl V. sprechen. Machiavellis Idee, die Romagna militärisch aufzurüsten, wurde aber von Guicciardini und dem Papst abgelehnt, so dass Machiavelli am 26. Juli nach Florenz abreiste. Während dieser Zeit schloss er Freundschaft mit Guicciardini. Der Sturz der Medici und die gescheiterte Rückkehr Machiavellis. Im August 1525 reiste Machiavelli im Auftrag der florentinischen Wollzunft nach Venedig, um einen Konflikt zwischen Kaufleuten zu lösen. Am 22. Mai 1526 wurde die Liga von Cognac gegründet, da sich der Konflikt des Papstes mit Kaiser Karl V. verschärfte. Im Frühjahr bekam Machiavelli vom Papst den Auftrag, die Verteidigung von Florenz zu verstärken, unterstützt durch Pedro Navarro. Machiavelli war, wie zu seiner Zeit als Zweiter Kanzler, wieder im Palazzo Vecchio aktiv. Im Auftrag von Florenz – im Lager des Medici-Papstes – reiste Machiavelli zu Francesco Guicciardini, im September 1526 in die Romagna und am 30. November 1526 nach Modena. Florenz verhielt sich wieder passiv, statt, wie Machiavelli, der keine kaiserliche und deutsche Präsenz in Italien wollte und lieber die Medici ertrug, es vorschlug, die Entscheidungsschlacht zu suchen. Die Uneinigkeit der Italiener begünstigte die Eindringlinge. Das kaiserliche Heer überquerte den Apennin, aber Florenz wurde nicht erobert und geplündert, sondern am 6. Mai 1527 Rom (Sacco di Roma). Der Papst flüchtete erst in die Engelsburg und einem Gerücht zufolge danach nach Civitavecchia. Dorthin wurde Machiavelli geschickt, um die Flucht des Papstes mit dem Schiff zu organisieren; am 22. Mai 1527 schickte er von dort einen Brief an Guicciardini, der Machiavellis letzte bekannte Schrift ist. Nach dem Fall Roms endete auch die Zeit der Medici in Florenz. Nach einer erfolgreichen Rebellion gegen die „verhassten Medici“ wurde die Republik ausgerufen und die frühere Verfassung am 16. Mai 1527 wieder in Kraft gesetzt. Daraufhin bewarb sich Machiavelli um eine Sekretärsstelle, erhielt aber wegen seiner scheinbaren Nähe zu den Medicis auf der Sitzung des Großen Rates am 10. Juni 1527 nur 12 gegen 555 Stimmen. Stattdessen wurde Francesco Tarugi zum Zweiten Kanzler gewählt. Elf Tage darauf, am 21. Juni 1527, starb Machiavelli an einem Magenleiden. Grab Niccolò Machiavellis in der Kirche Santa Croce Sein Grabmal befindet sich in der Kirche Santa Croce in Florenz. Ein britischer Bewunderer ließ 300 Jahre nach dem Tod folgende Inschrift anbringen: TANTO NOMINI NULLUM PAR ELOGIUM –,Solchem Namen ist kein Lobesspruch ebenbürtig‘, darunter Name und Sterbedatum: OBIT AN. A. P. V. M D X X V I I – OBIIT Anno A Partu Virginis MDXXVII – starb im Jahre nach der jungfräulichen Geburt 1527. Vermächtnis. Machiavellis politisches Vermächtnis findet sich in seinen vier Hauptwerken. Dazu gehören neben seinem bekanntesten Buch "Il Principe" ("Der Fürst") von 1513, das erstmals 1532 posthum erschien, die "Discorsi sopra la prima deca di Tito Livio" "(Abhandlungen über die ersten zehn Bücher des Titus Livius)", die er von 1513 bis 1517 schrieb und die 1532 veröffentlicht wurden, sowie seine 1521 verfasste "Istorie fiorentine" ("Geschichte von Florenz") und sein im selben Jahr entstandenes Werk "Dell’Arte della guerra" ("Von der Kriegskunst"). Es gibt große Widersprüche zwischen den einzelnen Schriften Machiavellis. So handeln die "Discorsi" eher vom Aufbau und den Vorteilen einer republikanischen Verfassung, während "Il Principe" sich mit Alleinherrschaft und den damit verbundenen machtpolitischen Überlegungen beschäftigt. Diese Widersprüche lassen sich jedoch auflösen, wenn man alle seine Werke betrachtet; so schreibt sein Biograph Dirk Hoeges: „Das Mißverständnis, dem er von Beginn an ausgesetzt ist, resultiert aus seiner Reduzierung auf den Politiker und auf den Autor des «Principe»; erforderlich aber ist der Blick auf sein Gesamtwerk und die Einsicht in den untrennbaren Zusammenhang aller seiner Teile zum Verständnis jedes einzelnen.“ Machiavelli als politischer Philosoph. Machiavelli widmete sich nach seinem Sturz einer umfassenderen schriftstellerischen Tätigkeit und seiner politischen Rehabilitierung. In dieser Zeit entstanden seine beiden Hauptwerke "Il Principe", welches er unmittelbar nach seinen schweren Folterungen mit „verkrüppelten Händen“ niederschrieb, und die "Discorsi". Gedruckt wurden beide Bücher 1531 und 1532. Il Principe – Der Fürst als Herrscher. Machiavellis Buch "Il Principe" (Der Fürst) steht nur stilistisch in der langen Tradition der Fürstenspiegel, inhaltlich waren diese für ihn „hohles Geschwätz“, geprägt von „Wunschdenken“ (Volker Reinhardt). Er bricht mit der Tradition normativer Fürstenspiegel bereits damit, dass sein Fürst kein Erbfürst ist, sondern sich den Thron im politischen Spiel selbst errungen hat. Nach Volker Reinhardt formuliert Machiavelli in diesem Werk als erster überhaupt die Grundsätze der Staatsräson, dass nämlich ein Herrscher, um die elementaren Notwendigkeiten des Staates zu erfüllen, „die Gesetze der traditionellen Moral verletzen“ müsse, sonst gehe er mit dem Staat zusammen unter. Für einen Herrscher sei es demnach gleichgültig, ob er als gut oder als böse gilt, wichtig sei nur der Erfolg, der voraussetzt, vom Volk nicht gehasst zu werden und folgende drei Gebote zu beachten: „Du sollst dich nicht an den Gütern deiner Untertanen gütlich tun; du sollst dich nicht an ihren Frauen vergreifen; du sollst nicht einfach aus Spaß töten.“ Der Fürst muss die traditionelle Moral vorgeblich wahren können, aber er darf auch – im Interesse der Staatsräson – vor Gewalt und Terror nicht zurückschrecken. Machiavelli untersucht verschiedene erfolgreiche Fürsten der Geschichte. Francesco I. Sforza kommt in seinem Urteil dem Ideal recht nahe, aber nur Cesare Borgia könnte ein perfekter Fürst sein, weil er den Mut hatte, seine Feinde in Senigalla zu ermorden, und weil er seine Macht in den eroberten Gebieten geschickt erhielt. Er beging jedoch einen Fehler, als er, nachdem sein Vater gestorben war, dem neuen Papst vertraute, der ihn entmachtete. Borgia also „wurde gewogen und zu leicht befunden.“ Einen perfekten Fürsten kennt die Geschichte in Machiavellis Augen also nicht, er verspricht jedoch, dass die Anleitung des "Principe" es ermögliche, zum perfekten Fürsten zu werden. Machiavelli widmete das Buch Lorenzo II. de’ Medici. In der Schlusspassage gab Machiavelli Lorenzo die Aufgabe, Italien von den Barbaren zu befreien und zu einen. Deshalb verehrte man Machiavelli im 19. Jahrhundert als Ahnherren der italienischen Nationalbewegung, was laut Volker Reinhardt nicht zutrifft; Machiavelli habe nur „eine gemeinsame Abwehrfront“ gegen Eingriffe von außen bilden wollen. Außerdem betrachtet Volker Reinhardt das Buch als ein Bewerbungsschreiben an Lorenzo. Volker Reinhardt sieht in dem Werk einen „Bruch mit der politischen, philosophischen und theologischen Tradition.“ Die Macht wurde von der traditionellen Moral freigesprochen. Nach Reinhardt löste das Werk zwei „Schockwellen“ aus, die eine dadurch, „dass der Politik die Maske der Wohlanständigkeit heruntergerissen und Herrschaft als Inszenierung der Propaganda entlarvt wurde“, die zweite, indem „diese bestürzenden Fakten beschrieben, analysiert und ohne jeden Aufruhr zur ethischen Besinnung akzeptiert wurden.“ Den ersten bekannten Kommentar zu diesem Werk machte Francesco Vettori in einem Brief vom 18. Januar 1514. "Il Principe" ist Lorenzo II. de’ Medici gewidmet, nachdem er es zuerst Giuliano II. de’ Medici hatte widmen wollen. „Diese Widmungen Machiavellis enthalten ungeachtet des Themas klare und scharfe, mit den Mitteln humanistischer Rhetorik ausgestaltete Kritik an den Medici des Cinquecento“, für die er nur Verachtung übrig hat. Als der wichtigste Berater von Lorenzo II. de’ Medici, Francesco Vettori, diesen auf das Werk hinwies, zeigte Lorenzo II. de’ Medici kein Interesse daran. Die Stadt-Republik Florenz um 1500 In seinem berühmtesten Werk beschreibt nach Hoeges Machiavelli, wie ein Herrscher politische Macht gewinnen und bewahren kann, wobei das politische Ziel die Errichtung einer Republik sein sollte. Das Werk wird oft als Verteidigung des Despotismus und der Tyrannei solcher machtbewussten Herrscher wie Cesare Borgia verstanden, aber Borgia, so postuliert Hoeges, ist „nicht der «principe» Machiavellis“. Borgia ist gefährlich, „aber Gefährlichkeit macht keinen principe.“ Borgia ist unglaubwürdig, aber nach Machiavelli muss ein Fürst glaubwürdig sein. Hoeges äußert sich dazu folgendermaßen: „Was er [Borgia] verkörpert, ist die furcht- und schreckenserregende Darstellung von Macht, die sich im Ausnutzen des Augenblicks, im virtuosen Vabanque, d. h. riskantes Unterfangen, zeigt und bis zum nächsten Mord reicht.“ In Machiavellis „Herrschernovelle «Castruccio Castracani» [entwirft …] er seinen Modellfürsten, den «principe nuovo»“ (Neuer Fürst), aber „«Il Principe» kennt keinen realen Akteur, der den Fürsten verkörpert. Als Typus ist er [der neue Fürst] ein humanistisches Konstrukt, zusammengesetzt aus Mythos, Geschichte und Gegenwart, und als Projektion derealisiert.“ Das heißt, Machiavelli konstruiert einen Idealfürsten, der aber von keiner lebenden Person je erreicht werden kann. Moses kommt, so sieht es Hoeges, „mehr als jeder andere“ dem Idealfürsten nahe. Als zweites bricht Machiavelli mit der Tradition, dass ein Fürst generös sein muss, indem er Freunde beschenkt und auch selber im Luxus zu leben hat. Ein Fürst, der dies befolgt, schmeichelt aber nur ein paar Mitläufern und ruiniert mit dem Luxusleben sein Fürstentum. Nach Viroli lehrt Machiavelli aber nicht, dass der Zweck die Mittel heilige, sondern dass der Fürst nicht fürchten muss, brutal und geizig zu sein, und er das Notwendige machen muss, um das Ziel zu erreichen. Die Discorsi – Das Wesen einer starken Republik. In dem Werk "Discorsi", welches vermutlich parallel zum Fürstenbuch entstand, entwickelt Machiavelli das vor dem Hintergrund des "Il Principe" erstaunliche Ideal einer Republik ohne Fürsten. So soll „Macht und persönlicher Status stets getrennt“ und der „Staatsschatz stets wohlgefüllt, der Bürger hingegen arm“ sein. Die Discorsi sind ein Kommentar zum Geschichtswerk des Titus Livius, der die Geschichte der römischen Republik beschreibt. Machiavelli zieht die römische Geschichte heran, um aus ihr seine Überzeugungen zu gewinnen und zu festigen: „Über alles, auch über sich selbst, konnte Machiavelli spotten, doch nicht über die Größe Roms. Dieser Glaube verlieh ihm Halt, Orientierung, Gewissheit und ein Quäntchen Optimismus in den Jahren der politischen Kaltstellung und Isolation.“ Machiavelli war nach Maurizio Viroli erstaunt, dass die Juristen zu seiner Zeit sich an das römische Recht anlehnten, die Künstler die klassische Kunst emittierten und die Ärzte von der Antike lernten, aber „kein Herrscher und kein Freistaat, kein Feldherr und kein Bürger auf die Beispiele früherer Zeiten zurück[griff]“. Für Maurizio Viroli wurden die "Discorsi" ein intellektueller und politischer Wegweiser für alle, die eine freie Republik begrüßen. Während Machiavellis Lebenszeit erlangten die "Discorsi" kaum eine Bedeutung. Beide Werke waren vorerst nur zur Lektüre durch ausgewählte Leser bestimmt. Francesco Guicciardini konnte die "Discorsi" nach Machiavellis Tod lesen und kritisierte die Romgläubigkeit besonders, da „Livius’ Erzählung von der römischen Frühzeit aus patriotischen Sagen bestand [, aber Machiavelli] las diese erbaulichen Legenden als lauter Wahrheit“. Außerdem könne man die Zeit der römischen Republik nicht mehr mit dem Florenz des 16. Jahrhunderts vergleichen. Die Kunst des Krieges. Im August 1521 wurde "Über die Kunst des Krieges" ("Dell’Arte della Guerra") gedruckt. Geschrieben hat Machiavelli dieses Werk auch für seine Freunde der Orti Oricellari Gruppe. Mit ihnen verkehrte Machiavelli in dieser für ihn unbefriedigenden Zeit, was ihm half seinem Leben einen Sinn zu verleihen. Gewidmet ist es Lorenzo di Filippo Strozzi, der ihn während der dunklen Jahre gelegentlich beschenkte und ihn bei Kardinal Giulio de’ Medici eingeführt hatte. Maurizio Viroli behauptet, dass für Machiavelli die Praxis der Kriegskunst der Abschluss und die Grundlage des zivilen Lebens ist. Machiavelli ist sich bewusst, dass Krieg verheerende Folgen hat, aber eine Republik oder ein Fürstentum muss sich verteidigen können. Ein Herrscher muss den Frieden lieben und wissen, wann er Krieg führen muss. Das Werk wurde von bedeutenden Zeitgenossen wie Kardinal Giovanni Salviati angepriesen. Im 16. Jahrhundert wurde "Über die Kunst des Krieges" sieben Mal nachgedruckt und in verschiedene Sprachen übersetzt. Geschichte von Florenz. Im Auftrag des Kardinals Giulio de Medici verfasste Machiavelli von 1521 bis 1525 seine Abhandlung über die Geschichte von Florenz, die den Zeitraum von der Gründung der Stadt bis zum Tode Lorenzos des Prächtigen abdeckt. Diese Geschichte der Florentiner Innenpolitik und Parteikämpfe ist keine zuverlässige Historiographie, sondern folgt mit historischen Lehrstücken in rhetorischer Sprache (Historia magistra vitae) humanistischen Traditionen und exemplifiziert – besonders durch den Einbau fiktiver Reflexionen und Reden der beschriebenen Akteure – Machiavellis politische Ideen. Machiavellis Geschichts- und Menschenbild. Nach Alessandro Pinzani wird die „traditionelle aristotelische Definition des Menschen als "zôon politikon"“ von Machiavelli verworfen. „Der Mensch ist in Machiavellis Augen ein Wesen, für das kein Ideal von individueller Vervollkommnung - wie bei Aristoteles - mehr gilt. Somit wird auch die teleologische Geschichtsauffassung des politischen Aristotelismus verworfen, wonach das Telos der Geschichte die Vervollkommnung der menschlichen Natur - sprich: der politischen Natur des Menschen - sei. Die politische Gesellschaft entsteht nach Machiavelli nicht aufgrund irgendeines Plans der Natur, sondern ‚durch Zufall‘ ("Discorsi" I 2,11)“. Nach einer „wohlgeordneten Republik“ entsteht durch „Sittenverfall und politischer Dekadenz“ der „Zustand der Anarchie“. Die Anarchie wird durch eine „Neuordnung durch einen Fürsten bzw. Gesetzgeber“ wieder zu einer „wohlgeordneten Republik“ werden usw. August Buck behauptet, dass Machiavelli den Verfassungskreislauf zwar übernommen, aber verändert hat: „Während Polybios' an die ständige Wiederholung des Zyklus glaubt, bezweifelt Machiavelli, daß ein und derselbe Staat den Zyklus häufiger durchläuft, da dieser meist vorher durch äußere Einwirkungen beendet wird.“ Gennaro Sasso bemerkt dazu, dass „die Mischregierung tatsächlich den endgültigen Abschluß des Zyklus der wiederkehrenden Staatsverfassungen“ bei Machiavelli ist. Nach Dirk Hoeges ist die Geschichtsschreibung Machiavellis hervorgegangen aus einer Kritik an der bisherigen Geschichtsschreibung, die die inneren Angelegenheiten der Stadt Florenz verdrängt und die äußeren hervorgehoben habe; diese sah er als eine parteiische Geschichtsschreibung an, in der die Konflikte innerhalb der Stadt ausgeblendet würden. „Die absichtliche Eliminierung der inneren Geschichte durch Leonardo Bruni und Poggio Bracciolini, Sympathisanten der Medici, bewirkt eine Änderung seiner eigenen Konzeption, die Geschichte der Stadt zu schreiben.“ Hoeges zufolge entdeckte Machiavelli dadurch das „elementare Movens ihrer Geschichte […], das in Destruktion und Zwietracht, in Disharmonie und konkurrierenden zerstörerischen Gegensätzen lag.“ Das Fehlen dieser Elemente habe verhindert, dass Florenz so groß wurde wie Rom oder Athen. Peter Schröder zufolge ähneln die Gedankengänge Machiavellis dem Konzept des Soziologen Max Weber in seinem Vortrag "Politik als Beruf", in dem dieser dem Verantwortungsethiker mehr politischen Sachverstand einräumt, weil er mit der Schlechtigkeit der Welt rechne, als einem Anhänger der Gesinnungsethik. Schröder postuliert: „Der Unterschied zwischen Machiavelli und Weber liegt allein darin, dass erster diese Tatsache ungeschminkt ausspricht, während Weber sie in ein gefälliges, sozusagen zivilisiertes Vokabular kleidet.“ Virtù, Fortuna, Ambizione, Necessità und Occasione. „Virtù (Tugend/Tüchtigkeit) ist der Kernbegriff in Machiavellis Theorie und politischer Lehre.“ Unter dem Begriff "virtù" versteht Machiavelli die politische Energie bzw. den Tatendrang, etwas zu tun. „Seine an der politischen Realität orientierten Ratschläge sind nicht auf ein wünschbares (Tugend)-Ideal ausgerichtet, sondern auf ihre Tauglichkeit für die Praxis.“ Sowohl einzelne Menschen als auch ganze Völker können Träger dieser Kraft sein. Diese "virtù" ist nie gleich verteilt. Wo sie allerdings war, führte sie zu großen Reichen. So hatte das Römische Reich eine so große Macht erreicht, weil seine Anführer und sein Volk von viel "virtù" beseelt waren. Folglich kann man diese metaphysische Kraft nicht erzwingen, aber man kann günstige Voraussetzungen für sie schaffen, z. B. in der Struktur der Verfassung. Die Bürger müssen zur virtù erzogen werden. Gegenspieler der "virtù" ist die "fortuna" in Anlehnung an die Glücks- und Schicksalsgöttin der Römischen Mythologie. Sie steht für das Schicksal, den Zufall, aber auch für die Gelegenheit. Sie ist der unberechenbare Faktor in der politischen Rechnung. „Diese Begrifflichkeit erlaubt es Machiavelli, mit christlichen Vorstellungen zu brechen.“ Machiavelli sieht den Herrscher immer in einem Kampf gegen "fortuna". Allerdings macht diese nur etwa die Hälfte des Erfolges aus; die andere Hälfte ist bestimmt durch Willenskraft ("virtù") und praktische Vorbereitung. Für letzteres stellt ein großer Teil von Machiavellis Werk einen praktischen Ratgeber für Soziales Handeln dar. Weitere wichtige Begriffe sind laut Schröder ambizione (Ehrgeiz), necessità (Notwendigkeit) und occasione (Gelegenheit). Ambizione stellt für Machiavelli die entscheidende Triebfeder menschlichen Handelns dar. „Dieser Begriff ist […] bei Machiavelli weitgehend negativ konnotiert, da der Ehrgeiz häufig das Allgemeinwohl den privaten, egoistischen Interessen unterordnet.“ Necessità „wird von Machiavelli als Ausdruck der politischen und staatlichen Ausnahmesituation eingeführt.“ Wenn ein politisches Gemeinwesen durch innere oder äußere Bedrohungen gefährdet ist, bilden moralische Bedenken eine untergeordnete Rolle; man wird gezwungen, amoralisch zu handeln. Zum Zwecke der Selbstbehauptung sind dann alle Mittel erlaubt. Occasione „beschreibt den historischen Augenblick, den ein besonderer, tugendhafter Mann ("uomo virtuoso") oder auch die Führungsschicht eines Staates zu nutzen verstehen muss, um sich als Gesetzgeber oder Feldherr auszuzeichnen.“ Fortuna kann, schreibt Machiavelli, nicht nur negativ wirken, sondern eine günstige Gelegenheit schaffen, in der ein guter Herrscher Gutes bewirken kann zum Wohle der Allgemeinheit, aber in der ein schlechter Herrscher dies auch ausnützen wird. Satirische Werke. Neben politischen und philosophischen Schriften verfasste Machiavelli drei Komödien. "Andria" ist eine Übersetzung der gleichnamigen Terenz-Komödie. Die "Mandragola" ist eine eigenständige Komödie, die bis heute aufgeführt wird. Sie handelt von einem Jüngling, der sich in die Frau eines einflussreichen Florentiner Arztes verliebt und diese mit Raffinesse und Intrige erobert. Diese Komödie wurde vielfach als politische Allegorie gelesen. Ihr Entstehungsdatum (vermutlich 1518) ist bis heute nicht eindeutig geklärt. Ihr folgt die 1525 uraufgeführte Komödie "Clizia", eine Auftragsarbeit, die das Niveau der "Mandragola" nicht ganz erreicht. "Clizia" ist stofflich an die "Casina" von Plautus angelehnt, aber keine direkte Übersetzung mehr. Handlungsort und -zeit wurden vom antiken Griechenland ins zeitgenössische Florenz verlegt. Gedichte. Machiavellis dramatisches Schaffen umfasste sechs Werke, von denen nur die drei oben erwähnten erhalten sind. Während des Rinascimento und der Besinnung auf die alten Meister der Antike begannen um 1500 verstärkt Übersetzungstätigkeiten, die eng mit dem Prinzip der „imitatio“ verbunden waren. Neben der Dramengattung Tragödie erhielt die im Mittelalter gering geschätzte Komödie unter Berufung auf Terenz und Plautus einen höheren Stellenwert. Durch das die "imitatio" ergänzende Prinzip der "aemulatio" entstehen aus Machiavellis Feder das verloren gegangene Stück "Le Maschere" nach Aristophanes, von dessen Existenz wir durch Machiavellis Neffen Giuliano de’ Ricci wissen. Machiavelli schrieb auch Gedichte. Am 8. November 1504 veröffentlichte er eine gereimte»Zehnjahresgeschichte«"Decentale". „Machiavelli hielt sich, wie spätere Zeugnisse belegen, für einen großen Dichter in der Nachfolge Dantes und auf gleicher Augenhöhe mit einem Ludovico Ariosto.“ In diesem Gedicht verspotte er unter anderem Cesare Borgia (Herzog von Valence). Dies Gedicht von Machiavelli benennt auch sein politisches Ziel. „Nach 548 Verszeilen folgte [..] die Moral der Geschichte: Florenz braucht ein neues Militärsystem, wenn es als Staat unter Staaten, das heißt: als Wolf unter Wölfen bestehen will.“ Rezeption. Gedenktafel am Ort seines Geburtshauses (Via Guiccardini, Florenz) Otfried Höffe behauptet, dass eine einfache Klassifikation der Beiträge zu Machiavelli nicht möglich ist. „Vieldeutig und unerschöpflich zu sein, ist nun mal die Signatur eines Klassikers.“ Nach August Buck hat sich die Rezeption von Machiavelli wie „bei keinem anderen Autor... in Form einer durch Ideologien belasteten Polemik vollzogen, die auch nach dem Einsetzen der wissenschaftlichen Beschäftigung mit seinem Werk bis in die Gegenwart fortdauert.“ Laut August Buck begann dies mit einem Traktat von Agostino Nifo im Jahr 1523. „Mit dieser moralische Ächtung Machiavellis beginnt noch zu dessen Lebzeiten die Polemik des Antimachiavellismus.“ Eine verunglimpfende und hochemotionale Polemik sieht Höffe bei Reginald Pole, Innocent Gentillet und Leo Strauss. Eine konstruktive Kritik erkennt Höffe bei Jean Bodin und eine politische Rehabilitierung bei Baruch de Spinoza, Arthur Schopenhauer, James Harrington und Andrew Fletcher sowie eine moralische Rehabilitierung bei Johann Gottfried Herder, Johann Gottlieb Fichte und Georg Wilhelm Friedrich Hegel. Trotzdem wird nach Höffe „Machiavellis Denken, insbesondere das des "Principe"... im Verlauf des 16. Jahrhunderts zum europäischen Kulturgut“. Dabei stand Machiavellis Rezeption „im Zeichen des Streites zwischen den Konfessionen, die sich gegenseitig machiavellistische Gesinnung beschuldigten.“ Machiavellis Begriff der Staatsräson stand im 17. Jahrhundert „im Mittelpunkt der politischen Diskussion“. In Tacitus glaubte „man machiavellistische Grundsätze entdecken zu können“. In der Diskussion griff man auch auf den Namen Tacitus zurück, da man zum einen den verfemten Namen Machiavelli vermied und zum anderen konnte man mit dem römischen Namen „die Auseinandersetzung mit der christlichen Lehre umgehen.“ Man findet heute noch Ratgeberliteratur wie zum Beispiel "Machiavelli für Frauen" oder "Machiavelli für Manager", aber sonst hat Machiavelli nach Höffe seinen Zauber verloren, denn „einige seiner Thesen erscheinen mittlerweile als selbstverständlich anerkannt.“ Wirksam ist Machiavelli nur noch, wenn man das Verhalten seines politischen Gegners als machiavellistisch benennt, es also als skrupellos bezeichnet. In Deutschland beschäftigen sich Ideenhistoriker, Politikwissenschaftler und Soziologen wie Hans Freyer und René König noch mit Machiavelli. Niklas Luhmann widmet Machiavelli in "Die Moral der Gesellschaft" einen längeren Abschnitt. Aber nach Höffe ist Machiavelli „für Philosophen dagegen kein Thema mehr.“ Nach Peter Schröder gibt es zwei Linien der Rezeption. Auf Betreiben der Jesuiten setzte Papst Paul IV. 1559 Machiavellis Werke auf den Index Librorum Prohibitorum. Damit begann die frühe, pure Ablehnung auf dem europäischen Kontinent in der Gegenreformation. Den 1576 erschienenen "Contre-Machiavel" schrieb Innocent Gentillet, ein Hugenotte, nach der Bartholomäusnacht. "„Der Name Machiavelli wurde somit in den Glaubensstreit gezogen und seine Lehre von Katholiken und Protestanten gleichermaßen als moralisch niederträchtig desavouiert. Machiavellis schlechter Ruf wurde also bereits sehr früh und aufgrund einer relativ durchsichtigen Interessenlage begründet. Diesen Hintergrund muss man zumindest im Auge haben, wenn man die in Deutschland besonders folgenreiche Auseinandersetzung durch Friedrich von Preußen sinnvoll einordnen will.“" Die zweite Linie der Überlieferung liegt in England und Schottland. James Harrington bezieht sich in seinem Hauptwerk "The Commonwealth of Oceana" ausdrücklich auf Machiavelli. Der Schotte Andrew Fletcher hat „sich den Republikanismus Machiavellis wie kaum ein anderer Denker in einer kleinen, aber bedeutsamen Schrift ("Discourse of Government with relation to Militia´s", 1698) zu eigen gemacht.“ Schröder erwähnt auch Montesquieus Werk Vom Geist der Gesetze, welches „ebenfalls unverkennbare Anlehnungen an Machiavellis Konzeption des Republikanismus aufweist.“ Nach Volker Reinhardt gibt es sieben Hauptströmungen der Machiavelli-Rezeption. Erstens die „christliche Empörung über den teuflischen Verderber der Politik“ zum Beispiel von Kardinal Reginald Pole. Zweitens „politische Denker wie […] Giovanni Botero [der] die schwierige Synthese aus Staatsräson und Christentum zu bewerkstelligen suchte.“ Kardinal Richelieu setzte dies dann in der Praxis um. Drittens die Monarchomachen, die „Caterina de’ Medici als teuflische Schülerin Machiavellis anprangerten.“ Viertens nahm Thomas Hobbes Machiavellis Ideen zum Krieg „zum Ausgangspunkt seines Hauptwerkes Leviathan“. Fünftens der "Anti-Machiavel" von Friedrich II. begründete den Antimachiavellismus. Sechstens beeinflusste es Jean-Jacques Rousseau, der in Machiavelli einen verkappten Revolutionär sah, und vorführte „wie man sich der Tyrannen entledigen konnte.“ Außerdem zeigt Machiavelli nach Rousseau auf, was eine gute Republik braucht: „eine Bürgerreligion, die Patriotismus erzeugte, und einen Gemeinwillen, der den Staat stärkte und festigte.“ Siebtens wurde Carl von Clausewitz von Machiavellis Ideen zum Krieg beeinflusst. Weiter merkt Reinhardt an, dass Machiavelli sich als „miserabler Prophet“ erwies, da die Florentiner den gegenteiligen Ideen seines Briefpartners Francesco Vettori folgten. Florenz erlebte bis in das 18. Jahrhundert eine Blütezeit, war aber keine Republik im Sinne Machiavellis und den für Machiavelli vorbildlichen Reichsstädten gehörte die Zukunft in Deutschland nicht. Auch „der moderne Staat entstand nicht aus den wenigen übrig gebliebenen Republiken wie Venedig und den eidgenössischen Kantonen, sondern aus der zentralisierten Monarchie.“ Die Auseinandersetzungen um Machiavelli begleiten die gesamte moderne Politische Theorie und Ideengeschichte bis hin zur Faschismustheorie und dem Begriff des Totalitarismus. Schon früh bildete sich die gegen die Machiavellianischen Anschauungen gerichtete Strömung des Antimachiavellismus, der zur Hauptsache Kleriker, Adelige, humanistische Philosophen, Freigeister, Aufklärer und Ethiker anhingen. Sie brandmarkten Machiavelli als Menschenfeind. Ihre berühmteste Schrift ist wohl der "Antimachiavell" Friedrichs des Großen, ein scharfer Angriff auf die im "Fürsten" vorgeschlagenen Wege, wenngleich Friedrich selbst diese Mittel einzusetzen verstand. Die Gründerväter der Vereinigten Staaten wurden nach Bradley C. Thompson nicht direkt von Machiavelli beeinflusst, aber sie waren nach Thompson Machiavellianer, ohne es zu wissen. Eine Ausnahme bildete John Adams, der Machiavelli las und seine Ideen verarbeitete. Adams behaupte selber ein „Student Machiavelli“ gewesen zu sein. Die politische Philosophin Hannah Arendt greift immer wieder auf Machiavellis Gedankengut zurück. Sie schreibt, „daß Machiavelli als erster […] die Heraufkunft oder die Wiederkehr eines rein weltlichen Bereichs antizipierte, dessen Prinzipien und Verhaltensregeln sich von den Geboten der Kirche emanzipierten und dessen moralische Wertsetzungen von keiner Transzendenz mehr gegründet und begründet sein würden. Dies ist der eigentliche Sinn seiner vielfach missverstandenen Lehre, dass es in der Politik darum gehe, zu lernen,»nicht gut zu sein«, nämlich nicht im Sinne christlicher Moralvorstellungen zu handeln.“ Nach Arendt vertrat Machiavelli eine klare Trennung zwischen Kirche und Staat. Ihr Fazit in ihrem Werk Über die Revolution lautet: "„Erscheine, wie du sein möchtest, und meinte damit: Wie du in Wahrheit bist, hat für diese Welt und ihre Politik keine Bedeutung; sie besteht ohnehin nur aus Erscheinung, und das wahre Sein spielt in ihr keine Rolle …“" In seiner Vorlesung "Die „Gouvernementalität“" bezieht sich Michel Foucault auf Machiavelli (vor allem auf "Il Principe") und auf Anti-Machiavelli-Literatur (z. B. Thomas Elyot oder Guillaume de La Perrière), um das Konzept der Gouvernementalität zu entwickeln. Nobelpreis. Alfred Nobel (1833–1896), Stifter des Nobelpreises a>), in dem die feierliche Überreichung aller Preise mit Ausnahme des Friedenspreises stattfindet. a>, in dem der Friedensnobelpreis überreicht wird. Der Nobelpreis ist eine seit 1901 jährlich vergebene Auszeichnung, die der schwedische Erfinder und Industrielle Alfred Nobel (1833–1896) gestiftet hat. In seinem Testament legte er fest, dass mit seinem Vermögen eine Stiftung gegründet werden sollte, deren Zinsen „als Preis denen zugeteilt werden, die im verflossenen Jahr der Menschheit den größten Nutzen geleistet haben“. Das Geld sollte zu fünf gleichen Teilen auf die Gebiete Physik, Chemie, Physiologie oder Medizin, Literatur und für Friedensbemühungen verteilt werden. Die Nobelstiftung wurde am 29. Juni 1900, vier Jahre nach dem Tod Alfred Nobels, gegründet, die ersten Preise 1901 verliehen. Der Nobelpreis gilt heute als die höchste Auszeichnung in den berücksichtigten Disziplinen und wird jedes Jahr an Nobels Todestag, dem 10. Dezember, verliehen. Der Friedensnobelpreis wird in Oslo übergeben, alle anderen Preise in Stockholm. Seit 1968 gibt es außerdem den Alfred-Nobel-Gedächtnispreis für Wirtschaftswissenschaften, den die Schwedische Reichsbank zu ihrem 300-jährigen Bestandsjubiläum gestiftet hat. Er wird gemeinsam mit den Nobelpreisen vergeben, ist gleich dotiert und unterliegt ähnlichen Vergabekriterien. Dadurch wird er oft als "Wirtschaftsnobelpreis" bezeichnet und als ein Nobelpreis wie die anderen wahrgenommen. Alfred Nobels Testament. Nobels Testament vom 27. November 1895 (Vorderseite) Alfred Nobel schrieb mehrere Testamente, das letzte am 27. November 1895, das er im Schwedisch-Norwegischen Club in Paris unterzeichnete. Darin lässt er zahlreichen Verwandten und anderen Menschen seines Umfeldes Zuwendungen aus seinem 31 Millionen schwedischen Kronen umfassenden Vermögen zukommen, beispielsweise als lebenslange Rente. Für den verbleibenden Rest seines Vermögens, ungefähr 94 % des gesamten Wertes, verfügte er die Einrichtung eines Preises für die Kategorien Physik, Chemie, Physiologie oder Medizin und Literatur. Außerdem sollte alljährlich jemand ausgezeichnet werden, der sich besonders für die Verbrüderung der Völker, die Abschaffung oder Reduzierung von Armeen sowie den Frieden eingesetzt hat. Motivation und Inspiration zur Stiftung des Preises. Das Testament selbst erklärt nicht, wieso Alfred Nobel die Einrichtung eines solchen Preises wünschte. Auch sonst sind wenige unmittelbaren Äußerungen von ihm zu dem Preis überliefert. Laut den Zeugen bei der Testamentsunterzeichnung soll Nobel geäußert haben, dass er Wissenschaftler belohnen wollte, weil sie oft wirtschaftlichen Gegenwind hätten. Sein Entschluss, sein Vermögen zu Stiftungszwecken zu verwenden, war bei ihm offenbar über einen längeren Zeitraum gereift. Oft wird demgegenüber behauptet, Alfred Nobel habe den Preis aufgrund eines schlechten Gewissens gestiftet, weil seine Erfindungen für den Krieg genutzt wurden und er Eigner von Rüstungsunternehmen war. Dagegen spricht allerdings, dass mit Ausnahme des Ballistit keine von Nobels Entwicklungen zu seinen Lebzeiten im Krieg verwendet wurde. In diesem Zusammenhang wird oft die Geschichte zitiert, dass eine französische Zeitung im Jahr 1888, also lange vor Alfred Nobels Tod, einen Nachruf auf ihn mit dem Titel „Le marchand de la mort est mort“ („Der Kaufmann des Todes ist tot“) veröffentlichte, der Nobel als einen Mann beschrieb, „der durch das Finden von Methoden, mehr Menschen schneller als jemals zuvor zu töten, reich wurde.“ Tatsächlich war aber Alfred Nobels Bruder Ludvig Nobel gestorben, und die Zeitung hatte ihn verwechselt. Alfred Nobel soll über die Charakterisierung seiner Person entsetzt gewesen sein. Inwieweit die Stiftung des Preises hierdurch befördert wurde, ist nicht genau bekannt, da es auch andere Äußerungen von ihm gibt. Diese Position vertrat er noch mehrfach. Insofern waren Bertha von Suttners Versuche, ihn für die Friedensarbeit zu gewinnen, erfolgreich, weil er Mitglied im österreichischen Friedensverband wurde und Geld für Friedenszwecke spendete. Er stellte sogar für einige Jahre den türkischen Diplomaten Aristarchi Bey als Assistenten ein, um sich von ihm zu Friedensfragen informieren zu lassen. Auch aus dieser Sicht ist es nicht überraschend, dass er einen Teil des Preises Friedensbemühungen zukommen lassen wollte. Auszug aus dem Testament. Testament Alfred Nobels vom 27. November 1895 (erste Seite) Testament Alfred Nobels vom 27. November 1895 (letzte Seite) Dies ist die einzige schriftliche Äußerung von Nobel selbst über den Preis. Weder über seine Motivation, den Preis zu stiften, noch über die vielen organisatorischen Details, die zur Preisvergabe nötig sind, gibt es weitere Ausführungen. Daher blieb die Ausgestaltung des Preises zu großen Teilen den Nachlassverwaltern, heute in Form der Nobelstiftung, überlassen. Reaktionen. Oskar II. von Schweden war erst skeptisch gegenüber dem Preis, nahm aber ab 1902 die Übergabe vor. Zu Beginn war der Entschluss Alfred Nobels keineswegs unumstritten. Seine Verwandtschaft stellte das Testament in Frage, und auch die Öffentlichkeit kritisierte die Idee des Preises. Auch von Seiten des damaligen Königs Oskar II. kam Kritik. Zum Einen war er der Ansicht, dass man eine solche große Geldmenge nicht an Ausländer abgeben sollte, so dass ihm die ausdrückliche Vorschrift, Skandinavier nicht zu bevorzugen, nicht gefiel. Zum Anderen war die Vergabe des Friedenspreises durch eine norwegische Institution allgemein ein sensibles Thema, da sich die spätere Auflösung der schwedisch-norwegischen Union schon abzeichnete. Das Testament wurde am 5. Juni 1898 von den Erben Nobels anerkannt, wodurch die Gründung der Nobelstiftung im Jahr 1900 möglich wurde. Wahl der Kategorien. Es ist nicht bekannt, warum Nobel sich in seinem Testament auf die genannten fünf Kategorien festgelegt hat. So gibt es keinen Nobelpreis für Mathematik (siehe unten den Abschnitt Vergleichbare Preise). Über die Gründe kann nur spekuliert werden. Als mögliche Ursache wurde gesehen, dass der Praktiker Nobel diese „Hilfswissenschaft“ nie besonders leiden konnte; sie gehörte für ihn vermutlich nicht zu den Kategorien, die die Menschheit voranbringen. Eine Anekdote besagt, dass Alfred Nobel einst von seiner Verehrten zugunsten eines Mathematikprofessors – es ist teilweise von Magnus Gösta Mittag-Leffler die Rede – zurückgewiesen wurde und Nobel in Verbitterung einen geplanten Preis für Mathematik nachträglich aus dem Testament strich. Historisch belegt ist das allerdings nicht. Ähnlich ist es mit der Behauptung, dass Alfred Nobel angeblich von seiner Frau mit einem Mathematiker betrogen wurde. Dies kann jedoch schon alleine deswegen nicht sein, da er nie verheiratet war. Ein späteres Angebot des Nobelkomitees auf Einrichtung eines Nobelpreises für Mathematik ist von führenden Mathematikern abgelehnt worden, wohl um die Konkurrenz unter den Wissenschaftlern nicht zusätzlich zu steigern. Auch den Nobelpreis für Wirtschaftswissenschaften gibt es eigentlich nicht, auch wenn der Alfred-Nobel-Gedächtnispreis für Wirtschaftswissenschaften meist als solcher bezeichnet wird. Nobel war als Naturwissenschaftler kein Freund der „weichen Geisteswissenschaften“. Stattdessen konzentrierte er sich mit den Preisen für Medizin, Chemie und Physik auf Fachgebiete, deren Leistungen objektivierbar sind. Seine Abneigung gegen die Wirtschaftswissenschaften zeigt sich in einem Brief, den vier Urenkel seines Bruders Ludvig 2001 veröffentlichten. Darin schreibt Alfred Nobel: „Ich habe keine Wirtschafts-Ausbildung und hasse sie von Herzen.“ Entsprechend drängten Nobels Nachfahren die Schwedische Akademie der Wissenschaften, den erst 1968 nachträglich von der schwedischen Nationalbank gestifteten „Preis für Wirtschaftswissenschaften der Schwedischen Reichsbank im Gedenken an Alfred Nobel“ separat von den Nobelpreisen zu behandeln, bis heute ohne Erfolg. Sein Engagement für Literatur und Frieden, beides Gebiete abseits der exakten Wissenschaften, geht vermutlich auf eine Anregung seiner langjährigen Brieffreundin, Friedensaktivistin und Pazifistin Bertha von Suttner zurück. Zweiter Vergabeort Oslo. Es ist nicht bekannt, welche Gründe den Schweden Alfred Nobel dazu bewogen haben, einem Komitee des norwegischen Parlaments (Storting) die Aufgabe der Auswahl des Friedensnobelpreisträgers zuzuweisen. Norwegen und Schweden waren zur Zeit der Stiftung des Preises noch in einer Personalunion unter schwedischer Führung verbunden, und die Außenpolitik lag beim schwedischen Reichstag. 1905 löste sich die Union auf, und Norwegen wurde ein selbständiges Königreich. Nobelstiftung. Als zentrale Institution für den Nobelpreis wurde von den Vollstreckern des Testaments, Rudolf Lilljequist und Ragnar Sohlman (Nobels letzter Assistent), die Nobelstiftung eingerichtet. Die Gründung der Stiftung war nicht ohne Schwierigkeiten. So war das Testament in einigen Punkten unklar formuliert, was rechtliche Probleme mit sich brachte. Die Vorbereitungen für die Errichtung der Stiftung dauerten insgesamt fünf Jahre. Vor allem Sohlman oblag die Aufgabe, Firmenanteile und andere Besitztümer Nobels zu verkaufen. Nobel hatte zum Zeitpunkt seines Todes 355 Patente registriert und 100 Fabriken in 20 Ländern aufgebaut. Das Vermögen der Stiftung betrug schließlich 31 Millionen schwedische Kronen und wuchs bis 2006 auf 3,6 Milliarden Kronen an. Die Nobelstiftung wird von sechs Direktoren geleitet und übernimmt insbesondere die Verwaltung des Nobelpreises und die Ausrichtung der Festivitäten. Weiterhin veranstaltet sie Symposien zu wissenschaftlichen Themen. Die Statuten wurden bei der Errichtung der Stiftung am 29. Juni 1900 durch ein Dekret des Königs festgelegt. Sie dürfen zwar verändert werden, aber nur auf Vorschlag eines der Preisvergabekomitees oder eines Stiftungsvorstandsmitglieds. Bei der Abstimmung hat die Königliche Wissenschaftsakademie zwei Stimmen, die anderen Institutionen je eine Stimme. Da das Testament Nobels nur wenige Details der Vergabeprozedur festlegt, sind die Statuten der Stiftung in vieler Hinsicht maßgeblich. Hier sind unter anderem die Geheimhaltungspflicht für 50 Jahre, die Beschränkung auf drei Preisträger je Kategorie sowie das Verbot der Vergabe an Verstorbene enthalten. Stiftungsvermögen und Kosten. Das Kapital der Nobelstiftung ist heute zu 50 Prozent in Aktien, 20 Prozent verzinste Papiere und 30 Prozent in andere Investitionsformen (z. B. Immobilien oder Hedgefonds) angelegt. Der Anteil jeder dieser drei Teile kann um 10 Prozent variiert werden. Anfang 2008 waren 64 Prozent des Vermögens hauptsächlich in amerikanische und europäische Aktien investiert. 20 Prozent lagen in festverzinslichen Papieren, zwölf Prozent gingen in Immobilien und Hedgefonds. Seit der Finanzkrise ab 2007 ist das Stiftungsvermögen beträchtlich gesunken. Waren es 2007 noch 3,6 Milliarden schwedische Kronen gewesen (ca. 380 Millionen Euro), sank es 2008 auf rund 3,4 Milliarden Kronen (zu der Zeit etwa 315 Millionen Euro). Ende 2011 betrug das Vermögen der Stiftung knapp 3 Milliarden Kronen (knapp 350 Millionen Euro), was einen Verlust von 178 Millionen Kronen gegenüber dem Vorjahr bedeutete. Wegen des Kapitalrückgangs wurde 2012 auch erstmals seit 1949 das Preisgeld gesenkt (siehe auch dazu Abschnitt zum Preisgeld). 2011 betrugen die Kosten ca. 120 Millionen Kronen. 50 Millionen Kronen waren davon das Preisgeld. Die weiteren Kosten für die Preise und die Entschädigungen für die an der Vergabe beteiligten Institutionen und Personen betrug 27,4 Millionen Kronen. Die Veranstaltungen während der Nobelwoche in Stockholm und Oslo kosteten 20,2 Millionen Kronen. Die Verwaltung, Nobelsymposien und ähnliches kosteten rund 22,4 Millionen Kronen. Die Kosten für den Wirtschaftspreis werden von der Reichsbank getragen und betrugen 16,5 Millionen Kronen. Les Prix Nobel. Seit 1901 wird von der Nobelstiftung die Jahrbuchserie „Les Prix Nobel“ herausgegeben, in der die Berichte von den Preisverleihungszeremonien, Biographien der Preisträger und deren Nobelvorlesungen publiziert werden. Es erscheint jedes Jahr im Oktober für das jeweils vorangegangene Jahr. Bis 1988 waren die Texte in der Sprache, in der die jeweilige Nobelvorlesung usw. vorgetragen worden waren. Seither sind die Texte vorwiegend auf Englisch. Preisumfang. Alle Preisträger erhalten eine Urkunde, eine Goldmedaille und einen Geldbetrag. Preisgeld. Seit 2012 beträgt das Preisgeld 8 Millionen schwedische Kronen (ca. Euro) je Kategorie. Von 2001 bis 2011 betrug das Preisgeld 10 Millionen schwedische Kronen (ca. Euro) je Kategorie. Alfred Nobel legte fest, dass sein Vermögen von Treuhändern in „sichere Wertpapiere“ angelegt werden sowie der Zinsertrag zu fünf gleichen Teilen auf die Nobelpreise verteilt werden soll. Die Statuten der Nobelstiftung legen weiterhin fest, dass mindestens 60 Prozent der Erträge als Preis ausgeteilt werden müssen. Werden mehrere Personen ausgezeichnet, wird der Preis nicht notwendigerweise zu gleichen Teilen an die Preisträger vergeben. Bei zwei Preisträgern wird das Preisgeld üblicherweise gleichmäßig geteilt. Bei drei Preisträgern wird der Preis entweder in drei gleichen Teilen ausgeteilt, oder einer der Preisträger erhält die Hälfte des Geldes, während die anderen beiden sich die andere Hälfte teilen. Letzteres wird oft dadurch bedingt, dass maximal zwei Leistungen prämiert werden dürfen. So wurde der Preis in Physik im Jahr 2005 beispielsweise in zwei Teile geteilt, die zwei verschiedene Leistungen prämierten. Einen Teil, und damit die Hälfte des Preisgeldes, erhielt Roy J. Glauber. Der andere Teil wurde an John Lewis Hall und Theodor Hänsch vergeben, die dann je ein Viertel des Preisgeldes erhielten. Aber auch wenn nur eine Leistung ausgezeichnet wird, kann das Geld nach diesem Muster verteilt werden, so z. B. im Jahr 2011, als Saul Perlmutter die Hälfte des Physikpreises erhielt, während Brian P. Schmidt und Adam Riess sich die andere Hälfte teilten. Da der Zinsertrag des Stiftungsvermögens schwankt, gab es in der Vergangenheit auch Rückgänge des Preisgeldes. Zu Beginn wurde das Geld weitgehend in staatliche Obligationen investiert, die mit der Zeit immer weniger Geld abwarfen. Über viele Jahre blieb der absolute Wert des Preises annähernd gleich, so dass durch Inflation der reale Wert des Geldes absank. Mit der Zeit wurden aber auch die vom schwedischen Staat getroffenen Regelungen gelockert. 1946 wurde die Nobelstiftung von der Steuer befreit. 1953 liberalisierte die Nobelstiftung ihre Investitionsregeln, wodurch das Vermögen der Stiftung vergrößert werden konnte. Seither investiert die Stiftung das Geld im Wesentlichen so, wie es am ertragreichsten erscheint. 1969 wurde der Wirtschaftspreis von der Schwedischen Reichsbank gestiftet, der immer genauso hoch dotiert ist wie die Nobelpreise. Die Ausgaben für diesen Preis werden aber komplett von der Schwedischen Reichsbank finanziert. Im Jahr 1901 war jede der einzelnen Preiskategorien mit 150.800 schwedischen Kronen dotiert, was dem heutigen Wert von 7 Millionen Kronen entsprechen würde. Bis 1955 blieb die Preissumme stets unter 200.000 Kronen und erreichte ihren Tiefpunkt im Jahr 1923, wenn man den inflationsbereinigten Kaufwert betrachtet. Der reale Kaufwert des Preises sank zeitweise auf ungefähr 2 Millionen Kronen ab. Der Preis hatte den geringsten absoluten Wert im Jahr 1919, als er nur mit 133.127 Kronen dotiert war. Zwischen 1953 und 2001 wurde die Preisdotierung mehrfach erhöht. 1991 hatte das Preisgeld erstmals wieder einen höheren realen Wert als bei der ersten Preisvergabe im Jahr 1901. Seinen bisherigen Höhepunkt in absoluter Kaufkraft erreichte der Preis 2001. Von 2001 bis 2011 war die Preishöhe konstant, so dass der reale Wert des Preises inflationsbedingt sank. Da die Preisträger zumeist aus dem Ausland kommen, spielt der schwankende Wechselkurs der Krone auch eine Rolle. 2012 wurde die Dotierung des Preises erstmals seit 1949 gesenkt, um das Stiftungskapital langfristig zu sichern. Heute liegt das Vermögen der Nobelstiftung deutlich über Nobels Vermögen. Ende 2011 betrug es 2,97 Milliarden Kronen, während Nobels hinterlassenes Vermögen von 31 Millionen Kronen einem heutigen Kaufwert von ca. 1,65 Milliarden Kronen entspräche. 71 Prozent des Geldes ist im Ausland investiert, 29 Prozent in Schweden. 53 Prozent des Geldes liegen in Aktien. Die Nobelstiftung gibt drei bis vier Prozent der Einnahmen wieder aus. Der Wert des Stiftungsvermögens ist gestiegen und erreichte 1999 den Höhepunkt, als es 3,94 Milliarden Kronen betrug, was inflationsbereinigt 279 % des ursprünglichen Kapitals von 1901 entsprach. Medaillen. Die Statuten der Nobelstiftung schreiben vor, dass die Preisträger „eine Goldmedaille, die das Abbild des Testamentsverfassers und eine angemessene Inschrift tragen soll“, erhalten. Weiterhin haben die Preisträger die Möglichkeit, drei vergoldete Bronzemedaillen zu bestellen. Die Nobelpreismedaillen für Physik, Chemie, Medizin und Literatur wurden von dem schwedischen Bildhauer und Graveur Erik Lindberg entworfen, die Medaille des Friedenspreises von dem norwegischen Bildhauer Gustav Vigeland. Bei letzterer übernahm aber auch Lindberg die Übertragung des Entwurfs auf die Medaillen. Auf der Vorderseite der von Lindberg kreierten Medaillen ist ein Porträt von Alfred Nobel sowie dessen Name, Geburts- und Sterbedatum (in römischen Zahlen) eingraviert. Die Rückseite unterscheidet sich je nach Kategorie, wobei Physik und Chemie dasselbe Motiv haben. Dort ist auch der volle Name des Preisträgers eingraviert. Bei der ersten Preisvergabe 1901 war das Design der Medaillen noch nicht ganz fertig, so dass die Medaillen erst ab 1902 das heutige Design haben. Die Vorderseite der Medaille für den Friedenspreis hat ein davon leicht unterschiedliches Design, aber die Elemente Porträt, Name, Geburts- und Sterbedatum sind ebenso enthalten. Die Medaille für den Wirtschaftspreis unterscheidet sich von allen anderen. Sie wurde von Gunvor Svensson-Lundqvist entworfen und enthält auf der Vorderseite das Symbol der Wissenschaftsakademie, ein Porträt Alfred Nobels sowie die Inschrift "Sveriges Riksbank till Alfred Nobels Minne 1968" („Die Schwedische Reichsbank im Gedenken an Alfred Nobel 1968“). Der Name des Preisträgers wird auf dem Rand eingeprägt, wodurch dieser nicht sofort ersichtlich ist. Im Jahr 1975 führte dies bei Leonid Witaljewitsch Kantorowitsch und Tjalling Koopmans zu Problemen. Ihre Medaillen wurden verwechselt und die Preisträger fuhren mit jeweils der falschen Medaille nach Hause. Erst vier Jahre später konnten die Medaillen nach diplomatischen Bemühungen getauscht werden. Die in Schweden vergebenen Medaillen wurden von 1902 bis 2010 im "Myntverket" in Eskilstuna geprägt, die in Norwegen vergebene Medaille von "Den Kongelige Mynt" in Kongsberg. Das Myntverket, nach eigenen Angaben im Jahr 995 gegründet und seit 2002 im Besitz der finnischen Münze Rahapaja Oy, wurde im Jahr 2011 geschlossen. Die Prägung des schwedischen Geldes war schon zuvor ins Ausland verlegt worden, aber Myntverket arbeitete mit den verbliebenen sechs Mitarbeitern nicht profitabel, so dass der Betrieb auf Beschluss der Muttergesellschaft eingestellt wurde. Hierdurch verlor Schweden die letzte Münzprägeinstitution, was die weitere Herstellung der Nobelmedaillen in Schweden unmöglich machte. Die Nobelstiftung sah die norwegische Münze als naheliegend und ließ die Münzen für das Jahr 2011 dort prägen. Die seit 1972 bestehende Firma Svensk Medalj AB, die ihren Sitz ebenfalls in Eskilstuna hat, kaufte die Maschinen zur Herstellung von Medaillen von Myntverket auf. Seit 2012 prägt diese Firma die Medaillen. Die in Schweden gefertigten Medaillen aus dem Jahr 2012 haben ungefähr einen Materialwert von 65.000 schwedischen Kronen (ca. 7.500 Euro), wiegen 175 Gramm und bestehen aus 18-karätigem Gold. Die Medaille des Wirtschaftspreises ist mit 185 Gramm etwas schwerer. Bis 1980 waren die Medaillen aus 23-karätigem Gold. Die Medaillen der Physiknobelpreisträger Max von Laue (1914), James Franck (1925) und Niels Bohr (1922) haben eine besondere Geschichte. Bohr hatte die Medaillen von Franck und Laue, die der politischen Verfolgung durch die Nazis ausgesetzt waren, zur Aufbewahrung erhalten, damit diese nicht von den deutschen Behörden konfisziert würden. Bohr und der dänische Arzt August Krogh stellten ihre Medaillen im März 1940 für eine Auktion zugunsten eines Fonds zur Unterstützung Finnlands zur Verfügung, wo sie von einem anonymen Käufer erworben wurde. Als die Deutschen in Dänemark einmarschierten, wollte Bohr die Medaillen Francks und von Laues nicht in die Hände der Nazis fallen lassen. Der ungarische Chemiker George de Hevesy, der zu dieser Zeit in Bohrs Labor arbeitete, schlug Bohr vor, die Medaillen zu vergraben, was Bohr aber nicht wollte, da sie ausgegraben werden könnten. Letztlich lösten sie die Medaillen in Königswasser auf, als die Deutschen in Kopenhagen einmarschierten. In der Tat durchsuchten die Nazis das Labor Bohrs, konnten aber nichts finden. Nach dem Krieg schickte Bohr das zersetzte Gold der Medaillen nach Stockholm, wo die Nobelstiftung neue Medaillen für Franck und von Laue herstellen ließ. Bohrs Medaille wurde von ihrem Käufer dem Historischen Museum in Frederiksborg übergeben und ist heute dort ausgestellt. Urkunde. Nobelpreisurkunde Wilhelm Conrad Röntgens, angefertigt von Sofia Gisberg, 1901 Das Design der Urkunden wird durch die preisvergebenden Körperschaften festgelegt. Jede Urkunde wird von einem Künstler und einem Kalligrafen speziell für den Laureaten angefertigt. Nominierung und Auswahl. Um für einen Nobelpreis in Frage zu kommen, muss man nominiert werden, wobei das Nominierungsrecht nicht jedem zusteht. Die Bestimmungen hierzu sind in den Statuten der Nobelstiftung festgelegt und werden ggf. von den mit der Auswahl der Preisträger befassten Institutionen präzisiert. Auf den Wirtschaftspreis finden sie analog Anwendung. Es können nur lebende Personen nominiert werden. Bis 1974 war es möglich, eine Person mit dem Nobelpreis auszuzeichnen, die nach dem Stichdatum der Nominierung (Ende Januar) verstarb. So wurden Erik Axel Karlfeldt 1931 und UN-Generalsekretär Dag Hammarskjöld 1961 posthum geehrt. Mahatma Gandhi hingegen wurde 1948 noch vor dem Stichdatum erschossen, weswegen er den Preis nicht erhalten konnte. Es gab auch keine Nachfolgeorganisation, die man an seiner Stelle hätte auszeichnen können. 1948 wurde der Friedensnobelpreis letztendlich nicht vergeben, weil es „keinen geeigneten lebenden Kandidaten“ gebe. 1974 wurden die Statuten dahingehend geändert, dass eine Person nur noch dann posthum geehrt werden kann, wenn sie zwischen Bekanntgabe (Oktober) und Verleihung (10. Dezember) stirbt, so geschehen 1996 im Fall von William Vickrey. 2011 starb der Immunologe Ralph M. Steinman drei Tage vor Bekanntgabe, dass er den Preis für Physiologie oder Medizin des Jahres erhalten solle. Hiervon hatte die Nobelversammlung am Karolinska-Institut jedoch keine Kenntnis. Der Vorstand der Nobelstiftung kam zu dem Schluss, dass der Zweck der Regel ist, eine absichtliche posthume Vergabe zu verhindern. Da man die Entscheidung aber im guten Glauben getroffen habe, Steinman sei am Leben, erhalte er den Preis trotzdem. Es ist nicht möglich, sich selbst zu nominieren. Die Nominierungsfrist ist der 1. Februar. Die Nominierungen, die in den zwölf vorangegangenen Monaten eingereicht wurden, werden bei der Auswahl berücksichtigt. Der Preis kann generell auch an Institutionen und Verbände vergeben werden, aber jede Vergabeinstitution kann selbst entscheiden, ob der ihr anvertraute Preis hierfür zur Verfügung stehen soll. Bislang macht hiervon lediglich der Friedensnobelpreis Gebrauch. Interpretation der Kriterien. Der Wortlaut des Testaments legt nahe, dass der prämiert werden soll, der eine Leistung im Jahr vor der Preisvergabe erbracht hat. Dies stellt insbesondere in den wissenschaftlichen Kategorien ein Problem dar. Viele wichtige Erkenntnisse werden erst Jahre oder gar Jahrzehnte später allgemein anerkannt. Eine schnelle Prämierung der Leistungen kann auch bedingen, dass letztlich unbedeutende oder sogar falsche Forschungsergebnisse den Preis erhalten. Die Statuten legen das Testament so aus, dass die neuesten Leistungen des jeweiligen Feldes prämiert werden sollen und ältere Leistungen nur dann, wenn deren Bedeutung erst kürzlich offenkundig geworden sind. Weiterhin sollen nur Leistungen ausgezeichnet werden, die nach Erfahrung und Prüfung durch Experten von so herausragender Bedeutung sind, wie das im Testament beabsichtigt ist. Daher wird der Preis oft erst Jahrzehnte nach der eigentlichen Leistung vergeben, um sicherzustellen, dass die gewürdigte Leistung den von Nobel gesetzten Maßstäben gerecht wird. Dies bedingt auch, dass viele Preisträger der wissenschaftlichen Preise zum Zeitpunkt der Auszeichnung schon aus dem Berufsleben ausgeschieden sind. Vereinzelt stellt dies sogar ein Problem dar. Werner Forßmann, der Preisträger in der Kategorie Medizin im Jahr 1956, arbeitete zum Zeitpunkt seiner Auszeichnung schon lange nicht mehr in der kardiologischen Forschung, sondern in einer gewöhnlichen urologischen Praxis in Bad Kreuznach, was nun nicht mehr angemessen schien. Daraufhin wurde er zum chirurgischen Chefarzt am evangelischen Krankenhaus in Düsseldorf, wo er sich schon bald mit dem dortigen Kuratorium überwarf und es nach der Probezeit zur Kündigung kam, die aber wegen des großen Prestige des Nobelpreises wieder zurückgenommen wurde. Beim Physik-Nobelpreisträger Theodor Hänsch stellte sich schon bald nach der Auszeichnung im Jahr 2005 das Problem, dass er im Oktober 2006 hätte pensioniert werden sollen und bestenfalls bis zu seinem 68. Lebensjahr hätte weiterarbeiten dürfen. Zeitweise erwog er daher sogar, in die USA zu gehen. Die bayerische Landesregierung sicherte ihm aber eine Lösung auf Basis einer privaten Anstellung zu. Manchmal kann eine Leistung auch nicht mehr ausgezeichnet werden, weil der potenzielle Preisträger schon verstorben ist. So erhielt Oswald T. Avery nie einen Nobelpreis, obwohl seine Erkenntnis, dass die DNS der Träger der Erbinformation ist, mit Sicherheit eine Jahrhunderterkenntnis war. Es dauerte jedoch zu lange, bis die Wissenschaft diese Erkenntnis akzeptierte. Er wurde in den Jahren 1932 bis 1953 (Daten für 1954 und 1955 liegen noch nicht vor) insgesamt 36-mal nominiert. Geheimhaltungspflicht. Gemäß den Statuten der Stiftung werden Informationen über Nominierte und Nominierende sowie diesbezügliche Meinungen und Untersuchungen seitens des Komitees für einen Zeitraum von 50 Jahren unter Verschluss gehalten. Erst dann können die Akten auf Antrag eingesehen werden, wobei jeder Fall zu prüfen ist und der Zugang für geschichtliche Forschung reserviert bleibt. Einschränkungen in der Auswahl der Preisträger. Neben der Beschränkung auf lebende Preisträger und der maximalen Anzahl von Preisträgern und prämierten Leistungen gilt noch die Vorschrift, dass die Leistung vorher publiziert worden sein muss. Nichtvergabe des Preises. Sollte sich kein Vorschlag unter den Nominierungen befinden, der die dargelegten Bedingungen erfüllt, wird das Preisgeld bis in das darauffolgende Jahr aufbewahrt. Sollte auch dann kein würdiger Preisträger gefunden werden, geht das Geld zurück an die Stiftung. Dies ist die einzige Möglichkeit gemäß der Statuten, den Preis nicht zu vergeben. Sowohl die verspätete Vergabe als auch die Möglichkeit, den Preis gar nicht zu vergeben, wurde schon zahlreiche Male genutzt, insbesondere in Kriegszeiten. Am häufigsten war dies beim Friedensnobelpreis der Fall, der insgesamt 12-mal zurückgestellt und 19-mal gar nicht vergeben wurde. Das Preisgeld wurde bei Nichtvergaben in den Jahren 1914 bis 1932 immer in den speziellen Fonds der jeweiligen Preiskategorie gegeben. Ab 1933 bis 1948 wurde das Preisgeld in so einem Fall zu einem Drittel in den Hauptfonds überführt, während die anderen zwei Drittel an den speziellen Fonds der jeweiligen Preiskategorie gingen. Seither kamen beide Varianten zum Einsatz, was aber nur noch den Friedensnobelpreis betraf, weil die anderen Preise zuletzt während des Zweiten Weltkriegs nicht vergeben wurden. Den ersten Verzicht auf eine Vergabe des Preises gab es im Jahr 1914, als in den Kategorien Literatur und Frieden niemand ausgezeichnet wurde. Die bislang letzte Nichtvergabe war der Friedensnobelpreis 1972. Die Möglichkeit der verspäteten Vergabe kam einige Male in Kriegszeiten zum Einsatz, aber auch gehäuft in der Zeit zwischen den Weltkriegen. In den 1920er Jahren trat dies in jeder Preiskategorie mehr als einmal auf. So wurde bei den Nobelpreisen für das Jahr 1925 nur der Medizinnobelpreis ohne Verzögerung vergeben. In den wissenschaftlichen Kategorien hat es seit dem Zweiten Weltkrieg aber keine Zurückstellung des Preises mehr gegeben. Beim Literaturnobelpreis wurde zuletzt 1949 davon Gebrauch gemacht. Die erste verspätete Vergabe war der Friedensnobelpreis 1912, die bislang letzte der Friedensnobelpreis 1976, der erst 1977 vergeben wurde. Der Wirtschaftspreis hat gemäß den Statuten dieselben Vergaberichtlinien, aber weder die Möglichkeit der Zurückstellung noch die der Nichtvergabe wurde bislang genutzt. Anzahl der Preisträger. Der Preis darf auf bis zu zwei Leistungen verteilt werden. Wurde eine Leistung von zwei oder drei Personen erbracht, so darf der Preis auf diese aufgeteilt werden. Jedoch darf der Preis nie an mehr als drei Personen gleichzeitig gehen. Wie die folgende Tabelle (Stand: Oktober 2015) zeigt, wird die Aufteilung von Nobelpreisen in den einzelnen Disziplinen sehr unterschiedlich gehandhabt. Der Literaturnobelpreis wird so gut wie nie geteilt (zuletzt 1974), die wissenschaftlichen Kategorien jedoch häufig, bei Physik und Medizin sogar in mehr als der Hälfte der Preisvergaben. Mit Ausnahme des Literaturnobelpreises geht bei allen Preisen die Tendenz in Richtung Preisteilung. Dies ist dadurch zu erklären, dass literarische Leistungen fast ausschließlich von Einzelpersonen erbracht werden. Zumindest wurde bislang noch nie eine Gemeinschaftsleistung prämiert. Daher ist eine Aufteilung auf drei Preisträger sehr unwahrscheinlich, weil dann mindestens zwei Preisträger für dieselbe Leistung geehrt werden müssten. Eine Aufteilung auf zwei Personen mit jeweils eigenständiger Leistung ist nach den Statuten nur denkbar, wenn beide Leistungen gleich bedeutend waren im jeweiligen Jahr und es keine Leistung gab, die noch größer war. In den wissenschaftlichen Kategorien werden hingegen Leistungen oft von vielen Forschern gemeinsam erbracht, so dass eine Aufteilung in der Regel angebracht ist. Mehrfache Preisträger. Bisher ist der Preis nur vier Menschen zweimal verliehen worden – Marie Curie (1903 für Physik und 1911 für Chemie), Linus Carl Pauling (1954 für Chemie und 1962 für Frieden), John Bardeen (1956 und 1972 jeweils für Physik) und Frederick Sanger (1958 und 1980 jeweils für Chemie). Pauling ist hierbei der einzige, der keinen der Preise mit jemand anderem teilen musste. Organisationen wurden ebenso mehrfach mit dem Preis geehrt. Das Hochkommissariat der Vereinten Nationen für Flüchtlinge (UNHCR) erhielt 1954 und 1981 den Friedensnobelpreis. Seine Vorgängerorganisation, das Internationale Nansen-Büro für Flüchtlinge (Hochkommissariat des Völkerbundes), wurde 1938 mit diesem Preis ausgezeichnet, sein Leiter Fridtjof Nansen 1922. Das Internationale Komitee vom Roten Kreuz wurde für seine Friedensbemühungen sogar dreimal (1917, 1944, 1963) ausgezeichnet, 1963 zusammen mit der Liga der Rotkreuz-Gesellschaften. Der Gründer des IKRK und der Rotkreuz-Bewegung, Henry Dunant, erhielt 1901 zusammen mit dem französischen Pazifisten Frédéric Passy den ersten Friedensnobelpreis. Frauenanteil. Bis 2015 wurden insgesamt 824 Nobelpreise der fünf klassischen Kategorien vergeben, davon gingen 750 an Männer, 48 an Frauen und 26 an Organisationen. Abzüglich der Mehrfachpreisträger wurden damit 747 Männer, 47 Frauen und 23 Organisationen geehrt. Hinzu kommen noch 75 männliche Preisträger und eine weibliche Preisträgerin des Wirtschaftspreises. Der Frauenanteil inkl. Wirtschaftspreis beträgt also 5,4 %. "Die Mehrfachpreisträger sind in der Tabelle mehrfach gezählt. In Klammern stehen die Anzahl der physisch verschiedenen Preisträger." Nach Nobels Testament sollen ausschließlich die Würdigsten den Preis bekommen. Das Geschlecht wird nicht erwähnt. Demgemäß wurden auch schon frühe Nobelpreise an Frauen vergeben. Jedoch ist die Verteilung über die Jahre sehr unregelmäßig. Der Literaturpreis wurde von 1909 bis 1966 insgesamt sechsmal an eine Frau vergeben und danach erst wieder 1991. Ähnlich ist es beim Friedenspreis, der 1905, 1931 und 1946 an Frauen vergeben wurde, dann erst wieder 1976. In der Chemie wurde nach 1964 erst 2009 wieder eine Frau mit dem Preis ausgezeichnet. Beim Medizinpreis erhielt bis 1976 lediglich Gerty Cori die Auszeichnung, seither wurden aber 10 weitere Frauen ausgezeichnet. Der Physikpreis hat den niedrigsten Frauenanteil. Hier wurde seit über 50 Jahren keine Frau mehr ausgezeichnet. Der Preis für Wirtschaftswissenschaften war lange Zeit eine reine Männerdomäne, bis er schließlich 40 Jahre nach der ersten Verleihung an Elinor Ostrom ging. Der Frauenanteil liegt hier aber höher, da der Preis erst seit 1969 vergeben wird. Marie Curie, bislang die einzige Frau, die den Preis zweimal erhalten hat Die Preise in den naturwissenschaftlichen Kategorien können nur an Wissenschaftler gehen und werden üblicherweise lange nach der prämierten Leistung vergeben, so dass die bisherigen Preisträger meist aus Forschergenerationen kamen, in denen der Frauenanteil sehr gering war. Bei den anderen Gebieten ist das Feld möglicher Preisträger weiter gefasst. Das Vergabekomitee für den Friedensnobelpreis kann auch Organisationen auszeichnen. Der Literaturpreis kann an Schriftsteller unabhängig von Qualifikation und Genre vergeben werden. Marie Curie ist die einzige zweifache Preisträgerin. Sie erhielt ihren ersten Preis für Physik 1903, zusammen mit ihrem Ehemann Pierre und Antoine Henri Becquerel. Allerdings geschah dies auf Anregung ihres Mannes, der dem Nobelpreiskomitee per Brief erklärte, dass seine Frau einen gleich großen Anteil an der Leistung hatte. Den zweiten Preis für Chemie erhielt sie 1911. In beiden Preiskategorien war sie jeweils die erste weibliche Preisträgerin. Außer ihr hat nur Linus Carl Pauling zwei Nobelpreise in verschiedenen Kategorien erhalten. Das bislang frauenstärkste Jahr war 2009. Es erhielten inklusive Wirtschaftspreis fünf Frauen und acht Männer den Preis, darunter auch die erste weibliche Preisträgerin in Chemie seit 45 Jahren und die erste Wirtschaftspreisträgerin überhaupt. Insgesamt 19 Frauen waren alleinige Nobelpreisträgerinnen. Der Friedensnobelpreis wurde bislang als einziger ausschließlich unter Frauen geteilt. Dies geschah im Jahr 1976, als Betty Williams und Mairead Corrigan ausgezeichnet wurden, sowie 2011, als Ellen Johnson Sirleaf, Leymah Gbowee und Tawakkul Karman gemeinsam den Preis erhielten. Weiterhin teilten sich Elizabeth Blackburn und Carol W. Greider mit Jack Szostak im Jahr 2009 den Medizinnobelpreis. Die Sprecherin der Internationale Kampagne für das Verbot von Landminen, Jody Williams, erhielt eine Hälfte des Friedensnobelpreises 1997, die Organisation als solche die andere Hälfte. Alle anderen Preisträgerinnen teilten sich den Preis mit einem oder mehreren Männern. Im Jahr 2005 nominierte die Kampagne 1000 Women for the Nobel Peace Prize 2005 1000 Frauen aus 151 Ländern für den Friedensnobelpreis. Jüngste und älteste Nobelpreisträger. Doris Lessing, älteste Preisträgerin bislang Der Wirtschaftswissenschaftler Leonid Hurwicz war bislang der älteste Preisträger zum Zeitpunkt der Vergabe. Er erhielt den Wirtschaftspreis im Jahr 2007 im Alter von. Auch den zweiten Platz aller Preisträger belegt ein Wirtschaftswissenschaftler: Lloyd Shapley erhielt den Preis im Alter von. Der älteste Preisträger des eigentlichen Nobelpreises war Raymond Davis junior, der 2002 den Physiknobelpreis erhielt und zu dem Zeitpunkt alt war. Etwas jünger war die älteste Trägerin, die Schriftstellerin Doris Lessing, die im Jahr 2007 den Literaturnobelpreis mit erhielt. Der jüngste Empfänger des Nobelpreises ist die Kinderrechtlerin Malala Yousafzai, die 2014 im Alter von 17 Jahren mit dem Friedensnobelpreis ausgezeichnet wurde. Zweitjüngster Preisträger und jüngster männlicher Preisträger ist William Lawrence Bragg, der 1915 25-jährig den Physikpreis erhielt. Auch die nächsten fünf jüngsten Nobelpreisträger sind Physiker: Werner Heisenberg (), Tsung-Dao Lee (), Carl David Anderson (), Paul Dirac (). Allerdings wurde Heisenberg der Preis tatsächlich erst ein Jahr später für das Jahr 1932 zugesprochen, so dass er bei der Vergabe schon 32 Jahre alt war. Die zweitjüngste Frau ist Tawakkul Karman, die ihren Friedensnobelpreis 2011 mit 32 Jahren empfing. Seit dem 4. Mai 2008 ist Rita Levi-Montalcini diejenige Person, die das höchste Lebensalter aller Nobelpreisträger erreicht hat. Sie verstarb am 30. Dezember 2012 im Alter von 103 Jahren. Unter den männlichen Nobelpreisträgern erreichte der Physiker Charles H. Townes, der am 27. Januar 2015 im Alter von starb, das höchste Lebensalter. Der älteste lebende Nobelpreisträger ist der US-amerikanische Biochemiker Paul D. Boyer, der alt ist. Unter den Wirtschaftspreisträgern erreichte Ronald Coase mit 102 Jahren das höchste Lebensalter. Der älteste lebende Wirtschaftspreisträger ist Thomas Schelling mit. Die einzige Wirtschaftspreisträgerin, Elinor Ostrom, wurde 78 Jahre alt. Die Physikpreisträger von 1957, Chen Ning Yang und Tsung-Dao Lee, sind diejenigen Preisträger, bei denen die längste Zeitspanne, nämlich, seit der Preisverleihung vergangen ist. Unter den weiblichen Preisträgern sind es Betty Williams und Mairead Corrigan, die Friedensnobelpreisträgerinnen von 1976, bei denen seit der Preisverleihung die längste Zeit, nämlich, vergangen ist. Nach Kategorien aufgeteilt liegen die jeweiligen längsten Zeitspannen bei 54 Jahren und mehr in den naturwissenschaftlichen Kategorien, während es beim Friedenspreis nur 39 und beim Literaturnobelpreis nur 37 Jahre sind. Nationalität der Preisträger. Nobel hat in seinem Testament ausdrücklich vorgesehen, dass Skandinavier bei der Preisvergabe nicht bevorzugt werden dürften, sondern nur der Würdigste ausgewählt werden soll. Ob dieser Regel objektiv Rechnung getragen wird, ist unklar, da eine überproportionale Vergabe auch daher rühren kann, dass in diesem Land besonders viele preiswürdige Leistungen erbracht werden. Mit Ausnahme Schwedens sind die skandinavischen Länder nicht stark vertreten. Schweden jedoch stellt in jeder Kategorie in mindestens vier Jahren Preisträger. Mit Ausnahme des Chemiepreises, wo die Schweiz öfter an Preisen beteiligt war, liegen nur deutlich bevölkerungsreichere Länder vor Schweden. Besonders stark vertreten sind die Vereinigten Staaten. Sie führen die Statistik in allen Kategorien mit Ausnahme der Literatur an. In den Wirtschaftswissenschaften sind bis 2012 unter den 71 Preisträgern gerade einmal 22, die nicht aus den USA stammen. Aber auch ohne Berücksichtigung des Wirtschaftspreises finden sich seit dem Zweiten Weltkrieg kaum noch Jahre, in denen kein Amerikaner ausgezeichnet wurde. Dies war nur in den Jahren 1948, 1957 und 1991 der Fall, wobei sich 1948 unter den Preisträgern ein gebürtiger US-Amerikaner befand. Vor dem Zweiten Weltkrieg ist das Bild genau umgekehrt: bis 1922 wurden nur sechs Amerikaner mit einem Nobelpreis ausgezeichnet, davon drei Friedensnobelpreise. In den 1920er und 1930er Jahren finden sich noch sieben Jahre, in denen kein Amerikaner ausgezeichnet wurde. Unter den Preisträgern finden sich aber auch zahlreiche Immigranten, die aus Europa geflüchtet waren oder wegen der Attraktivität der Wissenschaftsinstitutionen in die USA gingen und dann später die Staatsbürgerschaft annahmen. 1973 waren beispielsweise beide US-amerikanischen Preisträger Immigranten. Die Nobelstiftung führte lange Zeit Listen mit der Angabe der Nationalität, hat diese Angabe jedoch mittlerweile von ihrer Internetseite entfernt. Bei den Festivitäten wird ein Vertreter des jeweiligen Landes, meist der Botschafter, eingeladen und erhält einen Platz unter den Ehrengästen. Die Nationalität gibt der Preisträger in der Regel selbst an. Beim Friedensnobelpreis führt das norwegische Nobelinstitut eigene Listen, die teilweise von denen der Nobelstiftung abweichen. Diese Praxis bedingt unter anderem, dass Angaben der Nationalität gelegentlich umstritten oder verwirrend sind. Bei manchen doppelten Staatsbürgern wird nur eine Nationalität angegeben, so z. B. bei Elizabeth Blackburn, die auch australische Staatsbürgerin ist, aber in den Nobellisten nur als US-Amerikanerin mit australischem Geburtsort geführt wird. Auch wird bei Preisträgern, die zwischen mehreren Nationen standen, wie z. B. dem gebürtigen Elsässer Albert Schweitzer, die Angabe nur einer Nationalität als unzureichend oder, je nach Standpunkt des Betrachters, als falsch empfunden. Ein weiterer Grund für Diskrepanzen sind die zahlreichen staatlichen Veränderungen im 19. und 20. Jahrhundert. So wird bei manchen Preisträgern der Geburtsort mit der damaligen und heutigen Staatszugehörigkeit genannt, während bei anderen nur eines von beiden genannt wird. Ein Beispiel hierfür ist Günter Blobel, dessen heute in Polen liegender Geburtsort als Ort in Deutschland verzeichnet ist. Mutter Teresa wurde in Skopje geboren, das damals zum Osmanischen Reich gehörte und heute die Hauptstadt von Mazedonien ist. Ihre Familie war jedoch albanisch, weswegen sie oft als Albanerin gesehen wird. In der offiziellen Nobelliste ist aber keiner der drei Staaten genannt, sondern der Geburtsort wird als der Türkei zugehörig ausgewiesen, vermutlich, weil dies schon vor der Gründung des türkischen Staates eine übliche Bezeichnung für das Osmanische Reich war. Ihre Nationalität wird als indisch ausgewiesen, weil sie zum Zeitpunkt der Preisvergabe indische Staatsbürgerin war. Da der Friedensnobelpreis schon mehrfach an Preisträger ging, die in ihrer Arbeit auf eine Lösung eines Konflikts über die staatliche Zugehörigkeit eines Gebietes hingearbeitet haben, läuft schon die Angabe der Nationalität Gefahr, als tendenziös angesehen zu werden. So wurde bei der Vergabe an den 14. Dalai Lama Tendzin Gyatsho als Nationalität Tibet angegeben, obwohl dieser Staat nur in Form einer Exilregierung existiert. 1998 und 1976 wurden Leistungen für die Beilegung des Nordirlandkonfliktes prämiert. Hier entschied sich das Nobelinstitut für Nordirland als Nationalität, obwohl diese Region niemals ein eigenständiger Staat war und auch die Gründung eines solchen von keiner Konfliktpartei angestrebt wird. Die Nobelstiftung hingegen nennt nach der formalen derzeitigen Zugehörigkeit das Vereinigte Königreich als Nationalität. Politische Konflikte. Der Nobelpreis an sich ist zwar politisch neutral, aber immer wieder führt die Auswahl der Preisträger zu Konflikten mit Regierungen, denen der Ausgezeichnete missliebig ist. In besonderem Maße gilt dies für den Friedensnobelpreis. Zwar hält sich das Komitee meist mit eindeutigen Bewertungen zurück, aber schon die Auswahl wird oft als Aussage für oder gegen eine bestimmte Politik gesehen. In Einzelfällen wird auch deutliche Kritik geübt, so z. B. durch die Vergabe an Jimmy Carter im Jahr 2002. Bei der Bekanntgabe sprach sich der Komiteevorsitzende Gunnar Berge ausdrücklich gegen die Irakpolitik des damaligen US-Präsidenten George W. Bush aus. Zeit des Nationalsozialismus. Aufgrund der Vergabe des Nobelpreises 1935 an den Pazifisten Carl von Ossietzky kam es zu einem Konflikt mit dem nationalsozialistischen Regime in Deutschland. Ab 1934 setzten sich verschiedene Interessengruppen für die Vergabe des Friedensnobelpreises an Carl von Ossietzky ein, der 1933 verhaftet und ins Konzentrationslager verschleppt worden war. 1934 wurde die Nominierung zu spät und von einer nicht nominierungsberechtigten Institution eingereicht. Ein neuerlicher Versuch 1935 war aussichtsreich, aber die deutsche Regierung übte erheblichen Druck aus, um die Vergabe zu verhindern. Das Nobelpreiskomitee verzichtete auf eine Vergabe des Preises im Jahr 1935 und stellte den Preis gemäß den Statuten zurück, so dass er auch noch 1936 rückwirkend zuerkannt werden konnte. Der schwerkranke Ossietzky wurde 1936 vom KZ in ein Krankenhaus verlegt und am 7. November aus der Haft entlassen. Die internationale Kampagne zeigte Wirkung und Ossietzky wurde am 23. November der Friedensnobelpreis von 1935 zugesprochen. Trotz Drängens der Gestapo und Hermann Görings persönlich entschloss er sich, den Preis anzunehmen. Die Ausreise zur Preisverleihung nach Norwegen wurde ihm verweigert, und er starb 1938 in Berlin. Um sicherzustellen, dass sich ein solches politisches Desaster für das Regime nicht noch einmal wiederholte, verfügte Adolf Hitler 1937 per Erlass eine Doktrin, wonach Reichsdeutschen die Annahme des Nobelpreises „für alle Zukunft“ untersagt war. Stattdessen wurde ein Deutscher Nationalpreis für Kunst und Wissenschaft eingeführt und 1937 und 1938 verliehen. Von dem Verbot waren mehrere deutsche Wissenschaftler betroffen. Richard Kuhn erhielt 1938 den Preis in Chemie, konnte ihn aber erst 1948 entgegennehmen. 1939 erhielt Adolf Butenandt den Preis in Chemie; er konnte den Preis aber erst 1949 entgegennehmen.. Gerhard Domagk wurde 1939 der Nobelpreis in Medizin zuerkennt. Er geriet sogar in Haft, weil er sich für den Preis bedankte. 1947 konnte er ihn dann doch entgegennehmen. Alle diese Preisträger mussten auf das Preisgeld verzichten, da der Preis hierzu innerhalb eines Jahres hätte abgeholt werden müssen. Konflikte mit der Sowjetunion. In zwei Fällen ging das sowjetische Regime gegen die Preisvergabe an Bürger der Sowjetunion vor. Der Schriftsteller Boris Pasternak wurde 1958 dazu gedrängt, den ihm zugesprochenen Literaturnobelpreis abzulehnen. Zunächst nahm er an, aber unter dem Druck der sowjetischen Regierung lehnte er den Preis doch ab. "Doktor Schiwago", sein bekanntestes Werk, war 1957 nur im Ausland erschienen, weil er in der Sowjetunion wegen des „konterrevolutionären Geistes“ und „pathologischen Individualismus“ zur Veröffentlichung abgelehnt wurde. Die Verleihung des Nobelpreises an Pasternak wurde von offizieller Seite als unfreundlicher Akt angesehen. Man schloss Pasternak aus dem Schriftstellerverband aus. Bei einer Ausreise zur Annahme des Preises hätte Pasternak befürchten müssen, anschließend nicht nach Russland zurückkehren zu dürfen. Er wollte das Land jedoch keinesfalls verlassen, so dass er die Annahme verweigerte. Er starb 1960. "Doktor Schiwago" durfte erst 1987 in der Sowjetunion publiziert werden. Boris Pasternaks Sohn nahm 1989 den Preis in einer speziellen Zeremonie in Stockholm entgegen. Der Physiker Andrei Dmitrijewitsch Sacharow erhielt für seine Arbeit als Aktivist für Menschenrechte in der Sowjetunion den Friedensnobelpreis 1975. Die Ausreise wurde ihm jedoch verweigert, so dass seine Frau Jelena Georgijewna Bonner nach Oslo reiste und dort den Preis entgegennahm sowie die Dankesrede und Vorlesung hielt. Maßnahmen der chinesischen Regierung gegen die Verleihung an Liu Xiaobo. Mit der Vergabe des Friedensnobelpreises 2010 an den chinesischen Menschenrechtler Liu Xiaobo, der zu jenem Zeitpunkt wegen „Untergrabung der Staatsgewalt“ eine 11-jährige Haftstrafe absaß, widersetzte sich das Komitee dem Druck aus dessen Heimatland. Die chinesische Regierung reagiert kühl und bezeichnete den Preisträger als „Kriminellen“. Dem Druck, die Verleihung zu boykottieren, folgten 19 Staaten, die vorwiegend enge Beziehungen zu China unterhalten und diese nicht gefährden wollten. Liu Xiaobo wurde nicht aus der Haft entlassen, und auch seine Frau konnte den Preis nicht entgegennehmen, weil sie, wie zahlreiche andere chinesische Aktivisten, mit einem Ausreiseverbot belegt wurde. Dass weder der Preisträger noch ein ihm nahestehender Vertreter teilnehmen konnte, hatte es zuletzt bei der Vergabe an Carl von Ossietzky im Jahr 1936 gegeben. Bei der Verleihung blieb der Stuhl des Preisträgers symbolisch leer. China blockierte die Übertragung der Zeremonie im Land durch Abschaltung zweier internationaler Nachrichtensender und der Verschärfung der Internetzensur, wovon auch die Seiten des Nobelpreises betroffen war. Der Komiteevorsitzende Jagland mahnte die Freilassung von Liu Xiaobo an. Der Preis wird in Oslo aufbewahrt, bis er abgeholt werden kann. Seit 2010 wird in China der Konfuzius-Friedenspreis vergeben, der als Gegenpreis zum Friedensnobelpreis gewertet wird. Bekanntgabe. Pressekonferenz in der Schwedischen Akademie der Wissenschaften Bekanntgabe der Nobelpreisträger in Chemie 2008 Alle Termine sind mit dem Hinweis „at the earliest“ (frühestens) versehen, so dass es auch Verzögerungen geben kann. Diese treten gelegentlich ein, wenn beispielsweise ein Preisträger nicht rechtzeitig kontaktiert werden kann. Die Preisträger werden üblicherweise noch vor der Öffentlichkeit telefonisch informiert, auch um sie auf den zu erwartenden Ansturm der Presse vorzubereiten. Wegen der Zeitverschiebung erreichen diese Anrufe die US-amerikanischen Preisträger oft mitten in der Nacht. Da die Preisträger bestenfalls wissen, dass sie nominiert sind, kommt die Nachricht in der Regel höchst unerwartet und nicht selten in denkwürdigen Situationen. Der Chemienobelpreisträger 1991, Richard R. Ernst, war auf einem Flug nach Moskau, als er in das Cockpit gebeten wurde, wo er die Nachricht erhielt. Günter Grass war gerade beim Zahnarzt. Willy Brandt befand sich in einer Sitzung des Deutschen Bundestags, als der Bundestagspräsident Kai-Uwe von Hassel die Sitzung unterbrach und die Nachricht aus Oslo verkündete. Manchmal gelingt es den Verantwortlichen jedoch nicht, die Preisträger zu erreichen. Dies war beispielsweise bei George E. Smith der Fall, der beim ersten Presseinterview davon erfuhr. Preisvergabe. Die Verleihung der Preise in Stockholm und Oslo findet jedes Jahr am 10. Dezember, dem Todestag Alfred Nobels, statt. Um die Verleihung der Preise ist seit 1901 eine Reihe von Traditionen gewachsen. Stockholm. Stockholms Stadshus – Veranstaltungsort für das Nobelbankett direkt nach der Preisverleihung Die Preisträger sind Mittelpunkt einer ganzen Nobelwoche, die einige Tage vor dem 10. Dezember beginnt und am 13. Dezember endet. Sie sind im "Grand Hôtel Stockholm" nahe der Altstadt in Stockholm untergebracht. Nobelvorlesung. Nobelvorlesung in der Aula Magna Nach den Statuten der Nobelstiftung soll der Preisträger, wenn möglich, eine Vorlesung über die prämierte Arbeit halten. Diese soll vor der Preisübergabe oder bis spätestens sechs Monate danach gehalten werden. Die Vorlesungen in Stockholm werden traditionell alle am 8. Dezember abgehalten. Fällt der 8. Dezember auf das Wochenende, kann es Abweichungen geben. So fanden im Jahr 2012, an dem der 8. Dezember auf einen Samstag fiel, die Vorlesungen für Literatur und Medizin schon am 7. Dezember statt, die anderen aber wie üblich am Tag darauf. Kann der Preisträger aus gesundheitlichen oder persönlichen Gründen nicht anwesend sein, wird nach Möglichkeit eine andere Lösung gewählt. Harold Pinter, Literaturnobelpreisträger 2005, schickte seine Vorlesung per Video, da er aus gesundheitlichen Gründen nicht anreisen konnte. Doris Lessing, Literaturnobelpreisträgerin 2007, konnte ebenso aus gesundheitlichen Gründen nicht kommen und ließ die Vorlesung von ihrem Verleger verlesen. Preisverleihung. Höhepunkt der Nobelwoche ist der 10. Dezember, an dem zunächst am frühen Abend die Preisverleihung durch den schwedischen König erfolgt. Dieser Tag ist in Schweden der sogenannte "Nobeltag", welcher zu den Tagen gehört, an dem die schwedische Flagge gehisst werden soll. Bei der ersten Preisverleihung im Jahre 1901 fanden alle Feierlichkeiten im Spiegelsaal des Stockholmer Grand Hotels statt. Es waren 113 Männer anwesend, die einmal auf den König, Oskar II., und einmal auf den Kronprinzen, den späteren Gustav V., anstießen und dann ein vierfaches Hurra anstimmten. Das Bankett fand ebenfalls dort statt. Der König selbst war jedoch nicht anwesend und nahm erst ab 1902 die Preisübergabe vor. Seit 1926 findet die Preisverleihung im Konserthuset am Hötorget statt. Beim Einzug der königlichen Familie wird die schwedische Königshymne gesungen. Es werden Ansprachen über die von den Preisträgern geleistete Arbeit gehalten. Diese sind größtenteils auf Schwedisch, aber die letzten Sätze sowie die Aufforderung, den Preis entgegenzunehmen, werden auf Englisch oder in der Muttersprache des Preisträgers vorgetragen. Der König übergibt darauf die Preismedaille und eine Urkunde. Nach Abschluss der Preisübergabe wird die schwedische Nationalhymne gesungen. Darauf folgt der Auszug der königlichen Familie. Dazwischen gibt es ein musikalisches Rahmenprogramm. Das Konserthuset hat nur sehr begrenzten Platz, so dass die Auswahl der Gäste noch eingeschränkter ist als beim anschließenden Bankett. Die königliche Familie, die Preisträger, der Vorsitzende der Nobelstiftung sowie die einzelnen Vorsitzenden der Vergabegremien sitzen auf der Bühne. In den ersten Reihen sitzen ungefähr 90 Mitglieder der Vergabeorganisationen, ehemalige Preisträger und Redner. Nobelbankett. Panorama der Blauen Halle beim Nobelbankett 2005. Die Gäste gehen nach dem Dinner nach oben in den Goldenen Saal zum Tanz. a>, das nur bei dieser Veranstaltung verwendet wird Anschließend fahren die Preisträger zum Nobelbankett, das seit 1930 mit wenigen Ausnahmen im Stadshuset abgehalten wird; ursprünglich wurde hierzu der Goldene Saal genutzt. Da dieser zu klein wurde, findet es nun im Blauen Saal im unteren Stockwerk statt. Der Goldene Saal dient als Küche und wird später für den Tanz freigegeben. Am Ehrentisch des Banketts sitzen die Preisträger, die königliche Familie, hohe Repräsentanten der Nobel-Gremien sowie ausländische Ehrengäste, z. B. die Botschafter der Länder, aus denen die Preisträger stammen. Diese besonderen Ehrengäste marschieren zu Beginn in einer Prozession ein. Weitere Gäste der Nobelbanketts sind am Preisvergabeprozess Beteiligte sowie Ehrengäste aus aller Welt. Weiterhin darf eine begrenzte Anzahl Studenten schwedischer Universitäten teilnehmen. Das Recht, diese Eintrittskarten zu erwerben, wird hierbei in einer jährlichen Lotterie verlost. Studenten haben darüber hinaus zeremonielle Aufgaben als Begleitpersonen bei der Prozession sowie als Ordner. Insgesamt nehmen über 1000 Menschen am Bankett teil. Die Zahl ist aber wegen des beschränkten Platzes im Stadshuset streng begrenzt; sogar ehemaligen Preisträgern wird eine Eintrittskarte verwehrt, wenn die Plätze gefüllt sind. Das mehrgängige Menü wird bis zuletzt geheim gehalten und ist, im Gegensatz zu allen anderen offiziellen Dokumenten des Nobelpreises, ausschließlich auf Französisch verfügbar. Die Bewirtung der Gäste führen mehrere hundert Angestellte durch, die dies teilweise schon lange vorher geprobt haben. Der König sowie der Vorsitzende der Nobelstiftung bringen zum Gedenken an Alfred Nobel einen Toast aus. Nach dem Essen halten die Preisträger kurze Dankesansprachen. Gibt es in einer Kategorie mehrere Preisträger, so hält einer stellvertretend für seine Mitpreisträger die Ansprache. Hinzu kommt ein aufwändiges musikalisches Begleitprogramm zwischen den Gängen sowie Tanz nach dem Ende des Essens. Dort sind dann auch die Preismedaillen in Vitrinen ausgestellt zu sehen. Nach dem Ende des Banketts richtet traditionell die Studentenvereinigung einer der Stockholmer Hochschulen ein aufwändiges Fest aus, das unter einem bestimmten Thema steht. Die meisten Preisträger nehmen auch hier noch teil, wobei sie dazu angehalten sind, ihre Gesangskünste zum Besten zu geben. Abschluss der Nobelwoche. In den Tagen vor und nach der Preisverleihung nehmen die Preisträger an zahlreichen Veranstaltungen teil, beispielsweise besuchen sie Schulen. Am 13. Dezember ist in Schweden das Luciafest, an dem Kinder frühmorgens eine Prozession mit Kerzen veranstalten. Die Nobelpreisträger werden dabei von einer solchen Prozession geweckt. Dies ist das traditionelle Ende der Nobelwoche. Oslo. Ebenfalls am 10. Dezember wird der Friedensnobelpreis am frühen Nachmittag in Oslo verliehen. Zwar gibt es auch in Norwegen Tage, an denen die norwegische Flagge an öffentlichen Gebäuden zu hissen ist, aber im Gegensatz zu Schweden gehört der 10. Dezember nicht dazu. Die Verleihung in Oslo findet seit 1990 im Rathaus statt. Von 1926 bis 1946 wurde sie im Nobelinstitut abgehalten, ab 1947 dann im Auditorium der Universität Oslo. Die Übergabe selbst findet in Anwesenheit des norwegischen Königs statt und wird vom Vorsitzenden des norwegischen Nobelkomitees durchgeführt. Anschließend hält der Preisträger die in den Nobelstatuten vorgeschriebene Vorlesung in Form einer längeren Rede. Im Anschluss findet auch in Oslo ein Bankett statt. Seit 1994 wird jedes Jahr am Tag darauf das "Nobel Peace Prize Concert" veranstaltet. Dieses Konzert zu Ehren des Preisträgers umfasst üblicherweise eine weite Bandbreite musikalischer Genres. Das Programm orientiert sich in Teilen an den Preisträgern des Jahres, d.h. es treten z.B. Künstler aus dessen Heimatländern auf. Die Preisträger werden auch präsentiert und sind oft zugegen. Die Tickets für das Konzert können von der Allgemeinheit gekauft werden. Kritik. Die Entscheidungen der Vergabekomitees werden häufig kontrovers diskutiert. Vor allem in den Preiskategorien Frieden und Literatur kommt es nahezu jedes Jahr zu vereinzelter bis heftiger Kritik. Bei den naturwissenschaftlichen Kategorien ist Kritik jedoch selten und beschränkt sich meist darauf, dass die anderen an der prämierten Leistung beteiligten Wissenschaftler nicht berücksichtigt wurden (siehe unten). Kritik erntet außerdem der Umstand, dass eine Preisvergabe in der Kategorie Wirtschaftswissenschaften mit dem Nobelpreis und dessen Prozedur assoziiert wird, weil die Nützlichkeit wirtschaftswissenschaftlicher Thesen für die Menschheit (so die Idee der Nobelpreise) zweifelhaft sei sowie die Wirtschaftswissenschaften zu Unrecht in den Rang der Naturwissenschaften gehoben würden. Bedeutung der Leistung. Beim Friedensnobelpreis rührt die Kritik meist daher, dass er häufig in relativ kurzem Abstand zum entsprechenden Ereignis vergeben wird, so dass eine historische Abwägung und die Einbeziehung der Langzeitfolgen nicht möglich sind. Ein Beispiel sind Henry Kissinger und Lê Đức Thọ, die den Nobelpreis dafür zugesprochen bekamen, dass sie einen Krieg mit Millionen von Opfern beendeten, den sie in eigener Mitverantwortung begonnen hatten. Nur Henry Kissinger akzeptierte den Preis, Lê Đức Thọ verweigerte die Annahme, da damals aus seiner Sicht immer noch kein Frieden in Vietnam herrschte. Auch die Vergabe an Jassir Arafat oder Menachem Begin für ihre Rollen im Friedensprozess in Nahost wurden im Nachhinein in Frage gestellt. Ein weiteres Beispiel ist die umstrittene Vergabe des Preises 1985 an die International Physicians for the Prevention of Nuclear War (IPPNW), denen von Seiten konservativer und christdemokratischer europäischer Politiker zu enge ideologische Verbindungen zum Ostblock vorgeworfen wurde. Barack Obama erhielt den Friedensnobelpreis im Jahr seines Amtsantritts als US-Präsident 2009, ohne dass er bis dahin größere außenpolitische Erfolge vorweisen konnte. Der Literaturnobelpreis steht ebenfalls häufig in der Kritik. So wurde die Entscheidung für Harold Pinter im Jahr 2005 von manchen Literaturkritikern heftig kritisiert. Bei der Auswahl Orhan Pamuks im Jahr 2006 war die Reaktion in dessen Heimatland Türkei unterkühlt, da er dort ein politisch sehr umstrittener Schriftsteller ist. Allerdings gab es in beiden Beispielen auch eine Vielzahl positiver Stimmen. 1938 wurde die US-Amerikanerin Pearl S. Buck mit dem Literaturpreis ausgezeichnet. Diese Auszeichnung wurde damals mit Unverständnis aufgenommen und wird auch heute noch oft als Fehlentscheidung angesehen, da Bucks Werke wenig literarischen Wert hätten. Aus dieser Kritik heraus entstand die sogenannte „Lex Buck“. Es handelt sich dabei um die ungeschriebene Regel, nur Autoren auszuzeichnen, die mindestens einmal zuvor nominiert worden waren. Nach Aussagen des ehemaligen Ständigen Sekretärs der Schwedischen Akademie, Horace Engdahl, kommt diese Richtlinie zum Einsatz. Wie oft sie eingehalten wird, ist allerdings wegen der Verschlussfristen der Nobelstiftung frühestens 50 Jahre nach Preisvergabe endgültig festzustellen. Aus den bisher von der Nobelstiftung veröffentlichten Daten, die bis in das Jahr 1950 reichen, ist abzulesen, dass sowohl William Faulkner (1949) als auch Bertrand Russell (1950) ihre Nobelpreise nach nur einmaliger Nominierung erhielten. Allerdings handelte es sich hierbei um eine außergewöhnliche Situation: nach den Statuten kann der Preis ein Jahr zurückgestellt werden, wenn sich kein geeigneter Preisträger findet. Dies war im Jahr 1949 trotz 35 Nominierungen anscheinend der Fall. Hätte man unter den 54 Nominierungen von 1950 – bis dahin ein Rekord – keinen würdigen Preisträger für 1949 gefunden, wäre der Preis an die Stiftung zurückgegangen. Anzahl der Preisträger. Ein weiteres Problem, vor allem im Bereich der Naturwissenschaften, ist die Beschränkung auf drei Preisträger. So können wissenschaftliche Leistungen heute oft nicht mehr einzelnen Wissenschaftlern zugeordnet werden. Im Bereich der Elementarteilchenphysik etwa werden neue Erkenntnisse an Großbeschleunigern gewonnen, an denen hunderte von Wissenschaftlern arbeiten. Die Verleihung erfolgt in solchen Fällen jedoch nicht an die entsprechenden Institutionen oder die einzelnen Wissenschaftler. Vielmehr werden stellvertretend einzelne ausgezeichnet, bei denen man dann unter Umständen streiten kann, inwieweit sie tatsächlich zum Projekt beigetragen haben. Beim Friedensnobelpreis kann dieses Problem am ehesten umgangen werden, da hier die Verleihung an Organisationen durchaus üblich ist. Beim Literaturnobelpreis existiert das Problem zumindest im Prinzip, da natürlich auch Schriftstellerkollektive eventuell nobelpreiswürdige Leistungen erbringen könnten. Lobbyarbeit. Eine Erklärung für die auffallend große Anzahl der US-amerikanischen Preisträger wird unter anderem mit dem Argument geliefert, dass die Amerikaner die beste Lobbyarbeit betreiben. Schon lange vor der Nominierung einigen sich die größten Universitäten auf nur wenige Kandidaten, so dass die schwedischen Nobeljuroren immer wieder erstaunt sind, wenn sie mit dem Wunsch nach geeigneten Vorschlägen telefonisch die Ivy-League-Fakultäten befragen und regelmäßig dieselben Namen zu hören bekommen. Durch diese häufige Namensnennung kommt die Nobelversammlung kaum umhin, die genannten Kandidaten zu berücksichtigen. Vergleichbare Preise und Preise mit Bezug zum Nobelpreis. Viele andere Preise werden aus verschiedenen Beweggründen als dem Nobelpreis vergleichbar angesehen. Weiterhin gibt es einige Preise, die in direktem oder indirektem Bezug zum Nobelpreis stehen. „Wirtschaftsnobelpreis“. Seit 1969 gibt es mit dem Alfred-Nobel-Gedächtnispreis für Wirtschaftswissenschaften eine Auszeichnung, die häufig als Nobelpreis für Wirtschaftswissenschaften oder Wirtschaftsnobelpreis bezeichnet wird. Der Preis wird zusammen mit den Nobelpreisen verliehen, unterliegt denselben Vergabekriterien und ist mit der gleichen Summe dotiert. Das Preisgeld wird allerdings nicht aus den Zinsen von Nobels Vermögen finanziert, sondern durch die Schwedische Reichsbank. Jakob von Uexküll, Gründer des Right Livelihood Award Fields-Medaille – oft als Nobelpreis für Mathematik bezeichnet Die Königlich Schwedische Akademie der Wissenschaften, die neben zwei Nobelpreisen auch den Crafoord-Preis vergibt. Right Livelihood Award. Der Right Livelihood Award wird seit 1980 jährlich für Leistungen im Bereich der Ökologie und Entwicklung vergeben. Üblicherweise gibt es vier Preisträger. Dieser Preis wird besonders im deutschen Sprachraum als "Alternativer Nobelpreis" bezeichnet. Er hat aber keinerlei Bindungen an den Nobelpreis und wird international weniger beachtet. Der Gründer, der deutsch-schwedische Philatelist Jakob von Uexküll, trug der Nobelstiftung seine Idee zu, zwei weitere Nobelpreise für Ökologie und im Zusammenhang mit der Armut einzurichten. Diese lehnte jedoch die Einrichtung ab. Theoretisch wäre eine solche Einrichtung nach dem Muster des Wirtschaftspreises, d.h. durch einen Anhang an die Nobelstatuten und eine komplett externe Finanzierung, möglich gewesen. Ein häufig genannter Grund für die Ablehnung ist die Kritik am Wirtschaftspreis nach dessen Einrichtung. Von Uexküll versprach zudem nur eine Beteiligung an der Finanzierung. Von Uexküll beschloss, einen solchen Preis in Eigenregie zu vergeben. Er gründete die Stiftung "Right Livelihood Award Foundation", die sich aus Einzelspenden finanziert und heute ihren Sitz in Stockholm hat. In Anlehnung an den Nobelpreis wird der Right Livelihood Award jedes Jahr in den Tagen vor dem 10. Dezember übergeben, wobei die Räumlichkeiten des schwedischen Reichstags verwendet werden. Preise in anderen Fachbereichen. Da der Nobelpreis nur wenige Fachgebiete abdeckt, gibt es zahlreiche andere Preise, die in ihren jeweiligen Disziplinen von herausragender Bedeutung sind und damit eine ähnliche Rolle spielen wie der Nobelpreis. Alternativ- und Gegenpreise. Einige Preise wurden als Alternative oder Gegenpreis zum Nobelpreis etabliert. Ig-Nobelpreis. Der Ig-Nobelpreis ist ein satirischer Preis und wird für unnütze, unwichtige oder skurrile wissenschaftliche Arbeiten verliehen. Entgegen dem Namen wird der Preis nicht mehr als negativ gesehen und viele Preisträger nehmen ihn gerne an. Bei der Preisverleihung übernehmen echte Nobelpreisträger die Übergabe. Seit 2010 gibt es mit Andre Geim sogar einen Wissenschaftler, der sowohl den Ig-Nobelpreis als auch den Nobelpreis erhalten hat. New Hollywood. New Hollywood bezeichnet US-amerikanische Filme, die von 1967 bis Ende der 1970er Jahre das traditionelle Hollywood-Kino modernisierten. Als Vorläufer des New Hollywood entstanden mit "Die Reifeprüfung" und "Bonnie und Clyde" noch zwei Filme im klassischen Studiosystem, die sich formal wie thematisch von den bis dato gängigen Hollywood-Produktionen unterschieden und damit sehr erfolgreich waren. Nahezu alle New-Hollywood-Filme zeichnen sich durch eine gesellschaftskritische Grundhaltung aus. Einige Regisseure modernisierten die klassischen Genres des Hollywood-Kinos (Western, Film noir etc.) oder dekonstruierten sie, indem sie absichtlich gegen Genre-Konventionen verstießen. Typisch für New Hollywood sind inhaltliche oder filmästhetische Experimente mit ambivalenten Außenseitern als Protagonisten, der Bruch mit traditionellen Erzählweisen und der Verzicht auf ein Happy End. Die relativ kurze New-Hollywood-Ära gilt als eine der künstlerisch bedeutendsten Phasen des amerikanischen Films. Die „goldene Ära“. Bevor das "New Hollywood" erfolgreich war, gab es das klassische Hollywood-Kino – von vielen als „Golden Age“, als „goldene Ära“ bezeichnet. Unter dem "Golden Age" versteht man allgemein die Zeit zwischen den frühen 1930er und späten 1950er Jahren. Diese Hollywood-Ära wurde von den Produktionsstrukturen und den Genres geprägt, die sich bereits während der Stummfilmzeit herausgebildet hatten. Auch das Starsystem der Traumfabrik hatte sich bereits während der 1920er Jahre etabliert. Viele Filme des "Golden Age" können einem genau definierten Genre zugeordnet werden (Western, Komödie, Abenteuerfilm) und sind mit den dafür geeigneten Stars besetzt (Western – John Wayne; Komödie – Cary Grant; Abenteuerfilm – Errol Flynn). Während dieser Zeit hatten die großen Filmstudios jahrzehntelang die gesamte Produktions- und Verwertungskette unter Kontrolle – sie stellten die Filme also nicht nur her, sondern vertrieben sie auch über ihre eigenen Kinoketten. Diese Produktionsstrukturen waren sowohl in kommerzieller wie künstlerischer Hinsicht ergiebig. Obwohl die Filmherstellung während der "Golden Age" sozusagen „automatisiert“ war, schufen Regisseure wie Frank Capra, Howard Hawks, John Ford, Alfred Hitchcock, John Huston, Fred Zinnemann oder Billy Wilder bedeutende Meisterwerke. Einige dieser Filme wirkten stilbildend und haben Maßstäbe gesetzt. Während des "Golden Age" arbeiteten viele der weltbesten Regisseure, Schauspieler, Autoren, Kameramänner oder Komponisten in Hollywood – nicht zuletzt wegen der sehr guten Verdienstmöglichkeiten. Die handwerkliche Grundqualität der "Golden-Age"-Filme ist deshalb in der Regel beachtlich. Erfolgsrezepte wurden während des "Golden Age" jahrelang variiert (z. B. Tony Curtis als „Pretty Boy“, Rock Hudson und Doris Day als Traumpaar der romantischen Komödie), und als das Fernsehen aufkam und zu einer ernsthaften Bedrohung wurde, reagierte Hollywood mit erfolgreichen Monumentalepen wie Die zehn Gebote, Ben Hur oder Spartacus. Viele der alten Hollywood-Filme spielten in einer Traumwelt und bedienten die eskapistischen Bedürfnisse eines Publikums, das im Kino nicht mit den sozialen Realitäten konfrontiert werden wollte. Die Krise. In den frühen 1960er Jahren gelangte die „Traumfabrik Hollywood“ mit ihren bewährten Rezepten an einen toten Punkt. Berühmte Regisseure wie Hitchcock oder Ford hatten ihr Hauptwerk abgeschlossen. Die legendären "Golden-Age"-Stars waren tot (Humphrey Bogart, Gary Cooper) oder kamen in die Jahre (Cary Grant, John Wayne). Und die großen Studios wurden von alten Männern wie Jack L. Warner geleitet, die teils seit der Stummfilmzeit ihren Posten bekleideten und keinen Kontakt mehr mit der gesellschaftlichen Realität hatten. Immer mehr Filme wurden am Publikum vorbei produziert, und in einem verzweifelten Versuch, ihre Zuschauer zurückzugewinnen, pumpten die Studios Mitte der 1960er Jahre enorme Summen in künstlerisch unbedeutende Monumentalfilme und Musicals, die nicht mehr das Publikum in Massen anzogen, wie in der Vergangenheit. Die Zeit für eine grundlegende Erneuerung war gekommen. Erste Erfolge. Das künstlerische Vakuum, das Mitte der 1960er Jahre in Hollywood sichtbar wurde, ermöglichte es jungen Filmemachern, eine neue Art von Kino zu etablieren. Arthur Penn drehte mit "Bonnie und Clyde" (1967) einen erfolgreichen Gangsterfilm, dessen skeptische Anti-Establishment-Haltung – kombiniert mit einem lyrischen, modernen Erzählstil – haargenau den Zeitgeist traf. Ähnliches gelang Mike Nichols mit "Die Reifeprüfung" (1967), in dem Dustin Hoffman (dem mit dieser Rolle der Durchbruch gelang) als frustrierter College-Absolvent gegen die langweilige, moralisch korrupte Spießerwelt der Elterngeneration rebelliert. Den ersten großen Erfolg verbuchte das New-Hollywood-Kino mit dem Road-Movie "Easy Rider", den Regisseur Dennis Hopper 1969 zunächst unabhängig realisierte und der erst als fertiger Film von der Filmindustrie aufgekauft wurde. Die Hippie-Helden des Films – dargestellt von Dennis Hopper, Peter Fonda und Jack Nicholson – fallen mordlüsternen Hinterwäldlern zum Opfer. Der mit 400.000 Dollar billig produzierte Film wurde von der „Woodstock-Generation“ mit Begeisterung aufgenommen und weltweit zu einem großen Hit, der etwa 20 Mio. Dollar einspielte. Der ehemalige Fernsehregisseur Robert Altman drehte mit "M*A*S*H" (1970) einen ätzend-satirischen Anti-Kriegsfilm über den Koreakrieg, dessen hippieske Helden (unter anderem Donald Sutherland) soldatische Tugenden ad absurdum führen. Der ehemalige Cutter Hal Ashby realisierte mit "Harold und Maude" (1971) und "Das letzte Kommando " (1973) zwei New-Hollywood-Filme mit einem ganz eigenen Blick auf die gesellschaftlichen Verhältnisse. John Cassavetes arbeitete als Schauspieler in kommerziellen Hollywood-Produktionen "(Das dreckige Dutzend)" und sezierte als Regisseur die Krisen und Neurosen von Durchschnittsamerikanern in mittleren Jahren ("Eine Frau unter Einfluß", 1974). Western. Hollywood-Veteran Sam Peckinpah realisierte in einem unverwechselbaren, kraftvoll-poetischen Stil pessimistische Spät-Western wie "The Wild Bunch – Sie kannten kein Gesetz" (1969) oder "Pat Garrett jagt Billy the Kid" (1973). Peckinpahs sympathische Outlaws scheiterten – wie auch die liebenswerten Wildwest-Ganoven im Superhit "Zwei Banditen" (1969) – an einer massiv aufmarschierten Staatsmacht, die sie gnadenlos niederschoss. In dem unterhaltsam-satirischen Anti-Western "Little Big Man" (1969) spielte Dustin Hoffman einen freundlichen Anti-Helden inmitten der Indianerkriege. Die sympathischen Indianer des Films wurden von dem vermeintlichen Nationalhelden General Custer – der sich als Psychopath entpuppte – brutal abgeschlachtet. Robert Altman verweigerte sich in "McCabe & Mrs. Miller" (1971) allen Regeln des Genres und zeigte illusionslose Glücksritter in einer verschlammten Western-Stadt. In Arthur Penns "Duell am Missouri" lieferte Marlon Brando 1975 als bizarrer Killer die Travestie eines Western-Schurken. Für Sydney Pollack spielte Robert Redford die Rolle eines jungen Trappers, der die Schönheit und Grausamkeit der Rocky Mountains kennenlernt ("Jeremiah Johnson", 1971). Komödien. Der ehemalige Bühnenkomiker Woody Allen begann Ende der 1960er Jahre damit, die (Sexual-)Neurosen des modernen urbanen Mannes in originellen Komödien wie "Der Stadtneurotiker" (1977) zu thematisieren. Der bebrillte, schmächtige, hibbelige Allen, der als sein eigener Hauptdarsteller agierte, war einer der typischen Anti-Helden der Ära. Allen schrieb die Drehbücher, führte Regie und war der Hauptdarsteller. United Artists als sein Stammfilmverleih der 1970er Jahre ermöglichte ihm diese Freiheit und profitierte auch von dessen künstlerischen und kommerziellen Erfolg beim Publikum. Mel Brooks gelang eine Reihe origineller Genre-Parodien wie z.B. "Frankenstein Junior" (1974) oder "Silent Movie" (1976), in denen das klassische Hollywood respektlos, doch liebevoll verulkt wurde. Horrorfilme. George A. Romero begründete mit dem aggressiven No-Budget-Streifen "Die Nacht der lebenden Toten" (1969) den modernen Horrorfilm. Die Bedrohung ging von zu Zombies mutierten Bürgern aus. John Carpenter drehte eine Reihe brillanter, niedrig budgetierter Thriller wie "Assault – Anschlag bei Nacht" (1976) und "Halloween – Die Nacht des Grauens" (1978), die sich durch ihre düstere, pessimistische Grundhaltung auszeichneten. Im Horror-Kultfilm "Texas-Kettensägenmassaker" (1974) von Tobe Hooper wurden friedliche Hippies in der US-Provinz von psychopathischen Farmern abgeschlachtet. In "Rosemaries Baby" (1968), "Der Exorzist" (1973) und "Das Omen" (1976) sorgten „Teufelskinder“ für Angst und Schrecken – alle drei Filme konnten auch als Allegorien auf den damals aktuellen Generationenkonflikt interpretiert werden. Science Fiction. Der amerikanische Science-Fiction-Film dieser Ära zeichnet sich durch eine durchweg zivilisationskritische, pessimistische Stimmung aus. In "Planet der Affen" (1968) und "Der Omega-Mann" (1970) erlebt Charlton Heston in postapokalyptischen Welten beklemmende Abenteuer. "…Jahr 2022… die überleben wollen" (1973; wieder mit Heston) zeigt die Endphase der westlichen Zivilisation, die von Smog, Umweltverschmutzung und einem neuen Kannibalismus geprägt ist. In "Lautlos im Weltraum" (1972) von Douglas Trumbull werden die letzten Wälder des Planeten Erde in einem Gewächshaus-Raumschiff gepflegt (das auf höheren Befehl gesprengt werden soll). In "Andromeda – Tödlicher Staub aus dem All" (1971) von Regie-Veteran Robert Wise attackieren außerirdische Mikroorganismen ein Geheimlabor, in "Crazies" (1973) von George A. Romero lassen biologische Kampfstoffe friedliche Dorfbewohner zu Killern mutieren. ', 1968 von Stanley Kubrick in England gedreht, erzählt in vier Akten die Geschichte von Vormenschen in der afrikanischen Savanne zu einer Raumstation im Jahre 1999 und einer Reise zum Jupiter bis „hinter die Unendlichkeit“. John Carpenter zeigte in "Dark Star – Finsterer Stern" (1974) die absurden Abenteuer einer Raumschiffbesatzung, die damit beauftragt ist, „instabile Planeten“ zu sprengen. In "THX 1138" (1971) von George Lucas rebellieren die kahlgeschorenen Opfer einer aseptischen Zukunftsdiktatur gegen ihre Peiniger. "Phase IV" (1974) von Saul Bass zeigt ein Wissenschaftler-Team im vergeblichen Kampf gegen die überlegene Intelligenz eines Ameisen-Kollektivs. Ridley Scotts stilbildender Kultfilm "Alien – Das unheimliche Wesen aus einer fremden Welt" (1978) erzählte in alptraumhaften Bildern, wie eine Raumschiffbesatzung von einem unbesiegbaren Außerirdischen dezimiert wird. Eine totalitäre, post-apokalyptische Gesellschaft und deren Befreiung wird in "Flucht ins 23. Jahrhundert" (1976) von Michael Anderson gezeigt. Musikfilme. Die populäre Musik der 1960er und 1970er Jahre wurde in vielen "New-Hollywood"-Filmen als Soundtrack eingesetzt. Parallel dazu entstanden auch reine Musikfilme wie "Head" (1968), in dem Regisseur Bob Rafelson (nach einem Drehbuch von Jack Nicholson) die überdreht-psychedelischen Abenteuer der Retortenband The Monkees schilderte (Vorbild waren die stilprägenden Beatles-Filme von Richard Lester). D. A. Pennebaker dokumentierte in "Dont Look Back" (1967) eine Bob-Dylan-Tournee und in "Monterey Pop" (1968) das gleichnamige Musikfestival. Michael Wadleighs "Woodstock-Film" (1970) wurde zu einem Zeitdokument der Flower-Power-Generation. Martin Scorsese dokumentierte in "The Last Waltz" (1978) das Abschiedskonzert der Rock-Band The Band. Der Regisseur als "auteur". Bei den meisten New-Hollywood-Filmen gewann die Person des Regisseurs eine zentrale Bedeutung bei der Produktion. War in früheren Zeiten oft der Produzent oder Studioboss die entscheidende Figur bei der Herstellung eines Films, rückten die Regisseure nun in die wichtigste Machtposition vor. Die meisten von ihnen sahen sich in der Tradition des europäischen Autorenfilms als den so genannten „auteur“ ihrer Werke, der in die Produktion, die Drehbucherstellung, den Schnitt involviert war. Tatsächlich gingen viele der inhaltlichen und stilistischen Entwicklungen des New Hollywood auf die wegweisenden Filme der französischen Nouvelle Vague zurück. Die meisten New-Hollywood-Regisseure waren von den Qualitäten des europäischen Kinos begeistert und bewunderten Regisseure wie François Truffaut, Jean-Luc Godard, Jean Renoir, Ingmar Bergman, Federico Fellini, Luchino Visconti oder Michelangelo Antonioni. Sie hatten für die standardisierten Kommerzfilme Hollywoods nur Verachtung übrig und wollten einer individuellen Vision folgen. Sie wollten Filme drehen, die tiefgründig, subtil und künstlerisch relevant waren. Mehr noch als beim europäischen Autorenfilm blieb dabei der Kreis der Personen, die eine Chance erhielten, als Regisseur zu arbeiten, auf Männer beschränkt. Themen. New-Hollywood-Filme waren meist nahe an der gesellschaftlichen Realität und nahmen oft die Themen der Protestbewegungen auf, die gegen die erstarrten sozialen Strukturen und den Vietnamkrieg rebellierten und eine gesellschaftliche Liberalisierung forderten. In einigen New-Hollywood-Filmen wurde die populäre Musik dieser Ära eingesetzt: Bob Dylan, Cat Stevens, Simon and Garfunkel, The Doors, Steppenwolf, The Rolling Stones. New-Hollywood-Geschichten spielten nicht in einer hermetischen Traumwelt, sondern erzählten in der Regel von echten Menschen mit realen Problemen. Die Protagonisten wurden nicht heroisiert, sondern in ihren Handlungen und Motiven hinterfragt und analysiert. Viele von ihnen gingen an den Realitäten zugrunde oder wurden in ihrem – oft tödlichen – Scheitern zu Märtyrern, die „das System“ im moralischen Sinne besiegt hatten. Die Vertreter der staatlichen Autoritäten waren korrupt, psychopathisch, intrigant. Mächtige Männer und hohe Funktionsträger erwiesen sich als moralische Bankrotteure. Undurchsichtige Geheimdienst-Intrigen bedrohten harmlose Durchschnittsbürger. Hinter den Fassaden der Wohlanständigkeit taten sich Abgründe auf. Das New Hollywood spiegelte auf diese Weise die Verunsicherung und die Paranoia der Vietnam- und Watergate-Ära wider. Noch während das New Hollywood seine größten Erfolge feierte, wurde Präsident Richard Nixon als Lügner entlarvt und musste zurücktreten. Technik/Ästhetik. Auf der technischen Seite wurde die neue Art des Geschichten-Erzählens durch kleine, handliche Kameras und empfindlicheres Filmmaterial möglich. Die Filmemacher konnten die Studios verlassen und vor Ort drehen, teilweise in einem fast dokumentarischen Stil ohne zusätzliches Licht. Der typische Look vieler Filme dieser Ära hat genau diesen Charme des inszenierten Dokumentarfilms ("Asphalt-Cowboy", "Hexenkessel", "French Connection – Brennpunkt Brooklyn"). Dieser „realistische“ Ansatz, der den objektiven Blick auf die Welt zum Ausdruck bringen wollte, wurde oft kombiniert mit einer widersprüchlich scheinenden Technik, dem „Expressionistischen“ – einem erhöhten Einsatz von Stilmitteln, um die Subjektivität des Sehens zu unterstreichen. Vorläufer des realistischen Ansatzes waren vor allem die Werke von Dokumentarfilmern wie Richard Leacock, D. A. Pennebaker, David und Albert Maysles. Stars. Die Rollen im New-Hollywood-Kino wurden in der Regel nicht mit etablierten Hollywood-Stars besetzt (für die in den späten 1960ern in vielen Fällen ein Karriere-Abstieg begann). Stattdessen kamen unangepasste, unglamouröse, doch hochtalentierte Darsteller zum Einsatz, die einen ganz neuen Realismus in ihr Spiel einbrachten: Gene Hackman, Robert Duvall, Martin Sheen, John Cazale, Gene Wilder, Richard Dreyfuss, Donald Sutherland, Elliott Gould oder Bruce Dern. Viele von ihnen kamen vom New Yorker Off-Broadway und hätten im alten Hollywood-System bestenfalls Nebenrollen erhalten. Als die wichtigsten Schauspieler der Ära erwiesen sich Jack Nicholson, Robert De Niro, Dustin Hoffman und Al Pacino. Sie stiegen durch ihre intensiven Rollengestaltungen zu Superstars auf und konnten sich für Jahrzehnte an der Spitze von Hollywood halten. Andere Darsteller entsprachen zwar äußerlich dem Typus des Filmstars, brachten aber eine skeptische, „unglamouröse“ Grundhaltung in ihr Spiel ein. Steve McQueen, Warren Beatty und Robert Redford, die bereits Anfang der 60er Jahre in Hollywood aktiv gewesen waren, erreichten erst während der New-Hollywood-Ära Top-Star-Status. Beatty und Redford profilierten sich auch als Regisseure und Produzenten. Auch Ryan O'Neal, Burt Reynolds und Jon Voight spielten wichtige New-Hollywood-Rollen. Top-Stars, die bereits in den 1950er oder gar 1940er Jahren erfolgreich gewesen waren, z.B. Paul Newman und Burt Lancaster, arbeiteten ebenfalls für die wichtigsten Regisseure der Ära. Der legendäre Marlon Brando wurde nach einem jahrelangen Karrieretief erfolgreich reaktiviert und spielte unter anderem die berühmte Rolle des „Paten“. Da die New-Hollywood-Filme in der Regel „männliche“ Themen behandelten und mit männlichen Hauptdarstellern gedreht wurden, konnten sich während dieser Ära nur relativ wenige Schauspielerinnen durchsetzen. Wichtige Protagonistinnen des New-Hollywood-Kinos waren Meryl Streep, Faye Dunaway, Jane Fonda, Barbra Streisand, Diane Keaton, Jill Clayburgh, Ali MacGraw, Ellen Burstyn oder Karen Black. Weitere wichtige Protagonisten. Pauline Kael, Amerikas einflussreichste Filmkritikerin, förderte das New-Hollywood-Kino durch positive Artikel und Besprechungen und war mit einigen der Protagonisten befreundet. Friedkin, Bogdanovich und Polanski. In den frühen 1970er Jahren erreichte das New-Hollywood-Kino seinen künstlerischen und kommerziellen Höhepunkt. Regisseure, die kurz davor noch Low-Budget-Filme gedreht hatten, eroberten sich ein weltweites Massenpublikum. William Friedkin inszenierte 1971 mit "French Connection – Brennpunkt Brooklyn" den Prototyp des modernen Polizeifilms und zeigte Gene Hackman als fanatischen, latent rassistischen Drogenfahnder. Friedkin übertraf diesen Erfolg zwei Jahre später mit dem kommerziell sehr erfolgreichen, kontrovers diskutierten Horrorfilm "Der Exorzist". Der Film-Narr Peter Bogdanovich war zuerst mit dem melancholischen Coming-of-Age-Film "Die letzte Vorstellung" (1970) und dann mit der übermütigen Komödie "Is’ was, Doc?" (1972) sehr erfolgreich. Der Pole Roman Polański lebte seit vielen Jahren in Hollywood und überzeugte Kritik und Publikum mit dem doppelbödigen, brillant inszenierten Krimi "Chinatown" (1974), in dem Jack Nicholson eine denkwürdige Vorstellung als Privatdetektiv mit aufgeschlitzter Nase gibt. Francis Ford Coppola. Noch erfolgreicher war der Italo-Amerikaner Francis Ford Coppola, der 1972 mit dem Mafia-Epos "Der Pate" Kritik und Publikum faszinierte. "Der Pate", für viele der beste Film aller Zeiten, zeigte Marlon Brando in der gerne parodierten Rolle des barocken Mafia-Chefs, dessen altmodische Ehrbegriffe von seinen skrupellosen Nachfolgern und Konkurrenten nicht geteilt werden. Mit dem ebenso brillant inszenierten Nachfolger "Der Pate II" (1974) und dem faszinierenden Vietnam-Epos "Apocalypse Now" (1979) etablierte sich Coppola als wichtigster Regisseur der 1970er Jahre. Den Filmen von Coppola, Friedkin und Bogdanovich ist gemein, dass sie den radikalen Chic des New Hollywood in einen gemäßigten, massentauglichen Stil transformierten. Dass sie damit auch den Niedergang des New Hollywood einläuteten, indem sie das Blockbuster-Kino erfanden, konnte wohl niemand ahnen. Martin Scorsese. Regisseur Martin Scorsese war Italo-Amerikaner wie Coppola. Wie dieser und viele andere New-Hollywood-Stars und -Regisseure kam er aus der Schule des B-Movie-Produzenten Roger Corman, der sich ein gut funktionierendes und sehr lukratives Off-Hollywood-Studiosystem aufgebaut hatte. Hier erlernten die späteren Regie-Stars ihr Handwerk, und Darsteller wie Nicholson, Hopper, De Niro, Dern oder Sylvester Stallone spielten bei Corman ihre ersten Rollen. Scorsese überzeugte zunächst 1973 mit "Hexenkessel", einem betont realistischen Porträt New Yorker Straßenganoven. 1976 gelang ihm mit "Taxi Driver" ein zeitloses Meisterwerk. Robert De Niro brillierte in der Rolle eines entwurzelten Vietnam-Veteranen, der in den Straßen von New York einen Rachefeldzug startet. Das beklemmende Boxerdrama "Wie ein wilder Stier" – mit einer legendären Darstellung De Niros – wurde 1980 ein weiterer Klassiker. Bis Mitte der 1970er Jahre drehten etablierte New-Hollywood-Veteranen wie Nichols, Altman oder Penn mit wechselndem, oft nachlassendem Erfolg regelmäßig Filme. Andere Regisseure wie z.B. George Roy Hill, Sydney Pollack, Miloš Forman oder Alan J. Pakula fertigten in einem modernen, interessanten, kommerziell erfolgreichen Stil Filme wie "Der Clou" (1973), "Einer flog über das Kuckucksnest" (1975) oder "Die Unbestechlichen" (1976), die sich dezent die Traditionen des New Hollywood nutzbar machten, aber betont massenkompatibel inszeniert wurden. Lucas, Spielberg und das Blockbuster-Kino. Der Niedergang des New Hollywood vollzog sich parallel zum Aufstieg der Regisseure George Lucas und Steven Spielberg. Der ehemalige Fernsehregisseur Spielberg, der mit dem Thriller "Duell" (1971) auf sich aufmerksam gemacht hatte, war mit der ambitionierten Bonnie-&-Clyde-Variante "Sugarland Express" (1973) an den Kinokassen nicht erfolgreich. Sein Nachfolgefilm "Der weiße Hai" (1975) wurde dagegen ein kommerzieller Hit. "Der weiße Hai" wurde zu einer Art Blaupause für alle künftigen Sommer-Blockbuster. Mit dem optimistischen, visuell spektakulären UFO-Film "Unheimliche Begegnung der dritten Art" setzte Spielberg 1978 ein deutliches Gegengewicht zu den apokalyptischen Science-Fiction-Visionen der vorangegangenen Jahre. Noch erfolgreicher als Spielberg war zu dieser Zeit George Lucas, dem 1973 mit dem wehmütigen "American Graffiti" ein erster Hit gelungen war. 1977 sprengte er mit dem Weltraumabenteuer "Krieg der Sterne" alle Rekorde und etablierte eine Art popkulturelle Ersatzreligion. "Krieg der Sterne" war ein guter, emotional ansprechender Science-Fiction-Film, der den Kampf zwischen Idealisten (Gut) und Egoisten (Böse) glorifiziert. Auf Jahrzehnte hinaus definierte er die neue, global akzeptierte Hitfilm-Formel von Hollywood (die Guten besiegen die Bösen, der Junge kriegt das Mädchen, viele Spezialeffekte). Der Blockbuster-Film inklusive weltweitem Merchandising (zwei Fortsetzungen und drei Prequels) wurde zu einem Erfolgsrezept, das Hollywood bis heute anwendet. Die 1980er Jahre. Während der Reagan-Ära der 1980er Jahre etablierte sich ein optimistisch-patriotisches Hit-Kino ("Rambo 2 – Der Auftrag", "Top Gun"). Spielberg und Lucas festigten ihre Position, indem sie als Regisseure/Produzenten im Fließband-Stil kommerziell höchst erfolgreiche Serienfilme herstellten ("Krieg der Sterne", "Indiana Jones", "Zurück in die Zukunft"), die harmloses Entertainment boten und durch teure Spezialeffekte aufgewertet wurden. Aufwändige Actionfilme ohne inhaltliche Ambitionen wie "Aliens – Die Rückkehr" oder "Stirb langsam" wurden zu weltweiten Hits und begründeten ein erfolgreiches neues Sub-Genre. Die Oberflächenreize von Werbespots und Musikvideos wurden erfolgreich für die große Leinwand adaptiert ("Flashdance", "2 Wochen"). Wichtige New-Hollywood-Filmemacher wie Coppola, Penn oder Nichols drehten währenddessen als Auftragsregisseure Routinefilme. Die Karrieren von Friedkin, Bogdanovich, Ashby, Altman, Scorsese stagnierten. Die Ära des New Hollywood war für immer vorbei, auch wenn Veteranen wie Altman oder Scorsese in den 1990er Jahren bei der Kritik wieder Erfolge feierten. Nikolaus Kopernikus. a> nach einem angeblichen Selbstportrait von Kopernikus gefertigt wurde. Dieses Portrait wurde zur Vorlage einer Reihe weiterer Holzschnitt-, Kupferstich- und Gemälde-Portraits von Kopernikus. Unterschrift als "Nic. Coppernicus" Nikolaus Kopernikus (* 19. Februar 1473 in Thorn; † 24. Mai 1543 in Frauenburg; eigentlich Niklas Koppernigk, latinisiert Nicolaus Cop[p]ernicus, polonisiert Mikołaj Kopernik), war ein Domherr des Fürstbistums Ermland in Preußen, der sich in seiner freien Zeit der Astronomie, Mathematik und Kartographie widmete. In seinem Hauptwerk "De revolutionibus orbium coelestium" beschreibt er das heliozentrische Weltbild unseres Sonnensystems, nach dem sich die Erde um die eigene Achse dreht und sich zudem wie die anderen Planeten um die Sonne bewegt. Darüber hinaus beschreibt er darin erstmals die langsame Rückwärtsdrehung der Erdachse als Ursache für die Verschiebung des Frühlingspunktes, die Präzessionsbewegung. Kopernikus revolutionierte das bis dahin vorherrschende geozentrische Weltbild und steht damit am Beginn der neuzeitlichen Astronomie. Herkunft. Nikolaus Kopernikus war der Sohn des Niklas Koppernigk, eines wohlhabenden Kupferhändlers und Schöffen in Thorn, und seiner Frau Barbara Watzenrode. Die Familie Koppernigk gehörte zur deutschsprachigen Bürgerschaft der Hansestadt Thorn, die sich im Dreizehnjährigen Krieg aus dem Deutschordensstaat gelöst hatte und sich 1467 als Teil des Königlichen Preußen dem König von Polen als Schutzherrn unterstellte. Kopernikus Vater war zwischen 1454 und 1458 aus Krakau, wo er als Kupferhändler tätig gewesen war, nach Thorn umgesiedelt. Die Familie mütterlicherseits war ebenfalls wohlhabend. Sie stammte ursprünglich aus Wazygenrode. 1370 kam sie nach Thorn, wo Kopernikus Großvater Lukas Watzenrode (der Ältere) ab 1440 als Schöffe und später als Schöffenmeister tätig war. Als sein Vater 1483 starb, war Nikolaus zehn Jahre alt. Der Bruder seiner Mutter, Lucas Watzenrode, seit 1489 Fürstbischof von Ermland, sorgte nach dem Tod beider Eltern für die Ausbildung der vier Waisen. Der ältere Bruder Andreas wurde wie Nikolaus ebenfalls Domherr in Frauenburg, erkrankte aber um 1508 an Aussatz, wurde später ausgeschlossen und starb um 1518 vermutlich in Italien. Die ältere Schwester Barbara Koppernigk wurde Äbtissin im Kloster von Kulm, die jüngere Katharina heiratete Barthel Gertner, einen Krakauer Kaufmann. Ausbildung. Kopernikus wurde zunächst an der Sankt-Johannes-Schule in Thorn ausgebildet. In den Jahren 1488 bis 1491 besuchte er eine höhere Schule. Während manche Kopernikusforscher diese Schule in Leslau (Włocławek) sehen möchten, sprechen zahlreiche Gründe eher für einen Besuch des Partikulars der Brüder vom gemeinsamen Leben in Kulm (Chełmno), insbesondere die enge Verbindung der Familien Koppernigk und Watzenrode zu dieser Nachbarstadt von Thorn, wo mehrere weibliche Verwandte von Kopernikus im Zisterzienserinnen-Kloster lebten, unter anderem Kopernikus’ Stieftante Katharina und später auch seine Schwester Barbara als Äbtissinnen. Auch Lukas Watzenrode zog es besonders nach Kulm, sodass er 1488 auf dem polnischen Reichstag in Petrikau sogar beantragte, das Kulmer Domkapitel, dem er damals selbst angehörte, von Kulmsee (Chełmża) nach Kulm zu verlegen. Von 1491 bis 1494 besuchte Kopernikus gemeinsam mit seinem Bruder Andreas die Universität Krakau. Er war dort unter anderem Schüler von Albert de Brudzewo, erlangte dort aber keinen Abschluss. Während dieser Zeit lernte er auch den schlesischen Gelehrten Laurentius Corvinus kennen, der später in Thorn tätig war. 1495 wurde Kopernikus zum Kanoniker der ermländischen Domschule in Frauenburg ernannt. Sein Onkel Watzenrode schickte ihn an die Universität Bologna, wo er zum Wintersemester 1496/1497 ein Studium beider Rechte begann. In Bologna studierte Kopernikus neben Griechisch bei Urceus Codrus auch Astronomie und lernte bei Domenico Maria da Novara neuere Theorien zur Bewegung der Planeten kennen. Er erwarb sich dort den Titel eines Magister artium. 1500 verließ Kopernikus Bologna und verbrachte anlässlich des Heiligen Jahres einige Zeit in Rom, bevor er 1501 nach Frauenburg zurückkehrte. Er erbat eine Genehmigung für eine Verlängerung seines Studienaufenthaltens in Italien und begann noch im selben Jahr ein Medizinstudium an der Universität Padua. Parallel dazu setzte er sein Jurastudium fort. Während dieser Zeit wurde Kopernikus das Amt eines Scholastikers der Breslauer Kreuzkirche übertragen, das er nicht persönlich ausübte, jedoch bis kurz vor seinem Tod innehielt. Kopernikus und sein Bruder Andreas, welcher ebenfalls eine Studienerlaubnis erhalten hatte, hielten sich zeitweilig auch bei der Kurie in Rom als Bevollmächtigte des Frauenburger Domkapitels auf. Zum Doktor des Kirchenrechts ("Doctor iuris canonici") wurde Kopernikus am 31. Mai 1503 an der Universität Ferrara promoviert. Einen akademischen Grad in Medizin erwarb er nicht. Tätigkeit als Arzt und Administrator. a>, den Kopernikus mehrere Jahrzehnte bis zu seinem Tode 1543 besaß. 1503 kehrte er ins Ermland zurück und begann zunächst als Sekretär und Arzt für seinen Onkel Lucas Watzenrode, den Fürstbischof des Ermlandes, zu arbeiten. Kopernikus wurde Arzt und bekam durch seinen Onkel eine Stelle im ermländischen Domkapitel in Frauenburg, "in hoc remotissimo angulo terræ" („im hintersten Winkel der Welt“), wie er die Lage seiner Arbeitsstätte in der Vorrede an den Papst in seinem Hauptwerk beschrieb. Watzenrode plante, seinen Neffen ebenfalls Fürstbischof werden zu lassen. Kopernikus hatte als Administrator die Regierungsgeschäfte zu regeln. In den Verhandlungen über die Reform des preußischen Münzwesens erarbeitete er die Position der preußischen Städte. Er gab dazu ein Schreiben heraus, das noch Jahrhunderte später als wegweisend für die Geldtheorie angesehen wurde. Im Jahr 1504 beteiligte sich Kopernikus an den Preußischen Landtagen in Marienburg und Elbing, 1506 sprach er auf der Preußischen Ständeversammlung in Marienburg. Trotz der schwierigen Lage in Preußen, wo Städte und Menschen für und gegen die katholische Regierung kämpften, konnten Watzenrode, als Fürstbischof zugleich Landesherr, und sein Neffe Kopernikus die Eigenständigkeit des Ermlands gegenüber dem Orden und Selbstverwaltungsbefugnisse gegenüber der polnischen Krone bewahren. Zum Kanzler des Ermländer Domkapitels wurde Kopernikus 1510, 1519, 1525 und 1528 gewählt. Im Jahr 1510 unternahm Kopernikus als erste Amtshandlung als Kanzler, gemeinsam mt dem späteren Fürstbischof Fabian von Lossainen, eine Reise nach Allenstein. Im folgenden Jahr nahm er als Vertreter seines Onkels an der Hochzeit von Sigismund I. teil. Nach dem Tode des bisherigen Ermländer Bischofs Mauritius Ferber wurde Kopernikus 1537 von Tiedemann Giese als Bischof vorgeschlagen, unterlag jedoch Johannes Dantiscus von Höfen. In den kriegerischen Auseinandersetzungen zwischen dem Deutschen Orden und Polen vertrat Kopernikus genau wie sein Onkel die Seite des Preußischen Bundes, welcher mit Polen gegen den Deutschen Orden verbündet war. Nach der Zerstörung Frauenburgs durch Truppen Albrechts I. von Brandenburg-Ansbach 1520 im sogenannten Reiterkrieg verlegte Kopernikus seine Residenz nach Allenstein. Dort organisierte er die Verteidigung der Stadt gegen die Ordensritter. Kopernikus kehrte 1521 nach Frauenburg zurück. Er wurde Teil einer königlich-polnischen Gesandtschaft zum Hochmeister des Ordens und Kommissar von Ermland zur Rückerstattung von Besitztümern der polnischen Krone. Von König Sigismund von Polen erlangte er die Freigabe ermländischer Orte, die von (befreundeten) polnischen Truppen besetzt waren. Eine Freigabe von Orten, die von Truppen des Deutschen Ordens besetzt waren, war jedoch nicht zu erreichen. Kopernikus praktizierte noch in seinem 69. Lebensjahr als Arzt, als Herzog Albrecht sich am 6. April 1541 schriftlich mit der Bitte an ihn wandte, dem erkrankten Georg von Kunheim der Ältere, Hauptmann auf Tapiau, zur Seite zu stehen. Für seinen Schriftverkehr benutzte Kopernikus bis ins hohe Alter entweder die lateinische oder die deutsche Sprache. Eigene Beobachtungen. Dreistab (Triquetum) von Nikolaus Kopernikus Kopernikus betätigte sich als beobachtender Astronom, allerdings mit Hilfsmitteln, die - gemessen an den Möglichkeiten seiner Zeit - recht primitiv waren. Welcher Art seine Instrumente waren, ist nicht genau bekannt; gesichert scheint nur die Benutzung eines Dreistabs. Es sind nur 63 eigene Beobachtungen bekannt, von denen er nur einen kleineren Teil für sein Hauptwerk verwendete. Die von ihm angestrebte Genauigkeit lag bei 10 Bogenminuten, welche er zum Teil erheblich verfehlte, während Tycho Brahe nicht wesentlich später bereits die Genauigkeit einer halben Bogenminute erreichte. Copernicus stützte sein Hauptwerk weitestgehend auf die ihm zur Verfügung stehenden antiken Daten. Entstehungsgeschichte "Über die Umschwünge der himmlischen Kreise". In seinem unveröffentlichten "Commentariolus" stellte Kopernikus seine Theorie vom Umlauf der Planeten um die Sonne und der durch die Drehung der Erde bedingten scheinbaren Bewegung der Fixsterne auf. Kurz vor seinem Tode im Jahre 1543, veröffentlichte er seine Schrift "De revolutionibus orbium coelestium", in der er die Präzession des Frühlingspunktes durch eine langsame Bewegung der Erdachse erklärte. Kopernikus benutzte bei der Beschreibung der Planetenbahnen Überlagerungen von gleichförmigen Kreisbewegungen mit einem Zentrum in der Nähe der Sonne. Sämtliche Vorgänger von Kopernikus folgten der Auffassung Hipparchs, der als Ursache für die Präzession eine langsame Drehung der Fixsternsphäre annahm. Kopernikus’ Freunde, insbesondere Bischof Tiedemann Giese und Nikolaus Kardinal von Schönberg, sowie Johannes Dantiscus von Höfen, versuchten Kopernikus zur Veröffentlichung seiner astronomischen Arbeiten zu bewegen. Kardinal Schönberg bot an, die Kosten des Buchdrucks zu tragen. Lange zögerte er damit, möglicherweise weil seine teilweise ungenauen, auf Aristoteles’ Vorstellung – der Kreis als idealharmonisch-vollkommenes mathematisches Gebilde – beruhenden Berechnungen der Planetenbahnen nicht durch Beobachtungen gestützt werden konnten; deshalb war eine Ablehnung durch das wissenschaftliche oder kirchliche Establishment zu befürchten. a> von "De revolutionibus orbium coelestium" Mit Hilfe von Georg Joachim Rheticus wurde 1540 vorab die "Narratio prima" bei Rhode in Danzig gedruckt. Kurz vor Kopernikus’ Tod im Jahre 1543 erfolgte dann bei Johannes Petreius in Nürnberg die Veröffentlichung des Papst Paul III. gewidmeten Hauptwerkes "De revolutionibus orbium coelestium" ("Über die Umschwünge der himmlischen Kreise"). Kopernikus war nicht der erste Wissenschaftler an der Wende zur Neuzeit, der ein heliozentrisches System in Betracht zog. Vor ihm wurde dieser Gedanke von Nikolaus von Kues, dem allerdings die Mittel für eine mathematische Ausarbeitung fehlten, und von Regiomontanus diskutiert, dessen früher Tod seinem Werk ein vorzeitiges Ende setzte. Kopernikus baute auf den Werken dieser beiden Wissenschaftler auf. Der Reformator Andreas Osiander hatte zudem eigenmächtig und anonym ein Vorwort hinzugefügt, in dem das neue Weltbild als bloßes Rechenhilfsmittel dargestellt wird, als mathematische Hilfskonstruktion zur einfacheren Berechnung der Planetenbahnen. Damit hatte er aber Kopernikus’ Aussagen verfälscht und widersprüchlich gemacht. Tatsächlich waren die von Erasmus Reinhold nach Kopernikus’ Modell neu erstellten preußischen Tafeln leichter zu berechnen als die älteren alfonsinischen Tafeln. Nachwirkung. Entgegen einer landläufigen Ansicht wurde die Propagierung des heliozentrischen Weltbildes zu Kopernikus’ Zeiten keineswegs als Ketzerei angesehen, sondern allenfalls als Hirngespinst. Immerhin schien ja das geozentrische System wesentlich besser mit dem gesunden Menschenverstand übereinzustimmen als eine sich bewegende Erde: Bei der Bewegung müsste man doch einen Fahrtwind spüren, fallende Gegenstände eine schräge Bahn besitzen, auch sollten die Fixsterne im Jahresverlauf eine scheinbare Kreisbewegung ausführen, argumentierten die Gegner des Kopernikus entsprechend der Lehre des Ptolemäus. Von Martin Luther ist eine kritische Äußerung über die zentrale These des Kopernikus überliefert: unter Berufung auf, die aus Luthers wörtlichem Verständnis des Bibeltextes resultiert. Nach dieser Bibelstelle ließ Gott die Sonne für einen Tag stillstehen, woraus Luther folgerte, dass sie normalerweise in Bewegung sein müsse. Galilei zeigte, dass dieser Gedankengang keineswegs zwingend war, sondern der Effekt des Joshua–Wunders im heliozentrischen Weltbild besser beschrieben werden kann als im geozentrischen. Eine Ablehnung der heliozentrischen Lehre erfolgte von protestantischer Seite, allen voran Luther und Melanchthon. Letzterer behauptete im Jahre 1549 in seiner Schrift "Initia doctrinae physicae", die Lehre des Kopernikus sei lediglich eine Erneuerung oder Wiederholung der heliozentrischen Theorie des antiken Astronomen Aristarchos von Samos, welche Archimedes in seiner sogenannten „Sandrechnung“ beschrieb. Tatsächlich wurden die "Opera Archimedis" (Werke des Archimedes) aber erst im Jahre 1544, also ein Jahr nach dem Tode von Kopernikus, erstmals veröffentlicht. Zu seinen Lebzeiten war nur die bis heute einzig erhaltene Schrift Aristarchs "Über die Größe und Entfernungen der Sonne und des Mondes" bekannt, die Aristarch aus geozentrischer Sichtweise schrieb. Das von Kopernikus im "Commentariolus" beschriebene heliozentrische System kann daher nicht auf Aristarch beruhen. Deshalb konnte Kopernikus auch im Bemühen, zu belegen, dass er durchaus nicht der einzige sei, der das ptolemäische Weltbild als unzutreffend ansieht, stets nur auf die Lehren des Philolaos, des Eudoxos von Knidos und des Herakleides von Pontos verweisen. Dennoch schlich sich das Fehlurteil von der aristarchischen Anregung des Kopernikus in die Wissenschaftsgeschichte ein. Da im Autographen von "De revolutionibus" am Ende des ersten Buches neben Hiketas, Philolaos, Ekfantes, den Pythagoräern und Herakid aus Pont auch Arystarch aus Samos genannt wird und erst für die Druckversion gestrichen wurde, ist belegt, dass Copernicus Aristarch kannte. Neben dem Vorwort in Archimedes "Sandrechner" kommen hier Aetius, Vitruv und Plutarch (z.B. "De facie in orbe lunae", c. 6, 922 F - 923 A) in Betracht. Während das Werk des Kopernikus zunächst als reines Rechenmodell verwendet wurde, lieferten die Beobachtungen von Galileo Galilei von 1610 an überzeugende Argumente für die physikalische Realität des heliozentrischen Systems. Den physikalischen Nachweis konnten aber erst James Bradley 1728 mit der Entdeckung der Aberration des Lichtes und 1838 Friedrich Wilhelm Bessel mit der ersten sicheren Bestimmung der Fixsternparallaxe erbringen. Johannes Kepler fand mit den ellipsenförmigen Planetenbahnen, die er in seinen drei Gesetzen beschrieb, das korrekte mathematische Modell. Isaac Newton lieferte mit dem Gravitationsgesetz schließlich die physikalische Begründung der Keplerschen Gesetze, auf die sich das heliozentrische Weltbild stützt. Ökonomie und Münzwesen. Im Deutschordensstaat bestand eine einheitliche und verhältnismäßig wohl geregelte Währung. Mit seinem im 15. Jahrhundert einsetzenden Niedergang gestalteten sämtliche inzwischen vorhandenen Münzherren (Hochmeister, Könige von Polen, westpreußischer Städtetag) ihre Münzen ständig leichter. Kopernikus hat sich ab 1517 mit dem Münzwesen beschäftigt und dabei als erster die Quantitätstheorie des Geldes formuliert, wonach Inflation durch eine Zunahme der Geldmenge entsteht. Er nahm regelmäßig in beratender Funktion an Besprechungen zur Erarbeitung einer neuen Münzordnung teil. In seinen Münzdenkschriften ging Kopernikus als theoretisch geschulter Denker zur Klärung der praktischen Probleme auf die Begrifflichkeit zurück und fand dabei die Doppelfunktion des Geldes, zugleich Maßstab der Preise und Zirkulationsmittel zu sein. Bereits vor Thomas Gresham formulierte er das später so genannte Greshamsche Gesetz, wonach schlechtes Geld mit geringem Edelmetallgehalt gutes Geld mit hohem Edelmetallgehalt verdrängt. Die Angelegenheit wurde durch den polnischen König Sigismund I. in seiner Münzordnung von 1528, pragmatisch und ohne Berücksichtigung der Erkenntnisse des Kopernikus vorläufig entschieden. Außer seiner Macht als oberster Landesherr hatte der König den Vorteil, dass seine Position sich etwa zwischen der der Stände und der des Herzogs befand. Die preußischen Städte behielten ihre vorherigen Rechte zum eigenen Münzschlagen. Die vergleichbaren Münzwerte königlich- und herzoglich-preußischer, polnischer und litauischer Währung schufen das größte Währungsgebiet des damaligen Europas. Die von Kopernikus entworfene Brotpreisordnung war Teil seiner administrativen Tätigkeit. Die Ordnung zeichnet sich durch für die Zeit untypische mathematische Betrachtungen aus. Kopernikus stellt einen funktionalen Zusammenhang her, der zu einer Hyperbel führt, die im 16. Jahrhundert analytisch nicht zu beschreiben war. Er widmet sich darin einem Problem, das vermutlich bereits römischen Ursprungs und in der praktischen Mathematik unter dem Begriff des Pfennigbrotes bekannt ist. Ignaz Jastrow schätzt ein, dass Kopernikus’ ökonomische Schriften "schlechterdings die bedeutendste geldtheoretische Leistung des 16. Jahrhunderts" sind. Kopernikus war "der bedeutendste ökonomische Denker nach Aristoteles und vor der bürgerlich klassischen Epoche der Wirtschaftstheorie, er war der erste, der die naturalwirtschaftlichen Schranken, die dem ökonomischen Denken des ausgehenden Mittelalters noch gezogen waren, durchbrach, indem er das Steigen und Sinken des Geldwertes widerspruchsfrei erklärte, dadurch die Gesetzmäßigkeiten dieser Bewegung erkannte und anerkannte und sie folglich als einen ausschließlich ökonomisch denkbaren Sachverhalt behandelte." Kartographie. Kopernikus arbeitete 1526 zusammen mit Bernard Wapowski an der Landkarte des vereinigten Staates Königreich Polen–Großfürstentum Litauen, 1529 verfertigte er auch eine Landkarte des Herzogtums Preußen. Georg Joachim Rheticus, bis dahin Hochschullehrer in Wittenberg, kam 1539 für drei Jahre nach Frauenburg, um mit Kopernikus zu studieren. Der Altar des Kopernikus im Dom zu Frauenburg. Jedem der 16 Domherren in Frauenburg war einer der 16 Säulenaltäre des Kirchenschiffes zugeordnet. Die Frage, welches der Altar von Kopernikus war, ist bisher nicht vollständig geklärt. Der Kopernikus-Forscher Leopold Prowe entschied sich im Jahre 1866 für den siebten Säulenaltar der rechten Reihe, erstens weil die Domherren üblicherweise an ihrem Altar bestattet wurden und sich in unmittelbarer Nähe dieses Altars das Kopernikus-Epitaph des ermländischen Bischofs Martin Cromer befand, welches nach dessen Beschluss an der Domwand beim Grab von Kopernikus angebracht wurde, zweitens weil dieser Altar der vierzehnte Altar ist, wenn man die Zählung mit dem Altar des Dompropstes beginnt und dann abwechselnd von links nach rechts weiterzählt. Prowe sah darin eine Verbindung zum vierzehnten Numerarkanonikat, das Kopernikus innehatte. Im Jahre 1942 veröffentlichte Hans Schmauch einen Beschluss des Frauenburger Domkapitels vom 11. Januar 1480, durch den die Altäre den Domherren neu zugeordnet wurden als sie nach fünfundzwanzigjähriger Abwesenheit (wegen Kriegszeiten) nach Frauenburg zurückgekehrt waren. Es wurde festgelegt, dass die Domherren stets den Altar ihres Vorgängers zu übernehmen haben. Die Möglichkeit der Option eines Altars wurde nur für den Fall eingeräumt, dass der Altar des Vorgängers nicht mehr zu bestimmen war oder „wenn einzelne Altäre infolge der Erwählung ihrer bisherigen Inhaber zu Prälaten [Propst, Dechant, Kustos oder Kantor] freigeworden waren“. Da nun dem Vorgänger von Kopernikus im vierzehnten Numerarkanonikat, Johannes Zanau, der vierte Säulenaltar der rechten Reihe zugeordnet wurde, schloss Schmauch daraus, dass diesen Altar nach Zanaus Tode statutengemäß sein Nachfolger Nikolaus Kopernikus übernahm. Diese Schlussfolgerung sah Schmauch dadurch gesichert, dass auch spätere Nachfolger von Kopernikus im vierzehnten Numerarkanonikat in den Jahren 1562 bis 1639 diesen Altar innehatten. Bezüglich Kopernikus selbst und seinen unmittelbaren Nachfolger Johannes Loitze wurden diesbezüglich bisher jedoch keine urkundlichen Belege gefunden. Auf Schmauchs Schlussfolgerung erwiderte Eugen Brachvogel in einem Artikel desselben Jahres, dass bei einer Prälatenbeförderung ein Domherr stets einen Altar frei gab, um seinen Prälaturaltar zu übernehmen. Der Domherr, der den freigewordenen Altar übernahm, gab aber ebenfalls einen alten Altar frei, der wiederum von einem anderen Domherrn übernommen werden konnte, sodass ein Prälaturwechsel gleich mehrere Altarwechsel zur Folge hatte oder zumindest haben konnte. Brachvogel räumte daher die Möglichkeit ein, dass Kopernikus im Jahre seines Todes durchaus den sechsten oder siebten Säulenaltar der rechten Reihe – wie von Prowe vermutet – innegehabt haben konnte und deshalb dort auch bestattet sei. Da zwischen 1480, als Johannes Zanau, der Vorgänger von Kopernikus, den vierten Säulenaltar der rechten Reihe zugeordnet bekam, und 1495, als Kopernikus zum Domherr ernannt wurde, keine Prälaturwechsel stattfanden, ist davon auszugehen, dass Kopernikus dessen Altar übernahm. In den folgenden 48 Jahren bis zu Kopernikus Tod fanden jedoch mindestens 16 Prälaturwechsel mit sicherlich noch mehr nachfolgenden Altarwechseln statt. Es kann deshalb nicht als gesichert angesehen werden, dass Kopernikus im Jahre seines Todes noch denselben Altar innehatte, den er bei seiner Amtsübernahme zugeordnet bekam. Andererseits kann dies aber auch nicht ausgeschlossen werden. Kopernikus-Epitaph von Bischof Cromer (1581). Cromer ließ 1581 ein Epitaph zum Gedenken an Kopernikus an der Außenwand des Domes nahe dem siebten Säulenaltar der rechten Reihe anbringen. Da sich die Besucher nicht darüber beschwerten, dass das Grab nicht mehr genau zu lokalisieren sei, sondern nur darüber, dass eine würdigende Gedenktafel fehle, war zu dieser Zeit die Lage des Grabes offensichtlich noch genauestens bekannt. Dafür spricht auch, dass Cromer keineswegs den Auftrag, erteilte, die genaue Stelle im Dom erst einmal ausfindig zu machen. Vielmehr erteilte er den klaren schriftlichen Auftrag, das Epitaph „an der Wand bei dessen Grab anzubringen“ "(parieti ad sepulcrum eius affigi)". Der im Jahre 1551, d. h. nur acht Jahre nach dem Tod von Kopernikus, als Domherr nach Frauenburg gekommene Cromer hatte zudem ausreichend Gelegenheit, mit noch lebenden Zeugen von Kopernikus’ Beisetzung aus dem Kreise der Domherren zu sprechen. Wie wichtig Cromer dieses Epitaph war, sieht man daran, dass er dessen Inschrift selbst verfasste und auch die gesamten Kosten für seine Herstellung und Anbringung übernahm. Es darf deshalb als gesichert gelten, dass Kopernikus im Domboden vor der Außenwand in der Nähe des siebten Säulenaltars der rechten Reihe beigesetzt wurde. Allerdings kann daraus nicht unbedingt geschlossen werden, dass Kopernikus auch den siebten Säulenaltar innehatte. Die Bestattung beim Altar war damals zwar üblich, aber Ausnahmen kamen dabei ebenso vor wie beim Wechsel der Altäre im Falle einer Prälatenbeförderung. Cromer schreibt in seinem Brief auch nicht "ad altare", sondern "ad sepulcrum". a> im Frauenburger Dom an der zweiten Säule links, 1735 In den folgenden Jahrhunderten schwand das kirchliche Interesse an einer Würdigung von Kopernikus, nachdem im Jahre 1616 einige Stellen aus seinem Hauptwerk "De revolutionibus" in den Index der verbotenen Bücher aufgenommen worden waren. So musste im 18. Jahrhundert das Cromersche Epitaph weichen, als im Jahre 1746 an derselben Stelle, wenige Meter östlich des Eingangs zu einer vierzehn Jahre vorher von dem ermländischen Bischof Christoph Andreas Johann Szembek errichteten Seitenkapelle, zusätzlich ein Wanddenkmal zum Gedenken Szembeks nach dessen Tode angebracht wurde. Zwar sollte das Cromersche Kopernikus-Epitaph nach urkundlichen Belegen in unmittelbarer Nähe wieder angebracht werden. Dieses Vorhaben wurde aber letztlich nicht ausgeführt und das Epitaph ging verloren. Kopernikus-Grabmal mit Sarg (2010). a> an der vierten Säule rechts (2010) Der Lokalhistoriker Jerzy Sikorski griff 2004 die Vermutung Hans Schmauchs wieder auf, dass die Grabstätte, falls noch vorhanden, sich nahe dem heutigen Heilig-Kreuz-Altar (vierte Altarsäule rechts) befinden müsse. Auf Anregung des zuständigen Bischofs begann ein Team um den polnischen Archäologen Jerzy Gassowski mit Nachforschungen. Im Sommer 2005 entdeckte es in Altarnähe die Überreste von 13, teilweise stark beschädigten Gräbern, eines davon mit den Überresten und dem Schädel eines 60 bis 70 Jahre alten Mannes. Im November 2005 wurde anhand des Schädels eine Rekonstruktion des Gesichtes erstellt. Zur Identifizierung sollte eine DNA-Analyse folgen. Eine Suche nach noch lebenden Verwandten von Kopernikus in maternaler Linie verlief ergebnislos, da nur eine seiner Schwestern Nachkommen hatte und deren maternale Nachkommen nur bis ins 18. Jahrhundert verfolgt werden konnten. In einem Buch, das einst im Besitz von Kopernikus war und dann als Kriegsbeute der Polnisch-Schwedischen Kriege des 17. Jahrhunderts in die Bibliothek der Universität Uppsala gelangt war (Calendarium Romanum Magnum), fanden sich neun Haare. Von vier Haaren konnte brauchbares genetisches Material gewonnen werden. Sie gehörten zu drei verschiedenen Personen. Am 20. November 2008 gaben der polnische Archäologe Jerzy Gassowski und die schwedische DNA-Expertin Marie Allen bekannt, dass die DNA-Analyse von zwei Haaren aus dem Buch und von einem Zahn des gefundenen Schädels ergab, dass beide mit hoher Wahrscheinlichkeit dem Astronomen zugeordnet werden können. Allerdings ergab die DNA-Analyse auch, dass der Schädel zu einem Menschen mit heller (blauer oder grauer) Augenfarbe gehörte, was von allen historischen Farbporträts von Kopernikus abweicht, auf denen er stets mit dunkelbraunen Augen und dunklen Haaren abgebildet ist. Auf einer Kopernikus-Konferenz 2010 in Krakau wurde die Gen-Analyse von mehreren Wissenschaftlern diskutiert. Denkmäler. 1807 wurde im Auftrag von Kronprinz Ludwig von Bayern von Johann Gottfried Schadow eine der ersten Kopernikus-Büsten angefertigt, die in der 1842 eröffneten Walhalla ausgestellt ist, was zu polnischem Protest führte. Eines der ersten kompletten Kopernikus-Denkmäler wurde vom dänischen Bildhauer Bertel Thorvaldsen 1822 geschaffen und vom Warschauer Glockengießer Jan Gregoire 1833 ausgeführt, wobei die Sockelinschriften auf Polnisch und Latein verkündeten, dass die "(polnischen) Landsleute" das Denkmal als "Dank des Vaterlandes" errichtet hatten. Nach dem Warschauer Aufstand wurde das Denkmal im Oktober 1944 von den deutschen Besatzern abgerissen und zum Einschmelzen in die Gegend von Neiße in Oberschlesien gebracht, was jedoch nicht mehr geschah. Nach dem Krieg konnte das Denkmal am 22. Juli 1945 wiedererrichtet werden. Die Heimatstadt Thorn, die von 1793 bis 1807 und von 1815 bis 1920 zu Preußen gehörte, bemühte sich seit Ende des 18. Jahrhunderts um ein Denkmal, zumal das preußische Königshaus Unterstützung zugesagt hatte. Es bildete sich hierzu ein Komitee, das 1853 ein von Friedrich Tieck geschaffenes Denkmal errichtete. Aus dem Denkmalskomitee ging der "Coppernicus-Verein für Wissenschaft und Kunst zu Thorn" hervor, der in den folgenden Jahrzehnten die Geschichte der Stadt und ihres berühmtestes Sohnes erforschte, was unter anderem zur deutschen Übersetzung von dessen Hauptwerk sowie zur Prowes Biographie führte. Prowe forderte auch, Kopernikus solle nicht als Pole, sondern als Deutscher angesehen werden. Das Gedenken an Kopernikus bei der Nachwelt bis etwa zur Mitte des 19. Jahrhunderts hat Prowe in einem Aufsatz zusammengefasst. Eine Kopernikus-Ausstellung (mit Foucaultschem Pendel) und ein Denkmal befinden sich auf dem Domhügel in Frauenburg. Unter einem Epitaph befindet sich eine Platte mit stilisiertem Palmzweig aus Bronze mit der polnischen Inschrift „Für Nikolaus Kopernikus am ersten Jahrestag der Wiedergewinnung des Ermlandes – Mai 1946. Die Regierung der Republik Polen“. Außerdem wurde aus Anlass des 500. Geburtstages von Kopernikus 1973 am Fuße des Domhügels in Frauenburg ein Denkmal errichtet. Im Schloss von Allenstein ("Olsztyn") befinden sich in einer besonderen Abteilung Exponate über Kopernikus und Originalhandschriften zu Berechnungen zur Begründung des kopernikanischen Weltbildes. Vor dem Eingang des Schlosses ist eine Bronzeplastik aufgestellt, die Kopernikus darstellt. Ehrungen. Das heliozentrische Weltbild wird oft als „kopernikanisches Weltbild“ bezeichnet. Nach Kopernikus’ wurden das chemischen Element Copernicium, der Mondkrater Copernicus und der Asteroid (1322) Coppernicus benannt. Die 1945 in Toruń gegründete Universität trägt seinen Namen. Das im Herbst 2010 in Warschau eröffnete multimediale Wissenschaftszentrum "Centrum Nauki Kopernik" wurde ebenfalls nach ihm benannt. Zum seinem 500. Geburtstag fanden in Polen, den beiden deutschen Staaten und weltweit zahlreiche Gedenkveranstaltungen statt. Kopernikus wird bis heute von deutscher und polnischer Seite jeweils für die eigene Nation beansprucht, wobei die Vereinnahmung in Polen Bestandteil staatlicher Politik ist: Am 12. Juni 2003 verabschiedete der Polnische Senat, die zweite Kammer des polnischen Parlaments, eine Erklärung zur Erinnerung an den großen Polen Mikołaj Kopernik. Am 19. Februar 2010, seinem 537. Geburtstag, wurde das von Wissenschaftlern der Thorner Universität betreute Webportal "Nicolaus Copernicus Thorunensis" freigeschaltet. Der 24. Mai ist im Kalender der Evangelisch-Lutherischen Kirche in Amerika sein Gedenktag. Schriften. Lateinische Übersetzung der griechischen Episteln des Theophylaktos Simokates, 1509 Biografien. Die von Rheticus erstellten biographischen Notizen sind verschollen. Über drei Dutzend der ersten „Copernicus-Biographien des 16. bis 18. Jahrhunderts“ werden in Band IX der Nicolaus Copernicus Gesamtausgabe behandelt, beginnend mit Alexander Scultetus, einem Freund von Kopernikus. Wichtige frühe Biographien wurden 1588 von Bernardino Baldi und 1655 von Pierre Gassendi verfasst. Eine umfassende, bis heute als unübertroffen angesehene Lebensbeschreibung legte 1883 Leopold Prowe mit dem zweibändigen Werk "Nicolaus Coppernicus" vor. Narwal. Der Narwal ("Monodon monoceros") ist eine Art der Zahnwale (Odontoceti). Zusammen mit dem nahe verwandten Weißwal "(Delphinapterus leucas)" bildet er die Familie der Gründelwale (Monodontidae). Merkmale und Eigenschaften. Größenvergleich zwischen Narwal und Mensch Ohne Stoßzahn misst der Narwal vier bis fünf Meter. Das Männchen wird rund eineinhalb Tonnen schwer, das Weibchen etwas weniger als eine Tonne. Eine Finne fehlt dem Narwal. Entlang des hinteren Rückens weist er jedoch eine Reihe unregelmäßiger Höcker auf. Die Flipper genannten Brustflossen sind relativ kurz, am Ende eiförmig abgerundet und nach oben gebogen. Die Fluke ist am hinteren Rand bei beiden Flügeln stark konvex gebogen und unterscheidet sich somit deutlich von der aller anderen Wale. Der Kopf ist relativ kompakt. Eine ausgeprägte Schnauze fehlt und der Mund ist sehr klein und schmal mit nach oben gebogenen Mundwinkeln. Weiblicher Narwalschädel mit "zwei" Stoßzähnen Die Grundfarbe des Narwals ist ein sehr helles Braun bis Weiß. Der Kopf und Nacken sowie der Rücken sind dunkel, fast schwarz, ebenso die Ränder der Flipper und der Fluke. Die Seiten sind mit grauen und schwarzbraunen Flecken gesprenkelt. Ältere Tiere sind meist heller gefärbt als jüngere. Das hervorstechende Merkmal der Männchen ist ihr Stoßzahn (siehe auch Ainkhürn). Es handelt sich dabei um einen (meist den linken) Eckzahn (Caninus) des Oberkiefers, der schraubenförmig gegen den Uhrzeigersinn gewunden die Oberlippe durchbricht und bis zu drei Meter lang und acht bis zehn Kilogramm schwer werden kann. Das wahrscheinlich größte Exemplar der Welt befindet sich mit einer Länge von 2,74 Metern im Deutschen Ledermuseum in Offenbach am Main. Der einzige weitere Zahn sitzt ebenfalls im Oberkiefer und bricht normalerweise nicht hervor. Weitere Zähne werden beim Männchen zwar embryonal im Kiefer angelegt, entwickeln sich jedoch üblicherweise nicht weiter. Wo dies in seltenen Fällen dennoch geschieht, können sich auch zwei Stoßzähne ausbilden. Beim Weibchen sind die Zähne meist normal entwickelt, doch kommt es gelegentlich ebenfalls zur Ausbildung eines oder sogar zweier Stoßzähne wie beim Männchen (was eine Unterscheidung der Geschlechter erschwert). Nicht selten bricht der Stoßzahn ab. Dann verschließt sich die Bruchstelle mit neuem Dentin. Die Bedeutung des Stoßzahns war lange Zeit Anlass zu teilweise recht ungewöhnlichen Mutmaßungen. Ansichten, wie der Zahn diene zum Durchbrechen der Eisdecke oder zum Aufspießen von Fischen, zum Durchwühlen des Meeresbodens oder als Instrument bei der Echo-Ortung, wurden kontrovers diskutiert. In letzter Zeit werden zwei mögliche Funktionen favorisiert: hierarchiebestimmendes Merkmal von Dominanz (siehe Abschnitt zur Fortpflanzung) oder Sinnesorgan. So haben neueste Untersuchungen ergeben, dass der Zahn etwa 10 Millionen Nervenenden enthält, mit deren Hilfe vermutlich neben Wassertemperatur und -druck auch der Salzgehalt des Meerwassers und die Quantität von Beute in Abhängigkeit von der Tiefe erfassbar sind. In ihrer langen Entwicklungsgeschichte haben die Wale ihre warmblütige Lebensweise nie aufgegeben. Gegen Kälte sind sie durch eine bis zu zehn Zentimeter dicke Speckschicht unter der Haut, den Blubber, isoliert. Die bedeutendsten körperlichen Anpassungen erfolgten bei der Sinneswahrnehmung in einer überwiegend von akustischen Reizen bestimmten Umwelt und bei der Speicherung von Sauerstoff. Akustisch verständigen und orientieren sich die Narwale (wie übrigens auch ihre nahen Verwandten, die Weißwale oder Belugas) durch ihre „Gesänge“, wie die von ihnen ausgesandten Schallwellen von uns Menschen empfunden werden. Den Sauerstoff speichert der Narwal auf eine Weise, die ihn befähigt, beim Tauchen etwa fünfzehn Minuten lang von seinem Vorrat zu zehren: rund 10 % bleiben in der Lunge, je rund 40 % gehen in das Blut und in das Muskelgewebe, die restlichen 10 % in andere Gewebearten. Im Blut wird der Sauerstoff wie beim Menschen von Hämoglobin gebunden, im Muskelgewebe von Myoglobin, welches das Muskelfleisch wie bei allen Meeressäugern dunkel färbt. Das Blut nimmt wenig Stickstoff auf, sodass beim Auftauchen nicht die für uns Menschen typische Taucherkrankheit entsteht. Die Atemluft wird dann aus den Lungen explosionsartig ausgestoßen – der Wal „bläst“. Verbreitung. Narwale sind im gesamten Arktischen Ozean verbreitet und halten sich stets in der Nähe des Packeises auf. Am häufigsten treten die Wale rund um Grönland, in der Baffin Bay, der Hudson Bay und entlang der Küste Sibiriens auf. Seltener sind sie an der Küste von Alaska, in der Tschuktschensee und der Ostsibirischen See zu finden. Man nimmt heute an, dass es sich bei den Tieren östlich und westlich von Grönland um zwei relativ stark voneinander separierte Populationen handelt. Im Sommer ziehen die Narwale weiter nach Norden als jedes andere Säugetier. Sie halten sich dann in den Fjorden Grönlands, vor allem im Inglefield-Fjord, in der kanadischen Arktis und rund um Spitzbergen auf. Selbst im Winter bleiben Narwale normalerweise nördlich des Polarkreises. Abgesehen von Spitzbergen kommen Narwale in Europa nur als Irrgäste vor. Wie aus Dokumentationen hervorgeht, wurden hier in den letzten 200 Jahren insgesamt nur etwa 20 Narwale gesichtet, vornehmlich vor der Küste Islands und Skandinaviens, wo sie gelegentlich auch strandeten. Sehr selten wurden verirrte Narwale sogar in der Nordsee gesehen. Die südlichste Sichtung stammt aus der Zuiderzee in den Niederlanden (1970). Lebensweise. Narwale ernähren sich von einigen Fischarten, Tintenfischen und Krebstieren, die sie durch den von den kräftigen Lippen und der Zunge erzeugten Sog regelrecht „in den Mund saugen“. Das gleichzeitige Vorkommen von Narwalen und Weißwalen in derselben Region ist sehr selten und wird natürlicherweise durch unterschiedliche Sommer- und Wintergründe vermieden. In Fällen, in denen es dennoch zu solchen Überschneidungen kam, ließ sich beobachten, wie die Tiere Konkurrenz dadurch umgingen, dass sie in unterschiedlichen Wassertiefen nach Nahrung suchten. Dabei bevorzugten die Narwale die tieferen Wasserschichten. Neben dem Menschen stellen die Großen Schwertwale "(Orcinus orca)" wahrscheinlich den größten Feind der Narwale dar. Sie treiben die Narwale bei der Jagd gegen die Küste und können sie so leichter erbeuten. Beim Annähern von Schwertwalen, aber auch von Schiffen oder beim Geräusch von zerbrechendem Eis zeigen die Narwale ein als "adlingayuk" (Inuktitut) bezeichnetes Verhalten: Sie verfallen in Regungslosigkeit und lassen sich lautlos im Wasser absinken. Für Nordwest-Grönland wurden als Hauptnahrungsquelle im Frühjahr und Sommer der Polardorsch "(Boreogadus saida)" und der Grönlanddorsch "(Arctogadus glacialis)" ermittelt. Fische erwiesen sich auch bei anderen Analysen als Hauptnahrung für diese Jahreszeit (durchschnittlich etwa 93 Prozent des Mageninhaltes). Im Spätsommer und Herbst überwiegt dagegen der Anteil der Tintenfische und Krebstiere. Täglich frisst ein Narwal abhängig von der Jahreszeit etwa 45 bis 80 Kilogramm. Er taucht auf Beutesuche je nach Quelle bis zu 350 oder sogar bis zu 500 Meter tief und bleibt etwa fünfzehn Minuten unter Wasser. Zur Auffindung der Nahrung nutzt er sein „Sonarsystem“, wozu er intensive „Klicks“ ausstößt. Weitere Laute wie Pfeifen, Keuchen und Klickserien – vor allem im Ultraschallbereich – dienen der Kommunikation. Fluke eines Narwals (Baffin Bay) Narwale bleiben das ganze Jahr über in der Nähe des Packeises; innerhalb der Eisflächen sind sie in Polynjas und an Atemlöchern anzutreffen. Löcher in einer über 15 Zentimeter dicken Eisdecke werden durch kräftige Stöße mit der Stirn geöffnet oder offen gehalten. Obwohl sich bei den jahreszeitlichen Wanderungen Herden von tausend Tieren zusammenfinden können, bestehen Familienverbände („Narwalschulen“) üblicherweise nur aus fünf bis zwanzig Tieren – einem ausgewachsenen Männchen sowie mehreren Weibchen und Jungtieren. Solange sie noch nicht alt genug sind, die Führung einer Schule zu übernehmen, schließen sich jugendliche Männchen zu Verbänden zusammen, Gelegentlich soll auch der Eisbär "(Ursus maritimus)" Narwale erbeuten. Der Grönlandhai "(Somniosus microcephalus)" greift Narwale wahrscheinlich nicht an und frisst nur die Kadaver toter Wale in Netzen. Dokumentiert sind dagegen tödliche Angriffe von Walrossen "(Odobenus rosmarus)". Durch schnell gefrierendes Eis können Narwale in Buchten oder Fjorden eingeschlossen werden, ein in Grönland als "sassat" bezeichnetes Phänomen. Die Wale können dann nicht mehr entkommen und sind gezwungen, Eislöcher zum Atmen offen zu halten; schließlich sterben sie an Erschöpfung oder werden von Inuit-Jägern erbeutet. Fortpflanzung und Entwicklung. Narwale werden im Alter von fünf bis acht Jahren geschlechtsreif; erste Trächtigkeiten treten allerdings erst mit sieben bis zwölf Jahren ein. Die männlichen Narwale haben dann eine durchschnittliche Länge von etwa 3,90 Metern, die weiblichen Tiere von etwa 3,40 Metern. Die Weibchen sind offenbar mehrfach im Jahr empfängnisbereit; die Paarungszeit liegt jedoch nur zwischen Ende März und Anfang Mai. Über das Fortpflanzungsverhalten der Narwale selbst ist relativ wenig bekannt. Verschiedentlich wurde beobachtet, dass zwischen den Männchen regelmäßig Rivalenkämpfe stattfinden, bei denen die Stoßzähne als Waffe dienen. Abgebrochene Zähne und Stirnnarben sind nicht selten eine Folge dieser Auseinandersetzungen; sogar männliche Schädel, in denen die abgebrochenen Zahnspitzen gegnerischer Männchen steckten, wurden gefunden. Nach Lopez (1987) legen die Männchen in Gegenüberstellung ihre Stoßzähne nebeneinander, und das Tier mit dem kürzeren Stoßzahn erhält bei derartigen Kämpfen Abschürfungen oder manchmal ernsthafte Stichverletzungen – ein Hinweis auf die hierarchische Bedeutung der Stoßzähne. Die Tiere sind offensichtlich polygyn, verpaaren sich also mit mehreren Weibchen, die sie gegen Rivalen verteidigen. Das Paarungsverhalten selbst wurde bislang nicht beobachtet. Die Tragezeit dauert etwa 14 bis 15 Monate; die Geburten erfolgen dementsprechend im Sommer zwischen Mai und August. Das meist einzige Junge ist bei der Geburt etwa 150 Zentimeter lang und wiegt rund 80 Kilogramm, Zwillingsgeburten sind selten. Der Stoßzahn bricht während des ersten Lebensjahres durch und entwickelt sich erst im Laufe mehrerer Jahre zur vollen Länge. Das Säugen erfolgt wahrscheinlich zwei Jahre lang. Während dieser Zeit ist die Mutter nicht von neuem trächtig. Die Lebensdauer der Narwale beträgt etwa vierzig Jahre. Etymologie. Die erste wissenschaftliche Beschreibung des Narwals stammt von Carl von Linné (1758) unter dem bis heute gültigen Namen "Monodon monoceros". Die deutsche Bezeichnung "Narwal" leitet sich vermutlich von dem norwegischen Wort "nar" ab, das mit „Leiche“ übersetzt werden kann und auf das Aussehen der Haut verweisen dürfte, die an einen menschlichen Leichnam erinnert. Eine andere Interpretation geht von altdeutsch "narwa" „eng“ aus und bezieht sich auf den Stoßzahn. Systematik. Der Narwal stellt die einzige Art der Gattung "Monodon" dar und bildet gemeinsam mit dem Weißwal "(Delphinapterus leucas)" die Familie der Gründelwale (Monodontidae). Dies wird vor allem mit verschiedenen Schädelmerkmalen, den verwachsenen Halswirbeln sowie mit enzymatischen und immunologischen Merkmalen begründet. Wirtschaftliche Bedeutung. Narwale in der Creswell Bay (Nordostküste von Somerset Island) Die Inuit Grönlands und Kanadas jagen den Narwal heute noch traditionell zu Nahrungszwecken und wegen des Stoßzahnes (siehe unten). Als Nahrung für Menschen und Hunde spielen vor allem die Innereien und das Muskelfleisch eine wichtige Rolle. Die Walhaut oder Walschwarte (Inuktitut „maktaaq“, grönländisch „mattak“) gilt wie beim Weißwal als Delikatesse. Das von den Inuit aus dem geklopften Walspeck gewonnene Tranöl wurde früher als Leucht- und Wärmequelle genutzt und hat heute allenfalls noch traditionelle Bedeutung, wenn es für die Entzündung einer Steinöllampe („Qulliq“) verwendet wird. Der inländische Handel mit „mattak“ stellt in Grönland noch immer eine wichtige Einnahmequelle der Inuit dar. So werden im Gebiet von Thule mit traditionellen Methoden jährlich etwa 150 bis 200 Narwale erlegt. Insgesamt beträgt die Fangquote von Narwalen in Grönland und Kanada jährlich etwa 1.000 bis 1.100 Tiere. Bei einer angenommenen Gesamtpopulation von 23.000 Narwalen sind solche Fangzahlen nach Einschätzung verschiedener Experten gerade noch für das Populationswachstum tolerierbar. Ein bedeutender Aspekt für wirtschaftlich betriebenen Narwalfang war die Gewinnung der Stoßzähne. Erste Berichte vom Handel mit Narwalzähnen tauchen um 1100 auf; die Wikinger tauschten sie auf ihren Grönlandfahrten von Inuit ein. Noch immer gelten die Elfenbeinzähne von Narwal, Walross und Elefant sowie daraus hergestellte Gegenstände als sehr wertvoll; die Jagd auf die genannten Tiere und der Elfenbeinhandel sind jedoch streng reglementiert. Kulturelle Bedeutung. Inuit-Künstler Tony Atsaniq mit Narwalzahn Der Narwalzahn galt seit dem Mittelalter als Stirnwaffe des fabelhaften Einhorns, dessen Existenz durch diesen einzigen greifbaren Nachweis gesichert schien. Solange die Herkunft der gedrehten Zahnstangen unbekannt war, wurde dieses „Ainkhürn“ mit Gold aufgewogen. Seit dem 13. Jahrhundert ist der Narwalzahn als Reliquie im Besitze sakraler Institutionen Europas nachweisbar. Die Kirchenväter und nach ihnen zahlreiche mittelalterliche Autoren bestätigten die Gleichsetzung der Einhornjagd mit der Menschwerdung Christi durch die Jungfrau Maria. Die Legende heidnischen Ursprungs erhielt so eine Legitimation, in mittelalterlichen Schriften und Bildwerken präsent zu sein. Kreuzritter raubten zwei Narwalstoßzähne in Konstantinopel und schenkten diese dem Markusdom in Venedig, wo sie noch heute aufbewahrt werden. Der Glaube an die Wirkung des „Horns“ als Antidot, von antiken Autoren aus asiatischen Quellen der Legende übernommen, blieb im Islam immer präsent und erhielt in Europa durch die Befrachtung mit christologischer Symbolik noch stärkeres Gewicht. Im 14. Jahrhundert begannen auch weltliche Herrscher, Narwalzähne in den Staatsschatz aufzunehmen. Die Habsburger waren im Besitz eines Narwalzahnes und mehrerer Objekte aus dessen Elfenbein. 1671 wurde der dänische König Christian V. auf einem Thron gekrönt, der ausschließlich aus Narwalzähnen hergestellt war. Heilkundige verbreiteten die Lehre, potentielle Opfer von Giftanschlägen seien bei Gebrauch von Bechern oder Geschirr aus der Stange des Einhorns immun. Darüber hinaus setzten die Ärzte das Pulver des Narwalzahns als Heilmittel gegen die Pest ein. Der Gegenwert, den man auf die Waagschale legte, erreichte schließlich das zwanzigfache des Zahngewichtes in Gold. Erst im 17. Jahrhundert war es nordischen Walfängern möglich, den begehrten Zahn selbst zu besorgen. Auch Wissenschaftler und wohlhabende Privatpersonen konnten sie sich leisten und beschäftigten sich mit der Existenz des Fabeltieres und der pharmazeutischen Wirksamkeit seiner Stirnwaffe. 1638 erkannte der Arzt und Naturforscher Ole Worm die vermeintliche Einhornstange als Narwalzahn und machte dem Missverständnis ein Ende, ohne aber seine Wirksamkeit als Medizin in Frage zu stellen. Auch dem Glauben an die Existenz des Land-Einhorns taten Worms Erkenntnisse keinen Abbruch. Die meisten Wissenschaftler akzeptierten den Narwalzahn ohne weiteres als Stange eines See-Einhorns. Lediglich der Symbolwert des gedrehten Zahnes, der ja an das Landtier gebunden war, ging verloren. Aufgrund des erhöhten Angebots brachen die Preise um die Jahrhundertmitte vollständig ein, zumal auch die Pestwelle nach dem Dreißigjährigen Krieg verebbte. Heute ist das Elfenbein des Narwalzahns neben dem von Walrosszähnen wichtiges Ausgangsprodukt für wertvolle Skulpturen von Inuit-Künstlern. Umweltbelastung. Wie für alle Meeressäuger stellt Umweltverschmutzung für die Narwale eine starke Bedrohung dar. Als Fischfresser nehmen sie die in ihren Beutetieren abgelagerten Giftstoffe, vor allem Schwermetalle wie Quecksilber, Blei und Cadmium, auf und speichern sie in der Leber, den Nieren, dem Muskelgewebe und im Körperfett. Die Belastungen mit Schwermetallen sind regional unterschiedlich. Während in kanadischen Gewässern die Cadmiumbelastung extrem hoch ist, sind rund um Grönland die Bleiwerte deutlich überhöht. Unter den aus Pestiziden stammenden Chlorkohlenwasserstoffen spielen vor allem die polychlorierten Biphenyle (PCB) eine Rolle, daneben Dichlordiphenyltrichlorethan (DDT), Dieldrin, Hexachlorcyclohexan (Lindan) und Chlorbenzen. Diese Stoffe finden sich vor allem im Fettgewebe der Wale. Vergleiche mit der Belastung anderer Wale haben ergeben, dass Narwale organische Giftstoffe offenbar langsamer abbauen als andere Zahnwale. Schutzbestimmungen. Der Narwal ist international geschützt. Er ist im Washingtoner Artenschutzabkommen im Anhang II gelistet; ein internationaler Handel mit Narwalprodukten ist dementsprechend untersagt. Hinzu kommen spezielle Gesetze in verschiedenen Staaten, welche die Jagd und den Handel mit Narwalprodukten streng reglementieren. Zum Erhalt von Traditionen gelten für die Inuit von Kanada und Grönland besondere Regeln. So steht der Narwal in Kanada seit 1971 durch den „Fisheries Act“ unter Schutz, jedoch ist eine Fangquote von fünf Tieren für die indigene Bevölkerung pro Jahr und Jäger erlaubt. Seit 1978 wurde das Gesetz verschärft: Heute sind in Kanada Jungtiere sowie weibliche Tiere mit Jungtieren vollständig geschützt. Außerdem müssen Kadaver erlegter Narwale restlos verwertet werden. Die Quote wird über ein Etikettensystem kontrolliert. Jäger müssen an jedem Stoßzahn und Kadaver ein Etikett anbringen. Der Besitz eines Stoßzahns oder eines Kadavers ohne Etikett steht unter Strafe. In Grönland dürfen nur Einwohner Grönlands, die ausgewiesene Jäger sind, Narwale erlegen. Dabei gibt es keine Quotenregelung, regional sind jedoch die Fangmethoden reglementiert, um die Fangverluste gering zu halten. Außerdem dürfen nicht mehr Wale getötet werden, als direkt nach der Jagd zum Heimatort des Jägers transportiert werden können. Das gesamte Fleisch muss verwertet werden. Im Raum um Thule ist der Fang der Wale mit Motorbooten verboten. In Norwegen dürfen Kleinwale wie der Narwal nur mit spezieller Genehmigung des Ministeriums für Fischerei gefangen werden, weshalb der Narwal in Norwegen praktisch nicht gejagt wird. In den Ländern der ehemaligen Sowjetunion ist der Narwal vollständig geschützt. Durch den „Marine Mammal Protection Act“ von 1972 ist die Einfuhr von Narwalprodukten in die USA untersagt. In Europa wurde der Import in alle EU-Länder durch die EU-Richtlinie No. 3626/82 aus dem Jahr 1982 mit Gültigkeit bis 31. Dezember 1996 verboten und das Importverbot aufrechterhalten durch die EU-Verordnung 338/97 vom 9. Dezember 1996. Nürnberger Prozess gegen die Hauptkriegsverbrecher. Im Nürnberger Prozess gegen die Hauptkriegsverbrecher beziehungsweise "Nürnberger Hauptkriegsverbrecherprozess" wurden nach dem Zweiten Weltkrieg deutsche Politiker und Militärs sowie führende Personen aus der Wirtschaft für das Planen und Führen eines Angriffskrieges und für den Massenmord an Menschen in Vernichtungslagern strafrechtlich zur Verantwortung gezogen. Zwanzig Angeklagte wurden verurteilt, sechs von ihnen waren führende Militärs. Dieser Prozess war der erste der dreizehn Nürnberger Prozesse. Die Verhandlung fand vor einem eigens von den Drei Mächten eingerichteten Ad-hoc-Strafgerichtshof, dem "Internationalen Militärgerichtshof" ("IMG";, "IMT"), statt. Er dauerte vom 20. November 1945 bis zum 1. Oktober 1946 und fand im Justizpalast an der Fürther Straße in der Stadt Nürnberg statt. Die Angeklagten und zahlreiche Zeugen wurden im angrenzenden Zellengefängnis Nürnberg inhaftiert. Die Folgeprozesse unter anderem gegen Ärzte, Juristen sowie führende Personen aus der Wirtschaft fanden ebenfalls in Nürnberg, der Stadt der NSDAP-Reichsparteitage, statt. Wegen des beginnenden Kalten Krieges war damit aber nicht mehr der IMG befasst, sondern US-amerikanische Militärgerichte. Rechtshistorisch sind der "Internationale Militärgerichtshof" und der am 19. Januar 1946 eingerichtete "Internationale Militärgerichtshof für den Fernen Osten" Vorläufer des 2003 eingerichteten "Internationalen Strafgerichtshof (IStGH)" in Den Haag. Vorgeschichte. Unter den Alliierten der Anti-Hitler-Koalition sowie allen vom Zweiten Weltkrieg betroffenen Ländern bestand Einigkeit, dass eine Vergeltung ausgeschlossen bleiben sollte. Insbesondere lieferte das Scheitern der Ahndung von Kriegsverbrechen nach dem Ersten Weltkrieg, die sogenannten Leipziger Prozesse, sowie der damit in Verbindung stehenden Alliierten Abwesenheitsverfahren viele Gründe für ein weitaus besseres, geeigneteres und effektiveres Gerichtsverfahren. Deshalb hatten sich bei den Treffen während und unmittelbar nach dem Zweiten Weltkrieg (Konferenz von Teheran (1943), Konferenz von Jalta (1945) und Potsdamer Konferenz (1945)) die drei alliierten Parteien, USA, Großbritannien und die Sowjetunion darauf geeinigt, die Verantwortlichen für die Kriegsverbrechen zur Rechenschaft zu ziehen. Auch Frankreich erhielt einen Platz im Tribunal. Die Form dieser Rechenschaft war lange umstritten. Auf der Moskauer Konferenz im Oktober 1943 sprach sich US-Außenminister Cordell Hull zunächst für Standgerichte gegen die Hauptkriegsverbrecher aus, die Delegation der Sowjetunion zollte Beifall. Der britische Außenminister Anthony Eden forderte dagegen einen Prozess, der alle Rechtsnormen beachte. Unter dem Stellvertretenden US-Kriegsminister John McCloy formierte sich 1944 eine Law-and-Order-Bewegung. Am 18. Januar 1945 einigten sich auf amerikanischer Seite Richter Samuel Rosenman, Henry L. Stimson vom Kriegsministerium und der Justizminister (er war später Richter des Internationalen Militärgerichtshofs) Francis Beverley Biddle auf einen ordentlichen Prozess. Auch der vormalige Prozessgegner Franklin D. Roosevelt änderte seinen Standpunkt. Winston Churchill lobte am 22. Oktober 1944 die Haltung Josef Stalins – der nach einem Meinungswandel auch einen ordentlichen Prozess wollte. Obwohl die Briten kurzzeitig wieder schwankten, ließen sie sich letztlich von den Amerikanern überzeugen. Damit war der Weg für einen regulären Prozess frei, für den eigens der Internationale Militärgerichtshof eingerichtet wurde. Er sollte die Planung und Führung eines Angriffskriegs, Kriegsverbrechen, Verbrechen gegen die Zivilbevölkerung in den besetzten Gebieten sowie die Gräueltaten in den Konzentrations- und Vernichtungslagern der Nationalsozialisten untersuchen, beweisen und ahnden. Das Londoner Viermächteabkommen vom 8. August 1945, das die Rechtsgrundlage des Prozesses für die Strafverfolgung der Hauptkriegsverbrecher kodifizierte und dessen Teil das Statut des Militärgerichtshofes ist, wurde nicht nur von den USA, Großbritannien, Frankreich und der UdSSR unterzeichnet. Auch Griechenland, Dänemark, Jugoslawien, die Niederlande, die Tschechoslowakei, Polen, Belgien, Äthiopien, Australien, Honduras, Norwegen, Luxemburg, Haiti, Neuseeland, Indien, Venezuela, Uruguay und Panama traten dem Abkommen bei. Ort und Dauer des Prozesses. Die Sowjetunion wollte die Prozesse in Berlin durchführen, für Nürnberg sprach jedoch, dass der Justizpalast weitgehend unbeschädigt geblieben war und ein großes Gefängnis, das Zellengefängnis Nürnberg, unmittelbar angrenzte. Außerdem war Nürnberg die Stadt der NSDAP-Reichsparteitage gewesen, und somit war es auch von symbolischer Bedeutung, den führenden Nationalsozialisten gerade an diesem Ort den Prozess zu machen. So wurde die Anklageschrift am 18. Oktober 1945 im Gebäude des Alliierten Kontrollrats in der einzigen Sitzung in Berlin übergeben, die eigentlichen Gerichtsverhandlungen begannen am 20. November 1945 jedoch in Nürnberg. Am 30. September und am 1. Oktober 1946 wurden dort auch die Urteile verkündet. Seit dem 21. November 2010 ist der Saal Teil des Museums der Stadt Nürnberg zu den Verfahren und Verfahrenszielen "Memorium Nürnberger Prozesse". Die Richter. Den Vorsitz des Gerichts übernahm der für seine Umsicht bekannte Brite Lawrence, die erste Sitzung des Gerichts im Kammergerichtsgebäude in Berlin wurde von Nikittschenko eröffnet. Die Anklagepunkte. Unter Punkt 1 findet sich besonders eine Aufstellung der Machtübernahme durch die Nationalsozialisten und der Umgestaltung Deutschlands in eine totalitäre Diktatur und Kriegsvorbereitungen sowie der Bruch zahlreicher internationaler Verträge und Besetzungen von Nachbarländern. Punkt 2 ergänzt weitere Kriege. Unter Punkt 3 waren die Verbrechen an der Zivilbevölkerung angeklagt; die Verbrechen des Holocaust wurden unter dem vierten Anklagepunkt verhandelt. Ein Teil der Verbrechen des Holocausts, etwa die Ermordung der deutschen Juden auf polnischem Territorium, sind nicht nur ein Verbrechen gegen die Menschlichkeit, sondern auch ein Kriegsverbrechen. Die Ankläger. Sie bedienten sich eines umfangreichen juristischen Mitarbeiterstabs, um die Anklage vertreten und den Prozess zügig vorantreiben zu können. Kronzeuge der Anklage war der Generalmajor Erwin von Lahousen und langjährige Leiter der Abteilung II des Abwehr der Wehrmacht, das lange von Admiral Wilhelm Canaris geleitet wurde. Lahousen stellte sich für diese Funktion freiwillig zur Verfügung, um mit seinem Insiderwissen die Beweisführung zu unterstützen. Die Angeklagten. a> als Angeklagter bei den Nürnberger Prozessen Die institutionelle Zuordnung der einzelnen Angeklagten soll nicht darüber hinwegtäuschen, dass es Verschränkungen in der Verantwortlichkeit für die zahlreichen Verbrechen unter dem nationalsozialistischen Regime gab. So zum Beispiel war Göring selbstverständlich mitverantwortlich für die Kriegsführung, die Befehle des Reichssicherheitshauptamtes und den Holocaust, ebenso, wie Kaltenbrunner nicht nur für die Deportationen, sondern auch für die Verbrechen in den Konzentrationslagern verantwortlich zeichnete. Angeklagt wurden Verbrechen, nicht Meinungen. Zum Beispiel wurde der „Parteiideologe“ Rosenberg nicht wegen seiner Schriften, sondern wegen Verbrechen verurteilt, die in seinem Auftrag verübt wurden. Aufspüren der Angeklagten. Im Chaos des Zusammenbruchs war es nicht einfach, die späteren Angeklagten zu finden. Adolf Hitler und Joseph Goebbels hatten noch vor Kriegsende Selbstmord verübt. Heinrich Himmler wurde trotz gut gefälschter Papiere bei einer Kontrolle im Mai 1945 von den Briten verhaftet und beging wenige Tage später in Lüneburg Selbstmord. Heß war seit seinem Englandflug im Mai 1941 in britischer Gefangenschaft. Streicher hatte sich als Maler getarnt und wurde nach einem Hinweis aus der Bevölkerung Ende Mai 1945 in Waidring von US-Soldaten festgenommen. Schirach, der als tot galt, tauchte zunächst in Tirol unter, stellte sich aber Anfang Juni 1945 selbst. Göring begab sich Anfang Mai 1945 in Österreich mit seiner Familie und 17 Lkw voller Gepäck in die Gefangenschaft der 7. US-Armee. Von Papen wurde bereits Anfang April 1945 in einer Jagdhütte bei Meschede von US-Soldaten aufgespürt. Hans Frank wurde Anfang Mai 1945 in Neuhaus am Schliersee von amerikanischen Soldaten festgenommen. Bei der Suche nach Himmler wurde Rosenberg am 18. Mai 1945 in einem Flensburger Krankenhaus, dem Marinelazarett Flensburg-Mürwik gefunden. Seyß-Inquart wurde im Mai 1945 in Den Haag von Angehörigen der kanadischen Streitkräfte festgenommen. Gegen Bormann, der verschwunden blieb, wurde in Abwesenheit verhandelt. Erst 1998 konnte durch eine DNA-Analyse zweifelsfrei bewiesen werden, dass es sich bei dem 1972 in der Nähe des Lehrter Bahnhofs in Berlin gefundenen Skelett um Bormanns Leiche handelt und er folglich vor Kriegsende bereits tot war. Ribbentrop, der bei Kriegsende kurzzeitig in Hamburg untergetaucht war, wurde dort im Juni 1945 verhaftet. Die Verhandlung. Die Verhandlung wurde nach dem Muster des amerikanischen Strafprozesses durchgeführt. So wurden die Angeklagten nach der Verlesung der Anklage einzeln aufgerufen zur Frage, ob sie sich schuldig oder nicht schuldig bekennen (alle bekannten sich für nicht schuldig). Außerdem wurde das für das amerikanische Prozessverfahren typische Kreuzverhör praktiziert, bei welchem auch die Angeklagten in den Zeugenstand treten konnten. Dokumente und Unterlagen (belastende wie entlastende) wurden in die vier Arbeitssprachen Englisch, Französisch, Russisch und Deutsch übersetzt bzw. gedolmetscht. Insgesamt wurden 240 Zeugen gehört und 300.000 Versicherungen an Eides statt zusammengetragen; das Sitzungsprotokoll umfasst 16.000 Seiten. Erstmals wurde auch auf einen dafür eigens produzierten Dokumentarfilm „Der Nazi-Plan“ zurückgegriffen, der einen Zusammenschnitt aus Filmmaterial der Nationalsozialisten darstellte. Dolmetschereinsatz zur Prozessdurchführung. Die Nürnberger Prozesse gelten als Geburtsstunde des modernen Dolmetschens, insbesondere des Simultandolmetschens, denn auch in technischer Hinsicht wurde mit der Durchführung des Verfahrens vor dem Internationalen Militärgerichtshof Neuland betreten. Zum ersten Mal in der Geschichte waren für eine Gerichtsverhandlung Dolmetscher in großem Umfang zugelassen, vor allem weil ihre Arbeit, das Simultandolmetschen, für die Durchführung des Prozesses unabdingbar war. Das bis zu diesem Zeitpunkt übliche Konsekutivdolmetschen hätte den Prozess für alle Beteiligten in unzumutbarer Weise verlängert. Die Firma IBM stellte für die Prozesse kostenlos eine spezielle Simultandolmetschanlage, die damals „Speech Translator“ genannt wurde, zur Verfügung. Die Anlage war zu diesem Zeitpunkt bereits zwanzig Jahre alt und daher etwas veraltet. Technische Störungen waren keine Seltenheit. Es handelte sich um eine verglaste, nach oben offene Kabine für je drei Dolmetscher. Die Dolmetscher konnten dem jeweiligen Redner über verschiedenfarbige Lampen „langsamer sprechen“, „deutlicher sprechen“ (vor allem gegenüber Fritz Sauckel), „Passage wiederholen“ und „Rede unterbrechen“ signalisieren. Für die vier Arbeitssprachen gab es je drei Dolmetscher-Teams mit jeweils zwölf Dolmetschern. Sie dolmetschten ohne Unterbrechung während der gesamten Prozessdauer, sowohl für das Gericht als auch für Angeklagte, Ankläger, Verteidiger und Zeugen. Verschiedene Dolmetscher haben ihre Eindrücke bei den Nürnberger Prozessen später in Büchern verarbeitet, so z. B. der damalige Chef-Dolmetscher der Anklage Richard W. Sonnenfeldt und der Schriftsteller Wolfgang Hildesheimer. Die Verteidigung. Die Verteidiger wurden von den Angeklagten selbst gewählt oder auf deren Verlangen vom Militärgerichtshof ernannt. Für den abwesenden Angeklagten Bormann und zur Vertretung der angeklagten Gruppen und Organisationen ernannte der Militärgerichtshof Verteidiger. Zu Prozessbeginn legten alle Verteidiger eine gemeinsame Denkschrift vor, die die juristischen Grundlagen des Prozesses in Frage stellten. Insbesondere ging es um die Strafbarkeit „der Entfesselung des ungerechten Krieges“. Die Verteidigung machte geltend, dass „soweit es sich um Verbrechen gegen den Frieden handelt, […] der gegenwärtige Prozess keine gesetzliche Grundlage im internationalen Recht [hat], sondern ein Verfahren [ist], das auf einem neuen Strafrecht basiert, einem Strafrecht, das erst nach der Tat geschaffen wurde“. Der Vorsitzende Richter des Internationalen Militärgerichtshofs, Sir Geoffrey Lawrence lehnte diesen Antrag mit der Begründung ab, im Briand-Kellogg-Pakt von 1928 hätten sich 15 Staaten, darunter auch Deutschland, dafür ausgesprochen, den Krieg als „Werkzeug nationaler Politik“ zu ächten und zwischenstaatliche Konflikte nur „durch friedliche Mittel“ beizulegen. Die Mehrzahl der Angeklagten gab zu, dass grauenhafte Verbrechen begangen worden waren, behauptete aber, dass sie persönlich in gutem Glauben gehandelt hätten. Viele erklärten, nur Befehle befolgt zu haben. Nur die Verteidiger von Streicher, Funk und Schacht forderten Freisprüche für ihre Mandanten. Die Schlussanträge der Anklage. Die französische und die sowjetische Anklage forderten die Todesstrafe für alle Angeklagten. Der britische Ankläger forderte unterschiedliche Urteile für die Angeklagten, der amerikanische Ankläger gab keine klare Empfehlung ab. Urteile gegen die Hauptangeklagten. Für eine Verurteilung der Angeklagten bedurfte es von vier Richterstimmen einer Mehrheit von drei Voten, die sich dafür aussprachen. Am 30. September und 1. Oktober 1946 wurden nach fast einem Jahr Verhandlungsdauer 12 der 24 Angeklagten zum Tode verurteilt; sieben Angeklagte erhielten langjährige oder lebenslange Haftstrafen. Drei Angeklagte wurden freigesprochen: In den Fällen Schacht und von Papen führte eine Patt-Situation (2 : 2) im Richterkollegium zum Freispruch; für eine Bestrafung des Angeklagten Fritzsche sprach sich nur der sowjetische Richter Nikittschenko aus. Mit Ausnahme von Speer und Kaltenbrunner stellten alle anderen Verurteilten Gnadengesuche bei der Militärregierung für Deutschland, dem Alliierten Kontrollrat. Diese wurden abschlägig beschieden. Verbrecherische Organisationen. Als "verbrecherische Organisationen" wurden im Urteil eingestuft das "Korps der Politischen Leiter der NSDAP", die Geheime Staatspolizei (Gestapo), der Sicherheitsdienst (SD) sowie die Schutzstaffel (SS). Nicht dazu gezählt wurden die Reichsregierung, der Generalstab sowie das Oberkommando der Wehrmacht (OKW). Begründet wurde diese Entscheidung unter anderem mit dem Argument, bei der überschaubaren Anzahl von Personen könnte die persönliche Schuld nur im Einzelverfahren festgestellt werden. Die SA wurde nicht als verbrecherische Organisation eingestuft, weil ihre Mitglieder nach 1939 „im Allgemeinen“ nicht an verbrecherischen Handlungen beteiligt gewesen seien. Der Personenkreis, der nunmehr als Angehörige einer verbrecherischen Organisation galt, wurde im Urteil weiter eingegrenzt. Betroffen waren Funktionäre der NSDAP vom Kreisleiter an, sofern sie nach dem 1. September 1939 amtierten. Bei der Geheimen Staatspolizei und dem Sicherheitsdienst waren Mitglieder, die mit reinen Büroarbeiten, Pförtnerdiensten und dergleichen beschäftigt waren, vom Urteil ausgenommen. Bei der SS waren diejenigen nicht betroffen, die zwangsweise eingezogen worden waren oder an Verbrechen nicht teilgenommen hatten. Die Rechtsfolgen für die Mitglieder der verbrecherischen Organisationen waren schwerwiegend: Sie konnten ohne ein Einzelverfahren und ohne individuellen Schuldnachweis mit Strafen belegt werden, die nach dem Kontrollratsgesetz Nr. 10 vorgesehen waren. Tatsächlich wurde so mehrfach von der französischen Besatzungsmacht verfahren. "Zu den Rechtsfolgen in der Bundesrepublik Deutschland siehe Vergangenheitsbewältigung" Führung der Wehrmacht. Unter dem Oberbegriff „Generalstab und OKW“ hatte die Anklage das Führungspersonal der Wehrmacht angeklagt, eine Liste von 130 namentlich aufgeführten Offizieren, die zwischen Februar 1938 und Kriegsende zeitweise im OKW, im Oberkommando des Heeres, der Marine, der Luftwaffe oder als Oberbefehlshaber von Truppen Dienst getan hatten. Sie wurden insgesamt als „verbrecherische Organisation“ angeklagt. Der Gerichtshof kam zu der Einschätzung, dass weder der Generalstab noch das OKW eine „Organisation“ oder eine „Gruppe“ im Sinne der Gerichtssatzung seien und erklärte sie aus diesem formalen Grund nicht zu „verbrecherischen Organisationen“. Allerdings war dies kein Freispruch, sondern der Gerichtshof betonte die Schuld der Wehrmachtführung an den Verbrechen der Wehrmacht und entschied, dass Einzelverfahren zu ihrer Ahndung durchzuführen seien. Diese Entscheidung wurde von den ehemaligen Berufssoldaten der Wehrmacht jedoch in einen „Freispruch der Wehrmacht selbst durch die Siegerjustiz“ umgedeutet und so in der Öffentlichkeit unter dem Begriff der „sauberen Wehrmacht“ propagiert. Vollzug der Urteile. Von den zwölf Todesurteilen wurden zehn am 16. Oktober 1946 zwischen 1:00 und 2:57 Uhr im Zellengefängnis Nürnberg vollstreckt. Göring hatte keine drei Stunden zuvor mittels einer Zyankalikapsel Suizid begangen, und Bormann war abwesend. Die Hinrichtungen vollzog der amerikanische Henker John C. Woods, assistiert von Joseph Malta in der Sporthalle. Alle Leichname wurden am Ostfriedhof (München) kremiert und ihre Asche in einen kleinen Seitenarm der Isar gestreut. Die zu Haftstrafen Verurteilten blieben zunächst noch in Nürnberg und wurden 1947 in das Berliner Kriegsverbrechergefängnis Spandau verlegt. Öffentlichkeit. Nach Abschluss der Verhandlungen, in denen zu jedem Angeklagten große Mengen von belastendem Material vorgelegt worden war, das Mitwisserschaft und Mittäterschaft an schwersten Verbrechen dokumentierte, erhielten die Angeklagten die Gelegenheit zu einer letzten Erklärung. In diesen Erklärungen finden sich bereits viele Formeln wieder, die in der Nachkriegszeit zur deutschen Selbstentlastung in der so genannten Vergangenheitsbewältigung benutzt wurden. Die eigene Verantwortlichkeit wurde mit diesen Formeln geleugnet oder verkleinert: „mißbrauchte soldatische Treue“ (Keitel), „tragischer deutscher Idealismus“ (Fritzsche, Dönitz), „gottlose Gesellschaft“ (Frank), „unpolitische Beamtenpflicht“ (Frick), „kalte technokratische Moderne“ (Speer). Göring behauptete, die Verbrechen seien verschleiert worden, und er verurteile „diese furchtbaren Massenmorde auf das schärfste“. Seyß-Inquart rechnete bereits die Angriffskriege des Deutschen Reiches gegen die Beschlüsse der Teheran-Konferenz zur territorialen Aufteilung Osteuropas auf. Das Verfahren war von Anfang an öffentlich. Etwa 250 Zeitungs- und Rundfunk-Berichterstatter aus aller Welt waren akkreditiert. Zugelassen wurden nur Inhaber eines ausländischen Passes oder Staatenlose. Darunter waren viele bekannte Schriftsteller und Journalisten, beispielsweise: Louis Aragon, Willy Brandt, Alfred Döblin, Jan Drda, Ilja Ehrenburg, Konstantin Fedin, Janet Flanner, František Gel, Martha Gellhorn, Ernest Hemingway, Robert Jungk, Erich Kästner, Alfred Kerr, Erika Mann, Peter de Mendelssohn, Victoria Ocampo, John Dos Passos, Boris Polewoj, Gregor von Rezzori, Gitta Sereny, William L. Shirer, John Steinbeck, Elsa Triolet, Nora Waln, Rebecca West und Markus Wolf. Außerdem wurden führende politische Persönlichkeiten aus Deutschland eingeladen, damit sie Eindrücke vom Inhalt und Verlauf des Prozesses gewinnen konnten. Zudem wurde der Prozess auf Film und Fotos dokumentiert. Nach Abschluss des Prozesses wurden die vollständigen Protokolle von der amerikanischen Regierung in den Jahren 1949–1953 in authentischer englischer Textfassung veröffentlicht, die auch die Statute und einige Dokumente enthält. Diese 15-bändige Edition der „Green Series“ ist bis heute eine der wichtigsten Quellensammlungen zur NS-Geschichte. Sie blieb in den 50er Jahren in Deutschland weitgehend unbekannt. In dieser Zeit wurde in Deutschland nur ein Buch mit Material aus den Nürnberger Prozessen gedruckt. Es enthielt die Verteidigungsreden des Rechtsanwaltes "Heinrich Laternser" aus dem OKW-Prozess. Im Übrigen herrschte die Schlussstrich-Mentalität. Erst Anfang der 60er Jahre publizierte der Ost-Berliner Verlag Rütten & Loening die in den Nachfolgeprozessen gesprochenen Urteile mit einem polemischen Vorwort im Zeichen des Ost-West-Konfliktes. Dieses Ignorieren der Nürnberger Prozesse als Bestandteil einer großen kollektiven Verdrängung bezeichnete Ralph Giordano als „zweite Schuld der Deutschen“. Die Kritik am Nürnberger Prozess gegen die Hauptkriegsverbrecher und an den Folgeprozessen ist im Artikel "Nürnberger Prozesse" dargestellt. Niki de Saint Phalle. a> auf der Mike-Gehrke-Promenade in Hannover Teilansicht des Strawinski-Brunnens in Paris Niki de Saint Phalle (* 29. Oktober 1930 in Neuilly-sur-Seine; † 21. Mai 2002 in San Diego; eigentlich "Catherine Marie-Agnès Fal de Saint Phalle") war eine französisch-schweizerische Malerin und Bildhauerin. In Deutschland wurde sie als Künstlerin vor allem durch die „Nana“-Figuren bekannt, die 1974 in Hannover am Leibnizufer, heute Teil der Skulpturenmeile, aufgestellt wurden. Leben. Niki de Saint Phalle wurde in einem Pariser Vorort geboren, wuchs aber hauptsächlich in den USA auf und wurde infolge ihrer Heirat mit Jean Tinguely im Jahr 1971 in der Schweiz eingebürgert. Sie war ebenso wie Tinguely eng mit der Familie des ebenfalls in der Schweiz lebenden Kunstmäzens und Sammlers Theodor Ahrenberg befreundet. Von 1936 bis 1945 besuchte Niki de Saint Phalle die Klosterschule Sacré-Cœur in New York. Mit elf Jahren wurde sie von ihrem Vater sexuell missbraucht ein Schock, der sie über eine spätere Therapie zur Kunst führte. Mit 18 Jahren heiratete sie heimlich ihren Jugendfreund Harry Mathews, 1951 und 1955 bekamen sie ihre Kinder Laura und Philip. 1952 kehrte sie nach Paris zurück. 1953 entstanden ihre ersten Gemälde. Zunächst arbeitete sie als Aktionskünstlerin und machte ab 1956 mit ihren Schießbildern auf sich aufmerksam, dies waren Gipsreliefs mit eingearbeiteten Farbbeuteln, auf die sie während der Vernissage schoss. 1960 erfolgte die Scheidung von Mathews. Ab 1962 wurde sie von Alexander Iolas finanziell unterstützt, er organisierte ihr Ausstellungen und führte sie in den Kreis prominenter Künstler ein. 1962 nahm sie gemeinsam mit Jean Tinguely an der Ausstellung Dylaby in Amsterdam teil. Ab 1964 entstanden die ersten „Nanas“ − Frauenfiguren mit betont üppigen und runden Formen – anfangs noch aus Draht und Textilien gefertigt. Schon bald wechselte sie jedoch ihre Technik und arbeitete vorwiegend mit Polyester, einem Material, das unter anderem bevorzugt im Bootsbau verwendet wird. 1965 entstand für die Peter Stuyvesant Zigarettenfabrik in Zevenaar die 2 Meter hohe "Lili ou Tony". 1966 installierte sie auf Veranlassung des Direktors Pontus Hultén (unter Mitarbeit ihres späteren zweiten Ehemanns Jean Tinguely, den sie 1955 kennengelernt hatte) und des Schweden Per Olof Ultvedt im Stockholmer Moderna Museet eine 29 Meter lange liegende Skulptur mit dem Namen "Hon" (schwedisch: „sie“), die durch die Vagina betreten werden konnte und in deren Innerem sich unter anderem eine Bar und ein Kino befand. Die Nanas sind mit reinbunten Farben gemalt worden. 1968 nahm Niki de Saint Phalle erstmals an einer Ausstellung des Museum of Modern Art in New York teil. Weitere Ausstellungen folgten 1969 in München und in Hannover sowie 1970 in Paris, 1971 in Amsterdam, Stockholm, Rom und New York. 1979 begann sie in der Toskana in Capalbio, südlich von Grosseto, mit dem Bau des "Giardino dei Tarocchi". Dieser "Garten des Tarot" wurde 1998 für die Öffentlichkeit freigegeben. Noch bekannter ist der 1982 begonnene Bau des Strawinski-Brunnens vor dem Centre Pompidou in Paris, der von ihr zusammen mit Jean Tinguely gestaltet wurde. Niki de Saint Phalle gehörte auch zu den Gründungsausstellern der Bundeskunsthalle in Bonn. Von Juni bis November 1992 stellte sie unter anderem auf dem dortigen Dachgarten über 20 zum Teil begehbare Großplastiken aus. 1999 übernahm Niki de Saint Phalle den Auftrag zur Ausgestaltung der Grotten im Großen Garten in Hannover-Herrenhausen, die seit 2003 für Besucher offenstehen. Ihr Werk „L’ange protecteur“ („Schutzengel“, schwebende Frauenfigur) befindet sich in der Halle des Zürcher Hauptbahnhofes. Sie starb am 21. Mai 2002 im Alter von 71 Jahren im Süden des US-Bundesstaates Kalifornien in San Diego, das für sein mildes pazifisches Klima bekannt ist. Die Ärzte hatten ihr den Aufenthalt dort aus gesundheitlichen Gründen empfohlen. Sie selbst war der Meinung, dass sie nach jahrzehntelanger Arbeit mit den giftigen Dämpfen, die bei der Verarbeitung des Kunststoffes entstehen, schwere Gesundheitsschäden der Atemwege davongetragen hatte. Ihre Grunderkrankung war aber selektiver Immunglobulin-A-Mangel. Ihre chronische Bronchitis, die extrem schmerzhafte rheumatische Arthritis, ihre Schilddrüsenerkrankung, das Asthma und die Lungenentzündungen sind durch den starken Immunglobulinmangel zu erklären. Atemnot und wiederholte Lungenentzündungen traten schon lange vor ihrer Arbeit mit Kunststoffen auf. Später verstärkten die giftigen Kunststoffdämpfe, das Einatmen von Pigmenten und das Passivrauchen wahrscheinlich das Lungenleiden. In ihrem letzten Lebensjahrzehnt war der Immunglobulinmangel bei ihr plötzlich nicht mehr nachweisbar. Ihr siegreicher Entwurf für die Neugestaltung des Hamburger Spielbudenplatzes konnte wegen ihres Todes nicht mehr verwirklicht werden. Hörspiele. Die Hörspielautorin und -regisseurin Barbara Meerkötter entwickelte das Hörspiel "Big Girl Now! Klappe 1-16 für Niki de Saint Phalle", welches assoziativ und impulsiv Nikis Leben mit dem Film "Un rêve plus long que la nuit" (dt. "Ein Traum – länger als die Nacht oder Camélia und der Drachen") verbindet. Die Ursendung fand am 15. März 2013 beim RBB Kulturradio statt. Provinz Niederschlesien. Die Provinz Niederschlesien entstand nach dem Ersten Weltkrieg durch Aufteilung der Provinz Schlesien in die zwei neuen Provinzen Niederschlesien (West- und Mittelteil) und Oberschlesien (östliches Drittel). Gebiet und Bevölkerung. Von 1919 bis 1938 und von 1941 bis 1945 war Niederschlesien eine eigenständige preußische Provinz mit der Hauptstadt Breslau. Die Provinz Niederschlesien wurde 1919 durch Teilung der bisherigen Provinz Schlesien gegründet und bestand im Wesentlichen aus den Regierungsbezirken Liegnitz und Breslau. Als Folge des Zweiten Weltkrieges wurden 1945 die Landesteile Niederschlesiens östlich der Oder-Neiße-Linie unter polnische Verwaltung gestellt. Der kleine Teil westlich der Lausitzer Neiße, der allerdings – mit Ausnahme des Dorfes Pechern – historisch ein Teil der Oberlausitz war, nicht zum Kernland Niederschlesiens gehörte und diesem erst nach 1815 durch die preußische Verwaltungsreform angeschlossen wurde, gehört heute zu den deutschen Ländern Sachsen und Brandenburg. Es handelt sich um das Gebiet um Görlitz, Hoyerswerda, Rothenburg, Weißwasser, Niesky, Ruhland und Ortrand (siehe auch Niederschlesischer Oberlausitzkreis und Landkreis Oberspreewald-Lausitz). Seit 1999 gibt es eine polnische Woiwodschaft Niederschlesien, die teilweise mit dem historischen Niederschlesien übereinstimmt. Provinz Schlesien: 37.013 km²; 4.846.333 Einwohner (Mai 1939) Begriff nach 1945. Die Verwendung des Landschaftsnamen Schlesien oder Niederschlesien für die Gebiete westlich der Lausitzer Neiße war bis 1989/1990 in der DDR offiziell nicht erwünscht und nur bis 1968 im Namen Evangelische Kirche von Schlesien gebräuchlich. Danach untersagte die DDR-Führung der Landeskirche den Gebrauch des Begriffs und sie nannte sich Evangelische Kirche des Görlitzer Kirchengebietes. Der 1990 gegründete Landesverband Sachsen der Jungen Union nennt sich "Junge Union Sachsen & Niederschlesien". Die Evangelische Kirche des Görlitzer Kirchengebietes nahm 1992 den neuen Namen Evangelische Kirche der schlesischen Oberlausitz (EKsOL) an. 1994 entstand nach der Landkreisreform in Sachsen der Niederschlesische Oberlausitzkreis aus den Kreisen Görlitz-Land, Niesky und Weißwasser. Im August 2008 ging er im neuen Landkreis Görlitz auf. Nach einer Reform der polizeilichen Verwaltungsstrukturen in Sachsen entstand 2005 aus der Zusammenlegung der Polizeidirektionen Bautzen und Görlitz die Polizeidirektion Oberlausitz-Niederschlesien. Diese wurde zum 1. Januar 2013 in Polizeidirektion Görlitz umbenannt. Das Sächsische Kulturraumgesetz hat einen Kulturraum "Oberlausitz-Niederschlesien" für die kommunale kulturelle Zusammenarbeit definiert. Die Evangelische Kirche der schlesischen Oberlausitz fusionierte am 1. Januar 2004 mit der Evangelischen Kirche in Berlin-Brandenburg zur Evangelischen Kirche Berlin-Brandenburg-schlesische Oberlausitz. Der CVJM-Landesverband Schlesische Oberlausitz e. V. hat seinen Sitz in Görlitz. Ferner spielt der "Niederschlesische Fußballverein Gelb-Weiß Görlitz 09" in der Sachsenliga. Auch die Sparkasse im Landkreis Görlitz trägt den Namen "Sparkasse Oberlausitz-Niederschlesien", die Volksbank firmiert unter "Volksbank Raiffeisenbank Niederschlesien e. G." und die Verkehrsbetriebe heißen korrekt "Niederschlesische Verkehrsgesellschaft". Provinziallandtag. 1921: SPD 51,2 %, 43 Sitze | Zentrum 20,2 %, 17 Sitze | DVP 11,9 %, 10 Sitze | DDP 9,5 %, 8 Sitze | KPD 3,6 %, 3 Sitze | WP 2,4 %, 2 Sitze | USPD 1,2 %, 1 Sitz 1925: SPD 36,0 %, 41 Sitze | DNVP 26,0 %, 29 Sitze | Zentrum 14,7 %, 17 Sitze | DVP 6,2 %, 7 Sitze | DDP 3,8 %, 5 Sitze | KPD 3,5 %, 4 Sitze | WP 3,2 %, 4 Sitze | Bauernpartei 2,4 %, 3 Sitze | DVFP 0,9 %, 1 Sitz 1929: SPD 35,2 %, 39 Sitze | DNVP 22,0 %, 25 Sitze | Zentrum 14,3 %, 16 Sitze | WP 6,1 %, 7 Sitze | DVP 6,1 %, 7 Sitze | NSDAP 5,2 %, 6 Sitze | KPD 3,5 %, 5 Sitze | DDP 3,5 %, 5 Sitze 1933: NSDAP 51,7 %, 57 Sitze | SPD 20,9 %, 24 Sitze | Zentrum 11,2 %, 13 Sitze | DNVP 9,0 %, 10 Sitze | KPD 5,2 %, 6 Sitze An 100 % fehlende Stimmen: Nicht im Provinziallandtag vertretene Wahlvorschläge. New York (Bundesstaat). New York (standardsprachlich (AE), regional auch oder; BE:) ist ein Bundesstaat im Nordosten der Vereinigten Staaten von Amerika. Gemeinsam mit New Jersey und Pennsylvania wird New York den Mittelatlantikstaaten zugerechnet. New York hat eine Fläche von 141.299 Quadratkilometern und ist mit 19,3 Millionen Einwohnern (Stand: 2010) nach Kalifornien und Texas der drittbevölkerungsreichste Bundesstaat der USA. New York hat den offiziellen Beinamen "Empire State" (Imperiums-Staat). Die Hauptstadt New Yorks ist Albany; die größte Stadt ist New York City. Das Gebiet nördlich des Stadtgebiets von New York City wird als "Upstate New York" bezeichnet; New York City und Long Island bilden gemeinsam "Downstate New York". Größere Städte in "Upstate New York" sind Buffalo, Rochester, Syracuse, Albany, Schenectady und Utica. Geographie. New York grenzt im Süden an Pennsylvania und New Jersey, im Osten an Massachusetts, Connecticut und Vermont, im Norden und Nordwesten an die kanadischen Provinzen Québec und Ontario. New York hat zudem eine Seegrenze mit Rhode Island. Der Bundesstaat erstreckt sich auf einer Fläche von etwas mehr als 141.000 Quadratkilometern und nimmt damit nach Fläche den 27. Platz der US-Bundesstaaten ein. Relief. Der Bundesstaat New York ist von den Nordausläufern der Appalachen geprägt. Die durchschnittliche Höhe über dem Meeresspiegel liegt zwischen 300 und 1.000 Metern. Im Norden befinden sich die Adirondacks mit dem Mount Marcy, dem mit 1.629 Metern höchsten Berg des Staats. Im Norden grenzt der Staat an den Eriesee und den Ontariosee sowie an den Sankt-Lorenz-Strom, dort befinden sich kleinere Tiefländer. Im Südosten befindet sich das Tal des Hudson River sowie Long Island, eine ca. 200 km lange und 20 bis 30 km breite Insel, auf der große Teile von New York City liegen. Geologie. Die Appalachen, die den größten Teil des Staates einnehmen, sind ein Faltengebirge. Die im Bundesstaat liegenden Gebirgszüge gehören zum nördlichen Teil der Appalachen, sind somit rund 500 Millionen Jahre alt und gehören zu den Gebirgen, die durch die kaledonische Gebirgsbildung entstanden. Durch dieses hohe Alter wurde allerdings schon sehr viel Material abgetragen. Dies erklärt die relativ geringe Höhe, die die Appalachen im Vergleich zu anderen Faltengebirgen besitzen. Die Tiefländer sowie Long Island sind geologische Tafeln. Boden. Die Böden (v.a. Schwarzerde) sind denen in Mitteleuropa sehr ähnlich und relativ fruchtbar, jedoch trotzdem eher geringwertig. Je höher es in den Appalachen wird, desto felsiger und damit unfruchtbarer werden die Böden. Es gibt keine umfangreichen Bodenschatzvorkommen, sondern lediglich kleine Vorkommen an Eisenerzen, Steinsalz und Erdöl/Erdgas sowie Blei und Zink. Klima. Im gesamten Bundesstaat New York herrscht ein gemäßigtes Klima. Die Durchschnittstemperatur liegt an der Küste bei etwa 12 °C. Die Temperatur beträgt im Winter (Dezember–März) um 0 °C und im Sommer (Juni–September) ca. 25–30 °C. Der Unterschied ist mit bis zu 30 °C für eine Küstenregion relativ hoch. Die hohen Temperaturen im Sommer erklären sich durch die relativ südliche Lage (ca. 42° n. B.). Die kühlen Temperaturen des Winters resultieren aus Einflüssen der Appalachen. Die Jahresniederschlagsmenge beträgt ungefähr 1000 mm, der Niederschlag verteilt sich gleichmäßig auf das ganze Jahr. In den Appalachen dagegen sind die Temperaturen aufgrund der Höhe geringer, und es fällt weniger Niederschlag. In den Wintermonaten liegt die Durchschnittstemperatur bei bis zu –10 °C, im Sommer bei ca. 20 °C. Die Niederschlagsmenge ist um 200 bis 300 mm geringer als an der Küste, verteilt sich aber dennoch gleichmäßig. Im Nordwesten des Bundesstaates, an den Seen und am Sankt-Lorenz-Strom, unterscheidet sich das Klima kaum von dem der Appalachen, außer dass es aufgrund der geringeren Höhe etwas milder ist. Gewässer. Verlauf des Hudson Rivers, bzw. des Mohawk Rivers Der bedeutendste Fluss ist der Hudson, der im Norden des Staates entspringt. Er besitzt zahlreiche, kleinere Zuflüsse (z. B. Mohawk River), die ebenfalls in den Appalachen entspringen. Weitere bedeutende Flüsse sind Susquehanna River und Delaware River. Der Staat liegt am Eriesee im Westen und am Ontariosee im Nordwesten. Außerdem gibt es etliche kleine und mittelgroße Seen (z. B. die Finger Lakes mit dem Seneca Lake, Cayuga Lake und Oneida Lake, den Lake George sowie den Lake Champlain, der im Nordosten die Grenze zum Bundesstaat Vermont bildet), dazu viele Wasserfälle (z. B. die Niagarafälle oder die Taughannock Falls). Vegetation. Fast die gesamte Fläche des Bundesstaates wird von sommergrünen Laubmischwäldern und Grünland bedeckt, in höheren Lagen der Appalachen überwiegen die Laubmischwälder. Bevölkerung. Karte der Bevölkerungsdichte New Yorks New York hat 19.378.105 Einwohner (Stand: Zensus 2010), davon sind 57,2 % Weiße, 17,5 % Afroamerikaner, 18,4 % Mittel- bzw. Lateinamerikaner, 8,2 % Asiaten, 1,0 % Indianer. Alters- und Geschlechtsstruktur. Das Medianalter beträgt 38 Jahre. 48,5 % der Bevölkerung sind männlich und 51,5 % weiblich. Abstammung. 14,7 % der Einwohner sind italienischer Abstammung und stellen damit die größte Gruppe. Es folgen die Gruppen der Irisch- (13,4 %), Deutsch- (11,9 %), Englisch- (6,3 %) und Polnischstämmigen (5,3 %). Religionen. Die mitgliederstärksten Religionsgemeinschaften im Jahre 2000 waren die römisch-katholische Kirche mit 7.550.491, die United Methodist Church mit 403.362, die American Baptist Churches USA mit 203.297 und die anglikanische Episcopal Church mit 201.797 Anhängern. Darüber hinaus waren 1.653.870 Einwohner jüdischen und 223.968 Einwohner islamischen Glaubens. Wirtschaft. BSP des Staates New York: ca. 900 Mrd. US-Dollar (Anteil am Gesamt-BSP der USA: 7,8 %) BSP des Staates New York "pro Kopf": 46 617 US-Dollar (US-Durchschnitt 37 714 US-Dollar) Wirtschaftswachstum (2006): 3,4 % (US-Durchschnitt: 3,4 %) Wirtschaftszweige. Insgesamt ist der Wirtschaftsraum New York vom sekundären (Industrie) und tertiären (Dienstleistungen) Wirtschaftssektor geprägt. Die (gemischte und traditionelle) Landwirtschaft sowie der Fischfang spielen eine relativ geringe Rolle. Obst (v.a. Äpfel, Erdbeeren und Kirschen) wird am Hudson und am Ontariosee angebaut, in der Gegend um Rochester auch kleinere Mengen an Weizen. Ebenso gibt es sogar kleine Weinanbaugebiete. Es wird außerdem, in den hügeligeren Gebieten, Viehzucht betrieben. Der Bundesstaat New York gehört deshalb zu den größten Milchproduzenten der USA. Die landwirtschaftlichen Betriebe sind eher klein, das im Mittelwesten und Süden der USA verbreitete „Agrobusiness“ ist hier nicht vorhanden, weil die Flächen relativ klein sind. Die ebenfalls zum primären Sektor zählende Rohstoffgewinnung wird vorwiegend im Norden des Bundesstaates betrieben. An einigen wenigen Orten werden Eisenerze und Stahlveredler abgebaut, ebenso wie Steinsalze (in der Region um Rochester) sowie geringe Mengen an Erdöl und Erdgas im Südwesten. Die Industrie spielt in den mittelgroßen Städten (Buffalo, Rochester, Albany) eine große Rolle, der gesamte Bundesstaat New York gehört zum "Manufacturing Belt". Die wichtigsten Industriezweige sind der Maschinen- bzw. Fahrzeugbau sowie die Elektrotechnik. Grundlage dafür ist die Eisen- und Stahlerzeugung, die vorrangig in und um Buffalo betrieben wird. Elektrotechnik und das Druckgewerbe gehören zu den wichtigsten Industriezweigen in der Region um New York City. Dennoch nimmt diese Region eine Ausnahmestellung ein, denn die Dienstleistung ist hier der mit Abstand wichtigste Wirtschaftszweig. Zahlreiche Unternehmen der High-Tech-Industrie (z. B. IBM), des Banken- und Finanzwesens (z. B. Goldman Sachs, JP Morgan) sowie einflussreiche Zeitungen (z. B. The New York Times, The Wall Street Journal) und Fernsehsender (z. B. NBC, HBO) haben ihren Sitz in New York City, ebenso die weltweit wichtigste Börse (New York Stock Exchange). Außerdem befinden sich in New York City zahlreiche bedeutende wissenschaftliche (z. B. New York University, Columbia University) und kulturelle (z. B. Metropolitan Opera, Museum of Modern Art) Einrichtungen auf engstem Raum. Infrastruktur. Die Infrastruktur ist im Bundesstaat New York gut ausgebaut, verantwortlich für Planung, Bau und Wartung ist neben weiteren Behörden insbesondere das New York State Department of Transportation. Mehrere Highways verbinden New York City mit den Städten an den Großen Seen sowie mit den anderen Bundesstaaten, vor allem New Jersey, in dem viele Menschen wohnen, die in New York City arbeiten. Nur im Südwesten des Bundesstaates ist das Straßennetz sehr weitmaschig, allerdings besteht dort aufgrund der geringen Bevölkerungsdichte kaum Bedarf. Personenfernverkehr mit der Eisenbahn gibt es, bis auf den "Niagara Service" (auf der Strecke New York City – Buffalo – Niagara), nicht. Eher untypisch für die USA ist dagegen das weit verzweigte und viel genutzte U-Bahn- und Regionalbahn-Netz der Stadt New York. Dieses Netz entlastet die Straßen, die ohnehin häufig große Staus aufweisen. New York City besitzt mit dem J. F. Kennedy Airport (vorwiegend für Auslandsflüge) den dreizehntgrößten Flughafen der Welt (41,9 Mio. Passagiere im Jahr 2005; sechstgrößter Flughafen der USA). Ein weiterer Flughafen ist der La Guardia Airport, der hauptsächlich für Inlandsflüge genutzt wird. Dort wurden im Jahr 2006 gut 25 Mio. Passagiere abgefertigt. Weitere Flughäfen befinden sich in Albany, in Rochester, in Buffalo (Buffalo Niagara International Airport und Buffalo Municipal Airport) und in Syracuse, also in jeder größeren Stadt. Der Hafen von New York ist der größte Seehafen an der US-Ostküste. Der Containerumschlag hat vor allem am Standort Newark (NJ) der Port Authority of New York and New Jersey enorm zugenommen. Ein wichtiger Binnenhafen ist der der Stadt Buffalo. Hier werden vorwiegend Ausgangsstoffe für die im Bundesstaat New York ansässigen Industrien, wie z. B. Kohle, Eisenerze und Stahl, angeliefert. Hier mündet ebenfalls der Eriekanal, der den Eriesee über den Hudson mit dem Atlantischen Ozean verbindet. Wie in den gesamten USA haben auch im Bundesstaat New York nahezu alle Einwohner Zugang zu sauberem Trinkwasser und elektrischem Strom. Jedoch sind auch diese Versorgungsnetze stark renovierungsbedürftig, weitreichende Stromausfälle sind dafür ein häufiges Indiz. Das Telekommunikationsnetz (inklusive Internet) gehört zu den am besten ausgebauten und dichtesten der Welt. Ein wichtiger Energieträger ist die Wasserkraft, hier sind insbesondere die Kraftwerke an den Niagarafällen zu nennen. Ein weiterer großer Anteil wird durch Kernkraft (im Bundesstaat befinden sich drei Kernkraftwerke mit mehreren Kernreaktoren an zwei Standorten) und Erdgas gewonnen. Geschichte. a>, wie sie von etwa 700-1350 in Gebrauch waren. Dieser Typus ist relativ selten, sehr viel häufiger sind "Jack's Reef Corner Notched" oder "Jack's Reef Pentagonal" Die meisten Indianer auf dem Gebiet des heutigen Bundesstaats wurden vertrieben. So gingen viele Lenni Lenape nach Oklahoma, Mohican und Munsee nach Wisconsin, die Abenaki sind zwar in Kanada anerkannt, jedoch nicht in New York. Die "Mohegan nation" mit ihren Einzelstämmen, den Shinnecock, Pequot und Narraganset, blieben in der Region, doch ist ihre Zahl gering. So erinnert vor allem das Mashantucket Pequot Museum and Research Center in Connecticut an die Indianer von New York. Einzig die Irokesen leben zu einem großen Teil noch heute im Bundesstaat New York. Die 1621 gegründete niederländische Kolonie Nieuw Nederland wurde 1664 durch die englische Krone annektiert und in New Jersey und New York geteilt. Benannt wurde New York nach dem Herzog von York, dem späteren König Jakob II., der die Kolonie von seinem Bruder, König Karl II., geschenkt erhielt. 1667 traten die Niederlande im Frieden von Breda Nieuw Nederland an England ab. Die Abtretung wurde nach zeitweiliger Besetzung der Stadt New York durch eine niederländische Flotte 1674 im Frieden von Westminster bestätigt. 1685 wurde New York Kronkolonie und drei Jahre später, 1688, Teil des kurzlebigen Dominions Neu-England. Als 1689 die Nachricht von der Glorreichen Revolution die Kolonien erreichte, brachen Wirren aus, in denen der Deutsch-Amerikaner Jakob Leisler eine führende Rolle spielte. Erneut in Kraft gesetzt wurde die Kolonialverfassung der Provinz New York nach Ankunft eines neuen Gouverneurs 1691. Als eine der Dreizehn Kolonien trat New York 1788 als elfter Staat der amerikanischen Union bei. Die Stadt New York City wurde 1789 die erste Hauptstadt der USA. Gouverneur und Staatsregierung. New York State Executive Mansion, Residenz des Gouverneurs von New York Das State Capitol in Albany, Sitz der Legislative Gouverneur des Bundesstaates ist seit dem 1. Januar 2011 Andrew Cuomo von der Demokratischen Partei. Der Gouverneur übt auf bundesstaatlicher Ebene die Exekutivgewalt aus, das heißt, er führt die Staatsregierung und bestimmt die Richtlinien der Politik. Er verfügt über das Begnadigungsrecht, ernennt hohe Beamte sowie Richter am bundesstaatlichen Verfassungsgericht und nimmt in der Gesetzgebung eine zentrale Rolle ein, indem er Gesetzesbeschlüsse unterzeichnet oder sein Veto einlegt. Ferner ist er Oberbefehlshaber der Nationalgarde von New York und vertritt den Bundesstaat nach außen. Der Gouverneur wird im Turnus von vier Jahren direkt vom Volk gewählt. Weitere wichtige Mitglieder der Exekutive sind der Vizegouverneur, der Attorney General, der "Secretary of State" und der "State Treasurer" (entspricht etwa einem Finanzminister). Bundesstaatliche Legislative. Die gesetzgebende Gewalt auf Ebene des Bundesstaates wird durch die "New York State Legislature" ausgeübt. Sie besteht aus einem Staatssenat mit 63 direkt gewählten Senatoren und der State Assembly mit 150 direkt gewählten Abgeordneten. Die Amtszeiten betragen vier bzw. zwei Jahre. Während in der State Assembly die Demokraten eine deutliche Mehrheit der Mandate stellen, verfügen die Republikaner im Staatssenat über eine knappe Mehrheit. Sitz der State Legislature ist das Kapitol in Albany, der Hauptstadt des Bundesstaates. Präsidentschaftswahlen und Kongress. Zwischen 1809 und 1972 war New York der Bundesstaat mit den meisten Wahlmännerstimmen im Electoral College der Präsidentschaftswahlen. Für die Demokratische Partei der USA besitzt der Staat – neben seiner Tradition als ehemaliges Stimmenschwerstgewicht (mittlerweile nur noch auf Platz drei mit 31 Wahlmännerstimmen hinter Texas mit 34 Wahlmännerstimmen und Kalifornien mit 55 Wahlmännerstimmen) – große Bedeutung: Seit der Ära des New Deal unter dem New Yorker Franklin D. Roosevelt ist der Staat eine Hochburg der Demokraten, die lediglich einmal (1948) wegen besonderer Abneigung der Bevölkerung gegen Harry S. Truman an die Republikaner verloren ging. Zudem konnten nur die „übermächtigen“ republikanischen Kandidaten Dwight D. Eisenhower (1952 und 1956), Richard Nixon (1972) und Ronald Reagan (1980 und 1984) New York gewinnen. Bei den letzten Wahlen erzielten die Demokraten in New York Ergebnisse, die stets knapp unter oder sogar über 60 Prozent lagen. Diese Konzentration beschränkt sich allerdings auf die Städte New York City, Buffalo und Rochester; die Landbevölkerung wählt – wie in anderen Staaten der USA auch – überwiegend republikanisch. Erwähnenswert ist auch, dass New Yorker Republikaner, die in dem demokratisch geprägten Staat während der letzten zehn Jahre eine große Rolle gespielt haben, eher dem linken Flügel ihrer Partei zuzuordnen sind. Zu nennen sind hier George Pataki und Rudy Giuliani. Synonym als „moderater Republikaner“ ist der frühere US-Vizepräsident und Gouverneur des Staates New Yorks Nelson Rockefeller. Im Senat des 114. Kongresses wird New York von den Demokraten Charles Schumer und Kirsten Gillibrand vertreten. Die Delegation des Staates im Repräsentantenhaus besteht aus 18 Demokraten und neun Republikanern. Bildung. Der Staat New York ist ein bedeutender Bildungsstandort in den USA. Die wichtigsten staatlichen Universitäten sind in der State University of New York und der City University of New York zusammengefasst. Die bekanntesten privaten Hochschulen sind die Columbia University, die Cornell University und die New York University. Andere bekannte private Hochschulen sind die Fordham University, die Hofstra University, die Long Island University, die St. John’s University (New York), die Syracuse University, die University of Rochester und die Yeshiva University. Weitere Hochschulen sind in der Liste der Universitäten in New York verzeichnet. Sport. In Lake Placid fanden 1932 und 1980 Olympische Winterspiele statt. Lake Placid ist damit einer von nur drei Orten, die die Winterspiele zweimal austrugen. Tourismus. Wichtige Ziele für die US-Amerikaner sind Long Island (viele Badestrände und große Fischvorkommen zum Angeln), einige kleine Orte in den Appalachen (Wintersportorte), sowie fast der gesamte Bundesstaat im Herbst, wenn im sogenannten Indian Summer die Blätter der Laubbäume viele verschiedene, außergewöhnlich intensive Farbtöne erhalten. New York City ist mit seinen vielen kulturellen Einrichtungen (Metropolitan Opera, Museum of Modern Art, Guggenheim Museum) und berühmten Bauwerken (Freiheitsstatue, Empire State Building, Chrysler Building) sehr interessant. Insgesamt wird der Tourismus immer wichtiger, denn es wird wieder populärer, auf Long Island seinen Sommerurlaub zu verbringen. Die Anhebung der Flugpreise in den letzten Jahren ist der Grund dafür, dass viele US-Amerikaner nicht mehr in die Karibik oder noch weiter (z. B. nach Hawaii) fliegen. Die Wintersportgebiete sind noch sehr unzureichend erschlossen. Der "Indian Summer" ist nach wie vor populär. Niccolò Paganini. Porträt Niccolò Paganinis nach Paul Pommayrac 1838 Niccolò (oder Nicolò) Paganini (* 27. Oktober 1782 in Genua; † 27. Mai 1840 in Nizza) war ein italienischer Geiger, Gitarrist und Komponist. Zu seiner Zeit war er der führende und berühmteste Geigenvirtuose. Sein äußeres Erscheinungsbild und seine brillante Spieltechnik machten ihn bereits zu Lebzeiten zu einer Legende. Genua. Niccolò Paganini wurde nachweislich 1782 in Genua geboren. Er veranlasste 1821 seinen Freund, den Anwalt Luigi Germi, das Geburtsdatum zu fälschen und von 1782 auf 1784 zu verlegen. 1828 diktierte er Peter Lichtenthal für eine erste biographische Notiz, die 1830 in der "Leipziger Musik-Gazette" und 1853 in Mailand auf Italienisch erschien, dasselbe Jahr 1784. Auch Julius Max Schottky erhielt diese Angabe von Paganini persönlich für "Paganini's Leben und Treiben als Künstler und als Mensch: mit unparteiischer Berücksichtigung d. Meinungen seiner Anhänger u. Gegner". Daher galt das ganze 19. Jahrhundert hindurch 1784 als richtig. Paganinis Angaben zu seiner Kindheit und zur Rolle seines Vaters, die bei Schottky zu lesen sind, müssen aus demselben Grund kritisch gesehen werden. Nach eigenen Angaben erhielt Paganini bereits in frühester Kindheit Violinunterricht, unter anderem von seinem Vater Antonio Paganini, der ihn zum stundenlangen Üben zwang. War er dem Vater nicht fleißig genug, bekam der kleine Niccolò nichts zu essen. Bereits in dieser frühen Zeit erprobte er aus eigenem Antrieb die klanglichen Möglichkeiten der Violine und erfand „neue und sonst noch ungesehene Griffe [...], deren Zusammenklingen die Leute staunen ließen“. Schon als Kind fing er zudem an, Gitarre zu spielen. Nicht genau datierbar – zwischen 1791 und 1795 – bekam er Violinunterricht von Giacomo Costa in Genua. Vermutlich war er jedoch größtenteils Autodidakt, beeinflusst von den Werken, der Spielweise und der „Schule“ Giuseppe Tartinis, Pietro Locatellis, Giovanni Battista Viottis, Rodolphe Kreutzers und Pierre Rodes. Weitere Anregungen und Kenntnisse erlangte Paganini bei einem Aufenthalt in Parma zusammen mit seinem Vater von Ende 1795 bis gegen Ende 1797. Er erhielt dort Kompositionsunterricht bei Gasparo Ghiretti und Ferdinando Paër, komponierte unter deren Aufsicht einige Werke, darunter zwei heute verlorene Violinkonzerte, die er im Gran Teatro zu Parma, in Colorno und in Sala aufführen konnte. Zurück in Genua erlebte er, dass die Stadt von napoleonischen Truppen besetzt wurde. Dem entfloh er, indem er Oberitalien bereiste und dort Konzerte gab. Die Programme seiner Auftritte in Modena im Dezember 1800 zeigen, dass er neben Eigenkompositionen auch Konzerte von Rode und Kreutzer spielte. Ein Kabinettstückchen stellte sein "Spanischer Fandango" dar, in dem er die Stimmen verschiedener Vögel nachahmte und den er auch später im Ausland gerne darbot. 1801 kehrte er nach Genua zurück und widmete sich nach eigenen Angaben der Landwirtschaft und dem Gitarrenspiel. Er komponierte für die Gitarre, und zudem wurde die Gitarre für ihn ein wichtiges Utensil für das harmonische Denken und das mehrstimmige Komponieren. Lucca. Erstmals ohne den Vater reiste Paganini 1801 nach Lucca. Dort bewarb er sich erfolgreich um die musikalische Teilnahme am Hochamt von "Santa Croce". Großen Anklang fand ein Konzert in "Santa Croce" am 14. September 1801. Es brachte ihm Einladungen für weitere Konzerte ein. Im Januar 1805 wurde Paganini zum Konzertmeister im Orchester der Republik Lucca ernannt und, nachdem Fürstin Elisa Baciocchi, eine Schwester Napoleons, Herrscherin Luccas geworden war, stattdessen im September 1805 deren "Kammervirtuose" und "Operndirektor". Bis 1809 währte diese einzige feste Anstellung in Paganinis Leben. In dieser Zeit entstanden zahlreiche Werke für Violine und Orchester sowie für Violine und Gitarre. Italien. Ab 1810 war Paganini nahezu ständig auf Konzertreisen, zunächst zwei Jahre lang nur durch die Romagna und die Emilia, dann bis 1828 überaus erfolgreich durch das gesamte Italien von Turin bis Palermo. Bei Ricordi in Mailand wurden 1820 neben den "Sonaten für Violine und Gitarre" op. 2 und op. 3 sowie den "Quartetten" op. 4 und op. 5 die "24 Capricci" op. 1 gedruckt. Die "Capricci" kursierten von da an – auch in Kopien und Abschriften sowie in nicht autorisierten, oft im Notentext veränderten Drucken – in ganz Europa und ließen es erstmals zu, Paganinis Kunst nicht nur zu hören, sondern auch an einem Notentext zu überprüfen und zu analysieren, wie es später beispielsweise Robert Schumann und Franz Liszt tun konnten. Paganini allerdings trug die "Capricci" nie in einem Konzert vor. 1824 lernte Paganini bei einem Engagement am Teatro San Samuele in Venedig die Sängerin Antonia Bianchi kennen und ging mit ihr ein Verhältnis ein. In Palermo kam am 23. Juli 1825 der gemeinsame Sohn Achille Ciro Alessandro zur Welt. Antonia Bianchi reiste in den folgenden Jahren mit Paganini und trat in seinen Konzerten auf. Wien und Prag. Als Paganini schließlich 1828 Italien verließ und sich nach Wien begab, eilten ihm bereits viele Gerüchte und der Ruf voraus, ein überragender Violinvirtuose zu sein, der seine Zuhörer durch seine „Zaubergeigerkünste“ verhexe. In Wien feierten ihn Fachleute und Publikum enthusiastisch. Seine Konzerte wurden in allen Zeitungen besprochen, Korrespondentenberichte über seine Kunst gelangten auch nach Deutschland und Frankreich, Modezeitungen beschäftigten sich mit seinem angeblichen Lebenswandel, Gastronomie und Kleidermode wurden vom "à la Paganini" befallen, Gebrauchsgegenstände trugen sein Porträt, Gedichte und Possen mit dem Thema Paganini wurden veröffentlicht, Komponisten wählten für ihre Werke Melodien und Namen mit Anspielungen auf Paganini, und der österreichische Kaiser Franz I. verlieh ihm den Ehrentitel „Kaiserlicher Kammervirtuose“. Hier in Wien trennte sich Paganini von Antonia Bianchi. Achille blieb – vertraglich geregelt – bei Paganini und wurde von ihm umsichtig gepflegt und betreut. Gesundheitliche Probleme veranlassten Paganini, sich im August 1828 nach Karlsbad zu begeben, wo er Johann Nepomuk Hummel kennenlernte. Er gab dort zwei Konzerte, musste sich aber im Oktober wegen einer Unterkieferentzündung in Prag in Behandlung geben. Er wurde erfolgreich operiert, konnte einige nur zögerlich bejubelte Konzerte bestreiten, einige Werke für Violine und Gitarre komponieren und sich auf eine schon lange angestrebte Reise nach Deutschland vorbereiten. Kurz vor der Abreise diktierte er Julius Max Schottky seine Biographie, von der er sich eine Widerlegung all der über ihn verbreiteten Gerüchte erhoffte. Deutschland mit einem Abstecher nach Polen. Paganini, geehrt mit einem Lorbeerkranz, nach einem Konzert in München 1829 Beim deutschen Publikum allerdings trugen Paganinis schwarze Konzertkleidung, seine von Krankheiten gezeichnete Gestalt und Physiognomie genauso wie seine für die Zuhörer unerklärlichen musikalischen Fähigkeiten und Wirkungen dazu bei, das Bild des teuflisch-dämonischen Künstlers bis heute zu tradieren. Auch in Polen, wo er im Mai, Juni und Juli 1829 elf Konzerte gab, hatte Paganini große Erfolge. In Warschau spielte er anlässlich der Krönung von Zar Nikolaus I. zum polnischen König. Er traf dabei auf den ihm schon aus Piacenza bekannten polnischen Geiger Karol Lipiński, der ihm 1827 seine "Drei Capricci für die Violine solo" gewidmet hatte. Eines der Warschauer Konzerte besuchte Frédéric Chopin, der danach ein "Souvenir de Paganini" komponierte, das er allerdings nicht veröffentlichte. Besonders wohl fühlte sich Paganini in Frankfurt am Main, wo er im August und September 1829 auftrat. Dort mietete er eine Wohnung und konnte da seinen Sohn Achille während seiner weiteren Reisen in der Obhut einer Haushälterin zurücklassen. In Frankfurt lernte er den Kapellmeister Carl Guhr kennen, der einen bedeutenden Traktat über Paganinis Spielweise verfasste. In Frankfurt am Main unterbrach Paganini Anfang 1830 seine im Januar 1829 begonnene Serie von bis dahin 73 Konzerten und widmete sich dem Komponieren. Doch schon im März 1830 begann er hier die nächste Konzertreihe, in der ihn Robert Schumann am 11. April in Frankfurt hörte und daraufhin seine Klavierstudien exzessiv weiterbetrieb. Vom Oktober 1830 gibt es Skizzen Schumanns zu Variationen über Paganinis "La Campanella". Für ihn galt: „Paganini ist der Wendepunkt der Virtuosität.“ Doch nicht alle deutschen Berufsmusiker beurteilten Paganini nur positiv. Louis Spohr, der schon 1816 mit Paganini zusammengetroffen war und auf dessen Anregung hin Paganini in Kassel konzertierte, schrieb am 5. Juni 1830 in einem Brief: „Seine linke Hand, die immer reine Intonation und seine G-Saite sind bewunderungswürdig. In seinen Kompositionen und seinem Vortrag ist aber eine so sonderbare Mischung von höchst Genialem und Kindischem und Geschmacklosem, weshalb man sich abwechselnd angezogen und abgestoßen fühlt. Der Totaleindruck, besonders nach öfterem Hören, ist bei mir nicht befriedigend gewesen [...]“ Eine wichtige Quelle über Paganini als Privatperson verfasste in dieser Zeit der hannoversche Schriftsteller, Journalist und Theaterkritiker Georg Harrys, der Paganini vom 6. Juni bis zum 1. Juli 1830 als Impresario diente. Darin wird das private Fluidum Paganinis ohne Dämonisierung fassbar. Der lange Titel lautet: "Paganini in seinem Reisewagen und Zimmer, in seinen redseligen Stunden, in gesellschaftlichen Zirkeln, in seinen Concerten." Paris und Großbritannien. „Paris, London und Russland werden meine Million vervollständigen“, schrieb Paganini an seinen Freund und Berater Luigi Germi in Genua. Die weit über dem Üblichen liegenden Eintrittspreise für seine Konzerte während der Deutschlandtournee hatten ihm ein gut angelegtes Vermögen eingebracht, das es ihm erlaubt hatte, an vielen Orten Benefizkonzerte zu mildtätigen Zwecken zu geben, deren Erlöse er spendete. Russland erreichte Paganini nie, doch Paris betrat er zusammen mit seinem Sohn Achille bereits am 24. Februar 1831. Tatsächlich brachten ihm die neunzehn Konzerte seiner ersten, etwa dreimonatigen Frankreichtour – außer in Paris spielte er in Boulogne, Dunkerque, Lille, Saint-Omer und Calais – 153.000 Francs ein. In Paris stand er sofort im gesellschaftlichen Mittelpunkt. Dichter, Kritiker, Maler und Musiker drängten in seine Konzerte, darunter Théophile Gautier, George Sand, Castil-Blaze, François-Joseph Fétis, Eugène Delacroix, Gioachino Rossini, Luigi Cherubini, Jacques Fromental Halévy, Pierre Baillot, Giacomo Meyerbeer, Ole Bull und Franz Liszt. Für Liszt hatte das Erlebnis von Paganinis Virtuosität besonders große Auswirkungen. Er entwickelte in der Auseinandersetzung mit Paganinis Werken und dessen Art, das Publikum zu faszinieren, seinen hochvirtuosen Klavierstil und wurde zu einem vergleichbaren Publikumsmagneten. Zwischen Mai 1831 und März 1832 trat Paganini erstmals im Vereinigten Königreich von Großbritannien und Irland mit dem Schwerpunkt London auf. Seine weiteren dortigen Aufenthalte von Juli bis September 1832, Mai bis August 1833 und April bis Juni 1834 zeigen im groben Überblick gesehen bereits das Nachlassen von Paganinis künstlerischen und körperlichen Kräften. Ähnlich erging es ihm in Frankreich, zumal in Paris, wo er zwar zwischen März und Juni 1832 elf erfolgreiche Konzerte bestreiten konnte, aber auch von der Kritik auf künstlerischer und persönlicher Ebene angegriffen wurde. Noch deutlicher geschah das im Konzertwinter 1832/33 und vor allem im Sommer und Herbst 1834. Als Desaster endete schließlich Paganinis Engagement für eine Pariser Casino-Gesellschaft 1837/38. Im Dezember 1838 erlebte er in Paris die Uraufführung von Hector Berlioz' "Harold in Italien". Er huldigte Berlioz auf offener Bühne, konnte aber wegen seines Kehlkopfleidens kaum mit ihm sprechen. Wenige Tage später schenkte er Berlioz 20.000 Franc. Belgien. Die Reaktionen auf Paganinis Konzerte in Belgien im März 1834 waren zwiespältig. Einerseits feierte ihn das Publikum, andererseits bemerkten die Kritiker, darunter François-Joseph Fétis, Unsicherheiten in Paganinis Spiel und kreideten ihm an, dass er dilettantisch wirkende Sängerinnen in seinen Konzerten auftreten ließ. Eine von ihnen war Charlotte Watson, in die er sich in London verliebt hatte. Die Liaison mit ihr endete, wie alle Beziehungen Paganinis zu Frauen, unglücklich. Parma. Zusammen mit seinem Sohn Achille gelangte Paganini wie schon länger geplant Anfang September 1834 zurück nach Genua. Nach einem kurzen Verwandtenbesuch reiste er nach Parma, wo ihm Luigi Germi in seinem Auftrag die Villa Gajone gekauft hatte. Hier hoffte er wieder zu Kräften zu kommen. Der italienische Adel und das Königshaus nötigten ihn aber, Konzerte zu geben. Zur Ruhe kam er erst im Januar 1835. Zwei Monate lang konnte er ungestört komponieren und vollendete die bedeutenden, Germi gewidmeten "60 Variationen über Barucabà" op. 14. Am 12. Dezember 1835 trat er in Parma ein Amt an, das er sehr gewissenhaft erfüllte: er wurde Mitglied der Kommission des Hoforchesters, was einem heutigen Generalmusikdirektor nahekommt. Er führte Opern auf, kümmerte sich um eine Verbesserung des Instrumentariums und erarbeitete umfangreiche "Entwürfe eines Reglements für das Herzogliche Orchester von Parma und für eine in dieser Stadt zu errichtende Akademie". Es handelt sich um einen fortschrittlichen Normenkatalog, der den Zuständigen bei Hofe und der Herrscherin Marie Louise allerdings zu weit ging. Enttäuscht gab Paganini im Juli 1836 seine Stellung in Parma auf und ging wieder auf Konzertreisen, die im November 1839 in Nizza ihr Ende fanden. Nizza. Paganini hoffte, das milde Klima Nizzas trüge zur Linderung seiner vielen Beschwerden bei. An Berlioz schrieb er: „Wenn der Himmel es erlaubt, werde ich Sie im Frühjahr wiedersehen. Ich hoffe, daß mein Zustand sich hier bessern wird. Diese Hoffnung ist die letzte, die mir noch übrigbleibt.“ Und seiner Schwester vertraute er an, er wolle später in die Toskana gehen, um dort unter dem azurblauen Himmel seine letzte Stunde zu erwarten, und gerne wolle er sterben, dürfe er zuvor noch die Luft eines Dante und Petrarca atmen. Anfang Mai 1840 zwang ihn ein schwerer Anfall ins Bett. Seine Stimme war völlig vernichtet. Am 27. Mai 1840 starb Paganini in Nizza. Seinen Sohn Achille hatte er in seinem Testament als Universalerben eingesetzt. Da Paganini auf dem Sterbebett keine mündliche Beichte ablegen konnte und schriftlich nicht abgeben wollte oder konnte, wurde ihm nach bischöflicher Überprüfung ein christliches Begräbnis verwehrt. Erst 1876 fand sein Leichnam nach einer makaber anmutenden Odyssee vorübergehende Ruhe in geweihter Erde und liegt seit 1896 auf dem neuen Friedhof zu Parma, wo man ein Grabdenkmal errichtet hat. Krankheiten. Die Vermutungen über Paganinis Krankheiten stützen sich hauptsächlich auf zwei Gutachten seines mit ihm befreundeten Arztes Francesco Bennati aus den Jahren 1831 und 1845. Danach litt Paganini an den Folgen einer Masernenzephalitis aus früheren Jahren und an syphilitisch-tuberkulösen Beschwerden aus mittleren Jahren, die sich in einer Kehlkopftuberkulose mit Aphonie und einer großflächigen Knochennekrose des Unterkiefers mit Zahnverlust manifestierten und mit einem Blutsturz zu seinem Tod führten. Bennati beschrieb auch Paganinis Gestalt, was Anlass war, zu vermuten, Paganini sei vom erblichen Marfansyndrom befallen gewesen. Bennati vermutete, dass Paganinis Gestalt und die Beschaffenheit seiner Hände mit ihrer großen Dehnbarkeit und der Fähigkeit, die Finger zu überstrecken, die Grundlage für Paganinis technische Möglichkeiten bildeten. Allerdings zeigt der erhalten gebliebene Gipsabguss von Paganinis rechter Hand, dass seine Finger keineswegs ungewöhnlich lang waren: Der Mittelfinger des Gipsabgusses hat eine Länge von etwa 7,5 cm. Eine jüngst vorgenommene DNA-Analyse an Paganinis Nachkommen konnte ein Marfansyndrom ebenfalls nicht bestätigen. 31) zeigt, wie Paganini in hoher Lage auf der G-Saite spielt Die anhand zeitgenössischer Bilder und Beschreibungen erfassten körperlichen Merkmale Paganinis deuten auf das Ehlers-Danlos-Syndrom hin, das ebenfalls zur Überbeweglichkeit der Gelenke führen kann. Ob Paganinis belegte, vielfältige Unterleibsbeschwerden, insbesondere an Harnblase, Prostata und Dickdarm, und deren Folgen sowie seine Hautsensationen von den Primärerkrankungen oder sekundär von Behandlungsmethoden und Medikamenten verursacht wurden – Analysen von Haaren Paganinis ergaben zum Beispiel eine hohe Konzentration von Quecksilber – oder weitere Ursachen hatten, lässt sich nicht nachweisen. Paganinis Spielweise. Paganini in typischer Spielhaltung, Karikatur, London 1831 Carl Guhr schrieb 1829 einen Traktat, das sich systematisch mit der Ästhetik von Paganinis Violinspiel und mit dessen Techniken beschäftigt. Es zeigt, dass Paganinis Eigenheiten fast gänzlich auf dem traditionellen italienischen Violinspiel insbesondere Tartinis und Locatellis fußten. Was ihn davon unterschied, sind der exzessive Gebrauch der besonders schwierigen tradierten Techniken und die damit auf der Bühne erzeugte Aura des Persönlichen und Genialen. Längst bevor Paganini Europa bereiste, konnten seine Fähigkeiten anhand der 1820 als Opus 1 veröffentlichten, den „Artisti“ zu Studienzwecken gewidmeten "24 Capricci" für Violine solo erahnt werden. Sie enthalten fast all seine für ihn typischen technischen Anforderungen. Carl Guhrs ästhetische Einschätzung und technische Darstellung von Paganinis Spiel auf der Violine wird bestätigt durch einen Bericht des Geigers und Komponisten Ole Bull (1810–1880), der schon in jungen Jahren zu den ersten Geigern gehörte, die Paganinis "Capricci" spielten. „Guarneri del Gesù“ von 1743, die Paganini „Cannone“ nannte Paganinis Instrumente. In Paganinis Nachlass fanden sich 15 Violinen, darunter sieben von Antonio Stradivari, vier von Giuseppe Guarneri und zwei von Nicola Amati, außerdem zwei Violen von Stradivari, vier Violoncelli, darunter zwei von Stradivari und eine von Guarneri, sowie eine Gitarre. Ohne gesicherte Belege wird in der Literatur auch der napoleonische General Domenico Pino als Geber genannt. Diese Violine wurde 1742 oder 1743 von Bartolomeo Giuseppe Guarneri (Guarneri del Gesù) in Cremona gebaut. 1828 ließ sie Paganini in Wien von dem Geigenbauer Carl Nicolaus Sawicki umarbeiten. Sie erhielt einen Saitenhalter ähnlich wie eine Viola und ein neues Griffbrett, das etwas kürzer war und eine ausgeprägtere Wölbung aufwies. 1833 erlitt die Violine in London einen Schaden, dessen Behebung der Geigenbauer Jean-Baptiste Vuillaume erst 1838 vollendete. Vuillaume fertigte zudem eine Kopie an, die später Paganinis Schüler Camillo Sivori von seinem Lehrer erwarb. Die "Cannone" war vor allem nach dem Umbau in Wien mit ihrem großen, runden Ton das ideale Instrument, um Paganinis dünne Besaitung, die den Ton schlank machte, wettzumachen. Dank der ungewöhnlichen Dehnbarkeit der Finger seiner linken Hand wurde die "Cannone" zu einer wunderbaren Partnerin für Paganini; er konnte nämlich mit diesem Instrument neue Techniken entwickeln, und er zog großen Vorteil aus der Leistungsfähigkeit der Geige. Gerühmt wird unter anderem, dass die "Cannone" den Glanz eines Soprans und die Tiefe eines Baritons in sich versammele. 1817 kaufte Paganini von dem Mailänder Grafen Cozio di Salabue eine Stradivari-Geige von 1727, die seitdem "Comte Cozio di Salabue" genannt wird. Diese vier Instrumente befanden sich von 1832 bis zu seinem Tod in Paganinis Besitz. Danach gingen sie durch verschiedene Hände. So spielte zum Beispiel Emanuel Wirth die Viola Ende des 19. Jahrh. im Joachim-Quartett. In mühevoller Suche gelang es schließlich Emil Herrmann, einem bekannten Händler und Restaurator von Musikinstrumenten in New York, sie nach fast einem Jahrhundert wieder zu vereinen. Die reiche Witwe und Musikliebhaberin Anna E. Clarke (1878–1963), kaufte die vier Instrumente 1946 von Herrmann für 155.000 US-Dollar, und Henri Temianka, dem sie die Instrumente zur Verfügung stellte, gründete daraufhin das Paganini-Quartett. Der Internationale Violinwettbewerb "Premio Paganini" wurde 1954 in Genua mit dem Ziel gegründet, zur Förderung und zur Entdeckung von jungen Talenten beizutragen. Veröffentlichungen zu Lebzeiten. Kyoko Yonemoto spielt das Capriccio No. 24 in a-Moll Paganini hat zu Lebzeiten nur fünf Werke veröffentlicht. Sie waren nicht für den öffentlichen Vortrag bestimmt. Weitere Werke. Opus 6 bis Opus 14 wurden 1851 veröffentlicht. Außer bei op. 14 handelt es sich um Werke, die Paganini für seine eigenen Auftritte komponiert hat. Außerdem komponierte Paganini eine große Anzahl weiterer, großenteils unveröffentlichter Werke für Violine und Orchester, für andere Instrumente und Orchester, für Violine und Gitarre, für Violine und Klavier, für Violine solo, für Gitarre solo, für Mandoline, sodann Kammermusik unterschiedlicher Besetzung und Vokalmusik. Von Paganini geplante Projekte. Paganini selbst hatte sich eine Liste von 28 erfolgreichen Werken gemacht, die er veröffentlichen wollte, darunter auch Einzelsätze aus seinen Konzerten. Damit wollte er nicht zuletzt den vielen inzwischen erschienen Plagiaten, Imitationen und Arrangements entgegentreten. Gegen Ignaz Moscheles und dessen "Gems à la Paganini" (3 Bände, London 1832) ging Paganini deshalb mit Erfolg gerichtlich vor und erhielt von Moscheles eine Entschädigung. Zu dieser Veröffentlichung ist es nie gekommen, auch nicht zur geplanten Violinschule. Klassische Musik. Paganini ist Hauptfigur in Franz Lehárs gleichnamiger Operette aus dem Jahr 1925. Rockmusik. Die Heavy Metal-Band Paganini benannte sich nach dem Violinisten. Gitarrenvirtuose Yngwie Malmsteen zitiert den Geiger (neben Johann Sebastian Bach und Ludwig van Beethoven) als eine seiner Hauptinspirationen. Film. In seinem Spielfilm Kinski Paganini aus dem Jahr 1989 verarbeitete Klaus Kinski seine Sichtweise auf Paganini. Der Film erhielt kaum gute Kritiken und nur sehr wenig internationale Aufmerksamkeit. Am 31. Oktober 2013 startete Bernard Roses Verfilmung „"Der Teufelsgeiger"“ in den deutschen Kinos. Auch dieser Film, in dem Stargeiger David Garrett die Hauptrolle übernahm, erhielt überwiegend schlechte Kritiken. Bemängelt wurden insbesondere ein unbestimmtes Drehbuch und durchweg schwache Darstellerleistungen. Die Musik Paganinis und deren Inszenierung durch Garrett wurden dagegen von allen Seiten gelobt. Nördlinger Ries. Nördlinger Ries vom Goldberg aus a>. Die bewaldeten Hügel am rechten Bildrand bilden den südlichen Kraterrand. Im Nördlinger Ries, Blick nach Osten auf den Kraterrand Das Nördlinger Ries ist ein Naturraum (Haupteinheit 103 - "Ries") des Schwäbischen Keuper-Lias-Lands im Südwestdeutschen Stufenland. Es liegt im Grenzgebiet zwischen Schwäbischer Alb und Fränkischer Alb im Städtedreieck Nürnberg – Stuttgart – München. Es dehnt sich zum größten Teil auf den schwäbischen Landkreis Donau-Ries in Bayern aus, ein kleiner Anteil befindet sich im baden-württembergischen Ostalbkreis. Ein geringer Anteil entfällt auf den mittelfränkischen Landkreis Weißenburg-Gunzenhausen, ebenfalls in Bayern. Das nahezu kreisförmige, flache Ries hebt sich auffällig von der hügeligen Landschaft der Alb ab. Aufgrund der im Ries gefundenen Gesteine, insbesondere des Suevits, wurde das Ries zunächst für eine vulkanische Struktur gehalten. Erst 1960 konnte nachgewiesen werden, dass es Überreste eines etwa 14,6 Millionen Jahre alten Einschlagkraters sind, der während des "Ries-Ereignisses" entstand. Das Ries zählt zu den am besten erhaltenen großen Impaktkratern der Erde. Herkunft des Namens. Der Name „Ries“ leitet sich vom Namen der römischen Provinz „Raetia“ ab, da man hier zur Römerzeit, von Westen kommend, diese Provinz betrat. Aussehen. Das Nördlinger Ries ist nahezu kreisrund (Abmessung etwa 20 × 24 Kilometer). Die Flächenausdehnung beträgt 348 km². Der Krater ist aufgrund seiner Größe und der starken Verwitterung nur aus der Luft deutlich zu erkennen. Vom Boden aus erscheint der Kraterrand als eine bewaldete Hügelkette ringsum am Horizont. Der heutige Kraterboden, in dem es, im Gegensatz zur angrenzenden hügeligen Alblandschaft, keine größeren Erhebungen gibt, liegt rund 100 bis 150 Meter unterhalb der umgebenden Hochflächen der Schwäbisch-Fränkischen Alb. Eine Ausnahme bildet lediglich eine ringförmige Hügelkette im Inneren des Kraters ("Innerer Wall", "Innerer Ring" oder "Kristalliner Ring"), die das Nördlinger Ries als komplexen Impaktkrater kennzeichnet und von einfachen, „schüsselförmigen“ Kratern unterscheidet. Bestandteile des inneren Ringes sind zum Beispiel die Marienhöhe bei Nördlingen, der Wallersteiner Felsen oder der Wennenberg bei Alerheim. Im Nördlinger Ries liegen einige Städte, darunter als größte Nördlingen, Harburg, Oettingen, Bopfingen und Wemding. Die Wörnitz durchquert von Nord nach Süd in zahlreichen Mäandern den flachen Rieskessel, am Südrand des Rieses fließt ihr die seinen Westen entwässernde Eger zu. Frühe Theorien. Die Geologen hatten mehr als ein Jahrhundert lang große Schwierigkeiten, die Entstehung des Rieses und seiner ungewöhnlichen Gesteine zu erklären, wodurch im Laufe der Zeit verschiedenartige Deutungen konkurrierten. Weil das im Ries vorkommende Suevit-Gestein dem vulkanischen Tuff ähnlich ist, wurde dabei meist irgendeine vulkanische Entstehung angenommen. Bereits Mathias von Flurl, der Begründer der Geologie in Bayern, beschrieb das Ries 1805 als "vulkanische Gegend". Carl Wilhelm von Gümbel schloss aus der Verteilung des Suevits 1870 auf die Existenz eines "Ries-Vulkans", der aber im Laufe der Erdgeschichte wieder völlig abgetragen worden sei, so dass nur noch die von ihm ausgeworfenen Gesteine erhalten blieben. Wilhelm Branco und Eberhard Fraas versuchten 1901 das Fehlen eines Vulkans dadurch zu erklären, dass eine aufsteigende, unterirdische Magmakammer zunächst zu einer Hebung des Untergrundes führte und es später durch Eindringen von Wasser an mehreren Stellen zu explosionsartigen Verdampfungen kam. Der Offizier Walter Kranz zeigte ab 1910 durch Sprengversuche, dass die Erscheinungen im Ries am besten durch eine einzige zentrale Explosion zu erklären sind. Als Ursache der Explosion nahm auch er das Eindringen von Wasser in eine Magmakammer an. Kranz kam damit, von der Ursache der Explosion abgesehen, dem tatsächlichen Entstehungsmechanismus bereits sehr nahe. Außer den vulkanischen wurden auch andere Theorien diskutiert, die das Ries-Phänomen erklären sollten, etwa glaziale, wonach es sich um die Folgewirkung einer früheren Vergletscherung handle oder tektonische, nach denen ein Kesselbruch im Zusammenhang mit der Entstehung der Alpen ursächlich gewesen sein sollte. Keine dieser Hypothesen konnte jedoch alle Eigenheiten des Nördlinger Rieses schlüssig erklären. Bereits 1904 machte Ernst Werner einen Meteoriteneinschlag für die Entstehung des Rieses verantwortlich. Auch Otto Stutzer stellte 1936 Ähnlichkeiten zwischen dem Barringer-Krater in Arizona und dem Ries fest, konnte der Impakttheorie aber ebenfalls noch nicht zum Durchbruch verhelfen. Impakttheorie. Die US-amerikanischen Geologen Eugene Shoemaker und Edward C. T. Chao konnten 1960 schließlich anhand von Gesteinsproben nachweisen, dass der Krater tatsächlich durch einen Meteoriteneinschlag, das so genannte "Ries-Ereignis", entstanden sein muss. Der Nachweis erfolgte primär durch das Auffinden von Stishovit und Coesit, beides Hochdruckmodifikationen von Quarz, die nur unter den extremen Bedingungen eines Meteoriteneinschlags entstehen können, nicht aber durch Vulkanismus. Der Meteorit, der vor 14,6 (±0,2) Millionen Jahren im Miozän (Langhium) das Nördlinger Ries erzeugte, dürfte einen Durchmesser von etwa 1,5 km gehabt haben und mit einer Geschwindigkeit von etwa 15–50 km/s (das entspricht 54.000-180.000 km/h) eingeschlagen sein. Die Explosion beim Auftreffen des Meteoriten hatte die Energie von mehreren 100.000 Hiroshimabomben. Durch den Einschlag wurden 150 km3 Gestein ausgeworfen, sogar Teile aus dem kristallinen Grundgebirge, denn der Meteorit durchschlug das 600 m starke Deckgebirge aus mesozoischen Sedimentgesteinen (Kalkgesteine, Tone). Einzelne Steine des Auswurfs wurden in eine Entfernung von bis zu 70 km geschleudert, Tektite sogar bis zu 450 km. In wenigen Minuten war ein Krater von beinahe 25 km Durchmesser und rund 500 m Tiefe entstanden. Nahezu jegliches Leben im Umkreis von mindestens 100 km wurde schlagartig ausgelöscht. In der Zeit nach dem Einschlag füllte sich der Krater mit Wasser und wurde dadurch zu einem rund 400 km2 großen See. In diesem abflusslosen Binnengewässer reicherten sich Salze an, so dass der Salzgehalt des so entstandenen Salzsees schließlich den der heutigen Weltmeere übertraf. Über die folgenden zwei Millionen Jahre verlandete der Kratersee nach und nach. Erst während der Eiszeiten wurde der heutige Rieskessel durch Erosion freigelegt und Löss eingetragen, der die Grundlage für die heutige landwirtschaftliche Nutzung bildet. Nachbarereignis. Etwa 40 km südwestlich vom Nördlinger Ries liegt das Steinheimer Becken, ein weiterer Einschlagskrater mit 3,5 km Durchmesser. Er ist ebenfalls rund 15 Millionen Jahre alt und dürfte auf das gleiche Ereignis wie das Ries zurückgehen. Demnach handelte es sich bei dem kosmischen Körper, dessen Einschlag die beiden Krater hinterließ, um einen Asteroiden, der von einem kleineren Satelliten begleitet wurde. Geologie. Das Nördlinger Ries zählt zu den am besten erhaltenen großen Impaktkratern der Erde. Besonders im Süden, Südosten und Osten des Kraters sind sowohl der Kraterrand, als auch die aus dem Krater ausgeworfenen Gesteine "(Auswurfdecke)" noch relativ gut erhalten. Dem Ries kommt daher in der Erforschung irdischer Impaktkrater eine bedeutende Rolle zu. Selbst die Astronauten der NASA-Mission Apollo 14 absolvierten hier vom 10. bis 14. August 1970 vor der Mondlandung ein geologisches Training. Unter der Leitung der Tübinger Geologen Wolf von Engelhardt, Dieter Stöffler sowie Günther Graup wurden sie mit den Merkmalen und den Gesteinen eines Meteoritenkraters vertraut gemacht. Am 29. Juni 1973 startete die Forschungsbohrung Nördlingen (FBN) auf einem Grundstück in Löpsingen. Beendet wurde die Bohrung am 15. Januar 1974 mit einer Tiefe von 1206 m. Es wurden im Wesentlichen drei Schichten erbohrt: Seesedimente bis 325 m, Suevit bis 606 m und zertrümmertes Grundgestein bis 1206 m. Im Jahr 2002 wurden drei Geotope im Nördlinger Ries vom Bayerischen Umweltministerium mit dem offiziellen Gütesiegel "Bayerns schönste Geotope" ausgezeichnet: Die Trümmergesteine von Wengenhausen, der Schwabenstein bei Aumühle und die Riesseekalke in Hainsfarth. Im Jahr 2006 erfolgte die Aufnahme des Nördlinger Ries in die Liste der 77 ausgezeichneten Nationalen Geotope Deutschlands. Kristallinbrekzien. Innerhalb des Kraterrands befindet sich im Ries noch eine zweite, ringförmige Hügelkette, der so genannte "Innere Wall". Die Basis dieser Hügel besteht aus Brekzien aus Granit und anderen magmatischen Gesteinen, die so stark zertrümmert sind, dass sie beim Ausgraben oft zu Sand zerfallen. Auch Strahlenkegel, die nach dem Meteoriteneinschlag beim Durchlauf der Schockwelle durch das Gestein gebildet wurden, können gelegentlich aufgefunden werden. Der innere Ring kommt durch die Rückfederung des Grundgesteins nach dem Meteoriteneinschlag zustande, ähnlich einem aus anderen Kratern, wie dem Steinheimer Becken, bekannten Zentralberg. Normalerweise ist das kristalline Grundgebirge bei ungestörter Lagerung außerhalb des Kraters erst 300 bis 400 m tiefer anzutreffen. Da dieser Wall kristallines Material enthält, wird er auch als "Kristalliner Ring" bezeichnet. Bunte Trümmermassen. → "Hauptartikel: Bunte Trümmermassen" Die Bunten Trümmermassen bilden die Hauptauswurfmasse des Rieskraters. Sie wurden durch die explosionsartige Verdampfung des Meteoriten beim Einschlag aus dem Krater ausgeworfen und oft kilometerweit durch die Luft geschleudert (ballistischer Auswurf) oder über die Oberfläche nach außen geschoben. Die Trümmermassen bestehen vorwiegend aus mesozoischen Sedimentgesteinen aus den unterschiedlichsten stratigraphischen Lagen, die regellos durchmischt vorgefunden werden. Ursprünglich bildeten die Bunten Trümmermassen eine geschlossene "Auswurfdecke" bis zu einer Entfernung von 40 km um das Ries, die bis zu 100 m mächtig war. Suevit. Der Suevit, ein für das Ries charakteristisches Impaktgestein, enthält neben thermisch veränderten Sedimentgesteinen und erstarrten Schmelzen einige Minerale, die nur bei extrem hohen Drücken und Temperaturen entstehen, wie Stishovit, Coesit und diaplektische Gläser. Bohrungen im Ries haben gezeigt, dass der Rieskrater bis zu 400 Meter hoch mit Suevit aufgefüllt ist. Vereinzelte Vorkommen von Suevit außerhalb des Kraters liegen stets auf den Bunten Trümmermassen auf. Daraus kann geschlossen werden, dass der Suevit aus der über dem Krater aufgestiegenen Glutwolke des Impakts abgelagert wurde, nachdem der Auswurf der Trümmermassen aus dem Krater abgeschlossen war. Reutersche Blöcke. Die so genannten "Reuterschen Blöcke", zum Teil Zentner schwere Jura-Kalksteinbrocken, wurden mit hoher Geschwindigkeit aus dem Krater ausgeworfen und flogen bis zu 70 km weit. Sie werden heute noch in der Umgebung von Augsburg und Ulm gefunden. Möglicherweise wurden sie beim Auswurf durch expandierende, heiße Gase aus der zentralen Explosion beschleunigt. Benannt sind sie nach dem Münchner Geologen Lothar Reuter, der 1926 die Verbreitung dieser Blöcke kartierte und sie als Auswürflinge aus dem Ries deutete. Moldavite. Seit langem wurden in Böhmen und Mähren, 250 bis 450 km vom Ries entfernt, flaschengrüne Tektite gefunden, die als Moldavite bekannt sind. Der Zusammenhang mit dem "Ries-Ereignis" wurde erst durch radiometrische Altersbestimmung und durch Experimente mit hochbeschleunigten Projektilen hergestellt. Heute glaubt man, dass diese Tektite nur Millisekunden vor dem Impakt entstanden sind, als die oberste Schicht der Erdoberfläche fortgerissen, aufgeschmolzen und mit hoher Geschwindigkeit nach Osten geschleudert wurde. Seesedimente. Das Innere des Kraters ist heute nahezu vollständig mit Sedimenten des ehemaligen Ries-Sees gefüllt. Die Tonsteinablagerungen erreichen eine Mächtigkeit von bis zu 400 m und überlagern den in den Krater zurückgefallenen "Rückfall-Suevit". Fossilfunde zeugen von einem artenarmen, aber individuenreichen Leben im See im Miozän. Die Schalen kleiner Wasserschnecken und Ostrakoden treten stellenweise sehr häufig auf. An einzelnen Lokalitäten wurden darüber hinaus fossile Vögel, Reptilien, Fische und Säugetiere gefunden. Dolomitische Grünalgenriffe, kalkig umkrusteter Schilf und Abdrücke eingeschwemmter Blätter von Landpflanzen geben einen Eindruck von der Pflanzenwelt des Ries-Sees. Geologisches Profil. Das geologische Profil zeigt den Aufbau des Rieskraters, wie er sich heute darstellt. Das Innere des Kraters ist vollständig mit Suevit und Seesedimenten gefüllt. Der "innere Ring" stellt die Abgrenzung zur "Megablock-Zone" dar, die durch teils Kilometer große Gesteinspakete gebildet wird, die zertrümmert, verkippt oder in Richtung des Zentrums abgerutscht sind. Als Kraterrand gilt die Grenze zwischen Gesteinspaketen, welche bei der Entstehung des Kraters verlagert wurden, und solchen, die an ihrer ursprünglichen Position verblieben sind. Um den Krater herum befindet sich die vornehmlich aus bunter Brekzie bestehende "Auswurfdecke". Stellenweise liegt auf der bunten Brekzie noch Suevit auf. Das kristalline Grundgebirge ist unter dem Zentrum des Kraters bis in eine Tiefe von etwa 6 km zertrümmert. Archäologie und Geschichte. "Von dem Ries" in Sebastian Münsters "Cosmographia", 1548 Das Ries auf einer Karte von 1738 Das Nördlinger Ries war in der Vorgeschichte und in römischer Zeit stark besiedelt. Die archäologischen Fundstellen konzentrieren sich in fast allen Epochen und Kulturen im Süden bis Südostens des Rieses, während der Nordwesten und teilweise der Westen deutlich weniger Fundstellen aufweisen. Ungewöhnlich ist der hohe Anteil prähistorischer Siedlungsplätze, während der Anteil von Gräberfeldern, besonders Grabhügeln, im Ries vergleichsweise gering ist. Dafür sind auf den umgebenden, bewaldeten Bergen zahlreiche Hügelgräberfelder erhalten. Der älteste archäologische Fund aus dem Nördlinger Ries ist ein rund 70.000 bis 80.000 Jahre alter Faustkeil aus dem Micoquien, einem Abschnitt des mittleren Paläolithikums. Zu den bekanntesten Fundstellen gehören die beiden Ofnethöhlen mit reichen jungpaläolithischen Fundschichten und zwei „Schädelnestern“, Kopfbestattungen des Mesolithikums. Zu Beginn des Neolithikums wurden die fruchtbaren Böden des Rieses offenbar intensiv genutzt, wie eine ganze Reihe bandkeramischer Siedlungen (etwa bei Möttingen-Enkingen, Möttingen-Kleinsorheim oder Nördlingen-Herkheim) belegt. Auch die jüngeren neolithischen Kulturen (etwa Stichbandkeramik, Rössener, Bischheimer, Michelsberger und Altheimer Kultur) sind mit einer ganzen Reihe von Siedlungen vertreten. Namengebend für eine jungneolithische Keramikfacies wurde eine Siedlungsphase auf dem mehrfach besiedelten Goldberg. Für die Bronzezeit ist der Brucherzhort von Alerheim-Bühl von Bedeutung. Ansonsten fällt in den Metallzeiten (Bronze- und Eisenzeit) die hohe Zahl von befestigten Höhensiedlungen an den Rändern des Rieses auf. Annähernd jede Erhebung in der Riesrandhügelzone war in der Bronze- oder Eisenzeit besiedelt, viele auch mehrfach (beispielsweise der Adlerberg, der Spitzberg bei Appetshofen, der Rollenberg bei Hoppingen und der Hahnenberg bei Möttingen). In der Hallstattzeit bestanden neben den Höhensiedlungen und unbefestigten Flachsiedlungen mehrere Herrenhöfe. In die folgende La-Tène-Zeit ist eine Viereckschanze zu stellen, die am Westrand des Rieses in Bopfingen-Trochtelfingen entdeckt wurde. Die intensive Nutzung des Rieses setzt sich in römischer Zeit fort. Ein ganzes Netz von villae rusticae ist belegt (z. B. in Harburg-Großsorheim und Nördlingen-Holheim), außerdem Friedhöfe, Straßen und drei Kastelle. Die römische Provinz, zu der das Ries gehörte, wurde als „Raetia“ bezeichnet, woraus sich der heutige Name „Ries“ entwickelte. In der Mitte des 3. Jahrhunderts entstanden im Ries und auf dem westlich angrenzenden Härtsfeld zahlreiche Siedlungen germanischer Siedler. Möglicherweise stand im Hintergrund eher eine römische Ansiedlungspolitik denn eine feindliche „Landnahme“. Möglicherweise begründet dies die Namenskontinuität von „Raetien“ zu „Ries“ gerade in dieser Gegend. In der Merowingerzeit zählte das Ries zum Altsiedelland und weist dementsprechend viele Reihengräberfunde auf. Im Zentrum des Rieses entstand im Mittelalter die Stadt Nördlingen. Sie wurde 1215 freie Reichsstadt. Weitere Städte im Ries sind Oettingen, Wemding, Harburg und Bopfingen. Dialekt. Im Nördlinger Ries wird das Rieser Schwäbisch gesprochen – eine ostschwäbische Dialektform, die Anklänge an das Neckarschwäbische zeigt, jedoch einige Besonderheiten aufweist. Tracht. Charakteristisch ist der Rieser Bauernkittel, ein einfaches, weiß oder rot besticktes blaues Baumwollhemd. An der Farbe der Bestickung soll man die Konfession des Trägers erkennen können: weiß für evangelisch, rot für katholisch. Küche. Die Rieser Küche vereint Elemente der schwäbischen und fränkischen Küche. Spezialitäten sind Rieser Hochzeitssuppe, Rieser Gans, Rieser Küchle, Stabenwürste und die Rieser Bauerntorte, ein kreisrunder, platter Apfelmuskuchen mit etwa 60 cm Durchmesser. Musik. Die in den Rieser Dörfern beheimateten Musikkapellen haben lange Tradition. Oftmals pflegt man in ihnen auch noch die Tradition des Goaßlschnalzens. Von Friedrich Völklein stammt das "Rieser Heimatlied", das zusammen mit dem Stabenlied traditionell von der "Nördlinger Knabenkapelle" auf dem Stabenfest gespielt wird. Umwelt. Die Herbst-Drehwurz ist nicht nur im Ries selten Der Rieskessel wird hauptsächlich landwirtschaftlich genutzt und ist nur gering bewaldet. Gesäumt wird der Rand des Rieses im Gegensatz dazu von größeren Waldflächen. Flora. Im südlichen und westlichen Ries befinden sich mehrere kleinere und größere Heideflächen, die zum Teil von Wacholder geprägt sind. Mehrere dieser Heiden sind als Naturschutzgebiete ausgewiesen. Typische Pflanzen sind hier der Steppenfenchel, seltener die Karthäuser-Nelke und die Silberdistel. Sehr selten ist noch die Herbst-Drehwurz zu finden. Ebenfalls sehr selten ist der Diptam, er kommt nur am westlichen Riesrand vor. Eine Besonderheit ist in einem Buchenwald am östlichen Riesrand das Große Knorpelkraut, welches in Deutschland selten ist und nur in Mainfranken in größerer Zahl vorkommt. Seit Beginn der 1990er Jahre werden durch das "Riesrand-Projekt" einige Ackerflächen extensiv bewirtschaftet. Auf diesen haben sich typische Pflanzen angesiedelt, zum Beispiel Sommer-Adonisröschen, Braunes Mönchskraut und der Kleine Frauenspiegel. Tourismus. Das Nördlinger Ries ist ein Touristenzentrum. Besonders auffällig ist die große Anzahl japanischer Touristen. Einerseits stellt die Nördlinger Altstadt mit ihrer historischen Kulisse einen Anziehungspunkt für Touristen dar, andererseits aber auch der Rieskrater und damit verbunden das Nördlinger Rieskrater-Museum. Das Stadtmuseum Nördlingen und das Bayerische Eisenbahnmuseum in Nördlingen sowie das Rieser Bauernmuseum Maihingen stellen Sehenswürdigkeiten im Ries dar. Die Romantische Straße durchquert mit dem Abschnitt Wallerstein – Nördlingen – Harburg das Ries, die Schwäbische Albstraße endet in Nördlingen. Daneben ist das Ries auch ein Naherholungsgebiet. Touristisch vermarktet wird das Ries über den Geopark Ries oder das Ferienland Donau-Ries. Verkehrsverbindungen. Die Bundesstraße 25, die in diesem Bereich einen Abschnitt der Romantischen Straße bildet, quert im Verlauf von Dinkelsbühl über Nördlingen nach Donauwörth das Ries, die Bundesstraße 466 im Verlauf von Heidenheim an der Brenz über Nördlingen nach Gunzenhausen, und die Bundesstraße 29 endet, von Bopfingen kommend, in Nördlingen. Die Bundesautobahn 7 (Würzburg–Ulm) läuft etwa 10 km entfernt am westlichen Riesrand vorbei. Die Riesbahn führt von Donauwörth über Nördlingen nach Aalen. Niederländische Euromünzen. Die niederländischen Euromünzen sind die in den Niederlanden in Umlauf gebrachten Euromünzen der gemeinsamen europäischen Währung Euro. Am 1. Januar 1999 trat die Niederlande der Eurozone bei, womit die Einführung des Euros als zukünftiges Zahlungsmittel gültig wurde. Erste Prägeserie (1999–2013). Alle Münzen werden in der niederländischen Münzprägestätte „Koninklijke Nederlandse Munt“ in Utrecht geprägt. Die niederländischen Euromünzen haben zwei verschiedene Motive, die beide das Porträt von Königin Beatrix der Niederlande zeigen und von Bruno Ninaber van Eyben entworfen wurden. Alle Münzen zeigen die zwölf Sterne der EU, das Prägejahr und die Inschrift "BEATRIX KONINGIN DER NEDERLANDEN". Anders als bei den meisten anderen Euroländern tragen die Münzen das tatsächliche Prägejahr. Des Weiteren tragen alle Münzen das Zeichen der niederländischen Münzprägestätte, den Hermesstab, und das des amtierenden Münzmeisters. Bei den Centmünzen sind diese rechts und links neben dem Prägejahr zu sehen. Auf den 1- und 2-Euro-Münzen befindet sich das Zeichen der Münzprägestätte unter den Worten "KONINGIN DER" und das des Münzmeisters unter "NEDERLANDEN". Seit 2007 werden alle Kursmünzen mit der neu gestalteten Vorderseite geprägt.Die nationalen Rückseiten der ersten Serie entsprechen nicht vollständig den Gestaltungsrichtlinien der Europäischen Kommission von 2008. Unter anderem sollen auf der nationalen Seite die europäischen Sterne wie auf der europäischen Flagge angeordnet sein – also insbesondere gleichmäßig im Kreis verteilt sein. Dies ist bei den Münzen mit dem Abbild Königin Beatrix' nicht erfüllt. Gemäß den Erhebungen der niederländischen Website "Eurodiffusie.nl" lag der Anteil der Euromünzen mit niederländischer Rückseite in den Niederlanden im Jahr 2009 noch bei etwa 30 %. Zugleich stammten etwa 25 % der Münzen aus dem sehr viel größeren und damit auch mit einem entsprechend umfangreicheren Münzkontingent ausgestatteten Nachbarland Deutschland. Der Anteil belgischer Euromünzen lag bei etwa 15 %. 1- und 2-Cent-Münzen. Die 1- und 2-Cent-Münzen werden in den Niederlanden so gut wie nicht verwendet, da bei Barzahlungen durchweg auf 5 Cent auf- oder abgerundet wird. Dies war auch zu Zeiten des Guldens der Fall, damals ist die 1-Cent-Münze aber 1980 auch offiziell abgeschafft worden. Zweite Prägeserie (ab 2014). Seit der Abdankung Königin Beatrix’ am 30. April 2013 ist Willem-Alexander König der Niederlande. Damit verbunden ist die Neugestaltung der niederländischen Euromünzen und somit auch die Umsetzung der geltenden Gestaltungsrichtlinien. Die Blickrichtung des Regierenden auf den Münzabbildungen, nach rechts oder links, pflegt bei jedem niederländischen Thronwechsel zu alternieren. Das Profil König Willem-Alexanders gestaltete Erwin Olaf. Nukleon. Als Nukleonen (Singular "Nukleon"; lat. "nucleus" „der Kern“; auch "„Kernteilchen“") bezeichnet man die Atomkernbausteine, also jene Teilchen, aus denen Atomkerne bestehen, nämlich Protonen und Neutronen. Nukleonen sind alle Baryonen, die ausschließlich aus den leichten Up- und Down-Quarks zusammengesetzt sind und den Isospin 1/2 haben. Diese Definition umfasst neben Proton und Neutron auch angeregte Zustände mit der Quarkzusammensetzung (uud) und (udd), die extrem kurzlebigen Nukleonenresonanzen. Die Particle Data Group sieht die Existenz von 16 Nukleonen als gesichert "(evidence is certain)" oder so gut wie gesichert "(evidence ranges from very likely to certain)" an und hat Hinweise auf weitere 13 Nukleonen (Stand: 2015). Hierbei werden die Ladungszustände nicht unterschieden; Proton und Neutron sind bei dieser Zählweise also ein und dasselbe Nukleon. Die Quarks besitzen nur 5 % der Masse der Nukleonen, die restlichen 95 % der Masse entstammen der Bindungsenergie und der Bewegungsenergie der Quarks. Einem Forscherteam am Forschungszentrum Jülich gelang es, die Masse von Protonen und Neutronen auf theoretischem Weg zu berechnen. Die Simulationen bestätigen die Grundlagen der Quantenchromodynamik. Neue Mathematik. Unter der Bezeichnung Neue Mathematik wurde in den 1960er und 1970er Jahren in vielen Ländern der schulische Mathematikunterricht reformiert. An Stelle des traditionellen Rechenunterrichts sollte Mathematik als Beschäftigung mit abstrakten Strukturen gelehrt werden. Die Neue Mathematik war eine internationale Strömung, die in den USA unter dem Namen "New Math" lief. Mit ihr wurde eine Entwicklung nachvollzogen, die in der wissenschaftlichen Mathematik in den Jahrzehnten um 1900 mit der mengentheoretisch-axiomatischen Formulierung der Grundlagen des Faches begonnen hatte und in den 1950er Jahren namentlich von der Gruppe „Nicolas Bourbaki“ in den akademischen Unterricht getragen wurde – wobei insbesondere Jean Dieudonné auch für die Übertragung in den Schulunterricht eintrat. 1959 gab er auf einer internationalen Konferenz der OEEC (dem Vorgänger der OECD) im Kloster Royaumont die Parole aus „Nieder mit Euklid – Tod den Dreiecken!“ Erste Debatten gab es dazu schon auf dem Internationalen Mathematikerkongress 1958 in Edinburgh. Eines der Motive war auch der Sputnik-Schock, in dessen Folge man einen großen pädagogischen Aufholbedarf im Westen ausmachte. Schon vor der OECD-Konferenz gab es eine entsprechende Bewegung in den USA, wo sie unter anderem von dem einflussreichen Chicagoer Mathematiker Marshall Stone gefördert wurde und von der School Mathematics Study Group (SMSG) unter Leitung von Edward G. Begle (Yale, später Stanford) und Howard Fehr (Columbia University Teachers College) vorangetrieben wurde, die von der National Science Foundation (NSF) finanziert wurde. Auch hier fand "New Math" Eingang in die Lehrpläne der Schulen (Secondary School Mathematics Curriculum Improvement Study (SSMCIS), geleitet von Howard Fehr). Es regte sich allerdings auch Widerstand, wie ihn beispielsweise 1973 Morris Kline in seinem Werk "Why Johnny can’t add. The failure of the New Math" formulierte. Auch in Frankreich regte sich Anfang der 1970er Jahre zunehmend Widerstand. In Westdeutschland war die „Neue Mathematik“ eine von mehreren Reformen, mit denen auf den von Georg Picht ausgerufenen „Bildungsnotstand“ reagiert werden sollte; in die gleiche Zeit fallen unter anderem auch die Einführung der "Reformierten Oberstufe" und die Neugründung von Reformuniversitäten wie in Bielefeld und Konstanz. Auf der Kultusministerkonferenz vom 3. Oktober 1968 wurde die flächendeckende Einführung der "Neuen Mathematik" für alle Schulformen ab dem Schuljahr 1972/73 beschlossen. Walter Robert Fuchs brachte es damals mit Büchern wie "Eltern entdecken die Neue Mathematik" (1970) zu Bestseller-Erfolgen. Eine bleibende Errungenschaft der „Neuen Mathematik“ ist beispielsweise die frühzeitige Einführung des Funktionsbegriffs im Unterricht der Mittelstufe. Weitergehende Neuerungen, wie zum Beispiel die Behandlung von Gruppen- und Körperaxiomen, wurden nach wenigen Jahren zurückgenommen. Die spektakulärste Neuerung bestand darin, den Mathematikunterricht in der Grundschule nicht mehr mit Zählen und Rechnen, sondern mit naiver Mengenlehre zu eröffnen. Ziel war es, neben der Vermittlung von Rechenfertigkeiten auch das logische Denken und das Abstraktionsvermögen der Kinder zu fördern. Dazu wurde die Mengenlehre didaktisch reduziert auf Mengendiagramme, deren Elemente bunte Plastikplättchen, die sogenannten „logischen Blöcke“, mit verschiedenen Eigenschaften waren. Diese Reform stieß jedoch auf den Widerstand von Eltern und Lehrern und wurde nach wenigen Jahren wieder abgeschafft. Grund für die Einführung war eine Studie, die konstatierte, dass Schüler, die freiwillig in Mengenlehre unterrichtet wurden, insgesamt bessere Leistungen im Fach Mathematik gezeigt hätten. Es stellte sich jedoch heraus, dass diese Studie formale Fehler aufwies, was dazu beitrug, die Reform rückgängig zu machen. Nitrofen. Nitrofen ist ein Herbizid, welches lange Zeit in der Landwirtschaft verwendet wurde. Es wurde 1964 in den USA als Unkrautvertilgungsmittel entwickelt und weltweit unter dem Handelsnamen "Trizilin", "TOK" und "Trazalex" vertrieben. Nitrofen-Rückstände in Eiern und Geflügel lösten im Sommer 2002 den Nitrofen-Skandal aus. Nitrofen greift in das Hormonsystem ein. Es ist ähnlich aufgebaut wie ein Schilddrüsenhormon und gilt als erbgutverändernd (mutagen). In Tierversuchen hat sich Nitrofen als krebserregend und fruchtschädigend erwiesen. Da es vom Körper nicht abgebaut wird, reichert es sich bei der Fütterung von Tieren im Fettgewebe an. Bei Legehennen kann es in die Eier übergehen. Verwendung. Die Anwendung von Nitrofen ist seit 1980 in der Bundesrepublik Deutschland verboten. Seit 1990 gilt das Verbot auch für Ostdeutschland. Die Europäische Union hat Nitrofen 1988 für alle Mitgliedsstaaten verboten. Auch in der Schweiz ist Nitrofen nicht mehr zugelassen. Als selektives Kontakt-Herbizid wurde Nitrofen hauptsächlich im Vorauflauf-Verfahren eingesetzt. Da es nur bei Lichteinfluss wirksam ist, sollte es nicht in den Boden eingearbeitet werden. Nitrofen wurde vor allem gegen Ungräser beim Getreideanbau verwendet, insbesondere gegen Windhalm und Acker-Fuchsschwanz. Daneben wurde es beispielsweise auch beim Anbau von Gemüse, Kartoffeln und Baumwolle gegen Gräser und zweikeimblättrige Unkräuter eingesetzt. Es ist ein braunes, kristallines Pulver und wurde als Spritzpulver oder als 25%iges Emulsionskonzentrat gehandelt. Grenzwerte. Nach der Rückstands-Höchstmengenverordnung (RHmV) vom 21. Oktober 1999 liegt die tolerierbare Menge an Nitrofen pro Kilogramm Lebensmittel bei höchstens 0,01 Milligramm. Infolge des Nitrofen-Skandals (s. u.) wurde der Grenzwert für Baby- und Kleinkindnahrung auf 0,005 mg gesenkt. Die Nachweisgrenze für Nitrofen liegt bei 0,004 mg/kg. Nitrofen-Skandal. Der "Nitrofen-Skandal" wurde im Sommer 2002 in Deutschland bekannt. 1988 wurde ein vollständiges Vertriebs- und Anwendungsverbot für den herbiziden Wirkstoff Nitrofen und nitrofenhaltige Substanzen in der damaligen EG (heute EU) erlassen, und damit auch in der Bundesrepublik gültig, wo bereits 1980 die Vertriebszulassung für nitrofenhaltige Mittel ausgelaufen war. Zu dieser Zeit existierte die DDR noch, in der Nitrofen und andere in der EU verbotene Pestizide weiter zugelassen und im Gebrauch waren. Es wurde erst 1990 für die neuen Bundesländer übernommen. Dementsprechend gab es nach der Wiedervereinigung noch eingelagerte Restbestände. So wurde in einer Lagerhalle, die nach der Einlagerung von Pestiziden nicht ausreichend überprüft und gereinigt worden war, Getreide für Futtermittel eingelagert. Das Getreide war hierdurch mit Nitrofen kontaminiert, als es an Geflügel verfüttert wurde. Da das Getreide als Bio-Futtermittel verkauft wurde, waren vor allem Eier und Geflügel aus Bio-Betrieben betroffen. Erstmals aufgefallen waren die erhöhten Nitrofenwerte im November 2001 bei einem Babynahrungshersteller, dessen Labor die Werte nachwies. Zunächst versuchte der Betrieb, seine Lieferanten zur Abhilfe zu bewegen, was aber misslang. Die erhöhten Werte blieben auch deswegen verhältnismäßig lang unentdeckt, da zu dieser Zeit wegen des lange bestehenden Verbots nicht mehr routinemäßig auf Nitrofen getestet wurde. So wurde auch erst im Juni 2002 die Europäische Kommission über das Schnellwarnsystem für Lebens- und Futtermittel von der Kontaminierung in Kenntnis gesetzt. Der Lebensmittelskandal brachte kurzzeitig die Verbraucherschutzministerin Renate Künast in Bedrängnis. Der durch den Skandal entstandene mittelbare und unmittelbare Schaden wurde vom Deutschen Bauernverband auf rund 500.000 Euro geschätzt und trug entscheidend zur Verordnung (EG) Nr. 1935/2004 „über Materialien und Gegenstände, die dazu bestimmt sind, mit Lebensmitteln in Berührung zu kommen“ bei. Niger-Kongo-Sprachen. Die Niger-Kongo-Sprachen – früher auch niger-kordofanische Sprachen genannt – bilden eine Familie von fast 1.400 Sprachen, die von etwa 400 Millionen Menschen im westlichen, zentralen, östlichen und südlichen Afrika gesprochen werden. Das Verbreitungsgebiet reicht von der Westspitze Afrikas bei Dakar östlich bis Mombasa und südlich bis Kapstadt. Das Niger-Kongo ist eine der vier von Joseph Greenberg etablierten Spracheinheiten in Afrika. Die anderen sind das Afroasiatische, das Nilosaharanische und die Restgruppe (die also keine genetische Einheit bildet) der Khoisan-Sprachen (eine Übersicht bietet der Artikel Afrikanische Sprachen). Die Niger-Kongo-Sprachen grenzen im Nordwesten und äußersten Nordosten an afroasiatische, im zentralen und östlichen Sudangebiet an nilosaharanische Sprachen. Im Südwesten bilden die Khoisan-Sprachen eine Enklave im Niger-Kongo-Gebiet. Die bedeutendste Untergruppe des Niger-Kongo sind die Bantusprachen, die im südlichen Teil des Niger-Kongo-Gebietes von Ostnigeria bis Südafrika gesprochen werden (siehe Karte). Sie zählen zu den von Edgar Gregersen begründeten (hypothetischen) afrikanischen Makrofamilie, dem Kongo-Saharanischen. Verbreitung der Niger-Kongo-Sprachen und ihrer Untergruppen Die Niger-Kongo-Sprachen (rot und orange) innerhalb der anderen afrikanischen Sprachen Zur Bezeichnung. Die früher auch verwendete und auf Joseph Greenberg (1963) zurückgehende Bezeichnung "Niger-Kordofanisch" suggeriert eine Zweiteilung der Sprachfamilie in das Kordofanische und die restlichen Niger-Kongo-Sprachen. Da sämtliche sechs Primärzweige des Niger-Kongo heute aber als gleichrangig betrachtet werden, hat sich die ursprüngliche – 1949 ebenfalls von Greenberg eingeführte – neutralere Bezeichnung "Niger-Kongo" in der Fachliteratur wieder allgemein durchgesetzt. "Vor" den Arbeiten Greenbergs wurden die Nicht-Bantu-Sprachen des Niger-Kongo als "westsudanische Sprachen" bezeichnet, deren genetische Verwandtschaft erst relativ spät erkannt wurde (Westermann 1927). Die Erkenntnis, dass die Bantu-Sprachen mit den westsudanischen Sprachen genetisch verwandt sind, setzte sich erst durch Greenbergs Arbeiten (seit 1949) durch, allerdings kam auch Diedrich Westermann etwa gleichzeitig zu einer ähnlichen Ansicht. Greenberg klassifizierte die Bantusprachen als eine Unter-Unter-Einheit des Niger-Kongo, was 1950 revolutionär wirkte, heute aber allgemein als zutreffend akzeptiert wird. Zur Statistik. Mit 1.400 Sprachen, die sich in viele tausend Dialekte gliedern, bildet Niger-Kongo die sprachenreichste Sprachfamilie der Welt, gefolgt vom Austronesischen mit 1.100 und dem Transneuguinea-Phylum mit 550 Sprachen. Nach der Zahl seiner Sprecher (370–400 Millionen) nimmt das Niger-Kongo – allerdings mit großem Abstand – den dritten Rang nach dem Indogermanischen (2,7 Mrd.) und dem Sinotibetischen (1,3 Mrd.) ein. Etwa 45 % der Bevölkerung Afrikas (925 Mio., siehe Artikel Afrika) sprechen eine Niger-Kongo-Sprache, 70 % aller etwa 2.000 afrikanischen Sprachen gehören zur Niger-Kongo-Gruppe, weltweit macht sie fast ein Viertel aller Sprachen aus. Die größte homogene Untergruppe des Niger-Kongo sind die Bantusprachen mit 500 eng verwandten Sprachen und 210 Mio. Sprechern. Die durchschnittliche Sprecherzahl der Niger-Kongo-Sprachen beträgt nur knapp 300.000, die Familie weist also eine relativ hohe Diversität auf. Bedeutende Niger-Kongo-Sprachen. Es gibt etwas über 20 Niger-Kongo-Sprachen mit mindestens fünf Millionen Sprechern, davon sind die Mehrzahl Bantusprachen. Viele dieser „großen“ afrikanischen Sprachen sind sogenannte Verkehrssprachen, die nicht nur muttersprachlich (als Erstsprache) erlernt, sondern von vielen Sprechern als Zweit- oder Drittsprache erworben werden, um eine Kommunikation in einem größeren Gebiet über die engen Sprachgrenzen einzelner Volksgruppen und Stämme hinweg zu ermöglichen. Bei manchen Sprachen ist der Anteil der Zweitsprecher größer als der der Erstsprecher (z. B. Swahili). Die Niger-Kongo-Sprache mit den meisten Sprechern ist das Swahili, das als Verkehrssprache von mehr als 80 Mio. Menschen in Ostafrika gesprochen wird. Der Größe nach folgt das nigerianische Yoruba mit 20 bis 25 Mio. Sprechern, das zum Benue-Kongo gerechnet wird. Fulfulde oder Ful(ani) ist ein großes Dialektcluster der atlantischen Gruppe im westlichen Afrika mit über 20 Mio. Sprechern. Igbo wird von fast 20 Mio. Menschen in Südost-Nigeria gesprochen, es gehört wie das Yoruba zum Benue-Kongo-Zweig. Niger-Kongo-Sprachen mit etwa 10 Mio. Sprechern sind das Shona, Zulu, Nyanja, Lingala (alle Bantu), Bambara in Mali, Akan oder Twi-Fante in Ghana und das Wolof im Senegal. Bambara, Twi-Fante und Wolof gehören verschiedenen Untergruppen des Niger-Kongo an. Eine Liste sämtlicher Niger-Kongo-Sprachen mit mindestens drei Millionen Sprechern ist als Anhang zu diesem Artikel aufgeführt. Klassifikationsübersicht. Die folgende Übersicht stellt die aktuell in der Forschung allgemein konsensfähige Klassifikation des Niger-Kongo dar. Sie basiert auf Bendor-Samuel 1989 und Williamson-Blench (in Heine-Nurse 2000) und liegt dem gesamten Artikel zugrunde. Ihre historische Entwicklung wird im Abschnitt „Geschichte der Klassifikation“ ausführlich dargestellt. "Gesamt-Klassifikation des Niger-Kongo nach Williamson-Blench 2000" Bisher ist nicht endgültig geklärt, ob die Gruppierungen "Benue-Kongo" und "Nord-Bantoid" genetische Einheiten bilden. Die sprachlichen und statistischen Eigenschaften der Untergruppierungen werden im Abschnitt „Niger-Kongo und seine Untereinheiten“ dargestellt. Niger-Kongo als genetische Einheit. Bei der Größe des Niger-Kongo mit 1.400 Sprachen ist es nicht erstaunlich, dass bisher noch keine Protosprache für die gesamte Familie rekonstruiert werden konnte. Es fehlte allein schon die Forschungskapazität, um dieses Projekt durchzuführen. Dieses Faktum wurde – und wird vereinzelt noch – als Argument der Gegner einer genetischen Einheit des Niger-Kongo benutzt. Es stellt sich also die Frage: Ist das Niger-Kongo eine "genetische Einheit", so dass die lexikalischen und grammatischen Gemeinsamkeiten auf eine gemeinsame Vorgängersprache zurückgehen, oder ist es nur eine Ansammlung von typologisch ähnlichen Sprachgruppen, die sich durch arealen Kontakt gegenseitig mehr oder weniger stark beeinflusst haben? Struktur und Funktion. Die Niger-Kongo-Sprachen besitzen in vielen Zweigen ein ausgeprägtes Nominalklassensystem, das die Zugehörigkeit aller (oder der meisten) Substantive einer Sprache zu einer Klasse festlegt. Diese Klassen treten für zählbare Nomina in der Regel als Singular-Plural-Paare auf, für Massenbezeichnungen, Flüssigkeiten und Abstrakta als Einzelklassen. Die Markierung (Kennzeichnung) der Klasse erfolgt durch Affixe am Nomen – die "Klassenaffixe" –, meist durch Präfixe, manchmal durch Suffixe und sehr selten durch Infixe. Die Klassenzugehörigkeit des Nomens übt häufig einen Konkordanzzwang auf untergeordnete Komponenten der Nominalphrase (Genitivattribut, Adjektivattribut, Numerale, Possessiva, Demonstrativa) und/oder auf das Prädikat des Satzes aus, das das Nomen zum Subjekt hat. Oft dienen spezifische Affixe an den Attributen und dem Verb dazu, diese Konkordanz zu markieren, manchmal sind die Konkordanzaffixe sogar identisch mit den Klassenaffixen des Nomens. Am deutlichsten ist das Nominalklassensystem in den Bantusprachen ausgeprägt, in anderen Zweigen des Niger-Kongo wurde es umgeformt oder reduziert, teilweise ist das System auch ganz verloren gegangen, z. B. bei den Mande-Sprachen. Für diese Zweige müssen dann andere Kriterien für die genetische Zugehörigkeit zum Niger-Kongo herangezogen werden. Nominalklassen in den Bantusprachen. Zur Verdeutlichung der Begriffe "Nominalklassen", "Klassenpräfixe" und "Konkordanz" werden im Folgenden einige Beispiele aus den Bantusprachen angeführt, in denen diese Phänomene am klarsten erkennbar sind. Es gab im Proto-Bantu etwa zwanzig Nominalklassen. Diese Anzahl hat sich bei einigen der heutigen Bantusprachen erhalten (z. B. im Ganda), in anderen wurde sie bis auf etwa zehn Klassen reduziert. Die Nominalklassen werden im Bantu ausschließlich durch Präfixe markiert. Es herrscht Konkordanz des Nomens mit seinen Ergänzungen in der Nominalphrase und zwischen Subjektnomen und Verb im Satz, allerdings können die Konkordanzpräfixe "einer" Klasse bei Nomen, Numerale, Pronomen und Verb unterschiedlich sein. Weitere Beispiele aus dem Swahili zeigen die weitverbreitete Dopplung in Singular- und Pluralklasse. "Singular – Plural − Klassenpaare im Swahili" Konkordanz in den Bantusprachen. Zur Demonstration von Nominalklassen und Konkordanzverhalten folgen einige weitere Beispiele aus dem Swahili. Hier sind sämtliche Konkordanzmarker identisch mit dem Klassenpräfix des Nomens. Man spricht deswegen auch von "Alliteration". Die Bedeutungskategorien der Nominalklassen. Die einzelnen Klassen hatten ursprünglich ein festumrissenes Bedeutungsfeld, z. B. Menschen, Tiere, Pflanzen, Massenbegriffe, Flüssigkeiten, Ortsnamen, Abstrakta etc. Die zugehörigen Affixe waren im Prä-Niger-Kongo wahrscheinlich bedeutungstragende Morpheme, die dann bereits im Proto-Niger-Kongo grammatikalisiert wurden, sodass ihre Etymologie nicht mehr erkennbar ist. Immerhin ist in manchen Sprachen noch eine Ähnlichkeit von Personenklassenaffixen und Personalpronomina vorhanden. Obwohl die Klassenzugehörigkeit von Nomina heutiger Niger-Kongo-Sprachen nur sehr schwer semantisch bestimmbar ist, wurde in vielen Forschungsarbeiten zu diesem Thema eine Liste der Bedeutungsfelder der einzelnen Nominalklassen erarbeitet. Eine Zusammenfassung dieser Ergebnisse insbesondere für die Bantusprachen geben Hendrikse und Poulos (1992), hier zitiert nach Nurse (2003). Die Bedeutungsfelder sind in der Tabelle des nächsten Abschnitts zusammengefasst. Ein Blick in diese Tabelle zeigt viele Überschneidungen der Bedeutungsfelder der einzelnen Klassen, z. B. können "Tiere" den Klassen 3–4, 5–6, 7–8, 9–10 und anderen zugeordnet werden. Somit ist fast nie vorhersagbar, zu welcher Klasse ein Substantiv einer bestimmten Bedeutungskategorie gehört. Eine Ausnahme stellen die Personenbezeichnungen dar, die fast immer den Klassen 1 (Singular) und 2 (Plural) zugeordnet sind. Ansonsten ist die Klasse eines Nomens ein lexikalisches Merkmal. Formale Ähnlichkeit der Klassenaffixe. Das von den Gegnern einer genetischen Einheit des Niger-Kongo häufig vorgebrachte Argument, Nominalklassensysteme seien nur typologische Merkmale ohne genetische Relevanz und sie seien außerdem in fast allen afrikanischen Sprachen verbreitet, ist nach Auffassung nahezu aller Spezialisten dieser Sprachgruppe falsch. Die Systeme der Nominalkategorisierung sind in den afrikanischen Sprachen im Gegenteil sehr unterschiedlich. So hat das Afroasiatische ein Genussystem, Nord-Khoisan eine kleine Zahl von Nominalklassen, die aber nicht am Nomen gekennzeichnet werden, Zentral-Khoisan wiederum ein Genussystem mit Femininum, Maskulinum und Neutrum. Einige Gruppen des Nilosaharanischen haben einfache Nominalklassensysteme, was ein Hinweis auf eine entfernte Verwandtschaft des Niger-Kongo mit dem Nilosaharanischen sein könnte (siehe unten „Niger-Kongo und Nilosaharanisch“). Natürlich gibt es Nominalklassensysteme auch in anderen Teilen der Erde, so in den kaukasischen, australischen und – besonders ausgeprägt – in den jenisseischen Sprachen. Entscheidend für die genetische Verwandtschaft ist aber die Tatsache, dass die Klassenaffixe in den einzelnen Zweigen des Niger-Kongo eine Übereinstimmung oder Ähnlichkeit in "Form und Bedeutung" aufweisen, sie also ein gemeinsames Erbe aus der gemeinsamen Protosprache sein müssen. "Klassenaffixe in den Zweigen des Niger-Kongo und die Bedeutungsfelder der Klassen im Bantu" Diese Tabelle basiert auf Bendor-Samuel 1989 (Vergleich der Affixe in mehreren Zweigen) und auf Hendrikse und Poulos 1992 (Bedeutungsfelder der Klassen im Bantu). Die Tonangaben wurden zur Vereinfachung weggelassen. Die Tabelle zeigt eindeutig, dass die Affixe vergleichbarer Klassen auch ihrer Form nach in den einzelnen Zweigen des Niger-Kongo erkennbare Ähnlichkeiten aufweisen. Das ist ein starkes Indiz für die gemeinsame Herkunft dieser Morpheme aus dem Proto-Niger-Kongo und damit für die genetische Einheit der Niger-Kongo-Sprachen. Verbalerweiterungen. Der protosprachliche Reziprok-Marker ("reziprok" = "wechselseitig") „"-ana"“ hat sich in vielen Bantusprachen erhalten, z. B. Der Kausativ-Marker „"-Vsha"“ erscheint als "-Vsha" im Swahili, "-ithia" im Gikuyu, "-isa" im Zulu, "-Vtsa" im Shona, "-Vsa" im Sotho und "-isa" im Lingala. („V“ steht hier für einen beliebigen Vokal.) Gemeinsamer Grundwortschatz. Die folgende Tabelle gibt einige Beispiele für Wortgleichungen, die alle Hauptzweige des Niger-Kongo und vor allem auch das Kordofanische umfassen. Leider ist es beim heutigen Forschungsstand noch nicht möglich, für jede größere Untereinheit des Niger-Kongo ein rekonstruiertes Proto-Lexem heranzuziehen. Deswegen werden in jeder Untergruppe stellvertretend Sprachen ausgewählt (und angegeben), die das entsprechende Wort in einer ähnlichen Lautgestalt aufweisen. Die Quellen sind Westermann 1927, Greenberg 1963, Blench 1995 und Williamson 2000. Die aufgeführten Wortgleichungen enthalten keine weitverbreiteten „allafrikanischen“ Wörter, wie z. B. für „wissen“, „kaufen“, „Knie“, „Hals“ oder „Nacken“, „Zunge“, „Zahn“, „Mond“, „Stein“ oder „Hügel“ u. a., die natürlich zur genetischen Frage nichts beitragen können (sie sind allenfalls ein Hinweis auf noch größere verwandtschaftliche Einheiten). Insgesamt ist das verfügbare etymologische Material sehr umfangreich (mehrere hundert Wortgleichungen gelten als gesichert), allerdings enthalten nur relativ wenige auch kordofanische Vertreter. Bemerkungen zur Phonologie. Da es bisher keine umfassende Rekonstruktion des Proto-Niger-Kongo gibt, kann auch keine definitive Phonemliste der Protosprache präsentiert werden. Deswegen hier nur einige Bemerkungen zur Phonologie (basierend auf Bendor-Samuel 1989). Die Ejektivlaute entsprechen der deutschen Aussprache von "b", "d" und "g". Einige südliche Bantusprachen haben durch Kontakt mit Khoisan-Sprachen auch deren Klicklaute übernommen. Dies betrifft vor allem Sprachen der Guthrie-Gruppen S40 und S50, insbesondere Zulu (12 Klicklaute) und Xhosa (15 Klicks). Für das Proto-Niger-Kongo wird ein System von bis zu zehn Vokalen angenommen (das Proto-Bantu hat davon sieben behalten). Weit verbreitet ist in den heutigen Niger-Kongo-Sprachen eine Art der Vokalharmonie, die im Idealfall durch die beiden Vokalklassen /i, e, ə, o, u/ und /ɨ, ɛ, a, ɔ, ʊ/ definiert ist. Infolge der Vokalharmonie werden die Vokale der Affixe von Nomina und Verben der Färbung des Wurzelvokals angepasst. Allerdings findet dieses Prinzip in den einzelnen Untereinheiten und Sprachen des Niger-Kongo sehr unterschiedliche Anwendungen. Nasalierung von Vokalen ist weit verbreitet und hat phonemische Bedeutung. Man kann annehmen, dass das Proto-Niger-Kongo eine ausgeprägte Tonsprache war (was natürlich nur typologisch, aber nicht genetisch relevant ist), da auch heute seine meisten Zweige ein bedeutungsdifferenzierendes System von zwei oder drei Tonhöhen besitzen. So sind z. B. über 95 % der Bantusprachen Tonsprachen, eine Ausnahme bildet gerade die bekannteste, das Swahili. Die folgende Tabelle gibt eine Übersicht über die Verwendung der Tondifferenzierung in den einzelnen Untergruppen des Niger-Kongo. Es kommen bis zu fünf unterschiedliche Tonstufen vor: H "hoch", T "tief", M "mittel"; in Ausnahmefällen SH "sehr hoch", ST "sehr tief". Die Tabelle ist nach Bendor-Samuel 1989 zusammengestellt. Niger-Kongo und seine Untereinheiten. Das Niger-Kongo ist also – wie die Ausführungen des vorigen Abschnitts belegen – eine genetische Einheit, d. h. eine Sprachfamilie, deren Sprachen phonologische, grammatische und lexikalische Gemeinsamkeiten aufweisen, die nur dadurch zu erklären sind, dass alle Sprachen von einer gemeinsamen Vorgängersprache, dem "Proto-Niger-Kongo" abstammen. Den wichtigsten − wenn auch nicht ersten − Schritt zu dieser Erkenntnis vollzog Joseph Greenberg 1948 vor allem auf lexikalischer Basis (mit der umstrittenen Methode des "lexikalischen Massenvergleichs"). Seine Ergebnisse und Unterklassifikationen, die er in seinem Buch von 1963 zusammenfasste, wurden zwar in Details korrigiert, haben aber im Wesentlichen bis heute Bestand und sind die Basis für zukünftige Forschungsarbeiten. Allerdings wurde wegen des riesigen Umfangs des Niger-Kongo bisher keine Protosprache für die Gesamtfamilie rekonstruiert (deren Alter mit mindestens 10.000 Jahren anzusetzen ist), es gibt lediglich Rekonstruktionen für einzelne Untergruppen, am gründlichsten für die Bantusprachen. Die Primärzweige des Niger-Kongo. Nach der aktuellen Klassifikation von Williamson-Blench (in Heine-Nurse 2000) besitzt das Niger-Kongo die sechs Primärzweige oder Haupteinheiten, nämlich Kordofanisch, Mande, Atlantisch, Dogon, Ijoid und Volta-Kongo, wobei vor allem das Volta-Kongo wiederum aus sehr vielen Untereinheiten besteht, eine davon ist das Bantu. Die folgende Tabelle zeigt die Anzahl der Sprachen, die Sprecherzahlen und geografische Verbreitung der Primärzweige. Die Angaben zu den Sprachen- und Sprecherzahlen basieren auf dem unten angegeben Weblink „Klassifikation der Niger-Kongo-Sprachen“. Für diese Zahlen gelten die üblichen Vorsichtsregeln (dazu ausführlich der Artikel Sprachfamilien der Welt). Es ist nun nicht davon auszugehen, dass alle Primärzweige sich "gleichzeitig" aus dem Proto-Niger-Kongo abgespalten haben. Nach dem aktuellen Forschungsstand (Williamson und Blench in Heine-Nurse 2000) geht man auf Grund sprachvergleichender Untersuchungen davon aus, dass das Kordofanische sich als erste Gruppe abgetrennt hat, gefolgt vom Mande- und Atlantik-Zweig (hier kann man bisher keinen zeitlichen Unterschied erkennen). Von diesem Rest trennten sich dann die kleinen Gruppen Ijoid und Dogon, die schließlich den großen Primärzweig Volta-Kongo zurückließen, der heute den Kern des Niger-Kongo ausmacht. Angaben über die absolute Chronologie der Abspaltungen sind äußerst schwierig. Das Proto-Niger-Kongo hat mindestens ein Alter von 10.000, die letzte große Abspaltung aus dem Volta-Kongo – die Entstehung der Bantusprachen – wird etwa auf 3000 bis 2500 v. Chr. angesetzt. Dazwischen – also in einem Zeitraum von mindestens 5.000 Jahren – sind die Abspaltungen der Primärzweige in der oben beschriebenen Reihenfolge zu positionieren. Ehret gibt (in Heine-Nurse 2000) folgende ungefähre Daten: vor fast 10.000 Jahren die Abspaltung des Kordofanischen, vor 8.000 Jahren Abspaltung des Mande und Atlantischen, vor 6.000 Jahren Abspaltung des Ijoid und Dogon und Beginn der Ausbreitung des Volta-Kongo. Hinweise auf die Urheimat des Niger-Kongo sind in der Literatur äußerst spärlich. Wahrscheinlich ist aber der Bereich des westlichen Sudan (also das subsaharanische westliche Afrika), in dem die Niger-Kongo-Sprachen auch heute noch ihre größte Vielfalt zeigen. Das weit im Osten davon angesiedelte Kordofanische muss dann auf eine sehr frühe Auswanderung zurückgehen, oder die Urheimat erstreckte sich bis an den Nil, was eher unwahrscheinlich ist. Die Ausbreitung über das ganze zentrale, östliche und südliche Afrika erfolgte nahezu ausschließlich durch die Sprecher der Bantusprachen (dazu ausführlich der Artikel Bantusprachen). Kordofanisch. Das Kordofanische besteht aus einer kleinen Gruppe von etwa 25 Sprachen mit zusammen 320.000 Sprechern, die im Gebiet der Nuba-Berge in der Republik Sudan gesprochen werden. Der von Joseph Greenberg 1949 eingeführte Name „Kordofanisch“ ist nicht besonders glücklich gewählt, da die Nuba-Berge nicht zu Kordofan (Kurdufan) gehören, sondern nur daran angrenzen. Das kordofanische Sprachgebiet stellt eine Exklave des ansonsten weitgehend zusammenhängenden Niger-Kongo-Gebietes dar, es ist von nilosaharanischen Sprachen (Nubisch, Nyimang, Temein, Daju-Sprachen) und dem Arabischen umgeben. Die bedeutenderen Sprachen sind Koalib, Tira, Moro, Dagik-Ngile und Tegali, jeweils mit etwa 30 − 40.000 Sprechern. Von keiner kordofanische Sprache gibt es bisher eine umfassende grammatische Beschreibung, eine Rekonstruktion des Proto-Kordofanischen (Protosprache der kordofanischen Sprachen) war deswegen bisher nur in Ansätzen möglich. Das Kordofanische hat sich als erste Gruppe vom Niger-Kongo abgespalten und weist nur relativ geringe gemeinsame Merkmale mit anderen Niger-Kongo-Sprachen auf. Diese reichen aber aus, um nach heutigem Wissensstand die Zugehörigkeit zur Niger-Kongo-Familie wahrscheinlich zu machen. So zeigten Greenberg (1963) und Schadeberg (1981), dass sich die Nominalklassenaffixe der kordofanischen Sprachen regulär auf die der übrigen Niger-Kongo-Sprachen beziehen lassen. Allerdings sind die lexikalischen Gemeinsamkeiten des Kordofanischen mit dem restlichen Niger-Kongo eher gering, so dass ein Restzweifel an der Einordnung der kordofanischen Sprachen bestehen bleibt. "Nominalpräfixe der kordofanischen Sprachen im Vergleich (Schadeberg 1981)" Das Nominalklassensystem ist bei den kordofanischen Sprachen in unterschiedlichem Umfang ausgeprägt. In manchen Sprachen gibt es Systeme mit etwa 15 Klassen mit unterschiedlichen Präfixen für Singular und Plural für zählbare Objekte oder Wesen. Nur Eigennamen und Verwandtschaftsbezeichnungen werden nicht präfigiert, die Pluralbildung der Verwandtschaftstermini erfolgt durch Suffixe. In den einzelnen Nominalklassen werden teilweise sehr heterogene Dinge zusammengefasst, so dass man kaum von Bedeutungsfeldern sprechen kann (jedenfalls sind sie nicht mehr erkennbar). In anderen Sprachen fehlen die Nominalklassen ganz, der Plural wird durch vokalisches Präfix und/oder das Suffixe gebildet. Die präfigierenden Klassensprachen haben in der Regel auch Konkordanz, d.  h. dass die vom Subjekt abhängigen Wörter eines Satzes Formative besitzen, die mit den Klassenpräfixen des Subjekts übereinstimmen. Verbalerweiterungen sind in allen kordofanischen Sprachen häufig, es handelt sich aber in der Regel um Innovationen (Neubildungen, die nicht aus dem Proto-Niger-Kongo stammen). Die Satzstellung ist in der Regel SVO (Subjekt-Verb-Objekt), es werden ausschließlich Präpositionen verwendet. In der Nominalphrase steht das bestimmte Nomen vorn, seine Erweiterungen und Ergänzungen (Attribute, Possessivum, Numerale und Demonstrativum) folgen nach. Mande. Die Mande-Sprachen haben sich − wie die kordofanischen – ebenfalls relativ früh von den übrigen Niger-Kongo-Sprachen abgespalten und weisen etliche spezifische Merkmale auf, insbesondere besitzen sie keine Nominalklassen. Dennoch gilt ihre Zugehörigkeit zum Niger-Kongo inzwischen als gesichert, wenn auch Ähnlichkeiten mit dem heute als nilosaharanisch klassifizierten Songhai von mehreren Forschern festgestellt wurden. Als Gruppe verwandter Sprachen wurden die Mande-Sprachen bereits im 19. Jahrhundert identifiziert. Sigismund Wilhelm Koelle benutzte 1854 als erster den Namen „Mandenga“ für diese Gruppe, der auf einheimische Bezeichnungen zurückgeht. Die etwa 60 Mande-Sprachen werden von rund 19 Mio. Menschen im Westsudangebiet in den Staaten Mali, Guinea, Liberia, Elfenbeinküste und Burkina Faso gesprochen. Sie zerfallen in zwei Hauptzweige, den größeren West-Mande-Zweig mit 16 Mio. Sprechern (sein Kern sind die Manding-Sprachen) und Ost-Mande mit zusammen nur 2-3 Mio. Sprechern. Die bedeutendsten Mande-Sprachen sind Bambara (Verkehrssprache in Mali mit bis zu 10 Mio. Sprechern inkl. Zweitsprecher), Dioula oder Jula (4 Mio. inkl. Zweitsprecher), Maninka (Ost-Malinke) (2 Mio.) und Mandinka (1,2 Mio.), alle aus dem Manding-Hauptzweig. Weitere Millionensprachen sind Mende (2 Mio.), Soninke (1,1 Mio.) und Kpelle (1 Mio.). Dan oder Yakuba (1 Mio. Sprecher, Elfenbeinküste) ist die größte Sprache des Ost-Zweigs. Die Mande-Sprachen besitzen keine Nominalklassen, weswegen ihre Zugehörigkeit zum Niger-Kongo häufiger in Frage gestellt wurde. Die meisten Mande-Sprachen sind Tonsprachen mit bis zu drei Tonebenen, der Ton wird auch zur Unterscheidung von Singular und Plural eingesetzt und ist eher an Morpheme als an einzelne Silben gebunden. Es gibt "freie" und "gebundene" Nomina, letztere werden grundsätzlich von einem Possessivpronomen begleitet; dazu gehören die Verwandtschaftsbezeichnungen und Namen von Körperteilen (also grundsätzlich „meine, deine … Hand“, aber nicht „die Hand“). Atlantisch. Die etwa 50 atlantischen Sprachen (von Joseph Greenberg ursprünglich „westatlantisch“ genannt) werden von der Mündung des Senegal entlang der atlantischen Küste bis Liberia – vor allem in den heutigen Staaten Senegal, Gambia, Guinea, Sierra Leone, Mali, Niger, Nigeria, Ghana und Burkina Faso – von etwa 27 Mio. Menschen gesprochen. Die mit Abstand wichtigste atlantische Sprache ist das Fulfulde (auch Ful, Fula, Fulani, Pulaar oder Peul genannt), dessen Dialekte von 18 Mio. Muttersprachlern und von mindestens weiteren 4 Mio. Zweitsprechern gesprochen werden. Weitere nordatlantische Hauptsprachen sind das dem Ful nah verwandte Wolof (8 Mio. mit Zweitsprechern, die Hauptsprache des Senegal), das Serer-Sine mit 1,2 Mio. Sprechern und das südatlantische Temne (1,5 Mio. Sprecher, Sierra Leone). Das Atlantische gliedert sich in drei Hauptzweige: "Nord-Atlantisch" mit 24,5 Mio. Sprechern der größte Zweig, "Süd-Atlantisch" (2,5 Mio. Sprecher) und die isolierte Sprache "Bijago" oder "Bissago", die von den Bijagos auf dem Guinea-Bissau vorgelagerten Bissagos-Archipel gesprochen wird und keinem der beiden großen Zweige zugeordnet werden kann. Das Atlantische hat sich schon früh – etwa gleichzeitig mit den Mande-Sprachen – von der Hauptlinie des Niger-Kongo abgespalten. Die atlantischen Sprachen besaßen ursprünglich ein voll ausgebildetes Nominalklassensystem, das durch Präfixe und Augmente (Prä-Präfixe) markiert wurde und über Konkordanz auf den gesamten Satz wirkte. Die Klassenpräfixe wurden später häufig abgeschliffen und durch Suffixe oder Augmente ersetzt. Der Wechsel des Anlautkonsonanten hat grammatische Bedeutung, häufig kennzeichnet er die Pluralbildung. Die übliche Satzstellung ist SVO (Subjekt-Verb-Objekt), es werden in der Regel Präpositionen. In der Nominalphrase steht das bestimmte Nomen in der Regel vorn, es folgen seine Attribute und Ergänzungen. Dogon. Das Dogon ist innerhalb des Niger-Kongo eine isolierte Sprache, die einen eigenen Primärzweig bildet. Alle Versuche, sie anderen Gruppen des Niger-Kongo zuzurechnen, sind bisher fehlgeschlagen. Dogon wird von rund 600.000 Menschen in Mali und Burkina Faso gesprochen. Das Zentrum der Dogonkultur ist das Dogon-Land in Zentral-Mali mit dem Hauptort Bandiagara (etwa 60 km östlich von der am Niger gelegenen Stadt Mopti). Viele Dogon − vor allem die Männer und jungen Leute − beherrschen auch die Landessprache Bambara (eine Mande-Sprache). Ob das Dogon eine einzige Sprache mit vielen, teilweise recht abweichenden Dialekten oder eine kleine Sprachfamilie mit etwa fünf bis acht Sprachen ist, lässt sich kaum endgültig entscheiden. Das Nominalklassensystem ist in der Dogon-Sprache in Resten erhalten, allerdings gibt es keine Klassenpräfixe. Bezeichnungen für menschliche Wesen haben spezielle Plural suffixe. Die Satzstellung ist SOV (Subjekt-Objekt-Verb). Das Nomen steht vor seinem Attribut, Possessivum, Numerale und Demonstrativum. Ijoid. Sprachen und Ethnien in Nigeria Ijoid ist eine kleine Familie von etwa 10 Sprachen, die von rund 1,6 Mio. Menschen im Niger-Delta in Nigeria gesprochen werden. Es besteht einerseits aus dem Defaka, das nur noch 200 Sprecher hat, andererseits aus der Ijo-Gruppe. Dazu gehören außer dem eigentlichen Ijo (auch Ijaw oder Izon; 1 Mio. Sprecher) Kalabari und Kirike mit jeweils 250.000 Sprechern und sechs kleinere Sprachen. Die Ijoiden Sprachen sind untereinander eng verwandt und bilden – abgesehen vom Defaka – ein Dialektkontinuum. Von den anderen Niger-Kongo-Sprachen unterscheiden sie sich deutlich durch mehrere Merkmale. Das Nominalklassensystem ist noch in Resten erhalten, für „menschliche Wesen“ entstanden neue Klassensuffixe. Die Pronomina haben ein Genussystem ausgebildet (Maskulinum, Femininum, teilweise Neutrum), was ansonsten für Niger-Kongo-Sprachen völlig unüblich ist. Die Satzstellung ist wie bei den Mande-Sprachen und beim Dogon SOV (Subjekt-Objekt-Verb), während sonst im Niger-Kongo eher SVO bevorzugt wird (dazu Claudi 1993). Übersicht und Gliederung. Das Volta-Kongo stellt mit Abstand den größten und komplexesten Primärzweig des Niger-Kongo dar. Die etwa 1250 Volta-Kongo-Sprachen werden in West-, Zentral- und ganz Südafrika gesprochen. Volta-Kongo besteht nach dem aktuellen Forschungsstand (Williamson-Blench 2000) aus den beiden Hauptzweigen "Nord-Volta-Kongo" mit 276 Sprachen und 28 Mio. Sprechern und dem "Süd-Volta-Kongo" (auch "Kwa-Benue-Kongo") mit 977 Sprachen und fast 300 Mio. Sprechern, zu dem auch die Bantusprachen gehören. Nord-Volta-Kongo gliedert sich in die Zweige "Kru", "Gur", "Senufo" und "Adamawa-Ubangi". Sie werden in Westafrika von Liberia bis Kamerun gesprochen. Das nach seiner Sprecherzahl etwa zehnmal so große Süd-Volta-Kongo hat die Haupteinheiten "Kwa" (das „westliche Kwa“ nach Greenberg) und "Benue-Kongo", das wiederum aus dem "West-Benue-Kongo" (Greenbergs „Ost-Kwa“) und "Ost-Benue-Kongo" („Benue-Kongo“ nach Greenberg) besteht. Ob die Benue-Kongo-Sprachen insgesamt – wie seit Greenberg allgemein angenommen und in Bendor-Samuel 1989 dargestellt – eine gültige genetische Einheit ausmachen, ist bisher nicht eindeutig geklärt. Die etwa 75 (westlichen) "Kwa-Sprachen" werden von 21 Mio. in den Staaten Elfenbeinküste, Ghana, Togo, Benin und Nigeria gesprochen. "West-Benue-Kongo" (bestehend aus "Yoruboid", "Edoid", "Igboid", "Nupoid", "Idomoid" und kleineren Gruppen) wird in Togo, Benin und Südnigeria gesprochen (73 Sprachen mit 48 Mio. Sprechern), "Ost-Benue-Kongo" hat insgesamt etwa 800 Sprachen mit 225 Mio. Sprechern und gliedert sich in die beiden Hauptgruppen "Platoid" (unter anderem "Kainji", "Plateau-Sprachen", "Jukunoid") und "Bantoid-Cross". Letzteres besteht aus den "Cross-River-Sprachen" und den "Bantoiden Sprachen". Zum "Cross-River" zählen rund 70 Sprachen mit 6 Mio. Sprechern, sie werden in Südostnigeria und Kamerun gesprochen. Das "Bantoid" enthält alle ca. 500 Bantusprachen, zusätzlich einige in Südnigeria und Kamerun gesprochene Gruppen ("Jarawoid", "Tivoid", "Beboid", "Ekoid", "Graslandsprachen" u. a.), die mit den "Bantusprachen" eng verwandt sind. Weitere Details über das Volta-Kongo und seine Untergruppen sind dem folgenden Stammbaum, der tabellarischen Übersicht (Sprachen- und Sprecherzahlen, geografische Verbreitung) und den speziellen Artikeln über die Hauptgruppen des Volta-Kongo zu entnehmen. Es ist erkennbar, dass die große Gruppe der Bantusprachen genetisch innerhalb des Niger-Kongo und Volta-Kongo nur eine Unter-Unter-Einheit darstellt. Die folgende Tabelle enthält für die größeren Untergruppen des Volta-Kongo-Zweiges die Anzahl der Sprachen und Sprecher sowie die Hauptverbreitungsgebiete. Die Bezeichnung "X-oid" bezeichnet eine Hauptsprache X mit ihren nah verwandten Schwestersprachen, z. B. ist "Igboid" die Gruppe der mit dem "Igbo" unmittelbar verwandten Sprachen. In der Regel handelt es sich um Dialektkontinua. Manche Forscher werten solche Gruppen auch als eine einzige Sprache. Kru. Die etwa 30 Kru-Sprachen gehören zum Nord-Volta-Kongo-Zweig, sie werden in der Elfenbeinküste und in Südliberia von etwa 2,3 Mio. Menschen gesprochen. Der Name „Kru“ ist offensichtlich eine Verballhornung des Sprachnamens „Klao“, begünstigt durch englisch „crew“, da die Kru-Leute früher häufig als Matrosen auf europäischen Schiffen arbeiteten. Westermann (1927) und Greenberg (1963) rechneten Kru zu den Kwa-Sprachen, Bennet und Sterk (1977) verlagerten es in den Nord-Volta-Kongo-Zweig. Kru gliedert sich in einen östlichen und einen westlichen Zweig und drei isolierte Sprachen. Nominalklassensysteme sind im Kru kaum erhalten, der Plural wird durch Suffixe und Veränderung des Auslautvokals gebildet. In den Nominalphrasen gibt es Konkordanzstrukturen. Die Kru-Sprachen machen regen Gebrauch von Verbalerweiterungen, etwa zur Bildung von Kausativen, Benefaktiven, Inchoativen und dem Passiv. Die Personalpronomina unterscheiden in einigen Sprachen Femininum und Maskulinum in der 2. und 3. Person Singular, sonst gibt es keine Genusdifferenzierung. Die Satzstellung ist SVO, es werden Postpositionen verwendet. Während das „Genitivattribut“ und das Possessivum "vor" dem bestimmten Nomen stehen, werden Adjektivattribut, Demonstrativum und Numerale dem Nomen nachgestellt. Gur (Voltaisch). Gur oder Voltaisch ist eine große Sprachfamilie von etwa 75 Sprachen, die in einem zusammenhängenden Territorium, das vom Südosten Malis über die nördliche Elfenbeinküste, Ghana, Togo und Benin bis nach Burkina Faso und Nigeria reicht, von zusammen etwa 15 Mio. Menschen gesprochen werden. Der Name „Gur“ wurde 1895 von Gottlob Krause vorgeschlagen, da einige Sprachen dieser Gruppe die erste Silbe "Gur-" aufweisen (Gurma, Gurunsi, Gurenne). Die Bezeichnung „Voltaisch“ nimmt Bezug auf den Fluss Volta, sie wird vor allem in der französischen Literatur verwendet ("langues voltaïques"). Die genetische Einheit der Kerngruppe „Zentral-Gur“ ist seit langem unbestritten, die Zugehörigkeit einzelner Sprachen außerhalb dieses Kerns nach wie vor ungeklärt. Früher wurden auch Dogon und die Senufo-Gruppe zu den Gur-Sprache gerechnet (z. B. Bendor-Samuel 1971, De Wolf 1981). Die genetische Nähe der Gur-Sprachen zu den Kwa-Benue-Kongo-Sprachen gab den Anlass, innerhalb des Niger-Kongo den Primärzweig Volta-Kongo einzuführen. Die mit Abstand bedeutendste Gur-Sprache ist das Mòoré, die Sprache der Mossi (mit 7 Mio. Sprechern einschließlich der Zweitsprecher). Es ist die Hauptverkehrssprache von Burkina Faso und wird auch in Mali, Togo, Benin und der Elfenbeinküste gesprochen. Andere bedeutende Gur-Sprachen mit mindestens 500.000 Sprechern sind Dagaari, Frafra, Dagbani, Kusaal, Gurma, Konkomba, Tem (Verkehrssprache in Togo), Kabiye, Lobiri und Bariba. Fast alle Gur-Sprachen haben ein Nominalklassensystem, die meisten zeigen Konkordanz. Durchschnittlich gibt es elf Nominalklassen, die durch Suffixe markiert werden, einige Sprachen besitzen noch Klassenpräfixe bei häufig vorkommenden Substantiven. Die Wortstellung im Satz ist SVO, in der Regel werden Postpositionen verwendet. Genitivattribute und Possessivpronomina stehen vor dem Nomen, das sie näher bestimmen, Adjektivattribute, Demonstrativa und Numerale folgen ihrem Nomen. Die meisten Gur-Sprachen sind Tonsprachen mit zwei bis drei Tonhöhen, im Extremfall (Bariba) werden sogar sechs bedeutungsrelevante Tonvarianten differenziert. Senufo. Die Senufo-Sprachen bilden eine kleine Gruppe von 15 nah verwandten Sprachen mit 2,7 Mio. Sprechern. Ihr Verbreitungsgebiet ist Burkina Faso, Elfenbeinküste, Mali und Ghana. Die sprecherreichste Senufo-Sprache ist Cebaara mit 1 Mio. Sprechern, andere bedeutende Sprachen sind Supyire, Mamara, Schempire, Tagwana, Dschimini und Schenara. Das Senufo ist ein Zweig des Nord-Volta-Kongo, früher wurde es zu den Gur-Sprachen gerechnet. Es gliedert sich in sechs Untereinheiten, von denen Supyire-Mamara, Tagwana-Djimini und Senari die bedeutendsten sind, die restlichen weisen nur kleinere Sprachen auf. Adamawa-Ubangi. Adamawa-Ubangi besteht aus zwei getrennten Teilgruppen – Adamawa und Ubangi –, die innerhalb des Nord-Volta-Kongo eine genetische Untereinheit von 160 Sprachen mit knapp 8 Mio. Sprechern bilden, davon 2 Mio. Adamawa- und 6 Mio. Ubangi-Sprecher. Das Adamawa-Ubangi-Sprachgebiet erstreckt sich von Nordwestnigeria über Nordkamerun, den Südtschad, die Zentralafrikanische Republik, Nordgabun und beide Kongo-Staaten bis in den Südwesten des Südsudan, also fast durch ganz Zentralafrika. Sango ist eine Kreolsprache auf Basis der Ubangi-Sprache Ngbandi, als Verkehrssprache der Zentralafrikanischen Republik wird sie von bis zu 5 Mio. Sprechern genutzt. Weitere größere Sprachen sind Zande, Ngbaka, Gbaya, Mumuye, Mundang und Tupuri. Greenberg (1949) gruppierte sie als Erster als eine Untereinheit des Niger-Kongo, zunächst unter dem Namen "Adamawa-Eastern". Die Aufteilung dieser Einheit in Adamawa und Ubangi lässt sich linguistisch durch einige Unterschiede rechtfertigen: phonologisch durch eine unterschiedliche Silbenstruktur (Adamawa-Sprachen tendieren eher zu geschlossenen Silben, die bei den Ubangi-Sprachen selten sind), lexikalisch durch spezielle für die eine oder andere Gruppe charakteristische Lexeme (Boyd 1989). Allerdings sieht Bennett (1983) eher ein Sprachenkontinuum quer durch beide Untergruppen, die eine klare Trennung in „Adamawa“ und „Ubangi“ problematisch erscheinen lässt. Die Adamawa-Sprachen sind bisher schlecht erforscht, die sprecherreichen Ubangi-Sprachen etwas besser. Das Nominalklassensystem ist reduziert, es werden Klassensuffixe verwendet, Konkordanz ist teilweise vorhanden, in einigen Sprachen sind nur noch Spuren des Klassensystems erhalten. Verbalerweiterungen sind nicht sehr häufig, üblich sind sie für Frequentative, Benefaktive und Kausative. Die normale Satzstellung ist SVO, es werden ausschließlich Präpositionen benutzt. Das Nomen steht vor seinen Ergänzungen, also vor dem Genitivattribut, Adjektivattribut, Numerale und Demonstrativum, in den Ubangi-Sprachen kann das Adjektiv auch vor dem Nomen stehen. Kwa. Die Kwa-Sprachen bilden zusammen mit den Benue-Kongo-Sprachen das Süd-Volta-Kongo oder Kwa-Benue-Kongo. Die rund 75 Kwa-Sprachen werden von 21 Mio. Menschen in der Elfenbeinküste, Ghana, Togo, Benin und Südwest-Nigeria gesprochen. Im Norden grenzen die Kwa-Sprachen an das Gur-Gebiet, im Osten an die Platoiden Sprachen, im Westen an Mande- und Kru-Sprachen. Die bedeutendsten Kwa-Sprachen sind Akan (Twi-Fante) (eine der wichtigsten Sprachen Ghanas, 10 Mio. Sprecher), Ewe (4 Mio., Südost-Ghana und Togo), Baule (2 Mio.), Fon (1,7 Mio., vor allem in Benin), Ga-Dangme (1,4 Mio., Accra) und Anyin (1 Mio.). Der Name „Kwa“ wurde 1885 von Gottlob Krause eingeführt. Die Zusammenfassung der Kwa-Sprachen erfolgte zunächst nach typologischen Kriterien (Anwesenheit von Labiovelaren, Tonsprachen, Fehlen fast aller morphologischen Elemente wie Klassenaffixe und Derivationsmorpheme). Für Diedrich Westermann (1927) bildete das Kwa eine Untergruppe des Westsudanischen, für Joseph Greenberg (1963) einen Primärzweig des Niger-Kongo. Er teilte die Kwa-Sprachen in acht Untereinheiten und integrierte die zentralen Togo-Sprachen („Togo-Restsprachen“) in die Kwa-Gruppe. So werden die Kwa-Sprachen von De Wolf 1981 dargestellt. Bennett und Sterk (1977) reduzierten Greenbergs Kwa, indem sie Das verbleibende „neue“ Kwa deckt sich mit Greenbergs „West-Kwa“. Dieser Ansatz wird heute mit kleinen Modifikationen allgemein akzeptiert. Die Kwa-Sprachen haben unterschiedlich stark ausgeprägte Nominalklassensysteme; während das des Ega voll etabliert ist, haben andere Kwa-Sprachen reduzierte oder rudimentäre Systeme. Üblicherweise werden in der Morphologie Präfixe verwendet, es gibt einige Pluralsuffixe. Der Anlautkonsonant kann alternieren, was aber keine semantischen, sondern nur phonetische Gründe hat. Kausative, Reflexive („sich selbst lieben“) und Reziproke („sich gegenseitig lieben“) werden durch Verbalableitungen mittels Suffixen gebildet. Die 3. Person der Personalpronomina unterscheidet die Kategorien "belebt" und "unbelebt". Die Satzstellung ist SVO, üblicherweise werden Postpositionen und keine Präpositionen verwendet. Die Nominalphrase hat keine einheitliche Struktur, häufig sind "Genitiv + Nomen", "Possessivum + Nomen", aber "Nomen + Adjektiv", "Nomen + Numerale" und "Nomen + Demonstrativum". Etliche Kwa-Sprachen weisen eine "serielle Verbalkonstruktion" auf. Wenn eine ganze Reihe von Verben in derselben Tempus-Modus-Aspekt-Funktion hintereinander auftreten, die dasselbe Subjekt und Objekt haben, werden pronominales Subjekt und Objekt nur beim ersten Verbum markiert. Fast alle Kwa-Sprachen sind Tonsprachen, meist gibt es zwei, manchmal drei Tonhöhen, in einigen Kwa-Sprachen sogar vier Basistöne. In einigen Kwa-Sprachen gibt es Vokalharmonie; so bestimmt die Vokalharmonie im Akan ("gespannte" und "ungespannte" Vokalserien /i,e,a,o,u/ und /ɨ,ɛ,ɑ,o,ʋ/) die Vokalstruktur der Possessiv- und Subjektspronomina in Abhängigkeit von der Vokalfärbung des Stamms. Benue-Kongo. Die "Benue-Kongo-Sprachen" bilden zusammen mit den Kwa-Sprachen den Südzweig der Volta-Kongo-Sprachen, eines Primärzweigs des Niger-Kongo. Die rund 900 Benue-Kongo-Sprachen werden von über 270 Millionen Menschen in West-, Zentral- und Südafrika gesprochen. Das Benue-Kongo besteht aus zwei ungleich großen genetische Untereinheiten, nämlich West-Benue-Kongo (70 Sprachen mit knapp 50 Mio. Sprechern in Togo, Benin und Nigeria) und das ungleich größere Ost-Benue-Kongo (830 Sprachen mit 225 Mio. Sprechern in Südost-Nigeria und ganz Zentral- und Südafrika). Das Ost-Benue-Kongo schließt insbesondere die große Familie der Bantusprachen mit ein. Der Name "Benue-Kongo" wurde von Joseph Greenberg 1963 geprägt, der diese Gruppe in vier Einheiten teilte: "Plateau-Sprachen", "Jukunoid", "Cross River" und "Bantoid". Nach Shimizu (1975) und Gerhardt (1989) wurden die "Plateau-Sprachen", "Tarokoid" und "Jukunoid" als "Zentral-Nigerianisch" oder "Platoid" zusammengefasst. Bennett und Sterk (1977) erweiterten das Benue-Kongo durch die östlichen Gruppen von Greenbergs Kwa, nämlich "Yoruboid", "Edoid", "Igboid", "Nupoid" und "Idomoid". Diese Gruppen wurden dann von Blench 1989 zum "West-Benue-Kongo" zusammengefasst, während das ursprüngliche Greenbergsche Benue-Kongo zum "Ost-Benue-Kongo" wurde. Ohiri-Aniche vermuteten 1999, dass die Sprache "Ukaan" (vielleicht zusammen mit dem "Akpes") ein Bindeglied zwischen West- und Ost-Benue-Kongo bildet, Connell (1998) schlug dagegen das Cross River als ein solches Bindeglied vor. Die sprachlichen Eigenschaften der Benue-Kongo-Sprachen werden in den Abschnitten über die Untereinheiten West-Benue-Kongo, Platoid, Cross River und Bantoid behandelt. West-Benue-Kongo. West-Benue-Kongo, Platoid, Cross-River-Sprachen, Nord-Bantoid, Süd-Bantoid außer Bantu und die Nordwestecke des Bantu-Gebietes Das West-Benue-Kongo ist die kleinere, westliche Untergruppe des Benue-Kongo, es deckt sich ungefähr mit den Ost-Kwa-Sprachen von Greenberg 1963. Es besteht aus etwa 70 Sprachen, die in Togo, Benin und Südnigeria von rund 48 Mio. Menschen gesprochen werden. Die fünf bedeutendsten Sprachen dieser Gruppe sind Yoruba (20 − 22 Mio. Sprecher, Verkehrssprache in Südwest-Nigeria), Igbo oder Ibo (18 Mio.), Edo oder Bini (1 Mio.), Nupe (1 Mio.) und Idoma (600 Tsd.), die alle in Südnigeria gesprochen werden. Die fünf genannten Sprachen bilden zusammen mit kleineren, eng verwandten Nachbarsprachen die Untergruppen Yoruboid, Igboid, Edoid, Nupoid und Idomoid des West-Benue-Kongo. Außerdem werden noch vier Kleingruppen – Akokoid, Ayere-Ahan, Oko und Ukaan-Akpes – dazugerechnet. Das Nominalklassensystem der West-Benue-Kongo-Sprachen weist verschiedene Ausbaustufen auf: ein volles System z. B. im Gade, ein reduziertes im Edoid, ein rudimentäres im Yoruba; es werden Nominalklassenpräfixe verwendet. Die Verbalerweiterungen sind in der Regel Innovationen (Neubildungen, die nicht aus dem Proto-Niger-Kongo stammen). Adjektive können von Zustandsverben durch eine Reduplikation der ersten Silbe (in hohem Ton) gebildet werden. Es gibt unabhängige Personalpronomen und abhängige Subjekt-, Objekt- und Possessivpronomen. Dis Satzstellung ist SVO, es werden Präpositionen, keine Postpositionen verwendet. Die Nominalphrasen sind einheitlich gebaut, das bestimmte Nomen "N" steht vorn, es gibt also die Konstruktionen "N + Genitiv", "N + Possessivum", "N + Adjektiv", "N + Adjektiv + Genitiv", "N + Numerale" und "N + Demonstrativum". Ost-Benue-Kongo. Das Ost-Benue-Kongo (in Greenbergs Terminologie "Benue-Kongo") besteht aus zwei ungleichen genetischen Unterheiten, den Platoiden Sprachen und den Bantoiden Cross-Sprachen. Das Platoid – oder auch "Zentral-Nigerianische" – umfasst 120 Sprachen, die von 3,5 Mio. Sprechern in Zentral-Nigeria gesprochen werden, das Bantoide Cross etwa 700 Sprachen mit über 220 Mio. Sprechern in Nigeria, Kamerun und Zentral- und Südafrika. Nach der Zahl seiner Sprecher stellt das Ost-Benue-Kongo die bedeutendste Untereinheit des Volta-Kongo dar, zumal es die große Familie der Bantusprachen umfasst. Platoid (Zentral-Nigerianisch). Die etwa 120 Sprachen des Platoid oder Zentral-Nigerianischen werden in Nord-, Nordost- und Zentral-Nigeria von 3,5 Mio. Menschen gesprochen, Zentrum ist das Plateau von Jos. Die Kainji- und Plateau-Sprachen sind bisher wenig dokumentiert, die beste Darstellung bietet Ludwig Gerhardt in Bendor-Samuel 1989. Die Untergruppen des Zentral-Nigerianischen sind "Kainji" (54 Sprachen, 1 Mio. Sprecher), die "Jos-Plateau-Sprachen", "Tarokoid" und "Jukonoid". Es gibt in dieser Gruppe des Niger-Kongo nur wenige größere Sprachen, darunter Berom, Tarok und Kaje mit jeweils etwa 300.000 Sprechern. Im Durchschnitt hat jede zentral-nigerianische Sprache nur etwa 30.000 Sprecher, entsprechend klein sind ihre Verbreitungsgebiete. Jukun war die Sprache des einst mächtigen Jukunreiches (Ende des 1. Jahrtausends n. Chr.), seine Nachfolgesprachen – die Jukunoidsprachen – haben zusammen nur noch 350.000 Sprecher. Die folgende Klassifikation basiert auf Williamson-Blench 2000 und dem unten angegebenen Weblink, es sind nur die größeren Sprachen aufgeführt. Die meisten Kainji- und Plateau-Sprachen und einige Jukunoide Sprachen besitzen Nominalklassensysteme, die übrigen Jukunoiden und die Tarokoiden Sprachen haben nur noch reduzierte Klassensysteme. Meistens werden zur Kennzeichnung der Klassen Präfixe verwendet, gelegentlich aber auch Suffixe. Verbalableitungen sind weitverbreitet. Die normale Satzstellung ist SVO, in der Regel werden Präpositionen, keine Postpositionen verwendet. Das Nomen geht seinen Ergänzungen voran, die Nominalphrasen haben also die Grundform "Nomen + Genitiv", "Nomen + Adjektiv", "Nomen + Possessivum" und "Nomen + Numerale". Cross River. Das Ost-Benue-Kongo gliedert sich in die Hauptgruppen "Platoid" und "Bantoid-Cross", letzteres wiederum in die "Cross-River-Sprachen" und das "Bantoid". Die etwa 70 Cross-River-Sprachen werden von knapp 6 Mio. Menschen in Südost-Nigeria im Bundesstaat Cross-River und in Nordwest-Kamerun gesprochen. Cross-River gliedert sich in "Bendi" (zehn Sprachen, 400 Tsd. Sprecher) und "Delta Cross" (etwa 60 Sprachen mit 5,2 Mio. Sprechern). Die mit Abstand bedeutendsten Cross-River-Sprachen sind die nah verwandten Sprachen Efik (400 Tsd. Muttersprachler, als Verkehrssprache sprechen es 2,4 Mio.), Ibibio (2 Mio.) und Anaang (1 Mio.), die alle drei zur Delta-Cross-Gruppe gehören. Einige Cross-River-Sprachen haben noch ein voll ausgeprägtes Nominalklassensystem, andere nur noch reduzierte Systeme mit beschränkter Konkordanz bis hin zum völligen Wegfall des Klassensystems. Es gibt zahlreiche Verbalableitungen und die üblichen Pronomina: unabhängiges Personalpronomen, abhängiges Subjekt-, Objekt- und Possessivpronomen. Die Satzstellung ist SVO, es werden nur Präpositionen verwendet. Die Nominalphrase hat die Grundfolge "Bestimmtes Nomen + Bestimmer", allerdings steht das Adjektiv häufig "vor" seinem Nomen. Die Verbalflexion erfolgt in der Regel durch ein System von Präfixen, seltener durch Suffixe. Reduplikation der Verbalwurzel ermöglicht eine Fokussierung (Betonung) des Verbums, Umstellung der normalen Satzfolge (SVO → OSV) fokussiert das Objekt. Bantoid. Die Bezeichnung „Bantoid“ wurde 1895 von Gottlob Krause für die Sprachen geprägt, die lexikalische Ähnlichkeiten mit den Bantusprachen aufweisen, Malcolm Guthrie (1948) bezeichnete mit Bantoid die westsudanischen Sprachen mit einem Bantu-ähnlichen Nominalklassensystem, die aber keine regulären Lautentsprechungen mit den Bantusprachen aufweisen. Nach heutigem Verständnis bilden die Bantoiden Sprachen zusammen mit den Cross-River-Sprachen die Bantoide Cross-Einheit des Ost-Benue-Kongo. Die Gruppe der Bantoiden Sprachen umfasst sowohl die eigentlichen Bantusprachen, als auch solche Sprachen, die zwar den Bantusprachen innerhalb des Niger-Kongo genetisch besonders nahestehen, aber nicht sämtliche Merkmale der Bantusprachen besitzen. Die Grenze zwischen den eigentlichen Bantusprachen ("narrow bantu") und den Bantusprachen in einem weiteren Sinne (Bantoid, aber nicht Bantu) ist schwer zu ziehen und hängt von der Definition ab, was „eigentliches Bantu“ genau ausmacht (da sind sich die Forscher keineswegs völlig einig). Sämtliche Bantoidsprachen, die nicht zum eigentlichen Bantu gehören, werden in Ost-Südost-Nigeria und in Kamerun gesprochen, ihre Verbreitung ist also – im Gegensatz zu der der Bantusprachen – sehr eingeschränkt. Genau dieses Gebiet (Südost-Nigeria und Nordwest-Kamerun) scheint auch die Urheimat der eigentlichen Bantusprachen zu sein, von dem aus sie sich in den Osten und Süden des Kontinents ausgebreitet haben (siehe Artikel Bantusprachen). Insgesamt umfasst das Bantoid rund 650 Sprachen mit zusammen 217 Mio. Sprechern, davon sind etwa 490 Sprachen eigentliche Bantusprachen, die mit ihren 210 Mio. Sprechern die große Mehrheit ausmachen. Die Gruppe der 160 Bantoidsprachen, die nicht zum Bantu gehören, ist also insbesondere nach ihrer Sprecherzahl (6,5 Mio.) relativ klein und sehr diversifiziert: ihre durchschnittliche Sprecherzahl beträgt nur rund 40.000. Die bedeutendsten Bantusprachen sind bereits im einleitenden Abschnitt „Große Niger-Kongo-Sprachen“ aufgeführt, dazu gehören Swahili, Shona, IsiZulu, Chichewa, Lingala, Kinyarwanda, isiXhosa, Luba-Kasai und Gikuyu (alle über 5 Mio. Sprecher). Von den Nicht-Bantusprachen der Gruppe der Bantoiden Sprachen überschreitet nur das in Nigeria im Benue State gesprochene Tiv mit 2,2 Mio. Sprechern die Millionengrenze. Die sprachlichen Eigenschaften der Bantoiden Sprachen sind denen der Bantusprachen sehr ähnlich (vgl. den entsprechenden Abschnitt des Artikels Bantusprachen). Das Nominalklassensystem ist im Bantu voll ausgeprägt – es ist sein wesentliches Charakteristikum –, bei den Nicht-Bantusprachen des Bantoids in einer unterschiedlich reduzierten Form. Verbalableitungen sind in allen Bantoidsprachen belegt. Pronomina werden im üblichen Umfang gebildet, in der 3. Person herrscht Konkordanz mit den Nominalklassen. Die Satzstellung ist SVO, es werden durchgehend Präpositionen verwendet. In der Nominalphrase steht das bestimmte Nomen vorn, es folgen die Ergänzungen und Attribute (Genitivattribut, Adjektivattribut, Possessivum, Numerale, Demonstrativum); in den Bantusprachen herrscht innerhalb der Nominalphrase und zwischen Subjekt und Prädikat volle Klassenkonkordanz, in den anderen Bantoidsprachen ist die Konkordanz eingeschränkt bzw. teilweise nicht (mehr) vorhanden. Räumliche Verteilung und Sprecherzahlen (Grafik). Schema der Systematik mit Sprecherzahlen Anfänge der Forschung. Seit dem 10. Jahrhundert wurden afrikanische Sprachen in arabischen Dokumenten beschrieben; die Verwandtschaft des Hebräischen, Arabischen und Aramäischen war jüdischen und islamischen Sprachkundigen seit langem bekannt. Es dauerte bis zum 16. Jahrhundert, dass europäische Gelehrte sich näher mit afrikanischen Sprachen befassten. So stellte Guillaume Postel 1538 als erster Europäer die Verwandtschaft der damals bekannten semitischen Sprachen fest. (Der Begriff „Semitische Sprachen“ wurde erst 1781 von August Ludwig von Schlözer eingeführt.) Ab dem 17. Jahrhundert verstärkte sich das Interesse europäischer Forscher an afrikanischen Sprachen. So entstanden erste Wörterbücher des Koptischen (1636), Nubischen (1638), Kongo (1652) und Grammatiken des Nama (1643), Kongo (1659), Altäthiopisch (1661) und Amharischen (1698). 1776 erkannte Liévin Bonaventure Proyart (1743–1808) die enge genetische Verwandtschaft einiger Bantusprachen. William Marsden beschrieb 1778 die Umrisse der Bantufamilie (publiziert erst 1816) und Wilhelm Bleek beschrieb erstmals 1856 die Nominalklassen der Bantusprachen und prägte den Begriff "Bantu". 1808 teilte Martin Hinrich Lichtenstein die südafrikanischen Sprachen in Bantu- und Nama-Sprachen ein. Adriano Balbi (1782–1848) verband 1826 die Sprachen der San mit dem Nama (im Rahmen des Versuchs einer ersten Gesamtübersicht und Einteilung der afrikanischen Sprachen im "Atlas ethnographique du globe ou classification des peuples anciens et modernes d’après leurs langues"). 1850 prägte Johann Ludwig Krapf den Begriff „Hamitische Sprachen“ für die nicht-semitischen schwarzafrikanischen Sprachen, wobei die Nama-San-Sprachen ausgeklammert bleiben; er unterschied „Nilo-Hamitisch“ (dazu zählt er z. B. die Bantusprachen) und „Nigro-Hamitisch“ (die westafrikanischen Sprachen). Sigismund Koelle. Sigismund Wilhelm Koelle stellte 1854 in seiner "Polyglotta Africana" Wortlisten von 156 subsaharanischen Sprachen zusammen, wobei er ein einheitliches, von Karl Richard Lepsius stammendes phonetisches System verwendete. Durch Vergleich dieser Listen gelang ihm die Aufstellung von elf afrikanischen Sprachgruppen. Fünf seiner Gruppen beschreiben Zweige des heutigen Niger-Kongo. Damit gelang S. Koelle bereits Mitte des 19. Jahrhunderts eine im Wesentlichen korrekte interne Einteilung der später von Greenberg „Niger-Kongo“ genannten Sprachen. Das fehlende Ubangi entdeckte Delafosse 1924, dem Greenberg 1959 die Adamawa-Sprachen hinzufügte. Es bleibt unklar, ob Koelle diese fünf Gruppen als eine umfassendere genetische Einheit aufgefasst hat. Beachtlich ist, dass er die Verwandtschaft der Bantusprachen mit bestimmten nigerianischen Sprachen erkannte und das Ful richtig zu den „westatlantischen“ Sprachen rechnete. Koelles Klassifikation war ein einsamer Höhepunkt in der Mitte des 19. Jahrhunderts. In den nächsten 100 Jahren erlebte die Afrikanistik trotz vieler Erfolge im Detail einen Niedergang der Klassifikation, der unter anderem mit den Namen Friedrich Müller, Richard Lepsius, August Schleicher und Carl Meinhof verbunden ist. Friedrich Müller und Richard Lepsius. Der Österreicher Friedrich Müller fügte 1877 den hamitischen Sprachen die Berbersprachen und die kuschitischen Sprachen hinzu. Trotz erkannter linguistischer Ähnlichkeiten zählte er das Hausa nicht zum Hamitischen, da seine Sprecher zu einer anderen Rasse gehörten. Die nilohamitischen und semitischen Sprachen fasste Müller zum „hamito-semitischen“ Sprachstamm zusammen. Insgesamt ergab sich ein deutlicher Rückfall hinter die von Koelle erreichte Position, da Müller auch keinen genetischen Zusammenhang zwischen den "Negersprachen" und dem "Bantu" erkannte. Seine disparate "Nuba-Fula-Gruppe" stellte sich als völliger Fehlgriff heraus. "Afrikanischen Sprachen nach Friedrich Müller 1877" Der deutsche Ägyptologe Karl Richard Lepsius fasste 1880 in der Einleitung zu seiner "Nubischen Grammatik" alle nichtsemitischen flektierenden Sprachen Afrikas, die ein Genus-System besitzen, zu den „Hamitischen Sprachen“ zusammen und definierte dadurch diesen Terminus neu. Da Lepsius' Definition rein typologisch ist, verliert sie jeden Anspruch auf genetische Bedeutung. Seiner Überzeugung nach gehörten zum Hamitischen auch das Hausa (und die anderen tschadischen Sprachen) sowie die Berbersprachen. 1888 rechnet Lepsius auch die Nama-Buschmann-Sprachen zum Hamitischen; eine falsche Klassifikation, die lange Bestand hatte (und weit hinter Koelles Ansatz von 1850 zurückfiel). Unrichtig war auch die Einordnung des (nilosaharanischen) Maassai als hamitische Sprache. "Afrikanische Sprachen nach Lepsius 1880 und 1888" Primäre Merkmale dieser Sprachgruppen sind nach Lepsius das Klassensystem der Bantu und das Genussystem der Hamiten, die nach seiner Vorstellung von Westasien nach Afrika eingewandert seien. Durch ihr Vordringen drängten sie Teile der Vorbevölkerung nach Südafrika ab (eben die Bantu, die ihre „reine“ Sprachform behielten); andere Gruppen vermischten sich mit den Hamiten und bildeten Mischsprachen aus, die weder ein ausgeprägtes Klassen- noch Genussystem aufwiesen. Ihre Grammatik bezeichnete er als „formlos“, „zurückgegangen“ oder „entblättert“. August Schleicher. Dabei ging er davon aus, dass die sudanischen Nigriten bereits ein rudimentäres, unvollkommenes Nominalklassensystem gehabt hätten, das dann die Bantuvölker vervollkommnet und ausgeprägt haben. Für ihn war also das Nigritische oder Sudanische ein evolutionärer Vorläufer des Bantu, und nicht ein Ergebnis des Zerfalls wie bei Lepsius. Carl Meinhof. Meinhof ging davon aus, dass die Bantusprachen mit ihren charakteristischen Nominalklassensystemen aus einer Vermischung der hamitischen Sprachen, welche ein grammatisches Geschlecht besitzen, und der "Negersprachen" entstanden seien (die kein grammatisches Geschlecht kennen). Das Bantu habe also eine nigritische „Mutter“ (Substrat) und einen hamitischen „Vater“ (Superstrat). Die "Negersprachen" oder "nigritischen Sprachen" südlich der Sahara fasste Meinhof unter dem Begriff "Sudansprachen" zusammen, deren genetische Verwandtschaft er weder eindeutig postulierte noch nachzuweisen versuchte. Die „Hottentottensprachen“ (Khoekhoegowab) seien hamitischen Ursprungs – darin folgt er Lepsius –, aber mit „Buschmannsprachen“ vermischt. Meinhof nahm auch Lautgesetze, Wortstrukturen und Lautinventare für die Einordnung von Sprachen in seine „hamitische Gruppe“ zur Hilfe. Wo diese typologischen Kriterien nicht ausreichten (die schon keinerlei genetische Relevanz hatten), ergänzte er sie durch rassisch-kulturelle Einordnungsmuster (Hautfarbe, Haartyp, Wirtschaftsform, Kulturtyp). Dieser – nach heutiger Vorstellung völlig falsche – Ansatz führte zu der Einordnung von Sprachen aus vier verschiedenen Sprachgruppen – Nama (Khoisan), Ful (Niger-Kongo), Somali (Kuschitisch) und Maassai (Nilosaharanisch) – in seine „hamitische“ Gruppe. Diese Klassifizierung hielt sich vor allem in der deutschen Afrikanistik als herrschende Meinung bis etwa 1950, bei manchen Vertretern bis in die 1980er Jahre. "Einteilung der afrikanischen Sprachen nach Meinhof 1912" Finck, Schmidt und Kieckers. Die deutschen Sprachwissenschaftler Franz Nikolaus Finck, Pater Wilhelm Schmidt und Ernst Kieckers schrieben in den Jahren 1909 bis 1931 zusammenfassende Darstellungen über die Sprachstämme der Erde (Finck 1909, Schmidt 1926 und Kieckers 1931), die sich großer Beliebtheit erfreuten und die Kenntnisse sprachinteressierter Kulturbürger weitgehend beeinflusst haben. Deswegen sei hier kurz auf ihre Darstellung der afrikanischen Sprachen eingegangen. Finck (1909, zweite Auflage postum 1915) gliedert die afrikanischen Sprachen in (1) hamito-semitische Sprachen (ohne Meinhofs Ausdehnung auf Nama und Massai, aber auch ohne Hausa), (2) paläoafrikanische Sprachen (das heutige Khoisan) und (3) die neoafrikanische Sprachen. Dadurch vermeidet Finck die größten Fehler Meinhofs. Dessen Hamitentheorie wird uminterpretiert in eine „hamitische Beeinflussung“, sie spielt als genetisches Modell bei Finck keine Rolle. Schmidt (1926) und zusammen mit ihm Kieckers (1931) übernehmen die damals aktuellen Theorien von Albert Drexel, entsprechend verworren sind ihre Gliederungen, die deutlich hinter Finck zurückfallen. "Afrikanische Sprachgruppen nach Drexel 1921–25, Schmidt 1926 und Kieckers 1931" Diedrich Westermann. Bereits 1911 nahm Diedrich Westermann (ein Schüler Carl Meinhofs) eine interne Unterscheidung der Sudansprachen in west- und ostsudanesische Sprachen vor. 1927 veröffentlichte Westermann sein wohl wichtigstes Werk: "Die westlichen Sudansprachen und ihre Beziehungen zum Bantu". Darin weist er die genetische Einheit der westsudanischen Sprachen nach (etwa das heutige Niger-Kongo ohne Bantu, Ful, Adamawa-Ubangi und Kordofanisch) und stellt viele Parallelen zu den Bantusprachen fest, die allerdings noch nicht zu dem Schluss führen, dass Bantu und Westsudanisch eine genetisch zusammengehören. 1935 behandelte Westermann in seinem Aufsatz "Charakter und Einteilung der Sudansprachen" die These einer Verwandtschaft zwischen der westlichen Sudansprachen zum Bantu erneut und kam zu einer vorsichtigen Bejahung der genetische Einheit, allerdings sah er Bantu und Westsudanisch als gleichrangige Zweige einer übergeordneten Einheit. Damit legte er – gegen die Lehrmeinung seines Lehrers Meinhof – den Kern für das Greenbergsche „Niger-Kongo“. Er erkannte auch, dass die östlichen Sudansprachen nicht mit den westlichen verwandt sind (die ostsudanischen Sprachen wurden später von Greenberg als „Nilosaharanisch“ klassifiziert). Joseph Greenberg. Von 1948 bis 1963 klassifizierte Joseph Greenberg die afrikanischen Sprachen von Grund auf neu, und zwar ausschließlich nach linguistischen Kriterien. Er benutzte die Methode des "lexikalischen Massenvergleichs", bei der Wörter und grammatische Morpheme sehr vieler Sprachen miteinander verglichen werden. Auf Basis der daraus entstehenden Wort- und Morphemgleichungen ergibt sich die Einteilung in genetische Einheiten und die interne Gliederung dieser Einheiten (siehe dazu auch die Artikel Joseph Greenberg und Lexikalischer Massenvergleich). Greenberg führte den Begriff „Afroasiatisch“ anstelle des durch nicht-linguistische Kriterien wie Rasse und Kultur belasteten Terminus „Hamito-Semitisch“ ein und etablierte Semitisch, Ägyptisch, Kuschitisch, Berberisch und Tschadisch als gleichberechtigte Primärzweige des Afroasiatischen. Die durch nicht-linguistische Kriterien dem Hamitischen fälschlich zugeordneten Gruppen wie Nama-Buschmann, Fulani und Maassai ordnet er anderen Gruppen zu. „Niger-Kongo“ wird als neuer Begriff für die westsudanischen Sprachen "einschließlich des Bantu" definiert. Die ostsudanischen Sprachen werden später mit einigen kleineren Gruppen als „Nilosaharanisch“ zusammengefasst. Er gelangte über verschiedene Zwischenstufen zur heute allgemein akzeptierten Einteilung der afrikanischen Sprachen, wie sie in seinem Buch "The Languages of Africa" 1963 abschließend dargestellt ist. Zu einer Bewertung der Leistungen Greenbergs in der Klassifikation der afrikanischen Sprachen siehe den Artikel Joseph Greenberg. "Die Einteilung der afrikanischen Sprachen nach Greenberg 1963" "Klassifikation des Niger-Kordofanischen nach Greenberg 1963" Diese Klassifikation Greenbergs ist die Basis für alle weiteren Forschungen über Niger-Kongo-Sprachen. Durch die Elimination aller nicht-linguistischen Kriterien, die nahezu alle früheren Klassifikationsversuche unbrauchbar machten, bewies Greenberg, dass die Prinzipien der genetischen Klassifikation, wie sie in Europa Mitte des 19. Jahrhunderts entwickelt worden waren, uneingeschränkt auch für die afrikanischen Sprachen – und damit weltweit – gültig sind. So führte er die Klassifikation der Sprachen Afrikas nach einem Jahrhundert des Niedergangs zurück auf die richtige Spur. Aktuelle Klassifikation des Niger-Kongo. Greenbergs Ergebnisse waren zunächst durchaus umstritten, da noch viele Afrikanisten – vor allem in Deutschland – der Meinhof-Schule anhingen. Nach einigen Jahren wurden aber speziell das Niger-Kongo bzw. Niger-Kordofanische von fast allen Forschern als genetische Einheit akzeptiert, insbesondere auch Greenbergs Positionierung der Bantusprachen als einem Unter-Zweig des Benue-Kongo. Heute gibt es in der gesamten relevanten Forschung zum Thema keine Stimme, die die genetische Einheit des Niger-Kongo bezweifelt. Allerdings wurde der innere Aufbau des Niger-Kongo vor allem auf Grund neuerer lexikostatistischer Forschungen nach 1963 noch mehrfach geändert. Auch der heute erreichte und in diesem Artikel zugrunde gelegte Status wird noch keinen endgültigen Charakter haben, da für manche Untergruppen noch sehr viel Detailstudium nötig ist. Zukunftsperspektive ist die Rekonstruktion des Proto-Niger-Kongo, von dem auch sicherlich neues Licht auf die interne Gliederung fallen wird. Bisher ist nicht endgültig geklärt, ob die Gruppen "Benue-Kongo" und "Nord-Bantoid" genetische Einheiten darstellen. Damit ergibt sich die oben als Übersicht angegebene aktuelle Klassifikation der Niger-Kongo-Sprachen, die dem gesamten Artikel zugrunde liegt. Niger-Kongo und Nilosaharanisch. Nach Greenbergs abschließendem Werk "The Languages of Africa" von 1963 gehörten alle afrikanischen Sprachen zu einer der vier großen Familien Afroasiatisch, Nilosaharanisch, Niger-Kongo und Khoisan. Während die ersten drei inzwischen allgemein als genetische Einheiten anerkannt sind, gilt das Khoisan heute eher als ein arealer Sprachbund mit typologischen Gemeinsamkeiten. Einige Jahre später (1972) legte Edgar Gregersen seine Studie "Kongo-Saharan" vor, in der er Niger-Kongo und Nilosaharanisch zu einer neuen genetischen Einheit "Kongo-Saharanisch" zusammenfasste. Was zunächst wie ein Rückschritt auf Positionen von Carl Meinhof aussah – dieser nannte die Gruppe der Sprachen, die heute man heute zum Niger-Kongo (ohne Bantu) und zum Nilosaharanischen rechnet, „Sudanische Sprachen“ –, stellte sich als ein linguistisch durchaus ernst zu nehmender Versuch heraus, eine neue große afrikanische Spracheinheit zu begründen. Hans G. Mukarovsky vertrat ebenfalls die Ansicht (1966, 1977), dass das Songhai mit den Mande-Sprachen verwandt sei. Er fasste die Mande-Sprachen und das Songhai zu einer fünften afrikanischen Sprachfamilie zusammen, die er „Westsahelisch“ nannte. Eine Vereinigung der beiden großen Familien nach dem Vorbild Gregersens lehnte er ab. Gregersen bekam von einigen anderen Forschern Unterstützung. Denis Creissels stellte 1981 ebenfalls beachtliche Ähnlichkeiten zwischen den Mande-Sprachen und dem Songhai fest und hielt Gregersens Kongo-Saharanisch-Hypothese für wahrscheinlich. Raymond Boyd (1978) dokumentierte lexikalische Gemeinsamkeiten zwischen den Adamawa-Ubangi-Sprachen und verschiedenen Zweigen des Nilosaharanischen. M. Lionel Bender wird 1981 nach eigenen Untersuchungen zum Fürsprecher des Kongo-Saharanischen, möglicherweise unter Einbeziehung des Omotischen, das inzwischen (1969) von Harold C. Fleming von den kuschitischen Sprachen abgetrennt und als sechster Primärzweig des Afroasiatischen etabliert worden war. Roger M. Blench (1995) unterstützte die kongo-saharanische Hypothese durch die Darstellung weiterer lexikalischer und phonologischer Parallelen. Er sieht das Niger-Kongo allerdings nicht als gleichrangigen Zweig des Nilosaharanischen, sondern eher als einen Parallelzweig des Zentralsudanischen und Kadugli innerhalb des Nilosaharanischen. Generell ist zu sagen, dass die Kongo-Saharanisch-Hypothese Gregersens zwar einige interessante Studien zu diesem Thema ausgelöst hat, aber dennoch die Mehrheit der Afrikanisten weiterhin von zwei eigenständigen afrikanischen Sprachfamilien Niger-Kongo und Nilosaharanisch ausgeht, wobei letztere durchaus noch nicht von allen Forschern im vollen Umfang Greenbergs als genetische Einheit anerkannt worden ist. Die Sonderrolle des Songhai und anderer peripherer Gruppen ist dabei von besonderer Bedeutung. Niger-Kongo-Sprachen mit mindestens 3 Mio. Sprechern. Die Niger-Kongo-Sprachen mit mindestens 3 Mio. Sprechern sind hier mit der Angabe ihrer Sprecherzahl (inklusive der Zweitsprecher), ihrer Kurzklassifikation und ihres Verbreitungsgebietes aufgeführt. Niger-Kongo-Sprachen mit mindestens 3 Millionen Sprechern Die Sprecherzahlen basieren auf dem unten angegebenen Weblink zu Klassifikation der Niger-Kongo-Sprachen. "Kongo" steht für die "Demokratische Republik Kongo", "Kongo-Brazzaville" für die "Republik Kongo". Die Klassenpräfixe für Bantu-Sprachnamen (z. B. "ki-, chi-, lu-, se-, isi-") werden in der sprachwissenschaftlichen Literatur heute üblicherweise nicht mehr verwendet. Auch in diesem Artikel wird die Kurzform ohne Präfix benutzt, also z. B. "Ganda" statt "Luganda"; die Langform mit Präfix ist als Alternativname angegeben. Die Nummern der Bantusprachen (z. B. G40) geben die Einteilung in die Guthrie-Zonen wieder (G40 = Zone G, Zehnergruppe 40; siehe Bantusprachen). Napier (Neuseeland). Napier ist eine Küstenstadt an der Hawke Bay auf der Nordinsel von Neuseeland. Die mit über 56.00 Einwohnern 14.-größte Stadt Neuseelands ist die Hauptstadt der Region Hawke’s Bay und wird als eigenständiger Stadt-Distrikt verwaltet. Zusammen mit dem etwa zehn Kilometer südlicheren Hastings bildet sie den fünftgrößten Ballungsraum Neuseelands, der im Englischen oft als „“ bezeichnet wird. Geographie. NASA-Bild der südlichen Hawke Bay mit den „“ Napier und Hastings Die Stadt Napier liegt 332 Kilometer nordöstlich von Wellington, der Hauptstadt Neuseelands, am Fuße des Bluff Hill am südlichen Ende der Hawke Bay, einer Bucht, die den größten Teil der Ostküste der neuseeländischen Nordinsel prägt. In das Landesinnere hinein erstrecken sich ausgedehnte, fruchtbare Ebenen, die Heretaunga Plains. Das Gebiet um Napier befindet sich, wie große Teile Neuseelands, an einer Bruchzone, die von Norden nach Süden verläuft. Bei dem schweren Hawke’s-Bay-Erdbeben von 1931 entstanden erst große Teile der heutigen Küstenlinie, da sich der Boden damals um zwei Meter anhob. Im Osten wird die Stadt vom Südpazifik und von den anderen drei Seiten vom Hastings-Distrikt begrenzt. Klima. Die durchschnittliche Sonnenscheindauer ist eine der höchsten des Landes. Die Gegend um Napier hat außerdem einen recht geringen durchschnittlichen Niederschlag und die Stadt kann sich über relativ hohe Temperaturen freuen, obwohl sie direkt am Meer gelegen ist. Das liegt vor allem daran, dass der Wind in Neuseeland zumeist von Westen kommt und damit auch der Regen von Westen nach Osten abnimmt. Napier selbst befindet sich in der besonderen Situation, dass die Stadt im Regenschatten der Volcanic Plateau und der Kaweka Range weiter östlich liegt. Napier befindet sich im Einzugsbereich tropischer Taifune, die bei ihrem Eintreffen in der Hawke Bay noch Sturmstärke haben können. Geschichte. Bevor Europäer nach Neuseeland kamen und auch in der Region um von dem Land der Besitz ergriffen, lebten unterschiedliche -Stämme in der Gegend, die heute zum Großraum von gehört. Zuletzt waren es die, die das Land besiedelten, und auch sie waren es, zu denen die ersten Europäer, wie James Cook in den Jahren 1769 und 1770, Kontakt hatten. Händler, Walfänger und Missionare waren die ersten Europäer, die sich nach Bekanntwerden des neuen Landes auch in der Lagune und der Bucht von dem späteren Napier niederließen. In den 1850ern folgten dann Farmer und Hoteliers. 1851 kaufte die Regierung den sogenannten -Block, benannt nach dem - und zwei Jahre später kaufte der Regierungskommissar für Landangelegenheiten Donald McLean (Politiker) das Land auf dem später Napier entstehen sollte. Zu dieser Zeit gehörte die Region noch zur Provinz. 1854 wurde der Regierungskommissar und spätere Premierminister als Magistrat für den Landblock eingesetzt. Seine Aufgabe war es, aus der Ansiedlung eine Stadt zu formen und Bebauungs- bzw. Entwicklungspläne zu erarbeiten. Er benannte die Siedlung nach dem britischen General Charles James Napier, der sich im kolonialen Indien für die britische Krone verdient gemacht hatte. 1858, nachdem eine eigenständige Provinz wurde, sollte Hauptstadt der neuen Provinz werden. 1874 wurde dann zur erhoben, hatte also den Status einer selbstverwalteten Stadt bekommen und am 18. Januar 1875 wurde die erste Wahl zum Rat der Stadt abgehalten. Bis 1876 war damit das administrative Zentrum der Region, doch mit dem ' (Gesetz zur Abschaffung der Provinzen) wurde die Verwaltung der Region wieder zugeschlagen. Die Entwicklung der Stadt war seinerzeit größtenteils auf die Gegenden um den Hafen und der Bebauung der Insel beschränkt, die heute den ' bildet. Das Siedlungsgebiet um verteilte sich jedoch auf einige Inseln, zwischen denen sich ausgedehnte Sumpfgebiete befanden. Dies änderte sich schlagartig, als und die restliche am 3. Februar 1931 von einem Erdbeben mit einer Stärke von 7,8 MS auf der Richter-Skala erschüttert wurde. wurde durch das Beben und dem anschließenden Großfeuer völlig zerstört, die Nachbarstadt Hastings (Neuseeland) schwer getroffen. Durch das Erdbeben wurde der Erdboden um teilweise um bis zu 2,7 Meter angehoben, sodass aus der -Lagune sowie aus den großen Wattgebieten 40 km2 Neuland entstanden. Auf diesem Land entstand neues Lifestyle-Zentrum. Durch das Erdbeben verlor die Stadt auch ihre funktionierende Administration und die politische Führung, so dass bis 1933 eine von der Regierung eingesetzte, aus zwei Personen bestehende Kommission die Geschicke der Stadt bestimmte. Nach der Kommunalwahl im Jahr 1933 bekam die Stadt ihren Status einer wieder zurück und bekam 1950 schließlich die vollen Stadtrechte. Trotz der noch andauernden Auswirkungen der Weltwirtschaftskrise Anfang der 1930er wurde die Stadt im Art déco-Stil wieder aufgebaut. "Lasst uns eine neue Epoche beginnen", sollte die Botschaft an die Menschen der Stadt sein. So wurden Architekturstudenten und Arbeitslose aus dem ganzen Land nach gesandt und mit dem Wiederaufbau betraut. Die Pastellfarben entstanden dabei aus der Not heraus, wobei die Farben mit Wasser gestreckt wurden. Darüber hinaus war Art Déco eine der günstigsten Varianten, um die Stadt wieder aufzubauen, da Betonplatten als preiswerteres Baumaterial verwendet werden konnten und auch die Dekoration an den Häusern in diesem Stil relativ einfach war. Demographie. Laut einer Volkszählung lebten im Jahr 2006 55.359 Menschen in Napier, was einen Zuwachs von 3,2 % seit dem letzten Zensus 2001 darstellt. Die ethnische Verteilung von Napier zeichnet sich durch einen hohen Anteil an Europäern aus, so machen diese 72,4 % der Bevölkerung aus, der nationale Durchschnitt liegt bei 67,6 %. 18,2 % der Bewohner zählten sich zu der Māori-Bevölkerungsgruppe, die restlichen 9,4 % zur anderen Bevölkerungsgruppen. "Anmerkung:" In der Neuseeländischen Volkszählung ist es möglich, sich mehreren Volksgruppen zuzurechnen. Die Arbeitslosenquote ist mit 4,8 % leicht geringer als der nationale Durchschnitt von 5,1 %, während das durchschnittliche Einkommen von 22.700 NZ$ deutlich geringer ist, als der nationale Durchschnitt von 24,400 NZ$. Wirtschaft. Das T & G Dome mit der ASB Bank im Vordergrund, beide im Art-Déco-Stil a> mit einer Ladung "Schafwollballen" im Hafen von Napier im Jahr 1973 Tourismus. Direkt am Meer verläuft die "Marine Parade", eine schöne Uferpromenade. Hier finden sich mehrere Attraktionen für Besucher. Vor allem gepflegte Gartenanlagen, wie die "Sunken Gardens" oder auch der Kleingolfplatz sowie eine Rollschuhbahn bieten Abwechslung. Ein beliebtes Fotomotiv ist die Statue der Pania (engl. "Pania of the Reef"), der in der polynesischen Mythologie eine große Rolle zugemessen wird. Für die Stadt Napier hat die Statue in etwa die gleiche Bedeutung wie die Kleine Meerjungfrau für Kopenhagen. Landwirtschaft. Wegen des günstigen Klimas und der ebenen Lage in den Heretaunga Plains sind Napier und das benachbarte Hastings ein Zentrum für den Anbau von Früchten, wie zum Beispiel Äpfeln, Pfirsichen, der Kiwifrucht oder vor allem in der letzten Zeit auch Weintrauben. Auch in Napier erhöht sich die Produktion von qualitativ hochwertigen Weinen. Industrie. Die in Napier ansässigen Unternehmen sind vielfältig und über verschiedene Industriezweige verteilt. Neben Unternehmen aus dem Elektronikbereich befinden sich hier große Kunstdüngerproduzenten und Weinkeltereien. Napier hat das größte Schafwolle verarbeitende Unternehmen der Südhalbkugel. Weiterhin existiert in Napier eine bedeutende Tabakindustrie. Mit dem Hinweis auf "sinkenden Tabakkonsum" kündigte British American Tobacco an, die ansässige Rothmans-Manufaktur nach Australien zu verlagern. Kultur und Sehenswürdigkeiten. Das "Halsbury Chambers"-Gebäude im Art-Déco-Stil aus dem Jahr 1932 Die Kuppel des "A&B Building" Das "National Tobacco Company Ltd. Gebäude" Von Architektur-Interessierten wird Napier als die am besten erhaltene Art déco Stadt angesehen, nur in South Beach (Miami) befinden sich ähnlich viele Art déco Gebäude. Obwohl einige der einzigartigen Gebäude in den 1960er bis 1980er Jahren durch Neubauten ersetzt wurden, ist der Großteil des Stadtzentrums, der seit den 1990er Jahren unter Denkmalschutz steht, fast vollständig erhalten. Viele Art déco Häuser wurden in den letzten Jahren restauriert. Besonders sehenswert sind das Masonic Hotel, das Criterion Hotel, das Daily Telegraph Building, die Country Wide Bank, das A&B Building, dessen Kuppel zum Wahrzeichen Napiers geworden ist, und das Theater, mit seinen ägyptisch anmutenden Säulen und Bögen. Siehe auch Liste der Baudenkmale in Napier. Regelmäßige Veranstaltungen. Das vom Art Déco Trust veranstaltete "Art Déco Weekend" zieht im Februar Besucher und Touristen aus aller Welt an. In verschiedenen Veranstaltungen lässt Napier das Leben und die Kultur der 1930er Jahre wieder auferstehen. Seit 1993 wird jährlich das Open-Air Konzert "Mission Estate Winery Concert" auf dem Gelände der Mission Estate Winery nahe Napier veranstaltet. Headliner ist meist ein international bekannter Interpret. In der Vergangenheit traten schon Größen wie Ray Charles, Eric Clapton und Tom Jones auf. Infrastruktur. Die Bahnlinie wird zur Zeit aus wirtschaftlichen Gründen nur noch von Güterzügen befahren. Ein Flughafen, der von den wichtigsten Städten des Landes angeflogen wird, öffnet Touristen die Region Hawke’s Bay, die „“ und die Region Gisborne im äußersten Nordosten der Nordinsel. Der Seehafen bietet gute Möglichkeiten, um die in und um Napier produzierten Güter in die ganze Welt zu exportieren. Nomenklatur (Biologie). Nomenklatur (von lat. "nomenclatura"= Namenverzeichnis) bezeichnet in der Biologie die Disziplin der wissenschaftlichen Benennung von Lebewesen. Sie stellt innerhalb der Wissenschaften die Grundlage für eine international verständliche und nachprüfbare Kommunikation über Organismen dar. Dabei legen die Regeln der Nomenklatur nur die Benennung fest. Die Abgrenzung und Erkennung der systematischen Einheiten selbst (Taxonomie) und ihrer Hierarchie und Verwandtschaft (Systematik) sind davon unabhängig. Aufgrund ihrer Bedeutung ist sie in strenge Regelwerke gefasst, sogenannten "Codes". Für die verschiedenen Organismengruppen (Pflanzen einschließlich Pilze und Algen, Tiere, Bakterien, Viren) existieren jeweils eigene, voneinander unabhängige Nomenklatur-Regelwerke. Ursprung der biologischen Namensgebung. Erste wissenschaftliche Werke über Pflanzen und Tiere wurden ab etwa 1550 gedruckt, biologische Wissenschaft im heutigen Sinne mit empirischen Studien wurde ab etwa 1670, z. B. von Maria Sibylla Merian betrieben. Ab dann erhöhte sich die Zahl der bekannten Arten schnell auf mehrere Tausend, was ein effektives System biologischer Artnamensgebung erforderlich machte. Erste Ansätze zur binären Benennung hatte es schon etwa durch die Einführung von Doppelbezeichnungen für Gattungen und Arten durch John Ray gegeben. Basierend auf früheren Ansätzen führte Carl von Linné in seinem Buch "Species Plantarum" im Jahre 1753 ein System zur Benennung von Pflanzenarten ein. Dieses System unterschied sich von vorigen Systemen darin, dass einem Gattungsnamen nur ein einziger Artname hinzugefügt wurde. Für die Zoologie folgte die Einführung 1758 in der 10. Auflage (1757–1759) seines für die biologische Systematik grundlegenden Werkes "Systema naturae", das zwischen 1735 und 1768 in 12 Ausgaben erschien. Die Einführung des Binomen ersetzte die zuvor gebräuchliche umständliche Methode, die Artdiagnose, als sogenannte Phrase, in den Namen zu legen. Dabei waren zwar Namen für die Gattungen schon üblich, die Art wurde aber durch eine Aneinanderreihung für charakteristisch erachteter Merkmale umschrieben, die zudem nicht standardisiert war. Der Botaniker Dillenius beschrieb etwa 1718 eine Moosart „Bryum aureum capitulis reflexis piriformibus, calyptra quadrangulari, foliis in bulbi formam congestis“, sein Zeitgenosse Rupp nannte dasselbe Moos 1718 „Muscus capillaceus folio rotundiore, capsula oblonga, incurva“. In der binären Nomenklatur nach der Methode von Linné machte Johannes Hedwig daraus "Funaria hygrometrica". Die von Linné eingeführte binäre Nomenklatur verkürzte und vereinheitlichte zwar die Form des Namens. Es blieb aber weiterhin üblich, dass verschiedene Autoren dieselbe Art mit verschiedenen Namen belegten. Es bildeten sich rasch nationale Systeme der Namensgebung heraus, meist der Autorität bedeutender Forscher folgend. Es war üblich, dass dieselbe Art in England einen anderen Namen trug als in Frankreich oder Deutschland, und sogar innerhalb der Nationen verwendeten einzelne Forscher aus persönlichen Vorlieben oder Abneigungen heraus verschiedene Namen; einige wurden wohl auch von Eitelkeit dazu getrieben, neue Namen zu erfinden. Um diesen Zustand zu überwinden, schlug 1842 eine Kommission der British Association for the Advancement of Science, der illustre Forscher wie Charles Darwin und Richard Owen angehörten, ein Regelwerk zur Namensgebung vor, das nach dem Berichterstatter Hugh Erwin Strickland meist „Strickland Code“ genannt wird. Wichtigste Neuerung des Strickland Code war eine Prioritätsregel, nach der derjenige Name verwendet werden sollte, der vom Erstbeschreiber eingeführt worden war, wobei aber nicht auf Namen vor Linnés Werk, in dem die binäre Nomenklatur eingeführt worden war, zurückgegriffen werden sollte. Bei einer taxonomischen Änderung wie der Aufspaltung einer Art oder Gattung in mehrere neue, sollte immer eine der neu unterteilten Gruppen den ursprünglichen Namen behalten. Der „Strickland Code“ wurde von zahlreichen wissenschaftlichen Gesellschaften auch in anderen Nationen formal übernommen, er wurde mehrfach präzisiert und überarbeitet, aber er war keinesfalls allgemein anerkannt oder verbindlich. Auf den Internationalen Kongressen der Zoologie (der erste war in Paris, 1889) wurden die Regeln lange debattiert und verschiedene Kommissionen eingesetzt. 1895 wurde die International Commission on Zoological Nomenclature gegründet. Es dauerte aber bis zum fünften Kongress (in Berlin, 1901), bis man sich einig wurde. Das Ergebnis, die „Règles internationales de la Nomenclature zoologique“ wurden 1905 (in französischer, englischer und deutscher Sprache) veröffentlicht. Diese wurden 1961 durch den International Code of Zoological Nomenclature ersetzt. Der erste Vorschlag zur Vereinheitlichung der botanischen Nomenklatur stammte von Augustin-Pyrame de Candolle 1813. Sein Sohn Alphonse Pyrame de Candolle erreichte auf dem ersten Internationalen Botanischen Kongress in Paris die Verabschiedung des „Paris Code“ (1867). 1905 wurde zwar ein Code beschlossen, der aber nicht von allen Botanikern akzeptiert wurde. Der erste Internationale Code für Botanische Nomenklatur, der für allgemein verbindlich erachtet wurde, wurde erst 1930 beschlossen. Mit der Etablierung strikter, aber unterschiedlicher Regelwerke drifteten botanische und zoologische Regeln für die Namensgebung endgültig auseinander. In der Mikrobiologie orientierte man sich lange an dem botanischen Regelwerk, bis 1980 ein eigener Code für die Nomenklatur der Bakterien erstellt wurde. Die früheste Prioritätsgrenze für Fragen der zoologischen Nomenklatur wurde mit dem 1. Januar 1758 als festgelegtes Erscheinungsdatum der 10. Auflage der "Systema Naturae" bestimmt. Für die Botanik gilt entsprechend der 1. Mai 1753, das festgelegte Erscheinungsdatum der 1. Ausgabe von Linnés Werk "Species plantarum". In älteren Werken verwendete Namen werden nicht anerkannt. Einzige Ausnahme ist hier in der Zoologie die Gruppe der Spinnen, für die per Beschluss der Zoologen das bedeutende Werk "Svenska spindlar" von Clerck (1757) als nach der 10. Auflage der "Systema Naturae" erschienen – und damit als verfügbar für die Nomenklatur – erachtet wurde. Binäre Nomenklatur nach Linné. Die binäre Nomenklatur (lateinisch "binarius" ‚zwei enthaltend‘, "nomenclatura" ‚Namensverzeichnis‘) als in der Wissenschaft gängiges Klassifikationsschema (Taxonomie) für das Namensverzeichnis Nomenklatur der biologischen Arten geht auf Carl von Linné (1707–1778) zurück. Der zweiteilige Grundbestandteil setzt sich zusammen aus dem Namen der Gattung, der stets als Substantiv mit einem Großbuchstaben beginnt, und einem heute immer kleingeschriebenen Epitheton, häufig ein Adjektiv, welches in Kombination mit der Gattung die Art charakterisiert. Jede solche Kombination aus Gattungsname und Epitheton darf nur einmal – also nur für eine Art – vergeben werden. Gattungsname und Epitheton wie auch die Bezeichnungen der übrigen taxonomischen Gruppen entstammen gewöhnlich der lateinischen oder griechischen Sprache. Nichtlateinische Namen werden latinisiert. Dies steht in der Tradition der Zeit, als Latein die Lingua franca der Gelehrten in der westlichen Welt war. Im Gegensatz zum alltäglichen Gebrauch erscheint das Binomen in der wissenschaftlichen Literatur in kursiver Schrift, gefolgt vom Autorzitat, also dem Namenskürzel desjenigen, der die erste gültige wissenschaftliche Beschreibung des Lebewesens verfasst hat. Darauf folgt noch das Jahr der Veröffentlichung dieser Beschreibung. Weitere internationale nomenklatorische Bestimmungen regeln zum Beispiel, dass das Epitheton meist erhalten bleibt, auch wenn die Art in eine andere Gattung gestellt wird oder wenn sie vom Artstatus z.B. in eine Unterart überführt wird etc. Der wissenschaftliche Name einer Art besteht aus zwei Wörtern: Das erste Wort bezeichnet die Gattung, das zweite Wort wird in der Botanik das Art-Epitheton (das Epitheton specificum) genannt, in der Zoologie wird vom Artnamen (specific name) gesprochen. Die beiden Wörter bilden den Artnamen (Zoologie: den Namen der Art, name of the species), der nur einer Art zugeordnet sein soll; ein Beispiel hierfür ist der wissenschaftliche Name der Art des anatomisch modernen Menschen: "Homo sapiens". Der Gattungsname wird mit großem Anfangsbuchstaben geschrieben und ist ein erforderlichenfalls latinisiertes Substantiv im Nominativ Singular. Diese Regel gilt neben der Botanik auch für die Mikrobiologie, hier ist sogar vorgeschrieben, dass der Gattungsname als lateinisches Substantiv behandelt wird. In der Zoologie reicht es aus, wenn der Name in irgendeiner Sprache halbwegs aussprechbar ist. Das Art-Epitheton in der Botanik wird üblicherweise klein geschrieben und ist ein lateinisches oder latinisiertes Adjektiv oder Substantiv im Nominativ Singular bzw. ein Substantiv im Genitiv. Ein Adjektiv muss im grammatikalischen Geschlecht dem Gattungsnamen folgen und wird bei einer Änderung der Gattung auch entsprechend angepasst. Dies gilt ebenso für die Namen der Bakterien. In der Zoologie wird der Artname immer klein geschrieben (sogar am Satzanfang), eine in irgendeiner Sprache halbwegs aussprechbare Buchstabenkombination von mindestens zwei Buchstaben reicht aus. Ist der Artname ein lateinisches oder latinisiertes Adjektiv, wird dieses in den meisten Tiergruppen dem Geschlecht des Gattungsnamens angepasst. Im Druckbild sollen wissenschaftliche Art- und Gattungsnamen "kursiv" gesetzt sein. Botanik. Für die wissenschaftlichen Namen von Pflanzenarten, -gattungen, -familien und weiteren taxonomischen Rangstufen wird das von Carl von Linné 1753 in seinem Werk ' begründete binäre Namensgebungssystem verwendet, das heute durch den „Internationalen Code der Nomenklatur für Algen, Pilze und Pflanzen“ (ICN/ICNafp) – bis 2011 „Internationaler Code der Botanischen Nomenklatur“ (ICBN) – geregelt ist. Bei Pflanzenarten dürfen der Gattungsname und das Art-Epitheton nicht identisch sein; der Name "Linaria linaria" wäre zum Beispiel nicht gestattet (vgl. "Tautonym"). Bei Namen unterhalb des Artranges muss der Name der Rangstufe genannt werden (in der Regel als Abkürzung: Unterart ⇒ „subsp.“ (früher auch „ssp.“), Varietät ⇒ „var.“, Forma ⇒ „f.“) – dies steht im Gegensatz zur zoologischen Nomenklatur. Die jeweilige Abkürzung wird dabei nicht kursiv geschrieben; Beispiel: '. Zum vollständigen Namen gehört auch das Autorenkürzel des Namens, welches oft in Kapitälchen und nichtkursiv geschrieben wird (z. B. "Gemeine Ochsenzunge" L.; „L.“ ist dabei das standardisierte Kürzel für „Linné“ (s.o.)). Wird eine Art später einer anderen Gattung zugesprochen (→ Umkombination), so wird der Autor des Basionyms weiterhin in Klammern aufgeführt (z. B. "Acker-Ochsenzunge" (L.) M.Bieb.; Linné hat also die Art beschrieben (als '), von Bieberstein hat sie dann allerdings in eine andere Gattung gestellt). Dieses doppelte Zitieren von Autorennamen ist in der zoologischen Nomenklatur nicht erlaubt. Zoologie. Für die wissenschaftlichen Namen von Tierarten, Gattungen oder Familien wurde das von Carl von Linné 1758 veröffentlichte Werk Systema Naturæ als Startpunkt festgelegt. Die Namensgebung wird heute durch die Internationalen Regeln für die Zoologische Nomenklatur (ICZN Code) geregelt. Ein Artname besteht aus zwei Bestandteilen (Gattung und Art); diese bilden den Gesamtnamen, der in der Zoologie nur eine bestimmte Tierart bezeichnen darf. Gattungen, Familien und alle noch höheren Gruppen bestehen nur aus einem einzigen Namen, der immer mit einem Großbuchstaben anfängt. Artnamen beginnen mit einem Kleinbuchstaben. Innerhalb einer Gattung müssen Arten verschiedene Namen tragen; den gleichen Artnamen in verschiedenen Gattungen zu verwenden ist zulässig. Im Unterschied zur Botanik können in der Zoologie der Gattungsname und der Artname identisch sein (Tautonymie, z. B. Uhu: "Bubo bubo"). Mikrobiologie. Für die wissenschaftlichen Namen von Bakterien wird der Internationale Code der Nomenklatur der Bakterien (ICNB) – in Kurzform als "Bakteriologischer Code" bezeichnet – verwendet. Er wird vom International Committee on Systematics of Prokaryotes (ICSP, englisch für „Internationale Kommission für die Systematik der Prokaryoten“) überwacht und veröffentlicht. In Zukunft soll der Code "International Code of Nomenclature of Prokaryotes" (englisch für „Internationaler Code der Nomenklatur der Prokaryoten“) genannt werden. Er gilt für Bakterien, andere Mikroorganismen werden durch andere Regelwerke erfasst: Pilze und Algen durch den in der Botanik verwendeten ICN/ICNafp, Protozoen durch den in der Zoologie verwendeten ICZN und Viren durch den Code der Nomenklatur der Viren (englisch "International Code of Virus Classification and Nomenclature"), der jedoch noch nicht veröffentlicht wurde. Bis 1975 wurde der Internationale Code der Botanischen Nomenklatur (ICBN) zur Benennung von Bakterien verwendet. Es brauchte mehrere Internationale Kongresse für Mikrobiologie, bis ein eigenes Regelwerk erstellt wurde. Der Hintergrund war, dass damals etwa 30.000 Namen in der Literatur veröffentlicht waren, aber bei vielen keine eindeutige Zuordnung zu einer Bakterienart möglich war. Ab 1976 wurde an der Erstellung von Listen mit anerkannten Bakteriennamen (englisch "Approved Lists of Bacterial Names") gearbeitet und der 1. Januar 1980 als Startpunkt für den Bakteriologischen Code festgelegt. Zu diesem Zeitpunkt wurden alle nicht auf den Listen geführten Bakteriennamen als ungültig angesehen. Seitdem müssen neue Bakteriennamen dem Code entsprechend vergeben werden. Vom Internationalen Code der Nomenklatur der Bakterien wurde 1990 eine Revision herausgegeben, die derzeit (Stand 2014) gültig ist. Die "Approved Lists of Bacterial Names" sind in zweiter Auflage 1989 erschienen, seitdem werden sie durch regelmäßige Veröffentlichungen der "Validation Lists" („Bestätigungslisten“) ergänzt. Im Bakteriologischen Code werden die taxonomischen Rangstufen Klasse, Ordnung, Familie, Gattung, Art und Unterart erfasst, wobei es auch Zwischenrangstufen, wie z. B. Unterordnung geben kann. Die Verwendung der Rangstufe Varietät ist nicht zulässig. Die Taxa zwischen Unterklasse und Gattung haben entsprechend ihres Rangs eine bestimmte Wortendung (Suffix). Namen für Unterarten (Subspezies) sind – wie in der Botanik – eine ternäre Kombination unter Einschluss des Kürzels „subsp.“, wie z. B. "Lactobacillus delbrueckii" subsp. "bulgaricus". Es kommt häufiger vor, dass die Namen von Personen, die sich um die Mikrobiologie verdient gemacht haben, in Gattungsnamen aufgegriffen werden. Für die Bildung derartiger Gattungsnamen existieren feste Regeln und sie sind, unabhängig von der Person, feminin. Beispiele sind die Gattungen "Hamadaea" (nach Masa Hamada benannt), "Kurthia" (nach Heinrich Kurth benannt) oder "Nesterenkonia" (nach Olga Nesterenko benannt). Auch die Verwendung eines Diminutivs findet sich häufig, wie bei "Bordetella", "Klebsiella" oder "Salmonella". Wie in der Botanik wird auch der oder die Autorenname(n) (allerdings nicht als Kürzel) und das Jahr der Erstbeschreibung hinter den Namen des Taxons gesetzt. Die Regeln für die Umkombination werden analog verwendet. Außerdem kommt es vor, dass die Beschreibung eines Taxons später durch einen oder mehrere Autoren verbessert wurde. In diesem Fall werden die Autorennamen hinter der Abkürzung „emend.“ (lateinisch "emendavit" für „verbessert“ oder „berichtigt“) mit der Jahreszahl der Beschreibung aufgeführt. Falls beides zutrifft, ergeben sich durchaus längere Kombinationen, wie bei "Micrococcus luteus" (Schröter 1872) Cohn 1872 emend. Wieser et al. 2002. Die Verwendung von Kapitälchen für Autorennamen ist im Bakteriologischen Code nicht geregelt. Namensvergabe. Die Namen werden in der Regel durch die Forscherinnen und Forscher vergeben, die die Art das erste Mal wissenschaftlich beschreiben (Erstbeschreibung). Es gibt sowohl in der Botanik als auch in der Zoologie ein paar Spezialfälle, in denen die Beschreibung bereits vorher und ohne korrekte Namensnennung veröffentlicht wurde – in diesen Fällen wird der Artname der Person zugeschrieben, die den Namen erstmals korrekt eingeführt hat. Um durch die Angabe der Originalquelle eines Namens größere Eindeutigkeit der Namensverwendung herzustellen, wird in der wissenschaftlichen Literatur der Name des Autors an den wissenschaftlichen Namen angehängt. In der Botanik wird der Autorenname meist standardisiert nach Brummitt & Powell (1982) und dem International Plant Names Index abgekürzt, während Abkürzungen in der Zoologie unerwünscht sind. Steht eine Tierart heute in einer anderen Gattung als der, in der sie ursprünglich beschrieben worden war, werden Autor und Jahr in Klammern gesetzt. Die Abkürzungsinitialen für den Vornamen des Autors werden in einigen Tiergruppen häufig dann dazugesetzt, wenn es andere Autoren desselben Nachnamens in derselben Tiergruppe gab (wobei nirgendwo einheitliche Kriterien angewendet werden). Diese Initialen sind in der Biodiversitätsinformatik unerwünscht. Kriterien für die Namensgebung. Die Namen der Gattungs- und Artgruppe werden oftmals aus einem besonderen Merkmal (z. B. Farbe, Größe, Verhalten), aus dem Ort der Entdeckung oder aus einem Personennamen abgeleitet, jedoch gilt es als verpönt, die Art nach sich selbst zu benennen. Betrachtet ein Bearbeiter mehrere Namen als Synonyme ein und derselben Art, so hat der älteste verfügbare Name Vorrang (Prioritätsprinzip). "Siehe auch: Liste skurriler wissenschaftlicher Namen aus der Biologie – zur prinzipiellen Freiheit des Autors, den Namen zu vergeben, sofern keine grundsätzlichen Regeln verletzt werden" Internationale Regelwerke zur Nomenklatur. In den 1990er Jahren vorgeschlagen, jedoch bislang ohne Akzeptanz, sind PhyloCode und BioCode. Der BioCode möchte dabei ein einheitliches System der Nomenklatur für alle Lebewesen mit Ausnahme der Viren einführen, also die Systeme ICBN, IRZN, ICNB und ICNCP ersetzen. Im PhyloCode wird beabsichtigt, Regeln zur Bezeichnung aller über der Art stehenden hierarchischen Gruppierungen zu geben. Probleme bei der Vereinheitlichung der bestehenden Systeme der Nomenklatur bereiten die gar nicht so wenigen Fälle, in denen derselbe wissenschaftliche Gattungsname sowohl im Tierreich als auch im Pflanzenreich oder bei Bakterien verwendet wurde. Beispielsweise bedeutet der Gattungsname "Oenanthe" im Pflanzenreich die Wasserfenchel (Apiaceae), im Tierreich die Steinschmätzer (Vögel, Muscicapidae). Weitere doppelt verwendete Gattungsnamen sind "Alsophila," "Ammophila," "Arenaria" u. a. Der ICZN empfiehlt (Recommendation 1a) solche doppelten Namen nicht mehr für neu zu beschreibende Gattungen zu vergeben. Einzelnachweise. Peter H. A. Sneath: "The preparation of the Approved Lists of Bacterial Names." In: "International Journal of Systematic and Evolutionary Microbiology." Band 55, Nr. 6, November 2005, S. 2247–2249.. Nomenklatur. Eine Nomenklatur (‚Namensverzeichnis‘) ist eine für bestimmte Bereiche verbindliche Sammlung von Benennungen aus einem bestimmten Themen- oder Anwendungsgebiet. Die Gesamtheit der in einem Fachgebiet gültigen Benennungen bildet eine Terminologie. In der DDR wie in allen sozialistischen Ländern bezeichnete man damit (heute gemeinhin als Nomenklatura unterschieden) die Zuständigkeit für die Besetzung bestimmter Positionen. Es existierten zwei Ebenen der Nomenklatur: die der Staatsorgane und die der Partei. Nidda. Nidda ist eine Stadt im hessischen Wetteraukreis im Naturraum Unterer Vogelsberg. Ihren Namen verdankt sie dem Fluss Nidda. Nachbargemeinden. Nidda grenzt im Norden an die Stadt Laubach (Landkreis Gießen), im Osten an die Stadt Schotten (Vogelsbergkreis) und die Gemeinde Hirzenhain, im Süden an die Stadt Ortenberg und die Gemeinde Ranstadt, im Südwesten an die Gemeinde Echzell sowie im Westen an die Gemeinde Wölfersheim (alle im Wetteraukreis) und die Stadt Hungen (Landkreis Gießen). Stadtgliederung. Nidda besteht aus den Stadtteilen Bad Salzhausen, Borsdorf, Eichelsdorf, Fauerbach, Geiß-Nidda, Harb, Kohden, Michelnau, Nidda, Ober-Lais (mit Unter-Lais), Ober-Schmitten, Ober-Widdersheim, Schwickartshausen, Stornfels, Ulfa, Unter-Schmitten, Unter-Widdersheim und Wallernhausen. Geschichte. Zwischen 802 und 817 wird Nidda als "Nitaha" im Codex Eberhardi erstmals urkundlich erwähnt. Spätere Formen des Ortsnamens waren "Nithehe" (1187), "Nitehe" (1206) und "Nitehehe" (1234). Der Edelfreie Volkold II., vielleicht aber auch schon sein Vater Volkold I. von Malsburg, dem er als Vogt der Reichsabtei Fulda über deren Besitz in der nördlichen Wetterau folgte, erbaute um 1100 eine kreisrunde Wasserburg in Nidda, die den staufischen Kaisern zur Sicherung der vorbeiführenden Handelsstraßen diente. (Sie wurde bald nach 1604, als Nidda an Hessen-Darmstadt fiel, abgerissen und durch ein Renaissanceschloss ersetzt.) Volkold II. verlegte seinen Wohnsitz von der fuldischen Burg Bingenheim nach Nidda und begründete die Familie der Grafen von Nidda. 1187 übertrug Graf Berthold II. von Nidda die Pfarrei Nidda zusammen mit beträchtlichem Grundbesitz an den Johanniterorden, der danach in Nidda eine Komturei einrichtete. Die dann errichteten Wohn- und Wirtschaftsgebäude des Ordens bestimmten in den folgenden Jahrhunderten das Bild der Stadt. Im Jahre 1205 erbte Graf Ludwig I. von Ziegenhain die kleine Grafschaft Nidda, da seine Mutter Mechthild, Schwester des ohne männliche Erben verstorbenen letzten Grafen von Nidda, Berthold II., Alleinerbin ihres Bruders gewesen war. 1234 wurde Nidda in einer Urkunde der Grafen Gottfried IV. und Berthold I. von Ziegenhain erstmals als Stadt bezeichnet; 1218 und 1223 wurde der Ort noch als „villa“ bezeichnet. Von 1258 bis 1311/1333 waren die Grafschaften Ziegenhain und Nidda nach einer Erbteilung wieder voneinander geteilt. Erst 1333 kam es zur erneuten Vereinigung. Graf Johann I. von Ziegenhain heiratete 1311 die Erbtochter Lukardis (Luitgart) des Niddaer Grafen Engelbert I. Dieser starb 1330, und seine Tochter blieb bis 1333 nominelle Regentin. 1333 vereinte dann Johann von Ziegenhain beide Grafschaften in seiner Hand. Nach dem Aussterben der Grafen von Ziegenhain und Nidda mit dem Tode Johanns II. im Jahre 1450 kam die Grafschaft Nidda in den Besitz der Landgrafen von Hessen. Seitdem ist im Haus Hessen der Titel „Graf von Nidda“ Bestandteil des Familiennamens. Zur Grafschaft Nidda gehörten zu diesem Zeitpunkt das Amt Nidda mit den Gerichten Widdersheim, Rodheim, Ulfa und Wallernhausen, die Herrschaft Lißberg, die Fuldische Mark mit den halben Vogteien Echzell, Berstadt, Dauernheim und Bingenheim (mit Ausnahme des dortigen Schlosses), und die Gerichte Burkhards und Crainfeld. An die romanische Pfarrkirche wurde 1491 ein spätgotischer Kirchturm angebaut, der 2012 umfangreich einschließlich des Dachturms erneuert wurde. 1821 wurden die Ämter aufgelöst und Nidda wurde Sitz des Landratsbezirks Nidda bzw. ab 1830 des Kreises Nidda und von 1848 bis 1852 des Regierungsbezirks Nidda. Eingemeindungen. Am 1. Dezember 1970 wurden die bis dahin selbständigen Gemeinden Borsdorf, Fauerbach bei Nidda, Geiß-Nidda, Harb, Kohden, Michelnau, Ober-Lais, Ober-Schmitten, Ober-Widdersheim, Bad Salzhausen, Stornfels, Ulfa, Unter-Schmitten und Wallernhausen eingegliedert. Am 31. Dezember 1971 kam Schwickartshausen hinzu. Eichelsdorf und Unter-Widdersheim sowie ein Teilgebiet der Nachbarstadt Hungen mit damals etwa 50 Einwohnern folgten am 1. August 1972. Religionen. Die Bevölkerung der Stadt Nidda ist überwiegend evangelischen Glaubens. Anfang des 20. Jahrhunderts lebten ca. 100 Juden in Nidda. Etwa die Hälfte konnte vor dem Krieg auswandern, die anderen wurden Opfer der NS-Herrschaft. Im Februar 2014 wurden die ersten Stolpersteine in Nidda verlegt. Stadtverordnetenversammlung. Ortsvorsteher des Stadtteils Nidda ist Rudolf Allmansberger (Stand Juni 2013). Bürgermeisterwahlen. Die Bürgermeisterdirektwahl am 25. Februar 2007 gewann Lucia Puttrich mit 64,2 % aller Stimmen. Es war ihre dritte und letzte Amtszeit, nachdem sie 2009 das Direktmandat für den Bundestag erhalten hat. Seit dem 7. März 2010 ist der parteilose Hans-Peter Seum neuer Bürgermeister, der im zweiten Wahlgang die Mehrheit für sich beanspruchen konnte. Wappen. Blasonierung: „In Schwarz über einem achtstrahligen Stern (Ziegenhain) im Halbbogen eine silberne, rot (Tor und Fenster) abgesetzte Burg (Nidda).“ Flaggenbeschreibung: „Die Flagge zeigt die Farben Schwarz und Gold, im oberen Drittel das Stadtwappen“ Die Flagge ist senkrecht geteilt, links Schwarz und rechts Gold. Die Farben lassen sich bis zur Grafschaft Ziegenhain und Nidda zurückverfolgen. Städtepartnerschaften. Nidda hat Städtepartnerschaften mit Crest in Frankreich, Bad Kösen in Sachsen-Anhalt, Weißenstein in Österreich und Cromer in England. Derzeit werden Verhandlungen über eine Partnerschaft mit Nida in Litauen und Salandra (Italien) geführt. Wirtschaft. Bedingt durch seinen Wald- und Wasserreichtum sowie durch die Qualität des Wassers hat das Papierhandwerk in Nidda eine lange Tradition. Einige in Nidda ansässige Unternehmen haben dieses Handwerk weiterentwickelt und sind heute industrielle Hersteller mit modernen Anlagen und vielseitigen Produktpaletten. Sie sind wichtige Arbeitgeber in der Region. Verkehr. Nidda liegt an den Bundesstraßen 455 und 457 sowie an der Lahn-Kinzig-Bahn zwischen Gießen und Gelnhausen (Haltepunkte in den Ortsteilen Nidda, Borsdorf und Ober-Widdersheim). Der Bahnhof Nidda ist außerdem Endhaltestelle der Bahnlinie nach Friedberg. Die Stadt gehört zusammen mit dem Kreis Wetterau zum Gebiet des Rhein-Main-Verkehrsverbundes. Durch den Stadtteil Unter-Widdersheim führt der Deutsche Limes-Radweg. Dieser folgt dem Obergermanisch-Raetischen Limes über 818 km von Bad Hönningen am Rhein nach Regensburg an der Donau. Durch Nidda führt der Hessische Radfernweg R4. Er steht unter dem Motto "Von Dornröschen zu den Nibelungen". Der Radfernweg beginnt in Hirschhorn am Neckar und verläuft von Süd nach Nord durch Hessen, entlang von Mümling, Nidda und Schwalm nach Bad Karlshafen an der Weser. Die Gesamtlänge beträgt ungefähr 385 Kilometer. Regelmäßige Veranstaltungen. a> im April 2012 bei "Nidda erlesen" Naturwissenschaft. a>. Dargestellt sind Medizin, Arzneikunde, Anatomie, Architektur, Mathematik, Geographie, Astronomie, Geologie und Physik. Unter dem Begriff Naturwissenschaften werden Wissenschaften zusammengefasst, die empirisch arbeiten und sich mit der Erforschung der Natur befassen. Naturwissenschaftler beobachten, messen und analysieren die Zustände und das Verhalten der Natur durch Methoden, die die Reproduzierbarkeit ihrer Ergebnisse sichern sollen, mit dem Ziel, Regelmäßigkeiten zu erkennen. Neben der Erklärung der Naturphänomene ist eine der wichtigsten Aufgaben der Naturwissenschaft die Natur nutzbar zu machen. Die Naturwissenschaften bilden so z. B. einen Teil der theoretischen Grundlagen für Technik, Medizin oder Umweltschutz. Im 17. Jahrhundert gelang den Naturwissenschaften im Zusammenhang mit der Epoche der Aufklärung der entscheidende Durchbruch in den intellektuellen Gesellschaftsschichten. Dies löste eine wissenschaftliche Revolution aus, die im 18. Jahrhundert mit vielen neuen Entdeckungen und Erfindungen zum industriellen Zeitalter führte und die Gesellschaft vor allem in der westlichen Welt stark veränderte. Bis heute hat sie den allgemeinen Wissenschaftsbetrieb so stark geprägt, dass in der Soziologie von einer naturwissenschaftlichen und technischen Gesellschaft gesprochen wird. Teilgebiete der Naturwissenschaften sind unter anderem Astronomie, Physik, Chemie, Biologie, sowie einige Umweltwissenschaften wie Geologie, aber auch Agrarwissenschaften. Die technische Nutzbarkeit der natürlichen Gesetzmäßigkeiten wird seit jeher in unterschiedlichen Ingenieurswissenschaften behandelt. Einordnung und Abgrenzung. Nach einer klassischen Auffassung können die Naturwissenschaften neben den Geisteswissenschaften und den Sozialwissenschaften eingeordnet werden. Aufgrund der Entstehung einer Vielfalt von neuen Wissenschaftszweigen in der Moderne herrscht über eine allgemeine Klassifizierung der Einzelwissenschaften kein Konsens. Die Einordnung erweist sich vor allem aufgrund vieler Überschneidungen verschiedener Wissenschaftsgebiete als schwierig. Die Naturwissenschaften gehören zu den empirischen Wissenschaften. Sie zeichnen sich vor allem durch ihren Forschungsgegenstand, die belebte und unbelebte Materie aus. Einige Naturwissenschaften sind durch einen mathematischen Zugang zu ihrem Forschungsgegenstand geprägt. Diese werden als exakte Wissenschaften bezeichnet. Die Mathematik ist ebenfalls eine exakte Wissenschaft, umfasst aber mit ihrer Untersuchung von abstrakten Strukturen sowohl Bereiche der Geisteswissenschaften als auch der Naturwissenschaften. Aus diesem Grund wird sie oft neben der Informatik den Strukturwissenschaften zugeordnet. Naturwissenschaftliche Forschung beschäftigt sich vor allem mit Fragestellungen, die durch Untersuchung von gesetzmäßigen Zusammenhängen in der Natur beantwortet werden können. Dabei liegt der Schwerpunkt auf der Beschreibung des Vorgangs selbst und nicht etwa bei einer Sinnfindung. Vereinfacht kann es mit der Frage nach dem "Wie" anstatt des "Wozu" dargestellt werden. Die Fragestellung "Warum gibt es Regen?" findet nicht etwa mit "Damit Pflanzen wachsen können" ihre Erklärung, sondern wird objektiv beantwortet: "Weil Wasser verdunstet, aufsteigt, sich in Wolken sammelt und schließlich kondensiert, was zum Niederschlag führt." Die Naturwissenschaft beantwortet also in erster Linie keine teleologischen (nach dem Zweck oder Ziel ausgerichteten) Fragen, sondern führt die untersuchten Vorgänge auf Naturgesetze oder auf schon bekannte Sachverhalte zurück. Insoweit dies gelingt, wird der Naturwissenschaft nicht nur ein "beschreibender", sondern auch ein "erklärender" Charakter beigemessen. Naturphilosophie der Antike. Naturwissenschaftliche Erkenntnis nahm einerseits in der handwerklichen und technischen Betätigung und andererseits in der geistigen Überlieferung der gelehrten Tradition des Menschen ihren Anfang. Naturbeobachtungen altertümlicher Kulturen – insbesondere in der Astronomie – brachten oft zwar zutreffende quantitative und qualitative Aussage hervor, wurden aber vorwiegend – wie etwa in der Astrologie – mythologisch gedeutet. Entscheidende Fortschritte brachte die griechische Naturphilosophie mit der Entwicklung einer Methodik, die sich an der Philosophie und der Mathematik orientierte. Die wahrnehmbare Welt dachte man sich wie etwa in der Vier-Elemente-Lehre als Zusammensetzung der „Elemente“ Feuer, Luft, Wasser und Erde und beschreibt verschiedene Umwandlungsprozesse. Auch die Vorstellung von kleinsten, unteilbaren Teilchen (Atomismus), aus denen die ganze Welt zusammengesetzt sei, wurde entwickelt. Schon lang bekannte periodische Bewegungen der Himmelskörper wurden geometrisch interpretiert und die Vorstellung eines Weltensystems entwickelt, in dem sich die Sonne, der Mond und die damals bekannten Planeten auf Kreisbahnen um die ruhende Erde in der Mitte bewegten (geozentrisches Weltbild). Die Kugelgestalt der Erde wurde vermutet und spätestens von Aristoteles stichhaltig begründet, das Zustandekommen von Sonnen- und Mondfinsternissen erklärt, relative Abstände von Erde, Sonne und Mond abgeschätzt und sogar durch eine Winkelmessung und geometrische Überlegungen der Erdumfang recht genau bestimmt. Im Römischen Reich wurden die intellektuellen Errungenschaften der griechischen Kultur zum größten Teil übernommen, gingen aber mit dem Zerfall des Reiches im 5. Jahrhundert n. Chr. zum größten Teil verloren. Im mittelalterlichen Europa konnten sich die Naturwissenschaften unter dem Primat der Theologie und der Philosophie sowohl in der christlichen als auch in der islamischen Welt nur langsam und im Rahmen der weltanschaulichen Prämissen entwickeln. Kopernikanische Wende und naturwissenschaftliche Revolution. Erst im Zuge der Renaissance, die verschiedene geistesgeschichtliche Veränderungen mit sich brachte, trat wieder ein größeres Interesse an der Naturbeobachtung auf. Durch die Annäherung der Wissenschaft an die handwerkliche Tradition in der empirischen Methode wurden auf sämtlichen Gebieten neue Erkenntnisse gemacht. Die gegenseitige Wechselwirkung von Alchemie und Medizin bereicherte beide Disziplinen in der Entwicklung zu empirischen Wissenschaften. Das Experiment als Ausgangspunkt der Naturforschung begann sich mit Francis Bacon und Galileo Galilei durchzusetzen. Besonders die Korrektur des alten Julianischen Kalenders und die Navigation in der Schifffahrt erforderte eine intensive Betätigung in der Astronomie. Nikolaus Kopernikus entwickelte ausgehend von einer Bewegung der Erde um die Sonne ein vereinfachtes, mathematisches Modell, das die von der Erde kompliziert erscheinenden Himmelsbahnen der Planeten erklärte und gegenüber dem ptolemäischen System eine leichtere Berechnung der Positionen ermöglichte. Dieses neue Weltsystem setzte sich jedoch gegenüber dem geozentrischen Weltbild erst durch, nachdem Johannes Kepler aus genauen Messungen von Tycho Brahe elliptische Umlaufbahnen der Erde und der anderen Planeten feststellte und Isaac Newton diese durch sein Gravitationsgesetz theoretisch bestätigen konnte. Für diese revolutionären Entdeckungen des 16. und 17. Jahrhunderts wurde der Begriff der "kopernikanischen Wende" geprägt. In derselben Zeitperiode setzen Wissenschaftshistoriker auch die naturwissenschaftliche Revolution als Wegbereiter für die moderne Naturwissenschaft an. Moderne Naturwissenschaft. Über eine präzise Definition und den zeitlichen Beginn der "modernen Naturwissenschaft" sind sich Fachleute nicht einig. Oft wird in Überschneidung mit der naturwissenschaftlichen Revolution als zeitlicher Rahmen etwa das 17. Jahrhundert für den Beginn der modernen Naturwissenschaft angegeben. Als wichtige Merkmale werden professionalisierter Wissenschaftsbetrieb, die Entwicklung und Anwendung naturwissenschaftlicher Methodik und später die Herausbildung von Fachbereichen durch Spezialisierung angesehen. Mit der Gründung von naturwissenschaftlichen Gesellschaften, Akademien und neuen Universitäten begann die Etablierung einer eigenständigen wissenschaftlichen Tradition in Europa. In Frankreich widmeten sich Gelehrte – beeinflusst durch Descartes' rationalistischer Philosophie – der theoretischen Beschreibung von Naturphänomenen unter Betonung der deduktiven Methode. In England dagegen galt das Interesse aufgrund Bacons Einfluss der empirischen Methode, weshalb man sich durch das Experiment vermehrt technischen Herausforderungen stellte. Dies wird auch als einer der Gründe angesehen, warum die Industrielle Revolution in der zweiten Hälfte des 18. Jahrhunderts ihren Anfang in England nahm. Zahlreiche bahnbrechende Entdeckung und Erfindungen leiteten einen unverkennbaren gesellschaftlichen und wirtschaftlichen Wandel ein, der sich in den folgenden Jahrzehnten auf das europäische Festland und Amerika ausbreitete. Mit der starken Zunahme an Wissen seit dem 18. Jahrhundert konnte schrittweise ein Grundverständnis über den Aufbau der empirisch zugänglichen Welt erarbeitet werden, was eine Einteilung der Naturwissenschaften in Fachbereiche wie Biologie, Chemie, Geologie und Physik möglich machte. Obwohl sich Unterschiede in der Methodik der Fachrichtungen entwickelten, beeinflussten und ergänzten sie sich gegenseitig. Die in der Biologie untersuchten Stoffwechselprozesse konnten beispielsweise durch die organische Chemie erklärt und näher erforscht werden. Des Weiteren lieferten moderne Atomtheorien der Physik Erklärungen zum Aufbau der Atome und trugen so in der Chemie zu einem besseren Verständnis der Eigenschaften von Elementen und chemischen Bindungen bei. Darüber hinaus entwickelten sich Fachbereiche wie Medizin, Agrar- oder Ingenieurwissenschaften, die Anwendungsmöglichkeiten für das theoretische Wissen erarbeiteten. In der ersten Hälfte des 20. Jahrhunderts erlebte die Physik einen bemerkenswerten Umbruch, der gravierende Folgen für das Selbstverständnis der Naturwissenschaft haben sollte. Mit der Begründung der Quantenphysik stellten Max Planck und Albert Einstein fest, dass Energie – besonders auch in Lichtwellen – nur in diskreten Größen vorkommt, also gequantelt ist. Des Weiteren entwickelte Einstein die spezielle (1905) und die allgemeine Relativitätstheorie (1915), die zu einem neuen Verständnis von Raum, Zeit, Gravitation, Energie und Materie führte. Eine weitere Umwälzung markiert die in den 1920er und 30er Jahren begründete Quantenmechanik, die bei der Beschreibung von Objekten auf atomarer Ebene markante Unterschiede zur klassischen Vorstellung der Atome aufweist. Dort stellte man fest, dass bestimmte Eigenschaften von Teilchen nicht gleichzeitig beliebig genau gemessen werden können (Heisenbergsche Unschärferelation) und beispielsweise Elektronen eines Atoms nicht genau lokalisiert, sondern nur in gewissen Wahrscheinlichkeiten über ihren Aufenthaltsort beschrieben werden können. Diese Entdeckungen entziehen sich größtenteils der menschlichen Anschauung, entfalten aber ihre große Aussagekraft in ihrer mathematischen Formulierung und sind für zahlreiche Anwendungen der modernen Technik von großer Bedeutung. Im Zweiten Weltkrieg und in der Zeit des Kalten Kriegs wurde naturwissenschaftliche Forschung – insbesondere die Nukleartechnik – stark forciert, weil sie Voraussetzung für eine technische und militärische Überlegenheit der Großmächte war. Seitdem hat sich für den massiven Ausbau von Forschungseinrichtungen der Begriff der "Großforschung" etabliert. Methoden. Die Methoden der Naturwissenschaften, sowie ihre Voraussetzungen und Ziele, werden in der Wissenschaftstheorie erarbeitet und diskutiert. Sie basieren hauptsächlich auf Mathematik, Logik und Erkenntnistheorie, aber auch auf kulturell geprägten methodischen und ontologischen Vorannahmen, die Gegenstand naturphilosophischer Reflexion sind. Metaphysische und erkenntnistheoretische Prämissen. Die Zielsetzung der Naturwissenschaften – die Erforschung der Natur – setzt als metaphysische Grundannahme voraus, dass die Natur existiert, und dass natürliche Vorgänge gesetzmäßig ablaufen. Weiterhin gehen Naturwissenschaftler von der erkenntnistheoretischen Prämisse aus, dass die systematische Generierung von Wissen über die Natur innerhalb bestimmter Grenzen möglich ist. Zu der Frage, wo genau diese Grenzen liegen, gibt es verschiedene Standpunkte, deren gängigste Varianten grob in zwei Gruppen aufgeteilt werden können, die "empiristische" Position und die Position des "wissenschaftlichen Realismus". Empiristen gehen davon aus, dass sich die Möglichkeit wissenschaftlicher Erkenntnis auf empirische Beobachtungen beschränkt. Theorien bzw. Modelle ermöglichen hingegen dem Empirismus zufolge keine Aussagen über die Natur. Eine mit dieser Auffassung verbundene Schwierigkeit ist die Abgrenzung zwischen empirischer Beobachtung und theoretischen Aussagen, da die meisten Beobachtungen in den Naturwissenschaften indirekt sind. Beispielsweise sind elektrische Felder, Atome, Quasare oder DNA-Moleküle nicht direkt beobachtbar, vielmehr lassen sich die Eigenschaften dieser Objekte nur unter Anwendung komplexer experimenteller Hilfsmittel ableiten, wobei der theoretischen Interpretation der gemessenen Daten eine unverzichtbare Rolle zukommt. Wissenschaftliche Realisten vertreten hingegen den Standpunkt, dass wissenschaftliche Theorien bzw. die aus Theorien abgeleiteten Modelle eine zwar idealisierte, aber doch näherungsweise zutreffende Beschreibung der Realität zulassen. Demnach existieren beispielsweise DNA-Moleküle wirklich, und die gegenwärtigen Theorien zur Vererbung sind näherungsweise korrekt, was jedoch zukünftige Erweiterungen oder auch partielle Änderungen dieser Theorien nicht ausschließt. Wissenschaftliche Realisten betrachten ihre Aussagen also als das am besten abgesicherte verfügbare Wissen über die Natur, erheben aber nicht den Anspruch auf die Formulierung uneingeschränkt gültiger und letzter Wahrheiten. Manche Kritiker des wissenschaftlichen Realismus - einflussreich war hier insbesondere die Positivismus-Bewegung des beginnenden 20. Jahrhunderts - lehnen jegliche Metaphysik als spekulativ ab. Andere Kritiker weisen auf spezifische erkenntnistheoretische Probleme des wissenschaftlichen Realismus hin, darunter insbesondere das Problem der Unterbestimmtheit von Theorien. Empirie und Experiment. Der zurückgelegte Abstand des fallenden Balles nimmt mit der Zeit quadratisch zu – der Ball wird also beschleunigt. Um objektive Erkenntnisse über das Verhalten der Natur zu gewinnen, werden entweder Versuche durchgeführt oder schon stattfindende Prozesse in der Natur intensiv beobachtet und dokumentiert. Bei einem Experiment wird ein Vorgang oft unter künstlich erzeugten Bedingungen im Labor durchgeführt und mit Hilfe verschiedener Messvorrichtungen quantitativ analysiert. In der Feldforschung werden dagegen natürlich ablaufende Prozesse empirisch untersucht oder stichprobenartige Befragungen erhoben. Das Experiment oder die Naturbeobachtung kann überall auf der Welt ort- und zeitunabhängig – sofern sie unter gleichen, relevanten Bedingungen durchgeführt wird – wiederholt werden und muss im Rahmen der Messgenauigkeit zu gleichen Ergebnissen führen (Reproduzierbarkeit). Der empirische Ansatz ist vor allem seit seiner theoretischen Beschreibung durch Francis Bacon und der praktischen Anwendung durch Galileo Galilei ein wichtiger Pfeiler der Wissenschaftstheorie und garantiert, dass Forschungsergebnisse unabhängig überprüft werden können und so dem Anspruch auf Objektivität gerecht werden. Oft widersprechen empirische Tatsachen der alltäglichen Erfahrung. Beispielsweise scheinen leichte Gegenstände wie ein Blatt Papier immer langsamer zu Boden zu fallen als schwere wie etwa ein Stück Metall. So vertrat Aristoteles die Auffassung, dass jeder physikalische Körper seinen natürlichen Ort habe, den er zu erreichen suche. Schwere Körper würden fallen, weil ihr natürlicher Platz unten sei. Er nahm an, dass jeder Körper mit gleichbleibender Geschwindigkeit fällt, die von seiner Masse abhängt. Galilei fragte jedoch nicht zuerst nach dem Grund des Falls, sondern untersuchte den Vorgang selbst, indem er die Fallzeit, die Fallhöhe und die Geschwindigkeit verschiedener Körper erfasste und ins Verhältnis setzte. So stelle er unter anderem fest, dass die Fallzeit nicht von der Masse des Körpers – wie früher vermutet – sondern von seiner Form und damit von der auftretenden Luftreibung abhängt. Lässt man also einen Tischtennisball und eine genauso große Bleikugel aus derselben Höhe fallen, stellt man im Gegensatz zu einer intuitiven Vermutung fest, dass beide zur selben Zeit auf dem Boden ankommen. Die Aussagekraft des Experiments hängt von verschiedenen Faktoren ab. Bei Verwendung eines Messgeräts muss seine Genauigkeit bekannt sein, um überhaupt einschätzen zu können, wie zuverlässig die damit gemessenen Daten sind (Reliabilität). Auch das ganze Experimentkonzept muss auf seine Validität geprüft und die Ergebnisse oft mit statistischen Verfahren ausgewertet werden, um zu entscheiden, ob das Ergebnis tatsächlich einen Sachverhalt rechtfertigen kann. Schon Galilei war sich der Ungenauigkeit seiner Instrumente und der damit verbundenen Messunsicherheit bewusst. Aus diesem Grund verbesserte er seine Messungen, indem er die zum freien Fall analoge Bewegung auf der schiefen Ebene untersuchte. Induktion. Bei Anwendung der Induktionsmethode wird aus der Untersuchung eines Phänomens auf eine allgemeine Erkenntnis geschlossen. Die empirischen Daten werden ausgewertet und auf allgemein beschreibbare Vorgänge untersucht. Liegen quantitative Messergebnisse vor, wird nach mathematischen Zusammenhängen der gemessenen Größen gesucht. Im obigen Beispiel des freien Falls fand Galilei eine lineare Beziehung zwischen der Zeit und der erreichten Geschwindigkeit des fallenden Körpers, die in der konstanten Erdbeschleunigung ihren Ausdruck findet. Obwohl die induktive Folgerung in der Naturwissenschaft oft angewendet wird, ist sie in der Wissenschaftstheorie umstritten (Induktionsproblem). Schon Galileo waren Schwierigkeiten des Ansatzes bekannt. David Hume legte ausführlich dar, dass für die Rechtfertigung eines allgemeinen Gesetzes Erfahrung alleine nicht ausreiche. Es wäre beispielsweise fatal, aus der Wachstumsgeschwindigkeit eines Kindes auf dessen Größe im Erwachsenenalter schließen zu wollen. Deswegen wurden (etwa von Rudolf Carnap) Versuche unternommen, die Aussagekraft von induktiven Schlüssen abzuschwächen, indem man ihrer Gültigkeit einen Wahrscheinlichkeitswert beigemessen hat, der aufgrund empirischer Erfahrung bestehen soll. Auch solche Ansätze werden von Vertretern des kritischen Rationalismus wie Karl Popper abgelehnt, da sie sich entweder auf A-Priori-Annahmen stützen oder in ihrer Argumentation zum unendlichen Regress führen und das ursprüngliche Induktionsproblem nicht lösen. Deduktion. Die Methode der Deduktion bezeichnet eine logische Schlussfolgerung aus einer als wahr angenommenen Hypothese. Wird eine bestimmte Gesetzmäßigkeit in der Natur vermutet, können aus dieser deduktiv verschiedene Aussagen hergeleitet und wiederum empirisch überprüft werden. Wieder kann dieser Prozess am freien Fall veranschaulicht werden. Aus der Vermutung, dass die Geschwindigkeit des fallenden Körpers direkt proportional zu seiner Fallzeit ist, kann man mathematisch folgern, dass die zurückgelegte Strecke des Körpers quadratisch mit der Zeit zunimmt. Diese Schlussfolgerung kann nun experimentell überprüft werden und erweist sich als richtig, wobei sich die angenommene Hypothese bewährt. Anschaulich wird das Ergebnis in einer Reihe von periodisch erfolgten Momentaufnahmen eines fallenden Gegenstands. Der Körper legt mit jeder Aufnahme jeweils eine längere Strecke zurück, was die Hypothese einer konstanten Fallgeschwindigkeit von Aristoteles anschaulich widerlegt. Eine weitere Beobachtung ist, dass leichte Körper mit einer großen Oberfläche wie etwa eine Feder viel langsamer fallen. Es stellt sich die Vermutung auf, dass diese Tatsache auf die Luftreibung zurückzuführen ist. Um dies deduktiv zu überprüfen, lässt sich ein Fallexperiment in einem evakuierten Glaszylinder durchführen, was Robert Boyle 1659 gelang. Er demonstrierte, dass beliebige Körper unterschiedlicher Masse, etwa eine Feder und ein Stein, im Vakuum beim Fall aus gleicher Höhe gleichzeitig den Boden erreichten. Es gibt verschiedene Methoden, um Schlussfolgerungen deduktiv aus schon bekannten Daten oder Gesetzen zu ziehen. Wichtig sind auch Modelle, die angeben, wie zuverlässig diese sind. Wenn aus bestimmten Gründen das Verhalten eines Systems in einem Bereich nicht untersucht werden kann, aber trotzdem Aussagen für die Entwicklung des Systems mit Hilfe von bekannten Gesetzmäßigkeiten getroffen werden, wird von Extrapolation gesprochen. So lassen sich beispielsweise Wahlergebnisse schon vor der Wahl abschätzen (Hochrechnung), indem man aus stichprobenartigen Befragungen relativ repräsentative Werte erhält. Wird hingegen eine Aussage über den Zustand eines Systems getroffen, der nicht direkt untersucht wurde, aber im Bereich des schon bekannten Verhaltens des Systems liegt, spricht man von Interpolation. Gewinnt man deduktiv eine Aussage über ein Ereignis, das in der Zukunft stattfinden soll, so spricht man auch von der Vorhersagbarkeit. Ein solches Beispiel ist die Berechnung der Daten und Uhrzeiten von Mond- und Sonnenfinsternissen aus den Bewegungsgleichungen der Himmelskörper. Verifikation und Falsifikation. Die zunächst plausibel erscheinende Aussage "Alle Schwäne sind weiß" wird durch ein Gegenbeispiel falsifiziert Im Gegensatz zur Mathematik können Aussagen, Gesetze oder Theorien in der Naturwissenschaft nicht endgültig bewiesen werden. Stattdessen spricht man im Falle eines positiven Tests von einem Nachweis. Wenn eine Aussage oder Theorie durch viele Befunde untermauert wird und keine Belege für das Gegenteil existieren, gilt sie als wahr. Sie kann jedoch jederzeit widerlegt (Falsifikation) oder in ihrem Gültigkeitsbereich eingeschränkt werden, wenn neue Forschungsergebnisse entsprechende Resultate vorweisen können. Ob eine Theorie verifizierbar d. h. endgültig als wahr befunden werden kann, wird in der Wissenschaftstheorie kontrovers diskutiert. Karl Popper führt in seinem Werk "Logik der Forschung" ein bekanntes Beispiel an, um die Möglichkeit der Verifizierung von Theorien kritisch zu veranschaulichen. Die Hypothese "Alle Schwäne sind weiß" soll verifiziert werden. Vertreter des logischen Empirismus würden die Richtigkeit der Aussage aus der empirischen Tatsache folgern, dass alle "ihnen" bekannten Schwäne weiß seien. Nun haben sie aber nicht alle existierenden Schwäne gesehen und kennen ihre Anzahl auch nicht. Deswegen können sie weder davon ausgehen, dass die Hypothese wahr sei, noch Aussagen über die Wahrscheinlichkeit ihrer Richtigkeit treffen. Die Ursache des Problems der Verifizierung liege also ursprünglich bereits in dem Induktionsschritt "Viele uns bekannte Schwäne sind weiß" → "Alle Schwäne sind weiß". Aus diesem Grund lehnt Popper die Verifizierbarkeit einer Theorie als unwissenschaftlich ab. Theorien sollen stattdessen nie als endgültig angesehen, sondern immer hinterfragt werden, wobei sie sich entweder bewährt halten oder zuletzt doch falsifiziert werden. Reduktion. Sind mehrere Gesetzmäßigkeiten über Vorgänge in der Natur bekannt, kann angenommen werden, dass sie voneinander abhängig sind, beispielsweise eine gemeinsame Ursache haben und damit auf ein allgemeines Prinzip reduziert werden können. Durch dieses Vorgehen kann eine wachsende Anzahl an Sachverhalten auf einfache Mechanismen oder Gesetze zurückgeführt werden. Eine beeindruckende Reduktion gelang Isaac Newton mit der Formulierung seines Gravitationsgesetzes. Zwei Körper üben auf sich gegenseitig eine Kraft aus, die von ihren Massen und ihrem Abstand abhängt. Die Schwerkraft, die den Fall eines Steines auf den Boden bewirkt, kann also mit genau demselben Gesetz beschrieben werden, wie die Anziehungskraft zwischen Sonne und Erde. Viele andere Beobachtungen, wie etwa das von Newton als erstes richtig erklärte Phänomen der Gezeiten, sind ebenfalls auf das Gravitationsgesetz zurückzuführen. Seither hat sich die Reduktion bewährt und ist vor allem für die Physik von großer Bedeutung geworden. Bis zu welchen Grenzen und in welchen Wissenschaften diese Methode angewandt werden darf, ist allerdings umstritten. In der Wissenschaftsphilosophie wird der Reduktionismus als Wissenschaftsprogramm kontrovers diskutiert. Vereinfacht dargestellt geht es um die Frage, ob sich schließlich alle Wissenschaften auf eine grundlegende Wissenschaft – etwa die Physik – reduzieren lassen. Befürworter des konsequenten Reduktionismus wie etwa viele Vertreter des Physikalismus argumentieren, dass sich das Bewusstsein des Menschen vollständig durch die Neurobiologie beschreiben lasse, die wiederum von der Biochemie erklärt werden könne. Die Biochemie lasse sich dann schließlich auf die Physik reduzieren, wobei im Endeffekt der Mensch als komplexes Lebewesen vollständig aus der Summe seiner Einzelteile und deren Wechselwirkung erklärt werden könne. Kritiker äußern ihre Bedenken auf verschiedenen Ebenen dieses logischen Konstrukts. Ein starker Einwand ist das Auftreten von Emergenz, d. h. die Entstehung von Eigenschaften eines Systems, die dessen Komponenten nicht aufweisen. Mit dieser und verwandten Fragestellungen beschäftigt sich die Philosophie des Geistes. a> des von ihm verdrängten Wassers nach oben gedrückt Mathematische Beschreibung. Trotz vorhandener mathematischer Kenntnisse wurden lange Zeit keine Gesetze in mathematischer Formulierung in der Natur erkannt, weil sich die systematische Untersuchung mit Hilfe des Experiments nicht durchsetzen konnte. Man war bis zum Ende des Mittelalters davon überzeugt, dass eine Grundbeobachtung ausreiche, um dann durch reines Nachdenken das Wesen der Natur zu verstehen. Mit dieser Denkweise konnte man aber kaum quantitative Aussagen über die Natur treffen. Man wusste beispielsweise, dass tendenziell leichte Materiale wie Holz auf dem Wasser schwimmen, wobei schwere Stoffe wie Metall sinken. Wieso aber konnte beispielsweise ein Goldbecher, der ja aus einem Schwermetall besteht, mit der Öffnung nach oben auf der Wasseroberfläche schwimmen? Schon Archimedes entdeckte das nach ihm benannte Archimedische Prinzip, das er mathematisch formulieren konnte, welches aber in Vergessenheit geriet. Es besagt, dass auf jeden Körper im Wasser eine Auftriebskraft wirkt, die genau so groß ist, wie die Gewichtskraft des vom Körper verdrängten Wassers. Solange also der Goldbecher eine Wassermenge verdrängt, die schwerer ist als der Becher selbst, schwimmt dieser an der Oberfläche. Dieses Prinzip lässt sich auf jede beliebige Flüssigkeit und jeden Stoff verallgemeinern und ermöglicht präzise Berechnungen in zahlreichen Anwendungsgebieten. So erklärt es, weshalb große Schiffe mit einer Masse von Tausenden von Tonnen nicht untergehen. Die "Queen Mary 2" beispielsweise verdrängt bei einer Tauchtiefe von nur knapp 10 Metern so viel Wasser, dass die resultierende Auftriebskraft ihre Gewichtskraft ihrer bis zu 150.000 Tonnen im beladenen Zustand kompensieren kann, was rein intuitiv unglaublich erscheint. Obwohl die Mathematik nicht hauptsächlich den Naturwissenschaften, sondern den Struktur- und manchmal den Geisteswissenschaften zugeordnet wird, ist sie in den Ingenieur- und Naturwissenschaften das mächtigste Instrument zur Beschreibung der Natur und Bestandteil der meisten Modelle. Aus diesem Grund wird sie oft als "Sprache" der Naturwissenschaft bezeichnet. Hypothesen– und Theoriebildung. Wird einer Aussage über einen Naturprozess oder einer ihrer Eigenschaften Gültigkeit unterstellt, so bezeichnet man diese als Hypothese, solange noch keine empirischen Belege für die Richtigkeit vorhanden sind. Hypothesen werden meist als Vermutungen aufgestellt und diskutiert, um ihre Plausibilität aus verschiedenen Betrachtungsweisen zu prüfen und gegebenenfalls eine empirische Untersuchung vorzuschlagen. Wird eine Hypothese schließlich experimentell überprüft und bewährt sich, so spricht man von einer bestätigten Hypothese. Ein System aus vielen bestätigten, allgemein anerkannten und unter sich widerspruchsfreien Aussagen wird als Theorie bezeichnet. Jede Theorie baut auf bestimmten Forderungen oder Grundsätzen auf, die auch Postulate (z. B. Einsteinsche Postulate) oder Axiome (z. B. Newtonsche Axiome) genannt werden. Man geht davon aus, dass diese durch kein weiteres, allgemeineres Prinzip hergeleitet werden können. Eine aussagekräftige Theorie zeichnet sich vor allem durch die Beschreibung und Erklärung von möglichst vielen Naturbeobachtungen durch eine stark reduzierte Anzahl solcher fundamentalen Forderungen aus. Sehr gut belegte und zentrale Aussagen einer bewährten Theorie werden vor allem in der Physik als Naturgesetze bezeichnet. Diese sind größtenteils mathematisch formuliert und beinhalten sogenannte Naturkonstanten – wichtige Messwerte, die sich räumlich und zeitlich nicht verändern. Da die Theorie ein komplexes Konstrukt einerseits mathematisch-logischer Strukturen sowie andererseits empirisch verifizierter Sachverhalte ist und selbst aus mehreren, in sich konsistenten Theorien bestehen kann, spricht man oft von einem "Theoriegebäude". Die Wissenschaftsgemeinde befindet sich in einem umfangreichen, dynamischen Prozess, in dem empirische Daten gesammelt, ausgewertet, diskutiert, interpretiert und aus gewonnenen Erkenntnissen Theorien entwickelt werden. Dabei werden bestehende Theorien immer wieder neu in Frage gestellt, durch neue experimentelle Befunde überprüft, angepasst oder bei großen Mängeln verworfen und schließlich durch bessere Theorien abgelöst. Interdisziplinäre Fachbereiche. Mechanismen in der Natur sind oft so komplex, dass ihre Untersuchung ein fächerübergreifendes Wissen erfordert. Mit zunehmender Spezialisierung gewinnt die Kompetenz, verschiedene Fachbereiche effektiv miteinander zu verbinden mehr an Bedeutung. So entstehen interdisziplinäre Forschungsbereiche, für die mit der Zeit auch gesonderte Studiengänge angeboten werden. Neben dem klassischen, interdisziplinären Bereich der Biochemie haben sich in den letzten Jahrzehnten weitere fächerübergreifende Richtungen ausgebildet, die sich intensiv mit biologischen Prozessen auseinandersetzen. So werden in der Biophysik die Struktur und Funktion von Nervenzellen, Biomembranen sowie der Energiehaushalt der Zelle und viele andere Vorgänge untersucht, indem physikalische Verfahren und Nachweistechniken zum Einsatz kommen. Die Bioinformatik beschäftigt sich unter anderem mit der Aufbereitung und Speicherung von Information in biologischen Datenbanken, deren Analyse sowie der 3D-Simulation von biologischen Prozessen. Ein weiteres interdisziplinäres Forschungsfeld wird in der Umweltwissenschaft erschlossen. Die Auswirkungen menschlicher Bewirtschaftung auf die Umwelt werden in einem breit gefächerten Kontext untersucht, der von der Umweltphysik und –chemie bis hin zur Umweltpsychologie und –soziologie reicht. In der Umweltmedizin werden Folgen für den physischen und geistigen Gesundheitszustand des Menschen im Zusammenhang mit der Umwelt erforscht, wobei nicht nur lokale Faktoren wie Wohn- und Arbeitsort, sonder auch globale Einflüsse wie Erderwärmung und Globalisierung berücksichtigt werden. Mit der Umweltbewegung hat das öffentliche Interesse dieser Studien zugenommen und fordert durch ihre politische Einflussnahme höhere Maßstäbe im Umweltrecht. Die Umweltingenieurwissenschaften entwickeln unter Berücksichtigung der Erkenntnisse dieser Teildisziplinen neue Konzepte zur Verbesserung der Infrastruktur bei gleichzeitiger Entlastung der Umwelt. Angewandte Naturwissenschaften. Von der reinen Erforschung der Natur bis zur wirtschaftlichen Nutzung der Erkenntnisse wird ein langer Weg beschritten, der mit viel Aufwand verbunden ist. Unternehmen haben oft nicht die finanziellen Mittel und Ressourcen, um neue Forschungsgebiete zu erkunden, insbesondere wenn sie nicht wissen können, ob sich in der Zukunft für ihren Fachbereich eine Anwendung findet. Um diese Entwicklung zu beschleunigen, widmen sich die angewandten Naturwissenschaften einer Überbrückung von Grundlagenforschung und wirtschaftlicher Umsetzung in der Praxis. Besonders die Fachhochschulen in Deutschland legen Wert auf eine anwendungsorientierte Ausbildung von Akademikern und tragen des Öfteren die Bezeichnungen "Hochschule für Angewandte Wissenschaften (HAW)" oder "University of Applied Sciences". Eine weit reichende und an der Anwendung orientierte Wissenschaft ist die Medizin. Sie ist interdisziplinär und spezialisiert sich auf Diagnose und Therapie von Krankheiten, wobei sie Grundlagen von Physik, Chemie und Biologie verwendet. In der medizinischen Physik werden beispielsweise Geräte sowie Diagnose- und Therapietechniken wie Röntgendiagnostik, verschiedene Tomographieverfahren oder Strahlentherapien entwickelt. Starke Anwendung findet die Biochemie in der Pharmakologie und Pharmazie, die sich hauptsächlich mit der Entwicklung, Herstellung und Wirkung von Arzneimitteln auseinandersetzen. Die Agrarwissenschaften übertragen vor allem Kenntnisse der Geographie, Biologie und Chemie beim Anbau von Pflanzen und der Haltung von Tieren in die Praxis. In Überschneidung mit den Ingenieurwissenschaften gibt es zahlreiche Fachgebiete wie Materialwissenschaften, Halbleiter- und Energietechnik. Ein ungewöhnlicher Ansatz wird in der Bionik, einer Kombination von Biologie und Technik, verfolgt. Bei der Untersuchung von biologischen Strukturen und Prozessen wird dabei gezielt nach Möglichkeiten technischer Anwendung gesucht. So entdeckte man bei der Untersuchung der Lotospflanze, dass Wassertropfen auf ihrer Blattoberfläche abperlen und dabei gleichzeitig auch Schmutzpartikel entfernen (Lotuseffekt). Durch Nachahmung der Oberflächenstruktur konnte man wasserabweisende und selbstreinigende Beschichtungen und Materiale herstellen. Einfluss auf Kultur und Gesellschaft. Der naturwissenschaftliche Fortschritt hat sowohl auf die Weltanschauung als auch auf praktisch jeden Bereich des alltäglichen Lebens Einfluss genommen. Unterschiedlich Denkrichtungen führten zu positiven und auch kritischen Bewertungen der gesellschaftlichen Folgen dieses Fortschritts. Einige Konstruktivisten gehen davon aus, dass naturwissenschaftliche Erkenntnisse nur Abbildungen sozialer Prozesse sind und Hierarchie- und Machtbeziehungen widerspiegeln. Naturwissenschaftliche Forschung produziert demnach keine Erkenntnis, sondern nur Abbilder gesellschaftlicher Realitäten (→ Wissenschaftssoziologie). C. P. Snow postulierte 1959 die These der Zwei Kulturen. Dabei stehen die Naturwissenschaften den Geisteswissenschaften und den Sozialwissenschaften gegenüber, die durch schwer überwindbare Hindernisse voneinander getrennt sind. Allerdings gilt diese These heute als überholt, da sich durch die Aufwertung der Interdisziplinarität und des Pluralismus viele Zwischenbereiche gebildet haben. Schule, Studium und Beruf. Die Vermittlung von naturwissenschaftlichen Kenntnissen in Schulen, Hochschulen und anderen Bildungsanstalten ist eine wichtige Voraussetzung für die Weiterentwicklung des Landes. In Deutschland wird schon in der Grundschule im Heimat- und Sachunterricht ein vereinfachtes Bild der Natur vermittelt und mit geschichtlichen und sozialen Inhalten in Verbindung gebracht. Nach dem gegliederten Schulsystem in der Sekundarstufe werden in Deutschland verschiedene Schulen besucht, deren Lehrpläne sich je nach Bundesland unterscheiden. In der Hauptschule wird neben der elementaren Mathematik meistens eine Synthese von Physik, Chemie und Biologie als ein Fach gelehrt (z. B. PCB in Bayern). Hier steht vor allem die praktische Anwendung im Ausbildungsberuf im Mittelpunkt. In weiterführenden Schulen wie den Gymnasien oder Realschulen werden Naturwissenschaften in eigenständigen Pflicht- und Wahlpflichtfächern wie Biologie, Chemie, Physik, Astronomie, Erdkunde und Informatik unterrichtet. Dazu werden im Fach Mathematik über das Grundwissen der Arithmetik und Geometrie hinaus Teilgebiete wie Trigonometrie, lineare Algebra, Stochastik sowie die Differential- und Integralrechnung behandelt, um den Schülern kreatives und problemlösendes Denken zu vermitteln und sie so auf das Studium einer Wissenschaft vorzubereiten. Nach dem Erlangen der Hochschulreife (Abitur, Fachabitur) kann das Studium an der Universität oder Fachhochschule begonnen werden, wobei es je nach Studiengang weitere Voraussetzungen wie Numerus clausus, Motivationsschreiben oder Eignungstests gibt. Im Laufe des Studiums werden wesentliche Inhalte in Vorlesungen und Seminaren vermittelt, die dann in Tutorien und im Selbststudium vertieft und in verschiedenen Prüfungen abgefragt werden. Durch fachbezogene Praktika soll eine anwendungsorientierte Erfahrung vermittelt werden. Wird der Studiengang erfolgreich durchlaufen, erfolgt die Verleihung eines akademischen Grades (z. B. Bachelor, Master, Diplom, Staatsexamen für Lehramtsstudierende, etc.) an den Absolventen. Das Studium kann nach einem guten Abschluss weiter durch eine Promotion vertieft werden. Durch die Habilitation wird dem Akademiker die Lehrbefähigung in seinem wissenschaftlichen Fach erteilt. Von den 361.697 Absolventen im Jahr 2010 an 386 Hochschulen in Deutschland legten 63.497 (17,6 %) ihre Abschlussprüfungen im mathematisch-naturwissenschaftlichen Bereich ab. Weitere 59.249 (16,4 %) beendeten ihr Studium erfolgreich im Bereich der Ingenieurwissenschaften. Der Frauenanteil unter den Absolventen im Bereich Mathematik und Naturwissenschaft lag bei 41,0 % und in den Ingenieurwissenschaften bei 22,2 %. Das Berufsfeld des Naturwissenschaftlers ist sehr vielseitig. Er arbeitet in der Lehre an Hochschulen und Schulen, an Forschungseinrichtungen, für Unternehmen bei der Entwicklung von Produkten und Verfahren und oft als Unternehmensberater. Für Naturwissenschaftler bietet Deutschland mit zahlreichen Einrichtungen, Gesellschaften und Stiftungen gute Standortfaktoren, die auch international wahrgenommen werden. Dazu zählen insbesondere die Helmholtz-Gemeinschaft, die Max-Planck-Gesellschaft, die Fraunhofer-Gesellschaft sowie die Leibniz-Gemeinschaft. Die Staatsausgaben für Forschung und Entwicklung in wissenschaftlichen Einrichtungen des öffentlichen Sektors betrugen im Jahr 2009 gerundet 12,7 Mrd. Euro. Davon wurden 4,67 Mrd. Euro (36,7 %) für den mathematisch-naturwissenschaftlichen Bereich und 3,20 Mrd. Euro (25,2 %) für das Ingenieurwesen ausgegeben. Naturwissenschaft und Religion. a> – Wissenschaft und Religion in Harmonie Mit dem Aufkommen der philosophischen Strömungen des Naturalismus, Materialismus und deren Einfluss auf die Wissenschaftstheorie entstanden immer mehr Konfliktfelder zwischen Naturwissenschaft und Religion. Beide beanspruchten für sich, "wahre" Aussagen über die Welt zu treffen, die Religion aus der Offenbarung und die Naturwissenschaften durch das Experiment. Eine wichtige Forderung des logischen Empirismus ist eine konsequente Ablehnung aller metaphysischen oder transzendenten Konzepte mit der Folgerung, dass die ganze existente Welt nur aus Materie und Energie bestehe. Dies impliziert im Zusammenhang mit dem Reduktionismus, dass auch der Mensch in seinem Individuum nur ein Produkt aus Atomen ist, dessen Bewusstsein, Gedanken, Gefühle und Handeln durch neuronale Prozesse in seinem Gehirn zustande kommen. Folglich sei sein Glaube an einen Gott nur eine Projektion seines Bewusstseins und sein freier Wille, an den die Religion appelliert, eine Illusion. Andere Wissenschaftler und Theologen vertreten die Auffassung, dass Naturwissenschaft und Religion sich nicht in einem antagonistischen (widerstreitenden), sondern einem komplementären (ergänzenden) Sinn gegenüberstehen. Dabei wird ihr Gegensatz aufgehoben, indem beide Betrachtungsweisen verschiedenen Teilen der Realität zugeordnet werden, einer subjektiven von innen und einer objektiven von außen. Dabei finden beide ihre Berechtigung und eine objektive Entscheidung, welche dieser Betrachtungsweisen nun die „wichtigere“ sei, ist grundsätzlich nicht möglich, weil jede Argumentation auf Fragen der Weltanschauung basiert. Einfluss auf die Literatur. a> beschäftigte sich intensiv mit der Rolle des Naturwissenschaftlers in der Gesellschaft. Der Naturforscher wird in der Literatur mit der Rezeption des Fauststoffes zu einem beliebten Thema. In Goethes Faust I wird der historische Johann Georg Faust als ein nach Erkenntnis strebender und sich aus religiöser Bevormundung befreiender, Intellektueller dargestellt, der jedoch an seine Grenzen stößt und so einen Teufelspakt schließt. Fortschreitende Entwicklung der Naturwissenschaft nimmt auf das philosophische Weltbild Einfluss und schlägt sich auch in der Literatur des Realismus nieder. Die Darstellung der Handlung konzentriert sich auf die äußere Welt und findet eine objektive, aber künstlerische Beschreibung. Weiterhin erfolgen auch kritische Auseinandersetzungen mit der Idee der Naturbeherrschung und deren gesellschaftlichen Folgen, die sich etwa in der industriellen Revolution manifestieren. In der Postmoderne werden Fortschritt und Vernunft stark in Frage gestellt und Denkrichtungen des Pluralismus und Relativismus beschritten. Der Zufall erlangt in vielen Werken zentrale Bedeutung. In Max Frischs Roman Homo Faber wird der Protagonist Walter Faber, ein Ingenieur mit technisch-rationaler Weltanschauung in seinem geordneten Lebensablauf vom Schicksal eingeholt. Durch eine Reihe zufälliger Ereignisse, die stark mit seiner Vergangenheit zusammenhängen, geht er eine Liebesbeziehung mit seiner eigenen Tochter ein, von deren Geburt er nichts wusste. Auf einer gemeinsamen Reise stirbt sie an den Folgen einer Kopfverletzung. Einige Zeit drauf wird bei Faber Magenkrebs diagnostiziert. Vor der Operation, deren Ausgang offen ist, reflektiert er über sein verfehltes Leben. Ein bedeutendes Werk, das vom Kalten Krieg geprägt die Verantwortung des Naturwissenschaftlers im Atomzeitalter behandelt, ist die Tragikomödie "Die Physiker" des Schweizer Schriftstellers Friedrich Dürrenmatt. Der geniale Physiker Johann Wilhelm Möbius stellt bei seiner revolutionären Entdeckung der Weltenformel fest, dass deren Anwendung der Menschheit Mittel verleihen würde, die schließlich zu ihrer endgültigen Vernichtung führen könnten. Aus diesem Grund verlässt er seine Familie und gibt sich in einem Irrenhaus als Geisteskranker aus. Das Drama nimmt seine schlimmstmögliche Wendung, als sich am Ende herausstellt, dass die verrückte Chefärztin Möbius‘ Manuskripte kopiert hat und mit Hilfe der Formel die Weltherrschaft erlangen will. Dürrenmatt räumt in seinen "21 Punkten zu den Physikern" dem Zufall wieder eine entscheidende Stellung ein: „Je planmäßiger die Menschen vorgehen, desto wirksamer vermag sie der Zufall zu treffen.“ Der internationale Erfolg des Werks führte zur verstärkten Auseinandersetzungen mit der Thematik in den Medien. Ein bekanntes Werk, das den Naturwissenschaftler historisch im Kontext der Gesellschaft darstellt, ist "Leben des Galilei" von Bertolt Brecht. Eindrücklich ist der Einfluss der Naturwissenschaft in dem Genre der Science-Fiction zu erkennen. Zukünftige Welten mit weit entwickelter Technologie und radikal anderem Setting sind Merkmale zahlreicher Werke der Hoch- und Unterhaltungsliteratur. Der Naturwissenschaftler als Literarische Figur ist auch in der Gegenwartsliteratur sehr beliebt. Die naturwissenschaftliche Forschung selbst wird von Wissenschaftsjournalisten, Buchautoren und Bloggern in einer einfachen Sprache der Öffentlichkeit zugänglich gemacht (Populärwissenschaftliche Literatur). Film und Fernsehen. Populärwissenschaftliche Sendungen wie etwa "Meilensteine der Naturwissenschaft und Technik" oder "alpha-Centauri" erfreuen sich bei Interessierten einer zunehmenden Beliebtheit. Dort werden wissenschaftliche Themenbereiche in einer für Laien nachvollziehbaren Darstellung vermittelt, die das Interesse wecken und zur weiteren Auseinandersetzung anregen soll. In Filmen und Serien ist die Naturwissenschaft noch weit über das Science-Fiction Genre ein beliebtes Motiv. In der US-amerikanischen Krimiserie "Numbers – Die Logik des Verbrechens" löst Charlie Eppes, ein Mathe-Genie in beratender Funktion für das FBI Verbrechen auf, indem er mathematisch-naturwissenschaftliche Methoden anwendet. In vielen Darstellungen nimmt so der geniale Wissenschaftler mit seinen besonderen Fähigkeiten die Rolle eines alternativen Helden ein. Der Konflikt zwischen persönlicher Identität und sozialer Rolle wird in dem Film "Good Will Hunting" thematisiert. Will Hunting ist ein Genie, der in sozial schwachem Milieu in einer Pflegefamilie aufgewachsen ist, einige Vorstrafen hat und sich mit Gelegenheitsjobs durchschlägt. Nachdem ein Professor seine Begabung entdeckt, stehen ihm alle Wege offen. Er kann jedoch seinen Identitätskonflikt nicht bewältigen, bis ein Psychologe sich seiner annimmt. Eine weitere Darstellung ist die im Film "A Beautiful Mind – Genie und Wahnsinn" verarbeitete, auf Fakten basierte Lebensgeschichte des bekannten Mathematikers John Nash. Als Außenseiter verfällt er in Schizophrenie und glaubt aufgrund seiner Tätigkeit als Codeknacker von Agenten verfolgt zu werden. Stereotypisch für den Naturwissenschaftler ist oft die fehlende Sozialkompetenz, die entweder zu tragischen Folgen führt oder etwa in Komödien zur Unterhaltung eingesetzt wird. So wird in der Sitcom "The Big Bang Theory" das Leben zweier junger Physiker und ihrer Nachbarin, die als Kellnerin arbeitet, in Kontrast gesetzt. Die Physiker zeichnen sich ganz klischeehaft durch ihre seltsamen Witze, Diskussionen, Kleidungsstil und andere Eigenarten aus und werden oft als Nerds oder Geeks bezeichnet. Manchmal erkennen sie die offensichtlichsten Zusammenhänge nicht oder missverstehen Redewendungen und Sarkasmus, was ins Lächerliche gezogen wird. Wenn sie mit ihren Freunden und der Nachbarin Penny etwas unternehmen, scheinen zwei verschiedene Welten amüsant aufeinanderzutreffen. Die Charaktere werden stark karikiert, wobei sich jedes Vorurteil zu bestätigen scheint. NATO. Die NATO („Organisation des Nordatlantikvertrags“ bzw. "Nordatlantikpakt-Organisation"; im Deutschen häufig als "Atlantisches Bündnis", oder auch als "Nordatlantikpakt" bezeichnet) oder OTAN () ist eine Internationale Organisation, die den Nordatlantikvertrag, ein militärisches Bündnis von 28 europäischen und nordamerikanischen Staaten, umsetzt. Das NATO-Hauptquartier beherbergt mit dem Nordatlantikrat das Hauptorgan der NATO; diese Institution hat seit 1967 ihren Sitz in Brüssel. Nach der Unterzeichnung des Nordatlantikpakts am 4. April 1949 – zunächst auf 20 Jahre – war das Hauptquartier zunächst von 1949 bis April 1952 in Washington, D.C., anschließend war der Sitz vom 16. April 1952 bis 1967 in Paris eingerichtet worden. Vorgeschichte. Bald nach dem Ende des Zweiten Weltkriegs traten die Gegensätze zwischen den ehemaligen Teilnehmermächten der Anti-Hitler-Koalition – der UdSSR auf der einen und den westlichen Siegermächten Vereinigtes Königreich, Frankreich und USA auf der anderen Seite – klar zu Tage. Bereits mit dem Brüsseler Vertrag vom 17. März 1948 schlossen sich die westeuropäischen Länder Frankreich, das Vereinigte Königreich, die Niederlande, Belgien und Luxemburg zu einem Bündnis für wirtschaftliche, soziale und kulturelle Zusammenarbeit sowie zur kollektiven Selbstverteidigung zusammen. Dieses Bündnis war nominell noch als Beistandspakt gegen eine erneute deutsche Aggression vorgesehen. Im März 1947 hatten die USA die britische Schutzmachtrolle über Griechenland und die Türkei übernommen, um einer sowjetischen Machtausweitung entgegenzuwirken. Mit dem Februarumsturz in der Tschechoslowakei und der Berlin-Blockade 1948 rückte in Westeuropa eine mögliche militärische Bedrohung durch den von der Sowjetunion angeführten kommunistischen Ostblock ins Blickfeld. Die westeuropäischen Staaten wandten sich nun an die USA mit der Bitte um militärischen Beistand gegen eine sowjetische Aggression. Daraufhin kam es zu einem wechselseitigen Abkommen, dem Nordatlantikvertrag. Die Beratungen über den Vertragstext und Inhalt wurden seit dem 6. Juli 1948 geführt. Am 4. April 1949 unterzeichneten die Brüsseler Paktstaaten ihn zusammen mit den USA und Kanada. Als weitere Gründungsmitglieder kamen Italien, Norwegen, Dänemark (mit Grönland), Island und Portugal hinzu. Er trat am 24. August desselben Jahres in Kraft. Entwicklung von 1949 bis 1984. Korps-Sektoren militärischer Verantwortung im Zentralgebiet der NATO 1984 In den ersten Jahren stand die Gemeinschaft unter dem Eindruck der Berlin-Blockade 1948/49 und der Zündung der ersten sowjetischen Atombombe am 29. August 1949. Zudem brach Mitte 1950 der Koreakrieg aus, in den im November auch die Volksrepublik China eingriff. Als Grundsatz galt in dieser Zeit die Abwehr eines sowjetischen Angriffs möglichst weit im Osten. Hierzu verabschiedete der Nordatlantikrat am 6. Januar 1950 das erste 1). Am 28. März 1950 wurde die erste Verteidigungsplanung zur NATO-Strategie vom NATO-Militärausschuss (Strategic Guidance for North Atlantic Regional Planning; MC 14) genehmigt. Mit dem Ausbruch des Koreakriegs im Juni 1950 änderte sich auch die Militärpolitik in Europa. Die europäischen NATO-Staaten sahen Befürchtungen, dass die USA die Präsenz- und Handlungsfähigkeit in Europa einbüßen könnten, und planten eine umfassende Erhöhung der Verteidigungsausgaben sowie eine Aufstockung des Personals bei den Streitkräften bis 1954. Beides konnte allerdings aus Kostengründen nicht vollständig umgesetzt werden, obwohl umfangreiche Militärhilfe aus den USA geleistet wurde. Die USA verdreifachten ab August 1950 auch ihre in Großbritannien stationierten Bomberverbände. Am 7. Februar 1951 billigte die US-Regierung den Pleven-Plan zur Aufstellung einer europäischen Armee. Auf der vom 10. bis 14. September 1951 tagenden Außenministerkonferenz der USA, Frankreichs und des Vereinigten Königreichs in Washington wurde die Aufstellung westdeutscher Streitkräfte geplant, die in eine europäische Armee eingegliedert werden sollten. Ein am 26. Mai 1952 unterzeichneter Vertrag über die Europäische Verteidigungsgemeinschaft (EVG) scheiterte aber am 30. August 1954 in der französischen Nationalversammlung. Am 18. Februar 1952 wurden Griechenland und die Türkei in die NATO aufgenommen. Am 9. Dezember 1952 wurde die neue NATO-Strategie der 1) beschlossen. Am 16. März 1955 kündigte US-Präsident Dwight D. Eisenhower für den Kriegsfall den Einsatz taktischer Nuklearwaffen gegen militärische Ziele an. Durch die Unterzeichnung der Pariser Verträge am 23. Oktober 1954 im Zuge der Westintegration der Bundesrepublik Deutschland wurde diese zum Beitritt eingeladen, der kurz nach Inkrafttreten der Verträge in einer Beitrittszeremonie im Pariser Palais de Chaillot am 9. Mai 1955 feierlich vollzogen wurde. Am 14. Mai 1955 wurde wegen dieses NATO-Beitritts der Warschauer Pakt gegründet. Am 15. Mai 1955 wurde der Österreichische Staatsvertrag in Wien unterzeichnet, der die Souveränität des Staates wiederherstellte und bis Oktober 1955 zum Abzug der Besatzungstruppen führte. Am 13. März 1957 gab das US-Hauptquartier in der Bundesrepublik bekannt, die US-Streitkräfte mit Nuklearbewaffnung auszurüsten. Der polnische Außenminister Adam Rapacki unterbreitete den Rapacki-Plan, der die Errichtung einer atomwaffenfreien Zone in Mitteleuropa vorsah. Am 23. Mai 1957 beschloss der Nordatlantikrat die Strategie der 2). Am 19. September 1958 wurden die ersten US-Mittelstreckenraketen vom Typ Thor in Großbritannien aufgestellt und unterlagen nach ihrer Einsatzbereitschaft der Befehlsgewalt der Royal Air Force (RAF). Am 10. November 1958 verkündete Nikita Chruschtschow das Berlin-Ultimatum mit der Forderung der Umwandlung West-Berlins in eine entmilitarisierte „selbstständige politische Einheit“. Am 31. Oktober 1959 stimmte die Türkei der Aufstellung von US-Mittelstreckenraketen vom Typ Jupiter zu. Insgesamt wurde bis 1960 eine US-amerikanische Staffel mit 26 Raketen aufgestellt. Die USA stationierten außerdem bis 1960 zwei Jupiter-Staffeln mit 25 Raketen in Italien. Am 21. April 1960 boten die USA den NATO-Mitgliedstaaten die Lieferung von seegestützten Polaris-Raketen (SLBM) an. Der NATO-Oberbefehlshaber General Lauris Norstad schlug am 12. Oktober 1960 die NATO offiziell als vierte Atommacht vor. Die USA starteten am 30. Januar 1961 erstmals eine Interkontinentalrakete (ICBM) vom Typ Minuteman aus einem verbunkerten Silo. Am 10. Mai 1961 betonte US-Präsident John F. Kennedy vor dem NATO-Militärausschuss die Verstärkung der konventionellen Kampfkraft und die Notwendigkeit der Kontrolle nuklearer Waffen. Am 20. Juli 1962 trat der NATO-Oberbefehlshaber General Norstad wegen Differenzen über die künftige NATO-Strategie zurück. Sein Nachfolger wurde General Lyman L. Lemnitzer. Mit der Stationierung von sowjetischen Mittelstreckenraketen vom Typ R-12 (SS-4 Sandal) auf Kuba kam es im Oktober 1962 zur Kubakrise. Niemals zuvor war ein Atomkrieg so wahrscheinlich wie zu diesem Zeitpunkt. Bei den Wahlen im Dezember 1965 wurde in Frankreich Präsident Charles de Gaulle in seinem Amt bestätigt und begann mit einer Änderung seiner Verteidigungspolitik. Mit der ersten französischen Atomexplosion am 13. Februar 1960 in Reggane in Algerien war das Land in den Kreis der Nuklearmächte getreten und baute mit der Force de frappe seine eigene Atomstreitkraft auf. Mit gestärktem Selbstbewusstsein erinnerte sich Frankreich auch der zum Teil demütigenden Behandlung durch die Alliierten während des Zweiten Weltkriegs. De Gaulle lehnte eine dauernde Dominanz der USA in der NATO ab und verlangte die Unterstellung der in Frankreich stationierten US-amerikanischen und kanadischen Einheiten unter französisches Kommando. Nachdem die USA ihre Zustimmung verweigert hatten, forderte der französische Präsident im Februar 1966 den Abzug der alliierten Truppen und der NATO-Hauptquartiere mit der Begründung, „Frankreich strebe jetzt die volle Ausübung seiner Souveränität an, die durch die Stationierung fremder Streitkräfte auf seinem Boden nicht gewährleistet sei“, und erklärte gleichzeitig den Rückzug seiner Truppen aus der militärischen Integration der NATO. Am 1. Juli 1966 zogen sich die Vertreter Frankreichs aus den militärischen Organen der NATO zurück. 30.000 NATO-Soldaten mussten Frankreich verlassen, das Militärhauptquartier SHAPE wurde nach Mons in Belgien, das EUCOM nach Stuttgart und AFCENT nach Brunssum in die Niederlande verlegt. Am 16. Oktober 1966 verabschiedeten die Mitglieder des NATO-Rats auf Druck der USA einstimmig auch die Verlegung ihres obersten politischen Organs nach Brüssel. Diese hatte de Gaulle nicht gefordert. 1966 scheiterte die Bildung einer Multilateral Force. Bis in die 1960er Jahre hinein war das westliche Bündnis seinem Kontrahenten klar überlegen, was atomare Sprengköpfe und Trägermittel anbelangt. Offiziell galt die Strategie der massiven Vergeltung: Als Antwort auch auf einen konventionellen Angriff sah die NATO den sofortigen und umfassenden Einsatz von Kernwaffen gegen die UdSSR und den Warschauer Pakt vor. Allerdings änderte der starke Ausbau des sowjetischen nuklearstrategischen Potentials seit Anfang der 1960er die Lage. Die allmählich entstandene Pattsituation zwischen den Supermächten zwang die NATO, ihre Strategie zu überdenken. Im Dezember 1966 wurde die Nukleare Planungsgruppe (NPG) für die Rolle der Atomwaffen im Bündnis gegründet. Zwei-Pfeiler-Doktrin. Aufgrund des 1967 veröffentlichten Harmel-Berichts im Nordatlantikrat wurde auf der NATO-Ministerratstagung in Brüssel am 14. Dezember 1967 die Strategie der abgestuften Reaktion ("Flexible Response") bestätigt und für die NATO übernommen. Auch zur Verringerung nuklearer Risiken galt nicht mehr die Strategie der massiven Vergeltung, sondern die NATO setzte mit der „Zwei-Pfeiler-Doktrin“ den Fokus einerseits auf militärische Sicherheit durch konventionelle Streitkräfte und die neu entwickelten taktischen Nuklearwaffen und andererseits auf die Entspannungspolitik. In den Folgejahren baute die NATO ein neues Selbstverständnis auf: Die Triade von konventionellen, taktisch-nuklearen und strategisch-nuklearen Potentialen und das Motto "Sicherheit = Verteidigung und Entspannung" führte zu neuen Ansätzen zwischen NATO und Warschauer Pakt. Auf der NATO-Ministerratstagung am 24. und 25. Juni 1968 in Reykjavík in Island erfolgte die Erklärung über beiderseitige und ausgewogene Truppenverminderung, das sogenannte „Signal von Reykjavík“. Am 21. August 1968 erfolgte der Einmarsch von Truppen des Warschauer Pakts in die Tschechoslowakei und beendete den Prager Frühling. Am 12. November 1968 verkündete der sowjetische Staats- und Parteichef Leonid Breschnew die Breschnew-Doktrin über die begrenzte Souveränität sozialistischer Staaten. 1969 wurde auf Initiative Richard Nixons versucht, vermehrt ein drittes, zivileres Standbein der NATO aufzubauen. Generalsekretär Manlio Giovanni Brosio plante, die NATO zum Marktplatz der Ideen und Vorschläge zu erweitern. Sie sollte zu der Verteidigung gegen Umweltgefahren und zur Verbesserung der Umweltbedingungen, vom Städtebau bis zur Umweltverschmutzung beitragen. Nixons Beauftragter, der spätere UN-Botschafter Daniel Patrick Moynihan nannte insbesondere den sauren Regen wie den „Gewächshauseffekt“ (damalige Übersetzung des Treibhauseffekts) als Themen für das Gremium. Die NATO galt wegen der vorhandenen Expertise im meteorologischen Bereich (zu Themen der Luftreinhaltung gab es bereits Anfang der 1960er Jahre Initiativen in der Organisation) wie der Erfahrung mit grenzüberschreitender Forschung und dem direkten Regierungszugang als geeignet. Der Vorschlag wurde in Deutschland von der Regierung Kiesinger anfangs begeistert aufgenommen und intensiv interministeriell bearbeitet, die Ergebnisse aber vor allem zivilgesellschaftlich verwendet. Die Bundesregierung verhielt sich abwartend, u. a. weil Umweltthemen eher als Bestandteil der (zivilen) Innenpolitik gesehen wurden und die Initiative als Versuch der USA gesehen wurde, nach dem verlorenen Vietnamkrieg ihre internationale Führungsrolle wieder auszubauen. Die Behandlung innerhalb eines Militärbündnisses würde der internationalen zivilen Zusammenarbeit eher schaden. 1970 betrugen die Verteidigungsausgaben der NATO-Mitgliedstaaten ohne die USA und Kanada 24,53 Milliarden US-Dollar. Am 20. März 1970 startete von der Cape Canaveral Air Force Station in den USA der erste NATO-Nachrichtensatellit "NATO 1". Von April 1976 bis November 1984 wurden vier weitere Kommunikationssatelliten der NATO ("NATO III A bis D") gestartet. Am 1. Oktober 1970 tagte erstmals die "Euro-Group", die europäische Gruppe von NATO-Mitgliedsstaaten in Brüssel und berieten über den Lastenausgleich für die US-Stationierungen in Europa. Am 2. Dezember 1970 verabschiedete die "Euro-Group" ein „Programm zur Verbesserung der Verteidigung“ bis 1975 und Kosten im Umfang von 420 Millionen US-Dollar, wobei die BR Deutschland rund 40 % übernahm. Im Sommer 1971 wurde mit "NADGE (NATO Air Defence Ground Environment)" erstmals das bodengestützte Luftverteidigungsnetzwerk der NATO mit einer rund 5.000 km langen Radarkette vom Nordkap und Island bis Malta und in die Osttürkei und rund 40 Radarstationen mit Erfolg erprobt. Vom 14. bis 28. September 1972 führte die NATO mit Beteiligung der "Allied Command Europe Mobile Force" ihr bisher größtes Manöver im Nordatlantik durch. Mit der Übung "Strong Express" reagierte das Bündnis auf die "Ozean"-Manöver des Warschauer Paktes und das "Schild"-Manöver in der Tschechoslowakei. Vom 22. Januar bis 8. Februar 1973 fand das Seemanöver "Sunny Seas 73" im Südostabschnitt des Nordatlantiks statt. Am 2. Mai 1973 wurde die Gründung einer multinationalen Ärmelkanal-Flotte bekannt gegeben. Am 23. April 1973 verkündete der Nationale Sicherheitsberater des US-Präsidenten, Henry Kissinger, den Vorschlag, eine neue Atlantik-Charta auszuarbeiten, die auch Japan mit einbeziehen sollte. Dieser Vorschlag wurde aber von den anderen NATO-Mitgliedstaaten abgelehnt. Am 3. Juli 1973 fand in Helsinki die erste Konferenz über Sicherheit und Zusammenarbeit in Europa (KSZE) statt. Am 14. August 1974 erfolgte der Austritt Griechenlands aus der militärischen Integration der NATO, nachdem türkische Truppen ab 20. Juli auf Zypern gelandet waren (Zypern-Konflikt). Am 1. August 1975 wurde die KSZE-Schlussakte unterzeichnet, die einen ersten echten Schritt zu partnerschaftlicher und friedlicher Zusammenarbeit in Europa darstellte. Am 1. Juni 1976 kündigte der französische Staatspräsident Valéry Giscard d’Estaing die frühzeitige Beteiligung Frankreichs an der Vorneverteidigung der NATO im Verteidigungsfall an. Ende 1976 erhielt die NATO Kenntnis von der Aufstellung von sowjetischen SS-20-Mittelstreckenraketen westlich des Ural-Gebirges. Im Oktober 1977 vereinbarten die NATO-Außenminister in Bari (Italien) die Bildung der High-Level Group (HLG), die der Nuklearen Planungsgruppe (NPG) unterstellt war. Ihr gehörten Vertreter aus zwölf NATO-Staaten an. Die HLG erarbeitete die Grundlagen für den NATO-Doppelbeschluss. Am 4. Oktober 1977 begann das KSZE-Folgetreffen in Belgrad (Jugoslawien). Am 28. Oktober 1977 hielt Bundeskanzler Helmut Schmidt vor dem Internationalen Institut für Strategische Studien in London eine Rede und betonte die wachsende Disparität im Bereich der Mittelstreckenraketen bei gleichzeitiger nuklear-strategischer Parität zwischen den Supermächten. Die Nukleare Planungsgruppe (NPG) der NATO diskutierte am 18. und 19. Oktober 1978 über Fragen der Abschreckungskapazität gegenüber den Nuklearkräften des Warschauer Pakts in Europa und empfahl die Modernisierung der NATO-Mittelstreckenraketen. Der NATO-Doppelbeschluss aus dem Jahre 1979 ist bis heute umstritten, denn die Nachrüstung von Mittelstreckenraketen in Europa und das gleichzeitige Verhandlungsangebot an die UdSSR führten nicht sofort zur erhofften Entspannung. Der Doppelbeschluss wurde von Friedensaktivisten in ganz Europa während ihrer Ostermärsche scharf kritisiert. Ob diese erneute Verschärfung des Wettrüstens den Zusammenbruch des Ostblocks mit verursacht hat oder ob diese Länder ohnehin vor dem wirtschaftlichen Kollaps standen, ist bis heute sehr umstritten. Am 10. August 1981 wurden die Botschafter der NATO-Mitgliedstaaten in Brüssel vom Entschluss des US-Präsidenten Ronald Reagan informiert, dass die „Neutronenkernwaffe“ gebaut und in den USA stationiert werde. In den USA wurden seit 1974 etwa 800 Neutronensprengsätze gefertigt und bis 1992 wieder verschrottet. Im Mai 1981 erteilte der Nordatlantikrat (NAC) der "High-Level Group" (HLG) der Nuklearen Planungsgruppe (NPG) den Auftrag, die Bedrohung der NATO zu analysieren und die Verhandlungen über die Mittelstreckensysteme (Intermediate Range Nuclear Forces) in Genf vorzubereiten. Am 30. November 1981 begannen die INF-Verhandlungen zwischen den USA und der Sowjetunion über nukleare Mittelstreckensysteme. 1982 wurde Spanien das 16. Mitglied der NATO. Nach Angaben des deutschen Bundesministeriums für Verteidigung verfügte die Sowjetunion im September 1983 über 39 Stellungen mit 351 einsatzbereiten SS-20-Raketen mit maximal 1.053 nuklearen Gefechtsköpfen, von denen 243 Raketen in den westlichen sowjetischen Militärbezirken Weißrussland, Karpaten und Ural aufgestellt waren. Zudem waren 1983 noch 248 SS-4-Sandel- und SS-5-Skean-Raketen stationiert. Diverse Raketenabwehrsysteme auf Seiten der USA und der Sowjetunion wurden nicht berücksichtigt. Ab dem 2. November 1983 führte die NATO mit Able Archer 83 ein europaweites, zehntägiges Manöver durch, das einen Atomkrieg simulierte. Ab 14. November 1983 begann die Stationierung von US-amerikanischen Mittelstreckenraketen in Europa. Am 8. Dezember 1983 folgte der Abbruch der INF-Verhandlungen in Genf durch die Sowjetunion. Entwicklung von 1985 bis 1990. Durch den Wandel der sowjetischen Außenpolitik unter KPdSU-Generalsekretär Michail Sergejewitsch Gorbatschow und die eingeleiteten Reformen (Glasnost und Perestroika) gab es kontroverse Diskussionen innerhalb der NATO-Staaten, wie auf diese Politik reagiert werden soll. Am 2. Februar 1989 wurden die MBFR-Verhandlungen nach fast 16 Jahren erfolglos abgebrochen und durch die am 9. März 1989 begonnenen Verhandlungen zu einem Vertrag über Konventionelle Streitkräfte in Europa (KSE) ersetzt. Im Mai 1989 wurde ein NATO-Kommunique zur Modernisierung der nuklearen Kurzstreckenraketen (SRBM) von der weiteren Entwicklung innerhalb des Warschauer Paktes abhängig gemacht. Am 12. September 1990 wurde der Zwei-plus-Vier-Vertrag, ein Staatsvertrag in Bezug auf Deutschland von Vertretern beider deutscher Staaten und der Alliierten unterzeichnet und ebnete den Weg zur Wiedervereinigung Deutschlands und der Auflösung der Deutschen Demokratischen Republik. Die in der ehemaligen DDR stationierten sowjetischen, später russischen Soldaten der Westgruppe der Truppen (WGT) von 340.000 Mann wurden bis 1994 abgezogen. Entwicklung von 1991 bis 1999. In der darauf folgenden Übergangszeit entstanden neue Ideen und Strukturen. Die NATO sollte künftig weiterhin eine wichtige Funktion im Rahmen der euro-atlantischen Sicherheitsordnung und als transatlantisches Bindeglied fungieren. Darüber hinaus kamen neue Aufgaben nach der Auflösung des Warschauer Paktes dazu. So sollte die NATO ein Instrument des Krisenmanagements sein, weiterhin ein Verifikations- und Durchsetzungsinstrument der Rüstungskontrolle und ein intaktes Militärbündnis für friedenserhaltende Maßnahmen der Vereinten Nationen sowie der OSZE. Auf dem NATO-Gipfeltreffen in Rom am 8. November 1991 wurde eine neue Strategie des Bündnisses beschlossen. Sie setzte auf die Triade von Dialog, Kooperation und Erhaltung der Verteidigungsfähigkeit und löste die Konzeption der „Flexible Response“ ab. Im Dezember 1991 konstituierte sich der NATO-Kooperationsrat (NAKR) zur Aufrechterhaltung der Stabilität des Bündnisses. Zu den „neuen Ideen“ zählt auch die 1992 vereinbarte Bereitschaft der NATO zu den „Out-of-Area“-Einsätzen. Nach Ermächtigung durch den UN-Sicherheitsrat oder der OSZE sind nun auch Einsätze außerhalb des NATO-Territoriums möglich. Die Folge dieses Beschlusses waren die aktiven Kriegseinsätze der NATO mit den Luftangriffen gegen Jugoslawien während des Kosovokrieges. Dieser Vorgang wird kritisiert, denn weder wurde ein Mitgliedstaat der NATO angegriffen noch gab es eine Ermächtigung des UN-Sicherheitsrates. Am 10. Januar 1994 wurde in Brüssel mit interessierten mittel- und osteuropäischen Staaten des NAKR eine Zusammenarbeit in militärischen und sicherheitspolitischen Fragen vereinbart und damit auch eine Beitrittsperspektive eröffnet. Mit dem Programm Partnerschaft für den Frieden (PfP) gab es eine enge Verbindung, so wurden neben gemeinsamen Manövern auch im Rahmen des Einsatzes der Peace Implementation Forces (IFOR) und der Stabilisation Force (SFOR) erstmals ein gemeinsamer Militäreinsatz mit den ehemaligen Mitgliedstaaten des Warschauer Paktes in Jugoslawien durchgeführt. Am 1. Januar 1995 wurden die in Ostdeutschland stationierten Einheiten der Bundeswehr (zu dem Zeitpunkt rund 50.000 Soldaten) in die Bündnisstruktur der NATO integriert. Zwischen 1990 und 1997 reduzierte die NATO ihre Landstreitkräfte um 35 %, ihre Marine um 30 % und ihre Luftwaffe um 40 %. Die landgestützten taktischen Atomwaffen wurden aus Europa abgezogen, die US-Truppen in Europa von 300.000 Soldaten (1989) auf zunächst 100.000 Soldaten (1997) reduziert. Ende der 1990er Jahre führte die NATO einen weiteren Umbau durch, mit dem Ziel einer schnellen Eingriffsfähigkeit in Krisengebieten, größerer Flexibilität und der Abkehr vom bipolaren Bedrohungsdenken in Verbindung mit einer Korrektur in den Führungsebenen und den institutionellen Aufbauten. Auf der NATO-Ratskonferenz in Berlin im Juni 1996 wurde das Combined Joint Task Force (CJTF)-Konzept verabschiedet. Dies sieht multinationale ("combined"), je nach Aufgabe speziell zusammengefügte Einheiten ("Task Forces") verschiedener, für den gemeinsamen Einsatz koordinierter Waffengattungen ("joint") vor und soll den NATO-Mitgliedstaaten in Europa auch ohne die USA befähigen Material und Logistik des Bündnisses zu nutzen und auch außerhalb des NATO-Gebietes militärische Operationen durchführen zu können. Der bisherige NATO-Kooperationsrat wurde auf Initiative der USA auf dem NATO-Treffen am 30. Mai 1997 in Sintra (Portugal) zudem in den Euro-Atlantischen Partnerschaftsrat (EAPR) umgewandelt. Der EAPR sieht jährliche Treffen auf Ministerebene und monatliche regelmäßige Treffen auf Botschafterebene mit nachgeordneten Ausschüssen vor. Im Mai 1997 wurde in Paris die Grundakte über gegenseitige Beziehungen, Zusammenarbeit und Sicherheit zwischen NATO und der Russischen Föderation vereinbart, die eine Voraussetzung für die NATO-Osterweiterung war. NATO und Russland bezeichneten sich darin nicht länger als Gegner. Intern wurde beschlossen, die NATO von einer militärischen zu einer meist politischen Organisation umzuwandeln. Hierzu kam auch der NATO-Russland-Rat (NRR) als Koordinationsforum dazu. Auf dem NATO-Gipfel in Madrid 1997 am 8. und 9. Juli 1997 wurde Polen, Ungarn und Tschechien ein NATO-Beitritt angeboten und mit der Ukraine eine NATO-Ukraine-Charta über eine „besondere Partnerschaft“ vereinbart. Ende 1997 wurden die Beitrittsprotokolle mit Polen, Tschechien und Ungarn, drei ehemaligen Warschauer Pakt-Staaten, unterzeichnet. Nach der Ratifizierung der Beitrittsurkunden wurde ihr Beitritt am 12. März 1999 wirksam. Am 10. Juli 1998 einigten sich die beiden NATO-Staaten Vereinigtes Königreich und Spanien darauf, die Nutzung von Gibraltar in NATO-Manövern mit einzubeziehen. Bisher hatte Spanien dies verweigert. Mit der Einigung wurde der Weg frei für die Einrichtung eines von der spanischen Regierung geforderten NATO-Kommandos in Spanien, nachdem das Vereinigte Königreich sein angedrohtes Veto zurückgezogen hat. Am 24. März 1999 begann die NATO im Zuge des Kosovokrieges mit Luftangriffen gegen Belgrad. Die im Wesentlichen von den Vereinigten Staaten geführte Operation Allied Force war der erste Krieg, den die NATO sowohl außerhalb eines Bündnisfalls, dessen Ausrufung bis dahin als Grundlage eines NATO-weiten Vorgehens galt, als auch ohne ausdrückliches UN-Mandat führte. Auf dem Jubiläumsgipfeltreffen der NATO in Washington am 24. April 1999 hat die NATO ein neues Strategisches Konzept ("The Alliance’s Strategic Concept") verabschiedet. Es ist im Ergebnis eine Revision des Strategischen Konzepts von 1991. Terroranschläge in den USA am 11. September 2001. Unmittelbar nach den Terroranschlägen am 11. September 2001 in den USA setzte die NATO erstmals in ihrer Geschichte den Bündnisfall (Kollektiver Verteidigungsfall) nach Artikel 5 des NATO-Vertrages, auch Washingtoner Verträge genannt, vorläufig in Kraft, am 1. Oktober 2001 vollständig. Artikel 5 sieht in Absprache mit den Regierungen der NATO-Mitgliedstaaten die Wiederherstellung und Wahrung der Sicherheit des nordatlantischen Gebietes vor und ein bewaffneter Angriff auf einen Bündnispartner, in diesem Fall die USA, wird als Angriff gegen jeden der Bündnispartner gesehen. Am 4. Oktober 2001 vereinbarten die NATO-Staaten eine Reihe von Maßnahmen, um die USA in ihrem Kampf gegen den internationalen Terrorismus zu unterstützen. Dazu gehörte der Austausch nachrichtendienstlicher Informationen, uneingeschränkte Überflugrechte und Zugang zu Häfen und Flugplätzen im Beitrittsgebiet durch die US-Streitkräfte und die Entsendung eines ständigen Flottenverbandes der NATO in das östliche Mittelmeer (Operation Active Endeavour). Obwohl die Mitglieder in dem Angriff auf das World Trade Center noch einen bewaffneten Angriff sehen, der den Bündnisfall nach Artikel 5 auslöste, kam es hinsichtlich der zu ziehenden Konsequenzen bei den Regierungen der NATO-Mitgliedstaaten zu teilweise völlig unterschiedlichen Einschätzungen. Der gestiegenen Gefahr durch den internationalen Terrorismus seit dem 11. September 2001 hat die NATO bisher noch wenig entgegenzusetzen. Traditionell versteht sich die Organisation als ein Bündnis von Staaten gegen die Angriffe von anderen Staaten. Damit wird es schwierig, diesen Terrorangriff – der von wenigen extremistischen Personen, die ohne offizielle Kriegserklärung eines angreifenden Landes tätig werden – einzuordnen. ISAF-Einsatz in Afghanistan. Führungsnationen der Wiederaufbauteams (PRT) und Regional Commands (2006) Die Internationale Sicherheitsunterstützungstruppe, kurz ISAF (von engl. "International Security Assistance Force"), ist seit 2001 eine Sicherheits- und Aufbaumission in Afghanistan, die zunächst von einer Gruppe von Staaten, darunter neben Deutschland auch das Vereinigte Königreich, Kanada, Türkei u.a.m. unterstützt und geführt wurde. Seit 2003 steht ISAF unter Führung der NATO. Die Aufstellung erfolgte auf Ersuchen der neuen afghanischen Regierung an die internationale Gemeinschaft und mit Genehmigung durch den Sicherheitsrat der Vereinten Nationen (Resolution 1386 vom 20. Dezember 2001). Der Einsatz ist keine Blauhelm-Mission, sondern ein sogenannter friedenserzwingender Einsatz unter Verantwortung der beteiligten Staaten. Operativ wird ISAF seitens der NATO durch den Commander Allied Joint Force Command Brunssum (JFC Brunssum) in den Niederlanden geführt. NATO-Russland-Rat. Der NATO-Russland-Rat (NRR) wurde am 28. Mai 2002 in Rom gegründet und dient der Verbesserung der Zusammenarbeit zwischen den NATO-Staaten und Russland in Fragen der Verteidigungs- und Sicherheitspolitik. Die Einbindung Russlands in die NATO bewirkte zunächst eine intensive Zusammenarbeit auf vielen Ebenen. Russland beteiligte sich bereits zuvor mit bis zu 1.500 Soldaten an der NATO-geführten SFOR in Bosnien-Herzegowina und an der KFOR in Kosovo. Krisen-Reaktionstruppe der NATO. Auf dem NATO-Gipfeltreffen in Prag am 22. November 2002 wurde eine Reaktionstruppe, die sogenannte NATO Response Force (NRF), mit Land-, Luft- und Seestreitkräften für schnelle Einsätze ins Leben gerufen und im November 2006 mit einer Sollstärke von 25.000 Soldaten für voll einsatzbereit erklärt. Irak-Krise. Konferenz der Verteidigungsminister in Nizza, 2005 Die USA beschuldigten den Irak schwerwiegender Verstöße gegen UN-Auflagen. Der US-amerikanische Außenminister Colin Powell versuchte im Februar 2003 vor dem UN-Sicherheitsrat mit Satellitenaufnahmen, Tonbandaufnahmen und anderen Dokumenten eine Wiederaufnahme von verbotenen Waffenprogrammen zu beweisen. Die Ausführungen Powells reichten aber nicht, um den Sicherheitsrat von der Notwendigkeit eines Kriegseinsatzes zu überzeugen. Die USA und das Vereinigte Königreich versuchten nun, bei den Vereinten Nationen die Ermächtigung für einen Angriff auf den Irak einzufordern. Dies wurde von Deutschland, im UN-Sicherheitsrat vertretener NATO-Mitgliedstaat, Russland und Frankreich abgelehnt. Daraufhin wurde eine Koalition der Willigen geschmiedet, um trotzdem eine Unterstützung auf breiter Basis als Kriegslegitimierung darstellen zu können. Im Rahmen der Vorbereitung der Pläne der USA zur Invasion des Iraks kam es daraufhin innerhalb der NATO zu einer schweren Krise: Bei der Frage, ob der Türkei präventiv Abwehrsysteme (deutsche Patriot-Luftabwehrraketen) bereitgestellt werden sollten, damit sie sich, im Fall eines Angriffes auf den Irak, gegen eventuelle Gegenangriffe verteidigen kann, legten Frankreich und Belgien ein Veto ein. Deutschland schloss sich dem Veto später an (dies allerdings erst nach Fristablauf; rein formal betrachtet ist das deutsche Veto daher ungültig, politisch war es deshalb aber nicht weniger brisant). Dies führte zu einer Verstärkung der vorher schon vorhandenen transatlantischen Verstimmungen zwischen diesen Ländern und Russland auf der einen Seite und den USA und dem Vereinigten Königreich auf der anderen Seite. Unklar ist, ob sich dieser Riss durch das Bündnis auf seine langfristige Perspektive nach 2008 (also nach Ablauf der zweiten Amtszeit von George W. Bush) als aus Sicht der USA relevantes Militärbündnis noch auswirkt. Größere Erweiterung der NATO. Auf dem Gipfeltreffen 2002 in Prag beschloss die NATO die größte Erweiterung in ihrer Geschichte. Am 29. März 2004 wurden Bulgarien, Rumänien, Slowakei und Slowenien neue NATO-Mitglieder. Mit Estland, Lettland und Litauen wurden erstmals auch ehemalige Sowjetrepubliken Mitglieder der NATO und mit Slowenien erstmals auch eine ehemalige jugoslawische Teilrepublik. NATO-Raketenabwehrprogramm. Von den USA geplantes europäisches Raketenabwehrprogramm Das seit September 2005 durch den Nordatlantikrat als "Active Layered Theatre Ballistic Missile Defence" (ALTBMD) bezeichnete Programm zur Raketenabwehr sieht die Erfassung und Bekämpfung von gegnerischen Kurz- und Mittelstreckenraketen bis zu einer Reichweite von 3.000 km vor. Im Juli 2006 gab NATO-Generalsekretär Jaap de Hoop Scheffer Planungen zu einem europaweiten Raketenabwehrprogramm bekannt. Besonders das Vereinigte Königreich, Polen und die Tschechische Republik arbeiten in diesem Bereich bereits aktiv mit den USA zusammen. Russland sieht die NATO weiterhin als Bedrohung an. Am 5. Februar 2010 genehmigte der damalige russische Präsident Dimitri Medwedew eine neue Fassung der russischen Militärdoktrin, in der die NATO nach wie vor eine Bedrohung für Russland darstellt. Durch die NATO-Osterweiterung sowie das von den USA forcierte Raketenabwehrsystem sieht Russland eine Gefährdung in seiner Sicherheitslage. Einsatz von mobilen und modular einsetzbaren Raketenabwehrsystemen. Am 20. November 2010 beschlossen die Vertreter der NATO-Mitgliedstaaten auf ihrem Gipfel in Lissabon die Ausweitung des geplanten Raketenschildes auf die Territorien und die Bevölkerung Europas. Seit 2009 wird bei den Planungen auf die Stationierung von ortsfesten Elementen sowohl in der Tschechischen Republik als auch in Polen verzichtet und der Einsatz von mobilen und modular einsetzbaren Abwehrsystemen favorisiert. Als Koordinierungsstelle für das Abwehrprogramm ist das "Active Layered Theater Ballistic Missile Defense Programme Office" mit Sitz in Brüssel und Den Haag zuständig. Auf dem Gipfeltreffen in Lissabon wurde erstmals mit Präsident Medwedew die Beteiligung Russlands an der Entwicklung des Raketenabwehrsystems vereinbart. Das Raketenabwehrsystem in Polen und in Tschechien sollte bis 2012 rund 1,6 Milliarden US-Dollar kosten und nach US-Angaben vor möglichen Raketenangriffen von Staaten wie dem Iran und Nordkorea schützen. Der russische Präsident Dmitri Medwedew interpretierte die Pläne zum Aufbau der Raketenabwehrsysteme der USA als Aufrüstung gegen Russland und plante im Gegenzug die Stationierung von Raketen in Kaliningrad. Libyen. Während des Aufstands in Libyen gegen den Diktator Muammar al-Gaddafi eskalierte die Situation zu einem Bürgerkrieg. Daraufhin startete die NATO einen internationalen Militäreinsatz in Libyen. Mit Hilfe von Katar, Jordanien, den Vereinigten Arabischen Emiraten und Schweden gelang es den Rebellen schließlich, das Gaddafi-Regime zu stürzen. Der Einsatz dauerte vom 19. März bis zum 31. Oktober 2011 an. Türkei. Während des syrischen Bürgerkriegs kam es vereinzelt zu Raketeneinschlägen von Syrien aus auf türkischem Staatsgebiet, woraufhin die Türkei nach Art. 4 des NATO-Vertrages das Bündnis anrief. Daraufhin beschloss der NATO-Rat am 4. Dezember 2012, zum Schutz der Türkei Patriot-Abwehrraketen in die Nähe der türkisch-syrischen Grenze zu verlegen. Am 30. Januar 2013 waren alle Raketen im Rahmen der Operation Active Fence einsatzbereit. Die Reichweite ist allerdings deutlich kürzer als die Entfernung ihrer Stationierungsorte zur türkisch-syrischen Grenze. Ferner dauerten Verlegung und Herstellung der Einsatzbereitschaft mehrere Wochen. Das Verhältnis Reichweite-Stationierungsorte und die lange Verlegungsdauer lassen anstatt eines rein militärischem vielmehr auf einen politischen Charakter des Einsatzes schließen. Daher wird argumentiert, der Einsatz diene zur Demonstration von Bündnissolidarität mit der Türkei, zur Rückversicherung für das Land und zur weiteren strategischen Anbindung der Türkei an den Westen. Hingegen bewerten Kritiker des Einsatzes wie Jan van Aken die Stationierung der Raketen als einen weiteren Schritt hin zu einer militärischen Eskalation des Konflikts. Krieg in der Ukraine. Der NATO-Gipfel 2014 in Newport, Wales, stand unter dem Eindruck des Krieges in der Ukraine und vereinbarte ein NATO Readiness Action Plan. Die NATO stellte bereits im April 2014 die militärische Zusammenarbeit mit Russland ein, behielt aber die politischen Kanäle im NATO-Russland-Rat zunächst bei. Aus dem Konflikt in der Ukraine schloss die NATO, dass sie die NATO Response Force um eine als Very High Readiness Joint Task Force ("Speerspitze") bezeichnete Eingreiftruppe ergänzen muss, die mit 3000 bis 5000 Soldaten innerhalb von zwei bis fünf Tagen per Luft verlegt werden können soll. Zudem wird die Präsenz des Bündnisses in den Mittel- und Osteuropäischen Mitgliedsstaaten ausgedehnt, ohne aber Truppen dauerhaft dort zu stationieren. Dazu sollen rotierende Einheiten eingesetzt werden. Zudem sollen die ständigen maritimen Einsatzverbände der NATO verstärkt werden. Rechtsgrundlage. Der Nordatlantikvertrag sieht ein Defensivbündnis ohne automatische militärische Beistandspflicht der Mitglieder vor. Die ersten Artikel des Vertrags verpflichten die Mitglieder zur friedlichen Konfliktbeilegung und freundschaftlichen Ausgestaltung internationaler Beziehungen. Auch die Wahrung der westlich-liberalen Gesellschaftsordnung mit politischer, ökonomischer, sozialer und kultureller Zusammenarbeit und Anerkennung demokratischer Prinzipien ist Bestandteil. Für den Fall des bewaffneten Angriffs auf eines der Mitglieder verpflichtet der Vertrag die übrigen Mitgliedstaaten zur sog. kollektiven Selbstverteidigung. Zur Umsetzung der durch den Vertrag vorgegebenen Mechanismen und Verpflichtungen ist die Gründung der Nordatlantikvertrag-Organisation, bestehend aus Nordatlantikrat und den nachgelagerten Stellen, vorgesehen. Aufgaben und Ziele. Die NATO und der Warschauer Pakt im Kalten Krieg Die im Nordatlantikvertrag formulierten Ziele haben sich im Verlauf seines Bestehens nicht geändert, denn der Vertrag ist in seinem Wortlaut seit 1949 unverändert. Allerdings wurden die Aufgaben der NATO an veränderte sicherheitspolitische Gegebenheiten angepasst und werden aktuell anders interpretiert. Während der Zeit des Kalten Kriegs bestand die Hauptaufgabe der NATO darin, die Freiheit und Sicherheit der Mitglieder durch Abschreckung, Aufrüstung und ständige Abwehrbereitschaft zu garantieren. Ein gleichwertiges drittes, ziviles Standbein der NATO zu etablieren, wie 1969 von Richard Nixon vorgeschlagen, gelang nicht in dem damals geplanten Ausmaß. Die NATO hat als länderübergreifend arbeitende, internationale Organisation mit direktem Zugang auf Regierungsebene vor allem bei der Behandlung umweltpolitischer Probleme, unter anderem bei Luftreinhaltung, saurem Regen und Treibhauseffekt, eine wichtige Vorreiterrolle gespielt. Die Wiedervereinigung Deutschlands, der Zerfall des Warschauer Paktes und der UdSSR sowie die Demokratisierung der ehemaligen Ostblock-Länder waren Auslöser einer grundlegenden Änderung des sicherheitspolitischen Umfelds in Europa. Die Aufgaben der NATO wurden an die neue Lage angepasst und gemäß dem Nordatlantikvertrag blieben Abschreckung und Verteidigung zwar Hauptaufgaben, traten jedoch etwas in den Hintergrund. Vermehrt wurde auf Dialog und Zusammenarbeit mit den „alten Gegnern“ gesetzt und verschiedene Partnerschaftsprogramme (u. a. Partnerschaft für den Frieden) mündeten schließlich in der NATO-Osterweiterung. Strategisches Konzept der Allianz 1999. Auf dem NATO-Gipfeltreffen am 24. April 1999 in Washington, USA, wurde das dritte, bis 2010 gültige Strategische Konzept der Allianz (The Alliance’s Strategic Concept) gebilligt. Es beschreibt Ziele und Aufgaben, analysiert die sicherheitspolitische Lage und leitet davon strategische Perspektiven und Aufgaben ab. Durch Bestehen und Stärkung der transatlantischen Bindung soll eine möglichst enge transatlantische Bindung die Sicherheit Europas und Nordamerikas verknüpfen. Mit der Aufrechterhaltung und Weiterentwicklung effektiver militärischer Fähigkeiten wird die Verteidigungsbereitschaft der Mitglieder sichergestellt. Wichtigste Änderung aber ist die Feststellung, dass zur Konfliktverhütung und Krisenbewältigung auch militärische Operationen "außerhalb des NATO-Gebietes" zur prophylaktischen Gefahrenabwehr möglich sein sollen (sog. „Out-of-Area-Einsätze“). Des Weiteren behält sich die NATO das Recht vor, auch ohne Mandat der Vereinten Nationen (UN) in Krisengebieten zu intervenieren (siehe Kosovo 1999). NATO-Eingriffe in internationale Konflikte, bei denen kein Mitgliedstaat unmittelbar als Konfliktpartei beteiligt ist, gehen über den ursprünglichen Verteidigungsauftrag hinaus und werden daher oft auch als „Out-of-Defence-Einsätze“ bezeichnet. Nukleardoktrin. Im Strategischen Konzept des Bündnisses von 1999 heißt es zur Nukleardoktrin, dass das Bündnis eine geeignete Zusammensetzung nuklearer und konventioneller Streitkräfte beibehalten wird. Diese sind in Europa stationiert. In dem Dokument wird nicht erwähnt, dass die NATO weiterhin darauf besteht, die Option auf den Ersteinsatz von Atomwaffen beizubehalten. Während des Kalten Krieges hat die NATO argumentiert, dass Atomwaffen zur Gegenwehr gegen einen überwältigenden konventionellen Angriff erforderlich sein könnten. Außerdem ist die NATO offensichtlich unter Druck, eine neue Option zu übernehmen, die auf nationaler Ebene bereits von den USA, dem Vereinigten Königreich und Frankreich verankert wurde, nämlich atomar zu antworten, wenn „Schurkenstaaten“, die keine Atomwaffen besitzen, ihre „vitalen Interessen“ irgendwo in der Welt durch den Einsatz von chemischen oder biologischen Angriffen verletzen. Derzeit sind im Rahmen der NATO etwa 240 US-Atomwaffen in Europa stationiert. Die Atomwaffen unterliegen der nuklearen Teilhabe der NATO, befinden sich also in Ländern, die offiziell als Nicht-Atomwaffenstaaten gelten und dem Atomwaffensperrvertrag beigetreten sind. Die bis 2007 in Lakenheath im Vereinigten Königreich gelagerten 110 Atomwaffen konnten von den USA auch ohne Zustimmung der NATO eingesetzt werden und wurden abgezogen. Das Vereinigte Königreich verfügt über 160 bis 200 eigene Atomwaffen, die der NATO für die Verteidigung des Bündnisses zugewiesen sind, mit Ausnahme des Falles, in dem die Regierung des Vereinigten Königreichs entscheidet, dass höchste nationale Interessen auf dem Spiel stehen. Strategisches Konzept der NATO 2010. Am 19. November 2010 beschloss die Allianz auf dem Gipfeltreffen der NATO in Lissabon 2010 ein neues Strategiepapier. Es sieht eine intensive Zusammenarbeit mit Russland vor und enthält Anpassungen im Bereich "Nukleare Abschreckung", "Cyber-War" und der Errichtung eines Raketenschilds. Maritime Strategie. Die neue "Alliance Maritime Strategy" vom 18. März 2011 stellt eine auf maritime Sicherheitsherausforderungen bezogene Ergänzung des Strategischen Konzepts der NATO 2010 dar, indem als Kernaufgaben der NATO auf See kollektive Verteidigung, Krisenmanagement und kooperative Sicherheit hervorgehoben werden. Organisation. Die NATO ist eine mehrstufige und komplexe Organisation, die sowohl militärische als auch zivile Verwaltungsstrukturen aufweist. Alle Entscheidungen innerhalb der Organisation werden nach dem Konsensprinzip getroffen. NATO-Hauptquartier. Das politische Hauptquartier der NATO befand sich von 1949 bis April 1952 in Washington, D.C. Vom 16. April 1952 bis 1967 war der Sitz in Paris, zunächst im Palais de Chaillot, später in einem für die NATO errichteten Gebäude, das heute von der Universität Paris-Dauphine genutzt wird. Nach dem Austritt Frankreichs aus den militärischen Strukturen der NATO zog das Hauptquartier 1967 nach Brüssel. Dort sind im Nordosten der Stadt auf dem Boulevard Léopold III/Leopold III Laan rund 3.150 Vollzeitkräfte beschäftigt (Stand: 1999), davon 1.400 zivile und militärische Vertreter der Mitgliedstaaten. Nachdem 2002 mit Belgien ein Vertrag für einen Neubau geschlossen wurde, wird derzeit das Hauptquartier nördlich des Boulevard Léopold III/Leopold III Laan auf dem ehemaligen Flugfeld von Melsbroek neu erbaut. Es soll 2016 fertiggestellt werden. Zivile Organisation. Zu der zivilen Organisation gehören der Nordatlantikrat, das NATO-Generalsekretariat und der Internationale Stab. Nordatlantikrat. Der Nordatlantikrat (NAC) mit Sitz in Brüssel ist das höchste Entscheidungsgremium innerhalb des Bündnisses und umfasst die politische Konsultation und Koordination. Es ist die einzige Institution der NATO, die explizit im Nordatlantikvertrag genannt wird. NATO-Generalsekretariat und Internationaler Stab. Der Generalsekretär ist der Vorsitzende des Nordatlantikrates und leitet das Generalsekretariat mit dem Internationalen Stab ("International Staff"; IS). Außerdem übernimmt der Generalsekretär den Vorsitz des seit 1966 bestehenden Ausschusses für Verteidigungsfragen (engl. "Nuclear Defence Affairs Committee"; NDAC) und in der seit 1967 bestehenden Nuklearen Planungsgruppe (engl. "Nuclear Planning Group"; NPG). Er wird für eine vierjährige Amtsperiode einstimmig von allen Mitgliedstaaten berufen, mit der Möglichkeit einer Verlängerung auf ein fünftes Jahr. Solange ein Kandidat keinen Konsens auf sich vereinigt, bleibt das Amt unbesetzt. Der Generalsekretär übernimmt somit eine Art Öffentlichkeitsfunktion, während der Supreme Allied Commander Europe (SACEUR) die Entscheidungsgewalt über die militärischen Operationen hat. Personen mit "kursiv" geschriebenen Namen nahmen das Amt nur kommissarisch wahr. Verteidigungsplanungsausschuss. Der Ausschuss für Verteidigungsplanung (engl. "Defence Planning Committee"; DPC) war das zentrale Gremium für militärpolitische Angelegenheiten, insbesondere die Struktur der Streitkräfte und ihre Integration. Er war aus ständigen Vertretern jener Mitgliedstaaten zusammengesetzt, die sich auch an dem integrierten NATO-Verteidigungssystem beteiligen. Im Jahr 2010 wurde der Ausschuss für Verteidigungsplanung aufgelöst, seine Aufgaben wurden dem Nordatlantikrat übertragen. Ministerkonferenzen. Der Nordatlantikrat (NAC) (und bis 2010 der Verteidigungsplanungsausschuss (DPC)) tagen mindestens einmal pro Woche auf der Ebene der Ständigen Vertreter, sowie zweimal pro Jahr auf Ebene der Außenminister ("Foreign Ministers Meeting"; MFA) und der Verteidigungsminister (Defense Ministers Meetings; MoD). Außerdem tagt der NATO-Rat alle zwei bis drei Jahre auch auf der Ebene der Staats- und Regierungschefs, die sogenannten NATO-Gipfeltreffen. NATO-Gipfeltreffen. a> Auditorium (AWMA) in Washington, D.C., USA, April 1999 NATO-Gipfeltreffen im November 2002 in Prag (Tschechien) Weitere Institutionen. Seit 1955 existiert zudem die Parlamentarische Versammlung der NATO (NATO-PV), die seit ihrer Gründung 1955 bis Juni 1991 als Nordatlantische Versammlung (NAV) bezeichnet wurde. Die Versammlung tritt zweimal jährlich in verschiedenen Mitgliedsländern zu einer Frühjahrs- und einer Herbsttagung zusammen. Derzeit gehören der Versammlung 214 Parlamentarier aus 19 NATO-Mitgliedstaaten an. NATO-Militärausschuss. Der NATO-Militärausschuss (engl. "Military Committee"; MC) ist das höchste militärische Entscheidungs- und Beratungsorgan innerhalb des Bündnisses und ist dem Nordatlantikrat (NAC) unterstellt und tagt zweimal pro Jahr auf der Ebene der von den Stabschefs ernannten "Nationalen Militärischen Vertreter" (engl. "National Military Representatives"; NMR). Die Mitglieder des Militärausschusses bestimmen zudem seit 1963 durch Wahl einen Vorsitzenden (CMC), dessen Amt seit 16. November 2011 durch den dänischen General Knud Bartels ausgeführt wird. Sein Vorgänger war von Juni 2008 bis November 2011 der italienische Admiral Giampaolo Di Paola. Der Ausschuss besteht aus den Stabschefs (aus Deutschland der Generalinspekteur der Bundeswehr) aller an der militärischen Integration der NATO beteiligten Mitgliedstaaten oder ihren Vertretern und berät und empfiehlt Maßnahmen, die für die NATO erforderlich gehalten werden. Der NATO-Militärausschuss erlässt zudem Weisungen an den Supreme Allied Commander Europe, den Oberkommandierenden des NATO-Hauptquartiers Europa (SHAPE) in Mons, Belgien und an den Supreme Allied Commander Transformation, den Oberkommandierenden des NATO-Hauptquartiers Transformation ("HQ SACT") in Norfolk, VA, USA. Internationaler Militärstab. Als ausführendes Organ verfügt der Militärausschuss der NATO über einen "Internationalen Militärstab" (engl. "International Military Staff"; IMS), der über mehrere verschiedene Abteilungen verfügt und rund 450 zivile und militärische Mitarbeiter umfasst. NATO-Militärhauptquartier in Europa. Ursprünglich befand sich das europäische NATO-Hauptquartier (engl. "Supreme Headquarters Allied Powers Europe"; SHAPE) ab Juli 1951 in Rocquencourt bei Paris. Nach Frankreichs Rückzug aus den NATO-Militärstrukturen erfolgte am 31. März 1967 der Umzug nach Casteau bei Mons in Belgien. NATO-Kommandostruktur und militärische Integration. Den operativen Oberbefehl hat der "Supreme Allied Commander Europe" (SACEUR), welcher immer ein US-amerikanischer General oder Admiral ist. Zudem gibt es eine parallele Kommandoebene für die Transformation der NATO, den "Supreme Allied Commander Transformation" (SACT). Verteidigungsausgaben. Im Jahre 2008 gaben alle NATO-Mitglieder zusammen 895,195 Mrd. US-Dollar (Kaufkraftparität im Jahr 2008) von weltweit 1,464 Billionen für die Verteidigung aus. Davon entfielen 594,417 Mrd. auf die Vereinigten Staaten, 300,778 Mrd. auf die europäischen Mitgliedstaaten und die verbleibenden 21,026 Mrd. auf Kanada. Davon verwendeten sie 293,949 Mrd. US-Dollar (Kaufkraftparität im Jahr 2005) für Personalkosten und 192,929 Mrd. für die Beschaffung. Mitgliedstaaten. Die NATO hat zurzeit 28 Mitglieder. Die zwölf Gründungsmitglieder – sie gehören seit 1949 der NATO an – sind Belgien, Dänemark, Frankreich, Island, Italien, Kanada, Luxemburg, das Königreich der Niederlande, Norwegen, Portugal, die Vereinigten Staaten von Amerika sowie das Vereinigte Königreich. Von 1949 bis 1962 gehörten auch die französischen Departements in Algerien ausdrücklich zum NATO-Vertragsgebiet. Bis zur Unabhängigkeit Maltas im September 1964 gehörte die Mittelmeerinsel auch als britische Kolonie zum NATO-Vertragsgebiet. Bis 1979 konnte die NATO und die britische Marine gegen umfangreiche Finanzhilfen Malta als Militärstützpunkt nutzen. Im Jahre 1952 traten die Türkei und Griechenland der Organisation bei, und seit 1955 ist die Bundesrepublik Deutschland Mitglied der NATO. Spanien ist dem Bündnis 1982 beigetreten, und 1990 erfolgte die Ausdehnung des Nordatlantikvertrages auf das gesamte Deutschland. Besonderheiten bestanden hinsichtlich Frankreich, das von 1966 bis 2009 nicht mehr in die Militärstrukturen der NATO integriert war. Der Grund für Frankreichs Austritt lag darin, dass Charles de Gaulle die NATO als Instrument US-amerikanischer Interessen nicht akzeptierte. Er wollte Frankreichs militärische Unabhängigkeit und Entscheidungsfreiheit bewahren und die französischen Truppen nicht dem US-Kommando unterordnen. Nach der Jugoslawien-Krise änderte die französische Regierung ihre Position innerhalb der NATO und nahm seit Ende 1995 wieder an den Sitzungen des Ausschusses für Verteidigungsplanung (engl. "Defence Planning Committee"; DPC) teil, ohne dabei in die integrierten Militärstrukturen der NATO einzutreten. Im Frühjahr 2009 erklärte Nicolas Sarkozy, Frankreich umgehend in die Militärstrukturen reintegrieren zu wollen. Am 18. März stimmte das französische Parlament dem Plan Sarkozys zur vollständigen Rückkehr Frankreichs in die Kommandostruktur zu. Ebenfalls aus den Militärstrukturen vorübergehend ausgeschieden waren Griechenland in der Zeit von 1974 bis 1981 und Spanien von 1986 bis 1999. Einen Sonderfall stellt Island dar, welches über keine eigenen Streitkräfte verfügt. Die Verteidigung Islands wurde bis 2006 durch die Vereinigten Staaten gewährleistet, welche sich 1951 in einem bilateralen Verteidigungsabkommen zur Verteidigung Islands verpflichtet haben. Jedoch beschloss die US-Regierung am 19. März 2006 einseitig und für Island überraschend ihre Streitkräfte abzuziehen und am 30. September 2006 verließen schließlich die letzten auf Island stationierten US-Soldaten das Land. Dennoch garantieren die USA weiterhin den militärischen Schutz der Insel im Angriffsfall. Die Regierung Islands hat sich aber zu medizinischer Hilfeleistung im Bündnisfall verpflichtet. Island ist nur als Beobachter in der Nuklearen Planungsgruppe und entsendet einen zivilen Vertreter zu den Tagungen des Verteidigungsplanungsausschusses (DPC) und des Militärausschusses ("Military Committee"). Im Zuge der NATO-Osterweiterung wurden 1999 Tschechien, Polen, Ungarn Mitglieder der NATO. Danach wurden die Länder Estland, Lettland, Litauen, die Slowakei, Slowenien, Bulgarien und Rumänien eingeladen, die am 29. März 2004 der NATO beitraten. Albanien und Kroatien erhielten am 3. April 2008 beim Gipfeltreffen in Bukarest eine Einladung zum Militärbündnis und unterzeichneten am 9. Juli (vier Wochen vor Beginn des Georgienkrieges) in Brüssel die Beitrittsprotokolle. Ihr Beitritt wurde für den NATO-Gipfel im April 2009 in Kehl und Straßburg geplant, von allen NATO-Mitgliedern ratifiziert und am 1. April 2009 vollzogen. Deutschland. NATO-Beitritt der Bundesrepublik Deutschland während der Gipfelkonferenz in Paris im Mai 1955 Seit dem Beitritt der Bundesrepublik Deutschland zur NATO im Jahre 1955 haben sich Aufgabe und Beteiligung erheblich gewandelt. In den Jahren bis zur Wiedervereinigung war die Bundeswehr als Bündnisarmee konzipiert. Für den Einsatzfall existierten keine nationalen Führungsstrukturen; die deutschen Verbände unterstanden im Bündnisfall den NATO-Befehlshabern. Einige Verbände, vor allem aus dem Bereich der Luftwaffe und der Bundesmarine, waren der NATO bereits im Frieden direkt unterstellt und wurden jederzeit von ihr operativ geführt. Mit der Herstellung der Einheit Deutschlands wurden ab dem 3. Oktober 1990 auch die Gebiete der bisherigen DDR und der beiden Teile Berlins Teil des NATO-Gebietes. Gemäß Zwei-plus-Vier-Vertrag dürfen jedoch nichtdeutsche NATO-Truppen dauerhaft nicht in Ostdeutschland stationiert werden, was diesen geografischen Raum zu einem „weißen Fleck“ innerhalb des mittlerweile um viele mittel- und osteuropäische Staaten erweiterten NATO-Gebiets macht. Innenpolitisch umstritten war, ob die Zustimmung der Bundesregierung zum Strategischen Konzept von 1999 der Zustimmung des Bundestages bedurfte. Dies wäre dann der Fall gewesen, wenn es sich beim Konzept 1999 um eine Änderung des Nordatlantikpaktvertrages gehandelt hätte. Dies hat das Bundesverfassungsgericht in einem von der PDS-Bundestagsfraktion angestrengten Organstreitverfahren im Wesentlichen mit der Begründung verneint, dass der Vertragswortlaut unangetastet bleibe, insbesondere der Verteidigungsauftrag weiterhin bestehe und sich die Out-of-Area-Einsätze im Rahmen der im NATO-Vertrag beschriebenen Aufgabe der Friedenssicherung unter Beachtung des Völkerrechts halten sollen. Mit 122 Millionen Euro trägt Deutschland über 18 % des NATO-Militärhaushaltes bei und ist damit nach den USA und noch vor Frankreich und dem Vereinigten Königreich der zweitgrößte Beitragszahler. Die NATO wird in ihrer Arbeit offiziell von nationalen Atlantischen Gesellschaften unterstützt, die vor allem im Bereich der Öffentlichkeitsarbeit für sie tätig sind. In Deutschland ist dies die Deutsche Atlantische Gesellschaft. Beitrittskandidaten. Offizielle Beitrittskandidaten der NATO sind Montenegro, Bosnien und Herzegowina sowie Mazedonien; bei letzterem Staat werden die nötigen Verhandlungen jedoch von Griechenland wegen des Streits über seinen Namen blockiert. Auf dem Gipfel in Bukarest im April 2008 beschlossen die Staats- und Regierungschefs der NATO-Mitgliedstaaten außerdem, mit Bosnien-Herzegowina Beitrittsverhandlungen aufzunehmen. Am 3. Dezember 2009 erklärten die Außenminister der 28 NATO-Mitgliedstaaten in Brüssel Montenegro zum Beitrittskandidaten, nannten jedoch noch kein mögliches Beitrittsdatum. Außerdem erklärten sie, dass Bosnien-Herzegowina noch nicht weit genug für den Status eines Beitrittskandidaten sei und weitere Reformen zur Demokratisierung benötige. Am 22. April 2010 beschlossen die Außenminister Bosnien und Herzegowina in den Aktionsplan für Beitrittskandidaten aufzunehmen, rieten für einen Beitritt jedoch zu weiteren Reformen. Am 2. Dezember 2015 wurde auf einem Treffen der Außenminister der NATO-Staaten in Brüssel eine offizielle Einladung an Montenegro ausgesprochen, sich dem Bündnis anzuschließen. Partnerschaften. Das Parlament Serbiens verabschiedete 2007 eine Resolution über militärische Neutralität. Militärisch gesehen ist Serbien derzeit das stärkste Land des Westbalkans. Die Mitgliedschaft im Militärbündnis wird sowohl politisch als auch gesellschaftlich konträr geführt. Zwar nimmt Serbien am Programm Partnerschaft für den Frieden teil, auch haben die Streitkräfte Serbiens ein Trainingsprogramm mit der Nationalgarde Ohios, doch über eine Eingliederung in die Strukturen des Militärbündnisses herrscht innerhalb der serbischen Parteien Uneinigkeit. Der Verteidigungsminister Dragan Šutanovac erklärte, Serbien werde wahrscheinlich die Vollmitgliedschaft in der NATO nicht beantragen, aber es beabsichtige, die Partnerschaft mit der Allianz durch eine intensivere Teilnahme an internationalen Operationen zu stärken. Auch gibt es Widerstand seitens der einflussreichen Serbisch-Orthodoxen Kirche, die diese Entscheidung dem Volk anvertrauen möchte und eine traditionelle prorussische Stimmung des Balkanstaates, die einen möglichen NATO-Beitritt des Landes in Frage stellen. Dagegen möchte der Kosovo so schnell wie möglich der NATO beitreten. Vor einem Beitritt ist jedoch die Anerkennung durch alle Mitgliedstaaten notwendig, damit der Beitritt ratifiziert werden kann. Georgien möchte der NATO beitreten; die Vereinigten Staaten unterstützten die Aufnahme Georgiens in ein Vorbereitungsprogramm für eine Mitgliedschaft. Die westeuropäischen NATO-Staaten lehnten Verhandlungen darüber mit Rücksicht auf Russland ab, wogegen die osteuropäischen NATO-Staaten möglichst schnell mit Georgien Beitrittsverhandlungen aufnehmen wollten; sie verwiesen dabei auf den Kaukasus-Konflikt. Vor allem Deutschland und Frankreich betonten, dass Georgien mit seinem Anspruch auf Abchasien und Südossetien, die sich mit Russlands Unterstützung für unabhängig erklärt haben, die NATO destabilisieren würde. Unter Julija Tymoschenko strebte die Ukraine ebenfalls eine schnelle NATO-Mitgliedschaft an, nach den Präsidentschaftswahlen in der Ukraine 2010 rückte der neue prorussische Präsident Wiktor Janukowytsch jedoch von einem möglichen NATO-Beitritt der Ukraine ab und betonte den Status als blockfreies Land. Janukowytsch begründete dies damit, dass die Mehrheit der Ukrainer einen Beitritt zur NATO ablehne. Irland, Schweden, Finnland, Malta, Österreich und die Schweiz arbeiten mit der NATO im Programm Partnerschaft für den Frieden zusammen. In der Schweiz wird das von einigen als eine schleichende Annäherung bis zum NATO-Beitritt betrachtet, der seit Jahren umstritten ist. Österreich lässt historisch bedingt derzeit kein Interesse an einer Mitgliedschaft erkennen. In Finnland und Schweden wird seit dem Kaukasus-Konflikt über einen möglichen NATO-Beitritt diskutiert. Gerade in Finnland denken immer mehr Politiker über einen möglichen Beitritt nach, dennoch sind nur wenige Finnen für einen Beitritt zum Bündnis. Mittelmeer-Dialog und Israel. Im Zuge der Ausweitung der Aktivitäten der NATO in den Mittelmeerraum, den Nahen und den Mittleren Osten sowie nach Zentralasien wurden eine Reihe von Gremien gegründet, die eine Zusammenarbeit zwischen NATO-Mitgliedern und ihren Partnerstaaten fördern sollten. Dazu gehört der Mittelmeer-Dialog, der 1994 gegründet wurde und dem neben den NATO-Mitgliedsländern sechs arabische Staaten und Israel angehören. Wegen des Nahostkonflikts fordern Politiker vor allem aus den Vereinigten Staaten einen Beitritt Israels zur NATO, welcher nach ihrer Ansicht zum Frieden in der Region beitragen könnte. Israel ist ein Major non-NATO ally der Vereinigten Staaten und möchte insbesondere die Beziehungen zur EU und zur NATO intensivieren. Jedoch möchte Israel noch nicht endgültig über einen Beitritt entscheiden. Kritik an der NATO. Demonstration während des NATO-Gipfeltreffens in Istanbul im Juni 2004 Kritiker von Seiten der Friedensbewegung weisen darauf hin, dass friedliche und gerechte Lösungen oder zumindest Kompromisse bei den vielen Konflikten und Interessengegensätzen nicht über Militärbündnisse und das Mittel Krieg, sondern nur durch Institutionen wie den Vereinten Nationen und der OSZE entstehen können. Sie sehen in der NATO ein militärisches Bündnis, welches wirtschaftliche und strategische Interessen des Westens absichern soll. Nadine Gordimer. Nadine Gordimer (* 20. November 1923 in Springs, Transvaal, heute Gauteng; † 13. Juli 2014 in Johannesburg) war eine der bekanntesten südafrikanischen Schriftstellerinnen. Ihre Romane, Erzählungen und Essays behandeln vor allem die südafrikanische Apartheidpolitik und deren zerstörerische Folgen sowohl für die schwarze als auch für die weiße Bevölkerung. Im Jahr 1974 bekam Nadine Gordimer den Booker Prize, 1991 wurde sie mit dem Nobelpreis für Literatur ausgezeichnet. Familie und frühe Jahre. Ihr Vater war ein jüdischer Juwelier, der als Dreizehnjähriger aus Litauen emigrierte, ihre Mutter war Engländerin. Gordimer wuchs in ihrer Geburtsstadt Springs auf, östlich von Johannesburg, einer der Orte entlang des Höhenzugs Witwatersrand, die Ende des 19. Jahrhunderts durch den Goldbergbau entstanden. Sie wurde nicht jüdisch erzogen und ging auf eine kostenpflichtige Konventschule. Ihre Kindheit und Jugend verbrachte sie in der behüteten Umgebung der weißen südafrikanischen Minderheit. Wegen einer vermeintlichen Herzschwäche wurde sie jahrelang von ihrer Mutter zuhause unterrichtet. Ihre relative Isolation gab ihr die Gelegenheit, sehr viel zu lesen. Bereits als Neunjährige begann sie zu schreiben, und mit 14 Jahren erschien ihre erste Kurzgeschichte "(Come Again Tomorrow)" auf den Kinderseiten der Johannesburger Zeitschrift "Forum." Ab 1948 lebte sie in Johannesburg, wo 1949 ihre erste Kurzgeschichtensammlung "Face to Face" verlegt wurde. Mit "The Lying Days" veröffentlichte sie 1953 ihren ersten Roman. 1951 brachte der "New Yorker" erstmals eine Geschichte, viele weitere folgten. 1949 heiratete sie den Zahnarzt Gerald Gavron, von dem sie sich jedoch 1952 wieder scheiden ließ. 1950 kam ihre gemeinsame Tochter Oriane zur Welt. Ab 1954 war sie mit dem Galeristen Reinhold Cassirer aus Berlin, dem Neffen des Philosophen Ernst Cassirer, verheiratet; er starb 2001 in Johannesburg. Gemeinsam mit Reinhold Cassirer hatte sie einen Sohn, den Filmemacher Hugo Cassirer. Studium. Zum Studium schrieb sie sich an der Witwatersrand-Universität in Johannesburg ein, die sie jedoch ohne Abschluss nach nur einem Jahr verließ. Sie reiste viel in Afrika, Europa und den USA, wo sie in den 1960er und 1970er Jahren auch mehrfach an Universitäten lehrte. Widerstand gegen die Apartheid. Beinahe ihr gesamtes Leben lebte und schrieb Gordimer in einem Südafrika, das von Apartheid gespalten war. Sie gehörte in den 1950er Jahren zu einer kleinen Gruppe, die bewusst die damaligen Apartheidgesetze missachtete, um diese zu unterhöhlen. Gordimers konsequentes Eintreten für das Recht auf freie Meinungsäußerung brachte ihr mehrfach Publikationsverbote in ihrem Heimatland ein. In den 1960er Jahren wurde die schwarze Widerstandsbewegung radikaler in ihren Methoden, wandte z. B. Industriesabotage an, wie sie Gordimer in ihrem Roman "The Late Bourgeois World" (1966) beschrieb, und setzte vielfach nicht mehr auf die Unterstützung durch liberale Weiße, so z. B. der 1959 gegründete Pan Africanist Congress. Gordimer fühlte sich folglich doppelt ausgegrenzt: durch die Weißen aufgrund des Apartheidregimes, durch die Schwarzen wegen ihrer Hautfarbe. In den späten 1980er Jahren kam es wieder zu einer engeren Zusammenarbeit zwischen den Schwarzen und den Weißen im Widerstand. Gordimer nahm eine prominentere Stellung in der Bewegung ein und nutzte ihren Ruhm als Schriftstellerin, um politische und kulturelle Gruppierungen öffentlichkeitswirksam zu unterstützen; auch finanziell half sie diesen Bewegungen. Sie kämpfte auch gegen das südafrikanische Zensurgesetz. In Interviews bekräftigte sie, dass es nicht ihre Absicht sei, als Propagandistin andere von ihren politischen Idealen zu überzeugen. Sie wolle stattdessen die Wirklichkeit auf ehrliche Weise darstellen und verborgene Aspekte beleuchten. Sie interessierte sich besonders für die psychologischen und gesellschaftlichen Aspekte von Konfliktsituationen, so z. B. in "Die Hauswaffe" (1998). Der Roman spielt im „neuen“, immer noch von Gewalt geschüttelten Südafrika nach der Apartheid und beschreibt die emotionale Verwirrung eines Ehepaars, dessen Sohn des Mordes bezichtigt wird. Apartheid in ihrem schriftstellerischen Werk. In ihrem Werk zeigt sie, dass Apartheid nicht statisch ist, sondern etwas sich ständig Weiterentwickelndes. Die Realität in ihrem Werk ist nie schwarz-weiß, sondern mit vielen Grautönen durchsetzt. Im Studium von Gordimers Gesamtwerk lässt sich gut nachvollziehen, wie sich ihr Gedankengut und ethnisches Bewusstsein weiterentwickelt. 1991 erhielt sie den Nobelpreis für Literatur aufgrund der offenen und ironischen Art, mit der sie soziales Unrecht beschreibt. Ihr Werk ist in über 30 Sprachen übersetzt worden. Netzwerk. Als Netzwerke werden Systeme bezeichnet, deren zugrundeliegende Struktur sich mathematisch als Graph modellieren lässt und die über Mechanismen zu ihrer Organisation verfügen. Der Graph besteht aus einer Menge von Elementen (Knoten), die mittels Verbindungen (Kanten) miteinander verbunden sind. Ein geschlossener Zug aus Kanten und Knoten heißt "Masche". Dass der Großteil der Knoten zu einer oder mehreren Maschen gehört, ist das eigentliche Kennzeichen eines Netzwerks gegenüber anderen Typen von Strukturen. Die Mechanismen zur Organisation von Netzwerken beziehen sich definitorisch auf die durch die Maschen gegebenen redundanten Verbindungen im Netzwerk, welche unterschiedliche Verbindungswege zulassen. Netzwerke werden auf einer abstrakten Ebene in der Netzwerkforschung untersucht und in der Praxis in den jeweiligen Anwendungsgebieten, aus denen die konkreten Netze stammen. Kettennetzwerk. Hintereinander angeordnete Knoten. Informationen bzw. Waren bewegen sich entlang und es gibt nur einen möglichen Weg. Siehe auch Daisy chain. Stern- oder Knotennetzwerk. Ein zentraler Knoten, um den sich die anderen Knoten gruppieren. Informationen und Waren laufen sämtlich über den zentralen Knoten. Siehe auch Client-Server-Modell. All-Channel-Netzwerk. Jeder Knoten ist mit jedem verbunden. Informationen bzw. Waren können über beliebige Wege weitergegeben werden. Siehe auch vermaschtes Netz und Peer-to-Peer. Übernahmen in Einzelwissenschaften. In der Ethnologie, der Soziologie und der Psychologie wurde der Begriff als „Soziales Netzwerk“ übernommen. In der Betriebswirtschaftslehre und Logistik kennt man Produktions-, Beschaffungs- und Distributionsnetzwerke, in der Organisationslehre und Arbeitswissenschaft auch „Netzwerkorganisation“. In der Systemtheorie wird mit „Netzwerk“ eine Menge von miteinander auf definierte Weise verbundenen, autonomen Objekten bezeichnet, die ein gesamtes System bilden. Auch in der Politikwissenschaft wird der Netzwerkbegriff verwendet. In der Steuerungstheorie wird unter Politiknetzwerken das Zusammenwirken privater (Unternehmen, Interessensgruppen) und öffentlicher Akteure in bestimmten Politikbereichen verstanden. Das Ergebnis sind nicht-hierarchische, dezentrale politische Netzwerke. Andere Autoren verwenden das Netzwerkkonzept allgemein für die Bezeichnung verschiedener Formen öffentlich-privater Kooperation, die nicht unbedingt dezentral organisiert sein muss. Thematisiert wird von beiden Ansätzen der Austausch von Ressourcen zwischen den beteiligten Akteuren. Politiknetzwerke können hinsichtlich der Politikformulierung- und -implementation entstehen. Eine der neusten Entwicklungen stellt die Differierende Netzwerktheorie (DFN-Theorie) dar. Neuerdings wird in den Kulturwissenschaften versucht, den Netzwerkbegriff als Basis zur Verständigung der Einzelwissenschaften über bestimmte Gegenstandsbereiche nutzbar zu machen und deshalb transdisziplinär (Transdisziplinarität) zu konzeptualisieren. Auch einige Theorien der Internationalen Beziehungen, wie Global Governance und Strömungen des Konstruktivismus, konstatieren die Entstehung von Netzwerken auf internationaler Ebene. Auch diese sind meist gemischter Natur; die beteiligten Akteure sind beispielsweise internationale Organisationen, Staaten, einzelne Ministerien bzw. staatliche Agenturen, INGOs, NGOs und/oder Unternehmen. Zu ihren Aktivitäten gehören beispielsweise der Einsatz für bestimmte Minderheiten und für die Umwelt, das Setzen neuer Themen auf die globale Agenda sowie das Verhandeln von globalen Standards. Der Begriff Netzwerk hat sich auch in der Computerwelt verbreitet. Computernetze werden meist schlicht als „Netzwerk“ bezeichnet. Auch wenn viele Akademiker dies für falsch halten, so hat sich dieser Begriff durchgesetzt. (Hintergründe dazu findet man im Artikel zu Computernetzen.) In der Rechtswissenschaft finden sich erste Versuche, das Netzwerk-Paradigma für ein neues und tieferes Verständnis des Rechts fruchtbar zu machen. Das Recht wird dabei als komplexes Netzwerk begriffen (Boehme-Neßler 2008, S. 535 ff.). Es weist auch die Eigenschaften auf, die für ein Netzwerk typisch sind – etwa Reziprozität, Interaktivität und Non-Linearität (Boehme-Neßler 2008, S. 593 ff.). Zunehmend entwickelt sich ein Verständnis dafür, dass das Recht deshalb ein „Unscharfes Recht“ ist. Entstehung. Netzwerkstrukturen gibt es in allen – auch vor- und frühgeschichtlichen – Gesellschaften. Dabei handelt es sich um übergreifende, jedoch auf bestimmte Situationen oder Anlässe begrenzte Interaktions- und Kooperationsmuster jenseits fester Clanstrukturen oder sporadischer Austauschbeziehungen (z. B. Schamanennetzwerke). Im Mittelalter bildeten sich große überregionale Personennetzwerke auf Basis gemeinsamer Interessen, so etwa die Hanse. Charakteristisch für die Neuzeit sind jedoch Netzwerke von Organisationen. Diese entstanden bereits frühzeitig überall dort, wo raumübergreifend tätige oder mobile Wirtschaftsakteure mit wechselnden lokalen Partnern zusammenarbeiten, deren lokale Ressourcen sie nutzen wollen (so z. B. im Baugewerbe, bei Handelsvertretungen) oder wo eine Gruppe lokaler Partner sich zur Bearbeitung eines komplexen Auftrags auf Zeit zusammenfindet. Seit Beginn des 20. Jahrhunderts bilden sich Netzwerke auch dort, wo hohe Anforderungen an Innovation eine permanente Zusammenarbeit von Akteuren in einer festen Organisation verbieten (z. B. in der Film- und Kreativwirtschaft). Insbesondere seit den 1990er Jahren haben sich Organisationsstrukturen stark verändert. Globalisierung, schneller technologischer Wandel und daraus resultierender rascher Informationsaustausch führen zu immer schneller wechselnden Marktkonstellationen und international agierenden Organisationen. Die Grenzen in und zwischen Organisationen verändern sich ebenso wie die Grenzen zwischen Umwelt und Organisationen ("boundaryless organization"). Diese Umstände ziehen Veränderungen der Organisationsstruktur in Richtung der Schaffung flexibler Netzwerke und steigender Anforderungen an die Netzwerksteuerung nach sich. Netzwerke können in unterschiedlichem Umfang sowohl durch Elemente der Hierarchie wie des Marktes geprägt sein. Dementsprechend sind sie eher zentralisiert oder dezentralisiert. Quasi-Internalisierung und Quasi-Externalisierung. Netzwerke entstehen nach Sydow (2010) durch den Trend zur disaggregierten Organisation. Dabei wirken die Prozesse der „Quasi-Externalisierung“ und der „Quasi-Internalisierung“. Zunächst zur Quasi-Externalisierung: Durch die Vermarktlichung wird ein traditionell vertikal bzw. horizontal integriertes Unternehmen „disaggregiert“, d. h. ausgegliedert. Es entstehen auf diese Weise hochgradig autonome, marktlich geführte interne Einheiten. Ein Beispiel hierfür können betriebszugehörige Unternehmensberatungen sein, die sowohl Aufträge von ihrer eigenen Organisation, als auch externe Aufträge annehmen können. Der zweite Prozess (Quasi-Internalisierung) bezieht sich auf die traditionelle Stellung eines einzelnen Unternehmens im Markt. Diese Stellung ist durch den Zusammenschluss und teilweise auch durch die Vermarktlichung neu hierarchisiert worden. Die Unternehmen haben einen Wandel vollzogen von autonomen Positionen auf dem Markt zu autonomen Unternehmungen mit hierarchieartigen Beziehungen untereinander. Der Prozess der Hierarchisierung lässt sich beispielhaft aufzeigen anhand des Zulieferer-Netzwerks großer Automobilkonzerne wie BMW. Die einzelnen Zulieferer sind zwar autonome Organisationen (wie z. B. BASF, Siemens und Hella), aber durch Verträge und Kaufkraft eines so großen Wirtschaftspartners hierarchisch von den Entscheidungen von BMW abhängig und damit untergeordnet. Eine Quasi-Internalisierung findet aufgrund der Intensivierung der Zusammenarbeit von schon locker bestehenden Austauschbeziehungen zwischen einzelnen Organisationen statt. Netzwerksteuerung. Im Allgemeinen Verständnis bedeutet Steuerung „das Bemühen um Verringerung der Differenz“ (Luhmann, 1988). Netzwerksteuerung bedeutet demnach nach Sydow die Steuerung interorganisationaler Netzwerke mit der Bemühung, eine Differenz zwischen einem gewünschten und sich aufzeigenden Systemzustand zu verringern. Angestrebt wird hierbei eine graduelle Beeinflussung von Ereignissen und Interaktionen. Insgesamt können 4 Steuerungsebenen unterschieden werden. Ebene des interorganisationalen Netzwerks. Im Fokus steht hierbei die Steuerung des Netzwerkes mit Organisationen, deren Interaktionen und Beziehungen. Grundlage hierfür bildet die Annahme, dass Netzwerke als soziales System zu verstehen sind, das sich vor allem durch die Qualität von Beziehungen beschreiben lässt. Es resultiert daraus, dass das Systemverhalten vor allem von der Qualität des Beziehungszusammenhangs abhängig ist. Dementsprechend wird auf dieser Ebene der Steuerung die Einflussnahme und Gestaltung über den Beziehungszusammenhang (z. B. kooperative, kompetitive Unternehmensbeziehungen) berücksichtigt. Steuerung einzelner Organisationen. Hierbei wird die wechselseitige Beeinflussung von Organisationen betrachtet: Einerseits inwieweit das Management der Unternehmen die Netzwerksteuerung ermöglicht bzw. begrenzt und andererseits inwieweit die Netzwerksteuerung das Management dieser Unternehmen beeinflusst. Ebene der Steuerung von Organisationen und Netzwerken. Im Zentrum dieser Ansicht steht das Individuum; genauer inwieweit die Aktivitäten von Individuen in intra- und interorganisationalen Netzwerken gesteuert werden können. Bei dieser komplexen Darstellung ist zu berücksichtigen, dass Individuen dabei in einem doppelten Handlungsrahmen agieren (intraorganisational: das Individuum mit dem Arbeitsvertrag; interorganisational: im Netzwerk als Ganzes). Ebene institutioneller Kontexte. Im Vordergrund steht hierbei die Betrachtung der Beeinflussung bzw. die Beeinflussbarkeit der Netzwerke über Veränderungen von Akteurkonstellationen, Technologien (Werkzeuge, Wissensbestände…), staatliche Regulation (Gesetze) und Praktiken (Finanzierung, Produktion). Bei der Netzwerksteuerung ist es sinnvoll nicht nur die Stufe des Netzwerkes allein zu betrachten, sondern es sind die 4 beschriebene Ebenen in ihrer Komplexität und wechselseitigen Beeinflussung zu berücksichtigen. Knoten und Kanten. Netzwerke sind eine Konfiguration aus Knoten und Kanten. Knoten, die als Akteure verstanden werden, können sowohl Einzelpersonen als auch Gruppen sein. Die Kanten verbinden die einzelnen Akteure miteinander und stellen somit eine Beziehung dar. Die Einbettung der Akteure in eine Vielzahl von Beziehungen reduziert die Komplexität für den Einzelnen. Die Kanten dienen den Akteuren als Kanäle, über die Informationen und Wissen transportiert und ausgetauscht werden. Beziehungsstärke. Die Beziehungsstärke der Akteure untereinander wird bestimmt durch die emotionale Intensität, dem Grad des Vertrauens, der Reziprozität und der gemeinsam verbrachten Zeit. Entsprechend der Ausprägung dieser Merkmale lassen sich starke und schwache Beziehungen unterscheiden. Starke Beziehungen sind durch eine engmaschige Struktur gekennzeichnet, innerhalb der die Motivation der Akteure hoch ist Informationen und Wissen zu tauschen und weiterzuleiten. Schwache Beziehungen sind durch eine offene Struktur gekennzeichnet, die es Informationen ermöglicht größere Distanzen zu überwinden. Dichte. Die Dichte des Netzwerkes gibt an, wie stark die Akteure untereinander vernetzt sind. Je größer die Anzahl der Beziehungen ist, desto stärker erhöht sich die Möglichkeit Informationen auszutauschen. Reichweite. Die Reichweite gibt an, in welchem Maß die Beziehungen der Akteure über das eigene Netzwerk hinausreichen. Wissenstransfer in Netzwerken. Wissenstransfer und Wissensaustausch stehen in komplexen Beziehungen zu Dichte, Reichweite und Beziehungsstärke des Netzwerkes. Starke Beziehungen eignen sich durch die stärkere emotionale Bindung der Akteure für den Transfer von komplexem und implizitem Wissen. Hier sind die Akteure eher bereit, Zeit aufzuwenden um komplexe Zusammenhänge zu erklären und schwer zu verbalisierendes Wissen weiterzugeben. Allerdings versperren starke Beziehungen durch ihre Redundanz Kommunikationswege, auf denen neue Informationen in das Netzwerk gelangen können. Für die Diffusion von neuen Wissensinhalten sind schwache Beziehungen besser geeignet, da hier eine größere Anzahl von Akteuren erreicht wird und eine größere Offenheit des Netzwerkes gewährleistet wird. Schwache Bindungen sind der Grundstein für Kreativität und innovative Entwicklungen. Die Dichte des Netzwerkes stellt die Grundlage für Wissensaustausch und Wissenskombination dar, wobei es hier wichtig für den Akteur ist, den Wert der einzelnen Beziehungen zu kennen. Reichen die Beziehungen der Akteure über die Grenzen des Netzwerkes hinaus, erleichtert eine gemeinsame Wissensbasis den Transfer von Wissen und das Lernen voneinander. Je komplexer ein Akteur in der Lage ist zu netzwerken, umso leichter fällt es ihm komplexes Wissen zu entwickeln, zu transportieren und mit dem im Netzwerk vorhandenen Wissen zu kombinieren. Neben der großen Bedeutung von Netzwerkbeziehungen und deren Gestaltung für den Wissensgewinn und -austausch, spielt vor allem das von der Organisation/ dem Netzwerk getätigte Wissensmanagement auf allen Ebenen der Informationsverarbeitung eine entscheidende Rolle. Die systematische Förderung von Kreativität zur Ideengenerierung, sowie die Gestaltung von Strategien zum Wissenstransfer zwischen Akteuren und das Zugänglichmachen von im Netzwerk vorhandenem Wissen stellt eine wichtige Voraussetzung für Innovationen in Netzwerken dar. Auflösung. Beziehungen innerhalb von Netzwerken beschränken sich nicht allein auf die Verbindung zweier, isoliert zu betrachtender Akteure. Vielmehr formen diese Dyaden ein komplexes Muster an Konnektivitäten und Verzweigungen über die Dyade hinaus (Kilduff & Brass, 2010). Möchte man untersuchen durch welche Faktoren das Netzwerk grundlegend aufrechterhalten bleibt, spielt der mathematisch bzw. computerwissenschaftliche Begriff der Connectivity (graph theory) eine zentrale Rolle. Die Konnektivität gibt die minimale Anzahl an Verbindungen, also Knoten und/oder Kanten, an, die entfernt werden muss, um das gesamte Netzwerk aufzulösen. Hier sind bestimmte Hauptakteure, Strippenzieher im Fokus. Diese sogenannten "weak ties" (Granovetter, 1973) haben eine besonders wichtige Position innerhalb des Netzwerkes, da sie Brückenglieder zwischen anderen Akteuren sind, die ohne sie keinen oder nur erschwerten Kontakt über längere Umwege hätten. So kann es sein, dass ein weit verzweigtes Netzwerk nur die Entfernung nur eines Akteuers vollständig zusammenbricht. Praktisch relevant ist das Wissen über Konnektivitäten beispielsweise bei der Bekämpfung von Terrornetzwerken. Netzwerkmanagement. Sydow und Windeler (1997) unterscheiden folgende 4 Funktionen des interorganisationalen Managements. Selektion. Die grundlegende Überlegung hierbei ist, wer soll ins Netzwerk aufgenommen werden bzw. wer soll im Netzwerk verbleiben. Die Partner müssen hierfür eine Passung von der Intention und der Eignung aufweisen, um somit die Netzwerkziele zu erfüllen. Zu differenzieren sind die Positivselektion (Auswahl geeigneter Netzwerkpartner), Negativselektion (Aussortierung ungeeigneter Netzwerkpartner) und die Re-Selektion (Auswahl bewährter Partner). Allokation. Im Wesentlichen handelt es sich hierbei um die Verteilung von Ressourcen, Zuständigkeiten und Aufgaben. Diese Verteilung sollte entsprechend der jeweiligen Kompetenzen bzw. der Konkurrenzvorteile erfolgen. Regulation. An dieser Stelle wird die Frage aufgeworfen, wie und worüber die Erledigung der Aufgaben aufeinander abgestimmt werden sollen. Im Zentrum steht dabei die Ausarbeitung von informellen und formellen Regeln der Zusammenarbeit. Evaluation. Von Bedeutung in diesem Zusammenhang sind die Verteilung und Bestimmung der Kosten und des Nutzens im Netzwerkzusammenhang. Die Analyse kann sich hierbei auf das gesamte Netzwerk, auf ein Teilnetzwerk oder auf einzelne dyadische Beziehungen beziehen. Fazit. Diese Funktionen sind als ständige Aufgabe des Managements zu verstehen. Entscheidung ist die Ausbalancierung der daraus resultierenden Spannungsverhältnisse: Autonomie vs. Abhängigkeit; Vertrauen vs. Kontrolle, Kooperation vs. Wettbewerb. Dies gilt es bei der Netzwerksteuerung zu berücksichtigen und im Netzwerk auszutarieren. Netzwerkberatung. Unter Netzwerkberatung versteht man die Beratung von Netzwerken als Organisationsform, also die Beratung von rechtlich selbstständigen Akteuren, die in einem Netzwerk kooperieren. Sie umfasst alle Interventionen, die sich auf die Bildung, das Management, die (Weiter-) Entwicklung und auch die Beendigung dieser interorganisationalen Arrangements richten. Einzelne Akteure können Adressat (– deren Einzelinteressen jedoch nicht ausschließlicher Inhalt –) der Beratung sein: Die Abgrenzung zur Organisationsberatung besteht in der angestrebten Berücksichtigung der Interessen und Bedürfnisse des gesamten Netzwerks. Beratungsansätze. Sydow (2006) nennt drei Ansätze, die im Wesentlichen der Organisationsberatung entstammen und für die Netzwerkberatung spezifiziert bzw. angepasst werden können: inhaltsorientierte, prozessorientierte und reflexive Beratung. Bei der inhaltsorientierten Beratung steht die Vermittlung von Fachwissen im Mittelpunkt. Die Beratung ist dabei an die inhaltliche Expertise des Beraters geknüpft, sowie an dessen Fähigkeit, Probleme zu definieren und entsprechende vorgefertigte Lösungen bieten. Ein klassisches Beispiel ist die Vermittlung von „Best Practices“. Der prozessorientierte Beratungsansatz geht hingegen davon aus, dass nicht neues Wissen von außen eingebracht werden muss, sondern bereits latent im System vorhanden ist. Aufgabe der Beratung ist, den Prozess der Wissensmobilisierung zu aktivieren und zu begleiten, um so konkrete Probleme zu lösen. Um diese Begleitung zu leisten, ist der Ansatz strukturoffen und phasenspezifisch-zyklisch: Der Diagnose folgt eine Intervention und darauf hin eine aktualisierte Diagnose und angepasste Intervention (vgl. auch die systemische Schleife). Des Weiteren lässt sich laut Sydow in beide oben genannte ein flexibler Grad von „Reflexivität“ (abgeleitet Moldaschl) integrieren. Dies erfordert u. a. eine stärkere Einfühlung in komplexe Kontexte, Systemrationalitäten und Anerkennung der unüberschaubaren Dynamiken im Handlungsverlauf. Reflexivität fordert eine große Bewusstheit und Aktivität der Berater und Klienten. Verschiedenste Perspektiven, inklusive der des Beraters, sollen berücksichtigt werden. Evaluation und Metaberatung werden verstärkt gefordert. Der inhaltsorientierte Ansatz besitzt in Bezug auf die Steuerung von komplexen Systemen eine sehr steuerungsoptimistische Perspektive. Laut Sydow wird die Perspektive durch mehr Reflexivität realistischer. Der prozessorientierte Ansatz, der vom Wesen her steuerungspessimistisch ist, gewinnt an Optimismus. Durch die veränderten Anforderungen der gesteigerten Komplexität und Dynamik in Organisationen, die in Netzwerken zusammenarbeiten, scheint sich der vermehrte Einsatz von Prozessberatung und insbesondere Reflexivität hier besonders anzubieten. Erscheinungsformen der Netzwerkberatung. Die Netzwerkberatung kann durch einen einzelnen Berater bzw. ein einzelnes Beratungsunternehmen erfolgen. Bei dieser Form der Beratung wird weiterhin unterschieden zwischen externer (durch ein eigenständiges Beratungsunternehmen) und interner Beratung (durch eine Beratungsabteilung innerhalb der Organisation). Eine zweite Form der Netzwerkberatung stellt die Vernetzung von Beratern und Beratungsunternehmen dar. Dabei sind die einzelnen Berater und Beratungsunternehmen rechtlich selbstständige Akteure, aber wirtschaftlich, aufgrund eines gemeinsamen Auftrages, mehr oder weniger voneinander abhängig. Tendenziell handelt es sich bei Beratungsnetzwerken um längerfristige Kooperationen, die häufig arbeitsteilig agieren. Vorteile von Beratungsnetzwerken sind die Bündelung von Kompetenzen, die Förderung von Lernen und Innovationen, die Auslastung von Kapazitäten und die Akquisition neuer Kunden. Aufgaben der Netzwerkberatung. von interorganisationalen Arrangements zwischen zwei oder mehr Organisationen. Instrumente der Netzwerkberatung. In der Netzwerkberatung können die eingesetzten Instrumente entweder der Fach- oder der Prozessberatung zugeordnet werden (Sydow, J. & Manning, S., 2006). Die Instrumente der Fachberatung zielen eher auf die Bewertung von Ist- und Sollzuständen ab und dienen u. a. Die Instrumente der Prozessberatung wurden aus der klassischen Organisationsentwicklung übernommen. Genutzt werden Mediation, Moderation und Coaching, um die Netzwerkpartner bei ihrer gemeinsamen Entwicklung von Zielen und Handlungsschritten zu unterstützen. Netzwerkmoderation. Moderation ist eine externe und neutrale Unterstützung von Gruppenprozessen. In einem Netzwerk sind die Mitglieder häufig nicht einzelne Personen, sondern Organisationen, die ihrerseits wieder von Personen repräsentiert werden. Entsprechend komplex sind ihre Struktur und ihre Beziehungen. Netzwerke als freiwillige Zusammenschlüsse können nicht mit hierarchischer Macht gesteuert werden. Deshalb ist der dominante Kooperationsmodus die Verhandlung, die nicht selten der Moderation bedarf. Netzwerkevaluation. Generelles Ziel der Evaluation von Netzwerken ist das Bemühen um eine kontinuierliche Verbesserung der Netzwerkarbeit. Die Fragen, wie man den Erfolg von Netzwerken – innerhalb eines Zusammenschlusses von mehreren verschiedenen Akteuren – misst und was in diesem Zusammenhang Erfolg bedeutet, sind mit den vorhandenen Methoden und Instrumenten der betriebswirtschaftlichen Erfolgsmessung und Bewertung nicht mehr hinreichend zu beantworten. Um in einem Netzwerk zielgerichtet und wirksam handeln zu können, braucht es Klarheit über den internen Zustand des Netzwerkes (Zufriedenheit und Engagement der Mitglieder, Stand der Arbeit, Entwicklungsperspektiven etc.) wie darüber, wie es nach außen wirkt (Image, Wahrnehmung der Resultate durch die Stakeholder, Verbindung mit anderen Initiativen etc.). Eine solche umfassende Analyse erforderte eine Triangulation der Perspektiven, d. h. die Verbindung und den Abgleich von Informationen und Rückmeldungen aus verschiedenen Quellen und vor unterschiedlichem Hintergrund. Werden alle zugänglichen Informationen ausgewertet, können diese schnell einen kaum noch zu bewältigenden Umfang haben. Deshalb sollten die Informationen mit einem Analyseraster aufbereitet werden, das ein Zusammenfassen, Sortieren, Kombinieren und Vereinfachen erlaubt, ohne wesentlich an Substanz zu verlieren. Dafür hat die GTZ, später GIZ (Deutsche Gesellschaft für Internationale Zusammenarbeit) aufbauend u. a. auf Neugebauer & Bleywl (2006) und Sülzer (2008) ein Werkzeug zur Analyse und Evaluation von Netzwerken ausgearbeitet (GTZ 2010, GIZ 2011). Hauptaspekte. Die sechs konstituierenden Dimensionen eines Netzwerkes Zu jedem dieser drei Hauptaspekte lassen sich zwei konstituierende Dimensionen definieren, so dass eine umfassende Beschreibung eines Netzwerks mit insgesamt sechs Dimensionen möglich ist. Diese sechs Dimensionen werden in erfolgskritische Merkmale heruntergebrochen, die im Folgenden beschrieben sind. Dimensionen der Netzwerkarbeit und ihre Merkmale. Diese Merkmale können nach einem Punktsystem bewertet und die Ergebnisse bei Bedarf numerisch wie grafisch aufbereitet werden. Naturalwirtschaft. Eine Naturalwirtschaft ist das Gegenteil zur "Geldwirtschaft". In der Naturalwirtschaft muss jeder Mensch alle seine Bedürfnisse und Wünsche selbst befriedigen, sofern keine Regierung dies in einem richtigen Kreislauf mit Gesetzgebung organisiert. Arbeitsteilung geschieht in Form von Gemeinschaften oder durch direkten Tauschhandel, aber nicht mit Hilfe eines allgemein akzeptierten Tauschmittels, welches den Begünstigten zum Handel mit Gütern befähigt. Die Einführung von "Geldwirtschaft" ermöglichte Spezialisierungen und damit eine arbeitsteilige Wirtschaft. Das "System der Naturalwirtschaft" kommt im Mittelalter bei der Villikationsverfassung vor. Lenin versuchte nach der Revolution von 1917 eine Abschaffung des Geldes als Zahlungsmittel. Dies führte zu einer Hyperinflation bzw. zu Hungersnöten. Niklaus Wirth. Niklaus Wirth (* 15. Februar 1934 in Winterthur) ist ein Schweizer Informatiker. Er entwickelte unter anderem Pascal, eine der bekanntesten Programmiersprachen. Leben. Niklaus Wirth als junger Mann 1959 Diplom-Elektroingenieur an der Eidgenössischen Technischen Hochschule Zürich, 1960 M.Sc. an der Université Laval in Kanada, promovierte Niklaus Wirth 1963 an der University of California in Berkeley. Nach Assistenzprofessuren an der Stanford University und der Universität Zürich kehrte er 1968 an die Eidgenössische Technische Hochschule zurück, wo er bis 1999 als Professor für Informatik lehrte und forschte. In den Jahren 1976 bis 1977 sowie 1984 bis 1985 erfolgte je ein Studienaufenthalt im Palo Alto Research Center (PARC) von Xerox. Ausgehend von seiner Dissertation entwickelte Wirth im Jahre 1966 zusammen mit Helmut Weber in Stanford die Programmiersprache Euler. Wirth entwarf die Programmiersprache PL360, die 1968 auf dem System IBM /360 implementiert wurde. Er beteiligte sich an der Weiterentwicklung und Verallgemeinerung der Sprache Algol. Insbesondere schuf er in Zusammenarbeit mit C.A.R. Hoare die Sprache Algol W und wirkte an der Entwicklung von Algol 68 mit. Enttäuscht über die stetig zunehmende Komplexität der Entwürfe zu dieser Sprache definierte und implementierte er in den Jahren 1968 bis 1972 praktisch im Alleingang die Programmiersprache Pascal. Dabei erweiterte er auch die formale Sprache Backus-Naur-Form (BNF), die zur Notation der Syntax von Algol 60 eingesetzt wurde, zur Erweiterten Backus-Naur-Form (EBNF). Später entwarf er die Pascal-Nachfolger Modula (1973–1976), Modula-2 (1977–1980) und Oberon (1985–1990), denen trotz ihrer klaren Konzepte und ihrer ultimativen Einfachheit nicht der gleiche Erfolg beschieden war wie ihrem Urahn. Im Anschluss an seine Gastaufenthalte im Xerox PARC baute Wirth die Computersysteme Lilith (1980) und Ceres (1986) sowie die zugehörigen Betriebssysteme. Trotz ihrer zum Teil bahnbrechenden Charakteristiken hatten Versuche, diese Workstations kommerziell zu vermarkten, wenig Erfolg. Sein Jugendhobby, den Modellflugs aufgreifend, stattete er u. a. mehrere selbstnavigierende Modellhubschrauber mit Oberon-programmierten Bordcomputern aus. Von seinem Aufenthalt im Xerox 1980 brachte er als einer der ersten Computermäuse nach Europa mit, die in die erste Serienmaus der Welt des Schweizer Unternehmens Logitech mündeten. Wirth erhielt zahlreiche Ehrungen u. a. im Jahr 1984 den ACM Turing Award als erster und bisher einziger deutschsprachiger Informatiker (Stand 2013), sowie 1988 den IEEE Computer Pioneer Award. Nicholas Sparks. Nicholas Charles Sparks (* 31. Dezember 1965 in Omaha, Nebraska) ist ein US-amerikanischer Schriftsteller. Leben. Nicholas Sparks’ Familie wechselte häufig den Wohnort. Sie zog von Omaha nach Minnesota, 1969 weiter nach Los Angeles, von dort für ein Jahr nach Grand Island (Nebraska) und schließlich nach Fair Oaks, Kalifornien. Nicholas Sparks erhielt nach seinem Schulabschluss 1984 ein Leichtathletik-Stipendium für die University of Notre Dame (Notre Dame, Indiana). Sparks hält einen universitären Rekord im Staffellauf. Nach dem Abschluss seines Bachelor-Studiums in Business Finance 1988, welches er mit Auszeichnung absolvierte, gelang es ihm aber nicht, die Zulassung zum Jura-Studium zu bekommen. Da auch seine beiden ersten Romane, die er während des Studiums verfasst hatte, abgelehnt worden waren, schlug er sich mit verschiedenen Jobs durch. Unter anderem arbeitete er als Immobilienmakler, renovierte Häuser, jobbte als Kellner und Telefonverkäufer, bis er dann eine eigene kleine Firma gründete, die jedoch bald mit finanziellen Schwierigkeiten zu kämpfen hatte und verkauft wurde. Danach arbeitete er als Arzneimittelvertreter. Die beiden während seiner Universitätszeit entstandenen Romane blieben unveröffentlicht. 1990 verfasste er zusammen mit Billy Mills "Wokini oder Die Suche nach dem verborgenen Glück", das von einem kleinen Verlag veröffentlicht wurde. Im Juni 1994 begann Sparks einen Roman nach der Geschichte der Großeltern seiner Frau, der unter dem Titel "Wie ein einziger Tag" erschien und sein erster weltweiter Bestseller wurde. Es folgten weitere Romane, die teilweise verfilmt wurden. Er ist mit seiner Frau Catherine (Cathy) seit 1989 verheiratet und lebt in North Carolina, wo auch die meisten seiner Romane spielen. Das Paar hat fünf Kinder: Landon, Miles, Ryan, Lexie und Savannah. Die Namen seiner Kinder verwendete Sparks für Hauptfiguren seiner Bücher (den Namen Miles Ryan in "Weg der Träume", Landon Carter in "Nur mit Dir – A Walk to Remember", Savannah Curtis in "Das Leuchten der Stille" und Lexie Darnell in "Die Nähe des Himmels"/"Das Wunder des Augenblicks"). Auch nach seiner Frau wurde eine Buchfigur benannt (in "Weit wie das Meer"). Im Jahr 2008 gründete Sparks eine christliche Schule in New Bern, North Carolina, die "„Epiphany School of Global Studies“". Einzelnachweise. ! Newsreader (Usenet). Ein Newsreader (auch "Newsclient" oder "NUA" für news user agent) ist ein Computerprogramm zum Lesen und Schreiben von Nachrichten in Newsgroups des Usenets. Die Newsreader-Programme (z. B. Mozilla Thunderbird) müssen meist zuerst auf dem Rechner installiert werden. Als Alternative zum Newsreader existieren für die Teilnahme am Usenet auch Webschnittstellen wie etwa Google Groups. Der Vorteil solcher Webschnittstellen ist ein geringerer Anfangsaufwand bei der Installation und beim Lernen des Umgangs, ein Nachteil die oft eingeschränkte Funktionalität. Funktionalität. In diesem Abschnitt werden die wichtigsten Aspekte eines Newsreaders erläutert. Server-Kommunikation. Newsreader können meist mit einem oder mehreren Newsservern Daten austauschen. Dabei handelt es sich um Rechner im Netz, die fremde Artikel bereitstellen und eigene Artikel weiterleiten. Das am häufigsten verwendete Protokoll ist dabei NNTP. Bei der Inbetriebnahme eines Newsreaders gibt der Benutzer entsprechende Zugangsdaten (Server-Hostname, Port, Benutzerkennung und Passwort) an, lädt sich die Liste der verfügbaren Gruppen herunter und wählt daraus diejenigen Gruppen aus, an denen er teilnehmen möchte. Der Benutzer kann sich dann Artikeldaten in diesen Gruppen herunterladen, und zwar Datenspeicherung. Je nach Newsreader werden Artikeldaten lokal zwischengespeichert oder stets vom Server gelesen. Die lokale Speicherung erfordert mehr Speicherplatz auf seiten des Benutzers, lässt aber auch den Offline-Betrieb zu, um Online-Kosten zu minimieren. Oft ist im Offline-Betrieb auch ein schnelleres Arbeiten möglich, und in Artikeln kann eine Volltextsuche angeboten werden. Außerdem kann der Newsreader speichern, welche Artikel der Benutzer schon gelesen hat. Benutzeroberfläche. Es gibt sowohl Newsreader für den Textmodus als auch solche für den Grafikmodus. Typischerweise bietet ein Newsreader die Möglichkeit zur Anzeige von und Navigation in Die Artikelübersicht einer Gruppe bietet meist eine Baumansicht, in der Threads visualisiert werden, also logisch zusammengehörende Artikel (Originalartikel und beliebig tief verschachtelte Antwortartikel). Schreiben von Artikeln. Je nach Newsreader wird das Schreiben von neuen Artikeln in einem internen oder externen Texteditor ermöglicht. Anschließend wird der Artikel sofort oder bei der nächsten Online-Verbindung an den Server versendet, damit dieser ihn unmittelbar an die ihm bekannten Server und mittelbar an alle anderen Leser der Gruppen weitergibt, in die dieser Artikel gesetzt wurde. Binärdaten. Newsreader für binäre Gruppen sind zudem in der Lage, die oft in viele Einzelartikel zerteilten und mit Verfahren wie yEnc kodierten Binärdateien zu laden. Zudem ist der umgekehrte Vorgang möglich, d. h das Zerteilen von Binärdateien, ihre Kodierung und das Versenden in entsprechende Gruppen. Geschichte. Die ersten Newsreader (z. B. readnews) waren zeilenorientiert. vnews von Kenneth Almquist war wohl der erste seitenorientierte Newsreader. Seine Bedienung war sehr an die von "readnews" angelehnt, aber auch notes beeinflusste das Programm. Mit rn von Larry Wall erblickte 1984 ein weiterer seitenorientierter Newsreader das Licht der Welt. "rn" hat eine ganze Reihe von nachfolgenden Newsreadern inspiriert wie z. B. trn von Wayne Davison, xrn von Rick Spickelmier oder 1994 slrn von John E. Davis. Kim F. Storm schrieb ebenfalls 1984 nn, einen der wenigen Newsreader, die nicht von "readnews" bzw. "vnews" abstammen oder beeinflusst wurden. Auch tass von Rich Skrentas basiert eher auf "notes" als auf "readnews"; er diente Iain Lea 1991 als Ausgangsbasis für tin. Nach einer Reihe diverser Entwicklungen bei Newsreadern schrieb Ron Newman 1994 ein Dokument, das die minimalen Anforderungen an einen Newsreader beschreibt. Aus diesem Dokument wurde später das. Mittlerweile ist daraus ein Testformular entstanden, mittels dessen diverse Clients auf ihre „Tauglichkeit“ geprüft werden können. Nandu. Der Nandu ("Rhea americana") ist ein flugunfähiger Vogel, der in Südamerika beheimatet ist. Er gehört zur Ordnung der Laufvögel (Struthioniformes). Zusammen mit dem Darwin-Nandu ("Pterocnemia pennata") bildet er die Familie der Nandus (Rheidae). Die Art ist in Deutschland als Neozoon etabliert. In der Lebensweise unterscheidet sich der große Nandu wenig vom Darwin-Nandu. Beide Arten sind ausführlich im Artikel Nandus beschrieben. Merkmale. Mit einer Scheitelhöhe von 1,25 bis 1,40 Metern (Rückenhöhe etwa 1 Meter) und einem Gewicht von 20 bis 25 Kilogramm ist der Nandu der größte Vogel der Neuen Welt. Dies betrifft vor allem die Männchen, denn wie beim Strauß sind auch beim Nandu die Hähne im Durchschnitt etwas größer als die Hennen. Nandus haben ein lockeres, zerfleddert aussehendes Federkleid und besitzen die größten Flügel aller Laufvögel. Die Beine sind lang und kräftig, während die Füße im Gegensatz zu Straußen drei Zehen besitzen. Auf der Flucht erreicht er Geschwindigkeiten von bis zu 60 km/h. Das Gefieder ist grau oder braun, zwischen den Individuen variiert die Farbgebung stark. In der Regel sind Männchen etwas dunkler und größer als Weibchen, was aber kein zuverlässiges Unterscheidungsmerkmal ist. Albinos tauchen auffällig häufig auf. Die einzelnen Unterarten werden vor allem durch die Anteile schwarzer Federn an der Halsbefiederung unterschieden. Verbreitung und Lebensraum. Das Verbreitungsgebiet erstreckt sich von der Pampa, dem Grasland im zentralen Argentinien und Uruguay, über den Gran Chaco bis in den Nordosten von Brasilien. Die Art ist außerdem in Deutschland als Neozoon etabliert, die einzige bekannte Population in Mitteleuropa, die sich nach Ausbrüchen aus Gehegen etablieren konnte. Nandus bewohnen Savannenhabitate, fehlen also in Wäldern. Im Gegensatz zum Darwin-Nandu ist der Nandu ein Bewohner des Flachlands, der große Höhen meidet. Ebenso meidet der Nandu kalte Klimazonen und kommt südlich des 40. Breitengrads nicht mehr vor. Der Nandu ist laut IUCN „gering gefährdet“. Wilde Nandus in Norddeutschland. Im Jahr 2000 entwichen mehrere Nandus aus einer Freilandhaltung in Schleswig-Holstein nahe der Landesgrenze zu Mecklenburg-Vorpommern, die von dort in den Landkreis Nordwestmecklenburg wechselten und dort in der Niederung der Wakenitz, im Raum zwischen Schattin und Herrnburg, sowie weiter südlich bei Utecht beobachtet wurden. Bereits 2001 gab es einen erfolglosen Brutversuch sowie den Nachweis einer erfolgreichen Brut durch die Beobachtung eines Männchens mit 14 Küken, weitere erfolgreiche Bruten wurden 2002 (1), 2003 (mindestens 3) und 2004 (mindestens 5) dokumentiert. Im Jahr 2002 konnten in der Wakenitzniederung bereits 11 Nandus nachgewiesen werden, 2004 waren es im Raum Schattin – Utecht – Duvennest bereits 20. Bis August 2009 war der Bestand auf etwa 80 Tiere gewachsen, im März 2011 ging man von einem Bestand von über 100 Exemplaren aus. Zählungen von Rangern des Biosphärenreservats Schaalsee ergaben im Herbst 2014 144 Tiere, im Frühjahr 2015 120 Tiere und im Herbst 2015 177 Tiere im rund 100 Quadratkilometer großen Verbreitungsgebiet östlich des Ratzeburger Sees. Die Art ist offenbar recht anpassungsfähig, in Mecklenburg-Vorpommern bewohnen Nandus vor allem Stilllegungsflächen mit flächigen Trocken- und Halbtrockenrasen und Kiefernforsten, wurden aber auch auf Grünland, Äckern und in Laubwald beobachtet. Im Winter suchen die Tiere auf Rapsäckern und Stilllegungsflächen nach Nahrung. Gelegefunde erfolgten bisher in Trockenrasen, Staudenfluren, auf Getreide- und Rapsäckern sowie im Laubwald. Die Bewertung des Nandu als Brutvogel in Deutschland ist selbst in Naturschutzkreisen sehr unterschiedlich. So wird die Auflösung der Bestände, also Tötung aller Nandus, gefordert. Dies wird mit dem Vorsorgeprinzip begründet, da der Nandu sich als invasive Art erweisen könnte. Als invasive Arten werden nach Bundesnaturschutzgesetz (BNatSchG) § 40 solche Arten deklariert, die heimische Ökosysteme, Biotope und Arten gefährden. Dem Nandu wird Invasionspotenzial zugeschrieben, weil eine Gefährdung anderer Bodenbrüter und Bodenfauna nicht auszuschließen sei. Andere Experten wollen den Nandu auf die "Graue Liste" setzen. Auf die "Graue Liste" sollen potenziell invasive Arten gesetzt werden, um diese durch die Behörden beobachten zu lassen. Bisher geäußerte Befürchtungen von einer möglichen Gefährdung von Bodenbrütern, Reptilien und Insekten haben sich bisher durch Feldforschungen und Magenuntersuchungen nicht bestätigt. Nach § 40 Abs. 2 BNatSchG muss vor Bekämpfungs-Maßnahmen erst geklärt werden, ob eine Art tatsächlich invasiv ist, also heimische Ökosysteme, Biotope und Arten gefährdet. Unterarten. Fünf Unterarten werden anerkannt. Sie sind nur schwer auseinanderzuhalten; vor allem die Schwarzfärbung des Halses, die bei allen unterschiedlich ausgeprägt ist, gilt als Identifikationsmerkmal. Etymologie. „Nandu“ ist abgeleitet von "ñandu guasu" ("guasu" groß und "ñandu" Spinne in Guaraní), da der Nandu in Balz-Pose einer großen Spinne ähnelt. Nationalsozialistische Deutsche Arbeiterpartei. Die Nationalsozialistische Deutsche Arbeiterpartei (NSDAP) war eine in der Weimarer Republik gegründete politische Partei, deren Programm beziehungsweise Ideologie (der Nationalsozialismus) von radikalem Antisemitismus und Nationalismus sowie der Ablehnung von Demokratie und Marxismus bestimmt war. Sie war als straffe Führerpartei organisiert. Ihr Parteivorsitzender war ab 1921 der spätere Reichskanzler Adolf Hitler, unter dem sie Deutschland in der Diktatur des Nationalsozialismus von 1933 bis 1945 als einzige zugelassene Partei beherrschte. Sie wurde nach dem Ende des Zweiten Weltkriegs 1945 durch das alliierte Kontrollratsgesetz Nr. 2 mit allen ihren Untergliederungen als verbrecherische Organisation eingestuft und damit verboten und aufgelöst, ihr Vermögen wurde beschlagnahmt und eingezogen. Das bedeutete in der sowjetischen Besatzungszone, der späteren DDR, gleichzeitig das bis zur Deutschen Wiedervereinigung geltende Verbot, ihre Symbole zu besitzen oder sie zu zeigen, gleich aus welchem Grund. Ab 1949 war auch in der Bundesrepublik jede Werbung für sie durch Schriften, Worte oder Kennzeichen verboten, wobei allerdings der private Besitz nicht eingeschränkt wurde. Eine der Bundesrepublik gleichartige Regelung war mit dem Verbotsgesetz in Österreich vier Jahre zuvor, 1945, getroffen worden. Anfänge und Verbot 1923. Die NSDAP ging aus der Deutschen Arbeiterpartei (DAP) durch deren Umbenennung am 24. Februar 1920 hervor. Die Gründung erfolgte im Münchner Hofbräuhaus. Am selben Tag veröffentlichte die Partei ihr 25-Punkte-Programm mit den Hauptpunkten Aufhebung des Versailler Friedensvertrages, Entzug der deutschen Staatsbürgerschaft von Juden und „Stärkung der Volksgemeinschaft“. An diesem Abend wurde die Bezeichnung NSDAP etabliert (das Kürzel „NS“ sollte die Besonderheit der Partei hervorheben und wurde von Hitler, Eckart, Esser, Heß, Röhm und Feder an der Parteiführung vorbei eingeführt). Die offizielle Ummeldung in NSDAP war bereits am 20. Februar 1920 vollzogen worden. Kurz danach begann die NSDAP, die ersten Mitgliedsausweise auszugeben. Und da sie nicht als „unbedeutende Kleinstpartei“ dastehen wollte, begann das offizielle Parteiverzeichnis mit der Nummer 501. Hitler wurde in diesem Verzeichnis mit der Nummer 555 geführt. 1922 ergingen eine Reihe von NSDAP-Verboten in mehreren deutschen Ländern: In Baden am 4. Juli und in Thüringen am 15. Juli. Auf Grundlage des Republikschutzgesetzes vom 21. Juli 1922 folgten Verbote in Braunschweig (13. September), Hamburg (18. Oktober), Preußen (11. November) und Mecklenburg-Schwerin (30. November). Der Vollzug der Verbote war von unterschiedlicher Schärfe. In Preußen führte das NSDAP-Verbot auch zum Verbot der dortigen NSDAP-Tarnorganisation Großdeutsche Arbeiterpartei, die ursprünglich als erste norddeutsche NSDAP-Ortsgruppe gegründet werden sollte. Bis 1923 konnte die NSDAP vor allem in Bayern größeren Anhang gewinnen und nahm die durch Ruhrkampf und Inflation desolate Lage im Deutschen Reich zum Anlass für den Hitlerputsch, der am 9. November 1923 kläglich scheiterte. Am selben Tag übertrug Reichspräsident Friedrich Ebert auf Grundlage von Artikel 48 der Weimarer Reichsverfassung die vollziehende Gewalt an den Chef der Heeresleitung Hans von Seeckt. Dieser erließ am 23. November 1923 ein reichsweites Verbot gegen die NSDAP, das bis Februar 1925 gelten sollte. Das gesamte Parteivermögen wurde konfisziert, die Geschäftsstelle in München geschlossen, die Parteizeitung Völkischer Beobachter verboten. Ebenfalls verboten wurden die Deutschvölkische Freiheitspartei (DVFP), deren Vorsitzender Erich Ludendorff beim Putsch eine zentrale Rolle gespielt hatte, und die Kommunistische Partei Deutschlands, deren Hamburger Aufstand wenige Wochen zuvor gescheitert war. Hitler befand sich ab dem 11. November 1923 in Untersuchungshaft. In einem Prozess vor dem Münchner Volksgericht wurde er am 1. April 1924 wegen Hochverrats zu fünf Jahren Festungshaft verurteilt, von denen er aber nur wenige Monate verbüßen musste. Zuvor hatte er den Chefredakteur des Völkischen Beobachters Alfred Rosenberg beauftragt, für den Zusammenhalt der Nationalsozialisten zu sorgen. Unter dem Pseudonym Rolf Eidhalt (ein Anagramm aus Adolf Hitler) gründete dieser die Großdeutsche Volksgemeinschaft. Es fehlte ihm aber die nötige Autorität, um die Zersplitterung der Bewegung zu verhindern. Von der Parteispitze wurde er bald durch Hermann Esser und Julius Streicher verdrängt. Daneben bildete sich ein „Völkischer Block in Bayern“ unter Alexander Glaser, der ebenfalls um nationalsozialistische Stimmen warb. Andere Nationalsozialisten wie Gottfried Feder, Gregor Strasser und Wilhelm Frick schlossen ein Wahlbündnis mit Ludendorff und seiner eher bürgerlich-nationalistischen DVFP, die nach dem Freispruch ihres Vorsitzenden im Hitlerprozess rasch wieder zugelassen worden war. Unter dem Namen Nationalsozialistische Freiheitspartei traten sie bei den Reichstagswahlen vom 4. Mai 1924 an und erreichten 6,6 Prozent der Stimmen. Hitler befürchtete, dadurch würde aus seiner „Bewegung … eine rein bürgerliche Konkurrenzpartei“, und lehnte diese Zusammenarbeit entschieden ab. Aus der Haft konnte er auf die Entwicklung aber keinen Einfluss nehmen. Im August 1924 schlossen sich Deutschvölkische und Nationalsozialisten organisatorisch zur „Nationalsozialistischen Freiheitsbewegung Großdeutschlands“ zusammen, die von Ludendorff, Gregor Strasser und Albrecht von Graefe geführt wurde. Die organisatorische Einheit überdeckte nur oberflächlich die heftigen inneren sachlichen und persönlichen Gegensätze, die die neue Partei prägten. Bei den Reichstagswahlen vom 7. Dezember 1924, bei der die republikfeindlichen Kräfte allgemein stark verloren, erlangte sie nur noch 3 Prozent der abgegeben Stimmen. Eine weitere Splittergruppe bildete sich in Norddeutschland. Die „Nationalsozialistische Arbeitsgemeinschaft“ des Lüneburger Rechtsanwalts Adalbert Volck verstand sich als „reine Hitlerbewegung“ und trat strikt antiparlamentarisch auf. Reorganisation und Splitterpartei 1924–1930. Veranstaltungsplakat zur Wiedergründung der NSDAP, München, Februar 1925 Beschlagnahmte Waffen von NSDAP-Versammlungen am 9. Oktober 1929 in Berlin, in einer Landtagsitzung präsentiert Nach seiner Entlassung aus der Festungshaft im Dezember 1924 wurde Hitler, obwohl er damals noch österreichischer Staatsbürger war, nicht ausgewiesen, sondern durfte im Deutschen Reich bleiben. Er löste die NSDAP aus dem Bündnis mit den Völkischen und begann mit der Reorganisation zu einer Führerpartei mit dem Ziel einer legalen Machtübernahme. Im Februar 1925 wurde die Partei neu gegründet. Im Juli 1925 erschien erstmals der erste Band von Hitlers Buch Mein Kampf; im Dezember 1926 der zweite. In der Zeit bis zu den Reichstagswahlen 1928 war die NSDAP nur eine von mehreren antisemitisch-völkischen Parteien, zeigte aber spätestens bei der Reichstagswahl ihre herausragende Stellung innerhalb dieses politischen Spektrums. 1929 erlangte die Partei durch gemeinsame Agitation mit der DNVP und dem Stahlhelm im Rahmen der Kampagne gegen den Young-Plan reichsweite Aufmerksamkeit. Die viel gelesenen Zeitungen des deutschnationalen Großverlegers Alfred Hugenberg machten die NSDAP und besonders Adolf Hitler überall im Reich bekannt, obwohl die Kampagne selbst im Dezember 1929 mit nur 15 Prozent Zustimmung scheiterte. Finanziert wurden diese und die folgenden Agitationen und Wahlkämpfe weniger durch Spenden aus der Großindustrie, die vom „Sozialismus“ im Parteinamen abgeschreckt wurden und lieber die DVP und die DNVP unterstützten (einzelne nationalsozialistische Schwerindustrielle wie Fritz Thyssen und Emil Kirdorf waren Ausnahmen). Wichtiger waren Zuwendungen der mittelständischen Industrie, vor allem aber die vergleichsweise hohen Mitgliedsbeiträge (ein Finanzierungsinstrument, das die Nationalsozialisten von der SPD übernommen hatten) sowie die Eintrittsgelder zu Veranstaltungen mit Hitler oder Goebbels, für die zwischen 50 Pfennig und zwei Mark verlangt wurden – der durchschnittliche Monatslohn eines Arbeiters lag bei 180 Mark, ein Student oder ein Arbeitsloser mit Familie musste mit etwa 80 Mark auskommen. Zwischen 1925 und 1930 stieg die Mitgliederzahl der Partei von 27.000 auf 130.000. Die NSDAP nutzte die Weltwirtschaftskrise und die damit einhergehende Massenverelendung, welche ihr antikapitalistisches, antiliberales und vor allem antisemitisches Programm gegen das „internationale Finanzjudentum“ in der Bevölkerung stützte. Schon 1926 wurde parteiintern der Hitlergruß eingeführt und Hitler als Führer bezeichnet. Nach dem verheerend schlechten Ergebnis bei den Reichstagswahlen 1928, als sich die NSDAP mit 2,6 Prozent der Stimmen begnügen musste, erging die Weisung an alle Parteigliederungen, in ihrer Propaganda den Antisemitismus zurückzuschrauben, der vor allem auf bürgerliche Kreise abschreckend wirkte. Von nun an setzte die NSDAP zentral auf den Straßenterror der SA und andere Themen wie die Außenpolitik, woraufhin ihre Stimmenanteile bei den Landtagswahlen 1929 und 1930 auf über 10 Prozent anstiegen (zum Beispiel in Sachsen mit 14,4 Prozent). Dies lag auch an den nicht durch Wahlen legitimierten Präsidialkabinetten. Besonders Jugendliche und junge Männer traten in die Hitlerjugend und die SA ein. Die nationalsozialistischen Politiker gingen von dem Versuch ab, vor allem die Arbeiterschaft für sich zu gewinnen, was zur Abspaltung eines „linken“ Flügels führte, zu dem unter anderen Otto Strasser gehörte. Die NSDAP erhielt aber immer mehr Unterstützung von Bauern (die Agrarpreise waren ab 1928 zusehends verfallen), Handwerkern und Einzelhändlern (Angst vor der Konkurrenz durch „jüdisch geführte“ Kaufhauskonzerne) sowie aus den Reihen der Studenten- und Beamtenschaft (Furcht vor einer drohenden „Proletarisierung“ des akademischen Bürgertums). So konnte die NSDAP die Weltwirtschaftskrise, deren Auswirkungen im Deutschen Reich besonders spürbar wurden, zur Gewinnung einer Massenbasis in denjenigen Wählerschichten nutzen, die vorher für die DNVP oder eine der sonstigen nationalen Kleinparteien gestimmt hatten oder enttäuscht von den bürgerlichen Parteien (DVP und DDP) seit Jahren ins Nichtwählerlager gewechselt waren. Wahlerfolge ab 1930. Die Auflösung des Reichstags durch Reichspräsident Paul von Hindenburg gemäß Artikel 25 der Verfassung kam den Nationalsozialisten daher sehr gelegen. Bei den Reichstagswahlen am 14. September 1930 wurde die NSDAP mit 18,3 Prozent der abgegebenen Stimmen zweitstärkste Partei hinter der SPD. Bereits im Januar 1930 trat die NSDAP in Thüringen („Baum-Frick-Regierung“) und im weiteren Verlauf des Jahres dann in Braunschweig (Kabinett Küchenthal) in Koalitionsregierungen ein. Trotz der Regierungsbeteiligungen wurde sie weiterhin als Opposition gegen das „System“ wahrgenommen. Die Propaganda der NSDAP stellte vor allem außenpolitische und soziale Themen in den Vordergrund. In ihrer Polemik gegen den Versailler Vertrag und namentlich gegen den Young-Plan, die als die Ursache der Verelendung in der Weltwirtschaftskrise hingestellt wurden, fasste sie beide Themen zusammen. Mit antisemitischer Polemik hielt sich die Parteipropaganda nach einer Anweisung von Goebbels aus dem Jahr 1928 deutlich zurück. Dennoch kam es auch in den Aufstiegsjahren der NSDAP wiederholt zu pogromartigen Zwischenfällen, wie den Angriffen auf das Kaufhaus Wertheim am Tag der Reichstagseröffnung 1930 oder dem Kurfürstendamm-Krawall vom 12. September 1931. Da sie ihren parteipolitischen Apparat organisatorisch stark ausgeweitet hatte, konnte sie für jede soziale Gruppe speziell auf sie zugeschnittene Organisationen und Propaganda anbieten. In „nacktem Populismus“ (Hans-Ulrich Wehler) versprach sie jeder gesellschaftlichen Gruppe, genau ihre Wünsche zu erfüllen: Für die Industriearbeiter etwa gab es die Nationalsozialistische Betriebszellenorganisation und die Hib-Aktion („Hinein in die Betriebe“), für sie gerierte sich die Partei als sozialistisch und organisierte auch Streiks. Für kleinere Ladenbesitzer gab es den Nationalsozialistischen Kampfbund für den gewerblichen Mittelstand, der gegen die den kleinen Spezialgeschäften ökonomisch überlegenen Warenhäuser und Einheitspreisläden kämpfte. Auf dem Lande übernahm die NSDAP die Themen der Landvolkbewegung und konzentrierte sich auf ihre Blut-und-Boden-Ideologie und ihr Ziel, die deutsche Wirtschaft vom Weltmarkt abzukoppeln. Dass die Nationalsozialisten eine Autarkie planten, wurde von Hitler gegenüber den Großindustriellen dagegen bestritten, so etwa in seiner Rede vor dem Düsseldorfer Industrie-Club. Gegenüber dieser Klientel, für die es mit der Arbeitsstelle Dr. Schacht und dem Keppler-Kreis gleich mehrere, konkurrierende Organisationen innerhalb des Parteiapparats NSDAP gab, betonte die Propaganda die Ablehnung von Klassenkämpfen und Demokratie. Integrierendes Element dieser widersprüchlichen Forderungen waren der radikale Nationalismus der Partei und ihre Volksgemeinschaftsideologie, die man je nach Publikum unterschiedlich auslegen konnte. Zwar gab es sowohl innerhalb der Partei als auch von außen, zum Beispiel von Seiten der Industrie, die wissen wollte, wie es denn nun mit dem „Sozialismus“ des Parteiprogramms bestellt war, immer wieder Ansätze, die NSDAP auf ein konkretes Aktionsprogramm für die Zeit nach einer Machtergreifung festzulegen. Dies wurde von Hitler stets rundweg abgelehnt, der programmatisch stets wolkig blieb und unterhalb der Ebene vager Großforderungen wie der nach einer „Regeneration unseres Volkskörpers“ jede politische Konkretion vermied: „So unveränderlich […] die Gesetze des Lebens selbst sind und damit die unserer Bewegung zugrunde liegende Idee, so ewig fließend ist das Ringen um die Erfüllung“. Durch ihre breit adressatendifferenzierte Propaganda gelang es der NSDAP, Wähler in allen gesellschaftlichen Gruppen und Schichten zu gewinnen. Zwar erwiesen sich das traditionsbewusst-katholische Milieu und das der organisierten Industriearbeiter als weniger anfällig als die anderen Milieus, doch blieben auch sie nicht immun gegenüber der nationalsozialistischen Verlockung. Überproportional viele Anhänger konnte sie im alten Mittelstand gewinnen, bei den kleinen Gewerbetreibenden, den Ladenbesitzern und Inhabern von Handwerksbetrieben. Aus diesem Befund zieht der Parteienforscher Jürgen W. Falter den Schluss, dass die NSDAP eine „Volkspartei mit Mittelstandsbauch“ war, die die zum Teil diametral divergierenden Werte und Interessen aller Teile der Wahlbevölkerung zu integrieren vermochte. Neugewählte NSDAP-Abgeordnete betreten den Reichstag, 30. August 1932 Im Oktober 1931 taten sich auf Drängen Hitlers und Alfred Hugenbergs die NSDAP und die DNVP mit anderen nationalistischen Verbänden zur Harzburger Front als Gegner der Weimarer Republik zusammen, das Bündnis hielt aber nicht lange: Bereits wenige Monate später bekämpften sie sich im Wahlkampf zur Reichspräsidentenwahl 1932. Dennoch gelang Hindenburg seine Wiederwahl zum Reichspräsidenten erst im zweiten Wahlgang – Hitler kam auf Platz zwei; bei den Landtagswahlen in Preußen, Bayern, Württemberg und anderen Reichsländern erzielte die Partei deutliche Erfolge und wurde bei den Reichstagswahlen am 31. Juli 1932 auch stärkste Partei im Reichstag. Zwar durchlief die Partei 1932 eine schwere Krise, welche in den Misserfolgen bei der Reichstagswahl am sechsten November gipfelte, doch konnte sie sich wieder erholen. Die Trendumkehr gelang bei der Landtagswahl in Lippe am 15. Januar 1933: die Mitgliederstärke der NSDAP erhöhte sich auf rund 850.000. Die Wahlerfolge sind auch auf die erfolgreiche Mobilisierung von Nichtwählern zurückzuführen, welche den bis dahin regierenden Parteien nicht mehr zutrauten, die Weltwirtschaftskrise zu überwinden. Reichspräsident von Hindenburg hegte eine tiefe persönliche Abneigung gegen den „böhmischen Gefreiten” Hitler, der außerdem nicht bereit war, sich mit weniger als der Reichskanzlerschaft zufriedenzugeben. Gleichwohl dachten sowohl Reichskanzler Brüning als auch seine Nachfolger von Papen und von Schleicher jeweils zumindest zeitweise an eine Rechtskoalition von Zentrum, DNVP und NSDAP, um eine Reichsreform ohne Beteiligung der SPD zu Stande zu bringen. Dies scheiterte aber an Hitlers Bestehen auf der Kanzlerschaft; außerdem gelang es nicht, wenigstens Teile der Nationalsozialisten (und der Deutschnationalen) zu dieser Koalition zu bewegen oder zu einer „Querfront“ von Gewerkschaften und linken Nationalsozialisten. Die Versuche zur Einbindung Hitlers hatten als Kehrseite, dass bereits Brüning die NSDAP nicht als umstürzlerische und verfassungsfeindliche Partei anprangerte und dementsprechend bekämpfte. Anfang 1933 war die „Querfront“-Idee des Kanzlers von Schleicher gescheitert. Dieser befürwortete ein Weiterregieren unter Ausschaltung des Reichstags, der Ende Januar wieder zusammentreten und mit Sicherheit die Regierung stürzen würde. In dieser Situation gelang es Franz von Papen, den Reichspräsidenten zu einer NSDAP-DNVP-Koalition unter einem Kanzler Hitler zu überreden. Von Papen glaubte, Hitler „zähmen“ zu können. Am 30. Januar 1933 führte dies zur formal legalen „Machtübergabe“ (später als „Machtergreifung“ der Nationalsozialisten bezeichnet). Die Wahlergebnisse der NSDAP bei den Reichstagswahlen 1930 bis 1933. Berlin, Reichstagswahl, Wahlkampf, NSDAP, 1932 Die NSDAP an der Macht ab 1933. a>, Berlin, Zugang zur Neuen Reichskanzlei Stimmenanteile der NSDAP nach der Reichstagswahl vom 5. März 1933 Hitler agierte in den ersten Monaten des Jahres 1933 auf der Grundlage der seiner Regierung, einer Koalition aus NSDAP und DNVP, durch den Reichspräsidenten Paul von Hindenburg übergebenen Macht. Auch in der letzten nach dem Recht der Weimarer Republik abgehaltenen Wahl am 5. März 1933, deren Wahlkampf bereits durch Verbote anderer Parteien und Repressalien der politischen Gegner durch Terror und Propaganda gekennzeichnet war, erhielt die NSDAP mit etwa 44 Prozent nicht die absolute Mehrheit der Stimmen. Die Nationalsozialisten schafften es jedoch mit den Stimmen aller anderen Parteien außer SPD und KPD (siehe Tag von Potsdam), im Reichstag die nötige Zweidrittelmehrheit für die Verabschiedung des Ermächtigungsgesetzes am 24. März zu erlangen, das die Macht unter Ausschaltung des Parlaments auf Hitler übertrug und schließlich auch zum Verbot sämtlicher Parteien außer der NSDAP verwendet wurde. Es bildete sich ein Einparteienstaat, welcher am 1. Dezember 1933 durch das „Gesetz zur Sicherung der Einheit von Partei und Staat“ auch rechtlich verankert wurde. Die NSDAP war hiermit eine Körperschaft des öffentlichen Rechts mit eigener Gerichtsbarkeit über ihre Mitglieder. Bis zum April zählte die Partei 2,5 Millionen Mitglieder, welche in der Hauptsache aus Beamten und Angestellten bestanden, nachdem die NSDAP wichtige Schlüsselpositionen in Staat, Organisationen, Fabriken und Behörden besetzte. Ab 1933 wurde das 1920 als Parteisymbol eingeführte Hakenkreuz allgegenwärtig im Alltag der Bürger. Im Zuge der auf dem Reichsparteitag 1935 verabschiedeten Nürnberger Gesetze wurde das Symbol zum Hoheitszeichen des Deutschen Reiches. In der Zeit des Nationalsozialismus trat die NSDAP kaum noch durch eigene Tätigkeit hervor. Dafür werden in der Forschung verschiedene Ursachen genannt. Der Journalist Heinz Höhne nimmt an, dass sie durch die Aufteilung der eigentlichen Macht gelähmt worden sei: Zwar habe Rudolf Heß am 21. April 1933 mit seiner Ernennung zum Stellvertreter des Führers formal uneingeschränkte Macht über die Partei erhalten, doch habe Hitler „vergessen“, ihm auch ihren Reichsorganisationsleiter Robert Ley zu unterstellen, der das mächtige Korps der Politischen Leiter der NSDAP unter sich gehabt habe. Dies habe zahlreiche Streitereien und Kompetenzrivalitäten zur Folge gehabt, wie sie für die nationalsozialistische Polykratie typisch waren, und so die eigentliche Macht der Partei gelähmt. Der Berliner Historiker Henning Köhler glaubt dagegen, die NSDAP sei ausschließlich eine „Agitations- und Wahlmaschine“ gewesen und nur eine einzige ihrer Teilorganisationen habe die Basis tatsächlich auch wirksam erreicht: Die Reichspropagandaleitung unter Goebbels. Von dem Augenblick an, an dem es keine Wahlkämpfe mehr gab, habe die Parteileitung sich auf das Eintreiben von Mitgliedsbeiträgen und auf die Streitschlichtung zwischen ihren Funktionären beschränkt. Eine aktive Rolle etwa bei der Verteilung der zahlreichen Karriereposten, die im Lauf der Gleichschaltung neu zu besetzen waren, habe sie nicht gespielt. Hier habe es vielmehr einen sozialdarwinistischen Kampf der Parteifunktionäre gegeneinander gegeben. Vom 30. Juni bis 2. Juli 1934 wurden im Zuge der angeblichen Niederschlagung des so genannten Röhm-Putschs die SA-Führung einschließlich ihres Stabschefs Ernst Röhm auf Hitlers Befehl ermordet. In Wahrheit hatte es keinerlei Putschvorbereitungen seitens der SA gegeben. Es wurde dadurch vielmehr die absolute Macht Hitlers über die Partei zementiert, die seitdem lediglich ein Instrument seiner persönlichen Herrschaft war. Nach der gewalttätigen Entmachtung der SA im Juli 1934 („Röhm-Putsch“) hatte Hitler innerparteilich keine ernsthaften Gegner mehr. Die ihm nun eigene Machtfülle in der nach dem Führerprinzip strukturierten Partei sollte sich bis zum Ende des Zweiten Weltkrieges erhalten. Schi-Stiefelsammlung für die Front, 1943, NSDAP Die „unlöslich mit dem Staat verbundene“ Partei wurde zur „Trägerin des deutschen Staatsgedankens“ und war zuständig für die „Führerauslese“, also die Besetzung staatlicher Schlüsselpositionen. Während des Zweiten Weltkrieges lag es an der NSDAP, zu entscheiden, wer nun unabkömmlich sei und damit vom aktiven Kriegsdienst an der Front befreit wurde. Diesen Status erhielten in der Regel nur Funktionäre der Partei. Die materielle Bevorzugung der hauptamtlichen „Parteibonzen“ sowie deren häufige Unfähigkeit und Korruption trugen dazu bei, dass das Ansehen der NSDAP in der Gesellschaft schon zu Beginn des Krieges rasch schwand. Die NSDAP war in der Hauptsache beschäftigt mit organisatorischen und verwaltungsmäßigen Aufgaben im Luftschutz und bei der Evakuierung aus Städten, mit Lagern für Zwangsarbeiter, bei Sammelaktionen oder Erntehilfen der Hitlerjugend. Gegen Ende des Krieges sollte sie zusätzlich den Volkssturm aufstellen. Unterstützung durch Wirtschaft und Industrie. In der Endphase der Weimarer Republik trugen die Großunternehmer nur vereinzelt zur Finanzierung der NSDAP bei. Ausnahmen waren Fritz Thyssen, Albert Vögler, der sich noch im November 1932 an einer Unterschriftenliste bedeutender Unternehmer gegen Hitler beteiligt hatte, oder Emil Kirdorf, der sich aber bereits 1928 wieder der DNVP zuwandte. Erst ab Februar 1933 flossen die Industriespenden reichlich. Sie wurden als Adolf-Hitler-Spende der deutschen Wirtschaft institutionalisiert und nahmen bald den Charakter einer Zwangsabgabe an. Allerdings erhielten die Industriellen, wie von ihnen erhofft, durch ihre finanzielle Unterstützung diverse Vorteile. Für die Erfüllung von Hitlers Plan nach Kriegsfähigkeit der Wirtschaft und Einsatzfähigkeit der Wehrmacht wurde nicht nur die Rüstungsindustrie stark vorangetrieben. In Konzernen wie I.G. Farben wurden Buna und Benzin synthetisch hergestellt. Parteitage. Bis 1938 zelebrierte die NSDAP ihre jährlichen Parteitage in Nürnberg. Diese Reichsparteitage waren einprägsam inszeniert in gewaltigen Aufzügen von Parteifunktionären mit anschließenden Treuegelöbnissen sowie abendlichen Fackelzügen und Lichtdomen als symbolische Verschmelzung von Mensch und Naturgewalt. Albert Speers Lichtdom galt als erhabene visuelle Inszenierung des Kollektivs und war die Projektion von 150 Flakscheinwerfern am Himmel. Ausführlich berichteten die Medien über die minutiös geplanten Parteitage. Zusätzlich kam es zu filmischen Überhöhungen in Form von Reichsparteitagsfilmen, welche Leni Riefenstahl in Szene setzte, „Sieg des Glaubens“ und „Triumph des Willens“ vermittelten den Eindruck der von den Nationalsozialisten proklamierten Volksgemeinschaft und der damit verbundenen Gleichschaltung. Die Wehrmacht nahm 1934 nach dem Tod Paul von Hindenburgs erstmals an einem Parteitag teil und wurde auf Hitler, nicht das Volk, eingeschworen. Parteiverbot. Mit dem Zusammenbruch des Dritten Reiches stellte die Parteiorganisation ihre Tätigkeit ein. Am 10. Oktober 1945 wurde die NSDAP mit allen Gliederungen und angeschlossenen Verbänden durch das Kontrollratsgesetz Nr. 2 des Alliierten Kontrollrates verboten. Die Partei wurde in den Nürnberger Prozessen 1946 zur „verbrecherischen Organisation“ erklärt. Struktur der NSDAP. Administrative Gliederung der NSDAP 1944 Die Nationalsozialistische Deutsche Arbeiterpartei war pyramidenartig aufgebaut. An der Spitze stand der Vorsitzende, zu Beginn Anton Drexler (24. Februar 1920 bis 29. Juli 1921), der danach Ehrenvorsitzender wurde, und anschließend Adolf Hitler (29. Juli 1921 bis 30. April 1945). Er war mit absoluter Macht ausgestattet und hatte die volle Befehlsgewalt. Alle anderen Parteiämter waren seiner Position untergeordnet und mussten sich nach seinen Weisungen richten. Unter dem Vorsitzenden Hitler waren die Reichsleiter in der 1934 errichteten „Kanzlei des Führers“, deren Zahl nach und nach auf 18 erhöht wurde. Im Dritten Reich hatten diese ähnlich große Macht wie Reichsminister, was zu von Hitler gewünschten Konkurrenzkämpfen führte. Der Stab des Stellvertreters des Führers, ein zentrales Führungsorgan der NSDAP, war an allen wesentlichen Entscheidungen im Partei- und im Staatsapparat beteiligt. Die Dienststelle mit Sitz in München unterstand Rudolf Heß, bis sie am 12. Mai 1941 Hitler persönlich unterstellt und unter der neuen Bezeichnung „Parteikanzlei“ vom langjährigen Stabsleiter Martin Bormann weitergeführt wurde. Mit den Organisationen und den angeschlossenen Verbänden konnte die NSDAP die Gesellschaft organisatorisch weitgehend durchdringen und die Bevölkerung sowohl im Beruf als auch in der Freizeit kontrollieren und indoktrinieren. Der Entnazifizierungsfragebogen der Militärregierung, Ausgabe 1946, fragte nach der Mitgliedschaft in 95 Organisationen aus dem Umkreis der NSDAP. Die soziale Kontrolle erfolgte insbesondere durch Block- und Zellenwarte und mittels NSDAP-Ortsgruppen, da sie bei der Beförderung von Beamten, für Anwärter des öffentlichen Diensts oder für Antragsteller bezüglich sozialer Unterstützung und Ausbildungshilfen ein Vetorecht hatten. Letzteres war entscheidend, weil die NSDAP erst 1941 einen Träger der Gesetzlichen Krankenversicherung gründete. Vorher hatten sich die Arbeiter an Wohltätigkeitsorganisationen zu wenden, weil sich die Masse ansonsten keinen Arztbesuch leisten konnte. Die Politische Organisation (PO) der NSDAP gliederte sich in Gaue, Kreise, Ortsgruppen, Zellen und in Blocks. Ein Block zählte als kleinste organisatorische Einheit zwischen 40 und 60 Haushalte. Mitgliedszahlen und -kartei. Mitgliederzahl der NSDAP 1919–1933 und 1945 Die NSDAP hatte zur Zeit der „Machtergreifung“ 849.009 Mitglieder (parteieigene Statistik); in den folgenden Jahren wuchs diese Zahl auf 5,3 Millionen (1939) und schließlich auf 7,7 Millionen im Mai 1943. Anfangs (und immer wieder) wurde versucht, die „Märzgefallenen“ (Opportunisten, die sich nach der Machtergreifung, insbesondere nach dem Wahlsieg im März 1933 zur NSDAP bekannten) von der Partei fernzuhalten. Dazu wurde 1933 eine umfassende Aufnahmesperre verhängt (siehe Hauptartikel Mitglieder-Aufnahmesperre der NSDAP). Der Bedarf an neuen Mitgliedern war aber stets so groß, dass solche Maßnahmen nicht lange durchgehalten wurden, zumal mit ihnen ja auch ein „Transmissionsriemen“ in die Gesellschaft aufgebaut wurde. Die NSDAP-Zentralkartei (50 Tonnen Karten) wurde nach der Verhinderung ihrer vorgesehenen Vernichtung (1945) zur Aufbewahrung in das Berlin Document Center übernommen. NSDAP-Mitgliedschaft auch ohne Zustimmung? Voraussetzung für die Mitgliedschaft in der NSDAP war ein eigenhändig unterschriebener Aufnahmeantrag. Für den Jahrgang 1927 legte der zuständige Reichsschatzmeister am 7. Januar 1944 eine Herabsetzung des Aufnahmealters von 18 auf 17 Jahre fest. Bedingung für den Parteibeitritt war eine mehrjährige Mitgliedschaft in der Hitlerjugend. Erhaltener interner Schriftverkehr der NSDAP belegt, dass auch im August 1944 nicht unterschriebene Aufnahmeanträge unbearbeitet zurückgegeben wurden. Bis zu zwei Jahre konnten zwischen Aufnahmeantrag und der Aushändigung der Mitgliedskarte beziehungsweise des Mitgliedsbuches vergehen; erst dadurch wurde die Mitgliedschaft rechtskräftig. Für eine Reihe von Angehörigen der „Flakhelfergeneration“ wie den Komponisten Hans Werner Henze, den Kabarettisten Dieter Hildebrandt, die Politiker Erhard Eppler und Horst Ehmke sowie die Autoren Martin Walser und Siegfried Lenz liegen im Bundesarchiv NSDAP-Mitgliedskarten vor. Bis auf Eppler bestreiten jedoch alle Betroffenen, wissentlich Mitglied der NSDAP gewesen zu sein. Dazu bemerkte der Historiker Norbert Frei, er halte „unwissentliche Mitgliedschaften prinzipiell für möglich“. Der Freiburger Historiker Ulrich Herbert erklärte zu den Parteieintritten gegen Kriegsende: „Die Absicht, möglichst viele – oder alle – Angehörigen einer HJ-Einheit zum Eintritt in die NSDAP zu bewegen, ist deutlich erkennbar“. Es sei durchaus möglich, dass einzelne NS-Führer zum Beweis ihrer Tüchtigkeit hohe Eintrittszahlen auch ohne die entsprechenden Unterschriften melden wollten; etwa zu „Führers Geburtstag“. Allerdings gibt es für Parteiaufnahmen ohne Wissen der Betroffenen keine Belege, während die strenge Einhaltung der Aufnahmerichtlinien auch im Jahre 1944 durch Listen von Aufnahmescheinen gut dokumentiert ist. Demzufolge wurden auch bei Sammeleintritten etwa von Hitlerjungen nicht eigenhändig unterschriebene Aufnahmescheine durch den NS-Reichsschatzmeister zurück an die jeweilige Gauleitung geschickt; die Parteiaufnahme kam nicht zustande. So tauchen die Namen von Ehmke und Henze auf Sammellisten mit mehreren hundert Aufnahmeanträgen auf, von denen die nicht unterschriebenen Anträge unbearbeitet zurückgeschickt wurden (Ehmkes und Henzes Anträge wurden nicht beanstandet). Der Historiker Michael Buddrus vom Institut für Zeitgeschichte kommt deshalb zu dem Ergebnis, dass eine Aufnahme in die NSDAP ohne eigene Unterschrift unwahrscheinlich sei. Nach vorläufiger Einschätzung des Bundesarchivs sind die entsprechenden Parteivorschriften auch während des Krieges streng eingehalten worden. In diesem Zusammenhang werden Forschungsdefizite beklagt, da es keine neuere Gesamtgeschichte der NSDAP und auch keine Darstellungen zu ihrem Aufnahmeverfahren gebe. Benennungen. Ein Mitglied dieser Partei, oft auch für sie auftretende Anhänger, wurden und werden seitdem „Nationalsozialist“ oder kurz „Nazi“ bzw. „Parteigenosse“ oder kurz „Pg“ genannt. Die Partei selbst wurde in der Alltagssprache meist durch das Buchstabenkürzel NSDAP bezeichnet. Höhere Parteifunktionäre in öffentlichen Ämtern nannte man in Anlehnung an Begriffe aus dem Militär "Chargen". Aufgrund der Uniformfarbe ranghöherer Parteifunktionäre hatte sich im Volksmund auch die Bezeichnung „Goldfasan“ eingebürgert. Einzelnachweise. !Nationalsozialistische Deutsche Arbeiterpartei Nordfriesische Inseln. Die Nordfriesische Inselkette im nordfriesischen und dänischen Wattenmeer Die Nordfriesischen Inseln liegen vor der Westküste Schleswig-Holsteins im nordfriesischen Wattenmeer, einem Teil der Nordsee. Sie sind vom Nationalpark Schleswig-Holsteinisches Wattenmeer umgeben, selbst jedoch nicht Bestandteil des Schutzgebietes. Die Inseln gehören zum Kreis Nordfriesland. Zum Teil werden auch die dänischen Wattenmeerinseln zu den Nordfriesischen Inseln gerechnet. Diese liegen vor der Westküste Jütlands und gehören zur dänischen Region Süddänemark. Neben größeren Inseln gibt es kleinere sogenannte Halligen, die in der Regel nicht mit Deichen vor Hochwasser geschützt sind und deren Bebauung auf Warften steht. Anders als die deutschen wurden die dänischen Inseln nicht von Friesen besiedelt. Der Begriff "Nordfriesische Inseln" ist also in erster Linie ein geographischer. Verkehr. Rekonstruktion der Küste Nordfrieslands im 13. Jahrhundert auf einer Karte von 1850 Autofähren der Wyker Dampfschiffs-Reederei Föhr-Amrum GmbH verbinden den Hafen Dagebüll auf dem Festland mit den Inseln Föhr (Hafen Wyk) und Amrum (Hafen Wittdün) sowie den festländischen Hafen Schlüttsiel mit den Halligen Hooge und Langeneß und der Insel Amrum. Die Halligen Oland, Langeneß, Gröde und Hooge werden von Schlüttsiel aus unregelmäßig mit einem Versorgungsschiff angelaufen, das auch Touristen nutzen können. Autofähren der Neuen Pellwormer Dampfschiffahrtsgesellschaft bedienen die Verbindung vom Hafen Strucklahnungshörn auf der Halbinsel Nordstrand zur Insel Pellworm. Ein Schnellboot verbindet die Orte Strucklahnungshörn auf Nordstrand mit Hallig Hooge, Wittdün auf Amrum und Hörnum auf Sylt. Nordstrand ist durch den 1987 fertiggestellten Beltringharder Koog zur Halbinsel geworden, und war vorher durch einen Damm mit Autostraße erreichbar. Die dänische Insel Rømø ist durch den Rømødæmningen (dt.: "Rømø-Damm") mit einer Autostraße mit dem Festland verbunden, die Insel Sylt hat über den Hindenburgdamm eine Bahnverbindung zum Festland. Sylt ist über eine Schiffsverbindung zwischen List und der dänischen Insel Rømø auch per Autofähre zu erreichen. Die Halligen Oland und Langeneß erreicht man mit einer Lorenbahn von Dagebüll. Die Hallig Nordstrandischmoor hat eine Lorenbahnverbindung zum Beltringharder Koog. Bei Niedrigwasser liegt das Watt zwischen einigen Inseln, Halligen und dem Festland frei. So fällt zwischen Amrum und Föhr ein 8 km langer Wattenweg frei, der jedoch abhängig von Witterung und Tide nicht jeden Tag begehbar ist. An vielen Orten werden geführte Wattwanderungen angeboten. Entstehung. Das Gebiet des nordfriesischen Wattenmeeres ist in den vergangenen Jahrhunderten großen und stetigen Veränderungen unterworfen gewesen. Da erste Karten erst für das 17. Jahrhundert existieren, ist man für die Zeit davor auf Rekonstruktionen angewiesen. Die heutigen Inseln und Halligen sind im Verlauf der Jahrhunderte aus größeren zusammenhängenden Landmassen entstanden, die durch Sturmfluten zerrissen wurden. So gehörten zum Beispiel die heutige Halbinsel Nordstrand und die Insel Pellworm in früherer Zeit zu einer großen Insel oder besser Landmasse der damals zerklüfteten und von Prielen durchzogenen Küstenlandschaft, die den Namen Strand trug und deren größter Ort Rungholt war. Strand wurde am 16. Januar 1362 in der zweiten Marcellusflut (Grote Mandränke) zu einem großen Teil zerstört. Während der Burchardiflut 1634 zerbrach die verbliebene Insel, das alte Nordstrand, dann in die Inseln Nordstrand und Pellworm und die Hallig Nordstrandischmoor. Geschichte. Nach der friesischen und dänischen Besiedlung der Inseln im 8. Jahrhundert bildeten die friesisch besiedelten Harden (zwischen Eiderstedt und Sylt) zusammen die Uthlande. Die Nordfriesen in den Uthlanden unterstanden als "Königsfriesen" direkt dem dänischen König. Erst später kamen die Uthlande mit Ausnahme kleinerer königlicher Enklaven zum Herzogtum Schleswig. Auch ein Teil Rømøs unterstand dem schleswigschen Herzog. Nach den deutsch-dänischen Kriegen wurden die Inseln von Nordstrand bis Rømø 1866 preußisch. Nach der Volksabstimmung 1920 wurde die jetzige Grenze zwischen den Inseln Sylt und Rømø festgesetzt. Einen Überblick über das Leben, den Alltag, die Sprache, Trachten und Bräuche der Inselfriesen gewährt das Carl-Haeberlin-Friesenmuseum in Wyk auf Föhr. Natürliche Person. Eine natürliche Person ist der Mensch in seiner Rolle als Rechtssubjekt, d. h. als Träger von Rechten und Pflichten. In früheren Rechtsordnungen – wie z. B. dem klassischen römischen Recht – gab es auch Menschen, die keine Rechtssubjekte und damit auch keine Personen in unserem Sinne waren, so etwa Sklaven und solche Familienangehörige, die der Herrschaftsgewalt des Familienoberhaupts "(pater familias)" unterworfen waren. Rechtlich hatten diese Menschen im Wesentlichen den Status von Sachen. Vergleichbare Wirkungen hatten noch in der Neuzeit der Klostertod und der Bürgerliche Tod. Gegensatz zur natürlichen Person ist die juristische Person. Gesetzliche Regelung in Deutschland. Rechtssubjekte wie die natürliche Person haben die Fähigkeit, Träger von Rechten und Pflichten zu sein; sie besitzen Rechtsfähigkeit. Der Zeitpunkt, an dem diese Rechtsfähigkeit beginnt und an dem sie endet, ist in Rechtsprechung und Rechtswissenschaft umstritten. Beginn der Rechtsfähigkeit. Mit der Vollendung seiner Geburt wird ein Mensch rechtsfähig (BGB). Unter gewissen Umständen wird die Rechtsfähigkeit auch fingiert. So kann bereits ein ungeborener Mensch "()" zum Erben werden (Abs. 2 BGB). Damit ist das Bestehen von Rechten (und auch Pflichten) des Nasciturus gesetzlich anerkannt. Die Rechtsfrage, ob er dann nicht auch rechtsfähig sein muss, hat der Bundesgerichtshof bisher offengelassen, allerdings eine positive Antwort in Aussicht gestellt. Die Literatur hingegen geht fast einhellig von einer Teilrechtsfähigkeit aus. Das bedeutet, dass dem "Nasciturus" nur dort Rechtsfähigkeit zugesprochen wird, wo ihm erwiesenermaßen Rechtspositionen zuerkannt werden (vgl. auch die § Abs. 1 und BGB). Aus den § Abs. 2, oder BGB lässt sich ableiten, dass der "Nasciturus" im Schuld-, Sachen- und Erbrecht den übrigen Rechtssubjekten jedenfalls insoweit gleichgestellt ist, als es sich um einen Rechtserwerb zu seinen Gunsten handelt. Das BGB billigt dem hiernach nicht voll rechtsfähigen "Nasciturus" wesentliche Rechte zu, die unter der Voraussetzung der späteren Lebendgeburt stehen. Stark umstritten ist die Frage, ob dem "Nasciturus" bereits vor der Geburt und möglicherweise schon ab dem Beginn der Schwangerschaft Rechte zufallen können, insbesondere ein Recht auf Leben. Dies spielt vor allem im Hinblick auf den Schwangerschaftsabbruch und die Stammzellenforschung sowie verwandte Forschungsbereiche eine Rolle. Ende der Rechtsfähigkeit. Der Mensch verliert seine Rechtsfähigkeit mit dem Tod. Anders als bei seiner Geburt ist das Ende der Rechtsfähigkeit gesetzlich jedoch nicht direkt normiert. Dann stellt sich allerdings die Frage, wann der Tod "vollendet" ist. Dazu müssen Juristen auf den medizinischen Forschungsstand zurückgreifen. Bei Inkrafttreten des BGB (am 1. Januar 1900) konnte noch davon ausgegangen werden, dass der Tod mit dem Stillstand von Kreislauf und Atmung eintrete. Heute wird der Tod aus medizinischer Sicht nicht als punktuelles Ereignis, sondern vielmehr als Ende eines Prozesses verstanden, wobei einzelne Körperfunktionen beibehalten werden können, obwohl lebensnotwendige Organe wie das Herz oder Hirn funktionsunfähig geworden sind. Hilfestellung bietet das Transplantationsgesetz (TPG) vom November 1997 mit zwei Todesmöglichkeiten, die feste Kriterien zur Bestimmung des Todeszeitpunkts und damit auch zur Festlegung des Endes der Rechtsfähigkeit enthalten. Primär ist dies der Hirntod und sekundär der Herztod. Nach einer Lehrmeinung sollen jedoch auch Tote unter bestimmten Voraussetzungen rechtsfähig bleiben. Diskutiert wird dies vor allem im Zusammenhang mit dem so genannten postmortalen Persönlichkeitsrecht. Das postmortale "ideelle" (also nicht-materielle) Persönlichkeitsrecht wird dem Bundesverfassungsgericht zufolge allein aus GG abgeleitet. Sonstiges. Aus der in BGB gewählten negativen Formulierung des zweiten Halbsatzes wird deutlich, dass rechtsgeschäftliches Handeln einer natürlichen Person grundsätzlich als Verbraucherhandeln anzusehen ist; etwa verbleibende Zweifel, welcher Sphäre das konkrete Handeln zuzuordnen ist, sind zugunsten der Verbrauchereigenschaft zu entscheiden. Internationale Regelungen. In Österreich ist die Rechtsfähigkeit natürlicher Personen ähnlich geregelt, nämlich in, hinsichtlich des "Nasciturus" in und ABGB. Die Rechtsfähigkeit natürlicher Personen in der Schweiz ist in Art. 31 ZGB, die des "Nasciturus" in Art. 544 ZGB. Die Regelungen für natürliche Personen, die meist gebraucht werden, um sie von den Sachen oder juristischen Personen zu unterscheiden, gelten auch im angelsächsischen Recht (') und im französisch orientierten Rechtsordnungen ('). Norbert Wiener. Norbert Wiener (* 26. November 1894 in Columbia, Missouri; † 18. März 1964 in Stockholm) war ein US-amerikanischer Mathematiker. Er ist als Begründer der Kybernetik bekannt, ein Ausdruck, den er in seinem Werk "Cybernetics or Control and Communication in the Animal and the Machine" (1948) prägte. Frühe Jahre. Norbert Wiener wurde in Columbia, Missouri, als erstes Kind des jüdischen Ehepaares Leo und Bertha Wiener geboren. Sein Vater war Professor für Slawische Sprachen an der Harvard-Universität. Der Sohn wurde vorwiegend zu Hause erzogen und galt als „Wunderkind“, denn er war schon sehr früh insbesondere an fremden Sprachen interessiert. Allerdings besaß er keine technischen Fähigkeiten, seine Aktivitäten auf dem Gebiet der Technik waren stets theoretischer Natur. 1903 trat er in die "Ayer High School" ein und schloss dort 1906 ab. Im September 1906, im Alter von 11 Jahren, trat er in das "Tufts College" ein, um Mathematik zu studieren. Er schloss dort 1909 ab und trat in Harvard ein. Dort studierte er Zoologie, aber 1910 wechselte er zur Cornell University, um Philosophie zu studieren. Er kehrte dann wieder nach Harvard zurück und schloss dort 1912 seine Dissertation über mathematische Logik ab. Von Harvard wechselte er nach Cambridge, England, um unter Bertrand Russell und Godfrey Harold Hardy weiterzustudieren. 1914 war er in Göttingen bei David Hilbert und Edmund Landau. Dann kehrte er nach Cambridge und dann in die USA zurück. Von 1915 bis 1916 unterrichtete er Philosophie in Harvard, arbeitete für General Electric und für die Encyclopedia Americana. Später arbeitete er für das Militär (Ballistik) in Aberdeen Proving Ground, Maryland. Er blieb bis zum Kriegsende in Maryland. Dann begann er, Mathematik am Massachusetts Institute of Technology (MIT) zu unterrichten. Massachusetts Institute of Technology. Während er am MIT arbeitete, hielt er zahlreiche Kontakte, die zu vielen Reisen in den USA, nach Mexiko, Europa und Asien Anlass gaben, wobei ihm seine Sprachbegabung (zehn Sprachen) zugutekam. 1926 wurde er in die American Academy of Arts and Sciences gewählt. Im selben Jahr heiratete er Margaret Engemann und kehrte als Guggenheim-Stipendiat nach Europa zurück. Er arbeitete die meiste Zeit in Göttingen und mit Hardy in Cambridge. Er beschäftigte sich mit der Brownschen Molekularbewegung, dem Fourierintegral, dem Dirichlet-Problem, der harmonischen Analyse und den Tauber-Theoremen. Sein Arbeitsgebiet reichte dabei über die reine und angewandte Mathematik hinaus bis hin zu Fragestellungen der Physiologie, speziell Neurophysiologie und Genetik. 1933 erhielt er den Bôcher Memorial Prize. 1950 hielt er einen Plenarvortrag auf dem Internationalen Mathematikerkongress in Cambridge (Massachusetts) ("A comprehensive view of prediction theory") und ebenso 1936 in Oslo ("Gap theorems"). Wiener starb auf einer Vortragsreise 1964 in Stockholm. Zu seinen Doktoranden zählt Norman Levinson. Rechenmaschinen. Der Name Wiener steht in engem Zusammenhang mit der Entwicklung von Rechenmaschinen, so entwickelte er 1940 einen Lösungsweg für partielle Differentialgleichungen. Wiener sagte zu seiner Bedeutung dabei: „Diese Vorstellungen lagen alle im Denken der Zeit nahe, und ich möchte auch nicht für einen Augenblick etwas Ähnliches wie die Urheberschaft ihrer Einführung beanspruchen.“ Kybernetik. Seine Beschäftigung mit der automatischen Zielsteuerung und dem automatischen Abfeuern von Flugabwehrgeschützen, mit einem Modell, das die Flugbahn eines Flugzeugs vorherbestimmt, aufgrund der Analyse des Verhaltens eines sich verfolgt wissenden Piloten, während des Zweiten Weltkriegs führte ihn über die Weiterentwicklung der Nachrichtentechnik und die Kommunikationstheorie zur Kybernetik. Deren Geburtsstunde lag im Jahr 1943. 1947 einigte er sich mit anderen Wissenschaftlern auf den Begriff „Cybernetics“ und eine einheitliche Terminologie. Es sollte eine Einheit von Problemen betrachtet werden aus dem Gebiet der Regelungen und der statistischen Mechanik, wie sie sowohl in technischen Systemen als auch bei lebenden Organismen von Bedeutung war. Das Buch "Cybernetics or Control and Communication in the Animal and the Machine" erschien 1948 nahezu gleichzeitig in New York und Paris. Wiener verfolgte stets einen realistischen Ansatz, so auch in seiner letzten Schrift: "God & Golem, Inc.; A Comment on Certain Points Where Cybernetics Impinges on Religion". Er war optimistisch bei neuen technischen Möglichkeiten, etwa der Steuerung von Prothesen als Ersatz für Gliedmaßen und Sinnesorgane; ein Eingreifen in gesellschaftliche, insbesondere ökonomische Prozesse hielt er hingegen für schwierig. Philosophie. Wiener bemühte sich, wissenschaftliche Ideen speziell der Kybernetik mit der Philosophiegeschichte zu verbinden, wobei ihn Baruch Spinoza und Gottfried Wilhelm Leibniz besonders beeinflussten. In seinem populärwissenschaftlichen Werk "The Human Use of Human Beings – Cybernetics and Society" beklagte er die gesellschaftlichen Zustände in den USA und die Haltung einflussreicher Kreise. Koniferen. Die Koniferen oder Nadelhölzer (Coniferales, häufig auch Pinales), auch Kiefernartige genannt, sind die größte heute noch lebende Gruppe der Nacktsamigen Pflanzen. Ihre Samenanlagen sind nicht durch Fruchtblätter geschützt. Die Sporophylle stehen häufig in Zapfen, woher auch der Name Koniferen rührt, der übersetzt „Zapfenträger“ bedeutet (von „Kegel, Zapfen“ und "ferre" „tragen“). Vorkommen. Nadelholzgewächse gibt es fast überall auf der Welt. Schwerpunkt sind jedoch die temperaten Gebiete der Nordhemisphäre. Den Schwerpunkt in der Südhemisphäre haben die Araukariengewächse und die Podocarpaceae, sie stellen auch etliche Vertreter in den Tropen. Zypressengewächse sind dagegen sowohl auf der südlichen als auch auf der nördlichen Welthalbkugel zu finden. In ihren nördlichen Habitaten sind die Nadelholzgewächse oft die dominierenden Pflanzen, zum Beispiel in der Taiga, dem borealen Nadelwaldgürtel. Nadelholzgewächse sind häufig Pionierpflanzen, die auf Böden wachsen, die Samenpflanzen anderer Ordnungen nur unzureichende Wachstumsbedingungen bieten. Auf guten Böden werden Nadelholzgewächse dagegen häufig von diesen verdrängt. So fehlen Nadelholzgewächse in den tropischen Wäldern Zentralafrikas und Amazoniens. In hochgelegenen tropischen Regenwäldern, wie man sie etwa in Südostasien findet, kommen Nadelholzgewächse dagegen vor. Eine besonders hohe Artenzahl an Nadelholzgewächsen findet man in Kalifornien, Mexiko, China mit den Regionen Sichuan und Yunnan, im Osthimalaya, Japan und auf Taiwan. Eine an Nadelholzgewächsen besonders reiche Insel ist Neukaledonien. Auf Inseln vulkanischen Ursprungs wie etwa Hawaii fehlen dagegen Nadelholzgewächse, da der Samen der meisten Nadelholzgewächse über Wind und über Zoochorie verbreitet wird und daher nur nahe an Küsten liegende Inseln vulkanischen Ursprungs natürlich besiedelt werden können. Der auf den Azoren vorkommende Kurzblättrige Wacholder gilt als die Nadelholzgewächsart, die in der größten Distanz zur nächsten Küste wächst. Vorfahren dieser Art gelangten im Verdauungstrakt von Vögeln auf die Insel. Beschreibung. Die heute lebenden Nadelholzgewächse sind holzige Pflanzen, die meisten Arten sind Bäume. Die Mehrzahl der Taxa hat einen monopodialen Wuchs, also einen Hauptstamm mit Seitenzweigen. Die Wuchshöhe von ausgewachsenen Koniferen reicht von weniger als einem Meter bis über einhundert Meter. Die am höchsten wachsende Art ist der Küstenmammutbaum ("Sequoia sempervirens"), mit einer maximalen Höhe von 112,8 Metern. Das größte Volumen hat ein Riesenmammutbaum ("Sequoiadendron giganteum"), mit 1486,9 Kubikmetern. Der dickste Nadelbaum ist eine in Mexiko stehende Mexikanische Sumpfzypresse ("Taxodium mucronatum") mit einem Stammdurchmesser von 11,42 Metern. Der älteste Baum ist ein Jahre altes Exemplar der Langlebigen Kiefer ("Pinus longaeva"). Old Tjikko, eine Gemeine Fichte, ist mit 9550 Jahren der älteste lebende individuelle Klonbaum. Grundsätzlich unterscheidet sich der Kronenaufbau der Nadelbäume von dem der Laubbäume. Diese entsteht, weil die Äste der Nadelbäume zur Spitze hin aufwärts gebogen sind. Aus der Abstufung des Längenzuwachses der Äste ergibt sich zumindest bei jüngeren Bäumen eine regelmäßig kegelförmige Krone. Eine schirmförmige Abflächung, wie sie etwa bei Kiefern vorkommt, entsteht erst im Alter. Das Holz zeichnet sich im Gegensatz zu den Palmfarnen durch schmale Markstrahlen („pycnoxyles Holz“) aus. Anders als bei Bedecktsamern haben Nadelgehölze niemals Tracheen, sondern nur Tracheiden. Auch ist das Holz sehr häufig reich an Harzen. Blätter. Die Blätter der meisten Nadelbäume sind lang, dünn und nadelförmig. Aber es gibt auch Taxa mit anderen Blattformen, dazu gehören die meisten Zypressengewächse (Cupressaceae) und die Steineibengewächse (Podocarpaceae), sie haben flache Blätter. Einige Taxa, besonders die Kauri ("Agathis") innerhalb der Araukariengewächse (Araucariaceae) und "Nageia" innerhalb der Podocarpaceae, haben breite flache Blätter. Die Gattung Phyllocladus besitzt anstelle von Blättern flache blattähnliche Kurztriebe, so genannte Phyllokladien. Bei der Mehrzahl der Nadelholzgewächse sind die Blätter spiralig um die Zweige angeordnet; Ausnahmen hierbei sind die Cupressaceae und eine Gattung bei Podocarpaceae, bei denen sie in gegenständigen Paaren oder in zu drei bis vier in Wirteln angeordnet sind. Es gibt Blattgrößen von 2 mm bis zu 400 mm Länge. Sehr lange Nadeln sind zum Beispiel für "Pinus engelmannii" charakteristisch. Die Stomata sind in Linien oder Haufen auf den Blättern angeordnet. Sie können bei kalter oder sehr trockener Witterung geschlossen werden. Bei der Mehrzahl der Gattungen sind die Blätter immergrün und bleiben an den Pflanzen für mehrere (2 bis 40) Jahre, bis sie abfallen. Aber drei Gattungen, nämlich Lärchen ("Larix"), Sumpfzypressen ("Taxodium") und Urweltmammutbaum ("Metasequoia") sind laubabwerfend; sie verlieren ihr Laub im Herbst und sind während des Winters blattlos. Die Keimlinge der meisten Nadelgehölze, dazu gehören die meisten Cupressaceae und die Kiefern ("Pinus"), haben Jugendblätter, die sich von den Blättern älterer Pflanzen stark unterscheiden. Samen und Zapfen. Nicht ausgereifter Zapfen mit Samenanlagen im Querschnitt Die meisten Nadelbäume sind getrenntgeschlechtlich meist einhäusig monözisch, einige sind zweihäusig diözisch (Eiben und Wacholder). Alle Pinophyta sind windbestäubt (anemophil). Die Befruchtung erfolgt durch unbegeißelte Spermazellen, die durch eine Pollenschlauchzelle zur Eizelle transportiert werden (Siphonogamie). Die Koniferen-Samen entwickeln sich in einem sie schützenden Zapfen. Die Zapfen brauchen bis zur Reife vier Monate bis drei Jahre. Sie werden 2 mm bis 600 mm lang. Bei den Pinaceae, Araucariaceae, Sciadopityaceae und den meisten Cupressaceae sind die Zapfen holzig. Wenn die Zapfen reif sind, öffnen sich normalerweise die Schuppen und lassen die Samen herausfallen, so dass sie vom Wind verbreitet werden können. Eine Reihe von Arten wirft ihre reifen Zapfen ab, bei anderen Arten bleiben diese dagegen an den Zweigen. Zu letzteren zählt beispielsweise die Monterey-Kiefer, bei der gelegentlich Zapfen vom nachwachsenden Holz überwölbt werden. Bei den Familien der Podocarpaceae und der Gattung Wacholder ("Juniperus") der Cupressaceae sind die Schuppen weich, fleischig, süß und leuchtend gefärbt. Sie werden von Vögeln gefressen, die Samen passieren den Verdauungstrakt und werden unbeschädigt wieder ausgeschieden. Bei den Wacholderarten ("Juniperus") spricht man umgangssprachlich oft von Beeren, besser von Beerenzapfen, da es sich morphologisch nicht um Beeren handelt. Bei den Cephalotaxaceae und Taxaceae fehlen die Fruchtschuppen, die Samen werden von einem fleischigen Samenmantel (Arillus) umhüllt. Systematik. Die Klasse Coniferopsida (oder Pinopsida) beinhaltete lange nur die einzige Ordnung Pinales. Heute wird ihr häufig auch die Ordnung Gnetales zugerechnet, wobei diese Zuordnung nicht unumstritten ist. Viele molekulargenetische Studien sahen die Gnetales als die Schwestergruppe der Pinaceae. Die Schwester-Ordnung der Pinales ist die nur fossil bekannte Ordnung Voltziales. Evolution. Bei den fossilen Taxa der Abteilung Pinophyta sind zwei wichtige Gruppen zu nennen, die Cordaiten und die Voltziales. Die Cordaiten lebten im Karbon und Perm. Es waren bis zu 30 Meter hohe, reich verzweigte Bäume mit lanzettlichen bis bandförmigen spiralig angeordneten Blättern. Die männlichen „Blüten“ waren zapfenförmig mit basalen sterilen Schuppenblättern und Staubblättern mit mehreren Pollensäcken. Diese standen in der Achsel von Tragblättern an Achsen, die wiederum in den Achseln von Laubblättern standen. Die weiblichen Blüten waren ähnlich aufgebaut, nur dass die endständigen Schuppenblätter atrope Samenanlagen trugen. Die Voltziales (Oberkarbon bis Unter-Jura) waren ebenfalls Bäume mit nadligen bis schuppenförmigen Blättern. Die Staubblätter waren gestielt und am Ende, wo die Pollensäcke meist auf der achsenzugewandten Seite standen, flächig. Die weiblichen „Blüten“ besaßen ein als Deckschuppe ausgebildetes Tragblatt, weitere sterile Schuppenblätter und gestielte Samenanlagen. Auch wie bei den rezenten Koniferen standen bei den Voltziales die weiblichen Blüten in kompakten Zapfen. Sie gelten als den Nadelholzgewächsen ähnlichste und nächstverwandte Gruppe. Aus den Erkenntnissen über Voltziales schlussfolgerte Rudolf Florin, dass die Samenanlagen nicht aus Blättern entstammen, sondern achsenständig (Stachyosporie) sind. Zudem sind demnach die Samenschuppen der rezenten Koniferen (außer Taxaceae und Cephalotaxaceae) modifizierte Kurztriebe, da Blätter keine Tragblätter (Deckschuppe!) besitzen. Nusseiben. Die Nusseiben ("Torreya") bilden eine Pflanzengattung in der Familie der Eibengewächse (Taxaceae). Sie besitzt heute ein disjunktes Areal mit Arten in den südöstlichen sowie westlichen USA und in China sowie Japan. Vegetative Merkmale. Nusseiben-Arten sind immergrüne Sträucher oder kleine Bäume. Die Äste sind in Wirteln und die Zweige fast gegenständig bis fast wirtelig angeordnet. Die Borke ist braun bis gräulich-braun. Die Nadeln scheinen zweireihig am Zweig angeordnet zu sein. Die Winterknospen besitzen einige kreuzgegenständig angeordnete Paare von Knospenschuppen. Der Sämling besitzt nur zwei Keimblätter (Kotyledonen). Die Blätter sind kreuzgegenständig oder fast gegenständig und zweizeilig an den Zweigen angeordnet. Die an ihrer Basis gedrehten Blätter sind ledrig und lineal oder lineal-lanzettlich mit herablaufender Basis sowie scharf zugespitztem oberen Ende. Auf der etwas konvexen Blattunterseite sind zwei Stomatabänder und Harzkanäle vorhanden und der Mittelnerv ist mehr oder weniger undeutlich erkennbar. Generative Merkmale. Sie sind meist zweihäusig getrenntgeschlechtig (diözisch), sehr selten einhäusig (monözisch). Die männlichen Zapfen stehen einzeln und seitenständig auch einem kurzen Schaft. Die männlichen Zapfen sind ellipsoid oder kurz säulenförmig und enthalten sechs bis acht Wirtel mit je vier Mikrosporophylle. Jedes Mikrosporophyll besitzt selten drei oder meist vier hängende Pollensäcke (Mikrosporangien). Die weiblichen Blütenzapfen sind sitzend paarweise in den Blattachseln angeordnet. Die weiblichen Blütenzapfen besitzen zwei Paare kreuzgegenständiger Zapfenschuppen und eine seitliche. Es ist nur eine aufrechte Samenanlage vorhanden. An der Basis der haltbaren Zapfenschuppen befindet sich ein sukkulenter Arillus. Dieser grüne Samenmantel (Arillus) umgibt den Samen; beide Strukturen zusammen wirken steinfruchtartig. Die Samen brauchen von der Befruchtung bis zur Reife im Herbst etwa zwei Jahre. Die Chromosomenzahlen betragen 2n = 22. Verbreitung. Die Gattung "Torreya" besitzt heute ein disjunktes Areal mit Arten, die nur in Nordamerika (in den südöstlichen und westlichen USA) oder nur Asien (in China und Japan) vorkommen. Die "Torreya"-Arten kommen heute überwiegend an den Pazifikküsten vor und ihre Verbreitung deutet auf eine ehemals kontinuierliche Verbreitungszone über die Beringstraße hin. Sie gedeihen vereinzelt in Wäldern. Systematik. Die Gattung "Torreya" wurde 1838 durch George Arnott Walker Arnott in "Annals of Natural History", 1, S. 130–132 aufgestellt. Es gibt auch andere Veröffentlichungen für diesen Gattungsnamen, aber die von Arnott wurde als die gültige festgelegt. Der botanische Gattungsname "Torreya" ehrt den US-amerikanischen Botaniker John Torrey (1796–1873). Ein Synonym für "Torreya" Arn. ist "Tumion" Raf. Neandertal. Das Neandertal, bis in das frühe 19. Jahrhundert überwiegend als "das Gesteins" bezeichnet, ist ein weitgehend unbebauter Talabschnitt der Düssel im niederbergischen Land auf dem Gebiet der Städte Erkrath und Mettmann im Kreis Mettmann, ca. 10 km östlich von Düsseldorf. Die ursprüngliche, einst weithin bekannte Schlucht von knapp einem Kilometer Länge wurde im 19. Jahrhundert durch den Kalkabbau vollständig zerstört. Unmittelbar danach erlangte das Neandertal weltweit Berühmtheit durch den Fund fossiler Überreste eines Urzeitmenschen aus dem Pleistozän, der als "Neanderthaler" Namensgeber dieser Spezies wurde. Namen. Das Neandertal wurde ursprünglich "das Gesteins", das "Hundsklipp" oder einfach nur das "Klipp" genannt. Welche Bedeutung der Name Hundsklipp (manchmal auch Hunnsklipp geschrieben) hat, ist nicht eindeutig geklärt. Es gab Erklärungsversuche, das Wort leite sich von Honnschaft oder gar von den Hunnen ab. Etwa Mitte des 19. Jahrhunderts erfolgte die Umbenennung in „Neanderthal“, in Erinnerung an den bekannten Kirchenkomponisten und evangelisch-reformierten Pastor Joachim Neander („"Lobe den Herren, den mächtigen König der Ehren"“). Der gebürtige Bremer Neander war zwischen 1674 und 1679 Rektor der Düsseldorfer Lateinschule der reformierten Kirchengemeinde und Hilfsprediger. Oft suchte er in seiner Freizeit dieses damals noch schluchtartige Tal auf. Hier hielt er Gottesdienste und Konventikel ab und komponierte viele seiner heute noch bekannten Kirchenlieder und Choräle. Ursprünglich wurden neben dem Begriff "Gesteins" oftmals auch die einzelnen Fels- und Höhlenformationen wie "Engelskammer", "Teufelskammer", "Leuchtenburg", "Predigtstuhl", "Feldhofer Kirche" oder "Rabenstein" mit Namen genannt, ab 1800 wurden die Begriffe "Neandersstuhl" und "Neandershöhle" in Reiseberichten gebräuchlich. Während der Kalkabbau in der zweiten Hälfte des 19. Jahrhunderts die Naturschönheit der Felsen zerstörte und ein weiträumiges Tal entstand, setzte sich der Begriff "Neanderthal" durch. Bis in die 1880er Jahre jedoch hielt sich im Volksmund der Begriff "Gesteins". Er verschwand somit erst, als vom eigentlichen Gesteins nichts mehr übrig war. Im Zuge der Rechtschreibreform von 1901 entfiel das „h“ offiziell aus dem Namen; das Museum mit seiner paläontologischen Thematik verwendet jedoch in Anlehnung an die wissenschaftliche Schreibweise „neanderthalensis“ weiterhin die traditionelle Schreibweise. Auch der Bahnhof hat diese Schreibweise beibehalten. Die Website der Stadt Mettmann begründet das so: „Weder die Bundesbahn, noch die Regio-Bahn wagten es, diesen Haltepunkt wegen seines engen Bezuges und seiner unmittelbaren Nähe zum Museum umzubenennen.“ Geschichte. Der Rabenstein nach einer Säuberungsaktion 2007 Schautafel am „Alten Kalkofen“ mit Ansicht des Rabensteins von 1906 Das Neandertal war früher eine knapp 1.000 m lange und etwa 50 m tiefe enge Schlucht im mitteldevonischen Kalkstein mit teils überhängenden Wänden, Wasserfällen, vielen kleineren Höhlen und großem Artenreichtum. In der Hügellandschaft des Niederbergischen, einer Fastebene mit eingeschnittenen Bachtälern, war ein derartig enges Felsental eine ungekannte, fremdartige Erscheinung, weshalb sie mitunter sogar mit der Graubündener Schlucht Viamala verglichen wurde. Trotz zahlreicher erhaltener Naturstudien unter anderem von Schülern der Düsseldorfer Malerschule und einiger Fotografien früher Abbauzustände (das Neanderthal Museum zählt 150 bildliche Darstellungen) liegt die damalige Topographie der Schlucht heute großenteils im Dunklen. Der Erkrather Arzt und preußische Hofrat Johann Heinrich Bongard beschreibt in seinem 1835 erschienenen Buch "Wanderung zur Neandershöhle" erstmals das zu diesem Zeitpunkt noch unberührte Gesteins mit seiner Düsselklamm sehr detailliert inklusiv einiger Illustrationen, ohne den noch nicht gebräuchlichen Namen "Neandertal" zu nennen. Zudem beschreibt der Naturfreund in diesem Wanderführer die Geologie und die vielfältige Botanik der Felsenschlucht und ihren Artenreichtum mit Pflanzen wie Belladonna, Wolfsmilch, Schierling, Thymian, Waldmeister, Brunnenkresse und der im Tale sehr häufig vorkommenden und großflächig wachsenden Pestwurzen. Seine Schilderungen geben auch heute noch den besten Überblick über die ursprüngliche Schönheit der Natur, die zu seiner Zeit bereits ein weithin bekanntes und nach Eröffnung der Bahnlinie Düsseldorf-Elberfeld 1841 auch stark frequentiertes Ausflugsziel von Naturfreunden, Tagesausflüglern und Sangesgruppen war. Die Künstler der Düsseldorfer Malerschule nutzten das Gesteins nicht nur als Vorlage zur Landschaftsmalerei, sondern auch vielfach für ihre Festivitäten und Tagesausflüge. Im Neandertal wurde vermutlich bereits seit dem Mittelalter Kalkstein (devonischer Massenkalk) in geringen Mengen für die bäuerliche Kalkbrennerei abgebaut. So sind bereits aus den Jahren 1519 und 1672 Kalköfen beurkundet, von denen sich der ältere auf dem heutigen Gelände des ehemaligen Mannesmann-Kalkwerkes befand und der andere mit Namen "Huppertsbracken" als kulturgeschichtliches Denkmal 1986 restauriert wurde und heute an der Düssel oberhalb des Neandertales (zwischen den Höfen Thunis und Bracken) am Wegesrand zu besichtigen ist. Die Ruine des "Feldhofer" oder "Hatzfeld’schen Kalkofens" befindet sich an der "Braumüllerschen Düsselbrücke" am Parkplatz "Am alten Kalkofen". War das Tal vom Bau der ersten westdeutschen Eisenbahnlinie von Düsseldorf nach Erkrath noch nicht unmittelbar betroffen (eröffnet 1838, 1841 bis nach Elberfeld erweitert), so veränderte der 1849 einsetzende industrielle Kalksteinabbau das Tal vollständig. 1854 wurde die „Actiengesellschaft für Marmorindustrie im Neanderthal“ gegründet, die den Kalkabbau in großem Stil vorantrieb. Kalk wurde nicht nur für Bauzwecke und die Stahl- und Kohleindustrie des Ruhrgebiets benötigt, auch die nahegelegene Eisenhütte in Hochdahl benötigte ihn als basischen Zusatzstoff für die Verhüttung. Etwa ein Jahrhundert lang prägte der Kalkabbau das Tal; erst 1945 wurde der Betrieb eingestellt. Von den ursprünglichen Kalkfelsen war hiernach nichts mehr zu sehen, da sämtliche Gesteinsformationen und Höhlen innerhalb von weniger als 100 Jahren dem Kalkabbau zum Opfer gefallen waren. Nur der sogenannte "Rabenstein", eine Felsnase unmittelbar an der Straße und am Eingang zum Fundort des Neandertalers, ist übrig geblieben. 1926 wurde eine Tafel angebracht, die an den Fund des Neandertalers durch Johann Carl Fuhlrott erinnert. Drei Jahre später wurde auch die Neanderhöhle als letzter Rest des ursprünglichen Gesteins gesprengt. Topographische Skizze des ehemaligen Neandertals um 1840. Der untere Eingang der "Neandershöhle" (der Blick durch den nach rechts gekrümmten Gang war in dieser Weise nicht möglich, Lithographie in Bongard, 1835) Der „kleine Wasserfall“, vermutlich der Laubach-Wasserfall (in Bongard, 1835) Blick von der "Kanzel" auf den "Rabenstein" im Hintergrund, rechts die Höhle "Feldhofskirche", Darstellung etwas überhöht (in Bongard, 1835) Sondermarke der Deutschen Post AG zum 150. Jahrestag des Fundes 2006 mit Verwendung des Rabensteinbildes von Bongard und der im Neandertal vorgefundenen Schädelkalotte Im Folgenden ist die Schlucht nur so weit beschrieben, wie es aus den bisher bekannten Dokumenten weitgehend sicher geschlossen werden kann. In der Talweitung an der Einmündung des Mettmanner Baches beim heutigen Neanderthal-Museum lagen beiderseits der Brücke über die Düssel zwei bäuerliche Anwesen: "Hundsklipp" mit Hundsklipper Mühle südlich der Düssel (Bürgermeisterei Haan) und "In der Medtman" nördlich der Düssel (Bürgermeisterei Mettmann). Von letzterer führte ein Weg in weitem Bogen um den Talkessel auf die Hochfläche zum einstigen Gut "Kastein", ein anderer durch einen Hohlweg (beim seit 1879 bestehenden "Bahnhof Neanderthal") nach "Eidamshaus" und Mettmann. Der vom Hof Hundsklipp mit seiner Gartenwirtschaft nach Süden steil ansteigende Weg berührte den "Feldhof", zu dessen Ländereien das linksufrige Gesteins gehörte, sowie ab 1841 den "Bahnhof Hochdahl". Düsselabwärts wurden die Talwiesen von der "Hundsklippe" mauerartig begrenzt. An deren Fuß öffnete sich in einem Felsvorsprung nach Südwesten hin eine kleine Grotte mit türartigem Portal, die "Engelskammer" (heutige Ostspitze des Busparkplatzes). Im gegenüber liegenden Steilhang öffnete sich etwa 10 m über dem Bach flach elliptisch die größere, dunkle "Teufelskammer" mit einigen Tropfsteinen. Ihr Portal war von der Hochfläche herab erreichbar. Dorthin hatte sie auch eine unpassierbare schlotartige Öffnung. Zwischen der Teufelskammer und der Hundsklippe begann die Schlucht des "Gesteins", in der die Düssel, nun in nordwestlicher Richtung, ein stark verblocktes Bett durchrauschte. Nahe der Engelskammer begann durch einen Quellgrund der Aufstieg zur fast 40 m aufragenden Felsmauer des "Rabensteins". Sie hing mehr als 5 m nach Nordwesten über und bot einen schwindelerregenden Tiefblick in die hier besonders enge, fast klammartige Schlucht. Der Rabenstein lag zwischen dem heute so benannten erhaltenen Rest der nordwestlich anschließenden Wandpartie (mit der 1926 rückseitig angebrachten Gedenktafel für Johann Carl Fuhlrott) und den Pfeilern der ehemaligen Lorenbahn des Steinbruchs. Ihm genau gegenüber ragte links der Düssel ein Fels auf, der durch die gleiche Massenkalk-Bank gebildet wurde. Die Gesteinsbänke fallen hier generell um 45° nach Südosten ein und queren die Düssel fast rechtwinklig. Dieser Enge folgte rechts eine erste Talweitung. Hier überkrustete unterhalb der dolinenartigen "Wolfsgrube" im Oberhang eine Quelle den felsigen Steilhang mit Kalktuff. Nach einem lauten Katarakt der Düssel öffnete sich links eine weitere, sehr steilwandige Einbuchtung mit ebener, vernässter Sohle. In der Wand darüber gab es in etwa 20 Metern Höhe ein begehbares Felsband, auf das sich die große Grotte der "Feldhofskirche" nach Nordwesten öffnete. Einige Meter weiter westlich gewährte ein waagerechter, gut handbreiter Spalt Einblick in die kleine Grotte, die später als Fundort weltbekannt werden sollte. Etwas weiter wurde die Einbuchtung von einer hohen, oben überhängenden und von Efeu überwucherten Felsmauer nach Nordwesten abgeschlossen. Diesem Felsenrund gegenüber öffnete sich ebenfalls etwa 20 m über der Düssel trichterartig aufgeweitet das untere, 6 m breite Portal der "Neanderhöhle", vormals "Leuchtenburg" genannt. Dieser im Rechtsbogen ansteigende, von Kalksinter überkrustete, ebenmäßige Gang trat nach etwa 30 Metern Länge an der Südwand der "Neanderfelsen" wieder aus. Wie eine Fortsetzung war dem oberen Portal ein efeuberankter Felsenbogen vorgelagert. Durch ihn erreichte man die Höhle von oben, das heißt vom Hof Kastein her (heute Steinbruch, zuletzt Kalksteinwerk Neandertal GmbH), so auch die Künstler der Düsseldorfer Kunstakademie, wenn sie hier Feste feierten. Über der Höhle ragte als eine von vielen Felsspitzen der "Neandersstuhl" auf, ein viel besuchter Aussichtspunkt über die Schlucht, der auch wegen des laut hierhin reflektierten Rauschens der Düssel faszinierte. Dann öffnete sich der zentrale Felsenkessel mit ebenem, feuchtem, von einzelnen Bäumen beschattetem Grund. Die Düssel floss hier breit und still dahin. Von rechts mündete die Seitenschlucht des "Laubachs" ein mit Wasserfällen, die durch eine 10–15 m hohe Kalktuff-Terrasse gebildet wurden. In einem älteren Teil der Kalktuffmasse lag nahe der Laubachfälle (s. Wasserfälle in Deutschland) die "Löwen"- oder "Wolfsschlucht", eine verwinkelte Primärhöhle. Ihr gegenüber auf dem linken, südlichen Ufer lag die Grotte "Pferdestall". Im oberen Laubachtal wurden der recht große und alte Kasteiner Steinbruch mit Kalkofen sowie die Kasteiner Mühle betrieben. Von Kastein führte ein guter Weg hinab bis fast an die Wasserfallkante. Im unteren Teil seiner Schlucht erschien der Laubach durch den Rückstau der langsam wachsenden Kalktuff-Terrasse nahezu als stehendes Gewässer. Der Felsenkessel wurde überragt von dem Felsturm der "Kanzel" mit großartigem Ausblick und von weiteren Felsgebilden, darunter einer gut 15 m hohen Felsnadel in den südlichen Wänden. Dort gab es auch einen weiteren, weniger besuchten Felsenbogen, die "Hohthalspforte". Die folgende, letzte und unwegsame Felspassage schloss mit dem niedrigen "Düsselfall" ab. Er markierte den Ausgang der kaum 600 m langen Schlucht. Ab hier war wieder Raum für bewässerte Talwiesen. Nur links setzten sich die schroffen Wände noch 300 m weiter fort bis etwa zur "Braumüllerschen Brücke" von 1820 am Wandererparkplatz. Beiderseits des unteren Schluchtausganges waren Steinbrüche in Betrieb und nahe der Brücke mehrere Kalköfen, von denen einer (vermutlich der von Gräfin Hatzfeldt, Kalkum), auch bekannt als "Feldhofer Kalkofen", als Ruine erhalten ist. Die Schlucht besaß nach der Schilderung von Bongard (1835) einen beeindruckenden floristischen und faunistischen Reichtum. Auch wegen der Karstphänomene und ihrer mal wuchtigen, mal pittoresken Felsszenerie war sie eines der herausragenden Naturwunder des nordwestlichen Deutschland. Fund des Neandertalers 1856. Nahaufnahme der im Jahr 2009 restaurierten Erinnerungstafel am Rabenstein Beim Ausräumen von Höhlenlehm stießen im August 1856 zwei italienische Steinbrucharbeiter an der "Kleinen Feldhofer Grotte" auf 16 Knochenfragmente. Sie wurden zunächst achtlos weggeworfen; als jedoch ein Teil einer Schädelkalotte aufgefunden wurde, zogen der Eigentümer des Steinbruchs, Friedrich Wilhelm Pieper, und Mitbesitzer Wilhelm Beckershoff, die Bärenknochen vermuteten, den Lehrer und Naturforscher Johann Carl Fuhlrott aus Elberfeld (heute zu Wuppertal) zu Rate. Fuhlrott interpretierte die Knochenreste als Teile eines Skeletts eines Urzeitmenschen. Auch der von Fuhlrott hinzugezogene Bonner Anthropologe Hermann Schaaffhausen ging von einem Urzeitmenschen aus, wollte aber Fuhlrotts These von einem eiszeitlichen Wesen anfangs nicht zustimmen. Insgesamt wurden die Schädelkalotte, beide Oberschenkelknochen, der rechte Oberarm mit Speiche, der linke Oberarm mit Elle, ein Fragment des rechten Schulterblattes, das rechte Schlüsselbein, die linke Beckenhälfte und fünf Rippen geborgen. Das Skelett war vermutlich in der Längenrichtung der Grotte horizontal hingestreckt, mit dem Schädel nach der Mündung gewendet. Aufgrund der fest anklebenden Lehmhülle, die es umgab, wurde das Skelett nicht als solches erkannt und könnte sogar komplett vorhanden gewesen sein. Erstmals wurde der Fund 1857 von Fuhlrott und Schaaffhausen auf der Generalversammlung des Naturhistorischen Vereins der preußischen Rheinlande präsentiert. Fuhlrotts Interpretation wurde jedoch zu seinen Lebzeiten von der Fachwelt nicht anerkannt, ja sogar vehement abgelehnt oder ins Lächerliche gezogen. Gerade vor dem Hintergrund der neu aufkommenden Evolutionstheorie entflammten starke Kontroversen, die die damalige, Cuvier zugeschriebene Lehrmeinung "L'homme fossile n'existe pas!" in Zweifel stellten. So war der berühmte Arzt und bedeutendste deutsche Pathologe seiner Zeit Rudolf Virchow, der sich die Skelettreste 1872 in Fuhlrotts Abwesenheit hat zeigen lassen, der festen Meinung, nur das Skelett eines kranken Mannes jüngeren Datums vor sich zu haben. Seine Interpretation führte dazu, dass die Forschung in Deutschland über Jahrzehnte zum Erliegen kam. Der britische Forscher und Geologe Charles Lyell hingegen, der von den damals bahnbrechenden Theorien seines Freundes und Kollegen Charles Darwin stark beeinflusst war und 1860 auf Einladung Fuhlrotts das Neandertal besuchte, bezog den Neandertaler mit in seine Arbeiten ein und bestätigte Fuhlrott letztendlich. Wie sich nach späteren Forschungen herausstellte, lebten die Neandertaler im Pleistozän vor circa 130.000 bis 30.000 Jahren. Die Skelettfragmente aus dem Neandertal sind nach neuesten Bestimmungen 42.000 Jahre alt, gehören demnach zu den jüngsten Spuren des Neandertalers in Mitteleuropa. Diese Spezies wurde 1863/64 von dem irischen Geologen William King nach dem Fundort als "Homo neanderthalensis" benannt und als "Neandertaler" weit später ein weltweiter Begriff. Fuhlrott selbst erlebte das nicht mehr, er starb im Jahre 1877, lange vor der endgültigen Anerkennung seiner These. Bereits um 1900 war die Lage der Fundstelle und damit der aus der Höhle heraus geschaufelten Sedimente nicht mehr bekannt. Während der Fund ab dem 19. Jahrhundert Weltruhm erlangte, versank das Neandertal im Schutt der wachsenden Steinbrüche. Heute ist nicht mehr nachvollziehbar, warum kaum jemand weitere Grabungen und Forschungen angestellt hat, obwohl im Schutt noch weitere Funde zu vermuten waren. Auch die erst 1890 als letzte große Höhle des Gesteins gesprengte "Neanderhöhle" wurde nie eingehend untersucht. Vermutlich wurden 1895 von dem Düsseldorfer Archäologen Oscar Rautert in einer bereits zerstörten Höhle am nördlichen Düsselufer Skelettreste eines weiteren Neandertalers entdeckt, aber auch hier fand keine eingehende Untersuchung statt. Dieser Fund gilt seit dem Zweiten Weltkrieg als verschollen. Weitere Funde 1997–2000. Die Schädelkalotte von 1856 aus dem Neandertal, vorne anliegend das dazu passende Jochbein vom Fund aus dem Jahr 2000 (Rheinisches Landesmuseum Bonn) Rekonstruktion eines Neandertalers nach der neuesten Forschung (Neanderthal Museum) Seit 1991 wird der Neandertaler im Rahmen eines Forschungsprojektes in Zusammenarbeit mit dem Rheinischen Landesmuseum Bonn unter der Leitung von Ralf W. Schmitz eingehend unter Verwendung neuester Verfahren neu untersucht. Früh wurde klar, dass für weitere Forschungen eine erneute Grabung am Originalfundort notwendig war. An der vermuteten Stelle befand sich über Jahrzehnte eine Autoverwertung mit Schrottplatz; sie war im März 1994 geschlossen worden. Nachdem sämtliche Genehmigungen seitens der Stadt Erkrath, des Kreises Mettmann, der Eigentümerin Rheinisch-Westfälische Kalkwerke (RWK) und anderer Beteiligter vorlagen, fanden Grabungen durch Schmitz und seinen Kollegen Jürgen Thiessen statt. Zunächst wurde unter schwierigen Recherchen versucht, den eigentlichen Fundort zu erfassen. Beim Ausräumen von Höhlenlehm wurden Mitte des 19. Jahrhunderts wahrscheinlich weitere Knochenreste achtlos irgendwo hingeworfen und überdeckt. Im Rahmen einer Grabung des Rheinischen Amtes für Bodendenkmalpflege 1997 gelang es beiden Forschern, die Sedimente der "Kleinen Feldhofer Grotte", des mutmaßlichen Fundorts von 1856, und die der benachbarten Höhle "Feldhofer Kirche" wiederzuentdecken. Bei dieser und vor allem bei weiteren Grabungen 1999 und 2000 wurden spektakuläre Funde gemacht. Neben 25.000 Jahre alten Steingeräten der jüngeren "Cro-Magnon-Menschen" des Jungpaläolithikums und welchen der Neandertaler aus der Zeit vor 42.000 Jahren wurden circa 70 menschliche Knochenfragmente zwei Meter unter der Erdoberfläche gefunden. Hierbei wurde festgestellt, dass drei dieser Fragmente, unter anderem ein Jochbein und ein Stück des Oberschenkelknochens, sich direkt an den Knochenfund von 1856 ansetzen lassen, es sich also um Teile des Urfundes handelt. Zudem wurden Fragmente eines zweiten, bis dahin unbekannten Neandertalers und ein ausgefallener Milchzahn eines Neandertalerkindes entdeckt. Diese Funde fanden weltweite Beachtung und ließen das Neandertal wieder überregional ins Gespräch kommen. Diese Skelettteile sind nach wie vor Bestandteil intensiver Forschungen. Der Fundbereich wurde für mindestens 50 Jahre geschlossen und versiegelt, aber der Öffentlichkeit durch einen als Zeitstrahl eingerichteten gesicherten Wanderweg vom Museum aus zugänglich gemacht. Neben den Funden aus dem Pleistozän fanden sich auch zahllose Artefakte, wie Werkzeugereste, Schwellennägel, Schrauben aus der frühen Kalkabbauzeit oder Weinkrugscherben, vermutlich von Festen der Düsseldorfer Malerschule. Hinter der Fundstelle befindet sich ein nicht zugänglicher und nicht einsehbarer Reststeinbruch, der anfangs vom Fraunhofer-Institut und später als Außenstelle des Botanischen Instituts der Universität Düsseldorf zu Forschungen genutzt wurde. Er wird heute zumeist "Fraunhofer-Bruch" genannt und ist im Herbst und Winter bei entlaubten Bäumen sehr gut von den Regiobahnzügen aus zu erkennen. Naturschutzgebiet Neandertal. Pfeiler der ehemaligen Lorenbahn unmittelbar am Rabenstein Das Naturschutzgebiet Neandertal umfasst ein Gebiet, das neben dem eigentlichen Tal der Düssel auch ein größeres Umfeld von etwa vier Quadratkilometer Größe einbezieht, das nicht gänzlich zum eigentlichen Neandertal gehört. Nachdem von der ursprünglichen Schönheit des Gesteins und der Düsselklamm kaum noch etwas zu erahnen und das Tal durch den industriellen Kalkabbau stellenweise bis zu 350 m breit war, wurden am 9. August 1921 weite Teile des Tales unter Schutz gestellt. Dies gelang aufgrund der Initiative des am 28. November 1920 von Bürgern der damaligen Gemeinden Erkrath, Mettmann und Gruiten sowie der Städte Düsseldorf und Elberfeld gegründeten "Naturschutzvereins Neandertal e. V." Dieses Komitee machte es sich zur Aufgabe, nicht nur die wenigen Reste des Tales zu schützen, sondern die Funde auch der Nachwelt zu erhalten, und regte die Einrichtung eines Museums an, welches am 3. März 1938 eröffnet werden konnte. Dringlich wurde die Schutzstellung vor allem wegen Planungen, große Teile des verbliebenen Waldbestandes abzuholzen, da es in der Zeit der französischen Besetzung des Rheinlands durch Reparationsleistungen zu einer Brennmittelknappheit kam. So wurde das Neandertal das erste Naturschutzgebiet Preußens, ein halbes Jahr vor der Lüneburger Heide und zwei Jahre vor dem Siebengebirge. Nachdem 1945 der Kalkabbau vollständig eingestellt wurde, begann eine Rückeroberung großer Teile des Areals durch die Tier- und Pflanzenwelt. Eine rechtliche Aufwertung des Naturschutzgebiets (NSG) ergab sich zu Ende des 20. Jahrhunderts durch die Ausweisung des Tals als Natura-2000-Gebiet. Auf Grund der geltenden Fauna-Flora-Habitat-Richtlinie gilt für das Naturschutzgebiet Neandertal ein strenges Schutzsystem, das alle Maßnahmen (Nutzungen) verbietet, die zu Schädigungen am Schutzgut führen könnten. Die Naherholungsnutzung ist sinngemäß nach § 23 Bundesnaturschutzgesetz nur erlaubt, wenn sie mit dem Schutzzweck zu vereinbaren ist. Der Schutzzweck wird in der Schutzgebietsausweisung der Kreisverwaltung Mettmann definiert. So ist zum Beispiel das Verlassen von Wegen verboten und das Anleinen von Hunden zwingend vorgeschrieben. Seit dem Neubau des Museums, der wesentlich gestiegene Besucherzahlen mit sich brachte, der Begehbarmachung und Restaurierung des wiederentdeckten Fundortes und der Entfernung der Autoverwertung verstärken sich die Spannungen zwischen Naturschutz und Nutzung im Neandertal. Obwohl das Neandertal seit seiner Ausweisung als Naturschutzgebiet als "Vorranggebiet für den Naturschutz" gilt, wurde seit den 1990er Jahren parallel die Naherholungsinfrastruktur ausgebaut. Die Verlagerung des Museums aus dem Naturschutzgebiet heraus sollte ursprünglich eine Entlastung des Tales bewirken. Da der Bau des neuen Museums aber in unmittelbarer Nähe zum Naturschutzgebiet errichtet und das alte Museumsgebäude, anders als ursprünglich geplant, nicht beseitigt wurde, verschärften sich die Probleme. Das ehemalige Museum wurde nach vorübergehender Nutzung als Magazin als Nebenstandort des Museums reaktiviert, in dem vielerlei Nutzungen (zum Beispiel eine Steinzeitwerkstatt für Kinder und Workshops) stattfinden. Obwohl sich Maßnahmen des Artenschutzes im Neandertal kaum umsetzen lassen, da sie eine Einschränkung der Naherholungsnutzung zur Vorbedingung hätten, sind an weniger zugänglichen Standorten Relikte der von Bongard bereits 1835 beschriebenen Artenvielfalt erhalten geblieben. Viele der von Bongard und einigen Botanikern noch im 19. Jahrhundert beschriebenen Pflanzenarten, wie das Weiße und Langblättrige Waldvöglein, das wilde Silberblatt oder der Quirl-Weißwurz, existieren im Neandertal nicht mehr; andere auf der roten Liste aufgelistete Pflanzenarten wurden bei Untersuchungen 1987 wiederentdeckt. Als Beispiele sind zu nennen der Hirschzungenfarn (im Neandertal existieren vermutlich die größten Vorkommen im nördlichen Rheinland) und der Milzfarn, der Jahrzehnte lang verschwunden war und nun wieder in wenigen Exemplaren am nördlichsten rheinischen Standort gefunden wurde. An den Kalkfelswänden siedeln sich seltene Moose an, auch verschiedene Pilzarten, wie die seltene Erdzunge, haben wieder eine Heimstatt gefunden. Heute existieren im Neandertal verschiedene Waldgesellschaften, die je nach Bodenbeschaffenheit, Exposition und Feuchtegrad variieren. Am alten Museum finden sich Eichen-Birken-Wälder, am Düsselhang zum Wildgehege hin überwiegend Birken. Die am weitesten verbreitete Waldgesellschaft ist der Hainsimsen-Buchenwald, aber auch kleine Rotbuchenbestände sind vorhanden. In schattigen, nicht zu steilen Lagen gedeiht eine üppige Farnvegetation. In feuchten Mulden an der Düssel wächst auch die Pestwurz. Eisvogel ("Alcedo atthis"), Wasseramsel ("Cinclus cinclus"), Ringelnatter ("Natrix natrix") und Zauneidechse ("Lacerta agilis") sind gelegentlich noch zu beobachten. Der Erforschung der Lebensstätten und Förderung dieser Arten widmen sich vor allem die im Raum des Neandertals tätigen Naturschutzorganisationen. Trotz der Ausweisung des Neandertales als Naturschutzgebiet ist es nicht zu verhindern gewesen, dass in den 1990er Jahren hier die letzte Population der Geburtshelferkröte ("Alytes obstetricans") ausgestorben ist. Neanderthal-Museum, Kunstweg und Eiszeitliches Wildgehege. Zugang zur Fundstelle – Links der Rabenstein Das neue Neanderthal-Museum beschäftigt sich vorrangig mit der Darstellung der Entwicklungsgeschichte des Neandertalers und des Menschen. Es ist durch seine Konzeption und Art der Präsentation mittlerweile weltbekannt und wird stark frequentiert. Zu den insgesamt 170.000 Besuchern jährlich gehören auch viele Schulklassen. Eine Ausstellung zeigt den langen Weg der Menschheit aus den Savannen in die Großstadt. Das Museum arbeitet mit modernen Audiosystemen, die auch auf dem Weg zum Fundort genutzt werden können, und mit multimedialen Inszenierungen. Aber auch klassische Medien wie Exponate und Lesetexte sind Bestandteil der Ausstellungen. Einen Schwerpunkt bilden natürlich die Neandertaler, deren lebensechte Figuren auf der Basis von Original-Schädelfunden mit wissenschaftlichen Verfahren rekonstruiert wurden. Die Originale der aufgefundenen Skelettreste befinden sich jedoch nicht im Neanderthal-Museum, sondern im Rheinischen Landesmuseum in Bonn, wohin sie Fuhlrotts Erben nach dessen Tod 1877 auf Vermittlung Schaaffhausens veräußerten. Regelmäßig finden auch Ausstellungen, Informationsmöglichkeiten, Seminare und Workshops zu anderen themennahen Gebieten, wie beispielsweise dem "Mann vom Tisenjoch" (bekannt als Ötzi) oder der Himmelsscheibe von Nebra, statt. Das neue Museum, getragen von der Stiftung "Neanderthal-Museum", wurde am 10. Oktober 1996 an zentraler Stelle direkt an der Landstraße L357 zwischen Erkrath und Mettmann vom Bundespräsidenten Roman Herzog und dem Ministerpräsidenten des Landes Nordrhein-Westfalen Johannes Rau eröffnet. Es ersetzte das sich im Wald befindende alte Museumsgebäude aus dem Jahre 1938. Des Weiteren wurde der Kunstweg MenschenSpuren, ein Skulpturenweg mit Werken von 11 Künstlern an den Wanderwegen im Neandertal eingerichtet. Er nimmt sich des Spannungsfeldes Mensch–Natur an. Der Fundort hinter dem Rabenstein, der durch Grabungen Ende der 1990er Jahre wiederentdeckt wurde, ist inzwischen begehbar und kann beim Museumsbesuch besichtigt werden. Der wenige hundert Meter lange Fußweg vom Museum zum Fundgelände, zum Teil an der Düssel entlang, wurde als Zeitstrahl eingerichtet, auf dem die Entwicklung des Lebens von seinen Anfängen bis zur Gegenwart dargestellt wird. Das Eiszeitliche Wildgehege Neandertal ist ein 1935 eingerichtetes, circa 23 Hektar großes Wildgehege. Nach anfänglichem Wachstum des Bestands (1940 bereits 40 Tiere) war es nach Kriegsende infolge von Wilddiebereien, vernässten Weiden und Leberbefall ohne Besatz. 1951 wurden Heckrinder aus dem Wuppertaler Zoo eingesetzt, später kamen die Wisente, Heckpferde und Damhirsche hinzu.Die heute im Wildgehege lebenden Tiere sind Heckrinder, Heckpferde und Wisente. Diese Tierarten lebten hier auch zur Zeit des Neandertalers und waren seine Jagdbeute, wobei Heckrind und Heckpferd Nutztiere sind, welche jeweils ihre ausgerotteten Wildformen vertreten sollen. Da das Wildgehege im Naturschutzgebiet Neandertal liegt, können weitere freilebende Tiere wie Graureiher, Baumfalken, Siebenschläfer und andere ebenfalls beobachtet werden. Die Spazierwege rund um das Wildgehege stehen ganzjährig kostenlos zur Verfügung. Ein gut eine Stunde langer Rundweg, teils entlang der Düssel, führt am Gehege vorbei zur Steinzeitwerkstatt in der Nähe des Neanderthal Museums. Das Wildgehege wird vom "Zweckverband Wildgehege Neandertal" betreut, einem Zusammenschluss der umliegenden Städte Düsseldorf, Wuppertal, Erkrath, Mettmann und Haan, sowie des Kreises Mettmann und des Naturschutzvereins Neandertal. Bahnhof Neanderthal. Oberhalb des Neanderthal Museums befindet sich das sehenswerte ehemalige Bahnhofsgebäude der 1879 von der Rheinischen Eisenbahn-Gesellschaft eröffneten Bahnstrecke Düsseldorf-Derendorf–Dortmund Süd am Regiobahn-Haltepunkt Neanderthal, mittlerweile in Privatbesitz. Diese Strecke wurde in neuerer Zeit bis in die 1990er Jahre nur durch Schienenbusse der Bahn und Güterzüge des nahegelegenen Mannesmann-Kalkwerkes genutzt. Nach umfangreichen Umbau- und Modernisierungsmaßnahmen vieler Haltepunkte der Strecke verkehrt hier seit 1999 die gut frequentierte Regiobahn S 28 auf der Strecke Kaarster See – Neuss Hbf – Düsseldorf Hbf – Erkrath Nord – Mettmann, Stadtwald. Dadurch ist das Neandertal vom Düsseldorfer Hauptbahnhof aus in 15 Minuten zu erreichen. Der Zugang zum Bahnhof mit dem Auto vom Museum aus ist jedoch nicht möglich, da die Straße auf Bahnhofshöhe für PKW gesperrt wurde. Ebenso wie das Museum wird auch der Bahnhof Neanderthal noch mit ’h’ geschrieben, der Schreibweise der Zeit seiner Errichtung. Erwähnenswertes. Standbild des Neanderthalers von 1928 Der Name des Neandertals hat in der näheren Umgebung vielfach Verwendung gefunden. Der NRW-Lokalsender der Region nennt sich "Radio Neandertal". Daneben gibt es eine "Neandertalpassage" in Mettmann und das "Gymnasium Am Neandertal" in Erkrath. Bis Mitte der 1990er Jahre war die touristische Infrastruktur des Neandertals gering entwickelt. Das Tal war überwiegend ein Tagesausflugsziel von Wanderern, etwa auf dem Neandertalweg des Sauerländischen Gebirgsvereins. Lediglich das alte, relativ kleine Museum mit circa 50.000 Besuchern im Jahr (1986) befasste sich mit der paläontologischen Thematik, der eigentliche Fundort war aber längst in Vergessenheit geraten. Die jahrzehntelange Nutzung des – damals nur mutmaßlichen – Bereichs als Schrottplatz illustriert das lange Zeit eher geringe Interesse an einer Aufarbeitung des Fundes oder an einer Weiterforschung. Erst seit der Neueröffnung des neuen Neanderthal-Museums, der Neugestaltung der wiedergefundenen Fundstelle, der vermehrten Berichterstattung auch in überregionalen Medien, sowie dem aufkommenden Interesse an der Thematik rückte das Tal wieder in das Bewusstsein der Öffentlichkeit. Nach umfangreichen Rodungsmaßnahmen durch den Landesbetrieb Straßen.NRW im Jahr 2014 ist der Laubach-Wasserfall wieder zugängig geworden. Nymphe. Eine Nymphe ("nymphē"‚ Braut, junge Frau, heiratsfähiges Mädchen, latinisiert "nympha") ist in der griechischen und römischen Mythologie ein Naturgeist. Im weiteren Sinne wird er auch für Priesterinnen gebraucht. In der griechischen Mythologie sind Nymphen weibliche Gottheiten niederen Ranges, welche als Personifikationen von Naturkräften überall auftreten und teils als Begleiterinnen höherer Gottheiten wie des Dionysos, der Artemis oder der Aphrodite, teils als selbstständig wirkend gedacht wurden. Sie galten als die – vorwiegend – wohltätigen Geister der Orte, der Berge, Bäume, Wiesen oder Grotten, sind aber nicht immer an dieselben gebunden, schweifen vielmehr frei umher, führen Tänze auf, jagen das Wild, weben in kühlen Grotten, pflanzen Bäume und sind auf verschiedene Weise den Menschen hilfreich. Geräuschvolle Tätigkeiten der Menschen meiden sie aber. Nymphen galten wie die Menschen als sterblich. Sie sollten allerdings wesentlich länger leben – bis hin zur Fast-Unsterblichkeit und ewiger Jugend. Der Tod einer Nymphe wurde meist mit dem Ende dessen, was sie verkörperte – zum Beispiel eine Quelle oder einen Baum – gleichgesetzt. Liste der Nymphen. Als Lokalgöttinnen gewisser Gegenden wurden sie auch nach diesen benannt; beispielsweise sind die "Peliaden" die Nymphen des Gebirgszugs Pelion. Die Nymphe "Noris" ist eine Allegorie auf die mittelfränkische Stadt Nürnberg. Eine der berühmtesten Oreaden war "Echo", die Nymphe des Berges Helikon. Die Göttin Hera beraubte sie der Sprache und ließ ihr lediglich die Fähigkeit, die letzten an sie gerichteten Wörter zu wiederholen. Eine Baumnymphe stellt "Eurydike", die Gattin des Orpheus, dar. Deutung. Die Symbolik der Nymphen ist vielfältig. Sie umfasst insbesondere die Bereiche Fruchtbarkeit und Sexualität. Wegen der befruchtenden Kraft des Wassers galten die Nymphen als Erzieherinnen des Zeus und Bakchos und, da manchen Quellen begeisternde Kraft beigelegt wurde, auch als Erzieherinnen des Apollon und Verleiherinnen der Dicht- und Wahrsagekunst. Das Konzept der Nymphe ist jedoch älter als die klassische antike Vorstellungswelt und hat ihre Wurzeln bereits im Schamanismus, der Orte, Pflanzen und Tiere stets als beseelt auffasst. Spätere Parallelen finden sich im Konzept der Elementarwesen. Darstellung in der Kunst. In der bildenden Kunst werden Nymphen meist als liebliche Mädchengestalten dargestellt, gewöhnlich leicht bekleidet und Blumen und Kränze tragend. Die Wassernymphen insbesondere pflegte man mit Wasserkrügen und Urnen auf den Köpfen darzustellen. Bekannte Kunstwerke aus dem Altertum sind Statuen des Praxiteles, eine Gruppe des Arkesilaos und Reliefs von verschiedenen Meistern. Andere Darstellungen. Nymphen dienten auch als Motiv für Statuen, insbesondere Brunnenfiguren, sowie als Münzprägefiguren in der Antike. Nymphs ist eine finnische Fantasy-Fernsehserie über drei Nymphen die in der heutigen Zeit leben. Nymphen in der Musik. Der französische Komponist Jean-Philippe Rameau komponierte 1745 die Oper "Platée" als lyrische Komödie. Die Naivität der alternden und hässlichen Wassernymphe Platée wird von Jupiter genutzt, um die Eifersucht seiner Gattin Juno zu entlarven. Der französische Komponist Claude Debussy komponierte 1913 das Stück "Syrinx" für Flöte. Das kurze Stück bezieht sich auf die Sage von Pan und Syrinx; die Nymphe entzieht sich den Nachstellungen des Gottes, indem sie sich in ein Schilfrohr verwandelt. Pan erfindet daraufhin die Flöte. Der finnische Komponist Jean Sibelius komponierte 1894 die symphonische Dichtung für Orchester op. 15, "Skogsrået" (Die Waldnymphe). Die Band In Extremo spiegelt das Bild der Nymphen in ihrem Lied "Nymphenzeit" wider. Rusalka ist die erfolgreichste Oper von Antonín Dvořák. Das Libretto geht auf slawische Volksmythen über die Rusálki (Wassergeister, Nixen) zurück, und ähnelt der deutschen Erzählung Undine von Friedrich de la Motte Fouqué, Hans Christian Andersens Märchen Die kleine Meerjungfrau sowie der altfranzösischen Melusinensage. Die Oper mit dem Untertitel Lyrisches Märchen wird auch als „tschechische Undine“ bezeichnet. Der italienische Komponist Claudio Monteverdi komponierte 1614 in seiner Sestina ("Lagrime d'amante al Seplcro del Amata") das Klagelied des Hirten "Glauco", der den Tod seiner geliebten Nymphe "Corinna" betrauert. Nymphen in der Literatur. In der nach-antiken Dichtung taucht das Motiv der Nymphe immer wieder auf, etwa in der Renaissance und der Romantik. So bezeichnet sich Catharina Elisabeth Goethe an einer entscheidenden Textstelle als Wassernymph. In einem berühmten Brief vom 28. August 1808 schreibt sie an ihre junge Freundin Bettina Brentano: „Doch ich muss dir zutrinken, denn mein Lieschen hat mir alleweil den besten Wein heraufgebracht und eine Boutelle Wasser, denn du weißt dass ich ein Wassernymph bin; und zwei Pfirsich sind daneben, der eine für dich, der andere für mich, ich werd sie beid verzehren in deinem Nahmen, und jetzt stoß ich mit dir an, "Er soll Leben".“ Das ganze wurde bei Tacitus bereits erwähnt „lasst mich eine sehen dann werde ich es glauben“ soll er ausgerufen haben. Einen Augenblick später brach er tot zusammen. Darum wird einigen Nymphen auch eine Unheilsbringung nachgesagt. Aus Vladimir Nabokovs Roman "Lolita" stammt der Ausdruck „Nymphchen“ für einen Typus frühreifer Mädchen, die der Protagonist sexuell anziehend findet. Der österreichische Schriftsteller Michael Köhlmeier publiziert im Jahr 1997 seinen Roman "Kalypso" (ISBN 978-3492039659), in dem er die Geschichte um Odysseus und der Nymphe Kalypso in die Neuzeit transformiert. Ein Jahr später erscheint das Werk als eine, elf CDs umfassende, ungekürzte Autorenlesung (ISBN 978-3886984541). a>s im Jahr 79 n. Chr. verschüttet) Sonstiges. Ein "Nymphäum" ist ein ursprünglich den Nymphen geweihter Tempel, der meist an einer Quelle gelegen war. Das Wort „Nymphe“ wurde im Mittelalter besonders im nordeuropäischen Raum sowohl auf eine Hexe als auch auf eine Fee angewandt, weil beide, wie die Nymphen, von den vorchristlichen Priesterinnen abstammen. Die alte Verbindung zwischen Nymphen und Sexualität hat mehr oder weniger in den europäischen Sagen und Märchen Bestand. Der Begriff Nymphomanie steht im Zusammenhang mit häufigem Partnerwechsel (Promiskuität), für ein gesteigertes Verlangen von Frauen nach Geschlechtsverkehr. In der Vergangenheit wurde diese in Abhängigkeit von konservativ-moralischen Wertvorstellungen als übermäßig eingeschätzte sexuelle Motivation oder „Leidenschaft“ auch als „Mannstollheit“ und die Frau selbst mitunter als Schlampe bezeichnet. Dabei ist zwischen "„nymphomanischen Phasen“" oder einer psychisch-krankhaften Sucht (als Ersatzbefriedigung für wirkliche Liebe bei gleichzeitiger Bindungsangst) zu unterscheiden. Als Nymphomanin wird manchmal auch eine Frau bezeichnet, die in einer festen Partnerschaft lebt aber wiederholt „fremdgeht“, weil der eigene Mann nicht die gleichen, auf häufigen Sex bezogenen Wünsche teilen will oder kann. Bei einer krankhaften Nymphomanie besteht die Gefahr, dass trotz zahlreicher Orgasmen der Sex mit der Zeit „langweilig“ wird und die Frauen darunter leiden. In der Wissenschaft gilt der Begriff inzwischen als veraltet, dagegen hat er in der heutigen Umgangssprache Bestand, da er durch die Historie belegt und in der öffentlichen Meinung bei liberalen Menschen mit einem vielleicht unbewussten Rückgriff auf die Antike durchaus auch positiv gewertet wird. Das Wort „Nymphe“ wird in manchen Kulturen auch für Symbole der weiblichen Genitalien wie Lotosblüten, Wasserlilien (Familie der Nymphaeaceae) und bestimmte Schnecken benutzt (siehe auch Kaurischnecke). Einige Kolibrigattungen werden wegen ihrer prachtvollen Federkleidungen als Nymphen bezeichnet. Das lateinische Wort "arbor" (‚Baum‘) ist, obwohl diese Form regelmäßig maskulin dekliniert würde, grammatikalisch feminin, da die Römer glaubten, in den Bäumen würden Nymphen leben. Nördlingen. Panoramablick vom "Daniel" über Nördlingen Nördlingen ist eine Große Kreisstadt im schwäbischen Landkreis Donau-Ries in Bayern. Die ehemalige Reichsstadt ist die größte Stadt des Landkreises. Geografie. Nördlingen inmitten des Rieskraters, Blick von Südwesten Nördlingen liegt im Nördlinger Ries, dem Einschlagkrater eines Meteoriten, der vor 15 Millionen Jahren in die Alb eingeschlagen ist. Der Krater hat einen Durchmesser von 23 bis 25 Kilometern; sein Rand ist ringsum als Hügelkette sichtbar. Durch die wissenschaftliche Erforschung des Ries-Ereignisses wurde Nördlingen weltweit bekannt. Das Ries wird von der Wörnitz und der Eger durchflossen; erstere mündet 30 Kilometer südöstlich in die Donau. Nachbargemeinden. Folgende Gemeinden grenzen an die Stadt Nördlingen: Wallerstein, Maihingen, Oettingen, Munningen, Wechingen, Deiningen, Alerheim, Möttingen, Reimlingen, Hohenaltheim, Ederheim, Neresheim, Bopfingen, Riesbürg. Stadtgliederung. Die Nördlinger Kernstadt gliedert sich grob in Altstadt, Graben, Wemdinger Viertel, Saubrunnen, Augsburger Viertel, Talbreite, Herkheimer Viertel und Südtiroler Viertel. Die Stadtteile Baldingen und Kleinerdlingen gehen fast fließend in die Kernstadt über, während die übrigen Stadtteile sich den Charakter abgeschlossener Dörfer erhalten haben. Geschichte. Darstellung Friedrichs II. am Brot- und Tanzhaus Funde in den Ofnethöhlen belegen, dass das heutige Ortsgebiet von Nördlingen bereits im Spätpaläolithikum besiedelt war. In den Ortsteilen von Nördlingen wurden Fundstellen aus fast allen folgenden vorgeschichtlichen Epochen entdeckt. Besonders intensiv besiedelt war ein Bereich am Ostrand des Ortsteils Baldingen, wo Siedlungen der Bandkeramik und des Jungneolithikums, der Urnenfelderkultur, der Hallstatt- sowie der Latènezeit entdeckt wurden. Hier lag auch eine römische Villa mit Brandgräberfeld. Um das Jahr 85 n. Chr. entstand im Süden der Stadt ein römisches Kastell mit Siedlung "(vicus)", die jedoch im Jahre 259/260 bei der Eroberung des heutigen Süddeutschlands durch die Alamannen unterging. Der Name dieser Siedlung lautete wahrscheinlich "Septemiacum". Dieser lateinische Ortsname ist durch die Peutingertafel (Tabula Peutingeriana) für die Gegend von Nördlingen zuverlässig überliefert, er kann aber bisher nicht ganz sicher der römischen Siedlung im heutigen Nördlingen zugeordnet werden. Ein römischer Gutshof (Villa rustica) wurde im Stadtteil Holheim ausgegraben und kann besichtigt werden. Das römische Nördlingen ist bislang kaum erforscht. Mittelalter. Im 6. und 7. Jahrhundert lässt sich eine alemannische Besiedlung nachweisen. Drei Reihengräberfriedhöfe aus dieser Epoche sind bisher in Nördlingen ausgegraben worden. „Nordilinga“ wurde im Jahr 898 zum ersten Mal urkundlich als karolingischer Königshof erwähnt. Unter der Herrschaft des Bischofs von Regensburg wuchs Nördlingen zum Markt heran. 1215 erhielt Nördlingen von Kaiser Friedrich II. Stadtrechte und wurde Reichsstadt. In jenem Jahr wurde die erste Stadtmauer errichtet, deren Grundriss bis heute sichtbar ist. 1219 wurde die Nördlinger Pfingstmesse das erste Mal urkundlich erwähnt. Die Stadt, an der Kreuzung zweier großer Handelsstraßen (Frankfurt/Würzburg–Augsburg und Nürnberg–Ulm) gelegen, stieg zum wichtigen Handelsplatz für Getreide, Vieh, Textilien, Pelze und Metallwaren auf. Neben Frankfurt war Nördlingen eine der wichtigsten Fernhandelsmessen Deutschlands. 1238 zerstörte ein Brand einen großen Teil der Stadt, von dem sich die Stadt jedoch rasch erholte. Drei Generationen später hatten sich auch außerhalb der Stadtmauern eine große Zahl von Handwerkern, vor allem Gerber und Weber, angesiedelt. 1327 wurde der heute noch bestehende Mauerring gebaut, mit dem die ummauerte Stadtfläche auf das Vierfache anwuchs. 1427 begann der Bau der St.-Georgs-Kirche. Für das Jahr 1469 ist in den Gerichtsakten der Stadt das Verfahren gegen den städtischen Frauenwirt Linhardt Freiermuth und seine Ehefrau Barbara Taschenfeind protokolliert. Ausgangspunkt der Verhandlung war der Vorwurf der erzwungenen Abtreibung der Dirne Els von Eystett. Das Gericht sprach das Zuhälterpaar schuldig und verbannte den Frauenwirt aus der Stadt. Seine Ehefrau wurde auf der Stirn gebrandmarkt und an den Pranger gestellt. Die im städtischen Archiv von Nördlingen erhaltenen 40 Pergamentseiten zu dieser Gerichtsverhandlung geben einen einmaligen Einblick in die damaligen Zustände eines – der Stadt selbst gehörenden – Bordells. Die Stadt gehörte 1529 zu den Vertretern der protestantischen Minderheit (Protestation) am Reichstag zu Speyer. Ihre Bürgerschaft forderte die ungehinderte Ausbreitung des evangelischen Glaubens. 1555 wurde die Reformation in Nördlingen endgültig bestätigt. Bürgermeister Peter Seng d. Ä. (1512–1589) unterzeichnete 1579 für den Rat der Stadt die lutherische Konkordienformel von 1577. Hexenverfolgungen. Die Geschichte der Hexenverfolgung in Nördlingen ist gut dokumentiert. Zwischen 1589 und 1598 wurden 34 Frauen und ein Mann wegen Hexerei auf dem Scheiterhaufen hingerichtet, die mitangeklagte Hebamme Barbara Lierheimer starb bereits in der Haft. Besonders bekannt wurden die Hexenprozesse gegen Maria Holl und gegen Rebecca Lemp. 1589 hielt Pfarrer Wilhelm Friedrich Lutz Predigten gegen die radikale Hexenverfolgung des Nördlinger Rates, ehe der Nördlinger Rat im Mai 1590 die ersten angeblichen Hexen hinrichten ließ. Eine dieser drei Frauen war die Fuhrmannstochter Ursula Haider († 1590), die am 8. November 1589 in Haft genommen und am 15. Mai 1590 verbrannt wurde. Dreißigjähriger Krieg bis heute. Ein historischer Wendepunkt im Dreißigjährigen Krieg waren die Belagerung von Nördlingen und die darauf folgende Schlacht bei Nördlingen im Jahre 1634, in der die schwedisch-protestantischen Kräfte erstmals entscheidend von den kaiserlich-habsburgischen Truppen geschlagen wurden. Die Stadt musste sich den Siegern öffnen, wurde aber nach hohen Reparationszahlungen nicht durch die siegreichen Truppen geplündert. Allerdings büßte die Stadt während und nach der Belagerungszeit durch Hunger und Krankheit über die Hälfte ihrer Bevölkerung ein. Auch im spanischen Erbfolgekrieg wurde die Stadt durch die Auswirkungen der in der Nähe stattfindenden Schlachten von Höchstädt in Mitleidenschaft gezogen. Der Handel verlagerte sich nach dem Krieg zu den Seehäfen – ein weiterer Grund, warum Nördlingen seine Bedeutung als Handelszentrum verlor. Dieser erzwungene Stillstand ist der Grund, dass das mittelalterliche Stadtbild so gut erhalten geblieben ist. Mit der Grafschaft Oettingen, deren Enklave Nördlingen wurde, gab es häufig Konflikte um Hoheitsrechte. Vom 16. bis Anfang des 18. Jahrhunderts reichte Nördlingen 103 diesbezügliche Klagen vor dem Reichskammergericht ein. Im Zuge der napoleonischen Neuordnung Deutschlands verlor Nördlingen im Reichsdeputationshauptschluss 1803 seinen Status als Reichsstadt und fiel an das Kurfürstentum Bayern, das im Vorgriff auf die bereits ausgehandelten Bedingungen die Stadt schon im September 1802 besetzt und ihre verwaltungsmäßige Eingliederung vollzogen hatte. Zum 1. Januar 1806 wurde die Stadt entsprechend der im Frieden von Pressburg erreichten Rangerhöhung des Fürsten königlich-bayerische Landstadt. Am 15. Mai 1849 wurde Nördlingen mit der Inbetriebnahme des Abschnittes der Ludwig-Süd-Nord-Bahn von Donauwörth her an das Netz der Königlich Bayerischen Staats-Eisenbahnen angeschlossen. Im gleichen Jahr wurden die weiteren Abschnitte bis Nürnberg eröffnet. Die dritte Eisenbahnverbindung unter Führung der Königlich Württembergischen Staats-Eisenbahnen wurde am 3. Oktober 1863 mit der Strecke nach Aalen als zweitem Teil der damaligen Remsbahn eröffnet. Damit wurde Nördlingen neben Ulm der zweite Grenzbahnhof zum Königreich Württemberg. Seit dem Mittelalter waren in Nördlingen jüdische Familien ansässig, die ihre Toten auf dem Jüdischen Friedhof am "Nähermemminger Weg" begruben und sich 1885 in der "Kreuzgasse 1" ihre neue Synagoge errichteten. Dieses Gotteshaus wurde beim Novemberpogrom 1938 von SA-Männern verwüstet, woran eine Gedenktafel am heutigen Evangelischen Gemeindehaus erinnert. Mit einem Gedenkstein auf dem Jüdischen Friedhof wird seit 1979 der jüdischen Bürger gedacht, die Opfer der Shoa wurden. Erst 1939 erreichte Nördlingen wieder die Bevölkerungszahl von 1618. Bei Luftangriffen gegen Ende des Zweiten Weltkrieges kamen im Frühjahr 1945 insgesamt 33 Menschen ums Leben. Der Bahnhof und mehrere Wohnhäuser wurden zerstört, die St.-Georgs-Kirche schwer beschädigt. Der nahezu komplette Rest der historischen Altstadt blieb jedoch verschont. Ab 1945 gehörte Nördlingen zur Amerikanischen Besatzungszone. Die amerikanische Militärverwaltung richtete ein DP-Lager ein zur Unterbringung so genannter Displaced Persons (DP). Das Lager wurde von der UNRRA betreut und beherbergte ungefähr 500 DPs. Die meisten von ihnen stammten aus Lettland und Litauen. Mehr als 4500 Heimatvertriebene ließen sich nach dem Krieg in Nördlingen nieder. Im Zuge der kommunalen Neugliederung Bayerns verlor Nördlingen am 1. Juli 1972 seinen Status als kreisfreie Stadt und wurde in den neugebildeten "Landkreis Nördlingen-Donauwörth" eingegliedert, der am 1. Mai 1973 den heutigen Namen „Landkreis Donau-Ries“ erhielt. Religionen. Nördlingen, das 1522 die Reformation einführte (Kaspar Kantz, Theobald Billicanus), ist Sitz des Evangelisch-Lutherischen Dekanats Nördlingen im Kirchenkreis Augsburg der Evangelischen Landeskirche Bayern. Das katholische Dekanat Nördlingen gehört zum Bistum Augsburg. Eingemeindungen. Am 1. Juli 1972 wurden die bisher selbständigen Gemeinden Herkheim, Holheim, Kleinerdlingen und Nähermemmingen eingegliedert. Am 1. Januar 1973 kam Löpsingen hinzu. Großelfingen "(damalige Schreibweise)" und Pfäfflingen folgten am 1. Januar 1976. Die Reihe der Eingemeindungen wurde mit der Eingliederung von Schmähingen am 1. Januar 1978 sowie Baldingen und Dürrenzimmern am 1. Mai 1978 abgeschlossen. Stadtrat. G/V: Gewinn oder Verlust gegenüber der Wahl 2008 Stadtwappen. Blasonierung: „In Gold ein rotbezungter, goldbewehrter und -bekronter schwarzer (staufisch-reichsstädtischer) Adler.“ Stadtmauer. Die komplett erhaltene Stadtmauer von 1327 hat fünf Tore mit Tortürmen, elf weitere Türme und zwei Bastionen. Auch der Wehrgang ist vollständig erhalten und kann begangen werden. Das größte Stadttor ist das Berger Tor im Süden. Im Uhrzeigersinn folgen das Baldinger Tor im Westen, das Löpsinger Tor, das auch das Stadtmauermuseum beherbergt, im Norden, das Deininger Tor im Nordosten und das Reimlinger Tor im Osten. Die Türme sind im Uhrzeigersinn Feilturm, Löwenturm, Oberer Wasserturm, Backofentürme (5), Spitzturm, Unterer Wasserturm und Reißturm. Die Alte Bastei, die in zwei Geschossen zehn Geschütze aufnehmen kann, ist vollständig erhalten. Die Neue Bastei hingegen wurde 1808–1826 abgebrochen. Die Nördlinger Stadtmauer ist eine der besterhaltenen in Deutschland. Sie ist vollständig begehbar, so dass man darauf auf einer Länge von 2,6 km die ganze Stadt umrunden kann. Kirchen. Das Wahrzeichen Nördlingens ist der rund 90 Meter hohe Kirchturm der 1427–1505 erbauten gotischen St.-Georgs-Kirche, der "Daniel" genannt wird. Sehenswert ist auch die katholische St.-Salvator-Kirche am südwestlichen Rand der Innenstadt. Die neogotische Friedhofskirche St. Emmeram wurde 1874–1875 erbaut, geht aber auf Nördlingens erste Kirche aus dem 9. Jahrhundert zurück. Die Spitalkirche entstand im 13. Jahrhundert als Teil des Heilig-Geist-Spitals. Die neuapostolische Kirche an der Gartenstraße wurde 1954 bezogen. Die Pfarrkirche St. Josef wurde 1960 bis 1962 errichtet. Marktplatz. Gleich nördlich der St.-Georgs-Kirche liegt der Marktplatz, auf dem sich im Mittelalter alljährlich zehn Tage lang das Messepublikum tummelte. Die Tuchhändler präsentierten ihre Ware im 1442–1444 entstandenen "Brot- und Tanzhaus", dessen Obergeschoss als Festsaal diente. Mit ihm durch eine Brücke verbunden war zu Messezeiten das 1363 erbaute Fachwerkhaus "Metzig", das an normalen Tagen die Verkaufsstände der Metzger beherbergte und zu Messezeiten als Erweiterung der Verkaufsfläche diente. Nördlich daran schließt sich das bereits 1304 urkundlich erwähnte "Hohe Haus" an. Das "Gasthaus zur Sonne" auf der gegenüber liegenden Seite wurde 1350 erbaut und seit 1405 als "Fürstenherberge" genutzt. Um 1500 logierten dort die Kaiser Friedrich III. und Maximilian I., 1548 Karl V. 1788 war Johann Wolfgang von Goethe zu Gast, und 1970 nahmen die amerikanischen Astronauten des Apollo-Mondfahrtprogramms Quartier. Nördlich anschließend liegt das Rathaus. Wie die St.-Georgs-Kirche und viele andere Stadthäuser ist es aus dem porösen Suevitstein des Nördlinger Rieses erbaut. Bereits 1313 ist es in einer Verkaufsurkunde belegt; in jener Zeit wurde es als Messekaufhaus genutzt. 1382 mietete die Stadt das Gebäude an und nutzt es seitdem ununterbrochen als Rathaus. Um 1500 wurde das Obergeschoss mit seinem Treppengiebel und dem Giebelerker auf das Gebäude gesetzt, 1509 wurde der Schatzturm und 1618 der repräsentative Renaissance-Treppenaufgang angebaut. Innen im großen Versammlungssaal, in dem sich im 16. Jahrhundert die Abgeordneten des Schwäbischen Bundes trafen, befindet sich ein großes, wertvolles Wandfresko von Hans Schäufelin. Altstadt. Die gesamte Nördlinger Altstadt beherbergt eine Fülle von liebevoll renovierten, prachtvollen Häusern aus dem Mittelalter und der Renaissance. Wenige Schritte nordwestlich des Marktplatzes gelangt man über die Eisengasse zum Tändelmarkt und dem damit verbundenen Hafenmarkt. In der Eisengasse, die nach den früher dort niedergelassenen Eisenhändlern benannt ist, ist unter anderem das 1563 errichtete "Schneidtsche Haus" bemerkenswert. Im Dreißigjährigen Krieg diente es Gustav II. Adolf im September 1632 für zwei Tage als Unterkunft. Am Hafenmarkt befindet sich das "Kaisheimer Haus", von 1278 bis 1802 Kastenhaus des Reichsstifts Kaisheim. Bis zu einem Brand am 3. Mai 1955 stand hier auch das "Hafenhaus", ein prachtvolles ehemaliges Kaufhaus aus dem Jahr 1425. An der Nordwestecke des Tändelmarkts fällt das große Klösterle ins Auge, ein ehemaliges Franziskanerkloster. Im Zuge der Reformation verwaiste das Kloster mehr und mehr. Die Stadt kaufte 1536 den Bau und ließ ihn 1584–1587 zu einem Kornspeicher umbauen. Der Chor wurde abgerissen und durch den heutigen großzügig angelegten Treppengiebel ersetzt. Das westlich daran anschließende Gerberviertel beherbergt etliche der typischen Gerberhäuser mit ihrem Fachwerk und ihren großen, nach vorne kragenden Trockenböden und Galerien in den Obergeschossen. Den großen Wasserbedarf der Gerber deckte der Egerkanal, der das Viertel durchläuft. Bei der Brücke am nördlichen Ende des Viertels befindet sich das große, unterschlächtige Wasserrad der "Neumühle". Das um 1233 gegründete Heilig-Geist-Spital diente früher als Versorgungsstätte alter und armer Menschen. Wie viele ähnliche Einrichtungen jener Zeit wurde es durch Stiftungen finanziert und ausgebaut. Die Spitalkirche aus dem 13. Jahrhundert beherbergt wertvolle Wandmalereien aus dem 14. Jahrhundert. Heute befindet sich in seinen beiden Hauptgebäuden aus dem 15. und 16. Jahrhundert das Stadtmuseum. Im südlichen Bereich der Altstadt ist das 1697 erbaute "Wintersche Haus" bemerkenswert. Der große, wohl proportionierte Fachwerkbau birgt an seiner Rückseite einen stilvollen Garten mit Blumengalerien im ersten und zweiten Stock. Am "Weinmarkt" befinden sich eine Reihe repräsentativer Bürgerhäuser und das große, massiv wirkende, 1541–1543 erbaute "Hallgebäude". Es diente einst als Salz- und Weinlager der Stadt. Am Weinmarkt steht auch das ehemalige Gasthaus zur Krone, dessen Wirtin Maria Holl durch die Hexenprozesse berühmt wurde. Eine Reihe bemerkenswerter Bürgerhäuser findet sich in der Polizeigasse, die den Weinmarkt mit dem Marktplatz verbindet. Darunter sind die Alte Post, das Mötzelsche Haus, das im 15. Jahrhundert von der Familie Oelhafen bewohnt wurde, und die Einhorn-Apotheke. Östlich der Georgskirche, auf dem Rübenmarkt, steht der Kriegerbrunnen, ein Jugendstil-Bauwerk, das 1902 von Georg Wrba im Andenken an den deutsch-französischen Krieg von 1870/71 geschaffen wurde. Der Stadtgraben ist im Bereich der Frickhinger-Anlagen, zwischen Ochsenzwinger und Berger Tor, als Parkanlage mit Skulpturen, exotischen Bäumen und Rosengarten "(Rosarium)" gestaltet. Marienhöhe. Das Waldgebiet im Südosten der Altstadt bedeckt den "Galgenberg" sowie den "Stoffelsberg" und ist nach Marie Friederike von Preußen benannt. Die ursprünglich kahlen Hügel wurden 1834 erstmals mit Bäumen bepflanzt und seither nach und nach zum Landschaftspark gestaltet. Der "Hexenfelsen" auf dem Galgenberg war zur Zeit der Hexenverfolgung im Mittelalter eine städtische Hinrichtungsstätte. 1817 entstand auf der Marienhöhe der erste Bierkeller. Die drei dort heute noch existierenden Bierkeller sind beliebte Ausflugsziele. Am Südhang der Marienhöhe erstreckt sich das Nördlinger Freibad. Auch die Nördlinger Kreisklinik, das "Stiftungskrankenhaus", befindet sich an der Marienhöhe. Von der Altstadt zur Marienhöhe führt der Kellermannsweg, eine Lindenallee mit 60 Bäumen, die 1906 gepflanzt wurden. Panoramablick vom Daniel über Nördlingen Theater. Die "Schauspiel-Manufaktur" in Nördlingen ist ein privat geführtes Schauspielhaus ohne eigenes Ensemble mit 99 Plätzen. Die Freilichtbühne "Alte Bastei" in einer mittelalterlichen Bastion ist jeden Sommer Schauplatz für historische und zeitgenössische Aufführungen der Laienspielgruppe "Verein Alt Nördlingen". Ein unabhängiges und regional renommiertes Theaterprojekt ist das "Dramatische Ensemble Nördlingen". Während der Wintersaison treten regelmäßig Tourneetheater im "Stadtsaal Klösterle" auf. Kleinkunstveranstaltungen finden im "Kulturzentrum Ochsenzwinger" statt. Theaterhistorische Bedeutung erlangte Nördlingen dadurch, dass hier im Jahr 1604 mit einer gekürzten und vereinfachten Version von Romeo und Julia eine der ersten Shakespeare-Aufführungen außerhalb Englands stattfand. Musik. Die 1924 gegründete "Knabenkapelle Nördlingen" gehört zu den namhaften Jugendblasorchestern in Süddeutschland. Die jungen Musiker sind weltweit auf Tournee und gestalten regelmäßig Fußballländerspiele und Staatsbesuche musikalisch. Die "Stadtkapelle" wurde 1990 gegründet. Die "Rieser Musikschule" bietet musikalische Früherziehung und Instrumentalunterricht an. Zahlreiche Chöre (u. a. "Kantorei St. Georg"), Klassik- und Jazzensembles sind als Vereine in Nördlingen eingetragen. Bekannte Kammermusikensembles treten bei der winterlichen Konzertreihe der Raiffeisen-Volksbank Ries auf. Die "Nördlinger Kneiptour", während deren eine Vielzahl von Rock-, Pop- und Jazzbands gleichzeitig in Nördlinger Kneipen auftritt, findet seit 1996 jedes Frühjahr statt. Kino. Nördlingen hat zwei Kinos: Das "Movieworld Nördlingen" mit vier Sälen und das "Ries-Theater" in der Altstadt mit zwei Sälen. Moderne Kunst. Kunstverein Nördlingen 2013 im Zentrum des „Kunstraumes am Bahnhof“ Der Kunstverein Nördlingen wurde im Juli 2001 gegründet und verfolgt das Ziel, die bildende Kunst, Künstlerinnen und Künstler sowie das allgemeine Verständnis nationaler und internationaler Kunst zu fördern. Er veranstaltet mehrmals im Jahr verschiedene Ausstellungen, Vorträge und Exkursionen, ergänzt durch ausstellungsdidaktische Angebote. In den Jahren 2006, 2011 und 2012 organisierte er Illuminationen verschiedener historischer Bauwerke der Stadt. 2012 bezog der Kunstverein Nördlingen seine neuen Räume im Gebäude der Post, als Inkubator und Keimzelle im Zentrum des „Kunstraumes am Bahnhof“. 2013 stand im Zeichen der Begeisterung der Jugend für die moderne Kunst und der Ausstellung "Punk Rock – Junge Kunst zu Gast im Kunstverein Nördlingen". Freizeit- und Sportanlagen. Der Rieser Sportpark ist eine parkähnliche Anlage. Im Zentrum steht das Leichtathletikstadion (Gerd-Müller-Stadion) mit einem Fassungsvermögen von ca. 10.000 Zuschauern sowie mehreren Ausweich- und Trainingsplätzen. Gleichzeitig ist es auch das Heimstadion der Fußballer des TSV Nördlingen. Daneben ist die Hermann-Keßler-Halle eine weitere zentrale Anlage im Rieser Sportpark. Sie ist als eine Vierfach-Halle aufgebaut und bietet seit einer Erweiterung ihrer Kapazität im Jahre 2008 bei Heimspielen der Nördlinger Basketballer (Giants Nördlingen) bis zu 3.000 Zuschauern Platz. Für Tennisspieler stehen hier mehrere Sandplätze und drei Hallenplätze zur Verfügung. Zudem existiert in Nördlingen ein Flugplatz für Motor- und Segelflug. Der Eisplatz am Bäumlesgraben ist laut Stadtverwaltung eine der größten Natureisbahnen Süddeutschlands. Am Südhang der Marienhöhe befindet sich das Solarbad – ein im Jahr 1995 umgebautes Freibad. Auf den Dächern sind Schwimmbadabsorber und eine Photovoltaikanlage angebracht. Das städtische Hallenbad ist in der Gerhart-Hauptmann-Straße. Im Stadtgebiet bieten zwei Fitnessstudios die Möglichkeit zum Kraft und Ausdauertraining. Jugendarbeit. Die Stadt Nördlingen fördert den gemeinnützigen "Treffpunkt der Jugend Nördlingen e. V." Sie stellt dem Verein, der sich um Angelegenheiten der offenen Jugendarbeit kümmert, die Räumlichkeiten des ehemaligen städtischen Eichamtes in der Lerchenstraße zur Verfügung. Der Verein engagiert sich z. B. in Zusammenarbeit mit dem Diakonischen Werk Nördlingen und weiteren ehrenamtlichen Helfern in einem Integrationsprojekt für Spätaussiedler aus Russland. Cittàslow. Cittàslow-Schnecke in der Cittàslow-Stadt Nördlingen Nördlingen wurde als eine der wenigen Städte in Deutschland in die Slow-Food-Bewegung Cittàslow aufgenommen. Hauptziele sind die Entschleunigung, die Verbesserung der Lebensqualität, das Verhindern der Vereinheitlichung und der „Amerikanisierung“ von Städten, in denen Franchise-Unternehmen dominieren. Die Zulassungskriterien betreffen die sieben Themenbereiche Umweltpolitik, Infrastrukturpolitik, urbane Qualität, Aufwertung der einheimischen, regionalen Erzeugnisse, Gastfreundschaft, Bewusstsein und landschaftliche Qualität. 2015 entwickelte sich das sommerliche Cittàslow-Festival wieder zu einem Besuchermagneten. Schiene. Die Eisenbahn erreichte 1849 mit der Ludwig-Süd-Nord-Bahn Nördlingen. In diesem Jahr wurde der Bahnhof eröffnet, abschnittweise auch die Strecke Donauwörth-Nürnberg. Im Bahnhof Nördlingen halten heute regulär Züge der Riesbahn Aalen–Donauwörth. Die Strecke nach Dombühl und die Strecke über Gunzenhausen nach Nürnberg haben ihren regulären Personenverkehr 1985 verloren. Für die Strecke Dombühl-Dinkelsbühl ist eine Reaktivierung geplant, zwischen Wassertrüdingen und Gunzenhausen ist sie in der Diskussion. Die Nebenbahn nach Wemding ist abgebaut. Die einstige Funktion Nördlingens als Eisenbahnknoten ist damit verschwunden. Im historischen Bahnbetriebswerk ist heute das Bayerische Eisenbahnmuseum untergebracht. Luftfahrt. Direkt nördlich der Stadt betreibt der "Rieser Flugsportverein e. V." einen Sonderlandeplatz, den auch die Wallersteiner Firma HeliAviation für Flugstunden mit Hubschraubern benutzt. Der Verkehrslandeplatz Aalen-Heidenheim ist 20 km von Nördlingen entfernt. Die nächsten Verkehrsflughäfen befinden sich in Nürnberg, Stuttgart, Memmingen und München. Wirtschaft. Nördlingen ist geprägt durch eine Fülle von Betrieben der verschiedensten Branchen, die überwiegend mittelständische Strukturen besitzen. Von den ursprünglichen textilverarbeitenden Betrieben ist nur die gehobene Modemarke Strenesse vorhanden. Der örtliche Handel hat eine zentrale Rolle und deckt ein weites Einzugsgebiet im ländlich geprägten Umland ab. Traditionsunternehmen. Entsprechend dem hohen Alter und der einstmals enormen Bedeutung der Stadt finden sich in Nördlingen Betriebe mit teilweise jahrhundertelanger Tradition. Tourismus. Nördlingens mittelalterliche Altstadt ist bereits seit dem Ende des 19. Jahrhunderts als Touristenziel beliebt. Fremdenverkehr und Gastronomie bilden eines der wichtigsten wirtschaftlichen Standbeine Nördlingens. Für 2010 zählte die Stadtverwaltung 88.521 Übernachtungen in den erfassten Betrieben mit mehr als acht Betten. 2007 waren es 70.267 Übernachtungen: Ein Drittel der Gäste kam aus dem Ausland, die meisten davon aus Italien, Südkorea, den Vereinigten Staaten und Großbritannien. Neben der Altstadt hat sich auch der geologisch einmalige Rieskrater zum Anziehungspunkt für Touristen entwickelt. Um das geologische Naturerbe stärker als zuvor der Öffentlichkeit zugänglich zu machen, wurde der Geopark Ries ausgewiesen. Nördlingen liegt an der Romantischen Straße, der Schwäbischen Albstraße, am Fernwanderweg vom Main zur Donau und am "Jakobsweg I" der Deutschen St. Jakobusgesellschaft. Der Hauptwanderweg 1 des Schwäbischen Albvereins verläuft südlich von Nördlingen am Riesrand. Der Rieskrater-Planetenweg mit dem Kuppelhelm der St.-Georgs-Kirche als Sonne erstreckt sich im Ries bis zur Plutodarstellung kurz vor Harburg. Medien. Die örtliche Tageszeitung trägt den Namen "Rieser Nachrichten" und ist eine Lokalausgabe der Augsburger Allgemeinen. Des Weiteren erscheinen in Nördlingen die Anzeigenblätter "Extra Ran", "WochenZeitung – WZ aktuell" und "Sonntagszeitung". Mediengeschichte. Die erste Zeitung, die in Nördlingen erschienen ist, trug den Namen "Continuation der Augspurger Zeitung" und wurde von Lucas Schultes gedruckt. Schultes war 1632 von Oettingen, wo er bereits seit 1627 eine Zeitung herausgegeben hatte, nach Nördlingen umgesiedelt. Justiz. Nördlingen ist Sitz eines Amtsgerichtes, das zum Landgerichtsbezirk Augsburg und zum Oberlandesgerichtsbezirk München gehört. Nördlingen im Film. Nördlingens mittelalterliche Altstadt wurde mehrfach von Filmemachern als Kulisse benutzt. So sind Nördlingen-Aufnahmen in den Filmen "Charlie und die Schokoladenfabrik" (1970) und "Bibi Blocksberg" (2002) zu sehen. Die Bilderbuchstadt Kinkan, Schauplatz der japanischen Zeichentrickserie Princess Tutu, ist Nördlingen nachempfunden. Nördlinger Gebäude wie die St.-Georgs-Kirche, die Alte Schranne, das Löpsinger Tor, der Kriegerbrunnen und das Klösterle sowie das Narrenbildnis am Rathaus sind hier nahezu originalgetreu dargestellt. Für die Produktion "Wir Schildbürger" (1972) der Augsburger Puppenkiste diente ein Modell der Stadt Nördlingen als Kulisse. Sowohl in der zweiten als auch in der dritten Staffel der Terra-X-Dokumentationsreihe "Deutschland von oben" wird Nördlingen u. a. als Beispiel einer mittelalterlichen „Musterstadt“ gezeigt. Der ZDF-Zweiteiler "Schicksalsjahre" (2011) mit Maria Furtwängler wurde zum Teil in Nördlingen aufgenommen. In Nördlingen und Umgebung wurde der Spielfilm "Kohlhaas oder die Verhältnismäßigkeit der Mittel" gedreht. Auch für den Anime "Attack on Titan" wurde die dortige fiktive Stadt der Stadt Nördlingen in einer Variante aus dem 19. Jahrhundert nachgebildet. Nachschlagewerk. a> ist das vielleicht bekannteste traditionelle Nachschlagewerk im deutschsprachigen Raum. Im Gegensatz zu anderen Enzyklopädien sind die Artikel kurz und zahlreich, das kommt dem schnellen Nachschlagen entgegen. Ein Nachschlagewerk ist ein Buch oder ähnliches Werk, das schnellen Zugang zu Wissen liefert. Reine Datenbanken und vergleichbare Datensammlungen (wie Telefonbücher) werden in der Regel nicht zu den Nachschlagewerken gezählt. Je nach Charakter gehört ein Werk zu den wissenschaftlichen Hilfsmitteln oder richtet sich an allgemeine Interessenten. Die innere Ordnung kann dabei entweder nach dem Alphabet oder nach einem anderen System geschehen. Typische Nachschlagewerke sind Lexika und Enzyklopädien. Dabei ist die Begrifflichkeit nicht immer klar. Ein Nachschlagewerk kann in Buchform erschienen sein, als CD-ROM bzw. DVD, oder im Internet abrufbar sein. Es ist dann wie die Online-Enzyklopädie Wikipedia kostenlos (bzw. sogar frei im Sinne des Freien Wissens), oder die Betreiber versuchen, Geld zu erwirtschaften. Das kann über Anzeigen oder mit einer Abonnements- oder Zugriffsgebühr geschehen. Loseblattsammlungen sind Bücher in Form eines Aktenordners, bei denen man über ein Abonnement von Zeit zu Zeit aktualisierte Seiten erhält. Ein gängiges Beispiel dafür sind Gesetzessammlungen. Traditionell boten Nachschlagewerke neben Texten auch manchmal Abbildungen dar: Fotos, Illustrationen, Informationsgrafiken, Karten und Pläne. Digitale Nachschlagewerke machen es möglich, zusätzlich Audiodokumente, Videosequenzen und Animationen anzubieten. Für diese Inhalte wird oft das Wort Multimedia verwendet. Arten von Nachschlagewerken. a>. Das umfassendste Wörterbuch der deutschen Sprache wurde 1838 begonnen und 123 Jahre später vollendet. Eine Vielzahl von Werken können als Nachschlagewerke angesehen werden. Man kann sie auf einer Achse zwischen den Polen Wörterbuch und Einführungsliteratur einordnen. Unter einem Wörterbuch versteht man in erster Linie Sprachwörterbücher. Sie erklären den Gebrauch oder die Bedeutung von Wörtern, entweder in einer einzigen Sprache, oder mit Übersetzung in eine andere Sprache. Das Wort Lexikon bezieht sich ursprünglich auf solche Wortschatz-Sammlungen. Auf der Achse kommen in Richtung Einführungsliteratur Werke an die Reihe, die immer längere Beiträge zum einzelnen Stichwort haben. Die Brockhaus-Enzyklopädie hat noch relativ kurze Artikel, die rasch Auskunft geben und bei denen man leicht aufeinander verweisen kann. Beispielsweise die amerikanische Collier’s Encyclopedia und die niederländische Grote Spectrum Encyclopedie hingegen enthalten sehr viel längere Artikel. Der Vorteil ist, dass der Leser ein Thema recht ausführlich kennenlernt, ohne von Artikel zu (verwandtem) Artikel springen zu müssen. Nahe dem Pol Einführungsliteratur stehen die Handwörterbücher. In ihnen befinden sich relativ wenige, dafür sehr lange Beiträge. Sie ähneln bereits Einführungswerken für Studenten eines Fachs. Bei einem Nachschlagewerk denkt man vor allem an eine alphabetische Ordnung. Sie beruht direkt auf der Sprache und ist damit auf der allgemeingültigsten Ordnung. Doch manche Werke ordnen das Wissen nach einer anderen Systematik, nach Sachzusammenhängen. Ein Beispiel für ein systematisches Wörterbuch ist ein Bildwörterbuch, bei dem etwa alle Wörter zum Thema "Automobil" auf einer Seite mit einem detaillierten Bild eines Autos präsentiert werden. Ein Werk mit längeren Beiträgen nach einer systematischen Ordnung nennt man Handbuch. Chroniken verwenden als Ordnungssystem die Zeit. a>, mit dem einen Band der Propedia (grün), der Micropedia (rot) und der Macropedia. Dazu kommt am Ende der zweibändige Index (blau). Die Encyclopædia Britannica versucht seit 1974, die Vorteile der unterschiedlichen Nachschlageformen in sich zu vereinen. Einige Bände bilden die "Micropedia", ein eigentliches Nachschlagewerk mit vielen kurzen Beiträgen. Die "Macropedia" hingegen hat lange Artikel zum vertiefenden Lesen. Die "Propedia" ist eine systematische Übersicht nach Wissensgebieten, die für den Einstieg, für den ersten Schritt des Lesers dienen sollte. Die Erfahrung zeigt, dass die meisten Nutzer eines Nachschlagewerkes schnell und bequem ein bestimmtes Wissen suchen. Das gelingt am besten über das Alphabet. Daher sollten systematische Werke oder Werke mit langen Artikeln auch ein detailliertes Register (Index) haben. Katalog. Zu den Katalogen gehören Ausstellungskataloge, Museumskataloge, Messekataloge, Warenkataloge usw. Auch Bibliotheken, Archive und Dokumentationen erschließen ihre Bestände mit einem Katalog, häufig nur als Kartei oder heute in digitaler Form. Zu den meisten Kunstausstellungen erscheinen Kataloge in Buchform, oft mit ergänzenden Information zum Thema oder Künstler. Kommerzielle Kataloge von Lieferanten, Versandhäusern oder Verlagen, auch das unverzichtbare VLB (Verzeichnis lieferbarer Bücher) – eine Bibliografie in Buchform, als CD-ROM oder online − ist ein solcher Katalog. Bibliografie. Bibliografien (auch "Bibliographien") sind Verzeichnisse von Literaturhinweisen bzw. Kataloge für die Literatursuche (Bücher, Zeitschriften, andere Veröffentlichungen), meistens thematisch (nach Gebieten), Branchenbibliografie oder räumlich (Nachlässe, Bibliotheken) orientiert. Die Deutsche Nationalbibliografie (genauer Titel: "Deutsche Nationalbibliografie und Bibliografie der im Ausland erschienenen deutschsprachigen Veröffentlichungen") wird von der Deutschen Nationalbibliothek (DNB) erstellt und ist die größte Datensammlung deutschsprachiger Literatur. Sie erfasst alle eingesandten Pflichtexemplare der Veröffentlichungen in Deutschland. Almanach. Ein Almanach ist meistens ein Jahrbuch zu einem bestimmten Thema, zum Beispiel Fischer-Almanach oder astronomische Jahrbücher wie der Nautical Almanac. Oft auch mit literarischen und künstlerischen Inhalten. Atlas. Ein Atlas ist ein kartografisches Nachschlagewerk geographischer Gegebenheiten: nutzerorientiert (zum Beispiel Schulatlas), historisch oder politisch (Historischer Atlas), regional orientiert (zum Beispiel Nationalatlas). Nicht zu den kartografischen Produkten gehörend, aber doch den Begriff Atlas im Titel verwendend, sind zum Beispiel Anatomieatlanten (Sammlung von Illustrationen mit Erklärungen zum Körperbau des Menschen). Weblinks. Nachschlagewerk Nebenschilddrüse. Die Nebenschilddrüsen (lat.: "Glandulae parathyroideae"), auch als Epithelkörperchen bezeichnet, sind endokrine Drüsen der Säugetiere und Vögel. Es handelt sich um zwei Organpaare, insgesamt also um vier Epithelkörperchen, die beim Menschen etwa linsengroß sind. Sie bilden das Parathormon, ein Hormon, welches den Calciumspiegel im Blut erhöht. Anatomie. Man unterscheidet jeweils ein äußeres und ein inneres Epithelkörperchen. Beide sind paarig und sie sind hinter der Schilddrüse. Bei Vögeln können auch drei Paare vorkommen (z. B. beim Huhn). Gesunde Nebenschilddrüsen wiegen zwischen ungefähr 30 mg bei Männern und 35 mg bei Frauen. Diese Drüsen sind nicht sichtbar und bei der körperlichen Untersuchung nicht tastbar. Die Nebenschilddrüsen sind wegen ihrer Nähe zur Schilddrüse benannt, sie erfüllen aber einen ganz anderen Zweck. Das äußere oder obere Epithelkörperchen ("Glandula parathyroidea externa/superior") entsteht embryonal aus der 4. Schlundtasche der Kiemenbogen. Bei einigen Arten liegt es relativ weit von der Schilddrüse entfernt, beim Pferd vor dem Brusteingang, bei Paarhufern an der Aufzweigung der Halsschlagader. Das innere oder untere Epithelkörperchen ("Glandula parathyroidea interna/inferior") entsteht aus der 3. Schlundtasche und liegt meist in, beim Menschen häufig etwas unterhalb der Schilddrüse. Die Epithelkörperchen sind von einer zarten Bindegewebskapsel umgeben, von der feine Septen ausgehen. Die Epithelzellen sind strangartig angeordnet. Die Hauptzellen produzieren das Parathormon (PTH). Parathormon, als Antagonist des Calcitonins, erhöht die Calciumkonzentration im Blut durch indirekte Aktivierung von Osteoklasten. Neben den Hauptzellen kommen "oxyphile Zellen" vor, deren Zahl mit steigendem Lebensalter zunimmt. Ihre Funktion ist nicht bekannt. Die Hauptfunktion der Nebenschilddrüsen ist die Calcium- und Phosphatniveau des Körpers in einem engen Bereich zu halten, damit das Nerven- und Muskuläre Systeme ordentlich funktionieren. Erkrankungen der Nebenschilddrüse. Das autonome Adenom der Nebenschilddrüse ist der häufigste Grund für den Hyperparathyreoidismus Wichtigste Erkrankung der Nebenschilddrüse ist eine Überfunktion, der Hyperparathyreoidismus (HPT). Die häufigsten Ursachen sind Tumoren und Hyperplasien des Drüsengewebes. Dabei können sowohl gutartige Adenome oder bösartige Adenokarzinome auftreten. Beim Haushund sind etwa ein Drittel der Nebenschilddrüsentumoren bösartig. Seltener kommen Unterfunktionen der Nebenschilddrüse vor (Hypoparathyreoidismus), diese sind in der Regel iatrogen, z. B. nach Schilddrüsenoperationen oder Überversorgung mit Vitamin D. Autoimmunerkrankungen können ebenfalls einen Hypoparathyreodismus auslösen. Symptom ist ein Mangel an Parathormon, welcher zu einer Hypocalcämie mit Krämpfen und Herzversagen führen kann. Nutzpflanze. Nutzpflanzen sind wild wachsende sowie Kulturpflanzen, die unter anderem als Nahrungsmittel, Genussmittel oder Heilpflanzen für Menschen, als Viehfutter oder für technische Zwecke (nachwachsende Rohstoffe) Verwendung finden. Zierpflanzen dagegen bilden eine eigenständige Kategorie. Geschichte. Vor mehr als 12.000 Jahren begannen Menschen in Vorderasien und Anatolien (nach Smith 1994) mit dem Anbau der ersten Getreidearten (Einkorn, Emmer, Gerste und Roggen) und „erfanden“ damit die Landwirtschaft. Durch Selektion der gesündesten und ertragreichsten Pflanzen und Verwendung des Körnerertrags als Saatgut für das kommende Jahr sowie Ackerbaumaßnahmen, Unkrautbekämpfung und Düngung mit Mist wurde versucht, die Ernte zu sichern und ihren Ertrag zu verbessern. Da mit den traditionellen Anbaumethoden Hungersnöte nicht verhindert werden konnten, entstanden ab dem 18. Jahrhundert Forschungs- und Lehranstalten der Pflanzenbauwissenschaften. Die jährlichen Erträge der Nutzpflanzen wurden seitdem durch systematischen Pflanzenbau, Pflanzenschutz sowie Pflanzenzucht gesichert und erhöht. Seit den 1980er Jahren wird zur Unterstützung der Pflanzenzucht auch die Gentechnik angewandt. Der Anbau von GVO-Nutzpflanzen erfolgt in den USA auf mehr als 100 Mio. ha (2006). In Europa dagegen ist der GVO-Anbau umstritten und rechtlich eingeschränkt. Nutzung heute. Derzeit werden etwa 20.000 Arten, also gut 5 % der Gesamtzahl beschriebener Arten, vom Menschen genutzt. Von diesen werden etwa 4900 Arten kultiviert. Von diesen Kulturpflanzen besitzen etwa 150 Arten eine besondere Bedeutung, weil sie zusammen etwa 90 % des Nahrungsbedarfs der Weltbevölkerung decken. Niederländische Antillen. Die Niederländischen Antillen waren ein niederländisches Überseegebiet, das geographisch zur Inselgruppe der Kleinen Antillen in der Karibik gehörte. Bis zu ihrer Auflösung am 10. Oktober 2010 bildeten sie einen Landesteil innerhalb des Königreiches der Niederlande, neben den (europäischen) Niederlanden und Aruba, das bis Ende 1985 ebenfalls Teil der Niederländischen Antillen war. Nach der Neuordnung der politischen Situation sind Curaçao und Sint Maarten autonome Länder innerhalb des Königreichs der Niederlande, vergleichbar mit Aruba. Die Inseln Bonaire, Saba und St. Eustatius sind "Besondere Gemeinden" der Niederlande, gehören jedoch keiner Provinz an. Geographie. Karte aller Länder des Königreichs der Niederlande im gleichen Größenverhältnis Bevölkerungsentwicklung der Niederländischen Antillen in Tausend, 1961—2003. Die etwa 230.000 Einwohner waren zu etwa 85 % afrikanischer Abstammung. Auf Sint Maarten erreichte die Zahl der Ausländer 49 %, also jeder Zweite hatte hier eine andere als die niederländische Staatsangehörigkeit. Geschichte. Die Encyclopaedie van Nederlandsch West-Indië (deutsch: Enzyklopädie von Niederländisch-Westindien) erschien als ein Standardwerk zwischen 1914 und 1917. 1954 wurde den Niederländischen Antillen vollständige Autonomie in Bezug auf interne Angelegenheiten gewährt. Für Außenpolitik und Verteidigung war jedoch weiterhin das Königreich der Niederlande zuständig. Bis zum 31. Dezember 1985 gehörte die Insel Aruba ebenfalls zum Gebiet der Niederländischen Antillen. Politik. Die Verwaltung der Niederländischen Antillen bestand aus einer Regierung und den "Staten", dem Parlament. Der Gouverneur vertrat das Staatsoberhaupt des Königreiches, Königin Beatrix, und war formell Regierungsleiter. Die politische Verantwortlichkeit lag aber bei dem Ministerpräsident und den Ministern. Die letzte Ministerpräsidentin war Emily de Jongh-Elhage. Die "Staten" der Niederländischen Antillen zählten 22 Sitze, nach einer festen Formel über den Inseln verteilt: 14 für Curaçao, 3 für Sint Maarten, 3 für Bonaire, 1 Sitz für Sint Eustatius sowie 1 für Saba. Regierungskoalitionen bildeten sich in der Regel aus den Parteien der verschiedenen Inseln. Die Niederländischen Antillen waren nicht Teil der Europäischen Union, sondern hatten eine bevorzugte Beziehung unter dem Status von Überseeischen Ländern und Hoheitsgebieten (siehe: Gebiet der Europäischen Union). Seit Anfang 2006 waren die Inseln Grund für außenpolitische Differenzen zwischen Venezuela und dem Königreich der Niederlande. Der venezolanische Präsident Hugo Chávez behauptete, die Niederlande würden den USA die Errichtung von Militärbasen erlauben, die für eine geplante Invasion Venezuelas genutzt werden sollten. Am 23. Mai 2006 begann ein internationales Militärmanöver (Joint Caribbean Lion 2006) unter Beteiligung der US-Navy. Reform der Beziehungen im Königreich. Anfang der 1990er Jahre begann eine Diskussion über die politische Zukunft der Niederländischen Antillen. Manche Politiker auf Curaçao und Sint Maarten, unter diesen auch Mitglieder der damaligen Antillen-Regierung, befürworteten eine Autonomie "(Status aparte)" für ihre Inseln nach dem Vorbild von Aruba. In Referenden auf den verschiedenen Inseln sprach sich 1993 und 1994 die Mehrheit der Stimmberechtigten jedoch für den Fortbestand von „neu strukturierten“ Niederländischen Antillen aus. Auf Curaçao z. B. stimmten damals 73,6 % für einen Verbleib im Verband der Niederländischen Antillen, 17,9 % für Autonomie, 8 % für Eingliederung in die Niederlande (als Provinz oder Gemeinde) und nur 0,5 % für vollständige Unabhängigkeit. Auf den anderen Inseln war das Ergebnis vergleichbar, nur auf Sint Maarten war eine große Minderheit von 32 % für Autonomie. Die Regierung trat daraufhin zurück. Nachdem sich die Bevölkerung Sint Maartens in einem neuen Referendum Juni 2000 mit 69 % für Autonomie aussprach, begannen erneut Gespräche über die Auflösung der Niederländischen Antillen als politische Einheit. Ein spezieller Beratungsausschuss aus Politikern und Experten empfahl der niederländischen Regierung 2004 die Auflösung des Landes Niederländische Antillen, die Bildung zweier neuer Länder Curaçao und Sint Maarten innerhalb des Königreichs der Niederlande und die Eingliederung der übrigen Inseln Bonaire, Saba und Sint Eustatius in die Niederlande. In neuen Referenden auf den Inseln (außerhalb Sint Maartens) bestätigte die Bevölkerung 2004 und 2005 die Empfehlungen des Ausschusses, nur auf Sint Eustatius stimmte eine Mehrheit weiterhin für einen Fortbestand der Niederländischen Antillen. Ende 2005 erreichten die Inseln Übereinstimmung mit der niederländischen Regierung über die Auflösung der Niederländischen Antillen 2008. Am 11. Oktober 2006 gelangten Bonaire, Saba und Sint Eustatius zu einem Übereinkommen mit den Niederlanden über ihren künftigen Rechtsstatus als „Besondere Gemeinden“ der Niederlande. Entsprechend einem am 15. Dezember 2008 auf Curaçao gefassten Beschluss wurden die Niederländischen Antillen zum 10. Oktober 2010 als politisches Gebilde aufgelöst. Sprachen. Niederländisch und Papiamentu waren die zwei offiziellen Amtssprachen der Niederländischen Antillen. Auf den Inseln über dem Winde (St. Maarten, Saba, St. Eustatius) war Englisch die Verkehrssprache, auf den Inseln unter dem Winde (Bonaire, Curaçao) war Papiamentu die Verkehrssprache und zweite Amtssprache. Der Unterricht in den Schulen fand in der Grundschule wahlweise auf Englisch oder Niederländisch (St. Maarten, Saba, St. Eustatius) bzw. Papiamentu oder Niederländisch (Bonaire, Curaçao) statt. Ab der Mittelschule (5. Klasse) fand der Unterricht nur noch auf Niederländisch statt, weil die Abschlussprüfung auf Niederländisch und die gleiche Prüfung wie in den Niederlanden war. Der weitere Hochschulunterricht fand in den Niederlanden statt. Ab dem Schuljahr 2008/09 wurde auf Curaçao der Unterricht nicht mehr auf Papiamentu gegeben, da zu viele Defizite zu Tage getreten sind (es gab z. B. ausschließlich niederländischsprachige Lehrbücher). Der katholische Schulverband beschloss daher, ab dem Schuljahr 2008/09 wieder von der ersten Klasse an auf Niederländisch zu unterrichten. Dies entsprach auch dem Wunsch des Großteils der Bevölkerung. Seit Jahren waren die Anmeldungen für niederländischsprachige Schulen um das Zigfache höher, als Plätze vorhanden waren. Die Abschlussprüfungen wurden auf Niederländisch gestellt. Alle öffentlichen Bekanntmachungen und Gesetze wurden auf Niederländisch abgefasst. Die Literatur der Inseln der ehemaligen niederländischen Antillen wurde hauptsächlich auf Niederländisch und Papiamentu geschrieben, nur ein kleiner Teil auf Englisch und Spanisch. Die folgende Tabelle gibt einen Überblick, welche Sprache wie viele Muttersprachler hatte. Infrastruktur. a> im Landeanflug auf den "Princess Juliana Airport" Das Stromnetz der ehemaligen Niederländischen Antillen hat 110 Volt und 60 Hertz. Erwähnung verdient der Flughafen Sint Maartens, der Princess Juliana Airport, dessen Lage zahlreiche Schaulustige anlockt und begeistert. Der Landeanflug führt in den meisten Fällen bis kurz vor dem Aufsetzen der Maschinen über das Wasser. Unmittelbar vor der Landebahn befindet sich ein Strand, der gerne von Schaulustigen und anderen Interessierten aufgesucht wird, trotz bzw. gerade wegen des erheblichen Lärmes und den mitunter heftigen Böen, die durch die Flugzeuge verursacht werden. Die Flugzeuge fliegen die Landebahn über den Strand teilweise in nur etwa 20 Metern Höhe an. Wirtschaft. Neben dem Fremdenverkehr, der die Haupteinnahmequelle der Inseln war, dienten die Inseln zahlreichen Banken als Zentrum. Daneben existierten auch kleinere Ölraffinerien. Medien. Amigoe ist eine ansässige Tageszeitung in niederländischer Sprache. Antilliaans Dagblad ist eine weitere Zeitung. Daneben gibt es zahlreiche Zeitungen in der lokalen Sprache Papiamentu. Die verbreitetste ist die Zeitung Extra. Negation. Negation (von lat.: "negare" = verneinen) ist Ablehnung, Verneinung oder Aufhebung; verneint werden können zum Beispiel Aussagen, abgelehnt werden können zum Beispiel moralische Werte, aufgehoben werden können zum Beispiel Konventionen. Sprachwissenschaft. In der Sprachwissenschaft wird die sprachliche Verneinung untersucht, zum Beispiel die Art, wie in einer Sprache Aussagen verneint werden. Je nach Zusammenhang kann als Negation das Wort oder die Formulierung (z.B. „nicht“) bezeichnet werden, mit der eine Aussage („Es regnet "nicht"“) oder eine andere sprachliche Kategorie („"Nicht"schwimmer“) verneint wird; oder das Ergebnis eines Vorgangs von Verneinung, zum Beispiel die verneinte Aussage; oder der nichtsprachliche Inhalt der verneinten Aussage beziehungsweise der verneinten sprachlichen Kategorie. Das Gegenteil einer Satznegation, also eine bejahende beziehungsweise bekräftigende Aussage, bezeichnet man als Affirmation. Logik. In der formalen Logik versteht man unter Negation üblicherweise die Satzverneinung, also eine Operation, durch die der Wahrheitswert einer Aussage (eines Satzes) in sein Gegenteil gekehrt wird; auch hier kann mit der Bezeichnung „Negation“ (a) der sprachliche Ausdruck der Verneinung (zum Beispiel das Negationszeichen „¬“ oder die Formulierung „es ist nicht der Fall, dass …“), (b) seine Bedeutung, etwa die verneinende Wahrheitswertefunktion oder (c) die gebildete verneinende Aussage gemeint sein. Die Negation in der zweiwertigen Logik. In der klassischen Logik, in der genau zwei Wahrheitswerte "wahr" und "falsch" – betrachtet werden, ist die Negation unmittelbar als Umkehrung des Wahrheitswertes in sein Gegenteil fassbar: Wenn man eine wahre Aussage verneint, dann entsteht eine falsche Aussage; verneint man hingegen eine falsche Aussage, so entsteht eine wahre Aussage. Gebräuchliche Schreibweisen für die Negation einer Aussage a sind formula_1, formula_2, formula_3 und formula_4. In der polnischen Notation wird die Negation durch den vorangestellten Großbuchstaben "N" ausgedrückt, (z. B. "Na"), in den Existential Graphs von Charles S. Peirce wird eine Aussage verneint, indem sie von einem geschlossenen Linienzug umgeben wird. In vielen Programmiersprachen wird die Negation als codice_1 oder codice_2 geschrieben. Die Negation in der dreiwertigen Logik. In der dreiwertigen Logik gibt es zwei Arten der Negation: die schwache und die starke. Der Unterschied liegt darin, dass bei der starken Negation die Präsuppositionen erhalten bleiben. Ausführlich: Starke und schwache Negation Negation, Verneinung und Behauptung. Nach Frege ist es nicht sinnvoll, zwischen bejahenden und verneinenden Urteilen zu unterscheiden. Die Negation gehört im Sinne von Frege zum „Gedanken“ und nicht zur illokutiven Kraft. Philosophie. In der Philosophie bedeutet Negation die Aufhebung von etwas durch etwas Entgegengesetztes. (Beispiel: der Tod als Negation des Lebens.) Durch die Negation entsteht eine andere Qualität. Durch die Negation der Negation entsteht wieder eine neue Qualität, die sich möglicherweise stark vom Ausgangszustand unterscheidet. Bei dieser Art der Negation spielt die Zeit eine große Rolle. Sie ist eine Darstellung jeder Entwicklung. Bei der Empfängnis wird der Tod negiert, Leben entsteht. Das Lebewesen entwickelt sich, wird geboren und stirbt wieder. Dabei ist aber nicht der Ausgangszustand wieder erreicht. In der Zwischenzeit hat das Lebewesen sich bewegt, gehandelt, eventuell Nachwuchs erzeugt (somit seine Gene weitergegeben) und die Umwelt verändert. Negation im Sinne der philosophischen Dialektik (Hegels). In Hegels Dialektik ist die Negation ein Aspekt der kritischen Antithese. Dabei stellt sie auch eine der drei Bedeutungsaspekte des Begriffs Aufhebung dar. Negation ist die kritische Ablehnung eines positiven philosophischen Systems. Im Anschluss an Hegel postulierte Engels das Gesetz von der Negation der Negation. Keineswegs hat man sich in diesem Zusammenhang die Antithese bzw. die Entgegensetzung als blosse logische Verneinung vorzustellen. Vielmehr werden zwei Begriffe einander gegenübergestellt und in ihrer Beziehung zueinander betrachtet. Die Negation ist dabei der Übergang von einem zum anderen Begriff und auch umgekehrt. Dieser Übergang setzt nicht nur am ursprünglichen Begriff an, sondern wird aus diesem selbst entwickelt und dabei so vollständig durchgeführt, dass der jeweilige Ursprungsbegriff aber in der Umkehrung auch der Gegensatz argumentativ umfassend zurückgewiesen wird. "Für konkrete Beispiele siehe den Artikel zur" Wissenschaft der Logik. Das „Wunder der Negation“. In anthropologischer Perspektive wird mitunter die Negation als spezifisch für den Menschen und seine Geistigkeit angesehen. Das Urteil sei etwas „Paradoxes“ als die Verknüpfung zweier Begriffe auch dann erhalten bleibt, wenn der verneinende Satz formuliert werden kann. „Dieses Wunder einer Verknüpfung, die ihre eigene Aufhebung besagt, unterscheidet die menschliche Sprache von allen anderen Formen der Kommunikation im Tierreich: Nichtmenschliche Tiere können nicht verneinen und auch nicht bejahen, also nicht urteilen. Damit gibt es für sie kein `wahr´ oder `falsch´.“ Der Mensch als Lebewesen, das Nein sagen kann. In der philosophischen Anthropologie wird u. a. von Max Scheler das „Nein-Sagen-Können“ des Menschen als spezifisch menschlich erachtet. Ethik. In der Ethik bedeutet Negation die Ablehnung eines moralischen Wertes. Kunst. In der Kunst gibt es verschiedene Aspekte der Negation: So wird eine Kunstrichtung durch eine andere abgelöst und damit negiert. Neue Methoden treten an die Stelle der alten. „L’art pour l’art“ verneinte die Zweckgebundenheit von Kunst. Während vor der Erfindung der Fotografie lange Zeit eine detailgetreue realistische Darstellung das Ziel in der Malerei war, verlegte sich die Malerei danach auf abstrakte, impressionistische, expressionistische, kubistische und andere Darstellungen einer Wirklichkeit, die nicht von der Kamera gesehen wurde. Oftmals hatten diese Kunstrichtungen auch Programme, die vieles bisherige, dagewesene zurückwiesen. Der Dadaismus verneinte die gesamte bis dahin gültige Kunst und verspottete sie. In Richard Huelsenbecks Dadaistischem Manifest heißt es: „Das Wort Dada symbolisiert das primitivste Verhältnis zur umgebenden Wirklichkeit, mit dem Dadaismus tritt eine neue Realität in ihre Rechte. Das Leben erscheint als ein simultanes Gewirr von Geräuschen, Farben und geistigen Rhythmen, das in die dadaistische Kunst unbeirrt mit allen sensationellen Schreien und Fiebern seiner verwegenen Alltagspsyche und in seiner gesamten brutalen Realität übernommen wird.“ Kunst versucht die Wirklichkeit zu beschreiben oder versucht, sie zu negieren, wie die situationistische Künstlerbewegung der 60er, die die Arbeit, den Kapitalismus und schließlich die Kunst selbst durch Überführung in den Alltag negieren, also aufheben wollte. In Form der virtuellen Realität versucht sie, die Wirklichkeit zu ersetzen oder sich ihr anzunähern, Raum und Zeit zu überwinden. Auch Negativmaterial und Falschfarben negieren die gewohnte Welt im visuellen Bereich. In der Musik spielen die Pause und die Stille - die Negation des Tones - eine große Rolle. Negation als Zerstörung: Jimi Hendrix zerfetzte musikalisch die amerikanische Nationalhymne und zündete seine Gitarre an. Die Punk-Bewegung negierte mit ihrer Rebellion alle Sitten und Werte der gutbürgerlichen Gesellschaft. Ethnologie. Im Fest und im Ritual ist der Alltag "aufgehoben" (negiert). Naab. Die Naab ist ein linker und nördlicher Nebenfluss der Donau in der Oberpfalz in Ostbayern, Deutschland. Zusammen mit der Waldnaab, ihrem linken bzw. östlichen Quellfluss, ist die Naab etwa 165 km lang, ihr Einzugsgebiet inklusive aller Quell- und Zuflüsse umfasst 5225 km². Name. Der Name leitet sich vom Indogermanischen Wort "nebh" ab, was ‚feucht‘ oder ‚Wasser‘ bedeutet. Im Jahre 700 schrieb man „Nabas“, 885 „Napa“, 1005 „Naba“, 1199 „Nabe“, 1245 „Nab“ und ab 1546 „Naab“. Flusslauf. Die Naab entsteht westlich des Oberpfälzer Walds rund neun Kilometer Luftlinie südlich von Weiden beim Luhe-Wildenauer Ortsteil Unterwildenau aus der Vereinigung von Haidenaab (von rechts) und Waldnaab (von links). Anschließend verläuft sie südwärts entlang der A 93 und der B 15, später der B 8, unter anderem über Schwandorf und Burglengenfeld. Sie mündet bei Mariaort nahe Regensburg von links in die Donau, dicht unterhalb der Schwarzen Laber und rund fünf Kilometer Luftlinie westlich der Einmündung des Regens. Sonstiges. Der Fluss bzw. das Naabtal ist seit 1988 durch das Original Naabtal Duo und dessen Erfolgshit Patrona Bavariae bekannt geworden. Noam Chomsky. Avram Noam Chomsky (* 7. Dezember 1928 in Philadelphia, Pennsylvania, USA) ist emeritierter Professor für Linguistik am Massachusetts Institute of Technology (MIT), einer der weltweit bekanntesten linken Intellektuellen und seit den 1960er Jahren einer der prominentesten Kritiker verschiedener Aspekte der US-amerikanischen Politik. Chomsky ist einer der bekanntesten US-amerikanischen Sprachwissenschaftler (Linguisten) der Gegenwart, der – durch die Verbindung der Wissenschaftsdisziplinen Linguistik, Kognitionswissenschaften und Informatik – vor allem in der zweiten Hälfte des 20. Jahrhunderts starken Einfluss auf deren Entwicklung ausübte. Seine Beiträge zur allgemeinen Sprachwissenschaft sowie seine Modelle der Generativen Transformationsgrammatik veränderten den bis dahin vorherrschenden US-amerikanischen Strukturalismus. Seine Kritik am Behaviorismus förderte den Aufstieg der Kognitionswissenschaft. Chomsky war ab den 1960er und 1970er Jahren oft im politischen und wissenschaftlichen Diskurs öffentlich präsent. Zu seinen bedeutendsten medientheoretischen Arbeiten gehörte die Entwicklung der Theorie des "Propagandamodells" zusammen mit Edward S. Herman, das manipulative Einflüsse wirtschaftlicher Interessengruppen mit Hilfe der Massenmedien auf demokratische Gesellschaften erklärt. Seit Chomskys Kritik am Vietnamkrieg trat er immer wieder als scharfer Kritiker der US-amerikanischen Außen- und Wirtschaftspolitik in Erscheinung und wurde als Kapitalismus- und Globalisierungskritiker weltweit bekannt. Er bezeichnet sich als Libertären Sozialisten (synonym mit Anarchismus) mit Sympathien für den Anarchosyndikalismus und ist Mitglied der Industrial Workers of the World und der Internationalen Organisation für eine Partizipatorische Gesellschaft (IOPC). Dem Arts and Humanities Citation Index von 1992 zufolge ist Chomsky im Zeitraum zwischen 1980 und 1992 die am häufigsten zitierte lebende Person der Welt gewesen. Leben. Chomsky wurde am 7. Dezember 1928 in Philadelphia (Pennsylvania, USA) als Sohn des jüdischen Hebraisten William Chomsky und Elsie Simonofsky geboren. Im Jahr 1945 begann er, an der University of Pennsylvania Philosophie und Linguistik zu studieren. Zu seinen Lehrern zählten der Sprachwissenschaftler Zellig S. Harris und der Philosoph Nelson Goodman. Chomskys anarchistische Überzeugungen bildeten sich schon in den 1940er Jahren heraus. Von Bedeutung war dabei die Auseinandersetzung mit dem Anarchismus in Spanien während des Bürgerkrieges. Anfang der 1950er Jahre studierte Chomsky einige Jahre an der Harvard University. 1955 wurde er an der Universität von Pennsylvania in Linguistik promoviert. Seine Dissertation "Transformational Analysis" war Teil eines groß angelegten Frühwerks, in welchem er bereits einige jener Ideen zu entwickeln begann, die er 1957 in seinem Buch "Syntactic Structures", einem der bekanntesten Werke der Linguistik, ausarbeitete. Nach der Verleihung der Doktorwürde lehrte Chomsky zunächst als Assistenzprofessor, seit 1961 als ordentlicher Professor für Linguistik und Philosophie am Massachusetts Institute of Technology. In den 1960er Jahren wurden seine revolutionären linguistischen Arbeiten weltweit anerkannt, seither gilt er als einer der wichtigsten Theoretiker auf diesem Gebiet. Noam Chomsky war seit 1949 mit der Linguistin Carol Chomsky (1930–2008) verheiratet. Seine älteste Tochter ist die Lateinamerikawissenschaftlerin Aviva Chomsky. Chomsky ist in zweiter Ehe mit Valeria Wasserman verheiratet. Akademisches Wirken. Noam Chomsky hat die Darstellung natürlicher Sprachen formalisiert: Die Neuerung war, die einzelsprachlichen Ausdrücke mit Hilfe einer Metasprache rekursiv zu definieren. Die aus der Metasprache abgeleiteten Klassen von Grammatiken können in eine Hierarchie eingeteilt werden, die heute Chomsky-Hierarchie genannt wird. Seine Arbeit stellt einen Meilenstein für die Linguistik dar. Formale Sprachen und die Chomsky-Hierarchie spielen auch in der Informatik eine wichtige Rolle, insbesondere in der Komplexitätstheorie und im Compilerbau. Zusammen mit den Arbeiten Alan Turings begründen sie einen eigenen Bereich in der Mathematik und machen strukturelle Bereiche und Formalismen natürlicher Sprachen einer mathematischen Betrachtung zugänglich, unter anderem mit dem Ergebnis, dass maschinelle Übersetzungen prinzipiell möglich sind. Die mathematische Formalisierung natürlicher Sprachen legte Grundlagen für die Computerlinguistik und das Projekt maschineller Sprachübersetzung. Chomskys Theorien selbst gelangten dabei aber schnell in die Kritik, nachdem bewiesen wurde, dass die generative Transformationsgrammatik Turing-vollständig und damit nicht endlich bearbeitbar ist. Als Reaktion beschränkte Chomsky daraufhin die Eigenschaften seiner Grammatik durch sogenannte Barriers. Diese und spätere Grammatiktheorien, wie Government and Binding und Minimalistisches Programm sind allerdings nicht mathematisch formalisiert und spielen damit für die Computerlinguistik nur noch eine untergeordnete Rolle neben unifikationsbasierten Grammatiken wie die Lexikalisch-funktionale Grammatik (LFG) und die Head-driven Phrase Structure Grammar (HPSG). Noam Chomsky ist seit 1965 ein führender linker Kritiker der US-amerikanischen Außenpolitik. Seine Vorträge werden nicht nur in Büchern, sondern einige auch auf CDs veröffentlicht, die beispielsweise auf dem Label "Alternative Tentacles" von Jello Biafra erscheinen. Zusammen mit Edward S. Herman hat Chomsky im Propagandamodell zu erklären versucht, wie Massenmedien im kapitalistischen Umfeld die Berichterstattung so gestalten, dass die Interessen der Regierung und der Oberschicht gewahrt bleiben. Beiträge zur Linguistik. Chomskys erstes Buch "Syntactic Structures" ist ein gekürzter, umgearbeiteter Auszug aus einer bereits in den frühen 1950er Jahren während seiner Zeit in Harvard entstandenen, weit umfänglicheren Arbeit mit dem Titel "The Logical Structure of Linguistic Theory", in der er die Transformationsgrammatik einführte. Noam Chomsky trat als Gegner der behavioristischen Theorie des Spracherwerbs auf (siehe das Poverty-of-the-Stimulus-Argument), welche annimmt, dass die Aneignung von Sprache ausschließlich über einen Lernprozess erfolgt. Im Gegensatz hierzu zeigte seine Theorie, dass man eine Sprache vermittels der Entfaltung angeborener Fähigkeiten erlernt. Diesen angeborenen Spracherwerbsmechanismus nennt er Language Acquisition Device (LAD), (siehe hierzu auch die Theorie von Ferdinand de Saussure mit dem Begriff Langage). Dazu führte Chomsky den Begriff der Universalgrammatik ein, die auf der Annahme beruht, dass allen Sprachen eine Universalgrammatik gemein sei, über die jeder Mensch verfügt, da sie angeboren ist. Damit weist sich Chomsky als Vertreter des philosophischen Mentalismus auf, deren Tradition auf René Descartes zurückgeht. Diese Theorie nimmt Äußerungen (Worte, Phrasen, Sätze) und setzt sie mit „Oberflächenstrukturen“ in Zusammenhang, die selbst wieder mit abstrakteren Tiefenstrukturen korrespondieren. (Eine steife und klare Unterscheidung zwischen Oberflächen- und Tiefenstrukturen wird heute in gegenwärtigen Versionen der Theorie nicht mehr vorgenommen.) Umformungsregeln bestimmen zusammen mit den Regeln für die Struktur von Phrasen und anderen Strukturprinzipien sowohl die Erzeugung als auch die Interpretation von Äußerungen. Mit einem begrenzten Instrumentarium von grammatikalischen Regeln und einer endlichen Anzahl von Wörtern kann eine unbegrenzte Menge von Sätzen gebildet werden, darunter solche, die noch nie zuvor gesagt wurden. Die Fähigkeit, unsere Äußerungen auf diese Weise zu strukturieren, ist angeboren und somit ein Teil des genetischen Programms des Menschen. Dieses wird Universalgrammatik genannt und von Chomsky aus der Cartesianischen Linguistik hergeleitet. Wir sind uns dieser Strukturprinzipien im Allgemeinen genauso wenig bewusst, wie wir es uns der meisten unserer biologischen und kognitiven Eigenschaften sind. Aktuelle Theorien Chomskys (seit dem "MP" Anfang der 1990er Jahre) stellen strenge Anforderungen an die Universalgrammatik. Die grammatikalischen Prinzipien, denen Sprachen unterliegen, sind festgelegt und angeboren; der Unterschied zwischen den Weltsprachen kann durch das Setzen von Parametern im Gehirn charakterisiert werden, was oft mit Schaltern verglichen wird (beispielsweise der "prodrop"-Parameter, der anzeigt, ob ein explizites Subjekt wie im Englischen oder Deutschen immer benötigt wird -prodrop, oder es wie im Spanischen oder Italienischen wegfallen kann +prodrop). In Abhängigkeit von diesen Parametern weisen Sprachen grammatische Eigenschaften auf, die nicht mehr zusätzlich gelernt werden müssen. Ein Kind, das eine Sprache lernt, müsse nur die notwendigen lexikalischen Einheiten (Wörter) und Morpheme erwerben und die Parameter auf passende Werte festlegen, was bereits anhand weniger Beispiele erfolgen könne. Chomskys Herangehensweise ist durch mehrere Beobachtungen motiviert. Ihn erstaunte zunächst das Tempo, mit dem Kinder Sprachen lernen. Weiterhin stellte er fest, dass Kinder auf der ganzen Welt auf eine ähnliche Weise sprechen lernen. Schließlich bemerkte er, dass Kinder bestimmte typische Fehler machen, wenn sie ihre erste Sprache erlernen, wohingegen andere offensichtlich logische Fehler nicht auftreten. Chomskys Ideen hatten einen starken Einfluss auf die Untersuchung des kindlichen Spracherwerbs (s. Chomskys und Fodors Vorstellung der angeborenen Modularität des Geistes). Die meisten in diesem Bereich arbeitenden Wissenschaftler lehnen Chomskys Theorien jedoch ab und bevorzugen Emergenz- oder Konnektionismustheorien, die auf allgemeinen Verarbeitungsmechanismen im Gehirn aufbauen. Letztlich bleiben aber praktisch alle linguistischen Theorien kontrovers, und so wird auch die Untersuchung des Spracherwerbs aus der Chomsky’schen Perspektive fortgeführt. Generative Grammatik. Chomskys syntaktische Analysen sind oft hochgradig abstrakt. Sie beruhen auf der sorgfältigen Untersuchung der Grenze zwischen grammatikalischen und ungrammatikalischen Mustern in konkreten Sprachen (vergleiche den sogenannten pathologischen Fall, der in der Mathematik eine ähnlich bedeutende Rolle spielt). Derartige grammatikalische Entscheidungen können genaugenommen jedoch nur durch Muttersprachler getroffen werden. Deshalb konzentrieren sich Linguisten meist auf die eigene Muttersprache, sodass vor allem in frühen Stadien der Theorie von Seiten der Sprachtypologie der Vorwurf erhoben wurde, das Modell sei zu sehr auf die Struktur des Englischen und anderer europäischer Sprachen abgestellt. Chomsky-Hierarchie. Chomsky ist, unabhängig davon, inwieweit seine Ergebnisse Schlüssel zum Verständnis menschlicher Sprache darstellen, berühmt für seine Untersuchungen formaler Sprachen. Seine Chomsky-Hierarchie teilt die formale Grammatik in Klassen wachsender Ausdruckskraft. Jede folgende Klasse kann zu einem breiteren Satz formaler Sprachen als die vorhergehende führen. Er vertritt die Auffassung, dass die Beschreibung einiger Aspekte der Sprache eine im Sinne der Chomsky-Hierarchie komplexere formale Grammatik benötige als die Beschreibung anderer Aspekte. Beispielsweise reiche eine reguläre Sprache aus, die englische Morphologie zu beschreiben, sei aber nicht stark genug, um auch die englische Syntax zu beschreiben. Die Chomsky-Hierarchie ist über ihre Bedeutung für die Linguistik hinaus zu einem wichtigen Element der theoretischen Informatik, speziell des Compilerbaus geworden, da sie über bedeutende Verbindungen und Isomorphismen mit der Automatentheorie verfügt. Kritik an Chomskys Linguistik. Chomskys Auffassungen zur Linguistik sind berühmt geworden, sie blieben aber nicht ohne Kritik: Die alternativ zur Interpretativen Semantik von seinem Schüler George Lakoff entwickelte Generative Semantik gab den Anstoß zu der als "The Linguistics Wars" bekannt gewordenen öffentlichen Auseinandersetzung zwischen dem Chomsky- und dem Lakoff-Lager in den 1960er und 1970er Jahren, die sich zu einem Streit um Theorien der Kognitionswissenschaften und Informatik ausweitete. In Folge konzipierten – in Spannung zu Chomskys Standpunkt – Lakoff, Mark Johnson u. a. die Kognitive Linguistik. Insbesondere bestreiten Lakoff und Johnson die Richtigkeit der neocartesianischen Ansätze, die Chomsky in seiner Theorie nutzt und meinen, dass er nicht in der Lage sei, darüber Rechenschaft abzulegen, inwieweit Wahrnehmung repräsentiert werden könne. Innerhalb der Linguistik wird Chomskys "Transformationsgrammatik " (wie auch George Lakoffs "Generative Semantik") vor allem von Seiten der Pragmatik – mit Berufung auf Ludwig Wittgensteins Auffassung, die Bedeutung eines Wortes sei gleich seinem Gebrauch – kritisiert, weil sie variable kontext- und sprechsituationsabhängige Bedeutungen von Wörtern und Sätzen nicht mathematisch adäquat modellieren will bzw. kann. Hier berührt man die grundlegende Frage nach dem Wesen der Sprache und der Aufgabe einer Grammatik. So bestreiten z. B. Referenzsemantiker, Sozio- und Psycho-Linguisten die Hypothese einer universellen Basissprache mit einem idealen Sprecher/Hörer und wählen die alltägliche Sprachverwendung als Ausgangspunkt. Das Postulat Chomskys (in Verbindung mit Jerry Fodors repräsentationaler "Theorie des Geistes"), mit seinem Modell nicht nur das "Basis-System" abzubilden, sondern mit den "Transformationsregeln" sowohl das Erzeugen als auch das Erkennen der Sprache zu erklären, wird durch neue Forschungen im Bereich der Kybernetik und der Kognitionswissenschaft in Frage gestellt. In der Künstliche-Intelligenz-Forschung wurde ein Modell entwickelt, welches nicht mehr vom Regelsystem eines herkömmlichen Computers ausgeht, sondern kognitive Fähigkeiten als System der Wechselwirkung vieler vernetzter Bausteine – unabhängig von einer konkreten Realisierung einer Syntax – simuliert. Da demnach das Gehirn die Fähigkeit zur intensiven Parallelverarbeitung hat, verliert aus dieser Perspektive der Ansatz einer "Generativen Transformationsgrammatik" sein Fundament. Abgesehen davon verzichten weiterentwickelte strukturelle Modelle wie die Head-driven Phrase Structure Grammar ganz auf Transformationsregeln. Wie die Position der Konnektivisten widersprechen auch einige neuere Strömungen in der Psychologie wie zum Beispiel die Diskurspsychologie oder die "situated cognition" der konstruktivistischen Kognitionswissenschaft Chomskys Ansichten. Spätestens seit der Entwicklung konstruktivistischer Konzepte auf der Basis neuer kognitiver/neurologischer Erkenntnisse weiß man, dass es eine Sprecher-Hörer Idealisierung in der Realität nicht gibt, sondern dass jeder einzelne Sprecher/Hörer seine Kompetenzen in einem kybernetischen Prozess von Kindheit an im Rahmen seiner Sozialisation entwickelt und Sprechen/Hören individuell gefiltert sind. Neben gelungener Kommunikation gibt es ungewollte und bewusste Irreführung (Lügen, Verschleierung durch Vagheit der Ausdrucksweise, Überredung und andere Manipulationen). Diese Phänomene, dass missverständliche oder mehrdeutige Äußerungen von verschiedenen Hörern unterschiedlich verstanden werden, können mit Methoden der generativen Grammatiken nicht erfasst werden. Philosophen in der Tradition Ludwig Wittgensteins, wie etwa Saul Kripke, kritisieren, dass Chomskianer die Rolle von regelbasierter menschlicher Wahrnehmung grundsätzlich falsch einschätzen. Ähnlich widersprechen Philosophen phänomenologischer, existentialistischer und hermeneutischer Traditionen dem abstrakten, rationalistischen Aspekt von Chomskys Gedankengebäude. Am bekanntesten repräsentiert diese Kritik Hubert Dreyfus, der auch durch seine beständige Polemik gegen das Konzept der Künstlichen Intelligenz bekannt ist. Beiträge zur Psychologie. Chomskys linguistisches Werk beeinflusste auch die Entwicklung der Psychologie im 20. Jahrhundert. Seine Theorie einer Universalgrammatik war ein direkter Angriff auf die etablierten behavioristischen Theorien seiner Zeit und hatte erhebliche Auswirkungen auf das wissenschaftliche Verständnis des kindlichen Spracherwerbs und der menschlichen Fähigkeit zur Interpretation von Sprache. 1959 veröffentlichte Chomsky seine Kritik an B. F. Skinners "Verbal Behavior". In diesem Buch behandelte einer der führenden Behavioristen das Phänomen Sprache als sprachliches Verhalten (engl. "verbal behavior"). Dieses Verhalten, so Skinner weiter, könne wie jedes andere Verhalten – vom Schwanzwedeln eines Hundes bis zur Vorstellung eines Klaviervirtuosen – durch Verstärkung geformt werden. Chomskys Kritik an Skinners Arbeit war einer der Auslöser der sogenannten kognitiven Wende in der Psychologie. In seinem Buch "Cartesianische Linguistik" von 1967 und anderen weiterführenden Arbeiten entwickelte Chomsky eine Erklärung der menschlichen Sprachfähigkeit, die auch für Untersuchungen in anderen Bereichen der Psychologie Modellcharakter entfaltete. Viele Aspekte des gegenwärtigen Konzepts von der Funktionsweise des Geistes entspringen unmittelbar Ideen, die in Chomsky ihren ersten Autor fanden. Hier sind vor allem drei Kerngedanken festzuhalten. Erstens, behauptete er, ist der Geist kognitiv. Das bedeutet, dass er tatsächlich mentale Zustände, Überzeugungen, Zweifel usw. enthält. Frühere Ansichten haben das mit dem Argument abgelehnt, dass es sich lediglich um Ursache-Wirkung-Beziehungen – beispielsweise der Art „Wenn Du mich fragst, ob ich X will, werde ich Y sagen“ – handle. Im Widerspruch hierzu zeigte Chomsky, dass es besser sei, den Geist so zu verstehen, als ob man es mit Gegenständlichem wie Überzeugungen oder Unbewusstem zu tun hätte. Zweitens behauptete er, dass ein Großteil dessen, was der erwachsene Geist könne, bereits angeboren sei. Es käme zwar kein Kind auf die Welt, das bereits eine Sprache spreche, aber alle werden mit der Fähigkeit zum Spracherwerb geboren, die es sogar gestatte, in wenigen Jahren gleich mehrere Sprachen geradezu aufzusaugen. In der Linguistik wird diese These Chomskys auch als linguistischer Mentalismus bezeichnet. Psychologen erweiterten diese These weit über das Feld der Sprache hinaus. Marc Hauser etwa, ehemals Psychologe an der Harvard University, nimmt auf Basis der Forschungen von Chomsky an, dass der Mensch auch, ähnlich dem Sprachinstinkt, bereits mit gewissen Moralinstinkten geboren wird. Der Geist des Neugeborenen wird heute nicht mehr als unbeschriebenes Blatt betrachtet. Damit widersprechen Chomsky und seine Nachfolger der lange Zeit unter anderem in der Philosophie durch die Empiristen vertretenen These, dass „nichts im Verstand ist, was nicht zuvor in den Sinnen war“, die also den Menschen bei seiner Geburt als Tabula rasa ansehen. Schließlich entwickelte Chomsky aus dem Konzept der Modularität ein entscheidendes Merkmal der kognitiven Architektur des Geistes. Der Geist sei aus einer Ansammlung zusammenwirkender spezialisierter Subsysteme zusammengesetzt, die nur eingeschränkt miteinander kommunizierten. Diese Vorstellung unterscheidet sich stark von der alten Idee, dass jedes Stückchen Information im Geist durch jeden anderen kognitiven Prozess abgerufen werden könne. (Optische Täuschungen zum Beispiel lassen sich nicht abschalten, sogar dann nicht, wenn man wisse, dass es sich um Illusionen handle.) Auswahl von Auszeichnungen und Mitgliedschaften. Die 1986 entwickelte Programmiersprache Comskee wurde nach ihm benannt. Politisches Engagement. In den 1960er Jahren begann Chomsky, sich in der Öffentlichkeit deutlicher politisch zu artikulieren. Seit 1964 protestierte er gegen den von ihm als „Angriff auf Südvietnam“ bezeichneten Vietnamkrieg und kritisierte, dass dieser in den USA "Krieg in Vietnam" genannt wurde. 1969 veröffentlichte er "Amerika und die neuen Mandarine", eine Sammlung von Aufsätzen über den Vietnamkrieg, die Einfluss auf die Antikriegsbewegung ausübte. Ebenso deutlich bezog Chomsky Stellung gegen die US-amerikanische Politik und die Rolle der Medien in Bezug auf Kuba, Haiti, Osttimor, Nicaragua, den Nahostkonflikt und gegenüber den „Schurkenstaaten“ sowie zum zweiten Golf- und zum Kosovokrieg, zur Frage der Menschenrechte, zu Globalisierung und neoliberaler Weltordnung. Heute ist er, neben seiner weiter unbestrittenen Bedeutung für die Linguistik, zu einem der bedeutendsten Kritiker der US-Außenpolitik, der politischen Weltordnung und der Macht der Massenmedien geworden. Chomsky äußerte, dass seine „persönlichen Visionen traditionell anarchistisch sind, mit Herkunft aus der Aufklärung und dem klassischen Liberalismus“. Er tendiert zum Anarchosyndikalismus und ist Mitglied der Industrial Workers of the World und der Internationalen Organisation für eine Partizipatorische Gesellschaft. Chomsky wird vorgeworfen, die Massenmorde unter Pol Pot in Kambodscha abgestritten zu haben. Im New York Times Book Review wurde Chomsky einmal als der "„wichtigste Intellektuelle der Gegenwart“" bezeichnet. Noam Chomsky hierzu: "„Das Zitat wurde von einem Verlagshaus veröffentlicht. Doch da sollte man immer sehr genau lesen: Wenn man nämlich das Original nachschaut, dann heißt es weiter: „wenn dies der Fall ist, wie kann er dann solchen Unsinn über die amerikanische Außenpolitik schreiben?“ Diesen Zusatz zitiert man nie. Aber um ehrlich zu sein: Gäbe es ihn nicht, würde ich glauben, ich mache etwas falsch.“" Noam Chomsky gilt in Hinblick auf sein politisches Schrifttum als der „meistzitierte Außenseiter der Welt“. Er gilt als einer der Vorsprecher und Vordenker der Globalisierungskritik. Im Jahr 2001 gab Chomsky der für ihr politisches Engagement bekannten Band Rage Against the Machine ein Interview zum Thema Politik in Mexiko, welches auf deren DVD und VHS zum Konzert "The Battle of Mexico City" veröffentlicht wurde. 2008 unterstützte Chomsky den unabhängigen Präsidentschaftskandidaten Ralph Nader, rief jedoch die wahlberechtigte Bevölkerung in den "Swing States" auf, für Barack Obama und gegen John McCain zu stimmen. Dies brachte ihm Kritik von Anarchisten ein. Seit 2008 unterstützte Chomsky das Free Gaza Movement, welche er als „mutiges und notwendiges Unterfangen“ bezeichnet. Im Mai 2010 wollte er zu einem Vortrag an der Universität Bir Zait über die Allenby-Brücke in das israelisch besetzte Westjordanland einreisen. Nach einem vierstündigen Verhör wurde ihm die Einreise von den israelischen Grenzbehörden verweigert. Später erklärte ein Regierungssprecher, dass das Einreiseverbot ein Missverständnis gewesen sei. Chomsky hatte zuvor schon zahlreiche Vorträge an israelischen Universitäten gehalten. Im August 2013 wurde Chomsky mit dem Werk "10 Strategien der Manipulation", einer Auflistung von Möglichkeiten zur Steuerung von Gesellschaften, in Verbindung gebracht. Als alternativer Autor wird der Franzose Sylvain Timsit genannt. Faurisson-Kontroverse. Chomsky veröffentlichte dieses in einem Essay über die Redefreiheit und erlaubte jedem dessen freie Verwendung, woraufhin Faurisson diesen als Vorwort für sein Buch benutzte. Dies erregte erneutes Aufsehen und den Vorwurf, die Verwendung seines Essays durch Faurisson zugelassen zu haben. Der Historiker Pierre Vidal-Naquet warf allerdings Chomsky zusätzlich vor, auch mit Faurisson entgegen seiner (Chomskys) eigenen Beteuerungen „freundschaftlich korrespondiert“ ("correspondance amicale") zu haben; und auch sich nicht der Abfassung eines Vorworts zu seinem eigenen Text durch den einschlägig bekannten Holocaustleugner Pierre Guillaume widersetzt zu haben. Im September 2010 trat Chomsky in Paris vor einem 1800 Personen starken Auditorium auf, um weiterhin für die Pressefreiheit und die Meinungsfreiheit von Robert Faurisson einzutreten. Zu diesem Zeitpunkt unterzeichnete er auch eine Solidaritätserklärung mit einem weiteren, damals inhaftierten, Holocaustleugner, Vincent Reynouard, wobei er bekannte, dessen Schriften nicht zu kennen, grundsätzlich aber gegen das Prinzip der Loi Gayssot zu sein. Überwachung durch Nachrichtendienste. Obwohl der Investigativreporter John Hudson im Februar 2013 am Ende seiner zweijährigen Nachforschung zu dem Ergebnis kam, der Auslandsgeheimdienst CIA habe keinerlei Akte zu Chomsky, enthüllte das Magazin Foreign Policy im August durch eine Anfrage über den Freedom of Information Act, dass die CIA in Bezug auf Chomsky auch im US-amerikanischen Inland aktiv wurde. Eine Aktennotiz an das zu dem Zeitpunkt noch von Hoover geführte FBI belegt die Nachforschungen, die 1970 auf Grund einer Reise nach Nordkorea betrieben wurden. Rezeption in Deutschland. Chomskys politische Schriften erschienen in Deutschland zunächst prominent im Suhrkamp-Verlag; im Berliner Oberbaum Verlag erschien 1975 ein kritischer Sammelband von Chomsky und Edward S. Herman über den Imperialismus, 1981 bei Ullstein die Übersetzung eines französischen Buches mit Interviews von Mitsou Ronat unter dem Titel "Sprache und Verantwortung". Suhrkamp beschränkte sich nun auf die anthropologischen und sprachwissenschaftlichen Arbeiten. Der politische Chomsky wurde, durchaus vergleichbar mit seiner Rezeption in den USA, von kleineren linken Verlagshäusern wie dem Argument Verlag, Berlin, zu Klampen in Lüneburg, Pendo (Zürich), Mink (Berlin) und vor allem dem Trotzdem-Verlag und dessen Zeitschriften (Schwarzer Faden, Dinge Der Zeit) vertreten, bis die globalisierungskritische Bewegung ihn gegen Ende der 1990er Jahre wieder breiteren Medien zuführte (z.B. Europa Verlag). Chomskys linguistische Arbeiten hatten große Konjunktur in der Pädagogik der 1970er Jahre, an ihnen polarisierte sich die Schulgrammatik und die aufklärerische bzw. wissenschaftliche Linguistik. Andererseits lag er mit seinen affirmativen Positionen zu Descartes einerseits und mit seiner Berufung auf Wilhelm von Humboldt andererseits mannigfach in weltanschaulich und fachgebietsspezifisch umkämpften Traditionen. Ähnlich zwischen den Lagern wurden seine Positionen zur Künstlichen Intelligenz empfunden, wo er sowohl als Vater der Computerlinguistik eingeschätzt wurde, als eben auch als quasi-idealistischer Gegner der Informatisierung. Seine herausragende Rolle für die Linguistik des 20. Jahrhunderts ist auch im deutschen Sprachraum unbestritten. Linguistik. Eine vollständige Liste der wissenschaftlichen Publikationen findet sich auf Chomskys am MIT. Politische Werke. Auszüge aus einigen seiner Bücher stehen auf Chomskys unten verlinkter Website. Norwegische Sprache. "Bokmål" wird von circa 85 bis 90 Prozent der norwegischen Bevölkerung geschrieben. Es handelte sich dabei ursprünglich um eine Varietät des Dänischen, das jahrhundertelang auch in Norwegen Schriftsprache war, die aber – besonders in der ersten Hälfte des 20. Jahrhunderts – schrittweise auf der Basis der bürgerlich-städtischen Umgangssprache norwegisiert wurde. Das "Riksmål" ist eine ältere, heute amtlich missbilligte Varietät, die einem moderaten "Bokmål" ähnlich ist. Es ist der dänisch-norwegischen literarischen Tradition verpflichtet und in der Rechtschreibung weniger norwegisiert. "Nynorsk" hingegen ist eine Synthese aus den autochthonen norwegischen Dialekten. Es wird von etwa 10 bis 15 Prozent der norwegischen Bevölkerung geschrieben. Trotz der Vorsilbe "Ny-" („Neu-“) ist "Nynorsk" („Neunorwegisch“) nicht die jüngere, sondern die ältere der amtlich anerkannten norwegischen Sprachvarietäten. "Høgnorsk" schließlich wird nur in sehr kleinen Kreisen gepflegt. Verhältnis der skandinavischen Sprachen untereinander. Die drei festlandskandinavischen Sprachen sind eng miteinander verwandt. Daher verstehen Norweger, Dänen und Schweden die Sprache der Nachbarn recht gut. Dadurch stellt sich etwa für die dortigen Verlage die Frage, ob sie beispielsweise ein in Dänisch geschriebenes Buch in andere skandinavische Sprachen übersetzen lassen oder ob die Menschen der Nachbarländer das Buch in dessen Originalsprache verstehen. Dank einer gewissen „Mittelposition“ können die Norweger dem Dänischen und dem Schwedischen besser folgen als Dänen und Schweden untereinander. So ist die gegenseitige Verständlichkeit zwischen dem Dänischen und Schwedischen etwas schwieriger als mit dem Norwegischen. Norweger – vor allem die Sprecher des Nynorsk – haben auch etwas bessere Voraussetzungen, Färöisch und Isländisch zu erlernen, da diese Sprachen ihren Ursprung in den Dialekten Westnorwegens haben. Geschichte. Der Ursprung der norwegischen Sprache liegt im Altnordischen, das von Norwegern und Isländern als "Norrønt mál" (nordische Sprache) bezeichnet wurde. Anders als in den meisten anderen mittleren und größeren Sprachen Europas konnten sich die altnorwegischen Schriftvarietäten jedoch nicht über die Jahrhunderte hinweg zu einem einheitlich normierten Standard entwickeln. Gründe sind erstens die besondere Unwegsamkeit Norwegens und die folglich schlechten Verkehrswege, die eine vergleichsweise unbeeinflusst und unabhängig voneinander erfolgte Entwicklung der Dialekte förderte, zweitens das lange Fehlen eines unbestrittenen politischen und wirtschaftlichen Zentrums und drittens die ab dem Spätmittelalter bis ins frühe 19. Jahrhundert andauernde dänische Vorherrschaft, die das Dänische als Amtssprache in Norwegen verankerte. Im Spätmittelalter und in der älteren Neuzeit wurde Norwegisch stark vom Niederdeutschen und vom Dänischen beeinflusst. In der Hansezeit war Mittelniederdeutsch die Verkehrssprache des Nordens. Viele niederdeutsche Wörter wurden als Lehnwörter integriert. Von 1380 bis 1814 war Norwegen mit Dänemark vereinigt, anfangs noch als dänisch-norwegische Personalunion, später als Realunion. Während dieser Zeit geriet die alte norwegische Schriftsprache zunehmend außer Benutzung und verschwand im Zuge der Reformation gänzlich. Die ursprünglichen Dialekte wurden auf dem Lande aber weiterhin gesprochen. Nach der Trennung Norwegens von Dänemark im Jahre 1814 entstand im Laufe des 19. Jahrhunderts, wie auch in anderen jungen Staaten Europas, eine nationalromantische Welle, die hauptsächlich an die norwegische Vergangenheit des Mittelalters (also an die Zeit vor der Vereinigung mit Dänemark) anzuknüpfen suchte. Dies betraf ebenfalls die Sprache: Die Anhänger dieser Bewegung forderten, dass die ursprüngliche norwegische Sprache des Mittelalters erneut zum Leben erweckt werden solle, um der Emanzipation Norwegens ein Zeichen zu setzen. So entzündete sich eine Sprachdebatte um die Frage, ob man die dänischen Einflüsse im Norwegischen weiterhin billigen solle (Welhaven, Anton Martin Schweigaard), oder ob man auf Basis herkömmlicher norwegischer Dialekte eine eigenständige Sprache schaffen solle (Wergeland, P. A. Munch, Rudolf Keyser). Während Wergeland und dessen Anhänger die vergangenen 400 Jahre dänischen Einflusses unbeachtet lassen und dem mittelalterlichen Norwegischen Vorschub gewähren wollten, wies Schweigaard 1832 in der Zeitung "Vidar" jedoch darauf hin, dass man über mehrere Jahrhunderte des Kulturaustausches nicht einfach hinwegsehen könne; es sei unmöglich, das einmal Assimilierte wieder auszugliedern. Schließlich wurde in den 1850er Jahren von dem Dichter und Sprachwissenschaftler Ivar Aasen das "Landsmål" entwickelt, das seit 1929 offiziell "Nynorsk" heißt. Das Ziel war ausdrücklich, dem – Dialekt sprechenden – Volk seine eigene Schriftsprache zu geben, die neben die dänische Schriftsprache der bürgerlich-städtischen Oberschicht treten sollte; "Nynorsk" wurde damit zu einem zentralen Element der Demokratiebewegung. Seit 1885 ist "Landsmål/Nynorsk" eine amtlicherseits anerkannte Schriftsprache. Die Grundlage für diese neue Sprache bildete nicht eine einzige Mundart, sondern ein gemeinsames System, das Aasen durch die wissenschaftliche Erforschung einer Vielzahl von Mundarten aller Landesteile gefunden hatte. Im Laufe des 20. Jahrhunderts wurde das zuvor eher west- und zentralnorwegisch dominierte "Nynorsk" im Rahmen mehrerer Reformen unter Zurückdrängung der zentralnorwegischen Elemente verstärkt den ostnorwegischen Dialekten einerseits und dem südostnorwegisch geprägten "Bokmål" angenähert. Von einer Plansprache unterscheidet sich "Nynorsk" durch seine Verankerung in engverwandten, lebendigen Dialekten. Der Gymnasiallehrer Knud Knudsen trat zur gleichen Zeit für eine durchgreifende Sprachreform auf der Grundlage einer von ihm angenommenen „Umgangssprache der Gebildeten“ ein. Seine Reformvorschläge wurden in der Rechtschreibreform von 1862 weitestgehend vom Parlament übernommen und bildeten die Grundlage des "Riksmål", das 1929 vom Parlament in "Bokmål" umbenannt wurde und sich später aufgrund von Kontroversen über die Normierung in "Bokmål" und "Riksmål" mit je eigenen Normen und Traditionen aufteilte. Seit 1929 heißt "Riksmål" offiziell Bokmål, und "Landsmål" wird als Nynorsk bezeichnet. Die sogenannte Samnorsk-Bewegung beansprucht weiterhin den Namen "Samnorsk" für eine inoffizielle, gemein-norwegische Sprachform. Aufgrund des erstarkten Nationalbewusstseins konnte "Nynorsk" bis 1944 immer mehr Anhänger gewinnen und hatte seinerzeit knapp ein Drittel der Norweger auf seiner Seite. Inzwischen ist deren Anteil bevölkerungsmäßig auf etwa 10–15 Prozent zurückgegangen. Dies hat mehrere Gründe: In den urbanen Gebieten, also vor allem in der Region Oslo, wird "Nynorsk" als befremdlich empfunden. Das städtische Bürgertum hat das auf ländlichen Mundarten basierende "Nynorsk" ohnehin stets abgelehnt. Folglich fehlt dem "Nynorsk" bis heute eine wirkliche Verankerung in den wirtschaftlichen und politischen Zentren. Zum anderen wird von manchen Landbewohnern, besonders in Ostnorwegen, "Nynorsk" als artifiziell empfunden, da es wie dialektales Flickwerk scheint; und schließlich ist die Grammatik des "Nynorsk" schwieriger als die des "Bokmål," obgleich einzuräumen ist, dass die meisten norwegischen Dialekte dennoch dem "Nynorsk" näher als dem "Bokmål" stehen, das wiederum einige dem autochthonen Norwegisch ziemlich fremde phonologische, morphologische und sonstige grammatische Züge aufweist. Im Laufe des 20. Jahrhunderts wurden mehrere Rechtschreibreformen durchgeführt, mit dem Versuch, beide Schriftsprachen einander anzunähern. So wurde in der Reform von 1917 auf Druck der "Nynorsk"-Bewegung eine Reihe spezifisch „norwegischer“ Ausdrücke propagiert, die traditionelle dänische Begriffe ersetzen sollten. Da dies nicht in dem Maße geschah, wie man es sich vorgestellt hatte, wurde 1938 eine weitere Reform verabschiedet: Zahlreiche traditionelle dänische Elemente durften nicht mehr gebraucht werden. Diese Sprache wurde aber kaum angenommen. Es kam zu großen Streitigkeiten, Eltern korrigierten beispielsweise die Schulbücher ihrer Kinder, weil der Konflikt sehr stark von Gefühlen geprägt war und auch nach wie vor ist. Gleichzeitig wurde auch "Nynorsk" verstärkt sprachgeschichtlich jüngeren Formen geöffnet. 1959, 1981 (Bokmål), 2005 (Bokmål) und 2012 (Nynorsk) fanden weitere Reformen statt, wobei diejenigen von 2005 im Bokmål wieder eine Reihe traditionell dänischer Formen zuließ. Ergebnis all dieser Reformen ist die Existenz von „moderaten“ und „radikalen“ Formen in der Rechtschreibnorm, zwischen denen man wählen kann. Das komplizierte System von offiziellen Haupt- und Nebenformen wurde im Bokmål 2005 aufgegeben, im Nynorsk 2012. Rechtliche Verhältnisse und Verbreitung der Sprachformen. Seitens des Staates sind die beiden Sprachformen "Bokmål" und "Nynorsk" offiziell anerkannt. Gemäß Sprachengesetz darf keine staatliche Behörde eine der beiden zu mehr als 75 % gebrauchen, was in der Praxis allerdings – zu Ungunsten von "Nynorsk" – oft nicht befolgt wird. Die Behörden des Staates und der "Fylker" (Regierungsbezirke) müssen Anfragen in der gleichen Sprachform beantworten, in der sie gestellt werden. Auf der Ebene der Gemeinden (Kommunen) darf die Behörde in derjenigen Sprachform antworten, die sie für ihr Territorium als amtlich erklärt hat. In der Schule werden beide Varianten unterrichtet, wobei diejenige, die nicht die Hauptvariante ist, als "sidemål" (Nebensprache) bezeichnet wird. "Nynorsk" ist Amtssprache von 27 % der Gemeinden, in denen insgesamt 12 % der Gesamtbevölkerung leben; die übrigen Gemeinden haben rund je zur Hälfte "Bokmål" als Amtssprache oder aber sind „sprachneutral“ (was faktisch meist mit "Bokmål"-Gebrauch gleichzusetzen ist). Auf der Ebene der Schulkreise und Kirchengemeinden geht der amtliche Gebrauch des "Nynorsk" über dieses Gebiet hinaus; so haben auf Grundschulstufe 15 % aller Schüler "Nynorsk" als Schulsprache, und in 31 % der Kirchengemeinden sind Liturgie und Predigt auf "Nynorsk". Geographisch gesehen ist "Nynorsk" offizielle Sprachform in den meisten Gemeinden des fjordreichen Westnorwegens (ohne die Städte und stadtnahen Gemeinden) sowie in den geographisch anschließenden zentralen Gebirgstälern Ostnorwegens (Hallingdal, Valdres, Gudbrandsdal) und Südnorwegens (Setesdal, Vest-Telemark). "Bokmål" dagegen ist offizielle Sprachform in den meisten Gemeinden Südostnorwegens und an der Südküste einerseits sowie in manchen Gemeinden Nordnorwegens andererseits. Auf regionaler Ebene ist "Nynorsk" Amtssprache von drei Fylker, nämlich Hordaland, Sogn og Fjordane und Møre og Romsdal; "Bokmål" ist Amtssprache von zwei Fylker, nämlich Vestfold und Østfold; die andern vierzehn Fylke sind „sprachneutral“. Von diesen sprachneutralen Fylker weisen Oppland, Telemark und Rogaland allerdings einen relativ großen Anteil an "Nynorsk"-Gemeinden auf. Das Sprachabkommen im Nordischen Rat garantiert im Übrigen, dass Dänisch und Schwedisch im offiziellen Schriftverkehr erlaubt sind. Das gilt gegenseitig. Riksmål. Gegner der Sprachreformen, die "Bokmål" näher an "Nynorsk" bringen sollte, benutzen für die von ihnen gepflegte Sprachform den Namen "Riksmål" weiter. Typisch ist hierfür etwa die Verwendung einiger dänischer Zahlwörter, von Wortformen wie "efter" statt "etter" oder "sne" statt "snø", die Vermeidung des femininen Genus (z. B. "boken" statt "boka", „das Buch“) und die Vermeidung von Diphthongen (z. B. "sten" statt "stein", „Stein“). Tatsächlich haben sich einerseits durch die Wiederzulassung vieler danonorwegischer Formen im "Bokmål", andererseits durch die Aufnahme zahlreicher Elemente aus dem "Bokmål" ins "Riksmål" diese beiden Varianten in den letzten dreißig Jahren einander stark angenähert. Høgnorsk. Das sog. Høgnorsk (etwa „Hochnorwegisch“) ist eine inoffizielle Variante des "Nynorsk," eine Sprachform, die dem originalen Landsmål von Ivar Aasen sehr ähnlich ist. Die Høgnorsk-Bewegung missachtet die Reformen des "Nynorsk" nach 1917. Diese Sprachform wird schriftlich nur von einer sehr kleinen Gruppe Norweger verwendet, doch Elemente des Hochnorwegischen finden immer noch bei vielen Raum. Die Schreibweise wirkt oft archaisch auf die Mehrheit der Norweger, im Mündlichen aber lässt sich die Sprache kaum von den traditionellen Mundarten und der darauf gebauten Normalsprache unterscheiden. Nur werden im Hochnorwegischen eher einheimische Wörter als niederdeutsche Lehnwörter verwendet. Ein großer Teil des norwegischen Gesangsschatzes sowie anderer Literatur ist hochnorwegisch verfasst. Allgemeine Ausspracheregeln. "Bokmål" und "Nynorsk" sind Schriftsprachen, die Aussprache ist eigentlich nicht festgelegt, denn gesprochen werden vor allem die Dialekte. Die Ausspracheangaben variieren je nach Grammatik, und was man letztendlich zu hören bekommt, klingt wieder ganz anders. Am besten bleibt man mit der eigenen Aussprache so nah wie möglich am Schriftbild. Oft ist zu lesen, welche Konsonanten nicht ausgesprochen werden sollen – im Prinzip genügt es aber, wenn man lediglich das auslautende "t" beim bestimmten Artikel ("det / -et") und das „g“ der Endsilbe "-ig" nicht mitspricht. Aussprache der Vokale. Der ö-Laut hat im Norwegischen den Buchstaben "Ø ø", der ä-Laut hat "Æ æ", der o-Laut hat häufig "Å å", während der Buchstabe "o" oft den u-Laut repräsentiert: "bo" „wohnen“, "dør" „Tür“, "ærlig" „ehrlich“. Norwegisches "u" wird meist, vor einer Nasalverbindung aber gesprochen. Unbetontes "e" ist kurz wie in "Sprache" (). "y" ist ein "ü"-Laut. Aussprache der Konsonanten. Die meisten norwegischen Dialekte besitzen ein gerolltes „r“ ähnlich wie im Italienischen oder im Südostdeutschen (Vorderzungen-R), einige westliche haben aber auch deutsches bzw. dänisches „r“ (Zäpfchen-R). Der r-Laut darf nicht verschluckt werden (also "dager", und nicht). Das norwegische "s" ist immer stimmlos (wie scharfes S in "außen"), das norwegische "v" (und ebenso die Buchstabenverbindung "hv") wird wie in „Vase“ gesprochen (nicht wie in "Vogel"!). Folgende Lautverbindungen sind zu berücksichtigen: "sj, skj" werden „sch“ gesprochen: "nasjon" „Nation“, "gj, hj, lj" werden „j“ gesprochen, "tj" wird wie in „tja“ gesprochen, "kj" ist der "ich"-Laut: "kjøre" „fahren“, "rs" wird in manchen Dialekten „sch“ gesprochen: "vær så god!" „bitte schön!“ ist also oder. Vor hellen Vokalen "(i, y, ei, øy)" gelten besondere Regeln: "sk" wird hier „sch“, "g" wird hier „j“ und "k" wird hier „ch“ gesprochen: "ski", "gi" „geben“, "kirke" „Kirche“. Die Buchstaben "c, q, w, x, z" kommen nur in wenigen Fremdwörtern vor. Statt "ck" schreibt man "kk", für "qu" tritt "kv" ein, für "ph/th/kh" treten "f/t/k" ein, "z" (im Deutschen) wird meist durch "s" ersetzt: "sentrum / senter" entspricht „Zentrum“, "sukker" entspricht „Zucker“. Ausnahmen und Varianten. Zu beachten sind vor allem folgende Ausnahmen (Bokmål): "det" „das, es, jenes“, "-et" „das“, "de" „sie, die (Mehrzahl)“, "og" „und“, "jeg/meg/deg/seg" „ich/mich/dich/sich“. Je nach Sprecher tendiert langes "a" zu einem o-ähnlichen Laut wie in englisch "call", während "æ" Richtung „a“ wie in „Vater“ geht und "y" kaum von unserem „i“ zu unterscheiden ist. Je nach Dialekt wird der Diphthong "ei" wie oder gesprochen. Vokale. Das Norwegische besitzt 18 Monophthonge und sieben Diphthonge. Die Diphthonge des Norwegischen sind, die es je in einer langen und einer kurzen Variante gibt. Konsonanten. Das Norwegische besitzt 23 Konsonanten, darunter fünf retroflexe Laute, die als Allophone anzusehen sind. Letztere kommen nicht in den Dialekten mit Zäpfchen-R vor. Akzent 1 und Akzent 2. Das Norwegische hat (wie das Schwedische) zwei bedeutungsunterscheidende Akzente, die oft "Akzent 1" und "Akzent 2" genannt werden. Siehe dazu: "Akzente in den skandinavischen Sprachen". Grammatik. Allgemeine Vorbemerkung: Im Folgenden werden von den Nynorsk-Varianten nur diejenigen vermerkt, die gemäß der Rechtschreibreform von 2012 gültig sind. Seltene, fast nur in älteren Texten vorkommende oder im Kreise der Høgnorsk-Anhänger benutzte Lautungen und Formen bleiben ausgespart. Genera (Geschlechter). Die norwegische Sprache kennt offiziell die drei Genera: maskulin, feminin und neutrum. Riksmål und konservatives Bokmål kennen aber wie die dänische Sprache nur das männlich-weibliche "(Utrum)" und das sächliche Geschlecht "(Neutrum)". Die Substantive geben in der Regel aber keinen Hinweis darauf, welches Geschlecht sie haben. Häufig stimmt das Geschlecht mit dem des deutschen Substantivs überein (z. B. "sola" „die Sonne“, "månen" „der Mond“, "barnet" „das Kind“). Beim bestimmten Artikel Neutrum "(-et)" wird das "t" nicht gesprochen! "eple" („Apfel“) und "eplet" („der Apfel“) werden also gleich ausgesprochen. Plural (Mehrzahl). Gar keine Mehrzahlendung haben alle einsilbigen Neutra, z. B. "hus" „Haus/Häuser“, "barn" „Kind/Kinder“, aber ausnahmsweise auch männliche einsilbige Wörter, z. B. "sko" „Schuh(e)“ oder neutrale mehrsilbige Wörter, z. B. "våpen" „Waffen“. Um die Mehrzahl der bestimmten Formen zu bilden, wird im "Bokmål" geschlechtsübergreifend "-ene" bzw. "-a" (optional bei einsilbigen Neutra) angefügt. Die unregelmäßigen Substantive haben hier: "fedrene" „die Väter“, "endene" „die Enten“, "bøkene" „die Bücher“ und – mit Erhalt des „r“ vor "æ" – "klærne" „die Kleider“ usw. Genitiv (Wesfall). Weitere Beispiele (Bokmål): "Guds ord" „Gottes Wort“, "de gamle mennenes fortellinger" „Die Erzählungen der alten Männer“ Der Genitiv wird, außer bei Namen und Personen, vorwiegend im geschriebenen "Bokmål" verwendet. Im geschriebenen "Nynorsk" und in der gesprochenen Sprache überhaupt wird er gewöhnlich mit den Präpositionen "av, til, på" usw. oder aber mit einer Dativkonstruktion („garpegenetiv“, einer dem Niederdeutschen entlehnten Konstruktion) umschrieben, etwa "prisen på boka" statt "bokas pris" (der Preis des Buches), "boka til Olav" statt "Olavs bok" (Olavs Buch), "taket på huset" statt "husets tak" (das Dach des Hauses), "Stortinget si sak" statt "Stortingets sak" (die Angelegenheit des Parlaments, wörtlich: „dem Parlament seine Angelegenheit“). Nach absteigender Priorität verwendet man für ‚die Haustür‘: "husdøra, husets dør, døra på huset". Die Präposition "på" „auf“ steht in diesem Fall, da die Türe nicht mehr als zum Hause selbst gehörig empfunden wird. Deklination von Adjektiven (Beugung von Eigenschaftswörtern). Wie in allen germanischen Sprachen (mit Ausnahme des Englischen) wird im Norwegischen zwischen starken und schwachen Endungen unterschieden. Sowohl im "Bokmål" als auch im "Nynorsk" hat der Plural aller regelmäßigen Adjektive immer die Endung "-e"; diese Endung haben auch alle veränderlichen schwachen Adjektive für alle Geschlechter. Starke Adjektive. Maskuline und feminine Formen sind im Singular endungslos: "en gammel" (BM) bzw. " ein gammal" (NN) „ein alter“, "ei gammel" (BM) bzw. " ei gammal" (NN) „eine alte“; das Neutrum hat im Singular die Endung "-t" (oder "-tt"): "et gammelt" (BM) bzw. "eit gammalt" (NN) „ein altes“, "blått lys" „blaues Licht“. Im Plural gilt fast immer die Endung "-e". Schwache Adjektive. Adjektive werden schwach dekliniert, wenn das Substantiv durch den bestimmten Artikel, das Demonstrativpronomen "denne/dette/disse" (dies), ein Possessivpronomen (mein, dein, sein...) oder ein Genitivattribut näher bestimmt ist: "fars store hus" verlangt ein schwach dekliniertes Adjektiv, während es im Deutschen stark dekliniert wird: „Vaters großes Haus“. Personalpronomina. Nur bei einigen Personalpronomina gibt es im Norwegischen einen Unterschied zwischen Nominativ und Akkusativ. Nur im Singular der 3. Personen gibt es geschlechtige Formen. "han – ham/han" und "hun – henne" werden nur für Personen verwendet, wenn das grammatische Geschlecht des betreffenden Wortes männlich oder weiblich ist. Mit "den" dagegen bezeichnet man Dinge männlichen oder weiblichen Geschlechts. "det" wird bei Personen und Dingen verwendet, wenn das grammatische Geschlecht sächlich ist. Beispiele: "mannen – han er her" „der Mann – er ist hier“, "kvinna – hun er her" „die Frau – sie ist hier“, "døra – den er her" „die Tür – "sie" ist hier“, "barnet – det er her" „das Kind – es ist hier“. Die Objektivformen "ham" und "han" sind gleichbedeutend und gleichberechtigt; in der gesprochenen Sprache überwiegt "han". "den, det" und "de" haben auch die Bedeutung „jener/jene, jenes“ und „jene“. Außerdem werden sie als bestimmter Artikel vor Adjektiven verwendet. "han" und "ho" werden (wie im Deutschen, aber anders als im "Bokmål") nicht nur für Personen, sondern auch für männliche bzw. weibliche Dinge verwendet. Die Objektformen "henne" und "ho" in der 3. Person Singular feminin sowie die Formen "de" und "dokker" in der 2. Person Plural sind gleichbedeutend und gleichberechtigt. "Dokker" wurde anlässlich der Rechtschreibreform von 2012 eingeführt, während gleichzeitig die bis dahin neben "han" gültige Objektsform "honom" (3. Person Singular maskulin) wegfiel. "den, det" und "dei" haben auch die Bedeutung „jener/jene, jenes“ und „jene“. Außerdem werden sie als bestimmter Artikel vor Adjektiven verwendet. Possessivpronomina. Possessivpronomina werden ähnlich wie Adjektive gebeugt, jedoch gibt es keine schwachen Formen. Im Norwegischen werden die Personalpronomen oft nachgestellt; das zugehörige Substantiv erhält in diesem Fall den bestimmten Artikel angehängt: "mitt hus" = "huset mitt" „mein Haus“. Konjugation (Beugung von Tätigkeitswörtern). starkes Verb Einzahl: "å ganga" (heute "å gå") "– eg gjeng – eg gjekk – eg hev gjenge" ([zu] gehen – ich gehe – ich ging – ich bin gegangen) starkes Verb Mehrzahl: "å ganga – dei ganga – dei gingo – dei hava gjenge" ([zu] gehen – sie gehen – sie gingen – sie sind gegangen) Der Infinitiv (die Grundform). Verben, deren Wortstamm auf einen Konsonanten endet und die damit mehrsilbig sind, haben als Infinitivendung im "Bokmål" die Endung "-e," im "Nynorsk" wahlweise die Endung "-e" oder "-a:" Einige im Infinitiv normalerweise einsilbige Verben kennen auch eine (freilich nur sehr selten benutzte) Langform, wozu detaillierter weiter unten mehr. Der Imperativ (die Befehlsform). "drikk ikke så mye!" (BM) / "drikk ikkje so mykje!" (NN) „trink nicht so viel!“ Das einfache Präsens (die einfache Gegenwart). Im "Nynorsk" korrespondieren diese Präsensendungen mit den verschiedenen Endungen des Präteritums (siehe unten). Das Passiv. Im "Nynorsk" ist die Verwendung des s-Passivs viel eingeschränkter; sie findet sich fast nur nach Modalverben (siehe unten) und bei Deponentien (das sind Verben, die nur in der Passiv- bzw. Mediumform vorkommen). Die Passiv- bzw. Mediumendung im "Nynorsk" lautet "-st:" Die übrigen Zeiten. Im Norwegischen kann man ebenso viele Zeiten wie im Deutschen bilden ("kom" „kam“ [Präteritum // Imperfekt], "har kommet" „bin gekommen“ [Perfekt], "hadde kommet" „war gekommen“ [Plusquamperfekt], "skal/vil komme" „werde kommen“ [Futur I], "skal/vil ha kommet" „werde gekommen sein“ [Futur II // Perfekt-Futur]). Für die Perfekt-Zeiten verwendet man in der Regel das Hilfsverb "ha" „haben“. "være" (BM) bzw. "vere" (NN) „sein“ kann man verwenden, um einen Zustand oder ein Ergebnis auszudrücken: "hun er gått" = „sie ist gegangen“ → „sie ist weg“. Im "Bokmål" ändert der Gebrauch von "ha" oder "være" an der Verbform nichts, im "Nynorsk" dagegen bleibt das Verb nach "ha" unflektiert, wogegen es nach "vere" in der Regel flektiert wird; vgl. Bokmål "han/hun/det/de har kommet, han/hun/det/de er kommet" versus Nynorsk "han/ho/det/dei har kom(m)e", aber "han/ho er kom(m)en, det er kom(m)e, dei er komne". Das Futur wird mit den Hilfsverben "skulle" oder "ville" gebildet oder auch mit der Konstruktion "komme til å". "vil" und "skal" können auch modale Bedeutung haben („will“ und „soll“). Aus dem Kontext muss man erschließen, ob sie lediglich als Zukunfts-Marker verwendet werden. Das Norwegische kennt für das Präteritum drei schwache Konjugationen. Am häufigsten verwendet das Norwegische (wie auch das Englische) das Präteritum. Das Perfekt wird u.a. verwendet, wenn es keine Zeitangabe gibt oder es um andauernde Zustände geht. Das Norwegische kennt zwischen hundertfünfzig und zweihundert starke und unregelmäßige Verben. Zum Beispiel: "dra, dro, dratt" (Bokmål) = "dra, drog, drege" (Nynorsk) „ziehen, zog, gezogen“ = englisch "draw, drew, drawn" = „ziehen, zog, gezogen“ ("dra" ist etymologisch verwandt mit „tragen“, vgl. also „tragen, trug, getragen“). Das Partizip (Perfekt) der Vergangenheit endet im "Bokmål" immer auf "-t", nie auf "-en": "drikke, drakk, drukket", im Deutschen aber: „trinken, trank, getrunk"en"“. Im "Nynorsk" hingegen wird das Partizip Perfekt hinter dem Hilfsverb "vere" flektiert: "han/ho er kommen, det er komme, dei er komne" „er ist, es ist, sie sind gekommen“, nach "ha" jedoch nicht: "han/ho/det/dei har lese" „er hat, es hat, sie haben gelesen“. Während die Gesamtheit der Beugungsformen des "Nynorsk" im Allgemeinen komplexer ist als diejenige des "Bokmål", gilt bei den starken Verben der umgekehrte Fall: So gibt es in der I. starken Klasse des "Bokmål" unter anderem folgende Verbtypen: "gripe – gre(i)p – grepet, skri(de) – skred/skrei – skredet, bite – be(i)t – bitt, drite – dre(i)t – dritet, klive – kleiv – klevet/klivd, ri(de) – red/rei(d) – ridd, li(de) – led/lei(d) – lidt"... Im "Nynorsk" hingegen werden in dieser Klasse alle Verben nach lediglich zwei Typen flektiert: 1) "gripe – greip – gripe, bite – beit – bite, drite – dreit – drite, klive – kleiv – klive" und 2) "ri(de) – reid – ride/ridd/ridt, li(de) – leid – lide/lidd/lidt, skri(de) – skreid – skride/skridd/skridt". Eine ähnliche Zusammenfassung für "Bokmål" zu machen, ist fast ausweglos, da in dieser Varietät die den obigen Reihen 1–4 entsprechenden Gruppen sehr stark zersplittert sind. Der Hauptgrund hierzu liegt in einer inkonsequent vorgenommenen Standardisierung, in der dänische Tradition, südostnorwegische Dialekte und weitere Kriterien bunt gemischt sind. Eine Liste der wichtigeren unregelmäßigen Verben des "Bokmål" findet sich bei den externen Links. Präpositionen (Verhältniswörter). Häufig sind Kombinationen "ved siden/sida av" „an der Seite von = neben“, "frem til" „bis“. Konjunktionen (Bindewörter). Kombinationen: "selv om" „selbst wenn / obwohl“, "så at" „sodass“. Das Relativpronomen im Nominativ und Akkusativ ist "som" – im Akkusativ kann es entfallen. Präpositionen werden ans Satzende gestellt, das Relativpronomen entfällt (die Beispiele in "Bokmål"): "huset som er hvitt" „das Haus, das weiß ist“, "huset (som) jeg ser er hvitt" „das Haus, das ich sehe, ist weiß“, "huset hun bor i" „das Haus, in dem sie wohnt“. Im Norwegischen gibt es (fast) keinen Konjunktiv, bei der indirekten Rede muss die Zeit deshalb an die des einleitenden Verbs angeglichen werden. Adverbien. Steht eine unterordnende Konjunktion am Satzanfang, ändert sich die grundlegende Satzstellung nicht, wohl aber die Positionen von Adverbien wie "ikke/ikkje". Zahlwörter. Die nach schwedischem und englischem Muster gebildeten Zahlen des Typs Zehner + Einer, also etwa 51 – "femtién/femtiéin," 52 – "femtito," 53 – "femtitre," 54 – "femtifire," 55 – "femtifem," 56 – "femtiseks," 57 – "femtisju," 58 – "femtiåtte," 59 – "femtini," wurden 1951 per Parlamentsbeschluss offiziell eingeführt. Zuvor bildete man diese Zahlen offiziell wie im Dänischen und Deutschen, also Einer + "og" („und“) + Zehner: 51 – "énogfemti/éinogfemti," 52 – "toogfemti," 53 – "treogfemti," 54 – "fireogfemti," 55 – "femogfemti," 56 – "seksogfemti," 57 – "sjuogfemti," 58 – "åtteogfemti," 59 – "niogfemti". In der gesprochenen Alltagssprache ist diese letztere Zählweise allerdings auch heute noch weit verbreitet; die meisten Menschen gebrauchen wechselweise das eine oder das andere System – nur bei den Telefonnummern hat sich das neue System vollständig durchgesetzt. Ebenfalls inoffiziell und dennoch verbreitet sind die dem Riksmål angehörigen "tyve" statt "tjue" für 20 und "tredve" statt "tretti" für 30. Satzstellung. Der norwegische Satz hat im Allgemeinen die Satzstellung Subjekt – Prädikat (Verb) – Objekt. Das Prädikat wird nicht wie im Deutschen auseinandergerissen: "man ville (ikke) se problemet" „man wollte das Problem (nicht) "sehen"“. Die Satzstellung wird auch nach unterordnenden Konjunktionen weitgehend beibehalten, außer dass sich die Position der Negationspartikel vor das infinite Verb verschiebt: "fordi han ikke ville betale" „weil er nicht bezahlen wollte“. Inversion (Vertauschung des finitiven Prädikates und des Subjekt) tritt auf, wenn am Satzanfang statt des Subjektes ein Adverb, das Objekt oder ein untergeordneter Nebensatz steht: "i morgen skal jeg komme" „"morgen" werde ich kommen“, "takk skal du ha!" „"Dank" sollst du haben!“, "hvis det regner, blir jeg hjemme" = "regner det, blir jeg hjemme" „falls es regnet, bleibe ich zuhause“ = „regnet es, bleibe ich zuhause“ Im Vorfeld können außer dem gebeugten Verb prinzipiell alle Satzteile stehen, am häufigsten aber das Subjekt. Steht ein anderer Satzteil als das Subjekt im Vorfeld, so bleibt dessen eigentlicher Platz unbesetzt. Zur Struktur. Im Vergleich zum heutigen Isländischen und Färöischen fehlen dem Norwegischen folgende grammatikalische Strukturen: Kasus (mit Ausnahmen einer Art Genitiv), Substantivklassen, Personalendungen (es gilt pro Zeit je eine flektierte Einheitsform), Konjunktive (die erhaltenen Reste sind lexikalisiert), besondere Formen für den Plural der Präteritopräsentia und der starken Verben im Präteritum. Die Struktur des Norwegischen/Dänischen/Schwedischen entspricht also etwa derjenigen des Neuenglischen, während die des Isländischen/Färöischen etwa der des Althochdeutschen nahekommt. Differenzierter liegen die Verhältnisse in der Morphologie: Im Bereich der Pluralbildung der Substantive sowie der Ablautungen des starken Verbs steht "Nynorsk" dem Isländischen, Färöischen und Schwedischen näher, "Bokmål" hingegen dem Dänischen. Lautlich steht das Norwegische in gewisser Hinsicht dem Deutschen nahe: Abschwächung der Auslautvokale im "Bokmål" zu Schwa, Verlust der altnordischen th-Laute (þ, ð), Zäpfchen-R in einigen westlichen Dialekten. "Nynorsk" ähnelt dem Deutschen sodann in Bezug auf seinen Reichtum an Diphthongen. Im Gegensatz zum Deutschen haben aber alle skandinavischen Sprachen die hochdeutsche Lautverschiebung nicht mitgemacht, weshalb es viele Unterschiede bei den Konsonanten gibt ("t" = "z/ss/ß", "k" = "ch", "p" = "pf/ff/f", "d" = "t"). Ein grundlegender Unterschied zwischen Norwegisch und Deutsch besteht im Weiteren darin, dass Norwegisch (wie Schwedisch) neben dem Druckakzent auch einen musikalischen Akzent kennt; siehe Akzente in den skandinavischen Sprachen. Die festlandskandinavischen Sprachen wurden zur Zeit der Hanse sehr stark von niederdeutschen Fremdwörtern geprägt. Nahezu ganze Sätze können ohne ursprünglich im Nordgermanischen vorhandene Wörter gebildet werden. Dies stellt einen erheblichen Unterschied zu Isländisch und Färöisch dar, die erfolgreich bestrebt sind, ihre Sprachen von Fremdwörtern aller Art rein zu halten (Sprachpurismus). Zu den Kasus. Die festlandskandinavischen Sprachen (d. h. die meisten dänischen, schwedischen und norwegischen Dialekte sowie die jeweiligen Hochsprachen) haben das altnordische Kasussystem (von genetivischem "-s" sowie einem Teil der Personalpronomen abgesehen) nicht bewahrt (vgl. isländisch "hundur, hunds, hundi, hund" „ein Hund, eines Hundes, einem Hunde, einen Hund“). Im Altnordischen verlangten einige Präpositionen den Genitiv, andere den Dativ, weshalb diese Kasus in bestimmten festen Redewendungen immer noch vorkommen, etwa: "gå til bords" (Genitiv mit der Endung "-s") „zu Tische gehen“ gegenüber "gå til stasjonen" „zum Bahnhof gehen“, "være/vere på tide" (Dativ mit der Endung "-e") „an der Zeit sein“ gegenüber "være/vere på taket" „auf dem Dach sein“. Lebendige Dativformen kommen noch in den innernorwegischen Mundarten vor, etwa "båten" „das Boot“, Dativ Singular "båté, båta" „dem Boot“, Plural "båta(r)ne" „die Boote“, Dativ Plural "båtå(m)" „den Booten“. Das norwegische Suffix "-s", das an jedes Substantiv angehängt werden kann (s. o.), geht historisch auf den Genitiv der a-Deklination zurück, wurde aber im Laufe der Sprachgeschichte verallgemeinert. Im Altnordischen hatten i- und u-Stämme, schwach deklinierte Wörter sowie Feminina niemals diese Endung (vgl. neuisländisch "hunds" „eines Hundes“ – ggü. "vallar" „eines Feldes“ / "afa" „Großvaters“ / "ömmu" „Großmutters“, im Plural "valla, afa, amma"). Zum Infinitiv. Schon im Altnordischen war "-n" am Wortende weggefallen, daher endet der Infinitiv im Norwegischen auf "-e" oder "-a" (vgl. neuhochdeutsch „-en“, althochdeutsch und gotisch „-an“). Auf dialektaler Ebene hat in Südwestnorwegen der Infinitiv die Endung "-a" (z. B. "lesa" „lesen“, "finna" „finden“), in Nordwestnorwegen "-e" "(lese", "finne);" in Ostnorwegen gilt dann "-a," wenn der Wortstamm im Altnordischen leicht war, und "-e," wenn der Wortstamm im Altnordischen schwer war (z. B. "lesa" gegenüber "finne"). Im Dialekt von Trøndelag tritt Apokope auf, d. h. der Infinitiv kann ohne Endung auftreten (z. B. "les", "finn"). Das "Nynorsk" spiegelt diese Verhältnisse wider, indem der Infinitiv wahlweise sowohl auf "-e" als auch auf "-a" enden kann. Zum Präsens und Präteritum. Die Verbendungen "-ar" und "-er" der schwachen Verben entsprechen den Endungen der 2. und 3. Person Singular im Altnordischen; vgl. alt- und neuisländisch "talar, segir" „[du] sprichst, sagst, [er] spricht, sagt“. Die Nullendung der starken Verben im "Nynorsk", z. B. ohne Umlaut "han bit" „er beißt“ zu Inf. "bite", "han skyt" „er schießt“ zu Inf. "skyte", mit Umlaut "han tek" „er nimmt“ zu Inf. "ta(ke)", "han kjem" „er kommt“ zu Inf. "kom(m)e", entspricht ebenfalls der ursprünglichen 2. und 3. Person Singular, vgl. altnorwegisch/altisländisch "han bítr" „er beißt“, "han skytr" „er schießt“, "han tekr" „er nimmt“, "han kømr" „er kommt“, denn viele Dialekte stoßen hier in lautgesetzlicher Übereinstimmung etwa mit dem Vorgang altnorwegisch/altisländisch "hestr" > neunorwegisch "hest" „Pferd“ die eigentliche Flexionsendung "-r" ab, und die entsprechenden Formen wurden deshalb auch in die Standardvarietät übernommen. Daneben gibt es allerdings Dialekte, wo die altnorwegische Endung "-r" als "-er" oder aber "-e" erhalten geblieben ist; dialektal gibt es somit neben standardisiertem "han bit, han skyt, han tek, han kjem" auch "han bite(r), han skyte(r), han teke(r), han kjeme(r)". Die umlautlose "Bokmål"-Form "kommer" entspricht sowohl der dialektalen Lautung Südostnorwegens als auch der dänischen Form. Heute gelten diese standardsprachlichen Formen Bokmål "kommer" = Nynorsk "kjem" für alle Personen im Singular und Plural. In einigen innernorwegischen Mundarten gibt es jedoch immer noch eine Numerusbeugung, allerdings jeweils nur eine Form für Singular und Plural: Präsens "eg/du/han/ho drikk" "vi/de/dei drikka", Präteritum "eg/du/han/ho drakk" "vi/de/dei drukko" – gleich dem älteren Schwedisch. Ein Teil der norwegischen Mundarten kennt auch noch einen Konjunktiv im Präteritum, etwa "eg vore" oder "eg vøre", deutsch „ich wäre“. Zum Nebeneinander von Kurz- und Langform. Ursprünglich waren alle Verben im Infinitiv zwei- oder mehrsilbig; bei einigen Verben ist allerdings der stammschließende Konsonant und infolgedessen auch die Infinitivendung geschwunden: vgl. englisch "give" „geben“ gegenüber "Bokmål" "gi;" im Präteritum "gav" (Nebenform: "ga") „gab“ ist das "v" aber (wie bei englisch "gave") erhalten geblieben. "Nynorsk" kennt bei diesen Verben zumeist sowohl lange als auch kurze Formen, im genannten Fall also die Infinitivvarianten "gje" und "gjeve/gjeva" „geben“, wobei in der Praxis die kurze Variante "gje" im Infinitiv, hingegen die von der Langform abgeleitet Variante "gjev" im Präsens bevorzugt wird. Im Präteritum gilt jedoch allein von der Langform hergeleitetes "gav", im Partizip Perfekt stehen "gjeve" und "gitt" wiederum nebeneinander. Ein ähnlicher Fall ist etwa Infinitiv "ta" (selten "take/taka") „nehmen“, Präsens "tek" oder "tar", Präteritum allein "tok", Partizip Perfekt "teke" oder "tatt". Etwas abweichend, indem auch im Präteritum die von der Kurzform hergeleitete Form stehen kann, geht beispielsweise "ri" „reiten“ mit Präsens "rid" oder "rir", Präteritum "reid" oder "rei", Partizip Perfekt "ride" oder "ridd/ridt". Sonstiges. Der Sprachcode nach ISO 639 ist für "bokmål" codice_1 beziehungsweise codice_2 (früher codice_3) und für "nynorsk" codice_4 beziehungsweise codice_5. Für die norwegische Sprache insgesamt gibt es die Codes codice_3 beziehungsweise codice_7. Einzelnachweise. ! Nahrungsmittel. Nahrungsmittel bezeichnet Lebensmittel, die vorwiegend der Ernährung des Menschen dienen (siehe auch Nahrung), Makronährstoffe (Proteine, Kohlenhydrate und Lipide) enthalten und somit dem Menschen Energie zuführen. Nahrungsmittel unterscheiden sich insofern von Trinkwasser, das auch zu den Lebensmitteln gehört. Gegenstück sind die sogenannten Genussmittel. Die Grenze ist dabei unscharf. Nahrungsmittel für andere Lebewesen werden als Futtermittel bezeichnet. In der Vergangenheit wurde versucht, definitorisch anhand des stofflichen Nutzens für den Körper (Eiweiß, Kohlenhydrate, Fette, Vitamine etc.) oder auch des physiologischen Brennwertes zwischen Nahrungsmittel und Genussmittel zu unterscheiden. Mit der zunehmenden Kenntnis über Inhaltsstoffe, zum Beispiel über sekundäre Pflanzenstoffe, ist diese tradierte Trennung noch schwieriger geworden. Beispielsweise lässt sich heute bei Gewürzen unter Umständen ein konkreter stofflicher Nutzen darlegen, wo zuvor nur der Genuss als Nutzen feststellbar war. Heute wird die Unterscheidung zumeist anhand der Betrachtung als Konsumgut vorgenommen. Damit unterliegt die Grenzziehung dem gesellschaftlichen Wandel. Die regional und kulturell jeweils bedeutendsten Nahrungsmittel werden auch als Grundnahrungsmittel, die Ablehnung aus kulturellen Gründen als Nahrungstabu bezeichnet. Zur Ergänzung der Nahrung werden Produkte mit ernährungsphysiologisch relevanten Inhaltsstoffen in meist konzentrierter Form als Nahrungsergänzungsmittel angeboten. Da sowohl Nahrungsmittel pflanzlichen als auch tierischen Ursprungs toxikologisch relevante Stoffe enthalten können, beschäftigt sich ein spezieller Arbeitsbereich der Toxikologie mit der Situation bei Nahrungsmitteln – auch hinsichtlich möglicher Kontaminanten. Nationalsozialismus. Der Nationalsozialismus ist eine radikal antisemitische, rassistische, antikommunistische und antidemokratische Ideologie. Er entwickelte sich aus der Völkischen Bewegung, die sich etwa zu Beginn der 1880er Jahre im deutschen Kaiserreich und in Österreich-Ungarn entwickelt hatte. Ab 1919, nach dem Ersten Weltkrieg, wurde er zu einer eigenständigen politischen Bewegung im deutschsprachigen Raum. Diese strebte wie der 1922 in Italien zur Macht gelangte Faschismus einen autoritären Führerstaat an, unterschied sich aber von ihm durch den extremen Antisemitismus. Die 1920 gegründete Nationalsozialistische Deutsche Arbeiterpartei (NSDAP) gelangte unter Adolf Hitler am 30. Januar 1933 in Deutschland zur Macht, wandelte die Weimarer Republik durch die „Gleichschaltung“ in eine totalitäre Diktatur um und löste ab 1939 mit dem Polenfeldzug den Zweiten Weltkrieg aus. In dessen Verlauf verübten die Nationalsozialisten und ihre Helfer zahlreiche Kriegsverbrechen und Massenmorde, darunter den Holocaust an etwa sechs Millionen europäischen Juden (1941–1945). Die Zeit des Nationalsozialismus endete mit der bedingungslosen Kapitulation der Wehrmacht am 8. Mai 1945. Seitdem beeinflusst die umfassende Bewältigung der NS-Vergangenheit die Politik. NS-Propaganda, das Verwenden damaliger Symbole und politische Betätigung im nationalsozialistischen Sinn sind seit 1945 in Deutschland und Österreich verboten. In weiteren Staaten bestehen ähnliche Verbote. Im Neonazismus und Rechtsextremismus werden nationalsozialistische Ideen und Ziele weiter vertreten. Bezeichnungen. „Nationaler Sozialismus“ bezeichnete im deutschsprachigen Raum seit etwa 1860 Verbindungen von nationalistischen und sozialistischen Ideen. Vom „Nationalsozialismus“ sprach zuerst die 1903 gegründete „Deutsche Arbeiterpartei“ Österreichs, die sich 1918 in Deutsche Nationalsozialistische Arbeiterpartei (DNSAP) umbenannte. Entsprechend benannte sich die 1919 gegründete Deutsche Arbeiterpartei (DAP) 1920 in NSDAP um. Mit der Bezeichnung „Nationalsozialismus“ grenzten diese neuen Parteien ihre Ideologie gegen den Internationalismus der Sozialdemokratie und den konservativen Nationalismus älterer Parteien ab und boten sich deren Wählerschichten (Arbeitern und Mittelstand) als bessere Alternative an. Dazu stellten sie einzelne antikapitalistische Forderungen in den Rahmen eines völkisch-rassistischen Nationalismus. Zudem stellten die deutschen Nationalsozialisten sich seit 1920 als „Bewegung“, nicht als Partei dar, um so Protestwähler und Politikverdrossene zu erreichen. Heute bezeichnet der Begriff meist die besondere Ideologie Adolf Hitlers und seiner Anhänger. Als „Nationalismus“ definierte Hitler die Hingabe des Individuums an seine Volksgemeinschaft, deren Verantwortung für das Individuum nannte er „Sozialismus“. Besonders die Vergesellschaftung der Produktionsmittel, ein Hauptziel der Sozialisten, lehnte Hitler entschieden ab. Laut dem Historiker Hans-Ulrich Wehler lebte der Sozialismus in der NSDAP nur „in verballhornter Form“ als Volksgemeinschaftsideologie fort. Zudem unterschied die NSDAP ihren Nationalsozialismus vom italienischen Faschismus. „Faschismus“ dient seit 1925 (ausgehend von der Sowjetunion) jedoch vielfach als Oberbegriff für Nationalsozialismus („Hitlerfaschismus“), italienischen Faschismus und verwandte antikommunistische Ideologien, Regimes und Systeme. Vor allem in marxistischen Faschismustheorien wird der Nationalsozialismus als Form des Faschismus eingestuft. Nach 1945 wurde der Nationalsozialismus besonders in den USA und der früheren Bundesrepublik Deutschland als Totalitarismus bezeichnet und unter diesem Oberbegriff mit der Ideologie und dem Herrschaftssystem des Stalinismus parallelisiert. Faschismus- und Totalitarismustheorien werden in der Forschung kontrovers diskutiert. Oft gilt der Nationalsozialismus als eigenständiges und singuläres Phänomen. Die Ausdrücke „Nazis“ für die Nationalsozialisten und „Nazismus“ für ihre Ideologie wurden seit den 1920er Jahren bei ihren Gegnern in der Arbeiterbewegung, später auch bei den befreiten Häftlingen des KZ Buchenwald und in der DDR üblich. Heutige Anhänger des Nationalsozialismus werden oft „Neonazis“ genannt. Entstehung. Deutsche Antisemiten hatten sich seit 1879 in mehreren politischen Parteien, vielen Gruppen und Vereinen organisiert. Die Antisemitenparteien wollten die Jüdische Emanzipation beenden und revidieren, verfehlten ihre Ziele jedoch. Nach Stimmverlusten bei den Reichstagswahlen von 1912 bildeten sich neue, überparteiliche antisemitische Vereine und Verbände wie der Reichshammerbund von Theodor Fritsch, der „Verband gegen die Überhebung des Judentums“ und der geheime Germanenorden, aus dem 1918 die Münchner Thule-Gesellschaft hervorging. Aus ihrer Zeitschrift, dem "Münchener Beobachter" mit dem Hakenkreuz als Titelsymbol, wurde das Parteiorgan der NSDAP, der "Völkische Beobachter". Ein weiterer Vorläufer des Nationalsozialismus war der kleine, extrem nationalistische und imperialistische überparteiliche Alldeutsche Verband (gegründet 1891). Er strebte eine kriegerische Erweiterung des deutschen „Lebensraums“ und Unterwerfungspolitik an. Im Ersten Weltkrieg erreichte er mit seiner starken antisemitischen Propaganda die staatliche Judenzählung von 1916. Nach 1918 forderte er eine „nationale Diktatur“ gegen „Fremdvölkische“. 1914 gründete sich der Deutschnationale Handlungsgehilfenverband, und zwei ältere Antisemitenparteien vereinten sich als Deutschvölkische Partei (DVP). Diese vereinte sich im Kriegsverlauf mit dem Alldeutschen Verband. Auf dessen Initiative hin vereinten sich gegen Kriegsende aufgelöste mit neugegründeten völkischen Gruppen wie dem "Deutsch-Österreichischen Schutzverein Antisemitenbund", der "Deutschvölkischen Beamtenvereinigung" und dem "Bund völkischer Frauen" zum Deutschvölkischen Schutz- und Trutzbund. Dieser hatte 1920 rund 200.000 Mitglieder in 600 Ortsgruppen, wurde aber nach dem Hitler-Ludendorff-Putsch 1923 verboten. Nach der Wiederzulassung der NSDAP verlor er ihr gegenüber an Einfluss und wurde 1933 ganz aufgelöst. Zudem verbreiteten sich seit der Oktoberrevolution von 1917 und dem folgenden Russischen Bürgerkrieg unter anderem durch russische Flüchtlinge viele antikommunistische Gruppen. Unter dem Propagandaschlagwort „jüdischer Bolschewismus“ setzten nationalkonservative Eliten und aus Frontsoldaten gebildete Freikorps Juden und Kommunisten gleich. Sie vertraten oft auch die Verschwörungstheorie eines angeblichen weltbeherrschenden Weltjudentums. Darunter war die 1920 in München gegründete „Wirtschaftliche Aufbau-Vereinigung“. Diese unterstützte die NSDAP finanziell und ideologisch. Im Nationalsozialismus verschmolzen diese Strömungen und Gruppen ihre rassistischen, nationalistisch-„alldeutschen“ und imperialistischen Vorstellungen und Ziele miteinander. Das stärkste tragende Bindeglied ihrer vielfältigen Ideen war der Antisemitismus. Dieser zeigte sich seit der Novemberrevolution von 1918 zugleich als radikale Ablehnung der Weimarer Republik, die diese Gruppen als von Novemberverbrechern geschaffene „Judenrepublik“ denunzierten. Die Völkischen definierten ihre Weltanschauung als strikten Gegensatz zum Marxismus der Linksparteien, zum politischen Katholizismus der Zentrumspartei und zu ihrer Fiktion eines „Weltjudentums“. Teile der völkischen Bewegung vertraten auch schon Ideen von „Menschenzucht“ (Eugenik). 25-Punkte-Programm. Der Nationalsozialismus bildete als Sammelbewegung völkischer, rassistischer und revisionistischer Gruppen zunächst keine konsistente Ideologie. Hans Frank erklärte daher später in den Nürnberger Prozessen, es habe „so viele Nationalsozialismen wie Nationalsozialisten“ gegeben. Doch das bei der Gründung der NSDAP 1920 beschlossene "25-Punkte-Programm" sollte über seine praktische Erfüllung hinaus gelten, war also zugleich Ausdruck dauerhafter nationalsozialistischer Weltanschauung. Daraus folgerte Punkt 6 den Ausschluss von Juden aus allen Staats- und Parteiämtern, Punkt 8 ein Einwanderungsverbot und sofortige Zwangsausweisung aller als „Nichtdeutsche“ definierten Personen, die seit 2. August 1914 eingewandert waren. Punkt 18 forderte die Todesstrafe für „gemeine Volksverbrecher, Wucherer, Schieber usw. ohne Rücksichtnahme auf Konfession und Rasse“: erneut ein deutlicher Hinweis auf die gemeinte Zielgruppe, die Juden. Punkt 19 forderte den Ersatz eines angeblich „materialistischen“ römischen Rechtes durch ein „deutsches Gemeinrecht“. Der Idee einer Einheit von Volk und Staat folgten Forderungen nach staatlichem Ausbau der Volksbildung (20), „Hebung der Volksgesundheit“ durch „körperliche Ertüchtigung“ (21), Bildung eines „Volkesheeres“ (22). Die angestrebte Abschaffung der Pressefreiheit und Einführung von Pressezensur wurde als „gesetzlicher Kampf gegen die bewußte politische Lüge und ihre Verbreitung“ (23) bemäntelt. Indem nur „Volksgenossen“ Zeitungsredakteure und Verlagseigentümer sein sollten, zeigte sich auch hier ein antisemitischer Impuls: Der Topos von der „jüdischen Weltpresse“ war unter Antisemiten seit Langem üblich. Zugleich sollten auch Kunst und Kultur von dem „zersetzenden Einfluß auf unser Volksleben“ gereinigt werden: Dem entsprach die NS-Kulturpolitik gegen die „Entartete Kunst“. Im scheinbaren Widerspruch dazu bekräftigte Punkt 24 die Religionsfreiheit „im Staat“, allerdings nur, „so weit sie nicht dessen Bestand gefährden oder gegen das Sittlichkeits- und Moralgefühl der germanischen Rasse verstoßen.“ Mit dem Bekenntnis zu einem „positiven Christentum“ ohne Bindung an eine bestimmte Konfession, aber in einheitlicher Frontstellung gegen einen „jüdisch-materialistischen Geist in und außer uns“ war eine Voraussetzung für den späteren Kirchenkampf genannt. Das Programm gipfelte in der Parole „Gemeinnutz vor Eigennutz“ und der Forderung nach einer „starken Zentralgewalt des Reiches“, deren in „unbedingter Autorität“ erlassene „Rahmengesetze“ neu gebildete Stände- und Berufskammern in den Bundesstaaten durchführen sollten. Damit deutete sich die spätere Gleichschaltungspolitik gegenüber föderalen Institutionen schon an. Die Parteiführer würden „wenn nötig unter Einsatz des eigenen Lebens“ für die Programmverwirklichung eintreten. Darré bei einer Kundgebung 1937 Während die außen- und innenpolitischen Hauptforderungen in Punkt 1–8 präzise und konkret formuliert waren und tatsächlich ab 1933 staatlich großenteils umgesetzt wurden, blieben viele der wirtschafts- und kulturpolitischen Forderungen in Punkt 9–20 vage (11), unklar (13), skurril oder praktisch unrealisierbar (etwa der „Einzug aller Kriegsgewinne“ in Punkt 14). Diese Unklarheiten führten zu einer teilweise heftigen internen Ideologiedebatte und verschiedenen Wirtschaftsprogrammen. Otto Wagener etwa forderte die Unterstützung des Mittelstandes, Richard Walther Darré die der Bauern, Gottfried Feder verlangte die von ihm erfundene „Brechung der Zinsknechtschaft“. Hitler trug diesem Streit als Parteiführer später zum Teil Rechnung, indem er einige Programmforderungen revidierte, reduzierte oder ignorierte. 1928 reduzierte er die angekündigte Bodenreform auf Enteignung „jüdischer“ Bodenspekulationsgesellschaften. Wie die „Zinsknechtschaft gebrochen“ werden sollte, ließ er jedoch offen. „Mein Kampf“. In "Mein Kampf" bekräftigte Hitler vor allem die außen- und bevölkerungspolitischen Ziele des NSDAP-Programms, allen voran den Anschluss Österreichs an das nunmehrige „Großdeutsche Reich“. Im Unterschied zum Kaiserreich, das mit dem britischen Weltreich als Kolonialmacht in Afrika und Fernasien zu konkurrieren versuchte, wollte Hitler Lebensraum nicht in Westeuropa und in Übersee, sondern in Osteuropa gewinnen. Damit schloss er sich wahrscheinlich geopolitischen Theorien von Rudolf Kjellén, Halford Mackinder und Karl Haushofer an, die die Eroberung und Beherrschung der Landmasse von „Eurasien“ als Schlüssel zur Weltherrschaft sahen. Auch der mittelalterliche Mythos mancher Ordensritter von einem deutschen „Drang nach Osten“ stand hinter dieser Idee. Dabei dachte Hitler an „Russland und die ihm untertanen Randstaaten“. Um sie zu erobern, wollte er zuerst den Versailler Vertrag revidieren, dann Frankreich mit Hilfe eines Bündnisses mit Großbritannien und Italien isolieren, später ganz vernichten. Damit revidierte er Punkt 3 des NSDAP-Programms: Das Erobern von Kolonien würde England zu Protesten herausfordern. Dessen Kolonialmacht müsse Deutschland garantieren, dann würden die Briten es auf dem Kontinent gewähren lassen. Polen erwähnte Hitler hier nicht, auch die USA und Japan kamen nur am Rande vor. Diese Prioritäten waren gegenüber den Vorlieben kaiserlicher Imperialisten neu. Ein „Informationsplakat“ aus der Ausstellung "Wunder des Lebens" 1935 in Berlin Zur Wirtschaftspolitik äußerte sich Hitler in "Mein Kampf" nur auf fünf Seiten. Den Punkt der Volksgesundheit dagegen führte er breit aus und brachte dabei den auch die wirtschafts- und kulturpolitischen Vorstellungen tragenden Rassismus der NS-Ideologie deutlich zur Geltung. Seine beiden untrennbar miteinander verknüpften Grundgedanken waren Das Gegenbild zu dieser Vision bildete das „Weltjudentum“, das in Hitlers Verschwörungstheorie als Urheber aller negativen Zeiterscheinungen, etwa des Ersten Weltkriegs, der Niederlage darin, der Novemberrevolution und der Inflation dargestellt wurde. Dabei identifizierte er das Judentum sowohl mit dem „Finanzkapital“ in den USA als auch mit dessen weltpolitischem Gegner, dem „Bolschewismus“. Dieser globalen Übermacht scheinbar widersprechend betonte Hitler jedoch zugleich die absolute Minderwertigkeit und unterlegene Abhängigkeit der Juden von ihren arischen „Wirtsvölkern“ und beschrieb sie als Schmarotzer, Parasiten, Bazillen, Blutegel, Spaltpilze, Ratten usw. In allen seinen Erscheinungsformen strebe das Judentum die „Zersetzung“, „Bastardisierung“ und „Blutvergiftung“ des deutschen Volkes an: etwa durch Prostitution, Verbreitung von Geschlechtskrankheiten, Verführung ahnungsloser arischer Mädchen. Dieses pornografische Bild zu propagieren wurde Hauptaufgabe des eigens dazu gegründeten Hetzblattes Der Stürmer des Gauleiters von Franken, Julius Streicher. Deshalb spricht der Historiker Saul Friedländer im Blick auf die nationalsozialistische Bewegung und ihre unmittelbaren Vorläufer von einem besonderen, über traditionelle christliche, aber auch völkische und sozialdarwinistische Judenfeindschaft hinausgehenden „Erlösungsantisemitismus“. Führerkult und Führerstaat. In allen Staaten Europas gab es seit Beginn des 20. Jahrhunderts starke Tendenzen zu autoritären, antidemokratischen Politikkonzepten, deren Akzeptanz sich nach 1918 auch aus Enttäuschung über die pluralistische Demokratie und Massenelend speiste. Als „Führerkult“ ließ sich schon die Verehrung des Herrschers in einer Monarchie, begründet etwa mit der Idee des Gottesgnadentums, auffassen. Der Erste Weltkrieg enttäuschte das Bild vom "Heldenkaiser", verstärkte bei Nationalisten aber noch die Sehnsucht nach dem "heldischen Führer". Zu einem parteipolitischen Konzept machte dies der aufstrebende Faschismus: zuerst mit dem Duce Benito Mussolini in Italien, dann dem Caudillo General Franco in Spanien, aber auch im Kult um „Väterchen“ Stalin in der Sowjetunion. Anders als in Italien begann der Personenkult um den „Führer“ schon zehn Jahre vor der „Machtergreifung“ nach dem Hitlerputsch von 1923, aus dessen Scheitern Hitler folgerte, dass die NSDAP eine straff geführte Führerpartei sein müsse und er selbst zu Deutschlands „Rettung“ bestimmt sei. Dem kam die Erwartung der Parteibasis an ihn entgegen. Der deutsche Führerkult ging also mit der Entwicklung der NSDAP zur Massenpartei einher und diente ihrer Integration, Schlagkraft und Ausdehnung. Er wurde 1933 auch nicht wie in Spanien oder Russland einer bestehenden zentralisierten Militärdiktatur zu deren Absicherung aufgepfropft, sondern zum Organisationsprinzip eines durch ersatzlose Gleichschaltung aller bestehenden Verwaltungs- und Regierungsinstitutionen geschaffenen Führerstaates. Nach dem Tode des Reichspräsidenten von Hindenburg wurde Hitler am 2. August 1934 als "Führer und Reichskanzler" auch "Oberster Befehlshaber der Wehrmacht"; seit 1938 trat auch das Regierungskabinett nicht mehr zusammen. Anders als in der Sowjetunion, die nach Stalins Tod 1953 noch bis 1991 fortbestand, untergrub das Prinzip der „charismatischen Führerpersönlichkeit“ (Max Weber), die die rivalisierenden Kräfte in Staat und Partei durch ihren „Willen“ lenkte und orientierte, das selbständige Funktionieren der Bürokratie in Deutschland. Der lange Zeit mit Führererlassen und -verordnungen direkt regierte Staat konnte Kriegsniederlage und Tod Hitlers demzufolge nur sehr kurz überdauern. Nach Ian Kershaw stand und fiel der deutsche NS-Staat mit der Person des "Führers". Auch das Vichy-Regime (1940–1944) im Süden Frankreichs war ein „Führerstaat“; sein Führer war Philippe Pétain. Weitere Merkmale und Entwicklungen der NS-Ideologie. „Lichtdom“, Inszenierung am Reichsparteitag 1936 Kapitalismus und Antikapitalismus. Im Zentrum der wissenschaftlichen Auseinandersetzung über den Charakter der nationalsozialistischen Wirtschaftsideologie steht seit jeher die Frage, ob der Nationalsozialismus kapitalistisch oder sozialistisch gewesen sei. Der deutsche Soziologe Max Horkheimer vertrat 1939 noch vor Kriegsbeginn die Position: "Wer vom Kapitalismus nicht reden will, soll vom Faschismus schweigen." Der marxistische Historiker Manfred Weißbecker bezeichnet in einem 2011 erschienenen Buch den Namen NSDAP als reine Demagogie, da die Partei in Wahrheit weder national noch sozialistisch gewesen sei, sondern faschistisch. Dagegen behauptete Ludwig von Mises 1947: "Die Ideologie der Nazis, der deutschen „Nationalsozialistischen Arbeiterpartei“, ist die reinste und konsistenteste Manifestation unseres antikapitalistischen und sozialistischen Zeitgeistes," 1927 hatte er den Faschismus als das kleinere Übel angesehen. Finanzquellen der NSDAP. Marxisten sehen die Spendenpraxis deutscher Industrieller wie Fritz Thyssen und Emil Kirdorf und die Industrielleneingabe vom November 1932, die Reichspräsident Paul von Hindenburg aufforderte, Hitler zum Reichskanzler zu ernennen, meist als Belege für die Verantwortung der Großindustrie für die Machtübergabe an Hitler. Der ostdeutsche Historiker Eberhard Czichon etwa meinte deshalb, dass „eine Mehrheitsgruppe deutscher Industrieller, Bankiers und Großagrarier Hitlers Kanzlerschaft gewollt und organisiert“ habe. Sein westdeutscher Kollege Reinhard Neebe betonte dagegen, dass die meisten deutschen Unternehmer und ihr Dachverband, der Reichsverband der Deutschen Industrie, nicht Hitler, sondern die Vorgängerregierungen von Heinrich Brüning, Franz von Papen und Kurt von Schleicher unterstützten. Diese Sicht untermauerte der US-amerikanische Historiker Henry Ashby Turner mit Untersuchungen, wonach die NSDAP ihre Finanzmittel nicht vorwiegend aus Industriespenden, sondern Mitgliedsbeiträgen und Eintrittsgeldern bezog. Die Großindustrie habe ihr immer deutlich weniger Geld zukommen lassen als ihren Konkurrenten DNVP, DVP und Zentrum. Sie habe sich damit auch nur für den unerwünschten Fall einer NS-Machtergreifung absichern wollen. Die Großunternehmer gelten daher heute kaum noch als Hauptverursacher des Aufstiegs der Nationalsozialisten und der Machtübernahme Hitlers 1932–1934. Antikapitalismus in der NS-Ideologie. In der Ideologie der Nationalsozialisten gab es antikapitalistische Elemente, die meist antisemitisch ausgeprägt waren. Umstritten ist, wie diese Elemente im Rahmen der NS-Propaganda einzuordnen sind, insbesondere nach Ausschaltung des Strasser-Flügels innerhalb der NSDAP. Das 25-Punkte-Programm der Partei von 1920, das Hitler bis 1926 für „unabänderlich“ erklärte, enthielt mehrere antikapitalistische Forderungen wie Brechung der Zinsknechtschaft, Verstaatlichung von Trusts und Gewinnbeteiligung an Großbetrieben. Anfangs verwendeten führende Nationalsozialisten wie Joseph Goebbels, Gregor Strasser und sein Bruder Otto, der mit seiner Anhängerschaft die Partei bereits 1930 verließ, regelmäßig sozialistische Versatzstücke in ihren Reden. Hitler selbst hatte sich klar zum Privateigentum bekannt, in der nationalsozialistischen Praxis kam es jedoch zu zahlreichen Enteignungen von Privateigentum, so z. B. im Zuge der sogenannten „Arisierung“. Hauptsächlich betroffen von Enteignung waren Juden, aber auch nichtjüdische Emigranten und politisch Missliebige. Albrecht Ritschl verweist auf die schrittweise Ausschaltung des sozialistischen Parteiflügels zwischen 1930 und 1934 und deutet die antikapitalistischen Töne als verkappten Antisemitismus. Die enge Verbindung von Antikapitalismus und Antisemitismus in der nationalsozialistischen Propaganda zeigt sich etwa in dem Antrag, den der Vorsitzende der NSDAP-Fraktion im Reichstag am 18. Oktober 1930 stellte. Darin forderte er die Enteignung des gesamten Vermögens der „Bank- und Börsenfürsten, der seit 1. August 1914 zugezogenen Ostjuden und sonstigen Fremdstämmigen […] zum Wohl der Allgemeinheit des deutschen Volkes.“ 1931, auf dem Höhepunkt der Weltwirtschaftskrise, forderte die NSDAP staatliche Arbeitsbeschaffungsprogramme, um die Arbeiterschaft als NSDAP-Wähler anzuwerben. Im Mai 1933 zerschlug das NS-Regime die organisierte Arbeiterbewegung in Form der Linksparteien und der Gewerkschaften. Die NSDAP betrachtete marxistische und kommunistische Gruppen innenpolitisch als Hauptgegner, so wie außenpolitisch der Bolschewismus der Hauptfeind war. Die Alternative, der „nationale Sozialismus“, wurde als „Volksgemeinschaft“ definiert. Diese wurde als „Einheit von Volk und Staat“ unter der einheitlichen NS-Ideologie und einem „starken Staat“, gelenkt von einem „Führer“, verstanden. Die Einordnung aller Staatsbürger in die Arbeitspflicht und die rassisch definierten nationalen Interessen ließen offen, ob dazu die Produktionsverhältnisse umgestürzt werden sollten: Dieses Stichwort fehlte im 25-Punkte-Programm. Als Gegenkonzept zur Leitidee der internationalen klassenlosen Gesellschaft im Marxismus, aber auch zur individuelle Freiheiten schützenden pluralen und parlamentarischen Sozialdemokratie gedacht, unterschied es die NSDAP von den damaligen Programmen aller sozialistischen Parteien. Verhältnis zu Privateigentum und Konkurrenzprinzip. Der in die USA emigrierte Politologe Franz L. Neumann konstatierte in seinem Buch zur Struktur und Praxis des Nationalsozialismus "Behemoth" von 1942/1944, dass der nationalsozialistische Herrschaftsapparat sich nicht von der Basis der privatkapitalistischen Produktionsweise gelöst, sondern einen „totalitären Monopolkapitalismus“ hervorgebracht habe. Hitlers Bekenntnis zum Privateigentum erfolgte 1919 privat und 1926 im Hamburger Nationalklub öffentlich. Der Berliner Wirtschaftshistoriker Albrecht Ritschl macht aber auf Äußerungen Hitlers aufmerksam, die er im März 1942 im Kreise seiner Adjutanten machte, das heißt ohne Zwang, seine wahren Ansichten zu kaschieren. Hitler wandte sich hier grundsätzlich „gegen anonymen Privatbesitz der Aktie. Ohne selbst etwas dazu zu tun, erhalte der Aktionär mehr Dividende, wenn die Arbeiter der Aktiengesellschaft fleißig statt faul seien oder wenn ein genialer Ingenieur an der Spitze des Betriebs stehe“. Demnach wäre die häufige Ablehnung eines „raffenden“ im Gegensatz zum lobenswerten „schaffenden Kapitalismus“ von ihm ernst gemeint gewesen. Am 26. Juni 1944 wiederum forderten Hitler und Albert Speer in Reden vor wichtigen Personen aus der Rüstungswirtschaft, darunter u. a. Walter Rohland, auf dem Obersalzberg „Selbstverantwortung“ und kündigten für die Zeit nach dem Siege eine größte Epoche für die „private Initiative der deutschen Wirtschaft“ an. Der ehemalige NSDAP-Politiker und konservativ-bürgerliche Faschismustheoretiker Hermann Rauschning attestierte Hitler in Wirtschaftsfragen eine rein „realpolitische Haltung“, die „sich […] von allen Doktrinen frei zu machen versuchte“. Nach Rauschning ordnete Hitler die Wirtschaft übergeordneten politischen Zielen konsequent unter, verfolgte auf diesem Gebiet also keine prinzipiellen Ordnungsvorstellungen, sondern nur flexibel anpassbare Ziele. Henry A. Turner kommt zu dem Schluss, dass Hitler das „liberale Konkurrenzprinzip“ und das Privateigentum bejaht habe, wenn auch nur, „weil er sie in entstellter Weise in seine sozialdarwinistische Sicht des Wirtschaftslebens einbauen konnte“. Avraham Barkai widerspricht dieser These und sieht einen extremen Antiliberalismus Hitlers und eine grundsätzliche Ablehnung des Laisser-faire-Prinzips. Ein von Turner unvollständig wiedergegebenes Belegzitat in den Folgesätzen weise auf eine mit dem liberalen Konkurrenzprinzip unvereinbare Haltung hin. Der von Turner unter anderem als Beleg angeführte Hermann Rauschning wurde 1984 in seiner Glaubwürdigkeit als Zeitzeuge so stark erschüttert, dass Kershaw erklärte, die „Gespräche mit Hitler“ seien „ein Werk, dem man heute so wenig Authentizität zumißt, daß man es besser ganz außer acht läßt“. Auch Anselm Doering-Manteuffel interpretiert die Beseitigung der parlamentarischen Demokratie und die Errichtung des Führerstaats als „Durchbruch des revolutionären Antiliberalismus zur Staatsidee“. Goebbels’ Aussage „Das Dritte Reich löste das Zeitalter des Liberalismus ab“ ist ihm zufolge eine „Selbstverständlichkeit“, die bereits von den Zeitgenossen so empfunden wurde. Laut Jörn Axel Kämmerer lehnte Hitler die Privatisierungsbestrebungen der zwanziger Jahre ab und befürwortete vielmehr die Verstaatlichung der großen Aktiengesellschaften, der Energiewirtschaft und anderer Wirtschaftszweige. Zwar seien Verstaatlichungen bestehender Industriebetriebe nicht umgesetzt worden, jedoch seien reichseigene Unternehmen (z. B. Reichswerke Hermann Göring) gegründet worden. Diese Unternehmensgründungen sowie Weichenstellungen der Nationalsozialisten im Wirtschaftsrecht wirkten zum Teil bis heute nach. Verhältnis zum Ordoliberalismus. Für den Wirtschaftswissenschaftler Ralf Ptak deuten „die vielfältigen Publikationsmöglichkeiten ordoliberaler Autoren in diesem Zeitraum auf eine nationalsozialistische Duldung gegenüber dem ordoliberalen Projekt“ hin. Der Wirtschaftswissenschaftler Nils Goldschmidt widerspricht Ptaks Schlussfolgerung und führt die Schrift "„Nationalökonomie – wozu?“" (1938) von Walter Eucken als Beispiel für ein Publikationsverbot an. Ferner weist Goldschmidt auf ordoliberalen Widerstand gegen den Nationalsozialismus, wie etwa durch die Freiburger Kreise hin. Hauke Janssen schreibt, dass „vor allem die Freiburger“ Widerstand gegen die interventionistischen und zentralverwaltungswirtschaftlichen Tendenzen im Nationalsozialismus geleistet hätten. Egalitäre Prinzipien und Verhältnis zum Sozialismus. Friedrich August von Hayek hebt hervor, dass sich Nationalsozialismus und Sowjetkommunismus in diktatorischen und antiliberalen Grundzügen ähnelten. Für Hayek weisen Sozialismus und Nationalsozialismus die gleichen totalitären Tendenzen auf, um ihre – durchaus unterschiedlichen – Ziele zu verfolgen. Beide seien, da sie sich des Mittels zentraler Planung bedienten, Varianten des Kollektivismus, dessen Eigendynamik zur Zerstörung von Wohlstand, Demokratie und Rechtsstaat führe. Rainer Zitelmann versteht Hitler als „Revolutionär“, dem die Verbesserung der Aufstiegschancen der Arbeiter, soweit sie seinen Rassevorstellungen entsprachen, ein ehrliches Anliegen gewesen sei. Dabei sei es ihm nicht „um die Ermöglichung der bestmöglichen Entfaltung des Individuums, sondern um die Optimierung des Nutzens für die "deutsche Volksgemeinschaft"“ gegangen. Gegenüber der Wirtschaft habe er einen „Primat der Politik“ angestrebt, der „auf eine Revolutionierung des Verhältnisses von Politik und Ökonomie“ hinausgelaufen sei. Das kapitalistische Wirtschaftssystem habe Hitler durch eine gemischte Wirtschaftsordnung ersetzen wollen, in welcher markt- und planwirtschaftliche Elemente zu einer neuen Synthese vereint wären. Die vom Nationalsozialismus ausgelöste „soziale Revolution“ sei durchaus ernst zu nehmen. Gegen diese These wandten Wolfgang Wippermann und Michael Burleigh indirekt ein, dass sie den rassistischen und damit reaktionären Charakter des NS-Regimes über Gebühr herunterspiele. Laut Joachim Fest ist. Stattdessen habe man. Zwar habe Hitler keine Produktionsmittel verstaatlicht, aber „nicht anders als die Sozialisten aller Schattierungen die soziale Gleichschaltung vorangetrieben“. Auch nach Ansicht von Götz Aly versuchte das NS-Regime, das er als „Gefälligkeitsdiktatur“ bezeichnet, durch soziale Fürsorge egalitäre Prinzipien zu verwirklichen. Das Programm der NSDAP stütze sich auf zwei mit dem Antisemitismus kombinierbare Gleichheitsideen: Einer der Grundgedanken war der der ethnischen Homogenität, zum anderen versprachen sie als „nationale Sozialisten“ mehr soziale Gleichheit. Neuere Arbeiten identifizieren vor allem den Reichsarbeitsdienst, die Hitlerjugend und das Militär als Bereiche, in denen tatsächlich versucht wurde, dieses Versprechen in die Tat umzusetzen. Dieser egalitäre Anspruch bezog sich im Unterschied zur Marxismus aber nicht auf die gesamte Bevölkerung, sondern beschränkte sich auf „das ethnisch definierte Großkollektiv deutsches Volk“. Wirtschaftspolitik des NS-Regimes. Umstritten ist, inwieweit die wirtschaftspolitischen praktischen Maßnahmen des NS-Regimes einem nationalsozialistischen wirtschaftspolitischen Leitbild entsprachen oder einfach „den pragmatischen Anforderungen der Aufrüstungs- und Kriegspolitik des Regimes geschuldet“ waren (vgl. auch Kriegswirtschaft). Nach Willi Albers griffen aufgrund der Erfahrungen aus dem Ersten Weltkrieg und dem Scheitern einer zu Anfang des Zweiten Weltkriegs in einzelnen Ländern versuchten liberalen Kriegswirtschaftspolitik alle am Zweiten Weltkrieg beteiligten Staaten zu dirigistischen Maßnahmen. Markus Albert Diehl weist darauf hin, dass schon zur Zeit der Weimarer Republik angesichts massiver ökonomischer Probleme zu staatsdirigistischen Maßnahmen gegriffen wurde, z. B. wurden Devisen bewirtschaftet. Insgesamt sind die Befunde angesichts der von 1933 bis 1945 tatsächlich praktizierten Wirtschaftspolitik widersprüchlich. Auf der einen Seite spricht die Reprivatisierung der in der Bankenkrise 1931 de facto verstaatlichten Großbanken für eine prokapitalistische Haltung der Regierung. Auf der anderen Seite ließen nach u. a. Avraham Barkai, Timothy Mason und Dietmar Petzina die dirigistischen Eingriffe in die Wirtschaft unter Hjalmar Schachts „Neuem Plan“ (1934), unter dem Vierjahresplan (1936) und vollends die Kriegswirtschaft unter Rüstungsminister Albert Speer (ab 1942) vom freien Unternehmertum wenig übrig. Gemäß dem Wirtschaftsziel Autarkie wurde die freie Marktwirtschaft in der Landwirtschaft 1933 mit dem Reichsnährstand praktisch abgeschafft, wobei in den 30er Jahren auch in anderen europäischen Staaten in der Landwirtschaft planwirtschaftliche Politik sich ausweitete. Im Zeichen der Aufrüstung der Wehrmacht wurde für zahlreiche Produkte der Preismechanismus durch Rationierung ersetzt. Dies betraf beispielsweise Stahl, Devisen, Kapitalverkehr und den Arbeitsmarkt. Der Historiker Klaus Hildebrand fasst den Stand der Forschung in "Oldenbourg Grundriss der Geschichte" so zusammen: Nach Adam Tooze hatten die großen Banken nie weniger Einfluss in der deutschen Geschichte als zwischen 1933 und 1945, der Einfluss der Großindustrie („big business“) wurde schon in der Weltwirtschaftskrise 1929 gegenüber dem Staat geschwächt, erst recht im Nationalsozialismus; trotzdem verblieb der Privatindustrie eine Machtgrundlage, weil das nationalsozialistische Regime für seine Ziele, insbesondere Kriegsrüstung, auf sie angewiesen blieb. Gestützt wird diese These von aktuellen ordnungstheoretischen Untersuchungen: Michael von Prollius beschreibt das NS-Wirtschaftssystem als „Ergebnis unablässiger Neu- und Umorganisation […] und zahllosen Lenkungs- und Bürokratisierungsmaßnahmen“; für Markus Albert Diehl „entfernte sich die deutsche Wirtschaftsordnung unter der nationalsozialistischen Herrschaft immer weiter vom Idealtyp der Marktwirtschaft und entsprach schließlich weitgehend dem Idealtyp der Zentralplanwirtschaft“. Nach Götz Aly und Susanne Heim trat die propagierte Förderung des Mittelstandes in der Praxis hinter der wirtschaftlichen Rationalisierung zurück, was zu Bankrott und Schließung zahlreicher mittelständischer Betriebe führte. Ideologisch wurde die Einbindung der Privatwirtschaft in die deutsche Kriegswirtschaft unter Reichsminister für Bewaffnung und Munition Fritz Todt als Anwendung der Prinzipien „Führertum“ und „Unternehmertum“ dargestellt. Planungen für die Nachkriegszeit waren einerseits verboten, andererseits, so der Historiker Bernhard Löffler, beauftragte die „Reichsgruppe Industrie“ 1943 Ludwig Erhard mit wirtschaftspolitischen Planungen für die Zeit nach dem absehbar verlorenen Krieg. Diese waren „an einem marktwirtschaftlichen Konzept ausgerichtet“ und standen „damit im Gegensatz zum NS-System“. Industrie und staatliche Stellen wie das Reichswirtschaftsministerium und das von Hans Kehrl geleitete Planungsamt im Reichsministerium für Bewaffnung und Munition planten, den Übergang von der Kriegs- und Lenkungswirtschaft zur Friedens- und Marktwirtschaft behutsam durchzuführen. Im Reichswirtschaftsministerium hielt Otto Ohlendorf seine „schützende Hand über die marktwirtschaftliche Nachkriegsplanung“ und zeigte sich „gegenüber der Neugestaltung einer liberaleren, unternehmensfreundlichen Marktordnung bei allen tiefgehenden weltanschaulichen Unterschieden erstaunlich aufgeschlossen […]“. An die Stelle des bürokratischen Lenkungsapparates müsse im Frieden ein „aktives und wagemutiges Unternehmertum“ treten, so Ohlendorf. Ohlendorf selbst wurde von Himmler geschützt, der die seiner Auffassung nach „total bolschewistische“ Wirtschaftslenkung Speers ablehnte. Verhältnis zur Religion. Die Nationalsozialisten vertraten keine einheitliche Religiosität. Einige propagierten als Deutsche Christen (DC) einen nationalistisch-antisemitischen Protestantismus, andere einen rassistischen Neopaganismus mit Bezügen zur germanischen Mythologie. So verlangte der NS-Ideologe Alfred Rosenberg in seinem Hauptwerk "Der Mythus des 20. Jahrhunderts" eine Ablösung des Christentums durch eine Religion von „Blut und Boden“. Ein besonders scharfer Kritiker des Christentums in der NSDAP war der Reichsführer SS Heinrich Himmler. Himmler sah in der Überwindung des Christentums und in der Wiederbelebung einer "germanischen" Lebensweise eine zentrale Aufgabe der SS. Nationalsozialismus als politische Religion? Bereits 1938/39 hat der deutsch-amerikanische Politologe Eric Voegelin den Nationalsozialismus erstmals systematisch als politische Religion interpretiert. Eine wichtige Rolle spielte dabei die zeitgenössische Darstellung Hitlers als unfehlbare, nahezu gottgleiche Figur - eine Sichtweise, die u.a. durch den Film "Triumph des Willens" der Regisseurin Leni Riefenstahl propagiert wurde. Seit den 1990er Jahren haben Historiker wie Emilio Gentile oder Michael Burleigh diesen Interpretationsansatz aufgegriffen und ausgebaut. Diese Interpretation ist in der historischen Forschung allerdings umstritten. So argumentiert Hans Günter Hockerts, die Nationalsozialisten hätten zwar eine Art politischer Religion geschaffen, um „heimatlos gewordene religiöse Energie“ zu binden, der Völkermord an den Juden habe jedoch auf ethnisch und eugenisch begründetem Rassismus beruht. Gegen eine Interpretation des Nationalsozialismus als Religion spreche vor allem die Abwesenheit von Transzendenzvorstellungen. Verhältnis zum Christentum. Das NSDAP-Programm von 1920 bejahte ein „Positives Christentum“, definiert als „Freiheit aller religiösen Bekenntnisse im Staat, soweit sie nicht dessen Bestand gefährden oder gegen das Sittlichkeits- und Moralgefühl der germanischen Rasse verstoßen.“ Die Formulierung wurde damals als Toleranz und Unparteilichkeit gegenüber den christlichen Konfessionen im Rahmen der Staatsräson und des Gemeinwohls missverstanden und begrüßt, obwohl Hitler bereits 1925 eine Drohung gegen politische Aktivität von Christen in anderen Parteien als der NSDAP damit verband. Tatsächlich ordnete der Programmpunkt das Christentum dem Rassismus unter und vereinnahmte es für den Antisemitismus, ausgedrückt als „Kampf gegen die jüdisch-materialistische Weltauffassung“, und für die vom autoritären Staat gelenkte „Volksgemeinschaft“, ausgedrückt als „Gemeinnutz vor Eigennutz“. Hitler bejahte das Christentum in seinen Regierungserklärungen vom 1. Februar und 23. März 1933 nur aus machttaktischen Motiven, um die Unterstützung der Großkirchen für den Aufbau des gleichgeschalteten „Führerstaats“ zu erhalten. Die Kirchen haben diese Unterstützung bereitwillig geleistet und den Widerspruch zur eigenen universalen Lehre erst allmählich im Kirchenkampf (ab 1934) erkannt und ausgesprochen. Der Nationalsozialismus verstand seine rassistische Ideologie als vom Führerstaat in allen Gesellschaftsbereichen durchzusetzende „Weltanschauung“. Dieser totalitäre Absolutheitsanspruch tendierte auf Konflikte mit anderen „Bekenntnissen“. Einerseits garantierte das NSDAP-Programm wie auch Hitler in „Mein Kampf“ den Großkirchen den Bestandschutz und innerkirchliche Selbstverwaltung, andererseits strebte man ihre Begrenzung auf unpolitische Belange und weitreichende Eingriffe in kirchliche Strukturen an. So versuchten die DC seit 1933, die Deutsche Evangelische Kirche (DEK) im Sinne einer konfessionslosen, zentral gelenkten Reichskirche zu vereinheitlichen und ideologisch dem Nationalsozialismus anzugleichen. Das Alte Testament wiesen sie als „Verjudung“ des Christentums zurück und versuchten, es abzuschaffen. Als dieser Versuch im Kirchenkampf scheiterte, wandte sich das NS-Regime von den DC ab. Hitler gewährte dem Vatikan und den deutschen Bischöfen 1933 im Reichskonkordat die Freiheit des Bekenntnisses, konfessionelle Schulen und Universitäten, solange die römisch-katholische Kirche dafür auf jegliche politische Aktivität verzichte. Die katholische Zentrumspartei löste sich auf, nachdem sie dem Ermächtigungsgesetz zugestimmt und so Hitlers Diktatur die notwendige verfassungsändernde Mehrheit mit verschafft hatte. Als die Kirchen ab 1940 einigen Massenmorden des NS-Regimes widersprachen, stärkte Hitler die kirchenfeindlichen Kräfte in der NSDAP und erlaubte ihnen in eroberten Gebieten wie dem Warthegau, die Kirchen zu entmachten, indem diese von Körperschaften öffentlichen Rechts zu bloßen Religionsvereinen herabgestuft wurden. Anders als die DC glaubte Hitler nicht, dass sich die „jüdische Wurzel“ des Christentums kappen und dieses vollständig „entjuden“ lasse. Hitler unterstützte daher intern die Kritiker des Christentums in der NSDAP. Er äußerte diesen Standpunkt aber bewusst nie öffentlich, weil er befürchtete, seinen Rückhalt in der Bevölkerung zu verlieren. Eine langfristige Beseitigung des Christentums kann daher als politisches Fernziel des Nationalsozialismus angenommen werden. „Gottgläubigkeit“. 1936 initiierten die Nationalsozialisten mit dem Kirchenkampf eine Kirchenaustrittsbewegung. Ideologisch begleitet wurde sie durch Schriften des Parteiideologen Alfred Rosenberg, insbesondere durch seinen "Mythus des 20. Jahrhunderts", sowie durch Veröffentlichungen Erich Ludendorffs und seiner Ehefrau Mathilde. Der Ausdruck „gottgläubig“, gedacht als positiver Gegensatz zu „ungläubig“, sollte echt-religiöse oder nur scheinbar-religiöse, konfessionell ungebundene Personen mit ideologischer Nähe zum Nationalsozialismus positiv kennzeichnen. „Gottgläubig“ war gemäß Philosophischem Wörterbuch von 1943 definiert als „amtliche Bezeichnung für diejenigen, die sich zu einer artgemäßen Frömmigkeit und Sittlichkeit bekennen, ohne konfessionell-kirchlich gebunden zu sein, andererseits aber Religions- und Gottlosigkeit verwerfen“. Die Einführung des Begriffs für alle kirchlich nicht gebundenen, aber nicht glaubenslosen „Volksgenossen“ wird als der Versuch gesehen, eine religiöse Identifikationsformel für Funktionäre und Mitglieder der NSDAP sowie der „Deutschgläubigen Bewegung“ jenseits der Kirchen und sonstigen Glaubensgemeinschaften zu schaffen. Da sowohl die Zugehörigkeit zu einer Religionsgemeinschaft als auch „Freidenkertum“ im Nationalsozialismus nicht als karrierefördernd galten, bot die durch Erlass des Reichsinnenministers vom 26. November 1936 offiziell eingeführte Bezeichnung „Gottgläubig“ für konfessionslose Nationalsozialisten einen Ausweg, um so zu dokumentieren, dass man durch einen Kirchenaustritt nicht automatisch „ungläubig“ bzw. freidenkerisch-liberal werde. Organisation. Organisation bzw. Organisieren ("órganon" ‚Werkzeug‘) lässt sich am zutreffendsten mit ‚Bewerkstelligung‘ übersetzen, eindeutige Definitionen bestehen jedoch nicht. Wortbedeutung. Etymologisch ist „Organisation“ gem. Duden vom Verb „organisieren“ abgeleitet („planmäßig ordnen, gestalten, einrichten, aufbauen“), das auf französisch ' ‚Werkzeug‘; ‚mit Organen versehen‘; ‚zu einem lebensfähigen Ganzen zusammenfügen‘ zurückgeht. Organisation steht auch für den Prozess des Organisierens, durch den zusammengefügt werden, bzw. so zusammengefügt werden, dass sie zu gewünschten Zielen bzw. Ergebnissen führen. Eine Organisation kann eine soziale Struktur sein, die aus dem planmäßigen und zielorientierten Zusammenwirken von Menschen entsteht, sich zur Umwelt abgrenzt und – als korporativer Akteur (Coleman) – mit anderen Akteuren interagieren kann. In der Biologie kennt man Organisationen in Form von Gemeinschaftsbildung, Teambildung (z. B. Horde) oder Staatenbildung (z. B. Ameisenstaat, auch als Superorganismus bezeichnet). Bestimmung von Organisationen. Alltagssprachlich – teilweise aber auch in einzelnen der Strängen der Organisationsforschung - werden die Worte „Organisation“ und „Organisieren“ verwendet, um eine auf einen Zweck ausgerichtete planmäßige Regelung von Vorgängen zu beschreiben. Nach diesem breiten Verständnis von Organisation muss man dann jedoch feststellen, dann fast immer und überall organisiert wird. Denn schließlich „organisieren“ nicht nur Organisationen ihre Entscheidungsprozesse, sondern auch Familien ihr Zusammenleben, Protestbewegungen ihre Demonstrationen und Freundesgruppen ihre Partys. In Abgrenzung zu dieser breiten Verwendung des Begriffs Organisation hat sich ein engeres Verständnis von Organisationen durchgesetzt. In der Organisationssoziologie wird mit „Organisation“ eine besondere Form von sozialem Gebilde zu bezeichnen, die sich von anderen sozialen Gebilden wie beispielsweise Familien, Gruppen, Bewegungen oder Netzwerke unterscheiden lassen. Dabei lassen sich besonders drei Merkmale von Organisationen hervorheben. Erstens können Organisationen über den Eintritt und Austritt von Personen entscheiden und können deswegen Bedingungen für Mitgliedschaft definieren, denen sich die Mitglieder (und eben nur die Mitglieder) zu unterwerfen haben. Mitgliedern ist bewusst, dass sie die Organisation zu verlassen haben, wenn sie offen zu verstehen geben, dass sie Programme der Organisation nicht befolgen, Kommunikationswege missachten oder andere Personen in der Organisation nicht als Kommunikationspartner akzeptieren. Zweitens geben sich Organisationen Zwecke, mit denen sie Entscheidungen ausrichten. Auch wenn die noch in der Tradition von Max Weber vertretene zweckrationale Annahme, dass Organisationen sich von ihren Zwecken aus verstehen lassen, nicht durchsetzen konnte, so spielen Zwecke zur Strukturierung von Organisationen eine wichtige Rolle. Sie konzentrieren wie Scheuklappen die Perspektive der Organisation auf einige wenige wichtig erscheinende Aspekte und blenden alles andere aus. Drittens sind Organisationen durch Hierarchien gekennzeichnet, die Über-, Unterordnungsverhältnisse der Mitglieder festlegen. Zwar ist besonders durch die mikropolitisch orientierte Organisationssoziologie überzeugend herausgearbeitet worden, dass hierarchisch weit unten angesiedelte Mitglieder über erhebliche Machtquellen verfügen können, wobei aber die Befolgung hierarchischer Anweisungen zur Mitgliedschaftsbedingung gemacht werden kann und so auch unpopuläre Entscheidungen durchgesetzt werden können. Abgrenzung. Sowohl im allgemeinen Sprachgebrauch als auch in der Wissenschaft (etwa Soziologie, Politikwissenschaft, Betriebswirtschaftslehre, Informatik) wird der Begriff vieldeutig und unter wechselnden Aspekten benutzt. Organisation bezeichnet zum einen ein 'Gebilde', zum anderen einen 'Prozess', denen jeweils zweckrationale Strukturen und Handlungen zugeordnet werden. Instrumentale und funktionale Sicht. Der "instrumentale" Ansatz sieht Organisation als die Gesamtheit aller Regelungen, die sich auf die Verteilung von Aufgaben und Kompetenzen sowie die Abwicklung von Arbeitsprozessen beziehen. Er findet vor allem in der Betriebswirtschaftslehre Anwendung. Prozessuale Sicht. Die "prozessuale" Sicht betrachtet Organisation als Handeln des "Organisierens", d. h. das Verteilen von Aufgaben auf Organisationsmitglieder (Arbeitsteilung) und deren Ausrichtung auf übergeordnete Ziele (Koordination). Karl E. Weick versteht sein Organisationsbild als eine organisationspsychologische Betrachtung, bei der die Organisation eine Gruppe von Leuten bezeichnet, die versuchen, den Vorgängen einen Sinn abzugewinnen, die um sie herum geschehen. Strukturelle Sicht. Zum anderen gibt es ein "strukturelles" Verständnis, das auf das organisierte Gebilde bezogen ist. Unter strukturellem Aspekt ist die Organisation, die in. Jede Organisation ist auch ein System, aber umgekehrt ist nicht jedes System eine Organisation. Die gesellschaftlichen Teilsysteme Wirtschaft, Politik, Wissenschaft beispielsweise bestehen aus Organisationen, Professionen und Institutionen. Institution. Da jede Wissenschaft meist eine spezialisierte Sicht auf die verschiedenen Bedeutungen von Organisation hat, ist es entsprechend schwierig, den Begriff dem der Institution gegenüberzustellen. Teilweise kann man analoge Bedeutungen von Institution finden, zum einen als Regelwerk (z. B. die Institution der Ehe) oder als organisiertes Gebilde (z. B. ein Gerichtshof). Im Unterschied zur Alltagssprache ist in den Sozialwissenschaften der Begriff "Organisation" klar vom Begriff der "Institution" abgegrenzt: Eine Organisation sei ein bewusst geschaffenes, zielgerichtetes Gebilde, das Gründer und auch ein Gründungsdatum hat. Jede Organisation hat Mitglieder. Institution hingegen sei ein „Regelwerk“ von Verhaltensmustern und -normen, das aus dem gesellschaftlichen Zusammenleben der Menschen, das heißt aus Regelmäßigkeiten ihres Verhaltens, gleichsam „naturwüchsig“ hervorgegangen ist (z. B. die Institution des Wettkampfes, der Gastfreundschaft, der Hochzeit, der Bestattung). Für Institutionen gilt generell, dass sie ohne Mitglieder denkbar sind. So lässt sich beispielsweise die Universität einerseits als Organisation und andererseits als Institution beschreiben: Als Organisation ist sie ein soziales Gebilde aus Lehrenden und Lernenden sowie aus Forschern, Verwaltern und anderen Bediensteten, die in einem arbeitsteiligen, planvollen Zusammenspiel miteinander agieren; als Institution ist sie eine gesellschaftliche Einrichtung, die der Vermittlung, Tradierung und Generierung von praktischem und orientierendem Wissen dient. Abweichend von der sozialwissenschaftlichen Distinktion beider Begriffe subsumiert die Neue Institutionenökonomik auch Organisationen unter ihren Institutionsbegriff. Organisationstheorien. Organisationstheorien haben zum Ziel, die Grundelemente und Funktionen von Organisationen, ihre Entstehung und ihren (Fort-)Bestand in dynamischen Umwelten zu verstehen und zu erklären. Es existiert eine Vielzahl verschiedener Organisationstheorien, die der Tatsache gerecht werden wollen, dass Organisationen hochkomplexe Gebilde sind. Allen theoretischen Ansätzen ist der Objektbereich – die Organisationen und ihre Zielsetzungen – gleich, jedoch erfassen sie jeweils nur bestimmte Aspekte des breiten Gegenstandsbereichs. Organisation in der Betriebswirtschaftslehre. Die instrumentelle Sichtweise war jahrzehntelang das vorherrschende Verständnis des Organisationsbegriffes. Mit dem Ziel der auf Spezialisierung beruhenden Strukturierung und Koordination von Personen, Sachmitteln und Informationen zum Zwecke der Erreichung der Unternehmensziele. Es gibt zwei klassische Ausprägungen. Zum einen die "funktionale" Konzeption nach Erich Gutenberg und zum anderen die "konfigurative" Konzeption nach Erich Kosiol. In diesem Zusammenhang kommen auch Elemente wie Formale Organisation und Informale Organisation ins Spiel. Organisationen sind soziale, zeitlich relativ stabile Systeme, die aus Individuen bestehen, welche gemeinsame Ziele verfolgen. Organisation im Fachgebiet Organizational Behaviour. Das interdisziplinäre Fachgebiet ist mit der Analyse menschlichen Verhaltens in Organisationen und mit Möglichkeiten der gezielten Einflussnahme darauf befasst. Dazu werden u. a. soziale Regeln, Prozesse, Funktionen, Strukturen, sowie diverse weitere Kontexte (z. B. Erwartungen, Verhalten oder Sinn) auf ihre verhaltensteuernden Wirkungen hin betrachtet. Marktfähige Organisationen bestehen demnach im Wesentlichen aus der Kommunikation von und über Entscheidungen, wobei jede Einzelentscheidung an vorherige Entscheidungen anknüpft und selbst eine Voraussetzung für Folgeentscheidungen ist. Im Blick auf die wirksamen wechselseitigen Verweisungen der Entscheidungen auf andere Entscheidungen in den Schnittstellen entlang der arbeitsteiligen Wertschöpfungsprozesse ergibt sich ein rekursiver Entscheidungsverbund, dessen Selbstreflexion anhand interner entscheidungsorientierter Kommunikationsprozesse erfolgt. Organisation in der Soziologie. Die Soziologie betrachtet die Organisation als einen genuinen Gegenstand ihres Faches. Talcott Parsons sah in der Organisation. Obwohl Max Weber als einer der ersten Soziologen die bürokratische Organisation ins Zentrum seiner Soziologie gestellt hat, kam erst über den Umweg der amerikanischen Soziologie, die Weber als ersten Organisationssoziologen entdeckt hatte, nach dem Zweiten Weltkrieg die Organisationssoziologie nach Deutschland, exemplarisch dafür sind die Arbeiten von Renate Mayntz, die in den USA studiert hatte. Organisation in der Politikwissenschaft. Eine eigene politologische Organisationslehre ist – trotz der Erforschung von zum Beispiel Parteien – noch nicht durchgesetzt. Doch eröffnen sich mit dem 21. Jahrhundert durch die wachsende Bedeutung der NGO (nichtstaatlichen Organisationen) neue Forschungsfelder. Sie reichen – beispielsweise – vom "Roten Kreuz" bis zu "al-Qaida". Oscar. Der Academy Award, offizieller Name "Academy Award of Merit" (engl. für ‚Verdienstpreis der Akademie‘), besser bekannt unter seinem Spitznamen Oscar, ist ein Filmpreis, der alljährlich von der US-amerikanischen Academy of Motion Picture Arts and Sciences (AMPAS) für die besten Filme des Vorjahres verliehen wird. Wegen der Zulassungsprozedur dominieren die Siegerlisten in der Regel US-Produktionen. Die bisher letzte Verleihung fand am 22. Februar 2015 in Los Angeles statt. Die nächste Verleihung wird voraussichtlich am 28. Februar 2016 stattfinden. Die Auszeichnung wurde am 12. Februar 1929 vom damaligen Präsidenten der MGM Studios, Louis B. Mayer, ins Leben gerufen, acht Jahre nach der Verleihung des Photoplay Awards, der als erster Filmpreis der Welt gilt. Der Oscar wird in einer gemeinsamen Zeremonie in derzeit über 30 verschiedenen Kategorien vergeben; die Preisträger erhalten eine Statuette, die einen Ritter mit einem Schwert auf einer Filmrolle darstellt. Geschichte. Gegen Ende der 1920er Jahre befand sich die US-amerikanische Filmindustrie in einer Krise. Neue Erfindungen – zum Beispiel das Radio – führten dazu, dass die Kinos weniger Besucher verzeichneten. Für die Eigentümer der großen Studios wurde die Situation zunehmend schwieriger. Die Bildung von Gewerkschaften auch in der Filmindustrie führte dazu, dass sie die Arbeiter in ihren Studios angemessen bezahlen mussten, was bis dahin unüblich war. Im Rahmen von Demonstrationen wurden mehr Lohn und die Einführung geregelter Arbeitsverhältnisse gefordert. Eine weitere Schwierigkeit für die Studios bestand durch die Zensur. Der Leiter der damals sehr erfolgreichen und einflussreichen Metro-Goldwyn-Mayer-Studios (MGM), Louis B. Mayer, traf sich mit zwei guten Freunden, um sich mit dem Problem auseinanderzusetzen. Zusammen mit Conrad Nagel und Fred Niblo ersann er eine Institution, die die Kunst des Filmemachens verkörpern und eine zentrale Steuerung der Interessen der Filmschaffenden gewährleisten sollte – eine Akademie schien diese Anforderungen zu erfüllen. Am 11. Januar 1927 wurde ein Galadinner veranstaltet, bei dem sich 33 einflussreiche und namhafte Filmgrößen trafen, um die „Academy of Motion Picture Arts and Sciences“ zu gründen. Unter ihnen befanden sich Berühmtheiten wie Douglas Fairbanks, Mary Pickford, Cecil B. DeMille, die Warner Brothers und andere. Das erste offizielle Bankett der Akademie fand am 11. Mai 1927 statt. In den ersten Akademie-Statuten wurde festgeschrieben, um welche Aufgaben sich die Akademie zu kümmern hatte. Die Einführung des Preises wurde Anfang 1928 beschlossen und ergänzt. Am 16. Mai 1929 wurde der Akademiepreis zum ersten Mal vergeben. Der erste Schauspieler, der mit dem „Academy Award of Merit“ ausgezeichnet wurde, war der deutsche Schauspieler Emil Jannings. Er erhielt ihn in der Kategorie „Bester Hauptdarsteller“ für seine Leistung im Film "Der Weg allen Fleisches" (1927; Regie Victor Fleming); von dem Film sind keine Kopien mehr auffindbar. Die Auszeichnung galt zugleich für Jannings ein Jahr später entstandenen Film "Sein letzter Befehl" (1928; Regie Josef von Sternberg). Der Preis wurde ihm 1929 vorzeitig übergeben, da er auf dem Weg zurück nach Deutschland war; von der Zeremonie existieren keine Bilder. Mit dieser Auszeichnung als bester Hauptdarsteller ist Jannings der bisher einzige deutsche Schauspieler, der in dieser Kategorie gewonnen hat. Die in Düsseldorf geborene Schauspielerin Luise Rainer gewann den Preis als beste Hauptdarstellerin sogar zweimal (1936, 1937). Als erster Österreicher (mit Schweizer Herkunft) konnte 1961 Maximilian Schell für "Das Urteil von Nürnberg" in dieser Kategorie gewinnen. Um das außerhalb der Filmbranche anfänglich geringe Interesse an der Veranstaltung zu erhöhen, gab man die Gewinner nicht mehr vorab bekannt. Seit 1941 werden die Namen der Preisträger in versiegelten Umschlägen verschlossen gehalten; die Gewinner sind bis zur Bekanntgabe in der Veranstaltung nur den beauftragten Notaren der Wirtschaftsprüfungsgesellschaft Price Waterhouse (jetzt PricewaterhouseCoopers) bekannt. Das Interesse in der Öffentlichkeit in der Folge nahm kontinuierlich zu. 1953 wurde die Verleihung erstmals im Fernsehen übertragen. Heute stimmen mehr als 5500 Mitglieder der Akademie in den einzelnen Kategorien ab; die Verleihung wird weltweit übertragen und jährlich von etwa 800 Millionen Menschen verfolgt. Besondere Vorfälle. Bei der Oscarverleihung 1938 wurde die Statuette für die beste Nebendarstellerin vor aller Augen von der Bühne gestohlen. Die Preisträgerin Alice Brady hatte sich den Fuß gebrochen und konnte daher nicht an der Verleihung teilnehmen. Die Auszeichnung wurde von einem Betrüger entgegengenommen, der unerkannt verschwinden konnte und nie ermittelt wurde. Brady wurde später eine Kopie des Preises überreicht. Mehrere Künstler verweigerten die Annahme des Oscars. Als Erster lehnte Dudley Nichols bei der Oscarverleihung 1936 seine Auszeichnung für das beste adaptierte Drehbuch zu "Der Verräter" ab, da er im Streit mit der Filmakademie lag. 1971 verweigerte der Schauspieler George C. Scott die Annahme der Auszeichnung für die Hauptrolle in "Patton – Rebell in Uniform" und protestierte gegen die zunehmende „Fleischbeschau“ in der Filmindustrie. Marlon Brando weigerte sich 1973, den Preis für die Hauptrolle in "Der Pate" entgegenzunehmen, aus Solidarität mit der US-amerikanischen Indianerbewegung, und schickte stattdessen die Indianerin Sacheen Littlefeather zur Veranstaltung. In der von Brando vorbereiteten Rede machte Littlefeather auf die Unterdrückung der Bürgerrechte der Indianer und besonders auf die Protestaktionen des American Indian Movement bei Wounded Knee aufmerksam. Littlefeather konnte aufgrund der begrenzten Redezeit nur ein improvisiertes Statement abgeben; sie verlas den gesamten Text erst hinter der Bühne vor den dort anwesenden Journalisten. Bei der Oscarverleihung 1962 gelang es dem New Yorker Taxifahrer Stan Berman, sich auf die Bühne zu schleichen und einen selbstgemachten „Oscar“ für Moderator Bob Hope zu präsentieren. Berman nannte einen Bezug auf das Jahr 1938, in dem Hope seine erste Rolle in einem abendfüllenden Spielfilm "(The Big Broadcast of 1938)" hatte. Bei der Oscarverleihung 1986 verstarb die Schauspielerin Sarah Cunningham während der Show in der Lobby an einen Asthma-Anfall. Bedingt durch die große Resonanz der Oscarverleihung war die Veranstaltung gelegentlich auch ein Podium für öffentlichkeitswirksame Auftritte mit politischem Anliegen. Bei der Oscarverleihung 1974 rannte der Flitzer Robert Opel nackt über die Bühne und zeigte dabei das Friedenszeichen, als David Niven gerade eine Rede für die Schauspielerin Elizabeth Taylor hielt. Michael Moore nutzte seine Dankesrede zu seinem Oscar für "Bowling for Columbine" 2003, um US-Präsident George W. Bush wegen des amerikanisch-britischen Kriegs gegen das irakische Regime von Saddam Hussein scharf anzugreifen („Shame on you Mr. Bush!“). Die Rede wurde kurz nach Beginn ausgeblendet. Im selben Jahr blieb der Rapper Eminem der Show fern, da er sich weigerte, mit einer „entschärften“ Version seines Gewinnersongs „Lose Yourself“ aus dem Film "8 Mile" aufzutreten. Bei der Oscarverleihung 2010 kam es zu einem kleinen Eklat, als "Music by Prudence" als bester Dokumentar-Kurzfilm ausgezeichnet wurde. Gerade als Regisseur Roger Ross Williams zu seiner Dankesrede ansetzte, stürmte Elinor Burkett auf die Bühne und unterbrach die Rede. Die ursprüngliche Idee zum Film stammte von ihr, sie war jedoch aufgrund von Differenzen bereits im Jahr zuvor von ihren Aufgaben bei dem Projekt entbunden worden. Der Name. Obwohl bis heute immer wieder betont wird, "Oscar" sei nicht die offizielle Bezeichnung, ist auch dieser Name seit 1979 markenrechtlich geschützt. Die Trophäe. Der begehrte Filmpreis ist 34,29 cm groß und besteht aus einem massiven Nickel-Kupfer-Silber-Körper (Britanniametall), der für ein Gewicht von 3,856 kg sorgt. Überzogen ist er mit einer 24-karätigen dünnen Goldhaut. Lediglich in Kriegszeiten wurde auf das Gold verzichtet. Der Materialwert einer Statue beträgt etwa 300 US-Dollar. Die Akademie lässt die Oscars seit 1983 bei der R. S. Owen Company in Chicago fertigen. In den Sockel der Statue werden erst nach der Verleihung die Namen des Preisträgers, die dazugehörige Oscar-Kategorie und der Titel des Films eingraviert. Der Entwurf zu der Statuette stammt vom Art Director der Metro-Goldwyn-Mayer (MGM), Cedric Gibbons. Die Gründer der "Academy of Motion Picture Arts and Sciences" beauftragten Conrad Nagel mit der Gestaltung des Filmpreises. Mit einem Budget von 500 Dollar machte sich Nagel über das Aussehen und die Art des Preises Gedanken. Eine schlichte Urkunde wurde für nicht ausreichend befunden. Die Idee kam auf, den Preis durch eine Statuette zu symbolisieren. Nagel beauftragte Gibbons, einen Entwurf für eine Statuette anzufertigen, die dem Filmpreis eine würdige Form verleihen sollte. Gibbons entwarf daraufhin die berühmt gewordene Figur eines goldenen Schwertträgers, der auf einer Filmrolle steht. Seit 1950 müssen sich die Gewinner verpflichten, dass weder sie noch ihre Erben die Oscars verkaufen, ohne sie zunächst der Academy für einen US-Dollar anzubieten. Verweigert ein Gewinner dies, behält die Academy die Trophäe. Der versuchte Verkauf des Oscars von Michael Todd durch seinen Enkel wurde von der Academy 1989 nach einem Rechtsstreit unterbunden. Mehrere vor Einführung der Bestimmung verliehene Oscars wurden jedoch in Auktionen für sechsstellige Summen verkauft. Im Dezember 2011 wurde Orson Welles’ Oscar für "Citizen Kane" (1941) von seinen Erben in einer Auktion angeboten. Die Erben hatten ihn bereits 2003 verkaufen wollen, was zu einem Rechtsstreit mit der Academy geführt hatte. Die Erben gewannen den Prozess, da Welles 1941 keine entsprechende Erklärung unterzeichnet hatte. Am 20. Dezember 2011 wurde der Oscar für 861.542 US-Dollar an einen anonymen Bieter verkauft. Veranstaltungsorte. Die Fernseh-Liveübertragung der Oscar-Nominierungen erfolgt aus dem Samuel Goldwyn Theater im 1975 errichteten Hauptgebäude der AMPAS. Kategorien. Die Akademie stellt für jede Oscarverleihung neue Regeln auf und behält sich die Einführung neuer Kategorien bzw. die Abschaffung existierender Kategorien vor. Vorauswahl – Bestimmung der Nominierten. Jeder Spielfilm, der zwischen dem 1. Januar und dem 31. Dezember eines Jahres im Gebiet von Los Angeles County erstmals mindestens sieben Tage lang in einem öffentlichen Kino gegen Entgelt gezeigt wurde, ist für die Oscars im darauffolgenden Jahr qualifiziert. Dabei wird der Begriff „Spielfilm“ definiert als ein Film, der Dabei ist es unerheblich, ob der Film US-amerikanischen oder ausländischen Ursprungs ist, sodass sich auch ausländische Filme außerhalb der Kategorie für den besten fremdsprachigen Film qualifizieren können. Am Ende jedes Jahres stellt die Akademie eine Liste der infrage kommenden Filme zusammen. In der Vorauswahlphase wählen die Akademiemitglieder ihre zehn persönlichen Favoriten in der Kategorie „Bester Film“; dabei sind alle Mitglieder stimmberechtigt. Zusätzlich schlägt jedes Mitglied fünf Filme bzw. Personen seines Akademiezweigs zur Nominierung vor, d. h. Regisseure wählen Regisseure, Schauspieler wählen Schauspieler usw. Die zehn Filme mit den meisten Stimmen für den besten Film bzw. die fünf Vorschläge mit den meisten Stimmen in jeder Einzelkategorie werden dann von der Akademie offiziell als Nominierte verkündet. Wahl der Preisträger aus den Nominierten. In der zweiten Wahlphase haben die Mitglieder der Akademie nun die Möglichkeit, sich im akademieeigenen Filmtheater alle nominierten Filme kostenlos anzusehen. Zudem werden besondere DVDs mit den Filmen versandt. Diese Praxis wird von der Akademie allerdings kritisch gesehen, da 2003 Kopien dieser DVDs in Internettauschbörsen aufgetaucht waren. Bei der Wahl der Preisträger aus den Nominierten sind alle Mitglieder in allen Kategorien stimmberechtigt. Die Stimmzettel, die spätestens eine Woche vor der Verleihung bei der Akademie eingegangen sein müssen, werden von drei vereidigten Notaren der Wirtschaftsprüfungsgesellschaft PricewaterhouseCoopers ausgezählt. Der Oscar wird an denjenigen Nominierten verliehen, der die meisten Stimmen auf sich vereinen konnte. In dem Fall, dass zwei Nominierte die gleiche Stimmenanzahl erhalten, wird der Oscar an beide verliehen. Die erfolgreichsten Filme. Lange Zeit war der Film "Vom Winde verweht" aus dem Jahr 1939 mit zehn Oscars der zahlenmäßig erfolgreichste Film in der Oscar-Geschichte; er wurde erst 1960 von "Ben Hur" mit elf Trophäen abgelöst. Mit Ben Hur wiederum konnte erst im Jahr 1998 "Titanic" mit ebenfalls elf Auszeichnungen gleichziehen. Nur sechs Jahre sollte es dauern, bis sich mit ' ein weiterer Film mit elf Oscars in diese Riege einreihte. Letzterer war gleichzeitig einer der wenigen Filme, die in allen nominierten Kategorien auch gewonnen haben. Insgesamt ist die "Herr-der-Ringe"-Trilogie die erfolgreichste Filmserie mit 17 Auszeichnungen bei 30 Nominierungen. Die fünf Sparten "bester Film", "beste Regie", "bester Hauptdarsteller", "beste Hauptdarstellerin" sowie die Drehbuchsparten ("bestes Originaldrehbuch" bzw. "bestes Drehbuch nach einer Vorlage") gelten als die wichtigsten Oscar-Kategorien und werden auch als die "Big Five" bezeichnet. Bislang sind erst drei Filme in jeder dieser Kategorien ausgezeichnet worden: "Es geschah in einer Nacht" (1934), "Einer flog über das Kuckucksnest" (1975) und "Das Schweigen der Lämmer" (1991). "Alles über Eva" (1950) und "Titanic" (1997) teilen sich den Nominierungsrekord mit 14 Nominierungen, gefolgt von "Vom Winde verweht", "Verdammt in alle Ewigkeit", "Mary Poppins", "Wer hat Angst vor Virginia Woolf?", "Forrest Gump", "Shakespeare in Love", ', "Chicago" und "Der seltsame Fall des Benjamin Button" mit je 13 Nominierungen. Die erfolgreichsten Filmschaffenden. Bisher am häufigsten mit Darsteller-Auszeichnungen geehrt wurde die US-Amerikanerin Katharine Hepburn (1907–2003), die zwischen 1934 und 1982 viermal als beste Hauptdarstellerin honoriert wurde. Ihre Landsfrau Meryl Streep kann die meisten Darsteller-Nominierungen (19) auf sich vereinen. Bei den Männern errangen Jack Nicholson, Daniel Day-Lewis und Walter Brennan (1894–1974) je drei Academy Awards. Nicholson hält gleichzeitig den Nominierungsrekord bei den männlichen Darstellern (12 Nominierungen). Die am häufigsten ausgezeichnete Person ist Walt Disney (1901–1966) mit 26 Oscars (inkl. 4 Ehrenoscars) und 37 weiteren Nominierungen. Zudem gewann er 1954 mit 4 Auszeichnungen die meisten Oscars in einem Jahr. Die am häufigsten ausgezeichnete Frau ist die Kostümbildnerin Edith Head (1897–1981) mit 8 Oscars und 27 weiteren Nominierungen. Die am häufigsten ausgezeichneten noch lebenden Filmschaffenden sind der Komponist Alan Menken (8 reguläre Preise, vor allem für "Aladdin" und "Pocahontas") und Dennis Muren, der für seine Visual Effects u. a. für "Star Wars Episode V – Das Imperium schlägt zurück", "E.T. – Der Außerirdische" und "Indiana Jones und der Tempel des Todes" insgesamt 8 Oscars (inkl. 3 Sonderpreisen; 15 Nominierungen) erhielt. Mit sieben Auszeichnungen bei 13 Nominierungen sind die Zeichentrickfiguren Tom und Jerry die am häufigsten ausgezeichneten Trickfilmstars in der Geschichte der Oscars (siehe: Bester animierter Kurzfilm). Recht erfolgreich waren auch die beiden Schauspielerinnen Greer Garson (1904–1996) und Bette Davis (1908–1989), die als bislang einzige fünf Jahre nacheinander für den Oscar nominiert wurden. Moderation. In den Anfangsjahren wurde die Verleihungszeremonie häufig vom jeweiligen Präsidenten der Akademie moderiert. Ende der 1950er Jahre gab es erstmals eine ganze Riege gleichberechtigter Moderatoren für eine Verleihung. Dies wurde in den 1970er Jahren nochmals aufgegriffen. Seit Ende der 1970er Jahre führt zumeist jeweils ein Moderator durch das Programm. Unterstützt wird er dabei von zahlreichen Laudatoren. In den Darstellerkategorien sind dies im Regelfall die Gewinner des Vorjahres jeweils beim anderen Geschlecht. Der bislang häufigste "Oscar"-Moderator ist der Entertainer Bob Hope, er moderierte die Veranstaltung siebzehn Mal. Billy Crystal wurde für seine Moderationen in den 1990er Jahren mehrfach mit dem Fernsehpreis Emmy ausgezeichnet. 2012 sprang er kurzfristig ein und moderierte die Oscars. Auch die Moderationen von David Niven wurden legendär. In der langen Geschichte der Verleihung gab es bis heute lediglich zwei weibliche Moderatoren, die alleine durch die Show führen durften: Whoopi Goldberg (viermal seit 1994) und Ellen DeGeneres (2007 und 2014). Die 80. Oscar-Verleihung im Jahr 2008 wurde vom US-amerikanischen Entertainer Jon Stewart moderiert, der bereits 2006 durch den Abend geführt hatte. 2009 war Hugh Jackman Gastgeber. 2010 standen Alec Baldwin und Steve Martin auf der Bühne. Auch für 2011 wurden mit James Franco und Anne Hathaway zwei Moderatoren bestimmt. 2013 wagte sich Seth MacFarlane an die Moderation der Show. 2015 moderierte Neil Patrick Harris die Oscars. Oscar/Bester Film. Mit dem Oscar für den besten Film werden die Produzenten eines Films ausgezeichnet. In der Regel können drei Personen als Produzenten eines Films nominiert werden. Seit der 80. Verleihung des Oscars können unter bestimmten Umständen mehr als drei Personen als Produzenten nominiert werden. Bis 1936 gingen die Auszeichnungen an die Produktionsgesellschaft. Die Anzahl der nominierten Filme wurde erstmals zur Oscarverleihung 2010 von fünf auf zehn erhöht, um Fantasy- oder Animationsfilmen wie "Oben" eine Nominierung in dieser Kategorie zu ermöglichen. Nach zweimaliger Durchführung wurde zur Oscarverleihung 2012 entschieden, dass künftig zwischen fünf und zehn Filme nominiert werden. Nominiert werden Filme, die mindestens fünf Prozent der Stimmen des bei der Vorauswahl beliebtesten Films erhalten haben. "Filme qualifizieren sich jeweils im Folgejahr ihrer Veröffentlichung für einen Oscar. In unten stehender Tabelle sind die Preisträger nach dem Jahr der Verleihung geordnet." Oscar/Beste Regie. Mit dem Oscar für die Beste Regie werden die Leistungen der Regisseure eines Films geehrt. "Filme qualifizieren sich jeweils im Folgejahr ihrer Veröffentlichung für einen Oscar. In unten stehender Tabelle sind die Preisträger nach dem Jahr der Verleihung geordnet." Oscar/Bester Hauptdarsteller. Mit dem Oscar für den besten Hauptdarsteller werden die Leistungen der Hauptdarsteller eines Films geehrt. "Filme qualifizieren sich jeweils im Folgejahr ihrer Veröffentlichung für einen Oscar. Titanic, veröffentlicht "1997," konnte also für die Oscarverleihung "1998" nominiert werden. In unten stehender Tabelle sind die Preisträger nach dem Jahr der Verleihung geordnet." Oscar/Beste Hauptdarstellerin. Mit dem Oscar als beste Hauptdarstellerin wird die Leistung einer Filmschauspielerin in einer Hauptrolle gewürdigt. Statistik. "In der Klammer steht die Gesamtzahl der erhaltenen Nominierungen in dieser Kategorie. Filme qualifizieren sich jeweils im Folgejahr ihrer Veröffentlichung für einen Oscar. In unten stehender Tabelle sind die Preisträger nach dem Jahr der Verleihung geordnet." Oscar/Bester fremdsprachiger Film. Eine Chronologie der Oscars für den besten fremdsprachigen Film "(Best Foreign Language Film of the Year)". Von 1948 bis 1956 wurde dieser Oscar als "Spezialpreis" beziehungsweise "Ehrenoscar" verliehen, erst ab 1957 wurde der Preisträger durch die Mitglieder der Academy aus einer Auswahl von fünf nominierten Filmen analog zu den anderen Kategorien gewählt. Der Oscar für den besten fremdsprachigen Film zeichnet seit seiner Entstehung keine bestimmte Person aus, sondern geht an den zu ehrenden Film. Der Regisseur gewinnt persönlich keinen Oscar, nimmt diesen aber stellvertretend während der Preisverleihung in Empfang. Die Wahl des deutschen Oscar-Films wird von der German Films Service + Marketing GmbH (vormals Export-Union des Deutschen Films) organisiert, die verschiedene Berufsverbände (Regisseure, Produzenten, Filmkritiker etc.) und Institutionen (z. B die Deutsche Filmakademie) dazu aufruft, Vertreter für eine neunköpfige Jury zu benennen, welche letztlich den Oscarbeitrag bestimmt. In Österreich wird eine Jury vom Fachverband der Film- und Musikindustrie zur Auswahl eines Oscarkandidaten eingesetzt, in der Schweiz übernimmt eine Expertengruppe im Auftrag des Bundesamts für Kultur diese Aufgabe. Nach der Nicht-Berücksichtigung des hochgelobten rumänischen Dramas "4 Monate, 3 Wochen, 2 Tage" gab die Academy of Motion Picture Arts and Sciences (AMPAS) am 19. Juni 2008 eine Änderung ihrer Auswahlrichtlinien bekannt. So werden nur noch sechs der neun ausländischen Produktionen von einem aus AMPAS-Mitgliedern bestehenden Freiwilligen-Komitee ausgewählt, die nur ein Minimum der eingereichten Beiträge sehen müssen. Die übrigen drei Bewerber werden von einem zwanzig Mitglieder zählenden Gremium für fremdsprachige Filme, dem "Foreign Language Film Award Executive Committee" ausgewählt. Die Filme sind nach dem Jahr der Verleihung aufgeführt. "Tiger and Dragon" hat also 2001 den Oscar bekommen, erschien aber im Jahr 2000. Siehe auch. Liste der erfolgreichsten Nationen des Oscars für den besten fremdsprachigen Film Liste der deutschen Vorschläge für die Oscar-Nominierung in der Kategorie bester fremdsprachiger Film Oscar/Bester Nebendarsteller. Mit dem Oscar für den besten Nebendarsteller werden die Leistungen von Schauspielern in Nebenrollen gewürdigt. "In unten stehender Tabelle sind die Filme nach dem Jahr der Verleihung gelistet." Oscar/Beste Nebendarstellerin. Mit dem Oscar für die beste Nebendarstellerin werden die Leistungen von Schauspielerinnen in Nebenrollen gewürdigt. Bemerkenswertes. Beatrice Straight gewann den Oscar für die beste Nebendarstellerin für ihre Rolle in Network, bei der sie fünf Minuten und zwei Sekunden auf der Leinwand zu sehen ist. Damit hat sie mit dem kürzesten Auftritt einen Oscar gewonnen. Sie wird dabei dicht gefolgt von Judi Dench, die für ihre Darstellung der Königin Elisabeth der Ersten von England im Film Shakespeare in Love ca. acht Minuten auf der Leinwand zu sehen war. "In unten stehender Tabelle sind die Filme nach dem Jahr der Verleihung gelistet." Oscar/Bester Schnitt. Mit dem Oscar für den besten Schnitt werden die Cutter eines Films geehrt. Der Preis wird in dieser Kategorie seit 1935 verliehen. "In unten stehender Tabelle sind die Preisträger nach dem Jahr der Verleihung gelistet." Oscar/Beste Kamera. Mit dem Oscar für die beste Kamera werden die Kameraleute eines Films geehrt. Von 1940 bis 1967 (außer 1958) wurden die Oscars für Schwarzweiß- und Farbfilm getrennt vergeben, es gab also zwei Oscars für die beste Kameraführung. "In unten stehender Tabelle sind die Preisträger nach dem Jahr der Verleihung gelistet." Orakel. Das Orakel (lat. "oraculum", „Götterspruch, Sprechstätte“ zu "orare", "sprechen, beten") bezeichnet eine mit Hilfe eines Rituals oder eines Mediums gewonnene transzendente Offenbarung, die der Beantwortung von Zukunfts- oder Entscheidungsfragen dient. Die mittels des Orakels gewonnenen Hinweise und Zeichen können dem Fragenden als Rechtfertigungsgrund eigener Entscheidungen und Handlungen dienen. Im Unterschied zum Hellsehen, das als individuelle Fähigkeit einer leibhaftigen Person angesehen wird, befragt das Orakel stets eine höhere Instanz. Durch die Erwartung der Beantwortung einer Frage ähnelt das Orakel entfernt der Prophetie, welche meist, aber nicht immer ungebeten zuteil wird. Im erweiterten Sinn wird auch der Ort an dem das Orakel gegeben wurde, als solches bezeichnet. Orakelstätten können Heiligtümer wie beispielsweise Tempel sein. Bekanntestes Beispiel ist das Orakel von Delphi. Antike. Als eine Praxis von Vorhersagen hatten Orakel von je her eine hohe gesellschaftliche Akzeptanz. In vorchristlicher Zeit, insbesondere in der Antike, galten Orakel als die dominante Form der Vorausschau. Die Geschichte der Orakel war in der Antike von Beginn an eng mit politischen Entscheidungen und militärischen Operationen verbunden. Auch wenn das Orakel bereits in seiner Hochzeit umstritten war, wurde ihm seinerzeit sowohl von Befürwortern als auch Gegnern eine hohe Bedeutung beigemessen. Das Orakel als etablierte Praxis des Voraussagens wurde später von Prophezeiungen, Utopien und Prognosen abgelöst. Es verschwand dabei nicht, verlor jedoch seine gesellschaftliche und politische Relevanz. Bereits im antiken Griechenland gab es Orakel, von denen das Orakel von Delphi das bekannteste ist. Weitere bedeutende antike Orakelstätten waren Ephyra, Olympia, Dodona, Klaros, Didyma und das "Ammonium" in der Oase Siwa (siehe auch Fischorakel des Apollon im lykischen Sura, Fischorakel im karischen Labraunda). Sie verloren seit dem 4. Jahrhundert v. Chr. bis zum 4. Jahrhundert n. Chr. an Bedeutung. Im weiteren Sinne ist auch die Sibylle von Cumae zu den Orakeln zu rechnen (siehe auch Astragalorakel). Ebenso hat es im Alten Ägypten seit jeher Orakel gegeben. Seit dem Neuen Reich wurden Orakel auch zu wichtigen juristischen Entscheidungen herangezogen. Stark beeinflusst von der Religion der Etrusker versuchten die Römer in einem Staatskult die Pontifices und Flamines die Zukunft aus himmlischen Zeichen (Blitz und Donner) oder dem Vogelflug zu ergründen. Die Haruspices erstellten Orakel, indem sie in den Eingeweiden der Opfertiere lasen (sogenannte Leberschau). Letzteres ging auf etruskische Traditionen zurück. Im alten Israel gab es die "Urim und Thummim:" Los- und Orakel-Steine des Hohenpriesters der Israeliten. China und Tibet. In China waren insbesondere Orakel mit im Feuer erhitzten Tierknochen sowie mit Schafgarbenstängeln gebräuchlich. Vgl. hierzu Chinesisches Orakel. Im Rahmen des tibetischen Kulturkreises findet man Orakel sowohl im Bön, der vorbuddhistischen Religion Tibets, als auch in einigen Schulen des tibetischen Buddhismus. Das erste Mal, dass im tibetischen Buddhismus eine weltliche Gottheit mit dem Körper eines Menschen vereinigt wurde, der als physisches Medium funktionierte, war im 8. Jahrhundert. Eines Tages vereinigte Padmasambhava vor dem König und seinen Ministern einen der vier großen Könige (die Beschützer der vier Richtungen, die oft an den Türen von tibetischen Tempeln dargestellt sind) mit dem Körper eines jungen Mannes. Indem er den Körper des Jungen als Medium benutzte, konnte die hellsehende Gottheit die Geister identifizieren, die Schwierigkeiten machten. Die Gottheit erklärte, dass der Geist Thangla für den Blitzschlag auf dem Marpori (dem roten Hügel, der später Sitz des Potala-Palastes wurde) verantwortlich war, und dass der Geist Yarla Shempo die Flut ausgelöst hatte, die den Phangthang-Palast wegschwemmte. Durch das Medium gab die Gottheit Vorhersagen und Ratschläge ab. In der Folge wurden auch andere Schutzgottheiten als Orakel zu Dienste gezogen. In der buddhistischen Gelug-Schule ist insbesondere das "Nechung-Orakel" bekannt. Die buddhistische Schutzgottheit Pekar, der ehemalige Schutzgeist des Klosters Samye (errichtet um 775), bedient sich, nach der Überlieferung, seit mehr als vier Jahrhunderten regelmäßig eines Mönchs als Medium, um zukünftige Geschehnisse vorherzusagen und um die tibetische Regierung durch Ratschläge zu leiten. Der als Medium dienende Mönch hat daher größtes Ansehen im Gelug-Orden. Aufgrund seiner häufigen, sehr kräftezehrenden Orakel-Trancen, hat er aber in aller Regel nur eine geringe Lebenserwartung. Das "Nechung-Orakel" ist heutzutage noch immer wichtigstes Staatsorakel der tibetischen Exilregierung und des Dalai Lama. Es gibt mindestens ein weiteres Orakel, das einen gewissen Bekanntheitsgrad genießt, das Orakel von Dorje Shugden. Abhängig von dem zu Rate gezogenen Orakel können die erhaltenen Prophezeiungen differieren. Das tibetische Wort für Orakel ist "Mo". Europa. Daneben gibt es auch sogenannte Orakel- oder Wahrsagekarten, die zum selben Zweck eingesetzt werden. Zu den bekanntesten gehören die Tarot-Karten, die in einer Vielzahl verschiedener Ausführungen gebräuchlich sind. Aus der germanischen Kultur sind Runen bekannte Vertreter. Hans Magnus Enzensberger bezeichnete 1965 das Institut für Demoskopie Allensbach kritisch als "Orakel vom Bodensee", da er eine „strukturelle Ähnlichkeit mit den mantischen Praktiken der Alten Welt“ sah. „Demoskopische Befragungen werden im Allgemeinen in Auftrag gegeben: Der Unwissende bringt den Priestern von Allensbach seine Opfergaben dar und stellt seine Fragen. Die Pythia antwortet nicht auf eigene Faust, sie gibt die Fragen an eine höhere Instanz weiter, an die Stimme Gottes, die im Jargon der Demoskopen „repräsentativer Querschnitt“ heißt.“ Orakel (engl. pl. "oracles") wird im englischen Sprachraum auch manchmal für die Heilige Schrift (Bibel = "Wahrsprüche des Herrn") verwendet und in der Terminologie der Church of Jesus Christ of Latter Saints (Mormonen) werden neuzeitliche, lebende Propheten als "living oracles" ("lebende Wahrsprüche"[des Herrn]) bezeichnet. Im Rahmen der Fußball-Weltmeisterschaft 2010 erlangte der Krake Paul aus dem Oberhausener Sea Life Centre internationale Berühmtheit, weil er alle Sieger bei Beteiligung der Deutschen Fußballnationalmannschaft und den Sieger des Endspiels der WM 2010 korrekt „vorhersagte“. Orson Welles. George Orson Welles (* 6. Mai 1915 in Kenosha, Wisconsin; † 10. Oktober 1985 in Los Angeles, Kalifornien) war ein US-amerikanischer Filmregisseur, Schauspieler und Autor. Obwohl viele seiner Projekte nie verwirklicht wurden, gilt er als einer der künstlerisch einflussreichsten Regisseure des Hollywood-Kinos. Sein erster Kinofilm, Citizen Kane, wird oft als das bedeutendste Werk der Filmgeschichte bezeichnet; in später entstandenen Filmen wurde er mehrfach zitiert. Eine von einer internationalen Reihe von Regisseuren für das britische Filmmagazin Sight & Sound entstandene Filmliste wählte Welles gar zum besten Regisseur aller Zeiten. Jugend. Orson Welles war der zweite Sohn streng katholischer Eltern, Richard Head Welles, eines wohlhabenden Geschäftsmannes, und Beatrice Ives, einer Konzertpianistin und Suffragette. Bereits als Kind soll Orson Welles von dem Arzt Dr. Maurice Bernstein eine Begabung zum Wunderkind bescheinigt worden sein. Seine Mutter machte ihn frühzeitig mit Werken von William Shakespeare sowie dem Klavier-und Violinspiel und dem Vaudeville bekannt. Als er sechs Jahre alt war, trennten sich seine Eltern. Die Mutter zog mit den Kindern nach Chicago. Dort kam der Junge zum ersten Mal mit der Opern- und Theaterszene in Kontakt. Beatrice Welles verstarb bereits früh an einer Gelbsuchterkrankung. Dudley Crafts Watson, ein Arbeitskollege seiner Mutter am Art Institute of Chicago, nahm ihn daraufhin in seiner Familie auf. Als der Vater starb – Welles war zu diesem Zeitpunkt fünfzehn Jahre alt – wurde Maurice Bernstein, ein Arzt aus Chicago, sein Vormund. Schaffen. Welles durchlebte alle Medienformen des 20. Jahrhunderts. Seine Karriere begann am Theater. In den 1930er Jahren wurden soziale Projekte von der Regierung unterstützt und Welles inszenierte in New York Shakespeare. Seine Inszenierung von Julius Caesar, die das Drama modernisierte, zahlreiche aktuelle Bezüge herstellte und das Publikum in die Aufführung mit einband, gilt als richtungsweisende Shakespeare-Interpretation auf US-amerikanischem Boden. Als ebenso legendär gilt sein „Voodoo-Macbeth”. Weit über die Grenzen von New York hinaus wurde er durch seine Arbeit fürs Radio bekannt. Er sprach die Titelfigur in der Hörspielreihe The Shadow und produzierte mit seiner Theatertruppe Literaturklassiker, den Auftakt des "Mercury Theater on the Air" bildete am 11. Juli 1938 "Dracula". Es ranken sich zahlreiche Anekdoten um sein Problem, gleichzeitig für das Theater und das Radio zu arbeiten. Landesweite Bekanntheit erlangte er durch das Hörspiel "War of the Worlds" nach der Vorlage des Science-Fiction-Romans "Der Krieg der Welten" von H. G. Wells, das 1938 am Vorabend von Halloween ausgestrahlt wurde. Diese fiktive Reportage soll bei ihrer Erstausstrahlung am 30. Oktober 1938 an der Ostküste der USA eine Massenpanik ausgelöst haben – ob dies tatsächlich der Fall war, ist zweifelhaft. Einiges spricht dafür, dass diese bis heute oft kolportierte Darstellung eine Erfindung der Boulevardpresse war. Das „Wunderkind” wurde von der Produktionsfirma RKO nach Hollywood gelockt, was das gleichzeitige Arbeiten für Film- und Radioproduktionen verkomplizierte. Als bisher einziger Autor/Regisseur erhielt Welles von seinem Filmstudio eine komplette „Carte blanche”. Dadurch war er in der Lage, einen Film seiner Wahl vollständig nach seinen eigenen Vorstellungen zu drehen. Die Idee, Joseph Conrads "Herz der Finsternis" zu verfilmen, erwies sich jedoch als undurchführbar. Schließlich diente ihm das Leben des Medienzaren William Randolph Hearst als Vorlage für die Biographie des „Amerikaners” (wie der Film ursprünglich heißen sollte). Welles war an allen kreativen Arbeitsvorgängen des Films maßgeblich beteiligt. Er schrieb am Drehbuch mit, führte Regie, spielte die Hauptrolle und leitete die Produktion, wodurch er zu einem Idol für jeden Filmemacher avancierte, der nach ihm kommen sollte. Obwohl von Kritikern gelobt und bis heute verehrt, blieb "Citizen Kane" der große Erfolg verwehrt, was zum Teil auf Hearsts Kampagne gegen den Film zurückgeführt wird. "Citizen Kane" besticht noch heute durch seine multiperspektivische Erzählweise, seine theatrale Optik und die Finessen des Soundtracks – Welles kombinierte hier alle Medienformen in übergreifender Weise. Seine späteren Filme, die Welles alle mit großen Ambitionen anging – wobei er aber häufig in Produktionswirren verstrickt wurde und auch dabei strandete – , reichten alle nicht mehr an die inhaltliche Kraft und die Opulenz von "Citizen Kane" heran. "Der Glanz des Hauses Amberson", gleich im Anschluss daran gedreht, ist nicht mehr in der vollständigen Fassung erhalten. Es werden zahlreiche Erklärungen angeführt für die Veränderungen durch das Studio und Welles’ Abwesenheit während der Nachproduktion. Nicht nur aufgrund seiner Ehe (1944–1948) mit Rita Hayworth war sein Name häufig in der Boulevardpresse zu finden. Kurzzeitig war Welles auch politisch engagiert. 1948 verließ er Hollywood in Richtung Europa, wo er 1949 Erfolg hatte in der Rolle des Harry Lime in dem Film "Der dritte Mann" nach einer Erzählung von Graham Greene, der mit Carol Reed zusammen das Drehbuch schrieb. Auch eine darauf basierende Hörspielserie war kommerziell erfolgreich. Die anschließenden Jahrzehnte waren geprägt von Misserfolgen und Rückschlägen. Filme wie "Herr Satan persönlich" und "Im Zeichen des Bösen" wurden zwar von manchem Kritiker gelobt, fanden aber kaum Zuspruch beim Publikum. Oft wurden sie von den Produzenten ohne Welles’ Zustimmung in veränderten und verschnittenen Versionen herausgebracht und büßten so seine originäre Handschrift ein. Enttäuscht versuchte Welles nun, seine Projekte aus eigener Hand zu finanzieren und zu realisieren. Um sich das nötige Geld zu beschaffen, wirkte er als Schauspieler unter der Regie von Kollegen in über 100 Filmen mit, darunter auch Werbespots und die Synchronisation von Zeichentrickserien, was seinem öffentlichen Ansehen als Filmkünstler nicht gerade zuträglich war. Als einer der ersten Kinoregisseure begeisterte sich Welles für das Medium Fernsehen und suchte auch dort nach kreativen Betätigungsmöglichkeiten. Daneben schrieb er unter Pseudonym einige Trivialromane und Drehbücher. Nach seiner Rückkehr in die USA konnte er, auch durch Auftritte in Talkshows, seinen Mythos am Leben halten. Für größere Aufmerksamkeit sorgte Welles noch einmal 1975 mit dem verschachtelten Film-Essay "Vérités et mensonges" "(F for Fake/F wie Fälschung)," in dem der umstrittene Kunstfälscher Elmyr de Hory sowie der nicht minder umstrittene Schriftsteller Clifford Irving, der sowohl eine gefälschte Biografie über den Milliardär Howard Hughes als auch eine vermeintlich echte, zumindest autorisierte Biografie über de Hory geschrieben hatte, porträtiert wurden. Der Film nimmt es mit der Wahrheit selbst nicht so genau, was wesentlich in seiner Konzeption begründet ist und ganz in Welles' Absicht lag. In diesem Film trat auch die kroatisch-französische Schauspielerin Oja Kodar auf. Sie wurde in Welles′ letzten Lebensjahren zur vertrautesten Gefährtin und engsten Mitarbeiterin. Kodar arbeitete unter anderem am Drehbuch von "The Other Side of the Wind" mit. Einen letzten Filmauftritt hatte Welles 1983 an der Seite von Tony Curtis in "Where Is Parzifal?" Die letzte Produktion, an der sich Welles beteiligte, war der Zeichentrickfilm "Transformers – Der Kampf um Cybertron", in dem er die Rolle des Unicron sprach. Die Veröffentlichung des Films im Jahr 1986 erlebte er nicht mehr. Welles, der über längere Zeit an Fettleibigkeit litt, starb am 10. Oktober 1985 in seinem Haus in Kalifornien an Herzversagen. Seine letzte Ruhestätte befindet sich in der südandalusischen Stadt Ronda, wo seine Asche in einem blumengeschmückten Brunnen auf dem Landgut eines langjährigen Freundes, des früheren Stierkämpfers Antonio Ordóñez (1932–1998), beigesetzt wurde. Synchronisation. Für die deutsche Synchronisation der englischsprachigen Filme gab es für Orson Welles keinen zuständigen Synchronsprecher. Mehrere bekannte deutsche Synchronsprecher waren engagiert, darunter Hans Nielsen, Fritz Tillmann, Martin Hirthe, Peter Pasetti und Walther Süssenguth. Da zur Zeit der Welles-Filme noch keine "Score"-Bänder erstellt wurden, die Hintergrundgeräusche und Musik ohne das Gesprochene enthalten, wurden für die deutschen Synchronisationen völlig neue Tonspuren erstellt. Dabei ignorierten die Toningenieure systematisch alle akustischen Besonderheiten der Welles-Filme, so dass in den deutschen Fassungen gerade das bei Welles besondere geschätzte Zusammenwirken oder auch die gegenläufige Verwendung von Bild und Ton und damit ein wesentlicher Teil der Atmosphäre verloren ging. Politische Einordnung. Welles bezog in seinen Filmen, besonders während der Großen Wirtschaftskrise der 1930er Jahre, wie viele andere Künstler der Popular Front auch zu sozialen Themen Stellung. Er unterstützte den Wahlkampf von Franklin D. Roosevelt, mit dem er freundschaftlich verbunden war. Welles stand wegen seiner politisch linksgerichteten Aktivitäten und Ansichten und auch wegen seiner Kontakte zu Mitgliedern der Kommunistischen Partei später auf der berüchtigten Schwarzen Liste des republikanischen Senators Joseph McCarthy. Nachlass. Seinen filmischen Nachlass vermachte Welles Oja Kodar. Seit Anfang der 1990er Jahre widmet sie sich dem Erhalt seines Werks, um es der Öffentlichkeit zugänglich zu machen. 1994 entstand mit ihrer Unterstützung die Dokumentation "Orson Welles: The One-Man Band" (etwa: "Das Ein-Mann-Orchester", eine Anspielung auf Welles’ vielfältige Tätigkeiten und gleichzeitig Titel eines seiner Kurzfilme), die auch zuvor unveröffentlichtes Filmmaterial enthält. Bezeichnenderweise gibt es aufgrund von Rechtsstreitigkeiten auch von dieser Dokumentation verschiedene Versionen. 1996 übergab Oja Kodar den filmischen Nachlass von Welles an das Filmmuseum München, das die Fragmente der unvollendeten Filme restauriert und seit 1999 Konferenzen und Retrospektiven zum Werk von Orson Welles organisiert. Auszeichnungen. Grammy Award - Bestes gesprochenes Album Directors Guild of America Award für den Lifetime Achievement Award Luchino Visconti-Preis für David di Donatello Retro-Hugo Award for Best Dramatic 2014 Regie. "(sofern nicht anders vermerkt auch Schauspieler)" Diskographie. Live-Konzerte von Manowar beginnen noch heute mit der von Welles gesprochenen Textpassage: "„Ladies and gentlemen, from the United States of America, all hail Manowar!“" Osmium. Osmium ist ein chemisches Element mit dem Elementsymbol Os und der Ordnungszahl 76; im Periodensystem der Elemente steht es in der 8. Gruppe, der Eisengruppe. Es ist ein hartes, sprödes, stahlblaues Übergangsmetall und gehört zu den Platinmetallen. Osmium besitzt mit 462 GPa den höchsten Kompressionsmodul aller Elemente, lediglich übertroffen von aggregierten Diamant-Nanostäbchen, und mit 22,6 g/cm3 die höchste Dichte. Biologische Funktionen von Osmium sind weder im menschlichen noch in anderen Organismen bekannt. Technisch wird Osmium wegen seines hohen Preises nur verwendet, wenn Haltbarkeit und Härte ausschlaggebend sind. Geschichte. Osmium, das schwerste Homologe der 8. Gruppe im Periodensystem, wurde 1804 von Smithson Tennant zusammen mit Iridium im Rückstand von in Königswasser aufgelöstem Platin entdeckt. Der Name „Osmium“ entstammt dem rettichartigen Geruch (' „Geruch, Gestank“) seines in geringer Konzentration vorhandenen flüchtigen Tetroxids. Die erste wichtige Anwendung des Metalls war am Anfang des 20. Jahrhunderts seine Verwendung als Material für Glühfäden in Glühlampen durch Carl Auer von Welsbach. Der Name der Firma Osram leitet sich von den dazu eingesetzten Metallen Osmium und Wolfram ab. In der Anwendung hatte die Verwendung von Osmium jedoch einige Nachteile. Neben dem hohen Preis war vor allem die schwierige Verarbeitung ein Problem. Osmium ist spröde und kann nicht zu Fäden gezogen werden. Daher wurden die Glühfäden durch Spritzen einer osmiumhaltigen Paste und anschließendes Verglühen der organischen Bestandteile hergestellt. Die so erhaltenen Fäden waren allerdings zu dick für hohe Spannungen und außerdem empfindlich gegenüber Erschütterungen und Spannungsschwankungen. Nach kurzer Zeit wurden sie zunächst durch Tantal und schließlich durch Wolfram ersetzt. Vorkommen. Osmium ist mit einem Anteil von 1 · 10−6 % an der Erdkruste sehr selten. Es ist fast immer mit den anderen Platinmetallen Ruthenium, Rhodium, Iridium, Palladium und Platin vergesellschaftet. Osmium kommt häufig gediegen, aber auch gebunden als Sulfid, Selenid oder Tellurid vor. Die Osmiumvorkommen werden zwischen primären und sekundären Lagerstätten unterschieden. Primäre Lagerstätten sind Kupfer-, Nickel-, Chrom- oder Eisenerze, in denen geringe Mengen an Platinmetallen in gebundener Form enthalten sind. Es gibt keine eigenständigen Osmiumerze. Neben diesen Erzen existieren sekundäre Lagerstätten oder Seifenlagerstätten, in denen Osmium und die anderen Platinmetalle gediegen vorkommen. Dabei sind die Metalle nach Verwitterung vom Wasser ausgewaschen worden und haben sich – bedingt durch ihre hohe Dichte – an geeigneten Stellen angereichert. Osmium kommt dabei vor allem in den natürlichen Legierungen Osmiridium und Iridosmium vor, die neben Osmium vor allem Iridium enthalten und nach ihrem überwiegenden Bestandteil unterschieden werden. Die wichtigsten Vorkommen sind die platinmetallreichen Nickelerze in Kanada (Sudbury, Ontario), Russland (Ural) und Südafrika (Witwatersrand). Sekundäre Lagerstätten befinden sich am Fuß des Urals, in Kolumbien, Äthiopien und auf Borneo. Gewinnung und Darstellung. Die Herstellung von Osmium ist aufwändig und erfolgt im Zuge der Gewinnung anderer Edelmetalle, wie Gold oder Platin. Die dazu verwendeten Verfahren nutzen die unterschiedlichen Eigenschaften der einzelnen Edelmetalle und ihrer Verbindungen aus, wobei nach und nach die Elemente voneinander getrennt werden. Osmium wird nur in sehr geringen Mengen gewonnen, die Produktionsmenge liegt weltweit bei ca. 100 kg pro Jahr. Physikalische Eigenschaften. Kristallstruktur von Os, a=373,5 pm, c=413,9 pm Metallisches Osmium ist ein auch bei höheren Temperaturen glänzendes Schwermetall von stahlblauer Farbe. Es kristallisiert in einer hexagonal-dichtesten Kugelpackung in der mit den Gitterparametern a=373,5 pm, c=413,9 pm sowie zwei Formeleinheiten pro Elementarzelle. Osmium ist vor Iridium das Element mit der höchsten Dichte. Kristallographische Berechnungen ergeben für Osmium 22,59 g/cm3 und für Iridium 22,56 g/cm3 im natürlichen Isotopenverhältnis. Damit ist Osmium das dichteste auf der Erde natürlich vorkommende Element. Osmium besitzt von allen Platinmetallen den höchsten Schmelzpunkt und den niedrigsten Dampfdruck. Sein Kompressionsmodul von 462 GPa ist das höchste aller bekannten Elemente und Verbindungen; damit ist es sogar weniger komprimierbar als Diamant mit 443 GPa. Unterhalb der Sprungtemperatur von 0,66 K wird Osmium zum Supraleiter. Chemische Eigenschaften. Osmium gehört zu den Edelmetallen und ist damit relativ reaktionsträge. Es reagiert direkt nur mit den Nichtmetallen Fluor, Chlor und Sauerstoff. Eine Reaktion von Sauerstoff und kompaktem Osmium findet erst bei Rotglut statt. Je nach Reaktionsbedingungen entsteht Osmiumtetroxid (weniger hohe Temperaturen, hoher Sauerstoffdruck) oder Osmiumtrioxid. Feinverteiltes Osmium bildet schon bei Raumtemperatur in Spuren hochgiftiges Osmiumtetroxid. In nichtoxidierenden Mineralsäuren ist Osmium unlöslich, selbst Königswasser kann Osmium bei niedrigen Temperaturen nicht auflösen. Jedoch greifen starke Oxidationsmittel, beispielsweise konzentrierte Salpetersäure, heiße Schwefelsäure, sowie alkalische Oxidationsschmelzen, wie Natriumperoxid- und Kaliumchloratschmelzen Osmium an. Isotope. Von Osmium sind insgesamt 34 Isotope und 6 Kernisomere bekannt, davon kommen die sieben Isotope mit den Massen 184, 186, 187, 188, 189, 190 und 192 natürlich vor. 192Os ist mit einem Anteil von 40,78 % des natürlichen Osmiums das häufigste Isotop, 184Os mit 0,02 % das seltenste. Als einziges der natürlichen Isotope ist 186Os radioaktiv, jedoch mit über 2 Billiarden Jahren Halbwertszeit nur schwach. Neben diesen gibt es noch weitere 27 kurzlebige Isotope von 162Os bis 196Os, die wie die kurzlebigen Kernisomere nur künstlich herstellbar sind. Die zwei Isotope 187Os und 189Os können für kernspintomographische Untersuchungen verwendet werden. Von den künstlichen Nukliden werden 185Os (Halbwertszeit 96,6 Tage) und 191Os (15 Tage) als Tracer verwendet. Das Verhältnis von 187Os zu 188Os kann in Rhenium-Osmium-Chronometern zur Altersbestimmung in Eisenmeteoriten benutzt werden, da 187Re langsam zu 187Os zerfällt (Halbwertszeit: 4,12 · 1010 Jahre). Verwendung. Osmium-Kristallcluster, gezüchtet durch chemische Transportreaktionen in der Gasphase. Für das Element gibt es wegen seiner Seltenheit, seines komplizierten Herstellungsverfahrens und des damit einhergehenden hohen Preises von 380 US-Dollar pro Feinunze (Stand Dez. 2013) verhältnismäßig wenige technische Anwendungen. Aufgrund der hohen Giftigkeit der Oxide wird Osmium selten in reinem Zustand verwendet. In abrasiven und verschleißenden Anwendungen wie Schreibkugeln in Kugelschreibern, phonografischen Abtastnadeln, Wellen und Zapfen im Instrumentenbau sowie elektrischen Kontakten kommen harte osmiumhaltige Legierungen der Platinmetalle zum Einsatz. Eine Legierung aus 90 % Platin und 10 % Osmium wird zu medizinischen Implantaten und künstlichen Herzklappen verarbeitet sowie in Herzschrittmachern verwendet. Manchmal wird Osmium als Katalysator für Hydrierungen benutzt. Nachweis. Mögliche Nachweise von Osmium können über das Osmiumtetroxid erfolgen. Ein einfacher, aber wegen der Giftigkeit nicht empfehlenswerter Nachweis wäre über den charakteristischen Geruch des Osmiumtetroxids. Es sind aber auch chemische Nachweise möglich. Dabei wird eine osmiumhaltige Probe auf Filterpapier mit Benzidin- oder Kaliumhexacyanoferratlösung zusammengebracht. Mit Benzidin verfärbt sich das Papier bei Anwesenheit von Osmiumtetroxid violett, mit Kaliumhexacyanoferrat hellgrün. In der modernen Analytik sind diese Nachweise nicht mehr von Bedeutung; heute kann Osmium mittels instrumenteller Verfahren wie Neutronenaktivierungsanalyse, Voltammetrie, Atomspektrometrie oder Massenspektrometrie nicht nur nachgewiesen, sondern mit hoher Genauigkeit quantitativ bestimmt werden. Die NMR-Spektroskopie und Röntgenbeugung ermöglichen die Strukturanalytik von organischen und anorganischen Osmiumverbindungen. Sicherheitshinweise. Osmiumtetroxid ist hochtoxisch. Stäube können eine Lungenreizung mit Hyperämie bis zum Lungenödem hervorrufen sowie zu Haut- oder Augenschäden führen. Da an der Luft aus pulverförmigem metallischem Osmium stets geringe Mengen Osmiumtetroxid entstehen, ist auch bei dieser Form des Elements Vorsicht geboten. Metallisches Osmium ist als fein verteiltes Pulver oder Staub leichtentzündlich, in kompakter Form aber nicht brennbar. Zum Löschen von Osmiumbränden müssen Metallbrandlöscher (Klasse D) oder Löschpulver verwendet werden, keinesfalls darf Wasser verwendet werden, wegen der Explosionsgefahr durch entstehenden Wasserstoff. Verbindungen. Es sind Verbindungen und Komplexe in den Oxidationsstufen von −II bis +VIII bekannt, die stabilste Oxidationsstufe ist +IV. Osmium zählt zusammen mit Ruthenium und Xenon zu den wenigen Elementen, die die höchste bekannte Oxidationsstufe +VIII erreichen. Osmium bildet mit den meisten Nichtmetallen Verbindungen wie Oxide, Halogenide, Sulfide, Telluride, und Phosphide. Osmiumtetroxid. Osmiumtetroxid OsO4 ist die bekannteste Verbindung des Osmiums und eine der wenigen stabilen Verbindungen, in der Osmium die Oxidationsstufe +VIII besitzt. Die Verbindung bildet sich durch Einwirkung von Oxidationsmitteln wie Salpetersäure auf metallisches Osmium. Es ist ein leichtflüchtiger Feststoff, der sehr stark oxidierend wirkt. Im Unterschied zu vielen alternativen Oxidationsmitteln kann die Reaktion unter stereochemischer Kontrolle ablaufen. Auf Grund dieser Eigenschaften hat die Verbindung trotz der hohen Toxizität und des hohen Preises einige Anwendungen gefunden. Osmiumtetroxid wird häufig nur in katalytischen Mengen eingesetzt. Es wird zur Fixierung und Kontrastverstärkung von Lipiden (Fetten) und Zellmembranen in der Elektronenmikroskopie und bei der Spurensicherung (Fingerabdrücke) eingesetzt. In der Organischen Chemie dient es als Oxidationsmittel zur cis-Hydroxylierung von Alkenen zu vicinalen Diolen und bei der Jacobsen-Katsuki-Reaktion bzw. bei der Sharpless-Epoxidierung zur stereoselektiven Epoxidierung. Weitere Osmiumverbindungen. Mit Sauerstoff bildet Osmium weitere Verbindungen, die Oxide Osmiumtrioxid OsO3 und Osmiumdioxid OsO2. Osmiumtrioxid ist nur in der Gasphase stabil, Osmiumdioxid dagegen ein stabiler, hochschmelzender Feststoff in Rutil-Struktur. Mit den Halogenen Fluor, Chlor, Brom und Iod sind eine Vielzahl von Verbindungen bekannt. Die möglichen Oxidationsstufen des Osmiums reichen dabei von +VII bei Osmium(VII)-fluorid bis +I bei Osmium(I)-iodid. Komplexverbindungen. Neben diesen Verbindungen sind zahlreiche Komplexverbindungen bekannt. Vom Osmiumtetroxid leiten sich die Osmate, anionische Sauerstoffkomplexe des Osmiums ab. Auch mit anderen Liganden, wie Ammoniak, Kohlenstoffmonoxid, Cyanid und Stickstoffmonoxid sind viele Komplexe in verschiedenen Oxidationsstufen bekannt. Mit organischen Liganden, wie Cyclopentadien kann der Osmiumkomplex Osmocen, der zu den Metallocenen gehört, gebildet werden. Neben klassischen Komplexen, bei denen jede Metall-Ligand-Bindung eindeutig bestimmt werden kann, existieren auch nicht-klassische Komplexe. Bei diesen liegen Metallcluster aus mehreren Osmiumatomen vor. Ihre konkrete Gestalt kann mit Hilfe der Wade-Regeln bestimmt werden. Ordnungszahl. Die Ordnungszahl, "Atomnummer", "Kernladungszahl", auch Ladungszahl ist die Anzahl der Protonen im Atomkern eines chemischen Elements, deshalb auch Protonenzahl. Als Formelzeichen für die Ordnungszahl wird meist formula_1 gewählt. Bei einem ungeladenen Atom stimmt die Zahl der Elektronen in der Atomhülle mit der Protonenzahl überein, die Ordnungszahl ist gleich der Elektronenzahl im neutralen Atom. Kennzahl der Elemente. Die Ordnungszahl ist gleichwertig mit dem Namen des chemischen Elements, d. h., alle Atome mit gleicher Ordnungszahl gehören zum selben Element. Die Ordnungszahl bestimmt die Einordnung des jeweiligen Elements in das Periodensystem und wird gewöhnlich links unten neben dem Elementsymbol angegeben. Zusammenhang mit Neutronen- und Massenzahl. Atome mit gleicher Ordnungszahl, jedoch unterschiedlicher Neutronenzahl formula_4 werden Isotope genannt. Sie weisen bei chemischen Reaktionen nahezu gleiches Verhalten auf (Isotopeneffekt). Die Neutronenzahl eines Atomkerns lässt sich mit Kenntnis seiner Protonenzahl und der Massenzahl formula_5 berechnen. oder aufgelöst nach der Massenzahl Ordnungszahl von Antiatomen. Für Anti-Atome wie Antiwasserstoff, deren Kerne statt Protonen negativ geladene Antiprotonen enthalten, wird die Protonenzahl mit negativem Vorzeichen gewertet. Oersted (Einheit). Oersted ist die Einheit der magnetischen Feldstärke im CGS-Einheitensystem. Sie ist benannt nach dem dänischen Physiker Hans Christian Ørsted und gilt seit 1970 nicht mehr als offizielle Einheit. Definiert war ein Oersted als die magnetische Feldstärke, bei der auf einen Einheitspol die Kraft 1 dyn wirkt. Die Einheit Oersted besitzt keine genaue Entsprechung im SI-Einheitensystem. Sie kann aber in Ampere pro Meter ausgedrückt werden. Es gilt dabei Das Energieprodukt von Dauermagneten wird oft noch in MGOe angegeben. Ohm. a> kann der elektrische Widerstand gemessen werden Ohm ist die abgeleitete SI-Einheit des elektrischen Widerstands mit dem Einheitenzeichen Ω (großes griechisches Omega). Sie ist nach Georg Simon Ohm (1789–1854) benannt. Das nach ihm benannte ohmsche Gesetz stellt einen einfachen Zusammenhang zwischen der angelegten Spannung (Einheit: Volt, V) und dem daraus resultierenden Strom (Einheit: Ampere, A) für sogenannte ohmsche Leiter dar. Der Kehrwert des elektrischen Widerstandes, also der elektrische Leitwert "G", hat die Einheit Siemens. Historisch. Auf dem Ersten Internationalen Elektrizitätskongress wurde am 21. September 1881 der Name Ohm als „praktische Einheit“ des elektrischen Widerstandes für 1.000.000.000 cm/s festgelegt; in der dabei zugrundegelegten Variante eines cgs-Systems (genauer: elektromagnetische cgs-Einheiten) ist 1 cm/s die „fundamentale“ Widerstandseinheit. Zur Realisierung der Einheit "ein Ohm" wurde dabei ein genauer spezifiziertes Quecksilberprisma bei festgelegter Temperatur (0 °C) eingeführt. Diese Bauart hatte Werner Siemens 1860 in den Annalen der Physik beschrieben, mit Abmessungen, nach denen sich ein Wert von ungefähr 0,944 Ohm ergibt, der als 1 Siemens oder eine Siemens-Einheit (SE) bezeichnet wurde. Siemens fertigte und verkaufte Silberdrähte als Sekundärnormal. Auf dem 4. Internationalen Elektriker-Kongress zu Chicago 1893 wurde diese Realisierungsvorschrift modifiziert und fand für das Deutsche Reich Eingang in das „Gesetz betreffend die elektrischen Maßeinheiten“ vom 1. Juni 1898. In der Formulierung der "Internationalen Konferenz für elektrische Einheiten und Normale" in London 1908 enthält sie folgende Festlegungen: 14,4521 g Quecksilber, Quecksilbersäule von 106,300 cm Länge mit durchweg gleichem Querschnitt, konstanter Strom, Temperatur des schmelzenden Eises. Das so realisierte Ohm wurde „Internationales Ohm“ genannt. Durch verbesserte Messmöglichkeiten und Spannungsquellen mit konstanteren, aber geringfügig anderen Spannungswerten (Normalelemente) ergaben sich im Laufe der Folgezeit nicht mehr akzeptable Abweichungen zwischen praktischem und internationalem Ohm. (Noch störender war, dass sich eine analoge Diskrepanz bei den Einheiten der mechanischen bzw. elektrischen Energie und Leistung einstellte, die größer war als die von praktischem und internationalem Ohm.) Im Grunde hatten sich die ursprünglich nur als Realisierungsvorschriften gedachten Definitionen der „internationalen“ elektrischen Einheiten – auch für Ampere und Volt gab es solche – selbstständig gemacht und waren als eigenes Einheitensystem neben die gaußschen cgs-Einheiten mit den praktischen elektrischen Einheiten getreten. Deswegen führte 1948 die 9. CGPM wieder das absolute Ohm ein, sozusagen nun als einziges Ohm. Präzisionsbestimmungen ergaben damals: 1 internationales Ohm ist gleich 1,00049 Ohm. In dieser Form wurde das Ohm in das MKSA-System übernommen und dieses später in das Système international d’unités integriert. Quanten-Hall-Effekt. Bei starken Magnetfeldern und tiefen Temperaturen um einige Kelvin zeigt sich, dass die Hall-Spannung formula_5 geteilt durch den Strom I, nicht beliebige Werte annehmen kann, wenn die Magnetfeldstärke variiert wird. Es entsteht stattdessen immer ein ganzzahliger Bruchteil der von-Klitzing-Konstante formula_6. Der Wert beträgt dabei ungefähr "RK-90" = 25.812,807 Ω und die Bruchteile sind formula_7, formula_8, formula_9 und so weiter; bei etwas anderen Versuchsbedingungen können auch Werte wie formula_10 angenommen werden. Die Genauigkeit, mit der dieser Quanten-Hall-Effekt reproduziert werden kann, ist hinreichend gut, dass formula_7 durch internationale Vereinbarungen als Standard für die Realisierung des elektrischen Widerstandes festgelegt worden ist. Klaus von Klitzing bekam für diese Entdeckung 1985 den Nobelpreis für Physik verliehen. Darstellung in Computersystemen - Kodierung. Laut Unicode-Standard soll die physikalische Einheit Ohm durch den griechischen Großbuchstaben Omega dargestellt werden. Unicode enthält zwar auch ein Zeichen namens Ohmzeichen (U+2126: Ω), dieses wurde jedoch lediglich zur Kompatibilität mit älteren Zeichenkodierungsstandards aufgenommen und sollte in neu erstellten Texten "nicht" verwendet werden. Unze. Eine Unze (von ‚ ein Zwölftel, ursprünglich einer römischen Libra, seither meist ein Sechzehntel eines Pfundes, Symbol ℥) ist eine nichtmetrische Maßeinheit der Masse. Das Einheitenzeichen ist "oz." (von ital. "onza"), die englische Bezeichnung "ounce". Verschiedene Unzen. Verschiedene Schreibweisen sind für die Unze bekannt. Gewöhnliche Unze. Die gewöhnliche "Unze" () mit dem Einheitenzeichen "oz." wird in einigen Ländern häufig bei Lebensmitteln benutzt (in Deutschland unzulässig). Sie beträgt umgerechnet 28,35 Gramm. Apotheker-Unze. Die "Apotheker-Unze" (engl.) mit dem Einheitenzeichen ℥ oder "oz. ap." wird bei Medikamenten und Chemikalien benutzt und beträgt umgerechnet etwa 31,1 Gramm. Feinunze. Die Feinunze () mit dem Einheitenzeichen "oz. tr." wird für Edelmetalle verwendet. Ihr Gewicht entspricht der Apotheker-Unze (1 oz.tr. = 31,1034768 g), bezieht sich aber nur auf den Edelmetallanteil einer Münze oder eines Barrens. Das Gewicht eventueller Verunreinigungen oder zulegierter Metalle (zur Härtung, oft Silber oder Kupfer, wie beim Krugerrand) wird also vom Gesamtgewicht abgezogen. Die Gold-, Silber-, Platin- und Palladiumpreise werden in US-Dollar pro Feinunze angegeben. Flüssigkeits-Unze. Die "Flüssigkeits-Unze" () mit dem Einheitenzeichen "fl oz" ist ein Raummaß für Flüssigkeiten. Das Maß findet beispielsweise beim Abmessen von Parfüm oder Softdrinks Verwendung, und es wird auf dem Flaschenetikett abgedruckt. Eine "fluid ounce" entspricht im Vereinigten Königreich und vielen Staaten des Commonwealth 1/160 einer imperialen Gallone nach Imperialem Maßsystem (28,4131 cm³) und in den Vereinigten Staaten 1/128 einer U.S. Gallone nach US-amerikanischem Maßsystem (29,5735 cm³). Schenkelhalsfraktur. violett = mediale subcapitale SHF, rot = mediale transzervikale SHF, grün = laterale SHF Die Schenkelhalsfraktur (SHF, Kurzform für "Oberschenkelhalsbruch/-fraktur") ist ein hüftgelenksnaher Knochenbruch (Fraktur) des Halses ("Collum") vom Oberschenkelknochen ("Femur"). Diese Fraktur entsteht meist durch Sturz auf die Seite. Sie tritt besonders im hohen Lebensalter auf (→ Sturz im Alter) und ist dann, bedingt durch Osteoporose, häufiger bei Frauen als bei Männern. Hüftgelenk. Das Gelenk ist durch eine kräftige Gelenkkapsel stabilisiert. Die Durchblutung des Gelenks einschließlich des Hüftkopfes wird in etwa 90 % der Fälle mittels der Arteria circumflexa femoris medialis und der Arteria circumflexa femoris lateralis (beide aus der A. profunda femoris) und ihrer in die Gelenkkapsel ausstrahlenden Äste gesichert. In etwa 15 % der Fälle wird der Hüftkopf zusätzlich über die Arteria capitis femoris (aus der A. obturatoria) versorgt, die im Ligamentum capitis femoris zum Hüftkopf zieht und über die Fossa capitis femoris (in der Gelenkpfanne) einstrahlt. Blutversorgung. Die Blutversorgung des Schenkelhalses und des Hüftkopfes wird vorwiegend von der tiefen Oberschenkelarterie (Arteria profunda femoris) mit ihren Abzweigungen – der Arteria circumflexa femoris lateralis, medialis und posterior – übernommen. Wie ihre Namen schon sagen, verlaufen die Gefäße zirkulär um den Schenkelhals. Bei einer Fraktur besteht die Gefahr einer Verletzung der Gefäße. Je nach Ausmaß der Gefäßverletzung können Teile des Schenkelhalses und des Hüftkopfes nicht mehr mit Blut versorgt werden, so dass es zu einer Hüftkopfnekrose kommen kann. Der Einfluss auf die Therapiewahl ist groß, da bei Erwartung einer Hüftkopfnekrose zumeist keine gelenkerhaltende Therapie mehr gewählt werden kann. Die Circumflexa-Arterien sind untereinander an verschiedenen Stellen verbunden ("natürliche Anastomosen"). Solche Anastomosen kommen an diversen Stellen im Körper vor und gewährleisten bei Verletzung oder Verschluss eines Gefäßes die weitere Blutversorgung im betroffenen Gebiet. Ist der Gefäßkranz am Schenkelhals an mehr als einer Stelle unterbrochen, kann diese Schutzvorrichtung nicht mehr funktionieren. Ätiologie und Ursachen. Die hüftgelenksnahen Femur-Frakturen entstehen meist durch Sturz aus geringer Höhe bei älteren Menschen. Unfallgeschehen wie Ausrutschen, Fallen aus dem Bett, Sturz durch Schwäche oder Schwindel sind typische Ursachen für die Entstehung der Fraktur. Meist erfolgt der Sturz auf die Hüfte oder die Gesäßregion. Das betroffene Bein ist hierbei nicht abgespreizt, sondern an das andere Bein angelegt ("adduziert"). Es entsteht die sogenannte "Adduktionsfraktur". Ein Sturz auf das abgespreizte ("abduzierte") Bein kann hingegen zu einer "Abduktionsfraktur" führen. Stürzen oder Hinfallen muss jedoch kein Auslöser für einen Knochenbruch sein, da sich ein jüngerer Mensch mit gesundem Skelett beim Fallen auf die Seite kaum eine Fraktur zuzieht. Osteoporose, der Verlust an harter Knochensubstanz ("Kalksalzgehalt"), führt dazu, dass Knochen leichter brechen können. Daher ist die Schenkelhalsfraktur eine typische Fraktur des älteren Menschen. Weitere Faktoren, die eine Fraktur bei Sturz auf die Hüfte begünstigen sind: Ein mangelhafter Weichteilmantel (Muskulatur, Fettschicht) der Hüfte, der Aufprallpunkt (je näher an der Hüfte selbst, desto eher kommt es zur Fraktur) und das Fehlen der Sturzabwehrreflexe (Ausbreiten der Arme beim Sturz, um ihn abzufangen). Die Schenkelhalsfraktur kann jedoch auch als pathologische Fraktur, bei verschiedenen Vorerkrankungen oder bei Knochentumoren und Metastasen auftreten. Einteilung. Schenkelhalsfrakturen werden nach ihrer Lokalisation und den sich daraus ergebenden Konsequenzen für die Behandlung unterschieden. Mediale Schenkelhalsfraktur. mediale SchenkelhalsfrakturDie mediale Schenkelhalsfraktur ist die am häufigsten auftretende Fraktur des Oberschenkelknochens. Es handelt sich dabei um einen Bruch des Schenkelhalses nahe oder direkt am Hüftkopf. Im Gegensatz zur lateralen Schenkelhalsfraktur (s. u.) liegt sie innerhalb der Gelenkkapsel ("intrakapsulär"). Ältere Lehrbücher benannten ausschließlich die direkt am Hüftkopf liegende Fraktur als mediale Schenkelhalsfraktur und die, die lediglich im hüftkopfnahen Bereich des Schenkelhalses liegen, als „intermediär“. Diese Bezeichnung wird heute nicht mehr benutzt. Laterale Schenkelhalsfraktur. Die laterale Schenkelhalsfraktur tritt mit einer Häufigkeit von ungefähr 5 Prozent auf, ist also eher selten. Betroffen sind oft junge Menschen nach Hochrasanztraumen wie z. B. Autounfällen. Sie entsteht meist als Adduktionsfraktur. Ihre Frakturlinie liegt direkt am "Trochanter major", deswegen wird sie auch oft "posttrochantäre Fraktur" genannt. Es handelt sich um eine außerhalb der Gelenkkapsel gelegene (extrakapsuläre) Fraktur mit höherem möglichem Blutverlust. Varus-Fehlstellung a> einer lateralen Schenkelhalsfraktur mittels dynamischer Hüftschraube und zusätzlicher Antirotationsschraube Einteilung nach Dislokationsrichtung. Es werden Abduktionsfrakturen, Adduktionsfrakturen und Abscherfrakturen unterschieden. Abduktionsfrakturen entstehen bei Sturz auf das abgespreizte (abduzierte) Bein und sind daher eher selten. Die Fraktur weist eine Valgusstellung auf und ist meistens eingestaucht und somit belastungsfähig. Adduktionsfrakturen sind häufig, da sie dem typischen "Sturz auf die Seite" folgen. Das Resultat ist eine Varusstellung des Schenkelhalses mit Dislokation des Oberschenkelknochens nach oben, was zu einer Beinverkürzung führt. Der abgerutschte Hüftkopf wandert bei der Frakturdislokation oft nach hinten ("Retrotorsionsfraktur"), was zusätzlich zu einem dorsalen Knochendefekt führt. Die Gefahr der Verletzung der Gefäße des Hüftkopfes und somit das Risiko einer Hüftkopfnekrose ist bei dieser Fraktur sehr hoch. Abscherfrakturen im Schenkelhalsbereich sind selten und treten eher bei jüngeren Patienten durch tangentiale Gewalteinwirkung, beispielsweise bei Autounfällen ("dashboard injury") oder Stürzen aus großer Höhe, auf. Die Prognose ist durch die meist starke Dislokation und Instabilität sehr ungünstig. Klassifikationen. Es gibt drei relevante Klassifikationen: Eine nach "Pauwels" (I-III), die sich am "Winkel zwischen der Horizontalen und der Frakturlinie" orientiert, eine nach "Garden" (I-IV), die sich nach dem "Dislokationsgrad der Fraktur" richtet, und eine aus der "Klassifikation der Frakturen" der Arbeitsgemeinschaft für Osteosynthesefragen. Klassifikationen dienen in der Medizin einerseits als Prognosehilfsmittel, vor allem aber als Therapieleitlinie. So ist es auch bei den hier aufgeführten drei Klassifikationen, die alle Rückschlüsse auf die Abscher- bzw. Dislokationswahrscheinlichkeit zulassen, und damit entscheidend für die Therapiewahl sind. Symptome und klinisches Bild. Außenrotiertes und verkürztes Bein bei Schenkelhalsfraktur rechts Typisch – vor allem für die mediale Schenkelhalsfraktur – sind das außenrotierte und verkürzte Bein auf der betroffenen Seite. Hinzu kommen meist starke Schmerzen in der Leiste und Klopfschmerzen über dem großen Rollhügel ("Trochanter major" s. o.). Eingestauchte und nicht dislozierte Frakturen können symptomlos verlaufen. In diesen Fällen werden die dumpfen Schmerzen nach Unfall-/Sturzereignis oft für eine Prellung gehalten. Patienten mit solchen Frakturen kommen nicht selten noch zu Fuß zum Arzt oder in die Klinik und geben Schmerzen beim Laufen an. Frakturen mit starker Dislokation, beispielsweise bei total abgerutschtem Hüftkopf, verursachen stärkste Schmerzen und kommen als Notfall in die Klinik. Schenkelhalsfrakturen mit Dislokation bedürfen meist keiner langen Diagnostik, der Befund fällt sprichwörtlich ins Auge. Im Röntgenbild sind die typischen Stauchungszeichen oder, je nach Frakturtyp, eventuelle Dislokationen des Hüftkopfes zu erkennen. Therapie. Schenkelhalsfrakturen werden in der Regel als „Notfall mit aufgeschobener Dringlichkeit“ operativ versorgt. In der Regel wird eine internistische Basisdiagnostik, gegebenenfalls gefolgt von einer entsprechenden Akuttherapie durchgeführt. Die operative Therapie soll möglichst innerhalb der ersten 24 Stunden nach dem Unfall erfolgen; Patienten mit schweren Grunderkrankungen können jedoch von einer Vorbereitungszeit von bis zu 48 Stunden profitieren. Bei eingestauchten Abduktionsfrakturen mit sehr niedrigem Abscherrisiko wird eher konservativ (also nicht-operativ) behandelt, es kann jedoch eine so genannte "prophylaktische Verschraubung" (Osteosynthese) vorgenommen werden. Das Ziel jeder Therapieform bei Schenkelhalsfraktur ist die frühestmögliche Mobilisation. Die Ruhigstellung der Patienten soll zeitlich so kurz wie möglich gehalten werden. Mediale Schenkelhalsfraktur. Häufig erfolgt die Versorgung der medialen Schenkelhalsfraktur beim alten Menschen durch Implantation einer Hüfttotalendoprothese oder Hemiprothese ("Duokopfprothese"). Begründet wird dieses Vorgehen mit dem hohen Risiko einer späteren Hüftkopfnekrose. Eine Zweitoperation aus diesem Grund soll dem älteren Patienten nach Möglichkeit erspart werden. Des Weiteren dürfen Patienten nach einer Totalendoprothese oder Duokopfprothese wesentlich schneller wieder die betroffene Seite belasten, was das Risiko einer drohenden Immobilität der vorwiegend älteren Patienten erheblich senkt. Jüngeren Patienten mit geringem allgemeinen Operationsrisiko wird eher zu hüftkopferhaltenden Verfahren geraten. Hier ist eine Operation innerhalb weniger Stunden anzustreben, um das Risiko einer Hüftkopfnekrose zu minimieren. Der Erhalt des natürlichen Gelenks bedeutet eine bessere Lebensqualität. Dies rechtfertigt, dass im Falle einer Hüftkopfnekrose eine Zweitoperation eher zumutbar ist. So genannte nichtdislozierte (also unverschobene) bzw. eingestauchte mediale Schenkelhalsfrakturen mit flachem Frakturneigungswinkel werden häufig mittels so genannter Zugschrauben behandelt (siehe Abbildung). Es handelt sich um hohle Schrauben, die über zuvor eingebrachte Führungsdrähte geschraubt werden ("Lochschrauben"). Bei jüngeren Patienten versucht man in der Regel, den Oberschenkelkopf zu erhalten. Auch hierzu werden Schrauben verwendet. Laterale Schenkelhalsfraktur. Frakturen in der Basis des Schenkelhalses werden, in Abhängigkeit vom Dislokationsgrad, oft gelenkerhaltend, mit einer Osteosynthese versorgt. Das Behandlungskonzept entspricht weitgehend dem der pertrochantären Femurfrakturen. Verschiedene Verfahren können verwandt werden, unter anderem die "Gammanagel-Osteosynthese", die Versorgung mit "Dynamischer Hüftschraube (DHS)" und ähnliche. Komplikationen. Der Blutverlust bei hüftgelenksnahen Frakturen kann Ausmaße erreichen, die zum Auftreten einer Blutverlust-Anämie führen. Das Bild eines akuten Volumenmangelschocks ist bei der Schenkelhalsfraktur aufgrund der anatomischen Gegebenheiten (straffe muskuläre Führung des Gelenks und dadurch bedingte „Selbsttamponade“ der Blutung) eher selten, insbesondere viel seltener als bei der pertrochantären Fraktur oder der Oberschenkelschaftfraktur. Verletzungen des Ischiasnerven treten nur bei extremer Fehlstellung (Dislokation) auf, ebenso Verletzungen des Nervus femoralis. Ausgeprägte Muskelverletzungen mit zusätzlicher Blutung sind bei den typischen Schenkelhalsfrakturen des alten Menschen eher selten und nur bei sehr ausgeprägter Fehlstellung anzutreffen. Je größer der Dislokationsgrad ist, desto höher ist die Wahrscheinlichkeit einer späteren Femurkopfnekrose, bedingt durch die bei starker Dislokation zerstörte Durchblutung des Hüftkopfes über die Gelenkkapsel. Eine Komplikation der Verschraubung ist daher die aseptische Hüftkopfnekrose, die eine sekundäre Implantation einer Hüftprothese nötig macht. Hüftkopferhaltende operative Maßnahmen sind daher nur bei jüngeren Patienten mit geringer Frakturdislokation sinnvoll. Wundheilungsstörungen und tiefe Infektionen können, wie nach jeder Operation, auch hier auftreten. Weitere allgemeine Komplikationen, insbesondere nach Operationen und bei Bettruhe sind Thrombose, Embolie, Dekubitus und Pneumonien. Besonders beim älteren Patienten ist längere Bettruhe gefährlich, da sie vital anfälliger für solche Komplikationen, insbesondere für den Dekubitus sind. Nachbehandlung und Rehabilitation. Die frühzeitige Mobilisation ist das wichtigste Element der Nachbehandlung. Wenn möglich, werden die Patienten schon am ersten Tag nach der Operation auf die Bettkante gesetzt, unter krankengymnastischer Anleitung werden, falls der Patient dies toleriert, sogar schon die ersten Schritte gegangen. Hinzu kommen aktive und passive Bewegungsübungen im Bett. Die Krankengymnastik wird während des gesamten stationären Aufenthaltes, der üblicherweise 2 bis 3 Wochen andauert, fortgesetzt. Besonders Patienten, die nicht mit einem belastungsstabilen Verfahren versorgt wurden, müssen in dieser Zeit lernen, sicher an Unterarmgehstützen zu gehen und Treppen zu steigen. Eine effektive Schmerzbekämpfung dient nicht nur dem „Komfort“ des Patienten, sondern ist unabdingbare Voraussetzung für die Frühmobilisierung. Zu diesem Zweck soll auf zentral wirksame Analgetika (z. B. Opioide) so früh wie möglich zugunsten peripher wirkender Analgetika (NSAR, Metamizol, Paracetamol) verzichtet werden, um die Mobilisierung nicht durch die bei Opioiden regelhaft auftretenden Nebenwirkungen wie Müdigkeit, Schwindel und Antriebsschwäche zu beeinträchtigen. Analgetika werden nicht „nach Bedarf“, sondern nach einem Schema, das in den meisten Kliniken standardisiert ist, verabreicht. Sollte dies nicht ausreichen, werden großzügig und frühzeitig zusätzliche Analgetika gegeben. In den ersten Tagen nach der Operation kann auch ein vor der Operation gelegter Periduralkatheter die Schmerzbekämpfung unterstützen. Ebenfalls wichtig ist die Behandlung der in der Altersgruppe dieser Patienten häufig vorliegenden Begleiterkrankungen (Diabetes mellitus, arterielle Hypertonie, Herzinsuffizienz, Niereninsuffizienz), da diese sich im Zuge von Unfall und Operation verschlechtern und dann zudem noch ein Mobilisierungshindernis darstellen können. Oft wird hierzu der Internist um konsiliarische Mitbehandlung gebeten. Nach Entlassung aus der stationären Behandlung erfolgt in Deutschland in der Regel eine mindestens dreiwöchige stationäre Anschlussheilbehandlung in einer geeigneten Rehabilitationsklinik. Voraussetzung hierfür ist ein Barthel-Index von mindestens 70. Patienten, die alters- und krankheitsbedingt diese Mobilitätsstufe nicht erreichen, werden entweder in geriatrische Frührehabilitation oder in eine Kurzzeit- und Übergangspflegeeinrichtung verlegt. Prävention. Die Schenkelhalsfraktur ist nicht nur die häufigste gelenknahe Verletzung des Oberschenkels, sondern auch die häufigste Fraktur bei alten Menschen. Warum es zu einem Unfall- bzw. Sturzereignis kommen kann, hat viele Gründe. Oft nehmen ältere Menschen, auf Grund des im Alter nachlassenden Durstgefühls, nicht genügend Flüssigkeit zu sich. Das führt zu niedrigem Blutdruck und nicht selten zu Schwindel. Ein anderer Grund kann der unsichere Gang sein, der durch andere Erkrankungen, beispielsweise der Wirbelsäule oder der Beingelenke, entsteht. Oftmals sind auch falsch dosierte oder falsch eingenommene Herz-Kreislauf-Medikamente die Ursache für Schwindel und Gangunsicherheit. Ungeachtet der Ursache eines Sturzes gilt es ihn durch geeignete Maßnahmen so gut wie möglich zu vermeiden. HüftprotektorEine weitere effektive Methode um Schenkelhalsfrakturen vorzubeugen sind Hüftprotektoren, bei denen allerdings eine gut ausgeprägte Bereitschaft zur Kooperation von den Patienten verlangt wird. Da es sich bei Schenkelhalsfrakturen älterer Patienten in den meisten Fällen um durch Osteoporose begünstigte Frakturen handelt, ist die Prophylaxe mit einer Behandlung der Osteoporose nach entsprechenden Leitlinien möglich. Hierzu werden z. B. Bisphosphonate (Blocker der knochenabbauenden Osteoklasten) ergänzt durch Vitamin D3 und Kalzium gegeben. Eine Fraktur von Oberarmkopf, Wirbelsäule, Schenkelhals oder Handgelenk beim alten Menschen ist häufig ein Zeichen für Osteoporose, deren leitliniengerechte Behandlung weitere Brüche verhindern kann. Die Behandlung (s. o.) ist sehr effektiv. Gefährlich für alte Menschen sind auch Schlafmittel, weil sie die Reaktionsfähigkeit herabsetzen und dann z. B. bei dem Gang zur Toilette nachts Stürze verursachen können. Geschichte. Nicolas Senn schlug 1898 aufgrund eigener tierexperimenteller Studien die Ruhigstellung im Beckengips nach exakter Reposition vor. Böhler behandelte zunächst in einem Extensionsverband und setzte dann die Behandlung im Becken-Bein-Gips fort. Diese konservativen Behandlungskonzepte werden wegen der erforderlichen langen Immobilisierung mit ihren Komplikationen (Thrombose, Lungenembolie, hypostatische Pneumonie, Dekubitus und andere mehr) seit langem nicht mehr durchgeführt. Die ersten Versuche der operativen Behandlung mittels extraartikulärer Verschraubung gehen auf Langenbeck (1858) und König (1875) zurück. Die Resultate waren allerdings zunächst nicht zufriedenstellend aufgrund der unzureichenden Reposition und der wenig exakten Positionierung der Schrauben. Die Entwicklung der modernen Versorgungsformen geht auf Smith-Petersen zurück, der die Schenkelhalsfraktur ab 1925 mit einem mercedessternförmigen Lamellennagel stabilisierte. Der Vorschlag eines Führungsdrahtes zur Verbesserung der Retention und genaueren Platzierung des Nagels von Sven Johansson 1932 ist heute noch Standard bei den meisten hüftkopferhaltenden Operationsverfahren. Ab 1942 – parallel zur Entwicklung des Küntschernagels für die Schaftfraktur – wurde eine Gewindeschraube eingesetzt, mit der nach dem Prinzip der Zugschraube die Frakturenden einander angenähert werden konnten. Dieses Prinzip findet sich heute noch in vielen modernen Therapiemethoden wieder. Puhg und Pohl erkannten in den 1950er Jahren, dass Komplikationen wie Implantatausbruch und Kopfperforation Folge der Rigidität der eingesetzten Implantate waren. Die aus diesen Erkenntnissen entstandene „Pohl’sche Laschenschraube“ wird distal in einer richtungsgebenden Gleithülse geführt, die ein „Sintern“ der Fraktur mit Verkürzung des Schenkelhalses ohne Gefahr der Dislokation erlaubte. Dieses Implantat war Vorbild für die Entwicklung der dynamischen Hüftschraube (DHS) durch die AO anfangs der 1980er Jahre. Diese ist heute noch eines der gebräuchlichsten Implantate. Elastische Rund- und Bündelnägel wurden von verschiedenen Autoren vorgeschlagen. Am bekanntesten wurden die 1970 entwickelten „Endernägel“, elastische Bündelnägel, die vom Knie aus intramedullär eingebracht werden und aufgrund ihrer vorgegebenen Biegung in den Hüftkopf vorgetrieben werden. Bei gut gewählter Indikation konnte mit diesen Nägeln eine hohe Stabilität bei gleichzeitig gegebener Dynamik im Frakturspalt erzielt werden. Das Verfahren ist jedoch von einer hohen Komplikationsrate (Kopfperforationen, Wandern der Nägel mit Knieproblemen, lange Durchleuchtungszeit und hohe Abhängigkeit vom Geschick des Operateurs) belastet und wird mittlerweile kaum noch angewandt. Die Anfang der 1960er Jahre von der AO entwickelte 90°- und 135°-Winkelplatte führte ebenfalls häufig zu den oben genannten Komplikationen rigider Systeme und wurde bei der Behandlung der Schenkelhalsfraktur weitgehend von der DHS und den diversen intramedullären Nägeln mit Schenkelhalskomponente ersetzt. Unter anderer Indikationsstellung (subtrochantäre Stückfrakturen, Umstellungsosteotomien etc.) findet sie allerdings immer noch breite Anwendung. Hüftgelenk-Endoprothesen (sowohl Hemi- als auch Totalendoprothesen) wurden seit Beginn ihrer Entwicklung nicht nur zur Behandlung der Coxarthrose, sondern auch zur definitiven, primär belastungsstabilen Behandlung der medialen Schenkelhalsfrakturen vor allem älterer Menschen eingesetzt. Osama bin Laden. Usāma ibn Muhammad ibn Awad ibn Lādin, allgemein bekannt als Osama bin Laden (; * vermutlich zwischen März 1957 und Februar 1958 in Riad, Saudi-Arabien; † 2. Mai 2011 in Abbottabad, Pakistan), war ein saudi-arabischer, seit 1994 staatenloser Terrorist. Er war der Gründer und Anführer der Gruppe al-Qaida und plante unter anderem die von ihr ausgeführten Terroranschläge vom 11. September 2001. Bin Laden stammte aus einer wohlhabenden saudischen Unternehmerfamilie und unterstützte in den 1980er Jahren den Kampf der Mudschaheddin im Sowjetisch-Afghanischen Krieg mit Geld, Waffen, Ausbildungslagern und Bauprojekten. Bin Laden war 1,95 m groß und dünn gebaut. 1998, nach dem Zweiten Golfkrieg, erklärte er in einer Fatwa das Töten von Zivilisten und Soldaten der Vereinigten Staaten überall zur Pflicht jedes Muslims. Er wurde zur Identifikations- und Symbolfigur verschiedener islamistischer Terrorgruppen, die ihre Gewalttaten gegen die westliche Welt als Dschihad zur Selbstverteidigung des Islam rechtfertigen. Seit den Terroranschlägen auf die Botschaften der Vereinigten Staaten in Daressalam und Nairobi 1998 gehörte er zu den meistgesuchten Zielpersonen des FBI. Die USA stürzten im Krieg in Afghanistan seit 2001 das mit Bin Laden verbündete Taliban-Regime und fahndeten verstärkt, aber bis 2010 erfolglos nach ihm. In der Nacht zum 2. Mai 2011 erschossen US-Soldaten eines Kommandos Bin Laden bei der von US-Präsident Barack Obama befohlenen Erstürmung seines Anwesens in Pakistan. Familiäre Herkunft. Bin Ladens Vater Muhammad stammte aus dem Jemen. Er stieg in Saudi-Arabien seit den 1950er Jahren mit seinem Familienunternehmen „Saudi Binladin Group“ zum führenden Bauunternehmer und Multimillionär auf, der etwa die wichtigsten Moscheen des Islam renovieren ließ und ein ehrenamtliches Ministeramt erhielt. Bin Laden beschrieb ihn um 1999 als „Begründer der Infrastruktur Saudi-Arabiens“, der die Moscheenrenovierung zum Teil ohne Profit kalkuliert habe. Nach seinem Tod führten einige seiner Söhne das Unternehmen weiter und bauten es zum transnationalen Mischkonzern mit einem auf mehrere Milliarden US-Dollar geschätzten Gesamtvermögen aus. Trotz der Belastung durch Bin Ladens spätere terroristische Aktivitäten behielten sie gute Kontakte zum Königshaus Saud. Bin Ladens Mutter Alia Ghanem (später Hamida al-Attas,; * 1934) stammt aus einer sunnitischen Familie in Latakia (Syrien) und hat zwei Brüder und eine Schwester. Vermutungen, sie habe den schiitischen Alawiten angehört, wiesen sie und ihre Angehörigen 2001 zurück. Muhammad bin Laden lernte Alia Ghanem 1956 in Latakia auf einer Geschäftsreise kennen, heiratete sie dort und zog mit ihr dann nach Dschidda in Saudi-Arabien, wo er sich 1931 niedergelassen hatte. Sie war damals nach einigen Quellen erst 14, nach anderen über 20 Jahre alt. Sie war die zehnte von insgesamt mindestens 22 Frauen ihres Mannes, der sich aber von vielen scheiden ließ und gemäß islamischem Recht immer nur vier Ehefrauen gleichzeitig hatte. Sie soll eher eine Konkubine als eine Ehefrau für ihn gewesen sein. Sie soll kosmopolitischer als Muhammads erste drei saudischen wahhabitischen Ehefrauen eingestellt sein, zeigte sich aber dennoch nach saudischem Brauch öffentlich nur mit Hidschab. Der Familienkreis könnte sie als „Sklavenfrau“ bezeichnet haben, wie es in Haushalten polygamer Muslime für die vierte Ehefrau üblich war. Von bis zu 57 Kindern, die sein Vater gezeugt haben soll, war Osama das siebzehnte Kind und das einzige von Alia Ghanem. Er wurde zwischen März 1957 und Februar 1958 geboren. Sein genaues Geburtsdatum ist unbekannt, da er verschiedene Zeitpunkte angab. 1991 nannte er den Monat Radschab des islamischen Jahres 1377, der dem Januar oder Februar 1958 entspricht. 1998 soll er in einem Interview mit dem Nachrichtensender Al Jazeera den 10. März 1957 genannt haben; in der Interview-Abschrift wird jedoch nur das islamische Jahr 1377 (also zwischen Juli 1957 und Juli 1958) erwähnt. Als Geburtsort nannte er den Malaz-Bezirk der saudi-arabischen Hauptstadt Riad. Lawrence Wright hält den Januar 1958 für das wahrscheinliche Geburtsdatum. Der Vorname „Osama“ umschreibt auf Arabisch poetisch den „Löwen“ und erinnert an einen der Weggefährten des Propheten Mohammed. Bin Laden könnte als einziger Sohn der vierten legalen Frau seines Vaters den Rufnamen „Sohn der Sklavin“ erhalten haben. Minderwertigkeitsgefühle werden daher als ein möglicher Antrieb zum Terrorismus vermutet. Jugend. Seine früheste Kindheit verbrachte Bin Laden zeitweise dort, wo sein Vater in Saudi-Arabien Bauaufträge ausführte. Ab dem sechsten Lebensmonat wohnte er stets in der heimatlichen Region Hedschas, und zwar abwechselnd in Mekka, Medina und Dschidda. Seine frühe Ortsnähe zu heiligsten Stätten hat Bin Laden in Interviews wiederholt betont. Als Junge hielt er sich meist im Haus seiner Familie im Vorort al-Amarija von Dschidda auf. Den Vater, der sich häufig auf Geschäftsreisen befand, sah er nur selten und konnte – auch wegen der vielen Geschwister – keine persönliche Beziehung zu ihm aufbauen. Als Bin Laden vier oder fünf Jahre alt war, ließ sich sein Vater von Alia scheiden und arrangierte für sie eine neue Ehe mit dem Firmenangestellten Muhammad al-Attas. Osama begleitete seine Mutter in deren neues Domizil nahe dem väterlichen Familiensitz. Im neuen Haushalt kümmerte er sich um die Erziehung der vier jüngeren Halbgeschwister – drei Jungen, ein Mädchen. Zu seiner Mutter hatte er ein inniges Verhältnis, das zum Stiefvater war wegen dessen Tätigkeit für den leiblichen Vater aber kompliziert. Sein Jugendfreund Chaled Batarfi beschrieb Osama als „ruhig, scheu, fast mädchenhaft“. Er galt ferner als durchweg friedfertig und selten jähzornig. Ehemalige Schulfreunde erinnern sich an seine Ernsthaftigkeit und Ehrlichkeit. Muhammad bin Laden starb am 3. September 1967 bei einem Flugzeugabsturz. Da Osama und seine Brüder noch nicht volljährig waren, konnten sie das väterliche Erbe nicht antreten. Daraufhin ernannte König Faisal drei Treuhänder, die das Familienvermögen für einige Jahre verwalten und sich um eine standesgemäße Ausbildung der Söhne kümmern sollten. Bin Laden besuchte ab 1968 die staatliche, westlich orientierte "al-Thagr"-Schule im Zentrum Dschiddas. Wie alle ihrer Schüler trug er eine Schuluniform nach angelsächsischem Vorbild und wurde unter anderem von britischen und irischen Englischlehrern unterrichtet. Einer seiner Lehrer für Naturwissenschaften bezeichnete ihn als „durchschnittlichen“, der irische Gastlehrer Seamus O’Brien als „guten“ Schüler. Während seine Halbbrüder Schulen in England und im Libanon besuchten, soll er nur in Saudi-Arabien ausgebildet worden sein. Bin Laden verbrachte seine Ferien standesgemäß beim Bergsteigen in der Türkei oder mit Freunden auf Safari in Kenia. Schon früh besaß er mehrere Limousinen und Pferde. Er war für die risikoreiche Art bekannt, mit der er die Wüste mit Geländewagen und zu Pferd durchquerte. Er war häuslich und hielt familiäre Beziehungen aufrecht. Nach eigener Erinnerung half er schon in früher Jugend auf Straßenbaustellen des Familienunternehmens mit. Als die Bin-Laden-Gesellschaft einen großen Bauauftrag übernehmen sollte, wollte er die Schule verlassen, um sich im Familienunternehmen zu bewähren. Erst der Widerspruch seiner Mutter, so Bin Ladens Erinnerung 1991, habe ihn bewogen, die Ausbildung zu beenden. Entdeckung von Religion und Politik. Bin Laden wuchs in der Tradition der Wahhabiten bzw. Salafiyyas auf, eine hanbalitische Richtung des sunnitischen Islam. Obwohl in seiner frühen Jugend kein starkes Interesse für Religion und Politik bezeugt ist, lernte er schon früh Personen religiöser Prägung kennen. Während des Dhu l-hiddscha bot sein Vater regelmäßig zahlreichen Mekkapilgern eine Bleibe, darunter hohen Geistlichen und Anführern islamischer Bewegungen. Der Vater war an theologischen Fragen interessiert und regte seine Gäste häufig zu entsprechenden Debatten an. Osamas Verhältnis zu Religion könnte sich an der al-Thagr-Schule unter dem Einfluss eines als charismatisch beschriebenen syrischen Sportlehrers entwickelt haben. Er nahm an Treffen eines Studienzirkels teil, den der Lehrer ins Leben rief, um Koranpassagen und Hadiths mit Interessierten zu diskutieren und zu verinnerlichen. An Prinzipientreue appellierend, schilderte der Lehrer unter anderem Gleichnisse, um fundamentalistisch motivierte Gewalt zu legitimieren. Der Lehrer gehörte mutmaßlich zu den Muslimbrüdern, denen sich Bin Laden noch während seiner Schulzeit anschloss. Die syrischen und ägyptischen Ableger dieser Gruppe strebten in den 1970er Jahren einen revolutionären und antiimperialistischen Gesinnungswandel der muslimischen Welt an. Demgegenüber strebten die Muslimbrüder in Saudi-Arabien nicht nach politischem Umsturz, da die sozialkonservative Ulema des saudischen Wahhabismus die Herrschaft des Königshauses Saud stützt. Bin Laden wandte sich ab dem 14. Lebensjahr der Religion zu und übte strikte Selbstkasteiung. Dies forderte er ebenso Mitgliedern des al-Attas-Haushaltes ab, insbesondere seinen Halbgeschwistern. Zu den fünf täglichen Gebetszeiten legte er eine weitere um 1:00 Uhr nachts ein, fastete wie Mohammed an zwei Tagen der Woche, trug fortan kaum westliche Kleidung mehr und kehrte sich von Musik wie Fernsehen ab. Bin Laden äußerte jetzt Besorgnis über den Zustand der arabischen und muslimischen Welt, besonders der Lage der Palästinenser. Er sah den Grund politischer Malaise in allgemeiner Vernachlässigung von Religion. Er klagte, die Muslime seien gottesfern und jugendliche Muslime bloß damit beschäftigt, sich Weltlichem hinzugeben. Auch seine Brüder galten als sehr fromm. Bin Ladens gleichwohl striktere Religiosität wurde in der Familie eher bewundert als kritisiert. Doch beobachtete Mutter Alia Ghanem die spätere Radikalisierung ihres Sohnes mit Sorge. Studium. 1976 immatrikulierte sich Bin Laden für Betriebswirtschaft und Bauingenieurwesen an der König-Abdul-Aziz-Universität zu Dschidda. Allerdings widmete er religiösen Aktivitäten mehr Aufmerksamkeit als seinem Studium. Er gründete eine religiöse Wohlfahrtsorganisation, in deren Rahmen er mit anderen Studenten den Koran und die Lehre vom Dschihad interpretierte. Eine Reihe von Professoren der König-Abdul-Aziz-Universität waren Anhänger der Muslimbruderschaft. Mit dem Ziel, auf Basis des Korans politische und religiöse Ordnung in Einklang zu bringen, traten sie für die Umgestaltung muslimischer Gesellschaften ein. Der Flügel radikaler Muslimbrüder propagierte dabei einen gewaltsamen politischen Kampf, der sich gegen moderate Muslime zu richten versuchte. Einige Quellen geben an, dass Bin Laden sich erst in dieser Zeit radikaleren politischen Lehren zuwandte. Diese beruhten vor allem auf Schriften des Ägypters Sayyid Qutb. Hierzu hielt Mohammad Qutb, der sich als Bannerträger der Lehren seines 1966 hingerichteten Bruders verstand, regelmäßige Vorträge an Bin Ladens Universität, die dieser anhörte. Doch zögerte er nach Erinnerung seines Freundes Dschamal Chalifa, bevor er jenen Lehren zustimmte. Die revolutionäre Rhetorik radikaler Muslimbrüder war für solche jungen Studenten attraktiv, weil sie sich von der konservativen Haltung saudischer Theologen unterschied. Bin Laden suchte während seines Studiums ein Betätigungsfeld im Unternehmen des Vaters. Auf Drängen gaben ihm seine Brüder eine Teilzeitanstellung. Er überwachte den Bau von Straßen, Hotels und Pilgerunterkünften in Mekka. Dort legte er selbst Hand an und bediente schweres Arbeitsgerät. Obwohl er in Interviews späterer Jahre betonte, er habe seinerzeit Nebenverdienst und Studium vereinbaren können, hielt er den Belastungen nicht stand. 1979, ein Jahr vor dem eigentlichen Abschluss, verließ er die Universität. Nach widersprüchlichen Berichten habe er dennoch 1979 oder 1981 einen Universitätsabschluss im Bauingenieurswesen oder im öffentlichen Verwaltungswesen erlangt. Frühe Auslandsaufenthalte. Nach manchen Berichten soll Bin Laden in jungen Jahren Familienmitglieder auf Reisen nach London oder Schweden begleitet haben. Verschiedene Quellen geben auch an, Bin Laden habe eine Sommerschule in Großbritannien oder ein Internat in der Schweiz besucht. Während eines angeblichen Internatsaufenthaltes im Libanon soll er einen westlichen Lebensstil mit Alkoholkonsum, Tanzen in Nachtclubs und sexueller Freizügigkeit gepflegt haben. Nach anderen Berichten gibt es für die meisten dieser Auslandsaufenthalte keine glaubwürdigen Belege; möglicherweise sei Bin Laden dabei mit Halbbrüdern oder anderen Personen verwechselt worden. 2009 schrieb Bin Ladens erste Ehefrau Najwa in ihren Memoiren, er und sie hätten mit mehreren Söhnen 1979 den Staat Indiana in den USA bereist. Zudem sei Bin Laden damals für eine Woche nach Los Angeles geflogen, um sich dort mit Abdallah Yusuf Azzam und anderen Männern zu treffen. Seine Familie sei in Indiana bei einer Freundin Najwas geblieben. Ehen und Kinder. Ehen und Nachkommen Osama bin Ladens Bin Laden heiratete 1974 seine vierzehnjährige Cousine mütterlicherseits Najwa Ibrahim Ghanem, die er durch jährliche sommerliche Verwandtenbesuche in Syrien kennengelernt hatte und die ihm versprochen worden war. Das junge Paar lebte noch mehrere Jahre im Haushalt seiner Mutter und seines Stiefvaters. Sie hatten elf gemeinsame Kinder. Obwohl säkular aufgewachsen, trug Najwa seit ihrer Hochzeit öffentlich stets den für saudische Frauen üblichen Hidschab. Bin Ladens frühere Schwägerin Carmen bin Laden beschreibt sie als „blutjung, unterwürfig und ständig schwanger“. Noch während des gemeinsamen Studiums entschlossen sich Bin Laden und sein Freund Dschamal Chalifa, polygam zu leben. Dies galt in Saudi-Arabien mittlerweile als inakzeptabel, weil muslimische Männer dies oft für Kurzehen ausnutzten. Osama und Chalifa traten daher für die Vereinbarkeit von Islam und nicht-missbräuchlich praktizierter Polygamie ein. 1982 heiratete Bin Laden die sieben Jahre ältere Umm Hamsa aus der angesehenen Familie Sabar aus Dschidda. Sie hat einen Universitätsabschluss für Kinderpsychologie und lehrte am Frauenkolleg der Abd-ul-Aziz-Universität. Mit beiden Frauen und den Kindern aus erster Ehe bezog Bin Laden ein Haus in Dschidda. Mit Umm Hamsa hatte er einen weiteren Sohn, Hamsa. Bin Ladens dritte Ehefrau Umm Chaled aus der Familie Scharif in Medina schloss ein Studium der arabischen Sprachwissenschaften ab und dozierte an einem Lehrerkolleg in ihrer Heimatstadt. Neben dem Sohn Khaled haben die beiden drei Töchter. Die vierte Ehefrau, Umm Ali aus der Familie Gilaini in Mekka, hat drei gemeinsame Kinder mit Bin Laden. Auf ihre Bitten hin ließ er sich während seines Sudanaufenthalts 1994 von ihr scheiden. Nach saudischer Tradition blieben die Kinder bei der Mutter und kehrten mit ihr nach Mekka zurück. 1999 heiratete Bin Laden die jemenitische Ärztin Amal Ahmed al-Sadah in Kandahar. Die damals 17-Jährige wurde nach 2001 und Ausbruch seiner Hepatitis-C-Erkrankung auch seine Pflegerin. Sie wurde bei seiner Tötung am 2. Mai 2011 in Abbottabad verletzt und festgenommen. Sie und ihre 12 Jahre alte Tochter befinden sich in pakistanischem Gewahrsam. Bin Laden hatte zusammen mit diesen fünf Ehefrauen mindestens 24 Kinder. Er wurde als liebevoller, aber auch als strenger Vater geschildert. Er lehnte es ab, seine Kinder zur Schule zu schicken, und ließ sie durch Hauslehrer unterrichten. Einige der Kinder blieben dadurch in ihrer Bildung hinter Altersgenossen deutlich zurück, zum Teil konnten sie kaum lesen. Eine Ehefrau und einige Kinder wurden bei einem Grenzübertritt aus Afghanistan Anfang September 2001 festgenommen und seither im Iran festgehalten. Khaled bin Laden forderte die iranische Führung im März 2010 schriftlich auf, sie freizulassen. Eine der Töchter Bin Ladens soll mit dem Talibanführer Mullah Omar verheiratet sein. Hinwendung zu Waffengewalt. Ab 1979 wandte sich Bin Laden dem Kampf mit Waffengewalt für die Durchsetzung ideologisch-religiöser Ziele in überwiegend muslimischen Ländern zu. Als Gründe dafür werden in der Literatur häufig drei Ereignisse jenes Jahres genannt: die erfolgreiche Islamische Revolution im Iran, die sich auch fundamentalistische Sunniten zum Vorbild nahmen, die Besetzung der Großen Moschee in Mekka ab dem 20. November 1979 und die sowjetische Besetzung Afghanistans, mit der ab dem 25. Dezember 1979 der sowjetisch-afghanische Krieg begann. Kurz nach der Moscheebesetzung in Mekka wurden die Brüder Osama und Mahrous bin Laden für ein bis zwei Tage festgenommen, weil sie sich verdächtig benommen haben sollen bzw. weil Bauwagen der "Bin Laden Company" ohne ihr Wissen zum Schmuggeln von Waffen nach Mekka benutzt worden waren. Es gibt keine Hinweise, dass Osama von der terroristischen Aktion im Vorfeld wusste, und er distanzierte sich damals auch von ihr; allerdings fand er in späteren Jahren lobende Worte für sie. Unterstützung der „arabischen Afghanen“. Bin Laden gab in Interviews in den 1990er Jahren an, die sowjetische Besetzung Afghanistans habe ihn derart erzürnt, dass er schon wenige Tage darauf das erste Mal nach Afghanistan gereist sei. Auch in Folgejahren will er das Land regelmäßig besucht haben, um Spendengelder persönlich zu überbringen. Allerdings habe er die Reisen vor seiner Familie verheimlicht. Laut Chalifa betrat er Afghanistan jedoch erstmals 1984. Nach Darstellung verschiedener Quellen interessierte sich Bin Laden zunächst weniger für Afghanistan als für den Aufstand der Moslembrüder gegen die Herrschaft der alawitischen Baath-Partei in Syrien. Die Revolte hatte 1976 begonnen und wurde erst 1982 blutig niedergeschlagen. Bin Laden soll die syrischen Moslembrüder finanziell unterstützt und sich Afghanistan erst nach deren Niederlage zugewandt haben. Als die saudische Führung die Gründung regionaler Hilfskomitees für Afghanistan organisierte, wurde Bin Laden auf Familienwunsch Zweigstellenleiter für die Region Hedschas. Abdallah Yusuf Azzam war bei mehrmaligen Reisen nach Dschidda sein Gast und versuchte bei Vorträgen, junge Saudis zu bewegen, sich den Mudschaheddin anzuschließen. Seit 1980 oder 1981 hatte er in Dschidda Vorlesungen Azzams besucht. Bei wechselseitigen Besuchen entstand im Laufe der Jahre eine enge persönliche Bindung zwischen beiden. Bin Ladens Haus entwickelte sich bis 1984 zu einer wichtigen Anlaufstelle, in der sich Afghanistanfreiwillige verschiedener Länder vor der Abreise nach Pakistan sammelten. Bin Laden betätigte sich als Spendensammler und errichtete im städtischen Umland militärische Ausbildungslager. Laut seiner Frau Najwa traf er Azzam schon 1979 während eines zweiwöchigen Aufenthalts im US-Bundesstaat Indiana. Er reiste bis 1984 mehrmals nach Islamabad und Lahore in Pakistan, um den Widerstand zu unterstützen. Dabei hielt er sich von Afghanistan und von Peschawar fern, weil ihm die saudische Führung ein persönliches Auftreten dort angeblich untersagt hatte. Da ihn die regelmäßigen Reisen davon abhielten, den Aufgaben im Familienunternehmen nachzukommen, verlor er seine Anstellung. 1984 besuchte Bin Laden auf Einladung Azzams ein Mudschaheddin-Lager in Ostafghanistan und wurde dort Zeuge eines sowjetischen Angriffs. Sein jahrelanges Fernbleiben beschämte ihn: „Ich fühlte, dass mir dieser vierjährige Aufschub nicht vergeben werden konnte, wenn ich nicht selbst zum Märtyrer würde.“ Er war nun überzeugt, dass die Unterstützung der Mudschaheddin intensiviert werden müsse. Er reiste nach Saudi-Arabien zurück und mobilisierte dort in Kürze rund 10 Millionen US-Dollar an Spendengeldern. Bei einer gemeinsamen Hadsch einigte er sich mit Azzam darauf, die wenigen arabischen Freiwilligen für Afghanistan zu stärken und besser zu koordinieren. Azzam erließ eine in der islamischen Welt durchaus umstrittene Fatwa, in der er den Kampf in Afghanistan zur Pflicht aller dazu fähigen Muslime "(fard ayn)" erklärte. 1984 richtete Bin Laden in Peschawar ein "Bait al-ansār" genanntes Gasthaus ein, das als Anlaufstelle für arabische Mudschaheddin diente. Mit Azzam gründete er das Peschawarer Büro "Maktab al-Chadamāt" zwecks Organisation wie Betreuung der Kämpfer und zwecks Verteilung der Spendengelder unter afghanischen Flüchtlingen. Außerdem unterstützte er Abu Sajaf bei der Gründung der Universität "Dawa al-Dschihad", einer Einrichtung in der Umgebung Peschawars, die später als Ausbildungsstelle für Terroristen diente. Als Geldgeber wurde Bin Laden zu einer Respektsperson bei den Mudschaheddin, obschon er die Rolle des charismatischen militärischen Führers nicht ausfüllen konnte. Trotz der Legenden, die zunächst Azzam und später Bin Laden über ihr Wirken verbreiteten, war der Einfluss arabischer Freiwilliger auf den afghanischen Freiheitskampf gering. Die Zahl der „arabischen Afghanen“ überschritt zu keinem Zeitpunkt 3000. Die meisten von ihnen blieben in Peschawar, wo sie sich auf Hilfsdienste für die afghanischen Flüchtlinge konzentrierten, und nahmen nie an Kämpfen gegen die Sowjetarmee teil. Der Märtyrerkult, den diese ihrer Heimatländern bald entfremdeten Araber, inspiriert von den Schriften Sayyid Qutbs und Abdallah Azzams, entwickelten, blieb den afghanischen Mudschaheddin fremd. Auch die Militärhilfe der Araber war nicht immer erwünscht. Ähnliches galt für deren Versuche, wahhabistische oder andere arabische religiöse Prinzipien in Afghanistan zu verbreiten oder die Arbeit westlicher Hilfsorganisationen und Korrespondenten im Land zu behindern. Teilnahme am Partisanenkampf. Zu Beginn seines Engagements in Pakistan und Afghanistan hielt sich Bin Laden mehrere Monate jährlich bei seiner Familie in Saudi-Arabien auf. Bei diesen Gelegenheiten stattete er den saudischen Behörden Bericht über seine Auslandsaktivitäten ab. 1986 brachte er seine Frauen und Kinder nach Peschawar. Er ließ die Höhlen von Tora-Bora an der afghanisch-pakistanischen Grenze zu Munitionslagern ausbauen und führte erstmals eine kleine Einheit arabischer Freiwilliger in den Kampf nach Afghanistan, von wo diese sich aber schnell zurückziehen musste. Sein Entschluss, dauerhaft eigene Widerstandslager für Araber auf afghanischem Boden zu unterhalten, brachte ihn in Konflikt mit Azzam, der die orts- und sprachunkundigen Freiwilligen nur als Mitglieder afghanischer Einheiten kämpfen lassen wollte. Bin Laden ließ im ersten Lager "Masaada" („Höhle des Löwen“) im Nordosten Afghanistans mit schwerem Baugerät, das die Saudi Binladin Group (SBG) zur Verfügung gestellt hatte, künstliche Höhlen anlegen, in denen die Kämpfer sich verschanzen konnten. Seit dem Frühjahr 1987 führte er seine Männer in kleinere Kämpfe gegen sowjetische Einheiten, die zumeist mit demütigenden Niederlagen und Rückzug endeten. Das schädigte den Ruf der arabischen Freiwilligen bei afghanischen Mudschaheddin und sie unterstützenden Pakistanern. Allerdings gelang es Bin Ladens Männern, die Festung Masaada, die kurzzeitig wegen starker sowjetischer Angriffe hatte geräumt werden müssen, zurückzuerobern. Dies wurde für die „afghanischen Araber“ zu einem mythischen Ereignis, das göttlichen Rückhalt zu beweisen schien. Nach widerstreitenden Berichten soll Bin Laden selbst während solcher Gefechte Nervenstärke bewiesen haben oder krank und indisponiert gewesen sein. Gründung von al-Qaida und Ende des Afghanistaneinsatzes. Im Mai 1988 begannen die Sowjets ihren bis Februar 1989 dauernden Abzug aus Afghanistan. Bin Laden und die anderen Führer der „arabischen Afghanen“ wollten ihre Männer aus einem sich abzeichnenden Bruderkrieg zwischen den Mudschaheddin-Gruppen heraushalten und den Dschihad gegen „Ungläubige“ andernorts fortführen. Bei einer Zusammenkunft am 11. August 1988 in Peschawar beschlossen sie, geeignete Männer in einer neuen Organisation namens al-Qaida („die Basis“) zu vereinen. Bin Laden zufolge bezog sich der Begriff zunächst auf das Militärübungslager, in dem Kämpfer auf Tauglichkeit für die neue arabische Elitelegion geprüft wurden. Es herrschte Uneinigkeit, wo genau der Dschihad fortgesetzt werden solle. Der Ägypter Aiman az-Zawahiri, der auf Bin Laden inzwischen großen Einfluss gewonnen hatte, plädierte dafür, den Sturz säkularer Regime in Ländern wie Ägypten herbeizuführen. Für Abdallah Azzam hatte vor dem Hintergrund der Ersten Intifada der Kampf um Palästina Vorrang, den er mithilfe der neugegründeten islamischen Hamas als Gegengewicht zur säkularen Fatah Jassir Arafats führen wollte. Bin Laden schlug vor, die „arabischen Afghanen“ in Kaschmir, auf den Philippinen oder in den zentralasiatischen Republiken der Sowjetunion einzusetzen. Weil der Großteil des Geldes zur Unterstützung der „arabischen Afghanen“ aus Saudi-Arabien strömte, sollte auch die Führung der Dschihadisten einem Saudi obliegen. Dass die Wahl dieses „Emirs“ 1988 auf Bin Laden fiel, hing auch mit wachsenden Animositäten zwischen den Ägyptern um Zawahiri und den Unterstützern Azzams zusammen. Die arabischen Gruppierungen, die vor dem Hintergrund des sowjetischen Abzugs mehr Zulauf von Freiwilligen denn je verzeichneten, konkurrierten in der Folge um Gunst und Finanzmittel Bin Ladens. Gleichzeitig reduzierten die saudische Führung und die USA ihre Hilfen für die arabischen Mudschaheddin, was diese verärgerte und die einstigen Unterstützer als neue Gegner erscheinen ließ. In einem 1999 ausgestrahlten Interview mit "Al Jazeera" bestritt Bin Laden, dass die arabischen Dschihadisten jemals von den USA unterstützt worden seien. Im Kampf um die Stadt Dschalalabad erlitten Bin Laden und seine Männer zusammen mit den afghanischen Mudschaheddin im Frühjahr 1989 eine schwere Niederlage gegen die afghanischen Regierungstruppen. Der Rückschlag verschärfte den Zwist zwischen den Fraktionen der Mudschaheddin. Bin Laden reiste nach Saudi-Arabien, um von der Regierung in Riad Anweisung zu erhalten, welche Seite er unterstützen solle. Er erhielt die Antwort, er und seine Männer sollten Afghanistan und Pakistan am besten ganz verlassen. Bin Laden kam der Aufforderung nach und kehrte im Herbst 1989 in sein Heimatland zurück, ebenso die meisten arabischen Freiwilligen. Der in Peschawar verbliebene Azzam starb im November 1989 bei einem Attentat unbekannter Urheber. Saudi-Arabien (1989–1992). Nach der Rückkehr nach Saudi-Arabien lebte Bin Laden abwechselnd in Dschidda und in Medina. Er betätigte sich erneut im Familienunternehmen und überwachte vor allem Straßenbauprojekte. Sein damaliges Vermögen wird auf 7 Millionen US-Dollar geschätzt, rund 270.000 US-Dollar flossen jährlich durch Gewinnanteile an der SBG hinzu. In Saudi-Arabien war er inzwischen zu einer respektablen Persönlichkeit geworden. Die saudischen Medien zeichneten das Bild, Bin Laden und seine Männer seien für die Niederlage der Weltmacht Sowjetunion in Afghanistan hauptverantwortlich gewesen. In Reden und Handeln Bin Ladens trat ein wachsendes politisches Sendungsbewusstsein zutage, das Konfliktpotential mit der saudischen Führung barg. Mehrfach argumentierte er in der familieneigenen Moschee in Dschidda für die Notwendigkeit, Dschihad gegen die USA zu führen, da Washington nur bei Gewaltanwendung Abstand von der Unterstützung Israels nehmen werde. Er forderte seine Zuhörer dazu auf, amerikanische Handelswaren zu boykottieren. 1990 schlug Bin Laden dem Prinzen Turki bin Faisal Al Saud, Leiter des saudischen Auslandsgeheimdienstes, vor, seine in Afghanistan ausgebildeten Männer in den Kampf gegen die kommunistische Führung im Anrainerstaat Südjemen zu führen, doch wurde der Vorschlag zurückgewiesen. Als sich Süd- und Nordjemen 1991 vereinigten, schloss Bin Laden bei mehreren Reisen ins Nachbarland mit nordjemenitischen Stammesführern ein Bündnis mit dem Vorhaben, die Führer der an der neuen Koalitionsregierung im Jemen beteiligten Sozialisten aus dem Süden gezielt zu töten. Bei diesen Unternehmungen kamen erstmals Männer aus Bin Ladens al-Qaida-Gruppe außerhalb Afghanistans zum Einsatz. Infolge mehrfachen Protests des jemenitischen Präsidenten Ali Abdullah Salih beim saudischen König Fahd musste Bin Laden seine Kampagne im Jemen einstellen. Sein Reisepass wurde eingezogen, und die Führung untersagte ihm weitere außenpolitische Aktivitäten. Bin Laden warnte ebenfalls vor dem säkularen Regime Saddam Husseins im Irak. Er sah seine Befürchtungen bestätigt, als die irakische Armee im August 1990 mit dem Einmarsch in Kuwait den Zweiten Golfkrieg auslöste. Saudi-Arabien war überzeugt, dass die Einnahme kuwaitischer Ölfelder eigentliches Ziel Husseins war. Zögernd nahm die Regierung in Riad das Angebot aus Washington an, mehrere hunderttausend amerikanische Soldaten zum Schutz Saudi-Arabiens im Land zu stationieren (→ Operation Wüstensturm). Bin Laden betrachtete diese Einladung an Nichtmuslime als Verstoß gegen das Gebot Mohammeds, in Arabien dürfe es nur eine Religion geben. Vergeblich versuchte er, die saudische Führung zu überzeugen, er allein könne eine Freiwilligenarmee von 100.000 Mann aufstellen, um das Land zu verteidigen. Der Kuwait-Krieg endete im März 1991. Anschließend warb Bin Laden mithilfe einflussreicher Unterstützer darum, sein Ausreiseverbot aufzuheben. Er wollte nach Afghanistan zurückkehren, um zwischen zerstrittenen Mudschaheddin-Gruppen zu vermitteln, die inzwischen kurz vor dem Sturz der marxistischen Regierung in Kabul standen. Im März 1992 erhielt er seinen Pass zurück und reiste nach Afghanistan. Dort gewann er bald den Eindruck, seine Vermittlungsbemühungen unterminierten die Versuche des Prinzen Turki, die islamische Gruppierung von Gulbuddin Hekmatyār zu stärken. Bin Laden erklärte seinem Umfeld, die saudische Führung plane, ihn in einem Komplott mit dem pakistanischen Geheimdienst ISI ermorden zu lassen. Leben und wirtschaftliche Betätigung. Bin Laden entschloss sich, nicht nach Saudi-Arabien zurückzukehren. Stattdessen nahm er eine bereits 1990 von der Regierung in Khartum ausgesprochene Einladung an, sich im Sudan niederzulassen. Bin Laden kannte das Land von Geschäftsreisen für die SBG, die den Flughafen Bur Sudan ausbaute. Im großen, ärmlichen und politisch instabilen Sudan hatte es 1989 einen von islamischen Gruppen getragenen Militärputsch gegeben. Im Gegensatz zu den Regierungen anderer arabischer Staaten begrüßte die neue sudanesische Führung, wenn arabische Exmudschahiddin aus Afghanistan ins Land übersiedelten. Einige Hundert taten dies in den folgenden Jahren. Bin Laden folgte mit seinen Frauen und Kindern im Jahr 1992. Sie lebten gemeinsam in einer Villa in Khartums Stadtteil Riad. Als geistiger Führer der Islamisierung des Sudan gilt Hasan at-Turabi, Vorsitzender der "Nationalen Islamischen Front", die 1969 als Gegenstück zur ägyptischen Muslimbruderschaft gegründet worden war. Turabi wollte den Sudan zum Zentrum einer islamischen Revolution machen, in deren Zuge die Gemeinschaft aller Muslime („Umma“) und eine Abgrenzung vom Westen herbeigeführt werde. Viele seiner Vorstellungen, dass etwa die Scharia nur schrittweise eingeführt werden könne, waren mit denen Bin Ladens nicht in Einklang zu bringen. Später gerieten beide darüber in Meinungsverschiedenheiten. Bin Laden gründete im Sudan eine Reihe Firmen, die zur Dachgesellschaft "Wadi El Aqiq" zusammengefasst wurde. Sie betätigte sich in unterschiedlichen Wirtschaftszweigen; wie etwa Bau, Lederherstellung, Produktion von Insektiziden, Import von Lastwagen, Maschinen und Fahrrädern sowie im Agrarwesen. In der dürftig entwickelten sudanesischen Wirtschaft wurde Bin Laden zum Hauptinvestor, obwohl nur rund 500 Angestellte für ihn arbeiteten. Außerdem lieh er dem sudanesischen Staat mehrmals Geld zum Ankauf von Weizen und Erdöl. Als Bezahlung für den Ausbau von Straßen erhielt Bin Laden Ländereien und stieg so zum vielleicht größten Grundbesitzer des Landes auf. Beim Export wichtiger sudanesischer Agrarprodukte, wie Sesam und Gummiarabikum, hatte er fast eine Monopolstellung inne. Überdies erwarb er mehrere Häuser in Khartum, in denen er Gäste und Gefolgsleute bewirtete. Sein Vermögen verteilte er auf Konten in Khartum, Dubai, London, Malaysia und Hongkong, die unter Namen von al-Qaida-Mitgliedern geführt wurden. Da er mit seinen wirtschaftlichen Aktivitäten zumeist Verluste verzeichnete, blieb Bin Laden von monatlichen Gewinnbeteiligungen der SBG abhängig. Zu Beginn seines Aufenthalts im Sudan zeigte Bin Laden kaum Neigung, seine politische Tätigkeit fortzusetzen. Freunden erklärte er, der politische Kampf sei für ihn vorüber. Al-Qaida-Mitglieder, die auf seinen Landgütern arbeiteten, führten zwar weiterhin Militärübungen durch, aber in geringem Umfang. Bin Laden widersetzte sich gar der Forderung, seine Kämpfer im Bürgerkrieg der sudanesischen Regierung gegen den christlichen Süden des Landes einzusetzen. USA als neuer Hauptgegner. Bei wöchentlichen Treffen der al-Qaida-Führung in Bin Ladens Gästehaus in Khartum wurde ab Herbst 1992 vermehrt über die Bedrohung der islamischen Welt seitens der USA diskutiert. Trotz Abzugszusagen aus Washington zu Beginn des Kuwaitkrieges waren in Saudi-Arabien weiterhin US-Truppen stationiert. Der im November 1992 begonnene US-Militäreinsatz in Somalia zur Unterstützung der UN-Operation „Wiederherstellung der Hoffnung“ erschien der al-Qaida-Führung als Teil einer umfassenden Kreuzzugsstrategie des christlichen Westens gegen den Islam. Rufe nach einem Dschihad gegen die USA kamen in Bin Ladens Umfeld auf. Er schloss sich unter dem Einfluss seines Freundes und religiösen Beraters Mamduh Mahmud Salim, genannt Abu Hadscher, bald diesen Forderungen an. Am 29. Dezember 1992 ereigneten sich zwei Bombenanschläge auf Hotels im jemenitischen Aden; zwei Menschen starben. Ziel der Anschläge waren vermutlich US-Soldaten, die im Rahmen des Somalia-Einsatzes in der Stadt untergebracht waren; zu Schaden kamen sie aber nicht. In einigen Darstellungen gelten jene Anschläge, die in US-Medien kaum registriert wurden, als erste Terrorakte al-Qaidas; auch Bin Laden hat in späteren Jahren die Urheberschaft seiner Organisation eingeräumt. Weil das Töten Unschuldiger ein moralisches Dilemma darstellt, erließ Abu Hadscher zwei Fatwas, in denen er die Ermordung von US-Soldaten und von Menschen, die sie direkt oder indirekt unterstützten, als legitim darstellte. Internationalisierung der Aktivitäten. Bis 1994 vernetzte sich al-Qaida auf internationaler Ebene mit weiteren islamistischen Gruppierungen, die zum Teil andere Ziele verfolgten und auch andere Strukturen nebst Methoden besaßen. So traf Bin Laden in dieser Zeit Imad Mughniyah, den Sicherheitschef der schiitischen Hisbollah im Libanon, und al-Qaida-Männer übten in Hisbollah-Ausbildungslagern. Kontakte gab es auch zur Islamischen Vereinigung von Umar Abd ar-Rahman, dem „blinden Scheich“, der durch Anschläge auf Politiker wie Touristen einen politischen Umsturz in Ägypten einleiten wollte. Auch für Rahman wurden die USA als Unterstützer der Regierung in Kairo nun zum Gegner. Anhänger von Rahman planten seit 1992 Terroranschläge in New York, die nach späteren Informationen des FBI von Bin Laden finanziert werden sollten. Auch mit der im Sudan befindlichen Gruppe al-Dschihad unter Aiman az-Zawahiri, den Bin Laden aus Afghanistan kannte, pflegte al-Qaida Kontakte. Wie Rahman wollte ebenso Zawahiri das ägyptische Regime stürzen, lehnte die Operationen der Islamischen Vereinigung aber ab, weil sie zu Antiterroraktionen der ägyptischen Geheimpolizei führten, bei denen auch Zellen von al-Dschihad ausgehoben wurden. Zawahiri verweigerte sich in dieser Zeit der antiamerikanischen Kampagne Rahmans und Bin Ladens, da er die Amerikaner für seine Zwecke auszunutzen hoffte. Ständige Geldnöte seiner Organisation zwangen ihn 1993 jedoch, Bin Ladens finanzielle Unterstützung zu suchen. Er sah die Kooperation ursprünglich nur als Bündnis auf Zeit an. Bei einem gescheiterten Anschlag auf den ägyptischen Innenminister Hassan al-Alfi setzte al-Dschihad im August 1993 erstmals Selbstmordattentäter ein. Dies war bis dahin eine bei sunnitischen Gruppen fast unbekannte Praxis. Am 26. Februar 1993 verübte Ramzi Ahmed Yousef den Bombenanschlag auf das World Trade Center 1993 in New York, bei dem sechs Menschen getötet und über tausend verletzt wurden. Da der Täter in einem afghanischen al-Qaida-Lager zum Sprengstoffspezialisten ausgebildet worden war, wurden westliche Medien nun erstmals auf diese Gruppe und Bin Laden aufmerksam. So berichtete die Nachrichtenagentur Agence France-Presse am 30. Mai 1993 über einen Mann, der „von al-Qaida ausgebildet worden“ sei, und sprach ferner von „einer geheimen Organisation in Afghanistan, die von einem wohlhabenden saudischen Geschäftsmann namens Osama bin Laden finanziert wird, der in Dschidda eine Baufirma betreibt.“ Ungeklärt blieb, ob Yousef den Anschlag in New York im Auftrag Rahmans oder Bin Ladens ausgeführt hatte. Bin Ladens steigender Bekanntheitsgrad führte immer mehr junge Männer aus verschiedenen islamischen Ländern in al-Qaidas Ausbildungslager südlich Khartums. Geübt wurde an Waffen, die aus dem afghanischen Tora-Bora mit einem von Bin Laden erworbenen US-amerikanischen Militärflugzeug in den Sudan verfrachtet worden waren. Neue Dschihadisten nahm er persönlich in Empfang, stellte ihnen die USA als Hauptfeind der muslimischen Welt dar und behauptete, der Vietnamkrieg und der US-Rückzug aus dem Libanon 1983 hätten gezeigt, der Kampfeswille der Amerikaner könne schon durch relativ geringe Verluste gebrochen werden. Dies fand er bestätigt, als das US-Militär im März 1994 aus Somalia abzog. Er präsentierte den Abzug als Erfolg al-Qaidas. Deren Beteiligung an der Tötung von US-Soldaten in der Schlacht von Mogadischu bestätigte später Vertreter der US-Geheimdienste; wobei der sudanesische Geheimdienst entgegenhielt, lediglich einige Dutzend al-Qaida-Kämpfer seien nach Somalia gesandt worden, dort in Konflikt mit einheimischen Milizenführern geraten und hätten sich im Oktober 1993 wieder in den Sudan abgesetzt. Mit Finanzmitteln unterstützte Bin Laden zeitweise den Guerillakrieg der GIA gegen das Militär in Algerien, das nach dem Wahlsieg der Islamischen Heilsfront 1992 geputscht hatte. Jedoch warfen GIA-Vertreter bald Bin Laden Schwäche und Nachgiebigkeit gegenüber Demokraten vor. Dieser befürchtete eventuell, die Terrorkampagne der GIA, der mehrere zehntausend Zivilisten zum Opfer fielen, schade dem Ansehen der dschihadistischen Bewegung. Er entzog der GIA schließlich seine Unterstützung. Während des Bosnienkrieges kam es zahlreichen Gräueltaten ausländischer muslimischer Freiwilliger, unter anderem unter der Führung des Oberbefehlshabers der bosnischen Armee, Rasim Delić, sogenannter Mudschaheddin, an Serben und Kroaten in Zentralbosnien und der Region von Ozren. Geschickt von bin Laden, kämpften die al-Qaida-Anhänger während des gesamten Krieges mit der bosnischen Armee an vorderster Front. Wachsende Probleme. Am 4. und 5. Februar 1994 versuchte eine radikale Gruppierung unter Führung des Libyers Abdullah al-Chalifei, einem ehemaligen Mudschaheddin, Bin Laden zu ermorden. In mehreren wirr verlaufenden Aktionen überfielen Chalifei und seine Männer zwei Polizeiwachen in Khartum, um Waffen zu erbeuten, töteten 16 Personen beim Sturm auf Bin Ladens Moschee, feuerten auf Mitarbeiter seiner Unternehmen und griffen schließlich auch seine Villa an, wo sie jedoch überwältigt wurden. Bin Laden, der eine Urheberschaft des ägyptischen Geheimdienstes vermutete, blieb unverletzt, mehrere seiner Mitarbeiter und Gäste wurden aber von Geschossen getroffen. Bin Laden hatte seinen bis dato freien Lebensstil im Sudan dementsprechend zu ändern. Auf Zawahiris Drängen hin umgaben ihn nun ständig ägyptische Leibwächter, und er verließ sein Haus nur noch bewaffnet. Während die meisten westlichen Geheimdienste noch nicht auf Bin Laden und al-Qaida aufmerksam geworden waren, brachten deren Aktivitäten die saudische Führung in der arabischen Welt zunehmend in diplomatische Bedrängnis. Algerien und Ägypten forderten die Saudis dazu auf, ihrem Staatsbürger Einhalt zu gebieten. Als der Versuch, durch die Entsendung von Mitgliedern seiner Familie in den Sudan mäßigenden Einfluss auf Bin Laden auszuüben, scheiterte, entzog ihm König Fahd am 5. März 1994 die saudische Staatsbürgerschaft. Sein Halbbruder Bakr bin Laden, Chef des Clans, verstieß ihn in einer öffentlichen Erklärung kurz darauf aus der Familie. Das saudische Innenministerium beschlagnahmte Bin Ladens Anteile an der SBG, was ihn schnell in Finanznot brachte. Er verschärfte daraufhin seine Rhetorik gegen den saudischen König und die ihn tragende Geistlichkeit. Zur Verbreitung seiner gegen das Regime in Riad gerichteten Propaganda diente ihm ein als „Beratungs- und Reformausschuss“ („Advice and Reformation Committee“) bezeichnetes, von al-Qaida in London betriebenes Informationsbüro. Auch im Privatleben wuchsen Bin Ladens Probleme. Mehrere seiner heranwachsenden Söhne waren mit den Lebensbedingungen im Sudan unzufrieden und wollten nach Saudi-Arabien zurückkehren. Seine vierte Ehefrau Umm Ali bat ihn um Scheidung, und Bin Laden willigte ein. Umm Ali zog mit den drei gemeinsamen Kindern nach Mekka. Aufgrund seiner Finanzschwierigkeiten teilte Bin Laden den al-Qaida-Männern Ende 1994 mit, dass er ihre Gehälter kürzen müsse. Auch Sonderzuweisungen für seinen engsten Umkreis wurden eingeschränkt. Bisher hatten die meisten al-Qaida-Mitglieder unterstellt, seine Finanzmittel seien unerschöpflich. Da der enge Zusammenhalt der Dschihadisten im Sudan auch mit den regelmäßigen Zahlungen zusammenhing, wirkte die Ankündigung entmutigend. Es kam zu ersten Absatzbewegungen. Medani al-Tajeb, der Schatzmeister von al-Qaida, der mit einer Nichte Bin Ladens verheiratet war, kehrte nach Saudi-Arabien zurück. Bin Ladens enger sudanesischer Gefolgsmann Dschamal al-Fadl tauchte unter, nachdem er in Bin Ladens Unternehmen Geld unterschlagen hatte. Anschließend bot Fadl mehreren Geheimdiensten Informationen über al-Qaida an und verkaufte diese 1996 für 1 Million Dollar an die amerikanische Regierung. Fadl berichtete den Amerikanern unter anderem, Bin Laden habe 1994 versucht, von einem sudanesischen General Uran über Schwarzmarktwege zu beziehen, um offenbar eine „schmutzige Atombombe“ bauen zu können. Allerdings sei Bin Laden bei dem Geschäft betrogen worden. Außerdem habe er mit der sudanesischen Regierung an der Produktion chemischer Kampfstoffe gearbeitet. Noch immer versuchte die saudi-arabische Führung über Mittelsmänner Bin Laden zum Einlenken zu bewegen. Man bot ihm eine Restitution seines Eigentums, die Rückgabe der Staatsbürgerschaft und möglicherweise auch Geldzahlungen an. Im Gegenzug sollte er dem Dschihad abschwören und seine Angriffe auf König Fahd widerrufen. Bin Laden verlangte jedoch zusätzlich eine volle Amnestie und einen festen Zeitplan für den vollständigen Abzug amerikanischer Truppen aus Saudi-Arabien. Die Unterhandlungen führten zu keinem Ergebnis. Mit einem per Fax verschickten, offenen Brief an König Fahd, in dem er diesen zum Rücktritt aufforderte, vollzog Bin Laden im August 1995 den endgültigen Bruch mit der saudischen Führung. Er prangerte die politischen, wirtschaftlichen und sozialen Verhältnisse in Saudi-Arabien an, machte den König persönlich und dessen Prunksucht sowie die Abhängigkeit vom Rohstoff Erdöl für die Zustände verantwortlich und protestierte erneut gegen die Stationierung amerikanischer Truppen in seiner Heimat: „Diesen schmutzigen, ungläubigen Kreuzzüglern darf nicht gestattet werden, im heiligen Land zu bleiben.“ Allerdings rief Bin Laden, der Hoffnungen an eine Thronübernahme von Kronprinz Abdullah ibn Abd al-Aziz knüpfte, weder zum Sturz des Hauses Saud noch zu einer politischen Revolution in Saudi-Arabien auf. Bei einem Sprengstoffanschlag auf die Befehlsstelle der saudischen Nationalgarde in Riad starben am 13. November 1995 sieben Menschen, darunter fünf US-Bürger, die die saudischen Sicherheitskräfte ausbilden sollten. Die Tat wurde von der saudischen Führung als Racheakt für die Hinrichtung eines „arabischen Afghanen“ wenige Monate zuvor bewertet. In Reaktion auf den Anschlag wurden weitere „arabische Afghanen“ verhaftet und vier angeblich Verantwortliche im saudischen Fernsehen präsentiert, wo sie Schuldbekenntnisse verlasen und behaupteten, von den Erklärungen Bin Ladens und anderer Radikaler angestachelt worden zu sein. Indes bestehen Zweifel, ob die unter Folter erzwungenen Geständnisse auf deren wirkliche Täterschaft schließen lassen. Bin Laden bekannte sich selbst niemals öffentlich zu einer Rolle al-Qaidas bezüglich des Anschlags, soll aber einem arabischen Journalisten gegenüber vertraulich geäußert haben, er habe die verantwortliche Zelle aktiviert, nachdem sein Brief an König Fahd folgenlos geblieben war. Ausweisung. Am 26. Juni 1995 verübten al-Dschihad und die Islamische Vereinigung ein Attentat auf den ägyptischen Präsidenten Husni Mubarak. Schauplatz war die äthiopische Hauptstadt Addis Abeba, in der Mubarak anlässlich eines Gipfels des Staatenbundes OAU weilte. Leiter der Operation war Mustafa Hamsa, ein führendes Mitglied sowohl al-Qaidas als auch der Islamischen Vereinigung. Mubarak blieb von den Geschossen der Attentäter unversehrt, zwei seiner Leibwächter und drei Angreifer starben jedoch bei Schusswechseln. Durch die Verhaftung weiterer Verschwörer konnte die äthiopische Polizei die sudanesischen Verbindungen der Drahtzieher offenlegen. Der UN-Sicherheitsrat forderte den Sudan im Januar 1996 mit UN-Resolution 1044 auf, die Verantwortlichen an Äthiopien auszuliefern und Terroristen nicht länger Zuflucht zu gewähren. Im April 1996 traten weitreichende Wirtschaftssanktionen gegen das Land in Kraft. Im Nachgang des Attentats nötigte die ägyptische Geheimpolizei zwei ägyptische Jugendliche, das Umfeld Zawahiris in Khartum auszuspionieren und bei der geplanten Ermordung des al-Dschihad-Führers zu helfen. Mehrere Anschläge auf Zawahiris Leben schlugen jedoch fehl, und die jugendlichen Spione konnten enttarnt werden. Zawahiri ließ sie unter einem Privattribunal hinrichten; worüber sich Hasan at-Turabi und die sudanesische Führung entsetzt zeigten, warfen sie den ägyptischen Dschihadisten doch vor, die Gesetze ihres Gastlandes zu missachten. Zawahiri und seine Anhänger wurden aufgefordert, den Sudan unverzüglich zu verlassen. Sie reisten nach Afghanistan, Jordanien und in den Jemen aus. Wegen der inzwischen engen Verflechtungen zwischen al-Dschihad und al-Qaida verlor Bin Laden dadurch einige seiner wichtigsten Gefolgsleute im Sudan. Der geschwächte al-Dschihad verübte am 19. November 1995 einen Selbstmordanschlag auf die ägyptische Botschaft im pakistanischen Islamabad, bei dem 16 Menschen starben und 60 verletzt wurden. Da sowohl die Tötung einfacher Botschaftsmitarbeiter als auch der Einsatz von Selbstmördern unter den al-Dschihad-Mitgliedern umstritten war, sah sich Zawahiri genötigt, den Anschlag in mehreren Erklärungen zu verteidigen: Wer für die ägyptische Regierung gearbeitet habe, sei es auch nur in einer niederen Positionen, könne nicht als unschuldiges Opfer gelten; und Märtyrertum sei ein legitimes Mittel im Kampf gegen die Feinde Gottes. Die Ausführung des Attentats und Zawahiris Rechtfertigungen wurden zum Vorbild nachfolgender Aktionen al-Qaidas. Bin Laden missbilligte das Attentat von Islamabad, weil er Pakistan als wichtigste Verbindung zu seinen Stellungen in Afghanistan und Gastland vieler „arabischer Afghanen“ nicht zum Feind der Dschihadisten machen wollte. Persönlich erwirkte er bei den pakistanischen Behörden die Freilassung von 200 „arabischen Afghanen“, die nach dem Attentat verhaftet worden waren. Sie durften Bin Laden in den Sudan begleiten. Die Attentate in Addis Abeba und Islamabad unterminierten die Stellung Bin Ladens im Sudan, obwohl es sich bei den Attentaten nicht um Operationen al-Qaidas gehandelt hatte. Die Regierung in Khartum war nun darum bemüht die drohende diplomatische Isolation des Landes abzuwenden, und mithin beäugte man Bin Ladens Verbleib mit Argwohn. Der sudanesische Geheimdienst streute falsche Gerüchte, eine Auslieferung Bin Ladens nach Frankreich stünde bevor; dies sollte ihn offenbar zur freiwilligen Ausreise bewegen. Staatspräsident Umar Hasan Ahmad al-Baschir bot dem saudischen Kronprinzen Abdullah die Überstellung Bin Ladens nach Saudi-Arabien an, falls diesem Straffreiheit gewährt würde. Das Angebot wurde zurückgewiesen. Die USA ließen gegenüber der Führung in Khartum vertraulich durchblicken, die Ausweisung Bin Ladens sei eine Voraussetzung dafür, dass der Sudan von der Liste der den internationalen Terrorismus unterstützenden Staaten gestrichen würde. Eine Auslieferung an die USA wurde jedoch nicht gefordert, weil offenbar keine Beweise vorlagen, um Bin Laden wegen der Ermordung von US-Bürgern anklagen zu können. In mehreren persönlichen Gesprächen erläuterte Hasan at-Turabi Bin Laden im Frühjahr 1996, der al-Qaida-Führer müsse entweder seine politische Betätigung einstellen oder den Sudan verlassen. Bin Laden, der sich dem Ultimatum nicht beugte, verwies auf die Dankespflicht des Sudan wegen seiner Investitionen im Land. Schließlich erklärte er sich aber zur Ausreise bereit. Weil er keinen Pass besaß, war die Auswahl möglicher Zufluchtsorte begrenzt. Nachdem er auch ein Untertauchen in Ägypten und Somalia erwogen hatte, entschied sich Bin Laden, nach Afghanistan zurückzugehen. Obwohl ihm die sudanesische Regierung noch immer Geld schuldete, zwang sie ihn, seine großen Besitztümer im Land zu einem Bruchteil ihres Wertes zu veräußern. Am 18. Mai 1996 wurde Bin Laden vom Sudan ins afghanische Dschalalabad ausgeflogen. Begleitet wurde er nur von seinen Söhnen Saad und Omar sowie einigen Leibwächtern. Den verbliebenen al-Qaida-Männern finanzierte Bin Laden den Rückflug in ihre Heimatländer. Einige von ihnen wurden eingeladen, ihm nach Afghanistan zu folgen. Am 25. Juni 1996 verloren bei einem Sprengstoffanschlag auf US-Soldaten in Zahran in Saudi-Arabien 19 Menschen ihr Leben. Ausbildungslager, Anschläge, Verfolgung. Bin Laden kehrte 1996 nach Afghanistan zurück, wo sich die Staatsordnung durch den seit 1989 herrschenden Bürgerkrieg weitgehend in Auflösung befand. Jene Instabilität ermöglichte es den Taliban unter Mohammed Omar, politische Oberhand zu gewinnen. Zur Ergreifung und zum Erhalt der Macht sicherten Pakistan und Saudi-Arabien den Taliban finanzielle wie logistische Unterstützung zu; zudem erpressten die Taliban Schutzgelder von Mohnbauern wie Opiatschmugglern. Der erste Haftbefehl gegen Bin Laden wurde von der libyschen Regierung am 16. März 1998 beantragt und von Interpol am 15. April 1998 offiziell bestätigt. Er wurde des Mordes an zwei Beamten des BND verdächtigt. Am 7. August 1998 ereigneten sich zwei Anschläge auf die US-Botschaften in Daressalam und Nairobi. Etwa 224 Menschen kamen ums Leben, etwa 5.000 wurden verletzt. Westlichen Medienberichten zufolge wurden die Anschläge von regional ansässigen Mitgliedern al-Qaidas im Auftrag Bin Ladens durchgeführt. US-Präsident Clinton ließ am 20. August 1998 daraufhin mehrere Ausbildungslager nahe dem afghanischen Khost mit Marschflugkörpern unter Beschuss nehmen. In einem der Lager, wie die CIA im Jahr 2001 bekanntgab, hätten sich an jenem Tage hochrangige Mitglieder al-Qaidas zusammengefunden; und selbst Bin Laden sei zugegen gewesen. Doch eine gute Stunde vor dem Bombardement habe er das Gelände wieder verlassen. Ein weiteres Ziel des Raketenangriffs war die Asch-Schifa-Arzneimittelfabrik im Sudan, die irrtümlich für eine Chemiewaffenfabrik al-Qaidas gehalten wurde. Nach Clintons Worten war mit den Luftangriffen beabsichtigt worden, das Netz radikaler al-Qaida-Gruppierungen empfindlich zu schwächen; denn man erahnte bereits die Rolle Bin Ladens als seinerzeit einflussreicher Organisator und Geldgeber des internationalen Terrorismus. Am 7. Juni 1999 veranlasste die US-Regierung, Bin Laden auf die FBI-Liste der meistgesuchten Flüchtigen zu setzen. Bis Oktober 1999 bildete die CIA zirka 60 pakistanische Geheimkommandos aus, um Bin Laden in Afghanistan aufzuspüren und zur Strecke bringen zu können. Kooperativ stellte Clinton dem damaligen Regenten Pakistans Nawaz Sharif in Aussicht, bestehende Handelssanktionen zu lockern und Wirtschaftshilfe zu leisten. General Pervez Musharraf stürzte jedoch Sharif am 12. Oktober 1999, und er unterband die Weiterführung des Geheimprojekts trotz erheblicher US-Einwände. Bis 2001 versuchte die US-Regierung, die Taliban zur Auslieferung Bin Ladens zu bewegen. Zwar zeigten sie sich gesprächsbereit, verlangten im Gegenzug aber die Anerkennung ihres Regimes und die Aufhebung der obwaltenden Boykottmaßnahmen. Am 12. Oktober 2000 verübten Mitglieder al-Qaidas einen Selbstmordanschlag auf das Kriegsschiff "USS Cole (DDG-67)". Am 19. Dezember 2000 stellte der UN-Sicherheitsrat dem Talibanregime das Ultimatum, den mutmaßlichen Terroristenführer Bin Laden innerhalb 30 Tagen auszuliefern. Die afghanische Talibanregierung beugte sich dem Ultimatum jedoch nicht und berief sich auf das Gastrecht. Am 9. September 2001 ließ Bin Laden nach Aussage eines früheren Taliban den wichtigsten Anführer der afghanischen Opposition gegen die Taliban, Ahmad Schah Massoud, mithilfe zweier Selbstmordattentäter ermorden. Ideologie. Bin Laden nahm die islamische Lehre von Dar al-Harb und Dar al-Islam auf. Diese zwei Begriffe finden sich weder im Koran noch in der Hadithtradition. Systematisiert wurde sie bereits im 8. Jahrhundert unter dem Kalifen Hārūn ar-Raschīd. Der Muslimbruder Azzam war dabei Bin Ladens unmittelbarer Lehrer. Erneut in der islamischen Welt populär gemacht hat diese Lehre jedoch Sayyid Qutb. Endziel ist die Schaffung eines muslimischen Weltstaates. Das Mittel dazu ist der Dschihad, der als Kampf gegen die Ungläubigen und damit als vornehmste Aufgabe verstanden wird, für die zu sterben höchstes religiöses Ziel ist. Kriegerische Traditionen, die Verherrlichung des Todes im Kampf für den Islam sowie ein Gefühl der Verunsicherung und Kränkung bei vielen Muslimen, die sich von der westlichen Welt zurückgesetzt und ausgebeutet fühlen, haben seinen Aufstieg begünstigt. Im Zusammenhang mit seiner Ideologie bediente sich Bin Laden klassischer Werkzeuge der politischen Agitation und spielte mit den Bedürfnissen und unerfüllten Wünschen seiner Adressaten. Insbesondere gelang es Bin Laden, religiöse mit gesellschaftlich-sozialen Motiven zu verbinden. So verwendete er immer wieder einen nicht religiösen Ehrbegriff, der sich auf Integrität des (arabischen) Mannes und seine Aufgabe bezieht, sein eigenes Ansehen und das der Familie zu schützen. Er verknüpft diese Aufgabe jedoch mit der Aufforderung zum Kampf für religiöse Ziele. So forderte Bin Laden beispielsweise die muslimischen Männer in einem Interview mit Al Jazeera im Dezember 2008 auf, sich vom Westen nicht zu lassen und gegen die westlichen Eindringlinge zu verteidigen, die heilige Kaaba. Außerdem forderte er die „muslimischen Brüder“ überall auf der Welt auf, zusammenzuhalten, und die islamische Ehre im Kampf gegen die Ungläubigen vom Vater zum Sohn weiterzuvererben, was eine weitere, typische Vermischung familiär-partikulatorischer Konzepte mit religiös motivierten Zielen darstellt. Folgen des 11. September 2001. Bin Laden gilt als Initiator und Planer der Terroranschläge am 11. September 2001 in den USA, die fast 3000 Menschen das Leben kosteten. Bis zum Beginn des Krieges der USA gegen das Talibanregime bestritt er seine Beteiligung daran. Danach räumte er immer deutlicher seine Führungsrolle dabei ein. Verfolgung. Am 17. September 2001 erklärte US-Präsident Bush, Bin Laden sei für die Anschläge des 11. Septembers 2001 hauptverantwortlich, und er müsse daher „tot oder lebendig“ dingfest gemacht werden. Am 18. September forderte der UN-Sicherheitsrat das Talibanregime auf, Bin Laden „sofort und bedingungslos“ der amerikanischen Justiz zuzuführen. Der Talibanführer Mullah Omar lehnte dies mit der Begründung ab, Bin Ladens Schuld sei bis dato unbewiesen, und ohnehin habe er in Afghanistan nicht genug Freiraum, um Anschläge zu planen. Die USA verwiesen Anfang Oktober 2001 auf Geheimdienstinformationen zu Bin Ladens Urheberschaft, gaben aber nur vereinzelte Details bekannt, darunter Geldtransfers zwischen Scheich Said, dem mutmaßlichen Finanzchef von al-Qaida, nebst Attentätern und mitgeschnittene Telefonate, in denen sich Anhänger Bin Ladens über die Anschläge austauschen sollen. Die US-Truppen begannen am 7. Oktober den Krieg in Afghanistan, um al-Qaida zu zerschlagen, Bin Laden zur Strecke zu bringen und das mit ihm verbündete Talibanregime zu stürzen. Angebote der Taliban vom 14. Oktober, Bin Laden nach Vorlage von Beweisen in ein politisch neutrales Land auszuliefern, lehnte Bush ab: „Wir wissen um seine Schuld.“ Bin Laden wurde weiterhin als seit 1999 weltweit gesuchter Terrorist geführt. Der Steckbrief des FBI verwies auf die Anklage gegen ihn wegen der Botschaftsanschläge von 1998 und nannte summarisch weitere Terroranschläge. In einer Erläuterung dazu erklärte das FBI an, man werde weitere Anklagen gegen Bin Laden auf dem Steckbrief ergänzen, sobald die Ermittlungen das erforderten, zum Beispiel zu den Anschlägen vom 11. September 2001. Ein FBI-Sprecher erklärte 2006, der für das Inland bestimmte Steckbrief diene als vorläufiger Haftbefehl. Dazu müsse er nur eine schon erhobene Anklage nennen. Bei einer Festnahme werde Bin Laden auch wegen des 11. Septembers angeklagt werden. Die Regierung Großbritanniens nennt Bin Laden als erwiesenen Hauptverantwortlichen der Anschläge des 11. Septembers 2001, ebenso die Anklageschrift eines US-Militärgerichts gegen Khalid Scheich Mohammed von 2008. Die USA drängten die Regierung Saudi-Arabiens, Bin Laden ebenfalls wegen Gewaltverbrechen anzuklagen. Nach der Eroberung Kabuls im November 2001 floh Bin Laden vor den US-Truppen aus Kandahar in das Höhlensystem im Gebirgsmassiv Tora-Bora. In der Schlacht um Tora Bora im Dezember 2001 gelang ihm mit Hilfe afghanischer Vertrauter, die gleichzeitig für die Koalitionsgruppen arbeiteten, die Flucht. Dies bestätigten Zeugenaussagen 2005 entgegen US-Vertretern, die Bin Ladens Anwesenheit in Tora-Bora jahrelang bezweifelt hatten. Der CIA-Beamte Cofer Black bestätigte damals, er habe CIA-Fahndern im Herbst 2001 einen Mordauftrag für Bin Laden erteilt. Am 22. Februar 2004 meldete die britische Zeitung "Sunday Express", Bin Laden und etwa fünfzig seiner Anhänger seien im bergigen Nordwesten Pakistans nahe der afghanischen Grenze ausgemacht und eingekreist worden. Militärsprecher der USA und Pakistans dementierten dies umgehend. Am 20. Juni 2005 gab der damalige CIA-Chef Porter Goss an, er kenne den Aufenthaltsort Bin Ladens. Um seiner habhaft zu werden, müsse man „Heiligtümer souveräner Nationen“ in Betracht ziehen. Dass er Pakistan meinte, wurde vermutet, da sich ein anderer US-Botschafter zuvor entsprechend geäußert hatte. US-Präsident George W. Bush ließ die 1995 zur Suche und Ergreifung Bin Ladens eingerichtete CIA-Spezialeinheit Alec Station Ende 2005 auflösen. Während der Suche behaupteten verschiedene Quellen, Bin Laden sei sterbenskrank oder bereits verstorben. So berichtete die französische Zeitung Le Figaro Ende Oktober 2001, er habe sich im Juli 2001 einer Nierenbehandlung in Dubai unterzogen und dabei einen CIA-Beamten getroffen. Dies dementierten der Klinikdirektor in Dubai und Bin Laden selbst. Dennoch behauptete Pakistans Staatspräsident Musharraf im Januar 2002, Bin Laden habe sich Geräte zur Dialyse-Behandlung aus Pakistan zuschicken lassen. Aufgrund der vielen vermuteten Ortswechsel des Flüchtigen könne er diese Dialysegeräte kaum praktisch anwenden. Somit liege die Annahme nahe, er sei wegen unterlassener lebensnotwendiger Behandlung verstorben. Manche CIA-Vertreter bestätigten, andere bestritten die Nierenkrankheit noch 2008. Nach einem Bericht des französischen Geheimdienstes DGSE, über den die Zeitung L’Est Republicain am 23. September 2006 berichtete, sollten saudi-arabische Ermittler überzeugt sein, dass Bin Laden an einer starken Typhusinfektion verstorben sei. Dies dementierten CIA-Direktor Michael V. Hayden und weitere Vertreter der USA, Pakistans und Frankreichs. Nach Aussage seiner jüngsten Witwe war Bin Laden bis zu seiner Tötung kerngesund. Am 13. Juli 2007 beschloss der US-Senat, die bisher vom FBI ausgesetzte Belohnung für Hinweise, die zur Festnahme oder Tötung Bin Ladens führen würden, von 25 Millionen US-Dollar auf bis zu 50 Millionen Dollar zu verdoppeln. Er reagierte damit auf CIA-Berichte, wonach sich al-Qaida reorganisiert und neue Anschläge auf die USA zu planen begonnen habe. Die US-Reporterin Christiane Amanpour erhielt 2008 von US-Beamten Hinweise, dass sich Bin Laden nicht in einer Höhle, sondern einer Villa in Pakistan verstecke. Bin Ladens Versteck wurde zwischen 2002 und 2010 unter anderem im afghanisch-pakistanischen Grenzgebiet Wasiristan, im pakistanischen Ort Parachinar, im afghanischen Ort Ghazni und im nordpakistanischen Distrikt Chitral vermutet. US-Präsident Obama verlangte 2009 von der CIA einen detaillierten Operationsplan, um Bin Laden zu finden und zu fassen. Nach von Wikileaks 2010 veröffentlichten Aussagen früherer Guantanamo-Häftlinge soll Bin Laden von Tora-Bora zunächst nach Jalalabad, von dort in die afghanische Provinz Kunar geflohen und Anfang 2003 mit seiner Familie in die pakistanische Ortschaft Khwar gezogen sein. Berichte vom Oktober 2010, wonach er sich im nordwestlichen Pakistan in einem komfortablen Wohnhaus aufhalte, dementierte Pakistans Innenminister Rehman Malik umgehend. Finanzierung. Bin Laden wurde bis zu seinem Tod von manchen Mitgliedern seiner reichen und weitverzweigten Familie unterstützt. Dieses System schien trotz der ausgesetzten Belohnung, militärischer Operationen und finanzieller Austrocknungsversuche zu funktionieren. Die USA bemühten sich, seine Konten einzufrieren. Die Islamische Bank in Tirana soll ihr Grundkapital zu 60 Prozent von Bin Laden erhalten haben. Osama und Yeslam bin Laden hatten von 1990 bis 1997 ein gemeinsames Konto bei der Schweizer Bank UBS. Die Familie Bin Laden, die von der New Yorker "Private Banking"-Gruppe der Deutschen Bank betreut wurde, hatte über verschiedene Offshore-Firmen ein Vermögen von mindestens 142 Millionen Dollar in verschiedenen Fonds der Bank angelegt. Darüber hinaus verwaltete das Institut weitere 172 Millionen Dollar für die Familie. 241 Millionen Euro sollen 2000 über die Deutsche Bank nach Pakistan an den al-Qaida-Führer geflossen sein. Video- und Audiobotschaften. Am 16. September 2001 sendete Al Jazeera eine Erklärung Bin Ladens: Einem britischen Bericht zufolge sprach er gegenüber einer pro-talibanischen afghanischen Presseagentur von einem Fahneneid, der ihm „solche Dinge von Afghanistan aus“ zu tun verbiete. Am 7. Oktober 2001 sendete Al Jazeera ein Video, in dem er erklärte: „Gott hat eine Gruppe führender Muslime, die Vorhut des Islam, gesegnet, Amerika zu zerstören. Möge Gott sie segnen und ihnen einen hervorragenden Platz im Himmel zuteilen …“ Nach nicht verifizierten Angaben der pakistanischen Zeitung "Ummat" vom 16. Oktober 2001 soll Bin Laden auf schriftliche Anfrage bekräftigt haben, er sei nicht an den Anschlägen des 11. September beteiligt gewesen und habe keine Kenntnis davon gehabt. Er begrüße das Töten unschuldiger Frauen, Kinder und anderer Menschen nicht, da der Islam es sogar während einer Schlacht streng verbiete. In einem längeren, am 21. Oktober 2001 gesendeten Al-Jazeera-Interview räumte er jedoch laut einer englischen Übersetzung von 2002 ein: Er habe die „mutigen Kerle“, die Amerikas berühmteste ökonomische und militärische Wahrzeichen zerstört hätten, dazu angestiftet. Wenn Anstiften zum Töten derer, die „unsere Söhne töten“, Terrorismus sei, dann lasse man die Geschichte bezeugen, „dass wir alle Terroristen sind.“ Auf die Frage, ob islamische Lehren das Töten von Christen, Juden und unschuldigen Zivilisten nicht verböten, fragte er zurück, ob muslimische Zivilisten nicht ebenfalls unschuldig seien und warum ihre millionenfache Tötung nicht ebenso verurteilt, verfolgt und bedauert werde. Mohammed habe sein Verbot, Frauen und Kleinkinder zu töten, eingeschränkt: Falls Ungläubige dies absichtlich täten, müssten sie durch gleichartige Vergeltung gestoppt werden. Die Täter vom 11. September hätten nicht beabsichtigt, Kinder zu töten, sondern die stärkste militärische und ökonomische Macht der Welt zu zerstören. Das WTC sei keine „Kinderschule“ gewesen. Ein im November 2001 von der US-Regierung veröffentlichtes internes al-Qaida-Video enthielt Aussagen Bin Ladens zur Anschlagsplanung und den erwarteten Folgen, die weit übertroffen worden seien. Einige Stellen sollen nach Aussagen einiger Sprachexperten unverständlich oder fehlerhaft übersetzt worden sein. Andere unabhängige Übersetzer gaben jedoch an, Bin Laden habe neun der Attentäter namentlich genannt und daran erinnert, dass er seine Anhänger kurz vor den Anschlägen zum Gebet aufgefordert habe, sobald sie die Nachrichten davon hören würden. In einem am 27. Dezember 2001 von Al Jazeera gesendeten Video erklärte Bin Laden die Anschläge als legitime Reaktion auf angeblich von den USA geführte oder unterstützte Angriffe auf Palästinenser, den Irak, Somalia, Südsudan und Kashmir. Ziel sei, die US-Wirtschaft so weit zu schwächen, dass die USA sich aus den genannten islamischen Gebieten zurückziehen würden. Er sei nur Werkzeug Gottes; egal ob er lebe oder sterbe, werde der Krieg weitergehen. Ein am 9. September 2002 von Al Jazeera gesendetes Video zeigte einige der Attentäter des 11. September in afghanischen Ausbildungslagern der al-Qaida. Bin Ladens Stimme lobte sie als die, die den „Kurs der Geschichte verändert“ hätten. Am 12. November 2002 sendete Al Jazeera ein Tonband, auf dem Bin Ladens Stimme islamistische Anschläge des Jahres 2002 in Djerba (11. April), Karatschi (8. Mai, 14. Juni, 25. September), Jemen (6. Oktober), Failaka, Bali (12. Oktober), Moskau (23. Oktober) und weitere rechtfertigte: Sie seien nur reziproke Vergeltung von Muslimen zur Verteidigung des Islam und Reaktionen auf Taten der US-Regierung im Irak und Israels in Palästina gewesen, um arabische Führer zur Distanzierung von dieser „kriminellen Bande“ zu zwingen. Der Antiterrorkrieg sei ein Vorwand für einen Krieg gegen Muslime, in dem US-Verteidigungsminister Donald Rumsfeld schon mehr als zwei Millionen Menschen getötet habe. Er drohte: „Ihr werdet getötet werden, so wie ihr tötet, und ihr werdet bombardiert werden, so wie ihr bombardiert.“ Am 16. Dezember 2004 ging er in einem im Internet veröffentlichten Tonband auf den Überfall einer al-Qaida-Gruppe auf das US-Konsulat in Dschidda am 6. Dezember 2004 ein. Er drohte dem saudischen Königshaus mit einem bewaffneten Volksaufstand der eigenen Untertanen, falls die Bevölkerung über eine muslimische Führung nicht frei entscheiden dürfe. In einem am 19. Januar 2006 gesendeten, von der CIA als echt eingestuften Tonband drohte er mit neuen Anschlägen in den USA und bot diesen zugleich einen Waffenstillstand an. Am 23. Mai 2006 erklärte Bin Laden auf einem als echt eingestuften Tonband: Zacarias Moussaoui habe keinerlei Verbindung zum 11. September, da er selbst den 19 Attentätern die Angriffe anvertraut, Moussaoui aber diese Mission nicht zugewiesen habe. Am 7. September 2007 zeigte ein neues Videoband Bin Laden als unbewegtes Standbild mit schwarz gefärbtem Bart. Darin warf er George W. Bush vor, in Afghanistan die Fehler von Leonid Brezhnev zu wiederholen. Den US-Demokraten warf er vor, sie hätten darin versagt, den Irakkrieg zu stoppen. Um dies zu schaffen, sollten die Amerikaner zum Islam konvertieren. Ferner lobte er einige Attentäter, vor allem Abu Mussab Walid al-Schehri. Das Tonband gilt als echt, da Bin Laden eine Woche zuvor in derselben Kleidung auf einem weiteren als echt eingestuften Video zu sehen war. Im November 2007 erklärte Bin Laden in einem über Al Jazeera ausgestrahlten Videoband, er allein sei für die tödlichen Angriffe auf New York und Washington verantwortlich. Deshalb sei die US-Invasion in Afghanistan ungerecht. Im März 2008 erschien ein Tonband mit Bin Ladens Stimme, auf denen er die Europäische Union wegen der Mohammedkarikaturen angriff: Diese Beleidigung übertreffe westliche Bombardierungen von Muslimen, die Abrechnung dafür werde daher schwerer, das Urteil entschlossener ausfallen. In einem im März 2009 veröffentlichten Tonband bezeichnete Bin Laden die israelischen Bombenangriffe im Gazastreifen als Holocaust und rief die Muslime zum Sturz der mit den USA und den „Zionisten“ verbündeten arabischen Regimes auf. In einem 25. Januar 2010 gesendeten Video warnte Bin Laden Obama vor neuen Anschlägen und lobte den Attentatsversuch von Umar Farouk Abdulmutallab vom 24. Dezember 2009, durch den er, Bin Laden, seine Botschaft vom 11. September 2001 bestätigt habe: Amerika werde nie vom Frieden träumen können, solange „wir in Palästina“ diesen nicht erlebten. Bis Ende Oktober 2004 erschienen 20, bis 1. Mai 2011 mindestens 31 Video- und Audiobotschaften Bin Ladens. Am 19. Mai 2011 gab al-Qaida ein Tonband heraus, das Bin Laden eine Woche vor seinem Tod aufgezeichnet haben soll. Darin lobte er die Revolutionen in arabischen Staaten von 2011 und forderte Muslime auf, ihre Tyrannen zu stürzen. Ansehen unter Muslimen. Nach Meinungsumfragen des Pew Research Centers genoss Bin Laden in vielen islamischen Ländern durchaus Ansehen. Auf die Frage, ob sie Vertrauen in ihn setzten, bezeugten im Jahre 2005 in Jordanien 60 % der befragten Muslime viel oder einiges Vertrauen, in Pakistan 51 %. In Indonesien fiel der Wert von 58 % im Jahre 2003 auf 35 % im Jahre 2005, in Marokko im gleichen Zeitraum von 49 auf 26 %. Eine repräsentative Umfrage im Juli 2009 ergab, dass US-Präsident Barack Obama in der arabischen Welt inzwischen beliebter geworden war als Bin Laden. In der letzten PRC-Umfrage zu Bin Laden von 2010 erhielt er in Nigeria noch 48 %, in Indonesien 25 %, in Ägypten 19 %, in Pakistan 18 %, in Jordanien 14 %, in der Türkei dagegen nur 3 % und im Libanon kein Vertrauen unter den befragten Muslimen. Tod. Nach Angaben der US-Regierung wurde Bin Laden am frühen Morgen des 2. Mai 2011 pakistanischer Zeit von Spezialeinheiten der Navy Seals im zweiten Stock seines Anwesens in Abbottabad erschossen. Bei der von US-Präsident Obama befohlenen, etwa 40-minütigen Militäraktion wurden nach US-Angaben vier weitere Personen getötet, darunter ein Sohn Bin Ladens. Mehrere Anwesende wurden verletzt und insgesamt 17 Personen gefesselt zurückgelassen. Bin Ladens Identität wurde nach Angaben der US-Regierung mit einer DNA-Analyse festgestellt und sein Leichnam noch am 2. Mai 2011 an geheimer Stelle von Bord eines Flugzeugträgers im Arabischen Meer bestattet. Erste Angaben, wonach Bin Laden am Feuergefecht beteiligt gewesen sei, korrigierte die US-Regierung wenige Tage später: Er sei unbewaffnet gewesen. Jedoch hätten sich ein Sturmgewehr und eine Pistole in seiner Reichweite befunden, und er habe keine Anzeichen gezeigt, sich zu ergeben. Daraufhin sei er erschossen worden. Das Vorgehen der USA wurde international häufig als mit dem Völkerrecht und Rechtsstaatlichkeit unvereinbare Exekution kritisiert. Am 4. Mai 2011 erklärte die US-Regierung dazu, die Erstürmung und Tötung sei in voller Übereinstimmung mit dem Kriegsvölkerrecht vollzogen worden. Die Beteiligten hätten Bin Laden wegen der Lebensgefahr für sich nicht lebend festnehmen können. Oskar Lafontaine. Oskar Lafontaine (* 16. September 1943 in Saarlautern-Roden, heute Saarlouis-Roden) ist ein deutscher Politiker und Publizist. Von 1985 bis zum 9. November 1998 war er Ministerpräsident des Saarlandes. Er war Kanzlerkandidat der SPD für die Bundestagswahl am 2. Dezember 1990 (kurz nach der Wiedervereinigung) und von 1995 bis 1999 SPD-Vorsitzender. Nach der Bundestagswahl im September 1998 – Gerhard Schröder wurde Bundeskanzler – übernahm er im Kabinett Schröder I das Bundesministerium der Finanzen. Im März 1999 legte er überraschend alle politischen Ämter – auch sein Bundestagsmandat – nieder und trat fortan als Kritiker des rot-grünen Regierungskurses von Gerhard Schröder auf. 2005 wechselte Lafontaine von der SPD zur neu gegründeten Wahlalternative Arbeit & soziale Gerechtigkeit (WASG). Diese ging durch seine Initiative im Juni 2005 ein Wahlbündnis mit der PDS ein, die sich dafür in Die Linkspartei.PDS umbenannte. Von 2005 bis 2009 war Lafontaine mit Gregor Gysi Fraktionsvorsitzender der Linksfraktion im Deutschen Bundestag. Vom 16. Juni 2007 bis zum 15. Mai 2010 war er neben Lothar Bisky Parteivorsitzender der neugebildeten Partei Die Linke. Sein Rückzug von beiden politischen Ämtern erfolgte aufgrund einer am 17. November 2009 bekannt gewordenen Krebserkrankung. Seit September 2009 führt er die Fraktion der Linken im saarländischen Landtag. Bei der Landtagswahl im Saarland im März 2012 trat Lafontaine erneut als Spitzenkandidat seiner Partei an und ist seit dem Amtsantritt des zweiten Kabinetts Kramp-Karrenbauer am 9. Mai 2012 Oppositionsführer. Familie, Ausbildung, Beruf. Lafontaine entstammt einer Handwerkerfamilie aus Saarlouis. Er hat einen Zwillingsbruder namens Hans. Der Vater Hans Lafontaine war von Beruf Bäcker und fiel im April 1945 als 29-Jähriger im Zweiten Weltkrieg, seine Kinder haben ihn nie gekannt. Seine Kindheit verbrachte Lafontaine in Dillingen, wohin seine später als Sekretärin arbeitende Mutter Katharina Lafontaine, geb. Ferner († 2006), nach dem Tod des Vaters gezogen war. Er ist römisch-katholisch getauft und besuchte als Schüler ein katholisches Internat, das Bischöfliche Konvikt in Prüm (Eifel), dessen Schüler das staatliche Regino-Gymnasium besuchten. Die neunjährige Erziehung in Gymnasium und Internat war von konservativen Grundsätzen geprägt; sie galt als sehr streng und religiös. Dort erwarb er 1962 das Abitur, nachdem er das Konvikt verlassen hatte. Er studierte als Stipendiat des Cusanuswerks Physik in Bonn und Saarbrücken und beendete sein Studium 1969 als Diplomphysiker. Das Thema seiner Diplomarbeit war die Züchtung von Bariumtitanat-Einkristallen. Bis 1974 war er in der Versorgungs- und Verkehrsgesellschaft Saarbrücken mbH tätig, ab 1971 als Mitglied ihrer Geschäftsführung. Lafontaine war in erster Ehe (1967–1982) mit Ingrid Bachert verheiratet. Der zweiten Ehe (1982–1988) mit der Künstlerin Margret Müller entstammt ein Sohn (Frederic, * 1982), der dritten Ehe (1993–2013) mit Christa Müller entstammt ebenfalls ein Sohn (Carl-Maurice, * 1997). Am 12. November 2011 machte Lafontaine seine Beziehung zu Sahra Wagenknecht öffentlich, zu diesem Zeitpunkt war er noch mit Christa Müller verheiratet, die Ehe wurde im Februar 2013 geschieden. Seit Juni 2012 lebt er mit Wagenknecht im saarländischen Silwingen nahe der französischen Grenze in einem gemeinsamen Haus. Seit dem 22. Dezember 2014 sind die beiden verheiratet. Saarländischer Kommunal- und Landespolitiker. 1966 trat Lafontaine in die SPD ein und begründete dies mit der Übereinstimmung von christlicher Nächstenliebe und sozialdemokratischer Solidarität. Er wurde zunächst Vorsitzender der Jungsozialisten in Saarbrücken, deren Übernahme er gemeinsam mit seinem Stellvertreter und langjährigen parteiinternen Partner Reinhard Klimmt geplant hatte. Lafontaines politischer Schwerpunkt lag in der Kommunal- und Landespolitik, nicht in der Mitwirkung an den revolutionären Studentenprotesten dieser Zeit – mithin galt er damals (anders als in den folgenden Jahrzehnten) eher als Parteirechter. Aufgrund seiner Ablehnung des Regierungskurses der SPD in der Großen Koalition stieß er 1968 vorübergehend auf das Interesse der SED-Reisekader, die aber schon im Jahr darauf Lafontaine deutlich kritischer beurteilten. 1968 wurde Lafontaine in den Landesvorstand der SPD Saarland gewählt. Von 1970 bis 1975 war er Landtagsabgeordneter. In der Landeshauptstadt Saarbrücken war Lafontaine von 1974 bis 1976 zuerst Bürgermeister, dann als Nachfolger des erkrankten und vorzeitig zurückgetretenen Fritz Schuster (CDU) bis 1985 Oberbürgermeister. 1977 übernahm er auch den Landesvorsitz der Saar-SPD, den er bis 1996 halten sollte. Bei seiner politischen Arbeit in der Landeshauptstadt profitierte er von seiner katholischen Erziehung und der Herkunft aus dem Arbeitermilieu, ein nicht für seine Partei, aber für das gesamte Saarland identitätsstiftender Doppelhintergrund. Als Oberbürgermeister trieb Lafontaine den Ausbau des Öffentlichen Nah- zulasten des Individualverkehrs voran. Ein weiterer Schwerpunkt war die Ausgleichung des Stadthaushalts, die gegen Ende von Lafontaines Amtszeit auch gelang. Als bedeutender Meilenstein in der Saarbrücker Stadtgeschichte gilt die Umgestaltung der Umgebung des heruntergekommenen St. Johanner Marktes zu einer Fußgängerzone, die heute ein Zentrum der Stadt ist. Auch die Etablierung des Max-Ophüls-Festivals fällt in die Amtszeit des Oberbürgermeisters Lafontaine. 1980 trat Lafontaine als Kandidat für das Amt des Ministerpräsidenten an. Er führte seine Partei zur relativen Mehrheit, konnte die schwarz-gelbe Koalition unter Werner Zeyer jedoch noch nicht ablösen. Bei der Kommunal- und Europawahl 1984, dem ersten Test für die Landtagswahl im darauffolgenden Jahr, baute die saarländische SPD ihren Vorsprung gegenüber der Union aus, die auch aufgrund der unbewältigten Stahlkrise an Zustimmung verlor. Lafontaines ausgeprägte Profilierung als ökologischer Friedenspolitiker trug dazu bei, ein Erstarken der Grünen im Saarland zu verhindern. Im Wahlkampf zur Landtagswahl am 10. März 1985 kündigte er außerdem an, im Falle des Wahlsiegs den Umweltaktivisten Jo Leinen zum Umweltminister zu ernennen. Bei diesen Wahlen erzielte die SPD 49,2 % (CDU 37,3; FDP 10,0) und damit 26 der 51 Sitze im Landtag. Lafontaine wurde am 9. April zum ersten sozialdemokratischen Ministerpräsidenten des Saarlands gewählt. Auch die Wahl am 28. Januar 1990 (SPD 54,4 %; CDU 33,4; FDP 5,6) und die Wahl im Oktober 1994 führten zu absoluten Mehrheiten der SPD im Landtag. In seiner Regierungserklärung vom 24. April 1985 benannte Lafontaine die Rückführung der auf rund 15 % gestiegenen Arbeitslosigkeit, die Überwindung der schlechten Haushaltslage des Landes sowie die Lösung der Stahlkrise als Schwerpunkte. Auch um Finanzmittel zur industriellen Umstrukturierung des Landes zu erhalten, legte das Saarland eine Klage beim Bundesverfassungsgericht gegen den Länderfinanzausgleich ein. Das Gericht erkannte die Haushaltsnotlage des Saarlandes an, die damit zugesprochenen Finanzmittel sowie Schuldenerlasse der Banken führten zu einer kurzfristigen, aber spürbaren Linderung der Haushaltsnot. Nachdem das Saarland 1986 eine Mehrheit der Anteile am Unternehmen ARBED Saarstahl übernahm und die Unternehmensstrukturen konsolidiert wurden, kam es zu weiteren Entlassungen und Frühpensionierungen; diese wurden sozialverträglicher gestaltet als unter der Vorgängerregierung. Die Restrukturierungen und die in der zweiten Hälfte der 1980er-Jahre anziehende Stahlkonjunktur sorgten für einen Teilerfolg des Konzepts. Als eine der ersten Amtshandlungen hob die neue Landesregierung den Radikalenerlass von 1972 auf, womit das Saarland zum ersten Bundesland ohne diese Regelung wurde. Durch persönlich gute Beziehungen zu Erich Honecker erreichte Oskar Lafontaine einen spürbaren Auftragseingang aus der DDR für saarländische Produkte. Lafontaine sprach sich 1985 für eine Anerkennung der Staatsbürgerschaft der DDR aus, wofür er im SPD-Vorstand keine Zustimmung und einige Kritik erfuhr. Auch beendete das Saarland 1985 als einziges Bundesland Zahlungen an die bis dahin von allen Bundesländern gemeinsame getragene Zentrale Erfassungsstelle der Landesjustizverwaltungen, die Menschenrechtsverletzungen in der DDR dokumentierte. Die Schullandschaft des Saarlandes änderte sich durch die Einführung und Anerkennung von Gesamtschulen als Regelschulen sowie durch die Schließung zahlreicher kleinerer Schulen. Außerdem wurde der Unterricht um die Möglichkeit erweitert, dass soziale Organisationen an den Schulen informieren dürfen. Allgemein galten diese Anstrengungen einer Neubewertung und Aufwertung der Friedenserziehung. "Siehe auch:" Kabinett Lafontaine I, Kabinett Lafontaine II, Kabinett Lafontaine III Wirken in der Friedens- und Umweltbewegung. 1979 bezog Lafontaine im Kontext der wachsenden westeuropäischen Friedensbewegung Position gegen den bislang von der sozialliberalen Koalition befürworteten NATO-Doppelbeschluss. Er sah die darin angekündigte Raketenaufstellung beim Scheitern von Verhandlungen nicht als Nach-, sondern Aufrüstung an, und forderte für diesen Fall den Austritt der Bundesrepublik Deutschland aus der NATO. Damit wurde er neben Erhard Eppler zum Wortführer der innerparteilichen Gegner des Doppelbeschlusses. Diese gewannen im Lauf des Jahres 1982 eine Mehrheit innerhalb der SPD-Basis. Dies trug ausschlaggebend zum Ende der sozialliberalen Koalition bei, so dass Bundeskanzler Helmut Schmidt sein Amt am 1. Oktober 1982 durch ein konstruktives Misstrauensvotum im Bundestag an Helmut Kohl verlor. Lafontaine zog sich im Zuge der Auseinandersetzung um die Haltung der SPD zum NATO-Doppelbeschluss die lebenslange Abneigung Helmut Schmidts aufgrund eines dem STERN 1982 gegebenen Interviews zu, in welchem er äußerte, mit den von Bundeskanzler Schmidt gelobten Sekundärtugenden Pflichtgefühl, Berechenbarkeit, Machbarkeit und Standhaftigkeit könne man "auch ein KZ betreiben". Lafontaine nahm am 1. September 1983 mit Tausenden Aufrüstungsgegnern, darunter einigen Prominenten, an einer dreitägigen Sitzblockade vor dem US-Militärdepot auf der Mutlanger Heide teil, das als Stationierungsort von Pershing-II-Raketen vorgesehen war. Er veröffentlichte seine Ansichten zur Verteidigungspolitik 1983 in dem Buch "Angst vor den Freunden. Die Atomwaffenstrategie der Supermächte zerstört die Bündnisse". Lafontaine 1988 auf dem Parteitag in Münster Lafontaine profilierte sich in dieser Zeit auch als Vertreter eines ökologischen Sozialismus. Das Buch "Der andere Fortschritt" (1985) enthält seine Gedanken zur Verbindung der Selbstverantwortung in der Arbeit mit der Zukunft von Umwelt und Wirtschaft. Der Fortschritt sei nur dann zu erreichen, wenn der „Kampf gegen die Ausbeutung des Menschen“ mit dem „Kampf gegen die Ausbeutung der Natur“ verbunden werde, also die soziale mit der ökologischen Frage. Er legt dar, dass ein Fortschritt auch ohne Wachstum erreicht werden könne und erläutert die Schritte auf diesem für ihn notwendigen Weg. Dabei kritisiert er auch die bisherige Wachstums- und Umweltpolitik der SPD und führt die Umweltzerstörung auf eine Entfremdung des Menschen von der Natur durch seine abnehmende Selbstbestimmung im Arbeitsleben zurück. Politisch zieht er die Konsequenz, dass es zu einer Zusammenarbeit zwischen SPD und Grünen kommen und auf die Kernenergie verzichtet werden müsse. Programm-Autor im SPD-Parteivorstand. 1987 schlug Willy Brandt Lafontaine als seinen Nachfolger im Amt des SPD-Parteivorsitzenden vor, um einen Generationenwechsel herbeizuführen. Doch dieser lehnte zunächst ab. Nach Brandts Rücktritt vom Parteivorsitz wurde er als Vertreter der Parteilinken neben Johannes Rau zum Stellvertreter des neugewählten Bundesvorsitzenden der SPD Hans-Jochen Vogel gewählt. Zudem übernahm Lafontaine die Leitung der Kommission, die das neue Grundsatzprogramm der SPD ausarbeiten sollte. Es wurde als Berliner Programm auf dem Berliner Parteitag im Dezember 1989 verabschiedet und verpflichtete die Partei zu internationaler Zusammenarbeit für Abrüstung, Gleichstellung der Frau in Beruf und Gesellschaft, ökologischer Modernisierung der Wirtschaft und Strukturreform der sozialen Sicherungssysteme. In diesem Zusammenhang trat Lafontaine damals auch für Arbeitszeitverkürzungen ohne vollen Lohnausgleich im Einvernehmen mit Betriebsräten und Belegschaften ein, sowie für eine offenere Haltung zur Wochenendarbeit und längeren Maschinenlaufzeiten. Dies brachte ihn in einen Gegensatz zu den westdeutschen Gewerkschaftsverbänden. Seitdem galt er dort als „Modernisierer“. Haltung zur Wiedervereinigung im Herbst 1989. Nach dem Fall der Berliner Mauer sagte er, er wolle einen Kollaps der DDR-Wirtschaft und politische Komplikationen mit den vier Siegermächten des Zweiten Weltkriegs vermeiden. Um DDR-Bürger zu bewegen, in ihrer Heimat zu bleiben, schlug er Wirtschaftshilfen für die DDR vor. Am 27. November 1989 riet er zudem dazu, den Zuzug von DDR-Bürgern in die Bundesrepublik administrativ zu begrenzen. Er beauftragte die saarländische Staatskanzlei mit der Prüfung, ob die Übersiedlung rechtlich von einem Nachweis von Wohnsitz und Arbeitsplatz im Westen abhängig gemacht werden könne. Am 28. November 1989 legte Bundeskanzler Helmut Kohl überraschend sein Zehn-Punkte-Programm zur deutschen Wiedervereinigung vor. Darin befürwortete er eine Konföderation beider deutscher Staaten als Zwischenschritt zur deutschen Einheit, ließ aber die Anerkennung der Oder-Neiße-Grenze und die Bündniszugehörigkeit des vereinten Deutschlands offen. Die ablehnende Haltung Lafontaines zur Deutschlandpolitik der damaligen Bundesregierung stieß auf Kritik auch von Parteifreunden. Der SPD-Parteivorsitzende Hans-Jochen Vogel warf ihm mit Unterstützung von Johannes Rau und Herta Däubler-Gmelin in einer konfliktgeladenen SPD-Präsidiumssitzung am 10. Dezember 1989 vor: Daraufhin warnte Lafontaine beim Berliner Parteitag der SPD am 18. Dezember 1989 vor „nationaler Besoffenheit“. Die kurz vorher öffentlich erhobene Forderung des Kanzlerberaters Horst Teltschik nach Mitgliedschaft eines vereinten Deutschlands in der NATO kommentierte er mit: Lafontaine kritisierte, dass Kohl seinen Plan nicht mit den damaligen Siegermächten abgestimmt habe. Diese Kritik teilten François Mitterrand, Margaret Thatcher und Michail Gorbatschow, der die Eigenstaatlichkeit der DDR damals noch bewahren wollte und die Ostausdehnung der NATO ablehnte. a> auf dem Parteitag der ostdeutschen SPD Lafontaine bezeichnete Kohls Pläne als unbezahlbar und erhielt dafür Zustimmung vom damaligen Bundesbankpräsidenten Karl Otto Pöhl. Er glaubte wie viele SPD-Politiker, eine „Wieder“-Vereinigung setze die falschen politischen Prioritäten und wecke erneut Ängste vor deutscher Überlegenheit im europäischen Ausland. Er betonte den sozialdemokratischen Internationalismus und strebte eine staatliche Einheit als Folge, nicht Voraussetzung annähernd gleicher Lebensverhältnisse und Entfaltungschancen an: Ihm gehe es „nicht um die Einheit in einer Grenze. Die Menschen in der DDR wollen die Einheit im Wohlstand“. Er stimmte jedoch mit vielen ostdeutschen Bürgerrechtlern darin überein, dass die DDR sich ohne westlichen Druck zuerst selbst politisch und wirtschaftlich reformieren solle. Dazu befürwortete er eine Konföderation beider deutscher Staaten im Rahmen eines gesamteuropäischen Einigungsprozesses. Ob die Nachbarländer überhaupt in einem vereinten Europa aufgehen wollten, fragte Lafontaine nicht. Dagegen befürworteten Willy Brandt, Hans-Jochen Vogel, Hans Apel und Helmut Schmidt für die alte SPD und jüngere ostdeutsche Sozialdemokraten wie Markus Meckel, Richard Schröder und Wolfgang Thierse eine zeitnahe staatliche Wiedervereinigung. Seine Gegner in und außerhalb der SPD warfen Lafontaine vor, er habe die staatliche Einheit verhindern wollen und kein eigenes Konzept für den Einigungsprozess gehabt. Auch wegen dieser Differenzen war das politische und persönliche Verhältnis Lafontaines zu Willy Brandt zerrüttet. Kanzlerkandidat der SPD 1990. Wahlkundgebung in Dessau, 25. Oktober 1990 Nach seinem Wahlsieg mit 54,4 Prozent bei der Landtagswahl im Saarland am 28. Januar 1990 wurde Lafontaine vom SPD-Vorstand einstimmig als Kanzlerkandidat für die Bundestagswahl 1990 nominiert. Danach beriet er sich intensiv mit Parteifreunden und europäischen Wirtschaftsexperten, darunter Helmut Schmidt, Bundesbankpräsident Karl Otto Pöhl, EG-Kommissions-Präsident Jacques Delors und Gewerkschaftsführer Franz Steinkühler. Diese stimmten seiner Ablehnung einer schnellen Wirtschafts- und Währungsunion zwischen DDR und Bundesrepublik teilweise zu. Von dem Einvernehmen in der SPD dazu machte er seine Kanzlerkandidatur abhängig. Lafontaine erwartete, dass der nächste Bundestagswahlkampf nur in Westdeutschland stattfinden würde und sprach daher primär die westdeutschen Wähler an. Erst im Juli 1990 erfolgte die Festlegung der ersten gesamtdeutschen Wahlen auf den 2. Dezember 1990. Danach passte er die SPD-Wahlstrategie nach Meinung mancher Analytiker zu spät an. Vor der Wahl sagte der frühere Bundeskanzler Helmut Schmidt Lafontaine wegen dessen deutschlandpolitischer Grundhaltung eine „verdiente Niederlage“ voraus. Im Vorfeld der DDR-Volkskammerwahl 1990 kündigte Bundeskanzler Kohl am 13. Februar 1990 überraschend eine baldige Währungsunion an, ohne anfangs einen Wechselkurs festzulegen. Auf dem folgenden SPD-Parteitag in Leipzig vom 22. bis zum 25. Februar 1990 trug Lafontaine seine wirtschafts- und sozialpolitischen Bedenken vor. Er befürchtete und warnte davor, dass die Währungsunion weite Teile der Industrie- und Agrarwirtschaft der DDR schlagartig konkurrenzunfähig machen, zu ihrem Zusammenbruch und zu millionenfacher Arbeitslosigkeit führen würde. Er rechnete mit Steuererhöhungen und jahrzehntelangen Milliardentransfers in die Beitrittsgebiete und wies darauf hin, dass dies die Investitionen in der alten Bundesrepublik schwächen, auch dort Arbeitsplatzverluste bewirken und so den sozialen Zusammenhalt in ganz Deutschland gefährden würde. Er berief sich auf den Sachverständigenrat zur Begutachtung der gesamtwirtschaftlichen Entwicklung und riet dazu, die Wirtschaft der DDR schrittweise zu reformieren, um ihre Absatzmärkte zu erhalten und ihre Wettbewerbsfähigkeit gegenüber den westlichen Unternehmen zu stärken. Statt die D-Mark abrupt einzuführen, sei ein fester Wechselkurs für die DDR-Mark anzustreben. Nachdem die Bundesbank im April einen Umtauschkurs von 2:1 empfohlen und damit starken Protest in der DDR ausgelöst hatte, rückte er von seiner Empfehlung ab und befürwortete nun einen Umtauschkurs von 1:1 für sämtliche Sparguthaben, Löhne und Renten, um die Kaufkraft im Osten nach erfolgter Währungsunion zu stärken. Am 25. April 1990 wurde Lafontaine bei einem Wahlkampfauftritt in Köln-Mülheim von der psychisch kranken Adelheid Streidel (* 1947) mit einem Messerstich nahe der Halsschlagader lebensgefährlich verletzt. In den Wochen seiner Behandlung und Erholung von dem Attentat rückte die SPD-Bundestagsfraktion von seinem Kurs ab. Am 18. Mai 1990 vereinbarte die amtierende Bundesregierung mit der neuen, demokratischen DDR-Regierung den "Staatsvertrag über die Währungs-, Wirtschafts- und Sozialunion." Damit war entschieden, dass die DDR das wirtschafts- und sozialpolitische System der Bundesrepublik in einem Schritt übernehmen würde. Bei einer geheimen Abstimmung der SPD-Bundestagsfraktion folgte die Mehrheit Willy Brandts Empfehlung, diesem Vertrag im Bundestag zuzustimmen. Wegen des fehlenden Rückhalts für seinen Kurs bot Lafontaine daraufhin parteiintern seinen Rücktritt von der Kanzlerkandidatur an. Doch kein anderer im SPD-Bundesvorstand war zu kandidieren bereit. Bei der folgenden Abstimmung im Bundesrat am 22. Juni 1990 lehnten nur das von Lafontaine regierte Saarland und das von Gerhard Schröder regierte Niedersachsen den Staatsvertrag zur Währungsunion ab. Nachdem Briten und Franzosen ihre Vorbehalte gegen die staatliche Einheit Deutschlands aufgegeben hatten, beschlossen Bundestag und Bundesrat am 20. und 21. September 1990 mit den Stimmen der SPD-Fraktion und aller SPD-geführten Bundesländer den Einigungsvertrag. Das ermöglichte mit der notwendigen Zweidrittelmehrheit den Beitritt der DDR zur Bundesrepublik gemäß Artikel 23 des Grundgesetzes, der am 3. Oktober offiziell erfolgte. Damit hatte der Gang der Ereignisse Lafontaines Konzept überholt. Er verlor im Dezember 1990 die erste gesamtdeutsche Bundestagswahl. Danach zog er sich zunächst aus der Bundespolitik zurück, verzichtete auf den ihm angebotenen SPD-Vorsitz und blieb saarländischer Ministerpräsident. In einem Interview der Saarbrücker Zeitung vom 29. September 2010 antwortete Lafontaine auf die Frage: „Räumen Sie ein, 1990 selbst Fehler begangen zu haben?“: „Ich habe die Einheitseuphorie unterschätzt, das rationale Argument schlichtweg überschätzt. Die Wahrheit ist nicht immer populär“. Vorsitzender der SPD. Vom 1. November 1992 bis zum 31. Oktober 1993 war Lafontaine Bundesratspräsident. Nicht nur in dieser Zeit wirkte er daran mit, von der Zustimmung der Ländermehrheit abhängige Gesetzesvorhaben der von Helmut Kohl geführten Bundesregierung im Bundesrat scheitern zu lassen. Auch war er maßgebend beteiligt an der sog. "Petersberger Wende" der SPD, die zum „Asylkompromiss“ von 1992 sowie zur Zustimmung der Sozialdemokraten zu Militäreinsätzen im Rahmen von UN-Friedensmissionen führte. 1994 wurde Lafontaine per Direktmandat mit 56,4 Prozent der Stimmen seines Wahlkreises Saarbrücken als Mitglied des Deutschen Bundestages bestätigt. Vor der Bundestagswahl 1994 gehörte er zusammen mit Gerhard Schröder und dem SPD-Kanzlerkandidaten Rudolf Scharping zur „Troika“ der SPD und war Anwärter auf das Amt des Bundesfinanzministers. Die SPD verlor die Wahl trotz Zugewinnen mit 36,4 Prozent der Stimmen. In der Folgezeit war Scharping als Oppositionsführer erfolglos und verlor innerparteilich Zustimmung, besonders als er Schröder als wirtschaftspolitischen Sprecher der SPD entließ. Lafontaine nahm in dieser Zeit des innerparteilichen Konflikts häufig eine vermittelnde und ausgleichende Position zwischen den beiden Polen Scharping und Schröder ein. Doch er widersprach öffentlich, als Scharping Auslandseinsätze der Bundeswehr auch außerhalb des NATO-Vertragsgebietes befürwortete. Nach einer begeisternden Rede auf dem SPD-Parteitag in Mannheim löste Lafontaine Scharping als Bundesvorsitzenden der SPD ab: In der Kampfkandidatur am 16. November 1995 erhielt er 321 zu 190 Stimmen. Lafontaine lobte im März 1996 die bisherige Aufnahme und Unterstützung von Russlanddeutschen und Spätaussiedlern als Kultur der Mitmenschlichkeit. Er nannte diese Einwanderung von jährlich 220.000 Aussiedlern aber auch als Mitursache für die Schieflage in den gesetzlichen Sozialversicherungen im Laufe der 1990er Jahre und befürwortete eine Zuzugsbegrenzung von Aussiedlern. Er fand dafür unter anderem Kritik innerhalb der SPD und von den Grünen. Der damalige Außenminister Klaus Kinkel erwiderte, die Ausgaben für die Aufnahme seien verkraftbar. Die Regierung reagierte auf die hohe Einwanderung, anstatt Lafontaines Vorschlag zu folgen, unter anderem mit der deutlichen Kürzung von Renten und Integrationshilfen für Spätaussiedler. 1997 ließ Lafontaine die von der CDU/FDP-Koalition geplante Steuerreform – das sogenannte Petersberger Modell – im Bundesrat blockieren und gewann zugleich mit einem Alternativvorschlag im Bundestag öffentliche Zustimmung. Damit schuf er eine wesentliche Voraussetzung für die Ablösung Helmut Kohls als Bundeskanzler. Zudem sorgte er dafür, dass die Frage des Kanzlerkandidaten der SPD für die Bundestagswahl 1998 lange offen gehalten und zuerst das Wahlprogramm festgelegt wurde. Wichtige Forderungen darin, wie eine Ausbildungsplatzabgabe bei Lehrstellenmangel, eine Ökosteuer bei gleichzeitiger Senkung der Sozialversicherungsbeiträge und die Rücknahme der Rentenkürzung, wurden von ihm durchgesetzt. Auf die Nichtbeteiligung an Kriegseinsätzen der NATO hatte er die SPD schon 1991 programmatisch festgelegt. Nach Gerhard Schröders Wahlsieg bei den Landtagswahlen von Niedersachsen am 1. März 1998 rief Lafontaine ihn zum Kanzlerkandidaten für die Bundestagswahl am 27. September aus. Im folgenden Wahlkampf betonten beide ihre politische Übereinstimmung. Politische Affären. 1992 fand das Nachrichtenmagazin "Der Spiegel" heraus, dass Lafontaines Pensionsansprüche aus seiner Zeit als Oberbürgermeister Saarbrückens nicht ordnungsgemäß mit seinen Bezügen als Ministerpräsident verrechnet waren und er zu viel Geld erhalten hatte. Dies machte in den bundesweiten Medien als „Pensionsaffäre“ Schlagzeilen. Der Fehler war auf eine unklare Vorschrift im Beamtenrecht zurückzuführen, die die vorherige CDU-Regierung eingeführt hatte. Nachdem ein Gutachten des Finanzrechtlers Hans Herbert von Arnim den Sachverhalt belegt und der saarländische Landesrechnungshof die Auffassung des Spiegels unterstützt hatte, zahlte Lafontaine ohne Gerichtsverfahren rund 230.000 DM zurück. 1993 recherchierte der Journalist Kuno Haberbusch für das Nachrichtenmagazin "Panorama" über Beziehungen Lafontaines zu einigen Saarbrücker Nachtlokalen in den 1970er Jahren. Man sprach von der „Rotlichtaffäre“. Für den "Spiegel" stand Lafontaine „im Verdacht, einige Figuren aus dem Milieu mit Gefälligkeiten bedient zu haben“. Dieser bestritt nicht, sich öfter in den Lokalen aufgehalten zu haben, wies aber alle daraus abgeleiteten Verdächtigungen zurück und kritisierte sie als „Schweinejournalismus“. Er verhinderte die Ausstrahlung einer NDR-Reportage zu dem Fall durch eine gerichtliche Verfügung. 1994 setzte er mit SPD-Mehrheit eine Änderung des saarländischen Presserechts durch, das die redaktionelle Kommentierung von Gegendarstellungen auf derselben Seite verbot. Die Änderung ging als „Lex Lafontaine” in die Pressegeschichte ein. Dieser Eingriff in das Presserecht stieß auf erheblichen Widerstand von Medien und Journalistenorganisationen. Der Saarländische Landtag änderte im März 2000 die umstrittenen Regelungen zur Gegendarstellung, nachdem die SPD bei den Landtagswahlen vom 5. September 1999 ihre Mehrheit verloren hatte. Bundesfinanzminister 1998/1999. Nach dem Wahlsieg wurde Lafontaine am 27. Oktober 1998 zum Bundesminister der Finanzen im Kabinett Schröder I ernannt. Er erreichte nach anfänglicher Ablehnung Schröders eine Kompetenzerweiterung für sein Ressort, in das u. a. das Referat für den Jahreswirtschaftsbericht aufgenommen wurde. Damit wurde das Finanzministerium dem Vorbild des britischen Treasury "(Schatzamt)" angeglichen, um eine keynesianische (nachfrageorientierte) Fiskalpolitik zu ermöglichen. Jost Stollmann, ein parteiloser Jungunternehmer, den Schröder im Wahlkampf als Anwärter für das nun verkleinerte Wirtschaftsministerium präsentiert hatte, kündigte daraufhin an, nicht in das Kabinett einzutreten. Lafontaine berief später Heiner Flassbeck und Claus Noé zu seinen Staatssekretären, die seine nachfrageorientierte Finanz- und Steuerpolitik konzeptionell mit vorbereitet hatten. Bei den Koalitionsverhandlungen mit den Grünen lehnte er deren Forderung nach einem niedrigeren Spitzensteuersatz ab. Er beeinflusste wichtige Personalentscheidungen und verhinderte, dass Scharping erneut den SPD-Fraktionsvorsitz bekam. Bei der Besetzung des Bundestagspräsidentenamtes, des Kanzleramtschefs und Gesundheitsministers konnte er sich mit seinen Personalvorschlägen nicht durchsetzen. In der öffentlichen Wahrnehmung dominierte Lafontaine die Verhandlungen dennoch und galt bald als der „Traditionalist“ und „Schatten“ des Bundeskanzlers, der wichtige Reformvorhaben angeblich blockiere. In den ersten Wochen der rot-grünen Regierung setzte Lafontaine einige Versprechen des Wahlprogramms um und erwirkte die Rücknahme einer Reihe unter Kohl beschlossener Gesetze. Er sicherte wieder die hundertprozentige Lohnfortzahlung im Krankheitsfall der ersten sechs Wochen für Arbeitnehmer, revidierte die Beschränkung des Kündigungsschutzes in kleineren Betrieben, ließ das Schlechtwettergeld wiedereinführen und führte ein Entsendegesetz auch für ausländische Bauarbeiter sowie ein Sofortprogramm zum Abbau der Jugendarbeitslosigkeit ein. Daraufhin wurde das "Bündnis für Arbeit" zwischen Gewerkschaftsvertretern, Unternehmerverbänden und Regierung, das im letzten Regierungsjahr Kohls zerbrochen war, zunächst erneuert. In den Folgemonaten kam es zwischen Lafontaine und Gerhard Schröder an verschiedenen Punkten zu Koordinationsproblemen, Konflikten und Entfremdung. Ein Punkt im Wahlprogramm der SPD 1998 war die Sozialversicherungspflicht für 630-DM-Jobs. Zum Ausgleich sollte der sozialabgabenfreie Niedriglohnsektor erweitert werden. In Schröders Regierungserklärung war dann jedoch davon die Rede, die Versicherten die Hälfte der Sozialversicherungsbeiträge selber tragen zu lassen. Auch die Unternehmensbesteuerung sollte nach Schröders Willen langfristig entgegen den Absprachen vor der Wahl auf 35 Prozent gesenkt werden. Schröders Festlegung, die Ökosteuer auf sechs Pfennige pro Liter Benzin zu begrenzen, stellte den Finanzminister ebenfalls vor Probleme. Im Vorfeld der Landtagswahl in Hessen vom Februar 1999 plädierte Lafontaine für einen Konsens mit den Unionsparteien über das geplante neue Staatsbürgerschaftsrecht. Dies lehnten die rot-grünen Fraktionsführungen und zuständigen Minister ab. Die CSU-Unterschriftenaktion gegen die Reform des deutschen Staatsbürgerschaftsrechts und bedingten Einbürgerungsanspruch für in Deutschland lebende Ausländer hatte Erfolg: SPD und Grüne verloren die Hessenwahl und damit die Mehrheit im Bundesrat. Kritik erfuhr Lafontaine Anfang 1999 für seine Vorstöße an die Europäische Zentralbank zur Senkung des Leitzinses, die im Februar 1999 erfolgte, und zur Kontrolle der internationalen Finanzmärkte. Er schlug eine Regulierung des kurzfristigen Kapitalverkehrs zur Eindämmung der Spekulationsgewinne von Hedge-Fonds und stabile Wechselkurszielzonen durch internationale Absprachen vor. Die Grundzüge dieser Ideen stammten vom US-Notenbankpräsidenten Paul Volcker. Eine Konferenz der G7-Finanzminister und -Notenbankgouverneure, bei der Oskar Lafontaine für seine Reformvorschläge im internationalen Finanzsystem warb, verlief für die deutsche Verhandlungsseite nicht zufriedenstellend. Am 10. März 1999 erklärte Schröder bei einer Kabinettssitzung, eine wirtschaftsfeindliche Politik sei „mit ihm nicht zu machen“. Am Folgetag stand in der Bildzeitung, er habe mit Rücktritt gedroht und besonders Lafontaine angegriffen – nach dessen Angaben galt die Kritik jedoch Umweltminister Jürgen Trittin und Familienministerin Christine Bergmann. Ein Dementi der Rücktrittsdrohung durch den Kanzler erfolgte nicht. Für den 11. März war ein G33-Seminar zur internationalen Finanzarchitektur auf dem Petersberg bei Bonn angesetzt, von dem sich die deutsche Seite erhebliche Fortschritte für die Reform des Währungssystems versprach. Am gleichen Tag, dem 11. März 1999 erklärte Lafontaine seinen Rücktritt vom Amt des Bundesfinanzministers. Zugleich legte er den Vorsitz der SPD und sein Bundestagsmandat nieder. In einer kurzen Presseerklärung drei Tage darauf begründete er diesen Rückzug aus allen Ämtern mit dem „schlechten Mannschaftsspiel“ in der Regierung. Näheres wolle er nicht mitteilen, um der Regierung nicht zu schaden. Oskar Lafontaine war insgesamt 186 Tage im Ministeramt. Wie jeder Bundesfinanzminister war er Vorsitzender des Verwaltungsrates der KfW Bankengruppe. Kritiker des Kosovokrieges und Buchautor. Er habe das Trauma des Attentats von 1990 gerade in den Monaten nach dem Wahlsieg der SPD von 1998, auf den er jahrelang hingearbeitet hatte, nochmals bewusst durchlebt; sein Rücktritt sei auch eine Spätfolge davon. Er wolle sein Leben nicht der Politik opfern und sich seiner Familie widmen. Er habe ohnehin vorgehabt zurückzutreten, dies aber nach der enttäuschenden Regierungserfahrung zeitlich vorgezogen. Gegner von Schröders Sozialpolitik. Lafontaine kritisierte nach seinem Rücktritt den Kurswechsel des Kanzlers hin zu einer aus seiner Sicht arbeitnehmerfeindlichen Sozial-, Wirtschafts- und Steuerpolitik an vielen Einzelbeispielen. Das Schröder-Blair-Papier, eine Erklärung Schröders und Tony Blairs vom Mai 1999 zur Modernisierung der Industriegesellschaft, sah er – wie etwa auch der französische Sozialist Lionel Jospin – als Abkehr von sozialdemokratischen Grundwerten und Hinwendung zum Neoliberalismus. Lafontaine forderte die Rückwendung der SPD zu ihrem Programm von 1998, war aber nach Erscheinen seines Buches "Das Herz schlägt links" in seiner Partei weitgehend isoliert. Im April 2000, auf einem Parteitag der saarländischen SPD, räumte Lafontaine eine Mitschuld für das schlechte Abschneiden der Sozialdemokraten bei einigen Landtagswahlen ein. Er kündigte zugleich an, bei programmatischen Entscheidungen der SPD mitwirken zu wollen. Eine Mitarbeit auf Bundesebene lehnte Lafontaine aber ab. Politische Aktivitäten. 2001 wurde Lafontaine Mitglied der globalisierungskritischen Vereinigung Attac und schrieb eine politische Kolumne für die Boulevardzeitung "Bild". Mit verschiedenen Vorschlägen erhielt Lafontaine erneut öffentliche Beachtung. Im September 2003 riet er der Ost-SPD, mit der PDS zu fusionieren. Spekulationen über eine erneute Spitzenkandidatur für die saarländische SPD bei der Landtagswahl 2004 dementierte er erst spät. In einem Zehn-Punkte-Programm für den Sonderparteitag der SPD am 21. März 2004 forderte er die „Rücknahme der Nullrunde für Rentner“, „Streichung der Praxisgebühr“ und „Entziehung der Staatsbürgerschaft der im Ausland versteuernden Deutschen“, um so Wähler für die SPD zurückzugewinnen und eine innerparteiliche Diskussion um den Kurs Schröders zu befördern. Im Fall des entführten und ermordeten Jakob von Metzler unterstützte Lafontaine am 17. Mai 2004 die Gewaltandrohung des Frankfurter Polizeivizepräsidenten Wolfgang Daschner: Er hätte in dessen Lage ebenso gehandelt. Das Folterverbot des Grundgesetzes gelte „nicht nur für den Verbrecher, sondern auch für das entführte Kind“. Eine Bestrafung Daschners sei eine „Katastrophe für den Rechtsstaat“. Dieser dürfe nicht „tatenlos zusehen“, „wie ein Kind gequält und gefoltert wird“: Wenn dann der Täter feststehe, müsse Gewaltandrohung erlaubt sein. Im August 2004 unterstützte Lafontaine die von Otto Schily geforderte Einrichtung von Sammellagern für Einreisewillige in Nordafrika. Er begründet diese Haltung heute weiterhin mit schlechten Chancen ausländischer Arbeitskräfte auf dem deutschen Arbeitsmarkt und einer gescheiterten Integration, die wachsende Drogenkriminalität und Ausländerfeindlichkeit erzeuge. „Ungeregelte“ Zuwanderung verstärke die Arbeitslosigkeit. Bei den Demonstrationen gegen die Hartz-IV-Gesetzgebung beteiligte sich Lafontaine am 30. August 2004 als Redner bei einer der Montagsdemonstrationen gegen Sozialabbau 2004 in Leipzig. An der erneuten SPD-Wahlniederlage im Saarland am 5. September 2004 gab ihm der Bundesvorstand der SPD eine erhebliche Mitschuld. Austritt aus der SPD 2005. Lafontaine erklärte am 24. Mai 2005 seinen bereits im Vorjahr angekündigten Austritt aus der SPD. Am selben Tag erklärte er sich bereit, ein Linksbündnis aus WASG und PDS bei der vorgezogenen Bundestagswahl 2005 zu unterstützen. Sein Parteibuch gab er am 30. Mai zurück – damit endete die Mitgliedschaft nach fast vierzig Jahren auch formal. Lafontaine nennt bis heute die Abkehr der SPD vom Berliner Programm als Grund für diesen Schritt. SPD-Vertreter werfen ihm dagegen vor, nur aufgrund eines gestörten Verhältnisses zu seiner ehemaligen Partei der Linkspartei beigetreten zu sein. Eintritt in WASG und Wiedereinzug in den Bundestag. Nachdem sich die Führungsgremien von PDS und WASG auf gemeinsame Kandidaturmodelle zur Bundestagswahl 2005 geeinigt hatten, kündigte Lafontaine am 10. Juni 2005 an, zusammen mit Gregor Gysi für das Linksbündnis anzutreten. Am 18. Juni trat er gemeinsam mit seiner Ehefrau der WASG bei. Am 30. Juli wählte ihn die NRW-Landesmitgliederversammlung der Linkspartei in Essen auf den Spitzenplatz ihrer offenen Liste für die Bundestagswahl. Er kandidierte außerdem für ein Direktmandat im Wahlkreis Saarbrücken, wo er mit 26,2 Prozent der Erststimmen den dritten Platz hinter den dortigen Kandidaten der SPD und CDU erhielt. Die SPD sah das Linksbündnis im Wahlkampf 2005 überwiegend als „ganz klare Herausforderung“ (Franz Müntefering) an die von Schröder eingeleitete Politik der Agenda 2010 an. Seit der Bundestagswahl am 18. September 2005 war Lafontaine wieder Mitglied des Deutschen Bundestages und teilte sich in der 16. Wahlperiode den Fraktionsvorsitz der Linkspartei mit Gregor Gysi. Er kritisierte Schröders Anspruch auf das Kanzleramt am Wahlabend als „pubertäres Verhalten“. Oskar Lafontaine war von 2005 bis 2009 Mitglied im Gemeinsamen Ausschuss, der nach Ausrufung des Verteidigungsfalls als Notparlament die Funktionen von Bundesrat und Bundestag ausübt. Weiterhin war er von 2005 bis 2009 als Abgeordneter seiner Fraktion Mitglied im Verwaltungsrat der KfW Bankengruppe in Frankfurt am Main. Vorsitzender der Linkspartei und Rückzug ins Saarland. Baden-Württembergischer Wahlkampf in Freiburg, 2011 Am 29. Dezember 2005 erklärte Lafontaine dem Landesvorstand Saar schriftlich seinen Eintritt in die Linkspartei. Im November 2006 kündigte er im saarländischen Bildstock vor Gewerkschaftsvertretern und Betriebsräten an, bei der Landtagswahl 2009 als Spitzenkandidat der mit der WASG vereinten Linkspartei anzutreten. Am 15. Juni 2007 wurde die Fusion beider Organisationen zur neuen Partei "Die Linke" vollzogen. Am Folgetag wurde Lafontaine auf deren Gründungsparteitag, gemeinsam mit Lothar Bisky, mit 87,9 Prozent zu ihrem Vorsitzenden gewählt. Im August 2008 nominierte der saarländische Landesverband der Partei "Die Linke" Lafontaine auf einem Landesparteitag zum Spitzenkandidaten für die Landtagswahl 2009. Dabei wurde die Linke mit über 20 Prozent der Wählerstimmen drittstärkste Partei. Koalitionsverhandlungen mit SPD und Grünen scheiterten am Beschluss der Grünen unter Führung von Hubert Ulrich, mit CDU und FDP die Regierung im Rahmen einer Jamaika-Koalition zu bilden. Am 9. September 2009 wählte die Linksfraktion im saarländischen Landtag Lafontaine zum Fraktionsvorsitzenden. Nach dem Zusammentritt des Landtags am 23. September führte er gemeinsam mit dem Oppositionsführer und SPD-Fraktionsvorsitzenden Heiko Maas die Opposition gegen die am 10. November 2009 angetretene Regierung Müller und das ebenfalls auf einer Jamaika-Koalition basierende Kabinett Kramp-Karrenbauer I an. Am 9. Oktober 2009 gab Lafontaine seinen Verzicht auf eine erneute Kandidatur für den Fraktionsvorsitz im Bundestag bekannt. Einen Monat später, am 17. November 2009, erklärte er, dass er sich auf Grund seiner Krebserkrankung einem chirurgischen Eingriff unterziehen werde und danach über die Fortführung seiner politischen Arbeit entscheiden wolle. Nachdem gemeldet worden war, dass der Eingriff wegen Prostatakrebs am 18. November 2009 erfolgreich verlaufen sei, trat Lafontaine im Januar 2010 erstmals wieder politisch in Erscheinung. Bereits kurz darauf erklärte er jedoch auf einer Vorstandssitzung, aus gesundheitlichen Gründen sein Bundestagsmandat abgeben und auf eine erneute Kandidatur zum Parteivorsitzenden auf dem Parteitag in Rostock verzichten zu wollen. Am 1. Februar 2010 schied Lafontaine aus dem Deutschen Bundestag aus; für ihn rückte die Saarländerin Yvonne Ploetz nach. Im April 2013 erklärte Lafontaine, bei der Bundestagswahl 2013 werde er nicht kandidieren. Kontroversen. Am 14. Juni 2005 sagte Lafontaine auf einer Kundgebung in Chemnitz, der Staat sei „verpflichtet zu verhindern, dass Familienväter und Frauen arbeitslos werden, weil Fremdarbeiter zu niedrigen Löhnen ihnen die Arbeitsplätze wegnehmen.“ „Fremdarbeiter“ wurde vielfach als Ausdruck aus der Sprache des Nationalsozialismus kritisiert, den Lafontaine bewusst verwendet habe, um Fremdenfeindlichkeit zu nutzen und so potentielle NPD-Wähler für das neue Linksbündnis zu gewinnen. Auch führende PDS-Mitglieder wie Bisky und Bodo Ramelow gingen deshalb auf Distanz zu dieser Wortwahl. Als er wegen Neuaufnahme seines politischen Engagements bei WASG und PDS von der Bild-Zeitung nicht mehr als Kolumnist bemüht worden ist, bestand Lafontaine trotzdem auf Vertragserfüllung – nach Medienberichten waren das „monatlich mehr als 5000 Euro ohne Gegenleistung“. Politische Gegner ordnen Lafontaine heute oft als Populist ein. Hans-Ulrich Wehler kritisiert, sein Buch "Politik für alle" bediene populistische Ressentiments, indem es etwa vom deutschen Volk als „Schicksalsgemeinschaft“ rede. Für Frank Decker gehört Lafontaine zu den deutschen Politikern mit der größten Fähigkeit zur populistischen Wähleransprache. Rafael Seligmann, Michael Wolffsohn und Wolfgang Schäuble bezeichneten Lafontaine als Demagogen. Zudem befürwortete er öffentlich die Schließung eines regierungskritischen Fernsehsenders durch Hugo Chávez; in einem Kommentar warf ihm daraufhin Mathias Döpfner, Vorstandsvorsitzender der Axel Springer AG, ein protektionistisches, nationalistisches und fremdenfeindliches Weltbild vor. Auch in der eigenen Partei gab es deutliche Kritik an dem plakativen Auftreten Lafontaines. So sagte Klaus Lederer als Vorsitzender der Berliner Linkspartei, man müsse aufpassen, nicht den eigenen Heilsversprechen zu glauben. Josef Ackermann von der Deutschen Bank griff den Lebensstil von Oskar Lafontaine kritisch auf: Im Gespräch mit dem Spiegel äußerte der Bankchef im März 2008: „Jüngst habe ich ein Foto von Oskar Lafontaines Villa gesehen: Der lebt wesentlich prunkvoller als ich. Wird dem je vorgehalten, dass er sich vom normalen Leben entfernt hat?“ Lafontaine kritisierte im Rahmen des Kriegs in der Ukraine seit 2014 die Ukraine-Politik der USA und bezeichnete US-Minister Ashton Carter einen Tag nach dessen Berlin-Besuch am 22. Juni 2015 als „Kriegsminister“. Inmitten des bewaffneten Konflikts in der Ostukraine erklärte Carter die erstmalige Verlegung schweren US-Militärgerätes in die Nato-Staaten Mitteleuropas und Osteuropas. Washington wolle „vorübergehend“ Ausrüstung für eine Kampfbrigade stationieren, hatte Carter erklärt. Zu dem Gerät zählten unter anderem Panzer und Artillerie. Lafontaine schrieb:»Der US-Kriegsminister ruft die Europäer dazu auf, sich der russischen ›Aggression‹ entgegenzustellen. Dabei hätten die Europäer allen Grund, sich der Aggression der USA entgegenzustellen. Der Großmeister der US-Diplomatie, George Kennan, bezeichnete die Osterweiterung der NATO als den größten Fehler der US-Außenpolitik nach dem Zweiten Weltkrieg, weil sie einen neuen Kalten Krieg zur Folge habe. Die US-Diplomatin Victoria Nuland sagte, wir haben über fünf Milliarden Dollar aufgewandt, um die Ukraine zu destabilisieren. Sie zündeln immer weiter und Europa bezahlt mit Umsatzeinbrüchen im Handel mit Russland und dem Verlust von Arbeitsplätzen. ›Fuck the EU‹, sagte die US-Diplomatin Nuland. Wir brauchen eine europäische Außenpolitik, die den kriegstreibenden US-Imperialismus eindämmt! Fuck the US-Imperialism!«Mit seiner Kritik bezog sich Lafontaine auf eine Äußerung der US-Europa-Diplomatin Victoria Nuland zur Ukraine-Krise, die in einem Telefonat mit dem US-Botschafter in Kiew gesagt hatte: „Fuck the EU“ (frei übersetzt: „Die EU kann uns mal.“) Euro. Lafontaine ist ein Befürworter der Einführung von nationalen Währungen. Der Saarbrücker Zeitung erklärte er: „Wir brauchen ein besseres Währungssystem, in dem es auch nationale Währungen wieder geben kann, zum Beispiel in Zypern und Griechenland“. Bernd Riexinger kritisierte ihn für diese Aussage und erklärte, es gäbe niemanden in der Linken, der diese Forderung teile. Ole von Beust. Carl-Friedrich Arp Ole Freiherr von Beust (* 13. April 1955 in Hamburg) ist ein ehemaliger deutscher Politiker der CDU. Vom 31. Oktober 2001 bis zum 25. August 2010 war er Erster Bürgermeister der Freien und Hansestadt Hamburg. Leben. Ole von Beust ist der jüngste von drei Söhnen von Achim-Helge Freiherr von Beust aus dem altmärkischen Adelsgeschlecht von Beust und seiner Frau Hanna geb. Wolff († 1995). Seine Taufnamen sind Carl-Friedrich Arp. Als Kind wurde er von seiner Großmutter auf Plattdeutsch „Ole Popp“ (alte Puppe) gerufen. Den daraus entstandenen Rufnamen Ole ließ er mit Erreichen der Volljährigkeit standesamtlich eintragen. Beust absolvierte sein Abitur 1973 am Hamburger Walddörfer-Gymnasium. 1975 begann er ein Studium der Rechtswissenschaften, das er 1980 mit dem ersten und 1983 mit dem zweiten juristischen Staatsexamen abschloss. Seitdem ist er als selbstständiger Rechtsanwalt zugelassen. Außerdem ist Beust seit dem 1. Oktober 2010 Senior Advisor der Unternehmensberatung Roland Berger und Mitgesellschafter der "Ole von Beust Consulting GmbH & Co KG", die Strategie- und Kommunikationsberatung für Unternehmen und Verbände anbietet. Seit Mai 2013 lebt er mit seinem Partner Lukas Förster in einer eingetragenen Lebenspartnerschaft. Politischer Werdegang. Ole von Beust auf dem CDU-Bundesparteitag 1981 in Hamburg Mit 16 Jahren trat Beust 1971 in die CDU ein und wurde 1973 Assistent der Bürgerschaftsfraktion der CDU. Von 1977 bis 1983 war er Landesvorsitzender der Jungen Union, ab 1978 Mitglied der Hamburgischen Bürgerschaft. Von 1992 bis zur Aufgabe aller politischen Ämter 2010 war er Mitglied im Landesvorstand der Hamburger CDU, ab 1998 außerdem Mitglied im Bundesvorstand der CDU. Bei der Bürgerschaftswahl in Hamburg 1991 erreichte die CDU 35,1 % der Stimmen. Die Wahl wurde wegen undemokratischer Kandidatennominierung innerhalb der CDU von mehreren CDU-Mitgliedern, unter anderem Markus Wegner, angefochten. Vor dem Hamburgischen Verfassungsgericht, das 1993 die Wahlen für ungültig erklärte, trat Beust als Justitiar der Hamburger CDU auf. Bei der Bürgerschaftswahl in Hamburg 1993 erreichte die CDU lediglich 25,1 %, während Markus Wegner mit der Wählervereinigung Statt Partei mit 5,6 % überraschend ins Hamburger Rathaus einziehen konnte. Als Verlierer der Wahl galt Jürgen Echternach, der langjährige Landesvorsitzende der CDU, der allerdings bereits im Jahr vor der Wahl den Landesvorsitz abgegeben hatte. Bei der Bürgerschaftswahl in Hamburg 1997 war Beust Spitzenkandidat der CDU. Da seine Homosexualität bereits ein offenes Geheimnis innerhalb der Partei war, glaubt Beust heute, er sei nur aufgestellt worden, weil niemand ahnte, dass er gewinnen könne. Die Wahl führte trotz einigen Zugewinns (CDU 30,7 %) nicht zum Regierungswechsel. Aber auch die Regierungskoalition unter Bürgermeister Henning Voscherau aus SPD (36,2 %) und STATT Partei (3,5 %) konnte nicht weiterregieren, da letztere an der 5-%-Hürde scheiterte. Erste Amtszeit als Bürgermeister (2001–2004). Am 29. August 2002 hielt Schill als Hamburger Senator im Bundestag eine Rede in einer Debatte zur Finanzierung der Flutkatastrophe in Ostdeutschland. Darin kritisierte er die Ausländerpolitik der rot-grünen Bundesregierung und warf ihr vor, statt Reserven für Katastrophen zu schaffen, zu viel für Zuwanderer gezahlt zu haben. Das sorgte tagelang für Aufsehen. Beust äußerte sich kritisch: „Wer im Bundestag oder im Bundesrat spricht, hat für das Land zu sprechen, nicht als Parteivorsitzender.“ Schill habe nicht im Auftrag des Hamburger Senats gesprochen. Affäre Schill. Im August 2003 entließ Beust neben dem durch anhaltende Vorwürfe (Dienstvergehen) angeschlagenen Staatsrat der Innenbehörde Walter Wellinghausen auch den Innensenator und Zweiten Bürgermeister Ronald Schill. Laut Beust wollte Schill die Entlassung Wellinghausens mit der Drohung verhindern, andernfalls bekannt zu machen, dass Beust ein Verhältnis mit Justizsenator Roger Kusch habe und damit nicht anders als Wellinghausen Politik und Privatleben vermischt habe. Beust und Kusch wiesen das entschieden zurück. Sie seien nur Studienfreunde und Beust der Vermieter Kuschs. Schill hingegen bekräftigte seine Anschuldigungen und erzählte von angeblich „eindeutigen Geräuschen in der Wohnung“ während eines Besuchs Beusts bei Kusch und dass er Beust nicht erpresse, sondern ihn lediglich aufgefordert habe, nicht zweierlei Maß für Wellinghausen und sich selbst anzuwenden. Wenig später outete sich Roger Kusch öffentlich als homosexuell. Ole von Beust wurde seinerseits kurz darauf durch ein unabgesprochenes Interview seines Vaters als homosexuell geoutet. Er erklärte sich später sogar froh darüber und sehe es positiv, dass alles Diesbezügliche schon von seinem Vater gesagt worden sei. Nach der Entlassung Schills stieg die Popularität Beusts stark an, Schill dagegen büßte Sympathien ein. Am 9. Dezember 2003 löste Beust die Regierungskoalition auf. Zugleich kündigte er Neuwahlen für das Jahr 2004 an. Darauf traten am 18. Dezember 2003 Schill und fünf weitere Abgeordnete aus der Partei Rechtsstaatlicher Offensive aus und gründeten die "Ronald-Schill-Fraktion". Bürgerschaftswahlen 2004. Die Wahlen zur Hamburgischen Bürgerschaft am 29. Februar 2004, bei denen die CDU mit dem Dreiklang-Slogan „Michel – Alster – Ole“ und „Ole wählen. Konsequent. Fair. Engagiert.“ einen reinen Personenwahlkampf mit Beust bestritten hatte, endeten mit einem Wahlsieg der CDU (47,2 %). Während die CDU damit erstmals die absolute Mehrheit in Hamburg erreichte, kamen weder die FDP noch die Partei Rechtsstaatlicher Offensive über die Fünf-Prozent-Hürde, so dass beide Parteien aus der Hamburgischen Bürgerschaft ausschieden. Ronald Schill verließ nach der Wahlniederlage Deutschland und zog nach Brasilien. Gegenüber Beusts Wahlkampf kam aus den Reihen der Bürger, der rot-grünen Opposition und aus den Medien einige Kritik auf. So sendete kurz vor der Wahl die ARD in ihrer Sendung Panorama einen kritischen Beitrag zu den Medien des Springer-Verlags, die 85 % des Hamburger Zeitungsmarkts beherrschen und denen Kampagnenmache zugunsten Beusts vorgeworfen wurde. Zweite Amtszeit als Bürgermeister (2004–2008). Zu Beginn seiner zweiten Amtszeit verkleinerte Beust den Senat von zehn auf neun Senatoren. Aufgrund der absoluten Mehrheit bestand das Kabinett nun nur noch aus Senatoren der CDU sowie vier parteilosen Senatsmitgliedern. Nach zwei Jahren entließ Beust seinen Justizsenator Roger Kusch. Er begründete dies damit, dass dessen Behörde ohne Erlaubnis in den Besitz von vertraulichen Unterlagen aus einem parlamentarischen Untersuchungsausschuss gelangt sei und diese weitergegeben habe. Kusch erklärte später, der rechtswidrige Erhalt dieser Unterlagen sei lediglich eine „freundliche Geste“ und eine „kleine Wiedergutmachung für die vollkommen inakzeptable Behandlung“ bei seiner Vernehmung vor dem Ausschuss gewesen. Während seiner zweiten Amtszeit wurde Bürgermeister Ole von Beust turnusgemäß am 1. November 2007 zum Bundesratspräsidenten gewählt und gab dieses Amt zum 1. November 2008 turnusgemäß an den saarländischen Ministerpräsidenten Peter Müller ab. Im Jahr darauf war Beust Erster Vizepräsident des Bundesrates. Bürgerschaftswahlen 2008. Auf einer Klausurtagung der CDU in Jesteburg wurde beschlossen, den Wahlkampf 2008 wie bereits 2004 auf den Bürgermeister zu zuschneiden. „Allianz für Ole“ sollte das zentrale Motto lauten. Am 1. April 2007 verkündete Ole von Beust, er werde sich im Falle einer Niederlage gegen seinen Herausforderer, den SPD-Spitzenkandidaten Michael Naumann bei der Hamburgischen Bürgerschaftswahl am 24. Februar 2008, aus der Politik zurückziehen. Bei der Landesvertreterversammlung der Hamburger CDU am 2. Juni 2007 wurde Beust mit einem Ergebnis von 98 % (193 von 197 Stimmen) auf Platz 1 der Landesliste gewählt. Den Wahlkampf 2008 führt Ole von Beust mit dem CDU-Regierungsprogramm „In guten Händen. Grundlagen für Hamburgs Erfolg.“ Laut einer Studie der Universität Hamburg wurde Ole von Beust im Wahlkampf durch die Hamburger BILD-Zeitung messbar unterstützt. Bei der Bürgerschaftswahl am 24. Februar 2008 erhielt die CDU 42,6 % der Wählerstimmen und damit 4,6 % weniger als 2004. Dritte Amtszeit als Bürgermeister (2008–2010). Da sie damit ihre absolute Mehrheit der Parlamentssitze verloren hatte, bildete Ole von Beust eine Koalitionsregierung mit der Grün-Alternativen Liste (GAL), die erste schwarz-grüne Koalition auf Landesebene. Er erklärte, er sehe auch auf Bundesebene einige Gemeinsamkeiten. Allerdings strebe die CDU wieder ein Bündnis mit der FDP an. Rücktritt 2010. Am 18. Juli 2010, dem Tag des Volksentscheids über die Schulreform in Hamburg, gab Ole von Beust eine halbe Stunde vor der Schließung der Wahllokale auf einer Pressekonferenz im Hamburger Rathaus seinen Rücktritt vom Amt als Erster Bürgermeister von Hamburg mit Wirkung zum 25. August 2010 bekannt. Mit ihm traten auch der Staatsrat der Senatskanzlei Volkmar Schön und die Kultursenatorin Karin von Welck zurück. Am 25. August 2010 wählte die Bürgerschaft daraufhin Christoph Ahlhaus zum Ersten Bürgermeister. Privatisierungen. Geprägt war die Amtszeit Beusts auch von Privatisierungen. Obwohl sich in einem Volksentscheid die Bevölkerung dagegen ausgesprochen hatte, wurde der Landesbetrieb Krankenhäuser mehrheitlich an den privaten Betreiber Asklepios verkauft, ein Anteil von 25,1 % verblieb bei der Stadt Hamburg. Weiter wurden rund 30 % des Hafenunternehmens HHLA an die Börse gebracht. Hierbei wurden über 20 % des Emissionsvolumens von Mitarbeitern, die alle ein Vorkaufsrecht mit einem Preisabschlag von 50 % besaßen, und Privatanlegern erworben. Die Gewerkschaften ver.di und die rot-grüne Opposition kritisierten diesen Vorgang, da sie sich nur eine Ausgabe von stimmrechtslosen Aktien, sog. Volksaktien, vorstellen konnten. In diesem Zuge kam es kurzzeitig zu größeren Demonstrationen in Hamburg. 2002 gab Beust mit den Worten: „Damit ist der Stadt am besten gedient“ die letzten 25,1 % Aktienanteile an dem ehemals staatseigenen Stromproduzenten HEW für 869 Millionen Euro plus einer Sonderzahlung von 96 Millionen Euro an Vattenfall Europe ab. 2007 bedauerte er dies öffentlich („Heute würde ich die HEW nicht mehr verkaufen“, da durch die Privatisierung „die Stadt keinen Einfluss mehr auf die Strompreise und nur geringen Einfluss auf die Investitionen des Unternehmens hat“). Einzelnachweise. Ole Otto Schily. Otto Georg Schily (* 20. Juli 1932 in Bochum) ist Rechtsanwalt und ein deutscher Politiker der SPD. Von 1998 bis 2005 war er Bundesminister des Innern. Er war Mitgründer der Partei Die Grünen, von der er im November 1989 zur SPD wechselte. Ausbildung und Anwaltstätigkeit. Schily stammt aus einer vermögenden großbürgerlichen Familie und genoss eine anthroposophische Erziehung. Sein Vater Franz Schily war promovierter Hüttendirektor des Hüttenwerks Bochumer Verein, die Mutter Musikerin. Seine Großmutter väterlicherseits war die Malerin Julia Schily-Koppers. Schily wuchs in Bochum und ab Ende des Zweiten Weltkrieges in Garmisch-Partenkirchen im Ortsteil Partenkirchen auf. Nach dem Abitur an der Graf-Engelbert-Schule in Bochum studierte Schily Rechts- und Politikwissenschaften in München, Hamburg und Berlin bis zum zweiten juristischen Staatsexamen 1962. Seit 1963 ist er als Rechtsanwalt zugelassen. Grundwehrdienst musste er als Angehöriger eines Weißen Jahrgangs nicht leisten. Bis 1968 vertrat Schily für die konservative Anwaltskanzlei Neufeldt Mandanten in Grundstücks- und Erbschaftsangelegenheiten. Schily vertrat ab 1968 erstmals Gudrun Ensslin infolge der Kaufhaus-Brandstiftungen am 2. April 1968. In diesem Zusammenhang beendete er auf Bitten des Kanzleiseniors die Mitarbeit in der Rechtsanwaltsgemeinschaft und eröffnete an der Charlottenburger Kantstraße eine eigene Kanzlei. a>, u.a. mit einer Pressekonferenz Schilys zum Tod Baaders, Ensslins und Raspes Bereits im Studium hatte er sich politisch engagiert und stand mehreren Mitgliedern des Sozialistischen Deutschen Studentenbund (SDS) persönlich nahe, wobei er sich selbst allerdings vornehmlich als Bürgerrechtler in liberaler Tradition verstand und an die Reformierbarkeit des bundesdeutschen Systems glaubte. Er freundete sich mit Rudi Dutschke und Horst Mahler an und war Vertreter der Nebenklage im Prozess um den Mord an Benno Ohnesorg. Als Rechtsanwalt war er Hauptmieter einer als „Wielandkommune“ bekannt gewordenen, teils anarchistisch orientierten Wohngemeinschaft und Kommune in der Wielandstraße, Berlin-Charlottenburg. 1971 war er Wahlverteidiger des damaligen RAF-Mitgliedes Horst Mahler, von 1975 bis 1977 der RAF-Terroristin Gudrun Ensslin. Während der Stammheimer Prozesse beantragte Schily am 4. Mai 1976 die Vernehmung des für den Kriegseinsatz in Vietnam und Kambodscha verantwortlichen Präsidenten der Vereinigten Staaten Richard Nixon und des US-Verteidigungsministers Melvin Laird als Zeugen. Durch die Zeugenvernehmung sollte nachgewiesen werden, dass die Vereinigten Staaten durch ihren Kriegseinsatz in Südostasien Völkerrechtsverbrechen begangen hatten, die sie auch vom Boden der Bundesrepublik Deutschland aus koordiniert hatten, entscheidungserheblich für die Frage der Gewaltanwendung gegen die Ausübung von völkerrechtswidriger Gewalt. Es sollte geklärt werden, ob „Gewaltanwendung gegen bestimmte militärische Einrichtungen der USA auf dem Territorium der Bundesrepublik, so Bombenangriffe auf US-Stützpunkte in Frankfurt und Heidelberg, gerechtfertigt waren“. Wegen der Abhöraffäre von Stammheim erschien Schily schließlich nicht mehr im Gerichtssaal des Stammheim-Prozesses. Nach dem Tod der Angeklagten bezweifelte Schily die Selbsttötungen und machte den Staat für die Todesfälle verantwortlich. Am 19. Oktober 1977 war er bei der Obduktion von Andreas Baader, Jan-Carl Raspe und Gudrun Ensslin anwesend. Die Tonbandmitschnitte der Gerichtsverhandlungen, in denen sich Schily teils unkontrolliert benahm und sich heftige Wortgefechte mit dem Vorsitzenden lieferte, galten 30 Jahre lang als verschollen; sie wurden nach ihrer Wiederauffindung teilweise vom WDR publiziert (siehe unten: Literatur). Heute betreibt Schily eine Rechtsanwaltskanzlei in Berlin-Mitte. Die Grünen. 1980 war Schily Mitgründer der Bundespartei Die Grünen, er galt dabei als Gegenspieler zum rechtskonservativen Flügel um Herbert Gruhl. Für den West-Berliner Landesverband (Alternative Liste für Demokratie und Umweltschutz) kandidierte Schily 1981 bei der vorgezogenen Wahl zum Abgeordnetenhaus von Berlin. 1983 wurde er in den Deutschen Bundestag gewählt und war Mitglied der ersten Grünen-Bundestagsfraktion. Sein Stil polarisierte: Am 22. November 1983 wurde Schily kurz nach dem erstmaligen Einzug als Grünen-Politiker in den Deutschen Bundestag vom CDU-Politiker Dietmar Kansy als „Mini-Goebbels“ bezeichnet. Gemeinsam mit Marieluise Beck-Oberdorf und Petra Kelly übte er bis 1984 im Sprecherrat die Funktion des Fraktionsvorsitzenden aus. Innerhalb der Grünen galt Schily zu dieser Zeit als Realo, trat für eine mögliche Koalition mit der SPD ein. Wegen des damals bei den Grünen noch herrschenden Rotationsprinzips schied er im März 1986 aus dem Bundestag aus. 1987 wurde er erneut in den Bundestag gewählt. Nachdem er 1989 mit seiner Kandidatur für den Fraktionsvorstand der Grünen scheiterte, trat er am 2. November 1989 bei den Grünen aus, legte sein Bundestagsmandat nieder und wurde Mitglied der SPD. SPD. Am 2. Dezember 1990 wurde er für die SPD zum Mitglied des Deutschen Bundestages gewählt. Von 1993 bis 1994 hatte er den Vorsitz des Treuhand-Untersuchungsausschusses im Deutschen Bundestag inne. Von 1994 bis zum Eintritt in die Bundesregierung 1998 war er stellvertretender Vorsitzender der SPD-Bundestagsfraktion. Während der Regierung Schröder I war er Mitglied des Richterwahlausschusses, des Vermittlungsausschusses sowie stellvertretendes Mitglied des Innen- und des Rechtsausschusses sowie des gemeinsamen Ausschusses nach Artikel 53a des Grundgesetzes. Für die Zeit von 2005 bis 2009 wurde Otto Schily zum ordentlichen Mitglied im Auswärtigen Ausschuss gewählt. Mit Verweis auf den Mandantenschutz weigerte sich Schily, die Einkünfte zu spezifizieren, die er neben seinem Bundestagsmandat aus seiner Nebentätigkeit als Rechtsanwalt erzielte. Das Bundestagspräsidium sah darin eine Pflichtverletzung und verhängte deshalb ein Ordnungsgeld in Höhe von 22.000 Euro. Mit Urteil vom 30. September 2009 entschied das Bundesverwaltungsgericht in Leipzig zwar, dass Bundestagsabgeordnete ihre Nebeneinkünfte bis ins kleinste Detail offenlegen müssen, die Ordnungsgelder gegen Schily hob das Gericht aber auf, da die Richter einen Verstoß der Bundestagsverwaltung gegen die Gleichbehandlung aller Abgeordneten sahen. Während Einzelanwälte ihre Einkünfte aus Nebentätigkeiten offenlegen mussten, galt dies für Anwälte in Anwaltssozietäten nicht. Dies sei eine „gleichheitswidrige Verwaltungspraxis“, erklärte der Vorsitzende Richter. Der Bundestag wurde zudem aufgefordert, die entsprechenden Regeln anzugleichen. Schily leitete als Alterspräsident die konstituierenden Sitzungen des Deutschen Bundestages in den Jahren 2002 und 2005. Sein Wahlkreis war München-Land. Bei der Bundestagswahl 2009 hat Schily nicht mehr kandidiert. Im August 2010 war Schily einer von 40 prominenten Unterzeichnern des "Energiepolitischen Appells", einer Initiative der vier großen Stromkonzerne zur Laufzeitverlängerung deutscher Kernkraftwerke. Bundesinnenminister. Otto Schily (oben links) beim Treffen der G8-Minister für Inneres und Justiz (2004) Nach dem Sieg von SPD und Bündnis 90/Die Grünen bei der Bundestagswahl am 27. September 1998 wurde Schily am 27. Oktober 1998 zum Bundesminister des Innern ernannt. Es werden Vorwürfe von Politikern aller Parteien, auch seiner eigenen, gegen Schily erhoben, weil er als Bundesinnenminister am 31. Mai 2004 durch den US-amerikanischen Botschafter Dan Coats über den Fall des deutschen Staatsbürgers Khaled el-Masri informiert wurde und anschließend bis Herbst 2005 der Bitte des Botschafters nachkam, diesbezüglich Stillschweigen zu bewahren. Khaled el-Masri war nach derzeitigem Sachstand im Jahre 2003 durch die CIA nach Afghanistan entführt, gefoltert und schließlich im Mai 2004 heimlich zurückgeflogen und in einem Wald in Albanien ohne Erklärungen ausgesetzt worden. Die Oppositionsfraktionen im Bundestag beantragten eine Aktuelle Stunde über die Vorgänge. Schily äußerte, er habe zu einem Zeitpunkt, wo er hätte eingreifen können, keine Informationen bekommen, die ihn in die Lage versetzt hätten, dafür zu sorgen, dass einem deutschen Staatsbürger kein Leid geschähe. In den Jahren 2000 bis 2003 scheiterte sein Versuch, die Nationaldemokratische Partei Deutschlands (NPD) verbieten zu lassen (NPD-Verbotsverfahren). Am 11. Juni 2001 wurden in der Wohnung und in der Kanzlei von Horst Mahler, nun der Bevollmächtigte der NPD im Parteiverbotsverfahren, EDV-Anlage, Datenträger und Unterlagen beschlagnahmt, am 3. Juli 2001 verfügte das Bundesverfassungsgericht, dass die Unterlagen zurückzugeben seien. Und nachdem offenbar geworden war, dass für die NPD belastende Äußerungen von bei ihr verdeckt eingeschleusten Personen des Verfassungsschutzes getätigt worden waren, sistierte das Bundesverfassungsgericht am 22. Januar 2002 einstimmig die Verfahren. Am 9. Juni 2004 kam es zu dem Nagelbomben-Attentat in Köln und Schily erklärte bereits am nächsten Tag, dass es dafür keinen terroristischen Hintergrund gebe. Für diese - angesichts seiner Kenntnisse der Tätigkeiten der Verfassungsschutzbehörden in Bund und Ländern schwer nachvollziehbare Auffassung - entschuldigte er sich im April 2012 und suchte dabei auch für die Landesinnenminister zu sprechen. Am 15. Juli 2005 sagte Schily als Zeuge vor dem Visa-Untersuchungsausschuss des Bundestages aus. Es ging um die Vergabe von Touristenvisa für Deutschland an der deutschen Botschaft in Kiew im Zusammenhang mit dem sogenannten „Volmer-Erlass“. Im September 2005 erteilte Schily die Ermächtigung zur Einleitung eines Ermittlungsverfahrens gegen Mitarbeiter des Magazins Cicero. Auf Antrag der Staatsanwaltschaft genehmigte ein Gericht daraufhin die Durchsuchung der Redaktionsräume des Magazins durch das BKA, die zu einer heftigen Diskussion über Pressefreiheit führte. Am 18. Oktober 2005, dem Tag der Konstituierung des 16. Deutschen Bundestages, wurde er gemeinsam mit den übrigen Bundesministern aus dem Amt entlassen und gleichzeitig von Bundespräsident Horst Köhler mit der Wahrnehmung der Geschäfte bis zur Bildung einer neuen Bundesregierung beauftragt. Nach der Wahl von Angela Merkel zur Bundeskanzlerin schied er am 22. November 2005 endgültig aus dem Amt. Aufsichtsrat. Otto Schily wurde nach seiner Zeit als Bundesinnenminister Aufsichtsrat bei der Firma SAFE ID Solutions AG (Unterhaching) und Byometric Systems AG. Diese Firma bietet Lösungen zur Personalisierung von Ausweisdokumenten an. Als Bundesinnenminister war Otto Schily ein maßgeblicher Wegbereiter der Einführung des kontrovers diskutierten biometrischen Reisepasses (ePass). Nach seinen Angaben liegt die eigene finanzielle Beteiligung an der Firma unter einem Prozent. Das Unternehmen meldete am 23. März 2011 Insolvenz an. Schily gründete 2007 die Unternehmensberatungsfirma German Consult GmbH. Die Tressa Verwaltungs- und Beteiligungsgesellschaft MbH ist Nachfolgerin der Otto Schily Rechtsanwaltsgesellschaft. Über die Tressa GmbH gehört Schily auch die Berliner Unternehmens- und Finanzberatungsfirma Ombrone Consulting. Die aus dem ehemaligen deutschen Dienst der amerikanischen Nachrichtenagentur Associated Press (AP) und der Nachrichtenagentur ddp hervorgegangene dapd-Gruppe berief Otto Schily im Juli 2011 in ihren Beirat. Sonstiges Engagement. Otto Schily war langjähriges Mitglied und Vorstandsmitglied der Bürgerrechtsvereinigung Humanistische Union. Außerdem ist er Mitglied des von seinem Neffen Daniel Schily mitgegründeten Vereins Mehr Demokratie sowie Mitglied des Förderkreises der Stiftung der Deutschen Polizeigewerkschaft. Seit Februar 2013 bildet Schily zusammen mit der Anwaltskanzlei Lansky in Wien ein Projektteam zur Causa Aliyev, wie bei einer Pressekonferenz am 18. Februar bekannt wurde. Dieses Engagement bildet einen wichtigen Schritt in diesem Fall für die verbliebenen Witwen zweier ermordeter Nurbank-Manager, die mit ihrem Verein Tagdyr seit Dezember 2008 die lückenlose Aufklärung der Sachverhalte um Rakhat Aliyev fordern. Privates. 1966 heiratete Schily Christiane Hellwag (* 1941), eine Enkelin des Architekten Bruno Taut. Aus dieser Ehe ging die Schauspielerin Jenny Schily hervor. Schily ist in zweiter Ehe verheiratet und hat zwei Kinder. Sein Bruder Konrad Schily ist Arzt in Witten/Herdecke, war Gründer der freien Herdecke und Bundestagsabgeordneter der FDP. Schily hat zwei weitere Brüder und eine Schwester. Politische Positionen. Während Schily in den 1970er Jahren als prominenter Gegner einer Politik auftrat, die im Namen der Terrorismusbekämpfung Bürgerrechte einzuschränken sucht, wird er von Kritikern heute oftmals selbst als Vertreter des Law and Order bezeichnet, vor allem bedingt durch seine weitgehenden Vorschläge zur Inneren Sicherheit und Bürgerüberwachung nach 2001. Kritiker meinen, Schily habe als Innenminister aufgrund seiner Vorstellungen zur Terrorismusbekämpfung, Zuwanderungspolitik und Einschränkung des Datenschutzes den Unionsparteien näher als der SPD gestanden. Dieser Vorwurf wurde zum Beispiel damit begründet, dass Schily nicht lediglich auf innenpolitische Ereignisse reagiert, sondern bereits über eine größere Anzahl fertig ausgearbeiteter Vorschläge für Gesetzesverschärfungen verfügt habe; diese hätten passend zu den jeweiligen Ereignissen als Vorschlag präsentiert und dann sofort umgesetzt werden können („Pläne in der Schublade“). Schily war vor allem für die Verschärfung von Gesetzen und Verordnungen nach den Terroranschlägen am 11. September 2001 in den USA verantwortlich. Seine zwei "Sicherheitspakete" wurden in der Presse in Anspielung auf den Verkaufskatalog des gleichnamigen Versandhauses als ‚Otto-Kataloge‘ bezeichnet. Als Teil der Sicherheitsaufgaben wurde unter Schily zunehmend die Migrationsbekämpfung angesehen. Onlinedurchsuchungen. Wie nach seiner Amtszeit bekannt wurde, stimmte Otto Schily im Jahr 2005 der Änderung einer Dienstanweisung zu, auf Grundlage derer der Verfassungsschutz verdeckte Online-Durchsuchungen durchführte. Nach Angaben des damaligen Staatssekretärs Lutz Diwell soll die Anweisung jedoch nur auf das Eindringen in geschlossene Nutzergruppen und Chatrooms abgezielt haben („offensive Beobachtung des Internets“), nicht hingegen auf das Ausspähen privater Festplatteninhalte. Vorratsdatenspeicherung. Schily ist ein Befürworter der Vorratsdatenspeicherung und war einer der ersten deutschen Politiker, die deren Einführung mit Nachdruck vorantrieben. Biometrische Ausweise. Schily setzte sich als Innenminister für die Einführung von Reisepässen mit biometrischen Merkmalen ein, welche seit Oktober 2005 ausgestellt werden. Am 10. Mai 2005 kündigte er einen „Nationalen Plan zum Schutz der Informationsinfrastrukturen in Deutschland“ an. Dieser soll gemeinsam mit dem Bundesamt für Sicherheit in der Informationstechnik (BSI) erarbeitet werden. Dabei sollen „neue Strategien zur Bekämpfung von Angriffen von Hackern und Viren“ entwickelt werden. Asylrecht. 1999 machte er mit der Feststellung auf sich aufmerksam, nur drei Prozent der etwa 100.000 Menschen, die jährlich nach Deutschland wollten, seien „asylwürdig“, 97 Prozent seien hingegen Wirtschaftsflüchtlinge. Das bisherige Asylrecht sei daher zu überprüfen. Die Äußerungen wurden kontrovers diskutiert, führten aber im Ergebnis zu keiner Änderung des Asylrechtes. Interessenkollisionen. Schily wurden wiederholt Interessenkollision und Vetternwirtschaft vorgeworfen. Schily selbst sah bei seinen Tätigkeiten im Aufsichtsrat der Safe ID Solutions und der Byometric Systems AG, zweier Firmen, die Lösungen für biometrische Anwendungen herstellen, noch vor dem Ende der Wahlperiode keine Anhaltspunkte für Kritik. Interessen-Kollisionen mit seiner früheren Tätigkeit als Bundesminister bestünden aus seiner Sicht nicht.“ Die Kritik an der Vermischung seiner politischen Tätigkeit mit privaten wirtschaftlichen Interessen beschränkte sich nicht nur auf das Umfeld der biometrischen Verfahren. Als Partner seiner Firmengründung Consult fungierte vorübergehend ein alter Bekannter Schilys, der Industriemanager Peter Zühlsdorff, der u. a. bei Wella und Tengelmann tätig war. Als Innenminister beauftragte Schily ihn 2003 mit der Geschäftsführung der Leipziger Bewerbergesellschaft für Olympia 2012. Tätigkeit im Interesse der kasachischen Regierung. Eine bezahlte Tätigkeit Schilys im Interesse der kasachischen Regierung wurde 2015 publik. Schily hatte im Fall des beim Regime in Ungnade gefallenen Rachat Alijew persönlich bei NRW-Justiz-Minister Thomas Kutschaty interveniert, um dessen Strafverfolgung zu befördern. Er versuchte auch den Spiegel für eine Berichterstattung gegen Alijew zu gewinnen, wie das Nachrichtenmagazin selbst aufdeckte. Position zu Holocaust-Leugnung. Im März 2015 sprach sich Schily in Zusammenhang mit der Inhaftierung seines einstigen RAF-Anwaltskollegen, des bekannten Neonazis Horst Mahler, für eine Neubewertung des Straftatbestandes der Holocaust-Leugnung aus. Auch wenn die Leugnung des Holocausts abscheulich, moralisch verwerflich, grotesk und töricht sei, bezweifelt Schily, dass jahrelange Gefängnisstrafen dafür gerechtfertigt sind. In zahlreichen Ländern steht die Leugnung des Holocaust unter Strafe, darunter in allen deutschsprachigen, in der Bundesrepublik Deutschland drohen dafür Freiheitsstrafen von drei Monaten bis zu fünf Jahren. Mahler leugnete 2009 vor Gericht den Holocaust, nachdem er zuvor bereits mehrfach den Holocaust geleugnet und gegen sich selbst Strafanzeige erstattet hatte. Auszeichnungen. Schily wurde am 20. Juni 2001 mit dem Bayerischen Verdienstorden und am 29. Juni 2004 mit dem Großen Verdienstkreuz des Verdienstordens der Bundesrepublik Deutschland ausgezeichnet. Er führt den Titel Dr. jur. h.c. Otto Schily ist Ehrenbürger der rumänischen Stadt Sibiu. Im Jahr 2003 wurde er vom Förderkreis des Jüdischen Museums Berlin mit dem Preis für Verständigung und Toleranz ausgezeichnet. Am 7. Mai 2006 verlieh ihm der luxemburgische Justizminister Luc Frieden das Großkreuz des Ordens der Eichenkrone. 2009 verlieh ihm der Bund der Vertriebenen die Ehrenplakette. Schily ist Ehrenmitglied des Deutschen Fußball-Bundes. Verschlossene Auster 2002. 2002 verlieh die Journalistenvereinigung Netzwerk Recherche e. V. Schily den Negativpreis Verschlossene Auster für die Blockade des Informationsfreiheitsgesetzes und die Ablehnung von Interviews. Big Brother Lifetime Award 2001 und 2005. Am 28. Oktober 2005 wurde Schily mit dem Negativpreis Big Brother Lifetime Award 2005 ausgezeichnet. Gewürdigt wurde er „für den Ausbau des deutschen und europäischen Überwachungssystems auf Kosten der Bürger- und Freiheitsrechte und für seine hartnäckigen Bemühungen um die Aushöhlung des Datenschutzes unter dem Deckmantel von Sicherheit und Terrorbekämpfung“. Schily hatte die Auszeichnung bereits 2001 für den ersten „Otto-Katalog“ erhalten. Otto Hahn. Briefmarke der Deutschen Bundespost, 1979 Otto Emil Hahn, OBE (* 8. März 1879 in Frankfurt am Main; † 28. Juli 1968 in Göttingen) war ein deutscher Chemiker und ein Pionier der Radiochemie. In den Jahren 1905–1921 entdeckte er zahlreiche Isotope (heute Nuklide genannt), 1909 den radioaktiven Rückstoß, 1917 das Element Protactinium und 1921 die Kernisomerie beim „Uran Z“. Für die Entdeckung und den radiochemischen Nachweis der Kernspaltung des Urans (Ende 1938) und des Thoriums (Anfang 1939) wurde ihm 1945 der Nobelpreis für Chemie des Jahres 1944 verliehen. Hahn gilt als „Vater der Kernchemie“ und zählt zu den bedeutendsten Naturwissenschaftlern des 20. Jahrhunderts. Seit 1912 war Hahn wissenschaftliches Mitglied und von 1928 bis 1946 Direktor des Kaiser-Wilhelm-Instituts (KWI) für Chemie in Berlin, außerdem von 1928 bis 1936 Senator der Kaiser-Wilhelm-Gesellschaft (KWG). Von 1946 bis 1948 war Hahn der letzte Präsident der KWG sowie Gründer und von 1948 bis 1960 erster Präsident der aus der KWG hervorgegangenen Max-Planck-Gesellschaft zur Förderung der Wissenschaften. Seit den Atombombenabwürfen auf Hiroshima und Nagasaki im August 1945 gehörte er zu den schärfsten Kritikern der nuklearen Aufrüstung der Großmächte und der durch unkontrollierte Atomtests fortschreitenden radioaktiven Verseuchung der Erde. Dagegen setzte er sich wiederholt für die friedliche Nutzung der Kernenergie ein. Otto Hahn wurde zudem einer der einflussreichsten Vorkämpfer für globale Völkerverständigung und internationale Entspannungspolitik, für seinen aktiven Pazifismus wurde er seit 1957 mehrfach für den Friedensnobelpreis vorgeschlagen. Kindheit. Mit etwa 15 Jahren begann Hahn sich in besonderer Weise für Chemie zu interessieren und unternahm zusammen mit einem Schulkameraden in der Waschküche seiner Mutter einfache chemische Experimente. Otto Hahn als junger Dr. phil., Marburg 1901 Der Vater, durch innovative Ideen, Fleiß und Sparsamkeit zu Wohlstand gekommen, hätte Otto Hahn gern als Architekten gesehen, da er mehrere Wohn- und Geschäftshäuser gebaut oder erworben hatte. Aber er ließ sich überzeugen, dass sein Sohn Otto beabsichtigte, die Laufbahn eines Industriechemikers einzuschlagen. Studium in Marburg und München. Nach dem Abitur an der Klinger-Oberrealschule in Frankfurt am Main begann Hahn 1897 an der Philipps-Universität Marburg sein Studium der Chemie und Mineralogie, als Nebenfächer belegte er Physik bei Franz Melde und Philosophie bei den Neukantianern Hermann Cohen und Paul Natorp, die einen entscheidenden Einfluss auf sein bereits empirisch geprägtes wissenschaftliches Denken und Handeln haben sollten. Da sein Vater den Beitritt zu einer schlagenden Verbindung ablehnte, wurde Hahn Mitglied im ‚Naturwissenschaftlich-Medizinischen Verein Studierender‘ zu Marburg, einer damals nicht schlagenden Studentenverbindung und Vorläuferin der heutigen Landsmannschaft Nibelungia. Das dritte und vierte Semester verbrachte Hahn bei Adolf von Baeyer an der Universität München, wo er sich, angeregt durch Besuche der Alten Pinakothek, nebenher auch mit wachsendem Interesse der Kunstgeschichte widmete. Im Juli 1901 promovierte er in Marburg "magna cum laude" mit einer Dissertation über „Bromderivate des Isoeugenols“, ein Thema aus der klassischen organischen Chemie. Nach Ende seines einjährigen Militärdienstes im Infanterie-Regiment Landgraf Friedrich I. von Hessen-Cassel (1. Kurhessisches) Nr. 81 in Frankfurt am Main entschloss sich der junge Chemiker, für zwei Jahre als Assistent seines Doktorvaters, Geheimrat Theodor Zincke, an die Universität Marburg zurückzukehren. Frühe Erfolge in London und Montreal (1904–1906). Sir William Ramsay in seinem Laboratorium, University College London Ernest Rutherford im Physiklabor der McGill University, Montreal 1905 Hahn strebte eine Tätigkeit in der Industrie an. Aus diesem Grund und zur Verbesserung seiner Sprachkenntnisse wechselte er 1904 auf Empfehlung Zinckes an das University College London und wurde Mitarbeiter von Sir William Ramsay, dem berühmten Entdecker der Edelgase. Hier beschäftigte sich Hahn mit dem seinerzeit noch jungen Gebiet der Radiochemie. Bei der Arbeit mit Salzen des Elements Radium entdeckte Hahn 1905 das „Radiothorium“, nach damaligen Vorstellungen ein neues radioaktives chemisches Element. Ramsay war begeistert und führte Hahn in die wissenschaftlichen Kreise Londons und der Royal Society ein, wo er seine Entdeckung in einem Vortrag erklären und anschließend in den "Proceedings of the Royal Society" publizieren konnte. Es ist – abgesehen von der Dissertation – die erste von über 250 wissenschaftlichen Veröffentlichungen. Am 8. März erschien bereits ein zusammenfassender Bericht über 'A new Element' in einer Londoner Tageszeitung, dem Daily Telegraph. Tatsächlich war das Radiothorium aber ein damals noch unbekanntes Isotop des schon bekannten Elements Thorium, 228Th. Die Begriffe "Isotopie" und "Isotop" wurden aber erst 1913 von Frederick Soddy geprägt und setzten sich international durch. Im Herbst 1905 wechselte Hahn auf Empfehlung von Ramsay an das "McDonald Physics Building" der McGill-Universität in Montreal, Kanada, um bei Ernest Rutherford seine Kenntnisse zu vertiefen. Hier erlernte Hahn unter anderem die Analyse der Alphastrahlen, die Messung der Gasionisation, der Reichweite und der elektromagnetischen Ablenkung, und konnte mit diesen neuen Methoden die (nach damaliger Terminologie) radioaktiven chemischen Elemente Thorium C (heute: das Poloniumisotop 212Po), Radium D (das Bleiisotop 210Pb) und Radioactinium (das Thoriumisotop 227Th) entdecken, was Rutherford zu der Bemerkung veranlasste: „Hahn has a special nose for discovering new elements.“ Gemeinsam mit Ernest Rutherford publizierte Otto Hahn zwei Arbeiten über die Alphastrahlen des Radiothoriums und über die Masse der Alphapartikel des Thoriums im Philosophical Magazine, der damals – zusammen mit der britischen Nature – führenden wissenschaftlichen Zeitschrift. Forschung in Berlin (1906–1944). a> im Labor, KWI für Chemie, Berlin, 1913 Entdeckung des Mesothoriums (Radium 228). Im Sommer 1906 kehrte er nach Deutschland zurück und wurde Mitarbeiter am I. Chemischen Institut der Friedrich-Wilhelms-Universität Berlin bei Emil Fischer, der Hahn eine „Holzwerkstatt“ im Chemischen Institut als eigenes Labor zur Verfügung stellte. Dort entdeckte Hahn in wenigen Monaten – mit äußerst primitiven Apparaturen – das Mesothorium I, das Mesothorium II und – unabhängig von Boltwood – die Muttersubstanz des Radiums, das Ionium. Das Mesothorium I (das Radiumisotop 228Ra) erlangte in den folgenden Jahren große Bedeutung, da es sich – ähnlich dem Curieschen Radiumisotop 226Ra – hervorragend für die medizinische Strahlentherapie eignete, mit dem großen Vorteil, dass es in der Herstellung nur die Hälfte kostete. Für die Entdeckung des Mesothoriums I, das seinerzeit auch als "„deutsches Radium“" bekannt war, wurde Otto Hahn 1914 erstmals von Adolf von Baeyer für den Chemie-Nobelpreis vorgeschlagen. Entdeckung des radioaktiven Rückstoßes. Im Juni 1907 habilitierte sich Hahn an der Friedrich-Wilhelms-Universität Berlin. Am 28. September 1907 lernte er im Physikalischen Institut bei Heinrich Rubens die fast gleichaltrige Physikerin Lise Meitner kennen, die von Wien nach Berlin gewechselt war. Hier begann die 30 Jahre lang dauernde Zusammenarbeit und lebenslange innige Freundschaft der beiden Wissenschaftler. Die im Mai 1908 in der Physikalischen Zeitschrift erschienene Abhandlung "Über die Absorption der Beta-Strahlen einiger Radioelemente" ist die erste gemeinsame Publikation (von insgesamt 50), und bereits kurze Zeit später veröffentlichten Hahn und Meitner die Entdeckung eines neuen kurzlebigen Produktes des Actiniums, des "Actinium C". In der Folgezeit wurden von Hahn und Meitner mit der von ihnen neu entwickelten „Rückstoßmethode“ mehrere neue radioaktive Substanzen entdeckt, unter anderem die Isotope 214Po, 207Tl, 208Tl und 210Tl. Am 10. Oktober 1910 wurde Otto Hahn von der Preußischen Staatsregierung „in Rücksicht auf seine anerkennenswerten wissenschaftlichen Leistungen“ der Titel „Professor“ verliehen, aber erst 1919 erhielt Hahn den Lehrauftrag für Radioaktivität an der Berliner Universität. 1912 wurde Hahn die Leitung der radiochemischen Abteilung im neugeschaffenen Kaiser-Wilhelm-Institut für Chemie in Berlin-Dahlem übertragen (heute „Hahn-Meitner-Bau“ der Freien Universität Berlin, Thielallee 63). Als Nachfolger von Alfred Stock war er dann von 1928 bis 1946 Direktor des Kaiser-Wilhelm-Instituts für Chemie, das er schon seit 1926 kommissarisch geleitet hatte. Bereits 1924 erfolgte Hahns Ernennung zum Ordentlichen Mitglied der Preußischen Akademie der Wissenschaften in Berlin (auf Vorschlag von Einstein, Haber, Planck, Schlenk und von Laue). Hochzeit mit Edith Junghans. Aus der Ehe ging 1922 als einziger Sohn der spätere Kunsthistoriker und Architekturforscher (an der Hertziana in Rom) Hanno Hahn hervor, der 1960 zusammen mit seiner Frau und Assistentin Ilse Hahn auf einer Studienreise in Frankreich tödlich verunglückte. Sie hinterließen einen 14-jährigen Sohn, Dietrich Hahn. Zum Gedächtnis an Hanno und Ilse Hahn und zur Förderung junger begabter Kunsthistoriker(innen) wurde im Jahre 1990 der inzwischen international angesehene "Hanno-und-Ilse-Hahn-Preis für hervorragende Verdienste um die italienische Kunstgeschichte" geschaffen, der alle zwei Jahre vom Kuratorium der Bibliotheca Hertziana in Rom verliehen wird. Erster Weltkrieg und Entdeckung des Protactiniums. Zu Beginn des Ersten Weltkrieges wurde Otto Hahn zum Militärdienst einberufen. Zunächst diente er von August bis Dezember 1914 als Offiziersstellvertreter in zwei Regimentern an der Westfront, danach wurde er Offizier (Leutnant) und Mitglied der von Fritz Haber geleiteten Spezialeinheit für chemische Kriegsführung (u. a. mit James Franck, Gustav Hertz, Erwin Madelung, Wilhelm Westphal und Heinrich Wieland). Diese entwickelte, testete und produzierte Giftgas für Kriegszwecke, schulte das Militär für den Umgang mit Giftgas, bereitete den Einsatz an der Front vor und überwachte die Gasangriffe. Hahn diente dem Gasregiment (Pionierregiment 35) vom Januar 1915 bis Kriegsende mit nur wenigen längeren Unterbrechungen. Er pendelte dabei ständig zwischen Ost-, West- und Süd-Front, Habers Institut für Physikalische Chemie in Berlin und den Bayer-Werken in Leverkusen. Für seine militärischen Verdienste erhielt Hahn die Hessische Tapferkeitsmedaille, beide Klassen des Eisernen Kreuzes, den Albrechts-Orden mit Schwertern und das Ritterkreuz des Königlichen Hausordens von Hohenzollern. Ab Dezember 1916 wurde Hahn Mitglied des ‚Hauptquartiers Seiner Majestät‘ in Berlin und konnte sich daher zwischen Januar und September 1917 an seinem Institut wieder verstärkt der Radiumforschung widmen. 1917 isolierte er mit Lise Meitner eine langlebige Aktivität, sie nannten das Element „Proto-Actinium“ und veröffentlichten ihre Arbeit 1918 unter dem Titel "Die Muttersubstanz des Actiniums; ein neues radioaktives Element von langer Lebensdauer" in der Physikalischen Zeitschrift. 1913 hatten Fajans und Göhring eine kurzlebige Aktivität aus Uran isoliert (UX2) und das Element Brevium genannt. Die beiden Aktivitäten sind unterschiedliche Isotope des gleichen Elements Nr. 91, das 1949 von der IUPAC endgültig Protactinium genannt wurde und Hahn und Meitner als alleinige Entdecker bestätigte. Bereits in den Jahren 1924 und 1925 wurden sie für ihre Entdeckung von mehreren Kollegen für den Chemie-Nobelpreis vorgeschlagen, unter anderem von Max Bergmann, Viktor Moritz Goldschmidt und sogar von Kasimir Fajans selbst, der die entscheidende Veröffentlichung von Hahn und Meitner neidlos anerkannte. Entdeckung der Kernisomerie. Erst 15 Jahre später, 1936, gelang es dem jungen Carl Friedrich von Weizsäcker, das Phänomen der Kernisomerie als „metastabile Zustände der Atomkerne“ theoretisch zu erklären. Auch für diese Entdeckung, deren volle Bedeutung doch einige wenige erkannten, wurde Otto Hahn mehrfach von 1923 bis 1929, unter anderem von Bernhard Naunyn, Heinrich Goldschmidt und Max Planck, für den Chemie-Nobelpreis vorgeschlagen. Aufgrund gemeinsamer geologischer Interessen entwickelte sich zwischen Hahn und Fridtjof Nansen, der ihm seine Untersuchung "Klima-Veränderungen in geschichtlicher Zeit und Nacheiszeit" (Oslo 1926) gewidmet hatte, eine umfangreiche wissenschaftliche, sehr freundschaftliche Korrespondenz bis zu dessen Tode im Jahre 1930. Angewandte Radiochemie. In den 1920er Jahren schuf sich Otto Hahn ein neues Arbeitsgebiet: Mit der von ihm neuentwickelten „Emaniermethode“ und dem „Emaniervermögen“ begründete er die „Angewandte Radiochemie“ zur Erforschung allgemeiner chemischer und physikalisch-chemischer Fragen. "Applied Radiochemistry" ist der Titel seines 1936 in englischer (und später in russischer) Sprache erschienenen Lehrbuches, das die 1933 von Hahn während seiner Gastprofessur an der Cornell University in Ithaca, New York (USA), gehaltenen Vorlesungen enthält. Diese Publikation hatte einen bedeutenden Einfluss auf praktisch alle Nuklearwissenschaftler in den 1930er und 1940er Jahren, vor allem in den USA, Großbritannien, Frankreich und der Sowjetunion. Die Entdeckung der Kernspaltung (1938). Aber kein Physiker griff die noddacksche Hypothese auf und überprüfte sie, auch Ida Noddack selbst nicht. Der Zerfall schwerer Atomkerne in leichtere Elemente galt als ausgeschlossen. Es ist eine Tragik, dass Ernest Rutherford, der immer der Überzeugung war, die Nutzbarmachung der Kernenergie würde niemals Realität werden, den großen Durchbruch seines Schülers Otto Hahn nicht mehr erleben konnte. Rutherford starb am 19. Oktober 1937 in Cambridge, 66 Jahre alt, an den Folgen einer Operation, nur vierzehn Monate vor der Entdeckung der Kernspaltung. Als Otto Hahn und Fritz Straßmann im Dezember 1938 in einer mit Neutronen bestrahlten Uranprobe nach Transuranen suchten, fanden sie Spuren des Elements Barium. Zum Nachweis diente ein organisches Bariumsalz des jüdischen Chemikers Wilhelm Traube, dessen spätere Verhaftung und Ermordung Hahn vergeblich zu verhindern suchte. Aufgrund des entscheidenden Experiments am 17. Dezember 1938 – der berühmten „Radium-Barium-Mesothorium-Fraktionierung“ – schloss Otto Hahn auf ein „Zerplatzen“ des Urankerns in mittelschwere Atomkerne. Dies war die Entdeckung der Kernspaltung. Hahns und Straßmanns radiochemische Ergebnisse wurden am 6. Januar 1939 in der Zeitschrift "Die Naturwissenschaften" veröffentlicht und waren der unwiderlegbare Beweis (der durch Berechnungen der bei der Reaktion beteiligten Energien bestätigt wurde), dass das Uran in kleinere, aus leichteren Elementen bestehende Bruchstücke gespalten worden war. In ihrer zweiten Veröffentlichung vom 10. Februar 1939, in der sie erstmals den Begriff „Uranspaltung“ verwendeten, sagten Hahn und Straßmann voraus, dass bei dem Spaltungsvorgang „mehrere zusätzliche Neutronen freigesetzt werden könnten“ – ein Vorgang, der später von Frédéric Joliot, Hans von Halban und Lew Kowarski experimentell bestätigt und als „Kettenreaktion“ verifiziert wurde. Am 11. Februar 1939 – Otto Hahn hatte, ohne die Physiker in seinem Institut zu informieren, Lise Meitner als einzige über seine radiochemischen Experimente brieflich vorab in Kenntnis gesetzt – lieferten Lise Meitner und ihr inzwischen ebenfalls nach Schweden emigrierter Neffe Otto Robert Frisch eine erste theoretisch-physikalische Erklärung der Kernspaltung in der englischen Zeitschrift "Nature". Frisch schätzte darin die entstehende Energie auf ca. 200 Millionen Elektronenvolt und prägte dabei den Begriff „nuclear fission“ (Kernspaltung), der in der Folgezeit international anerkannt wurde. Gedenktafel zur Entdeckung der Kernspaltung am früheren KWI für Chemie, enthüllt 1956 Dennoch wird von einigen der theoretischen Physik nahestehenden Historikern in neuester Zeit gelegentlich kontrovers diskutiert, welchen Anteil Lise Meitner an dem experimentell-radiochemischen Nachweis der Kernspaltung hatte. Zum Beispiel bezeichnete Ernst Peter Fischer, Physiker und Wissenschaftshistoriker der Universität Konstanz, die Tatsache, dass Lise Meitner keinen Nobelpreis erhielt, sogar drastisch als „Dummheit der schwedischen Akademie“. Sowohl Fritz Strassmann als auch Lise Meitner höchstpersönlich hätten dieser simplifizierenden Einschätzung entschieden widersprochen. Während des Krieges arbeitete Otto Hahn – zusammen mit den Mitarbeitern Hans Joachim Born, Siegfried Flügge, Hans Götte, Walter Seelmann-Eggebert und Fritz Straßmann – an den Spaltreaktionen des Urans und stellte bis 1945 eine Liste von nachgewiesenen 25 Elementen und 100 Isotopen auf – eine erstaunliche Leistung unter den durch den Krieg stark eingeschränkten Arbeitsbedingungen. Tailfingen (1944–1945). Hahn entschloss sich daher, sein Institut nach Süddeutschland auszulagern, das von alliierten Bombenangriffen noch weitgehend verschont blieb. In Tailfingen (Württemberg) konnten drei leerstehende Textilfabriken gefunden werden und in diese die noch intakten Reste des Instituts, insbesondere die stark aktiven Präparate und die Beryllium-Neutronenquellen, integriert werden. Otto Hahn und seine Frau bezogen zwei Zimmer in der Villa des Textil-Fabrikanten Julius Hakenmüller in der Panoramastraße 20, in denen sie bis zum Kriegsende untergebracht waren. In der Zeit des Nationalsozialismus (1933–1945). Durch sein energisches und konsequentes Auftreten gegenüber den NS-Behörden konnte Otto Hahn, der von Anbeginn ein Gegner der Nazi-Diktatur war und sich immer wieder erfolgreich der Aufforderung zur Mitgliedschaft in der NSDAP widersetzte, zusammen mit seiner couragierten Frau Edith vielen gefährdeten oder verfolgten Institutsangehörigen und Privatpersonen beistehen und sie vor Fronteinsatz oder gar der Deportation in ein Konzentrationslager bewahren. Im November 1944 intervenierte Otto Hahn „im Falle der Jüdin Maria Sara von Traubenberg, geborene Rosenfeld“, wie es in der damaligen Nazi-Terminologie hieß. In einem Brief an den SS-Hauptscharführer Dobberke schrieb Hahn, dass „Frau Dr. von Traubenberg als Physikerin und Mitarbeiterin ihres Mannes an den ‚Geheimarbeiten über das Uran‘ beteiligt gewesen sei. Nur sie könne die wichtigen Forschungsergebnisse ihres verstorbenen Mannes übersehen.“ Die Gestapo ließ sich von Hahns übertriebenen, aber wirkungsvollen Worten täuschen und deportierte Maria von Traubenberg nicht nach Auschwitz, sondern nach Theresienstadt, wo sie ein eigenes Zimmer bekam, um den Nachlass ihres Mannes zu bearbeiten. Sie war damit gerettet und überlebte. Ende 1945 verließ sie Deutschland und zog zu Verwandten nach England. Internierung in England (1945). a> nach dem Abwurf der Atombombe, 6. August 1945 In Farmhall erfuhren die deutschen Wissenschaftler am 6. und 9. August vom Abwurf der amerikanischen Atombomben auf Hiroshima und Nagasaki. Otto Hahn, der von dem diensthabenden Major Terence H. Rittner zuerst informiert wurde, war am Rande der Verzweiflung und, wie seine Gefährten berichteten, dem Suizid nahe, da er sich als Entdecker der Kernspaltung mitverantwortlich fühlte für den Tod und das Leiden hunderttausender japanischer Zivilisten. In diesen schweren Stunden erwuchs Hahns aktiver Pazifismus, der ihn in den nachfolgenden Jahren zu einem der engagiertesten und bedeutendsten Vorkämpfer für Frieden, Abrüstung und Völkerverständigung werden ließ. Anfang Januar 1946 durfte die Gruppe der zehn Internierten wieder nach Deutschland zurückkehren, und nach einem Aufenthalt in Alswede (Westfalen) wurden Hahn, Heisenberg und von Laue nach Göttingen in die britische Zone entlassen. Der Nobelpreis für Chemie 1944. Nachdem Hahn 1943 als auswärtiges Mitglied von der Königlich Schwedischen Akademie aufgenommen worden war, zeichnete sie ihn im Jahre 1944 mit dem Nobelpreis für Chemie aus – „für seine Entdeckung der Spaltung schwerer Atomkerne“, so die offizielle Begründung. Mit der Bekanntgabe wartete die Akademie jedoch bis nach dem Zusammenbruch der Hitler-Diktatur, denn sonst wäre Hahn gezwungen gewesen, den Nobelpreis abzulehnen. Daher wurde Hahns Wahl erst am 16. November 1945 veröffentlicht. Der Preis konnte ihm allerdings, da er sich im Dezember 1945 noch in englischer Internierung befand, erst ein Jahr später am 10. Dezember 1946 von König Gustav V. von Schweden in Stockholm überreicht werden. Otto Hahn erhielt von 1914 bis 1945 insgesamt 22 Nominierungen für den Chemie-Nobelpreis (u. a. auch von Walther Nernst, Adolf Deismann, The Svedberg, Frans Jaeger, Wilhelm Palmaer und Arne Westgren). Ferner wurde Hahn von 1937 bis 1947 auch 16-mal, meist zusammen mit Lise Meitner, aber auch mit Fermi, Yukawa, Stern, Pauli und Bethe, für den Physik-Nobelpreis vorgeschlagen (u. a. von Werner Heisenberg, Max von Laue, Dirk Coster, Arthur H. Compton, James Franck, Samuel Goudsmit, Manne Siegbahn, Boris Iliin, Hendrik Kramers, Cyrias Quellet, Felix Bloch, Jean Thibaut und Louis de Broglie). Göttingen: Die Gründung der Max-Planck-Gesellschaft (1948). Von 1948 bis 1960 amtierte Otto Hahn als Gründungspräsident der neugeschaffenen Max-Planck-Gesellschaft (MPG) zur Förderung der Wissenschaften, die durch sein Wirken und seine weltweit geachtete Persönlichkeit das frühere Ansehen der Kaiser-Wilhelm-Gesellschaft zurückgewinnen konnte. Kampf gegen Kernwaffen und Atomversuche. Schon unmittelbar nach dem Zweiten Weltkrieg trat Hahn unter dem Eindruck der amerikanischen Atombombenabwürfe auf Hiroshima und Nagasaki entschieden gegen den Einsatz der Kernenergie für militärische Zwecke auf. Er sah diese Art der Nutzung seiner wissenschaftlichen Erkenntnisse als Missbrauch, ja sogar als Verbrechen an. So verstärkte er in den 1950er und 1960er Jahren sein Engagement in zahlreichen Aufrufen für Abrüstung, Frieden und Völkerverständigung, ohne sich allerdings von kommunistisch gesteuerten Initiativen vereinnahmen zu lassen. Eine an ihn mehrfach herangetragene Mitgliedschaft in dem von Frédéric Joliot-Curie gegründeten Weltfriedensrat lehnte Hahn ebenso strikt ab wie die Teilnahme an dessen diversen Kongressen oder die Unterzeichnung von prosowjetisch orientierten Manifesten, wie z. B. in Warschau 1950, Stockholm 1951, oder in Wien und Ost-Berlin 1952. In mehreren Schreiben an Frédéric Joliot-Curie erklärte Hahn seinen Standpunkt, so auch Anfang Februar 1951, nachdem er von Joliot-Curie zur nächsten Tagung des Weltfriedensrates nach Ost-Berlin eingeladen worden war. Rundfunk-Appell: Cobalt 60 – Gefahr oder Segen für die Menschheit? (1955). Die international große positive Resonanz auf diesen Appell, sogar seitens der Ostblock-Staaten, nutzte Otto Hahn zu zahlreichen weiteren Aktionen mit vergleichbarem friedenspolitischem Inhalt. Göttinger Erklärung der 18 Atomforscher (1957). Ein Jahr später gehörte Otto Hahn zu den Verfassern der Göttinger Erklärung, in der er sich am 12. April 1957 zusammen mit 17 führenden westdeutschen Atomwissenschaftlern gegen die nukleare Aufrüstung der deutschen Bundeswehr wandte. Der damalige Bundesverteidigungsminister Franz Josef Strauß, der die nukleare Bewaffnung energisch vorantrieb, äußerte sich daraufhin vor Journalisten abfällig und beleidigend über Hahn („Ein alter Trottel, der die Tränen nicht halten und nachts nicht schlafen kann, wenn er an Hiroshima denkt!“). Bundeskanzler Konrad Adenauer entschärfte die Situation einige Tage später bei einer Aussprache mit Otto Hahn und vier führenden Wissenschaftlern der Göttinger Achtzehn im Kanzleramt. Die Göttinger Erklärung fand in der öffentlichen Meinung, nicht nur in Deutschland, ein unerwartetes Echo, vor allem aber bei den Gewerkschaften und an Universitäten, wo sich eine starke studentische Opposition daran anlehnte. Bereits ein Jahr später gründete die SPD, die den Standpunkt der Göttinger 18 auch im Bundestag vertrat, das Komitee Kampf dem Atomtod, das ebenfalls vom Deutschen Gewerkschaftsbund unterstützt wurde. Die Göttinger Erklärung und alle von ihr angeregten und beeinflussten Kampagnen waren letztendlich erfolgreich, denn die deutsche Bundeswehr verblieb bis zum heutigen Tage "atomwaffenfrei", und es ist wohl kaum anzunehmen, dass sich an diesem Zustand etwas ändern dürfte. Petition der Naturforscher an die Vereinten Nationen (UN) in New York (1958). Noch im selben Jahr wurde Hahn für „herausragende Verdienste um die Verbreitung des Völkerrechts“ die „Hugo-Grotius-Medaille mit dem Ölzweig“ der Internationalen Grotius-Stiftung in Den Haag verliehen. Moskauer Vertrag zur Einstellung von Atomtests (1963). Bereits zwei Wochen später, am 19. August 1963, trat die Bundesrepublik Deutschland dem Moskauer Vertrag bei und setzte somit umgehend Hahns Empfehlung in die Tat um. Bis zu seinem Tode wurde er nicht müde, eindringlich in Wort und Schrift vor den Gefahren des nuklearen Wettrüstens der Großmächte und einer radioaktiven Verseuchung der Erde zu warnen. Seit 1957 wurde Otto Hahn von internationalen Organisationen mehrfach für den Friedensnobelpreis vorgeschlagen (u. a. von der größten französischen Gewerkschaft CGT, der Confédération générale du travail). Der Friedensnobelpreisträger von 1962 Linus Pauling, bezeichnete einmal Otto Hahn als „eines meiner Vorbilder“. Die 1. UN-Konferenz „Atome für den Frieden“ in Genf (1955). Im Juni 1955 wurde Otto Hahn von Außenminister Heinrich von Brentano gebeten, die Bundesrepublik Deutschland auf der ersten UN-Konferenz „Atome für den Frieden“ in Genf zu vertreten und die Leitung der deutschen Delegation zu übernehmen. Am 8. August wurde die zwölftägige Konferenz in Anwesenheit der Abordnungen aus 73 Nationen unter dem Vorsitz von Homi Jehangir Bhabha eröffnet. „Atomium-Rede“ in Brüssel (1958). Im März 1958 erhielt Otto Hahn die Einladung der belgischen Regierung, auf der ersten Weltausstellung nach dem Zweiten Weltkrieg, der Expo 58 in Brüssel, einen Vortrag über Atomenergie zu halten. Er sagte zu. – Zuvor hatte er ein „Gespräch mit Hübinger, Innenministerium, über Vortrag in Brüssel. Ich verspreche, nicht politisch zu werden, also nicht über unsere Ablehnung von Atomwaffen zu sprechen, nur über die friedliche internationale Zusammenarbeit.“ Das Motto der Brüsseler Expo lautete „Fortschritt der Menschheit durch Fortschritt der Technik“, dazu passend wurden die neuen Zukunftstechnologien Atomkraft und Raumfahrt erstmals einer breiteren Öffentlichkeit vorgestellt. Für seine sachlich-neutralen, unpolitischen Worte erhielt Hahn allgemeine Zustimmung, unter anderem auch von König Baudouin, der ihm zu Ehren einen Empfang und ein Abendessen gab, bei dem Hahn in einer kurzen Ansprache dann doch politisch wurde und seiner Hoffnung Ausdruck verlieh, die „internationale Atomforschung möge sich ausschließlich auf friedfertige Anwendungen beschränken und auf jegliche Mitarbeit an militärischen Entwicklungen verzichten“. Reise nach Israel (1959). Im November 1959 besuchte Otto Hahn mit einer Delegation der Max-Planck-Gesellschaft, der der Biochemiker Feodor Lynen, der Kernphysiker Wolfgang Gentner und Hahns Sohn Hanno als Vertreter der Geisteswissenschaften angehörten, in offizieller Mission erstmals Israel, vornehmlich das Weizmann Institute of Science, um die ersten wissenschaftlichen Kontakte zu israelischen Kollegen zu knüpfen – u. a. mit Abba Eban, dem damaligen Präsidenten des Instituts und späteren Außenminister, als auch mit den Professoren Yigael Yadin, Giulio Racah und Yehuda Hirshberg von der Hebrew University in Jerusalem. Auch Vera Weizmann, die Witwe des Staatsgründers und ersten israelischen Präsidenten Chaim Weizmann, gab in Rehovot ein Essen und einen Empfang zu Ehren Otto Hahns, auf dem dieser eine weithin beachtete Ansprache hielt. Das Auftreten Otto Hahns und seiner Delegation, sechs Jahre vor der Aufnahme diplomatischer Beziehungen, markierte einen Wendepunkt im Verhältnis zwischen Israel und Deutschland und konnte wesentlich zur Überwindung der durch den Holocaust und die Nazi-Verbrechen verursachten tiefen Gräben zwischen beiden Staaten beitragen. Seit 1989 wurde diese Reise in mehreren Gedenkveranstaltungen in Israel und Deutschland als historisches Ereignis gewürdigt – jeweils in Anwesenheit des damaligen Bundespräsidenten Richard von Weizsäcker und des Präsidenten des Weizmann-Instituts Haim Harari. Südafrika (1965). 1965 lehnte Otto Hahn die Einladung der südafrikanischen Regierung Verwoerd ab, das erste Kernforschungszentrum des Landes und den ersten Atomreaktor des afrikanischen Kontinents (SAFARI 1) in Pelindaba nahe der Hauptstadt Pretoria einzuweihen. Er begründete diese Entscheidung mit dem Hinweis, es sei für ihn „unmöglich das rassistische Apartheids-Regime und die Diskriminierung und Unterdrückung der schwarzen Bevölkerung in irgendeiner Weise zu unterstützen“. Als Miriam Makeba, die 2001 für ihren Kampf gegen die Apartheid und für ihre Verdienste um die Menschenrechte in Südafrika mit der Otto-Hahn-Friedensmedaille ausgezeichnet wurde, davon erfuhr, reagierte sie spontan mit emotionaler Anerkennung: „Oh, I would have loved him! A great man! He was really my brother!“ Reise in die CSSR (1966). Im Juli 1966 besuchte Otto Hahn auf Einladung der dortigen Stadtverwaltung die tschechische Stadt Jáchymov, das frühere St. Joachimsthal, um an der Enthüllung eines Denkmals zu Ehren des Ehepaares Marie und Pierre Curie teilzunehmen und eine Ansprache zu halten. Es wurde seine letzte Auslandsreise. In Jáchymov traf er auch mit Frantisek Behounek, einem Schüler von Marie Curie, zusammen, der seinerzeit Experimente mit Hahns Mesothorium I (Radium 228) unternommen hatte. Bei einem Essen wurde Hahn von Oberbürgermeister Ludvík Cerný der „Ehrenschlüssel der Stadt Prag“ überreicht, zum Dank und als Anerkennung seiner "unermüdlichen internationalen Friedensarbeit". Tod. Hahns Tod war von weltweiter Würdigung und Anteilnahme begleitet. Die Städte Frankfurt am Main und Göttingen, sowie die Bundesländer Niedersachsen und Berlin flaggten drei Tage halbmast an allen öffentlichen Gebäuden. Am 1. August fand in der Göttinger Universitätskirche St. Nicolai die Trauerfeier statt, an der rund 600 Persönlichkeiten aus Politik, Wissenschaft, Wirtschaft und Kultur teilnahmen, darunter der Bundespräsident, der Bundesratspräsident, der niedersächsische Ministerpräsident und mehrere Bundesminister als Vertreter der Bundesregierung der großen Koalition unter Bundeskanzler Kurt Georg Kiesinger und Außenminister Willy Brandt, die Bürgermeister von Frankfurt am Main, Göttingen und Berlin, die Präsidenten zahlreicher Akademien und Universitäten, die Botschafter von Belgien, Frankreich, Griechenland, Großbritannien, Schweden und den USA, zwei Gesandte der israelischen Regierung und des Weizmann-Instituts, sowie der Apostolische Nuntius Erzbischof Corrado Bafile als Vertreter von Papst Paul VI., ferner Max Born, Manfred Eigen, Walther Gerlach, Werner Heisenberg, Fritz Strassmann, Carl Friedrich von Weizsäcker und zahlreiche mit Hahn befreundete Wissenschaftler, Bankiers und Industrielle, unter ihnen Hermann Josef Abs, Clemens Plassmann und Karl Winnacker. Das Zweite Deutsche Fernsehen übertrug die Feier ungekürzt in seinem Abendprogramm. Landesbischof Hanns Lilje hielt die Trauerpredigt und MPG-Präsident Adolf Butenandt würdigte Hahn in seiner Gedenkrede als „Großen im Geiste“, „Genius der Wissenschaft“ und „Unsterblichen der Menschheit“. Otto Hahns Grab in Göttingen Walther Gerlach, Otto Hahns Freund, erinnert sich: „Am 1. August geleiteten ihn Freunde und Wissenschaftler aus aller Welt, der Bundespräsident, der Landesbischof und die ganze Bevölkerung Göttingens zum Ehrengrab auf dem Göttinger Friedhof neben Max Planck und Max von Laue. Der einfache Grabstein trägt nur seinen Namen und die Formel der Uranspaltung.“ Sein Grab, in dem auch Hahns Witwe Edith bestattet wurde, die nur kurze Zeit später am 14. August verstorben war, befindet sich am sogenannten Nobelpreisträger-Rondell auf dem Stadtfriedhof Göttingen, auf dem auch Max Born, Walther Nernst, Max von Laue, Max Planck, Otto Wallach, Adolf Windaus und Richard Zsigmondy bestattet sind. Bergsteigen. 1898 hatte Otto Hahn erstmals alpine Luft geschnuppert, und zwar beim Aufstieg zum höchsten Berg Deutschlands, der Zugspitze, was seine Liebe zu den Bergen begründen sollte. Danach gab es zunächst eine mehrjährige Pause infolge seines Studiums und der Aufenthalte in London und Montreal. Seit 1980 befindet sich die Bergsteiger-Ausrüstung des Alpinisten Otto Hahn, eine Schenkung seines Enkels Dietrich, in den Sammlungen des Alpenverein-Museums in Innsbruck. Literatur. "Stolz wandre ich des Lebens Bahn hin –" "seit ich geliebt von Otto Hahn bin." "Man nennt mich scherzhaft manchmal einen Otto-manen." "Nun gut! So wird man Widmung leicht und Motto ahnen." "Ich widme dieses Büchlein meinem Otto Hahn." "Stets gütig hilft mir selbst zu einem Motto Hahn:" "Mich hieß, der das Atom gespalten, Worte spalten." "Er ließ mich listig gern bei diesem Sporte walten." "Ihn hat mein Spalten oft – nie nannt’ er’s Wahn – erheitert." "So sei die Sammlung denn zum Büchlein, Hahn, erweitert. –" "Dank Herz und Geist wirst Du der Nachwelt hehrer Ahn." "Du nennst mich Freund. Ich bleibe Dein Verehrer, Hahn." Auszeichnungen zu Lebzeiten. Text der Urkunde für Otto Hahn (Seite 3) Otto Hahn, seit 1960 Ehrenpräsident der Max-Planck-Gesellschaft, war einer der meistgeehrten und höchstdekorierten Wissenschaftler aller Zeiten. Er erhielt viele bedeutende akademische, städtische und staatliche Auszeichnungen auf der ganzen Welt. Hahn war Ehrendoktor zahlreicher Universitäten und Mitglied oder Ehrenmitglied von 45 Akademien und Wissenschaftlichen Gesellschaften – darunter die University of Cambridge, die Physical Society (heute Institute of Physics), die Royal Society und das University College in London, die Rumänische Physikalische Gesellschaft in Bukarest, die Königlich Spanische Gesellschaft für Physik und Chemie und das Consejo Superior de Investigaciones Científicas (CSIC) in Madrid, die Deutsche Akademie der Naturforscher Leopoldina in Halle sowie die Akademien in Allahabad (Indien), Bangalore (Indien), Berlin, Boston (USA), Bukarest, Göttingen, Helsinki, Kopenhagen, Lissabon, Madrid, Mainz, München, Rom, Stockholm, Vatikan und Wien. Außerdem war Hahn Ehrenmitglied der Deutschen Physikalischen Gesellschaft (DPG), der Gesellschaft Deutscher Chemiker (GDCh), der Deutschen Bunsen-Gesellschaft für Physikalische Chemie sowie des Japanischen Rates gegen Atom- und Wasserstoff-Bomben in Tokyo. Im Laufe seines Lebens erhielt er 37 höchste nationale und internationale Orden und Medaillen, u. a. die Emil-Fischer-Medaille in Gold, die Cannizzaro-Medaille, die Kopernikus-Medaille, die Cothenius-Medaille in Gold der Leopoldina, die Goethe-Plakette, die Paracelsus-Medaille in Gold der Schweizerischen Chemischen Gesellschaft, die Fritz-Haber-Medaille, die Max-Planck-Medaille, die Faraday-Medaille der Royal Society of Chemistry, die Wilhelm-Exner-Medaille, die Ernst-Reuter-Plakette, die Theodor-Goldschmidt-Medaille in Gold, die Helmholtz-Medaille, die Heraeus-Medaille in Gold, die Becquerel-Medaille, die Harnack-Medaille in Bronze 1954, in Gold 1959, die Marie-Curie-Medaille, die Goldmedaille des Massachusetts General Hospital in Boston, die Medaille bene merenti und den rumänischen Kultur-Verdienst-Orden, die Friedensklasse des Ordens Pour le Mérite, den griechischen Erlöser-Orden, den belgischen Leopoldsorden, den Order of the British Empire und von Frankreichs Präsident Charles de Gaulle den Rang eines Offiziers der Ehrenlegion. Im Jahr 1954 erhielt Otto Hahn von Bundespräsident Theodor Heuss das Große Verdienstkreuz mit Stern und Schulterband und 1959 das Großkreuz des Verdienstordens der Bundesrepublik Deutschland. 1961 überreichte ihm Papst Johannes XXIII. in Rom die Goldmedaille der Päpstlichen Akademie der Wissenschaften, und 1966 verliehen ihm US-Präsident Lyndon B. Johnson und die United States Atomic Energy Commission in Washington, D.C. den Enrico-Fermi-Preis, zusammen mit Lise Meitner und Fritz Straßmann. Sie waren die ersten Ausländer, die mit dem Fermi-Preis ausgezeichnet wurden. Bereits 1957 wurde Hahn die Ehrenbürgerschaft der Stadt Magdeburg (damals DDR) angetragen und 1958 die Ehrenmitgliedschaft der Sowjetischen Akademie der Wissenschaften in Moskau. Beide Ehrungen lehnte Hahn ab. Bevor Theodor Heuss 1959 seine zehnjährige Amtszeit beendet hatte, wurde Otto Hahn von mehreren Persönlichkeiten des öffentlichen Lebens, denen sich auch die Freie Demokratische Partei (FDP) anschloss, als Nachfolger von Heuss für das Amt des Bundespräsidenten vorgeschlagen. Aber er lehnte aus Altersgründen ab – mit den berühmten ironischen Worten: „Das käme sowieso nie in Frage. Zwei Achtziger in Bonn? Einer reicht schon voll und janz …“ (Bundeskanzler Adenauer war damals bereits 83.) Nachruhm. Hahn-Denkmal am Ort des Geburtshauses an der Kleinmarkthalle in Frankfurt, enthüllt 1978 Zwei Jahre nach seinem Tod schlugen amerikanische Forscher vor, das neu synthetisierte Element Nr. 105 ihm zu Ehren Hahnium zu nennen, 1997 wurde es jedoch von der IUPAC nach dem russischen Forschungszentrum in Dubna endgültig Dubnium genannt. Ferner wurde 1964 das einzige nuklear angetriebene europäische Schiff, der Atomfrachter NS Otto Hahn, nach ihm benannt, ebenso wie 1971 zwei Intercity-Züge der Deutschen Bundesbahn (Strecke Hamburg-Altona – Basel SBB). Ihm zu Ehren und zu seinem Gedächtnis wurden folgende Auszeichnungen geschaffen: Otto-Hahn-Preis, Otto Hahn Award, Otto-Hahn-Medaille und Otto-Hahn-Friedensmedaille. Zahlreiche Städte und Gemeinden im deutschsprachigen Raum benannten Gesamtschulen, Realschulen und Gymnasien nach ihm, und unzählige Straßen, Plätze, Brücken und Wege in Europa tragen seinen Namen. Mehrere Staaten ehrten Otto Hahn mit Medaillen-, Münzen- und Briefmarken-Editionen (u. a. die Bundesrepublik Deutschland, die DDR, die USA, Portugal, Österreich, Angola, Ungarn, Ghana, Guinea-Bissau, Madagaskar, Somalia, Rumänien, Moldavien, der Tschad, Kuba, Dominica, St. Vincent und die Grenadinen). Otto Hahn ist auf der Frankfurter Treppe verewigt. An der Stätte seines Geburtshauses neben dem westlichen Eingang der Kleinmarkthalle Frankfurt befindet sich heute ein Denkmal. Eine Insel in der Antarktis ("Hahn Island", nahe dem Mount Discovery) wurde ebenso auf seinen Namen getauft wie die "Otto-Hahn-Bibliothek" in Göttingen und das Otto-Hahn-Institut in Mainz. Im März 1959 wurde in Berlin – in Anwesenheit der Namensgeber – das Hahn-Meitner-Institut für Kernforschung (HMI) vom Regierenden Bürgermeister Willy Brandt eingeweiht. 1974 erhielt – in Würdigung der besonderen Verdienste Otto Hahns um die deutsch-israelischen Beziehungen – ein Flügel des Weizmann Institute of Science in Rehovot (Israel) den Namen "Otto Hahn Wing". Ferner benannte die Saint Louis Universität in Baguio City (Philippinen) eines ihrer Forschungsgebäude als "Otto Hahn Building", zudem gibt es "Otto-Hahn-Hörsäle" in verschiedenen Universitäten und Instituten (zum Beispiel in Berlin, Heidelberg und Kiel). In mehreren Städten und Gemeinden wurden ihm zu Ehren Büsten, Denkmäler und Gedenktafeln enthüllt, unter anderem in Albstadt-Tailfingen, Berlin (Ost und West), Boston (USA), Frankfurt am Main, Göttingen, Gundersheim (Rheinhessen), Mainz, Marburg, München (im Ehrensaal des Deutschen Museums), Punta San Vigilio (Gardasee), Rehovot (Israel) und Wien (im Foyer der IAEA). In der Stadt Göttingen und der Gemeinde Ottobrunn (bei München) wurden öffentliche "Otto-Hahn-Zentren" geschaffen. Auch in Frankfurt am Main ist ein "Otto-Hahn-Zentrum" geplant, das unter anderem eine Dauerausstellung über Hahns Leben und Wirken beherbergen soll. Seit 2011 befindet sich außerdem in Albstadt-Tailfingen eine "Otto-Hahn-Gedenkstätte" in der dort ansässigen Akademie der IHK Reutlingen, die insbesondere an Hahns Arbeit in Tailfingen von 1944 bis 1945 erinnert. Anfang 2014 wurden in der Universitätsbibliothek Dortmund zwei neue "Otto-Hahn-Bibliotheken" als Bereichsbibliotheken für Naturwissenschaften eröffnet. Die Internationale Astronomische Union (IAU) ehrte Hahn durch die Benennung eines Mondkraters (zusammen mit Graf Friedrich II. von Hahn) und Marskraters, ferner, auf Vorschlag des Astronomen Freimut Börngen, des Kleinplaneten (19126) Ottohahn. Eine besondere Ehrung wurde Otto Hahn in den Niederlanden zuteil: Nachdem bereits eine Azalee "(Rhododendron luteum Otto Hahn)" und ein Kaktus "(Trichocereus echinopsis hybride Otto Hahn)" seinen Namen trugen, wurde von holländischen Rosenzüchtern eine neue Rose auf seinen Namen getauft, die "Rosa ottohahniana". Sogar ein vor allem in den 1950er und 1960er Jahren populärer Cocktail wurde nach ihm benannt: Der „Otto Hahn“ besteht aus zwei gleichen Teilen Whisky (z. B. Balvenie, oder Macallan) und Rich Golden Sherry (z. B. Osborne oder Sandeman) und wird in vorher angewärmten Cognac-Gläsern serviert. Im Stadtzentrum von Rotterdam (Ommoord) gibt es ferner seit Jahren ein vielbesuchtes Restaurant und Musiklokal, das seinen Namen trägt: das "Café Otto Hahn". Schriften. Der dienstliche Nachlass Otto Hahns befindet sich im Archiv zur Geschichte der Max-Planck-Gesellschaft. Zeugnisse über Otto Hahn. Alle folgenden Zitate sind entnommen aus Dietrich Hahn (Hrsg.): "Lise Meitner: Erinnerungen an Otto Hahn." „Einer der Wenigen, die aufrecht geblieben sind und ihr Bestes taten während dieser bösen Jahre.“ „Otto Hahn verstand es, mit den einfachsten Hilfsmitteln an die schwierigsten Probleme heranzugehen, geleitet von seiner ungewöhnlichen intuitiven Begabung und seinen ebenso ungewöhnlichen, vielseitigen chemischen Kenntnissen. Wie oft habe ich nicht in den langen Jahren unserer Zusammenarbeit gesehen, daß er Probleme, die der Physiker sich durch mathematische Formeln klar macht, rein intuitiv und anschaulich erfaßt hat.“ „Hähnchen, von Physik verstehst du nichts, geh nach oben!“ „Einer der nobelsten und feinsten Menschen, denen ich je begegnet bin.“ „Die große Zuverlässigkeit seines Charakters, seine natürliche Liebenswürdigkeit und Freude am Scherzen haben ihn auch bei etwaigen schwierigen Diskussionen, wissenschaftlicher oder menschlicher Art, nie verlassen.“ „Obwohl Otto Hahn einer der wenigen Wissenschaftler war, die Geschichte gemacht und eine ganze Ära der Weltpolitik bestimmt haben, hat er sich doch nie als eine Persönlichkeit der Weltpolitik gefühlt.“ „Die Zahl derer, die sich neben Otto Hahn stellen könnten, ist klein. Für ihn war seine eigene Handlungsweise zwar selbstverständlich, aber für die kommenden Generationen kann sie Vorbild sein, gleichgültig, ob man in der Haltung Otto Hahns sein menschliches und wissenschaftliches Verantwortungsbewußtsein oder seinen persönlichen Mut bewundert. Beides zusammen war selten in einer Person vereinigt anzutreffen, und so hat diese seltene Gabe Otto Hahn die Liebe und die Verehrung seiner Freunde und Schüler erworben und gesichert, und sie wird über seinen Tod hinaus hoffentlich das erstrebte Ziel vieler junger Menschen werden.“ „Otto Hahn hat sein so schweres menschliches Schicksal mit unvergleichlicher Haltung getragen. Stets blieb er äußerlich heiter, den Mitmenschen zugewandt in nie versiegender Herzensgüte, ein wunderbares Vorbild an sittlicher Kraft. Alle, die ihm begegnen durften, werden die Erinnerung an seine einzigartige Persönlichkeit als unverlierbaren inneren Besitz empfinden.“ „Jeder, der Otto Hahn kannte, mußte ihn als Forscher in seiner Arbeit sowie als Mensch in seinem Tun und Denken verehren. Er war Vorbild in seiner Gewissenhaftigkeit, zugleich die Herzen gewinnend in seiner Güte und Bescheidenheit.“ „Ich habe oft gedacht, daß er einen zweiten Nobelpreis verdient hätte – den Friedensnobelpreis.“ „So wie er nie die Verfolgung der Juden im Dritten Reich vergessen konnte, benutzte er auch die erste Gelegenheit, Beziehungen zum neuen Staate Israel aufzunehmen. Es war seine letzte große Reise, die unvergeßlichen Eindruck auf ihn machte.“ „Ich muß einfach sagen, daß er der bewundernswerteste Mensch ist, der mir unter den Wissenschaftlern bekannt ist. Seine charakterliche Größe, seine Schärfe des Verstandes und diese absolute Redlichkeit und Zurücksetzung seiner Person findet man so rasch nicht wieder.“ „Die Menschheit kann nicht auf die Dauer zugleich mit der Kenntnis der Kernspaltung und der Institution des Krieges leben. Dieses Wissen beschattete die letzten Lebensjahrzehnte Otto Hahns. Es bewußt getragen zu haben, war sein Beitrag zum unerläßlichen Bewußtseinswandel unserer Zeit. Es war sein Geschenk an die Menschheit.“ Ohr-Weide. Die Ohr-Weide, Öhrchen-Weide oder Salbei-Weide ("Salix aurita") ist eine Pflanzenart aus der Gattung der Weiden innerhalb der Familie der Weidengewächse (Salicaceae). Vegetative Merkmale. Die Ohr-Weide ist ein sommergrüner, mehrstämmiger, reichverzweigter Strauch, selten auch ein kleiner Baum und erreicht Wuchshöhen von 2 bis 3 Metern. Die graubraune Rinde der Zweige ist anfangs filzig behaart und bleibt glatt, wechselt ihre Farbe später nach braun bis schwärzlich. Die Winterknospen sind braun bis rot, kahl, eiförmig und 3 bis 5 mm lang. Den winterlichen Zweigen fehlt eine Endknospe. Die wechselständig an den Zweigen angeordneten Laubblätter sind in Blattstiel und Blattspreite gegliedert. Der Blattstiel ist 4 bis 10 mm lang. Die einfache Blattspreite ist bei einer Länge von bis zu 5 Zentimetern sowie einer Breite von etwa 2,5 Zentimetern verkehrt-eiförmig. Die Blattoberseite ist dunkelgrün, die -unterseite weißlich bis blaugrün und beidseitig behaart. Die Spreitenspitze ist meist gedreht und der Blattrand ist unregelmäßig grob gesägt. Die bleibenden Nebenblätter sind nierenförmig. Generative Merkmale. Die Blütezeit reicht von März bis Mai. Die Ohr-Weide ist zweihäusig getrenntgeschlechtig (diözisch). Die unscheinbaren Blüten erscheinen vor dem Laubaustrieb in kätzchenförmigen Blütenständen. Die männlichen Kätzchen sind bis 2,5 cm lang und die weiblichen bis 3 cm lang. Die vielsamige Kapselfrucht ist 7 bis 8 mm lang. Die Fruchtreife fällt in den Mai und Juni. Die Chromosomenzahl beträgt 2n = 38 oder 76. Vorkommen. Das natürliche Verbreitungsgebiet der Ohr-Weide erstreckt sich über Europa und Westasien. In Mitteleuropa gedeiht die Ohr-Weide vom Tiefland in Höhenlagen von bis zu 1800 Metern in den Nordalpen. "Salix aurita" gedeiht am besten auf feuchten, basen- und nährsalzarmen Sand- bis Sandlehmböden. Sie ist häufig in Flachmooren, Quellsümpfen und an Grabenrändern zu finden. Die lichtbedürftige Ohr-Weide wächst häufig im Freistand, aber auch vergesellschaftet mit Sal-Weide ("Salix caprea"), Moor-Birke ("Betula pubescens"), Grau-Erle ("Alnus incana"), Schwarz-Erle ("Alnus glutinosa") und Faulbaum ("Frangula alnus"). Ozonschicht. Abhängigkeit der Ozonkonzentration von der geographischen Breite und der Höhe Die Ozonschicht ist ein Bereich erhöhter Konzentration des Spurengases Ozon (O3) in der Erdatmosphäre, hauptsächlich in der unteren Stratosphäre. Es entsteht dort aus dem Luftsauerstoff, indem dessen Moleküle O2 durch den energiereichsten Anteil des Sonnenlichts (UV-C) zu Sauerstoffatomen gespalten werden. Die Atome verbinden sich dann sofort mit je einem weiteren O2 zu O3. Ozon selbst ist viel lichtempfindlicher als O2. Es absorbiert UV-C und UV-B und schützt damit Pflanzen, Tiere und Menschen vor Strahlenschäden. Wenn ein Ozon-Molekül ein UV-Photon absorbiert, wird es zwar gespalten, aber in den allermeisten Fällen bildet das freigesetzte O-Atom sofort wieder Ozon. Nur die Ausnahmen, hauptsächlich O + O3 → 2 O2, bedeuten einen Verlust von Ozon. Ozon hat großen Einfluss auf die Temperatur der Stratosphäre, einerseits über die UV-Absorption, andererseits ist es als gewinkeltes Molekül IR-aktiv und strahlt damit Wärme in den Weltraum ab. Als Entdecker der Ozonschicht gelten die französischen Physiker Charles Fabry und Henri Buisson. Sie wiesen 1913 durch UV-spektroskopische Messungen Ozon in höheren Atmosphärenschichten nach. Globale Verteilung. Die effektive Lebensdauer des Ozons ist groß genug, dass es von den langsamen Strömungen der Stratosphäre global transportiert wird: Obwohl das meiste Ozon im Bereich des Äquators entsteht, befindet sich der überwiegende Teil des Ozons in gemäßigten und hohen Breiten, im Höhenbereich zwischen 15 und 25 Kilometern. Die Säulenhöhe, gemessen in Dobson-Einheiten (DU), beträgt in gemäßigten Breiten zwischen 300 und 400 DU, in höheren Breiten im Frühsommer teils über 500 DU, wobei 100 DU einer Stärke von 1 mm entsprechen. In den Tropen wird die Ozonschicht vom Aufstrom aus der Troposphäre auf 20 bis 30 km Höhe angehoben und auf 200 bis 300 DU ausgedünnt. Die global geringste Säulenhöhe beträgt im sogenannten Ozonloch, das sich regelmäßig im Frühjahr der Antarktis auftut, manchmal weit unter 200 DU. Prozesse. Entstehung von Ozon durch Photolyse von Luftsauerstoff Dies ist der sogenannte Ozon-Sauerstoff-Zyklus, bei dem die Menge von Ozon annähernd konstant bleibt. Erdgeschichte. Vor etwa 3,5 Milliarden Jahren enthielt die Erdatmosphäre noch keinen freien Sauerstoff (O2). Mit dem Auftreten der ersten oxygen-phototrophen (bei der Photosynthese O2 freisetzenden) Mikroorganismen, wahrscheinlich Cyanobakterien, begann die Freisetzung von Sauerstoff (O2) aus Wasser. Der freigesetzte Sauerstoff (O2) gelangte aber vorerst nicht in die Atmosphäre, sondern wurde bei der Oxidation der im Wasser gelösten unedlen Metall-Ionen, vor allem Fe2+, und des ebenfalls im Wasser gelösten Sulfids verbraucht. Erst als nach sehr langer Zeit diese Oxidationen abgeschlossen waren, konnte sich freier Sauerstoff in der Erdatmosphäre ansammeln. Diese Phase der Entwicklung der Erdatmosphäre wird als große Sauerstoffkatastrophe bezeichnet. Durch Konvektion und Diffusion gelangte Sauerstoff bis in die Stratosphäre, wo dann durch den Ozon-Sauerstoff-Zyklus die Ozonschicht entstand. Ozonloch. Als Bestandteil bestimmter Gase, insbesondere Fluorchlorkohlenwasserstoffen (FCKW), gelangen Chlor und Brom in die Stratosphäre, die als Radikale katalytisch zum Abbau des Ozons beitragen. In der Polarnacht über der Antarktis kommen Wolken ins Spiel, für die es sonst in der trockenen Stratosphäre zu warm ist. Auf deren Partikeln parken die Schadstoffe und werden beim Sonnenaufgang im Frühjahr massiv frei. Im unteren Teil der Stratosphäre wird dadurch das Ozon innerhalb weniger Wochen fast vollständig abgebaut. Erst wenn der Polarwirbel instabil wird, dringen ozonreichere Luftmassen in das Ozonloch ein und schließen es, während ozonarme Luft manchmal bis Südamerika und Australien vordringt und dort zu erhöhten UV-B-Werten führt. Auswirkungen sind zu erwarten, aber schwer zu erfassen. Die stratosphärische Ozonschicht steht nicht in Verbindung mit dem bodennah vermehrt auftretenden Ozon bei Sommersmog. Ottawa. Ottawa (eng., fr.) ist die Bundeshauptstadt Kanadas. Sie liegt im östlichen Teil der Provinz Ontario am Fluss Ottawa, unmittelbar an der Grenze zur Provinz Québec. Ottawa bedeutet „Händler“ in der Sprache der Algonkin, einem Volk, das zur Zeit der Besiedlung am Fluss Handel trieb. Am anderen Ufer des Flusses liegt die Zwillingsstadt Gatineau. Ottawa selbst zählt 883.391 Einwohner und ist damit die viertgrößte Stadt Kanadas, der Großraum Ottawa-Gatineau ist mit 1.236.324 Einwohnern (Volkszählung 2011) der viertgrößte Ballungsraum Kanadas. Die Bevölkerung ist zu 63 % englisch- und zu 15 % französischsprachig. Ottawa ist in der Region die einzige offiziell zweisprachige Stadt. In der Stadt selbst überwiegt die englische Sprache, im Gegensatz zu dem auf der anderen Seite des Ottawa-Flusses gelegenen Gatineau, in dem die französische Sprache überwiegt. Durch eine große Zahl von Einwanderern sind auch zahlreiche weitere Sprachen geläufig. Die Wirtschaft der Hauptstadt wird hauptsächlich von zwei Sektoren getragen: zum einen durch die Arbeitsplätze der Bundesbehörden und der Bundesregierung, zum anderen von denen der Hochtechnologieindustrie. Ottawa belegt beim Bruttoinlandsprodukt und dem Nettoeinkommen der Angestellten vordere Plätze im landesweiten Vergleich und belegt den ersten Platz bei der Pro-Kopf-Zahl von Einwohnern mit akademischem Grad. (→ Bildung) Lage. Die Stadt Ottawa liegt am südlichen Ufer des Ottawa-Flusses, an der Mündung von Rideau-Kanal und Rideau River. Von Norden her, über das Stadtgebiet Gatineaus, fließt der Rivière Gatineau in den Ottawa-Fluss. Die Stadt Ottawa befindet sich in der östlichen Ecke der Provinz Ontario und liegt etwa auf demselben Breitengrad wie Bordeaux und Venedig. Satellitenansicht von Ottawa und Gatineau Die ältesten Teile der Stadt werden als "Lower Town" bezeichnet und befinden sich im Bereich zwischen Rideau-Kanal und Rideau River. Am gegenüberliegenden Ufer des Kanals ist "Centretown" (auch Downtown genannt), das finanzielle und kommerzielle Zentrum der Stadt. Zwischen dem Stadtzentrum und dem Ottawa-Fluss liegt Parliament Hill, das Regierungsviertel. Im Ottawa-Fluss liegen mehrere kleinere Inseln. Vor einer stauen sich die rund 60 m breiten Chaudière-Fälle mit 15 m Falltiefe. Die natürlichen Wasserfälle werden heute zusätzlich künstlich gestaut und zur Stromgewinnung genutzt. Östlich der Innenstadt stürzen am Rideau River die Rideau-Fälle über mehrere Kaskaden in den Ottawa-Fluss und bilden damit die Mündung. Das gesamte Stadtgebiet ist vergleichsweise weitläufig und umfasst mit 2779 km² einen Bereich, der größer als die Fläche des Saarlands ist. Ottawa grenzt an folgende Bezirke "(counties)" in Ontario: im Osten an die Prescott and Russell United Counties, im Südosten an die Stormont, Dundas and Glengarry United Counties, im Süden an die Leeds and Grenville United Counties, im Südwesten an Lanark County und im Westen an Renfrew County. Im Norden grenzt es an die kreisfreie Stadt Gatineau und an die regionale Grafschaftsgemeinde Les Collines-de-l’Outaouais in Québec. Das Stadtgebiet wird südlich von einem Grüngürtel mit einer Gesamtfläche von 203,5 km² umgeben. Dieser wurde 1950 vom Stadtplaner Jacques Gréber im Rahmen eines Masterplans für die Stadt vorgeschlagen und ab 1956 von der Regierung umgesetzt. Stadtgliederung. 2001 wurde Ottawa (das damals rund 350.000 Einwohner zählte) mit den zuvor selbstständigen Städten Nepean, Kanata, Gloucester, Rockcliffe Park, Vanier und Cumberland sowie den ländlichen Gemeinden West Carleton, Osgoode, Rideau und Goulbourn verschmolzen. Das gesamte heutige Stadtgebiet gehörte von 1969 bis 2001 zur Regionalgemeinde Ottawa-Carleton, die einzelne gemeindeübergreifende Infrastrukturaufgaben wahrnahm. Seit der Verschmelzung ist das Stadtgebiet Ottawas auf ein Vielfaches gewachsen, was zur Folge hat, dass 80 % der Gesamtfläche ländlich geprägt sind. Die Stadt ist in 23 Verwaltungseinheiten (engl. "wards") unterteilt. Diese wiederum werden informell in Viertel ("Neighborhoods") unterteilt. Obwohl Ottawa und seine Zwillingsstadt Gatineau verwaltungstechnisch getrennt sind und sogar in unterschiedlichen Provinzen liegen, bilden sie zusammen mit weiteren kleineren Gemeinden einen gemeinsamen Ballungsraum mit über 1,4 Millionen Einwohnern. Die offizielle Bezeichnung dieses seit 1959 bestehenden und 4715 km² großen Ballungsraums lautet National Capital Region (frz. "Région de la capitale nationale"). Im Gegensatz zu anderen Flächenstaaten gibt es in Kanada keinen eigentlichen Bundesregierungsbezirk, der Status Ottawas entspricht jenem anderer kreisfreier Städte in der Provinz Ontario. Die Bundesregierung übt jedoch über die National Capital Commission, die die Gebäude und weitläufigen Grundstücke im Besitz des Bundes verwaltet, indirekt Einfluss auf die städtebauliche Entwicklung in der National Capital Region aus. Tektonik. Die meisten tektonischen Bewegungen sind im Westen Kanadas auszumachen. Dennoch sind auch im östlichen Teil und damit in der Region um Ottawa leichte bis mittlere Erdbeben zu verzeichnen. Kanada liegt auf der vergleichsweise stabilen Nordamerikanischen Platte und damit hat der Osten – verglichen mit anderen Teilen der Erde – relativ geringe seismische Aktivitäten. Jedes Jahr werden ungefähr 450 Erdbeben in Ostkanada registriert, davon übertreffen etwa vier die Magnitude 4 auf der Richterskala. Ostkanada wird in weitere Erdbebenzonen unterteilt. Ottawa selbst befindet sich in der ausgedehnten Zone "Western Quebec Seismic Zone", die das gesamte Ottawatal von Montreal bis Temiscaming, eingeschlossen die Stadtregionen Montreal, Ottawa-Hull und Cornwall, umfasst. Die Muster der bisherigen Beben zeigen eine Konzentration der Aktivitäten vor allem auf den beiden Gebieten entlang des Ottawa-Flusses und auf der Achse Montreal-Maniwaki. Am 16. September 1732 ereignete sich in Montreal ein Beben mit einer geschätzten Stärke von 5,8 auf der Richterskala. Dieses richtete beträchtliche Schäden an. Am 1. November 1935 gab es mit einer Stärke von 6,2 das bis heute stärkste Beben, dessen Epizentrum bei Timiskaming in der Provinz Quebec nordwestlich von Ottawa lag. Am 5. September 1944 richtete ein Beben der Stärke 5,6 mit Epizentrum bei Cornwall, einer Kleinstadt zwischen Ottawa und Montreal, etwa 2 Millionen Dollar Schaden an und ließ über 2000 Schornsteine zusammenfallen. Zwischen 1980 und 2000 erreichten in Ottawa 16 Beben Stärken über der Magnitude 4. Klima. Das Klima in Ottawa ist ein feuchtes Kontinentalklima mit einer starken Bandbreite und Rekordtemperaturen (Effektive Klimaklassifikation: Dfb). Am 4. Juli 1913 wurde eine Höchsttemperatur von 37,8 °C gemessen während am 29. Dezember 1933 mit –38,9 °C die tiefste je gemessene Temperatur erreicht wurde. Bezogen auf diesen Tiefsttemperaturrekord gehört Ottawa nach Ulan-Bator, Astana und Moskau zu den vier kältesten Hauptstädten der Welt. Diese enormen Temperaturunterschiede erlauben es der Stadt, eine Vielzahl an jährlich wiederkehrenden Veranstaltungen abzuhalten, wie beispielsweise das "Winterlude Festival" auf dem zugefrorenen Rideau-Kanal. Durch die relativ warmen Sommer gehört Ottawa allerdings im Jahresdurchschnitt betrachtet weltweit nur zu den sieben kältesten Hauptstädten. Der Eissturm von 1998 als Beispiel für das extreme Klima der kanadischen Hauptstadt Während der Wintermonate dominieren Schnee und Eis. Jedes Jahr fällt in der Summe etwa 235 cm Schnee. Die größte je gemessene Schneemenge an einem Tag war 73 cm am 2. März 1947. Die durchschnittliche Temperatur im Januar beträgt –10,8 °C mit starken Schwankungen zwischen den Tag- und Nachttemperaturen. Während die Tagtemperaturen leicht über der Null-Grad-Grenze liegen können, fallen die Nachttemperaturen hin und wieder auf unter –30 °C. In einem durchschnittlichen Winter liegt die Hauptstadt von Mitte Dezember bis Anfang April unter einer geschlossenen Schneedecke, obwohl es auch schneefreie Tage um die Weihnachtszeit geben kann. Der Winter 2007/08 war dabei mit insgesamt 432,7 cm Schneehöhe besonders ergiebig und lag nur knapp unter dem Rekordjahr 1970/71 mit 444,1 cm. Hohe Windchills sind dabei ebenso üblich wie überfrierender Regen. Einer dieser Eisstürme verursachte im Januar 1998 sogar Stromausfälle und beeinträchtigte die lokale Wirtschaft erheblich. Die Sommer sind verhältnismäßig feucht und warm, fallen allerdings relativ kurz aus. Die durchschnittliche Maximaltemperatur im Juli beträgt 26 °C mit gelegentlichen Einfällen von kalter Luft mit fallender Luftfeuchtigkeit aus dem Norden des Landes. Frühling und Herbst fallen aufgrund der Extreme dementsprechend wechselhaft aus. Heiße Tage mit über 30 °C können bereits Anfang März aufkommen oder noch im späten Oktober. Der durchschnittliche Niederschlag beträgt rund 914 mm. Die größte Regenmenge innerhalb eines Tages wurde am 9. September 2004 mit 136 mm gemessen. In Ottawa scheint die Sonne etwa 2060 Stunden im Jahr, was 47 % der möglichen Sonnenstunden entspricht. Teilweise ereignen sich im Sommer auch Tornados. Frühgeschichte. Die Erforschung der Frühgeschichte im Gebiet der kanadischen Hauptstadt begann erst sehr spät, obwohl sich bereits 1843 ein unbekannter Autor mit einer Begräbnisstätte von 20 Indianern in Ottawa befasste, 1853 Edward Van Cortlandt mit einer (anderen?) Begräbnisstätte. Doch kam die Forschung, sieht man von den Arbeiten Thomas Walter Edwin Sowters um 1900 ab, mehr als ein Jahrhundert lang zum Erliegen. Auslöser für knappe Erörterungen war der Fund einer Portage und eines Indianerlagers genau dort, wo sich heute das Kanadas Nationalmuseum für Geschichte und Gesellschaft befindet. Erst 2002, anlässlich des Baues des neuen Kriegsmuseums, kam es zur intensiven Erforschung der durch die Bauarbeiten gefährdeten Stätten. Die ältesten menschlichen Spuren reichen rund 6500 Jahre zurück und finden sich am Leamy Lake, vor allem aber im Tal des Ottawa. Die Ottawa, denen die Hauptstadt ihren Namen verdankt, kamen im 14. Jahrhundert von Osten zu den Großen Seen. Sie siedelten jedoch nur bis 1651 in der Region. Étienne Brûlé befuhr 1610 als erster Europäer den Fluss Ottawa, Samuel de Champlain traf 1613 mit dem Ottawa-Häuptling Tessouat nahe der späteren Stadt Ottawa zusammen. Er nannte die Bewohner „Oudaouais“. Sie siedelten im Winter in Gruppen von zwei oder drei Familien und fanden sich im Sommer zu großen Jagdverbänden zusammen. Von ihnen übernahmen die Franzosen die Schneeschuhe. An den Chaudière-Fällen opferten sie Tabak, wie Champlain berichtet. 1620 schickte er Jean Nicolet zu den Kichesipirini, die den Fluss „Kichesippi“ (Großer Fluss) nannten. Um diese Zeit war es den Ottawa gelungen, ein Handelsmonopol entlang des Flusses zu errichten. Mit ihren Kanus transportierten sie Pelze zu den Dörfern der Wyandot oder Huronen, wo sie von den Franzosen in Empfang genommen wurden. In der Gegenrichtung transportierten sie französische Handelswaren zu den weiter entfernten Stämmen. Um 1630 begann mit den Biberkriegen ein langwieriger Kampf um den Pelzhandel mit den Irokesen, der weiträumige Völkerwanderungen in Bewegung setzte. 1636 versuchten die Kichesipirini vergeblich, eine Koalition mit Huronen, Algonkin und Nipissing gegen die Irokesen zusammenzubringen, die um 1650 die Huronen und später weitere Stämme vernichteten. Erst um 1700 kehrten einige der Gruppen zurück, doch blieben die Ottawa überwiegend südlich der Großen Seen und damit auf dem Gebiet der späteren USA ansässig. Dennoch hatten sich die französischen Pelzhändler angewöhnt, jeden Indianer aus der Region der späteren Hauptstadt als „Ottawa“ zu bezeichnen, auch wenn es ein Algonkin oder Ojibway war. So wurde aus dem „Grande Rivière des Algoumequins“ genannten Fluss bald fälschlicherweise die „Grande Riviere des Outaouais“. Die Chaudière-Fälle 1838, vor der Stauung Um Ottawa, etwa auf der Isle-aux-Alumettes, siedelten, abgesehen von den rund zwei Jahrzehnten, in denen die Ottawa ihr Handelsmonopol aufbauten, Algonkin-Gruppen. Champlain nannte eine dieser Gruppen „Algoumequins“. Deren Sprache war eine weit verbreitete Händlersprache, so dass diese Bezeichnung bald auf alle Stämme dieser Sprachfamilie übertragen wurde. Nördlich von Ottawa (bei Maniwaki) leben heute die Kitigan Zibi Anishinabeg, westlich, am Golden Lake, siedelt die Algonquins of Pikwàkanagàn First Nation. Im Jahre 1759 kam das Gebiet unter britische Herrschaft. 1800 gelangte mit Philemon Wright aus Massachusetts eine erste Siedlergruppe von fünf Familien und 33 Arbeitern an die Chaudière-Fälle, die Wright „Columbia Falls“ nannte. Aus der Siedlung "Wright’s Town" entstand das heutige Gatineau. 1806 fuhr ein erstes Floß aus 700 Holzstämmen den Fluss abwärts bis Québec, doch erst die Kontinentalsperre Napoleons mit ihren hohen Preisen machte aus diesen Fahrten ein lohnendes Geschäft. Auch lieferte Wright, der den Ort dominierte, ab 1812 Weizen an die USA. Bis 1830 wurde Wright’s Town, insbesondere sein 1814 gegründetes Unternehmen "P. Wright & Sons", zur wichtigsten Holzunternehmung in Kanada, doch zugleich verhinderte Wright drei Jahrzehnte lang aus Furcht vor Konkurrenz jede Industrieansiedlung. Den Pelzhandel dominierte, nachdem er lange von unabhängigen Jägern und Händlern betrieben worden war, die in Montreal ansässige North West Company. Sie wurde allerdings 1821 mit der Hudson’s Bay Company zwangsweise vereinigt, jedoch war die Pelztierjagd im Ottawatal inzwischen nur noch von geringer Bedeutung. Erste Siedlungen, Stadtgründung, Hauptstadt. Blick auf das westliche Ende der Wellington Street in Upper Bytown 1845, Gemälde von Thomas Burrowes Der Name "Bytown" wurde 1827 zum ersten Mal verwendet, um die Siedlung rund um die Baustelle des Rideau-Kanals zu benennen. Dessen Bezeichnung geht auf Colonel John By zurück, der von 1826 bis 1832 den Bau des Verbindungskanals zwischen dem Ottawa und dem Rideau River leitete. James Johnston gründete 1836 die erste Zeitung des Ortes, "Bytown Independent". 1839 zählte die Siedlung 2073 Einwohner. Nach einigen Kontroversen erlangte Bytown 1850 das Stadtrecht. Den Namen behielt die Stadt bis 1854; ab 1. Januar 1855 hieß die Stadt offiziell Ottawa. Die erste bedeutende Industrie war die Holzindustrie, die den Ottawa zum Transport riesiger Flöße nutzte. An den Chaudière- und Rideau-Fällen entstanden Sägewerke, J. R. Booth war der erfolgreichste dieser "lumber barons" (Holzbarone). 1855 hatte Ottawa bereits rund 10.000 Einwohner. Der Rideau-Kanal brachte Holz nach Kingston und über den Eriesee nach Oswego, eine Öffnung der kanadischen Wälder Richtung USA, die durch die Eisenbahnbauten noch ausgebaut wurde. Ähnlich wie im Pelzhandel verdrängten Großunternehmen bald die Familienbetriebe. Am 31. Dezember 1857 wurde Königin Victoria aufgefordert, eine Hauptstadt für die Provinz Kanada auszuwählen. (→ Geschichte Kanadas) Sie entschied sich für Ottawa. Es ranken sich mehrere Legenden um die Auswahl. So soll die Königin ihre Hutnadel auf einer Landkarte etwa zur Hälfte zwischen die Städte Toronto und Montreal gesteckt haben; der nächste Ort sei Ottawa gewesen. Tatsächlich dürfte die Wahl auf die Stadt gefallen sein, weil Ottawa zum einen an der Sprachgrenze lag und damit für beide europäischen Bevölkerungsteile (in Kanada spricht man heute von Euro-Canadians) akzeptabel schien, andererseits, im Gegensatz zum nahe an der Grenze zu den USA gelegenen Toronto, das vom Ontariosee aus – im erneuten Kriegsfall mit den Vereinigten Staaten – womöglich leicht angreifbar gewesen wäre, lag Ottawa weit im Hinterland. Der Barracks Hill, wo By seine Wachmannschaften untergebracht hatte, sollte zum Sitz des Parlaments werden. Der Bau des Gebäudes begann 1860, er sollte bis 1866 rund 4,5 Millionen Dollar verschlingen. Allerdings brachte er Bauarbeiter und Architekten, dann zahlreiche Verwaltungsbeamte und Angehörige des Parlaments nebst ihren Familien nach Ottawa. Beim Baustil bevorzugte man die damals in Großbritannien beliebte Neugotik. Das Verfassungsgesetz von 1867 erhob Ottawa zur Hauptstadt des neuen kanadischen Bundesstaates. 1877 wurde der Öffentlichkeit hier das erste Telefon präsentiert. 1899 entstand die "Ottawa Improvement Commission", die für eine Verschönerung der Stadt sorgen sollte. Am 26. April 1900 zerstörte jedoch ein Feuer rund 2.000 Gebäude. Ein defekter Schornstein in Hull, dem alten Stadtkern von Gatineau, fing Feuer und breitete sich durch die Witterungsverhältnisse bis nach Ottawa aus. Sieben Menschen kamen damals unmittelbar durchs Feuer um, weitere Tote gab es durch die nachfolgenden Seuchen, 15.000 wurden obdachlos. Am 3. Februar 1916 zerstörte ein weiterer großer Brand das Parlaments- und Senatsgebäude. Das neue Parlamentsgebäude wurde 1922 fertiggestellt. Umbau durch Jacques Gréber, Kalter Krieg. 1927 ersetzte die "Federal District Commission" die 1899 eingesetzte Kommission, die zudem für den Erhalt der ausgedehnten Wälder im Gatinau-Park sorgte. Kurz nach Ende des Zweiten Weltkrieges rückte die Stadt in die weltweite öffentliche Wahrnehmung, als am 5. September 1945 der sowjetische Kryptograph Igor Gouzenko aus der Botschaft in Ottawa zu den Westmächten überlief. Er stahl dabei 109 Geheimakten über die Entwicklung von Nuklearwaffen. Auf dem Höhepunkt des Kalten Krieges entstand zum Schutz von Regierung, Verwaltung und der Archivalien der Diefenbunker in Carp, einem Dorf westlich von Ottawa. Er kann heute besichtigt werden. Der Bunker sollte im Falle eines Atombombenangriffs, selbst bei völliger Zerstörung der Stadt, das weitere Funktionieren der Regierungstätigkeiten sicherstellen. Da Ottawa städtebaulich vergleichsweise schlecht entwickelt war, wurden nach der Gründung der National Capital Commission im Jahr 1959 unter Leitung von Jacques Gréber Industrie- und Eisenbahnanlagen aus dem Innenstadtbereich verbannt, Grünanlagen geschaffen und das Kulturleben gefördert. Dazu gehörte auch die Zentralisierung zahlreicher Artefakte der kanadischen Geschichte in einem zentralen Museum. Durch den "National Capital Act" war bereits 1958 ein Hauptstadtbezirk von 4800 km² Fläche entstanden, zu dem 27 Orte (municipalities) gehörten, vor allem aber Ottawa und Hull. Politische Strukturen. Die Stadtregierung (engl.: "Ottawa City Council", franz.: "Conseil municipal d’Ottawa") ist das Verwaltungsgremium der Stadt und setzt sich aus 23 Stadträten und einem Bürgermeister zusammen. Die Verwaltungsstruktur ist einstufig und trägt für sämtliche Bereiche der städtischen Dienstleistungen die Verantwortung. Der Bürgermeister vertritt die Interessen und Belange der gesamten Stadt, während die Stadträte Repräsentanten ("City Councillors") der 23 Verwaltungseinheiten ("wards") sind. Sie werden für eine vierjährige Legislaturperiode gewählt. Die letzten Wahlen fanden am 13. November 2006 statt. Bürgermeister war seit dem 1. Dezember 2006 Larry O’Brien (Konservative Partei Kanadas), dem am 1. Dezember 2010 Jim Watson folgte. Er wurde mit 47,08 % der Stimmen gewählt und löste damit Bob Chiarelli ab. Sitz der Stadtregierung ist das Rathaus, welches sich südlich des Confederation Park befindet. Die Stadtregierung trifft sich regelmäßig zweimal monatlich im Rathaus, jeweils am zweiten und vierten Mittwoch im Monat. Im Bedarfsfall werden auch Sondersitzungen eingelegt. Dem Stadtrat ist ein ständiges Komitee ("Standing Committee") beigeordnet. Diesem Komitee können Bürger ihre Anliegen vortragen, das wiederum das Anliegen prüft und in kurzen Vorträgen dem Stadtrat präsentiert. Außerdem gibt es 16 Beratungskomitees, welche zu verschiedenen Themenbereichen fachlich dem Stadtrat zur Seite stehen und Empfehlungen aussprechen. Einige Mitglieder des Komitees bestehen aus ehrenamtlichen Mitarbeitern. Wappen und Flagge. Das Wappen der Stadt Ottawa wurde am 20. Oktober 1954 durch Vincent Massey vorgestellt. Es zeigt einen weißen Schild, der kreuzförmig durch zwei wellenförmige, blaue Linien unterbrochen wird. Sie stellen die beiden Flüsse Rideau River und Ottawa River dar, die durch die Stadt fließen. An der rechten oberen Ecke ist die Königskrone von Königin Victoria abgebildet, die Ottawa zur Hauptstadt erhoben hat. An der linken unteren Ecke befindet sich ein rotes Ahornblatt. Der obere Teil des Schildes zeigt auf rotem Grund von rechts nach links Pfeile, ein Astrolabium und Schaufeln. Die Pfeile symbolisieren die ersten Einwohner, während das Astrolabium für die Entdeckung durch Samuel de Champlain steht. Die Schaufeln stehen für John By, der den Rideau-Kanal erbaute. Rechts und links vom Schild stehen ein Holzfäller und ein Offizier. Beide stehen auf einem grünen Untergrund aus Gras und Kiefernzapfen. Darunter befindet sich ein Banner mit dem Stadtmotto „Advance – Ottawa – en avant“. Oberhalb des Schildes befindet sich ein silberner Helm. Darauf thront eine Kiefer, die historisch betrachtet die wirtschaftliche Basis für das Ottawatal und später die Stadt Ottawa bildete. Die Flagge stellt ein stilisiertes weißes O dar, den Anfangsbuchstaben der Stadt. Die dynamischen Linienführungen symbolisieren außerdem den "Maple Leaf", das Nationalsymbol Kanadas und den Peace Tower des Parlamentsgebäudes. Die Hintergrundfarben sind blau und ein helles grün. Blau steht dabei für die Wasserwege durch Ottawa, die grüne Farbe für die Wälder, Bäume und Parklandschaften. Die Flagge besteht seit dem 1. Januar 2000 mit der Verschmelzung der Stadt mit ihren Nachbargemeinden. Von 1987 bis 2000 war die Stadtflagge eine dreifarbige Flagge mit vertikalen Balken und dem Stadtwappen in seiner Mitte. Die Trikolore repräsentierte die Monarchie (purpur), die Liberalen (rot) und die Konservativen (blau). Von 1901 bis 1987 verwendete man die gleiche Flagge ohne Wappen. Städtepartnerschaften. Seit dem 10. Januar 1997 besteht außerdem zwischen Ottawa und Seoul, Südkorea ein Memorandum of Understanding über zukünftige Zusammenarbeit. Bevölkerungsentwicklung. Die Bevölkerung der Stadt wuchs in den vergangenen Jahrzehnten stetig an. Die nebenstehende Tabelle stellt die Einwohnerentwicklung innerhalb der jeweils gültigen Stadtgrenzen dar. Vergrößerungen der Stadtgrenzen fanden seit Gründung von Bytown insgesamt zwölfmal statt, vor allem in den 1940er und 1950er Jahren. Im Jahr 2001 erfolgte die größte und bisher letzte Erweiterung des Stadtgebietes. Die Metropolregion Ottawa-Gatineau verzeichnete in der Volkszählung 2011 1.236.324 Einwohner. Innerhalb der ursprünglichen Grenzen vor der Verschmelzung mit anderen Stadtteilen hatte Ottawa lediglich 337.031 Einwohner, ihre Zahl ging 2006 sogar auf 328.105 zurück. Nach einer Prognose soll die Stadtbevölkerung weiter wachsen und etwa im Jahr 2021 die Millionengrenze überschreiten. Im Jahr 2011 hatte Ottawa 883.391 Einwohner. Demografie. Im Jahr 2001 betrug der Frauenanteil rund 51,23 %, Jugendliche unter 14 Jahren waren mit 19,30 % an der Gesamtbevölkerung vertreten, der Bevölkerungsanteil der über 65-Jährigen betrug 10,81 %. Das Durchschnittsalter lag bei 36,6 Jahren. Der Ausländeranteil betrug 2006 22,28 %. Der Anteil der „sichtbaren Minderheiten“ lag bei 20,2 %, während der Anteil der Ureinwohner 1,5 % von der Gesamtbevölkerung ausmacht. Die größte sichtbare Minderheit wird von den Schwarzen mit 4,9 % gestellt, gefolgt von den Chinesen mit 3,8 %, Südasiaten mit 3,3 % und Arabern mit 3,0 %. Sprachen. Ottawa ist offiziell englisch- und französischsprachig. Die gesamte Verwaltung ist auf die Zweisprachigkeit ausgerichtet. Die Bevölkerung ist überwiegend englischsprachig (62,6 %); etwa 14,9 % sind französischsprachig (→ Franko-Ontarier). Allerdings ist nur ein geringer Bevölkerungsanteil (etwa 0,85 %) mit zwei Muttersprachen aufgewachsen. Ein Anteil von 59,87 % hat nur Kenntnisse der englischen Sprache, 1,62 % beherrschen nur Französisch. Die französischsprachigen Einwohner leben vor allem in den nordöstlichen Bezirken entlang des Ottawa River. Etwa 37 % der Bevölkerung sprechen beide Sprachen, rund 1,3 % beherrschen keine der beiden Sprachen. Durch die Einwanderer sind viele andere Sprachen wie Arabisch, Chinesisch, Italienisch, Deutsch, Spanisch oder Persisch vertreten. Religionen. Nach der Volkszählung des Jahres 2001 gehörten 79,34 % der Bevölkerung einer christlichen Konfession an. Davon gehört mit 54,16 % die größte Gruppe der römisch-katholischen Kirche an, 21,85 % sind Protestanten, 1,68 % gehören der orthodoxen Kirche an. Die verbleibenden sind Angehörige der freien christlichen Kirchen, der Zeugen Jehovas oder der Kirche Jesu Christi der Heiligen der Letzten Tage. Die größte nichtchristliche Gruppe bilden die Angehörigen des Islam mit 3,97 %. Danach folgen Angehörige des Judentums (1,09 %) und des Buddhismus (0,95 %). Der Anteil der Konfessionslosen beträgt 13,29 %. Hauptstädtische Infrastruktur. Gebäude des Obersten Gerichtshofs von Kanada In Ottawa befinden sich die wichtigsten politischen Institutionen des Landes. Das kanadische Parlament mit Senat und Unterhaus sowie der Generalgouverneur von Kanada haben hier ebenso ihren Sitz wie der Oberste Gerichtshof Kanadas. An der Adresse 24 Sussex Drive befindet sich seit 1949 der offizielle Amtssitz des kanadischen Premierministers. Das eher bescheidene Haus wurde zwischen 1866 und 1868 von Joseph Merrill Currier (1820–1884) erbaut. Der Landsitz des Premierministers befindet sich außerhalb der Stadt am Harrington-See im Gatineau-Park, rund 33 km nordwestlich des Regierungsviertels. Die Residenz des Staatsoberhauptes (der Monarch bzw. der Generalgouverneur als Stellvertretung) residiert seit dem 1. Juli 1867 in der Rideau Hall (1 Sussex Drive). Das repräsentative Gebäude wird vor allem für Staatsempfänge genutzt. Lediglich 500 m² der insgesamt 9500 m² sind als Wohnung konzipiert. Auch der Oppositionsführer des Unterhauses und dessen Vorsitzender ("speaker") haben offizielle Residenzen im Hauptstadtbezirk. Das offizielle Gästehaus für Staatsbesuche ist ein viktorianisches Gebäude in der Nähe der Rideau Hall. Außerdem haben 126 Auslandsvertretungen und Hochkommissare ihren Sitz in der Hauptstadt. Die meisten Botschaften und Residenzen befinden sich im Diplomatenviertel Rockcliffe nordöstlich des Regierungsviertels, eine weitere Ansammlung von diplomatischen Missionen befindet sich in der südlichen Innenstadt. Die Deutsche Botschaft in Ottawa besteht, nach Unterbrechung durch den Zweiten Weltkrieg, wieder seit dem 13. Februar 1951. Die Zentralbank "Bank of Canada" wurde 1935 in Ottawa gegründet und befindet sich an der Ecke Wellington Street zu Bank Street in der Downtown. In Ottawa befindet sich seit 1971 die nationale Statistikbehörde Statistics Canada (franz.: "Statistique Canada"). Diese Organisation ging aus dem 1918 gegründeten "Dominion Bureau of Statistics" hervor. Die Behörde mit rund 1700 Mitarbeitern hat ihren Sitz westlich der Downtown. Außerdem befinden sich in der Stadt folgende Bundesbehörden: Canada Border Services Agency, Agriculture and Agri-Food Canada, Citizenship and Immigration Canada, Department of Finance Canada, Fisheries and Oceans Canada, Nav Canada, Verteidigungsministerium, Department of Foreign Affairs and International Trade, Health Canada, Royal Canadian Mounted Police, Industry Canada, Department of Justice, Communications Security Establishment Canada, Natural Resources Canada, Kanadischer Kronrat, Public Safety Canada, Transport Canada und Veterans Affairs Canada. In Gatineau sind folgende Behörden untergebracht: Department of Canadian Heritage, Environment Canada, Human Resources and Skills Development Canada, Indian and Northern Affairs Canada und Public Works and Government Services Canada. Wirtschaft. Die Angestellten arbeiten in der Stadt vornehmlich entweder für die kanadischen Bundesbehörden und die Bundesregierung oder in der Hochtechnologieindustrie. In Ottawa sind unter anderem die Unternehmen 3M, General Dynamics Canada, Adobe Systems, Bell Canada, IBM Canada, MacDonald Dettwiler, Telesat Canada, Neptec, Corel Corporation und Hewlett-Packard niedergelassen. Die Konzentration an Unternehmen dieser Branche brachte der Stadt auch den Spitznamen „Silicon Valley des Nordens“ ein. Die Firma Royal Canadian Mint prägt hier an ihrem denkmalgeschützten Hauptsitz exklusiv die Anlage- und Gedenkmünzen des Kanadischen Dollars. Nach einer Erhebung aus dem Jahr 2006 gibt es in Ottawa insgesamt 522.000 Arbeitsstellen. Zwischen 2001 und 2006 entstanden rund 40.000 neue Arbeitsstellen. Trotz der Steigerung ist das durchschnittliche Wachstum auf einen Fünf-Jahres-Zeitraum bezogen langsamer als Ende der 1990er Jahre. Während die Zahl der Beschäftigten im Bereich der Bundespolitik stagnierte, wuchs sie in der Branche der Hochtechnologie mit 2,4 % stärker an. Das gesamte Wachstum der Arbeitsplätze in Ottawa-Gatineau betrug 1,3 % im Vergleich zum Vorjahr und lag damit auf Platz 6 hinter Edmonton (6,7 %), Calgary (3,9 %), Vancouver (3,0 %), Montreal (2,5 %) und Toronto (2,3 %). Die Arbeitslosenquote in Ottawa-Gatineau betrug 5,2 % (nur Ottawa: 5,1 %) und lag damit unter dem nationalen Durchschnitt von 6,0 %. Die Zunahme des Bruttoinlandsprodukt betrug in Kanada 2007 2,4 %; Ottawa war mit 2,7 % auf Platz 4 der großen Städte. Die Region Ottawa-Gatineau hat die dritthöchsten Einkommen aller großen Städte Kanadas. Das durchschnittliche Bruttoeinkommen in der Region lag bei 40.078 Dollar (nach Calgary mit 52.927 Dollar und Edmonton mit 42.866 Dollar) und stieg damit um 4,9 % im Vergleich zum Vorjahr. Das Nettoeinkommen lag bei 30.347 Dollar (Zuwachs um 4,4 % zum Vorjahr) und bedeutet für die Region ebenfalls Platz 3. Der Lebenshaltungskostenindex wurde 2007 mit 110,7 gemessen, was einer Jahresteuerungsrate von 1,9 % entsprach. Die Weltwirtschaftskrise bewirkte einen Anstieg der Arbeitslosenquote zwischen April 2008 und April 2009 von 4,7 auf 6,3 %. In der Provinz stieg diese Quote allerdings im gleichen Zeitraum von 6,4 auf 9,1 %. Medien. In der kanadischen Hauptstadt erscheinen eine Reihe von Tageszeitungen. Der 1845 gegründete "Ottawa Citizen" ist eine englischsprachige, konservative Tageszeitung mit einer Auflage von rund 140.000 Exemplaren. Die Zeitung führt den Peace Tower in ihrem Logo. Wie in auch in anderen kanadischen Großstädten erscheint die kostenlose Pendlerzeitung 24 Hours. Die "Ottawa Sun" gilt als konservativ-populistisch und ist die Schwesterzeitung der "Toronto Sun". Mit rund 35.000 Exemplaren erscheint täglich die französischsprachige "Le Droit". Die 1913 gegründete Zeitung ist gleichzeitig die einzige frankophone Tageszeitung in der Provinz Ontario, wird aber auch im angrenzenden Gatineau gelesen. Obwohl Ottawa die Hauptstadt Kanadas ist, sind die meisten – auch örtlichen – Fernsehsender im Süden Ontarios, vor allem in Toronto beheimatet. Wegen der Zweisprachigkeit der Stadt hat sie terrestrische Empfangsmöglichkeiten für die meisten englisch- und französischsprachigen Sender des Landes. In der Hauptstadt sind unter anderen das 1947 gegründete Talkradio "580 CFRA", der Sportradiosender "The Team 1200", Oldie-Radiosender "Oldies 1310", Hot 89.9FM und Live 88.5FM beheimatet. Verkehr. Ottawa ist durch zwei Bahnhöfe an das Eisenbahnnetz von VIA Rail angeschlossen. Der Bahnhof Ottawa ist Ausgangs- und Endpunkt der Linien nach Toronto und Montreal. Der rund 10 km südlich des Zentrums gelegene Ottawa Macdonald-Cartier International Airport wird von einer Vielzahl von Fluggesellschaften angeflogen. In der Region der Stadt befinden sich noch zehn weitere kleinere Flugplätze. Ottawa ist mittels Langstreckenbusverbindungen mehrerer Gesellschaften wie zum Beispiel Greyhound Canada mit anderen kanadischen Städten verbunden. Netzplan des "Ottawa Rapid Transit" In Ottawa werden Buslinien von OC Transpo unterhalten. Bemerkenswert ist der Transitway. Es handelt sich dabei um ein Busstraßensystem, das weitgehend kreuzungsfrei geführt wird und Haltestellenanlagen besitzt, die an U-Bahnstationen erinnern. In der Innenstadt verlassen die Busse den Transitway und verkehren auf dem normalen Straßennetz. Außerdem existiert als Pilotprojekt der O-Train eine dieselbetriebene Stadtbahn. Ottawa ist sternförmig durch ein Netzwerk mehrerer Autobahnen erschlossen. Der Highway 417 ("The Queensway") verläuft als Teil des Trans-Canada Highway von Westen nach Osten in Richtung Montreal. Nach Süden führt der Highway 416 ("Veterans Memorial Highway") bis nach Prescott und bindet die Hauptstadt damit an die restlichen 400er-Autobahnen und das Goldene Hufeisen an. Der Highway 7 führt über 537 km von London im Südwesten Ontarios über Kitchener und Guelph nach Ottawa. Mit ihrer Schwesterstadt Gatineau ist die Hauptstadt über fünf Straßenbrücken und eine Eisenbahnbrücke über dem Ottawa-Fluss verbunden. Eine große Anzahl von Straßen werden als sogenannte "Scenic Parkways" von der National Capital Commission verwaltet, sie sollen hauptsächlich dem Freizeitverkehr dienen und sind daher für LKW gesperrt. An den Sommerwochenenden werden einige Scenic Parkways für den motorisierten Verkehr gesperrt. Und dienen Fußgängern, Rollschuhfahrern, sowie dem Radverkehr Ottawa ist von einem großen Netz an Fußgänger- und Radwegen durchzogen. Die Wege meiden verkehrsreiche Autostraßen, sind mit weiten Bordsteinen ausgestaltet und erstrecken sich auch entlang der Flüsse. Sie bieten damit gute Möglichkeiten für Radwanderungen oder Spaziergänge. Nach statistischen Erhebungen nutzten im Jahr 2005 – gemessen wurde an einem verkehrsreichen Morgen – rund 62 % der Bürger das Automobil, 21 % die öffentlichen Verkehrsmittel, 9 % liefen zu Fuß, 2 % nutzten das Fahrrad und 6 % nutzten andere Fortbewegungsmittel. Für die Zukunft soll aufgrund der wachsenden Bevölkerungszahl der Schwerpunkt auf den öffentlichen Nahverkehr gelegt und eine Auslastung von 30 % angestrebt werden. Der Pendlerverkehr von Gatineau nach Ottawa betrug 2005 insgesamt 43.200 was 31 % des Gesamtverkehrs entspricht. Umgekehrt gab es von Ottawa nach Gatineau nur 17.200 Pendler, was einer Quote von 4 % entspricht. Der Pendleraustausch zwischen dem ländlichen Stadtgebiet und der Downtown fällt im Verhältnis von 67 % stadteinwärts zu 2 % stadtauswärts noch drastischer aus. Bildungseinrichtungen. Tabaret Hall der Universität Ottawa Die Stadt verfügt über zwei staatliche Universitäten, die "Universität Ottawa" und die "Carleton University". Darüber hinaus gibt es mehrere Hochschulen. Das 1967 gegründete "Algonquin College" ist eine Hochschule für angewandte Kunst und Technologie. Das "Dominican University College" bietet mehrere Fakultäten der Philosophie und Theologie. Die kleine Hochschule hat rund 160 Studenten und wurde im Jahr 1900 gegründet. Die 1848 gegründete "Saint Paul University" ist eine päpstlich-katholische Universität mit etwa 1000 Studenten. Sie beherbergt Fakultäten für Kirchenrechts, Humanwissenschaften, Philosophie und Theologie. Die meisten Hochschulen und Universitäten lehren englisch und französisch. Das "La Cité collégiale" mit etwa 5.000 Studenten ist eine französischsprachige Hochschule, die als Ableger des Algonquin College 1990 gegründet wurde. First Avenue Public School, eine Grundschule des OCDSB Das Ottawa-Carleton District School Board (OCDSB), "Conseil des écoles publiques de l'Est de l'Ontario", Ottawa Catholic School Board und "Conseil des écoles catholiques du Centre-Est" betreiben zahlreiche allgemeinbildenden Schulen, die in englischer oder französischer Sprache unterrichten. Daneben gibt es mehrere privat geführte Schulen, z. B. das Internat Ashbury College und eine Montessorischule. Ottawa hat landesweit die höchste Pro-Kopf-Konzentration von Ingenieuren, Wissenschaftlern und Einwohnern mit akademischem Grad. Das nationale Archiv und die Nationalbibliothek Kanadas "Library and Archives Canada" wurde in einem neu errichteten Bau 1967 von Premierminister Lester B. Pearson eröffnet. Stadtbild und Architektur in Downtown. Im Gegensatz zu Toronto und Montreal dominieren nur wenige hohe Gebäude das Stadtbild Ottawas. Mit 112 m ist das höchste Gebäude "Place de Ville II" nur unwesentlich höher als der historische "Peace Tower" des Parlamentsgebäudes. Vor allem in der Innenstadt sind die Straßen rechtwinkelig angelegt, wobei die großen Ausfallstraßen teilweise ihren ursprünglichen Verlauf behalten haben und dem Muster nur teilweise folgen. Als Hauptsehenswürdigkeit gilt das Regierungsviertel, dessen Gebäude in Anlehnung an die Regierungsbauten in London entworfen wurden und im Stil der britischen Neugotik gehalten sind. Die Bauwerke befinden sich auf dem Parlamentshügel ("Parliament Hill") zwischen dem Rideau-Kanal und dem Ottawa River. Das Parlamentsgebäude ist ein Komplex, der aus drei Teilen ("East Block", "West Block" und "Centre Block") und dem markanten 92 m hohen Peace Tower besteht. An der Nordseite des Centre Block befindet sich die Parlamentsbibliothek, die aufgrund ihres Kuppeldachs und seinen Stützpfeilern an einen gotischen Sakralbau erinnert. Auf dem Vorplatz des Parlaments brennt die "Centennial Flame", die in der Neujahrsnacht 1966 an die ersten hundert Jahre der Kanadischen Konföderation erinnern soll. Einige hundert Meter westlich des Parlaments befindet sich der Oberste Gerichtshof Kanadas. Das höchste kanadische Gericht tagt in einem 1939 erbauten Gebäude mit grünlichem Dach. Im Regierungsviertel finden sich zahlreiche Statuen berühmter kanadischer Politiker. Östlich des Parlamentsgebäudes befindet sich eine Statue aus dem Jahr 1977, die Königin Elisabeth II. auf einem Pferd darstellt. Die 1846 geweihte römisch-katholische Kathedralbasilika Notre Dame östlich des Rideau-Kanals am Sussex Drive ist die älteste Kirche Ottawas und Sitz des Erzbischofs. Die neogotische Kirche wurde von 1841 bis 1865 erbaut, der prachtvolle Innenraum zwischen 1876 und 1885 gestaltet. Westlich der Notre Dame befindet sich die Kanadische Nationalgalerie ("National Gallery of Canada"). Südlich des Museums befinden sich die Zufahrt zur Alexandra Bridge nach Gatineau und ein kleiner Park mit dem Denkmal Samuel de Champlains ("Nepean Point"). Zwischen den Parlamentsgebäuden und dem Nobelhotel Château Laurier fließt der Rideau-Kanal, der an der Mündung zum Ottawa River mehrere Schleusenstufen aufweist und einen Höhenunterschied von 24,1 Meter mit Hilfe von acht von Hand zu bedienenden Toren überbrückt. In den Wintermonaten wird der Kanal zur längsten Schlittschuhlaufbahn der Welt (etwa sieben Kilometer). Am Rideau-Kanal befindet sich der Confederation Square, eine dreieckige Parkanlage, in der sich ein monumentales Kriegsdenkmal befindet. Südlich des Parks steht das "National Arts Centre", ein Konzert-, Opern und Theaterhaus. Nördlich des Confederation Square befindet sich das "Château Laurier". Das an eine mittelalterliche Burg erinnernde Hotelgebäude wurde 1912 als Eisenbahnhotel errichtet und zählt zu den besten Hotels der Stadt. Museen. Die Sammlung der "Kanadischen Nationalgalerie" dokumentiert die Entwicklung der kanadischen Kunst, stellt aber auch asiatische und europäische Kunst aus. Das Museumsgebäude mit seinem auffälligen Glaskuppelbau wurde 1988 von Moshe Safdie entworfen. Das Museum besitzt Werke von Künstlern wie Lucas Cranach d. Ä., El Greco, Gustav Klimt, Pablo Picasso oder Andy Warhol. Die kanadische Kunst ist z. B. mit Werken von Paul Kane und der Group of Seven vertreten. Außerdem zeigt das Museum in einer eigenen Abteilung Videokunst. Auf dem Vorplatz befindet sich die 1999 aufgestellte, 10 m hohe Spinnenskulptur Maman aus Bronze, die die französische Bildhauerin Louise Bourgeois schuf. Neben dem Château Laurier befindet sich das der Nationalgalerie angegliederte "Museum of Contemporary Photography". In einem ehemaligen Eisenbahntunnel untergebracht, beherbergt es über 150.000 Fotografien von zumeist kanadischen Künstlern. Seit 2005 befindet sich das "Kanadische Kriegsmuseum" in einem neuen Gebäude in den Lebreton Flats nahe dem Ottawa-Fluss. Das Gebäude wurde von den Architekten Raymond Miriyama und Alex Rankin entworfen. In fünf verschiedenen Sektionen wird chronologisch die Kriegsgeschichte Kanadas beleuchtet, im eigenen Land wie auch in anderen Erdteilen. Eine Attraktion ist ein originales Mercedes-Benz 770-Cabriolet von Adolf Hitler. Bei diesem Exponat, das ursprünglich der Wagen von Hermann Göring hätte sein sollen, handelt es sich um eine Schenkung von einem Québecer Geschäftsmann aus dem Jahr 1970. Zudem rekonstruierte das Museum einige bekannte Kriegsschauplätze, beispielsweise einen Schützengraben aus dem Ersten Weltkrieg. Im benachbarten Gatineau befindet sich mit dem "Kanadas Nationalmuseum für Geschichte und Gesellschaft", das meistbesuchte Museum Kanadas. Es widmet sich der Kultur- und Besiedlungsgeschichte Kanadas, wobei es sich in Form von Dauerausstellungen mit dem Thema der Ureinwohner (vor allem der First Nations, aber auch der Métis und Inuit), der Besiedlungsgeschichte durch europäische und asiatische Einwanderer und herausragenden Persönlichkeiten der kanadischen Geschichte befasst. Im Museum ist außerdem das Kanadische Postmuseum ("Canadian Postal Museum"), das u. a. eine Sammlung sämtlicher in Kanada erschienenen Briefmarken besitzt. Weitere Museen Ottawas sind das "Canadian Museum of Nature" am Südrand der Downtown, das "Canada Science and Technology Museum" am südöstlichen Stadtrand, das "Canada Aviation and Space Museum" auf dem Gelände des Flugplatzes Ottawa-Rockcliffe nordöstlich der Innenstadt und das "Museum für Landwirtschaft und Ernährung" au dem Gelände der Ferme expérimentale centrale im Südwesten der Innenstadt. Im Gebäude der Bank of Canada ist das Münzmuseum ("Currency Museum") untergebracht. Es zeigt Münzen aus China, dem antiken Griechenland, Rom, Byzanz und Münzen vom Mittelalter bis zur Renaissance sowie die Entwicklung des Geldwesens in Nordamerika. Musik und Theater. Zwischen der Elgin Street und dem Rideau-Kanal befindet sich das National Arts Centre, ein Gebäudekomplex, der mehrere Hallen für Konzert- und Theateraufführungen bietet. Es beherbergt die zwei Orchester "National Arts Centre Orchestra" und das "Ottawa Symphony Orchestra" sowie die Operngruppe "Opera Lyra Ottawa". Diese treten vor allem in der über 2300 Plätze fassenden Southam Hall auf. Das Theater mit knapp 900 Sitzen ist der Stammsitz einer englisch- und einer französischsprachigen Theatergruppe. Das dunkelbraune Gebäude, das von den Architekten Dimitri Dimakopoulos und Fred Lebensold entworfen wurde, ist länglich und besteht aus mehreren hexagonalen Formen. Die Eröffnung des Kunstzentrums fand am 2. Juni 1969 statt. In der Nähe des Algonquin College befindet sich das "Centrepoint Theater". Es bietet für kleinere Musik- und Theateraufführungen Platz für knapp 1000 Zuschauer. Die Veranstaltungshalle wurde am 3. Mai 1988 eröffnet. Regelmäßige Veranstaltungen. Über 60 Festivals und Veranstaltungen finden jedes Jahr im regelmäßigen Turnus in Ottawa statt. Jährlich im Mai findet die Tulpenparade statt, die an die Geburt der niederländischen Prinzessin Margriet während des Exils der Königsfamilie im Zweiten Weltkrieg in Ottawa erinnert. Königin Juliana konnte während ihres Exils ihre Tochter in einem kurzfristig extraterritorial erklärten Krankenhauszimmer zur Welt bringen, was dieser den Anspruch auf die Thronfolge sicherte. Aus Dankbarkeit dafür schickt das niederländische Königshaus bis heute jedes Jahr 20.000 Tulpenzwiebeln in die kanadische Hauptstadt. Teil dieses Festes ist eine große Bootsparade auf dem Rideau-Kanal. Das im Sommer stattfindende "Ottawa International Chamber Music Festival" gehört weltweit zu den größten Kammermusikereignissen. Seit 1981 wird ebenfalls im Sommer das "Ottawa International Jazz Festival " abgehalten. Im Jahr 2008 kamen über 180.000 Besucher zu dieser Veranstaltung. Kanadas größtes Bluesfestival findet ebenfalls in Ottawa statt. Seit 1994 werden an elf Tagen im Juli auf verschiedenen Bühnen Blueskonzerte aufgeführt. 2007 besuchten mehr als 300.000 Menschen das Festival. Der Kanadische Nationalfeiertag "Canada Day" am 1. Juli wird grundsätzlich im ganzen Land gefeiert. In Ottawa konzentrieren sich allerdings viele Veranstaltungen wie Paraden, große Konzerte und die Präsenz von Vertretern der kanadischen Politik. In den Jahren 1967, 1990, 1992 und 1997 nahm auch Königin Elisabeth II. an den Feierlichkeiten teil. Seit 1979 wird in Gatineau und Ottawa im Februar das Freiluftfestival "Winterlude" (franz.: "Bal de neige") ausgetragen. Da in den vergleichsweise strengen Wintermonaten der Rideau-Kanal oft vollständig zugefroren ist, finden auf dem Kanal Musikkonzerte und eissportliche Aktivitäten statt. Einer der Höhepunkte ist ein Skulpturenwettbewerb, bei dem Skulpturen aus Schnee und Eis gefertigt und nachts angeleuchtet werden. 2007 lockte das Festival rund 1,6 Millionen Besucher an. Sport. Innenaufnahme des Canadian Tire Centre Mit den Ottawa Senators in der National Hockey League (NHL) verfügt Ottawa über eine Major-League-Mannschaft. Ihre Heimspiele tragen die seit 1992 am Spielbetrieb teilnehmenden Senators im 19.153 Zuschauer fassenden Canadian Tire Centre aus, das 1996 eröffnet und 2005 erweitert wurde. Die Ottawa 67’s sind eine Mannschaft in der Jugendliga Ontario Hockey League (OHL). In den Jahren 1978 und 1984 fanden die Eiskunstlauf-Weltmeisterschaften in Ottawa statt. Mannschaften, welche die weiteren kanadischen Nationalsportarten Lacrosse ("Ottawa Rebel") und Canadian Football ("Ottawa Renegades") ausübten, existierten nur kurzzeitig. Das höchstklassige Fußballteam der Stadt sind Ottawa Fury FC in der Profiliga North American Soccer League. Mit 26.559 Plätzen ist das TD Place Stadium die größte Sportstätte Ottawas. Seit 2014 wird durch die Ottawa RedBlacks auch wieder Canadian Football gespielt. Innerhalb Ottawas befinden sich ungefähr 170 Kilometer asphaltierte Wege, die speziell für Inlineskater geeignet sind. Jährlich am letzten Maiwochenende finden Laufwettbewerbe ("Ottawa Race Weekend") statt, zu dessen Höhepunkt der Ottawa-Marathon zählt. Persönlichkeiten. Paul Anka wurde in Ottawa geboren Oktaeder. Drei senkrecht zueinander stehende Quadrate, die jeweils die Grundfläche einer Doppelpyramide bilden. Das (auch, v. a. österr.: der) Oktaeder (von griech. "oktáedron" ‚Achtflächner‘) ist einer der fünf platonischen Körper, genauer ein regelmäßiges Polyeder ("Vielflächner") mit Das Oktaeder ist sowohl eine gleichseitige vierseitige Doppelpyramide (mit quadratischer Grundfläche) als auch ein gleichseitiges Antiprisma (mit einem gleichseitigen Dreieck als Grundfläche). Symmetrie. Insgesamt hat die Symmetriegruppe des Oktaeders – die Oktaeder- oder Würfelgruppe – 48 Elemente. Beziehungen zu anderen Polyedern. Das Oktaeder ist das zum Hexaeder (Würfel) duale Polyeder (und umgekehrt). Setzt man auf die Seiten des Oktaeders Tetraeder auf, entsteht das Sterntetraeder. Mithilfe von Oktaeder und Würfel können zahlreiche Körper konstruiert werden, die ebenfalls die Würfelgruppe als Symmetriegruppe haben. So erhält man zum Beispiel als Durchschnitte eines Oktaeders mit einem Würfel (siehe archimedische Körper) als konvexe Hülle einer Vereinigung eines Oktaeders mit einem Würfel. Verallgemeinerung. Die Analoga des Oktaeders in beliebiger Dimension "n" werden als ("n-dimensionale") Kreuzpolytope bezeichnet und sind ebenfalls reguläre Polytope. Das "n"-dimensionale Kreuzpolytop hat formula_10 Ecken und wird von formula_11 "(n−1)"-dimensionalen Simplexen (als "Facetten") begrenzt. Das vierdimensionale Kreuzpolytop hat 8 Ecken, 24 gleich lange Kanten, 32 gleichseitige Dreiecke als Seitenflächen und 16 Tetraeder als Facetten. (Das eindimensionale Kreuzpolytop ist eine Strecke, das zweidimensionale Kreuzpolytop ist Ein Modell für das "n"-dimensionale Kreuzpolytop ist die Einheitskugel bezüglich der Summennorm im Vektorraum formula_14. Und zwar ist das (abgeschlossene) Kreuzpolytop daher Das Volumen des n-dimensionalen Kreuzpolytops beträgt formula_21, wobei formula_22 der Radius der Kugel um den Ursprung bezüglich der Summennorm ist. Die Beziehung lässt sich mittels Rekursion und dem Satz von Fubini beweisen. Anwendungen. In der Chemie können sich bei der Vorhersage von Molekülgeometrien nach dem VSEPR-Modell oktaedrische Moleküle ergeben. Auch in Kristallstrukturen, wie der kubisch flächenzentrierten Natriumchlorid-Struktur (Koordinationszahl 6), taucht das Oktaeder in der Elementarzelle auf; genauso in der Komplexchemie, falls sich 6 Liganden um ein Zentralatom lagern. Einige in der Natur vorkommende Minerale, z. B. das Alaun, kristallisieren in oktaedrischer Form aus. In Rollenspielen werden oktaedrische Spielewürfel verwendet und dort als „W8“, also als Würfel mit 8 Flächen, bezeichnet. Oswald Spengler. Oswald Arnold Gottfried Spengler (* 29. Mai 1880 in Blankenburg am Harz; † 8. Mai 1936 in München) war ein deutscher Geschichtsphilosoph, Kulturhistoriker und antidemokratischer politischer Schriftsteller. In seinem historistischen Hauptwerk "Der Untergang des Abendlandes" richtet sich Spengler gegen eine lineare Geschichtsschreibung, welche die Geschichte „der Menschheit“ als Geschichte des Fortschritts erzählt. Stattdessen vertritt er die Zyklentheorie, dass Kulturen immer wieder neu entstehen, eine Blütezeit erleben und nach dieser Vollendung untergehen. Er begreift Kulturen als eindeutig abgrenzbare, quasi-organische Gebilde mit einer Lebensdauer von etwa 1.000 Jahren und mit jeweils ganz charakteristischen, das Denken und Handeln der Individuen prägenden Eigenschaften. Der Titel des Werkes zeigt an, dass die „Kultur des Abendlandes“ im Untergang begriffen sei. Spenglers Werk wird unterschiedlich eingeschätzt. So gilt er zum einen als „Meisterdenker der Konservativen Revolution“. Die Nationalsozialisten selbst sahen ihn als einen ihrer „geistigen Väter.“ obwohl er wesentliche Gedanken wie die Rassenideologie nicht mittrug und sich vom Nationalsozialismus unter Hitler distanzierte. Spengler hat zwar im Urteil einiger Zeitgenossen Entwicklungen seiner Zeit richtig vorausgesagt und andere Geschichtswissenschaftler stark beeinflusst, darunter Franz Borkenau und vor allem Arnold J. Toynbee, aber sein Werk ist für die heutige Geschichtswissenschaft nicht grundlegend. Kindheit und Jugend. Spengler wurde am 29. Mai 1880 als zweites von fünf Kindern des Postbeamten Bernhard Spengler und seiner Frau Pauline Spengler, geb. Grantzow, in Blankenburg am Harz geboren. Im Jahr 1891 zog die Familie nach Halle an der Saale, wo Spengler die Latina der pietistisch orientierten Franckeschen Stiftungen besuchte. Seine Kindheit war geprägt von Nervenkrisen und Panikanfällen, außerdem neigte er zum Somnambulismus. Später erinnerte er sich an seine Jugend als eine durch „Kopfschmerzen“ und „Lebensangst“ geprägte Zeit. Bereits früh richtete er seine bemerkenswerte Phantasie auf historische Themen: Als 15-Jähriger füllte er ganze Hefte mit detaillierten Angaben zu Geschichte, Geografie und Verwaltung zweier fiktiver Reiche. Spengler bildete sich neben der als eng empfundenen Schulwelt autodidaktisch weiter. Studium. Nachdem er 1899 das Abitur bestanden hatte und wegen eines schweren Herzfehlers vom Militärdienst befreit worden war, studierte er in Halle, München und Berlin Mathematik, Naturwissenschaften und Philosophie. Seine Dissertation schrieb er bei dem Philosophen Alois Riehl zum Thema "Der metaphysische Grundgedanke der Heraklitischen Philosophie". Die Prüfungskommission lehnte nach der mündlichen Verteidigung die Dissertation mit der Begründung ab, es sei zu wenig Fachliteratur zitiert worden. Spengler wiederholte die Prüfung und wurde am 6. April 1904 an der Universität Halle zum Dr. phil. promoviert. Im Dezember 1904 bestand er die Prüfung für das Höhere Lehramt in den Fächern Zoologie, Botanik, Physik, Chemie und Mathematik. Das Thema der Staatsexamensarbeit lautete: "Die Entwicklung des Sehorgans bei den Hauptstufen des Tierreiches". Darin manifestierte sich, wie Koktanek hervorhob, ein Leitmotiv des Spenglerschen Denkens, das später sowohl in der Schrift "Der Mensch und die Technik" (1931) als auch in den posthum veröffentlichten "Urfragen" zum Tragen gekommen ist. Spengler lernte in seinem Studium einerseits die Naturwissenschaften kennen, andererseits die Philosophie. Prägend wirkten auf ihn Ernst Haeckel, die fiktionale Philosophie Hans Vaihingers ("Philosophie des Als Ob"), in besonderem Ausmaß aber die Kulturkritik Friedrich Nietzsches mit den Stichworten Dekadenz und Wille zur Macht. Außerdem verehrte er lebenslang Goethe als einen Gipfel der abendländischen Kultur. Erste Berufstätigkeiten. Das „Seminarjahr“ sollte Spengler 1905 in Lüneburg antreten. Der Schuldienst sagte ihm jedoch nicht zu. Er erlitt einen Nervenzusammenbruch, woraufhin er wieder abreiste. Auf Wunsch seiner Mutter nahm er eine Stelle in Saarbrücken an (1906/07) und absolvierte sein Probejahr in Düsseldorf. Nachdem er die Lehrbefugnis für das Fach Mathematik erhalten hatte, trat er 1908 eine feste Anstellung als Ordinarius in Hamburg an. Bei seinen Schülern war er sehr beliebt, besonders wegen seiner improvisierten Vorträge. Eine kleine Erbschaft nach dem Tod seiner Mutter eröffnete Spengler die Möglichkeit, seine Lehrtätigkeit aufzugeben und als freier Schriftsteller seinen literarischen Ambitionen nachzugehen. Schließlich zog er im März 1911 nach München-Schwabing und schrieb zunächst für verschiedene Zeitungen als Kulturreferent. Für die „unvergleichliche Atmosphäre vieldeutiger Modernität“ der Münchner Szene voller Künstler und Revolutionäre verschiedener Couleur empfand Spengler nur Ekel und Verachtung. Arbeit am Hauptwerk "Der Untergang des Abendlandes" (1911–1921). Ab 1911 arbeitete Spengler vor allem an seinem zweibändigen Hauptwerk "Der Untergang des Abendlandes" („Umrisse einer Morphologie der Weltgeschichte“). Als der erste Band 1918 erschien, wurde er schlagartig berühmt und in literarischen, wissenschaftlichen und politischen Kreisen zum Gegenstand heftiger Debatten und Kontroversen. Der zweite Band erschien 1922. Während seiner rund zehnjährigen Arbeit an seinem Hauptwerk lebte er isoliert, litt unter psychischen Problemen und später unter materiellen Schwierigkeiten. Während seiner Münchner Zeit litt Spengler stark unter seiner sozialen und intellektuellen Isolierung. „Insgeheim vergleicht er sich mit Deutschland, das ebenfalls allein ist.“ Er war erschöpft und fühlte sich müde. Dennoch ging er davon aus, dass sein Werk „epochemachend“ sein würde. Als Schlüssel, der ihm das Tor zur Entwicklung des "Untergangs" geöffnet habe, betrachtete Spengler den „Panthersprung nach Agadir“ vom 1. Juli 1911. Damals hatte das deutsche Kanonenboot „Panther“ den marokkanischen Hafen Agadir angelaufen, weil sich die Reichsleitung zu einer militärischen Drohgebärde hatte hinreißen lassen, die in ein diplomatisches Fiasko mündete. Spengler verband mit diesem Ereignis eine historische Zeitenwende, ein Wetterleuchten, das den herannahenden Weltkrieg in einer globalen Optik ankündigte. Spenglers gesamte politische Philosophie war von der Vorstellung geprägt, dass dem Abendland große Kämpfe um die Weltherrschaft bevorstünden. Zwischen 1914 und 1917 verfasste Spengler zwei undatierte Denkschriften, die nur in Fragmenten überliefert sind. Die eine richtete er an Kaiser Wilhelm II., die andere an den Adel. In seiner Denkschrift an den Kaiser fordert Spengler, dass die „Monarchie der republikanischen Herausforderungen mit der Bereitschaft der Selbsterneuerung begegnen“ müsse. Vom Adel forderte er, dass er auf seine politischen Privilegien verzichtet. Mit seiner antiaufklärerischen Kritik forderte Spengler eine demokratische Elitenbildung, damit „mit großer Wahrscheinlichkeit so starke Begabungen tatsächlich an der geeigneten Stelle und unter hinreichender Schulung vorhanden sind, wie das System stillschweigend voraussetzt“. Spenglers Überzeugung war, dass ein leistungsfähiger Adel in einem monarchischen Staat, der Aufstiegsmöglichkeiten für Nichtadelige bietet, grundsätzlich besser sei als eine reine Demokratie. Antidemokratisches Wirken. Besonders seit der deutschen Niederlage im Ersten Weltkrieg profilierte sich Spengler als vehementer Gegner der Demokratie. Als politischer Schriftsteller brachte er seine antidemokratische Gesinnung in kleineren Schriften wie "Preußentum und Sozialismus" (1919) und "Neubau des Deutschen Reiches" (1924) zum Ausdruck. Spengler hoffte, dass der Weimarer Republik ein Ende gesetzt werde durch einen Diktator, der imstande sei, die großen innen- und vor allem außenpolitischen Herausforderungen in einem Zeitalter der „Vernichtungskriege“ (vgl. "Untergang des Abendlandes", III. Tafel „gleichzeitiger“ politischer Epochen) erfolgreich zu bewältigen. Hitler schien ihm nicht über entsprechende Qualitäten zu verfügen - die sah er eher bei Mussolini; Spengler, der zunächst in seiner Einstellung zum Nationalsozialismus schwankte, lehnte schließlich nicht nur die Weimarer Republik, sondern auch die nationalsozialistische Diktatur entschieden ab. Persönliche Freunde waren die Industriellen Paul Reusch und Albert Vögler, die ihn auch finanzierten, sowie der Dichter Adolf Weigel (= Ernst Droem), mit dem er Prag besichtigte. In den 1920er Jahren stand er dem Nietzsche-Archiv nahe. Anfang der zwanziger Jahre versuchte Spengler, selbst auf die Politik Einfluss zu nehmen. 1922 bemühte er sich, zusammen mit dem Verlagschef der Münchner Neuesten Nachrichten Nikolaus Cossmann, dem Leiter der „Hochschule für nationale Politik“ Martin Spahn und dem Industriellen Albert Vögler ein Netzwerk zum Aufbau eines nationalkonservativen Pressekartells zu knüpfen, jedoch gelang es ihm nicht, die Finanzierung dieses Unternehmens zu sichern. Entwicklung der Opposition zum Nationalsozialismus. Am 14. Juni 1933 erhielt Spengler einen Ruf an die Universität Leipzig und lehnte ab, nachdem er bereits im Jahr 1919 einem Ruf an die Universität Göttingen nicht gefolgt war. Am 25. Juli 1933 fand in Bayreuth eine Unterredung zwischen Spengler und Adolf Hitler statt. In seinem Buch "Jahre der Entscheidung", das am 18. August 1933 – fast ein halbes Jahr nach der nationalsozialistischen Machtergreifung – in Deutschland erscheinen konnte, distanzierte sich Spengler öffentlich von Hitler und dem Nationalsozialismus, dagegen feierte er den faschistischen Diktator Benito Mussolini enthusiastisch. Der „Duce“ bekam in Spenglers Geschichtsphilosophie die Funktion, Spenglers Konzept des „Cäsarismus“ exemplarisch darzustellen, also den Typus des künftigen „Cäsaren“ zu verkörpern, der das Trümmerfeld der abendländischen Kultur im Zeitalter der fortgeschrittenen Zivilisation beherrschen werde, analog den „echten“ Cäsaren, die dem antiken "Imperium Romanum" das Gepräge gegeben hatten. Obwohl Spenglers "Jahre der Entscheidung" als oppositionelle Schrift gegen den Nationalsozialismus erschien, wurde das Buch im „Dritten Reich“ nicht verboten. Es lief zwar eine Kampagne gegen das Buch, doch Reichspropagandaminister Joseph Goebbels bemühte sich weiterhin, Spengler auf seine Seite zu ziehen. Erst nachdem dieser ein Angebot von Goebbels ausgeschlagen hatte, einen Aufsatz über den Austritt Deutschlands aus dem Völkerbund (26. Oktober 1933) zu schreiben, gab der Minister auf und erteilte die Anweisung, Spengler in Zukunft zu ignorieren. Das zeigt, wie schwer sich das „Dritte Reich“ im Umgang mit Autoren der Konservativen Revolution wie Spengler tat. Sie waren den Nationalsozialisten aus der Zeit der Weimarer Republik als Verbündete im Kampf gegen die Demokratie und als wichtiges Reservoir politischer Ideen in Erinnerung und konnten daher nicht einfach als Gegner identifiziert werden. Die als „Röhm-Putsch“ bekannt gewordene politische Säuberungswelle der Nationalsozialisten vom 30. Juni bedeutete für Spengler den endgültigen Bruch mit dem Nationalsozialismus. Unter den Ermordeten befand sich mit Gregor Strasser einer seiner früheren politischen Ansprechpartner. Besonders betroffen war er aber vom Tod des Münchner Musikkritikers Willi Schmid, der das Opfer einer Verwechslung mit dem Otto Strasser nahestehenden Arzt Johannes Ludwig Schmitt geworden war. Spengler hielt die Grabrede und bewies dabei Mut und Zivilcourage. Laut Aussage seines Biographen Detlef Felken darf Spenglers Distanz zu den Nationalsozialisten aber „nicht über das antidemokratische Potential der "Jahre der Entscheidung" hinwegtäuschen“. In diesen Jahren widmete sich Spengler wieder verstärkt wissenschaftlichen Fragen, die im Horizont einer Weltgeschichte von Anfang an standen, in die die Geschichte der Hochkulturen eingebunden werden sollte. Parallel dazu legte Spengler unter dem Stichwort „DiG“ (Deutschland in Gefahr) Notizzettel für den zweiten Band der "Jahre der Entscheidung" an. Darin rechnete er mit dem Nationalsozialismus ab und stellte ihn auf eine Stufe mit dem Bolschewismus, den er bisher als das größte aller Übel auf der Ebene der Politik bezeichnet hatte. Hingegen behielt er in diesen Notizen seine Bewunderung für Mussolini bei. Im Oktober 1935 trat Spengler aus dem Vorstand des Nietzsche-Archivs aus, weil er sich mit der Neudeutung Nietzsches im Nationalsozialismus nicht abfinden wollte. Spengler starb in der Nacht vom 7. auf den 8. Mai 1936 in seiner Münchner Wohnung an Herzversagen; sein unerwarteter Tod gab Anlass für „Gerüchte, er sei von NS-Männern ermordet worden“. Spengler wurde auf dem Münchner Nordfriedhof beigesetzt (Sektion 125, Grabanlage 2). „Geschichtsmorphologie“. Hauptthema aller seiner Arbeiten ist seine morphologische Sicht der "Welt als Geschichte", die er in seinen dichterischen Werken verarbeitet und die in seinem philosophischen Hauptwerk als monumental ausgearbeitete Theorie fokussiert wird. Zentrale Thesen bei Spengler sind die Unfähigkeit seiner Zeit, kreativ zu wirken, die daraus folgende Verpflichtung des Bewahrens der von früheren Generationen geschaffenen Kultur und die Bewährung angesichts der politischen Herausforderungen in Zeiten des Verfalls, bei dem der „Blick über die Kulturen hin“ den Weg weisen soll. Erkenntnistheoretisch berief er sich dabei auf Goethe. Spengler als zyklischer Geschichtsphilosoph sieht nur die äußere Form der Kulturen als sich wiederholend, nicht jedoch ihre individuelle Ausprägung. Wesentlich ist in diesem Zusammenhang die Selbstbewertung seines Hauptwerkes als „kopernikanische Entdeckung im Bereich der Historie, dass in diesem Buche ein System an seine [sc. das ptolemäische System] Stelle tritt, in dem Antike und Abendland neben Indien, Babylon […] eine in keiner Weise bevorzugte Stellung einnehmen“ (vgl. auch Historismus). Entsprechend dieser Sicht stammen von ihm Tragödien zur Wende von der Kultur zur Zivilisation, ein Zivilisationsroman und der geschichtsphilosophische Solitär "Der Untergang des Abendlandes. Umrisse einer Morphologie der Weltgeschichte," der in zwei Bänden erschien, 1918 der erste Band in Wien, 1922 der zweite Band in München. Das Werk wurde, von den Zeitumständen begünstigt, sehr erfolgreich; bei zeitgenössischen Intellektuellen lässt sich fast immer voraussetzen, dass sie es gelesen haben. Mit den 8 Kulturmonaden (Kernstück seiner Philosophie), die je binnen 1000 Jahren aufblühen, reifen und welken „wie die Blumen auf dem Felde“, konnte er auf positivistisch arbeitende Historiker kaum Eindruck machen, weil seine vergleichende Modellierung der Kulturen einen völlig neuen Ansatz einbrachte. Als Darstellung der Geschichte galt sie den meisten Historikern als unwissenschaftlich. Rezeption des Hauptwerks. Spenglers "Der Untergang des Abendlandes" war eines der erfolgreichsten und umstrittensten Werke, die seit 1918 erschienen sind. Der Titel wurde zum geflügelten Wort. Der Erfolg des Werkes hatte vor allem zwei Gründe: Erstens erschien "Der Untergang des Abendlandes" zu einem Zeitpunkt, als der im 19. Jahrhundert entwickelte Fortschrittsoptimismus durch den Ersten Weltkrieg zutiefst erschüttert und durch ein umfassendes gesellschaftliches Krisenbewusstsein verdrängt wurde. Das Werk wurde als ausgesprochen aktuell wahrgenommen. Zweitens hatte es den Vorzug, eine immense Fülle an Daten aus den unterschiedlichsten Wissenschaftsdisziplinen zu einer Gesamtschau zu verarbeiten. Das Resultat war eine universalgeschichtliche, d. h. Vergangenheit, Gegenwart und Zukunft umfassende Darstellung der Entwicklung des Abendlandes, die viele Leser zu faszinieren vermochte. Umstritten waren insbesondere Spenglers Methode der „historischen Morphologie“, also seine Herleitung geschichtlicher Analogien, die von der Fachwissenschaft als unseriös betrachtet wurden, sowie die politischen Implikationen, die Spengler mit seiner Vorstellung vom Zyklus der Hochkulturen verband. Außerdem wurde ihm Dilettantismus vorgeworfen. Spengler selbst bezeichnete sein Hauptwerk als „Metaphysik“. Das hinderte den britischen Historiker Arnold J. Toynbee nicht, ihn zeitlebens zu bewundern. Noch bei Franz Borkenau findet sich eine Spengler sehr ernst nehmende grundsätzliche Auseinandersetzung. Auch in weiten Teilen der Bildungsschicht, besonders in Deutschland und Österreich (Egon Friedell, Gottfried Benn u. a.), wurde sein Blick auf die Weltgeschichte ernst genommen. Der Dichter Gottfried Benn war zeitlebens angetan von Spenglers Morphologie und wurde „Poet des Spenglerschen Lebensgefühls“. Robert Musil äußerte am Ende einer vernichtenden Kritik, andere hätten nur deshalb nicht so viele Fehler gemacht, weil sie nicht die beide Ufer berührende Spannweite besäßen, um so viele (Fehler) darauf unterzubringen. Er schrieb: „Es gibt zitronengelbe Falter, es gibt zitronengelbe Chinesen. In gewisser Weise kann man also sagen, der Falter ist der geflügelte mitteleuropäische Zwergchinese. Falter und Chinese sind bekannt als Sinnbilder der Wollust. Zum ersten Mal wird hier der Gedanke an die noch nie beachtete Übereinstimmung des großen Alters der lepidopteren Fauna und der chinesischen Kultur gefasst. Dass der Falter Flügel hat und der Chinese keine, ist nur ein Oberflächenphänomen!“ Thomas Mann lobte das Werk zunächst emphatisch und schlug es der Jury des Nietzsche-Preises zur Auszeichnung vor. Es sei ein „Buch voller Schicksalsliebe und Tapferkeit der Erkenntnis, worin man die großen Gesichtspunkte findet, die man heute gerade als deutscher Mensch braucht.“ Jedoch schon 1922, als er sich mit der Weimarer Republik zu versöhnen begann, distanzierte er sich von Spengler. Er lobte zwar den literarischen Glanz des Werkes, sprach dem Verfasser aber den humanistischen Pessimismus eines Schopenhauer oder den „tragisch-heroischen“ Charakter Nietzsches ab. Das Werk sei vielmehr fatalistisch und zukunftsfeindlich. „Solche Anmaßung aber und solche Nichtachtung des Menschlichen sind Spenglers Teil … Er tut nicht wohl daran, Goethe, Schopenhauer und Nietzsche zu Vorläufern seines hyänenhaften Prophetentums zu ernennen.“ Erheblichen Einfluss übte das Denken Spenglers auf die anthropologische und ethnologische Forschung aus – so etwa im Frühwerk von Claude Lévi-Strauss ("Tristes tropiques"). Karl Popper hat die Schrift "Das Elend des Historizismus" gegen Spengler (und Marx) geschrieben, gegen die Annahme, es gebe unabänderliche historische Gesetzmäßigkeiten. Der Sozialist Georg Lukács kritisierte das Werk als eine Position auf der Linie „von Nietzsche zu Hitler“. Theodor Adorno verteidigte Spenglers Geschichtsphilosophie. Die in der Nachkriegszeit kurrente Kritik an diesem extrem reaktionären Theoretiker sei zu einfach und affirmativ, da seine Kritik am Liberalismus einer progressiven Kritik überlegen sei. Seine Voraussicht auf den Faschismus als Cäsarismus sei wertvoll und enthalte Wahrheiten über Massenkultur und Parteienorganisation. Im größeren Teil des Aufsatzes leistet Adorno aber eine grundlegende Kritik an Spenglers Einverständnis mit dem blutigen Lauf der Geschichte und kritisiert ihn als „beflissenen Agenten des Weltgeistes“, der dessen Bewegungsrichtung entgegen seinem eigenen Anspruch nicht habe vorhersehen können. Im Jahr 1936 verfasste Jorge Luis Borges ein Biogramm Spenglers in der Zeitschrift "El Hogar", in dem er konstatierte, dass die deutschen Philosophen, so auch Spengler, - im Gegensatz zu ihren französischen und englischen Kollegen - dazu neigten, die Welt nicht so zu beschreiben, wie sie sei, sondern dass ihr Hauptaugenmerk auf der Schönheit und Symmetrie ihrer erdachten Systeme liege. Man könne zwar über Spenglers biologischen Geschichtsbegriff streiten, nicht jedoch über seinen glänzenden Stil. In jüngerer Zeit zeigte sich Morris Berman in seiner Kritik der amerikanischen Zivilisation von Spenglers Werk beeinflusst. Auch der belgische Althistoriker David Engels, der sich auch sonst intensiv mit Spengler auseinandergesetzt hat, beruft sich bei seinem Versuch, die Krise der europäischen Union mit dem Untergang der späten römischen Republik zu vergleichen, explizit auf Spenglers Geschichtsmorphologie. "Preußentum und Sozialismus". Spenglers politische Position, die sein gesamtes Werk durchzieht, ist die eines Preußentums vor dem Hintergrund der selbstzerstörerischen Kriege Europas. Er sah seinen Heimatstaat als Modell für die Zukunft: Preußen stehe für "Pflicht, Ordnung und Gerechtigkeit", die Ideale einer „deutschen Kultur“ – im Gegensatz zu "Freiheit, Gleichheit, Brüderlichkeit", den Idealen der „westlichen Zivilisation“. Spengler verbindet Preußen mit dem positiv besetzten Begriff "Kultur" (vertreten durch Goethe); der gegensätzliche Begriff ist für ihn "Zivilisation", die er mit "Dekadenz" gleichsetzt. Spengler lehnt den Marxismus und den liberalen Parlamentarismus ab. Er propagiert einen „deutschen Sozialismus“, der Gemeinwirtschaft und Monarchie, Sozialismus und Konservativismus verbindet. Seine Streitschrift "Preußentum und Sozialismus" plante er am Tag nach der Ermordung des bayerischen Ministerpräsidenten Kurt Eisner, sie erschien im November 1919 als Reaktion auf den Versailler Vertrag und die Weimarer Verfassung. 1932 schrieb er übertreibend, aber für ihn und seinen politischen Standpunkt charakteristisch: „Von diesem Buche hat die nationale Bewegung ihren Ausgang genommen“ (Politische Schriften, 1932, Seite VII). Die Schrift ist vor allem werkgeschichtlich von Bedeutung und entspricht nach Spenglers Aussage weitgehend dem Keim seines Hauptwerks. Zur Überwindung des gehassten westlichen Liberalismus und des Versailler Vertrags strebte Spengler vor allem ein Bündnis mit Russland bzw. der Sowjetunion an, insoweit gehörte er zum Umfeld der konservativen Revolution der 1920er Jahre. "Jahre der Entscheidung". Spenglers Kritik des westlichen Parlamentarismus erfolgte auf Basis seiner preußisch-traditionalistischen Werteausrichtung, nicht jedoch aus Affinität zur NS-Ideologie. Die Interview-Frage eines amerikanischen Nachrichtenmagazins, welche Parallelen seine Lehre mit der NS-Ideologie habe, beantwortete er dahingehend, dass es keine solchen gebe. Spenglers Schrift "Jahre der Entscheidung" (1933), die ursprünglich den Titel "Deutschland in Gefahr" tragen sollte, worauf er aus Angst nach der Machtergreifung verzichtete, wurde seinerzeit von NS-Kritikern und NS-Sympathisanten gleichermaßen als Angriff auf die NS-Ideologie verstanden. Spengler unterscheidet darin das Ideal des pietistisch-idealistischen preußischen Dienst- und Leistungsethos', wohin seiner Meinung nach eine nationale Revolution zurückführen sollte, von der biologistischen Rassenlehre des Nationalsozialismus. Das preußische Ethos sei ein „Daseinstakt“, der in generationenlanger Einübung und Verfestigung kulturprägender führender Familien entwickelt und sodann gesellschaftsprägend geworden sei. Ein derartiges gesellschaftliches Ethos sei nicht durch den geistigen Druck eines Parteiprogramms ersetzbar. Die NS-Rassenlehre sei in ihrem Sinngehalt kindisch. Sie beschwöre nicht nur Gefahren im Inneren herauf, sondern setze aufgrund ihres naiven Überlegenheitsdenkens Deutschland auch der akuten äußeren Gefahr aus. Die Entscheidung zwischen preußischem Ethos und angelsächsischem Parlamentarismus sei aufgrund des Ersten Weltkriegs noch nicht endgültig gefallen. Er sehe die schlussendliche Auseinandersetzung zwischen beiden noch kommen. Ein im NS-Denken befangenes Deutschland sei auf diese Auseinandersetzung von der geistigen Disposition her denkbar schlecht vorbereitet. Ozon. Ozon ("ozein" „riechen“) ist ein aus drei Sauerstoffatomen bestehendes Molekül (O3). Ozonspuren in der Luft zerfallen unter Normalbedingungen innerhalb einiger Tage zu biatomarem Sauerstoff. Einerseits ist Ozon ein starkes Oxidationsmittel, das bei Menschen und Tieren zu Reizungen der Atemwege führen kann. Andererseits schützt es in der Ozonschicht die Lebewesen vor einer Schädigung durch energiereiche ultraviolette Strahlung der Sonne. Eigenschaften. Ozon ist bei Standardbedingungen gasförmig. Aufgrund seiner oxidierenden Wirkung reizt es bei Menschen und Tieren die Atemwege. Es vermag sogar Silber bei Raumtemperatur zu oxidieren. Ozonaufnahme kann beim Menschen häufig zu heftigen Schläfenkopfschmerzen führen. In hohen Konzentrationen riecht das Gas aufgrund der oxidierenden Wirkung auf die Nasenschleimhaut charakteristisch stechend-scharf bis chlorähnlich, während es in geringen Konzentrationen geruchlos ist. Die Geruchsschwelle liegt bei 40 µg/m3, allerdings gewöhnt man sich schnell an den Geruch und nimmt ihn dann nicht mehr wahr. Reines O3 ist eine allotrope Form von Disauerstoff O2. Bei Zimmertemperatur liegt es als instabiles, farbloses bis bläuliches, diamagnetisches Gas vor, das bei −110,5 °C zu einer tiefblauen Flüssigkeit kondensiert und bei −192,5 °C (80 K) zu einem schwarzvioletten Feststoff erstarrt. Das gewinkelte polare Molekül mit einem Dipolmoment von 0,5337 D (entspricht 1,780 · 10−30 C · m) bleibt im Festkörper erhalten. Der O-O-Abstand beträgt 128 pm, der Winkel zwischen den drei Sauerstoffatomen beträgt 117°. Ozon unterhält die Verbrennung sehr viel stärker als Disauerstoff: Etliche Materialien flammen schon bei Raumtemperatur bei Kontakt mit reinem Ozon auf. Gemische aus reinem Sauerstoff und Ozon ab einem Volumenanteil von 11,5 % können sich unter Atmosphärendruck bei entsprechend hoher Zündenergie explosionsartig zersetzen. Durch Beimischung von 1 % Methan oder NO2 wird die Zündgrenze auf ca. 5 % Ozon herabgesetzt. Bildung. Ozon entsteht aus gewöhnlichem Sauerstoff gemäß der Grundgleichung Vorkommen. Die Menge an Ozon in der Atmosphäre wird in Dobson-Einheiten (also pro Erdoberfläche) oder in ppm (also pro Stoffmenge Luft) angegeben. Die höchste Konzentration mit einigen ppm weist Ozon in der Stratosphäre auf. Für seine Entstehung ist dort der Ozon-Sauerstoff-Zyklus verantwortlich. Ozon ist in der Stratosphäre unschädlich und absorbiert teilweise die Ultraviolettstrahlung der Sonne. In der Atemluft ist es jedoch bereits in weit geringeren Konzentrationen gesundheitsschädlich, insbesondere bewirkt die lokal sehr unterschiedliche Ozonbelastung Reizungen der Atemwege. Diese sehr unterschiedliche Gefahreneinschätzung in den verschiedenen atmosphärischen Schichtungen führte und führt sehr häufig zu Verwechselungen und Unterschätzung der Gefahren. Das gesundheitliche Risiko des Ozons in den bodennahen Luftschichten ist durch seine Reaktivität begründet, Ozon ist eines der stärksten Oxidationsmittel. Wären also nicht noch weitere Stoffe, sogenannte flüchtige Kohlenwasserstoffe oder auch CO, in der unteren Luftschicht vorhanden, würde sich kein weiteres Ozon bilden, sondern abhängig von der Sonneneinstrahlung stellt sich dann ein Gleichgewicht zwischen O3, NO und NO2 ein. Je stärker die Sonne scheint, desto mehr Ozon und weniger NO2 ist vorhanden, da letzteres durch die UV-Strahlung gespalten wird (Reaktion 1). Wenn danach wieder Reaktion 1 und 2 stattfinden, wird netto neues Ozon gebildet. Da NO durch Autos und Industrie ausgestoßen wird, wird Ozon in der Stadt schneller wieder abgebaut (nach Reaktion 3) als in ländlichen Gegenden. Außerdem finden sich in ländlichen Gebieten häufig Kohlenwasserstoffe, die leichter von OH-Radikalen angegriffen werden können, wodurch Reaktion 4 schneller abläuft. Ein bekanntes Beispiel für so einen leicht abbaubaren biogenen Kohlenwasserstoff ist Isopren. Die genaue Reaktionskette ist im Artikel Sommersmog beschrieben. Die im Zusammenhang mit der Ozonschicht häufig erwähnten FCKW (Fluorchlorkohlenwasserstoffe) werden durch UV-Strahlung gespalten, wodurch freie Chlorradikale entstehen, die wiederum viele Ozon-Moleküle "„zerstören“" können. Geschichte. Ozonometer, entworfen von John Smyth, 1865. Im Jahre 1839 beschrieb Christian Friedrich Schönbein zum ersten Mal die in der Chemie einzigartige Erscheinung, dass ein Element in Gasform in zwei verschiedenen molekularen Formen nebeneinander beständig ist – Ozon und Disauerstoff. Zunächst jedoch erschien diese Tatsache zu eigenartig, als dass die einfache Deutung Schönbeins, eine Allotropie im Gaszustand, allgemeine Anerkennung gefunden hätte. Die Abbaureaktionen von Ozon durch Stickoxide wurden 1970 erstmals von Paul Josef Crutzen (Nobelpreis für Chemie 1995) beschrieben. Darstellung im Labor. Ozon kann aus der Reaktion von Kaliumpermanganat mit konzentrierter Schwefelsäure gewonnen werden. Das als Zwischenprodukt entstehende instabile Dimanganheptoxid Mn2O7 zerfällt bei Raumtemperatur zu Mangandioxid und Sauerstoff, der reich an Ozon ist. Bei der Elektrolyse verdünnter Schwefelsäure (ca. 20 %) entwickelt sich an einer Gold- oder Platinanode besonders bei hohen Stromdichten Ozon. Bei guter Kühlung lassen sich so 4–5 % Ozongehalt im entstehenden Sauerstoff erreichen, eine Konzentration, die ausreicht, um alle Reaktionen des Ozons im präparativen Maßstab ausführen zu können. Über ausgefeilte Apparaturen (z. B. feine Platindrahtwendeln) und Kühlung auf −14 °C lassen sich noch erheblich höhere Ozonkonzentrationen erreichen. Ozon lässt sich weiterhin aus Luftsauerstoff unter Einwirkung von Ultraviolettstrahlung oder stillen elektrischen Entladungen herstellen. Entsprechende, als Ozonisatoren bezeichnete Geräte gibt es im Handel. Herstellung in der Technik. Aufgrund seiner Instabilität kann Ozon nicht über längere Zeit gelagert oder wie andere industriell verwendete Gase in Druckflaschen gekauft werden. Vor seiner Anwendung (chemische Synthese, Wasseraufbereitung, als Bleichmittel etc.) muss es an Ort und Stelle erzeugt werden. Zur Herstellung wird meistens getrocknete Luft oder Sauerstoff (Taupunkt mind. −65 °C) als Trägergas eingesetzt. In selteneren Fällen wird Sauerstoff mit Argon, Kohlenstoffdioxid u. ä. gemischt. Im Ozonerzeuger (Ozonisator) werden die Sauerstoffmoleküle durch stille elektrische Entladung zu Sauerstoffatomen dissoziiert, wonach noch im Plasma der Entladungsfilamente die Ozonsynthese und Ozonanreicherung stattfindet. In Luft bewegen sich typische Endkonzentrationen zwischen einem und fünf Prozent Massenanteil, in Sauerstoff zwischen sechs und dreizehn Prozent Massenanteil. Aus reinem, trockenem Sauerstoff können bis zu 90 g·m−3, aus Luft (bei Kühlung) bis zu 40 g·m−3 Ozon gewonnen werden. Für 1 kg Ozon aus Sauerstoff (im Bereich von 1–6 Gew-%) werden 7–14 kWh Strom und 1,8 m3/h Kühlwasser verbraucht. Bei Anlagen mit mehr als 20 kg Ozon pro Stunde werden üblicherweise nur Röhrenozonisatoren eingesetzt. Auch durch Überlagerung eines inhomogenen elektrischen Feldes während des Energieeintrags (Dielektrophorese) kann das chemische Gleichgewicht, welches sich aus Synthese und Zersetzung bei wenigen Gewichtsprozenten einstellt, zugunsten des Ozons verschoben werden. Obwohl die Ozonbildung aus Sauerstoff unter Wärmeabsorption erfolgt, sind Ozonerzeugerkessel in industriellen Anwendungen wassergekühlt, da fast 90 Prozent der eingetragenen Energie infolge der hohen Zersetzungsrate wieder abgeführt werden müssen. Für den Wirkungsgrad der Ozonsynthese ist die Gastemperatur ein weiterer dominierender Faktor. Wegen der hohen Reaktivität von Ozon sind nur wenige Materialien gegen Ozon beständig. Dazu gehören Edelstahl (z.B. 316L), Glas, Polytetrafluorethylen (PTFE), Perfluoralkoxy-Polymere (PFA), Polyvinylidenfluorid (PVDF) und Perfluorkautschuk. Bedingt beständig ist Viton, das unter Ozon keiner mechanischen Wechselbelastung ausgesetzt werden darf. Lagerung. Flüssiges Ozon lässt sich in Form einer 30 bis 75 %igen Lösung in flüssigem Sauerstoff bei −183 °C in Gegenwart von Stabilisatoren wie CClF3, OF2, SF6 oder andere ohne Explosionsgefahr lagern. Gasförmiges Ozon lässt sich im reinen Zustand (keine Verunreinigungen durch organische Verbindungen, Schwefel oder bestimmte Metalle) bei −112 bis −50 °C bei leichtem Überdruck recht gut lagern. Ozon in der Wasseraufbereitung. Bei der Wasseraufbereitung dient Ozon unter anderem zur umweltfreundlichen Oxidation von Eisen, Mangan, organischer Substanz und zur Entkeimung. So gehört eine Ozonierung in vielen Trinkwasserwerken zu den zentralen Aufbereitungsstufen (siehe Weblinks). Oberflächenwasser kann in den wärmeren Jahreszeiten höhere Gehalte an Algen enthalten. Wird ein derartiges Wasser zu Brauchwasser für die Verwendung in der Industrie aufbereitet, so kann durch eine "Hochozonisierung" die Reinigungswirkung der Filteranlagen deutlich verbessert werden. Ozon tötet durch sein hohes Oxidationspotential sowohl Keime wie auch Algen weitgehend ab und verbessert die Abfiltrierbarkeit dieser feindispersen Verunreinigungen und damit die Reinigungswirkung. Auch in der Behandlung von kommunalen und industriellen Abwässern kommt Ozon zum Einsatz (Kläranlage). Die Ozonierung wird dabei der üblichen Abwasserreinigung durch Mikroorganismen zusätzlich nachgeschaltet. Allerdings handelt es sich bei Kläranlagen mit Ozonanlagen meist um Pilotprojekte (wie zum Beispiel in Regensdorf-Watt in der Schweiz), denn die Produktion von Ozon in solch großen Maßstäben ist teuer, energieaufwändig und die Schutzmaßnahmen gegen den giftigen und ätzenden Stoff sind erheblich. Zurzeit wird diskutiert, ob die Abwasserreinigung durch die ungiftige Aktivkohle nicht ungefährlicher, billiger und umweltfreundlicher ist. (b) oxidative Elimination/Transformation von nicht oder nur schlecht abbaubaren organischen Spurenstoffen (insbesondere Medikamentenrückstände). Ein Nachteil der Ozonierung ist die Entstehung von unbekannten und möglicherweise giftigen Produkten, wenn Ozon mit Schadstoffen im Wasser reagiert. So wird die Bildung von krebserregenden Nitrosaminen vermutet. Des Weiteren werden einige Schadstoffe, zum Beispiel iodhaltige Röntgenkontrastmittel, von Ozon praktisch nicht abgebaut. Sie gelangen deshalb weiterhin in die Umwelt. Ozon kann sehr gut in Verfahrenskombinationen mit nachfolgenden biologischen Systemen (Biofilter) eingesetzt werden, so beispielsweise bei der Oxidation des chemischen Sauerstoffbedarfs (CSB) zum biologischen Sauerstoffbedarf (BSB), der dann im Biofilter weiterverarbeitet wird. Ebenso findet Ozon in Fischkreisläufen in der Aquakultur oder Aquariensystemen Anwendung. Bei den meisten „chlorfrei“ benannten Produkten oder Verfahren wird Ozon eingesetzt, so zum Beispiel beim Bleichen von Papier. In diesem Zusammenhang ist oft von „aktivem Sauerstoff“ die Rede. Ozonbehandlung von Fahrzeugen. Eine sogenannte Ozonbehandlung wird in der professionellen Fahrzeugaufbereitung vorgenommen. Insbesondere bei Gebrauchtwagen mit Geruchsbelastung im Innenraum (z. B. ehemalige Raucherfahrzeuge) kann diese so beseitigt werden. Durch die oxidierende Wirkung des Ozons werden Geruchsstoffe in geruchsneutrale Stoffe umgewandelt. Ebenso werden Keime und geruchverursachende Bakterien dabei – auch an sonst unzugänglichen Stellen – abgetötet. Als Ergebnis ist das Fahrzeug nach dieser Behandlung desinfiziert und in der Regel geruchsfrei. Waschmaschinen. Einige moderne Waschmaschinen haben ein Ozonprogramm, welches Umgebungsluft nutzt und mittels eines Ozongenerators die Wäsche desinfiziert und Gerüche eliminiert. Auch Wäschereien nutzen diese Technik. Analyse, Einheiten. Ozon-Konzentrationen wurden früher und werden in den USA weiterhin überwiegend in ppb (also Milliardstel Volums-, Teilchen- oder Partialdruck-Anteilen) und werden SI-konform in µg/m3 angegeben. 1 ppb Ozon entspricht 2,15 µg/m3 (unter Normalbedingungen). Ozon in der Atemluft. Die EU hat schon seit längerer Zeit Richtwerte für die Ozonkonzentration festgelegt. Keine Gefahr für die Gesundheit besteht laut EU-Richtlinie durch Ozon unter einem Gehalt von 110 µg/m3. Ab einem Ein-Stunden-Mittelwert von 180 µg/m3 erfolgt die Unterrichtung der Bevölkerung, da bei dieser Konzentration die Leistungsfähigkeit empfindlicher Menschen bereits beeinträchtigt werden kann. Ab ungefähr 200 µg/m3 Ozon können Symptome wie Tränenreiz, Schleimhautreizungen in Rachen, Hals und Bronchien, Kopfschmerzen, verstärkter Hustenreiz, Verschlechterung der Lungenfunktion auftreten. Ab einem Ein-Stunden-Mittelwert von 360 µg/m3 werden Warnungen ausgesprochen, da ab dieser Konzentration Gefahr für die menschliche Gesundheit bestehen kann. In der Schweiz liegt die Grenze des Ein-Stunden-Mittelwertes bei 120 µg/m3 (ca. 60 ppb). Dieser Wert wird jedoch sehr oft überschritten. Eine langanhaltende Erhöhung der Ozonkonzentration in der Atemluft führt zu einem erhöhten Risiko, an Atemwegserkrankungen zu sterben. Erhöhte Immissionswerte treten vor allem im Einflußbereich von Industriegroßräumen und Autobahnen auf. Dabei wirken sich meteorologische Effekte stark auf die lokale Bildung und den Transport des Ozons aus, so dass räumliche Abhängigkeiten über mehrere Hundert Kilometer entstehen können. Raumluftionisatoren. Einige Ionisatoren bilden Ozon, um geruchlich wahrgenommene Moleküle der Umgebungsluft zu spalten und zu eliminieren. Allerdings bergen die Abbauprodukte von Nikotin und Zigarettenrauch, neben dem Ozon selbst, hohe gesundheitliche Risiken, so dass z. B. die Deutsche Lungenstiftung davor warnt, den schlechten Geruch verrauchter Räume mit Ozon generierenden Luftreinigern zu beseitigen. Fotokopierer. Bei älteren Fotokopierern sowie Laserdruckern kann man einen typischen „Ozongeruch“ wahrnehmen. Dieser Geruch rührt nur indirekt vom durch die Ionisation der Luft im Gerät gebildeten Ozon her; er kommt vielmehr durch Spuren nitroser Gase (NOx) zustande, die durch Reaktion des Ozons mit dem Luftstickstoff gebildet werden. Das Funktionsprinzip der Geräte erfordert eine Ionisierung der Luft bei Spannungen von 5–15 kV. Meist besitzen die Geräte Ozonfilter, die das produzierte Ozon in Kohlendioxid umwandeln. Dennoch sollten diese Geräte möglichst nicht in unbelüfteten Räumen verwendet werden. Moderne Drucker und Fotokopierer arbeiten mit einer Transferrollentechnik, welche die Ozonbildung verhindert und die ältere Coronadrahttechnologie weitestgehend ersetzt hat. Online-Spiel. Online-Spiele (auch bekannt als Internet-Spiele) sind Computerspiele, die online über das Internet gespielt werden. Geschichte. In der Anfangszeit in den 1970er und 1980er Jahren bestanden die Online-Spiele vor allem aus Text-Adventures, MUDs und bekannten Brettspielen (Schach, Go usw.), frühe Spiele liefen noch über Mailboxen oder andere nicht-Internet Verbindungen. Mit Ultima Online etablierte sich 1997 erstmals ein grafisches MMORPG, bei dem mehrere tausend Spieler gleichzeitig online sein können. Inzwischen gibt es Spiele, in denen zehntausende von Spielern - meist über mehrere Server oder Cluster verteilt - interagieren. Überblick. Online-Spiele lassen sich technisch in zwei Kategorien unterteilen: Zum einen gibt es Browser-basierte Online-Spiele (Browserspiele, Social Network Games), Single- oder Multiplayer, die entweder auf reinem HTML-Code basieren oder zusätzliche Browser-Plug-Ins (z. B. Flash oder Java) benötigen. Zum Anderen gibt es Client-basierte Multiplayer-Online-Spiele. Diese setzen die Installation einer Client-Software voraus. Die Client-Software verbindet sich dann entweder mit anderen Clients – diese Peer-to-Peer Architektur ist besonders bei Strategie- und Actionspiele für kleine Spielerzahlen verbreitet – oder sie stellt eine Verbindung zu einem Spielserver her. So funktionieren die meisten Online-Ego-Shooter und sämtliche MMOGs. Es sind zahlreiche weitere Unterteilungen möglich, z. B. nach Kosten und Genre. Inzwischen verfügen viele Spiele aller Arten über – teils optionale – Online-Elemente. Technik. Online-Spiele verwenden auf Serverseite häufig eine Datenbank, um die Spielinformationen zu speichern und so Persistenz zu gewährleisten. Die vom Client zum Server übertragenen Daten sind meist verschlüsselt, und es wird in den Nutzervereinbarungen verboten sie zu dekodieren, um das Spiel vor Hacks zu schützen. Sehr viele Benutzer gleichzeitig mit einem Server zu verbinden stellt immer noch eine technische Herausforderung dar. Daher werden in MMOs normalerweise die Spieler auf mehrere Server verteilt. Der Übergang zwischen den einzelnen Servern ist teils möglich, teils nicht. Organisation für wirtschaftliche Zusammenarbeit und Entwicklung. Die Organisation für wirtschaftliche Zusammenarbeit und Entwicklung (, OECD;, "OCDE") ist eine Internationale Organisation mit 34 Mitgliedstaaten, die sich der Demokratie und Marktwirtschaft verpflichtet fühlen. Die meisten OECD-Mitglieder gehören zu den Ländern mit hohem Pro-Kopf-Einkommen und gelten als entwickelte Länder. Sitz der Organisation und ihrer Vorgängerorganisation OEEC ist seit 1949 Schloss La Muette in Paris. Geschichte und Aufgaben. Die OECD wurde 1961 als Nachfolgeorganisation der Organisation für europäische wirtschaftliche Zusammenarbeit (englisch "Organisation for European Economic Co-operation" "OEEC") und des Marshallplans zum Wiederaufbau Europas gegründet, die seit dem 16. April 1948 agierten. Das Ziel der OEEC war, ein gemeinsames Konzept zum wirtschaftlichen Wiederaufbau und zur Zusammenarbeit in Europa zu erarbeiten und umzusetzen. Insbesondere sollten die europäischen Länder in den Entscheidungsprozess über die Verwendung der Gelder aus dem Marshallplan eingebunden werden. Nach Abwicklung der Marshallplanhilfe wurde weiterer Bedarf für einen Austausch über wirtschaftspolitische Fragen gesehen und die OEEC im September 1961 in die OECD überführt. In den ersten Jahren ihres Bestehens zählte die OEEC 20 Mitglieder (17 europäische Staaten sowie die USA, Kanada und die Türkei). In den 1960er Jahren traten in die nun OECD genannte Organisation Italien (1962), Japan (1964) und Finnland (1969) bei, es folgten Australien (1971) und Neuseeland (1973), in den 1990er Jahren kamen Mexiko (1994), Tschechien (1995), Ungarn (1996), Südkorea (1996), Polen (1996) und die Slowakei (2000) hinzu und 2010 traten Chile, Slowenien, Israel sowie Estland bei. Heute versteht sich die OECD als Forum, in dem Regierungen ihre Erfahrungen austauschen, "best practice" identifizieren und Lösungen für gemeinsame Probleme erarbeiten. In der Regel ist Gruppenzwang der wichtigste Anreiz für die Umsetzung der erarbeiteten Empfehlungen. Häufig werden im Rahmen der OECD auch Standards und Richtlinien erarbeitet, gelegentlich auch rechtlich verbindliche Verträge. Laut OECD-Konvention sind die Ziele der Organisation Das Mandat der OECD ist sehr breit und erstreckt sich mit Ausnahme der Verteidigungspolitik über fast alle Politikbereiche. Die Analysen und Empfehlungen der OECD zur Wirtschaftspolitik der Mitgliedstaaten orientieren sich an einer liberalen, marktwirtschaftlichen und effizienten Wirtschaftsordnung. Für die Arbeits- wie für die Produktmärkte spricht sich die Organisation für den Abbau von Schranken und für mehr Wettbewerb aus. In den vergangenen Jahren haben Bildungspolitik und Sozialpolitik an Gewicht gewonnen. So hat sich die OECD mit den PISA-Studien zu einem Fürsprecher von Chancengleichheit im Bildungssystem gemacht. Ende 2008 hat die Organisation in einer Studie auf eine Zunahme von Armut und Ungleichheit (Einkommensschere) in ihren Mitgliedstaaten hingewiesen. In den internationalen Wirtschaftsbeziehungen sind der freie Waren- und Kapitalverkehr Kernziele der Organisation. Gleichzeitig wurden und werden im Rahmen der OECD Standards erarbeitet, um negativen Seiten der Globalisierung entgegenzutreten. Dazu gehören die OECD-Leitsätze für multinationale Unternehmen als Standards für Direktinvestition und die Zusammenarbeit mit Zulieferern, die OECD-Konvention gegen Bestechung ausländischer Amtsträger sowie Standards zur Verhinderung von Geldwäsche und Steuerflucht. Aufbau und Entscheidungsfindung. Die OECD ist keine supranationale (überstaatliche) Organisation, sondern hat eher den Charakter einer permanent tagenden Konferenz. Die Organisation ist strikt intergouvernemental (zwischenstaatlich) verfasst, ihre Beschlüsse sind völkerrechtlich bindend, in den Mitgliedstaaten aber nicht unmittelbar anwendbar. Oberer Rat. Der obere Rat ist das oberste Entscheidungsorgan der OECD und setzt sich zusammen aus je einem Vertreter der Mitgliedstaaten und der Europäischen Kommission. Er tagt regelmäßig auf Botschafterebene. Mindestens einmal jährlich findet ein Treffen auf Ministerebene statt, um das Arbeitsprogramm der Organisation festzulegen. Beschlüsse werden im Konsens gefasst. Länder können sich aber enthalten. Macht ein Land von dieser Möglichkeit Gebrauch, muss es die betreffende Empfehlung nicht anwenden. Generalsekretär. Der Generalsekretär führt den Vorsitz im Rat, wenn dieser auf Botschafterebene tagt. Gleichzeitig untersteht ihm das Sekretariat. Er wird für fünf Jahre von den Mitgliedstaaten im Einvernehmen ernannt. Amtsinhaber ist seit Juni 2006 der ehemalige mexikanische Finanz- und Außenminister José Ángel Gurría. Derzeit wird der Generalsekretär von vier stellvertretenden Generalsekretären unterstützt. Sekretariat. Das Sekretariat setzt die Beschlüsse des Rates um, unterstützt die Ausschüsse und Arbeitsgruppen in ihrer Arbeit und erarbeitet Vorschläge für neue Aktivitäten. Von den rund 2500 Mitarbeitern sind etwa 1600 Experten, zumeist Ökonomen, Juristen, Natur- oder Sozialwissenschaftler. Das Sekretariat ist in zwölf inhaltliche Direktionen und sechs Zentralabteilungen gegliedert. Die meisten Bediensteten arbeiten am Hauptsitz in Paris. Verbindungsbüros unterhält die OECD in Berlin, Mexiko-Stadt, Tokio und Washington, D.C. Ausschüsse und Arbeitsgruppen. In den rund 200 Ausschüssen und Arbeitsgruppen findet die Facharbeit der Organisation statt. Delegierte aus den Ministerien und Behörden der Mitgliedstaaten tauschen sich hier aus, diskutieren die Arbeit des Sekretariats oder liefern eigene Beträge. Etwa 40.000 Vertreter aus nationalen Verwaltungen nehmen jährlich an solchen OECD-Arbeitstreffen teil. An vielen dieser Gremien nehmen auch Vertreter von Nicht-Mitgliedern als Beobachter teil. Finanzierung. Die OECD finanziert sich aus Beiträgen der Mitgliedstaaten, also letztlich aus Steuermitteln. Das Zentralbudget (2008: 343 Mio. €) wird nach einem von der Wirtschaftskraft abhängigen Beitragsschlüssel von den Mitgliedern getragen. Mit 25 Prozent sind die USA der größte Beitragszahler, gefolgt von Japan (16 Prozent) und Deutschland (9 Prozent). Die Schweiz trägt 1,5 Prozent und Österreich 1,1 Prozent zum Zentralbudget bei. Darüber hinaus können die Mitgliedstaaten über freiwillige Beiträge zusätzlich Projekte finanzieren. In diesem Rahmen werden auch die Kosten für die PISA-Studie getragen. Im Jahr 2008 betrug das Budget der OECD 343 Mio. € und wurde, wie hier gezeigt, entsprechend der Wirtschaftskraft der Mitgliedstaaten aufgeteilt. Zusammenarbeit mit der Zivilgesellschaft. Über besondere Beratungsgremien gibt es einen institutionalisierten Austausch mit Vertretern der Wirtschaft (BIAC) und der Arbeitnehmer (TUAC). Darüber hinaus finden zu einzelnen Vorhaben öffentliche Anhörungen statt, und Nicht-Regierungsorganisationen werden von verschiedenen Ausschüssen und Arbeitsgruppen in die Arbeit einbezogen. Das jährlich rund um das Ministerratstreffen stattfindende OECD Forum soll darüber hinaus einem regelmäßigen Austausch mit der Zivilgesellschaft dienen. Mitgliedstaaten. Derzeit hat die OECD 34 Mitglieder Erweiterung und Beziehungen zu Nicht-Mitgliedern. Im Unterschied zu vielen anderen internationalen Organisationen steht die Mitgliedschaft in der OECD nicht automatisch allen Ländern offen. Nach Beitrittsverhandlungen entscheiden die OECD-Mitglieder, ob und unter welchen Bedingungen ein Land aufgenommen wird. Am 16. Mai 2007 hat die OECD Chile, Estland, Israel, Russland und Slowenien zu Beitrittsgesprächen eingeladen. Außerdem wurde mit den großen Schwellenländern Brasilien, Volksrepublik China, Indien, Indonesien und Südafrika eine „verstärkte Zusammenarbeit mit Blick auf eine mögliche Mitgliedschaft“ vereinbart. Diese arbeiten schon heute sowie 70 weitere Staaten in den verschiedenen Ausschüssen und Arbeitsgruppen der OECD mit. Seit Mitte 2007 findet bei der OECD ein Dialog zwischen den G8-Staaten und den großen Schwellenländern Brasilien, China, Indien, Mexiko und Südafrika statt. Dieser Heiligendamm-Prozess wurde auf dem G8-Gipfel in Heiligendamm vereinbart und soll zu den Themen Investitionen, Energieeffizienz und Klimaschutz, Schutz geistigen Eigentums und Entwicklungspolitik zu einer Verständigung zwischen den großen Industrie- und Schwellenländern beitragen. Am 7. Mai 2010 vollzog Chile als erster Staat Südamerikas den Beitritt zur OECD und am 27. Mai 2010 wurden Estland, Israel und Slowenien eingeladen, der Organisation beizutreten. Am 21. Juli 2010 vollzog Slowenien, am 7. September 2010 Israel und am 9. Dezember 2010 Estland den Beitritt. Im Mai 2013 wurden Beitrittsgespräche mit Kolumbien und Lettland aufgenommen, Gespräche mit Costa Rica und Litauen sollen 2015 folgen. Des Weiteren haben bereits Malaysia und Peru Interesse an einer Mitgliedschaft bekundet. Arbeitsbereiche. Die Arbeit der OECD ist sehr breit gefächert und berührt abgesehen von der Verteidigungspolitik fast alle Bereiche des staatlichen Handelns. Die Organisation selbst teilt ihre Tätigkeit in die sieben Kategorien Wirtschaft, Gesellschaft, Innovation, Finanzen, Governance, Nachhaltigkeit sowie Entwicklung. Diese Kategorien sind in insgesamt 29 Unterthemen gegliedert. Altersvorsorge. Die Organisation analysiert und vergleicht die Alterssicherungssysteme der Mitgliedstaaten. Von zentraler Bedeutung sind dabei die alle zwei Jahre erscheinenden Modellrechnungen zur Altersrente im Verhältnis zum Einkommen während der Erwerbsphase. Auf dieser Basis und angesichts einer Zunahme prekärer Erwerbsverhältnisse und unterbrochener Erwerbsbiografien hat die Organisation wiederholt vor der Gefahr von Altersarmut in Deutschland gewarnt. Beschäftigungspolitik. Die Analysen konzentrieren sich auf effektive Gestaltung der Arbeitsmarktpolitik. Grundlage dafür sind unter anderem Statistiken zur Erwerbsbeteiligung und Indikatoren zum Verhältnis von Arbeitslohn und Lohnersatzleistungen. Der jährlich erscheinende OECD-Beschäftigungsausblick gibt einen Überblick über die Entwicklung der Beschäftigung und fasst aktuelle Studien der Organisation zur Arbeitsmarktpolitik zusammen. Insgesamt hat die Organisation in den vergangenen Jahren einen deutlichen Kurswechsel in der Arbeitsmarktpolitik vollzogen. So wurde Mitte der 1990er Jahre noch eine Liberalisierung der Arbeitsmärkte mit Abbau von Kündigungsschutz, Einschränkung von Gewerkschaftsmacht und Kürzung von Arbeitslosenunterstützung nach angelsächsischem Modell propagiert. Mit der revidierten „Job Strategy“ von 2006 erkennt nun neben dem angelsächsischen auch das skandinavische Modell der Arbeitsmarktpolitik mit geringem Kündigungsschutz aber gute Absicherung bei Arbeitslosigkeit und aktiver Vermittlung in den Arbeitsmarkt als erfolgversprechend an. Bildung. Der ökonomische Nutzen von Bildung für den Einzelnen und die Gesellschaft sowie Chancengleichheit im Bildungssystem stehen in der bildungspolitischen Arbeit im Vordergrund. In der jährlich erscheinenden Publikation Bildung auf einen Blick veröffentlicht die OECD vergleichende Statistiken und Indikatoren zum Ressourceneinsatz in Form von Finanzmitteln oder Personalausstattung in nationalen Bildungssystemen und analysiert, wie sich Bildung auf Innovationskraft und Arbeitsmarkt auswirken. Mit der PISA-Studie hat die Organisation sich international einen Namen bei der Messung von nach bestimmten Kriterien entwickelten Leistungsdaten 15-Jähriger gemacht. Die PISA-Studie ist "keine" Untersuchung der Leistungsfähigkeit von Schulsystemen, wenngleich dies in der Öffentlichkeit so wahrgenommen wurde. Ähnliche Studien zur Untersuchung des Kompetenzstandes von Erwachsenen und Hochschulabsolventen sind in Arbeit beziehungsweise in Vorbereitung. Darüber hinaus erforscht die Organisation, wie das Management in Schule und Hochschule verbessert werden kann. Entwicklungszusammenarbeit. Zentraler Bestandteil der Arbeit in diesem Bereich sind Statistiken und Berichte über die Entwicklungshilfezahlungen der OECD-Länder im Ausschuss für Entwicklungshilfe (DAC). In jährlichen Berichten wird überprüft ob die öffentliche Entwicklungshilfe (ODA) den gemachten Zusagen entspricht. In den vergangenen Jahren haben mit Arbeiten rund um die Paris Declaration on Aid Effectivness Analysen zu einem effizienteren Einsatz von Entwicklungshilfe zugenommen. Daneben berichtet die Organisation regelmäßig über die wirtschaftliche Entwicklung in Afrika und Lateinamerika. Korruptionsbekämpfung. Im Kampf gegen Korruption ist die OECD Vorreiter und einer der zentralen internationalen Akteure. 1998 wurden im Rahmen der OECD die ersten internationalen Abkommen im Kampf gegen grenzüberschreitende Bestechung geschlossen. Mit der OECD-Konvention gegen Bestechung ausländischer Amtsträger wird die Bestechung ausländischer Amtsträger auch im Herkunftsland unter Strafe gestellt und verfolgt. Außerdem wurde die steuerliche Absetzbarkeit für Bestechungszahlungen abgeschafft, die bis dahin auch in Deutschland gegolten hatte. Gleichzeitig unterstützt die Organisation Mitgliedstaaten und Nichtmitglieder im Rahmen von regionalen Initiativen die Anfälligkeit gegen Korruption zu verringern. Migration. Migration wird aus der Sicht der Ziel- wie der Herkunftsländer analysiert. Aus Sicht der Zielländer steht die Integration von Migranten in den Arbeitsmarkt und die Sozialstruktur im Vordergrund. Aus Sicht der Herkunftsländer werden die wirtschaftlichen Folgen von Migration etwa durch Rücküberweisungen oder den Verlust an Fachkräften analysiert. Umwelt. Die Arbeiten im Umweltschutz sollen helfen, eine effiziente und effektive Politik zur Bewältigung von Umweltproblemen und zur nachhaltigen Bewirtschaftung von Naturressourcen zu konzipieren und umzusetzen. In Länderberichten erarbeitet die Organisation konkrete Empfehlungen zur Verbesserung der Umweltpolitik. Im Jahr 2008 hat die OECD eine umfassende Analyse zu den großen Herausforderungen in der Umweltpolitik vorgelegt. Anlässlich des Anfang Oktober 2013 erschienen OECD-Berichts „Climate and carbon: Aligning prices and policies“ sprach sich Generalsekretär Gurria dafür aus, die CO2-Bepreisung (z.B. durch eine CO2-Steuer oder Emissionsrechtehandel) zum Eckpfeiler der internationalen Klimapolitik zu machen. Um das Zwei-Grad-Ziel zu erreichen, müssten die CO2-Emissionen durch die fossile Energiegewinnung bis zur zweiten Hälfte dieses Jahrhunderts auf Null reduziert werden. Steuern. Im Bereich Steuern und Steuerpolitik hilft die OECD den Mitgliedstaaten, ihre Steuersysteme an die Bedingungen der globalisierten Wirtschaft anzupassen. Die Organisation veröffentlicht unter anderem Statistiken zum Steueraufkommen in den OECD-Ländern sowie Indikatoren zur Steuer- und Abgabenlast auf Arbeitseinkommen. Diese sind die Grundlage für Analysen und Empfehlungen für eine wachstumsfördernde Steuer- und Fiskalpolitik. Zur Koordinierung der grenzüberschreitenden Besteuerung erarbeitet die OECD Referenzwerke wie das OECD-Musterabkommen und die Richtlinien für Verrechnungspreise. Standards zum internationalen Informationsaustausch in Steuersachen sollen helfen, grenzüberschreitende Steuerhinterziehung einzudämmen. Verantwortliche Unternehmensführung. Mit einer Reihe von Standards versucht die Organisation eine verantwortungsvolle Unternehmensführung zu etablieren. Die OECD-Leitsätze zur Unternehmensführung stellen den wichtigsten internationalen Standard zum Aktien- und Unternehmensrecht dar. Die OECD-Leitsätze für multinationale Unternehmen setzen Standards bei Auslandsinvestitionen und in den Beziehungen zu Zulieferern. Wirtschaftspolitik. Die Analysen zur Wirtschaftspolitik sind in Konjunktur- und Strukturpolitik gegliedert. Zweimal jährlich veröffentlicht die OECD in ihrem Wirtschaftsausblick eine Konjunkturprognose für alle OECD-Länder und große Schwellenländer. Diese Prognose wird durch eine Zwischenbewertung für die großen Wirtschaftsräume sowie die G7-Staaten ergänzt. Darüber hinaus werden alle eineinhalb Jahre für jedes OECD-Land und einige Nicht-Mitglieder umfassende Wirtschaftsberichte mit konkreten wirtschaftspolitischen Empfehlungen erarbeitet. Diese Berichte sind Teil der in der OECD üblichen Peer Reviews, denn die Empfehlungen spiegeln den Konsens der Mitgliedstaaten wider. Die Länderberichte werden von den Gewerkschaften der betreffenden Länder regelmäßig zurückgewiesen, insbesondere was die Arbeitsmarktpolitik angeht, weil sie zu unspezifisch nicht die besonderen, historisch gewachsenen Gegebenheiten berücksichtigten und politisch einseitig von einem neoliberalen Bewertungsschema ausgehen. Weitere Themen. Weitere Themen der Organisation sind Biotechnologie, Bürokratieabbau, Energie, Gesundheit, Handel, Innovation, Investitionen, Landwirtschaft, Öffentliche Verwaltung, Räumliche Entwicklung und Wettbewerbspolitik. Publikationen. Ein wesentlicher Teil der Arbeit der OECD besteht in der Sammlung und Aufbereitung von Statistiken und Indikatoren sowie in der Erarbeitung von Studien. Rund 300 Titel veröffentlicht die Organisation pro Jahr. Alle Datenbanken und Studien werden in der Onlinebibliothek OECD iLibrary zur Verfügung gestellt. Ein Überblick über wichtige Strukturdaten findet sich im jährlich erscheinenden OECD-Factbook. Die meisten Daten sind mittlerweile über die (kostenpflichtige) Plattform OECD.Stat erhältlich. Eine kostenfreie Auswahl steht mit OECD-Stat Extracts zur Verfügung. Organisation für Sicherheit und Zusammenarbeit in Europa. Die Organisation für Sicherheit und Zusammenarbeit in Europa (OSZE;, "OSCE") ist eine verstetigte Staatenkonferenz zur Friedenssicherung. Sie entstand zum 1. August 1975 mit der Schlussakte von Helsinki aus der vormaligen Konferenz über Sicherheit und Zusammenarbeit in Europa (KSZE). Die Umbenennung wurde am 1. Januar 1995 wirksam. Der Sitz des Generalsekretariats und der wichtigsten Gremien ist Wien. Ziele. Die Ziele der OSZE sind die Sicherung des Friedens und der Wiederaufbau nach Konflikten. Sie sieht sich selbst als stabilisierenden Faktor in Europa. Als regionale Abmachung nach Kapitel VIII der Charta der Vereinten Nationen soll die OSZE nach dem Subsidiaritätsprinzip als erster internationaler Ansprechpartner bei Konflikten innerhalb ihres Wirkungsbereiches dienen. Sie wird als System kollektiver Sicherheit angesehen und steht damit durchaus in Konkurrenz zur NATO, die allerdings deutlich militärischer ausgerichtet ist. Nach dem Prinzip „OSZE zuerst“ arbeitet sie auch mit Internationalen Organisationen zusammen. Bedingt durch das ergebnislose Gipfeltreffen 2010 blieb die Frage einer künftigen Zielsetzung der OSZE offen. Die Aktivitäten der OSZE gliedern sich in drei Themenbereiche („Dimensionen“), die auf die drei Körbe der Schlussakte von Helsinki zurückgehen. Diese sind die Politisch-Militärische Dimension, die Wirtschafts- und Umweltdimension und die Humanitäre (Menschenrechts-) Dimension. Gremien und Organe. Tagung des ständigen Rates 2005 in Wien a>, z. B. durch Stützpunkte, wie in diesem Bild gezeigt Büro für demokratische Institutionen und Menschenrechte. Das Büro für demokratische Institutionen und Menschenrechte (BDIMR, mit der englischen Abkürzung "ODIHR" bezeichnet) ist die „Hauptinstitution der Menschlichen Dimension“ (Korb III) der OSZE. Ursprünglich war das "Büro für Freie Wahlen" (eine Institution für internationale Wahlbeobachtung) die Komponente der Menschlichen Dimension im Institutionenpaket, über das auf dem Pariser Gipfel der KSZE 1990 verhandelt werden sollte. Seine erste Aufgabe bestand darin, die Wahlen in den ehemaligen Ostblock-Staaten Mittel- und Osteuropas sowie in den zentralasiatischen Republiken der ehemaligen Sowjetunion zu beobachten. Mit dem Helsinki-Dokument von 1992 wird das ODIHR weiter gestärkt, Norwegen ließ den Begriff der Demokratisierung und Menschenrechte in den Institutionentitel aufnehmen. In der Folge organisiert das ODIHR alle zwei Jahre ein Implementierungstreffen in Warschau, das die Einhaltung der OSZE-Verpflichtungen aus Korb III überwacht und an dem neben den OSZE-Teilnehmerstaaten auch andere zwischenstaatliche Organisationen und Nichtregierungsorganisationen teilnehmen. Darüber hinaus organisiert es Seminare, unterstützt die Missionen der OSZE und den Aufbau demokratischer Strukturen durch vielfältige andere Maßnahmen, sammelt Informationen und stellt sie zur Verfügung und publiziert Anleitungen. Weiterhin macht die Wahlbeobachtung einen großen Teil der Aktivitäten aus. Direktor des ODIHR ist seit Juli 2014 der frühere Staatsminister im Auswärtigen Amt, Michael Georg Link. Wirtschafts- und Umweltdimension. Die Wirtschafts- und Umweltdimension geht auf den zweiten sog. „Korb“ von Helsinki (Zusammenarbeit in den Bereichen Technologie, Wissenschaft, Wirtschaft und Umwelt) zurück. In der Wirtschafts- und Umweltdimension kümmert sich die Organisation unter anderem um die Bekämpfung von Korruption, Geldwäsche, Finanzierung des Terrorismus, organisierter Kriminalität, sowie Internetkriminalität. Außerdem fördert die OSZE Zusammenarbeit im Umweltbereich, der Wasserverwaltung, Migrationsfragen und Energie. Hoher Kommissar für nationale Minderheiten. Der Posten des Hohen Kommissars für nationale Minderheiten (HKNM) wurde auf dem Gipfel 1992 in Helsinki geschaffen. Das Büro des HKNM befindet sich in Den Haag und beschäftigt etwa 10 Mitarbeiter. Geprägt wurde dieses Amt der stillen Diplomatie seit 1992 durch den Niederländer Max van der Stoel, der 2001 von dem Schweden Rolf Ekéus abgelöst wurde. Der aktuelle Hohe Kommissar ist der Norweger Knut Vollebæk. Das Amt soll Spannungen, die den Frieden, die Stabilität oder die guten Beziehungen zwischen den OSZE-Teilnehmerstaaten gefährden könnten und sich aus ethnischen Spannungen entwickeln, erkennen und lösen. Sein Mandat erlaubt dem Hohen Kommissar (High Commissioner on National Minorities, HCNM) das frühe Eingreifen, also die Präventivdiplomatie. Das Mandat des HKNM ist im Vergleich zu den bisherigen Instrumenten der Konfliktbekämpfung innovativ, da es die zwischenstaatliche Ebene verlässt und so ein direktes Ansetzen im betroffenen Staat ermöglicht. Der HKNM dient der Frühwarnung bei Spannungen in Bezug auf nationale Minderheiten, und er kann im Zuge seines Engagements zum Ergreifen von Frühmaßnahmen vom Hohen Rat ermächtigt werden. Beauftragter für die Freiheit der Medien. Schließlich wird mit der Entscheidung 193 auf der Sitzung des Ständigen Rats am 5. November 1997 als jüngste dieser drei unabhängigen Institutionen das Amt des Beauftragten für Medienfreiheit (Representative on Freedom of the Media, RFOM) mit Sitz in Wien eingerichtet. Die Schaffung der Institution des OSZE-Beauftragten für Medienfreiheit geht auf eine deutsche Initiative zurück. Sie beruht auf der Anerkennung der besonderen Bedeutung von OSZE-Verpflichtungen hinsichtlich der Freiheit der Meinungsäußerung und der Rolle freier und pluralistischer Medien. Der Auftrag für die Schaffung der neuen Institution erging durch den OSZE-Gipfel, der im Jahr 1996 in Lissabon stattfand. Das Mandat wurde durch den Ministerrat in Kopenhagen (Dezember 1997) verabschiedet, durch den auch die Ernennung von MdB a. D. Freimut Duve zum ersten OSZE-Beauftragten für Medienfreiheit erfolgte. Sein Nachfolger war von März 2004 bis März 2010 (ebenfalls für die zulässige Dauer von zwei Amtszeiten) der Ungar Miklós Haraszti. Im März 2010 wurde Dunja Mijatovic aus Bosnien-Herzegowina zur OSZE-Medienbeauftragten ernannt. Der Medienbeauftragte hat vergleichbar dem Hohen Kommissar für nationale Minderheiten der OSZE eine Frühwarnfunktion. Er wird tätig bei Einschränkungen der Medienfreiheit, die in der Regel Anzeichen einer konfliktträchtigen politischen Entwicklung sind. Bei Verdacht auf ernste Verstöße gegen OSZE-Prinzipien hat der Medienbeauftragte die Möglichkeit, direkte Kontakte mit dem Teilnehmerstaat und anderen Parteien aufzunehmen und den Sachverhalt zu beurteilen sowie dem Teilnehmerstaat Hilfestellung zu leisten und zur Lösung des Problems beizutragen. Weitere Gremien und Institutionen. Nicht unmittelbar zur OSZE gehörig, jedoch an die Organisation in Wien angebunden, ist die OSCC, die für die Umsetzung des Vertrags über den Offenen Himmel (Open Skies) verantwortlich ist. Vorläufer. Vorläufer der OSZE war die Konferenz über Sicherheit und Zusammenarbeit in Europa (KSZE), die auf eine Initiative des Warschauer Paktes hin zustande kam. Ab den 1950er Jahren hatte die Sowjetunion eine derartige Konferenz gefordert, aber die Westmächte, allen voran Westdeutschland, hatten dies abgelehnt. Bonn befürchtete, aus solchen Gesprächen könne auch eine internationale Akzeptanz der deutschen Teilung entstehen. Erst die neue Ostpolitik der sozial-liberalen Koalition unter Bundeskanzler Willy Brandt (SPD) Anfang der 1970er brachte den Gedanken einer KSZE im Westen auf die Tagesordnung. Unter Brandts Motto „Wandel durch Annäherung“ wurde die eisige Stimmung des Kalten Krieges aufgelockert und die KSZE ermöglicht. Die erste dieser multinationalen Konferenzen fand von 1973 bis 1975 in Helsinki statt. Teilnehmer der blockübergreifenden Konferenz waren alle europäischen Staaten (mit Ausnahme von Albanien), die Sowjetunion sowie die USA und Kanada. Die Konferenz war von einem Tauschgeschäft geprägt: Für den Ostblock brachte sie die Anerkennung der Grenzen der Nachkriegsordnung und einen stärkeren wirtschaftlichen Austausch mit dem Westen. Im Gegenzug machte der Osten Zugeständnisse bei den Menschenrechten. In den Folgejahren entstanden in mehreren sozialistischen Ländern Bürgerrechtsbewegungen, die sich auf die Schlussakte von Helsinki beriefen und zum Zusammenbruch des Ostblocks beitrugen, so dass die KSZE entscheidend zum Ende des Ost-West-Konflikts beitrug. Die ursprünglich als einmalige Veranstaltung geplante Konferenz wurde unter anderem mit den KSZE-Folgekonferenzen in Belgrad (1977–1978), Madrid (1980–1983), Wien (1986–1989) und wiederum Helsinki (1992) fortgeführt. Beim KSZE-Gipfeltreffen am 5. und 6. Dezember 1994 in Budapest wurde beschlossen, die KSZE zu institutionalisieren und mit Wirkung vom 1. Januar 1995 in "Organisation für Sicherheit und Zusammenarbeit in Europa (OSZE)" umzubenennen. Gipfeltreffen 2010. Nach einer elfjährigen Pause fand das erste OSZE-Gipfeltreffen vom 1. bis 2. Dezember 2010 in Astana statt. Den Vorsitz der Konferenz führte der kasachische Präsident Nursultan Nasarbajew. Auffassungsunterschiede zwischen westlichen und östlichen Mitgliedsländern bezüglich einer künftigen inhaltlichen und strategischen Ausrichtung der OSZE führten zu einem weiteren ergebnislosen Abschluss der Konferenz. Die geplante Verabschiedung eines Aktionsplanes zur Lösung internationaler Konflikte und zur Reform der OSZE scheiterte. Ministerrat 2014. Zum Abschluss des Treffens am 5. Dezember 2014 in Basel gab es Deklarationen, aber keine Abschlusserklärung. Der Vorsitzende Didier Burkhalter erklärte, dass sich die Sicherheitslage in Europa im Jahr 2014 verschlechtert habe aufgrund der Ukraine-Krise. Vorsitz. Der Vorsitz wechselt jährlich. Als Vorsitzender agiert jeweils ein Außenminister. Rechtlicher Status. Trotz ihrer Bezeichnung ist es fraglich, ob die OSZE den Charakter einer internationalen Organisation hat, da Artikel 22 der Budapester Erklärung die Hinterlegung beim Generalsekretariat der Vereinten Nationen (gemäß Artikel 102 der Charta der Vereinten Nationen) explizit nicht vorsieht. Der Generalsekretär der Vereinten Nationen hat daher wiederholt auf eine Klärung der Rechtsnatur der OSZE gedrängt. Eine internationale Expertenkommission hat die OSZE aufgrund ihrer Tätigkeiten als internationale Organisation eingestuft; die herrschende Meinung in der Lehre sowie auch die weit überwiegende Staatenpraxis behandelt die OSZE jedoch nicht als Internationale Organisation. Ostsee. Gliederung der Ostsee (Stand 2004) Die Ostsee (auch Baltisches Meer, von lat. "Mare Balticum", oder auch "Baltische See" genannt) ist ein 412.500 km² großes und bis zu 459 m tiefes Binnenmeer in Europa und gilt als das größte Brackwassermeer der Erde, auch wenn in der westlichen Ostsee aufgrund des Wasseraustausches mit der Nordsee zumeist ein höherer Salz- und Sauerstoffgehalt beobachtet werden kann. Der Rauminhalt des Meeres beträgt rund 20.000 km³. Im Ostseeraum leben, je nachdem, wie weit man diese Region eingrenzt, zwischen 50 und 85 Millionen Menschen. Lage und Abgrenzung. Die Ostsee trennt die Skandinavische Halbinsel von den zusammenhängenden Festländern Nord-, Nordost- und Mitteleuropas. Die westlichste Stelle der Ostsee liegt am Westende der Flensburger Förde bei der Stadt Flensburg, der nördlichste Punkt befindet sich an der schwedisch-finnischen Landesgrenze am Bottnischen Meerbusen, ihre östlichste Stelle beim russischen Sankt Petersburg. Ihren südlichsten Punkt stellt das Südende des Stettiner Haffs bei Stettin dar. Die Anrainerstaaten der Ostsee sind Deutschland, Dänemark, Schweden, Finnland, Russland, Estland, Lettland, Litauen und Polen. Definitionen. Meeresstraßen zwischen Kattegatt und Ostsee Sowohl historisch als auch in den modernen Wissenschaften wurde und wird die westliche Abgrenzung der Ostsee unterschiedlich definiert. Die Helsinki-Konvention von 1992 bezeichnet das Kattegat nur als Eingang zur Ostsee: „For the purposes of this Convention the „Baltic Sea Area“ shall be the Baltic Sea and the Entrance to the Baltic Sea, bounded by the parallel of the Skaw (d. h. Breitengrad von Skagen) in the Skagerrak at 57°44.43'N.“ Aufgrund dieser Vereinbarung wird das Kattegat aber vielfach mit in die Ostsee einbezogen. Historisch verlief die Grenze durch die Beltsee, denn an den Einfahrten zur Ostsee erhob das Königreich Dänemark den Sundzoll. Die Mautstelle im Öresund war Schloss Kronborg bei Helsingør. Im Großen Belt wurde er bei Nyborg kassiert. Für den Kleinen Belt wurde der Sundzoll "Stromzoll" ("strømtold") oder "Beltzoll" ("bælttold)" genannt und seit der Gründung der Festung Fredericia 1650 dort erhoben, vorher andernorts. Die engste Stelle (Middelfartsund) liegt allerdings bei Middelfart. Das Leibniz-Institut für Ostseeforschung schreibt: „Aus physikalischer Sicht gibt es Argumente, die Trennung zwischen Nord- und Ostsee im Großen Belt bei Langeland und im Öresund auf die Drogdenschwelle zu legen.“ Auch das Sveriges Meteorologiska och Hydrologiska Institut (SMHI) zieht die Grenze zwischen Ostsee und Kattegat durch die Drodgenschwelle am Südende des Öresunds, im Großen Belt zwischen Korsør und Nyborg und im Kleinen Belt bei Middelfart. Die maximal 7 m tiefe Drogdenschwelle erstreckt sich nördlich der Køgebucht zwischen Dragør im Süden Kopenhagens und Malmö. Hier wurde die Öresundquerung mit dem "Drogdentunnel" gebaut. Demnach würden also die dänischen Ostseeinseln in der Beltsee die ungefähre Grenze der Ostsee markieren. Eine Untersuchung der schwedischen Chemikalienaufsicht Kemikalieinspektionen nimmt hingegen westlich der Drodgenschwelle die 18 m tiefe Darßer Schwelle als Begrenzung. Beide begrenzen den Zufluss von Salzwasser aus dem Kattegat und der Beltsee, da dieses unterhalb des salzarmen Ostseewassers strömt. Beim Vergleich der verschiedenen Definitionen dürfen deren Konsequenzen nicht übersehen werden: Da Kattegat, Beltsee und Öresund sauerstoff- und artenreich sind, ist die Ökologie der Ostsee statistisch betrachtet gesünder, wenn man sie einbezieht, dagegen schwer bedroht, wenn man sie nicht zur Ostsee zählt. Wasserstand. Der mittlere Wasserstand der Ostsee (Mittelwasser) liegt etwa bei Normalnull. Bei Kiel liegt er beispielsweise 1 cm unter NN, das mittlere Hochwasser (MHW) und mittlere Niedrigwasser liegen etwa 1,22 m darüber bzw. darunter. Mit einer Wahrscheinlichkeit von 80 % bleibt der Pegel im Laufe eines Jahres unter 1,45 m über Mittelwasser, er wird im Mittel alle fünf Jahre überschritten. Mit einer Wahrscheinlichkeit von 99 % bleibt der Pegel unter 2,26 m über Mittelwasser, er wird im Mittel alle 100 Jahre überschritten. Vor allem die westliche Ostsee unterliegt dem Einfluss einer regelmäßigen, aber schwach ausgeprägten Tide mit einer Periode von 12,4 Stunden und Amplituden von ca. 15 cm bei Wismar und 10 cm in Warnemünde. In der mittleren Ostsee liegt die Amplitude unter 5 cm. Sturmhochwasser. Als Sturmhochwasser wird gemeinhin ein Wasserstand von mehr als einem Meter über Normalmittelwasser bezeichnet. In Warnemünde ereigneten sich von 1950 bis 2000 etwa 110 Sturmfluten, durchschnittlich etwas mehr als zwei pro Jahr. Historische Hochwasserereignisse sind die Allerheiligenflut 1304 und weitere in den Jahren 1320, 1449, 1625, 1694, 1784 und 1825. Über ihre Ausmaße ist wenig bekannt. Seit 1872 werden an der Ostsee regelmäßig verlässlich Pegel genommen. Der höchste war das katastrophale Ostseesturmhochwasser 1872 mit 2,43 m mittlerer Wasserhöhe über NN in Warnemünde und einem Maximum von 2,83 m über NN in Warnemünde und 3,12 m bei Holnis. Die letzten sehr schweren Hochwasserereignisse waren 1904 mit 1,88 m, 1913 mit 1,89 m, im Januar 1954 mit 1,73 m, am 2.–4. November 1995 mit 1,68 m und am 21. Februar 2002 mit 1,65 m mittlerer Wasserhöhe über NN. Daten. Wassertiefen der Ostsee in Metern Salinität. Der Salzgehalt (die "Salinität") der Ostsee fällt in Richtung Osten ab. Er liegt in der Beltsee im Westen bei 19 PSU (1,9 %) und im nordöstlichen Teil (Bottenwiek und Finnischer Meerbusen) nur noch zwischen 5 bis 3 PSU (0,5 % bis 0,3 %). (Im Vergleich dazu erreicht der Salzgehalt des Atlantiks und der nördlichen Nordsee 3,5 %.) Der Rückgang des Salzgehalts verläuft dabei nicht kontinuierlich, sondern stufenweise. Dies lässt sich darauf zurückführen, dass das Bodenprofil der Ostsee eiszeitbedingt aus Becken und Schwellen besteht. Das größte Gefälle der Salzkonzentration ist im Bereich der "Darßer Schwelle" nördlich von Rostock zu finden, die die Grenze zwischen "Beltsee" und "Arkona-Becken" bildet. Westlich davon beträgt die Salinität etwa 1,7 %, östlich nur 0,8 %. Wegen des hohen Süßwassereintrags und der geringen Verdunstung der Ostsee ist ihr Salzgehalt größtenteils auf den Wasseraustausch mit dem Weltmeer zurückzuführen. Da Salzwasser schwerer ist als Süßwasser, findet zudem eine Schichtung des Seewassers statt. Besonders viel Salz findet sich im tiefen Wasser unterhalb von 60 bis 70 Metern. In den Belten und Sunden gibt es eine Oberflächenströmung mit geringem Salzgehalt von der Ostsee zum Kattegat und eine Tiefenströmung salzreichen Wassers aus dem Kattegat in die Ostsee. Über drei Viertel des Wasseraustausches finden durch den Großen Belt statt und etwa 9 % durch den Kleinen Belt. Durch die Schwellen- und Beckenstruktur des Ostseebodens bleibt aber ein beachtlicher Teil des Salzwassers im Becken der Beltsee zurück und dringt nicht weiter nach Osten vor. Zeitliche Schwankungen der Salinität kommen durch stürmische Perioden zustande, die den Wasseraustausch durch die Meerengen beschleunigen, und durch große Niederschlagsmengen, die den Süßwassereintrag (im Mittel 500 km³/Jahr) vermehren. So kommt es bei starkem Südwest-Wind dazu, dass viel Wasser in die nordöstliche Ostsee gedrückt wird und der Wasserstand in der westlichen Ostsee sinkt; gleichzeitig entsteht im Skagerrak ein Sturmhochwasser, und Nordseewasser läuft über die Beltsee in die Ostsee. Damit gelangen sowohl Salz als auch Sauerstoff in das Tiefenwasser der Ostsee. Gibt es über längere Zeit keinen neuen Zustrom, wird der Sauerstoff von den Organismen aufgebraucht. Es bildet sich giftiger Schwefelwasserstoff, der zum Beispiel Fischeier oder Larven abtötet. Der Sauerstoffvorrat eines zusätzlichen Nordseewassereinflusses während stürmischer Perioden hält etwa ein bis zwei Jahre vor. Der vorletzte solche Einbruch war 2003, der davor 1993. Noch in den 1970er Jahren fanden solche Ereignisse viel häufiger statt als heute. Im Winter 2014/15 wurde der drittumfangreichste Salzwassereinbruch seit 1880 beobachtet, als rund 4 Gigatonnen Salz in die westliche Ostsee gelangten, die größte Menge seit sechs Jahrzehnten. Gliederung unter Berücksichtigung des Bodenreliefs. Eine 2004 von Schweden veröffentlichte Gliederung orientiert sich stark am Bodenrelief des Meeres. Kattegat. Das 22.000 km² große Kattegat wird von den Anrainern zumeist als eigenständiges Meeresgewässer betrachtet. Im Gegensatz zur Ostsee ist es ozeanografisch, biologisch, verkehrstechnisch und historisch kein Binnenmeer. Weil es der "Zugang zur Ostsee" ist, wird es in manchen Zusammenhängen zusammen mit der Ostsee behandelt. In anderen Zusammenhängen ist es eines der Randgewässer der Nordsee. Der Süden des Kattegat wird auch der Beltsee zugerechnet. Beltsee. Brücke über den Großen Belt Die etwa 8.000 km² große Beltsee, auch "Westliche Ostsee" genannt, umfasst die Meeresgewässer westlich von Seeland, Falster und der sich zwischen dieser Insel und der deutschen Küste bei Rostock erstreckenden Darßer Schwelle. Hier liegen die engsten Stellen des Eingangsbereichs der Ostsee. Das Meer ist hier durch Inseln in ein Netz von Meerengen und Buchten geteilt, die mit der übrigen Ostsee kaum enger verbunden sind als mit dem Kattegat. Die mittlere Salzkonzentration im Wasser der Beltsee ist mehr als doppelt so hoch wie in den östlich angrenzenden Becken. Zwischen den nördlicher und südlicher gelegenen Teilen dieses Übergangsbereichs zwischen Kattegat und Ostsee gibt es ebenfalls erhebliche Unterschiede. Daher werden die nördlichen Teile gleichzeitig dem Kattegat zugerechnet, die südlichen gleichzeitig der „eigentlichen“ Ostsee. Eigentliche Ostsee. Die eigentliche Ostsee reicht im weiteren Sinne von der deutschen Ostseeküste, im engeren Sinne von der Linie Falster–Darß im Westen („Darßer Schwelle“) bis etwa zur Linie Stockholm–Åland–nordwestliches Estland im Nordosten. Zu den nicht eingeschlossenen Meeresbuchten im Osten gehört außer dem Bottnischen und dem Finnischen auch der Rigaer Meerbusen. Nach dem Relief des Meeresgrundes wird die eigentliche Ostsee in mehrere Becken unterteilt. Deren westlichste gehören gleichermaßen auch zur Beltsee: Südlicher Kleiner Belt, Kieler Bucht, Südlicher Großer Belt und Mecklenburger Bucht. Östlich der Darßer Schwelle erstreckt sich rund um Rügen bis zur Linie Sandhammaren (Schonen) – Bornholm – Wolin die Arkonasee, die mithin auch den Westteil der Pommerschen Bucht umfasst. Zwischen Bornholm im Westen, der Stolper Schwelle im Osten und der Küste Blekinges im Norden erstreckt sich das Bornholmbecken. Rund um Gotland unterscheidet man das Nordgotlandbecken nördlich der kleinen Insel Gotska Sandö, das Westgotlandbecken mit dem Landsorttief zwischen Gotska Sandö, Gotland und er schwedischen Küste, sowie das Ostgotlandbecken mit dem Gotlandtief zwischen der großen Insel, Saaremaa (Ösel), Kurland und Hinterpommern. Südöstlich daran schließt sich die Danziger Bucht an; als Meeresbecken wesentlich größer definiert als anhand der Küstenverläufe, reicht sie bis an die Linie zwischen Rozewie (Rixhöft) zum Süden der lettischen Küste. Rigaer Meerbusen. Der Rigaer Meerbusen oder "Rigaischer Meerbusen" zwischen Kurland und dem estnischen Väinameri-Archipel kann auch als "Östliche Ostsee" bezeichnet werden. Finnischer Meerbusen. Die Festung Suomenlinna, auf fünf Inseln vor Helsinki gelegen Der Finnischen Meerbusen zwischen Estland, Finnland und Russland kann auch als "Nordöstliche Ostsee" bezeichnet werden. Nördliche Ostsee. Die "Nördliche Ostsee" von Åland nordwärts zwischen Finnland und Schweden wird auch als Bottnischer Meerbusen bezeichnet. Nautische Vereinbarung 2014. Auf der 19. Konferenz der BSHC (Baltic Sea Hydrographic Commission) am 10.–12. Juni 2014 wurde eine neue Einteilung der Ostsee vereinbart, die das Kattegat einbezieht, aber wiederum als Eingangsbereich. Nach Auskunft der deutschen Teilnehmer der Konferenz orientiert sich die Vereinbarung allein an nautischen Belangen, nicht an ökologischen. Daher wurde das Bodenrelief bei dieser Einteilung so gut wie nicht berücksichtigt. Gar keine Rolle spielte, welcher Süßwassereintrag aus dem Binnenland in welche Seegewässer gelangt. Die Vorabdarstellung enthält nur englische Namen. Es gibt unter dem Gesamtgebiet der Ostsee Namensgebung und -deutung. Der Begriff „Ostsee“ ist sinngemäß primär in den germanischen Sprachen (außer Englisch) verbreitet: Dänisch "Østersøen", Isländisch/Färöer "Eystrasalt", Niederländisch "Oostzee", Norwegisch "Østersjøen", Schwedisch "Östersjön". Hierfür mag die geografische Sicht aus der Lage dieser Länder wesentlich sein. Im Finnischen beruht der Begriff "Österhavet" (Ostsee) dagegen eher auf der Oberhoheit Schwedens vom 12. bis ins 18. Jahrhundert über das heutige Finnland. In Englisch sowie den meisten anderen Sprachen wird das nordeuropäische Binnenmeer sinngemäß „Baltische See“ bzw. „Baltisches Meer“ genannt. In römischen Quellen wurde die Ostsee in der Regel nach den an seiner Südküsten lebenden Sueben als "Mare Suebicum" bezeichnet. Eine andere Benennung ist "Aestenmeer" – benannt nach dem Volk der Aesti, vermutlich ein von den Germanen verwendetes Exonym („Ostleute“) für die Balten, die Tacitus in der Germania als die am weitesten östlich am "Mare Suebicum" lebenden Menschen beschrieb. Dagegen besteht bei der Deutung von "Balt-" keine Einigkeit. Verschiedene Möglichkeiten werden erwogen. Entstehung. Etwa 10.000 bis 8.200 v. Chr. tauten infolge des damaligen Klimaumschwunges die Gletscher in Richtung Skandinavien zurück. Als sich der Eisrand nach Abschmelzen der Inlandeismassen auf der Höhe der heutigen Åland-Inseln, nordöstlich von Stockholm, befand, bildete sich in seinem Vorland der "Baltische Eisstausee". Etwa 8.200 bis 6900 v. Chr. stieg der Meeresspiegel so stark, dass sich zumindest im Bereich der heutigen mittelschwedischen Seenplatte, nach anderen Quellen auch zum Weißen Meer, eine Verbindung zum Weltmeer bildete. Durch den dadurch bedingten Süßwasserausstrom und Salzwassereinstrom bildete sich das sogenannte (salzige) "Yoldiameer". Etwa 6900 bis 5000 v. Chr. tauten die skandinavischen Gletscher weiter zurück, der Druck auf die skandinavische Landmasse nahm ab, so dass sie sich zu heben begann und dadurch die Meeresverbindungen blockierte. Es entstand der/die (süße) "Ancylussee". Etwa 5000 v. Chr. bis etwa zum Jahre 0 stieg der Meeresspiegel durch die sogenannte Littorina-Transgression so, dass die Festlandbrücke zwischen Südschweden und Dänemark überflutet wurde und der Osten Dänemarks sich in die heutigen Inseln aufteilte. Weiter öffnete sich der Zugang in der Nähe der Darßer Schwelle vor der deutschen Küste, und auch im südlichen Bereich der Ostsee bildeten sich die Grobformen der heutigen Küsten aus. Die Gletscher waren nun fast vollständig verschwunden. Das Festland von Skandinavien hob sich weiter, so dass sich die Küstenlinie weiter veränderte. Der südliche Bereich der Ostsee senkte sich, das vorrückende Meer überflutete die jungglaziale Landschaft und formte sie dabei um. Als Ergebnis findet man drei Küstenformen im südlichen Bereich wieder: Fördenküste (Beispiel: Kieler Förde), Buchtenküste (Beispiel: Lübecker Bucht) und die Bodden- bzw. Boddenausgleichsküste (Beispiel: Halbinsel Fischland-Darß-Zingst) z. T. mit der Bildung von Haffen (Beispiel: Stettiner Haff). Klimazonen. Der Südteil der Ostsee befindet sich in der gemäßigten Klimazone, die bei Dänemark noch ausgesprochen maritime Züge trägt, nach Osten hin jedoch im Bereich des Kontinentalklimas liegt. Der nördliche Teil, insbesondere der Bottnische Meerbusen, ist geprägt durch das kalte Klima der borealen Nadelwälder. Die reichen in Finnland bis etwa 200 km nördlich des Polarkreises. Weil die Ostsee vom klimabeeinflussenden Golfstrom abgekoppelt und ihre Fläche recht klein ist, aufgrund geringer Verdunstung und reicher Süßwasserzuführung der Salzgehalt außerdem sehr niedrig liegt, kann sie nur sehr geringfügig zum klimatischen Ausgleich beitragen; sie entwickelt kein eigenes maritimes Klima. Daher vereist sie jeden Winter teilweise, hin und wieder sogar vollständig. Dadurch wirkt sie nach harten Wintern als Kältespeicher. Hafenstädte wie Oulu in Finnland zählen bis zu sechs vereiste Monate pro Jahr. Eisschichten können in kalten Wintern auch an der deutschen Küste solche Mächtigkeiten erreichen, dass Personen darauf gehen können. Nur einige Inseln wie Bornholm profitieren von einem ungewöhnlich milden Mikroklima. Klimawandel. Die Ostseeregion erwärmt sich überdurchschnittlich: Im letzten Jahrhundert wurde es an der Ostsee um 0,85 Grad wärmer, weltweit dagegen nur um 0,75 Grad. Seit 1990 ist die Luft durchschnittlich knapp ein Grad wärmer als in den Jahrzehnten zuvor. Bis Ende des Jahrhunderts könnte sich die Luft in der Ostsee-Region um weitere drei bis sechs Grad erwärmen. Ökologie. a>-Blüte in der Ostsee, 3. Juli 2001 Ungefähr 20 Prozent der Böden der Kern-Ostsee – zwischen Dänemark und den Åland-Inseln – gehören inzwischen zu den sogenannten „Todeszonen“, in denen aufgrund Sauerstoffmangels kein Leben außer anaeroben Organismen existiert. Dies ergaben Messungen des schwedischen Meteorologischen Instituts im Jahr 2008. Andere Berichten bezeichneten ein Sechstel (70.000 km² der rund 412.500 km²) großen Ostsee als lebensfeindliche Gebiete. Im Jahr 2008 waren es erst 42.000 km². Ursache ist, dass aus der Landwirtschaft Phosphor- und Stickstoff-Verbindungen in die Ostsee gelangen. Phosphor und Stickstoff sind Düngerstoffe. Sie fördern das Algenwachstum; die Zersetzung toter Algen lässt den Sauerstoffgehalt sinken. Wasser mit höherem Salzgehalt und dadurch bedingt höherem spezifischem Gewicht bleibt auf dem Meeresgrund, isoliert vom Oberflächenwasser und der Atmosphäre. In den Todeszonen leben nur anaerobe Bakterien; sie zersetzen organische Substanz und setzen dabei Schwefelwasserstoff frei. Eine Anreicherung mit Sauerstoff findet überwiegend durch Herbst- und Winter-Stürme aus westlichen Richtungen statt, die salziges und sauerstoffreicheres Wasser aus der Nordsee in die Ostsee transportieren. Der Ostseerat beschäftigt sich mit dem Thema. siehe auch weiter unten: Munitionsentsorgung in der Ostsee Tierwelt. Die Fischbestände leiden außer unter dem Sauerstoffmangel und den Schadstoffeinträgen auch unter Überfischung. Die Situation des Herings ist in der Ostsee deutlich schlechter als in der Nordsee. Darum hat sich die EU auf eine Herabsetzung der Fangquoten geeinigt. Der Dorsch laicht beispielsweise in etwa 60 Metern Tiefe, wo die Salzkonzentration optimal für die Fischeier ist. Dort wird allerdings zunehmend eine signifikant wachsende Sauerstoffarmut registriert, die zur Folge hat, dass die Fischeier absterben. Der Bestand an Dorsch (Kabeljau) hat allerdings in den letzten Jahren wieder leicht zugenommen, bedingt durch einen Kaltwasserschub und ein besseres Einhalten der Fangquoten insbesondere durch polnische Fischer. Inselwelt. Die Ostsee ist reich an Inseln, Inselgruppen und -ketten sowie bewohnten und unbewohnten Eilanden. Eine exakte Zahl wird nicht genannt, weil die Definitionen auseinandergehen, wonach eine Insel und ein Eiland unterschieden werden. Größere Inseln in der Ostsee sind Gotland und Öland (schwedisch), Åland (finnisch), Dagö und Ösel (estnisch), Wollin (polnisch), Usedom (deutsch/polnisch), Rügen, Hiddensee und Fehmarn (deutsch) sowie unzählige dänische Inseln, beispielsweise Seeland, Bornholm, Fünen, Lolland, Falster und Langeland. Dänemark. Die großen dänischen Inseln Seeland und Fünen trennen die Ostsee vom Kattegat. Seeland trägt die dänische Hauptstadt Kopenhagen (København), ist die größte Insel des Königreichs und inzwischen durch die Öresundbrücke und den Drogdentunnel mit dem südschwedischen Schonen (das bis 1658 zu Dänemark gehörte) und durch die Großer-Belt-Querung mit der drittgrößten dänischen Insel Fünen verbunden. Etwa 150 km südöstlich von Kopenhagen liegt die die dänische Insel Bornholm. Die dänischen Inseln Seeland und Fünen sind wesentlich dichter besiedelt als die Halbinsel Jütland, welche die Beltsee und Kattegat nach Westen begrenzt. Die meisten Inseln liegen im Segelrevier der dänischen Südsee. Dort befinden sich größere Inseln wie Lolland, Falster, Møn, Langeland, Ærø und Alsen. Nordöstlich von Bornholm besitzt das Land mit Christiansø seinen östlichsten Außenposten. Zu den kleinsten bewohnten dänischen Ostseeinseln gehören die Ochseninseln in der Flensburger Förde. Sie liegen unmittelbar an der deutsch-dänischen Grenze. Deutschland. Zu Deutschland gehören die großen Ostseeinseln Fehmarn, Rügen und Usedom, welche auch zu einem kleinen Teil zu Polen gehört. Fehmarn liegt vor der Halbinsel Wagrien an der Lübecker Bucht und ist mit dem Festland über die Fehmarnsundbrücke als Teil der Vogelfluglinie verbunden. Zurzeit (2010) ist eine weitere feste Fehmarnbeltquerung als Alternative zur Jütlandlinie in Planung, so dass das Brücken- und Tunnelnetz auf dem Weg von Mitteleuropa nach Skandinavien komplettiert wäre. Rügen, die größte deutsche Insel, ist über den Rügendamm und die Rügenbrücke (zweite Strelasundquerung) bei Stralsund mit dem Festland verbunden. Rügen hat einige vorgelagerte Inseln, von denen Hiddensee die bekannteste ist. Usedom, dessen Ostteil zu Polen gehört, besitzt wie Rügen eine reiche Gliederung in Halbinseln, außerdem existieren dort viele Seen. Estland. Estlands größte Insel, und gleichzeitig die größte Ostseeinsel des Baltikums ist Saaremaa ("Ösel"). Zweitgrößte estnische Insel ist Hiiumaa ("Dagö"). Daneben gibt es noch die Inseln Vormsi, Muhu, Naissaar, Vilsandi, Kihnu, Ruhnu und ca. 1500 weitere, kleinere Inseln. Finnland. Die Zahl der finnischen Ostseeinseln und Eilande wird mit etwa 80.000 angegeben. In dieser Zahl sind die ca. 6500 Inseln von Åland ebenso enthalten wie dessen Schären. Der Rest sind zumeist Schären, die nicht zu Åland gehören. Finnland besitzt also eine bedeutende Inselwelt in der Ostsee. Die Festung Suomenlinna liegt auf den Inseln vor Helsinki. Mit dem Kvarken und dieser Festung hat Finnland zwei insulare Weltkulturerbe in der Ostsee. Åland. Zwischen Schweden und Finnland liegt die zu Finnland gehörende, aber mit Autonomierechten ausgestattete schwedischsprachige Inselgruppe Åland, die aus über 6.500 Inseln besteht. 65 dieser Inseln sind bewohnt und beherbergen 26.530 Einwohner (Ende 2004). Lettland. Rund fünf Kilometer vor Kap Kolka befindet sich mit einer künstlichen Leuchtturm-Insel die einzige Insel der lettischen Ostsee. Litauen. Litauen hat keine Inseln in der offenen Ostsee, dafür aber im Kurischen Haff: Kiaulės Nugara (dt.: „Schweinerücken“) bei Klaipėda sowie Rusnė und einige andere im Memeldelta. Der litauische Teil der Kurischen Nehrung hat keine direkte Landverbindung zum übrigen Staatsgebiet. Von Klaipėda muss man mit der Fähre übersetzen. Pläne für eine Brücke stehen im Konflikt zum Status der Landzunge als Nationalpark und Weltkulturerbe und wurden daher bisher verworfen. Auf dem Landweg ist die Nehrung nur von der russischen Oblast Kaliningrad aus zu erreichen. Polen. Polen teilt sich Usedom mit Deutschland. Ganz zu Polen gehört die Nachbarinsel Wollin. Daneben gibt es eine Reihe kleinerer Inseln im Stettiner Haff. Russland. Russland besitzt mit Kotlin vor Sankt Petersburg eine historisch wichtige Insel. Sie ist besser bekannt unter dem Namen Kronstadt der gleichnamigen Stadt und Festung. Schweden. Die zweitgrößte Ostseeinsel ist das schwedische Gotland. Hier wird ein recht eigenständiger Dialekt, das Gotländische, gesprochen. Wichtig ist auch die zweitgrößte schwedische Insel Öland. An Schwedens Küste liegen tausende kleiner Schären, die teilweise bewohnt sind. Die Hauptstadt von Gotland, Visby, ist ebenso Weltkulturerbe wie die südliche Landschaft Ölands. Schärenküste. Die schwedisch-finnische Küste in der "Zentralen", "Nördlichen" und "Östlichen Ostsee" ist fast ausschließlich eine Schärenküste; ab und zu findet man noch vereinzelte Fjorde (Fjord-Schären-Küste). Schären sind der Küste vorgelagerte, kleine und kleinste felsige Inseln, die durch den Abschleifeffekt der Gletscher eine charakteristische Kuppenform aufweisen. Weil die Ostsee nur geringe Gezeiten aufweist, sind sie über die letzten Jahrtausende praktisch unverändert geblieben. Das flach abfallende Gelände wurde beim Abschmelzen des Eispanzers überflutet und die Kuppen ragten fortan als Inseln heraus; durch die Geländehebung sind mit der Zeit weitere, vorgelagerte Schären entstanden. Kliffküste. An einigen Stellen, zum Beispiel auf Gotland, Bornholm, Møn und Rügen, haben sich Kliffküsten gebildet. Diese ragen steil und schroff hervor und markieren Geländebrüche im geologischen Untergrund. Kliffkanten finden sich auch unterhalb des Meeresspiegels. Auch die Nordküste Estlands zum Finnischen Meerbusen hin ist durch solch eine Bruchlinie geprägt. Von West nach Ost rückt dieses Kliff immer näher an die aktuelle Küstenlinie heran und erreicht bei Sillamäe immerhin knapp 60 m Höhe. Eine bekannte Steilküste befindet sich auf der Insel Rügen. Der weiße Kreidefelsen des Königsstuhls im dortigen Nationalpark Jasmund kann als totes Kliff bezeichnet werden, da er nicht ständig von der Brandung erreicht wird. Dagegen sind die benachbarten Wissower Klinken im Jahre 2005 ein Opfer der Meeresbrandung geworden. Fördenküste. Die Ostküste Schleswig-Holsteins und Jütlands ist durch Förden gekennzeichnet, die allerdings in Dänemark Fjord genannt werden. Diese schmalen langen Buchten sind bei der Entstehung der Ostsee durch den Anstieg des Meeresspiegels vollgelaufene ehemalige Gletscherzungenbecken. Der Unterschied zu Fjorden besteht darin, dass die Gletscher sich nicht vom Land zur See bewegten, sondern umgekehrt der Eispanzer über der heutigen Ostsee Gletscher vorantrieb, die nach dem Abschmelzen eine Rinne übrig ließen, die sich mit Seewasser füllte. Die schleswig-holsteinischen Förden werden von den Landschaften Angeln, Schwansen und Dänischer Wohld getrennt. Zwischen der Kieler Förde und der ihr vorgelagerten Kieler Bucht einerseits und der Lübecker Bucht als Teil der Mecklenburger Bucht andererseits liegt die Probstei und die Halbinsel Wagrien mit der Insel Fehmarn. Der Hemmelsdorfer See bei Timmendorfer Strand ist ebenfalls eine alte Förde. Er ist wesentlich tiefer als die durch eine eiszeitliche Landbarriere abgeschnittene, davorliegende Lübecker Bucht. Die Landschaft der Fördenküste wird durch den Baltischen Landrücken geprägt, der sich entlang oder parallel der westlichen, südlichen und südöstlichen Ostseeküste von Jütland bis ins Baltikum erstreckt. Boddenküste. Die vorpommersche Küste ist durch Boddenlandschaften geprägt. Bodden sind dadurch entstanden, dass vormalige Inseln durch stetige Zuführung von Material, hauptsächlich Sand, durch schmale Brücken miteinander verbunden worden sind. Die rückwärtigen Gewässer, die Bodden, sind dadurch größtenteils von der Ostsee abgetrennt worden und mit ihr nur noch durch Rinnen verbunden. Ausgleichsküste. Die Ausgleichsküste bestimmt vor allem die Küstenlinie Polens von Stettin bis kurz vor Danzig und die lettische Küste. Hier sind die typischen reich gegliederten glazialen Küstenformen durch die Anströmung und den Sedimenttransport von Westen her ausgeglichen worden, so dass der Verlauf fast gerade ist. Dies ist möglich geworden, weil die zumeist von Westwind geprägte Brandung auf eine Küstenlinie trifft, die von Südwest nach Nordost verläuft und dadurch Transportmaterial anlagert. Auch an der Küste Vorpommerns sind durch solche Ausgleichsprozesse Landzungen und Nehrungen entstanden, wie z. B. die Halbinsel Fischland-Darß-Zingst und die Schaabe, die Schmale Heide und der Bug auf Rügen. Haffküste. Die Haff- oder Nehrungsküste ist im Küstenabschnitt zwischen Danzig und Klaipėda entstanden. Außerdem wird das Stettiner Haff ebenfalls hinzugezählt. Haffe entstehen vor Flussmündungen als Brackwasserreservoire, die durch schmale Landzungen, die Nehrungen, von der übrigen Ostsee größtenteils abgetrennt wurden. Durch die ständige Zufuhr von Flusswasser schließen sich die Nehrungen nicht, sondern bleiben als langgestreckte Halbinseln bestehen, die eine Rinne zum Meer offen lassen. Die bekanntesten Haffs sind das Kurische und das Frische Haff. Eine (unvollständige) Nehrung bildet auch die Halbinsel Hel bei Zoppot. Altertum. Die Ostsee wird vor fast 2000 Jahren in der Germania des Tacitus als "Mare Suebicum" erwähnt, das er als Teil des die Erde umgebenden Ozeans ansah (siehe hierzu Namensgebung und -deutung). Schon aus damaliger Zeit sind weitverzweigte Handelswege belegt, über die der begehrte Bernstein, der an der Ostseeküste häufig gefunden wurde, in alle Teile des Römischen Reichs gelangte. Exportwaren waren weiterhin Felle und Pelze. Umgekehrt gelangten römische Erzeugnisse wie Keramikwaren, Wein und Öl nach Norden. Hansezeit. Im Hochmittelalter spielte die Ostsee eine immense Rolle als Verkehrs- und Handelsweg in Europa. Die in Nachbarschaft der Ostsee liegenden Städte schlossen sich zum Bund der Hanse zusammen und brachten es dabei zu großem Reichtum. Wichtigste Hansestädte an der Ostsee und in deren Einzugsgebiet waren Lübeck, Wismar, Rostock, Stralsund, Greifswald, Stettin, Danzig, Königsberg, Memel, Riga, Reval und Nowgorod. Neuzeit. Im Dreißigjährigen Krieg versuchte Schweden, über die Ostsee hinweg Großmachtpläne zu verwirklichen. Infolgedessen gehörten auch später noch viele südlich der Ostsee gelegene Landstriche lange zu Schweden (siehe auch Schwedisch-Pommern). In den Nordischen Kriegen gelang es Russland, von Osten her Anschluss an die Ostsee zu bekommen. Zar Peter der Große ließ im Mündungsdelta der Newa die neue Reichshauptstadt Sankt Petersburg erbauen, die für das Land ein „Tor zur Welt“ sein sollte. Im Jahre 1872 kam es zur größten Sturmkatastrophe in der gesamten Ostsee. Am 11. November 1872 sollen in der Ostsee angeblich insgesamt 654 Schiffe gesunken sein. Im 20. Jahrhundert war die Ostsee während der Weltkriege Schauplatz zahlreicher bewegender Vorfälle. Die Ostseehäfen waren gegen Ende des Ersten Weltkrieges Orte, in denen Geschichte geschrieben wurde: Die Sankt Petersburg vorgelagerte Festungsinsel Kronstadt war der Schauplatz eines Matrosenaufstandes gegen die russische Revolutionsregierung. Die Revolte wurde unter Einsatz von Kriegsschiffen blutig beendet. In den allerletzten Kriegstagen meuterten die deutschen Marineeinheiten in den Häfen von Kiel und Flensburg gegen einen sinnlosen Befehl der Obersten Heeresleitung, die Flotte zu einer militärisch nicht mehr entscheidenden Schlacht ausrücken zu lassen. Der Kieler Matrosenaufstand von 1918 weitete sich zu einer Revolution in ganz Deutschland aus und führte zum Sturz der Monarchie. Im Zweiten Weltkrieg wurden in der Ostsee einige Kämpfe zwischen deutschen und sowjetischen Flotten- und U-Boot-Verbänden ausgefochten. Zu Kriegsende war fast die gesamte schiffbare Fläche vermint, so dass die Personenschifffahrt eingestellt wurde. 1945 wurde gleichwohl versucht, die in Kurland, Ostpreußen und Hinterpommern eingeschlossenen deutschen Truppen, aber auch die flüchtende Zivilbevölkerung, über die Ostsee zu evakuieren. Besonders tragisch war die Versenkung des ehemaligen KdF-Schiffes Wilhelm Gustloff, das fast ausschließlich Zivilisten an Bord hatte. Das Schiff sank nach mehreren Treffern sowjetischer Geschosse und riss schätzungsweise 9000 Menschen in den Tod, die entweder ertranken oder im eiskalten Wasser bald erfroren. Es war – gemessen an Menschenleben – die größte Schiffskatastrophe aller Zeiten. Am 2. Mai 1945, fünf Tage vor der deutschen Kapitulation, griffen britische Flugzeuge den in der Lübecker Bucht liegenden ehemaligen Luxusdampfer "Cap Arcona" und die "Thielbek" an. Über 7.500 Menschen kamen dabei ums Leben; es waren überwiegend Gefangene deutscher Konzentrationslager. Auch der Kalte Krieg forderte Opfer in der Ostsee: Rund 5000 DDR-Bürger versuchten, über die Ostsee in den Westen zu flüchten. Nur etwa 600 Flüchtende erreichten ihr Ziel, einige sogar auf Surfbrettern. Die meisten Fluchtversuche scheiterten und endeten oft genug tödlich. Der Leuchtturm in Dahmeshöved (Ostseeheilbad Dahme) diente vielen Flüchtlingen an der mecklenburgischen Küste als realistisches Ziel einer erfolgreichen Flucht. Zu einem der schwersten Schiffsunglücke der europäischen Nachkriegsgeschichte kam es am 28. September 1994, als die Ostseefähre "Estonia" auf ihrem Weg von Tallinn nach Stockholm sank und 852 Passagiere dabei den Tod fanden. Munitionsentsorgung in der Ostsee. Nach dem Zweiten Weltkrieg wurden in der Ostsee große Mengen Munition, darunter auch Giftgasmunition, entsorgt. Vor allem von phosphorhaltiger Munition geht nach wie vor eine große Gefahr aus. Bernsteinfarbene Phosphorklumpen entzünden sich nach dem Trocknen schon bei 34 °C, brennen dann mit einer Temperatur von 1300 °C und sind nur noch mit Sand zu löschen. Seit Ende des Zweiten Weltkriegs sind laut offiziellen Aufzeichnungen 168 Menschen durch Munitionsreste in der Ostsee zu Tode gekommen, 250 trugen Verletzungen davon. Dänemark veröffentlichte eine Studie mit weitaus höheren Verletzungszahlen. So sollen jährlich 20 Menschen Unfälle mit Munitionsresten erleiden, die meisten von ihnen sind Fischer. Der schwedische Sender Sveriges Television veröffentlichte 2009 Berichte über die Verklappung von chemischen Kampfstoffen und radioaktiven Abfällen der sowjetischen Marine vor Gotland in den Jahren 1989 bis 1992. Diese stammten von der Marinebasis Karosta im heutigen Lettland. Wirtschaft. Der Ostseeraum ist ein Wirtschafts- und Wachstumsraum. Während im nördlichen und westlichen Teil der Ostsee schon etablierte Volkswirtschaften mit einem hohen BIP/Kopf und einer hohen Produktivität vorherrschen (Beispiel Deutschland oder Schweden), befinden sich im östlichen Teil der Ostsee noch relativ wirtschaftsschwache Länder, die aber ein überdurchschnittlich hohes BIP-Wachstum aufweisen. Infolge der Finanzkrise ab 2007 brach dieses Wachstum wieder ein. Besonders die baltischen Staaten mussten hier Wachstumseinbußen von über 10 % einstecken. Lediglich Polen machte nur geringe Einbußen und hielt im gesamten Ostseeraum seine Wirtschaft am stabilsten. Das Wachstum des Ostseeraums beruht auf guten Standortfaktoren. Besonders hervorzuheben sind hierbei die vorteilhafte Lage der Ostsee innerhalb der Welt und die Mobilität innerhalb des Ostseeraumes. Zur Ansiedlung von neuen Unternehmen bietet der Ostseeraum zum einen hoch entwickelte Wirtschaftsregionen. Diese bilden umfangreiche Cluster und investieren sehr stark in Forschung und Technik. Die guten weichen Standortfaktoren sind auch ausschlaggebend. Herausragend entwickelte sich die Öresundregion, die laut der Zeitschrift The Economist im Jahr 2007 die wirtschaftsfreundlichsten Bedingungen der Welt aufweist. Zum anderen ist die Wirtschaftslage der baltischen Staaten sehr lukrativ für die Wirtschaft. Hier herrscht ein vergleichsweise liberales Geschäftsumfeld. Zugute kommen auch eine geschäftsfreundliche Steuerpolitik und eine umfangreiche Telekommunikationsstruktur. Nach dem Seerechtsübereinkommen steht den Anrainerstaaten der Ostsee eine Ausschließliche Wirtschaftszone zu. Am 1. Januar 1995 hat die Bundesrepublik Deutschland eine solche auch für ihr Küstenmeer an der Ostsee erklärt. Häfen und Schiffsrouten. Hafen von KaliningradWichtige Häfen sind Kopenhagen, Malmö, Stockholm, Turku, Helsinki, Sankt Petersburg, Tallinn, Riga, Liepāja, Klaipėda (ehem. "Memel"), Kaliningrad (ehem. Königsberg), Danzig, Gdynia, Stettin, Świnoujście (ehem. Swinemünde), Trelleborg, Sassnitz, Rostock, Wismar, Lübeck, Kiel und Flensburg (vgl. Flensburger Hafen). In der Mitte der südlichen Ostsee verläuft eine der wichtigsten Seeschifffahrtsrouten weltweit, die "Kadetrinne". Sie ist dicht befahren und war in der Vergangenheit gelegentlich im Zusammenhang mit Havarien in den Schlagzeilen. Eine besondere Rolle für den Verkehr auf der Ostsee spielen die vielen Fährverbindungen sowie die großen Brücken, die in Skandinavien zum Teil größere Meerengen überspannen. Die meistbefahrene künstliche Seeschifffahrtsstraße der Erde ist der Nord-Ostsee-Kanal, welcher die Ostsee mit der Nordsee verbindet, und so den Seeweg über Kattegat (Ostsee) und Skagerrak (Nordsee) abkürzt. Er führt in Schleswig-Holstein von Kiel nach Brunsbüttel zur Elbe. Die Fläche der Ostsee innerhalb des deutschen Hoheitsgebietes ist als Seewasserstraße eine Bundeswasserstraße. Schifffahrt und Luftverschmutzung. Mit dem wachsenden Schiffsverkehr von Frachtschiffen und Kreuzfahrtschiffen auf der Ostsee wächst auch die Emission von Kohlendioxid, Stickoxiden und Schwefeldioxid. Dabei werden während der Hafenliegezeiten die Häfen und ihre Anwohner, während der Fahrt das offene Meer belastet. Verschärft wird dieses Problem dadurch, dass Schiffe Schweröl mit einem sonst nicht zulässigen hohen Schwefelgehalt von 1,5 % (= 15.000 ppm) als Treibstoff verwenden. Straßendiesel enthält nur 10 ppm Schwefel. Ab 2010 sollen die Schwefel-Grenzwerte EU-weit auf 0,1 Prozent sinken, das wären dann 1000 ppm. Die Ostseeanrainerstaaten haben diesbezüglich zahlreiche Initiativen begonnen, den Umweltschutz in der Seeschifffahrt voranzubringen. So gibt es, um die Emissionen während der Hafenliegezeiten zu senken, erste Versuche, Kreuzfahrtschiffe im Hafen verpflichtend an die Stromversorgung des Hafens anzuschließen (Beispiel Hamburg). Kanalverbindungen. Im Osten ist die Ostsee über die Newa und verschiedene Wasserstraßen mit der Wolga, dem Weißen, Schwarzen und dem Kaspischen Meer verbunden. Auf Binnenschifffahrt ausgerichtet sind der Wasserweg Weichsel – Bug – Dnepr-Bug-Kanal – Dnepr und der wesentlich ältere Ossolinskikanal von der Memel an den Dnepr. Der Nord-Ostsee-Kanal verkürzt zwar nur den Umweg um die Kimbrische Halbinsel, hat aber wegen oft schwieriger Witterungsverhältnisse im Skagerrak historische Vorläufer, den Eider-Kanal und die mittelalterliche Passage über Schlei, Rheider Au und Treene, bei der seetüchtige Boote zumindest zeitweise auf Rollen über Land gezogen wurden. Der Göta-Kanal von der Ostsee zum Kattegat in Schweden wurde im 18. Jahrhundert angelegt, um mit damaligen – kleineren – Seeschiffen den dänischen Sundzoll zu umfahren. Sonstige Verkehre. Die zahlreichen Meerengen der Beltsee werden seit dem frühen zwanzigsten Jahrhundert von einer zunehmenden Zahl fester Straßen- und Schienenverbindungen gekreuzt. Die wichtigsten Verkehrsachsen des Ostseeraums bilden zum einen die Vogelfluglinie mit der damit verbundenen festen Fehmarnbelt-Querung. Zum anderen sind Verkehrsachsen wie die Via Hanseatica – ein Teil davon bildet die Bundesautobahn 20 – und die Via Baltica wichtige Stützpfeiler für den nördlichen und östlichen Teil Europas. Es ist geplant, einen großen Teil Südschwedens mit Hochgeschwindigkeitszügen zu erschließen. Der Europakorridor bildet den Rahmen für die Durchführung dieses Projekts. Seit 2011 transportiert die auch „Ostseepipeline“ genannte Nord Stream Pipeline russisches Erdgas durch die Ostsee nach Deutschland. Tourismus. Die Küsten und Inseln des Ostseeraumes sind stark vom Tourismus geprägt, der neben der Werftindustrie und dem Handel der wichtigste Wirtschaftssektor ist. Ein wichtiger Bereich des Fremdenverkehrs ist der Badeurlaub in Seebädern. Er ist von einer für den Ostseebereich typisch-starken Saisonalität gekennzeichnet, welche die Monate Juli und August als Schwerpunkt haben. Andere Angebotsformen wie Wellness, Fahrrad- oder Kulturtourismus entwickeln sich und schwächen die Saisonalität etwas ab. Weitere Faktoren im Ostsee-Tourismus sind Kreuzfahrtschiffe, die beispielsweise in Kiel, Rostock-Warnemünde, Kopenhagen, Tallinn, Riga, Danzig, Helsinki, St. Petersburg, Mariehamn und Stockholm anlegen, sowie maritime Großveranstaltungen wie die Kieler Woche oder die Hanse Sail, die jeweils Millionen von Besuchern anziehen. Orlando (Roman). Orlando – eine Biographie ist ein Roman von Virginia Woolf (erschienen 1928). Der Roman. Die Handlung beginnt im England des 16. Jahrhunderts. Die Hauptperson Orlando ist ein junger Adliger, der bei Königin Elisabeth I. in hohem Ansehen steht und von ihr einen Landsitz erhält. Während des Frostjahrmarkts auf der im 16. Jahrhundert aufgrund der Kleinen Eiszeit regelmäßig zugefrorenen Themse lernt Orlando eine geheimnisvolle russische Gräfin namens Sasha kennen, die ihn jedoch nach einer leidenschaftlichen Affäre verlässt und nach Russland zurückkehrt. In der Folge zieht sich Orlando auf seinen Landsitz zurück, beschäftigt sich mit der Verwaltung seines Guts und versucht sich als Schriftsteller. Als ihn eine hartnäckige Verehrerin, die Erzherzogin Harriet, nicht in Frieden lässt, lässt sich Orlando als Botschafter nach Konstantinopel versetzen. In Konstantinopel fällt Orlando nach einer von sozialen Unruhen geprägten Nacht in einen mehrtägigen Schlaf, aus dem er als Frau erwacht. Die Ursachen der Verwandlung bleiben im Dunkeln, allerdings findet sich unter Orlandos Papieren ein Dokument, das seine Eheschließung mit einer Tänzerin festhält. Orlando verlässt die Stadt heimlich mit Hilfe eines Zigeunerclans, bei dem er (bzw. nun sie) in den Bergen eine Weile leben kann, bis die unterschiedlichen kulturellen Hintergründe dann doch zu Konflikten führen. Orlando kehrt auf einem Schiff namens „Enamoured Lady“ nach England zurück und macht sich während der Überfahrt, auf der sie erstmals europäische Frauenkleider trägt, nach und nach die Konsequenzen ihres Frauseins bewusst. In England nimmt Orlando ihre Güter wieder in Besitz, muss jedoch zunächst abwarten, ob sie nach ihrer Geschlechtsumwandlung noch als rechtmäßige Inhaberin ihres Adelstitels und ihrer Ländereien anerkannt wird. Die entsprechenden Gerichtsverfahren ziehen sich lange hin, werden jedoch schließlich zu Orlandos Gunsten entschieden, ihre Ehe mit der Tänzerin wird annulliert. Orlando interessiert sich nun für das gesellschaftliche Leben in London, langweilt sich aber schon nach einer kurzen Zeit in den Salons der adeligen Damen und bemüht sich darum, mit den wichtigsten Schriftstellern ihrer Zeit (nun des 18. Jahrhunderts) bekannt zu werden. Tatsächlich bewirtet sie schon bald regelmäßig Alexander Pope, Joseph Addison und Jonathan Swift mit Tee, dem ihr verhassten neuen Modegetränk der Epoche, muss aber erkennen, dass diese ihre Ansichten nicht ernst nehmen. Dank ihrer Angewohnheit, zuweilen nachts in Männerkleidern auszugehen, macht Orlando bald die Bekanntschaft verschiedener Halbweltdamen Londons, mit denen sie sich anfreundet, nachdem sie sich ihnen als Frau zu erkennen gegeben hat. Erst mit dem Beginn der Viktorianischen Epoche, deren Familiensinn und biedere Moral Orlando zu schaffen machen, stellt Orlando ihr ungebundenes Leben in Frage. Die bedrückende gesellschaftliche Atmosphäre der Zeit wird auch durch einen klimatischen Umschwung symbolisiert: Das englische Wetter wird nun dauerhaft feucht und klamm, die Sonne ist kaum noch zu sehen. Glücklicherweise begegnet ihr schon bald der Kapitän Marmaduke Bonthrop Shelmerdine, den Orlando umgehend heiratet, wenngleich sich aufgrund seiner häufigen Abwesenheit ihr Leben dadurch kaum verändert. Der Kritiker Nicholas Greene, den Orlando schon zu Zeiten Königin Elisabeths kennengelernt hat, verhilft Orlando nun zur Publikation ihres seit Jahrhunderten fortgeschriebenen Gedichts "The Oak Tree", das immerhin in sieben Auflagen gedruckt wird und einen Literaturpreis gewinnt. Das Buch endet im Jahr seiner Publikation (1928), in dem die nun ca. 300-jährige Orlando als Frau von 36 Jahren ein Auto besitzt und im Warenhaus einkauft. In jeder Epoche Britanniens werden die Änderungen des Klimas, der Umgangsformen und der Literatur beschrieben und kritisiert. Ein zentrales Ereignis ist die Wandlung Orlandos zur Frau. Virginia Woolf hinterfragt mittels dieser Geschlechtsumwandlung die Rollen von Mann und Frau, die Stellung der Frau in der Gesellschaft und ihren Zugang zur Literatur. Geschrieben hat Virginia Woolf dieses Buch für ihre damalige Liebe Vita Sackville-West, es stellt eine Art fiktive Biografie der Schriftstellerin Vita selbst dar und enthält Schilderungen über ihr Geburtshaus Knole House in Kent. Woolf bezeichnet den Zeitraum, in dem sie Orlando verfasst hat, als einmalig glücklichen Herbst, und dass sie nie ein Buch schneller verfasst habe. Das Buch selbst beschreibt sie als heiter und schnell lesbar; es zu schreiben sei für sie als Schriftstellerin Urlaub gewesen. Verfilmungen. Der Roman diente 1981 als Vorlage für Ulrike Ottingers Film "Freak Orlando" mit Magdalena Montezuma als Orlando. 1992 wurde das Buch von Sally Potter mit Tilda Swinton in der Titelrolle als "Orlando" verfilmt. Die Rolle der Königin Elizabeth I. wird von dem Cross-Dresser Quentin Crisp bekleidet. Obiter dictum. Ein (lat. „nebenbei Gesagtes“) ist eine in einer Entscheidung eines Gerichtes geäußerte Rechtsansicht, die nicht die gefällte Entscheidung trägt, sondern nur geäußert wurde, weil sich die Gelegenheit dazu bot. Den Gegensatz zum ' bildet die '. Gründe. Letztinstanzliche Gerichte fügen ihren Urteilen gelegentlich ' bei, weil sich sonst für die entscheidenden Richter häufig auf lange Zeit keine Möglichkeit mehr bietet, ihre Rechtsauffassung zu ähnlich gelagerten Fällen oder einen Grundsatz, der für den Fall keine Rolle spielt, kundzutun. Dies liegt daran, dass in manchen Bereichen seit langem eine gefestigte Rechtsprechung besteht, so dass keine Klagen mehr eingereicht werden, weil diese nur dann erfolgreich wären, wenn eine geänderte Rechtsauffassung gelten würde. Diesen Kreis zwischen dem Fehlen einer geänderten Rechtsauffassung und dem gegenseitig daraus resultierenden Fehlen von Urteilen sollen ' durchbrechen. Kritik. Nach Auffassung des damaligen BAG-Vizepräsidenten Hans-Jürgen Dörner haben ' „die Schwäche, zur konkreten Rechtsfindung des Einzelfalls nichts beizutragen, die Leser regelmäßig zu verwirren und häufig späteren Erkenntnissen im Wege zu stehen“. Im günstigsten Fall trägt ein zur Rechtsfortbildung bei. Abgesehen von dem von Dörner beschriebenen „Rechtsverwirrungsmoment“ besteht überdies die Gefahr der Missachtung des Prinzips der Gewaltenteilung. Das Gericht hat nur den jeweiligen Einzelfall, also betreffend den vorliegenden Streitgegenstand, zu entscheiden. Widerspricht das Gericht per obiter dictum geltendem Recht, greift es über seinen Entscheidungsauftrag hinaus der Gesetzgebungskompetenz der Legislative vor. Das gilt auch für das deutsche Bundesverfassungsgericht: Ultima ratio seiner Kompetenz wäre die Nichtigkeitserklärung gemäß Abs. 2 S. 2 BVerfGG. Andererseits können auch zukünftige eventuelle Änderungen der Rechtsprechung ankündigen und so das Vertrauen in eine gefestigte Rechtsprechung lockern, womit dem rechtsstaatlich gebotenen Prinzip der Rechtssicherheit genüge getan wird. Deutschland. Ein bekanntes ' wurde 1993 vom Zweiten Senat des Bundesverfassungsgerichts im Urteil zur Neuregelung des Schwangerschaftsabbruchs ausgesprochen. Der Senat stellte fest, dass eine rechtliche Qualifikation des Daseins eines Kindes als Schadensquelle von Verfassung wegen nicht in Betracht komme. Deshalb verbiete es sich, die Unterhaltspflicht für ein Kind als Schaden zu begreifen. Mit dieser Feststellung, die für das eigentliche Normenkontrollverfahren ohne jede Bedeutung war, wandte sich der Zweite Senat gegen die Rechtsprechung des Bundesgerichtshofs zur Haftung von Ärzten für ungewollte Schwangerschaften. Das Oberlandesgericht Düsseldorf bemerkte daraufhin, eine „beiläufige und nicht bindende Bemerkung“ des Bundesverfassungsgerichts führe nicht dazu, dass weder Schadensersatz noch Schmerzensgeld zu gewähren seien. Der Bundesgerichtshof sah dies jedoch anders und passte seine Rechtsprechung den Vorgaben des Bundesverfassungsgerichts an. Common law. Im anglo-amerikanischen ' sind ' anders als die ' eines Urteils in einem Präzedenzfall kein ', also nicht für die unteren Gerichte bindend. Dennoch werden sie oft in Entscheidungen mit einbezogen. Ohne Arbeit kein Lohn. Ohne Arbeit kein Lohn ist ein Grundsatz im deutschen Arbeitsvertragsrecht, der sich mittelbar aus der Fälligkeitsregel des Satz 1 BGB ergibt. Danach ist die Vergütung "nach" Leistung der Dienste zu entrichten. Die grundsätzliche Überlegung ist, dass die Arbeitsleistung eine Fixschuld ist, die zu erfüllen mit Zeitablauf in der Regel unmöglich wird. Hierüber besteht weitgehend Einigkeit. Wie das im Einzelfall zu begründen ist, ist streitig. Manche nehmen generell eine absolute Fixschuld an und meinen, die Arbeit könne nie nachgeholt werden. Andere (auch das Bundesarbeitsgericht) wollen von einer relativen Fixschuld im Sinne von Abs. 2 Nr. 2 BGB unter Berücksichtigung der konkreten Situation (Arbeitszeitkonten, Gleitarbeitszeit etc.) ausgehen. Im Normalfall gilt aber, dass ein Nachholen der Arbeit bereits deshalb unmöglich ist, weil der Arbeitnehmer an den folgenden Tagen bereits eine neue Arbeitsleistung schuldet. Da im Arbeitsrecht grundsätzlich das allgemeine Leistungsstörungsrecht gilt, ergibt sich daraus für die Hauptleistungspflicht Arbeit eine Unmöglichkeit nach BGB. Daraus folgt dann gemäß Abs. 1 Satz 1 BGB, dass der Anspruch auf die Gegenleistung entfällt ("keine Leistung ohne Gegenleistung"). Otho. Porträt Othos auf einer zeitgenössischen Münze Marcus Salvius Otho (* 28. April 32 in Ferentium; † 16. April 69 in Brixellum) war vom 15. Januar 69 bis zu seinem Tod drei Monate später römischer Kaiser. Er war einer der vier Kaiser des Vierkaiserjahres. Familie. Die Familie Othos stammte aus dem südetruskischen Ferentium. Sein Großvater Marcus Salvius Otho gehörte ursprünglich dem Ritterstand an und wurde als erster der Familie in den Senat aufgenommen. Durch Förderung der Livia wurde er 8 v. Chr. Münzmeister und später Prätor. Dessen Sohn, Othos Vater Lucius Salvius Otho, wurde im Jahr 33 Suffektkonsul, unter Caligula und Claudius Statthalter der Provinzen Africa und Dalmatia. Er gehörte den Arvalbrüdern an und wurde von Claudius in den Patrizierstand erhoben. Verheiratet war er mit Albia Terentia, die aus einer ritterlichen Familie stammte. Jugend und Aufstieg. Während seiner Jugend pflegte Otho zum Missfallen seines Vaters einen verschwenderischen und leichtfertigen Lebensstil. Durch Neros zeitweilige Geliebte Acte gelangte er Mitte der 50er Jahre in den Kreis um den jungen Kaiser. 58 heiratete Otho die schöne Poppaea Sabina, angeblich auf Betreiben Neros, der sie als Geliebte gewinnen wollte, vielleicht aber auch aus Liebe. Nero empfand ihn jedenfalls bald als Rivalen um Poppaeas Gunst und schickte ihn, obwohl Otho erst die Quästur bekleidet hatte, im Jahr 59 als Statthalter nach Lusitanien, um Poppaea selbst heiraten zu können. Seine Provinz, in der er zehn Jahre blieb, soll Otho gut verwaltet haben. Als sich Servius Sulpicius Galba, der Statthalter der benachbarten Provinz Hispania Tarraconensis, gegen Nero erhob, unterstützte Otho ihn und ging mit Galba nach Rom. Er machte sich Hoffnungen darauf, vom neuen Kaiser adoptiert und dadurch zum Nachfolger bestimmt zu werden. Galba entschied sich jedoch für Lucius Calpurnius Piso Frugi Licinianus als Nachfolger. Der zurückgesetzte Otho stiftete am 15. Januar 69 die Prätorianergarde an, Galba und Piso zu töten und ihn selbst zum Kaiser auszurufen. Widerwillig erkannte der Senat Otho als Kaiser an. Herrschaft. Zur Überraschung aller regierte Otho während seiner kurzen Amtszeit mit erstaunlichem Geschick. Seine Stellung war jedoch von Anfang an nicht unangefochten, denn ungefähr gleichzeitig mit Othos Staatsstreich erhob sich auch der niedergermanische Statthalter Aulus Vitellius zum Kaiser, gestützt auf die Legionen in Germania inferior und Superior und Britannien. Die Provinzen im Osten legten jedoch einen Eid auf Otho als Kaiser ab. Otho versuchte, an die Herrschaft Neros anzuknüpfen (er führte zeitweilig sogar dessen Namen und hob die "damnatio memoriae" auf). Er stützte sich vor allem auf die Prätorianer und ehemalige Anhänger Neros, die wieder in Ämter eingesetzt wurden, bis auf den früheren Prätorianerpräfekten Tigellinus, den Otho für den Verrat an Nero hinrichten ließ. Versuche Othos, die Erhebung des Vitellius durch Verhandlungen zu beenden, scheiterten. Vitellius gab sich nicht mit der angebotenen Rolle eines Mitregenten zufrieden und setzte seine Truppen nach Italien in Marsch. Otho musste zur Verteidigung auf eine inhomogene Streitmacht zurückgreifen, die aus den Prätorianern, 2.000 Gladiatoren und einer aus Flottensoldaten aufgestellten Legion (I Adiutrix) bestand, zu denen eilig herbeigerufene Legionen aus den Donauprovinzen kamen. Sie stellte sich den Truppen des Vitellius in Oberitalien entgegen, wo Otho in Brixellum sein Hauptquartier aufschlug. Seine Truppen waren zunächst in drei kleineren Schlachten erfolgreich, am Fuß der Alpen, bei Placentia und in der Nähe von Cremona bei einem Ort namens "ad Castores". Am 14. April 69 unterlag Othos Armee in der (ersten) Schlacht von Bedriacum (bei Cremona). Als Otho in Brixellum davon tags darauf erfuhr, erdolchte er sich am nächsten Morgen in seinem Zelt, in der Hoffnung, weiteres Blutvergießen zu verhindern, obwohl seine Umgebung die Niederlage nicht für kriegsentscheidend hielt und weiterkämpfen wollte. Sein Leichnam wurde verbrannt und seine Asche in einem einfachen Grabmal beigesetzt. Aulus Vitellius wurde vom Senat offiziell als Nachfolger anerkannt. Oslo. Oslo, aus Richtung Ekeberg (2005) Christiania, Blick aus Richtung Ekeberg (1814) Gedenken an die Opfer der Anschläge vom 22. Juli 2011 (:, norwegisch:, oder) ist die Hauptstadt des Königreichs Norwegen. Ihr ehemaliger Name war Christiania (1624 bis 1924) bzw. Kristiania (alternative Schreibweise von 1877/1897 bis 1924). Die Kommune Oslo bildet eine eigenständige Provinz (Fylke) und ist zudem Verwaltungssitz für die benachbarte Provinz Akershus. Mit Einwohnern (Stand:) ist Oslo die mit Abstand größte Stadt des Landes. Insgesamt leben im Osloer Ballungsraum rund 1,9 Millionen Menschen, mehr als ein Drittel der Bevölkerung. Ortsname. Beide "o" werden – wie in den meisten Wörtern – im Norwegischen wie deutsch "u" ausgesprochen, also oder. Die verbreitetste Erklärung leitet den Namen Oslo von dem Fluss "Alna" her, der in früheren Zeiten "Lo(en)" genannt wurde. Norwegisch "os" ist die Flussmündung. Gegenüber den zahlreichen anderen Mündungsorten wie Nidaros und Namsos sind hier allerdings die Wortbestandteile Flussname und Mündung vertauscht, wodurch das Zusammentreffen zweier gleicher Vokale vermieden wurde. Nach einem großen Stadtbrand 1624 wurde die Stadt unter dem dänischen König Christian IV. etwa einen Kilometer nordwestwärts verlegt und in "Christiania" umbenannt. 1877 änderte sich unter dem schwedisch-norwegischen König Oskar II. die offizielle Schreibweise in der Matrikel und im Staatskalender in "Kristiania", während die Stadtverwaltung bis 1897 die ursprüngliche Schreibweise beibehielt. Erst 1924, zwanzig Jahre, nachdem Norwegen seine Eigenständigkeit errungen hatte, wurde beschlossen, der Stadt nach rund 300 Jahren zum 1. Januar 1925 wieder den ursprünglichen Namen "Oslo" zu geben. Das monumentale Rathaus von Oslo, dessen Bau 35 Jahre von 1915 (erster Architektenwettbewerb) bis 1950 dauerte, kann als Symbolbauwerk der neu gewonnenen Unabhängigkeit gelten. Ein Kosename der Stadt ist "Tigerstaden" (Tigerstadt) nach einem Gedicht von Bjørnstjerne Bjørnson („Sidste Sang“, 1870). In diesem Gedicht wird Oslo als gefährliche und unbarmherzige Stadt beschrieben. Vor dem Rathaus und vor dem Bahnhof erinnern Tigerskulpturen an diesen Namen, der seinen negativen Klang inzwischen verloren hat. Geschichte. In der Heimskringla, einer Geschichte der norwegischen Könige, behauptet der isländische Gelehrte Snorri Sturluson, dass Oslo im Jahr 1048 von König Harald III. gegründet worden sei. Ausgrabungen der jüngeren Zeit haben indes christliche Gräber aus der Zeit um 1000 zum Vorschein gebracht. Aus diesem Grund beging die Stadt im Jahr 2000 ihr tausendjähriges Jubiläum, während 1950 erst der 900. Geburtstag begangen worden war. Die mittelalterliche Stadt hatte zwei Burgen, den Königshof und die Bischofsburg. Innerhalb der Stadtmauern gab es neun Kirchen, darunter die St. Clemens und die Hallvardskathedrale, ein Hospital und etwa 400 Stadthäuser von Kaufleuten und Handwerkern. Die Wohnhäuser bestanden aus Holz. König Håkon V. machte Oslo 1299 zur Hauptstadt Norwegens, veranlasste den Bau der Festung Akershus und sorgte für eine Reihe weiterer Bauaktivitäten wie der Errichtung der St. Marienkirche. Im Spätmittelalter entwickelte sich Oslo zu einer wichtigen Kaufmanns- und Residenzstadt. Die Einwohnerzahl verdoppelte sich auf 3.500. 1308 wurde Oslo von Herzog Erik av Södermanland geplündert und niedergebrannt. Die noch unfertige Festung Akershus hingegen überstand die Belagerung. Die Stadt wurde wiederholt von Stadtbränden heimgesucht, jedoch immer wieder aufgebaut. Nach der Reformation verfielen das Kloster und die meisten der zahlreichen Kirchen. Nach den Bränden wurden diese Gebäude abgetragen und die Steine für andere Bauzwecke verwendet. Während der schwedischen Belagerung 1537 brannte die Stadt abermals. Nach dem großen Brand von 1624 wurde die Stadt jedoch nicht wieder aufgebaut, sondern auf Befehl des dänischen Königs Christian IV. – Norwegen war zu dieser Zeit Provinz Dänemarks – näher an die Festung Akershus verlegt. Die neu erbaute Stadt wurde nach dem Idealbild der Renaissance mit rechteckigen Quartieren und breiten Straßen errichtet und erhielt eine Festungsanlage mit Bastionen. Die Häuser baute man nun in Stein oder aus gemauertem Fachwerk, um das Ausbreiten von Bränden zu verhindern. Gleichzeitig erhielt die Stadt den Namen Christiania, nach dem König Christian IV. Das alte Oslo lag nun außerhalb der Stadtmauern von Christiania. Trotz königlichen Verbots wurde es wieder besiedelt, hauptsächlich von Armen und Landlosen, die sich das teure Leben im modernen Christiania nicht leisten konnten. Die Johannes Kirke wurde 1875 erbaut und 1928 abgerissen. Innerhalb der Kernstadt herrscht ein für Europa ungewöhnlich hohes Preisniveau. In entsprechenden Rankings, basierend auf standardisierten Warenkörben, belegt die Stadt regelmäßig Spitzenplätze. Laut "The Economist" hat Oslo seit 2006 Tokio als die weltweit teuerste Stadt abgelöst. Bis dahin hatte die japanische Hauptstadt 14 Jahre lang Platz eins belegt. Die Universität Oslo ist mit etwa 30.000 Studenten die größte des Landes und wurde 1811 nach Vorbild der Berliner Friedrich-Wilhelms-Universität gegründet. 1952 fanden die Olympischen Winterspiele in Oslo statt, unter anderem am Holmenkollen. Anfang der 1990er Jahre fanden die ersten geheimen Verhandlungen der Streitparteien PLO und Israel unter norwegischer Vermittlung in Oslo statt. Am 22. Juli 2011 tötete der Attentäter Anders Behring Breivik bei einem Bombenanschlag im Regierungsviertel in Oslo acht Menschen. Anschließend erschoss der Attentäter auf der Insel Utøya weitere 69 Menschen. Wappen. Das mit fünfzinniger goldener Mauerkrone als Rundschild ausgebildete Stadtwappen zeigt (Blasonierung): In Blau auf silbernem Winkelschildfuß, der Schildkrümmung folgend eine liegende unbekleidete Frau mit langem goldenen Haar, ein in ein kurzärmliges langes rotes Gewand, rote Schuhe und silbernen Umhang gekleideter, silbern behelmter, golden nimbierter Mann, in den ausgestreckten Händen rechts einen silbernen Mühlstein haltend, in der Linken drei gebündelte silberne Pfeile; beidseitig hinter ihm hervorragend zwei liegende goldene Löwen, begleitet neben Haupt und Löwen von vier goldenen fünfstrahligen Sternen. Der Heilige stellt St. Hallvard dar, beim Versuch, eine Frau vor Gewalttätern zu retten. Halvard wurde von ihnen mit Pfeilen verwundet und, mit einem Mühlstein beschwert, ertränkt. Um das Wappen läuft ein Spruchband mit der lateinischen Devise „unanimiter et constanter“ (einmütig und beständig). Lage. Oslo liegt in innerer Fjordlage und ist von Wald und Fjord umgeben. Der Akerselva entspringt dem Maridalsvannet, durchfließt die Stadt von Nord nach Süd und mündet in den Oslofjord. Klima. Entsprechend der Lage am Oslofjord hat Oslo ein stark maritim geprägtes feucht-kontinentales Klima (Köppen: "Dfb"), das sich durch milde Winter und einen auf die zweite Jahreshälfte verschobenen, regenreichen Spätsommer auszeichnet. Die Sommer sind angenehm und sonnig. In den höher gelegenen Randgebieten ist es oft deutlich kühler als im Stadtzentrum. Die Temperaturunterschiede können oft mehr als 10 °C betragen, besonders im März/April, wenn in den am Stadtrand angrenzenden Wäldern noch eine geschlossene Schneedecke vorhanden ist. Bevölkerung. Etwa 30 Prozent der Einwohner sind Ausländer. Zum 1. Januar 2004 wurden die Stadtteile neu so eingeteilt, dass nunmehr 15 Stadtteile bestehen. Sentrum (Stadtmitte) und Marka (Wald und landwirtschaftlich benutztes Land) sind keine Stadtteile in politischem Sinne, da sie zentral verwaltet werden. Am 16. Januar 2011 überschritt Oslo die Einwohnerzahl von 600.000 Einwohnern. Blick vom Holmenkollen südwärts Richtung Nesodden Karl Johans gate, im Hintergrund das Schloss Sehenswürdigkeiten. Zum besonderen Flair Oslos in der inneren Fjordlage tragen viele Sehenswürdigkeiten bei. Die bedeutendste ist die so genannte Gamlebyen (deutsch "Altstadt") mit den freigelegten Grundmauern des mittelalterlichen Oslo sowie das Schloss und die Burg Festung Akershus ("Akershus slott og festning"). Entlang der zentralen Einkaufsstraße, der Karl Johans gate, liegen sehenswerte Regierungsgebäude wie das Storting sowie "Slottet", das Königliche Schloss. Auf Nr. 31 – im Gebäude des 1874 vom Restaurateur Julius Fritzner eröffneten Grand Hotel – befindet sich heute noch das Grand Café, in dem einst Henrik Ibsen Stammgast war. Ebenfalls im Stadtzentrum liegen das markante Rathaus, in dem alljährlich der Friedensnobelpreis verliehen wird, der Osloer Dom (Oslo Domkirke) sowie das Nationaltheater. Das Neue Opernhaus der Norwegischen Oper, geplant vom norwegischen Architekturbüro Snøhetta, wurde 2008 eröffnet. Auch die Museen der Stadt bieten zahlreiche Sehenswürdigkeiten. Dazu zählen vor allem das Frammuseum und Kon-Tiki-Museum auf Bygdøy, die Nationalgalerie, das Munch-Museum mit dem Nachlass des Malers Edvard Munch, das Norsk Folkemuseum, ein Freilichtmuseum mit wiedererrichteten Gebäuden aus ganz Norwegen, und das Vikingskipshuset mit archäologischen Wikingerschiffsfunden und das Kulturhistorische Museum Oslo, das auch den Runenstein von Tune und den Gjermundbu-Helm präsentiert. 1993 wurde das private "Astrup Fearnley Museet for Moderne Kunst" eröffnet, das über eine umfangreiche Sammlung von Werken norwegischer und internationaler Gegenwartskunst verfügt, darunter seit 2002 die monumentale Porzellanskulptur "Michael Jackson and Bubbles" von Jeff Koons. Die deutsche Besatzungszeit wird im Holocaustmuseum, in der Villa Grande sowie dem Widerstandsmuseum "Norges Hjemmefrontmuseum" im Komplex der Festung Akershus aufgearbeitet. Die wechselvolle Geschichte der Stadt wird im Oslo Bymuseum gezeigt, dem Stadtmuseum auf Gut Frogner. Bei gutem Wetter laden die Skisprunganlage Holmenkollen oberhalb der Stadt mit dem "Skimuseum am Holmenkollen" sowie die Vigeland-Anlage im Frognerpark mit Skulpturen Gustav Vigelands zum Verweilen ein. Eine weitere Möglichkeit zur Gestaltung der Freizeit ist ein Besuch des größten Vergnügungsparks in Norwegen, dem TusenFryd. Der Park liegt etwa 20 min südlich von Oslo. Fotos. 700pxBlick auf Oslo vom Ekeberg 700pxBild von der Hovedøya Politik. Die Stadtversammlung ("bystyre") von Oslo besteht aus 59 gewählten Stadtverordneten. Sie erfüllt auch die Aufgaben als Fylkesting. 1986 wurde das Proporzsystem durch das parlamentarische Mehrheitsprinzip ersetzt: Die politische Mehrheit in der Stadtversammlung wählt den Bürgermeister und den Stadtrat ("byråd" oder "byregjering"), bestehend aus dem Bürgervorsteher ("byrådsleder") und bis zu sieben Stadträten ("byråd"). Traditionell haben die Mitte-rechts-Parteien in der Hauptstadt das Übergewicht. Seit 2015 regiert jedoch eine linke Mehrheit aus Arbeiterpartei, Grünen und Linkspartei unter Führung von Bürgervorsteher Raymond Johansen (Ap). Stadtparlament. Die jüngste Kommunalwahl fand am 14. September 2015 statt. In der folgenden Übersicht sind die Stadtregierungsparteien grau unterlegt, ein Sternchen markiert feste Partner bei der Verabschiedung des jährlichen Haushaltsplans. Bürgermeister. Das Amt eines Bürgermeisters ("ordfører") von Oslo/Christiania existiert seit 1837. Wirtschaft. Oslo ist Sitz diverser norwegischer Unternehmen, darunter Medinor, Qt Software und Opera Software. Hier befindet sich auch die Deutsch-Norwegische Handelskammer. Flugverkehr. Oslo ist über drei internationale Flughäfen zu erreichen: Flughafen Oslo-Gardermoen, Flughafen Sandefjord-Torp und Flughafen Moss-Rygge. Der frühere Flughafen Oslo-Fornebu wird seit der Inbetriebnahme von Gardermoen nicht mehr bedient. Gardermoen ist Norwegens Hauptflughafen. Er liegt ca. 50 km nordöstlich der Stadt und ist über eine Eisenbahnverbindung (Hochgeschwindigkeitszug Flytoget und NSB-Regionalzüge) und über mehrere Buslinien (SAS Flybussen und Flybussekspressen) angebunden. Der Flughafen Torp liegt ca. 120 km südwestlich von Oslo bei Sandefjord. Der Billigflieger Ryanair verwendet die Bezeichnung „Oslo-Torp“. Nach Oslo gibt es Bahn- (NSB) und Busverbindungen (Torpekspressen). Der Flughafen Rygge liegt ca. 60 km südlich von Oslo bei Moss auf einem ehemaligen Militärflugplatz und nahm im Herbst 2007 den Betrieb auf. Nach Oslo gibt es Bahn- (NSB) und Busverbindungen (Ryggeekspressen und Timekspressen). Öffentlicher Nahverkehr. Oslo besitzt ein Netz von U-Bahnen (T-bane), Straßenbahnen und Buslinien. Die U-Bahn verkehrt durch die Stadtmitte unterirdisch, in den Randgebieten oberirdisch. Im Jahre 2006 wurde das U-Bahn-Netz durch eine Ringbahnstrecke ergänzt. Seit 2009 gibt es ein neues Fahrkartensystem, das beim Betreten und Verlassen der Bahnstationen die Karten kontrolliert. Jedoch können auch weiterhin Fahrausweise aus Papier gekauft werden. Oslo verfügt über ein System öffentlicher Fahrräder, die während des Sommers an verschiedenen Standorten im Stadtgebiet ausgeliehen werden können und dort auch wieder abgegeben werden müssen. Die Fjordinseln werden von Personenfähren bedient. Diese sind im Preis für ein Ticket des öffentlichen Nahverkehrs in Oslo inbegriffen. Bahn. Fernverbindungen mit den Tag- oder Nachtzügen der Norges Statsbaner verbinden Oslo mit Kristiansand, Stavanger, Bergen und Trondheim. Internationale Verbindungen bestehen nach Göteborg und Stockholm. Regionalzüge verkehren stündlich bis Lillehammer, Halden und Larvik. Weitere Orte sind durch Lokalzüge angebunden. Fähre. Es gibt Fährverbindungen nach Kiel mit Color Line, Frederikshavn mit Stena Line und Kopenhagen mit DFDS Seaways. One Time Programmable. (OTP) ist ein Begriff der Elektronik. Unter einem OTP-Baustein versteht man ein programmierbares elektronisches Bauelement, das einen nicht flüchtigen Speicher (PROM) enthält. Dieser Speicher lässt sich jedoch nur einmal beschreiben. Je nach Bauart des Bauelements kann ein Programmiergerät zusätzlich erforderlich sein. Mittlerweile gibt es eine Vielzahl von Bauelementen, die zusätzlich auch in der OTP-Technologie hergestellt werden. Funktionsweise. Die OTP-Technologie kann grundsätzlich als Fuse-Technologie oder als Antifuse-Technologie realisiert werden. Bei der Herstellung der OTP-Bauelemente durch den Halbleiterhersteller sind beispielsweise bei der Antifuse-Technologie alle Verbindungsstellen offen, erst durch die Programmierung werden die relevanten Verbindungsstellen verbunden. Es existieren jedoch auch "unechte" OTP-Speicher, welche als sog. "OTP-Area" in bestimmten Flash-Speichern implementiert sind. Diese Speicherbereiche bestehen in der Regel aus normalen Flash-Zellen, welche durch eine Zusatzlogik gegen Veränderung gesichert werden. Einsatzbereiche. Die OTP-Technologie kann beispielsweise bei den nachfolgenden Bauelementen eingesetzt werden. Einzelne OTP-Bereiche existieren auch in bestimmten Bauelementen, wie beispielsweise Flash-Speichern, Smartcards und Mikrocontrollern, wobei diese dazu dienen, Seriennummern oder andere Identifikationsdaten unabänderlich zu speichern. Ein Beispiel dazu ist die IMEI der meisten modernen Handys. Vorteile. Der Vorteil der OTP-Technologie liegt darin, dass die Schaltungsfunktion der programmierten Bauelemente nicht (also auch nicht unbeabsichtigt) geändert werden kann. Gegenüber Bauelementen mit Maskenprogrammierung kann bei der Baugruppenproduktion durch die Verwendung von OTP-Bauelementen kurzfristig auf eine Änderung des Dateninhalts reagiert werden. Nachteile. Die OTPs haben beim praktischen Schaltungsaufbau aber entscheidende Nachteile, die bei der Schaltungsentwicklung berücksichtigt werden müssen. Einmal programmiert und einmal auf einer Baugruppe verbaut, kann die Logikfunktion dieses Bauelements nur noch durch einen Tausch des Bauelements (=Auslöten des alten Bauelements von der Leiterplatte und Einlöten des neuen Bauelements auf die Leiterplatte) geändert werden. Eine Funktionserweiterung, wie sie heute beispielsweise durch ein Software-Update oder bei einer Schaltungsänderung bei der Logikfunktion bei anderen programmierbaren Logikbauelementen üblich ist, ist bei den OTP-Bauelementen generell nicht möglich. Weiterhin darf die Tragweite eines Fehlers in der Funktion oder bei der Programmierung der OTP-Bauelemente nicht unterschätzt werden. Je umfangreicher die Schaltungsfunktion ist, desto größer ist das Risiko, dass in der Funktion ein Fehler enthalten ist, der auch mit den Entwicklungstests nicht gefunden wird. Im Extremfall kann eine Fehlfunktion einen Ausbau des Geräts beim Endkunden und eine Änderung durch den Hersteller zur Folge haben. Olympische Spiele. a> mit den fünf Ringen; erstmals verwendet bei den Olympischen Spielen 1920 in Antwerpen Olympische Spiele (von altgriechisch "ta Olýmpia" „die Olympischen Spiele“;) ist die Sammelbezeichnung für regelmäßig ausgetragene Sportwettkampfveranstaltungen, die „Olympischen Spiele“ und „Olympischen Winterspiele“. Bei diesen treten Athleten und Mannschaften in verschiedenen Sportarten gegeneinander an. Organisiert werden sie vom Internationalen Olympischen Komitee (IOC). Der Zeitraum zwischen den Spielen wird als "olymbiada" ολυμπιάδα ‚Olympiade‘ bezeichnet. Die Einführung der Olympischen Spiele der Neuzeit wurde 1894 als Wiederbegründung der antiken Festspiele in Olympia auf Anregung von Pierre de Coubertin beschlossen. Als „Treffen der Jugend der Welt“ sollten sie dem sportlichen Vergleich und der Völkerverständigung dienen. Seit 1896 finden alle vier Jahre Olympische Spiele und seit 1924 Olympische Winterspiele statt. Seit 1994 alternieren Winter- und Sommerspiele im zweijährigen Rhythmus. Das IOC übernimmt auch die Schirmherrschaft für die Paralympics als Wettkämpfe behinderter Sportler, der Deaflympics, Special Olympics und der World Games für nichtolympische Sportarten. Darüber hinaus gibt es seit 2010 die Olympischen Jugendspiele, die für Jugendliche im Alter von 14 bis 18 Jahren bestimmt sind. Die Olympischen Spiele sind in ihrem Umfang stetig gewachsen, so dass mittlerweile fast jedes Land der Welt mit Sportlern vertreten ist. Neben den Fußball-Weltmeisterschaften gelten sie gegenwärtig als das größte Sportereignis der Welt. Olympische Spiele der Antike. Der Ursprung der Olympischen Spiele der Antike liegt vermutlich im 2. Jahrtausend v. Chr. Die Siegerlisten reichen bis ins Jahr 776 v. Chr. zurück und wurden im 4. Jahrhundert v. Chr. rekonstruiert. Die Zählung nach Olympiaden war ein Zeitmaß im gesamten antiken Griechenland. „Olympiade“ ist somit – entgegen einem heute weit verbreiteten Irrtum – nicht synonym mit „Olympische Spiele“, sondern bezeichnet den Zeitraum von vier Jahren, der mit den Spielen beginnt. Die Olympischen Spiele, benannt nach ihrem Austragungsort Olympia im Nordwesten der Halbinsel Peloponnes, waren Teil eines Zyklus, der drei weitere Panhellenische Spiele umfasste: Die Pythischen Spiele in Delphi, die Nemeischen Spiele in Nemea und die Isthmischen Spiele auf dem Isthmus von Korinth. In der Anfangszeit gab es nur einen Wettlauf über die Distanz des Stadions (192,24 Meter). Die Spiele erhielten mit der Zeit eine immer größere Bedeutung. Sie waren aber keine „Sportveranstaltung“ in unserem heutigen Sinne, sondern ein religiöses Fest zu Ehren des Göttervaters Zeus und des göttlichen Helden Pelops. In ihrer Blütezeit dauerten die Spiele fünf Tage – der erste Tag war bestimmt von kultischen Zeremonien wie Weihehandlungen und dem Einzug der Athleten, Betreuer, Schiedsrichter und Zuschauer in den heiligen Hain von Olympia. Neben den Wettkämpfen – zuletzt waren es 18 in den Sportarten Leichtathletik, Schwerathletik, Pentathlon und Reiten – waren musische Wettbewerbe ebenso wichtig. Nicht der Sport als solcher stand im Mittelpunkt, sondern die religiöse Komponente. Die eigentlichen Spiele begannen mit dem Umzug aller Beteiligten zum Tempel des Zeus. Hier schworen die Athleten, sich an die Regeln der Spiele zu halten. Die Sieger erhielten einen Siegeskranz aus Olivenzweigen sowie ein Stirnband. Man sah sie als „von den Göttern begünstigt“ an und verewigte sie mit Gedichten und Statuen. Jede Niederlage, sogar schon ein zweiter oder dritter Platz, galt als untilgbare Schmach. Die Verlierer kehrten auf Schleichwegen in ihre Heimat zurück, um dem Spott zu entgehen, der sie erwartete. Als berühmtester Olympionike der Antike gilt der Ringer Milon von Kroton, der erste namentlich bekannte ist Koroibos. Die antiken Spiele waren aus heutiger Sicht außerordentlich brutal, jeder Teilnehmer in den klassischen Kampfsportarten (Boxen, Ringen, Stockfechten, Pankration) musste auch mit dem Tod rechnen und teilweise wurden Kämpfer für ihr Durchhalten zum Sieger erklärt, nachdem ihr Tod im Kampf festgestellt wurde. Als die Römer im Jahr 148 v. Chr. Griechenland eroberten, verloren die Olympischen Spiele ihren panhellenischen Charakter. Von nun an war es auch nichtgriechischen Athleten gestattet, teilzunehmen. Vermutlich zum letzten Mal fanden die Spiele im Jahr 393 statt, bevor der römische Kaiser Theodosius I. alle heidnischen Zeremonien verbot. Fest steht, dass die Spiele nicht nach 426 n. Chr. ausgetragen werden konnten, weil damals Theodosius II. alle griechischen Tempel zerstören ließ. Überschwemmungen, Erdrutsche und Erdbeben verschütteten die übrigen Anlagen. Vorläufer. Die olympische Idee ging nicht ganz verloren. So fanden im Westen Englands zu Beginn des 17. Jahrhunderts erstmals die "Cotswold Olympick Games" statt. Ein weiterer Versuch, die Olympischen Spiele wiederzubeleben, waren die "Olympiades de la République", die von 1796 bis 1798 jährlich im revolutionären Frankreich ausgetragen wurden. Auf diese Veranstaltung geht auch die Verwendung des metrischen Systems im Sport zurück. 1850 führte die landwirtschaftliche Lesegesellschaft von Much Wenlock in der englischen Grafschaft Shropshire eine „olympische Klasse“ ein. Daraus entwickelten sich zehn Jahre später die "Wenlock Olympian Games", die bis heute unter der Bezeichnung "Wenlock Olympian Society Annual Games" fortgeführt werden. 1866 organisierte William Penny Brookes, der Vorsitzende der Wenlock Olympian Society, nationale Olympische Spiele im Londoner Crystal Palace. Das griechische Interesse an der Wiedereinführung der Olympischen Spiele erwachte nach der Griechischen Revolution gegen die Herrschaft des Osmanischen Reiches. Der Dichter und Verleger Panagiotis Soutsos machte den ersten entsprechenden Vorschlag in seinem 1833 veröffentlichten Gedicht „Dialog der Toten“. Als wichtigster Vorläufer der modernen Olympischen Spiele gelten die Olympien, die ihrerseits das Münchner Oktoberfest zum Vorbild hatten. Sie wurden vom wohlhabenden griechischen Kaufmann Evangelos Zappas ins Leben gerufen und durch eine königliche Verfügung von Otto I. als eine nationale Aufgabe von hohem Rang angesehen, die auch internationale Beachtung erfuhr. Die erste Ausgabe fand 1859 im Stadtzentrum Athens statt. Zappas ließ das Panathinaiko-Stadion instand setzen, das bis 1889 Austragungsort weiterer Olympien war. Wiederbelebung der Spiele. Nachdem 1766 die Sport- und Tempelanlagen in Olympia wiederentdeckt worden waren, begannen 1875 groß angelegte archäologische Ausgrabungen unter der Leitung des Deutschen Ernst Curtius. Um diese Zeit kam in Europa die romantisch-idealistische Antiken-Rezeption immer mehr in Mode; der Wunsch nach einer Wiedererweckung des olympischen Gedankens verbreitete sich. So sagte Baron Pierre de Coubertin damals: "„Deutschland hatte das ausgegraben, was vom alten Olympia noch vorhanden war. Warum sollte Frankreich nicht die alte Herrlichkeit wiederherstellen?“" Nach de Coubertins Meinung war die mangelnde körperliche Ertüchtigung der Soldaten eine der Hauptursachen für die Niederlage Frankreichs im Deutsch-Französischen Krieg von 1870/71 gewesen. Er strebte danach, diesen Zustand durch die verbindliche Einführung von Sportunterricht an den Schulen zu verbessern. Gleichzeitig wollte er nationale Egoismen überwinden und zum Frieden und zur internationalen Verständigung beitragen. Die „Jugend der Welt“ sollte sich bei sportlichen Wettkämpfen messen und sich nicht auf den Schlachtfeldern bekämpfen. Die Wiederbelebung der Olympischen Spiele schien in seinen Augen die beste Lösung zu sein, um diese Ziele zu erreichen. Die Wenlock Olympian Games, die de Coubertin 1890 besuchte, bestärkten ihn in der Ansicht, dass eine Wiedereinführung der Olympischen Spiele im großen Rahmen möglich sei. Er griff Brookes und Zappas’ Ideen auf und fügte selbst das Prinzip der Rotation zwischen verschiedenen Austragungsländern hinzu. De Coubertin präsentierte seine Vorstellungen auf einem Kongress, der vom 16. bis 23. Juni 1894 in der Sorbonne-Universität in Paris stattfand und als erster Olympischer Kongress in die Geschichte einging, einer internationalen Zuhörerschaft. Am letzten Tag des Kongresses beschlossen die Teilnehmer, dass die ersten Olympischen Spiele der Neuzeit 1896 in Athen stattfinden sollten, also im Ursprungsland. Um die Spiele zu organisieren, wurde das Internationale Olympische Komitee (IOC) gegründet. Erster Präsident wurde der Grieche Dimitrios Vikelas, während de Coubertin zunächst als Generalsekretär amtierte. Die ersten Spiele der Neuzeit erwiesen sich als großer Erfolg. Obwohl nur rund 250 Athleten teilnahmen, waren sie ein großes sportliches Ereignis seit der europäischen Antike. Die griechischen Offiziellen waren vom Erfolg derart begeistert, dass sie den Vorschlag machten, die Spiele zukünftig immer in Griechenland stattfinden zu lassen. Doch das IOC hielt am Rotationsprinzip zwischen verschiedenen Ländern fest. Nach dem Anfangserfolg geriet die olympische Bewegung in eine Krise. Die Spiele von 1900 in Paris und 1904 in St. Louis waren in die parallel stattfindenden Weltausstellungen eingebettet. Die Wettkämpfe zogen sich über mehrere Monate hin, waren schlecht organisiert und wurden kaum beachtet, zudem nahmen in St. Louis nur wenige Ausländer teil. Bei den Olympischen Zwischenspielen 1906 in Athen standen die sportlichen Wettkämpfe wieder im Vordergrund. Das IOC stimmte der Austragung zwar widerstrebend zu, erkannte die Resultate jedoch nie offiziell an. Von manchen Sporthistorikern werden diese Spiele als Rettung der olympischen Idee angesehen, da sie das Absinken in die Bedeutungslosigkeit verhinderten. Weitere Entwicklung. Die Wintersportart Eiskunstlauf stand 1908 und 1920 auf dem Programm von Sommerspielen, Eishockey 1920. Das IOC wollte diese Liste erweitern, um andere winterliche Aktivitäten abzudecken. Am Olympischen Kongress 1921 in Lausanne fiel der Beschluss, dass die Organisatoren der Sommerspiele 1924 zusätzlich eine „internationale Wintersportwoche“ unter der Schirmherrschaft des IOC veranstalten sollten. Diese „Woche“ (eigentlich waren es elf Tage) in Chamonix erwies sich als großer Erfolg, weshalb das IOC 1925 beschloss, sie rückwirkend als I. Olympische Winterspiele anzuerkennen und weitere Veranstaltungen dieser Art zukünftig im selben Jahr wie die Sommerspiele auszurichten. 1986 beschloss das IOC, beginnend mit 1994 einen separaten Zyklus zu eröffnen und die Winterspiele „im zweiten Kalenderjahr, das jenem folgt, in dem die Spiele der Olympiade abgehalten werden“ auszutragen. Ludwig Guttmann strebte danach, die Rehabilitierung körperlich behinderter Soldaten des Zweiten Weltkriegs zu fördern und sie so in die Gesellschaft zu integrieren. Er organisierte 1948 einen mehrere Sportarten umfassenden Wettstreit zwischen verschiedenen Spitälern. Diese "Stoke Mandeville Games" entwickelten sich zu einem jährlich ausgetragenen Sportereignis. Guttmann und andere verstärkten ihre Öffentlichkeitsarbeit, bis schließlich 1960 die ersten Paralympics stattfanden. Diese werden seither alle vier Jahre ausgetragen (seit 1976 auch im Winter). Seit 1988 sind die Austragungsorte der Paralympics und der Olympischen Spiele identisch. Ebenfalls vom IOC anerkannt sind die seit 1968 durchgeführten Special Olympics für Menschen mit geistiger Behinderung, die 1924 eingeführten Deaflympics für Gehörlose und die seit 1981 stattfindenden World Games für nichtolympische Sportarten mit hoher weltweiter Verbreitung. Die Olympischen Jugendspiele für jugendliche Sportler im Alter von 14 bis 18 Jahren gehen auf eine Idee von IOC-Präsident Jacques Rogge zurück. 2007 fiel der Beschluss zur Einführung, 2010 fanden in Singapur erstmals Olympische Jugend-Sommerspiele statt, die Olympischen Jugend-Winterspiele wurden erstmals 2012 in Innsbruck ausgetragen. Von 1912 bis 1948 fanden zusätzlich olympische Kunstwettbewerbe statt. In den Jahren 1924, 1932 und 1936 wurde mit dem Prix olympique d’alpinisme auch ein Preis für herausragende Leistungen im Bergsteigen vergeben. Wachstum. An den ersten Olympischen Spielen der Neuzeit hatten 1896 rund 250 Athleten aus 14 Ländern teilgenommen. Im Laufe der Jahre stiegen die Teilnehmerzahlen ständig. Beispielsweise nahmen an den Sommerspielen 2008 in Peking über 11.000 Athleten aus 204 Ländern an 302 Wettbewerben teil. Die Anzahl der Teilnehmer bei Winterspielen ist im Vergleich dazu bedeutend geringer, bei den Winterspielen 2006 in Turin waren etwas mehr als 2.500 Athleten aus 80 Ländern gemeldet, die in 84 Wettbewerben an den Start gingen. Die Zahl der Mitgliedsländer des IOC beträgt 205 (vgl. Liste im Artikel Nationales Olympisches Komitee). Sie ist höher als jene der Länder, die von den Vereinten Nationen anerkannt werden (momentan 193). Das bedeutet, dass es 13 weitere IOC-Mitglieder gibt. Der Grund dafür ist, dass auch Nationen zugelassen sind, die nicht die strikten Anforderungen für politische Souveränität erfüllen, wie dies von den meisten anderen internationalen Organisationen verlangt wird. Als Folge davon besitzen mehrere Kolonien bzw. abhängige Gebiete eigene Delegationen, die getrennt von ihren Mutterländern teilnehmen. Olympische Bewegung. Eine Vielzahl nationaler und internationaler Sportorganisationen und -verbände, anerkannte Medienpartner sowie Athleten, Betreuer, Schiedsrichter und jede andere Person oder Organisation, die sich zur Einhaltung der Olympischen Charta verpflichtet hat, bilden zusammen die so genannte olympische Bewegung. Ihre Dachorganisation ist das Internationale Olympische Komitee (IOC) mit Sitz in Lausanne, das seit 2013 von Thomas Bach präsidiert wird. Das IOC hält die Schirmherrschaft über die olympische Bewegung und beansprucht alle Rechte an den olympischen Symbolen sowie den Spielen selbst. Seine Hauptverantwortung liegt in der Betreuung und Mitorganisation der Olympischen Spiele und der Paralympics, der Auswahl der Austragungsorte und der Sportarten sowie der Vermarktung der Übertragungsrechte. Englisch und Französisch sind die offiziellen Sprachen der olympischen Bewegung. Hinzu kommt bei jeder Austragung die Amtssprache des jeweiligen Austragungslandes. Jede Proklamation geschieht in diesen drei Sprachen oder in den zwei Hauptsprachen, falls die Amtssprache eines Landes Englisch oder Französisch ist. In den Delegationen einiger Nationen reist geistlicher Beistand mit. Für die deutsche Mannschaft waren das 2004 in Athen, 2008 in Sydney und 2012 in London die Priester Hans-Gerd Schütt und Thomas Weber. Austragungsorte. Übersicht der Austragungsorte Olympischer Winterspiele (Legende siehe oben) Die Gastgeberstadt von Olympischen Spielen wird sieben Jahre vor der Austragung bestimmt. Der Auswahlprozess umfasst zwei Phasen, die sich über zwei Jahre erstrecken. Eine Stadt bewirbt sich zunächst beim NOK ihres Landes. Falls mehr als eine Stadt im selben Land eine Kandidatur einreicht, führt das NOK eine interne Selektion durch, da dem IOC nur eine Stadt pro Land präsentiert werden darf. Nach Ablauf der Vorschlagsfrist beginnt die erste Phase. Die Organisationskomitees der Städte werden aufgefordert, einen detaillierten Fragebogen zu verschiedenen Schlüsselkriterien in Bezug auf die Organisation von Olympischen Spielen auszufüllen. Die Bewerberstädte müssen versichern, dass sie die Olympische Charta und andere vom Exekutivkomitee des IOC aufgestellte Vorschriften einhalten werden. Ein spezialisierter Ausschuss prüft anhand der Fragebögen die Projekte aller Bewerber und deren Potenzial, die Spiele auszurichten. Basierend auf dieser Evaluation bestimmt das IOC-Exekutivkomitee jene Bewerber, die in die zweite Bewerbungsphase vorrücken. In der zweiten Bewerbungsphase müssen die Städte dem IOC eine umfangreichere und detailliertere Projektpräsentation vorlegen. Jede Stadt wird von der Evaluationskommission eingehend analysiert. Die Kommissionsmitglieder besuchen die Kandidatenstädte, wo sie Vertreter lokaler Behörden befragen und die Standorte der vorgesehenen Sportanlagen inspizieren. Einen Monat vor der endgültigen Entscheidung des IOC veröffentlicht die Kommission einen Bericht mit ihren Beurteilungen. Während der zweiten Phase müssen die Städte auch finanzielle Garantien abgeben. Nach Vorliegen des Evaluationsberichts stellt das IOC-Exekutivkomitee die endgültige Liste der Kandidaten zusammen. Die Vergabe der Spiele findet bei der Generalversammlung der IOC-Mitglieder statt; diese treffen sich in einer Stadt, die nicht in einem Land mit einer Kandidatur liegt. In geheimer Abstimmung wird schließlich der Austragungsort bestimmt. Nach der Wahl unterzeichnet das erfolgreiche Organisationskomitee (zusammen mit dem NOK des entsprechenden Landes) einen Vertrag "(Host City Contract)" mit dem IOC. Wirtschaftliche Bedeutung. Das IOC wehrte sich ursprünglich gegen die Finanzierung durch Sponsoren. Erst nach dem Rücktritt des als sehr prinzipientreu geltenden Avery Brundage im Jahr 1972 begann das IOC, das Potenzial des Mediums Fernsehen und den damit verbundenen lukrativen Werbemarkt auszuloten. Unter der Präsidentschaft von Juan Antonio Samaranch passte sich das IOC immer mehr den Bedürfnissen internationaler Sponsoren an, die ihre Produkte mit den olympischen Namen- und Markenzeichen bewerben wollten. Die Vermarktung der olympischen Markenzeichen ist umstritten. Hauptkritikpunkt ist, dass die Olympischen Spiele nicht mehr von anderen kommerzialisierten Sportspektakeln unterschieden werden können. Das IOC wurde kritisiert, dass insbesondere während der Sommerspiele 1996 und 2000 eine Marktsättigung eingetreten sei und die Gastgeberstädte von Unternehmen und Händlern überflutet worden seien, die ihre Olympia-Produkte verkaufen wollten. Das IOC versprach, in Zukunft der Übervermarktung entgegenzuwirken. Eine weitere Kritik spricht die Tatsache an, dass Olympische Spiele von den Gastgeberstädten und den Regierungen der entsprechenden Staaten finanziert werden. Das IOC kommt nicht für die Kosten auf, kontrolliert aber alle Rechte, profitiert von den olympischen Symbolen und beansprucht einen Anteil an allen Sponsoren- und Medieneinnahmen. Städte bewerben sich aber weiterhin um das Recht, Olympische Spiele auszutragen, obschon sie keine Gewissheit haben, dass ihre Kosten gedeckt sein werden. Wichtig ist ihnen vor allem die weltweite Ausstrahlungskraft. Budget. In der ersten Hälfte des 20. Jahrhunderts verfügte das IOC nur über ein kleines Budget. Avery Brundage lehnte jegliche Versuche ab, die Olympischen Spiele mit kommerziellen Interessen zu verbinden. Er war davon überzeugt, die Interessen der Unternehmen würden unannehmbare Auswirkungen auf die Entscheidungen des IOC haben. Brundages Ablehnung dieser Einnahmequelle bedeutete, dass die Organisationskomitees einzelner Spiele selbst Sponsorenverträge aushandelten. Als er 1972 zurücktrat, hatte das IOC ein Vermögen von 2 Millionen USD. Acht Jahre später war diese Zahl auf 45 Millionen USD angewachsen, da das IOC gegenüber Sponsoring und dem Verkauf der Übertragungsrechte mittlerweile eine weitaus liberalere Haltung einnahm. Als Juan Antonio Samaranch 1980 das Präsidentenamt übernahm, war er fest entschlossen, das IOC finanziell unabhängig zu machen. Die Sommerspiele 1984 in Los Angeles markierten einen Wendepunkt. Dem von Peter Ueberroth angeführten Organisationskomitee LAOOC gelang es, durch den Verkauf exklusiver Vermarktungsrechte einen zuvor unvorstellbaren Überschuss von 225 Millionen USD zu erwirtschaften. Das IOC strebte danach, diese Sponsoreneinnahmen für sich selbst zu sichern. Samaranch schuf 1985 das exklusive Sponsorenprogramm "The Olympic Program" (TOP). Die Teilnehmer an TOP erhalten für ihre Produktekategorie weltweite Vermarktungsrechte und können die olympischen Symbole in ihrer Werbung verwenden. Medien. a> hinter der „Olympia-Kanone“ Für die Gastgeberstädte und -länder bieten die Olympischen Spiele eine prestigeträchtige Gelegenheit sich der Welt zu präsentieren und für sich zu werben. Die Sommerspiele 1936 in Berlin waren die ersten, die im Fernsehen übertragen wurden, die Reichweite über den Fernsehsender Paul Nipkow war jedoch gering. Als erste erreichten die Winterspiele 1956 in Cortina d’Ampezzo ein internationales Publikum und 1960 bezahlten Fernsehsender erstmals für die Übertragungsrechte. In den folgenden Jahrzehnten entwickelten sich die Olympischen Spiele zu einer ideologischen Front im Kalten Krieg. Durch die Konkurrenz der politischen Systeme auf sportlicher Ebene stieg das Medieninteresse, wovon das IOC wiederum profitierte. Der Verkauf von Übertragungsrechten ermöglichte es ihm, die Olympischen Spiele bekannter zu machen und dadurch noch mehr Interesse zu generieren. Dies wiederum war attraktiv für Unternehmen, die Werbezeit im Fernsehen kauften. Durch diesen Kreislauf konnte das IOC immer höhere Gebühren für diese Rechte verlangen. Von den 1960er Jahren bis Ende des Jahrhunderts stieg die Zuschauerzahl exponentiell an. Für die Sommerspiele 1968 in Mexiko-Stadt werden 600 Millionen Fernsehzuschauer geschätzt. Bis 1984 in Los Angeles stieg diese Zahl auf 900 Millionen an, 1992 in Barcelona betrug sie bereits 3,5 Milliarden. Bei den Sommerspielen 2000 in Sydney verzeichnete NBC jedoch die tiefsten Einschaltquoten seit 1968. Dies war auf zwei Faktoren zurückzuführen: Einerseits die größere Konkurrenz durch Kabelsender, andererseits das Internet, das Bilder und Resultate in Echtzeit liefern konnte. Insbesondere amerikanische Fernsehsender setzten noch immer auf zeitverschobene Übertragungen, im Informationszeitalter ein rasch veraltendes Konzept. Angesichts der hohen Kosten der Übertragungsrechte und der Konkurrenz durch neue Medien forderte die Fernsehlobby Konzessionen ein. Das IOC reagierte mit diversen Änderungen am Wettkampfprogramm. Beispielsweise wurden die beliebten Schwimm- und Turnwettbewerbe auf mehr Tage verteilt. Schließlich konnte die amerikanische Fernsehlobby in einzelnen Fällen auch diktieren, zu welcher Zeit bestimmte Wettbewerbe stattfanden, so dass sie live während der Prime Time in den USA gezeigt werden konnten. Symbole. Die olympische Bewegung verwendet mehrere weltweit (in Deutschland durch das Olympiaschutzgesetz) geschützte Symbole, die durch die Olympische Charta festgelegt werden. Das bekannteste ist die olympische Flagge mit den fünf verschiedenfarbigen, verschlungenen Ringen auf weißem Feld. Die sechs Farben Weiß, Rot, Blau, Grün, Gelb und Schwarz wurden deshalb gewählt, weil die Flagge jedes Landes der Welt mindestens eine dieser Farben aufweist. Weiterhin steht die Anzahl der Ringe für die fünf Erdteile (klassische Zählweise). Die Flagge wurde 1914 entworfen und wird seit den Sommerspielen 1920 in Antwerpen gehisst. Das offizielle Motto der olympischen Bewegung lautet "citius, altius, fortius" (Latein für „schneller, höher, stärker“). De Coubertins Ideale spiegeln sich am besten im olympischen Credo wider: "„Das Wichtigste an den Olympischen Spielen ist nicht der Sieg, sondern die Teilnahme, wie auch das Wichtigste im Leben nicht der Sieg, sondern das Streben nach einem Ziel ist. Das Wichtigste ist nicht, erobert zu haben, sondern gut gekämpft zu haben.“" Einige Monate vor den Spielen wird an historischer Stätte in Olympia in einer an antike Rituale angelehnten Zeremonie die olympische Fackel entzündet. Eine als Priesterin verkleidete Schauspielerin entfacht die Fackel mittels eines Parabolspiegels und übergibt sie dem ersten Läufer des anschließenden Staffellaufs. Dieser Lauf führt von Olympia bis zum Hauptstadion der jeweiligen Gastgeberstadt, wo die Flamme während der Dauer der Veranstaltung brennt. Das erste Mal wurde bei den Sommerspielen 1928 in Amsterdam ein olympisches Feuer entzündet. Es gab jedoch damals weder einen Fackellauf vor der Eröffnungsfeier, noch wurde das Feuer von einer bestimmten Person entzündet. Nach einer Idee von Carl Diem fand der erste Fackellauf vor den Sommerspielen 1936 in Berlin statt, 1952 in Oslo der erste Fackellauf anlässlich von Winterspielen. Die Übergabe einer eigenen Olympiafahne an den nächsten Ausrichter der Spiele ist seit 1924 in Paris üblich und fester Bestandteil der Olympischen Spiele. Zunächst wurde die sogenannte Antwerpen-Fahne innerhalb der Schlussfeier an den Ausrichter der gegenwärtigen Spiele übergeben. Bei den ersten Spielen nach dem Zweiten Weltkrieg, 1948 in London, übergab zunächst ein Offizier der schottischen Garde die Fahne an den damaligen Präsidenten Edström, der sie an den Bürgermeister von London weiterreichte. Dieses Zeremoniell wurde 1960 in die Eröffnungsfeier verschoben. Durch die Weigerung der damaligen Sowjetunion an den Spielen 1984 teilzunehmen, erhielt der Bürgermeister der Stadt Los Angeles die Antwerpen-Fahne aus den Händen des damaligen IOC-Präsidenten Samaranch. Bei der Schlussfeier wurde die Fahne an die Delegation von Seoul übergeben. Aufgrund der zunehmenden Beanspruchung der historischen Fahne wurde in Seoul eine neue Fahne in Auftrag gegeben, die seitdem weitergereicht wird. Seit den Winterspielen 1968 in Grenoble gibt es zu Promotionszwecken ein offizielles olympisches Maskottchen, üblicherweise eine heimische Tierart der Austragungsregion, seltener auch eine menschliche Figur, die das kulturelle Erbe repräsentiert. Eröffnungsfeier. Die Eröffnungsfeiern der Olympischen Spiele umfassen eine Reihe traditioneller Elemente, die in der Olympischen Charta festgelegt sind. Die Feier beginnt üblicherweise mit dem Hissen der Flagge und dem Abspielen der Nationalhymne des Gastgeberlandes. Es folgen verschiedene künstlerische Darbietungen (Musik, Gesang, Tanz, Theater), die die Kultur des Gastgeberlandes repräsentieren. Deren Größe und Komplexität sind mit den Jahren stetig gewachsen, da jedes Gastgeberland danach strebt, die früheren Feiern zu übertreffen und einen bleibenden Eindruck zu hinterlassen. So betrugen die Kosten der Eröffnungsfeier der Sommerspiele 2008 in Peking über 100 Millionen Dollar. Anschließend beginnt der Einmarsch der teilnehmenden Athleten ins Stadion, jeweils ein Athlet geht einige Schritte vor dem Rest seiner Mannschaft und trägt dabei die Flagge seines Landes. Seit 1928 marschiert stets die Mannschaft Griechenlands als erste ins Stadion, um an die antike Tradition zu erinnern. Danach folgen die weiteren teilnehmenden Nationen in alphabetischer Reihenfolge der Hauptsprache des Gastgeberlandes. Falls die Sprache des Gastgeberlandes kein Alphabet mit fester Reihenfolge kennt, verläuft der Einmarsch gemäß der englischen oder französischen Sprache. 2008 in Peking war die Zahl der Striche des chinesischen Schriftzeichens für den Ländernamen maßgeblich. Den Abschluss des Einmarschs bildet die Mannschaft des Gastgeberlandes. Sind alle Athleten eingetroffen, hält der Vorsitzende des Organisationskomitees eine kurze Rede. Auf diesen folgt der Präsident des IOC, der am Ende seiner Rede das Staatsoberhaupt des Gastgeberlandes vorstellt. Dieses wiederum eröffnet formell die Spiele. Als Nächstes wird die olympische Hymne gespielt, während die olympische Flagge ins Stadion getragen wird (seit 1960). Danach versammeln sich die Flaggenträger aller teilnehmenden Länder um ein Podium. Auf diesem sprechen ein Athlet (seit 1920) und ein Schiedsrichter (seit 1972) den olympischen Eid, mit dem sie das Einhalten der Regeln versprechen. Zuletzt trägt der vorletzte Läufer des Staffellaufs die olympische Fackel ins Stadion und übergibt sie an den letzten Läufer. Dieser, oftmals ein sehr bekannter und erfolgreicher Sportler des Gastgeberlandes, entzündet dann mit der Fackel das Feuer in einer großen Schale. Ab 1920 wurden auch Friedenstauben freigelassen; man strich diesen Programmpunkt jedoch wieder, nachdem 1988 in Seoul einige Tauben im olympischen Feuer verbrannt waren. Schlussfeier. Schlussfeier der Sommerspiele 2008 in Peking Die Schlussfeier findet statt, wenn alle sportlichen Wettkämpfe abgeschlossen sind. Seit 1956 sind die Schlussfeiern weit weniger formell und strukturiert als die Eröffnungsfeiern. Erneut marschieren die Athleten ins Stadion ein, diesmal jedoch nicht nach Ländern geordnet, sondern bunt gemischt. Damit wird die Verbundenheit der Athleten nach Ende der Wettkämpfe symbolisiert. Der IOC-Präsident hält eine Rede, in der er den Erfolg der Spiele betont. Danach übergibt er Mitgliedern des Organisationskomitees den Olympischen Orden und erklärt die Spiele für beendet; gleichzeitig ruft er „die Jugend der Welt“ auf, sich in vier Jahren erneut zu versammeln. Traditionell werden drei Flaggen gehisst, jene Griechenlands, des aktuellen und des nächsten Gastgeberlandes. Darüber hinaus wird seit 1984 in Los Angeles dem Bürgermeister der nächsten Olympiastadt die olympische Flagge übergeben. Zuletzt werden die olympische Hymne gespielt und das olympische Feuer gelöscht. Anschließend stellt sich der Gastgeber der nächsten Olympischen Spiele mit einer kurzen kulturellen Darbietung vor. Ende des 20. Jahrhunderts hat es sich eingebürgert, dass im Anschluss ein Rock- und Popkonzert folgt, das aber nicht mehr zum offiziellen Teil gehört. Olympische Sportarten. Das aktuelle Programm der Olympischen Spiele umfasst insgesamt 35 Sportarten, davon 28 im Sommer und sieben im Winter. Bei dieser Zählweise des IOC werden die Sportarten nach Sportverbänden zusammengefasst. Werden diese wie üblich aufgeteilt, ergeben sich 41 Sommer-Sportarten und 15 Winter-Sportarten (siehe Olympische Sportarten). Im Programm sämtlicher Sommerspiele enthalten waren Leichtathletik, Schwimmen, Fechten und Kunstturnen. Bei sämtlichen Winterspielen wurden Wettkämpfe im nordischen Skisport, Eisschnelllauf, Eiskunstlauf und Eishockey ausgetragen, die beiden letztgenannten vor 1924 auch bei Sommerspielen. Bis 1992 wurden oft auch Wettkämpfe in so genannten Demonstrationssportarten durchgeführt. Absicht war es, diese Sportarten einem größeren Publikum vorzustellen. Die Gewinner dieser Wettbewerbe gelten nicht als offizielle Olympiasieger. Manche Sportarten waren nur in den jeweiligen Gastgeberländern populär, andere hingegen werden weltweit betrieben. Einige dieser Demonstrationssportarten wie Curling und Taekwondo wurden schließlich ins offizielle Programm aufgenommen. Reglementiert werden die olympische Sportarten von internationalen Sportverbänden, die das IOC als globale Aufsichtsbehörden anerkennt. Zurzeit sind 35 Sportverbände im IOC vertreten. Darüber hinaus erkennt das IOC aufgrund weltweiter Verbreitung und Einhaltung bestimmter Standards diverse Sportverbände an, die nicht im offiziellen Wettkampfprogramm mit Wettbewerben vertreten sind (siehe Liste der vom IOC anerkannten internationalen Verbände). Im Rahmen einer Programmrevision anlässlich einer IOC-Session können solche Sportarten mit einer Zweidrittelmehrheit der IOC-Mitglieder ins offizielle Programm aufgenommen oder auch ausgeschlossen werden. 2004 bildete das IOC eine Kommission "(Olympic Programme Commission)", die mit der Beurteilung des olympischen Programms und aller nichtolympischen Sportarten der anerkannten Verbände beauftragt wurde. Ziel war es, für die Planung des Programms zukünftiger Olympischer Spiele ein systematisches Vorgehen festzulegen. Die Kommission legte sieben Kriterien fest, an denen eine aufzunehmende Sportart gemessen wird: Geschichte und Tradition der Sportart, Verbreitung, Beliebtheit, Gesundheit der Athleten, Entwicklung des zuständigen Sportverbandes und Kosten der Ausrichtung. Erstmals kam dieses Verfahren 2005 zur Anwendung, als das IOC-Exekutivkomitee anlässlich der Session in Singapur fünf Sportarten empfahl. Squash und Karate kamen in die engere Auswahl, erhielten jedoch nicht die notwendige Zweidrittelmehrheit, um ins offizielle Programm aufgenommen zu werden. Erfolgreich waren vier Jahre später am Olympischen Kongress 2009 in Kopenhagen die Sportarten Golf und 7er-Rugby, die ab 2016 Teil des Programms sein werden. An seiner Session in Mexiko-Stadt im Jahr 2002 beschloss das IOC, das Programm der Olympischen Sommerspiele auf 28 Sportarten, 301 Wettbewerbe und 10.500 Athleten zu begrenzen. Drei Jahre später wurde in Singapur die erste umfassende Programmrevision vorgenommen. Dabei fiel der Beschluss, Baseball und Softball aus dem Programm der Sommerspiele 2012 zu streichen. Da sich die IOC-Mitglieder nicht über die Aufnahme zweier anderer Sportarten als Ersatz einigen konnten, standen 2012 nur 26 Sportarten auf dem Programm. Mit der Aufnahme von Golf und Rugby werden es ab 2016 wieder 28 sein. Amateurstatus und Profisport. Pierre de Coubertin war maßgeblich vom Ethos der Aristokratie beeinflusst, das an englischen Privatschulen vorgelebt wurde. Ihrer Ansicht nach bildete Sport einen wichtigen Teil der Erziehung; eine Haltung, die in der Redewendung "mens sana in corpore sano" (lat.: „ein gesunder Geist in einem gesunden Körper“) zum Ausdruck kommt. Gemäß diesem Ethos war ein Gentleman eine Person, die vieles gut kann, nicht jedoch der beste auf einem bestimmten Gebiet. Vorherrschend war auch das Konzept der Fairness, das Üben oder Training mit Betrug gleichsetzte. Profisportler hatten somit den Ruf, sich gegenüber Amateuren einen unfairen Vorteil zu verschaffen. Der Ausschluss von Profis von der Teilnahme an Olympischen Spielen hatte zur Folge, dass es immer wieder zu Kontroversen und aufsehenerregenden Konflikten um die Ausgrenzung oder Zulassung von Sportlern kam. Beispielsweise wurde Jim Thorpe, der Olympiasieger von 1912 im Fünfkampf und im Zehnkampf, disqualifiziert, nachdem bekannt geworden war, dass er zuvor halbprofessionell Baseball gespielt hatte; erst 1983 rehabilitierte ihn das IOC. Skiläufer aus der Schweiz und Österreich blieben den Winterspielen 1936 fern, um damit ihre Solidarität mit den Skilehrern zu bekunden, die gemäß Weisung des IOC als Profisportler nicht teilnahmeberechtigt waren. IOC-Präsident Avery Brundage schloss den österreichischen Skiläufer Karl Schranz kurz vor den Winterspielen 1972 in Sapporo wegen eines Verstoßes gegen den Amateurstatus aus. Als Schranz nach Wien zurückkehrte, bereiteten ihm mehrere Zehntausend Menschen einen heroischen Empfang. Die aristokratisch geprägten Amateurregeln wurden immer offensichtlicher von der Entwicklung des Sports überholt und galten zunehmend als Heuchelei. Insbesondere waren Athleten aus kommunistisch regierten Ländern eigentlich Staatsangestellte („Staatsamateure“), die effektiv die Möglichkeit erhielten, sich vollständig dem Sport zu widmen und deshalb nur dem Namen nach Amateure waren. Weiterhin hatten Sportler in westlichen Ländern die Möglichkeit, sich als Sportsoldaten ausschließlich auf das Tranining zu konzentrieren. Auch Sportler aus finanziell abgesicherten sozialen Schichten waren in der Lage, sich ohne berufliche Tätigkeit der Wettkampfvorbereitung zu widmen. Dennoch hielt das IOC lange unbeirrt am Amateurstatus fest. Ab Ende der 1970er Jahre wurden die Amateurregeln gelockert und in den 1990er Jahren schließlich ganz aufgehoben. Das sichtbarste Zeichen für diesen Sinneswandel war die Zulassung des „Dream Team“, das gänzlich aus gutbezahlten NBA-Stars zusammengesetzt war und 1992 überlegen die Basketball-Goldmedaille gewann. Seit 2004 ist Boxen die einzige Sportart, in der keine Profis zugelassen sind, wobei selbst hier der Amateurstatus sich auf die Kampfregeln bezieht und nicht auf die Bezahlung. Im Fußballturnier der Männer (jedoch nicht in jenem der Frauen) ist die Anzahl der über 23-jährigen Spieler auf drei pro Mannschaft begrenzt. Kontroversen. Das stetige Wachstum und die zunehmende internationale Bedeutung der Olympischen Spiele führte auch zu zahlreichen Problemen. So geriet in der Vergangenheit das IOC verstärkt unter Druck. Es wurde als unbewegliche, unflexible und intransparente Organisation kritisiert. Besonders kontrovers waren die Präsidentschaften von Avery Brundage und Juan Antonio Samaranch. Brundage musste sich die Kritik gefallen lassen, er sei rassistisch und antisemitisch. Unter Samaranch galt das IOC als autokratisch und korrupt. Auch seine engen Beziehungen zum Franco-Regime und seine lange Amtszeit von 21 Jahren (er trat erst im Alter von 81 Jahren zurück) gaben zu reden. Ebenfalls Anlass zu Kritik gab die Tatsache, dass zahlreiche IOC-Mitglieder in sehr fortgeschrittenem Alter waren und teilweise bis zu ihrem Tod im Amt blieben. 1998 wurde bekannt, dass mehrere IOC-Mitglieder bestochen worden waren, damit sie bei der Wahl des Austragungsortes der Winterspiele 2002 ihre Stimme der Stadt Salt Lake City gaben. Das IOC führte eine Untersuchung durch, in deren Folge vier Mitglieder zurücktraten und sechs weitere ausgeschlossen wurden. Die Aufarbeitung des Skandals zog Reformen nach sich. Unter anderem wurde das Auswahlverfahren geändert, um weitere Bestechungen zu vermeiden. Das IOC ernannte zahlreiche aktive und ehemalige Athleten zu Mitgliedern und beschränkte die Amtszeit. Im August 2004 strahlte der britische Fernsehsender BBC eine Dokumentation mit dem Titel "Buying the Games" („Wie die Spiele gekauft werden“) aus. Er untersuchte dabei Korruptionsvorwürfe im Zusammenhang mit der Vergabe der Sommerspiele 2012 und wies nach, dass es noch immer möglich sei, IOC-Mitglieder zu bestechen, damit sie sich für eine bestimmte Stadt entscheiden. Zwischenfälle. Entgegen Pierre de Coubertins Hoffnungen verhinderten die Olympischen Spiele nicht den Ausbruch von Kriegen. Tatsächlich konnten mehrere Veranstaltungen nicht durchgeführt werden: Die Sommerspiele 1916 entfielen wegen des Ersten Weltkriegs, die Sommer- und Winterspiele von 1940 und 1944 wegen des Zweiten Weltkriegs. a> zuoberst auf dem Siegespodest nach seinem Sieg im Weitsprung 1936 in Berlin Die Nationalsozialisten benutzten erfolgreich die Winterspiele 1936 in Garmisch-Partenkirchen und die Sommerspiele 1936 in Berlin als Propagandaforum, um das Ansehen Deutschlands im Ausland zu verbessern und um guten Willen und Friedensbereitschaft vorzutäuschen. Auch sollte die angebliche Überlegenheit der „arischen Rasse“ demonstriert werden, was angesichts der Erfolge von Jesse Owens jedoch nicht gelang. Antisemitische Parolen wurden vorübergehend entfernt und das Hetzblatt "Der Stürmer" durfte für die Dauer der Spiele nicht öffentlich in Kiosken ausliegen. Die Sowjetunion nahm bis 1952 nicht an Olympischen Spielen teil. Hingegen organisierte sie ab 1928 Spartakiaden. Während der Zwischenkriegszeit fanden mehrmals Arbeiterolympiaden statt. Diese Veranstaltungen waren Alternativen zu den Olympischen Spielen, die als kapitalistisch und aristokratisch galten. Mehrere kürzlich unabhängig gewordene (meist sozialistische) Staaten veranstalteten in den 1960er Jahren vom IOC nie anerkannte Gegenveranstaltungen. Sie trugen den Namen GANEFO ("Games of the New Emerging Forces", dt: „Spiele der neu aufstrebenden Kräfte“) und fanden 1963 in Jakarta sowie 1966 in Phnom Penh statt. Die chinesische Kulturrevolution verhinderte die dritte Austragung 1969. Zehn Tage vor der Eröffnung der Sommerspiele 1968 in Mexiko-Stadt kam es zum Massaker von Tlatelolco, als bei der brutalen Niederschlagung von Studentenprotesten zwischen 300 und 500 Studenten getötet wurden. Ein demgegenüber vergleichsweise kleinerer politischer Zwischenfall ereignete sich bei diesen Spielen, als die zwei US-amerikanischen Leichtathleten Tommie Smith und John Carlos während der Siegerehrung des 200-Meter-Laufs ihre Fäuste mit schwarzen Handschuhen in die Höhe streckten. Es handelte sich dabei um das Symbol der Bewegung Black Power, die sich gegen die Diskriminierung der afroamerikanischen Bevölkerung in den USA richtete. Das IOC stellte das Olympische Komitee der USA (USOC) vor die Wahl, entweder die beiden Athleten nach Hause zu schicken oder die ganze Leichtathletik-Mannschaft zurückzuziehen. Das USOC entschied sich für ersteres. Während der Sommerspiele 1972 in München nahm die palästinensische Terrororganisation "Schwarzer September" elf Mitglieder der israelischen Mannschaft gefangen. Eine missglückte Befreiungsaktion auf dem Flugplatz Fürstenfeldbruck führte zum Tod aller Geiseln sowie von fünf Terroristen und einem Polizeibeamten. Die Geiselnahme von München blieb weltweit als „München-Massaker“ in Erinnerung. IOC-Präsident Avery Brundage setzte sich für die Fortführung der Spiele ein, berühmt geworden ist sein Ausspruch "„The games must go on“" („Die Spiele müssen weitergehen“). Das tragische Ereignis wurde mehrmals verfilmt, beispielsweise durch Kevin Macdonald ("Ein Tag im September", 1999) und Steven Spielberg ("München", 2006). Die Sowjetunion versuchte die Sommerspiele 1984 in Los Angeles zu sabotieren. Sie schickte den Nationalen Olympischen Komitees von 11 asiatischen und afrikanischen Nationen Drohbriefe, die angeblich vom Ku-Klux-Klan stammen sollten und den Athleten, besonders den Dunkelhäutigen, mit Erschießungen und Lynchmord drohten. Dass die Briefe gefälscht waren, konnte jedoch schnell nachgewiesen werden. Im Centennial Olympic Park von Atlanta explodierte während der Sommerspiele 1996 eine Bombe. Dabei starben zwei Menschen und 111 wurden verletzt. Die Bombe war von Eric Rudolph gelegt worden, der der rassistischen Christian-Identity-Bewegung nahesteht. Nach einer fast siebenjährigen Flucht konnte er 2003 verhaftet werden. Zunächst war der Wachmann Richard Jewell beschuldigt und in einer beispiellosen Medienkampagne vorverurteilt worden. Der Kaukasuskrieg zwischen Georgien und Russland brach am Eröffnungstag der Sommerspiele 2008 in Peking aus. Beim Luftpistolenschießen der Frauen gewann die Russin Natalja Paderina die Silber- und die Georgierin Nino Salukwadse die Bronzemedaille. Beide Frauen umarmten und küssten sich demonstrativ auf dem Siegerpodest und setzten so ein viel beachtetes Zeichen gegen den Krieg. Boykotte. Mit dem Schlagwort Olympiaboykott bezeichnet man die Entscheidung einzelner Länder oder Ländergruppen, nicht an Olympischen Spielen teilzunehmen. Die Olympischen Spiele der Neuzeit wurden mehrmals aus meist politischen Gründen von einem oder mehreren Staaten boykottiert. Den ersten Versuch eines Olympiaboykotts gab es bereits im Vorfeld der Spiele von 1896. Unter dem Motto „Olympiateilnahme ist Vaterlandsverrat“ versuchten nationalistische Kreise eine deutsche Olympiateilnahme zu verhindern, was jedoch scheiterte. Durch die deutsch-französische Erbfeindschaft ideologisch geprägt, störten sie sich an der Person Pierre de Coubertins und an der damals noch ungewohnten Idee internationaler Sportveranstaltungen. Aufgrund der Machtübernahme der Nationalsozialisten gab es Bestrebungen in den verschiedensten Ländern die Olympischen Spiele 1936 zu boykottieren. Am intensivsten war die Diskussion in den USA, wo am Ende der amerikanische Sportbund AAU nur mit drei Stimmen Mehrheit die Teilnahme beschloss. Ohne Unterschrift des Sportverbandes wäre die Teilnahme kaum möglich gewesen, da nur der Verband die Amateureigenschaft des Sportlers bestätigen konnte. Die Niederlande, Spanien und die Schweiz boykottierten die Sommerspiele 1956 in Melbourne aus Protest gegen die Niederschlagung des ungarischen Volksaufstands durch die Sowjetunion. Wegen der Sueskrise im selben Jahr blieben auch Ägypten, der Irak, Kambodscha und der Libanon dieser Veranstaltung fern. 1972 und 1976 drohte eine große Anzahl afrikanischer Staaten mit einem Boykott, falls das IOC sich weigern sollte, Südafrika und Rhodesien von den Spielen auszuschließen. Das IOC gab in beiden Fällen nach, um damit ein Zeichen gegen die Rassendiskriminierung zu setzen. 1976 forderten die Afrikaner auch den Ausschluss Neuseelands von den Spielen. Die neuseeländische Rugby-Union-Nationalmannschaft hatte in Südafrika gespielt und damit den Sportbann gegen das Apartheid-Regime gebrochen. Weil jedoch Rugby Union damals keine olympische Sportart war, lehnte das IOC den Ausschluss aller neuseeländischen Sportler ab. 28 afrikanische Staaten zogen daraufhin ihre Mannschaften aus Montreal zurück (einige Athleten waren bereits im Einsatz gewesen). Lediglich der Irak und Guyana solidarisierten sich mit den Afrikanern. Auf Druck der Volksrepublik China teilte die kanadische Regierung der Mannschaft der Republik China mit, dass sie nicht unter diesem Namen antreten dürfe. Der Kompromissvorschlag "Taiwan" stieß auf Ablehnung und die Republik China verzichtete auf eine Teilnahme. Erst seit 1984 nimmt sie unter der Bezeichnung "Chinese Taipei" wieder teil, mit einer vom IOC eigens für diesen Zweck gestalteten Flagge. Karte zu den Olympiaboykotten 1976, 1980 und 1984 1980 und 1984 boykottierten die Supermächte des Kalten Kriegs gegenseitig die Spiele im Land des Gegners. Die USA weigerten sich, an den Sommerspielen 1980 in Moskau teilzunehmen; Grund war die sowjetische Invasion in Afghanistan ein Jahr zuvor. Mit der Bundesrepublik Deutschland, Kanada, Norwegen und der Türkei folgten vier der 15 verbündeten NATO-Staaten dem Aufruf der US-Amerikaner, ebenso wie 37 weitere NOK hauptsächlich von Dritte Welt- bzw. islamisch geprägten Ländern. Entgegen entschieden sich der Großteil der westlichen Staaten wie Großbritannien, Italien, Frankreich, Spanien oder Österreich gegen einen Boykott und für eine differenzierte Form des Protests, beispielsweise der Nichtteilnahme an Eröffnungs- oder Abschlussveranstaltung oder der Verwendung der olympischen Flagge statt ihrer Nationalflagge. Weitere 24 NOK verzichteten aus finanziellen oder sportlichen Gründen auf eine Teilnahme oder ließen die Einladung unbeantwortet, so dass am Ende 66 Staaten den Spielen von Moskau fernblieben. Die Sowjetunion wiederum nahm nicht an den Sommerspielen 1984 in Los Angeles teil. Sie begründete dies mit angeblich mangelnder Sicherheit ihrer Athleten angesichts der feindseligen Stimmung und der antisowjetischen Hysterie in den USA. Tatsächlich gab es dort spätestens nach dem Abschuss der südkoreanischen Passagiermaschine durch die sowjetische Luftwaffe am 1. September 1983 vermehrt Aktionen antikommunistischer Gruppierungen, die schließlich im Zusammenschluss der Koalition „Ban the Soviets“ gipfelte. Darüber hinaus wurde im kalifornischen Kongress sowie im kalifornischen Senat eine Resolution gegen die „sowjetische Aggression“ einstimmig gebilligt, die unter anderem einen Ausschluss der sowjetischen Athleten von den kommenden Olympischen Spielen anstrebte. Trotz weiterer Konfrontationen, so wurde dem sowjetischen Olympia-Attaché die Akkreditierung wegen angeblicher KGB-Mitgliedschaft verweigert, gab es seitens zweier US-Präsidenten die Garantie, dass alle vom IOC akzeptierten Sportler ungehindert einreisen konnten. Letzten Endes behielt die sowjetische Führung ihren Kurs bei, der jedoch auch hier unter den Verbündeten alles andere als unumstritten war. So sicherte Rumänien als Ostblock-Land dem IOC seine Teilnahme zu, auch die DDR versuchte bis zuletzt eine Umgehung des sowjetischen Beschlusses, beugte sich aber schließlich, um die zu diesem Zeitpunkt angespannten Beziehungen zu Moskau nicht weiter zu strapazieren. Am Ende schlossen sich 19 NOK dem Boykott an, der 1982 vom Iran eingeleitet worden war. Die boykottierenden Staaten trugen 1984 die Wettkämpfe der Freundschaft als Gegenveranstaltung aus. Nach dem mittlerweile dritten großen Boykott der Olympischen Spiele verabschiedete das IOC in einer außerordentlichen Versammlung Anfang Dezember 1984 eine Resolution, in der es als „prinzipielle Pflicht eines Nationalen Olympischen Komitees“ bezeichnet wurde, die Teilnahme der Athleten seines Landes bei Olympischen Spielen zu sichern. Ein bereits 1976 vorgelegter Vorschlag Griechenlands, die Olympischen Spiele künftig ständig auf einem neutralen Territorium auf Griechenlands Staatsgebiet auszutragen, um künftigen politischen Einmischungen vorzubeugen, wurde hingegen abgelehnt. Trotzdem konnte nicht verhindert werden, dass Nordkorea die kommenden Sommerspiele 1988 in der südkoreanischen Hauptstadt Seoul boykottierte, weil das Land entgegen früheren Zusagen nicht als Co-Gastgeber berücksichtigt worden war. Verhandlungen über die Austragung einzelner Wettbewerbe in Nordkorea hatten sich über drei Jahre hingezogen und waren schließlich ergebnislos gescheitert. Äthiopien, Kuba und Nicaragua blieben aus Solidarität mit Nordkorea ebenso fern. Vor den Sommerspielen 2008 in Peking gab es in verschiedenen Ländern Boykottaufrufe wegen der gewaltsamen Tibet-Politik der Volksrepublik China und der dortigen Unterdrückung der Menschenrechte, letztlich aber ergebnislos. Doping. Eines der Hauptprobleme bei Olympischen Spielen (und im Sport im Allgemeinen) ist die unerlaubte Leistungssteigerung durch Doping. Zu Beginn des 20. Jahrhunderts begannen zahlreiche Athleten Drogen zu sich zu nehmen; so war die Verwendung von Kokain weit verbreitet. Thomas Hicks, Gewinner des Marathonlaufs der Sommerspiele 1904, erhielt von seinem Trainer während des Rennens Brandy, der mit Strychnin angereichert war. Als Athleten und Betreuer zu immer extremeren Mitteln griffen, wurde den Verantwortlichen allmählich bewusst, dass diese Methoden nicht mehr mit dem Ideal von „Gesundheit durch Sport“ zu vereinbaren waren. Der erste (und bisher einzige) durch Doping verursachte Todesfall bei Olympischen Spielen ereignete sich 1960 in Rom, als der dänische Radsportler Knud Enemark Jensen von seinem Fahrrad fiel und später starb. Eine Autopsie ergab, dass er mit Amphetaminen gedopt gewesen war. Nicht zuletzt aufgrund dieses Vorfalls begannen mehrere Sportverbände Mitte der 1960er Jahre mit Dopingtests, das IOC folgte 1967 diesem Beispiel. Der erste positiv auf verbotene Substanzen getestete Athlet war 1968 der Schwede Hans-Gunnar Liljenwall, der seine Bronzemedaille im modernen Fünfkampf wegen der Einnahme von Alkohol zurückgeben musste. Seither wurden Dutzende Athleten überführt, darunter mehrere Medaillengewinner. Für den größten Skandal sorgte der Kanadier Ben Johnson: Er war 1988 mit neuem Weltrekord Olympiasieger im 100-Meter-Lauf geworden, wurde dann aber positiv auf Stanozolol getestet. Trotz der Tests verwendeten viele Athleten Doping, ohne je überführt worden zu sein. Im Jahr 1990 aufgetauchte Dokumente zeigten, dass zahlreiche Athleten aus der DDR auf Anweisung der Regierung gezielt von ihren Betreuern mit anabolen Steroiden und anderen Mitteln gedopt worden waren. Ende der 1990er Jahre begann das IOC, den Kampf gegen das Doping besser zu organisieren; die Welt-Anti-Doping-Agentur (WADA) nahm 1999 ihre Arbeit auf. Die strengeren Kontrollen durch die WADA führten ab 2000 dazu, dass deutlich mehr Sportler überführt werden konnten, insbesondere im Gewichtheben und im Skilanglauf. Die vom IOC vorgegebenen Standards in der Dopingbekämpfung dienen mittlerweile weltweit als Vorbild für weitere Sportverbände und finden auch in Anti-Doping-Gesetzen verschiedener Staaten Einzug. Olympiasieger und Medaillengewinner. Die Olympischen Spiele bieten zuvor weniger bekannten Athleten die Möglichkeit, national und international zu viel beachteten Sportlern aufzusteigen. Athleten (oder Mannschaften), die sich in einem olympischen Wettbewerb an erster, zweiter oder dritter Stelle klassieren, erhalten Medaillen als Auszeichnung überreicht. Der Sieger erhält eine Goldmedaille. Dabei handelt es sich jedoch um Silbermedaillen mit einem goldenen Überzug; das IOC schreibt vor, dass die Medaille zu mindestens 92,5 % aus Silber bestehen und sechs Gramm Gold enthalten sein müssen. Der Zweitplatzierte erhält eine Medaille aus mindestens 92,5 % Silber, der Drittplatzierte eine aus Bronze. In einigen Wettbewerben, die im K.-o.-System ausgetragen werden (beispielsweise Boxen), werden beiden Halbfinalverlierern Bronzemedaillen überreicht. 1896 und 1900 wurden nur die zwei Besten mit Medaillen ausgezeichnet (Silber für den Ersten und Bronze für den Zweiten). 1904 erhielt erstmals der Sieger eine Goldmedaille, die anderen Medaillen versetzte man um einen Platz nach unten. Seit 1948 erhalten die Athleten auf den Plätzen 4 bis 6 olympische Diplome (seit 1976 auch die drei Medaillengewinner). Seit 1984 erhalten auch die Siebt- und Achtplatzierten Diplome. Damit sollten nicht nur alle Teilnehmer eines Viertelfinales gewürdigt werden, es entfiel auch die Notwendigkeit, in Wettkämpfen mit K.-o.-System Platzierungskämpfe um die Plätze 5 bis 8 durchzuführen. Die erfolgreichste deutsche Athletin ist Birgit Fischer, die von 1980 bis 2004 acht Gold- und vier Silbermedaillen im Kanufahren gewann. Der erfolgreichste Österreicher ist Felix Gottwald mit drei Goldmedaillen, einer Silbermedaille und drei Bronzemedaillen von 2002 bis 2010 in der nordischen Kombination. Georges Miez gewann die meisten Medaillen für die Schweiz (4 Gold, 3 Silber, 1 Bronze im Gerätturnen von 1924 bis 1936). Hanni Wenzel ist die erfolgreichste Athletin aus Liechtenstein (2 Gold, 1 Silber, 1 Bronze im alpinen Skisport an den Spielen 1976 und 1980). Ostern. Verkauf von Osterzweigen am Münchner Viktualienmarkt Ostern (, von "pessach") ist im Christentum die jährliche Gedächtnisfeier der Auferstehung Jesu Christi, der nach dem Neuen Testament (NT) als Sohn Gottes den Tod überwunden hat. Da Jesu Tod und Auferstehung laut NT in eine Pessach-Woche fielen, bestimmt der Termin dieses beweglichen jüdischen Hauptfestes auch das Osterdatum. Es wird über einen Lunisolarkalender bestimmt und fällt in der Westkirche immer auf den Sonntag nach dem ersten Frühlingsvollmond, im Gregorianischen Kalender also frühestens auf den 22. März und spätestens auf den 25. April. Danach richten sich auch die Daten der beweglichen Festtage des Osterfestkreises. In der Alten Kirche wurde Ostern als Einheit von Leidensgedächtnis und Auferstehungsfeier in der Osternacht begangen („Vollpascha“). Ab dem 4. Jahrhundert wurde das höchste Fest im Kirchenjahr als Dreitagefeier ("Triduum Sacrum" oder "Triduum paschale)" historisierend entfaltet. Die Gottesdienste erstrecken sich seitdem in den meisten Liturgien von der Feier des Letzten Abendmahls am Gründonnerstagabend – dem Vorabend des Karfreitags – über den Karsamstag, den "Tag der Grabesruhe des Herrn", bis zum Anbruch der neuen Woche am Ostersonntag. Mit dem Ostersonntag beginnt die "österliche Freudenzeit" („Osterzeit“), die fünfzig Tage bis einschließlich Pfingsten dauert. Im Mittelalter entwickelte sich aus dem ursprünglichen Triduum ein separates Ostertriduum, das die ersten drei Tage der Osteroktav von der restlichen Feierwoche abhob. Später wurde dieser arbeitsfreie Zeitraum verkürzt, bis nur noch der Ostermontag als gesetzlicher Feiertag erhalten blieb. Europäische Sprachen. Diese Sprachtradition weist auf die wesentliche Beziehung von Tod und Auferstehung Jesu zum Auszug der Israeliten aus der Sklaverei hin und betont die bleibende Verwurzelung des Christentums im Judentum. Die meisten slawischen Sprachen nennen das Osterfest „Große Nacht (Große Nächte)“, auf Polnisch "Wielkanoc", Tschechisch "Velikonoce" und Slowenisch "Velika noč". Hingegen verwenden das Bulgarische "Великден" und das Ukrainische "Великдень", wie auch die baltischen Sprachen Lettisch "Lieldienas" und Litauisch "Velykos", mit der Bedeutung „Großer Tag“ (Große Tage). In den beiden sorbischen Standardsprachen lautet das Wort für Ostern "Jutry" bzw. "Jatšy" und ist nach einer Deutung aus dem althochdeutschen "ōst(a)rūn" entlehnt; nach einer anderen leitet sich vom slawischen "jutro" („der Morgen“) ab. Das ungarische "húsvét" bedeutet wörtlich „Fleisch zu sich nehmen“, ebenso das estnische "lihavõte". Der georgische Name „აღდგომა“ (aghdgoma) heißt auf Deutsch „Auferstehung“ oder „Aufstehen“ im Allgemeinen, ebenso wie das kroatische, bosnische und serbische "Uskrs" oder "Vaskrs". Etymologie. Die Einführung und Kultivierung des Begriffs Ostern in Deutschland hängt eng mit der Strukturierung der fränkisch-deutschen Kirchenprovinzen zusammen. Diese waren sprachlich und klerikal unterschiedlich geprägt. Im Erzbistum Köln, der kölnischen Kirchenprovinz, die fränkisch geprägt war, herrschte der Begriff "pāsche" vor und wurde vor allem in den heute erhaltenen Dokumenten so auch geschrieben. Bonifatius hatte als Bischofssitz Mainz, und aus der angelsächsischen Tradition wurde dort in den Dokumenten "ôstarun" in angelsächsischer Anlehnung als typisches Missionswort verwendet. Das neuhochdeutsche "Ostern" und das englische "Easter" haben die gleiche sprachliche Wurzel, zu deren Etymologie es verschiedene Lösungsansätze gibt. Das Herkunftswörterbuch des Duden leitet das Wort vom altgermanischen "Austrō > Ausro" „Morgenröte“ ab, das eventuell ein germanisches Frühlingsfest bezeichnete und sich im Altenglischen zu "Ēostre, Ēastre", im Althochdeutschen zu "ōst(a)ra", Plural "ōstarun" fortbildete. Der Wortstamm ist mit dem altgriechischen Namen der vergöttlichten Morgenröte "Ēōs" und dem lateinischen "aurora" „Morgenröte“ verwandt, die ihrerseits weitere Sprachen beeinflusst haben. Die zugrunde liegende indogermanische Wurzel ist das Substantiv *"h₂au̯s-os" „Morgenröte“, abgeleitet von einer indogermanischen Verbalwurzel *"h₂u̯es-" „(morgens) hell werden“ oder *"h₂au̯s-" „(aus dem Wasser) schöpfen, Feuer holen“. "Ēostra" ist erstmals 738 bei Beda Venerabilis ("de temporum ratione" 15) belegt. Auf ihn geht die Vermutung zurück, das Wort habe eine angelsächsische Lichtgöttin bezeichnet, nach der der Monat April auf angelsächsisch "Ēosturmanoth" benannt war. Das Deutsche Wörterbuch der Brüder Grimm zitiert ihn mit dem Vorbehalt, er könne diese Göttin – als deren späteren Namen sie "Ostara" vermuten – erfunden haben. Wahrscheinlicher ist, dass Beda Volkstraditionen aufgriff, die im Rahmen frühjährlicher Vegetationsriten gepflegt wurden und mit den Matronen- und Disenkulten in Verbindung standen und darüber hinaus im damaligen paganen germanischen Raum üblich waren und teilweise heute noch tradiert werden. Wegen der Entdeckung des leeren Grabes Jesu „früh am Morgen, als eben die Sonne aufging“ ist die Morgenröte im Christentum Symbol der Auferstehung. Die "Canones Hippolyti" (um 350) gaben daher für die Osternacht die Weisung: „Alle sollen daher bis zur Morgenröthe wachen, dann ihren Leib mit Wasser waschen, bevor sie Pascha feiern, und das ganze Volk sei im Lichte“. Dies knüpfte auch an die biblische Exodustradition der Israeliten in der Nacht des „Vorübergehens“ (hebräisch "pessach", engl.): „Eine Nacht des Wachens war es für den Herrn, als er sie aus Ägypten herausführte. Als eine Nacht des Wachens zur Ehre des Herrn gilt sie den Israeliten in allen Generationen“. Honorius Augustodunensis (12. Jh.) leitete "Ostern" von Osten (vgl. engl. und) ab, der Himmelsrichtung des Sonnenaufgangs. Viele neue Christen ließen sich damals „bei Sonnenaufgang“ am Ostermorgen – althochdeutsch "zu den ostarun" – taufen. Hier knüpft auch der Namenforscher Jürgen Udolph an, der das Wort mit Bezugnahme auf den österlichen Tauftermin aus der nordgermanischen Wortfamilie "ausa" („gießen“) und "austr" („begießen“) erklärt. So wurde ein vorchristlicher Wasserritus als "vatni ausa" („mit Wasser begießen“) bezeichnet. Eine weitere Deutung geht von der lateinischen Bezeichnung "hebdomada in albis" („weiße Woche“) für die Osteroktav aus. Da "alba" im französischen die Bedeutung „weiß“ verliert und die spezielle Bedeutung „Morgenlicht“ bzw. „Morgenröte“ annimmt, kann dies durch das entsprechende germanische Wort wiedergegeben worden sein. Erscheinungs- und Grabüberlieferung. Nach Auskunft aller Evangelien ist Jesu Auferweckung exklusive Tat Gottes und wurde von keinem Menschen beobachtet. Erst ihre Folgen werden für seine ersten Nachfolger als wahrnehmbar beschrieben: Frauen aus seiner Heimat, die sein Sterben und seine Grablegung mitangesehen hatten, entdecken, dass sein Grab leer ist. Dabei teilen Engel ihnen die Botschaft von der Auferweckung mit und senden sie zu Petrus und den übrigen verbliebenen Jüngern. Laut der ältesten überlieferten Version im Markusevangelium kündigt der Engel ein Wiedersehen mit Jesus in Galiläa an. Die Frauen erzählen jedoch niemandem von dieser Begegnung, da sie sich fürchten. Damit endet das Evangelium wohl ursprünglich; die weiteren Abschnitte () kamen als Zusammenfassung anderer Überlieferungen erst später hinzu. Auch in Matthäus schickt der Engel die Jünger nach Galiläa. Lukas und Johannes siedeln die übrigen Ereignisse in Jerusalem und Umgebung an, wo Jesu eigenes Reden und Handeln seine verzweifelten Jünger zum Glauben an sein neues, unzerstörbares Leben führt (;). Jesu Begegnung mit den versammelten Erstberufenen am Abend des Ostertages ist der Durchbruch: Jesus bringt seine Jünger zum Glauben an ihn, stellt die zerbrochene Gemeinschaft mit ihm wieder her und beauftragt sie zur weltweiten Mission (;;). Die Jerusalemer Urchristen hielten die Namen der ersten Osterzeugen als besonders bedeutsam für ihren Glauben fest. Paulus von Tarsus, der sich als letzter in diese Reihe stellte, erzählt, dass er dem Auferstandenen als Christenverfolger persönlich begegnet sei und von ihm zum Völkerapostel beauftragt worden sei. Er, Paulus, habe die Jerusalemer Urchristen erst Jahre danach kennengelernt. Der „dritte Tag“. Nach dem wohl frühesten christlichen Glaubensbekenntnis wurde Jesus am „dritten Tag gemäß der Schrift“ von den Toten erweckt. Die Angabe bezieht sich auf die Entdeckung des leeren Grabes am „ersten Tag der Woche“ (;;;) und auf die Jesuserscheinung vor einigen seiner Jünger am Abend desselben Tages. Dieser Auferstehungstag folgte nach den Evangelien auf den Schabbat nach Jesu Kreuzigung, die nachmittags an einem Rüsttag zum Schabbat stattfand. Die christliche Chronologie zählt somit den Ostertag als „dritten Tag“ beginnend mit dem Kreuzigungstag als erstem Tag. Damit entspricht sie der zeitgenössischen jüdischen Praxis, bei der Angabe einer Frist auch nur teilweise betroffene Zeitabschnitte als ganze Einheit mitzurechnen. Zudem bringt diese geprägte Formel Jesu Auferstehung mit vorgegebener Tradition in Verbindung. So ist der „dritte Tag“ im Tanach häufig der Zeitpunkt besonderer Ereigniszuspitzung, Tag einer Rettung aus Todesnot und ultimativen Wende zum Heil durch Gottes Eingreifen in die Geschichte: Mit Bezug auf die Auferstehung besonders deutlich in. Dies reflektieren auch Jesu Leidens- und Auferstehungsankündigungen, die in den synoptischen Evangelien seine Passionsgeschichte einleiten und gliedern. Das Markusevangelium bevorzugt dabei den Ausdruck „nach drei Tagen“ (μετὰ τρεῖς ἡμέρας:;;), der jedoch eine Binnenfrist, keine Ablauffrist angibt, wie die Aussage „innerhalb von drei Tagen“ (;) bestätigt. Im Matthäusevangelium dominiert die Ordinalzahl mit bestimmtem Artikel (;;; nicht). Diese findet sich auch im Lukasevangelium (;;; nicht in). Während diese Ankündigungen häufig als nachträgliche Redaktion von Urchristen gelten, enthalten auch einige mögliche echte Leidens- und Todesankündigungen Jesu eine Dreitagesangabe: so das Rätselwort vom „Zeichen des Jona“ (), dessen Angabe „nach drei Tagen und drei Nächten“ dem Osterdatum jedoch widerspricht, und das Wort vom Tempelabriss und -neubau „in drei Tagen“, das die Urchristen auf Jesu Tod und Auferstehung bezogen (). Verhältnis zum Pessach. Jesu Kreuzigung fand nach den Synoptikern am Hauptfesttag des Pessach, dem 15. Nisan, statt. Nach dem Johannesevangelium dagegen starb er am 14. Nisan zur selben Zeit, als die Pessachlämmer im Jerusalemer Tempel geschlachtet wurden. Jesu Tod wird somit im Urchristentum in die Leidensgeschichte, andererseits die Befreiungshoffnung Israels eingezeichnet. Seine Auferstehung wird als Bekräftigung dieser Hoffnung verstanden und ihre Ausweitung auf alle Völker erwartet. Die christliche Eucharistie geht zurück auf das in den Evangelien dargestellte Abendmahl Jesu, das bei den Synoptikern ein Pessachmahl ist. Hinzu kommt aus dem Johannesevangelium und vor allem bei Paulus aus das Symbol des Agnus Dei, das an die bis 70 n. Chr. im Tempel geschlachteten Pessachtiere erinnert. Streit um das Osterdatum. Ostern gehört zu den beweglichen Festen, deren Kalenderdatum jedes Jahr variiert. Der Ostersonntag hängt vom Frühlingsvollmond ab, wobei der Frühlingsanfang festgelegt ist auf den 21. März und anders berechnet wird als im jüdischen Kalender. Nachdem auf dem Ersten Konzil von Nicäa im Jahre 325 eine erste allgemeinverbindliche Regelung beschlossen worden war, kam es durch die Einführung des Gregorianischen Kalenders erneut zu einem unterschiedlichen Osterdatum. Die Ostkirchen (mit Ausnahme der Finnisch-Orthodoxen Kirche und der Ostsyrischen Kirche) nahmen den Gregorianischen Kalender zur Berechnung der beweglichen Feste nicht an, so dass der Ostertermin der westlichen Christenheit von dem der orthodoxen und altorientalischen Kirchen um bis zu fünf Wochen voneinander abweichen kann. Alle übrigen beweglichen christlichen Feste werden vom Ostersonntag aus berechnet. Die Karwoche. Der österliche Festkreis beginnt in den westlichen Kirchen seit dem Jahr 1091 mit dem Aschermittwoch, dem eine 40-tägige Fastenzeit folgt. Diese erinnert an die 40 Jahre der Israeliten in der Wüste sowie an die 40 Tage, die Jesus in der Wüste fastete und betete. Die Fastenzeit, auch österliche Bußzeit genannt, endet mit dem 40. Tag am Karsamstag. Das östliche Christentum rechnet die Sonntage zur Fastenzeit mit hinzu, zählt aber andererseits die Woche vor dem Ostersonntag nicht mit zu den 40 Fastentagen, sondern als eigene Zeitperiode. Diese letzte Woche vor Ostersonntag, die Karwoche, beginnt mit dem Palmsonntag, an dem die Christen den Einzug Jesu in Jerusalem feiern. In der Karwoche ist es in einigen Gemeinden üblich einen Frühjahrsputz durchzuführen, damit die Kirche zum höchsten Fest der Christen in einem neuen Glanz erstrahlt. Am Gründonnerstag feiert das Christentum das letzte Abendmahl Jesu mit seinen Jüngern. Am folgenden Karfreitag wird des Todes Jesu am Kreuz gedacht, am Karsamstag ist Grabesruhe, und am dritten Tag, dem Ostersonntag, wird schließlich die Auferweckung Jesu von den Toten gefeiert. Osterliturgie. Ostern war in den ersten christlichen Jahrhunderten der einzige ordentliche Tauftermin. Seit karolingischer Zeit erfüllten die Osterspiele für die zumeist ungebildeten Gläubigen eine bedeutende katechetische Rolle, da die liturgische Auferstehungsfeier in der Westkirche zur Klerikerliturgie verkümmerte, die bereits am Karsamstagmorgen vorgefeiert wurde. Die Ostkirchen haben demgegenüber bis heute an der Feier als Nachtwache vom Abend bis zum Morgen festgehalten, während in den meisten Kirchen des Abendlandes bis zur Wiederherstellung der Osternachtliturgie die „Messe am Tag“ (Hochamt) den Höhepunkt des Osterfestes bildete. Da die österliche Freudenzeit nach dem Zeugnis des Neuen Testaments am frühen Morgen des ersten Tages der Woche mit der Entdeckung des leeren Grabes Jesu begann, endet die Osternachtliturgie zum Sonnenaufgang mit der Feier der Eucharistie. Die Morgenröte, das Erscheinen des Lichts nach finsterer Nacht, ist in vielen Kirchenliedern, literarischen Werken und künstlerischen Darstellungen wiederkehrendes Symbol für die Auferstehung Christi und die kommende Auferstehung aller Menschen. Frühlingsfeste. Viele vor- und außerchristliche Religionen verehren die Sonne als Licht- und Lebensspenderin wie einen Gott und feiern deshalb Frühlingsfeste wie das iranische Nouruz. Deren Termin ist oft an das Äquinoktium am 20. oder 21. März angelehnt. Auch einige heutige Osterbräuche wurden insbesondere in der NS-Zeit auf vermeintlich germanische und keltische Sonnenkulte zurückgeführt, etwa die dem christlichen Glauben entstammenden Osterfeuer und das Osterrad. Neuheiden feiern Ostern als "Ostara-Fest" nach einer angeblich altgermanischen Göttin "Ostara", als deren Symbole sie Osterei und Osterhase angeben. Diese Fruchtbarkeitssymbole sind als Osterbräuche im deutschen Sprachraum jedoch erst seit dem 17. Jahrhundert belegt. Ein Hase als Ostersymbol ist in christlichen Quellen aus Südosteuropa seit der Spätantike belegt; seine Herkunft aus einem germanischen Frühlingskult ist unbelegt. Regionale Osterbräuche. In deutschsprachigen Ländern und den Niederlanden suchen die Kinder bunt bemalte versteckte Hühnereier und Süßigkeiten, die vom „Osterhasen“ versteckt wurden. Es gibt auch den Brauch, Zweige in Vasen oder auf Bäumen im Garten mit bunt bemalten Ostereiern zu schmücken. Als Ostergebäck gibt es einen Kuchen in Hasen- oder Lammform. Bräuche zum Osterei sind das Ostereiertitschen, Ostereierschieben, Ostereierwerfen und Eierschibbeln. In katholischen Gemeinden werden die Kirchenglocken zwischen Karfreitag und der Osternacht nicht geläutet. In einigen Gemeinden, vorwiegend im süddeutschen Raum, aber auch in Luxemburg, ziehen stattdessen Kinder und Jugendliche mit speziellen Ratschen oder Klappern durch das Dorf, um zu den Gottesdiensten und zum Angelusgebet zu rufen. In Frankreich, Österreich aber auch in überwiegend katholischen Regionen Deutschlands erzählt man den Kindern, dass die Glocken am Karfreitag nach Rom fliegen und am Ostersonntag zurückkommen, um zu erklären, wieso sie nicht läuten. Die Glocken würden auf dem Rückweg aus Rom Süßigkeiten für die Kinder verstecken. Die Suche nach den versteckten Süßigkeiten findet in Frankreich, im Gegensatz zu den deutschsprachigen Ländern, erst am Ostermontag statt. Körbchen mit Osterspeisen zur Speisensegnung In einigen Gegenden ist auch die Speisensegnung (in Teilen Österreichs Fleischweihe genannt) am Gründonnerstag oder am Karsamstag gebräuchlich, wobei traditionelle Osterspeisen (Osterschinken, Würste, Zunge, Meerrettich, Eier) gesegnet werden. Bei den Kindern ist das „Eierpecken“ sehr beliebt: Jeder Teilnehmer erhält ein Ei und stößt es mit jenem von einem anderen Teilnehmer zusammen. Derjenige, dessen Ei bis zum Schluss ganz bleibt, hat gewonnen. In Polen werden am Karsamstag Speisen für das Frühstück am Ostersonntag gesegnet (siehe Święconka). Am Ostermontag besprengt man sich gegenseitig mit Wasser (siehe Śmigus-dyngus). In Bulgarien, Griechenland, Russland, Serbien und Schweden werden hartgekochte Eier rot bemalt als Symbol für das neue Leben, das durch das Opfer Christi erworben wurde. In Russland ist es außerdem üblich, neben Ostereiern traditionelle Osterspeisen (Kulitsch, Pascha) am Karsamstag weihen zu lassen. In Griechenland wird nach der Auferstehungsliturgie die "Majiritsa", eine Suppe aus den Innereien des Lamms gegessen, das dann im Laufe des Ostersonntags am Spieß gegrillt wird und am Abend werden in vielen griechischen Gemeinden Feuerwerke und Knallkörper gezündet. Während der Ostertage begrüßt man sich – wie auch in allen anderen orthodoxen Ländern – mit dem Ostergruß: Χριστὸς ἀνέστη! (‚Christus ist auferstanden!‘) Der so Gegrüßte antwortet: Ἀληθῶς ἀνέστη! (‚Er ist wahrhaftig auferstanden!‘). In Tschechien, der Slowakei, Ungarn und Rumänien wird am Ostermontag ein Brauch ausgeübt, bei dem die Männer Frauen mit Wasser, in Ungarn mit Parfüm, besprengen und mit einer Art handgemachten Rute – pomlázka (Tschechien) – korbáč (Slowakei) – die mit bunten Bändern geschmückt ist, „symbolisch“ (d. h. ohne weh zu tun) schlagen. Der Überlieferung nach soll dies die Gesundheit und Schönheit der betroffenen Frauen im kommenden Jahr erhalten. Frauen, die dabei übersehen werden, können sich unter Umständen beleidigt fühlen. Im Gegenzug schenkt die Frau dem Mann ein bunt bemaltes Ei oder auch einen geringen Geldbetrag. In manchen Gegenden kann sich die Frau dann am Nachmittag oder am darauf folgenden Tag revanchieren, indem sie Männer mit einem Eimer kalten Wassers übergießt. In der sorbisch-katholischen Oberlausitz um Bautzen ziehen beim Osterreiten am Ostersonntag mehrere Prozessionen von einer Pfarrgemeinde in die Nachbargemeinde, um die Botschaft der Auferstehung singend zu verkünden. An den neun sorbischen Prozessionen nehmen jährlich etwa 1.500 Reiter teil. Auch in Ostritz an der Neiße wird dieser Brauch gepflegt, hier jedoch auf Deutsch. Die Prozessionen werden jedes Jahr von Tausenden Besuchern verfolgt. Die Ukraine, Tschechien, die Slowakei und Polen sowie die sorbischsprachigen Gebiete in Deutschland (Brandenburg, Sachsen) sind wohl die Länder mit der kunstvollsten Eierbemal-Tradition. Auf den "Pisanki" (pl.) bzw. "Писанки" (ukr.) und "velikonoční kraslice" (cz.) (Bemalungen auf den Eiern) werden mit flüssigem Wachs Ornamente aufgetragen, die Eier in einer Farbstofflösung gekocht und in einem mit Gras oder ähnlichem Material ausgelegten Korb verschenkt. Für das sorbische Osterei gibt es vier verschiedene Techniken, die sich regionalgeografisch unterscheiden. In Italien gibt es die „Torta di Pasquetta“: eine Art Gugelhupf mit gekochten Eiern, Spinat und der sogenannten „Ostertaube“. Am Karfreitag findet in vielen Orten eine Prozession statt, bei der das Kreuz schweigend durch die Straßen getragen wird. Die Auferstehung wird traditionell am zweiten Feiertag mit der Familie und Freunden mit Picknick gefeiert. In Finnland schlagen Freunde und Bekannte einander leicht mit einer Birkenrute, um an die Palmzweige, mit denen Jesus in Jerusalem empfangen wurde, zu erinnern. Am Ostersonntag ziehen Kinder mit Trommeln und Tröten durch die Straßen zur Beendigung der Trauerzeit. In Finnland ist Ostern auch das Fest der Kerzen. In Mexiko feiert man für etwa zwei Wochen eine Art Volksfest mit Musik und Tanz. Die Straßen sind mit Girlanden geschmückt. Am Karfreitag ist es ruhig, und es finden Prozessionen statt. In Schweden gehen Frauen nachts heimlich und schweigend an eine Quelle, um das Osterwasser zu holen. Schaffen sie es, dabei nicht gesehen zu werden und mit dem Wasser ihren Liebsten zu benetzen, dann erobern sie damit seine Liebe. Ostern wird mit Feuerwerk und Lärm gefeiert. Die „Osterhexen“ werden symbolisch am Osterfeuer verjagt. Am Gründonnerstag verkleiden sich die schwedischen Kinder als „Osterweiber“ (Påskkärring). Sie laufen mit langen Röcken und Kopftüchern durch die Straßen und betteln an den Türen um Süßigkeiten, als „Bezahlung“ überreichen sie selbstgemalte Osterbilder. In England lässt man die bunten Eier an abschüssigen Straßen etc. hinunterrollen, bis die Schale ganz kaputt ist. In den USA gibt es die traditionelle „Easter Parade“ auf der 5th Avenue in New York City. Man verkleidet sich und fährt mit bunt geschmückten Wagen durch die Straßen. Am Weißen Haus in Washington findet das Eierrollen („The White House Easter Eggs Roll“) statt, wobei jeder Teilnehmer ein vom Präsidenten und seiner Gattin signiertes Holzei erhält. Auf den Philippinen pflegt man auch den Brauch mit Hasen und bunten Ostereiern. Wenn die Osterglocken läuten, fassen die Eltern die kleinen Kinder beim Kopf und heben sie hoch. Sie glauben, dass die Kinder so größer werden. In Australien schöpfen verlobte Paare Ostern fließendes Wasser aus einem Bach und bewahren es bis zu ihrem Hochzeitstag auf. Bevor sie zur Kirche gehen, besprengen sie sich gegenseitig damit. Dies soll Glück bringen. In Kroatien wird eine Art Kasseler Rippenspeer in der Kirche gesegnet und anschließend mit Meerrettich und hart gekochten Eiern als Osteressen serviert. Otto Spamer. Der Verleger und Autor Otto Spamer alias Franz Otto (1820–1886) Johann Christian Gottlieb Franz Otto Spamer (* 29. August 1820 in Darmstadt; † 27. November 1886 in Leipzig) war Buchhändler und Verleger für Bücher und Zeitschriften in Leipzig. Nach einer Lehre bei Eduard Heil in Darmstadt und einigen Jahren, in denen er in Aschaffenburg und in Leipzig bei Johann Jacob Weber Berufserfahrung sammelte, machte er sich 1847 in Leipzig als Buchhändler selbständig. Die Revolution von 1848 verschlug ihn über Wien bis in die Türkei. Nach seiner Rückkehr nach Leipzig brauchte es einige Zeit, bis seine Buchhandlung wieder Fuß fassen konnte. Sein verlegerischer Schwerpunkt lag im Bereich der sogenannten Familien- und Volksschriften, sowie der Kinder- und Jugendliteratur, wobei es sich in der Regel um reichlich illustrierte Ausgaben handelte. Größere Werke, Serien. Das Buch der Erfindungen …. In der maßgeblichen neunten Auflage von 1896ff. Ein Kaleidoskop zur Wirtschafts- und Kulturgeschichte unserer Welt im ausgehenden 19. Jahrhundert, das nicht zuletzt durch seine reichhaltigen und aufwändigen Illustrationen besticht. Oktober. Der Oktober ist der zehnte Monat des Jahres im gregorianischen Kalender. Im Mittelalter galt der Oktober als heiliger Monat, in dem man bevorzugte zu heiraten. Auch Könige heiraten meistens im Oktober. Er hat 31 Tage. In den Ländern, in denen im Oktober die Zeit von Sommerzeit auf Normalzeit umgestellt wird, ist der Oktober der längste Monat des Jahres. Der Oktober beginnt außer in Schaltjahren mit demselben Wochentag wie der Januar. Der Name. Die Römer nannten ihren achten Monat des Jahres "mensis october" (lat. "octo" = acht). Obwohl der Monat nach der julianischen Kalenderreform 46 v. Chr. an die zehnte Stelle verschoben wurde, blieb es bei seinem römischen Namen. Dies wird manchmal bei der Übertragung früher verwendeter lateinischer Datumsangaben („10ber“ & „8ber“) übersehen. Zur Regierungszeit Kaiser Tiberius schlug der Senat vor, den Oktober nach seiner Mutter Livia Drusilla in "Livius" umzubenennen, dies lehnte der Kaiser allerdings ab, um nicht eine Gleichrangigkeit mit seiner Mutter akzeptieren zu müssen. Zur Regierungszeit Kaiser Domitian wurde der Monat dann in "Domitianus" umbenannt, das sich aber im Gegensatz zu Juli und August nicht durchsetzte. Zum Beginn der Regierungszeit des Antoninus Pius schlug der Senat wiederum vor den Oktober in "Faustinus", nach dem Namen seiner Frau Annia Galeria Faustina umzubenennen, der Kaiser lehnte allerdings ab. Unter Kaiser Commodus hieß der Monat dann "Hercule(u)s", nach dem griechischen Halbgott Herakles, auch diese Umbenennung wurde nach dem Tod des Kaisers wieder rückgängig gemacht. Andere urdeutsche Namen sind „Weinmonat“, dieser Name soll bereits von Karl dem Großen im 8. Jahrhundert eingeführt worden sein und weist auf den Beginn der Weinlese und der weiteren Weinverarbeitung hin, oder der altdeutsche Name „Gilbhart“, der sich aus „gilb“ für die Gelbfärbung des Laubes und „hart“ für „viel“ zusammensetzt. Allgemein wird er wegen des Beginns der Verfärbung der Laubblätter häufig als "Goldener Oktober" bezeichnet. Bei den Jägern wird dieser Monat auch "Dachsmond" genannt. Tierkreiszeichen. Im Oktober liegen die Sternzeichen Waage (24. September bis 23. Oktober) und Skorpion (24. Oktober bis 22. November). One-Time-Pad. Das One-Time-Pad (Abkürzung: OTP, deutsch: Einmalverschlüsselung oder Einmalschlüssel-Verfahren, wörtlich "Einmal-Block," nicht zu verwechseln mit dem "Einmal-Passwort-Verfahren") ist ein symmetrisches Verschlüsselungsverfahren zur geheimen Nachrichtenübermittlung. Kennzeichnend ist, dass ein Schlüssel verwendet wird, der (mindestens) so lang ist wie die Nachricht selbst. Das OTP ist informationstheoretisch sicher und kann nachweislich nicht gebrochen werden – vorausgesetzt, es wird bestimmungsgemäß verwendet. Geschichte. Das Verfahren geht auf den amerikanischen Kryptologen Gilbert Vernam (1890–1960) zurück, der die Idee dazu im Jahre 1918 geäußert hat. Der Amerikaner Joseph O. Mauborgne (1881–1971) setzte diese Idee um und nannte das Verfahren "„One-Time Pad“" (deutsch: "Einmal-Block"). Kurz darauf arbeiteten auch die Deutschen Werner Kunze, Rudolf Schauffler und Erich Langlotz an dieser Methode. Sie schlugen im Jahr 1921 vor, Blöcke, die mit zufällig erstellten Ziffern bedruckt waren, zur Überschlüsselung der damaligen diplomatischen Codes zu verwenden, und bezeichneten diese als "i-Wurm" (individueller Wurm). Diese Methode wurde vom diplomatischen Dienst der Weimarer Republik auch tatsächlich eingesetzt. Seit dieser Zeit bis zum heutigen Tag, speziell auch während der Zeit des Kalten Krieges, wird dieses Verfahren verwendet. Beispielsweise war der „Heiße Draht“ (auch als das „Rote Telefon“ bekannt), also die hochsichere direkte Fernschreibverbindung zwischen dem amerikanischen Präsidenten und dem sowjetischen Generalsekretär, durch ein Einmalschlüssel-Verfahren geschützt. Beschreibung. Das One-Time-Pad gehört zu den polyalphabetischen Substitutionsverfahren, bei denen die einzelnen Buchstaben (oder Zeichen) in jeweils andere Buchstaben (oder Zeichen) umgewandelt (verschlüsselt) werden. Kennzeichnendes Merkmal der Einmalverschlüsselung ist die "einmalige" Verwendung eines "zufälligen" Schlüssels, der (mindestens) die gleiche Länge wie die zu verschlüsselnde Nachricht aufweist. Eng verwandt mit dem One-Time-Pad ist die Stromverschlüsselung, bei welcher der Schlüssel pseudozufällig aus einem kürzeren Schlüssel, einer PIN oder einem Pass- oder Kennwort erzeugt wird. Andere historische und auch aktuelle kryptographische Verfahren verwenden Schlüssel, die in der Regel deutlich kürzer sind als die Länge des zu verschlüsselnden Klartextes. Sowohl der Klartext als auch der Schlüssel und das Chiffrat sind beim One-Time-Pad Zeichenketten der Länge formula_1. Die Menge der verwendeten Zeichen, auch Alphabet genannt, ist in der modernen Kryptologie üblicherweise die Menge der Bits formula_2, in der klassischen Kryptographie die Menge aller Großbuchstaben. Zur Verschlüsselung wird der Schlüssel zeichenweise modulo der Alphabetgröße auf den Klartext addiert. Bei der Verwendung von Bits entspricht das einer Exklusiv-Oder-Verknüpfung (XOR) der einzelnen Bits. Bei der Verwendung von Großbuchstaben werden die Buchstaben wie bei der Caesar-Verschlüsselung addiert. Dazu werden sie zuerst auf die Zahlen von 0 bis 25 abgebildet, dann modulo 26 addiert (es wird vom Ergebnis 26 abgezogen, falls es größer ist als 25) und das Ergebnis wieder in Buchstaben umgewandelt. Grundlegende Voraussetzungen für die Sicherheit des Einmalschlüssel-Verfahrens sind: Der Einmalschlüssel muss Damit erfüllt das Einmalschlüsselverfahren Kerckhoffs’ Prinzip, nach dem die Sicherheit eines Kryptosystems nicht von der Geheimhaltung des Algorithmus abhängen darf, sondern nur von der Geheimhaltung des Schlüssels. Das Einmalschlüsselverfahren ist gut geeignet für eine maschinelle Realisierung. Im Gegensatz zu vielen modernen kryptographischen Methoden (wie DES, PGP oder AES), die wegen ihrer Komplexität auf Computer angewiesen sind, eignet sich das One-Time-Pad jedoch ebenso gut zur manuellen Durchführung der Ver- und Entschlüsselung. Sicherheit. Die vier Bedingungen der Schlüsselwahl stellen zusammen mit der Beschreibung des Verfahrens sicher, dass die folgenden Voraussetzungen erfüllt sind. Unter diesen Bedingungen ist das Verfahren informationstheoretisch sicher (auch "perfekte Sicherheit" genannt) und kann auch mit beliebig hohem Rechenaufwand nicht gebrochen werden. Allein mit Kenntnis des Schlüssels kann der Geheimtext entschlüsselt werden. Diesen zu raten ist praktisch unmöglich, da jeder mögliche Schlüssel mit der gleichen Wahrscheinlichkeit gewählt wurde. Zudem gibt es keine Möglichkeit, herauszufinden, ob ein Schlüssel richtig geraten wurde oder nicht. Bei einer anderen Schlüsselwahl, beispielsweise der Verwendung von Textpassagen, wäre diese Eigenschaft nicht gegeben. Beispiel. A B C D E F G H I J K L M N O P Q R S T U V W X Y Z 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 Jetzt ist eine buchstabenweise Addition leicht möglich. Beispielsweise ergibt die Addition von A und F den Buchstaben G, entsprechend ihren Platznummern 1 + 6 = 7. Falls die Summe den Wert 26 überschreiten sollte, so zieht man einfach 26 ab (Modulo-Operation) und erhält so wieder einen der 26 Alphabetbuchstaben. Beispielsweise X plus U ist numerisch 24 + 21 = 45, nach abziehen von 26 ergibt sich 19 und damit der Buchstabe S, also X + U = S. In der kursiv gedruckten oberen Zeile und in der ersten Spalte am linken Rand sind die beiden zu addierenden Summanden angegeben. Im Kreuzungspunkt innerhalb der Tabelle lässt sich die Summe ablesen, also das Ergebnis der Summation von Klartext-Buchstaben und Schlüsselbuchstaben. Dies ist der entsprechende Buchstabe des Geheimtextes. Der Schlüssel S ist in diesem Beispiel recht kurz, er umfasst nur 21 Buchstaben, und ist bei bestimmungsgemäßer Verwendung sehr schnell „verbraucht“, nämlich bereits nach Verschlüsselung eines Textes aus 21 Buchstaben. Der im Ergebnis erhaltene Geheimtext G ist von einem Zufallstext nicht zu unterscheiden und kann prinzipiell mit keiner noch so gearteten kryptoanalytischen Angriffsmethode (weder jetzt noch in Zukunft) entziffert werden. Allein die Kenntnis des Schlüssels S erlaubt es, aus dem Geheimtext G durch Subtraktion des Schlüssels wieder den Klartext K zu gewinnen. Ohne den Schlüssel kann man prinzipiell alle denkbaren und mehr oder weniger sinnvollen Buchstabenkombinationen aus 21 Buchstaben „konstruieren“. Theoretisch könnte ein Angreifer dies probieren. Er würde so eine Unmenge an Sätzen erhalten, die in beliebigen Sprachen beliebige Informationen verkünden würden, beispielsweise Dieser Schlüssel S' erfüllt die Bedingung, dass die buchstabenweise Summe von ihm mit dem oben erzeugten (falschen) Klartext K' genau den gleichen Geheimtext ergibt wie die Summe aus dem echten, aber dem Angreifer unbekannten Schlüssel S mit dem echten, aber dem Angreifer ebenso unbekannten Klartext K. So kann der Angreifer eine unübersehbare Fülle von denkbaren Klartext-Schlüsselpaaren konstruieren, die in (buchstabenweiser) Summe alle den gleichen echten Geheimtext ergeben. Er hat jedoch keine Möglichkeit, daraus auf den echten Klartext zurückzuschließen. Auch Brute Force, also das erschöpfende Durchprobieren aller möglichen Schlüssel, führt nicht zum Erfolg. Der Angreifer kann zwar so – sogar ohne überhaupt den Geheimtext zu kennen – alle denkbaren Texte mit 21 Buchstaben erzeugen, unter denen natürlich auch der ursprüngliche sein wird. Es gibt jedoch keinerlei Anhaltspunkte zu entscheiden, welcher aus der Unmenge der durchaus sinnvollen Texte der tatsächliche Klartext ist. Solange ihm der Schlüssel nicht in die Hände fällt, bleibt der Klartext auf ewig ein Geheimnis. Um diese Sicherheit nicht zu gefährden, sollte der Einmalschlüssel nach bestimmungsgemäßem Gebrauch unwiederbringlich vernichtet werden. Angriffsmöglichkeiten. Bei korrekter Anwendung des Einmalschlüsselverfahrens ist OTP, wie der amerikanische Wissenschaftler Claude Shannon in den 1940er-Jahren zeigte, nachweislich sicher und kann nicht gebrochen werden. In der praktischen Anwendung können jedoch Fehler passieren, die einen Einbruch möglich machen. Ursache dafür ist die Verletzung von grundlegenden Sicherheitsmaßnahmen. Handelsübliche Datenträger zur Speicherung von Einmalschlüsseln Ausspähen des Schlüssels. Ein möglicher Fehler ist, den Einmalschlüssel nicht geheim zwischen Sender und Empfänger auszutauschen, sodass er durch Dritte ausgespäht werden kann. Auch eine sichere Aufbewahrung des Schlüssels ist essentiell. Im Gegensatz zu Passwörtern oder Kennwörtern lässt sich ein Einmalschlüssel kaum merken. Er muss auf irgendeinem Medium, sei es Papier, Datendiskette, CD-ROM oder USB-Stick gespeichert werden. Solch ein Medium – und mit ihm der Schlüssel – kann leicht kopiert werden. Ebenso darf nicht vergessen werden, den Einmalschlüssel nach Gebrauch sicher und unwiederbringlich zu vernichten. Gelingt es dem Angreifer, den Schlüssel nachträglich zu finden oder zu restaurieren, so ist die Kommunikation nicht mehr geheim. Kryptologisch unsichere Schlüssel. Ein Kardinalfehler ist, als Einmalschlüssel keine zufällige Buchstabenfolge, sondern eine Textpassage zu benutzen. Selbst wenn der verwendete Text einmalig ist und niemandem (außer den beiden Kommunikationspartnern) bekannt ist, weisen Buchstabenfolgen, die aus einem „sinnvollen“ Text stammen, im Gegensatz zu zufälligen Buchstabenfolgen (Zufallstexten), statistisch auswertbare Abhängigkeiten auf, die eine Entschlüsselung möglich machen können. Damit aus dem verschlüsselten Text ohne Schlüssel nicht wieder das Original rekonstruiert werden kann, muss der Schlüssel kryptologisch sicher sein, d. h. er darf von einer echt zufälligen Zahlen- bzw. Buchstabenfolge nicht zu unterscheiden sein. Ist er dies nicht, so kann ein Angreifer u. U. durch Kryptoanalyse, auch ohne Kenntnis des Schlüssels, den Text entschlüsseln. Um einen kryptologisch sicheren Schlüssel zu erzeugen wird im Idealfall ein physikalischer Zufallszahlengenerator verwendet, da nur solche echt zufällige, d. h. nicht-deterministische, Werte liefern. Grundsätzlich kann auch ein Generator für Pseudozufallszahlen verwendet werden. Dann darf der Schlüssel jedoch nicht so lang sein, dass man aus ihm auf den internen Zustand des Generators schließen könnte, denn sonst könnten alle darauffolgenden Werte vorhergesagt werden. Das ist bei einfachen Generatoren (wie z. B. Kongruenzgeneratoren) bereits nach wenigen Werten der Fall. Bei kryptographisch sicheren Generatoren können dies erheblich längere Folgen sein, sie sind aber ebenfalls deterministisch und können theoretisch dennoch geknackt werden. Mehrfachverwendung des Einmalschlüssels. Ein in der praktischen Anwendung (Beispiele: Lorenz-Schlüsselmaschine und Venona) schon häufig gemachter Fehler ist, mehr als nur die beiden, allein für Sender und Empfänger bestimmten Kopien des Einmalschlüssels herzustellen und zu verteilen oder den Schlüssel mehr als einmal zur Verschlüsselung zu verwenden. Schon eine zweimalige Verwendung eines Einmalschlüssels genügt, um die Kommunikation erfolgversprechend angreifen zu können. Der Angreifer geht dabei von folgender Überlegung aus: Angenommen, der Absender hat für beide verschlüsselten Nachrichten (versehentlich) denselben Schlüssel verwendet, dann kann der Angreifer die Differenz der beiden verschlüsselten Texte analysieren. Klartexte und folglich auch Differenzen von Klartexten zeigen nämlich im Gegensatz zu Zufallstexten eine Reihe von Auffälligkeiten, die statistisch ausgewertet und zur Entzifferung ausgenutzt werden können. So zeigt die Buchstabenhäufigkeit von Differenztexten ebenso charakteristische Auffälligkeiten wie bspw. das von Klartexten oder von monoalphabetisch verschlüsselten Texten. Die folgende Tabelle zeigt als Ergebnis einer Auszählung der Differenz von zwei deutschen Texten aus jeweils einer Million Buchstaben die relativen Häufigkeiten der Buchstaben in ‰ (Promille). Bei einer Gleichverteilung würde man jeden der 26 Buchstaben mit einer Häufigkeit von 1/26, also mit 38,5 ‰ erwarten. Bei Differenztexten – falls sie von zwei Klartexten oder von zwei nach dem Einmalschlüssel-Verfahren mit identischem Schlüssel verschlüsselten Geheimtexten stammen – dominiert der Buchstabe Z mit etwa 77 ‰, der durch Koinzidenzen von identischen Buchstaben in beiden Klartexten und damit auch (bei zweifacher Verwendung desselben Einmalschlüssels) in beiden Geheimtexten auftritt. Ein Nebenmaximum tritt beim Buchstaben M mit 50 ‰ auf. Ursache dafür sind Koinzidenzen der in deutschsprachigen Texten häufigen Buchstaben E und R beziehungsweise R und E, die beide die gleiche Differenz, nämlich 13, aufweisen. Falls der Angreifer diese Auffälligkeiten am Differenztext entdeckt, bestätigt dies seinen Verdacht der Mehrfachverwendung eines Einmalschlüssels (siehe auch: Koinzidenzindex). Basierend auf weiteren statistischen Abhängigkeiten und mithilfe von speziellen Differenztextbasen sowie passender Trigramm-, Tetragramm- und Pentagramm-Tabellen und rechnergestützter Untersuchung der verschiedenen Fälle können die Geheimtexte nun erfolgversprechend angegriffen werden. Auf diese Weise kann das theoretisch unknackbare Einmalschlüssel-Verfahren plötzlich dennoch gebrochen werden, falls bei der praktischen Anwendung Fehler passieren. Seitenkanalangriffe. Variiert die Länge der verschlüsselten Nachrichten oder die Rate des Nachrichtenaustauschs, so lassen sich dadurch, unabhängig vom Verschlüsselungsverfahren, Rückschlüsse auf den Inhalt ziehen. Vorteil. Das One-Time-Pad ist informationstheoretisch sicher und kann nicht entziffert werden, wenn der Schlüssel genauso lang ist wie die Nachricht und aus Zeichen besteht, die zufällig und unabhängig sind, und wenn er nur einmal zur Verschlüsselung verwendet wird. Unter diesen Voraussetzungen kann der Geheimtext nur mit Kenntnis des Schlüssels entschlüsselt werden. Andere Verschlüsselungsverfahren (wie AES) erreichen ihre Sicherheit durch den immensen Berechnungsaufwand der theoretisch denkbaren Entzifferung, der auf absehbare Zeit praktisch nicht realisierbar ist. Mit anderen Worten, einem potenziellen Angreifer fehlt es an notwendigen Ressourcen (z. B. Rechenleistung oder Zeit), um seinen Entschlüsselungsversuch erfolgreich durchführen zu können. Die Sicherheit des One-Time-Pad dagegen beruht auf der einmaligen Verwendung des Schlüssels sowie der zufälligen Wahl des verwendeten Schlüssels. Es kann auch mit beliebig hoher Rechenleistung nicht gebrochen werden. Nachteile. Das One-Time-Pad benötigt einen Schlüssel, der genauso lang ist wie die Nachricht selbst. Um beispielsweise die gesamten Daten eines Festplattenlaufwerks zu verschlüsseln, ist ein zweites Festplattenlaufwerk (mit mindestens gleicher Größe) zur Speicherung des Schlüssels nötig. Will man Nachrichten mit dem OTP-Verfahren verschlüsselt übertragen, muss der Schlüssel über einen anderen (sicheren) Kanal übertragen werden als die Nachricht. Beispielsweise kann eine CD mit Schlüsseln durch einen Boten überbracht werden, während die damit verschlüsselten Nachrichten über das Internet übertragen werden. Eine theoretische Alternative, um auf einen Boten zu verzichten, stellt der Quantenschlüsselaustausch dar: Dabei handelt es sich um ein Verfahren, mit dem räumlich getrennte Sender und Empfänger einen gemeinsamen Schlüssel geheim erzeugen können. Ein eher theoretisches Problem besteht darin, dass die einzelnen Zeichen des Schlüssels vollkommen zufällig und unabhängig erzeugt werden müssen. In idealer Weise kann das nur durch einen nichtdeterministischen physikalischen Zufallszahlengenerator erreicht werden. In der Praxis verzichtet man häufig darauf und gibt sich mit mehr oder weniger guten Zufallsgeneratoren zufrieden. Aufgrund des hohen logistischen Aufwands konnte sich das One-Time-Pad für die Verschlüsselung in größeren Kommunikationsnetzen nicht durchsetzen. Für die zweiseitige geheime Kommunikation ist es in puncto Sicherheit jedoch nach wie vor die erste Wahl. Onomasiologie. Die Onomasiologie oder Bezeichnungslehre ist ein Teilgebiet der Semantik. Man geht von Begriffen (Konzepten und Sachverhalten) in einem bestimmten Bereich der Wirklichkeit aus und sucht die entsprechenden Bezeichnungen. Durch das Aufstellen von Wortfeldern werden Bezeichnungen systematisiert und graduelle Bedeutungsänderungen dargestellt. Nicht in allen, aber doch in vielen Fällen wird die Onomasiologie eher historisch verstanden, das heißt als Lehre vom Bezeichnungswandel. Das Gegenstück zur Onomasiologie ist die Semasiologie, die die Bedeutung von Bezeichnungen untersucht. Forschungsgeschichte. Obschon onomasiologische Arbeiten bis Jakob Grimm zurückreichen, ist der Beginn der eigentlichen Onomasiologie doch erst verbunden mit den romanistischen Studien von Friedrich Diez (1875), Ernst Tappolet (1895), Adolf Zauner (1902), welcher der Disziplin ihren Namen gab, und Clemente Merlo (1904) sowie der Arbeit des Indogermanisten Berthold Delbrück (1889). Gerade in der Romanistik und in der Germanistik, aber auch in der Indogermanistik sind in der Folge zahlreiche onomasiologische Arbeiten, oftmals Dissertationen, veröffentlicht worden. Als Begründer einer anglistischen Onomasiologie darf der ehemalige Heidelberger Professor Johannes Hoops angesehen werden. In der ersten Hälfte des 20. Jahrhunderts lassen sich im Wesentlichen drei Strömungen nachzeichnen. Wir können dabei von einer frühen Onomasiologie sprechen, in der die Etymologien von Namen für genau definierbare Konkreta untersucht wurden. In einer zweiten Phase wird die Methode „Wörter und Sachen“ bzw. „Sachen und Wörter“ entwickelt, die mit den beiden widerstreitenden Grazer Namensgebern Rudolf Meringer und Hugo Schuchardt verbunden ist. Meringer hat 1909 auch eine gleichnamige Zeitschrift gegründet, die allerdings während der Zeit des Nationalsozialismus unter dem Herausgeber Walther Wüst zu sehr auf der Linie des Regimes war und daher nach dem Zweiten Weltkrieg nicht weiter gedruckt wurde. Die dritte Phase ist die Wortfeldforschung, die mit dem Namen Jost Trier (in den Jahren um 1930) verbunden ist, wenngleich Ansätze einer Feldforschung schon bei Michel Bréal (1883) und Ferdinand de Saussure (1916) zu finden sind. Parallel hat sich seit Jules Gilliérons Arbeiten auch die Sprachgeographie immer weiter verfeinert: während im "Atlas linguistique de la France" (ALF) (1901–1910) nur neutrale Termini für die wichtigsten Konzepte verzeichnet sind, so sind im "Sprach- und Sachatlas Italiens und der Südschweiz" (AIS) (1928–1940, von Karl Jaberg und Jakob Jud) mitunter schon Anmerkungen zur besonderen (situativen) Verwendungsweise eines Ausdrucks gegeben. Zwei vorübergehend letzte onomasiologische Höhepunkte erscheinen im Jahr 1949 mit dem indogermanischen historischen Wörterbuch von Carl Darling Buck (1866–1955), an welchem Buck im Bewusstsein aller Probleme über 20 Jahre seines Lebens intensivst arbeitete und das rund 1.500 Konzepte betrachtet, und der jahrelang eher wenig beachteten sprachfamilienübergreifenden Studie von Carlo Tagliavini zu den Bezeichnungen für die Pupille. Zwar ist auch in der zweiten Hälfte des 20. Jahrhunderts eine Vielzahl an onomasiologischen Abhandlungen entstanden, wie die „Bibliography of Onomasiological Works“ der Zeitschrift "Onomasiology Online" zeigt (ohne dass dabei schon von einer völligen Erfassung aller onomasiologischen Arbeiten ausgegangen werden kann, da viele Artikel in wenig verbreiteten Zeitschriften veröffentlicht worden sind). Theoretische Abhandlungen zur Historischen Onomasiologie sind aber nach dem Zweiten Weltkrieg zumindest in Europa ausgeblieben; lediglich in der amerikanischen Anthropologie sind nennenswerte (meist sprachübergreifende) Arbeiten hervorgebracht worden, besonders verbunden mit den Namen Cecil H. Brown, zum Teil in Kooperation mit Stanley Witkowski und Brent Berlin. Erst um 1990 ist langsam wieder eine theoretische Befassung mit Onomasiologie in der Linguistik im engeren Sinne zu verzeichnen. Aus lexikographischer Sicht ist Henri Vernays Dictionnaire onomasiologique des langues romanes (DOLR) zu erwähnen und das an der Universität Tübingen unter Leitung von Peter Koch entstehende DÉCOLAR (Dictionnaire étymologique et cognitif des langues romanes). Von Andreas Blank und Peter Koch wird vor allem eine „kognitive Onomasiologie“ propagiert, d. h. dass neben der Ebene des Konzepts oder des Designats auch die einzelsprachliche Ebene der (strukturierten) Bedeutung berücksichtigt werden müsse und von einer anthropozentrischen Wahrnehmung der Welt ausgegangen werde. Neuere Überlegungen zur theoretischen Onomasiologie stammen aus der Feder des schon erwähnten Pavol Štekauer selbst sowie von Dirk Geeraerts, Peter Koch und Joachim Grzega. Onomasiologische Arbeitsinstrumente. Onomasiologische Arbeitsinstrumente sind Sprachatlanten und Wörterbücher, insbesondere Dialektwörterbücher, etymologische Wörterbücher und historische Wörterbücher, bei denen das historische Wort Zielwort und nicht Ausgangslemma ist. Listen onomasiologischer Quellen des Englischen bietet die „Bibliography of Onomasiological Sources“ der Internetzeitschrift "Onomasiology Online". Gründe, Motive und Auslöser des Bezeichnungswandels. Wenn ein Sprecher eine bestimmte konkrete Sache in einer bestimmten konkreten Situation zu benennen hat, so sucht er diese als erstes einem Designat (= einer Kategorie) zuzuordnen. Kann er den Referenten einem Designat oder Signifikat, "signifié" zuordnen, so kann er – unter Berücksichtigung einer kommunikationsbezogenen, sprachökonomischen Kosten-Nutzen-Berechnung – auf ein schon vorhandenes Wort zurückgreifen oder sich mehr oder minder bewusst entscheiden, eine neue Bezeichnung zu bilden. In der bisherigen Forschungsliteratur tauchen auch auf: Abnahme an Salienz, Fehlleistungen beim Lesen, Bequemlichkeit, übermäßige Kürze, schwierige Lautverbindungen, unklare Betonungsmuster, misslungene Bildungen/Kakophonie. Neuere empirische Forschungen (vgl. Joachim Grzega (2004)) bezweifeln jedoch, dass diese Faktoren Bezeichnungswandel auslösen. Verfahren des Bezeichnungswandels. Genauer betrachtet laufen Bezeichnungswandel folgendermaßen ab: Bei der beabsichtigten, bewussten Bezeichnungsinnovation muss der Sprecher gegebenenfalls mehrere Ebenen des Wortfindungsprozesses passieren. Dies sind (1) die Analyse der spezifischen Merkmale des Konzeptes, (2) die Auswahl des Benennungsmotivs, (3) die Auswahl der Formen zum Ausdruck des Benennungsmotivs. Das Verfahren schließt mit Ebene (4), der tatsächlichen Aussprache, ab. Die konkreten Assoziationen können dabei ohne Vorbild zustande kommen, auf einem eigensprachlichen Vorbild oder auf einem fremdsprachlichen Vorbild beruhen. Offener Sternhaufen. Als offene Sternhaufen werden Ansammlungen von etwa zwanzig bis zu einigen tausend Sternen bezeichnet, die sich aus derselben Riesen-Molekülwolke (engl. GMC) gebildet haben. Ihre Konzentration im Haufenzentrum ist relativ gering. Dennoch heben sie sich deutlich vom Sternhintergrund ab. Von den dicht gepackten Kugelsternhaufen unterscheiden sie sich durch Größe, Lokalisation, Alter und Entstehung, vor allem aber durch die geringere Sterndichte. Offene Sternhaufen findet man nur in Spiral- oder irregulären Galaxien, in denen noch Sternbildung stattfindet (wofür z.B. elliptische Galaxien zu alt sind). Die Haufen sind selten älter als ein paar hundert Millionen Jahre, weil sie durch die Eigenbewegung der Sterne, deren innere Vorgänge oder durch gegenseitige Bahnstörungen Mitglieder verlieren. Manchmal werden sie auch durch Zusammenstöße mit anderen Sternhaufen oder Gaswolken zerstört. Junge offene Sternhaufen können sich immer noch in jener Molekülwolke befinden, aus der sie entstanden sind. Diese wird dadurch aufgehellt, und es entsteht ein ionisiertes H-II-Gebiet. Jedoch führt der Strahlungsdruck der jungen Sterne dazu, dass die Molekülwolke allmählich zerstreut wird. Für gewöhnlich werden 10 % der Masse der Gaswolke für die Sternentstehung benutzt, bevor der Strahlungsdruck den Rest fortbläst. Für die Untersuchung der Sternentstehung sind offene Sternhaufen sehr wichtige Objekte. Der Grund dafür ist, dass alle Haufensterne ungefähr das gleiche Alter und dieselbe chemische Zusammensetzung haben. So fallen kleine Unterschiede der Eigenschaften viel schneller auf, als wenn man nur isolierte Sterne beobachtet. Auch lässt sich ihre gemeinsame Bewegungsrichtung (Sternstromparallaxe) zur Entfernungsbestimmung nützen. Beobachtungsgeschichte. Die bekanntesten offenen Sternhaufen wie die Plejaden werden seit dem Altertum als Gruppe von Sternen aufgefasst. Andere wurden als Lichtflecken beobachtet, konnten aber erst mit der Erfindung des Teleskops als Sternhaufen identifiziert werden. Nach weiteren Beobachtungen wurden die Sternhaufen in zwei Klassen unterteilt. Die einen bestanden aus tausenden von Sternen in einer regelmäßigen, kugelförmigen Gestalt und sind überall am Himmel zu finden. Die andere Gruppe hatte weniger Sterne, eine unregelmäßigere Form und man findet sie fast ausschließlich in der galaktischen Ebene der Milchstraße. Der ersten Gruppe gab man den Namen Kugelsternhaufen und die zweite bezeichnete man als offene Sternhaufen oder galaktische Haufen. Es wurde festgestellt, dass die Sterne in einem offenen Sternhaufen ähnliche Eigenschaften haben. Der Geistliche John Michel berechnete 1767 die Wahrscheinlichkeit, dass eine Sternengruppe wie die Plejaden lediglich eine zufällige Anordnung am Sternenhimmel sei, auf 1 zu 496.000. Als die Astrometrie genauer wurde, fand man heraus, dass sich die Sterne im Haufen mit der gleichen Eigenbewegung durch den Nachthimmel bewegen. Durch spektroskopische Beobachtungen ermittelte man auch die gleiche Radialgeschwindigkeit. Daraus wurde geschlussfolgert, dass die Sterne zur selben Zeit entstanden sind und als Gruppe miteinander verbunden sind. Obwohl Kugelsternhaufen und offene Sternhaufen klar voneinander getrennte Gruppen bilden, können die Unterschiede zwischen spärlichen Kugelsternhaufen und sehr reichen offenen Sternhaufen gering sein. Einige Astronomen glauben, dass beiden Typen von Sternhaufen die gleichen Mechanismen zu Grunde liegen mit dem Unterschied, dass die Ursachen, die zur Bildung von großen Kugelsternhaufen führen, in unserer Galaxie nicht mehr gegeben sind. Entstehung. Alle Sterne entstehen aus Mehrfachsternensystemen, denn nur eine Gaswolke mit einer vielfachen Sonnenmasse ist schwer genug, um unter ihrer eigenen Schwerkraft zu kollabieren, jedoch kann so eine schwere Wolke nicht zu einem einzelnen Stern kollabieren. Die Entstehung eines offenen Sternhaufens beginnt mit dem Kollaps eines Teils einer Riesenmolekülwolke, eine Gaswolke mit dem Gewicht von mehreren tausend Sonnenmassen. Viele Faktoren können der Auslöser dafür sein. Sobald die Riesenmolekülwolke anfängt zu kollabieren, beginnt die Sternenentstehung durch die Bildung immer kleinerer Fragmente, aus denen am Ende vielleicht mehrere tausend Sterne werden. In unserer Galaxie bilden sich offene Sternhaufen alle paar tausend Jahre. Sobald die ersten Sterne entstanden sind, stoßen die größten und heißesten Sterne eine enorme Menge ultravioletter Strahlung aus. Diese Strahlung ionisiert das umliegende Gas der Riesenmolekülwolke, wodurch sich ein H-II-Gebiet bildet. Sternenwinde der schweren Sterne und der Strahlungsdruck verdrängen das umliegende Gas. Nach ein paar Millionen Jahren kommt es zur ersten Supernova eines Sternes, wodurch weiteres Gas aus dem System hinausgeschleudert wird. Nach einigen Zehnmillionen Jahren ist nur noch so viel Gas übrig geblieben, dass es nicht mehr zu einer Sternenentstehung kommen kann. Meistens werden vom anfänglich vorhandenen Gas nur 10 % zur Sternenbildung genutzt. Der Rest wird weggeblasen. In der Regel bilden sich aus einer Molekülwolke zwei oder mehrere offene Sternhaufen. In der großen Magellanschen Wolke sind sowohl Hodge 301 als auch R136 aus Gasen des Tarantelnebels hervorgegangen. Ein Beispiel aus unserer Galaxie wären Hyaden und Praesepe. Durch Zurückverfolgung ihrer Bewegung nimmt man an, dass sie sich aus derselben Wolke vor 600 Millionen Jahren gebildet haben. Manchmal formen sich zwei Sternhaufen, die in der gleichen Zeit entstanden sind und bilden sogenannte Doppelsternhaufen. Das bekannteste Beispiel in der Milchstraße ist der Doppelsternhaufen h Persei und Chi Persei, man kennt jedoch noch zehn weitere. Man hat viele in der kleinen und großen Magellanschen Wolke gefunden. Sie sind in anderen Galaxien einfacher aufzuspüren, da Projektionseffekte in der Milchstraße dazu führen können, dass nicht zusammengehörige Sterne so wirken, als würden sie sich dicht nebeneinander befinden. Gestalt und Klassifikation. Die Anzahl der Sterne in einem offenen Sternhaufen variiert zwischen ein paar zehn Sternen bis hin zu großen Ansammlungen von einigen tausend Sternen. Sie enthalten meist einen dichteren Kern, der von einer weitläufigen Korona aus weiteren Sternen umgeben ist. Der Kern hat meist einen Durchmesser von 3 bis 4 Lichtjahren, während sich die Korona in einer Entfernung von ungefähr 20 Lichtjahren vom Zentrum erstreckt. Im Kern befinden sich rund 1,5 Sterne pro Kubiklichtjahr (die Sternendichte in dem Gebiet um unsere Sonne beträgt ca. 0,0035 Sterne pro Kubiklichtjahr) Offene Sternhaufen werden meist nach einem von Robert Trumpler entwickelten Schema von 1930 klassifiziert. Dazu sind drei Angaben nötig. Die Römischen Zahlen von I-IV geben die Konzentration und Loslösung vom Umliegenden Sternenfeld an (von stark bis schwach Konzentriert). Die Arabischen Ziffern von 1 bis 3 geben an, wie stark sich die einzelnen Sterne in ihren Helligkeiten unterscheiden (von gering zu stark). Die Buchstaben p, m, oder r geben an ob das Kluster wenig (poor), durchschnittlich (medium) oder viele (rich) Sterne hat. Ein 'n' bedeutet, dass sich das Kluster in einem Nebel befindet. Nach diesem Schema sind die Plejaden beispielsweise als I3rn klassifiziert (stark konzentriert mit reicher Population in einem Nebel), die Hyaden sind klassifiziert als II3m (mehr zerstreut und weniger Sterne) Anzahl und Verteilung. Es sind über 1.000 offene Sternhaufen in unserer Galaxie bekannt, aber die wirkliche Anzahl dürfte bis zu zehn Mal höher sein. In Spiralgalaxien findet man sie fast ausschließlich in den Spiralarmen. Der Grund ist, dass hier wegen der höheren Gasdichte die meisten Sterne entstehen und die Sternhaufen wieder vergehen, bevor sie jenseits der Spiralarme gelangen können. Sie sind in unserer Galaxie in der galaktischen Ebene konzentriert mit einer Ausdehnung der Höhe von rund 180 Lichtjahren (verglichen mit dem Radius der Milchstraße von rund 100.000 Lichtjahren) In Irregulären Galaxien kann man offene Sternhaufen überall in der Galaxie finden. Ihre Konzentration ist dort am größten, wo auch die Gaskonzentration am höchsten ist. Man findet sie jedoch nicht in elliptischen Galaxien, da hier der Sternenentstehungsprozess vor vielen Jahren aufgehört hat, so dass sich alle offenen Sternhaufen bereits aufgelöst haben. In unserer Galaxie hängt die Verteilung vom Alter ab. Ältere Sternhaufen werden meist in größeren Entfernungen vom galaktischen Zentrum gefunden. Die Gezeitenkräfte sind in der Nähe des Zentrums unserer Galaxie stärker, so dass die Sternhaufen viel leichter zerstört werden. Weiterhin sind die Riesenmolekülwolken, die die offenen Sternhaufen ebenfalls zerstören können, eher in den inneren Regionen der Galaxie konzentriert. Also vergehen die meisten Sternhaufen in den inneren Regionen der Galaxie viel früher als die in den äußeren Regionen. Zusammensetzung der Sterne. Weil sich offene Sternhaufen zerstreuen, bevor die meisten ihrer Sterne sterben, kommt das meiste Licht von jungen, heißen blauen Sternen. Diese Sterne sind die schwersten und haben die kürzeste Lebenserwartung von ein paar zehn Millionen Jahren. Ältere offene Sternhaufen haben dagegen mehr gelbe Sterne. Einige offene Sternhaufen enthalten heiße blaue Sterne, die jünger zu sein scheinen als ihre restlichen Sterne. Diese blauen Nachzügler werden auch in Kugelsternhaufen beobachtet. Es wird angenommen, dass sie entstehen, wenn Sterne kollidieren und verschmelzen, und dabei einen wesentlich heißeren und schwereren Stern bilden. Auf jeden Fall ist die Sternendichte viel geringer als in Kugelsternhaufen, so dass Sternenkollisionen nicht die Anzahl an Nachzüglern erklären kann. Es wird eher angenommen, dass die meisten ihren Ursprung in einem Doppelsternsystem haben. Wechselwirkungen des Doppelsternsystems mit anderen Sternen führen dann zur Verschmelzung beider Sterne zu einem Stern. Sobald ein Stern seinen Wasserstoffvorrat aufgebraucht hat und damit die Kernfusion nicht mehr stattfinden kann, stößt er seine äußeren Schichten ab und bildet einen Planetarischen Nebel mit einem Weißen Zwerg im Inneren. Die meisten offenen Sternhaufen werden jedoch zerstreut, bevor viele ihrer Sterne das Stadium eines weißen Zwerges erreichen. Jedoch ist die Anzahl weißer Zwerge in offenen Sternhaufen nochmals wesentlich geringer als erwartet. Eine mögliche Erklärung ist die folgende: Wenn ein Roter Riese seine äußeren Schichten abstößt und einen planetarischen Nebel bildet, reicht eine kleine Asymmetrie des abgestoßenen Materials aus, um dem übrig gebliebenen Stern einen Stoß von ein paar Kilometern pro Sekunde zu geben. Dieser ist stark genug, um ihn aus dem Haufen entkommen zu lassen. Schicksal der Offenen Sternhaufen. Die Zeitspanne, die ein Sternhaufen Bestand hat, hängt hauptsächlich von seiner Anfangsmasse ab. Viele offene Sternhaufen sind seit ihrer Entstehung instabil. Ihre Gesamtmasse ist so gering, dass die Fluchtgeschwindigkeit aus diesem System geringer ist als die durchschnittliche Geschwindigkeit ihrer Sterne. Diese Sternhaufen lösen sich innerhalb von ein paar Millionen Jahren auf. Da das umliegende Gas durch den Strahlungsdruck der jungen heißen Sterne weggeblasen wird, reduziert sich die Masse, so dass eine schnelle Zerstreuung möglich ist. Sternhaufen mit einer ausreichend großen Masse, um die Sterne durch die Gravitation dauerhaft zu binden, können mehrere zehn Millionen Jahre existieren, jedoch führen auch hier interne und externe Prozesse dazu, dass sie allmählich zerstreut werden. Kommen sich im Inneren Sterne zu nah, führt das oft dazu, dass die Geschwindigkeit des einen Sterns stark erhöht wird, die Fluchtgeschwindigkeit des Sternhaufens überschreitet und er ihm dadurch entkommen kann. Das führt zur langsamen Auflösung des Sternhaufens. Die Zeitspanne bis zum Verlust der Hälfte der Sterne reicht von 150 bis 800 Millionen Jahre, je nach Anfangsdichte. Im Schnitt wird alle halbe Million Jahre ein offener Sternhaufen durch einen äußeren Faktor, wie zum Beispiel der Zusammenstoß mit einer Molekülwolke, zerstört. Die durch die Gravitation hervorgerufenen Gezeitenkräfte führen dann zur Zerstörung der Struktur des Haufens. Schließlich wird aus dem Sternhaufen ein Band aus Sternen, die zwar nicht eng genug zusammen liegen, um als Haufen bezeichnet zu werden, aber alle miteinander verbunden sind und sich in die gleiche Richtung bewegen. Nachdem die Gravitation so schwach geworden ist, dass sie nicht mehr ausreicht, um die Sterne zu binden, bewegen sich die meisten der Sterne immer noch in die gleiche Richtung. So eine Sternassoziation wird dann auch Bewegungshaufen oder Bewegungssternhaufen genannt. Viele der hellsten Sterne in dem 'Pflug' von Ursa Major waren früher ein offener Sternhaufen, die nun eine lose Verbindung, die Ursa-Major-Gruppe darstellen. Untersuchungen der Sternentstehung. Wenn man die Sterne eines offenen Sternhaufens im Hertzsprung-Russell-Diagramm einträgt, dann liegen sie meist auf der Hauptreihe. Die schwersten Sterne liegen etwas abseits der Hauptreihe und werden Rote Riesen. Die Position dieser Sterne kann benutzt werden, um das Alter des Sternhaufens zu bestimmen. Da alle Sterne in einem offenen Sternhaufen ungefähr die gleiche Entfernung zur Erde haben und ungefähr zur gleichen Zeit aus dem gleichen Rohmaterial entstanden sind, hängen die Helligkeitsdifferenzen nur von den unterschiedlichen Massen der Sterne ab. Dadurch sind offene Sternhaufen sehr nützlich, wenn man die Sternentwicklung untersuchen will. Denn wenn man zwei Sterne eines Sternhaufens vergleichen will, fallen die meisten Parameter raus. Die Untersuchung von Lithium- und Berylliumvorkommen in offenen Sternhaufen sind wichtige Anhaltspunkte für die Evolution der Sterne und ihrer inneren Strukturen. Während Wasserstoffkerne unter einer Temperatur von 10 Millionen K nicht zu Helium fusionieren können, werden Lithium und Beryllium bereits bei einer Temperatur von 2,5 Millionen K und 3,5 Millionen K zerstört. Das bedeutet, dass ihr Vorkommen stark davon abhängt, was im Sterneninneren geschieht. Aus den Daten kann man auf das Alter und die chemische Zusammensetzung schließen. Entfernungsmessung. Um ein astronomisches Objekt zu verstehen, ist es zwingend erforderlich, dessen Entfernung zu kennen. Die näher gelegenen Sternhaufen können mit zwei verschiedenen direkten Methoden gemessen werden. Zum einen kann man die Parallaxe bestimmen, also die scheinbare Verschiebung des Objekts gegenüber sehr weit entfernten Objekten, die eigentlich aus der Bewegung der Erde um die Sonne resultiert. Die zweite Methode ist die so genannte Bewegungssternhaufenmethode (Sternstromparallaxe, siehe Parallaxe). Ihr liegt die Tatsache zu Grunde, dass sich die Sterne in einem Sternhaufen zusammen auf einen gemeinsamen Fluchtpunkt (Vertex) zubewegen. Man bestimmt nun aus den Sternspektren mit Hilfe von Dopplereffektmessungen die Radialgeschwindigkeit. Sobald man die Radialgeschwindigkeiten, die Eigenbewegung und den beobachteten Winkel vom Sternhaufen zum Fluchtpunkt kennt, kann man mit einfacher Trigonometrie die Entfernung berechnen. Die Hyaden sind das bekannteste Beispiel, bei der diese Methode angewendet wurde. Ihre Entfernung beträgt 46,3 Parsec. Sobald die Entfernung von nahe liegenden Sternhaufen bekannt ist, können für größere Entfernungen Techniken benutzt werden, die auf die gewonnenen Daten bei nahen Sternhaufen aufbauen. Von den nahen Sternhaufen weiß man, dass sich ihre Sterne bei einer bekannten Entfernung in der Hauptreihe des Hertzsprung-Russell-Diagramms einordnen, und so kann man leicht die Entfernung von Sternhaufen bestimmen, die sich viel weiter von der Erde weg befinden. Der der Erde am nächsten gelegene offene Sternhaufen sind die Hyaden. Sie sind jedoch eher ein Bewegungssternhaufen als ein offener Sternhaufen. Der am weitesten entfernte offene Sternhaufen in der Milchstraße ist der Berkeley 29 mit einer Entfernung von rund 15,000 Parsec. Offene Sternhaufen findet man in vielen Galaxien der Lokalen Gruppe. Die genaue Entfernung von offenen Sternhaufen ist wichtig, um die Perioden-Leuchtkraft-Beziehung bestimmter Größen veränderlicher Sterne (Cepheiden und RR-Lyrae-Sterne) zu eichen. Diese Sterne sind sehr hell und können noch in sehr großer Entfernung ausgemacht werden. Sie werden deshalb als "Standardkerze" verwendet, um die Entfernung zu nahen Galaxien in der Lokalen Gruppe zu berechnen. Oboe. Die Oboe (veraltet "Hoboe") ist ein Holzblasinstrument mit Doppelrohrblatt. Ihr Name leitet sich vom französischen "hautbois" her, das so viel wie „hohes oder lautes Holz“ bedeutet. Teile der Oboe. Das etwa 65 Zentimeter lange Instrument hat eine konische Bohrung und überbläst in die Oktave. Der Korpus der Oboe ist dreiteilig und setzt sich aus "Oberstück", "Mittelstück" und "Becher" (oder "Fußstück") zusammen. Oberstück und Mittelstück haben an ihrem unteren Ende einen korkummantelten Zapfen, der in eine entsprechende Metallhülse am oberen Ende von Mittelstück bzw. Becher gesteckt wird. Zuletzt wird das Mundstück, von Oboisten meist schlicht "Rohr" genannt, oben in das Oberstück gesteckt. Sowohl für Korpus als auch für die Rohre gibt es eigene Etuis, in denen sie aufbewahrt und transportiert werden. Der Korpus. Oboen werden aus Grenadill-, Buchsbaum- oder Ebenholz gebaut, seltener sind Instrumente aus Rosenholz, Palisander, Cocobolo oder anderen exotischen Hartholzarten. Am oberen Ende des Mittelstückes ist auf der Rückseite der Daumenhalter angebracht, mit dessen Hilfe das Instrument gehalten wird. Aufgrund der Klappenmechanik, die im Laufe ihrer Geschichte (um den steigenden Ansprüchen an Klang und Intonation gerecht zu werden) mit zunehmender Kompliziertheit dazu führte, dass auf immer engerem Raum – speziell am Oberstück – immer mehr Bohrungen und Metalleinsätze angebracht wurden, war das Holz deshalb immer größeren Belastungen ausgesetzt. Dies führte dazu, dass nach und nach auf immer härtere Holzarten zurückgegriffen wurde, die dieser Belastung standhalten können. Inzwischen gibt es auch recht erfolgreiche Versuche mit Kunststoff bzw. mit Kompositmaterialien (Holzabfälle und kohlenstofffaserverstärkter Kunststoff). Auch Oboen aus transparentem Acrylglas werden hergestellt. Die Ebonit- und Acrylglasoboen sind besonders gefragt für den Einsatz unter extremen Klimabedingungen, da dort das Holz leicht Gefahr läuft zu reißen. Die Mechanik. Die Oboe gilt als eines der im Aufbau kompliziertesten Blasinstrumente. Die Klappen und Böcke werden aus Neusilber oder ähnlichen leichtschwingenden Materialien geschmiedet und anschließend mit diversen Silber- und/oder Goldlegierungen überzogen. Die Anzahl der Klappen variiert von Modell zu Modell. Die Tonlöcher moderner Oboen werden durch Klappen verschlossen. Jede Klappe ist mit einem „Klappenpolster“ versehen, das das Tonloch abdeckt. Diese Polster bestehen entweder aus Fischhaut mit einer Füllung darin oder aus Kork und müssen vom Instrumentenbauer exakt eingepasst werden, damit sie luftdicht schließen. Auf der Unterseite jeder Klappe ist eine Stahlfeder eingehakt, die dafür sorgt, dass die Klappe von allein in die richtige Position zurückkehrt, sobald man die Klappe loslässt. Die Klappen werden entweder direkt mit den Fingern oder mittels ausgeklügelter Hebelmechanik bedient. Direkt mit den Fingern verschlossene Klappen weisen dabei oft Löcher auf, die ein teilweises Verschließen des Tonloches erlauben. Bei der obersten dieser Klappen ist dies über eine spezielle Form der Klappe vorgesehen, dieses "Halbloch" wird bei einigen Tönen zur Oktavierung eingesetzt. Andere solcher Löcher werden mechanisch bei Druck anderer Klappen teilweise verschlossen. Ringklappenoboen verfügen über Ringklappen, welche durch teilweises Verschließen ihrer großen Löcher mit dem Finger ein einfacheres Spiel von Glissandi und Mikrotönen erlauben (ohne Ringklappen lassen sie sich über den Ansatz, Mikrotöne auch über spezielle Griffe erreichen). Es existieren auch Oboen mit nur einzelnen Ringklappen. Die Klappen- und Hebelmechanik ist recht kompliziert; es existiert eine Vielzahl an Querverbindungen zwischen den einzelnen Klappen, welche mithilfe kleiner Schrauben justiert und eingestellt werden. Die Bauformen. Es gibt sogenannte "voll"- und "halbautomatische" Oboen. Bei einer halbautomatischen ist für die erste und zweite Oktavklappe je ein Hebel zum Öffnen der Klappe vorhanden. Bei einer vollautomatischen Oboe existiert für beide Oktavklappen nur ein Hebel, der Wechsel geschieht hier zwischen den Tönen gis" und a" automatisch. Die vollautomatische Mechanik ist in Deutschland, Polen und in den Niederlanden besonders verbreitet, die halbautomatische in den USA und Frankreich. Beide Bauweisen haben ihre Vor- und Nachteile. Mit halbautomatischen Oboen lassen sich vor allem im oberen Tonbereich von c aufwärts mehr alternative Griffe für die einzelnen Töne finden, die mehr verschiedene Klangfarben und ein differenzierteres Spiel ermöglichen. Auch bei halbautomatischen Oboen lassen sich die beiden Oktavklappen jedoch nicht unabhängig voneinander bedienen, der Hebel für die zweite Oktavklappe verschließt automatisch die erste. Die vollautomatische Oboe ist einfacher zu bedienen, da eine Klappe wegfällt, ist dafür aber reparaturanfälliger und kann bei modernen experimentellen Werken mitunter nicht oder nur erschwert eingesetzt werden. Unabhängig davon ist eine dritte Oktavklappe verbreitet, die sich durch einen weiteren Hebel bedienen lässt. Je nach Modell existieren verschiedene Trillerklappen, welche eingesetzt werden, wenn in schnellen Tonverbindungen, insbesondere bei Trillern, ein hinreichend schneller Wechsel zwischen den zwei Griffen nicht möglich ist, etwa für die Verbindungen c"-d", c"-cis" und as'-b'. Klang und Höhe unterscheiden sich jedoch teils beträchtlich gegenüber den Standardgriffen. Davon unabhängig existieren für viele Töne alternative Griffweisen, die teilweise durch die Mechanik zum Verschluss derselben Klappen führen, andernfalls aber ebenfalls klangliche Unterschiede implizieren. Wiener Oboe mit drei Ringklappen. Neben der auf der ganzen Welt verbreiteten Bauform der "französischen Oboe" existiert auch die "Wiener Oboe", die fast ausschließlich in Wien gespielt wird, beispielsweise im Orchester der Wiener Philharmoniker. Sie ist etwas anders mensuriert, hat in der Tiefe einen etwas weicheren, in der oberen Lage engeren und spitzeren, obertonreicheren Klang. Sie reicht in der Tiefe in der Standardform bis zum kleinen h, mit einem besonderen Fußstück ist jedoch auch das kleine b spielbar. Die Wiener Oboe ist dem Barock-Instrument und der klassischen Oboe baulich, klanglich und in der Spieltechnik ähnlicher als die französische Oboe, da diese durch Innovationen französischer Instrumentenbauer wie Henri Brod oder Guillaume Triébert stärker verändert wurde. So verschwanden in französischen Modellen die Holzpflöcke der Klappenlager zugunsten solcher aus Metall und es wurden viele Klappen zur Erweiterung des Tonumfangs und alternativer Griffkombinationen hinzugefügt. Die Wiener Oboe wurde weniger stark verändert, das Oktavieren ist jedoch durch eine Oktavklappe wesentlich erleichtert worden. Die Klangfarbe der Wiener Oboe ändert sich zwischen piano und forte weniger stark. Die Wiener Schule der Oboenausbildung unterscheidet sich auch im Interpretationsstil (weniger Vibrato-Einsatz, deutlichere Phrasierung, kürzere Noten, weniger sanglich). Die Tonerzeugung. Die Tonerzeugung geschieht mit einem Doppelrohrblatt, das zwischen die nach innen gewölbten Lippen genommen und durch das mit hohem Druck hindurchgeblasen wird. Im Korpus der Oboe wird der Ton nach dem Prinzip der stehenden Welle in einem Instrumentenrohr erzeugt. Es bildet sich eine schwingende Luftsäule. Mit dem Öffnen und Schließen der Klappen wird die Länge der schwingenden Luftsäule und somit deren Wellenlänge verändert: der Ton wird höher oder tiefer. Da die Oboe – schematisch dargestellt – ein (konisch gebohrtes) beidseitig geöffnetes Rohr ist (Entsprechungen lassen sich auch bei Orgelpfeifen finden), bildet sich für das tiefe Register (z. B. Grundton c) als Luftsäule eine halbe Welle aus, in der alle geraden und ungeraden Obertöne enthalten sind. Beim (ersten) Überblasen bildet sich in der Mitte ein zusätzlicher Druckknoten aus und die Oboe überbläst in die Oktave (doppelte Frequenz). (Beispiel: üblicher Kammerton a1 = 443 Hz und das um eine Oktave darüber liegende a2 = 886 Hz). Die physikalischen Eigenschaften der Oboe sind äußerst kompliziert und gegenwärtig noch nicht vollständig geklärt, da eine Vielzahl an Faktoren die Töne bzw. deren Qualität beeinflussen. Viele Klappen sind mit Hilfe von Stellschräubchen verstellbar und stehen zum Teil mit der Klangqualität und/oder Intonation anderer Töne im engen Zusammenhang. Beispielsweise kann die geringste Abweichung durch unsachgemäßes Einstellen der Klappe des c' dazu führen, dass Töne im höchsten Register zu rauschen beginnen oder sogar unspielbar werden. Neuerungen im Instrumentenbau zur Stabilisierung der Intonation oder komfortableren Spielbarkeit und Ansprache (was bedeutet, wie leicht der jeweilige Ton in Schwingung zu bringen ist) beruhen bis heute immer noch auf Versuchen, die je nach Ergebnis weiterentwickelt oder eben wieder verworfen werden. In der Barockzeit hatte die Oboe einen Tonumfang von zwei Oktaven chromatischer Intervalle, vom c' bis zum c. Durch die noch fehlende Oktavklappe war eine besondere Überblastechnik für die zweite Oktave und von der unteren Oktave differierende Griffe notwendig, um eine korrekte Intonation zu erhalten. Der Tonumfang der modernen Oboe beginnt meistens beim kleinen b, je nach Modell auch beim kleinen a oder beim kleinen h. Ab dem e variieren die verwendeten Griffe recht stark, Angaben über die übliche Obergrenze schwanken zwischen f und b, höhere Töne sind jedoch möglich. Mit einer speziellen Ansatztechnik, der sogenannten Beißtechnik, bei welcher der Oboist die oberen und unteren Zähne auf die Grundlinie der Schabung des Mundstücks auflegt und somit einen viel kürzeren Teil des Rohres zum Schwingen bringt, sind noch höhere Töne, eventuell sogar bis zum a' spielbar, wie sie manchmal in zeitgenössischen Kompositionen gefordert werden. Der Klang der Oboe ist ausdrucksstark und klingt je nach Bläserschule und regionaler Tradition von nasal-hell bis dunkel-samtig. Vom äußerst weichen Klangcharakter der Barockoboe entwickelte sich der Ton immer weiter zu dem genaueren Ton der modernen Oboe, die ein differenzierteres Spiel zulässt, da sie über mehr dynamische Möglichkeiten verfügt (besonders im leisen Bereich) und auch schnelles Staccato vereinfacht. Die Spielweise und somit der Klang der Oboe ist zwischen den einzelnen Schulen sehr unterschiedlich; so wird von manchen Oboisten wie zum Beispiel Albrecht Mayer oder François Leleux ein sehr samtig-weicher Ton gepflegt, während andere Oboisten wie zum Beispiel Heinz Holliger, Pierre Pierlot oder Burkhard Glaetzner die Oboe eher heller und nasaler spielen. Dabei ist die frühere, eher national begrenzte Aufteilung in einen voluminös-runden „deutschen“ Klang und einen engeren, dafür flexibleren „französischen“ Klang in den Hintergrund getreten. Weil der Oboenton sehr ausgeprägte Obertöne hat (speziell den 3., 4. und 5.), ist sein Klang besonders deutlich hörbar. Daher hat es sich seit dem 19. Jahrhundert eingebürgert, dass einer der Oboisten vor Proben und Aufführungen den anderen Musikern den Ton a' zum Einstimmen angibt. Heute verwenden Oboisten zur genauen Kontrolle der Frequenz gerne ein elektronisches Stimmgerät. Die Oboe ist in Deutschland und Österreich in der Regel auf eine Stimmtonhöhe von a' = 442 bis 444 Hz gestimmt, die Wiener Oboe von 443 Hz bis 446 Hz. In anderen Ländern sind auch andere Stimmhöhen zwischen 440 Hz und 444 Hz üblich (siehe auch Kammerton). Das Mundstück. Das Mundstück der Oboe, kurz „Rohr“ genannt, wird vom Oboisten aus den Internodien des Pfahlrohrs "(Arundo donax)" gefertigt. Das Holz stammt aus der Region um Avignon (Südfrankreich) oder aus Kalifornien, wo es auf eigens für diesen Zweck betriebenen Plantagen angebaut wird. Die französischen Lagen bei Frejus und Avignon haben besondere klimatische Bedingungen, die sich nirgendwo anders finden. Zum Beispiel scheinen die warme, trockene Luft der Sahara, die durch Südfrankreich fegt, sowie der Mistral-Wind dafür mitverantwortlich zu sein. Daher sind viele Versuche, das Holz anderswo anzubauen, gescheitert. Oboenrohre sind empfindlich gegenüber mechanischen Einwirkungen. Vor Gebrauch weicht der Oboist das Mundstück in Wasser ein, damit es biegsam und damit spielbar wird. Die Klangqualität und Ansprache des Oboentons und damit das spielerische Niveau des Oboisten hängen in starker Weise von der Qualität des verwendeten Rohrholzes sowie der sorgfältigen Fertigung des Oboenrohrs ab. Oboisten verwenden daher viel Zeit und Sorgfalt auf den Bau ihrer eigens auf ihre persönliche Konstitution zugeschnittenen Rohre. Auch die Leichtigkeit, mit der das Instrument spielbar ist, hängt weitgehend vom Mundstück ab. Da das Oboenspiel durch den immer aufrechtzuhaltenden Lippendruck sehr anstrengend ist, können je nach Bedarf verschieden leichte Mundstücke angefertigt werden; sehr leicht spielbare Mundstücke haben jedoch, da sie sehr dünn sind, einen scharfen und nasalen Klang – das Bauen von Mundstücken ist also eine Gratwanderung zwischen Klangfülle und Spielbarkeit. Das Mundstück besteht aus einer Hülse (ein am unteren Ende korkummanteltes konisches Metallröhrchen) und dem Holz, das auf diese Hülse aufgebunden wird. Das Mundstück wird bei Bedarf mit Goldschlägerhaut („Fischhaut“), Teflonband oder Bienenwachs abgedichtet, und es wird bei Bedarf eine Drahtzwinge zur Stabilisierung um das Rohr gedreht. Der Oboist schabt mit einem Schabemesser unter Zuhilfenahme einer Schabezunge den oberen Teil des Holzes, um den von ihm gewünschten Klang zu erhalten. Den geschabten Teil nennt man „Bahn“, und die obersten (und dünnsten) Millimeter des Mundstücks nennt man „Ansprache“. Die Länge der Schabung variiert zwischen 9 mm (Deutschland) bis 14 mm (Niederlande). Tabuteau-Bauweise. Eine amerikanische Variante der Bauweise von Oboenmundstücken wurde durch Marcel Tabuteau, John De Lancie und seine Schüler entwickelt. Es wird auf Draht dringend verzichtet. Ein gut geformtes Rohr braucht noch keine Abdichtung, da diese durch Versatz von selbst abdichten, anderenfalls geschieht dies mittels Paraffin, Bienenwachs, Zigarettenpapier oder auch Goldschlägerhaut. Wichtiger Unterschied ist die aufwendige Form des abgeschabten Blattes. Es wird ein „Herz“ mit einem „Halbmond“ nach vorne geformt. Hinter dem „Herz“ befindet sich in der Mitte die „Wirbelsäule“, die gerade unter der Schale liegt und zu beiden Seiten die „Lungen“ für die Basstöne. Die Lungen werden manchmal asymmetrisch angelegt. Am Rand werden die „Rippen“ aus vollständiger Schale überlassen und abklingend geformt. Die Klangschönheit ist eine Kombination der Qualität des Holzes und vor allem durch das Herz bestimmt; die Intonation in mittlerer und besonders höherer Lage wird bestimmt durch die absolute und relative Länge der Spitze in Verhältnis zu anderen Bereichen, während die Stützkraft und tiefe Lage besonders den Lungen und einem Versatz in der Schabung zugeordnet werden können. Diese Rohre sind auf Lorée- und andere französische Oboen abgestimmt. Die Atemtechnik. Bei der Atemtechnik nimmt die Oboe unter allen Blasinstrumenten eine Sonderstellung ein. Mit keinem anderen Blasinstrument lassen sich mit einem einzigen Atemzug dermaßen lange Soli spielen wie mit der Oboe. Der Grund liegt in der Beschaffenheit des Mundstückes. Um das kleine Doppelrohrblatt zum Schwingen zu bringen, benötigt es großen Druck. Gleichzeitig ist die Distanz der beiden gegeneinander schlagenden Blätter winzig, sie liegen nur etwa einen Millimeter auseinander, deshalb verbraucht man kaum Luft und braucht eine präzise Atemtechnik. Die Lungen werden beim Spiel kaum geleert, sodass das Volumen beim Spiel meist durchgängig oberhalb des am Ende des normalen Ausatmens erreichten Volumens verbleibt. Vor dem Einatmen muss in der Regel ein Ausatmen erfolgen, etwa in derselben Atempause oder kurz zuvor, um den Kohlenstoffdioxidgehalt niedrig zu halten. Schwierigkeit und Gerüchte über Nebenwirkungen. Es existiert auch ein verbreitetes Gerücht, dass das Spielen der Oboe durch den „Druck im Kopf“ „verrückt“ oder dumm mache. Es gibt hierfür keine wissenschaftlichen Belege. Allerdings haben Oboisten insbesondere als Anfänger mitunter durchaus mit der Atemtechnik zu kämpfen. Eine Untersuchung von 1999 zeigte in der Tat, dass der in der Spitze erreichte Druck im Mund bei Oboisten wesentlich höher als bei Klarinettisten, Saxophonisten oder Fagottisten ist. Ebenso geht das Gerücht, Oboe-Spielen sei mit einem erhöhten Risiko für einen Schlaganfall verbunden. Geschichte. Die früheste Abbildung eines Oboenvorläufers stammt aus dem Jahre 3000 v. Chr. Schon während der Antike gab es oboenähnliche Instrumente wie den griechischen Aulos oder die römische Tibia. Die Bibel erwähnt ein offenbar oboenartiges Instrument namens "Chalil". Dieses wurde im Tempel eingesetzt und den Überlieferungen nach in ganz Jerusalem gehört. Die Psalmen fordern auf, Gott mit dem Chalil zu loben. Im Mittelalter gab es verschiedene Formen von konischen Doppelrohrblattinstrumenten wie den Pommer oder die Schalmei. Aus letzterer entstand im 17. Jahrhundert durch den Instrumentenbauer Jean de Hotteterre (Im Auftrag von Jean-Baptiste Lully) die (Barock-)Oboe. Die Barockoboe hatte zunächst sieben Grifflöcher und zwei Klappen. Im Laufe der Zeit wurde sie von Holzblasinstrumentenbauern weiterentwickelt, enger mensuriert (Französische Bohrung) und mit einer ausgefeilten Mechanik versehen. Im 18. Jahrhundert gab es die beiden Hauptformen der Oboe piccola (die heute gebräuchliche Form) und der Oboe bassa (Grand Hautbois), die etwas größer und eine Terz tiefer (in A) stehend war. Die ersten Oboen entstanden um 1660 zu Zeiten von Jean-Baptiste Lully und Jean de Hotteterre. Die erste verzeichnete Verwendung der Oboe ist in der Oper "Pamone" von Jean-Baptiste Lully (1628–1677) zu finden. Diese Oboen wurden vor allem im 19. Jahrhundert durch französische Instrumentenbauer zu den heutigen Modellen umgebaut. Oboeninstrumente. Die Oboe d’amore, in a stehend, klingt eine kleine Terz tiefer als die Oboe. Das Englischhorn steht in f und klingt eine Quinte tiefer. Vorgängerinstrument des Englischhorns in gleicher Stimmlage war die Oboe da caccia. Noch tiefer (eine Oktave unterhalb der Oboe) klingen Heckelphon und Baritonoboe (auch "Bassoboe"), beide sind in c gestimmt, haben jedoch unterschiedliche Mensuren. Die Musette (in f) ist eine Quarte höher als die Oboe gestimmt. Für den Bedingungen der Barockzeit möglichst ähnliche Aufführungen werden vermehrt auch Instrumente des damaligen Entwicklungsstandes, sogenannte Barockoboen, nachgebaut. Diese besitzen nur eine bis drei Klappen und haben durch das ein wenig breitere Mundstück und durch die engere Mensur einen dunkleren aber leiseren Klang als die modernen, klassischen Oboen. Als Doppelrohrblattinstrument in Bass-Lage ist im Sinfonieorchester das Fagott etabliert, in noch tieferer Lage das Kontrafagott, die nicht zu den Oboeninstrumenten gezählt werden. Solistisch. Seit der Barockzeit ist die Oboe ein beliebtes Soloinstrument, viele Komponisten schätzten sie in der Ausdruckskraft als der menschlichen Stimme am ähnlichsten. Johann Sebastian Bach setzte sie in seinen Kantaten und Passionen regelmäßig als Begleitinstrument zur Darstellung unterschiedlicher Affekte (oftmals Leid oder Trauer, aber es finden sich auch genügend Beispiele für pastorale oder freudige Empfindungen) ein. Ein bedeutender Komponist für Oboe im 18. Jahrhundert war Georg Philipp Telemann, von dem allein neun Oboenkonzerte erhalten blieben, hinzu kommen drei Konzerte für Oboe d’amore. Eines der ersten Werke, die er in seinem Verlag publizierte, war die "Kleine Cammer-Music", sechs Partiten „besonders […] vor die Hautbois“ von 1716. Diese Partiten sind außerdem Oboisten gewidmet. So war in der Barockzeit auch die Sonate für Oboe und Generalbass eine beliebte Form, und später trat die Oboe als kammermusikalisches Soloinstrument unter anderem in den "Drei Romanzen" von Robert Schumann und in den Sonaten für Oboe und Klavier von Camille Saint-Saëns oder Paul Hindemith auf. Erwähnenswert ist auch die Sonate für Oboe und Klavier von Francis Poulenc. Weitere Komponisten, die Beiträge zu dieser Gattung geleistet haben, sind Georg Friedrich Händel und Antonio Vivaldi. Von Ludwig van Beethovens Konzert für Oboe und Orchester F-Dur Hess 12 sind die Satzanfänge ("Incipits") aus dem Werkverzeichnis von Beethovens Privatsekretär Schindler in einer Abschrift von Anton Diabelli von 1840 erhalten. Vom zweiten Satz wurde 1960 eine Skizze aus Beethovens Skizzenbuch mit Oboenstimme und Teilen der Begleitung gefunden, er wurde von Cees Nieuwenhuizen und Jos van der Zanden rekonstruiert und 2003 erstmals aufgeführt. Das von Frigyes Hidas als Diplomarbeit geschriebene Oboenkonzert stieß von Anfang an auf Begeisterung und ist heute das meistgespielte ungarische Oboenkonzert. Der amerikanische Komponist John Corigliano weist in seinem Oboenkonzert auf einige ungewöhnliche, aber typische Eigenarten der Oboe hin: so beginnt der erste Satz, "Tuning Game", mit einem auskomponierten Einstimmen des Orchesters durch die Solooboe, die diese Stimmung dann verändert. Im letzten Satz, "Rheita Dance", imitiert der Oboist eine arabische Oboe (Rhaita), indem er das Rohrblatt weiter in den Mund nimmt, wodurch ein schärferer Klang entsteht. Ab dem 20. Jahrhundert entstanden viele Werke für Oboe ohne Begleitung. Erwähnenswert sind die Sechs Metamorphosen nach Ovid von Benjamin Britten, die Sonatina von Ernst Krenek, "Monodies" von Charles Koechlin, die Elegie von Dietrich Erdmann, Piri von Isang Yun, Solo für Oboe von Aribert Reimann, "Sequenza VII" von Luciano Berio sowie zahlreiche Studien Heinz Holligers. Kammermusik. Aus der Barockzeit sind zahlreiche Triosonaten für zwei Oboen und Basso continuo erhalten. In der Holzbläser-Kammermusik spielt die Oboe im Bläserquintett und in der Harmoniemusik (Bläseroktett, meist je zwei Oboen, Klarinetten, Fagotte und Hörner) eine wichtige Rolle. In der Mozart-Zeit wurden zahlreiche Opern und andere Werke auf 'Harmonie gesetzt'. Weniger bekannt sind Oboentrio (3 Oboen oder 2 Oboen und Englischhorn) oder Rohrblatttrio ("Trio d’Anches", mit Oboe, Klarinette und Fagott). Weitere wichtige Stücke in anderen Besetzungen gibt es von Francis Poulenc, Jean Francaix, Heitor Villa-Lobos, Bohuslav Martinů oder André Jolivet. Siehe auch: Liste der Holzbläserquintette. Das Oboenquartett (mit Streichtrio) KV 370 von Mozart ist das bekannteste Kammermusikwerk für Oboe mit Streichern, in seiner Tradition stehen einige andere Werke dieser Besetzung. Ein weiteres schönes Beispiel für gemischte Kammermusik mit Oboe ist das "Nonett" von Louis Spohr. Orchester. Seit der Barockzeit besitzt die Oboe einen festen Platz im Orchester und ist somit neben Flöte und Fagott die erste Vertreterin der Holzblasinstrumente. In den sehr variablen Besetzungen der Barockzeit findet man in Deutschland (zum Beispiel Bachs Orchestersuiten) meist zwei Oboen, im französischen Stil oft drei, die häufig mehrfach besetzt wurden (Am französischen Hof entstanden zeitgleich mit den „violons du Roi“ auch die ebenso privilegierte Gruppe der „hautbois du Roi“). Seit der Mannheimer Orchesternorm gibt es zwei Oboenstimmen (1. und 2. Oboe), besonders in der Romantik jedoch auch drei und vier (vgl. Gustav Mahler, Richard Strauss) und/oder eine Englischhornstimme. Gelegentlich (selten) werden Oboenstimmen verdoppelt. Große Oboensoli in der Orchesterliteratur findet man bei allen Komponisten, meistens für lyrische, getragenere Melodien. Erwähnenswert sind neben den erwähnten Werken von Bach zum Beispiel der Trauermarsch in Beethovens 3. Sinfonie, das Thema im langsamen Satz der großen C-Dur-Sinfonie von Schubert, das Thema im langsamen Satz im Violinkonzert von Brahms oder das "Andante" aus der "4. Sinfonie" von Pjotr Iljitsch Tschaikowski. In schnellen Passagen, vor allem im Staccato kann die Oboe auch einen komischen Effekt erzeugen, wie bei vielen Stellen in Wagner-Opern, Alban Bergs "Wozzeck" oder auch gemeinsam mit Flöte und Piccoloflöte im "Kükenballett" von Modest Mussorgskis "Bilder einer Ausstellung" (Ravel-Orchestrierung). Jazz. Auch außerhalb ihres klassischen Einsatzbereiches wird die Oboe als Instrument verwendet. Zu erwähnen ist hier sicherlich der französische Oboist Jean-Luc Fillon, welcher der stärker improvisierten Jazz-Musik durch die Verwendung von Oboe und Englischhorn in seinen Stücken neue Impulse gegeben und unbekannte Klanghorizonte eröffnet hat. Der Saxophonist Yusef Lateef verwendet auch öfter die Oboe, die er gerne nach Art der arabischen Rhaita, also mit dem Rohr weiter im Mund spielt, was einen scharfen, schalmeiartigen Ton erzeugt. Ein weiterer bekannter Oboist der Jazzszene ist Paul McCandless von der Gruppe "Oregon". McCandless spielt eine durch Tabuteau-Technik verfeinerte Lorée, sowie auch Englischhorn und Heckelphon. Rock- und Popmusik. Auch in der Rockmusik wurde die Oboe als Instrument gelegentlich eingesetzt. Beispielsweise verwendete Peter Gabriel auf verschiedenen Platten von Genesis ("Nursery Cryme" 1971, "Foxtrot" 1972, "Selling England By The Pound" 1973, "The Lamb Lies Down on Broadway" 1974) die Oboe als markant klingendes Holzblasinstrument zur klanglichen Ergänzung des mitunter filigranen und sehr nuancenreichen Musikstils der Gruppe. Auch Roxy Music hat die Oboe seit den Anfängen regelmäßig eingesetzt. In der Popmusik ist die Oboe u. a. bei Art Garfunkel (im Lied "Bright Eyes", 1979, Komp. Mike Batt) und bei Tanita Tikaram (im Lied "Twist in My Sobriety", 1988) zu hören. Die französische Metal-Band Penumbra verwendet ebenfalls eine Oboe als charakteristisches Merkmal, wie auch die Pagan Metal Band Finsterforst in ihrem Album "Weltenkraft" (2007). Militärmusik. Die Oboe war lange Zeit führendes Instrument der Militärmusik. Daraus hat sich bis Anfang des 20. Jahrhunderts der Offiziersrang "Hautboist" bzw. "Stabsoboist" als Leiter eines Musikkorps erhalten. Pädagogik. Bis in die 1970er Jahre wurde Kindern mit noch nicht ausgereiften Lungen abgeraten, Oboe zu erlernen. Durch die Wiederentdeckung der Barockoboe mit ihren leichter anzublasenden Rohren hat sich dies geändert. So können heute Kinder bereits im Alter von sieben bis zehn Jahren mit dem Oboenunterricht beginnen. Hierzu stehen Oboen speziell für Kinder (mit vereinfachter Mechanik oder ohne Klappen, zum Teil auch in hoch f) zur Verfügung. Unterrichtet wird das Instrument an den meisten Jugendmusikschulen sowie bei Privatmusiklehrern. Besonders förderlich und motivierend ist das frühe Ensemblespiel, zum Beispiel in kleinen Kammermusikgruppen, im Blasorchester oder klassischen Symphonieorchester. Oboenschulen schrieben u. a. Apollon Barret, Joseph Sellner, Francois Joseph Garnier, Gustav Adolf Hinke. Bekannte Hersteller. Wichtige Oboenhersteller sind Marigaux und Rigoutat. Ihre Oboen unterscheiden sich vor allem in der Klangfarbe; die Oboen von Marigaux (gespielt von François Leleux und Lajos Lencses) klingen allgemein weicher und samtiger, während eine Rigoutat (gespielt von Heinz Holliger) direkter und nasaler klingt, wodurch sie sich vor allem für Neue Musik eignet. Weitere wichtige Oboenhersteller sind Lorée, Buffet Crampon, Mönnig (gespielt von Albrecht Mayer) und Dupin (gespielt von Christoph Hartmann). Bekannte Oboisten. Bekannte Oboisten des Barock waren vor allem Giuseppe Sammartini und Nicolas Chédeville, die auch beide Kompositionen für das Instrument verfassten. Zur Zeit der Klassik lebten die berühmten Oboisten Ludwig August Lebrun, der auch als Komponist tätig war und einige Konzerte für sein Instrument verfasst hat, und Giuseppe Ferlendis, dem das Oboenkonzert von Wolfgang Amadeus Mozart gewidmet ist. Berühmtester Oboist der Romantik war sicherlich Antonio Pasculli, ein sizilianischer Oboenvirtuose, der virtuose Oboenkonzerte über bekannte Opernthemen schrieb und dadurch technisch neue Maßstäbe des Oboenspiels setzte. Bekannte Oboisten der ersten Hälfte des 20. Jahrhunderts waren Pierre Pierlot und vor allem Léon Goossens, dem die Oboenkonzerte von Ralph Vaughan Williams, Cyril Scott und Eugène Goossens gewidmet sind. Bekannte zeitgenössische Oboisten sind Albrecht Mayer und Hansjörg Schellenberger (beide waren bzw. sind Mitglieder der Berliner Philharmoniker), François Leleux, Thomas Indermühle, Emanuel Abbühl, Burkhard Glaetzner, Lajos Lencses, Ingo Goritzki und Heinz Holliger, der sich neben der Wiederentdeckung von Komponisten wie zum Beispiel Jan Dismas Zelenka und Johann Gottlieb Graun besonders für die Avantgarde einsetzt und dem Werke vieler bedeutender zeitgenössischer Komponisten wie Luciano Berio und Isang Yun gewidmet sind. Organisation erdölexportierender Länder. Die Organisation erdölexportierender Länder (kurz OPEC, von) ist eine 1960 in Bagdad gegründete internationale Organisation. Seit 1965 hat das Kartell seinen Sitz in Wien. Die ursprünglichen Mitglieder waren Irak, Iran, Kuwait, Saudi-Arabien und Venezuela. Später schlossen sich weitere sieben Staaten an: Katar (1961), Indonesien, Libyen (1962), die Vereinigten Arabischen Emirate (1967), Algerien (1969), Nigeria (1971) und Angola (2007). Ecuador war von 1973 bis 1992 Mitglied und Gabun von 1975 bis 1992. Am 17. November 2007 kehrte Ecuador nach 15-jähriger Pause in die Organisation zurück. Indonesien trat im Januar 2009 aus, wurde aber im Dezember 2015 wieder aufgenommen. Die OPEC-Mitgliedstaaten fördern etwa 40 Prozent der weltweiten Erdölproduktion und verfügen über drei Viertel der weltweiten Erdölreserven. Allerdings vermuten einige Experten, wie unter anderem Matthew Simmons, dass die Angaben zu den Reserven etwa Saudi-Arabiens nicht zutreffend sind. Nachdem alle Nicht-OPEC-Staaten ihr Fördermaximum (siehe Globales Ölfördermaximum) überschritten haben, ist zu erwarten, dass der Einfluss der OPEC steigt. Unter den zehn weltweit größten Erdölförderern sind Saudi-Arabien, Iran, Kuwait, Venezuela und die Vereinigten Arabischen Emirate in der OPEC. Ziele. Das Ziel der OPEC ist ein monopolisierter Ölmarkt, der sich gegen die Preisbildung auf dem Weltmarkt durch die Festlegung von Förderquoten für die einzelnen OPEC-Mitglieder und die Regelung der Erdölproduktion absichern kann. Durch die künstliche Verknappung oder Steigerung der Ölförderung soll der Preis für Erdöl weltweit nach Absprache aller OPEC-Mitgliedsländer so gedrückt, stabilisiert oder angehoben werden, dass er innerhalb eines festgelegten Zielpreiskorridors liegt. Dieser Zielpreiskorridor ist jeweils auch variabel, aber gilt als Richtwert über einen längeren Zeitraum. Allerdings kommt es auch vor, dass sich einzelne Mitglieder nicht an die festgesetzten Förderquoten halten, sondern ihre eigenen wirtschaftlichen und politischen Ziele verfolgen. So kündigte beispielsweise Indonesien 2008 seinen Austritt an, da die OPEC-Preisvorstellungen für den größeren inländischen Markt eine höhere Belastung darstellen, als man durch teure Exporte wieder ausgleichen könnte. (Indonesien wurde 2008 durch abnehmende Fördermengen zum Netto-Importeur, verlor also seine Fähigkeit, mehr Öl zu fördern, als es für den Eigenbedarf benötigt.) Als OPEC-Hardliner gelten vor allem Algerien, Iran, Libyen und Venezuela. So sprach der OPEC-Vorsitzende Chakib Khelil offen im französischen Sender France 24 von möglichen Preiserhöhungen auf bis zu 400 Dollar (433,69€)pro Fass, sofern darüber Einigkeit herrsche. Andere OPEC-Länder geben den Forderungen der Industriestaaten nach weniger gedrosselten Förderquoten gegen die Gefahr einer Rezession teils aber auch nach. Als Gegenmaßnahme operieren einige OPEC-Staaten hingegen wieder verstärkt mit zahlungskräftigen Finanzinvestoren in den Märkten. Dies funktioniert so, dass staatliche Indexinvestoren sich über die eigenen Staatsfonds vermehrt an den gehandelten Rohstoffindizes beteiligen als die in den Medien oftmals nur vermeintlichen Spekulanten. Organe. Weiters wurden ein Rechtsbeirat (General Legal Council) sowie ein Interner Auditor (Rechnungsprüfer) eingerichtet. Präsident. Der sogenannte Präsident der OPEC ist tatsächlich lediglich der Präsident der Ministerkonferenz und als solcher lediglich zum Vorsitz der Sitzung berufen, auf der er gewählt wurde. Er behält das Amt bis zur nächsten Sitzung der Ministerkonferenz (die statutengemäß halbjährlich stattfinden). Wirkungsweise und Einflussbereich. Dreimal jährlich treffen sich die für Energie und Erdöl zuständigen Minister der OPEC-Mitgliedsländer zur Ministerkonferenz, um den Stand des Erdölmarktes zu beurteilen und entsprechende Maßnahmen einzuleiten, die dazu dienen sollen, einen stabilen Ölmarkt sicherzustellen und gleichzeitig ihre eigenen Erdöl-Gewinne zu sichern. Diese Konferenz gibt anschließend die neuen Richtlinien preis. Wesentliche Richtlinien sind die Festlegung der Erdölförderquoten, die seit 1985 an die vorhandenen Reserven gekoppelt sind. Bei Überschreitung der festgelegten Quoten kann die Ministerkonferenz Sanktionen einleiten. (Dies ist jedoch bislang nicht eingetreten, weil die betreffenden Staaten ihre Ölvorkommen in der Vergangenheit deutlich – und anscheinend auch künstlich – nach oben korrigiert haben.) Die Öffentlichkeitsarbeit führt das Sekretariat. Ihm unterliegen die Aufgaben der Forschung im Bereich Energie und Finanzen, weiterhin werden Statistiken erstellt und veröffentlicht. Auch Vorträge und Seminare sind Aufgabenbereich des Sekretariats. Es verfügt auch über eine große Bibliothek, die den Vertretern der Mitgliedstaaten sowie Forschern und Studenten offensteht. Finanziert wird das Sekretariat durch Beiträge der Mitgliedstaaten. Der Repräsentant der OPEC ist der Generalsekretär, der auch Leiter des Sekretariats ist. Dieser wird entweder für drei Jahre gewählt oder alphabetisch durch das Rotationsprinzip für zwei Jahre ernannt. Abteilungen des Sekretariats sind: Forschung, Energiestudien, Wirtschaft und Finanzen, Datenservice, Personal und Verwaltung, OPECNA (OPEC News Agency), Büro des Generalsekretärs und Recht. Geschichte. Während der 1950er Jahre sank der Ölpreis wegen der Erschließung immer neuer Quellen und des damit verbundenen Überangebots auf dem Weltmarkt kontinuierlich ab, was zu schweren Verlusten in den Staatskassen der Ölförderländer führte. Um 1960 befanden sich mehrere von ihnen deshalb in ernsten Haushaltskrisen. In dieser Situation regte Saudi-Arabien die Gründung eines Förderkartells an. Es sollte nicht nur die Fördermenge kontrollieren, sondern auch ein Gegengewicht zu den großen Ölkonzernen bilden, die auf der Basis von Verträgen aus der Kolonialzeit ihre Gewinne weitgehend ohne Beteiligung der Staaten erwirtschafteten, auf deren Gebiet die Ölquellen lagen. Am 14. September 1960 wurde die OPEC in Bagdad gegründet. Ihre ersten Mitglieder waren Irak, Iran, Kuwait, Saudi-Arabien und Venezuela. Als erste Maßnahmen wurden eine weitgehende Verstaatlichung der Ölquellen, das zukünftige Absprechen der Fördermengen und eine erhöhte Besteuerung der Ölfirmen vereinbart. Letzteres sollte eine von der Fördermenge unabhängige Geldquelle eröffnen. Zunächst blieb die OPEC weitgehend wirkungslos und wurde auch weltweit als wenig schlagkräftig eingeschätzt, zumal sie nur einen kleinen Teil der Förderländer umfasste. Alte OPEC-Zentrale am Donaukanal (2005) Eingang in der Helferstorferstraße (2015) Octavia E. Butler. Octavia Estelle Butler (* 22. Juni 1947 in Pasadena, Kalifornien; † 24. Februar 2006 in Lake Forest Park, Seattle) war eine amerikanische Science-Fiction-Autorin. Sie war eine der wenigen schwarzen Schriftstellerinnen des Science-Fiction-Genres und die erste, die größere Bekanntheit erreichte. Ihr Werk behandelt häufig feministische und rassenproblematische Themen, so sind ihre Protagonisten oft Teil einer Minderheit. Leben. Octavia E. Butler war die Tochter von Laurice and Octavia M. (Guy) Butler und wuchs in ärmlichen Verhältnissen auf. Ihr Vater war ein Schuhputzer und starb, als sie noch sehr jung war; ihre Mutter war ein schlechtbezahltes Dienstmädchen. Während ihrer Schulzeit wurde bei ihr eine Leseschwäche diagnostiziert. Sie besuchte dennoch von 1965 bis 1968 das Pasadena City College und ab 1969 die California State University in Los Angeles und die University of California in Los Angeles. Dort besuchte sie weiterführende Kurse, bei denen einer von Theodore Sturgeon geleitet wurde. Als sie beim Open-Door-Programm der Writers Guild of America einige Sitcom-Manuskripte einreichte, riet ihr der Seminarleiter Harlan Ellison, es stattdessen ernsthaft mit Kurzgeschichten und Romanen zu versuchen. Das tat sie. Ellison überredete sie auch, am Clarion Science Fiction Writers Workshop teilzunehmen, wo sie Samuel R. Delany traf und ihre ersten Geschichten schrieb, die verkauft und veröffentlicht wurden. Danach schlug sich Octavia Butler mit Gelegenheitsjobs durch, schrieb weiter und schaffte es schließlich mit Ellisons Hilfe, ihren ersten Roman bei Doubleday unterzubringen. 1976 wurde sie der breiten Öffentlichkeit bekannt, als sie den Roman "Patternmaster" veröffentlichte, Auftakt des Patternmaster-Zyklus'. Er schildert die Entstehung telepathisch begabter Menschen und behandelt dabei auch Rassen- und Geschlechterfragen. Es folgten vier weitere Romane aus diesem Zyklus, ehe Octavia E. Butler mit "Kindred" 1979 ein Buch veröffentlichte, das kaum noch etwas mit SF zu tun hatte und sehr erfolgreich war. Ohne die Zeitreise irgendwie technisch oder wissenschaftlich zu erklären, beschreibt sie darin, wie eine junge schwarze Frau immer wieder in die Vergangenheit ihrer Vorfahren hineingerissen wird, einschließlich eines weißen Sklavenhändlers. Dieser Kunstgriff, Gegenwart und Geschichte in einer Person zu konzentrieren, brachte dem Buch ein großes Publikum und Octavia E. Butler den ökonomischen Erfolg, um fortan vom Schreiben leben zu können. In den 1980er Jahren gewann sie mit der Erzählung "Bloodchild" 1985 die vier wichtigsten SF-Preise zugleich, nachdem sie bereits ein Jahr zuvor den Hugo Award erhalten hatte. Danach veröffentlichte sie ihre "Xenogenesis"-Trilogie (später unter dem Titel "Lilith's Brood" zusammengefasst). Darin geht es um die Rettung der Menschheit nach einem verheerenden Krieg; die Überlebenden treffen auf eine Alien-Rasse, die ein drittes Geschlecht besitzt, welches nicht nur die anderen beiden Geschlechter mental miteinander verknüpfen, sondern sie auch genetisch verändern kann. Die 1990er Jahre über arbeitete Octavia E. Butler an ihrer "Parable"-Trilogie, von der sie nur die ersten beiden Bände fertigstellen und veröffentlichen konnte. Sie schildert darin eine Dystopie, in der eine neue Religion namens "Earthseed" die stete Veränderung aller Dinge predigt. Gesundheitliche Probleme und eine Schreibblockade hinderten sie daran, den dritten Band zu vollenden. Der zweite Band "Parable of the Talents" gewann 1999 den Nebula Award. 1995 wurde sie mit dem "Genius Award" des MacArthur Fellows Program ausgezeichnet, der mit 295.000 Dollar dotiert war. Erst 2005 veröffentlichte sie ihren nächsten und letzten Roman "Fledgling", einen Vampir-Roman mit einigen SF-Elementen. Bis 1999 lebte sie im Süden Kaliforniens, zog aber nach dem Tod ihrer Mutter nach Seattle. In ihren letzten Lebensjahren war sie gesundheitlich angeschlagen: sie litt unter Bluthochdruck und hatte Herzprobleme. Am 24. Februar 2006 stürzte sie auf dem Kopfsteinpflaster vor ihrem Haus und zog sich eine Kopfverletzung zu. Sie starb noch am selben Tag. Musternisten (Patternist). Die Zuordnung der Romane Butlers zu diesem Zyklus gibt es in den unterschiedlichsten Varianten – die Angaben schwanken dabei zwischen 3 und 6 Romanen. 2007 ist allerdings ein Sammelband erschienen, der die vier Romane "Patternmaster", "Mind of My Mind", "Wild Seed" und "Clay's Ark" enthält. Die thematisch weniger zu diesen vier passenden Romane "Survivor" und "Kindred" werden deshalb weiter unten als Einzelwerke aufgeführt. Dieses Buch ist Teil der Patternist-Saga und reiht sich zeitlich ein nach "Clay's Ark" und vor "Patternmaster". Dieses Buch ist nicht Teil des Sammelbandes, da Octavia Butler die weitere Veröffentlichung nach wenigen Auflagen einstellte. Ohr. Das Ohr (latein. auris altgr. οὖς, Genitiv ὠτός; „"us, otós"“) ist ein Sinnesorgan, mit dem Schall, also Töne, Klänge oder Geräusche aufgenommen werden. Zum Ohr als Organ gehört auch das Gleichgewichtsorgan. Zum Hörsystem, das die auditive Wahrnehmung ermöglicht, gehören außer Außen-, Mittel- und Innenohr auch der Hörnerv und die Umschalt- und Verarbeitungsstationen im zentralen Nervensystem, bei Säugetieren also einige Areale im Hirnstamm und Zwischenhirn, bis hinauf zur auditiven Hirnrinde. Ohren im Allgemeinen. Der Hörsinn ist gegen den Vibrationssinn abzugrenzen. Letzterer nimmt Substratschall auf, etwa wenn der Untergrund vibriert. Hören, d.h. die Wahrnehmung rhythmischer Druckwellen in Luft oder Wasser, ist in der Evolution nur bei relativ wenigen Tiergruppen entstanden. Fast alle Tetrapoden, viele Fische und etliche Insektenarten können demnach hören, ebenso einige Kopffüßer. Die meisten Wirbellosen leben jedoch in einer stummen Welt. Bei den Wirbeltieren hat die Natur das Hören wahrscheinlich 2- bis 3-mal unabhängig voneinander erfunden. Die ersten Hörorgane entstanden im Devon vor etwa 380 Millionen Jahren. Ein wesentlicher Schritt zum Erwerb eines guten Hörvermögens war danach die Entwicklung eines Mittel- und Innenohrs, inklusive eines Trommelfelles. Bei den Insekten entstand das Hörvermögen sogar mindestens 20-mal unabhängig voneinander. Aufbau und Platzierung der Hörorgane sind bei den verschiedenen Arten sehr unterschiedlich. Bei Heuschrecken sitzen die Ohren am Hinterleib oder den Beinen, bei Zikaden an den Beinen und bei Mücken und Fliegen an den Fühlern. Einige Eidechsen- und Salamanderarten hören mit Brustkorb und Lunge. Äußere Ohren sind bei den meisten Säugetierarten und Vogelarten vorhanden, Ausnahmen finden sich bei einigen Delfinarten. Reptilien, Amphibien und Fische haben keine äußeren Ohren. Bei Reptilien und Amphibien sitzt dadurch das Trommelfell direkt an der Außenseite des Kopfes. Der Hörbereich des menschlichen Ohrs reicht in jungen Jahren von etwa 16 Hertz bis maximal 20.000 Hertz. Unter anderem können Elefanten noch tiefere Frequenzen wahrnehmen, den Infraschall, während eine Reihe von Tieren, zum Beispiel Mäuse, Hunde, Delfine und Fledermäuse, noch wesentlich höhere Frequenzen, den Ultraschall, hören können. Eine Aufgabe des Hörens ist die Orientierung im Raum, also Schallquellen zu lokalisieren, das heißt, deren Richtung und Entfernung zu bestimmen. Seitlich einfallender Schall erreicht das zugewandte Ohr eher als das abgewandte und ist dort lauter, da das abgewandte Ohr durch den Kopf abgeschattet wird. Diese Laufzeitdifferenzen und Pegeldifferenzen zwischen beiden Ohren werden vom Gehirn ausgewertet und zur Richtungsbestimmung genutzt. Darüber hinaus erzeugt die Ohrmuschel je nach Richtung spezifische Veränderungen des Frequenzgangs, die ebenfalls ausgewertet und zur Richtungsbestimmung benutzt werden. Viele Lebewesen, auch der Mensch, können vorhandene Schallquellen lokalisieren, die Orientierung im Raum erfolgt aber vor allem mit Hilfe des Gleichgewichtssinns und des Gesichtssinns. Delfine und Fledermäuse haben in der Evolution den Gehörsinn zu einem besonders hochstehenden Orientierungssystem entwickelt. Beide stoßen hochfrequente Signale im Ultraschallbereich aus (bis 200 kHz) und orientieren sich anhand des Echos. Dieses aktive Verfahren zur Orientierung nennt man Ortung. Bei den Fledermäusen hat das Gehör die Augen weitgehend ersetzt, die in der Dunkelheit von keinem großen Nutzen sind. Das Ohr des Menschen. Schematische Zeichnung des menschlichen Ohres mit Außenohr, Mittelohr (Paukenhöhle) und Innenohr Gehör. Die Wahrnehmung von akustischen Signalen wird wesentlich davon mitbestimmt, wie Schallschwingungen auf ihrem Weg vom Außenohr über das Mittelohr hin zu den Nervenzellen des Innenohrs jeweils umgeformt und verarbeitet werden. Das menschliche Gehör kann akustische Ereignisse nur innerhalb eines bestimmten Frequenz- und Schalldruckpegelbereichs wahrnehmen. Zwischen der Hörschwelle und der Schmerzschwelle liegt die Hörfläche. Die Empfindlichkeit des Ohrs ist ebenso wie seine Lärmtoleranz außerordentlich. Der leiseste wahrnehmbare Schalldruck bei normalhörenden Menschen ist bei einem Ton von 2.000 Hz etwa 20 Mikro-Pascal (20 µPa = 2·10−5 Pa), das entspricht "Lp" = 0 dBSPL Schalldruckpegel. Diese Schalldruckveränderungen "Δ p" werden über das Trommelfell und die Mittelohrknöchelchen ins Innenohr übertragen, und im Ohr-Gehirnsystem entsteht dann der Höreindruck. Weil das Trommelfell als Sensor mit dem Ohrsystem die Eigenschaften eines Schalldruckempfängers hat, beschreibt der Schalldruckpegel als Schallfeldgröße die Stärke des Höreindrucks am besten. Die Schallintensität "J" in W/m2 ist als Schallenergiegröße hingegen nicht geeignet, den Höreindruck zu beschreiben; aufgrund der komplexen Impedanz des Außen- und Mittelohres bei gleichem Schalldruckpegel. Gleiches gilt sinngemäß für die Schallschnelle. Das menschliche Gehör vermag bereits eine äußerst geringe Schallleistung aufzunehmen. Der leiseste wahrnehmbare Schall erzeugt eine Leistung von weniger als 10−17 W im Innenohr. Innerhalb einer zehntel Sekunde, die das Ohr braucht, um dieses Signal in Nervenimpulse umzusetzen, wird durch eine Energie von etwa 10−18 Joule schon ein Sinneseindruck erzeugt. Daran wird deutlich, wie empfindlich dieses Sinnesorgan eigentlich ist. Die Schmerzgrenze liegt bei über 130 dBSPL, das ist mehr als der dreimillionenfache Schalldruck des kleinsten hörbaren (63,246:0,00002 = 3.162.300). Vor allem das Innenohr und hier die Haarzellen und deren Stereozilien, nehmen bei hohem Schalldruck Schaden. Beim Richtungshören und bei der Kopfhörer-Stereofonie spielen Laufzeitunterschiede und Pegelunterschiede zwischen beiden Ohren und somit auch der individuelle Ohrabstand eine gewisse Rolle, sowie spektrale Eigenschaften der Ohrsignale. Die Techniken zur Untersuchung der Hörfähigkeit werden unter dem Begriff Audiometrie zusammengefasst. Ein Ergebnis eines Hörtests, der das Hörvermögen bei verschiedenen Frequenzen untersucht, nennt sich Audiogramm. Aus diesem lässt sich meistens die Hörschwelle ablesen. Außerhalb des eigentlichen Ohres liegen jedoch die Nervenbahnen, die zum Hörzentrum des Hirns führen, sowie das Hörzentrum selbst. Sind diese beeinträchtigt, so kann auch bei einem funktionsfähigen Ohr die Schallwahrnehmung beeinträchtigt sein. Der Weg des Schalls: Ohrmuschel → Gehörgang → Trommelfell → Gehörknöchelchen → Hörschnecke → Hörnerv Krankheiten. Das menschliche Ohr kann auf verschiedenartige Weisen erkranken, die jeweils für den betroffenen Teil des Ohres spezifisch sind. Zur Diagnostik von Erkrankungen des Ohres stehen neben den allgemein üblichen Methoden der Medizin wie Röntgenuntersuchungen, serologischen und visuellen Untersuchungen auch Hörtests zur Verfügung. Ohrabdruck. Der Abdruck der Ohren kann zur Identifizierung einer Person dienen. Dabei hat der Ohrabdruck eine ähnlich hohen Beweiswert wie ein Fingerabdruck. Die Kriminalistik kann auf Basis der hinterlassenen Ohrabdrücke, z.B. beim Lauschen an Fenstern oder Haustüren, durchaus Straftäter überführen. Vorteil gegenüber dem Fingerabdruck ist, dass ein Ohrabdruck meist nicht zufällig entsteht. Fingerabdrücke sind meist von vielen Personen am Tatort zu finden. Optik. Die Optik (von altgriechisch "optikós" ‚zum Sehen gehörend‘), auch "Lehre vom Licht" genannt, ist ein Gebiet der Physik und beschäftigt sich mit der Ausbreitung von Licht sowie dessen Wechselwirkung mit Materie, insbesondere im Zusammenhang mit optischen Abbildungen. Die „technische Optik“ (s. u.) ist dagegen kein Wissenschaftsgebiet der Physik, sondern eine technische Disziplin bezogen auf die Fertigung optischer Systeme. Umgangssprachlich wird die Summe aller optischen Bauteile eines Gerätes gelegentlich auch "Optik" genannt. Unter Licht wird in der Regel der sichtbare Teil des elektromagnetischen Spektrums im Bereich 380 nm und 780 nm (790 THz bis 385 THz) verstanden. In der Physik wird der Begriff Licht mitunter auch auf unsichtbare Bereiche von elektromagnetischer Strahlung ausgeweitet und umfasst im allgemeinen Sprachgebrauch dann auch das Infrarotlicht oder das ultraviolette Licht. Viele Gesetzmäßigkeiten und Methoden der klassischen Optik gelten allerdings auch außerhalb des Bereichs sichtbaren Lichts. Dies erlaubt eine Übertragung der Erkenntnisse der Optik auf andere Spektralbereiche, zum Beispiel die Röntgenstrahlung (siehe Röntgenoptik) sowie Mikro- und Funkwellen. Auch Strahlen geladener Teilchen bewegen sich in elektrischen oder magnetischen Feldern oft nach den Gesetzen der Optik (siehe Elektronenoptik). Teilbereiche der Optik. Es werden zwei klassische Zugänge zur Lichtausbreitung unterschieden: Die Wellenoptik und die geometrische Optik. Grundlage der Wellenoptik ist die Wellennatur des Lichts. Die Gesetzmäßigkeiten der geometrischen Optik gelten für den Fall, dass die Abmessungen des optischen Systems sehr groß sind gegenüber der Wellenlänge des Lichts. Bei geringen Abmessungen der Komponenten gegenüber der Wellenlänge spricht man von der Mikrooptik. Eine wichtige Teildisziplin der Optik ist die Quantenoptik, die sich mit den Wechselwirkungen von Licht und Materie beschäftigt. Dabei spielt besonders der gequantelte Charakter des Lichts eine bedeutende Rolle. Daneben sind die nichtlineare Optik (bei der das Licht im Gegensatz zur "linearen Optik" das umgebende Medium beeinflusst und dadurch zusätzliche Effekte bewirkt) und die Fourieroptik von theoretischem und technischem Interesse. Ein interdisziplinärer Teilbereich ist die atmosphärische Optik, in der Leuchterscheinungen in der Erdatmosphäre untersucht werden. Geometrische Optik. In der geometrischen Optik wird Licht durch idealisierte Strahlen angenähert. Der Weg des Lichtes, etwa durch ein optisches Instrument, wird durch Verfolgen des Strahlenverlaufs konstruiert. Das snelliussche Brechungsgesetz beschreibt die Brechung des Lichtes an Grenzflächen zwischen transparenten Medien mit verschiedenem Brechungsindex (an Oberflächen von Linsen oder Prismen). Bei Reflexion an Spiegeln und bei der Totalreflexion gilt die Regel, dass der Einfallswinkel dem Reflexionswinkel gleich ist. Mittels dieser Methode lassen sich Abbildungen, beispielsweise durch Linsen oder Linsensysteme (Mikroskop, Teleskop, Objektiv) und die dabei auftretenden Abbildungsfehler behandeln. Eine wichtige Näherung ist die paraxiale Optik, welche aus einer Linearisierung des Snelliusschen Brechungsgesetzes abgeleitet werden kann, und wichtige Begriffe wie Brennweite und Abbildungsmaßstab definiert. Wellenoptik. Die Wellenoptik kann auch Effekte beschreiben, die von der Wellenlänge des Lichts abhängen; man spricht dabei allgemein von Dispersion. (Beispiel: „Warum ist der Himmel blau?“) Je nach oben genanntem Mechanismus müssen sehr verschiedene Modelle zur Beschreibung genutzt werden, die zu sehr unterschiedlichen Wellenlängenabhängigkeiten führen. Auf der Wellenoptik bauen die Kristalloptik und die Magnetooptik auf. Oberflächenphänomene. Lichtbrechung im Prismenspektrometer; Teilreflexion an beiden brechenden Flächen als Nebeneffekt Die Wechselwirkung von Licht mit wirklichen (d. h. nicht idealisierten) Oberflächen ist für die optische Wahrnehmung des Menschen bedeutsam, ist aber bislang nur unvollständig verstanden. Bedeutsam ist die Remission, also die Absorption eines Teil des Lichts sowie die Reflexion, Transmission beziehungsweise Streuung des restlichen Spektralanteils. Reflexion und Transmission lassen sich durch die Brechung des Lichts an den Grenzflächen beschreiben. Wiederum ist eine Wellenlängenabhängigkeit der meisten Mechanismen zu beachten, also deren Dispersion. Manche Oberflächen, wie etwa die menschliche Haut, sind in den obersten Hautschichten teilweise transparent, so dass optisch keine reflektierende Fläche, sondern eine reflektierende Schicht vorliegt. Eine abstrakte Beschreibung der optischen Vorgänge an derartigen Oberflächen ist kompliziert, und einer der Gründe, dass computergenerierte Bilder künstlich wirken können. Das menschliche Auge. Das Auge ist das optische Sinnesorgan des Menschen, es wertet den Reiz von Licht unterschiedlicher Wellenlänge an den Photorezeptoren zu Aktionspotentialfolgen der Ganglienzellen der Netzhaut aus. Die physiologische Optik befasst sich mit der Optik und dem Aufbau des Auges. In der Medizin spricht man bei der das Auge betreffenden Medizin von der Augenoptik oder Optometrie als der Messung der Sehweite. Der Vorgang des Sehens lässt sich mithilfe der Optik nur teilweise erklären. Das Gehirn spielt dabei eine große Rolle, denn es verarbeitet Informationen erst zu dem, was wir als Sehen bezeichnen. Dieser Teil fällt aber der Biologie zu. Alle durchsichtigen Teile des Auges wirken zusammen wie eine einzige Sammellinse und entwerfen ein stark verkleinertes, verkehrtes, wirkliches Bild. Geschichte der Sehhilfen. Französische Scherenbrille im Empire-Stil um 1805 Mit der Entstehungsgeschichte von Sehhilfen sind die auf Gotland gefundenen Visby-Linsen aus dem 11. Jahrhundert verbunden. Einige dieser Linsen können sich in der Abbildungsqualität mit heutigen Linsen messen. Die Herkunft der Visby-Linsen ist trotz genauer Analyse unklar, die Verarbeitung von Bergkristall war aber bereits im 11. Jahrhundert weit verbreitet. Der arabische Gelehrte Ibn Al-Haitham (996–1038) schrieb über das Sehen, die Refraktion (Augenoptik) und die Reflexion in seinem Buch „Schatz der Optik“. Um 1240 wurde das Buch ins Lateinische übersetzt. Genial war seine Überlegung, das Auge mit geschliffenen Linsen zu unterstützen. Europäische Mönche griffen diesen Gedanken auf und fertigten später als im Orient halbkugelige Plankonvexlinsen für Sehhilfen (Lesesteine). Technische Optik. Das Design, die Auslegung und die Fertigung optischer Systeme wird als technische Optik bezeichnet und zählt im Unterschied zur physikalischen Optik zu den Ingenieurwissenschaften, da hier die konkrete Konstruktion und Herstellung optischer Geräte sowie die Konzeption spezifischer Strahlengänge im Vordergrund stehen. Bedeutende Vertreter dieser Fachrichtung waren unter anderen Johannes Kepler, Joseph von Fraunhofer und Ernst Abbe. Die heutige gewerbliche Berufsbezeichnung ist "Feinoptiker". Sie stellt eine inhaltliche Verknüpfung der Teilgebiete Optische Messtechnik, Lasertechnik und theoretische Optik (einschließlich Mikrooptik, Lichttechnik oder Faseroptik) dar. Anwendung findet die technische Optik unter anderem in der Projektionstechnik, Holografie und Fotografie sowie in der Spektroskopie. Im Folgenden sind die wichtigsten Bauelemente, Komponenten und Geräte aufgelistet. Bekannte Optiker. Bekannte Optiker waren Ernst Abbe, Alhazen, Laurent Cassegrain, John Dollond, Peter Dollond, Benjamin Franklin, Joseph von Fraunhofer, Hans-Joachim Haase, Hans Lipperhey, Zacharias Janssen, Christiaan Huygens, Johannes Kepler, Antoni van Leeuwenhoek, Dmitri Dmitrijewitsch Maksutow, Isaac Newton, Josef Maximilian Petzval, Hermann Pistor, Carl Pulfrich, Christoph Scheiner, Bernhard Schmidt, Ludwig Seidel und August Sonnefeld. Ordnung (Biologie). Die Ordnung (lateinisch: "ordo") ist eine Rangstufe der biologischen Systematik. Sie dient zur Einteilung und Benennung der Lebewesen (Taxonomie). Bezüglich der Hauptstufen steht die Ordnung zwischen Klasse und Familie. Zusätzlich kann unmittelbar oberhalb der Ordnung eine Überordnung ("superordo") und unmittelbar unterhalb eine Unterordnung ("subordo") sowie Teilordnung ("infraordo") vorhanden sein. In der Botanik leiten sich die wissenschaftlichen Ordnungsnamen von der Gattung der Typusart ab und enden auf "-ales" (zum Beispiel Asterales, abgeleitet von Aster). Die Endung führte John Lindley 1833 ein, durch George Bentham und William Jackson Hooker wurde sie 1862 etabliert. Noch bei Carl von Linné ("ordines naturales") und Antoine-Laurent de Jussieu bezeichnete die Ordnung eine Rangstufe oberhalb der Gattung und entsprach eher der heutigen Familie. Nachdem sich der Gebrauch der Familie eingebürgert hatte, wurde die Ordnung als nächsthöhere Rangstufe übernommen. Zeitweise gab es alternative Rangstufenbezeichner wie "nixus", "cohors" oder "alliance". Von besonderer Bedeutung war der bis 1959 insbesondere in der deutschsprachigen Botanik verwendete und von Adolf Engler eingeführte Begriff „Reihe“. Diese Begriffe wurden zugunsten der Ordnung verworfen, entsprechend beschriebene Taxa gelten jedoch als gültige Ordnungen. Bei den Pilzen ist die Ordnung oft die wesentlichste Darstellungsebene. Olympiade. Eine Olympiade (vom Wortstamm "Olympiád-" des griechischen Substantivs "Olympiás" „Olympiade“, „Zeitraum "zwischen" zwei Olympischen Spielen“; der Wortstamm ist im Nominativ nicht erkennbar, aber z. B. im Genitiv "Olympiádos") ist ein Zeitraum von vier Jahren. Er beginnt jeweils in dem Jahr, in dem die Olympischen Spiele abgehalten werden. Antike. Die ersten Olympischen Spiele in Olympia wurden der Überlieferung zufolge im antiken Griechenland im Jahr 776 v. Chr. abgehalten. Mit diesem Jahr beginnen die Siegerlisten. Es ist der Ausgangspunkt der klassischen griechischen Zeitrechnung. Die Zählung der Olympiaden wurde aber erst vom Geschichtsschreiber Timaios von Tauromenion eingeführt, der im 4. und 3. Jahrhundert v. Chr. lebte. Erst danach begann die Datierung von Ereignissen nach Olympiaden, und die Olympiadenrechnung wurde zur Grundlage der griechischen Chronologie. Neuzeit. 1896 begann die erste Olympiade der Neuzeit in Athen. Das Internationale Olympische Komitee definiert die Olympiade als den Zeitraum von vier Jahren, der jeweils am 1. Januar des Jahres der Sommerspiele beginnt. Die erste Olympiade der Neuzeit begann demnach am 1. Januar 1896, die XXX. Olympiade der Neuzeit am 1. Januar 2012, im Jahr der Olympischen Sommerspiele 2012, die deshalb offiziell die "Spiele (zur Feier) der XXX. Olympiade" hießen. Die Olympiaden werden mit römischen Zahlen nummeriert. Die Zeitrechnung in Olympiaden ist unabhängig davon, ob die Spiele stattfinden oder nicht. Die Olympischen Sommerspiele 1936 waren die "Spiele der XI. Olympiade". Nachdem wegen des Zweiten Weltkrieges 1940 und 1944 keine Spiele ausgetragen wurden, wurde der Brauch 1948 mit den "Spielen der XIV. Olympiade" wieder aufgenommen. Die Winterspiele werden im Gegensatz zu den Sommerspielen fortlaufend nummeriert. Die "IV. Olympischen Winterspiele" wurden 1936 ausgetragen, die "V. Olympischen Winterspiele" aber erst 1948. Begriff. Herodot zufolge verwendete man schon zu seiner Zeit (im 5. Jahrhundert v. Chr.) den Begriff nicht nur für den Vierjahreszeitraum, sondern ebenfalls für die Veranstaltung der "Olympischen Spiele". Dies gilt ebenso für viele Sprachen heute. Mit Olympiade werden im Deutschen in erster Linie die Spiele assoziiert, während man etwa im Englischen zwischen dem Zeitraum der "Olympiad" und der Veranstaltung "Olympics" unterscheidet. Im Deutschen und in weiteren Sprachen erhalten andere Wettbewerbe den Namen, wie Schacholympiade oder Deutsche Mathematik-Olympiade. Markenschutz. Die Begriffe „Olympiade“, „Olympia“ und „olympisch“ sind in Deutschland durch das Olympiaschutzgesetz geschützt. Eine Verwendung außerhalb der vom IOC veranstalteten oder genehmigten Anlässe kann zu Schadenersatzforderungen führen. Allerdings wurde die Verfassungsmäßigkeit des Gesetzes durch das Landgericht Darmstadt in einem zwischenzeitlich rechtskräftigen Urteil (Aktenzeichen 14 O 744/04) angezweifelt, wodurch eine tatsächliche Rechtswirkung fraglich bleibt. Odenwaldkreis. Der Odenwaldkreis ist ein Landkreis im Regierungsbezirk Darmstadt in Hessen. Mit etwas weniger als 100.000 Einwohnern ist er der bevölkerungsärmste Landkreis Hessens. Lage. Der Odenwaldkreis ist der einzige Landkreis, der mit dem gesamten Kreisgebiet im Odenwald liegt, somit dessen Kerngebiet umfasst. Zentraler Landschaftsteil des Odenwaldkreises ist das in Süd-Nord-Richtung verlaufende Mümlingtal und die dieses östlich und westlich begleitenden Höhenzüge. Entlang der Mümling sind die größten Städte des Kreises aufgereiht: Beerfelden, Erbach, Michelstadt, Bad König und Höchst. Im Nordwesten reicht das Kreisgebiet in einen Teil der Gersprenzniederung hinein und im Süden gibt es jenseits der Hauptwasserscheide von Main und Neckar einige Täler, die nach Süden dem Neckar zustreben: der Finkenbach, der Gammelsbach, der Sensbach und die Itter. Die höchsten Erhebungen des Odenwaldkreises sind der Kohlwald () nordwestlich von Bullau, die Sensbacher Höhe () und der Krähberg (), beide in der Gemarkung Ober-Sensbach. Würzberg und Bullau sind mit 515 Meter die beiden höchstgelegenen Ortschaften des Kreises und die tiefstgelegene ist Hainstadt an der Mümling kurz vor der bayerischen Grenze mit. Nachbarkreise. Der Odenwaldkreis grenzt im Uhrzeigersinn im Norden beginnend an die Landkreise Darmstadt-Dieburg (in Hessen), Miltenberg (in Bayern), Neckar-Odenwald-Kreis und Rhein-Neckar-Kreis (beide in Baden-Württemberg) sowie Bergstraße (wiederum in Hessen). Geschichte. Bis zur Mediatisierung 1806 war das Gebiet des Odenwaldkreises, in ähnlichen Grenzen wie seit der Kreisreform, ein reichsunmittelbares Territorium der Grafen von Erbach, gehörte als Exklave zum Fränkischen Reichskreis und kam dann zum Großherzogtum Hessen. Nach Verkündung der Verfassung des Großherzogtums am 17. Dezember 1820 folgte am 14. Juli 1821 eine umfassende Verwaltungsreform. Statt der Ämter wurden nun Landratsbezirke eingesetzt. Dies waren die Vorläufer der Kreise. In Erbach wurde 1822 für die Gräflich Erbachischen und Erbach-Fürstenauischen Ämter der Landrats- und Gerichtsbezirk Erbach gegründet. Ebenfalls 1822 entstand ein Landrats- und Gerichtsbezirk Breuberg mit Sitz in Neustadt (ab 1847) bzw. Höchst im Odenwald. Mit Gesetz vom 31. Juli 1848 wurden die Verwaltungseinheiten ein weiteres Mal vergrößert. An die Stelle der Kreise und Landratsbezirke traten nunmehr Regierungsbezirke, wobei die bisherigen Landratsbezirke Breuberg und Erbach zum Regierungsbezirk Erbach vereinigt wurden, hinzu kam der Landratsbezirk Wimpfen, eine Exklave in Baden. Bereits vier Jahre später kehrte man aber zur Einteilung in Kreise zurück, wodurch neben dem Kreis Erbach, der Kreis Neustadt und der Kreis Wimpfen gegründet wurden. Am 1. Juli 1874 wurde der Kreis Neustadt wieder aufgelöst und die Gemeinden wurden in den Kreis Erbach integriert. Ebenso wurde der Kreis Lindenfels aufgelöst und gab einige Gemeinden an den Kreis Erbach ab. Im Zuge der 1874 im Großherzogtum Hessen nach preußischem Vorbild vorgenommenen Reform der Kreisverfassung kam es auch zu einer neuen Kreiseinteilung. Die damals geschaffene Gliederung des Großherzogtum in sieben die Provinz Starkenburg bildende Kreise (Bensheim, Darmstadt, Dieburg, Erbach, Groß-Gerau, Heppenheim, Offenbach) hatte mehr als sechs Jahrzehnte Bestand. Nach der 1936 erfolgten Auflösung der Provinzial- und Kreistage im nunmehrigen Volksstaat Hessen (ab 1918) und der 1937 durchgeführten Aufhebung der drei Provinzen Starkenburg, Oberhessen und Rheinhessen brachte das Jahr 1938 eine Überprüfung der Kreisgrenzen. Am 1. November 1938 wurde in Hessen eine einschneidende Gebietsreform durchgeführt. In jeder der drei hessischen Provinzen Starkenburg, Rheinhessen und Oberhessen wurde jeweils ein Kreis aufgelöst. In Starkenburg war davon der Kreis Bensheim betroffen. Dieser wurde zum größten Teil dem Kreis Heppenheim zugeschlagen, der auch zum Rechtsnachfolger des Kreises Bensheim wurde. Die neue Verwaltungseinheit wurde in Landkreis Bergstraße umbenannt. Einige Monate später wurden jedoch die Städte Darmstadt, Gießen, Mainz, Offenbach und Worms als Stadtkreise verselbständigt. Diese so geschaffene Kreiseinteilung des Volksstaates hatte zunächst bis zum Kriegsende 1945 Bestand. Im Vorfeld der Gebietsreform in Hessen kam am 1. Juli 1971 die Gemeinde Laudenau aus dem Kreis Bergstraße nach einer Bürgerbefragung zum Landkreis Erbach, als sie sich der Gemeinde Reichelsheim (Odenwald) anschloss. Mit Inkrafttreten des "Gesetzes zur Neugliederung des Landkreises Erbach" vergrößerte sich das Kreisgebiet am 1. August 1972 um die Gemeinden Fränkisch-Crumbach und Brensbach (mit Wersau) aus dem Landkreis Dieburg. Zugleich erhielt der Kreis den Namen "Odenwaldkreis". Landratsamt. Das Gebäude des Landratsamtes wurde 1902–1904 vom Wormser Stadtbaumeister und späterem Professor der Technischen Hochschule Darmstadt, Karl Christian Hofmann (1856–1933), im Renaissancestil entworfen und vom Bauunternehmer und Steinmetz Adam Hild aus Hetzbach errichtet. Erweiterungsbauten wurden 1960 und 1989 notwendig. An dieser Stelle befand sich ehemals die Gerichtsstätte der Erbacher Zent und danach eine Ziegelhütte. Partnerschaften. Der Odenwaldkreis unterhält eine Partnerschaft mit der Region Falkirk, die im Zentrum Schottlands zwischen Edinburgh und Glasgow liegt. Kfz-Kennzeichen. Am 1. Juli 1956 wurde dem Vorgänger des Odenwaldkreises, dem Landkreis Erbach, das Unterscheidungszeichen "ERB" zugewiesen. Dieses wurde auch nach der am 1. August 1972 erfolgten Umbenennung in Odenwaldkreis weiter benutzt und wird durchgängig bis heute ausgegeben. Off camera. Mit Off camera (Scheinanglizismus, kurz "Off", für „außerhalb“) wird eine Aktion in einer audiovisuellen Produktion wie etwa einem Film bezeichnet, während der eine oder mehrere Stimmen von Schauspielern oder Sprechern zu hören sind, die sich außerhalb der Reichweite einer Kamera und damit des für den Zuschauer sichtbaren Bereichs befinden (auch: Off-Stimme für „Stimme aus dem Aus“). Eine grundsätzliche Unterscheidung dabei ist, ob diese zur Handlung gehört oder nicht (siehe Diegese). Die Stimme einer Figur aus dem Off, die in der Szene anwesend, aber im Moment gerade nicht sichtbar ist, hat eine andere Funktion als eine Erzählstimme aus dem Off, die das Geschehen aus zeitlicher und örtlicher Distanz kommentiert. Auch Annahmen des Zuschauers, zum Beispiel über Beziehungen zwischen Protagonisten, die sich aus der tatsächlich dargebotenen Handlung ableiten lassen (Implikation), werden so bezeichnet. Oft werden solche Vermutungen durch Filmmusik, Kameraeinstellungen und andere Kommentare von der Beobachterperspektive des Films aus suggeriert. Off-Sprecher. Die Off-Stimme dient dazu, einen Film (Dokumentation/ Reportage/ Magazin-Beitrag/ Industriefilm) zu illustrieren. Off-Sprecher (auch: Off-Stimme-Sprecher) sind meist ausgebildete Schauspieler oder solche, die über eine fundierte Ausbildung (Atem-, Stimm- und Sprechtraining) verfügen. Öffentlich-rechtliche oder private Sender, Unternehmen oder Filmverleiher engagieren häufig bekannte Stimmen, die die (Werbe-)Wirksamkeit erhöhen. Allerdings gibt es auch Agenturen, die Laien oder Amateure mit geeigneten Stimmen suchen und vermitteln, wobei bei der Vergabe das Budget der jeweiligen Produktion eine Rolle spielt. Die Leistung des Off-Sprechers begründet sich, abgesehen von der Stimmtechnik, auf ein dem Thema angemessenes Transportieren der Inhalte bzw. der gewünschten Tonalität. Abgrenzung. Eine Off-Stimme ist jedoch nicht mit einer Synchron-Stimme, also der bei der Synchronisation aufgenommenen Stimme des Synchronsprechers, zu verwechseln, die inhaltlich zwar vergleichbar, jedoch vom ganzen Produktionsprozess her gesehen eine komplexere Arbeit am Medium erfordert (beispielsweise die Übereinstimmung des gesprochenen und später gehörten Textes mit den Lippenbewegungen der zu synchronisierenden Person). Im Unterschied zum Nahsprecheffekt einer Off-Stimme ist der akustische Raum in einem Synchronstudio weniger resonanzarm. Zudem wird eine Off-Stimme, die zur Handlung gehört, wenn zum Beispiel jemand durch ein offenes Fenster in die Szene ruft, von einem Voice-over unterschieden, wenn über eine Filmsequenz etwa eine Übersetzerstimme gelegt wird. Orchideen. Die Orchideen oder Orchideengewächse (Orchidaceae) sind eine weltweit verbreitete Pflanzenfamilie. Die zwei hodenförmigen Wurzelknollen der Knabenkräuter (v. griech. ὄρχις "orchis" ‚Hoden‘) haben der gesamten Pflanzenfamilie ihren Namen gegeben. Nach den Korbblütlern (Asteraceae) stellen die Orchideen die zweitgrößte Familie unter den bedecktsamigen Blütenpflanzen dar. Sie werden als besonders schön angesehen, und vielen gilt die Orchidee als "Königin der Blumen". Sie gehören innerhalb der Klasse der Bedecktsamer zu den Einkeimblättrigen Pflanzen (Monokotyledonen). Etwa 1000 Gattungen mit 15.000 bis 30.000 Arten werden von den Botanikern anerkannt. Allgemeines. Die Pflanzentaxa der Familie Orchideen unterscheiden sich nur durch einige wenige eindeutige Merkmale von anderen verwandten Pflanzenfamilien der Einkeimblättrigen Pflanzen. Dabei gibt es trotz der vielfachen Merkmale, die bei den meisten Orchideenarten zu finden sind, nur sehr wenige, die bei allen vorkommen. Orchideen sind in der Regel ausdauernde Pflanzen, könnten theoretisch je nach Wuchsform unbegrenzt lange weiterwachsen (jedes Jahr ein oder mehrere Neutriebe oder permanentes Weiterwachsen eines Sprosses). Tatsächlich ist aber nur sehr wenig darüber bekannt, welches Alter Orchideen erreichen können. Wuchsformen. Mehr als die Hälfte aller tropischen Arten wachsen als Epiphyten auf Bäumen. Sie besitzen spezielle morphologische (Velamen radicum, Pseudobulben) und physiologische (CAM-Mechanismus) Besonderheiten, um mit den teilweise widrigen Bedingungen wie Trockenheit und Nährstoffmangel im Kronenraum zurechtzukommen. Habitus. Man unterscheidet monopodial wachsende Orchideen, die eine an der Spitze weiterwachsende einheitliche Sprossachse besitzen (teilweise auch mit Verzweigungen) und sympodial wachsende Orchideen, die durch Verzweigung nacheinanderfolgende Sprossglieder mit begrenztem Spitzenwachstum ausbilden. Bei den monopodial wachsenden Orchideen dienen Blätter und/oder Wurzeln als Speicherorgane, während die sympodial wachsenden Orchideen dazu mehr oder weniger dicke ein- oder mehrgliedrige Pseudobulben ausbilden. Einige Orchideengattungen bilden auch unterirdische Speicherorgane (Kormus). Neben den beiden angeführten Wachstumsformen gibt es aber auch seltene Abwandlungen, die nicht dem normalen Schema monopodialen vs. sympodialen Wachstums entsprechen. So bilden etwa viele Arten der Pleurothallidinae (Bsp. "Pleurothallis", "Lepanthes") trotz sympodialen Wuchses keine Pseudobulben aus, sondern haben stattdessen fleischige Blätter. Wurzeln. Orchideen bilden keine Primärwurzel (Pfahlwurzel) aus, sondern nur sekundäre Wurzeln, die dem Spross entspringen. In ihrer Dicke unterscheiden sie sich teilweise ziemlich deutlich. Beim überwiegenden Teil der Orchideen weisen die Wurzel ein Velamen auf. Neben ihrer Funktion als Aufnahmeorgan für Wasser und Nährstoffe dienen sie oft auch als Haft- und Halteorgan. Dies ist besonders bei epiphytisch wachsenden Arten von Bedeutung. Die Form der Wurzeln hängt im Wesentlichen davon ab, wo sie wachsen. Während die frei in der Luft hängenden Wurzeln der Epiphyten bzw. die Wurzeln, die völlig in den Boden wachsen, meist zylindrisch sind, weisen die Haft- und Haltewurzeln, die auf den Oberflächen wachsen, eine eher abgeflachte Form auf. Bei einigen Arten sind die Wurzeln chlorophylltragend, um auch während klimatisch bedingtem Blattabwurf weiterhin Nährstoffe verarbeiten zu können. Die Wurzeln der Orchideen verzweigen eher selten. Sie haben eine Lebensdauer, die von verschiedenen Umweltfaktoren abhängt und kürzer ist als die des Sprosses. Die Neubildung von Wurzeln erfolgt in der Regel mit dem Wachstum des neuen Sprosses zum Ende der Vegetationsperioden oder auch während der Wachstumsphase. Bei vielen terrestrischen Orchideenarten bilden sich an den Wurzeln Speicherorgane oder knollenähnliche Gebilde. Bei einigen Gattungen ist es möglich, dass sich an den Wurzeln Adventivknospen bilden, aus denen neue Sprosse entstehen. Neben der Mykorrhiza, die für die embryonale Entwicklung aus einem Samen notwendig ist, gibt es auch in den Wurzeln Mykorrhiza. Dabei wachsen die Pilzfäden in die äußeren oder unteren Zellschichten der Wurzeln oder Rhizomen. Die Orchideen nehmen auch in diesem Fall durch Verdauung von Pilzteilen oder -ausscheidungen Nährstoffe auf. Da der Pilz, der das Protokorm (Keimknöllchen) befällt, in der Regel nicht mit den neuen Wurzeln nach außen wächst, muss die Mykorrhiza jedes Jahr von neuem (mit der Bildung neuer Wurzeln) ausgebildet werden. Bei ausreichendem Angebot von Licht und Nährstoffen sind Orchideen in der Regel nicht auf diese Mykorrhiza angewiesen. Ausnahmen sind die myko-heterotroph lebenden Orchideen. Blätter. Der überwiegende Teil der Orchideen besitzt parallelnervige Blätter mit kaum sichtbaren Querverbindungen. Sie sitzen in der Regel zweireihig, abwechselnd an den entgegengesetzten Seiten des Sprosses. Viele Orchideen bilden nur ein einziges richtiges Blatt aus, die Anlagen der Blätter sind jedoch ebenfalls zweireihig. Die Form der Blätter und Blattspitzen, die Festigkeit, die Färbung und der Blattaufbau variieren sehr stark. Viele Arten verlieren klimatisch bedingt ihre Blätter, um sie zu Beginn des nächsten Vegetationszyklus neu auszubilden. Während bei dem überwiegenden Teil dieser Arten die Blätter tatsächlich nur einjährig sind, gibt es ebenso Arten, die ihre Blätter nur unter widrigen Standortbedingungen abwerfen bzw. unter günstigen Bedingungen behalten. Es gibt aber auch Arten, die völlig blattlos wachsen ("Dendrophylax lindenii"). Dafür besitzen sie chlorophylltragende Wurzeln. Blütenstand. Die Blütenstände der Orchideen sind in der Regel traubenförmig, an denen sich je nach Art bis zu hundert und mehr Blüten ausbilden können. Wachsen verzweigte Blütenstände (rispenförmig), so ist die Traubenform jeweils an den äußersten Zweigen zu finden. Neben den trauben- oder rispenförmigen Blütentrieben gibt es aber auch eine Vielzahl von Orchideen, die nur einblütig sind. Bei einigen Arten bilden sich nacheinander mehrere Blüten an demselben Blütentrieb, wobei jedoch nie mehr als eine Blüte geöffnet ist (z.B. "Psychopsis papilio"). Die Blütenstände können an jeder Stelle des Sprosses der Orchidee entspringen. Dabei wird zwischen endständigen (terminal (an der Triebspitze), apikal (zentral am Triebansatz)) und seitenständigen (lateral) Blütenständen unterschieden. Meist entspringen die Blütentriebe einer Blattachsel. Aufgrund der Wuchsrichtung sind die Blütenstände der monopodialen Orchideen immer seitenständig. Die einzelnen Blüten werden stets von einer Braktee (Tragblatt) gestützt, welche meist unauffällig ist. Blüte. Keine andere Pflanzenfamilie hat ein solches Spektrum, was Formen und Farben der Blüten anbelangt, wie die Familie der Orchideen. Die Größe der Blüten variiert von einigen Millimetern (Beispiel "Lepanthes calodictyon") bis zu 20 Zentimetern und mehr pro Blüte (Beispiel "Paphiopedilum hangianum"). Das Farbspektrum reicht dabei von zartem Weiß über Grün- und Blautöne bis zu kräftigen Rot- und Gelbtönen. Viele der Orchideenblüten sind mehrfarbig. Außer bei einigen Gattungen (zum Beispiel "Catasetum") sind die dreizähligen Blüten der Orchideen zwittrig. Die Blütenhülle (Perianth) besteht aus zwei Kreisen. Es gibt einen äußeren Hüllblattkreis, der aus drei Kelchblättern (Sepalen) besteht und einen inneren Hüllblattkreis, der aus drei Kronblättern (Petalen) besteht. Die Blütenblätter können frei oder zu einem gewissen Grad miteinander verwachsen sein. Bei einigen Orchideengattungen, so etwa in der Unterfamilie Cypripedioideae oder bei "Acriopsis", sind die unteren beiden Sepalen komplett verwachsen. Das in der Symmetrieachse gelegene Blütenhüllblatt des inneren Hüllkreises ist in der Regel deutlich abweichend was Größe, Farbe und Form betrifft. Es bildet die Lippe (Labellum) der Orchideenblüte. Bei vielen Orchideen ist die Lippe auf der Rückseite zu einem schlauchigen bis sackigen Gebilde verlängert, dem so genannten Sporn (Beispiele "Aeranthes", "Aerangis"). In ihm befindet sich entweder Nektar oder er ist leer. Andere Arten bilden aus der Lippe einen „Schuh“ (zum Beispiel die Gattungen der Unterfamilien Cypripedioideae). Außerdem sind Säule (Gynostemium) und der Fruchtknoten wesentliche Bestandteile der Blüten. Im Grundaufbau unterscheidet man monandrische (ein fertiles Staubblatt, Beispiele "Cattleya", "Phalaenopsis") und diandrische (zwei fertile Staubblätter, Beispiel "Paphiopedilum", "Cypripedium") Orchideen. Der Fruchtknoten ist bei Orchideen unterständig. Die anderen Blütenteile (Sepalen und Petalen, Säule, Lippe) sind mit diesem vollständig verwachsen und stehen über ihm. In der Regel ist der Fruchtknoten nur sehr schmal und schwillt erst nach der Bestäubung an (Ausbildung der Samenkapsel). Die Blüten der Orchideen sind mit Ausnahme einiger Gattungen (Beispiel "Cycnoches", "Mormodes") bilateral-symmetrisch (zygomorph). Das heißt, dass man durch die Mitte der Blüte eine Spiegelachse legen kann, und zwar nur eine einzige (monosymmetrisch). Eine zentrale Rolle in der Fortpflanzung von Orchideen spielen die besonderen Pollenanhäufungen. Die von den Staubblättern gebildeten Pollen sind zu zwei lockeren oder festen Bündeln verklebt (Pollinien). Diese beiden Klumpen hängen auf einem mehr oder weniger langen Schaft mit einer Klebscheibe (Viscidium), sie haftet an dem Bestäuber durch eine Flüssigkeit aus der Klebdrüse (Rostellum). Früchte. Fast alle Orchideenfrüchte sind Kapseln. Sie unterscheiden sich in Größe, Form und Farbe deutlich. Epiphyten besitzen eher dickere Früchte mit fleischigen Wänden, terrestrische Arten oft dünnwandige trockene Früchte. Es gibt dreieckige, rundliche mit einer mehr (bis 9) oder weniger (bis 3) großen Anzahl von Rippen oder auch geschnäbelte Früchte. Manche sind behaart oder stachelig oder besitzen eine warzige Oberfläche. Die Früchte entwickeln sich aus dem bereits im Knospenstadium am Boden der Blüte vorgebildeten Fruchtknoten, welcher aus drei Fruchtblättern besteht. Bei eintretender Reife platzen die meisten Orchideenfrüchte der Länge nach auf, ohne sich an der Spitze vollständig zu trennen. Dabei bilden sich in der Regel drei oder sechs Längsspalten, bei manchen auch nur eine oder zwei. Fast immer werden die Samen dabei trocken verstreut. Vermehrung. Orchideen können auf unterschiedliche Weise vermehrt werden. Es gibt die Vermehrung durch Samen als auch die vegetative Vermehrung. Unter künstlichen Bedingungen ist auch die Vermehrung durch Meristeme möglich. Samen. Fast alle Orchideen haben winzige Samen. Jede Pflanze produziert Hunderttausende bis Millionen von Samen in einer Samenkapsel. Durch ihre geringe Größe sind die Samen von Orchideen nur noch auf eine Hülle und den in ihr liegenden Embryo reduziert. Im Gegensatz zu anderen Samen fehlt ihnen das Nährgewebe oder Endosperm, das für eine erfolgreiche Keimung nötig ist. Nur bei wenigen Gattungen ist dieses noch vorhanden (z. B. Bletilla). Orchideen sind deshalb auf eine Symbiose mit Pilzen angewiesen. Bei diesem als Mykorrhiza bezeichneten Vorgang wird der mit der Keimung beginnende Embryo durch das Eindringen von Pilzfäden in den Samen infiziert. Der Embryo bezieht über diese Verbindung Nährstoffe, indem er Teile des Pilzkörpers oder Ausscheidungen des Pilzes verdaut. Sobald der Sämling zur Photosynthese fähig ist, übernimmt diese die Versorgung der Pflanze mit Nährstoffen und die Mykorrhiza ist zur weiteren Entwicklung nicht mehr notwendig. Es gibt aber einige Orchideenarten, die aufgrund des fehlenden oder nur in unzureichenden Mengen vorhandenen Chlorophylls zeitlebens auf die Mykorrhiza angewiesen sind (Bsp. Korallenwurz). Dies betrifft alle vollkommen myko-heterotroph lebenden Arten. Während der überwiegende Teil der Orchideen trockene Samen verstreuen, gibt es einige Gattungen (Bsp. "Vanilla") bei denen die Samen von einer feuchten Masse umgeben sind. Bestäubung. Die Bestäubung der Orchideen erfolgt in der Natur hauptsächlich durch Insekten (z. B. Ameisen, Käfer, Fliegen, Bienen, Schmetterlinge), aber auch durch Vögel (z. B. Kolibris), Fledermäuse oder Frösche. Dabei haben sich teilweise Art-Art-Bindungen (z. B. "Drakea glyptodon" und "Zapilothynus trilobatus" oder die einheimische "Orchis papilionacea" und "Eucera tuberculata") oder Gattungs-Gattungs-Bindungen (z. B. wird die Orchideengattung "Chloraea" von Bienen der Gattung "Colletes" bestäubt) herausgebildet. Diese Spezialisierung ist in der Regel nur einseitig, da keine Insektenart auf die Bestäubung einer einzigen Orchideenart beschränkt ist. Innerhalb der Familie gibt es aber auch einige Gattungen, bei denen sich einige oder alle Arten auf asexuellem Weg durch Selbstbestäubung fortpflanzen. Dazu zählen unter anderem die Gattungen "Apostasia", "Wullschlaegelia", "Epipogium" und "Aphyllorchis". Von der Art "Microtis parviflora" ist bekannt, dass sie sich ebenfalls selbstbestäuben kann, wenn die Bestäubung durch Ameisen ausbleibt. Die Bestäuber sind bei einer Vielzahl von Orchideengattungen jedoch unbekannt oder nur wenig erforscht. Orchideen sind in der Regel nicht selbststeril. In der Natur entstehen teilweise durch die Bestäuber Hybriden zwischen zwei verwandten Arten (seltener über Gattungsgrenzen hinweg), diese werden "Naturhybriden" genannt. Bestäubungsmechanismen. Im Vergleich zu anderen Blütenpflanzen fällt auf, dass beispielsweise nicht-tropische Orchideen häufig keine Belohnung in Form von Nahrung anbieten, sondern ihr Ziel durch Mimikry oder Täuschung erreichen. Werden Belohnungen angeboten, bestehen diese oft nicht aus Nahrung, sondern aus Duftstoffen (zum Beispiel Sexuallockstoffe für Insekten wie es bei manchen Wespenarten der Fall ist) oder Wachs. Durch die evolutionäre Entwicklung verschiedener Blütenformen ergab sich eine zunehmende Spezialisierung auf bestimmte Bestäubergruppen und somit auch auf die Art und Weise, wie die Blüten bestäubt werden. Im Folgenden werden einige Bestäubungssysteme und -mechanismen erläutert. Die Pollen sind bei Orchideen zu Pollinien mit angehefteten Viscidien (Viscidium = Klebscheibe, Klebkörper) zusammengeballt (eine Ausnahme bilden dabei beispielsweise die Cypripedioideae). Dies ermöglicht es, die Pollenpakete exakt zu positionieren, so dass es möglich ist, dass an einem Bestäuber die Pollinien verschiedener Arten befestigt werden können, ohne dass es zu falschen Bestäubungen kommt. An verschiedenen Bienenarten (Euglossinae) konnten bis zu 13 Anheftungsstellen festgestellt werden. Im Gegensatz zu anderen Blütenpflanzen dient der Orchideenpollen nicht als Nahrung. Eine ungewöhnliche Bestäubungstechnik wendet die epiphytisch lebende chinesische Orchideenart "Holcoglossum amesianum" an: die Antherenkappe öffnet sich und die männlichen Staubfaden drehen sich aktiv und ohne jedes Hilfsmittel um fast 360 Grad in Richtung der weiblichen Narbe. Die an dem biegsamen Staubfaden befestigten Pollenkörner werden anschließend bei Berührung der Narbe freigegeben, so dass eine Selbstbefruchtung erfolgen kann. Es wird vermutet, dass es sich bei dieser Technik um eine Anpassung der Orchidee an ihren trockenen und insektenarmen Lebensraum handelt, die womöglich bei Pflanzen vergleichbarer Biotope gar nicht so selten ist (). Die bereits bekannte Selbstbestäubung der Bienen-Ragwurz ("Ophrys apifera") folgt einem ähnlichen Schema. Orchideen und Prachtbienen: Die bestuntersuchten Blumendüfte sind die von "Stanhopea" und "Catasetum", die durchdringend nach Ananas, Vanille, Zimt, Kümmel oder Menthol riechen und Prachtbienenmännchen anziehen, wobei diese die Blüten weder bestäuben noch angreifen, sondern lediglich das von der Pflanze produzierte Öl einsammeln und für ihre Balz benutzen wollen. Es gibt sowohl unzählige Prachtbienen- als auch jeweils dazugehörige Orchideen-Arten. Vegetative Vermehrung. Verschiedene Arten haben die Möglichkeit, sich durch die Bildung von Stolonen (Bsp. "Mexipedium xerophyticum"), Knollen (Bsp. "Pleionen") oder Kindeln (Adventiv-Pflanzen; Bsp. "Phalaenopsis lueddemanniana") auf vegetativem Weg fortzupflanzen. Die entstehenden Pflanzen sind genetisch identisch. Meristeme. Die Vermehrung über Meristeme erfolgt vor allem im Erwerbsgartenbau zur Erzeugung großer Mengen von Orchideen für den Schnitt als auch zum Verkauf als Topfpflanze, welche man häufig in Pflanzencentern oder Baumärkten erwerben kann. Große Produzenten findet man vor allem in den Niederlanden oder in Thailand. Außerdem ist es die einzige Möglichkeit, von bestimmten Klonen, beispielsweise prämierten Pflanzen, identische Nachkommen in großen Mengen zu erzeugen, die auch den gleichen Kultivarnamen tragen dürfen. Im Erwerbsgartenbau geht man bei der Massenvermehrung aber immer mehr dazu über, mittels in-vitro Aussaat von Orchideensamen und Clusterbildung durch Hormongaben den Bedarf zu decken. Verbreitung. Orchideen wachsen mit Ausnahme der Antarktis auf jedem Kontinent. Aufgrund ihrer enormen Vielfalt gibt es Orchideen fast in jeder Ökozone (nicht in Wüsten). Selbst oberhalb des nördlichen Polarkreises oder in Patagonien und den dem ewigen Eis des Südpols vorgelagerten Inseln, z. B. Macquarie Island gibt es Orchideen. Der Großteil der Arten wächst allerdings in den Tropen und Subtropen, hauptsächlich in Südamerika und Asien. In Europa gibt es etwa 250 Arten. Systematik. In den Anfängen der botanischen Systematik finden sich bei Linné 1753 acht Gattungen, die zu den Orchideen gehören. Jussieu fasste sie 1789 erstmals als Familie "Orchidaceae" zusammen. In der Folge wurden rasch sehr viele tropische Arten bekannt; so unterschied Swartz im Jahr 1800 schon 25 Gattungen, von denen er selbst zehn neu aufstellte. Swartz publizierte im selben Jahr eine Monographie der Familie und gilt als einer der ersten Spezialisten für die Systematik der Orchideen. Im 19. Jahrhundert erschienen, bedingt durch die Kenntnis immer neuer tropischer Orchideen, weitere wichtige Arbeiten. Lindley veröffentlichte von 1830 bis 1840 „The Genera and Species of Orchidaceaous Plants“ mit fast 2000 Arten und einer wegweisenden Einteilung in Unterfamilien und Triben. In England erschien 1881 Benthams Systematik, die auch in seinem zusammen mit Hooker herausgegebenem Werk „Genera Plantarum“ verwendet wurde. Am Heidelberger botanischen Garten entstand 1887 Pfitzers „Entwurf einer natürlichen Anordnung der Orchideen“. 1926 erschien posthum Schlechters Arbeit „Das System der Orchidaceen“ mit 610 Gattungen; es wurde für die nächsten Jahrzehnte das Standardwerk. Im 20. Jahrhundert waren die Publikationen Dresslers einflussreich, vor allem „The Orchids. Natural History and Classification“ von 1981. Die weitere Entwicklung verläuft über die kladistische Analyse äußerer Merkmale zur Auswertung genetischer Untersuchungen, die zahlreich etwa von Mark W. Chase publiziert wurden. Danach gibt es keine genetischen Anhaltspunkte für die Existenz der Unterfamilien Vandoideae oder Spiranthoideae. Die Unterfamilie Vandoideae ist nach diesen Untersuchungen ein Bestandteil innerhalb der Epidendroideae, die Spiranthoideae ein Bestandteil der Orchidoideae. Die separate Unterfamilie Vanilloideae war „klassisch“ Bestandteil der Epidendroideae. Innerhalb der einkeimblättrigen Pflanzen werden die Orchideen in die Ordnung der Spargelartigen (Asparagales) gestellt. Auf Basis äußerer Merkmale ließ sich die Frage nach den nächsten Verwandten der Orchideen nur unsicher beantworten, Alstroemeriaceae, Philesiaceae oder Convallariaceae wurden vermutet, auch eine Einordnung in die Ordnung der Lilienartigen (Liliales) schien möglich. Genetische Untersuchungen bestätigten die Zuordnung zu den Spargelartigen und sehen die Orchideen als Schwestergruppe zu allen anderen Spargelartigen, das heißt, sie haben sich schon früh von den anderen Pflanzen dieser Ordnung entfernt. Evolution. Die Orchideen wurden häufig als besonders junge Familie angesehen. Anhand eines fossilen Polliniums von "Meliorchis caribea" wurde das Mindestalter des letzten gemeinsamen Vorfahren aller Orchideen auf 76 bis 84 Millionen Jahre bestimmt. Bis zum Ende der Kreidezeit vor 65 Millionen Jahren spalteten sich schon die fünf Unterfamilien auf. Im Tertiär fand eine große Zunahme der Artenvielfalt der Orchideen statt. Nach der Methode der „molekularen Uhr“ datiert der Ursprung der Orchideen noch früher, vor mindestens 100, wenn nicht sogar 122 Millionen Jahren. Es wird angenommen, dass sie sich in einem tropischen Gebiet als erstes entwickelten. Die Verbreitung verschiedener primitiver Orchideen (Bsp. "Vanilla", "Corymborkis") und das Vorkommen der primitiven Gattungen (Bsp. "Cypripedium", "Epistephium") in nahezu allen tropischen Gebieten ist ein Indiz dafür, dass die Entwicklung der Orchideen in einer Zeit begonnen haben muss, in der Afrika und Südamerika enger beieinanderlagen (Kontinentaldrift). Der Hauptteil der Evolution der Orchideen hat allerdings erst begonnen, als sich die wichtigsten tropischen Regionen schon weiter voneinander entfernt hatten. Die epiphytische Lebensweise vieler Orchideen, vor allem der tropisch und subtropischen Arten, ist das Resultat einer evolutionären Anpassung an verschiedene Bedingungen. Periodisch trockenes Klima oder gut entwässerte Standorte, die bereits zur Entstehung der Orchideen vorhandene Neigung zur Insektenbestäubung sowie der zumindest kurzzeitige Zyklus einer myko-heterotrophen Lebensweise und der damit einhergehenden Entwicklung von kleinen Samen scheinen wesentliche Faktoren gewesen zu sein, dass Orchideen Bäume besiedelten. Andererseits scheint auch die Ausbildung von fleischigen Wurzeln mit Velamen oder von fleischigen Blättern als Anpassung an die periodisch trockenen Standortbedingungen eine Voraussetzung oder eine Möglichkeit gewesen zu sein, von Felsen oder anderen gut entwässerten Standorten auf Bäume überzusiedeln. Ob dabei der Weg über Humusepiphyten und anschließende Besiedlung der ökologischen Nischen in den Baumkronen oder die direkte Besiedlung der Bäume erfolgte, konnte bis heute nicht geklärt werden. Bei der Wuchsform der Orchideen geht man davon aus, dass sich die Vielfalt der heutigen Orchideen aus einer sehr primitiven Form entwickelt hat, die man noch ansatzweise in fast allen Unterfamilien findet. So werden die ersten Orchideen einen sympodialen Wuchs mit schmalen Rhizomen, fleischigen Wurzeln (keine Speicherorgane), gefaltete Blätter und endständige Blütenstände besessen haben. Aufgrund der fehlenden Fossilien lässt sich nur schwer ableiten, auf welchem Weg sich die verschiedenen Wuchsformen herausgebildet haben und welches die Hauptrichtungen der Wuchsevolution sind. Ähnlich verhält es sich bei der evolutionären Entwicklung der verschiedenen Blütenformen. Es wird davon ausgegangen, dass die Entwicklung und Anpassung der Blüten vor allem mit den bestäubenden Insekten in Verbindung zu bringen ist. Am Anfang stand sicherlich eine lilienähnliche Blüte, die nach und nach ihre ventralen Staubbeutel verloren hat. Dies hängt wahrscheinlich mit der Art zusammen, wie die Bestäuber in die röhrenförmige Blüte eingedrungen sind. Dabei konnten wohl nur die dorsalen Staubbeutel ihre Pollen an eine für die Bestäubung sinnvolle Position heften. Die Ausbildung der Lippe resultierte ziemlich wahrscheinlich daraus, dass die Insekten immer wieder auf die gleiche Art und Weise auf den Blüten „gelandet“ sind. Vermutlich konnten Pflanzen mit lippenförmigem unterem Petalum (medianes Blütenhüllblatt des inneren Blütenhüllblattkreises) die jeweiligen Bestäuber besser unterstützen, was ein entscheidender Vorteil in ihrer Evolution gewesen sein dürfte. Gattungen und Arten. Siehe auch: Liste der Orchideengattungen Gefährdung der Habitate und Artenschutz. Nur für die wenigsten Gattungen liegen gesicherte Informationen über die Stärke der Populationen vor. Trotzdem muss davon ausgegangen werden, dass die Bestände vieler Arten in der Natur stark gefährdet sind. Dies gilt für die Habitate in allen Regionen der Welt. Vor allem die Abholzung der Regenwälder oder die landwirtschaftliche Nutzung von Gebieten mit Orchideenhabitaten reduzieren die Bestände stetig. Zusätzlich werden sie durch das unkontrollierte Sammeln gefährdet. Der Rückgang vieler europäischer Arten ist auch auf eine veränderte ländliche Bewirtschaftung zurückzuführen. Durch den enormen Rückgang der Beweidung (Schafe usw.), vor allem in Mitteleuropa, gehen die durch menschlichen Eingriff entstandenen Habitate (Trockenrasen) in ihren ursprünglichen, wäldlichen Zustand zurück. Orchideenarten, die auf Trockenrasen wachsen, treten in diesen Wäldern kaum noch auf. Es gibt Anlass zur Hoffnung, dass mit steigendem Naturschutz-Bewusstsein auch seltenen Orchideen neue Chancen eingeräumt werden. Im Bereich des Lechs wird aktuell versucht Restheiden mit neuen Heiden aus zweiter Hand zu verbinden. So bieten die Lechtalheiden mit ihren speziellen Böden ein wachsendes Rückzugsgebiet für unsere heimischen Orchideenarten. Kulturgeschichte. Siehe auch: Liste bedeutender Orchideenforscher Orchideen faszinieren und beschäftigen die Menschen schon mehr als 2500 Jahre. Sie wurden als Heilmittel, Dekoration und Aphrodisiakum verwendet oder sie spielten im Aberglauben eine große Rolle. Die ältesten Überlieferungen über Orchideen stammen aus dem Kaiserreich China und beziehen sich auf die Kultur von Orchideen aus der Zeit um 500 v. Chr. (Tsui Tsze Kang: "Orchideenkultur im Kum Cheong" (erschienen in der Song-Dynastie 1128–1283)). Der chinesische Philosoph Konfuzius (551–478 v. Chr.) berichtete über ihren Duft und verwendete sie als Schriftzeichen»lán«(), was so viel wie Anmut, Liebe, Reinheit, Eleganz und Schönheit bedeutet. Allgemein gilt die Orchidee in der chinesischen Gartenkunst als Symbol für Liebe und Schönheit oder auch für ein junges Mädchen. Orchideen in der Vase stehen dort für Eintracht. Die ältesten europäischen Überlieferungen stammen aus der griechischen Spätklassik von Theophrastus von Lesbos (etwa 372–289 v. Chr.). In seinem Werk "Historia plantarum", Band 9 beschreibt er eine Pflanze mit zwei unterirdischen Knollen und bezeichnet sie als "orchis", was dem griechischen Wort "ὄρχις" „Hoden“ entspricht. Vermutlich handelte es sich dabei um die Art "Orchis morio". Die ältesten erhalten gebliebenen Schriften über Orchideen stammen von Pedanios Dioscurides (1. Jahrhundert n. Chr.) und von Apulieus (um 150 n. Chr.). Die ersten monographischen Abhandlungen über Orchideen entstanden in China bereits während der Song-Dynastie (Tsui Tsze Kang: "Orchideenkultur im Kum Cheong", Wong Kwei Kok "Die Orchideenkultur des Herrn Wong"). Anhand der Schilderungen in diesen Werken kann man ablesen, dass sich die Orchideenkultur in China damals bereits auf einer hohen Stufe befand. Auch in Amerika (Mexiko) werden Orchideen schon lange kultiviert. Noch bevor die Spanier das Land eroberten, wurden vor allem die Früchte von „Tlilxochitl“ ("Vanilla planifolia") als Gewürz geschätzt. Die Azteken verehrten»Coatzontecomaxochitl«("Stanhopea"-Arten) als heilige Blumen und kultivierten diese in den Gärten ihrer Heiligtümer. Mitte des 16. Jhd. setzte man sich auch in Europa stärker mit den Orchideen auseinander. So erschienen nacheinander verschiedene Werke (Leonhart Fuchs "Histora Stirpium" (1542), Hieronymus Bock "(New) Kreuter Buch" 2. Ausgabe (1546), Jacques Daléchamps "Historia generalis plantarum" (1586)), die die bisher bekannten Pflanzen ordneten, indem sie verwandte Arten zusammenstellten, Wuchsformen, Blüten und Wurzelknollen beschrieben. Mit dem Erscheinen von "Species plantarum" von Carl von Linné (1753) erhielten auch verschiedene Orchideenarten erstmals Namen nach der binären Nomenklatur. Jussieu begründete 1789 mit der Herausgabe des Werkes "Genera Plantarum" die Grundlagen der botanischen Klassifikation und somit auch die Schaffung der "Orchidaceae" als Pflanzenfamilie. Der schwedische Botaniker O. Swartz gliederte 1800 als erster die Orchideenfamilie in zwei verschiedene Gruppen (ein oder zwei fruchtbare Staubblätter). Mit seinem Werk "The Genera and Species of Orchidaceous Plants" (London, 1830 bis 1840) und unzähligen Einzelbearbeitungen wurde J. Lindley zum eigentlichen Begründer der Orchideenkunde. Sein Hauptwerk lag in der Gliederung und Beschreibung von Arten. Seine Arbeiten wurden später durch H. G. Reichenbach (Rchb. f.), J. D. Hooker, R. Schlechter und andere ergänzt, erweitert und zum Teil wesentlich überarbeitet. Bevor man in Europa begann, aus Übersee tropische Orchideen einzuführen, kultivierte man schon lange Zeit heimische Orchideen in den Gärten. Die erste tropische Orchidee in Europa erblühte 1615 in Holland ("Brassavola nodosa"). 1688 wurde "Disa uniflora" aus Südafrika nach Europa eingeführt. Vor allem durch seine weltweite Vormachtstellung als Kolonialmacht und die daraus resultierenden Verbindungen gelangten viele Arten nach England, wo im 19. Jahrhundert zahlreiche Sammlungen entstanden. Vor allem C. Loddiges war ausgesprochen erfolgreicher Kultivateur. Als 1818 bei W. Cattley die erste "Cattleya labiata" (später als "Cattleya labiata var. autumnalis" bezeichnet) erblühte, war die große lavendelblaue Blüte eine Sensation in Europa und führte zu einem immer stärkeren Bedarf an weiteren tropischen Orchideen. Es wurden immer mehr Sammler und Forschungsreisende (darunter John Gibson, William und Thomas Lobb, D. Burke, J. H. Veitch) in alle Welt geschickt, um neue unbekannte Arten zu finden und diese Pflanzen in die Sammlungen der zahlenden Gärtnereien (zum Beispiel C. Loddiges, J. Linden, F. Sander, L. van Houtte, Veitch and Sons) und Privatpersonen (zum Beispiel W. Cattley, A.L. Keferstein, Senator Jenisch) einzugliedern. Die Anzahl der Importe verringerte sich erst wieder, als die Orchideenzüchtung immer mehr an Bedeutung gewann (Anfang 20. Jahrhundert). Mit dem Beginn der stärkeren wissenschaftlichen Untersuchung der Familie Orchidaceae – unter anderem zur Klärung offener Verwandtschaftsverhältnisse – und dem wachsenden Interesse von Amateuren stieg der Bedarf und das Interesse an den Naturformen wieder. Auch heute noch sind Gärtnereien in aller Welt daran interessiert, Wildformen in ihre Bestände einzugliedern, um durch Einkreuzungen vorhandenes Pflanzenmaterial aufzufrischen. Auch heute werden bisher unbekannte Arten neu entdeckt. In den letzten Jahrzehnten wurde die Orchideenkultur immer populärer, das Angebot und die Verfügbarkeit von Kulturhybriden wurde größer und so versuchten sich immer mehr Amateure daran, in den heimischen Zimmern, Vitrinen und Gewächshäusern Orchideen zu kultivieren. Heute ist die Kultur dieser Pflanzen nichts Ungewöhnliches mehr. Vor allem der Massenproduktion von Orchideen in Taiwan, Thailand und den Niederlanden ist es zu verdanken, dass die Preise der Pflanzen so gesunken sind, dass eine blühende Orchidee im Topf (zum Beispiel in Deutschland) zum Teil preiswerter ist als ein durchschnittlicher Blumenstrauß. Diese Popularität hat aber auch dazu geführt, dass die Jagd nach dem Besonderen, dem Einzigartigen, dem Besitz besonders hochwertiger Pflanzen wieder aktueller denn je ist. Die Folge ist zum einen, dass für besonders rare Exemplare oder prämierte Pflanzen exorbitante Preise in Japan oder den USA gezahlt werden, und zum anderen, dass aus Geldgier besonders bei neuentdeckten Arten häufig die natürlichen Bestände geplündert werden, nur um die Nachfrage sogenannter „Sammler“ zu befriedigen. So führte die Entdeckung von "Phragmipedium kovachii" neben einem Streit um die Erstbeschreibung auch dazu, dass die bekanntgewordenen Habitate in Peru stark dezimiert wurden. Orchideen standen zudem im Mittelpunkt des künstlerischen Schaffens der amerikanischen Malerin Georgia O’Keeffe, die Blumenmotive mit der Sexualität weiblicher Körper assoziierte. Zu nennen wären etwa die Bilder „"An Orchid“" oder „"Narcissa's Last Orchid“, "jeweils aus dem Jahr 1941. Orchideen als Nutzpflanzen. Trotz ihrer großen Vielfalt werden nur wenige Orchideenarten als kultivierte Nutzpflanze verwendet. Dazu zählt die Gewürzvanille ("Vanilla planifolia") zur Gewürzproduktion. Einige Arten werden auch zur Aromatisierung/Bereitung von Tee (Bsp. "Jumellea fragrans") oder auch als Parfümierungsmittel für Parfüm und Tabak (Bsp. "Vanilla pompona") genutzt. Wo nationale Naturschutzgesetze dies nicht unterbinden, werden verschiedene Arten der Gattungen Orchis und Ophrys (Bsp. "Orchis morio") durch Naturentnahmen zur Gewinnung von Gallerte aus „Salep“ genutzt. Die ausgegrabenen Wurzelknollen werden in der Türkei zur Aromatisierung von Speiseeis verwendet. Orchideen als Zierpflanze. Große wirtschaftliche Bedeutung erlangen die Orchideen als Zierpflanzen oder Schnittblumen. Viele können in weitem Umfang, auch über Gattungsgrenzen hinweg, zur Kreuzung verwendet werden. So entstanden im Lauf der letzten etwa 150 Jahre ungefähr 100.000 Hybriden. Von diesen werden wiederum einige Tausende als Zierpflanzen kommerziell vermehrt und verkauft. Den größten Anteil daran haben im Zierpflanzenbereich die Züchtungen von Hybriden der Gattungen "Phalaenopsis", "Cattleya", "Dendrobium", "Paphiopedilum" und "Cymbidium". Außer als getopfte Pflanzen werden die Blütentriebe der Gattungen "Phalaenopsis", "Dendrobium" und "Cymbidium" häufig auch als Schnittblumen vermarktet. Im südostasiatischen Raum erwirtschaftet Thailand mit dem Export von Orchideen jährlich ca. 2 Milliarden Baht (etwa 40 Mio. Euro), wobei die Hauptmärkte in den USA, Japan, Europa, Hongkong, Taiwan und Südkorea liegen. Dies sorgte 2002 für den Export von über 3,1 Mio. Orchideenpflanzen. Da laut thailändischer Landwirtschaftsbehörde ein Trend mit großem Umsatzpotenzial erkannt wurde, wird versucht, die Qualität und Attraktivität der thailändischen Orchideen mit Zertifikaten weiter zu steigern. In Europa werden große Mengen von Orchideenhybriden vor allem in den Niederlanden für den Massenmarkt (Baumärkte, Pflanzen- und Blumencenter) produziert. So gab es 2003 dort etwa 216 ha überglaste Anbaufläche alleine für die Produktion von Orchideen für den Schnittblumenverkauf. In den USA betrug der Umsatz durch getopfte Orchideen etwa 121 Millionen US-$ (2003). Der Massenmarkt wird vorwiegend durch in-vitro erzeugte Pflanzen bedient. Die Bedeutung dieses Geschäftszweiges lässt sich anhand der Entwicklung der Produktionsmengen belegen. Innerhalb von 10 Jahren (1991–2000) hat sich die Menge der in Deutschland in-vitro produzierten Orchideen fast verfünffacht (1991: ca. 2,5 Millionen Pflanzen, 2000: über 12 Millionen Pflanzen). Den größten Anteil hatten daran Pflanzen (größtenteils Hybriden) der Gattungen "Phalaenopsis" (2000: über 9 Millionen Pflanzen). Sonstiges. Schon Charles Darwin war fasziniert von einer madagassischen Orchideen-Blüte "Angraecum sesquipedale" mit einem bis zu 35 cm langen Sporn. Auch diese Blüte muss irgendwie bestäubt werden, und irgendein Tier muss in diesen Sporn hineinkommen. Tatsächlich fand man 1903 das zu der Pflanze passende Insekt, den Schwärmer "Xanthopan morgani praedicta". Die "Trichocentrum cebolleta" ist eine Orchideenart mit gelb-braun getupften Blüten, die im tropisch-subtropischen Amerika und in der Karibik wächst. In Europa wird sie schon seit langem als Zierpflanze kultiviert. Die Blätter enthalten als wirksame Inhaltsstoffe verschiedene Phenanthrene. Diese wirken halluzinogen und werden von den Tarahumara (einem mexikanischen Indianerstamm) als Ersatz für den Peyotekaktus "Lophophora williamsii" gebraucht (Hauptwirkstoff Meskalin). Orchidee als Metapher in der Sprache Die besondere Stellung der Orchidee unter den Blumen macht das Wort Orchidee zu einer beliebten Metapher in der Sprache. Die Orchidee gilt als ausnehmend schön und als selten zu finden. Daher steht einerseits „Orchidee“ oft für etwas besonders "Schönes". In Verbindung mit der sexuellen Konnotation wird daher oft eine äußerst hübsche Frau als Orchidee bezeichnet, so im Film Wilde Orchidee. Andererseits steht „Orchidee“ für etwas besonders "Seltenes". Diese zweite Metapher kann auch spöttisch sein; so wird eine selten studierte Studienrichtung mit außergewöhnlichen Inhalten als Orchideenfach bezeichnet. Oberon (Programmiersprache). Oberon ist eine von Niklaus Wirth und Jürg Gutknecht entwickelte, objektorientierte, streng strukturierte Programmiersprache. Sie ist den ebenfalls von Wirth entworfenen Vorgängern Pascal und Modula-2 recht ähnlich, allerdings strukturierter als Pascal und mächtiger, gleichzeitig aber erheblich weniger umfangreich als Modula-2. Das ETH Oberon System ist ein eigenständiges Betriebssystem der ETH Zürich, das in der Sprache Oberon implementiert ist, als Entwicklungsgrundlage für die Sprache diente und ebenso wie der Compiler kostenlos erhältlich ist. Oberon wurde – wie sein Vorgänger Modula-2 – parallel zu einer Workstation (Ceres) entwickelt. Oberon fand nach seiner Veröffentlichung recht schnell unter anderem zu Bildungszwecken in Schulen und Universitäten Verwendung. Es existieren inzwischen allerdings auch auf Oberon basierende, ebenfalls kostenlos verfügbare Werkzeuge, die auch kommerziell eingesetzt werden, wie zum Beispiel die Programmiersprache Component Pascal und die Entwicklungsumgebung BlackBox Component Builder. Die Vorteile von Oberon liegen besonders im modularen Aufbau, der großen Sicherheit und in der Einfachheit der Sprache, die eindeutig und vergleichsweise kurz definiert werden kann "(siehe auch EBNF)". Mit Oberon ist es besonders leicht und sicher, das Programmieren auf verschiedene Personen aufzuteilen und die Arbeit später zusammenzufügen. Hanspeter Mössenböck hat Oberon mit wenigen Änderungen zur Programmiersprache Oberon-2 weiterentwickelt, wobei zusätzlich im Wesentlichen explizit typgebundene Prozeduren erlaubt wurden, so dass die entsprechenden Objekte nicht mehr implizit in der formalen Parameterliste der Methoden aufgeführt werden müssen. Ferner wurde die Exportmarke "-" (als Alternative zu "*") zur Unterdrückung von Schreibrechten auf Objekte oder deren Komponenten eingeführt. Die Quelltexte der Compiler sind in der Regel frei verfügbar. Es gibt verschiedene Programm-Entwicklungsumgebungen, genannt werden kann zum Beispiel auch POW!. Neben dem Einsatz als Programmiersprache ist auch die Nutzung als Betriebssystem (Native Oberon) möglich. Code-Beispiele. Anders als bei anderen vollwertigen, objektorientierten Programmiersprachen wird der Quelltext nicht interpretiert (zum Beispiel Ruby) oder in Bytecode übersetzt (zum Beispiel Java), sondern in der Regel in einem einzigen Compilerdurchlauf sehr schnell in Maschinensprache übersetzt. Der compilierte Code ist typsicher, und Speicherbereichsprüfungen sind obligatorisch. Die Verwendung von Laufzeitdebuggern und von Programmanweisungen zur Deallokation von Zeigervariablen ist obsolet. Es ist allerdings möglich, Haltepunkte zu setzen (Anweisung HALT) und auch alle lokalen Variablen nach dem Abbruch des Programms zu analysieren. Globale Variablen können im Laufzeitsystem jederzeit analysiert werden. Die Entwicklungszeiten mit Oberon sind daher sehr kurz, und der Maschinencode ist dennoch sehr effizient und robust. Auch Echtzeitanwendungen können mit Oberon implementiert werden. Die Programmiersprache Oberon zeichnet sich dadurch aus, dass sie die objektorientierte Architektur im Gegensatz zum Beispiel zu C++ unter anderem mit einem integrierten Laufzeitsystem Oberon System und einer Automatischen Speicherbereinigung "(garbage collection)" vollständig unterstützt. Auf Mehrfachvererbung wurde bewusst verzichtet, um den Compiler von komplexen Verwaltungsaufgaben zu entlasten und den Programmierer vor unerwarteten Ergebnissen im Zusammenhang mit dem Diamond-Problem zu bewahren. GraphischesObjektBeschreibung = RECORD farbe*: LONGINT; END; PunktBeschreibung = RECORD (GraphischesObjekt) x*, y*: LONGINT; END; LinienBeschreibung= RECORD (GraphischesObjekt) xStart*, yStart*, xEnde*, yEnde*: LONGINT; END; Objektbeschreibung = RECORD x-: INTEGER; END; PROCEDURE (objekt: Objekt) SetzeX* (wert: INTEGER); Weiterentwicklungen. Ausgehend von Oberon und Oberon-2 sind die Programmiersprachen Component Pascal, Active Oberon und Zonnon entstanden. Oberfranken. Oberfranken liegt im fränkischen Teil von Bayern und ist sowohl ein Bezirk als Selbstverwaltungskörperschaft als auch ein Regierungsbezirk. Oberfranken liegt im Norden des Freistaats und grenzt an die Bundesländer Sachsen und Thüringen sowie die bayerischen Regierungsbezirke Unterfranken, Mittelfranken und Oberpfalz. Eine Außengrenze existiert zum Verwaltungsbezirk Karlsbad (Karlovarský kraj) der Tschechischen Republik. Verwaltungssitz des Bezirks und zugleich Sitz des Regierungspräsidenten ist Bayreuth. Der Name Oberfranken bezieht sich, analog zu Ober- und Niederbayern, auf die relative Position an einem Fluss, in diesem Fall dem Main. Entsprechend liegt Oberfranken an dessen Oberlauf und Unterfranken am Unterlauf. Diese Benennung geht zurück auf die Erschaffung des Mainkreises im Zuge der von Graf Montgelas 1808 verfassten Konstitution des Königreichs Bayern. Die Einteilung der Territorien wurde dem französischen Vorbild angeglichen und orientierte sich primär an Flussnamen. Wappen und Flagge. Blasonierung: Über rotem Schildfuß, darin drei silberne Spitzen, zweimal gespalten: vorne in Gold ein mit einer silbernen Schrägleiste überdeckter, linksgewendeter, rotbewehrter schwarzer Löwe; Mitte geviert von Silber und Schwarz; hinten fünfmal geteilt von Schwarz und Gold, belegt mit einem schräggestellten und geschwungenen grünen Rautenkranz. Das Wappen erinnert im oberen Teil an die drei maßgeblichen historischen Territorien in Oberfranken: Der schwarze Löwe auf goldenem Grund am linken Rand steht für das Hochstift Bamberg, das Geviert von Silber und Schwarz versinnbildlicht das hohenzollersche Markgraftum Brandenburg-Bayreuth während der rechte Teil in Gold, Schwarz und Grün das Herzogtum Sachsen-Coburg darstellt. Die Symbole der drei ehemaligen Gebiete stehen auf dem fränkischen Rechen im Schildfuß. Die Flagge Oberfrankens stellt eine auf dem kopfgestellte weiß-rote Frankenfahne mit mittig angeordnetem Bezirkswappen dar. Landkreise. Bis nach dem Zweiten Weltkrieg wurden die Regierungsbezirke Mittelfranken und Oberfranken gemeinsam verwaltet. Vor- und Frühgeschichte. Johann Friederich Esper beschrieb bereits zwischen 1774 und 1790 einige Höhlen der Fränkischen Alb und J. B. Fischer grub 1788 die Grabhügel von Mistelgau im Landkreis Bayreuth aus. Die älteste Anwesenheit von Menschen wird durch Werkzeuge aus Lydit aus dem Riß-Würm-Interglazial (120.000–80.000 v. Chr.) belegt, die der Neandertaler fertigte. Die nächsten Artefakte sind wenig jünger und stammen aus dem Präsolutrén von Kösten, einem Stadtteil von Lichtenfels. Das frühe und mittlere Spätpaläolithikum ist in Oberfranken bisher nicht, das Jungpaläolithikum undeutlich vertreten. Der Nachweis von neolithischen Siedlungen der Bandkeramiker, die ab 5500 v. Chr. auftraten, ist besonders im Bereich des Altneolithikums im Maintal möglich. Hier sind u. a. mehr als 50 vor- und frühgeschichtliche Erdwerke oder Ringwälle bekannt, deren Größe zwischen 3 und 50 Hektar schwankt. Die größten liegen in Hetzles, Rödlas und Wiesenthau-Schlaifhausen im Landkreis Forchheim und auf dem Staffelberg in Bad Staffelstein-Romansthal im Landkreis Lichtenfels. Grabfunde liegen aber überhaupt nicht vor. Die bedeutendsten Fundplätze sind zwei Höhlen, die Jungfernhöhle von Tiefenellern und der Hohle Stein bei Schwabthal. Siedlungen aus dieser Zeit, die untersucht wurden, sind Altenbanz und Zilgendorf. Auch die nachfolgenden Kulturen sind hier bis in die frühe Bronzezeit nicht sonderlich stark repräsentiert. Siedlungen fehlen sogar noch aus der mittleren Bronzezeit. Die Hortfunde von Forchheim und Hollfeld belegen jedoch die relativ dünne Besiedlung in der Frühzeit. Die Anwesenheit von typischen Artefakten zeigt eine Orientierung nach Hessen und Thüringen. In der Urnenfelderzeit (1300–750 v. Chr.) werden die Spuren deutlicher und die Zahl der Depots nimmt zu. Gräber wie das so genannte "Adelsgrab" von Eggolsheim, Landkreis Forchheim gewähren Einblicke in die Sepulkralkultur. Die nachfolgende Hallstattzeit ist durch Gräber und Grabhügel stark vertreten, so dass von einer dichteren Besiedlung auszugehen ist. In der La-Tène-Zeit (500–100 v. Chr.) war Oberfranken ein Kernbereich der tönernen Pferdeplastiken. Auch zahlreiche Funde römischer Herkunft wurden gemacht. Mittelalter und Neuzeit. In der Völkerwanderungszeit dehnten zuerst die Thüringer ihren Einflussbereich nach Oberfranken aus. Nach Chlodwigs Sieg 496 n. Chr. über die Alemannen in der Schlacht von Zülpich geriet zunächst das westliche Maingebiet unter fränkischen Einfluss. Als im Jahre 531 (Schlacht bei Burgscheidungen) auch die Thüringer geschlagen wurden, geriet das ganze Maintal unter fränkische Herrschaft. Es war jedoch auch slawische Zuwanderung zu beobachten (Bavaria Slavica). Das Gebiet des heutigen Oberfrankens bestand später im Wesentlichen aus den zwei historischen Territorien des Hochstifts Bamberg und des hohenzollernschen (seit 1791/1792 preußischen) Fürstentums Bayreuth (auch: Markgraftum "Brandenburg-Bayreuth" bzw. früher "Brandenburg-Kulmbach"). Nach der militärischen Besetzung Bambergs durch das Königreich Bayern entstand am 29. November 1802 zunächst die "Bayerische Provinz Bamberg," die am 1. Oktober 1808 in "Mainkreis" umbenannt wurde. Das Königreich Bayern kaufte das von 1806 bis 1810 als "pays reservé" (Napoleons Privatbesitz) unter französischer Herrschaft stehende Markgraftum Bayreuth für 15 Millionen Francs von den Franzosen und übernahm es am 30. Juni 1810. So entstand der "Obermainkreis" mit Bayreuth als Hauptstadt. Den Namen "Oberfranken" trägt der Bezirk seit dem 1. Januar 1838 in Anlehnung an das Herzogtum Franken, in dessen ehemaligem Ostteil er liegt. Seine Abrundung erhielt der Bezirk, als zum 1. Juli 1920 der Freistaat Coburg nach Bayern eingegliedert wurde. Kleinere Veränderungen des Gebiets von Oberfranken brachte schließlich die bayerische Gebietsreform von 1972. Wirtschaft. Gemessen am Bruttoinlandsprodukt gehört Oberfranken zu den wohlhabenderen Regionen der EU mit einem Index von 113 (EU27: 100, Deutschland: 116) (2008). Über ein Viertel aller Betriebe sind Automobilzulieferer. Oberfranken hat innerhalb Europas eine sehr hohe Industriedichte. Der Raum Hof-Bayreuth-Kulmbach zählt zu den wichtigsten Textilzentren Deutschlands, der Landkreis Wunsiedel ist das Zentrum der deutschen Keramikindustrie (Haushaltsporzellan, Hotelporzellan und technische Keramiken), der Raum Lichtenfels-Coburg ist Zentrum der deutschen Polstermöbelindustrie. Die wirtschaftlichen Interessenvertretungen Oberfrankens sind die "Industrie- und Handelskammer für Oberfranken Bayreuth", die "Industrie- und Handelskammer zu Coburg" sowie die "Handwerkskammer für Oberfranken" mit Sitz in Bayreuth. Kunst und Kultur. Im Abstand von ca. zwei Jahren wird der Kulturpreis der oberfränkischen Wirtschaft an Personen vergeben, die sich um das kulturelle Leben in Oberfranken verdient gemacht haben. Im "Museum für Bäuerliche Arbeitsgeräte" in der Altstadt in Bayreuth ist die "KulturServiceStelle" des Bezirks Oberfranken untergebracht. Im Jahr 2015 kürte sie erstmals ein "Oberfränkisches Wort des Jahres", wobei die Wahl auf „Wischkästla“ (für "Smartphone") fiel, daneben gab es aber auch weitere Vorschläge wie „Herrgottsmuggerla“ (für "Marienkäfer") und „etzerla“ (für "jetzt aber"). Schutzgebiete. Im Regierungsbezirk gibt es 95 Naturschutzgebiete und 70 ausgewiesene Landschaftsschutzgebiete (Stand: Dezember 2015). Das größte Naturschutzgebiet im Bezirk ist das Muschelkalkgebiet am Oschenberg. OSI-Modell. Das OSI-Modell () ist ein Referenzmodell für Netzwerkprotokolle als Schichtenarchitektur. Es wird seit 1983 von der International Telecommunication Union (ITU) und seit 1984 auch von der International Organization for Standardization (ISO) als Standard veröffentlicht. Seine Entwicklung begann im Jahr 1977. Zweck des OSI-Modells ist, Kommunikation über unterschiedlichste technische Systeme hinweg zu ermöglichen und die Weiterentwicklung zu begünstigen. Dazu definiert dieses Modell sieben aufeinander folgende Schichten (engl.) mit jeweils eng begrenzten Aufgaben. In der gleichen Schicht mit klaren Schnittstellen definierte Netzwerkprotokolle sind einfach untereinander austauschbar, selbst wenn sie wie das Internet Protocol eine zentrale Funktion haben. Motivation. Kommunikation im OSI-Modell am Beispiel der Schichten 3 bis 5 In einem Computernetz werden den verschiedenen Hosts Dienste unterschiedlichster Art bereitgestellt, und zwar von den anderen Teilnehmern im Netz (siehe auch Client-Server-Modell). Die dazu erforderliche Kommunikation ist nicht so trivial, wie es auf den ersten Blick scheint, denn es müssen eine Vielzahl von Aufgaben bewältigt und Anforderungen bezüglich Zuverlässigkeit, Sicherheit, Effizienz usw. erfüllt werden. Die zu lösenden Probleme reichen von Fragen der elektronischen Übertragung der Signale über eine geregelte Reihenfolge in der Kommunikation bis hin zu abstrakteren Aufgaben, die sich innerhalb der kommunizierenden Anwendungen ergeben. Wegen der Vielzahl von Problemen und Aufgaben hat man sich entschieden, diese in verschiedene Ebenen "(Schichten)" aufzuteilen. Beim OSI-Modell sind es sieben Schichten mit festgelegten Anforderungen. Auf jeder einzelnen Schicht setzt jeweils eine "Instanz" die Anforderungen um. Die Instanzen auf Sender- und Empfängerseite müssen nach festgelegten Regeln arbeiten, damit sie sich einig sind, wie die Daten zu verarbeiten sind. Die Festlegung dieser Regeln wird in einem Protokoll beschrieben und bildet eine logische, "horizontale" Verbindung zwischen zwei Instanzen derselben Schicht. Jede Instanz stellt "Dienste" zur Verfügung, die eine direkt darüberliegende Instanz nutzen kann. Zur Erbringung der Dienstleistung bedient sich eine Instanz selbst der Dienste der unmittelbar darunterliegenden Instanz. Der reale Datenfluss erfolgt daher "vertikal". Die Instanzen einer Schicht sind genau dann austauschbar, wenn sie sowohl beim Sender als auch beim Empfänger ausgetauscht werden können. Die sieben Schichten. Der Abstraktionsgrad der Funktionalität nimmt von Schicht 1 bis zur Schicht 7 zu. Schicht 1 – Bitübertragungsschicht (Physical Layer). Die Bitübertragungsschicht (engl. "Physical Layer") ist die unterste Schicht. Diese Schicht stellt mechanische, elektrische und weitere funktionale Hilfsmittel zur Verfügung, um physische Verbindungen zu aktivieren bzw. zu deaktivieren, sie aufrechtzuerhalten und Bits darüber zu übertragen. Das können zum Beispiel elektrische Signale, optische Signale (Lichtleiter, Laser), elektromagnetische Wellen (drahtlose Netze) oder Schall sein. Die dabei verwendeten Verfahren bezeichnet man als übertragungstechnische Verfahren. Geräte und Netzkomponenten, die der Bitübertragungsschicht zugeordnet werden, sind zum Beispiel die Antenne und der Verstärker, Stecker und Buchse für das Netzwerkkabel, der Repeater, der Hub, der Transceiver, das T-Stück und der Abschlusswiderstand (Terminator). Auf der Bitübertragungsschicht wird die digitale Bitübertragung auf einer leitungsgebundenen oder leitungslosen Übertragungsstrecke bewerkstelligt. Die gemeinsame Nutzung eines Übertragungsmediums kann auf dieser Schicht durch statisches Multiplexen oder dynamisches Multiplexen erfolgen. Dies erfordert neben den Spezifikationen bestimmter Übertragungsmedien (zum Beispiel Kupferkabel, Lichtwellenleiter, Stromnetz) und der Definition von Steckverbindungen noch weitere Elemente. Darüber hinaus muss auf dieser Ebene gelöst werden, auf welche Art und Weise ein einzelnes Bit übertragen werden soll. Damit ist folgendes gemeint: In Rechnernetzen werden heute Informationen zumeist in Form von Bit- oder Symbolfolgen übertragen. Im Kupferkabel und bei Funkübertragung dagegen sind modulierte hochfrequente elektromagnetische Wellen die Informationsträger, im Lichtwellenleiter Lichtwellen von bestimmter oder unterschiedlicher Wellenlänge. Die Informationsträger kennen keine Bitfolgen, sondern können weitaus mehr unterschiedliche Zustände annehmen als nur 0 oder 1. Für jede Übertragungsart muss daher eine Codierung festgelegt werden. Das geschieht mit Hilfe der Spezifikation der Bitübertragungsschicht eines Netzes. Hardware auf dieser Schicht: Repeater, Hubs, Leitungen, Stecker, u. a. Protokolle und Normen: V.24, V.28, X.21, RS 232, RS 422, RS 423, RS 499 Schicht 2 – Sicherungsschicht (Data Link Layer). Aufgabe der Sicherungsschicht (engl. "Data Link Layer"; auch "Abschnittssicherungsschicht", "Datensicherungsschicht", "Verbindungssicherungsschicht", "Verbindungsebene", "Prozedurebene") ist es, eine zuverlässige, das heißt weitgehend fehlerfreie Übertragung zu gewährleisten und den Zugriff auf das Übertragungsmedium zu regeln. Dazu dient das Aufteilen des Bitdatenstromes in Blöcke – auch als "Frames" oder "Rahmen" bezeichnet – und das Hinzufügen von Prüfsummen im Rahmen der Kanalkodierung. So können fehlerhafte Blöcke vom Empfänger erkannt und entweder verworfen oder sogar korrigiert werden; ein erneutes Anfordern verworfener Blöcke sieht diese Schicht aber nicht vor. Eine „Datenflusskontrolle“ ermöglicht es, dass ein Empfänger dynamisch steuert, mit welcher Geschwindigkeit die Gegenseite Blöcke senden darf. Die internationale Ingenieursorganisation IEEE sah die Notwendigkeit, für lokale Netze auch den konkurrierenden Zugriff auf ein Übertragungsmedium zu regeln, was im OSI-Modell nicht vorgesehen ist. Nach IEEE ist Schicht 2 in zwei Unter-Schichten "(sub layers)" unterteilt: LLC (Logical Link Control, Schicht 2b) und MAC (Media Access Control, Schicht 2a). Hardware auf dieser Schicht: Bridge, Switch (Multiport-Bridge) Das Ethernet-Protokoll beschreibt sowohl Schicht 1 als auch Schicht 2, wobei auf dieser als Zugriffskontrolle CD zum Einsatz kommt. Protokolle und Normen, die auf anderen Schicht-2-Protokollen und -Normen aufsetzen: HDLC, SDLC, DDCMP, IEEE 802.2 (LLC), ARP, RARP, STP, Shortest Path Bridging Protokolle und Normen, die direkt auf Schicht 1 aufsetzen: IEEE 802.11 (WLAN), IEEE 802.4 (Token Bus), IEEE 802.5 (Token Ring), FDDI Schicht 3 – Vermittlungsschicht (Network Layer). Die Vermittlungsschicht (engl. "Network Layer"; auch "Paketebene oder Netzwerkschicht") sorgt bei leitungsorientierten Diensten für das Schalten von Verbindungen und bei paketorientierten Diensten für die Weitervermittlung von Datenpaketen. Die Datenübertragung geht in beiden Fällen jeweils über das gesamte Kommunikationsnetz hinweg und schließt die Wegsuche (Routing) zwischen den Netzwerkknoten ein. Da nicht immer eine direkte Kommunikation zwischen Absender und Ziel möglich ist, müssen Pakete von Knoten, die auf dem Weg liegen, weitergeleitet werden. Weitervermittelte Pakete gelangen nicht in die höheren Schichten, sondern werden mit einem neuen Zwischenziel versehen und an den nächsten Knoten gesendet. Zu den wichtigsten Aufgaben der Vermittlungsschicht zählt das Bereitstellen netzwerkübergreifender Adressen, das Routing bzw. der Aufbau und die Aktualisierung von Routingtabellen und die Fragmentierung von Datenpaketen. Aber auch die Aushandlung und Sicherstellung einer gewissen Dienstgüte fällt in den Aufgabenbereich der Vermittlungsschicht. Neben dem Internet Protocol zählen auch die NSAP-Adressen zu dieser Schicht. Da ein Kommunikationsnetz aus mehreren Teilnetzen unterschiedlicher Übertragungsmedien und -protokolle bestehen kann, sind in dieser Schicht auch die Umsetzungsfunktionen angesiedelt, die für eine Weiterleitung zwischen den Teilnetzen notwendig sind. Hardware auf dieser Schicht: Router, Layer-3-Switch (BRouter) Protokolle und Normen: X.25, ISO 8208, ISO 8473 (CLNP), ISO 9542 (ESIS), IP, IPsec, ICMP Schicht 4 – Transportschicht (Transport Layer). Zu den Aufgaben der Transportschicht (engl.; auch "Ende-zu-Ende-Kontrolle", "Transport-Kontrolle") zählen die Segmentierung des Datenstroms und die Stauvermeidung (engl.). Ein Datensegment ist dabei eine Service Data Unit, die zur Datenkapselung auf der vierten Schicht (Transportschicht) verwendet wird. Es besteht aus Protokollelementen, die Schicht-4-Steuerungsinformationen enthalten. Als Adressierung wird dem Datensegment eine Schicht-4-Adresse vergeben, also ein Port. Das Datensegment wird in der Schicht 3 in ein Datenpaket gekapselt. Die Transportschicht bietet den anwendungsorientierten Schichten 5 bis 7 einen einheitlichen Zugriff, so dass diese die Eigenschaften des Kommunikationsnetzes nicht zu berücksichtigen brauchen. Fünf verschiedene Dienstklassen unterschiedlicher Güte sind in Schicht 4 definiert und können von den oberen Schichten benutzt werden, vom einfachsten bis zum komfortabelsten Dienst mit Multiplexmechanismen, Fehlersicherungs- und Fehlerbehebungsverfahren. Protokolle und Normen: ISO 8073/X.224, ISO 8602, TCP, UDP, SCTP. Schicht 5 – Sitzungsschicht (Session Layer). Die Schicht 5 (Steuerung logischer Verbindungen; engl. "Session Layer"; auch "Sitzungsschicht") sorgt für die Prozesskommunikation zwischen zwei Systemen. Hier findet sich unter anderem das Protokoll RPC (Remote Procedure Call). Um Zusammenbrüche der Sitzung und ähnliche Probleme zu beheben, stellt die Sitzungsschicht Dienste für einen organisierten und synchronisierten Datenaustausch zur Verfügung. Zu diesem Zweck werden Wiederaufsetzpunkte, so genannte Fixpunkte (Check Points) eingeführt, an denen die Sitzung nach einem Ausfall einer Transportverbindung wieder synchronisiert werden kann, ohne dass die Übertragung wieder von vorne beginnen muss. Protokolle und Normen: ISO 8326 / X.215 (Session Service), ISO 8327 / X.225 (Connection-Oriented Session Protocol), ISO 9548 (Connectionless Session Protocol) Schicht 6 – Darstellungsschicht (Presentation Layer). Die Darstellungsschicht (engl. "Presentation Layer"; auch "Datendarstellungsschicht", "Datenbereitstellungsebene") setzt die systemabhängige Darstellung der Daten (zum Beispiel ASCII, EBCDIC) in eine unabhängige Form um und ermöglicht somit den syntaktisch korrekten Datenaustausch zwischen unterschiedlichen Systemen. Auch Aufgaben wie die Datenkompression und die Verschlüsselung gehören zur Schicht 6. Die Darstellungsschicht gewährleistet, dass Daten, die von der Anwendungsschicht eines Systems gesendet werden, von der Anwendungsschicht eines anderen Systems gelesen werden können. Falls erforderlich, agiert die Darstellungsschicht als Übersetzer zwischen verschiedenen Datenformaten, indem sie ein für beide Systeme verständliches Datenformat, die ASN.1 (Abstract Syntax Notation One), verwendet. Protokolle und Normen: ISO 8822 / X.216 (Presentation Service), ISO 8823 / X.226 (Connection-Oriented Presentation Protocol), ISO 9576 (Connectionless Presentation Protocol) Schicht 7 – Anwendungsschicht (Application Layer). Die Anwendungsschicht stellt Funktionen für die Anwendungen zur Verfügung. Diese Schicht stellt die Verbindung zu den unteren Schichten her. Auf dieser Ebene findet auch die Dateneingabe und -ausgabe statt. Die Anwendungen selbst gehören nicht zur Schicht. Allgemeines. Das OSI-Referenzmodell wird oft herangezogen, wenn es um das Design von Netzprotokollen und das Verständnis ihrer Funktionen geht. Auf der Basis dieses Modells sind auch Netzprotokolle entwickelt worden, die jedoch fast nur in der öffentlichen Kommunikationstechnik verwendet werden, also von großen Netzbetreibern wie der Deutschen Telekom. Im privaten und kommerziellen Bereich wird hauptsächlich die IP-Protokoll-Familie eingesetzt. Das IP-Referenzmodell ist sehr speziell auf den Zusammenschluss von Netzen "(internetworking)" zugeschnitten. Die nach dem OSI-Referenzmodell entwickelten Netzprotokolle haben mit der TCP/IP-Protokollfamilie gemeinsam, dass es sich um hierarchische Modelle handelt. Es gibt aber wesentliche konzeptionelle Unterschiede: OSI legt die Dienste genau fest, die jede Schicht für die nächsthöhere zu erbringen hat. TCP/IP hat kein derartig strenges Schichtenkonzept wie OSI. Weder sind die Funktionen der Schichten genau festgelegt noch die Dienste. Es ist erlaubt, dass eine untere Schicht unter Umgehung zwischenliegender Schichten direkt von einer höheren Schicht benutzt wird. TCP/IP ist damit erheblich effizienter als die OSI-Protokolle. Nachteil bei TCP/IP ist, dass es für viele kleine und kleinste Dienste jeweils ein eigenes Netzprotokoll gibt. OSI hat dagegen für seine Protokolle jeweils einen großen Leistungsumfang festgelegt, der sehr viele Optionen hat. Nicht jede kommerziell erhältliche OSI-Software hat den vollen Leistungsumfang implementiert. Daher wurden OSI-Profile definiert, die jeweils nur einen bestimmten Satz von Optionen beinhalten. OSI-Software unterschiedlicher Hersteller arbeitet zusammen, wenn dieselben Profile implementiert sind. Das Referenzmodell für die Telekommunikation. Das Konzept des OSI-Modells stammt aus der Datenwelt, die immer Nutzdaten (in Form von Datenpaketen) transportiert. Um die Telekommunikationswelt auf dieses Modell abzubilden, waren Zusätze erforderlich. Diese Zusätze berücksichtigen, dass in der Telekommunikation eine von den Datenströmen getrennte Zeichengabe für den Verbindungsauf- und -abbau vorhanden ist, und dass in der Telekommunikation die Geräte und Einrichtungen mit Hilfe eines Management-Protokolls von Ferne konfiguriert, überwacht und entstört werden. ITU-T hat für diese Zusätze das OSI-Modell um zwei weitere Protokoll-Stacks erweitert und ein generisches Referenzmodell standardisiert (ITU-T I.322). Die drei Protokoll-Stacks werden bezeichnet als Jede dieser „Planes“ ist wiederum nach OSI in sieben Schichten strukturiert. Standardisierung. Das genormte Referenzmodell wird in der ISO weiterentwickelt. Der aktuelle Stand ist in der Norm ISO/IEC 7498-1:1994 nachzulesen. Das technische Komitee „Information Processing Systems“ hatte sich das Ziel gesetzt, informationsverarbeitende Systeme verschiedener Hersteller zur Zusammenarbeit zu befähigen. Daher kommt die Bezeichnung „Open Systems Interconnection“. An der Arbeit im Rahmen der ISO nahm auch der Ausschuss "Offene Kommunikationssysteme" des DIN teil, der dann den ISO-Standard auch als deutsche Industrienorm in der englischen Originalfassung des Textes übernahm. Auch ITU-T übernahm ihn: In einer Serie von Standards X.200, X.207, … sind nicht nur das Referenzmodell, sondern auch die Services und Protokolle der einzelnen Schichten spezifiziert. Weitere Bezeichnungen für das Modell sind "ISO/OSI-Modell", "OSI-Referenzmodell", "OSI-Schichtenmodell" oder "7-Schichten-Modell" Analogie. Ein Firmenmitarbeiter möchte seinem Geschäftspartner eine Nachricht senden. Der Mitarbeiter ist mit dem Anwendungsprozess, der die Kommunikation anstößt, gleichzusetzen. Er spricht die Nachricht auf ein Diktiergerät. Sein Assistent bringt die Nachricht auf Papier. Der Assistent wirkt somit als Darstellungsschicht. Danach gibt er die Nachricht an die Sekretärin, die den Versand der Nachricht verwaltungstechnisch abwickelt und damit die Sitzungsschicht repräsentiert. Der Hauspostmitarbeiter (gleich Transportschicht) bringt den Brief auf den Weg. Dazu klärt er mit der Vermittlungsschicht (gleich Briefpost), welche Übertragungswege bestehen, und wählt den geeigneten aus. Der Postmitarbeiter bringt die nötigen Vermerke auf den Briefumschlag an und gibt ihn weiter an die Verteilstelle, die der Sicherungsschicht entspricht. Von dort gelangt der Brief zusammen mit anderen in ein Transportmittel wie LKW oder Flugzeug und nach eventuell mehreren Zwischenschritten zur Verteilstelle, die für den Empfänger zuständig ist. Auf der Seite des Empfängers wird dieser Vorgang in umgekehrter Reihenfolge durchlaufen, bis der Geschäftspartner die Nachricht auf ein Diktiergerät gesprochen vorfindet. Diese Analogie zeigt nicht auf, welche Möglichkeiten der Fehlerüberprüfung und -behebung das OSI-Modell vorsieht, da diese beim Briefversand nicht bestehen. Merksprüche. Es gibt einige Eselsbrücken/Informatik-Merksprüche zu den Namen der einzelnen OSI-Schichten, die gerne zum einfacheren Merken verwendet werden. Wohl mitunter einer der populärsten Sprüche lautet "“Please Do Not Throw Salami Pizza A'"way”" ("Physical Layer", "Data Link Layer" usw.). Eine deutsche Variante ist „Alle deutschen Schüler trinken verschiedene Sorten Bier“ (Anwendungsschicht, Darstellungsschicht, …). Weitere sehr eingängige Eselsbrücken für die englische Variante lauten „Alle Priester Saufen Tequila Nach Der Predigt“ und „All People Seem to Need Data Processing“. Satirische Erweiterung. Unter IT-Fachleuten wird das OSI-Modell gelegentlich auf eine nicht existierende achte Schicht erweitert. Da im Modell die letzte, siebte Schicht dem Benutzer am nächsten liegt, spricht man dann von einem Problem auf dem OSI-Layer 8, wenn dessen Ursache beim Benutzer selbst vermutet wird. Selten werden finanzielle, politische und religiöse Vorbehalte in den Schichten acht bis zehn behandelt. Oberer See. Der Obere See (;) ist der größte der fünf Großen Seen Nordamerikas sowie das nach dem Kaspischen Meer flächenmäßig zweitgrößte Binnengewässer der Erde und damit der flächenmäßig größte Süßwassersee (tiefster und vom Volumen her größter Süßwassersee ist der Baikalsee in Sibirien). Durch den Oberen See verläuft die Grenze zwischen Kanada und den Vereinigten Staaten. Sein Wasserspiegel liegt auf bei einer Gesamtfläche von 82.103 km²(entspricht etwa der Größe Österreichs). Seine größte Tiefe beträgt 406 m, vom nördlichsten Punkt bis zum südlichsten beträgt die Entfernung 290,2 km, die größte Ost-West-Ausdehnung beträgt 599,6 km. Der "Obere See" grenzt im Norden an die Provinz Ontario in Kanada (kanadischer Seeanteil 29.847km², amerikanischer Seeanteil 52.256 km²) und den US-Bundesstaat Minnesota, im Süden an die US-Bundesstaaten Wisconsin und Michigan. Die größte Insel im See ist die Isle Royale, von Süden ragt die Keweenaw-Halbinsel weit in den See hinein. Der "Obere See" ist der "Große See" mit der besten Wasserqualität, da im Gegensatz zu den übrigen Seen an seinem Ufer nur wenige Industrieanlagen angesiedelt sind und er nicht von den anderen Seen gespeist wird. Der See hat über 200 Zuflüsse. Die größten sind der Nipigon River, der Saint Louis River, der Pigeon River, der Pic River, der White River, der Michipicoten River und der Kaministiquia River. Der Obere See fließt über den Saint Marys River in den Huronsee ab und ist damit Teil des Wasserweges der Großen Seen. Die Stromschnellen auf diesem Fluss erfordern Schleusen, die Soo Locks bei Sault Ste. Marie, damit Schiffe die acht Meter Höhenunterschied zum Huronsee überwinden können. Name. In der Sprache der Anishinabe (auch Ojibwa oder Chippewa-Indianer) wird der See „Gichigami“ („großes Wasser“) genannt. Weiterhin ist er bekannt als der „Gitche Gumee“, so wie z.B. auch in Henry Wadsworth Longfellows 1855 Epos, The Song of Hiawatha und Gordon Lightfoots Ballade „The Wreck of the Edmund Fitzgerald“, welche vom Untergang der Edmund Fitzgerald auf dem Oberen See im November 1975 handelt. Der See wurde im 17. Jahrhundert von französischen Forschern „le lac supérieur“ (Oberer See) genannt, weil er sich oberhalb des Huronsees befindet. Geschichte. Der Obere See war schon für die indianische Urbevölkerung ein wichtiger Verkehrsweg, am Nordwest-Ufer münden mit dem Pigeon River und dem Kaministiquia River zwei Flüsse, die als Routen ins Innere des heutigen Kanadas dienten. Die ersten Weißen waren französische Pelzhändler, die von den Indianern diese Verbindungen gezeigt bekamen. Die sogenannte "Grand Portage" am Pigeon River wurde zum Handelsstützpunkt ausgebaut, die 1783 von französischstämmigen Händlern gegründete North West Company legte dort ein befestigtes Lager an, in das sie im Sommerhalbjahr ihr Hauptquartier verlegten. Der rekonstruierte Stützpunkt ist heute als Grand Portage National Monument ausgewiesen. Im 19. Jahrhundert entstanden Bergbausiedlungen rund um den See, insbesondere Eisenerz wurde abgebaut und per Schiff über den See transportiert. Duluth ist heute der umsatzstärkste Binnenhafen der Vereinigten Staaten, Steinkohle und Eisenerz sind die wichtigsten Güter. Heute spielt der Tourismus eine wichtige Rolle, das milde Klima macht das Gebiet im Sommer und Winter zu einem beliebten Ziel. Fischen, Bootfahren, Wandern, im Winter Skilanglauf und Schneemobilfahren sind die häufigsten Aktivitäten. Die Wasserqualität macht den See trotz der geringen Temperaturen zu einem attraktiven Tauchgebiet. Seit 2007 steht ein erheblicher Teil der kanadischen Küste des Sees unter Schutz. Dort befindet sich die Lake Superior National Marine Conservation Area. Schifffahrt. Der Obere See ist eine wichtige Transportroute für Eisenerz und andere Bergbauprodukte. Große Frachtschiffe, sogenannte Laker und kleinere seetüchtige Schiffe der Seawaymax-Klasse transportieren solche Güter auf dem Sankt-Lorenz-Seeweg. Das Südufer des Sees zwischen Grand Marais und Whitefish Point gilt als Schiffsfriedhof, da in diesem Gebiet mehr Schiffe untergegangen sind als in jedem anderen Teil des Sees. Diese Schiffwracks sind durch die "Whitefish Point Underwater Preserve" geschützt. Das letzte größere Schiff, das auf dem großen See in einem Sturm gesunken ist, war die SS Edmund Fitzgerald. Dieses Schiff war am 10. November 1975 rund 27 km von Whitefish Point entfernt mit 29 Besatzungsmitgliedern an Bord untergegangen. In der Geschichte der Schifffahrt auf dem Oberen See haben wiederholt Stürme mehrere Schiffe zum Untergang gebracht, etwa der Mataafa-Sturm vom 28. November 1905 oder der Great Lakes Storm of 1913. Im August 2007 etwa wurde das Wrack der "Cyprus" gefunden. Dieser 128 m lange Eisenerzfrachter sank in einem Sturm am 11. Oktober 1907 auf seiner zweiten Fahrt von Superior, Wisconsin nach Buffalo, New York. Das in Lorain, Ohio gebaute Schiff war erst am 17. August 1907 in Dienst gestellt worden. Einzelnachweise. SOberer See Ontariosee. Der Ontariosee (;) ist der flächenmäßig kleinste der fünf Großen Seen Nordamerikas, die miteinander durch Flussläufe verbunden sind. Nach Tiefe und Volumen ist er jedoch nach dem Eriesee der zweitkleinste. Geographie. Durch den Ontariosee verläuft die Grenze der Vereinigten Staaten zu Kanada. Er liegt auf Höhe und seine Fläche beträgt 19.011 km². Der kanadische Seeanteil beträgt 9969 km² und der US-amerikanische Seeanteil beträgt 9042 km². Zum Vergleich: Seine Ausdehnung entspricht ungefähr der Größe des deutschen Bundeslandes Rheinland-Pfalz; die Fläche des größten Sees Europas, des Ladogasees, übertrifft er um rund 1000 km². Die Wassertiefe beträgt bis zu 244 Meter. Der Hauptzufluss erfolgt über den Niagara River aus dem Eriesee. Weitere Zuflüsse sind der Trent River, der Genesee River, der Oswego River und der Salmon River. Der Ontariosee entwässert über den Sankt-Lorenz-Strom. Durch den arktischen Einfluss ist der Uferrand durchschnittlich drei Monate im Jahr zugefroren, dient aber im Sommer als Wärmespeicher, so dass er im Gebiet um die Niagarafälle u. a. den Weinanbau ermöglicht. Das Wasser aus dem See wird auch für die Trinkwasserversorgung und zur Kühlung von Bürogebäuden in der Stadt Toronto verwendet (siehe DLWC). Wie bei den anderen Großen Seen Nordamerikas, so sind auch beim Ontariosee die Gezeiten – anders als bei vielen kleineren Binnenseen – bemerkbar. Der Ontariosee hat rund 1500 Inseln, die größte Wolfe Island liegt am östlichen Abfluss des Sees in den Sankt-Lorenz-Strom. Name. Der Name des Sees leitet sich von der Sprache der Wyandot ab, wo das Wort "ontarío" „Großer See“ bedeutet. Die kanadische Provinz wurde später nach dem Ontariosee benannt. In frühen Karten wurde der See teilweise anders genannt. In den "Relation des Jésuites" trug er den Namen „Lac Ontario ou des Iroquois“ oder „Ondiara“. Eine französische Karte aus dem Jahr 1712 bezeichnete ihn als „Lac Frontenac“. In der irokesischen Sprache hieß der See „Skanadario“. Wegen der Ähnlichkeiten in Form und Fläche diente der Lake Ontario als Namensgeber für den Ontario Lacus auf dem Saturnmond Titan. Einzelnachweise. SOntariosee Oxidation. Die Oxidation ist eine chemische Reaktion, bei der ein Atom, Ion oder Molekül Elektronen abgibt. Seine Oxidationszahl wird dabei erhöht. Ein anderer Stoff nimmt die Elektronen auf und wird reduziert. Beide Reaktionen zusammen werden als Teilreaktionen einer Redoxreaktion betrachtet. Geschichte. Der Begriff "Oxidation" wurde ursprünglich von dem Chemiker Antoine Laurent de Lavoisier geprägt, der damit die Vereinigung von Elementen und chemischen Verbindungen mit dem Element Sauerstoff (Oxygenium, franz: oxygène), also die Bildung von Oxiden, beschreiben wollte. Später erfolgte eine Erweiterung des Begriffes, indem man Reaktionen mit einbezog, bei denen einer Verbindung Wasserstoffatome entzogen wurden (Dehydrierung). So werden z. B. bei vielen biochemischen Vorgängen organischen Verbindungen Wasserstoffatome durch bestimmte Coenzyme (NAD, NADP, FAD) „entrissen“. Auf Grundlage der Ionentheorie und des Bohrschen Atommodells konnte die Oxidation schließlich unter elektronentheoretischen Gesichtspunkten interpretiert und verallgemeinert werden. Das Charakteristische an diesem Vorgang wird nun in der Elektronenabgabe eines chemischen Stoffes gesehen. Oxidation durch Sauerstoff. a> als Beispiel für eine Oxidation unter Flammenerscheinung Ursprüngliche Bedeutung. Als Oxidation im ursprünglichen Sinn bezeichnete man früher die chemische Reaktion eines Stoffes mit Sauerstoff. Oxidationen unter Flammenerscheinung werden als Verbrennung oder Feuer bezeichnet. Dazu zählt auch das Feuerwerk. Klassische Beispiele. Klassische Beispiele für die Oxidation durch Sauerstoff sind alle Arten der Verbrennung von kohlenstoffhaltigen Stoffen unter Luftsauerstoff, beispielsweise Verbrennung von Kohle, Holz, Erdgas, Flüssiggas, Benzin im Motor, Kerzen usw. Ausgehend von Kohle (reiner Kohlenstoff) gibt jedes Kohlenstoff-Atom vier Elektronen an zwei Sauerstoff-Atome zur Ausbildung von zwei Doppelbindungen ab. Es entsteht Kohlenstoffdioxid (CO2). Nahrung wird im Körper in den vielen Schritten des biochemischen Stoffwechsels unter anderem zu körpereigenen Stoffen, Kohlenstoffdioxid (CO2) und Wasser oxidiert. Ein Beispiel ist die β-Oxidation von Fettsäuren. Nicht nur "in vivo", auch "in vitro" können organische Stoffe auf vielfältige Weise mit Sauerstoff reagieren: Ein primärer Alkohol (Alkanol) wird sanft oxidiert. Dabei entsteht zunächst ein Aldehyd (Alkanal), bei nochmaliger Oxidation eine Carbonsäure (Alkansäure). Bei energischerer Oxidation kann der Schritt zum Aldehyd übersprungen werden, so dass die Oxidation des primären Alkohols direkt zur Isolation einer Carbonsäure führt. Wird ein sekundärer Alkohol oxidiert, so bildet sich dabei ein Keton (Alkanon). Tertiäre Alkohole können auf Grund ihrer bereits vorhandenen drei C-Bindungen nicht zu einer Carbonylverbindung oxidiert werden. Eisen rostet (korrodiert) unter dem Einfluss von Sauerstoff und bildet verschiedene Eisenoxide (Rost, Fe2O3, Fe3O4, FeO). Aluminium überzieht sich durch Luftoxidation mit einer Schutzschicht aus Aluminiumoxid. Moderne Definition. Auch heute noch assoziiert man mit dem Begriff Oxidation vielfach die Umsetzung mit (Luft-)Sauerstoff und die Bildung von Oxiden. Jedoch ist im Rahmen der allgemeineren Definition diese Reaktion nur eine von vielen, die sich mit Hilfe der Valenzelektronentheorie erklären lässt. Sauerstoff hat in diesem Fall die Tendenz, durch Aufnahme von zwei Elektronen eine stabile Valenzelektronenschale mit insgesamt acht Elektronen aufzubauen (Oktettregel). Das Metall wiederum kann durch Abgabe der Elektronen teilbesetzte Schalen auflösen und so die nächstniedrigere stabile Elektronenkonfiguration erreichen. Oxidation ohne Sauerstoff. Der erweiterte Begriff der Oxidation wird heute auf Reaktionen angewandt, die nach dem gleichen chemischen Prinzip ablaufen, auch wenn kein Sauerstoff daran beteiligt ist. In diesem weiteren Sinne bedeutet Oxidation das Abgeben von Elektronen. Zum Beispiel gibt bei der Reaktion von Natrium und Chlor zu Natriumchlorid das Natriumatom ein Elektron an das Chloratom ab, Natrium wird also oxidiert. Im Gegenzug wird Chlor dabei reduziert. Liste der Städte und Gemeinden in Mecklenburg-Vorpommern. Die Ämter und amtsfreien Kommunen Mecklenburg-Vorpommerns Das deutsche Bundesland Mecklenburg-Vorpommern besteht aus insgesamt 54 Städte und 661 Gemeinden haben sich zur Erledigung ihrer Verwaltungsgeschäfte zu 76 Ämtern zusammengeschlossen. In 29 dieser Ämter übernimmt ein hauptamtlicher Bürgermeister einer Gemeinde (meist der Bürgermeister einer amtsangehörigen Stadt) als Leitender Verwaltungsbeamter (LVB) die Verwaltung der anderen zum Amt gehörenden Gemeinden. Geschäftsführende Gemeinden. Ein hauptamtlicher Bürgermeister einer amtsangehörigen Stadt übernimmt hier als Leitender Verwaltungsbeamter (LVB) die Verwaltung der anderen zum Amt gehörenden Gemeinden. Siehe auch. !Liste der Stadte und Gemeinden in Mecklenburg-Vorpommern Mecklenburg-Vorpommern Liste der Städte und Gemeinden in Baden-Württemberg. Gemeinden in Baden-Württemberg nach Klasse Gemeinden in Baden-Württemberg nach Einwohnerzahl Das deutsche Bundesland Baden-Württemberg besteht aus insgesamt 440 Städte und Gemeinden haben sich zur Erledigung ihrer Verwaltungsgeschäfte in 114 Gemeindeverwaltungsverbände zusammengeschlossen und 471 Städte und Gemeinden haben sich zu 156 Vereinbarten Verwaltungsgemeinschaften zusammengeschlossen. Des Weiteren bestehen in Baden-Württemberg zwei unbewohnte Gemeindefreie Gebiete, der „Gutsbezirk Münsingen“ im Landkreis Reutlingen sowie der „Gemeindefreie Grundbesitz“ Rheinau (Ortenaukreis). Stadtkreise. Bei den Stadtkreisen handelt es sich, mit Ausnahme von Baden-Baden, um Großstädte. Eine weitere Großstadt ist Reutlingen (siehe bei „Große Kreisstädte“). Siehe auch. Baden-Wurttemberg ! Liste der Städte und Gemeinden in Bayern. Der Freistaat Bayern besteht aus insgesamt 990 Städte, Märkte und Gemeinden haben sich zur Erledigung ihrer Verwaltungsgeschäfte in 313 Verwaltungsgemeinschaften zusammengeschlossen. Des Weiteren bestehen in Bayern 199 gemeindefreie Gebiete (überwiegend Forste und Seen), siehe Liste der gemeindefreien Gebiete in Bayern. Amtliche Ortsnamen. Die von den ausgeschriebenen Ortsnamen abweichenden amtlichen Schreibweisen von Städten und Gemeinden in Bayern sind nachfolgend aufgeführt. Ortsteile. !Liste Der Stadte Und Gemeinden In Bayern Bayern Liste der Bezirke und Ortsteile Berlins. Berlin ist ein Stadtstaat, der aus mehreren Bezirken oder Verwaltungsbezirken besteht. Diese Liste der Bezirke und Ortsteile Berlins gibt eine Übersicht über die zwölf Bezirke und 96 Ortsteile der deutschen Hauptstadt. Allgemeines zur Gliederung Berlins. Jeder Bezirk Berlins besitzt eine parlamentsähnlich ausgestattete Bezirksverordnetenversammlung, die allerdings Teil der Verwaltung ist. Jeder Bezirk verfügt über ein Bezirksamt, dem die Stadträte mit den ihnen nachgeordneten Verwaltungsteilen angehören, außerdem wird in jedem Bezirk ein Bürgermeister gewählt. Jeder Bezirk besteht aus mehreren Ortsteilen, die meist historischen Ursprungs sind, ehemals selbstständige Städte, Dörfer oder Landgemeinden, die am 1. Oktober 1920 nach Groß-Berlin eingemeindet und zu damals 20 Bezirken zusammengeschlossen worden sind. Da Berlin seitdem eine Einheitsgemeinde ist, besitzen die einzelnen Bezirke keine Rechtspersönlichkeit im Sinne einer Gemeinde, auch wenn sie ihre eigene Bezirksverwaltung haben. Die Ortsteile sind als festumrissene Gebiete für statistische Zwecke und als Identifikationsorte wichtig. Sie werden mit einer vierstelligen Nummer gekennzeichnet, wobei sich die ersten beiden Ziffern auf den Bezirk beziehen. Neben der Einteilung in Ortsteile besteht eine kleinräumige Gliederung der Berliner Bezirke in 195 "Statistische Gebiete", die mit dreistelligen Ziffern gekennzeichnet sind. Ein solches Statistisches Gebiet ist zum Beispiel das "Bayerische Viertel" in Schöneberg, in dem die Straßen vor allem nach Städten in Bayern benannt sind. Die Statistischen Gebiete entsprechen annähernd den Ortslagen oder den Wohngebieten (Kiez). Sie können über Ortsteilgrenzen hinwegreichen; in solchen Fällen ist eine eindeutige Zuordnung eines Statistischen Gebiets zu einem bestimmten Ortsteil nicht möglich. So liegt zum Beispiel das "Statistische Gebiet Rudow" teilweise im Ortsteil Rudow und teilweise im Ortsteil Gropiusstadt. Für spezielle Zwecke gibt es weitere Unterteilungen der Statistischen Gebiete. So werden sie beispielsweise in der Verkehrsplanung jeweils in benannte Verkehrszellen unterteilt und diese wiederum in unbenannte Teilverkehrszellen. Ein Beispiel wären die beiden Teilverkehrszellen 00521 und 00522 der Verkehrszelle 0052 (Potsdamer Brücke) im Statistischen Gebiet 005 (Lützowplatz), das zum Ortsteil 0104 (Tiergarten) im Bezirk 01 (Mitte) gehört. Im gemeinen Sprachgebrauch gehen die Begriffe zur Verwaltungsteilung häufig durcheinander. Sowohl die amtlichen Bezirke als auch die amtlichen Ortsteile werden mitunter als „Stadtteile“ oder „Bezirke“ bezeichnet. Die Ortslagen werden oft als „unselbstständige Ortsteile“ oder auch fälschlich als „Ortsteile“ bezeichnet. Dies rührt oft daher, dass bis zur Verwaltungsreform im Jahr 2002 viele der heutigen amtlichen Ortsteile selbst Bezirke waren oder den Namen ehemaliger Bezirke tragen, die in nur einem weiteren Schritt in übliche Ortslagen differenziert wurden, die man bis dahin üblich Ortsteil nannte. Städtische Gliederung. Bis zum Jahr 2000 gab es in Berlin 23 Bezirke. Im Zuge der letzten Verwaltungsreform "(Bezirksgebietsreform)" im Jahre 2001 wurde die Zahl durch Fusion von jeweils zwei oder drei Bezirken auf zwölf reduziert. Von der Bezirksfusion ausgenommen waren Spandau, Reinickendorf und Neukölln, die bereits über 200.000 Einwohner zählten. Die Bezirke sind amtlich in 96 Ortsteile gegliedert, deren Namen auch im Stadtbild auftauchen, sowohl auf Wegweisern als auch auf Schildern an den Ortszufahrten (auf rechteckigen grünen Schildern mit gelber Schrift, die teilweise noch die früheren, heute nicht mehr gültigen Bezirks- oder Ortsteilnamen anzeigen). Einzelnachweise. !Ortsteile ! Berlin Berlin Liste der Städte und Gemeinden in Brandenburg. Gemeinden in Brandenburg nach Einwohnerzahl Das deutsche Bundesland Brandenburg besteht aus insgesamt 31 Städte und 239 Gemeinden haben sich zur Erledigung ihrer Verwaltungsgeschäfte zu 52 Ämtern zusammengeschlossen. In Brandenburg erhielten kreisangehörige Städte ab 45.000 Einwohnern bzw. 25.000 Einwohner gemäß § 2 Abs. 3 Gemeindeordnung für das Land Brandenburg a.F. den Status einer Großen bzw. Mittleren kreisangehörigen Stadt. Mit Einführung der Brandenburgischen Kommunalverfassung (BbgKVerf) wurde der Status der Mittleren kreisangehörigen Stadt abgeschafft, allerdings wurde in § 141 Abs. 2 BbgKVerf eine Bestandsschutzregelung aufgenommen. Zudem genügen nunmehr gemäß § 1 Abs. 3 BbgKVerf für das Erreichen des Status einer Großen kreisangehörigen Stadt 35.000 Einwohner. Bei offiziell zweisprachigen Städten und Gemeinden ist neben dem deutschen auch der niedersorbische Name angegeben. Einzelnachweise. Brandenburg Bezirke in Hamburg. Die Freie und Hansestadt Hamburg ist als Land und Einheitsgemeinde seit 1951 in sieben Bezirke gegliedert. Die Bezirksämter sind für eine Reihe dezentral wahrzunehmender Verwaltungsaufgaben zuständig, insbesondere im Sozial-, Gesundheits-, Bau-, Melde-, Wohnungs- und Liegenschaftswesen sowie im Bereich der Wirtschaftsüberwachung. Jeder Bezirk hat zur Beratung und Mitwirkung der Bürger an Verwaltung und bezirkspolitischen Themen jeweils eine Bezirksversammlung. Die sieben Bezirke Hamburgs sind in insgesamt 104 Stadtteile (seit 1. Januar 2011) untergliedert, die aus einem oder mehreren Ortsteilen bestehen. Diese sind geografische und statistische, aber keine politischen Einheiten. Stadt- und Ortsteile. Die Bezirke bestehen jeweils aus mehreren "Stadtteilen", deren Namen und Grenzen oftmals historisch gewachsen, zum Teil aber auch jüngeren Datums sind. Für statistische Zwecke sind viele Stadtteile nochmals in mehrere "Ortsteile" unterteilt. Die 181 Ortsteile Hamburgs (seit 1. Januar 2011) werden mit einer dreistelligen Nummer bezeichnet, deren erste Stelle jeweils für den Bezirk steht (Beispiel: Der Stadtteil Neustadt im Bezirk Hamburg-Mitte besteht aus den vier Ortsteilen 105 bis 108. Der relativ kleine Stadtteil Cranz im Bezirk Harburg lediglich aus einem Ortsteil 718, bei identischer Stadt- und Ortsteilgrenze). Der flächengrößte Stadtteil ist Wilhelmsburg (35,3 km²), der kleinste der 2008 neu gebildete Stadtteil Sternschanze (0,47 km²; zuvor Hoheluft-Ost mit 0,581 km²). Der bevölkerungsreichste Stadtteil ist Rahlstedt mit 86.962 Einwohnern (Stand 2011), während für Altenwerder nur drei Einwohner verzeichnet sind. Neben diesen offiziellen Untergliederungen bestehen weitere historische oder in jüngerer Zeit entstandene Bezeichnungen für Ortsteile, Viertel, Quartiere, oder für landschaftlich größere Gebiete und weitere geografische Einheiten (beispielsweise Flur- und Inselnamen). Bezirk Hamburg-Mitte. Kleiner Grasbrook, St. Georg, St. Pauli, Bezirk Altona. Groß Flottbek, Bezirk Hamburg-Nord. Groß Borstel, Bezirk Bergedorf. Die drei Karten zeigen noch nicht den neuen (ab 1. Januar 2011) Stadtteil Neuallermöhe. Bezirk Harburg. Gut Moor, Geschichte. Exklave Ritzebüttel (später Cuxhaven) 1394–1937 Landherrenschaften. Wie auch andere Freie Reichsstädte konnte Hamburg im Laufe der Geschichte zahlreiche umliegende Dörfer und Städte für sich gewinnen und unter seine Hoheit stellen bzw. gemeinsam mit anderen Staaten verwalten. Das Staatsgebiet der Freien Reichsstadt Hamburg bestand daher aus dem eigentlichen Stadtgebiet (innerhalb der Stadtmauern und -wälle) und dem so genannten Landgebiet, also einer Vielzahl von Landgemeinden, darunter die äußeren Stadtteile der heutigen Bezirke Hamburg-Mitte, Hamburg-Nord und Eimsbüttel sowie die so genannten Walddörfer. Die meisten dieser Landgemeinden bildeten mit der Stadt Hamburg ein geschlossenes Staatsgebiet, jedoch lagen einige auch als Exklaven vollständig außerhalb (z. B. Amt Ritzebüttel an der Elbmündung). Ebenso bestanden kleine Enklaven, wie in den Vierlanden, die wie die Stadt Bergedorf gemeinschaftlich mit der Freien und Hansestadt Lübeck verwaltet wurden, bevor die Hoheitsrechte 1868 gänzlich an Hamburg fielen. Mit der Einführung der Hamburgischen Städteordnung am 2. Januar 1924 wurden Bergedorf, Cuxhaven und Geesthacht eigenständige Städte im Hamburger Staatsgebiet und schieden aus den Landherrenschaften aus. Nicht zum hamburgischen Staatsgebiet gehörten damals die selbständigen Städte Altona, Wandsbek (beide seit 1866 zur preußischen Provinz Schleswig-Holstein gehörig) sowie Harburg und Wilhelmsburg (Provinz Hannover). Diese vier kamen erst durch das Groß-Hamburg-Gesetz von 1937 zu Hamburg. Gebietsreformen der Nationalsozialisten. Verwaltungsgliederung Hamburgs seit dem 1. April 1939 mit Stadt- (weiß) und Landbezirk (türkis), sowie Kreisen und Bezirken in Anlehnung an die NSDAP-Struktur Nach dem Inkrafttreten des Groß-Hamburg-Gesetzes am 1. April 1937 bestand das nunmehr deutlich vergrößerte Staatsgebiet vorübergehend aus fünf Städten (Hamburg, Altona, Harburg-Wilhelmsburg, Wandsbek und Bergedorf), dem bisherigen Hamburger Landgebiet sowie dem neuen "Landkreis Hamburg", der aus 27 ehemals preußischen Gemeinden gebildet wurde. Erst durch die Einführung der Deutschen Gemeindeordnung am 1. April 1938 wurde Hamburg formell zu einer Gemeinde zusammengeschlossen und zugleich die Verwaltung in eine "staatliche" und eine "kommunale" Ebene getrennt. Auf der staatlichen Ebene wurden die städtisch besiedelten Gebiete zu einem "Stadtbezirk" und die ländlichen Vororte zu einem "Landbezirk" nach dem Vorbild der bisherigen Landherrenschaft zusammengefasst. Letzterer unterstand Polizeisenator Alfred Richter als „Landbürgermeister“ und umfasste neben der Hauptverwaltung auch 20 dezentrale Dienststellen. Bezirksreform 1949. Nach 1945 wurde zunächst die Trennung in Staats- und Gemeindeverwaltung wieder aufgehoben, ebenso die Kreisverwaltungen mit Ausnahme von Harburg und Bergedorf. Am 21. September 1949 beschloss die Hamburgische Bürgerschaft das "Gesetz über die Bezirksverwaltung in der Freien und Hansestadt Hamburg", das am 11. Mai 1951 in Kraft trat und die heutigen sieben Bezirke schuf. Grundlage für die Beratungen war ein dem Senat 1948 vorgelegtes Gutachten "Die Neuordnung der kommunalen Verwaltung der Hansestadt Hamburg" von Oskar Mulert, dem ehemaligen geschäftsführenden Präsidenten des Deutschen Städtetages. Dieses sah ein „sektorales“ Gliederungsprinzip vor, demzufolge jeder Bezirk sowohl Bereiche der verdichteten inneren Stadt als auch weniger verdichtete Außengebiete aufweisen sollte. Den neu geschaffenen Bezirksämtern wurden auch die bestehenden "Ortsämter" und Ortsdienststellen nachgeordnet. Zur Beratung kommunalpolitischer Themen und zur Mitwirkung der Bürger an der Verwaltung wurden in allen Bezirken "Bezirksausschüsse" geschaffen, die 1961 in Bezirksversammlungen umbenannt wurden. Bezirksverwaltungsreform 2006. Bis zum 29. Februar 2008 gliederte sich jeder Bezirk in ein Kerngebiet und ein bis vier Ortsamtsgebiete. Im Zuge der Bezirksverwaltungsreform wurden die Ortsämter und die Ortsausschüsse aufgelöst. Bereits zum 1. Februar 2007 wurden die Bezirksämter einheitlich neu organisiert und die bis dahin vorhandenen Ortsämter (mit den vorstehenden Ortsamtsleitern) und Ortsdienststellen aufgelöst. Die Aufgaben der ehemaligen Ortsämter werden nunmehr durch die Bezirksämter und regionale Kundenzentren wahrgenommen und die ehemaligen Ortsausschüsse durch Regionalausschüsse ersetzt. Weitere Gebiets- und Stadtteiländerungen seit 1949. Die bis 1937 hamburgischen Inseln Neuwerk und Scharhörn mit einem Teil des Wattenmeeres (und der später entstandenen Insel Nigehörn) gingen 1969 wegen eines geplanten, aber nie gebauten Tiefwasserhafens vom Land Niedersachsen wieder an Hamburg. Das Gebiet in der Elbmündung wurde als Stadtteil Neuwerk dem Bezirk Hamburg-Mitte zugeordnet. Mitte der 1970er Jahre gab es zudem im Bezirk Bergedorf (im Stadtteil Altengamme) geringfügige Änderungen durch Korrekturen der Landesgrenzen von Hamburg, Niedersachsen und Schleswig-Holstein im Bereich der Staustufe Geesthacht. Abgesehen von den zeitgleich mit der Bezirksverwaltungsreform 2008 vorgenommenen Änderungen der Stadtteile wurde 1961 der Stadtteil Farmsen in Farmsen-Berne umbenannt und 1970 im Bezirk Hamburg-Mitte der Stadtteil Billwerder Ausschlag aufgehoben und dem Gebiet von Rothenburgsort zugeordnet. Zum 1. Januar 2011 wurden im Bezirk Hamburg-Mitte die Stadtteile Hamm-Nord, Hamm-Mitte und Hamm-Süd zum Stadtteil Hamm zusammengelegt (Ortsteilgliederung 121-127 blieb) und im Bezirk Bergedorf der Stadtteil Neuallermöhe neu geschaffen. Dieser setzt sich aus den Wohngebieten Neuallermöhe-Ost (vorher Gebietsteil des Stadtteils Bergedorf) und Neuallermöhe-West (zuvor Teil von Allermöhe) zusammen. Gleichzeitig wurde die Siedlung Alt-Nettelnburg aus dem Stadtteil Allermöhe nun dem Stadtteil Bergedorf zugeordnet und ein kleines Gelände an der Bahnstrecke vom Stadtteil Billwerder ebenfalls an Bergedorf übertragen. Organe der Bezirksverwaltung. In den Bezirken besteht jeweils ein Bezirksamt, das mit seinen verschiedenen Dezernaten, Fachämtern und Dienstleistungszentren dezentrale und ortsnahe Verwaltungsaufgaben wahrnimmt. Für Bürger wurden im Zuge der Bezirksverwaltungsreform "Kundenzentren" bei den Bezirksämtern (bzw. an Stelle der ehemaligen Ortsämter) für Aufgaben des Einwohnermeldeamtes eingerichtet. Zum Teil noch im Aufbau sind die "Sozialen Dienstleistungszentren" für staatliche Transfer- und Unterstützungsleistungen und die "Zentren für Wirtschaftsförderung, Bauen und Umwelt". Daneben üben die dem Senat unterstehenden Fachbehörden (Ministerien in Flächenländern) und Ämter auch kommunale Aufgaben im gesamten Gebiet der Freien und Hansestadt Hamburg aus. Die Dienstaufsicht (Bezirksaufsichtsbehörde) obliegt dem auch für weitere Angelegenheiten der Bezirksverwaltung zuständigen Amt 6 der Finanzbehörde, das aus dem Senatsamt für Bezirksangelegenheiten hervorgegangen ist. Die Bezirke verfügen jeweils über eine "Bezirksversammlung", die seit 2014 alle fünf Jahre parallel zur Europawahl in direkter Wahl gewählt wird. Die Mitglieder der Bezirksversammlungen werden mitunter auch als „Bezirksabgeordnete“ bezeichnet, obgleich sie keine Abgeordneten sind. An der Spitze der Verwaltung (des "Bezirksamtes") steht der "Bezirksamtsleiter", der von der Bezirksversammlung gewählt wird, jedoch zur Amtsübernahme der Bestätigung durch den Senat bedarf. Die Selbstverwaltungsrechte der Bezirke entsprechen jedoch nicht denen von Gemeinden in anderen Bundesländern. Dies kommt unter anderem darin zum Ausdruck, dass der Bezirksamtsleiter zum Amtsantritt der Bestätigung durch den Senat bedarf und dass Entscheidungen der bezirklichen Instanzen vom Senat außer Kraft gesetzt werden können, indem er die betreffende Angelegenheit per "Evokation" an sich zieht oder fachlich zuständige Senatoren bindende "Einzelweisungen" erlassen. Einzelnachweise. ! Bezirke In Hamburg Hamburg Hamburg Liste der Städte und Gemeinden in Hessen. Gemeinden in Hessen nach Einwohnerzahl Das deutsche Land Hessen besteht aus insgesamt Siehe auch. !Liste der Stadte und Gemeinden in Hessen Hessen Liste der Ortsteile in Niedersachsen. !Liste der Ortsteile Niedersachsen Liste der Städte und Gemeinden in Nordrhein-Westfalen. Gemeinden in Nordrhein-Westfalen nach Einwohnerzahl Das Land Nordrhein-Westfalen besteht aus insgesamt Größte und kleinste Kommunen. Die kleinste Gemeinde des Bundeslandes und auch kleinste Verwaltungseinheit in Nordrhein ist Dahlem (Einwohner) im Kreis Euskirchen, die kleinste Stadt ist Heimbach im Kreis Düren, sie zählt Einwohner. Die kleinste Verwaltungseinheit im westfälischen Landesteil ist die nur unwesentlich größere Stadt Hallenberg (Einwohner) im Hochsauerlandkreis. Kommunalreformen. Für einen Überblick über die Gebietsreform in Nordrhein-Westfalen auf Gemeindeebene siehe Liste aller Gemeinden Nordrhein-Westfalens A–G, H–N, O–Z Kreisfreie Städte. 1 nur eingeschränkt nach Maßgabe des Aachen-Gesetzes. Im Übrigen zu Städteregion Aachen. Kreisangehörige Gemeinden. Das Land Nordrhein-Westfalen gliedert sich in 23 kreisfreie Städte (s.o.) und 373 kreisangehörige Gemeinden mit den Funktionsbezeichnungen Große kreisangehörige Städte. "(mehr als 60.000 Einwohner; Anzahl: 35; 5 davon sind Großstädte)" (*) inzwischen weniger als 60.000 Einwohner Mittlere kreisangehörige Städte. "(mehr als 25.000 bis unter 60.000 Einwohner)" (*) inzwischen weniger als 25.000 Einwohner (**) inzwischen mehr als 60.000 Einwohner Einzelnachweise. !Stadte Und Gemeinden Nordrhein-Westfalen Liste der Städte und Gemeinden in Rheinland-Pfalz. Die rheinland-pfälzischen Gemeinden bis zur Gliederungsebene Ortsgemeinde Das deutsche Bundesland Rheinland-Pfalz besteht aus insgesamt 94 Städte und 2.169 Ortsgemeinden gehören 149 Verbandsgemeinden an, die für die angehörenden Gemeinden die Verwaltungsgeschäfte übernehmen. Die Kommunen gehörten bis zum 1. Januar 2000 den Regierungsbezirken Koblenz, Trier und Rheinhessen-Pfalz an. Siehe auch. Rheinland-Pfalz Liste der Ortsteile im Saarland. Nicht selbständige Stadt- und Gemeindeteile des deutschen Bundeslandes Saarland "Die Liste ist systematisch überprüft und dürfte vollständig sein" Weblinks. Saarland Liste der Städte und Gemeinden in Sachsen. Das deutsche Bundesland Freistaat Sachsen besteht aus insgesamt 429 politisch selbständigen Städten und Gemeinden (Stand: 1. August 2015). 51 Städte und 119 Gemeinden haben sich zur Erledigung ihrer Verwaltungsgeschäfte in 70 Verwaltungsgemeinschaften und 21 Gemeinden in 6 Verwaltungsverbänden eingebunden. Siehe auch. !Liste der Stadte und Gemeinden in Sachsen Sachsen Liste der Städte und Gemeinden in Sachsen-Anhalt. Gliederung des Landes Sachsen-Anhalt in Kommunen, Kommunalverbände und Landkreise Gemeinden in Sachsen-Anhalt nach Einwohnerzahl Das deutsche Land Sachsen-Anhalt besteht aus insgesamt Einzelnachweise. Sachsen-Anhalt Liste der Städte und Gemeinden in Schleswig-Holstein. Kommunale Gliederung des Landes Schleswig-Holstein (Stand 1. März 2013) Gemeinden in Schleswig-Holstein nach Einwohnerzahl Das deutsche Bundesland Schleswig-Holstein besteht aus insgesamt 12 Städte und 1014 Gemeinden haben sich zur Erledigung ihrer Verwaltungsgeschäfte in 85 Ämtern zusammengeschlossen. Zwei Ämter sind davon kreisübergreifend: Amt Großer Plöner See (seit dem 1. Januar 2007) und Amt Itzstedt (seit dem 1. Januar 2008). Des Weiteren bestehen in Schleswig-Holstein zwei unbewohnte Forstgutsbezirke (gemeindefreie Gebiete): Buchholz und Sachsenwald. Siehe auch. Schleswig-Holstein Liste der Städte und Gemeinden in Thüringen. Gliederung Thüringens in Kommunen, Kommunalverbände und Landkreise (Stand 31. Dezember 2013) Gemeinden in Thüringen nach Einwohnerzahl Das deutsche Bundesland Thüringen besteht aus insgesamt 601 Städte und Gemeinden haben sich zur Erledigung ihrer Verwaltungsgeschäfte in 69 Verwaltungsgemeinschaften zusammengeschlossen. Eine Besonderheit in Thüringen sind erfüllende Gemeinden. 39 Städte und Gemeinden, die keiner Verwaltungsgemeinschaft angehören, sind erfüllende Gemeinden für 98 weitere Gemeinden. 13 der Städte und Gemeinden werden als Landgemeinden bezeichnet. Sie sind allerdings gleichzeitig Städte bzw. Gemeinden. Siehe auch. Thuringen Liste der Stadte und Gemeinden in Thuringen Liste der Verwaltungsebenen in Bremerhaven. Die Liste der Verwaltungsebenen in Bremerhaven gibt die aktuelle Einteilung der Verwaltung in der Stadtgemeinde Bremerhaven wieder mit Stadtbezirke. "Die Sortierung der Stadtbezirke erfolgt gemäß ihren Schlüsselnummern." Stadtteile. "Die Sortierung der Stadtteile erfolgt gemäß ihren Schlüsselnummern. Diese sind offiziell vierstellig, aber die vierte Stelle ist tatsächlich immer die Null. Die Schlüsselnummern sind hierarchisch aufgebaut: Die erste Stelle bezeichnet den Stadtbezirk, die zweite Stelle den Stadtteil und die dritte Stelle den Ortsteil." Einzelnachweise. ! Bremerhaven Bremerhaven Objektdatenbank. Eine Objektdatenbank oder objektorientierte Datenbank ist eine Datenbank, die auf dem Objektdatenbankmodell basiert. Im Unterschied zur relationalen Datenbank werden Daten hier als Objekte im Sinne der Objektorientierung verwaltet. Das zugehörige Datenbankmanagementsystem wird als das objektorientierte Datenbankmanagementsystem bezeichnet. Objektdatenbank und Objektdatenbankmanagementsystem bilden gemeinsam das Objektdatenbanksystem. Ein Objekt modelliert normalerweise einen Gegenstand oder Begriff und enthält insbesondere dazugehörige Attribute; so gehört zum Beispiel die Farbe und das Gewicht eines Autos zu dem Objekt Auto. Attribute beschreiben ein Objekt näher. Daten und Methoden (die Funktionen zum Zugriff auf die Daten) werden in den Objekten zusammen abgelegt. Objektdatenbankmanagementsystem. Neben diesen Eigenschaften gibt es eine Reihe optionaler Anforderungen, die hier nicht im Einzelnen dargestellt sind. Sie wurden auf der Konferenz DOOD’98 festgelegt. Als Abfragesprache wurde von der ODMG die Sprache Object Query Language (OQL) standardisiert. Als Datenmanipulationssprache wird Object Definition Language (ODL) verwendet. Vorteile. Objektdatenbanksysteme schließen eine Lücke, die bei der Programmierung moderner Datenbankanwendungen entsteht, wenn die Anwendung in einer objektorientierten Programmiersprache entwickelt wurde, die Datenbank jedoch ein klassisches relationales Datenbanksystem ist. Beide Konzepte widersprechen sich in einigen wichtigen Punkten. Dieses Problem wird allgemein als der „object-relational impedance mismatch“ bezeichnet. Als Lösung für das Problem werden sogenannte objektrelationale Abbildungen verwendet. Dies sind Softwarekomponenten, die zwischen einer relationalen Datenbank und einer objektorientierten Software vermitteln. Durch die Verwendung eines Objektdatenbanksystems wird diese Vermittlung überflüssig. Die Anwendung kann direkt mit der Datenbank kommunizieren. Das Zusammensetzen komplexer Datenobjekte mittels Joins über mehrere Datenbanktabellen entfällt. Objekte können einfach über die in der Datenbank gespeicherten Beziehungen abgefragt werden. Weiterhin hilft ein ODBMS beim Zugriff auf Daten. Da Objekte eine komplexe Struktur haben können, sind semantische Zusammenhänge zwischen Objekten dem Datenbanksystem bekannt. Das Datenbanksystem hat also ein Verständnis davon, welche Daten zusammengehören. Dieses Wissen kann bei der Abfrage der Daten mittels einer Abfragesprache wie OQL verwendet werden. Im Gegensatz zu relationalen Datenbanksystemen ist das Ergebnis einer Anfrage nicht eine Menge von Datensätzen. OQL erlaubt die Abfrage einzelner Objekte. Außerdem wird das Problem der Objektidentität gelöst. Während bei relationalen Datenbanken der Datenbankentwickler oft einen künstlich erzeugten Schlüssel (Surrogate Key) zu seinen Daten hinzufügen muss, wird dies von einem ODBMS automatisch in Form eines OIDs gemacht. Die Verwaltung dieser IDs wird dabei vollständig vom System übernommen. Nachteile. Objektdatenbanken haben bis heute nur eine geringe Verbreitung. Entsprechend sind viele Schnittstellen und Tools wie JDBC/ODBC, ETL oder OLAP für den Einsatz mit einem ODBMS nicht vorbereitet. Bei bestimmten Anfragen sind Objektdatenbanken noch immer im Nachteil gegenüber relationalen Datenbanken. Dies ist beispielsweise durch Zugriffspfade zu Objekten über mehrere Pfadarten (bspw. Vererbung und Assoziation) verursacht. Dies führt bei Schreiboperationen in der Sperrverwaltung zu einer exponentiellen Komplexität und somit zu Performanceproblemen. Die Leistungsprobleme wurden in den objektrelationalen Datenbanken aufgegriffen, in denen nur die Konstrukte aus objektorientierten Datenbanken mit niedrigerer Komplexität (bspw. formula_1) übernommen wurden. Geschichte. Objektdatenbanken wurden Ende der 1980er Jahre entwickelt. Somit gehören sie zu den vergleichsweise neuen Datenbankkonzepten. Bis heute spielen sie auf dem Datenbankmarkt, der von den relationalen Datenbanksystemen dominiert wird, eine eher geringe Rolle. Dennoch sind seit 2004 mehrere Objektdatenbanksysteme wie zum Beispiel db4o entwickelt worden, die zum Teil als Open Source verfügbar sind. Onkologie. Als Onkologie ("onkos" ‚Anschwellung‘ und -logie) bezeichnet man die Wissenschaft, die sich mit Krebs befasst. Im engeren Sinne ist die Onkologie der Zweig der inneren Medizin, der sich der Prävention, Diagnostik, konservativen Therapie und Nachsorge von malignen Erkrankungen widmet. Prävention. Wesentlicher Teil jeglicher Prävention ist die Forschung über die Krebsentstehung. Daraus können sich neue Wege in der Krebsprävention, Diagnostik und Therapie ergeben. Das internationale Netzwerk baut in Deutschland auf das Deutsche Krebsforschungszentrum (DKFZ) in Heidelberg. Diagnostik. Ergibt oder erhärtet sich der Krebsverdacht, versucht man meist, eine definitive Diagnose anhand der histologischen oder zytologischen Untersuchung einer Gewebeprobe aus dem verdächtigen Bereich zu erzielen. Gleichzeitig wird mittels weiterer Diagnosemethoden das Stadium der Erkrankung bestimmt. Wegen der oft schlechten Prognose bösartiger Erkrankungen einerseits und der Risiken und Nebenwirkungen der Behandlung andererseits ist dieser Schritt besonders wichtig und rechtfertigt viel Aufwand, bis hin zu explorativen Operationen einschließlich Probeexzision. Therapie. Die Therapien der Onkologie zielen entweder auf die Entfernung oder Zerstörung des gesamten Tumorgewebes (kurative Therapie) oder, wenn dies nicht mehr möglich ist, auf die Verkleinerung des Tumorgewebes mit dem Ziel, die Lebenszeit zu verlängern und tumorbedingte Beschwerden zu reduzieren (Palliation). Für verschiedene Tumore haben sich spezielle Therapieschemata etabliert, die in großen internationalen Untersuchungen laufend optimiert werden (Therapieoptimierungsstudien). Ausgehend vom festgestellten Stadium werden mit dem Patienten mögliche Therapieoptionen erörtert. Hierbei spielen der körperliche Allgemeinzustand und die Begleiterkrankungen eine wesentliche Rolle. Die nach aktuellem Stand der Wissenschaft erfolgversprechende Therapieform wird dem Patienten vorgeschlagen. Möglichkeiten sind die einmalige oder mehrmalige Chemotherapie oder Bestrahlung oder eine Operation zur Entfernung des Tumorgewebes. Verschiedene Chemotherapeutika können kombiniert werden. Die Kombination aller drei Methoden ist ebenfalls möglich. Bösartige Tumoren stellen insbesondere bei fortgeschrittenen Erkrankungen die heutige Medizin immer noch vor erhebliche Probleme. Langzeiteffekte. Während man sich in der Onkologie lange Zeit mit der Verbesserung der Überlebensraten beschäftigte, konnten hier nun so große Fortschritte gemacht werden, dass nun vor allem auch die Langzeitfolgen der onkologischen Therapien untersucht werden. Sowohl die Chemotherapie als auch die Strahlentherapie hinterlässt Spuren im Körper, die noch nach vielen Jahren oder Jahrzehnten zu Folgeerkrankungen führen können. Eine Studie beschäftigte sich zum Beispiel mit Erkrankungen von Erwachsenen, die sich in ihrer Kindheit einer onkologischen Therapie unterzogen.Melissa M. Hudson: "Clinical Ascertainment of Health Outcomes Among Adults Treated for Childhood Cancer." In: "JAMA." 309, 2013, S. 2371. Hier zeigte sich, dass fast alle betroffenen mindestens an einer chronischen Krankheit leiden. Im Alter von 50 Jahren standen Kardiomyopathie, Herzklappenfehler, Lungenprobleme, Funktionsstörungen der Hypophyse und Schwerhörigkeit bzw. Taubheit im Vordergrund. Bei einem Drittel besteht Unfruchtbarkeit. Trotz verbesserter Therapien sollte auch heute noch auf eine Langzeitbetreuung ehemaliger onkologischer Patienten geachtet werden um Erkrankungen früh erkennen und therapieren zu können. Onkologische Forschung. Die Fortschritte in der Krebsforschung haben dazu beigetragen, neue wirkungsvollere Therapien gegen Krebs zu entwickeln und Behandlungsansätze zu optimieren. So konnten Überlebenschancen und Lebensqualität Krebskranker in den vergangenen Jahren stetig verbessert werden. Die Forschungsförderung durch private Organisationen hat dabei große Bedeutung. Organische Chemie. a>formel von Kekulé, dargestellt auf einer Briefmarke aus dem Jahre 1964 Die organische Chemie (kurz: OC), häufig auch kurz Organik, ist ein Teilgebiet der Chemie, in dem die chemischen Verbindungen behandelt werden, die auf Kohlenstoff basieren, mit Ausnahme einiger anorganischer Kohlenstoffverbindungen (Zusammenstellung der Ausnahmen unten) und des elementaren (reinen) Kohlenstoffs. Die große Bindungsfähigkeit des Kohlenstoffatoms ermöglicht eine Vielzahl von unterschiedlichen Bindungen zu anderen Atomen. Während viele anorganische Stoffe durch Temperatureinfluss und katalytische Reagenzien nicht verändert werden, finden organische Reaktionen oft bei Raumtemperatur oder leicht erhöhter Temperatur mit katalytischen Mengen an Reagenzien statt. Auch die Entstehung der Vielzahl der Naturstoffe (pflanzliche, tierische Farbstoffe, Zucker, Fette, Proteine, Nukleinsäuren) und letztlich der bekannten Lebewesen basiert auf dieser Bindungsfähigkeit. Organische Moleküle enthalten als Elemente neben Kohlenstoff häufig Wasserstoff, Sauerstoff, Stickstoff, Halogene; die chemische Struktur und die funktionellen Gruppen sind die Grundlage für die Verschiedenartigkeit der Einzelmoleküle. In der organischen Analytik erfolgt zunächst aus einem Gemisch von Stoffen eine physikalische Trennung und Charakterisierung (Schmelzpunkt, Siedepunkt, Brechungsindex) von Einzelstoffen, dann werden die elementare Zusammensetzung (Elementaranalyse), Molekülmasse und funktionellen Gruppen (mit Hilfe von chemischen Reagenzien, NMR-, IR- und UV-Spektroskopie) bestimmt. Außerdem untersuchen organische Chemiker die Einwirkung von Reagenzien (Säuren, Basen, anorganischen und organischen Stoffen) auf organische Stoffe, um Gesetzmäßigkeiten von chemischen Reagenzien auf bestimmte funktionelle Gruppen und Stoffgruppen zu bestimmen. Aus der Kenntnis der Vielzahl von Gesetzmäßigkeiten kann ein organischer Chemiker eigenständig Synthesen von organischen Naturstoffen (z. B. Zucker, Peptide, Naturfarbstoffe, Alkaloide, Vitamine) planen oder in der Natur unbekannte organische Stoffe (Kunststoffe, Ionenaustauscher, Arzneistoffe, Pflanzenschutzmittel, Kunstfasern für Kleidungsstücke) synthetisieren, die den Wohlstand einer Gesellschaft erheblich beeinflussen. Die Entwicklungen der organischen Chemie hatten in den letzten 150 Jahren einen bedeutenden Einfluss auf die menschliche Gesundheit, die Ernährung, die Kleidung und auf die Zahl verfügbarer Konsumgüter. Abgrenzung zur anorganischen Chemie. Mit wenigen Ausnahmen umfasst die Organik die Chemie aller Verbindungen, die der Kohlenstoff mit sich selbst und anderen Elementen eingeht. Dazu gehören auch alle Bausteine des derzeit bekannten Lebens. Im Jahre 2012 waren etwa 40 Millionen organische Verbindungen bekannt. Ausnahmen sind formal zunächst die elementaren Formen des Kohlenstoffs (Graphit, Diamant) und systematisch alle zur anorganischen Chemie zählenden wasserstofffreien Chalkogenide des Kohlenstoffs (Kohlenstoffmonoxid, Kohlenstoffdioxid, Schwefelkohlenstoff), die Kohlensäure und Carbonate, die Carbide sowie die ionischen Cyanide, Cyanate und Thiocyanate (siehe Kohlenstoff-Verbindungen). Die Blausäure gehört zum Grenzgebiet der anorganischen und organischen Chemie. Obwohl man sie traditionell zur anorganischen Chemie zählen würde, wird sie als Nitril (organische Stoffgruppe) der Ameisensäure aufgefasst. Die Cyanide werden in der Anorganik behandelt, wobei hier nur die Salze der Blausäure gemeint sind, wohingegen die unter selbigem Namen bekannten Ester als Nitrile zur Organik gehören. Auch die Cyansauerstoffsäuren, Thiocyansäuren und deren Ester gelten als Grenzfälle. Weiter ist die metallorganische Chemie (Metallorganyle) nicht konkret der organischen oder anorganischen Chemie zuzuordnen. Auch völlig unnatürlich wirkende Stoffe, wie Kunststoffe und Erdöl, zählen zu den organischen Verbindungen, da sie wie die Substanzen von Lebensformen aus Kohlenstoffverbindungen bestehen. Erdöl, Erdgas und Kohle, die Ausgangsstoffe für viele synthetische Produkte, sind letztlich organischen Ursprungs. Alle Lebewesen enthalten organische Stoffe: Aminosäuren, Proteine, Kohlenhydrate und die DNA. Das Teilgebiet der organischen Chemie, das sich mit den Stoffen und Stoffwechselprozessen in Lebewesen befasst, ist die Biochemie (oder auch Molekularbiologie). Allgemeines. Die Sonderstellung des Kohlenstoffs beruht darauf, dass das Kohlenstoffatom vier Bindungselektronen hat, wodurch es unpolare Bindungen mit ein bis vier weiteren Kohlenstoffatomen eingehen kann. Dadurch können lineare oder verzweigte Kohlenstoffketten sowie Kohlenstoffringe entstehen, die an den nicht mit Kohlenstoff besetzten Bindungselektronen mit Wasserstoff und anderen Elementen (vorwiegend Sauerstoff, Stickstoff, Schwefel, Phosphor) verbunden sind, was zu großen und sehr großen Molekülen (z. B. Homo- und Heteropolymere) führen kann und die riesige Vielfalt an organischen Molekülen erklärt. Von dem ebenfalls vierbindigen Silicium gibt es auch eine große Anzahl Verbindungen, aber bei Weitem keine solche Vielfalt. Die Eigenschaften organischer Substanzen werden sehr stark von ihrer jeweiligen Molekülstruktur bestimmt. Selbst die Eigenschaften von einfachen organischen Salzen wie den Acetaten werden deutlich von der Molekülform des organischen Teils geprägt. Es gibt auch viele Isomere, das sind Verbindungen mit der gleichen Gesamtzusammensetzung (Summenformel), aber unterschiedlicher Struktur (Strukturformel). Dagegen bestehen die Moleküle in der anorganischen Chemie meist nur aus einigen wenigen Atomen, bei denen die allgemeinen Eigenschaften von Festkörpern, Kristallen und/oder Ionen zum Tragen kommen. Es gibt aber auch Polymere, die keinen Kohlenstoff enthalten (oder nur in Nebengruppen), z. B. die Silane. Organische Synthesestrategien unterscheiden sich von Synthesen in der anorganischen Chemie, da organische Moleküle meist Stück für Stück aufgebaut werden können. Etwa 60 % der Chemiker in Deutschland und den USA haben als Schwerpunktfach die organische Chemie gewählt. Geschichte. Viele organische Naturstoffe wurden schon in der Frühzeit der menschlichen Entwicklung genutzt (die Farbstoffe Indigo, Alizarin, die ätherischen Öle, Weingeist). Eine künstliche Darstellung von organischen Stoffen durch Menschenhand ist jedoch in sehr früher Zeit nicht beschrieben worden. Johann Rudolph Glauber beschrieb in seinen Werken eine Vielzahl von selbst dargestellten organischen Verbindungen, da jedoch die Elementaranalyse noch nicht entwickelt war, kann nur vermutet werden, welche Stoffe er damals erhalten hatte. Weingeist und Essig reinigte Glauber über eine fraktionierte Destillation, Ethylchlorid erhielt er aus Weingeist, Essigsäure aus der Holzdestillation, Aceton aus der Erhitzung von Zinkazetat, Acrolein entstand bei der Destillation von Rüb-, Nuss- und Hanföl, Benzol aus Steinkohle, Alkaloide fand er durch eine Salpetersäure-Trennung. Lemery schrieb 1675 das Buch "Cours de Chymie". In diesem Werk wurden die Stoffe in drei Gebiete eingeteilt: Mineralreich (Metalle, Wasser, Luft, Kochsalz, Gips), Pflanzenreich (Zucker, Stärke, Harze, Wachs, Pflanzenfarbstoffe), Tierreich (Fette, Eiweiße, Hornsubstanzen). Lemery unterschied auch die Stoffe des Pflanzen- und Tierreiches als organische Stoffe im Gegensatz zu den Stoffen der unbelebten Natur des Mineralreiches. Bereits im 18. Jahrhundert war eine beträchtliche Zahl von "organischen Substanzen" als Reinstoff isoliert worden. Beispiele sind der Harnstoff (1773 von Hilaire Rouelle) und viele Säuren, wie die von Ameisen erhaltene Ameisensäure (1749 von Andreas Sigismund Marggraf), die Äpfelsäure aus Äpfeln, und die aus dem Weinstein gewonnene Weinsäure (1769), die Citronensäure (1784), das Glycerin (1783), die Oxalsäure, die Harnsäure (von Carl Wilhelm Scheele). Antoine Laurent de Lavoisier bestimmte erstmals qualitativ die in organischen Stoffen enthaltenen chemischen Elemente: Kohlenstoff, Wasserstoff, Sauerstoff, Stickstoff. Joseph Louis Gay-Lussac und Louis Jacques Thenard führten erste Elementaranalysen zur Ermittlung der quantitativen Zusammensetzung von Elementen in organischen Stoffen aus. Die Elementaranalyse wurde 1831 von Justus von Liebig verbessert. Nun konnte die elementare Zusammensetzung von organischen Stoffen schnell bestimmt werden. Jöns Jakob Berzelius stellte die These auf, dass organische Stoffe nur durch eine besondere "Lebenskraft" im pflanzlichen, tierischen oder menschlichen Organismus geschaffen werden kann. Berzelius wendete auch das Gesetz der multiplen Proportionen – mit dem er im Bereich der anorganischen Verbindungen Atomgewichte und Zusammensetzung, d. h. deren chemische Formeln, bestimmen konnte auch auf organische Verbindungen an. Die Struktur und Zusammensetzung von organischen Verbindungen war um 1820 noch sehr ungeklärt. Gay-Lussac glaubte, dass das Ethanol eine Verbindung aus einem Teil Ethen und einem Teil Wasser sei. Weiterhin glaubten die Chemiker damals, dass bei gleicher qualitativer und quantitativer Zusammensetzung (Summenformel) der Elemente einer Verbindung (Elementaranalyse) die Stoffe auch identisch sein müssen. Erste Zweifel traten im Jahr 1823 auf als Justus von Liebig und Friedrich Wöhler das knallsaure Silber sowie das cyansaure Silber untersuchten. Sie fanden bei gleicher chemischer Zusammensetzung sehr unterschiedliche Stoffe. Im Jahr 1828 erhitzte Friedrich Wöhler Ammoniumcyanat und erhielt einen ganz andersartigen Stoff, den Harnstoff. Ausgangsprodukt und Endprodukt haben die gleiche chemische Summenformel (Isomerie), sie besitzen jedoch sehr unterschiedliche Eigenschaften: das Ammoniumcyanat ist eine anorganische Verbindung, der Harnstoff ist eine organische Verbindung. Damit war die Hypothese von Berzelius, dass organische Verbindungen nur durch eine besondere "Lebenskraft" entstehen können, widerlegt. Hermann Kolbe formulierte 1859 die These, dass alle organischen Stoffe Abkömmlinge der anorganischen Stoffe – insbesondere des Kohlenstoffdioxids – sind. So ergibt der Ersatz einer Hydroxygruppe durch Alkylreste oder Wasserstoff Carbonsäuren, der Ersatz zweier Hydroxygruppen durch Alkylgruppen oder Wasserstoff die Aldehyde, Ketone. Kolbe gebrauchte auch das Wort Synthese im Zusammenhang mit der künstlichen Darstellung von organischen Naturstoffen. Chemiker konnten bald durch eigene Forschungen neue organische Moleküle synthetisieren. In Analogie zu positiv und negativ geladenen Ionen in der anorganischen Chemie vermutete Berzelius sogenannte Radikale in der organischen Chemie; darauf basierte seine Radikaltheorie. Ein Radikalteil des organischen Moleküls sollte eine positive, der andere Teil eine negative Ladung besitzen. Einige Jahre später untersuchten Jean Baptiste Dumas, Auguste Laurent, Charles Gerhardt und Justus von Liebig die Substitution bei organischen Verbindungen. Die Wasserstoffatome in organischen Verbindungen wurden durch Halogenatome ersetzt. Die alte Radikaltheorie von Berzelius, nach der sich positiv und negativ geladene Radikalteile in organischen Molekülen zusammenlagern, musste verworfen werden. In der Folge wurde von August Wilhelm von Hofmann, Hermann Kolbe, Edward Frankland, Stanislao Cannizzaro weitere Grundlagen über die Zusammensetzung von organischen Stoffen gefunden. 1857 veröffentlichte Friedrich August Kekulé seine Arbeit "„Über die s. g. gepaarten Verbindungen und die Theorie der mehratomigen Radikale“" in "Liebigs Annalen der Chemie" (Bd. 104, Nr. 2, S. 129 ff.), die als Ausgangspunkt der organischen Strukturchemie gesehen wird. In dieser Arbeit wird der Kohlenstoff erstmals als vierwertig beschrieben. Adolf von Baeyer, Emil Fischer, August Wilhelm von Hofmann erforschten Synthesen von Farbstoffen, Zuckern, Peptiden und Alkaloiden. Ein Großteil der Arbeitszeit der früheren Chemiker lag in der Isolierung eines Reinstoffes. Der Prüfung der Stoffidentität von organischen Stoffen erfolgte über Siedepunkt, Schmelzpunkt, Löslichkeit, Dichte, Geruch, Farbe, Brechungsindex. Besonders wichtig wurde der Rohstoff Kohle für die organische Chemie. Ihren Aufschwung nahm die organische Chemie mit der Untersuchung der bei der Leuchtgaserzeugung entstehenden Abfallprodukte, als der deutsche Chemiker Friedlieb Ferdinand Runge (1795–1867) im Steinkohlenteer die Stoffe Phenol und Anilin entdeckt hatte. William Henry Perkin – ein Schüler August Wilhelm von Hofmann – entdeckte im Jahr 1856 den ersten synthetischen Farbstoff – das Mauvein. Von Hofmann und Emanuel Verguin führten das Fuchsin in die Färberei ein. Johann Peter Grieß entdeckte die Diazofarbstoffe. Die organische Chemie gewann nun zunehmende wirtschaftliche Bedeutung. Grundlagen der organischen Synthese in Schule und Studium. Die organische Chemie ist ein Teilbereich der Wissenschaft (Lehrbücher, Studium), deren Grundlagen im 19. Jahrhundert nur für eine kleine Schicht der Bevölkerung zugänglich war. Durch die Bildungsreformen im 20. Jahrhundert erhalten fast alle Schüler eine Wissensgrundlage in organischer Chemie. Der Chemieunterricht ermöglicht dem Schüler die Teilhabe an kultureller Bildung, fördert das Verständnis für die Einordnung und Zusammenhänge bei Fragen, die chemisch relevant sind. Politiker, Juristen, Betriebswirte, Informatiker, Maschinenbauer benötigen in unserer Kultur Basiskenntnisse in organischer Chemie, um Zusammenhänge besser einordnen zu können. Das geistige Vermögen der forschenden Chemiker und der Chemiker in der chemischen Industrie sorgten in den Industrieländern für ein großes Vermögen mit dauerhaft hohen Zinserträgen. Durch Auslandsinvestitionen und der Vernetzung mit Rohstoffanbietern konnte das gesellschaftliche Vermögen noch gesteigert werden. Als Grundlage in der Naturwissenschaft dient das Experiment. Ein Experiment muss jedoch vor seiner Ausführung gut durchdacht sein. Der Chemiker prüft in der chemischen Fachliteratur, ob ein ähnliches Experiment von anderen Chemikern bereits unternommen wurde, damit überflüssige Arbeit vermieden wird. Für ein Experiment sollten in der Regel sehr reine Stoffe verwendet werden, um eindeutige Ergebnisse bei einem Experiment zu erhalten. Bei einer Stoffumsetzung kann es auch sehr entscheidend sein, ob Lösungsmittel, die sich bei einer Stoffumsetzung chemisch nicht verändern, zugesetzt werden oder nicht. Der Zusatz von anderen Lösungsmitteln kann zu geänderten Stoffumsetzungen führen. Umwandlungen von organischen Stoffen im Labor. In früherer Zeit untersuchten die organischen Chemiker beispielsweise den Einfluss von konzentrierten Säuren (Schwefelsäure, Salpetersäure, Salzsäure) auf organische Stoffe wie Ethanol, Baumwolle, Benzol. Bei der Einwirkung von konzentrierter Schwefelsäure auf Ethanol entsteht ein neuer Stoff, der Diethylether, der ganz andere Eigenschaften als das Ethanol hatte und als Narkosemittel und als neues Lösungsmittel Anwendung gefunden hat. Bei der Einwirkung von Salpetersäure und Schwefelsäure auf Baumwolle entsteht die Schießbaumwolle, die als Explosivstoff, als Weichmacher und Lösemittel von Lacken, als Faser Verwendung fand. Aus Benzol entsteht durch Einwirkung von konzentrierter Schwefelsäure und Salpetersäure das Nitrobenzol. Dieser Stoff ließ sich mit Reduktionsmitteln wie Eisenpulver und Salzsäure zu Anilin umwandeln. Anilin war das Ausgangsprodukt für viele neue Farbstoffe, die den Wohlstand unseres Gemeinwesens erhöhten. Die Einwirkung von konzentrierter Schwefelsäure auf Baumwolle oder Holz ergibt Zuckermoleküle. Ähnlich wie in der anorganischen Chemie benutzten auch organische Chemiker bestimmte Nachweisreagenzien. Für organische Chemiker sind jedoch die funktionellen Gruppen im Molekül von großer Wichtigkeit. Mit Fehlingscher Lösung lassen sich Aldehydgruppen nachweisen. Funktionelle Gruppen können dazu genutzt werden, zwei organische Moleküle mit unterschiedlichen funktionellen Gruppen zu verknüpfen, so dass ein größeres Molekül entsteht. Durch Kenntnis der organischen Reaktionsmechanismen, der Wahl der Reagenzien und dem Einsatz von Schutzgruppen kann ein organischer Chemiker sehr komplexe organische Stoffe herstellen. Heutzutage können Peptide oder Proteine mit mehr als 100 Aminosäuren (mit einer molekularen Masse größer als 10.000) oder Kohlenhydrate sowie Pflanzeninhaltsstoffe (Terpene) synthetisiert werden. Kaum eine organische Reaktion verläuft mit 100 % Ausbeute, häufig ergeben sich auch unerwartete Nebenreaktionen, so dass komplexe Stoffe auf synthetischer Basis nur in geringer Menge (wenigen Milligramm bis mehreren Kilogramm) anfallen. Viele organische Grundstoffe werden in der Industrie bei der Herstellung von Kunststoffen, Farbstoffen, Lösungsmitteln in sehr großen Mengen (1000 bis 1000.000 t) hergestellt. Spezialisierte Firmen verwenden die Industrieprodukte, um Feinchemikalien für Schule und Hochschule herzustellen. Der Organiker wünscht sich bei seinen Synthesen möglichst selektive Reagenzien, die nur eine bestimmte funktionelle Gruppe oxidieren, reduzieren oder mit einer anderen Gruppe verknüpfen. Temperatureinfluss auf organische Reaktionen. Manchmal sind Stoffumsetzungen nur bei einer gesteigerten Temperatur möglich. Hohe Temperaturen werden in der organischen Chemie jedoch nur selten angewendet, da viele organische Stoffe durch eine erhöhte Temperatur zerstört werden. Die Reaktionstemperaturen in der organischen Chemie liegen daher meist zwischen Raumtemperatur und 150 °C. Die Wahl des Lösungsmittels und dessen Siedepunkt sind entscheidend für die Einstellung der Reaktionstemperatur. Eine Temperaturerhöhung um 10 °C verdoppelt in der Regel die Reaktionsgeschwindigkeit (RGT-Regel). Beispiele für organische Reaktionen bei hoher Temperatur sind die Bildung von Aceton aus Calciumacetat und die Darstellung von 2,3-Dimethyl-butadien aus Pinakol. Aus Calciumcarbonat und Essigsäure lässt sich das organische Salz Calciumacetat darstellen. Erhitzt man das Calciumacetat auf ca. 400 °C, so erhält man Aceton. Aceton und etwas Magnesium bilden den organischen Stoff Pinakol. Erhitzt man diesen Stoff bei 450 °C mit Aluminiumoxid, so bildet sich 2,3-Dimethyl-1,3-butadien. Stoffe mit Doppelbindungen lassen sich unter dem Einfluss einer Säure oder von Radikalbildnern polymerisieren, so dass ein Kunststoff mit ganz anderen Eigenschaften als das Monomer entsteht. Das polymerisierte 2,3-Dimethyl-1,3-butadien spielte eine wichtige Rolle als Ersatzstoff des früher sehr teuren Kautschuks. Fritz Hofmann konnte aus dem 2,3-Dimethyl-1,3-butadien den ersten synthetischen Methylkautschuk herstellen, der im Jahr 1913 in den Handel kam, als der Preis für natürlichen Kautschuk im Handel Höchstwerte erreichte. Aufarbeitung nach einer Umsetzung. Nach einer chemischen Umsetzung muss der organische Chemiker zunächst die stark reaktiven, ätzenden, brennbaren Stoffe wie konzentrierte Schwefelsäure, Natrium, Natriumhydrid, Lithiumaluminiumhydrid mit geeigneten Stoffen in harmlose Verbindungen überführen. Darauf folgt eine Abtrennung der anorganischen Salze durch Ausschütteln im Scheidetrichter – unter Zusatz von weiterem organischen Lösungsmittel und einer wässrigen Lösung. Die organische Phase wird über wasserfreien Salzen wie Natriumsulfat getrocknet, dabei werden die letzten Reste von Wasser aus der organischen Phase entfernt. Das organische Lösungsmittel wird durch Destillation – häufig am Rotationsverdampfer – entfernt. Der eingedampfte Rückstand enthält das Reaktionsprodukt. Sehr selten kommt es vor, dass bei einer organischen Reaktion nur ein chemisches Produkt entsteht, vielfach entstehen Stoffmischungen aus unterschiedlichen organischen Stoffen. Durch eine fraktionierte Destillation im Vakuum oder durch eine Säulenchromatographie lassen sich die einzelnen Stoffe isolieren. Chemische Strukturformel und Reaktionsmechanismus. Grundlage der Stoffkenntnis ist die chemische Strukturformel. Dies ist der Bauplan eines organischen Moleküls. Die Strukturformel eines Stoffes muss immer gedanklich aus Ergebnissen der Stoffanalyse abgeleitet werden. Die Stoffanalyse umfasst mindestens den korrekten Kohlenstoff-, Wasserstoff-, Sauerstoff- und Stickstoffgehalt eines Moleküls (Elementaranalyse), die Art der funktionellen Gruppen und die Bestimmung der molaren Masse. Durch den kommerziellen Verkauf von Kernspinresonanzspektroskopen (NMR-Spektroskopie) und Massenspektrometern seit Anfang der sechziger Jahre an Hochschulen verkürzte sich die Zeit bis zur Strukturaufklärung von neuen komplizierten organischen Stoffen erheblich. Aus der Veränderung der Strukturformel vor und nach einer organischen Reaktion kann der Chemiker den Reaktionsmechanismus einer chemischen Reaktion ableiten. Alle organischen Moleküle, die einen ähnlichen Aufbau besitzen, können unter den gleichen Reaktionsbedingungen analoge Reaktionen eingehen. Der Chemiker kann durch die Kenntnis der Reaktionsmechanismen den Aufbau von neuen organischen Stoffen systematisch planen. Eine sehr wichtige Reaktionsklasse bezieht sich auf den Ersatz eines Wasserstoffatoms im Molekül durch ein Halogen, eine Nitrogruppe, eine Sulfongruppe, man bezeichnet diese Reaktion als Substitution. Zu Beginn dieses Abschnittes wurden einige Beispiele aus dieser Reaktionsklasse genannt. Eine weitere wichtige Reaktionsklasse ist die Eliminierung. Die Abspaltung von Hydroxygruppen und Halogenen und der Ausbildung von Doppelbindungen im Molekül bezeichnet man als Eliminierung. Die Wasserabspaltung bei Pinakol zu 2,3-Dimethyl-1,3-butadien ist eine Eliminierung. Andere sehr wichtige Umsetzungen sind die Oxidation und die Reduktion von organischen Molekülen. Die Reduktion von Nitrobenzol zu Anilin durch Zink oder Eisenspäne in Anwesenheit einer Säure oder die Oxidation von Ethanol zu Acetaldehyd oder Essigsäure mittels Kaliumpermanganat sind Beispiele für diese Reaktionsklassen. Bedeutung der organischen Chemie. Geruchs- und Geschmacksstoffe der Erdbeere In fast allen Gütern unseres täglichen Gebrauchs sind Stoffe der organischen Chemie vorhanden. Die Farbstoffe in Bildbänden, Zeitschriften, Verpackungsaufdrucken, die Kunststoffe im Großteil unserer Gebrauchsgüter in fast jedem Spielzeug, im Computergehäuse, in Rohrleitungen, Kabeln, Tragetaschen usw., die organischen Kunstfasern im großen Teil unserer Kleidung, die Lacke für Hausfassaden, Autos, den Wohnbereich, die Reinigungsmittel von einfachen Seifen bis komplexen Tensiden für Spezialanwendungen, die Arzneimittel, die Aroma- und Duftstoffe in Lebensmitteln und Blumen, die Lebensmittelkonservierungsstoffe, die Ionenaustauscher in Entsalzungsanlagen. Auch Holz und Baumwolle sind organische Stoffe, sie können durch ein reiches Vorkommen aus der Natur gewonnen werden. Die Mehrzahl der organischen Stoffe muss jedoch auf synthetischer Basis – hauptsächlich aus Erdöl – von der chemischen Industrie erzeugt werden. Bei einer weltweiten Verknappung von Erdöl könnte man gegenwärtig nur bedingt andere fossile Rohstoffe wie Kohle oder Erdgas nutzen, um die organischen Stoffe des täglichen Bedarfs herzustellen. Ein hoher Preis für Erdöl führt zu Anstrengungen, Substitutionsverfahren auf Basis von Kohle und Erdgas zu entwickeln. Die Verfahren werden jedoch weniger rentabel als auf Basis von Erdöl sein. Bei sehr hohen Preisen für Erdöl könnte es zu Verknappungen im Bereich der Konsumgüter kommen. Grundchemikalien. Basis für alle wichtigen synthetischen Stoffe sind die Grundchemikalien. Sie werden in großen Chemieanlagen aus Erdöl, Erdgas oder Kohle hergestellt. Bis zum Zweiten Weltkrieg war die Kohle die Basis für die Grundchemikalien der organischen Chemie. Aus der Kohle konnte Benzol, Toluol, Xylol – Bausteine für organische Farbstoffe – gewonnen werden. Mit einem elektrischen Lichtbogen kann aus Kohle und Kalk das Kalziumcarbid (großtechnisch seit 1915) gewonnen werden. Kalziumcarbid lässt sich in Acetylen umwandeln und bildete damals nach Verfahren von Walter Reppe (Reppe Chemie) das Ausgangsprodukt für Acetaldehyd, Essigsäure, Aceton, Butylenglckol, Butadien, Acrylsäure, Acrylnitril. Aus Kohle ließ sich auch Methanol (Synthese nach Pier) und Dieselöl (nach Bergius) gewinnen. Auch nach dem Zweiten Weltkrieg wurden viele Grundchemikalien noch aus Kohle hergestellt. Zwischen 1960 bis 1970 wurden die Verfahren in den westlichen Industriestaaten durch modernere Verfahren auf Basis von Erdöl ersetzt. Die Investitionskosten für derartige Anlagen sind beträchtlich, hauptsächlich sind in diesem Geschäftsbereich Firmen der Mineralölindustrie involviert. Früher wurden die chemischen Rohstoffe in die Industrieländer transportiert und dort chemisch zu Grundchemikalien umgewandelt. Noch in den achtziger Jahren waren die USA, Japan und die Bundesrepublik Deutschland die wichtigsten Chemieländer mit mehr als 50 % der Weltproduktion der organischen Grundstoffe. Im Zuge der weltweiten Verflechtungen und aus ökonomischen Gründen werden viele Anlagen in den Rohstoffländern (von Erdöl und Erdgas) errichtet. Sehr wichtige Grundchemikalien sind Ethylen (19,5 Millionen Tonnen in EU-27, 2011), Propen (14,3 Mio. t, EU-27, 2011), Butadien (2,8 Mio. t, EU-27, 2011), Methan, Benzol (7,4 Mio. t, EU-27, 2011), Toluol (1,5 Mio. t., EU-27, 2011), Xylol. Aus diesen Grundchemikalien können weitere wichtige organische Grundstoffe hergestellt werden. Seit 2005 schwanken die Verkaufspreise in der EU für die organischen Grundstoffe erheblich, im Jahr 2010 stiegen die Verkaufspreise in der EU deutlich an. Aus Ethylen gewinnt die Industrie Polyethylen, Vinylacetat (nachfolgend Polyvinylacetat, Polyvinylalkohol, Polyvinylacetal), Acetaldehyd, Essigsäure, Dichlorethan (nachfolgend Polyvinylchlorid), Ethylenoxid, Ethanol (nachfolgend Diethylether). Aus Propylen gewinnen Unternehmen Polypropylen, Isopropanol (nachfolgend Aceton, Keten, Essigsäureanhydrid, Diketen, Essigsäureester, Acetylcellulose), Propylenoxid (nachfolgend Polyetherpolyole, Polyurethan), Allylchlorid (nachfolgend Epichlorhydrin, Glycerin, Allylalkohol), Acrylnitril (nachfolgend Polyacrylnitril, Acrylamid), Acrylsäure (nachfolgend Polyacrylate), Butanol. Aus Methan gewinnt man Methanol (nachfolgend Formaldehyd und Ethylenglycol), Acetylen, Methylchlorid, Methylenchlorid, Chloroform (nachfolgend Tetrafluorethylen, Teflon), Tetrachlorkohlenstoff. Aus Benzol wird Ethylbenzol (nachfolgend Styrol), Dihydroxybenzol (Resorcin, Hydrochinon und Brenzcatechin), Cumol (nachfolgend Phenol), Nitrobenzol (nachfolgend Anilin, Farbstoffe), Cyclohexan (nachfolgend Cyclohexanon, Adipinsäure, Nylon) synthetisiert. Aus Xylol kann Terephthalsäure, Phthalsäureanhydrid hergestellt werden. Industrieprodukte, Spezialprodukte. a>, ein Beispiel für einen Kunststoff. Industrieprodukte sind überwiegend Mischungen von organischen Substanzen, die für eine anwendungstechnische Herstellung zubereitet worden sind. Industrieprodukte werden in sehr großen Mengen (bis mehrere Mio. Tonnen) von der chemischen Industrie hergestellt, bei diesen Produkten sind die Rohstoffkosten sehr entscheidend für den Verkaufspreis. Wichtige organische Industrieprodukte sind: Chemiefasern, Kunststoffe, Farbmittel, Kautschuk, Lösemittel, Tenside. Seit 2009 ist der Umsatz für Kunststoffe deutlich zurückgegangen. Spezialprodukte sind organische Stoffe, die im Vergleich zu Industrieprodukten in deutlich geringerer Menge produziert werden. Der Verkaufspreis ist in geringerer Weise von Rohstoffkosten abhängig. Zu dieser Gruppe gehören beispielsweise Arzneimittel, Aromen und Duftstoffe, Enzyme, Lacke, Desinfektionsmittel, Diagnostika, Ionenaustauscherharze, Klebstoffe, Herbizide, Pflanzenschutzmittel, Waschmittel. Reaktionen. Darüber hinaus sind viele Reaktionen unter dem Namen ihres Entdeckers bekannt (siehe Liste von Namensreaktionen). Eine Einteilung nach dem entstehenden Bindungstyp bzw. Baustein findet sich in der Liste von Reaktionen in der organischen Chemie. Organische analytische Chemie. Die organische analytische Chemie beschäftigt sich mit der Untersuchung von organischen Stoffen. Wichtige Methoden zum Nachweis und zur Reinheitsbestimmung (qualitative Analyse) sind klassische nasschemische Farb- und Niederschlagsreaktionen, biochemische Immunassay-Methoden und eine Vielfalt von chromatographischen Methoden. Mengenverhältnisse in Gemischen (quantitative Analyse) festzustellen ist möglich durch nasschemische Titrationen mit unterschiedlicher Endpunktsanzeige, durch biochemische Immunassayverfahren und durch eine Vielzahl von chromatographischen Verfahren so wie durch spektroskopische Methoden, von denen viele auch zur Strukturaufklärung herangezogen werden, wie Infrarotspektroskopie (IR), Kernspinresonanzspektroskopie (NMR), Ramanspektroskopie, UV-Spektroskopie. Zur Strukturaufklärung werden neben charakteristischen chemischen Reaktionen weiterhin die Röntgenbeugungsanalyse und die Massenspektrometrie (MS) verwendet. Oper. Als Oper (von ital. "opera in musica", „musikalisches Werk“) bezeichnet man seit 1639 eine musikalische Gattung des Theaters. Ferner werden auch das Opernhaus (die Aufführungsstätte oder produzierende Institution) oder die aufführende Kompagnie als "Oper" bezeichnet. Eine Oper besteht aus der Vertonung einer dramatischen Dichtung, die von einem Sängerensemble, einem begleitenden Orchester sowie manchmal von einem Chor und einem Ballettensemble ausgeführt wird. Neben dem Gesang führen die Darsteller Schauspiel und Tanz auf einer Theaterbühne aus, die mit den Mitteln von Malerei, Architektur, Requisite, Beleuchtung und Bühnentechnik gestaltet ist. Die Rollen der Darsteller werden durch Maske und Kostüme optisch verdeutlicht. Als künstlerische Leitung betätigen sich der Dirigent für das Musikalische, der Regisseur für die Personenführung und der Bühnenbildner für die Ausstattung. Im Hintergrund unterstützt sie die Dramaturgie. Abgrenzungen. Die Oper wird mit einigen anderen Formen unter dem Begriff Musiktheater zusammengefasst. Die Grenzen zu verwandten Kunstwerken sind fließend und definieren sich in jeder Epoche, meist auch im Hinblick auf bestimmte nationale Vorlieben, immer wieder neu. Auf diese Art bleibt die Oper als Gattung lebendig und erhält immer wieder neue Anregungen aus den verschiedensten Bereichen des Theaters. Oper und Schauspiel. Die Oper unterscheidet sich von Formen des Sprechtheaters bzw. Schauspiels darin, dass in Letzteren der Musik eine weniger zentrale Gestaltungsrolle zukommt als in der Oper. Grenzformen bestanden schon im Barock mit den Genres der Masque bzw. Ballad Opera. Zwischen Oper und Schauspiel steht beispielsweise das Singspiel. Die Singspiele Mozarts werden der Oper zugerechnet, diejenigen Nestroys gelten als Schauspiele. Auf der Grenze bewegen sich z. B. auch die Werke Weills, dessen "Dreigroschenoper" dem Schauspiel näher steht, während "Aufstieg und Fall der Stadt Mahagonny" eine Oper ist. Sich dem Schauspiel völlig unterordnende Musik bezeichnet man als Schauspielmusik. Eine Oper ist keine durchgehende simultane Untermalung eines Sprechstücks mit Musik wie ein (Melodram), sie kann aber in ihren Musiknummern ein Melodram beinhalten. Das Melodram findet sich zum Beispiel in Mozarts "Idomeneo", Ludwig van Beethovens "Fidelio", in Webers "Der Freischütz" (in der Wolfsschluchtszene) und in Humperdincks "Königskinder". Oper und Ballett. Ein Überschneidungsbereich mit dem Tanztheater bzw. Ballett findet sich zum Beispiel in der Ballettoper des französischen Barock, aber auch in neoklassizistischen Werken des 20. Jahrhunderts, beispielsweise bei Igor Strawinski oder Bohuslav Martinů. Dies sind in der Regel Werke, in denen der Tanz das Ausdrucksgeschehen stärker dominiert als gesungene Passagen. Besonders in der französischen Oper war mindestens eine Ballettszene bis in die Romantik hinein fester Bestandteil einer Oper. Oper und Operette/Musical. Das Genre der Operette und verwandter Formen wie der Zarzuela grenzt sich als Weiterentwicklung aus dem Singspiel durch die gesprochenen Dialoge, aber auch durch dessen vorherrschenden Unterhaltungsanspruch und das vorrangige Bemühen um Popularität oder kommerziellen Erfolg von der ab der Mitte des 19. Jahrhunderts zunehmend durchkomponierten Oper ab. Diese Abgrenzung entstand erst im ausgehenden 19. Jahrhundert: Als die „komische Oper“ vom „niederen“ zum „hohen“ Genre geworden war, bildete sich die Operette als neues „niederes“ Genre. Ähnliches gilt für das Musical, die Weiterentwicklung des populären Musiktheaters in den Vereinigten Staaten. Operette und Musical sind gleichwohl in nicht geringerem Maße Kunstformen wie die Oper. Antike. Bereits im Theater der griechischen Antike verband man szenische Aktion mit Musik. Die Oper der Neuzeit berief sich immer wieder auf dieses Vorbild und konnte es, weil von der Aufführungspraxis wenig überliefert ist, auf unterschiedlichste Weise deuten. Ein Chor, der sang und tanzte, hatte eine tragende Rolle, indem er das Drama in Episoden gliederte oder auch die Aufgabe hatte, die Handlung zu kommentieren. Die Römer pflegten eher die Komödie als die Tragödie. Mimus und später Pantomimus hatten einen hohen Musikanteil. Durch die Zerstörung der römischen Theater im 6. Jahrhundert und die Bücherverluste in der Spätantike sind viele Quellen darüber verloren gegangen. Jedoch werden seit Beginn des 20. Jahrhunderts zahlreiche antike Bauten, insbesondere Amphitheater und Theaterbauten, für Opernaufführungen genutzt. Die bekanntesten sind das Théâtre Antique in Orange (mit Unterbrechungen seit 1869), die Arena di Verona (seit 1913), das Odeon des Herodes Atticus in Athen (seit den 1930er Jahren), die Thermen des Caracalla in Rom (seit 1937) und der Römersteinbruch St. Margarethen (seit 1996). Mittelalter. Im Hochmittelalter entstand ausgehend vom Gottesdienst der Ostermesse eine neue Tradition gesungener Handlung. Das geistliche Spiel fand zunächst in der Kirche, im 13. Jahrhundert dann als Passionsspiel oder Prozessionsspiel außerhalb der Kirche statt. Beliebte Themen waren das biblische Oster- und Weihnachtsgeschehen, auch mit komödiantischen Einlagen. Die Melodien sind oft überliefert, der Einsatz von Musikinstrumenten ist wahrscheinlich, aber selten belegbar. Im höfischen Bereich gab es weltliche Stücke wie Adam de la Halles melodienreiches "Jeu de Robin et de Marion" (1280). Renaissance. Szenenbild für „Orpheus und Amphion“, Düsseldorf 1585 Die Zeit des Karnevals, der später zur traditionellen Opernsaison wurde, bot seit dem 15. Jahrhundert Gelegenheit zu musikalisch-theatralischen Aktionen, die von den damals größten europäischen Städten in Italien ausgingen: Intermedien, Tanzspiele, Masken- und Triumphaufzüge gehören zur städtischen Repräsentation in der italienischen Renaissance. Das Madrigal war die wichtigste Gattung der Vokalmusik und verband sich oft mit Tänzen. Der Königshof in Frankreich gewann im 16. Jahrhundert gegenüber Italien an Bedeutung. Das "Ballet comique de la reine" 1581 war eine getanzte und gesungene Handlung und gilt als bedeutender Vorläufer der Oper. Ein früher Versuch in Deutschland, eine dramatische Handlung mit singenden Protagonisten in einem Bühnenbild aufzuführen, ist die Aufführung von "Orpheus und Amphion" auf einer Simultanbühne anlässlich der "Jülichschen Hochzeit" von Johann Wilhelm von Jülich-Kleve-Berg mit Markgräfin Jakobe von Baden in Düsseldorf 1585. Als möglicher Komponist der nicht überlieferten Musik wird Andrea Gabrieli genannt. Die Musik sei so schön gewesen, "„daß es denselben / so dazumahl nit zugegen gewesen / und solchen Musicum concentum & Symphoniam gehört haben / onmüglich zu glauben.“" Die Handlung war freilich primär eine Allegorese im Sinne eines Fürstenspiegels. Florentiner Camerata. Die Oper im heutigen Sinn entstand Ende des 16. Jahrhunderts in Florenz. Eine wichtige Rolle in der Entstehungsgeschichte spielte die Florentiner Camerata, ein akademischer Gesprächskreis, in dem sich Dichter (z. B. Ottavio Rinuccini), Musiker, Philosophen, Adelige und ein Kunstmäzen – zunächst übernahm Graf Bardi diese Rolle, später Graf Corsi – zusammenfanden. Diese Humanisten versuchten, das antike Drama wiederzubeleben, an dem ihrer Meinung nach Gesangssolisten, Chor und Orchester beteiligt waren. Nach den Pastoraldramen des 16. Jahrhunderts wurde das Libretto gestaltet und mit den musikalischen Mitteln der Zeit in Musik gesetzt. Vincenzo Galilei gehörte dieser Gruppe an. Er entdeckte Hymnen des Mesomedes, die heute verloren sind, und schrieb ein Traktat gegen die niederländische Polyphonie. Dies war ein deutlicher Beweis für den gewünschten musikalischen Stil, den damals neuen Sologesang mit Instrumentalbegleitung. Textverständlichkeit der Vokalmusik war für die Florentiner Camerata das Wichtigste. Eine klare, einfache Gesangslinie wurde zum Ideal erklärt, der sich die sparsame Generalbass-Begleitung mit wenigen und leisen Instrumenten wie Laute oder Cembalo unterzuordnen hatte. Großartig ausgearbeitete melodische Einfälle waren unerwünscht, um den Inhalt der Worte nicht durch den Gesang zu verschleiern. Man sprach sogar von einer "„nobile sprezzatura del canto“" (Giulio Caccini: "Le nuove musiche", 1601), einer „noblen Verachtung des Gesangs“. Diese Art des Singens nannte man "recitar cantando", rezitierenden Gesang. Die Schlichtheit und Beschränkung des "recitar cantando" steht im Gegensatz zur vorherrschenden Polyphonie mit ihren komplexen Ton- und Textschichtungen. Mit der Monodie, wie man diesen neuen Stil in Anlehnung an die Antike nannte, sollte das Wort wieder zu seinem vollen Recht kommen. Es entwickelte sich eine Theorie der Affekte, die durch den gesungen Text transportiert werden konnten. Zur Monodie der einzelnen Gesangsstimme gesellten sich Chöre in Madrigalform oder als Motette. Das Orchester spielte dazwischen Ritornelle und Tänze. Als erstes Werk der Gattung Oper gilt "La Dafne" von Jacopo Peri (1597) mit einem Text von Ottavio Rinuccini, von der bis auf ein paar Fragmente nichts erhalten geblieben ist. Weitere wichtige Werke aus der Anfangszeit sind Peris "Euridice" (1600) als älteste erhaltene Oper, sowie "Euridice" (1602) und "Il Rapimento di Cefalo" von Giulio Caccini. Stoffe dieser frühen Opern entnahm man der Schäferdichtung und vor allem der griechischen Mythologie. Wunder, Zauber und Überraschungen, dargestellt durch aufwendige Bühnenmaschinerie, wurden zu beliebten Bestandteilen. Monteverdi. Besondere Beachtung fand Claudio Monteverdis erste Oper "L’Orfeo" (1607). Sie wurde anlässlich des Geburtstags von Francesco IV. Gonzaga am 24. Februar 1607 in Mantua uraufgeführt. Hier sind im Vergleich zu seinen Vorgängern erstmals ein reicheres Instrumentarium (wenngleich es in der Partitur meist nur angedeutet ist), ausgebaute Harmonik, tonmalerisch-psychologische und bildhafte Ausdeutung von Worten und Figuren sowie eine die Personen charakterisierende Instrumentation zu hören. Posaunen werden zum Beispiel für die Unterwelt- und Todesszenen eingesetzt, Streicher bei Schlafszenen, für die Hauptfigur Orfeo kommt eine Holzorgel zum Einsatz. Monteverdi erweitert die Gesangslinie des "recitar cantando" zu einem mehr arienhaften Stil, und gibt den Chören größeres Gewicht. Seine Spätwerke "Il ritorno d’Ulisse in patria" (1640) und "L’incoronazione di Poppea" (1643) sind in Hinblick auf ihre Dramatik Höhepunkte der Operngeschichte. Noch in dieser letzten Oper Monteverdis, "L’incoronazione di Poppea", findet man den Prolog durch drei allegorische Figuren dargestellt, in der Fortuna die "Virtù" (Tugend) verspottet. Die übrige Handlung spielt in der irdischen Welt um den römischen Kaiser Nero, dessen ungeliebte Gattin Ottavia und Poppea, die Gattin des Prätors Ottone. Diese wird Neros Gattin und Kaiserin. Neros brutaler Charakter wird von einem Kastraten und entsprechend virtuoser Musik dargestellt, Ottone wirkt dagegen weich, und Neros würdiger Lehrer und Berater Seneca bekommt die Bassstimme zugewiesen. Belcanto-Gesang und Koloraturreichtum werden für den Adel und für Göttergestalten eingesetzt, für die übrigen Personen schlichtere Ariosi und Lieder. Italien. Das Teatro San Cassiano in Venedig als erstes öffentliches Opernhaus wurde 1637 eröffnet. In schneller Folge entstanden neue Spielstätten, und Venedig wurde mit seiner „venezianischen Oper“ zum Opernzentrum Norditaliens. Historische Darstellungen verdrängten bald die mythischen Stoffe, wie in der Oper "L’incoronazione di Poppea" (1642), die noch den Namen Claudio Monteverdis trägt, wobei die Forschung seit Alan Curtis darüber diskutiert, ob es sich vielmehr um ein Pasticcio handle, das sich den berühmten Namen zu Nutze machte. Das Publikum dieser Opern setzte sich vornehmlich aus Angehörigen der nichtadeligen Stände zusammen. Den Spielplan bestimmte der geldgebende Adel auf Grund des Publikumsgeschmacks. Die aus den Akademien hervorgegangene Oper wurde in diesem Zusammenhang kommerzialisiert und vereinfacht, das Orchester reduziert. Die Da-capo-Arie mit vorangestelltem Rezitativ prägte für lange Zeit den Sologesang, Chöre und Ensembles wurden gekürzt. Verwechslungen und Intrigen bildeten das Grundgerüst der Handlungen, die mit komischen Szenen der beliebten Nebenfiguren angereichert wurden. Francesco Cavalli und Antonio Cesti waren die bekanntesten venezianischen Opernkomponisten in der auf Monteverdi folgenden Generation. Die Schriftsteller Giovanni Francesco Busenello und Giovanni Faustini galten als stilbildend und wurden häufig nachgeahmt. Zum zweiten, stärker vom Geschmack der Aristokratie geprägten Opernzentrum Italiens wurde seit den 1650er Jahren die Großstadt Neapel. Als Begründer der neapolitanischen Oper gilt der Komponist Francesco Provenzale. In der folgenden Generation wurde Alessandro Scarlatti zum Vorreiter der neapolitanischen Schule. Die Librettisten erhielten ihr Geld durch den Verkauf von Textbüchern, die zusammen mit Wachskerzen zum Mitlesen vor der Vorstellung verteilt wurden. Lange Zeit blieb die Literatur des Renaissance-Humanismus Vorbild der italienischen Operntexte. Opern wurden nur zu bestimmten Spielzeiten (ital.: "stagione") gegeben: während des Karnevals, von Ostern bis zur Sommerpause sowie vom Herbst bis zum Advent. In der Passions- und Adventszeit wurden stattdessen Oratorien gespielt. In Rom erhielten nicht nur Maschineneffekte und Chöre ein größeres Gewicht, sondern auch geistliche Stoffe. Paris. In Paris entwickelte Jean-Baptiste Lully zusammen mit seinem Librettisten Philippe Quinault eine französische Variante der Oper, deren herausragendstes Merkmal neben den Chören das Ballett ist. Lully verfasste eine französische Version von Cavallis "L’ercole amante" (1662), in die er Ballette einfügte, die größeren Beifall fanden als die Oper. "Cadmus et Hermione" (1673) wird als erste "Tragédie lyrique" angesehen und blieb modellhaft für die nachfolgenden französischen Opern. Die aus Italien importierte Oper wurde von der Tragédie lyrique zurückgedrängt. Dennoch versuchten Lullys Nachfolger Marc-Antoine Charpentier und André Campra, französische und italienische Stilmittel zu verbinden. Deutsches Sprachgebiet. Ausgehend von italienischen Vorbildern, entwickelte sich bereits gegen Mitte des 17. Jahrhunderts eine eigenständige Operntradition innerhalb des deutschen Sprachgebietes, welche auch die Verwendung deutschsprachiger Libretti mit einschließt. Die erste Oper eines "deutschen" Komponisten war 1627 die (verschollene) "Dafne" von Heinrich Schütz, der die Musikform der Oper bei seinem Studienaufenthalt 1609–1613 in Italien kennengelernt hatte. Nur wenige Jahre später entstand 1644 die erste erhaltene deutschsprachige Oper von Sigmund Theophil Staden nach einem Libretto von Georg Philipp Harsdörffer "Das geistlich Waldgedicht oder Freudenspiel, genannt Seelewig", ein pastorales Lehrstück in starker Nähe zum moralisierenden Schuldrama der Renaissance. Kurz nach dem 30-jährigen Krieg etablierten sich auch im deutschsprachigen Raum Opernhäuser zunehmend als zentraler Versammlungs- und Repräsentationsort der führenden Gesellschaftsschichten. Eine zentrale Rolle spielten dabei die führenden Fürsten- und Königshäuser, welche sich zunehmend eigene Hoftheater samt der zugehörigen Künstler leisteten, die in der Regel auch für die (wohlhabende) Öffentlichkeit zugänglich waren. So erhielt München sein erstes Opernhaus 1657, Dresden 1667. Bürgerliche, d.h. durch Städte und/oder private bürgerliche Akteure finanzierte "öffentliche und populäre" Opernhäuser wie in Venedig existierten hingegen lediglich in Hamburg (1678), Hannover (1689) und Leipzig (1693). Im bewussten Gegensatz zum durch italienischsprachige Opern dominierten Betrieb an den "adligen" Häusern, setzte insbesondere die Hamburger Oper am Gänsemarkt als ältestes bürgerliches Opernhaus Deutschlands bewusst auf deutschsprachige Werke und Autoren. So Händel, Keiser, Mattheson und Telemann. Jene etablierten bereits ab Beginn des 18. Jahrhunderts unter Verwendung deutschsprachiger Libretti von Dichtern wie Elmenhorst, Feind, Hunold und Postel eine eigenständige deutschsprachige Opern- und Singspieltradition. Die Bedeutung Hamburgs für die Entwicklung einer eigenständigen deutschsprachigen Operntradition unterstreichen auch die beiden zeitgenössischen Schriften zur Theorie der Oper: Heinrich Elmenhorsts "Dramatologia" (1688) und Barthold Feinds "Gedancken von der Opera" (1708). England. In England verbreitete sich die Oper erst relativ spät. Die vorherrschende musikalische Theaterform in der Zeit des Elisabethanischen Theaters war die Masque, eine Kombination aus Tanz, Pantomime, Sprechtheater und musikalischen Einlagen, bei denen der vertonte Text meist nicht in unmittelbarem Zusammenhang mit der Handlung stand. Im Anschluss an das puritanische Verbot von Musik- und Theateraufführungen von 1642 begründete erst die Stuart-Restauration ab 1660 wiederum ein Theaterleben, in das die Oper integriert wurde. Ein in jeder Hinsicht singuläres Werk ist Henry Purcells knapp einstündige Oper "Dido and Aeneas" (Uraufführung vermutlich 1689, Libretto: Nahum Tate). Der Komponist greift darin Elemente der französischen und der italienischen Oper auf, entwickelt jedoch eine eigene Tonsprache, die sich vor allem dadurch auszeichnet, dass sie sehr eng am Text bleibt. Chorpassagen und tänzerische Abschnitte stehen den ariosen Passagen der Hauptfiguren gegenüber, die fast ohne arienartige Formen auskommen. Die wechselnden Stimmungen und Situationen werden mit musikalischen Mitteln genau wiedergegeben; die Schlussszene, wenn die karthagische Königin Dido aus unglücklicher Liebe zu dem trojanischen Helden Aeneas an gebrochenem Herzen stirbt, gehört zum Bewegendsten der Opernliteratur. Allgemeine Entwicklung. Im 18. Jahrhundert verschwindet zunehmend die Generalbassbezifferung zugunsten einer ausnotierten Orchesterfassung, und es bilden sich zwei Operntypen aus: Die Opera seria als vorwiegend vom Repräsentations- und Legitimationsbedürfnis des Adels getragene Form, die vorwiegend auf mythologischen oder historischen Stoffen basiert und deren Personal aus Göttern, Halbgöttern, Heroen, Fürsten sowie deren Geliebten und ihrer Dienerschaft besteht, und die Opera buffa mit zunächst grobschlächtig komischen Handlungen, die sich zu bürgerlich-sentimentalen entwickeln. Eine Konkurrenz zu den italienischen Opern bilden in Frankreich einerseits die höfische Tragédie lyrique, mit ihrem im Vergleich zu älteren italienischen Opern volleren Instrumentarium, und andererseits die Opéra comique, die vom Pariser Jahrmarktstheater herstammt. Diese Gattungen regen auch außerhalb Frankreichs Opernaufführungen in der eigenen Landessprache an, als einheimisches Gegengewicht zu den allgegenwärtigen italienischen Gesangsvirtuosen. Stilprägend wurde die im zweiten Viertel des 18. Jahrhunderts von Italien ausgehende Tendenz, aus dem ursprünglichen Dramma per musica ein Arienkonzert und daraus eine Nummernoper mit festgelegtem Inhalt und Musik zu machen. Der Star des Abends konnte zudem eine virtuose "Aria baule" („Koffer-Arie“) einschieben, die mit der Handlung nichts zu tun hatte. Solche Arien konnten leicht vertauscht oder mehrfach eingesetzt werden. Der Belcanto-Gesang wurde zu einer Präsentation virtuoser Gesangstechniken, die extreme Spitzentöne, geschmeidige Triller und weite Sprünge umfassten. Pasticcio. Aufgrund des im 18. Jahrhundert noch nicht etablierten Gedankens der Werktreue und dem stetigen Wunsch der Auftraggeber und des Publikums nach neuen, noch nie gehörten Opern, sowie den lokal häufig nur begrenzt zur Verfügung stehenden Ressourcen an Instrumentalisten und Sängern, bestand eine weitverbreitete Aufführungspraxis des 18. Jahrhunderts darin, Arien und Ensembles aus den verschiedensten Werken mit Rücksicht auf die zur Verfügung stehende Besetzung möglichst wirkungsvoll zusammenzustellen und das so entstandene Gebilde mit neuen Texten und einer neuen Handlung zu unterlegen. Diese Art von Opern nennt man Pasticcio; ein Opernpasticcio konnte sowohl aus der Feder eines einzigen Komponisten stammen, der dabei vorhandene Nummern aus früheren Werken wiederverwendete, als auch aus Werken verschiedener Komponisten zusammengesetzt sein. Diese Praxis führte dazu, dass Handlung und Stimmung einer Opernaufführung bis Ende des 18. Jahrhunderts – an einigen Aufführungsorten auch bis in die 1830er Jahre hinein – nicht bindend festgelegt waren und ständigen Anpassungen, Wandlungen und Veränderungen unterlagen. Die Praxis des Pasticcio bedeutete daher in der Praxis, dass bis zum Beginn des 19. Jahrhunderts kaum eine Aufführung des gleichen Werks einer vorhergehenden musikalisch wie inhaltlich glich. Nummernoper. Das daraus folgende Handlungschaos – entstanden aus dem Bedürfnis, vielen Geschmäckern und Bedürfnissen zugleich gerecht zu werden – schreckte die italienischen Librettisten Apostolo Zeno und Pietro Metastasio ab. Als Gegenmaßnahme verzichteten sie ab den späten 1730er Jahren zunehmend auf überflüssige Seitenhandlungen, mythische Allegorien und Nebenfiguren und bevorzugten stattdessen ein klare, nachvollziehbare Handlung und Sprache. Damit schufen sie die Grundlage für einen „ernsteren“ Operntypus jenseits der bis dahin üblichen Aufführungspraxis der Opera seria. Das zu diesem Zweck entwickelte Handlungsschema verwickelt die Hauptfiguren nach und nach in ein scheinbar unlösbares Dilemma, das sich zum Schluss durch einen unverhofften Einfall zum Guten wendet "(lieto fine)". Auch dichterisch leiteten beide Autoren eine Erneuerung der Oper ein. Als weitere Maßnahme gegen die Praxis des Pasticcio führten sie eine Nummerierung der musikalischen Teile ein, wodurch ein Austausch dieser Elemente erschwert wurde. So trugen sie wesentlich zur Herausbildung der Nummernoper mit ihrer festgelegten Abfolge bei. Als fortan in sich geschlossenes Werk mit stringenter Handlung konnte sich die Oper nunmehr auch gegenüber dem Schauspiel behaupten. Opera buffa. Die Gattung der Opera buffa entstand zeitgleich in Neapel und Venedig als zumeist heiterer und lebensnaher Operntypus. Einerseits gab es selbstständige musikalische Komödien, andererseits die komischen Intermezzi zur Opera seria anfangs der 1730er Jahre, aus der Apostolo Zeno und Pietro Metastasio die komischen Elemente ausgeschlossen hatten, sodass sie auf Einlagen zwischen den Akten beschränkt werden mussten. Als stilprägende Werke gelten die Oper "Lo frate ’nnamorato" von Giovanni Battista Pergolesi, uraufgeführt am 28. September 1732 im Teatro dei Fiorentini in Neapel, und die ab Mitte der 1740er Jahre in Venedig uraufgeführten Werke Baldassare Galuppis, die in enger Zusammenarbeit mit dem venezianischen Komödiendichter und Librettisten Carlo Goldoni entstanden. Inhaltlich schöpfte die Opera buffa aus dem reichen Fundus der Commedia dell’arte. Die Handlungen waren oft Verwechslungskomödien, deren Personal aus einem adligen Liebespaar und zwei Untergebenen, oft Magd und Diener, bestand. Letztere können im Unterschied zur Opera seria als Hauptakteure auftreten, womit sich ein bürgerliches und subbürgerliches Publikum identifizieren konnte. Die Opera buffa wurde aber auch von der Aristokratie geschätzt, die ihre Provokationen kaum ernst nahm. Entwicklung der Opera buffa zur Opera semiseria. Seit Mitte des 18. Jahrhunderts begann eine Verlagerung der Komik in der Opera buffa auf alltagsweltliche und gegenwartsbezogene Handlungen, in denen Adlige nicht mehr unangreifbar waren. Mozarts "Don Giovanni" (1787) wurde zunächst als Opera buffa angesehen und erst im 19. Jahrhundert uminterpretiert, als das Schicksal der bürgerlichen Verführten ernst genommen und der adlige Verführer als Schurke betrachtet werden konnten. Ausdruck dieser Veränderungen ist die Weiterentwicklung der Opera buffa zum Typus der Opera semiseria Ende des 18. Jahrhunderts, weil ein bürgerliches Publikum sich auf der Bühne nicht mehr verlacht sehen wollte. Die Alltagsnähe der Opera buffa und ihres französischen Gegenstücks, der Opéra comique, besaß in der zweiten Hälfte des 18. Jahrhunderts soziale Sprengkraft. Damit im Zusammenhang stand der von 1752 bis 1754 in Frankreich ausgetragene Buffonistenstreit. Jean-Jacques Rousseau schätzte den bürgerlich geprägten „heiteren“ Operntypus mehr als die Tragédie lyrique der Hocharistokratie. Seine Verurteilung der französischen Oper zu Gunsten der italienischen führte zu wütenden Reaktionen. England. Im Englischen Sprachraum wurde der zuvor in Halle und Hamburg tätige Georg Friedrich Händel (engl. George Frederic Haendel) zu einem der produktivsten Opernkomponisten (mehr als 45 Opern-Werke). Sein Wirken in London zog die Zuhörer aufgrund mehrerer unglücklicher Umstände nicht wie gewünscht in seinen Bann, u. a. wegen der starken Konkurrenz des berühmten Kastraten Farinelli, der in der rivalisierenden Operntruppe sang. Die Qualität seiner Werke bleibt davon jedoch unberührt. Vor allem „Alcina“, „Giulio Cesare“ und „Xerxes“ sind zu beliebten Händel-Opern geworden. In den letzten Jahrzehnten sind jedoch auch viele andere Händel-Opern wieder vermehrt aufgeführt worden (u. a. „Ariodante“, „Rodelinda“, „Giustino“ etc.); nachdem im Zuge der Alte-Musik-Bewegung die historische Aufführungspraxis immer besser erforscht worden war, entstanden auch an den großen Opernhäusern stilbildende Produktionen unter Mitwirkung der Barock-Spezialisten in z. T. von der Pop Art inspirierter Inszenierungsästhetik, die einen regelrechten Boom auslösten (z. B. seit 1994 an der Bayerischen Staatsoper). Frankreich. Frankreichs Pendant zur in Paris umstrittenen Opera buffa wurde die "Opéra comique". Die Rezitative wurden durch gesprochene Dialoge ersetzt. Auch dieses Modell fand im Ausland Erfolg. Die neue Einfachheit und Lebensnähe schlägt sich auch in kleineren Arietten und "nouveaux airs", die im Unterschied zu den allseits bekannten Vaudevilles neu komponiert wurden, nieder. 1752 erlebte Frankreich eine neue Konfrontation zwischen der französischen und der italienischen Oper, die unter dem Namen "Buffonistenstreit" in die Geschichte einging. Giovanni Battista Pergolesis Oper „La serva padrona“ (deutsch: „Die Magd als Herrin“) war der Anlass dafür. Gegen die Künstlichkeit und Stilisierung der herkömmlichen französischen Adelsoper waren vor allem Jean-Jacques Rousseau und Denis Diderot, die sich gegen die Kunst und Stilisierung Rameaus zur Wehr setzten. Rousseau verfasste neben der bewusst einfach gestalteten Oper „Le devin du village“ (deutsch: „Der Dorfwahrsager“) auch ein preisgekröntes Traktat mit dem Titel "Discours sur les sciences et les arts" (1750), in dem er ein von Wissenschaft und Kultur unverdorbenes Leben zum Ideal erklärt. Weitere Musikartikel schrieb er für die berühmte umfassende Encyclopédie der französischen Aufklärung. Der Buffonistenstreit ging schließlich zu Ungunsten der italienischen Operntruppe aus, die aus der Stadt vertrieben wurde. Somit war der Streit zwar vorläufig beendet, an Beliebtheit stand die Grand opéra aber immer noch hinter der Opéra comique zurück. Deutscher Sprachraum. Die 1738 erfolgte Schließung der Oper am Gänsemarkt führte zu einer weiteren Stärkung des zu diesem Zeitpunkt bereits dominanten italienischsprachigen Opernbetriebs im Deutschen Sprachraum. Dennoch etablierte sich – ausgehend vom Hamburger Vorbild – ab Mitte des 18. Jahrhunderts zunehmend die Praxis bei Aufführungen französischer und italienischer Opern die Rezitative ins Deutsche zu übersetzen und – aus vorwiegend musikalischen Gründen – lediglich bei den Arien die Originalsprache beizubehalten. Auch wurden ab Mitte des 18. Jahrhunderts der Verkauf oder die Verteilung gedruckter Erläuterungen und Übersetzungen nicht-deutschsprachiger Werke in deutscher Sprache an das Publikum mehr und mehr üblich. Um 1780 setzt mit dem Werk Wolfgang Amadeus Mozarts schließlich eine bis weit ins 19. Jahrhundert reichende Entwicklung ein, die zur zunehmenden Verdrängung des bis dahin dominierenden Italienischen zugunsten deutschsprachiger Werke und Aufführungen in deutscher Übersetzung führte. Dabei fand Mozart seinen ganz eigenen Weg, mit der Tradition der italienischen Oper umzugehen. Er reüssierte bereits in jugendlichen Jahren mehrfach in Italien (u. a. mit „Lucio Silla“ und „Mitridate, re di Ponto“) und komponierte mit „Idomeneo“ (1781), einer ebenfalls auf italienisch geschriebenen "opera seria", für München sein erstes Meisterwerk. Auf diese Form sollte er mit „La clemenza di Tito“ 1791 kurz vor seinem Tod nochmals zurückkommen. Nach den Singspielen „Bastien und Bastienne“, „Zaide“ (Fragment) und „Die Entführung aus dem Serail“ (mit dieser 1782 uraufgeführten Oper gelang es ihm, sich in Wien als freier Komponist zu etablieren) schaffte er es in seinem „Figaro“ (1786) und mehr noch im „Don Giovanni“ (1787), "Opera seria" und "Opera buffa" einander wieder anzunähern. Neben den zuletzt Genannten entstand 1790 als drittes Werk in kongenialer Zusammenarbeit mit dem Librettisten Lorenzo da Ponte „Così fan tutte“. – In „Die Zauberflöte“ (1791) verband Mozart Elemente der Oper mit jenen des Singspiels und des lokal vorherrschenden Alt-Wiener Zaubertheaters, das seine Wirkung besonders aus spektakulären Bühneneffekten und einer märchenhaften Handlung bezog. Dazu kamen Ideen und Symbole aus der Freimaurerei (Mozart war selbst Logenmitglied). Mozart-Opern (und insbesondere die "Zauberflöte") gehören bis heute zum Standardrepertoire eines jeden Opernhauses. Er selbst bezeichnete die Oper als „Große Oper in 2 Akten“. Opernreform. Der ebenfalls sowohl in Italien wie auch in Wien tätige Christoph Willibald Gluck leitete mit seinen Opern „Orfeo ed Euridice“ (1762) und „Alceste“ (1767) in denen er Elemente der ernsten Oper aus Italien und Frankreich mit der realistischeren Handlungsebene der opera buffa kombinierte eine umfassende Opernreform ein. Der konsequent klar und logisch aufgebaute Handlungsablauf, gestaltet von Ranieri de’ Calzabigi, kommt dabei ohne komplexe Intrigen oder Verwechslungsdramen aus. Die Zahl der Protagonisten schrumpft. Oberstes Ziel ist eine größere Einfachheit und Nachvollziehbarkeit der Handlung. Dabei ordnet sich Glucks Musik vollständig Dramaturgie und Text unter, charakterisierte Situationen und Personen und stand nicht für den belcanto-Gesang an sich. Durchkomponierte oder strophisch gestaltete Lieder ersetzten die Da-capo-Arie. Dadurch wurde eine neue Natürlichkeit und Einfachheit erreicht, die hohlem Pathos und Sängermanierismen entgegenwirkte. Der Chor schaltete sich getreu dem antiken Vorbild aktiv in die Handlung ein. Die Ouvertüre bezieht sich auf die Handlung und steht nicht mehr als abgelöstes Instrumentalstück vor der Oper. Italienisches Arioso, französisches Ballett und Pantomime, englisches und deutsches Lied sowie Vaudeville wurden in die Oper integriert, nicht als nebeneinanderstehende Einzelstücke, sondern als neuer klassischer Stil. Glucks ästhetische Ideen wurden von seinem Schüler Antonio Salieri im späten 18. Jahrhundert zu einer neuen Blüte gebracht. Besonders bedeutend sind die Opern Les Danaides, Tarare und Axur, re d’Ormus. Verschwinden der Kastratenpartien. Weiterer Ausdruck der größeren Alltagsnähe der opera buffa und der durch Christoph Willibald Gluck angeregten Neuerungen der Opernreform ist die in der 2. Hälfte des 18. Jahrhunderts einsetzende Praxis auf hohe Kastratenpartien für Männerpartien zugunsten realistischerer Stimmlagen zu verzichten. Neben der bewussten Abgrenzung von der stark durch das stark durch Virtuosentum der Kastraten geprägten Opernkultur der opera seria des Adels, spielten hierfür nicht zuletzt Kostengründe eine entscheidende Rolle. Da Impresario mit der Opera buffa auf ein weniger zahlungskräftiges bürgerliches und sub-bürgerliches Publikum zielten, waren die horrenden Kosten für die Gage eines bekannten Kastraten kaum zu erwirtschaften. Die hieraus folgende Identifikation der Virtuosenkultur der Kastratenpartien mit der durch den Adel geprägten kostspieligen Tradion der Opera Seria erklärt auch das Verschwinden der Kastraten aus dem Opernbetrieb nach dem Ende des Ancien Régime und dem hierdurch bedingten Aufstieg der durch die "natürlichere" Stimmbesetzung der opera buffa und opera semiseria geprägten bürgerlichen Schichten zur auch in Sachen Oper führenden Gesellschaftsschicht des 19. Jahrhunderts. Allgemeine Entwicklung. Die Französische Revolution und der Aufstieg Napoleons zeigten ihre Auswirkungen auf die Oper am deutlichsten bei Ludwig van Beethovens einziger Oper „Fidelio“ bzw. „Leonore“. Dramaturgie und musikalische Sprache orientierten sich deutlich an Luigi Cherubinis „Médée“ (Medea, 1797). Die Handlung beruht auf einer wahren Begebenheit innerhalb der Revolution, und der Freiheitsdrang der ursprünglichen Volksbewegung zeigt sich deutlich als Ideal der Oper. „Fidelio“ kann zum Typus der „Rettungsoper“ gezählt werden, in der die dramatische Errettung eines Menschen aus großer Gefahr der Gegenstand ist. Formal ist das Werk uneinheitlich: der erste Teil ist singspielhaft, der zweite mit dem groß angelegten Chorfinale erreicht symphonische Durchschlagskraft und nähert sich dem Oratorium. Nach der „Zauberflöte“ und dem „Fidelio“ brauchte die deutsche Kulturlandschaft mehrere Anläufe, um schließlich in der Romantik eine eigene Opernsprache zu entwickeln. Eine der wichtigsten Vorstufen hierzu lieferten Louis Spohr mit seiner Vertonung des "Faust" und E. T. A. Hoffmann mit seiner romantischen Oper „Undine“. Deutscher Sprachraum. Carl Maria von Weber war es schließlich, der aus der Tradition des Singspiels mit viel dramatischem Farbenreichtum im Orchester die deutsche Oper in Gestalt des „Freischütz“ 1821 gebührend aufleben ließ. Sein wegen des schlechten Textbuches kaum gespieltes Werk „Oberon“ maß dem Orchester so viel Bedeutung zu, dass sich später namhafte Komponisten wie Gustav Mahler, Claude Debussy und Igor Strawinski auf ihn beriefen. Weitere Komponisten der deutschen Romantik waren die als Opernkomponisten kaum bekannten Hochromantiker Franz Schubert (Fierrabras), dessen Freunde ihm keine kongeniale Textvorlage liefern konnten, und Robert Schumann, der mit der Vertonung des unter Romantikern beliebten "Genoveva"-Stoffs nur eine Oper vorlegte. Ferner zu nennen sind Heinrich Marschner, der mit seinen Opern um übernatürliche Ereignisse und Naturschilderungen („Hans Heiling“) großen Einfluss auf Richard Wagner ausübte, Albert Lortzing mit seinen Spielopern (u. a. „Zar und Zimmermann“ sowie „Der Wildschütz“), Friedrich von Flotow mit seiner komischen Oper "Martha" und schließlich Otto Nicolai, der mit den „Lustigen Weibern von Windsor“ etwas "italianità" in die deutsche Oper trug. Richard Wagner schließlich formte die Oper so grundlegend nach seinen Ideen um, dass die oben genannten deutschen Komponisten neben ihm schlagartig verblassten. Mit „Rienzi“ erlebte der bis dahin eher glücklose Wagner seinen ersten Erfolg in Dresden: er wurde später von „Der fliegende Holländer“ noch übertroffen. Wegen seiner Verwicklung in die 48er Revolution in Dresden musste Wagner für viele Jahre ins Exil in die Schweiz. Sein späterer Schwiegervater Franz Liszt trug durch die Uraufführung des „Lohengrin“ in Weimar dazu bei, dass Wagner trotzdem weiterhin in Deutschland präsent war. Mit der Unterstützung des jungen bayerischen Königs Ludwig II. konnte Wagner schließlich den lang gehegten Plan des „Ring des Nibelungen“ verwirklichen, für den er eigens das Bayreuther Festspielhaus erbauen ließ, in dem bis heute nur seine Werke gespielt werden. Eine der spezifischen Neuerungen für die Gattung Oper durch Wagner bestand darin, dass er eine vollständige Auflösung der Nummernoper vornahm. Tendenzen zur durchkomponierten Oper zeigten sich schon in Webers „Freischütz“ oder in Robert Schumanns selten gespielter Oper "Genoveva"; konsequent vollendet wurde diese Entwicklung durch Wagner. Eine weitere kann man darin sehen, dass Singstimme und Orchesterpart grundsätzlich gleichberechtigt behandelt werden, das Orchester also nicht mehr den Sänger begleitet, sondern als „mystischer Abgrund“ in vielfältige Beziehung zum Gesungenen tritt. Die Länge seiner Opern verlangte Sängern und Zuhörern viel Konzentration und Ausdauer ab. Spezielle Wagner-Themen seiner fast durchweg ernsten Opern (mit Ausnahme der „Meistersinger“), deren Libretto er sämtlich selbst verfasste, sind Erlösung durch Liebe, Entsagung oder Tod. In „Tristan und Isolde“ verlegte er das innere Drama der Hauptfiguren in die Musik – die äußere Handlung der Oper ist erstaunlich ereignisarm. Der Beginn dieser Oper setzt die bis dahin gültigen harmonischen Regeln außer Kraft. Er wurde so berühmt, dass er als sogenannter „Tristan-Akkord“ in die Musikgeschichte einging. Musikalisch zeichnen sich Wagners Opern sowohl durch seine geniale Behandlung des Orchestersatzes, die auch auf die symphonische Musik der Zeit bis hin zu Gustav Mahler starken Einfluss ausübte, aus, als auch durch den Einsatz wiederkehrender Motive (sog. Leitmotive), die sich mit Personen, Situationen, einzelnen Texten oder auch mit bestimmten Ideengehalten verbinden. Mit dem „Ring des Nibelungen“, auch kurz „Ring“ genannt, dem wohl bekanntesten Opernzyklus in vier Teilen (daher auch „Tetralogie“ genannt) mit etwa 16 Stunden Aufführungszeit insgesamt, schuf Wagner die Erfüllung seines Lebenswerkes. „Parsifal“ war die letzte seiner Opern, die die Musikwelt in zwei Lager spalteten und sowohl Nachahmer (Engelbert Humperdinck, Richard Strauss vor seiner „Salome“) als auch Skeptiker – insbesondere in Frankreich – hervorriefen. Frankreich. In Frankreich herrschte zunächst die in der zweiten Hälfte des 18. Jahrhunderts entwickelte Form der "Opéra comique" vor. Daniel-François-Esprit Auber gelang mit seiner Oper „La Muette de Portici“, deren Titelheldin von einer stummen Ballerina dargestellt wurde, der Anschluss an die Grand opéra. Der Librettist Eugène Scribe war zu dieser Zeit einer der gefragtesten Dichter. Die Grand Opéra verzichtete in ihren Haupthandlungen weitgehend auf Liebesgeschichten, historisch-politische Motive blieben im Vordergrund. Etwa ab 1850 vermischten sich Opéra comique und Grand Opéra zu einer Opernform ohne Dialoge. Georges Bizet schrieb 1875 sein bekanntestes Bühnenwerk Carmen (Oper) noch als Opéra comique; die posthum von Ernest Guiraud zugefügten Rezitative rücken „Carmen“ allerdings in die Nähe der Grand opéra, zu der jedoch die realistische Handlung und der Ton nicht passen; im Widerspruch zur Opéra comique steht wiederum das tragische Ende, das bei der Uraufführung zunächst für einen Misserfolg sorgte. Weitere Beispiele für die Vermischung von Opéra comique und Grand opéra sind Charles Gounods „Faust“ von 1859 – hier wird zum ersten Mal der Begriff "Drame lyrique" verwendet – und Jacques Offenbachs „Les contes d’Hoffmann“ bzw. „Hoffmanns Erzählungen“ (1871–80). Russland. Schließlich trat auch Russland mit seinen ersten Nationalopern auf den Plan, genährt durch den Import anderer Erfolge aus dem Westen. Michail Glinka komponierte 1836 mit „Iwan Sussanin“ (oder auch: „Ein Leben für den Zaren“) das erste Werk mit russischen Sujets, war aber musikalisch noch stark westlichen Einflüssen verhaftet. Modest Mussorgski gelang die Lösung von ihnen erfolgreich mit „Boris Godunow“ nach einem Drama von Alexander Puschkin. Auch Borodins „Fürst Igor“ führte Glinkas Erbe weiter. Pjotr Tschaikowski stand zwischen den russischen Traditionen und denen der westlichen Welt und entwarf mit „Eugen Onegin“ und „Pique Dame“ Liebesdramen mit bürgerlichem Personal, die beide ebenfalls auf einer Vorlage von Puschkin beruhen. Böhmen. In Böhmen waren Bedřich Smetana und Antonín Dvořák die meistgespielten Komponisten der Prager Nationaloper, die mit Smetanas „Libusa“ im neuen Nationaltheater in Prag ihren Anfang nahm. „Die verkaufte Braut“ desselben Komponisten wurde zum Exportschlager. Dvořaks Oper „Rusalka“ verknüpfte volkstümliche Sagen und deutsche Märchenquellen zu einer lyrischen Märchenoper. Bohuslav Martinů und Leoš Janáček führten ihre Bestrebungen weiter. Letztgenannter Komponist ist in seiner Modernität in den letzten Jahrzehnten wiederentdeckt worden und hat vermehrt die Spielpläne erobert. Während „Das schlaue Füchslein“ noch immer meist in der deutschen Übersetzung von Max Brod gegeben wird, werden andere Werke wie „Jenufa“, „Katja Kabanowa“ oder „Die Sache Makropulos“ immer häufiger in der tschechischsprachigen Originalversion aufgeführt; das ist insofern wichtig, da Janáčeks Tonsprache sich eng an die Phonetik und Prosodie seiner Muttersprache anlehnt. Italien. Italien verfiel ab dem Jahr 1813, wo seine elfte Oper „L’italiana in Algeri“ aufgeführt wurde, dem jungen und überaus produktiven belcanto-Komponisten Gioachino Rossini. „Il barbiere di Siviglia“ (1816), „La gazza ladra“ (deutsch: „Die diebische Elster“) und „La Cenerentola“ nach dem Aschenputtel-Märchen von Charles Perrault sind bis heute im Standardrepertoire der Opernhäuser zu finden. Federnder Rhythmus im Orchester und eine nie überfordernde Behandlung der Singstimme ließen Rossini zu einem der beliebtesten Komponisten Europas werden. Die bis dato noch üblichen Verzierungen der Sänger schrieb Rossini dezidiert in seine Partien hinein und unterband damit ausufernde Improvisationen. Eine neue formale Idee verwirklichte er mit seiner "scene ed arie", die den starren Wechsel Rezitativ-Arie auflockerte und doch das Prinzip der Nummernoper aufrechterhielt. Rossini hat auch einige "Opere serie" geschrieben (z. B. seinen „Otello“ oder auch „Semiramide“). Er ging 1824 nach Paris und schrieb wichtige Werke für die Opéra. Seine politische "Grand Opéra" verfasste er über „Wilhelm Tell“ (franz.: „Gulliaume Tell“; später auch ital.: „Guglielmo Tell“), die in Österreich verboten und an verschiedenen europäischen Orten in entschärfter Fassung mit anderen Haupthelden aufgeführt wurde. Enrico Caruso, Bessie Abott, Louise Homer, Antonio Scotti, singen das Quartett "Bella figlia dell' amore" aus Verdis "Rigoletto" Gaetano Donizetti war ein nicht minder erfolgreicher Opernkomponist. „Lucia di Lammermoor“ mit der berühmten koloraturreichen Wahnsinnsszene hält sich neben den heiteren Opern „Don Pasquale“, „L’elisir d’amore“ und „La Fille du Régiment“ konsequent auf den Spielplänen der Opernhäuser. Vincenzo Bellini, ein von Maria Callas wieder der Vergessenheit entrissener Komponist, verfasste im Gegenzug große tragische belcanto-Opern wie „I puritani“, „I Capuleti e i Montecchi“ und „Norma“ (1831), deren Arie „Casta diva“ zu den berühmtesten der Welt gehört. Die weit gespannten Melodiebögen Bellinis machten starken Eindruck auf den jungen Giuseppe Verdi. Seit seiner dritten Oper „Nabucco“ galt er als Nationalkomponist für das immer noch von den Habsburgern beherrschte Italien. Der Chor „Va, pensiero, sull’ ali dorate“ entwickelte sich zur heimlichen Nationalhymne des Landes. Musikalisch zeichnet Verdis Musik eine stark betonte, deutliche Rhythmik aus, über der sich einfache, ausdrucksstarke Melodien entwickeln. In seinen Opern, bei denen Verdi mit untrüglichem Theaterinstinkt auch oft selbst am Textbuch mitwirkte, nehmen Chorszenen zunächst eine wichtige Stellung ein. Verdi verließ zunehmend die traditionelle Nummernoper; ständige emotionale Spannung verlangte nach einer abwechslungsreichen Durchmischung der einzelnen Szenen und Arien. Mit „Macbeth“ wandte sich Verdi endgültig von der Nummernoper ab und ging seinen Weg der intimen Charakterschilderung von Individuen weiter. Mit „La traviata“ (1853, nach dem 1848 erschienenen Roman "Die Kameliendame" von Alexandre Dumas d.J., der um die authentische Figur der Kurtisane Marie Duplessis kreist) brachte er erstmals einen Gegenwartsstoff auf die Opernbühne, wurde von der Zensur jedoch gezwungen, die Handlung aus der Jetztzeit zu verlegen. Verdi vertonte häufig literarische Vorlagen, etwa von Friedrich Schiller (z. B. „Luisa Miller“ nach "Kabale und Liebe" oder „I masnadieri“ nach "Die Räuber"), Shakespeare oder Victor Hugo („Rigoletto“). Mit seinen für Paris geschriebenen Beiträgen zur "Grande Opéra" (z. B. „Don Carlos“) erneuerte er auch diese Form und nahm mit dem späten „Otello“ Elemente von Richard Wagners Musikdrama auf, bis er mit der überraschenden Komödie „Falstaff“ (1893; Dichtung in beiden Fällen von Arrigo Boito) im Alter von 80 Jahren seine letzte von fast 30 Opern komponierte. Wahrscheinlich seine populärste Oper ist „Aida“, geschrieben 1871. Jahrhundertwende. Francisca Pomar de Maristany singt "Vissi d'arte" aus Giacomo Puccinis "Tosca" – Aufnahme von 1929 Nach dem Abtreten Verdis eroberten die jungen Veristen (ital. "vero" = wahr) in Italien die Szene. Ungeschönter Naturalismus war eines ihrer höchsten ästhetischen Ideale – dementsprechend wurde von säuberlich verfassten Versen Abstand genommen. Pietro Mascagni („Cavalleria rusticana“, 1890) und Ruggero Leoncavallo („Pagliacci“, 1892) waren die typischsten Komponisten aus dieser Zeit. Giacomo Puccini wuchs hingegen an Ruhm weit über sie hinaus und ist bis heute einer der meistgespielten Opernkomponisten überhaupt. „La Bohème“ (1896), ein Sittengemälde aus dem Paris der Jahrhundertwende, der „Politkrimi“ „Tosca“ (1900, nach dem gleichnamigen Drama von Victorien Sardou) und die fernöstliche „Madama Butterfly“ (1904), mit der unvollendeten „Turandot“ (Uraufführung posthum 1926) noch um ein weiteres an Exotismus gesteigert, sind vor allem wegen ihrer Melodien zu Schlagern geworden. Puccini war ein eminenter Theatraliker und wusste genau für die Stimme zu schreiben; die Instrumentierung seiner meist für großes Orchester gesetzten Partituren ist sehr differenziert und meisterhaft. Zurzeit wird der damals sehr populäre jüdische Komponist Alberto Franchetti, trotz dreier Welterfolge („Asrael“, „Christoforo Colombo“ und „Germania“) zwischendurch fast vergessen, zaghaft wiederentdeckt. Frankreich. Claude Debussy gelang es schließlich, sich vom Einfluss des Deutschen zu befreien, und schuf mit „Pelléas et Mélisande“ 1902 eines der nuanciertesten Beispiele für die von Wagner übernommene Leitmotivtechnik. Maurice Maeterlincks Textvorlage bot viel an mehrdeutigen Symbolismen an, die Debussy in die Orchestersprache übernahm. Die Gesangspartien wurden fast durchweg rezitativisch gestaltet und boten der „unendlichen Melodie“ Wagners mit dem „unendlichen Rezitativ“ ein Gegenbeispiel. Eine der raren Ausnahmen, die dem Hörer eine gesangliche Linie darbieten, ist das schlichte Lied der Mélisande, das wegen seiner Kürze und Schmucklosigkeit kaum als echte Arie angesehen werden kann. Wiener Schule. Nach Richard Strauss, der mit „Salome“ und „Elektra“ zunächst zum spätromantischen Expressionisten wurde, sich dann allerdings mit „Der Rosenkavalier“ wieder früheren Kompositionsstilen zuwendete und mit einer Reihe von Werken bis heute viel gespielt wird (z. B. „Ariadne auf Naxos“, „Arabella“, „Die Frau ohne Schatten“ und „Die schweigsame Frau“), schafften es nur noch wenige Komponisten, einen festen Platz im Repertoire der Opernhäuser zu finden. Stattdessen wurden (und werden) eher die Werke der Vergangenheit gepflegt. Die Aufnahme eines zeitgenössischen Werkes in das Standardrepertoire bleibt die Ausnahme. Alban Berg gelang dies dennoch mit seinen Opern „Wozzeck“, der freitonal angelegt wurde, und „Lulu“, die sich ganz der Zwölftonmusik bedient. Die zuerst Fragment gebliebene „Lulu“ wurde von Friedrich Cerha für die Pariser Aufführung unter Pierre Boulez und Patrice Chéreau in ihrer dreiaktigen Gestalt vollendet. Von beiden Opern hat insbesondere „Wozzeck“, bei dem Gehalt des Stücks und musikalische Vision zu einer Einheit finden, inzwischen weltweit in unzähligen Inszenierungen an großen wie kleineren Bühnen Eingang in das vertraute Opernrepertoire gefunden und eine unbestrittene Stellung erobert. Durchaus ähnlich verhält es sich mit „Lulu“, die jedoch wegen ihres im Werk angelegten Aufwands oft nur von größeren Bühnen bewältigt werden kann. Sie inspiriert allerdings regelmäßig wichtige Interpretinnen wie Anja Silja, Evelyn Lear, Teresa Stratas oder Julia Migenes. Von Arnold Schönberg werden regelmäßig das Monodram „Erwartung“ – die erste Oper für eine einzige Sängerin – sowie das vom Komponisten bewusst unvollendet hinterlassene, höchste Ansprüche an den Chor stellende Werk „Moses und Aron“ aufgeführt. „Erwartung“, bereits 1909 entstanden, doch erst 1924 in Prag mit Marie Gutheil-Schoder unter der Leitung von Alexander von Zemlinsky uraufgeführt, bewies in den dem Zweiten Weltkrieg folgenden Jahren eine spezifische Faszination gleichermaßen für Sängerinnen (besonders Anja Silja und Jessye Norman) wie für Regisseure (z. B. Klaus Michael Grüber mit Silja 1974 in Frankfurt; Robert Wilson mit Norman 1995 bei den Salzburger Festspielen). 1930 begann Schönberg die Arbeit an „Moses und Aron“, die er 1937 abbrach; nach der szenischen Uraufführung in Zürich 1957 hat diese Oper international zumal seit den 1970er Jahren in zahlreichen Aufführungen seine besondere Bühnentauglichkeit bewiesen. Interessant ist ferner, dass Moses sich über die gesamte Oper hinweg eines Sprechgesangs bedient, dessen Tonhöhe vorgezeichnet ist, Aron dagegen singt. Weitere Entwicklungen im Deutschen Sprachraum. Ansonsten hinterließ die Wiener Schule keine weiteren Spuren im Standardrepertoire. Musikalisch musste sich allerdings jeder moderne Komponist mit der Zwölftonmusik auseinandersetzen und entscheiden, ob er auf ihrer Grundlage weiter arbeitete oder eher in tonalen Bahnen dachte. Hans Pfitzner gehörte zu den bedeutendsten Komponisten der ersten Jahrhunderthälfte, die bewusst an den tonalen Traditionen festhielten. Sein Opernschaffen zeigt gleichermaßen Einflüsse Richard Wagners und frühromantischer Komponisten, wie Weber und Marschner. Pfitzners Musik wird zum großen Teil von linear-polyfonem Denken bestimmt, die Harmonik bewegt sich zwischen schlichter Diatonik und bis an die Grenzen der Tonalität gehender Chromatik. Von Pfitzners Opern ist die 1917 uraufgeführte Musikalische Legende „Palestrina“ am bekanntesten geworden. Er schrieb außerdem: „Der arme Heinrich“, „Die Rose vom Liebesgarten“, „Das Christ-Elflein“ und „Das Herz“. Franz Schreker schuf 1912 mit „Der ferne Klang“ einen der großen Opernerfolge vor dem Zweiten Weltkrieg, geriet jedoch später in Vergessenheit, als der Nationalsozialismus seine Werke aus den Spielplänen verdrängte. Nach vielen früheren Versuchen begann erst in den 1980er Jahren die wirklich tief greifende Wiederentdeckung dieses Komponisten, die neben Neuinszenierungen von „Der ferne Klang“ (Teatro La Fenice 1984, Wiener Staatsoper 1991) auch Aufführungen von „Die Gezeichneten“, „Der Schatzgräber“ oder „Irrelohe“ zeitigte. Eine wesentliche Rolle in Schrekers Musik spielen stark ausdifferenzierte Klangfarben. Die chromatische Harmonik Wagners erfährt bei Schreker eine nochmalige Intensivierung, die nicht selten die tonalen Bindungen bis zur Unkenntlichkeit verwischt. Ähnlich wie Schreker erging es dem Wiener Alexander von Zemlinsky und dem Brünner Erich Wolfgang Korngold, deren Werke es nach 1945 ebenfalls schwer hatte. Seit den 1980er Jahren gelang es beiden Komponisten, wieder einen Platz im internationalen Repertoire zu erlangen, Zemlinski mit „Kleider machen Leute“, besonders aber „Eine florentinische Tragödie“, „Der Zwerg“ und „Der König Kandaules“, Korngold mit „Die tote Stadt“. Auch das Schaffen von Walter Braunfels wurde von den Nationalsozialisten verboten und erfährt erst seit Ende des 20. Jahrhunderts wieder verstärkte Aufmerksamkeit. Mit seiner Oper "Die Vögel" war Braunfels in den 1920er Jahren einer der meist gespielten Komponisten auf deutschen Opernbühnen. An seinen Werken fällt ihre stilistische Vielseitigkeit auf: Bietet "Prinzessin Brambilla" einen auf die Commedia dell’arte zurückgreifenden Gegenentwurf zum Musikdrama der Wagnernachfolge, zeigen "Die Vögel" den Einfluss Pfitzners. Mit den späteren Opern "Verkündigung", "Der Traum ein Leben" und "Scenen aus dem Leben der heiligen Johanna" nähert Braunfels sich der Tonsprache des späteren Hindemith an. Zu den in den 1920ern erfolgreichsten Komponisten der jungen Generation zählte Ernst Krenek, ein Schüler Schrekers, der zunächst mit in freier Atonalität gehaltenen, expressionistischen Werken für Aufsehen sorgte. Ein Skandalerfolg wurde 1927 seine Oper "Jonny spielt auf", die Elemente des Jazz aufgreift. Sie ist ein typisches Beispiel für die damals entstandene Gattung der „Zeitoper“, die ihre Handlungen dem stark vom Wechsel unterschiedlicher Moden bestimmten Alltag der damaligen Zeit entnahm. Kreneks Musik wurde von den Nationalsozialisten später als „entartet“ abgelehnt und verboten. Der Komponist emigrierte in die USA und brachte es bis 1973 auf über 20 Opern, in denen sich die wechselvolle Entwicklung der Musik des 20. Jahrhunderts exemplarisch widerspiegelt. Zweiter Weltkrieg. Der Zweite Weltkrieg bezeichnete einen großen Einschnitt in der Geschichte Europas und Amerikas, der sich auch auf die musikalische Welt auswirkte. In Deutschland wurden kaum noch Opern mit modernen Klängen gespielt und gerieten immer mehr ins Abseits. Ein bezeichnendes Beispiel hierfür bildet Paul Hindemith, der in den 1920ern mit Werken wie der Oper „Cardillac“ als musikalischer „Bürgerschreck“ galt, nach 1930 aber schließlich zu einem gemäßigt modernen Stil neoklassizistischer Prägung gefunden hatte, dem u. a. „Mathis der Maler“ (aus Teilen dieser Oper stellte der Komponist eine viel gespielte Sinfonie zusammen) zuzurechnen ist. Trotz des Stilwandels bekam Hindemith die Ablehnung deutlich zu spüren, da Adolf Hitler persönlichen Anstoß an seiner 1929 vollendeten Oper Neues vom Tage genommen hatte. Schließlich wurden auch Hindemiths Werke mit dem Etikett „entartet“ versehen und ihre Aufführung verboten. Hindemith ging, wie andere Künstler und Komponisten vor und nach ihm, 1938 ins Exil. Allgemeine Entwicklung. Die Zeit nach 1945 ist durch eine deutliche Internationalisierung und Individualisierung des Opernbetriebes gekennzeichnet, welche die bis dahin übliche Unterteilung in Nationale Traditionen kaum mehr sinnvoll erscheinen lässt. Die Oper wurde immer stärker von individuellen Einflüssen der Komponisten abhängig, als von allgemeinen Strömungen. Die ständige Präsenz der „Klassiker“ des Opernrepertoires ließ die Ansprüche an moderne Opern steigen, und jeder Komponist musste seinen eigenen Weg finden, um mit der Vergangenheit umzugehen, sie fortzuführen, zu verfremden oder mit ihr zu brechen. Im Folgenden entstanden immer wieder Opern, die die Grenzen der Gattung sprengten und zu überwinden trachteten. Auf musikalischer wie textlicher Ebene verließen die Komponisten zunehmend bekanntes Terrain und bezogen die Bühne und die szenische Aktion in den – oft genug abstrakten – musikalischen Ablauf mit ein. Kennzeichen für die Erweiterung der visuellen Mittel im 20. Jahrhundert sind die zunächst handlungsbegleitenden, später selbstständigeren Videoprojektionen. In der zunehmenden Individualisierung der Musiksprache lassen sich in der Oper der zweiten Hälfte des 20. Jahrhunderts dennoch Strömungen erkennen: zum einen Literaturopern, deren Dramaturgie sich zu großen Teilen an der Tradition ausrichtet. Dazu werden aber mehr und mehr aktuelle Stoffe und Libretti verwendet. Dennoch sind zwei wegweisende Werke dieser Zeit ausgerechnet Opern, die Klassiker der Literatur als Grundlage verwenden, nämlich Bernd Alois Zimmermanns Oper "Die Soldaten" nach Jakob Michael Reinhold Lenz und Aribert Reimanns "Lear" nach William Shakespeare. Weitere Beispiele für die Literaturoper wären Reimanns "Das Schloss" (nach Kafka) und "Bernarda Albas Haus" (nach Lorca). Zunehmend werden auch politische Stoffe vertont, beginnend mit Luigi Nono und Hans Werner Henze; ein jüngeres Beispiel ist Gerhard Rosenfelds Oper "Kniefall in Warschau" über Willy Brandt, deren Uraufführung 1997 in Dortmund allerdings bei Publikum wie Presse gleichermaßen wenig Wirkung zeigte und keine Folgeproduktionen zeitigte. Können schon Luigi Nonos Werke aufgrund ihrer experimentellen Musiksprache nicht mehr als Literaturoper kategorisiert werden, so wird auch die Dramaturgie der Opernvorlage auf ihre experimentellen Möglichkeiten hin ausgelotet. Der Begriff "Oper" erfährt daher eine Wandlung in der zweiten Hälfte des 20. Jahrhunderts, viele Komponisten ersetzen ihn durch "Musiktheater" oder "musikalische Szenen" und verwenden den Begriff Oper nur für explizit mit der Tradition verbundene Werke. In den Werken experimenteller Komponisten ist nicht nur ein kreativer Umgang mit Text und Dramaturgie zu entdecken, auch die Bühne, die Orchesterbesetzung und nicht zuletzt die Musik selbst überwindet konservative Muster, das Genre ist hier nicht mehr klar eingrenzbar. Zudem werden neue Medien wie Video, Elektronik eingesetzt, aber auch das Schauspiel, Tanz und Performance halten Einzug in die Oper. Eine ganz eigene Stimme im zeitgenössischen Musiktheater verkörpert ein anderer italienischer Komponist: Salvatore Sciarrino. Er schafft mit seinem Interesse an Klangfarben oder auch der Stille in der Musik, z. T. im Rückgriff auf Kompositionstechniken der Renaissance (z. B. in seiner Oper "Luci mie traditrici" von 1998 über das Leben des Madrigal-Komponisten Carlo Gesualdo) unverwechselbare Werke. Benjamin Britten ließ das moderne England auf den internationalen Opernbühnen Einzug halten. Von seinen überwiegend tonalen Opern sind "A Midsummer Night’s Dream", basierend auf dem Schauspiel William Shakespeares, "Albert Herring", "Billy Budd" und "Peter Grimes" am bekanntesten. Immer wieder zeigte sich Brittens Vorliebe und Talent zur Klangmalerei insbesondere in der Darstellung des Meeres. Die "Dialogues des Carmélites" "(Gespräche der Karmelitinnen", Uraufführung 1957) von Francis Poulenc gelten als eines der bedeutendsten Werke des modernen Musiktheaters. Grundlage bildet der historische Stoff der Märtyrinnen von Compiègne, die 1794 unter den Augen des Revolutionstribunals singend zum Schafott schritten, nachdem sie sich geweigert hatten, ihre Ordensgelübde zu brechen. Auf Poulenc geht auch die zweite bekannt gewordene Oper für eine einzige Sängerin zurück: In "La voix humaine" zerbricht die schlicht als „Frau“ bezeichnete Person an der Untreue ihres Geliebten, der ihr per Telefon den Laufpass gibt. Luciano Berio verwendete in "Passaggio" zu der weiblichen Hauptfigur „Sie“ auch einen kommentierenden Chor. Der Komponist Philip Glass, der Minimal Music verhaftet, verwendete für "Einstein on the Beach" keine zusammenhängenden Sätze mehr, sondern Zahlen, Solfège-Silben, Nonsens-Worte. Entscheidend war die Darstellung der Geschehnisse auf der Bühne. 1976 entstand "Einstein on the Beach", der erste Teil einer Trilogie, in der auch "Satyagraha" und "Akhnaten" vertreten sind – Hommagen an Persönlichkeiten, die die Weltgeschichte veränderten: Albert Einstein, Mahatma Gandhi und den ägyptischen Pharao Echnaton. Glass’ Arbeiten haben besonders in Verbindung mit den als kongenial empfundenen Inszenierungen von Robert Wilson oder Achim Freyer große Publikumswirksamkeit bewiesen. Mauricio Kagels Bühnenwerke sind ebenso oft Werke über Musik oder Theater an sich, die am ehesten als „Szenisch-musikalische Aktion“ zu klassifizieren ist – die Musik ist kaum festgelegt, da Kagel sich der freien Improvisation seiner Interpreten überlässt, die auf Nicht-Instrumenten (Reißverschlüssen, Babyflaschen etc.) spielen oder sie ungewöhnlich benutzen, bedeutungslose Silben singen oder Handlung und/oder Musik per Zufall oder durch improvisierte Lesart entstehen lassen. Mit Humor übte Kagel dabei hintersinnige Kritik an Staat und Theater, Militär, Kunstbetrieb usw. Skandale erregte sein berühmtestes Werk "Staatstheater", in dem die verborgenen Mechanismen desselben an die Oberfläche gekehrt werden. Luigi Nono verwendete seine Musik dagegen, um politische und soziale Missstände anzuklagen. Besonders deutlich wird dies in "Intolleranza 1960", wo ein Mann auf einer Reise zu seiner Heimat Demonstrationen, Proteste, Folterungen, Konzentrationslager, Gefängnishaft und Missbrauch bis hin zu einer Überschwemmung erlebt und schließlich feststellt, dass seine Heimat dort ist, wo er gebraucht wird. Ein sehr produktiver Komponist war der 2003 mit dem Premium Imperiale der Japan Art Foundation (sog. "Nobelpreis der Kunst") ausgezeichnete Hans Werner Henze. Er stand von Anfang an im Konflikt mit den teilweise dogmatisch ausgerichteten herrschenden Strömungen der zeitgenössischen Musik in Deutschland (Stichwort "Darmstadt" bzw. "Donaueschingen", s.o.), griff serielle Techniken auf, wandte jedoch auch ganz andere Kompositionstechniken bis hin zur Aleatorik an. Am Beginn seines Opernschaffens stand seine Zusammenarbeit mit der Dichterin Ingeborg Bachmann ("Der junge Lord", 1952, und die Kleist-Adaption "Der Prinz von Homburg", 1961). Die "Elegie für junge Liebende" (1961) entstand mit W. H. Auden und Chester Kallman, den Librettisten von Strawinskis Oper "The Rake’s Progress". Später vertonte er Libretti von Edward Bond ("The Bassarides", 1966, und "The English Cat", 1980). Sein Werk "L’Upupa und der Triumph der Sohnesliebe" wurde 2003 bei den Salzburger Festspielen uraufgeführt. Henze, der seit vielen Jahrzehnten in Italien lebte, hat viele jüngere Komponisten nachhaltig gefördert und beeinflusst. Seit 1988 gibt es in München die von ihm gegründete "Biennale für Neues Musiktheater". a> Opernzyklus LICHT. Birmingham Opera 2012 Karlheinz Stockhausen vollendete 2005 seine 1978 begonnene Heptalogie "LICHT". Mit seinem Lebenswerk hinterlässt er ein religiöse Themen behandelndes, monumentales Opus, bestehend aus sieben Opern, die jeweils für einen Wochentag stehen. Die ersten Opern erlebten in Mailand ihre Uraufführung ("Donnerstag", "Samstag", "Montag"), in Leipzig wurden "Dienstag" und "Freitag" zum ersten Mal gespielt. In seiner Gesamtheit wurde das insgesamt 29 Stunden Musik umfassende komplexe Werk nicht zuletzt wegen der immensen organisatorischen Schwierigkeiten noch nicht aufgeführt. Aufmerksamkeit erregte in Deutschland 1996 die Oper "Das Mädchen mit den Schwefelhölzern" von Helmut Lachenmann. Sie basiert auf der bekannten Weihnachtsgeschichte von Hans Christian Andersen. Auf eigenwillige Weise und mit teilweise neuartigen Instrumentaltechniken setzt Lachenmann hier das Gefühl der Kälte in Klang um. Als erfolgreichster und einer der produktivsten deutschen Komponisten für die Opernbühne kann Wilfried Hiller gesehen werden, der sowohl mit seinen mit Michael Ende geschriebenen Kinderopern, darunter "Tranquilla Trampeltreu" oder "Norbert Nackendick", als auch mit seinen großformatigen Werken "Der Rattenfänger" (Libretto von Michael Ende), "Der Schimmelreiter" (Libretto von Andreas K. W. Meyer), "Eduard auf dem Seil" (Libretto von Rudolf Herfurtner) oder "Wolkenstein" (Libretto Felix Mitterer), vor allem aber mit der ‚bairischen Mär‘ "Der Goggolori" dem zeitgenössischen Musiktheater zu ungeahnter Popularität verhalf. Form. Opern sind von einer Formenvielfalt geprägt, die durch konventionelle Kompositionsstile ebenso wie durch individuelle Lösungen der Komponisten bestimmt wird. Deshalb gibt es keine allgemeingültige Formel für ihre Struktur. Grob gesehen, kann man jedoch eine Entwicklung von der Nummernoper über viele verschiedene Mischformen bis hin zur durchkomponierten Oper gegen 1900 feststellen. Durchkomponierte Großform. Die Trennung der Nummern und die Abgrenzung zwischen Rezitativ und Arie wurden im 19. Jahrhundert in Frage gestellt. Ab 1825 verschwand allmählich das Secco-Rezitativ, an seine Stelle trat in der italienischen Literatur das Prinzip von Scena ed Aria, das bei Giuseppe Verdi die Akte zu einem größeren musikalischen Ganzen formt. Richard Wagner propagierte ab der Mitte des Jahrhunderts den Verzicht auf die Nummernstruktur zugunsten eines durchkomponierten, auf der Grundlage von Leitmotiven geformten Ganzen. Für Wagners Opern hat sich der Begriff Musikdrama durchgesetzt, das Stichwort „Unendliche Melodie“ steht für ein kontinuierliches Fortschreiten der musikalischen und emotionalen Entwicklung, das sich nach seiner Auffassung gegen musikalische Tanzformen durchsetzen sollte. Seine Oper "Tristan und Isolde" (1865) bezeichnete Wagner als „Handlung in Musik“, was an die ursprünglichen Opernbegriffe „favola in musica“ oder „dramma per musica“ erinnern sollte. Die durchkomponierte Form wurde im späten 19. Jahrhundert allgemein bevorzugt, auch bei Jules Massenet oder Giacomo Puccini, und blieb das vorherrschende Modell der frühen Moderne bis zum Neoklassizismus, der mit brüchigen Strukturen und mit Rückbezügen auf Formen der frühen Operngeschichte experimentierte. Auch in sich abgeschlossene Teile aus durchkomponierten Opern werden in Konzerten aufgeführt, wie etwa viele Arien aus Puccini-Opern. Als Meister der durchkomponierten Großform gilt Richard Strauss, der dies insbesondere in den Einaktern "Salome", "Elektra" und "Ariadne auf Naxos" unter Beweis stellte. Im 20. Jahrhundert griffen viele Komponisten wieder auf das Nummernprinzip zurück, zum Beispiel Zoltán Kodály, Igor Strawinski oder Kurt Weill. Die Nummernoper besteht außerdem in Operette und Musical weiter. Opera seria und Opera buffa. In der Geschichte der Oper gab es zumeist einen „hohen“ und einen „niederen“ Stil, frei nach der antiken Unterscheidung zwischen Tragödie und Komödie. Nicht immer bedeutet dies jedoch eine Grenze zwischen ernst und lustig. Der „hohe“ Stil kann sich über den „niederen“ auch einfach durch antike Stoffe erheben oder durch adlige Figuren oder durch eine „literarisch“ ernst zu nehmende Vorlage oder durch „schwierige“ (bzw. bloß durchkomponierte) Musik. All diese Anhaltspunkte für das Wertvollere wurden im Lauf der Geschichte angegriffen. Dabei gab es Gattungen, die den Gegensatz abzuschwächen versuchten wie die Opera semiseria. Solange die Oper noch im Stadium des Experiments war, wie bis zu Beginn des 17. Jahrhunderts, war eine Trennung noch nicht nötig. Sie ergab sich erst, als Opernaufführungen zur Gewohnheit wurden, und zwar aus sozialen Gründen: Die ernste Oper enthielt aristokratisches Personal und „hohe“ politische Symbolik, die komische hatte bürgerliche Figuren und „unwesentliche“ alltägliche Handlungen zum Thema. Allmählich trennten sich Opera seria und Tragédie lyrique von ihren komischen Intermezzi, aus denen Opera buffa und Opéra comique hervorgingen. Diese Trennung wurde erst am Ende des 18. Jahrhunderts aufgebrochen: Weil die Bürger in der für sie bestimmten „niederen“ Operngattung nicht mehr komisch (also lächerlich) dargestellt werden wollten, wurde das Komische oft ins Sentimentale abgebogen und aufgewertet. Daher sind „komische Opern“ oft nicht lustig. Nach der Französischen Revolution löst sich die Ständeklausel auf, und auch bürgerliche Opern durften „ernst“ sein. Somit ergaben sich im 19. Jahrhundert andere Abgrenzungen zwischen Tragödie und Komödie als im 18. Jahrhundert. Ein Sammelbegriff sowohl für tragische als auch für komische Werke ist das italienische Dramma per musica, wie die Oper in ihrer Anfangszeit betitelt wurde. Ein Beispiel für eine frühe ernste Oper ist "Il ritorno d’Ulisse in patria" von Claudio Monteverdi. Der seriöse Anspruch resultiert aus dem Rückgriff auf antike Theaterstoffe – insbesondere Tragödien – und epische Heldendichtungen. Sie wurden seit dem späteren 18. Jahrhundert von jüngeren historischen Sujets verdrängt. Im Italien des 19. Jahrhunderts wurde der Begriff Dramma in der Zusammensetzung Melodramma verwendet und nicht mehr auf das antike Drama bezogen. Sowohl Bellinis tragische Oper "Norma" als auch die komödiantische Oper "L’elisir d’amore" von Gaetano Donizetti wurden so genannt. „Hoher“ Stil. Als fester Begriff etablierte sich die Opera seria erst im 18. Jahrhundert. Mischformen oder tragikomische Inhalte waren mit dieser Titelbezeichnung ausgeschlossen. Händels Oper "Radamisto" ist ein typisches Werk. Als Antipode zu Italien verlieh Frankreich seiner eigenen Form der Opera seria den Titel Tragédie lyrique, wesentlich geprägt durch Jean-Baptiste Lully und das Ballett am Hofe Louis’ XIV., später durch Jean-Philippe Rameau. Nach der Französischen Revolution etablierte sich allmählich die Grand opéra als bürgerliche ernste Oper. Dazu zählen "Les Huguenots" von Giacomo Meyerbeer, auch weniger erfolgreiche Werke wie "Les Troyens" von Hector Berlioz. Das durchkomponierte Musikdrama des reiferen Richard Wagner "(Der Ring des Nibelungen)" hatte großen internationalen Einfluss. Französische Komponisten jener Zeit wie Massenet setzten dagegen eher auf einen durchsichtigen und gesanglichen Opernstil, für den die Bezeichnung Drame lyrique verwendet wurde. Noch Debussy verwendete diesen Begriff für seine Oper "Pelléas et Mélisande". Schon immer konnten Opernstoffe von Romanen, Novellen oder Bühnenwerken herstammen. Die italienische Oper des 18. Jahrhunderts verstand sich als in Musik gekleidete Literatur. Seitdem die Musik die absolute Vorherrschaft erlangt hat, also seit dem späten 19. Jahrhundert, nennt man ausgesprochen literarische Opern Literaturoper. "Death in Venice" von Benjamin Britten nach der Vorlage von Thomas Mann ist eine recht getreue Umsetzung des literarischen Stoffes in Musik. „Niederer“ Stil. Die Opera buffa ist die Urform der heiteren Oper. Pergolesis "La serva padrona" galt um die Mitte des 18. Jahrhunderts als das maßgebliche Beispiel. Ein spätes Beispiel ist "Il Barbiere di Siviglia" von Gioachino Rossini. Die ausnehmend heiteren Opern waren oft geringer angesehen als die sentimentalen. Ihre Stoffe stammen aus dem Volkstheater und von der Posse, stark beeinflusst durch die italienische Commedia dell’arte. Aus der frühen Opera buffa geht die französische Opéra comique hervor, die vor der Revolution zur Oper eines zunehmend selbstbewussten Bürgertums wird. Zunächst verstand man hierunter eher ein Liederspiel (Vaudeville). Doch der musikalische Anteil wurde immer größer und begann zu überwiegen. Aus der Opéra comique ist das deutschsprachige Singspiel entstanden. Das Singspiel trägt oft volkstümlich-bürgerlichen Charakter, ist geprägt von einfachen Lied- bzw. Rondo-Formen und verwendet statt Rezitativen gesprochene Dialoge, gelegentlich auch Melodramen zwischen den musikalischen Nummern. Der Hof sprach Französisch. Das Problem der deutschen Oper war im 18. und zum Teil noch im 19. Jahrhundert, dass sie als volkssprachliche Oper zur „niederen“ Gattung gehörte und sich behaupten und emanzipieren musste. "Die Entführung aus dem Serail" von Wolfgang Amadeus Mozart ist eines der bekanntesten Singspiele mit dieser Zielsetzung. Mozart bedient sich für die Arien auch komplexerer musikalischer Formen. Das im Auftrag von Kaiser Joseph II. zur Etablierung eines "Nationalsingspiels" geschaffene, 1782 am Wiener Burgtheater uraufgeführte Werk war für die Entwicklung der deutschen Oper von entscheidender Bedeutung. Paris war im 19. Jahrhundert führend für die Operngeschichte, und auch die Italiener wie Rossini und Verdi kamen hierher. Die Opéra comique, die im Haus der Opéra-Comique aufgeführt wurde, blieb auch gegenüber der neu entstandenen, durchkomponierten Grand opéra, die in der Opéra zur Aufführung kam, zweitrangig – weniger von ihrer musikalischen als von ihrer sozialen Bedeutung her. Aus den erwähnten Gründen musste sie nicht unbedingt einen heiteren Inhalt haben. Ein auch im deutschen Sprachgebiet bekanntes Beispiel einer komisch-rührseligen Opéra comique ist "Der Postillon von Lonjumeau" von Adolphe Adam. Eine Gruppe von formal noch als Opéra comique zu bezeichnenden Werken nach 1860 verstärkte den sentimentalen Grundcharakter (etwa "Mignon" von Ambroise Thomas). Ein sentimentaler Einschlag findet sich auch in einigen komischen Opern von Rossini ("La Cenerentola"). Eine Erneuerung der Opéra comique gelang mit "Carmen" von Georges Bizet, deren Dramatik in die Richtung der Verismo-Oper weist. Bei ihr war – abgesehen von den proletarischen Figuren – das Reißerische ein Merkmal des „niederen“ Stils. Große Oper – Kammeroper. Auch die „Größe“ kann ein Zeichen für hohen oder niederen Stil sein. Zuweilen findet sich der Begriff „Große Oper“ als Untertitel eines Werkes. Damit wird zum Beispiel gesagt, dass das Orchester und der Chor in großer Besetzung spielen und singen sollten, oder dass die Oper ein abendfüllendes Werk mit integriertem Ballett ist. Dies sind Opern, die nur in einem größeren Theater zur Aufführung kommen und sich vom Repertoire der fahrenden Truppen unterscheiden konnten. Als Beispiel für eine „Große Oper“ ist "Manon" von Jules Massenet zu nennen. Der Begriff Kammeroper bezieht sich dagegen auf ein mit geringem Personal realisierbares Werk. Die Anzahl der Sänger ist in der Regel nicht mehr als fünf, das Orchester wird auf ein Kammerorchester begrenzt. Dies konnte aus der Not materielle Armut hervorgehen und damit auf das „niedere“ Genre verweisen oder im Gegenteil die größere Exklusivität und Konzentration eines „höheren“ Genres bedeuten. Auch die Bühne ist oftmals kleiner, was zu einer intimeren Atmosphäre beitragen kann, die für die Wirkung des Werkes von Vorteil ist. Beispiele dafür wären "Albert Herring" von Benjamin Britten oder „Les Larmes de couteau“ von Bohuslav Martinů. Gattung oder bloß Untertitel? Manche Opernkomponisten wehrten sich auch gegen die Einordnung in Gattungstraditionen oder bezeichneten ihre Werke in bewusster Relation zu diesen mit bestimmten Untertiteln. Wagners "Tristan und Isolde" trägt zum Beispiel die Bezeichnung „Handlung in Musik“, Luciano Berio verwendete für sein Werk "Passaggio" etwa den Begriff "Messa in scena" („Inszenierung“). George Gershwin beschrieb sein Werk "Porgy and Bess" als „An American Folk Opera“. Um sich von klischeehaften Vorstellungen abzugrenzen, bevorzugen moderne Komponisten oft alternative Bezeichnungen wie etwa „azione scenica“ ("Al gran sole carico d’amore" von Luigi Nono) oder „azione musicale“ (musikalische Handlung) ("Un re in ascolto" von Luciano Berio). Repertoire. Aufgrund der nicht immer leichten Abgrenzbarkeit der Gattung Oper von anderen musikalischen Gattungen und Genres und der Praxis des Pasticcios ist eine Aussage zum Gesamtumfang des Opern-Repertoires mit zahlreichen Schwierigkeiten behaftet. Aktuelle Auflistungen gehen von ca. 5800 bis 6000 bekannten Werken aus. Rechnet man die nicht unerhebliche Anzahl verschollener und verlorener Werke, insbesondere des 18. und frühen 19. Jahrhunderts mit ein, dürfte eine Gesamtzahl von ca. 7000 bis 9000 Opern realistisch sein. Katarina Karnéus als "Serse" an der Schwedischen Oper Stockholm, 2009 Die große Menge an Werken macht es Theatern und Opernhäusern nicht einfach, eine Auswahl zu treffen, die einem hohen Anspruch genügt und auch genügend Publikum findet. Abhängig von der Größe des Theaters und dem vorhandenen Budget wird von Intendant und Dramaturgie für jede Sparte des Theaters (Schauspiel, Musiktheater, Ballett, Kinder- und Jugendtheater, Puppentheater etc.) ein Spielplan erarbeitet, der dem Haus und seinen Mitarbeitern angepasst ist. Der Spielplan geht auf die regionalen Eigenheiten und Aufführungstraditionen des Ortes ein – zum Beispiel durch open air-Festspiele, Weihnachts- oder Neujahrskonzerte – weist aber auch auf aktuelle Strömungen des Musiktheaters hin, indem auch zeitgenössische Werke aufgeführt werden. Je nach Größe des Hauses werden verschiedene Opern in einer Spielzeit neu inszeniert. Die erste öffentliche Darbietung einer neuen Oper nennt man Uraufführung, die erste öffentliche Darbietung einer Oper in einer neuen Inszenierung Premiere. Nach und nach hat sich ein praxiserprobter, mehr oder weniger enger Kanon an Opern herausgebildet, die regelmäßig auf dem Spielplan stehen. Entsprechend hat sich das Interesse vor allem des Feuilletons von den vielfach bereits bekannten Werken hin zu deren Interpretation verlagert, wobei vor allem die Inszenierung in den Vordergrund rückt. Das Publikum verbindet seine Lieblingsopern oft mit bestimmten Traditionen, die zum Teil auch in Konventionen erstarrt sind, und reagiert auf radikale Deutungsansätze (Regietheater) kontrovers. Sprache der Aufführungen. Bis zur Mitte der 1960er Jahre wurden Opern zumeist in der jeweiligen Landessprache des Aufführungsortes aufgeführt. So wurden Verdi-Opern in Deutschland in deutscher Sprache und Wagner-Opern in Italien in italienischer Sprache gesungen, wie auch Radio- und Fernsehaufzeichnungen belegen. Bereits zuvor gab es jedoch Theater, die Opern in der jeweiligen Originalsprache aufführten, etwa die Metropolitan Opera in New York. Auch die Salzburger Festspiele zeigten Opern stets ausschließlich in der Originalsprache. Aufgrund eines Vertrages mit der Mailänder Scala, bei dem sich italienische Sänger verpflichteten, auch an der Wiener Staatsoper zu singen, führte Herbert von Karajan 1956 an der Wiener Staatsoper das Prinzip ein, Opern in der Originalsprache aufzuführen. Mit seiner Begründung, die Einheit von Wort und Musik gehe bei Übersetzungen in eine andere Sprache verloren, wurden Opern allmählich immer mehr in ihrer ursprünglichen Form aufgeführt. Auch der Schallplatten und Sänger-Markt, der sich zunehmend internationalisierte, trug entscheidend zu dieser Entwicklung bei. In der DDR gab es hingegen weiterhin eine große Tradition von Übersetzungen, jedoch wurde mit neuen Übertragungen (z. B. Walter Felsenstein, Siegfried Schoenbohm) versucht, den Inhalt des Originals genauer, sprachlich gelungener und vor allem musikalisch passender umzusetzen. Heute werden in fast allen großen Opernhäusern Opern in der Originalsprache aufgeführt und dazu simultan Übertitel eingeblendet. An vielen kleineren Theatern, vor allem im Osten Deutschlands, gibt es noch Aufführungen in deutscher Sprache. Auch gibt es in einigen Städten (z. B. Berlin, München, Wien) mehrere Opernhäuser, von denen eines Opern in Übersetzungen aufführt, wie etwa die Volksoper Wien, die Komische Oper Berlin, das Staatstheater am Gärtnerplatz in München, oder in London die English National Opera. Hin und wieder gibt es auch eine autorisierte Übersetzung (wie im Falle der Opern Leoš Janáčeks, deren deutscher Text von Janáčeks Freund Max Brod stammt, so dass auch der deutsche Text als original gelten darf). Schwierig gestaltet sich die Aufführung in Originalsprache auch immer dann, wenn Dialoge in dem Werk vorkommen. Hier gibt es auch Mischformen, das heißt, gesprochene Texte werden übersetzt, gesungene erklingen jedoch in Originalsprache. Im Bereich Singspiel, Operette, Musical ist daher die übersetzte Musiktheateraufführung weit verbreitet. Für die exakte Übersetzung aus einer Fremdsprache ist am Theater die Dramaturgie zuständig. Wenn die Sprachkenntnisse der Korrepetitoren vertieft werden sollen, werden auch spezialisierte Coaches für eine Fremdsprache hinzugezogen. Ordensgemeinschaft. Eine Ordensgemeinschaft (auch "Orden", von ‚Ordnung‘, ‚Stand‘) ist eine durch eine Ordensregel verfasste Lebensgemeinschaft von Männern oder Frauen, die sich durch Ordensgelübde an ihre Lebensform binden und ein spirituelles Leben in Gemeinschaft führen, in der Regel in einem Kloster. Begriff und Verbreitung. Von Ordensleuten zu unterscheiden sind Eremiten, die zwar auch Mönche oder Nonnen sein können, aber als Einzelne ein Leben in der Einsamkeit führen, und andere Formen religiösen Lebens (etwa gottgeweihte Jungfrauen, Mitglieder von Säkularinstituten, evangelische Diakonissen und Diakonengemeinschaften). Der im Deutschen außerhalb des kirchenrechtlichen Sprachgebrauchs allerdings wenig gebräuchliche Oberbegriff für alle, die in einer der durch Gelübde oder bindende Versprechen begründeten Formen gottgeweihten Lebens (lat. "vita consecrata") leben, lautet "Religiosen" oder "gottgeweihte Personen". Innerhalb der Ordensgemeinschaften der (lateinischen) Kirche unterscheidet man Zu den alten Orden, die feierliche Gelübde ablegen, gehören länger als 700 Jahre bestehende Gemeinschaften, darunter monastische Orden, deren Mitglieder Mönche oder Nonnen sind, geistliche Ritterorden, Bettelorden und Regularkanoniker. Ordensgemeinschaften neueren Ursprungs werden meist als Kongregationen bezeichnet. Der Codex Iuris Canonici (CIC) von 1983 kennt die Unterscheidung zwischen Orden und Kongregationen nicht mehr. Über das Eigenrecht der einzelnen päpstlich oder bischöflich approbierten Gemeinschaften sind die teilweise sehr alten Regelungen aber weiterhin Bestandteil des katholischen Kirchenrechts. Ordensinstitute werden zusammen mit den Säkularinstituten als Institute des geweihten Lebens (Cann. 573–606) bezeichnet. Es gibt neben den römisch-katholischen Ordensgemeinschaften auch anglikanische sowie evangelische Gemeinschaften und Kommunitäten. Kaum Ordensgemeinschaften im westlichen Sinn gibt es dagegen in den orthodoxen Kirchen und den in deren kirchlicher Tradition stehenden katholischen Ostkirchen. Das orthodoxe Mönchtum wird vielmehr größtenteils in selbständigen Klöstern und Klosterverbänden (z. B. die Mönchsrepublik vom Berg Athos) praktiziert. In einem allgemeinen, weiteren Verständnis fasst man auch orthodoxe Mönche und Nonnen unter den Oberbegriff des Ordenslebens. Die aus dem Kirchenrecht stammende Bezeichnung "Orden" wurde später auch von bestimmten weltlichen Gemeinschaften verwendet. So stifteten europäische Monarchien seit dem 14. Jahrhundert eine Reihe von höfischen Ritterorden, aus denen später meist wichtige Verdienstorden hervorgingen (z. B. Hosenbandorden). Außer im Christentum gibt es Orden oder ordensähnliche Gemeinschaften auch in anderen Religionen, beispielsweise im Buddhismus, Hinduismus und Islam. Spiritualität und Lebensformen sind in den verschiedenen Religionen sehr unterschiedlich. Ursprünge und Frühzeit. Während der Zeit der Christenverfolgung war die große Anziehungskraft des christlichen Glaubens unter anderem darin begründet, dass Menschen mit Unbedingtheit und Unbeirrbarkeit ihren Glauben vertraten – das Neue Testament nennt dies „Zeugnis ablegen“ –, selbst wenn sie dafür ihr Leben als Märtyrer oder Blutzeugen verloren. Dies beruhte auf der Naherwartung der Wiederkunft Christi. Man glaubte, dass das Jüngste Gericht innerhalb der ersten oder zweiten Generation nach Jesu Tod kommen werde und dass man sich dafür am besten durch kompromisslose Hingabe an das Gottesreich würdig erweisen konnte. Durch Kontakt mit der Gnosis und der griechischen Philosophie entwickelte die frühe Christenheit eine von einem Hang zur Askese und einer gewissen Leibfeindlichkeit gekennzeichnete Spiritualität, bei der persönliche Hingabe an die Stelle der Naherwartung trat. Die Anhänger dieser Strömung suchten eine tiefere Gottesbegegnung und ihr persönliches Heil durch Enthaltsamkeit, Bußübungen, ständiges Gebet und Schweigen zu erlangen. Dabei kam ein sehr radikales Vollkommenheitsideal zum Tragen, das innerhalb einer weltlich orientierten Umgebung nur schwer zu verwirklichen war. Bald führte das Bedürfnis, eine tiefere Gottverbundenheit und Spiritualität zu verwirklichen, zur Entwicklung des christlichen Eremitentums, dessen theologische Basis die alttestamentliche „Wüstentheologie“ ist; so bedeutet das Wort „Eremit“ wörtlich „Wüstenbewohner“. Der Begriff nimmt Bezug auf die innere Einkehr in der Wüste, die als Bild nicht nur für Stille und Zurückgezogenheit, sondern auch für den Gehorsam und die Anerkennung Gottes als Herrn steht, wie sie in der 40-jährigen Wanderung der Israeliten in der Wüste nach ihrem Auszug aus Ägypten sowie in den Berufungsgeschichten des Mose und vieler biblischer Propheten zum Ausdruck kommt. So berichten die Evangelien von einem 40-tägigen Aufenthalt Jesu in der Wüste als einem einschneidenden Moment der Entscheidung und Begegnung mit Gott. Das christlich-eremitische Leben entwickelte sich etwa zeitgleich in Syrien und Ägypten. Als erster christlicher Eremit in Ägypten gilt Paulus von Theben; sein Schüler Antonius der Große wurde zu einem der großen Wüstenväter. Im Verlauf des 3. Jahrhunderts führten die Erfahrungen der Eremiten, die sich oft zu Einsiedlerkolonien zusammenschlossen, zu dem Bedürfnis vieler, ein auf Gebet und Askese konzentriertes, zurückgezogenes Leben auch in einer Gemeinschaft führen zu können. Mönche und Nonnen – deren Lebensform sich aus Zusammenschlüssen von geweihten Jungfrauen entwickelt hatte –, die sich dem kontemplativen Leben in Gemeinschaft widmen, nennt man im Unterschied zu den Eremiten (Anachoreten) „Koinobiten“. Um 320 gründete Pachomios (um 292–346) in Oberägypten das erste christliche Kloster. Basilius von Caesarea verfasste um 350 in Anlehnung an Pachomios’ "Engelsregel" eine Mönchsregel, die heute noch für die Mehrzahl der Klöster der orthodoxen Kirche gilt und auch Grundlage für die von Benedikt von Nursia um 540 verfasste Benediktsregel war. Die Regeln der frühen Mönchsgemeinschaften zielten in der praktischen Verwirklichung des Evangeliums auf ein Gleichgewicht zwischen Gebet und tätiger Arbeit ("ora et labora") ab und schrieben ein anspruchsloses, brüderliches gemeinsames Leben vor. Schon früh wurden die drei Evangelischen Räte (Armut, Ehelosigkeit, Gehorsam) als Synthese und Richtschnur dieser Lebensweise angesehen und entwickelten sich zum unterscheidenden Merkmal und „Grundgesetz“ des Mönchtums und des Ordensstandes überhaupt. Sie sollten es den Religiosen ermöglichen, in einer Nachahmung der Lebensweise Jesu ("Imitatio Christi") zu leben und damit sowohl ihre persönliche Gottesbeziehung zu vertiefen als auch stellvertretend für das Seelenheil der Menschen ihres Umkreises zu beten. Die Benediktiner sind heute noch der größte und bedeutendste Mönchsorden des Abendlandes, der dieses Ideal zu verwirklichen sucht. Mittelalter. Im frühen Mittelalter spielte die Iroschottische Kirche in Europa eine zentrale Rolle bei der Verbreitung des christlichen Glaubens und des Ordenswesens. Als herausragende Mönche der frühen Zeit sind Patrick und Columban von Iona zu nennen. Auf dem europäischen Festland konnten sich in der Spätantike und im frühen Mittelalter die kirchlichen Strukturen, durch die Wirren der Völkerwanderung, nur langsam entwickeln. Das gilt insbesondere für die zuvor römisch besetzten Gebiete. Dort brachen die Verwaltungsstrukturen in den Zeiten des Umbruchs völlig zusammen, bis die germanischen Stämme ihre Gebiete klar abgesteckt hatten. Das Leben, auch von kirchlichen Gemeinschaften, war somit ständig bedroht. Anders war das in Irland, einem Gebiet das niemals römisch besetzt war und nicht von der Völkerwanderung tangiert wurde. Die Ordensgemeinschaften Irlands hatten entsprechend auch während der Völkerwanderung stabile und gefestigte Strukturen. Mönche hatten eine hohe gesellschaftliche Stellung inne, da sie von Adel und Bevölkerung als Vertreter des neuen Glaubens und zugleich als legitime Nachfolger der keltischen Druiden anerkannt wurden. Wissen der heidnischen Priesterschaft, beispielsweise über die Natur und das inselkeltische Recht der Brehons konnten so in die Klosterkultur integriert werden. Daraus resultierte eine gesellschaftlich und wirtschaftlich solide Basis, worauf die Klöster ihren Glauben entfalten und ihre wissenschaftlichen Tätigkeiten ausbauen konnten. So erblühten die Klöster Irlands in der Spätantike und im Frühmittelalter. Die Klöster waren kulturelle und religiöse Zentren und legten großen Wert auf das Studium der Bibel. So bekam Irland über Jahrhunderte hinweg den Ruf als „Insel der Heiligen und Gelehrten“, weshalb fränkische Herrscher wie Karl der Große irische Gelehrte an ihren Hof holten. Die iroschottische Kirche wurde jahrhundertelang zentral von ihren Klöstern geprägt. Anders als in den römisch besetzten Gebieten Englands und des Festlands gab es in Irland keine Diözesen. Die Äbte ernannten vielmehr in ihrem Kirchensprengel den Bischof und waren ihm vorgesetzt, bisweilen übten sie auch beide Ämter aus. Vor diesem Hintergrund war es möglich eine weitreichende Missionstätigkeit zu entwickeln, die immer eng an das Mönchstum geknüpft blieb und bereits im 7. Jahrhundert sehr erfolgreich war. Die Mönche missionierten zunächst in Schottland, wobei das Jahr 563 als Beginn gilt, als Columban auf der Insel Iona ein Kloster gründete. Sie weiteten die iro-schottische Mission danach auf das europäische Festland aus. 590 brach erstmals ein Mönch, Columban der Jüngere (†615), von den Inseln auf, um auf dem europäischen Festland zu missionieren. Er begann seine Missionstätigkeit auf fränkischem Gebiet, missionierte in Frankreich, Italien und der Schweiz und gründete drei Klöster: Luxeuil, Bregenz und Bobbio. Nachfolger Kolumbans war sein Schüler Eustasius (†629), der 615 Abt im Kloster Luxeuil wurde. In Süddeutschland, Österreich und der Schweiz waren Gallus (†645) und Kilian (†689) tätig. Infolge von Columbans Festlandsmission kam es im 7. Jahrhundert zu rund 300 Klosterneugründungen. Den iroschottischen Mönchen gelang es mit Hilfe des fränkischen Adels auch auf dem Lande erfolgreich zu missionieren und in ländlichen Gebieten Klöster zu gründen, während das Christentum zuvor vor allem in den Städten verbreitet war. Das iroschottische Mönchstum und die Regel Columbans wurden so in Europa weit verbreitet. Durch Beschluss des Konzils von Autun (um 670) wurde zwar versucht die Regula Benedicti für alle Orden verbindlich einzuführen, tatsächlich blieben aber beide Regeln bis 817 (Reform Benedikts von Aniane), vorwiegend in Mischform, verbreitet. Als letzter wichtiger Vertreter der iro-schottischen Mission gilt Virgil, der um 750 Bischof in Salzburg wurde. Iroschottische Klöster prägten somit durch ihre frühe Missionstätigkeit die Verbreitung des christlichen Glaubens und des Mönchtums in Europa nachhaltig. In ihrem Bemühen, ihr religiöses Ideal mit einer nutzbringenden Arbeit zu verbinden und diese Aufgabe mit der geforderten Sorgfalt zu erfüllen, hatten die Orden, vor allem die benediktinischen, großen Anteil an der Kultivierung Europas. Das in den Klöstern angesammelte Wissen ermöglichte es, die Kultur in den Bereichen Landwirtschaft, Gartenbau, Medizin, Literatur, Musik, Kunst und Philosophie auf einen annähernd so hohen Stand zu bringen, wie er im römischen Reich vor der Völkerwanderung bestanden hatte. Schenkungen, Erbschaften und erfolgreiches Wirtschaften führten in den Klöstern wie in der gesamten kirchlichen Organisation zu einem Anwachsen des Vermögens und der wirtschaftlichen und gesellschaftlich-politischen Macht. Im Lauf der Zeit kamen immer wieder Reformbewegungen auf, die zu den Ursprüngen des Mönchtums zurückkehren und die Klostergemeinschaft vor allem durch stärkere Askese und Disziplin gegen Verwässerung der religiösen Ideale und Verfall der Sitten schützen wollten. Dadurch kam es häufig zu Abspaltungen und Neugründungen. Im Zuge der Kirchenreformen des 11. Jahrhunderts gewann das so erneuerte Mönchtum (speziell Cluny und seine Tochtergründungen) entscheidenden kirchenpolitischen Einfluss und stellte eine Reihe von Päpsten. Später war es die von dem Cluniazensermönch und Prediger Bernhard von Clairvaux inspirierte Reformbewegung der Zisterzienser, die die benediktinische Lebensweise wieder zu ihrer alten Strenge zurückführen wollte. Durch vielfache Klostergründungen und Rodungen in bis dahin wenig besiedelten oder unzugänglichen Waldgebieten wurden besonders die Zisterzienser im 12. Jahrhundert zu einem Motor der siedlungsgeschichtlichen Dynamik in vielen Gebieten Europas. Zur Betreuung der Pilger aller Religionen in Jerusalem entstand dort im 11. Jahrhundert ein Hospitalsorden, dessen Aktivitäten 1099 erstmals dokumentiert sind und der 1113 als Johanniterorden von der Kirche anerkannt wurde. Ihm folgten mehrere Ritterorden, zur Pflege der Pilger als Hauptaufgabe trat deren Schutz und die Verteidigung der Pilgerstätten im Heiligen Land. Als Reaktion auf die sozialen Spannungen in der hochmittelalterlichen Gesellschaft, die von einer wachsenden Bedeutung der Städte und den Umbrüchen der entstehenden Geldwirtschaft geprägt war, kamen im 13. Jahrhundert die so genannten Bettelorden oder "Mendikanten" (vor allem Franziskaner und Dominikaner) auf. Ähnlich wie viele außerhalb der Kirche angesiedelte und von dieser als Häretiker bekämpfte Bewegungen, die den offensichtlichen Widerspruch zwischen dem Leben der reichen und mächtigen Kirchenfürsten und der von Jesus vorgelebten evangelischen Armut brandmarkten, stellten diese neuen Gemeinschaften die Armut und Bedürfnislosigkeit Jesu in den Mittelpunkt ihres Lebens, das sich nun nicht mehr in der Abgeschiedenheit der Klöster abspielte, sondern vornehmlich in den Städten und mitten unter der Bevölkerung. Die Predigt war die Hauptaufgabe der Brüder, die so in Konkurrenz zu den Vertretern häretischer Armutsbewegungen traten und diese durch überzeugendes Auftreten und eine vorbildhafte Lebensweise zu verdrängen suchten. Während sich die Dominikaner besonders der Erneuerung der Priesterausbildung, der theologischen Wissenschaft und der Katechese widmeten, stand bei den Franziskanern die Seelsorge und die konsequente Beachtung des Armutsideals im Vordergrund. Beide Gemeinschaften sind als kirchliche Antworten auf die damaligen akuten Gefährdungen der Kirche durch Zeitströmungen zu begreifen. Sie nahmen daher auch in der Ketzerverfolgung und Inquisition wichtige Funktionen ein. Auch die Karmeliten (eigentlich ein Eremitenorden) und die Augustiner-Eremiten (Mitte des 13. Jahrhunderts aus norditalienischen Mendikantengruppen entstanden) gehören zu den Bettelorden. Frühe Neuzeit. Martin Luther, der zunächst selbst dem Orden der Augustiner-Eremiten angehörte, lehnte in seinen reformatorischen Lehren den Zölibat der Priester und die Verpflichtung durch Ordensgelübde ab (einer freiwilligen Ehelosigkeit stand er zumindest anfänglich jedoch nicht ablehnend gegenüber). Die Verstrickung mancher Orden in die Ausbeutung der unteren Bevölkerungsschichten (Unfreiheit der Bauern, Fürstäbte) führte dazu, dass in den Bauernkriegen viele Abteien geplündert wurden. Nonnen und Mönche, die sich der Reformation anschlossen, verließen ihre Ordensgemeinschaften. Häufig wurden die Frauenklöster aber in weltliche Stifte umgewandelt, in denen die Stiftsdamen keine Gelübde auf Lebenszeit ablegten. Klöster in den evangelischen Fürstentümern und Städten wurden geschlossen. Das Vermögen und die Gebäude der Orden und Klöster wurden dabei manchmal von den Fürsten beschlagnahmt, meist allerdings für die Bezahlung der neuen evangelischen Pfarrer oder die Einrichtung von Schulen und Spitälern reserviert. Im 16. Jahrhundert bildete der neu gegründete Orden der Jesuiten ein wichtiges ausführendes Organ der einsetzenden Gegenreformation. Die Eroberung Amerikas und die Ausbreitung der Europäer über die gesamte Welt brachte eine völlig neue Perspektive auch für das Christentum. Es wurde klar, dass die Bevölkerung der Erde größtenteils aus ungetauften „Heiden“ bestand. In der Folge vermischten sich redliche Bemühungen, die (aus der Sicht der Europäer) ungebildete und damit der Hölle ausgelieferte indigene Bevölkerung mit dem christlichen Glauben bekannt zu machen, und die schamlose Ausbeutung der Menschen zu einer aus heutiger Sicht schändlichen Missionierung mit Feuer und Schwert. Die Franziskaner, die Jesuiten und die Dominikaner waren die ersten, die in Amerika missionierten, wobei es viele Priester gab, die Sklaverei und Zwangstaufen als Mittel zur Bekehrung und Zivilisierung der Bevölkerung ansahen. Die Orden gaben sich hier als ausführende Organe der erobernden Fürsten her, so dass politische Unterwerfung und christliche Evangelisierung untrennbar verbunden wurden. Es gab aber auch kritische Stimmen (z. B. Bartolomé de Las Casas), die sich dieser Barbarei entgegenstellten. Heute wird Mission von den christlichen Kirchen völlig anders verstanden und ist meistens mit sozialem und politischem Engagement für die Menschen verbunden. Späte Neuzeit und Moderne. Im 18. Jahrhundert führte die Aufklärung dazu, dass viele Fürsten, auch Kirchenfürsten, dem Ordensleben kritisch gegenüberstanden, sofern es nicht mit einer humanistischen oder sozialen Komponente verbunden war. So wurden beispielsweise rein kontemplative Gemeinschaften aufgefordert, sich an der Schulbildung der Bevölkerung zu beteiligen. Ende des 18. Jahrhunderts in Frankreich und zu Beginn des 19. Jahrhunderts in Gebieten unter französischer Herrschaft führte die Säkularisation zur Enteignung und Aufhebung vieler Klöster. Die Immobilien und das Vermögen der Orden flossen dem französischen Staat oder den Fürsten zu, die damit für die Verluste durch die napoleonischen Kriege und die Neugestaltung der politischen Landkarte Europas (Wiener Kongress) entschädigt wurden. Viele Ordensgemeinschaften starben in der Folge aus, weil sie keine Novizen mehr aufnehmen durften. Nach der Säkularisation dagegen fand in der katholischen Kirche ein großer Neuaufbruch des Ordenslebens statt. Soziale Missstände wie mangelnde Krankenpflege, Volksbildung und Kinderfürsorge wurden aufgegriffen, indem Weltpriester an vielen Orten Frauengemeinschaften gründeten, die häufig die Drittordensregel des hl. Franz von Assisi oder die Regel der Vinzentinerinnen annahmen. Die evangelische Kirche griff dieses Anliegen in den mehrheitlich reformierten Gebieten unter anderem durch die Diakonissen und die von Bodelschwinghschen Anstalten in Bethel auf. Seit den 1960er Jahren ist das Ordensleben in Westeuropa insgesamt zunehmend in eine personelle und damit verbundene strukturelle Krise geraten. In der säkularisierten Welt ist die Attraktivität des Ordenslebens gesunken, das Leben als Ordensfrau oder Ordensmann verliert an gesellschaftlichem Prestige, und das allgemeine Verständnis für ein Leben im Kloster oder Konvent ist geschwunden. Neueintritte werden dadurch seltener. Viele Verbände mussten ihre Aktivitäten in den vergangenen Jahrzehnten stark reduzieren oder Niederlassungen schließen. Das durch Überalterung entstandene unausgewogene Altersverhältnis führte mancherorts zu Spannungen. Dabei lassen sich in manchen Bereichen Unterschiede zwischen apostolisch und kontemplativ lebenden Gemeinschaften erkennen, wobei Letztere ebenso wie bestimmte neu gegründete Ordens- oder ordensähnliche Gemeinschaften (etwa die Gemeinschaften von Jerusalem oder die Gemeinschaft vom Lamm) zeitweise eine dem allgemeinen Trend gegenläufige gute Nachwuchssituation vermeldeten. Auch stellt sich die Lage des kirchlichen Ordenslebens in anderen Kontinenten (etwa in Afrika und bis vor einiger Zeit in Lateinamerika) anders dar, wo einige Gemeinschaften eine hohe Zahl an Neueintritten zu verzeichnen haben und viele Neugründungen vornehmen. Systematik. Nicht in dieser Systematik erfasst sind die mit dem Ordensleben verwandte, relativ junge Lebensform der Säkularinstitute sowie die Gesellschaften apostolischen Lebens (etwa die Pallottiner oder die Vinzentinerinnen), die formalrechtlich nicht als Ordensinstitute betrachtet werden. Lebensform und kirchenrechtliche Organisation. Maßgebend sind zurzeit die Bestimmungen über die Institute des geweihten Lebens im Codex des Kanonischen Rechtes in der Fassung von 1983. Ein römisch-katholischer Orden im engeren Sinne ist eine Gemeinschaft von Mönchen, Ordensbrüdern und Ordenspriestern oder Regularkanonikern beziehungsweise Nonnen oder Ordensschwestern, die sich in feierlichen Gelübden zum Leben nach den Evangelischen Räten unter einem Oberen und nach ihrer jeweiligen Ordensregel verpflichtet haben. Zum Lebensstil der Orden gehören unbedingt die Lebensgemeinschaft in einem Konvent oder Kloster, der Gehorsam gegenüber einem Oberen (je nach Tradition "Abt", "Prior", "Superior", "Guardian" oder "Minister" genannt, bei Frauenorden "Äbtissin, Priorin" oder "Oberin"), die (teilweise öffentliche) Feier des Stundengebets, das Leben nach einer Ordensregel und die enge Verbindung von Gebet und Arbeit, sowie in der Regel eine Ordenstracht. Viele Orden sind schon im frühen bis hohen Mittelalter entstanden, wie beispielsweise die Benediktiner, die Prämonstratenser, der Deutsche Orden oder die Augustiner-Chorherren. Regularkleriker sind ursprünglich Gemeinschaften von Priestern, die sich unter einer ordensähnlichen Regel oder Verfassung zusammengefunden haben, um einem bestimmten Charisma zu folgen. Viele von ihnen entstanden im 16. und 17. Jahrhundert. Ihre Lebensform kann in bestimmten Aspekten abweichend von jener der traditionellen Orden geregelt sein. So fehlt bei einigen Gemeinschaften die Armutsverpflichtung oder die unbedingte Pflicht zum Gemeinschaftsleben, manche (etwa die Jesuiten oder die Marianen) kennen zusätzliche Gelübde. Kongregationen sind in der Regel jüngeren Datums. Viele von ihnen entstanden im 18. und 19. Jahrhundert. Sie haben sich prinzipiell einer ursprünglichen Ordensregel angeschlossen, jedoch eine eigene Ausprägung mit eigenen Satzungen (meist "Konstitutionen" genannt) entwickelt. Hierunter fallen Gemeinschaften wie die Borromäerinnen, die Spiritaner, Gemeinschaften der Regulierten Dritten Orden der Franziskaner oder Dominikaner und sehr viele andere Frauen- und Männergemeinschaften. Die Unterscheidung zwischen Orden und Kongregationen besaß im früheren Kirchenrecht große Bedeutung, spielt aber im heutigen Kodex nur eine untergeordnete Rolle. Allerdings spiegeln sich die traditionellen Unterschiede oft im Eigenrecht der betreffenden Gemeinschaften wider. Ihre Mitglieder legen keine feierlichen, sondern so genannte einfache Gelübde ab, was jedoch über die kirchenrechtliche Bezeichnung hinaus kaum praktische Bedeutung besitzt. Die Gesellschaften apostolischen Lebens unterscheiden sich in ihrer Lebensweise kaum von einer Kongregation. Sie legen jedoch keine Gelübde ab, sondern ein Versprechen, was den Gelübden inhaltlich gleichkommt, kirchenrechtlich aber nicht die gleiche Bindung bewirkt. Die Mitglieder dieser Gemeinschaften legen nach einigen Jahren die endgültigen zeitlichen Versprechen ab. Typische Gesellschaften des Apostolischen Lebens sind die Vinzentinerinnen und die Pallottiner. Die Mitglieder einer Ordensgemeinschaft leben in Gemeinschaft, entweder in mehr oder weniger strenger Klausur, das heißt, abgeschieden von der Welt und im beständigen Wechsel von Gebet und Arbeit in der Stille. Man spricht dann von kontemplativen Gemeinschaften. Oder sie üben ein Apostolat aus, das bedeutet, sie sind im Sinne praktizierter Nächstenliebe in den unterschiedlichsten Berufen aktiv in der Welt und in der Kirche tätig, was sowohl unmittelbar kirchliche Aufgabenbereiche (etwa Verkündigung oder Mission) als auch allgemeine soziale oder gesellschaftliche Aufgabenfelder umfassen kann (etwa Krankenpflege, Erziehung oder Wissenschaft). Diese Gemeinschaften nennt man apostolische Ordensgemeinschaften. Ein Beispiel für eine apostolische Ordensgemeinschaft sind die Salvatorianer. Es gibt auch gemischt kontemplativ-apostolische Ordensgemeinschaften. Streng klausurierte Orden sind zum Beispiel die Trappisten, die Kartäuser, die Klarissen und Karmelitinnen. Die Bezeichnung "Nonne" (weibliche Form von griechisch und lateinisch "nonnus", "Mönch") umfasst kirchenrechtlich nur die in der so genannten "päpstlicher Klausur" lebenden Schwestern monastischer Orden; Mitglieder, die nicht klausuriert lebenden und nicht-monastischen Gemeinschaften angehören, heißen dagegen allgemein "Ordensschwestern". Ordensgemeinschaften haben ihre eigenen Bestimmungen für die Mitglieder, die sich nach langer Erfahrung mit dem Leben in Gemeinschaft zum Eremitentum berufen fühlen, sodass sie − mit Genehmigung − diesen Schritt unternehmen können, ohne ihre Zugehörigkeit zur Ordensgemeinschaft aufgeben zu müssen. Nonnen und Ordensschwestern, in deren Orden dies nach altem Brauch üblich ist, können bei oder kurz nach der feierlichen Profess auch die Jungfrauenweihe empfangen. Für beide Fälle sind Can. 603 beziehungsweise Can. 604 des CIC nicht anwendbar, da diese kirchenrechtlichen Regelungen lediglich solche Eremiten und geweihte Jungfrauen betreffen, die in das geweihte Leben eintreten, ohne Mitglieder einer Ordensgemeinschaft zu sein. Viele Institute ermöglichen es ihnen verbundenen Gläubigen, die ihr weltliches Leben weiterführen möchten, einer mit der Ordensgemeinschaft verbundenen Laienorganisation beizutreten oder sich der Gemeinschaft als Oblaten (von lat. oblatum, dargebracht) oder Drittordensmitglieder anzuschließen. Auf diese Weise können Männer und Frauen an der Spiritualität einer Ordensgemeinschaft teilhaben, deren geistliche Impulse in die Welt hinaustragen und an der Erfüllung ihrer Aufgaben mitwirken, ohne als Vollmitglieder in den Verband einzutreten. Oblaten, die nach einer Probezeit ihre Profess ablegen können, sind besonders bei den Orden der benediktinischen Tradition verbreitet. Andere Orden – etwa die Franziskaner, Karmeliten und Dominikaner – verfügen traditionell über einen eigenen weltlichen Zweig, einen so genannten Dritten Orden (der neben dem männlichen und weiblichen Zweig des Hauptordens besteht). In apostolischen Ordensgemeinschaften neueren Ursprungs nehmen diese Stellung oft so genannte „Mitarbeiter“ ("Cooperatores") ein, die rechtlich meist in Form eines kirchlichen Vereins ("Öffentliche Vereinigung von Gläubigen") verfasst sind. So gibt es zum Beispiel innerhalb der Don-Bosco-Familie die Salesianischen Mitarbeiter Don Boscos. Zu den weiteren Formen des gemeinschaftlichen religiösen Lebens in der römisch-katholischen Kirche gehören die Säkularinstitute. In Säkularinstituten lebt jedes Mitglied allein und unauffällig in der Gesellschaft. Entsprechend diesem Grundsatz tragen die Mitglieder der Säkularinstitute auch keine äußeren Erkennungszeichen. Es handelt sich hierbei um eine Form der "Vita consecrata", die nach dem zweiten Vatikanum entstand. Traditionell bilden Ordensleute zusammen mit anderen Religiosen wie Eremiten und gottgeweihten Jungfrauen einen eigenen geistlichen Stand, der weder klerikalen noch laikalen Charakter besitzt. Kirchenrechtlich gesehen sind sie in der lateinischen Kirche heute aber je nachdem, ob sie das Weihesakrament empfangen haben oder nicht, entweder den Klerikern oder den Laien zuzurechnen. Ordensgemeinschaften in den Kirchen der Reformation. Die Reformatoren waren dem Ordensleben gegenüber überwiegend ablehnend eingestellt, so dass es durch die Reformation zum Erliegen des Ordenslebens in den evangelischen Konfessionen kam. In den evangelischen Kirchen gibt es heute nur sehr wenige ordensähnliche Gemeinschaften: Eine Besonderheit sind die Orden vom Hl. Johannes (Johanniter), die evangelischen Zweige der heutigen katholischen Malteser, die noch immer in der Tradition des vorreformatorischen Jerusalemer Ordens stehen. Nach der Reformation haben verschiedene evangelische Stifte die Tradition ihrer Klöster und Konvente in erneuerter Form fortgeführt. Ordensgemeinschaften im eigentlichen Sinne waren sie aber nicht. Hier sind beispielsweise in Deutschland die Lüneklöster (Lüne, Wennigsen u. a.) zu nennen, die von der Klosterkammer Hannover verwaltet werden. Bis heute leben im 1529 reformierten Kloster Ebstorf evangelische Frauen unter der Leitung einer evangelischen Äbtissin. Eine Sonderstellung nimmt das Kloster Loccum ein, das 1585 evangelisch wurde und seitdem keinen residierenden Konvent, aber nach wie vor einen Abt und Konventualen hat. Die Diakonissenhäuser ermöglichen Frauen einen Zusammenhalt und eine religiöse Lebensgemeinschaft, wie sie auch aus katholischen Ordensgemeinschaften mit stark karitativer und diakonischer Ausrichtung bekannt ist. Solche Gemeinschaften entstanden vornehmlich im 19. Jahrhundert. Neugründungen, zumeist im 20. Jahrhundert, wie die Communität Casteller Ring und die Communität Christusbruderschaft Selbitz, führen die christliche Tradition des Ordenslebens heute auch in der evangelischen Kirche weiter. Andere Gemeinschaften wie etwa die Michaelsbruderschaft haben sich zwar ordensähnliche Regeln gegeben, leben aber im Alltag nicht zusammen. All diese Entwicklungen sind zumeist in den lutherisch geprägten Kirchen aufgekommen. Die reformierte Kirche kennt hingegen keine Ordensgemeinschaften und lehnt diese Lebensform weiterhin insgesamt ab. Auch pietistische und freikirchliche Gemeinschaften wie die Herrnhuter Brüdergemeine, die mitunter durchaus ein kloster- oder ordensähnliches Gemeinschaftsleben praktizieren, stehen ihrem Selbstbild zufolge grundsätzlich nicht in der Tradition der Ordensgemeinschaften. Ordensgemeinschaften in den anglikanischen Kirchen. In der anglikanischen Kirche gibt es inzwischen wieder zahlreiche Orden und Ordensgemeinschaften. Viele sind von den Franziskanern oder den Benediktinern inspiriert. Ordensleben in den orthodoxen Kirchen. Das Leben der Religiosen spielt sich in den orthodoxen Kirchen in größtenteils selbstständigen Mönchs- und Nonnenklöstern ab. Grundlage des orthodoxen Mönchtums bildet in den meisten Fällen die Ordensregel des Basilius von Caesarea oder die des Theodor Studites. Für Theologie und Spiritualität des orthodoxen Christentums sind die Klöster von überragender Bedeutung. Da die orthodoxe Kirche den Pflichtzölibat nur für Bischöfe, nicht aber für Priester kennt, kommen für das Bischofsamt praktisch ausschließlich Mönche (in seltenen Fällen auch unverheiratete Weltpriester) in Frage, so dass deren Gewicht innerhalb der Kirche auch institutionell sehr hoch ist. Ökumenische Ordensgemeinschaften. Eine ökumenische Gemeinschaft stellt die Communauté de Taizé dar, deren Gründer Roger Schutz selbst evangelisch war, jedoch Mitglieder unabhängig von ihrer Konfession aufnahm. In der Liturgie und Spiritualität der Gemeinschaft sind katholische, evangelische und orthodoxe Elemente enthalten und weiterentwickelt worden. In Werningshausen gibt es seit 1973 ein ökumenisches Benediktinerkloster Priorat Sankt Wigberti. Islamische Orden. Orden in einem dem christlichen Ordensleben vergleichbaren Sinn kennt der Islam nicht, es gibt jedoch in manchen islamischen Strömungen Bruderschaften, die Formen eines religiös motivierten Gemeinschaftslebens praktizieren oder Gebetsriten und Gottesdienste in geregelter Form gemeinschaftlich zelebrieren. Seit dem 12. Jahrhundert entstanden besonders innerhalb der islamischen Mystik (Sufismus) sehr viele derartige Bruderschaften, so genannte Tariqas (siehe auch: Derwisch, Liste der Sufi-Orden). Hinduistische Gemeinschaften. Ordensähnliche Gemeinschaften gibt es im Hinduismus seit dem 8. Jahrhundert unserer Zeitrechnung. Der älteste bekannte Orden wurde von dem Philosophen Shankara gegründet. Oberrheinische Tiefebene. Die Oberrheinische Tiefebene, vor allem naturräumlich auch "Oberrheinisches Tiefland" genannt, ist ein etwa 300 km langes und bis zu 40 km breites Tiefland am oberen Mittellauf des Rheins, das sich zwischen den Städten Basel (Schweiz) im Süden und Frankfurt am Main (Deutschland) im Norden erstreckt. Die Ebene entstand durch einen tief in die Erdkruste reichenden Grabenbruch, der als Oberrheingraben bezeichnet wird. Lage. Die Oberrheinische Tiefebene wird vom Rhein – und zwar von seinem etwa 350 km langen Abschnitt Oberrhein, nach dem sie benannt ist – durchflossen. Der südlichste Teil der Ebene befindet sich in der Nordwestschweiz um die Stadt Basel, der südwestliche Abschnitt liegt in der nordostfranzösischen Region Elsass, der nordwestliche Teil und das gesamte Gebiet östlich des Rheins gehören zu Deutschland. Die Ebene ist der morphologische Ausdruck der bedeutendsten geologischen Struktur in Mitteleuropa, des Oberrheingrabens. Naturräumlich umfasst das sogenannte "Oberrheinische Tiefland" auch das Rhein-Main-Tiefland, das nach Nordosten dem Unterlauf des Mains und der Wetter (Wetterau) flussaufwärts folgt. Naturräumliche Gliederung in Deutschland. Oberrheingraben (blau) zwischen Basel und Frankfurt inmitten randlich angegliederter Mittelgebirge (grün bis braun); Farbgebung nach digitalem Höhenmodell Gewässer. Alle größeren Fließgewässer in der Oberrheinischen Tiefebene besitzen ihre Quellen in den umgebenden oder in weiter entfernten Mittelgebirgsregionen und münden sämtlich in den Rhein. Die mehr als 200 km langen Nebenflüsse sind rechtsrheinisch Neckar und Main, linksrheinisch Ill und Nahe. Natürliche Seen gibt es nicht; die heutigen Stillgewässer sind sogenannte Baggerseen und resultieren aus industriellem Sand- und Kiesabbau. Polder, die entlang des Oberrheins zum Hochwasserschutz angelegt wurden, können bei Bedarf geflutet werden. Klima. Der Oberrheingraben und seine Randzonen zu den Gebirgen hin haben die mildesten Winter und die wärmsten Sommer in Deutschland bei geringen bis mäßigen Niederschlägen. Die Jahresdurchschnittstemperaturen erreichen teilweise um 11 °C; im wärmsten Monat Juli liegen die Durchschnittswerte um oder sogar knapp über 20 °C, was in Deutschland mit Ausnahme klimatisch begünstigter Ballungsräume (Rhein-Main-Zentren, Berlin-Mitte) nirgendwo erreicht wird. Ursache dafür sind häufige Südwest-Wetterlagen mit Luftmassen aus dem westlichen Mittelmeerraum; Föhn-Effekte durch absinkende Luft an der westlichen Grabenbruchkante können zusätzliche Temperaturerhöhungen bewirken. Die Niederschlagsmengen nehmen nach Osten hin zu, weil es an der östlichen Bruchkante zu Steigungsregen kommt. Grabenbruch. Der Oberrheingraben ist eines der zentralen Segmente einer Grabenbruchzone, die sich von der Nordsee bis in das westliche Mittelmeer erstreckt (Mittelmeer-Mjösen-Zone). Die früher vertretene These, dass für die Entstehung eine subkrustale Wärmequelle (Plume) verantwortlich sei ("Aktives Rifting"), ist nach neueren Befunden aus der Geophysik und Geodynamik nicht haltbar. Ursache für die Entstehung der Grabenzone waren vielmehr Zugspannungen in Erdkruste und Erdmantel, die zum sogenannten "Passiven Rifting" führten, einer Dehnung der Erdkruste, die auch ihre Ausdünnung zur Folge hatte. Deswegen senkte sich die Erdoberfläche in der Grabenzone ab. Dagegen wölbte sich die Kruste-Mantel-Grenze (Moho) unter dem Graben auf. Im Bereich des Oberrheingrabens wurden zeitgleich die Gebiete westlich und östlich zu den Grabenschultern von Vogesen/Pfälzerwald bzw. Schwarzwald/Odenwald emporgehoben. Ein Teil des entstandenen Reliefs wurde durch Sedimentation, die in den abgesunkenen Graben hinein erfolgte, sowie Erosion der gehobenen Schultern ausgeglichen. Phase I begann vor über 50 Millionen Jahren mit einer langsamen Aufwölbung der Erdkruste durch einen aufsteigenden Manteldiapir. Vor etwa 50 Millionen Jahren setzte in der überdehnten Scheitelzone ein Absinken einzelner Krustenteile ein. In Phase II vor 50 bis 20 Millionen Jahren herrschte in Mitteleuropa ein Dehnungsregime. Die Dehnung wurde im Oberrheingrabengebiet an bereits vorhandenen Verwerfungen lokalisiert. Es kam über die gesamte Länge des Grabens zwischen Frankfurt und Basel zu einer Absenkung der Erdoberfläche und Ablagerung von Sedimenten. Die randlichen Gebiete hoben sich zu Grabenschultern heraus. Mit dem Übergang in Phase III wurde die Dehnung durch ein Blattverschiebungsregime abgelöst. Die Gebiete westlich des Oberrheingrabens (Elsass, Pfalz, Rheinhessen) verschoben sich relativ zu den rechtsrheinischen Gebieten nach Südwesten. Die weitere Absenkung im Graben beschränkte sich auf das Grabensegment nördlich der Stadt Karlsruhe. Dagegen unterlagen die anderen Grabenabschnitte samt den randlichen Schultern der Hebung und Erosion. Das Blattverschiebungsregime ist heute weiterhin aktiv. Allerdings hat sich in jüngerer geologischer Vergangenheit die Größe und Ausrichtung der Spannungen in der Erde geringfügig geändert, so dass wieder Sedimentation im gesamten Grabenbereich stattfindet. Erdbeben. Der Oberrheingraben ist ein Gebiet erhöhter Seismizität. Die Erdbeben sind im Allgemeinen von geringer Stärke und Intensität (gemäß der MSK-Skala). Es kommt durchschnittlich alle paar Monate zu einem Erdbeben der Stärke 3, das von Menschen in der unmittelbaren Umgebung des Epizentrums gespürt werden kann. Ungefähr alle zehn Jahre sind überregional wahrnehmbare seismische Erschütterungen mit Stärken größer als 5 und leichten Schäden zu erwarten. Eine Ausnahme stellt die Region um Basel und den angrenzenden Schweizer Jura dar. Dort traten in Mittelalter und Neuzeit Beben auf, die – wie etwa das Basler Erdbeben von 1356 – beträchtliche Zerstörungen bewirkten. Es wird vermutet, dass diese Erdbeben mit der fortdauernden Überschiebung des Schweizer Juras auf den südlichen Oberrheingraben in Verbindung stehen. Erdbeben werden in weiten Bereichen des Oberrheingrabens bis in Tiefen von etwa 15 km hinunter ausgelöst. In noch größeren Tiefen verformen sich die Gesteine aufgrund der hohen Temperaturen durch raumgreifendes Kriechen. Ein Versatz von Gesteinsschichten entlang von Verwerfungen, der eine Voraussetzung für das Auftreten von Erdbeben wäre, findet im Oberrheingrabengebiet nicht mehr statt. Vulkanismus. In Südwestdeutschland mit dem Oberrheingrabengebiet sind Überreste einstiger Vulkane weit verbreitet (z. B. Kaiserstuhl, Hegau, Schwäbischer Vulkan, Steinsberg, Katzenbuckel, Pechsteinkopf). Die meisten Vulkanite sind um die 40 Millionen Jahre alt, ein zweiter vulkanischer Höhepunkt war vor 18 bis 14 Millionen Jahren. Die Magmen stammen fast ausschließlich aus einem bis zu 2 % aufgeschmolzenen Teilbereich des Erdmantels (Asthenosphäre). Er befindet sich unter Südwestdeutschland in Tiefen von über 70 km. Die Magmen stiegen aus diesen Tiefen nahezu unverändert bis an die Erdoberfläche auf und erstarrten vorwiegend als Nephelinite und Melilithite. Nur lokal entwickelten sich beim Aufstieg andere Magmenzusammensetzungen (z. B. am Kaiserstuhl). Eine Grabenbildung kann durch die Ausdünnung der Erdkruste zur Entstehung thermischer Anomalien im Erdmantel führen. Die Anomalien rufen die Produktion magmatischer Schmelzen und Vulkanismus an der Erdoberfläche hervor. Im Oberrheingrabengebiet entstand jedoch keine solche thermische Anomalie, weil der Erdmantel wegen der langsam erfolgten Dehnung bei seinem Aufstieg abkühlte. Es wird eher ein Zusammenhang zwischen dem Vulkanismus und der Entstehung der Alpen vermutet, weil bedeutende geologische Ereignisse im Alpenraum zeitlich mit den Höhepunkten vulkanischer Aktivität in Südwestdeutschland zusammenfielen. Wirtschaftsregionen. Die Oberrheinische Tiefebene ist Teil der sogenannten „Blauen Europa-Banane“, einer europäischen Wirtschafts- und Entwicklungszone, die von der Irischen See bis zum Mittelmeer reicht. In der dicht besiedelten Rheinebene zählen dazu folgende bedeutende Wirtschaftsregionen: die Trinationale Metropolregion Oberrhein mit den Städten Straßburg, Mülhausen und Colmar (F), Karlsruhe und Freiburg (D) sowie Basel (CH), und in Deutschland die Metropolregion Rhein-Neckar mit Mannheim, Ludwigshafen und Heidelberg sowie das Rhein-Main-Gebiet mit Frankfurt am Main, Offenbach, Darmstadt, Mainz und Wiesbaden. Grundwasser. Der Oberrhein-Aquifer ist mit einer geschätzten Größe von 45 Milliarden m3 einer der größten Grundwasserleiter Mitteleuropas. Sein Wasserspiegel ist meist bereits wenige Meter unter der Erdoberfläche zu finden, in Flussauen, Auftriebsquellen und Seen auch oberirdisch. Der so genannte Flurabstand ist dabei sehr unterschiedlich und im Süden des Gebietes größer. Zwischen Basel und Rastatt deckt das hiesige Grundwasser drei Viertel des Trinkwasserbedarfs der Bevölkerung (über drei Millionen Menschen im Elsass und in Baden-Württemberg) sowie mehr als die Hälfte des von der lokalen Industrie benötigten Wassers. Im Hessischen Ried trägt der Wasserbeschaffungsverband Riedgruppe Ost in Zusammenarbeit mit Hessenwasser wesentlich zur Trinkwasserversorgung des Rhein-Main-Gebietes bei. Zugleich entnimmt der Wasserverband Hessisches Ried im Wasserwerk von Biebesheim dem Rhein zum Zweck der Grundwasseranreicherung bis zu 5.400 m3 Wasser pro Stunde. Dies entspricht an diesem Stromabschnitt einem Tausendstel der mittleren Abflussmenge. Erdöl. Hauptsächlich in tieferen Schichten, teilweise aber auch oberflächennah, fand und findet sich Erdöl. Die Vorkommen in Merkwiller-Pechelbronn (Elsass) sind seit 1498 belegt und gehören weltweit zu den ersten, die ausgebeutet wurden. Der Name "Pechelbronn" bedeutet „Pechbrunnen“ und weist auf das aus der Erde hervortretende Öl hin. Nach dieser ältesten Erdölquelle werden die Vorkommen im Oberrheingraben als Pechelbronner Schichten bezeichnet. Zwischen 1952 und 1994 wurde im Hessischen Ried Erdöl gefördert, bis 1979 auch Erdgas. Noch heute wird in der Nähe von Landau in der Pfalz in geringen Mengen Öl gefördert, seit 2008 auch bei Speyer. Angesichts steigender Rohstoffpreise und zu Ende gehender Erdölressourcen wird auch in der Rheinebene wieder nach Erdöl gesucht, so seit 2011 durch die Unternehmen Geopetrol und Millennium Geoventure bei Soufflenheim im Elsass. Ab Dezember 2011 betrieb das polnische Unternehmen Geofizyka Toruń im Auftrag von Rhein Petroleum aus Heidelberg im Rahmen des Projekts „Erdölsuche am nördlichen Oberrhein“ dreidimensionale seismische Vermessungen, um Erdölreserven nachzuweisen. Geothermie. In neuerer Zeit begann die Nutzung von Erdwärme: Im Bereich des Oberrhein-Aquifers sind oder waren mehrere Pilotprojekte in Niederenthalpie-Lagerstätten im so genannten Hot-Dry-Rock-Verfahren (HDR) in der Erprobung. So ging z. Bsp. in Soultz-sous-Forêts im Elsass (Frankreich) das Geothermiekraftwerk 2008 ans Netz; ein weiteres wird in Rittershofen nördlich von Straßburg gebaut, außerdem eines in Landau (Rheinland-Pfalz). An der Vorbergzone zum Schwarzwald ergaben sich die Hebungsrisse in Staufen im Breisgau. Ein Bohrprojekt in Kleinhüningen bei Basel (Deep Heat Mining Basel) wurde nach dabei erzeugten Erdbeben gestoppt. Kies, Sand und Ton. Entlang des Rheins wurde und wird in größeren Mengen Kies und Sand abgebaut, um als Baustoff Verwendung zu finden. Aus den Rheinkiesen wird auch etwas Gold gewonnen. Ton, früher für die Herstellung von keramischem Geschirr gebraucht, wird in mittlerweile sehr begrenztem Umfang für die Ziegelherstellung abgebaut. Nahrungs- und Genussmittelproduktion. Die fruchtbaren Böden haben seit früherer Zeit Ackerbau möglich gemacht, so wird das Gebiet bis zur Hälfte seiner Fläche landwirtschaftlich genutzt. Der Oberrheingraben verfügt auch dank des gemäßigten Klimas mit einer hohen Sonnenscheindauer und des mehr als ausreichenden Wasserdargebots durch den Oberrhein-Aquifer über sehr gute Voraussetzungen für die Erzeugung von Nahrungs- und Genussmitteln. Es existieren viele Sonderkulturen, vor allem werden Wein, Spargel, Zwetschgen, Süß- und Sauerkirschen, Erdbeeren, verschiedene Gemüse, Hopfen sowie Tabak angebaut. Die günstigen klimatischen Bedingungen lassen hier im Freiland neben Weinreben auch Mandelbäume, Feigen und Esskastanien gedeihen und Früchte tragen. Mit Rheinhessen, der Pfalz und Baden liegen die drei in dieser Reihenfolge flächenmäßig größten deutschen Weinbaugebiete nahezu vollständig im Oberrheingraben. Einzelnachweise. ! Oberrheinisches Tiefland Oberflächenspannung. Die Oberflächenspannung ist die infolge von Molekularkräften auftretende Erscheinung bei Flüssigkeiten, ihre Oberfläche klein zu halten. Die Oberfläche einer Flüssigkeit verhält sich ähnlich einer gespannten, elastischen Folie. Dieser Effekt ist zum Beispiel die Ursache dafür, dass Wasser Tropfen bildet, und trägt dazu bei, dass einige Insekten über das Wasser laufen können oder eine Rasierklinge auf Wasser „schwimmt“. Als Oberflächenspannung (Formelsymbol: "σ", "γ") bezeichnet man gelegentlich auch die Grenzflächenspannung. Gemessen wird sie in den SI-Einheiten "kg/s²", gleichbedeutend mit "N/m". Bedeutung. Die Oberflächenspannung ist eine ziehende Kraft, die an der Oberfläche einer Flüssigkeit lokalisiert ist und ihre Wirkungsrichtung ist parallel zur Flüssigkeitsoberfläche. Demnach steht eine Flüssigkeitsoberfläche stets unter Spannung. Eine Flüssigkeitsoberfläche kann somit mit einer von allen Seiten gespannten Folie verglichen werden, wenngleich die Oberflächenspannung eine weitaus geringere Kraft ist als die Kraft, die nötig ist, um eine Folie zu spannen. Die Oberflächenspannung des Wassers trägt eine Büroklammer Die Oberflächenspannung verleiht einer Flüssigkeitsoberfläche spezielle Eigenschaften. So können Objekte auf einer Wasseroberfläche schwimmen, solange ihr Gewicht nicht ausreicht, um die Oberflächenspannung zu überwinden. Anschaulich wird dies, wenn man beispielsweise eine Büroklammer auf eine Wasseroberfläche legt. Die Oberflächenspannung als Kraft parallel zur Flüssigkeitsoberfläche spannt diese und trägt somit die Büroklammer. Dieser Effekt wird auch von Lebewesen wie dem Wasserläufer ausgenutzt, um auf einer Wasseroberfläche laufen zu können. Die Oberflächenspannung ist die Ursache dafür, dass Flüssigkeiten kugelförmige Gestalt annehmen, sofern keine anderen Kräfte auf sie wirken. Ein gutes Beispiel dafür sind Flüssigkeitstropfen im Weltraum die nahezu keinen Kräften ausgesetzt sind. Zur Erklärung denke man sich eine Flüssigkeit, deren Gestalt nicht kugelförmig ist. Die Oberflächenspannung greift parallel zur Flüssigkeitsoberfläche an und gleicht Krümmungen aus. Wenn andere Kräfte auf einen Flüssigkeitstropfen wirken, so weicht dessen Gestalt von der kugelförmigen ab. Ein Beispiel dafür sind Flüssigkeitstropfen auf einer Festkörperoberfläche, wo zusätzlich anziehende Kräfte zwischen Festkörper und Flüssigkeit wirken (Adhäsion). Die Gestalt des Tropfens weicht umso mehr von der kugelförmigen ab und benetzt die Festkörperoberfläche, umso höher die Adhäsion zwischen Festkörper und Flüssigkeit ist. Ein anderes Beispiel für die Wirkung der Oberflächenspannung ist die sechseckige Form von Wabenzellen der Honigbienen. Die Zellen werden zuerst rund aus Bienenwachs gebaut. Das Material gibt aber durch die im Bienenstock herrschenden Temperaturen nach (fließt) und bildet dabei plane Grenzflächen (Minimalflächen) zwischen den einzelnen Zellen. Physikalischer Hintergrund. Flüssigkeit eingespannt in einem Bügel. Eine Kraft zieht parallel zum Flüssigkeitsfilm vergrößert dessen Oberfläche um formula_1. Mechanische Definition. Es gibt zwei Definitionen der Oberflächenspannung die konsistent sind. Einerseits die mechanische Definition nach der die Oberflächenspannung eine Kraft pro Länge ist und die thermodynamische nach der die Oberflächenspannung eine Energie pro Fläche ist. Die mechanische Definition lässt sich anhand eines Bügels mit der Breite formula_2 erklären, in dem ein Flüssigkeitsfilm eingespannt ist. Wenn die Oberfläche des Flüssigkeitsfilms durch eine Kraft formula_3 parallel zur Oberfläche um den Betrag formula_1 vergrößert wird, so muss die Arbeit formula_5 verrichtet werden. Die Oberflächenspannung formula_6 ist nun als Arbeit definiert, die notwendig ist, um eine Einheitsfläche zu schaffen. Somit ergibt sich formula_7. Demnach handelt es sich bei der Oberflächenspannung um eine Kraft pro Länge (2 aufgrund der Oberflächen, eine oben und eine unten am Bügel), die parallel zur Flüssigkeits- Die Richtigkeit der Vorstellung der Oberflächenspannung als Kraft parallel zur Oberfläche zeigt sich in zahlreichen Messmethoden und Effekten wie der Bügelmethode, der Kapillarität oder dem Kontaktwinkel. Thermodynamische Definition. Die thermodynamische Vorstellung der Oberflächenspannung als Energie pro Fläche rührt von dem Bild her, dass an der Flüssigkeitsoberfläche die Symmetrie der Flüssigkeitsmoleküle gestört ist. Das Fehlen von Flüssigkeitsmolekülen vertikal zur Flüssigkeitsoberfläche und die somit „fehlende“ Bindungsenergie muss durch eine positive Energie formula_8 kompensiert werden. Um die Oberfläche einer Flüssigkeit zu vergrößern benötigt man Energie, wobei die Oberflächenspannung formula_6 definiert ist als Energie die man benötigt um die Flüssigkeitsoberfläche um eine Einheitsfläche zu vergrößern. Somit folgt formula_10 womit die Analogie der Vorstellung „fehlender Bindungsenergie“ zur mechanischen Definition gezeigt ist. Diese anschauliche Interpretation ist jedoch noch nicht ausreichend um die Oberflächenspannung thermodynamisch zu definieren. Um dies zu tun geht man von der Änderung der freien Enthalpie formula_11 bei konstanter Temperatur formula_12 und konstantem Druck formula_13 aus, welche durch Gleichung formula_14 beschrieben wird, wobei formula_15.die Enthalpie, formula_12 die Temperatur und formula_17 die Entropie kennzeichnet. Man kann diese Gleichung umschreiben indem man die Definition der Enthalpie formula_19 einsetzt und berücksichtigt, dass formula_20 gilt. Der Ausdruck für die Arbeit kann in einen Term für die Volumenarbeit formula_26 und nicht expansive Arbeit formula_27 zerlegt werden. Die Oberflächenspannung ist somit thermodynamisch als partielle Ableitung der freien Enthalphie nach der Oberfläche bei konstanter Temperatur und konstantem Druck definiert. Molekulare Theorie zur Oberflächenspannung. Schematische Darstellung des Lennard-Jones-Potentials in Abhängigkeit von der Distanz "r". Die Vorstellung der fehlenden Flüssigkeitsmoleküle an der Oberfläche verleitet intuitiv zu der Annahme, dass die Oberflächenspannung eine Kraft vertikal zur Flüssigkeitsoberfläche sei. Dies stimmt jedoch nicht mit der mechanischen Definition der Oberflächenspannung überein. Um die mechanische Definition hierbei in Einklang mit der thermodynamischen zu bringen muss man berücksichtigen, dass innerhalb einer Flüssigkeit sowohl anziehende als auch abstoßende Kräfte auf ein Molekül wirken. Während in einem Festkörper lokal entweder anziehende oder abstoßende Kräfte wirken, da sich die Teilchen an fixierten Plätzen befinden, so sind in einer Flüssigkeit die Moleküle beweglich. Die Abstände zwischen den Flüssigkeitsmolekülen können sich verändern und somit können auf ein Flüssigkeitsteilchen abstoßende und auch anziehende Kräfte wirken. Dieser Sachverhalt kann auch in einem Lennard-Jones-Potential veranschaulicht werden. Dieses beschreibt allgemein das Potential zwischen zwei ungeladenen Teilchen in Abhängigkeit von deren Distanz. Geraten die Teilchen bei kurzen Distanzen in Kontakt, so stoßen sie sich ab, während sie sich bei größeren Distanzen anziehen. Während in einem Festkörper der Abstand zwischen zwei Teilchen fixiert ist, kann sich dieser in einer Flüssigkeit aufgrund der thermischen Bewegung ändern, was anziehende und auch abstoßende Kräfte auf ein Flüssigkeitsmolekül ermöglicht. Im Bild rechts ist eine schematische Darstellung eines Lennard-Jones-Potentials abgebildet, das die Kräfte zwischen Flüssigkeitsmolekülen erklärt. Haben die Flüssigkeitsmoleküle Kontakt, so stoßen sie sich ab (oranger Bereich), während sie sich bei großen Distanzen anziehen (blauer Bereich). In einer Flüssigkeit ändern sich die Abstände zwischen den Teilchen ständig aufgrund der Wärmebewegung, was durch den schwarzen Doppelpfeil in der Abbildung dargestellt ist. Somit können auf ein Flüssigkeitsmolekül sowohl anziehende als auch abstoßende Kräfte wirken. Man kann die abstoßenden Kräfte als Kontaktkräfte interpretieren. Aufgrund dessen kann deren Wirkung im Raum als richtungsunabhängig, also isotrop angesehen werden. Die anziehenden Kräfte innerhalb einer Flüssigkeit wirken bei weiteren Entfernungen, sind bedingt durch die Struktur der Moleküle und können als richtungsabhängig im Raum, also anisotrop angesehen werden. Darstellung der Kräfte, die auf ein Molekül an der Flüssigkeitsoberfläche und im Flüssigkeitsinneren wirken. An der Phasengrenzfläche zwischen Flüssigkeit und Gasphase ändert sich die Dichte der Flüssigkeit sprunghaft im Bereich weniger Moleküllängen, bis sie konstant auf dem Wert des Flüssigkeitsinneren bleibt. Dies bewirkt, dass auch die abstoßenden Kräfte in der Flüssigkeit sprunghaft an der Oberfläche größer werden bis sie den konstanten Wert des Flüssigkeitsinneren erreichen, wobei dieser Anstieg in alle Raumrichtungen gleich groß ist aufgrund der isotropen Natur der abstoßenden Kräfte. Zur weiteren Erklärung dient das Bild rechts, in dem die Kräfte auf ein Flüssigkeitsmolekül an der Oberfläche und im inneren veranschaulicht sind. An der Flüssigkeitsoberfläche ist die Symmetrie gestört, das heißt, die Moleküle dort haben in vertikaler Richtung keine benachbarten Moleküle. Somit wirken in vertikaler Richtung nur von unten abstoßende Kräfte (grauer Pfeil) auf die Moleküle. Um das Kräftegleichgewicht zu wahren, werden die abstoßenden Kräfte in vertikaler Richtung durch anziehende Kräfte (oranger Pfeil) ausgeglichen. In horizontaler Richtung, also parallel zur Oberfläche ist dies nicht notwendig, da die Symmetrie nicht gestört ist. Das heißt, dass in horizontaler Richtung von allen Seiten abstoßende Kräfte auf die Flüssigkeitsmoleküle an der Oberfläche wirken. Zusätzlich zu den abstoßenden Kräften wirken auch anziehende Kräfte in horizontaler Richtung. Diese sind jedoch nicht notwendig um das Kräftegleichgewicht zu wahren und können daher und aufgrund ihrer anisotropen Natur in ihrem Betrag größer sein als die abstoßenden Kräfte. Das bedeutet, dass an der Flüssigkeitsoberfläche in horizontaler Richtung die anziehenden Kräfte auf die Flüssigkeitsmoleküle größer sind als die abstoßenden Kräfte. Im Flüssigkeitsinneren sind die anziehenden und abstoßenden Kräfte auf ein Molekül gleich groß. Veranschaulichung der Oberflächenspannung als Kraft parallel zur Flüssigkeitsoberfläche. Schematische Darstellung der Änderung der Dichte und der Oberflächenspannung an einer Flüssigkeitsoberfläche. Um die Oberflächenspannung nun als Kraft parallel zur Oberfläche weiter zu verstehen, ist es anschaulich, die Flüssigkeit in zwei Hälften zu teilen, wie es im Bild rechts abgebildet ist. Dort sieht man eine gepunktete und eine nicht gepunktete Hälfte, wobei diese lediglich zur Markierung der beiden Teile dienen. Man betrachtet die Kräfte, die von dem nicht gepunkteten Teil auf den gepunkteten Teil der Flüssigkeit ausgeübt werden. a.) Erst legt man die Trennlinie zwischen den Flüssigkeitshälften parallel zur Flüssigkeitsoberfläche. In Richtung des Flüssigkeitsinneren nimmt die Dichte zu, daher werden auch die abstoßenden Kräfte (grau) auf den gepunkteten Teil größer. Diese werden durch anziehende Kräfte (orange) ausgeglichen. b.) Legt man nun die Trennlinie zwischen den Hälften in vertikaler Richtung, so kann man wiederum die abstoßenden Kräfte, die auf den gepunkteten Teil wirken, einzeichnen. Diese sind aufgrund ihrer isotropen Natur in ihrem Betrag gleich groß wie in vertikaler Richtung. Die anziehenden Kräfte auf den gepunkteten Teil sind jedoch nicht isotroper Natur und können in ihrem Betrag größer sein als die abstoßenden Kräfte. Man erkennt auch, dass sich dieser Unterschied verkleinert je weiter man ins Flüssigkeitsinnere fortschreitet. Bereits nach ein paar Moleküllängen gleichen sich anziehende und abstoßende Kräfte in horizontaler Richtung aus, da die Dichte in Richtung des Flüssigkeitsinneren zunimmt. c.) Der nicht gepunktete Teil der Flüssigkeit übt eine anziehende Kraft auf den gepunkteten Teil aus, die in Richtung des Flüssigkeitsinneren abnimmt. Zusammenfassend kann gesagt werden, dass sich im Bereich weniger Moleküllängen die Dichte an der Flüssigkeitsoberfläche (rote Kurve im Bild rechts) ändert, bis sie den konstanten Wert des Flüssigkeitsinneren erreicht. Dies hat zur Folge, dass an der Flüssigkeitsoberfläche eine ziehende Kraft in horizontaler Richtung wirkt. Die blaue Kurve im Bild rechts beschreibt die Differenz zwischen anziehender und abstoßender Kraft, die von dem nicht gepunkteten Teil der Flüssigkeit auf den gepunkteten Teil in horizontaler Richtung ausgeübt wird. Sie entspricht der Oberflächenspannung und ist im Bereich weniger Moleküldurchmesser an der Oberfläche lokalisiert. Abhängigkeiten. Temperaturabhängigkeit der Oberflächenspannung am Beispiel des Wassers Temperaturabhängigkeit der Oberflächenspannung am Beispiel des Benzols Werte. Wasser hat also eine vergleichsweise hohe Oberflächenspannung (siehe auch Drucktabellen Wasser in WikiBooks), nur die von Quecksilber ist noch wesentlich höher. Messung. Man kann die Oberflächenspannung zum Beispiel mit Hilfe der Ring- (von Lecomte De Noüy), Platten- (von Wilhelmy) oder Bügel-Methode (von Lenard), mit einem Tensiometer oder durch den Kapillareffekt messen. Auch kann man über eine optische Auswertung den liegenden oder hängenden Tropfen vermessen und so die Oberflächenspannung der Flüssigkeit ermitteln. Bügelmethode. Messung der Oberflächenspannung mit der Bügelmethode Bei der Bügelmethode (auch als Abreißmethode bekannt) wird ein Bügel mit einem darin eingelöteten extrem dünnen Draht (meist aus Platin) in die Flüssigkeit gehängt, sodass dieser gerade in die Flüssigkeit eintaucht und von dieser benetzt wird. Mit einer Präzisionsfederwaage wird dann die Zugkraft am Bügel nach und nach erhöht. Der Draht wird dann aus der Flüssigkeit gezogen und zieht einen Flüssigkeitsfilm mit. An einem bestimmten Punkt reißt dieser Film ab. Durch das Ziehen am Bügel wird Arbeit gegen die Oberflächenspannung verrichtet. Aus der maximal möglichen Zugkraft am Bügel, bevor der Flüssigkeitsfilm abreißt, den Abmessungen des Bügels und der Dichte der Flüssigkeit kann dann die Oberflächenspannung berechnet werden. Bei Flüssigkeiten wie Ethanol und Drahtlängen von 2–3 cm bei einem Radius von 0,1 mm liegt der Erwartungswert für die Masse im zwei- bis dreistelligen Milligramm-Bereich. Es sind also sehr präzise Waagen nötig. Bei einer Messunsicherheit der Waage von 5 mg und einer Vermessung des Drahtes auf 1 µm genau beträgt der größte Fehler des Endergebnisses bereits 8 bis 12 %. Messung mit dem Kapillareffekt. Bei dieser Messmethode macht man sich den Kapillareffekt zunutze, also, dass Flüssigkeiten in dünnen Röhren nach oben steigen. Man benötigt ein Gefäß (etwa eine Küvette) und eine möglichst dünne Kapillare. Diese wird dann einfach in die Flüssigkeit gestellt und die Steighöhe wird gemessen. Da die Flüssigkeit theoretisch unendlich lange braucht, um ihren Endstand zu erreichen, zieht man die Flüssigkeit zunächst in der Kapillare (etwa mit einer Spritze) nach oben und lässt sie anschließend wieder absinken. Die Oberflächenspannung kann dann direkt aus der Steighöhe abgelesen werden, wenn die Dichte der Flüssigkeit und der Kapillarradius bekannt sind. Da dessen Messung recht schwierig ist, nimmt man Einmalmikropipetten und misst deren Länge. Da das Volumen bekannt ist, lässt sich so der Innenradius berechnen. Wasser erreicht in Kapillaren mit einem Radius von 0,2 mm Steighöhen von bis zu 7 cm. Für die möglichst exakte Messung der Steighöhe eignet sich beispielsweise ein Kathetometer. Ist die Dichte der Flüssigkeit genau bekannt und kann man die Steighöhe auf 0,1 mm genau ablesen, liegt der Fehler im unteren einstelligen Prozentbereich. Historisches. Der Begriff der Oberflächenspannung wurde erstmals 1629 von Niccolò Cabeo verwendet und 1751 von Johann Andreas von Segner klarer gefasst. Zur Theorie wurde 1805 von Thomas Young, 1806 von Pierre-Simon Laplace, 1830 von Siméon Denis Poisson (siehe auch Young-Laplace-Gleichung, Youngsche Gleichung) und 1842 bis 1868 von Joseph Plateau Wertvolles beigetragen. Obst. Obst ist ein Sammelbegriff der für den Menschen roh genießbaren meist wasserhaltigen Früchte oder Teilen davon (beispielsweise Samen), die von Bäumen, Sträuchern und mehrjährigen Stauden stammen. In Deutschland liegt der durchschnittliche tägliche Verzehr von Obst und Obsterzeugnissen (ohne Obstsäfte) laut einer Studie von 2008 bei Männern bei 230 g und bei Frauen bei 278 g. Begriffsklärung. Der Begriff Obst (, mittelhochdeutsch "ob(e)ʒ", frühneuhochdeutsch "obs") setzt sich aus dem Verhältniswort "ob" sowie einem mit "essen" verwandten Verbalnomen mit einer Ausgangsbedeutung 'Zuspeise' (zur Grundnahrung), ursprünglich wohl Hülsenfrüchte, zusammen. Die unorganische -t-Endung tritt seit dem 16. Jh. auf. Die Bezeichnung ist gemeinwestgermanisch, siehe mittelniederdeutsch "ōvet, āvet, ōves, ōvest", mittelniederländisch u., sowie. Die Unterscheidung zwischen Obst und Gemüse ist unscharf. In der Regel stammt Obst von mehrjährigen und Gemüse von einjährigen Pflanzen (Lebensmitteldefinition). Der Zuckergehalt beim Obst ist meist höher. Botanisch gesehen entsteht Obst aus der befruchteten Blüte. Gemüse entsteht aus anderen Pflanzenteilen. Paprika, Tomaten, Kürbisse und Gurken sind zwar Früchte und gehören laut der obigen (botanischen) Definition zu Obst (befruchtete Blüte), werden aber als einjährige Pflanzen (Lebensmitteldefinition: Gemüse) und gemeinhin wegen der fehlenden Süße bzw. Säure als Fruchtgemüse bezeichnet. Rhabarber hingegen ist ein Blattstiel, wird aber auch als Obst verwendet. Die unten beschriebene Einteilung von Obst in Obstartengruppen (Kernobst, Steinobst, exotische Früchte usw…) ist die heute im Handel übliche. In der Botanik dagegen fasst man unter dem Sammelbegriff Obst Obstarten. Obst aller Arten auf einem Obstmarkt in Berlin Verschiedene Pflanzengruppen der Nutzpflanzen und deren Arten geben Früchte, die als Obst bezeichnet werden. Die Einteilung von Obst erfolgt in Gartenbau und Handel nicht streng botanisch. Die typischen Artengruppen sind Kernobst, Steinobst, Beerenobst, Schalenobst, klassische Südfrüchte, weitere exotische Früchte, und wie Obst verwendetes Gemüse. Daneben gilt auch eine Einteilung nach „heimisch“, und importierte Waren verschiedener Art (etwa als "Flugobst") aus Sicht der Herkunft und des Transports, sowie seit einiger Zeit "aus biologischem Anbau" im Sinne einer Qualitätsangabe. Außerdem gibt es noch kaum gewerbsmäßig genutztes Wildobst. Obstsorten. Obst nach Sorten getrennt und nach Arten in Regalen einsortiert, im Supermarkt Innerhalb einer obsttragenden Art gibt es zahlreiche züchterische Sorten, also Varietäten verschiedener Eigenschaften, was Aussehen, Gehalt und Eigenschaften bezüglich Reife, Lagerung und Verwendung betrifft. Geschützte Handelssorten unterliegen dem Sortenschutz, daneben gibt es auch zahlreiche traditionelle Sorten ("Alte Sorte" genannt), die sich in der regionalen Landwirtschaftsgeschichte entwickelt haben. Hier spricht man dann etwa von "Edelsorte" und "Bauernobst". Je nach Obstnutzung spricht man etwa von "Tafel-" und "Wirtschaftsobst", ersteres Sorten von bester Qualität für den Einzelhandel und direkten Verzehr, zweiteres für die Weiterverarbeitung, also Saftproduktion, Einmachobst und ähnliches sowie "Industrieobst" als Rohstoff spezieller Produkte, wie Geliermittel oder Lebensmittelzusatzstoffen und Farbstoffen. Typische Nutzungssorten sind etwa "Lagerobst", das erst nachreift und nicht gekühlt oder sofort verzehrt werden muss, oder spezielle "Kochobstsorten" mit sich erst durch Erwärmung entwickelndem Geschmack. Qualitätsklassen. Sortiert werden die einzelnen Früchte nach Größe und Qualität auch in verschiedene Handelsklassen. Exemplare, die die Anforderungen an die Handelsklassen nicht erfüllen, werden dann aussortiert und schlechteren Nutzungsformen zugeführt. Extra, I und II sind die Qualitätsklassen. Apache OpenOffice. Apache OpenOffice (vormals OpenOffice.org) ist ein freies Office-Paket, das aus einer Kombination verschiedener Programme zur Textverarbeitung, Tabellenkalkulation, Präsentation und zum Zeichnen besteht. Ein Datenbankprogramm und ein Formeleditor sind ebenfalls enthalten. Das Programm wird oft auch kurz "OpenOffice" genannt; dieser Begriff ist bzw. war jedoch in einigen Ländern markenrechtlich durch Dritte für andere Produkte geschützt. Das Projekt und das Programm nannten sich deshalb "OpenOffice.org" (Abkürzung "OOo") und seit 2012 (seit Version 3.4.0) "Apache OpenOffice" (Abkürzung "AOO"), um dieses Problem zu umgehen. Zwischenzeitlich war die Notwendigkeit hinzugekommen, "Apache OpenOffice" von dem damit nicht identischen, inzwischen eingestellten "StarOffice" (zwischenzeitlich "Oracle Open Office") zu unterscheiden. Das quelloffene Projekt ist eines der international führenden Officepakete und für alle wichtigen Betriebssysteme verfügbar. Der Zugang zu Funktionen und Daten wird durch offengelegte Schnittstellen und ein XML-basiertes Dateiformat ermöglicht. OpenOffice.org wurde unter der LGPL verbreitet. Apache OpenOffice wird unter der Apache-Lizenz Version 2 herausgegeben. Da diese keine Verbreitung zu gleichen Lizenzbedingungen vorschreibt, kann der Code weiterhin in das Projekt LibreOffice fließen. OpenOffice.org entstand im Jahr 2000 aus den offengelegten Quelltexten des damaligen StarOffice und wurde seither maßgeblich von Sun Microsystems, das später von Oracle aufgekauft wurde, entwickelt. Heute wird es von der Apache Software Foundation weiterentwickelt. Nachdem im September 2010 aus Unzufriedenheit mit Oracles Lizenz- und Entwicklerpolitik durch die von vielen ehemaligen OpenOffice.org-Entwicklern gegründete The Document Foundation die Abspaltung LibreOffice entstand, teilte Oracle im Juni 2011 mit, seine Rechte an "OpenOffice.org" auf die Apache Software Foundation (ASF) übertragen zu wollen. Zwar verließ Apache OpenOffice innerhalb von rund einem Jahr den „Incubator“-Projektstatus und wurde 2012 zu einem „Top-Level-Projekt“ hochgestuft. Seit Sommer 2014 ist das Projekt jedoch weitestgehend inaktiv. Nach der Veröffentlichung der Version 4.1.1 im August 2014 kam es zu einer mindestens einjährigen Pause bei den Veröffentlichungen. Ein Update auf Version 4.1.2, das neben der Schließung einer Sicherheitslücke auch eine höhere Stabilität sowie eine bessere Kompatibilität zu Microsoft Office aufweist, ist im Oktober 2015 veröffentlicht worden. Übersicht. Apache OpenOffice ist für die Betriebssysteme Microsoft Windows, Apple OS X (bis zur Version 2.x als X11-Version und als Nebenprojekt NeoOffice; seit Version 3.0 ist Apache OpenOffice eine native Aqua-Anwendung), IBM 2, eComStation, Linux, Solaris (SPARC- und x86-Prozessorarchitektur), FreeBSD und andere Unix-Varianten erhältlich. ReactOS wird, je nach Version, durch die MS-Windows-Version unterstützt. Mit „OpenOffice.org Portable“, auch „Portable OpenOffice.org“ genannt (siehe auch PortableApps), stehen seit 2.0.4 ausgewählte Versionen für Windows zur Verfügung, die zum Beispiel von einem USB-Stick lauffähig sind, ohne notwendigerweise Datenrückstände auf dem genutzten Rechner zurückzulassen (siehe auch Portable Software). Weiterhin gibt es eine U3-Version, die von einem USB-Stick ausführbar ist und abgespeicherte Daten verschlüsselt sowie mit einem Passwort schützt. Die aktuelle portable Version ist 4.1. Apache OpenOffice kann die Daten vieler anderer Programme sowie die verbreiteten Dateiformate von Microsoft Word (*.doc/*.docx), Microsoft Excel (*.xls/*.xlsx) und Microsoft PowerPoint (*.ppt/*.pptx) zumeist ohne Probleme importieren und exportieren, doch es können (wie auch zwischen unterschiedlichen MS Office-Versionen) Formatierungsprobleme auftreten, zum Beispiel verrutschte Absätze. Auch lassen sich diverse „Legacy-Formate“ (ältere Dateiformate) anderer Anbieter importieren. Alle Formate lassen sich ohne Umwege ins Portable Document Format (PDF) exportieren. Apache OpenOffice ist modular aufgebaut, aber als Gesamtpaket konzipiert. Identische Utensilien werden in der gesamten Suite genutzt. Die Werkzeuge, die es etwa im "Writer" zum Arbeiten mit Grafiken gibt, finden sich auch in "Impress" und "Draw" wieder. Alle Module teilen sich zudem dieselbe Rechtschreibprüfung etc. Das komplette Office-Paket kann in einem einzigen Vorgang installiert werden. Writer. Apache OpenOffice 4.0 Writer unter Windows 8 Mit "Writer" können sowohl kurze Texte wie Briefe, Serienbriefe, Memos, Etiketten, Visitenkarten als auch umfangreiche Schriften wie Bücher oder mehrteilige Dokumente mit Tabellen sowie Inhalts- und Literaturverzeichnissen geschrieben und gestaltet werden. Die Textverarbeitung bietet gängige Funktionen wie Textbausteine, Teamfunktionen, Rechtschreibprüfung, Silbentrennung, Thesaurus, Autokorrektur, mehrstufiges Undo sowie verschiedene Dokumentvorlagen. Mit Hilfe eines Assistenten werden eigene Dokumentvorlagen, Briefe, Faxe und Tagesordnungen erstellt. Neben dem Zugriff auf die Systemschriftarten enthält das Paket einen Satz freier Schriften. Versionsverwaltung von Dokumenten ist möglich. Das Paket ist voll Unicode-tauglich, es beherrscht CJK-Unterstützung und neben Rechtslauf auch Linkslauf. Formatvorlagen für einzelne Zeichen, Absätze, Rahmen und Seiten können mit dem "Stylist" (ab Version 2.0 Fenster "Formatvorlagen") erstellt und zugewiesen werden. Der "Navigator" erlaubt es, sich schnell im Dokument zu bewegen, es in einer Gliederungsansicht zu betrachten und den Überblick über darin eingefügte Objekte zu behalten. Innerhalb der Texte können verschiedene Verzeichnisse (Inhalt, Literatur, Stichworte, Abbildungen u. a.) erzeugt und angepasst werden. Querverweise können gesetzt werden, und mit Hyperlinks kann man über Textmarken direkt zu Textstellen springen. Texte können mehrspaltig formatiert und mit Textrahmen, Tabellen, Grafiken und anderen Elementen versehen werden. Mit Hilfe der Zeichenwerkzeuge werden innerhalb des Dokuments Zeichnungen, Legenden und andere Zeichenobjekte erstellt. Grafiken unterschiedlicher Formate können eingebunden werden, zum Beispiel Grafiken in den Formaten GIF oder PNG. Es lassen sich die gängigen Bildformate im Textverarbeitungsdokument mit dem mitgelieferten Bildbearbeitungswerkzeugen bearbeiten. Clipartsammlungen, Animationen und Klänge werden in der "Gallery" verwaltet und nach Themen geordnet. Textdokumente verfügen über eine integrierte Rechenfunktion, mit der Rechenoperationen oder logische Verknüpfungen ausgeführt werden. Die für die Berechnung benötigte Tabelle lässt sich in einem Textdokument erstellen. Der in "Writer" enthaltene HTML-Editor ist ein WYSIWYG-Editor zum Erstellen von HTML-Webseiten. Ein umfassendes Hilfesystem steht zur Verfügung, das Anweisungen für einfache und komplexe Vorgänge abdeckt. Calc. Apache OpenOffice 4.0 Calc unter Windows 8 In "Calc" werden Daten in Tabellen bearbeitet, analysiert, verwaltet und verdeutlicht. Daten können angeordnet, gespeichert und gefiltert werden. Die Tabellenkalkulation bietet über 450 Berechnungsfunktionen etwa aus den Bereichen elementare Mathematik, Finanzen, Statistik, Datum und Zeit. Es steht ein Funktionsassistent zum Erstellen von Formeln und komplexen Berechnungen einschließlich Vektoralgebra (Matrizen-Rechnen) zur Verfügung. Mit externen Add-ins lassen sich weitere Funktionen nachrüsten. Tabellen können durch Ziehen und Ablegen aus Datenbanken übernommen und Tabellendokumente diverser Formate (OOo-intern, aber auch etwa CSV) als Datenquelle eingesetzt werden. Auch das Einbetten von Webinhalten (Tabellen aus HTML-Dokumenten) ist möglich. Bestimmte Datenbereiche können ein- oder ausgeblendet werden. Es gibt einen "Datenpilot" für die Analyse von Zahlenmaterial und zur Erstellung von Pivottabellen. Es besteht die Möglichkeit, in Berechnungen, die aus mehreren Faktoren bestehen, die Auswirkungen von Änderungen einzelner Faktoren zu beobachten. Zur Verwaltung umfangreicher Tabellen stehen verschiedene vordefinierte Szenarien zur Verfügung; Teil- oder Gesamtergebnisse können berechnet werden. "Calc" ermöglicht die Darstellung von Tabellendaten in dynamischen Diagrammen, die bei Änderung der Daten automatisch aktualisiert werden. Ein Assistent für Diagramme ist vorhanden. Impress. Apache OpenOffice 3.4.1 Impress unter Ubuntu 10.04 Lucid Lynx Mit "Impress" können Vortragsfolien mit Animationen und verschiedenen Hintergründen erstellt werden. Präsentationen können mit Diagrammen, Zeichenobjekten, Multimedia- und vielen anderen Elementen versehen werden. Einzelnen Folien können unterschiedliche Übergangseffekte zugeordnet werden. Ein Assistent für das Erstellen von Präsentationen ist ebenso enthalten wie verschiedene Vorlagen. Beim Erstellen einer Präsentation stehen mehrere Ansichten zur Verfügung. Die Folienansicht zeigt zum Beispiel die Folien im Überblick, während die Handzettelansicht zusätzlich zur Präsentation begleitenden Text enthält. Die Folien können auf dem Bildschirm automatisch vorgeführt oder manuell gesteuert werden. Der zeitliche Ablauf der Präsentation kann angepasst werden. Die Präsentationen können als Handzettel verteilt oder als HTML-Dokumente gespeichert werden. Draw. Apache OpenOffice 3.4.1 Draw unter Ubuntu 10.04 Lucid Lynx Mit dem vektorbasierten "Draw" ist es möglich, verlustfrei skalierbare 2D-Vektorgrafiken inklusive dreidimensionaler Effekte zu erstellen. "Draw" verarbeitet die üblichen geometrischen Grundelemente, Splines und Bézierkurven und beherrscht grundlegendes Shading und Manipulation der Lichtquelle. Es sind Vorlagen und eine Auswahl an anpassbaren Ausgangsformen für Zeichnungselemente enthalten. Raster und Fanglinien sind optische Hilfen, die die Anordnung von Objekten in Zeichnungen erleichtern. Textmanipulation ist mit dem Modul "FontWork" möglich. In "Draw" lässt sich die Beziehung zwischen verschiedenen Objekten mit speziellen Linien, den sogenannten "Verbindern", darstellen. Die Verbinder werden an die Klebepunkte der Zeichenobjekte angefügt und lösen sich auch nicht, wenn die miteinander verbundenen Objekte verschoben werden. Daher ist adaptive Bemaßung möglich, zum Beispiel für technische Zeichnungen. Mit Draw können lineare Größen anhand von Bemaßungslinien berechnet und angezeigt werden. Außerdem sind Flow-Charts, Concept-Maps und Ähnliches damit umsetzbar. Tabellen (aus "Calc"), Diagramme, Formeln (aus dem Modul "Math") und andere in Apache OpenOffice erzeugte Elemente können in Zeichnungen eingefügt und umgekehrt die Grafiken in OOo-Dokumente anderen Typs eingebettet werden. Zeichnungen können in unterschiedlichen Formaten zu speichern – darunter SVG, EPS, Windows WMF und MacPict, Adobe PDF und Shockwave SWF (nicht aber DXF), sowie Rastergrafikkonvertierung nach BMP, GIF, PNG, TIFF und JPG. Auch der Import dieser Dateien (außer PDF und SVG, für die externe Erweiterungen vorhanden sind, sowie SWF) ist möglich, und ein Werkzeug zur Vektorisierung (Umwandlung von Raster- in Vektorgrafik) ist implementiert. Der Importfilter für PDF-Dateien befindet sich zwar nicht mehr im Beta-Stadium, arbeitet jedoch noch nicht fehlerfrei. Base. Apache OpenOffice 4.0 Base unter Windows 8 Das Datenbankmanagementsystem (DBMS) "Base" kann große Datenmengen speichern und für Abfragen und Berichte bereitstellen. Es verwaltet Relationale Datenbanken, in denen die Daten in Tabellenform abgelegt sind. Externe Datenbanksysteme, wie beispielsweise MySQL, HSQL, SQLite oder PostgreSQL, können mittels ODBC oder JDBC angebunden werden und stehen somit ebenfalls als Datenquelle etwa für Serienbriefe zur Verfügung. Für OpenOffice.org 3.1 in Verbindung mit MySQL ab 5.1 gibt es einen nativen Datenbanktreiber, der Umweg über ODBC/JDBC entfällt somit. "Base" unterstützt einige Datenbankformate, wie zum Beispiel das dBase-Format. Math. Apache OpenOffice 3.4.1 Math unter Ubuntu 10.04 Lucid Lynx "Math" dient zum Verfassen von mathematischen Formeln. Formeln werden in "Math" nicht ausgewertet, es ist also kein „Rechenprogramm“ (das ist das Modul "Calc") oder gar ein Computeralgebraprogramm, sondern ein Editor für Formelsatz, der auf einem TeX-Dialekt aufgebaut ist. Formeln werden als Objekte innerhalb eines anderen Dokuments erstellt, lassen sich also wie Bilder in den Textfluss einpassen. Beim Einfügen einer Formel in ein anderes Dokument wird "Math" automatisch gestartet. Die Befehle zum Aufbau der Formeln sind in einem Auswahlfenster zu finden und können dort mit der Maus angeklickt werden, um sie hinzuzufügen. Vordefinierte Symbole, Sonderzeichen und eine Basisauswahl an Funktionen stehen zur Verfügung. Es können eigene Symbole erstellt und Zeichen aus fremden Zeichensätzen übernommen werden. Eine Formel kann entweder direkt eingegeben oder in einem Befehlsfenster bearbeitet werden – die Eingaben im Befehlsfenster werden gleichzeitig im Textfenster angezeigt (WYSIWYG-Editor), einschließlich Fehlererkennung. Officeweite Funktionen. Der "Navigator" und das "Globaldokument" sind die zwei grundlegenden Werkzeuge, die die Funktion als Gesamtpaket der Text- und weiteren Datenverarbeitung als „Office“ zusammenstellen. Weitere Funktionen. Die Benutzeroberfläche kann konfiguriert werden. Symbole und Menüs lassen sich anpassen. Auch Tastaturkürzel können festgelegt werden. Bestimmte Programmfenster und die meisten Symbolleisten sind als schwebende Fenster frei platzierbar oder können am Rand des Arbeitsbereichs angedockt werden. Assistenten zur Konvertierung von Dokumenten sind enthalten, beispielsweise können alle Microsoft-Word-Dokumente, die sich in einem Verzeichnis befinden, mit einem einzigen Vorgang umgewandelt werden. Es lassen sich auch Dateien einlesen, die von anderen Officepaketen erstellt wurden, wie etwa Lotus Notes, Corel WordPerfect. Weiterhin können andere Einzelformate, wie auch alle Vorgängerformate seit StarOffice 3.0 gelesen und meist auch geschrieben werden. Auch Konvertierer für Wiki-Syntax sowie DocBook können installiert werden. Mit der Reparaturfunktion können beschädigte Dateien oft wiederhergestellt werden, weiterhin gibt es einen automatischen regelmäßigen Abspeichermechanismus. In der StarOffice-Basic-IDE können Makros erstellt werden. Zur Erweiterung der Programmfunktionen steht eine Vielzahl von Vorlagen, "Add-ons", "Add-ins" und Makros in den Sprachen StarOffice Basic, Python, Java und JavaScript zur Verfügung, eine Entwicklungsumgebung dafür kann installiert werden. Java-Applets können in die Dokumente eingebunden werden. Auch Plug-ins für die Websuche können ergänzt werden. Für einige Assistenten, die eingebaute HSQL-Datenbank und einige Exportfilter, wird ein Java Runtime Environment (JRE) benötigt. Von diesen Funktionen abgesehen ist Apache OpenOffice auch ohne JRE lauffähig. Das kostenlose Java Runtime Environment wird bei einigen OOo-Installationspaketen mitgeliefert, lässt sich aber auch nachträglich installieren. Geschichte. Marco Börries gründete 1984 im Alter von 16 Jahren in Lüneburg die Firma Star Division, deren Hauptprodukt das Office-Paket StarOffice wurde. Nachdem StarOffice mehr als 25 Millionen mal verkauft worden war, erwarb Sun Microsystems 1999 die inzwischen in Hamburg ansässige Firma Star Division für einen zweistelligen Millionenbetrag. Sun bot StarOffice zunächst als kostengünstiges Konkurrenzprodukt zu Microsoft Office an. Ab Version 5.1a und später 5.2 wurde das Programm inklusive der fremdlizenzierten Bestandteile (wie z. B. Rechtschreibprüfung) als kostenlose Version zum Herunterladen und auf CDs angeboten, die Computerzeitschriften beigelegt waren. Parallel dazu wurde weiterhin eine kommerzielle Version inklusive der Datenbankanwendung Adabas vertrieben. Am 19. Juli 2000 wurde das OpenOffice.org-Projekt von Sun Microsystems öffentlich bekanntgegeben und am 13. Oktober 2000 ging die Website OpenOffice.org online, über die der Quelltext einer Vorversion von StarOffice 6.0 bezogen und von der Community bearbeitet und verbessert werden konnte. Der Quelltext war zu diesem Zeitpunkt etwa 400 MB groß und enthielt über 35.000 Dateien mit insgesamt rund 7,5 Millionen Zeilen C++-Code. Von Drittanbietern lizenzierte Komponenten waren zuvor daraus entfernt worden. Build 638c – die erste funktionierende, frei verfügbare OpenOffice-Version – wurde im Oktober 2001 veröffentlicht. OpenOffice.org 1.0 wurde am 1. Mai 2002 und OpenOffice.org 1.1 im September 2003 herausgegeben. Im Oktober 2005 erfolgte der Schritt auf Version 2.0, im Oktober 2008 die Version 3.0 veröffentlicht. Die letzten Versionen von StarOffice, seit 2010 als Oracle Open Office bezeichnet, basieren auf OpenOffice.org, werden aber von Sun Microsystems/Oracle um die aus dem OpenOffice.org-Quellcode entfernten Komponenten (darunter Rechtschreibkorrektur, Thesaurus, Datenbankmodul Adabas D und Cliparts) erweitert. Aufgrund der Lizenzierung kann der OpenOffice.org-Code für das nicht quelloffene Oracle Open Office verwendet werden. Sun Microsystems hatte beim Projektstart OOo unter die GNU Lesser General Public License (LGPL) und unter die Sun Industry Standards Source License (SISSL) gestellt. Seit September 2005 steht OpenOffice.org nur noch unter der LGPL, nachdem Sun bekanntgegeben hatte, die SISSL in Zukunft nicht mehr zu nutzen. Seit Herbst 2007 gibt es mehr als 80 Sprachversionen. Allein die Version 3 von OpenOffice.org wurde bereits über 100 Millionen Mal heruntergeladen. Nach der am 27. Januar 2010 erfolgten Sun-Übernahme durch die Oracle Corporation wird OpenOffice.org in einer eigenen Abteilung weitergeführt. Die freie Community-Version existiert weiterhin. Am 28. September 2010 gab die neu gegründete „The Document Foundation“ bekannt, dass sie das Projekt unter dem Namen LibreOffice weiterführt und sich damit von Sun/Oracle komplett löst. Auf der Website der Stiftung wurde erklärt, dass man darauf hoffte, dass Oracle auch die Rechte am Namen OpenOffice.org an die Stiftung übergeben werde. Dazu ist es jedoch nicht gekommen. Mit der Version 6.3 von „Oracle Linux“ liefert Oracle nun LibreOffice als festen Bestandteil der eigenen Linux-Distribution aus. OpenOffice.org 1.x. OpenOffice.org 1.1.4 Writer unter KDE OpenOffice.org 1.0 wurde am 1. Mai 2002 veröffentlicht. Augenfällige Änderung gegenüber StarOffice 5.2 war das Weglassen des integrierten Desktops. Auch die im StarOffice 5.2 enthaltenen Anwendungen Mail-Client, Organizer und die Datenbank Adabas D fielen weg. Es kamen drei Aktualisierungen heraus, wobei die letzte im April 2003 unter der Versionsnummer 1.0.3.1 erschien. Am 14. September 2005 erschien OpenOffice.org 1.1.5. Diese letzte Aktualisierung unter der Versionsnummer 1 enthält neben zahlreichen Fehlerkorrekturen als hauptsächliche Neuerung Importfilter für die OASIS OpenDocument-Formate, die ab OpenOffice.org 2.0 als Standardformat genutzt werden. Am 4. Juli 2006 erschien das Sicherheitspatch "1.1.5secpatch", welches das unaufgeforderte Ausführen von Makro-Befehlen (BASIC) in manipulierten OpenOffice.org-Dateien unterbindet. OpenOffice.org 2.x. OpenOffice.org 2.0 (Beta) unter KDE OpenOffice.org 2.0.2 Calc unter Linux OpenOffice.org 2.0.4 Writer – Optionen-Dialog Impress wurde von Grund auf neu programmiert und bietet jetzt unter anderem mehr Diashow-Übergänge und Animationseffekte. Der PDF-Export wurde erweitert: Hyperlinks sind jetzt möglich, das Format für Formularübermittlung ist auswählbar, Notizen können exportiert werden, Vorschaubilder und mehr Stufen für die Komprimierung von Bildern. Mit der neuen Wortzählfunktion können jetzt markierte Textabschnitte gezählt werden. Am 15. Dezember 2005 wurde die Version 2.0.1 veröffentlicht. Diese erste Aktualisierung für OpenOffice.org 2.0 behob eine Reihe von Fehlern. Außerdem wurde eine Serien-Mail-Funktion integriert. OpenOffice.org 2.0.2 erschien am 8. März 2006. Diese Version ersetzt das bisher für die Rechtschreibprüfung verwendete MySpell durch Hunspell. Weitere Neuerungen sind Icons für KDE und Gnome sowie ein Importfilter für das MS-Word 2/5-Textformat. Die englische Version von OpenOffice.org 2.0.3 wurde am 29. Juni veröffentlicht. Die deutsche Version erschien am 3. Juli 2006. Neben der Beseitigung von Fehlern wurden auch neue Funktionen implementiert, unter anderem Unterstützung von x86-64-Plattformen, eine Aktualisierungsfunktion und die optionale Unterstützung der Grafikbibliothek Cairo. Letztere verspricht unter anderem Antialiasing in Präsentationen. Auffälligster Fehler war der Export in PDF-Dateien, der mitunter (oft) ungültige („Unbekannter Token“) und zum Teil nicht lesbare PDF-Dateien erzeugte, was aber erst beim Öffnen mit einem PDF-Reader sichtbar wurde. Am 13. Oktober 2006 wurde die Version 2.0.4 veröffentlicht. Diese Version erhielt einen Exportfilter für LaTeX und PDF-Verschlüsselung. Sie bildet den Abschluss der 2.0-Produktreihe. Version 2.1 von OpenOffice.org erschien am 12. Dezember 2006. In ihr wurden neu implementiert: ein Aktualisierungssystem, der überarbeitete Schnellstarter sowie die Verbesserung der Exportfunktion von HTML-Dateien aus Calc. Die Version enthielt einen auffälligen Fehler, durch den in Textdokumenten nach Seitenumbrüchen das Inhaltsverzeichnis versetzt und umformatiert wurde. Am 28. März 2007 erschien die Version 2.2 mit erweiterten Vista-Funktionen, erweitertem Umgang mit Extensions und ebenfalls erweitertem PDF-Export. Mit dieser Version ändert OpenOffice.org die Zeitabstände zwischen Aktualisierungen mit neuen Funktionen von drei auf sechs Monate. Auffälligster Fehler war in CALC unsichtbarer Text beim Bearbeiten von Notizen von Zellen. Dieser Fehler wurde mit der Version 2.2.1 behoben. OpenOffice.org 2.2.1 erschien am 12. Juni 2007 und brachte einige Fehlerkorrekturen – neue Funktionen wurden nicht integriert. Version 2.3 wurde am 17. September 2007 veröffentlicht. Die Installationsdatei ist mit minimal 100 MB wesentlich größer als die der Vorgängerversionen. Neben Fehlerkorrekturen sind auch neue Funktionen integriert. In dieser Version ist das Diagrammmodul Chart neu programmiert worden. Verbesserungen gibt es bei der Geschwindigkeit der Darstellung, bei Regressionsdarstellungen in Diagrammen und der 3D-Funktionalität; auch der Diagrammassistent ist überarbeitet. Für das Datenbankmodul ist ein neuer Reportgenerator verfügbar. Writer beherrscht nun teilweise das MediaWiki-Format (Tabellen, Zeichenformatierung, Weblinks) als Exportoption. Weiterhin wurden Calc, die Rechtschreibprüfung und der HTML-Export bei Präsentationen verbessert. OpenOffice.org 2.3.1 erschien am 4. Dezember 2007 und brachte einige Fehlerkorrekturen, neue Funktionen gab es nicht. Die Version 2.4.0 erschien am 27. März 2008. Verbessert wurden in Calc die Formulareingabe und das Sortieren von Spalten im Datenpilot mittels Drag and Drop. Der Datenpilot erlaubt jetzt einen Drill-Down aus Ergebniszellen. Mit der Komponente Chart sind Diagramm-Beschriftungen besser positionierbar. In Impress können Hintergrundgrafiken per Kontextmenü eingebunden werden. Folientitel werden beim PDF-Export als Lesezeichen abgespeichert. Die Statusleiste in Writer zeigt die Sprachversion des Absatzes an. Blockmarkierungen in Textdokumenten sind ab sofort möglich. Base unterstützt unter Windows zusätzlich Datenbanken im Access-2007-Format. Die Sicherheitsfunktionen wurden um ein Master-Passwort für Internet-Verbindungen erweitert. Der Zugriff auf WebDAV-Server über HTTPS ist ebenfalls möglich geworden. Der PDF-Export bietet PDF/A-1 (ISO 19005-1) zur Langzeitarchivierung. Beim automatischen Suchen von Programmaktualisierungen wird auch geprüft, ob neue Versionen installierter Erweiterungen vorliegen. Die Hilfefunktion wurde ebenfalls erweitert. Die Version 2.4.1 erschien am 10. Juni 2008. Es handelt sich dabei um eine reine Fehlerkorrektur-Version ohne neue Funktionen; insbesondere wurde damit ein Sicherheitsproblem behoben. Ende Oktober 2008 erschien mit Version 2.4.2, und im September 2009 mit Version 2.4.3 die letzte Aktualisierung der Version 2.4.x, welche ebenfalls reine Fehlerkorrektur-Versionen waren. Seit Dezember 2009 wird der 2.x-Versionszweig von der Entwickler-Community nicht mehr kostenfrei weiterentwickelt. OpenOffice.org 3.x. OpenOffice.org 3.0 Beta, Notizfunktion unter Writer Version 3.0 wurde am 13. Oktober 2008 veröffentlicht. Diese Version enthält gegenüber den Versionen 2.x zahlreiche neue Funktionen und ist erstmals auch nativ, also ohne X11, für Mac OS X mit Aqua-Unterstützung erhältlich. OpenOffice 3 enthält eine Überarbeitung von Calc sowie erweiterte Kommentarfunktionen. Ab Version 3.0.1 wurde der "Extension Manager" für freie Programmerweiterungen mit StarOffice 9 PU 1 harmonisiert, um dieselben Erweiterungen verwenden zu können. Zusätzlich sind die Importfunktionen um die Dateiformate aus Microsoft Office 2007 für Text- und Tabellendokumente, das „Office Open XML“, ergänzt worden. Seit der Version 3.1.1 werden Grafikobjekte mit Hilfe von Antialiasing in höherer Qualität dargestellt. Die Version 3.2 brachte eine erhöhte Stabilität und Geschwindigkeit. Außerdem unterstützt OpenOffice.org seit Version 3.2 Graphite- und OpenType-Schriften, Kommentarfunktionen für Impress und Draw und neue Blasendiagramme für Calc. Zusätzlich wurde die Startgeschwindigkeit (Kalt- und Warmstart) erheblich erhöht. Die ebenfalls vorgesehene Erweiterung um einen Personal Information Manager (PIM) wurde auf eine spätere Version verschoben. Sun Microsystems betätigt sich zu diesem Zweck im Lightning-Projekt der Mozilla-Foundation. Ziel ist die Integration des Mail-Clients Mozilla Thunderbird mit Adressbuch und Kalender als Groupware-Client in OpenOffice.org. Die Version 3.4.0 ist am 8. Mai 2012 veröffentlicht worden. Der Name wurde von "OpenOffice.org" auf "Apache OpenOffice" (ohne „.org“) geändert. Sie ist die erste Version nach der Übernahme durch die Apache Software Foundation. Die Version 3.4.1 ist am 23. August 2012 veröffentlicht worden. Apache OpenOffice 4.x. Version 4.0.0 wurde am 23. Juli 2013 veröffentlicht. Die auffälligste Neuerung dieser Version stellt eine Seitenleiste dar. Diese soll die Arbeit an Breitbildmonitoren erleichtern, weil dadurch die sonst oben liegenden Bedienelemente an die Seite verlagert werden. Darüber hinaus wurde die Unterstützung für drei weitere Sprachen geschaffen, 500 Programmfehler bereinigt, die Kompatibilität mit Microsoft Office erhöht, die Arbeit mit Grafiken verbessert und vieles mehr. Version 4.0.1 wurde am 1. Oktober 2013 veröffentlicht. Einige Programmfehler wurden beseitigt, die Geschwindigkeit der Speicherung von.XLS-Dateien erhöht und zusätzliche Sprachen werden unterstützt. Version 4.1.0 wurde am 29. April 2014 veröffentlicht. Es wurden neue Funktionen hinzugefügt und Verschiedenes geändert: Unterstützt werden nun Kommentare/Anmerkungen zu Textbereichen, iAccessible2, In-place-Bearbeitung von Eingabefeldern sowie eine interaktive Funktion zum Zuschneiden. Sie setzt OS X 10.7 oder höher voraus, die Version OS 10.6 (Snow Leopard) wird damit nicht mehr unterstützt. Version 4.1.1 wurde am 21. August 2014 veröffentlicht. Es handelt sich um eine Aktualisierung, die einige Fehler bereinigt und verbesserte Übersetzungen enthält. Neu hinzugekommen ist Katalanisch. Nach der Veröffentlichung des zweiten Quartalsberichts 2015 warnten Berichterstatter, dass die Entwicklung des Projekts weitestgehend zum Erliegen kam und dessen Zukunft fraglich sei. Systemvoraussetzungen. OpenOffice.org lässt sich unter aktuellen eComStation, Linux-, Unix- einschl. OS X und Windows-Systemen nutzen und ist damit weitgehend plattformunabhängig. Linux/Unix. Bei den verbreiteten Linux-Distributionen, die sich an Endbenutzer richten (z. B. von Red Hat, Novell oder Ubuntu), gehörte OpenOffice.org vor der Abspaltung von LibreOffice zur Basisausstattung und konnte nach der Linux-Installation direkt genutzt werden. Für Solaris wird mindestens Solaris 8 auf der SPARC- oder x86-Prozessorplattform vorausgesetzt. OS X. OpenOffice erfordert mindestens Mac OS X 10.4 (Tiger) und bis OpenOffice.org Version 2.4.3 auch die X11-Bibliotheken. Seit Version 3.0 wurde sowohl die PPC- als auch die Intel-Architektur nativ unterstützt; 3.2 ist allerdings die letzte PPC-Version. Die Version 3.2.1 des Office-Paketes ist als „OpenOffice.org X11“ mit und als „OpenOffice.org Aqua“ ohne X11 verfügbar; letztere setzt Mac OS X 10.4.11 voraus. Die letzte unter Mac OS X 10.6 (Snow Leopard) lauffähige OpenOffice-Version ist 4.0.1.; ab Version 4.1 wird Mac OS X 10.7 (Lion) oder neuer vorausgesetzt. Windows. Die aktuelle Version 4.1.x des Officepakets lässt sich unter Windows XP, Windows Vista, Windows 7 und Windows 8 installieren. Die letzte Version für Windows 95 ist offiziell OpenOffice.org Version 1.0.3.1, für Windows NT 4.0 OpenOffice.org 1.1.5 und für Windows 98, Windows 98 SE und Windows Me OpenOffice.org 2.4.3. Kapitel 7.2 des offiziellen Installationshandbuches beschreibt zudem die Installation (geht bis Version 2.1) unter Windows NT 4.0. Mit einer aktualisierten Systemdatei kann OOo 2.0.2 unter Windows 95 gestartet werden. Unter diesen Windowsversionen gilt die OOo-Unterstützung als experimentell und wird nicht vom Support abgedeckt. Weitere Betriebssysteme. Für 2 und eComStation gab es bis zur Version GA 3.2 spezielle Versionen von OpenOffice.org von Serenity Systems International und Mensys BV im Rahmen kostenpflichtiger Supportverträge. Die Version 4.1.2 wird von der Firma Bitwise angeboten. Abspaltung und Projektaufteilung. Im Gegensatz zu den vorgenannten Projekten ist "LibreOffice" eine Abspaltung von OpenOffice.org, die von ihren Entwicklern als legitime Fortführung von OpenOffice.org angesehen wird. Sie wird koordiniert durch die "Document Foundation" und seit September 2010 entwickelt. Ziel ist es, im Rahmen einer unabhängigen Stiftung die Arbeit aus der vorangegangenen zehnjährigen Entwicklung von OpenOffice.org weiterzuführen und neue Beiträge zentral durch die Stiftung zu verwalten. Die Stiftung wurde von OpenOffice.org-Projektmitgliedern aus Unzufriedenheit darüber gegründet, dass die Unterstützung durch die Entwicklungsabteilung von Oracle (vormals Sun Microsystems) für OpenOffice.org immer spärlicher ausgefallen war und die Markenrechte unklar waren. Nachdem Oracle eine Beteiligung an der Document Foundation abgelehnt und angekündigt hatte, OpenOffice.org wie bisher weiterzuführen, war die Übertragung der Namensrechte an die Document Foundation und eine Zusammenführung von OpenOffice.org und LibreOffice zunächst unwahrscheinlich geworden. Inzwischen hat Oracle allerdings das OpenOffice.org-Projekt samt Namens- und Logorechten an die Apache Software Foundation übergeben, was neue Chancen für den Codeaustausch zwischen beiden Projekten bringt. Dateiformat. Das Dateiformat von OpenOffice.org wurde von der Organization for the Advancement of Structured Information Standards (OASIS) als Basis für das neue offene Austauschformat OpenDocument verwendet, welches das Standardformat von OpenOffice.org ab Version 2.0 ist. Die XML-Dateien sind gepackt und belegen deshalb sehr wenig Speicherplatz. Die Dokumentinhalte werden im Java-Archive-Format gespeichert, einer ZIP-Datei mit speziellen Einträgen. Die Dateiendung eines Java-Archivs ist normalerweise „.jar“, jedoch werden für OpenDocument-Dateien die Dateiendungen „.od*“ verwendet. Es kann mit jedem üblichen Packprogramm entpackt werden. Die eigentliche Textinformation (Datei "content.xml") kann dadurch mit jedem Texteditor angesehen und verändert werden. Zum Beispiel kann man Programme schreiben, die Formulare automatisch mit Inhalten einer Datenbank ausfüllen. Außerdem ist sichergestellt, dass auch in vielen Jahren noch uneingeschränkt auf diese Dateien zugegriffen werden kann; das ist gerade im kommerziellen und behördlichen Einsatz wegen der langen Aufbewahrungsfristen für Unterlagen ein nicht zu unterschätzender Vorteil. Die Europäische Union plant, das OASIS-Dateiformat als einheitliches Standarddatenformat für ihre Dokumente einzusetzen. Im Mai 2006 wurde „OASIS-OpenDocument 1.0“ zum ISO-Standard (ISO 26300) erklärt. In OpenOffice.org 1.0 und 1.1 wurden Dokumente standardmäßig im eigenen XML-basierten Dateiformat mit der Dateiendung „.sx*“ gespeichert. Dieses Dateiformat ist nicht identisch mit dem OpenDocument-Format, das in diesen OOo-Versionen noch nicht unterstützt wurde. Erst mit OpenOffice.org 1.1.5 konnten zumindest OpenDocument-Dateien geöffnet und bearbeitet werden – das Speichern musste im alten Dateiformat geschehen. OpenOffice.org 2.0 kann alle Dateiformate früherer Versionen verlustfrei lesen und schreiben, dazu zählen auch die alten StarOffice-Dateiformate mit der Dateiendung „.sd*“. Rechtschreibprüfung. Ab OpenOffice.org 2.0.3 und dem darin neu eingeführten Rechtschreibprogramm Hunspell wird mit der deutschsprachigen Version von OpenOffice.org auch die Hunspell-Variante des deutschen Wörterbuchs igerman98 mitgeliefert. In früheren Versionen musste dieses teilweise noch aufgrund nicht kompatibler Lizenzen nachträglich hinzugefügt werden. Das Rechtschreibprogramm Hunspell, das ein direkter Nachfolger des vorher verwendeten Myspell ist, ermöglicht eine deutlich bessere Unterstützung von Sprachen, die Kompositabildung (Wortzusammensetzungen) erlauben. Die Wörterbücher für eine Kontrolle in weiteren Sprachen können ab Version 3.0 als „Extensions“ aus dem Internet bezogen werden und wie alle Programmerweiterungen automatisch auf Aktualisierungen überprüft werden. Eine Grammatikprüfung wird bislang nicht angeboten. Mit der freien Erweiterung "LanguageTool" lässt sie sich für einige Sprachen, darunter Deutsch, nachrüsten. Die Brockhaus-Tochter Brockhaus Duden Neue Medien (BDNM) bot bis Ende 2013 die proprietäre Erweiterung „Duden-Korrektor“ für OpenOffice.org an, die eine Rechtschreib-, Stil-, und Grammatikprüfung sowie eine automatische Silbentrennung und einen Thesaurus umfasste. Das Produkt wurde jedoch im Zuge der Aufgabe des Geschäftsbereichs Sprachtechnologie eingestellt und ist mit aktuellen Versionen von Apache OpenOffice und LibreOffice nicht mehr kompatibel. SDK für Add-ons, API, UNO. Mit dem "OpenOffice.org Software Development Kit" (SDK) können Entwickler das Office-Paket um weitere Funktionen erweitern oder externe Programme einbetten. Im SDK sind alle notwendigen Tools und Anleitungen enthalten. Die englischsprachige Dokumentation beschreibt die Konzepte der API und Komponententechnik UNO "(Universal Network Objects)", seit 2.0 auch Common Language Infrastructure (CLI). Es kann in den Sprachen StarOffice Basic, C, C++, Python und Java programmiert werden, in der Standardinstallation von OpenOffice.org sind jedoch nur StarBasic und Python als portable Laufzeitumgebungen vorhanden. Das SDK steht unter der LGPL und kann für Windows, Linux und Solaris von den Projektseiten kostenlos geladen werden. Auch ein API-Plugin für NetBeans ist verfügbar. Verbreitung. In einer Studie eines Web-Analytics-Dienstes im Januar 2010 wurde der OpenOffice-Marktanteil in Deutschland auf 21,5 Prozent bestimmt. Dazu wurden die installierten Office-Programme von über einer Million Internetnutzern in Deutschland bestimmt. Damit liegt Deutschland bei der OpenOffice-Marktdurchdringung im internationalen Vergleich im vorderen Bereich. Ältere Studien mit einer geringeren Datenbasis kamen auf Zahlen zwischen 3 und 15 Prozent für den internationalen Marktanteil und 5 Prozent für den deutschen Marktanteil im professionellen Umfeld. Da diese Studie vor der Abspaltung von LibreOffice durchgeführt wurde, ist dessen Anteil hier miterfasst. In den wichtigsten Linux-Distributionen wurde OpenOffice mittlerweile durch LibreOffice ersetzt. Diverse Unternehmen bieten verstärkt Dienstleistungen wie Migrationshilfen und Kundendienst-Hotlines an oder beteiligen sich an der Entwicklung. Es gibt Kursangebote von Volkshochschulen, Lernprogramme und Schulungsunterlagen. Der europäische Computerführerschein „ECDL“ kann mit OpenOffice.org abgelegt werden. Das Angebot von Software mit einer Anbindung an OOo/LibO steigt; viele Softwareunternehmen liefern einen wachsenden Teil ihrer Programme mit einer OpenOffice.org-/LibreOffice-Schnittstelle aus. In einigen Firmen und öffentlichen Verwaltungen, wie etwa in München (LiMux-Projekt) und Wien (Wienux-Projekt), wird OpenOffice.org bereits eingesetzt. Ein großer Anwender ist beispielsweise die französische Gendarmerie, die im Jahre 2005 etwa 70.000 Desktoprechner von Microsoft Office zu OpenOffice.org migriert hat. Im Oktober 2005 wurde eine strategische Partnerschaft von Google Inc. und Sun Microsystems geschlossen. Sie soll unter anderem die Verbreitung von OpenOffice.org fördern. OpenOffice.org wird bisher nur selten auf neuen Rechnern vorinstalliert. Im Sommer 2007 hat das amerikanische Unternehmen Everex Computer mit OOo 2.2 ausgestattet und in Nordamerika über den Einzelhandel vertrieben. Seit Frühjahr 2008 werden einige Modelle des Eee PC (mit Linux) in Deutschland und Österreich mit OOo ausgeliefert. Die Frage nach dem Einsatz von OpenOffice.org in Unternehmen scheint häufig von einer generellen Bereitschaft im Management abhängig zu sein, freie Software einzusetzen. In einer Umfrage aus dem Jahr 2008 geben 62 Prozent der Führungskräfte großer westeuropäischer Unternehmen, die Open-Source-Software einsetzen, an, dass in ihrem Unternehmen auch mit OpenOffice.org gearbeitet wird. OpenOffice.org gehört damit zu den bedeutendsten Anwendungen im Bereich freier Software. Projekt. Im OpenOffice.org-Projekt arbeitet eine große Gemeinschaft. Die Arbeit am Quelltext wird vorrangig von den Entwicklern von Oracle (ehemals Sun Microsystems) übernommen. Weitere Unternehmen, die Entwickler stellen, sind beispielsweise IBM, Novell, Intel, Red Hat und Red Flag. Im Gesamtprojekt bildet der "Community Council" das oberste Organ. Er legt unter anderem die Ziele des Projektes fest. Rechtliches. Sun Microsystems hält die Urheberverwertungsrechte an Apache OpenOffice. Entwickler unterschreiben eine "Sun Microsystems Inc. Contributor Agreement" (SCA) genannte Vereinbarung (Nachfolger des früher verwendeten "Joint Copyright Assignment"), womit Sun ein gemeinsames Verwertungsrecht an Beiträgen erhält, die die Entwickler an Apache OpenOffice leisten. Die Übertragung der Nutzungsrechte wird von einigen Entwicklern, zum Beispiel vom Novell-Mitarbeiter Michael Meeks, als problematisch angesehen. Durch das SCA wird Sun Microsystems unter anderem in die Lage versetzt, mögliche Urheberrechts- bzw. Lizenzverletzungen rechtlich verfolgen zu lassen und die Lizenz festzulegen. So wurde für die Version 1 von OpenOffice.org eine duale Lizenzierung aus GNU Lesser General Public License (LGPL) und der Sun Industry Standards Source License (SISSL) verwendet, für die Version 2 wurde nur noch die LGPL (Version 2) genutzt und die Version 3 des Programms ist unter den Bedingungen der LGPL Version 3 veröffentlicht worden. Die Rechte an der Wort- und Wortbildmarke „OpenOffice.org“ hält in den USA und in der EU Oracle America, Inc. In manchen Ländern werden aber von Dritten Rechte am Markennamen „OpenOffice.org“ oder ähnlich klingenden geltend gemacht, so dass OpenOffice.org dort nicht unter seinem eigentlichen Namen in den Markt eintreten kann. Deshalb heißt zum Beispiel in Brasilien die Software „BrOffice.org“. Oortsche Wolke. Die Oortsche Wolke (andere Schreibweise: "Oort’sche" Wolke), auch als Zirkumsolare Kometenwolke oder Öpik-Oort-Wolke bezeichnet, ist eine hypothetische und bisher nicht nachgewiesene Ansammlung astronomischer Objekte im äußersten Bereich unseres Sonnensystems. Theorie. Die Wolke wurde 1950 vom niederländischen Astronomen Jan Hendrik Oort als Ursprungsort der langperiodischen Kometen postuliert. Oort griff damit einen Vorschlag des estnischen Astronomen Ernst Öpik von 1932 auf. Oort gründete seine Hypothese auf die Untersuchung von Kometenbahnen und auf die Überlegung, dass die Kometen nicht aus den bekannten Regionen des Sonnensystems stammen könnten, wie bis dahin angenommen wurde. Kometen werden im Verlauf von mehreren Passagen des Bereiches der Planeten durch den stärkeren Sonnenwind und die Ausbildung eines Kometenschweifs zerstört; nach den alten Voraussetzungen dürften sie daher heute nicht mehr vorkommen. Ausmaß. Der Theorie nach umschließt die von Oort angenommene „Wolke“ die übrigen Zonen des Sonnensystems schalenförmig in einem Abstand zur Sonne von bis zu 100.000 Astronomischen Einheiten (AE), was rund 1,6 Lichtjahren entspricht. Im Vergleich dazu ist der sonnenfernste Planet Neptun nur ca. 4,2 Lichtstunden (30 AE), der nächste Stern Proxima Centauri dagegen bereits 4,2 Lichtjahre von der Sonne entfernt. Die vom Sonnenwind maßgeblich durchströmte Heliosphäre hat einen geschätzten Radius von etwa 110 bis 150 AE. Schätzungen der Anzahl der Objekte liegen zwischen einhundert Milliarden und einer Billion. Vermutlich geht die Oortsche Wolke kontinuierlich in den Kuipergürtel (30 bis 50 AE) über, dessen Objekte allerdings gegen die Ekliptik konzentriert sind. Entstehung. Die Oortsche Wolke besteht nach heutiger Auffassung aus Gesteins-, Staub- und Eiskörpern unterschiedlicher Größe, die bei der Entstehung des Sonnensystems und dem Zusammenschluss zu Planeten übrig geblieben sind. Diese sogenannten Planetesimale wurden von Jupiter und den anderen großen Planeten in die äußeren Bereiche des Sonnensystems geschleudert. Durch den gravitativen Einfluss benachbarter Sterne wurden die Bahnen der Objekte mit der Zeit so gestört, dass sie heute nahezu isotrop in einer Schale um die Sonne herum verteilt sind. Wegen der weit größeren Entfernung zu den Nachbarsternen sind die Objekte der Oortschen Wolke trotz ihres relativ großen Abstandes zur Sonne gravitativ an diese gebunden, also feste Bestandteile des Sonnensystems. Kometen. Jupiterbahn, Kuipergürtel, Umlaufbahn von Sedna und Oortsche Wolke im Vergleich Durch den Einfluss der Gravitationsfelder der benachbarten Sterne sowie der galaktischen Gezeiten werden die Umlaufbahnen der Objekte der Oortschen Wolke gestört und einige von ihnen geraten ins innere Sonnensystem. Dort erscheinen sie dann als langperiodische Kometen, mit einer Periode von mehreren tausend Jahren. Kurzperiodische Kometen können sich nicht aus Kometen der Oortschen Wolke bilden, da eine hierfür benötigte Störung durch die großen Gasplaneten zu ineffektiv ist. Die Oortsche Wolke ist nicht der einzige Ursprungsort von Kometen: Bei einer mittleren Periodenlänge können diese auch aus dem Kuipergürtel stammen. Unklare Abgrenzung. Ein direkter Nachweis der Oortschen Wolke durch Beobachtung ist auch in naher Zukunft nicht zu erwarten, aber es gibt genügend indirekte Anzeichen, so dass ihre Existenz als nahezu sicher gilt. Die Oortsche Wolke wird unterteilt in eine innere und eine äußere Oortsche Wolke, wobei die Grenze bei einer großen Halbachse der Umlaufbahn von 10.000 bis 20.000 AE angenommen wird. Grund für diese Unterteilung ist die Jupiter-Barriere, die verhindert, dass Kometen mit einer großen Halbachse kleiner als etwa 10.000 AE in das innere Sonnensystem gelangen können. Objekte der inneren Oortschen Wolke gelten daher als de facto nicht beobachtbar. Langperiodische Kometen mit einer großen Halbachse kleiner als etwa 10.000 AE, die im inneren Sonnensystem beobachtet werden, stammen aus der äußeren Oortschen Wolke und haben wahrscheinlich schon mehrere Bahnumläufe durch das innere Sonnensystem erfahren, wobei ihre große Halbachse durch Bahnstörungen durch Planeten schrittweise reduziert wurde. Diese Kometen werden daher als „dynamisch alt“ bezeichnet, im Gegensatz zu „dynamisch neuen“ Kometen, die direkt aus der Oortschen Wolke stammen und das innere Sonnensystem zum ersten Mal erreichen. Von den Entdeckern des extrem weit außen umlaufenden Planetoiden Sedna – mit einem Aphel bei etwa 926 AE – wurde eine Zugehörigkeit dieses Objekts zur inneren Oortschen Wolke vorgeschlagen, was aber bisher nicht allgemein akzeptiert ist. Oxide. a>kristall - chemisch gesehen reines Siliziumdioxid a> ist ein braunes, giftiges Gas Oxide (von griech. ὀξύς, oxýs = "scharf, spitz, sauer") sind Sauerstoff-Verbindungen, in denen dieser die Oxidationszahl −II hat. Die meisten Oxide entstehen, wenn brennbare Stoffe mit Sauerstoff reagieren (Ursprung des Wortes Oxidation): Bei ihrer Oxidation geben sie Elektronen an das Oxidationsmittel Sauerstoff ab, so dass Oxide gebildet werden. Grundsätzlich gilt, dass jede Verbindung eines Elementes mit Sauerstoff als Oxid bezeichnet wird. Eine Ausnahme bilden die Sauerstoff-Fluor-Verbindungen. Da der Sauerstoff in diesen eine positive Oxidationszahl besitzt und das Fluor die negative Oxidationszahl, heißen diese Verbindungen nicht "Fluoroxide", sondern "Sauerstofffluoride". Entsprechend ihrer stöchiometrischen Zusammensetzung unterscheidet man Monoxide, Dioxide, Trioxide, Tetroxide, Pentoxide, so bei Kohlenmonoxid, Chlordioxid und Schwefeltrioxid. Der überwiegende Teil der Erdkruste und des Erdmantels besteht aus Oxiden (vor allem aus Siliciumdioxid (Quarz) und hiervon abgeleiteten Salzen, den Silikaten sowie Aluminiumoxid). Auch Wasser gehört zur Stoffgruppe der Oxide. Ethylenoxid ist ein Beispiel für ein organisches Oxid. Herstellung. Ferner ließe sich das rote Kupfer(I)-oxid durch Sauerstoff in schwarzes Kupfer(II)-oxid umwandeln. Auch beim Rösten sulfidischer Kupfererze wird Kupfer(II)-oxid hergestellt, indem man Kupfer(II)-sulfid an Luft oder im Sauerstoffstrom glüht (Nebenprodukt Schwefeldioxid). Wie leicht ein Metall ein Oxid bildet, hängt von der Elektronegativität und Sauerstoffaffinität des Elementes ab. Je unedler ein Metall, desto heftiger kann es im Allgemeinen mit Sauerstoff reagieren und Oxide bilden. Daneben hängt die Reaktivität auch von der Passivierung eines Elementes ab, da bei vielen Elementen eine dicht haftende Oxidschicht die weitere Reaktion verhindert. Nur wenn diese sauerstoffdurchlässig ist oder entfernt wird, kann das Metall weiterreagieren. Eigenschaften der Oxide. Es gibt – eingeteilt nach ihrer Reaktion mit Wasser – saure, basische, amphotere und indifferente Oxide Oxide edlerer Metalle werden zwecks Reaktion mit Wasser daher oft über einen Umweg als Salze in Hydroxide verwandelt: Kupfer(II)-oxid kann z. B. in konz. Salzsäure zu Kupfer(II)-chlorid gelöst werden. Dieses bildet mit Natronlauge Kupfer(II)-hydroxid, welches wie oben angegeben durch Erhitzen in Kupfer(II)-oxid umgewandelt werden kann. Hydroxide sind flockige Niederschläge, die oft charakteristische Färbungen aufweisen (Kupfer(II)-hydroxid hellblau, Nickel(II)-hydroxid apfelgrün, Chrom(III)-hydroxid graugrün, Mangan(II)-hydroxid rosa und an Luft infolge von Oxidation braun werdend, Cobalt(II)-hydroxid blau oder rosa, Eisen(III)-hydroxid rostbraun, Eisen(II)-hydroxid graugrün). Oxid-Ion und Hydroxid-Ion. Das den Metalloxiden zugrunde liegende O2−-Ion entsteht bei der Redoxreaktion des Oxidationsmittels Sauerstoff mit einem Metall. Es ist nur in Schmelzen und in Kombination mit Kationen (in Form von Salzen) existent, nicht jedoch als freies Ion, denn es ist eine extrem starke Base und wird somit in wässriger Lösung quantitativ zum Hydroxid-Ion protoniert (Säure-Base-Reaktion). Metall-Hydroxide enthalten das OH−-Ion und werden meistens aus Salzlösungen und Laugen gewonnen. In Nichtmetalloxiden liegt in der Regel kein Oxid-Anion vor, da Nichtmetalle untereinander eine kovalente Bindung eingehen. Das dem Oxidion ähnelnde Peroxidion weist eine Oxidationszahl von −I statt −II auf, da hier zwei Sauerstoffatome miteinander verbunden sind. Nichtmetalloxide reagieren mit Wasser zu Säuren (mit Oxo-Anionen wie Sulfat, Carbonat usw.). Sie sind somit als Hydroxide von saurem Charakter anzusehen. Das Bindungsvermögen des Sauerstoffs. Sauerstoff ist ein starkes Oxidationsmittel und bildet mit fast allen Elementen isolierbare Oxide, mit Ausnahme der Edelgase Helium, Neon, Argon, Krypton und des Halogens Fluor (Fluor nimmt hierbei eine Sonderstellung ein, weil zwar die Sauerstoffverbindungen OF2, O2F2 und O4F2 darstellbar sind, diese Stoffe aber wegen der höheren Elektronegativität des Fluors nicht als Fluoroxide, sondern als Sauerstofffluoride bezeichnet werden). Sauerstoff bildet neben Oxiden auch Oxo-Anionen: Hier haben sich mehrere Sauerstoffatome an ein Atom gebunden, welches zumeist die höchstmögliche Oxidationszahl aufweist (Beispiele: Phosphat, Sulfat, Chromat, Permanganat, Nitrat, Carbonat). Sie entstehen in der Regel, wenn Nichtmetall- und Nebengruppenmetall-Oxide mit sehr hoher Oxidationszahl mit Wasser zu Säuren reagieren. Zudem existieren Sauerstoff-Sauerstoff-Verbindungen wie z. B. im Bleichmittel Wasserstoffperoxid (s.o.). Anorganische Peroxide sind stark ätzend und oxidierend, organische Peroxide in der Regel explosiv. Verwendung. Natürliche Metalloxide dienen als Erze zur Metallgewinnung. Ihnen wird durch Verhüttung – beispielsweise mittels Kohlenstoff (Hochofenprozess) – der Sauerstoff entzogen und so das reine Metall gewonnen. Metalloxide wurden schon in der Steinzeit als Pigmente benutzt und auch Erdpigmente genannt. Eine weitere Anwendung in der neueren Zeit ist die Verwendung als Isolator in der Informationstechnik. Oberpfalz. Die Oberpfalz ist ein Regierungsbezirk und auch ein Bezirk im Nordosten des Freistaats Bayern und grenzt an Tschechien und an die bayerischen Regierungsbezirke Oberbayern, Niederbayern, Mittelfranken und Oberfranken. Verwaltungssitz des Bezirks Oberpfalz und Sitz der Regierung der Oberpfalz ist Regensburg. Bis zum Jahr 1954 wurden die Regierungsbezirke Niederbayern und Oberpfalz gemeinsam verwaltet. Vor der Kreisreform. Vor der Landkreisreform am 1. Juli 1972 hatte der Regierungsbezirk Oberpfalz fünf kreisfreie Städte und neunzehn Landkreise; in der Zeit von 1939 bis 1945 gehörten drei weitere Landkreise zum Regierungsbezirk, die vom Sudetenland hinzugekommen waren. Bevölkerungsentwicklung. Die Statistik spiegelt ein gleichmäßiges Wachstum wider, das sollte aber nicht überbewertet werden. Lokal gab es teilweise gravierende Unterschiede. Momentan wachsen Stadt und Landkreis Regensburg dynamisch, während im Norden der Oberpfalz die Bevölkerungszahlen seit 20 Jahren rückläufig sind. Sprache. Die gesamte Oberpfalz, ausgenommen die fränkische Sprach-Enklave Neustadt am Kulm, gehört zum bairischen Sprachraum. Im Norden und in der Mitte der Oberpfalz wird Nordbairisch gesprochen, im Süden der Oberpfalz, ab Waldmünchen und Burglengenfeld, beginnt ein breiter sprachlicher Mischraum zwischen Nord- und Mittelbairisch. Im Chamer Becken tendieren die Mundarten zum Niederbayerischen und im Regensburger Raum eher nach Oberbayern. Es gibt einen deutlichen Unterschied zwischen Sprechern aus Regensburg und Straubing, obwohl auch Straubing noch zu dieser Mischzone gehört. Das Nordbairische ist eine urtümliche Variante des Bairischen, die noch viele Archaismen bewahrt, die im zentralen mittelbairischen Sprachraum schon ausgestorben sind. Es hat viele lautliche Eigenheiten, die es teilweise mit den benachbarten ostfränkischen Dialekten teilt. Das Nordbairische zeichnet sich besonders durch die „gestürzten Diphthonge“ (voraus lagen mhd. "uo, ië" und "üe") und die diphthongierten mittelhochdeutschen Langvokale "â, ô, ê" und "œ" aus; beispielsweise entsprechen den standarddeutschen Wörtern "Bruder, Brief" und "müde" (monophthongierte Vokale) hier "Brouda, Brejf" und "mejd" (zuerst Monophthongierung, danach erneute Diphthongierung) anstatt "Bruada, Briaf" und "miad" (erhaltene Diphthonge) wie im Mittelbairischen südlich der Donau. Weiterhin entspricht beispielsweise dem standarddeutschen "Schaf" hier "Schòuf" (mittelbair. "Schòòf"), "rot" hier "ròut/rout" (mittelbair. "rot/rout"), "Schnee" hier "Schnèj" (mittelbair. "Schnèè"), oder "böse" hier "bèjs" (mittelbair. "bèès"). Bei den Dialekten im Westen und im Nordwesten des nordbairischen Sprachraums ist charakteristisch auch eine Hebung der Vokale "e" (und "ö" nach Entrundung) und "o" zu "i" und "u" zu verzeichnen, beispielsweise "Vuugl" und "Viigl," im Gegensatz zu den südlicheren Formen "Voogl" und "Veegl" für standardsprachlich "Vogel" und "Vögel." Diese Hebung gilt übrigens auch als charakteristisches (ost-)fränkisches Merkmal. Im Nordosten des Sprachraums werden diese Laute zu den Diphthongen "ua" und "ia," also "Vuagl" und "Viagl." Verkleinerungs- und Koseformen enden in der Mehrzahl meist auf "-(a)la," in der Einzahl auf "-(a)l," beispielsweise "Moidl" = "Mädchen, d’ Moi(d)la" = "die Mädchen." Die Endung "-en" nach "k," "ch" und "f" ist in den nördlicheren nordbairischen Dialekten als Konsonant erhalten geblieben, beispielsweise "hockn, stechn, hoffn, Soifn" (= "Seife"). In den südlicheren nordbairischen Dialekten ist sie wie in den mittelbairischen weiter im Süden zu "-a" geworden, also "hocka, stecha, hoffa, Soifa." Kennzeichnend ist auch die Form "niad" für mittelbairisch "net" und die vielfältigen Formen des Personalpronomens für die 2. Person Plural: "enk, enks, ees, èts, deets, diits, diats" u. a. Geografie. Die Oberpfalz ist eine Landschaft mit Mittelgebirgen und in den flacheren Regionen mit zahlreichen Weihern und Seen. Sie hat im Vergleich zu anderen Regionen in Deutschland eher ländlichen Charakter, ist dünner besiedelt und grenzt (im Uhrzeigersinn von Norden aus) an Oberfranken, die Tschechische Republik, Niederbayern, Oberbayern und Mittelfranken. Schutzgebiete. Im Regierungsbezirk gibt es 62 Naturschutzgebiete und 85 ausgewiesene Landschaftsschutzgebiete (Stand, Dezember 2015). Das größte Naturschutzgebiet im Bezirk ist die Regentalaue zwischen Cham und Pösing. Geschichte. Historisch ist die Oberpfalz mit dem bayerischen Nordgau des 7. bis 14. Jahrhunderts identisch. Der Name des Regierungsbezirkes Oberpfalz steht im direkten Zusammenhang mit der Pfalz bzw. dem davon abgeleiteten Namen der Kurpfalz. Nach dem Tod Ludwigs II. des Strengen teilte sich das Haus Wittelsbach 1329 (Hausvertrag von Pavia) in die ältere, pfälzische und die jüngere, bayerische Linie, wobei die Pfälzer Linie einen Teil der Gebiete in Nordbayern erhielt, die später als "Obere Pfalz gen Bayern" genannt wurden. Aus dieser Bezeichnung entstand Anfang des 19. Jahrhunderts der Name "Oberpfalz" im Zuge der Neuordnung des Königreiches Bayern. Die Oberpfalz wurde seit 1329 von Heidelberg aus regiert und wurde im 16. Jahrhundert protestantisch. Nach der Niederlage des Kurfürsten Friedrichs V. in der Schlacht am Weißen Berg bei Prag am 8. November 1620 wurde die Oberpfalz 1621 von Bayern besetzt, rekatholisiert und 1628 annektiert. Die Verlagerung der Handelsstraßen nach Prag und Nürnberg, die Verwüstungen des Dreißigjährigen Krieges sowie die Vertreibung der Protestanten, die nicht zur katholischen Kirche übertreten wollten, verursachten einen wirtschaftlichen Niedergang der Oberpfalz. Von 1806 bis 1808 wurde das Königreich Bayern in 15 Kreise eingeteilt, deren Namen sich nach Flüssen richteten. Der Regenkreis umfasste zunächst 13 Landgerichte und seit 1809 die kreisunmittelbare Stadt Straubing. 1810 wurde er erheblich vergrößert, unter anderem durch das Fürstentum Regensburg. Danach wurde Regensburg Sitz des Generalkreiskommissariats. Der Regenkreis gab aber auch Gebiete an den Unterdonaukreis ab. Bei der von König Ludwig I. veranlassten Gebietsreform vom 29. November 1837, bei der man sich auf die historischen Landesbezeichnungen besann, erfolgte die Umbenennung in "Kreis Oberpfalz und Regensburg" und die Erweiterung um Teile des Obermainkreises. Zum 1. April 1932 wurden die Regierungsbezirke "Niederbayern" und "Oberpfalz und Regensburg" zum Regierungsbezirk Niederbayern und Oberpfalz mit dem Sitz der Regierung in Regensburg zusammengelegt. Mit Inkrafttreten der Bayerischen Verfassung von 1946 (BV) wurden die Regierungsbezirke (Kreise) gemäß Art. 185 BV in der Form von vor 1932/33 wiederhergestellt. Der Zusatz "und Regensburg" für die Oberpfalz entfiel. Bahnstrecken. Darüber hinaus gibt es eine Reihe von untergeordneten Strecken wie z. B. die Donautalbahn Regensburg – Ingolstadt Wirtschaft. Die Wirtschaft der Oberpfalz hat in den Jahren 1994 bis 2004 einen Wandel durchlebt. So nahmen die Erwerbstätigen in diesem Zeitraum im primären Sektor (Land- und Forstwirtschaft / Fischerei) ab, die Zahl der Erwerbstätigen im produzierenden Gewerbe sank ebenfalls. Die Erwerbstätigen im Dienstleistungssektor nahmen jedoch um 18,8 % zu. Da dies mit ca. 64 % Anteil an der Bruttowertschöpfung der bestimmende Sektor ist, nahmen die Erwerbstätigen damit insgesamt um 5,6 % zu. Heutzutage hat sich aufgrund der positiven wirtschaftlichen Entwicklung die Arbeitslosenquote auf 4,6 % zurückgebildet. Gemessen am BIP gehört die Oberpfalz zu den wohlhabenderen Regionen der EU mit einem Index von 130 (EU27: 100, Deutschland: 123) (2011). Die Wirtschaftskraft des Regierungsbezirkes variiert relativ stark zwischen der nördlichen und der südlichen Oberpfalz. Die Wirtschaft ist insgesamt geprägt von klein- und mittelständischen Unternehmen, von denen einige zu den Führenden ihrer Branche zählen. Ebenso ist der Tourismus ein großer wirtschaftlicher Faktor. Die Landwirtschaft und die Teichwirtschaft, die vor allem in den nördlichen Regionen der Oberpfalz auftritt, haben gesamtwirtschaftlich gesehen eher eine kleine Rolle inne. Industrielle Strukturen sind am stärksten im Großraum Regensburg vertreten, der in den vergangenen 25 Jahren eine beachtliche wirtschaftliche Dynamik entwickelt hat. Neben BMW, der Krones AG, Infineon und Continental produzieren eine Reihe weiterer Unternehmen in und um Regensburg. Regensburg ist nach München der zweitstärkste Biotechnologiestandort Bayerns (bundesweit Rang 5). Auf Landkreis-Ebene ist der Kreis Schwandorf in der Oberpfalz an erster Stelle beim Steueraufkommen. Es gibt 300 Industriebetriebe mit ca. 16.000 Arbeitsplätzen. Die namhaftesten Unternehmen sind unter anderem die MEILLERGHP GmbH, die Benteler Automobiltechnik GmbH und die Nabaltec AG in Schwandorf, der Innovationspark Wackersdorf (BMW), die Läpple AG mit Werk in Teublitz, die F.EE GmbH in Neunburg v.W. und die Heidelberg Cement AG in Burglengenfeld. Seit dem Mittelalter bis in die 1980er Jahre wurden die Erzvorkommen der Region wirtschaftlich ausgebeutet, weshalb die Oberpfalz auch „das Ruhrgebiet des Mittelalters“ genannt wird. Bis etwa 1990 bzw. 2002 war die Eisen- und Stahlindustrie (die „Maxhütte“ mit den Standorten Sulzbach-Rosenberg und Maxhütte-Haidhof; ein verbliebener Schwerindustrierest ist die Luitpoldhütte in Amberg) in Verbindung mit bedeutenden Vorkommen von Eisenerz (in Auerbach in der Oberpfalz) und Braunkohle (in Wackersdorf) ein bestimmender Wirtschaftsfaktor. Aufgrund ihrer Randlage am Eisernen Vorhang wurde die Oberpfalz seit den 1950er Jahren zu einem Stationierungsschwerpunkt der US-Armee und der neugegründeten Bundeswehr. Die Militärpräsenz ist seitdem ein wichtiger Wirtschaftsfaktor in dem strukturschwachen Raum, auch wenn das Ende des Kalten Krieges seit Anfang der 1990er Jahre eine deutliche Truppenreduzierung mit sich brachte. Touristische Anziehungspunkte sind der Oberpfälzer Wald, das Stiftland und der Steinwald im Norden, die aus dem Tagebau hervorgegangene Seenlandschaft bei Schwandorf in der Mitte, die Jurahöhen im Westen sowie das untere Naabtal und die Bezirkshauptstadt Regensburg im Süden. Bei Nabburg betreibt der Bezirk das Oberpfälzer Freilandmuseum. Im nationalen und internationalen Tourismus besser bekannt ist der Bayerische Wald, der sowohl in der Oberpfalz als auch im benachbarten Niederbayern gelegen ist. Dort ist eine alte Tradition der Glasbläserkunst vorhanden, die in Zwiesel, Bayerisch Eisenstein und angrenzenden Orten auch touristisch genutzt wird. Eine wichtige Rolle in Ostbayern spielen der Naturpark Oberpfälzer Wald, Naturpark Oberer Bayerischer Wald und der Naturpark Bayerischer Wald. Die Region Oberpfalz ist als eine der preiswertesten deutschen Ferienregionen bekannt; die Preise von Gaststätten und für Beherbergungen sind auf vergleichsweise günstigem Niveau. Die Marktgemeinde Plößberg zeichnet die hohe Dichte an industriellen Niederlassungen aus. Darunter zählen die Betriebe Ziegler Holzindustries KG, Erdenwerk Gregor Ziegler, Kartonagenwerk Liebenstein und Horn Glas Industries AG. Der Betrieb Ziegler Holzindustries KG, das Erdenwerk Ziegler und die Firma Horn Glas Industries AG wurden von 2004 bis 2010 durch den bayerischen Staatsminister Otto Wiesheu bzw. Martin Zeil zu den "bayerns best 50" Betrieben ausgezeichnet. Bekannte Persönlichkeiten aus der Oberpfalz. a> in einer Miniaturkopie einer heute verlorenen Wanddarstellung im Heidelberger Schloss (Bayerisches Nationalmuseum München, Inv. Nr. NN 3610). Zusammensetzung. Im amtierenden Bezirkstag (seit 2013) bilden Grüne, ÖDP und BP eine Ausschussgemeinschaft. Bezirkstagspräsident. Seit 2008 ist Franz Löffler (CSU) Bezirkstagspräsident. Seine Stellvertreter sind Lothar Höher (CSU) und Norbert Hartl (SPD). Wappen. Blasonierung: „Gespalten durch eine aufsteigende und eingeschweifte rote Spitze, darin zwei schräg gekreuzte silberne Schlüssel, vorne in schwarz ein linksgewendeter rot bewehrter und rot gekrönter goldener Löwe, hinten silbern-blaue Rauten.“ Das Wappen gibt es seit 1960 (Musterentwurf vom 25. August 1960) Wappenerklärung: Der steigende goldene Löwe ist der Pfälzer Löwe, das silbern-blaue (weiß-blaue) Rautenmuster die bayerischen Rauten. Die schräg gekreuzten silbernen Schlüssel in der roten eingeschweiften Spitze repräsentieren das Wappen der Stadt Regensburg. Es ersetzt den aufgelegten Reichsapfel als Zeichen der Kurwürde des Landesfürsten (als Erztruchsess) im ursprünglichen Siegel der oberpfälzer Landstände des 16. Jahrhunderts, dem das oberpfälzer Wappen entstammt. Damit wird auch an die ursprünglichen Bezeichnung des Regierungsbezirkes "Oberpfalz und Regensburg" sowie an die 1810 erfolgte Eingliederung der erstmaligen Reichsstadt Regensburg in das Königreich Bayern erinnert. Das Wappen symbolisiert damit auch die bis ins Mittelalter zurückreichende geschichtlichen Tradition des aus dem kurpfälzischen Territorium in Bayern entstandenem kurbayerischen Fürstentums der „Oberen Pfalz“, denn nach der Belehnung des bayerischen Herzogs Ludwig I. des Kelheimers aus dem Hause Wittelsbach 1214 mit der Pfalzgrafschaft diente es über Jahrhunderte als gemeinsames heraldisches Symbol der altbayerischen und pfälzischen Wittelsbacher. Regierungspräsidenten. Karl Freiherr von Schrenk von Notzing Orang-Utans. Die Orang-Utans ("Pongo") sind eine Primatengattung aus der Familie der Menschenaffen (Hominidae). Von den anderen Menschenaffen unterscheiden sie sich durch ihr rotbraunes Fell und durch ihren stärker an eine baumbewohnende Lebensweise angepassten Körperbau. Sie leben auf den südostasiatischen Inseln Sumatra und Borneo; die Bestände beider Inseln werden heute als zwei getrennte Arten – Borneo-Orang-Utan ("Pongo pygmaeus") und Sumatra-Orang-Utan ("Pongo abelii") – geführt. Allgemeines. Die Gliedmaßen der Orang-Utans sind an eine baumbewohnende Lebensweise angepasst. Orang-Utans erreichen eine Kopf-Rumpf-Länge von 1,25 bis 1,5 Metern. Hinsichtlich des Gewichtes herrscht ein deutlicher Geschlechtsdimorphismus: Männchen sind mit 50 bis 90 Kilogramm nahezu doppelt so schwer wie Weibchen, die 30 bis 50 Kilogramm auf die Waage bringen. Tiere in Gefangenschaft neigen hingegen dazu, deutlich schwerer zu werden, Männchen können dabei ein Gewicht von nahezu 200 Kilogramm erreichen. Die Sumatra-Orang-Utans sind im Allgemeinen etwas leichter und zierlicher als ihre Verwandten auf Borneo. Das eher dünne und zottelig wirkende Fell der Orang-Utans ist dunkelrot oder rötlich braun gefärbt – bei den Tieren aus Sumatra meist etwas heller. Die Gliedmaßen dieser Tiere zeigen starke Spezialisierungen an eine baumbewohnende Lebensweise. Die Arme sind sehr lang und kräftig und können eine Spannweite von 2,25 Metern erreichen. Die Hände sind hakenförmig und langgestreckt, der Daumen hingegen sehr kurz und nahe an der Handwurzel lokalisiert. Die vergleichsweise kurzen Beine sind sehr beweglich und nach innen einbiegbar, was dem senkrechten Klettern an Baumstämmen dient. Die Großzehe ist analog zum Daumen verkürzt und relativ nah an der Fußwurzel angebracht, die übrigen Zehen sind hingegen verlängert und gebogen. Insgesamt erwecken die Füße dadurch einen handähnlichen Eindruck. Kopf und Zähne. Der Kopf der Orang-Utans ist durch den hohen, gerundeten Schädel und die vorspringende, gewölbte Schnauze charakterisiert. Im Gegensatz zu den afrikanischen Menschenaffen sind die Überaugenwülste nur schwach ausgeprägt und die Augen sind klein und stehen eng beisammen. Die Schädel der Männchen sind allerdings wie die der Gorillas mit Sagittal- und Nuchalkämmen (Wülsten an der Oberseite des Kopfes und am Nacken) ausgestattet, die als Muskelansatzstellen dienen. Beide Geschlechter tragen einen Bart, wobei der der sumatranischen Art länger ist. Männliche Tiere sind überdies mit einem Kehlsack ausgestattet, der bei der borneanischen Art besonders groß ist. Erwachsene Männchen haben auffällige Wangenwülste, diese wachsen das ganze Leben und sind bei alten Tieren am deutlichsten ausgeprägt. Bei Borneo-Orang-Utans wachsen diese Wülste nach außen und sind nahezu unbehaart, bei Sumatra-Orang-Utans liegen sie flach am Kopf und sind mit weißen Haaren bedeckt. Wie alle Altweltaffen haben Orang-Utans 32 Zähne, die Zahnformel lautet I2-C1-P2-M3. Die mittleren Schneidezähne sind groß, die äußeren hingegen stiftförmig und klein. Die Eckzähne der Männchen sind deutlich größer als die der Weibchen; die Backenzähne sind durch niedrige Zahnhöcker und eine stark gekräuselte Kaufläche charakterisiert, was eine Anpassung an die oft hartschalige Nahrung darstellt. Verbreitung und Lebensraum. Noch vor einer Million Jahren kamen die Orang-Utans in ausgedehnten Gebieten Südostasiens vor. Ihr ursprüngliches Verbreitungsgebiet reichte vom südlichen China über Thailand, Vietnam bis nach Java, was durch Fossilienfunde in Südchina, Vietnam und der Insel Java belegt ist. In Teilen dieses Gebietes dürften sie zumindest bis vor wenigen tausend Jahren überlebt haben. Orang-Utans kommen heute nur mehr auf den Inseln Borneo und Sumatra vor. Auf Sumatra bewohnen sie die nordwestlichen Regionen und Teile der Westküste, auf Borneo sind sie vorwiegend in den südlichen und östlichen Regionen anzutreffen. Lebensraum der Orang-Utans sind tropische Regenwälder vom Meeresniveau bis in 1500 Metern über dem Meeresspiegel. Sie sind oft in Sumpfgebieten oder in der Nähe von Flüssen zu finden, einen weiteren bedeutenden Lebensraum stellen Dipterocarpaceen-Wälder dar. Aktivitätszeiten und Fortbewegung. Wie alle Menschenaffen sind Orang-Utans tagaktiv. Sie haben zwei Aktivitätshöhepunkte, einmal am Vormittag und einmal am späten Nachmittag, in der Mittagszeit halten sie Rast. Zur Nachtruhe errichten sie sich ein Nest aus Ästen und Blättern. In der Regel bauen sie jede Nacht ein neues Nest, gelegentlich wird dasselbe zweimal verwendet. Sie sind vorwiegend Baumbewohner. Dort bewegen sie sich hauptsächlich fort, indem sie langsam mit allen vier Gliedmaßen klettern oder auf den Ästen gehen – ihre Bewegungen sind aber gemächlicher als beispielsweise die der Gibbons. Insbesondere wenn sie es eilig haben, schwingen sie an den langen Armen (Brachiation). Um von einem Baum auf den anderen zu gelangen, können sie, um die Distanz zu verringern, diese in heftige Schaukelbewegungen versetzen. Orang-Utans kommen selten auf den Boden. Oft geschieht dies nur, um von einem Baum zum nächsten zu kommen, wobei ihre Bewegungen vorsichtig und scheu sind. Erwachsene Männchen können hingegen manchmal sogar Streifzüge auf dem Boden unternehmen. Dieses Verhalten ist bei der borneanischen Art häufiger, vermutlich weil es dort im Gegensatz zu Sumatra keine Tiger gibt. Ihre Fortbewegung auf der Erdoberfläche ist ein vierfüßiges Gehen; im Gegensatz zu den afrikanischen Menschenaffen (Schimpansen und Gorillas) bewegen sie sich nicht im Knöchelgang fort, sondern stützen sich entweder auf die Fäuste oder auf die Innenkanten der Hände. Territorial- und Wanderverhalten. Orang-Utans haben mehrere Revierstrategien und können als „ansässige Tiere“, „Pendler“ und „Wanderer“ bezeichnet werden. „Ansässige Tiere“ bewohnen feste Territorien. Bei Weibchen umfassen diese rund 70 bis 900 Hektar und können sich mit den Revieren anderer Weibchen überschneiden. Die Territorien der Männchen sind mit 4000 bis 5000 Hektar deutlich größer und überlappen sich meist mit denen mehrerer Weibchen. Die Länge der täglichen Streifzüge hängt mit der Reviergröße zusammen; sie dienen aber nicht nur der Nahrungsaufnahme, sondern bei Männchen auch dem Kontakt mit den Weibchen oder der Suche nach etwaigen männlichen Konkurrenten. Die Mehrzahl der männlichen Orang-Utans etabliert jedoch kein festes Territorium, sondern zieht als „Pendler“ oder „Wanderer“ umher. „Pendler“ halten sich nur für einige Wochen oder Monate in einem Gebiet auf und wechseln mehrmals im Jahr ihren Aufenthaltsort. Oft sind sie im darauffolgenden Jahr wieder in den gleichen Gebieten anzutreffen. Die Aufenthaltsorte der „Pendler“ können mehrere Kilometer auseinander liegen, die Streifzüge dieser Tiere sind dementsprechend deutlich länger als die der ansässigen Orang-Utans. Junge erwachsene Männchen sind meist „Wanderer“, sie sind nie lange in einem Gebiet anzutreffen, sondern ziehen beständig umher. Wenn sie älter werden, können sie manchmal ein festes Revier etablieren oder aber zeitlebens Wanderer bleiben. Sozialverhalten. Dauerhafte Bindungen gibt es nur zwischen Weibchen und ihren Jungen Orang-Utans sind in der Regel einzeln anzutreffen, dauerhafte Bindungen gibt es nur zwischen Weibchen und Jungtieren. Dennoch interagieren diese Tiere mit Artgenossen und führen keine strikt einzelgängerische Lebensweise, die Details dieser sozialen Beziehungen sind aber noch nicht restlos bekannt. Begegnungen zwischen Männchen verlaufen meist feindselig. Durch Rufe machen sie auf sich aufmerksam, bei direkten Begegnungen kann es auch zu Handgreiflichkeiten kommen. Weibchen reagieren hingegen friedlicher aufeinander, manchmal gehen sie zu zweit für mehrere Tage gemeinsam auf Nahrungssuche. Generell sind Sumatra-Orang-Utans sozialer als Borneo-Orang-Utans, es gibt für diese Art Beobachtungen von größeren Gruppenbildungen und auch zeitweiligen Zusammenschlüssen eines Männchens mit einem Weibchen und deren Jungtieren. Fix ansässige Tiere dürften einen höheren sozialen Rang als herumziehende haben, was unter anderem an den unterschiedlichen Fortpflanzungsstrategien deutlich wird. Niederrangigere, umherziehende Männchen erzwingen oft die Fortpflanzungen mit Weibchen. Opfer dieser erzwungenen Kopulationen, manchmal anthropomorph als „Vergewaltigung“ bezeichnet, werden ihrerseits zumeist junge oder rangniedrige Weibchen. Ansässige Männchen hingegen überwachen bei ihren Streifzügen die in ihrem Revier lebenden Weibchen, um sie vor erzwungenen Kopulationen zu schützen. Aufgrund des höheren Ranges dieser Männchen dürften die Weibchen der Paarung zustimmen. Kommunikation. Orang-Utans sind ruhiger als andere Menschenaffen. Auffälligster Laut sind die lauten Schreie der Männchen. Diese dienen dazu, andere Männchen auf ihr Revier hinzuweisen und den Kontakt zu Weibchen herzustellen. Bedingt durch den größeren Kehlsack sind die Schreie der Borneo-Orang-Utans lauter und langgezogener als die der Sumatra-Orang-Utans. Über andere lautliche Äußerungen oder Kommunikationen mittels Mimik und Körperhaltungen ist wenig bekannt. Werkzeuggebrauch. Der Gebrauch von Werkzeugen kommt bei Orang-Utans in freier Wildbahn seltener vor als beispielsweise bei Schimpansen. Man hat aber Tiere dabei beobachtet, wie sie Holzstöcke dazu verwendet haben, um damit zu graben, zu kämpfen oder sich zu kratzen. Um an die schmackhaften Samen von Neesia-Früchten zu gelangen, die in eine Fruchtschale mit stechenden Haaren eingebettet sind, stellen Orang-Utans aus dünnen Zweigen passende Holzstäbchen her. Vor Regen und praller Sonne schützen sie sich mit großen Blättern, die sie über ihren Kopf halten. Der vergleichsweise geringe Werkzeuggebrauch könnte auch an der eher einzelgängerischen Lebensweise dieser Tiere liegen, was die Bedingungen für die Weitergabe erworbenen Verhaltens erschwert. Das stimmt auch mit Beobachtungen überein, wonach der Werkzeuggebrauch bei den sozialeren Sumatra-Orang-Utans weitaus häufiger ist als bei den Borneo-Orang-Utans. Natürliche Feinde. Der bedeutendste natürliche Feind der Sumatra-Orang-Utans ist der Sumatra-Tiger. Der auf Sumatra und Borneo lebende Nebelparder wird heranwachsenden Tieren und Weibchen gefährlich, kann aber ausgewachsene Männchen in der Regel nicht erlegen. Weitere Bedrohungen stellen manchmal Krokodile und verwilderte Haushunde dar. Ernährung. Orang-Utans sind hauptsächlich Pflanzenfresser. Mit rund 60 % stellen Früchte den größten Bestandteil ihrer Nahrung dar, dabei nehmen sie oft Früchte mit harten Schalen oder Samen zu sich. Außerdem verzehren sie auch Blätter, junge Triebe und Rinde. Tierische Nahrung spielt nur eine untergeordnete Rolle. Gelegentlich verzehren sie aber Insekten, Vogeleier und kleine Wirbeltiere. Die sumatrische Art scheint einen etwas größeren tierischen Anteil in ihrer Nahrung zu haben als die Borneos. Durch die Verbreitung der Samen der gegessenen Früchte spielen sie eine Rolle für die Vermehrung mancher Pflanzen. Bei der Nahrungsaufnahme sitzen sie entweder oder hängen an den Ästen, wobei ihr Körpergewicht diese nach unten biegt, was es ihnen erleichtert, an Früchte oder Blätter zu gelangen. Ihre kräftigen Arme erlauben es ihnen, auch dickere fruchttragende Äste umzubiegen oder manchmal sogar abzubrechen. Während der alle 2 bis 10 Jahre vorkommenden Mastjahre in Dipterocarpaceen-Wäldern können sie weit mehr Nahrung als üblich zu sich nehmen. Diese wird als Fettvorrat für Zeiten des Nahrungsmangels angelegt. Diese Veranlagung dürfte ein Grund dafür sein, warum Orang-Utans in Gefangenschaft zur Verfettung neigen. Fortpflanzung und Entwicklung. Ein junger Orang-Utan auf dem Bauch seiner Mutter Paarung und Geburt. Orang-Utans haben keine feste Paarungszeit, die Fortpflanzung kann das ganze Jahr über erfolgen. Allerdings kann sie vom Nahrungsangebot abhängen, sodass mehrere Weibchen einer Region ihre Jungen nahezu gleichzeitig zur Welt bringen. Die Länge des Sexualzyklus beträgt rund 28 Tage, der Östrus dauert rund 5 bis 6 Tage, die Weibchen zeigen keine Regelschwellung. Wie oben erwähnt, gibt es zwei Fortpflanzungsstrategien, die erzwungene Kopulation durch umherziehende Männchen und die freiwillige Paarung mit ansässigen Männchen. In einer Untersuchung sorgte jede der beiden Strategien für rund die Hälfte des Nachwuchses. Nach einer rund acht- bis neunmonatigen Tragzeit (durchschnittlich 245 Tage) bringt das Weibchen in der Regel ein einzelnes Jungtier zur Welt, Zwillinge sind selten. Neugeborene wiegen rund 1,5 bis 2 Kilogramm. Das Geburtsintervall beträgt vier bis acht Jahre und ist somit das längste aller Menschenaffen. Entwicklung der Jungtiere. Die Aufzucht der Jungtiere obliegt allein dem Weibchen, das Männchen beteiligt sich nicht daran. In den ersten Lebensmonaten klammert sich das Neugeborene am Bauch der Mutter fest und bis zum Alter von zwei Jahren wird es bei den Streifzügen getragen, von ihr mit Nahrung versorgt und schläft im gleichen Nest. Im Altersabschnitt von zwei bis fünf Jahren beginnt das Jungtier seine Kletterfähigkeiten zu entwickeln, es beginnt seine Umgebung zu erkunden, ohne allerdings den Sichtkontakt zu verlieren, und es lernt den Nestbau. Im gleichen Zeitraum – mit rund 3,5 bis 4 Jahren – wird es entwöhnt. Im Alter von fünf bis acht Jahren setzt die zunehmende Trennung von der Mutter ein. Zwar haben sie noch häufigen Kontakt mit ihr, suchen aber in dieser Phase häufig den Kontakt zu Gleichaltrigen und bilden mit ihnen Zusammenschlüsse. In dieser Zeit kann es dazu kommen, dass ein Weibchen zwei Kinder um sich hat, ein heranwachsendes und ein neugeborenes. Geschlechtsreife und Lebenserwartung. Weibchen erreichen die Geschlechtsreife mit rund sieben Jahren, bei Männchen dürfte das variabler sein und mit acht bis 15 Jahren eintreten. Nach der endgültigen Trennung von der Mutter versuchen die Weibchen, ein eigenes Territorium zu etablieren, oft nahe dem Revier der Mutter. Es dauert allerdings noch einige Jahre, bevor sie sich das erste Mal fortpflanzen, meist erst ab dem 12. Lebensjahr. Männchen durchleben nach dem Eintreten der Geschlechtsreife meist eine längere Periode als „Wanderer“. In dieser Zeit sind sie zwar zeugungsfähig (und erzwingen Kopulationen), unterscheiden sich aber äußerlich noch kaum von Weibchen. Die typischen sekundären Geschlechtsmerkmale wie Wangenwülste und Kehlsäcke erscheinen erst viel später, ungefähr zwischen dem 15. und 20. Lebensjahr. Das Auftreten dieser Merkmale hängt oft mit der Etablierung eines eigenen Reviers oder mit der Abwesenheit anderer Männchen zusammen. Gelingt es ihnen, ein eigenes Territorium zu errichten, bilden sich diese Merkmale schnell, oft innerhalb weniger Monate. Weibchen bringen aufgrund ihrer langsamen Fortpflanzungsrate oft nur zwei bis drei Jungtiere in ihrem Leben zur Welt, die Menopause bei Tieren in Gefangenschaft tritt mit rund 48 Jahren ein. Die Lebenserwartung in freier Wildbahn wird auf bis zu 50 Jahre geschätzt. Tiere in menschlicher Obhut werden älter und können ein Alter von 60 Jahren erreichen. Benennung. Darstellung aus dem 19. Jahrhundert Orang-Utans im Zoo Münster, die von Besuchern Leckereien einfordern. Die Bezeichnung „Orang-Utan“ stammt von den malaiischen Wörtern „orang“ (Mensch) und „utan“ oder „hutan“ (Wald) und bedeutet demzufolge „Waldmensch“. In europäischen Sprachen erschien dieser Name erstmals 1631. Laut Brehms Tierleben behaupten „die Javaner […], dass die Affen wohl reden könnten, wenn sie nur wollten, es jedoch nicht täten weil sie fürchteten, arbeiten zu müssen.“ In lokalen Sprachen der Region sind auch die Bezeichnungen "maias" oder "mawas" gebräuchlich. Die Orang-Utans Sumatras wurden im 19. Jahrhundert zunächst als eigene Art beschrieben, später setzte sich die bis zum Ende des 20. Jahrhunderts gültige Systematik durch, die die Populationen beider Inseln als Unterarten einer gemeinsamen Art betrachtete. Die Unterschiede im Körperbau und im Verhalten, kombiniert mit molekularen Studien, führten dazu, dass sie heute als zwei getrennte Arten geführt werden. Die wissenschaftliche Bezeichnung der Gattung "Pongo" geht auf den englischen Seefahrer Andrew Battell (um 1565–1614) zurück. In seinem „Bericht über Angola und die angrenzenden Regionen“ (1613) beschrieb er zwei „Monster“ (vermutlich Gorilla und Schimpanse), deren größeres die Einheimischen „Pongo“ und deren kleineres sie „Engeco“ nannten. Die nomenklatorische Verwirrung innerhalb der Menschenaffen wurde erst im Laufe des 19. Jahrhunderts bereinigt; sie ist vor allem darauf zurückzuführen, dass zuvor kaum einer der frühen europäischen Naturforscher einen lebenden Menschenaffen zu Gesicht bekommen hatte und kein einziger Vergleiche an lebenden Exemplaren von Orang-Utans, Gorillas und Schimpansen hatte vornehmen können. Erforschung. Erst ab der zweiten Hälfte des 20. Jahrhunderts wurde mit Feldstudien begonnen, um das Verhalten dieser Tiere in freier Wildbahn zu untersuchen. Bekannteste Forscherin in diesem Kontext ist Birutė Galdikas. Wie bei den anderen Menschenaffen werden auch bei Orang-Utans Laboruntersuchungen durchgeführt, um die Intelligenz und die Kommunikationsfähigkeit dieser Tiere zu erforschen. Bekannt wurde hier der 20 Jahre alte Orang-Utan Chantek im Zoo von Atlanta (US-Staat Georgia). Im Gegensatz zur freien Natur, wo nur selten Werkzeuggebrauch vorkommt, lässt sich bei Tieren in Gefangenschaft häufig die Verwendung von Werkzeugen beobachten. Sie schaffen es auch, knifflige Problemstellungen zu lösen, etwa eine mit Schnallen verschlossene Schachtel zu öffnen, in der sich eine reife Frucht befindet. Ihre Intelligenz, Geschicklichkeit und Kraft befähigt sie außerdem dazu, nachlässig konstruierte Sicherheitsmechanismen in Zoos zu überwinden und aus Gehegen auszubrechen. Im Rahmen der Erforschung der Kommunikationsfähigkeit wurde Orang-Utans beigebracht, mit Hilfe einer Symbolsprache zu kommunizieren. Gefährdende Faktoren. Das Verbreitungsgebiet der Orang-Utans ist seit dem Pleistozän stark zurückgegangen. Heute sind beide Arten stark bedroht. Die Gründe dafür liegen in erster Linie in der Zerstörung ihres Lebensraumes, daneben in der Bejagung und im Handel – insbesondere mit Jungtieren. Verschärft werden diese Faktoren durch die langsame Reproduktionsrate der Tiere. Hauptbedrohung stellt heute die Zerstörung ihres Lebensraumes dar. In großem Ausmaß werden Wälder gerodet, einerseits zur Holzgewinnung, andererseits zur Errichtung landwirtschaftlich genutzter Flächen. Neuerdings gefährdet die starke Nachfrage nach Palmöl zunehmend die Habitate der Orang-Utans. Malaysia und Indonesien, die beiden Länder, in denen Orang-Utans leben, zählen zu den Hauptproduzenten dieses Produktes. Die Bejagung stellt einen weiteren Faktor dar. In manchen Gegenden – etwa im Inneren Borneos – wird ihr Fleisch gegessen. Darüber hinaus werden sie mancherorts gezielt verfolgt, wenn sie auf der Nahrungssuche in Obstplantagen eindringen. Ihre Größe und ihre eher gemächlichen Bewegungen machen sie zu einem leichten Ziel für Jäger. Hinzu kommt, dass Jungtiere gefangen und als Haustiere verkauft werden, was meist mit der Tötung der Mutter einhergeht. In den 1990er Jahren wurden Orang-Utans nach Taiwan geschmuggelt, vielleicht unter Einfluss einer Fernsehshow, in der ein Orang-Utan als „ideales Haustier“ auftrat. Einer Schätzung aus dem Jahr 2002 zufolge werden wöchentlich zwei Tiere aus Borneo herausgeschmuggelt. Da Orang-Utans im Washingtoner Artenschutz-Übereinkommen (CITES) gelistet sind, sind solche Praktiken illegal. Darüber hinaus sind diese Tiere durch die Übertragung von Krankheiten gefährdet. Durch ihre enge Verwandtschaft mit dem Menschen können sie etwa an Hepatitis, Cholera, Malaria und Tuberkulose erkranken, die beispielsweise durch die zahlreichen Kontakte in Nationalparks mit Wildhütern und Touristen übertragen werden. Schutzmaßnahmen. Fütterung eines weiblichen Tieres in Bukit Lawang, Sumatra Sowohl auf Sumatra als auch im malaysischen und indonesischen Teil Borneos gibt es Schutzgebiete und Nationalparks für die bedrohte Fauna der Region. Es wurden auch einige Auswilderungsstationen gegründet, in denen beschlagnahmte Jungtiere wieder auf ein Leben in freier Wildbahn vorbereitet werden sollen. Auf Sumatra kommen wildlebende Orang-Utans nur noch in den Wäldern der beiden nördlichen Provinzen Aceh und Nordsumatra vor, viele davon im Nationalpark Gunung Leuser. Orang-Utans stehen seit mehr als 60 Jahren unter Schutz. Das indonesische Gesetz verbietet es, sie zu töten, zu fangen, zu halten oder mit ihnen zu handeln. Trotzdem landen jedes Jahr zahlreiche Tiere auf dem Schwarzmarkt und in Privathaushalten. Die Stiftung PanEco setzt sich mit dem Sumatra Orang-Utan Schutzprogramm SOCP seit 1999 für das Überleben der Orang-Utans auf Sumatra ein. Zusammen mit der indonesischen Naturschutzbehörde PHKA, der Stiftung Yayasan Ekosistem Lestari YEL (Stiftung für ein nachhaltiges Ökosystem) und der Zoologischen Gesellschaft Frankfurt werden illegal in Gefangenschaft gehaltene Orang-Utans konfisziert und wieder in ihren natürlichen Lebensraum ausgewildert. Eine Auswilderungsstation befindet sich im Nationalpark Bukit Tigapuluh in der Provinz Jambi. Hier gibt es seit dem 19. Jahrhundert keine Orang-Utans mehr, obwohl der Wald als Lebensraum für diese Tiere geeignet ist. Die Wiederansiedlung ist hier möglich, denn laut IUCN-Richtlinien dürfen keine Tiere in Gebieten freigelassen werden, in denen noch wildlebende Populationen vorkommen. Aus diesem Grunde musste das in den 1970er Jahren gegründete Rehabilitationszentrum Bohorok in Nordsumatra geschlossen werden, welches drei Jahrzehnte lang konfiszierte Orang-Utans in den Gunung Leuser Nationalpark auswilderte. Anfang 2011 konnte die Stiftung PanEco eine zweite Auswilderungsstation im Naturreservat Jantho in der nördlichsten Provinz Aceh eröffnen. Hier werden alle in Aceh konfiszierten Tiere wieder ausgewildert. Neben der Wiederansiedlung von Orang-Utans gehören auch das Monitoring von Orang-Utan Populationen, die Erforschung des Verhaltens wildlebender Orang-Utans, Umweltbildung und Öffentlichkeitsarbeit zu den Kernaufgaben der Stiftung PanEco auf Sumatra. Ihr Hauptziel ist, den tropischen Regenwald zu schützen und zu erhalten. Auf Borneo unterhält die Borneo Orangutan Survival Foundation (BOS) zwei Rehabilitationsprojekte, beide im indonesischen Teil der Insel: Nyaru Menteng sowie Samboja Lestari. Neben anderen werden diese Projekte in Zusammenarbeit mit der indonesischen BOS Foundation auch von Borneo Orangutan Survival Deutschland e.V. gefördert. Weitere Schutzgebiete befinden sich unter anderem im Nationalpark Gunung Palung, im Nationalpark Tanjung Puting und im Nationalpark Kutai. Der größtenteils zu Malaysia gehörige Norden Borneos führt zwei Aufzuchts- und Auswilderungszentren: das Sepilok Rehabilitation Centre bei Sandakan im Bundesstaat Sabah sowie das kleinere, außerhalb Kuchings gelegene Semenggoh-Reservat in Sarawak. Ein weiteres wichtiges Schutzgebiet für Borneo-Orang-Utans in Malaysia ist die Danum-Valley-Conservation-Area, die ebenfalls in Sabah liegt. In den 1990er-Jahren wurden von der Borneo Orangutan Survival Foundation 350 Orang-Utans in das Schutzgebiet des Meratus ausgewildert. Dort betreibt die ALT Foundation mit Unterstützung der Borneo Orang-Utan-Hilfe ein gemeinsames Schutzprojekt. Ein Austausch findet zudem zwischen Sarawak und der malaysischen Halbinsel statt: auf der Aufzuchts- und Auswilderungsinsel Pulau Orang Utan, Teil der bei Taiping (Perak) zu findenden Erholungsanlage Bukit Merah. Bestandszahlen und Gefährdungsgrad. Schätzungen über die Gesamtpopulation der Orang-Utans sind schwierig und die Zahlenangaben gehen zum Teil weit auseinander. Verschiedene Berechnungen geben rund 4000 bis 7000 Sumatra- und 10.000 bis 15.000 Borneo-Orang-Utans an. Für Borneo könnten diese Zahlen allerdings etwas zu niedrig sein, hier gehen andere Schätzungen von rund 40.000 Borneo-Orang-Utans aus. Die IUCN listet die Art auf Sumatra als „vom Aussterben bedroht“ ("critically endangered") und die Art auf Borneo als stark gefährdet ("endangered"). Äußere Systematik. Orang-Utans bilden zusammen mit den Gorillas, den Schimpansen (Gemeiner Schimpanse und Bonobo) sowie dem Menschen die Familie der Menschenaffen (Hominidae). Sie bilden dabei die Schwestergruppe der übrigen Arten und werden in einer eigenen Unterfamilie, Ponginae, geführt, die den Homininae gegenübersteht. Das wird auch geographisch deutlich, da die übrigen Menschenaffen in Afrika leben beziehungsweise von dort stammen. Das kommt im Kladogramm (rechts) zum Ausdruck. Es gibt einige ausgestorbene Primaten, die heute in den Formenkreis des Tribus Pongini gestellt und somit als Verwandte der Orang-Utan-Vorfahren interpretiert werden. Hierzu gehören unter anderem "Sivapithecus" / "Ramapithecus", "Khoratpithecus", "Ankarapithecus", "Lufengpithecus" und vermutlich auch "Gigantopithecus". Innere Systematik. Traditionell wurden beide auf getrennten Inseln lebende Populationen als Unterarten einer gemeinsamen Art betrachtet, heute werden sie als jeweils eigene Arten bezeichnet, Borneo-Orang-Utan ("Pongo pygmaeus") und Sumatra-Orang-Utan ("Pongo abelii"). Diese Aufteilung wird mit Unterschieden im Körperbau und der Lebensweise begründet. Die borneanische Art wird in zwei oder drei Unterarten, "Pongo pygmaeus pygmaeus", "Pongo pygmaeus wurmbii" und manchmal zusätzlich "Pongo pygmaeus morio" unterteilt, die sich hinsichtlich des Schädelbaus unterscheiden. Die ausgestorbenen Orang-Utans aus verschiedenen Regionen Südostasiens, die zum Teil deutlich größer waren als die heutigen Tiere, wurden als verschiedene Arten beschrieben, etwa "Pongo palaeosumatrensis" (Sumatra), "Pongo weidenreichi" (südliches China und Vietnam) und "Pongo hooijeri" (ebenfalls Vietnam). Ihr taxonomischer Status und ihr Verhältnis zu den heutigen Arten ist umstritten. Im Januar 2011 gab ein Team von Wissenschaftlern bekannt, dass das komplette Genom des Orang-Utans sequenziert worden sei. Oviparie. Als ovipar (lateinisch "oviparus" ‚eigeboren‘) bezeichnet man Tiere, die Eier legen. Der Oviparie steht die Viviparie gegenüber. Die Vertreter beider Fortpflanzungsformen stellen keine taxonomischen Gruppen (Taxon) dar, sondern werden lediglich über das Merkmal definiert. Bei der echten Oviparie handelt es sich um eine Fortpflanzungsform, bei der befruchtete Eier abgelegt werden. Damit diese zustande kommen, ist eine innere Befruchtung durch Begattung oder durch die Aufnahme einer Spermatophore nötig. Der Embryo wird während seiner gesamten Embryogenese ("Embryonalentwicklung") vom im Ei gespeicherten Dotter ernährt. Hat das Jungtier nach der Eiablage eine bestimmte Größe und damit ein bestimmtes Entwicklungsstadium erreicht, schlüpft es aus. Ovipar sind die Vögel, die meisten Reptilien, inklusive der Dino- und anderer Saurier, sowie der überwiegende Teil der Schwanzlurche, der Gliederfüßer und der Würmer. Die einzigen oviparen Säugetiere sind die Kloakentiere, zu denen das Schnabeltier und die vier Arten der Ameisenigel gehören. Ovuliparie (von Ovulation – als Entstehung unbefruchteter Eizellen) liegt vor, wenn unbefruchtete Eier abgelegt werden, die erst außerhalb des Körpers der Mutter befruchtet werden, also durch äußere Befruchtung. Ovulipar sind die meisten Knochenfische und der größte Teil der Froschlurche. Abzugrenzen ist die Oviparie von der Viviparie. Tiere, bei denen der Embryo im Mutterleib heranwächst und die in der Regel nicht außerhalb des Mutterkörpers „schlüpfen“, sind vivipar oder lebendgebärend. Echte Viviparie besteht nur, wenn die Versorgung des Embryos über den Stoffwechsel der Mutter erfolgt, häufig über eine Plazenta. Hier wird dann von plazentaler Viviparie gesprochen. Eine Spezialform der Oviparie beziehungsweise eine Übergangsform zwischen Oviparie und Viviparie ist die Ovoviviparie. Dabei verbleibt das Ei im Mutterleib. Dort wird der Embryo durch den im Ei enthaltenen Dotter versorgt. Die Jungtiere können dann entweder bereits im Mutterleib schlüpfen oder auch kurz nach der Eiablage. Ovovivipare Tiere brüten ihre Eier also im Körperinneren aus. Häufig werden auch diese etwas ungenau als "lebendgebärend" bezeichnet. Zu ihnen gehören zum Beispiel die meisten Seeschlangen, viele Haie und andere Knorpelfische, wenige Knochenfische, einige Spinnen und die Blattläuse. Politik. Politik ist ein schwer zu umgrenzender Begriff, der im Kern seiner Bedeutung die Regelung der Angelegenheiten eines Gemeinwesens durch verbindliche Entscheidungen bezeichnet. Sehr allgemein kann jegliche Einflussnahme, Gestaltung und Durchsetzung von Forderungen und Zielen in privaten oder öffentlichen Bereichen als Politik bezeichnet werden. Zumeist bezieht sich der Begriff nicht auf das Private, sondern auf die Öffentlichkeit und das Gemeinwesen im Ganzen. Dann können das öffentliche Leben der Bürger, Handlungen und Bestrebungen zur Führung des Gemeinwesens nach innen und außen sowie Willensbildung und Entscheidungsfindung über Angelegenheiten des Gemeinwesens als Politik beschrieben werden. Im engeren Sinne bezeichnet Politik die Strukturen (Polity), Prozesse (Politics) und Inhalte (Policy) zur Steuerung politischer Einheiten, zumeist Staaten, nach innen und ihrer Beziehungen zueinander. In der Politikwissenschaft hat sich allgemein die Überzeugung durchgesetzt, dass Politik „die Gesamtheit aller Interaktionen definiert, die auf die autoritative [durch eine anerkannte Gewalt allgemein verbindliche] Verteilung von Werten [materielle wie Geld oder nicht-materielle wie Demokratie] abzielen“. Politisches Handeln kann durch folgenden Merksatz charakterisiert werden: „Soziales Handeln, das auf Entscheidungen und Steuerungsmechanismen ausgerichtet ist, die allgemein verbindlich sind und das Zusammenleben von Menschen regeln“. Wortherkunft. Der Ausdruck Politik wurde, mit Umwegen über das Lateinische ("politica", "politicus"), nach ("politiká") gebildet. Dieses Wort bezeichnete in den Stadtstaaten des antiken Griechenlands alle diejenigen Tätigkeiten, Gegenstände und Fragestellungen, die das Gemeinwesen – und das hieß zu dieser Zeit: die Polis – betrafen. Entsprechend ist die wörtliche Übersetzung von "politiká" anzugeben als „Dinge, die die Stadt betreffen“ bzw. die „politischen Dinge“. In dieser Bedeutung ist „Politik“ vergleichbar mit dem römischen Begriff der "res publica", aus dem der moderne Terminus der „Republik“ hervorgegangen ist. Eine begriffsgeschichtlich besonders prominente Verwendung fand das Wort als Titel eines Hauptwerks des antiken Philosophen Aristoteles, der "Politik". Politikbegriffe. Die Menge der kontroversen Politikbegriffe und -definitionen kann dabei in drei Dimensionen sortiert werden, ohne dass diese sich untereinander ausschlössen. Regierungszentriert versus emanzipatorisch. Zu den regierungszentrierten oder gouvernementalen Politikbegriffen kann man die Konzepte "Staat", "Führung", "Macht" und "Herrschaft" rechnen. Die Grundlage aller Politik ist für diese durch die Ausübung von Macht, Herrschaft und Führung bedingt. Im 19. Jahrhundert galt der Staat und seine Macht (Gewaltmonopol) als das Hauptwesen der Politik. Alle Machtphänomene wurden versucht dem Staat zuzuordnen. In den internationalen Beziehungen ist Macht bis heute einer der Grundpfeiler der Theoriebildung (vgl. zum Beispiel Politischer Neorealismus). Kurt Sontheimer (1962) weist auf die Gefahr hin, dass Politikwissenschaft bei diesem Politikverständnis leicht zum Handlanger der Macht und der Mächtigen werden kann. Emanzipatorische Politikauffassungen konzentrieren sich dagegen auf Machtbeschränkungen durch Partizipation, Gleichheit und Demokratisierung als Gegengewicht zu ordnender Macht. Dazu gehört auch die kritische Analyse der vorherrschenden Herrschaftsstrukturen und Gesellschaftskritik. Normativ versus deskriptiv. Zu den normativen Politikbegriffen lassen sich die Konzepte "rechte Ordnung", "Frieden", "Freiheit" und "Demokratie" zählen, und insbesondere auch alle emanzipatorischen Politikdefinitionen. Dabei geht es nicht nur um die reine Beschreibung politischer Phänomene, sondern es wird ein wertender Soll- oder Zielwert als Hauptkategorie eingesetzt. Das Konzept Freiheit kann dabei als ein positiver Gegenbegriff zur Grundkategorie "Macht" oder "Herrschaft" verstanden werden. Meist werden harmonische Gemeinwohlvorstellungen angeboten, die sich nur schwer mit den heutigen pluralistischen Gesellschaftsbedingungen vereinbaren lassen. Ein spezielles Problem mit der Kategorie ‚Frieden’ ist, dass es nicht bloß als Abwesenheit von Gewalt verstanden werden kann und daher oft um den Abbau von Ungleichheiten u.a. erweitert wird. Die rein deskriptiven, also die beschreibenden, Politikvorstellungen lehnen Sollwerte als Wesen der Politik ab. Dazu ist neben der in der Einleitung gegebene Politikdefinition auch die von Lehmbruch zu rechnen (stellvertretend für die Politikvorstellung der Systemtheorie David Eastons als „authoritative allocation of values“). Ebenso wie die regierungszentrierten, Macht betonenden Politikbegriffe stehen diese in Gefahr, den status quo zu stabilisieren und den gerade Herrschenden zu nutzen. Konfliktorientiert versus konsensbezogen. Konfliktorientierte Politikbegriffe gehen von der Existenz von Konflikten als unabänderliche und notwendige Erscheinungen des politisch-sozialen Lebens aus und davon, dass diese durch den politischen Prozess geregelt werden müssen. Die Voraussetzung für die Verwendung der Kategorie Konflikt ist dabei das Vorhandensein einer hinreichend flexiblen wie stabilen Gesellschaftsstruktur für die friedliche Konfliktaustragung zwischen den verschiedenen sozialen Gruppen und ihren divergierenden Interessen. Dazu gehören neben dem deskriptiven systemtheoretischen Politikverständnis auch die Konflikttheorien von Ralf Dahrendorf und Lewis Coser, die Konflikte als die Triebkräfte jedes sozialen Wandels begreifen. Auch der marxistische Politikbegriff fußt auf Konflikt als Grundkategorie, nämlich dem Kampf der Klassen und ihrer Parteien um die Durchsetzung ihrer primär sozialökonomisch bedingten Interessen. Im Gegensatz dazu sehen Harmonielehren nur durch Konsens das gesellschaftliche Gemeinwohl als herstellbar an. Dazu zu zählen ist neben dem klassischen emanzipatorischen Politikverständnis Jean-Jacques Rousseaus auch der Politikbegriff von Thomas Meyer. Mehrdimensionaler Politikbegriff der jüngeren politikwissenschaftlichen Diskussion. Auch ohne Entscheidung über "die" Hauptkategorie von Politik kann man drei Dimensionen unterscheiden, die uns eine begriffliche Klärung und Unterscheidung der komplexen Wirklichkeit der in verschiedener Gestalt auftretenden Politik ermöglichen. Dafür haben sich im deutschsprachigen Raum die englischen Bezeichnungen "Polity", "Policy" und "Politics" eingebürgert. Policy: normative, inhaltliche Dimension. Unterschiedliche normative Vorstellungen (wie etwas sein sollte) über den Inhalt, also Aufgaben und Ziele, von Politik, führen aufgrund begrenzter Mittel (Ressourcenknappheit) dazu, dass nicht alle Wünsche befriedigt werden können. Es kommt zu Interessenkonflikten innerhalb der unterschiedlichsten Politikbereiche, wie Sicherheitspolitik, Wirtschaftspolitik, Sozialpolitik und viele weiteren. Diese Konflikte müssen im Sinne der Stabilität des politischen Systems durch Kompromisse und folgende allgemeinverbindliche Entscheidungen vermittelt werden. "Policy" steht also für die inhaltliche Dimension der Politik. Bezüglich der Politik einer Partei oder Regierung umfasst der Begriff, was diese zu tun beabsichtigt bzw. auch tut. Dazu gehören neben den von einer Regierung vergebenen und bewilligten materiellen Gütern auch immaterielle Aspekte. Da aber die allermeisten Maßnahmen der Politik eine materiell-ökonomische Seite besitzen, können die öffentlichen Haushalte oder die eingebrachten Haushaltsentwürfe einen Eindruck geben welche "policy" ein Land bzw. eine Regierung umsetzt. Wenn im Alltag von „guter“ und „schlechter Politik“ gesprochen wird, dann ist damit in der Regel die "policy" der Regierung gemeint. Insofern als die Bevölkerung damit beurteilt, was bei einer bestimmten Politik für wen dabei herauskommt, ist dies die Sicht der von politischen Entscheidungen Betroffenen. Die Beurteilungskriterien sind dabei in den pluralistischen Gesellschaften allerdings in der Regel sehr verschieden, abhängig von den jeweiligen Wert- und Gerechtigkeitsvorstellungen, abhängig davon, mit welchen gesellschaftlichen Gebilden (einer bestimmten gesellschaftlichen Gruppe oder Klasse, der Nation oder einem über die Landesgrenzen hinausreichenden gesellschaftlichen Kollektiv) sich identifiziert wird. Da es in der "policy" stets um gesellschaftliche Inhalte, Werte und Interessen geht, geht es nie nur um die Antwort auf die Frage nach der besten Politik. Vielmehr stehen auch die am politischen Entscheidungsprozessen Beteiligten und die Konsequenzen der Entscheidung für den Einzelnen im Fokus der Analyse. Folglich ist ebenfalls die Frage nach den Begünstigten und den Belasteten relevant. "Kategorien:" Politisches Problem; Programme, Ziele, Lösungen; Ergebnisse der Politik; Bewertung der Politik nach der räumlichen Abgrenzung: Mikropolitik, Kommunalpolitik, Metropolenpolitik, Landespolitik, Bundespolitik, Europapolitik, Weltpolitik nach Sachgebieten: Arbeitsmarktpolitik, Außenpolitik, Auswärtige Kulturpolitik, Baupolitik, Behindertenpolitik, Bildungspolitik, Drogenpolitik, Energiepolitik, Entwicklungspolitik, Familienpolitik, Finanzpolitik, Forschungspolitik, Frauenpolitik, Gleichstellungspolitik, Gesundheitspolitik, Innenpolitik, Internationale Politik, Jugendpolitik, Landwirtschaftspolitik, Kulturpolitik, Lohnpolitik, Medienpolitik, Minderheitenpolitik, Rechtspolitik, Schulpolitik, Sozialpolitik, Sportpolitik, Sprachpolitik, Steuerpolitik, Technologiepolitik, Umweltpolitik, Verbraucherschutzpolitik, Verkehrspolitik, Verteidigungspolitik, Wirtschaftspolitik, Wissenschaftspolitik Politics: prozessuale Dimension. Die ablaufenden politischen Willensbildungs- und Interessenvermittlungsprozesse prägen die möglichen Ergebnisse der "policy" maßgeblich. Besonders Macht und ihre Durchsetzung im Rahmen der formellen und informellen Regeln bestimmen diese "politics"-Prozesse (Regierungskunst im weitesten Sinne) zusätzlich. In liberal-demokratischen Systemen (moderne Demokratie, mit Rechtsstaat und Marktwirtschaft) wird die Akzeptanz der Kompromissbildung dadurch erhöht, dass frühzeitig neben den Parteien auch gesellschaftliche Interessengruppen (Lobbyverbände wie Gewerkschaften und Unternehmensverbände) und Einzelpersonen in den Prozess der Entscheidungsfindung eingebunden werden. Bei der Entwicklung und Beeinflussung der "policy" zeigt sich die Politik von ihrer konflikthaften Seite, dem Kampf um Macht und Einfluss der verschiedenen Gruppen und Personen. Damit inhaltliche Handlungsprogramme umgesetzt werden können, bedarf es neben der Erringung, dem Erhalt und dem Ausbau von Machtpositionen, auch der geschickten Auswahl des politischen Führungspersonals, der Formulierung der Wünsche und Interessen der gesellschaftlichen Gruppen, der Abstimmung mit anderen Forderungen und Interessen um so ein umfassendes Handlungsprogramm anbieten zu können und wählbar zu sein. Dies erfordert die ständige Berücksichtigung anderer Menschen (Wähler, Parteikollegen etc.) deren mögliche Reaktionen bei der Erstellung und Durchführung der "policy" von vornherein mit einkalkuliert, antizipiert, werden muss. Gerade in demokratischen Systemen geht es also auch immer um das Sammeln von Zustimmung und Einwilligung zu den Handlungsprogrammen. Für die Politiker selbst ist aber daher auch der Aspekt des Kampfes um Entscheidungsbefugnis, welches mehr umfasst als die Erlangung der staatlichen Machtpositionen, entscheidend. Denn im Gegensatz zu typischen Verwaltungsbeamten, deren Kompetenzbereich klar über das Amt geregelt ist, muss sich der Politiker diesen Bereich erst erarbeiten und dann behaupten. Daher ist es für ihn zu wenig, nur die rein sachlichen Gesichtspunkte bei seiner Entscheidungsfindung zu berücksichtigen. Die Aspekte des Machterwerbs und des Machterhalts sind gerade in demokratischen, eben responsiven, Systemen besonders wichtig, insofern ist gerade die Demokratie eine hochpolitische Regierungsform. "Politics" spielt aber auch in autoritären Systemen eine Rolle, in denen die Führer weniger Rücksicht auf die Bevölkerung nehmen müssen. Solange die Handelnden unter einem gewissen Zwang zur Rücksichtnahme auf andere Akteure stehen und versuchen müssen, Zustimmungsbereitschaft zu erzeugen, mit welchen Mitteln auch immer, kann von "politics" gesprochen werden. Auf welche Art die Zustimmung geschaffen wird (Interessenberücksichtigung, Kompromiss, Überzeugung, Zwang etc.) kann dann durchaus für eine Beurteilung von Politik als „gut“ oder „schlecht“ dienen. „Unter einem ‚klugen und geschickten Politiker’ verstehen wir offensichtlich nicht einfach einen ‚guten Fachmann’, der viel von der Sache versteht – wenn er auch das tut, umso besser –, sondern eine Person, die die Fähigkeit hat, Menschen dazu zu bringen, bestimmten Handlungsprogrammen zuzustimmen und Folge zu leisten.“ Dabei kann zwischen "policy" und "politics" nicht immer streng getrennt werden. Es gibt nicht erst ein inhaltliches Programm und dann das Bemühen um Zustimmung zu diesem. Die politische Gruppenbildung (Interessenkoalitionen) findet in Wechselwirkung mit der Programmentwicklung statt. So wird eine die Regierungsmacht anstrebende politische Partei, die gewisse gesellschaftliche Reformen beabsichtigt (oder verhindern möchte), in der Regel auch weitere Programmpunkten vertreten, die ihr zwar weniger wichtig sind, aber für die Chance auf Gewinn der Regierungsmehrheit als notwendig erachtet werden. Dies ist von der „Regierungskunst“ nicht zu trennen. Die gedankliche Unterscheidung von "policy" und "politics" rechtfertigt sich dadurch, dass es uns erlaubt, „Ordnung in unser Nachdenken über das Politische zu bringen.“ "Kategorien:" politische Akteure, Beteiligte und Betroffene; Partizipation; Konflikte; Kampf um Machtanteile und um Entscheidungsbefugnis; Interessenvermittlung, -artikulation, -auswahl, -bündelung, -durchsetzung; Legitimationsbeschaffung durch Verhandlungen, Kompromisssuche, Konsensfindung Polity: formale, institutionelle Dimension. Die Verfassung, die geltende Rechtsordnung und Traditionen bestimmen die in einem politischen System vorhandenen Institutionen wie zum Beispiel Parlamente und Schulen. Dadurch wird die Art und Weise der politischen Willensbildung geprägt und der Handlungsspielraum der anderen Dimensionen beeinflusst. Politik im Sinne von "policy" und "politics" vollzieht sich stets innerhalb dieses Handlungsrahmens. Dieser ist nicht unveränderbar, aber doch so stabil, dass er nicht beliebig und jederzeit zur Disposition steht. In (modernen) Staaten drückt sich dieser zunächst einmal durch die Verfassung aus, welche hier allgemein als grundlegende Organisationsform, die das Verhältnis der Staatsorgane untereinander regelt, verstanden wird, und nicht die schon inhaltlich bestimmte Vorstellung des „Verfassungsstaats“ meint, welcher schon mit konkreten Ordnungsvorstellungen wie Rechtsstaatlichkeit, Gewaltenteilung und Garantie von Freiheits- und Bürgerrechten verbunden ist. Ferner geht die "polity" als Organisationsform auch über den Inhalt der geschriebenen Verfassung im engeren Sinn hinaus und umfasst auch weitere grundlegende Gesetze wie beispielsweise in der Bundesrepublik Deutschland das Bundeswahlgesetz oder die Bestimmungen, die das Verhältnis von Parlament und Regierung, Regierung und Verwaltung, Bund und Ländern regeln. Zu den Bedingungen der "polity" gehören auch die Grenzen, die dem politischen Handeln gesetzt sind (zum Beispiel durch Bürgerrechte und die Bürgerdefinition, oder die staatlichen Grenzen). Eine solche staatliche „Verfassung“ beruht also auch auf einer Einheit (Volk oder Bürgerbevölkerung), die durch diese „verfasst“ wird. Somit gehört zur "polity" auch der Aspekt der Abgrenzung. Neben den offiziellen, geschriebenen Regelwerken (Verfassung, Gesetze) tritt auch die jeweilige Politische Kultur eines Landes, man sprach auch schon von einer „doppelten politischen Verfassung“. So kann die geschriebene Verfassung eine parlamentarische Demokratie vorsehen, aber das Desinteresse der Bevölkerung oder der Missbrauch durch die Regierenden die tatsächliche Verfasstheit des Staates als autoritär begründen. Gerade die nach 1945 versuchte, allzu einfache Übertragung von westlichen Verfassungsvorstellungen auf Länder der Dritten Welt, hat dies durch ihr teilweises grandioses Scheitern gezeigt. Rechtliche Regelungen und politische Institutionen allein, egal wie ausgeklügelt das politische Institutionensystem auch sein mag, genügen nicht zur Stabilisierung eines politischen Systems und zur Erklärung der tatsächlichen Funktionsweise. Gesellschaftliche Normen und Sitten, wie dass bestimmte Dinge nicht getan werden sollen, beispielsweise den politischen Gegner nicht unter die Gürtellinie zu schlagen, sind meist wichtiger für das Fortbestehen guter politischer Umgangsformen und damit für die Stabilität des politischen Systems, als die Möglichkeiten gegen politische Verleumdungen gerichtlich, also im Rahmen der geschriebenen Verfassung, vorgehen zu können. Zur politischen Kultur einer Gesellschaft gehören die typischen politischen Orientierungs- und Verhaltensmuster der Menschen. "Kategorien:" Internationale Abkommen und Regelungen; Grundgesetz; Zentrale Verfassungsprinzipien; politische Institutionen; Gesetze und Rechtsnormen; Politische Kultur Abgrenzung von Politisch und Sozial – Politik im engeren und weiteren Sinn. "Politische Fragen" tauchen zwar meist im Zusammenhang mit Sachfragen auf, aber sie können nicht von Fachleuten rein wissenschaftlich, technokratisch entschieden werden. Zur Beantwortung sind immer normative Grundentscheidungen und Abwägungen von prinzipiell gleichberechtigten Ansprüchen nötig, bei denen es kein Richtig oder Falsch im Sinne absoluter Wahrheit gibt. Bei politischen Fragen geht es immer auch um Fragen des menschlichen Zusammenlebens. Daher spielen bei der Beantwortung neben subjektiven Meinungen und Überzeugungen über unsere Interessen und Rechte, auch der Wille diese durchzusetzen eine Rolle. Als der beste Agent unserer eigenen Interessen sieht die liberale Demokratietheorie dabei uns selbst an, daher die Notwendigkeit von Grundrechten der politischen Mitwirkung. Politische Fragen sind also normative Fragen, die nicht wissenschaftlich entscheidbar sind (siehe Politische Theorie-Wissenschaftstheorie). Doch nicht alle zwischenmenschlichen Probleme sind auch politische Probleme. Als menschliches Handeln definiert man allgemein ein Verhalten, mit dem der Handelnde einen subjektiven Sinn verbindet; und soziales Handeln als Handeln dessen gemeinter Sinn auf das Verhalten anderer bezogen ist (Max Weber). Dazu benötigen Menschen Empathie, die Fähigkeit sich in den Interaktionspartner hineinzuversetzen und die Situation „mit seinen Augen“ zu sehen. Dieses Soziale wird nun politisch, sobald das Zusammenleben der Menschen als solches zum Problem wird (konfliktorientierter Politikbegriff). In allen sozialen Beziehungen (Freundeskreis, Kollegen etc.) "kann" ein spezifisches Vorgehen nötig werden, um Konflikte zu regeln. Alle Anstrengungen, die zu einer Vermittlung und Regelung führen (sollen), kann man als "Politik im weiteren Sinne" bezeichnen. Diese Art Politik ist aber nicht der eigentliche Zweck dieser informellen Gruppen und sozialen Organisationen (zum Beispiel Sportverein). Erst auf der Ebene der nicht mehr auf persönlicher Bekanntschaft aufbauenden, anonymen Gesellschaft wird Politik auch zum eigentlichen Zweck, weil das Zusammenleben der vielen sozialen Gruppen, Interessen und Weltanschauungen "stets" konfliktanfällig ist und der Regelung bedarf. Alles soziale Handeln, das gesamtgesellschaftlich verbindliche Regelungen bezweckt, wird als "Politik im engeren Sinne" bezeichnet. Kurze Entwicklungsgeschichte wichtiger politischer Konzeptionen. siehe auch: Politische Ideengeschichte und Staatstheorie Altertum. Früh befassten sich Gelehrte damit, wie Politik auszusehen hat; dabei standen die Fragen „Was ist eine gute und gerechte Staatsordnung?“ und „Wie erlangt man wirklich Macht im Staat?“ im Mittelpunkt der Diskussion. Schon im Altertum verglich beispielsweise Aristoteles (384 bis 322 v. Chr.) alle ihm bekannten Verfassungen (Politische Systeme) und entwickelte eine auch heute viel zitierte Typologie in seinem Werk "Politik". Neben der Anzahl der an der Macht Beteiligten (einer, wenige, alle) unterschied er zwischen einer guten gemeinnützigen Ordnung (Monarchie, Aristokratie, Politie) und einer schlechten eigennützigen Staatsordnung (Tyrannis, Oligarchie, Demokratie). Erste geschriebene Gesetze belegen, dass Politik sich nicht nur mit den Herrschenden, sondern auch früh schon mit sozialen Regeln befasste, die bis heute überliefert wurden. Der Codex Hammurapi (Babylon, etwa 1700 v. Chr.) oder das Zwölftafelgesetz (Rom, etwa 450 v. Chr.) sind Beispiele verbindlicher Regeln, die sicher als Ergebnis von Politik gewertet werden können. Befasst man sich mit den Politikern der Römischen Republik und dem Römischen Kaiserreich, erkennt man viele Elemente damaliger Politik auch heute noch. Es wurde mit Kreide Wahlwerbung an die Hauswände geschrieben (etwa in Pompeji). Es gab einen komplexen Regierungsapparat und hitzige Rivalität zwischen den Amtsträgern. Korruption war ein Thema der Gesetzgebung und römischer Gerichtsverhandlungen. Briefe Ciceros an einen Verwandten belegen, wie gezielt die Wahl in ein Staatsamt auch taktisch vorbereitet wurde. Mittelalter. Mit dem Verfall des Römischen Reiches verlor Politik in Europa wieder an Komplexität und die Gemeinwesen wurden wieder überschaubarer, Konflikte kleinräumiger. In der Zeit der Völkerwanderung und des frühen Mittelalters war Politik mehr kriegerische Machtpolitik und weniger durch Institutionen und allgemein akzeptierte Regeln geprägt. Je stärker der Fernhandel, Geld und Städte wieder an Bedeutung gewannen, desto mehr wurden wieder feste Machtzentren gebraucht und desto wichtiger wurden Institutionen. Beispielsweise bildete sich die Hanse als Interessen- und Machtverbund einflussreicher sich selbst regierender Städte. Wichtiges relativ konstantes Machtzentrum war die katholische Kirche. Aus sozialen Gemeinschaften, die bestimmten Führern die Treue schworen (Personenverband), wurden langsam Erbmonarchien mit festen Grenzen. Neuzeit. In Frankreich entwickelte sich der Urtypus des absolutistischen Herrschers, in England entstand die an Recht und Gesetz gebundene konstitutionelle Monarchie. Dort waren bald auch die wohlhabenden Bürger offiziell an der Politik beteiligt. Mit der Zeit wurde dann das Zensuswahlrecht auf größere Teile der Bevölkerung ausgeweitet. In der Zeit der Aufklärung erdachten Gelehrte neue Modelle der Staatskunst. Statt Niccolò Machiavellis Modell der absoluten Macht, das sein Buch 'Der Fürst' ("Il Principe") zeichnete, definierte John Locke das Modell der Gewaltenteilung. Die Bürgerlichen Freiheiten wurden durch verschiedene Philosophen gefordert und mit Thomas Jeffersons Menschenrechtserklärungen und der amerikanischen Verfassung begann die Zeit der modernen Verfassungsstaaten. Die Französische Revolution und die Feldzüge Napoleons wälzten Europa um. Mit dem Code Civil in Frankreich wurden die Bürgerrechte festgelegt, überall fielen allmählich die Standesschranken. Politik wurde zu einer Angelegenheit des ganzen Volkes. Es entstanden Parteien, die zuerst von außen eine Opposition organisierten, um später selbst die Regierung zu stellen. Einige Parteien wie die SPD oder später die Grünen entstanden aus sozialen Bewegungen wie der Arbeiterbewegung oder der Anti-Atom- und Friedensbewegung, andere formierten sich vor einem religiösen Hintergrund (Zentrum). Im 20. Jahrhundert kam es schließlich zur Herausbildung internationaler Organisationen mit zunehmendem Einfluss auf die Politik. Der erste Versuch im sogenannten Völkerbund eine Völkergemeinschaft zu bilden, scheiterte mit dem Zweiten Weltkrieg. Heute existiert neben den Vereinten Nationen als Vereinigung aller souveränen Staaten im Bereich der Wirtschaft zusätzlich die Welthandelsorganisation WTO. Im Übergang zwischen Internationaler Organisation und föderalen Staat befindet sich die Europäische Union. Politische Systeme und Ideologien. Anarchismus - Autoritarismus - Christdemokratie - Demokratie - Diktatur - Faschismus - Institutionalismus - Kapitalismus - Kommunismus - Kommunitarismus - Konservatismus - Kontextualismus - Politischer Liberalismus - Neoliberalismus - Marxismus - Nationalismus - Nationalsozialismus - Parlamentarismus - Sozialdemokratie - Sozialismus - Totalitarismus Klassische politische Denker. Platon - Aristoteles - Niccolò Machiavelli - Baruch de Spinoza - Jean Bodin - Hugo Grotius - Charles de Montesquieu - Jean-Jacques Rousseau - Thomas Hobbes - John Locke - John Stuart Mill - Karl Marx - Michail Bakunin - Max Weber - John Rawls - Hannah Arendt Personal Computer. Ein "Personal Computer" (engl. zu dt. „persönlicher“ bzw. „privater Rechner“, Abk. PC) ist ein Mikrocomputer, der im Gegensatz zu einem Minirechner oder Großrechner von nur einem einzigen Benutzer persönlich bedient und genutzt wird. Das Spektrum reicht vom Bereich des Heimcomputers bis hin zum typischen Arbeitsplatzrechner. Überdurchschnittlich leistungsfähige PCs für rechen- und speicherintensive Anwendungen werden auch als Workstation bezeichnet; ihr Preis kann ein Vielfaches eines Durchschnitts-PCs betragen. Obwohl bereits in den 1970er Jahren üblich, wurde der Begriff „Personal Computer“, vor allem dessen Kurzform „PC“, ab 1981 im Sprachgebrauch zunehmend und exklusiv mit dem IBM Personal Computer und dessen IBM-kompatiblen PC-Nachbauten verknüpft, was nicht zuletzt deren Marktdominanz geschuldet war. Diese Verknüpfung gilt jedoch als überholt. Aufbau. Streng genommen zählen Peripheriegeräte wie Monitor, Tastatur, Maus und Drucker nicht zu den Komponenten des Personal Computers. Entwicklung. Aufgrund der Größe und Kosten der Computer der 1950er und 1960er Jahre, die meist ganze Räume füllten oder als "Minicomputer" etwa schrankgroß waren, konnten diese kaum Mitarbeitern „persönlich“ zugewiesen werden. Das änderte sich erst, als in den 1970er-Jahren die Mikroprozessoren auf den Markt kamen und die bis dahin vorherrschenden Kernspeicher allmählich durch Halbleiterspeicher verdrängt wurden. Erst dadurch wurde die Entwicklung von wirklichen "Personal Computern" möglich, die ohne weiteres am oder in der Nähe eines Büro-Arbeitsplatzes aufgestellt werden konnten. Die Vorläufer des modernen Personal Computers. 1949 stellte Edmund C. Berkeley mit "Simon" den ersten digitalen programmierbaren Computer für den Heimgebrauch vor. Er bestand aus 50 Relais und wurde in Gestalt von Bauplänen vertrieben, von denen in den ersten zehn Jahren über 400 Exemplare verkauft wurden. Die Hewlett-Packard Company brachte mit dem "HP-9100A" 1968 ein programmierbares Rechengerät auf den Markt, das rund das Doppelte eines durchschnittlichen Bruttojahresgehaltes kostete. Bemerkenswert ist, dass diese Leistung ohne die Verwendung von integrierten Schaltkreisen erbracht wurde. Der Rechner wurde in einer Werbeanzeige erstmals in der Literatur als Personal Computer bezeichnet, obgleich er weder preislich noch technisch dem heutigen Verständnis eines PCs entspricht. Die Firma Xerox PARC stellte 1973 ihren "Xerox Alto" der Weltöffentlichkeit vor, ein etwa kühlschrankgroßes Gerät. Mit einer Tastatur, einer 3-Tasten-Maus, einer zusätzlichen kleinen 5-Tasten-Akkordtastatur für besondere Befehle, einem Bildschirm mit grafischer Benutzeroberfläche (engl. "graphical user interface", kurz "GUI") und einer Ethernet-Schnittstelle war er wegweisend für den künftigen Personal Computer. Diese Workstation war jedoch als wissenschaftliches Gerät gedacht; sie war weder für den privaten Gebrauch erschwinglich, noch ein in Massen produziertes Gerät und für den Handel nicht verfügbar. Mit dem "Altair 8800" der Firma MITS kam 1975 ein in Serie produziertes Gerät auf den Markt, das ebenfalls als "Personal Computer" bezeichnet wird und als Bausatz für 397 US-Dollar, als Komplettgerät für 695 US-Dollar zu erwerben war. Zukunftsweisend war die Ausstattung mit einem Bus-Stecksystem für Erweiterungskarten nach dem S-100-Bus-Standard. Mit seinen Kippschaltern als Eingabeeinheit und Leuchtdioden als Ausgabeeinheit entspricht jedoch auch dieses Gerät technisch nicht dem, was man heute unter einem Personal Computer versteht. Ähnlich war es mit dem im selben Jahr erschienenen "KIM-1" der Firma MOS Technology, der immerhin schon eine 24-Tasten-Eingabeeinheit im Taschenrechnerformat zur direkten Eingabe von HEX-Code hatte sowie eine 6-stellige 7-Segment-LED-Anzeige als Ausgabeeinheit. Der Journalist Steven Levy beschrieb 1984 in seinem Buch „"Hackers – Heroes of the Computer Revolution"“ eine Subkultur der Hacker, die in den 1970er Jahren in der Region von San Francisco, der Westküste der Vereinigten Staaten, entstand. Rund um den von Fred Moore und Gordon French im März 1975 gegründeten Homebrew Computer Club trafen sich technikinteressierte Menschen, die sich für die Idee eines persönlichen Computers begeistern konnten. Angefangen von der Vorstellung, Computer für alle Menschen öffentlich zugänglich zu machen und sogar im Heimbereich einzusetzen, über praktische Projekte und Entwicklungen, bis hin zur Geburt einer vollkommen neuen Industrie im Silicon Valley, haben sie die Entwicklung des persönlichen Computers entscheidend vorangetrieben. Innerhalb der frühen Szene erfreute sich der "MITS Altair 8800" großer Beliebtheit und diente den Mitgliedern des Clubs als Kernstück für eigene Erweiterungen. Sie machten bezüglich des PCs immer wieder mit Konzepten und praktischen Entwicklungen auf sich aufmerksam. Später gründeten Mitglieder dieses Vereins zahlreiche Computerfirmen. Demgegenüber wurde die Idee, dass der Computer seinen Platz in privaten Haushalten finden und jedem Menschen frei zugänglich sein sollte, von der in den 1970er Jahren vorherrschenden Industrie als absurd abgetan. So soll Thomas J. Watson, der frühe Chef von IBM, 1943 erklärt haben: „Ich glaube, es gibt einen Weltmarkt für vielleicht 5 Computer“. Wenn auch nicht in diesem Ausmaß, folgten Firmen wie Texas Instruments, Fairchild, IBM und DEC im Grunde noch immer diesem Dekret. Von einem Mitarbeiter auf die Entwicklung eines Computers für Privathaushalte angesprochen, wies DEC-Chef Ken Olsen 1977 diesen Vorschlag mit der Begründung von sich, dass er sich keine Privatperson vorstellen könne, die einen solchen Computer haben wolle. Erst der überragende Verkaufserfolg solcher Geräte durch andere (zum Teil branchenfremde, zum Teil neu gegründete) Unternehmen sollte die vorherrschende Industrie dazu veranlassen, sich der Idee des persönlichen Computers anzunehmen, eigene Produkte zu entwickeln und auf den Markt zu bringen. Apple I und II. Apple I Gehäuse und Systemplatine Ein prominentes Mitglied des "Homebrew Computer Clubs", Steve Wozniak (in der Szene bekannt als "The Woz"), entwickelte 1976 einen vollkommen eigenen Computer, der dem Altair 8800 technisch weit überlegen war. Als erstes Gerät der Welt war er mit 666 US-Dollar für Privathaushalte erschwinglich und entsprach zugleich den modernen bedientechnischen Vorstellungen eines persönlichen Computers: Sein Computer hatte eine schreibmaschinenähnliche Tastatur als Eingabeeinheit und einen Bildschirm (zunächst in Form eines umfunktionierten Fernsehgerätes) als Ausgabeeinheit. Apple war eine der Firmen, die aus dem Homebrew Computer Club hervorgingen, wobei Steve Wozniak neben Steve Jobs und Ronald Wayne einer der Firmengründer ist. Sein Computer wurde zwar vor der Firmengründung entwickelt, aber dann dort in Serie produziert und unter dem Namen "Apple I" verkauft. Als Einplatinencomputer wurde er in Form einer komplett bestückten Platine ausgeliefert und vom Händler oder Endbenutzer um ein Netzteil, Gehäuse und eine Tastatur ergänzt, ehe er am heimischen Fernseher betrieben werden konnte. Apple II; oben rechts Apple II mit Diskettenlaufwerken Das Nachfolgemodell, der Apple II, wurde nun auch in kompletter Ausführung ausgeliefert mit einem Gehäuse, Netzteil, Tastatur und Monitor, später sogar mit einer Maus. Gleichzeitig war er der letzte industriell hergestellte PC, der vollständig von einer einzelnen Person, Steve Wozniak, entworfen wurde. Er wurde im April 1977 in den USA vorgestellt und für einen Preis von 1298 US-Dollar angeboten. Bei seiner Markteinführung hatte er acht freie Steckplätze des 8-Bit-Apple-Bus-Systems, mit denen er durch Einsetzen der entsprechenden Erweiterungskarte für unterschiedliche Anwendungen (z. B. Textverarbeitung, Spiele, Steuerungstechnik) genutzt werden konnte. Diese Eigenschaft eines Computers, der also durch Steckplätze individuell an die Wünsche des Konsumenten angepasst werden kann, gilt heute als Grundeigenschaft eines PCs; es ist ein "offenes System". Außerdem konnten mit diesem Computer bereits Farben dargestellt und Töne wiedergegeben werden. Commodore PET und Tandy TRS. Der weltweit erste industriell hergestellte PC in kompletter Ausführung (inklusive Gehäuse, Netzteil, Tastatur, Monitor und Massenspeicher in Form einer Datasette) wurde im Januar 1977 vorgestellt: der Commodore PET 2001, der für 795 US-Dollar über den Ladentisch ging. Im August desselben Jahres folgte der Tandy TRS-80 Model 1 für 599 US-Dollar. Von den Leistungsdaten her waren beide Geräte dem Apple II ähnlich, hatten aber keine Steckplätze für Erweiterungskarten, keine Farbdarstellung und keine Tonausgabe. Der PET verfügte über den in der professionellen Messtechnik verbreiteten (parallelen) IEC-Bus, was zur Folge hatte, dass er in Forschung und Industrie Verbreitung fand. IBM-PC. Nach dem Verkaufserfolg des Apple II und des Commodore PET in den späten 1970er-Jahren begann auch IBM mit der Entwicklung eigener Produkte. Dabei hat ihre Werbeabteilung den Begriff „Personal Computer“ derart erfolgreich eingesetzt, dass er bis in die heutige Zeit mit der Marke IBM in Verbindung gebracht wird. Am 12. August 1981 wurde der erste IBM-PC vorgestellt. Er bewegte sich preislich an der Obergrenze der handelsüblichen PCs. In der Grundausstattung konnte er für 3.005 US-Dollar oder 1.565 US-Dollar (ohne Laufwerke und Monitor, dafür mit TV-Anschluss) erworben werden. In der maximalen Ausbaustufe mit mehr Speicher und Farbgrafik wurde er für 6.000 US-Dollar angeboten. IBM nutzte ihre damalige Marktführung für (Großrechner-)Datenverarbeitungsanlagen und schaffte es, dass ihr IBM-PC als Arbeitsplatzcomputer in zahlreichen Unternehmen eingesetzt wurde. Das Gerät war mit dem Intel-8088-Prozessor ausgestattet und verfügte über ein 8-Bit-ISA-Bussystem. Auch die folgenden Modelle wurden mit Prozessoren der Firma Intel ausgerüstet. Der bereits ein Jahr vor dem 8088-Prozessor (4,77–9,5 MHz Takt; interne CPU-Wortbreite 16 Bit; System-Datenbus 8 Bit) von Intel vorgestellte 8086-Prozessor (6–12 MHz Takt; CPU-Wortbreite 16 Bit; System-Bus 16 Bit) sorgte dafür, dass sich für die Serie die Abkürzung „x86-Architektur“ etablierte. Der IBM-PC wurde von 1981 bis 1995 ausschließlich mit dem Betriebssystem von IBM, PC-DOS, vertrieben, das von Microsoft an IBM lizenziert worden war. Die 1981 begonnene Zusammenarbeit der Firmen endete 1985. Beide Unternehmen entwickelten danach das Betriebssystem getrennt weiter, achteten jedoch auf gegenseitige Kompatibilität. Das Betriebssystem MS-DOS von Microsoft gibt es seitdem nur auf Computern, die in der Bauweise jenen von IBM entsprechen, den „IBM-PC-kompatiblen Computern“. Heimcomputer, Apple- und IBM-kompatible PCs. Mit TV-Ausgang und Tonausgabe kamen ab den 1980er-Jahren weitere Geräte als Heimcomputer auf den Markt. Die meistverkauften Modelle waren der Commodore C64 und die Geräte der Amiga-Reihe, wie auch verschiedene Ausführungen des Atari ST. Im deutschen Sprachraum wurde in den 1980er Jahren das englische Wort "personal" (persönlich) mitunter inkorrekt mit dem deutschen "Personal" (Arbeiter, Angestellte) assoziiert. Eine Ableitung von "Personal Computer" hin zu einer professionellen Firmenbenutzung entsprechender Geräte wurde hierzulande daher gebräuchlich. So wurden in den Medien Geräte mittlerer Leistung manchmal als "„reicht an die Leistung eines Personal Computers [nicht] heran“" klassifiziert, obgleich es sich bei solchen Geräten tatsächlich auch um Personal Computer handelte. Da die Amiga-Reihe und der Atari ST zu Heimcomputerpreisen die Leistung der IBM PC XT und AT übertrafen und teilweise die Gehäuseform der professionellen Geräte verwendeten, verschwand die irrtümliche Unterscheidung zum Ende der 1980er Jahre. IBM-kompatibler i486-Desktop-PC (1996, Hauptplatine von 1994) Da IBM kein Monopol auf die verwendeten Komponenten hatte (mit Ausnahme des BIOS), konnte Compaq 1983 den ersten zum IBM-PC kompatiblen Computer auf den Markt bringen. Vor allem in Ostasien schufen Unternehmen eine Reihe von Nachbauten, in Deutschland waren es Firmen wie Commodore und später Schneider. Der sich so entwickelnde Markt führte durch den Konkurrenzkampf zu sinkenden Preisen und verstärkter Innovation. Im amerikanischen Weihnachtsgeschäft 1984 spielten Personal Computer erstmals eine signifikante Rolle. Jedoch hatten sowohl IBM als auch Apple zu viele Geräte produziert und klagten im Frühjahr 1985 über ein enttäuschendes Ergebnis. Viele Händler blieben auf den PCs sitzen, und Kunden klagten, „sie könnten nicht viel mit den Maschinen anfangen.“ Ein Apple-Händler schenkte sogar jedem, der einen Rechner kaufte, ein italienisches Fahrrad dazu. Auch Apple-Computer wurden teils nachgebaut, aber das Unternehmen konnte sich (mit deutlich geschrumpftem Marktanteil) behaupten. Die Apple-II-Linie wurde Anfang der 1990er-Jahre eingestellt. Heute wird nur noch die Macintosh-Reihe hergestellt. Apple und Sun (Unix) sind die beiden einzigen Hersteller, die Hardware und Software (Betriebssystem und Anwenderprogramme) selbst entwickeln und auch zusammen vermarkten. Die meisten anderen Hersteller, wie etwa Commodore und Schneider, verschwanden Anfang der 1990er-Jahre weitgehend vom Markt oder wandten sich wieder anderen Geschäftsfeldern zu (Atari). Die aktuelleren PC-Modelle von IBM, wie der PC 300GL, blieben weitgehend unbekannt und gingen auf dem Markt neben den Produkten anderer Hersteller unter. Ähnlich erging es dem Versuch von IBM, den Markt mit der 2-Reihe und dem Betriebssystem 2 zurückzuerobern. Im Privatbereich wurden Heimcomputer und PC zunächst zum Experimentieren, Lernen und Spielen benutzt. Zunehmend wurden sie auch in Bereichen wie Textverarbeitung, Datenbanken und Tabellenkalkulation eingesetzt und fanden so Eingang in den betrieblichen Alltag. Moderne Personal Computer. a>-System selbst aufgebauter PC aus dem Jahr 2004 Die Leistungsfähigkeit von Personal Computern nahm seit ihrer Entstehung stetig zu (Moore’sches Gesetz). Neben den Aufgaben der Textverarbeitung und Tabellenkalkulation wurde der Multimedia-Bereich zu einem der Hauptanwendungsgebiete. Um auch den Anforderungen neuester PC-Spiele gerecht zu werden, gibt es so genannte Gaming-PCs, die mit hoher Rechenleistung und sehr leistungsfähigen Grafikkarten ausgestattet sind. Bei modernen PCs kommt seit 2006, unabhängig vom eingesetzten Betriebssystem, praktisch durchweg Hardware auf Basis der x86-Architektur zum Einsatz, die historisch auf den IBM Personal Computer von 1981 bzw. dessen so genannte IBM-kompatible Weiterentwicklungen zurückgeht. Von den anderen Computerarchitekturen für Einzelplatzrechner waren bis Anfang 2006 die PowerPC-Modelle von Apple erhältlich, bevor auch Apple diese durch x86-Modelle ersetzte. PowerPC-Rechner von Apple werden vom Betriebssystem seit Mac OS X 10.6 nicht mehr unterstützt. Als Betriebssysteme werden neben dem marktführenden Microsoft Windows hauptsächlich unixoide Betriebssysteme eingesetzt, vor allem Linux und BSD. Auch das Apple-Betriebssystem ist seit Einführung von Mac OS X eine Unix-Variante, die im Gegensatz zu den verschiedenen Linux-Distributionen und freien BSD-Betriebssystemen als einziges PC-Betriebssystem auf der eigenen Macintosh-PC-Reihe seit der Version 10.5 auch offiziell als UNIX-System zertifiziert ist ("siehe auch" Liste von Betriebssystemen). Bauformen. Entsprechend der technischen Entwicklung wandelten sich auch die Bauformen mit der Zeit. Der erste IBM PC war wortwörtlich ein Desktop-Computer, er und seine Zeitgenossen von anderen Herstellern hatten Gehäuse im Querformat und standen auf dem Arbeitstisch. Auf ihnen stand wiederum der Monitor mit einer Bildschirmdiagonalen von damals nur 10 bis 13 Zoll. Als diese Desktop-PCs mit der Zeit noch etwas größer wurden und nicht nur auf dem Schreibtisch immer mehr im Weg waren, sondern die auch langsam größer werdenden Monitormodelle auf dem Computer ergonomisch immer ungünstiger standen, ging man zu "neben" dem Monitor stehenden PC-Gehäusen im Hochformat über, sogenannten "Tower"-Modellen. Letztere differenzierten sich im Anschluss in "Big Towers", "Midi-Towers" und weitere Abstufungen. Je nach Höhe des Towers und Vorlieben des Benutzers stehen viele heutige Personal Computer auch unter oder neben dem Tisch. Schon seit Anfang der 1980er Jahre bemühte man sich parallel dazu, "tragbare" Computer zu entwickeln. Commodore brachte den SX64 heraus, der wie die späteren Kaypro- und Osborne-1-Modelle noch einen Stromnetzanschluss benötigte. An Batteriebetrieb war noch nicht zu denken, vor allem weil diese Modelle noch mit integrierten Bildröhren ausgestattet waren. Erst mit der Verfügbarkeit preisgünstiger LCD-Anzeigen kamen erste Laptops auf den Markt. Diese wurden anschließend permanent verkleinert, soweit es der technische Stand zuließ, was zunächst zur Klasse der Notebooks führte, danach im Jahr 2005 zu den Netbooks und zu den Tablet-PCs. Verbreitung. Die Zahl der weltweit verkauften PCs ist im Jahr 2013 weiter zurückgegangen, insgesamt wurden ca. 316 Millionen Stück verkauft, davon knapp 26 Millionen in Europa (genauer: EMEA – die Wirtschaftsregion, die Europa, den Mittleren Osten und Afrika umfasst). Insgesamt sank der Verkauf gegenüber 2012 um ca. 10 %. Dieser Rückgang ist u. a. auf die weitere Verbreitung von Tabletcomputern und Smartphones zurückzuführen. In der Vergangenheit wurde die Mehrzahl der verkauften PCs als Arbeitsplatzrechner in Wirtschaft und Verwaltung eingesetzt, aber auch viele Privathaushalte verfügten über PCs. Besonders in aufstrebenden Ländern („Emerging Markets“) haben die Menschen heute anstelle eines PCs mit Internetzugang als erste Geräte eher ein Smartphone für die Kommunikation und einen Tabletcomputer als Computer. Umweltauswirkungen. Spätestens seit ca. 2005 sind durch PCs verursachte Umweltauswirkungen anerkannt und werden erforscht. Die Umweltauswirkungen sind durch die hohen Absatzzahlen und vielfältige Schadstoffe in der Produktion erheblich, sie belasten die Umwelt insbesondere rund um Produktionsanlagen und durch den Material- und Energieverbrauch. Das Gebiet in der Informatik, das sich mit Umweltaspekten von PCs und Computerhardware im Allgemeinen beschäftigt, ist die Green IT. Ressourcenverbrauch. Einer Studie aus dem Jahr 2003 zufolge braucht man für die Herstellung eines Computers samt 17-Zoll-Röhrenmonitor 240 Liter fossile Brennstoffe. Geht man bei einem Gesamtgewicht des Systems – inklusive Röhrenmonitor – von rund 24 Kilogramm aus, ist das das Zehnfache seines Eigengewichts. Zusätzlich werden rund 22 kg Chemikalien und 1.500 kg Wasser benötigt. Stromverbrauch. Um gegenwärtig (Stand 2013) seinen PC möglichst sparsam betreiben zu können, empfiehlt sich die Beachtung gewisser Normen der Industrie. Für Netzteile ist dies heute die „80-PLUS“-Zertifizierung in Bronze, Silber, Gold oder Platinum nach der ENERGY-STAR-Richtlinie der US-Umweltbehörde EPA. Ein einzelner PC in "Desktop-Ausführung" brauchte über lange Zeit weitgehend konstant um die 50 W an elektrischer Leistung. Dieser Wert hielt sich etwa bis zur Einführung des Intel-Pentium-III-Prozessors Ende der 1990er Jahre. In der Folgezeit stiegen diese Werte rapide auf weit über 100 W alleine für den Prozessor und teilweise über 200 W für den kompletten Rechner an. Eine Trendwende gab es 2004, als der Prozessorhersteller AMD für seinen AMD Athlon 64 erstmals bisher nur bei Notebooks eingesetzte Funktionen zur dynamischen Änderung des Prozessortaktes einsetzte. Durch diese heute in sämtlichen Prozessoren verfügbare Funktion ist der Stromverbrauch zumindest ohne eine dedizierte Grafikkarte und ohne aufwändige Berechnungen wieder gefallen. Deutliche Abweichungen davon ergeben sich, wenn der Prozessor tatsächlich ausgelastet wird, und noch wesentlich mehr bei der Verwendung einer dedizierten Grafikkarte, die – auch wenn nur ein normaler Desktop darzustellen ist – bereits zwischen 10 und 80 W benötigt. Laptops und Notebooks, die mobil sein sollen und auf Akkubetrieb ausgelegt sind, versuchen, möglichst sparsam mit der elektrischen Energie umzugehen, um möglichst lange Akkulaufzeiten zu erreichen. Hier werden je nach Geschwindigkeitsanforderung und Auslastung zwischen ca. 10 W und (z. B. für mobile 3D-Grafik) deutlich über 60 W erreicht. Die Werte sind über die Zeit weitgehend konstant; Verbesserungen bei der Akkutechnik werden hauptsächlich in eine Verkleinerung der Gehäuse und nur zu kleinen Teilen in eine Verlängerung der Laufzeit gesteckt. Auch Industrie-PCs verwenden oft Laptop-Technik, das jedoch weniger aufgrund des Stromverbrauchs, sondern um auf bewegliche Teile in Gestalt von Lüftern verzichten zu können und so die mechanische Robustheit zu erhöhen. Die noch kleineren Einplatinen-Computer, UMPCs oder Netbooks benötigen mit teilweise unter 10 W noch weniger elektrische Leistung, wobei hier jedoch meist Zugeständnisse bei der Rechenleistung gemacht werden müssen. Aufgrund des hohen Ressourcenaufwandes bei der Herstellung ist es nicht sinnvoll, allein mit Hinblick auf eine Energieeinsparung ein sparsames Neugerät zu kaufen, da im Vergleich zum Energieverbrauch bei Herstellung und Entsorgung der Energieverbrauch beim Gebrauch vergleichsweise gering ist. Der durch die Neuproduktion anfallende zusätzliche Energieverbrauch kann – wenn das überhaupt bei normalem privaten Gebrauch möglich ist – nur nach etlichen Jahren durch die geringere Leistungsaufnahme kompensiert werden. Aufwändige Berechnungen wie 3D-Bilder in Computerspielen, Bildberechnungen von Grafikprogrammen oder Videobearbeitung erhöhen den Energiebedarf auf 300 W. Leistungsstarke PCs mit sehr schnellen Prozessoren kommen auf Werte bis zu 425 W. Hochleistungsgrafikkarten benötigen jeweils weitere bis zu 275 W, so dass bei zwei Grafikkarten unter Volllast des Systems Leistungsaufnahmen von knapp 1.000 W möglich sind. Entsorgung. Personal Computer bestehen aus Elektronikkomponenten. Sie werden in Deutschland nach der Elektronikschrottverordnung von den Herstellern über Erfassungsstrukturen zurückgenommen. Besitzer sind verpflichtet, die Geräte getrennt vom Restmüll den Erfassungsstellen zuzuführen. Die Rücknahme ist in Deutschland kostenfrei. Veraltete, noch funktionsfähige PCs oder Bauteile können auch verkauft oder an Bastler oder Bedürftige weitergegeben werden – z. B. im Rahmen des Projektes linux4afrika. Oft werden alte Geräte auch illegal in Drittweltländer verfrachtet, wo, oft unter Vernachlässigung von Arbeits- und Umweltschutzmaßnahmen, die wertvollen Metalle extrahiert werden und der Rest auf Deponien abgelagert wird (z. B. Guiyu (China) und Agbogbloshie (Ghana)). Volkswirtschaftliche Auswirkungen des PC-Handels auf Europa und Asien. Allgemein ist ein Personal Computer ein US-Produkt, da der größte Teil beziehungsweise der Kostenfaktor aus Importprodukten von Herstellern aus den Vereinigten Staaten stammt, gefolgt von Taiwan. So sind in den meisten PCs ein Intel-Prozessor verbaut oder ein AMD-Prozessor. Auch die gebräuchlichsten Grafik-CPUs stammen aus US-Firmen wie Nvidia und AMD mit der Radeon-Serie. Auch die Green500-Liste der 500 Energieeffizientesten Supercomputer wird zumindest unter den ersten 100, ausschließlich von US-Herstellern angeführt, so befinden sich unter den ersten 100 Plätzen 69 Supercomputer mit XEON-CPUs, 25 BlueGene/Q Power BQC (IBM), 4 SPARC64 und 2 AMD Opteron. Bei den PC-Mainboards hingegen führt die Republik China (Taiwan) die Produktion an, mit Produkten aus den Firmen Asus, Gigabyte Technology und Micro-Star International inklusive der intern meistverbautesten Soundchips der Firma Realtek. Marktführer der externen Soundlösungen ist hingegen Creative Technology (Singapur) mit der Soundblaster-Serie. Bei den Festplatten (HDDs) führen hingegen US-Firmen wie Seagate Technology und Western Digital den Markt an. Bei den Netzteilen führen die Hersteller Seasonic, Thermaltake und Enermax aus Taiwan die Produktion an. Wobei das allgemeine Qualitätskriterium für Netzteile heute, nämlich die 80+-Zertifizierung in Bronze, Silber, Gold, Platinum und Titanium von der US-amerikanischen Umweltbehörde EPA stammt und sich als Marktstandard durchgesetzt hat. Netzteile ohne 80+-EPA-Prüfsiegel sind heute praktisch unverkäuflich. Bei den RAM-Speichern führen US-Hersteller wie Corsair Memory, Mushkin, Micron Technology und Kingston Technology den Markt an gefolgt von G.Skill und TeamGroup aus Taiwan. Ferner haben auch die drei größten FPGA-Hersteller Xilinx, Altera und Atmel ihren Sitz in den USA. An der Fertigung aktueller Personal Computer haben europäische Hersteller damit nur einen verschwindend geringen Anteil und sind hier stark auf Importe angewiesen. Auch der Software US-Marktführer Microsoft der häufigst eingesetzten Betriebssystemsoftware Microsoft Windows trägt hier einen großen Anteil an der Wertschöpfung in den USA bei. Fast jeder PC-Kauf trägt damit etwas zur Schwächung des europäisches Marktes bei durch das abfließen von Devisen von jedes Jahr mehrere hundert Milliarden Euro, vornehmlich in die USA. Ohne eine entsprechende europäische Gegenproduktion bzw. ausgeglichene Handelsbilanz, wäre die Computerisierung Europas, nicht mehr gewährleistet. Für das Vereinigte Königreich ist hier jedoch noch die ARM Limited vorteilhaft, welche die ARM-Architektur weltweit lizenziert, sowie Raspberry Pi für die Marktführerschaft unter den Einplatinencomputern mit dem Raspberry Pi. Die Eurozone selber profitiert hiervon jedoch erst mal nicht. Entwicklung europäischer Alternativen. Die Entwicklung europäischer Alternativen kam über das Prozessordesign kaum hinaus, da bereits in den 80er-Jahren alle bedeutenden Heim-Computerhersteller wie Commodore und Atari ihren Sitz in den USA hatten, sowie auch die Prozessorhersteller Motorola und Zilog. Am europäischisten war in diesem Zusammenhang noch der Acorn Archimedes der britischen Firma Acorn mit zudem auch der eigenen ARM-Architektur. Heute ist dies vornehmlich nur noch die Linux-Migration z. B. LiMux in öffentlichen Verwaltungen um sich von der Microsoft-Windows-Abhängigkeit aber auch von Microsoft Office zu lösen. Mit ReactOS gibt es hingegen auch ein Opensource-Projekt ein kompatibles Windows-Derivat nachzubilden. Im Rahmen der Freien Hardware gibt es auch weiterhin Versuche, neue herstellerunabhängige CPU-Designs zu erschaffen. Einen nennenswerten Marktanteil hat jedoch noch kein Projekt außerhalb der großen Hersteller. Entwicklung russischer Alternativen. Die CPU Entwicklung in Russland stützt sich vor allem auf den russischen Elbrus 2000-Mikroprozessor, hierfür existiert sogar ein eigener 130-Nanometer-Fertigungsprozess nach der von AMD übernommenen Ausrüstung aus der Fab 30. Im Mai 2015 machte ein aktueller Elbrus Heim-PC basierend auf dem Elbrus-4C Chip Schlagzeilen durch die flüssige Darstellung des Spiels Doom BFG von 2004. In der Vergangenheit begnügte sich Russland mit dem kopieren des Zilog Z80 dessen Derivate wie der MME U880 auch die Grundlage für Computer in der DDR stellte. Entwicklung japanischer Alternativen. Als der japanische Heimcomputer galt allgemein in den 80er-Jahren der MSX-Computer, der sich dort auch als Alternative zum C64 etabliert hatte, wobei auch der MSX-1 im Wesentlichen noch auf US-Herstellern aufbaute, so auch hier wieder der Z80 Prozessor der Firma Zilog, der Grafikchip der Firma Texas Instruments und der Soundchip von General Instrument. Japanische Eigenmarken stellten erst die Nachfolger der MSX-2 und MSX turbo R mit dem Yamaha v9958 Grafikprozessor und Yamaha YM2149/YM2413 Soundchip dar. Die 7.16 MHz schnelle R800 CPU für den MSX turbo R war dabei zwar Zilog kompatibel, tatsächlich aber auch eine Eigenentwicklung der japanischen ASCII Corporation und wurde hergestellt von der Mitsui Bussan. Popmusik. Popmusik bezeichnet eine Musikform, die vorwiegend seit 1955 aus dem Rock ’n’ Roll, der Beatmusik und dem Folk entstand und von Musikgruppen aus dem angloamerikanischen Raum wie den Beatles fortgeführt und popularisiert wurde. Sie gilt seit den 1960er Jahren als international etablierte Variante afroamerikanischer Musik, die im Kontext jugendlicher Subkulturen entstand, elektroakustisch aufbereitet und massenmedial verbreitet wird. Im weiteren Sinne zählt jede durch Massenmedien verbreitete Art von Unterhaltungsmusik wie Schlager, Filmmusik, Operette, Musical, Tanzmusik, sowie populäre Adaptionen aus E-Musik, Folklore und Jazz zur Popmusik. Diese Begriffsverwendung im Sinne von "populärer Musik" ist in der Musikwissenschaft jedoch umstritten. Während "Popmusik" eine Sammelbezeichnung für die ursprünglich aus dem Amerikanischen stammenden populären Musikformen des 20. Jahrhunderts darstellt, die in besonderer Weise durch Kulturmischung gekennzeichnet ist, bezeichnet populäre Musik (auch "Popularmusik") Unterhaltungsmusik, die seit dem Mittelalter einen integrierenden Bestandteil der europäisch-abendländischen Musikentwicklung darstellt und „mit der Aufklärung des ausgehenden 18. und mit der Ausprägung des bürgerlichen Konzertlebens im ersten Drittel des 19. Jahrhunderts (bürgerliche Musikkultur) ein Eigenleben zu führen beginnt“. Begriffe „Popmusik“ und „Populäre Musik“. Popmusik ist musikwissenschaftlich nicht gleichzusetzen mit „populärer Musik“, obwohl der Begriff insbesondere in der soziologischen Literatur auch in diesem Sinne verwendet wird. Ähnlich wie beim Kunstgenre Pop-Art, deren Popularität um 1962 zur Verwendung des Begriffs "Pop" führte, sei die Ableitung von „Pop“ als Abkürzung von "populär" unzureichend. Popmusik stelle nach Peter Wicke „technisch rekontextualisierte Musik und somit prinzipiell jede Musikform dar, die einen ökonomisch rentablen Verbreitungsgrad erreichen kann“. Daher sei es kaum möglich, sie auf bestimmte musikalische Charakteristika einzuschränken. Auf der anderen Seite wird der Begriff in der Literatur mit unterschiedlichen Bedeutungsinhalten und Wertungen angefüllt. So beschrieb der Musikwissenschaftler Tibor Kneif "„Der Begriff Pop-Rock bezeichnet heute eine ins kitschige, billig Sentimentale abgleitende Richtung innerhalb der Rockmusik“". Synonym mit Pop werden auch die Bezeichnungen Beat- und Rockmusik gebraucht. In Musikzeitschriften wie Spex oder Rolling Stone wurden die Begrifflichkeiten "Pop" und manchmal auch "Rock ’n’ Roll" verwendet, um die über das Musikalische herausgehende Dimensionen der Popmusik zu betonen, während der Begriff "Rock" eher musikalische Parameter in den Mittelpunkt stelle. Der Begriff „populär“ lässt sich in der Musikgeschichte schon wesentlich früher als in den 1960er Jahren nachweisen, in denen der Begriff „Popmusik“ im Rahmen der Entwicklung der Popkultur geprägt wurde. Der deutsche Begriff „Volkslied“, als Übersetzung der englischen Bezeichnung „popular song“, stammt aus einer 1773 erschienenen Rezension von Johann Gottfried Herder über eine 1765 in England erschienene Sammlung von englischen und schottischen Balladen. Charakterisierung von Popmusik. Die Entwicklung der Popmusik, die 1965 begann, erreichte in den 1980er Jahren ihren Endpunkt als rein jugendkulturelles Phänomen. Popmusik wurde weitgehend zum gesellschaftlich akzeptierten Phänomen und Bestandteil der Alltagskultur. Zahlreiche Popmusiker machten nun speziell Musik auch für ein erwachsenes Publikum. Die nun für den „Mainstream“ produzierte Popmusik bezieht sich nicht nur auf ihre eigene ursprüngliche Tradition aus dem Vaudeville, dem Volkslied und dem Kunstlied, sondern inkorporiert verschiedene aktuelle Musikstile. Dabei nimmt sie den ursprünglichen Musikformen meist die Komplexität, entfernt für die gängigen Hörgewohnheiten Ungewohntes und Irritierendes, um sie für eine breite Masse zugänglicher und konsumierbarer zu machen. Das trifft insbesondere auf modifizierte, „gezähmte“ Anleihen bei ursprünglichen afro-amerikanischen Musikstilen wie Jazz, aber auch den Rap zu. Der Erfolg der kommerziell ausgerichteten Popmusik misst sich in den Hitparaden. Popmusik ist heute der kommerziell lukrativste Zweig der Musikindustrie. Häufig wird Popmusik im Gegensatz etwa zur Kunstmusik mit Attributen wie „Einfachheit“ oder „Trivialität“ belegt: Im Einzelnen etwa durch eine als angenehm empfundene einfache Harmonik, leicht einzuprägende und nachsingbaren Melodiefolgen, die oft auf der Diatonik beruhen, wenig komplexe, durchgehende Rhythmen, einem klassischen Liedaufbau aus Strophe und Refrain sowie einen sanften, melodiebetonten Gesang. Allerdings sind dies keine allgemeinen Merkmale, die für jede Form von populärer Musik gelten. Die Charakterisierung von Popmusik als „einfach“ folgt zumeist einer bewussten oder unbewussten Gegenüberstellung mit klassischer Musik, die in der Regel rhythmisch, harmonisch und melodisch ungleich vielschichtiger ist. Populäre Musik im Mittelalter. In Zeiten feudaler Herrschaftssysteme hatte die Musik zwei Hauptaufgaben: für die Regenten bzw. Adligen war die bei Hofe gespielte, als anspruchsvoll und vollendet geltende Musik nicht nur Unterhaltung, sondern auch Statussymbol, da zumindest im Mittelalter nur wohlhabende Adelige bzw. Fürsten sich professionelle Musiker und teure Instrumente leisten konnten, während bei der noch zumeist eher separiert über die Dörfer verteilt lebenden Bevölkerung die Musik überhaupt seltener und nur zu bestimmten Anlässen wie Hochzeiten oder Erntedankfesten von gering qualifizierten Gelegenheitsmusikanten gespielt wurde und nur die Funktion erfüllen musste, „tanzbar“ zu sein. Dabei war die Trennung zwischen den (musikalischen) Schichten durchaus durchlässig, denn um die strengen Etikette bei Hof umgehen zu können, erfand der Adel die Maskenbälle, bei denen sich die vornehme Gesellschaft als einfache Leute verkleidete und ungeniert deren ausgelassene Feste einschließlich der Musik imitierte. Die schnelle Verbreitung von Musikstücken oder gar die Entwicklung von neuen Musikrichtungen wurde jedoch durch mehrere Faktoren behindert: die Menschen waren durch die dörfliche Siedlungsstruktur relativ isoliert, Austausch fand eher selten statt; fahrende Musikanten kamen selten und blieben nicht lang genug, um von ihnen neue Stücke auswendig zu lernen; die meisten Menschen konnten nicht lesen und schreiben und damit nicht ihre eigenen Lieder aufzeichnen, die Fähigkeit, Töne in Form von Noten aufzuzeichnen, war noch viel seltener. In Österreich und Deutschland kam noch erschwerend hinzu, dass es bis vor wenigen Hundert Jahren z. T. enorme Sprachbarrieren gab, da Personen, die von weit her kamen, manchen regionalen Dialekt kaum verstehen konnten. Populäre Musik bestand zur Hauptsache aus dem Lied, das fast nur in religiösen Zusammenhängen aufgezeichnet wurde. Ausnahmen wie die "Carmina Burana" (1230) gestatten einen Einblick in die Praxis des mittelalterlichen Singens. Melodien sind allerdings nur teilweise erhalten, und wie sie gesungen wurden, kann man nicht mehr sagen. Die Tradition der Kontrafaktur zeigt, dass weltliche Melodien auch auf die religiöse Musik Einfluss hatten. Aufzeichnungen waren für die Musikpraxis nicht nötig. Berühmte Melodien wie die „timbres“ der Vaudevilles seit dem 15. Jahrhundert verbreiteten sich trotz der beschwerlichen Verkehrswege ungeheuer schnell. 19. Jahrhundert. Die Verbreitung der Musik an sich war bis zum Ende des 18. Jahrhunderts auf das Abschreiben von Notenblättern beschränkt, da das Notensystem zu kompliziert zum Letter-Druck war; es konnten (auch in Ermangelung von zum Noten lesen fähiger Schreiber) lediglich im mechanischen Verfahren des Notenstichs einzelne Kopien von Notenblättern hergestellt werden. Dies änderte sich erst, als Alois Senefelder das Verfahren des Steinplattendrucks (die Lithografie) erfand. Dadurch gelang es zum ersten Mal im Jahre 1796 in München eine auf Spezialpapier geschriebene Partitur als Negativ aufzutragen und originalgetreu abzudrucken. Zwar waren mit diesem Verfahren zuerst nur wenige Kopien möglich, doch die Erfindung der Dampfmaschine und die Verbesserung der Technik ermöglichten schon Anfang des 19. Jahrhunderts größere Auflagen von Notenblättern. Durch die Industrialisierung des Notenblattdruckes ergaben sich bedeutende Konsequenzen für die Entwicklung der populären Musik: die Musik des „einfachen“ Volkes konnte nun erstmals günstig in Massen reproduziert werden, was eine Vereinheitlichung der Versionen klassischer Volkslieder in Bezug auf Text und Tonfolge zur Folge hatte, ähnlich der „Standardisierung“ der deutschen Märchen durch die Zusammenstellung der Brüder Grimm; bei der klassischen Konzert- und Opernmusik setzte außerdem ein Trend ein, der dem heutigen „covern“ von Popsongs nicht unähnlich ist, so wurden z. B. ganze Opern für wenige oder nur ein Instrument umarrangiert – mit teilweise kuriosen Ergebnissen wie Mozarts "Zauberflöte" als reines Flötensolo. Damit entstand auch ein ganz neuer Berufszweig: der „Arrangeur“, der quasi aus altbekanntem Material klassischer Komponisten „frische“ Versionen bastelte. Die bedeutenden gesellschaftlichen Umwälzungen des 19. Jahrhunderts hatten natürlich auch Auswirkungen auf die populäre Musik. Die Urbanisierung z. B. führte zu einer Anpassung der Dialekte innerhalb der großen Stadtgemeinschaften, die Städte übernahmen die Funktion kultureller „Schmelztiegel“, in denen sich Menschen aus verschiedenen Regionen auch musikalisch austauschten. Die kleinen bäuerlichen Gemeinden verwandelten sich im Urbanen in die große Berufsklasse der Industriearbeiter, die nach wie vor viel arbeiten mussten, ihre gelegentlichen Feste nun aber im großen Rahmen feierten (das Oktoberfest in München dürfte ein bekanntes Beispiel sein). Aber auch das an Einfluss und Wohlhaben immer mehr gewinnende Bürgertum fand in Salons und Varietés einen gemeinsamen Ort und Stil von Musik. Die zunehmende Geschwindigkeit, mit der Personen und Waren sich durch ganz Europa bewegen konnten, erleichterte auch die Verbreitung neuer Stile, im Bereich der Tanzmusik sei hier der Walzer als Beispiel angeführt. Entwicklung in den Vereinigten Staaten. Dass die USA in der Musikgeschichte bis in die erste Hälfte des 19. Jahrhunderts praktisch kaum eine Rolle spielte, hat im Wesentlichen zwei Gründe: Erstens waren die gesellschaftlichen Verhältnisse anders als in Europa, vor der Gründung der USA existierten neben den Indianerkulturen nur einzelne Kolonien europäischer Nationen, die keine eigenständige kulturelle Identität besaßen, sondern einfach das Kulturgut und die Musik der Mutternationen importierten; zweitens musste erst der Prozess der Erschließung des Westens vollendet sein, damit sich eine stabile Gesellschaftsstruktur und eine eigenständige kulturelle Identität entwickeln konnte. Afroamerikanische Musiktradition. Besonders bedeutend für die Entwicklung der populären Musik war jedoch der Unterschied zwischen den als „Rassen“ klassifizierten Menschengruppen: Während die europäischstämmige Bevölkerung trotz eines amerikanischen Selbstbewusstseins in kultureller Hinsicht weitestgehend ihren zumeist europäischen Wurzeln verhaftet blieb, waren die Afroamerikaner als Sklaven aus Afrika verschleppt und in den USA oft absichtlich von Menschen ihrer eigenen ethnischen Gruppe getrennt worden. Da die Siedlungsstruktur in Afrika dezentral war und einige Stämme auch nomadisch lebten, standen die Verschleppten in den USA nicht nur vor einer Sprachbarriere (fast jeder sprach eine andere Sprache oder Dialekt), sondern auch vor einem kulturellen Problem, da es kein „nationales“ Liedgut gab, das allen bekannt war. Zudem war ihnen die Ausübung ihrer kulturellen Traditionen, so auch der Musik, verboten. So mussten die Sklaven nicht nur die Sprache ihrer „Besitzer“ lernen (das Sprechen oder Singen in der Heimatsprache stand auf den Baumwollplantagen oft unter Strafe), sondern sich auch auf gemeinsame Inhalte verständigen, die zumeist auch noch von christlichen Missionaren beeinflusst wurden. Andererseits entwickelte sich durch diese Unterdrückung und gewaltsame Abtrennung von der Heimatkultur unter den Afroamerikanern als ersten US-Amerikanern so etwas wie eine gemeinsame neue Kultur, die auf übernommenen Elementen der europäischen Kultur in Verbindung mit afrikanischen Traditionen beruhte. Diese spielte in der ersten Hälfte des 19. Jahrhunderts aufgrund ihres Status und ihrer sozialen Situation erst einmal keine besondere Rolle. Nach dem Sezessionskrieg, der den Sklaven zumindest formal die Freiheit der Berufswahl brachte, strömten viele der ehemaligen Sklaven von den Plantagen im Süden in die Industriezentren im Norden, um dort ihr Geld zu verdienen, ein nicht unbedeutender Teil aber ergriff auch andere „einfache“ Berufe, die bei den Weißen nicht auf besonderes Interesse stießen, dazu zählte z. B. auch der Beruf des Salonmusikers, der zumeist verschiedene populäre musikalische Stile beherrschte. So mischten sich auch immer mehr Schwarze unter die zuvor rein weißen Minstrels. Einige ehemalige Plantagenarbeiter gründeten aber auch gleich nach dem Bürgerkrieg eigene kleine Bands und kauften u. a. die ausgemusterten Instrumentenbestände der recht zahlreichen Militärkapellen auf. Daraus entwickelte sich in den ersten 20 Jahren nach dem Bürgerkrieg eine fortschreitende Dominanz von Schwarzen im Berufsmusikertum, während die weißen Musiker vornehmlich Bereiche wie die „vornehmen“ klassischen Orchester besetzten. Von den Zentren wie New Orleans, das sich schon im 19. Jahrhundert aufgrund vergleichsweise größerer Freiheiten für Afroamerikaner zu einem musikalischen Zentrum entwickelt hatte, und Chicago aus gewannen die schwarzen Musiker so einen bedeutenden Einfluss auf die Entwicklung der populären Musik in den USA. Zu erkennen ist dies z. B. an den zunehmenden Imitationen von „schwarzen“ Kompositionen durch weiße Komponisten in der zweiten Hälfte des 19. Jahrhunderts. Schließlich entwickelte sich gegen Ende des 19. Jahrhunderts der erste von Schwarzen geprägte Musikstil, der quasi zum nationalen „Trend“ wurde: der "Ragtime". Die entstehende Jazz-Musik gilt als erste eigenständige US-amerikanische Form der populären Musik. Ragtime. Der Ragtime (zu deutsch etwa „Fetzentakt“) entstand in den 1890er Jahren aus, der europäischen Kulturtradition entlehnten, auf die eigene Art interpretierten, Tänzen der Afroamerikaner wie dem Cakewalk, dem Jig oder dem Strut und war ursprünglich eher als Tanzmusik konzipiert, viele frühe Ragtimes tragen auch die Taktbezeichnung „march time“, sind also auch verwandt mit dem aus Europa stammenden Marsch - nicht zuletzt deshalb entstanden bereits um 1885 herum erste Ragtimes weißer Komponisten. Als der bedeutendste Komponist des Ragtime gilt Scott Joplin, dessen erste Stücke 1895 erschienen. Ihm gelang es, aus einer Musik der Bordelle und Kneipen einen allgemein anerkannten, konzertfähigen Stil zu machen, nicht zuletzt durch seine mit dem Genie von Mozart, Chopin und Brahms verglichenen Fähigkeiten am Klavier, dem Instrument des Ragtime und überhaupt dieser Zeit. Ein besonderer Meilenstein in der Musikgeschichte gelang ihm 1899, als er seinen "Maple Leaf Rag" veröffentlichte, dessen „sheet of music“ (engl. für „Notenblatt“ - man nannte die populäre Musik dieser Zeit daher auch „sheet music“) sich innerhalb kürzester Zeit eine Million Mal verkaufte – ein bis dahin nie gesehener Erfolg eines kurzen Unterhaltungsmusikstückes. Der Ragtime ging schließlich ab ca. 1916 im Blues und Jazz auf. Medien und Musikverlage. Das bedeutendste Live-Medium für populäre Musik war bis zum ersten Drittel des 20. Jahrhunderts das Theater, vom Boulevardtheater bis zur Music Hall. Reine Konzertmusik gab es kaum. Gedruckte Musiknoten waren zur Hauptsache Erinnerungen an Theatererlebnisse. Auch Tonaufzeichnungen in der Frühgeschichte des Grammophons erfüllten noch diese Funktion. Mit dem Aufkommen des Rundfunks und vor allem des Fernsehens verlor das Theater diese Vorherrschaft. In den ersten beiden Jahrzehnten des 20. Jahrhunderts hatte sich die Technik zur Aufzeichnung und Reproduktion von Tonaufnahmen soweit entwickelt, dass sie voll kommerziell nutzbar war; abgesehen von der mangelnden Tonqualität war der 1877 entwickelte Phonograph bis dahin noch so teuer, dass sich nur reichere US-Amerikaner ein solches Gerät leisten konnten. 1902 wurden die Caruso-Arien zum ersten weltweiten Schallplatten-„Hit“. Das Geschäft mit der Musik und den Notenblättern wurde von der sogenannten „Tin Pan Alley“ in New York aus gesteuert, wo die meisten großen Musikverlage dieser Zeit ansässig waren. Deren Aufstieg begann mit der zunehmenden Nachfrage nach den "song sheets" (Notenblätter) und "song books" (Liederbücher) ab den 1890er Jahren, speziell durch die beliebten „Rags“, den Schlagern der Ragtime-Zeit, die jedoch musikalisch nur wenig mit dem instrumentalen Ragtime zu tun hatten. Sie gingen von Revuen wie den Ziegfeld Follies, Vaudevilles, Minstrel Shows oder der Musical Comedy aus. Die Tin Pan Alley trug entscheidend zur verstärkten Kommerzialisierung der populären Musik in den USA bei: Hier wurde nur das herausgebracht, was mit großer Sicherheit den Massengeschmack eines möglich großen Marktes treffen würde. Wollten Komponisten eher klassische Stücke veröffentlichen, wurden sie hier meist abgewiesen und mussten den Umweg über Europa nehmen oder im Eigenverlag veröffentlichen. Neben den Faktoren der zunehmenden Verbreitung von Phonographen und der wachsenden Beliebtheit der Broadway-Musicals in den 1920er Jahren war die Einführung des Tonfilms in der zweiten Hälfte des Jahrzehnts ein besonders wichtiger Wendepunkt, da nun die Film- und die Musikindustrie zu verschmelzen begannen (z. B. wurde das Filmstudio Warner Brothers als Musikverlag aktiv). Als die „Erfolgsproduzenten“ der Tin Pan Alley gelten trotz prominenter Konkurrenz wie Irving Berlin und George Gershwin die Produzenten und Komponisten Richard Rodgers und Oscar Hammerstein, die nicht nur mit dem kommerziellen Erfolg ihres Musicals "Oklahoma!", das noch 50 Jahre nach seiner Uraufführung erfolgreich war und als LP zum ersten Mal die Millionen-Absatzmarke übersprang (sowie als Partitur in wenigen Jahren weltweit zwei Millionen mal verkauft wurde), einen Meilenstein setzten, sondern auch als erste Künstler ein selbst beim inflationsbereinigten Vergleich mit heutigen Gagen nur als exorbitant zu bezeichnendes Einkommen von 15 bis 20 Millionen Dollar jährlich erreichten. Blues und Country. Ab etwa 1920 ließen sich auch für die einfache Bevölkerung erschwingliche in der Tonqualität für die damalige Zeit akzeptable Schallplatten und die entsprechenden Abspielgeräte herstellen. Diese Schallplatten wurden in Drogerien und Gemischtwarenläden für einige Cent verkauft, die Abspielgeräte gab es beim Möbelhändler. Besonders interessant für die nicht an das Stromnetz angeschlossene Landbevölkerung waren Kurbelplattenspieler, die in dieser Zeit populär wurden. Um den neuen Markt zu erschließen, wurden auch Aufnahmen von Minderheitenmusik wie der bald so bezeichnete „Race Music“ der Afroamerikaner und der Old-Time Music der weißen, südstaatlichen Landbevölkerung gemacht. Im Februar 1920 erschien die erste Blues-Schallplatte, aufgenommen von Mamie Smith. Sie verkaufte sich so gut, dass die Musikindustrie plötzlich ein großes Interesse an den schwarzen Blues-Sängerinnen bekam, die bisher nur in den sogenannten Vaudeville-Theatern zu hören waren. Wie nah auch der Blues noch an den Wurzeln aus der Zeit der Sklaverei war, zeigt der neben dem „klassischen“ Blues in dieser Zeit ebenfalls sehr populäre Country Blues, der textlich und musikalisch deutlich den Worksongs und „Field Hollers“ der Plantagenarbeiter ähnelte. Um den Bedarf an Blues-Schallplatten zu decken, wurden spezielle Labels von den Plattenfirmen gegründet, die zu Anfang ausschließlich schwarze Sängerinnen unter Vertrag nahmen – die bekannteste dürfte Bessie Smith sein, bei den männlichen Interpreten hat John Lee Hooker wohl den größten Ruf. Auch die erst später so bezeichnete Country-Musik, die sich aus verschiedenen volksmusikalischen Stilen der europäischen Einwanderer, besonders der irischen und englischen, entwickelt hatte, wurde ab ca. 1923 als Absatzmarkt entdeckt. Die Geschäftsleute Polk Brookmann und besonders erfolgreich Ralph Peer entdeckten das kommerzielle Potenzial der Musik der abgelegenen Bergregionen der Appalachen. Aufgrund seiner Popularität wurde die Musik zum Teil auch gefördert, um der landesweiten Begeisterung auch vieler Weißer für Ragtime Einhalt zu gebieten. Während der Großen Depression in den 1930er Jahren wurde Country-Musik, die auch bei den Schwarzen der Südstaaten beliebt war, als vereinigende US-amerikanische Musik von staatlicher Seite popularisiert. Swing und Rock ’n’ Roll. Der Swing, der seine Blütezeit (den sogenannten „Swing Craze“) etwa zwischen 1935 und 1945 hatte, war der erste Stil der populären Musik, der die gesamte amerikanische Gesellschaft ohne Unterschiede zwischen schwarz und weiß oder arm und reich erreichte. Dies lag nicht zuletzt an dem auf Tanzbarkeit statt auf „Aussage“ ausgerichteten Charakter dieses Stils. Im gewissen Sinn ist diese Musik außerdem ein Bekenntnis der US-Amerikaner zu Größe und Aufwand, manifestiert durch die Big Bands, die aus doppelt oder dreimal so vielen Musikern bestehen wie übliche Jazz-Formationen. Bei Big Bands mit 14 oder mehr Mitgliedern war die Jazz-typische Kollektivimprovisation praktisch ausgeschlossen, an ihre Stelle traten Soli einzelner Musiker, meist von bekannten „Star-Solisten“. Der Swing enthält gut hörbar Elemente des Jazz, aber auch von „weißen“ Musikstilen, wobei der Anteil der schwarzen Musik am Swing oft unterschätzt wird, da viele der bekannten Big Bands auch aufgrund rassistischer Beschränkungen stark weiß besetzt waren. Der bekannteste schwarze Band-Leader dürfte Duke Ellington sein, mehr bekannte Namen finden sich bei den Weißen wie z. B. Benny Goodman, Jimmy und Tommy Dorsey, Les Brown und natürlich Glenn Miller. Nicht zuletzt bedingt durch den Zweiten Weltkrieg blieb der Swing ein fast ausschließlich US-amerikanisches Phänomen, das lediglich in Großbritannien noch als „Import“ gewisse Verbreitung fand. Die verbreitete Ansicht, dass die 1930er bis 1950er Jahre den künstlerischen Höhepunkt des (gesungenen) populären Musikschaffens in den USA gebracht hätten, kommt im Begriff Great American Songbook zum Ausdruck, mit dem eine nicht genau festgelegte Anzahl herausragender Songs der amerikanischen Unterhaltungsmusik dieser Zeit bezeichnet wird. Der Rock ’n’ Roll als Musikstil ist eine Synthese aus verschiedenen, unabhängig voneinander entstandenen (regionalen) Stilen, die wichtigsten sind der Rhythm and Blues (kurz R&B) und die Country-Unterstile Western Swing und der Honky Tonk. Der R&B ist im Prinzip ein Blues-Stil, der aber auch Elemente aus speziellen Jazz- und Swing-Stilen enthält und von „Vocal Groups“ mit nur geringfügiger instrumentaler Begleitung (meist nur Gitarre) geprägt wurde. Die bedeutendsten regionalen Formen waren der R&B aus Chicago, der z. B. Chuck Berry beeinflusste, und die New-Orleans-Variante, deren bekanntester Vertreter Fats Domino wurde. Der Western Swing ist eine Spielart der von der weißen Landbevölkerung der US-Südstaaten geprägten Country-Musik mit Elementen des Swing, die Ende der 1930er Jahre bekannt wurde, besonderen Auftrieb aber erst durch den ASCAP-Streit 1944 bekam. Er beeinflusste bekannte Interpreten wie Bing Crosby oder Bill Haley. Nicht zuletzt durch den bis dahin in seinem Ausmaß ungekannten Starkult um den „King“ Elvis Presley wurde der Rock ’n’ Roll zum weltweiten Trend, der auch das mittlerweile vom Zweiten Weltkrieg etwas erholte Europa und damit Österreich sowie Deutschland ergriff, wo man sich wieder nach Unterhaltung und („unschuldigen“) Vorbildern sehnte. Außerdem prägte er den Jugendkult in der Popmusik entscheidend mit, da beim Rock ’n’ Roll die Interpreten von den Plattenfirmen erstmals hauptsächlich nach dem Kriterium der Altersnähe zum Zielpublikum ausgesucht wurden und oft nur Amateurmusiker waren. Die Entstehung des Rock ’n’ Roll steht in engem Zusammenhang mit den massiven gesellschaftlichen Umbrüchen dieser Zeit und markiert gemeinsam mit den Beats auch die beginnende Entwicklung der Popkultur. Zum Rock ’n’ Roll zählte als kurzlebiger Trend der „Twist“ Anfang der 1960er Jahre, der von der Beatmusik der Beatles und Anderer abgelöst wurde, die dieses Jahrzehnt bestimmte. Schließlich folgten die unter der Begriffsabspaltung „Rock“ zusammengefassten Musikstile. Rock ’n’ Roll und nachfolgende Stile haben seitdem vorangehende Stile wie Entertainer und Schlager in der Popularität stark zurückgedrängt und bestimmen die Popmusik-Hitparaden. Seit der Kommerzialisierung des Rock ’n’ Roll (und somit auch der Abschwächung seines widerständigen Potentials) in den späten 1950er Jahren wurden Trends der Popmusik in Europa, aber auch der restlichen Welt nicht nur aus ästhetischen, sondern auch ökonomischen Gründen von den USA aus geprägt. Funktionen der modernen Popmusik und Zukunft. Seit den 1960er Jahren entwickelten sich unzählige neue Stile und Unterstile der Popmusik. Die Funktion der Stile besteht vor allem im "Unterhaltungsaspekt". Trotzdem gelang es aber auch Musikern wie Bob Dylan, Anfang der 1960er Jahre, eine populäre Synthese aus Musik und politischen Inhalten zu schaffen und wie zum Beispiel John Lennon in seinem Lied" Imagine" eine philosophische Idee zu verbreiten. Mit dem Lied "Houses Burning Down" verarbeitete Jimi Hendrix 1968 aktuelles politisches und gesellschaftliches Zeitgeschehen. Das Lied handelt vom Watts-Aufruhr. Beispiele für die Kommerzialisierung neuer Trends. Popmusik war und ist auch stets ein Ausdrucksmittel einer Generation oder eines Milieus und dient zur Vermittlung eines gemeinschaftlichen Lebensgefühls und einer gemeinsamen Ästhetik, die sich z. B. in der Form der Musik und in der Kleidung ausdrückt. Als Beispiel für einen Milieu-Stil sei hier der Rap genannt, der ursprünglich nur die Musik der schwarzen Jugendlichen in den amerikanischen Großstadt-Ghettos war und dessen Wurzeln bis zum Rhythm & Blues zurückreichen. Erst seit etwa 1990 wurde der Rap von den stets nach neuen Trends suchenden Medienkonzernen zum global populären Musikstil „hochpromotet“, wobei diese Entwicklung nicht nur auf die Musik beschränkt blieb, denn auch der Kleidungsstil der Hip-Hop-Bewegung wurde in den 1990ern zum allgemeinen Modetrend und ist heute fast schon fester Bestandteil unseres Modebewusstseins. Als Beispiele für Generationen erfassende Stile seien hier die Flower-Power-Bewegung und die Disco-Musik der 1970er genannt. Allerdings unterstützen die Musikproduzenten mittlerweile nicht nur Massenbewegungen, sondern auch zwar global verbreitete, aber im Gegensatz zur Musik einer Britney Spears oder Madonna nur von einer kleineren Zielgruppe in kulturellen Nischen nachgefragte Musikstile wie z. B. den Gothic Rock. Dies resultiert aus dem enorm harten Wettbewerb unter den Produzenten, der diese geradezu dazu zwingt, jeden irgendwie Absatz versprechenden Trend auszunutzen oder gar selbst neue, „unverbrauchte“ Trends zu schaffen. Im Gegensatz dazu ist bei einer anderen Funktion, die die populäre Musik seit je her abdeckt, der individuelle Zuschnitt überhaupt nicht gefragt, sondern hauptsächlich der Rhythmus und die Genussbefriedigung der breiten Masse, Mainstream. Ziel ist hier kein differenzierter ästhetischer Anspruch, sondern die Anregung und Begleitung zum Tanzen. Die bekanntesten Nachfolger des Swing als Tanzmusik dürften, neben dem Twist der frühen 1960er, vor allem die Disco-Musik, die seit Mitte der 1970er zum großen Teil ihren Underground-Charakter verloren hatte und Teile des später populären Techno sein. Anfang der 1980er Jahre erlebt die deutschsprachige Popmusik im Zuge der Neuen Deutschen Welle einen großen Aufschwung in Deutschland. In Österreich existierte der Austropop, der sich großer Beliebtheit erfreute. Film und populäre Musik. Im Zusammenhang mit der Disco-Musik wird außerdem der Aspekt der Wechselbeziehung zwischen Film und Musik noch einmal interessant, da in der Rock ’n’ Roll-Ära die Musikfilme noch eher die Folge des bereits populären Stils waren, während die Disco-Musik ihren weltweiten Siegeszug infolge des Films "Saturday Night Fever" 1978 antrat. Nicht zuletzt durch diesen Film und seine Nachfolger wurde der Trend verstärkt, zur Musik auch Bilder zu liefern (Musik und dazugehörige Bilder gab es bereits seit den Nickelodeons). Das bedeutendste Datum in diesem Zusammenhang ist der 1. August 1981, als in den USA der erste Spartenfernsehkanal nur für Musikvideos auf Sendung ging: MTV. Ab sofort wurde kaum ein Popmusiker zum Star, zu dessen Songs es nicht ein Video gab. Entsprechend bedingen sich der größte Popstar und der größte Videokünstler der 1980er jeweils gegenseitig – Michael Jackson. Dabei sind die Videos keineswegs notwendige Bestandteile der Popmusik – sie kommt auch ohne sie aus – sondern vielmehr so etwas wie Werbespots, die mit möglichst intensiven, ungewöhnlichen oder spektakulären Bildern auf den Künstler und sein Produkt aufmerksam machen sollen. Ausblick. Auch wenn man den Eindruck gewinnen könnte, die Popmusik stagniere langsam aber sicher in ihrer Entwicklung, so bahnen sich doch im Zusammenhang mit dem Fortschritt der Kommunikations- und Computertechnologie bedeutende Veränderungen für die Zukunft an. So wie die Entwicklung der elektronischen Verstärkung und Nachbearbeitung, des Synthesizers, der digitalen Aufnahme usw. den Klang der Musik veränderte, so werden sicherlich auch die neuen Verbreitungsmöglichkeiten durch das Internet die gegenwärtige Form der Musikproduktion entscheidend verändern. Die seit um 1900 bekannten Singles und die später hinzugekommenen Alben könnten bald Geschichte sein, da weniger Kunden Geld für einen Datenträger ausgeben, auf dem nur die Musik einzelner Interpreten gespeichert ist, wenn einzelne interessante Stücke einfach kostenlos über Filesharing wie Peer-to-Peer-Netzwerke oder gegen Entgelt bei kommerziellen Anbietern aus dem Internet heruntergeladen werden können. Angesichts der schier unglaublichen Fülle an Musiktiteln im Netz gewinnt auch die Möglichkeit, Musikstücke zu konsumieren, ohne sie dauerhaft auf dem eigenen Rechner zu speichern, an Bedeutung. Popmusik und Politik. Politische Inhalte haben in der Popmusik eine lange Tradition. Neben den Themen Liebe, Sex und Partnerschaft waren auch soziale und politische Motive immer schon, wenn auch mit unterschiedlicher Intensität, unterschiedlichem künstlerischem Gehalt sowie aus unterschiedlichsten Gründen in der Populärmusik vertreten. Allgemein wird aber der Wirkungsgrad politisch motivierter Musik von Seiten der Medien und der Wissenschaft gerne unterschätzt. Tatsächlich aber zählt die politische Popmusik zu einem der bedeutendsten Bereiche im Rahmen der Unterhaltungsmusik, von dem eine klare ästhetische Wirkung ausgeht. Dabei darf man nicht den Begriff der politischen Ästhetik mit der ästhetischen Wirkung politisch orientierter Popmusik verwechseln, wenngleich in beiden Bereichen oft mit ähnlichen Mitteln operiert wird. Sowohl in der politischen Ästhetik wie auch im Bereich der Ästhetik politisch orientierter Popmusik wird mit den Mitteln der Reklametechnik und der Suggestion gearbeitet. Beide ästhetische Formen sind auf Massenwirkung bedacht, mit dem Ziel, eine emotionale Identifikation der angesprochenen Massen mit den Inhalten der Politiker und Musiker aufzubauen. Freilich unterscheiden sich die Ziele gewaltig. Während die Politiker trachten, mit den Mitteln der Ästhetik einerseits die Ehrfurcht der Bürger zu erwecken und zu festigen, und andererseits eine Bereitschaft zur Unterstützung einer Partei oder einer Person hervorrufen wollen, steht bei der politisch motivierten Popmusik häufig die Selbstdarstellung der Künstler im Vordergrund. Die Musiker verkünden zwar eine Botschaft, deren Inhalte aber zumeist sekundär sind; entscheidend ist der von ihr ausgehende Mythos. Die Popmusik folgt dabei exakt den Strukturen der Mythen des Alltags, indem sie immer auf schon Vorhandenes, Bekanntes zurückgreift. Sie ist damit niemals authentisch, sondern plagiatorisch. Die Popmusik hat daher immer Anleihen bei anderen Musikstilen gemacht. „Die Popmusik benutzt die Aura authentischer Musikformen, um mit ihnen eine ganz andere Aussage zu verschlüsseln. Das Gleiche gilt für die Texte. Sie sind latent poetisch, aber selten authentisch poetisch, sie sind latent ideologisch, aber selten offen ideologisch, sie sind latent politisch, aber nie wirklich politisch, sie sind latent gesellschaftskritisch, jedoch niemals der Sache auf den Grund gehend.“ Genau dieser Umstand aber wird von Musikwissenschaftlern und Journalisten heftig kritisiert. Dabei werden offensichtlich die Voraussetzungen für die Entstehung von Popmusik vergessen. Die Musiker trachten, mit ihrer Musik ein möglichst großes Publikumsinteresse zu wecken. Dies kann allerdings nur gelingen, indem das Publikum nicht vor vollendete Tatsachen gestellt wird. Die Musik soll die Fantasie der Rezipienten anregen, Aussagen mit uneingeschränktem Wahrheitscharakter würden das Publikum bald langweilen. Diese Vorgangsweise bedeutet nicht, dass politische Inhalte dabei auf der Strecke bleiben müssen, sondern lediglich, dass die Musiker trachten, dem Publikum einen Spielraum zur Interpretation der ausgehenden Botschaften einzuräumen. Die Vertreter der Popmusik können sehr wohl systemkritisch agieren, würden sie jedoch systemzerstörend agieren, dann würden sie sich ihre eigene (Erwerbs-)Grundlage entziehen. Die Grenzen der Popmusik in diesem Bereich sind also klar abgesteckt; auch wenn die Musiker sich noch so respektlos dem Establishment gegenüber verhalten, so wissen sie doch, dass sie Teil desselben sind. Obwohl dieser Umstand die künstlerische Freiheit einzuengen scheint, agieren politische Popgruppen sehr erfolgreich in der internationalen Musikszene. Im Idealfall gelingt den Vertretern der Popmusik nämlich die Erziehung des Publikums zu politischem Bewusstsein, ohne gleichzeitig Lösungen von musikalisch behandelten politischen Themen präsentieren zu müssen. Würden die Musiker tatsächlich immer Lösungen präsentieren, wären sie schon bald keine Musiker mehr, sondern vielmehr im Bereich der (Partei-)Politik wiederzufinden. Bono, Sänger der irischen Popgruppe U2, tätigte in diesem Zusammenhang einen Ausspruch, der wie kein anderer die heillose Überforderung der Musiker an der übertriebenen Erwartungshaltung des Publikums wie der Medien aufzeigt: „Es ist verdammt gefährlich, pausenlos als Sprachrohr einer Generation hingestellt zu werden, wenn man nichts anderes zu sagen hat als 'Hilfe!' Aber mehr sagen wir mit unserer Musik nicht. Fragt uns nicht pausenlos nach Antworten, wir können sie euch nicht geben. Alles was wir tun können, ist, die richtigen Fragen zu stellen!“ Die Frage ist demnach nicht wie politisch die Populärmusik ist, sondern ob sie politisch ist, und ob sie überhaupt ein geeignetes Medium zur Verbreitung politischer Inhalte darstellt. Letzteres kann wohl eindeutig bejaht werden, liegt doch die Stärke der Popsongs gerade in ihrer Kommunikabilität. „Songs can communicate even to those who can't read and write and, at their best, can inspire, console, dodge round censors and frontiers, summarize a political mood, or as that most political star of the salsa world, RUBEN BLADES, put it, 'tell people they are not alone'.“ Die Musiker erkannten schon recht bald, dass sie dadurch zu einer privilegierten Bevölkerungsschicht gehörten; mit ihrer Arbeit konnten sie relativ einfach eine große Zahl von Menschen erreichen. Es war ihnen aufgrund ihrer Popularität daher möglich, einen großen Einfluss auf politische wie gesellschaftliche Entscheidungen auszuüben. Es ist nicht überraschend, dass sich die Musiker in den Anfängen der Popmusik hauptsächlich mit Problemen ihres näheren sozialen Umfelds beschäftigten. Da die Popmusik häufig von jungen Künstlern gemacht wurde, ging die Entwicklung der politischen Popmusik auch mit der Entwicklung der politischen Jugendbewegungen einher. Ihren Ursprung hatte die politische Popmusik daher auch in den 1960er Jahren mit dem Aufkommen der Flowerpower-Bewegung. Doch schon zuvor waren Sänger wie Woody Guthrie oder Pete Seeger durch ihre kritische Hinterfragung der modernen Gesellschaftsform maßgeblich an der Entstehung des Political Pop beteiligt. Ihr bekanntester Protagonist aber war Bob Dylan, der Erneuerer des Protestsongs. Mit den Erfolgen von Sängern wie Woody Guthrie, Bob Dylan und eben Pete Seeger, die sich neben dem Thema Krieg auch mit Fragen der Menschenrechte, der Umweltpolitik, der Kernenergie und der Rassentrennung auseinandersetzten, etablierten sich politische Anliegen in der Popmusik zusehends. Interessant an dieser Entwicklung ist, dass die politisch orientierten Musiker und Bands und ihre Botschaften bis heute allgemein dem linken politischen Lager zugerechnet werden. Tatsächlich haben die politischen Anliegen der Pioniere des Polit-Pop, wie etwa die Bekämpfung der Arbeitslosigkeit und Aufhebung der Klassenschranken, bis heute nicht ihre Bedeutung verloren. Gerade in Großbritannien stoßen diese Themen beim Publikum noch immer auf große Gegenliebe. Bands wie Simple Minds oder U2 sowie Musiker wie Sting und Peter Gabriel haben nicht zuletzt aus diesem Grund großen Anklang beim Publikum gefunden. Trotz der wachsenden Zahl politisch interessierter Musiker wurde der Wirkungsgrad, den die politische Popmusik beim Publikum erreichen konnte, konsequent unterschätzt. In Politikerkreisen wollte man noch bis in die 1980er Jahre den engagierten Arbeiten der Musiker keine realpolitischen Auswirkungen zugestehen. Dabei gab es schon damals wahrlich genug Beispiele für politische Änderungen, die durch Popmusiker hervorgerufen wurden. 1982 etwa legte Stevie Wonder anlässlich einer politischen Demonstration vor über 50.000 Menschen in Washington mit seiner Ansprache den Grundstein für die Einrichtung des sogenannten Martin-Luther-King-Feiertages in Amerika, als er meinte: „… we need a day to celebrate our work on an unfinished symphony, a day for a dress rehearsal for our solidarity.“ Obwohl dieser Feiertag, der erste in den USA überhaupt, der einem Schwarzen gewidmet war, nicht seine Idee war, war es die Popularität Stevie Wonders, der Politiker wie Reverend Jesse Jackson und John Conyers die Durchsetzung dieses Anliegens zu verdanken hatten. Gerade die schwarzen US-Musiker gaben dem Begriff des politischen Pop eine neue Bedeutung. „The tradition had grown up in the days of slavery, when the blues and gospel provided one uncontrollable outlet for black expression. No one could stop the music in the fields or in the churches, and black America's preachers haven't forgotten what a powerfull medium a song can be; …. 'Songs', said Reverend Cecil Franklin, 'have the advantage of being packaged and wrepped in universal appeal. Songs are not limited by natural or human boundaries.'“ Diese alte Tradition politischer Inhalte in der Musik schwarzer Amerikaner findet heute in der Stilrichtung Rap seine Fortsetzung. Rap-Musik stellt heute eine der wichtigsten Formen politischer Artikulation der schwarzen Bevölkerung in den USA dar. Ein anderes Beispiel, welch ungeheure Auswirkungen die Arbeiten von Popmusikern auf politischer Ebene haben können, ist zweifellos das Lebenswerk von Bob Marley. Nicht nur, dass es mit der Person Bob Marley zum ersten Mal ein Musiker aus einem Land der Dritten Welt schaffte, sich in der Liga der westlichen Superstars zu etablieren, viele seiner Songs wurden auch zum Symbol einer zukunftsträchtigen politischen Vision. In Großbritannien inspirierte Bob Marley mit seiner Reggae-Musik die Rock-Against-Racism (RAR)- Bewegung, die bis heute als Forum für politische Anliegen musikinteressierter Jugendlicher sehr erfolgreich agiert. Die Stilrichtung der Reggae-Musik fand überhaupt, nicht zuletzt aufgrund ihres bekanntesten Vertreters Bob Marley, in England großen Anklang. Bands wie etwa UB40 oder The Police beschäftigten sich in vielen ihrer Songs mit dieser Stilrichtung. Wenngleich auch der Reggae in der weißen Popmusik immer mehr von der Stilrichtung zum Stilmittel wurde, besteht durch die Verbreitung dieses Musikstils durch weiße Musiker dennoch die Hoffnung, dass der ursprüngliche politische Charakter dieser Musik nicht zu schnell in Vergessenheit gerät. Am 13. Juli 1985 wurde das bis dahin größte Popfestival der Geschichte veranstaltet. Live Aid war ein Benefizkonzert, das durch den Musiker Bob Geldof organisiert wurde, nachdem er einen Fernsehfilm über die hungernde Bevölkerung Äthiopiens gesehen hatte. Nachdem Bob Geldof den Sänger der Band Ultravox, Midge Ure, für die Idee gewinnen konnte, bekundeten immer mehr Musikstars ihr Interesse an diesem Ereignis. Letztlich waren beinahe alle relevanten Popmusiker dieser Zeit bei Live Aid vertreten. Zugunsten der Hilfe für die Menschen verzichteten alle Beteiligten auf ein Honorar. Bis Mitte 1987 hatte das Ereignis etwa 60 Millionen englische Pfund eingebracht. 1988 kam es allerdings mit der Abhaltung des bis heute größten Live-Ereignisses, dem „A Tribute To Nelson Mandela“-Konzert, zu einem der bedeutendsten politischen Manifestationen in der Geschichte der Popmusik. „The Nelson Mandela Seventieth Birthday Tribute was like a more political version of Live Aid, with the aim of raising awareness rather than just money.“ Songs wie "Mandela Day" von den Simple Minds, "Brothers in Arms" von den Dire Straits, Tracy Chapmans "Talkin' 'Bout a Revolution" oder Peter Gabriels "Biko" wurden zum Symbol des neuen politischen Verständnisses unter den jugendlichen Hörern. Nach den Erfolgen von Live Aid und A Tribute To Nelson Mandela kam es in der Folge zu einer beinahe inflationären Zahl ähnlicher Ereignisse, sodass sich bald eine große Zahl bekannter Stars gegen eine Überstrapazierung dieser Idee starkmachte, um zu vermeiden, dass die politische Botschaft solcher Veranstaltungen zugunsten individueller Promotioninteressen einiger aufstrebender Talente in den Hintergrund geraten könnte. Nicht zuletzt hatte auch die Industrie die Werbewirksamkeit dieser Großveranstaltungen entdeckt, was Ende der 1980er Jahre viele bekannte Musikgrößen davor abschreckte, weiter bedenkenlos an jedem dieser Benefizkonzerte teilzunehmen. Als Zeichen politischen Widerstands behielt das Popkonzert jedoch seine ernstzunehmende Bedeutung. Im Falle des „A Tribute To Nelson Mandela“-Konzerts war es vielleicht sogar noch mehr, denn 20 Monate nach dem Konzert wurde Nelson Mandela aus der Haft entlassen. Das Konzert hatte auf diese Entscheidung zweifelsohne einen nicht unerheblichen Einfluss, signalisierte es doch der Regierung von Südafrika unmissverständlich die Abscheu der gesamten (Pop-)Welt vor der Unmenschlichkeit der Apartheid-Politik. Atomkraftwerkspolitik, Umweltzerstörung sowie die steigende Drogenproblematik sind die neueren Themen des politischen Pops. Themen wie etwa die Drogenproblematik beschäftigen die Musiker heute wahrscheinlich aus zweierlei Gründen besonders. Einerseits weil gerade ihre Branche damit besonders konfrontiert ist, andererseits weil sich ihre jugendliche Hörerschaft aus betroffenen Kreisen rekrutiert. Im Laufe der Entwicklung des politischen Pop kam es auch immer wieder zu Missverständnissen und Vereinnahmungen der Musiker von Seiten einiger politischer Repräsentanten. Ein gutes Beispiel dafür ist die irische Band U2, die nur allzu oft mit der Irisch Republikanischen Armee (IRA) in Verbindung gebracht wurde. Dies nicht zuletzt aufgrund der Tatsache, dass Repräsentanten der IRA immer wieder auf die geistige Nähe einiger U2-Texte zu den Ideen der terroristischen Organisation hinwiesen. Konkreter Anlass für solche Spekulationen war der Song "Sunday Bloody Sunday", dessen Text die IRA-Mitglieder als Aufruf zum Widerstand gegen die englischen Besatzer in Nordirland missverstanden. Die Mitglieder der Band bestritten dies mehrmals öffentlich, als die Gerüchte aber nicht verstummen wollten, hielt Bono während eines Konzertes in den USA quasi als Einleitung zu dem Song fest: „People come up to me and talk about the resistance, the revolution, the glory of the revolution and the glory of dying for the revolution back home. Nobody talks about the glory of killing for the revolution. Where is the glory in bombing members of a state parade and leave them dying and crippled for life, where is the glory in that?“ Damit machte die Band endgültig klar, dass sie nicht für den bewaffneten Widerstand, sondern vielmehr gegen jede gewalttätige Konfliktlösung waren. Auch Bruce Springsteen blieb von einer solchen Vereinnahmung nicht verschont. Sein Hit "Born in the U.S.A.", der eigentlich eine kritische Position bezüglich der Rolle Amerikas im Vietnam-Konflikt einnehmen sollte, wurde von den Leuten einfach zu einer amerikanischen Hymne hochstilisiert. Springsteen fühlte sich völlig missverstanden, als sein Song zum musikalischen Symbol der Reagan-Ära gemacht wurde, erachtete er doch selbst den Text als eindeutig. Nach den allgemeinen Gründen für das politische Engagement von Popmusikern befragt, meinte Jim Kerr, Sänger der schottischen Band Simple Minds: „Wir Musiker haben durch unsere Popularität eine Menge Spielraum für die Artikulation unserer Gedanken, es wäre eine Schande, eine solche Gelegenheit nicht zu nutzen.“ Verwandte Genres. Musik, die sich aus rein kommerziellen Gesichtspunkten heraus aus den Genres der populären Musik eklektisch bedient (vor allem Blasmusik, populäre Klassik und Musical) und dies mit Volkstümlichen Schlagern anreichert, nennt man volkstümliche Musik. Die Pyramide (Fernsehsendung). Die Pyramide ist eine Quizsendung, die vom 16. März 1979 bis zum Oktober 1994 im ZDF ausgestrahlt wurde. Der Moderator war Dieter Thomas Heck, und die Titelmusik "(Die Pyramide)" der deutschen Show stammt von Gershon Kingsley. 2012 wurde im ZDF eine Neuauflage der Sendung ausgestrahlt. Geschichte. Die deutsche Version basiert auf der US-amerikanischen Spielshow "The $10,000 Pyramid", die von Bob Stewart entwickelt wurde, der auch das Konzept von "Der Preis ist heiß" und "Sag die Wahrheit" entwickelte. Die Sendung wurde 1973 zunächst von CBS ausgestrahlt, aber erst bei ABC zum Quotenerfolg. Auf verschiedenen Sendern wird die Quizshow, die im Laufe der Jahre als "The $25,000 Pyramid", "The $50,000 Pyramid" und "The $100,000 Pyramid" Erfolg hatte, in den USA bis heute ausgestrahlt. Von 1996 bis 1999 lief bei dem deutschen Privatsender Sat.1 die Spielshow "Hast Du Worte" nach dem gleichen Spielprinzip. Die Sendung wurde anfangs von Jörg Pilawa und später von Thomas Koschwitz moderiert. Im August 2012 startete die Neuauflage von "Die Pyramide", zunächst im Vorabendprogramm von ZDFneo, später auch im Nachmittagsprogramm des ZDF. Aufzeichnung und Ausstrahlung. Jede Staffel wurde meist einige Monate vor der Ausstrahlung im Fernsehstudio München (FSM) in Unterföhring aufgezeichnet. So wurde z. B. mit den prominenten Kandidaten Heidi Brühl und Reinhard Mey (auch Musikauftritt) eine 45-minütige Pilotfolge produziert, die aber erstmals am 3. April 2012 auf ZDFkultur ausgestrahlt wurde. Die Sendung wurde in unregelmäßigen Abständen, manchmal aber auch im wöchentlichen Rhythmus, an verschiedenen Wochentagen ausgestrahlt. Regeln. Ziels des Spiels, das über mehrere Runden geht, ist, dass sich zwei Kandidaten in dreißig Sekunden sechs Begriffe auf verschiedene Art und Weise (Pantomime, Begriffsumschreibungen) erklären müssen, ohne Teile des Begriffs selbst zu verwenden. In der ZDF-Ausgabe wurden zwei Teams aus jeweils einem Prominenten und einem Zuschauerkandidaten gebildet. Gespielt wurden pro Sendung insgesamt drei Pyramiden-Runden. Es wurden zunächst zwischen beiden Kandidatenpaaren jeweils drei Vorrunden abwechselnd gespielt, bei denen die Hände für Gestiken benutzt werden durften. Es standen allerdings auch nur 30 Sekunden Zeit zur Verfügung, um sechs Begriffe zu erraten. Wurde bei einem der Begriffe gegen die Vorschrift, keine Bestandteile des Lösungswortes zu verraten, verstoßen, schied der Begriff aus; die Runde lief jedoch weiter bis zum zeitlichen Ende, wenn noch zu ratende Begriffe vorhanden waren. Schaffte es das Kandidatenpaar, alle sechs Begriffe einer Vorrunde korrekt zu erraten, gab es 200 DM extra. Das Kandidatenpaar, welches die meisten Begriffe in den drei Vorrunden erriet, konnte schließlich um die entsprechende Pyramide spielen. Bei Gleichstand wurde eine Stichfrage gestellt. Schließlich wurde die Spielhälfte der siegreichen Kandidaten der Vorrunde in die Mitte des Feldes geschoben, eine Pyramidenanimation erschien und innerhalb 60 Sekunden mussten Oberbegriffe erraten werden. Die Pyramiden, um die gespielt wurde, waren dabei unterschiedlich dotiert: die erste Pyramide mit 500 DM, die zweite mit 1000 DM und die dritte mit 1500 DM. Die zu erratenden Begriffe waren dabei auch nicht mit stets gleichen sondern mit steigenden DM-Beträgen gewertet: 50 DM für die ersten drei, 100 DM für die nächsten zwei, 150 DM für den letzten Begriff (insgesamt 500 DM) in der ersten Pyramide; analog dreimal 100 DM, zweimal 200 DM, einmal 300 DM (insgesamt 1000 DM) in der zweiten Pyramide; und dito dreimal 150 DM, zweimal 300 DM, einmal 450 DM (insgesamt 1500 DM) in der dritten Pyramide. In der Pyramidenrunde waren Gestiken jedoch fast gar nicht möglich, da der Hinweisgeber seine Hände in zwei Schlaufen stecken musste. Fatal bei dieser Runde: wenn gegen die bereits erwähnte Regel bei Umschreibungen verstoßen wurde, war die Runde sofort zu Ende und nicht erst nach 60 Sekunden. In strittigen Situationen (meist einmal pro Sendung) schaltete sich der Oberschiedsrichter und Münchner Rechtsanwalt Josef Heindl über Telefon ein. In der „Halbzeit“ kam ein Musiktitel, welcher hauptsächlich grob in die Kategorie Schlager einzuordnen war und zumeist auf Deutsch gesungen wurde. Gewinne. Die Gewinne der Prominenten wurden drei Sendungen lang gesammelt und dann für einen guten Zweck gespendet (der jeweilige Fall wurde von Heck kurz geschildert, jedoch die betroffene Person namentlich nicht erwähnt). Die Zuschauerkandidaten durften ihr Geld behalten. Anmerkungen. Umschreibung der ZDF-Prominenten: „Das gab’s bei uns nicht, aber das gab’s in der DDR und gibt’s jetzt auch nicht mehr …“ – (richtige) Antwort: „Staatssicherheit“. Hier wurde dann auch wieder scheinbar Herr Heindl ins Spiel gebracht, im Gegensatz zu sonstigen Ausgaben der „Pyramide“ war seine Stimme nicht zu vernehmen. Dieter Thomas Heck begrüßte ihn diesmal mit den Worten "„Herr Heindl, wie haben Sie es denn geschafft, hier durchzukommen?“" – als Anspielung auf das seinerzeit marode Telefonnetz der DDR. Das ständige Wortduell der beiden vermeintlichen Streithähne wurde zum festen Bestandteil der Show. Da jedoch niemand Herrn Heindl sehen konnte, da dieser ja in einem Büro im Studio saß und immer nur über das rote Telefon zu hören war, wurde ein Preisausschreiben zu wohltätigen Zwecken veranstaltet, bei dem Kinder versuchen sollten, Herrn Heindl so zu malen, wie sie ihn sich vorstellen. Hierbei kam es zu tausenden von Einsendungen. In der folgenden Show kam dann Herr Heindl auf die Bühne und verkündete selbst den Gewinner. Brettspiel. Heute gibt es einige Gesellschaftsspiele (Brett- und Kartenspiele), die diesem Vorbild folgen, beispielsweise Activity. Liste der ZDF-Ausstrahlungen. Quelle: u. a. Archiv des Hamburger Abendblatts, Online-Archiv der Wiener Arbeiter-Zeitung, ZDF-Programmservice Neuauflage: Die Pyramide (ZDF / ZDFneo, 2012). Eine Neuauflage der Show, die seit 2012 produziert wurde, moderierte Micky Beisenherz. Joachim Llambi bekleidete die Position des Schiedsrichters, der, im Gegensatz zum Original, in der Neuauflage öffentlich zu sehen war. Es wurden nur noch zwei Vorrunden und zwei Pyramiden gespielt, wobei die erste mit 5.000 Euro und die zweite mit 10.000 Euro dotiert war. Die Sendung lief zwecks Resonanz- und Quotentest bereits seit dem 6. August 2012 wochentags um 18:45 Uhr als werbefreie Vorabausstrahlung auf dem digitalen Spartenkanal zdf neo. Seit dem 27. August 2012 wurde sie regulär um 16:15 Uhr im ZDF ausgestrahlt und dort einmal durch einen kurzen Werbeblock und Programmhinweise unterbrochen. Wegen zu schwacher Quoten wurde die Sendung ab dem 17. September 2012 ins Nachtprogramm verlegt und inzwischen eingestellt. Gemeinfreiheit. Die verschiedenen Formen der Immaterialgüterrechte; der Raum außerhalb entspricht der Gemeinfreiheit. Der Gemeinfreiheit unterliegen alle geistigen Schöpfungen, an denen keine Immaterialgüterrechte, insbesondere kein Urheberrecht, bestehen. Die im anglo-amerikanischen Raum anzutreffende Public Domain (PD) ist ähnlich, aber nicht identisch mit der europäischen Gemeinfreiheit. Nach dem Schutzlandprinzip bestimmt sich die Gemeinfreiheit immer nach der jeweiligen nationalen Rechtsordnung, in der eine Nutzung vorgenommen wird. Gemeinfreie Güter können von jedermann ohne eine Genehmigung oder Zahlungsverpflichtung zu jedem beliebigen Zweck verwendet werden. Wer Immaterialgüterrechte geltend macht (Schutzrechtsberühmung), obwohl das Gut in Wahrheit gemeinfrei ist, kann Gegenansprüche des zu Unrecht in Anspruch Genommenen auslösen. Der Begriff der Gemeinfreiheit wird vor allem in Bezug auf Urheberrechte benutzt, in Bezug auf andere Immaterialgüterrechte sind Begriffe wie "Freihaltebedürfnis" im Markenrecht oder "Freier Stand der Technik" und "naheliegende Weiterentwicklung" im Patentrecht üblich. Im gewerblichen Feld wird auch von "Wettbewerbsfreiheit" gesprochen. Sie fallen alle unter die Gemeinfreiheit im weiteren Sinne. Struktur. Die Gemeinfreiheit ist die Grundnorm allen Wissens und aller geistigen Schöpfungen. Von der Nutzung gemeinfreier Güter kann niemand ausgeschlossen werden, die Nutzung durch eine Person verhindert nicht, dass andere dasselbe gemeinfreie Gut nutzen: Sie ist nicht exklusiv und nicht rivalisierend. Verschiedene Bereiche wirken in der Gemeinfreiheit zusammen: Ökonomisch sind gemeinfreie Güter nicht knapp und da die Nutzung nicht-rivalisierend ist, ergeben sich auch bei intensivem Zugriff auf gemeinfreie Güter positive Externalitäten. Demokratische, rechtsstaatliche Funktionen zeigen sich bei Amtlichen Werken. Diese müssen gemeinfrei sein und eine möglichst weite Verbreitung anstreben, da ihre Kenntnis Voraussetzung für das Funktionieren der Gesellschaft und des Staates ist. Kulturell ist Gemeinfreiheit im Bereich Bildung und Wissenschaft angelegt, Ideen und Wissen können nicht geschützt und damit monopolisiert werden. Eine Weiterentwicklung der Wissenschaft setzt den Zugang zum aktuellen Stand voraus. In der Kunst ist der kulturelle Grundbestand der nicht mehr geschützten Werke das gemeinschaftliche kulturelle Erbe der Menschheit. Daraus, aber auch aus Reflexionen und Kritik ergibt sich die Inspiration für neue Werke. Die Gemeinfreiheit, als Abwesenheit von Immaterialgüterrechten, ist ein Feld des offenen Wettbewerbs. Reto M. Hilty stellt fest, dass dieser Kreativität und Wachstum fördert. Der Eingriff in den Wettbewerb mit einem Monopolrecht muss daher immer begründet werden und kann keinesfalls Selbstzweck sein. Die plakative These „Mehr Schutz = mehr Kreativität“ weist er ausdrücklich zurück. Gemeinfreiheit ist Ausdruck der allgemeinen Handlungsfreiheit und kann nur durch gesetzliche Regelungen beschränkt werden. Die Immaterialgüterrechte sind solche gesetzlichen Regelungen. Die herrschende Meinung sieht einen Gleichrang von Gemeinfreiheit und Immaterialgüterrechten und strebt daher ein ausgewogenes Verhältnis zwischen beiden an. Rechtsdogmatisch wird dagegen das Regel-Ausnahme-Verhältnis vorgebracht, nach dem die Gemeinfreiheit Vorrang genießt, „die erstmalige Gewährung von Immaterialgüterrechten ist rechtfertigungbedürftig.“ In konkreten Anwendungsbereichen können auch Schranken des Urheberrechts die Wirkung der Gemeinfreiheit entfalten. Strukturelle Gemeinfreiheit. Das Urheberrecht und andere Immaterialgüterrechte schützt nur Werke, nicht jedoch jede geistige Schöpfung. Voraussetzungen sind zum einen, dass die Schöpfung in einer konkreten Form verkörpert ist, also über eine Idee hinausgeht, und auch nur diese Form geschützt ist, und zum anderen ist eine gewisse Schwelle an Individualität oder Originalität erforderlich, da ein Sockel aus Basiswissen, Gestaltungsprinzipien und einfachen Leistungen für jedermann zur Verfügung stehen muss. Auch kleine, naheliegende Innovationen sind als routinemäßige Weiterentwicklungen nicht schutzfähig. Derartige Schöpfungen und Leistungen unterliegen direkt der Gemeinfreiheit. Gemeinfreiheit durch Zeitablauf. Alle Immaterialgüterrechte, die als Schutz von Innovationen angelegt sind, haben nur eine begrenzte Laufzeit. Die Dauer des Schutzes unterscheidet sich nach den verschiedenen Schutzarten und richtet sich nach deren Regelungen. Eine Leistung wird nach der Regelschutzfrist mit Ablauf des Schutzes gemeinfrei. Dabei ist jedoch an Urheberpersönlichkeitsrechte zu denken, die etwa im französischen Urheberrecht als ewiges "droit moral" dauerhaft fortbestehen. Eine Ausnahme sind Marken, die unbegrenzt verlängert werden können, solange sie im Markt benutzt werden. Entlassung in die Gemeinfreiheit. Auf die Mehrzahl der Immaterialgüterrechte kann nach Belieben des Schöpfers verzichtet werden. Patente müssen ausdrücklich angemeldet werden, Designs eingetragen. Bei Leistungen, die in einem Arbeitsverhältnis erbracht werden, sind jedoch gegebenenfalls die Regelungen des Arbeitnehmererfindungsgesetzes zu prüfen. Nach deutschem und österreichischem Recht ist umstritten, ob ein Totalverzicht auf das Urheberrecht zugunsten der Allgemeinheit möglich ist. Die wohl herrschende Meinung schließt dies unter Berufung auf UrhG-D bzw. § 19 UrhG-Ö aus. Daher gibt es dort keine Gemeinfreiheit durch Rechteverzicht wie in den USA, wo auf alle Rechte verzichtet werden kann und das Public-Domain-Werk den gleichen Status besitzt wie ein noch nie oder nicht mehr geschütztes Werk. Problematisch ist diese Position insbesondere mit Blick auf Verwaiste Werke, die urheberrechtlich geschützt bleiben, aber für eine legalen, lizenzierte Verwendung unzugänglich bleiben. Nach einer anderen Ansicht dient das Verbot des Verzichts auf das Urheberrecht nur dem Schutz des Urhebers vor Ausbeutung bei einer Übertragung von Urheber- und Nutzungsrechten auf einen Dritten. Bei Aufgabe zugunsten der Allgemeinheit gibt es keinen einzelnen Begünstigten und daher auch keine Ausbeutung. Diese Auslegung hält die Entlassung eines Werkes in die Gemeinfreiheit auch nach deutschem Urheberrecht für zulässig und argumentiert unter anderem mit der Gesetzesbegründung bei der Einführung der Linux-Klausel. In jedem Fall ist es möglich, das Werk unter einem solchen Nutzungsrecht zur Verfügung zu stellen, dass es von jedermann frei veränderbar ist - durch eine Freie Lizenz. Zur Kennzeichnung der Freigabe weitest möglicher Nutzungsrechte unter Verzicht auf eine Vergütung wurde von der Organisation Creative Commons die CC Zero-Lizenz erstellt. In den USA wurde Mitte der 2000er Jahre das Public Domain Enhancement Act diskutiert. Nach diesem Vorschlag würde jedes urheberrechtlich geschützte Werk, für welches nach Ablauf von 50 Jahren keine symbolische Gebühr bezahlt wird, unwiderruflich in die Gemeinfreiheit fallen. Dies würde nicht nur das Problem verwaister Werke lösen, sondern auch die Gemeinfreiheit stärken. Schrankenbestimmungen. Die Schranken der Immaterialgüterrechte erlauben die freie Benutzung von ansonsten geschützten Leistungen in einem bestimmten Kontext. Innerhalb dieser Grenzen kann die Leistung genutzt werden, als wäre sie gemeinfrei. So sind Amtliche Werke nach deutschem Recht gemeinfrei; in den Vereinigten Staaten geht diese Regel noch weiter: alle Leistungen von Angehörigen der Bundesregierung, die diese in Ausübung ihres Dienstes erbringen, sind unmittelbar in der "Public Domain". Zu Zwecken der Rechtspflege und öffentlichen Sicherheit können alle urheberrechtlich geschützten Werke in Deutschland verwendet werden. Die Freie Benutzung noch geschützter Werke ist zulässig, wenn die persönlichen Züge des Originalwerkes verblassen und die des neuen Urhebers in den Vordergrund treten. Public Domain. Der Rechtsbegriff "Public Domain" steht im angelsächsischen Common Law für „frei von Urheberrechten“. Die Bedeutung englischer Begriffe wie „Copyright“ und „Public Domain“ kann nicht ohne weiteres auf die deutschen Begriffe „Urheberrecht“ und „Gemeinfreiheit“ übertragen werden. Copyleft. Das rechtliche Prinzip des Copylefts ist nicht vereinbar mit dem der Gemeinfreiheit, da Copyleft auf dem Urheberrecht aufbaut, anstatt wie die Gemeinfreiheit darauf zu verzichten. Die Motivation hinter Copyleft-Lizenzen ist jedoch ähnlich der von gemeinfreien Inhalten, nämlich den Nutzern Freiheiten bezüglich der Weiterverwendung der Werke zu geben, also Kopien und modifizierte Versionen zu gestatten (siehe auch freie Inhalte). Bei gemeinfreien Werken kann eine dritte Person urheberrechtlich geschütztes Material zu dem gemeinfreien Werk hinzufügen, so dass das Gesamtwerk urheberrechtlich geschützt ist und Einschränkungen der Kopien und Bearbeitungen enthalten kann. Die Freiheit der Benutzer, die Inhalte zu modifizieren, kann also durch Änderungen Dritter verlorengehen. Um dies zu verhindern, nutzt Copyleft die Befugnisse des Autors, das Urheberrecht (Copyright), um alle weiteren Autoren eines Werkes dazu zu zwingen, das Werk mit all seinen Änderungen wieder unter die ursprüngliche Lizenz zu stellen. Copyleft hat also aus der Sicht der Verbraucher den Vorteil, dass auch langfristig die Freiheit sichergestellt ist, während die Gemeinfreiheit den Vorteil bietet, auch ohne komplizierte Lizenz-Bedingungen Kopien und modifizierte Versionen zu erlauben. Copyleft-Lizenzen sind zum Beispiel die GNU General Public License, die GNU Free Documentation License oder Creative-Commons-Lizenzen, die den Baustein "Share Alike" (Englisch, "Weitergabe unter gleichen Bedingungen") enthalten. Paul Verhoeven (Niederlande). Paul Verhoeven (* 18. Juli 1938 in Amsterdam, Niederlande) ist ein niederländischer Filmregisseur, Drehbuchautor und Filmproduzent. Leben. Von 1960 bis 1963 drehte Verhoeven vier Kurzfilme. Er studierte an der Universität Leiden und graduierte 1964 in Mathematik und Physik. Während seiner Militärzeit konnte er in der Königlich Niederländischen Marine (Filmdienst der Marineinfanterie) erste Erfahrungen mit Massen- und Schlachtenszenen sammeln. 1968 war die Fernsehserie "Floris von Rosemund" der Anfang seiner erfolgreichen Zusammenarbeit mit Rutger Hauer, die 1985 in unversöhnlichem Streit endete. 1970 begann seine langjährige Zusammenarbeit mit Kameramann Jan de Bont. 1985 zog Verhoeven – enttäuscht von der kritischen Haltung der Öffentlichkeit und der Filmförderung in seiner Heimat – nach Hollywood. Seit Mitte der 1970er Jahre hat er auch mehrmals mit dem deutschen Kameramann Jost Vacano zusammengearbeitet, den er in Hollywood wieder traf und mit dem er Robocop drehte. Ursprünglich wollte Verhoeven abwechselnd mit den beiden Kameramännern arbeiten, dazu kam es allerdings nur einmal, weil de Bont ins Regiefach wechselte. Vacano drehte noch vier weitere Filme mit Verhoeven, bis er sich zur Ruhe setzte. 2005 kehrte Verhoeven nach Europa zurück, um im Studio Babelsberg den Zweite-Weltkrieg-Thriller Black Book mit Carice van Houten und Sebastian Koch zu drehen. Er begründete die Rückkehr und rein europäische Finanzierung der 17-Millionen-Euro-Produktion unter anderem damit, dass er sich so die größtmögliche Entscheidungsfreiheit bewahre. Paul Verhoeven ist seit dem 7. April 1967 mit Martine Tours verheiratet und hat zwei Kinder. Die Filme. Weil viele von Verhoevens Filmen Gewalt und Sexualität thematisieren, sind sie Gegenstand heftiger Auseinandersetzungen unter Filmkritikern beziehungsweise in der Öffentlichkeit. Gewalt wird in Verhoevens Filmen in einer stark überzogenen (RoboCop, Total Recall, Starship Troopers) oder in einer extrem „realistischen“ Weise (Flesh and Blood) dargestellt. Einige seiner Filme lassen sich damit auch als eine Art von Karikatur auf herkömmliche Arten der Gewaltdarstellung verstehen. Sexualität in Verhoevens Filmen wird von Kritikern oft in die Nähe von Pornographie und Obszönität gerückt. Auch lösten seine Filme bei den unterschiedlichsten gesellschaftlichen Gruppen (Frauenverbände, Homosexuelle) heftigste Proteste aus (Türkische Früchte, "Spetters", Basic Instinct). Paradoxon. a>s Nase wächst bekanntlich genau dann, wenn er lügt. Was passiert aber, wenn er sagt „Meine Nase wächst gerade“? Ein Paradoxon (Plural "Paradoxa"; auch "Paradoxum", Plural "Paradoxa", "Paradox", Plural "Paradoxe", oder "Paradoxie", Plural "Paradoxien"; von lateinisch "paradoxon", von aus "para" ‚neben‘, ‚außer‘, ‚daran vorbei‘, in Zusammensetzungen auch ‚wider‘ und "doxa" ‚Meinung‘, ‚Ansicht‘) ist ein Befund, eine Aussage oder Erscheinung, die dem allgemein Erwarteten, der herrschenden Meinung oder ähnlichem auf unerwartete Weise zuwider läuft oder beim üblichen Verständnis der betroffenen Gegenstände bzw. Begriffe zu einem Widerspruch führt. Die Analyse von Paradoxien führt dabei oft zu einem tieferen Verständnis der betreffenden Gegenstände bzw. Begriffe, das den Widerspruch auflöst. Formen des Paradoxons. Gemeinsam ist allen Paradoxa der Widerspruch zwischen dem Behaupteten einerseits und den Erwartungen und Beurteilungen andererseits, die sich aus vertrauten Denkheuristiken, Vorurteilen, Gemeinplätzen, Mehrdeutigkeiten oder begrenzten Perspektiven als alltägliche Meinung ("doxa") ergeben. Auch scheinbare Widersprüche, die sich durch genauere Analyse vollständig auflösen lassen, wirken daher im ersten Moment paradox oder galten im Laufe der Geistesgeschichte als unlösbare Paradoxa oder Aporien. Auflösbare Paradoxien sind wahre Aussagen, deren Untersuchung – beispielsweise im Rahmen eines Gedankenexperiments – zu wichtigen Erkenntnisfortschritten in Wissenschaft, Philosophie und Mathematik führen kann, die für das Alltagsverständnis aber unerwartet oder überraschend sind. Der Widerspruch besteht hier oft nur zwischen der erwarteten und der tatsächlichen Lösung. Ein Beispiel aus der Mathematik ist das Ziegenproblem, das logisch und mathematisch exakt lösbar ist, aber der Erwartung vieler Menschen widerspricht. Paradoxien in politischen Systemen. Bei diesen Paradoxien handelt es sich zum Beispiel um durchaus reale, aber als widersinnig empfundene Folgen eines politischen Systems. Paradoxien in der Physik. Der britische Mathematiker und Physiker Roger Penrose schlug für die Physik die Unterscheidung von Paradoxien von "Puzzles" vor. Bei Puzzles handele es sich um „verblüffende, aber experimentell unmittelbar belegbare Quantenwahrheiten über die Welt, in der wir leben.“ Dazu gehöre unter anderem das sogenannte Einstein-Podolsky-Rosen-Paradoxon, das keinen echten Widerspruch, sondern lediglich eine zwar unanschauliche, aber doch belegbare physikalische Wahrheit ist. Die Paradoxien, seien zwar quantenphysikalisch ebenso ein „wahrer Bestandteil dieser Welt, erscheinen aber so unplausibel und paradox, dass wir uns sträuben, sie als ‚wirklich‘ wahr hinzunehmen“. Das bekannteste X-Rätsel sei das Paradoxon von Schrödingers Katze. Paradoxien in den Geowissenschaften. a>, fünftgrößter Findling vor der Ostseeinsel Rügen Sprachlich-rhetorische Paradoxien. In der Umgangssprache wird oft die widersprüchliche Wirkung von Paradoxien als rhetorische Stilfigur verwendet. Ideologische Paradoxien. Gesellschaftliche Ideologien enthalten in der Praxis oft paradoxe Elemente, vor allem wenn sie mit absolut gesetzten Werten wie Freiheit oder Gleichheit operieren. Beispiele: So werden, um eine „freiheitliche“ Ordnung aufrechtzuerhalten, Maßnahmen eingesetzt, die die Freiheit einschränken (z. B. McCarthy-Ära in den USA oder auch die aktuellen Debatten um die Einschränkung von Bürgerrechten im Anti-Terror-Kampf). Umgekehrt wurden in kommunistischen Ideologien, um das Ideal der „Gleichheit“ zu erhalten, Systeme etabliert, in denen einige deutlich „gleicher“ waren als andere. Praktisch alle politischen Ideologien, in denen „der Zweck die Mittel heiligt“, beinhalten diese Paradoxie: In der Durchsetzung bestimmter Werte für die Zukunft werden die gleichen Werte in der Gegenwart geopfert. Wie bei vielen Paradoxien entsteht der Widerspruch auch hier durch die Anwendung eines Prinzips (Freiheit, Gleichheit) auf sich selbst und auf die Bedingungen, die dieses Prinzip ermöglichen sollen. Psychologische Paradoxien. Zu den psychologischen Paradoxien gehören Fälle, in denen Menschen sich genau entgegen der „Logik“ verhalten. Dazu gehört die sogenannte „Sei-spontan-Paradoxie“, wie es häufig in Beziehungen zum Ausdruck kommt: Die Erwartung, dass mein Gegenüber seine Entscheidungen gefälligst frei und selbständig treffen soll – und genau damit seine Unselbständigkeit unter Beweis stellen würde. Der Wunsch „Sag mir doch öfter mal spontan, dass du mich liebst!“ ist, sobald ausgesprochen, nicht mehr erfüllbar. („Ich liebe dich“ – „Das sagst du jetzt nur wegen meiner Bitte neulich!“). In den sogenannten paradoxen Interventionen werden psychologische Paradoxien wiederum gezielt eingesetzt, insbesondere dann, wenn das Gegenüber (ein Kind zum Beispiel) ein trotziges Verhalten zeigt und auf Aufforderungen bewusst mit dem Gegenteil reagiert. Entsprechend wird in der paradoxen Intervention eine Erwartung geäußert, deren Gegenteil eigentlich erreicht werden soll. Ein weiteres Beispiel für psychologische Paradoxien sind die sogenannten „gemischten Botschaften“, wenn zwischen dem "was" gesagt wird und der Art "wie" es gesagt wird, ein Widerspruch besteht. Beispiel: die „angebaggerte“ Frau, die „Nein“ sagt, dabei aber freundlich lächelt. In langdauernden Beziehungen können so die von Gregory Bateson beschriebenen sogenannten Double-Bind-Kommunikationsstrukturen entstehen, wenn also zum Beispiel einer der Partner (insbesondere in Eltern-Kind-Beziehungen) dem anderen seine Zuneigung immer mit unbewegter Mimik, emotionsloser Stimme und ohne Körperkontakt versichert. Auch das ästhetische Paradox der Hässlichkeit lässt sich den psychologischen Paradoxien zuordnen: Das Phänomen, dass zum Beispiel auch ein Bild mit einem „hässlichen“ Motiv auf einer höheren Ebene als schön empfunden werden kann. Interessant für die Wirtschaftswissenschaften sind paradoxe, der objektiven Logik widersprechende ökonomische Entscheidungen, wie sie unter anderem von Allais und Ellsberg untersucht wurden. Paradoxien als ästhetisches Motiv in der Wissenschaft. Der wissenschafts-ästhetische Reiz von Paradoxien zeigt sich auch daran, dass sich Künstler wie M. C. Escher von den Paradoxien in der Mathematik und Physik inspirieren ließen. So gab es zeitweise einen engen Austausch zwischen Penrose und Escher: So hat Penrose sich als Mathematiker mit geometrisch „unmöglichen“ Formen befasst. Von ihm stammt unter anderem der berühmte Tribar. Escher wiederum hat diese Gedanken aufgegriffen und in seinen Grafiken umgesetzt. Auch für andere Wissenschaftler und Denker wie Bertrand Russell, Gregory Bateson oder Arthur Koestler waren Paradoxien in ihren unterschiedlichen Facetten ein zentrales Thema. Paradoxien in der Populärkultur. Großvater-Paradoxon – (Zeitreise): Ein Zeitreisender, der in der Vergangenheit seinen Großvater umbringt, würde nicht geboren werden, und könnte daher nie seinen Großvater umgebracht haben. Pflicht. Pflicht (aus "pflegen") oder Sollen ist das, was jemand aus moralischen oder gesetzlichen Gründen tun muss. Daneben wird als Pflicht auch das bezeichnet, was von einer als berechtigt angenommenen Autorität von jemandem gefordert wird. In diesem Sinne ist zum Beispiel ein Polizist der Autorität des Gesetzgebers verpflichtet. Ethik. Moralische Pflicht steht in Relation zu moralischem Recht, das eine Handlung ermöglicht und nicht fordert. Der Unterschied besteht somit zwischen der Aufforderung und der Erlaubnis (zu) einer Handlung. Pflicht und Zwang. In einem Rechtsstaat sind den Menschen rechtliche Pflichten auferlegt, diese können mit dahinterliegenden moralischen Wertungen im Konflikt stehen. Wann man sich aus moralischen Gründen über rechtliche Pflichten hinwegsetzen darf oder muss, ist Gegenstand gesellschaftlicher Debatten. Unbedingte Pflichterfüllung, negativ wertend auch als blinder Gehorsam oder Kadavergehorsam bezeichnet, gilt allgemein nicht als das Verhalten eines mündigen Menschen. In diese Einschätzung haben die schrecklichen Erfahrungen aus der Zeit des Nationalsozialismus Eingang gefunden (siehe auch Gehorsamsverweigerung). In Abgrenzung zum Zwang unterscheidet sich die Pflicht dadurch, dass sie auf einem gesellschaftlichen, rationalen oder ethischen Diskurs einschließlich Findung eines Konsenses beruht. Erforderlich ist demnach, dass ein Pflichtausübender die Notwendigkeit der Ausübung selbst erkennt und einsieht. Sie führt folglich zur Übernahme von Verantwortung und endet mit Erfolg oder Misserfolg, wodurch sich für den Handelnden sowohl positive als auch negative Konsequenzen in Bezug auf die eigene Erwartungshaltung ergeben können. Daraus resultiert, dass Pflichtausübung stets einer Gewissensprüfung und einer sorgfältigen Risikoabschätzung bedarf (z. B. ist einem Rettungsschwimmer oder einem Feuerwehrmann nicht in jedem Fall zuzumuten, seiner Pflicht nachzukommen, wenn die Gefahr für sein eigenes Leben zu hoch scheint). Beim Zwang hingegen wird etwas abverlangt ggf. auch ohne Einverständnis oder Einsicht. Das Erzwungene kann dann angenommen, abgewiesen oder erduldet werden. Deontologie. Die Lehre von den Pflichten heißt Deontologie (zusammengesetzt aus dem griechischen "to deon", „das Erforderliche, die Pflicht“, und "logos", „Lehre“, also „Pflichtenlehre“). Das Grundprinzip ist die Berufung auf die Motivation der Handlung. Es folgt die Prüfung, ob Motivation und Handlung mit einem Wertemaßstab, den jeder vernünftige Mensch sofort einsieht, vereinbar sind oder nicht. Das Begründungsverfahren lässt nur die Attribute „gut“ oder „schlecht“ zu. Theologie. Pflicht spielt auch in der Theologie eine wichtige Rolle und bedeutet zuerst die Pflicht des Menschen gegenüber dem Gesetz Gottes. Aus der Befolgung der Pflichten erwächst die Freiheit des Menschen. Rechtswissenschaft. Pflichten spielen in der Rechtswissenschaft eine große Rolle: Rechtsnormen, deren Summe man als objektives Recht (Rechtsordnung) bezeichnet, sind abstrakt-generelle Sollensnormen. Sie ordnen also an, was in einem bestimmten Fall geschehen soll (Rechtsfolge). Damit verpflichten sie typischerweise ein Rechtssubjekt zu einem bestimmten Tun (Gebot) oder Unterlassen (Verbot). Kann ein anderer die Einhaltung dieser Pflicht verlangen, so ist der andere Träger eines subjektiven Rechts. Das öffentliche Recht kennt den Begriff der Kompetenz, der ein „Pflichtenrecht“ beschreibt: dem Staat kommt anders als den grundrechtsberechtigten Bürgern keine Freiheit zu, sondern nur pflichtgemäß ausgeübte Zuständigkeiten. Umgekehrt ist jede Pflicht, die den Bürgern auferlegt wird (etwa die Wehrpflicht), ein Eingriff in deren Freiheit und muss an den Grundrechten gemessen werden. In der Schweiz existiert dazu alternativ der Begriff „Obligatorium“ z.B. "Schneekettenobligatorium". Im Privatrecht meint die Pflicht das Verpflichtetsein („Schuld“) in Abgrenzung zur Haftung. Der Pflicht des Schuldners steht typischerweise ein subjektives Recht des Gläubigers entgegen, der Anspruch. Kraft der Privatautonomie kann grundsätzlich jedermann durch Vertrag beliebige Pflichten eingehen. Im Strafrecht kann eine Pflichtenkollision einen Rechtfertigungsgrund darstellen. Sittliche Pflicht ist eine juristisch feststellbare Verpflichtung für Leistungen an eine natürliche Person. Sport. Bei Sportdisziplinen wie Voltigieren und Turnen gibt es im Wettkampfbereich einen Pflicht- und einen Kürteil. Unter der Pflicht versteht man hier, im Unterschied zur Kür, eine vorgegebene Reihenfolge bestimmter Bewegungselemente und Übungen. Ziel ist es, die Leistungen der Sportler direkt vergleichen zu können. Im Eiskunstlauf war das Pflichtprogramm bis 1991, im Eistanz bis 2010 Wettkampfdisziplin. Beispiele. Schulpflicht, Pflichtmitgliedschaft, Bestattungspflicht, Pflichtfeuerwehr (Der Feuerwehrdienst in der Schweiz in den meisten Kantonen eine Pflicht), Anwesenheitspflicht, Aufgabe (Pflicht). Puffer. Buffer ist der Name eines Unternehmens im Bereich Sozialer Netzwerke Programmiersprache. a> mit der inzwischen >8 Mio Schüler ihre ersten Programmiererfahrungen machten. Eine Programmiersprache ist eine formale Sprache zur Formulierung von Datenstrukturen und Algorithmen, d. h. von Rechenvorschriften, die von einem Computer ausgeführt werden können. Sie setzen sich aus Anweisungen nach einem vorgegebenen Muster zusammen, der sogenannten Syntax. Während die ersten Programmiersprachen noch unmittelbar an den Eigenschaften der jeweiligen Rechner orientiert waren, verwendet man heute meist problemorientierte Sprachen, sogenannte "höhere Programmiersprachen", die eine abstraktere und für den Menschen leichter verständliche Ausdrucksweise erlauben. In diesen Sprachen geschriebene Programme können automatisiert in Maschinensprache übersetzt werden, die von einem Prozessor ausgeführt wird. Zunehmend kommen auch visuelle Programmiersprachen zum Einsatz, die den Zugang zu Programmiersprachen erleichtern. Übersicht. Die in einer bestimmten Programmiersprache, häufig mittels einfacher Texteditoren erzeugten Anweisungen nennt man Quelltext (oder auch Quellcode). Um auf einem Computer ausgeführt zu werden, muss der Quelltext in die Maschinensprache dieses Computer(typ)s übersetzt werden. Diese ist im Gegensatz zu höheren Programmiersprachen und zur Assemblersprache ein für Menschen schwer lesbarer Binärcode. Wird von Programmierung in Maschinensprache gesprochen, so ist heute meist die Assemblersprache gemeint. Die Übersetzung in Maschinensprache kann entweder vor der Ausführung durch einen Compiler oder – zur Laufzeit – durch einen Interpreter oder JIT-Compiler geschehen. Oft wird eine Kombination aus beiden Varianten gewählt, bei der zuerst der Quelltext der angewendeten Programmiersprache in einen Zwischencode übersetzt wird, welcher dann zur Laufzeit innerhalb einer Laufzeitumgebung in Maschinencode überführt wird. Dieses Prinzip hat den Vorteil, dass derselbe Zwischencode auf verschiedenen Plattformen ausführbar ist. Beispiele für einen solchen Zwischencode sind der Java-Bytecode sowie die Common Intermediate Language. Meist ist es möglich, aus diesen Grundfunktionen höhere Funktionen zu erstellen, und diese als Bibliothek wiederverwendbar zu kapseln. Von dort zu einer höheren oder problemorientierten Sprache zu gelangen, ist kein großer Schritt mehr. So gab es schon bald eine große Zahl an Spezialsprachen für die verschiedensten Anwendungsgebiete. Damit steigt die Effizienz der Programmierer und die Portabilität der Programme, meist nimmt dafür die Verarbeitungsgeschwindigkeit der erzeugten Programme ab, und die Mächtigkeit der Sprache nimmt ab: Je höher und komfortabler die Sprache, desto mehr ist der Programmierer daran gebunden, die in ihr vorgesehenen Wege zu beschreiten. Sprachen sind verschieden erfolgreich - manche „wachsen“ und finden zunehmend breitere Anwendung; immer wieder sind auch Sprachen mit dem Anspruch entworfen worden, Mehrzweck- und Breitbandsprachen zu sein, oft mit bescheidenem Erfolg (1, Ada, Algol 68). Panorama. Die Bedeutung von Programmiersprachen für die Informatik drückt sich auch in der Vielfalt der Ausprägungen und der Breite der Anwendungen aus. Derartige Sprachen fallen unter die "domänenspezifischen Sprachen." Übersetzer. Um ein in einer bestimmten Programmiersprache erstelltes Programm ausführen zu können, muss dessen Quellcode in eine äquivalente Folge von Maschinenbefehlen übersetzt werden. Das ist notwendig, da Quelltext eine einer kontextfreien Grammatik (= der Syntax einer Programmiersprache) genügende Zeichenfolge ist (z. B. „A = B + 100 * C“), die der Prozessor nicht 'versteht'. Die in der Geschichte der Computertechnik und der Softwaretechnologie eingetretenen Entwicklungssprünge brachten auch unterschiedliche Werkzeuge zur Erzeugung von Maschinencode, ggf. über mehrere Stufen, mit sich. Diese werden beispielsweise als Compiler, Interpreter, Precompiler, Linker etc. bezeichnet. Zur Steuerung des Übersetzens kann der Quelltext neben den Anweisungen der Programmiersprache zusätzliche spezielle Compiler-Anweisungen enthalten. Komplexe Übersetzungsvorgänge werden bei Anwendung bestimmter Programmiersprachen / Entwicklungsumgebungen durch einen Projekterstellungsprozess und die darin gesetzten Parameter gesteuert. Geschichte. Zur Vorgeschichte der Programmiersprachen kann man von praktischer Seite die zahlreichen Notationen zählen, die sowohl in der Fernmeldetechnik (Morsezeichen) als auch zur Steuerung von Maschinen (Jacquard-Webstuhl) entwickelt worden waren; dann die Assemblersprachen der ersten Rechner, die doch nur deren Weiterentwicklung waren. Von theoretischer Seite zählen dazu die vielen Präzisierungen des Algorithmusbegriffs, von denen der λ-Kalkül die bei Weitem bedeutendste ist. Auch Zuses Plankalkül gehört hierhin, denn er ist dem "minimalistischen" Ansatz der Theoretiker verpflichtet (Bit als Grundbaustein). In einer ersten Phase wurden ab Mitte der 1950er Jahre unzählige Sprachen entwickelt, die praktisch an gegebenen Aufgaben und Mitteln orientiert waren. Seit der Entwicklung von Algol 60 (1958–1963) ist die Aufgabe des Übersetzerbaus in der praktischen Informatik etabliert und wird zunächst mit Schwerpunkt Syntax (-erkennung, Parser) intensiv bearbeitet. Auf der praktischen Seite wurden erweiterte Datentypen wie Verbunde, Zeichenketten und Zeiger eingeführt (konsequent z. B. in Algol 68). In den 1950er Jahren wurden in den USA die ersten drei weiter verbreiteten, praktisch eingesetzten höheren Programmiersprachen entwickelt. Dabei verfolgten diese sowohl imperative als auch deklarativ-funktionale Ansätze. Die Entwicklung von Algol 60 läutete eine fruchtbare Phase vieler neuer Konzepte, wie das der prozeduralen Programmierung ein. Der Bedarf an neuen Programmiersprachen wurde durch den schnellen Fortschritt der Computertechnik gesteigert. In dieser Phase entstanden die bis heute populärsten Programmiersprachen: BASIC und C. In der Nachfolgezeit ab 1980 konnten sich die neu entwickelten logischen Programmiersprachen nicht gegen die Weiterentwicklung traditioneller Konzepte in Form des objektorientierten Programmierens durchsetzen. Das in den 1990er Jahren immer schneller wachsende Internet forderte seinen Tribut beispielsweise in Form von neuen Skriptsprachen für die Entwicklung von Webserver-Anwendungen. Derzeit schreitet die Integration der Konzepte der letzten Jahrzehnte voran. Größere Beachtung findet so beispielsweise der Aspekt der Codesicherheit in Form von virtuellen Maschinen. Neuere integrierte, visuelle Entwicklungsumgebungen erfordern deutlich weniger Aufwand an Zeit und Kosten. Bedienoberflächen lassen sich meist visuell gestalten, Codefragmente sind per Klick direkt erreichbar. Dokumentation zu anderen Programmteilen und Bibliotheken ist direkt einsehbar, meist gibt es sogar "lookup"-Funktionalität, die noch während des Schreibens herausfindet, welche Symbole an dieser Stelle erlaubt sind und entsprechende Vorschläge macht (Autovervollständigen). Neben der mittlerweile etablierten objektorientierten Programmierung ist die modellgetriebene Architektur ein weiterer Ansatz zur Verbesserung der Software-Entwicklung, in der Programme aus syntaktisch und semantisch formal spezifizierten Modellen generiert werden. Diese Techniken markieren gleichzeitig den Übergang von einer eher handwerklichen, individuellen Kunst zu einem industriell organisierten Prozess. Man hat die Maschinen-, Assembler- und höheren Programmiersprachen auch als Sprachen der "ersten bis dritten Generation" bezeichnet; auch in Analogie zu den gleichzeitigen Hardwaregenerationen. Als "vierte Generation" wurden verschiedenste Systeme beworben, die mit Programmgeneratoren und Hilfsprogrammen z. B. zur Gestaltung von Bildschirmmasken ("screen painter") ausgestattet waren. "Die" Sprache der fünften Generation schließlich sollte in den 1980er Jahren im Sinne des "Fifth Generation Computing" Concurrent Prolog sein. Programmierparadigmen. Die Programmiersprachen lassen sich in Kategorien einteilen, die sich im evolutionären Verlauf der Programmiersprachen-Entwicklung als sog. Programmierparadigmen gebildet haben. Grundlegend sind die Paradigmen der strukturierten, der imperativen und der deklarativen Programmierung - mit jeweils weiteren Unterteilungen. Eine Programmiersprache kann jedoch auch mehreren Paradigmen gehorchen, das heißt die begriffsbestimmenden Merkmale mehrerer Paradigmen unterstützen. Strukturierte Programmiersprachen. Strukturierte Programmierung ist Anfang der 1970er Jahre auch aufgrund der Softwarekrise populär geworden. Es beinhaltet die Zerlegung eines Programms in Unterprogramme (prozedurale Programmierung) und die Beschränkung auf die drei elementaren Kontrollstrukturen Anweisungs-Reihenfolge, Verzweigung und Wiederholung. Imperative Programmiersprachen. Ein in einer imperativen Programmiersprache geschriebenes Programm besteht aus Anweisungen (latein "imperare" = befehlen), die beschreiben, "wie" das Programm seine Ergebnisse erzeugt (zum Beispiel Wenn-dann-Folgen, Schleifen, Multiplikationen etc.). Deklarative Programmiersprachen. Den genau umgekehrten Ansatz verfolgen die deklarativen Programmiersprachen. Dabei beschreibt der Programmierer, welche Bedingungen die Ausgabe des Programms (das "Was") erfüllen muss. Wie die Ergebnisse konkret erzeugt werden, wird bei der Übersetzung, zum Beispiel durch einen Interpreter festgelegt. Ein Beispiel ist die Datenbankabfragesprache SQL. Ein Programm muss nicht unbedingt eine Liste von Anweisungen enthalten. Stattdessen können grafische Programmieransätze, zum Beispiel wie bei der in der Automatisierung verwendeten Plattform STEP 7, benutzt werden. Die Art der formulierten Bedingungen unterteilen die deklarativen Programmiersprachen in logische Programmiersprachen, die mathematische Logik benutzen, und funktionale Programmiersprachen, die dafür mathematische Funktionen einsetzen. Objektorientierte Programmiersprachen. Hier werden Daten und Befehle, die auf diese Daten angewendet werden können, in Objekten zusammengefasst. Objektorientierung wird im Rahmen der Objektorientierten Programmierung verwendet, um die Komplexität der entstehenden Programme zu verringern. Typsystem. Variablen sind mit einem Namen versehene Orte im Speicher, die einen Wert aufnehmen können. Um die Art des abgelegten Wertes festzulegen, muss in vielen Programmiersprachen der Variablen ein Datentyp zugewiesen werden. Häufige Datentypen sind Ganz- und Gleitkommazahlen oder auch Zeichenketten. Es wird zwischen typisierten und typenlosen Sprachen unterschieden. In typisierten Sprachen (zum Beispiel C++ oder Java) wird der Inhalt der Variable durch einen Datentyp festgelegt. So gibt es für Ganz- und Gleitkommazahlen verschiedene Datentypen, die sich durch ihren Wertebereich unterscheiden. Sie können vorzeichenlos oder vorzeichenbehaftet sein. Nach aufsteigendem Wertebereich sind dies zum Beispiel: Short, Integer oder Long. Datentypen für Gleitkommazahlen sind zum Beispiel Float oder Double. Einzelne Zeichen können im Datentyp Char gespeichert werden. Für Zeichenketten steht der Datentyp String zur Verfügung. Die typisierten Sprachen können anhand des Zeitpunkts der Typüberprüfung unterschieden werden. Findet die Typüberprüfung bereits bei der Übersetzung des Programms statt, spricht man von statischer Typisierung. Findet die Typprüfung zur Laufzeit statt, spricht man von dynamischer Typisierung. Erkennt eine Programmiersprache Typfehler spätestens zur Laufzeit, wird sie als typsicher bezeichnet. Bei statischer Typprüfung ist der Programmierer versucht, diese zu umgehen, oder sie wird nicht vollständig durchgesetzt (zum jetzigen Stand der Technik muss es in jeder statischen Sprache eine Möglichkeit geben, typlose Daten zu erzeugen oder zwischen Typen zu wechseln – etwa wenn Daten vom Massenspeicher gelesen werden). In Sprachen mit dynamischer Typprüfung werden manche Typfehler erst gefunden, wenn es zu spät ist. Soll der Datentyp einer Variablen geändert werden, ist ein expliziter Befehl zur Umwandlung nötig. Die typenlosen Sprachen (zum Beispiel JavaScript oder Prolog) verfügen, im Gegensatz zu den typisierten Sprachen, über keine differenzierten Datentypen. Der Datentyp einer Variablen wird erst zur Laufzeit festgelegt. Wird einer Variablen ein Wert eines anderen Typs zugewiesen, findet eine Umwandlung der Variablen in den neuen Typ statt. Die typenlosen Sprachen behandeln oftmals alle Einheiten als Zeichenketten und kennen für zusammengesetzte Daten eine allgemeine Liste. Das sichere Typsystem der Programmiersprache ML bildet die Grundlage für die Korrektheit der in ihr programmierten Beweissysteme (LCF, HOL, Isabelle); in ähnlicher Weise versucht man jetzt auch die Sicherheit von Betriebssystemen zu gewährleisten. Schließlich ermöglichen erst Typangaben das populäre Überladen von Bezeichnern. Nach Strachey sollte das Typsystem im Mittelpunkt der Definition einer Programmiersprache stehen. Die Definition von Daten erfolgt im Allgemeinen durch die Angabe einer konkreten Spezifikation zur Datenhaltung und der dazu nötigen Operationen. Diese konkrete Spezifikation legt das allgemeine Verhalten der Operationen fest und abstrahiert damit von der konkreten Implementierung der Datenstruktur (s. a. Deklaration). Oft kann an den "Bürgern erster Klasse" ("First class Citizens" – FCCs) einer Programmiersprache – also den Formen von Daten, die direkt verwendet werden können, erkannt werden, welchem Paradigma die Sprache gehorcht. In Java z. B. sind Objekte FCCs, in Lisp ist jedes Stück Programm FCCs, in Perl sind es Zeichenketten, Arrays und Hashes. Auch der Aufbau der Daten folgt syntaktischen Regeln. Mit Variablen kann man bequem auf die Daten zugreifen und den dualen Charakter von Referenz und Datum einer Variablen ausnutzen. Um die Zeichenketten der Daten mit ihrer (semantischen) Bedeutung nutzen zu können, muss man diese Bedeutung durch die Angabe eines Datentyps angeben. Zumeist besteht im Rahmen des Typsystems auch die Möglichkeit, neue Typen zu vereinbaren. LISP verwendet als konzeptionelle Hauptstruktur Listen. Auch das Programm ist eine Liste von Befehlen, die andere Listen verändern. Forth verwendet als konzeptionelle Hauptstruktur Stacks und Stack-Operationen sowie ein zur Laufzeit erweiterbares Wörterbuch von Definitionen und führt in den meisten Implementationen überhaupt keine Typprüfungen durch. Sonstiges. Ein beliebter Einstieg in eine Programmiersprache ist es, mit ihr den Text "Hello World" (oder deutsch „Hallo Welt“) auf den Bildschirm oder einem anderen Ausgabegerät auszugeben (siehe Hallo-Welt-Programm). Entsprechend gibt es Listen und eigene Webseiten, die Lösungen in verschiedenen Programmiersprachen gegenüberstellen. Periodensystem. Das Periodensystem (Langfassung Periodensystem der Elemente, abgekürzt PSE) stellt alle chemischen Elemente mit steigender Kernladung (Ordnungszahl) und entsprechend ihren chemischen Eigenschaften eingeteilt in Perioden sowie Haupt- und Nebengruppen dar. Es wurde 1869 unabhängig voneinander und fast identisch von zwei Chemikern aufgestellt, zunächst von dem Russen Dmitri Mendelejew (1834–1907) und wenige Monate später von dem Deutschen Lothar Meyer (1830–1895). Historisch war das Periodensystem für die Vorhersage der Entdeckung neuer Elemente und deren Eigenschaften von besonderer Bedeutung. Heute dient es vor allem der Übersicht. Darstellung. Ein über die Ordnungszahl 118 hinausgehendes Periodensystem befindet sich unter Erweitertes Periodensystem. Aufbau im Detail. Die Anordnung der Atome im Periodensystem ist vollständig durch die Elektronenkonfiguration erklärbar. Elektronenkonfiguration. In die innerste Schale passen nur zwei Elektronen, also gibt es auch nur zwei chemische Elemente, die nur diese innerste Elektronenschale haben. Das sind die Elemente 1 (Wasserstoff) und 2 (Helium). Sie bilden in der Darstellung des Periodensystems die oberste Reihe. Das nächste Atom Lithium (Ordnungszahl 3) hat drei Protonen und drei Elektronen. Das dritte Elektron befindet sich einzeln in einer weiter außen liegenden Elektronenschale. Diese zweite Schale hat Platz für maximal acht Elektronen. Diesem Aufbau entsprechend werden acht Elemente (mit insgesamt drei bis zehn Elektronen) im Periodensystem als zweite Reihe (Zeile) dargestellt. Bei der Ordnungszahl 11 (Natrium) wird eine weitere Elektronenschale angefangen und mit einem Elektron besetzt. In der dritten Schale ist wieder für maximal acht Elektronen Platz; somit bilden weitere acht Elemente bis zur Ordnungszahl 18 (Argon) die nächste Reihe im Periodensystem. Die Elektronen der jeweils äußersten Schale nennt man Außenelektronen; in der innersten Schale gibt es ein oder zwei, in den nächsten beiden ein bis acht Außenelektronen. Vergleicht man nun die Stoffeigenschaften von Elementen mit der gleichen Anzahl Außenelektronen (oder auch chemisch Verbindungen mit jeweils einem anderen Element), finden sich viele Übereinstimmungen. So sind z. B. die Elemente mit nur dem ersten von acht Außenelektronen Alkalimetalle, die Elemente mit sieben Außenelektronen sind Halogene und die mit voll aufgefüllten Elektronenschalen Edelgase. Die Außenelektronen bestimmen also im Wesentlichen die chemischen Eigenschaften. Diese wiederholen sich periodisch, was zur Darstellung der Elemente in Reihen geführt hat, die Perioden genannt werden. Die einander ähnlichen Elemente stehen im Periodensystem untereinander und bilden jeweils eine Gruppe. Bei den bisher besprochenen Gruppen (Tabellenspalten) handelt es sich um die Hauptgruppen. Diese Systematik des Aufbaus wird in den höheren Perioden unterbrochen. In den nächsten beiden Perioden bilden zwar auch zunächst die ersten beiden Elektronen eine neue äußere Schale; bevor dort jedoch das dritte bis achte Elektron hinzukommt, wird zunächst eine darunter liegende neue Elektronenschale mit zehn Plätzen gebildet und aufgefüllt (OZ 21 bis 30 und OZ 39 bis 48). Hier untereinander stehende Elemente werden Nebengruppen genannt. In den dann folgenden beiden Perioden entsteht sogar zunächst eine noch tiefer liegende (drittäußerste) Schale mit 14 Plätzen (OZ 58 bis 71 und OZ 90 bis 103). Der Einbau von zusätzlichen Elektronen in so tief liegende Schalen führt – erwartungsgemäß – dazu, dass diese Elemente einander sehr ähnlich sind. Zusätzliche Informationen im PSE. Periodensystem mit Schmelztemperatur, Siedetemperatur, Atommasse, Symbol, Ordnungszahl und Dichte Radioaktive Elemente. Das Element 82 (Blei) ist das letzte Element, von dem stabile, also nicht radioaktive Isotope existieren. Alle nachfolgenden (Ordnungszahl 83 und höher) sind ausnahmslos radioaktiv und somit instabil. Dabei ist 83 (Bismut) ein Sonderfall oder Grenzfall mit einer extrem langen Halbwertszeit. Auch innerhalb der Elemente 1 bis 82 sind zwei Stoffe enthalten, die radioaktiv, also instabil sind: 43 (Technetium) und 61 (Promethium). So bleiben tatsächlich nur 80 stabile Elemente übrig, die in der Natur vorkommen – alle anderen sind radioaktive Elemente. Von den radioaktiven Elementen sind nur Bismut, Thorium und Uran in größeren Mengen in der Natur vorhanden, da diese Elemente Halbwertszeiten in der Größenordnung des Alters der Erde oder länger haben. Alle anderen radioaktiven Elemente sind bis auf ein Isotop des Plutoniums entweder wie das Radium intermediäre Zerfallsprodukte einer der drei natürlichen radioaktiven Zerfallsreihen oder entstehen bei seltenen natürlichen Kernreaktionen oder durch Spontanspaltung von Uran und Thorium. Elemente mit Ordnungszahlen über 94 können nur künstlich hergestellt werden; obwohl sie ebenfalls bei der Elementsynthese in einer Supernova entstehen, wurden aufgrund ihrer kurzen Halbwertszeiten bis heute noch keine Spuren von ihnen in der Natur gefunden. Das letzte bislang nachgewiesene Element ist Ununoctium mit der Ordnungszahl 118, dieses hat allerdings nur eine Halbwertszeit von 0,89 ms. Geschichte. a> vor der "Russischen Gesellschaft für Chemie" im März 1869 Die Datierung der Entdeckung solcher chemischen Elemente, die bereits seit der Frühzeit oder Antike bekannt sind, ist nur ungenau und kann je nach Literaturquelle um mehrere Jahrhunderte schwanken. Sicherere Datierungen sind erst ab dem 18. Jahrhundert möglich. Bis dahin waren erst 15 Elemente als solche bekannt und beschrieben: 12 Metalle (Eisen, Kupfer, Blei, Bismut, Arsen, Zink, Zinn, Antimon, Platin, Silber, Quecksilber und Gold) und drei Nichtmetalle (Kohlenstoff, Schwefel und Phosphor). Die meisten Elemente wurden im 19. Jahrhundert entdeckt und wissenschaftlich beschrieben. Zu Beginn des 20. Jahrhunderts waren nur noch zehn der natürlichen Elemente unbekannt. Seither wurden vor allem schwer zugängliche, oftmals radioaktive Elemente dargestellt. Viele dieser Elemente kommen nicht in der Natur vor und sind das Produkt von künstlichen Kernverschmelzungsprozessen. Erst im Dezember 1994 wurden die beiden künstlichen Elemente Darmstadtium (Eka-Platin) und Roentgenium (Eka-Gold) hergestellt. Anfang des 19. Jahrhunderts stellte Johann Wolfgang Döbereiner erstmals einen Zusammenhang zwischen der Atommasse und den chemischen Eigenschaften einzelner Elemente fest. Alexandre-Emile Béguyer de Chancourtois entwickelte 1862 eine dreidimensionale Darstellung, wobei er die Elemente nach steigenden Atomgewichten schraubenförmig auf einem Zylinder anordnete. 1863 stellte John Alexander Reina Newlands eine nach Atommassen geordnete Tabelle der Elemente in Achtergruppen (Gesetz der Oktaven) auf. Das gültige Periodensystem selbst wurde 1869 nahezu gleichzeitig und unabhängig voneinander zuerst von Dmitri Iwanowitsch Mendelejew (1834–1907) und darauf von Lothar Meyer (1830–1895) aufgestellt. Dabei ordneten sie ebenfalls die chemischen Elemente nach steigenden Atommassen, wobei sie Elemente mit ähnlichen Eigenschaften (Anzahl der Valenzelektronen) untereinander anordneten. Daneben wurden von Heinrich Adolph Baumhauer und Julius Quaglio Versuche unternommen, das System spiralförmig darzustellen. Im 20. Jahrhundert wurde der Aufbau der Atome entdeckt, die Periodizität wurde durch den Aufbau der Elektronenhülle erklärt. Periodensystem der Entdecker. Dieses Periodensystem gibt einen Überblick über die Entdecker bzw. Erzeuger der einzelnen Elemente durch Anklicken der Elementenkennung. Für die Elemente, für die kein Entdecker/Erzeuger bekannt ist, wird der aktuelle historische Wissensstand unter dem Übersichtsplan kurz wiedergegeben. Alternative Periodensysteme. Die Form des Periodensystems von Dmitri Mendelejew hat sich durchgesetzt. Dennoch gab (und gibt) es weitere Vorschläge für alternative Ordnungen der Elemente nach ihren Eigenschaften. Kein alternatives Periodensystem, aber dennoch eine deutlich anders aussehende Darstellung ist das Kurzperiodensystem, bei dem Haupt- und Nebengruppen ineinander verschachtelt sind. Zeittafel der Programmiersprachen. Weblinks. !Zeittafel Der Programmiersprachen Programmiersprachen, Zeittafel Physikalische Konstante. Eine physikalische Konstante oder Naturkonstante ist eine physikalische Größe, deren Wert sich weder beeinflussen lässt noch räumlich oder zeitlich verändert. Als fundamentale Naturkonstante werden die Konstanten bezeichnet, die sich auf allgemeine Eigenschaften von Raum, Zeit und physikalischen Vorgängen beziehen, die für jede Art Teilchen und Wechselwirkung gleichermaßen gelten. Diese sind die Lichtgeschwindigkeit, das plancksche Wirkungsquantum und die Gravitationskonstante (siehe auch Natürliche Einheiten). Weitere elementare (oder grundlegende) Naturkonstanten beziehen sich auf die einzelnen Teilchenarten und Wechselwirkungen, z. B. ihre Massen und Ladungen. Abgeleitete Naturkonstanten lassen sich aus den fundamentalen und elementaren Konstanten berechnen. Beispielsweise ist der bohrsche Radius, eine für die Atomphysik maßgebliche Konstante, aus dem planckschen Wirkungsquantum, der Lichtgeschwindigkeit, der Elementarladung und der Masse des Elektrons zu berechnen. Einige Naturwissenschaften fassen wichtige Konstanten zu Gruppen von "Fundamentalkonstanten" zusammen, z. B. in der Astronomie und Geodäsie sind dies die genauen Referenzwerte von Erd- und Sonnenmasse, der Erdradius, die astronomische Einheit oder die Gravitationskonstante. In der Praxis gebräuchliche Referenzwerte, wie etwa die Dauer eines Jahres, der Druck der Standardatmosphäre oder die Erdbeschleunigung, sind keine Naturkonstanten. Sie sind dem Menschen in seiner irdischen Umgebung nützlich, haben aber in der Regel keine darüber hinausgehende Bedeutung grundlegender Art und erweisen sich bei zunehmender Messgenauigkeit auch nicht als wirklich konstant. Allerdings dienten sie zur ersten Festlegung von Maßeinheiten (auch z. B. für Sekunde, Meter, Kilogramm). Daher gehen aktuell die Bemühungen dahin, die Maßeinheiten möglichst durch direkten Bezug zu (fundamentalen oder elementaren) Naturkonstanten zu definieren. Die dafür ausgewählten Naturkonstanten erhalten dadurch einen fest definierten, unveränderlichen Zahlenwert. Siehe dazu auch Internationales Einheitensystem. Tabelle einiger Naturkonstanten. Die Ziffern in Klammern hinter einem Zahlenwert bezeichnen die Unsicherheit in den letzten Stellen des Wertes. (Beispiel: Die Angabe 6,674 08 (31) ist gleichbedeutend mit 6,674 08 ± 0,000 31.) Die Unsicherheit ist als geschätzte Standardabweichung des angegebenen Zahlenwertes vom tatsächlichen Wert angegeben. Die Zahlenwerte beruhen auf CODATA 2014. Konstanz der Naturkonstanten. Ob die Naturkonstanten auch über astronomische Zeiträume hinweg wirklich "konstant" sind, ist Gegenstand aktueller Forschung. So schienen Messungen der Spektrallinien von Quasaren mit dem Keck-Teleskop auf Hawaii auf eine leichte Abnahme der Feinstrukturkonstante um etwa ein hundertstel Promille im Verlauf von zehn Milliarden Jahren hinzudeuten. Dieses Resultat war von Anfang an umstritten; zum einen wiesen Forscher auf die unsichere Fehlerabschätzung der Datenauswertung hin, zum anderen gibt es Daten aus der Oklo-Mine in Westafrika, wo vor etwa 2 Milliarden Jahren Uran so stark angehäuft war und einen so hohen Gehalt des Isotops U-235 hatte, dass eine Kernspaltungs-Kettenreaktion stattfand. Nach diesen Daten hatte die Feinstrukturkonstante damals denselben Zahlenwert wie heute. Neuere Messungen der Spektrallinien von Quasaren mit dem Very Large Telescope der Europäischen Südsternwarte in Chile widersprechen den früheren Resultaten am Keck-Teleskop und weisen auf die Konstanz der Feinstrukturkonstante hin. Inzwischen sind Präzisionsmessungen möglich, die etwaige stetige Schwankungen in der Größenordnung, wie sie die Beobachtungen mit dem Keck-Teleskop nahelegen, auch im Labor in kurzen Zeiträumen überprüfen können. Untersuchungen von Theodor Hänsch und seiner Arbeitsgruppe am Max-Planck-Institut für Quantenoptik belegen die Konstanz der Feinstrukturkonstante mit einer Genauigkeit von 15 Nachkommastellen über einen Zeitraum von vier Jahren. Veränderung der Angaben durch neue Messungen. Wie sich die Angaben der Naturkonstanten durch immer genauere Messungen ändern, hält das "Committee on Data for Science and Technology", kurz CODATA, in Dokumenten fest. Das eng mit CODATA zusammenarbeitende "National Institute of Standards and Technology" (NIST) in den USA veröffentlicht bereits seit einiger Zeit online PDF-Dokumente mit aktuellen Abschätzungen der Werte der physikalischen Konstanten, darunter auch ältere Dokumente, mit denen sich z. B. alle Veränderungen im Zeitraum von 1986 bis 2014 erfassen lassen. Point-of-View-Shot. Ein Point-of-View-Shot (engl., etwa: "Einstellung mit einem bestimmten Standpunkt", Abkürzung "POV-Shot") ist in der Filmtheorie eine Einstellung, die den Zuschauern einen Blick durch die Augen einer Figur der dargestellten Handlung ermöglicht. Der entsprechende deutsche Begriff lautet "subjektive Kamera" oder "subjektive Einstellung", kurz "Subjektive". Erklärung. Eine subjektive Einstellung ist häufig eine von zwei direkt aufeinanderfolgenden Einstellungen: Die eine Einstellung zeigt eine Figur, die irgendwo hin blickt, meist auf einen Punkt außerhalb des Bildes. Die andere Einstellung (der eigentliche POV-Shot) zeigt das, was die Figur betrachtet, von der Position der Figur aus gefilmt. In welcher Reihenfolge diese Einstellungen geschnitten werden, ist nicht zwingend. Das heißt, es ist einerseits möglich, zuerst den POV-Shot zu zeigen und ihn erst anschließend als solchen kenntlich zu machen, wenn nämlich in der folgenden Einstellung die blickende Person gezeigt wird. Oder aber man zeigt erst die blickende Person und dann den POV-Shot. Wirkung. POV-Shots sind illusionierend, d. h., der Zuschauer fühlt sich in die Handlung hineinversetzt. Oft sind POV-Shots technisch verfremdet: Unschärfe signalisiert etwa den Blick eines Brillenträgers ohne Brille. Die Subjektivierung des POV-Shots wird oft widersprüchlich kombiniert mit einer Objektivierung durch technische Geräte, etwa dem Blick durch Fernrohre oder Nachtsichtgeräte. Beides erhöht den Eindruck der Authentizität. Manchmal werden POV-Shots durch auffällig bewegte, scheinbar unprofessionelle Kameraführung (Handkamera, Steadicam) deutlich gemacht. Der Florentiner Hut. Der Film Der Florentiner Hut von Wolfgang Liebeneiner aus dem Jahr 1939 enthält einige technische Raffinessen. In einer langen Sequenz am Anfang erlebt der Zuschauer die Szene aus der Sicht der Figur Theo Farina, ohne ihn selbst zu sehen. Erst später erkennt man Heinz Rühmann in dieser Rolle. Dazu war eine bewegliche Kamera nötig, die es bei der ersten Verfilmung dieses Stoffes von Eugène Labiche noch nicht gab. Die Dame im See. Der Film "Die Dame im See" (orig. "The Lady in the Lake") aus dem Jahr 1947 ist der erste Film, der den POV-Shot den ganzen Film hindurch nutzt. Der Regisseur Robert Montgomery präsentiert die Handlung ausschließlich aus der Sicht der Hauptfigur Philip Marlowe. Der Kameramann war Paul Vogel. Den Hauptdarsteller (ebenfalls Montgomery) erkennt man nur, wenn er vor einen Spiegel (oder ähnliche reflektierende Oberflächen) tritt. Die Produktionsfirma MGM warb damit, den revolutionärsten Film seit Einführung des Tonfilms zu zeigen, Zuschauer und Hauptfigur würden das Geheimnis des Verbrechens gemeinsam lösen. Smack My Bitch Up. "Smack My Bitch Up" ist das Video von Jonas Åkerlund zur dreizehnten Singleveröffentlichung der britischen Big-Beat-Gruppe The Prodigy. Das mit zwei MTV Video Music Awards ausgezeichnete Musikvideo zeigt in Verwendung einer subjektiven Kameraperspektive einen exzessiven Nachttrip einer zunächst unerkannt bleibenden Person. Zu Beginn befindet sich diese im Badezimmer und zieht sich danach an, während sie bereits alkoholische Getränke sowie Kokain zu sich nimmt. Der Protagonist begibt sich in der Folge ins Londoner Nachtleben, wo er durch aggressives Verhalten gegenüber Frauen und DJs auffällig wird. Zwischenzeitlich übergibt er sich mehrfach und nimmt Heroin zu sich. Durch den Einsatz visueller Verzerrungen wird die fortschreitende Wirkung der eingenommenen Drogen sichtbar. Hierauf begibt er sich in einen Stripclub, in welchem er sich einer der dort engagierten Tänzerinnen annähert und diese mit in ein soeben geklautes Auto nimmt. Er fährt mit ihr in sein Appartement, in dem er Sex mit ihr hat. Zum Schluss des Videos zeigt die subjektive Kamera einen Blick in einen Spiegel, aus dem hervorgeht, dass es sich bei der von vornherein als männlich wahrgenommenen Person um eine Frau handelt. Enter the Void. "Enter the Void" ist ein französischer Spielfilm aus dem Jahr 2009, der komplett aus der Perspektive des Protagonisten Oscar erzählt wird. Die Point-of-View-Einstellung zieht sich dabei konsequent durch den gesamten Film, und wird nur durch einige sehr eindrucksvolle Drogentrips unterbrochen, die durch Animated Visuals dargestellt werden. Die Idee zum Film kam dem Regisseur nach eigenen Aussagen, nachdem er sich den Film "Die Dame im See" unter Einfluss von Magic Mushrooms ansah. Horrorfilm. In einigen Filmen, vor allem im Horrorfilm, wird ein POV-Shot als durchgehende Erzählperspektive eingesetzt. Der Zuschauer erfährt durch die Handlung, aus wessen Perspektive der Shot erfolgt (meistens aus der des Mörders oder der des Monsters), aber ein Überblick wird nicht gegeben, um ein Gefühl der Unsicherheit und des Ausgeliefertseins zu erzeugen. Pornofilm. Häufig wird der POV-Shot aus Sicht eines männlichen Akteurs in Pornofilmen verwendet; teils ist die Regie ganzer Szenen und Filme von diesem Stilmittel bestimmt. Der Pornodarsteller Peter North vertreibt eine eigene Filmreihe unter dem Titel „P.O.V.“. In der japanischen Pornografie heißt dieses Genre "Hamedori" (jap. ハメ撮り). Fernsehserie. Unter anderem nutzt die Fernsehserie ' das Stilmittel in verschiedenen Episoden, beispielsweise in "I've Got a Pain in My Sawdust!" (Staffel 8, Folge 1). Plansequenz. Eine Plansequenz (frz. ', etwa: ‚fortlaufende Sequenz‘) ist eine Sequenz innerhalb eines Films, die nur aus einer einzigen, meist vergleichsweise langen Einstellung besteht und eine abgeschlossene Handlung ohne Schnitte zeigt. Die Szenenänderungen, die die klassischen Schnitte ersetzen, werden entweder durch passend inszenierte Auftritte der Darsteller erreicht (das kann sogar mit einer starren, also unbewegten, Kameraposition sein), durch Ortsveränderungen innerhalb des Filmsets oder beides in Kombination. Hierbei wird das Geschehen meist durch den Einsatz einer Kamerafahrt unterstützt, was auch in der früher gebräuchlichen Bezeichnung Horizontalmontage deutlich wird. Gestaltungsmittel Plansequenz. Die Plansequenz als solche stellt noch in keiner Weise von vornherein die Festlegung einer bestimmten Dramaturgie dar. Durch ihre Wahl als Gestaltungsmittel unterstützt sie aber die Inszenierung einer Szene. So kann sie z. B. durch den "Nur-wenig-geschieht-Effekt", gerade in Verbindung mit einer starren Kameraposition, für den Zuschauer eine melancholische Stimmung hervorrufen "(Lichter der Großstadt)" wie auch durch den "Dauernd-passiert-irgendwas-Effekt" "(Mein Onkel)" eine eher komödiantische Empfindung auslösen. Königsdisziplin der Plansequenz ist der "Lange-geschieht-nichts-Effekt"; hier wird eine ungeheuere Spannung aufgebaut "(Der unsichtbare Dritte)". Eine besondere Herausforderung für Regisseure sind Szenen, die im fertigen Film wie Plansequenzen aussehen sollen, aus bestimmten Gründen am Filmset aber nicht durchgeführt werden können. Dazu zählt "Cocktail für eine Leiche". Wegen der begrenzten Länge einer Filmrolle (300 m, entsprechen beim etwa 10 Minuten) wurden von Hitchcock bestimmte Übergänge optisch so gestaltet (Kamerazufahrt aus der Szene auf ein Bild, Kamerastopp und nach dem Schnitt Kamerarückfahrt vom Bild in die Szene zurück, also de facto ein unsichtbarer Stoptrick), dass der tatsächliche harte Schnitt nicht als solcher zu erkennen ist. Wesentlich ausgeklügelter ist die Alarmszene in "Das Boot"; hier lag die Beschränkung nicht in der Rollenlänge des Films, sondern weil der Kameramann, bedingt durch die Enge der naturgetreu nachgebauten Kulisse des Innenraums des U-Bootes und der Einteilung in Schotte, nicht mit der Mannschaft durchstürmen konnte. So wurde die Szene in Takes gedreht und schnelle optische Übergangshilfen für die harten Schnitte eingesetzt (Vorhang, Overall für wenige Frames bildfüllend über Schwarz, dichter Rauch), die im fertigen Film den Eindruck erwecken, es handele sich um eine echte Plansequenz. Eine Plansequenz wird beispielsweise eingesetzt, um den Schauspielern – ähnlich dem Theater – mehr Raum zum Spielen zu geben. Ihr Spiel kann sich dadurch in einem Fluss entfalten. Die Szene wird dabei nicht – wie in der 'klassischen' Vorgehensweise im Film – in einzelne Shots zerlegt, die jeweils nur ein kleines Stück der Szene repräsentieren und die dann erst am Schneidetisch zur Szene verbunden werden. Bei der Produktion von Musikvideos wird auch von "Oneshot" gesprochen, wenn keine einzelnen Takes gedreht werden. Das Video kann dabei auch turbulente Szenenwechsel enthalten. Die die Schnitte ersetzende Dramaturgie kann hierbei durch überraschende Kamerabewegungen, Tanzauftritte, Lichteffekte manchmal in Verbindung mit Bühnennebel oder Trockeneis, Pyrotechnik, oder auch mit Effekten der Postproduktion erreicht werden. Es besteht beim Oneshot trotzdem aus einer einzigen, durchgedrehten, also auch später ungeschnittenen Einstellung und ist damit auch eine Plansequenz. Beispiele für Plansequenzen. 1948 brachte Alfred Hitchcock den 80-minütigen Spielfilm "Cocktail für eine Leiche" ins Kino, der im Wesentlichen aus nur fünf langen De-facto-Plansequenzen bestand. Die wegen des nur für jeweils zehn Minuten reichenden Filmvorrats in der Kamera notwendigen (technischen) Schnitte wurden dadurch kaschiert, dass am Ende einer Filmrolle die Kamera jeweils auf einen Gegenstand oder Darsteller nahe heranfuhr und sich – nach dem Wechsel der Filmrolle – wieder entfernte. Über dieses Experiment hinaus setzte Hitchcock oft Plansequenzen in seinen Filmen ein: u. a. die Vorstellung der Nachbarn und die dialoglose Einführung des Protagonisten in "Das Fenster zum Hof" und die langsame Fahrt vom Ort des Verbrechens auf die belebte Straße in "Frenzy." Eines der berühmtesten Beispiele für eine Plansequenz ist der Anfang von Orson Welles’ "Im Zeichen des Bösen" (1958). Als großer Meister der Plansequenz gilt der Nouvelle-Vague-Regisseur Jean-Luc Godard. Meisterhafte Beispiele von endlos langen Plansequenzen finden sich in seinem Film "Die Verachtung" (1963, mit Brigitte Bardot und Michel Piccoli). Auch Michelangelo Antonioni nutzte dieses filmische Mittel 1975 eindrucksvoll in "." Ein weitgehend schnittloser Film ist "Stalker" (1979) des sowjetischen Regisseurs Andrei Tarkowski. Von Tarkowski inspiriert, setzte der ungarische Regisseur Béla Tarr ab 1982 seine Filme mit langen Einstellungen um, die nicht selten eine ganze 35-mm-Rolle dauerten. Ironisiert wird das Prinzip der Plansequenz in Robert Altmans "The Player" (1992). Der Film eröffnet mit einer siebenminütigen Einstellung, in der er das rastlose Treiben auf einem Hollywood-Studiogelände etabliert und einen der Protagonisten gebetsmühlenartig Orson Welles’ Plansequenz in "Im Zeichen des Bösen" als Fanal gegen die moderne Unsitte des schnellen Schnitts hochhalten lässt. Mit "Russian Ark" drehte der russische Regisseur Alexander Sokurow 2002 den ersten abendfüllenden Spielfilm in einer einzigen Einstellung. Durch die Fortschritte in der Videotechnik war es möglich, den kompletten Film auf Festplatte aufzuzeichnen. Gaspar Noés rückwärts erzählter Skandalfilm "Irreversibel" (2002) besitzt eine scheinbare Schnittlosigkeit, die unter Zuhilfenahme moderner Tricktechnik vorgenommen wurde. Ähnlich trickreich entstanden zum Teil über 6 Minuten lange Takes in Alfonso Cuaróns Children of Men (2006), die dem Film einen dokumentarischen Touch verleihen. Ein weiterer Film, der komplett aus einem einzigen Take zu bestehen scheint, ist "Birdman oder (Die unverhoffte Macht der Ahnungslosigkeit)" (2014) des Regisseurs Alejandro González Iñárritu. Tatsächlich befinden sich in "Birdman" jedoch mehrere Schnitte, die durch komplettes Schwarzbild, Zeitraffersequenzen oder andere technische Effekte kaschiert wurden. 2015 schuf Sebastian Schipper mit "Victoria" einen fast 140 Minuten langen Spielfilm, der komplett in einer einzigen Plansequenz realisiert wurde. Dabei wurden viele Dialoge und Szenen improvisiert. Nach diversen Proben wurde dreimal der komplette Film am Stück gedreht, die finale Fassung wurde in einem Stück gelassen. In "James Bond 007 - Spectre" werden die ersten sieben Minuten des Films in einer Plansequenz gezeigt. Die Kamera zeigt den Tag der Toten in Mexico City, Bonds Widersacher, James Bond und sein Bondgirl auf dem Weg ins Hotel sowie anschliesend Bonds Weg zu seinem Einsatz über die Dächer von Mexico City. Beispiel für die Funktion einer Plansequenz. Zu den europäischen Regisseuren, die Plansequenzen als erzählerisches Mittel einsetzten, gehörte der griechische Regisseur Theo Angelopoulos. In seinem Film "Der Blick des Odysseus" von 1995 dient eine Plansequenz dazu, zu zeigen, wie sich an einem Ort Geschichte und Gegenwart verbinden. Der Protagonist des Films (gespielt von Harvey Keitel) kehrt auf seiner Odyssee über den Balkan Anfang der 1990er Jahre in seine Geburtsstadt (Constanta) zurück und betritt das Haus seiner Kindheit, womit die Plansequenz beginnt. Hier wird er herzlich von seiner versammelten Familie (Mutter, Großeltern usw.) empfangen, befindet sich aber jetzt nicht mehr in den Neunzigern, sondern im Jahr 1944, kurz vor dem Ende des Zweiten Weltkriegs. Innerhalb der weiteren, insgesamt etwa zehnminütigen Sequenz betreten und verlassen Schauspieler (mit Ausnahme des Protagonisten) fortwährend die Szene, die teils von der sich bewegenden, hauptsächlich aber stehenden Kamera aufgenommen wird. Die Szene endet 1950 mit dem Exodus der Griechen aus Constanta. Die Familie versammelt sich für ein letztes Foto, für das dann ein Kind, das aus der Richtung der Kamera die Szene betritt, den Platz des Protagonisten einnimmt, der erst kurz zuvor die Szene in Richtung Kamera verlassen hat. Mit einer langsamen Fahrt auf das in der Mitte der Gruppe zwischen seinen Eltern stehende, in die Kamera blickende Kind endet die Sequenz. Politiker. Als Politiker wird eine Person bezeichnet, die ein politisches Amt oder Mandat innehat. Politiker sind meist Mitglied einer Partei. Politiker agieren auf allen Ebenen eines Staates und/oder einer Partei. Manchmal werden sie entsprechend benannt (Bundespolitiker, Landespolitiker, Kommunalpolitiker). Politische Ämter können Regierungsämter (z. B. Minister) oder ein Amt in einer Partei (z. B. Parteivorsitzender, dort ohne Volkswahl) sein. Politische Mandate werden in den Gremien der Legislative und in einigen Positionen der Exekutive ausgeübt. Verschiedene Denkrichtungen sehen eine Trennung von Amt und Mandat als wünschenswert an. Politiker haben das Ziel, durch ihr Denken Probleme der Gesellschaft zu lösen und durch ihr Handeln Einfluss auf politische Entscheidungen zu nehmen. Hierzu können sie zum einen ihre durch politische Ämter gesicherten Rechte nutzen (z. B. bei Abstimmungen im Parlament). Außerdem können sie durch Meinungsäußerung Einfluss nehmen. Als Mitglied einer Partei vertritt ein Politiker deren Interessen. Es gibt jedoch auch Politiker, die sich keiner Partei anschließen (Parteilose) oder deren Aufgabe nicht die Interessenvertretung ihrer Partei ist (z. B. Präsidenten eines Staates). Neben dem Berufspolitiker, der z. B. als Abgeordneter, Staatssekretär, Minister oder Vizeminister arbeitet, gibt es noch den ehrenamtlich arbeitenden Politiker, der die Politik nur neben seinem Beruf ausübt, beispielsweise im politischen System der Schweiz. Kommunalpolitiker arbeiten grundsätzlich ebenfalls ehrenamtlich als Mitglied des Gemeinderats, des Kreistags oder seiner Ausschüsse. Überwiegend werden auch die hauptamtlichen kommunalen Wahlbeamten nicht nur als Leiter der Kommunalverwaltung, sondern auch als Kommunalpolitiker angesehen. Grundsätzlich kann festgestellt werden, dass in kleineren Kommunen parteipolitische Motive eine geringere Rolle spielen, als in größeren. Theorien zum politischen Handeln. Das Handeln von Politikern ist Gegenstand der Politikwissenschaft. Sie erklärt das Handeln der Politiker und den politischen Wettbewerb (Streben der Politiker nach Macht). Ethische Ansätze zur Erklärung von Politikerhandeln. Grundsätzliche Bedeutung für die politische Motivation Einzelner hat der Wunsch, gute politische Entscheidungen herbeizuführen, um beispielsweise der eigenen Region oder dem ganzen Land zu helfen. Dies führt zu einem Einsatz zum Wohle aller Bürger, wie es beispielsweise die Verantwortungsethik postuliert. Oft werden diese langfristigen Ziele jedoch von den Wählern nicht als beste Wahl wahrgenommen, weswegen der politische Erfolg solcher Positionierungen begrenzt ist. Ferner gehen die Auffassungen darüber, was langfristig das „Wohl aller Bürger“ bzw. „Wohl des Staatsvolkes“ darstellt sowie auf welchem Weg dieses erreicht werden soll, auseinander. Auch dies trägt dazu bei, dass sich im politischen Wettbewerb nicht zwangsläufig das „beste“ Modell durchsetzt. Zweifelsohne lässt sich auch für Politiker, deren Handeln an ihren Zielen orientiert ist, ein karrierebezogenes Politikerbild erklären: Die Überzeugung, selbst die richtigen Entscheidungen zu treffen, führt zu einem Streben nach Macht und Einfluss. Ökonomische Theorie der Politik. Einen weniger positiven Ansatz zur Erklärung des Handelns von Politikern mit wirtschaftlichen Grundsätzen liefert die Neue Politische Ökonomie (NPÖ). Sie erklärt Strukturen und Verhalten überwiegend auf Basis der neoklassischen Theorie. Grundsätzliche Annahme ist dabei, dass sich Politiker als rationale Nutzenmaximierer verhalten. Dies bedeutet im Wesentlichen, dass Politiker eine starke "Wiederwahlorientierung" haben und deswegen eine Politik betreiben, die bei den nächsten Wahlen zu einer "Stimmenmaximierung" führt. Orientierung an kurzfristigen Zielen. Ein gemäß der NPÖ nutzenmaximierender Politiker wird bei seinen Entscheidungen berücksichtigen, dass der Wähler eher die Erreichung kurzfristiger Ziele als das Anstreben langfristiger Ziele honoriert, da der Wähler selbst eine starke Gegenwartspräferenz aufweist, was wiederum daran liegt, dass langfristig ausgerichtete Konzepte dem politisch und ökonomisch weniger gebildeten Wähler wegen der hohen Komplexität nicht vermittelbar sind. Auf Wiederwahl bedacht wird der Politiker daher vor kurzfristig schmerzhaften Maßnahmen zurückschrecken, auch wenn diese ökonomisch oder politisch unbedingt nötig sind. Beispiele für eine solche Politik sind die dauerhaft zu beobachtende Neuverschuldung reicher Industrienationen, fehlende Rücklagen im gesetzlichen Rentensystem, zyklische statt antizyklischer Wirtschaftspolitik oder fehlender Mut zu schmerzhaften, aber notwendigen Reformen. Orientierung am Medianwähler. Ein wichtiger Ansatz in diesem Zusammenhang ist das Medianwählermodell: Geht man bei Politikern vom Ziel der Stimmenmaximierung aus, so führt ein Politiker bzw. eine Partei genau diejenige Politik aus, die der Medianwähler wünscht. Dadurch werden von den großen Parteien politische Ränder und Problembereiche vernachlässigt. Zudem können für den Bürger sichtbare, ökonomisch aber nicht zwangsläufig vernünftige Maßnahmen unterstellt werden, während möglicherweise wichtigeren Zielen, die jedoch nicht vom Wähler als solche erkannt werden, nicht nachgegangen wird. Vielmehr können dann individuell spürbare Maßnahmen bei wenig spürbaren Belastungen für den Wähler unterstellt werden. Pfarrer. Pfarrer ist ein in christlichen, aber auch in freireligiösen Gemeinden verwendeter Begriff für eine Person, die mit der Leitung von Gottesdiensten, der seelsorglichen Betreuung und in der Regel auch mit der Leitung einer Kirchengemeinde betraut ist. In der katholischen Kirche kann nur ein Priester Pfarrer einer Gemeinde sein. Anstelle der Leitung einer Gemeinde kann ein Pfarrer jedoch auch einen anderen, speziellen Dienst (siehe unten) übernehmen. Die beiden großen Kirchen in Deutschland sowie die Selbständige Evangelisch-Lutherische Kirche regeln die Rechte und Pflichten der Pfarrer durch Kirchengesetz (Pfarrerdienstrecht), das sich weitgehend am staatlichen Beamtenrecht und an den Laufbahnen von Studienräten orientiert. Etymologie. Das Wort Pfarrer geht auf das ältere Pfarre „Amtsbezirk eines Pfarrers“ zurück, das aus dem kirchenlateinischen "par(r)ochia" „Diözese“ entlehnt wurde, welches letztendlich auf ', "paroikía" „Nachbarschaft, Aufenthalt in der Fremde“ zu ' „in der Nähe, nahe bei“ und ' „Haus, Heimat“ beruht. „Pfarrin“ bezeichnete im 19. Jahrhundert die Ehefrau des Pfarrers. Aufgaben. Ein Pfarrer bekleidet in der Regel ein Pfarramt. In Mittel- und Norddeutschland wird der Pfarrer auch Pastor genannt. Die Stellung und Aufgaben eines Pfarrers sind in den christlichen Konfessionen unterschiedlich: In den evangelischen Kirchen und der Altkatholischen Kirche ist der Pfarrer aus dem Kreise der bei der jeweiligen Kirche verbeamteten Geistlichen entweder von der Gemeinde gewählt oder von der übergeordneten Kirchenleitung ernannt. Im zweiten Fall muss auf die Ernennung die Vokation durch den Kirchenvorstand erfolgen. In seltenen Fällen wird die Pfarrstelle aber auch nach Präsentation durch einen Patron besetzt. In den evangelischen Kirchen wird man durch die Ordination zum Pfarrer. Ein Bewerber wird dadurch mit der öffentlichen Verkündigung des Wortes Gottes und der Verwaltung der Sakramente (vor allem Taufe und Abendmahl) beauftragt. In der Ordination verspricht der Pfarrer seelsorgerliche Verschwiegenheit und die Wahrung des Beichtgeheimnisses. Ein Pfarrer kann dann eine Gemeinde leiten oder auch in einem anderen Bereich geistliche Aufgaben erfüllen. Die meisten evangelischen Kirchen ordinieren Frauen und Männer ausschließlich ins Gemeindepfarramt und setzen für Sonderpfarrämter eine Praxiszeit im Gemeindepfarramt voraus. In der römisch-katholischen Kirche wird ein geweihter Priester vom Diözesanbischof zum Pfarrer ernannt, nachdem er die entsprechenden Examina abgelegt hat. Neben der Spendung der Sakramente und der Verkündigung des Wortes Gottes in Gottesdienst und Seelsorge gehört zum klassischen Gemeindepfarramt immer auch die Verwaltung einer Gemeinde, etwa das Pflegen der Kirchenbücher und die dienstrechtliche Aufsicht über die Mitarbeitenden. Um Pfarrer werden zu können, muss ein Bewerber Theologie studiert und Examina nach den Kirchenordnungen abgelegt haben. In der Regel gibt es eine akademische und eine praktische Vorbereitungsphase für den Pfarrdienst. In der katholischen Kirche stehen vor der Priesterweihe die akademischen und nach einer Praxiszeit als Kaplan in einer Pfarrgemeinde die praktischen Prüfungen (Pfarrexamen). Ein Pfarramt wird verliehen, nachdem sich ein Priester einige Jahre im geistlichen Dienst bewährt hat. Die Einführung eines Pfarrers in sein Amt bzw. in seine Gemeinde geschieht im Rahmen einer feierlich gestalteten Heiligen Messe. Dies soll bei der Gemeinde und beim Bewerber den Glauben stärken, dass Gott ihn in seinen Dienst beruft. Neben dem Wirkungsbereich innerhalb einer Ortsgemeinde (Pfarrei; in Österreich: Pfarre) arbeiten Pfarrer auch in anderen Institutionen: Schulpfarrer, Krankenhauspfarrer, Gefängnispfarrer, Leiter karitativer Einrichtungen, Hochschulpfarrer, Studienleiter an Akademien, Wirtschafts- und Sozialpfarrer, Betriebsseelsorger, Militärpfarrer, Polizeipfarrer, Fernsehpfarrer, Medienpfarrer, Zirkuspfarrer oder Schaustellerpfarrer. Katholische Geistliche in solchen Funktionen erhalten den Titel "Pfarrer" durch bischöfliches Dekret. Pfarrer waren in früheren Zeiten gelegentlich auch in ganz anderen Bereichen tätig, etwa als Mathematiker, Techniker, und Erfinder, zum Beispiel René-Just Haüy, Jacob Christian Schäffer, Michael Stifel, Friedrich Christoph Oetinger, Franz Senn und Philipp Matthäus Hahn. Politisch aktive Pfarrer waren bzw. sind Carl Sonnenschein, Peter Hintze und Joachim Gauck. Katholischen Priestern ist seit 1983 durch das Kirchenrecht untersagt, öffentliche Ämter anzunehmen, die eine Teilhabe an der Ausübung weltlicher Gewalt mit sich bringen. Kirchenrecht. In der römisch-katholischen Kirche amtiert der Pfarrer zwar unter der Autorität und im Namen des Bischofs, hat er jedoch erst einmal von seinem Amt Besitz ergriffen (Investitur), so kann ihn der Bischof ohne seine Einwilligung, besondere Gründe oder seinen Amtsverzicht nicht versetzen. Bis auf die Vollmacht, die hl. Weihen (Ordination) zu erteilen und die Firmung zu spenden, steht ihm die volle Jurisdiktion in seiner Pfarrei zu. Es ist dem Bischof jedoch möglich, den Pfarrer des Amtes zu entheben. Die Amtsgeschäfte in seinen Pfarreien führt der Pfarrer bis zu einem gewissen Grade frei, ist aber an die Vorgaben der Diözese gebunden und auf die Zusammenarbeit mit pastoralen Mitarbeitern und Ehrenamtlichen in Räten (z. B. Kirchengemeinderat, Kirchenvorstand, Pfarrverwaltungsrat, Pfarrgemeinderat und Ausschüssen) angewiesen. Eine besondere Stellung in der römisch-katholischen Kirche nimmt der Moderator ein. Er ist zwar geweihter Priester und kann mit der Leitung einer Pfarrei betraut werden, er kann aber aus bestimmten Gründen den Titel "Pfarrer" nicht tragen, etwa weil er als Ordenspriester nicht direkt der Diözese, sondern der Leitung seines Ordens untersteht oder weil er nicht die Staatsangehörigkeit jenes Landes besitzt, in welchem er tätig ist. Der Moderator kann auch jederzeit ohne seine Einwilligung und ohne Amtsverzicht versetzt werden. Ansonsten leitet er seine Pfarrei mit den gleichen Rechten und Pflichten wie ein Pfarrer. In den lutherischen Landeskirchen bestimmt die Kirchengemeindeordnung, dass die Kirchengemeinden vom Kirchenvorstand (bzw. Kirchengemeinderat) und Pfarrer gemeinsam geleitet werden. Die Mitglieder des Kirchenvorstandes sind hiernach verpflichtet, nach dem Maß ihrer Gaben und Kräfte zusammenzuarbeiten. Der Kirchenvorstand besteht aus gewählten Mitgliedern und Mitgliedern kraft Amtes (d.h. dem Pfarrer bzw. den Pfarrern). Vorsitz und stellvertretender Vorsitz werden von einem gewählten Mitglied und einem Mitglied kraft Amtes wahrgenommen. In der Württembergischen Evangelischen Landeskirche wird der Pfarrer in Verwaltungsangelegenheiten durch den Kirchenpfleger entlastet, der kraft Amtes auch Mitglied des Kirchengemeinderats ist und als Mitarbeiter der Kirchengemeinde vielfältige Verwaltungsaufgaben zu bearbeiten hat (Abwicklung der Einnahmen und Ausgaben, Buchungen, Haushaltsplan, Bauaufgaben, Personalangelegenheiten). Pädagogische Aufgaben oder solche der Sozialarbeit können in den evangelischen Kirchen einem Diakon übertragen sein. Auf diese Weise wird dem Pfarrer mehr Freiraum für seine Kernaufgaben in der geistlichen Gemeindearbeit verschafft. Psychologe. Psychologe ist die Berufsbezeichnung von Personen, die das Studium der Psychologie an einer Universität erfolgreich absolviert und als Diplom-Psychologe (Dipl.-Psych.) bzw. (M.Sc. Psychologie) abgeschlossen haben. Damit verbunden ist die Fachkunde zur Beschreibung, Erklärung, Modifikation und Vorhersage menschlichen Erlebens und Verhaltens. Der Beruf des Psychologen ist dem Gesetz nach ein Freier Beruf. Die Berufsbezeichnung "Psychologe" ist zu unterscheiden von der Berufsbezeichnung Psychotherapeut (s.u.). Das universitäre Studium der Psychologie berechtigt nicht zur Ausübung der Heilkunde, ist aber Voraussetzung, um die Approbation als Psychologischer Psychotherapeut zu erlangen. Für Diplom- und Master-Psychologen, die die Heilpraktiker­erlaubnis begrenzt auf das Gebiet der Psychotherapie erwerben wollen, gilt ein spezielles Erlaubnisverfahren. Sie müssen keine gesonderte Prüfung ablegen, wenn sie bestimmte Voraussetzungen erfüllen. Die Erlaubnis der Verwendung als Berufsbezeichnung ist in verschiedenen Ländern teilweise unterschiedlich gesetzlich geregelt (Titelschutz) und setzt ein Universitätsstudium voraus. Psychologen sind in sehr vielen Anwendungsfeldern (Gesundheitswesen, Bildungswesen, Wirtschaft, Forschung und Entwicklung, Rechtswesen, Verkehrswesen, Verwaltung etc.) tätig. Image in der Öffentlichkeit. Kanning (2014) berichtet über das Berufsbild in der Öffentlichkeit, dass hier ein verzerrtes Bild der Psychologie und von Psychologen bestehe. Psychologen werden regelhaft unzulässig mit Psychotherapeuten, bzw. generell mit Beratern und Helfern im Gesundheitswesen und in der Erziehung gleichgesetzt („Psychologen kümmern sich um Menschen mit Problemen“), werden also in Bezug auf Qualifikationen und Tätigkeiten mit anderen Berufsgruppen verwechselt (z. B. Ärzten, (Sozial-) Pädagogen / -arbeitern). Die Art der tatsächlichen Qualifikation, sowie der heute vorwiegenden Tätigkeiten in Forschung, Entwicklung, Evaluation, Assessment und wirtschaftsnahen wissenschaftlichen Dienstleistungen sei weitgehend unbekannt. Wissenschaftliche Basis. Die Ausbildung in Psychologie erfolgt orientiert am heutigen Psychologieverständnis als empirische Wissenschaft, die sich mit dem Erleben und Verhalten des Menschen beschäftigt und enthält einen großen Anteil an Wissenschaftsmethodik und Statistik. Berufliche Praxis. Psychologische Arbeitsfelder sind breit gefächert: im Zentrum steht die Entwicklung, Durchführung und Evaluation von Diagnostik- und Interventionsverfahren, v. a. psychologischer Beratung und Trainings, sowohl in klinischen als auch in anderen Bereichen der angewandten Psychologie, sowie der wissenschaftlichen Grundlagenforschung. Grundlage der psychologischen Tätigkeiten sind wissenschaftlich begründete Erkenntnisse und eine ethisch einwandfreie, vertrauenswürdige Arbeitsgestaltung und Behandlung der Klienten. Alle Arbeitsbereiche werden sowohl von Selbständigen als auch von Angestellten angeboten. Tätigkeitsfelder. Das Berufsfeld umfasst zahlreiche Spezialisierungen, die auch spezielle Weiterbildungen voraussetzen. Diese Tätigkeiten erfordern nicht notwendig, aber sinnvoller Weise eine Zusatzausbildung als Rechtspsychologe. Ausbildung und Weiterbildung sowie Fortbildung. An den verschiedenen Universitäten ist die "Psychologieausbildung" fakultär den Geisteswissenschaften oder den Naturwissenschaften zugeordnet und zum Teil recht pragmatisch mit anderen Fächern institutionell verbunden. Für einige berufliche Tätigkeiten ist neben dem Universitätsstudium eine spezialisierende "Weiterbildung" notwendig (z. B. Psychologischer Psychotherapeut oder Verkehrspsychologe). Solche meist postgradualen Weiterbildungen können zum Führen von Fachtiteln berechtigen, welche die besondere Qualifikation ausdrücken. Regelmäßige berufsbegleitende "Fortbildung" kann als Forderung von entsprechenden Berufsverbänden als Voraussetzung für das Weiterführen von Fachtiteln bestehen und von diesen kontrolliert werden. Klärungsbedarf besteht, welche beruflichen Tätigkeiten von Personen ausgeübt werden können, die einen BA-Abschluss erworben haben, aber keinen Masterabschluss. Einerseits wird daran festgehalten, dass ein vollwertiger Abschluss in Psychologie nur mit einem abgeschlossenen Masterstudium erreicht werden kann und dieser Voraussetzung für den Zugang zu Spezialisierungen und Weiterbildungen bleibt. Andererseits muss die Psychologie sich der Forderung stellen, dass der BA auch ein berufsqualifizierender Abschluss sein soll. EU-Ebene. Auf europäischer Ebene wird im Rahmen des Bolognaprozess und der Niederlassungsfreiheit eine Harmonisierung des Berufsprofils vorbereitet ("EuroPsy"). Vorgesehen ist eine Mindestqualifikation in Form eines abgeschlossenen wissenschaftlichen Universitätsstudiums von mindestens fünf Jahren Dauer, in dem ein naturwissenschaftlich orientiertes Mindestcurriculum absolviert wurde. Da der Beruf hier zu den naturwissenschaftlichen Berufen gehört, wird ein "Bachelor of Science" (B.Sc.) bzw. "Master of Science" (M.Sc.) für den Beruf des Psychologen vorausgesetzt. Für über die Bologna-Deklaration hinausgehende Spezialisierungen muss nach Abschluss des M.Sc. zusätzlich ein in Vollzeit absolviertes, einjähriges, von einem Psychologen supervidiertes und positiv evaluiertes Praxisjahr (Internship) abgeleistet werden. Deutschland. Psychologen üben ihre berufliche Tätigkeit als abhängig beschäftigte Arbeitnehmer oder als Selbständige aus. Die Tätigkeit von selbständigen Psychologen ist in Deutschland seit 1995, unabhängig vom konkreten Tätigkeitsbereich, als freier Beruf (Katalogberuf gem. EStG bzw. PartGG) anerkannt. Berufspsychologen mit staatlich anerkannter wissenschaftlicher Abschlussprüfung sind nach StGB zur Verschwiegenheit verpflichtet. Aus wettbewerbsrechtlichen Gründen (UWG) ist es unzulässig, die Bezeichnung "Psychologe" im Zusammenhang mit einer geschäftlichen Handlung zu führen, ohne über die entsprechende akademische Qualifikation zu verfügen, denn dies wird als Irreführung des Verbrauchers angesehen. Ein Bachelorabschluss soll nach Auffassung des Berufsverbands Deutscher Psychologinnen und Psychologen e.V. (BDP) nicht zur Führung der Berufsbezeichnung Psychologe qualifizieren, da die in den Rechtskommentaren geforderte Mindestqualifikation nicht erreicht werde. Außerdem vertritt der Berufsverband die Ansicht, die Führung der Berufsbezeichnung "Psychologe" ohne über eine entsprechende akademische Ausbildung zu verfügen, sei nach Abs. 2 StGB strafbar. Gesetzliche Regelung der universitären Ausbildung in Deutschland Das Studium der Psychologie mit dem Abschluss Diplom, ist in Deutschland seit 1941 gesetzlich geregelt und wurde seit Neugründung der universitären Lehre nach dem Ende des Nationalsozialismus regelmäßig durch die Deutsche Gesellschaft für Psychologie (DGPs) und die Kultusministerkonferenz (KMK) überarbeitet. Ziel der Ausbildungsorganisation war die Professionalisierung der Absolventen, also die Standardisierung und qualitative Sicherung der berufsmäßigen Ausübung der Psychologie. Für die neuen Studiengänge mit Abschlüssen als Bachelor und Master gibt es nur noch Empfehlungen der DGPs, welche sich am bisherigen Diplom-Studiengang orientieren. Eine gesetzliche Regelung und damit Bindung von Hochschulen an bestimmte wissenschaftliche Standards und (bestimmte) Inhalte eines Studiums mit der Bezeichnung Psychologie existieren für die neuen Studiengänge nicht mehr. Durch eine mindestens dreijährige, selbst zu finanzierende Vollzeit-Zusatzausbildung/Aufbaustudium kann ein akademisch ausgebildeter Diplom-Psychologe den gesetzlich geschützten Titel des "Psychotherapeuten" erwerben, indem er nach bestandener Staatsprüfung die Approbation als "Psychologischer Psychotherapeut" erhält, mit der er dann im Rahmen der bedarfsabhängigen gesetzlichen Bestimmungen eine Kassenzulassung beantragen kann. Änderung der Ausbildung: Umstellung auf Bachelor- und Masterstudiengänge Ursprünglich stellte die DGPs die Forderung, dass eigentlich nicht der Bachelor, sondern der Master der Regelabschluss sein müsste. „Psychologie ist ein komplexes Studium, so komplex wie sein Gegenstand, das menschliche Verhalten und Erleben. Die Wissens- und Kompetenzvermittlung nimmt mehr als drei Jahre in Anspruch“, sagt Hannelore Weber, seit 1994 Professorin an der Uni Greifswald und von 2004 bis 2006 Präsidentin der Deutschen Gesellschaft für Psychologie. Diese Forderung ließ sich aber gegen die bildungspolitischen Forderungen der Politik nicht umsetzen. Auch bei der Umstellung des Studiums vom Diplom auf Bachelor und Master stoßen die Fachbereiche auf bildungs- und hochschulpolitische Hürden bei der Umsetzung der DGPs Empfehlungen. Zum einen wird zu wenig Zeit für das Studium eingeräumt, was in ersten Erfahrungen nur durch Reduktion der Anforderungen (Niveau) und der zu erbringenden Prüfungsleistungen kompensiert werden konnte (mitgeteilt auf dem Symposium "Neue Studiengänge" auf dem DGPs-Kongress 2006 in Nürnberg). Zum anderen wurde der Curricularnormwert von 4,0 (Diplom-Psychologie) auf Werte zwischen 2,2 und 3,4 (Bachelor of Science) bzw. zwischen 1,1 und 1,7 (Master of Science) deutlich reduziert (ebd.). Verluste sollen durch Einrichtung von postgradualen Studiengängen (Graduiertenkollegs) kompensiert werden. Damit scheint der Weg, der auch bei vergleichbaren Studiensystemen im Ausland beschritten wird, auch in Deutschland zur Notwendigkeit zu werden. Die richtlinienorientierte universitäre Diplom-Ausbildung des Psychologen in Deutschland benötigt real, unabhängig von der Regelstudienzeit, sechs bis sieben Jahre. Ziel ist, dass ein berufspraktisch arbeitender Psychologe bei praktischen Entscheidungen auf wissenschaftliche Methodologie und empirische Befunde zurückgreift, im Rahmen seiner Tätigkeit nur wissenschaftlich valide Methoden, Instrumente und Techniken einsetzt, dass er, soweit möglich, seine Kunden, Klienten, Patienten, sowie Mitglieder anderer Berufsgruppen über empirische Befunde und wissenschaftlich begründete Analyse-, Klärungs- und Lösungsmöglichkeiten ihrer Probleme und Fragestellungen informiert und Fragen selbst mittels angewandter Forschung und Entwicklung bearbeitet und die Befunde für sich und andere anwendungsorientiert umsetzt. Weitere Ziele sind der Gebrauch des Fachwissens zu Aufbau und Aufrechterhaltung von effektiver Zusammenarbeit und Teamarbeit mit Angehörigen anderer Berufsgruppen und zur Verfügung stellen des durch das Training in wissenschaftlichen Methoden und in der Durchführung von empirischer Forschung erworbenen Know-Hows für andere Berufsgruppen, die nicht über eine solche Ausbildung verfügen, um z. B. Team- und andere Entscheidungen wissenschaftlich abzusichern, die Qualität der Arbeit zu verbessern usw. Weiterhin soll ein Psychologe eigenes Handeln für andere "transparent" gestalten, es selbst kritisch reflektieren und vor allem wissenschaftlich evaluieren, sowie sich kontinuierlich fortbilden. Der Berufs-Chancen-Check gibt 206 Berufe an, die wissenschaftlich ausgebildete Psychologen ausüben können. Es zeigt sich eine Fortsetzung des Trends, dass sowohl in der Ausbildung im Bachelor-Master-System wie auch in der Berufspraxis psychosoziale und klinische Bereiche und Tätigkeiten stark rückläufig sind, zugunsten wirtschaftsnaher und auch neuer Arbeitsfelder, in denen allerdings stärker die wissenschaftlich-methodischen Kompetenzen von Psychologen nachgefragt werden. Dabei gibt es weiterhin einen starken Trend weg vom klassischen Angestelltenverhältnis hin zur Selbständigkeit. Österreich. In Österreich sind Ausbildung, Zugang, Berufsbezeichnung und -ausübung durch das "Bundesgesetz über die Führung der Berufsbezeichnung „Psychologe” oder „Psychologin” und über die Ausübung des psychologischen Berufes im Bereich des Gesundheitswesens (Psychologengesetz)" geregelt. "Diplompsychologe" ist die alte Bezeichnung, anstelle des Magister treten "Bachelor/Master of Science". Für beide Berufe ist umfangreiche Weiterbildung notwendig, sie umfasst den Erwerb theoretischer und praktischer fachlicher Kompetenz, erstere im Ausmaß einer Gesamtdauer von zumindest 160 Stunden (§ 5 Abs. 1) in Lehrveranstaltungen anerkannter privat- oder öffentlich-rechtlicher Einrichtungen einschließlich der Universitätsinstitute und Universitätskliniken (§ 5 Abs. 1), zweitere von 1480 Stunden, davon zumindest 150 Stunden innerhalb eines Jahres in einer facheinschlägigen Einrichtung des Gesundheitswesens (§ 5 Abs. 2), sowie eine begleitende Supervision in der Gesamtdauer von zumindest 120 Stunden (§ 5 Abs. 2 Z. 2), mit Bestätigung (§ 9). Nach Gesetz unterliegen Klinische und Gesundheitspsychologen dann auch medizinischen Grundverpflichtungen wie Ausüben des Berufs "nach bestem Wissen und Gewissen", Weiterbildung unter Beachtung der Entwicklung der Erkenntnisse der Wissenschaft, Verschwiegenheit, Auskunft über die Behandlung, und Ähnlichem ("Berufspflichten" §§ 13,14). Sie werden auch in eine am Bundeskanzleramt geführte Berufsliste eingetragen ("Liste der klinischen Psychologen und Gesundheitspsychologen" §§ 16,17) Weitere Spezialausbildungen sind etwa "Psychosozialer Gesundheitstrainer", "Mehrfachtherapie-Konduktor für Cerebralparetiker und Mehrfachbehinderte" Verwandte Berufe – das heißt, dass die Ausbildung teilweise angerechnet wird – sind "Arzt, Bildungs- und Berufsberater, Ehe- und Familienberater, Kognitionswissenschafter, Lebens- und Sozialberater, Pädagoge, psychiatrische Gesundheits- und Krankenschwester/Pfleger, Psychotherapeut, Sozialarbeiter, Soziologe". Zugeordnet wird der Beruf Psychologe dem Berufsbereich "Gesundheit und Medizin" nach AMS für die gesetzlich besonders geregelten Formen, sonst den Bereichen "Soziales, Erziehung und Bildung" und "Wissenschaft, Forschung und Entwicklung", oder der Berufsgruppe "Gesundheit/Medizin/Pflege" (Arbeitsfeld "Arbeitsplatz Krankenhaus") nach BIC Das Studium hat großen Andrang, an den meisten österreichischen Universitäten wurden Zugangsbeschränkungen eingerichtet. Die Niederlassungsfreiheit ist über das "Bundesgesetz über die Niederlassung und die Ausübung des freien Dienstleistungsverkehrs von klinischen Psychologen und Gesundheitspsychologen aus dem Europäischen Wirtschaftsraum (EWR-Psychologengesetz)" geregelt, es gilt für die EWR-Vertragsstaaten und die Schweizerische Eidgenossenschaft, sowie dann für Drittländer, wenn deren Ausbildung in ersteren anerkannt ist. Im Ausland ausgebildete Nicht-Österreicher werden damit – eine vorausgehende Prüfung der Ausbildung durch den Gesundheitsminister vorausgesetzt – Österreichern (mit in- und ausländischer Qualifikation) gleichgestellt und allenfalls ebenfalls in der "Liste der klinischen Psychologen und Gesundheitspsychologen" zertifiziert. Dem "Psychologenbeirat", dem Beratungsorgan am Bundeskanzleramt (laut § 19 "Psychologengesetz") gehören neben Vertretern von BÖP, ÖGP und GkPP und "Psychotherapiebeirat" beim Bundeskanzleramt auch Vertreter folgender Organisationen der Sozialpartnerschaft an: Österreichische Ärztekammer, Bundeskammer der Gewerblichen Wirtschaft, Hauptverband der Österreichischen Sozialversicherungsträger, Österreichischer Arbeiterkammertag, Österreichischer Gewerkschaftsbund, Präsidentenkonferenz der Landwirtschaftskammern Österreichs Schweiz. Das neue Psychologieberufegesetz (PsyG) führt einen Titelschutz in der Schweiz ein und soll voraussichtlich am 1. März 2013 in Kraft treten. Danach dürfen sich nur die Personen „Psychologe“ oder „Psychologin“ nennen, die einen nach Gesetz anerkannten schweizerischen Master-, Lizenziats- oder Diplomabschluss in Psychologie an einer schweizerischen Universität oder Fachhochschule erworben haben. Vergleichbare ausländische Abschlüsse werden dann anerkannt, wenn die für ausländische Abschlüsse zuständige Psychologieberufekommission diese nach Abwägung anerkennt oder ein Staatsvertrag zur gegenseitigen Anerkennung entsprechender Diplome vorliegt. Bachelors dürfen sich gewerblich nicht schriftlich als Psychologe/Psychologin bezeichnen. Der Bachelortitel (Bachelor of Science in Psychologie) ist aber ebenfalls geschützt. In der Schweiz wird ein Psychologiestudium – früher mit dem Abschluss eines Lizenziats (lic.phil), heute EU-kompatibel als BA/BSc- oder MA/MSc-Studium – an folgenden Universitäten angeboten: Basel, Bern, Freiburg, Genf, Lausanne, Neuenburg und Zürich. Die Studienpläne entsprechen dabei weitgehend etwa denen in Deutschland, Schweizer Wissenschaftler haben an der Erarbeitung der Empfehlungen der Deutschen Gesellschaft für Psychologie mitgearbeitet. Daneben wird ein Fachhochschulstudium an der Zürcher Hochschule für Angewandte Wissenschaften – Departement Psychologie (ZHAW-P) und der Fachhochschule Nordwestschweiz (FHNW) – Hochschule für Angewandte Psychologie, mit einer Ausbildung zum Psychologen angeboten, welches gesetzlich anerkannt ist (BSc. MSc.). Der Ausbildungsschwerpunkt liegt dabei vor allem auf den Anwendungen der Psychologie. Eine Vorgängereinrichtung bot früher Ausbildungsabschlüsse mit dem Titel "Psych. IAP" (Institut für angewandte Psychologie) und "dipl. Psych. FH" an. Der dipl. Psychologe FH ist ebenfalls gesetzlich geschützt. Die Föderation der Schweizer Psychologinnen und Psychologen (FSP) als Dachverband mit ihren kantonalen und thematischen Gliedverbänden ist der größte Berufsverband (ca. 6500 Mitglieder) der Psychologen in der Schweiz (Gründung 1987). Daneben besteht noch der ältere Schweizerische Berufsverband für Angewandte Psychologie (Gründung 1952), in welchen sich mehrheitlich die FH-Psychologen organisiert haben (ca. 900). Die Schweizerische Gesellschaft für Psychologie (SGP, Gründung 1943) als älteste Psychologenvereinigung der Schweiz ist die Wissenschaftliche Gesellschaft der Psychologie in der Schweiz. Andere Staaten. In einigen Staaten, wie z. B. in den USA, ist Psychologe ebenfalls eine geschützte Berufsbezeichnung, die aber darüber hinaus einer besonderen staatlichen Zulassung zusätzlich zu einem absolvierten Studium bedarf. Da staatliche Regelungen für die Ausbildung von Psychologen oft fehlen, wird jeder Antragsteller in Bezug auf seine erworbenen Kompetenzen überprüft, ob und inwieweit er über eine ausreichende Qualifikation verfügt, als Psychologe (unabhängig vom Berufsfeld) verantwortungsvoll tätig sein zu können; dieses Vorgehen dient als Vorbild für die europäische Regelung. Darauf aufbauend gibt es auch weitere staatliche Zulassungen, wie z. B. für den Bereich der Psychotherapie. Platin. Platin (Deutschland:, Österreich:) ist ein chemisches Element mit dem Elementsymbol Pt und der Ordnungszahl 78. Im Periodensystem steht es in der Gruppe 10 (in der alten Zählung Teil der 8. Nebengruppe) oder Nickelgruppe. Platin ist ein schweres, schmiedbares, dehnbares, grau-weißes Übergangsmetall. Das Edelmetall ist sehr korrosionsbeständig und wird zur Herstellung von Schmuckwaren, Fahrzeugkatalysatoren, Laborgeräten, Zahnimplantaten und Kontaktwerkstoffen verwendet. Geschichte. Der Name leitet sich vom spanischen Wort "platina", der negativ besetzten Verkleinerungsform von "plata" „Silber“, ab. Die erste europäische Erwähnung stammt von dem italienischen Humanisten Julius Caesar Scaliger. Er beschreibt ein mysteriöses weißes Metall, das sich allen Schmelzversuchen entzog. Eine ausführlichere Beschreibung der Eigenschaften findet sich in einem 1748 veröffentlichten Bericht von Antonio de Ulloa. Platin wurde wahrscheinlich erstmals um 3000 vor Chr. im Alten Ägypten verwendet. Der britische Forscher Sir William Matthew Flinders Petrie (1853–1942) entdeckte im Jahr 1895 altägyptischen Schmuck und stellte fest, dass Platin in kleiner Menge mitverwendet wurde. Platin wurde auch von den Indianern Südamerikas benutzt. Es fand sich beim Gewinnen von Goldstaub im Waschgold als Begleitung und konnte nicht explizit abgetrennt werden. Die Schmiede seinerzeit nutzten unbewusst die Tatsache aus, dass sich native Platinkörnchen mit Goldstaub in der Glut von mit Blasebalgen angefachtem Holzkohlefeuer gut verschweißen lassen, wobei das Gold wie ein Lot wirkte und sich durch wiederholtes Schmieden und Erhitzen eine relativ homogene, helle, in der Schmiedehitze verformbare Metalllegierung erzeugen ließ. Diese konnte nicht wieder geschmolzen werden und war genauso beständig wie Gold, allerdings von weißlich-silberartiger Farbe. Schon ein ungefähr 15-prozentiger Platinanteil führt zu einer hellgrauen Farbe. Reines Platin war jedoch noch unbekannt. Im 17. Jahrhundert wurde Platin in den spanischen Kolonien als lästiges Begleitmaterial beim Goldsuchen zu einem großen Problem. Man hielt es für „unreifes“ Gold und warf es wieder in die Flüsse Ecuadors zurück. Da es ein ähnliches spezifisches Gewicht wie Gold hat und selbst im Feuer nicht anlief, wurde es zum Verfälschen desselben verwendet. Daraufhin erließ die spanische Regierung ein Exportverbot. Sie erwog sogar, sämtliches bis dato erhaltenes Platin im Meer zu versenken, um Platinschmuggel und Fälscherei zuvorzukommen und davor abzuschrecken. Die Alchemie des 18. Jahrhunderts war gefordert, denn das Unterscheiden vom reinen Gold und das Extrahieren gestalteten sich mit den damaligen Techniken als außerordentlich schwierig. Das Interesse aber war geweckt. 1748 veröffentlichte Antonio de Ulloa einen ausführlichen Bericht über die Eigenschaften dieses Metalls. 1750 stellte der englische Arzt William Brownrigg gereinigtes Platinpulver her. Louis Bernard Guyton de Morveau fand im Jahre 1783 ein einfaches Verfahren um Platin industriell zu gewinnen. Platin als Mineral und Vorkommen. Einige Platin-Nuggets aus Kalifornien (USA) und Sierra Leone Platin kommt gediegen, das heißt in elementarer Form in der Natur vor und ist deshalb von der International Mineralogical Association (IMA) als Mineral anerkannt. In der Systematik der Minerale nach Strunz (9. Auflage) ist es in der Mineralklasse der „Elemente“ und der Abteilung der „Metalle und intermetallische Verbindungen“, wo es als Namensgeber der Unterabteilung „Platin-Gruppen-Elemente“ zusammen mit Iridium, Palladium und Rhodium die unbenannte Gruppe "1.AF.10" bildet. In der veralteten, aber noch gebräuchlichen 8. Auflage trug Platin die System-Nr. "I/A.14-70" (Elemente – Metalle, Legierungen, intermetallische Verbindungen). Durch das von Hans Merensky 1924 entdeckte sogenannte Merensky Reef wurde der kommerzielle Abbau von Platin wirtschaftlich. Die bedeutendsten Fördernationen von Platin waren 2011 Südafrika mit 139 Tonnen, Russland mit 26 Tonnen und Kanada mit 10 Tonnen, deren Anteil an der Weltförderung von 192 Tonnen 91 Prozent betrug ("Siehe auch:" Förderung nach Ländern – Platin). Der Platinpreis liegt zurzeit etwa 10 Prozent über dem Goldpreis (Stand: Juli/August 2013). Weltweit konnte Platin bisher (Stand: 2011) an rund 380 Fundorten nachgewiesen werden, so unter anderem in mehreren Regionen von Äthiopien, Australien, Brasilien, Bulgarien, China, der Demokratischen Republik Kongo, Deutschland, Frankreich, Guinea, Indonesien, Irland, Italien, Japan, Kolumbien, Madagaskar, Mexiko, Myanmar, Neuseeland, Norwegen, Papua-Neuguinea, Philippinen, Sierra Leone, Simbabwe, Slowakei, Spanien, Tschechien, Türkei, im Vereinigten Königreich und den Vereinigten Staaten von Amerika (USA). Platin kommt auch in Form chemischer Verbindungen in zahlreichen Mineralen vor. Bisher sind rund 50 Platinminerale bekannt (Stand: 2011). Gewinnung und Herstellung. Platin-Kristalle, gewonnen durch chemische Transportreaktionen in der Gasphase. Metallisches Platin (Platinseifen) wird heute praktisch nicht mehr abgebaut. Umfangreichen Platinbergbau gibt es nur im südafrikanischen Bushveld-Komplex, ferner am Great Dyke in Simbabwe und im Stillwater-Komplex in Montana. Die südafrikanischen Bergwerke gehören z. B. "Lonmin," "Anglo American Platinum" oder "Impala Platinum". Platinquellen sind auch die Buntmetallerzeugung (Kupfer und Nickel) in Greater Sudbury (Ontario) und Norilsk (Russland). Hier fallen die Platingruppenmetalle als Nebenprodukt der Nickelraffination an. Als Platinnebenmetall bezeichnet man fünf Metalle, die in ihrem chemischen Verhalten dem Platin so ähneln, dass die Trennung und Reindarstellung früher große Schwierigkeiten machte. 1803 wurden Iridium, Osmium, Palladium und Rhodium entdeckt; 1844 folgte Ruthenium. Platinschwamm entsteht beim Glühen von Ammoniumhexachloroplatinat(IV) (NH4)2[PtCl6] oder beim Erhitzen von Papier, das mit Platinsalzlösungen getränkt ist. Zum Recyceln von Platin wird dieses entweder oxidativ in Königswasser, einer Mischung aus Salpeter- und Salzsäure, oder in einer Mischung aus Schwefelsäure und Wasserstoffperoxid aufgelöst. In diesen Lösungen liegt Platin dann in Form von Komplexverbindungen (z. B. im Fall von Königswasser als Hexachloroplatin(IV)-säure) vor und kann daraus durch Reduktion wieder gewonnen werden. Forscher der National Chung Hsiang University (Taiwan) haben ein neuartiges Verfahren entwickelt, bei dem Platin elektrochemisch in einer Mischung aus Zinkchlorid und einer speziellen ionischen Flüssigkeit aufgelöst wird. Unter einer ionischen Flüssigkeit versteht man ein organisches Salz, das bereits bei Temperaturen unterhalb von 100 °C geschmolzen vorliegt und über eine hohe Leitfähigkeit verfügt. Das gebrauchte Platin wird in Form einer Elektrode, die als Anode geschaltet wird, eingesetzt und die umgebende ionische Flüssigkeit auf etwa 100 °C erhitzt. Das Platin löst sich dabei oxidativ auf. Anschließend lässt sich das gelöste Platin als reines Metall auf einer Trägerelektrode wieder abscheiden. Physikalische Eigenschaften. Platin ist ein korrosionsbeständiges, schmiedbares und weiches Schwermetall. Auf Grund seiner hohen Haltbarkeit, Anlaufbeständigkeit und Seltenheit eignet sich Platin besonders für die Herstellung hochwertiger Schmuckwaren. Platin ist in Pulverform je nach Korngröße grau (herstellungsbedingt nach der Zersetzung des (NH4)2[PtCl6]) bis schwarz (Platinmohr), geruchlos und entzündbar. Das Metall in kompakter Form ist nicht brennbar. Chemische Eigenschaften. Platin zeigt, wie auch die anderen Metalle der Platingruppe, ein widersprüchliches Verhalten. Einerseits ist es edelmetalltypisch chemisch träge, andererseits hochreaktiv, katalytisch-selektiv gegenüber bestimmten Substanzen und Reaktionsbedingungen. Auch bei hohen Temperaturen zeigt Platin ein stabiles Verhalten. Es ist daher für viele industrielle Anwendungen interessant. Platin löst sich in heißem Königswasser In Salz- und in Salpetersäure alleine ist es jeweils unlöslich. In heißem Königswasser, einem Gemisch aus Salz- und Salpetersäure, wird es dagegen unter Bildung von rotbrauner Hexachloroplatin(IV)-säure angegriffen. Platin wird aber auch von Salzsäure bei Anwesenheit von Sauerstoff und von heißer rauchender Salpetersäure stark angegriffen. Auch von Alkali-, Peroxid-, Nitrat-, Sulfid-, Cyanid- und anderen Salzschmelzen wird Platin angegriffen. Viele Metalle bilden mit Platin Legierungen, beispielsweise Eisen, Nickel, Kupfer, Cobalt, Gold, Wolfram, Gallium, Zinn, etc. Besonders hervorzuheben ist, dass Platin zum Teil unter Verbindungsbildung mit heißem Schwefel, Phosphor, Bor, Silicium, Kohlenstoff in jeder Form reagiert, das heißt auch in heißen Flammengasen. Auch viele Oxide reagieren mit Platin, weshalb auch nur bestimmte Werkstoffe als Tiegelmaterial eingesetzt werden können. Beim Schmelzen des Metalls mit beispielsweise einer Propan-Sauerstoff-Flamme muss deshalb mit neutraler bis schwachoxidierender Flamme gearbeitet werden. Beste Möglichkeit ist das flammenfreie elektrisch-induktive Heizen des Schmelzgutes in Zirkonoxidkeramiken. Katalytische Eigenschaften. Sowohl Wasserstoff, Sauerstoff als auch andere Gase werden von Platin im aktivierten Zustand gebunden. Es besitzt daher bemerkenswerte katalytische Eigenschaften; Wasserstoff und Sauerstoff reagieren in seiner Anwesenheit explosiv miteinander zu Wasser. Weiterhin ist es die katalytische aktive Spezies beim katalytischen Reforming. Allerdings werden Platinkatalysatoren schnell durch Alterung und Verunreinigungen inaktiv (vergiftet) und müssen regeneriert werden. Poröses Platin, das eine besonders große Oberfläche aufweist, wird auch als "Platinschwamm" bezeichnet. Durch die große Oberfläche ergeben sich bessere katalytische Eigenschaften. Verwendung. Aufgrund ihrer Verfügbarkeit und der hervorragenden Eigenschaften gibt es für Platin und Platinlegierungen zahlreiche unterschiedliche Einsatzgebiete. So ist Platin ein favorisiertes Material zur Herstellung von Laborgeräten, da es keine Flammenfärbung erzeugt. Es werden z. B. dünne Platindrähte verwendet, um Stoffproben in die Flamme eines Bunsenbrenners zu halten. Der gebräuchlichste Werkstoff für die Geräte zur Herstellung von optischem Glas ist Rein-Pt oder Pt mit 0,3 bis 1,0 % Ir für die Tiegel und Rohrsysteme sowie PtRh3 bis PtRh10 für stark mechanisch beanspruchte Geräte wie zum Beispiel Rührer. Bei den Geräten für die Herstellung von technischem Glas verwendet man PtRh10- bis PtRh30-Werkstoffe. Diese mechanisch stabileren hochprozentigen PtRh-Werkstoffe können in der optischen Glasschmelze nicht eingesetzt werden, da das Rh eine leicht gelbliche Färbung in der Schmelze hinterlässt, die zu Transmissionsverlusten in den optischen Glasprodukten führt. Für spezielle Anwendungen werden auch FKS- ("f"ein"k"orn"s"tabilisierte) und ODS (Oxide Dispersion Strengthened)-Werkstoffe in der optischen und technischen Spezialglasschmelze eingesetzt. Diese pulvermetallurgisch hergestellten Pt-, PtRh-, PtIr-, und PtAu-Werkstoffe werden mit ca. 0,2 % Yttrium- bzw. Zirkonoxid dotiert, um ein vorzeitiges Kornwachstum bei den Platingeräten im Glasschmelzprozess zu verhindern. Das Hauptproblem bei der Bearbeitung dieser Werkstoffe ist die eingeschränkte Schweißbarkeit bei der Geräteherstellung. Der Internationale Kilogrammprototyp, der in einem Tresor des Bureau International des Poids et Mesures (BIPM) aufbewahrt wird, besteht aus einer Legierung von 90 % Platin und 10 % Iridium. Aus derselben Legierung besteht der Internationale Meterprototyp von 1889, der bis 1960 den Meter definierte. Als Platin im Sinne der Kombinierten Nomenklatur gelten gemäß Anmerkung 4.B zu Kapitel 71 Platin, Iridium, Osmium, Palladium, Rhodium und Ruthenium. Legierungen/Werkstoffe. Fasserplatin ist eine Legierung bestehend aus ca. 96 % reinem Platin und ca. 4 % reinem Palladium (Schmelzpunkt: 1750 °C, Dichte: 20,8 g/cm3, Brinellhärte: 55, Zugfestigkeit: 314 N/mm2, Bruchdehnung: 39). Juwelierplatin ist eine Legierung bestehend aus ca. 96 % reinem Platin und ca. 4 % reinem Kupfer (Schmelzpunkt: 1730 °C, Dichte: 20,3 g/cm3, Brinellhärte: 110, Zugfestigkeit: 363 N/mm2, Bruchdehnung: 25). Beide Legierungen werden in der Schmuckindustrie häufig für Platin-Schmuck verwendet. Die ODS- und FKS-Werkstoffe haben in etwa die gleichen physikalischen Eigenschaften, aber werden aus patentrechtlichen Gründen mit Yttrium- bzw. Zirkoniumoxid hergestellt. Diese Legierungen werden von den Spezialglasherstellern wie zum Beispiel Hoya und Asahi in Japan, Corning in den USA, Saint-Gobain in Frankreich und Schott in Deutschland für unzählige Geräte in der Glasschmelztechnik verwendet. Verbindungen. Ein Beispiel für eine Verbindung mit Platin in der Oxidationsstufe 0 ist Platinpreis. Die Bezeichnung für Platin, das an der Börse gehandelt wird, ist XPT. Die internationale Wertpapierkennnummer (ISIN) im Börsenhandel lautet XC0009665545. Palladium. Palladium ist ein chemisches Element mit dem Elementsymbol Pd und der Ordnungszahl 46. Das seltene, silberweiße Übergangsmetall zählt zu den Platinmetallen, im Periodensystem steht es in der 5. Periode und der 10. Gruppe (früher Teil der 8. Nebengruppe) oder Nickelgruppe. Es ähnelt im chemischen Verhalten sehr dem Platin. Geschichte. Palladium wurde 1803 von William Hyde Wollaston entdeckt. Er benannte es 1804 nach dem zwei Jahre vorher entdeckten Asteroiden Pallas. Wollaston fand das Element 46 in südamerikanischem Platinerz aufgrund zu geringer Ausbeuten an Platin aus in Königswasser aufgelösten Proben. 2010 geriet es ins Blickfeld der Weltöffentlichkeit: Drei Forscher erhielten den Nobelpreis für Chemie für ein Verfahren, das mit Hilfe von Palladium als Katalysator effiziente Wege ermöglicht, Kohlenstoffatome zu komplexen Molekülen zu verbinden. Vorkommen. Metallisches Palladium und palladiumhaltige Legierungen finden sich hauptsächlich in Flusssedimenten als geologische Seifen im Ural, Australien, Äthiopien und in Nord- und Südamerika. Sie sind aber seit Jahrzehnten weitestgehend ausgebeutet. Heute wird es meist aus Nickel- und Kupfererzen gewonnen. Im Jahr 2011 stammten etwa 41 Prozent (85.000 kg) aus russischer Förderung, gefolgt von Südafrika mit etwa 37,5 Prozent (78.000 kg). Mit großem Abstand folgten Kanada mit knapp 9 Prozent (18.000 kg) sowie die USA mit 6 Prozent (12.500 kg). In der "Platinmetallgruppe" (Platin, Palladium, Iridium, Osmium, Rhodium und Ruthenium) verfügt Südafrika mit 63 Millionen Kilogramm von weltweit 66 Millionen Kilogramm Reserven über mehr als 95 Prozent der weltweiten Reserven. Mit der Altwagenentsorgung wird der Anteil des recycelten Palladiums aus den Abgaskatalysatoren ansteigen. Über die Möglichkeit der Gewinnung von Palladium aus abgebrannten Brennelementen, siehe Edelmetallsynthese. Durch Di-n-hexylsulfid kann Palladium selektiv von anderen Metallen aus salzsauren Lösungen abgetrennt werden. "→ Tabellen und Grafiken" Physikalische Eigenschaften. Palladium ist ein Metall und das zweite Element der Nickelgruppe. Es hat von den Elementen dieser Gruppe den niedrigsten Schmelzpunkt und ist auch am reaktionsfreudigsten. Bei Raumtemperatur reagiert es jedoch nicht mit Sauerstoff. Es behält an der Luft seinen metallischen Glanz und läuft nicht an. Bei Erhitzung auf etwa 400 °C läuft es aufgrund der Bildung einer Oxidschicht aus Palladium(II)-oxid stahlblau an. Bei etwa 800 °C zersetzt sich das Oxid wieder, wobei die Oberfläche wieder blank wird. Im geglühten Zustand ist es weich und duktil, bei Kaltverformung steigt die Festigkeit und Härte aber schnell an (Kaltverfestigung). Es ist dann deutlich härter als Platin. Bei Temperaturen über 500 °C reagiert Palladium empfindlich auf Schwefel und Schwefelverbindungen (z. B. Gips). Es bildet sich Palladium(II)-sulfid, welches zur Versprödung von Palladium und Palladiumlegierungen führt. Chemische Eigenschaften. Palladium ist ein Edelmetall, auch wenn es deutlich reaktiver ist als das verwandte Element Platin: Es löst sich in Salpetersäure, wobei Palladium(II)-nitrat Pd(NO3)2 gebildet wird. Es löst sich ebenfalls in Königswasser und in heißer konzentrierter Schwefelsäure. In Salzsäure löst es sich bei Luftzutritt langsam auf unter Bildung von PdCl42−. Der Edelmetallcharakter von Palladium ist dem des benachbarten Silbers vergleichbar: In Salzsäure verhält es sich aufgrund der Bildung von leichtlöslichen Palladiumchloridverbindungen unedel. In feuchter Atmosphäre bei Anwesenheit von Schwefel wird die Oberfläche von Palladium getrübt. Palladium besitzt die höchste Absorptionsfähigkeit aller Elemente für Wasserstoff. Diese grundlegende Entdeckung geht auf Thomas Graham im Jahre 1869 zurück. Bei Raumtemperatur kann es das 900-fache, Palladiummohr (feinverteiltes schwarzes Palladiumpulver) das 1200-fache und kolloidale Palladiumlösungen das 3000-fache des eigenen Volumens binden. Man kann die Wasserstoffaufnahme als Lösen von Wasserstoff im Metallgitter und als Bildung eines Palladiumhydrids mit der ungefähren Zusammensetzung Pd2H beschreiben. Bei 30 °C und Normaldruck entspricht das maximale Wasserstoff-Palladium-Verhältnis der Formel PdH0,608. Gewöhnlich nimmt es die Oxidationsstufen +2 und +4 an. Bei Verbindungen der scheinbaren Oxidationsstufe +3 handelt es sich um Pd(II)/Pd(IV)-Mischverbindungen. In neueren Untersuchungen konnte auch sechswertiges Palladium dargestellt werden. Es sind aber auch die Oxidationsstufen 0 [Pd(PR3)4], +1 oder +5 möglich. Sicherheitshinweise. Palladium ist in kompakter Form nicht brennbar, jedoch als Pulver oder Staub leicht entzündlich. Verwendung. Feinverteilt ist Palladium ein exzellenter Katalysator zur Beschleunigung von chemischen Reaktionen, insbesondere Hydrierungen und Dehydrierungen (Addition und Eliminierung von Wasserstoff) sowie zum Cracken von Kohlenwasserstoffen. Palladiumpreis. Die Bezeichnung für Palladium, das an der Börse gehandelt wird, ist XPD. Die Internationale Wertpapierkennnummer ist ISIN XC0009665529. Verbindungen. Die meisten Palladiumverbindungen weisen eine quadratische Struktur auf. Einer Forschergruppe der Universität Oldenburg ist es gelungen, die Verbindung Palladiumdisulfat, Pd(S2O7), mit einer oktaedrischen Struktur zu synthetisieren. Das Besondere an dieser Verbindung ist die ferromagnetische Eigenschaft bei tiefen Temperaturen, die bei Palladiumverbindungen bisher noch nicht beobachtet wurde. Promethium. Promethium (von Prometheus, einem Titanen der griechischen Mythologie) ist ein chemisches Element mit dem Elementsymbol Pm und der Ordnungszahl 61. Im Periodensystem steht es in der Gruppe der Lanthanoide und zählt damit auch zu den Metallen der seltenen Erden. Promethium wurde 1945 als Spaltprodukt des Urans entdeckt. Durch seine Entdeckung wurde die letzte Lücke im Periodensystem geschlossen. Alle Promethium-Isotope sind radioaktiv, das heißt, sämtliche Atomkerne, die 61 Protonen enthalten, sind instabil und zerfallen. Promethium und das leichtere Technetium (43) sind die einzigen Elemente mit kleinerer Ordnungszahl als Bismut (83), die diese Eigenschaft besitzen. Fehlgeschlagene Entdeckungen. Die erste Entdeckung wurde von den italienischen Wissenschaftlern Luigi Rolla und Lorenzo Fernandes aus Florenz veröffentlicht. Nach der Trennung eines Didym-Nitrat-Konzentrats durch fraktionierte Kristallisation aus dem brasilianischen Mineral Monazit, welches zu 70 % Dysprosium und Neodym sowie zu 30 % aus den anderen Lanthanoiden besteht, erhielten sie eine Lösung, die hauptsächlich Samarium enthielt. Diese Lösung ergab Röntgenspektren, die sie als Samarium und Element 61 interpretierten. Sie benannten das Element 61 zu Ehren ihrer Stadt "Florentium". Die Ergebnisse wurden im Jahr 1926 veröffentlicht, doch die Wissenschaftler behaupteten, dass die Experimente im Jahr 1924 durchgeführt worden seien. Im selben Jahr 1926 veröffentlichten Smith Hopkins und Len Yntema an University of Illinois in Urbana-Champaign die Entdeckung des Elements 61. Sie nannten es nach der Universität "Illinium". Keine der beiden Entdeckungen konnte überprüft werden. So behaupteten mehrere Gruppen, das Element erzeugt zu haben, aber sie konnten ihre Entdeckungen aufgrund der Schwierigkeiten bei der Trennung von Promethium von den anderen Elementen nicht bestätigen. Nachweis durch Marinsky, Glendenin und Coryell. Promethium wurde 1945 im Oak Ridge National Laboratory (ORNL) (Tennessee, USA) von Jacob A. Marinsky, Lawrence E. Glendenin und Charles D. Coryell als Spaltprodukt des Urans entdeckt. Bedingt durch die militärischen Forschungen während des Zweiten Weltkriegs wurde ihre Entdeckung erst 1947 veröffentlicht. Den Namen Promethium wählten sie in Anlehnung an den griechischen Titanen Prometheus, der den Menschen das Feuer brachte und so den Zorn der Götter erweckte. Dies war als Warnung an die Menschheit gedacht, die zu diesem Zeitpunkt mit dem nuklearen Wettrüsten begann. Der Name wurde von Grace Mary Coryell, Charles Coryells Frau, vorgeschlagen. Irdisches Vorkommen. In der Natur findet sich Promethium zumeist als Produkt der Spontanspaltung von Uran sowie durch Alphazerfall des Europiumisotops 151Eu. In Spuren findet es sich in Pechblende in einer Konzentration von (4±1)·10−15 Gramm 147Pm pro kg. Das gleichmäßige Vorkommen von Promethium in der Erdkruste beträgt etwa 560 g durch Uranspaltung und etwa 12 g durch Alphazerfall von 151Eu. Außerirdisches Vorkommen. Promethium wurde im Jahr 1971 im Spektrum des Sterns HR 465 (GY Andromedae) nachgewiesen; und möglicherweise in HD 101065 (Przybylski's star) und HD 965. Gewinnung und Darstellung. Im Jahr 1963 wurden Ionenaustauscher-Methoden im ORNL verwendet, um etwa 10 Gramm Promethium aus den Brennstoffabfällen von Kernreaktoren zu erhalten. 1963 konnte Fritz Weigel erstmals metallisches Promethium durch Erhitzen von Promethium(III)-fluorid (PmF3) mit Lithium im Tantal-Tiegel herstellen. Eigenschaften. Im Periodensystem steht das Promethium mit der Ordnungszahl 61 in der Reihe der Lanthanoide, sein Vorgänger ist das Neodym, das nachfolgende Element ist das Samarium. Sein Analogon in der Reihe der Actinoide ist das Neptunium. Kristallstruktur von Promethium, a = 365 pm, c = 1165 pm Physikalische Eigenschaften. Da das Isotop 147Pm künstlich als Spaltprodukt in wägbaren Mengen gewonnen werden kann, ist es möglich, die Eigenschaften recht gut zu untersuchen. Promethium ist ein silberweißes duktiles Schwermetall. Es besitzt einen Schmelzpunkt von 1080 °C; für den Siedepunkt gibt es Schätzwerte von 2727 und 3000 °C. Unter Standardbedingungen kristallisiert Promethium in einer hexagonal-dichtesten Kugelpackung mit den Gitterparametern "a" = 365 pm und "c" = 1165 pm mit einer berechneten Dichte von 7,26 g/cm3. Chemische Eigenschaften. Das Metall wird an der Luft recht rasch oxidiert und reagiert langsam mit Wasser. Promethium kommt in seinen Verbindungen ausschließlich in der Oxidationsstufe +3 vor ([Xe] 4f4). Es gibt dabei die beiden 6s-Elektronen und ein 4f-Elektron ab. Die Lösungen sind violettstichig rosa gefärbt. Es bildet unter anderem ein schwerlösliches Fluorid, Oxalat und Carbonat. Isotope. Das stabilste Isotop ist 145Pm mit einer Halbwertszeit von 17,7 Jahren, es folgt 146Pm mit einer Halbwertszeit von 5,53 Jahren und 147Pm mit 2,6234 Jahren. Letzteres wird zumeist zur Untersuchung verwendet, da es in genügenden Mengen als Spaltprodukt entsteht. Verwendung. Aufgrund der kurzlebigen Isotope und der sehr geringen Verfügbarkeit findet dieses Element nur in kleinsten Mengen technische Verwendung. Die wichtigste Anwendung ist die als Betastrahler. Promethium wird in Radionuklidbatterien genutzt, die in der Raumfahrt etwa als Wärme- und Energiequelle in Satelliten eingesetzt werden. Das Element ist eine mögliche mobile Quelle für Röntgenstrahlung, die zur radiometrischen Dickenmessung verwendet wird. Das Nuklid 147Pm dient außer als Betastrahlenquelle auch als Zusatz für Leuchtfarbe, die in Leuchtziffern von Uhren eingesetzt wird. Oxide. Promethium(III)-oxid (Pm2O3) besitzt drei verschiedene Modifikationen: eine hexagonale A-Form (violettbraun), eine monokline B-Form (violettrosa) und eine kubische C-Form (korallenrot). Der Schmelzpunkt beträgt 2130 °C. Halogenide. Sämtliche Halogenide von Fluor bis Iod sind für die Oxidationsstufe +3 bekannt. Promethium(III)-fluorid (PmF3) ist in Wasser schwerlöslich; man erhält es aus einer salpetersauren Pm3+-Lösung durch Zugabe von HF-Lösung, der Niederschlag besitzt eine blassrosa Farbe. Kristallines wasserfreies Promethium(III)-fluorid ist ein violettrosafarbenes Salz mit einem Schmelzpunkt von 1338 °C. Promethium(III)-chlorid (PmCl3) ist violett und hat einen Schmelzpunkt von 655 °C. Wird PmCl3 in Gegenwart von H2O erhitzt, so erhält man das blassrosa gefärbte Promethium(III)-oxichlorid (PmOCl). Promethium(III)-bromid (PmBr3) entsteht aus Pm2O3 durch Erhitzen im trockenen HBr-Strom. Es ist rot und hat einen Schmelzpunkt von 660 °C. Promethium(III)-iodid (PmI3) ist nicht aus Pm2O3 durch Reaktion mit HI-H2-Gemischen darstellbar, es bildet sich stattdessen Promethium(III)-oxiiodid (PmOI). Durch Reaktion von Pm2O3 mit geschmolzenem Aluminiumiodid (AlI3) bei 500 °C entsteht das gewünschte Produkt. Es ist rot und hat einen Schmelzpunkt von 695 °C. Weitere Verbindungen. Promethium(III)-hydroxid (Pm(OH)3) erhält man aus einer salzsauren Pm3+-Lösung durch Einleiten von NH3. Seine Farbe ist Violettrosa. Sicherheitshinweise. Einstufungen nach der Gefahrstoffverordnung liegen nicht vor, weil diese nur die chemische Gefährlichkeit umfassen und eine völlig untergeordnete Rolle gegenüber den auf der Radioaktivität beruhenden Gefahren spielen. Auch Letzteres gilt nur, wenn es sich um eine dafür relevante Stoffmenge handelt. Polonium. Polonium ist ein radioaktives chemisches Element mit dem Elementsymbol Po und der Ordnungszahl 84. Im Periodensystem steht es in der 6. Hauptgruppe, bzw. der 16. IUPAC-Gruppe, wird also den Chalkogenen zugeordnet. Geschichte. Die Existenz eines sehr stark strahlenden Elements in Uran-haltiger Pechblende wurde erstmals 1898 vom Ehepaar Pierre und Marie Curie postuliert. Zu Ehren von Marie Curies Heimat Polen nannten sie es Polonium (vom lateinischen Wort „Polonia“). Eine Isolierung gelang ihnen nicht, sondern erst 1902 dem Chemiker Willy Marckwald, der dieses Element als "Radiotellur" charakterisierte. Für die Entdeckung und Beschreibung von Polonium (zusammen mit Radium) erhielt Marie Curie 1911 den Nobelpreis für Chemie. Gewinnung und Herstellung. Poloniumisotope sind Zwischenprodukte der Thorium-Reihe und der Uran-Radium-Reihe, wobei letztere das häufigste Isotop 210Po produziert. Polonium kann daher bei der Aufarbeitung von Pechblende gewonnen werden (1000 Tonnen Uranpechblende enthalten etwa 0,03 Gramm Polonium). Dabei reichert es sich zusammen mit Bismut an. Von diesem Element kann man es anschließend mittels fraktionierter Fällung der Sulfide (Poloniumsulfid ist schwerer löslich als Bismutsulfid) trennen. Die Halbwertszeit t½ für den Betazerfall von 210Bi liegt bei 5,01 Tagen. Durch Destillation werden die beiden Elemente anschließend getrennt (Siedepunkt von Polonium: 962 °C; Siedepunkt von Bismut: 1564 °C). Eine andere Methode ist die Extraktion mit Hydroxidschmelzen bei Temperaturen um 400 °C. Die Weltjahresproduktion beträgt ca. 100 g. Eigenschaften. Polonium ist ein silberweiß glänzendes Metall. Als einziges Metall weist die α-Modifikation eine kubisch-primitive Kristallstruktur auf. Dabei sind nur die Ecken eines Würfels mit Polonium-Atomen besetzt. Diese Kristallstruktur findet man sonst nur noch bei den Hochdruckmodifikationen von Phosphor und Antimon. Die chemischen Eigenschaften sind vergleichbar mit denen seines linken Perioden-Nachbarn Bismut. Es ist metallisch leitend und steht mit seiner Redox-Edelheit zwischen Rhodium und Silber. Polonium löst sich in Säuren wie Salzsäure, Schwefelsäure und Salpetersäure unter Bildung des rosaroten Po2+-Ions. Po2+-Ionen in wässrigen Lösungen werden langsam zu gelben Po4+-Ionen oxidiert, da durch die Alphastrahlung des Poloniums im Wasser oxidierende Verbindungen gebildet werden. Isotope. Bekannt sind von den Polonium-Isotopen, die alle radioaktiv sind, die Isotope 190Po bis 218Po, Die Halbwertszeiten sind recht unterschiedlich und reichen von etwa 3·10−7 Sekunden für 212Po bis zu 103 Jahren für das künstlich hergestellte 209Po. Das häufigste, natürlich vorkommende Isotop 210Po hat eine Halbwertszeit von 138 Tagen und zerfällt unter Aussendung von Alpha-Strahlung in das Blei-Isotop 206Pb. Wegen dieser geringen Halbwertszeit erfolgt aber die Gewinnung des industriell genutzten 210Po überwiegend künstlich in Kernkraftwerken. Radiotoxikologische Bedeutung. Die größte Gefährdung stellt Polonium als Zerfallsprodukt des radioaktiven Edelgases Radon dar. Radon in der Atemluft erhöht das Risiko, an Lungenkrebs zu erkranken. Die eigentliche Ursache ist nicht Radon, sondern die Inhalation der kurzlebigen Radonzerfallsprodukte, die sich im Gegensatz zum gasförmigen Radon im Atemtrakt anreichern. Die unter den Zerfallsprodukten befindlichen Poloniumisotope 210Po, 212Po, 214Po, 216Po und 218Po haben die größte radiologische Wirkung, weil sie Alphateilchen aussenden. Während Alpha-Strahlung etwa bei äußerer Einwirkung bereits von der obersten Hautschicht aus abgestorbenen Zellen abgeschirmt wird, wirkt sie auf den Menschen stark schädigend, wenn Alpha-Strahler in den Körper gelangen. Über den Blutstrom verteilt sich das Polonium im Körpergewebe. Die zerstörerische Wirkung macht sich als Strahlenkrankheit zunächst an Zellen bemerkbar, die sich häufig teilen (z. B. Darmepithelien, Knochenmark). Zu den typischen Symptomen gehören neben Haarausfall und allgemeiner Schwäche auch Diarrhö, Anämie sowie Blutungen aus Nase, Mund, Zahnfleisch und Rektum. Polonium wird vom menschlichen Körper mit einer biologischen Halbwertszeit von ca. 50 Tagen ausgeschieden. Reste und Zerfallsprodukte finden sich größtenteils im Kot sowie zu rund 10 % im Urin. Darüber hinaus sind Inkorporationen von außen nur schwer zu entdecken und eine Diagnose schwierig, da kaum Gammastrahlung emittiert wird. Einer speziellen Polonium-Exposition sind Raucher ausgesetzt. Als mögliche Quellen kommen sowohl die im Tabakanbau eingesetzten Phosphatdüngemittel als auch eine Adsorption atmosphärischer Einträge durch die Tabakpflanzen in Frage. Die Anteile der Teer-Kanzerogene und der radioaktiven Exposition am Prozess der Krebsentstehung werden kontrovers diskutiert. Verwendung. Polonium wird in Verbindung mit Beryllium in transportablen Neutronenquellen benutzt. Dabei wird die Kernreaktion 9Be(formula_2, n)12C zur Erzeugung freier Neutronen genutzt. In manchen industriellen Ionisatoren wird 210Po eingesetzt, z. B. in Anlagen, in denen Papier, Textil oder synthetische Materialien gerollt werden, oder wenn optische Linsen von statischen Aufladungen befreit werden sollen. Die Zündstifte der Firestone-Zündkerzen enthielten um 1940 in den USA das radioaktive Schwermetall. Es sollte die Luft ionisieren und damit die Dauer des Zündfunkens verlängern. 210Po entwickelt 140 Watt Wärme pro Gramm, daher wurde es in kurzlebigen Radionuklidbatterien, etwa für die sowjetischen Mondfahrzeuge Lunochod 1 und Lunochod 2 eingesetzt. Die Wärmeleistung genügt, um einen Poloniumkörper zum Schmelzen zu bringen. Heute kommen im Allgemeinen nur noch langlebigere Isotope anderer Elemente zum Einsatz. Auch in Kernwaffen diente Polonium als Neutronenquelle. So wurden zum Beispiel in den amerikanischen Atombomben "Little Boy" und "Fat Man", die auf Hiroshima und Nagasaki abgeworfen wurden, Initiatoren aus Polonium und Beryllium zum Start der Kettenreaktion verwendet. Alexander Litwinenko. 2006 starb der ehemalige KGB-Agent und spätere Putin-Kritiker Alexander Litwinenko an den Folgen einer durch Polonium-210 verursachten Strahlenkrankheit. Das Polonium war ihm vermutlich über kontaminierten Tee verabreicht worden. Jassir Arafat. Im Juli 2012 wurde ein radiologischer Laborbericht veröffentlicht, laut welchem Spuren von 210Po an Gebrauchsgegenständen des 2004 verstorbenen Palästinenserpräsidenten Jassir Arafat nachgewiesen worden seien. Daraufhin stimmte die Palästinensische Autonomiebehörde einer Exhumierung des Leichnams zu, um zu klären, ob Arafat vergiftet worden war. Die Exhumierung fand am 27. November 2012 in Ramallah statt, und Teams aus der Schweiz, Frankreich und Russland erhielten je ein Drittel der von einem islamischen Mediziner entnommenen Proben. Am 6. November 2013 veröffentlichte der Fernsehsender al-Dschasira eine 108-seitige Studie der Universität Lausanne, wonach man in den sterblichen Überresten Arafats stark erhöhte Poloniumwerte fand und eine Vergiftung möglich sei. In der Studie des Instituts für Rechtsmedizin der Universität heißt es, dass die Ergebnisse als Indizien dafür interpretiert werden könnten, dass Arafat vergiftet worden sei ("“the results moderately support the proposition that the death was the consequence of poisoning with polonium-210”", S. 69). Allerdings handelte es sich bei der gefundenen Substanz um sogenanntes "supported polonium", also das Folgeprodukt des ebenfalls in übernormal erhöhter Konzentration gefundenen Blei 210 - dieses "supported polonium" überdeckt und verbirgt die ansonsten möglicherweise noch nachweisbaren Rückstände einer originären Poloniumvergiftung. Andere Fachleute kommentierten die Studie dahingehend, dass damit zwar ein Hinweis, aber kein Beweis für eine Vergiftung vorliege. Die französischen und russischen Teams haben keinen Beleg für eine Polonium-Vergiftung Arafats gefunden. Sauerstoffverbindungen. Poloniumdioxid (PoO2)x ist wie das Oxid des Gruppennachbarn Tellur (Tellurdioxid, (TeO2)x) eine ionische Verbindung, die in einer gelben und einer roten Modifikation auftritt. Weiterhin kennt man Poloniumtrioxid (PoO3). Sulfide. Schwarzes Poloniumsulfid (PoS) erhält man durch Fällung von in Säure gelöstem Polonium mit Schwefelwasserstoff. Wasserstoffverbindungen. Poloniumwasserstoff (H2Po) ist eine bei Raumtemperatur flüssige Wasserstoff-Verbindung, von der sich zahlreiche Polonide ableiten lassen. Halogenide. Poloniumhalogenide kennt man mit den Summenformeln PoX2, PoX4 und PoX6. Zu nennen sind Poloniumdifluorid, Poloniumdichlorid (rubinrot), Poloniumdibromid (purpurbraun) und Poloniumtetrafluorid, hellgelbes Poloniumtetrachlorid, rotes Poloniumtetrabromid sowie das schwarze Poloniumtetraiodid. Die Synthese von Poloniumhexafluorid (PoF6) wurde 1945 versucht, führte aber zu keinen eindeutigen Ergebnissen, der Siedepunkt wurde auf −40 °C geschätzt. Praseodym. Praseodym ist ein chemisches Element mit dem Elementsymbol Pr und der Ordnungszahl 59. Im Periodensystem steht es in der Gruppe der Lanthanoide und zählt damit auch zu den Metallen der seltenen Erden. Von der Grünfärbung seiner Verbindungen kommt auch der Name: das griechische Wort πράσινος "prásinos" bedeutet „grün“, δίδυμος "didymos" „doppelt“ oder „Zwilling“. Geschichte. 1841 extrahierte Carl Gustav Mosander die seltene Erde Didym aus Lanthanoxid. 1874 bemerkte Per Teodor Cleve, dass es sich bei Didym eigentlich um zwei Elemente handelte. Im Jahr 1879 isolierte Lecoq de Boisbaudran Samarium aus Didym, das er aus dem Mineral Samarskit gewann. 1885 gelang es Carl Auer von Welsbach, Didym in Praseodym und Neodym zu trennen, die beide Salze mit verschiedenen Farben bilden. Vorkommen. Die weltweiten Reserven werden auf 4 Millionen Tonnen geschätzt. Gewinnung und Herstellung. Wie bei allen Lanthanoiden werden zuerst die Erze durch Flotation angereichert, danach die Metalle in entsprechende Halogenide umgewandelt und durch fraktionierte Kristallisation, Ionenaustausch oder Extraktion getrennt. Das Metall wird durch Schmelzflusselektrolyse oder Reduktion mit Calcium gewonnen. Physikalische Eigenschaften. Praseodym ist ein weiches, silberweißes paramagnetisches Metall, welches zu den Lanthanoiden und Metallen der Seltenen Erden gehört. Bei 798 °C wandelt sich das hexagonale α-Pr in das kubisch-raumzentrierte β-Pr um. Chemische Eigenschaften. Bei hohen Temperaturen verbrennt Praseodym zum Sesquioxid Pr2O3. Es ist in Luft etwas korrosionsbeständiger als Europium, Lanthan oder Cer, bildet aber leicht eine grüne Oxidschicht aus, die an Luft abblättert. Mit Wasser reagiert es unter Bildung von Wasserstoff zum Praseodymhydroxid (Pr(OH)3). Praseodym tritt in seinen Verbindungen drei- und vierwertig auf, wobei die dreiwertige Oxidationszahl die häufigere ist. Pr(III)-Ionen sind gelbgrün, Pr(IV)-Ionen gelb. Unter besonderen reduktiven Bedingungen kann auch zweiwertiges Praseodym realisiert werden, z. B. im Praseodym(II,III)-iodid (Pr2I5). Isotope. Natürliches Praseodym besteht nur aus dem stabilen Isotop 141Pr. 38 weitere radioaktive Isotope sind bekannt, wobei 143Pr und 142Pr mit einer Halbwertszeit von 13,57 Tagen beziehungsweise 19,12 Stunden die langlebigsten sind. Alle anderen Isotope haben Halbwertszeiten von weniger als 6 Stunden, die meisten sogar weniger als 33 Sekunden. Es gibt auch 6 metastabile Zustände, wobei 138"m"Pr (t½ 2,12 Stunden), 142"m"Pr (t½ 14,6 Minuten) und 134"m"Pr (t½ 11 Minuten) die stabilsten sind. Die Isotope bewegen sich in einem Atommassenbereich von 120,955 (121Pr) bis 158,955 (159Pr). Halogenide. Bekannt sind von allen Oxidationsstufen mehrere Halogenide beispielsweise Praseodym(III)-fluorid (PrF3), Praseodym(IV)-fluorid (PrF4), Praseodym(III)-chlorid (PrCl3), Praseodym(III)-bromid (PrBr3), Praseodym(III)-iodid (PrI3), Praseodym(II,III)-iodid (Pr2I5). Die dreiwertigen Halogenide bilden verschiedene Hydrate. Außerdem bildet es mehrere Fluoridokomplexe wie z. B. das K2[PrF6] mit vierwertigem Pr. Andere Verbindungen. Binäre Verbindungen sind z. B. Praseodym(III)-sulfid (Pr2S3), Praseodymnitrid (PrN), Praseodymphosphid (PrP). Daneben ist Praseodym in diversen Salzen, wie dem hygroskopischen Praseodym(III)-nitrat (Pr(NO3)3 · x H2O), dem schön kristallisierenden Praseodym(III)-sulfat (Pr2(SO4)3 · 8 H2O) und anderen vertreten. Protactinium. Protactinium (verkürzt aus ursprünglich "Proto-actinium" (griechisch πρώτος (prõtos) = erster und Actinium); Silbentrennung Pro|tac|ti|ni|um oder Pro|t|ac|ti|ni|um) ist ein chemisches Element mit dem Elementsymbol Pa und der Ordnungszahl 91. Im Periodensystem steht es in der Gruppe der Actinoide (7. Periode, f-Block). Es ist silbrig metallisch und wird supraleitend unterhalb von 1,4 K. Es ist radioaktiv und kommt in der Natur extrem selten vor. Die größte Menge an Protactinium wird künstlich erzeugt. Geschichte. Dmitri Mendelejew postulierte im Jahre 1871 die Existenz eines Elements zwischen Thorium und Uran. Die Reihe der Actinoiden-Elemente war zu der Zeit noch unbekannt. Daher wurde Uran unterhalb des Wolframs gesetzt, und Thorium unterhalb des Zirconiums, wobei der Platz unterhalb des Tantals freiblieb. Bis in die 1950er Jahre wurde das Periodensystem in dieser Form dargestellt. Für lange Zeit suchten Chemiker nach Eka-Tantal mit ähnlichen chemischen Eigenschaften zum Tantal. Im Jahre 1900 isolierte William Crookes ein stark radioaktives Material aus Uran; allerdings konnte er es nicht als neues chemisches Element charakterisieren und nannte es "Uranium-X" (UX). Crookes löste Uranylnitrat in Ether, die verbleibende wässrige Phase enthielt größtenteils die Nuklide 234Th und 234Pa. 234"m"Pa wurde 1913 von Kasimir Fajans und Oswald Helmuth Göhring entdeckt, sie gaben ihm wegen seiner kurzen Halbwertszeit (1,17 Minuten) den Namen "Brevium" (‚kurz‘). Das langlebige 231Pa (t½ = 32.760 Jahre) wurde 1917 von Otto Hahn und Lise Meitner gefunden (veröffentlicht 1918), sie nannten es "Protoactinium" (von griechisch πρῶτος = "protos": "das Erste", "der Vorhergehende", das chemische Element, das in der Zerfallsreihe des Uran-235 "vor" dem Actinium steht). Im Jahre 1921 machte Otto Hahn die weitere Entdeckung, dass es zu dem von Fajans gefundenen Brevium 234 noch ein zweites betastrahlendes Isotop mit der gleichen Massenzahl 234 gibt, das sich von dem Brevium lediglich durch seine längere Halbwertszeit von 6,7 Stunden unterscheidet; es handelt sich hierbei um den seltenen Fall einer Kernisomerie. Der offizielle Name für alle drei Isotope sowie alle künstlich herstellbaren Isotope mit der Ordnungszahl 91 wurde 1949 von der IUPAC zu Protactinium bestimmt, statt des schwerer auszusprechenden Protoactinium von Hahn und Meitner. Vorkommen. Protactinium ist ein radioaktives Zerfallsprodukt des Urans und findet sich in der Natur in Form der beiden Isotope 231Pa und 234Pa, wobei das Isotop 234Pa in zwei unterschiedlichen Energiezuständen auftreten kann. Protactinium 231Pa, ein Alphastrahler, entsteht beim Zerfall von 235U (siehe Uran-Actinium-Reihe), das betastrahlende Protactinium 234Pa beim Zerfall von Uran 238U (siehe Uran-Radium-Reihe). Gewinnung und Darstellung. Aristid von Grosse isolierte im Jahre 1927 aus Abfällen der Radiumherstellung 2 Milligramm Protactinium(V)-oxid (Pa2O5). Im Jahre 1934 isolierte er erstmals elementares Protactinium aus 0,1 Milligramm Pa2O5. Dazu wandte er zwei unterschiedliche Verfahren an: Zu einem wurde Protactiniumoxid mit 35 keV-Elektronen im Vakuum bestrahlt. Zum anderen wurde das Oxid zu den Halogeniden (Chlorid, Bromid oder Iodid) umgesetzt und diese dann im Vakuum an einem elektrisch beheizten Draht reduziert. Später stellte er auch metallisches Protactinium aus Protactinium(V)-iodid (PaI5) dar. In den Jahren 1959 und 1961 wurden von der United Kingdom Atomic Energy Authority (UKAEA) 125 g Protactinium mit einer Reinheit von 99,9 % aus 60 t abgebrannter Kernbrennstäbe in einem 12-stufigen Prozess extrahiert; die Kosten betrugen etwa 500.000 US$. Für viele Jahre war dies die einzig weltweit verfügbare Quelle für Protactinium, von der jeweils verschiedene Laboratorien für wissenschaftliche Untersuchungen versorgt wurden. Eigenschaften. Im Periodensystem steht das Protactinium mit der Ordnungszahl 91 in der Reihe der Actinoide, sein Vorgänger ist das Thorium, das nachfolgende Element ist das Uran. Sein Analogon in der Reihe der Lanthanoide ist das Praseodym. Physikalische Eigenschaften. Protactinium ist silbrig metallisch und wird supraleitend unterhalb von 1,4 K. Chemische Eigenschaften. Protactinium kommt hauptsächlich in zwei Oxidationsstufen vor, +4 und +5, sowohl in Festkörpern als auch in Lösung. Verwendung. Wegen seiner Seltenheit, hohen Radioaktivität und Giftigkeit findet Protactinium außer in der Forschung keine praktische Anwendung. In Protactinium 231Pa, das beim Zerfall von Uran 235U entsteht und sich in Kernreaktoren auch durch die Reaktion 232Th + n → 231Th + 2n und anschließenden Betazerfall bildet, kann möglicherweise eine nukleare Kettenreaktion zustande kommen, die prinzipiell auch zum Bau von Atomwaffen genutzt werden könnte. Die kritische Masse beträgt nach Angabe von Walter Seifritz 750±180 kg. Andere Autoren kommen zum Schluss, dass eine Kettenreaktion selbst bei beliebig großer Masse in Protactinium 231Pa nicht möglich ist. Protactinium 233Pa ist ein Zwischenprodukt im Brutprozess von Thorium 232Th zu Uran 233U in Thorium-Hochtemperaturreaktoren. Seit der Verfügbarkeit moderner, sehr sensibler Massenspektrometer ist eine Anwendung des 231Pa beispielsweise als Tracer in der Paläozeanographie möglich geworden. Verbindungen. Protactinium(IV)-oxid (PaO2) ist ein schwarzes, kristallines Pulver. Protactinium(V)-oxid (Pa2O5) ist ein weißes, kristallines Pulver. Beide weisen ein kubisches Kristallsystem auf. Protactinium(V)-chlorid (PaCl5) bildet gelbe monokline Kristalle und besitzt eine Kettenstruktur bestehend aus 7-fach koordinierten pentagonalen Bipyramiden. Sicherheitshinweise. Einstufungen nach der GHS-Verordnung liegen nicht vor, weil diese nur die chemische Gefährlichkeit umfassen, die eine völlig untergeordnete Rolle gegenüber den auf der Radioaktivität beruhenden Gefahren spielen. Auch Letzteres gilt nur, wenn es sich um eine dafür relevante Stoffmenge handelt. Plutonium. Plutonium ist ein chemisches Element mit dem Elementsymbol Pu und der Ordnungszahl 94. Im Periodensystem steht es in der Gruppe der Actinoide (7. Periode, f-Block) und zählt zu den Transuranen. Plutonium ist ein giftiges und radioaktives Schwermetall. Benannt wurde es nach dem Zwergplaneten Pluto. Es ist hinsichtlich der Ordnungszahl das schwerste in der Natur vorkommende Element. Dabei wird es aber nur in kleinsten Spuren in sehr alten Gesteinen gefunden. Größer ist die Menge, die künstlich in Kernkraftwerken erzeugt wird. Als eines der wenigen spaltbaren Elemente spielt es eine wichtige Rolle für den Bau von Kernwaffen. So war das Spaltmaterial der Atombombe, die am 9. August 1945 auf Nagasaki abgeworfen wurde, Plutonium. Beim Betrieb von Kernreaktoren entsteht aus dem Uran in den Brennelementen Plutonium. Geschichte. Plutonium wurde von den US-Amerikanern Glenn T. Seaborg, J. W. Kennedy, E. M. McMillan, Michael Cefola und Arthur Wahl entdeckt. Am 14. Dezember 1940 stellten sie das Isotop 238Pu durch Beschuss von Uran 238U mit Deuterium in einem Zyklotron her. Dazu wurden zunächst Proben des Isotops 238U in Form des Oxids U3O8 in dünner Schicht auf einer Kupferplatte aufgetragen. Bei dieser Reaktion werden zwei Neutronen emittiert; das zwischenzeitlich entstehende Neptunium zerfällt zu 238Pu. Den eindeutigen Nachweis für das Element 94 erbrachte Arthur Wahl am 23./24. Februar 1941. Sie benannten es im März 1942 nach dem damals als äußersten Planeten geltenden Pluto, der wiederum nach dem gleichnamigen Gott der Unterwelt benannt ist: „"… benannt nach dem jenseits des Neptuns folgenden Planeten Pluto, angesichts der infernalischen Wirkung der Pu-Bombe erscheint die Ableitung des Namens von Pluto, dem Gott der Unterwelt gerechtfertigter!"“ So wurden die drei schwersten damals bekannten Elemente Uran, Neptunium und Plutonium nach den Planeten Uranus, Neptun und Pluto benannt. Die erste wägbare Menge von etwa 4 µg wurde im August/September 1942 von Burris B. Cunningham, M. Cefola und Louis B. Werner isoliert. Die Entdeckung wurde während des Zweiten Weltkrieges geheim gehalten. Im Rahmen des US-amerikanischen Manhattan-Projekts wurde Plutonium erstmals in größerem Maßstab hergestellt. Die Atombombe, mit der durch den Trinity-Test die erste Kernwaffenexplosion der Menschheit herbeigeführt wurde, sowie Fat Man, die Bombe, mit der die japanische Stadt Nagasaki zerstört wurde, enthielten Plutonium 239Pu als Spaltstoff. Joseph Hamilton führte an Versuchspersonen Plutonium-Verteilungsstudien durch, die aufgrund der extremen Giftwirkung des Plutoniums heute umstritten sind. In Deutschland hatte bereits vor der Entdeckung des Plutonium Carl Friedrich von Weizsäcker darauf hingewiesen, dass in Kernreaktoren ein neues spaltbares Element 239Eka Re (Eka-Rhenium) entstehen müsse. Auch Friedrich Georg Houtermans sagte 1942 die Existenz von Transuranen in einem Geheimbericht theoretisch voraus. Im Rahmen des deutschen Uranprojekts wurden jedoch bis Kriegsende nach heutigem Kenntnisstand keine signifikanten Mengen an Plutonium hergestellt. Natürliches Vorkommen. Plutonium ist das letzte, allerdings extrem seltene, bisher bekannte "natürlich vorkommende" Element des Periodensystems. Mit einem Gehalt von 2 · 10−19 Gew.-% ist es eines der seltensten Elemente der Erdkruste. In Uranvorkommen kann es in winzigen Mengen durch Absorption natürlich freigesetzter Neutronen aus Uran entstehen. Auf 140 Milliarden Uranatome soll ein Plutoniumatom kommen. Der US-amerikanische Chemiker D. F. Peppard extrahierte im Jahr 1951 Mikrogrammmengen 239Pu aus einem kongolesischen Pechblendekonzentrat. Für jedes Mikrogramm waren 100 Tonnen Pechblende notwendig. Aus der Entstehungszeit des Sonnensystems wurde im Mineral Bastnäsit, das nach dem Fundort Bastnäs in Schweden benannt wurde, das langlebigste Plutoniumisotop 244Pu gefunden. Mit verfeinerter Spurenanalytik gelang es, geringste Spuren dieses Isotops nachzuweisen. Diese Mengen sind so gering, dass sie erst im Jahr 1971, also nach der künstlichen Erzeugung des Plutoniums in Kernreaktoren, entdeckt wurden. In den Naturreaktoren von Oklo in Gabun sowie von einer benachbarten Uranlagerstätte ist bekannt, dass dort über mehrere Jahrtausende Kernspaltung als Kettenreaktion in natürlichem Umfeld auftrat. Vor etwa 1,5 bis 2 Milliarden Jahren entstanden in Oklo durch die Anlagerung von Spaltungsneutronen an das auch damals häufige 238U etwa 2 bis 4 Tonnen 239Pu. In einigen Teilen der Oklo-Lagerstätte trug die direkte Spaltung von 239Pu nennenswert zur Gesamtkernspaltung bei. Etwa ein Drittel des insgesamt gespaltenen 235U soll aus dem Alphazerfall von 239Pu gestammt haben. Etwaige Reste des erzeugten Plutoniums sind mittlerweile komplett zerfallen. Freisetzung durch anthropogene Ursachen. Anthropogen wurde Plutonium zwischen 1945 und 1980 durch oberirdische Kernwaffentests in einer Menge von drei bis fünf Tonnen freigesetzt, die in Spuren weltweit nachweisbar sind. Weitere Mengen wurden durch verschiedene unbeabsichtigte Ereignisse und Unfälle freigesetzt. Gewinnung und Darstellung. Plutonium entsteht unvermeidlich in den mit 238U-reichen Isotopengemischen betriebenen Kernkraftwerken. Dabei wird das eingesetzte 238U durch Einfang eines Neutrons und nachfolgendem Betazerfall zu 239Pu umgewandelt. Ein weiteres Neutron führt in den meisten Fällen zur Kernspaltung, zum Teil entsteht jedoch das Isotop 240Pu. Da dieses Isotop nur schlecht spaltbar ist, führt weiterer Neutroneneinfang zur Entstehung von 241Pu, das wiederum gut spaltbar ist. Allerdings werden nicht alle Atome gespalten, so dass bei einigen davon der Brutprozess zu 242Pu und noch schwereren Isotopen fortgesetzt werden kann. Weil jedoch das spaltbare 243Pu eine sehr kurze Halbwertszeit hat, ist ein weiterer Neutroneneinfang, der meistens zur Spaltung oder – in selteneren Fällen – zur Erzeugung von Plutonium 244Pu führt, unwahrscheinlich. Der Plutonium-Brutprozess ist daher praktisch beim 243Pu zu Ende und führt über den Betazerfall von 243Pu zum Americium-Isotop 243Am. Da jede Stufe dieser aufeinander aufbauenden Kernreaktionen eine gewisse Zeit braucht, ändern sich im Laufe der Zeit die relativen Mengen der Isotope im Reaktorkern. Die Raten, mit der die Kernreaktionen ablaufen, hängen von der Geschwindigkeitsverteilung der Neutronen ab. Weil ein großer Teil der leicht spaltbaren Isotope jedoch gespalten wird und sich nicht in andere Isotope umwandelt, nimmt die mögliche Ausbeute (Effizienz) des Brutprozesses mit der Erzeugung jedes weiteren leicht spaltbaren Isotops ab. Das leichtere Isotop 238Pu wird bei Bedarf gezielt hergestellt. Es entsteht durch Einfang mehrerer Neutronen aus dem Uran-Isotop 235U. Dabei entsteht zuerst ein 236U-Kern in einem angeregten Zustand, der eine Halbwertszeit von 120 Nanosekunden hat und sich mit hoher Wahrscheinlichkeit spaltet. Angeregte 236U-Kerne können jedoch auch durch Emission von Gamma-Strahlung in den langlebigen Grundzustand übergehen. Durch weiteren Neutroneneinfang und β-Zerfall entsteht Neptunium 237Np. Nach einer gewissen Bestrahlungszeit wird das Neptunium, das fast ausschließlich aus 237Np besteht, aus den Brennstäben extrahiert. Das Neptunium wird nun in Form von reinen Neptunium-Brennstäben wieder in einen Reaktor eingefügt und mit Neutronen bestrahlt. Es wandelt sich dabei durch Neutroneneinfang in 238Np um, das durch Betastrahlung zu 238Pu zerfällt. Beim Abbrand eines schwach angereicherten Brennelementes (links) sinkt der Anteil an 235U, neue Elemente entstehenDie so behandelten Brennstäbe enthalten auch schwerere Plutoniumisotope. Außerdem werden einige der Neptunium-Atome auch von Neutronen über 6,27 MeV Energie getroffen, wodurch in geringer Menge auch 236Pu entsteht. Dieses zerfällt über die Thorium-Reihe, in der der starke Gammastrahler Thallium 208Tl vorkommt. Wird 239Pu durch "schnelle", also nicht abgebremste Neutronen gespalten, ist die durchschnittliche Zahl neu freigesetzter Neutronen pro gespaltenem Atomkern besonders hoch. In einem solchen Reaktor kann daher theoretisch mehr 238U in neues 239Pu umgewandelt werden, als gleichzeitig durch Spaltung verbraucht wird. Er wird deshalb als Brutreaktor oder „schneller Brüter“ bezeichnet. In der Praxis wurde aber bisher eine maximale Konversionsrate von 0,7 verwirklicht, das Funktionieren einer Brutreaktoren-Wirtschaft somit bisher nicht im großen demonstriert. Das Plutonium befindet sich nach der Herstellung zusammen mit den Spaltprodukten und unverbrauchtem Rest-Kernbrennstoff in den abgebrannten Brennelementen. Durch den PUREX-Prozess können in Wiederaufarbeitungsanlagen das entstandene Plutonium und das ebenfalls erwünschte Uran aus ihnen herausgelöst werden. Dazu wird das Material zunächst in Salpetersäure gelöst und das Plutonium und Uran mit Tri-n-butyl-phosphat extrahiert. Die Spaltprodukte und anderen Bestandteile bleiben dabei zurück. Im Jahr werden etwa 20 Tonnen Plutonium, überwiegend in Form des Isotops 239Pu, produziert. Die Weitergabe von spaltbarem Material (wie 239Pu und 241Pu) sowie von Materialien, die zu ihrer Herstellung geeignet sind, an Staaten, die keine Kernwaffen besitzen, unterliegt laut Absatz III des Atomwaffensperrvertrages der Kontrolle der IAEO. In Deutschland regelt das Atomgesetz den Umgang mit spaltbarem Material. Es bestimmt, wer unter welchen Bedingungen Plutonium in Deutschland befördern und besitzen darf. Physikalische Eigenschaften. Plutonium ist bei Normalbedingungen ein silberglänzendes Schwermetall mit hoher Dichte (19,86 g/cm3). Wie von allen Actinoiden existieren auch von Plutonium ausschließlich radioaktive Isotope. Es ist selbsterwärmend, pro 100 g Plutonium entstehen etwa 0,2 Watt Wärmeleistung (bezogen auf 239Pu). Plutonium ist im Vergleich mit anderen Metallen ein schlechter Leiter für Wärme und elektrischen Strom. Das Metall kristallisiert abhängig von der Temperatur in insgesamt sechs allotropen Modifikationen. Diese unterscheiden sich zum Teil deutlich in ihren Dichten. Die bei Raumtemperatur stabile Modifikation α-Pu ist monoklin. In Plutonium besteht bei höheren Temperaturen der seltene Fall einer Dichteanomalie, die Dichte nimmt bei der Phasenumwandlung zur δ'- und ε-Modifikation wieder zu. Auch beim Schmelzen wird, wie bei Wasser, die Dichte größer. Flüssiges Plutonium besitzt die höchste Viskosität aller Elemente im flüssigen Zustand. Trotz einer für Metalle anormal hohen magnetischen Suszeptibilität und der Tendenz zur Ordnung bei tiefen Temperaturen zeigt Plutonium keine Ordnung über größere Bereiche und muss deshalb als paramagnetisch bezeichnet werden. Für die Messung stört allerdings das ständige Erwärmen durch den Zerfall des Plutoniums 239Pu. Dadurch sind keine Temperaturen nahe dem absoluten Nullpunkt erreichbar. Weiterhin ist eine Hochdruckmodifikation bekannt, die aus α-Pu bei einem Druck oberhalb von 40 GPa gewonnen wurde und in der kristallisiert. Chemische Eigenschaften. Verschiedene Oxidationsstufen von Plutonium in wässriger Lösung. Plutonium ist ein unedles und sehr reaktives Metall. An der Luft reagiert es schnell mit Sauerstoff und Luftfeuchtigkeit. Dabei wird das Metall zunächst matt und überzieht sich mit einer dunkel blauschwarzen Oxidhaut, beim längeren Stehen an der Luft bildet sich eine dickere, graugrüne, pulverig abreibende Oxidschicht. Das Metall reagiert beim Erhitzen mit den meisten Nichtmetallen und Wasser. Bei Raumtemperatur wird es dagegen von Wasser und alkalischen Lösungen nicht angegriffen. In konzentrierter Salpetersäure ist es wegen Passivierung nicht löslich. Löslich ist Plutonium in Salzsäure und fluoridhaltiger Salpetersäure. Die Fluoridionen unterdrücken hierbei die ansonsten einsetzende Passivierung des Metalls. Die chemischen Eigenschaften des Plutoniums ähneln denen anderer Actinoiden. Ähnlich wie bei vielen anderen dieser Elemente bestimmt bei Plutonium die starke Radioaktivität die chemischen Eigenschaften mit, da durch die entstehende Wärme Bindungen aufgebrochen werden können. Auch die freiwerdende Strahlung kann zum Bruch von Bindungen führen. Plutonium besitzt eine Reihe von Verbindungen, in denen es in den Oxidationsstufen +3 bis +7 vorliegen kann. Damit bildet Plutonium zusammen mit Neptunium die höchste Oxidationsstufe aller Actinoiden. Die stabilste Stufe ist +4. In wässriger Lösung haben die Plutoniumionen charakteristische Farben, so ist das Pu3+-Ion violett, Pu4+ braun, PuVO2+ purpurfarben, PuVIO22+ orange und PuVIIO23+ grün. Biologische Aspekte. Eine biologische Funktion des Plutoniums ist nicht bekannt. Weitere Forschungen und Untersuchungen konzentrierten sich auf mikrobielle Wechselwirkungen mit Plutonium, um auf diesem Wege kontaminierte Deponien und Umgebungen zu sanieren. Enterobakterien der Gattung Citrobacter können durch die Phosphataseaktivität in ihrer Zellwand Pu(IV) aus wässriger Lösung ausfällen und als Lanthan-Phosphat-Komplex binden. Isotope. "→ Liste der Plutoniumisotope" Von Plutonium wurden 20 Isotope und 15 Kernisomere mit Massenzahlen von 228 bis 247 vermessen. Die Halbwertszeiten liegen zwischen 37 · 10−12  s für das Isomer 236"m"1Pu und 80 Mio. Jahren für 244Pu. Die langlebigsten Isotope mit Halbwertszeiten größer als 11 Tagen haben Massenzahlen zwischen 236 und 244. Das Isotop 243Pu ist mit einer Halbwertszeit von weniger als 5 Stunden eine Ausnahme. Einige der Plutonium-Isotope werden als Ausgangspunkte für radioaktive Zerfallsreihen angesehen. Spaltbarkeit. Alle Plutoniumisotope mit ungerader Neutronenzahl zählen zu den wenigen Nukliden, die leicht, d.h. schon durch thermische Neutronen gut spaltbar sind. Der entsprechende Wirkungsquerschnitt beträgt beim 239Pu 752 Barn (b) und beim 241Pu 1010 b, bei den geradzahligen 238Pu, 240Pu und 242Pu dagegen nur 17 b, 0,4 b bzw. < 0,2 b. Das recht kurzlebige geradzahlige 236Pu (Halbwertszeit 2,9 Jahre) hat mit 169 b einen mittelgroßen Spaltquerschnitt. Alle langlebigen Plutoniumisotope spalten sich auch spontan. Die Spontanspaltungsrate ist bei 239Pu am geringsten und nimmt sowohl zu den leichteren als auch den schwereren Isotopen hin stark zu. Von Spontanspaltung betroffen sind sowohl die Isotope mit ungerader als auch gerader Neutronenzahl. Insbesondere weist 240Pu eine ca. 70.000 fach höhere Spontanspaltungsrate als 239Pu auf. Da die bei der Spontanspaltung freigesetzten Neutronen bei einer Atombombe zu einer Frühzündung und stark reduzierten Explosionswirkung führen können, ist 240Pu für Kernwaffen unerwünscht. Waffenplutonium enthält möglichst wenig 240Pu, ist aber nie ganz frei davon. Alle Plutoniumisotope, auch solche mit gerader Neutronenzahl, lassen sich durch schnelle Neutronen spalten, und sind daher prinzipiell für den Bau von Kernwaffen geeignet. Die Spaltbarkeit von Plutonium durch schnelle Neutronen nimmt mit zunehmender Neutronenzahl ab. Die für den Atombombenbau relevante kritische Masse wird sowohl von der Spaltbarkeit mit langsamen als auch mit schnellen Neutronen bestimmt, da aufgrund der vergleichsweise geringen Spaltquerschnitte mit schnellen Neutronen (1 bis 3 Barn) in einer Atombombe ein Teil der Neutronen nach zahlreichen Stößen mit Plutonium-Kernen doch auf thermische Energien abgebremst wird, bevor er eine erneute Kernspaltung auslösen kann. Bei 236Pu beträgt die kritische Masse 8,04–8,42 kg, bei 237Pu, welches sich sowohl durch schnelle wie langsame Neutronen sehr gut spalten lässt, nur 3,1 kg. Beide vorgenannten Isotope werden jedoch wegen ihrer hohen Spontanspaltungsrate, kurzen Halbwertszeit, hohen Wärmeproduktion und komplizierten Gewinnung nicht für Kernwaffen verwendet. Das für Nuklearbatterien verwendete 238Pu hat nach Berechnungen eine kritische Masse von ca. 9,04–10,31 kg. Beim wichtigsten Isotop für Kernwaffen, 239Pu, beträgt die kritische Masse (wie auch bei allen anderen Angaben ohne Moderator und/oder Reflektor) 10 kg. Bei 241Pu sind es schon 12,27–13,04 kg. Im deutschen Atomgesetz werden die Plutonium-Isotope 239Pu und 241Pu als "besondere spaltbare Stoffe" den Kernbrennstoffen zugeordnet. Verwendung. Nur 238Pu und 239Pu werden in größeren Mengen verwendet. 238Pu ist, wenn es aus Neptunium erbrütet wird, mit anderen Plutoniumisotopen verunreinigt. Nur 238Pu, das über den Umweg von Curium 242Cm erbrütet wird, ist frei von 236Pu. 239Pu ist immer mit 240Pu und noch geringeren Mengen von 241Pu und 242Pu verunreinigt. Verwendung in Kernkraftwerken. Beim Betrieb von Kernreaktoren entsteht aus dem Uran in den Brennelementen Plutonium. 239Pu wird zusammen mit angereichertem Uran zu MOX-Brennelementen verarbeitet. Die MOX-Brennelemente werden in Leichtwasserreaktoren und mit etwa zehnfach höherer Anreicherung der spaltbaren Isotope in schnellen Brütern verwendet. Einige Länder trennen dieses in sogenannten Wiederaufarbeitungsanlagen ab. Das Abbrennen von MOX-Brennelementen in Kernkraftwerken impliziert bestimmte Risiken. Militärische Verwendung. Für Kernwaffen geeignetes "Waffenplutonium" (englisch "weapons grade Plutonium") muss möglichst viel 239Pu und möglichst wenig 240Pu enthalten. Ab einem Gehalt von etwa 92 % 239Pu gilt Plutonium als waffenfähig. Nach Ansicht der IAEO ist jedoch jedes Plutonium grundsätzlich geeignet für militärische Zwecke. Als "Reaktorplutonium" wird Plutonium bezeichnet, das im Normalbetrieb von Kernkraftwerken entsteht; es kann bis zu 31 % 240Pu enthalten. 240Pu ist nicht durch thermische Neutronen spaltbar, zerfällt aber durch Spontanspaltung. Dabei werden Neutronen frei, die eine unerwünschte Frühzündung der Plutoniumbombe bewirken können und die Berechnung der Sprengkraft ungenau machen. Militärisch ist eine exakte Zündung und präzise Voraussage der Sprengkraft erwünscht. Auch die Zerfallswärme des kurzlebigen Alphastrahlers 238Pu wirkt störend. Für die Produktion von Waffenplutonium in Kernreaktoren ist eine möglichst kurze Bestrahlungszeit erforderlich: je länger diese ist, desto mehr 240Pu entsteht aus 239Pu (siehe auch Brutreaktionen). Deshalb lässt sich aus einem Kernreaktor mit laufender Stromerzeugung Waffenplutonium sinnvoll nur gewinnen, wenn es sich um einen Druckröhrenreaktor handelt, denn nur bei ihm können einzelne Brennelemente bei laufendem Betrieb ausgetauscht werden (Reaktortypen z. B. CANDU, RBMK). Dagegen befinden sich bei den deutschen Kernkraftwerken alle Brennelemente zusammen im Reaktordruckbehälter, und eine Brennelemententnahme erfordert ein aufwändiges Herunterfahren („Abfahren“) der Anlage, was nicht geheim zu halten wäre (z. B. keine Wasserdampfwolken über den Kühltürmen mehr). Russland erzeugte sein Waffenplutonium in Reaktoren des Typs ADE-Reaktor; der letzte von ihnen wurde 2010 – nach 46 Jahren Betrieb – stillgelegt. Die USA und Russland haben sich darauf geeinigt, ihre Bestände an Waffen-Plutonium um je 34 Tonnen zu verringern. Ein entsprechendes Protokoll unterzeichneten die Außenminister Hillary Clinton und Sergei Lawrow in Washington. Russland kostet dies 2,5 Mrd. Dollar; davon übernehmen die USA 400 Mio. Dollar. Beseitigt werden kann das Plutonium nur in Form einer Endlagerung nach einer Vermischung mit anderen atomaren Abfällen oder durch eine Umarbeitung in MOX-Elemente. Ein PuO2-Pellet (238Pu) glüht durch den eigenen radioaktiven Zerfall Radionuklidbatterien für die Raumfahrt. 238Pu erhitzt sich durch seinen eigenen radioaktiven Zerfall bis zur Weißglut, und gibt dabei nur sehr geringe Mengen von Gammastrahlung ab, so dass man mit der dünnsten Abschirmung im Vergleich zu fünf anderen potenziell geeigneten Nukliden auskommt. Es wird deshalb in oxidierter Form als chemisch träges Plutoniumdioxid zur Erzeugung elektrischer Energie in Radionuklidbatterien verwendet. Radionuklidbatterien werden wegen ihrer Langlebigkeit in der interplanetaren Raumfahrt eingesetzt, vor allem für Raumsonden, die das äußere Sonnensystem erreichen sollen. Denn Solarzellen liefern in großer Sonnenentfernung nicht mehr genug Energie. Eingebaut wurden solche Nuklearbatterien beispielsweise in die Raumsonden Cassini-Huygens (1997–2005 zum Saturn) oder New Horizons (2006–2015 zum Pluto). Früher wurden Radionuklidbatterien mit Plutonium 238Pu auch in erdumkreisenden Satelliten verwendet. 1964 verglühte der Satellit Transit 5BN-3 der USA mit einer Radionuklidbatterie an Bord bei einem Fehlstart etwa 50 Kilometer über dem Pazifik. Der Satellit enthielt knapp ein Kilogramm Plutonium, welches sich anschließend messbar auf der gesamten Nordhalbkugel verteilte. 1996 stürzte die russische Sonde Mars 96, an der Deutschland beteiligt war, mit 270 Gramm Plutonium an Bord ab – in den Pazifik oder auf das südamerikanische Festland. 236Pu-freies 238Pu wurde in den 1970er-Jahren in Herzschrittmachern verwendet, und wurde über den Umweg der wenig ergiebigen und deshalb teuren Erbrütung von Curium 242Cm produziert. Dieses entsteht durch einen Neutroneneinfang von Americium 241Am, das wiederum aus 241Pu gewonnen wird. Neutronenquelle. Ferner wird 238Pu zusammen mit Beryllium als Neutronenquelle verwendet, wobei ein α-Teilchen aus dem Zerfall des Plutoniums den Berylliumkern trifft und unter Aussendung eines Neutrons in diesen eingebaut wird. Toxizität. Plutonium ist wie andere Schwermetalle giftig und schädigt besonders die Nieren. Es bindet ebenfalls an Proteine im Blutplasma und lagert sich unter anderem in den Knochen und der Leber ab. Die für einen Menschen tödliche Dosis liegt wahrscheinlich im zweistelligen Milligrammbereich, für Hunde beträgt die LD50-Dosis 0,32 mg/kg Körpergewicht. Die chemische Giftigkeit von Plutonium wird jedoch von vielen anderen Stoffen übertroffen. Viel gefährlicher als die chemische Wirkung ist – isotopenabhängig – seine Radioaktivität, die Krebs verursachen kann. Bereits die Inhalation von 40 Nanogramm 239Pu reicht aus, um den Grenzwert der Jahres-Aktivitätszufuhr für Inhalation bei Arbeitern zu erreichen. Diese Menge ist so winzig, dass die Giftigkeit von Plutonium noch gar nicht zum Tragen kommen kann. Die von Plutonium 239Pu ausgesendete α-Strahlung wird außerhalb des Körpers bereits durch die oberste Hautschicht aus abgestorbenen Zellen abgeschirmt. Diesen Schutz gibt es nicht bei Inkorporation, beispielsweise Inhalation von Plutonium enthaltendem Staub, oder durch verunreinigte Nahrung. In diesen Fällen kann die mit dem umgebenden Material stark wechselwirkende α-Strahlung unmittelbar die Zellkerne lebender Zellen treffen. Nach Untersuchungen von Arnulf Seidel vom Institut für Strahlenbiologie des Kernforschungszentrum Karlsruhe führen kleine Dosen 239Pu im Langzeitversuch erst nach frühestens zehn Jahren bei Hunden zu Knochenkrebs, wobei es eine fünfmal größere Gefährlichkeit als Radium zeigt. Der Grund dafür kann eine ungleichmäßige Verteilung des Plutoniums im Skelett sein, die zu punktuell stark bestrahlten Stellen führt. Das wie auch 240Pu in Kernreaktoren immer miterbrütete 241Pu zerfällt mit etwa 14 Jahren Halbwertszeit in Americium 241Am, das große Mengen relativ weicher Gammastrahlung abgibt. In gelagertem Plutonium erreicht die Konzentration von 241Am nach etwa 70 Jahren ihren Höchststand. Weil die Plutoniumisotope selbst kaum Gammastrahlung abgeben, nimmt diese Strahlung (und damit die Dicke der benötigten Abschirmung) wegen des gebildeten Americiums zunächst deutlich zu, um dann nach etwa 70 Jahren Lagerung wieder abzunehmen. Wegen der längeren Halbwertzeit von 241Am (432 Jahre) erfolgt diese Abnahme deutlich langsamer als der Anstieg. Sicherheitshinweise. Einstufungen nach der Gefahrstoffverordnung liegen nicht vor, obwohl die chemische Giftigkeit bekannt ist. Beim Umgang mit Plutonium ist vor allem wegen seiner starken Radioaktivität äußerste Vorsicht geboten. Da die α-Strahlung des Plutoniums nur auf kurze Reichweiten wirkt, ist besonders darauf zu achten, dass das Metall nicht in den Körper gelangt. Da während des Zerfalls Wärme entsteht, muss diese abgeführt werden. Dazu bewahrt man Plutonium am besten unter trockener, zirkulierender Luft auf. Feinverteiltes Plutonium ist pyrophor. Weiterhin muss unbedingt verhindert werden, dass eine kritische Masse entsteht, die zur nuklearen Kettenreaktion und damit zu unkontrollierter Energie- und Strahlungsfreisetzung führt. Die Unterkritikalität kann entweder durch ausreichend kleine Massen oder eine sichere Geometrie erreicht werden. Bei dieser ist die Oberfläche groß genug, so dass mehr Neutronen verloren gehen, als bei neutroneninduzierten Spaltungen entstehen. Eine weitere Möglichkeit ist der Einsatz neutronenabsorbierender Materialien wie Bor, die diese vor möglichen neuen Spaltungsreaktionen abfangen. Grundsätzlich ist zu beachten, dass die kritische Masse durch die Anwesenheit bestimmter Stoffe, insbesondere Wasser, aufgrund von deren neutronenmoderierender oder -reflektierender Wirkung auch stark gesenkt werden kann. Verbindungen. 20 Mikrogramm reines Plutoniumhydroxid (Pu(OH)3) im Kapillarrohr, September 1942 Oxide. Die stabilste und wichtigste Sauerstoffverbindung ist Plutoniumdioxid (PuO2). Diese Verbindung ist ein Feststoff mit hoher Schmelztemperatur. Es ist gegenüber Wasser stabil und nicht in diesem löslich. Plutonium wird daher in Radionuklidbatterien und Kernkraftwerken in Form dieses Oxids verwendet. Neben Plutoniumdioxid sind auch Plutonium(III)-oxid Pu2O3 und Plutonium(II)-oxid PuO bekannt. Halogenide. Mit den Halogenen Fluor, Chlor, Brom und Iod bildet Plutonium zahlreiche Verbindungen. Von allen Halogenen ist eine entsprechende Plutoniumverbindung in der Oxidationsstufe +3 bekannt. Daneben existieren noch Plutonium(IV)-fluorid, Plutonium(IV)-chlorid und Plutonium(VI)-fluorid. Boride. Es gibt vier bekannte Plutoniumboride. Sie werden genutzt, um die Radioaktivität von Plutonium zu vermindern. Metallorganische Verbindungen. Analog zu Uranocen, einer Organometallverbindung in der Uran von zwei Cyclooctatetraen-Liganden komplexiert ist, wurden die entsprechenden Komplexe von Thorium, Protactinium, Neptunium, Americium und auch des Plutoniums, (η8-C8H8)2Pu, dargestellt. Analytik. Für Plutonium gibt es aufgrund seiner Seltenheit keine klassischen, nasschemischen Nachweismethoden. Deshalb werden nur instrumentelle Verfahren eingesetzt. α-Spektrometrie. Plutonium wird häufig über die α-Strahlung der Isotope 239(40)Pu und 238Pu nachgewiesen. Eine direkte Analyse ist oft nicht möglich, sodass vorangehende Separationstechniken durchgeführt werden müssen. Häufig kommt dabei die Ionenaustauschchromatographie zum Einsatz. Mit Hilfe der α-Spektrometrie konnte 239(40)Pu in maritimen Sedimenten mit einer Nachweisgrenze von 1 mBq/g bestimmt werden. Elementmassenspektrometrie (MS). Für die Plutoniumbestimmung kommen in der Massenspektrometrie die ICP-Ionisierung (ICP, induktiv-gekoppeltes Plasma, Massenspektrometrie mit induktiv gekoppeltem Plasma) und die AMS (Beschleuniger-Massenspektrometrie) zum Einsatz. Im Vergleich zur ICP-MS ist die AMS sensitiver aber apparativ aufwändig und kostenintensiv, da ein Teilchenbeschleuniger zur Ionisierung verwendet werden muss. Mit der AMS konnte am VERA-System in Wien eine Nachweisgrenze von etwa 106 Atomen des Isotops 239Pu erreicht werden. Mit Hilfe der ICP-Technik konnte eine Nachweisgrenze von 108 Atomen 239Pu erzielt werden, was einer Aktivität von 0,1 mBq entspricht. Optische Emissionsspektrometrie (OES). Plutonium kann auch mit einer laserbasierten Variante der optischen Emissionsspektrometrie (OES) nachgewiesen werden. Bei der Laser Induced Breakdown Spectroscopy (LIBS) nutzt man kurze Laserimpulse zur Verdampfung und Emissionsstimulation der Probe. Zur Emissionsmessung steht ein breites Spektrum an Linien zur Verfügung, wobei aufgrund der besten Intensitätswerte meist auf die Linien bei 295,16 nm, 300,06 nm und 363,22 nm zurückgegriffen wird. Mit dieser Technik konnte eine Nachweisgrenze von 10−8 g/mL erzielt werden. Die gleiche Nachweisgrenze konnte mit der optischen Emissionsspektrometrie mittels induktiv gekoppeltem Plasma (ICP-OES) erzielt werden. Laserinduzierte photoakustische Spektrometrie (LIPAS). Bei der LIPAS-Technik wird ein hochenergetischer Laserimpuls in die Probelösung geschickt, welcher eine photoakustische Welle induziert. Mit Hilfe eines piezoelektrischen Detektors wird die Amplitude dieser Welle bestimmt. Mit dieser Technik konnte sechswertiges Plutonium mit einer Nachweisgrenze von 0,5 µg/mL nachgewiesen werden. Produktionsnachweis außerhalb des Reaktors. Forscher des Sandia National Laboratories wollen die beim Betazerfall von Spaltprodukten emittierten Antineutrinos dazu verwenden, die Produktion von Plutonium in Kernreaktoren zu messen, damit die IAEO nicht mehr auf Schätzungen angewiesen ist und kein Plutonium unbemerkt für den Bau von Atomwaffen abgezweigt werden kann. Wegen der extrem hohen Produktionsrate von Antineutrinos in Kernreaktoren würde schon ein Detektor mit 1 m3 Detektorflüssigkeit vor dem Kernkraftwerk reichen. Plutoniuminventar. Deutschland meldete zum Ende des Jahres 2009 einen Plutoniumbestand von 5,4 t separiertem unbestrahltem Plutonium in frischen MOX Brennelementen oder anderen gefertigten Produkten an die IAEA. Hinzu kamen 86,9 t Plutonium in bestrahlten Brennelementen, welche an den deutschen Reaktoren gelagert wurden sowie weitere 5,9 t in bestrahltem Brennstoff, der an anderen Standorten gelagert wurde. Die Schweiz berichtete an die IAEA zum Ende des Jahres 2010 einen Plutoniumbestand von weniger als 50 kg separiertem Plutonium. Hinzu kamen 13 t Plutonium in bestrahlten Brennelementen, welche an den Reaktorstandorten gelagert wurden sowie weitere 4 t in bestrahltem Brennstoff, der an anderen Standorten gelagert wurde. Das weltweite Inventar an Plutonium ist zum Stand des Jahres 1999 gegeben. Die Angaben beruhen auf Schätzungen des Department of Energy. Die Zahlen in Klammern geben den aus dem abgebrannten Brennstoff extrahierten Plutoniumanteil an. Für Kasachstan wurde laut des "Bulletin of the Atomic Scientist" die Plutoniumqualität durch das Department of Energy falsch klassifiziert und sollte kommerziell sein. Waffenfähiges Plutonium (weapons grade) enthält weniger als 7 % des Isotops 240Pu. Plutonium kommerzieller Qualität (commercial grade) setzt sich aus Brennstoffplutonium (fuel grade) mit 7 bis 18 % 240Pu und Reaktorplutonium (reactor grade) mit mehr als 19 % 240Pu zusammen. Proton. Das Proton (Plural "Protonen"; von altgriechisch "to prōton" ‚das erste‘) ist ein stabiles, elektrisch positiv geladenes Hadron. In Teilchen- und Kernreaktionen wird es mit dem Formelzeichen p notiert. Das Proton gehört neben dem Neutron und dem Elektron zu den Bausteinen der Atome, aus denen alltägliche Gegenstände bestehen. Aufbau. Das Proton besteht aus zwei Up-Quarks und einem Down-Quark (Formel uud). Diese drei Valenzquarks werden von einem See aus Gluonen und Quark-Antiquark-Paaren umgeben. Nur ungefähr 1 % der Masse des Protons kommt von den Massen der Valenzquarks, der Rest stammt von der Bewegungs- und Bindungsenergie zwischen Quarks und den Gluonen, wobei letztere als Kraft-Austauschteilchen die starke Kraft zwischen den Quarks vermitteln. Der Durchmesser eines freien Protons beträgt etwa 1,7 · 10−15 m, also 1,7 Femtometer (fm). Das Proton ist wie das Neutron ein Baryon. Eigenschaften. Das Proton ist das einzige stabile Hadron und das leichteste Baryon. Da ein Zerfall immer nur zu leichteren Teilchen führen kann, muss das Proton wegen der Baryonenzahlerhaltung nach dem Standardmodell stabil sein. Experimente am Kamiokande lassen auf eine Halbwertzeit von mindestens 1032 Jahren schließen. Die Suche nach dem Protonenzerfall ist für die Physik von besonderer Bedeutung, da sie einen möglichen Test für Theorien jenseits des Standardmodells darstellt. Das magnetische Moment lässt sich über das Quarkmodell zu formula_1, wobei formula_2 das Kernmagneton bezeichnet, berechnen, was gut mit den gemessenen Werten übereinstimmt. Der umgekehrte Prozess tritt z. B. bei der Entstehung eines Neutronensterns auf und ist auch unter Normalbedingungen theoretisch möglich, aber statistisch extrem selten, da drei Teilchen mit genau abgestimmten Energien gleichzeitig zusammenstoßen müssten. Jedoch kann ein in einem sehr protonenreichen Atomkern gebundenes Proton sich durch Beta-plus-Zerfall oder Elektroneneinfang in ein Neutron verwandeln. Das Antimaterie-Teilchen (Antiteilchen) zum Proton ist das Antiproton, das 1955 erstmals von Emilio Segrè und Owen Chamberlain künstlich erzeugt wurde, was den Entdeckern den Nobelpreis für Physik des Jahres 1959 einbrachte. Es hat dieselbe Masse wie das Proton, besitzt aber eine negative Ladung. Protonen als Bestandteile von Atomkernen. Der Atomkern fast aller Nuklide besteht aus Protonen und Neutronen, den Nukleonen. Die Ausnahme ist das häufigste Wasserstoffisotop (das Wasserstoff-Atom 1H), dessen Atomkern nur aus einem einzelnen Proton besteht. Die Anzahl der Protonen im Atomkern, die Ordnungszahl des jeweiligen Elements, bestimmt (über die durch die Protonen bestimmte Elektronenzahl) dessen chemische Eigenschaften. Atome mit gleicher Protonenzahl, aber unterschiedlicher Neutronenzahl werden Isotope genannt und haben nahezu identische chemische Eigenschaften. Die Protonen im Atomkern tragen zur atomaren Gesamtmasse bei. Die starke Wechselwirkung zwischen Protonen und Neutronen ist für den Erhalt und die Stabilität des Atomkerns verantwortlich. Während die positiv geladenen Protonen untereinander sowohl anziehende (starke Wechselwirkung) als auch abstoßende Kräfte (elektromagnetische Wechselwirkung) erfahren, tritt zwischen Neutronen untereinander und zwischen Neutronen und Protonen keine elektrostatische Kraft auf. Das "Diproton", das fiktive Helium-Isotop 2He, dessen Kern lediglich aus zwei Protonen bestünde, ist nicht „teilchenstabil“, denn zwei Protonen können sich wegen des Pauli-Prinzips – im Gegensatz zum Proton und Neutron beim Deuteron – nur in einem Singulett-Zustand mit antiparallelen Spins befinden. Auf Grund der starken Spinabhängigkeit der Nukleon-Nukleon-Wechselwirkung ist dieser aber energetisch angehoben und daher nicht gebunden. Erst mit einem weiteren Neutron im Kern erhält man das stabile 3He. Über den Kernphotoeffekt können Protonen durch hochenergetische Photonen aus dem Kern gelöst werden, ebenso in anderen Kernreaktionen durch Stoß schneller Protonen, Neutronen oder Alphateilchen. Bei Kernen mit besonders hoher oder besonders geringer Neutronenzahl kann es zu spontaner Nukleonenemission, also Protonen- oder Neutronenemission, kommen. Man spricht hier von Protonen- bzw. Neutronenstrahlung. Die Halbwertszeiten sind hierbei stets sehr kurz. Bei extremem Protonenüberschuss (wie zum Beispiel beim Eisenisotop 45Fe) kann der Zwei-Protonen-Zerfall auftreten, bei dem sogar zwei Protonen gleichzeitig abgestrahlt werden (siehe hierzu den Hauptartikel Radioaktivität). Protonenstreuung. Streuexperimente mit Protonen an anderen Nukleonen werden durchgeführt, um die Eigenschaften der Nukleon-Nukleon-Wechselwirkungen zu erforschen. Bei der Streuung an Neutronen ist die starke Wechselwirkung die dominierende Kraft, die magnetische Wechselwirkung ist völlig vernachlässigbar. Streut man Protonen an Protonen, so muss zusätzlich die Coulomb-Kraft berücksichtigt werden. Die Kernkräfte hängen zudem noch vom Spin ab. Ein Ergebnis des Vergleichs der p-p-Streuung mit der n-n-Streuung ist, dass die Kernkräfte unabhängig vom Ladungszustand der Nukleonen sind (der Anteil der Coulombkraft am Wirkungsquerschnitt der p-p-Streuung wird hierbei abgezogen, um nur die Wirkung der Kernkräfte zu vergleichen). Mit elastischen oder quasielastischen Streuungen von Elektronen an Protonen lässt sich dessen Formfaktor bestimmen. Aktuelle Forschungsgebiete. Die Eigenschaften des Protons erforscht man u. a. in Anlagen wie dem Super Proton Synchrotron (SPS) und dem Large Hadron Collider (LHC) des CERNs, dem Tevatron im Fermilab oder HERA. Die Forschung mit Proton-Antiproton-Kollisionen dient unter anderem der Suche nach einer Physik jenseits des Standardmodells. Messungen der Lamb-Verschiebung am myonischen Wasserstoff, also am gebundenen System aus Myon und Proton, ergaben für den Ladungsradius des Protons einen anderen als den bisher angenommenen Wert, der u. a. aus Streuversuchen an Elektronenbeschleunigern ermittelt worden war. Diese Differenz ist eins der derzeit ungelösten Probleme der Physik. Sie wirft Fragen in Bezug zur Quantenelektrodynamik auf, die eigentlich als die besterforschte physikalische Theorie gilt. Technische Anwendungen. Beschleunigte Protonen werden in der Medizin im Rahmen der Protonentherapie zur Behandlung von Tumorgewebe eingesetzt. Dies ist eine im Vergleich zur konventionellen Röntgenbestrahlung schonendere Therapie, da die Protonen ihre Energie im Wesentlichen erst in einem eng begrenzten Tiefenbereich im Gewebe abgeben (Bragg-Peak). Das Gewebe, das sich auf dem Weg dorthin befindet, wird deutlich weniger belastet (Faktor 3 bis 4), das Gewebe dahinter wird im Vergleich zur Röntgen-Radiotherapie relativ wenig belastet. Protonen mit kinetischen Energien etwa im Bereich 10 bis 50 MeV aus Zyklotrons dienen z. B. auch zur Herstellung protonenreicher Radionuklide für medizinische Zwecke oder zur oberflächlichen Aktivierung von Maschinenteilen zwecks späterer Verschleißmessungen. Forschungsgeschichte. Protonen tauchten in der Forschung zuerst 1898 auf, als Wilhelm Wien feststellte, dass man die Geißlerröhre mit Wasserstoff füllen muss, um Kanalstrahlen mit dem größten Verhältnis von Ladung zu Masse zu erhalten. Diese Strahlung besteht aus Protonen. 1913 entwickelte Niels Bohr das nach ihm benannte Modell für das Wasserstoffatom, in dem ein Elektron einen positiv geladenen Atomkern umkreist. Dieser Kern ist ein Proton. 1919 entdeckte Ernest Rutherford, dass im Atomkern des Stickstoff Atomkerne des Wasserstoffs vorhanden sind. Er nahm daraufhin an, dass alle Atomkerne aus Wasserstoffkernen aufgebaut sind und schlug für diese den Namen "Proton" vor. Dabei nahm er Bezug auf das Wort "Protyle", das eine hypothetische Grundsubstanz aller Materie bezeichnet. William Prout hatte 1815 vermutet, dass Wasserstoff diese Substanz sei, so dass alle Atome aus Wasserstoffatomen aufgebaut seien. Physik. Die Physik (über lateinisch "physica" ‚Naturlehre‘ aus griechisch "physikē" ‚wissenschaftliche Erforschung der Naturerscheinungen‘, ‚Naturforschung‘) ist eine Naturwissenschaft und untersucht die grundlegenden Phänomene in der Natur. Um deren Eigenschaften und Verhalten anhand von quantitativen Modellen und Gesetzmäßigkeiten zu erklären, befasst sie sich insbesondere mit Materie und Energie und deren Wechselwirkungen in Raum und Zeit. Erklären bedeutet hier einordnen, vergleichen, allgemeineren Erscheinungen zuordnen; die Frage, „warum“ die Natur sich so und nicht anders verhält, kann die Physik nicht beantworten. Die Arbeitsweise der Physik besteht in einem Zusammenspiel experimenteller Methoden und theoretischer Modellbildung. Physikalische Theorien bewähren sich in der Anwendung auf Systeme der Natur, indem sie bei Kenntnis von deren Anfangszuständen möglichst genaue Vorhersagen über spätere Zustände erlauben. Erkenntnisfortschritte ergeben sich durch das Wechselspiel von Beobachtung und Experiment mit der Theorie. Eine neue oder weiterentwickelte Theorie kann bekannte experimentelle Ergebnisse besser oder überhaupt erstmals erklären und darüber hinaus neue Experimente anregen, deren Ergebnisse dann die Theorie bestätigen oder ihr widersprechen. Umgekehrt geben unerwartete Beobachtungs- oder Versuchsergebnisse Anlass zur Theorieentwicklung. Die Erkenntnisfortschritte führen beispielsweise zur Anwendbarkeit auf weitere Systeme, zu genaueren Beschreibungen, Vereinfachungen des theoretischen Apparats oder zu neuen oder erleichterten praktischen Anwendungen. Fachrichtungen wie Chemie, Geologie, Biologie und Medizin sowie viele Ingenieurwissenschaften nutzen intensiv Erkenntnisse und Modelle aus der Physik. Geschichte von Begriff und Disziplin der Physik. Die Disziplin der Physik hat ihre Ursprünge in den Theorien und Einzelstudien antiker Wissenschaftler. Zwar wurde die Physik hier als ein Teilgebiet der Philosophie verstanden; sie hatte aber, etwa in der maßgeblichen Systematik und Durchführung bei Aristoteles, einen eigenständigen Erkenntnisbereich und eine methodische Selbständigkeit. Ab Mitte des 13. und im Laufe des 14. Jahrhunderts plädieren mehrere Philosophen und Naturforscher – meist ein- und dieselbe Person wie etwa Roger Bacon – für eine größere Eigenständigkeit der durch Beobachtung zu erlangenden Naturerkenntnis. Diese Tendenzen mündeten im 16. und 17. Jahrhundert, namentlich mit Galileo Galilei und Isaac Newton, in die Entwicklung einer Methodologie der physikalischen Erkenntnis, die an experimentellen Standards orientiert ist und damit den modernen Kriterien nahekommt. Damit etabliert sich die Physik endgültig als eigenständige Disziplin hinsichtlich ihrer Methode, ihres Gegenstandsbereichs, ihrer wissenschaftssystematischen und institutionellen Verortung. Diese neue Methodik teilt die Physik im Wesentlichen in zwei große Gebiete auf. Die theoretische Physik beschäftigt sich vorwiegend mit formellen Beschreibungen und den Naturgesetzen. Sie abstrahiert Vorgänge und Erscheinungen in der wirklichen Natur in Form eines Systems von Modellen, allgemeingültigen Theorien und Naturgesetzen sowie intuitiv gewählter Hypothesen. Bei der Formulierung von Theorien und Gesetzen bedient sie sich vielfach der Methoden der Mathematik und der Logik. Ziel dieser Betrachtung ist die Vorhersage des Verhaltens eines Systems sowie die experimentelle Prüfung der Gültigkeit und Vorhersagekraft der gewählten Hypothesen durch Vergleich des vorhergesagten Verhaltens mit den Vorgängen und Erscheinungen in der wirklichen Natur. Diese Überprüfung in Form reproduzierbarer Messungen oder durch Beobachtung natürlicher Phänomene macht das Teilgebiet der Experimentalphysik aus. Die Physik steht in enger Verbindung zu den Ingenieurwissenschaften und den meisten Naturwissenschaften von der Astronomie und Chemie bis zur Biologie und den Geowissenschaften. Die Abgrenzung zu diesen Wissenschaften ergibt sich historisch aus dem Ursprung der Physik in der Philosophie. Insbesondere mit dem Aufkommen neuer Wissenschaftsdisziplinen wird eine inhaltliche Abgrenzung der Physik zu diesen anderen Feldern jedoch erschwert. Die Physik wird häufig als grundlegende oder fundamentale Naturwissenschaft aufgefasst, die sich stärker als die anderen Naturwissenschaften mit den Grundprinzipien befasst, die die natürlichen Vorgänge bestimmen. In der heutigen Physik ist vor allem die Grenze zur Chemie, der Übergang von der Physik der Atom- und Molekülphysik, zur Quantenchemie, fließend. Allerdings konzentriert sich die Chemie häufig auf komplexere Strukturen (Moleküle), während die Physik meist die grundlegende Materie erforscht. Zur Abgrenzung gegenüber der Biologie wird die Physik oftmals als die Wissenschaft von der unbelebten Natur bezeichnet, womit jedoch eine Beschränkung impliziert wird, die so in der Physik nicht existiert. Die Ingenieurwissenschaften werden durch ihren Bezug zur praktischen Anwendung von der Physik abgegrenzt, da in der Physik das Verständnis der grundlegenden Mechanismen gegenüber der Anwendung im Vordergrund steht. Die Astronomie hat keine Möglichkeit Laborexperimente durchzuführen und ist daher allein auf Naturbeobachtung angewiesen, was zur Abgrenzung gegen die Physik herangezogen wird. Methodik. Die Erkenntnisgewinnung in der Physik verläuft in enger Verzahnung von Experiment und Theorie, besteht also aus empirischer Datengewinnung und -auswertung "und" gleichzeitig dem Erstellen theoretischer Modelle zu ihrer Erklärung. Dennoch haben sich im Verlauf des 20. Jahrhunderts Spezialisierungen herausgebildet, die insbesondere die professionell betriebene Physik heute prägen. Demnach lassen sich grob Experimentalphysik und theoretische Physik voneinander unterscheiden. Experimentalphysik. Während manche Naturwissenschaften wie etwa die Astronomie und die Meteorologie sich methodisch weitgehend auf Beobachtungen ihres Untersuchungsgegenstandes beschränken müssen, steht in der Physik das Experiment im Vordergrund. Die Experimentalphysik versucht durch Entwurf, Aufbau, Durchführung und Auswertung von Experimenten Gesetzmäßigkeiten aufzuspüren und mittels empirischer Modelle zu beschreiben. Sie versucht einerseits physikalisches Neuland zu betreten, andererseits überprüft sie von der theoretischen Physik gemachte Vorhersagen. Grundlage eines physikalischen Experimentes ist es, die Eigenschaften eines zuvor präparierten physikalischen Systems, zum Beispiel eines geworfenen Steins, eines eingeschlossenen Gasvolumens oder eines Teilchens bei einem Stoßprozess durch Messung in Zahlenform auszudrücken, etwa als Aufprallgeschwindigkeit, als resultierender Druck (bei gegebenen Randbedingungen) oder als Länge der beobachtbaren Teilchenspuren im Detektor. Konkret werden entweder nur die zeitunabhängigen ("statischen") Eigenschaften eines Objektes gemessen oder es wird die zeitliche Entwicklung ("Dynamik") des Systems untersucht, etwa indem Anfangs- und Endwerte einer Messgröße vor und nach dem Ablauf eines Vorgangs bestimmt werden oder indem kontinuierliche Zwischenwerte festgestellt werden. Theoretische Physik. Die theoretische Physik sucht die empirischen Modelle der Experimentalphysik mathematisch auf bekannte Grundlagentheorien zurückzuführen oder, falls dies nicht möglich ist, Hypothesen für eine neue Theorie zu entwickeln, die dann experimentell überprüft werden können. Sie leitet weiterhin aus bereits bekannten Theorien empirisch überprüfbare Voraussagen ab. Bei der Entwicklung eines Modells wird grundsätzlich die Wirklichkeit idealisiert; man konzentriert sich zunächst nur auf ein vereinfachtes Bild, um dessen Aspekte zu überblicken und zu erforschen. Nachdem das Modell für diese Bedingungen ausgereift ist, wird es weiter verallgemeinert. Zur theoretischen Beschreibung eines physikalischen Systems benutzt man die Sprache der Mathematik. Seine Bestandteile werden dazu durch mathematische Objekte wie zum Beispiel Skalare oder Vektoren repräsentiert, die in durch Gleichungen festgelegten Beziehungen zueinander stehen. Aus bekannten Größen werden unbekannte errechnet und damit zum Beispiel das Ergebnis einer experimentellen Messung vorhergesagt. Diese auf Quantitäten konzentrierte Sichtweise unterscheidet die Physik maßgeblich von der Philosophie und hat zur Folge, dass nicht quantifizierbare Modelle, wie das Bewusstsein, nicht als Teil der Physik betrachtet werden. Das fundamentale Maß für den Erfolg einer naturwissenschaftlichen Theorie ist die Übereinstimmung mit Beobachtungen und Experimenten. Durch den Vergleich mit dem Experiment lassen sich der Gültigkeitsbereich und die Genauigkeit einer Theorie ermitteln; allerdings lässt sie sich niemals „beweisen“. Um eine Theorie zu widerlegen oder die Grenzen ihres Gültigkeitsbereiches zu zeigen, genügt im Prinzip ein einziges Experiment, sofern es sich als reproduzierbar erweist. Experimentalphysik und theoretische Physik stehen also in steter Wechselbeziehung zueinander. Es kann allerdings vorkommen, dass Ergebnisse der einen Disziplin der anderen vorauseilen: So sind derzeit viele Voraussagen der Stringtheorie nicht experimentell überprüfbar; andererseits sind viele teilweise sehr genau gemessene Werte aus dem Gebiet der Teilchenphysik zum heutigen Zeitpunkt (2009) durch die zugehörige Theorie, die Quantenchromodynamik, nicht berechenbar. Weitere Aspekte. Zusätzlich zu dieser grundlegenden Teilung der Physik unterscheidet man manchmal noch weitere methodische Unterdisziplinen, vor allem die mathematische Physik und die angewandte Physik. Auch die Arbeit mit Computersimulationen hat innerhalb der letzten Jahre Züge eines eigenen Bereiches der Physik angenommen. Mathematische Physik. Die mathematische Physik wird gelegentlich als Teilgebiet der theoretischen Physik betrachtet, unterscheidet sich von dieser jedoch darin, dass ihr Studienobjekt nicht konkrete physikalische Phänomene sind, sondern die Ergebnisse der theoretischen Physik selbst. Sie abstrahiert damit von jedweder Anwendung und interessiert sich stattdessen für die "mathematischen" Eigenschaften eines Modells, insbesondere seine tiefer liegenden Symmetrien. Auf diese Weise entwickelt sie Verallgemeinerungen und neue mathematische Formulierungen bereits bekannter Theorien, die dann wiederum als Arbeitsmaterial der theoretischen Physiker in der Modellierung empirischer Vorgänge Einsatz finden können. Angewandte Physik. Die angewandte Physik steht in (unscharfer) Abgrenzung zur Experimentalphysik, teilweise auch zur theoretischen Physik. Ihr wesentliches Kennzeichen ist, dass sie ein gegebenes physikalisches Phänomen nicht um seiner selbst willen erforscht, sondern um die aus der Untersuchung hervorgegangenen Erkenntnisse zur Lösung eines (in der Regel) nicht-physikalischen Problems einzusetzen. Ihre Anwendungen liegen auf dem Gebiet der Technik oder Elektronik aber auch in den Wirtschaftswissenschaften, wo im Risikomanagement Methoden der theoretischen Festkörperphysik zum Einsatz kommen. Auch gibt es die interdisziplinären Bereiche der Medizinphysik, physikalischen Chemie, Astrophysik und Biophysik. Simulation und Computerphysik. Mit der fortschreitenden Entwicklung der Rechensysteme hat sich in den letzten Jahrzehnten des 20. Jahrhunderts, beschleunigt seit etwa 1990, die Computersimulation als neue Methodik innerhalb der Physik entwickelt. Computersimulationen werden häufig als Bindeglied zwischen Theorie und Experiment verwendet, um Vorhersagen aus einer Theorie zu gewinnen, andererseits können Simulationen auch in Form einer effektiven Theorie, die ein experimentelles Ergebnis nachmodelliert, einen Impuls an die theoretische Physik zurückgeben. Naturgemäß hat dieser Bereich der Physik zahlreiche Anknüpfungspunkte an die Informatik. Theoriengebäude. Das Theoriengebäude der Physik beruht in seinem Ursprung auf der klassischen Mechanik. Diese wurde im 19. Jahrhundert um weitere Theorien ergänzt, insbesondere den Elektromagnetismus und die Thermodynamik. Die moderne Physik beruht auf zwei Erweiterungen aus dem 20. Jahrhundert, der Relativitätstheorie und der Quantenphysik, die Grundprinzipien der klassischen Mechanik verallgemeinert haben. Beide Theorien enthalten die klassische Mechanik über das sogenannte Korrespondenzprinzip als Grenzfall und haben daher einen größeren Gültigkeitsbereich als diese. Während die Relativitätstheorie teilweise auf denselben konzeptionellen Grundlagen basiert wie die klassische Mechanik, löst sich die Quantenphysik deutlich davon. Klassische Mechanik. Die klassische Mechanik wurde im 16. und 17. Jahrhundert maßgeblich von Galileo Galilei und Isaac Newton begründet. Aufgrund der zu dieser Zeit noch recht begrenzten technischen Möglichkeiten sind die Vorgänge, die die klassische Mechanik beschreibt, weitgehend ohne komplizierte Hilfsmittel beobachtbar, was sie anschaulich erscheinen lässt. Die klassische Mechanik behandelt Systeme mit wenigen massiven Körpern, was sie von der Elektrodynamik und der Thermodynamik unterscheidet. Raum und Zeit sind dabei nicht Teil der Dynamik, sondern ein unbewegter Hintergrund, vor dem physikalische Prozesse ablaufen und Körper sich bewegen. Für sehr kleine Objekte tritt die Quantenphysik an die Stelle der klassischen Mechanik, während die Relativitätstheorie zur Beschreibung von Körpern mit sehr großen Massen und Energien geeignet ist. Die mathematische Behandlung der klassischen Mechanik wurde im späten 18. und frühen 19. Jahrhundert in Form des Lagrange-Formalismus und des Hamilton-Formalismus entscheidend vereinheitlicht. Diese Formalismen sind auch mit der Relativitätstheorie anwendbar und sind daher ein bedeutender Teil der klassischen Mechanik. Obwohl die klassische Mechanik nur für mittelgroße, anschauliche Systeme gültig ist, ist die mathematische Behandlung komplexer Systeme bereits im Rahmen dieser Theorie mathematisch sehr anspruchsvoll. Die Chaostheorie befasst sich in großen Teilen mit solchen komplexen Systemen der klassischen Mechanik und ist derzeit (2009) ein aktives Forschungsgebiet. Elektrodynamik. a> sind die bekannten Maxwell-Gleichungen des Elektromagnetismus benannt In der Elektrodynamik werden Phänomene mit bewegten elektrischen Ladungen in Wechselwirkung mit zeitlich veränderlichen elektrischen und magnetischen Feldern beschrieben. Um die Entwicklung der Theorien der Elektrizität und des Magnetismus im 18. und 19. Jahrhundert zusammenzuführen, wurde eine Erweiterung des Theoriengebäudes der klassischen Mechanik notwendig. Ausgangspunkt war das von Michael Faraday entdeckte Induktionsgesetz und die nach Hendrik Antoon Lorentz benannte Lorentzkraft auf eine bewegte elektrische Ladung in einem Magnetfeld. Die Gesetze der Elektrodynamik wurden im 19. Jahrhundert von James Clerk Maxwell zusammengefasst und in Form der Maxwell-Gleichungen erstmals vollständig formuliert. Grundsätzlich wurden elektrodynamische Systeme mit den Methoden der klassischen Mechanik behandelt, allerdings ermöglichen die Maxwell-Gleichungen auch eine Wellenlösung, die elektromagnetische Wellen wie das Licht beschreiben. Diese Theorie brachte unter anderem in Form der Wellenoptik auch einen eigenen Formalismus hervor, der sich grundlegend von dem der klassischen Mechanik unterscheidet. Besonders die Symmetrien der Elektrodynamik sind mit denen der klassischen Mechanik unvereinbar. Dieser Widerspruch zwischen den beiden Theoriegebäuden wurde durch die spezielle Relativitätstheorie gelöst. Die Wellenoptik ist in Form der nichtlinearen Optik noch heute (2011) ein aktives Forschungsgebiet. Thermodynamik. Etwa gleichzeitig mit der Elektrodynamik entwickelte sich mit der Thermodynamik ein weiterer Theorienkomplex, der sich grundlegend von der klassischen Mechanik unterscheidet. Im Gegensatz zur klassischen Mechanik stehen in der Thermodynamik nicht einzelne Körper im Vordergrund, sondern ein Ensemble aus vielen kleinsten Bausteinen, was zu einem radikal anderen Formalismus führt. Die Thermodynamik eignet sich damit zur Behandlung von Medien aller Aggregatzustände. Die Quantentheorie und die Relativitätstheorie lassen sich in den Formalismus der Thermodynamik einbetten, da sie nur die Dynamik der Bausteine des Ensembles betreffen, aber den Formalismus zur Beschreibung thermodynamischer Systeme nicht prinzipiell ändern. Die Thermodynamik eignet sich beispielsweise zur Beschreibung von Wärmekraftmaschinen aber auch zur Erklärung vieler moderner Forschungsgegenstände wie Supraleitung oder Suprafluidität. Besonders im Bereich der Festkörperphysik wird daher auch heute (2009) noch viel mit den Methoden der Thermodynamik gearbeitet. Relativitätstheorie. Die von Albert Einstein begründete Relativitätstheorie führt ein völlig neues Verständnis der Phänomene Raum und Zeit ein. Danach handelt es sich bei diesen nicht um universell gültige Ordnungsstrukturen, sondern räumliche und zeitliche Abstände werden von verschiedenen Beobachtern unterschiedlich beurteilt. Raum und Zeit verschmelzen zu einer vierdimensionalen Raumzeit. Die Gravitation wird auf eine Krümmung dieser Raumzeit zurückgeführt, die durch die Anwesenheit von Masse bzw. Energie hervorgerufen wird. In der Relativitätstheorie wird erstmals die Kosmologie zu einem naturwissenschaftlichen Thema. Die Formulierung der Relativitätstheorie gilt als der Beginn der modernen Physik, auch wenn sie häufig als Vollendung der klassischen Physik bezeichnet wird. Quantenphysik. Die Quantenphysik beschreibt die Naturgesetze im atomaren und subatomaren Bereich und bricht noch radikaler mit klassischen Vorstellungen als die Relativitätstheorie. In der Quantenphysik sind auch physikalische Größen selbst Teil des Formalismus und keine bloßen Kenngrößen mehr, die ein System beschreiben. Der Formalismus unterscheidet also zwischen zwei Typen von Objekten, den Observablen, die die Größen beschreiben und den Zuständen, die das System beschreiben. Ebenso wird der Messprozess aktiv in die Theorie miteinbezogen. Dies führt in bestimmten Situationen zur Quantisierung der Größenwerte. Das heißt, die Größen nehmen stets nur bestimmte diskrete Werte an. In der Quantenfeldtheorie, der am weitesten entwickelten relativistischen Quantentheorie, tritt auch Materie nur in Portionen, den Elementarteilchen oder Quanten, in Erscheinung. Die Gesetze der Quantenphysik entziehen sich weitgehend der menschlichen Anschauung, und über ihre Interpretation herrscht auch heute noch kein Konsens. Dennoch zählt sie hinsichtlich ihres empirischen Erfolges zu dem am besten gesicherten Wissen der Menschheit überhaupt. Themenbereiche der modernen Physik. Die Theorien der Physik kommen in verschiedenen Themenbereichen zum Einsatz. Die Einteilung der Physik in Unterthemen ist nicht eindeutig und die Abgrenzung der Unterthemen gegeneinander ist dabei ähnlich schwierig wie die Abgrenzung der Physik zu anderen Wissenschaften. Es gibt dementsprechend viele Überschneidungen und gegenseitige Beziehungen der verschiedenen Bereiche zueinander. Hier wird eine Sammlung von Themengebieten nach betrachteter Größenordnung der Objekte dargestellt und im Zuge dessen auf Themengebiete verwiesen, die damit verwandt sind. Die aufgeführten Themen lassen sich nicht eindeutig einer Theorie zuordnen, sondern bedienen sich je nach dem untersuchten Gegenstand verschiedener theoretischer Konzepte. Teilchenphysik. Diese Wechselwirkungen werden durch den Austausch sogenannter Eichbosonen beschrieben. Die Teilchenphysik klammert dabei die Gravitation derzeit (2009) aus, da es noch keine Theorie der Quantengravitation gibt, die die gravitativen Wechselwirkungen von Elementarteilchen vollständig beschreiben kann. In der Teilchenphysik werden relativistische Quantentheorien zur Beschreibung der Phänomene verwendet. Eines der Ziele der Teilchenphysik ist es, alle Grundkräfte in einem vereinheitlichten Gesamtkonzept zu beschreiben (Weltformel). Bisher ist es jedoch lediglich gelungen, die elektromagnetische Wechselwirkung als Vereinigung der elektrischen und der magnetischen Wechselwirkung darzustellen und ebenso die elektromagnetische Wechselwirkung und die schwache Wechselwirkung zu einer sogenannten elektroschwachen Wechselwirkung zu vereinigen. Zur Vereinigung der elektroschwachen und der starken Wechselwirkung wurde unter anderem die Theorie der Supersymmetrie erdacht, die bislang jedoch nicht experimentell bestätigt werden konnte. Die größten Schwierigkeiten treten wie bereits erwähnt im Bereich der Gravitationskraft auf, da noch keine Theorie der Quantengravitation vorliegt, aber Elementarteilchen nur im Rahmen der Quantentheorie beschrieben werden können. Typische Experimente zur Überprüfung der Theorien der Teilchenphysik werden an Teilchenbeschleunigern mit hohen Teilchenenergien durchgeführt. Um hohe Kollisionsenergien zu erreichen, werden dabei vor allem Collider-Experimente eingesetzt, bei denen Teilchen gegeneinander und nicht auf ein festes Ziel geschossen werden. Daher wird der Begriff der Hochenergiephysik oft nahezu deckungsgleich mit dem Begriff der Teilchenphysik verwendet. Der Teilchenbeschleuniger mit der derzeit (2011) höchsten Kollisionsenergie ist der Large Hadron Collider. Neutrinodetektoren wie der Super-Kamiokande sind speziell zur Erforschung der Eigenschaften von Neutrinos konzipiert und stellen damit eine zwar spezielle, aber dennoch bedeutende Experimentklasse dar. Hadronen- und Atomkernphysik. Die Elementarteilchen, die der starken Wechselwirkung unterliegen, die sogenannten Quarks, kommen nicht einzeln, sondern immer nur in gebundenen Zuständen, den Hadronen, vor, zu denen unter anderem das Proton und das Neutron gehören. Die Hadronenphysik hat viele Überschneidungen mit der Elementarteilchenphysik, da viele Phänomene nur erklärt werden können, indem berücksichtigt wird, dass die Hadronen aus Quarks aufgebaut sind. Die Beschreibung der starken Wechselwirkung durch die Quantenchromodynamik, eine relativistische Quantenfeldtheorie, kann jedoch die Eigenschaften der Hadronen nicht vorhersagen, weshalb die Untersuchung dieser Eigenschaften als eigenständiges Forschungsgebiet aufgefasst wird. Es wird also eine Erweiterung der Theorie der starken Wechselwirkung für kleine Energien angestrebt, bei denen sich die Hadronen bilden. Atomkerne stellen gegenüber Elementarteilchen die nächste Komplexitätsstufe dar. Sie bestehen aus mehreren Nukleonen, also Protonen und Neutronen, deren Wechselwirkungen untersucht werden. In Atomkernen herrschen die starke und die elektromagnetische Wechselwirkung vor. Forschungsgebiete der Atomkernphysik umfassen radioaktive Zerfälle und Stabilität von Atomkernen. Ziel ist dabei die Entwicklung von Kernmodellen, die diese Phänomene erklären können. Dabei wird aber auf eine detaillierte Ausarbeitung der starken Wechselwirkung wie in der Hadronenphysik verzichtet. Zur Erforschung der Eigenschaften von Hadronen werden Teilchenbeschleuniger eingesetzt, wobei hier der Schwerpunkt nicht so sehr wie in der Teilchenphysik auf hohen Kollisionsenergien liegt. Stattdessen werden Target-Experimente durchgeführt, die zwar geringere Schwerpunktsenergien, aber sehr viel höhere Ereigniszahlen liefern. Allerdings werden auch Collider-Experimente mit Schwerionen vor allem eingesetzt, um Erkenntnisse über Hadronen zu gewinnen. In der Kernphysik werden zur Erzeugung von Transuranen schwere Atome zur Kollision gebracht und Radioaktivität mit einer Vielzahl experimenteller Aufbauten untersucht. Atom- und Molekülphysik. Atome bestehen aus dem Atomkern und meist mehreren Elektronen und stellen die nächste Komplexitätsstufe der Materie dar. Ziel der Atomphysik ist es unter anderem, die Linienspektren der Atome zu erklären, wozu eine genaue quantenmechanische Beschreibung der Wechselwirkungen der Elektronen der Atome notwendig ist. Da Moleküle aus mehreren Atomen aufgebaut sind, arbeitet die Molekülphysik mit ähnlichen Methoden, allerdings stellen insbesondere große Moleküle meist deutlich komplexere Systeme dar, was die Rechnungen sehr viel komplizierter und häufig den Einsatz von Computersimulationen erforderlich macht. Die Atom- und Molekülphysik stehen über die Untersuchung der optischen Spektren von Atomen und Molekülen mit der Optik in enger Beziehung. So baut beispielsweise das Funktionsprinzip des Lasers, einer bedeutenden technischen Entwicklung, maßgeblich auf den Ergebnissen der Atomphysik auf. Da die Molekülphysik sich auch intensiv mit der Theorie der chemischen Bindungen befasst, sind in diesem Themengebiet Überschneidungen mit der Chemie vorhanden. Ein wichtiger experimenteller Zugang besteht in der Einwirkung von Licht. So werden beispielsweise optische Spektren von Atomen und Molekülen mit ihren quantenmechanischen Eigenschaften in Verbindung gesetzt. Umgekehrt kann dann mit spektroskopischen Methoden die Zusammensetzung eines Stoffgemisches untersucht werden und anhand von Sternenlicht Aussagen über die Elemente in der Sternenatmosphäre getroffen werden. Andere Untersuchungsmethoden betrachten das Verhalten unter dem Einfluss von elektrischen und magnetischen Feldern. Beispiele sind die Massenspektroskopie oder die Paulfalle. Kondensierte Materie und Fluiddynamik. Die Physik der kondensierten Materie und die Fluiddynamik sind in dieser Auflistung das Gebiet mit der größten thematischen Bandbreite, von der Festkörperphysik bis zur Plasmaphysik. All diesen Bereichen ist gemeinsam, dass sie sich mit makroskopischen Systemen aus sehr vielen Atomen, Molekülen oder Ionen befassen. Dementsprechend ist in allen Bereichen dieses Themengebiets die Thermodynamik ein wichtiger Teil des theoretischen Fundamentes. Je nach Problem kommen aber auch Quantentheorie und Relativitätstheorie zum Einsatz, um die Systeme zu beschreiben. Auch Computersimulationen sind ein fester Bestand der Forschung an solchen Vielteilchensystemen. Aufgrund der thematischen Bandbreite existieren Überschneidungen mit nahezu allen anderen Gebieten der Physik, zum Beispiel mit der Optik in Form laseraktiver Medien oder nichtlinearer Optik, aber auch mit der Akustik, Atom-, Kern- und Teilchenphysik. Auch in der Astrophysik spielt die Fluiddynamik eine große Rolle bei der Erstellung von Modellen zur Entstehung und zum Aufbau von Sternen sowie bei der Modellierung vieler anderer Effekte. Viele Forschungsbereiche sind dabei sehr anwendungsorientiert, wie die Materialforschung, die Plasmaphysik oder die Erforschung der Hochtemperatursupraleiter. Die Bandbreite der experimentellen Methoden in diesem Bereich der Physik ist sehr groß, sodass sich keine typischen Methoden für das ganze Gebiet angeben lassen. Die quantenmechanischen Effekte wie Supraleitung und Suprafluidität, die eine gewisse Bekanntheit erlangt haben, werden der Tieftemperaturphysik zugerechnet, die mit typischen Kühlungsmethoden einhergeht. Astrophysik und Kosmologie. Astrophysik und Kosmologie sind interdisziplinäre Forschungsgebiete, die sich stark mit der Astronomie überschneiden. Nahezu alle anderen Themenbereiche der Physik gehen in die astrophysikalischen Modelle ein, um Prozesse auf verschiedenen Größenskalen zu modellieren. Ziel dieser Modelle ist es, astronomische Beobachtungen auf der Grundlage der bisher bekannten Physik zu erklären. Die Kosmologie baut insbesondere auf den Grundlagen der allgemeinen Relativitätstheorie auf, allerdings sind im Rahmen der Quantenkosmologie auch die Quantentheorien sehr bedeutsam um die Entwicklung des Universums in sehr viel früheren Phasen zu erklären. Das derzeit (2009) am meisten vertretene kosmologische Standardmodell baut dabei maßgeblich auf den Theorien der Dunklen Materie und der Dunklen Energie auf. Weder dunkle Materie noch dunkle Energie konnte bisher direkt experimentell nachgewiesen werden, es existieren aber eine Vielzahl von Theorien, was genau diese Objekte sind. Da in der Astrophysik nur in sehr beschränktem Ausmaß Experimente möglich sind, ist dieses Teilgebiet der Physik sehr stark auf die Beobachtung unbeeinflussbarer Phänomene angewiesen. Dabei kommen auch Erkenntnisse der Atomphysik und der Teilchenphysik und typische Messmethoden dieser Fachgebiete zur Anwendung, um Rückschlüsse auf astrophysikalische oder kosmologische Zusammenhänge zu ziehen. Beispielsweise geben die Spektren von Sternenlicht Auskunft über die Elementverteilung der Sternenatmosphäre, die Untersuchung der Höhenstrahlung erlaubt Rückschlüsse auf die kosmische Strahlung und Neutrinodetektoren messen nach einer Supernova einen erhöhten Neutrinostrom, der gleichzeitig mit dem Licht der Supernova beobachtet wird. Interdisziplinäre Themenbereiche. Methoden der Physik finden in vielen Themengebieten Anwendung, die nicht zum Kernthemenbereich der Physik gehören. Einige dieser Anwendungen sind in den vorigen Kapiteln bereits angesprochen worden. Die folgende Aufzählung gibt einen kurzen Überblick über die wichtigsten interdisziplinären Themenbereiche. Grenzen der physikalischen Erkenntnis. Der derzeitige Stand der Physik ist nach wie vor mit noch ungelösten Problemen konfrontiert. Zum einen handelt es sich dabei um den weniger grundsätzlichen Fall von Problemen, deren Lösung prinzipiell möglich, aber mit den derzeitigen mathematischen Möglichkeiten bestenfalls annäherbar ist. Zum anderen gibt es eine Reihe von Problemen, für die noch unklar ist, ob eine Lösung im Begriffsrahmen der heutigen Theorien überhaupt möglich sein wird. So ist es bislang nicht gelungen, eine vereinheitlichte Theorie zu formulieren, welche sowohl Phänomene beschreibt, die der elektroschwachen wie der starken Wechselwirkung unterliegen, wie auch solche, welche der Gravitation unterliegen. Erst bei einer solchen Vereinigung von Quantentheorie und Gravitationstheorie (allgemeiner Relativitätstheorie) könnten alle vier Grundkräfte einheitlich behandelt werden, sodass eine vereinheitlichte Theorie der Elementarteilchen resultierte. Die bisherigen Kandidaten von Quantengravitations­theorien, Supersymmetrie und Supergravitations-, String- und M-Theorien versuchen, eine solche Vereinheitlichung zu erreichen. Überhaupt ist es ein praktisch leitendes Ziel heutiger Physiker, sämtliche Vorgänge der Natur durch eine möglichst geringe Anzahl von möglichst einfachen Naturgesetzen zu beschreiben. Diese sollen das Verhalten möglichst grundlegender Eigenschaften und Objekte (etwa Elementarteilchen) beschreiben, sodass höherstufige (emergente) Prozesse und Objekte auf diese Beschreibungsebene reduzierbar sind. Ob dieses Ziel prinzipiell oder praktisch erreichbar ist, ist eigentlich nicht mehr Gegenstand der einzelwissenschaftlichen physikalischen Erkenntnisbemühung, ebenso wenig, wie es allgemeine Fragen darüber sind, welchen Gewissheitsgrad physikalische Erkenntnisse grundsätzlich erreichen können oder faktisch erreicht haben. Derartige Fragen sind Gegenstand der Epistemologie und Wissenschaftstheorie. Dabei werden ganz unterschiedliche Positionen verteidigt. Relativ unbestritten ist, dass naturwissenschaftliche Theoriebildungen in dem Sinne nur Hypothesen sind, dass man nicht mit Gewissheit wissen kann, ob es sich dabei um wahre und gerechtfertigte Auffassungen handelt. Man kann hier noch in spezifischerer Weise vorsichtig sein, indem man sich auf die Theorie- und Begriffsvermitteltheit aller empirischen Erkenntnisse beruft oder auf die Tatsache, dass der Mensch als erkennendes Subjekt ja unter den Gegenstandsbereich physikalischer Theorien fällt, aber nur als wirklich Außenstehender sicheres Wissen haben könnte. Denn für Beobachter, die mit ihrem Erkenntnisobjekt interagieren, bestehen prinzipielle Grenzen der Prognostizierbarkeit im Sinne einer Ununterscheidbarkeit des vorliegenden Zustandes – eine Grenze, die auch dann gelten würde, wenn der Mensch alle Naturgesetze kennen würde und die Welt deterministisch wäre. Diese Grenze hat praktische Bedeutung bei deterministischen Prozessen, für welche geringe Änderungen des Anfangszustands zu großen Abweichungen in Folgezuständen führen – Prozesse, wie sie durch die Chaostheorie beschrieben werden. Aber nicht nur eine praktische Voraussagbarkeit ist in vielen Fällen nur begrenzt möglich, auch wird von einigen Wissenschaftstheoretikern eine Aussage­fähigkeit physikalischer Modelle über die Realität überhaupt bestritten. Dies gilt in verschiedenen Ausarbeitungen eines sogenannten wissenschaftstheoretischen Antirealismus in unterschiedlichem Ausmaß: für unterschiedliche Typen physikalischer Begriffe wird eine reale Referenz bestritten oder für unwissbar gehalten. Auch eine prinzipielle oder wahrscheinliche Zusammenführbarkeit einzelner Theorien wird von einigen Wissenschaftstheoretikern bestritten. Beziehung zu anderen Wissenschaften. Die Beziehungen zur Philosophie sind traditionell eng, hat sich doch die Physik aus der klassischen Philosophie entwickelt, ohne sich dabei jemals grundsätzlich in Gegensatz zu ihr zu stellen und waren nach heutigen Kategorien zahlreiche bedeutende Physiker zugleich wichtige Philosophen und umgekehrt. Gemäß der heutigen philosophischen Disziplinenunterscheidung ist die Physik insbesondere auf die Ontologie bezogen, welche die Grundstrukturen der Realität in möglichst allgemeinen Begriffen zu beschreiben versucht, darüber hinaus auf die Erkenntnistheorie, welche die Gütekriterien von Wissen überhaupt zu erfassen versucht, spezifischer noch auf die Wissenschaftstheorie, welche die allgemeinen Methoden wissenschaftlicher Erkenntnis zu bestimmen versucht und natürlich auf die Naturphilosophie bzw. Philosophie der Physik, die oftmals als Unterdisziplin der Ontologie oder Wissenschaftstheorie behandelt wird, jedenfalls aber spezifischer gerade auf die Einzelerkenntnisse der Physik bezogen arbeitet, deren Begriffssystem analysiert und ontologische Interpretationen physikalischer Theorien diskutiert. Physik in der Gesellschaft. Logo des Jahres der Physik 2005 Da die Physik als die grundlegende Naturwissenschaft gilt, werden physikalisches Wissen und Denken bereits in der Schule meist im Rahmen eines eigenen Schulfaches unterrichtet. Im Rahmen des Schulsystems wird Physik in der Regel als Nebenfach ab Klassenstufe 5–7 unterrichtet, und wird in der Oberstufe oft auch als Leistungskurs geführt. Parsec. Das Parsec (Kurzwort von, ‚Parallaxensekunde‘; Einheitenzeichen pc) ist ein astronomisches Längenmaß. Es ist die Entfernung, aus der der mittlere Erdbahnradius (= 1 AU, Astronomische Einheit) unter einem Winkel von einer Bogensekunde erscheint und entspricht etwa 3,26 Lichtjahren bzw. 206 000 Astronomischen Einheiten oder 3,09·1016 m. Es hat seinen Ursprung in der Entfernungsmessung über Sternparallaxen. Parallaxenwinkel der nächstgelegenen Sterne, bezogen auf den Erdbahnradius, betragen knapp eine Bogensekunde. Weiter entfernte Sterne haben kleinere Parallaxen. Der Kehrwert der Sternparallaxe in Bogensekunden ist die Entfernung in Parsec. In der Fachsprache sind Angaben in Parsec üblicher als in Lichtjahren. Gebräuchlich sind insbesondere das Kiloparsec (kpc) für galaktische Entfernungen und Megaparsec (Mpc) darüber hinaus. Kilopond. Das Kilopond (von lat. "pondus", ‚Gewicht‘) ist eine veraltete, nicht SI-konforme Einheit der Kraft. Es war eine Basiseinheit des technischen Maßsystems. Das Kilopond ist per Gesetz seit 1. Januar 1978 in Deutschland für die Angabe der Kraft unzulässig und wurde durch das Newton ersetzt. Ein Kilopond ist die Kraft, die durch die Schwerebeschleunigung an der Erdoberfläche auf eine Masse von einem Kilogramm ausgeübt wird. Hierbei wird der Wert formula_7 der Normfallbeschleunigung verwendet. Wie auch beim Kilogramm ist die Basiseinheit als das tausendfache der scheinbaren Grundeinheit Pond, die der Gewichtskraft von einem Gramm entspricht, definiert. Dezimale Vielfache und Teile werden nicht von der Einheit Kilopond, sondern von der Einheit Pond gebildet. Ein Beispiel ist das Megapond, welches einer Millionen Pond oder eintausend Kilopond entspricht. Diese Einheit wurde beispielsweise für die Achslast vom Dampflokomotiven verwendet. Ein Kilopond sollte (bei seiner Einführung) die Kraft sein, die durch die Schwerebeschleunigung an der Erdoberfläche auf einen Kubikdezimeter Wasser (von höchster Dichte, also bei ca. 4 °Celsius) ausgeübt wird. Da die Schwerkraft ortsabhängig ist, wurde zudem Meereshöhe und 45 Grad geografischer Breite festgesetzt. Später wurde die Normfallbeschleunigung verwendet, die auf der dritten Generalkonferenz für Maß und Gewicht festgeschrieben wurde. Das Kilopond wurde im mittlerweile veralteten technischen Maßsystem ursprünglich als Kilogramm, zur Abgrenzung vom „Massekilogramm“ des physikalischen CGS-Systems auch als Kraftkilogramm (kg, kg*, kgp, kgf, kgf) bezeichnet. Probleme der Definition. Eine Masse von 1 kg erfährt im Mittel auf der Erde in Meereshöhe die Gewichtskraft von 1 kp. Umgangssprachlich wird die Masse eines Körpers oft unrichtig als „Gewicht“ bezeichnet und Kilogramm praktisch mit Kilopond gleichgesetzt. Da die Erdbeschleunigung jedoch von Ort zu Ort geringfügig abweicht, ist die Gewichtskraft auf 1 kg meist nicht exakt 1 kp. Einige Bauarten von Waagen (z. B. Federwaagen) messen nicht die Masse, sondern die von einer Masse ausgeübte Gewichtskraft. Sie sind dennoch in Kilogramm skaliert. Ohne Kalibrierung kann dabei die Ablesung an verschiedenen Orten der Erde allein durch die örtliche Erdbeschleunigung um bis zu ca. einem Prozent variieren. Mit der Einführung des internationalen Einheitensystems SI im Jahr 1960 wurde die Krafteinheit Kilopond durch die Einheit Newton abgelöst, die unter anderem einer Verwechslung von Masse und Gewichtskraft vorbeugt, viel besser reproduzierbar ist und vor allem in ein umfassendes Konzept für Einheiten eingebettet ist. Pascal (Einheit). Ein Pascal ist also der Druck, den eine Kraft von einem Newton auf eine Fläche von einem Quadratmeter ausübt. Der mittlere Luftdruck der Atmosphäre auf Meereshöhe (Standard- bzw. Normdruck) beträgt 101.325 Pascal = 1.013,25 hPa = 101,325 kPa oder 1,01325 bar. Am einfachsten: rund 1x105 Pa oder 1 bar. Anwendungen und typische Größen. Im Folgenden werden einige Größenbeispiele für verschiedene Anwendungen angeführt. Für den Größenbereich werden SI-Präfixe angegeben. Mikropascal. Als Bezugswert für den Schalldruckpegel Lp = 0 dB (Dezibel) ist 20 µPa Schalldruck festgelegt und gilt als Hörschwelle. Die Lautheit von 1 sone wird bei 1000-Hz-Sinuston und +40 dB, also 2000 µPa definiert. 1 Pa Schalldruck entspricht +94 dB und ist damit so laut, dass bei Dauerbelastung Hörschäden auftreten können. Weil der Druck im Gas (Fluid) nicht negativ werden kann, ist symmetrisch auf- und abschwingender Schalldruck mit dem Umgebungs(luft)druck begrenzt, dem Standardatmosphärendruck von 1013,25 hPa entspricht dabei 194,09 dB. Ein einzelner Knallstoß kann jedoch stärker sein. Dekapascal. In der Lüftungstechnik wird häufig die Einheit Dekapascal (1 daPa = 10 Pa) verwendet, wobei ein Dekapascal 0,1 mbar entspricht. Hektopascal. In der Meteorologie wird der Luftdruck der Atmosphäre (auf Meereshöhe im Mittel 1 013,25 hPa) meist in Hektopascal (1 hPa = 100 Pa) angegeben, weil so zum einen die SI-konforme Einheit Pascal verwendet werden kann und man zum anderen einen Zahlwert hat, der dem früher üblichen Millibar (mbar) genau entspricht. In der Forschung wird, insbesondere bei der Vakuumtechnik, vielfach das Millibar als Einheit verwendet. Kilopascal. Die Einheit Kilopascal (1 kPa = 1000 Pa = 0,1 N/cm2) wird in der Kraftfahrzeugtechnik beispielsweise für die SI-konforme Angabe des Reifenfülldruckes benutzt. Ein Druck von 100 kPa entspricht dabei 1 bar. Auch bei Abwasserleitungen wird der Prüfdruck in Kilopascal angegeben. Megapascal. Die Einheit Megapascal (1 MPa = 1 Million Pa = 1 N/mm2) wird in der Technik und in höheren Zahlen auch zur Beschreibung von Explosionen verwendet. Der Kaltfülldruck einer Halogenlampe mit den Edelgasen Neon und Krypton bei 22 °C kann z. B. 1,2 MPa (entspricht 12 bar) betragen. Eine Hydraulikleitung kann für 400 bar = 40 MPa Betriebsdruck ausgelegt sein. Megapascal werden auch z. B. zur Beschreibung des kritischen Punktes in der Thermodynamik verwendet. Streckgrenze, Dehngrenze und Streckspannung im Maschinenbau werden ebenfalls üblicherweise in Megapascal angegeben. Auch in der Bautechnik wird die Festigkeit von Betonen in Megapascal angegeben. Die spezifische Energie eines Sprengstoffes gibt den Druck in Megapascal an, den ein Kilogramm dieses Explosivstoffes in einem abgeschlossenen Volumen von einem Liter bei der Explosion erzeugen würde. Gigapascal. Die Einheit Gigapascal (1 GPa = 1 Milliarde Pa) beschreibt die Größenordnung von Drücken, die z. B. Kohlenstoff in Diamant verwandeln. Gigapascal ist die Einheit des Elastizitätsmoduls. Graphit, zusammengepresst in einer hydraulischen Presse bei Drücken von bis zu 6 GPa und Temperaturen von über 1500 °C, wandelt sich in Diamant um. Bornitrid, analog zur Umwandlung von Graphit in Diamant, wandelt sich von einer hexagonalen in die kubische Modifikation um bei hoher Temperatur (1400–1800 °C) und hohem Druck von über 6 GPa. Unter Normalbedingungen weist Bornitrid eine Festigkeit von etwa 48 GPa auf (Diamant zwischen 70 und 100 GPa). Der Schubmodul (auch Gleitmodul, Schermodul oder Torsionsmodul), eine Materialkonstante, die Auskunft über die lineare elastische Verformung eines Bauteils infolge einer Scherkraft oder Schubspannung gibt, wird ebenfalls in Gigapascal angegeben. Aluminium hat z. B. einen Schubmodul von 25,5 GPa, Stahl von 79,3 GPa. Der Schermodul von Gesteinen beträgt meistens 30 GPa, siehe Seismisches Moment. In 410 km Tiefe beträgt der Druck 14 GPa; siehe 410-km-Diskontinuität. In Erdtiefen von etwa 700 km wandeln sich bei Temperaturen von vielen hundert Grad Celsius bzw. bei Drücken um 25 GPa viele Gesteine in andere Mineralien um. Mit einem Druck von 268 GPa konnten Forscher Quarz in eine Kristallstruktur umwandeln, die nirgends natürlich vorkommt. Umrechnung von Druckeinheiten. Neben dem Pascal gibt es noch weitere Einheiten für den Druck. Eine Tabelle findet sich im Artikel Druck. Phot. Phot (ph) ist eine veraltete physikalische Einheit der Beleuchtungsstärke aus dem CGS-Einheitensystem. Das Phot ist mit der Einführung des SI-Einheitensystems durch das Lux ersetzt. Pferdestärke. Die Pferdestärke ist eine in Deutschland noch häufig anzutreffende, veraltete Einheit der Leistung. Als Einheitenzeichen wird PS verwendet. Die Bezeichnung "Pferdestärke" geht auf James Watt zurück, der damit eine anschauliche Maßeinheit für die Leistung von Dampfmaschinen erreichen wollte. Die Einheit Pferdestärke sollte angeben, wie viele Pferde eine Maschine ersetzen kann. An Stelle der Pferdestärke ist seit dem 1. Januar 1978 in der Bundesrepublik Deutschland die SI-Einheit Watt (nach James Watt) im geschäftlichen und amtlichen Verkehr zu verwenden. In der Deutschen Demokratischen Republik war das Watt bereits 1970 als Ersatz für PS eingeführt worden. Verwendung. Obwohl die Pferdestärke in Deutschland seit 1978 keine gesetzliche Einheit im Messwesen mehr ist, wird sie vor allem bei Verbrennungskraftmaschinen, speziell bei Kraftfahrzeugen, immer noch verwendet. Bis 2009 durfte in der Werbung PS nur zusätzlich zu Kilowatt (kW) angegeben werden. Seit der letzten Änderung der EWG, die am 1. Januar 2010 in Kraft getreten ist, ist die alleinige Aufführung von PS und allen anderen Nicht-SI-Einheiten in der gesamten EU im geschäftlichen und amtlichen Verkehr nicht mehr zulässig. Die SI-Einheit (hier Watt oder seine dezimalen Vielfachen) muss hier hervorgehoben werden. Im deutschen Recht wurde diese Vorgabe in der Einheitenverordnung umgesetzt. Geschichtliche Entwicklung. Historisch gesehen wurde als "Pferdestärke" die durchschnittliche nutzbare Dauerleistung eines Arbeitspferdes verstanden, etwa beim Antrieb einer Mühle. Im Zuge der Einführung der Dampfmaschinen hat es sich als vorteilhaft erwiesen, eine mit dem Pferdeantrieb vergleichbare Leistungseinheit einzuführen, damit die neuen Antriebe entsprechend ausgelegt werden konnten. In der Literatur finden sich unterschiedliche Angaben darüber, was Watt als Bezug für seine Einheit wählte. Weit verbreitet ist die Angabe, dass Watt die Leistung eines Grubenpferdes als Bezugsgröße wählte, da er seine Dampfkraftmaschinen an Bergwerksbetreiber vermieten wollte. Aus der Annahme, dass ein starkes Pferd doppelt so stark sei wie ein Grubenpony, schlussfolgerte er, dass ein starkes Pferd 550 Pfund über eine Strecke von einem Fuß in einer Sekunde ziehe, bzw. 33.000 Foot-pound pro Minute. Eine andere Version der Geschichte besagt, dass er die Pferde, die über Tage über Seile und Umlenkrollen Kohlesäcke aus den Gruben ziehen, als Grundlage heranzog. Ein Pferd würde im Schnitt in seiner zehnstündigen Schicht Kohlesäcke zu 330 Pfund mit einer Geschwindigkeit von 100 Fuß pro Minute heben, was ebenfalls 33.000 Foot-pounds pro Minute entspricht. Andere Quellen gehen davon aus, dass Watt seine Einheit anhand eines typischen Pferdegöpel ermittelte. In einem Durchmesser von 24 Fuß (entspricht 7,30 m) ziehe das Pferd 180 Pfund und schaffe 144 Umläufe pro Stunde oder ungefähr 2,4 pro Minute. Das Pferd lief somit mit einer Geschwindigkeit von 181 Fuß pro Minute (55 Meter pro Minute). Watt multiplizierte diese Strecke mit den 180 Pfund Kraft und kam auf 32.580 ft. × lbs./minute. Das wurde auf 33.000 ft. × lbs./minute aufgerundet. Die Leistung eines Pferdes kann je nach Rasse, Trainingszustand oder augenblicklicher Anstrengung erheblich abweichen: Ein Pferd etwa beim Galopp oder beim Springreiten kann kurzfristig deutlich mehr, nämlich über 20 PS leisten, während es im Tagesdurchschnitt etwa 1 PS leistet. 1 PS ist in DIN 66036 definiert als die Leistung, die erbracht werden muss, um einen Körper der Masse m = 75 kg entgegen dem Schwerefeld der Erde (bei Normfallbeschleunigung 9,80665 m/s²) mit einer Geschwindigkeit von 1 m/s zu bewegen. Ähnlich lautet bereits die Definition von James Watt. Umgerechnet entspricht das etwa der Leistung, die ein Zugpferd aufwenden muss, um mit Schrittgeschwindigkeit (5,4 km/h) einen Karren mit der Masse von 500 kg eine 10-prozentige Steigung hochzuziehen. Bei einem leichten Zugpferd von etwa 750 kg Masse kommen noch 1,5 PS dazu, die das Pferd für die Bewegung der eigenen Masse aufbringen muss. Zum Vergleich wird die Dauerleistung des erwachsenen, durchschnittlich großen Menschen mit 0,14 PS (100 Watt) benannt, wobei auch hier bei entsprechendem Training durchaus über eine Stunde 440 Watt und 6 Sekunden lang 910 Watt (entspricht etwa 1,2 PS) möglich sind. Hubraum-PS. Mit dem Reichsstempelgesetz vom 7. Juni 1906 wurde in § 53 festgelegt, dass Kraftfahrzeuge „zum Befahren öffentlicher Wege und Plätze nur in Gebrauch genommen werden [dürfen], wenn zuvor bei der zuständigen Behörde gegen Zahlung des Abgabebetrags eine Erlaubniskarte der im Tarife bezeichneten Art gelöst worden ist.“ Der zu entrichtende jährliche Abgabebetrag von 25 Mark bis 150 Mark, richtete sich in Deutschland nach der Motorstärke, für die der Hubraum in ein feststehendes Verhältnis zur Leistung gebracht wurde. Im Straßenverkehrsgesetz vom 3. Mai 1909 wurde in § 7 die Gefährdungshaftung für den Betrieb von Kraftfahrzeugen aufgenommen. Für die Inbetriebnahme des Kraftfahrzeugs bestand nun auch eine Versicherungspflicht, die durch ein Kennzeichen und das Mitführen der Erlaubniskarte nachgewiesen wurde. Dem technischen Fortschritt folgend, klafften bei modernen Konstruktionen die errechnete und die technisch wirksame Leistung weit auseinander. In der Fahrzeugwerbung wurden dann Doppel-Angaben üblich, beispielsweise der Mercedes 28/60 PS (von 1912 bis 1920) mit 7240 cm³ Hubraum, der mit 28 Hubraum- und 60 Leistungs-PS angeboten wurde. Der englische Motorenbau wurde insbesondere durch die Hervorhebung der Kolbenfläche für die angenommene Leistung maßgeblich beeinflusst. Motoren mit möglichst großem Hub und kleiner Bohrung waren geringer besteuert und damit bis in die 1930er Jahre bevorzugt. Steuer-PS. Das Kraftfahrzeugsteuergesetz vom 8. April 1922 legte für die Benutzung von Kraftfahrzeugen eine Steuerformel fest, die vom 1. Juli 1922 bis zum 31. März 1928 Gültigkeit hatte. In § 3 wurde die Höhe der Steuer festgestellt, beispielsweise für Motorräder bis 1,5 Pferdestärke 10 Reichsmark, über 4 PS waren 35 Reichsmark zu entrichten. Für Personenkraftwagen waren, je nach Steuer-PS, zwischen 20 und 80 Reichsmark zu entrichten. Die Steuer für Lastkraftwagen und Kraftomnibusse wurde nach deren Eigengewicht (über 500 bis über 4000 kg) berechnet; beispielsweise für Lkw über 4000 kg 100 ℛℳ, für Omnibusse über 4000 kg 200 ℛℳ. Der Steuertarif wurde am 4. Januar 1924 neu festgelegt. Für hubraumstarke Pkw wurde die Steuer nun deutlich angehoben, so für beispielsweise für 20 Steuer-PS 1000 ℛℳ und für 40 Steuer-PS 2600 ℛℳ. Mit Wirkung vom 1. April 1928 wurde im Deutschen Reich für Krafträder und Kraftwagen nur der Hubraum Grundlage der Besteuerung. Je 100 cm³ Hubraum wurden für Pkw 12 ℛℳ und für Motorräder 8 ℛℳ berechnet. Motorräder bis 200 cm³ Hubraum waren nun von der Steuer befreit. DIN-PS. Die Leistung von Kraftfahrzeugmotoren wurde gemäß DIN 70020 am Schwungrad gemessen und in PS (DIN-PS) angegeben. Nach DIN 70020 „Kraftfahrzeugbau; Allgemeine Begriffe; Festlegung und Erläuterung“ vom August 1954 wurde die Nutzleistung „an der Kupplung des in allen Teilen einschließlich der Ansaug- und Auspuffanlage reihenmäßigen Motors unter normalen Betriebsbedingungen“ gemessen und in PS angegeben. Als Dauerleistung wurde die größte Nutzleistung angegeben, die der Motor ohne Überschreitung der zulässigen Wärmebeanspruchung dauernd abgeben kann, als Kurzleistung diejenige, die der Motor mindestens 15 Minuten lang abgeben kann; danach muss er bei Dauerleistung einwandfrei weiterarbeiten können. Zu den normalen Betriebsbedingungen gehören reihenmäßige Einstellungen und handelsüblicher Kraftstoff; Lüfter, Wasserpumpe, Kühlluftgebläse, Kraftstoffpumpe, Einspritzpumpe und die unbelastete Lichtmaschine müssen bei der Prüfung vom Motor angetrieben werden. Die gemessene Leistung wird auf 760 Torr (= 1013 mbar) und 20 °C umgerechnet, die Luftfeuchtigkeit wird nicht berücksichtigt. Bei Nachprüfungen ist eine Abweichung von ± 5 % zulässig. Nutzleistungen sind stets in Verbindung mit der zugehörigen Drehzahl in 1/min anzugeben. Im Februar 1957 wurde diese Norm aufgeteilt, die Festlegungen zu Leistungen, Geschwindigkeiten und Beschleunigung kamen in den Teil 3. Die Messbedingungen der Nutzleistung blieben unverändert, die Dauerleistung wurde in „größte Nutzleistung“ umbenannt und muss im „thermischen Beharrungszustand“ erreicht werden, die Kurzleistung ist weggefallen. Im Dezember 1973 wurde der Abschnitt „Leistungen“ von DIN 70020-3 durch die Vornorm DIN 70020-4, Ausgabe Juni 1972 ersetzt, die als Bezugszustand 25 °C und 1000 mbar statt 20 °C und 1013 mbar = 760 Torr vorsieht. Diese neuen Bezugsbedingungen ergaben eine Verminderung der Nennleistung um 2 bis 4 %. Um diesen Wettbewerbsnachteil und Nachteile bei der Einhaltung einer in § 35 der StVZO geforderten Mindestmotorleistung zu vermeiden, kehrte das DIN im November 1976 mit Ausgabe der Norm DIN 70020-6 „Kraftfahrzeugbau; Leistungen“ zu den alten Bezugswerten zurück, empfohlen wurden darin die Einheiten kW oder PS für die Nutzleistung und min−1 für Drehzahlen. Diese Norm wurde im April 1997 zwecks internationaler Angleichung durch die DIN ISO 1585 „Straßenfahrzeuge - Verfahren zur Ermittlung der Nettoleistung von Motoren (ISO 1585:1992)“ ersetzt. Internationale Varianten. Die Leistungsangaben, speziell bei Fahrzeugmotoren, sind International nicht immer vergleichbar, da unterschiedliche Messverfahren vorgenommen wurden. So wurde in Deutschland die Leistung angegeben, die der Motor im eingebauten Zustand an das Getriebe abgab („DIN-PS“). In Italien wurde die „Cuna-PS“ (ohne Luftfilter und Schalldämpfer) verwendet, die damit um 5 bis 10 % höher lag als die DIN-Leistung. In den Vereinigten Staaten wurde beispielsweise die Einheit „SAE-PS“ verwendet. Nach dieser Norm wurde die Leistung des Motors ohne den Betrieb von Lüfter, Wasserpumpe, Lichtmaschine, Luftfilter und Schalldämpfer geprüft. Der Unterschied lässt sich nicht exakt angeben, jedoch wird eine Leistung zwischen 10 und 25 % über den DIN-PS ausgegangen. ECE PS. ECE R 24 ist eine weitere Norm, die der DIN 70020 sehr nahekommt. Die Messungen gelten jedoch nur für Dieselmotoren und variieren durch den Anschluss des Kühlerlüfters. Französische ch und CV. Die französische Maßeinheit "cheval-vapeur" (ch, pl. "chevaux-vapeur") entspricht im metrischen System genau der deutschen Pferdestärke. Die Einheit "ch" wird allerdings häufig mit der in Frankreich und Belgien verwendeten Kennzahl "cheval fiscal" (CV oder cv, pl. "chevaux fiscaux") verwechselt, die nicht die Motorleistung angibt, sondern zur Festlegung der Kraftfahrzeugsteuer dient, nach einer Formel, die in ihrer aktuellen Fassung Motorleistung und CO2-Emission berücksichtigt. Der Begriff "cheval-vapeur" bezeichnet im Französischen außerdem auch Maßeinheiten für Elektrizität und für Heizleistung. Italienische Cuna-PS. Die italienische Cuna-PS wurde vor der Einführung von kW in Italien verwendet und basiert auf kg und m (somit metrisch). Bei Ermittlung von Motorleistung nach der Cuna-Norm wird die Leistung des Motors ohne Luftfilter und Schalldämpfer angegeben. Nominal Horse Power. Die Nominal Horse Power ("nhp" für nominal horsepower) war eine ehemalige Berechnungsformel aus dem frühen 19. Jahrhundert zur Bestimmung der Leistung von Dampfmaschinen in PS. Grundlage der verschiedenen Berechnungsformeln war der Durchmesser der Arbeitszylinder und die mittlere Kolbengeschwindigkeit. Für Raddampfer wurde eine Kolbengeschwindigkeit von 129,7 × (Kolbenhub)1/3,35 angenommen. Damit die nominalen Pferdestärken der tatsächlichen Leistung entsprechen, war es notwendig, für den mittleren Zylinder-Dampfdruck 48 kPa (7 psi) und die mittlere Kolbengeschwindigkeit zwischen 54 und 75 m/min zu veranschlagen. Brutto SAE. Bis 1972 wurden "SAE gross horsepower" („brutto SAE-PS“) nach den Standards J245 und J1995 der Society of Automotive Engineers angegeben, die auf dem Motorenprüfstand ohne den Betrieb von Lüfter, Wasserpumpe, Lichtmaschine, Luftfilter und Schalldämpfer gemessen wurden. Aufgrund dieser praxisfernen Methode, die mit bis zu 25 % über den europäischen PS-Werten lag, konnte durch die reinen Zahlenwerte die Motorleistung überhöht dargestellt werden. Netto SAE. Seit 1972 gelten in den USA die "SAE net horsepower" („netto SAE-PS“) nach den Richtlinien SAE J1349 und SAE J2723, die eine Ähnlichkeit mit den DIN-PS aufweisen. Die Zahlenwerte der "SAE gross" sanken dabei deutlich, beispielsweise beim Chrysler 426 Hemi von 1971 von "425 hp gross" auf "350 hp net". In der SAE J2723 ist die Methode beschrieben, wie die Leistung des Verbrennungsmotors ermittelt werden soll und wie die Nebenaggregate beziehungsweise welche Nebenaggregate betrieben werden müssen. Die SAE J1349 gibt die Berechnungsgleichungen vor, wie die am Prüfstand ermittelte Motorleistung auf eine nach SAE standardisierte Bezugsbedingung umgerechnet werden muss. Die Bezugszustände der europäischen Richtlinie und der SAE-Richtlinie unterscheiden sich nicht. Der SAE-Korrekturfaktor beinhaltet allerdings einen Wirkungsgrad-Korrekturwert, so dass sich geringfügige Unterschiede der Leistungswerte ergeben. In Europa wird zur Korrektur der Motorleistung von PKW die EU-Richtlinie 80/1269 vom 16. Dezember 1980 angewendet, die entsprechende Richtlinie für Motorräder ist die 95/1/EG vom 2. Februar 1995. SHP und ESHP . "SHP" oder "shp" (manchmal auch "S.H.P.") steht für ' ("WPS (Wellen-PS)" oder "PSe (PS effektiv)"). Damit wird die Leistung an der Ausgangswelle einer Kraftmaschine beschrieben. Diese Einheit findet vor allem in der Luft- (etwa bei der Hauptrotorwelle eines Hubschraubers) und Seefahrt Anwendung. "ESHP" steht für '. Hierbei wird bei Turboproptriebwerken der Restschub quantifiziert und zur eigentlichen Wellenleistung addiert. PSi. PSi wird gelegentlich, jedoch nicht DIN-Norm-gerecht, benutzt, um bei einem Größenwert darauf hinzuweisen, dass als Leistung eine indizierte (das heißt indirekt ermittelte) Leistung eines Verdichters oder einer Kolbenmaschine – vor allem Dampfmaschine oder Dampflokomotive – angegeben ist. PSw oder WPS . PSw oder WPS wird gelegentlich, jedoch nicht DIN-Norm-gerecht, benutzt, um bei einem Größenwert darauf hinzuweisen, dass als Leistung eine Wellenleistung, speziell bei Turbinen, gemeint ist. PSe. PSe oder EPS wird gelegentlich, jedoch nicht DIN-Norm-gerecht, benutzt, um bei einem Größenwert darauf hinzuweisen, dass als Leistung die am Ende der Welle gemessene effektive Leistung eines Motors gemeint ist. Pennyweight. Pennyweight ist eine nicht SI-konforme Maßeinheit der Masse. Sie stammt aus dem angloamerikanischen Maßsystem (Troy- oder Apothecaries' Weight), das Einheitenzeichen ist dwt. 1 dwt. = 24 gr. = 1,55517384 Gramm 1 troy pound = 12 oz.tr. = 240 dwt. = 5760 gr. = 373,2417216 Gramm 1 Pound Sterling = 12 Shilling = 240 Pence Ursprünglich wurden aus einem Pfund Silber 240 Penny-Münzen geprägt. Die Ein-Penny-Münze wog deshalb genau ein Pennyweight. Die Abkürzung dwt ergab sich aus der Tatsache, dass die Abkürzung für Penny ein "d" war. Pound-force per square inch. Pound-force per square inch, oder pound per square inch („Pfund pro Quadratzoll“), ist eine in den USA gebräuchliche Maßeinheit des Drucks. Es handelt sich um eine alte Einheit, die nicht zum internationalen Einheitensystem (SI) gehört. Sie kommt in den USA bei Druckangaben im Alltag zum Einsatz. Ein Beispiel ist der maximal zulässige Reifendruck. In der Wissenschaft wird meist die SI-Einheit Pascal verwendet. Pound-force per square inch ist definiert als der Druck, den die Gewichtskraft einer Masse von einem angloamerikanischen Pfund (lb) bei Normfallbeschleunigung auf eine Fläche von einem Quadratzoll ausübt. Das Einheitenzeichen ist lb.p.sq.in. oder psi. Dies steht abkürzend für „Pound-force per Square Inch“. 1 lb.p.sq.in. = 1 psi = 144 lb.p.sq.ft = 1/2000 tn.sh.p.sq.in = 1/2240 tn.p.sq.in formula_7 formula_8 formula_9 Häufig wird die Einheit noch präziser mit psia (pounds-force per square inch absolute) für den Absolutdruck oder psig (pounds-force per square inch gauge) für den relativen Druck (Überdruck) benannt. Bei größeren Drücken oder Spannungen wird in manchen Fällen die Einheit ksi (1 ksi = 1000 psi) verwendet. Peck (Maßeinheit). Peck (im deutschen früher auch Beck geschrieben) ist eine Maßeinheit des Raums (Trockenmaß). Die Einheitenzeichen sind: Imp.pk. ("Imperial"), US.pk. Britisches Peck. 1 Imp.pk. = 2 Imp.gal. = 8 Imp.qt = 16 Imp.pt. = 32 cup = 64 Imp.gi. = 320 Imp.fl.oz. = 153600 Imp.min. ≈ 554,8389 cubic inch ≈ 9,09218 Liter 1 Imp.bushel = 4 Imp.pk. = 8 Imp.gal. = 32 Imp.qt = 64 Imp.pt = 128 cup = 256 Imp.gi. = 1280 Imp.fl.oz. = 614400 Imp.min. Das ältere englische Volumenmaß Peck, auch Pitany, entsprach einem Viertel oder der Metze. Das Maß war nur für trockene Waren zugelassen, wie Getreide, Salz, Steinkohle, Fische und ähnliche Dinge. Als Steinkohlenmaß auf der Themse rechnete man 5 Peck auf ein Bushel, also knapp 45 Liter. US-amerikanisches Peck. 1 US.pk. = 16 US.dry.pt. = 537,605 cubic inch = 8,80977 Liter 1 US.bushel = 4 US.pk. = 8 US.dry.gal. = 32 US.dry.qt = 64 US.dry.pt Pinte. Die Pinte (bzw. das Pint, vergleiche) ist ein altes Raummaß sowohl für Flüssigkeiten als auch – besonders im angelsächsischen Raum – für Trockenmaße. Ein Pint in den USA entspricht dabei etwa 0,4732 Litern, ein Pint in Großbritannien etwa 0,5683 Litern. Sie entspricht in den alten Maßsystemen zumeist – wie zum Beispiel hergebrachterweise in Frankreich und Kanada – zwei Schoppen. Einheitenzeichen (inoffiziell): Imp. pt., US dry pt., US liq. pt. Eine halbe Pinte nannte man chopine, die ¼ Pinte war demi-fetier und 1/5 posson. Die 1/10 Pinte war demi posson. Verwendung. Getränke durften lange Zeit in Deutschland nur in Litern (l, ml, cl, in der Schweiz auch dl) verkauft werden. Seit Anfang der 2000er Jahre erlaubt die EU-Gesetzgebung auch den Ausschank in Gläsern mit anderen Größeneinheiten. In Australien wird seit der Umstellung auf das metrische System die „Halbe“ (halber Liter) als "(metric) pint" bezeichnet, wie seit Anfang der 2000er Jahre auch im französischen Gaststättengewerbe. Umgangssprachlich wird das Wort „Pinte“ im Deutschen oft als Synonym zum Begriff Kneipe gebraucht. In Flandern heißt "pint" ein Pils, ausgeschenkt in 250-ml-Gläsern. In Köln entwickelte sich abgeleitet das Pintchen als Maßeinheit für alkoholische Getränke. Bis in die Gegenwart wird u. a. in England, Schottland, Wales und Irland Bier in Pubs (halb-)pintweise ausgeschenkt. Das Standardvolumen von elektrischen Wasserkochern, die zuerst und besonders in Großbritannien beliebt wurden, beträgt nominell 1,7 Liter, aber eigentlich 3 Pint. Parts per billion. Der englische Ausdruck (ppb, zu Deutsch „Teile pro Milliarde“) steht für die Zahl 10−9 (also ein Milliardstel) und wird manchmal im Zusammenhang mit relativen Mengenangaben benutzt, also für die Angabe derjenigen Gehaltsgrößen, die Anteile sind. Grundlagen. Weil ' im englischen und amerikanischen Sprachgebrauch nicht dasselbe bezeichnen wie z.B. in Kontinentaleuropa, empfahl jedoch die IEC 1978, ppm, ppb usw. nicht zu verwenden. Dieser Auffassung hat sich die internationale ISO-Normung angeschlossen. Verwendung. Der Ausdruck ppb wird in der Mikroelektronik, beispielsweise bei der Angabe einer Dotierungs- oder Verunreinigungskonzentration, bei der Charakterisierung der Ungenauigkeit von Zeitnormalen, sowie in der chemischen und umwelttechnischen Konzentrations- und Spurenanalytik häufig verwendet. Kreiszahl. Ein Kreis mit einem Durchmesser von 1 hat einen Umfang von formula_1 Die Kreiszahl formula_2 (Pi) ist eine mathematische Konstante, die als Verhältnis des Umfangs eines Kreises zu seinem Durchmesser definiert ist. Dieses Verhältnis ist unabhängig von der Größe des Kreises. formula_2 ist eine irrationale und transzendente Zahl und kommt in zahlreichen Teilgebieten der Mathematik, auch außerhalb der Geometrie, vor. Die Dezimalbruchentwicklung der Kreiszahl beginnt mit Die Kreiszahl und manche ihrer Eigenschaften waren bereits in der Antike bekannt, die Bezeichnung mit dem griechischen Buchstaben Pi (nach dem Anfangsbuchstaben des griechischen Wortes – "peripheria", „Randbereich“ bzw. – "perimetros", „Umfang“) wurde im 18. Jahrhundert durch Leonhard Euler populär, nachdem sie bereits vorher unter anderem von William Oughtred ("Theorematum in libris Archimedis de Sphaera et Cylindro Declaratio", 1647) und William Jones ("Synopsis palmariorum matheseos", 1706) verwendet worden war. Mathematische Grunddaten. Kreis mit eingezeichnetem Mittelpunkt (M), Radius (r) und Durchmesser (d) Definition. Es existieren mehrere gleichwertige Definitionen für die Kreiszahl formula_2. Gebräuchlich ist etwa die Festlegung als In der Analysis ist es zweckmäßiger, zunächst den Kosinus über seine Taylorreihe zu definieren und dann die Kreiszahl als das Doppelte der kleinsten positiven Nullstelle des Kosinus (nach Edmund Landau) festzulegen. Irrationalität und Transzendenz. Die Zahl formula_2 ist eine irrationale Zahl, also eine reelle, aber keine rationale Zahl. Das bedeutet, dass sie nicht als Verhältnis zweier ganzer Zahlen also nicht als Bruch formula_9 dargestellt werden kann. Das wurde 1761 (oder 1767) von Johann Heinrich Lambert bewiesen. Tatsächlich ist die Zahl formula_2 sogar transzendent, was bedeutet, dass es kein Polynom mit rationalen Koeffizienten gibt, das formula_2 als eine Nullstelle hat. Das wurde erstmals von Ferdinand von Lindemann 1882 bewiesen. Als Konsequenz ergibt sich daraus, dass es unmöglich ist, formula_2 nur mit ganzen Zahlen oder Brüchen und Wurzeln auszudrücken, und dass die exakte Quadratur des Kreises mit Zirkel und Lineal nicht möglich ist. Die ersten 100 Nachkommastellen. Da formula_2 eine irrationale Zahl ist, lässt sich ihre Darstellung in keinem Stellenwertsystem vollständig angeben: Die Darstellung ist stets unendlich lang und nicht periodisch. Bei den ersten 100 Nachkommastellen in der Dezimalbruchentwicklung ist keine Regelmäßigkeit ersichtlich. Auch weitere Nachkommastellen genügen statistischen Tests auf Zufälligkeit. Siehe auch den Abschnitt zur Frage der Normalität. Kettenbruchentwicklung. Eine alternative Möglichkeit, reelle Zahlen darzustellen, ist die Kettenbruchentwicklung. Da formula_2 irrational ist, ist auch diese Darstellung unendlich lang. Im Gegensatz zur Eulerschen Zahl "e" konnten aber bislang bei der (regulären) Kettenbruchdarstellung von formula_2 keinerlei Regelmäßigkeiten festgestellt werden. formula_2 = [3; 7, 15, 1, 292, 1, 1, 1, 2, 1, 3, 1, 14, 2, 1, 1, 2, 2, 2, 2, 1, 84, 2, 1, 1, 15, 3, 13, 1, 4, 2, 6, 6, 99, 1, 2, 2, 6, 3, 5, 1, 1, 6, 8, 1, 7, 1, 2, 3, 7, 1, 2, 1, 1, 12, 1, 1, 1, 3, 1, 1, 8, 1, 1, 2, 1, 6, 1, 1, 5, 2, 2, 3, 1, 2, 4, 4, 16, 1, 161, 45, 1, 22, 1, 2, 2, 1, 4, 1, 2, 24, 1, 2, 1, 3, 1, 2, 1, 1, 10, 2, 5, 4, 1, 2, 2, 8, 1, 5, 2, 2, 26, 1, 4, 1, 1, 8, 2, 42, 2, 1, 7, 3, 3, 1, 1, 7, 2, 4, 9, 7, 2, 3, 1, 57, 1, 18, 1, 9, 19, 1, 2, 18, 1, 3, 7, 30, 1, 1, 1, 3, 3, 3, 1, 2, 8, 1, 1, 2, 1, 15, 1, 2, 13, 1, 2, 1, 4, 1, 12, 1, 1, 3, 3, 28, 1, 10, 3, 2, 20, 1, 1, 1, 1, 4, 1, 1, 1, 5, 3, 2, 1, 6, 1, 4, …] Eine weitere Kettenbruchdarstellung von formula_2 ist Sphärische Geometrie. In der Kugelgeometrie ist der Begriff Kreiszahl nicht gebräuchlich, da das Verhältnis von Umfang zu Durchmesser in diesem Fall nicht mehr für alle Kreise gleich, sondern von deren Größe abhängig ist. Für Kreise mit einem sehr viel kleineren Durchmesser als dem der Kugel, auf deren Oberfläche er „gezeichnet“ wird (etwa ein Kreis mit 1 m Durchmesser auf der kugeligen Erdoberfläche), ist der Abstand des Mittelpunktes zur (euklidischen) Kreisebene sehr klein und damit der Unterschied zur normalen euklidischen Geometrie vernachlässigbar, ansonsten muss die Abweichung jedoch berücksichtigt werden. Bezeichnung. Die Kreiszahl formula_2 wird auch "Archimedes-Konstante" und nach Ludolph van Ceulen "Ludolphsche Zahl" genannt. Der englische Mathematiker William Jones verwendete in seiner "Synopsis Palmariorum Matheseos" (1706) als Erster den griechischen Kleinbuchstaben um das Verhältnis von Umfang zu Durchmesser auszudrücken. Bereits einige Zeit früher verwendete der englische Mathematiker William Oughtred in seiner erstmals 1647 veröffentlichten Schrift "Theorematum in libris Archimedis de Sphæra & Cylyndro Declaratio" die Bezeichnung um das Verhältnis von halbem Kreisumfang "(semiperipheria)" zu Halbmesser "(semidiameter)" auszudrücken, d. h. formula_35 Dieselben Bezeichnungen verwendete um 1664 auch der englische Mathematiker Isaac Barrow. David Gregory verwendete formula_36 (1697) für das Verhältnis von Umfang zu Radius. Leonhard Euler verwendete erstmals 1737 den griechischen Kleinbuchstaben formula_2 für die Kreiszahl, nachdem er zuvor "p" verwendet hatte. Seitdem ist aufgrund der Bedeutung Eulers diese Bezeichnung allgemein üblich. Geschichte der Berechnung. Schon vor den Griechen suchten Menschen nach dieser geheimnisvollen Zahl, und obwohl die Schätzungen immer genauer wurden, gelang es erstmals dem griechischen Mathematiker Archimedes um 250 v. Chr., die Zahl mathematisch einzugrenzen. In der weiteren Geschichte wurden die Versuche zur größtmöglichen Annäherung an formula_2 phasenweise zu einer regelrechten Rekordjagd, die zuweilen skurrile und auch aufopfernde Züge annahm. Erste Schätzungen. Aus praktischen Erwägungen heraus versuchten die Menschen schon in sehr früher Zeit, dem Phänomen Kreis näherzukommen. So ist das Verhältnis vom Umfang zum Durchmesser eines Kreises beispielsweise wichtig für die Berechnung der Länge des Beschlages eines Rades, der Fläche eines runden Feldes oder des Rauminhalts eines zylindrischen Getreidespeichers. Den Wert 3 nutzte man auch im alten China. In Indien nahm man für die Kreiszahl in den Sulbasutras, den Schnurregeln zur Konstruktion von Altären, den Wert formula_42 und wenige Jahrhunderte v. Chr. in der Astronomie den Näherungswert formula_43 Der indische Mathematiker und Astronom Aryabhata gibt 498 n. Chr. das Verhältnis des Kreisumfangs zum Durchmesser mit formula_44 an. Archimedes von Syrakus. a> entspricht der Fläche des rechtwinkligen Dreiecks. Archimedes von Syrakus bewies, dass der Umfang eines Kreises sich zu seinem Durchmesser genauso verhält wie die Fläche des Kreises zum Quadrat des Radius. Das jeweilige Verhältnis ergibt also in beiden Fällen die Kreiszahl. Für Archimedes und noch für viele Mathematiker nach ihm war unklar, ob die Berechnung von formula_2 nicht doch irgendwann zum Abschluss käme, ob formula_2 also eine rationale Zahl sei, was die jahrhundertelange Jagd auf die Zahl verständlich werden lässt. Zwar war den griechischen Philosophen mit der Irrationalität von formula_47 die Existenz derartiger Zahlen bekannt, dennoch hatte Archimedes keinen Grund, bei einem Kreis von vornherein eine rationale Darstellbarkeit der Flächenberechnung auszuschließen. Denn es gibt durchaus allseitig krummlinig begrenzte Flächen, die sogar von Kreisteilen eingeschlossen sind, die sich als rationale Zahl darstellen lassen wie die "Möndchen des Hippokrates". Erst 1761/1767 konnte Johann Heinrich Lambert die lange vermutete Irrationalität von formula_2 beweisen. Annäherung durch Vielecke. Archimedes versuchte wie auch andere Forscher, sich mit regelmäßigen Vielecken dem Kreis anzunähern und auf diese Weise Näherungen für formula_2 zu gewinnen. Mit umbeschriebenen und einbeschriebenen Vielecken, beginnend bei Sechsecken, durch wiederholtes Verdoppeln der Eckenzahl bis zu 96-Ecken, berechnete er obere und untere Schranken für den Kreisumfang. Er kam zu der Abschätzung, dass das gesuchte Verhältnis etwas kleiner als formula_50 sein müsse, jedoch größer als Genauer und genauer – 3. bis 18. Jahrhundert. Wie in manchen anderen gesellschaftlichen und kulturellen Bereichen gab es auch in der Mathematik in den westlichen Kulturen eine sehr lange Zeit des Stillstandes nach Ende der Antike und während des Mittelalters. Fortschritte in der Annäherung an formula_2 erzielten in dieser Zeit vor allem chinesische und persische Wissenschaftler. Im dritten Jahrhundert bestimmte Liu Hui aus dem 192-Eck die Schranken 3,141024 und 3,142704, später aus dem 3072-Eck den Näherungswert 3,14159. Um 480 berechnete der chinesische Mathematiker und Astronom Zu Chongzhi (430–501) für die Kreiszahl also die ersten 7 Dezimalstellen. Er kannte auch den fast genauso guten Näherungsbruch formula_57 (das ist der dritte Näherungsbruch der Kettenbruchentwicklung von der in Europa erst im 16. Jahrhundert gefunden wurde. In seinem 1424 abgeschlossenen Werk "Abhandlung über den Kreis" berechnete der persische Wissenschaftler Dschamschid Masʿud al-Kaschi mit einem 3×228-Eck formula_59 bereits auf 16 Stellen genau. Im 16. Jahrhundert erwachte dann auch in Europa die Mathematik wieder aus ihrem langen Schlaf. 1596 gelang es Ludolph van Ceulen, die ersten 35 Dezimalstellen von formula_2 zu berechnen. Angeblich opferte er 30 Jahre seines Lebens für diese Berechnung. Van Ceulen steuerte allerdings noch keine neuen Gedanken zur Berechnung bei. Er rechnete einfach nach der Methode des Archimedes weiter, aber während Archimedes beim 96-Eck aufhörte, setzte Ludolph die Rechnungen bis zum einbeschriebenen fort. Der Name "ludolphsche Zahl" erinnert an seine Leistung. Der französische Mathematiker François Viète variierte 1593 die Archimedische Exhaustionsmethode, indem er den Flächeninhalt eines Kreises durch eine Folge einbeschriebener annäherte. Daraus leitete er als Erster eine Siehe auch "Kreiszahlberechnung nach Leibniz". Sie war Grundlage vieler Approximationen von formula_2 in der folgenden Zeit. John Machin berechnete mit seiner Formel von 1706 die ersten 100 Stellen von Seine Gleichung lässt sich zusammen mit der taylorschen Reihenentwicklung der Arcustangensfunktion für schnelle Berechnungen verwenden. Diese Formel lässt sich im Reellen über das Additionstheorem des Arkustangens gewinnen, einfacher geht es durch Betrachtung des Argumentes der komplexen Zahl a> (Pastell von Emanuel Handmann, 1753) Johann Heinrich Lambert publizierte 1770 einen Kettenbruch, der heute meist in der Form geschrieben wird. Pro Schritt ergeben sich im Mittel etwa 0,76555 Dezimalstellen, was im Vergleich mit anderen Kettenbrüchen relativ hoch ist, sodass sich dieser Kettenbruch besonders gut zur Berechnung von formula_2 eignet. Die handwerkliche Praxis gestern und heute. Handwerker benutzten in Zeiten vor Rechenschieber und Taschenrechner die Näherung formula_82 und berechneten damit vieles im Kopf. Der Fehler gegenüber formula_2 beträgt etwa 0,04 %. Für alltägliche praktische Situationen war das völlig ausreichend. Solche effizienteren Verfahren, deren Implementation allerdings Langzahlarithmetik benötigt, sind Iterationsverfahren mit quadratischer oder noch höherer Konvergenz. BBP-Reihen. Diese Reihe (auch Bailey-Borwein-Plouffe-Formel genannt) ermöglicht es, die Stelle einer binären, hexadezimalen oder beliebigen Darstellung zu einer Zweierpotenz-Basis von formula_2 zu berechnen, ohne dass zuvor die formula_94 vorherigen Ziffernstellen berechnet werden müssen. Tröpfelalgorithmus. Eng verwandt mit den Verfahren zur Ziffernextraktion sind Tröpfelalgorithmen, bei denen die Ziffern eine nach der anderen berechnet werden. Den ersten solchen Algorithmus zur Berechnung von formula_2 fand Stanley Rabinowitz. Seitdem sind weitere Tröpfelalgorithmen zur Berechnung von formula_2 gefunden worden. Berechnung mittels Flächenformel. In ein Quadrat einbeschriebener Kreis für die Berechnung mittels Flächenformel Diese Berechnung nutzt den Zusammenhang aus, dass formula_2 in der Flächenformel des Kreises enthalten ist, dagegen nicht in der Flächenformel des umschreibenden Quadrats. Die Formel für den Flächeninhalt des Kreises mit Radius formula_100 lautet der Flächeninhalt des Quadrates mit Seitenlänge formula_102 errechnet sich als Für das Verhältnis der Flächeninhalte eines Kreises und seines umschreibenden Quadrats ergibt sich also Programm. Als Beispiel ist ein Algorithmus angegeben, in dem die Flächenformel demonstriert wird, mit der formula_2 näherungsweise berechnet werden kann. Viertelkreis, mit Flächenraster 10×10 angenähert Man legt dazu über das Quadrat ein Gitter und berechnet für jeden einzelnen Gitterpunkt, ob er auch im Kreis liegt. Das Verhältnis der Gitterpunkte innerhalb des Kreises zu den Gitterpunkten innerhalb des Quadrats wird mit 4 multipliziert. Die Genauigkeit der damit gewonnenen Näherung von formula_2 hängt von der Gitterweite ab und wird mittels formula_100 kontrolliert. Mit formula_110 erhält man z. B. 3,16 und mit formula_111 bereits 3,1428. Für das Ergebnis 3,14159 ist allerdings schon formula_112 zu setzen, was sich durch den zweidimensionalen Lösungsansatz auf die Zahl der notwendigen Rechenvorgänge in quadratischer Form niederschlägt. codice_1 "Anmerkung: Das obige Programm ist nicht für die schnellstmögliche Ausführung auf einem realen Computersystem optimiert, sondern aus Gründen der Verständlichkeit so klar wie möglich formuliert worden. Weiterhin ist die Kreisfläche insofern unpräzise bestimmt, als nicht die Koordinaten der Mitte für die jeweiligen Flächeneinheiten benutzt werden, sondern der Flächenrand. Durch die Betrachtung eines Vollkreises, dessen Fläche für die erste und letzte Zeile gegen Null geht, ist die Abweichung für großes formula_100 marginal." Die Konstante Pi ist für den Alltagsgebrauch in Computerprogrammen typischerweise bereits vorberechnet vorhanden, üblicherweise ist der zugehörige Wert dabei mit etwas mehr Stellen angegeben, als ihn die leistungsfähigsten Datentypen dieser Computersprache aufnehmen können. Statistische Bestimmung. Viertelkreis, dessen Fläche durch die Monte-Carlo-Methode angenähert wird Eine sehr interessante Methode zur Bestimmung von formula_2 ist die statistische Methode. Für die Berechnung lässt man zufällige Punkte auf ein Quadrat „regnen“ und berechnet, ob sie innerhalb oder außerhalb eines einbeschriebenen Kreises liegen. Der Anteil der innen liegenden Punkte ist gleich formula_115 Diese Methode ist ein Monte-Carlo-Algorithmus; die Genauigkeit der nach einer festen Schrittzahl erreichten Näherung von formula_2 lässt sich daher nur mit einer gewissen Irrtumswahrscheinlichkeit angeben. Durch das Gesetz der großen Zahlen steigt jedoch "im Mittel" die Genauigkeit mit der Schrittzahl. public static double approximiere_pi(int tropfenzahl) Buffonsches Nadelproblem. Eine weitere auf Wahrscheinlichkeiten beruhende und ungewöhnliche Methode ist das Buffonsche Nadelproblem von Georges-Louis Leclerc de Buffon (1733 vorgetragen, 1777 veröffentlicht). Buffon warf Stöcke über die Schulter auf einen gekachelten Fußboden. Anschließend zählte er, wie oft sie die Fugen trafen. Eine praktikablere Variante beschrieb Jakow Perelman im Buch "Unterhaltsame Geometrie". Man nehme eine ca. 2 cm lange Nadel – oder einen anderen Metallstift mit ähnlicher Länge und Durchmesser, am besten ohne Spitze – und zeichne auf ein Blatt Papier eine Reihe dünner paralleler Striche, die um die doppelte Länge der Nadel voneinander entfernt sind. Dann lässt man die Nadel sehr häufig (mehrere hundert- oder tausendmal) aus einer gewissen Höhe auf das Blatt fallen und notiert, ob die Nadel eine Linie schneidet oder nicht. Es kommt nicht darauf an, wie man das Berühren eines Striches durch ein Nadelende zählt. Die Division der Gesamtzahl formula_117 der Nadelwürfe durch die Zahl formula_118 der Fälle, in denen die Nadel eine Linie geschnitten hat, ergibt wobei formula_120 die Länge der Nadeln und formula_121 den Abstand der Linien auf dem Papier bezeichnet. Daraus ergibt sich leicht eine Näherung für Die Nadel kann dabei auch gebogen oder mehrfach geknickt sein, wobei in diesem Fall auch mehr als ein Schnittpunkt pro Wurf möglich ist und entsprechend mehrfach gezählt werden muss. In der Mitte des 19. Jahrhunderts kam der Schweizer Astronom Rudolf Wolf durch 5000 Nadelwürfe auf einen Wert von formula_123 Geometrische Näherungskonstruktion. Zur geometrischen Konstruktion der Zahl formula_2 gibt es die Näherungskonstruktion von Kochański, mit der man einen Näherungswert der Kreiszahl mit einem Fehler von weniger als 0,002 Prozent bestimmen kann. Es handelt sich also um eine Näherungskonstruktion für die (exakt nicht mögliche) Quadratur des Kreises. Formeln der Geometrie. In der Geometrie treten die Eigenschaften von formula_2 als Kreiszahl unmittelbar hervor. Formeln der Analysis. Im Bereich der Analysis spielt formula_2 ebenfalls in vielen Zusammenhängen eine Rolle, zum Beispiel bei Formeln der Funktionentheorie. Wie für alle Teilgebiete der Analysis ist auch für die Funktionentheorie (und darüber hinaus für die gesamte komplexe Analysis) die Kreiszahl von grundlegender Bedeutung. Als herausragende Beispiele sind hier Darüber hinaus wird die Bedeutung der Kreiszahl ebenfalls augenfällig in den Formeln zur Partialbruchzerlegung der komplexwertigen trigonometrischen Funktionen, die im Zusammenhang mit dem Satz von Mittag-Leffler stehen. Hier sind vor allem zu erwähnen sowie die daraus – neben weiteren! – zu gewinnenden Die obige Partialbruchreihe zum Sinus liefert dann durch Einsetzen von formula_155 die bekannte Reihendarstellung die ihrerseits direkt zu der eulerschen Reihendarstellung Neben diesen von den Partialbruchreihen herrührenden π-Formeln kennt die Funktionentheorie noch eine große Anzahl weiterer, die statt der Darstellung mit unendlichen Reihen eine Darstellung mittels unendlicher Produkte aufweisen. Viele von ihnen gehen auf das Werk von Leonhard Euler zurück (s. u.). Formeln der Physik. In der Physik spielt formula_2 neben vor allem bei Wellen eine Rolle, da dort formula_2 über die Sinus- und Kosinusfunktion eingeht; somit also zum Beispiel Offene Frage der Normalität. Eine zurzeit besonders aktuelle mathematische Frage bezüglich formula_2 ist, ob sie eine normale Zahl ist, d. h. ob sie zum Beispiel in einer binären (oder jeder anderen n-ären) Zahlendarstellung jede mögliche endliche Binär- bzw. sonstige Zifferngruppe gleichermaßen enthält – so wie es die Statistik erwarten ließe, wenn man eine Zahl vollkommen nach dem Zufall erzeugte. In letzter Konsequenz würde das beispielsweise bedeuten, dass formula_2 alle bisher und zukünftig geschriebenen Bücher irgendwo in codierter Binär-Form enthalten muss (analog zum Infinite-Monkey-Theorem). Bailey und Crandal zeigten im Jahr 2000 mit der oben erwähnten Bailey-Borwein-Plouffe-Formel, dass die Normalität von formula_2 zur Basis 2 auf eine Vermutung der Chaostheorie reduziert werden kann. Physiker der Purdue Universität haben im Jahre 2005 die ersten 100 Millionen Dezimalstellen von formula_2 auf ihre Zufälligkeit hin untersucht und mit kommerziellen Zufallszahlengeneratoren verglichen. Der Forscher Ephraim Fischbach und sein Mitarbeiter Shu-Ju Tu konnten dabei keinerlei verborgene Muster in der Zahl formula_2 entdecken. Demnach sei nach Ansicht Fischbachs die Zahl formula_2 tatsächlich eine gute Quelle für Zufälligkeit. Allerdings schnitten einige Zufallszahlengeneratoren noch besser als formula_2 ab. Bislang ist nicht einmal bekannt, ob nicht ab einer gewissen Stelle beispielsweise nur noch die Ziffern 5 und 6 auftreten. Film, Musik, Kultur und Literatur. a>. Die Zahl steht in der Mitte der Spiegelwand. Pi-Sport. Aus dem Lernen von Pi ist ein Sport geworden. Das Memorieren der Zahl Pi gilt als beste Möglichkeit, das Merken langer Zahlen unter Beweis zu stellen. Der Chinese Chao Lu ist offizieller Weltrekordhalter mit bestätigten 67.890 Nachkommastellen, die er am 20. November 2005 fehlerfrei in einer Zeit von 24 Stunden und 4 Minuten aufsagte. Er wird sowohl vom Guinness Book of Records als auch von der "Pi World Ranking List" als Rekordhalter geführt. Der inoffizielle Weltrekord im Memorieren von Pi lag im Oktober 2006 bei 100.000 Stellen, aufgestellt von Akira Haraguchi. Der Japaner brach damit seinen ebenfalls noch inoffiziellen alten Rekord von 83.431 Nachkommastellen. Den deutschen Rekord hält Jan Harms mit 9.140 Stellen. Für das Memorieren von Pi werden spezielle Mnemotechniken angewandt. Die Technik unterscheidet sich dabei nach den Vorlieben und Begabungen des Gedächtniskünstlers sowie der Menge der zu memorierenden Nachkommastellen. Für das Merken der ersten Ziffern von Pi gibt es einfache Merksysteme, dazu Pi-Sport-Merkregeln. Entwicklung der Nachkommastellen von π. Den Rekord der Berechnung von formula_2 hielt 2010 einige Monate lang der in Paris lebende Softwareentwickler Fabrice Bellard mit 2.699.999.990.000 (rund 2,7 Billionen) Stellen. Für die Berechnung benutzte Bellard einen handelsüblichen PC mit Intel Core i7-CPU. Die Berechnung dauerte insgesamt 131 Tage: 103 Tage für die Binärdarstellung, 13 Tage für eine Plausibilitätsprüfung, 12 Tage für die Umrechnung in die Dezimalform und drei weitere Tage zum Verifizieren, damit man mit sehr hoher Wahrscheinlichkeit von einem korrekten Ergebnis ausgehen kann. Alternative Kreiszahl τ. Der amerikanische Mathematiker Robert Palais schlug 2001 in einer Ausgabe des Mathematik-Magazins „The Mathematical Intelligencer“ vor, für statt wie bisher den Quotienten aus Umfang und "Durchmesser" eines Kreises, in Zukunft den Quotienten aus Umfang und "Radius" (entsprechend als grundlegende Konstante zu verwenden. Seine Argumentation beruht darauf, dass in vielen mathematischen Formeln der Faktor formula_200 vor der Kreiszahl auftauche. Ein weiteres Argument ist die Tatsache, dass formula_201 im Bogenmaß einen Vollwinkel darstellt, statt wie formula_2 einen halben Winkel, wodurch formula_201 weniger willkürlich wirkt. Eine neu normierte Kreiszahl, für deren Notation Michael Hartl und Peter Harremoës den griechischen Buchstaben formula_201 (Tau) vorschlugen, würde diese Formeln verkürzen. Nach dieser Konvention gilt dann also Partei des Demokratischen Sozialismus. Die Partei des Demokratischen Sozialismus (Kurzbezeichnung: PDS) war eine linksgerichtete politische Partei in Deutschland, die von 1989 bis 2007 bestand und hauptsächlich in den neuen Bundesländern aktiv war. Sie ging aus der Sozialistischen Einheitspartei Deutschlands (SED) hervor, die sich im Dezember 1989 zunächst in "Sozialistische Einheitspartei Deutschlands – Partei des Demokratischen Sozialismus" (SED-PDS) umbenannt hatte. Am 4. Februar 1990, nachdem ein personeller und inhaltlicher Wandel vollzogen worden war, änderte sie ihren Namen in "Partei des Demokratischen Sozialismus" (PDS) und im Juli 2005 in Die Linkspartei.PDS (Kurzbezeichnung "Die Linke.PDS"). Am 16. Juni 2007 ging sie schließlich im Zuge der Fusion mit der WASG in der Partei Die Linke auf. Ihre Mitgliederzahl wurde im Dezember 2006 mit 60.338 beziffert. Einige Politikwissenschaftler stuften die PDS als linkspopulistisch ein. Entstehung. Die PDS entstand aus der DDR-Staatspartei SED, die sich nach dem Umsturz im Land Mitte Dezember 1989 in SED-PDS umbenannte. Ab dem 4. Februar 1990 hieß sie nur noch "Partei des Demokratischen Sozialismus" (PDS). Die PDS sah sich in Tradition der KPD über die VKPD, die USPD, den Spartakusbund, die SPD, die SDAP, den ADAV bis hin zur deutschen Arbeiterbewegung. Mit den Namensänderungen der Partei waren jeweils deutliche personelle und inhaltliche Einschnitte verbunden. Trotz der Umbenennung sah sich die PDS rechtlich und moralisch mit dem Erbe bzw. den Altlasten der SED verbunden und leugnete nicht ihre Verantwortung. Politische Gegner warfen ihr allerdings vor, die Auseinandersetzung mit der Vergangenheit nicht intensiv genug zu führen. Grundsatzprogramm. Zudem umfasste es Eckpunkte sozialistischer Positionen zu Themen, wie Wirtschaft, Demokratie, Bildung und Umweltschutz. Auf Themen wie Ostdeutschland und Arbeit wurde genauer eingegangen. Wirtschafts- und Sozialpolitik. Neben dem Versuch, sozialistische Politikentwürfe in das neue Jahrtausend zu tragen, hielt die PDS programmatisch an der Überwindung eines nach den Gesetzen des Markts funktionierenden Kapitalismus fest. So sollte nach ihren Vorstellungen die "„Umverteilung von unten nach oben“" gestoppt werden. In diesem Zusammenhang forderte die Partei, das „Gesetz für moderne Dienstleistungen am Arbeitsmarkt“ (Hartz IV) rückgängig zu machen. Ein besonderes Augenmerk legte die Partei zudem traditionell auf die Interessenvertretung für die neuen Bundesländer. Die Partei plädierte für eine Reduzierung der Jahresarbeitszeit und der täglich zulässigen Arbeitszeit des Einzelnen. Die PDS strebte eine Umverteilung von oben nach unten an. Sie war die erste Partei, die den Mindestlohn in Deutschland forderte. Dieser würde nach Partei-Modell acht Euro betragen. Auch eine progressive Besteuerung von Konzernen, Besserverdienenden und Reichen wurde angestrebt – zu diesem Zweck forderte die PDS eine Vermögensteuer. Renten- und Gesundheitspolitik. In der Gesundheitspolitik setzte sie auf eine solidarische Bürgerversicherung, die alle Einkommensarten in gleichem Umfang miteinbezieht. Ihrer Ansicht nach sei die rot-grüne Bürgerversicherung auf halbem Weg stehengeblieben und das schwarz-gelbe Modell hätte sich in die entgegengesetzte Richtung bewegt. Nach Vorstellungen der Partei sollte die Wertschöpfungsabgabe in Deutschland im Rahmen der Bürgerversicherung diskutiert und dort integriert werden. Zusätzlich sollten bei der Bürgerversicherung weitere Einkommensarten einbezogen werden, so dass die Wertschöpfungsabgabe die Arbeitgeber/Arbeitnehmer-Beiträge partiell ersetzt, die Bürgerversicherung sich jedoch auch auf den Personenkreis der Nicht-Erwerbstätigen bezieht. Die PDS sprach sich ferner für eine Entkriminalisierung von Cannabis und eine Drogenpolitik aus, die Prävention vor Strafe stellt. Eine Freigabe so genannter harter Drogen wurde dagegen nicht gefordert. Umweltpolitik. Die PDS hatte zum Ziel, dass ab 2050 ausschließlich erneuerbare Energien genutzt werden, und war für den kurzfristigen Ausstieg aus der Kernenergie. Sie setzte sich für eine ökologisch gewichtete Primärenergiesteuer ein. Umweltverträgliches Handeln, Einsparung von Energie und Ressourcen sollten finanziell belohnt und unzuträgliches Verhalten belastet werden. Wirtschafts- und Forschungssubventionen sollten nach Vorstellungen der Partei ökologisch ausgerichtet werden. Preiswerter öffentlicher Personennahverkehr sollte ebenfalls gefördert werden. Für Umweltorganisationen wurden mehr Mitwirkungs-, Kontroll- und Einspruchsrechte angestrebt, regionale Wirtschaftskreisläufe und sparsamer Umgang mit Ressourcen sollte gefördert werden. Die Energiemonopole sollten entflochten und demokratischer Kontrolle unterstellt werden. Die PDS unterstützte die Schaffung gentechnikfreier Zonen, wollte eine Ausweisung und Vernetzung von Naturschutzgebieten vorantreiben sowie die Renaturierung, den Moorschutz und verbauungsfreie Gewässer fördern. Für den Hochwasserschutz sollten nach Vorstellung der Partei Überschwemmungsgebiete freigehalten und zurückgewonnen sowie Böden entsiegelt werden. Die Ökologische Plattform bei der PDS setzte sich zum Ziel, dass aus dem Klimawandel kein „Klimaumsturz“ wurde, und Politik und Gesellschaft sich für die Lebensinteressen auch der zukünftigen Generationen engagieren sollten. Außenpolitik. Konsistent innerhalb der PDS war die Ablehnung gegenüber Bundeswehreinsätzen im Ausland. Parteiintern umstritten waren allerdings UN-Blauhelm-Missionen. In der Außenpolitik vertrat die Partei den Standpunkt, dass "„mehr Sicherheit nur durch globale Gerechtigkeit“" zu erreichen sei. Deshalb sollte nach Vorstellung der Partei die Wehrpflicht abgeschafft und die Bundeswehr auf 100.000 Personen reduziert werden. Bildung. Studiengebühren lehnte die PDS strikt ab. Sie strebte die Abschaffung des zwei- bzw. dreigliedrigen Schulsystems und die Einführung von Gemeinschaftsschulen an. Organisationsstruktur. Die Linkspartei.PDS hatte seit Ende 2006 in Vorbereitung des Zusammenschlusses mit der WASG den rechtlichen Status eines eingetragenen Vereins. Sie hatte sechzehn Landesverbände und war damit in jedem deutschen Land präsent. In den ostdeutschen Landesverbänden waren 115 Kreisverbände, in den westdeutschen Ländern 169 Kreisverbände bzw. lokale Vereinigungen ohne Kreisverband organisiert, denen wiederum die Basisorganisationen (BOs) angehörten. Das höchste Gremium der PDS auf Bundesebene war – entsprechend dem Parteiengesetz – der "Bundesparteitag", zwischen seinen Tagungen der "Parteivorstand", dessen Mitglieder vom Parteitag gewählt wurden. Der "Parteirat" nahm eine Kontrollfunktion gegenüber dem Vorstand wahr, beriet und schlichtete bei schwerwiegenden programmatischen Differenzen innerhalb des Vorstandes und zwischen verschiedenen Parteigliederungen. Er hatte Initiativ- und Interventionsrecht bei Grundsatzentscheidungen. ’solid – die sozialistische jugend war der parteinahe Jugendverband der PDS auf Bundesebene. Außerdem gab es in verschiedenen Ländern und Städten lokale bzw. regionale Jugendstrukturen. Bis 1999 gab es die Arbeitsgemeinschaft Junge GenossInnen (AGJG). Daneben gab es noch verschiedene Kommissionen zu verschiedenen Sachgebieten und über dreißig Arbeitsgemeinschaften auf Bundesebene. Historische Kommission. Die Historische Kommission war ein vom PDS-Parteivorstand ernanntes Gremium, welches aus ehrenamtlich tätigen Mitgliedern bestand und den Parteivorstand sowie parteinahe Bildungsvereine in historisch-politischen Fragen beriet. Die Kommission wurde 1990 gegründet, 2001 wurden neue Mitglieder berufen. Der Sprecherrat bestand aus drei Mitgliedern: Jürgen Hofmann (Geschäftsführender Sprecher), Daniela Fuchs und Klaus Kinner. Mitgliederstruktur und -entwicklung. Von den ehemals 2,3 Millionen Mitgliedern der SED traten rund 95 Prozent aus und wurden nicht Mitglieder der späteren PDS bzw. Linkspartei. Viele dieser Mitglieder waren entweder nur auf Druck oder aus Karrieregründen der früheren Staatspartei beigetreten oder wollten umgekehrt den Wandel von der Staatspartei mit Führungsanspruch zur „gewöhnlichen“ Partei nicht akzeptieren; manche fanden nach der „Wende“ Aufnahme in anderen Parteien und Organisationen, die meisten wurden parteilos. Während des Umbruchs und danach standen den massenhaften Austritten nur wenige Neueintritte meist junger Mitglieder gegenüber, die anfangs den Reformprozess in der DDR vorantreiben oder sich später in der Bundesrepublik für soziale Belange politisch engagieren wollten. Der Mitgliederschwund im Osten konnte durch die Neuzugänge im Westen kaum ausgeglichen werden. 2007 hatte die Linkspartei.PDS etwa 60.000 Mitglieder. Größtes Problem der PDS im Osten war die hohe Zahl der Mitgliederverluste aus Altersgründen. Jedoch war die Mitgliederzahl mit der Eintrittswelle 2005 erstmals gestiegen, und mit dem geplanten Beitritt der 12.000 WASG-Mitglieder stand eine weitere Entspannung der Situation an. Einer Studie zufolge jedoch waren 2003 über 70 Prozent der Mitglieder über sechzig Jahre alt. Als Folge davon schlossen sich teilweise Gebietsverbände zu größeren Einheiten zusammen, um handlungsfähig zu bleiben. Antikapitalistische Linke. Die "Antikapitalistische Linke" knüpfte an die neue gemeinsame linke Partei und deren Politik programmatische Mindestbedingungen und Mindestbedingungen für Regierungsbeteiligungen an. Sie beharrte auf der Forderung nach einer strikten antikapitalistischen Partei. Prominente Vertreter der "Antikapitalistischen Linken" waren Sahra Wagenknecht, Tobias Pflüger, Cornelia Hirsch und Ulla Jelpke. Sozialistische Linke. Die "Sozialistische Linke" (SL) vertrat linkskeynesianische und reformkommunistische Positionen in der Partei. Die gewerkschaftlich orientierte "Sozialistische Linke" strebte eine moderne sozialistische Partei nach Vorbild der SP der Niederlande oder der italienischen PRC an. Die SL war 2007 in den Gremien der WASG und der Linkspartei.PDS stark vertreten. Bekannter Vertreter dieser Strömung war das ehemalige SPD-Mitglied Diether Dehm. Reformlinke. Das "Netzwerk Reformlinke" befürwortete Bündnisse mit SPD und Grünen. Beispiele, in denen sich die Reformlinken durchsetzen konnten, sind die Regierungsbeteiligungen in Mecklenburg-Vorpommern und Berlin. Intern wurden sie oft als „Realos“ bezeichnet. Innerhalb der Partei waren sie mit einer eigenen Arbeitsgemeinschaft vertreten. Prominente Vertreter waren Petra Pau, Wulf Gallert, Jan Korte, Stefan Liebich und Halina Wawzyniak. Emanzipatorische Linke. Die "Emanzipatorische Linke" (Ema.li) verstand sich selber nicht als Flügel, sondern als vermittelnde Strömung in der Partei. Mit kritischen Fragen und Anmerkungen versuchte sie die Flügel auf Widersprüche aufmerksam zu machen. Nach außen vertrat sie eine gesellschaftsliberale und emanzipatorische Sicht. Freiheit und Sozialismus waren nach Ansicht der Ema.li kein Widerspruch, sondern sie bedingten sich gegenseitig. Als politische Realforderung setzte sie sich für eine stärkere Forderung nach einem bedingungslosen Grundeinkommen innerhalb der Partei ein. Initiatorinnen waren Katja Kipping, Caren Lay und Julia Bonk. Arbeitsgemeinschaften. Innerhalb der PDS nahmen die sogenannten Arbeitsgemeinschaften eine sehr starke Rolle ein. Sie beeinflussten maßgeblich den internen Meinungsbildungsprozess. Zu Parteitagen stellten sie je nach Größe eine erhebliche Anzahl der Delegierten. Arbeitsgemeinschaften setzten sich entweder speziell mit einem politischen Themenfeld auseinander (zum Beispiel Ökologische Plattform, AG Bildungspolitik) oder sie dienten als Sammelbecken eines Parteiflügels (Netzwerk Reformlinke oder die Kommunistische Plattform). Finanzen. Die Partei erhielt im Jahre 2002 Einnahmen in Höhe von 21,9 Millionen Euro, davon 48 Prozent durch Mitgliedsbeiträge, 33 Prozent durch staatliche Mittel, 17 Prozent durch Spenden und 3 Prozent durch sonstige Einnahmen. Unternehmensbeteiligungen. Zum zweifelsfrei als rechtmäßig ermittelten Vermögen der Linkspartei.PDS gehörten das Karl-Liebknecht-Haus in Berlin, die Zeitung Neues Deutschland (ND), der Karl Dietz Verlag Berlin sowie die "Hotel am Wald Elgersburg GmbH". Das ND-Verlagsgebäude wurde nach der Wende von der Deutschen Bahn zurückgekauft. Die Linkspartei.PDS hielt Anteile an einigen weiteren Unternehmen, etwa der Firma "BärenDruck Mediaservice". Laut Rechenschaftsbericht stammen die meisten Großspenden von aktiven oder ehemaligen Abgeordneten und Bürgermeistern der Partei. Trennung vom SED-Vermögen. Nach einem am 18. Juli 1995 zwischen PDS und Treuhandanstalt abgeschlossenen Vergleich fällt jegliches aufgefundene Altvermögen der SED dem Staat zu. Der PDS wurde vorgeworfen, die Ermittlungen nicht ausreichend unterstützt zu haben. Auch 2007 herrschte noch immer Unklarheit über den Verbleib von Geldern und Vermögensgegenständen, die sich die SED in der DDR zu unrecht angeeignet hatte. Gegen Behauptungen von Wolfgang Thierse, die PDS hätte weiterhin SED-Vermögen für ihre Zwecke genutzt, ging die Partei erfolgreich gerichtlich vor. Staatliche Zuwendungen an Nebenorganisationen. Die Bundes- und Landesstiftungen der Partei und die kommunalpolitischen Foren in den Ostländern bekamen reguläre staatliche Zuschüsse, die strikt getrennt von den Parteifinanzen liefen. Im Juli 2006 gewann die Rosa-Luxemburg-Stiftung Thüringen einen Prozess über die Benachteiligung bei Stiftungsgeldern. Der parteinahen Landes-Stiftung wurden jahrelang Gelder nur in der Höhe ausgezahlt, wie sie FDP und Grüne erhielten, welche im Land kaum verankert sind. Die Stiftung der nach Mitgliedern und Wahlergebnissen wesentlich schwächeren SPD dagegen erhielt vergleichbar hohe Gelder wie die Stiftung der im Land dominanten CDU. Auch in anderen Bundesländern erhielten parteinahe Vereinigungen wie etwa die Kommunalpolitischen Foren oft nur nach Gerichtsprozessen öffentliche Gelder entsprechend ihren Rechtsansprüchen. Im November 2006 kündigte die Linkspartei.PDS eine Klage beim Bundesverfassungsgericht an, da sie sich bei der Verteilung der Gelder an die parteinahen Stiftungen benachteiligt sah. 1989/1990: Historie seit dem Mauerfall. Unter dem Druck sowohl der friedlichen Massenproteste der Bürgerrechtsbewegung als auch der eigenen Parteibasis war Erich Honecker kurz nach den Feiern zum 40. Jahrestag der DDR Mitte Oktober 1989 von Egon Krenz entmachtet worden, der dessen Parteiamt als Generalsekretär der SED und die Staatsämter als Vorsitzender des Staatsrates und des "Nationalen Verteidigungsrates" übernahm. Die Demonstrationen führten am Abend des 9. November 1989 zu weiterem Druck. Am 1. Dezember strich die Volkskammer mit großer Mehrheit den Führungsanspruch der SED aus der Verfassung. Am 3. Dezember wurden Honecker und der ehemalige Minister für Staatssicherheit Erich Mielke aus der Partei ausgeschlossen. Am 6. Dezember legte Krenz nach anhaltender Kritik alle Ämter nieder. Am 9. Dezember wurde Gregor Gysi auf einem kurzfristig einberufenen außerordentlichen Parteitag zum neuen Vorsitzenden gewählt; als seine Stellvertreter die Mitinitiatoren der innerparteilichen Reformen Wolfgang Berghofer, Oberbürgermeister von Dresden, und Hans Modrow, früherer Erster Sekretär der SED-Bezirksleitung Dresden und seit November Ministerpräsident der DDR. In der zweiten Tagungshälfte des Parteitages, am 16. Dezember, benannte sich die Partei auf Vorschlag von Gregor Gysi in "Sozialistische Einheitspartei Deutschlands – Partei des demokratischen Sozialismus" (SED-PDS) um, nachdem sie in einer Rede von Michael Schumann das Unrecht der SED benannt und sich von den beteiligten Personen, wie Erich Honecker und Egon Krenz, und den Taten, vor allem denen des Stalinismus in der DDR, distanziert hatte („Abkehr vom Stalinismus als System“). a> gegen „Terror und Neofaschismus“ sowie für eine souveräne DDR. Dazu hatte der Arbeitsausschuss der SED-PDS aufgerufen Dieser Parteitag stand auch vor der Frage, ob die SED aufgelöst oder von innen heraus grundlegend verändert und erneuert werden solle. Mehrere führende Persönlichkeiten warnten ausdrücklicher vor einer Auflösung der Partei. Gysi: „Die Auflösung der Partei und ihre Neugründung wäre meines Erachtens eine Katastrophe für die Partei.“ Schließlich entschied sich die breite Mehrheit der Delegierten für den zweiten Weg. Laut Protokollen spielte die Sorge um das Parteivermögen und um die Zukunft der damals 44.500 hauptamtlichen Mitarbeiter in der Argumentation verschiedener Teilnehmer eine Rolle. Auch wurde eine Neugründung als durchsichtig und unglaubwürdig bezeichnet. Vertreter der Forderung einer Auflösung und Neugründung der Partei waren vor allem Vertreter der wenig später gegründeten Kommunistischen Plattform sowie die Plattform WF, die sich am 30. November 1989 aus verschiedenen Teilen der SED im Berliner Werk für Fernsehelektronik gegründet hat. Im Januar 1990 wurden weitere Mitglieder der ehemaligen Führungsspitze aus der Partei ausgeschlossen, unter ihnen Egon Krenz, Heinz Keßler und Günter Schabowski. Die Partei bekannte sich erstmals offiziell zur Deutschen Einheit. Am 4. Februar 1990 trennte sich die Partei vom historisch belasteten Namensbestandteil "SED" und hieß fortan nur noch "PDS". Bei der ersten freien Volkskammerwahl am 18. März 1990 erhielt die Partei 16,4 Prozent der Stimmen. Ihr bestes Ergebnis erzielte sie mit 30,2 Prozent im Bezirk Berlin, ihr schlechtestes mit 9,9 Prozent im Bezirk Erfurt. Die PDS stellte damit 66 der 400 Abgeordneten der Volkskammer. Zwei Monate nach der Wiedervereinigung erhielt sie am 2. Dezember 1990 bei der Wahl zum ersten gesamtdeutschen Bundestag 2,4 Prozent der Stimmen und ein Direktmandat in Berlin (Gregor Gysi) und zog mit 17 Abgeordneten in den Bundestag ein. Die Bestimmungen des Einigungsvertrages sahen eine getrennte Fünf-Prozent-Hürde je für das ehemalige Gebiet der Bundesrepublik und der DDR als einmalige Sonderregelung vor, von der neben der PDS auch das Bündnis 90 profitierte. 1990–2000: Die Ära unter den Vorsitzenden Gregor Gysi und Lothar Bisky. 1993 verzichtete Gregor Gysi auf eine neue Kandidatur zum Parteivorsitz. Neuer Parteichef wurde Lothar Bisky. Waren die Anfangsjahre noch davon geprägt, den Zerfall der alten Herrschaftspartei der DDR aufzuhalten, gelang 1993 mit der Verabschiedung eines ersten Parteiprogramms eine gewisse Konsolidierung. Die folgenden Jahre waren geprägt von ambivalenten Entwicklungen. Einerseits stiegen die Wahlergebnisse langsam aber stetig, und die öffentliche Akzeptanz außer- und innerhalb der Linken nahm zu. Andererseits konnte der teilweise dramatische Mitgliederverlust nicht aufgehalten werden. Auch konnten die verschiedenen parteiinternen Strömungen kaum zu einem inneren Dialog gelangen. Bei äußerer Entwicklung kam es zur inneren Stagnation. Das Programm von 1993 diente als Waffenstillstandsvertrag, welcher aber kaum zukunftsgewandt war. Die Versuche, ein neues Programm zu verabschieden, führten zu heftigen Auseinandersetzungen, öffentlich am meisten wahrgenommen als Auseinandersetzung zwischen "Reformern" und "Traditionalisten". Obwohl die Partei 1994 mit nur 4,4 Prozent der Zweitstimmen die Fünf-Prozent-Hürde wieder verfehlte, reichten ihr vier Direktmandate, um erneut in Gruppenstärke mit dreißig Abgeordneten in den Deutschen Bundestag einzuziehen. Bei der Konstituierenden Sitzung kam es zu einem kontrovers diskutierten Vorfall: Der Schriftsteller Stefan Heym, ehemaliger scharfer Kritiker der SED-Herrschaft, hatte als parteiloser Direktkandidat über die offene Wahlliste der PDS ein Bundestagsmandat gewonnen und eröffnete die Sitzung gemäß der Geschäftsordnung als Alterspräsident. Unter Bruch der bisherigen Konventionen verweigerten ihm Bundeskanzler Helmut Kohl und die Unionsfraktion mit Ausnahme von Rita Süssmuth geschlossen den Beifall, viele Unions-Abgeordnete verließen sogar den Saal. Das Bundespresseamt verzögerte den Abdruck der Rede. Außerdem gab es Stasi-Vorwürfe gegen Heym, die sich später als vollkommen haltlos erwiesen. 1995 entstand unter maßgeblicher Mitwirkung von Gysi und Bisky ein Strategiepapier, das die deutliche Abgrenzung zum Stalinismus und zur Politik der Deutschen Demokratischen Republik und eine pragmatische Arbeit forciert. Die Partei soll keine Regionalpartei im Osten bleiben und auch in den alten Bundesländern Fuß fassen. Der auch vom programmatischen „Vordenker“ André Brie vorangetriebene Abschied von ideologischen Prämissen als Grundlage der politischen Aktivität trafen auf heftigen Widerstand einiger als ultralinks bezeichneter Kreise in der Partei, darunter der "Kommunistischen Plattform" mit Sahra Wagenknecht an der Spitze. 1997 schied Gysi aus dem Parteivorstand aus. 1998 erreichte die Partei bei der Bundestagswahl 5,1 Prozent der Zweitstimmen und übersprang damit erstmals die Fünf-Prozent-Hürde in ganz Deutschland. Daraufhin zogen 36 Abgeordnete in den Bundestag ein. Fraktionsvorsitzender wurde Gregor Gysi, der 2000 von diesem Amt zurücktrat. Im selben Jahr verzichtete Bisky auf eine erneute Kandidatur zum Parteivorsitz. Beide wollten damit den Weg für jüngere Kräfte ebnen, die eine Verankerung der Partei im demokratischen System der Bundesrepublik und das Bekenntnis zur sozialen Marktwirtschaft festigen sollten. Neue Parteivorsitzende wurde Gabi Zimmer, Fraktionsvorsitzender im Bundestag Roland Claus. 2000–2003: Die Ära unter der Vorsitzenden Gabi Zimmer. Im Jahr 2001 gewann die PDS bei direkten Kommunalwahlen mit Barbara Syrbe im Landkreis Ostvorpommern (Mecklenburg-Vorpommern), Lothar Finzelberg im Landkreis Jerichower Land (Sachsen-Anhalt) und Kerstin Kassner im Landkreis Rügen (Mecklenburg-Vorpommern) ihre ersten Landratsmandate. Barbara Syrbe und Lothar Finzelberg gelang dies, mit Unterstützung der SPD-Kandidaten, in Stichwahlen gegen die jeweils nach dem ersten Wahlgang führenden CDU-Bewerber. Lothar Finzelberg trat jedoch im Mai 2003 aus der PDS aus. Im Landkreis Rügen kam es zunächst zu einer Wiederholung der Wahl, da die erstplatzierte Kerstin Kassner nach dem Rückzug des zweitplatzierten CDU-Kandidaten zum zweiten Wahlgang allein antrat und aufgrund einer zu geringen Wahlbeteiligung nicht die erforderliche Mindeststimmenzahl erhielt. In der Wahlwiederholung gewann sie dann sowohl im ersten Wahlgang als auch in der Stichwahl gegen den neuen CDU-Bewerber. Ebenfalls 2001 wurde nach der Abgeordnetenhauswahl in Berlin eine Koalition mit der SPD gebildet. Gregor Gysi wurde Wirtschaftssenator. Im Juli 2002 trat er wegen Verwicklungen in die Bonusmeilen-Affäre von allen Ämtern zurück und legte sein Mandat nieder. Der daraufhin eingetretene Popularitätsverlust der „Galionsfigur“ hatte wahrscheinlich auch einen gewissen Einfluss auf das Wahlergebnis bei der kurz darauf stattfindenden Bundestagswahl. Nach der Bundestagswahl 2002 und dem Verfehlen der Fünf-Prozent-Hürde (4,0 Prozent der Zweitstimmen) konnten nur Petra Pau und Gesine Lötzsch durch ihre erreichten Direktmandate in den Bundestag einziehen. Die Partei war somit nicht mehr als Fraktion im Bundestag vertreten. Beim ersten Parteitag nach der Wahlschlappe wurde Gabi Zimmer 2002 als Vorsitzende wiedergewählt. Es kam jedoch zu heftigen Auseinandersetzungen mit anderen prominenten Parteimitgliedern und zu offen ausbrechenden Flügelkämpfen. Petra Pau und der bisherige Bundesgeschäftsführer Dietmar Bartsch verweigerten Zimmer die Zusammenarbeit und zogen ihre Vorstandskandidatur zurück. Bei einer Vorstandssitzung im Mai 2003 gab Gabi Zimmer angesichts des lange schwelenden und neu aufflackernden Richtungsstreits bekannt, nicht mehr als Vorsitzende zur Verfügung zu stehen. Nach weiteren Auseinandersetzungen wurde im Rahmen eines Sonderparteitags im Juni 2003 Zimmers Vorgänger Lothar Bisky wieder zum Parteichef gewählt. Ihm gelang es, die innerparteilichen Kämpfe einzudämmen und eine drohende Zersplitterung zu verhindern. Im Oktober 2003 beschloss die PDS ein neues Parteiprogramm, welches größeren Wert auf die Emanzipation des Individuums legt. 2004–2007: Umbenennung und Etablierung als gesamtdeutsche Partei. 2004 erreichte die PDS bei allen überregionalen Wahlen Rekordergebnisse. Bei der Landtagswahl in Thüringen gelang es ihr erstmals, Direktmandate zu erobern: Beide Mandate in Gera, das Mandat in Suhl sowie zwei Direktmandate in Erfurt. Mit 26,1 Prozent lag sie erneut als zweitstärkste Kraft hinter der CDU und konnte die SPD mit mittlerweile 12 Prozentpunkten Abstand auf Rang drei verweisen. Bei der gleichzeitig stattfindenden Europawahl erreichte die PDS 6,1 Prozent der Stimmen und konnte so mit sieben Abgeordneten ins Europaparlament einziehen. Ursprünglich galt der Wiedereinzug in das Europaparlament, in das die PDS 1999 erstmals eingezogen war, als unsicher. Auch bei den Landtagswahlen in Sachsen und Brandenburg konnte die PDS jeweils den zweiten Platz erzielen; in Sachsen erreichte sie 23,6 % der Stimmen gegenüber unter 10 Prozent der SPD. In Brandenburg löste sie mit 28 Prozent die CDU als zweitstärkste Fraktion ab und erlangte die Mehrheit der Direktmandate. Die SPD führte sowohl mit der PDS als auch mit ihrem bisherigen Partner CDU Gespräche, nachdem sie sich mit 31,9 Prozent knapp vor der PDS als stärkste Partei hatte behaupten können. Die rot-schwarze Koalition des alten und neuen Ministerpräsidenten Matthias Platzeck wurde jedoch weitergeführt. Die von der Bundesregierung unter Gerhard Schröder im Einvernehmen mit der CDU initiierten Sozial- und Arbeitsmarktreformen "(Agenda 2010, Hartz IV)" hatten ab Anfang 2004 besonders in Ostdeutschland heftige Proteste und Demonstrationen („Montagsdemonstrationen“) zur Folge. Die Landesregierungen von Berlin und Mecklenburg-Vorpommern, an denen die PDS beteiligt war, stimmten den Gesetzesentwürfen im Bundesrat nicht zu. Beim ordentlichen Parteitag in der Caligari-Halle des Filmparks Babelsberg stimmten die 400 Delegierten über den neuen Bundesvorstand ab. Lothar Bisky wurde mit 89,9 Prozent als Parteivorsitzender bestätigt. Ein Viertel der Mitglieder des zwanzigköpfigen Bundesvorstandes kommt aus den alten Bundesländern. Auf dem ruhig verlaufenen Parteitag stimmten die Delegierten für die Agenda Sozial, die einen Mindestlohn in Höhe von 1.400 Euro, eine Mindestrente von 800 Euro nach dreißig Beitragsjahren und ein Arbeitslosengeld von einheitlich 400 Euro fordert, als Alternative zur Agenda 2010 der Bundesregierung. Zudem wurden die Befürworter von Regierungsbeteiligungen bestärkt. Die PDS verhandelte nach einem Vorstoß des ehemaligen SPD-Bundesvorsitzenden Oskar Lafontaine, der nach der Landtagswahl in Nordrhein-Westfalen vom 22. Mai 2005 aus Protest gegen die Agenda 2010 und Hartz IV die SPD verlassen hatte, mit der WASG über ein linkes Wahlbündnis. Ursache für diese Entwicklung war die Ankündigung Bundeskanzler Schröders (SPD), in der Folge der von der SPD verlorenen NRW-Wahl Neuwahlen für den Bundestag im Herbst 2005 anzustreben. Gregor Gysi erklärte sich am 3. Juni 2005 bereit, für die PDS als Spitzenkandidat ins Rennen zu gehen, unabhängig vom Ausgang der Verhandlungen. Die Verhandlungen in den Führungsgremien beider Parteien über die möglichen Kandidaturmodelle wurden Mitte Juni 2005 abgeschlossen. Danach wurden Kandidaten der WASG (darunter der inzwischen aus der SPD ausgetretene Oskar Lafontaine) auf Listen der PDS gewählt. Die Partei benannte sich dafür auf einem Parteitag am 17. Juli 2005 in "Die Linkspartei" um. Das neue Logo der Partei zeigt den Schriftzug "Die Linke.PDS", wobei der i-Punkt im Wort "Linke" durch einen roten Pfeil ersetzt wurde. Der Pfeil zeigt den sogenannten "Lissitzky-Pfeil" des russischen Künstlers El Lissitzky und soll vor allem Intellektuelle ansprechen. Am 22. Juni 2005 wurde der vorgeschlagene Bündnisname "Demokratische Linke.PDS" aus wahlrechtlichen Gründen vom Bundesvorstand der PDS verworfen, nachdem die in Berlin ansässige Kleinpartei "Demokratische Linke" mit Klage gedroht hatte. Darauf wurde der Name „Die Linkspartei.“ vorgeschlagen, wobei Landes- und Gebietsverbände den Zusatz "PDS" führen durften. Der neue Name wurde vom Bundesparteitag am 17. Juli 2005 beschlossen. Während und nach den Verhandlungen traten über 500 Personen in die Linkspartei.PDS ein. Auf dem Bundesparteitag billigten 74,6 Prozent der Stimmberechtigten (93,7 Prozent der Anwesenden) den neuen Namen, wobei eine Zwei-Drittel-Mehrheit zur Annahme der Namensänderung nötig war. Damit machte die Partei den Weg für das angestrebte Linksbündnis mit der 2005 gegründeten WASG frei. Die Linkspartei.PDS öffnete bei der Bundestagswahl ihre Listen für WASG-Kandidaten. Der SPD-Vorsitzende Franz Müntefering sagte dazu, er sehe ein Linksbündnis aus WASG und der Linkspartei.PDS als „ganz klare Herausforderung“ für seine Partei an. Am 16. Juni 2007 wurde nach dem Mehrheitswillen der Mitglieder von Linkspartei.PDS und WASG die Fusion beider Organisationen vollzogen, die Die Linke mit 70.000 Mitgliedern zur drittgrößten parteipolitischen Formation Deutschlands machte (nach den Unionsparteien und der SPD). In den neuen Bundesländern erlangte die Partei ihre höchsten Wahlergebnisse und hatte dort je nach Region den Charakter einer Volkspartei. Regierungsbeteiligung auf Länderebene und parlamentarische Opposition. Die PDS war als Juniorpartner an der Landesregierung in der Hauptstadt Berlin von 2002 bis 2011 beteiligt (2005–2007 nach Umbenennung in „Die Linkspartei.“, 2007–2011 fusioniert als „Die Linke“). Eine weitere Regierungsbeteiligung fungierte in Mecklenburg-Vorpommern von 1998 bis 2006. Von 1994 bis 2002 tolerierte die PDS in Sachsen-Anhalt eine SPD-Minderheitsregierung und war dort sowie in den Landtagen von Sachsen, Thüringen und Brandenburg in der parlamentarischen Opposition. Bei der Wahl zur Bremischen Bürgerschaft 2007 schaffte die Linkspartei.PDS mit 8,4 Prozent erstmals den Einzug in ein westdeutsches Landesparlament. Parteifusion mit der WASG. Auf der "Außerordentlichen Tagung des 9. Parteitages der PDS" im Vorfeld der Bundestagswahl 2005 erfolgte am 17. Juli 2005 die Umbenennung in "Die Linkspartei." oder kurz "Die Linke." (auch mit dem Zusatz "PDS"). Dadurch sollte die strategische Zusammenarbeit mit der Partei Arbeit & soziale Gerechtigkeit – Die Wahlalternative (WASG) verdeutlicht werden. Während die Partei nach dem PartG offiziell "Die Linkspartei.PDS" heißen musste, war es durch diese Regelung möglich, Landesverbände so umzubenennen, dass sie auf den Zusatz „PDS“ verzichteten, um so den Neuanfang im Parteibildungsprozess zu unterstreichen. Beispielsweise hieß die "PDS Schleswig-Holstein" danach "Die Linke.Schleswig-Holstein". Am 16. Juni 2007 verschmolz die WASG mit Die Linkspartei.PDS. Dazu hatten beide Parteien am 25. März 2007 in getrennten Parteitagen für Verschmelzungsverträge gestimmt. In den Urabstimmungen der jeweiligen Mitgliedschaften über das Zusammengehen sprach sich jeweils eine deutliche Mehrheit für die Verschmelzung beider Parteien aus. Die daraus hervorgegangene neue Partei führt den Namen Die Linke. Abwendung vom autoritären Sozialismus. In der öffentlichen Meinung war die Frage, ob und inwiefern die PDS als „linksextrem“ einzustufen sei, umstritten. Seit der staatlichen Vereinigung Deutschlands hatte sich die PDS stets zum Grundgesetz bekannt. Sie zog aus dem „missglückten Experiment“ des Staatssozialismus, aus seinen Fehlleistungen und Verbrechen nach eigener Aussage die Folgerung, dass sozialistische Ziele ausschließlich mit demokratischen Mitteln, nur durch das Handeln von Mehrheiten erreicht werden könnten. Die PDS verteidige das Grundgesetz gegen die "„neoliberale Aushöhlung“" der anderen Parteien. Somit stünde sie auch nicht weniger auf dem Boden des Grundgesetzes als die Etablierten. Kritiker bezweifelten die Ernsthaftigkeit dieses kollektiven Meinungsumschwungs zumindest in Teilen der Partei. Stasi-Vorwürfe. Konkrete Vorwürfe richteten sich vor allem gegen Abgeordnete und Funktionäre, die mit der Stasi zusammengearbeitet haben sollen. In Sachsen beantragte eine große Mehrheit der Landtagsabgeordneten die Einleitung einer Abgeordnetenklage gegen den damaligen Fraktionschef der Linkspartei, Peter Porsch. Der Abgeordnete Lutz Heilmann kam den innerparteilichen Regeln zur Veröffentlichung von Stasibelastung bei der Kandidatur für Ämter nicht nach. Eine Überprüfung, ob und wieweit Heilmann in seiner Tätigkeit als Stasi-Mitarbeiter Menschen Schaden hat zukommen lassen, stand 2007 aus. Heilmann begegnete dieser Kritik, indem er seine Tätigkeit als „undramatisch“ beschrieb. Er habe als Objektschützer gearbeitet und dabei Ausweise kontrolliert sowie Videokameras überwacht. Sympathisanten und Betroffene kritisierten ihrerseits, dass nach geltendem Recht den mutmaßlichen Tätern keine Akten ausgehändigt werden dürfen, um sich zu den konkreten Vorwürfen äußern zu können. So wurde der Landtagsabgeordnete Frank Kuschel verklagt, nachdem er in einer Diskussionsveranstaltung „Meine Akte – Deine Akte“ seine Stasi-Akte mit geschwärzten Daten Dritter Personen veröffentlichte. Beobachtung durch den Verfassungsschutz. Die PDS wurde vom Bundesamt für Verfassungsschutz (BfV) mit der Begründung als bedenklich eingestuft, sie dulde offen linksextremistische Vereinigungen innerhalb der Partei und halte weiterhin an der Systemüberwindung durch Revolution fest, womit sie laut Art. 21 Abs. 2 GG die freiheitliche demokratische Grundordnung beeinträchtigen oder beseitigen könne. Die Parteiflügel Kommunistische Plattform und Marxistisches Forum wurden sowohl vom Bundesamt für Verfassungsschutz wie auch von einigen Landesbehörden für Verfassungsschutz beobachtet, da diese nach Ansicht der entsprechenden Verfassungsschutzbehörden offen extremistische Bestrebungen verfolgten. Auch der Jugendverband a> stand unter Beobachtung. Ferner kooperierte die Partei besonders auf kommunaler Ebene immer wieder mit – laut BfV – "„eindeutig linksextremen“" Parteien, insbesondere der DKP. Ferner sorgte die Tatsache, dass bei der Bundestagswahl 2005 DKP-Mitglieder auf hinteren Listenplätzen der PDS kandidierten, für Kritik. Das BfV stufte das Verhältnis zur DKP als kritisch-solidarisch ein. Laut dem BfV habe die Partei ein ambivalentes Verhältnis zum Parlamentarismus. Die Partei bekannte sich zum Internationalismus, weswegen sie „vielfältige Kontakte zu ausländischen kommunistischen Parteien“ unterhielt. Hierzu gehörte die Betonung der europäischen Zusammenarbeit in der Europäischen Linkspartei (EL). Der Verfassungsschutz sah darüber hinausgehende Kooperationen mit der Kommunistischen Partei Kubas, der 1993 in Deutschland verbotenen kurdischen PKK sowie der kolumbianischen Guerillaorganisation FARC als bedenklich an. Die PDS in der Regierungsverantwortung. Mit besonderem Augenmerk wurde die Übernahme von Regierungsverantwortung in den Ländern und im Bund analysiert. Befürworter von Regierungsbeteiligungen verwiesen auf den "praktischen Nutzwert" für den Wähler, den die Partei erbringen möchte. Sie erhofften sich eine allgemeine "Normalisierung" im Verhältnis zur PDS bei anderen politischen Akteuren und in der Öffentlichkeit. Innerparteiliche Kritiker dieses Kurses sahen darin jedoch einen taktischen Fehler oder hielten die Ziele der Partei für grundsätzlich in einer Regierung nicht erreichbar. Teilweise wurde ein „Verrat von Grundsätzen“ beklagt. Auf Bundesebene stand insbesondere der strikte Friedenskurs der Partei und ihre Ablehnung der Sozialreformen der letzten Jahre (Hartz-Gesetze) einer Koalition mit der SPD im Wege. In Mecklenburg-Vorpommern war die PDS von 1998 bis 2006 an der Landesregierung beteiligt, in Berlin war sie es seit 2001 und musste dort seither erhebliche Kompromisse zugunsten der Positionen ihres Koalitionspartners SPD eingehen. Diese Kompromisse stießen parteiintern oft auf Kritik, da die Verwirklichung des eigenen Parteiprogramms oft nicht mehr erkennbar ist. Teile der Partei sahen ihre Glaubwürdigkeit bereits erschüttert, fürchteten Popularitätsverluste und forderten einen an den Grundpositionen der Partei orientierten (radikalen) Kurswechsel. Unter wirtschaftsliberalen Kräften hingegen stieg mit den Regierungsbeteiligungen die allgemeine Akzeptanz der Partei. Die Medien lobten teilweise die Kompromisse der Partei (Privatisierungen öffentlichen Eigentums, Kürzungen sozialer Leistungen etc.) im Stadtstaat Berlin als „Realpolitik“. Zu den mitgetragenen Kompromissen und Kürzungen im Sozialbereich gehörten die Erhöhung der KITA-Beiträge für Besserverdiener, die Kürzung des Blindengeldes, Einsparungen an den Universitäten sowie Kürzung der Fördermittel Als positiv hoben die Verteidiger der Regierungsoption einige Erfolge heraus. So war in Berlin das Sozialticket für den ÖPNV gegen den Widerstand der Arbeitnehmervertreter wieder eingeführt worden und die Berliner Sozialhilfe- und ALG-II-Empfänger können seit der ersten rot-roten Regierung Theater- und Opernkarten für drei Euro erhalten. Die Tarifkürzungen bei den Beschäftigten im Öffentlichen Dienst und bei den Berliner Verkehrsbetrieben wurden mit langjährigen Beschäftigungssicherungsvereinbarungen gekoppelt. Zusätzlich konnte, trotz Druck der EU und anderer der Privatisierung nahestehenden Parteien, die Berliner Landesbank samt Sparkasse an den Sparkassenverband verkauft werden und so die Privatisierung des Sparkassenbereiches erfolgreich verhindert werden. Phonetik. a> (Zungenspitze)18. sub-laminal (Unterseite der Zunge) Die Phonetik (gr. "phōnētikós" „zum Tönen, Sprechen gehörig“, von "phōnḗ" „Stimme“) untersucht als Teil der Lautlehre die Faktoren und Komponenten sprachlicher Laute. Sie ist ein eigenständiges interdisziplinäres Fachgebiet zwischen Linguistik, Biologie, Akustik, Neurowissenschaften und Medizin. Der Gegenstandsbereich der Phonetik ist die gesprochene Sprache in all ihren Realisierungen. Die (funktionale) Phonetik untersucht ebenso wie die Phonologie die gesprochene Sprache, jedoch unter einem anderen Aspekt. Bei der Phonologie geht es um „die Funktionen von Lauteinheiten innerhalb eines Sprachsystems“ und bei der Phonetik „um die materiellen Eigenschaften mündlicher Äußerungen“, zumeist mit naturwissenschaftlichen Methoden erfasst. „Ziel der Phonetik ist die Erforschung der Möglichkeiten und Grenzen menschlicher Sprachproduktion und -perzeption.“ Allgemeine Phonetik. Allgemeine Phonetik beschäftigt sich mit Signalerzeugung, -übertragung und -empfang im Rahmen von Sprache. Angewandte Phonetik. Mit den Lauten als Bestandteil eines Sprachsystems beschäftigt sich auch die Phonologie (Phonemik). Zu den Unterschieden zwischen Phonetik und Phonologie siehe den Begriff Lautlehre. Verwandte Fachdisziplinen. Linguistisch steht die Phonetik in folgendem Beziehungsgeflecht Literatur. Die folgenden Werke werden im Hochschulstudium der Phonetik als grundlegend angesehen. Darüber hinaus gibt es viele weitere Bücher zu allgemeinen und speziellen Themen der Phonetik. Phonologie. Die Phonologie (von "phōnḗ", „Laut, Ton, Stimme, Sprache“ und, "lógos", „Lehre“) ist ein Teilgebiet der Sprachwissenschaft, im Speziellen der theoretischen Linguistik, und stellt zusammen mit der Phonetik die Lautlehre dar. Während die Phonetik die eher konkreten Eigenschaften der Sprachlaute untersucht – ihre akustische Beschaffenheit, Artikulation und Wahrnehmung – betrachtet die Phonologie die Laute in abstrakterer Weise: Sie beschäftigt sich mit der "Funktion" der Laute für das Sprachsystem der einzelnen Sprachen und stellt somit einen Teilbereich der Grammatik dar. Zu den zentralen Aufgabengebieten der Phonologie gehört das Ermitteln von sogenannten distinktiven Merkmalen sowie den Phoneminventaren und Silben­strukturen unterschiedlicher Lautsprachen. Als Begründer der Phonologie in Europa gelten die Russen Nikolai Sergejewitsch Trubetzkoy, Ethnologe und Linguist, und der Strukturalist Roman Jakobson. Phonologie hat eine Vielzahl alternativer Namen; Metzlers Lexikon der Sprache nennt: "funktionelle Phonetik", "funktionale Phonetik", "Phonematik", "Phonemik", "Phonemtheorie", "Sprachgebildelautlehre". Dabei ist Phonemik wegen des gewünschten Parallelismus zu Phonetik noch relativ verbreitet. Allerdings gibt es für Phonemik und Phonematik auch eine Vielzahl abweichender Begriffsbildungen. Minimalpaare und Phoneme. Die Phonologie untersucht unter anderem, welche Laute unter welchen Bedingungen Wörter voneinander unterscheiden können. In einem Wortpaar wie „Bass – Pass“ hängt die Unterscheidung der Wörter allein an den beiden Anlauten. Diese verschiedenen Anlaute stellen damit Fälle von kleinsten bedeutungsunterscheidenden Einheiten dar, Phoneme genannt. Die Gegenüberstellung „Bass – Pass“ illustriert dabei die Methode der Minimalpaare: Dies sind Gegenüberstellungen von Wörtern, die sich nur durch einen einzigen Phonem-Kontrast unterscheiden und damit den Phonem-Status von z. B. /b/ und /p/ zweifelsfrei demonstrieren (Phoneme werden zwischen Schrägstrichen notiert; ihre lautlichen Realisierungen, die Phone, dagegen in eckigen Klammern). Diese ‚unterscheidende Funktion‘ der Laute, nach der die Phonologie fragt, ist zu trennen von der phonetischen Beschreibung der Laute, welche deren physikalische Lautgestalt, Artikulation und Wahrnehmung zum Inhalt hat. Es ist Sache jeder einzelsprachlichen Grammatik festzulegen, welche der vielen Lautunterschiede, die man in der Sprache phonetisch feststellen kann, unterscheidende Kraft haben und welche nicht. An die Bestimmung von einzelnen Phonemen schließt sich als Forschungsgegenstand der Phonologie z. B. die Frage an, welche Gesetzmäßigkeiten sich über den Aufbau von Phoneminventaren in den Sprachen der Welt formulieren lassen (dies bildet ein Beispiel für den allgemeineren Forschungsgegenstand der phonologischen Universalien). Distinktives Merkmal. Phoneme müssen nicht als elementare Einheiten gesehen werden, sondern sie setzen sich ihrerseits aus Merkmalen zusammen. Man kann feststellen, dass z. B. das Minimalpaar "Bass - Pass" in gewisser Weise noch "minimaler" ist als ein Paar "Pass - nass". Denn der Unterschied "Bass - Pass" liegt nur in der Stimmhaftigkeit der Anlaute, wogegen bei "Pass - nass" auch noch der Artikulationsort verschieden ist (Lippen bzw. Zungenspitze + Gaumen) und auch der Weg, durch den die Luft entweicht (durch den Mund bzw. durch die Nase). Daher kann der Gegenstand der Phonologie auch direkt in den einzelnen Merkmalen der Phoneme gesehen werden, den distinktiven Merkmalen. Hierbei unterscheidet man beispielsweise „Oberklassenmerkmale“ (wie „konsonantisch“ oder „sonorantisch“) von „laryngalen Merkmalen“ (wie etwa Stimmhaftigkeit oder Aspiration), den Merkmalen der Art der Artikulation (z. B. Nasalität) und den Merkmalen des Ortes der Artikulation (z. B. Labialität). Merkmale können entweder binär (z. B. Stimmhaftigkeit kann [+sth] oder [-sth] sein) oder, nach manchen Theorien, auch privativ, also entweder vorhanden oder nicht vorhanden sein. Letzteres trifft vor allem bei den Merkmalen zu, die darauf Bezug nehmen, wo die Laute artikuliert werden, also bei Ortsmerkmalen wie [labial], [dorsal] etc. Solche Merkmale sind nicht + oder –, sondern vorhanden oder nicht vorhanden. Zum Teil schließen sie sich auch gegenseitig aus. Laute können demnach als Matrix von verschiedenen Merkmalen dargestellt werden (lineare Phonologie; segmentale Phonologie). Phonologisches Lexikon. Die Phonemzusammensetzung eines Wortes (bzw. eigentlich Lexems) ist Teil unseres Wissens über Wörter; die Notwendigkeit, dies zu speichern, führt zur Existenz einer phonologischen Abteilung im Lexikon (phonologisches Lexikon). Wiederum bildet aber diese phonologische Form des Wortes eine Abstraktion gegenüber der tatsächlichen phonetischen Realisierung, die man als Sprecher bildet oder mit der man als Hörer konfrontiert wird. Zum Beispiel enthält im Deutschen die phonologische Darstellung des Wortes „Lob“ die Abfolge der Phoneme /l/, /o:/ (= langes o) und /b/. Wenn aber das stimmhafte /b/ bei der Aussprache im Auslaut steht, wird es als das Phon [p] stimmlos realisiert (die sogenannte Auslautverhärtung). Wird eine Form des Wortes „Lob“ gebraucht, die noch eine Endung besitzt, wie in „(des) Lobes“ und steht daher /b/ nicht mehr im Auslaut, so ist die Aussprache [b], d. h. das Phonem /b/ zeigt sich nur hier in seiner zugrundeliegenden Form. Die phonologische Repräsentation eines Wortes ist nicht nur abstrakt in dem Sinn, dass über verschiedene Aussprachevarianten eines Phonems abstrahiert wird, es ist außerdem möglich, dass das phonologische Lexikon Einheiten enthält, die unterspezifiziert sind, d. h. die zwar einzelne Merkmale tragen, aber noch nicht alle Merkmale, die nötig wären um ein bestimmtes Phonem zu identifizieren. Es kann demnach sein, dass phonologische Repräsentationen erst im Zuge der Verwendung bzw. des Sprachverstehens mit Merkmalen aufgefüllt werden. Phonologische Regeln und Prozesse. Das obige Beispiel der Auslautverhärtung ist bereits eine Illustration für einen weiteren Aufgabenbereich der Phonologie, nämlich die Entwicklung phonologischer Regeln, die Variation in den lautlichen Erscheinungen erklären, so zum Beispiel auch die Verteilung von [ç] und [x] oder die Vokalharmonie, wie sie etwa im Türkischen, Finnischen oder Ungarischen existiert. Weiterhin sollen phonologische Prozesse erklärt werden, wie Segmentierung. Die westliche Phonologie setzt häufig skriptizistisch eine Analyse auf Segment­ebene voraus, das heißt, sie verwendet Konsonanten und Vokale o. Ä. Dies wird manchmal als "Phonemik" bezeichnet und ihr ergänzend gegenüber steht die "nicht-lineare", "suprasegmentale" oder "prosodische Phonologie", teilweise "Prosodie" genannt. Dieser holistischere Ansatz stellt die Merkmale in Merkmalsbäumen dar und versucht, Sprachen, in denen Tonhöhe oder Tonverlauf auf lexikalischer Ebene bedeutungsunterscheidend sind (z. B. chinesischen Sprachen), adäquat zu beschreiben. Pertrochantäre Femurfraktur. Pertrochantäre Femurfraktur ist der medizinische Fachbegriff für einen Knochenbruch des Oberschenkelknochens im Bereich zwischen Trochanter major (großer Rollhügel - siehe Oberschenkelknochen) und Trochanter minor (kleiner Rollhügel). Vorkommen. Die Fraktur kommt meist bei älteren Menschen bei Sturz auf die entsprechende Hüfte vor. Bei Hochenergietraumen (z.B. Verkehrsunfällen oder Stürzen größerer Höhe) tritt die Fraktur auch bei jüngeren Personen auf. Pertrochantäre Frakturen machen etwa 45 Prozent der proximalen Femurfrakturen aus und sind somit genau so häufig wie Schenkelhalsfrakturen. Das Durchschnittsalter liegt bei 70-80 Jahren. Frauen sind sehr viel öfter betroffen, weil sie postmenopausal eine erhöhte Inzidenz für Osteoporose haben. Symptome. Meist bestehen spontane Schmerzen mit Verstärkung der Beschwerden durch Bewegung im Bereich der betroffenen Hüftregion. Das betroffene Bein ist bei Vorliegen einer Frakturverschiebung (=Dislokation) verkürzt und/oder nach außen rotiert. Die Außenrotation und Verkürzung ist meist nicht so ausgeprägt wie beim Vorliegen einer dislozierten, medialen Schenkelhalsfraktur. Die Beweglichkeit ist meist schmerzbedingt deutlich eingeschränkt bis komplett aufgehoben. Es besteht eine Druck- und Klopfschmerzhaftigkeit über dem Trochanter major. Im Bereich des proximalen (=körpernahen) Oberschenkel kann durch eine Einblutung in die Muskulatur eine ausgeprägte Schwellung entstehen. Diagnostik. Röntgenaufnahmen des Hüftgelenkes in zwei Ebenen bestätigen die Diagnose. Bei strittigen Fällen kann eine Computertomographie (CT) durchgeführt werden. Behandlung. Früher erfolgte die Behandlung von Oberschenkelfrakturen mit einer Streckvorrichtung (einer sog. Extension). Die damit verbundenen Komplikationen durch die lange Bettlägerigkeit wie Lungenentzündungen (Pneumonie), Thrombose und Dekubitus führten zu einer hohen Sterblichkeit. Heute erfolgt die Versorgung chirurgisch durch eine Osteosynthese. Lediglich Abrissfrakturen am Trochanter können konservativ behandelt werden. Häufig angewendete Implantate sind der Gammanagel, der proximale Femurnagel, Gleitnagel oder ähnliche sowie die dynamische Hüftschraube (DHS) oder eine perkutane Kompressionsplatte (PCCP). Die Dynamische Hüftschraube ist nur dann Mittel der Wahl, wenn der Trochanter minor als mediale Abstützung nicht frakturiert ist, beziehungsweise wieder rekonstruiert werden kann. Bei nicht rekonstruierbarer medialer Abstützung kommt regelhaft eine Markraumschienung z.B. mittels Gammanagel oder proximalem Femurnagel zum Einsatz. Eine pertrochantäre Fraktur mit bestehender Arthrose des Hüftgelenkes sollte mit einer Totalendoprothese versorgt werden. Ob eine Duokopfprothese bei Patienten über 70 Jahren verwendet werden sollte, oder ob "knochenschonend" operiert werden sollte, ist Momentan Gegenstand kontroverser Diskussionen in der Fachliteratur. Komplikationen. Durch den Blutverlust im Bereich des Knochenbruches kann es zu einem Blutmangel kommen, so dass Blutübertragungen notwendig werden können. Weitere mögliche Komplikationen sind Wundheilungsstörungen, Thrombosen, Pneumonien, Ausbrechen des Osteosynthesematerials. Beim alten Menschen ist peri- und postoperativ eine bis zu sechsfach höhere Sterblichkeit im Vergleich zur gleichaltrigen Vergleichsgruppe gegeben. Die aktuellen Quellen berichten von einer Sterblichkeitsrate von ca. 10 % in den ersten 30 Tagen nach Auftritt einer hüftgelenknahen Fraktur. Im ersten Jahr nach einer solchen Verletzung beträgt die Mortalität noch 25 %. Pylos. Pylos (, italienisch: "Navarino") ist eine Hafenstadt in Messenien in Griechenland. Mit der Verwaltungsreform 2010 wurde Pylos Sitz der neu geschaffenen Gemeinde Pylos-Nestor, in der die ehemals selbständige Gemeinde Pylos als Gemeindebezirk aufgegangen ist. Geografie. Der Gemeindebezirk Pylos nimmt den westlichen Teil des messenischen „Fingers“ im Südwesten der Halbinsel Peloponnes ein. Die eigentliche Kleinstadt Pylos liegt am Südeingang der gleichnamigen Bucht, die auch als Bucht von Navarino bekannt ist. Am westlichen Ausgang der Bucht liegt die Insel Sfaktiria. Das moderne Pylos. Der Gemeindebezirk Pylos hat etwa 5.300 Einwohner. Davon leben rund 2.300 Menschen im Hauptort Pylos. Zur weiteren Untergliederung siehe Gemeindegliederung. Mykenische und Klassische Zeit. Karte der Distrikte des mykenischen Reiches von Pylos Pylos ist der Name zweier benachbarter Orte in der Landschaft Messenien an der südlichen Westküste der Peloponnes in Griechenland. An einem dieser Orte (s. Palast des Nestor) befinden sich die Überreste eines großen mykenischen Palasts aus der späthelladischen Zeit, der als Palast des Nestor bekannt wurde. Der andere Ort erlangte Berühmtheit in klassischer Zeit: durch den Sieg der athenischen Streitkräfte über Sparta und dessen Besetzung während des Peloponnesischen Krieges. Außer dem Namen "Pylos", griechisch für „Tor“, haben die beiden Orte keine Gemeinsamkeiten. Das alte Pylos und seine Umgebung sind Fundorte von Siegeln und einer großen Anzahl von Tonplomben mit Siegelabdrücken. Das Corpus der minoischen und mykenischen Siegel enthält auch die Funde aus Pylos und seiner Umgebung. Der Ort aus klassischer Zeit liegt sehr wahrscheinlich im felsigen, heute Coryphasum genannten Vorgebirge an der Nordseite der Bucht von Navarino. Dieser Ort nimmt eine herausragende Stellung in Thukydides’ Geschichte des Peloponnesischen Krieges ein – aufgrund des Erfolges, den der athenische General Demosthenes mit der Besetzung des Ortes und der Gefangennahme einiger spartanischer Truppen auf der naheliegenden Insel Sphakteria (heute Sphagia) erzielte. Eine detaillierte Beschreibung der dramatischen Ereignisse wird bei Thukydides in Buch 4, Kapitel 2–41 gegeben. Die Gefangenen, die auf der Insel gemacht wurden, brachte man als Geiseln nach Athen. Die Sorge der Spartaner um ihre Rückkehr trug dazu bei, dass sie 421 v. Chr. dem Nikiasfrieden zustimmten (Thukydides 5, 15, 1). Die Garnison der Athener hielt sich bis 409 v. Chr. in Pylos (Diodor 13, 64, 4f und Xenophon "Hellenika" 1, 2, 18). 365 v. Chr. kam der Ort zum freien Messenien (Diodor 15, 77, 4). Um 220 v. Chr. gehörte Pylos zum Achäischen Bund, der dort einen Flottenstützpunkt unterhielt (Polybios, IV 25, 4). Venetianische und türkische Zeit. Die Einfahrt in die "Bucht von Navarino" aus dem Blickwinkel der Festung in Pylos Unter venetianischer Herrschaft entstanden Festungen in Alt- und Neu-Pylos. 1499 eroberte das Osmanische Reich die Siedlungen und Festungen. 1572 wurden die Festungsanlagen modernisiert. Zwischen 1686 und 1715 nahm Venedig die Festungen im Zuge der Eroberung der gesamten Peloponnes (Morea) wieder in Besitz. Nach dem Verlust der Morea geriet das Gebiet wieder unter Osmanische Herrschaft. Um 1770 wurde die Festung in Neu-Pylos wieder hergestellt. Pappeln. Die Pappeln ("Populus") sind eine Pflanzengattung in der Familie der Weidengewächse (Salicaceae). Diese meist baumförmigen Pflanzen sind in Nordamerika und Eurasien heimisch. Sie wachsen an Flussufern und in Wäldern und werden häufig zur Gewinnung von Holz, Papier und Energie angebaut. Habitus und Geschlechterverteilung. Pappeln sind sommergrüne Bäume oder Sträucher, die Wuchshöhen von 30 bis 45 Meter erreichen. Der Stamm ist gewöhnlich aufrecht, die Borke ist rau oder glatt und häufig grau. Wie sämtliche Vertreter der Weidengewächse ("Salicaceae") sind Pappeln zweihäusig, es gibt also männliche und weibliche Pflanzen. In allen Sektionen der Gattung wurden aber ausnahmsweise auch Individuen beobachtet, deren Blütenstände sowohl Stempelblüten als auch Staubblattblüten enthielten. Blätter. Die Blätter sind dreieckig, herz- oder eiförmig und entweder ganzrandig oder gelappt. Der Blattstiel ist lang, der Querschnitt rund oder seitlich abgeflacht. Die Blätter an Lang- und Kurztrieben, d. h. die in den Winterknospen vorgebildeten und die im Sommer gebildeten Blätter, sind häufig unterschiedlich gestaltet. Die Winterknospen besitzen mehrere ungleiche Schuppen. Holz und Borke. Das Holz aller Pappelarten ist recht ähnlich, die Unterschiede aufgrund von Umweltbedingungen sind größer als die Unterschiede zwischen Arten. Pappelholz hat einen sehr hohen Zelluloseanteil, was es flexibel macht. Die Rohdichte bei einer Holzfeuchte von 15 Prozent beträgt im Schnitt 0,45 g cm−3, wobei die Werte zwischen 0,41 und 0,60 liegen. Die Zitter-Pappel liegt etwa bei 0,49. Die Werte von Pappelholz liegen in ähnlichen Bereichen wie beim Holz der Nadelbäume Gemeine Fichte und Weymouths-Kiefer. Das Holz der Pappeln ist zerstreutporig; die Gefäße des Frühholzes sind nicht größer als die des Spätholzes. Die Holzstrahlen sind im Wesentlichen aus gleich großen Zellen aufgebaut. Im Holzparenchym wird Stärke, Protein und Öl gespeichert. Das Kernholz, in dem kein lebendes Parenchym mehr vorkommt, wird bei "Populus tremuloides" ab dem fünften Jahr gebildet, und ist bei allen Pappeln farblich nicht deutlich abgegrenzt. Die Borke besitzt relativ dünnwandige Korkzellen. Junge Bäume besitzen eine glatte Rinde mit durchgehendem Periderm. Später wird die Borke häufig rau und gefurcht. Wurzeln. Pappeln bilden Herzwurzelsysteme bis Horizontalwurzelsysteme aus. Pfahlwurzeln sind nicht belegt, dafür aber stark ausgeprägte horizontale Wurzeln, von denen einerseits Senker nach unten abzweigen, andrerseits Schößlinge nach oben austreiben, die der vegetativen Vermehrung dienen. Die Feinwurzeln der Pappeln sind im Vergleich zu anderen Bäumen recht lang, wenig verzweigt und dünn. Die Wurzeln bilden sowohl Ektomykorrhizen wie auch Vesikulär-arbuskuläre Mykorrhiza. Blüten und Früchte. Männliche Kätzchen der Kanadischen Pappel Die Blütenstände sind gestielte, hängende Kätzchen. Männliche und weibliche Kätzchen sind sehr ähnlich. Die Blüten stehen in den Achseln eines lanzettlichen oder gezähnten Tragblatts und sind gestielt. Die Tragblätter fallen bereits während der Anthese ab. Eine Blütenhülle fehlt bei männlichen wie weiblichen Blüten, jedoch sind die männlichen bzw. weiblichen Organe von einem mehr oder weniger ausgeprägten Diskus umgeben. Die männlichen Blüten besitzen vier bis 60 Staubblätter, deren Staubfäden nicht verwachsen sind. In den weiblichen Blüten ist der Fruchtknoten sitzend und unilokulär. Der Fruchtknoten besteht aus zwei bis vier verwachsenen Fruchtblättern und ist an der Basis oder bis zu drei Viertel seiner Höhe vom Diskus umgeben. Die Samenanlagen stehen zu vielen an zwei bis vier parietalen Plazenten. Der Griffel ist kurz und trägt zwei bis vier Narben. Nektarien fehlen. Die Pappeln werden vom Wind bestäubt (Anemophilie), die Blüten erscheinen vor den Blättern. Die Frucht ist eine zwei- bis vierklappige Kapsel, die zahlreiche Flugsamen beinhaltet. Die Samen sind von einem langen, dichten Flausch aus Haaren umgeben, Endosperm ist kaum ausgebildet oder fehlt völlig. Das Gewicht eines Samens beträgt meist nur einige Zehntel Milligramm, dafür kann ein Baum pro Jahr über 25 Mio. Samen produzieren. Die Ausbreitung der Samen erfolgt durch den Wind (Anemochorie). Inhaltsstoffe. Pappeln bilden als sekundäre Inhaltsstoffe Phenole, jedoch keine stickstoffhaltigen sekundären Pflanzenstoffe. Die mengenmäßig bedeutendsten Phenole sind Phenol-Glykoside, Flavonoide und Tannine. Zu den Phenol-Glykosiden zählen Salicin, Salicortin, Tremuloiden und Tremulacin. Sie sind besonders in Blättern, Zweigen und in der Rinde vorhanden. In Fraßversuchen reduzieren sie das Wachstum vieler Insekten. Im Herbst werden im Stamm aus der gespeicherten Stärke die Zucker Saccharose, Raffinose und Stachyose gebildet. Während Stärke im Winter nur in geringen Mengen vorkommt, können Raffinose und Stachyose je 6 bis 7 Prozent der Stamm-Trockenmasse ausmachen. Fette werden im Stamm und in der Borke ebenfalls gespeichert. Im Gegensatz zu früheren Meinungen, als die Pappeln als reine fettspeichernde Arten angesehen wurden, stellen die Fette neben den Kohlenhydraten nur einen Teil der Reservestoffe dar. Die Chromosomenzahl beträgt bei allen Arten 2n=38. Das Kern-Genom ist mit 2C = 1,2 Pikogramm vergleichsweise klein. Wachstum. Die Blüte erfolgt abhängig von der geographischen Breite zwischen Februar und April. Auch innerhalb einer Population kann sich die Blütezeit einzelner Bäume um zwei Monate unterscheiden. Die Befruchtung der Eizellen erfolgt innerhalb von 24 Stunden nach der Bestäubung. Die Samen werden durch den Wind und durch Wasser ausgebreitet, wobei die zurückgelegte Strecke einige Kilometer betragen kann; meist sind es aber wenige hundert Meter. Die Samen sind vielfach nur wenige Wochen keimfähig, sie keimen bei günstigen Bedingungen, das heißt auf feuchtem Mineralboden, sogleich aus. Bereits im ersten Jahr können die Keimlinge Wurzeltiefen von 75 bis zu 150 Zentimeter erreichen, während das Höhenwachstum wesentlich bescheidener ausfällt. Die erste Blüte erfolgt im Alter von etwa fünf bis zehn Jahren. Pappeln werden meist 100 bis 200 Jahre alt. Die Pappeln können sich sehr gut vegetativ, d. h. über Wurzelausschläge vermehren. Auch abgebrochene Zweige und umgefallene Bäume – z. B. durch Überflutung – können sich wieder bewurzeln. Besonders Pappeln der Sektion Populus wachsen oft in großen "Klon-Kolonien", die aus einem einzelnen Samen entstanden sind. Die Schößlinge können bis zu 40 m vom Mutterbaum entfernt auftreten. Auch wenn durch ein Feuer etwa der gesamte oberirdische Baumbestand zerstört wird, überlebt das Wurzelnetz. So kann die Kolonie Tausende von Jahren überdauern. Im amerikanischen Bundesstaat Utah ist eine Gruppe von Pappeln bekannt, welche möglicherweise bereits seit 80.000 Jahren an diesem Standort existiert. In der Sektion "Tacamahaca" kommt Cladoptose vor: Zweige werden durch die Bildung einer Abszissionsschicht, ähnlich wie beim herbstlichen Laubfall, abgeworfen. Pappeln gehören zu den am schnellsten wachsenden Gehölzen der gemäßigten Breiten. Diese Eigenschaft begünstigt ihre ökologische Rolle als Pioniergehölze. Das Wachstum ist nicht wie bei den meisten Bäumen dieser Gebiete auf die in den Winterknospen vorgebildeten Blätter beschränkt. Die Pappeln wachsen auch später im Jahr mit neuen Blättern weiter. Das Wachstum wird – zumindest bei manchen Arten – erst durch die verkürzte Photoperiode im Herbst beendet. Verbreitung. Pappeln kommen in den temperaten Gebieten der Nordhalbkugel vor (holarktische Verbreitung). Ihre Verbreitung reicht von den subtropischen Gebieten Chinas, wo sie ein Mannigfaltigkeitszentrum besitzen, bis in die boreale Zone. In Amerika reicht ihr Vorkommen im Süden bis nach Mexiko. "Populus ilicifolia" kommt in Ostafrika vor. In Mitteleuropa sind die Schwarz-Pappel ("Populus nigra"), die Silber-Pappel ("Populus alba"), und die Zitter-Pappel ("Populus tremula") heimisch; daneben die natürliche Hybride Grau-Pappel ("Populus canescens"). Standorte. Pappeln kommen häufig an Flussläufen vor, wo sie Bestandteil der Auwälder sind. Viele Arten wie die Schwarzpappel sind gegen Überflutung und auch Überschlickung tolerant, während Trockenheit oft schlecht vertragen wird. Mit Weiden und Erlen gehören sie zur Weichholzaue, der tiefsten Auwaldstufe. Daneben wachsen sie in temperaten, borealen und montanen Wäldern. Viele Arten sind aufgrund ihres raschen Wachstums im Jugendstadium und der vegetativen Vermehrung aggressive Kolonisten auf zuvor gestörten Standorten. Weltweit gibt es rund 80 Millionen Hektar natürlichen Pappelbestand, davon 28,3 Millionen Hektar in Kanada (2001), 21,9 Millionen in Russland und 17,7 Millionen in den USA (2003). Die Hauptnutzung ist hier die Holzproduktion. Als viertgrößtes Pappel-Land folgt China mit 2,1 Millionen Hektar. Hier liegt die Hauptnutzung im Naturschutz durch die Wälder. Krankheiten und Fraßfeinde. An Pappeln wurden über 650 Pilzarten nachgewiesen. An "Populus tremuloides" wurden über 300 Insektenarten und 250 Pilzarten gefunden. Weltweit ökonomisch wichtige Erkrankungen sind Blattrost ("Melampsora" spp.), Blatt- und Spross-Bleiche ("Venturia" spp.), die Blattfleckenkrankheit "Marssonia", der Stammkrebs "Hypoxylon mammatum", der Fäule-Erreger "Phellinus tremulae" und "Septoria" In Mitteleuropa bedeutende Krankheiten sind der Bakterielle Pappelkrebs ("Xanthomonas populi"), der Rindenbrand ("Dothichiza populae"), der Braunfleckengrind, der Blattrost ("Melampsora" spp.), die Triebspitzenkrankheit ("Pollaccia radiosa") und die Blattfleckenkrankheit ("Marssonia" spp.). An Insekten sind der Große Pappelbock ("Saperda carcharias"), der Kleine Pappelbock ("Saperda populnea") und der Moschusbock ("Aromia moschata") zu erwähnen. Verbiss- und Fegeschäden sind durch Mäuse, Hasen, Kaninchen, Rot-, Dam- und Rehwild möglich. Fast hundert Falterraupenarten siedeln auf Pappeln. Äußere Systematik. Die Gattung "Populus" wurde seit jeher zur Familie der Weidengewächse gezählt. Sie ist eine monophyletische Gruppe und die Schwestergruppe der Gattung "Salix". Innere Systematik. Auf Gensequenzanalysen basierende phylogenetische Studien haben diese auf morphologischen Merkmalen beruhende Gliederung in Sektionen im Wesentlichen bestätigt. Hybridisierung. Bei den Pappeln treten sehr häufig natürliche Hybride auf. Dabei hybridisieren die einzelnen Arten der jeweiligen Sektion untereinander. Arten der beiden Sektionen "Tacamahaca" und "Aigeiros" hybridisieren wechselseitig, während Arten der Sektion "Populus" nicht mit Arten anderer Sektionen hybridisieren. Im Gegensatz zu vielen anderen Pflanzensippen kommt Polyploidie nach Hybridisierung bei den Pappeln nicht vor. Eher selten treten triploide Hybriden auf, die dann steril sind, jedoch klonal vermehrt werden können. Ein Beispiel ist die Convarietät Astria, eine Kreuzung aus "Populus tremula" × "Populus tremuloides". Evolution. Innerhalb der Gattung gilt die Sektion Abaso als die ursprünglichste, aus der sich über "Leucoides" die anderen entwickelt haben. Die Sektion "Populus" wird als am weitesten entwickelte angesehen. Fossil ist die Gattung durch ihre Blätter sehr häufig vertreten. Die ältesten Funde stammen aus dem späten Paläozän Nordamerikas und sind rund 58 Mio. Jahre alt. Sie können der Sektion "Abaso" zugeordnet werden. Im späten Eozän traten erstmals Fossilien der Sektion "Leucoides" auf, wie auch die ersten Fossilien in Eurasien. Im Oligozän traten in Nordamerika wie Eurasien Vertreter auf, die als gemeinsame Vorläufer der Sektionen "Tacamahaca" und "Aigeiros" angesehen werden, eindeutig den beiden Sektionen zuordenbare Fossilien sowie solche der Sektion "Populus" traten erst im Miozän auf. Nutzung. Pappeln wachsen schnell, sind einfach zu vermehren und viele Formen bilden aufrechte, ausgeprägte Hauptstämme. Diese Eigenschaften machen Pappelholz zu einem beliebten Nutzholz. Die Nutzung von Pappeln für Holz, Brennstoff und Einstreu für Tiere ist für den Mittelmeerraum bis nach Zentralasien seit der Antike belegt. Zunächst wurden vor allem "Populus nigra" und "Populus alba" genutzt. Nach der Einführung der amerikanischen "Populus deltoides" nach Europa wurde diese Art sowie die Hybride "Populus" x"canadensis" zunehmend genutzt. Seit dem frühen 20. Jahrhundert wurde die Pappelzucht auf wissenschaftliche Weise weitergeführt. 1947 wurde die Internationale Pappel-Kommission (International Poplar Commission) unter der Ägide der Ernährungs- und Landwirtschaftsorganisation der UNO (FAO) gegründet. Das Holz der Pappeln ist im Allgemeinen weißlich bis leicht gelblich. Es ist weich, aber dennoch belastbar. Dazu ist es weniger leicht entzündlich als andere einheimische Hölzer. Es wird daher zu Streichhölzern verarbeitet, welche nach dem Entzünden nicht allzu schnell abbrennen sollen. Wärmebehandeltes Pappelholz wird zum Innenausbau von Saunen verwendet. Zerkleinertes Pappelholz wird als Holzwolle für Verpackungszwecke eingesetzt. Diese eignet sich auch gut zur Haltung von Kleintieren, da das Holz keine ätherischen Öle enthält (wie etwa Kiefern und andere Nadelhölzer). Pappelholz wird fein gespalten, um daraus Lebensmittelverpackungen (z. B. für Camembert) und Essstäbchen anzufertigen. Zu Zellulosebrei aufgelöst wird es zu Papier verarbeitet. Aus Pappelholz werden Paletten und Sperrholz in einfachen Qualitäten produziert. Der Kern von Snowboards besteht häufig aus dem sehr flexiblen Holz der Pappeln. Ebenso der Korpus von Streichinstrumenten, Gitarren und Trommeln, da es gute Resonanzeigenschaften haben soll. In Italien wurden speziell in der Renaissance Gemälde und Tafelbilder auf Pappelholztafeln gemalt, so auch das Bildnis der Mona Lisa. Obwohl das Stammholz am Baum im Falle von Verletzungen nicht sehr beständig gegen Fäulnis ist, ist das verarbeitete Holz einigermaßen form- und witterungsbeständig, solange es nach Durchfeuchtung schnell abtrocknen kann. Es bleicht im Außenbereich zu einer silber-grauen Farbe. Im Nordwesten Russlands wird Pappelholz traditionell zur Herstellung von Dachschindeln verwendet. Wie Eichenholz enthält die Rinde der Bäume Tannine, welche zum Gerben von Leder verwendet wurden. Aufgrund der in Blättern, Knospen, Zweigen und Rinde enthaltenen Phenole wurden traditionell Extrakte zur Behandlung von Verbrennungen, Juckreiz und Gelenkschwellungen sowie zur Zubereitung von Tee zur Anwendung bei leichten Harnwegsinfektionen verwendet. Weltweit gibt es rund 6,7 Millionen Hektar gepflanzte Pappeln, davon 3,8 Millionen zur Holzproduktion und 2,9 Millionen zum Umweltschutz. 30 Prozent der Fläche sind Agroforestry-Systeme. Von der Gesamtfläche entfallen 4,9 Millionen (73 Prozent) auf China, 1 Million auf Indien. Es folgen Frankreich mit 236.000, Türkei mit 130.000, Italien mit 118.800, Argentinien mit 63.500 und Chile mit 15.000 Hektar. Die Holzernte aus natürlichen Beständen belief sich 2003 auf 100 Millionen m³ in Russland und 16 Millionen in Kanada. In fünf Ländern wurden mehr als eine Million m³ aus angepflanzten Beständen geerntet: Türkei (3,8 Mio.), China (1,85 Mio.), Frankreich (1,8 Mio.), Italien (1,4 Mio.) und Indien (1,2 Mio.). Es gibt im Wesentlichen drei Formen von Pappel-Pflanzungen: Produktions-Plantagen, Schutzpflanzungen und landschaftspflegerische Anpflanzungen. Plantagen. Monoklonale Bestände als schnellwachsendes Holz werden in Kurzumtriebskulturen genutzt. In Nord- und Westeuropa sowie in Nordamerika betragen die Umtriebszeiten von Kulturen mit 20- bis 30-jähriger Nutzungsdauer 1 bis 5 Jahre. In Italien werden die Pappelplantagen nach 10 bis 15 Jahren geerntet. Das aus Plantagen gewonnene Holz wird in Form von Hackschnitzeln und Holzpellets für die Energiegewinnung genutzt, kann jedoch auch als Industrieholz für die Holzwerkstoffindustrie zur Produktion von Spanplatten, Papier und anderen Werkstoffen eingesetzt werden. Balsampappeln der Sektion "Tacamahaca" werden dagegen eher in Wäldern angebaut, häufig auch zusammen mit anderen Arten. Diese Form ist in Nordamerika weit verbreitet. In Reinbeständen beträgt die Rotationsdauer 40 bis 50 Jahre. In Asien, im Mittleren Osten und Nordafrika werden häufig Säulenformen in engen Abständen von einem Meter in 10–20-Jahresrotation angebaut. In der Agroforstwirtschaft (Agroforestry) werden Pappeln zusammen mit Zuckerrohr, Mais, Weizen, Soja und anderen Feldfrüchten angebaut. Verbreitet ist diese Anbaumethode in Nord-Indien und China. Schutzpflanzungen. Pflanzungen zum Schutz an Flussufern und als Windschutz sind seit Jahrhunderten üblich. Als Windschutz sind Pappeln wegen ihres raschen Wuchses gut geeignet. Durch die Wahl der Pappel-Sorte kann auch die Breite und Höhe der Krone recht gut im Voraus bestimmt werden. Häufig werden säulenförmige Formen wie die Pyramiden-Pappeln angepflanzt. Weit verbreitet sind Pappeln als Windschutz in Russland, der Ukraine und Kanada. Entlang von Flussufern vermindern Pappeln nicht nur die Erosion, sondern verbessern auch die Wasserqualität. Wegen ihrer Raschwüchsigkeit und Anspruchslosigkeit finden sie als Pionierbaumarten bei der forstlichen Rekultivierung von Halden oder Tagebauen Verwendung. Landschaftspflege. Zur Landschaftspflege werden einzelne Bäume oder kleine Gruppen angepflanzt, häufig Säulenpappeln. Beispiele häufig verwendeter Cultivare sind "Populus nigra" cv. "italica" in temperaten Gebieten und "Populus nigra" var. "thevestina" in Asien und im Mittelmeerraum. In West- und Mitteleuropa sind es die Cultivare Robusta, Serotina, Regenerata und Marilandica von "Populus canadensis". Häufig sind Pappeln in Reihenpflanzungen entlang von Gräben, Wegen und Grundstücksgrenzen zu finden. Verwendung des Holzes. Das Holz wird bei ausreichender Größe zu Schnittholz sowie Schälfurnieren (zur Zündholzherstellung) verarbeitet. Es findet auch in der Paletten- und Verpackungsindustrie Verwendung. Weitere Verarbeitungsbereiche sind Spanplatten, Faserplatten und Spanholzformteile. Im Innenausbau ist Pappelholz gut verwendbar, unter direkten Witterungseinflüssen ist es nur beschränkt haltbar. Ein überwiegender Teil des Pappelholzes wird jedoch in der Zellstoff-, Karton- und Papierindustrie eingesetzt. Die Nutzung als Brennholz und als Biomasse zur Energiegewinnung ist nicht sehr bedeutend. Forschung und Züchtung. Das Genom von "Populus trichocarpa" war das erste Genom eines Baumes, das vollständig sequenziert wurde. Pappeln waren zwischen 1994 und 2004 nach Kiefern die am häufigsten verwendeten Bäume im Bereich Biotechnologie, und mit 47 Prozent aller Studien die am häufigsten verwendete Baum-Gattung für gentechnische Veränderungen. In China wurden 2002 die ersten gentechnisch veränderten Pappeln für den kommerziellen Anbau zugelassen, bis Ende 2002 wurden 1,4 Mio. dieser Pappeln ausgepflanzt. Transgene Pappeln werden daneben in den Vereinigten Staaten, Kanada, der Europäischen Union und in China in Freisetzungsversuchen untersucht. Veränderte Holzqualität, Schädlingsresistenz und verbesserte Schwermetallaufnahme und dessen Akkumulierung zur Bodensanierung stehen dabei im Zentrum der Forschungsaktivitäten. Für die Züchtung günstige Eigenschaften der Pappeln sind die leichte Bildung von Art-Hybriden, die durch den Heterosis-Effekt häufig günstigere Eigenschaften aufweisen, sowie die Möglichkeit, die Eigenschaften solcher Hybriden durch klonale Vermehrung konstant zu halten. 1992 führte der Catalogue of Poplar Cultivars 280 Cultivare an, die vor allem aus Klonen bestehen. Seit 2006 gibt es eine offizielle Datenbank, in der im März 2008 332 Cultivare registriert waren. Etymologie. Der Name "Populus" wurde bereits vor Linné benutzt. Im Lateinischen ist das Wort "pōpulus" (feminin im Gegensatz zum maskulinen "populus", das „Volk“ bedeutet) seit Cato dem Älteren belegt, stets in der Bedeutung "Pappel". Die Etymologie des lateinischen Wortes ist nicht bekannt. Plinius der Ältere unterschied bereits die drei in Südeuropa vorkommenden Arten. Der deutsche Name Pappel leitet sich vom althochdeutschen "popel", mittelhochdeutsch "papele, papel" gleicher Bedeutung ab. Pentagon. Das Pentagon (englisch: „Fünfeck“; von griechisch πεντάγωνον pentágōnon) ist der Hauptsitz des US-amerikanischen Verteidigungsministeriums bei Washington. Mit seinen je 280 Meter langen Außenwänden, einer Grundfläche von rund 135.000 Quadratmetern, einer Bürofläche von etwa 344.280 Quadratmetern und einem Volumen von rund 2 Millionen Kubikmetern gilt es als das neuntgrößte Gebäude der Welt. Es liegt am Potomac River in Arlington (Virginia) direkt neben dem Nationalfriedhof Arlington an der Grenze zu Washington, D.C. Die Gesamtlänge aller Korridore beträgt knapp 17,5 Meilen (ca. 28,2 km). Jeder Punkt im Bau ist von jedem anderen Punkt innerhalb des Gebäudes zu Fuß in unter sieben Minuten erreichbar. Der Begriff „Pentagon“ wird häufig als Synonym für das US-Verteidigungsministerium benutzt. Baugeschichte. 1941 litt das seinerzeit 23.000 Mitarbeiter umfassende Kriegsministerium unter akuter Platznot und war zudem auf 17 verschiedene Gebäude verteilt. Im Juli desselben Jahres ersuchte Brigadegeneral Brehon B. Sommervell darum, diese Probleme durch einen Neubau zu lösen, der ursprünglich nur als Übergangslösung gedacht war. Der US-Kongress hatte aufgrund der zu erwartenden hohen Baukosten zunächst Bedenken, gab jedoch am 14. August 1941 angesichts der Kriegssituation in Europa grünes Licht für den Bau und stellte die nötigen Mittel bereit. Für den drohenden Fall des Kriegseintritts der USA sollte das Verteidigungsministerium arbeitsfähig sein. Ursprünglich sollte das Gebäude an einem anderen Standort gebaut werden. Das vorgesehene Bauland war unter dem Namen "Arlington Farms" bekannt und wurde von fünf Straßen eingerahmt, was die charakteristische Form des Gebäudes vorgab. Präsident Franklin Delano Roosevelt fürchtete jedoch, der riesige Bürokomplex könne die Sicht vom Nationalfriedhof Arlington aus auf Washington (D.C.) beeinträchtigen, und ließ einen anderen Bauplatz suchen. Eine weitere Bedingung von Roosevelt war, für den Bau kein Material aus kriegführenden Staaten zu verwenden. Damit war vor allem Marmor (aus Italien) gemeint. So musste das Pentagon aus Beton gebaut werden. Den endgültigen Standort fand man 1,2 Kilometer flussabwärts am Potomac River. Hier befanden sich zuvor der alte Hoover-Airport, eine ehemalige Ziegelei, ein Rennplatz sowie eine ärmliche Siedlung, genannt "Hell’s Bottom". An der fünfseitigen Form hielt man fest und entwarf die endgültige Version mit freiem Innenhof. Jede Seite des Fünfecks besteht ihrerseits aus fünf parallelen Gebäudereihen (den sogenannten „Ringen“), so dass nur die Mitarbeiter ganz außen im Ring E oder innen im Ring A die Chance auf einen „Gartenblick“ haben. Außerdem hat jeder Ring fünf Stockwerke. Ein Vorteil der gewählten Bauart ist, dass man in ca. sieben Minuten jeden Ort im Pentagon erreichen kann. Unter der Leitung von Colonel Leslie Groves, später militärischer Leiter des Manhattan-Projekts, arbeiteten 14.000 Arbeiter und 1000 Architekten nun in drei Schichten rund um die Uhr. Am 11. September 1941 begonnen und nach 16 Monaten am 15. Januar 1943 fertiggestellt, kostete der Bau 83 Mio. US-Dollar. Beschädigung am 11. September 2001. Das Pentagon nach dem Einschlag am 11. September 2001 Explosion, aufgenommen von einer Überwachungskamera Einer der Terroranschläge am 11. September 2001 galt dem Pentagon, das am 60. Jahrestag seines Baubeginns punktuell beschädigt wurde. Dabei kamen 184 Menschen ums Leben. Dank der befestigten Bauweise von 1941, die ursprünglich für die Lasten der Akten verstärkt ausgeführt wurde, sind nicht mehr Menschen ums Leben gekommen. Auch die Sicherheitsfenster und die 2001 kurz vor den Anschlägen neu eingebaute bzw. überholte Sprinkleranlage retteten vielen Menschen im 1. Stock und in den angrenzenden Blöcken das Leben. Erst 19 Minuten nach dem Einschlag der Boeing 757 und dem Ausbrechen des Feuers brach der 1. Stock in sich zusammen. Das Einschlagloch war anfangs fast nicht auszumachen, da die entführte Boeing 757 mittig auf ein Eisentor für Zulieferer auftraf und erst im Gebäude-Komplex in einer Kerosin-Feuerwolke explodierte. Aufgrund der starken Beschädigungen am Gebäude, der extrem geringen Beschädigung um das Gebäude, widersprüchlicher Zeugenaussagen und dem Vorenthalten von Informationen (z. B. Videoaufnahmen) durch das Verteidigungsministerium kursieren mehrere von der sogenannten „offiziellen Version“ abweichende Verschwörungstheorien über den Anschlag. Zum Jahrestag des Anschlags im Jahr 2008 wurde eine Gedächtnisstätte für die Opfer eingeweiht, das Pentagon Memorial. Anschlag vom 4. März 2010. Am Abend des 4. März 2010 hatte der 36 Jahre alte, aus Hollister in Kalifornien stammende US-Bürger John Patrick Bedell gegen 18:40 Uhr am Haupteingang mit einer Pistole auf zwei Sicherheitskräfte geschossen und diese leicht verletzt. Die mit Schusswesten geschützten Sicherheitskräfte – die Bedell zuvor nach seinem Ausweis gefragt hatten – erwiderten daraufhin das Feuer, wobei Bedell in den Kopf getroffen wurde. Er verstarb wenige Stunden später im Krankenhaus. Neben seiner Pistole hatte Bedell bei der Tat noch zwei halbautomatische Waffen und mehrere Magazine mit Munition in einer Tasche bei sich. In seinem Auto wurden bei der Untersuchung noch weitere Magazine gefunden. Zum Motiv sagte die US-Bundespolizei FBI, dass Bedell im Internet die Regierung beschuldigt hatte, die Terroranschläge des 11. September 2001 nur inszeniert zu haben, und dass er ein Anhänger der Verschwörungstheorien gewesen sei. Bedell hatte im Internet einen Text verfasst, laut dem er dazu bestimmt sei, für den Tod eines Offiziers der Marines „Gerechtigkeit auszuüben“. Im Jahr 1991 war der Oberst der Marines James Sabow in seinem Garten tot aufgefunden worden. Laut den damaligen Ermittlungen hatte sich Sabow selbst getötet. Der Tod von James Sabow soll laut Bedell bei der „Aufdeckung der Wahrheit über die Terroranschläge vom 11. September 2001“ helfen. Status des Gebäudes. Am 5. Oktober 1992 wurde das Pentagon zu einem nationalen Bauwerk von historischer Bedeutung und somit automatisch auch in das nationale Verzeichnis historischer Stätten aufgenommen. Zwischen 1994 und 2011 wurde das Pentagon renoviert. Allein die Planung dauerte mehr als ein Jahrzehnt und kostete mehr als eine Milliarde US-Dollar. Die Renovierung des am 11. September 2001 zerstörten Keils war beinahe abgeschlossen gewesen, so dass er neu gebaut werden musste. Dies geschah gleichzeitig mit der Renovierung des zweiten Keils, die im Oktober 2005 abgeschlossen wurde. Im Oktober 2007 wurde die Renovierung des dritten Keils abgeschlossen. Die anschließende schrittweise Renovierung der letzten beiden Keile war 2011 beendet. Die Gesamtkosten beliefen sich auf 4,5 Milliarden Dollar. Führung der Streitkräfte. Das Pentagon soll mit den Streitkräften durch ein spinnennetzartiges globales Kommunikationssystem verbunden werden, das Global Information Grid. Petersilie. Die Petersilie (lat. "Petroselinum crispum"), in Österreich und Altbayern auch der Petersil, in der Schweiz Peterli, weitere Namen Peterle, Peterling, Petergrün oder Silk'", ist eine zweijährige Pflanze aus der Familie der Doldenblütler (Apiaceae) und kommt wildwachsend im Mittelmeerraum und auf den Kanarischen Inseln vor. In Europa und dem gesamten Mittelmeerraum gehören die je nach Sorte glatten oder krausen Blätter ihrer Zuchtformen zu den verbreitetsten Küchenkräutern; die besonders große Speicherwurzel der Varietät Wurzelpetersilie ("Petroselinum crispum" subsp. "tuberosum") dient als Bestandteil von Suppengrün. Vegetative Merkmale. Die Petersilie ist ein zweijähriger Hemikryptophyt. Sie besitzt eine mehr oder weniger rübenförmige Wurzel. Aus dieser entspringen meist mehrere kahle Stängel, die aufrecht, stielrund bis leicht gerillt, sowie häufig röhrig sind. Die Stängel sind wie die ganze Pflanze kahl. Die Petersilie erreicht Wuchshöhen von 30 bis 90 (selten 100) Zentimeter. Die Grundblätter und die unteren Stängelblätter sind gestielt, weiter oben sind die Blätter mit breiten, weißen, hautrandigen Scheiden am Stängel sitzend. Die Blätter sind dunkelgrün. Die untersten sind doppelt bis dreifach gefiedert. Die Zipfel sind im Umriss keilig bis breit eiförmig, fiederschnittig oder gelappt. Sie tragen eine knorpelige Spitze und sind ein bis zwei Zentimeter lang. Bei Kulturformen sind die Blätter glatt oder kraus. Die krausen Formen werden in Produktion und Samenhandel wiederum in 3 Gruppen eingeteilt: In grob bis mittelfein gekrauste (curled = type perlé = geperlt), Typ Paramount, fein bis sehr fein gekraust (extra krause = double/triple curled), Typ Mooskrause sowie Farnblättrige Petersilie (fern leafed). Die Stärke der Blattkräuselung wird hierbei mit einer Skala von 1-9 als gering bis sehr stark bewertet. Die Chromosomenzahl beträgt 2n = 22. Blüten und Früchte. Die Dolden sind lang gestielt und haben acht bis 20 Strahlen. Die Doldenstrahlen sind alle etwa gleich lang. Die ein bis drei Hüllblätter sind lanzettlich bis pfriemlich. Die je sechs bis acht Hüllchenblätter sind linealisch bis pfriemlich und rund halb so lang wie die Blütenstiele. Die Kronblätter sind grünlichgelb, häufig rötlich überlaufen und rund 0,6 Millimeter lang. Die zwittrigen Blüten sind proterandrisch und werden durch Insekten (Dipteren, Hymenopteren) bestäubt. Die Früchte sind 2,5 bis drei Millimeter hoch und 1,5 bis zwei Millimeter breit. Ihre Form ist breit eiförmig. Zwischen den Hauptrippen sind sie dunkelbraun, die Hauptrippen selbst sind hellgelb, sehr dünn und stehen deutlich vor. Inhaltsstoffe. Blätter und Wurzeln besitzen die gleichen Inhaltsstoffe: Die Hauptbestandteile des ätherischen Öls sind Myristicin, Limonen und 1,3,8-p-Menthatrien. In kleineren Mengen kommen auch weitere Mono- und Sesquiterpene vor. Petersilie enthält mit ca. 160 Milligramm auf 100 Gramm vergleichsweise (z. B. Zitrusfrüchte) viel Vitamin C. Bei den Früchten herrschen entweder Myristicin mit 60 bis 80 % vor oder – bei der glatten Petersilie – Apiol. Es gibt auch eine chemische Rasse mit Tetramethoxyallylbenzol als Hauptbestandteil des ätherischen Öls. Die Petersilie war namengebend für die in den Samen von Doldenblütlern vorkommende Fettsäure "Petroselinsäure", ein Isomer der Ölsäure. Neben dem ätherischen Öl beinhaltet die Petersilie in sehr kleinen Mengen Polyine sowie in der Wurzel die Furanocumarine Bergapten und Isoimperatorin. Pharmakologie. Als Heildroge werden die getrockneten und reifen Früchte verwendet: Petroselini fructus und die frische ganze Pflanze, Petroselinum (HAB). Das ätherische Öl bewirkt eine kräftige Harnausscheidung vor allem durch die Reizwirkung der Phenylpropane auf das Nierenparenchym. In höherer Dosierung erzeugt das Apiol allerdings eine gesteigerte Kontraktilität der glatten Muskulatur von Darm, Blase und vor allem der Gebärmutter. Verbreitung. Die Petersilie ist eine Kulturpflanze, die Heimat der unbekannten Stammsippe wird im östlichen Mittelmeergebiet bis Westasien vermutet. In Mitteleuropa baut man sie in Gärten an; sehr selten verwildert sie. Sie bevorzugt frische und nährstoffreiche Lehmböden. Geschichte und Etymologie. Die Petersilie wurde im antiken Griechenland als heilige Pflanze angesehen, jedoch nicht eindeutig vom Sellerie unterschieden. Sie wird in der Odyssee als Schmuck der Insel der Nymphe Kalypso angesehen. Kränze aus Petersilie wurden den Siegern der Isthmischen und Nemeischen Spielen übergeben. Die älteste schriftliche Erwähnung findet sich auf einem Schriftstück in mykenisch-griechischer Linearschrift B als "se-ri (li*)-no", in der Antike wurde noch das "petro-" für „Stein“ zum Namen "Petroselinon" (soviel wie Steinsellerie) vorangestellt. Dioskurides, einer der berühmtesten Ärzte der Antike und der erste Verfasser einer Monographie über mehr als 1000 Pflanzen mit ihren pharmazeutischen Eigenschaften, schätzte die therapeutische Wirksamkeit der Petersilie unter anderem gegen Nieren- und Blasenbeschwerden, Blähungen und als menstruationsfördendes Mittel. Als Wachstumsort erwähnte er Makedonien, sodass die Pflanze auch als "Petroselinon to makedonikon" (lat. Petroselinum macedonicum) bekannt wurde. Im Westen verblieb davon der erste Name "Petroselinum", später "Petrosilium", was zum deutschen Wort "Petersilie", dem französischen "Persil" und dem englischen "Parsley" führte. Im Balkan überlebte eher der zweite, geographische Begriff und ging z. B. in die bulgarische Sprache als „Magdanos“ (bg. Магданоз) und in die türkische als „Maydanoz“ ein. Als Rückentlehnung kehrte es als „Maintanos“ (Μαϊντανός) in die (neu-)griechische Sprache zurück. In Anlehnung jedoch an den antiken Namen ist die Petersilie dort, vor allem in Nordgriechenland auch als „Makedonisi“ (Μακεδονήσι) bekannt. In Mitteleuropa wurde erst im Mittelalter die Pflanze zunächst als Heilkraut in Klöstern angebaut und daraufhin auch in der Küche eingesetzt. Um eine Verwechslung mit der giftigen, aber ähnlich aussehenden Hundspetersilie zu vermeiden, wurden Sorten mit krausen Blättern gezüchtet. Im Mittelalter wurde befürchtet, die Petersilie bringe Unglück. Die lange Keimdauer der Pflanzen wurde als Anlass für die Erklärung genommen, die Petersilie müsse siebenmal zum Teufel fahren, bevor sie keimt. Im 19. Jahrhundert war auch die Bezeichnung „Parselkraut“ gebräuchlich, die mittlerweile jedoch so gut wie ausgestorben ist. Heilkunde. Madaus zufolge trennen antike Autoren die Petersilie nicht immer von anderen Doldenblütlern, besonders Sellerie. Bei Dioskurides treibt sie Harn und Menstruation, ähnlich bei Galen und den Hippokratikern. Auch nach Albertus Magnus fördert sie Harnausscheidung und Verdauung. Cazin berichtet eine Heilung von Anasarka nach Kindbettfieber. Paracelsus, Matthiolus und Lonicerus nennen sie harn- und steintreibend, blähungs-, verdauungs- und menstruationsfördernd, geburtsbeschleunigend, gedächtnissteigernd, blutreinigend, hautglättend. Andere nahmen sie bei Gonorrhoe. Die Pflanze spiele im Aberglauben der germanischen und romanischen Länder von jeher eine große Rolle. Der Spruch „Petersilie hilft dem Manne aufs Pferd, den Frauen unter die Erd!“ meint wohl ihre aphrodisierende und abortive Wirkung. Die Volksmedizin nutzte Kraut und Wurzel u. a. bei Harngrieß, Nieren- und Blasensteinen, Milz- und Leberleiden, Gelbsucht, Kreislaufstörungen, Wassersucht, Verdauungs- und Blasenschwäche, Brustschmerzen, Verschleimung von Brust, Magen und Nieren, Blähungen, die Samen auch bei Fieber, Uterusleiden, geschwollener Schilddrüse, chronischem Husten und mangelnder Menstruation, den frischen Saft bei Mückenstichen. Petersilie töte Papageien und kleinere Tiere, die Früchte seien als Wurmmittel bei Hunden gut. Nach Kneipp ist Petersilie sehr bewährt bei Wassersucht. Die Kneipp-Nachfolger Eckstein und Flamm fanden zusätzlich eine leichte Anregung von Verdauung und Menstruation und empfahlen sie bei Wasser in den Beinen, in Bauch- und Brusthöhle oder im Herzbeutel, auch sonst bei schlechter Nierenfunktion, wo nicht entzündliche Prozesse bestehen. Die Homöopathie verwendet "Petroselinum" selten bei Harnverhalt und plötzlichem Harndrang, Urtikaria, Nachtblindheit oder Singen in den Ohren. Küche. Die Blätter der Petersilie werden als Gewürzkraut meist roh oder nur kurz erhitzt verwendet, da sie sonst ihr typisches Aroma verlieren, und stellen einen festen Bestandteil verschiedener Mittelmeerküchen dar. Als Bestandteil des Bouquet garni der Französischen Küche wird die Petersilie nicht nur kurz mitgegart, sondern schon zu Anfang der Garzeit hinzugegeben, sie gibt dann Brühen und Saucen einen würzigen Grundgeschmack. Auch in der Küche Westasiens ist die Petersilie häufig zu finden, so werden beispielsweise in der türkischen Küche fast alle kalten Gerichte und gebratenes Fleisch mit gehackter Petersilie garniert. Beim Taboulé, einem Salat aus der libanesischen Küche, ist Petersilie neben Minze und Weizengrieß die Hauptzutat. Auch im Kaukasus, auf der arabischen Halbinsel und im Iran wird Petersilie häufig verwendet. Petersilie ist ein Bestandteil der Grünen Soße, sowohl nach der Frankfurter als auch Kasseler Rezeptur, eines typischen Gerichts deutscher Regionalküche, das sich besonders im hessischen Raum großer Beliebtheit erfreut. Petersilie wird auch zu Suppe verarbeitet, indem man sie in Gemüsebrühe kocht und püriert. Trivialnamen. Für die Petersilie sind oder waren, zum Teil nur regional, auch die Bezeichnungen "Beterli", "Federsielli" (althochdeutsch), "Felswurz" (mittelhochdeutsch), "Gartenäppich", "Krause" bzw. "Schlichte Krautpetersilie", "Kräutel" (Tirol Brixen), "Krullpetersilie", "Paiterling" (Bayern), "Pautersillle" (Eichsfeld), "Pedarsilli" (althochdeutsch), "Peiterzilk" (Pommern), "Perlin", "Peterchen", "Peterlein", "Petercelie" (mittelhochdeutsch), "Petercile" (mittelhochdeutsch), "Peterli" (Graubünden, Bern, Zürich, St. Gallen), "Peterlin", "Peterling", "Petersil", "Petersilge" (mittelhochdeutsch), "Petersilgen" (mittelhochdeutsch), "Petersile" (althochdeutsch), "Krause Petersilie", "Petersilienwurzel", "Petersiligen", "Petersille" (althochdeutsch), "Petersillige" (mittelhochdeutsch), "Petirsil" (althochdeutsch), "Petrosil" (althochdeutsch), "Pitterseltch" (Siebenbürgen), "Silk" (Bremen, niederdeutsch) und "Wurzelpetersilie" gebräuchlich. Purpur-Weide. Die Purpur-Weide ("Salix purpurea") ist eine Pflanzenart aus der Gattung der Weiden ("Salix"). Der Trivialname Purpur-Weide und das Artepitheton "purpurea" ist auf die auffällig rote Rinde der Zweige und die anfangs purpurfarbenen Kätzchen zurückzuführen. Vegetative Merkmale. Die Purpur-Weide ist ein großer, aufrechter, dicht buschiger Strauch, der Wuchshöhen von bis zu 6 Metern erreicht. Die Rinde der dünnen, biegsamen und zähen Zweige sind kahl, braun oder purpurrot gefärbt und anfangs manchmal kurz, samtig behaart, mit der Zeit verkahlend (Indument). Die oft gegenständig an den Zweigen angeordneten Laubblätter sind in Blattstiel und Blattspreite gegliedert. Der Blattstiel ist 2 bis 5 Millimeter lang. Die Blattspreiten sind an Langtrieben bis zu 12 Zentimeter lang und haben ihre größte Breite mit 12 bis 20 Millimeter im vorderen Drittel, an Kurztrieben bis zu 7 Zentimeter lang und 2 Zentimeter breit. Die Blattspreiten sind schlank lanzettlich und kurz zugespitzt. Der Blattrand ist von der Mitte bis zur Blattspitze hin fein scharf gesägt, am Blattgrund ganzrandig. Die unterschiedliche Gestaltung des Blattrandes geht allmählich ineinander über. Die Blattoberseite ist grün oder leicht bläulich und matt, der Hauptnerv ist gelb, die Blattunterseite ist heller und graugrün. Beide Seiten sind kahl. Nebenblätter sind keine vorhanden. Generative Merkmale. Die Blütezeit reicht von März bis April. Die Kätzchen sind lang, schlank zylindrisch, oftmals gegenständig und bogenförmig. Die männlichen Kätzchen sind dichtblütig. Staubfäden und Staubbeutel sind vollständig miteinander verwachsen. Die Staubbeutel sind anfangs purpurn, im blühenden Zustand gelb. Die weiblichen Kätzchen haben eine Länge von bis zu 4 Zentimetern. Die Fruchtknoten sind klein, gedrungen, dicht behaart und gedrängt sitzend. Die Narbe sitzt fast ohne Griffel auf. Das zweifarbige Tragblatt ist am Grund hell, am vorderen Teil schwarz gefärbt, lang behaart und bärtig. Das Nektarium ist kurz keulenförmig. Die Chromosomenzahl beträgt 2n = 38. Vorkommen. Die Purpur-Weide ist in Eurasien verbreitet. Sie kommt in weiten Teilen Europas vor. Sie fehlt im Norden Schottlands und in Skandinavien. Sie ist von der Ebenen bis in Höhenlagen von 1200 Metern an Wasserläufen und in Niederterrassen zu finden. Systematik. Die Erstveröffentlichung von "Salix purpurea" erfolgte 1753 durch Carl von Linné. Ein Synonym für "Salix purpurea" ist "Salix caesifolia". Paul Desmond. Paul Desmond (* 25. November 1924 in San Francisco, Kalifornien; † 30. Mai 1977 in New York City; eigentlich "Paul Emil Breitenfeld") war ein US-amerikanischer Cool-Jazz-Saxophonist. Leben und Werk. Bekannt wurde er durch das "Dave Brubeck Quartet" (er verfasste dessen größten Hit, "Take Five"), in dem er seit dessen Gründung im Jahr 1951 bis 1967 spielte. Er hatte einen klaren, leichten, fließenden Klang, den viele vergebens zu imitieren versuchten. Er liebte sanfte Balladen und glitt zuweilen in verträumte Soli ab, hatte aber immer eine klare Linie. Das Zusammenwirken seines leichten, luftigen Stils mit Brubecks schwerem, polytonalen Klavierspiel trug viel zum Erfolg des klassischen "Dave Brubeck Quartets" bei. Desmond arbeitete unter anderem mit Gerry Mulligan und Jim Hall zusammen. 1967, nach seinem Ausscheiden aus Brubecks Quartett, pausierte er eine Weile und tauchte später zeitweise in Wiedervereinigungen mit Brubeck, Mulligan, Hall, Ed Bickert und anderen auf; 1971 spielte er ein Weihnachtskonzert mit dem Modern Jazz Quartet. Seine Fähigkeit zum improvisierten Konterpart ist vielleicht am besten auf den zwei Alben hörbar, die er mit Gerry Mulligan aufgenommen hat ("Mulligan-Desmond Quartet" und "Two of a Mind"). Im Jahr 1977 wurde er in die "Jazz Hall of Fame" aufgenommen. Neben seinem Spiel war er für seine geistreiche Art bekannt, wie die "liner notes" seiner Solo-Alben und die Erinnerung Anderer belegen. Ein paar Jahre lang gab es das Gerücht, er würde an seiner Autobiographie schreiben, jedoch erschien sie nie. Er äußerte sich ironisch erfreut über den Zustand seiner Leber: „"Pristine, one of the great livers of our time. Awash in Dewar’s and full of health."“ Sein letztes Konzert veranstaltete er mit Brubeck im Februar 1977 in New York City. Seine Fans wussten nicht, dass er todkrank war. Desmond starb im selben Jahr und vermachte sein gesamtes Erbe incl. der immensen Tantiemen für "Take Five" dem Roten Kreuz. Planet. Ein Planet (des Sonnensystems) gemäß der Definition der Internationalen Astronomischen Union (IAU) ist ein Himmelskörper, Diese Definition geht auf einen Beschluss der IAU vom August 2006 zurück. Dies führte unter anderem dazu, dass Pluto seinen vormaligen Status als Planet verlor, was aber umstritten ist. Auch andere Himmelskörper, die nicht alle Punkte der Definition erfüllen, werden gelegentlich als „Planeten“ bezeichnet. Wortherkunft. Das Wort „Planet“ geht zurück auf griechisch πλανήτης (planētēs), zu πλανάομαι (planáomai), das auf Deutsch „umherirren, umherschweifen“ bedeutet und sich im Altgriechischen auf eine Herde bezog, die sich über die Weide ausbreitet. Daher wurden Planeten früher auch eingedeutscht als "Wandelsterne" bezeichnet, im Sinne von „die Umherschweifenden“ bzw. „die Wanderer“. Dabei wurde der Unterschied zwischen Planeten und anderen Himmelskörpern aufgrund des Fehlens der himmelsmechanischen Grundlagen bis in die frühe Neuzeit nicht korrekt erkannt, so dass durchaus Sonne und Mond wie auch Kometen und Anderes zu den Wandelgestirnen gezählt wurden. Zuordnungen. Ursprünglich, im geozentrischen Weltbild, wurden alle mit bloßem Auge regelmäßig sichtbaren Himmelserscheinungen, die sich vor dem Hintergrund des Fixsternhimmels bewegen, als Planeten bezeichnet und jeder einem Wochentag zugeordnet: Sonne, Mond, Mars, Merkur, Jupiter, Venus, Saturn. Mit Einführung des heliozentrischen Weltbildes ging die Bezeichnung Planet auf diejenigen über, die um die Sonne kreisen. Sonne und Mond fielen also heraus und die Erde kam dafür hinzu. Nach der Erfindung des Fernrohrs im Jahre 1608 von Hans Lippershey entdeckte William Herschel am 13. März 1781 den siebten Planeten des Sonnensystems: Uranus, der außerhalb der Saturnbahn die Sonne umkreist. Am 1. Januar 1801 entdeckte Giuseppe Piazzi den Zwergplaneten Ceres, der zwischen Mars und Jupiter die Sonne umrundet. Ceres wurde damals jedoch als achter Planet des Sonnensystems betrachtet. Am 28. März 1802 entdeckte Heinrich Wilhelm Olbers mit Pallas ein weiteres Objekt, das die Sonne zwischen Mars und Jupiter umkreist. Es folgten die Entdeckungen von weiteren Objekten, die zwischen Mars und Jupiter die Sonne umrunden: Juno (1804), Vesta (1807) und Astraea (1845). Damit war die Zahl der Planeten auf zwölf angestiegen. Im Jahre 1846 entdeckte Johann Gottfried Galle am 23. September einen 13. Planeten, der schließlich Neptun genannt wurde und die Sonne außerhalb der Bahn von Uranus umkreist. Weil sich die Neuentdeckungen von Objekten zwischen Mars- und Jupiterbahn ab dem Jahre 1847 zu sehr häuften und alle diese Objekte um Größenordnungen kleiner waren als alle klassischen Planeten, wurde diesen der Planetenstatus wieder aberkannt. Nur noch die Planeten, die seit der Antike bekannt waren, plus Uranus und Neptun galten weiterhin als Planeten. Damit sank die Zahl der vollwertigen Planeten auf acht. Für die zahlreichen Objekte zwischen Mars- und Jupiterbahn wurde die Klasse der Asteroiden (Planetoiden) eingeführt. Außer Merkur und Venus werden alle Planeten des Sonnensystems ihrerseits von natürlichen Satelliten umkreist, die nach dem Erdbegleiter auch „Monde“ genannt werden. Am 13. März 1930 entdeckte Clyde W. Tombaugh Pluto, dessen Umlaufbahn zum größten Teil außerhalb der des Neptuns liegt. Die Größe Plutos wurde anfangs weit überschätzt, und er wurde bis ins Jahr 2006 als neunter Planet geführt. Sein Planetenstatus war aufgrund seiner geringen Größe und seiner sehr elliptischen sowie stark gegen die Ekliptik geneigten Bahn umstritten. Viele Astronomen rechneten ihn schon früh dem Kuipergürtel zu, einem Reservoir von Kometen und Asteroiden, das im Inneren bis an die Neptunbahn heranreicht. Weil im Bereich von Plutos Umlaufbahn im Laufe der Zeit immer mehr vergleichbare Objekte entdeckt wurden – mit Eris sogar eines, das größer als Pluto erschien – wurde eine klare Definition für Planeten erforderlich. Mit der Festlegung der Internationalen Astronomischen Union (IAU) vom August 2006, dass Planeten den Bereich ihrer Umlaufbahn dominieren müssen, verlor Pluto den Planetenstatus. Damit wurde Pluto in die gleichzeitig geschaffene Klasse der Zwergplaneten eingestuft, deren Form durch ihre Gravitation und die durch ihre Rotation verursachten Zentrifugalkräfte bestimmt ist, ohne dass sie Planeten sind. Alle weiteren kleineren Körper wurden zu den so genannten Kleinkörpern zusammengefasst. Abstimmung über die Planetendefinition am 23. August 2006 Bis dahin hatte es kein klar definiertes Unterscheidungsmerkmal zwischen Planeten und Asteroiden gegeben. Im Jahr 2004 wurde von der IAU ein Komitee eingesetzt, um verbindliche Kriterien für die Definition eines Planeten zu erarbeiten. Auf der 26. Generalversammlung der IAU in Prag wurden am 24. August 2006 offizielle Definitionen für verschiedene Klassen der die Sonne umlaufenden Himmelskörper verabschiedet – und damit hauptsächlich die erste wissenschaftliche Definition eines Planeten. Definition. Gemäß IAU ist ein Himmelskörper ein Planet, wenn er Bereinigt im Sinne der Definition hat ein Planet auch Körper, die er in Bahnresonanzen gezwungen hat. Dies trifft u. a. für die Plutinos einschließlich Plutos im Bereich des Neptun, für die Trojaner in der Jupiterbahn und für 2002 AA29 in der Erdbahn zu. Da Pluto die Umgebung seiner Bahn nicht bereinigt hat, ist er ein Zwergplanet, ebenso wie Ceres und Eris. Für Planeten und Zwergplaneten jenseits der Neptunbahn war ursprünglich die Bezeichnung "Plutonen" vorgeschlagen worden, deren Prototyp Pluto gewesen wäre. Weil aber bereits in der Geologie der gleichlautende Fachbegriff Pluton verwendet wird, kam es hinsichtlich dieser Namensgebung zu keiner Einigung. Kritik an der Definition. Gegen die in Prag beschlossene Planetendefinition regt sich Kritik von Astronomen. Eine Expertenkommission hatte im Vorfeld der Konferenz eine Definition erarbeitet, die eine Erhöhung der Planetenanzahl auf 12 vorsah. Dies führte zu hitzigen Diskussionen und zu der schließlichen Kompromissdefinition. Eine Gruppe von Astronomen hat deswegen eine Petition verfasst, in der sie die Aufhebung dieser Definition und eine neue Abstimmung fordern. Bis zu ihrer Schließung am 31. August 2006 fand dieser Antrag 305 Unterschriften. Zu Gunsten der beschlossenen Definition kann die von Steven Soter eingeführte planetarische Diskriminante genannt werden. Sie gibt das Verhältnis der Masse eines Körpers zu der Masse der sonstigen Objekte in seiner Umlaufbahn an, sofern es sich dabei um keine Monde oder resonant umlaufende Himmelskörper handelt. Aufgrund einer planetarischen Diskriminante von 1.700.000 beherrscht die Erde ihre Umlaufbahn mehr als jeder andere Planet des Sonnensystems. Ebenfalls sehr dominant sind Venus und Jupiter. Von den acht Planeten besitzt Neptun die kleinste planetarische Diskriminante. Mit 24.000 ist sie aber immer noch deutlich größer als die größte Diskriminante eines Zwergplaneten. Bei Ceres beträgt der Wert 0,33 und bei Pluto gar nur 0,077. Andere Planeten. Da sich die zeitgenössische Astrologie ganz herkömmlich auf Ereignisse in Bezug auf die Oberfläche der Erde bezieht, betrachtet sie Sonne und Mond weiterhin als Planeten, die Erde jedoch weiterhin nicht. Den Pluto hat sie als Planeten miteinbezogen, zumal er gut in das bestehende System passt. Manche Astrologen berücksichtigen auch Ceres und andere der kleineren Objekte des Sonnensystems. Am Ende des 20. Jahrhunderts wurden die ersten Planeten aufgespürt, die sich außerhalb des Sonnensystems um einen anderen Stern bewegen. Die Zahl der bekannten extrasolaren Planeten, kurz Exoplaneten genannt, ist seither stark angestiegen. Der Bezug auf die Sonne. Zu den erdähnlichen (felsigen) Planeten oder auch zum inneren Sonnensystem zählen der Merkur, die Venus, die Erde und der Mars. Die jovianischen Planeten beziehungsweise Gasplaneten des äußeren Sonnensystems sind Jupiter, Saturn, Uranus und Neptun. Uranus und Neptun werden auch Eisriesen genannt. Die mittleren Abstände der Planeten zur Sonne lassen sich recht genau mit der Titius-Bode-Reihe angeben. Zwischen Mars und Jupiter klafft hier eine Lücke, die durch den Zwergplaneten Ceres sowie eine große Zahl an Kleinkörpern innerhalb des Asteroidengürtels gefüllt wird; allerdings tritt der Abstand des Neptun nicht in der Reihe auf. Vor der Planetendefinition wurden das System der Erde und ihres verhältnismäßig auffallend großen Mondes sowie das insofern ähnliche Pluto-Charon-System mitunter als Doppelplanetensystem bezeichnet. Um sich die Reihenfolge der Planeten – von der Sonne aus gesehen – leichter einprägen zu können, wurden verschiedene Merksprüche aufgestellt, siehe Abschnitt im Artikel "Sonnensystem". Gruppierungen. Der Asteroidengürtel trennt das innere vom äußeren Planetensystem. Der große Bereich der Transneptun-Objekte (TNOs) wird mitunter auch als eine dritte Zone angesehen. Damit zählen Merkur, Venus, Erde und Mars zu den inneren Planeten, und Jupiter, Saturn, Uranus und Neptun zu den äußeren Planeten. Diese Unterscheidung ist nicht zu verwechseln mit der Gruppierung in die unteren Planeten, welche die Sonne innerhalb der Erdbahn umlaufen – also Merkur und Venus – und in die oberen Planeten, die sich außerhalb der Erdbahn bewegen. Will man die Planeten beobachten, benötigt man je nach Größe und Entfernung des Planeten Teleskope mit einem Öffnungsdurchmesser von mindestens 7,5 Zentimeter (ca. 3 Zoll; für Jupiter, Saturn, Mars, Venus und Merkur) bis 30,5 Zentimeter (ca. 12 Zoll; für Uranus und Neptun). Planeten des Sonnensystems. Die Planeten Merkur, Venus, Mars, Jupiter und Saturn sind mit bloßem Auge am Nachthimmel erkennbar und erscheinen heller als die meisten Fixsterne. Sie waren bereits in der Antike bekannt und wurden von vielen Kulturen mit ihren Hauptgöttern identifiziert. Die noch heute verwendeten Namen stammen aus der römischen Mythologie. Obwohl es bereits in der Antike Vertreter des heliozentrischen Weltbilds gab (zum Beispiel Aristarchos von Samos), wurde bis Mitte des 16. Jahrhunderts allgemein angenommen, dass sich die Planeten mitsamt der Sonne um die Erde bewegen (geozentrisches Weltbild). 1543 veröffentlichte Nikolaus Kopernikus, angeregt durch Aristarchos, sein Werk "De revolutionibus orbium coelestium" („Von den Umdrehungen der Himmelskörper“), in dem er die Sonne in den Mittelpunkt stellte und die Erde als weiteren Planeten erkannte. Unter günstigen Bedingungen ist der Planet Uranus auch mit bloßem Auge zu erkennen, und er wurde bereits 1690 fälschlicherweise als Stern katalogisiert. Er wurde erst 1781 von Sir Friedrich Wilhelm Herschel als Planet erkannt. Mit Hilfe der älteren Beobachtungen gelang es Johann Elert Bode, die Umlaufbahn genau zu bestimmen. Anhand von Bahnstörungen des Uranus berechneten Urbain Le Verrier und John Couch Adams unabhängig die Bahn eines weiteren Planeten, dies führte am 23. September 1846 zur Entdeckung Neptuns durch Johann Gottfried Galle. Durch den neu entdeckten Planeten konnten jedoch nicht sämtliche Unregelmäßigkeiten in der Uranusbahn erklärt werden. Schließlich wurde 1930 von Clyde W. Tombaugh ein weiteres Objekt entdeckt und später Pluto genannt. Dieser galt lange als neunter Planet, wurde jedoch am 24. August 2006 beim Zusammentreffen der IAU, gebildet aus Vertretern zahlreicher Staaten, seines Planetenstatus enthoben. Die Existenz eines weiteren Planeten (Transpluto oder "Planet X") im Sonnensystem galt lange als wahrscheinlich, konnte jedoch nie belegt werden. Seit Ende der 1990er Jahre werden zunehmend Objekte jenseits der Neptun- beziehungsweise der Plutobahn entdeckt. Diese transneptunischen Objekte wurden gelegentlich von der Presse ebenfalls als Planet bezeichnet. So zum Beispiel Quaoar (2002), Orcus (2004) Sedna (2004) oder Eris (2005). Dieser Zuwachs an neuentdeckten Himmelsobjekten im Sonnensystem wurde durch die verfeinerte Beobachtungstechnik ermöglicht, die nun auch die exakte wissenschaftliche Definition von Planeten erfordert und ermöglicht. Während diesen zusätzlichen Objekten gute Chancen gegeben wurden, als Planeten anerkannt zu werden, entschied die 26. Vollversammlung der IAU 2006, stattdessen Pluto den Planetenstatus abzuerkennen und ihn als Zwergplanet einzustufen. Extrasolare Planeten. Die ersten Planeten überhaupt, die außerhalb des Sonnensystems entdeckt wurden, begleiten den Pulsar PSR B1257+12. Durch genaue Messungen der Wiederkehrzeit des Strahls, der die Erde vom Pulsar aus erreicht, konnten 1992 zwei Planeten mit Massen von 4,3 und 3,9 Erdmassen nachgewiesen werden und 1994 ein dritter mit 0,02 Erdmassen. Auf diesen Planeten ist Leben, wie wir es von der Erde kennen, praktisch ausgeschlossen. Der erste Exoplanet in einem Orbit um einen sonnenähnlichen Stern wurde 1995 von Professor Michel Mayor vom Departement für Astronomie der Universität Genf und seinem Mitarbeiter Didier Queloz mit Hilfe der Radialgeschwindigkeitsmethode entdeckt. Der Planet umrundet im 4,2-Tagestakt den von der Sonne etwa 40 Lichtjahre entfernten Stern 51 Pegasi und hat 0,46 Jupitermassen. Bis Ende des Jahres 2009 waren 415 extrasolare Planeten in 350 Systemen bekannt, darunter 31 Planetensysteme mit zwei Planeten, 12 Systeme mit drei, 2 Systeme mit vier und 1 System mit fünf Planeten. Im Umkreis von etwa 100 Parsec (326 Lichtjahren) wurden bis März 2003 um sieben Prozent der Sterne Planeten gefunden. Die meisten der bis jetzt entdeckten Systeme sind aber nicht mit dem Sonnensystem vergleichbar, bei den Planeten handelt es sich meist um Gasriesen, die ihren Zentralstern in einer sehr engen Umlaufbahn begleiten. Dies ist allerdings noch nicht als Hinweis zu werten, dass die meisten extrasolaren Planeten Gasriesen sind; derzeit können nur solch große oder schwere Planeten, die zugleich nahe an ihrem Stern "stehen" und diesen daher stärker beeinflussen, mit den heute verfügbaren technischen Instrumenten zuverlässig entdeckt werden. Diese Planeten werden von Astronomen "hot Jupiters" genannt. Nach einer Theorie sind sie, wie Jupiter, in relativ großem Abstand von ihrem Zentralstern in der Akkretionsscheibe entstanden, dann aber nach innen gewandert. Nach einer anderen Theorie sind sie jedoch wie Sterne aus einer Gaswolke kondensiert. Exoplaneten im Orbit um sonnenähnliche Sterne konnten bis 2005 nicht mit Teleskopen direkt beobachtet werden, da sie sehr lichtschwach sind. Sie werden von dem um ein Vielfaches helleren Stern, den sie umrunden, überstrahlt. Das Auflösungsvermögen von erdgestützten Teleskopen reicht heute noch nicht dazu aus, um zwei so relativ nahe beieinander liegende Objekte mit so großem Helligkeitsunterschied wie einen Planeten und seinen Stern getrennt darzustellen. Man nutzt daher verschiedene indirekte Methoden wie die Transitmethode, bei der durch die Bedeckungen des Sterns durch den Planeten periodische Helligkeitsabsenkungen des Sterns verursacht werden, falls die Umlaufbahn so liegt, dass der Planet von uns aus gesehen genau vor dem Stern vorbeizieht. Eine andere Methode ist die Radialgeschwindigkeitsmethode, bei welcher der Planet durch seinen Schwerkrafteinfluss am Stern zieht (beide umrunden den gemeinsamen Schwerpunkt) und somit von der Erde aus diese periodische Bewegung eine abwechselnde Rot- und Blauverschiebung (Doppler-Effekt) des Spektrums des Sterns bewirkt. Am 10. September 2004 gab die Europäische Südsternwarte (ESO) bekannt, dass möglicherweise erstmals eine direkte Aufnahme eines Planeten beim 225 Lichtjahre entfernten Braunen Zwerg 2M1207 gelungen ist. Am 30. April 2005 berichtete die ESO, im Februar und März 2005 mit dem Very Large Telescope aufgenommene Fotos zeigten zusammen mit den älteren Aufnahmen, dass sich 2M1207 und sein Begleiter, durch die Schwerkraft aneinander gebunden, tatsächlich gemeinsam bewegten. Dies könne als Beleg dafür gewertet werden, dass tatsächlich der erste fotografische Nachweis eines Exoplaneten gelungen sei. Pierre Laplace. Das erste wissenschaftliche Modell der Planetenentstehung geht ins Jahre 1796 zurück, und wurde von Pierre-Simon Laplace formuliert. Laplace ging von einem langsam rotierenden Gasball aus, der unter der Eigengravitation kollabiert. Wegen der Erhaltung des Drehimpulses kollabiert dieser Gasball zu einem linsenartigen Gebilde. Er nahm an, dass nach dem Kollaps die Materie in Ringen um das Zentralobjekt angeordnet sei, und dass jeder Planet aus einem der Materieringe entstand. James Jeans. James Jeans publizierte im Jahre 1917 ein alternatives Modell. Er nahm an, dass der präsolare Nebel während des Kollaps in die Nähe eines massiven Sterns kam und dass die Gas- und Staubwolke durch die Gezeitenkräfte zerrissen wurde und fragmentierte. Aus den Fragmenten sind dann später die Planeten entstanden. Moderne Theorie. Die modernen Theorien der Planetenentstehung sind eng verknüpft mit der Entstehung neuer Sterne. Ähnlich wie bei Laplace geht man davon aus, dass eine präsolare Gas/Staubwolke kollabiert. Durch die Erhaltung des Drehimpulses bildet sich eine protoplanetare Gas- und Staubscheibe, aus der die Planeten entstehen. Die Entstehung von Planeten und Planetensystemen ist bis heute (2008) noch nicht vollständig erklärt. Aus radiometrischen Datierungen von Asteroiden und Beobachtungen von Akkretionsscheiben um andere Sterne ergaben sich aber bisher einige zeitliche Gegebenheiten, die alle Theorien erfüllen sollten. So konnten die Messungen zeigen, dass sich 0,1 bis 2 Millionen Jahre nach Start der Kernfusion im Stern, Staubkörner zu Planetenkeimlingen mit Mond- bis Erdmasse zusammenlagerten. Am Ende dieser Zeit entsteht der erste Gasriese des Systems und säubert das System von Asteroiden der ersten Generation. Im Bereich von bis zu 10 Millionen Jahren löst der Gasriese die Bildung weiterer Gasplaneten und auch anderer terrestrischer Trabanten aus. Die Scheibe um den Stern enthält zu dieser Zeit kaum noch Gas, damit ist die Planetenentstehung abgeschlossen. Im Zeitraum bis zu einer Milliarde Jahre nach Geburt des Sternes verdrängen die Gasriesen dann alle noch übrig gebliebenen Planetenkeimlinge hinaus in den Kuipergürtel oder in die Sonne. Die modernen Theorien liefern aber heute schon einige befriedigende Antworten. Im Folgenden werden zwei weit verbreitete Theorien dargestellt. Neben diesen gibt es noch eine Vielzahl von anderen Theorien, insbesondere von hybriden Modellen. Kernakkretionsmodell. Das Kernakkretionsmodell wurde 1969 von dem russischen Physiker Victor S. Safronov vorgestellt. Staub migriert langsam in die Äquatorialebene der protoplanetaren Scheibe. Dabei kollidieren einzelne, etwa ein Mikrometer große Staubpartikel und kleben zusammen. So bilden sie Staubkörner, die langsam weiter anwachsen und in die Zentralebene der Scheibe wandern. formula_1 (mit formula_2 – der Flächendichte der Teilchen, formula_3 – der Keplergeschwindigkeit der Scheibe, formula_4 – der Entweichgeschwindigkeit so wie formula_5 – der Geschwindigkeit der Teilchen). Da man für die große Anzahl von Teilchen in einer Scheibe keine klassische Viel-Teilchen-Theorie verwenden kann, rechnet man mit einer „Particle-in-a-box“-Näherung. Dabei ergeben sich zwei mögliche Entwicklungen. Entweder ein geordnetes Gesamtwachstum oder ein so genannter Runaway-Effekt. Beim Runaway-Effekt wachsen große Teilchen aufgrund der geringen Relativgeschwindigkeit formula_5 besonders schnell. Diese Teilchen haben nach einer gewissen Zeit eine sehr viel höhere Masse und sind von der Massenverteilung der restlichen Teilchen völlig entkoppelt. Die größten Planetesimale beginnen, ihre Umgebung von Materie zu enträumen. Dabei entstehen Objekte bis zu etwa einer Marsmasse. In der letzten Phase beginnen nun die großen Objekte, nachdem sie ihre Umgebung von Materie bereinigt haben, miteinander zu wechselwirken. Es kommt zu Kollisionen und Fraktionierungen, wobei Venus- bzw. Erdmassen erreicht werden. Zu diesen Zeitpunkt ist das protoplanetare System schon etwa zehn Millionen Jahre alt. Hat ein Objekt die kritische Größe von etwa zehn Erdmassen erreicht, so beginnt es das umliegende Gas zu akkretieren. Es entsteht ein Gasgigant. Gravitations-Instabilitäten-Modell. Das Gravitations-Instabilitäten-Modell geht davon aus, dass die protoplanetare Scheibe genügend massiv ist, so dass ihre Selbstgravitation nicht vernachlässigt werden darf. Wird das sogenannte Toomre-Kriterium erfüllt, beginnt die protoplanetare Scheibe, gravitativ instabil zu werden. Dies führt zunächst einmal dazu, dass sich Spiralarme ausbilden, und sich das Gas lokal stark verdichtet. Im Extremfall kann das dazu führen, dass die Gasklumpen durch die Selbstgravitation dominiert werden und zu Gasgiganten zusammenfallen. Planemos. Astronomische Objekte, welche die Größe und vor allem die Masse eines Planeten haben, aber keinen Stern begleiten, werden im engeren Sinn auch als „Objekte planetarer Masse“ oder kurz als „Planemos“ bezeichnet. Im Unterschied zu Exoplaneten, die von ihren Fixsternen erwärmt werden können, ist auf Planemos eine Kosmochemie – das heißt eine chemische Evolution komplizierter, organischer Verbindungen – kaum möglich. Häufigkeit. Nach dem derzeitigen Wissensstand scheinen Planemos recht häufig zu sein. Beobachtungen der Forschungsgruppen MOA und OGLE mithilfe des Mikrolinseneffektes zeigten, dass es in der Milchstraße wahrscheinlich 1,8-mal soviele Planemos wie Sterne gibt. Charakteristische Formeln. formula_10 gesteinig, formula_11 gasartig formula_12 Sonstiges. Die erste weiche Landung auf einem anderen Planeten gelang der Menschheit am 15. Dezember 1970 auf dem erdähnlichen Planeten Venus mit der sowjetischen Sonde Venera 7. Mit Venera 3 und Venera 4 gelangen zuvor erste harte und fast-weiche Planetenlandungen am 1. März 1966 und am 18. Oktober 1967, wobei Venera 4 über die gesamte Betriebszeit von 96 Minuten aus der Venusatmosphäre erfolgreich Daten übertrug. Der englische Komponist Gustav Holst, selbst Hobby-Astronom, schrieb die symphonische Suite "Die Planeten". Sie gehört zu den bekanntesten Programmmusiken. Die einzelnen Titel orientieren sich an astrologischen Planetensymbolen, beispielsweise "Mars, der Mittler des Krieges" oder "Neptun, der Mystische". Ein Planetarium ist ein Gebäude, in dem Bewegungen und Ereignisse des Nachthimmels mithilfe von Projektionen simuliert werden. Einzelnachweise. !Planet Pentatonik. Als Pentatonik (gr. "penta-" „Fünf-“) oder Fünfton-Musik bezeichnet man aus fünf verschiedenen Tönen bestehende Tonleitern und Tonsysteme. Man unterscheidet "hemitonische" Fünftonskalen mit Halbton-Schritten von "anhemitonischen" ohne Halbtonschritte. Pentatonik ist das älteste nachgewiesene Tonsystem, das man etwa aus Funden von bis zu 3700 Jahren alten Knochenflöten mit drei bis vier Grifflöchern erschließt. Sie kennzeichnet seit etwa 3000 v. Chr. – vermutlich ausgehend von Mesopotamien – die Musik vieler indigener Völker Asiens, Afrikas, Amerikas und des frühen Europas. Sie gilt auch als Vorläufer der aus Griechenland stammenden europäischen Heptatonik. Anhemitonische Pentatonik. 400px Anhemitonische Skalen enthalten keine Halbtonschritte. Ihre Tonfolge aufwärts entspricht den Tönen C, D, E, G, A, einer C-Dur-Skala, also den Intervallen Ganzton, Ganzton, kleine Terz, Ganzton. Es fehlen die beiden Halbtonschritte E zu F und H zu C, so dass keine kleinen Sekunden, großen Septimen und Tritoni vorkommen. Damit entfällt jede Leitton-Wirkung in der Skalenmelodik. Da jeder Skalenton mit jedem harmoniert, wird ihr Gesamtklang für das Ohr leicht greifbar, wobei ihr tonales Zentrum jedoch mehrdeutig ist. Diese Skala wurde in China bereits im Altertum aus der Schichtung von vier Quinten abgeleitet, deren Töne in denselben Oktavraum transponiert wurden. Sie wurde auf zwölf verschiedenen Tonhöhen im Halbtonabstand gebildet. Zu jedem der zwölf Grundton-Stufen gehören je fünf Modi (Umkehrungen der Tonfolge), so dass sich insgesamt 60 verschiedene pentatonische Skalen ergeben (siehe Chinesische Tonleitern). Diese Modi werden in europäischer Tonalität in das Dur-Moll-Tonsystem integriert. Dabei betrachtet die klassische Harmonielehre die Dur-Pentatonik (Zeile 1) als Ausgangspunkt, die Moll-Pentatonik (Zeile 5) als davon abgeleitete Parallele, die mit dem fünften Ton der Dur-Version oder eine kleine Terz unter deren Grundton beginnt. Die übrigen Umkehrungen dieser fünf Töne (Zeilen 2-4) werden nicht als gleichwertige Modi betrachtet. Die folgende Grafik ordnet die Tonstufen einer pentatonischen Skala in eine chromatische Tonleiter ein und veranschaulicht so ihre Intervallstruktur. Jedes Kästchen steht für eine der insgesamt zwölf Tonstufen, die in Halbtonschritten aufeinander folgen. Die markierten und nummerierten Töne gehören zum Dur-Modus (linker Kästchenturm) oder Moll-Modus (rechter Kästchenturm) der pentatonischen Skala. Kinderlieder. Viele Kinderlieder basieren auf der Pentatonik. Die einfachsten davon bestehen aus einer Zweiton-Formel, der sogenannten Kuckucks- oder Rufterz: zum Beispiel "Kuckuck, Eierschluck" (mit Tönen von C-Dur notiert: G-E-G-G-E). Dreiton-Formeln enthalten zusätzlich die Sekunde über der Rufterz, etwa der Anfang von "Backe, backe, Kuchen" (G-G-A-A-G-E) und "Laterne, Laterne, Sonne, Mond und Sterne" (A-G-E, A-G-E, G-G-A-A-G-E) sowie dessen Schluss "...aber meine liebe Laterne nicht" (G-G-G-G-A-A-A-G-G-E). Beide Lieder enthalten zudem den Grundton der Dur-Pentatonik, mit dem sich Quintsprünge und Dreiklänge bilden lassen: "Der" "Bäcker hat gerufen" (C-G-G-A-A-G-E); "bren-'ne auf mein Licht..." (C-E-G-G-E). Fünfton-Formeln enthalten alle fünf Töne einer Pentatonik, etwa "Old Mac Donald had a farm, hea hea ho!" (C-C-C-G-A-A-G, E-E-D-D-C). Die Werbung nutzt die Eingängigkeit und leichte Merkbarkeit pentatonischer Melodien, die Kinderliedern nachempfunden sind: etwa "Haribo macht Kinder froh und Erwachsene ebenso" (G-G-E-A-G-G-E, G-G-A-A-G-G-E). Auch ansonsten diatonische Kinder- und Volkslieder enthalten oft pentatonische Teile oder Phrasen, etwa der A-Teil von "Oh Susanna" (C-D-E-G-G-A-G-E-C-D-E-E-D-C-D). Darum nehmen manche Musikhistoriker an, dass Pentatonik die Keimzelle melodischer Musik überhaupt war. Musikpädagogik. Auf der Einfachheit und Kindgemäßheit pentatonischer Musik fußen verschiedene Entwürfe und Methoden der Musikpädagogik. In der seit etwa 1900 entstandenen anthroposophischen Waldorfpädagogik spielt eigenes pentatonisches Liedgut und Instrumentarium (etwa Choroiflöten und Kinderharfen) in Kindergarten und Schule eine Rolle. Carl Orff entwickelte im 20. Jahrhundert ein eigenes Instrumentarium für Kinder zur pentatonischen Improvisation und entsprechendes Repertoire: darunter das "Spielbuch für Xylophon." Daran anknüpfend entwickelte die Belgierin Lucy Gelber in den 1970er Jahren ein entsprechendes System. In einer groß angelegten Studie kam sie zu dem Schluss, dass sich Intervallverständnisse in Kindern „kristallisieren“. Sie könnten zuerst Grundtöne, dann Quinten, dann große Sekunden identifizieren und intonieren. Nach und nach entwickle sich das kindliche Melodieempfinden bis zur Dur-Pentatonik. a>en Je eine Zweier- und Dreiergruppe der schwarzen Tasten einer Klaviatur bilden zusammen eine pentatonische Skala. Manche Klavierschulen, so die von Peter Heilbut, beginnen mit Improvisationsaufgaben nur auf schwarzen Tasten, um Anfängern leichten spielerischen Zugang dazu und ein einfaches Melodieverständnis zu vermitteln. Pentatonik wird auch in der Musiktherapie verwendet. Europäische Kunstmusik. In der europäischen Kunstmusik wurde Pentatonik lange Zeit nicht eigens thematisiert, sondern als integraler Bestandteil der traditionellen heptatonischen Kirchentonarten betrachtet und verwendet. Sie beeinflusste manche alte Choralmelodien, trat seit der Durchsetzung der Dur-Moll-Tonalität jedoch weitgehend zurück. Der zeitgenössische Komponist Lou Harrison verwendete in manchen seiner Werke neue pentatonische Skalen. Gospel und Blues. Dur-Pentatonik bestimmt einige Gospels in Nordamerika, etwa das afroamerikanische "Swing Low, Sweet Chariot" und das schottische oder irische "Amazing Grace". Die Sprachmelodik westafrikanischer Völker ähnelt der Moll-Pentatonik, auf der die Bluestonleiter beruht. Diese enthält zusätzlich eine "flatted fifth" (verminderte Quinte), die die identischen Hälften der Skala (von unten: kleine Terz, Ganztonschritt) mit einem chromatischen Halbtonschritt verbindet. Die Bluestonleiter kommt in fast allen Formen moderner Rock-, Pop- und Jazzmusik vor. Rock und Pop. Da pentatonische Melodien auf einer Gitarre leicht auffindbar und spielbar sind, werden sie von Anfängern oft als erstes gelernt. Da potentielle Spannungstöne fehlen, ist Pentatonik auch zur Improvisation gut geeignet. Berühmte Gitarrensoli, wie zum Beispiel aus der Guns-N’-Roses-Coverversion von Knockin’ on Heaven’s Door, verwenden pentatonisches Material. Das Titelthema des Songs Perfect Strangers (aus dem gleichnamigen Album "Perfect Strangers") von Deep Purple ist ein schönes Beispiel für reine Moll-Pentatonik. Jazz. Dur- oder Moll-Pentatonik prägt zum einen teilweise die Themen einiger Jazzstandards: zum Beispiel "Afro Blue", "Mercy, Mercy, Mercy", "Summertime", "Take Five", "Watermelon Man" und andere. Zum anderen dient sie in der Jazzimprovisation dazu, „trotz atonal oder dissonant erscheinenden Tonmaterials die Verbindung zur Konsonanz nicht zu verlieren“. In John Coltranes "Giant Steps" etwa hilft sie, die komplexe und rasch wechselnde Harmonik durch einfache Melodik auszugleichen und die Verbindung zwischen den entfernt verwandten Kadenzklängen hörbarer zu machen. In der heutigen Jazzharmonik werden jedem Akkord mehrere pentatonische Skalen zugeordnet, mit deren Tönen darüber improvisiert werden kann. Man kann z. B. über den Akkord C6/maj9 (C, E, G, A und D) eine C-, G- oder sogar D-Dur-Pentatonik spielen und damit jeweils andere Zusatztöne zum C-Dur-Dreiklang hervorheben. Dies hilft auch, sogenannte "avoid notes" (verbotene Töne aus der zum Akkord gehörigen heptatonischen Tonleiter, hier: F) in der Improvisation zu vermeiden. Der in der G- und D-Dur-Pentatonik fehlende Grundton C wird als Vorteil empfunden, da so mehr Spannungen und Klangfarben im Verhältnis zu Basston und Begleitakkord entstehen. Auch dazu absichtlich dissonante Pentatonik – etwa Des-Es-F-As-Bes über C-Dur – wird verwendet ("out"), weil die Melodik wegen der einfachen Intervallfolgen in sich nachvollziehbar bleibt und die Dissonanz durch Rückung um einen Halbton nach unten leicht wieder aufgelöst werden kann. Ein Dominantseptakkord wird im modernen Jazz beim Begleiten ("comping") oft mit weiteren Zusatztönen ("options") über der Septime angereichert. Um dazu passend zu improvisieren, mit dem Harmoniegeber zu kommunizieren und dessen Akkordwahl mitzubestimmen, haben Jazzmusiker einzelne Tonstufen der Durpentatonik um einen Halbton erniedrigt („alteriert“) und so neue, künstliche pentatonische Modi geschaffen. So kann man über einem C-7-Akkord (C, E, G, Be) mit der Pentatonik C-Dur-bII (C, Des, E, G, A), Es-Dur-bII (Es, E, G, Be, C), Ges-Dur-bII (Ges, G, Be, Des, Es) oder A-Dur-bII (A, Be, Cis, E, Fis) sowie D-Dur-bVI (D, E, Fis, A, Be) oder As-Dur-bVI (As, Be, C, Es, E) improvisieren und damit jeweils verschiedene mögliche Zusatztöne zum C-7-Akkord hervorheben. Pluto. Pluto ist der größte bekannte Zwergplanet und ein prominentes Objekt des Kuipergürtels. Er ist nach dem römischen Gott der Unterwelt benannt. Ferner wurden nach Pluto die neudefinierten Klassen der Plutoiden und der Plutinos benannt. Das astronomische Symbol des Pluto ist Astronomisches Symbol des Pluto. In der Astrologie wird auch Astrologisches Symbol des Pluto verwendet. Im Januar 2006 wurde mit New Horizons erstmals eine Raumsonde zum Pluto ausgesandt; sie passierte ihn am 14. Juli 2015 in 12.500 km Entfernung. Pluto besitzt etwa ein Drittel des Volumens des Erdmondes und bewegt sich auf einer noch exzentrischeren Bahn um die Sonne als der Planet Merkur. Von seiner Entdeckung am 18. Februar 1930 bis zur Neudefinition des Begriffs „Planet“ am 24. August 2006 durch die Internationale Astronomische Union (IAU) galt Pluto als der neunte und äußerste Planet des Sonnensystems. Als immer neue, ähnlich große Körper im Kuipergürtel gefunden wurden, wie zum Beispiel (136199) Eris oder 1992 QB1, wurde ihm der Planetenstatus aberkannt und er den Zwergplaneten zugeordnet. In der Folge wurde Pluto von der IAU mit der Kleinplanetennummer 134340 versehen, sodass seine vollständige offizielle Bezeichnung nunmehr (134340) Pluto ist. Bahn. Pluto benötigt für eine Sonnenumrundung 247,68 Jahre. Im Vergleich zu den Planeten ist die Umlaufbahn Plutos deutlich exzentrischer, mit einer numerischen Exzentrizität von 0,2488. Das heißt, der Abstand zur Sonne ist bis zu 24,88 % kleiner oder größer als die große Halbachse. Der sonnenfernste Punkt der Plutobahn, das Aphel, liegt bei 49,305 AE, während der sonnennächste Punkt, das Perihel, mit 29,658 AE näher an der Sonne liegt als die sehr wenig exzentrische Bahn Neptuns. Zum letzten Mal durchlief Pluto diesen Bereich, in dem er der Sonne näher ist als die Neptunbahn, vom 7. Februar 1979 bis zum 11. Februar 1999. Das Perihel passierte Pluto 1989. Sein Aphel wird er im Jahr 2113 erreichen. Dort beträgt die Sonnenstrahlung nur etwa 0,563 W/m². Auf der Erde ist sie 2430-mal so hoch. Für einen Beobachter auf Pluto wäre der scheinbare Durchmesser der Sonne nur etwa 1/50 des scheinbaren Sonnendurchmessers, den wir auf der Erde gewohnt sind. Die Sonne sähe für diesen Beobachter wie ein extrem heller Stern aus, der Pluto 164-mal so hell wie der Vollmond die Erde beleuchtet. Aufgrund der großen Entfernung zur Erde unterscheidet sich die scheinbare Helligkeit zwischen Opposition und Konjunktion nur um 0,1 mag. Hingegen verändert die exzentrische Bahn die scheinbare Helligkeit zwischen 13,65 mag und 16,3 mag, was 2,65 mag Differenz entspricht. Auffällig ist, dass Pluto in der Zeit, in der sich Neptun dreimal um die Sonne bewegt, genau zweimal um die Sonne läuft. Man spricht daher von einer 3:2-Bahnresonanz. Pluto galt bis zur Entdeckung vieler anderer, ähnlicher Objekte, als ein entwichener Mond des Neptuns. Seine ausgeprägt exzentrische und mit 17° stark gegen die Ekliptik geneigte Bahn und geringe Größe ließen dies vermuten. Der große Neptunmond Triton soll von Neptun eingefangen worden sein und dabei das ursprüngliche Mondsystem beträchtlich gestört haben: Pluto sei hierdurch aus dem Neptunsystem herauskatapultiert worden und die erhebliche Bahnexzentrizität des Neptunmondes Nereid sei entstanden. Für das Einfangen des Triton spricht dessen rückläufiger Umlaufsinn, weshalb dieses nach wie vor die gängige Theorie für Triton ist. Aber man geht nun nicht mehr vom herauskatapultierten Pluto aus. Die Entdeckung zahlreicher weiterer transneptunischer Objekte am Rande des Planetensystems hat erwiesen, dass Pluto der größte und jedenfalls der hellste Vertreter des Kuipergürtels ist, einer Anhäufung Tausender Asteroiden und Kometenkerne in einer scheibenförmigen Region hinter der Neptunbahn. Auch Triton soll vor seinem vermuteten Einfang ein Mitglied dieses Gürtels gewesen sein. Viele der Kuipergürtelobjekte befinden sich wie Pluto in einer 3:2-Bahnresonanz mit Neptun und werden als Plutinos bezeichnet. Mit Methoden der Himmelsmechanik kann man zeigen, dass deren typischerweise sehr exzentrische Umlaufbahnen über Jahrmillionen stabil sind. Rotation. links Pluto rotiert in 6,387 Tagen einmal um die eigene Achse. Die Äquatorebene ist um 122,53° gegen die Bahnebene geneigt, somit rotiert Pluto rückläufig. Seine Drehachse ist damit noch stärker geneigt als die des Uranus, aber im Unterschied zum Uranus und zur Venus ist der Grund dafür allgemein ersichtlich, ebenso die Ursache für Plutos ziemlich große Rotationsperiode, denn die Eigendrehung des Zwergplaneten ist durch die Gezeitenkräfte an die Umlaufbewegung seines sehr großen Mondes Charon gebunden. Damit sind Pluto und Charon die einzigen bisher bekannten Körper im Sonnensystem mit einer doppelt gebundenen Rotation. Aufbau. Mit einem Durchmesser von lediglich 2370 km ist er deutlich kleiner als die sieben größten Monde im Sonnensystem. Sein Aufbau ist vermutlich ähnlich dem des größeren und noch kälteren Triton. Er ist von ähnlicher Dichte, besitzt eine sehr dünne Atmosphäre aus Stickstoff, ist ebenso von einer eher rötlichen Färbung, hat Polkappen, und in Richtung des Äquators herrschen dunklere Gebiete vor. Innerer Aufbau. Schema des theoretischen Schalenaufbaus von Pluto Plutos mittlere Dichte beträgt 1,869 g/cm³; bei einer Dichte von rund 2 g/cm³ ist eine Zusammensetzung aus etwa 70 % Gestein und 30 % Wassereis wahrscheinlich. Nach dem aktuellen Modell von Plutos Aufbau hat sich sein Inneres durch die Wärme von radioaktiven Zerfallsprozessen in eine Kern-Mantel-Struktur differenziert. Der Kern besteht zum größten Teil aus Gestein und misst 70 % von Plutos Durchmesser. Unter der Oberfläche aus vorherrschendem Stickstoffeis wird der Kern von einem Mantel aus Wassereis umhüllt. In der Übergangszone zwischen Kern und Mantel könnte sich durch die inneren Schmelzvorgänge ein möglicherweise heute noch existierender, globaler extraterrestrischer Ozean gebildet haben. Oberfläche. Ab 2004 wurde der Doppelplanet mit dem Spitzer-Weltraumteleskop im thermischen Infrarot beobachtet. Die Lichtkurven zeigten, dass Pluto mit rund 40 Kelvin etwa 10 Kelvin kälter ist als Charon. Ursachen sind eine höhere Albedo, wodurch weniger Sonnenlicht absorbiert wird, und eine größere thermische Trägheit, wodurch die Rotation mehr Wärme auf die Rückseite transportiert. Plutos Oberfläche zeigt nach der des Saturnmondes Iapetus unter allen übrigen Körpern des Sonnensystems die größten Helligkeitskontraste. Das erklärt die ausgeprägten Helligkeitsschwankungen, die schon von 1985 bis 1990 bei Verfinsterungen durch seinen großen Mond Charon gemessen wurden. Durch den Vorbeiflug von New Horizons konnte von Plutos Oberfläche die Nordhalbkugel und die südliche Äquatorialzone abgelichtet werden; über den Rest herrschte die jahreszeitliche Polarnacht. Die detailreichsten Aufnahmen wurden von den Bereichen gewonnen, die inmitten der vom Mond Charon ständig abgewandten Seite um den 180. Längengrad liegen. Dort fällt eine helle, näherungsweise herzförmige, homogen erscheinende Region auf. Sie liegt zum flächenmäßig größeren Anteil nördlich des Äquators und hat bis auf Weiteres nach dem Entdecker des Plutos, Clyde Tombaugh, den Namen "Tombaugh Regio" erhalten. Innerhalb der Tombaugh-Region befindet sich ein Bereich, der "Sputnik Planum" getauft wurde. Die Sputnik-Ebene – benannt nach dem ersten Satelliten Sputnik 1 – ist eine sehr große Eisfläche, die die westliche Hälfte der Tombaugh-Region einnimmt. Da sie frei von Einschlagkratern ist, gehen manche Forscher davon aus, dass sie weniger als 100 Millionen Jahre alt und möglicherweise noch in einem Zustand aktiver geologischer Formung begriffen ist. Ihr Anblick erinnert im ersten Moment an gefrorenem Schlamm. Sichtbare Schlieren in diesem Bereich könnten durch Winde verursacht sein. Andere Forscher gehen dabei von einer geologisch inaktiven, alten Oberfläche aus, auf die sich lediglich Vorgänge der Atmosphäre auswirken und niederschlagen. Am Südrand der Sputnik-Ebene ragen bis in eine Höhe von 3500 Metern die "Norgay Montes", benannt nach Tenzing Norgay, einem der beiden Erstbesteiger des Mount Everest. Die hohen Berge bestehen aller Wahrscheinlichkeit nach aus Wassereis, da dieses bei den niedrigen Temperaturen hart wie Fels ist. Methan- und Stickstoffeis, die den größten Teil von Plutos Oberfläche bedecken, sind für solche Gebilde nicht stabil genug. Die Ursache ihrer Entstehung liegt noch völlig im Dunkeln, denn der Zwergplanet steht nicht unter dem gravitativen Einfluss eines noch massereicheren Himmelskörpers, der seine Kruste derart verformen könnte. Stickstoffeis fließt in Gletschern aus einem hellen Bereich von Osten her ins Sputnik Planum. Man nimmt an, dass es zuvor im Zentrum der Sputnik-Ebene verdampft ist und sich dann östlich der Ebene niedergeschlagen hat, von wo es zurückfließt. Atmosphäre. Plutos Atmosphäre, aufgenommen von New Horizons am 15. Juli 2015, als sich die Sonne genau hinter dem Kleinplaneten befand Plutos sehr dünne Atmosphäre besteht zum größten Teil aus Stickstoff, außerdem aus etwas Kohlenstoffmonoxid und etwa 0,5 % Methan. Nach Messungen am James Clerk Maxwell Telescope war die Atmosphäre im Jahr 2011 3000 km hoch und das in ihr enthaltene Kohlenstoffmonoxid hatte eine Temperatur von −220 °C. Der atmosphärische Druck an Plutos Oberfläche beträgt laut der US-Weltraumbehörde NASA etwa 0,3 Pascal und laut der Europäischen Südsternwarte (ESO) um 1,5 Pascal. Vermutungen über das Ausfrieren der Plutoatmosphäre nach der Passage des sonnennäheren Bahnbereiches konnten bislang nicht bestätigt werden. Aus dem Vergleich spektroskopischer Messungen von 1988 und 2002 wurde sogar eine geringe Ausdehnung der Gashülle abgeleitet. Auch eine doppelt so große Masse wird vermutet. Nach Absorptionsmessungen der New-Horizons-Mission reicht die Atmosphäre bis in eine Höhe von 1600 Kilometer. Wie die ESO am 2. März 2009 mitteilte, existiert auf Pluto größtenteils eine durch das atmosphärische Methan verursachte Inversionswetterlage, wodurch die Temperatur um 3 Grad bis 15 Grad je Höhenkilometer zunimmt. In der unteren Atmosphäre beträgt die Temperatur −180 °C und in der oberen −170 °C, während am Boden nur etwa −220 °C herrschen. Es wird vermutet, dass dieser niedrige Wert unter anderem durch die Verdunstung von Methan verursacht wird, das vom festen in den gasförmigen Zustand übergeht. Neuerlich nachgewiesen wurde das Vorhandensein einer Atmosphäre am 29. Juni 2015 mit Hilfe des Stratosphären-Observatoriums für Infrarot-Astronomie, als der Stern UCAC 4347-1165728 von der Erde aus gesehen, von Pluto 90 Sekunden lang bedeckt wurde. Jedoch zeigen die ersten Daten von New Horizons, dass es eine Diskrepanz gibt zwischen dem von der Sonde gemessenenen Atmosphärendruck und dem von der Erde beobachteten und errechneten Atmosphärendruck. Der bisherige Atmosphärendruck wird bei der Erdbeobachtung in etwa 50 bis 75 km gemessen und dann mit Annahmen auf die Plutooberfläche heruntergerechnet. So erhält man einen Druck von 22 Mikrobar, während New Horizons direkt auf der Oberfläche messen kann und so einen Wert von 5 Mikrobar erhält. Nach ersten Bildern des Vorbeiflugs entdeckte New Horizons in der Plutoatmosphäre Aerosole bis in 130 km Höhe. Diese konzentrieren sich hauptsächlich auf zwei Nebelschichten, die erste etwa 50 km über Boden und die zweite in ca. 80 km Höhe. Inzwischen sind über 12 Nebelschichten bekannt, wobei die erste sich in unmittelbarer Bodennähe befindet. Außerdem verliert die Plutoatmosphäre fortwährend Stickstoff, der ionisiert vom Sonnenwind weggeblasen wird. Monde. Von Pluto sind fünf natürliche Satelliten bekannt. Ihre Umlaufbahnen sind annähernd kreisförmig und zueinander komplanar. Sie liegen in Plutos Äquatorebene, aber nicht in seiner Bahnebene. Zur Umlaufperiode des dominierenden Charon sind die Umlaufperioden der übrigen, äußeren Monde annähernd resonant; zusammengefasst betragen die Verhältnisse rund 1:3:4:5:6. Mit Charon hat Pluto einen verhältnismäßig großen Mond, daher wird mitunter vom „Doppelsystem Pluto-Charon“ gesprochen. Das Größenverhältnis ist noch auffallender als das des Erde-Mond-Systems und beträgt in Bezug auf den Durchmesser weniger als 2:1. Mit New Horizons wurde vor dem Vorbeiflug aus Sicherheitsgründen nochmals intensiv nach Trabanten und Staubringen gesucht; es konnten jedoch keine weiteren Plutomonde entdeckt werden. Sollte es sie dennoch geben, könnten sie höchstens etwa ein Viertel der Helligkeit des kleinen, dunklen Kerberos haben. Charon. a> und Pluto (Fotomontage), aufgenommen am 11. Juli 2015 von "New Horizons" Plutos größter Begleiter Charon hat einen Durchmesser von 1208 km und ist damit im Vergleich zu Pluto sehr groß. Das System Pluto-Charon wurde früher aufgrund dieses ungewöhnlichen Größenverhältnisses von rund 2:1 auch als Doppelplanet bezeichnet. Bedingt durch das Masseverhältnis von gut 8:1 und einen hinreichend großen Abstand liegt der gemeinsame Schwerpunkt, das Baryzentrum des Systems, "außerhalb" des Hauptkörpers. Damit umkreisen sich Charon und Pluto gegenseitig. Die große Halbachse der Umlaufbahn von Charon, also der mittlere Bahnradius seines Massezentrums vom gemeinsamen Schwerpunkt, misst 19 405 km. Entsprechend dem Masseanteil von Pluto beträgt dessen analoger Abstand zum Baryzentrum umgekehrt proportional gut ein Achtel davon, also etwa 2360 km. Damit ist die Distanz der Oberfläche von Pluto zum Baryzentrum mit rund 1200 km etwa so groß wie sein Körperradius. Die Satellitenbahn von Charon ist fast kreisrund und liegt wahrscheinlich genau in Plutos Äquatorebene. Im Vergleich dazu besitzen die Erde und der Mond ein Masseverhältnis von 81:1, und der gemeinsame Erde-Mond-Schwerpunkt befindet sich 4700 km abseits des Erdzentrums beziehungsweise etwa 1650 km unterhalb der Erdoberfläche. Auch Charon zeigt eine – für einen Mond typische – gebundene Rotation, deren Periode seiner Umlaufperiode entspricht. Die gegenseitig gebundene Rotation des Satelliten und seines Hauptkörpers ist im Sonnensystem bisher nur zwischen Pluto und Charon erwiesen. Zur Erklärung des Ursprungs eines so verhältnismäßig großen Mondes erscheint nach derzeitigem Kenntnisstand analog zu der Entstehung des Erdmondes die Kollisionshypothese am plausibelsten. Von Pluto aus erscheint Charon etwa 7-fach größer als der Vollmond von der Erde aus, also mit etwa 50-fachem Raumwinkel. Umgekehrt erscheint Pluto von Charon aus noch einmal fast zweifach größer, mit dem 180-fachen Raumwinkel des Vollmonds. Nix und Hydra. Die Durchmesser der Monde Nix und Hydra konnten aufgrund von Messungen der Raumsonde New Horizons geschätzt werden. Dabei ergaben sich Werte von ca. 42 × 36 km für Nix sowie ca. 55 × 40 km für Hydra. Beide Monde umlaufen Pluto auf nahezu kreisförmigen Umlaufbahnen, die fast genau in der Bahnebene von Charon liegen, in einer Entfernung von etwa 65 000 beziehungsweise 50 000 km. Ihre Umlaufzeiten sind zu der des großen Mondes annähernd resonant: Während Charon den Pluto zwölfmal umrundet, wird Pluto von Hydra in derselben Zeitspanne ziemlich genau zweimal und von Nix ungefähr dreimal umkreist. Im Unterschied zum rötlicheren Pluto haben die kleinen Trabanten anscheinend die gleiche neutrale graue Farbe wie Charon. Die Monde bewegen sich näherungsweise um den gemeinsamen Schwerpunkt von Pluto und Charon, auf lange Sicht sind jedoch ihre Bahnen nicht vorhersagbar (Dreikörperproblem). Die beiden Trabanten wurden durch Beobachtungen mit dem Hubble-Weltraumteleskop im Jahr 2005 entdeckt; dies teilte die NASA am 31. Oktober 2005 mit. Durch erneute Hubble-Beobachtungen im Februar 2006 wurde die Entdeckung bestätigt. Sie trugen zunächst die vorläufigen Bezeichnungen S/2005 P1 und S/2005 P2, bis sie im Juni 2006 durch die Internationale Astronomische Union (IAU) die Namen Hydra und Nix erhielten. Nach der Entdeckung der Kleintrabanten wird die Entstehung von Charon nun zusammen mit diesen beiden verstärkt durch eine Kollision von Pluto mit einem anderen plutogroßen Kuipergürtelobjekt diskutiert. Für eine gemeinsame Entstehung aller Plutomonde sprechen die komplanaren Bahnen mit den annähernd resonanten Umlaufzeiten sowie die farblich einheitlichen Oberflächen. Bei einem Einfang wäre eher eine unterschiedliche Färbung zu erwarten gewesen. Pluto und seine Monde sind im Kuipergürtel einem dauernden Bombardement von Minimeteoriten ausgesetzt, die Staub- und Eispartikel aus den Oberflächen herausschlagen. Während die Gravitation von Pluto und Charon dafür sorgt, dass alle Trümmerstücke auf die Himmelskörper zurückfallen, reicht die Anziehungskraft der neu entdeckten Monde dafür nicht aus. Daher vermuten die Wissenschaftler, dass die kleinen Monde in astronomischen Zeiträumen durch weitere Einschläge so viel Material verlieren, dass dieses allmählich einen Staubring um Pluto bilden wird. Die Entdeckung weiterer Plutomonde kam unerwartet, da jenseits des Neptuns bis dahin kein Himmelskörper mit mehr als einem Satelliten beobachtet worden war; jedoch wurde bereits einen Monat später auch bei (136108) Haumea ein zweiter Mond gefunden. Da Pluto und Charon mit einiger Berechtigung auch als Doppel(zwerg)planet aufgefasst werden können, kann man Nix und Hydra auch als ersten Nachweis für zirkumbinäre Satelliten mit einigermaßen stabilen Bahnen in einem Doppelsystem sehen. Kerberos. Kerberos hat eine geschätzte Größe von 13 bis 34 km. Damit ist er der zweitkleinste bekannte Mond Plutos. Der Mond wurde auf einem am 28. Juni 2011 mit der „Hubble’s Wide Field Camera 3“ aufgenommenen Foto entdeckt und konnte auf weiteren Aufnahmen vom 3. und 18. Juli 2011 bestätigt werden. Auf früheren Aufnahmen war der Himmelskörper nicht sichtbar, da diese mit kürzerer Belichtungszeit aufgenommen waren. Am 20. Juli 2011 gab die NASA seine Entdeckung noch unter dem vorläufigen Namen „S/2011 (134340) 1“ oder auch „P4“ bekannt. Der Trabant (der vierte Plutomond) wurde mit Hilfe des Hubble-Weltraumteleskops bei der Suche nach eventuell vorhandenen Planetenringen entdeckt. Die International Astronomical Union verlieh dem Mond im Juli 2013 den Namen „Kerberos“ nach dem Höllenhund Kerberos aus der griechischen Mythologie. Styx. Styx hat eine unregelmäßige Form, seine Größe wird auf 10 bis 25 km geschätzt. Seine Umlaufbahn verläuft zwischen Charon und Nix auf 42.000 km (± 2000 km). Ein Jahr nach der Entdeckung des vierten Plutomondes gab ein Forscherteam am 11. Juli 2012 den mit Hilfe des Hubble-Weltraumteleskops entdeckten fünften Mond bekannt. Dieser erhielt die vorläufige Bezeichnung „S/2012 (134340) 1“ oder auch „P5“. Die International Astronomical Union verlieh dem Mond im Juli 2013 den Namen „Styx“ nach dem Fluss Styx, der in der griechischen Mythologie die Welt der Lebenden von der der Toten trennt. Erdgebundene Erforschung. Die Entdeckungsgeschichte des Pluto ähnelt in gewisser Weise der des gut 83 Jahre zuvor gefundenen Neptun. Beide Himmelskörper wurden aufgrund von Bahnstörungen von Nachbarplaneten rechnerisch vorhergesagt und dann an den daraus hergeleiteten Bahnpositionen gesucht. Der hypothetische neunte Planet wurde für kleine Bahnabweichungen der Planeten Neptun und Uranus verantwortlich gemacht. Pluto wurde am 18. Februar 1930 durch das Lowell-Observatorium in Flagstaff, Arizona durch Vergleiche einiger Himmelsaufnahmen am Blinkkomparator nach rund 25-jähriger Suche entdeckt, allerdings nicht an genau der vorausgesagten Position. Der junge Entdecker Clyde Tombaugh war erst kurz zuvor für die fotografische Suche nach dem legendären Transneptun angestellt worden. Der Marsforscher Percival Lowell hatte seit 1905 selbst nach einem solchen Himmelskörper gesucht und das Lowell-Observatorium auf einem Berg bei Flagstaff finanziert. Wie sich später herausstellte, war auf zwei der fotografischen Platten, die Lowell 1915 angefertigt hatte, Pluto bereits zu erkennen. Da Lowell aber nach einem viel helleren Objekt Ausschau hielt, war ihm diese Entdeckung entgangen. Die Entdeckung wurde der äußerst interessierten Öffentlichkeit am 13. März 1930 verkündet, dem 149. Jahrestag der Entdeckung des Uranus durch William Herschel 1781 und dem 75. Geburtstag von Percival Lowell, der bereits 1916 verstorben war. Nun suchte man nach einem passenden Namen. Das Vorrecht der Namensgebung lag beim Lowell-Observatorium. Dort traf recht bald eine große Menge an Vorschlägen ein. Der Name des Herrschers der Unterwelt für diesen Himmelskörper so fern der Sonne wurde von Venetia Burney vorgeschlagen, einem elfjährigen Mädchen aus Oxford, das sich sehr für klassische Mythologie interessierte. Von der Meldung über die Entdeckung und Namenssuche in der "Times" erfuhr sie durch ihren Großvater, Falconer Madan, schon am Morgen nach der Entdeckungverkündung. Er war pensionierter Bibliothekar der Bodleian Library und fand ihren Vorschlag so gut, dass er davon Herbert Hall Turner, einem befreundeten Astronomen und Professor für Astronomie an der Universität Oxford, erzählte. Über diesen gelangte er per Telegramm am 15. März an das Lowell-Observatorium, wo er im Mai desselben Jahres angenommen wurde. Nach dem Reglement der IAU hatte die Namensgebung nach mythologischen Gesichtspunkten zu erfolgen. Venetias Großonkel Henry Madan, Science Master am Eton College, hatte schon die Namen "Phobos" und "Deimos" für die Monde des Mars vorgeschlagen. Der Namensvorschlag "Pluto" für den gesuchten neunten Planeten kam erstmals bereits 1919 von dem französischen Astronomen P. Reynaud, doch daran konnte sich 1930 niemand mehr erinnern. Bei dieser Namenswahl dürfte auch eine Rolle gespielt haben, dass sich das astronomische Symbol aus den Initialen Lowells zusammensetzen ließ. Zuvor war von seiner Witwe schon "Percival", "Lowell" und sogar "Constance" (ihr eigener Name) vorgeschlagen worden. Nach dem Planeten Pluto wurde auch Micky Maus’ Haushund Pluto benannt, der im August 1930 seinen ersten Auftritt hatte. 1941 wurde in Fortsetzung der mit den chemischen Elementen Uran und Neptunium begonnenen Reihe das 94. und damals letzte bekannte Element nach dem zu dieser Zeit letzten Planeten als Plutonium benannt. Aus der beobachteten scheinbaren Helligkeit Plutos (15 mag) und einer plausiblen Annahme für seine Albedo, seinem Rückstrahlungsvermögen, schloss man, dass der neue Himmelskörper etwa Erdgröße habe. Andererseits war es zunächst auch in großen Fernrohren unmöglich, seinen Durchmesser "direkt" mikrometrisch zu messen. Daher tauchten bald Zweifel auf, ob seine Gravitationswirkung für die Bahnstörungen verantwortlich sein könne. Die beiden Hemisphären des Pluto in der bestmöglichen Auflösung des HST von 1994 und die daraus errechneten Oberflächenkontraste Pluto in Rotation, computerberechnete Einzelbilder von 2010 Also wurden die Nachforschungen nach dem störenden „Planeten X“ schon bald fortgesetzt – als Suche nach einem „Transpluto“ – unter anderem von Clyde Tombaugh selbst. Mit der Entwicklung leistungsstarker Teleskope mussten Durchmesser und Masse des Pluto kontinuierlich nach unten revidiert werden, zunächst um 1950 nach Messungen der Sternwarte Mount Palomar auf halbe Erdgröße. Bald scherzte man, dass Pluto bei Extrapolation der Messwerte wohl bald völlig verschwinden werde. Unkonventionelle Theorien wurden postuliert: Pluto sei in Wirklichkeit groß, man sehe aber nur einen kleinen, hellen Fleck auf der Oberfläche. Der Astronom Fred Whipple errechnete erstmals eine genaue Umlaufbahn. Dazu konnten Fotoplatten herangezogen werden, auf denen sich Pluto bis in das Jahr 1908 zurückverfolgen ließ. Die Entdeckung des Mondes Charon im Jahr 1978 ermöglichte dann eine genaue Massebestimmung mittels der Gravitationsdynamik des Systems. Von 1985 bis 1990 kam es zu wechselseitigen Bedeckungen zwischen den beiden, mit denen der Durchmesser von Pluto schließlich auf 2390 km bestimmt wurde. Jüngere Messungen mit adaptiver Optik, mit dem Hubble-Space-Telescope (HST) und bei Bedeckungen von Sternen haben Werte von etwa 2280 bis 2320 km ergeben. Aufnahmen der Raumsonde New Horizons ergaben im Juli 2015 einen Durchmesser von 2370 km. Wegen seiner relativen Nähe und Größe wurde Pluto mehr als 60 Jahre früher entdeckt als das nächste eigenständige transneptunische Objekt: (15760) 1992 QB1. Über die seinerzeit festgestellten Bahnabweichungen von Neptun und Uranus wird mittlerweile vermutet, dass sie nur durch eine kleine, unvermeidliche Messabweichung vorgetäuscht wurden. Außerdem wurde die Masse von Neptun vor dem Vorbeiflug von Voyager 2 falsch eingeschätzt. Seit die genaue Masse von Neptun bekannt ist, können die Bahnen der äußeren Planeten gut erklärt werden, d. h. es besteht keine Notwendigkeit, einen weiteren Planeten X zu postulieren. Kombinationen von Aufnahmen mit dem Hubble-Weltraumteleskop haben gezeigt, dass Plutos Nordhemisphäre in den Jahren 2002 und 2003 heller geworden ist und der Zwergplanet insgesamt rötlicher wirkt. Die NASA veröffentlichte 1994 die ersten globalen Bilder von Pluto, bei denen Aufnahmen des Hubble-Weltraumteleskops zu einer Oberflächenkarte verrechnet wurden. Mit sehr großem Aufwand generierten Wissenschaftler um Marc W. Buie 2010 eine Oberflächenkarte von Pluto, die für gut fünf Jahre die genaueste Karte des Zwergplaneten war. Hierzu verwendeten sie 384 nur wenige Pixel große Aufnahmen des Hubble-Weltraumteleskops, welche zwischen 2002 und 2003 erstellt wurden. Mittels Dithering und weiteren speziellen Algorithmen wurde dann innerhalb von 4 Jahren auf 20 Computern eine Oberflächenkarte von Pluto errechnet. Erforschung mit Raumsonden. "New Horizons" bei den Startvorbereitungen Die NASA plante bereits seit Anfang der 1990er Jahre unter dem Namen „Pluto Fast Flyby“ eine rasche Vorbeiflug-Mission zum Pluto, bevor seine dünne Atmosphäre ausfriert – seinen sonnennächsten Bahnpunkt hatte Pluto schon 1989 durchschritten und wird ihn erst 2247 wieder erreichen. Nachdem erste Konzepte an technischen Schwierigkeiten sowie an mangelnder Finanzierung gescheitert waren, wurde 2001 die Umsetzung der nun „New-Horizons“ getauften Mission im Rahmen des New-Frontiers-Programms genehmigt. Die Raumsonde startete am 19. Januar 2006 und flog am 14. Juli 2015 an Pluto und Charon vorbei. Aufnahmen der Sonde im April 2015 übertrafen bereits die des Hubble-Teleskops. Es wurden Debatte um Planetenstatus und Aberkennung. Die Diskussion darüber, ob Pluto überhaupt die Bezeichnung „Planet“ verdiene, begann bereits, als man außer seiner stark elliptischen und sehr geneigten Umlaufbahn auch seine geringere Größe erkannt hatte. Nachdem im September 1992 mit 1992 QB1 nach Pluto und Charon das dritte transneptunische Objekt gefunden worden war, entdeckten die Astronomen ein Jahr später binnen vier Tagen vier weitere Plutinos. Damit steigerte sich die Debatte um Plutos Status. Der Vorschlag von Brian Marsden vom MPC aus dem Jahre 1998, Pluto einen Doppelstatus zu verleihen und ihn zusätzlich als Asteroiden mit der herausragenden Nummer 10000 einzuordnen, um dadurch einer durch Neuentdeckungen sich ständig ändernden Planetenanzahl vorzubeugen, fand keine Zustimmung. Im Laufe der Zeit wurden Hunderte weitere Objekte des Kuipergürtels entdeckt, darunter auch manche von plutoähnlicher Größe. Solch herausragende Entdeckungen, wie vor allem von (136199) Eris wurden von den Medien häufig als „zehnter Planet“ bezeichnet. Mit der ersten wissenschaftlichen Begriffsbestimmung eines Planeten wurde zusammen mit Pluto keines dieser Objekte als solcher bestätigt. Stattdessen wurde von der IAU im Jahr 2006 für derartige Körper die neue Klasse der Zwergplaneten definiert. In Hinsicht auf Pluto als den über Jahrzehnte gewohnten neunten Planeten hält jedoch nach dieser Entscheidung die Kontroverse unter den Astronomen weiter an. Abstimmung der IAU über die Planetendefinition am 23. August 2006 Die verabschiedete Definition mit dem Zusatz, nach der ein Körper nur dann ein Planet ist, wenn seine Masse auch die Gesamtmasse aller anderen Körper in seinem Bahnbereich übertrifft, berücksichtigt, dass Pluto seinen Bahnbereich nicht in dem Maße von anderen Körpern geräumt hat. Als das größte Objekt der Plutinos entspricht er eher der Rolle des Asteroiden (153) Hilda, des größten Mitglieds der Hilda-Gruppe. Hilda und mindestens 56 weitere Objekte bewegen sich ein Stück außerhalb des Hauptgürtels der Asteroiden zwischen Mars und Jupiter analog in einem 2:3-Verhältnis zur in diesem Fall längeren Umlaufzeit des benachbarten Riesenplaneten. Auf der 26. Generalversammlung der Internationalen Astronomischen Union im August 2006 in Prag wurde zuvor eine etwas andere Definition ohne jenen Zusatz vorgeschlagen. Ein Planet wäre demnach ein Himmelskörper, dessen Masse ausreicht, um durch seine Eigengravitation eine hydrostatische Gleichgewichtsform („nahezu runde“, d. h. annähernd sphäroidale Form) anzunehmen, und der sich auf einer Bahn um einen Stern befindet, selbst aber kein Stern oder Mond eines Planeten ist. Demnach wäre nicht nur Pluto ein Planet, sondern auch Ceres, Charon und Eris. Charon kam durch eine Ergänzung mit hinzu, nach der es sich um einen Doppelplaneten handelt, wenn der gemeinsame Schwerpunkt außerhalb des Hauptkörpers liegt. Die größten bekannten transneptunischen Objekte im Vergleich zur Erde (bis auf Pluto, Charon und Hydra handelt es sich um Phantasiedarstellungen) Gleichzeitig wurde die Definition einer neuen Klasse von Planeten vorgeschlagen, der sogenannten „Plutonen“, zu der Planeten gehören sollten, die für einen Umlauf um den Stern länger als 200 Jahre brauchen, und zu der dann auch Pluto gehört hätte. Dieser Vorschlag für die Planetendefinition konnte sich auf der Generalversammlung jedoch nicht durchsetzen, sodass am 24. August 2006 durch Abstimmung die Entscheidung fiel, Pluto den Planetenstatus abzuerkennen und ihn in die neudefinierte Klasse der Zwergplaneten einzuordnen. Die Klasse der Plutonen wurde zwar definiert (als Klasse, für die Pluto den Prototyp darstellt), war aber vorerst namenlos, da der Name Plutonen wie auch andere Namensvorschläge verworfen wurde. Im Juni 2008 wurde diese namenlose Unterklasse der Zwergplaneten von der IAU als „Plutoiden“ bezeichnet, zu denen neben dem Namensgeber Pluto bisher auch Eris zählt. Seit September 2006 hat Pluto die Kleinplanetennummer (134340). Eine solche eindeutige Nummer wird vergeben, sobald die Bahn eines Asteroiden oder Zwergplaneten durch genügend viele Beobachtungen genau genug bekannt ist. Plutos Bahn ist zwar recht gut bekannt, er hatte aber bisher noch keine Kleinplanetennummer erhalten, da er zuvor den Planeten des Sonnensystems zugeordnet war. Eine Liste der Zwergplaneten ist in Vorbereitung, doch werden die Zwergplaneten voraussichtlich in zwei Listen geführt werden, der bisherigen Asteroiden- und der neuen Zwergplanetenliste. Der Senat von Illinois, dem Heimatbundesstaat des Pluto-Entdeckers Clyde Tombaugh, beschloss 2009, Pluto weiterhin als Planeten zu betrachten. Anfang Oktober 2014 wurde vom Harvard Smithsonian Institut eine Debatte über Plutos Status angestoßen. Sichtbarkeit. Da Pluto am 5. September 1989 im Perihel war, entfernt er sich seither auf seiner elliptischen Umlaufbahn von der Sonne. Daher finden aufeinanderfolgende Oppositionen bei immer größerer Entfernung und mit immer etwas geringerer Helligkeit des Zwergplaneten statt. Am Sternenhimmel wandert er derzeit durch das Sternbild Schütze und wird 2023/2024 in den Steinbock wechseln. Punk (Musik). a>, eine Punk-Band der ersten Stunde Punk, im englischen Sprachraum auch "Punk Rock," im deutschen "Punk-Rock" oder "Punkrock", ist eine Stilrichtung der Rockmusik, die Mitte der 1970er Jahre in New York und London zusammen mit der Subkultur des Punk entstanden ist. Nachdem sich der Punk-Rock etabliert hatte, entstanden verschiedene Stilrichtungen mit eigenen Subkulturen. Auf Punkkonzerten entwickelte sich mit dem Pogo ein zur Musik passender Tanzstil. Stilmerkmale. Punk-Rock zeichnet sich durch trivial-einfache, jedoch nicht unoriginelle Kompositionen aus, was mit dem Schlagwort „drei Akkorde“ treffend umschrieben wird. Punkbands setzen typischerweise auf die traditionelle Besetzung einer Rock-Band, bestehend aus einer oder zwei Gitarren, Bass, Schlagzeug und Gesang. Der Sound ist durch übersteuerte Gitarrenverstärker, hohe Tempi und eine raue, unmodulierte Gesangsstimme geprägt. Die Texte sind konfrontativ bis aggressiv, üben Gesellschaftskritik oder transportieren politische, philosophische und bisweilen explizit nihilistische Inhalte. Die Gitarrenparts beschränken sich meist auf verzerrte Power Chords oder Barrégriffe, instrumentale Intros vor den eigentlichen Songs kommen ebenso wie reine Instrumentalstücke kaum vor. Laut John Holmstrom, einem Karikaturisten des "Punk Magazine", war Punk-Rock „Rock ’n’ Roll von Leuten, die keine großen Fähigkeiten als Musiker hatten, aber trotzdem ein Bedürfnis fühlten, sich durch Musik auszudrücken“. Gesellschaftliche Aspekte. Die Punk-Subkultur ist durch die Ablehnung bürgerlicher Werte und gesellschaftlicher Regeln sowie die Auflehnung dagegen bestimmt. Punk-Musik in ihrer Ursprungsform war eine rohe und ungeschliffene Form des Rock ’n’ Roll und grenzte sich damit vom als artifiziell empfundenen Progressive Rock wie auch von der Disco-Kultur ab. Tommy Ramone äußerte in diesem Zusammenhang: „1973 wusste ich: was gebraucht wird, ist reiner Rock ’n’ Roll ohne Bullshit.“ Laut John Holmstrom „musste Punk Rock kommen, da die Rockszene so zahm geworden war, dass Acts wie Billy Joel und Simon and Garfunkel als Rock ’n’ Roll bezeichnet wurden, wohingegen für mich und andere Fans, Rock ’n’ Roll für wilde und rebellische Musik stand.“ Darüber hinaus lehnte die Subkultur auch „den politischen Idealismus und die kalifornische Flower-Power-Albernheit des Hippie-Mythos“ ab, so Musikjournalist Robert Christgau. Patti Smith hingegen äußert in der Dokumentation "25 Years of Punk", dass Hippies und Punks durch eine gemeinsame Anti-Establishment-Mentalität verbunden waren. Einige Punk-Musiker lehnten nicht nur den Mainstream-Rock und die mit ihm verbundene Kultur ab, sondern insbesondere die populärsten Protagonisten der Musikbranche. So proklamierten The Clash: „No Elvis, Beatles or The Rolling Stones 1977“ (Kein Elvis, keine Beatles oder Rolling Stones im Jahre 1977). Das Jahr 1977, der "Summer of 77", das mit der Blüte der britischen Punkszene assoziiert wird, sollte sowohl musikalisch als auch kulturell betrachtet ein Jahr Null sein. In diesem Sinne enthielt auch der 1980 aufgenommene und die Zeit retrospektiv behandelnde Song "Punk 80" der deutschen Band Artless die Zeilen: „Wir wollten neue Wege gehen / Wir ließen alte Helden stehen“. Vorläufer des Punk. a>, einer der "Godfather of Punk"Die musikalischen Ursprünge des Punk-Rock lagen in den rohen Formen des Rock ’n’ Roll der 1950er Jahre, im Garagenrock der 1960er Jahre, im amerikanischen Protopunk sowie im britischen Glam Rock und Pub Rock der frühen 1970er Jahre. Die Einflüsse reichen von den Stooges, deren Sänger Iggy Pop heute gelegentlich als „Godfather des Punk“ bezeichnet wird, bis hin zu Roxy Music; die Buzzcocks nannten selbst den experimentellen Psychedelic Rock der deutschen Band Can. Als stilistisch wichtiger Einfluss wird auch die Band Neu! („punk before punk“) angesehen, und zwar insbesondere das Stück "Hero", das auf "Neu! ’75" erschien und alle wesentlichen Elemente des Punks bereits enthielt. Anfänge des Punk. Eine dokumentierte Früherwähnung findet der Begriff "Punkrock" erstmals in einem von Lenny Kaye verfasstem Begleitheft der Elektra Records-Kompilation '. Dieser Garage-Rock-Sampler wurde vom Musikproduzenten Jac Holzman und eben Lenny Kaye, dem Gitarristen und Songwriter der Patti Smith Group zusammengestellt. Garage-Rock-Bands aus der Prä-Punk-Ära spielten einfache, meist kurze Songs, oft auch Uptempo-Coverversionen bekannter Songs. Über das Debütalbum der MC5 beispielsweise schrieb Lester Bangs, dass die meisten Stücke in ihren primitiven drei-Akkord-Strukturen kaum voneinander zu unterscheiden seien. So sind etwa die Hälfte der Songs auf dem ersten Ramones-Album kürzer als zwei Minuten und mit dem im Rock ’n’ Roll üblichen Strophe-Refrain-Schema im 4/4-Takt eingespielt, der Gesang klingt eher nach Schreien als nach Singen. Die folgenden Generationen brachen zum Teil mit diesen Strukturen, für ihre Musik wurden neue Bezeichnungen geprägt. Direkter Vorgänger des Punkrock war der Proto-Punk mit der überaus einflussreichen Band The Modern Lovers des Gründers und Leadsängers Jonathan Richman, sowie die New York Dolls. Als mindestens ebenso einflussreich gelten Lou Reed mit seiner Band The Velvet Underground und die 1974 gegründete New Wave-/Punkband Blondie, gegründet von Debbie Harry und dem Songwriter und Leadgitarristen Chris Stein. Als einer der "Godfathers of Punk" gilt der Musik-Manager Danny Fields. Fields arbeitete ab Ende der 60er Jahre für Jac Holzmans Elektra Records und nahm u.a. die noch unbekannten MC5 und The Stooges unter Vertrag. Die 1964 gegründete Band MC5 aus Lincoln Park, Detroit war einer der wichtigsten Vorläufer der Punk-Musik und propagierten öffentlich das stilbildende Credo von "Sex, Drugs and Rock’n Roll". MC5 und The Stooges dienten als wichtige und wegbereitende Inspirationen für die amerikanische und britische Punkbewegung der 70er-Jahre. 1975 entdeckte Fields auch die Ramones, die ihm 1980 auf ihrem Album "End of the Century" den Titel "„Danny says”" widmeten. Ab 1974 traten die Punkpioniere Alan Vega und Martin Rev von Suicide, sowie Richard Manitoba, Andy Shernoff und Ross Friedman mit ihrer Band The Dictators im New Yorker CBGB auf. Der von Hilly Kristal gegründete Club war Keimzelle und Szenetreffpunkt der neuen New-Yorker Punk-Bands und ist eine heutige Pilgerstätte des Punkrock. Hier fanden Punk-Rock- und New-Wave-Legenden wie Tommy Ramone und Joey Ramone mit den Texten des Ramones-Songwriter Daniel Rey das erste Mal Gelegenheit vor Publikum zu spielen. Im CBGB wurden 1975 die Ramones von Danny Fields entdeckt und den Gründern des Labels Sire Records, Seymour Stein und Richard Gottehrer empfohlen. Diese nahmen die Ramones unter Vertrag und veröffentlichten auf Sire Records 1976 das Ramones-Debütalbum "Ramones". Fortan wurden Seymour Stein und Gottehrer zu Produzenten einiger Bands aus dem Umfeld des CBGB und intensive Förderer der Punkrock-Bewegung, darunter auch die Punklegenden The Dead Boys und Richard Hell and The Voidoids. Richard Hell war der erste, der den typischen Punklook bestehend aus nach oben gegelter Stachelfrisur, zerrissenes T-Shirt und schwarzer Lederjacke prägte. Lange vor den Sex Pistols. Die Sex Pistols traten zum ersten Mal im November 1975 auf. Nach einem medienwirksamen Skandalinterview in der quotenstarken Bill Grundy-Show im englischen Fernsehen im Dezember 1976 wurde Punk auch in Großbritannien bekannt. In diesem Jahr hatten Bands wie die Sex Pistols, Generation X, die Ramones, London SS und The Clash ihren Durchbruch. 1977 wurde Punk schließlich zu einem großen Medienphänomen und The Clash wurden vom Major-Label CBS Records unter der Leitung des legendären Musikmanagers Clive Davis mit einem 100.000 Britische Pfund schweren Vertrag ausgestattet. Bevor der Punk im Vereinigten Königreich wirklich losging, begann auch schon direkt der Ausverkauf. Bedeutende Punkpioniere wie James Osterberg alias Iggy Pop, Lewis Allen Rabinowitz alias Lou Reed, Tamás Erdélyi alias Tommy Ramone (Gründer, Produzent und Schlagzeuger der Ramones), Jeffrey Hyman alias Joey Ramone, Ramones-Textschreiber Daniel Rabinowitz alias Daniel Rey, Mick Jones (The Clash), Boruch Alan Bermowitz alias Alan Vega (Suicide), Martin Reverby alias Martin Rev (Suicide), Richard Blum alias Richard Manitoba (The Dictators), Ross Friedman (The Dictators), Andy Shernoff (The Dictators), Richard Meyers alias Richard Hell (Richard Hell and the Voivods), Chris Stein (Blondie), Lenny Kaye (Patti Smith Group), Jonathan Richman (The Modern Lovers) sind jüdischer Abstammung. Ebenso Manager und Produzenten der ersten Stunde des Punk wie Daniel Feinberg alias Danny Fields (Iggy & The Stooges, Ramones, Velvet Underground, The Modern Lovers, MC5), Marty Thau (New York Dolls, Suicide), Seymour Stein (Richard Hell and The Voidoids, The Dead Boys), Jacob “Jac” Holzman (The Stooges, MC5), Richard Gottehrer (Blondie, Debbie Harry, Ramones), Malcolm McLaren (Sex Pistols), Bernhard Rhodes (Sex Pistols, The Clash, London SS), Clive Davis (The Clash) und CBGB-Gründer Hilly Kristal. Dementsprechend schreibt der US-amerikanische Autor Steven Lee Beeber über die jüdischen Wurzeln des Punk: "„Punk reflektiert die gesamte jüdische Geschichte von Unsicherheit und Unterdrückung, Flucht und Wanderschaft, Dazugehören und Nicht-Dazugehören, immer zerrissen zu sein, gleichzeitig drin und draußen, gut und schlecht, Teil und Nicht-Teil zu sein." Weiterentwicklung des Punk. In dieser Zeit entstanden u. a. der Oi!, eine Musikrichtung, die auch unter Skinheads Anklang findet, der Hardcore-Punk, der Anarcho-Punk, der Folk-Punk der Pogues, der Psychobilly sowie der Gothic Rock, der Punk-Einflüsse mit Glam- und Psychedelic-Rock-Elementen vermischt, und der nicht klar davon zu trennende Death Rock. Einige der neuen Spielarten entstanden, weil die alten Bands der nachfolgenden Generation zu kommerziell, zu stark von den Major Labels beherrscht oder aber nicht radikal genug waren. Einige Bands wandten sich anderen Musikgenres zu, was zu einer Spaltung der Szene und zu Rivalitäten zwischen den Vertretern der verschiedenen Stilrichtungen führte. Einfluss auf andere Stile. Einflüsse des Hardcore und des Anarcho-Punk finden sich im Thrash Metal, im Crust- und Grindcore sowie auch im Metalcore. Außerdem gilt der Grunge als Subgenre des Punk, kombiniert mit traditionellem Hard Rock und Heavy Metal der 1970er Jahre. Plutokratie. Die Plutokratie oder Plutarchie ("plutokratía" ‚Reichtumsherrschaft‘, von πλοῦτος "plútos" ‚Reichtum‘ und κρατεῖν "krateín" ‚herrschen‘) ist eine Herrschaftsform, in der Vermögen die entscheidende Voraussetzung für die Teilhabe an der Herrschaft ist, also die Herrschaft des Geldes (auch „Geldadel“ genannt). Sie kann institutionalisiert sein (z. B. über das Zensuswahlrecht) oder indirekt ausgeübt werden durch die Abhängigkeit der gewählten Entscheidungsträger von den eigentlichen Oligarchen, nämlich den Plutokraten und ihren Lobbyisten. Die Plutokratie ist somit eine Unterform der Oligarchie. In einem plutokratischen System gibt es einen hohen Grad an sozialer Ungleichheit bei geringer sozialer Mobilität. In einer Plutokratie sind Ämter in der Regel nur den Besitzenden zugänglich. Es existiert ein Zensuswahlrecht, das Besitzlose von den politischen Bürgerrechten ausschließt, wodurch politische Macht hauptsächlich zum Nutzen der Machtinhaber ausgeübt wird. Damit ist verbunden, dass die finanzielle Macht Einzelner oder von Unternehmen die verfassungsmäßige Ordnung eines Staates umgeht, eigennützig den Staat steuert und demokratische Wahlen möglichst manipuliert. Frühe Verwendung. 1817 spricht Adam Weishaupt bereits von „Plutocratie oder Herrschaft der Reichen“ auf Kosten zunehmender Abhängigkeit der Armen, als Ursache jedweder großen Revolution. Kampfbegriff im Dritten Reich. Im Nationalsozialismus war „Plutokratie“ ein Begriff, der insbesondere durch das Reichsministerium für Volksaufklärung und Propaganda unter Joseph Goebbels häufig verwendet wurde, um Großbritannien und die USA negativ darzustellen und ihnen bösartige Pläne gegen Deutschland zu unterstellen. Goebbels setzte dabei in der Propaganda Demokratie und Plutokratie grundsätzlich gleich bzw. stellte die Demokratie als eine Unterform der Plutokratie dar. In Anknüpfung an den Antisemitismus (unter anderem angebliche bolschewistische Weltherrschaftspläne) behauptete er, es gebe von den Plutokratien einen Pakt gegen Deutschland, der zu einer Unterwerfung Europas unter die Sowjetunion führen werde. Die Feindbildpropaganda wurde auch dazu genutzt um die Lage von Arbeitern (einschließlich Ostarbeitern) in Deutschland zu beschönigen, denen es im NS-Staat angeblich viel besser gehen würde. Platonischer Körper. a>Die Platonischen Körper (nach dem griechischen Philosophen Platon) sind die Körper von größtmöglicher Symmetrie. Sie werden von lauter zueinander kongruenten regelmäßigen Vielecken begrenzt. Zuweilen werden sie auch als reguläre Körper (von lat. "corpora regularia") bezeichnet. Die Platonischen Körper sind konvex. In jeder Ecke des Körpers treffen jeweils gleich viele gleich lange Kanten zusammen, an jeder Kante treffen sich zwei kongruente Flächen, und jede Fläche hat gleich viele Ecken. Es ist also nicht möglich, irgendwelche zwei Ecken, Kanten und Flächen aufgrund von Beziehungen zu anderen Punkten des Polyeders voneinander zu unterscheiden. Verzichtet man auf die Ununterscheidbarkeit der Flächen und Kanten, spricht man von archimedischen Körpern. Verzichtet man dagegen auf die Ununterscheidbarkeit der Ecken und Kanten, spricht man von catalanischen Körpern. Verzichtet man auf die Konvexität, spricht man von "regulären Polyedern" und schließt damit die Kepler-Poinsot-Körper ein. Anzahl. Zwei platonische Körper vom selben Typ sind zueinander ähnlich, d. h., ein platonischer Körper ist durch die Angabe einer einzigen Größe, beispielsweise Kantenlänge, Körpervolumen oder Umkugelradius, bereits eindeutig bestimmt. In diesem Sinne ist es also gerechtfertigt, von "dem" Tetraeder, "dem" Hexaeder usw. zu sprechen. Damit ist bewiesen, dass es "nicht mehr als" fünf Platonische Körper geben kann. Es bleibt noch zu zeigen, dass es Körper aus den genannten Flächen tatsächlich gibt. Man verbindet bei zwei Fünfecken, die parallel zueinander liegen und die gegeneinander verdreht sind, jeweils die „verdrehten“ Ecken so miteinander, dass zehn gleichseitige Dreiecke entstehen (formal ausgedrückt: Man bildet zu einem Fünfeck ein Antiprisma). Setzt man auf die Basis und auf die Deckfläche jeweils eine fünfseitige Pyramide (mit fünf gleichseitigen Dreiecken als Mantel) auf, so erhält man einen Körper mit 12 Ecken und 20 gleichseitigen Dreiecken. Es zeigt sich (z. B. durch Nachrechnen), dass die beiden den Pyramidenspitzen entsprechenden Ecken und die zehn Ecken des Antiprismas kongruent (mit gleichen Flächenwinkeln) sind, also tatsächlich ein völlig regelmäßiges (ein "reguläres") Polyeder vorliegt. Das Dodekaeder ergibt sich dann als duales Polyeder. (Ohne diese Überlegung ist es nicht selbstverständlich, dass das Dodekaeder tatsächlich durch "ebene" Fünfecke realisiert werden kann.) Die fünf oben gezeigten platonischen Körper sind also (bis auf Ähnlichkeit) tatsächlich die einzigen konvexen Körper dieser Art (kongruente regelmäßige Seitenflächen, kongruente Ecken – die Regularität muss nicht vorausgesetzt werden). Kurz zusammengefasst: An einer Ecke können drei, vier oder fünf gleichseitige Dreiecke zusammenkommen. Auch drei Quadrate oder drei regelmäßige Fünfecke sind möglich. Weitere Möglichkeiten gibt es nicht. Weitere Polyeder mit regelmäßigen Vielecken als Seitenflächen ergeben sich nur, wenn Vielecke mit "unterschiedlicher" Eckenzahl (aber eventuell gleicher Eckenart) zugelassen werden – dazu gehören unter anderem die archimedischen Körper – sowie Körper, bei denen nicht an jeder Ecke gleich viele Vielecke zusammentreffen. Dualität. Zu jedem konvexen Polyeder lässt sich ein sogenannter Dualkörper konstruieren. Dessen Kanten konstruiert man, indem man die Mittelpunkte jeweils benachbarter Seitenflächen des Polyeders miteinander verbindet. Somit hat das duale Polyeder genauso viele "Ecken", wie das Ausgangspolyeder "Flächen" hat. Der Dualkörper hat zudem genauso viele "Flächen", wie der Ausgangskörper "Ecken" hat. Letzteres kann man sich räumlich so vorstellen, dass jede („vergrößerte“) Fläche des Dualkörpers eine Ecke des Ausgangskörper abschneidet. Drittens gilt, dass das Dualpolyeder und sein Ausgangspolyeder die gleiche Anzahl an Kanten haben. Dies lässt sich ebenfalls aus obiger Konstruktion ablesen: Zwei „benachbarte Seitenflächen“ bilden gemeinsam "eine Kante" des Ausgangspolyeders, und die „Verbindung der zwei Mittelpunkte“ dieser benachbarten Seitenflächen stellt "eine Kante" des Dualkörpers dar. Bei den Platonischen Körpern, als Untergruppe der konvexen Polyeder, gibt es bezüglich deren Dualkörper noch folgende Besonderheiten: Erstens haben hier Ausgangs- und Dualkörper denselben geometrischen Schwerpunkt. Zweitens ist der Dualköper eines Platonischen Körpers auch selbst ein Platonischer Körper. Dabei bilden Hexaeder (Würfel) und Oktaeder sowie Dodekaeder und Ikosaeder jeweils ein duales Paar. Das Tetraeder ist zu sich selbst dual, wobei sich jedoch das duale Tetraeder in (verkleinerter) zentralsymmetrischer Lage befindet, d. h., es „steht auf dem Kopf“. Drittens: Wiederholt man obige Konstruktion und konstruiert den dualen Körper zum Dualkörper, so erhält man einen „verkleinerten“ Ausgangskörper – also einen Platonischen Körper, der durch Zentrische Streckung in den Ausgangskörper überführt werden kann. Beide haben somit denselben Schwerpunkt. Symmetrie. Die fünf platonischen Körper sind daher reguläre Polyeder. Die bei ihnen auftretenden Symmetriegruppen (und ihre Untergruppen) gehören zu den diskreten Punktgruppen. Duale platonische Körper haben dieselbe Symmetriegruppe. Das ist die Basis für die Konstruktion zahlreicher anderer Körper (z. B. der archimedischen Körper). Es gibt also nicht fünf, sondern nur drei dieser Gruppen: die Tetraedergruppe, die Würfelgruppe und die Ikosaedergruppe. Sie spielen in unterschiedlichen Zusammenhängen in der Mathematik eine Rolle. Aufgrund ihrer Symmetrie haben homogen gefertigte Modelle platonischer Körper die Eigenschaft, dass sie bei einem Wurf mit exakt der gleichen Wahrscheinlichkeit auf jede ihrer Flächen fallen können. Die meisten Spielwürfel sind übrigens aufgrund der Vertiefungen für die Augenzahlen nicht absolut perfekt symmetrisch. Deltaeder. Da Tetraeder, Oktaeder und Ikosaeder auch zu den konvexen Deltaedern gehören, gehört aus jeder Symmetriegruppe ein Körper zu den Deltaedern. Berührende Kugeln. Aus der hohen Symmetrie folgt unmittelbar: Jeder platonische Körper hat Der gemeinsame Mittelpunkt dieser drei Kugeln ist der Mittelpunkt (das Zentrum) des platonischen Körpers. Platonische Körper als reguläre Parkettierungen der Sphäre. Projiziert man die Kanten eines platonischen Körpers aus dem Mittelpunkt auf eine Kugel mit demselben Mittelpunkt (z. B. auf die Umkugel), so erhält man eine Parkettierung der Kugeloberfläche durch zueinander kongruente regelmäßige sphärische Vielecke, wobei in jeder Ecke gleich viele Kanten (unter gleichen Winkeln) zusammentreffen. Diese Parkettierungen haben dieselben Symmetrien wie der Ausgangskörper. Insbesondere sind sie ebenfalls "fahnentransitiv". Es sind die fünf "regulären Parkettierungen" der Sphäre, zwischen denen dieselben Dualitätsbeziehungen bestehen wie zwischen den Körpern. (In anderem Zusammenhang spricht man auch von "Landkarten" und "dualen Landkarten".) Jede reguläre Parkettierung kann durch das Paar formula_6 beschrieben werden, wobei formula_7 für die Anzahl der Kanten eines Feldes und formula_8 für die Anzahl der in einer Ecke endenden Kanten steht. Die platonischen Körper ergeben daher die dualen Paare formula_9 und formula_10, formula_11 und formula_12 sowie das selbstduale Paar formula_13. Das sind alle Lösungen der Ungleichung In der Ebene gilt (bei geeigneter Interpretation, nämlich asymptotischer) liefern die regulären Parkettierungen der hyperbolischen Ebene. Aus den platonischen Körpern abgeleitete Polyeder. Wegen der starken Regelmäßigkeit der platonischen Körper kann man leicht andere Körper von ihnen ableiten, die auch wieder sehr regelmäßig sind. Man muss dazu nur die gleichen Konstruktionen symmetrisch auf Flächen, Kanten oder Ecken anwenden. Ein Beispiel dafür sind die dualen Körper, die sich dadurch ergeben, dass man den Mittelpunkt jeder Fläche mit den Mittelpunkten der angrenzenden Flächen verbindet. Einbeschreibungen. Es bestehen durchaus noch andere Möglichkeiten, einen platonischen Körper in einen anderen einzubauen. Zum Beispiel erhält man ein Tetraeder, wenn man die Diagonale einer Würfelfläche als eine Kante verwendet, die dazu windschiefe Diagonale auf der gegenüberliegende Fläche als eine andere, und als die anderen vier Kanten die Diagonalen benutzt, die die Enden der beiden verbinden. Ein Oktaeder erhält man, wenn man Flächen durch die Mittelpunkte der Kanten eines Tetraeders legt. Abgestumpfte platonische Körper. Wenn man von einem platonischen Körper ausgehend ein abgestumpftes Polyeder erzeugt, indem man seine Ecken so abschneidet, dass danach alle Kanten gleich lang sind, so erhält man einen halbregulären (archimedischen) Körper. Dieser Körper entsteht auch als Schnitt des platonischen Körpers mit seinem passend vergrößerten Dualkörper. Archimedische Körper sind Beispiele für "ziemlich" regelmäßige Körper, bei denen Polygone verwendet werden, die zwar regelmäßig, aber von unterschiedlicher Seitenzahl sind. Sternkörper. Baut man Pyramiden auf den Seitenflächen auf, anstatt abzuschneiden, erhält man Sternkörper, wie das Sterntetraeder. Verwendet man für die Pyramiden gleichseitige Dreiecke, hat man Beispiele für Polyeder, die vollständig aus gleichen Polygonen bestehen, bei denen aber unterschiedlich viele in den Ecken zusammenstoßen. Höherdimensionale Platonische Körper. Der Schweizer Mathematiker Ludwig Schläfli bestimmte 1852 die formula_20-dimensionalen Verwandten der Platonischen Körper – allerdings blieb sein Werk lange unbeachtet. Es stellte sich heraus, dass es im vierdimensionalen Raum einen zusätzlichen, sechsten Platonischen Körper gibt, den Ikositetrachor. Im fünfdimensionalen Raum – und auch in allen Räumen höherer Dimension – gibt es statt fünf nur noch drei Platonische Körper: Hypertetraeder, Hyperkubus und als dessen Dual das Hyperoktaeder Geschichte. Die Platonischen Körper wurden seit der Antike studiert. Die Pythagoreer (6. Jahrhundert v. Chr.) unterschieden zumindest zwischen Tetraeder, Hexaeder und Dodekaeder. Das Oktaeder wurde möglicherweise noch nicht beachtet, weil es als Doppelpyramide angesehen wurde. Der Athener Theaitetos (415–369 v. Chr.) kannte auch Oktaeder und Ikosaeder. Er bewies, dass es nur fünf konvexe reguläre Polyeder geben kann. Der griechische Philosoph Platon (ca. 427–347 v. Chr.), ein Zeitgenosse Theaitetos’, wurde der Namensgeber für die fünf Körper. In seinem Werk "Timaios" (Kap. 20, 53c4–55c6) beschrieb er sie ausführlich. Er band die Platonischen Körper in sein philosophisches System ein, indem er sie (ausgenommen Dodekaeder) den vier Elementen zuordnete (Kap. 21, 55c7–56c7): Feuer stand für das Tetraeder, Luft für das Oktaeder. Das Ikosaeder wurde mit Wasser assoziiert, das Hexaeder mit Erde. Das Dodekaeder ließ sich nach dieser Theorie mit dem von Aristoteles postulierten fünften Element Äther gleichsetzen. Euklid (360–280 v. Chr.) beschrieb die Platonischen Körper im XIII. Buch seiner "Elemente" (§§ 13–17). Darin bewies er unter anderem, dass es genau fünf gibt (§ 18a). Hypsikles nahm im später angefügten „XIV. Buch“ (aus dem 2. Jahrhundert v. Chr.) einige Volumenberechnungen vor. Das „XV. Buch“ (aus dem 6. Jahrhundert n. Chr.) enthielt weitere Entdeckungen griechischer Mathematiker bezüglich der fünf regulären Körper. Mit dem Aufkommen der Perspektive verarbeiteten mehrere Künstler die Platonischen Körper in ihren Werken: Piero della Francesca, Leonardo da Vinci (Illustrationen zu "Divina Proportione" von Luca Pacioli), Albrecht Dürer, Wenzel Jamnitzer ("Perspectiva Corporum Regularium", 1568). Johannes Kepler gelang es ("Mysterium Cosmographicum", 1596), die Bahnradien der sechs damals bekannten Planeten durch eine bestimmte Abfolge der fünf Körper und ihrer Innen- und Außenkugeln darzustellen. Diese Interpretation stimmte weitgehend mit den damals bekannten astronomischen Werten überein, entsprach aber tatsächlich keiner Gesetzmäßigkeit. Platonische Körper jenseits der Mathematik. Die fünf Platonischen Körper als „Würfel“ für Rollenspiele Die auffällige Regelmäßigkeit macht die platonischen Körper auf vielerlei Art für den Menschen interessant. Auch in der Natur können sich vorhandene Regelmäßigkeiten als platonische Körper ausprägen. Pierre de Fermat. Pierre de Fermat (* in der zweiten Hälfte des Jahres 1607 in Beaumont-de-Lomagne, Tarn-et-Garonne; † 12. Januar 1665 in Castres) war ein französischer Mathematiker und Jurist. Geburtsjahr und Eltern. Rückseite von Fermats Geburtshaus in Beaumont-de-Lomagne, 16. Jahrhundert. Rechts hinten der zum Haus gehörende Turm mit Aussichtsplattform, das zweithöchste Gebäude Beaumonts. Als Geburtsdatum galt lange Zeit der 20. August 1601. Neuere Recherchen ergaben jedoch, dass Fermat Ende 1607 oder Anfang 1608 in Beaumont-de-Lomagne, einer 55 km nordwestlich von Toulouse gelegenen Bastide, geboren wurde. Der am 20. August 1601 in Beaumont-de-Lomagne getaufte „Piere (Pierre) Fermat“ war nämlich ein früh verstorbener Halbbruder gleichen Namens aus der ersten Ehe seines Vaters Dominique Fermat mit Françoise Cazeneuve, die 1603 verstarb. Sein Vater heiratete 1604 in zweiter Ehe Claire de Long, und (wahrscheinlich im November) 1607 wurde der spätere Mathematiker Pierre Fermat geboren. Fermats Vater Dominique Fermat war ein erfolgreicher Großhändler mit ländlichen Produkten (Weizen, Wein und Vieh, auch Häute und Felle, jedoch kein Leder), der es durch großes Geschick zu erheblichem Wohlstand und hohem Ansehen gebracht hatte. Dreimal wurde er von den Bürgern Beaumonts für je ein Jahr zu einem der vier Konsuln gewählt, die die Stadt verwalteten (einen Bürgermeister gab es nicht). Seine zweite Heirat mit der adligen Hugenottin Claire de Long aus der Hugenottenhochburg Montauban spiegelte seinen inzwischen erreichten gesellschaftlichen Status wider. Schulbildung. Früheres Collège de Navarre in Montauban Über Fermats Schulbildung gibt es keine gesicherten Erkenntnisse, aber plausible Annahmen. Seine ersten Grundschuljahre dürfte er in einer der drei Elementarschulen für Knaben von Beaumont verbracht haben. Dass er, wie immer wieder zu lesen ist, das Franziskaner-Kolleg in seiner Heimatstadt besuchte, ist kaum möglich, weil dieses "collège" erst im Jahre 1683 eröffnet wurde. Den Franziskanern, die seit 1516 in Beaumont einen kleinen Konvent unterhielten, war zudem das Unterrichten des Griechischen verboten. Eine andere, von Michael S. Mahoney vertretene, Variante ist, dass Fermat seine primäre und sekundäre Erziehung in dem (zehn Kilometer östlich von Beaumont gelegenen) von den "Cordeliers" (Franziskanern) betriebenen Kloster Grandselve erhalten habe. Doch Grandselve war ein Zisterzienserkloster und hatte 1281 zwar ein "collège," das "collège Saint Bernard," gegründet, aber in diesem wurden nur die Mönche des Ordens in Theologie unterrichtet. Im Jahre 1615 starb Fermats Mutter Claire de Long, vermutlich im Wochenbett nach der Geburt ihrer Tochter Jeanne, die den Tod ihrer Mutter offenbar auch nicht überlebte. Fermat wurde daher mit nicht ganz acht Jahren Halbwaise. Seine vielgerühmte klassische Bildung dürfte Fermat von 1617 bis 1623 in dem reformierten "collège de Navarre" im nahegelegenen Montauban erhalten haben. Dort lebte seine Großmutter mütterlicherseits, Bourguine de l’Hospital. Dieses "collège" hatte auch Samuel de Long, der Bruder seiner Mutter, während der letzten Jahre der Religionskriege besucht. Es nahm auch katholische Schüler auf. Studium in Orléans. "Salle des Thèses" der alten Universität Orléans, wo die Studenten ihre Examina ablegten Fermat studierte von 1623 bis 1626 Zivilrecht an der Universität Orléans und schloss dieses Studium im Juli 1626 mit dem "baccalaureus iuris civilis" ab. Aus dieser Studienzeit stammt auch seine lebenslange Freundschaft mit Pierre de Carcavi (1606?–1684), der später für einige Jahre (1632–1636) sein Kollege am "parlement de Toulouse" wurde. Die Universität Orléans war eine alte und in ganz Europa berühmte Rechtsschule mit Universitätsrang, in der, als letzter, in den ersten drei Jahrzehnten des 17. Jahrhunderts noch der mos gallicus (der "humanisme juridique") durch drei beachtliche Professoren gelehrt wurde: Raoul Fornier (1562–1627), Jérome L’Huillier († 1633) und Jehan Matthieu Le Grand († 1625). Studenten, die noch nicht volljährig waren (Fermat war zu Studienbeginn knapp 16), wurden im Hause eines dieser Gelehrten "en tutelle" aufgenommen und dort auch unterrichtet. Bei wem Fermat Aufnahme fand, ist nicht bekannt. Aber dass er dort den letzten Schliff seiner allseits bewunderten klassischen Bildung erhielt, ist mehr als nur eine Spekulation. Anwalt in Bordeaux. Handschriftliche Randnotiz Fermats in den Konika des Apollonios von Perge Im September 1626 bestimmte Dominique Fermat in seinem Testament seinen älteren Sohn Pierre zum Universalerben, wobei er darin für seinen jüngeren Sohn Clément (vermutlich 1631/32 an der Pest gestorben) eine Abfindung und für seine Töchter Louise und Marie eine Mitgift festlegte. Im Herbst desselben Jahres ließ sich Pierre Fermat, vermutlich auf Anraten des Mathematikers Jean Beaugrand (1584–1640), als Anwalt "(avocat)" am "parlement de Bordeaux" nieder, wo er bis Ende 1630 blieb. Im Juni 1626 hielt sich nämlich Ludwig XIII. mit seinem Hofstaat, in dem sich auch Jean Beaugrand befand, für eine Woche in Orléans auf, ehe er sich mit der gesamten Entourage per Schiff auf der Loire nach Nantes begab. Beaugrand hatte gute Beziehungen zu einem Kreis mathematisch interessierter Männer in Bordeaux (aus Fermats Korrespondenz sind die Namen Etienne d’Espagnet (d’Espaignet), François Philon und Pierre Prades bekannt) und dürfte Fermat eine Empfehlung an einen von ihnen, Etienne d’Espagnet, mitgegeben haben. D’Espagnet, ein junger "conseiller" am "parlement de Bordeaux," hatte von seinem Vater Jean D’Espagnet, einem Freund François Viètes (1540–1603), eine allseits bewunderte wissenschaftliche Bibliothek geerbt, in der sich auch die damals sehr schwer erhältlichen Werke Vietas befanden. Hier begann die Karriere des 21-jährigen Fermat als Mathematiker, nachdem er Vieta sowie die antiken Mathematiker Euklid und Apollonios von Perge gründlich studiert hatte, mit seinen Arbeiten über Maxima und Minima und über Tangenten. Um die gleiche Zeit (1629) rekonstruierte er die beiden Bücher des Apollonios über die ebenen Örter ("De locis planis"). D’Espagnet und Fermat wurden Freunde fürs Leben. Aufstieg in die "Noblesse de Robe". Straßenseite von Fermats Geburtshaus, Mauer und Tor im 18. Jahrhundert hinzugefügt; im Hintergrund der zum Haus gehörende Fermat-Turm aus dem 15. Jahrhundert. Fermats Vater starb am 20. Juni 1628. Von diesem Augenblick an war Fermat ein reicher Mann. Um den Familienplan des Aufstiegs in die "noblesse de robe" zu erfüllen, musste er aber zunächst seine von einem königlichen Erlass geforderte vierjährige Praxis als Anwalt an einem der obersten Gerichtshöfe – eben in Bordeaux – absolvieren. Am 29. Dezember 1630 kaufte er für die enorme Summe von 43.500 Livres (ein freier Bauer erwirtschaftete in einem Jahr etwa 100 Livres) das Amt eines "conseiller au parlement de Toulouse et commissaire aux requêtes" von der Witwe des an der Pest gestorbenen Amtsvorgängers Pierre de Carriere und wurde am 14. Mai 1631 hierin vereidigt. Damit wurde Fermat zugleich in den Amtsadel "(noblesse de robe)" erhoben, erhielt den Titel eines "écuyer" (Schildknappe, Junker) sowie das Recht, das "de" vor seinem Namen zu führen, wovon er selbst aber nie Gebrauch machte. Heirat mit Louise de Long. Unterschriften von Pierre de Fermat und Louise de Long sowie eines Teils der zahlreichen Zeugen unter den Heiratsvertrag vom 18. Februar 1631 In diese Zeit fällt auch seine Heirat mit Louise de Long, Tochter des einflussreichen "conseiller" Clement de Long und Cousine vierten Grades mütterlicherseits, am 1. Juni 1631 in der Kapelle der "prévôté" der Kathedrale Saint-Etienne in Toulouse. Die Braut war noch sehr jung, geboren am 4. Juli 1615, und somit zur Zeit der Trauung noch nicht ganz sechzehn Jahre alt. Mit ihr hatte er acht Kinder, von denen fünf das Erwachsenenalter erreichten: Clément-Samuel, Jean, Claire, Catherine und Louise. Samuel (er benutzte selbst nur den bei den Hugenotten bevorzugten biblischen Namen seines Taufpaten) wurde ebenfalls Richter am "parlement de Toulouse," Jean machte Karriere als Geistlicher, Claire heiratete und Catherine und Louise nahmen den Schleier. Kathedrale Saint Étienne in Toulouse; die zugehörige "Prévôté" samt Kapelle musste im 19. Jahrhundert einer Straße weichen. Das "Parlement de Toulouse". Die "chambre aux requêtes" war die unterste Kammer des "parlement" und gehörte nicht zum eigentlichen "cour". Die französischen "parlements" waren im Prinzip reine Appellationsgerichte, die in letzter Instanz entschieden, nachdem nachgeordnete Gerichte bereits geurteilt hatten. In Ausnahmefällen, vor allem, wenn hochgestellte Persönlichkeiten einen Zivilprozess anstrebten, konnte von diesem Prinzip abgewichen werden. Über die Zulassung "(committimus)" eines solchen Begehrens entschied die "chambre aux requêtes" und wies, bejahendenfalls, das Verfahren einer der beiden "chambres des enquêtes" zu. Sie ermöglichte nicht den Aufstieg in die höheren Kammern des "parlement". Daher verkaufte Fermat dieses Amt am 4. Dezember 1637 an Pierre de Caumeil und erwarb das Amt des verstorbenen Pierre de Raynaldy am "cour" und wurde am 16. Januar 1638 darin registriert. Dieses Amt behielt er bis zu seinem Tod. Er war zuerst Mitglied der ersten der beiden "chambres des enquêtes," in denen Zivilprozesse in letzter Instanz im schriftlichen Verfahren entschieden wurden. Der weitere Aufstieg in die "chambre criminelle (la Tournelle)" und in die "Grand’Chambre" (die politische Kammer) erfolgte dann nach dem Anciennitätsprinzip. Mersennes "Republique des Lettres". Andrew Wiles besucht am 28. Oktober 1995 Beaumont-de-Lomagne und posiert vor dem dortigen Fermat-Denkmal, nachdem ihm am Tag zuvor in Toulouse der "Prix Fermat" verliehen worden war. Im April 1636 war Fermats Jugendfreund Pierre de Carcavi von Toulouse nach Paris gewechselt und hatte sogleich Kontakt mit dem berühmten Abt Marin Mersenne (1588–1648) aufgenommen. Wenige Tage später schrieb Mersenne einen (leider verlorengegangenen) Brief an Fermat und dieser antwortete am 26. April 1636. Damit begann eine über viele Jahre von Mersenne (und nach dessen Tod 1648 von Carcavi) vermittelte lebhafte Korrespondenz Fermats mit Gelehrten vieler europäischer Länder. Nur ein Teil dieser Briefe ist erhalten, viele nur in Abschriften Mersennes. Ende des Jahres 1637 entflammte dann der berühmte Streit Fermats mit René Descartes (1596–1650) über die Methoden der beiden Gelehrten zur Berechnung von Maxima und Minima sowie von Tangenten an algebraische Kurven, der am 11. Oktober 1638 mit einem Brief Descartes’ an Fermat endete. Fermats große Entdeckungen in der Zahlentheorie, die seinen Ruhm bis heute begründet haben, fallen in die Jahre 1638 bis 1643. Seine folgenreiche Randbemerkung "(cubum autem …)" neben der achten Aufgabe des zweiten Buches der "Arithmetika" des Diophantos von Alexandria verfasste Fermat wohl eher im Jahre 1641 (als im Jahre 1638). Unter seinen Zeitgenossen interessierte sich aber nur Bernard Frénicle de Bessy (1605?–1675) für Fermats zahlentheoretische Forschungen. Über sie berichtet André Weil in seinem Meisterwerk "Zahlentheorie". Homo politicus. Toulouse, No. 11 rue Saint-Remesy. Ob Fermat tatsächlich in der No. 11 gewohnt hat, ist nicht gesichert, wohl aber die Straße. Angesehene Mathematikhistoriker charakterisieren Fermats berufliches Leben als "ruhig" und "ereignisarm" sowie als "gesellschaftlich zurückgezogen". Er selbst wird als „sanftmütig“, „zurückhaltend“, „wenn nicht gar schüchtern“ beschrieben. Diese Behauptungen stehen jedoch im Widerspruch zu den belegbaren Tatsachen. Für ein ganzes Jahrzehnt, von 1644 bis 1653, ist von Fermat so gut wie keine Korrespondenz mathematischen Inhalts erhalten. Ob er in diesen Jahren überhaupt Zeit fand, seine mathematischen Forschungen fortzuführen, ist nicht zu ermitteln. Aber, dass er von den politischen Ereignissen und seiner Rolle darin stark beansprucht wurde, das lässt sich beweisen. Es gibt zwar keine Anzeichen, dass Fermat je eine politische Karriere angestrebt hätte. Dazu fehlten ihm wohl der entsprechende Ehrgeiz und die notwendige Skrupellosigkeit. Aber er war sehr wohl ein "homo politicus," der tatkräftig und mutig Verantwortung übernahm. Dazu hatte er genügend Gelegenheit. Dabei zeigte sich, dass Fermat ein besonderes Verhandlungsgeschick besaß, das er bewies, wenn es darauf ankam, zwischen den Interessen streitender Parteien zu vermitteln – eine Begabung, die er wohl von seinem Vater Dominique geerbt hatte. Reisen im Dienst. Toulouse, Rue Saint-Remesy, in der Fermat wohnte „Fermat starb schließlich”, schreibt André Weil, „ohne sich jemals weiter von zuhause weggewagt zu haben als bis nach Bordeaux.“ Am 28. November 1646 hatte die Grand’Chambre den Färbern von Nîmes aus protektionistischen Gründen per Dekret verboten, das "indigofera tinctoria" zu kaufen und zum Färben zu verwenden. Die bereits vorhandenen Vorräte sollten abgeliefert werden. Stattdessen sollten die "teinturiers" das im Lauragais angebaute isatis tinctoria (Färberwaid) verwenden. Als der Generalstaatsanwalt des Königs feststellte, dass die Färber von Nîmes dieses Verbot permanent missachteten, beauftragte der "cour" den "conseiller" Fermat im Mai 1647 damit, sich in das 300 km östlich von Toulouse gelegene Nîmes zu begeben, um dem Beschluss der Grand’Chambre Geltung zu verschaffen. Das bedeutete hin und zurück jeweils eine einwöchige Reise zu Pferde. Wie es Fermat gelang, sich bei den Färbern von Nîmes durchzusetzen, ist nicht bekannt. Jedenfalls war das keine Aufgabe, die man einem sanftmütigen, zurückhaltenden oder gar schüchternen Mann übertragen hätte. In seinen Briefen an Mersenne berichtet Fermat gelegentlich davon, dass er zu verschiedenen Missionen weit weg von Toulouse geschickt wurde. Die Jahre der Fronde. Pierre de Fermat von Jean Bertrand Loubens (1848–1913), Marmorstatue an der früheren Faculté des Sciences, Toulouse Andrew Wiles am 28. Oktober 1995 auf der Plattform des zu Fermats Geburtshaus gehörenden Turms Fermat hatte zudem die „krumme Tour“ "(voies obliques)" der zurückdatierten Quittungen aufgedeckt, die es den "partisans" ermöglichte, die dem König zustehenden Gelder zu ihrem Profit zu unterschlagen. Fermat, der aufgrund gemeinsamer wissenschaftlicher Interessen (Theorie des Lichts) guten persönlichen Kontakt zu Marin Cureau de la Chambre (1594–1669), Leibarzt des Königs und Freund des Kanzlers Pierre Séguier (1588–1672), besaß, wurde damit beauftragt, einen entsprechenden Brief über de la Chambre an Séguier zu schicken. Dieses Schreiben, in dem Fermat im Auftrag des "parlement" Vorschläge unterbreitet, wie die Steuern auf anderem Wege aufgebracht werden könnten, schickte er am 18. August 1648 an de la Chambre. Es blieb ohne Wirkung. Auch andere Als dann Ende des Jahres 1650 die "fronde des Princes" (1650–1652) auch im Languedoc losbrach, kam es schnell zu heftigen Auseinandersetzungen zwischen den Ständen "(états)" der Provinz, die sich dem Aufstand des Prinzen de Condé angeschlossen hatten, und dem "parlement de Toulouse," das sich königstreu verhielt. Die Stände erkannten die Rechtsprechung des "parlement" nicht mehr an und etablierten, ohne Autorisierung durch die Krone, unabhängige Versammlungen. Schließlich einigte man sich im Dezember 1651 darauf, zwei achtköpfige Kommissionen zu bilden, die Verhandlungen zur Beilegung des Konfliktes führen sollten. Die Kommission des "parlement" bestand aus dem "premier président," zwei "présidents à mortier" und fünf erfahrenen "conseillers," einer von ihnen war Fermat. Die Kommissionen verhandelten ein ganzes Jahr, bis der Rechtsfrieden wiederhergestellt war. Einsatz für Beaumont-de-Lomagne. Beaumont-de-Lomagne von Süd-Osten. Die königlichen Truppen hatten ihr Lager auf der gegenüberliegenden Anhöhe. Vom Oktober 1651 bis zum August 1652 wurde Fermats Geburtsort Beaumont-de-Lomagne von Truppen Condés unter militärischer Führung von Jacques de Guyonnet, eines "conseiller au parlement de Bordeaux," besetzt und ausgeplündert. Sie setzten die Konsuln der Stadt ab und erhoben die Steuern, die dem König zustanden. Als im Juli die zahlenmäßig überlegenen Truppen des Königs unter Führung des Grafen Savaillant ihr Lager auf einer Anhöhe oberhalb Beaumont aufschlugen und drohten, die Stadt mit Waffengewalt zu erstürmen, wandten sich die Bürger mit der Bitte um Vermittlung an die beiden aus Beaumont stammenden Juristen Pierre de Fermat und Abraham de Toureil (Tourreil), "procureur général au parlement de Toulouse" (Generalstaatsanwalt). Angeführt von Fermat und begleitet von den Konsuln Breville und Cirol begaben sie sich am 30. Juli 1652 in das Lager der königlichen Truppen und erreichten durch Verhandlungen, dass den Truppen Condés freier Abzug gewährt und die Stadt vor der Zerstörung bewahrt wurde. Zu allem Überfluss wurde das vollkommen ausgeplünderte Beaumont zu einer Strafzahlung von 15.000 Livres verurteilt, welche die Bürger nicht hätten aufbringen können. Die Summe wurde zu gleichen Teilen von Fermat, Toureil und Fermats Freund Jean-Georges de Saliné, Seigneur de Roujos, beglichen. Erkrankung an der Pest. Dieses Relief zeigt in der zweiten Zeile die Wappen und jeweils darunter die Namen der vier Konsuln des Jahres 1617 von Beaumont-de-Lomagne, an dritter Stelle die des Paten des Mathematikers Pierre de Fermat, Bruder seines Vaters Dominique. 1652 wechselte Fermat aus Anciennitätsgründen an die "chambre criminelle (la Tournelle)" des "parlement de Toulouse". Im Herbst dieses Jahres brach in Toulouse die letzte große Pestepidemie aus, die erst im Juli 1653 endete und der in der Stadt rund 4000 Menschen (ein Zehntel der Einwohner von Toulouse) zum Opfer fielen. Im Mai 1653 meldete ein Freund, der Philosoph Bernard Medon, in einem Brief an Nicolaas Heinsius den Älteren (1620–1681) den Tod Fermats: widerrief dies jedoch im nächsten Brief: Fermat überlebte, wohl wegen guter ärztlicher/chirurgischer Betreuung und robuster Gesundheit, die Beulenpest, der rund die Hälfte der Betroffenen zum Opfer fielen. Vieles deutet jedoch darauf hin, dass seine Gesundheit seit dieser Zeit geschwächt war. Fermats Leben war, wie das der meisten Franzosen in der ersten Hälfte des 17. Jahrhunderts, immer wieder von der Beulenpest betroffen. Die Möglichkeit, sich 1630 das Amt eines "conseiller au parlement de Toulouse" zu kaufen, der Tod seines kaum 20-jährigen Bruders Clèment 1631/32 und seine eigene lebensgefährliche Erkrankung im Jahre 1653 hingen alle mit den Pestepidemien zusammen. Pascal und die Berechnung des Glücks. Fermat-Skulptur von Alexandre Falguières, hier noch "en pierre," seit 2013 wieder in Bronze (1943 hatte die deutsche Besatzung die ursprüngliche Bronze-Skulptur einschmelzen lassen.) Nach seiner Genesung wechselte er im November 1654 routinemäßig in die "Grand’Chambre," die höchste und politische Kammer des "parlement de Toulouse" (jährlich wurden je zwei Richter zwischen der "Grand’Chambre" und der "Tournelle" ausgetauscht, sie galten daher als eine einzige, aber zweigeteilte Kammer). Zwischen Juli und Oktober 1654 fand zwischen Blaise Pascal (1623–1662) und Fermat der berühmte Schriftwechsel über die gerechte Aufteilung des Einsatzes eines Glücksspiels bei vorzeitigem Abbruch des Spiels statt. Diese Korrespondenz gilt als Markstein in der Frühgeschichte der Wahrscheinlichkeitsrechnung. Schon im November 1655 ließ sich Fermat erneut zur "Chambre de l’Edit" für zwei Sitzungsperioden (1655/56 und 1656/57) nach Castres abordnen. Die "Chambre de l’Edit" in Castres. "Hôtel" des reformierten Anwalts Rozel in Castres (17. Jahrhundert), eines der wenigen noch erhaltenen Zeugnisse aus der ruhmreichsten Zeit der Stadt Eine bedeutende Rolle in seinem Berufsleben spielte nämlich seine häufige Abordnung als katholischer Richter an die Chambre de l’Edit (de Nantes) in Castres in den Sitzungsperioden (von November bis August) 1638/39, 1644/45, 1645/46, 1648/49, 1649/50, 1655/56, 1656/57, 1663/64 und 1664/65. Kein anderer katholischer Richter ließ sich so oft nach Castres abordnen. Diese Kammer war von Heinrich IV. endgültig im Jahre 1598 in der Hugenottenhochburg Castres eingerichtet worden und war paritätisch mit je zehn reformierten und katholischen Richtern besetzt. In ihr wurden alle Zivil- und Strafprozesse durchgeführt, in die Personen beider Konfessionen verwickelt waren. Fermat war ein aufgeklärter und toleranter Katholik, mit einer deutlichen Sympathie für die reformierte Religion. Seine Mutter stammte aus einer adligen Hugenottenfamilie aus Montauban, er selbst erhielt seine vielgerühmte klassische Bildung am reformierten "collège de Navarre" in Montauban und hatte unter den reformierten Richtern und Anwälten in Castres mehrere enge Freunde, darunter Pierre Saporta (1613–1685?) und Jacques de Ranchin (1620–1692). Die reformierte Gelehrtenakademie. In Castres hatten die gebildeten Hugenotten 1648 eine wissenschaftlich-literarische Akademie gegründet, in der Katholiken als Mitglieder nicht zugelassen waren. In ihr trug Ranchin fromme und frivole lateinische Gedichte Fermats und dessen Sohnes Samuel vor. Fermat widmete seinerseits Ranchin seine kritischen Bemerkungen zum Werk des griechischen Historikers Polyainos (2. Jahrhundert n. Chr.) und gab damit eine Kostprobe seiner Beherrschung der griechischen Philologie. Saporta gab im Jahre 1664 einen der wenigen zu Fermats Lebzeiten im Druck erschienenen Texte heraus. Es handelt sich um einen kurzen Text, in dem dieser eine Passage aus einem Brief des Synesios von Kyrene erläutert, wo dieser ein „Hydroskop“ oder „Baryllon“ beschreibt. Fermat nennt es ein „Areometer“. Fermats jüngste Tochter Louise wurde in Castres geboren, und sein jüngerer Sohn Jean war Chorherr in Castres, als sein Vater im Januar 1665 dort starb. Die Quelle des Wohlstandes. Fermat-Denkmal vor der Markthalle von Beaumont, Skulptur von Alexandre Falguières (1831–1900) Seine Parlamentsferien (September/Oktober) pflegte Fermat in seinem Geburtsort Beaumont-de-Lomagne zu verbringen, in dessen näherer und weiterer Umgebung er sechs größere, von seinem Vater geerbte Landgüter (sowie einige Weingärten) besaß. Diese hatte er alle auf Métayage-Basis verpachtet, das heißt, er erhielt zur Erntezeit die Hälfte der vom Pächter erzeugten Früchte. Von deren Verkauf lebte Fermat mit seiner Familie, demgegenüber waren seine Einkünfte aus seiner Tätigkeit als "conseiller" eher gering. Vom ökonomischen Gesichtspunkt aus betrachtet war der Erwerb des Amtes eines "conseiller" an einem der "parlements" ein schlechtes Geschäft. Der Gewinn bestand jedoch im Aufstieg in die "noblesse de robe," in den Privilegien, die mit dem Amt verbunden waren, in dem hohen Sozialprestige und, bei Erreichen der "Grand’Chambre," in der Teilhabe an der politischen Macht. Korrespondenz mit Wallis, Brouncker und van Schooten. Im Jahre 1656 besuchte Sir Kenelm Digby (1603–1665) Fermat, entweder in Castres oder in Beaumont. Über die Vermittlung Digbys, der sich bis 1660 vorwiegend in Paris aufhielt, entwickelte sich eine von Januar 1657 bis Juni 1658 dauernde, lebhafte mathematische Korrespondenz, an der sich John Wallis (1616–1703), William Lord Viscount Brouncker (1620?–1684), Frans van Schooten (1615?–1660) und Frénicle de Bessy beteiligten. Sie verlief für Fermat am Ende ziemlich unbefriedigend, weil die Herren (Frénicle ausgenommen) seine zahlentheoretischen Herausforderungen weder verstanden noch zu würdigen wussten. Fermat und der Fall Delpoy. Nach seiner Rückkehr im November 1657 aus Castres in die "chambre criminelle (la Tournelle)" in Toulouse wurde Fermat als Berichterstatter "(rapporteur)" in einen spektakulären Justizmord verwickelt, der Fermats berufliches Leben bis zu seinem Tode überschattete. Dieser nur aus einem einzigen (den Sachverhalt verfälschenden) Hinweis in einem Brief des „notorischen Lügners“ Sir Kenelm Digby vom 6. Februar 1658 an John Wallis bekannte Fall wurde erst im Jahre 2007 aufgeklärt. Auf Betreiben des obersten Richters "(premier président)" des "parlement de Toulouse," Gaspard de Fieubet (1622–1668), wurde der katholische Priester Raymond Delpoy am 9. Januar 1658 von den vereinigten Kammern "la Tournelle" und "Grand’Chambre" zum Tode verurteilt, weil er seinem Beichtkind Françoise de Lacombe, einer 14-jährigen Hugenottin, die sich zu einer Umerziehung zu einer „guten Katholikin“ im von der berüchtigten Madame de Mondonville geführten "maison des nouvelles converties" befand, zur Flucht aus ebendiesem Haus verholfen und sie bei seinem Bruder, dem Arzt Pierre Delpoy, im rund 100 Kilometer entfernten Limoux versteckt hatte. Der Priester wurde gehängt, seine Leiche auf einem Scheiterhaufen verbrannt und seine Asche in alle Winde verstreut. Der sonst äußerst fleißige Fermat konnte mehrere Monate kaum als Richter arbeiten (auch nicht an dem Beweis eines uninteressanten Theorems von Wallis), verlor die Lust an seinem Amt am "cour" und wollte es an seinen Sohn Samuel vererben, was daran scheiterte, dass dieser noch nicht 25 Jahre alt war. Mit dem "premier président" Gaspard de Fieubet war er seitdem verfeindet. Beurteilung durch Bazin de Bezons. Fermat mit Muse, von Théophile Eugène Victor Barrau (1848–1913), im "Salle des Illustres" des Capitole, Toulouse Fermat, ein schlechter Jurist? Henri Gilles (1921–2012), Professor für Rechtsgeschichte der Université de Toulouse 1, Fermatforscher Das Brechungsgesetz und das Prinzip des kürzesten Weges. (Archives de Castres, GG II) Nach dem rätselhaften Tod Descartes’ am 11. Februar 1650 hatte Claude Clerselier (1614–1684), der Herausgeber und Übersetzer von Descartes’ Schriften und sein glühender Verehrer, damit begonnen, auch Descartes’ Briefe für die Publikation vorzubereiten. Anfang des Jahres 1657 wandte sich Clerselier an Fermat, um dessen Diskussion mit Descartes von 1637 über das Snelliussche Brechungsgesetz wieder aufzunehmen, wohl in der Hoffnung, Fermat dazu zu bewegen, die Überlegenheit der Position Descartes’ einzuräumen. Stattdessen jedoch wurde daraus ein bis zum 21. Mai 1660 dauernder Briefwechsel, in dem Clerselier Fermat durch ständige Einwände dazu zwang, seine Argumentation immer wieder zu verbessern, bis es Fermat am Ende gelang, einen mathematisch stichhaltigen Beweis zu erbringen, dass man das Snelliussche Brechungsgesetz aus dem Fermatschen Prinzip des zeitlich kürzesten Weges herleiten kann. Fermat war nicht der Entdecker des Brechungsgesetzes. Die Bedeutung seiner letzten großen mathematischen Leistung liegt in seiner Anwendung der (noch integralfreien) Variationsrechnung, in deren Geschichte sie einen wichtigen Platz einnimmt. Danach erlaubte er seiner geliebten „Geometrie“, „in einen tiefen Schlaf zu fallen“. Vorbereitung auf das Ende und Tod. "Musée des Augustins" in Toulouse, vor der Französischen Revolution Augustinerkloster, darin damals die Grabstätte der Fermats In einem Brief vom 25. Juli 1660 an Blaise Pascal, wie Fermat ebenfalls kränklich, schlägt er vor, sich mit Pascal auf halbem Wege zwischen Clermont-Ferrand und Toulouse zu treffen, („weil meine Gesundheit nicht viel besser ist als die Eure“). Wenn Pascal dazu nicht bereit sei und erwarte, dass Fermat den ganzen Weg zwischen den beiden Städten zurücklege, rund 380 km, („würdet Ihr Gefahr laufen, mich bei Euch zu sehen und dort zwei Kranke zur gleichen Zeit zu haben“). Schon im selben Jahr, am 4. März, hatte Fermat sein Testament geschrieben und darin seinen älteren Sohn Samuel zum Universalerben eingesetzt. Dieses Testament ergänzte er am 13. September 1664, offenbar in der Erwartung seines nicht mehr fernen Todes, durch ein Kodizill, worin er seinen Sohn Samuel verpflichtet, seiner Mutter Louise de Long aus dem Erbe 32.000 Livres zu zahlen. Diese Summe konnte sie gut gebrauchen, denn sie überlebte ihren Gatten um mindestens 25 Jahre; ihre Unterschrift findet sich unter einem Dokument vom 3. Oktober 1690. Das Kodizill beginnt mit den Worten: („Ich, der Unterzeichnende, leide an einer Krankheit, die schlimme Folgen haben könnte“). Noch einmal setzt er seine Tätigkeit an der "Chambre de l’Édit" in Castres fort und erfüllt seine richterlichen Aufgaben bis zum Ende. Seine Unterschrift unter einem Beschluss findet sich zum letzten Mal vom 5. Januar 1665, und sein letzter Bericht wurde von ihm in der Kammer am 9. Januar gelesen, aber nicht mehr unterzeichnet. Er stirbt in Castres, nach Empfang der Sterbesakramente und bis zuletzt bei klarem Bewusstsein, am 12. Januar 1665. Fermats Epitaph. mini Beiträge zur Mathematik. Fermat beschäftigte sich, wie die meisten Wissenschaftler seiner Zeit, nicht hauptberuflich mit der Mathematik. Vielmehr war er ein vielbeschäftigter und engagierter Richter am "parlement de Toulouse." So beschränkte sich sein Einfluss auf die Korrespondenz mit vielen bedeutenden Gelehrten seiner Zeit. Es sind Briefwechsel erhalten mit (alphabetisch) Jean de Beaugrand, Pierre Brûlart de Saint-Martin, Claude Clerselier, René Descartes, Bernard Frénicle de Bessy, Pierre Gassendi, Christiaan Huygens, Étienne Pascal, Blaise Pascal, Gilles de Roberval und John Wallis. Andere Korrespondenzen, zum Beispiel mit Galileo Galilei und Evangelista Torricelli, liefen indirekt über Marin Mersenne oder Pierre de Carcavi. Eine wichtige Quelle ist die von seinem Sohn vorgenommene Ausgabe seines Nachlasses, einschließlich der von ihm kommentierten Arithmetik des Diophantos von Alexandria. Er leistete bahnbrechende Beiträge zur Differentialrechnung, analytischen Geometrie, Zahlentheorie, Wahrscheinlichkeitsrechnung und Variationsrechnung. Dabei teilte er seine Erkenntnisse oft nur in Form von „Herausforderungen“ "(défis)" mit, das heißt, er gab nur das Resultat an, nicht hingegen den Lösungsweg. Ehrungen. Fermat zu Ehren wird von der Universität Paul Sabatier in Toulouse seit 1989 alle zwei Jahre der Prix Fermat verliehen. Der Mondkrater Fermat wurde 1935 von der IAU nach ihm benannt. Schriften. Zu Lebzeiten von Fermat wurde nur eine Abhandlung von Fermat über Integration von Antoine de Lalouvère ohne Nennung des Autors als Anhang zu seinem "Veterum geometria promota in septem de cycloide libris" (1660) veröffentlicht. Java (Programmiersprache). Java ist eine objektorientierte Programmiersprache und eine eingetragene Marke des Unternehmens Sun Microsystems (2010 von Oracle aufgekauft). Die Programmiersprache ist ein Bestandteil der Java-Technologie – diese besteht grundsätzlich aus dem Java-Entwicklungswerkzeug (JDK) zum Erstellen von Java-Programmen und der Java-Laufzeitumgebung (JRE) zu deren Ausführung. Die Laufzeitumgebung selbst umfasst die virtuelle Maschine (JVM) und die mitgelieferten Bibliotheken. Java als Programmiersprache darf nicht mit der Java-Technologie gleichgesetzt werden, Java-Laufzeitumgebungen führen Bytecode aus, der neben der Java-Programmiersprache auch aus anderen Programmiersprachen wie Nice und Groovy kompiliert werden kann. Im Prinzip könnte jede Programmiersprache als Grundlage für Java Bytecode genutzt werden, meistens existieren aber keine entsprechenden Bytecode-Compiler. Die Programmiersprache "Java" dient innerhalb der Java-Technologie vor allem dem Formulieren von Programmen. Diese liegen zunächst als reiner, menschenverständlicher Text vor, als sogenannter Quellcode. Dieser Quellcode ist nicht direkt ausführbar; erst der Java-Compiler, der Teil des Entwicklungswerkzeugs ist, übersetzt ihn in einen maschinenverständlichen Code, den sogenannten Java-Bytecode. Die Maschine, die diesen Bytecode ausführt, ist jedoch typischerweise virtuell – das heißt, der Code wird meist nicht direkt durch Hardware (etwa einen Mikroprozessor) ausgeführt, sondern durch entsprechende Software auf der Zielplattform. Zweck dieser Virtualisierung ist Plattformunabhängigkeit: Das Programm soll ohne weitere Änderung auf jeder Rechnerarchitektur laufen können, wenn dort eine passende Laufzeitumgebung installiert ist. Oracle selbst bietet Laufzeitumgebungen für die Betriebssysteme Linux, OS X, Solaris und Windows an. Andere Hersteller lassen eigene Java-Laufzeitumgebungen für ihre Plattform zertifizieren. Auch in Autos, HiFi-Anlagen und anderen elektronischen Geräten wird Java verwendet. Um die Ausführungsgeschwindigkeit zu erhöhen, werden Konzepte wie die Just-in-time-Kompilierung und die Hotspot-Optimierung verwendet. In Bezug auf den eigentlichen Ausführungsvorgang kann die JVM den Bytecode also interpretieren, ihn bei Bedarf jedoch auch kompilieren und optimieren. Java ist eine der populärsten Programmiersprachen. In dem seit 2001 veröffentlichten TIOBE-Index lag Java, konkurrierend mit C, stets auf Platz 1 oder 2 des Rankings. Nach dem RedMonk-Programmiersprachenindex 2015 liegt Java knapp auf Platz zwei nach JavaScript, nach dem "Programming Language Popularity"-Index liegt Java ebenfalls auf Platz zwei, diesmal aber nach C. Objektorientierung. Die Grundidee der objektorientierten Programmierung ist, Daten und zugehörige Funktionen möglichst eng in einem sogenannten Objekt zusammenzufassen und nach außen hin zu kapseln (Abstraktion). Die Absicht dahinter ist, große Softwareprojekte einfacher zu verwalten und die Qualität der Software zu erhöhen. Ein weiteres Ziel der Objektorientierung ist ein hoher Grad der Wiederverwendbarkeit von Softwaremodulen. Ein neuer Aspekt von Java gegenüber den objektorientierten Programmiersprachen C++ und Smalltalk ist die explizite Unterscheidung zwischen Schnittstellen und Klassen, die durch entsprechende Schlüsselwörter codice_4 und codice_5 ausgedrückt wird. Java unterstützt kein Erben von mehreren unabhängigen Basisklassen (sogenannte „Mehrfachvererbung“ wie in C++ oder Eiffel), wohl aber das Implementieren einer beliebigen Zahl von Schnittstellen, womit sich viele der entsprechenden Probleme ebenfalls lösen lassen. Dabei werden nur die Methodensignaturen an die abgeleiteten Klassen weitergegeben, jedoch keine Attribute und keine Implementierungen der Methoden. Java ist nicht vollständig objektorientiert, da die Grunddatentypen (int, boolean usw.) keine Objekte (siehe auch unter Java-Syntax) sind. Sie werden allerdings ab Java 1.5 bei Bedarf automatisch und für den Programmierer transparent mittels Autoboxing in die entsprechenden Objekttypen und umgekehrt umgewandelt. Reflection. Java bietet eine Reflection-API als Bestandteil der Laufzeitumgebung. Damit ist es möglich, zur Laufzeit auf Klassen und Methoden zuzugreifen, deren Existenz oder genaue Ausprägung zur Zeit der Programmerstellung nicht bekannt war. Häufig wird diese Technik im Zusammenhang mit dem Entwurfsmuster Fabrikmethode ("Factory Method") angewandt. Annotationen. Mit Java 5 hat Sun die Programmiersprache um Annotationen erweitert. Annotationen erlauben die Notation von Metadaten und ermöglichen bis zu einem gewissen Grad benutzerdefinierte Spracherweiterungen. Sinn der Annotationen ist unter anderem die automatische Erzeugung von Code und anderen in der Software-Entwicklung wichtigen Dokumenten für wiederkehrende Muster anhand möglichst kurzer Hinweise im Quelltext. Bislang wurden in Java dafür ausschließlich Javadoc-Kommentare mit speziellen JavaDoc-Tags verwendet, die von Doclets wie zum Beispiel dem XDoclet ausgewertet wurden. Annotationen können auch in den kompilierten Class-Dateien enthalten sein. Der Quelltext wird also für ihre Verwendung nicht benötigt. Insbesondere sind die Annotationen auch über die Reflection-API zugänglich. So können sie zum Beispiel zur Erweiterung des Bean-Konzeptes verwendet werden. Modulare Ausführung auf fernen Computern. Java bietet die Möglichkeit, Klassen zu schreiben, die in unterschiedlichen Ausführungsumgebungen ablaufen. Beispielsweise lassen sich Applets in Webbrowsern, die Java unterstützen, ausführen. Das Sicherheitskonzept von Java kann dazu eingesetzt werden, dass unbekannte Klassen dabei keinen Schaden anrichten können, was vor allem bei Applets wichtig ist (siehe auch Sandbox). Beispiele für in entsprechenden Ausführungsumgebungen ausführbare Java-Module sind Applets, Servlets, Portlets, Midlets, Xlets, Translets, und Enterprise JavaBeans. Merkmale. Der Objektzugriff in Java ist über Referenzen implementiert, die den aus C oder C++ bekannten Zeigern ähneln. Die Sprachdefinition (Java Language Specification) bezeichnet sie als „Reference Values“ um deutlich zu machen, dass sie als Call by value übergeben werden. Aus Sicherheitsgründen erlauben diese weder den Verweis auf Methoden oder andere Referenzen, noch die tatsächliche Speicheradresse zu erkennen oder zu modifizieren. So genannte Zeigerarithmetik ist in Java somit ausgeschlossen. Per Design kann so ein häufiger Typ von Fehlern, die in anderen Programmiersprachen auftreten, von vornherein ausgeschlossen werden. Zusammengehörige Klassen werden in Paketen (englisch "packages") zusammengefasst. Diese Pakete ermöglichen die Einschränkung der Sichtbarkeit von Klassen, eine Strukturierung von größeren Projekten sowie eine Trennung des Namensraums für verschiedene Entwickler. Die Paketnamen sind hierarchisch aufgebaut und beginnen meist mit dem (umgekehrten) Internet-Domainnamen des Entwicklers. (Pakete, die von Sun erstellt werden, beginnen z. B. mit „com.sun.“) Klassennamen müssen nur innerhalb eines Paketes eindeutig sein. Hierdurch ist es möglich, Klassen von verschiedenen Entwicklern zu kombinieren, ohne dass es zu Namenskonflikten kommt. Die Hierarchie der Paketnamen hat allerdings keine semantische Bedeutung. Bei der Sichtbarkeit zwischen den Klassen zweier Pakete spielt es keine Rolle, wo sich die Pakete in der Namenshierarchie befinden. Klassen sind entweder nur für Klassen des eigenen Paketes sichtbar oder für alle Pakete. Weiter unterstützt die Sprache Threads (nebenläufig ablaufende Programmteile) und Ausnahmen (englisch "exception"). Java beinhaltet auch eine automatische Speicherbereinigung (englisch "garbage collector"), die nicht (mehr) referenzierte Objekte aus dem Speicher entfernt. Java unterscheidet explizit zwischen Schnittstellen und Klassen. Eine Klasse kann beliebig viele Schnittstellen implementieren, hat aber stets genau eine Basisklasse. Java unterstützt kein direktes Erben von mehreren Klassen („Mehrfachvererbung“), jedoch die Vererbung über mehrere Hierarchie-Ebenen (Klasse "Kind" erbt von Klasse "Vater", die ihrerseits von Klasse "Großvater" erbt usw.). Je nach Sichtbarkeit (codice_6, codice_7, "default"/"package-private", codice_8) erbt die Klasse Methoden und Attribute (auch Felder genannt) von ihren Klassenvorfahren. Alle Klassen sind – direkt oder indirekt – von der Wurzelklasse codice_9 abgeleitet. Zu Java gehört eine umfangreiche Klassenbibliothek. Dem Programmierer wird damit eine einheitliche, vom zugrundeliegenden Betriebssystem unabhängige Schnittstelle (Application programming interface, API) angeboten. Mit Java 1.2 wurden die Java Foundation Classes (JFC) eingeführt, die unter anderem Swing bereitstellen, das zur Erzeugung plattformunabhängiger grafischer Benutzerschnittstellen (GUI) dient und auf dem Abstract Window Toolkit basiert. Syntax. Syntax/Grammatik und Semantik von Java sind in der Java Language Specification (Java-Sprachspezifikation) von Sun Microsystems dokumentiert. Das folgende Beispielprogramm gibt die unter Programmierern klassische Meldung „Hallo Welt!“ auf dem Ausgabemedium aus. Entstehung. Herkunft und Entwicklung der Programmiersprache Java sowie mit ihr verwandter Technik sind im Artikel Java-Technologie beschrieben. Sun und JCP. Neben Sun kümmert sich eine Vielzahl von Einzelpersonen, kleiner und großer Unternehmen, wie Apple, IBM, Hewlett-Packard und Siemens beim Java Community Process (JCP) unter anderem um die Weiterentwicklung der Java-Sprachspezifikation. Der JCP wurde 1998 von Sun Microsystems ins Leben gerufen. Java als freie Software. Sun hat zugesichert, sein JDK unter der GNU General Public License zu veröffentlichen. Am 13. November 2006 wurden bereits mit dem Compiler javac und der Hotspot Virtual Machine erste Teile als Open Source veröffentlicht. Zudem wurde mit OpenJDK eine Community-Seite eröffnet, mit deren Hilfe die Entwicklung koordiniert werden soll. Am 8. Mai 2007 folgten dann große Teile des „Java-SE“-Quellcodes zum Erstellen eines JDK. Eine Ausnahme stellt solcher Code dar, für den Sun nicht die nötigen Rechte besitzt, um ihn freizugeben. Dieser liegt somit nur in kompilierter Form vor. Ebenfalls kündigte Sun an, dass Entwicklungen auf Grundlage des OpenJDK das „Java Compatible“-Logo führen dürfen, wenn sie nach dem „Technical Compatibility Kit“ (JCK) zertifiziert sind. Zuvor wurde der Quelltext von Java unter anderem bei jedem JDK mitgeliefert und ermöglichte so zwar Einsicht, er durfte aber nicht beliebig modifiziert werden. Deswegen gibt es neben den offiziellen JCP auch diverse unabhängige Vereinigungen, die es sich zum Ziel gesetzt haben, ein unter eine freie Open-Source-Lizenz gestelltes Java bereitzustellen. Die bekanntesten dieser Projekte sind Apache Harmony, Kaffe und das GNU-Classpath-Projekt. Unterschiede zu ähnlichen Sprachen. Darüber hinaus bietet Java die Möglichkeit aus Java-Code heraus verschiedene Skriptsprachen auszuführen. Ebenfalls gibt es eine Reihe an Programmiersprachen, die nach Java Bytecode kompiliert werden. Damit lassen sich Programmteile auch in anderen Programmiersprachen umsetzen. Mit JDK Version 7, das am 28. Juli 2011 erschienen ist, wurde auch die Unterstützung für dynamische „Fremdsprachen“ durch die Virtual Machine verbessert. JavaScript. Java darf nicht mit der Skriptsprache JavaScript verwechselt werden. JavaScript wurde von Netscape Communications entwickelt, hieß früher LiveScript und wurde im Zuge einer Kooperation zwischen Netscape und Sun Microsystems in JavaScript umbenannt. JavaScript ist eine dynamisch typisierte, objektbasierte, aber klassenlose Skriptsprache mit einer ähnlichen Syntax wie C, Perl oder Java, unterscheidet sich jedoch in vielerlei Hinsicht von Java. Trotz der Ähnlichkeit der Namen der beiden Programmiersprachen unterscheidet sich Java stärker von JavaScript als zum Beispiel von C++ oder C#. JavaScript wird vornehmlich in HTML-Seiten zur eingebetteten Programmierung verwendet, um interaktive Webapplikationen zu ermöglichen. Smalltalk. Smalltalk ist eine der ältesten objektorientierten Programmiersprachen überhaupt. Java erbt von Smalltalk die grundsätzliche Konzeption eines Klassenbaumes, in den alle Klassen eingehängt werden. Dabei stammen alle Klassen entweder direkt oder indirekt von der Klasse codice_10 ab. Außerdem wurden die Konzepte der automatischen Speicherbereinigung "(garbage collector)" und der virtuellen Maschine übernommen sowie eine Vielzahl weiterer Merkmale der Sprache Smalltalk. Smalltalk kennt jedoch keine primitiven Datentypen wie zum Beispiel codice_11 – selbst eine einfache Zahl ist ein Objekt. Dieses Konzept wurde nicht nach Java übernommen, primitive Datentypen werden aber ab Java 1.5 mittels Autoboxing bei Bedarf in die entsprechenden Objekttypen und umgekehrt umgewandelt. C++. Java lehnt seine Syntax an die der Programmiersprache C++ an. Im Gegensatz zu C++ fanden jedoch komplexe Konstrukte wie Mehrfachvererbung oder die fehleranfällige Zeigerarithmetik keinen Einzug. Klassen können nur eine Superklasse haben (Einfachvererbung), aber eine beliebige Anzahl von Interfaces implementieren. Interfaces entsprechen abstrakten Klassen in C++, die keine Attribute oder konkrete Methoden besitzen, werden allerdings konzeptionell anders als die auch in Java möglichen abstrakten Klassen verwendet. Die interne Speicherverwaltung wird dem Java-Entwickler weitgehend abgenommen; dies erledigt die automatische Speicherbereinigung. Deshalb ist Java in vielen Fällen leichter zu handhaben als C++. Allerdings garantiert auch dieser Mechanismus nicht den vollständigen Ausschluss von Speicherlecks. Letztlich muss der Programmierer dafür sorgen, dass nicht mehr verwendete Objekte von keinem laufenden Thread mehr referenziert werden. Sich gegenseitig referenzierende Objekte, die von keinem Thread aus mehr über Referenzen erreichbar sind, werden ebenfalls freigegeben, wobei es dem Garbage Collector (GC) obliegt, wann und ob überhaupt diese Objekte freigegeben werden. Jede Objektklasse besitzt zusätzlich eine Methode namens "finalize", die vom GC aufgerufen werden kann, um zusätzliche „Aufräumarbeiten“ durchzuführen. Es gibt jedoch keine Garantie, wann und ob dies geschieht. Sie ist daher nicht mit einem Destruktor aus C++ vergleichbar. Im Gegensatz zu C++ ist es in Java nicht möglich, Operatoren (zum Beispiel arithmetische Operatoren wie codice_12 und codice_13, logische Operatoren wie codice_14 und codice_15, oder den Index-Operator codice_16) zu überladen, das heißt in einem bestimmten Kontext mit neuer Bedeutung zu versehen. Dies sorgt einerseits für eine Vereinfachung der Sprache an sich und verhindert, dass Quellcodes mit Operatoren, die mit schwer nachvollziehbarer Semantik überladen werden, unleserlich gemacht werden. Andererseits würden benutzerdefinierte Typen mit überladenen Operatoren in C++ eher wie eingebaute Typen erscheinen können – vor allem numerischer Code wäre so mitunter einfacher nachzuvollziehen. Die Sprachdefinition von Java definiert jedoch typabhängiges Verhalten der Operatoren codice_12 (Addition bei arithmetischen Operanden, andernfalls zur Verkettung von Zeichenketten „string concatenation“) sowie codice_18, codice_19 und codice_20 (logisch für boolean und bitweise für arithmetische Operanden). Das lässt diese Operatoren zumindest wie teilweise überladene Operatoren erscheinen. Das C++-Konstrukt der „Templates“, die es erlauben, Algorithmen oder sogar ganze Klassen unabhängig von den darin verwendeten Datentypen zu definieren, wurde in Java nicht übernommen. Seit Version 1.5 unterstützt Java aber sogenannte „Generics“, die zwar keinerlei Metaprogrammierung erlauben, aber ähnlich wie C++-Templates typsichere Container und ähnliches ermöglichen. In Java wurde das Schlüsselwort codice_21 reserviert, hat aber keine Funktion. Die Alternative zu codice_21 (und Präprozessor-Direktiven) ist codice_23. Im Gegensatz zu codice_21 wird final in einer Methodensignatur nicht vererbt und hat somit nur im aktuellen Scope Gültigkeit. Den codice_23-Modifikator kann eine Klasse (die dadurch nicht mehr abgeleitet werden kann), ein Attribut (dessen Wert so nur einmal gesetzt werden kann) oder eine Methode (die dadurch unüberschreibbar wird) besitzen. C# (.NET). Die .NET-Plattform von Microsoft kann als Konkurrenzprodukt zu Java gesehen werden. Mit der Spezifikation von hat Microsoft im Rahmen seiner.NET-Strategie versucht, den Spagat zwischen der Schaffung einer neuen Sprache und der leichten Integration bestehender Komponenten zu schaffen. Konzeptionelle Unterschiede zu Java bestehen insbesondere in der Umsetzung von Callback-Mechanismen. In.NET ist hierzu die Unterstützung von "Delegaten" (englisch "delegates") implementiert, einem Konzept, das mit Funktionszeigern vergleichbar ist. In Java kommt hingegen meist das Beobachter-Entwurfsmuster zum Einsatz. Des Weiteren unterstützen.NET-Sprachen sogenannte Attribute ("attributes"), die es erlauben, die Funktionalität der Sprache über Metadaten im Code zu erweitern (eine ähnliche Funktionalität wurde in Form der oben beschriebenen "Annotations" in Java 5.0 übernommen). C# enthält auch Bestandteile der Sprache Visual Basic, zum Beispiel Eigenschaften ("properties"), sowie Konzepte aus C++. In.NET ist es ebenso wie in Java möglich, Ausnahmen ("exceptions") zu einer Methode zu deklarieren. In Java können Ausnahmen so deklariert werden, dass sie auch verarbeitet werden müssen ("checked exception"). Systembefehle können in.NET über "platform invoke" aufgerufen werden. Das ist in Java nicht möglich, es besteht mit der Java Native Interface aber die Möglichkeit, C- und C++-Code in Javapakete einzubetten und außerhalb der Java Virtual Machine laufen zu lassen. Programmteile, welche den Zugriff auf Speicheradressen unter Einsatz von Pointern voraussetzen, können in C#, nicht aber in anderen.NET-Sprachen wie Visual Basic, in "unsafe code" geschrieben werden. Java kennt aus Sicherheits-, Stabilitäts- und Plattformunabhängigkeitsgründen keine Möglichkeit zur direkten Einbindung von unsicherem oder Inline-Code. Scala. Scala ist eine Programmiersprache, die objektorientierte und funktionale Paradigmen vereint und wie Java auf der Java Virtual Machine ausgeführt werden kann. Im Gegensatz zu Java, und ähnlich wie C#, ist das Typsystem vereinheitlicht und umfasst Referenz- und Werttypen. Benutzer können weitere Typen definieren - in Java sind die verfügbaren Werttypen auf die fest vordefinierten primitiven Typen (codice_11, codice_27...) beschränkt. Scala verwendet statt Schnittstellen (codice_4) sogenannte Traits (codice_29), die wiederverwendbare Methodenimplementierungen enthalten können. Weitere Funktionalität, die nicht in Java enthalten ist, umfasst unter anderem Typen und Funktionen höherer Ordnung, Pattern Matching und frei wählbare Methoden- und Klassennamen. Wie in C# gibt es keine "checked exceptions". Allerdings können Methoden mit einer codice_30-Annotation versehen werden. Scala entfernt unter anderem das Konzept statischer Methoden und Klassen (ersetzt durch "companion objects"), "Raw Types", die Notwendigkeit von Getter- und Settermethoden und die unsichere Varianz von Arrays. Die Varianz generischer Typen muss nicht wie in Java bei der Nutzung erfolgen ("use-site variance"), sondern kann direkt bei der Deklaration angegeben werden ("declaration-site variance"). Anwendungsarten. Mit Java können zahlreiche verschiedene Arten von Anwendungen erstellt werden. Java-Webanwendungen. Java-Webanwendungen sind Java-Programme, die auf einem Webserver geladen und gestartet werden und beim Benutzer in einem Webbrowser ablaufen bzw. dargestellt werden. Üblicherweise läuft ein Teil der Webanwendung auf dem Server (die Geschäftslogik und Persistenz) und ein anderer Teil am Webbrowser (die Logik der Grafischen Benutzeroberfläche). Der Serverteil wird üblicherweise vollständig in Java geschrieben, der Browserteil üblicherweise in HTML und JavaScript. Es ist jedoch auch möglich, Java-Webanwendungen inklusive GUI-Logik vollständig in Java zu schreiben (siehe z. B. Google Web Toolkit oder die Remote Application Platform). Bekannte Beispiele für Java-Webanwendungen sind Twitter, Jira, Jenkins oder Gmail (das nicht vollständig, aber zu großen Teilen in Java geschrieben ist). Java-Desktop-Anwendungen. Unter Desktop-Anwendungen oder Applikationen werden normale Desktop-Programme zusammengefasst. Sowohl Internet-Kommunikationsprogramme als auch Spiele oder Office-Anwendungen, die auf einem normalen PC laufen, werden so genannt. Bekannte Beispiele für Java-Desktop-Anwendungen sind die integrierte Entwicklungsumgebung Eclipse, das Filesharing-Programm Vuze oder das Computerspiel Minecraft. Java-Applets. Java-Applets sind Java-Anwendungen, die normalerweise in einem Webbrowser ausgeführt werden. Sie sind üblicherweise auf einen durch ein spezielles HTML-Tag definierten Bereich einer Webseite beschränkt. Voraussetzung für die Ausführung von Java-Applets ist ein Java-fähiger Browser. Apps. Apps sind kleinere Applikationen für mobile Geräte wie Handys, Smartphones, PDAs oder Tablets. Sie laufen üblicherweise auf speziellen, für die Ausführung von Java-Anwendungen auf mobilen Geräten optimierten Java-Plattformen wie Java ME. Apps für das Android Betriebssystem von Google werden in der hier beschriebenen Sprache Java programmiert, basieren aber auf einer abweichenden Klassenbibliotheks-API. Entwicklungsumgebungen. Es gibt eine große Vielfalt von Entwicklungsumgebungen für Java, sowohl proprietäre als auch freie (Open Source). Die meisten Entwicklungsumgebungen für Java sind selbst ebenfalls in Java geschrieben. Die bekanntesten Open-Source-Umgebungen sind das von der Eclipse Foundation bereitgestellte Eclipse und das von Sun entwickelte NetBeans. Unter den kommerziellen Entwicklungsumgebungen sind IntelliJ IDEA von JetBrains, JBuilder von Borland sowie JCreator und das auf NetBeans basierende Sun ONE Studio von Sun, am verbreitetsten. Außerdem gibt es noch eine um einige hundert Plugins erweiterte Version von Eclipse, die von IBM unter dem Namen WebSphere Studio Application Developer („WSAD“) vertrieben wurde und seit Version 6.0 Rational Application Developer („RAD“) heißt. Apple liefert mit Mac OS X ab Version 10.3 die Entwicklungsumgebung Xcode aus, die verschiedene Programmiersprachen unterstützt, allerdings einen Schwerpunkt auf C, C++, Objective-C und Swift setzt. Wer lieber einen Texteditor verwendet, findet in Emacs zusammen mit der JDEE (Java Development Environment for Emacs) ein mächtiges Werkzeug. Ein vielseitiger und erweiterbarer in Java geschriebener Editor ist jEdit. Für andere Editoren wie Vim, Jed oder TextPad gibt es ebenfalls entsprechende Modi. Für Einsteiger und Ausbildungszwecke konzipiert ist BlueJ, wo unter anderem die Beziehungen zwischen den verschiedenen Klassen graphisch in Form von Klassendiagrammen dargestellt werden. Compiler. Ein Java-Compiler übersetzt Java-Quellcode (Dateiendung „.java“) in einen ausführbaren Code. Grundsätzlich unterscheidet man zwischen Bytecode- und Nativecode-Compilern. Einige Java-Laufzeitumgebungen verwenden einen JIT-Compiler, um zur Laufzeit den Bytecode häufig genutzter Programmteile in nativen Maschinencode zu übersetzen. Bytecode-Compiler. Im Normalfall übersetzt der Java-Compiler die Programme in einen nicht direkt ausführbaren Bytecode (Dateiendung „.class“), den die Java Runtime Environment (JRE) später ausführt. Die aktuelle HotSpot-Technologie kompiliert den Bytecode zur Laufzeit in nativen Prozessorcode und optimiert diesen abhängig von der verwendeten Plattform. Diese Optimierung findet dabei nach und nach statt, so dass der Effekt auftritt, dass Programmteile nach mehrmaliger Abarbeitung schneller werden. Andererseits führt diese Technik, die ein Nachfolger der Just-In-Time-Compilierung ist, dazu, dass Java-Bytecode theoretisch genau so schnell wie native, kompilierte Programme ausgeführt werden könnte. Die HotSpot-Technik ist seit der JRE Version 1.3 verfügbar und wurde seitdem stetig weiter verbessert. Beispiele für Bytecode-Compiler sind javac (Teil des JDK) und Jikes von IBM. Native Compiler. Es existieren auch Compiler für Java, die Java-Quelltexte oder Java-Bytecode in „normalen“ Maschinencode übersetzen können, sogenannte Ahead-of-time-Compiler. Nativ kompilierte Programme haben den Vorteil, keine JavaVM mehr zu benötigen, aber auch den Nachteil, nicht mehr plattformunabhängig zu sein. Beispiele für native Java Compiler sind Excelsior JET sowie GNU Compiler for Java (GCJ) wie MinGW, Cygwin oder JavaNativeCompiler (JNC). Wrapper. Als weitere Möglichkeit kann das Java-Programm in ein anderes Programm „eingepackt“ (englisch ') werden; diese äußere Hülle dient dann als Ersatz für ein Java-Archiv. Sie sucht selbständig nach einer installierten Java-Laufzeitumgebung, um das eigentliche Programm zu starten, und informiert den Benutzer darüber, wo er eine Laufzeitumgebung herunterladen kann, sofern noch keine installiert ist. Es ist also immer noch eine Laufzeitumgebung nötig, um das Programm starten zu können, aber der Anwender erhält eine verständliche Fehlermeldung, die ihm weiterhilft. Java Web Start ist ein etwas eleganterer und standardisierter Ansatz für diese Lösung – er ermöglicht die einfache Aktivierung von Anwendungen mit einem einzigen Mausklick und garantiert, dass immer die neueste Version der Anwendung ausgeführt wird. Dadurch werden komplizierte Installations- oder Aktualisierungsprozeduren automatisiert. Beispiele für Java-Wrapper sind JSmooth oder Launch4J. JBuilder von Borland und NSIS sind ebenfalls in der Lage, einen Wrapper für Windows zu erstellen. Platon. Platon (altgriechisch Πλάτων "Plátōn", latinisiert Plato; * 428/427 v. Chr. in Athen oder Aigina; † 348/347 v. Chr. in Athen) war ein antiker griechischer Philosoph. Er war Schüler des Sokrates, dessen Denken und Methode er in vielen seiner Werke schilderte. Die Vielseitigkeit seiner Begabungen und die Originalität seiner wegweisenden Leistungen als Denker und Schriftsteller machten Platon zu einer der bekanntesten und einflussreichsten Persönlichkeiten der Geistesgeschichte. In der Metaphysik und Erkenntnistheorie, in der Ethik, Anthropologie, Staatstheorie, Kosmologie, Kunsttheorie und Sprachphilosophie setzte er Maßstäbe auch für diejenigen, die ihm – wie sein Schüler Aristoteles – in zentralen Fragen widersprachen. Im literarischen Dialog, der den Verlauf einer gemeinsamen Untersuchung nachvollziehen lässt, sah er die allein angemessene Form der schriftlichen Darbietung philosophischen Bemühens um Wahrheit. Aus dieser Überzeugung verhalf er der noch jungen Literaturgattung des Dialogs zum Durchbruch und schuf damit eine Alternative zur Lehrschrift und zur Rhetorik als bekannten Darstellungs- und Überzeugungsmitteln. Dabei bezog er dichterische und mythische Motive und Ausdrucksformen ein, um Gedankengänge auf spielerische, anschauliche Weise zu vermitteln. Zugleich wich er mit dieser Art der Darbietung seiner Auffassungen dogmatischen Festlegungen aus und ließ viele Fragen, die sich aus seinen Annahmen ergaben, offen bzw. überließ deren Klärung den Lesern, die er zu eigenen Anstrengungen anregen wollte. Ein Kernthema ist für Platon die Frage, wie unzweifelhaft gesichertes Wissen erreichbar ist und wie man es von bloßen Meinungen unterscheiden kann. In den frühen Dialogen geht es ihm vor allem darum, herkömmliche und gängige Vorstellungen über das Erstrebenswerte und das richtige Handeln als unzulänglich oder unbrauchbar zu entlarven, um dem Leser den Schritt von vermeintlichem Wissen zu eingestandenem Nichtwissen zu ermöglichen. In den Schriften seiner mittleren Schaffensperiode versucht er mit seiner Ideenlehre eine zuverlässige Basis für echtes Wissen zu schaffen. Solches Wissen kann sich nach seiner Überzeugung nicht auf die stets wandelbaren Objekte der Sinneserfahrung beziehen, sondern nur auf unkörperliche, unveränderliche und ewige Gegebenheiten einer rein geistigen, der Sinneswahrnehmung unzugänglichen Welt, die „Ideen“, in denen er die Ur- und Vorbilder der Sinnendinge sieht. Der Seele, deren Unsterblichkeit er plausibel machen will, schreibt er Teilhabe an der Ideenwelt und damit einen Zugang zur dort existierenden absoluten Wahrheit zu. Wer sich durch philosophische Bemühungen dieser Wahrheit zuwendet und ein darauf ausgerichtetes Bildungsprogramm absolviert, kann seine wahre Bestimmung erkennen und damit Orientierung in zentralen Lebensfragen finden. Die Aufgabe des Staates sieht Platon darin, den Bürgern dafür optimale Voraussetzungen zu schaffen und Gerechtigkeit umzusetzen. Daher setzt er sich intensiv mit der Frage auseinander, wie die Verfassung eines Idealstaates diesem Ziel am besten dienen kann. In späteren Werken tritt die Ideenlehre teils in den Hintergrund, teils werden Probleme, die sich aus ihr ergeben, kritisch beleuchtet; im Bereich der Naturphilosophie und Kosmologie jedoch, dem sich Platon im Alter zuwendet, weist er den Ideen bei seiner Erklärung des Kosmos eine maßgebliche Rolle zu. Platon gründete die Platonische Akademie, die älteste institutionelle Philosophenschule Griechenlands, von der aus sich der Platonismus über die antike Welt verbreitete. Das geistige Erbe Platons beeinflusste zahlreiche jüdische, christliche und islamische Philosophen auf vielfältige Weise. Auch der Aristotelismus als häufiger Ausgangspunkt für alternative Modelle im Mittelalter und in der Frühen Neuzeit beruhte auf der Auseinandersetzung mit Platon. In der Moderne wurde platonisches Gedankengut insbesondere von den Denkern der „Marburger Schule“ des Neukantianismus (Hermann Cohen, Paul Natorp) verwertet. Karl Popper griff Platons politische Philosophie an; sein Vorwurf, es handle sich um eine Form von Totalitarismus, löste im 20. Jahrhundert eine lang anhaltende Kontroverse aus. Leben. Da die Platoniker Platon überschwänglich verehrten, wurden über sein Leben zahlreiche teils phantastische Anekdoten und Legenden verbreitet, die großenteils seiner Verherrlichung dienten. Es wurde sogar behauptet, er sei ein Sohn des Gottes Apollon, sein leiblicher Vater sei nur sein Stiefvater gewesen. Daneben gab es aber auch Geschichten, die seine Verspottung und Diffamierung bezweckten. Daher ist die historische Wahrheit schwer zu ermitteln. Eine Hauptquelle ist Platons "Siebter Brief", der heute überwiegend für echt gehalten wird und auch im Fall seiner Unechtheit als zeitgenössische Quelle von hohem Wert anzusehen wäre. Herkunft. Platon stammte aus einer vornehmen, wohlhabenden Familie Athens. Sein Vater Ariston betrachtete sich als Nachkomme des Kodros, eines mythischen Königs von Athen; jedenfalls war ein Vorfahre Aristons, Aristokles, schon 605/604 v. Chr. Archon gewesen, hatte also das höchste Staatsamt bekleidet. Unter den Ahnen von Platons Mutter Periktione war ein Freund und Verwandter des legendären athenischen Gesetzgebers Solon. Der Philosoph hatte zwei ältere Brüder, Adeimantos und Glaukon, die in der "Politeia" als Dialogteilnehmer auftreten, und eine ältere Schwester, Potone, deren Sohn Speusippos später Platons Nachfolger als Leiter der Akademie (Scholarch) wurde. Ariston verstarb schon früh; Periktione heiratete um 423 v. Chr. ihren Onkel mütterlicherseits Pyrilampes, einen angesehenen Athener, der zu Perikles' Zeit als Gesandter tätig gewesen war. Pyrilampes hatte aus einer früheren Ehe einen Sohn, Demos, der Platons Stiefbruder wurde. Aus der Ehe zwischen Periktione und Pyrilampes ging Antiphon, ein jüngerer Halbbruder Platons, hervor. Während Platons Stiefvater demokratisch gesinnt war, gehörten zur Familie seiner Mutter Periktione mehrere prominente Politiker mit oligarchischer Haltung: Ihr Onkel Kallaischros gehörte 411 v. Chr. dem durch Putsch kurzzeitig an die Macht gekommenen Rat der Vierhundert an, ihr Vetter Kritias war Mitglied des oligarchischen Rats der Dreißig („Dreißig Tyrannen“), der 404/403 v. Chr. Athen regierte. Unter dessen Herrschaft wurde auch ihr Bruder Charmides in ein oligarchisches Gremium berufen und fiel im Kampf gegen die Demokraten. Kindheit und Jugend. Laut der "Chronik" des Apollodoros wurde Platon 428 oder 427 v. Chr. geboren, nach der antiken Tradition am 7. Tag des Monats Thargelion (Mai/Juni), dem mythischen Geburtstag des Gottes Apollon. An diesem Tag feierten später – noch im 3. Jahrhundert n. Chr. – die Platoniker sein Geburtstagsfest. Schon im 3. Jahrhundert v. Chr. war eine Legende verbreitet, wonach „Platon“ ursprünglich nur ein Beiname war, den er in Anlehnung an das griechische Wort (' „breit“) erhielt, womit angeblich auf die Breite seiner Stirn oder seiner Brust angespielt wurde. Diese Behauptung wird von der Forschung als unglaubwürdig betrachtet. Auch eine Überlieferung, wonach Platon ursprünglich den Namen seines Großvaters Aristokles trug, ist eine im Rahmen dieser Legendenbildung entstandene Erfindung. Seine Kindheit und Jugend verbrachte Platon in der Zeit des Peloponnesischen Krieges (431–404 v. Chr.), der mit der Kapitulation seiner Heimatstadt endete. Als Sohn aus vornehmer Familie genoss er eine sorgfältige Erziehung. Es wird berichtet, dass er Unterricht in Sport, Grammatik, Malerei, Musik und Dichtung erhielt, seine poetischen Jugendwerke jedoch später verbrannte; diese Behauptungen wurden allerdings möglicherweise nachträglich aus seinen Dialogen abgeleitet. In die Philosophie führte ihn Kratylos ein, ein Anhänger Heraklits, nach dem Platon später seinen Dialog "Kratylos" benannte. Als Zwanzigjähriger begegnete er Sokrates, dem er sich als Schüler anschloss. Bis zu Sokrates’ Tod rund ein Jahrzehnt später blieb er bei ihm. Als Lehrer und als Vorbild prägte Sokrates die geistige Entwicklung Platons. Abwendung von der Politik und erste Reisen. Als nach dem Kriegsende 404 in Athen die von den siegreichen Spartanern gestützte Terrorherrschaft der dreißig Oligarchen begann, zu denen Verwandte Platons gehörten, wurde er zur Beteiligung am politischen Leben eingeladen, lehnte jedoch ab, da er dieses Regime als verbrecherisch betrachtete. Aber auch die politischen Verhältnisse nach der Wiederherstellung der Attischen Demokratie im Jahre 403 missfielen ihm. Ein Wendepunkt in Platons Leben war die Hinrichtung des Sokrates im Jahre 399, die ihn tief erschütterte. Das staatliche Vorgehen gegen seinen Lehrer wertete er als einen Ausdruck moralischer Verkommenheit und als Beweis für einen prinzipiellen Mangel im politischen System. Er sah nun in Athen keinerlei Möglichkeit einer philosophisch verantwortbaren Teilnahme am politischen Leben mehr und entwickelte sich zu einem scharfen Zeitkritiker. Diese Erfahrungen veranlassten ihn dazu, seine Forderung nach einem von Philosophen regierten Staat zu erheben. Nach dem Tod des Sokrates begab sich Platon mit anderen Sokratikern für kurze Zeit nach Megara zu Euklid von Megara, der ebenfalls ein Schüler des Sokrates war. In seinen Dialogen "Phaidon" und "Theaitetos" ließ er später diesen Euklid als Sokrates’ Gesprächspartner auftreten. In der Folgezeit soll er eine große Bildungsreise unternommen haben, die ihn laut verschiedenen Quellen, deren Angaben zur Route allerdings widersprüchlich sind, nach Kyrene zu dem Mathematiker Theodoros von Kyrene sowie nach Ägypten und Unteritalien führte. Die Einzelheiten und die Datierung sind in der Forschung umstritten; insbesondere wird bezweifelt, dass Platon jemals in Ägypten war. Einiges spricht dafür, dass der Aufenthalt in Ägypten erfunden wurde, um Platon mit ägyptischer Weisheitstradition in Verbindung zu bringen. Unklar ist, ob die Bildungsreise mit der ersten Sizilienreise verbunden war oder schon einige Jahre vorher stattfand. Erste Sizilienreise. Um 388 unternahm Platon seine erste Sizilienreise. Zunächst fuhr er nach Unteritalien, wo im 5. Jahrhundert die Philosophengemeinschaft der Pythagoreer großen Einfluss erlangt hatte, dann aber in blutigen Unruhen stark geschwächt worden war. In Tarent traf Platon den damals prominentesten und politisch erfolgreichsten Pythagoreer, den Staatsmann und Mathematiker Archytas von Tarent, der sein Gastfreund wurde. Von Archytas erhoffte er sich vor allem mathematische Erkenntnisse. Zu den Philosophen, denen er in Unteritalien begegnete, soll auch Timaios von Lokroi gehört haben, den er später zum Hauptgesprächspartner seines Dialogs "Timaios" machte; die Historizität dieser Gestalt wird allerdings angezweifelt. Danach reiste Platon nach Syrakus, wo damals der Tyrann Dionysios I. herrschte. Die Berichte über diesen ersten Aufenthalt in Syrakus sind großenteils legendenhaft und umstritten. Da die Konfrontation eines aufrechten Philosophen mit einem tyrannischen Herrscher in der Antike ein beliebtes literarisches Motiv war, betrachtet die Forschung die überlieferten Einzelheiten von Platons Begegnung mit dem Tyrannen und seinem Bruch mit ihm skeptisch. Jedenfalls hatte Platon mit Dionysios Kontakt, und der Ausgang war für den Philosophen ungünstig; der Freimut Platons soll den Herrscher erzürnt haben. Enge Freundschaft schloss Platon jedoch mit Dionysios’ Schwager und Schwiegersohn Dion, der ein eifriger Platoniker wurde. Das Luxusleben in der Magna Graecia, den griechischen Städten auf italischem Boden, missfiel Platon. Laut Quellenberichten geriet Platon am Ende der Sizilienreise in Gefangenschaft und wurde als Sklave verkauft, kam aber bald wieder frei und konnte nach Athen zurückkehren. Ein Spartaner namens Pollis soll ihn im Auftrag des Dionysios auf dem Sklavenmarkt von Aigina verkauft haben, worauf der Käufer, ein gewisser Annikeris aus Kyrene, dem Philosophen aus Großmut und Wertschätzung die Freiheit schenkte. Sehr wahrscheinlich war aber Dionysios an der Episode nicht beteiligt; vielmehr wurde das Schiff, auf dem der Philosoph von Sizilien heimkehrte, von den Spartanern oder den Ägineten gekapert, die damals mit Athen im Krieg lagen. Schulgründung und Lehrtätigkeit. Nach seiner Rückkehr kaufte Platon um 387 v. Chr. bei dem "Akadḗmeia" () genannten Hain des attischen Heros Akademos (Hekademos) im Nordwesten von Athen ein Grundstück, wo er philosophisch-wissenschaftlichen Unterricht zu erteilen begann und seine Schüler zu Forschungen anregte. Dabei wurde er von Gastphilosophen und Gastwissenschaftlern sowie fortgeschrittenen Schülern, die Lehraufgaben übernahmen, unterstützt. Da im Laufe der Zeit der Name von dem Hain auf die Schule übertragen wurde, begannen sich die Schulmitglieder Akademiker ("Akademaikoí") zu nennen. So entstand die Akademie, die erste Philosophenschule Griechenlands. Einen Anstoß dazu gab wohl das Vorbild der Pythagoreergemeinschaft in Italien. Es bestand eine Rivalität mit Isokrates, einem Lehrer der Rhetorik, der kurz zuvor – um 390 – eine Schule der Beredsamkeit gegründet hatte; Platons Haltung zu den Bestrebungen des Isokrates war kritisch. Auf dem Grundstück der Akademie lebte und lehrte Platon in den folgenden zwei Jahrzehnten. Zweite Sizilienreise. Trotz der schlechten Erfahrungen auf der ersten Sizilienreise ließ sich Platon nach dem Tod des 367 gestorbenen Tyrannen Dionysios I. zu einer weiteren Reise nach Syrakus bewegen. Nachdem er zunächst starke Bedenken gehegt hatte, machte er sich 366 v. Chr. auf den Weg. Er folgte einer Einladung, die der Sohn und Nachfolger des Tyrannen, Dionysios II., auf Veranlassung von Platons Freund Dion an ihn gerichtet hatte. Dion erstrebte für sich eine maßgebliche Stellung am Hof. Platon hoffte, im Zusammenwirken mit Dion seine politischen Vorstellungen durch Einflussnahme auf den jungen Herrscher zur Geltung bringen und erproben zu können, günstigstenfalls ein Staatswesen nach dem Ideal der Philosophenherrschaft einzurichten. Dion war optimistischer als der von Anfang an eher skeptische Platon. Es zeigte sich jedoch, dass Dionysios II. zu einer umfassenden Staatsreform nicht willens oder nicht in der Lage war; sein Hauptaugenmerk galt der Sicherung seiner stets bedrohten Herrschaft. Am Hof konnte sich nur durchsetzen, wer in den dortigen Intrigen und Machtkämpfen die Oberhand behielt. In den Auseinandersetzungen griff Dion zu konspirativen Mitteln, was (wohl im Spätsommer 366) zu seiner Verbannung führte; er begab sich nach Griechenland. Nach diesem Fehlschlag reiste auch Platon im Jahre 365 ab. Es wurde aber mit Dionysios vereinbart, dass beide nach einer Beruhigung der Lage zurückkehren sollten. Zwischen Dion und Dionysios bestand eine Rivalität um die Freundschaft Platons, und Dionysios war darüber enttäuscht, dass Platon Dion den Vorzug gab. Dritte Sizilienreise. 361 v. Chr. reiste Platon zum dritten Mal – wiederum widerwillig und gedrängt – nach Sizilien. Archytas hatte ihn darum gebeten, in der Hoffnung, dass Platon einen günstigen Einfluss auf den Tyrannen ausüben werde, und Dionysios II., der die Anwesenheit des Philosophen wünschte, hatte Druck ausgeübt, indem er das Eintreffen Platons zur Bedingung für eine Begnadigung Dions machte. So entschloss sich Platon, zusammen mit seinen Schülern Speusippos und Xenokrates auf einem von Dionysios geschickten Schiff die Reise anzutreten. Das entscheidende Gespräch mit Dionysios verlief für Platon enttäuschend. Nach Platons Darstellung bildete sich Dionysios zu Unrecht ein, die philosophischen Lehren bereits zu verstehen, und zeigte keine Bereitschaft, sich der Disziplin echter Schülerschaft zu unterwerfen und ein philosophisches Leben zu führen. Außerdem hielt er die Zusage einer Rehabilitierung Dions nicht ein und beschlagnahmte sogar dessen großes Vermögen. In den Kreisen der Platoniker und der Anhänger Dions hatte sich die Überzeugung verbreitet, dass nur ein Sturz des Tyrannen eine Besserung der Lage bewirken könne. Speusippos nutzte seinen Aufenthalt in Syrakus zur Betätigung in diesem Sinne, was dem Tyrannen wohl nicht verborgen blieb. Durch die Parteinahme seiner Freunde und Anhänger für die Opposition geriet Platon in Verdacht und Bedrängnis, insbesondere als er sich für einen des Hochverrats verdächtigten Parteigänger Dions einsetzte. Söldner des Dionysios, die Interesse am Fortbestand der bestehenden Machtverhältnisse hatten, bedrohten ihn. Aus dieser lebensgefährlichen Lage rettete ihn Archytas, der von Tarent aus intervenierte und ihm im Sommer 360 die Heimkehr nach Athen ermöglichte. Umsturz in Syrakus. Nach dem Scheitern von Platons Bemühungen beschloss Dion, mit seinen Anhängern zur Gewalt zu greifen. Dabei ermutigten und unterstützten ihn Mitglieder der Akademie, der er auch selbst angehörte. Platon hielt sich davon fern, da er weiterhin im Gastfreundschaftsverhältnis zum Tyrannen stand, doch widersetzte er sich diesen Aktivitäten seiner Schüler nicht. 357 wagte Dion den Feldzug mit einer kleinen Streitmacht von Söldnern. Es gelang ihm bald nach seiner Landung auf Sizilien, Dionysios mit Hilfe von dessen zahlreichen Feinden zu stürzen und in Syrakus die Macht zu übernehmen. Ob bzw. inwieweit er tatsächlich eine platonische Staatsordnung einführen wollte (wovon Platon selbst bis zuletzt überzeugt war), ist umstritten. Jedenfalls versuchte er, die Verfassung umzugestalten, stieß dabei aber auf heftigen Widerstand und wurde verdächtigt, eine neue Tyrannenherrschaft errichten zu wollen. Dies führte nach mancherlei Wirren und Kämpfen 354 zu seiner Ermordung. Als Platon von Dions Tod erfuhr, dichtete er ein Epigramm, mit dem er dem geliebten Freund ein literarisches Denkmal setzte. An Dions Verwandte und Parteigänger in Sizilien richtete er den siebten Brief, in dem er sein Verhalten begründete und erläuterte. Alter und Tod. Seine letzten Lebensjahre verbrachte Platon lehrend und forschend. In hohem Alter wandte er sich mit einem öffentlichen Vortrag "Über das Gute" an ein breites, nichtphilosophisches Publikum, bei dem er jedoch auf Verständnislosigkeit stieß. Er starb 348/347 v. Chr. und wurde auf dem Gelände der Akademie oder in dessen Nähe bestattet. Sein Testament ist erhalten. Da er unverheiratet und kinderlos war, fiel sein Erbe an einen Neffen oder Großneffen, den Knaben Adeimantos. Zu seinem Nachfolger als Leiter der Akademie (Scholarch) wurde sein Neffe Speusippos gewählt. Werke. Die dreibändige Gesamtausgabe von Platons Werken, die der Drucker Henri Estienne (latinisiert Henricus Stephanus) im Jahr 1578 in Genf veröffentlichte, war bis ins frühe 19. Jahrhundert die maßgebliche Edition. Nach der Seitennummerierung dieser Ausgabe (Stephanus-Paginierung) werden Platons Werke noch heute zitiert. Überlieferung und Echtheit. a>, 3. Jahrhundert n. Chr., Sackler Library, Oxford Alle Werke Platons, die in der Antike bekannt waren, sind erhalten geblieben, abgesehen vom Vortrag "Über das Gute", von dem es eine Nachschrift des Aristoteles gab, die verloren ist. Hinzu kommen Werke, die unter Platons Namen verbreitet waren, aber möglicherweise oder sicher unecht sind; auch sie gehören größtenteils zum "Corpus Platonicum" (der Gesamtheit der traditionell Platon zugeschriebenen Werke), obwohl ihre Unechtheit teils schon in der Antike erkannt wurde. Insgesamt sind 47 Titel von Werken bekannt, die Platon verfasst hat oder für die er als Autor in Anspruch genommen worden ist. Das Corpus Platonicum besteht aus den Dialogen (darunter das unvollendete Spätwerk "Kritias"), der "Apologie des Sokrates", einer Sammlung von 13 Briefen sowie einer Sammlung von Definitionen, den "Horoi". Außerhalb des Corpus überliefert sind eine Sammlung von Dihairesen, zwei weitere Briefe, 32 Epigramme und ein Gedichtfragment (7 Hexameter); mit Ausnahme eines Teils der Gedichte stammen diese Werke sicher nicht von Platon. Seit dem 3. Jahrhundert v. Chr. beschäftigten sich Philologen der Alexandrinischen Schule mit den Werken Platons. Einer von ihnen, Aristophanes von Byzanz (3./2. Jahrhundert v. Chr.), ordnete die Schriften in Trilogien. Die verbreitetste antike Gruppierung ist jedoch diejenige in neun Tetralogien (Vierergruppen), also 36 Werke, nämlich 34 Dialoge, die "Apologie" und die Briefsammlung. Die Tetralogienordnung, deren Entstehungszeit umstritten ist, wurde nach inhaltlichen Gesichtspunkten durchgeführt; dabei ging es den antiken Platonikern hauptsächlich um die didaktisch-pädagogische Frage, in welcher Reihenfolge ein Schüler die Schriften lesen sollte. Von den Briefen sind alle außer dem "Dritten", "Sechsten", "Siebten" und "Achten" sicher unecht; der "Siebte Brief" wird überwiegend als echt akzeptiert, die drei übrigen sind umstritten. Neben den 34 Dialogen der Tetralogien enthält das traditionelle "Corpus Platonicum" noch weitere, die heute jedoch als „Anhang“ zum Corpus "(Appendix Platonica)" ausgesondert sind, da sie sicher unecht sind. Alle unechten Dialoge gehen anscheinend auf Mitglieder der Älteren und der Jüngeren Akademie zurück. Sie sind im Zeitraum zwischen dem 4. und dem 2. Jahrhundert v. Chr. entstanden. Manche wurden wohl schon früh in die Tetralogienordnung aufgenommen und verblieben trotz bereits bestehender Zweifel in ihr, wobei der Wunsch, am Schema von neun Tetralogien festzuhalten, eine Rolle gespielt haben dürfte. Heute betrachtet die Forschung die unechten Dialoge nicht allein unter dem Gesichtspunkt der Fälschung, sondern sieht in ihnen Beispiele für eine Platons Stil und Argumentationsweise nachahmende Auseinandersetzung mit von ihm aufgeworfenen Problemen. Außerdem wird in neueren Untersuchungen nicht mehr an einer strikten Trennung von echten und unechten Schriften festgehalten; vielmehr wird die Möglichkeit aufgezeigt, dass es sich bei manchen zweifelhaften und unechten Dialogen um Entwürfe Platons bzw. Ausarbeitungen solcher Entwürfe durch seine Schüler oder spätere Platoniker handelt. Auch bei den sicher authentischen Dialogen, besonders den späten, rechnet man mit Überarbeitung durch Mitglieder der Akademie. Es ist auch bezeugt, dass Platon selbst seine Werke beständig fortentwickelt hat. Die erste Seite der im Jahr 895 für Arethas angefertigten Sammlung der Werke Platons, des berühmten "Codex Clarkianus" Die Textüberlieferung basiert in erster Linie auf den zahlreichen mittelalterlichen Handschriften, die sich letztlich auf zwei antike Abschriften zurückführen lassen. Der Vergleich der handschriftlichen Überlieferung mit den vielen teils umfangreichen Platonzitaten in antiker Literatur zeigt, dass der vorliegende Textbestand weitgehend einheitlich und zuverlässig ist. Die handschriftliche Überlieferung setzt im späten 9. Jahrhundert ein. Der Patriarch von Konstantinopel Photios I., ein führender Gelehrter des 9. Jahrhunderts, ließ eine Sammlung aller unter Platons Namen überlieferten Werke in zwei Codices anfertigen. Diese beiden Bände sind heute verloren, doch der Text des Patriarchen war die Basis späterer, teils prachtvoller Abschriften, die einen Großteil der heute vorliegenden Textüberlieferung ausmachen. Eine weitere Sammelhandschrift von Platons Schriften entstand im Auftrag von Arethas, einem Schüler des Photios. 1423 brachte der Humanist Giovanni Aurispa eine vollständige Sammlung von Platons Werken aus Konstantinopel nach Italien. Eine Ergänzung zu den mittelalterlichen Textzeugen bilden die vielen antiken Papyri, die allerdings nur Textfragmente enthalten. Der älteste Papyrus stammt aus dem späten 4. oder frühen 3. Jahrhundert v. Chr. Chronologie. Eine absolute Datierung der einzelnen Werke ist sehr schwierig, da sie kaum Hinweise auf historische Ereignisse ihrer Abfassungszeit bieten und die Handlung der Dialoge in der Regel in die Lebenszeit des Sokrates gesetzt ist, also in die Zeit vor dem eigentlichen Beginn von Platons schriftstellerischer Tätigkeit. In manchen Fällen kann zumindest der Zeitraum der Entstehung eingegrenzt werden, etwa dank Anspielungen auf Datierbares oder auch durch das Einsetzen der Rezeption. Die relative Datierung der Schriften innerhalb des Gesamtwerks wird in der Forschung seit dem späten 18. Jahrhundert intensiv diskutiert, da die Ermittlung der chronologischen Reihenfolge ihrer Entstehung Voraussetzung für alle Hypothesen über die Entwicklung von Platons Denken ist. Eindeutige interne Kriterien sind Querverweise in den Dialogen, die aber nur vereinzelt vorkommen. Externe (historische) Kriterien sind Hinweise auf datierbare Ereignisse, die sich aber teilweise nicht eindeutig zuordnen lassen. Die Argumentation basiert daher hauptsächlich auf philologischen Beobachtungen und auf Überlegungen zu einer stimmigen philosophischen Entwicklung. Dabei geht es unter anderem um Hypothesen, wonach ein Dialog auf einem anderen aufbaut und die Kenntnis der dort entwickelten Gedankengänge voraussetzt. Die wichtigsten Kriterien sind aber nicht inhaltlicher, sondern sprachlicher Art. Hierbei relevante sprachliche Merkmale ergeben sich zum einen aus einer allgemeinen Stilanalyse, die allerdings wegen ihres subjektiven Charakters und wegen Platons großer Variationsbreite in der Stilkunst kaum zwingende Folgerungen gestattet; zum anderen geht es um die Detailergebnisse der Anwendung sprachstatistischer Methoden, die bereits 1867 begann. Grundlage der Sprachstatistik ist die Beobachtung, dass das Vorkommen und die Häufigkeit der Verwendung einzelner Wörter oder auch Partikelkombinationen für einzelne Schaffensphasen eines Autors charakteristisch sein können. Anhaltspunkte solcher Art ergeben sich außerdem aus der Satzrhythmik und aus Hiaten. Die Kombination dieser Ansätze hat eine grobe Dreiteilung in frühe, mittlere und späte Werke ermöglicht, die sich – mit einigen Schwankungen – als herrschende Lehrmeinung etabliert hat. Allerdings wird diesem Schema hinsichtlich einzelner Werke immer wieder widersprochen und die Solidität seiner Basis bestritten. Eine Reihe von Grenzfällen ist weiterhin ungeklärt. Hinzu kommt, dass für diejenigen Platonforscher, die den Aspekt der wiederholten Überarbeitung mancher Dialoge betonen, die Ergebnisse der sprachstatistischen Untersuchungen kaum Gewicht haben. Außerdem bleibt die Reihenfolge innerhalb der drei Gruppen zu einem erheblichen Teil unsicher oder gänzlich unklar. Bei der Betrachtung nach inhaltlichen Gesichtspunkten ergibt sich ein ähnliches Bild, doch scheinen dann "Kratylos", "Phaidon" und "Symposion" eher der Mittelgruppe als den Frühwerken anzugehören, während "Parmenides" und "Theaitetos", die stilistisch noch zur Mittelgruppe gerechnet werden, inhaltlich gesehen bereits zum Spätwerk gehören. Darin liegt kein Widerspruch zu den Ergebnissen der Stilanalyse, da die Phasen einer philosophischen Entwicklung nicht genau denen der stilistischen entsprechen müssen. Terminologisch kann aber aus den unterschiedlichen Kriterien der Periodisierung Verwirrung resultieren. Das Dialogprinzip. Alle Werke Platons mit Ausnahme der Briefe und der "Apologie" sind nicht – wie damals das meiste philosophische Schrifttum – als Lehrgedichte oder Traktate, sondern in Dialogform geschrieben; auch die "Apologie" enthält vereinzelt dialogische Passagen. Dabei lässt Platon eine Hauptfigur, meist Sokrates, mit unterschiedlichen Gesprächspartnern philosophische Debatten führen, die von Einschüben wie indirekten Berichten, Exkursen oder mythologischen Partien abgelöst und ergänzt sowie mit ihnen verwoben werden; lange monologische Reden kommen darin ebenfalls vor. Auch andere Sokrates-Schüler wie Xenophon, Aischines, Antisthenes, Euklid von Megara und Phaidon von Elis verfassten Werke in der Form des sokratischen Dialogs ('), doch Platon erlangte auf diesem Gebiet eine so überragende Bedeutung, dass die Antike ihn (wenn auch nicht einhellig) als Erfinder dieser damals noch jungen literarischen Gattung betrachtete. Er verhalf dem sokratischen Dialog zum Durchbruch und zugleich zur Vollendung. Ort und Zeit der Dialoge sind oft genau angegeben; so bilden etwa der Besuch beim inhaftierten Sokrates "(Kriton)", das Haus eines reichen Atheners "(Politeia)", ein Gastmahl "(Symposion)", ein Spaziergang außerhalb Athens "(Phaidros)" oder die Wanderung zu einem Heiligtum "(Nomoi)" das konkrete Umfeld. Die realitätsnahe Rahmengebung erweckt den Eindruck einer historischen Begebenheit und vermittelt Authentizität. Es handelt sich allerdings nicht um authentische Gesprächsprotokolle, sondern um literarische Fiktionen. Häufig werden auch Quellen der Überlieferungen, Berichte oder Mythen, welche in die Dialoge eingeflochten sind, präzise beschrieben und beglaubigt, beispielsweise beim Atlantis-Mythos im "Timaios" und im "Kritias". Der aus Platons Perspektive gezeichnete Sokrates, in dessen Gestalt sich historische und idealisierte Züge mischen, steht im Zentrum der weitaus meisten Dialoge. Eine Abgrenzung zwischen Platons eigener Philosophie und der des historischen Sokrates, der sich nur mündlich geäußert hat, ist unter diesen Umständen schwierig; sie gehört seit langem zu den wichtigsten und umstrittensten Themen der Forschung. Oft werden die frühen aporetischen Dialoge als relativ wirklichkeitsgetreue Wiedergaben der Ansichten des historischen Sokrates angesehen und daher zur Gewinnung eines Bildes von der originären sokratischen Philosophie genutzt. Am besten eignet sich zu diesem Zweck wohl die "Apologie". Spätestens in den mittleren Dialogen, in denen die Ideenlehre in den Vordergrund tritt, gewinnt Platons eigenes Denken an Gewicht. Manche Forscher setzten in der angenommenen Entwicklung vom sokratischen zum originär platonischen Philosophieren eine Übergangsphase an, der sie unter anderem "Euthydemos", "Hippias maior", "Lysis", "Menexenos" und "Menon" zurechnen. Platon selbst bleibt in seinen Werken stets im Hintergrund; lediglich in der "Apologie" und im "Phaidon" fällt sein Name am Rande. Der platonische Sokrates dominiert den Dialog. Er bestimmt den Gesprächsverlauf, indem er ihm die entscheidenden Impulse gibt, und er verhilft seinen Partnern auf maieutische Weise zu Einsichten und Erkenntnissen. Er widerlegt die Meinungen anderer; damit kontrastiert der Umstand, dass seine eigenen Äußerungen sich stets als unangreifbar erweisen. Meist sind sich die Gesprächspartner zunächst ihrer Sache sicher, werden dann aber von Sokrates auf Mängel in ihren Gedankengängen oder in ihren ungeprüften Vorannahmen aufmerksam gemacht, bis sie die Fehlerhaftigkeit ihrer bisherigen Meinungen einsehen. Großenteils handelt es sich bei den Dialogpartnern um individuell gezeichnete Figuren, für die historische Vorlagen nachweisbar sind. In den frühen Dialogen sind es meist Personen, die eine direkte oder indirekte Verbindung zum jeweiligen Thema erkennen lassen, beispielsweise Priester, Dichter, Staatsmänner, militärische Kommandeure, Erzieher oder Redner, denen der Leser aufgrund ihres Berufes Kompetenz auf dem betreffenden Gebiet zutraut. Erst in den Spätwerken weisen die Dialogteilnehmer oftmals einen spezifisch philosophischen Hintergrund auf, wie ihre einschlägigen Vorkenntnisse zeigen. Die Dialogform ermöglicht es Platon, die sprachliche Gestaltung der freien Rede gelegentlich bestimmten bekannten Eigentümlichkeiten seiner Protagonisten anzugleichen. Die Zahl der Diskutierenden schwankt zwischen zwei und vier. Sokrates entwickelt seinen Gedankengang in der Auseinandersetzung mit seinen bewusst gewählten Gesprächspartnern, wobei er sich ihnen immer nur nacheinander zuwendet. Mit einem Wechsel des Gesprächspartners geht häufig eine abrupte Veränderung des Niveaus der Debatte einher. Solche Wechsel treten auch ein, wenn der dominierende Gesprächspartner auf nicht anwesende Personen ausweicht, indem er vom Verlauf eines früheren Dialogs mit anderen Personen berichtet, wie etwa im Fall der Rede der Diotima über den Eros im "Symposion". Ziel des Dialogs ist die Übereinstimmung (') der Gesprächspartner im Ergebnis der Erörterung. Je nach Art des Themas und Kompetenz der Teilnehmer führt der Dialog zu einer für alle zufriedenstellenden Lösung oder auch in eine ausweglose Argumentationssituation (Aporie, ' „Ratlosigkeit“). Wenn etwas geklärt werden müsste, aber in der aktuellen Gesprächskonstellation eine Überforderung wäre, überträgt Platon diese Aufgabe bewusst der Auseinandersetzung mit einem anderen Gesprächspartner. Die Dialoge stellen äußerst unterschiedliche Anforderungen an die intellektuellen Fähigkeiten der Leser. Daher ist nicht klar, welches Zielpublikum Platon gewöhnlich im Auge hatte. Wahrscheinlich ist, dass sich seine Dialoge teils primär als werbende (protreptische) Schriften an eine breitere Leserschaft wandten, während anspruchsvolle Werke wie der "Timaios" in erster Linie für philosophisch Vorgebildete und Schüler der Akademie bestimmt waren. Jedenfalls wollte Platon auf die gebildete Öffentlichkeit einwirken, um Außenstehende für die Philosophie zu gewinnen und auch um seine politischen Überzeugungen zu verbreiten. Allerdings sah er auch die Gefahr von Missverständnissen, wenn seine Schriften in die Hände von Lesern gelangten, die unfähig waren, sie ohne weitere Hilfen zu erschließen. Es ist davon auszugehen, dass es sich beim zeitgenössischen Publikum sowohl um Leser als auch um Hörer handelte, und dass dem Vorlesen und Diskutieren ein hoher Stellenwert zukam. Die Dialoge, die auch Parallelen zum griechischen Drama zeigen und stellenweise Tragödienzitate aufweisen, wurden in der Antike bisweilen wie Dramen aufgeführt oder rezitiert. Frühwerke. Platons frühe Werke stellen in plastischer Anschaulichkeit und dramatischer Lebendigkeit Personen und deren Meinungen dar. In einer Reihe von Dialogen dieser Phase geht es um die Suche nach Antworten auf die für Sokrates wichtigsten und drängendsten Fragen; gefragt wird etwa nach dem Wesen der Frömmigkeit "(Euthyphron)", der Tapferkeit "(Laches)", der Besonnenheit "(Charmides)", der Tugend "(Hippias minor)" sowie der Freundschaft und Liebe "(Lysis)". Vor allem von vermeintlichen Experten erwartet Sokrates diesbezüglich stichhaltige Antworten, doch zeigt sich bei eingehender Befragung, dass sie keine befriedigenden Auskünfte zu bieten haben. In einigen Dialogen bleibt die anfangs gestellte Aufgabe ungelöst; sie werden als aporetische Definitionsdialoge bezeichnet. Die Aporie bedeutet aber nicht, dass Platon von der Unlösbarkeit des Problems überzeugt war, sondern kann auch darauf zurückzuführen sein, dass der Dialogpartner für die Erarbeitung einer Lösung unzureichend qualifiziert war. Als Debattierer treten oft unerfahrene, aber wissbegierige Jünglinge auf. Eine Dialoggruppe dieser Phase hat die scharfe Auseinandersetzung mit bekannten Sophisten wie Gorgias oder Protagoras zum Thema, deren Haltung zur Ethik und zur Pädagogik der platonische Sokrates energisch entgegentritt. Unter dem bei ihm abwertend gemeinten Begriff „Sophisten“ fasst Platon unterschiedliche Denker zusammen, die als Lehrer umherzogen und gegen Entgelt unterrichteten, ansonsten aber wenig gemeinsam hatten. Bei ihm erscheint der typische Sophist als Inbegriff eines Vermittlers von wertlosem Scheinwissen. Platons polemische Darstellung bietet kein zuverlässiges Bild der Persönlichkeiten und Lehren der historischen Sophisten. Eine andere Gruppe von Dialogen spielt szenisch und zeitlich im Umfeld der Verurteilung des Sokrates. Die Grundmethode, die Sokrates in diesen Dialogen anwendet, ist die Widerlegung (' „Untersuchung“, „Prüfung“) der ursprünglichen Ansichten seiner Gesprächspartner, die sich als naiv und unreflektiert erweisen. Durch solche Befreiung von Scheinwissen tritt der Mangel an echtem Wissen zutage. Dabei legt Sokrates didaktisch Wert darauf, dass der Gesprächspartner durch eigene Anstrengungen im Verlauf der geistigen Auseinandersetzung Wissen erwirbt. Diese Kunst der Gesprächsführung vergleicht Sokrates selbst mit der „Hebammenkunst“ seiner Mutter (', daher Maieutik). Gemeinsam wird eine Definition der Begriffe gewonnen. Dem folgt die Suche nach Gründen für die Wahrheit bestimmter Überzeugungen. Sokrates prägt durch seine Persönlichkeit und seine Ironie die ganze Diskussion. Durch seine Fragestellungen lenkt er den Gesprächspartner in die gewünschte Richtung. Das Ziel der philosophischen Bemühungen ist es, sich der Wahrheit zu nähern und damit Orientierung für das Leben zu gewinnen, indem man erkennt, worin die rechte Lebensweise besteht und wie sie begründet ist. Bei dieser Wahrheitssuche grenzt sich Platon von „sophistischer“ und „rhetorischer“ Streitkunst ab, die er vehement ablehnt, da sie nicht auf Erkenntnis ausgerichtet sei, sondern sich damit begnüge, Kniffe zur Verfügung zu stellen, um einer Auffassung unabhängig von ihrem Wahrheitsgehalt zum Sieg zu verhelfen. Mittlere und späte Werke. Die Dialoge, die nach inhaltlichen Kriterien zur Mittelgruppe zusammengefasst werden, unterscheiden sich deutlich von den Frühwerken. Sie gelten als Platons literarische Meisterwerke. Zwar stehen auch in dieser Phase oftmals Definitionsfragen im Zentrum der Erörterung, doch führt die Untersuchung nicht mehr in aporetische Situationen. Stattdessen wird die nun eingeführte Ideenlehre zumeist als bekannte, einsichtige und daher keiner ausführlichen Begründung mehr bedürftige Grundlage des Gespräches vorausgesetzt. Während in den Frühwerken vorwiegend ethische Fragen debattiert wurden, geht es im mittleren Werk um ein breiteres Spektrum philosophischer Probleme, darunter Themen wie Tod und Unsterblichkeit der Seele "(Phaidon)", der ideale Staat "(Politeia)", Liebe "(Phaidros)" und erotische Anziehung "(Symposion)", Sprachphilosophie "(Kratylos)" und das Schöne "(Hippias maior)". Auch in späten Werken wird die Ideenlehre erprobt, so etwa in der Auseinandersetzung mit den Fragen nach dem Sein ("Parmenides" und "Sophistes") und dem Wissen "(Theaitetos)" und Problemen der Naturphilosophie "(Timaios)". Die Ideenlehre bildet aber nicht wie in den mittleren Dialogen die Grundlage der Argumentation. Ein anderer Themenschwerpunkt der Spätwerke ist die politische Philosophie ("Politikos" und "Nomoi"). Häufig greifen die Spätwerke auf bereits erarbeitete Einsichten zurück oder modifizieren die Thesen früherer Werke erheblich. Auch in der literarischen Gestaltung ist eine Entwicklung von der mittleren zur späten Periode hin feststellbar. Schon in einigen mittleren und dann besonders in den späten Dialogen tritt die Figur des bisher dominierenden Protagonisten Sokrates etwas zurück, und umfangreiche Monologe, die auch von anderen Personen gehalten werden (wie etwa im "Timaios"), nehmen zu. Das mythische Element. In die Dialoge sind eine Reihe von Mythen eingebaut, darunter der Atlantis-Mythos im "Timaios" und "Kritias", die Mythen von den Kugelmenschen und der Geburt des Eros im "Symposion", die Mythen von Gyges, Er und den Autochthonen in der "Politeia", die Mythen vom Seelengespann und von Theuth im "Phaidros", der Mythos vom Goldenen Zeitalter im "Politikos", der Welterschaffungsmythos im "Timaios" und mehrere Jenseitsmythen. Platon bietet seine Mythen in erzählerisch gestalteten Monologen dar, welche meist zu Beginn oder am Ende eines Gespräches eingeflochten sind. Typisch für diese Mythen ist, dass sie nicht nachprüfbare Behauptungen aufstellen. Manchmal kommen göttliche Figuren als Akteure ins Spiel, oder es ist von ferner Vergangenheit die Rede. In manchen Passagen verwendet Platon Metaphern und bildhafte Gleichnisse. Stets geht es darum, den Gehalt theoretischer Aussagen anschaulich zu machen, ihn allegorisch auf eine konkret wirkende Ebene zu übertragen und ihm zusätzliche Überzeugungskraft zu verschaffen. So sollen Platons Mythen etwa den Zustand der Welt "(Politikos)", ihre Entstehung "(Timaios)", menschliche Fähigkeiten (Theuth-Mythos), das Wesen der Seele "(Phaidros)" oder ihr Fortleben im Jenseits "(Phaidon)" illustrieren. Mit seinen mythologischen Exkursen greift Platon in vielen Fällen auf bestehende Traditionen sowie religiöse und philosophische Vorstellungen zurück, die in der Sophistik, der Orphik oder dem Pythagoreismus gängig waren und die er abwandelt, um sie in den Dienst seiner Absichten zu stellen und seinen Überzeugungen anzupassen. Generell lassen sich Mythen, die Platon Sokrates vortragen lässt, von solchen unterscheiden, die andere Dialogteilnehmer erzählen. Unter den Mythen, die nicht Sokrates in den Mund gelegt werden, finden sich neben Berichten, die bestimmten Quellen zugeschrieben werden, auch solche, die ohne Hinweis auf eine Quelle Glauben beanspruchen, und aitiologische Sagen, die erklären sollen, wie etwas zustande gekommen ist. So trägt der Sophist Protagoras im gleichnamigen Dialog den Mythos des Prometheus über die Entstehung der Kultur vor, um seine Behauptung zu untermauern, dass Tugend "(aretḗ)" nach der Art der Sophisten gelehrt werden könne. Ähnlich will der Komödiendichter Aristophanes im "Symposion" mit dem Mythos der Kugelmenschen veranschaulichen, dass Erotik als Streben nach Wiederherstellung einer ursprünglichen Einheit und Ganzheit zu deuten sei. Der bekannteste und umstrittenste platonische Mythos ist der von Atlantis, den Platon Kritias mit Berufung auf eine Tradition von Zeugen und angeblichen schriftlichen Belegen im nach ihm benannten Dialog und im " Timaios " erzählen lässt. In diesen Dialogen schildert Platon die mächtige Seemacht Atlantis, die einst im Krieg der mit idealen Zügen ausgestatteten Landmacht Ur-Athen unterlag und schließlich im Meer versank. Dieser Mythos wird meist als Illustration der behaupteten Überlegenheit des platonischen Idealstaates der "Politeia" aufgefasst. Religiös-erbaulichen Zwecken dienen Platons Jenseitsmythen, in denen er Sokrates das Schicksal der unsterblichen Seele nach dem Tod beschreiben lässt. Die Bedeutung des Wortes Mythos variiert bei Platon erheblich. Oft scheint es einen Gegensatz zum Begriff Logos auszudrücken, der in der Philosophie eine auf Begründungen gestützte Aussage bezeichnet. Mythos und Logos können aber auch miteinander verwoben sein, und häufig gibt Platon einen Mythos als Logos und damit als in der Realität fundiert aus; vielfach betont er den Wahrheitsgehalt des Erzählten. Es kommen Mythen vor, bei denen sich die Erzähler auf Quellen berufen, für die sie einen Glaubwürdigkeitsanspruch erheben, wie etwa der Mythos des Er in der "Politeia". Anderenorts schreibt Platon von einer Mischung aus Wahrem und Falschem im Mythos und bezeichnet Mythen als Geschichten für Kinder. In den Dialogen grenzt er mancherorts den Mythos vom Logos scharf ab, doch an anderer Stelle überlässt sein Sokrates die Entscheidung, ob eine Erzählung als Mythos oder Logos einzuschätzen ist, dem Urteil der Gesprächspartner. In der Platonforschung sind daher unterschiedliche Interpretationen der Stellung des Mythos zum Logos vorgeschlagen worden. Manche Gelehrte sehen im Mythos eine dem Logos untergeordnete Form. Andere nehmen an, dass Mythos und Logos als gleichermaßen legitime Zugänge zur Wahrheit präsentiert werden. Demnach fasst Platon den Mythos nicht im Sinne eines Gegensatzes zum Logos auf; vielmehr handelt es sich um zwei komplementäre Annäherungen an die Wirklichkeit, zwei verschiedenartige Wege zum Verständnis der Welt, von denen der eine mit Vernunftgründen abgesichert ist, während der andere Aspekte vor Augen stellt, die auf rationalem Weg schwer begreiflich zu machen sind. Je nach dem Verständnis ihres Sinnes und Zwecks sind die Mythen seit der Antike hinsichtlich ihres literarischen und philosophischen Werts sehr unterschiedlich beurteilt worden. Ideenlehre. Die Einführung der Ideenlehre wird häufig als die Trennlinie zwischen sokratischer und platonischer Philosophie gesehen. In den frühen aporetischen Definitionsdialogen beschäftigt sich der Sokrates Platons primär mit ethischen Themen. Er fragt danach, welche Eigenschaften eine bestimmte Tugend wie Gerechtigkeit oder Tapferkeit ausmachen oder durch welche Merkmale das Gute gekennzeichnet ist. Jedoch bleiben die dort erwogenen Definitionen für ihn ungenügend, weil sie entweder zu eng oder zu allgemein gefasst sind und daher keine präzise Bestimmung des Inhalts des jeweils zu definierenden Begriffs ermöglichen. Dagegen befasst sich Platon in den mittleren Dialogen mit dem Wesen einer Tugend oder eines beliebigen Objekts, ohne sich auf die Suche nach Definitionsmerkmalen zu beschränken. Ein Mensch mag zwar als gerecht bezeichnet werden, jedoch ist er nicht an und für sich gerecht; ein Gegenstand kann schön genannt werden, aber er ist niemals der Inbegriff des rein Schönen. Alle Dinge, denen aufgrund von Urteilen, die in Sinneserfahrungen gründen, eine bestimmte Eigenschaft – etwa „schön“ – zugeschrieben wird, haben in höherem oder geringerem Maß Anteil an deren an sich gedachtem Prinzip, an einer Idee ('), etwa dem „Schönen an sich“. Ideen als transzendente Objekte. Die platonische Idee ist − im Unterschied zum modernen Begriff „Idee“ − kein mentales Erzeugnis, kein Einfall oder Gedanke. Platon geht davon aus, dass die Welt, wie sie vom Menschen sinnlich wahrgenommen wird, einem der sinnlichen Wahrnehmung entzogenen, jedoch realen und eigenständig existierenden Reich der Ideen nachgeordnet ist, welches nur auf geistigem Weg erkannt werden kann. Die Idee ist für Platon das wahre Seiende, ihr Sein ist das Sein im eigentlichen Sinne. Den sinnlich wahrnehmbaren Gegenständen hingegen kommt nur ein bedingtes und damit unvollkommenes Sein zu. Zur Idee gelangt, wer von den unwesentlichen Besonderheiten des einzelnen Phänomens abstrahiert und seine Aufmerksamkeit auf das Allgemeine richtet, das den Einzeldingen zugrunde liegt und gemeinsam ist. So beschreibt er im "Symposion", wie man von der sinnlichen Wahrnehmung eines schönen Körpers zur Schönheit der Seele, der Sitten und der intellektuellen Erkenntnisse und schließlich zu dem „seiner Natur nach Schönen“, also der Idee des Schönen gelangen kann. Hierbei handelt es sich um den Inbegriff dessen, was schön ist, denn nur die Idee des Schönen ist unbeeinträchtigt durch unschöne Anteile. Ebenso ist die Idee der Gerechtigkeit frei von den ungerechten Aspekten, die jeder ihrer Manifestationen in der physischen Welt anhaften. Eigenschaften und Bedeutung der Ideen. Schematische Darstellung der platonischen Ideenlehre Die Ideen als eigentliche Wirklichkeit sind absolute, zeitunabhängig bestehende Urbilder. Da sie nicht dem Entstehen, dem Wandel und dem Vergehen unterliegen, sind sie von göttlicher Qualität. Einem Einzelding kommt Schönheit immer nur in begrenztem Grade zu, so dass schöne Dinge hinsichtlich des Ausmaßes ihrer Schönheit vergleichbar sind. Die Idee des Schönen hingegen ist solchem Mehr oder Weniger entzogen, denn das Schöne als Idee ist absolut (ohne Abstufung oder Einschränkung) schön. Da Ideen in höherem Maße wirklich sind als die sinnlich wahrnehmbaren Einzelgegenstände, kommt ihnen ontologisch (in der Lehre von der Hierarchie der seienden Dinge) ein höherer Rang zu als den Sinnesobjekten. Die Ideen machen das eigentliche Wesen der Eigenschaften aus und verleihen den Dingen deren Form. Als nicht wandelbare Entität sind sie der Gegenstand, auf den sich Denken und Erkenntnis richten, denn allein von Unveränderlichem kann es Wissen geben, von stets mangelhaften und in Veränderung begriffenen Sinnesdingen nicht. Die Objekte, die der Mensch wahrnimmt, verdanken ihr Sein dem objektiven Sein der jeweiligen Idee und ihre jeweilige besondere Beschaffenheit den verschiedenen Ideen, an denen sie Anteil haben. Der seinsmäßigen (ontologischen) Höherrangigkeit der Ideen entspricht eine erkenntnismäßige (epistemische). Alles Wissen über sinnlich Erfahrbares setzt ein richtiges Verständnis der jeweils zugrunde liegenden Idee voraus. Diese platonische Vorstellung ist somit der Auffassung entgegengesetzt, dass die Einzeldinge die gesamte Wirklichkeit ausmachen und hinter den Allgemeinbegriffen nichts steht als ein menschliches Bedürfnis, zur Klassifizierung der Phänomene Ordnungskategorien zu konstruieren. Platon greift das ursprünglich von Parmenides von Elea entwickelte Konzept eines einzigen Seins hinter den Dingen auf und wendet diesen Gedanken auf zahlreiche philosophische Fragen an. So weist er in der "Politeia" darauf hin, dass die Mathematiker ihre axiomatischen Voraussetzungen nicht klären, sondern sie als evident betrachten. Ihr Interesse gelte nicht den geometrischen Figuren, die sie mehr oder weniger unvollkommen in der Natur finden oder selbst zeichnen. Es gehe ihnen in der Geometrie nicht um empirische, sondern um ideale Gegenstände. Dabei werde vorausgesetzt, dass ein nichtempirisches Objekt – etwa das Viereck und seine Diagonale – das Ziel der Bestrebungen ist und nicht dessen in der Natur vorgefundene Abbilder. Von dieser Auffassung des Verhältnisses zwischen Idee und Abbild ausgehend bestimmt Platon beispielsweise das Schöne an sich, das Gute an sich, das Gerechte an sich oder das Fromme an sich. Jedes Phänomen der physischen Welt hat demnach Anteil an der Idee, deren Abbild (', ') es ist. Die Art dieser Teilhabe ("méthexis") bestimmt im Einzelfall, in welchem Ausmaß dem Objekt die Eigenschaft zukommt, die es von der Idee empfängt. Die Idee ist die Ursache dafür, dass etwas so ist, wie es ist. So legt das Schöne, das Gerechte oder das Gleiche fest, dass die Einzeldinge, die als schön, gerecht oder gleich wahrgenommen werden, diese Eigenschaften in bestimmtem Ausmaß aufweisen. Ein Mensch kann daher nur als schön bezeichnet werden, weil und insofern er an der Idee des Schönen teilhat. Die Idee ist zugleich in dem jeweiligen Objekt anwesend (' „Anwesenheit“). Die Problematik des Begriffs „Ideenlehre“ und offene Fragen. Platon bereitet seine Äußerungen zu den Ideen nicht systematisch auf, er präsentiert nirgends ein kohärentes Lehrgebäude. Daher kann ein Verständnis des von ihm Gemeinten nur aus einzelnen Angaben in zahlreichen Schriften gewonnen werden, wobei nur ein skizzenhaftes Bild entsteht. Der gängige Begriff „Ideenlehre“, der nicht von Platon selbst stammt, entspricht daher dem, was überliefert ist, nicht genau. Auch verwendet Platon für den Begriff „Idee“ verschiedene weitgehend synonyme Ausdrücke und variiert unablässig in der Wortwahl. In den späten Dialogen kommt die Ideenlehre teilweise nicht vor, wird in Grundzügen abgewandelt oder im "Timaios" auf neue Bereiche wie die Kosmogonie übertragen. Aufgrund des unsystematischen, uneinheitlichen und unfertigen Charakters von Platons schriftlich überlieferten Gedanken zu diesem Thema, die sich zudem im Lauf seiner philosophischen Entwicklung änderten, bleiben zahlreiche fundamentale Fragen offen, die seit der Antike kontrovers diskutiert werden. Unklar ist etwa, welchen sinnlich wahrnehmbaren Phänomenen nach Platons Ansicht spezifische Ideen zugeordnet sind und welchen nicht. Im "Politikos" scheint die Bestimmung eines Begriffs und damit die Existenz der betreffenden Idee von einem rein formalen Kriterium abzuhängen und die Frage nach Wert oder Rang dabei belanglos zu sein. Im "Parmenides" hingegen ist davon die Rede, dass Sokrates an der Existenz von Ideen einzelner Phänomene wie Feuer oder Wasser zweifelte und die Vorstellung anstößig fand, dass geringfügigen oder verächtlichen Dingen wie Kot oder Schmutz eigene Ideen zugeordnet seien. Anderenorts geht Platon davon aus, dass es nicht nur von Naturdingen Ideen gibt, sondern auch von Dingen wie Tischen, die in der physischen Welt nur als Produkte menschlichen Erfindungsgeistes existieren. Offen bleiben die Fragen, ob von Mängeln, von Unvollkommenem und Schlechtem Ideen anzunehmen sind und wie genau die Beziehung zwischen den Sinnesobjekten und ihren Ideen zu verstehen ist. Eigenschaften und Teile der Seele. In Platons Philosophie ist die Seele (') als immaterielles Prinzip des Lebens individuell unsterblich. Ihr Dasein ist von dem des Körpers gänzlich unabhängig; sie existiert vor seiner Entstehung und besteht nach seiner Zerstörung unversehrt fort (Prä- und Postexistenz). Daraus ergibt sich die Rangordnung der beiden: Der Leib, der mancherlei Beeinträchtigungen und letztlich der Vernichtung unterliegt, ist der unsterblichen, unzerstörbaren Seele untergeordnet. Es steht ihr zu, über ihn zu herrschen. Der Körper ist das „Gefäß“, die „Wohnstatt“ der Seele, aber auch negativ ausgedrückt ihr „Grab“ oder „Gefängnis“ – eine berühmt gewordene Formulierung Platons. Im Tod löst sich die Seele vom Körper, das ewig Lebendige trennt und befreit sich von der nur durch seine Einwirkung belebten Materie. Vom Leib entbunden kann die Seele auf ungetrübte Weise erkennen, weshalb der wahre Philosoph den Tod als sinnvoll anstrebt. Solange sie sich jedoch im Körper befindet, nimmt die Seele eine vermittelnde Stellung zwischen der Ideenwelt und der Sinnenwelt ein. Zusammen mit den körperlichen Faktoren und durch sich selbst erzeugt sie Wahrnehmungen, Erkenntnisse, Meinungen, Affekte, Gefühlsregungen und Triebe und bewirkt physische Effekte wie Wachstum, äußere Eigenschaften und Auflösung der Körpermaterie. Bedeutsam ist ihre Verbindung mit einem Körper nur für die Dauer eines Lebens, in dessen Verlauf sie ihre Fähigkeiten wie Erkenntnis-, Denk- und Strebevermögen und Eigenschaften (Tugenden und Untugenden) zur Geltung bringt und Erfahrungen von Lust und Schmerz macht. Alle geistigen Funktionen eines Individuums sind die ihrigen, so dass sie mit der Person identisch ist. Ihre ethischen Entscheidungen bestimmen ihr Schicksal nach dem Tod. Deshalb zielen für Platon alle philosophischen Bestrebungen nur auf die Seele; daher mahnt sein Sokrates, „für Einsicht aber und Wahrheit und für deine Seele, dass sie sich aufs beste befinde“, zu sorgen. Die Seele zeigt sich aus Platons Sicht nicht als einheitliches, sondern als komplexes Phänomen. Sie setzt sich aus einem begehrenden ('), einem muthaften (') und einem vernünftigen (') Teil zusammen. Die drei Teile treten miteinander in Konflikt. Erstrebt wird aus philosophischer Sicht ihre Harmonie unter der Vorherrschaft des Vernünftigen. In einem Mythos vergleicht Platon die Seelenteile mit einem Pferdewagen. Die Vernunft muss als Wagenlenker die beiden sehr verschiedenartigen Pferde Willen und Begierde lenken und die Begierde bändigen, um als herrschende Kraft die Seele zur Erkenntnis zu führen. Das Begehrende ist dabei auf Sinneswahrnehmung ausgerichtet, es befriedigt körperliche Lüste wie Essen, Trinken und Fortpflanzung oder erstrebt Mittel zur Befriedigung derartiger Lüste. Der Wille als der muthafte Seelenteil hingegen bringt Meinungen hervor, erkennt Schönes und Gutes (jedoch nicht das Schöne und Gute an sich) und fällt wertende Urteile über die eigene Person und andere. Beide sind dem Vernünftigen unterzuordnen – das Begehrende, um seine triebhafte Unersättlichkeit zu zähmen, das Muthafte, um seine positiven Qualitäten wie besonnener Eifer, Milde, Sanftmut, Respekt und Menschenliebe gegenüber den negativen wie falscher Eifer, Misstrauen und Neid zur Entfaltung zu bringen. Das Vernünftige zeigt sich in der Lust am Lernen und Erkennen des Wahren, im wissenschaftlichen Streben. Auf dem Gebiet der Ethik kennzeichnet den vernünftigen Seelenteil die Fähigkeit zu erkennen, was gut und zuträglich ist, und durch Zügelung der niederen Teile die Selbstbeherrschung des Menschen zu ermöglichen. Die Seelenteile bilden in Platons ursprünglicher Seelenlehre eine unsterbliche Einheit; im Spätwerk "Timaios" hingegen betrachtet er die niederen Seelenteile und die damit verbundenen Affekte, Triebe und negativen Gefühlsregungen als sterbliche Beimischungen zur unvergänglichen Vernunftseele. Beseeltheit nichtmenschlicher Wesen und Dinge. Da für Platon eigenständige Bewegung ein Definitionsmerkmal der Seele ist, fasst er auch Tiere und Gestirne als beseelt auf, im "Timaios" auch Pflanzen. Der Kosmos selbst verfügt über Vernunft, die ihren Sitz in der Weltseele ("psychḗ tou pantós") hat. Ein Schöpfergott, der Demiurg, bildete die Weltseele, verlieh ihr Teilhabe an den Ideen und pflanzte sie in die Welt, um die Vernunft in das Weltganze zu bringen und es dadurch vollkommener zu machen. Die Weltseele ist die Kraft, die sich selbst und alles andere bewegt. Sie ist der Welt immanent, überall in ihr verbreitet und umgibt sie zugleich. Da sie durch ihre unterschiedlichen Bestandteile an allem Anteil hat, vermag sie alles wahrzunehmen und zu erkennen. Ihr Wesen ist demjenigen der menschlichen Vernunft gleich; daher besteht Übereinstimmung zwischen der Seele des Menschen und der des Kosmos. Argumente für die Unsterblichkeit der Seele. Das Bemühen, die Unsterblichkeit der Seele zu beweisen, gehört zu den vorrangigen Anliegen Platons. Im "Phaidon" lässt er Sokrates argumentieren, dass Gegensätze wie Wachzustand und Schlaf zyklisch auseinander entstehen. Auch für den Schritt vom Leben zum Tod ist demnach eine gegenläufige Bewegung zurück zum Leben anzunehmen; anderenfalls würde alle Bewegung des Lebens auf den Tod zielen und mit ihm definitiv enden, so dass es kein Leben mehr gäbe. In einem weiteren Argument führt Platons Sokrates jeden Lernprozess darauf zurück, dass die Seele Kenntnisse wiedererlangt, die ihr nicht neu sein können; daher muss sie dieses potentielle Wissen aus ihrem Dasein vor der Entstehung des Körpers mitbringen. Weil sie vor ihrem Eintritt in einen Körper die Ideen an einem „überhimmlischen Ort“ ("tópos hyperouránios") geschaut und daher Wissen in reinster Form besessen hat, kann sie innerhalb ihres menschlichen Daseins lernen, indem sie sich schrittweise und in zunächst verfälschter, unreiner Weise an das einst Wahrgenommene erinnert (Anamnesis-Lehre). Aus der Existenz der Ideen und dem Zugang des Menschen zum von ihnen ermöglichten Wissen folgert Platon, dass die Seele nicht zum Bereich des zeitlich Begrenzten gehört. Ein anderes Argument geht von der Überlegung aus, dass das Sichtbare zusammengesetzt und daher auflösbar ist, das unsichtbare Geistige hingegen einfach, unauflösbar und unvergänglich. Das spricht dafür, dass die Seele dem Bereich des Unvergänglichen angehört, dessen Beschaffenheit der ihrigen gleicht. Ein weiteres Argument im "Phaidon" lautet, dass Gegensätze nicht zugleich anwesend sein können; so ist Schnee mit Wärme unvereinbar. Daher kann die als belebendes Prinzip schlechthin verstandene Seele den Tod nicht in sich aufnehmen. Somit betrifft der Tod allein den belebten Leib, nicht das diesen belebende Prinzip. Zudem stellt Platon in der "Politeia" die These auf, dass jedem zerstörbaren Ding ein Übel zugeordnet ist, von dem es verdorben und zerstört wird. Die Übel, welche die Seele betreffen, nämlich Ungerechtigkeit und Laster, machen sie schlecht, doch lässt sich nicht beobachten, dass sie ihre Zerstörung bewirken. Eine andere Überlegung Platons besagt, dass die Seele die Quelle aller Bewegung ist. Als Träger der Fähigkeit, immer von sich aus bewegt zu sein und anderes zu bewegen, muss die Seele ungeworden und daher unsterblich sein. Die Seele nach dem Tod. Zum Schicksal der Seele im Jenseits und zum „Wieder-Werden“ ("pálin gígnesthai"), der Seelenwanderung, äußert sich Platon meist in mythischer Form. Er verwendet zwar keine Ausdrücke, die den Begriffen „Seelenwanderung“ (im späteren Griechisch "metempsýchōsis", "palingenesía") und „Jenseits“ entsprechen, meint aber, wie aus seinen Ausführungen ersichtlich ist, deren Inhalte. Dabei knüpft er an ältere Konzepte an, wonach die Daseinsbedingungen nach dem Tod vom Verhalten im irdischen Leben abhängen, wie schon Pythagoras, Empedokles und Pindar meinten. Im "Phaidon" beschreibt er die Erde und das in einen oberen und einen unteren Bereich gegliederte Jenseits. Im oberen Bereich ist die „gleichsam wahre Erde“ lokalisiert. Dort führen die vom Körper befreiten Seelen in reiner und wunderbarer Umgebung ein glückliches Leben in Gegenwart der Götter, bis sie sich erneut inkarnieren. Im unteren Bereich erfahren fünf Gruppen von Seelen Strafe und Reinigung, je nach der Schwere ihrer im Leben begangenen Verfehlungen. So versinken die „unheilbaren“ Seelen im Tartaros, während jene, die schon im Leben Reue empfanden und sich „heilbare“ Sünden zuschulden kommen ließen, jährlich in die Nähe des Acheronsees gespült werden, wo sie ihre einstigen Opfer um Verzeihung bitten. Einzig die durch die Philosophie wahrhaft gereinigten Seelen werden von der „wahren Erde“ in ein rein geistiges, nicht näher beschreibbares Jenseits aufgenommen. Im Dialog "Gorgias" führt Platon den Gedanken eines Totengerichtes ein, der hier erstmals in der griechischen Kulturgeschichte näher ausgeführt wird, in Anknüpfung an ältere Vorstellungen einer richtenden Funktion von Göttern. Platons Totengericht besteht aus Minos, Rhadamanthys und Aiakos. Die nackten Seelen werden dort anhand ihrer „Narben“ und „Schwielen“ geprüft, welche durch ein ungerechtes Leben entstanden sind, und in den Tartaros oder das Elysion verwiesen. Ähnlich beschreibt Platon in der "Politeia" (Mythos des Er), wie die Seelen nach ihrer jeweiligen Lebensweise in die Unterwelt verbannt und gereinigt oder an einen himmlischen Ort versetzt werden. Nach tausend Jahren werden sie zur „Spindel der Ananke“ (Notwendigkeit) geführt, welche die Gestirne in Bewegung hält. Von den Moiren beaufsichtigt, wählen sie dort aus verschiedenen Lebensmodellen dasjenige, das sie künftig verwirklichen wollen, und begeben sich erneut in die Inkarnation. Im Spätwerk "Timaios" behauptet Platon, dass die Seele im Körper einer Frau wiedergeboren wird, wenn sie entsprechend ungünstige Voraussetzungen mitbringt, und dass die Wiedergeburt bei besonderer Unverständigkeit in einem Tierkörper erfolgen kann, wobei wiederum die Tierart vom jeweiligen Ausmaß der Torheit der Seele im vorherigen Leben abhängt. Auf der untersten Stufe, noch unter den Kriechtieren, stehen für Platon die Wassertiere. Definition und Merkmale von Erkenntnis und Wissen. Vor dem philosophiehistorischen Hintergrund der Auseinandersetzung mit den Sophisten, die sich gewerbsmäßig mit Wissensvermittlung befassten, wirft Sokrates – für Platon das Sinnbild des denkenden Menschen – im "Theaitetos" die Frage auf, was Erkenntnis und Wissen (') seien. Zunächst widerlegt er die Behauptungen „Wissen ist Wahrnehmung“ und „Wissen ist richtige Meinung“. Er bringt vor, eine richtige Meinung könne nicht Wissen genannt werden, wenn sie zufällig wahr sei. Aber auch die traditionelle, in der Philosophiegeschichte klassische Bestimmung des Wissens als „wahre Meinung mit Begründung“ verwirft der platonische Sokrates im "Theaitetos". Im früher entstandenen "Menon" hatte Platon diese Definition noch von Sokrates vortragen lassen; ihr zufolge entsteht dadurch, dass eine zutreffende Ansicht begründet werden kann, Erkenntnis und in weiterer Folge bleibendes Wissen. Im "Theaitetos" wendet er sich davon ab, wobei er argumentiert, die Begründung einer Meinung müsse wiederum begründet werden und ebenso die Begründung der Begründung, was zu einem infiniten Regress führen würde. Die Begründung einer Meinung besteht aus einer Verknüpfung von Elementen (Aussagen), die sich nur dem Verständnis erschließt, wenn ihre Bestandteile bereits bekannt sind, so wie man eine Silbe nicht erkennen kann, wenn man nicht zuvor ihre einzelnen Buchstaben erlernt hat. Daher muss sich die Begründung auf bereits vorhandenes Wissen stützen, um einer wahrheitsgemäßen Meinung den Charakter von Wissen zu verleihen. Die sich daraus ergebende Aussage „Wissen ist durch Wissen begründete wahre Meinung“ ist jedoch als Definition unbrauchbar, da der zu bestimmende Begriff in der Definition enthalten ist und dies zu einem Zirkelschluss führen würde. Der Dialog endet aporetisch. In seiner Erkenntnistheorie unterscheidet Platon streng zwischen Meinung (') oder Glauben ohne Wissen einerseits und wahrem Wissen andererseits. Sinneswahrnehmungen reichen nicht zum Erlangen der Wahrheit aus, sondern erzeugen lediglich Meinungen. Auch wenn eine Meinung zutrifft, ist sie von prinzipiell anderer Beschaffenheit und anderen Ursprungs als Einsicht. Ein Zugang zur Wahrheit und damit Wissen erschließt sich der Seele nur im Denken, das sich möglichst von der Sinneswahrnehmung emanzipiert hat. Diese Unterscheidung findet sich auch im Liniengleichnis wieder. Dabei betrachtet Platon voneinander getrennte Seinsbereiche als Abschnitte auf einer Linie. Die Linie zerfällt zunächst in die Hauptabschnitte des Sichtbaren, also des sinnlich Wahrnehmbaren, und des Denkbaren, des sich der Vernunft Erschließenden. Damit sind zugleich die Bereiche von Meinung und Erkenntnis abgegrenzt. Der Abschnitt des sinnlich Wahrnehmbaren gliedert sich wiederum in den Unterabschnitt der Abbilder (wie Schatten und Spiegelbilder) und den der Körper (der Sinnesobjekte selbst), die sich hinsichtlich der Deutlichkeit unterscheiden. Der Bereich des Denkbaren ist geteilt in ideale geometrische Objekte und die Ideen. Diesen hierarchisch geordneten Bereichen entsprechen, in ihrer Wertigkeit aufsteigend, vier Erkenntnisstufen, nämlich bloße Vermutung, bloße Überzeugung, Verstandeserkenntnis (') und Vernunfterkenntnis ('). Die Verstandeserkenntnis, realisiert in der Mathematik, ist dadurch charakterisiert, dass sie auf nicht hinterfragten Grundlagen basiert. Sie arbeitet mit wahren Meinungen, die ihrerseits durch evident wahre Meinungen begründet sind. Deren Voraussetzung liegt aber außerhalb des Bereichs dieser Meinungen und wird daher nicht in den Blick genommen. Zu ihr kann lediglich die qualitativ höherrangige Vernunfterkenntnis aufsteigen. Jede Erkenntnis, jedes Lernen vollzieht sich nach Platons Ansicht als Wiedererinnerung (Anamnesis,) an Ideen, welche die Seele vor ihrem Eintritt in den Körper an einem „überhimmlischen“ Ort geschaut hat und an die sie sich daher im Prozess der Erkenntnis erinnert. Erkenntnis und Wissen verweisen daher auf das Reich der Ideen. Was der Mensch durch die Einkörperung vergessen hat, kann er mit Hilfe von Sinneswahrnehmungen und Gesprächen und durch die Anleitung eines Lehrers wiedererlangen. So führt Sokrates im "Menon" einen mathematisch nicht vorgebildeten Sklaven gezielt zur Lösung eines geometrischen Problems, um zu zeigen, dass die Einsicht auf vorgeburtliche Kenntnisse zurückgreift. Zu diesen richtigen Vorstellungen von dem, was er nicht weiß, findet der Nichtwissende Zugang, wenn er entsprechend angeregt wird, denn sie sind auf traumhafte Weise in ihm präsent. Die Dialektik als Methode der Erkenntnisgewinnung. Der Begriff Dialektik ist adjektivisch und als Substantiv erstmals bei Platon nachweisbar, entgegen seiner sonstigen Zurückhaltung bei der Einführung und systematischen Verwendung von Fachbegriffen. Der griechische Ausdruck ' () leitet sich vom Verb „sprechen, sich unterhalten“ (') ab und bedeutet daher im engeren Sinne „(die Kunst der) Gesprächsführung“. Wahrscheinlich führte Platon diesen Ausdruck ein, um die dialogische Methode, die der platonische Sokrates vor allem in den frühen Dialogen anwendet, begrifflich abzugrenzen. Der durch die sokratische Dialektik erreichbare Erkenntnisgewinn besteht zunächst darin, dass untaugliche Definitionen als unzulänglich entlarvt werden. Der Dialektiker zeichnet sich durch die Fähigkeit aus, das Wesen der zu definierenden Gegenstände abgrenzend zu bestimmen und dabei Gegenargumente erfolgreich zu entkräften. Von dieser Entlarvung des Scheinwissens ausgehend gelangt Platon in den mittleren Dialogen zu einer Dialektik, die sich als diskursive Methode mit der Erkenntnis an sich befasst. Mit der Unzulänglichkeit sowohl der sinnlichen Wahrnehmung als auch einer wahren Meinung begründet er die Notwendigkeit einer Dialektik, die allein auf reinem Denken basiert. Diese stellt er der Mathematik entgegen, die auf Axiome angewiesen sei und als Geometrie gezeichneter Figuren bedürfe. Die Auffassung der Mathematiker von ihrem Gegenstand vergleicht Platon mit Träumen, weil sie gerade und ungerade Zahlen, Winkelarten und sinnlich wahrnehmbare Konstruktionen benützen, die sie jedoch als Hilfsannahmen für Axiome und Idealfiguren betrachten, welche sie nur im Denken finden. Über ihre Axiome meinen sie weder sich selbst noch anderen Rechenschaft zu schulden, als seien diese Annahmen für jeden evident. Mit Hilfe der Dialektik hingegen soll vorbedingungsfreies und somit echtes Wissen erlangt werden, das nicht auf derartigen ungeprüften Voraussetzungen fußt. Der Dialektiker muss daher alle unhinterfragten Vorannahmen vermeiden. Er befasst sich mit Hypothesen, die er offen als solche bezeichnet und überprüft. Damit gelangt er zu begründeten Annahmen, die Platon als „Stufen und Ansätze“ auffasst, die zum „Voraussetzungslosen, zum Anfang von Allem“ ('), nämlich der „Idee des Guten“ führen. Von dort schreitet der dialektisch denkende Philosoph darauf wieder zu den von dieser Idee abhängigen niederen Ideen. So durchmisst er, ohne sich der Sinneswahrnehmung zu bedienen, seinen Erkenntnisweg und gelangt dabei bis zum wahren Anfang und obersten Prinzip, das nicht auf eine übergeordnete Ursache zurückführbar ist. Der Dialektik weist Platon in der "Politeia", dem Dialog über den idealen Staat, eine zentrale Rolle für die Ausbildung der philosophischen Herrscher zu. Nach verschiedenen Disziplinen wie Arithmetik, Geometrie, Astronomie und Harmonik bildet sie den Abschluss ihres Bildungsganges, dessen Ziel der Aufstieg zur Idee des Guten als dem größten Lehrgegenstand ist. Definitionsfindung. Man kann innerhalb der platonischen Dialektik drei wesentliche Methoden unterscheiden, die zu Erkenntnis führen: erstens die nach Sokrates benannte Methode der "sokratischen Widerlegung" in den frühen Dialogen, die zur Einsicht in das eigene Nichtwissen führt, zweitens die Methode der "hypothesis" in den mittleren Dialogen, die aufgestellte Hypothesen prüft, und drittens die Methode der Dihairesis in den späten Dialogen. In den frühen Dialogen, in denen Sokrates der Hauptakteur ist, wird meistens die Definition eines Begriffs gesucht, mit der das Wesen des Bezeichneten eindeutig und vollständig erfasst werden soll (beispielsweise "Was ist das Fromme?"). Die Methode der Dihairesis ist in den späten Dialogen ein Mittel, ähnliche Definitionsfragen zu beantworten. Mit ihr gelangt man von der Frage "Was ist die Angelfischerei?" zur Definition "Die Angelfischerei ist die Kunst einer verwundenden Jagd auf Fische mit einem Haken bei Tage zum Zweck des Erwerbs". Eros und Ästhetik auf dem Erkenntnisweg. In Platons "Symposion" („Gastmahl“) beschreiben und preisen mehrere Redner Eros, den Daimon (Geist) der auf „das Schöne“ gerichteten Liebe. So betont Phaidros die ethische Dimension des Schönen. Er weist darauf hin, dass die Liebe beim Verliebten das Streben nach einem tugendhaften Leben fördert, da niemand in den Augen seines Geliebten ethisch hässlich erscheinen will, sondern die Liebenden um ihrer Geliebten willen schöne Taten vollbringen. Platon verwendet den Begriff des Schönen nicht nur im engeren Sinne für ästhetisch ansprechende Formen, Farben oder Melodien. Vielmehr bezeichnet er als „schön“ auch Erfreuliches, Bewundernswertes und Entzückendes im menschlichen Charakter und Verhalten, in Staat und Gesellschaft und darüber hinaus rein geistige Objekte philosophischen Bemühens. All dies ist für ihn eigentlich gleichartig, insoweit es Empfindungen derselben Art auslöst, und fällt daher in dieser Hinsicht unter den gemeinsamen Begriff des Schönen. Allerdings ist nicht alles, was gefällt, schön; es gibt auch eine scheinbare Schönheit, die nur flüchtige Annehmlichkeit erzeugt. Teils widerlegt der platonische Sokrates im "Symposion" seine Vorredner, teils überhöht er ihre Aussagen. Das Wirken des Eros lässt er weit über den Bereich zwischenmenschlicher Leidenschaft hinausreichen, denn Liebe ist für Platon die Triebfeder des menschlichen Strebens nach dem Schönen und Guten. Diese beiden Bereiche sind eng miteinander verknüpfte Aspekte derselben Wirklichkeit, deren höchste Ausformung geistige, ethische und körperliche Vollkommenheit ist (Kalokagathia). Als höchstes Ziel menschlichen Strebens fällt das Schöne mit dem Guten zusammen, es ist das Gute unter dem Aspekt von dessen ästhetischer Anziehungskraft. Als Sohn der Penia, der Personifikation der Armut, und des Poros (Fülle) treibt Eros den Menschen an, sich in der Erkenntnis des Guten zu vollenden und dadurch glückselig zu werden. Ziel der Liebe ist „Erzeugung und Geburt im Schönen“. Eine äußere Bedingung für die Betätigung des Eros ist die Gegenwart des Schönen ('). Außerdem muss die Seele, um für Schönheit empfänglich zu sein, bestimmte Voraussetzungen mitbringen. Begegnet ein Mensch dem Schönen in einer Form, in der es in der Sinneswelt vorkommt, so erinnert sich die Seele an das wahre Schöne, das sie vor der Geburt geschaut hat und von dem sie seit dem Beginn ihres irdischen Daseins getrennt ist. Wenn dies geschieht, beflügelt die Wirkung des Schönen die Seele und erlaubt ihr, sich stufenweise zum übersinnlich Schönen, der Idee des Schönen, zu erheben. Zugleich nimmt sie den „Ausfluss der Schönheit“ in sich auf und erschaudert angesichts dessen. So richtet sich Eros aufsteigend zunächst auf die anwesende schöne Gestalt, dann allgemein auf alle schönen Körper, dann auf die schöne Seele, das Schöne in der Gemeinschaft und der Wissenschaft, schließlich auf die Idee des Schönen. Auf diesem Weg stellt das Fortpflanzungsstreben, das von der Schönheit eines Körpers angeregt wird, die niedrigste Stufe dar. Ihm übergeordnet ist der aus dem Eros entspringende Wunsch, moralische und politische Tugenden zu erwerben, die zur Schönheit der Seele beitragen. Zu ihrer Vollendung gelangt die Erkenntnis des Schönen erst in der Schau der Idee des Schönen, nachdem der Betrachtende sich von aller Bindung an sinnliche Wahrnehmung befreit hat. Zugleich fasst Platon Eros als maßgebliche Triebkraft des philosophischen Erkenntnisstrebens auf, denn die Liebe des Philosophierenden gilt der Weisheit, die zum Schönsten gehört. Der Eros begeistert den Philosophierenden für die Erkenntnis des wahrhaft Erstrebenswerten und veranlasst ihn damit zu der geistigen Betätigung, die sich in der Schau der Ideen vollendet. Der Weisheitsliebende (') strebt nach Erkenntnis, weil er das, wonach er liebend sucht, noch nicht besitzt, das heißt noch nicht weise ist. Wer hingegen entweder bereits wie die Götter weise ist oder den Wert der Weisheit nicht erkannt hat, philosophiert nicht. Gerechtigkeit als Grundtugend. In mehreren Dialogen ist die Frage nach dem Wesen der Gerechtigkeit ("Dikaiosyne") ein zentrales Thema. In der "Politeia" definiert Platon Gerechtigkeit als die Bereitschaft eines Staatsbürgers, sich nur den Aufgaben zu widmen, für die er von Natur aus geeignet ist und die daher seinen Beruf ausmachen und seinem festgelegten Stand entsprechen, und sich nicht in andere Belange einzumischen. Ungerechtigkeit entsteht somit dann, wenn die Grenzen der staatlich vorgegebenen Zuständigkeitsbereiche missachtet werden. Analog dazu herrscht Gerechtigkeit innerhalb eines Individuums dann, wenn seine Seelenteile (das Begehrende, das Muthafte und das Vernünftige) im richtigen Verhältnis zueinander stehen. Der platonische Sokrates verwirft in der "Politeia" mehrere andere Bestimmungen des Gerechten, darunter die traditionellen, von den Sophisten aufgegriffenen Gerechtigkeitstheorien, wonach es gerecht ist, „Freunden Gutes zu tun und Feinden Böses“ oder „jedem das ihm Gebührende zukommen zu lassen“. Gegen die erstgenannte Ansicht wendet Sokrates ein, dass es keinesfalls gerecht sein könne, jemandem zu schaden, vielmehr sei solches Verhalten stets ungerecht. Den sophistischen Gesprächspartner Thrasymachos lässt Platon Gerechtigkeit als ein Mittel der Machthaber und allgemein als das den Überlegenen Zuträgliche charakterisieren. Durch die Gesetzgebung der Starken werde in jedem Staat festgelegt, was gerecht ist. Ein anderer im Dialog auftretender Sophist fasst Gerechtigkeit als gesellschaftliche Konvention auf, durch welche die Bürger auf die Chance, Unrecht zu tun, notgedrungen verzichten, um sich gegen die Gefahr abzusichern, selbst zum Opfer von Unrecht zu werden. Diese sophistischen Definitionen sind aus Platons Sicht untauglich, da sie Gerechtigkeit als Verpflichtung und Verhalten gegenüber anderen, nicht als Qualität der Seele erklären. Im Gegensatz zu Aristoteles, der betont, dass die Tugend der Gerechtigkeit nur auf andere bezogen verwirklicht werden könne, hält Platon Gerechtigkeit für einen inneren Zustand des Individuums, nicht für eine Absichtshaltung oder ein Verhalten gegenüber anderen. Gerechtigkeit ist damit eine Funktion der Seele. So wie ein Mensch groß oder klein ist, weil er an der Idee der Größe bzw. der Kleinheit in einem bestimmten Maß Anteil hat, ist in der platonischen Vorstellung ein Mensch gerecht aufgrund seiner Teilhabe an der Idee der Gerechtigkeit. Die Menschen meinen, dass jeder an dieser Idee teilhat, um einer Gemeinschaft angehören zu können, denn in der Gemeinschaft muss jeder zumindest behaupten, gerecht zu sein. Gerechtigkeit führt für Platon zur Eudaimonie („Glückseligkeit“); das Leben eines Übeltäters hingegen ist notwendigerweise elend. Somit gehört Gerechtigkeit „zu dem Schönsten, nämlich zu dem, was sowohl um seiner selbst willen wie wegen der daraus entspringenden Folgen von jedem geliebt werden muss, der glücklich werden will“. Zugleich ist Gerechtigkeit eine „Bestform“ der Seele, die höchste Tugend ("Arete"), welche die drei anderen, den drei Seelenteilen zugeordneten Grundtugenden Besonnenheit, Tapferkeit und Weisheit in sich vereint und ordnet. Im Dialog "Kriton" überliefert Platon, Sokrates habe im Gefängnis nach seiner Verurteilung zum Tode eine mögliche Flucht abgelehnt mit der Begründung, dass ein Gesetzesbruch ungerecht wäre. Das Gute. Über die Frage nach dem Wesen einzelner Tugenden und dem Tugendhaften an sich weist Platon hinaus, indem er die Idee des Guten einführt, die alle Tugenden umfasst und ihnen somit übergeordnet ist. Zwar berührt Platon das Thema des Guten in zahlreichen seiner Dialoge, doch entfaltet er seine Gedanken über die Idee des Guten, also das Gute an und für sich, lediglich an einer Stelle der "Politeia". Dort stellt er das Gute als eine Idee dar, welche die anderen Ideen an Würde und an Kraft überragt und nicht wie diese zum wahrhaft Seienden gehört, sondern sich jenseits des Seins befindet. Die Ideen sind untereinander durch Teilhabe verbunden, weil sie auf die Idee des Guten als oberstes Prinzip zurückgeführt werden können. Das nur knapp dargestellte Konzept der Idee des Guten ist Gegenstand zahlreicher Interpretationen. Die meisten Gelehrten meinen, dass die Idee des Guten für Platon den Bereich des Seins transzendiert. Diese Auffassung ist allerdings nicht unumstritten. Einer Bestimmung der Idee des Guten nähert sich Platons Sokrates in der "Politeia" in drei Gleichnissen an (Sonnen-, Linien- und Höhlengleichnis). Im Sonnengleichnis vergleicht er das Gute mit der Sonne als seinem „Sprössling“. So wie das Sonnenlicht es ermöglicht, dass Dinge wahrgenommen werden, wogegen im Dunkeln die Sehkraft eingeschränkt ist, so lassen sich erst im Lichte der Idee des Guten andere Ideen erkennen. Die Idee des Guten verleiht den Dingen ihre Erkennbarkeit, dem Erkennenden seine Erkenntnisfähigkeit, allem Seienden sein Sein und allem – auch der Gerechtigkeit – seinen Nutzen, da sie selbst Ziel und Sinn von allem ist. Daher ist ihre Erkenntnis das höchste Ziel des Philosophen und in der "Politeia" Voraussetzung dafür, Philosophenherrscher zu werden. Wer einmal die Einsicht in das Gute gewonnen hat, kann nicht mehr wider dieses bessere Wissen handeln; das Problem der Akrasia (Willensschwäche, mangelnde Selbstbeherrschung) besteht für ihn nicht. Das Gute wird damit zu einem absoluten Orientierungspunkt für das praktische Handeln. Eudaimonie und Lust. Platon unterscheidet scharf zwischen der Eudaimonie – dem einer gelungenen Lebensführung entsprechenden erfreulichen, ausgeglichenen Gemütszustand – und der körperlichen und seelischen Lust "(hēdonḗ)". Der Ausdruck Eudaimonie wird im Deutschen gewöhnlich ungenau mit „Glück“ oder „Glückseligkeit“ übersetzt. Platon hält die Eudaimonie für unbedingt erstrebenswert; die Lust lehnt er zwar nicht ab, doch stuft er legitime seelische Lust als niedriges Gut ein, und den Lustempfindungen, die aus der Befriedigung leiblicher Bedürfnisse resultieren, billigt er keinen Wert zu. Wenn die Vernunft innerhalb der Seele die Leitung innehat, was bei einer philosophischen Lebensführung der Fall ist, kann Lust auf unbedenkliche Weise erlebt werden. Angleichung an die Gottheit. Das Wesen der philosophischen Lebensweise bestimmt Platon als Angleichung oder „Anähnlichung“ an die Gottheit, „soweit dies möglich ist“ "(homoíōsis theṓ katá to dynatón)". Die Voraussetzung dafür ist die von Natur aus bestehende Verwandtschaft der unsterblichen Seele mit dem Göttlichen. Die Gottheit, in der alles Erstrebenswerte auf optimale Weise vereint ist, bietet das Vorbild, das der philosophisch Lebende nachahmt, indem er nach einem möglichst vollkommenen Besitz der göttlichen Merkmale Tugend und Wissen trachtet. Jeder Mensch ahmt das nach, womit er sich gern und beständig beschäftigt, und nimmt dadurch dessen gute oder schlechte Beschaffenheit an. Da das unveränderliche Sein des Ideenkosmos von göttlicher Qualität ist, wird der Betrachter, der sich ihm nachahmend zuwendet, selbst vergöttlicht. Auch die Götter verdanken ihre Göttlichkeit ihrer Hinwendung zu den Ideen. Das geistige Erfassen der Ideen und das von solcher Erkenntnis gelenkte Handeln führen den Menschen zur Gottähnlichkeit, soweit die Bedingungen des Lebens in der Sinnenwelt dies zulassen. Diesem Ziel nähert sich der Philosoph vor allem durch seine zunehmende Vertrautheit mit den Ideen der Gerechtigkeit und der Maßhaftigkeit, in denen das Göttliche in erster Linie hervortritt. Ein stets wachsendes Verständnis der kosmischen Ordnung, die auf diesen Ideen beruht, ist der Weg der Angleichung, auf dem der Wahrnehmende und Erkennende eine analoge Ordnung in seine eigene Seele bringt. Überdies bewegt ihn die Angleichung an die Gottheit dazu, für den guten Zustand der Sinnenwelt Verantwortung zu übernehmen. "Politeia", der Idealstaat der Philosophenherrscher. Die Frage nach der Gerechtigkeit ist der Ausgangspunkt der "Politeia" "(Der Staat)", welche in der Tetralogienordnung daher den Untertitel "Über das Gerechte" (') erhielt. Der platonische Sokrates setzt darin der attischen Demokratie einen utopischen, vom Gerechtigkeitsprinzip geleiteten Idealstaat entgegen. Mit dieser Übertragung auf die Ebene des Staates soll die ursprünglich auf das Individuum bezogene Frage nach dem Wesen der Gerechtigkeit eine umfassendere Antwort finden. Der ideale Staat hat den Zweck, die Idee des Guten auf der physischen Ebene zu verwirklichen; mit der Umsetzung der Gerechtigkeit soll eine Voraussetzung für das gute Leben jedes Bürgers geschaffen werden. So wie im Kosmos und in der Seele soll auch im Idealstaat eine harmonische Ganzheit verwirklicht werden. Zwischen dem Individuum und dem Staat besteht für Platon eine Analogie, denn so wie sich Gerechtigkeit im Einzelnen als bestimmter innerer Ordnungszustand entfaltet, so macht eine bestimmte Ordnung der Polis diese zu einem gerechten Gemeinwesen. Daher hat jeder Stand und jeder Bürger die Aufgabe, zum gemeinsamen Wohl beizutragen, indem er sich auf angemessene Weise harmonisch in das Ganze einfügt und ihm dient. Platon zeichnet in der "Politeia" den Werdegang eines Staates hin zu seinem Idealmodell. Ein auf die menschlichen Grundbedürfnisse ausgerichteter erster, primitiver Staat, als „Schweinepolis“ bezeichnet ('), bildet sich, da niemand für sich autark sein kann. Bei fortschreitender Entwicklung gilt der Grundsatz der Arbeitsteilung aufgrund unterschiedlicher Voraussetzungen und Begabungen der Bürger. Der Staat besteht jedoch um eines höheren Ziels willen, nämlich der Gerechtigkeit, die sich in der gerechten Verteilung der Aufgaben auf die Stände zeigt. Jeder soll im Staatsgefüge eine seinen Fähigkeiten entsprechende Tätigkeit ausüben. Daher kann bereits ein einfacher Staat der Forderung nach einer gerechten Struktur nachkommen, indem er durch das Prinzip gegenseitiger Hilfe die Erfüllung grundlegender Bedürfnisse ermöglicht. Aus dem primitiven Staat entwickelt sich stufenweise ein „üppiger“ und „angeschwollener“ Staat ('), in dem sich ein kulturelles Leben herausbildet und Luxusgüter zur Verfügung stehen. Ein derart „angeschwollener“ Stadtstaat ist jedoch von verhängnisvollen Entwicklungen wie Machtkämpfen, Kriegen und aufkommenden Zivilisationsschäden bedroht. Als Alternative dazu entwirft Platon die Utopie eines „gesäuberten“ Idealstaates. Dessen Bürgerschaft gliedert er in den Handwerker- und Bauernstand ('), den Stand der Wächter (') und den der Philosophenherrscher ('). Zur Erfüllung seiner standesspezifischen Aufgaben benötigt jeder Bürger eine der Kardinaltugenden Besonnenheit ('), Tapferkeit (') und Weisheit ('). Damit sind die drei Tugenden ebenso wie den drei Seelenteilen (dem Begehrenden, dem Muthaften und dem Vernünftigen) auch den drei Teilen der Bürgerschaft zugeordnet. Gerechtigkeit ergibt sich daraus, dass jeder im Auftrag der Gemeinschaft das tut, was seinem Wesen und seinen Begabungen entspricht ('; Idiopragie-Forderung). Mit der Begründung, das Schicksal habe den Menschen vor ihrer Geburt unterschiedliche Fähigkeiten zugeteilt, sieht Platon für die Einordnung der Bürger in die drei Stände ein Aussiebungsverfahren vor. Die Standeszugehörigkeit ist im platonischen Staat nicht erblich, sondern wird gemäß der persönlichen Leistung im Bildungsprozess zugewiesen. Zu diesem Zweck wird das neugeborene Kind den Eltern entzogen und Erziehern anvertraut, wobei zwischen Jungen und Mädchen kein Unterschied gemacht werden soll. Dadurch soll eine große Gemeinschaft entstehen, in der die Kinder keine Bindungen zu ihren leiblichen Verwandten entwickeln. Der Staat plant und lenkt die Fortpflanzung, schreibt sie vor oder untersagt sie, sowohl zum Zweck der Eugenik als auch um die Bevölkerungszahl konstant zu halten. Die Erziehung der Nachkommenschaft obliegt ausschließlich staatlichen Behörden; behinderte und aus unerwünschten Verbindungen hervorgehende Neugeborene sollen wie in Sparta nicht aufgezogen, sondern „verborgen“, d. h. ausgesetzt werden. Bei der Aussetzung oder Tötung von Säuglingen mit angeborenen Defekten handelt es sich um eine in der Antike verbreitete Sitte. Besonderen Wert legt Platon auf körperliche Ertüchtigung und musische Ausbildung. Wer wegen unzureichender Leistungsfähigkeit frühzeitig aus dem Bildungssystem ausscheidet, wird Bauer oder Handwerker. Für diesen Stand bleiben Privateigentum und Familie bestehen. Eine strenge Zensur verbietet unter anderem die als verderblich betrachtete Lektüre von Homer sowie manche traditionelle Mythen. Insbesondere jene Stellen in Epen, Tragödien sowie Komödien sind zu tilgen, welche Furcht vor dem Tod einflößen, zu Übermut anregen oder gegen sittliche Vorstellungen verstoßen. Durch Begabung wird der Aufstieg in die beiden oberen Stände möglich. In diesen ist eine Güter- und Familiengemeinschaft vorgeschrieben; daher wird in der Moderne vom „platonischen Kommunismus“ gesprochen. Die Ausbildung der Wächter zielt auf ihre besonderen Aufgaben: als Krieger sind sie für die Landesverteidigung zuständig, außerdem fungieren sie im Inneren als Exekutivorgan. Nur die Tüchtigsten werden in den Stand der Herrscher eingereiht. Zur Regierung des Staates gelangen sie, nachdem sie in Musik und Gymnastik, dann in der Mathematik und anderen Wissenschaften, schließlich in der Dialektik Unterweisung erhalten haben sowie zur „Schau der Ideen“ und des Guten selbst gelangt sind und verschiedene Ämter bekleidet haben. Von den Herrschenden fordert Platon Liebe zur Weisheit. Sie sollen die Philosophenherrschaft umsetzen, die im platonischen Staat die Voraussetzung für ein vollendetes Gemeinwesen darstellt: „Solange in den Staaten nicht entweder die Philosophen Könige werden oder die, welche jetzt Könige und Herrscher heißen, echte und gründliche Philosophen werden, solange nicht die Macht im Staate und die Philosophie verschmolzen sind, solange nicht den derzeitigen Charakteren, die sich meist einem von beiden ausschließlich zuwenden, der Zugang mit Gewalt verschlossen wird, solange gibt es, mein lieber Glaukon, keine Erlösung vom Übel für die Staaten, ich glaube aber auch nicht für die Menschheit, noch auch wird diese Verfassung, wie wir sie eben dargestellt haben, vorher zur Möglichkeit werden und das Sonnenlicht erblicken.“ Für die griechische Gesellschaft seiner Zeit ungewöhnlich war Platons Meinung, dass die Rolle der Frauen nicht auf geschlechtsspezifische Tätigkeiten zu beschränken war, sondern Frauen soweit irgend möglich dieselben Aufgaben übernehmen sollten wie Männer. Sie sollten sogar, soweit es ihre naturgegebenen Fähigkeiten erlaubten, als Wächterinnen ausgebildet werden und als solche mit den Männern in den Krieg ziehen. "Nomoi", der zweitbeste Staat. In seinem Alterswerk "Nomoi" "(Die Gesetze)" wandelt Platon sein erstes Staatskonzept, das er nun als allzu utopisch betrachtet, stark ab und entwirft ein realistischeres Modell. Dabei gibt er insbesondere die Gütergemeinschaft auf, obwohl er den auf Kollektiveigentum der Führungsschicht ausgerichteten Staat weiterhin für den bestmöglichen hält. An den Zielen der "Politeia" soll sich der „zweitbeste“ Staat orientieren, dabei aber die im älteren Konzept sehr hohen Anforderungen an die Bürger reduzieren. In den "Nomoi" gibt es keine Philosophenherrschaft, vielmehr räumt Platon allen Staatsbürgern die Möglichkeit zur Mitbestimmung ein, da unbeschränkte Macht jeden korrumpiere. Damit diese Versuchung nicht überhandnimmt, müssen die Gesetze im Staat herrschen und ihn stützen. Neben sehr detaillierten Ausführungen zu Erziehung, Gymnastik und der richtigen Lebensform finden sich in den "Nomoi" daher auch konkrete Erläuterungen der nötigen Gesetzgebung. Kunstverständnis. Als Verfasser von Prosa und gelegentlich auch Dichtung war Platon ein hochbegabter Künstler, als gebildeter Ästhet dem Schönen zugewandt. Unter philosophischem Gesichtspunkt war jedoch sein Verhältnis zur Kunst – sowohl zur bildenden als auch zur darstellenden Kunst, zur Musik und Literatur – zwiespältig, großenteils sogar ablehnend. Seine Kritik an der Kunst, die er im Zusammenhang mit seiner Staatsphilosophie entwickelte, erregte seit der Antike Aufsehen. Wegen der außerordentlich starken Wirkung der Kunst auf empfindsame Gemüter vertrat er in der "Politeia" die Überzeugung, der Staat müsse die Kunst reglementieren, um verhängnisvollen Auswirkungen schädlicher Kunstformen auf die Gemeinschaft vorzubeugen. Daher ließ er in seinem Idealstaat nur bestimmte Tonarten und Musikinstrumente zu. Dichter, die unerwünschte Werke schufen, wollte er dort nicht dulden. Nur Traditionelles, Bewährtes und Einfaches fand seine Zustimmung; von Neuerungen wollte er nichts wissen, da sie den einmal erreichten harmonischen, stabilen Idealzustand der Gesellschaft beeinträchtigen könnten. Die Schönheit geometrischer Formen zog Platon derjenigen von Lebewesen oder Kunstwerken vor, da diese nur relativ schön seien, während bestimmten regelmäßigen geometrischen Figuren eine absolute Schönheit zukomme. Ordnung, Maß (Angemessenheit) und harmonische Proportionen ("symmetría") waren für ihn entscheidende Kriterien für Schönheit, da sie den Dingen Einheit verliehen; aus willkürlicher Abweichung von dieser Norm und Maßlosigkeit musste Hässlichkeit resultieren. Platons Missbilligung der bildenden Künste beruhte auf seiner Überzeugung, dass in der hierarchischen Seinsordnung stets das relativ Niedere lediglich ein Abbild des relativ Höheren und als solches im Vergleich mit diesem in bestimmtem Maß unvollkommener sei. Somit konnte wahres menschliches Verbesserungsstreben nur eine Abwendung von Abbildern und Hinwendung zu Urbildern bedeuten. Da jedoch sowohl Malerei als auch Plastik für Platon nichts als Nachahmungen der Natur waren (Mimesis-Konzept) und die Natur ihrerseits ein Abbild der Ideenwelt war, sah er in der Beschäftigung mit solchen Künsten nur einen Weg vom Urbild zum Abbild und damit einen Abstieg und eine Verirrung. Solche Kunstwerke waren aus seiner Sicht bestenfalls getreue Kopien und damit unnötige Verdoppelungen von Originalen, welche sie niemals übertreffen konnten. Außerdem sah Platon in solchem Kunstschaffen eine Spielerei und einen Zeitvertreib, eine Ablenkung von wichtigen Aufgaben. Besonders scharf verurteilte er Werke der bildenden Kunst, mit denen der Künstler nicht einmal möglichst getreue Nachahmung von Naturdingen anstrebt, sondern Illusionen erzeugen oder Subjektives ausdrücken will. Dies verurteilte er als schuldhafte Irreführung. Unter Ästhetik verstand er eine objektive Gegebenheit, in der es kein subjektives Element geben dürfe. Sein abwertendes Urteil betraf nicht die Architektur, die er nicht zu den nachahmenden (mimetischen), sondern zu den „erschaffenden“ (poietischen) Künsten zählte, welche wirkliche Dinge hervorbringen, statt sie nur abzubilden. Seine Kritik an bestimmten Musikformen und an der Dichtung setzte hauptsächlich an einem anderen Punkt an, nämlich an der demoralisierenden Wirkung, die er ihnen zuschrieb. Mit diesem Argument wandte er sich gegen die lydische Tonart, gegen Flötenmusik und gegen Dichtungen wie diejenigen Homers und Hesiods. Er ging davon aus, dass schlechte Musik niedere Affekte verstärke, die Herrschaft der Vernunft über das Gefühlsleben bedrohe und so den Charakter verderbe, während schlechte Dichtung Lügen verbreite. Andere Tonarten, religiöse Hymnendichtung und Lobgedichte auf gute Menschen hingegen bewertete er positiv und schrieb ihnen einen günstigen Einfluss auf die Charakterbildung zu. Was er in der Dichtung für gut befand, das hielt er nicht für eigene Leistungen der Dichter, sondern er führte es auf göttliche Inspiration zurück. Zur Beschreibung der bei solchem Schaffen entstehenden Begeisterung verwendete er den ambivalenten, hier positiv gemeinten Begriff Raserei ("manía"); im inspirierten Dichter sah er einen Mittler zwischen Göttern und Menschen. Bei den dichterischen Formen unterschied er nach dem Ausmaß des mimetischen Anteils in ihnen. Das Drama als szenisch darstellende und daher rein mimetische Form und unmittelbare Wiedergabe verwarf er gänzlich, zumal darin auch charakterlich fragwürdige oder schlechte Personen auftreten, deren Nachahmung durch Schauspieler er für charakterschädigend hielt. Die erzählenden und nur mittelbar wiedergebenden Dichtungsformen mit geringem Mimesis-Anteil (Dithyrambos, Epos) hielt er für akzeptabel, sofern die Inhalte moralisch nicht zu beanstanden waren. Naturphilosophie. Im " Phaidon " berichtet der platonische Sokrates anschaulich, wie er in seiner Jugend gehofft habe, in der Naturkunde die Ursache aller Dinge zu finden, und wie er dabei enttäuscht worden sei. Selbst der Naturphilosoph Anaxagoras habe sich nur mit dem sinnlich Wahrnehmbaren beschäftigt und sei die Antwort auf das eigentliche „Warum“ schuldig geblieben. Hier wird Platons Distanz zur Naturwissenschaft deutlich; sein wahres Interesse gilt dem Geistigen und – zwecks Hinführung zu diesem – der Mathematik. Der Gegenstand der Naturwissenschaft hingegen ist die empirische Welt der Erscheinungen ("Physis" „Natur“), also aus Platons Sicht ein bloßes Abbild der reinen Ideen, dem er nur ein defizitäres Sein zubilligt. Dem "Timaios" zufolge hat der mythische Demiurg (Schöpfer, wörtlich „Handwerksmeister“, „Fachmann“) die dingliche Welt aus der Ur-Materie gestaltet. Diese Aussage ist nach der Überzeugung antiker Platoniker und auch nach dem heute in der Forschung vorherrschenden Verständnis nicht wörtlich im Sinne einer Weltentstehung in der Zeit, sondern metaphorisch zu verstehen; die Schöpfung ist kein einmaliges Ereignis, sondern ein beständiger Prozess. Der Zustand der Welt ergibt sich aus dem Zusammentreffen zweier gegensätzlicher Faktoren, nämlich der vernünftigen Einwirkung des Demiurgen, der sich an der Ideenwelt orientiert und das Bestmögliche erreichen will, und dem chaotischen, regellosen Charakter der Ur-Materie, welcher der erschaffenden und ordnenden Tätigkeit des Demiurgen Widerstand entgegensetzt. Die Materie ist nicht vom Demiurgen geschaffen, sondern bildet eine eigenständige Grundlage für sein Wirken. Er ist kein allmächtiger Schöpfergott, sondern gleichsam ein göttlicher Baumeister, der auf vorhandenes mangelhaftes Material angewiesen ist, aus dem er im Rahmen des Möglichen etwas herstellt. Daher vergleicht Platon die Ur-Materie ("chóra") mit Rohmaterial, wie es Handwerkern zur Verfügung steht ("hylē"). Sie ist ihrer eigenen ursprünglichen Natur nach amorph, aber form- und gestaltbar. Die Ur-Materie weist eine räumliche Qualität auf, was aber nicht im Sinne eines leeren Raums zu verstehen ist; eher kann man sie als ein Feld betrachten, das nach Platons Angaben bereits Spuren der Elemente aufweist. Sie ist der gebärfreudige „Schoß des Werdens“, aus dem die Körper entstehen, das rein Empfangende, das – selbst formlos – alle Formen aufnimmt. Feuer, Luft, Wasser und Erde sind die vier Grundformen der vom Demiurgen gestalteten Materie, die sich mit Ausnahme der Erde ineinander umwandeln können. Diese vier Elemente bestehen aus vier Arten von regelmäßigen Polyedern, die sich ihrerseits aus zwei Arten von kleinen rechtwinklig-gleichschenkligen Dreiecken – einer Art geometrischer Atome – zusammensetzen. Die Elementardreiecke sind als einfachste geometrische Figuren die Grundbausteine, aus deren unterschiedlichen Kombinationen sich die Vielfalt der materiellen Objekte ergibt, etwa die Aggregatzustände des Wassers oder die Abstufungen des Festen von Erde zu Stein. Mit dieser Kosmologie gehört Platon zusammen mit Demokrit zu den Schöpfern der Vorstellung einer atomaren Struktur der Materie und der Elemente und ist der Begründer eines mathematischen Atomismus. Ein Hauptmerkmal des platonischen Kosmos besteht darin, dass er nicht tot ist, sondern beseelt, lebendig und mit Vernunft ausgestattet, ein ewiges, vollkommenes Wesen. Dies verdankt er der Weltseele, die ihn durchdringt und umhüllt. Die Weltseele ist das Prinzip der Weltbewegung und des Lebens. Nur gelegentlich äußert sich Platon unter pythagoreischem Einfluss konkret zu naturwissenschaftlichen Fragen, wobei er gern die mythische Form der Darbietung wählt. So findet sich im Schlussmythos der "Politeia" ein Modell für die Planetenbewegungen. In den Bereich der Naturlehre begibt sich Platon auch mit seinem im "Timaios" unternommenen Versuch, die Seelenteile anatomisch zu verorten. Er lokalisiert den erkennenden Seelenteil an einer Stelle im Kopf, den mutigen Seelenteil an einer Stelle zwischen Hals und Zwerchfell in der Nähe des Herzens und den begehrenden Seelenteil unter der Herrschaft der Leber zwischen Zwerchfell und Nabel. Ungeschriebene Lehre. Die Dialoge stellen nicht die gesamte Philosophie Platons dar, sondern nur deren zur schriftlichen Verbreitung bestimmten Teil. Dies zeigt insbesondere die gut bezeugte Existenz seines öffentlichen Vortrags "Über das Gute", der ein zentrales Thema behandelte, aber niemals schriftlich an die Öffentlichkeit gebracht wurde. Von „ungeschriebenen Lehren“ Platons ("ágrapha dógmata") berichtet bereits sein Schüler Aristoteles. Es handelte sich um Lehrstoff, der nur mündlich in der Akademie fortgeschrittenen Schülern vermittelt wurde. Platon hegte eine generelle Skepsis gegenüber der Zweckmäßigkeit eines schriftlichen Diskurses und war der Überzeugung, bestimmte Erkenntnisse über sehr anspruchsvolle Themen seien grundsätzlich nicht zur schriftlichen Darstellung und Verbreitung geeignet, da ein Verständnis dieser Themen eine besondere Qualifikation des Lernenden voraussetze und nur in einer Gesprächssituation erlangt werden könne. Das ist aber nicht im Sinne einer Geheimhaltungsvorschrift oder eines Verbots schriftlicher Aufzeichnung zu verstehen; vielmehr fertigten Schüler in der Akademie Aufzeichnungen an, deren Existenz aus einer Reihe von Angaben antiker Quellen hervorgeht. Forschungsdiskussionen. Ein beträchtlicher Teil der heutigen Forschung ist der Auffassung, dass der Gehalt der Lehren, die mündlicher Mitteilung vorbehalten blieben, wesentlich über das in den Dialogen Dargelegte hinausging. Strittig ist, ob Platon den Anspruch erhoben hat, mit seiner ungeschriebenen Lehre im Besitz gesicherter Wahrheit zu sein, ob er also „Dogmatiker“ und erkenntnistheoretischer Optimist war oder nur seinen Schülern Hypothesen zur Diskussion stellte. Jedenfalls ist die ungeschriebene Lehre nicht als starres, doktrinär fixiertes und autoritär verkündetes System zu verstehen. Vielmehr stand sie einer kritischen Prüfung offen. Sehr unterschiedlicher Meinung sind die Philosophiehistoriker über die Frage, ob es sich überhaupt um ein ausgearbeitetes System oder nur um einen Denkansatz handelte. Kontrovers diskutiert wird auch, ob die ungeschriebene Lehre mit Platons sonstiger Philosophie vereinbar ist und ob sie mit ihr zu einem konsistenten Welterklärungsmodell zusammengefügt wurde. Eine andauernde lebhafte Debatte in der Forschung dreht sich um die Frage, ob bzw. inwieweit die ungeschriebene Lehre rekonstruierbar ist und den Kern der platonischen Philosophie bildet. Die Gelehrten der sogenannten „Tübinger Schule“, zu der Hans Joachim Krämer, Konrad Gaiser und Thomas A. Szlezák zählen, bejahen diese Annahmen mit großer Zuversicht, und auch andere Forscher wie Jens Halfwassen haben eingehend dargelegt, warum sie die ungeschriebene Lehre für den wichtigsten Bestandteil von Platons Unterricht halten und sein Gesamtwerk im Licht dieser Einschätzung deuten. Zu den zahlreichen Gelehrten, bei denen das Tübinger Platonbild Zustimmung gefunden hat – wenn auch teilweise mit Abstrichen und Vorbehalten –, zählen Michael Erler, Vittorio Hösle, Detlef Thiel, Rafael Ferber, Herwig Görgemanns, Karl Albert, Heinz Happ, Klaus Oehler, John Niemeyer Findlay, Willy Theiler, Hans-Georg Gadamer und Christina Schefer. Da sich auch der Mailänder Philosophiehistoriker Giovanni Reale nachdrücklich für diese Auffassung ausgesprochen hat und Forscher aus seinem Umfeld dem zustimmten, spricht man heute auch von einer „Tübinger und Mailänder Schule“. Die Gegenposition der Skeptiker, welche die Existenz oder zumindest die philosophische Relevanz und die Rekonstruierbarkeit einer ungeschriebenen Lehre Platons bezweifeln, hat besonders im englischsprachigen Raum Anhänger gefunden. In den USA haben sich Harold Cherniss und Gregory Vlastos als besonders entschiedene Vertreter dieser Richtung profiliert. In der deutschsprachigen Platon-Forschung lehnen u. a. Theodor Ebert, Dorothea Frede, Andreas Graeser, Ernst Heitsch, Franz von Kutschera, Günther Patzig und Wolfgang Wieland die Positionen der „Tübinger Schule“ ab. Die Urprinzipien. In der rekonstruierten ungeschriebenen Lehre geht es um die Rolle des höchsten Prinzips, des absolut transzendenten Einen, das mit der Idee des Guten gleichgesetzt wird, und um die Frage nach seiner Erkennbarkeit und Mitteilbarkeit. Durch die Identifikation des Einen mit dem Guten kommt es zu einer Verbindung von Ontologie und Ethik. Letztlich zielt das Konzept auf eine vereinheitlichte Theorie von allem. Das Eine gilt als die Ursache der gesamten Hierarchie des Seienden, der es selbst nicht angehört, der es vielmehr übergeordnet ist. Da das Eine als oberstes Prinzip von nichts anderem hergeleitet werden kann, ist sein Wesen nur negativ bestimmbar. So wie die Ideenlehre den Bereich des sinnlich Wahrnehmbaren auf die Ideenwelt zurückführt, führt die ungeschriebene Lehre die Vielfalt der Ideen auf zwei einfache Urprinzipien zurück, welche die Existenz der Ideen und damit auch diejenige der Sinnesobjekte erklären sollen. In diesem Modell beruht die ganze Mannigfaltigkeit der erkennbaren Phänomene auf dem Gegensatzverhältnis der beiden Urprinzipien. Daher wird die ungeschriebene Lehre auch Prinzipienlehre oder „Protologie“ (Lehre vom Ersten) genannt. Das erste Prinzip ist das Eine, die Grundvoraussetzung jeder Einheitlichkeit. Es hat seine Entsprechung ontologisch im Sein, formal-logisch in der Identität, Absolutheit und Unteilbarkeit, werthaft in der Tugend und Ordnung, kosmologisch in der Ruhe, Beständigkeit und Unvergänglichkeit, seelisch in der Hinwendung zu den Ideen. Das zweite Prinzip wird als unbestimmte Zweiheit bezeichnet. Es hat seine Entsprechung ontologisch im Nichtsein, formal-logisch in der Verschiedenheit, Relativität und Teilbarkeit, werthaft in der Schlechtigkeit und Unordnung, kosmologisch in der Bewegung, Veränderung und Vergänglichkeit, seelisch in den triebhaften, körpergebundenen Affekten. Das erste Prinzip ermöglicht Begrenzung und damit Bestimmtheit und Geformtheit, das zweite steht für grenzenlose Ausdehnung, Unbestimmtheit und Ungeformtheit. Das Zusammenwirken der beiden Prinzipien ermöglicht die Existenz aller seienden Dinge. Je niedriger etwas ontologisch steht, desto stärker tritt darin die Präsenz des zweiten Prinzips hervor. Wie man sich das Verhältnis der beiden Urprinzipien vorzustellen hat, geht aus den Quellen nicht klar hervor. Sicher ist immerhin, dass dem Einen ein höherer Rang zugewiesen wird als der unbestimmten Zweiheit. Wegen der einzigartigen Rolle des Einen, das als einziges Prinzip absolut transzendent ist, kann die Prinzipienlehre als letztlich monistisches Modell bezeichnet werden. Allerdings hat sie auch einen dualistischen Aspekt, denn auch die unbestimmte Zweiheit wird als unentbehrliches Urprinzip aufgefasst. Aus der fundamentalen Bedeutung beider Urprinzipien ergibt sich eine „bipolare Struktur des Wirklichen“, wobei aber stets zu beachten ist, dass die beiden Pole nicht gleichgewichtig sind. Der erkenntnistheoretische Aspekt. Ob Platon einen intuitiven, unmittelbaren Zugang zum höchsten Prinzip für möglich gehalten und für sich selbst in Anspruch genommen hat, ist umstritten, ebenso wie die Frage, ob er überhaupt eine gegenüber der dialektischen Kunst eigenständige Intuition angenommen hat und in welchem Verhältnis die intuitive Erkenntnis gegebenenfalls zum diskursiven Prozess steht. Gegen die Annahme intuitiver Erfassung der Idee des Guten plädieren Forscher wie Peter Stemmer, der eine Beschränkung auf die Dialektik als einzigen Erkenntnisweg annimmt und daher Platon eine tiefe Skepsis hinsichtlich der Möglichkeit, die Idee des Guten mit Wissen zu bestimmen, unterstellt. Ein konsequenter Vertreter der Gegenposition ist Jens Halfwassen. Er führt die neuplatonische Lehre von der intuitiven Betrachtung des Einen und Guten, die eine Selbstaufhebung des dialektischen Denkens voraussetzt, auf Platon selbst zurück und rehabilitiert damit das neuplatonische Platonverständnis. Noch weiter in diese Richtung geht Christina Schefer. Sie trägt Indizien für ihre Ansicht vor, wonach im Zentrum von Platons Denken weder die geschriebene Ideenlehre noch die ungeschriebene Lehre stand, sondern eine „unsagbare“ religiöse Erfahrung, die Theophanie des Gottes Apollon. In dieser Platon-Deutung erhält somit auch die ungeschriebene Lehre den Charakter von etwas Vorläufigem. Rezeption. Platon beeinflusste mit seinem vielseitigen Werk die gesamte Geschichte der Philosophie bis heute auf mannigfaltige Weise. Vor allem prägte er mit seiner Annahme einer eigenständig existierenden geistigen Wirklichkeit die Entwicklung der Disziplin, die später Metaphysik genannt wurde. Seine tiefe Wirkung auf die Nachwelt war und ist zu einem erheblichen Teil auch seinen stilistischen Fähigkeiten zu verdanken. Der „sokratische Dialog“ als literarische Form ist seine Schöpfung. Antike. In der Antike galt Platon als Meister des Dialogs. Seine Dialoge wurden mehr geschätzt als die Werke anderer Sokratiker und die für eine breitere Leserschaft bestimmten Schriften seines bekanntesten Schülers Aristoteles, die im Unterschied zu dessen fachwissenschaftlichen Lehrschriften nicht erhalten geblieben sind. Aristoteles. Aristoteles hielt auch nach seinem Ausscheiden aus Platons Schule an wesentlichen Teilen des platonischen Gedankenguts fest. Er verwarf aber einige Kernbestandteile des Platonismus, darunter die Annahme eigenständig existierender Ideen, welche zu einer unnötigen Verdopplung der Dinge führe, die Unsterblichkeit der individuellen Seele und den Grundsatz, dass der Mensch nur aus Unwissenheit gegen das Gute handelt (Problem der Akrasia). Nachdrücklich wandte er sich gegen Platons Staatslehre, besonders gegen die in der "Politeia" vorgetragene Forderung der Gütergemeinschaft. Seine eigene Philosophie entwickelte er in kritischer Auseinandersetzung mit dem Platonismus. Die zum Teil schroffe Kritik des Aristoteles an Auffassungen Platons, seine betonte Distanzierung von manchen Überzeugungen seines Lehrers akzentuiert die Unterschiede zwischen ihnen und lässt die ebenfalls vorhandenen gewichtigen Übereinstimmungen in den Hintergrund treten. Der Gegensatz zwischen Platonismus und Aristotelismus zieht sich durch die Philosophiegeschichte, wobei teils Vermittlungsversuche unternommen wurden, teils Platoniker und Aristoteliker auf klare, mitunter scharfe und polemische Abgrenzung ihrer Positionen Wert legten. Akademie. Der institutionelle Träger der Philosophie Platons war zunächst die Platonische Akademie, die mit ihren Nachfolgegründungen in Athen fast ein Jahrtausend lang bestand, allerdings mit langen Unterbrechungen. In der römischen Kaiserzeit waren Alexandria und Rom neben Athen die wichtigsten Zentren des Platonismus; die Schulen außerhalb Athens trugen aber nie die Bezeichnung „Akademie“. Ob die Ausarbeitung der Gedanken Platons zu einem abgeschlossenen System der philosophischen Welterklärung bereits von ihm selbst in der sogenannten ungeschriebenen Lehre vorangetrieben wurde oder erst nach seinem Tod einsetzte, wird kontrovers diskutiert. Die Tübinger Schule und die an sie anknüpfende Forschung geht davon aus, dass die Systembildung bereits von Platon selbst vorgegeben war. Die Gegenposition vertraten besonders Gregory Vlastos sowie im deutschsprachigen Raum Kurt von Fritz, Peter Stemmer und Jürgen Mittelstraß. Ihrer Ansicht zufolge entwickelten erst Platons Nachfolger in der „Alten Akademie“, die bis 268/264 v. Chr. bestand, eine systematische Lehre. In der anschließend von Arkesilaos von Pitane begründeten „Jüngeren Akademie“ (auch „Mittlere Akademie“ genannt) kam es zu einem Kurswechsel. Unter Berufung auf die Sokratische Aporetik folgte man einer skeptischen Grundrichtung in der Erkenntnistheorie und bestritt die Erreichbarkeit sicheren Wissens. Die Wirren des Ersten Mithridatischen Krieges, in dem die Römer 86 v. Chr. Athen eroberten, setzten dem Unterricht in der Akademie ein Ende. Mittelplatonismus. Antiochos von Askalon unternahm einen Neuanfang mit betonter Abkehr von der skeptischen Haltung, die er für unplatonisch hielt. Er gründete eine neue Schule, die er im Sinne einer Rückkehr zum ursprünglichen Konzept Platons „Alte Akademie“ nannte. Zu seinen Schülern gehörte Cicero, der sich 79 v. Chr. in Athen aufhielt. Damit begann die Zeit des Mittelplatonismus, dessen Vertreter sich insbesondere mit theologischen und kosmologischen Fragen auseinandersetzten. Die Mittelplatoniker griffen zum Teil stoische und aristotelische Ideen auf, die nach ihrer Ansicht mit der Lehre Platons übereinstimmten. Daneben gab es aber auch eine von Numenios vertretene Richtung, die zur ursprünglichen Lehre Platons zurückkehren und den Platonismus von stoischen und aristotelischen „Irrlehren“ reinigen wollte. Neuplatonismus. Um die Mitte des 3. Jahrhunderts entstand der Neuplatonismus. Dieser moderne, erst im 19. Jahrhundert geprägte Begriff bezeichnet eine Richtung, die besonders die metaphysischen und religiösen Aspekte der platonischen Tradition betonte und detaillierte Modelle einer hierarchisch gestuften Weltordnung entwarf. Diese Strömung spielte in der Philosophie der Spätantike eine dominierende Rolle. Als Begründer des Neuplatonismus gilt – zusammen mit seinem Lehrer Ammonios Sakkas – Plotin, der in Rom eine Schule gründete. Plotin betrachtete sich aber nicht als Neuerer, sondern wollte nur ein getreuer Ausleger der Lehre Platons sein. Sein prominentester Schüler war Porphyrios, der in einer Kampfschrift den religiösen Platonismus gegen das erstarkende Christentum verteidigte. Ein Schüler des Porphyrios, Iamblichos von Chalkis, verfeinerte das System, wobei er manche Ansichten Plotins und Porphyrios' verwarf. Er übte einen bestimmenden Einfluss auf die um 410 gegründete neuplatonische Schule von Athen aus, die nach langer Unterbrechung die dortige Tradition der Akademie erneuerte. Daneben war auch Alexandria, wo Plotin studiert hatte, ein bedeutendes Zentrum des spätantiken Neuplatonismus. Diese letzte Blüte des Neuplatonismus dauerte bis ins frühe 6. Jahrhundert. Unter den späten Neuplatonikern hatte Proklos die stärkste Nachwirkung; prominente Philosophen aus der Schule von Athen waren ferner Damaskios und Simplikios. Die Platoniker in den Philosophenschulen von Rom, Athen und Alexandria waren fast alle scharfe Gegner des Christentums, das sie für unvereinbar mit der Lehre Platons hielten. In der letzten Phase ihrer Existenz war die neuplatonische Schule von Athen der wichtigste Hort des geistigen Widerstands gegen das Christentum; daher ordnete Kaiser Justinian I. im Jahre 529 ihre Schließung an. Kirchenväter. Konzepte Platons und seiner Schule flossen in der Epoche der spätantiken Patristik über die Kirchenväter in die christliche Philosophie ein, meistens ohne Hinweis auf ihre Herkunft. Prominente griechischsprachige Kirchenschriftsteller wie Clemens von Alexandria, Origenes, Basilius der Große und Gregor von Nyssa griffen in ihren theologischen Werken auf die platonische Gedankenwelt und Terminologie zurück. Bei den lateinischsprachigen Kirchenvätern, die meist über keine unmittelbare Kenntnis der Dialoge verfügten, dominierte eine negative Grundhaltung, die von einer tiefen Verachtung aller nichtchristlichen Philosophie gespeist war. Im Osten wie im Westen des Reichs war die Meinung verbreitet, dass Platon zwar der beste unter den vorchristlichen Philosophen sei, aber alle heidnischen Bemühungen um Wissen und Weisheit irregeleitet und verderblich seien oder bestenfalls eine mangelhafte, überholte Vorstufe wahrer christlicher Erkenntnis darstellten. Eine Sonderstellung nahm allerdings Augustinus von Hippo, der langfristig einflussreichste Kirchenvater des Westens, hinsichtlich der Platon-Rezeption ein. Er setzte sich intensiv mit Platon und neuplatonischer Philosophie auseinander, erhielt dabei wesentliche Anregungen und drückte seine Wertschätzung für einzelne platonische Lehren aus. Eingehend beschrieb er aber auch die gewichtigen Unterschiede zwischen seiner christlichen Position und derjenigen Platons. Mittelalter. Im Frühmittelalter und bis um die Mitte des 12. Jahrhunderts war in der lateinischsprachigen Gelehrtenwelt West- und Mitteleuropas von den Werken Platons ausschließlich der "Timaios" in den unvollständigen lateinischen Übersetzungen von Calcidius und Cicero bekannt; er war nur in wenigen Handschriften verbreitet. Dennoch wirkten platonische Einflüsse auf indirektem Weg stark auf das Geistesleben ein, da neben Augustinus auch weitere damals populäre antike Schriftsteller wie Macrobius, Martianus Capella und vor allem Boethius platonisches Gedankengut vermittelten. Als angeblicher Schüler des Apostels Paulus stand Pseudo-Dionysius Areopagita, ein sehr stark neuplatonisch beeinflusster Kirchenschriftsteller des frühen 6. Jahrhunderts, in hohem Ansehen. Er trug maßgeblich zur platonischen Prägung der mittelalterlichen Theologie bei. Besonders tief von den Werken des Pseudo-Dionysios geprägt war die Philosophie des irischen Denkers Johannes Scottus Eriugena, der im 9. Jahrhundert lebte und einen so konsequenten Neuplatonismus vertrat, dass sein Werk deswegen kirchlich verurteilt wurde. Einen markanten Aufschwung erlebte der vom "Timaios" ausgehende mittelalterliche Platonismus im 12. Jahrhundert durch die „Schule von Chartres“. Dabei handelte es sich um einen Kreis von mehr oder weniger stark platonischem Denken verpflichteten Philosophen und Theologen in Chartres, den der dort lehrende berühmte Philosoph Bernhard von Chartres († nach 1124) ins Leben gerufen hatte. Bernhard galt als der bedeutendste Platoniker seiner Epoche. Zu seinen Schülern gehörten Wilhelm von Conches und Gilbert von Poitiers. Weitere prominente Vertreter dieser Richtung waren Thierry von Chartres und Bernardus Silvestris. Die Platoniker in Chartres setzten sich eingehend mit den Übereinstimmungen und Unterschieden zwischen der Kosmologie des "Timaios" und der christlichen Schöpfungslehre auseinander und bemühten sich um eine Harmonisierung. Ein anderes Schwerpunktthema war der platonische Schönheitsbegriff. Als mit der Übersetzungsbewegung des 12. und 13. Jahrhunderts die Werke des Aristoteles zunehmend in lateinischer Übersetzung Verbreitung fanden und zur Grundlage der scholastischen Wissenschaft wurden, führte dies zu einem Siegeszug des Aristotelismus und zur Zurückdrängung des Platonismus, der jedoch weiterhin – vor allem in neuplatonischer Gestalt – präsent blieb. Schon im Hochmittelalter und vor allem im Spätmittelalter lebte der antike Gegensatz zwischen Platonismus und Aristotelismus erneut auf. Er lag der Problemstellung des mittelalterlichen Universalienstreits zugrunde. Verwirrung schuf dabei der Umstand, dass die sehr einflussreiche neuplatonische Schrift "Liber de causis" („Buch der Ursachen“) irrtümlich als Werk des Aristoteles galt. Im späten 13. und im 14. Jahrhundert dominierte an den Universitäten weiterhin der Aristotelismus, doch traten außerhalb des Universitätsbetriebs unter den Ordensgelehrten auch neuplatonisch gesinnte Denker wie Dietrich von Freiberg, Meister Eckhart und Berthold von Moosburg hervor. Zu dieser neuplatonischen Strömung gehörte im 15. Jahrhundert auch Nikolaus von Kues. Im Byzantinischen Reich hielt der Gelehrte Stephanos von Alexandria im 7. Jahrhundert in Konstantinopel Vorlesungen über Themen der platonischen Philosophie; ansonsten fand aber zwischen der Schließung der Akademie im 6. Jahrhundert und der Mitte des 11. Jahrhunderts keine vertiefte Auseinandersetzung mit Platon statt. Allerdings machte sich neuplatonischer Einfluss über die Lehren des Pseudo-Dionysius Areopagita geltend, beispielsweise im Bilderstreit, in dem sich die letztlich siegreichen Anhänger der Bilderverehrung eine neuplatonische Argumentationsweise zunutze machten. Eine Wiederbelebung der Platonstudien verdankte Byzanz dem bedeutenden Gelehrten und Staatsmann Michael Psellos († nach 1077), der wegen seiner Vorliebe für den Platonismus sogar in den Verdacht mangelnder Rechtgläubigkeit geriet. Auch in der arabischsprachigen Welt des Mittelalters wurde Platon rezipiert. Im 9. Jahrhundert wurden in der Übersetzerschule des Nestorianers Hunayn ibn Ishaq in Bagdad mehrere Dialoge ins Arabische übersetzt ("Politeia", "Nomoi", "Timaios", "Sophistes"). Muslimische Philosophen wie al-Farabi im 10. Jahrhundert und Avicenna im 11. Jahrhundert setzten sich mit dem Neuplatonismus auseinander. Die Werke des Universalgelehrten Avicenna wirkten in lateinischer Übersetzung auf die abendländische Philosophie ein, die damit indirekt einem zusätzlichen platonischen Einfluss ausgesetzt war. Frühe Neuzeit. Die „Wiedergeburt“ der antiken Bildung und die „Rückkehr zu den Quellen“ im Renaissance-Humanismus wirkte sich auch auf die Platon-Rezeption aus. Im 15. Jahrhundert wurden die bisher größtenteils im Westen unbekannten Dialoge Platons und Werke von Neuplatonikern in griechischen Handschriften entdeckt, ins Lateinische übersetzt und kommentiert. Aus dem untergehenden Byzantinischen Reich gelangten zahlreiche kostbare Klassiker-Handschriften nach Italien. Die Kenntnis der Originalwerke Platons führte aber nicht zu einer Distanzierung vom Neuplatonismus, vielmehr orientierte sich die Platon-Interpretation der Humanisten an der immer noch lebendigen neuplatonischen christlichen Tradition, zumal deren Vertreter sich auf die Autorität der neuplatonisch geprägten Kirchenväter berufen konnten. Der Gegensatz zwischen Platon und Aristoteles bildete weiterhin ein Problem, das in der Streitfrage nach dem Vorrang des einen oder des anderen artikuliert wurde. Teils ergriffen die Humanisten für Platon oder für Aristoteles Partei, teils nahmen sie vermittelnde Positionen ein. Platons Werke waren weit besser als diejenigen des Aristoteles geeignet, den ausgeprägten Sinn der Humanisten für literarische Ästhetik anzusprechen; zudem war die von den Humanisten verachtete scholastische Wissenschaft aristotelisch. Der wohl konsequenteste Platoniker unter den Humanisten war der byzantinische Gelehrte Georgios Gemistos Plethon, der sich zeitweilig in Italien aufhielt und die dortigen Humanisten beeindruckte. Er folgte der platonischen Lehre so radikal, dass er sogar in religiöser Hinsicht die Konsequenz zog, sich vom Christentum loszusagen und zur Religion der antiken Platoniker zu bekennen. In der 1439 in Florenz verfassten Abhandlung "Über die Unterschiede zwischen Aristoteles und Platon", einer Kampfschrift, verteidigte er die Lehren Platons gegen die Kritik des Aristoteles. Der berühmte Florentiner Humanist und Platon-Übersetzer Marsilio Ficino bemühte sich um eine Erneuerung des Platonismus auf neuplatonischer Grundlage, wobei er besonders von Plotin ausging. Allerdings gab es, wie neuere Forschung gezeigt hat, in Florenz keine „Platonische Akademie“ als feste Einrichtung, sondern nur einen lockeren Kreis von mehr oder weniger platonisch gesinnten Humanisten ohne institutionellen Rahmen. Im 17. Jahrhundert bildete sich in Cambridge der Kreis der „Cambridger Platoniker“, zu dem Ralph Cudworth und Henry More gehörten. Diese Philosophen erstrebten eine Harmonisierung von Religion und Naturwissenschaft, wofür ihnen der Neuplatonismus eine geeignete Grundlage zu bieten schien. Im Zeitalter der Aufklärung dominierte die Auffassung, Platons Philosophie sei überholt, ein Irrweg und nur noch von historischem Interesse. Vor allem seiner Metaphysik wurde in weiten Kreisen ein Realitätsbezug abgesprochen. Besonders entschieden wandte sich Voltaire gegen die platonische Ontologie, gegen die Ideenlehre und gegen die im "Timaios" dargelegte kosmologische Denkweise. In der kurzen satirischen Erzählung "Songe de Platon" verspottete er Platons Vorstellung von der Weltschöpfung und charakterisierte ihn als Träumer. Anklang fanden im 18. Jahrhundert allerdings Platons Ästhetik und sein Liebesbegriff (beispielsweise bei Frans Hemsterhuis und Johann Joachim Winckelmann), was sich in einer Bevorzugung der einschlägigen Dialoge ("Symposion", "Phaidros") zeigte. Moderne. Die Aspekte, die in der Moderne in den Vordergrund traten, waren zum einen die Suche nach dem historischen Platon in der klassischen Altertumswissenschaft, zum anderen die Frage nach der Möglichkeit einer fortdauernden Aktualität seines Denkens unter den Bedingungen modernen Philosophierens. Altertumswissenschaftliche Forschung. Im englischen Sprachraum trug der einflussreiche Gelehrte Thomas Taylor (1758–1835) durch seine Platon-Übersetzungen, die lange nachwirkten, maßgeblich zur Verbreitung eines stark von der traditionellen neuplatonischen Perspektive geprägten Platon-Bildes bei. Er knüpfte auch persönlich an die religiösen Auffassungen der antiken Neuplatoniker an. Zur selben Zeit setzte in der deutschen Altertumsforschung eine entgegengesetzte Entwicklung ein; man bemühte sich um die Herausarbeitung der historischen Gestalt Platons und um eine genaue Abgrenzung seines authentischen Denkens von allen späteren Deutungen und Systematisierungsbestrebungen der Platonischen Akademie und der Neuplatoniker. Friedrich August Wolf (1759–1824) edierte einzelne Dialoge, sein Schüler Immanuel Bekker (1785–1871) veröffentlichte 1816–1823 eine kritische Gesamtausgabe der Werke – die erste seit 1602. Eine außerordentlich große und nachhaltige Wirkung erzielten die deutschen Übersetzungen der meisten Werke Platons, die der Theologe und Philosoph Friedrich Schleiermacher ab 1804 publizierte. Schleiermacher war der Überzeugung, Platon habe seine Schriften nach einem vorgefassten Plan in einer festgelegten Reihenfolge ausgearbeitet, jeder Dialog baue auf dem vorhergehenden auf und sie stellten ein zusammenhängendes Ganzes dar. Es gebe keine ungeschriebene Lehre, die über die schriftlich fixierte Philosophie Platons hinausreiche. Schleiermacher gehörte mit seinem Freund, dem Frühromantiker Friedrich Schlegel, zu den führenden Vertretern der damals starken Strömung, welche die Bestrebungen, ein hinter den Dialogen stehendes philosophisches System Platons zu erschließen, kritisierte und die Auslegung dem Leser überließ. Statt der Frage nach einem Lehrgebäude nachzugehen, betonte man den dialogischen Charakter des platonischen Philosophierens. Für Schleiermacher sind Dialogform und Inhalt unzertrennlich, die Form ergibt sich aus Platons Überzeugung, dass das Erfassen eines fremden Gedankens eine Eigenleistung der Seele sei; daher müsse man die Dialoge als dazu konzipiert verstehen, den Leser zu dieser Tätigkeit zu bewegen. In seiner Dialogtheorie ging Schleiermacher von einer didaktischen Absicht Platons aus, die der Anordnung des Dialogwerks zugrunde liege. Ihm ging es nicht um eine Spiegelung von Platons eigener Entwicklung in der chronologischen Aufeinanderfolge seiner Werke. Erst Karl Friedrich Hermann trug 1839 in Auseinandersetzung mit Schleiermacher den Entwicklungsgedanken vor. Er gliederte die philosophische Entwicklung Platons in Phasen, denen er die Dialoge zuordnete. 1919 veröffentlichte der klassische Philologe Ulrich von Wilamowitz-Moellendorff seine umfangreiche Platon-Biographie, in der er den Lebensgang herausarbeitete und die Werke aus philologischer Sicht würdigte. Dort befasste er sich auch mit der Frage nach der von manchen Gelehrten bezweifelten Echtheit eines Teils der Platon zugeschriebenen Schriften, die bereits im 19. Jahrhundert lebhaft diskutiert worden war. Im 20. Jahrhundert gelang es den Forschern, hinsichtlich der meisten Werke Konsens zu erzielen und die ausufernde Authentizitätsdebatte auf einige wenige Dialoge und Briefe zu begrenzen. In der zweiten Jahrhunderthälfte gewann die Beschäftigung mit der ungeschriebenen Prinzipienlehre, der man zuvor meist mit großer Skepsis begegnet war, stark an Bedeutung. Fragen nach ihrer Relevanz und Rekonstruierbarkeit gehörten zu den intensiv und kontrovers diskutierten Themen der Platonforschung, ein Konsens ist nicht erreicht worden. Rezeption Platons als Philosoph und Schriftsteller. Für Hegel standen die späten Dialoge ("Parmenides", "Sophistes", "Philebos") im Vordergrund. Sie interessierten ihn unter dem Gesichtspunkt der Dialektik, denn er betrachtete die Dialektik Platons als Vorläufer seines eigenen Systems. Stärker von Platon und vom Neuplatonismus beeinflusst war Schelling. Er griff auf Begriffe wie den der Weltseele zurück, wobei er deren Bedeutung abwandelte. Die im 19. und frühen 20. Jahrhundert weit verbreitete Verehrung Platons bezog sich auch auf seinen Stil. Man las die Dialoge als literarische Kunstwerke und pries die Übereinstimmung von literarischer Form und philosophischem Inhalt. Neben der Schönheits- fand die Liebesthematik, die schon in der Platon-Rezeption Hölderlins eine wichtige Rolle spielte, besondere Beachtung. Zu den Platonikern zählte auch der Dichter Percy Bysshe Shelley. Doch nicht nur Dichter und Romantiker, sondern auch Philologen begeisterten sich für den Schriftsteller Platon. So meinte Wilamowitz-Moellendorff, dass Platons gelungenste Dialoge „[…] an echtem Kunstwerte die vollkommenste Prosadichtung heute noch sind, also wohl bis zum jüngsten Tage bleiben werden. Ihr Stil war gewissermaßen gar kein Stil, denn er war immer wieder anders. Es ließ sich alles in ihm sagen, was ein Hirn denken und ein Herz fühlen kann, und es ließ sich in jeder Tonart sagen, tragisch und komisch, pathetisch und ironisch.“ „Plato wirft, wie mir scheint, alle Formen des Stils durcheinander, er ist damit ein erster décadent des Stils: er hat etwas Ähnliches auf dem Gewissen, wie die Cyniker, die die satura Menippea erfanden. Dass der Platonische Dialog, diese entsetzlich selbstgefällige und kindliche Art Dialektik, als Reiz wirken könne, dazu muss man nie gute Franzosen gelesen haben, – Fontenelle zum Beispiel. Plato ist langweilig. – Zuletzt geht mein Misstrauen bei Plato in die Tiefe: ich finde ihn so abgeirrt von allen Grundinstinkten der Hellenen, so vermoralisirt, so präexistent-christlich – er hat bereits den Begriff „gut“ als obersten Begriff –, dass ich von dem ganzen Phänomen Plato eher das harte Wort „höherer Schwindel“ oder, wenn man's lieber hört, Idealismus – als irgend ein andres gebrauchen möchte.“ Der platonische Sokrates ist für Nietzsche ein Vertreter der „Sklaven- und Herdenmoral“ und als solcher ein Verneiner des „Lebensprinzips“, der sich dem Willen zur Macht widersetzt. Während Platon das überlegene Individuum in den Dienst des Staates stellt, tritt Nietzsche für eine umgekehrte Rangordnung ein. Nietzsche verurteilt Platons Abwendung von der Welt der Sinne, die er als Flucht in das Reich der Ideen deutet. Aus seiner Sicht entspringen die Erkenntnisfähigkeiten des Menschen keiner höheren geistigen Sphäre, sondern sind lediglich Werkzeuge des blinden Willens, der sie verwendet, um sich die Welt anzueignen. Daher benutzt er Platons Terminologie ironisch, um die hierarchische Wertordnung des Platonismus umzukehren: „Meine Philosophie umgedrehter Platonismus: je weiter ab vom wahrhaft Seienden, um so reiner schöner besser ist es. Das Leben im Schein als Ziel.“ Während bei Platon die Philosophie über der Kunst steht, weil sie sich unmittelbar mit den Ideen beschäftige, steht für Nietzsche die Kunst über der Philosophie, weil sich nur im künstlerischen Zugang zur Welt der alles antreibende Wille erschließe. Nur im „künstlerischen Schein“ lasse sich der Wille einfangen. Wollte Nietzsche sich durch diese radikale Umwertung vom Platonismus befreien, so bleibt er für Martin Heidegger dennoch im Denkhorizont einer platonischen, die Welt in Sinnliches und Geistiges spaltenden Tradition, die zu überwinden sei. In Platons metaphysischer Annahme, dass Sinnliches und Geistiges getrennten Seinsbereichen angehören und zwischen ihnen eine hierarchische Ordnung besteht, sieht Heidegger den Anfang eines Verfallsprozesses der abendländischen Philosophiegeschichte, der mit Nietzsche einen letzten Höhepunkt erreicht habe. Wie Platon versuche auch Nietzsche alles Seiende auf ein einziges wahrhaft Seiendes zurückzuführen, nämlich den blinden Willen zur Macht. Heidegger resümiert: „[…] demzufolge bezeichnet Nietzsche seine eigene Philosophie als umgekehrten Platonismus. Weil Platonismus, ist auch Nietzsches Philosophie Metaphysik.“ In der „Marburger Schule“ des Neukantianismus wurde eine Neuinterpretation der Ideenlehre unternommen, deren Hauptvertreter Paul Natorp war. Natorp versuchte die platonische Philosophie mit der kantischen in Einklang zu bringen. Nach seiner Deutung sind die platonischen Ideen als Regeln, Gesetze, Hypothesen oder Methoden des Denkens zu verstehen. Eine radikale Gegenposition zur betonten Abwendung vieler moderner Denker vom Platonismus vertrat der russische Religionsphilosoph Wladimir Sergejewitsch Solowjow († 1900), der Platon studierte und ins Russische übersetzte. Er war stark von platonischer Metaphysik beeinflusst. Besonders beeindruckte ihn Platons Idee eines sich der Gottheit nähernden, vergöttlichten Menschen. Auch sonst fand Platons Gedankengut bei einzelnen osteuropäischen Philosophen Anklang. Zu ihnen gehörte vor allem Tomáš Garrigue Masaryk (1850–1937), der Gründer der Tschechoslowakei. Da praktisch alle Themen, die in der Philosophiegeschichte eine Rolle spielen, bereits bei Platon zu finden sind, bemerkte der britische Philosoph und Mathematiker Alfred North Whitehead 1929 pointiert, die europäische philosophische Tradition bestehe aus einer Reihe von Fußnoten zu Platon. Während des Zweiten Weltkriegs verfasste Karl Popper, der Begründer des Kritischen Rationalismus, unter dem Eindruck der damaligen politischen Verhältnisse eine fundamentale Kritik an Platons Staatstheorie. Er sah den platonischen Idealstaat als Gegenmodell zu einer demokratischen, offenen Gesellschaft, deren Vorkämpfer Perikles gewesen sei, und behauptete, Platon habe die Lehren des Sokrates pervertiert und ins Gegenteil verkehrt. Platon habe die Suche nach einer überlegenen Staatsordnung auf die Machtfrage reduziert, statt nach Institutionen zu fragen, die Herrschaft begrenzen und dem Machtmissbrauch vorbeugen können. Mit seinem Konzept eines kleinen, statischen, abgeschlossenen Ständestaats sei er ein Vorläufer des modernen Totalitarismus und Feind des Individualismus und der Humanität. Außerdem wandte sich Popper gegen den unwandelbaren Charakter der platonischen Idee des Guten. Seine Streitschrift löste eine lebhafte Debatte aus. In vielen modernen Kontexten wird der Begriff „Platonismus“ für einen wie auch immer gearteten metaphysischen Realismus von Begriffen bzw. Universalien verwendet, da diese „realistischen“ Positionen („Universalienrealismus“) eine mehr oder weniger entfernte Ähnlichkeit mit Platons Ideenlehre aufweisen, die als ein Hauptbestandteil seiner Philosophie bekannt ist. Gesamtausgaben und Übersetzungen. Die Werke Platons werden noch heute nach den Seiten- und Abschnittzahlen der Ausgabe von Henricus Stephanus (Genf 1578), der sogenannten Stephanus-Paginierung, zitiert. Friedrich Schleiermachers Übersetzung, die zwischen 1804 und 1828 (3. Auflage 1855) in Berlin erschien, ist auch heute noch im deutschsprachigen Raum verbreitet und wird – teilweise in etwas umgestalteter Form – nachgedruckt. Pulp Fiction. Pulp Fiction ist ein Film von und mit Quentin Tarantino aus dem Jahr 1994. Der Film wurde für sieben Oscars nominiert – darunter in der Kategorie Bester Film – und gewann in der Kategorie Bestes Originaldrehbuch. Auf dem Filmfestival in Cannes wurde er mit der Goldenen Palme ausgezeichnet. Daneben ist der Film unter anderem auf der "ALL-TIME 100 Movies"-Liste des amerikanischen TIME-Magazin gelistet. 2013 wurde "Pulp Fiction" in das National Film Registry aufgenommen. Der Titel ist der englischen Umgangssprache entnommen. Mit ihm wird „Trivial- oder Schundliteratur“ () bezeichnet, Nachfolger der Groschenromane, wobei in einem Heft meist mehrere Kurzgeschichten zusammengefasst sind. Handlung. Die Handlung besteht aus drei Episoden, die miteinander verwoben sind und in nicht-chronologischer Reihenfolge erzählt werden. Bis auf wenige Szenen, aus denen der Ort nicht näher hervorgeht, spielt sich das komplette Geschehen des Filmes im Großraum Los Angeles ab. Die Handlungsstränge werden durch einen "MacGuffin" verwoben, hier ein Koffer, dessen Inhalt dem Zuschauer nie gezeigt wird. Prolog und erste Hauptszene. In einem kurzen Prolog beschließt das Gangsterpärchen Pumpkin und Honey Bunny in einem Diner-Restaurant, dieses auszurauben. An diesen Strang knüpft später direkt die Schlussszene an. Nach dem Vorspann des Films erfolgt ein Sprung zu einer Szene, die zur später fortgesetzten Episode "The Bonnie Situation" gehört: Die beiden Auftragsmörder Jules Winnfield und Vincent Vega fahren in einem Auto. Vincent ist seit kurzem aus Europa zurückgekehrt. Sie führen den von Gangsterboss Marsellus Wallace erteilten Auftrag aus, sich an ehemaligen „Geschäftspartnern“ zu rächen und einen Koffer abzuholen, der Marsellus gehört. Sie betreten die Wohnung, in der sich nach Kenntnis von Jules und Vincent vier oder fünf dieser ehemaligen Geschäftspartner befinden, darunter auch ein Mann namens Brett. Um ihnen den Ernst der Lage zu demonstrieren, erschießt Jules schon nach einem kurzen Gespräch einen der Männer. Nachdem sie sich davon überzeugt haben, dass sie den gesuchten Koffer gefunden haben, erschießen sie Brett, nachdem Jules eine Stelle aus der Bibel zitiert, die sein soll. Vincent Vega und Marsellus Wallaces Frau. An einem Tisch in einer verrauchten Kneipe sitzt ein Mann mit kurzen Haaren, Butch Coolidge. Er ist Boxer und bekommt von Marsellus Wallace eine große Geldsumme, damit er in der fünften Runde seines nächsten Kampfes zu Boden geht. Vincent und Coolidge laufen sich in der Kneipe auch über den Weg, und schon jetzt steht fest, dass Vincent ihn nicht mag (und das beruht auf Gegenseitigkeit). Am nächsten Tag kauft Vincent bei seinem Dealer Lance Heroin, setzt sich einen Schuss und holt Mia Wallace, die Frau seines Chefs Marsellus, ab. Er soll ihr während Marsellus' Abwesenheit ein wenig die Zeit vertreiben. Die beiden gehen in das Lokal "Jack Rabbit Slim’s", das im Stil der 1950er Jahre eingerichtet ist und in dem Schauspieler-Doubles als Kellner arbeiten. Ihr Gespräch dreht sich um die Banalität, ob der Milkshake den Preis von 5 Dollar wert ist. Außerdem erzählt die Möchtegern-Schauspielerin Mia von ihren Erfahrungen, die sich auf einen Pilotfilm einer dann nicht verwirklichten Fernsehserie namens "Fox Force Five" beschränken. In der Toilette nimmt Mia Kokain zu sich und überredet anschließend Vincent, beim Twist-Wettbewerb mitzumachen, um den ausgelobten Preis zu gewinnen. Die anschließende Tanzszene zeigt beide mit Bewegungen, die ikonenhaft für den Film wurden, wie ein Handzug mit zwei gestreckten Fingern in Augenhöhe. In der englischen Fassung des Films folgt später eine beiläufige Radiomeldung, laut der im "Jack Rabbit Slim’s" die Siegerstatue des Wettbewerbs entwendet wurde. Als Vincent Mia (mit der Siegertrophäe in der Hand) zu Hause absetzt, schwört er sich auf der Toilette, dass nichts weiter passieren wird. Unterdessen findet Mia in Vincents Mantel das Heroin, hält es für Kokain, schnupft eine Überdosis und kollabiert. Als Vincent sieht, was passiert ist, bringt er Mia zu seinem Drogenhändler Lance, der für Notfälle eine Adrenalin-Spritze parat hat. Mittels einer Adrenalininjektion direkt ins Herz schaffen sie es, Mia wiederzubeleben. Vincent bringt Mia wieder nach Hause. Mia und Vincent sind sich einig, dass Marsellus nichts davon erfahren soll. Die goldene Uhr. Der Boxer Butch Coolidge erinnert sich kurz vor einem Kampf an einen Tag in seiner Kindheit, als ihm Captain Koons – ein Kriegskamerad seines im Vietnamkrieg gefallenen Vaters – dessen goldene Uhr überreichte. Laut Koons wurde diese Uhr seit dem Ersten Weltkrieg über mehrere Generationen der Familie Coolidge weitergereicht. Während der Kriegsgefangenschaft in Vietnam hatten Butchs Vater und – nach dessen Tod – Koons die Uhr mehrere Jahre lang „in ihren Ärschen“ vor den Vietcong versteckt. Coolidge soll nun absichtlich seinen Boxkampf verlieren, wofür er von Marsellus Wallace bezahlt wurde. Er hat jedoch eigene Pläne, nutzt die Situation aus und wettet auf sich selbst – er schlägt seinen Gegner nieder, welcher im Boxring stirbt. Eigentlich will er mit seiner Freundin Fabienne sogleich aus der Stadt fliehen, doch sie hat die Uhr seines Vaters in der gemeinsamen Wohnung vergessen. Da ihm die Uhr viel bedeutet, fährt Coolidge trotz des hohen Risikos zur Wohnung. Dort angekommen, nimmt er die Golduhr an sich, entdeckt dann zufällig in der vermeintlich verlassenen Wohnung die abgelegte Waffe des abwesenden Marsellus Wallace und überrascht Vincent, als dieser völlig sorglos die Toilette verlässt. Butch erschießt ihn mit dieser Waffe und macht sich auf die Rückfahrt zu Fabienne. An einer Ampel trifft er auf den die Straße überquerenden Marsellus Wallace, der Butch im Auto erkennt. Butch versucht, Marsellus zu überfahren, hat dann aber selbst einen Unfall. Beide überleben und bekämpfen sich erneut. Schließlich kommen sie in ein Pfandleihhaus. Butch will den am Boden liegenden Wallace umbringen, doch der Ladenbesitzer Maynard streckt ihn mit einem Gewehrkolben nieder und ruft telefonisch seinen Freund hinzu, den vermeintlichen Sicherheitsbeamten Zed. Als Butch und Wallace erwachen, finden sie sich gefesselt und geknebelt im Folterkeller des Hauses wieder. Es stellt sich heraus, dass Maynard und Zed sich dort einen Sex-Sklaven, „Hinkebein“ (engl.: „The Gimp“), halten. Zed befördert Marsellus Wallace ins Nebenzimmer, um ihn dort zu vergewaltigen. Währenddessen gelingt es Butch, sich zu befreien. Er will zunächst fliehen, macht dann aber an der Ladentür kehrt, wählt eine Waffe aus den Beständen des Geschäfts – erst einen Hammer, dann einen Baseballschläger, anschließend eine Motorsäge und letztendlich ein japanisches Schwert vom Typ eines Katana – und überwältigt damit die beiden Peiniger. Während Butch den Voyeur Maynard mit dem Samuraischwert niederstreckt und Zed in Schach hält, befreit sich Marsellus und schießt Zed in den Schritt, um sich zu rächen. Butch und Marsellus treffen eine Vereinbarung: Sie sind „quitt“. Butch muss aber die Stadt für immer verlassen und über die Vergewaltigung schweigen. Während Butch zu Fabienne gehen möchte, beschließt Marsellus Wallace, ein „paar eisenharte, durchgeknallte Crack-Nigger“ herzuschicken, die „Mister Der-bald-den-Rest-seines-kurzen-Scheißlebens-in-unerträglichen-Schmerzen-verbringen-wird-Vergewaltiger“ mit „einer Kneifzange und einem Lötkolben“ bearbeiten sollen. Butch fährt mit Zeds Chopper zu Fabienne und beide fahren in eine ungewisse Zukunft. Die Bonnie-Situation. Es erfolgt ein zeitlicher Rücksprung. Nachdem Jules und Vincent die beiden Ganoven Roger und Brett erschossen haben, stürmt ein Dritter aus der Badezimmertür mit vorgehaltenem Revolver in den Raum und verschießt die gesamte Munition auf die beiden; jedoch ohne sie zu treffen. Er wird kurzerhand erschossen. Jules glaubt an ein Wunder, eine göttliche Intervention, und beschließt daraufhin, seinen „Beruf“ aufzugeben. Jules und Vincent nehmen Marvin, den einzigen Überlebenden und Informanten (wo sich der Koffer befindet), in ihrem Auto mit. Während der Fahrt und einer Diskussion über die „göttliche Intervention“ schießt Vincent Marvin versehentlich in den Kopf. Um die blutigen Spuren des tödlichen Unfalls schnellstmöglich zu beseitigen, fährt Jules mit ihnen zu seinem Freund Jimmie. Dort können Jules und Vincent jedoch nicht bleiben, da Jimmies Frau Bonnie bald nach Hause kommen wird. Marsellus schickt deshalb Mr. Wolf, einen Cleaner und Organisationsgenie für problematische Situationen, um die Sache zu bereinigen. Mr. Wolf lässt Jules und Vincent das Innere des Wagens säubern und mit Decken auskleiden, bevor er die völlig blutverschmierten Auftragskiller im Garten mit dem Schlauch abspritzt und sie Kleidung von Jimmie anziehen lässt. Dann fahren alle drei zu Monster-Joes Abschleppdienst, auf dessen Schrottplatz das Problemauto mit der Leiche entsorgt wird. Jules und Vincent besuchen anschließend ein Restaurant, das, während Vincent auf der Toilette ist, von den beiden Ganoven Pumpkin und Honey Bunny überfallen wird – hier knüpft die Handlung direkt an den Prolog an. Pumpkin geht herum und raubt die Gäste aus. Bei Jules angekommen, fordert er den Koffer. Es gelingt Jules jedoch, die Oberhand zu gewinnen. Da er aber gerade eine „Entwicklung“ durchmacht, überlässt er Pumpkin all sein Geld (er kauft damit für $ 1500 Pumpkins Leben, damit er ihn nicht töten muss und den Koffer behalten kann) und lässt die beiden gehen. Jules und Vincent verlassen das Restaurant. "Chronologie". Die zeitliche Verknüpfung der einzelnen Stränge wird an einzelnen Motiven wie dem Koffer oder der Kleidung von Vincent und Jules erkennbar. Der Koffer wird in der ersten Hauptszene abgeholt, auf der Weiterfahrt geraten die Protagonisten in „Die Bonnie-Situation“, in der sie ihre Kleider wechseln müssen, mit dem anschließenden Frühstück im Restaurant (Prolog und Schlussszene). In dieser Behelfskleidung liefern sie zu Beginn der Episode „Vincent Vega und Marsellus Wallace’s Frau“ den Koffer bei Marsellus Wallace ab, nachdem der gerade mit Butch Coolidge die Schiebung beim Boxkampf ausgehandelt hat, die wiederum die Grundlage für die Episode „Die goldene Uhr“ bilden wird. Wie schon in der ersten Hauptszene erwähnt Vincent, dass er sich am nächsten Tag um Wallace’s Frau Mia kümmern soll; die Episode „Vincent Vega und Marsellus Wallace’s Frau“ findet also am Tag nach „Die Bonnie-Situation“ statt. Chronologisch am spätesten liegt die Episode „Die goldene Uhr“, bei der Vincent ums Leben kommt. Entstehung. 1986 arbeitete der erfolglose Schauspieler Quentin Tarantino in einer Videothek und schrieb Drehbücher, die er unaufgefordert an alle möglichen Filmstudios verschickte. Zusammen mit einem Kollegen, Roger Avary, entwarf er ein Drehbuch, das drei der ältesten Klischees miteinander verbinden sollte: „Solche, die man schon eine Zillion Male gesehen hat – den Boxer, der einen Kampf schmeißen soll, es aber nicht tut, den Mafioso, der die Frau seines Bosses einen Abend lang unterhalten soll, und die beiden Killer auf dem Weg zu einem Job.“ Die Elemente der Story sollten an klassische Unterhaltungskrimis der 1920er und 1930er Jahre, von Autoren wie Raymond Chandler und Dashiell Hammett erinnern, die in Groschenromanen auf billigem Papier (englisch "pulp") erschienen. Daher der Titel des Films. Titelseite des Drehbuchs, letzte Version vom Mai 1993 Das Drehbuch. Tarantino wollte nur den Handlungsstrang mit dem Mafioso und der Frau des Bosses schreiben, Avary sollte die Szenen um den Boxer verfassen und für die Story um die Killer suchten sie einen dritten Autor. Weil sie niemanden fanden, übernahm Tarantino auch diesen Teil. Als die Arbeit am "Script" nicht voranging, brach Tarantino ab und wandte sich einem anderen Stoff zu, daraus entstand "Reservoir Dogs". Der Film wurde ein großer Erfolg beim Sundance Festival 1992 und Tarantino wurde in Hollywood wahrgenommen. "Pulp Fiction" sollte sein nächstes Projekt werden, für das er alle anderen Angebote zurückwies. Danny DeVito stellte den Kontakt zu TriStar Pictures her, die 900.000 $ zusagten. Für drei Monate flog Tarantino mit mehreren Notizbüchern voll Entwürfen für "Pulp Fiction" nach Amsterdam. Nach den Internationalen Filmfestspielen von Cannes, wo "Reservoir Dogs" außerhalb des Wettbewerbs lief und einen Vertrag bei Miramax bekam, folgte ihm Avary und zusammen schrieben sie den ersten Akt. Über den Anteil Avarys am endgültigen Text gab es zwischen beiden Streitigkeiten. Tarantino wollte ihn auf einen Beitrag zur Vorlage reduzieren und ihm einen Festbetrag anbieten, am Ende einigten sie sich auf eine prozentuale Beteiligung und gemeinsame Nennung als Autoren. Tristar lehnte das Drehbuch anschließend ab, wie auch alle anderen großen Studios. Erst Harvey Weinstein griff für Miramax zu, die seit kurzem in der Disney Corp. aufgegangen waren. Für Weinstein war der Film ein Test, wie weitgehende Autonomie Disneys Jeffrey Katzenberg ihm gewähren würde, deshalb klärte er das Projekt mit ihm ab. Katzenberg riet zur Vorsicht bei den Drogenszenen, war aber vom Drehbuch begeistert und stimmte sofort zu. Besetzung und Dreharbeiten. Für die Rolle des Killers Vincent Vega hatte Tarantino eigentlich Michael Madsen vorgesehen, der in "Reservoir Dogs" den kriminellen Sadisten Victor Vega spielte. Aber weil dieser nicht verfügbar war, musste Tarantino sich nach einem anderen Schauspieler umsehen. Der künstlerisch am Ende seiner Laufbahn scheinende John Travolta war seine nächste Wahl. Weinstein widersprach, er wollte Daniel Day-Lewis, Sean Penn, William Hurt oder Bruce Willis für die Rolle. Tarantino setzte Weinstein unter Druck, weil inzwischen auch andere Studios auf den Stoff aufmerksam geworden waren, und drohte, sich von Miramax zu trennen, wenn Weinstein nicht innerhalb von 15 Sekunden in Travolta einwilligen würde. Bei 8 Sekunden stimmte Weinstein zu. Nach der Premiere stellte Weinstein die Besetzung der Rolle mit Travolta als seine Idee dar. Bruce Willis wollte unbedingt an dem Film mitwirken und nahm die Rolle des Boxers Butch an, nachdem der ursprünglich vorgesehene Matt Dillon keinen Enthusiasmus zeigte. Mit Willis, der dank Stirb Langsam als Kassenschlager galt, war der Erfolg des Films für die Produzenten berechenbar geworden. Für die weibliche Rolle der Mia Wallace wollte Tarantino Uma Thurman. Sie war unsicher, wegen des Drogenkonsums und der sexuellen Gewalt im Film, stimmte aber schließlich zu. Samuel L. Jackson setzte sich mit einer furiosen Drehbuchlesung gegen Paul Calderón durch. Die Dreharbeiten umfassten 51 Drehtage beginnend ab dem 20. September 1993 mit der Eröffnungsszene im Fastfood-Restaurant, gefolgt von der Schlussszene der Rahmenhandlung am selben Drehort. Um mit einem Budget von 8,5 Millionen Dollar auszukommen, aber einen glamourösen Effekt zu erzielen, drehte Tarantino auf Filmmaterial mit niedriger Empfindlichkeit. Als Team stellte er Filmleute ein, die nicht der Gewerkschaft angehörten und mit denen er zum Teil schon in "Reservoir Dogs" zusammengearbeitet hatte. Im November 1993 drehten sie die letzte Szene des Monologs von Hauptmann Koons an den jungen Butch, den späteren Boxer. Marketing und Festivals. Tarantino machte den Film vor dem offiziellen Start absichtlich rar. Auf den Filmfestspielen in Cannes 1994 zeigte er nur eine Pressevorstellung am frühen Morgen und eine offizielle Vorführung im Wettbewerb am selben Abend. Aber Weinstein sorgte dafür, dass eine enthusiastische Rezension durch die Kritikerin der New York Times schon vor der Vorführung für die Wettbewerbsjury und das Publikum allen Jury-Mitgliedern in ihren Hotelzimmern zugestellt wurde. Nach dem Sieg in Cannes wurde der Film erst im September wieder und nur einmal auf dem New York Film Festival gezeigt, nur einen Monat vor dem offiziellen Kinostart. Bei den Oscars 1995 konnte der Film nur den Preis für das beste Originaldrehbuch erringen, die anderen großen Kategorien gingen an Forrest Gump. Finanzen. Bei Produktionskosten von 8,5 Millionen Dollar verzichteten sowohl Bruce Willis als auch John Travolta auf einen großen Teil ihrer üblichen Gagen. Stattdessen zahlte Tarantinos Produzent Lawrence Bender allen Darstellern 20.000 Dollar pro Drehwoche. Travolta mietete sich während der für ihn sieben Wochen dauernden Arbeiten im Hotel Beverly Wilshire ein und erzählte, dass er damit sogar noch Geld draufzahlen würde, um am Film mitzuwirken. Alle Hauptdarsteller erhielten aber einen prozentualen Anteil am Erlös des Films. Miramax konnte die Produktionskosten bereits mit dem Verkauf der Auslandsrechte nach dem Festival in Cannes für 11 Millionen Dollar einspielen. Weltweit brachte "Pulp Fiction" 214 Millionen $ ein und war damit der erfolgreichste Independentfilm seiner Zeit. Musik und Soundtrack. Die Musikauswahl spielt bei Tarantinos Filmen stets eine wichtige Rolle. Die Mehrzahl der Lieder stammt aus den Jahren 1958 bis 1972 und ist im weiteren Sinne dem Surf Rock, der Country-Musik oder dem Soul zuzuordnen. Die 1994er Coverversion des Neil-Diamond-Hits von 1967 "Girl, You’ll Be a Woman Soon" ist, obwohl erst zum Zeitpunkt der Filmproduktion erschienen, ebenfalls im 60er-Jahre-Surf-Stil gehalten. Eine sehr funkige Nummer aus der Mitte der 70er Jahre ist "Jungle Boogie" von Kool & the Gang. Auch die Country-Soul-Ballade "If Love Is a Red Dress (Hang Me in Rags)" von Maria McKee aus dem Jahr 1993 fügt sich stilistisch in die 60er-Jahre-Retro-Musik ein. Auf der zum Film erhältlichen LP und CD befinden sich neben der Filmmusik auch einzelne Textausschnitte und Dialoge im englischen Originalton wie die bekannte Diskussion über die Hamburger-Kultur in Europa oder das vermeintliche Ezechiel-Zitat. Kritiken. „… Getäuscht: Pulp Fiction ist kein Meisterwerk, sondern ein brillianter cleverer Stunt, der längst erzählte Geschichten mit einem kleinen Trick trendmäßig konsumierbar macht, ihnen das Noir austreibt und auf der Grenze von schwarzem Humor und blutiger Gewaltparade pendelt, ohne eine Einheit herzustellen: Die Episoden bleiben disparat […] Das hat es in der Schwarzen Serie schon gegeben. Insofern nichts Neues, von multiperspektivischen und alternativepisodischen Filmen von Meistern wie Orson Welles oder Jean-Luc Godard mal ganz abgesehen …“ Der Film ist laut den Nutzern der Internet Movie Database der siebtbeste Film aller Zeiten (Stand: 26. August 2015). Poltergeist. a> Haushalt, Zeugin und Opfer ist das 14-jährige Dienstmädchen "Therese Selles". Als Poltergeist bezeichnet die Parawissenschaft ein weltweit verbreitetes Phänomen, mit dem sich auch die Parapsychologie, die Psychologie, die Psychiatrie und die Dämonologie befassen. Es soll eine bestimmte Form von Geistern und Dämonen sowie deren vorgebliches Wirken beschreiben. In der klassischen und modernen Definition ist hauptsächlich das angebliche Treiben von Poltergeistern gemeint. Poltergeistern wird nachgesagt, dass sie sich in Häusern und regelmäßig besuchten Gebäuden einnisten, sich dort durch übernatürliche Geschehnisse - wie zum Beispiel Klopfgeräusche und umherfliegende Möbel - bemerkbar machen und die dort ansässigen Bewohner oder Besucher gezielt schikanieren. Der Geist selbst ist nach Aussage Betroffener gestaltlos und manifestiert sich auch nicht. Poltergeistaktivitäten unterscheiden sich der Parawissenschaft zufolge von traditionellem Spuk durch ihre kurze Dauer und ihre vornehmlich physisch-akustisch wahrnehmbare Natur. Wissenschaftler, Psychologen und Kirche stehen der Erklärung des Phänomens als „übernatürliches“ Geschehen durch die Parapsychologie ablehnend gegenüber. Für die Existenz von Poltergeistern fehlt jeder wissenschaftliche und damit glaubwürdige Beweis, zumal auch viele der vorgeblichen Erscheinungen als Betrug entlarvt werden konnten. Beschreibung und Definition. Parawissenschaftler definieren das Phänomen „Poltergeist“ wie folgt: Die Geister selbst sollen für den Beobachter unsichtbar sein, sicht- und wahrnehmbar sind nur ihre Aktivitäten (sogenannte "Poltergeistaktivitäten"). Im Unterschied zu klassischen Spuk- und Geistererscheinungen nimmt der Poltergeist auch während seiner Tätigkeiten keinerlei Gestalt an und kann auch nicht gefilmt oder fotografiert werden. Seine Aktivitäten umfassen eine breite Vielfalt an akustischen, sensorischen wie optischen Erscheinungen. Diese sind in ihrer Dauer oft sehr begrenzt und sollen in den meisten Fällen mit der psychischen wie physischen Verfassung einzelner, selten mehrerer, am Ereignisort anwesender Personen im Zusammenhang stehen. Auch dies unterscheidet Poltergeister von klassischen Spukgeistern: Erstere sind personengebunden, können jederzeit und an jedem Ort auftreten und wechseln in ihrem Verhalten sprunghaft zwischen Aktivität und Inaktivität. Spukgeister sind ortsgebunden und von kontinuierlicher Dauer, meist über Jahrhunderte oder gar Jahrtausende hinweg. Zu guter Letzt sind Poltergeister unsichtbar, aber lärmig und Spukgespenster sichtbar, aber völlig lautlos. Zu den „typischen“ Poltergeistaktivitäten zählen der parawissenschaftlichen Definition zufolge Kratz-, Klopf- und Knallgeräusche, Kältestellen, Stimmenwahrnehmung sowie das An- und Ausgehen elektronischer Haushaltsgeräte wie zum Beispiel Fernseher, Radios, Glühbirnen und Computer ohne erkennbare Ursache oder sichtbares Zutun der/des Anwesenden. Zu den „höheren“ Poltergeistaktivitäten zählen Levitationen von Personen oder Gegenständen, das Verschwinden und Wieder-Auftauchen von Objekten sowie Lichterscheinungen wie z.B. Kugelblitze und Irrlichter (in Japan als "Hitodama" bekannt). Fast alle Poltergeistaktivitäten haben die Zerstörung von Haus- und Grundstückseinrichtungen, besonders Möbel, Geschirr und/oder Fensterscheiben zur Folge, allerdings wurden noch nie Menschen ernsthaft verletzt. Folklore. In der westlichen Folklore, besonders in den USA und in Europa, werden Poltergeister oft als die Seelen Verstorbener angesehen, die eines plötzlichen, meist gewaltsamen Todes starben bzw. getötet wurden, oder als das Werk von Elfen und Kobolden verstanden. In Japan und China werden Poltergeistaktivitäten bestimmten Dämonen wie den "Bakeneko, Nekomata" und "Rokurokubi" zugeschrieben. Aufgrund der Gewalt und Zerstörungswut, die mit Poltergeistaktivitäten einhergehen, werden Poltergeister stets als bösartig wahrgenommen und eingestuft. Poltergeister sind in einigen Regionen auch als „Neckgeist“ oder „Klopfgeist“ bekannt. Erforschung. Das Phänomen der Poltergeister wurde und wird von parawissenschaftlicher, psychologischer und kirchlicher Seite aus erforscht. Hintergrund sind bestimmte, wiederkehrende Muster und Abläufe innerhalb der Poltergeistaktivitäten sowie wiederholt beobachtete Zusammenhänge zwischen Vorkommnissen und Betroffenen. Parawissenschaftler und Psychologen wie z.B. Nandor Fodor und William G. Roll untersuchten hunderte von vorgeblichen Poltergeistaktivitäten und stellten die These auf, dass diese Vorfälle das Resultat unbewusst und impulsartig freigesetzter, psychischer Energie sein könnten. Hintergrund dieser Darlegung war die Beobachtung, dass viele der Poltergeistopfer anfällig für Epilepsie und ähnliche Krampfleiden waren oder gehäuft unter starkem psychischem Stress litten. Unterstützt wurde die These durch Arbeiten und Dissertationen von namhaften Neurologen und Psychologen wie Michael A. Persinger und Dean I. Radin, welche annahmen, dass das menschliche Gehirn in der Lage sein könnte, mittels neurologischer Impulse die Umgebung zu beeinflussen und so Poltergeisterscheinungen hervorrufen zu können. Dieses Phänomen wird als Psychokinese bezeichnet. Michael A. Persinger, W. G. Roll und andere Wissenschaftler vermuten des Weiteren, dass geomagnetische Impulse für elektrische Phänomene, wie das An- und Ausgehen von Haushaltsgeräten, das Auftreten von Lichterscheinungen und Störungen von Rundfunkübertragungen, verantwortlich sein könnten. Persinger fand heraus, dass viele Häuser und Orte mit angeblichen Poltergeistaktivitäten sich in geologischen Verwerfungszonen und in Zonen mit witterungsreichen Böden befinden. Persinger überlegte daraufhin, ob überstarke, geomagnetische Energieausbrüche für elektrische Poltergeistvorfälle verantwortlich sein könnten. Er fand außerdem zahlreiche Bauten vor, deren Fundamente sich nach starken Regenfällen und Frösten hoben und senkten, worauf innerhalb des Gebäudes Risse auftraten, Möbel sich vermeintlich von selbst neigten und unerwartete Geräusche wie Knirschen, Knallen und Ächzen, vernommen wurden. Als dritte Theorie zur Entstehung von vermeintlichen Poltergeistaktivitäten wird angeführt, dass es sich um simple Halluzinationen infolge psychischen Stresses oder um vorsätzlichen Betrug in Form von Kinderstreichen und Inszenierungen handelt. Ursache für Ersteres können emotionale Störungen wie Stress, Hysterie oder Frustration sein, Motivation für Letzteres mag der schlichte Wunsch nach Aufmerksamkeit sein. Persinger, Roll und Radin beobachteten, dass viele sogenannte Poltergeistopfer manisch-depressiv und/oder psychisch labil waren. Daher vermuten sie, dass Poltergeistaktivitäten unter Umständen einerseits den Wunsch nach Aufmerksamkeit und Mitgefühl ausdrücken und andererseits aus unterdrückten Gefühlen wie Zorn, Trauer und Verzweiflung resultieren. Die Betroffenen erfanden oder inszenierten Poltergeistaktivitäten, um in den Mittelpunkt ihnen gewidmeter Empathie zu gelangen. Betrugsfälle und Inszenierungen werden oft insbesondere Kindern und Jugendlichen nachgesagt, meist wird geargwöhnt, dass die Pubertät eine große Rolle spielt, da Menschen während dieser Entwicklungsphase gehäuft emotionalen Schwankungen ausgesetzt sind. Diese Ansicht ist gemäß Persinger, Roll und einigen anderen Forschern jedoch eher ein Klischee, Fallstudien zeigten zwar, dass Kinder ungewöhnliche Vorkommnisse eher bemerkten als Erwachsene und zudem offenherziger reagierten. Erwachsene aber würden viel stärker unter (vermeintlichen) Poltergeistaktivitäten leiden, emotionaler damit umgehen und eher versuchen, das Erlebte schnellstmöglich zu verdrängen und zu vergessen. Außerdem neigten Kinder eher dazu, sich mit ungewöhnlichen Erlebnissen längerfristig auseinanderzusetzen und diese später auch in Form von Streichen nachzustellen. Insgesamt scheint es nach Ansicht von Persinger und Roll keinerlei Altersgrenzen unter Poltergeistopfern zu geben. Historisches. Berichte über Poltergeister und deren Wirken finden sich in allen bekannten Kulturkreisen und Epochen wieder. So berichtete schon der römische Konsul Plinius der Jüngere (um 100 n.Chr.) von einem Geisterhaus in Griechenland, das seine Aufmerksamkeit erregte. Mit dem Reformationsabschluss innerhalb der Kirche im frühen 17. Jahrhundert und der Spaltung in Katholische und Evangelische Kirche begann ein heftiger Glaubenskampf um verschiedene theologische Ansichten und Doktrinen, darunter solche, die sich mit dem Leben nach dem Tode befassten. Besonders die Katholische Kirche lehnte die Existenz von Geistern und Dämonen rigoros ab. Infolgedessen begannen Anglikaner, Protestanten und auch Konfessionslose, alles zu sammeln, was die Existenz von Gespenstern, Poltergeistern und Dämonen beweisen könnte. Im Zuge dieser Theologiewirren kam es zu regelrechten „Poltergeistschwemmen“. Im Zuge der Spiritismus-Bewegung ab 1848 kam es ebenfalls zu „Poltergeistschwemmen“. Da allerdings mehr und mehr Skeptiker, Wissenschaftler und Psychologen derlei Vorkommnisse untersuchten und hinterfragten, wurden auch immer mehr Betrugsfälle bekannt. Im Nachfolgenden sollen die drei bekanntesten Poltergeistfälle vorgestellt werden. Der Trommler von Tidworth. Eine sehr bekannte, historische Poltergeistgeschichte ist jene des sogenannten "Trommlers von Tidworth" (Tidworth) (ehemals "Tedworth")“ in der britischen Grafschaft Wiltshire aus dem Jahr 1661. Ein Landstreicher namens "William Drury" wurde der Überlieferung zufolge Mitte des Jahres aufgrund eines Haftbefehls des hohen Richters "John Mompesson" wegen „Erschleichung von Geldern durch Vorspiegelung falscher Tatsachen“ festgenommen. Eine Trommel, die Drury stets mit sich führte, wurde von Mompesson konfisziert, dafür sollte Drury vorerst freikommen, bis die richterlichen Untersuchungen beendet seien. Darüber war Drury den Überlieferungen zufolge sehr erbost. Als Mompesson von einer Dienstreise aus London zurückkehrte, fand er seine Frau und die Kinder völlig aufgelöst vor. Diese berichteten, dass sie in fast jeder Nacht von lauten Trommelgeräuschen aufgeschreckt worden seien. Bald darauf ertönte das Trommeln sogar über dem Dach des Hauses und war so auch für Vorbeigehende zu vernehmen. Des Weiteren begannen Möbel umherzufliegen und Personen zu levitieren, selbst Hausangestellte waren nicht mehr sicher. Die Poltergeistaktivitäten endeten angeblich im Jahre 1662, als Drury wegen Hexerei vor Gericht gebracht und ins Exil geschickt wurde. Die Trommel hatte Mompesson unterdessen aus Verzweiflung zerstört. König Karl II. erfuhr zwischenzeitlich von den Vorfällen und entsandte den königlichen Architekten Christopher Wren und den Hofkaplan Joseph Glanvill nach Tidworth. Während Wren skeptisch blieb, soll Glanvill selbst Zeuge von Poltergeisterscheinungen gewesen sein. Die Fox-Schwestern von Hydesville. Die Fox-Schwestern, Lithografie um 1852 Ein weiterer berühmter, historischer Fall angeblicher Poltergeistaktivitäten ist jener der Schwestern Margaret und Kate Fox, die um 1848 behaupteten, in einem Haus in Hydesville im US-Staat New York, das sie unlängst neu bezogen hatten, seltsame Klopfgeräusche gehört zu haben, welche sie dem Geist eines ermordeten und im Keller begrabenen Hausierers zuschrieben. Die Familie übernahm die schon lange etablierte Technik der „Kommunikation“ mit derartigen „Klopfgeistern“, bei der jedem Buchstaben im Alphabet eine bestimmte Anzahl von Klopfzeichen zugeordnet wird, und suchte mit großem Erfolg die Öffentlichkeit. Seancen und Poltergeister gehörten fortan zum regelrechten Tagesprogramm der Familie Fox. Bei der ersten öffentlichen Demonstration der „Fähigkeiten“ der Mädchen im November 1848 in Rochester waren 400 zahlende Gäste zugegen. Im Jahr 1888 gaben die Fox-Schwestern zu, all ihre „Poltergeistaktivitäten“ und „Geisterbeschwörungen“ nur vorgetäuscht zu haben. Der Fall der Fox-Schwestern ist daher auch einer der bekanntesten Betrugsfälle der Poltergeistforschung. Poltergeist von Enfield. Zu den bekanntesten moderneren Fällen vorgeblicher Poltergeistaktivitäten gehört der sogenannte "Poltergeist von Enfield" (auch als "Enfield-Poltergeist" und "Spuk von Enfield" bekannt). Ort der Geschehnisse war Haus 284 in der "Green Street" in Enfield, einem Stadtbezirk von London, Opfer der Ereignisse war die Familie Hodgsen. Die Poltergeistaktivitäten traten im Zeitraum von August 1977 bis September 1978 auf und umfassten das klassische Repertoire „typischer Poltergeisterscheinungen“ (Klopfgeräusche, umherfliegende Möbel und Levitation). Sie wurden audiotechnisch wie fotografisch dokumentiert. Untersucht wurde das Phänomen von zwei renommierten Mitgliedern der Society for Psychical Research, Maurice Grosse und Guy Lyon Playfair. Bildtechnisch festgehalten wurden die Ereignisse von George Fallows, dem Fotografen des Daily Mirror. Die Ergebnisse der Untersuchungen, welche von der Presse weltweit aufmerksam verfolgt wurden, werden bis heute kontrovers diskutiert. Die Mehrheit der Forschung bewertet den „Poltergeist von Enfield“ als Betrugsfall, da Familienmitglieder im Nachhinein einräumten, mehrere Vorkommnisse inszeniert zu haben. Moderne. In Ländern wie den USA und Japan wird das Phänomen der Poltergeister teilweise ernst genommen, teilweise verspottet, was sich unter Anderem in zahllosen Videofakes in diversen Videowebsites und in Scherznachrichten und Zeitungsenten niederschlägt. In modernen Film- und Literaturwerken, welche Poltergeistaktivitäten zum Thema haben, wird vorrangig mit der Angst des Menschen gespielt, einem Ereignis gegenüberzustehen, das sich bisherigen rationalen Erklärungen und Kenntnissen entzieht und kaum kontrolliert werden kann. Pyrenäen. Die Pyrenäen (,, und) sind eine rund 430 km lange Gebirgskette. Sie trennen die Iberische Halbinsel im Süden vom übrigen Europa im Norden und liegen zwischen dem Atlantischen Ozean im Westen (Golf von Biscaya) und dem Mittelmeer im Osten (Golf de Roses). Die Staatsgrenze zwischen Frankreich und Spanien folgt im Wesentlichen dem Gebirgskamm. Mitten in den Pyrenäen liegt auch der Kleinstaat Andorra. Die Herkunft der Bezeichnung "Pyrenäen" ist unbekannt. Nach griechischer und römischer Literatur, u. a. nach Silius Italicus, sollen sie nach Pyrene, einer Figur aus der griechischen Mythologie, benannt worden sein. Geographie. Die Pyrenäen werden unterteilt in die westlichen oder atlantischen Pyrenäen, die Hoch- oder Zentralpyrenäen und die östlichen Pyrenäen, zu denen der Pic du Canigou gehört. Der Bereich der Hochpyrenäen erstreckt sich vom Port de Canfranc im Westen bis zum Val d’Aran im Osten. Höchster Berg ist der Pico de Aneto im Maladeta-Massiv mit über 3.400 m. Es gibt rund zweihundert Gipfel über 3.000 m in den Pyrenäen. Die höchsten Berge sind vergletschert. Seit etwa Mitte des 19. Jahrhunderts ist ein starker Rückgang der Gletscher zu beobachten. Der ehemals sehr beeindruckende Ossoue-Gletscher am Vignemale hat viel von seiner einstigen Größe verloren. Politik, Geschichte und Wirtschaft. Vor der Besiedelung durch Cro-Magnon-Menschen ("Homo sapiens") war das spanische Vorland der Pyrenäen bereits von Neandertalern bewohnt, wie Funde in der Höhle Cova Gran de Santa Linya belegen. Durch die Pyrenäen verläuft die politische Grenze zwischen Frankreich und Spanien. Das kleine Fürstentum Andorra liegt in den östlichen Pyrenäen. Wie dem Alpenraum kommt auch den Pyrenäen eine kulturell verbindende Funktion zwischen den drei Anrainerstaaten zu, was sich beispielsweise durch die Verwendung derselben Sprachen (Katalanisch, Gaskognisch, Baskisch) zeigt. Es wird extensive Weidewirtschaft mit Schafen, Rindern und Ziegen betrieben, in den Sommermonaten auch als Almwirtschaft. Früher häufig, heute nahezu verschwunden ist die klassische Wanderweidewirtschaft (Transhumanz). Vor allem in den westlichen Pyrenäen werden verschiedene Käsesorten hergestellt. In dem dort überwiegenden Kalkgestein sind vielfach Höhlen vorhanden, in denen der Käse auf den Almen reifen kann. Produziert werden Käse aus Kuh- und Schafmilch, häufig auch gemischt. Bekannte Sorten sind der Ossau-Iraty Brebis-Pyrénées aus dem Vallée d’Aspe, dem Vallée d’Ossau und den angrenzenden spanischen Pyrenäen und der im Baskenland aus Kuhmilch hergestellte Pyrenäenkäse mit seiner schwarzen Wachsschicht. Auch aus Ziegenmilch wird frischer und gelagerter Ziegenkäse hergestellt. Spiegelungen in einem See in den Pyrenäen In den Vorgebirgen wird sowohl auf der französischen (Irouléguy, Jurançon, Corbières) als auch auf der spanischen Seite Weinbau betrieben. Bis Mitte des 20. Jahrhunderts spielte Schmuggel eine wichtige Rolle. Als Tragtiere dienten in den westlichen Pyrenäen die Pottok-Ponys, während sich im Osten die Mérens als Schmugglerponys bewährten. Geologie. Die Pyrenäen entstanden wie die Alpen vor rund 50 bis 100 Millionen Jahren im Tertiär. Die westlichen Pyrenäen bestehen überwiegend aus Kalkstein, wogegen in den Zentralpyrenäen verschiedene Granite dominieren. Das Faltengebirge wurde vor allem während der Würmeiszeit mit einer geschlossenen Eisdecke überzogen. Durch die Eiszeit haben sich etliche Hängetäler und viele tausend Gletscherseen gebildet. Durch diese Randbedingungen kann es bei gleichzeitiger Schneeschmelze und starken Regenfällen zu großflächigen Verheerungen kommen, wie zum Beispiel bei den Überschwemmungen in den Pyrenäen 2013. Fauna. Auf der französischen Seite leben in den großen Mischwäldern bis in etwa 1.800 m Höhe auch noch einige Braunbären. In den hochalpinen Bereichen ist die Pyrenäengämse (französisch "isard", spanisch "sarrio" oder "rebeco") anzutreffen, sie kommt aber auch im Kantabrischen Gebirge und den Abruzzen vor. Trotz Schutzmaßnahmen ist die örtliche Unterart "pyrenaica" des Iberiensteinbocks im Jahr 2000 aus unbekannten Gründen endgültig ausgestorben. Am westlichen Ende der Gebirgskette hat der weltweit stark bedrohte Europäische Nerz sein letztes natürliches Vorkommen in Westeuropa. Obwohl ursprünglich nicht heimisch, haben sich die aus den Alpen eingebürgerten Murmeltiere sehr verbreitet. Selten und in seinem Bestand bedroht ist der Pyrenäen-Desman, eine Art aus der Familie der Maulwürfe. An Vögeln sind etwa der Stein-, Zwerg-, und Habichtsadler sowie Gänse-, Schmutz- und Bartgeier zu nennen. Weitere besonders bemerkenswerte, weil zumeist weiträumig isolierte Brutvogelarten sind Alpenschneehuhn, Auerhuhn, Weißrückenspecht, Mornellregenpfeifer, Mauerläufer, Alpendohle, Erlenzeisig, Zitronenzeisig, Ringdrossel und Bergpieper. Es gibt eine große Anzahl von Insekten, hier fallen vor allem die rund 300 Schmetterlingsarten sowie Heuschrecken und Käfer auf. Zu den endemischen Arten dieses Gebirges gehören der Pyrenäen-Gebirgsmolch und die Mohrenfalterart Erebia gorgone. Flora. Die Flora enthält etwa 4500 Pflanzenarten, von denen 150 endemisch sind. Sie sind Rudimente der letzten großen Eiszeiten: während des Pleistozäns reichten viele Pflanzenarten vom kalten Norden bis in den wärmeren Süden, aber sie konnten die Pyrenäen nicht überqueren. Allerdings flüchteten einige von ihnen in Täler und sind in diesem Gebiet endemisch geworden. Beispiele sind die Pyrenäen-Lilie und der Pyrenäen-Felsenteller. Nationalparks. Es gibt in den Pyrenäen drei Nationalparks. Der älteste ist der 1917 auf der spanischen Seite geschaffene Nationalpark Ordesa y Monte Perdido, südlich vom Cirque de Gavarnie gelegen. Dieser umfasst eine Fläche von etwa 156 km². Gleichfalls in Spanien liegt der Nationalpark Aigüestortes i Estany de Sant Maurici mit einer Ausdehnung von rund 141 km² und ist damit der kleinste der drei Nationalparks. Auf der französischen Seite wurde 1967 der Bereich von den Bergen südlich von Lescun im Vallée d’Aspe im Westen bis einschließlich zum Néouvielle-Massiv im Osten zum Nationalpark (Parc National des Pyrénées) erklärt. Dieser hat eine Fläche von 457 km². Erforschung der Pyrenäen. Einer der bedeutendsten Pyrenäenforscher war der französische Geograph und Alpinist Franz Schrader (1844–1924), dessen Vater zu Beginn des 19. Jahrhunderts aus Magdeburg nach Frankreich übergesiedelt war. Er hat verschiedene bedeutende Massive der Pyrenäen kartiert, besonders bekannt wurde er für die Erforschung der Cirque de Gavarnie, zu deren Füßen im kleinen Ort Gavarnie er auch begraben liegt, neben einem anderen bekannten Pyrenäenforscher, Henry Russell. Schrader war der Erstbesteiger der Grand Bachimale (3144 m), der Dreitausender wurde ihm zu Ehren Pic Schrader benannt. Schrader war Präsident des Club Alpin Français und Ritter der Ehrenlegion. Polen. Polen (, amtlich "Rzeczpospolita Polska",) ist eine parlamentarische Republik in Mitteleuropa. Hauptstadt und zugleich größte Stadt des Landes ist Warschau. Polen ist ein Einheitsstaat, der aus 16 Woiwodschaften besteht. Mit einer Größe von 312.679 Quadratkilometern ist Polen das sechstgrößte Land der Europäischen Union und mit 38,5 Millionen Einwohnern das sechstbevölkerungsreichste. Es herrscht vorwiegend ozeanisches Klima im Norden und Westen sowie kontinentales Klima im Süden und Osten des Landes. Im frühen Mittelalter siedelten sich im Zuge der Völkerwanderung Stämme der westlichen Polanen auf dem Gebiet des heutigen Staatsgebietes an. Eine erste urkundliche Erwähnung fand im Jahr 966 unter dem ersten historisch bezeugten polnischen Herzog Mieszko I. statt, welcher das Land dem Christentum öffnete. 1025 wurde das Königreich Polen gegründet, bis es sich 1569 durch die Union von Lublin mit dem Großherzogtum Litauen zur Königlichen Republik Polen-Litauen vereinigte und zu einem der größten und einflussreichsten Staaten in Europa wurde. In dieser Zeit entstand 1791 die erste moderne Verfassung Europas. Durch die drei Teilungen Polens Ende des 18. Jahrhunderts seiner Souveränität beraubt, erlangte Polen mit dem Vertrag von Versailles seine Unabhängigkeit 1918 zurück. Der Einmarsch des Deutschen Reichs und der Sowjetunion während des Zweiten Weltkrieges kostete Millionen Polen, insbesondere polnischen Juden, das Leben. Seit 1952 als Volksrepublik Polen unter sowjetischem Einfluss stehend, kam es 1989 zur politischen Wende, insbesondere durch die Solidarność-Bewegung. Seit 2004 ist Polen Mitglied der Europäischen Union und eine treibende Wirtschaftskraft in Mitteleuropa. Gemessen am Bruttoinlandsprodukt ist Polen das zweiundzwanzigstreichste Land der Erde mit der einundzwanzigsthöchsten Kaufkraftparität. Im Index für menschliche Entwicklung erreicht Polen die Höchstwertung ("very high"). Zwischen west- und osteuropäischen Kulturräumen gelegen und durch eine wechselhafte Geschichte geprägt, entwickelte das Land ein reiches kulturelles Erbe und lieferte wichtige Beiträge in den Naturwissenschaften, der Mathematik, der Literatur, dem Film und der Musik. Polen ist unter anderem Mitglied der Vereinten Nationen, der OSZE, der NATO, des Europarates und der Europäischen Union. Landesname. Der vollständige Name Polens lautet "Rzeczpospolita Polska", auf Deutsch "Republik Polen". Der Begriff "Rzeczpospolita" nimmt dabei explizit Bezug auf die bis 1795 existierende Adelsrepublik und ist keine bloße Übersetzung des Begriffes "Republik", auf Polnisch "Republika". Im Gegensatz zu dessen lateinischer Bedeutung, "Sache des Volkes" oder "öffentliche Sache", bedeutet der Begriff "Rzeczpospolita" wortwörtlich "gemeinsame Sache". Der Name "Polen" leitet sich wiederum vom westslawischen Stamm der Polanen ("Polanie") ab, die sich im 5. Jahrhundert im Gebiet der heutigen Woiwodschaft Großpolen um Posen ("Poznań") und Gnesen ("Gniezno"), zwischen den Flüssen Oder ("Odra") und Weichsel ("Wisła"), niederließen. Die Polanen, deren Bezeichnung erst um das Jahr 1000 auftrat, waren größtenteils Ackerbauern, ihr Name entwickelte sich demnach aus dem Wort "pole", auf Deutsch "Feld". Geographie. Polens Staatsgebiet bedeckt eine Fläche von 312.679 km². Im Norden grenzt es an die Ostsee und die russische Oblast Kaliningrad, im Osten an Litauen, Weißrussland und die Ukraine, im Süden an die Slowakei und Tschechien und im Westen an Deutschland. Insgesamt hat Polen 3.583 Kilometer Staatsgrenze, 524 Kilometer davon in der Ostsee und auf 1.221 Kilometer verläuft die Grenze an Flüssen. Nördlichster Punkt Polens ist das Kap Rozewie, südlichster der Gipfel des Opołonek in den Bieszczady. Die Entfernung zwischen den beiden Punkten beträgt 649 Kilometer. Der westlichste Punkt ist die Stadt Cedynia, das östliche Pendant ist das Knie des Bug in der Gemeinde Horodło, 689 Kilometer entfernt. Der Gradnetzmittelpunkt liegt bei Ozorków, der Schwerpunkt weicht geringfügig davon ab. Das Gebiet Polens kann in sechs geographische Räume eingeteilt werden. Von Nord nach Süd sind dies: die Küstengebiete, die Rückenlandschaften, das Tiefland, die Hochländer, die Vorgebirge und die Gebirge. Die Übergänge zwischen den einzelnen Gebieten sind dabei fließend und werden in der Literatur leicht abweichend abgegrenzt. Die Küste verläuft im Norden Polens an der Ostsee. Die Küstenniederungen sind schmal und um das Stettiner und das Frische Haff zungenförmig ausgeweitet. Die Landschaften bestehen aus flachen, breiten Tälern und ausgedehnten Grundmoränenplatten. Vor allem sandige, lehmhaltige und Moorböden dominieren die Bodenarten. Die Rückenlandschaft ist während der Eiszeiten entstanden, was sich durch die Gestaltung durch End- und Grundmoränen zeigt. Davon setzt sich deutlich die Sanderfläche im südöstlichen Teil ab. Zu den zusammenhängenden Tieflandgebieten zählen das Warschauer Becken und das Tiefland Podlachiens. Die polnischen Hochländer können in zwei Hauptteile unterschieden werden, das Kleinpolnische ("Wyżyna Małopolska") und das Lubliner Hochland ("Wyżyna Lubelska"). Zu den Vorgebirgslandschaften zählen das Schlesische Tiefland und die Beckenlandschaft der Vorkarpaten. Im Süden Polens befinden sich die polnischen Mittelgebirge, des Krakau-Tschenstochauer Jura, das Heiligkreuzgebirge, die Beskiden, die Waldkarpaten und die Sudeten. Die höchste Erhebung, die Hohe Tatra, ist ein geologisch sehr vielseitiges Hochgebirge. Geologie. Granitfelsen in der Hohen Tatra Geologische Baueinheiten des tieferen Untergrundes. Das Deckgebirge ist als vertikale Schraffur dargestellt. Der tiefere Untergrund Polens wird von einem Mosaik verschiedener Krustensegmente unterschiedlicher Herkunft und Zusammensetzung aufgebaut. Zwar treten die älteren Bestandteile nur in den südlichen Randbereichen des Landes auf, weil große Flächen in Nord- und Zentralpolen von jungen Sedimenten bedeckt sind, durch Tiefbohrungen ist aber auch in diesen Bereichen der Aufbau des Untergrundes bekannt. Grundgebirge. Nordöstlich einer Linie, die durch die Orte Ustka an der Ostsee und Lublin markiert wird, stehen im Untergrund Gesteine an, welche die südwestliche Fortsetzung des Kontinents Baltica bilden. Es handelt sich um hochmetamorphe Gneise und Granulite, die während der Svekofennidischen Orogenese vor 1,8 Milliarden Jahren letztmals deformiert wurden. Diese Gesteine wurden vor 1,5 Milliarden Jahren von Anorthositen und Rapakivi-Graniten intrudiert und unterlagen in der Folgezeit einer langsamen Abtragung. Ab dem Kambrium war dieser alte Kraton, der Baltische Schild, von einem Flachmeer bedeckt, dessen geringmächtige Ablagerungen sich bis ins Silur nachweisen lassen. Südwestlich an den Baltischen Schild schließt sich die 100 bis 200 km breite Zone der Kaledoniden an. Die Grenzzone zwischen den Kaledoniden und dem Baltischen Schild, die Tornquistzone, lässt sich von Dänemark bis in die Dobrudscha verfolgen. Die Gesteine des kaledonischen Gebirgszuges entstanden am Nordrand Gondwanas und wurden von diesem am Ende des Kambriums als langgestreckter, schmaler Mikrokontinent mit dem Namen Avalonia abgespalten. Der als Tornquist-Ozean bezeichnete Meeresraum zwischen Avalonia und Baltica wurde bis zum Oberordovizium subduziert, wodurch es zur Kollision und Gebirgsbildung kam. Im nördlichen Heiligkreuzgebirge (Lysagoriden) findet man kaledonisch deformierte Schelfsedimente des Baltischen Schildes, wohingegen der südliche Teil (Kielciden) präkambrische Gesteine enthält, die ursprünglich Teile Gondwanas waren. Auch das Małopolska-Massiv im Südwesten des Heiligkreuzgebirges ist gondwanidischen Ursprungs, allerdings driftete es unabhängig von Avalonia nach Norden und gelangte erst im Rahmen von Seitenverschiebungen bei der jüngeren, variszischen Orogenese in seine heutige Position. Die dritte große Baueinheit wird von den variszisch deformierten Sudeten gebildet. Im frühen Ordovizium löste sich eine weitere Gruppe von Mikrokontinenten vom Nordrand Gondwanas und driftete durch die Subduktion des Rheischen Ozeans auf Baltica zu. Diese Kleinkontinente, zu denen die Böhmische Masse und das Saxothuringikum gehören, kollidierten im Mittel- und Oberdevon mit dem Südrand Balticas. Dabei entstanden auf polnischem Gebiet die Westsudeten (auch "Lugikum" genannt), mit ihren hochgradig metamorphen Paragneis-Folgen, in die die Granite des Iser- und Riesengebirges eindrangen. Schon im Karbon wurden abgesunkene Teile des variszischen Gebirges von ausgedehnten, baumbestandenen Niedermooren eingenommen, die heute in den Flözen des Oberschlesischen Steinkohlereviers dokumentiert sind. Das jüngste Gebirge ist im südlichen Polen in den Karpaten aufgeschlossen. Im Eozän hatte sich die Tethys geschlossen und die Adriatische Platte, ein Sporn Gondwanas, kollidierte mit dem Südrand Europas. Im polnischen Anteil der Karpaten wurden Sedimentgesteine des Mesozoikums und des Paläogens nach Norden auf das ältere Grundgebirge überschoben. Deckgebirge. Im Perm begann im heutigen Zentralpolen eine kontinuierliche Absenkung des gefalteten Untergrundes, so dass dort bis zu 10 km mächtige Sedimentgesteinsschichten abgelagert wurden. Im Rotliegenden enthalten die Ablagerungen noch Gesteine vulkanischen Ursprungs, aber ab dem Zechstein herrschten marine Bedingungen vor; in abgeschnürten Lagunen kam es auch zur Bildung von Steinsalz. Im Buntsandstein zog sich das Meer zurück und es wurden bis zu 1.400 m kontinentale Sande abgelagert. Danach wurde das Gebiet bis zum Ende des Mesozoikums vorwiegend von einem Flachmeer bedeckt, in dem Kalksteine und Tone zur Ablagerung kamen. Auch das ältere Grundgebirge (Heiligkreuzgebirge und Sudeten) war bis zum Ende der Kreide von diesen jungen Sedimenten bedeckt. Erst im frühen Paläogen vor etwa 55 Millionen Jahren kam es zu einer Heraushebung der alten Gebirgsmassive. In Zentralpolen wurden während des Paläogens und Neogens wurden nur etwa 250 m Sande und Tone abgelagert. Weite Bereiche des polnischen Tieflandes liegen unter einer nahezu geschlossenen Decke von Moränenmaterial, sowie Kiesen und Sanden, die von den Gletschern der letzten Eiszeit aus Skandinavien herantransportiert wurden. Flüsse. Die längsten Flüsse sind die Weichsel ("Wisła") mit 1.022 km, der Grenzfluss Oder ("Odra") mit 840 km, die Warthe ("Warta") mit 795 km und der Bug mit 774 km. Der Bug verläuft entlang der polnischen Ostgrenze. Die Weichsel und die Oder münden, wie zahlreiche kleinere Flüsse in Pommern, in die Ostsee. Die beiden Flüsse bestimmen das hydrographisch-fluviatile Gefüge Polens. Die Alle ("Łyna") und die Angrapa ("Węgorapa") fließen über den Pregel und die Hańcza über die Memel in die Ostsee. Daneben entwässern einige kleinere Flüsse, wie die Iser in den Sudeten, über die Elbe in die Nordsee. Die Arwa aus den Beskiden fließt über die Waag und die Donau ("Dunaj"), genauso wie einige kleinere Flüsse aus den Waldkarpaten, über den Dnister ins Schwarze Meer. Pro Jahr fließen 58,6 km² Wasser ab, davon 24,6 als Oberflächenabfluss. Die polnischen Flüsse wurden schon sehr früh zur Schifffahrt genutzt. Bereits die Wikinger befuhren während ihrer Raubzüge durch Europa mit ihren Langschiffen die Weichsel und die Oder. Im Mittelalter und der Neuzeit, als Polen-Litauen die Kornkammer Europas war, gewann die Verschiffung von Agrarprodukten auf der Weichsel Richtung Danzig ("Gdańsk") und weiter nach Westeuropa eine sehr große Bedeutung, wovon noch viele Renaissance- und Barockspeicher in den Städten entlang des Flusses zeugen. Seen. Polen gehört mit 9.300 geschlossenen Gewässern, deren Fläche einen Hektar überschreitet, zu den seenreichsten Ländern der Welt. In Europa weist nur Finnland mehr Seen pro km² als Polen auf. Die größten Seen mit über 100 km² Fläche sind Śniardwy ("Spirdingsee") und Mamry ("Mauersee") in Masuren sowie das Jezioro Łebsko ("Lebasee") und das Jezioro Drawsko ("Dratzigsee") in Pommern. Neben den Seenplatten im Norden (Masuren, Pommern, Kaschubei, Großpolen) gibt es auch eine hohe Anzahl an Bergseen in der Tatra, von denen das Morskie Oko der flächenmäßig größte ist. Der mit über 100 m tiefste See ist der Hańcza-See in der Seenplatte von Wigry, östlich von Masuren in der Woiwodschaft Podlachien. Gefolgt wird er von dem Drawsko mit 83 m sowie dem Bergsee Wielki Staw Polski (dt. "Großer Polnischer See") im „Tal der fünf polnischen Seen“. Zu den ersten Seen, deren Ufer besiedelt wurden, gehören die der Großpolnischen Seenplatte. Die Pfahlbausiedlung von Biskupin, die von mehr als 1.000 Menschen bewohnt wurde, gründeten bereits vor dem 7. Jahrhundert v. Chr. Angehörige der Lausitzer Kultur. Die Vorfahren der heutigen Polen, die Polanen, bauten ihre ersten Burgen auf Seeinseln ("ostrów"). Der legendäre Fürst Popiel soll im 8. Jahrhundert von Kruszwica am Goplosee regiert haben. Der erste historisch belegte Herrscher Polens, Herzog Mieszko I., hatte seinen Palast auf einer Wartheinsel in Posen. Küste. Die polnische Ostseeküste ist 528 km lang und erstreckt sich von Świnoujście ("Swinemünde") auf den Inseln Usedom und Wolin im Westen bis nach Krynica Morska auf der Frischen Nehrung (auch Weichselnehrung genannt) im Osten. Die polnische Küste ist zum großen Teil eine sandige Ausgleichsküste, die durch die stetige Bewegung des Sandes aufgrund der Strömung und des Windes von West nach Ost charakterisiert wird. Dadurch bilden sich viele Kliffe, Dünen und Nehrungen, die nach dem Auftreffen auf Land viele Binnengewässer schaffen, wie z. B. das Jezioro Łebsko im Slowinzischen Nationalpark bei Łeba. Die bekanntesten Nehrungen sind die Halbinsel Hel und die Frische Nehrung. Die größte polnische Ostseeinsel ist Wolin. Die größten Hafenstädte sind Gdynia ("Gdingen"), Danzig ("Gdańsk"), Stettin ("Szczecin") und Świnoujście. Die bekanntesten Ostseebäder sind Świnoujście, Sopot ("Zoppot"), Międzyzdroje ("Misdroy"), Kołobrzeg ("Kolberg"), Łeba ("Leba"), Władysławowo ("Großendorf") und Jurata. Gebirge. Die drei wichtigen Gebirgszüge Polens sind von West nach Ost die Sudeten, die Karpaten und das Heiligkreuzgebirge. Alle drei gliedern sich wiederum in kleinere Gebirge. Das Gebirge mit der höchsten Reliefenergie sind die Sudeten, gefolgt vom Heiligkreuzgebirge, beide mit Werten von teilweise über 600 m/km². Charakteristisch für die Sudeten sind sanfte, gleichmäßige Oberflächen in den Höhenlagen und schroffe Ausformungen in den Tallagen. Der höchste Teil der Sudeten ist das Riesengebirge. Der ursprünglich das Gebirge bedeckende Mischwald wurde von Fichtenwäldern verdrängt. Ab 1250 Metern beginnt die Krummholzzone. Die polnischen Karpaten haben größtenteils den Charakter eines Mittelgebirges, nur in der Tatra ist das Gebirge als Hochgebirge einzustufen. In den äußeren Bereichen der Karpaten herrschen weiche Formen vor, im inneren Bereich ist ein eher alpiner Bereich mit Karen, Hörnern, Hang- und Trogtälern. Die Tatra gehört größtenteils zur Slowakei, in welcher auch die höchsten Erhebungen liegen. Berge mit über 2000 m Höhe befinden sich alle in der Tatra. Mit 2499 m ist ein Nebengipfel des Rysy mit dem Meerauge ("Morskie Oko"), einem Karsee, der höchste Gipfel. Weitere Gipfel sind Mięguszowiecki Szczyt Wielki (2438 m), Niżnie Rysy (2430 m), Mięguszowiecki Szczyt Czarny (2410 m), Mięguszowiecki Szczyt Pośredni (2393 m). Die zweithöchste Gebirgskette in Polen sind die Beskiden mit der Babia Góra (1723 m) als höchstem Gipfel. Gefolgt werden sie vom Riesengebirge, dessen Schneekoppe ("Śnieżka") mit 1602 m die höchste Erhebung der Sudeten darstellt. Der mit 2 m unter dem Meeresspiegel am tiefsten gelegene Punkt Polens befindet sich bei Raczki Elbląskie in der Nähe von Elbląg ("Elbing") im Weichseldelta. Bodennutzung. 27 Prozent des Landes sind von Wald bedeckt. Kiefern- und Buchenwälder dominieren in weiten Teil Polens. Nordwestpolen wird dabei von Buchen dominiert, Richtung Nordosten treten verstärkt Fichten auf. In den Gebirgen Südpolens finden sich vor allem Eichenmisch- und Tannen-Buchenwälder. Über die Hälfte der Fläche Polens wird landwirtschaftlich genutzt, wobei allerdings die Gesamtfläche der Äcker zurückgeht und gleichzeitig die verbliebenen intensiver bewirtschaftet werden. Die Viehzucht ist insbesondere in den Bergen weit verbreitet. Über ein Prozent der Fläche (3.145 km²) werden in 23 Nationalparks geschützt. In dieser Hinsicht nimmt Polen den ersten Platz in Europa ein. Drei weitere sollen in Masuren, im Krakau-Tschenstochauer Jura und in den Waldkarpaten neu geschaffen werden. Die meisten polnischen Nationalparks befinden sich im Süden des Landes. Zudem werden Sumpfgebiete an Flüssen und Seen in Zentralpolen geschützt, sowie Küstengebiete im Norden. Hinzu kommen zahlreiche Reservate und Schutzgebiete. Flora und Fauna. Die Anzahl der Tier- und Pflanzenarten ist in Polen EU-weit am höchsten, ebenso die Anzahl der bedrohten Arten. So leben hier etwa noch Tiere, die in Teilen Europas bereits ausgestorben sind, etwa der Wisent ("Żubr") im Białowieża-Urwald und in Podlachien sowie der Braunbär in Białowieża, in der Tatra und in den Waldkarpaten, der Wolf und der Luchs in den verschiedenen Waldgebieten, der Elch in Nordpolen, der Biber in Masuren, Pommern und Podlachien. In den Wäldern trifft man auch auf Nieder- und Hochwild (Rotwild, Rehwild und Schwarzwild). Zudem gibt es im Osten Polens auch Urwälder, die nie von Menschen gerodet wurden, wie der zuvor erwähnte Urwald von Białowieża. Große Waldgebiete gibt es auch in den Bergen, Masuren, Pommern und Niederschlesien. Polen ist das wichtigste Brutgebiet der europäischen Zugvögel. Rund ein Viertel aller Zugvögel, die im Sommer nach Europa kommen, brütet in Polen. Dies gilt insbesondere für die Seenplatten und die oftmals durch eigene Nationalparks geschützten Sumpfgebiete, u. a. die Gebiete des Nationalparks Biebrza (seit 1993), des Nationalparks Narew (seit 1996) und des Nationalparks Warthe ("Warta", seit 2001). Auch der Tiefland-Urwald des Nationalparks Białowieża (seit 1932) ist ein großes Brutgebiet für Zugvögel. Klima. Das Klima Polens ist ein gemäßigtes Übergangsklima. Hier trifft die trockene Luft aus dem eurasischen Kontinent mit der feuchten Luft des Atlantiks zusammen. Im Norden und Westen herrscht vor allem ein gemäßigtes Seeklima, im Osten und Südosten Kontinentalklima. Als Trennlinie gilt die Achse zwischen oberer Warthe und unterer Weichsel. Im Juli bis September wehen die Winde meist aus westlicher Richtung, im Winter, besonders im Dezember und Januar, dominieren Winde aus Osten. Im Frühjahr und Herbst wechseln die Windrichtungen zwischen West und Ost. Die Windgeschwindigkeit liegt im Norden in der Regel zwischen 2 und 10 m/s, in den Bergen misst man auch Winde von über 30 m/s. In der Tatra treten Föhnwinde auf. An 120 bis 160 Tagen beträgt die Bewölkung über 80 Prozent, an 30 bis 50 Tagen ist die Bewölkung unter 20 Prozent. Mit 1700 mm pro Jahr im mehrjährigen Mittel fallen in der Tatra die höchsten Niederschläge, die geringsten Niederschläge fallen mit unter 500 mm nördlich von Warschau, am Goplosee, westlich von Posen und bei Bydgoszcz. Weiter nördlich steigen die Niederschläge wieder auf 650 bis teilweise 750 mm. Die niederschlagreichsten Monate sind der April und der September. Im unteren Oder-Warthe-Gebiet fällt an etwa 30 Tagen Schnee, im Nordosten, den Karpaten und in den Beskiden sind es 100 bis 110 Tage. In den Gebirgen bleibt der Schnee 200 oder mehr Tage liegen. Die Jahresmitteltemperatur beträgt 5 bis 7 °C auf den Anhöhen der Pommerschen und Masurischen Seenplatte sowie auf den Hochebenen. In den Tälern des Karpatenvorlands, der Schlesischen und Großpolnischen Tiefebene beträgt sie 8 bis 10 °C. In den höheren Gebieten der Karpaten und Sudeten liegt die Temperatur bei 0 °C. Der wärmste Monat ist der Juli mit Mitteltemperaturen zwischen 16 und 19 °C. Dabei beträgt sie auf den Gipfeln von Tatra und Sudeten 9 °C, an der Küste 16 °C und in Zentralpolen 18 °C. Der kälteste Monat ist der Januar. Frost gibt es von November bis März. An der unteren Oder und der Küste an durchschnittlich 25 Tagen und bis zu 65 Tagen im Nordosten um Suwałki. Demographische Struktur. Polen hat mit etwa 38 Millionen Einwohnern die achtgrößte Bevölkerungszahl in Europa und die sechstgrößte in der Europäischen Union. Die Bevölkerungsdichte beträgt 122 Einwohner pro Quadratkilometer. Die Geburtenrate betrug 2008 1,31 Kinder pro Frau. Ethnien. Das heutige Polen ist ethnisch betrachtet ein äußerst homogener Staat, was ungewöhnlich in der polnischen Geschichte ist. Nach der Volkszählung von 2011 sind 99,7 % der Bevölkerung polnische Staatsbürger und 95,53 % davon bezeichnen sich ethnisch als Polen, wobei 2,17 % hiervon neben der polnischen Identität eine weitere angegeben haben. Nach dem Zweiten Weltkrieg war es ein Ziel des sozialistischen Regimes, Homogenität u. a. durch Zwangsumsiedlungen oder Assimilation der ethnischen Minderheiten zu erreichen. In der Verfassung von 1947 wurde Gleichheit der Bürger ohne Ansehen der Nationalität garantiert; jedoch wurden 1960 besondere Rechte für Minderheiten ermöglicht. Seit 1997 ist der Schutz von Minderheiten in der Verfassung verankert. Zu den nationalen Minderheiten gehören die Deutschen mit 0,28 % (0,068 %), Weißrussen mit 0,12 % (0,081 %), Ukrainer mit 0,12 % (0,068 %) und Russen mit 0,03 % (0,013 %), sowie Litauer, Tschechen, Slowaken und polnische Armenier. Zu den ethnischen Minderheiten gehören Kaschuben mit 0,59 % (0,042 %), Roma mit 0,04 % (0,023 %), Lemken mit 0,03 % (0,013 %) als auch Tataren, Karaim und Juden. Ferner lebt in Polen mit 2,1 % (0,94 %) eine Gruppe von Personen, die sich als Schlesier bezeichnet. Das "Gesetz über die nationalen und ethnischen Minderheiten sowie über die Regionalsprache" wurde 2005 erlassen. In diesem wird unter anderem geregelt, dass in Gemeinden, in denen mehr als 20 % der Einwohner einer Minderheit angehören, deren Sprache als Hilfssprache genutzt werden kann. Einzige anerkannte Regionalsprache ist Kaschubisch, dennoch sind in Gebieten mit einer deutschen Minderheit Hinweis- und Ortsschilder zweisprachig. Unter den in den letzten Jahren zugewanderten ausländischen Staatsangehörigen stammen die meisten aus Mitgliedsstaaten der EU, wozu vor allem Personen aus Deutschland, Italien, Frankreich und Bulgarien zählen. Weitere zahlenmäßig relevante Migrationsgruppen stammen aus den Nachbarstaaten Ukraine, Weißrussland und Russland, sowie aus Vietnam, der Volksrepublik China, der Türkei, Kasachstan und Nigeria. Die Zahl der Auslandspolen weltweit wird auf bis zu 20 Millionen geschätzt. Sprachen. Polnisch ist die Landessprache Polens und gehört der westslawischen Gruppe der indogermanischen Sprachen an. In Polen verwendeten 1990 von den 38 Millionen Einwohnern etwa 37 Millionen Polnisch als Sprache im Alltag. Auch wenn im Alltagsleben Polnisch dominierte, war Latein bis ins 18. Jahrhundert die Verwaltungs-, Kirchen- und Schulsprache. Die ältesten heute bekannten polnischen Schriftzeugnisse sind Namen und Glossen in lateinischen Schriftstücken, insbesondere in der Bulle von Gnesen des Papstes Innozenz II. von 1136, in der fast 400 einzelne polnische Namen von Ortschaften und Personen auftauchen. Den ersten geschriebenen vollständigen Satz fand man in der Chronik des Klosters Heinrichau bei Breslau. Unter den Einträgen des Jahres 1270 findet sich eine Aufforderung eines Mannes zu seiner mahlenden Frau. „Daj, ać ja pobruszę, a ty poczywaj“, was in der Übersetzung lautet: „Lass mich jetzt mahlen, und du ruh dich aus.“ In der Literatur war Polnisch ab dem 14. Jahrhundert und verstärkt ab dem 16. Jahrhundert in Gebrauch. Im 16. Jahrhundert entwickelte sich auch ein Standardpolnisch. Während der Teilungen Polens Ende des 18. bis Anfang des 20. Jahrhunderts wurde das Polnische durch Russisch bzw. Deutsch verdrängt. Mit dem 1918 wiederentstandenen polnischen Staat wurde die Polnische Sprache zur Amtssprache. Damals sprachen etwa 65 % Polnisch als Muttersprache, die restliche Bevölkerung sprach Deutsch, Ukrainisch, Weißrussisch, Jiddisch und andere. Nach der Westverschiebung der Grenzen ist Polen seit Ende der 1940er Jahre erstmals ein ethnisch relativ homogener Staat. Etwa 95 % bis 98 % der Bevölkerung sind Polen und entsprechend groß ist die Dominanz der polnischen Sprache. Die Polnische Orthographie basiert auf dem Lateinischen Alphabet, welches um Buchstaben mit diakritischen Zeichen erweitert wurde. Dazu gehören Ą, Ć, Ę, Ł, Ń, Ó, Ś, Ź und Ż. Die Buchstaben Q, V und X sind offiziell Bestandteile des polnischen Alphabets, kommen aber nur in Fremdwörtern vor. Die Polnischen Dialekte werden traditionell in fünf Gruppen eingeteilt; das Großpolnische, das Kleinpolnische, das Masowische, das Schlesische und das Kaschubische. Hinzu kommen sogenannte gemischte Dialekte in den Gebieten, welche durch die Umsiedlung von Polen nach dem Zweiten Weltkrieg entstanden. Kaschubisch wird auch Etwa 8 Millionen Menschen außerhalb des polnischen Staatsgebietes nutzten Polnisch innerhalb der Familie. Nach Russisch ist Polnisch die am häufigsten gesprochene slawische Sprache weltweit. Religionen. a> ist einer der wichtigsten Wallfahrtsorte in Polen Seit dem Zweiten Weltkrieg und der Westverschiebung Polens ist das Land größtenteils katholisch. 87 % der polnischen Gesamtbevölkerung sind römisch-katholisch (Anteil der katholisch Getauften an Gesamtbevölkerung, 2011), vor 1939 waren es nur 66 %. Davon geben 54 % an, ihren Glauben auch zu praktizieren. Die zweitgrößte Religionsgemeinschaft ist die orthodoxe Kirche. Zu ihr bekannten sich 2006 0,5 Millionen Menschen, was 1,3 % der Bevölkerung entspricht. Vor 1939 gehörten noch 11 % der Bevölkerung zur orthodoxen Kirche. Weiterhin sind 0,3 % der Bevölkerung Zeugen Jehovas, 0,2 % griechisch-katholisch, ebenso 0,2 % sind evangelisch-lutherisch. Kleinere Minderheiten bilden unter anderem die Altkatholischen Mariaviten, die Polnisch-Katholischen, Pfingstler, Adventisten, Juden und Muslime. Die heute polnischen Regionen Niederschlesien, Lebus (Ost-Brandenburg), Westpreußen, Hinterpommern und das südliche Ostpreußen waren vor der Vertreibung der ansässigen Bevölkerung nach dem Zweiten Weltkrieg mehrheitlich evangelisch-lutherisch. Die ab 1945 aus Oberschlesien und dem Ermland vertriebenen deutschen Bevölkerungsteile waren demgegenüber ebenso wie die dort bereits ansässige und neuangesiedelte polnische Bevölkerung mehrheitlich katholisch. Ein besonders hohes Ansehen in Polen besitzt der verstorbene Papst Johannes Paul II. (1920–2005), der vor seiner Papstwahl als Karol Wojtyła Erzbischof von Krakau war und eine bedeutende politische Rolle während des Zusammenbruchs des Ostblocks innehatte. Die polnischen Stämme waren ursprünglich Heiden und hatten, ähnlich wie andere Westslawen, ein polytheistisches Religionssystem, dessen Hauptgott der vierköpfige Świętowit war, dessen Statuen zwischen Pommern (z. B. bei Kap Arkona auf Rügen) und der Ukraine (z. B. der „Antichrist aus dem Zburz“) gefunden wurden. Diese Religion konnte sich teilweise bis ins 14. Jahrhundert behaupten. Insbesondere im Nordosten wurde auch ein Ahnenkult gepflegt, der teilweise bis ins 19. Jahrhundert überdauerte und in der Romantik unter anderem von Adam Mickiewicz in seinem Drama Totenfeier wieder aufgegriffen wurde. Die polnischen Stämme kamen wahrscheinlich im 9. Jahrhundert über das Großmährische Reich mit dem christlichen Glauben erstmals in Kontakt. Die Wislanen in Kleinpolen wurden zur Zeit der byzantinischen Slawenapostel Kyrill und Method von den Herrschern des Großmährischen Reiches unterworfen. Mährischen Chronisten zufolge soll bereits zu dieser Zeit das Christentum nach slawischem Ritus in der Region um Krakau eingeführt worden sein. Im Jahre 965 heiratete der Herzog von Polen, Mieszko I., die böhmische Prinzessin christlichen Glaubens Dubrawka und ließ sich im folgenden Jahr nach lateinischem Ritus taufen. Damit hatten auch seine Untertanen den neuen Glauben anzunehmen. Polen war jedoch im Mittelalter nie religiös homogen. Noch bevor sich der christliche Glaube endgültig durchsetzen konnte, wanderten in den nächsten Jahrhunderten, begünstigt durch das Toleranzedikt von Kalisz von 1265 Juden aus Westeuropa und Hussiten aus Böhmen nach Polen ein. Durch die Union mit Litauen 1386 und 1569 kamen viele weißrussisch- und ukrainischsprachige orthodoxe Christen unter die Herrschaft der polnischen Könige. Das Luthertum fand seit dem 16. Jahrhundert besonders bei der deutschen Bevölkerung in den nordpolnischen Städten viele Anhänger, während der Kalvinismus beim Kleinadel, der Szlachta, beliebt war. Aus der Reformierten Kirche entstand 1565 die unitarische Kirche der Polnischen Brüder, die in Raków über eine eigene Akademie verfügten und stark von Fausto Sozzini und dem Sozinianismus beeinflusst waren. Der Sejm von 1555 debattierte über die Einführung einer protestantischen Nationalkirche in Polen. Diese wurde zwar nicht eingeführt, doch die Warschauer Konföderation und die Articuli Henriciani von 1573 sicherten die individuelle Glaubensfreiheit in der polnischen Verfassung, daher kam es in Polen nie zu Religionskriegen. 1596 wurde in der Kirchenunion von Brest die griechisch-katholische Kirche gegründet. Im 17. Jahrhundert vermochte die Gegenreformation jedoch die meisten „Andersgläubigen“ auf die katholische Seite zu ziehen. Gegen Ende des 17. Jahrhunderts siedelte der polnische König Jan Sobieski muslimische Tataren in Podlachien an. Eine relativ große muslimische Minderheit lebte auch um Kamieniec Podolski in Podolien, das zwischen 1672 und 1699 zum Osmanischen Reich gehörte. Die polnischen Juden sind seit dem 18. Jahrhundert in zwei dominierende Glaubensrichtungen getrennt, die aufgeklärten Haskalen und die orthodoxen Chassiden. Geschichte. Westslawische Stämme in Mitteleuropa im Frühmittelalter Frühgeschichte und Gründung. Die Römer erwähnten bereits um Christi Geburt die Städte Kalisz und Truso. Germanische Stämme siedelten einige Zeit vor 200 v. Chr. in großen Teilen des heutigen Polens. Textquellen berichten über Goten, Vandalen, Lugier und Burgunder. Archäologische Spuren sind die Przeworsker Kultur (ab 250 oder 200 v. Chr.) und die Wielbark-Kultur (ab etwa 100 v. Chr.). Zwischen 200 n. Chr. und 450 n. Chr. zogen die Ostgermanen weiter ins heutige Italien, Deutschland, Frankreich, Spanien und Tunesien und vermischten sich mit den dortigen Bevölkerungen. Gleichzeitig kamen während der Völkerwanderung andere Völker, darunter die Balten und Slawen in das heutige Polen. Dauerhaft siedelten seit dem 5. Jahrhundert die Westslawen im polnischen Gebiet. Vor der Staatsgründung unternahmen die Wikinger, Ungarn und Mährer Raubzüge nach Polen. Mit dieser Zeit verbindet man auch die Sagen um die ersten Urfürsten Polens Popiel, Piast, Lech und Siemowit. Das Herzogtum Polen, dessen Name sich vom westslawischen Stamm der Polanen ableitet, ist im frühen 10. Jahrhundert von Poznań ("Posen") und Gniezno ("Gnesen") aus gegründet worden. Es wurde von 960 bis 992 von Herzog Mieszko I. aus der Dynastie der Piasten regiert, der nach und nach die anderen westslawischen Stämme zwischen Oder und Bug unterwarf. 966 ließ sich Mieszko I. nach römisch-katholischem Ritus taufen. Das Territorium erreichte durch Eroberungen unter Mieszko I. und seinem Sohn Bolesław dem Tapferen Grenzen, die den heutigen Staatsgrenzen sehr nahe kamen. Um 997 schloss Polen ein enges politisch-militärisches Bündnis mit dem ostfränkisch-deutschen Reich, während des Akts von Gnesen im Jahr 1000 wurde die Übereinkunft vom polnischen Herrscher Bolesław I. und Kaiser Otto III. bestätigt. Mit der Krönung Bolesławs im Jahr 1025 wurde Polen in den Stand eines Königreiches erhoben. Mittelalter und Neuzeit. Während der Regentschaft des Piasten Kazimierz I., wurde die Hauptstadt 1040 von Gnesen nach Krakau verlegt. Nach dem Tod von Bolesław III. Schiefmund 1138 wurde die Senioratsverfassung eingeführt, nach welcher die Söhne von Bolesław III. als Juniorherzöge unter dem Seniorat des Ältesten der Dynastie die ihnen unterstehenden einzelnen Landesteile regierten. Bis 1295 dauerte diese feudale Zersplitterung in Polen an. Dieser sogenannte Partikularismus führte zu einer starken politischen Schwächung Polens im 13. Jahrhundert. Polen zerfiel 1138 in sechs unabhängige Herzogtümer: Kleinpolen, Großpolen, Pommern, Pommerellen, Schlesien und Masowien, das sogenannte „Seniorat Polen“. Die Jahre bis zur Wiedervereinigung waren durch feudalistische Territorialzersplitterung geprägt. Das im Osten gelegene Gebiet Kleinpolens zerfiel in das Adelsterritorium Sandomierz, das östliche Großpolen in die Herzogtümer Łęczyca und Sieradz, das westliche Masowien in das Herzogtum Kujawy. Zwei lehnsabhängige Fürstentümer trennten sich unter einheimischen Herrscherhäusern ganz vom Reichsverband und gingen ihre eigenen Wege, so Pommern 1181 unter den Greifen und Pommerellen 1227 unter den Samboriden. Schlesien wurde 1348 im Vertrag von Namslau endgültig ein Teil Böhmens und damit des Heiligen Römischen Reiches. Hinzu kamen in den folgenden Jahrhunderten Eroberungen verschiedener Staaten (Kgr. Böhmen, Mgf. Brandenburg, Deutscher Orden). Auch der Mongolensturm des Jahres 1241, und die nachfolgenden großen Plünderungszüge der Tataren ließen die Bevölkerungszahl in den polnischen Teilfürstentümern schrumpfen. Anfang des 14. Jahrhunderts wurde Polen unter der Regentschaft von Władysław I. Ellenlang wiedervereinigt. Sein Sohn, Kasimir der Große, setzte den väterlichen Kampf um die Einheit fort und leitete erfolgreich soziale und wirtschaftliche Reformen ein, die Polen zu einer machtvollen Position in Mitteleuropa verhalfen. 1386 heiratete der litauische Großfürst Jagiełło die polnische Königin Jadwiga. Er, Władysław II. Jagiełło, nunmehr zugleich litauischer Großfürst und polnischer König, schuf den mächtigen Doppelstaat Polen-Litauen, der für die nächsten 400 Jahre die Geschicke Mittel- und Osteuropas entscheidend beeinflusste. Nach der Schlacht bei Tannenberg (1410) und der damit verbundenen schweren Niederlage des Deutschen Ordens in Preußen gegen den Doppelstaat Polen-Litauen, stieg das aus Polen und Litauen hervorgegangene Großreich zu einer der führenden Kontinentalmächte auf und war lange Zeit der größte Staat Europas mit Einflusssphären vom Baltischen- zum Schwarzen Meer und von der Adria bis an die Tore Moskaus. Auf Betreiben des letzten polnischen Königs aus der Jagiellonen-Dynastie, Zygmunt August, wurde die Personalunion zwischen Polen und Litauen in Lublin im Jahr 1569 in eine Realunion umgewandelt. Polen und Litauen bildeten seit 1569 die sogenannte Adelsrepublik und damit den ersten modernen Staat Europas mit einem adelsrepublikanischen System und einer Gewaltenteilung. Teilungen – Unterdrückung und Unabhängigkeitskampf. Polen in den Grenzen von 1772 und spätere Teilungen in den Jahren 1772, 1793, 1795 Die Adelsrepublik stürzte im 17. und 18. Jahrhundert in eine dauerhafte Krise, die durch zahlreiche Kriege (mit Schweden, dem Osmanischen Reich, Russland, Brandenburg-Preußen und Siebenbürgen), fehlende politische Reformen und innere Unruhen gekennzeichnet war. Es kam zur Bildung von Magnaten (sogenannten Konföderationen gegen die Interessen des Staates und des Königs), Kosakenaufständen und dauerhaften Konfrontationen mit den Krim-Tataren in den südöstlichen Woiwodschaften. Besonders die Wahl ausländischer Dynasten zu polnischen Königen (sie verfügten über keine Hausmacht in Polen und waren vom Wohlwollen des Hochadels abhängig) und die Uneinigkeit innerhalb des polnischen Adels, der Szlachta und Magnaten, schwächten den Staat beträchtlich. Insbesondere die so genannte Sachsenzeit wird dabei aus polnischer Sicht als negativ für den weiteren Bestand des polnischen Staates eingestuft. Auch die Ratifizierung einer Verfassung 1791, der ersten modernen Verfassung Europas überhaupt, konnte den Niedergang der Adelsrepublik nicht stoppen. In den drei Teilungen Polens 1772, 1793 und 1795 wurde Polens innere Schwäche von seinen Nachbarn Preußen, Österreich und Russland ausgenutzt, welche Polen gleichzeitig überfielen und am Ende unter sich aufteilten. Polen wurde damit seiner Souveränität beraubt und in drei unterschiedliche Staaten zerrissen. Auf Drängen des französischen Kaisers Napoleon entstand 1807, im Rahmen des Friedens von Tilsit, aus den preußischen Erwerbungen der Zweiten und Dritten Teilung ein relativ kleines Herzogtum Warschau, als Vasallenstaat Frankreichs, dem es 1809 gelang, Teile Kleinpolens (Westgalizien) von Österreich zurückzuerobern. Aufgrund der Niederlagen der polnisch-französischen Allianz im Russlandfeldzug 1812 und in der Völkerschlacht bei Leipzig im Jahr 1813 kam es zu keiner Wiederherstellung Polens und das Herzogtum wurde auf dem durch die Teilungsmächte dominierten Wiener Kongress aufgeteilt. Große Teile Großpolens fielen als Provinz Posen wieder an Preußen. Krakau wurde zum Stadtstaat, der Republik Krakau. Der Rest, das sogenannte „Kongresspolen“, wurde als „Königreich Polen“ 1815 in Personalunion mit dem Russischen Kaiserreich verbunden, war also formal bis auf den gemeinsamen Herrscher von Russland unabhängig. Bis 1831 genoss dieses polnische Staatswesen weitgehende Autonomie. Mit dem Aufkommen des Nationalismus beim Übergang von der Feudalgesellschaft zum Kapitalismus wurde durch die zaristische Verwaltung versucht, diese Autonomie Schritt für Schritt abzuschaffen. Dadurch kam es zum fehlgeschlagenen Novemberaufstand von 1830, in dem die Polen versuchten, die russische Fremdherrschaft und Dominanz abzuschütteln. Mit der Niederlage wurde die polnische Bevölkerung seit 1831 in den preußischen und russischen Besatzungszonen einer verstärkten Germanisierung – den preußischen Volkszählungen zufolge ohne größere Auswirkungen auf die Bevölkerungsverhältnisse – und Russifizierung unterzogen, die nach dem zweiten, gescheiterten Aufstand, dem Januaraufstand von 1863, besonders forciert wurde. Die Bezeichnung Polen wurde verboten und das Land durch die russische Obrigkeit als Weichselland bezeichnet. Ähnlich verfuhren auch die Hohenzollern in Pommerellen und Großpolen: In Volkszählungen tauchen "Polen" als Nationalität auf, aber als zeitgenössischer geographischer Begriff wird "Polen" in preußischen Schulbüchern und allen deutschsprachigen Kartenwerken auf den russischen Teil beschränkt. Nur im von Österreich besetzten polnischen Galizien konnten die Polen durch die politischen Reformen des Hauses Habsburg-Lothringen in der Donaumonarchie seit 1867 der geistig-nationalen Unterdrückung in den von Preußen und Russland dominierten Teilen Polens entkommen, das von da ab das Fundament der Wiedergeburt Polens nach dem Ersten Weltkrieg bildete. Unabhängigkeit und die Zweite Republik (1918–1939). Während des Ersten Weltkrieges beschlossen die Kaiserreiche Deutschland und Österreich-Ungarn die Gründung eines selbständigen polnischen Staates auf dem Russland abgenommenen Territorium Kongresspolens. Dies war aber eher eine gegen Russland gerichtete Maßnahme als die Anerkennung des Rechts aller Polen auf Eigenstaatlichkeit. 1916 wurde das in Analogie zum Entschluss des Wiener Kongresses benannte "Königreich Polen" durch das Deutsche Reich ausgerufen. Durch die Kriegsereignisse bedingt, hatte der Beschluss keine praktischen Auswirkungen. Nach dem Ersten Weltkrieg erlangte Polen seine Souveränität zurück. Im Friedensvertrag von Versailles wurde die Unabhängigkeit der Republik Polen 1919 im internationalen Rahmen bestätigt. Polen war damit Gründungsmitglied des Völkerbundes. Durch die Siegermächte wurden in Mittel- und Osteuropa Grenzen nach Bevölkerungsmehrheiten vorgesehen. Federführend war dabei der britische Außenminister Lord George Nathaniel Curzon. Die Weimarer Republik war gezwungen, die preußischen Provinzen Westpreußen und Posen größtenteils aufzugeben. Sie waren im Rahmen der Teilungen Polens vom Königreich Preußen annektiert worden. Unmittelbar danach verließen 200.000 Deutsche die der Republik Polen zugesprochenen Gebiete. Aufgrund der unklaren politischen Verhältnisse nach dem Zusammenbruch der Hohenzollern- und Romanow-Monarchien kam es während der ersten Konsolidierungsphase des neuen Staates zu Konflikten mit den Nachbarstaaten, zum Beispiel mit Deutschland um Oberschlesien in der Schlacht um St. Annaberg oder um die Stadt Wilna im heutigen Litauen. Im August 1920 versuchte die Rote Armee während des Polnisch-Sowjetischen-Krieges in der Schlacht von Warschau diese einzunehmen. Dies scheiterte jedoch unter hohen Verlusten und so schlugen die polnischen Truppen den Gegner bis in die Ukraine zurück. Nach dem Sieg Marschall Józef Piłsudskis gegen die Bolschewiken an der Weichsel wurde im Friedensvertrag von Riga am 18. März 1921 Polens Ostgrenze etwa 250 km östlich der Curzon-Linie festgelegt. Die Curzon-Linie markierte die östliche Grenze des geschlossenen polnischen Siedlungsgebietes, während die östlichen Gebiete eine gemischte Bevölkerungsstruktur aus Polen, Ukrainern, Weißrussen, Litauern, Juden und Deutschen aufwiesen, wobei die Polen in vielen Städten und die anderen Bevölkerungsgruppen auf dem Land dominierten. Während die Bevölkerungsmehrheit der Städte meist römisch-katholisch oder jüdisch war, war die Landbevölkerung überwiegend orthodox. Gleichwohl verfehlte Piłsudski sein Ziel, die Ukraine als unabhängigen „Pufferstaat“ zwischen Polen und Sowjetrussland zu etablieren. In Riga erkannte Polen die Ukraine als Teil der späteren Sowjetunion unter Mykola Skrypnyk an. In den von Sowjetrussland Polen zugesprochenen Gebieten, östlich des Westlichen Bugs, bildeten die Polen 1919 25 % der Bevölkerung, 1939, nach einer Ansiedlungspolitik mit Bevorzugung von Polen während der Amtszeit Piłsudskis, waren es bereits etwa 38 %. Polnische Sprachinseln im je nach Region mehrheitlich ukrainischen oder weißrussischen Umland, waren die Regionen um Pińsk, Łuck, Stanisławów und Lemberg ("Lwów"). Insgesamt waren in dem Gebiet 1939 von 13,5 Millionen Einwohnern etwa 3,5 Millionen Polen. Die Rajongemeinde Vilnius ist bis heute mehrheitlich polnischsprachig geblieben und die Stadt Vilnius bildet, nach der Zwangsumsiedlung ihrer polnischen Stadtbewohner nach dem Krieg, eine litauische Sprachinsel. Die innere Konsolidierung des neuen Staates wurde erschwert durch die Zersplitterung der politischen Parteien, die in der Teilungszeit entstandenen unterschiedlichen Wirtschafts-, Bildungs-, Justiz- und Verwaltungssysteme sowie durch die Existenz starker ethnischer Minderheiten (31 % der Gesamtbevölkerung). Außenpolitisch war Polen zunächst in das französische Allianzsystem einbezogen. Eine restriktive Politik gegenüber der deutschen Minderheit, die zur Emigration etwa einer Million deutschsprachiger Staatsbürger führte, die Weigerung der Regierung Stresemann, die neue deutsche Ostgrenze anzuerkennen, ein „Zollkrieg“ um die oberschlesische Kohle sowie der politisch-weltanschauliche Gegensatz zum Sowjetsystem schlossen eine Kooperation Polens mit seinen beiden größten Nachbarn aus. Am 12. Mai 1926 gewann Marschall Piłsudski nach einem Staatsstreich die Macht (1926–1928 und 1930 als Ministerpräsident, 1926–1935 als Kriegsminister). Zur außenpolitischen Absicherung wurden Nichtangriffsverträge mit der Sowjetunion (1932) und dem Deutschen Reich (1934) geschlossen. Außenminister Józef Beck strebte den Aufstieg Polens zur ostmitteleuropäischen Hegemonialmacht im Rahmen eines neuen Europa von der Ostsee bis zur Adria an, seine Pläne scheiterten jedoch aufgrund der geopolitischen Lage. Kurz bevor Polen selbst vom nationalsozialistischen Deutschland angegriffen wurde, stellte es im Zuge des Münchener Abkommens territoriale Forderungen an die Tschechoslowakei. Im Oktober 1938 annektierte Polen, gegen den Willen der tschechischen Regierung, das mehrheitlich von Polen bewohnte Olsagebiet, welches 1919 von der Tschechoslowakei besetzt worden war. Am 1. September 1939 wurde Polen vom Deutschen Reich angegriffen. Auch Truppen des deutschen Vasallenstaats Slowakei stießen auf polnisches Gebiet vor. Nachdem die westlichen Teile des Landes an die deutschen Invasoren verlorengegangen waren, begann ab 17. September, unter dem Vorwand des „Schutzes“ der weißrussisch-ukrainischen Bevölkerung, die sowjetische Besetzung Ostpolens. Die Annexion und Aufteilung des polnischen Staatsgebietes war zuvor in einem geheimen Zusatzprotokoll zum Hitler-Stalin-Pakt von den Diktatoren beschlossen worden. Damit nahm der Zweite Weltkrieg seinen Anfang, in dem 5,62 bis 5,82 Millionen polnische Staatsbürger, darunter fast die Hälfte jüdischer Abstammung, ihr Leben verlieren sollten. Zweiter Weltkrieg (1939–1945). Mit dem Angriff Deutschlands auf Polen begann am 1. September 1939 der Zweite Weltkrieg. Am 17. September 1939 marschierte die Rote Armee in Ostpolen ein. Anschließend verließ die polnische Regierung in der Nacht vom 17. auf den 18. September 1939 über einen noch freien Grenzübergang Polen und begab sich ins neutrale Rumänien, später nach Paris und 1940 von dort aus nach London und organisierte von dort aus den Widerstand. Hitler machte frühzeitig klar, dass er die „Liquidierung des führenden Polentums“ (Reinhard Heydrich) ins Auge gefasst hatte. Allein in den ersten vier Monaten der deutschen Besatzungsherrschaft wurden mehrere 10.000 Menschen erschossen. Anfang der 1940er Jahre errichteten die Nationalsozialisten mehrere Konzentrationslager auf dem Gebiet Polens, unter anderen Auschwitz, Majdanek und Treblinka. Die Besatzungszeit hatte für große Teile der polnischen Zivilbevölkerung katastrophale Folgen. In manchen Fällen beteiligten sich auch Polen an der Entrechtung, Deportation und Ermordung von polnischen Juden. Polen wurde gemäß dem Hitler-Stalin-Pakt im Westen von der Wehrmacht und im Osten von der Roten Armee besetzt. Zu den übergreifenden Zielen der Besatzungspolitik im gesamten Gebiet gehörte erstens die Ausschaltung und Vernichtung der polnischen Juden und der polnischen Intelligenz, zweitens die Vorverlegung der deutschen Ostgrenze und die Erweiterung des „Lebensraums im Osten“ und drittens die Stärkung der deutschen Kriegswirtschaft durch Ausbeutung des Arbeitskräftepotenzials der Zwangsarbeiter und der materiellen Ressourcen Polens. Großpolen, die 1919 an Polen abgetretenen Teile Westpreußens sowie Ostoberschlesien wurden direkt von Deutschland annektiert. Kleinpolen, Masowien und Galizien mit etwa 10 Millionen Menschen wurden als sogenanntes „Generalgouvernement“ dem Reichsminister Hans Frank unterstellt. Er leitete die Vernichtungspolitik vom Wawel aus, dem Krakauer Königssitz der frühen polnischen Könige. Auch die Polen, die unter sowjetische Herrschaft gerieten, waren von Gewaltmaßnahmen betroffen. Man schätzt, dass ungefähr 1,5 Millionen ehemalige polnische Bürger deportiert wurden. 300.000 polnische Soldaten gingen in sowjetische Kriegsgefangenschaft, nur 82.000 von ihnen überlebten. Ein Großteil der Offiziere, etwa 30.000 Personen, wurde durch sowjetische Truppen 1940 im Massaker von Katyn und in den Kriegsgefangenenlagern von Starobilsk, Koselsk und Ostaschkow ermordet. 1941 entstand im Hinterland der Sowjetunion aus polnischen Soldaten die „Anders-Armee“ in Stärke von sechs Divisionen. Mangels Ausrüstung und Verpflegung wurden diese Einheiten jedoch bereits 1942 über Persien in den Nahen Osten verlegt, wo sie dem britischen Nahostkommando unterstellt wurden. Später kämpften sie als 2. Polnisches Korps in Italien. Polnische Soldaten kämpften auf Seiten der Alliierten an nahezu allen Fronten des Zweiten Weltkrieges von der Luftschlacht um England, in Afrika, der Sowjetunion, bis zur Invasion in der Normandie und in Italien. Die polnischen Soldaten stellten damit noch vor den Franzosen die viertgrößte Armee der Alliierten auf dem europäischen Kontinent. Polnische Partisanengruppen, die die größte Widerstandsbewegung im besetzten Europa darstellten, leisteten auch in Polen selbst Widerstand. Nachdem die Rote Armee im Januar 1944 die polnische Grenze von 1939 überschritten hatte, wurden die Truppen der Heimatarmee vom NKWD entwaffnet, ihre Offiziere erschossen oder in einen Gulag geschickt. Der Kampf einzelner Untergrundeinheiten dauerte jedoch bis Ende der 1940er Jahre an. Am 1. August 1944 begann auf Befehl der Londoner Exilregierung der Warschauer Aufstand. Die Sowjetunion, deren Truppen bereits am Ostufer der Weichsel standen, hatte kein Interesse, die Einheiten der Heimatarmee zu unterstützen. Die große Entfernung machte eine Hilfe der Westalliierten unmöglich. So konnten deutsche Truppen die größte europäische Erhebung gegen die Besatzer niederschlagen. Die Zahl der Toten wird auf 180.000 bis 250.000 geschätzt. Dabei wurde die Innenstadt Warschaus unter großem Einsatz an Sprengmaterial nahezu vollständig zerstört. Volksrepublik (1945–1989). Westverschiebung Polens (Vergleich der Vor- und Nachkriegsgrenzen) Nach dem Ende des Zweiten Weltkrieges 1945 wurden die Grenzen des ehemaligen polnischen Staatsgebietes gemäß dem Potsdamer Abkommen nach Westen verschoben. Polen verlor das ethnisch gemischte, mehrheitlich von Ukrainern und Weißrussen bevölkerte Drittel seines bisherigen Staatsgebietes an die Sowjetunion. Die dort ansässige polnische Bevölkerung, etwa 1,5 Millionen Menschen, wurde zwangsumgesiedelt. Aus dem heutigen Ostpolen wurden etwa eine Million Ukrainer in die Sowjetunion und in die West- und Nordgebiete Polens zwangsumgesiedelt. Bereits in den Jahren 1943–1944 waren Zehntausende Polen in den Massakern in Wolhynien ermordet worden, Hunderttausende mussten flüchten. Im Westen und Norden wurden Polen bis zu einer abschließenden Friedensregelung die deutschen Gebiete östlich der Oder und Neiße („Oder-Neiße-Linie“) zugesprochen. Etwa fünf Millionen Deutsche waren gegen Kriegsende von dort geflohen und wurden durch Einreiseverbot an einer Rückkehr gehindert, und nach dem Krieg wurden weitere 3,5 Millionen Menschen vertrieben. Die Gebiete wurden später überwiegend mit Bürgern aus Zentralpolen (drei Millionen), darunter etwa eine halbe Million von Polen zwangsumgesiedelte Ukrainer, und mit Repatrianten aus den ehemaligen polnischen Ostgebieten (etwa zwei Millionen) besiedelt. Einige Oberschlesier, Masuren und Deutsche blieben als Minderheit zurück, wurden fortan als "Autochthone" bezeichnet und erhielten polnisch klingende Namen. Der Gebrauch der deutschen Sprache wurde ihnen verboten. Die neuen Grenzen wurden auf der Potsdamer Konferenz im August 1945 geregelt. Mit dem Görlitzer Abkommen zwischen der neu entstandenen DDR und Polen vom 6. Juli 1950 wurde diese Grenzziehung von der DDR und durch den in Warschau geschlossenen Vertrag vom 7. Dezember 1970 von der Bundesrepublik Deutschland anerkannt. Auf die deutsche Besatzung während des Zweiten Weltkrieges folgte die kommunistische Diktatur. Das Land kam in den Einflussbereich der Sowjetunion und wurde als Volksrepublik Polen Teil des Ostblocks. Ab 1956 kam es nach Aufständen zu einer Entstalinisierung unter dem Vorsitzenden der kommunistischen Partei Władysław Gomułka. Polen wurde bis 1989 in den Rat für gegenseitige Wirtschaftshilfe und den Warschauer Pakt eingebunden. Durch mehrere Aufstände äußerte die polnische Bevölkerung immer wieder ihren Unmut gegenüber der kommunistischen Führung (z. B. im Posener Aufstand, 1970 in Danzig). 1968 beteiligte sich die VR Polen an der militärischen Niederschlagung des Prager Frühlings. Erst die Gründung der Gewerkschaft Solidarność unter Lech Wałęsa führte schließlich zu einem gesellschaftlich-politischen Umschwung im Land und zu den revolutionären Ereignissen von 1980 bis 1989, die zuerst in der Verhängung des Kriegsrechts und schließlich in den Runder-Tisch-Gesprächen und den ersten im Ostblock freien Wahlen am 4. und 18. Juni 1989 mündeten. An deren Ende wurden der sogenannte Ostblock und anschließend auch die Sowjetunion aufgelöst und das kommunistische Regime durch eine demokratische Regierungsform ersetzt. Dritte Republik (seit 1989). Polen in der Europäischen Union Bei den Parlamentswahlen vom 4. und 18. Juni 1989 gewann das „Bürgerkomitee Solidarność“, die politische Organisation der Gewerkschaft Solidarność, sämtliche 161 (von 460) freigewählten Sitzen im Sejm und 99 von 100 Sitzen im wiedereingeführten Senat. Tadeusz Mazowiecki wurde zum ersten nichtkommunistischen Ministerpräsidenten Polens seit 1945 (sowie zum ersten nichtkommunistischen Regierungschef im Warschauer Pakt) gewählt. Am 29. Dezember 1989 wurde die Verfassung geändert. Die Bestimmungen über die Allianz mit der Sowjetunion und den sozialistischen Staaten und die Führungsrolle der kommunistischen Partei wurden gestrichen und der frühere Staatsname „Rzeczpospolita Polska“ ("Republik Polen") mit dem alten Wappen wiedereingeführt. Mit schnellen Schritten wurde ab 1989 auch die polnische Wirtschaft nach dem Balcerowicz-Plan in eine Marktwirtschaft umgewandelt. Im Dezember 1990 wurde der ehemalige Solidarność-Vorsitzende Lech Wałęsa in einer Volkswahl zum Staatspräsidenten gewählt. 1991 endete die Mitgliedschaft im Warschauer Pakt durch Auflösung des Militärbündnisses. Im Dezember 1995 wurde Aleksander Kwaśniewski zum Nachfolger Wałęsas als Staatspräsident gewählt. Während Kwaśniewskis Amtszeit trat Polen 1999 der NATO und 2004 der Europäischen Union bei. Am 2. April 1997 wurde von Sejm und Senat eine neue Verfassung verabschiedet und am 25. Mai 1997 per Volksabstimmung angenommen. Sie trat am 17. Oktober 1997 in Kraft. Am 1. Mai 2004 wurde Polen, zusammen mit neun weiteren Staaten, Mitglied der Europäischen Union. Polen ist unter den mittlerweile 13 neuen Mitgliedstaaten das bevölkerungsreichste und flächenmäßig größte Land. Während des Konfliktes um die Präsidentschaftswahlen im Nachbarstaat Ukraine im November und Dezember 2004 engagierte sich der polnische Präsident Aleksander Kwaśniewski als Vermittler zwischen den Konfliktparteien, während die polnische Öffentlichkeit und die Medien in besonders hohem Ausmaß Solidarität mit der Ukraine und ihrem neuen Präsidenten Wiktor Juschtschenko übten. Die Parlamentswahlen des Jahres 2005 führten zu einem Politikwechsel in Polen. Der bis dahin regierende SLD wurde durch ein konservatives Bündnis abgewählt. Wahlsieger der schlecht frequentierten Sejm- und Senatswahlen wurde die nationalkonservative PiS von Jarosław Kaczyński, vor der liberalkonservativen PO. Lech Kaczyński, der Zwillingsbruder von Jarosław, gewann anschließend im Oktober 2005 die Präsidentschaftswahlen. Bei den vorgezogenen Parlamentswahlen am 21. Oktober 2007 verlor die PiS ihre Position als stärkste Partei. Seit November 2007 bilden die liberalkonservative PO und ihr Koalitionspartner, die gemäßigte Bauernpartei PSL, die Regierung. Zunächst unter Ministerpräsident Donald Tusk, seit 2014 unter Ewa Kopacz. Nach der Präsidentschaftswahl im Mai 2015 löste Andrzej Duda als Staatspräsident den bisherigen Amtsinhaber Bronisław Komorowski ab. Die Parlamentswahl im Oktober 2015 brachte einen Erdrutschsieg für die nationalkonservative PiS, die mit 37,6 % und 235 von 460 Abgeordneten die erste Alleinregierung in Polen seit 1989 bilden konnte. Politisches System. Die Republik Polen ist eine parlamentarische Demokratie. Das Parlament besteht aus zwei Kammern, Sejm (460 Abgeordnete) und Senat (100 Senatoren). Der polnische Sejm gehört zu den ältesten Parlamenten der Welt; er existiert in verschiedenen Formen und mit Unterbrechungen seit 1493. Er hat, zusammen mit dem Senat, die Legislative inne. Die im Parlament vertretenen polnischen Parteien gruppieren sich als Fraktionen in eine Regierung und die Opposition. Die Exekutive wird von einem Ministerpräsidenten ("Prezes Rady Ministrów", kurz "Premier") und einem Ministerrat ausgeführt, die vom Staatspräsidenten ernannt werden und mit diesem gewisse Kompetenzen (Landesverteidigung, Außenpolitik) teilen, aber dem Parlament verantwortlich sind. Der Präsident wird alle fünf Jahre vom Volk direkt gewählt. Einmalige Wiederwahl ist möglich. a> und seine Ehefrau zusammen mit dem neuen Präsidentenpaar (2015) Die Innenpolitik war in den 1990er Jahren von einem sich dynamisch verändernden Parteienwesen geprägt. Mittlerweile haben sich feste Parteistrukturen aus den zerfallenden politischen Kräften der Solidarność-Bewegung und der postkommunistischen Partei herausgebildet. Das Augenmerk der Innenpolitik fokussiert hauptsächlich auf den Reformen, die das Land im internationalen Wettbewerb konkurrenzfähig machen und erhalten sollen. Enttäuscht von einer stark angestiegenen Arbeitslosigkeit und Verarmung eines großen Teils der Bevölkerung, sowie einer übermäßigen Vetternwirtschaft der alten kommunistischen Eliten in Politik und Wirtschaft, demonstrierten viele polnische Bürger ihren Unmut mit einer Wahlenthaltung bei Europaparlament-, Sejm- und Präsidentschaftswahlen bis 2005. Zu den im Sejm vertretenen Parteien gehören seit der Parlamentswahl 2011 die liberalkonservative Platforma Obywatelska (PO, dt. "Bürgerplattform"), die konservative, sowie als nationalkonservativ charakterisierte Prawo i Sprawiedliwość (PiS, dt. "Recht und Gerechtigkeit"), die linksliberale Ruch Palikota ("Palikot-Bewegung"), die konservative Polskie Stronnictwo Ludowe ("Polnische Bauernpartei"), der sozialdemokratische Sojusz Lewicy Demokratycznej ("Bund der Demokratischen Linken") sowie das Wahlkomitee Deutsche Minderheit. Die PO wurde hierbei erneut stärkste Kraft und die erste Partei der Dritten Republik die als Regierungspartei bestätigt wurde. Sie setzte die Koalition mit der Bauernpartei fort. Neu in den Sejm eingezogen ist als drittstärkste Partei die Ruch Palikota. Die Präsidentschaftswahl am 24. Mai 2015 konnte Andrzej Duda für sich entscheiden, welcher von der Recht und Gerechtigkeit, als Kandidat aufgestellt wurde. Mit der Vereidigung am 6. August 2015 löste er Bronisław Komorowski ab und ist seitdem amtierendes Staatsoberhaupt. Außenpolitik. Die Außenpolitik der Dritten Polnischen Republik wird von der Geschichte und der geopolitischen Lage des Landes bestimmt. Verantwortlich zeichnet der Außenminister, derzeit Grzegorz Schetyna, unterstützt vom Staatspräsidenten. Die polnische Außenpolitik ist bis zu einem gewissen Grad an den eigenen Vorstellungen von internationaler Position und möglichst uneingeschränkter Souveränität ausgerichtet. In der EU sucht man ein hohes Maß an Eigenständigkeit. In Osteuropa sieht sich Polen als Anwalt der Ukraine in Beziehungen zu NATO und EU. Zu den ehemaligen Ostblock-Bündnispartnern versucht die polnische Regierung stabile, freundschaftliche, für die polnische Wirtschaft günstige Beziehungen aufrechtzuerhalten und auszubauen. Militär. Der Präsident ist oberster Befehlshaber über die polnischen Streitkräfte ("Siły Zbrojne Rzeczypospolitej Polskiej"). Unmittelbar untersteht das Militär jedoch dem Verteidigungsminister und besteht aus den Landstreitkräften ("Wojska Lądowe"), der Marine ("Marynarka Wojenna") und der Luftwaffe ("Siły Powietrzne"). Polen hat aktuell etwa 120.000 Soldaten und 500.000 Reservisten. Dass Rückgrat der Streitkräfte bilden die ca. 1000 Kampfpanzer. Viele der Kampfpanzer sind jedoch veraltete Exemplare aus noch sowjetischer Produktion. Die Luftstreitkräfte verfügen über knapp 200 Kampfflugzeuge, die ebenfalls oft älterer Bauart sind. Derzeit modernisiert Polen seine Streitkräfte. Im Zuge der Ukrainekrise hat Polen diesen Prozess intensiviert. In den Zeiten der Adelsrepublik bestand die Wehrpflicht nur für die Szlachta zum Verteidigungskrieg ("pospolite ruszenie"). Bekannt sind in der Geschichte besonders die polnische Hussaria und die Ulanen, die sich in den Schweden- und Türkenkriegen auszeichneten. Die moderne polnische Armee entstand 1918 in der Zweiten Republik mit anfangs über 800.000 Soldaten. In der Volksrepublik unterstanden die polnischen Streitkräfte im Rahmen des Warschauer Paktes der sowjetischen Führung. Nach 1989 wurde das Militär reformiert, die Zahl der Soldaten von über 500.000 auf 150.000 Soldaten (plus 450.000 Reservesoldaten) reduziert und die Ausrüstung modernisiert. Die polnischen Streitkräfte verfügen über neuestes Waffenmaterial, wie z. B. die amerikanischen F-16, moderne israelische Panzerabwehrlenkwaffen und die finnischen Patria AMV 8x8. Daneben wurden die polnischen Waffenproduzenten durch Offset-Investitionen der Amerikaner auf den neuesten Stand gebracht und exportieren erfolgreich schweres Kriegsgerät weltweit. Eine neue Eliteeinheit, die Einheit GROM, wurde in den 1990er Jahren eingeführt. Im März 1999 trat Polen der NATO bei, nachdem es seit 1994 in deren Programm „Partnerschaft für den Frieden“ mitgearbeitet hatte. Am 13. November 2006 wurde gemeinsam mit Deutschland, Lettland, Litauen und der Slowakei ein Abkommen zur Bildung einer gemeinsamen EU-Einsatztruppe unterzeichnet. Polen übernahm dabei das Oberkommando und stellte ca. 1.500 Soldaten zur Verfügung. Bis 2008 bestand in Polen Wehrpflicht für Männer. Polnische Militäreinheiten waren 2010 im Ausland im Afghanistan (2.600 Soldaten), im Kosovo (320), in Bosnien und Herzegowina (204) und im Irak (20) im Einsatz. Verwaltungsgliederung. Seit dem 1. Januar 1999 ist Polen in 16 Woiwodschaften ("województwo") eingeteilt. Da Polen ein Zentralstaat ist, weisen die Woiwodschaften im Gegensatz zu den deutschen Bundesländern keine Staatsqualität auf. Jede Woiwodschaft besitzt als Selbstverwaltungsorgane eine eigene Volksvertretung – Woiwodschaftssejmik ("sejmik województwa") und einen von ihnen gewählten Woiwodschaftsvorstand ("zarząd województwa") unter dem Woiwodschaftsmarschall ("marszałek województwa") als Vorsitzendem. Der Woiwode ("wojewoda") ist hingegen ein Vertreter der Zentralregierung in Warschau und für Kontrolle der Selbstverwaltung der Woiwodschaften, Landkreise "(powiat)" und Gemeinden "(gmina)" zuständig. Nächstkleinere Selbstverwaltungseinheit ist der Powiat ("Landkreis") mit 379 Einheiten, die sich wieder in insgesamt 2.497 Gemeinden ("gmina") unterteilen (Stand 1. Januar 2010). Städte. Die größten Städte Polens sind Warschau, Krakau, Łódź, Breslau, Posen, Danzig, Stettin und Lublin. Die größten Agglomerationen sind der Warschauer Großraum, das Oberschlesische Industriegebiet und die sogenannte „Dreistadt“ mit Danzig, Sopot und Gdingen. Wirtschaft. Die Wirtschaft Polens stand 2010 sowohl gemessen am Bruttoinlandsprodukt (468.539 Mio. USD) als auch bezüglich der Kaufkraftparität (721.319 Mio. USD) an 20. Stelle in der Welt. Polen war das einzige Europäische Land, welches in Folge der globalen Krise (2008) nicht eine Rezession erfahren musste. In den Jahren 2013 und 2014 hat sich die Wirtschaft erholt, getragen von inländischer Nachfrage (Investitionen und Konsum). Während die Inflation in 2010 2,581 % betrug herrscht seit Mitte 2014 Deflation in Polen. Image: Inflation und Deflation in Polen.png|mini|Inflationsentwicklung in Polen Bruttoinlandsprodukt. Das Bruttoinlandsprodukt ist regional sehr unterschiedlich verteilt. Die reichsten Regionen sind Masowien (133 % des Landesdurchschnitts) und Niederschlesien (114 %). Die ärmsten Regionen sind Lublin (68 % des Landesdurchschnitts), Karpatenvorland (71 %) und Heiligkreuz (74 %). Staatshaushalt. Der Staatshaushalt umfasste 2009 Ausgaben von umgerechnet 95,9 Mrd. USD, dem standen Einnahmen von umgerechnet 87,9 Mrd. USD gegenüber. Daraus ergibt sich ein Haushaltsdefizit in Höhe von 1,8 % des BIP. Die Staatsverschuldung betrug 2009 199 Mrd. US-Dollar oder 46,5 % des BIP. Außenhandel. Der Export umfasste im Jahre 2009 134,7 Mrd. USD und der Import 141,7 Mrd. USD. Mit 24,4 % der Exporte und 28 % der Importe stellte Deutschland den größten Handelspartner dar. Weitere wichtige Handelspartner sind die EU-Staaten Italien, Frankreich, Großbritannien, Niederlande und die Tschechische Republik, sowie Russland, Volksrepublik China und die USA. Arbeitsmarkt. Kartografische Darstellung der Arbeitslosigkeit in Polen (August 2009) Diese Graphik zeigt den sektoralen Wandel der Beschäftigung in Polen Im Juni 2008 lag die Arbeitslosenquote bei 9,4 %, was ungefähr 1,5 Mio. Menschen im erwerbsfähigen Alter ausmachte. Im Oktober 2012 lag laut polnischem Haupt-Statistikamt die Arbeitslosigkeit bei 12,5 %. Die Arbeitslosigkeit in Polen ist regional sehr unterschiedlich verteilt. In den Städten Posen und Warschau liegt die Arbeitslosigkeit unter 3 %, in den ländlichen Regionen von Masuren liegt sie hingegen bei über 20 %. Im November 2006 erhielten 13,2 Prozent der registrierten Arbeitslosen Arbeitslosengeld. Etwa 12 % der Beschäftigten waren 2013 in der Landwirtschaft beschäftigt, was im Verhältnis zum EU-Durchschnitt (5 %) viel ist. 30,3 % sind in der Industrie und 57,8 % im Dienstleistungssektor tätig. Etwa ein Drittel der Arbeitsplätze finden sich im öffentlichen Dienst. Energieversorgung. Die Bruttostromerzeugung der polnischen Kraftwerke lag im Jahr 2012 bei ca. 160 TWh. Die elektrische Energieversorgung in Polen basiert weitgehend auf der Verstromung von Stein- und Braunkohle, die im Jahr 2012 zusammen 88,6 % des polnischen Stroms lieferten. Wichtigstes Bergwerksunternehmen ist die staatliche Kompania Węglowa. Gaskraftwerke waren weitgehend unbedeutend, Erneuerbare Energien deckten 8,7 % des Strombedarfs, wobei Biomasse vor der stark wachsenden Windenergie und der Wasserkraft lag. Der Anteil der Kraft-Wärme-Kopplung liegt mit 16,6 % an der Gesamterzeugung auf relativ hohem Niveau. Aufgrund des sehr hohen Anteils konventioneller Energieträger setzen sich polnische Politiker aus Sorge vor möglicherweise hohen Kosten gegen ambitionierte Klimaschutzziele ein. Die polnische Politik setzt auch auf den Kohlestrom, um möglichst unabhängig von Energieimporten zu sein. Das Land besitzt bisher keine kommerziell betriebenen Kernkraftwerke, betreibt aber mit dem Forschungsreaktor Maria, der am 18. Dezember 1974 kritisch wurde, einen kleinen Versuchsreaktor mit einer thermischen Leistung von 30 MW. Dieser arbeitet gegenwärtig mit nur zwei Drittel der Leistung. Bis 1968 wurde im Südwesten des Landes Uranbergbau betrieben. Die Planung neuer Kernkraftwerke wurde im Juni 2013 ausgesetzt. Begründet wurde der Schritt mit zu hohen Kosten. Verkehr. Polen ist ein wichtiges Transitland von Nordeuropa nach Südeuropa und von Westeuropa nach Osteuropa. Bereits in der Antike und im Mittelalter führten wichtige Handelsstraßen durch das heutige Polen, wie z. B. die Bernsteinstraßen, der europäische Abschnitt der Seidenstraße, die Handelsroute von Westeuropa nach Asien. Straßenverkehr. Das Straßennetz verfügt über eine Gesamtlänge von ca. 382.000 km, darunter ungefähr 1374 km Autobahnen und weitere 1050 km Schnellstraßen. 2007 war das polnische Autobahnverkehrsnetz noch zweieinhalbmal kleiner als das der Schweiz. Von 2007 bis 2012 wurde das Autobahnnetz nahezu verdoppelt, insgesamt um 672,5 Kilometer erweitert. Komplett ausgebaut soll das Netz knapp 2000 Kilometer betragen. Das Netz an Schnellstraßen betrug 2006 insgesamt 266,2 km. In den sechs Jahren von 2007 bis 2012 erfolgte die Fertigstellung von 854 Kilometern und die Verfünffachung des Schnellstraßennetzes. Das Straßennetz an Schnellstraßenverbindungen soll insgesamt 5500 km umfassen. 18.368 km Landesstraßen (poln.: "droga krajowa") dienen – ähnlich wie die deutschen Bundesstraßen – dem nationalen und internationalen Verkehr. Zum 1. Januar 1999 wurden 28.444 km Landesstraßen zu Woiwodschaftsstraßen (poln.: "droga wojewódzka") herabgestuft. Daneben gibt es noch 128.870 km Kreisstraßen (poln.: "droga powiatowa") und 203.773 km Gemeindestraßen (poln.: "droga gminna"). In Polen sind über 12 Millionen Pkw und 2 Millionen Lkw und andere Nutzfahrzeuge registriert. Insgesamt waren Ende 2007 383 Pkw je 1000 Einwohner registriert, im EU-Durchschnitt sind es 486. Dem in Polen trotz wachsendem Individualverkehr immer noch sehr bedeutsamen öffentlichen Verkehr dient ein ausgedehntes Überlandbusnetz. Der Busverkehr spielt landesweit eine größere Rolle als der Eisenbahnverkehr. 2004 starben in Polen 5700 Menschen bei Verkehrsunfällen, das bedeutet eine viermal höhere Rate als im Durchschnitt der EU. Dies ist aber bereits eine Verringerung der Zahl, 1999 waren es noch 6730 Tote und 1998 – 7080. Stellen mit einer hohen Unfallrate werden häufig durch einen sogenannten Schwarzen Punkt ("czarny punkt") gekennzeichnet. Es besteht seit 14. April 2007 die ganztägige und -jährige Lichtpflicht für Pkw und Lkw, wobei Abblend- oder Tagfahrlicht vorgeschrieben sind. Seit dem 1. Juni 2007 gilt beim Fahren von Kraftfahrzeugen ein absolutes Alkoholverbot, nachdem bis dahin eine Blutalkoholkonzentration von 0,2 Promille erlaubt war. Für Autobahnen, Schnell- und Landesstraßen ist auf ausgewählten Straßenabschnitten eine streckenabhängige Maut für Kraftfahrzeuge zu entrichten. Für Kraftfahrzeuge mit einem zulässigen Gesamtgewicht von mehr als 3,5 Tonnen (u. a. Lastkraftwagen) kommen ein als viaTOLL bezeichnetes System des staatlichen Betreibers GDDKiA sowie eine manuelle Mautentrichtung auf den Autobahnabschnitten der privaten Betreiber infrage. Für Kraftfahrzeuge mit einem zulässigen Gesamtgewicht von weniger als oder gleich 3,5 Tonnen (u. a. Personenkraftwagen) besteht auf den von der GDDKiA betriebenen Straßenabschnitten die Möglichkeit der Nutzung des viaTOLL-Systems oder der manuellen Mautabgabe den Mautstellen. Auf Autobahnabschnitten der privaten Betreiber ist nur die manuelle Mautabgabe möglich. Schienenverkehr. Der Schienenverkehr spielt in Polen auch nach dem starken Wachstum des Individualverkehrs in den letzten zwei Jahrzehnten immer noch eine wichtige Rolle für das polnische Verkehrswesen. Die polnische Eisenbahngesellschaft PKP gehört zu den größten europäischen Eisenbahngesellschaften mit über 23.420 km Schienennetz. An der polnischen Ostgrenze trifft das europäische Normalspurnetz auf das breitere russische Gleissystem. Flugverkehr. Polen hat 14 Flughäfen, u.a. den Chopin-Flughafen in Warschau, den Flughafen Johannes Paul II. in Krakau, den Flughafen Katowice, den Lech-Wałęsa-Flughafen Danzig, den Flughafen Breslau, den Flughafen Posen-Ławica, den Flughafen Rzeszów-Jasionka, den Władysław-Reymont-Flughafen Łódź, den Flughafen Stettin-Goleniów, den Ignacy-Jan-Paderewski-Flughafen Bydgoszcz, 123 nationale Flugplätze und drei Hubschrauberbasen. Die Anzahl der Fluggäste steigt seit der Öffnung des polnischen Luftverkehrs für die Niedrigpreisfluglinien rasant. Schifffahrt. Polen besitzt 3.812 Kilometer schiffbare Flüsse und Kanäle. Die Überseehandelsflotte besteht aus über 100 Schiffen. Wichtigste Seehäfen sind Stettin, Gdynia, Danzig, Świnoujście, Ustka, Kołobrzeg sowie im Binnenland Warschau, Gliwice und Breslau. Schulsystem. Das Bildungssystem in Polen umfasst vor allem die Kindergärten ("przedszkole"), Grundschulen ("szkoła podstawowa"), Mittelschulen ("gimnazjum"), weiterführende Schulen sowie die Hochschulen. Zu den weiterführenden Schulen zählen die allgemeinbildenden Gymnasien ("liceum ogólnokształcące"), die Berufsgymnasien ("liceum profilowane"), die Berufsoberschulen ("technikum") sowie die Grundberufsschulen ("zasadnicza szkoła zawodowa"). Hinzu kommen weitere Spezialschulen. Die Organisation des Bildungssystems ist größtenteils zentralisiert. Mit sieben Jahren werden Kinder in Polen eingeschult. Nach der Bildungsreform 1999 besteht in Polen Schulpflicht bis zum 18. Lebensjahr. Das neue Schulsystem hat drei Stufen. Alle Schulen der dritten Stufen werden mit einer zentralen Prüfung abgeschlossen, die schriftliche und mündliche, bzw. praktische Teile enthält. Das Bestehen der Abiturprüfung ist Voraussetzung für das Studium an einer Hochschule. Die staatlichen Schulen sind kostenlos, Schulmittel, wie etwa Bücher, müssen aber privat getragen werden. Das Schuljahr beginnt am 1. September und endet in der ersten Junihälfte. Hochschulen. In Polen studieren fast zwei Millionen Studenten. Die Hochschulen sind von Anweisungen des Staates bezüglich ihrer Bildungsangebote seit 1990 weitgehend unabhängig. 2008 gab es in Polen 130 staatliche und 315 nichtstaatliche Hochschulen. Weiterhin gab es 78 Einrichtungen der Polska Akademia Nauk ("Polnische Akademie der Wissenschaften") sowie etwa 200 selbständige Forschungseinrichtungen. Die staatlichen Hochschulen haben dabei seit den 1990er Jahren vermehrt Konkurrenz durch private Hochschulen bekommen. Das Studium an staatlichen Hochschulen in Polen ist in den Vollzeitstudiengängen grundsätzlich kostenlos. Berufsbegleitende Teilzeit-, Wochenend- und Fernstudiengänge als auch das Studium an privaten Hochschulen sind kostenpflichtig. Der polnische "Magister" (Abkürzung "mgr") entspricht dem deutschen Diplom, jedoch nicht exakt dem deutschen Magister mit Bezug auf die Studienstruktur, obwohl der Name identisch ist. Denn wie im deutschen Diplom- oder Masterstudium wird auch im polnischen Magister- oder Masterstudium meistens eine Fachrichtung präferiert, beim deutschen Magisterabschluss hingegen mehrere Fachrichtungen. Es gibt sowohl grundständige als auch auf Abschlüssen der Bakkalaureatsebene ("Licencjat" bzw. "Inżynier" in den Ingenieurwissenschaften) aufbauende Magisterstudiengänge. Der Magister wird nach einer vier- bis fünfjährigen Regelstudienzeit vergeben, die mit einer Abschlussarbeit beendet wird. In der Humanmedizin ersetzt der Abschluss "Lekarz medycyny" den Magister, in der Tiermedizin heißt der entsprechende Abschluss "Lekarz weterynarii". In technischen Studiengängen wird der Grad "Magister" durch den Zusatz "Inżynier" (Ingenieur, abgekürzt "mgr inż.") ergänzt. Zwischen der Bundesrepublik Deutschland und der Republik Polen besteht ein Äquivalenzabkommen über die gegenseitige Anerkennung der Hochschulabschlüsse. Wissenschaft. Bereits mit der Gründung der Bistümer im Jahr 1000 wurden nach und nach Kirchenschulen an den Bischofssitzen eröffnet. Mit dem Zisterzienser-Orden kam auch die abendländische Wissenschaft nach Polen. Bereits 1364 gründete Casimir der Große die Krakauer Universität, die die zweitälteste Alma Mater in Mitteleuropa ist. Sie war die erste Universität, die eine eigenständige Professur für Mathematik und Astronomie hatte. Ihr Rektor Paweł Włodkowic – einer der wichtigsten Völkerrechtler jener Zeit – stellte auf dem Konzil von Konstanz 1415 die These auf, dass heidnische Völker ein Recht auf einen eigenen Staat hätten und nicht mit dem Schwert christianisiert werden dürften. Dass er nicht das Schicksal seines Prager Kollegen Jan Hus teilen musste, verdankte er der zahlreichen polnischen Ritterschaft, die beim Konzil anwesend war. Die Wissenschaft in Polen erreichte in der Zeit des Humanismus ihre Blüte. Einer der Krakauer Studenten war Nikolaus Kopernikus, der sich unter anderem hier das mathematische und astronomische Rüstzeug zu seiner späteren Entwicklung des heliozentrischen Weltbilds erwarb. Wichtige Astronomen und Mathematiker jener Zeit waren Marcin Król, Marcin Bylica, Marcin Biem, Johann von Glogau und Albert de Brudzewo. In der (Al)Chemie und Medizin waren damals Adam von Bochinia und Maciej Miechowita führend. Neue Universitäten wurden in Zamość, Raków, Wilna, Posen und Lemberg gegründet, zudem kamen die zahlreichen Schulen der Jesuiten. Nach den Kriegen des 17. Jahrhunderts verfiel die polnische Wissenschaft jedoch zusehends und erreichte in der sächsischen Zeit ihren Tiefpunkt. Eine Ausnahme bildete das 1740 von den Piaristen in Warschau gegründete Collegium Nobilium. Mit dem Amtsantritt Stanisław August Poniatowskis begann in der Aufklärung die Neuorganisation der polnischen Universitäten durch Hugo Kołłątaj im Rahmen der Kommission für nationale Erziehung, dem ersten Bildungsministerium der Welt. Als einer der wichtigsten Wissenschaftler und Industrieller dieser Zeit gilt Stanisław Staszic, der um 1800 in Warschau eine Akademie der Wissenschaft ins Leben rief. 1817 wurde die Warschauer Universität gegründet. Auf dieser Grundlage konnte sich die polnische Wissenschaft im 19. Jh. entwickeln. Um 1850 entdeckte Ignacy Łukasiewicz eine Methode zur Destillation von Erdöl. Napoleon Cybulski und Władysław Szymonowicz schufen die moderne Endokrinologie. Zygmunt Wróblewski und Karol Olszewski gelang es erstmals, Sauerstoff und Stickstoff zu verflüssigen. Stefan Banach und Hugo Steinhaus begründeten die Funktionalanalyse in der Mathematik. Der Arzt Kazimierz Funk prägte den Begriff Vitamine. Marie Skłodowska-Curie entwickelte das Fachgebiet der Radioaktivität und entdeckte das Polonium und das Radium. Sie war die erste Frau, die einen Nobelpreis erhielt, und gleichzeitig der erste Mensch dem zwei zuerkannt wurden (Physik und Chemie). Eugeniusz Kwiatkowski entwickelte die polnischen Wirtschaftswissenschaften, die er nach der Unabhängigkeit Polens als Wirtschaftsminister in die Praxis umsetzen konnte. In der Zweiten Republik wurde die polnische Sprache an den polnischen Universitäten wieder eingeführt und die Lehre und Wissenschaft florierten. Einer der größten polnischen Juristen Roman Longchamps de Bérier vereinheitlichte das polnische Zivilrechtssystem, das 1918 noch aus fünf Rechtsordnungen bestand. Sein Schuldrechtgesetzbuch gilt als eines der besten der Welt. Der Zweite Weltkrieg war ein Desaster für die polnische Wissenschaft, denn die Nationalsozialisten wollten die polnischen Eliten vernichten. Bereits in den ersten Kriegswochen wurden hunderte polnischer Professoren ermordet oder in Konzentrationslager deportiert. Insoweit erlangte die Sonderaktion Krakau und das Massaker an den Lemberger Professoren traurige Berühmtheit. Im Krieg wurden auch die polnischen Universitätsbibliotheken ausgeraubt und ihre Bestände zielgerichtet vernichtet, sodass 1945 ein völliger Neuanfang bevorstand. Zudem flohen viele der überlebenden Wissenschaftler vor den Kommunisten ins westliche Ausland und die überlebenden polnischen Juden emigrierten nach Israel. Die polnische Wissenschaft erholte sich nur langsam. Die polnischen Restauratoren konnten schon bald wieder Weltruhm genießen, doch den anderen Wissenschaften fehlte der Austausch mit den bereits führenden US-amerikanischen Universitäten. Dies änderte sich erst nach 1989. Im Jahr 2001 wurden die Erfolge zu Entwicklungen zum Blauen Lasers in der praktischen Medizin vorgestellt. Kultur. a>, einer der größten unter den polnischen „Dichterfürsten“ Die polnische Kultur ist sehr vielfältig und resultiert aus der wechselvollen Geschichte des Landes. Im Mittelalter und der Neuzeit war die multikulturelle Adelsrepublik ein Schmelztiegel verschiedener Kulturen und Religionen, die alle ihren Einfluss auf das polnische Kulturerbe hatten und noch immer haben. Nach den Teilungen Polens versuchten polnische Künstler immer wieder den Kampf um die Unabhängigkeit Polens unter dem Schlagwort „Zur Hebung der Herzen“ zu unterstützen. Als Beispiele hierfür können die Gedichte und Epen von Adam Mickiewicz, die Prosawerke eines der ersten Literaturnobelpreisträgers Henryk Sienkiewicz, die Historienmalerei von Jan Matejko oder die Mazurkas, Polkas, Krakowiaks und Polonaisen von Frédéric Chopin genannt werden. Heute ist die breit gefächerte Kultur Polens, ähnlich wie aller westlicher Staaten, von Globalisierungstendenzen betroffen, andererseits kann sie, gerade in der Kulturszene größerer Städte und auf dem Land eine eigene Identität erhalten. Besonders bedeutend ist der polnische Symbolismus und die polnische Plakatmalerei. Plakate polnischer Künstler mit ihren sehr spezifischen Eigenschaften sind auf der ganzen Welt bekannt. Auch der polnische Film mit hervorragenden Regisseuren, wie Roman Polański, Andrzej Wajda, Krzysztof Kieślowski, Krzysztof Zanussi, Agnieszka Holland und Jerzy Hoffman findet weltweit Anerkennung. Mittelalter. Das älteste erhaltene polnische Schriftstück ist das Dagome-Iudex-Regest aus dem Jahr 991. Wie fast alle polnischen Werke des Mittelalters ist es in Latein geschrieben. Zu diesen gehören vor allem die Chroniken von Gallus Anonymus, Wincenty Kadłubek, Janko z Czarnkowa, Jan Długosz und Jan Łaski sowie die Heiligkreuz-Jahrbücher als auch die Adelsprivilegien (siehe Verfassungsgeschichte der Adelsrepublik) und religiöse Texte der Heilig-Kreuz-Predigten (die ältesten Schriftstücke auf Polnisch), die Bibel der Königin Zofia (erste Bibelübersetzung ins Polnische), der Puławy-Psalter, der Davids-Psalter, die erste polnische Nationalhymne Bogurodzica sowie diverse Gebete und Heiligengeschichten. 1488 wurde die welterste Dichterbruderschaft Nadwiślańskie Bractwo Literackie von dem Deutschen Conrad Celtis und dem Italiener Kallimachus an der Universität in Krakau gegründet, wo sich bereits die erste polnische Druckerei befand. Renaissance. Die polnische Sprache setzte sich in der Renaissance durch, obwohl viele Autoren auch noch in Latein oder beiden Sprachen veröffentlichten. Der erste nur polnischschreibende Dichter war Mikołaj Rej, der als Vater der polnischen Sprache gilt. Der größte polnische Renaissancedichter war jedoch Jan Kochanowski, der mit dem ersten polnischen Drama „Die Abfertigung der griechischen Gesandten“ und zahlreichen Gedichten Weltruhm erlangte. Gleichzeitig galt Klemens Janicki als talentiertester lateinischschreibender Poet der Renaissance in Europa. Andere wichtige Renaissanceschriftsteller waren Andrzej Frycz Modrzewski, Szymon Szymonowic, Łukasz Górnicki, Piotr Skarga, Andrzej Krzycki, Mikołaj Hussowski, Biernat z Lublina, Mikołaj Sęp Szarzyński und Johannes Dantiscus. Barock. Der polnische Barock ist aufgrund der vielen vernichtenden Kriege dem Motto memento mori treu und bringt im Gegensatz zum Harmoniebestreben der polnischen Renaissance die Unruhe der damaligen Zeit zum Ausdruck. Hervorzuheben sind hier die Liebesbriefe des Dichterkönigs Jan Sobieski sowie die Kriegsmemoiren von Jan Chryzostom Pasek. Weitere wichtige Vertreter dieser Epoche waren Wacław Potocki, Jan Andrzej Morsztyn, Daniel Naborowski, Krzysztof Zawisza und Benedykt Chmielowski. Aufklärung. Die Aufklärung brachte vor allem politische Literaten, die mit den Reformen König Poniatowskis verbunden waren. Viele engagierten sich für die Verfassung vom 3. Mai 1791. Insbesondere Ignacy Krasicki, Adam Naruszewicz, Wojciech Bogusławski, Franciszek Bohomolec, Franciszek Salezy Jezierski, Franciszek Karpiński, Franciszek Dionizy Kniaźnin, Hugo Kołłątaj, Stanisław Konarski, Julian Ursyn Niemcewicz, Stanisław Staszic, Stanisław Trembecki und Franciszek Zabłocki sind hier zu nennen. Romantik. Nach der letzten Teilung Polens entstanden zwei gegensätzlich poetische Richtungen, die Klassik und die Romantik. Das Jahr 1822, als Adam Mickiewicz seinen ersten Gedichtband herausbrachte, gilt als endgültiger Sieg von letzterer. Damit entwickelte sich die Romantik in Polen ein Vierteljahrhundert später als im restlichen Europa, war dafür aber intensiv und begründete die bedeutende polnische Lyrik. Die polnische Romantik, die in der Zeit zwischen dem Novemberaufstand 1830 und Januaraufstand 1863 ihren Zenit erreichte, hat sehr viele Poeten hervorgebracht. Neben Mickiewicz allen voran Juliusz Słowacki, Zygmunt Krasiński und Cyprian Kamil Norwid. Nicht unerwähnt bleiben dürfen aber auch Stanisław Bogusławski, Adam Jerzy Czartoryski, Aleksander Fredro, Klementyna Hoffmanowa, Józef Ignacy Kraszewski, Wincenty Pol, Henryk Rzewuski und Kornel Ujejski. Viele Literaturkritiker sehen in der polnischen Romantik die Epoche, die den polnischen Nationalgeist am meisten beeinflusst hat und am meisten auf die anderen Richtungen einwirkte. Positivismus. Nach der Ernüchterung der Niederlage von 1864 kam die Zeit des Positivismus, die sich von der Dichtung zur Prosa wandte, insbesondere dem realistischen Roman. Henryk Sienkiewicz, einer der wichtigsten Vertreter der Epoche, erhielt als erster Pole den Nobelpreis für Literatur. Weitere wichtige Vertreter waren Eliza Orzeszkowa, Bolesław Prus, Maria Konopnicka, Adolf Dygasiński, Wiktor Gomulicki, Maria Rodziewiczówna, Gabriela Zapolska, Stefan Żeromski und Adam Asnyk. Junges Polen. Als neoromantische Reaktion entwickelte sich ab 1890 das Junge Polen, deren wichtigste Dichter Tadeusz Boy-Żeleński, Jan Kasprowicz, Kazimierz Przerwa-Tetmajer, Mieczysława Przybylska-Łuczyńska, Stanisław Przybyszewski, Władysław Reymont, Leopold Staff und das Allroundgenie Stanisław Wyspiański. Das Junge Polen zeichnete sich durch eine dem Symbolismus folgende Mystifizierung der Wirklichkeit aus. Das wichtigste Werk ist Wyspiańskis „Hochzeit“. Zwischenkriegszeit. In der Zwischenkriegszeit hatte Polen eine Reihe von hervorragenden Literaten, die in verschiedenen Richtungen experimentierten und verschiedene Dichtervereinigungen (Salamander, Grüner Ballon, etc.) bildeten. Zu diesen gehörten Jan Brzechwa, Zofia Charszewska, Józef Czechowicz, Bruno Jasieński, Jarosław Iwaszkiewicz, Maria Kuncewiczowa, Bolesław Leśmian, Kornel Makuszyński, Czesław Miłosz, Stanisław Młodożeniec, Zofia Nałkowska, Maria Pawlikowska-Jasnorzewska, Bruno Schulz, Andrzej Strug, Julian Tuwim, Stanisław Ignacy Witkiewicz ("Witkacy") und Aleksander Wat. Während des Zweiten Weltkrieges schuf die junge Generation der sogenannten Kolumbusse Krzysztof Kamil Baczyński, Tadeusz Borowski und Tadeusz Gajcy, die alle sehr jung starben und diese Vorahnung in ihren Gedichten thematisierten. Nachkriegszeit. Die polnische Nachkriegsliteratur ist sehr mannigfaltig. Sie reicht vom Sozrealismus Jerzy Andrzejewskis bis zur Science Fiction Stanisław Lems. Zunächst war Hauptthema die Verarbeitung des Zweiten Weltkrieges, später wandten sich die Kulturschaffenden der neuen Wirklichkeit zu. Dabei waren auch systemkritische Werke möglich. Wichtige Vertreter der Nachkriegsliteratur sind Witold Gombrowicz, Sławomir Mrożek, Miron Białoszewski, Kazimierz Brandys, Ernest Bryll, Zbigniew Herbert, Marek Hłasko, Paweł Huelle, Ewa Lipska, Jan Parandowski, Jerzy Pilch, Julian Przyboś, Tadeusz Różewicz, Andrzej Szczypiorski, Wisława Szymborska, Władysław Terlecki, Jan Twardowski, Ryszard Kapuściński, Stefan Chwin, Leszek Kołakowski, Andrzej Stasiuk, Olga Tokarczuk, Dorota Masłowska und Jerzy Prokopiuk, sowie auch der als Papst Johannes Paul II. bekannte Karol Wojtyła. Bisher erhielten polnische Schriftsteller vier Mal den Literaturnobelpreis: 1905 (Henryk Sienkiewicz), 1924 (Władysław Reymont), 1980 (Czesław Miłosz) und 1996 (Wisława Szymborska). Zählt man den polnischstämmigen und auf Jiddisch wirkenden Amerikaner Isaac Bashevis Singer hinzu, welcher den Preis 1978 entgegennahm, so kommt man auf fünf polnische Preisträger in dieser Kategorie. Musik. Der erste namentlich bekannte Musiker Polens ist der Dominikaner Wincenty z Kielczy, der in der ersten Hälfte des 13. Jahrhunderts lebte und die Hymne „Gaude mater Polonia“ schrieb. Dagegen ist der Autor des ältesten bekannten polnischen Liedes Bogurodzica unbekannt. Neben Hymnen zeichnete sich die mittelalterliche polnische Musik durch Tänze aus. Mikołaj Radomski schrieb diese am Anfang des 15. Jahrhunderts auf. In der Renaissance kamen viele italienische Musiker an den polnischen Königshof. Mikołaj Gomółka war der bekannteste polnische Komponist des 16. Jahrhunderts. Er schrieb Kompositionen unter anderem zu den Gedichten von Jan Kochanowski ("Melodie na Psałterz polski"). Andere wichtige Renaissancekomponisten am polnischen Königshof waren Wacław z Szamotuł und Mikołaj Zieleński. 1628 wurde in Warschau die erste Oper außerhalb Italiens aufgeführt: "Galatea". Die italienischen Opernkomponisten Luca Marenzio, Giovanni Francesco Anerio, and Marco Scacchi waren zur Barockzeit in Warschau tätig. Während der relativ kurzen Regentschaft von Władysław IV. Wasa von 1634 bis 1648 wurden in Warschau mehr als zehn Opern aufgeführt, womit Warschau zu dieser Zeit zum wichtigsten Opernzentrum außerhalb Italiens wurde. Die erste Opernkomponistin der Welt, Francesca Caccini, schrieb ihre erste Oper "La liberazione di Ruggiero dall’isola d’Alcina" für den polnischen König, als dieser noch ein Prinz war. Die polnischen Barockkomponisten komponierten vor allem Kirchenmusik, allen voran ihr bekanntester Schöpfer Adam Jarzębski. Zu dieser Zeit entstand auch die Polonaise als Tanz an polnischen Höfen, während die bäuerliche Gesellschaft regional unterschiedliche Tänze wie die Mazurkas, Krakowiaks und Chodzony und die auch in Tschechien bekannten Polkas entwickelte. Die wichtigsten Polonaise-Komponisten im 18. Jahrhundert waren Michał Kleofas Ogiński, Karol Kurpiński, Juliusz Zarębski, Henryk Wieniawski, Mieczysław Karłowicz und Joseph Elsner. Gleichwohl sollte erst Frédéric Chopin in der ersten Hälfte des 19. Jahrhunderts diese Musikart zur Vollendung bringen. Er gilt als einer der größten polnischen Komponisten. Im 19. Jahrhundert entwickelte Stanisław Moniuszko die moderne polnische Oper, deren berühmtestes Werk "Halka" ist. Oskar Kolberg begann zu dieser Zeit die polnische Folkloremusik zu sammeln und niederzuschreiben. Seinen Werken verdanken die Folkloreensembles Mazowsze, Słowianki und Śląsk ihr Entstehen. Karol Szymanowski, der sich in Zakopane niederließ, entdeckte die traditionelle Musik der Goralen in Podhale, die er im 19. Jahrhundert weiter entwickelte. Berühmte Komponisten der Zwischenkriegszeit waren Arthur Rubinstein, Ignacy Jan Paderewski, Grażyna Bacewicz, Zygmunt Mycielski, Michał Spisak and Tadeusz Szeligowski. Die zeitgenössische polnische Musik wird von Stanisław Skrowaczewski, Roman Palester, Andrzej Panufnik, Tadeusz Baird, Bogusław Schaeffer, Włodzimierz Kotoński, Witold Szalonek, Krzysztof Penderecki, Witold Lutosławski, Wojciech Kilar, Kazimierz Serocki, Henryk Mikołaj Górecki, Krzysztof Meyer, Paweł Szymański, Krzesimir Dębski, Hanna Kulenty, Eugeniusz Knapik und Jan A. P. Kaczmarek repräsentiert. Jazzmusiker Polens werden zu den besten Europas gezählt. In den 1950er Jahren entwickelte sich der Jazz zu einer wichtigen Musikrichtung des Landes. Das Jazz Jamboree findet seit 1958 statt und schon zur Zeit der Volksrepublik Polen traten US-amerikanische Musiker wie etwa Miles Davis auf. Bildende Kunst. Bernardo Bellotto genannt Canaletto, "Warschau, von der Terrasse des Königsschlosses aus betrachtet" (Ausschnitt, 1773), Muzeum Narodowe Warschau Zur heidnischen Zeit schufen die westslawischen Künstler Steinfiguren von Światowit und anderen Gottheiten. Mit dem Übergang zum Christentum behielt die Kunst zunächst ihren rituellen Charakter. Zu den ersten bedeutenden und erhaltenen Kunstwerken gehören die monumentalen Bronzetüren der Kathedralen von Gnesen und Płock im Stil der Romanik. Die erste stellt die Lebensgeschichte des Heiligen Adalbert (Wojciech) dar. Die zweite wurde später an die Stadt Nowgorod in Russland geschenkt. Daneben waren in den romanischen Kirchen Steinfiguren und Reliefs sehr beliebt. In der Gotik entwickelte sich die Holzschnitzerei, die Bronzegießerei, die Bildhauerei und die Malerei. Bedeutende Künstler aus dem deutschen Raum, wie Veit Stoß, Hans Dürer, Peter Vischer kamen an den Hof der polnischen Könige auf dem Wawel in Krakau. Der Krakauer Hochaltar von Veit Stoß ist das größte Schnitzwerk der Gotik. In Krakau selbst entwickelte sich in der Malerei und Schnitzerei um 1400 eine eigene Schule, die von einheimischen Künstlern vertreten wurde, wie z. B. dem Meister der Dominikanerpassion. Zudem kamen orthodoxe Künstler aus Ostpolen und brachten ihre Freskenmalerei mit, die noch heute in der Wawelkathedrale und in der Kapelle im Lubliner Schloss bewundert werden kann. In der Renaissance kamen viele Künstler aus Florenz, Padua und Mailand (mit Bona Sforza) nach Polen. Sie gründeten ihre eigenen Schulen in Krakau. Auch polnische Renaissancekünstler wie Stanisław Samostrzelnik waren in Krakau aktiv. Hervorzuheben gilt es die Sigismund-Kapelle an der Wawelkathedrale mit den Grabmälern der letzten Jagiellonen, die als formtreustes Beispiel der italienischen Renaissance außerhalb Italiens gilt. In der Zeit des Manierismus waren ebenfalls die italienischen Künstler in Polen führend, allen voran Paolo Romano, der in Lemberg tätig war. Aber auch Danzig war ein Zentrum des wiederum niederländisch geprägten Manierismus. Auch der Barock kam aus Italien nach Polen. Hier ist insbesondere Giovanni Trevano hervorzuheben, der am Wawel und dem Königsschloss in Warschau wirkte. Als bedeutendster Maler des Barock in Polen gilt Karol Dankwart. In der sächsischen Zeit kamen viele Künstler aus Sachsen nach Polen, wie z. B. der Italiener Bernardo Bellotto. In Ostpolen entwickelte sich zu dieser Zeit eine eigene Form des ukrainischen Barock und der Ikonenmalerei. Der wichtigste Vertreter des Klassizismus in Polen war Däne Bertel Thorvaldsen, der viele Denkmäler in Warschau und Krakau schuf. Die romantische Malerei entwickelte sich in Polen nach den Teilungen und behandelte meist politische oder mystische Themen. Im Zeitalter des Positivismus dominierte die Historienmalerei, deren bekannteste Vertreter Juliusz Kossak, die Brüder Maksymilian und Aleksander Gierymski und Jan Matejko sein dürften. Seine Schüler Józef Mehoffer und Stanisław Wyspiański entwickelten die sezessionistische Richtung Junges Polen. In der Zwischenkriegszeit entwickelten sich verschiedene Kunstrichtungen. Bekannte Vertreter dieser Epoche sind Bruno Schulz und Wojciech Weiss. Während des Zweiten Weltkrieges wurden von Hitlerdeutschland und der Sowjetunion sehr viele Kunstschätze aus den polnischen Museen geraubt. Viele von ihnen wie z. B. der Jüngling von Raffael sind bis heute nicht wieder aufgetaucht. In der Volksrepublik war der Sozrealismus vorherrschend. Gleichwohl entwickelten Künstler wie Tadeusz Kantor, Piotr Potworowski, Władysław Hasior oder Nikifor Krynicki eigene Kunstrichtungen. Mittlerweile ist die Kunst wieder entpolitisiert. Architektur. Die ersten erhaltenen Architekturdenkmäler Polens sind Hügelgräber ("kopiec") und kultische Steinzirkel. Die christliche Architektur kam als Vorromanik im 9. Jahrhundert nach Polen. In diesem Stil wurden die Burgen und Kirchen der Polanen gebaut. In der Romanik wurden die ersten Kathedralen in Gnesen, Krakau, Breslau, Kolberg und Posen, Rotunda (z. B. Cieszyn, Krakau), Wehrkirchen (z. B. Strzelno) und Zisterzienser-Klöster errichtet (z. B. Tyniec). Im Zeitalter der Gotik dominierte in Polen die Backsteingotik im Norden und eine gemischte Backstein-Kalksteingotik im Süden, insbesondere in Krakau. Der größte gotische Backsteinbau der Welt ist die Marienburg am Nogat und die größte Backsteinkirche der Welt ist die Marienkirche in Danzig. Das goldene Zeitalter Polens begann in der Spätgotik und reichte über die Renaissance und den Manierismus bis in den Frühbarock. Aus dieser Zeit (1350–1650) stammen die bedeutendsten Bauwerke Polens, allen voran das königliche Wawelschloss in Krakau. Dieses wurde von den Adeligen in ganz Polen hundertfach mehr oder weniger originalgetreu nachgebaut. Zu den bedeutendsten Renaissance-Schlössern zählen Baranów Sandomierski, Krasiczyn, Łańcut, Janowiec, Krzyżtopór, Pieskowa Skała, Sucha Beskidzka, Brzeg, Nowy Wiśnicz, Ogrodzieniec. Das Zentrum der Renaissance war Südpolen, insbesondere die Region um Kleinpolen und die Gegenden um Lemberg. Gleichzeitig entwickelte sich am Übergang zwischen Spätgotik und Renaissance auch die bürgerliche Architektur in den Städten, die viele schöne Kirchen und Rathäuser sowie Gebäude anderer öffentlichen Einrichtungen, wie z. B. das Collegium Maius der Krakauer Universität, hervorbrachte. Vor allem in Krakau kann man die typisch polnische Renaissancearchitektur an der polnischen Attika erkennen. In dieser Zeit kamen bedeutende italienische Architekten und Künstler aus Italien (insbesondere Florenz) nach Polen, z. B. Bartolomeo Berrecci, Santi Gucci, Francesco Florentino, Bernardo Monti, Giovanni Quadro, Mateo Gucci, die die italienische Renaissance den klimatischen Bedingungen Mitteleuropas anpassten und so einen eigenen polnischen Renaissancestil schufen, der jedoch mit seinen beliebten Arkaden der florentinischen Renaissance am nächsten kam. Viele dieser Bauwerke haben die Zeit der schwedischen Kriege im 17. Jahrhundert nur als Ruinen überdauert. In der Zeit des reifen Barocks trat die neue Hauptstadt Warschau als Mittelpunkt hervor. Der bedeutendste Architekt dieser Zeit war der aus den Niederlanden stammende Tylman van Gameren, der Hunderte von Schlössern in ganz Polen projektierte. Große Paläste im Versailler Stil entstanden in Warschau (z. B. das Königsschloss, der Wilanów-Palast, Präsidentenpalast, Krasiński-Palast) sowie in und um Masowien (z. B. Białystok, Puławy, Rogalin, Kozłówka, Nieborów) sowie in Ostpolen. Der Spätbarock und das Rokoko sind von der Zeit der Sachsenkönige und des letzten polnischen Königs Stanisław Poniatowski geprägt. Damals entstanden in Warschau zahlreiche Kirchen (Visitantinnen-Kirche, St.-Anna-Kirche, Heilig-Kreuz-Kirche), Gärten (Łazienki-Park, Sächsischer Garten, Krasiński-Park, Ujazdowski-Park) und Paläste. In den letzten Jahren der Regentschaft des letzten polnischen Königs Stanisław Poniatowski begann die Epoche des Klassizismus. In diesem Stil wurde das damals größte Theatergebäude der Welt von Antonio Carozzi in Warschau errichtet. Dazu kamen die Gebäude der Warschauer Wertpapierbörse und der Polnischen Bank. Im Łazienki-Park entstanden viele Schlösser und Villen in diesem Stil. Die Zentren der polnischen Architektur des 19. Jahrhunderts waren Warschau und Łódź, wo viele Bürgerhäuser und Schlösser im Stil des Historismus und später der Sezession errichtet wurden. Auch in Südpolen gibt es viele Baudenkmäler aus dieser Zeit, wie z. B. das neogotische Collegium Novum der Jagiellonen-Universität in Krakau. Eine eigene Spielart der Sezession Junges Polen entwickelte sich ebenfalls dort. Der Erste Weltkrieg brachte viele Zerstörungen in Südpolen. Viele öffentliche Gebäude wurden im Art Deco Stil wiederaufgebaut oder neu gebaut. Hierzu zählt z. B. das neue Sejmgebäude oder die Nationalmuseen in Warschau und Krakau. Die bisher größte Zerstörung der polnischen Bausubstanz brachte der Zweite Weltkrieg. Warschau wurde systematisch zerstört, die Baudenkmäler in Ostpolen kamen an die Sowjetunion und alle größeren Städte Polens bis auf Krakau wurden durch Kriegshandlungen erheblich beschädigt. Der Wiederaufbau in der Nachkriegszeit wurde mustergültig aufgenommen – die polnischen Restauratoren genießen Weltruhm – und ist aber auf absehbare Zeit nicht abzuschließen. Die Altstadt und die Neustadt von Warschau sowie das Weichselviertel Mariensztat wurde in den 1970er Jahren und das Königsschloss in den 1980er Jahren wiederaufgebaut. Einige Paläste sind in den 1990er Jahren wieder erstanden. Demnächst soll mit dem Wiederaufbau der Sächsischen und Brühlschen Paläste und der Wiedererrichtung der Gärten des Königsschlosses begonnen werden. Die Bausubstanz des 19. Jahrhunderts im Zentrum um die Marszałkowska-Straße, die Aleje Jerozolimskie und die Świętokrzyska-Straße scheinen aber für immer verloren. An ihrer Stelle entstanden monumentale Gebäude im Stil des Sozrealismus, allen voran der Kulturpalast, der Platz der Verfassung und das Vorzeigeviertel MDM. In den 1990er Jahren begann ein Bauboom von Wolkenkratzern, die von namhaften Architekten wie z. B. Norman Foster, Daniel Libeskind entworfen wurden. Insbesondere die Johannes-Paul-II.-Allee ist von moderner Architektur umgeben. Fernsehen. Neben den öffentlich-rechtlichen Fernsehkanälen von Telewizja Polska (TVP; dt. "Polnisches Fernsehen") gibt es zwei weitere ebenfalls landesweit und flächendeckend empfangbare bedeutsame private Fernsehkanäle wie TVN und Polsat. Bis 1992 besaß nur das öffentlich-rechtliche Fernsehen eine Sendeerlaubnis. 1992 kam Polsat hinzu, 1997 folgte TVN. Der polnische Fernsehmarkt hat sich seit den 1990er Jahren bis heute kontinuierlich weiterentwickelt, sodass die früheren wichtigsten Anbieter TVP, TVN und Polsat von einzelnen Kanälen zu Paketen aus mehreren Kanälen ausgebaut wurden. So findet man in jedem Paket jedes Anbieters zusätzlich auch einen Nachrichten-, Kultur-, Dokumentation-, Spielfilm- und Sportsender. Die Landschaft an öffentlich-rechtlichen regionalen Kanälen ist der in Deutschland ähnlich. Es gibt 16 selbstständige staatliche Kanäle mit regionaler Ausrichtung ("Die Dritten"). Fernsehsender mit dem größten Marktanteil war 2012 TVP1 mit 15,41 Prozent. Es folgten Polsat (13,97 %), TVN (13,93 %) und TVP2 (12,56 %). Rundfunk. Die öffentlich-rechtliche polnische Hörfunkanstalt Polskie Radio betreibt die drei wichtigsten landesweit empfangbaren staatlichen Radioprogramme. Diese sind "Jedynka" ("Das Erste") mit Schwerpunkt auf Politik, Kultur, Reportagen, "Dwójka" ("Das Zweite") als Kultursender sowie "Trójka" ("Das Dritte") vor allem für jüngere Menschen. Es wird auch ein dichtes Netz aus 17 staatlichen regionalen Radiosendern betrieben. Die staatliche Rundfunkanstalt hat in den 1990er Jahren ernstzunehmende Konkurrenz durch die privaten Radiosender Radio Zet (ein landesweiter Sender) und RMF FM (Netz aus ca. 20 regionalen Sendern) bekommen, die sich bei 15- bis 35-Jährigen größter Beliebtheit erfreuen. Eine Besonderheit der polnischen Medienlandschaft ist die Existenz stark religiös ausgerichteter Sender wie TV Trwam und Radio Maryja, welche unter katholisch-konservativen Rentnern gehört werden. Den größten Marktanteil konnte 2004 RMF FM mit 23,95 Prozent verbuchen. Es folgten Radio Zet (21,41 %), Polskie Radio 1 (15,51 %), Polskie Radio 3 (5,32 %) und Radio Maryja (2,39 %). Die Hörfunk- und Fernsehsender werden von einer staatlichen Aufsichtsbehörde, der Krajowa Rada Radiofonii i Telewizji (dt. "Landesrat für Radio und Fernsehen") lizenziert und überwacht. Print- und Internetmedien. Auflagenstärkste überregionale Tageszeitungen sind Gazeta Wyborcza, Rzeczpospolita und die Boulevardzeitung Fakt. Zu den auflagenstärksten meinungsbildenden Wochenmagazinen gehören Wprost, Polityka und Newsweek Polska. Die wichtigste polnische Presseagentur ist die Polska Agencja Prasowa (PAP). Für englischsprachige Leser erscheinen die Warsaw Voice und das Warsaw Business Journal. Dagegen ist die deutschsprachige polen-rundschau nicht sehr weit verbreitet. 1990 gab es 3.007 Zeitschriften, die Zahl wuchs bis 1999 auf 5.444. Die Zahl der Tageszeitungen sank von 1990 bis 2000 von 130 auf 66. Auflagenstärkste war 2004 Fakt. Die bekanntesten Internetportale sind Onet.pl, Wirtualna Polska und Interia.pl. Bräuche. Ikone des Heiligen Nikolaus aus dem 15. Jahrhundert Nationale und regionale Bräuche werden vor allem auf dem Land aufrechterhalten. Sie sind mit den verschiedenen Religionen, besonders der römisch-katholischen, verbunden. Wichtig sind die Feste der verschiedenen religiösen Gemeinschaften: Sternsinger, Wigilia und Pasterka an Weihnachten, Friedhofsfeiern an Allerheiligen, das Fronleichnamsfest in Łowicz, der Palmsonntag, die Mysterienspiele in Kalwaria Zebrzydowska, das kaschubische Bootsfest, der Dominikaner Jahrmarkt in Danzig, aber auch das orthodoxe Jordanfest in Drohiczyn und das muslimisch-tatarische Kurban Bajram in Bohoniki. Pilgerfahrten erfreuen sich nach wie vor großer Beliebtheit, etwa die katholischen Wallfahrten nach Tschenstochau, Heiligelinde, Licheń Stary, Kalwaria Zebrzydowska, Łagiewniki und zum St. Annaberg, aber auch die jüdischen Grabbesuche der chassidischen Mystiker "Elimelech" aus Leżajsk und "Moses Remuh" aus Krakau und die orthodoxe Wallfahrt nach Grabarka. Viele der lokalen Bräuche und Riten stehen in Zusammenhang mit den Jahreszeiten (z. B. die Zuwasserlassung der Wianki, die Versenkung der Marzanna und der Krakauer Lajkonik). Kunstwerke, die mit den Bräuchen verbunden sind, umfassen die Ikonenmalerei vor allem in Podlachien, Lublin und dem Karpatenvorland, Schnitzereien mit religiösen ("Jezus Frasobliwy") und weltlichen Motiven sowie die Stickereien – Koronki. Bekannt sind auch Trachten, insbesondere die aus Krakau und die der Goralen. Daneben gibt es viele traditionelle Bräuche der Lebensmittelherstellung, wie z. B. der Schafskäse Oscypek, die Krakauer Brezel Obwarzanek und Krakauer Würste. Von den traditionellen Bräuchen in der Architektur sind die Wegkapellen zu nennen, vor allem in den Beskiden und Masowien. Verbunden mit dem polnischen Brauchtum sind auch die traditionelle Musik (jüdische Klezmer, Kammermusik, Mazurkas, Polonaisen, Krakowiaks und Polkas) sowie der Tanz (u. a. die Tanzensembles Mazowsze, Śląsk und Słowianki), das traditionelle Theater sowie die Mundartdichtung der Goralen, Kaschuben und Schlesier. Essen und Trinken. Die polnische Küche ist vielschichtig und vor allem mit den Küchen der östlichen Nachbarländer Polens verwandt, weist aber auch zu den mitteleuropäischen und skandinavischen Küchen einige Parallelen auf. In den Eigenheiten der polnischen Küche spiegeln sich die historische Adelskultur und die bäuerliche Kultur des Landes ebenso wider wie seine geographischen Gegebenheiten. Freizeit, Tourismus und Sport. Aufgrund der vielen Seen und der langen sandigen Meeresküste sind Wassersportarten wie Segeln (u. a. Große Masurische Seen), Surfen (u. a. Hel), Tauchen (u. a. Danziger Bucht), Kajak (u. a. auf den Flüssen Krutynia, Czarna Hańcza, Drawa), Schwimmen und Angeln in Polen sehr beliebt. Hausbooturlaub ist auf den revitalisierten Wasserwegen auch ein touristischer Faktor geworden. Die Polen nutzen die vielen Wälder auch gerne zum Pilze sammeln. In den Bergen wird viel gewandert und Alpin Ski und Snowboard gefahren (u. a. Hohe Tatra, Beskiden, Riesengebirge). Rafting ist auf dem Gebirgsflüssen, vor allem dem Dunajec im Pieniny-Durchbruch, sehr beliebt. Auch Segel- und Ballonfliegen ist in den Beskiden populär. Skispringen (u. a. Zakopane, Wisła) erfreut sich in Polen großer Beliebtheit. Langlauf, Hundeschlittenfahren und Eissegeln werden in den Waldkarpaten und Masuren praktiziert. Gleichwohl stehen beim polnischen Sportfan Fußball, Volleyball, Handball, Basketball, Speedway und Schwimmen am höchsten im Kurs. An den verschiedenen international bedeutenden Straßenläufen nehmen zunehmend auch Volksläufer teil. Das Schachspiel hat in Polen eine lange Tradition. Am 18. April 2007 wurde Polen zusammen mit der Ukraine von der UEFA zum Ausrichter der Fußball-Europameisterschaft 2012 bestimmt. Pfadfinder. Ein Pfadfinder ist ein Angehöriger einer internationalen, religiös und politisch unabhängigen Erziehungsbewegung für Kinder und Jugendliche, die Menschen aller Nationalitäten und Glaubensrichtungen offensteht. Ziel der Pfadfinderbewegung ist die Förderung der Entwicklung junger Menschen, damit diese in der Gesellschaft Verantwortung übernehmen können. Das erste Pfadfinderlager wurde 1907 von Robert Baden-Powell, einem britischen General, auf der englischen Insel Brownsea Island durchgeführt. Baden-Powell entwickelte aus den Erfahrungen dieses Lagers in seinem 1908 erschienenen Buch Scouting for Boys eine eigenständige Methodik, die als Pfadfindermethode bezeichnet wird. In der ersten Hälfte des 20. Jahrhunderts breitete sich die Pfadfinderbewegung auf der ganzen Welt aus. Sie wurde schon nach wenigen Jahren in drei Altersstufen gegliedert, um altersgerechte Lern- und Erlebnisräume zu schaffen. Zur Pfadfinderbewegung gehörten 2011 weltweit mehr als 41 Millionen Kinder und Jugendliche aus 216 Ländern und Territorien in zahlreichen nationalen und internationalen Jugendverbänden, die im Wesentlichen in zwei weltweiten Dachverbänden zusammengeschlossen waren: der World Association of Girl Guides and Girl Scouts und der World Organization of the Scout Movement. Etwa 300 Millionen Menschen haben bis heute der Pfadfinderbewegung angehört. Nur in sechs Staaten gab es 2009 keine Pfadfinderverbände: Andorra, Volksrepublik China, Kuba, Laos, Myanmar und Nordkorea. Pfadfindermethode. Zur Umsetzung seiner Erziehungsziele entwickelte Baden-Powell, der Gründer der Pfadfinderbewegung, eine eigenständige Methodik, die als "Pfadfindermethode" bezeichnet wird. Diese Methode wenden alle Pfadfinderverbände an. Die Bedeutung einzelner Elemente gewichten die (Dach)-Verbände unterschiedlich. Im Folgenden wird die Umsetzung der Pfadfindermethode in der World Organization of the Scout Movement (WOSM) dargestellt. Die Beschreibungen von Ziel, Prinzipien und Methode können aber zu großen Teilen auch auf die World Association of Girl Guides and Girl Scouts (WAGGGS) und auf Pfadfinderverbände, die weder WAGGGS noch WOSM angehören, übertragen werden. WOSM definiert in ihrer Ordnung die Pfadfinderbewegung als „eine freiwillige, nicht-politische Erziehungsbewegung für junge Menschen, die offen ist für alle, ohne Unterschiede von Herkunft, Rasse oder Glaubensbekenntnis, übereinstimmend mit dem Ziel, den Prinzipien und der Methode, die vom Gründer der Bewegung entwickelt wurden.“ "Ziel der Pfadfinderbewegung" ist es, „zur Entwicklung junger Menschen beizutragen, damit sie ihre vollen körperlichen, intellektuellen, sozialen und geistigen Fähigkeiten als Persönlichkeiten, als verantwortungsbewusste Bürger und als Mitglieder ihrer örtlichen, nationalen und internationalen Gemeinschaft einsetzen können.“ Anstelle von „Pflicht gegenüber Gott“ wird häufig auch von einer Verpflichtung gegenüber einer höheren Macht gesprochen, um nicht-monotheistische Religionen einzubeziehen. Die Pfadfindermethode umfasst die genannten vier Elemente als Ganzes, wenn einzelne Elemente weggelassen werden, wird nach Auffassung von WOSM keine Pfadfinderarbeit mehr geleistet. „Pfadfindergesetz“ (in einigen Verbänden: Pfadfinderregeln) und „Pfadfinderversprechen“ dienen vor allem der Verpflichtung auf die gemeinsamen Werte der Pfadfinderbewegung, wobei das in allen Verbänden ähnliche Pfadfindergesetz das Wertesystem festlegt, während durch das persönlich abzulegende Versprechen die Selbstverpflichtung des Einzelnen auf diese Werte und die Bindung an die Pfadfinderbewegung verstärkt werden. Mit der Betonung des „Learning by Doing“ (Lernen durch Tun) wird das erfahrungs- und handlungsorientierte Lernen als zentrale Lernmethode der Pfadfinderbewegung festgelegt. Hauptziel der „Bildung kleiner Gruppen“ wie beispielsweise der Sippen ist die frühzeitige Übernahme von Verantwortung und die Erziehung zu Selbstständigkeit, um zur Entwicklung der Persönlichkeit beizutragen. Damit werden die Anerkennung von Verantwortlichkeit, Selbstvertrauen, Zuverlässigkeit und Bereitschaft zur Zusammenarbeit und Führung gefördert. Die „fortschreitenden und attraktiven Programme verschiedenartiger Aktivitäten“ bewirken dabei eine stufenweise, auf bereits erworbenen Erfahrungen aufbauende Erweiterung des jeweiligen Horizonts und eine langfristige Bindung an die jeweilige Gruppe. Zu den Aktivitäten können Spiele, der Erwerb sinnvoller Fertigkeiten und der Dienst im Gemeinwesen gehören; sie finden meist in engem Kontakt mit Natur und Umwelt statt und sollen die Interessen der Teilnehmer berücksichtigen. Um die unterschiedlichen Aktivitäten in ein einheitliches Arbeitsprogramm einzubinden, haben viele Pfadfinderverbände aufeinander aufbauende Abzeichen- und Stufensysteme entwickelt. Gründung und weltweite Ausbreitung. a>, Gründer der Pfadfinderbewegung, ca. 1925. "Scouting for Boys", Titelblatt der 2. Lieferung, 1907. 1899 veröffentlichte der englische General Baden-Powell für die britische Armee das Buch „Aids to Scouting“ (Anleitung zum Kundschafterdienst), das wegen Baden-Powells Heldenstatus aus dem zweiten Burenkrieg bei den Jugendlichen in England großes Interesse auslöste. Als Baden-Powell 1903 nach seiner Rückkehr nach England feststellte, dass überall nach seinem Buch „Kundschafter“ gespielt wurde, begann er, aus diesem Spiel ein – heute würde man sagen erlebnispädagogisches – Konzept zur Jugenderziehung zu entwickeln. Zur Erprobung dieses Konzepts veranstaltete er vom 31. Juli bis zum 9. August 1907 ein erstes Lager auf Brownsea Island. Daran nahmen 22 Jungen aus verschiedenen sozialen Schichten teil. Sie trugen einheitliche Uniformen, um die sozialen Unterschiede zu verdecken. Aufbauend auf diesen Erfahrungen veröffentlichte Baden-Powell 1908 eine für Jugendliche überarbeitete Version von „Aids to Scouting“ unter dem Titel Scouting for Boys. In diesem Buch benannte er den Ritter St. Georg, der einen Drachen getötet haben soll, als Schutzpatron der Pfadfinder. Nach seinem Vorbild sollten Pfadfinder ritterlich und ehrlich handeln, anderen Menschen Freund sein, Hilfsbedürftige und Schwache unterstützen und die Umwelt schützen. Obwohl das in „Scouting for Boys“ Dargestellte eigentlich nur die Methodik der schon existierenden Jugendverbände ergänzen sollte, entstanden auch außerhalb dieser Verbände viele Pfadfindergruppen. Um diese Bewegung in England zusammenzufassen, wurde noch 1908 die Boy Scout Association gegründet. Gleichzeitig entstanden in vielen anderen Ländern ebenfalls Pfadfindergruppen, so dass es schon vor dem Ersten Weltkrieg auf allen Kontinenten – mit Ausnahme der Antarktis – Pfadfindergruppen gab. Für diesen großen Erfolg und die rasche Ausbreitung der Pfadfinderidee gab es mehrere Gründe. Maßgeblich in Großbritannien, den Dominions und den britischen Kolonien waren die gezielten Pressekampagnen und die Lobbyarbeit, die Baden-Powell gemeinsam mit Arthur Pearson, dem Verleger von „Scouting for Boys“, betrieb. Schon vor der Publikation versandten beide zahlreiche Werbebriefe an Persönlichkeiten des öffentlichen Lebens in Großbritannien, unter anderem auch an Angehörige des Königshauses. Gleichzeitig mit der Buchveröffentlichung wurde die wöchentlich erscheinende Jungenzeitschrift „Scouting“ gestartet, die schon Ende 1908 eine Auflage von 110.000 Exemplaren erreichte. Daneben entstanden weitere Pfadfinderzeitschriften, die ähnliche Auflagen erzielten. Die durch diese Kampagnen erzielte Begeisterung wurde auch außerhalb von Großbritannien wahrgenommen und in Presseveröffentlichungen herausgestellt. Dieses Interesse führte in Verbindung mit dem als Erziehungsziel wahrgenommenen Ideal des „guten Staatsbürgers“, das bürgerliche Wertvorstellungen bediente, zur Gründung von Pfadfinderverbänden in anderen Ländern, meist durch Pädagogen oder an der Erziehung interessierten Menschen. Zum Export der Pfadfinderidee in andere Länder existieren auch einige Anekdoten, so die vom unbekannten Pfadfinder, der den späteren Gründer der Boy Scouts of America durch den Londoner Nebel führte und dafür keine Belohnung annahm mit der Begründung: „I’m a Scout. (Ich bin Pfadfinder.)“ Unterstützt wurde die rasche Ausbreitung dadurch, dass etwa gleichzeitig die Jugend als eigenständige Lebensphase entdeckt wurde und verschiedene pädagogische Konzepte zum Umgang mit dieser Altersstufe entstanden. Parallel zur Pfadfinderbewegung entstanden weitere Jugendverbände und -organisationen, wie beispielsweise der Christliche Verein Junger Männer, der deutsche Wandervogel oder die Arbeiterjugendbewegung. In Deutschland fiel die Gründungsphase der Pfadfinderbewegung zeitlich mit der ersten Phase der Reformpädagogik und ihren Schulgründungen zusammen. Ausbau der Pfadfinderbewegung. Das erste große Pfadfindertreffen fand 1909 mit mehr als 11.000 Teilnehmern im Crystal Palace in London statt. Baden-Powell war überrascht, als er dort auch Mädchen traf, die sich als Pfadfinderinnen bezeichneten, da sich sein Erziehungskonzept nur an Jungen richtete. Für die Mädchen wurden deshalb 1910 die "Girl Guides" (Pfadfinderinnen; in den USA "Girl Scouts") gegründet, die von seiner Schwester Agnes Baden-Powell geleitet wurden. 1912 übernahm Olave Baden-Powell, Baden-Powells Frau, diese Aufgabe. Da sich bald auch Jungen unter 12 Jahren den Pfadfindergruppen anschließen wollten, wurde 1914 für sie die Wölflingsarbeit eingeführt, deren Arbeitsformen sich stärker am Spiel orientieren. Für die älter werdenden Pfadfinder wurde 1919 als dritte Altersstufe die Roverarbeit entwickelt, deren Kern der Dienst an der Gemeinschaft ist. Im selben Jahr schenkte William De Bois Maclaren das Gelände von Gilwell Park der Boy Scouts Association, das diese als Ausbildungszentrum für Pfadfinderführer nutzte. Bereits sechs Wochen nach der Übergabe fand dort der erste Woodbadgekurs für Leiter statt. 1920 wurde in London für die männlichen Pfadfinder das "Boy Scouts International Bureau" gegründet, in dem die Pfadfinderverbände weltweit zusammenarbeiteten und das später seinen Namen in World Organization of the Scout Movement (WOSM) änderte. Für die internationale Zusammenarbeit zwischen den Pfadfinderinnen war bereits 1919 der "International Council" entstanden, aus dem 1928 die World Association of Girl Guides and Girl Scouts (WAGGGS) hervorging. 1941 starb Baden-Powell mit fast 84 Jahren in Nyeri in Kenia. In seinem letzten Brief hinterließ er der Pfadfinderbewegung ihren bis heute wohl wichtigsten Satz: "„Versucht, die Welt ein bisschen besser zurückzulassen, als ihr sie vorgefunden habt.“" Seine Frau Olave, seit 1932 "Chief Guide of the World", starb 1977. Veranstaltungen und Zentren. Nur zwei Jahre nach dem Ende des Ersten Weltkriegs fand 1920 in London das erste Weltpfadfindertreffen statt. An diesem World Scout Jamboree nahmen etwa 8000 Pfadfinder aus 27 Ländern teil. Sie ernannten Baden-Powell spontan zum "Chief Scout of the World". Seitdem werden in der Regel im Vier-Jahres-Rhythmus Jamborees abgehalten. Weitere wichtige World Scout Jamborees waren das 1947 nach der durch den Zweiten Weltkrieg erzwungenen Pause abgehaltene "Jamboree de la Paix" in Frankreich und das "Jubilee Jamboree" 1957 in England zum fünfzigsten Jubiläum der Pfadfinderbewegung und hundertsten Geburtstag von Baden-Powell. 1979 fiel das World Scout Jamboree wegen der islamischen Revolution im Iran erstmals seit dem Zweiten Weltkrieg aus. Stattdessen wurde ein "World Jamboree Year" durchgeführt. Am World Scout Jamboree 1983 in Kanada durften erstmals Mädchen aus koedukativen WOSM-Mitgliedsverbänden teilnehmen. 1931 fand in Kandersteg das erste World Scout Moot für Rover statt, ein Treffen der älteren Pfadfinder. 1939 trafen sich in Ungarn 4000 Pfadfinderinnen zum ersten Weltlager der Pfadfinderinnen "Pax Ting". Seit 1957 führt WAGGGS keine Weltlager mehr durch. Neben die World Scout Jamborees und die World Scout Moots traten in der zweiten Hälfte des 20. Jahrhunderts zwei jährlich abgehaltene internationale Veranstaltungen, an denen Gruppen von ihrem Heimatort aus teilnehmen können: 1958 das Jamboree-on-the-Air, bei dem über Funk kommuniziert wird, und 1997 das Jamboree On The Internet. Parallel zum Aufbau dieses Netzwerks von Veranstaltungen entstanden zahlreiche Pfadfinderzentren, von denen die wichtigsten von den Weltverbänden betrieben werden. Im schweizerischen Kandersteg wurde 1923 das International Scout Chalet als Weltzentrum von WOSM gegründet. WAGGGS eröffnete 1932 mit Our Chalet in Adelboden in der Schweiz sein erstes Weltzentrum, 1939 folgte "Our Ark" in London (1963 in "Olave House" umbenannt, 1990 aufgegeben). Dazu kamen 1957 "Our Cabaña" in Morelos in Mexiko, 1966 "Sangam" in Pune in Indien und 1990 "Pax Lodge" in London (als Ersatz für "Olave House"). Zu den Zentren mit weltweiter Bedeutung zählt auch der oben schon erwähnte Gilwell Park, obwohl er auch heute noch dem britischen Pfadfinderverband gehört. Modernisierung und Abspaltungen. Bereits in der Gründungsphase der Pfadfinderbewegung entstanden in vielen Ländern mehrere konkurrierende Pfadfinderverbände, die in der Regel keinen längeren Bestand hatten, da ihre Mitgliederzahl zu gering für eine dauerhafte Selbständigkeit war oder sie sich in Dachverbänden zusammenschlossen. Außerhalb Deutschlands kam es erst ab den 1960er Jahren zu einer erneuten und sich verstärkenden Aufsplitterung in verschiedene Pfadfinderverbände, die aber nur einen geringen Anteil an der Gesamtzahl aller Pfadfinder ausmachen. Hauptgrund für diese Entwicklung waren die Modernisierungsbestrebungen der großen Verbände, die von Einzelnen als Aufgabe der ursprünglichen Pfadfindermethode nach Baden-Powell wahrgenommen wurden. Aus diesen Gegenbewegungen entstanden unter anderem zwei kleine internationale Dachverbände. 1956 wurde in Köln die "Fédération du Scoutisme Européen" gegründet, die 1978 nach einer Neuausrichtung in Union Internationale des Guides et Scouts d’Europe umbenannt wurde. Sie fördert insbesondere die religiöse Bindung und Ausrichtung der Pfadfindergruppen. 1996 entstand die World Federation of Independent Scouts, deren Ziel es ist, Pfadfinderverbänden, die nicht Mitglied von WOSM oder WAGGGS sind, ein internationales Dach zu bieten. Die Reaktionen auf diese Abspaltungen fielen und fallen sehr unterschiedlich aus, auf nationaler Ebene reichen sie von der Zusammenarbeit mit ihnen über das Ignorieren der Gruppen bis hin zu Gerichtsverfahren um den in einigen Ländern als Marke geschützten Begriff Pfadfinder. WOSM erkennt diese Verbände in der Regel als Pfadfinder an, bedauert aber ihre Nichtmitgliedschaft in einem einheitlichen Weltverband. Pfadfinder in totalitären Staaten: Zwischen Verbot und Kollaboration. In totalitären Staaten wurden wiederholt die Pfadfinderverbände verboten, in die staatlichen Jugendorganisationen eingegliedert oder unter staatliche Kontrolle gestellt. Da in den zwei letzten Fällen in der Regel die politische Unabhängigkeit des betroffenen Verbandes eingeschränkt wurde, suspendierten die Weltverbände WAGGGS und WOSM die jeweiligen Verbände oder schlossen sie ganz aus. Die Begründung für die Verbote oder die staatlichen Kontrollmaßnahmen fielen in Abhängigkeit vom politischen System des jeweiligen Staates sehr unterschiedlich aus. In sozialistischen Staaten wurde der Pfadfinderbewegung vorgeworfen, sie sei eine bürgerliche reaktionäre Bewegung, während in durch den Faschismus geprägten Staaten argumentiert wurde, durch ihre Internationalität sei die Pfadfinderbewegung sozialistisch geprägt. Insbesondere die aus den sozialistischen Staaten geflüchteten Pfadfinder gründeten Exilverbände, von denen einige noch heute existieren. Zum Teil sind diese Gruppen an die jeweiligen Nationalverbände des Gastlandes angeschlossen worden, andere blieben selbstständig. Nach dem Fall des Eisernen Vorhangs wurde 1990 von WOSM ein Informationsbüro in Moskau gegründet. In allen ehemals sozialistischen Staaten entstanden daraufhin Pfadfindergruppen, die oft an die Traditionen aus der Zeit vor ihrem Verbot anknüpften. Häufig wurde dieser Neuaufbau von den Exilgruppen unterstützt. Unter staatliche Kontrolle gestellt wurden kurz nach dem Zweiten Weltkrieg beispielsweise die polnischen und jugoslawischen Verbände, die daraufhin ihr Erziehungssystem an staatlichen Vorgaben orientieren mussten. Sie wurden deshalb aus WOSM ausgeschlossen. In Polen entstanden im staatlich kontrollierten Pfadfinderverband parallele Untergrundstrukturen, die weiterhin nach der ursprünglichen Pfadfindermethode arbeiteten. Entwicklung im deutschsprachigen Raum. Die Pfadfinderbewegung erreichte bereits kurz nach ihrer Gründung in England im Jahre 1907 den deutschsprachigen Raum. In fast allen deutschsprachigen Ländern entstanden noch vor dem Ersten Weltkrieg Pfadfindergruppen, die sich in unterschiedlichen, häufig nach Geschlechtern und Konfessionen getrennten Verbänden zusammenschlossen. Während sich in fast allen Ländern die Pfadfinderverbände bis zum Zweiten Weltkrieg gleichmäßig auf der Grundlage von "Scouting for Boys" und eng an das englische Ausbildungssystem angelehnt weiterentwickelten, schlug das deutsche Pfadfindertum (und in geringerem Umfang auch das österreichische) durch den Kontakt mit der Wandervogel-Bewegung einen Sonderweg ein: Die Pfadfinderbünde wurden Teil der Jugendbewegung, sie verschmolzen die Formen des englischen Scoutismus mit denen des Wandervogels. Dies hatte zur Folge, dass sich innerhalb der Bünde unterschiedliche Erneuerungsbewegungen entwickelten, die zur Abspaltung und Vereinigung verschiedenster kleinerer und größerer Bünde führten. Die so genannte Bündische Jugend mit einer Vielzahl von Pfadfinder-, Wandervogel- und Jungenschafts-Bünden entstand. Nach der Machtergreifung der Nationalsozialisten wurden 1933 und 1934 in Deutschland die nichtkonfessionellen Pfadfinderverbände aufgelöst und ihre Mitglieder in die Hitlerjugend überführt. Die konfessionellen Verbände konnten sich unter starker Einschränkung ihrer Arbeit länger halten, wurden aber bis spätestens 1938 ebenfalls von der Gestapo verboten. Während des Zweiten Weltkriegs ereilte das gleiche Schicksal die Pfadfinderverbände in den vom Deutschen Reich besetzten Ländern. Nach dem Zweiten Weltkrieg wurden in allen Ländern die Pfadfinderverbände wieder aufgebaut. Nur in der Sowjetischen Besatzungszone beziehungsweise später der Deutschen Demokratischen Republik blieb die Pfadfinderarbeit weiterhin verboten, der einzige erlaubte Jugendverband war die Freie Deutsche Jugend, deren Kinderorganisation, die Pionierorganisation Ernst Thälmann, der Pfadfinderbewegung nachempfunden war. In fast allen deutschsprachigen Ländern schlossen sich die Pfadfinderverbände zu Dachverbänden oder Gesamtorganisationen zusammen, um allen Pfadfinderinnen und Pfadfindern die Mitgliedschaft in den Weltverbänden WAGGGS und WOSM zu ermöglichen. Dennoch setzte in der Bundesrepublik Deutschland nach der ersten Aufbauphase wieder eine zunehmende Zersplitterung der Pfadfinderbewegung ein, zuerst erneut am Konflikt "scoutistisch – bündisch" festzumachen, später verstärkt in der Auseinandersetzung zwischen "traditionellen" und "progressiven" Pfadfindern, da sich viele Verbände angeregt durch den gesellschaftlichen Wertewandel gegen Ende der 1960er Jahre auch politisch engagieren. Im letzten Drittel des 20. Jahrhunderts öffneten sich die meisten Pfadfinderinnen- und Pfadfinderverbände für das jeweils andere Geschlecht oder fusionierten mit ähnlich ausgerichteten Gruppen zu koedukativen Verbänden. Nach der politischen Wende in der DDR wurden dort ab 1990 auch Pfadfindergruppen aufgebaut. Zu großen Teilen wurden sie von den westdeutschen Verbänden angeregt oder orientierten sich an ihnen. Die meisten neuen Gruppen schlossen sich diesen auch sehr bald an, in einigen Gebieten entstanden aber auch eigenständige Verbände. Insgesamt ist die Anzahl und Größe der Pfadfindergruppen im Osten Deutschlands bis heute deutlich geringer als in vergleichbaren westdeutschen Gebieten. Etwa gleichzeitig mit der Ausweitung in den Osten Deutschlands entstanden insbesondere in Deutschland verschiedene freikirchliche Pfadfinderverbände, die zum Teil sehr schnell und stark wuchsen. Zu ihnen gehören mit den Royal Rangers und den Christlichen Pfadfinderinnen und Pfadfindern der Adventjugend auch zwei internationale Verbände mit Gruppen in Österreich und der Schweiz. Weltweite Strukturen. Innerhalb der Weltpfadfinderbewegung gibt es zwei getrennte große Weltverbände: die World Organization of the Scout Movement (WOSM; etwa 31 Millionen Mitglieder in 161 Ländern), die ursprünglich nur die männlichen Pfadfinder aufnahm, sich seit etwa 1990 aber als koedukativer Verband versteht, und die World Association of Girl Guides and Girl Scouts (WAGGGS; etwa 10 Millionen Mitglieder in 144 Ländern) für Pfadfinderinnen, wobei in Einzelfällen auch Jungen und Männer aufgenommen werden. Beide Weltverbände nehmen jeweils nur ein nationales Mitglied auf; deshalb sind aus Staaten mit mehreren Pfadfinderverbänden häufig Dachverbände Mitglied bei WOSM und WAGGGS. Koedukative Verbände meldeten vor 1990 meist die männlichen Mitglieder bei WOSM und die weiblichen bei WAGGGS an, heute wird diese Verfahrensweise von WOSM nicht mehr akzeptiert, eine auf beide Organisationen aufgeteilte Mitgliedermeldung wird bei der Neuaufnahme von Mitgliedsverbänden abgelehnt. WOSM und WAGGGS kooperieren in vielen Arbeitsfeldern, setzen aber wegen der Unterschiede bei den Mitgliedsorganisationen, insbesondere wegen der unterschiedlichen gesellschaftlichen Interessen ihrer Mitglieder unterschiedliche Schwerpunkte. Während WOSM sich als globale Erziehungsbewegung versteht, legt WAGGGS großes Gewicht auf die rechtliche und reale Gleichstellung von Frauen und Mädchen und sieht sich vor allem als Emanzipationsbewegung. Diese unterschiedlichen Ausrichtungen wirken sich auch auf die Arbeitsformen der Weltverbände aus. So führt WAGGGS beispielsweise keine Weltlager mehr durch, die internationale Arbeit konzentriert sich stärker auf Schulungen und Seminare in den vier Weltzentren und den Thinking Day. Die zwei großen Weltverbände gliedern sich in Regionen, die meist den Kontinenten entsprechen. Diese führen eigene Veranstaltungen durch. Innerhalb von WOSM und WAGGGS gibt es Arbeitsgemeinschaften von Pfadfinderverbänden, die ähnliche gelagerte Arbeit leisten oder mit ähnlichen Problemen konfrontiert sind. Ein Schwerpunkt dieser Kooperationen liegt im religiösen Bereich. Neben den zwei großen Weltverbänden WOSM und WAGGGS existieren mehrere kleine unabhängige Verbände, die ihren Mitgliedsverbänden die Teilhabe an der internationalen Gemeinschaft der Pfadfinder ermöglichen. Zu ihnen gehören die World Federation of Independent Scouts (WFIS; etwa 35.000 Mitglieder in 40 Ländern), die Union Internationale des Guides et Scouts d’Europe (UIGSE; etwa 70.000 Mitglieder in 20 Ländern), die Confédération Européenne de Scoutisme (CES; in sechs Ländern vertreten) und der Order of World Scouts (OWS; in 14 Ländern vertreten). Nur in sechs Staaten (Kuba, Andorra, Volksrepublik China – mit Ausnahme von Hongkong und Macau –, Nordkorea, Laos, Myanmar) gibt es nach Angaben von WOSM keine Pfadfinderverbände. Nationale Pfadfinderverbände. Für die nationalen Zusammenschlüsse der Pfadfinder gibt es weltweit zwei Grundmodelle. Insbesondere im englischsprachigen Raum verbreitet ist der Typus des großen Pfadfinderverbandes, zu dem nahezu alle Pfadfindergruppen des Landes gehören. In diesen können die einzelnen Ortsgruppen (in Deutschland meist als Stamm bezeichnet) dann entscheiden, ob sie sich schwerpunktmäßig auf Kinder und Jugendliche einer Religion konzentrieren oder ob sie offen für alle sind. In Kontinentaleuropa und den frankophonen Ländern orientieren sich dagegen Pfadfinderverbände häufig an den einzelnen Konfessionen und Religionen; in der Regel schließen sich diese konfessionellen Verbände dann wie in Deutschland und Frankreich zu nationalen Dachverbänden zusammen, über die die Mitgliedschaft bei WOSM und WAGGGS organisiert ist. Altersstufen und Arbeitsformen. "Details zur Einteilung der Altersstufen innerhalb eines Verbandes finden sich in der Regel im jeweiligen Artikel." In einigen Verbänden gibt es noch die Biberstufe, die vor den Wölflingen kommt. Während jedoch auch schon mit den Wölflingen pfadfinderisch gearbeitet wird, handelt es sich dabei jedoch um eine reine Spielgruppe. Eigenständige Leiter- und Erwachsenen-Stufen finden sich nur bei einem kleinen Teil der Pfadfinderverbände, sehr häufig verlassen Erwachsene ohne Leitungsaufgabe die Verbände und schließen sich einer Altpfadfindergilde an. Eine besondere Form der Erwachsenenarbeit ist die in Deutschland in einigen evangelischen Verbänden geübte Kreuzpfadfinderarbeit. Neben den „klassischen“ Pfadfindergruppen gibt es in vielen Ländern besondere Arbeitsbereiche, wie beispielsweise Seepfadfinder oder Luftpfadfinder. Die Arbeitsform Pfadfinder Trotz Allem (PTA) (in Österreich: "Pfadfinder Wie Alle" (PWA)) richtet sich an Menschen mit verschiedenen Behinderungsformen. Pfadfinderverbände im deutschsprachigen Raum. Die unten aufgeführten Pfadfinderverbände im deutschsprachigen Raum gliedern sich unterhalb der nationalen Ebene in Abhängigkeit von der Verbands- und Landesgröße in überregionale und regionale Zusammenschlüsse (beispielsweise: "Diözesanverbände, Landesmarken, Gaue, Bezirke, Regionen, Kantonalverbände"), die sich aus den einzelnen Stämmen (Ortsgruppen; in Österreich: Gruppen, in der Schweiz: Abteilungen) zusammensetzen. Diese wiederum umfassen meist alle Meuten (Wölflingsgruppen), Sippen (in Österreich: Patrullen, in der Schweiz: Patrouillen) und Roverrunden eines Ortes oder Stadtteils. Belgien. Die in der deutschsprachigen Gemeinschaft Belgiens aktiven Pfadfindergruppen gehören zu den miteinander kooperierenden Verbänden Les Scouts (überkonfessionell) und Guides Catholiques de Belgique (GCB) (katholisch). Die regionalen Zusammenschlüsse "Region Hohe Seen" (Les Scouts) und "Distrikt obere Weser" (GCB) umfassen sowohl die deutschsprachigen wie auch die französischsprachigen Gruppen. Beide Verbände gehören zum belgischen Dachverband Gidsen- en Scoutsbeweging in België, der Mitglied von WAGGGS und WOSM ist. Insgesamt sind in der deutschsprachigen Gemeinschaft Belgiens etwa 1.000 Pfadfinderinnen und Pfadfinder aktiv. Deutschland. a> zur 30. Weltpfadfinderkonferenz in München In Deutschland haben sich vier Verbände zum Ring Deutscher Pfadfinderinnenverbände und zum Ring deutscher Pfadfinderverbände zusammengeschlossen. Beide Ringe umfassen je einen katholischen, einen evangelischen und einen interkonfessionellen Pfadfinderverband. Dem „weiblichen“ Ring gehören die Pfadfinderinnenschaft Sankt Georg (PSG), der Verband Christlicher Pfadfinderinnen und Pfadfinder (VCP) und der Bund der Pfadfinderinnen und Pfadfinder (BdP) an, dem „männlichen“ Ring gehören die Deutsche Pfadfinderschaft Sankt Georg (DPSG), der VCP und der BdP an. Der Ring deutscher Pfadfinderverbände ist seit 1950 Mitglied von WOSM, der Ring Deutscher Pfadfinderinnenverbände wurde im gleichen Jahr von WAGGGS aufgenommen. Trotz der traditionellen Unterteilung in „weibliche“ und „männliche“ Verbände sind die genannten Verbände mit Ausnahme der PSG koedukativ. Neben den vier so genannten Ringverbänden gibt es mehr als 140 weitere Pfadfinderbünde in Deutschland. Zu den größten unter ihnen zählen der Deutsche Pfadfinderverband (DPV; ein Dachverband verschiedener interkonfessioneller Bünde), die Christliche Pfadfinderschaft Deutschlands (CPD), die Christlichen Pfadfinder Royal Rangers (RR), die Christlichen Pfadfinderinnen und Pfadfinder der Adventjugend (CPA), der Ring Evangelischer Gemeindepfadfinder (REGP) und der Deutsche Pfadfinderbund (DPB). Die Mitgliederzahlen der zehn größten deutschen Pfadfinderverbände liegen nach deren eigenen Angaben bei den in der folgenden Tabelle dargestellten Werten. Diese Zahlen gelten innerhalb der deutschen Pfadfinderbewegung als umstritten, da von den einzelnen Verbänden unterschiedliche Zählweisen und Mitgliedschaftskriterien angewendet werden. Insgesamt gibt es mehr als 260.000 Pfadfinder in Deutschland, die sich auf die in der Tabelle genannten Verbände und zahlreiche kleinere Organisationen verteilen. Das Größenspektrum reicht von der etwa 95.000 Mitglieder starken DPSG bis zu den so genannten VW-Bus-Bünden, die in besagten passen sollen. Nahezu alle deutschen Pfadfindergruppen sind in den alten Bundesländern angesiedelt, der Anteil der ostdeutschen Pfadfinder an der Gesamtzahl macht weniger als 5 % aus. Liechtenstein. Die Pfadfinder und Pfadfinderinnen Liechtensteins (PPL) haben etwa 850 Mitglieder und sind der nationale Mitgliedsverband von WOSM und WAGGGS. Die PPL sind in zehn Abteilungen (Ortsgruppen) gegliedert. Sie wurden 1931 von Alexander Frick gegründet. Luxemburg. Die luxemburgische Pfadfinderbewegung wird durch zwei Dachverbände in den Weltorganisationen vertreten. WAGGGS-Mitglied ist das Bureau de Liaison des Associations Guides du Luxembourg, dem die laïzistische Association des Girl Guides Luxembourgeoises (AGGL) und die katholischen Lëtzebuerger Guiden a Scouten (LGS) angeschlossen sind. Die Luxembourg Boy Scout Association vertritt die laïzistische Fédération Nationale des Eclaireurs et Eclaireuses du Luxembourg (FNEL) und die katholischen LGS bei WOSM. Zusammengenommen haben alle drei Verbände etwa 7500 Mitglieder. Auch in Luxemburg gibt es mehrere kleinere Verbände, unter ihnen die „Royal Rangers“. Österreich. Der in Österreich von WAGGGS und WOSM anerkannte Verband heißt Pfadfinder und Pfadfinderinnen Österreichs (PPÖ). Er hat circa 85.000 Mitglieder in 300 Gruppen (Stand 2008). Die PPÖ gliedern sich in neun Landesverbände, diese wiederum in Bezirke/Regionen/Kolonnen, denen die einzelnen Gruppen angehören. Neben den PPÖ existiert mit dem Österreichischen Pfadfinderbund (ÖPB) ein zweiter landesweiter Pfadfinderverband mit etwa 3000 Mitgliedern. Der ÖPB und die PPÖ haben 1995 einen Kooperationsvertrag vereinbart. Außerdem existiert die Pfadfindergilde, der die Altpfadfinder der PPÖ und des ÖPB angehören. Daneben gibt es noch kleinere Pfadfinderverbände, zu denen die „Katholische Pfadfinderschaft Europas – Österreich“, die „Royal Rangers“, die Adventwacht (ADWA), die „AP-Scouts“, die „Europa Scouts“ und die „Pfadfinder in Niederösterreich“ gehören. Schweiz. Der Verband der Pfadfinder und Pfadfinderinnen in der Schweiz heißt Pfadibewegung Schweiz (PBS). Sie ist Mitglied von WOSM und WAGGGS. Die PBS gliedert sich in 22 Kantonalverbände. Diese sind jeweils wieder in Bezirke, Korps oder Regionen aufgeteilt, welche wiederum die rund 700 Abteilungen unter sich vereinen. Momentan hat die PBS rund 42.000 Mitglieder (Stand 2015) und ist die größte Kinder- und Jugendorganisation der Schweiz. Neben der PBS gibt es noch einige kleinere Gruppierungen, die nicht Mitglied der zwei Weltverbände WAGGGS und WOSM sind. Zu ihnen gehören die „Schweizerische Pfadfinderschaft Europas/Scoutisme Européen Suisse“, der „Feuerkreis Niklaus von Flüe“ und die „Royal Rangers“. Außerdem unterhalten einige ausländische Verbände wie die Boy Scouts of America und verschiedene skandinavische Verbände eigene Gruppen in der Schweiz. Südtirol (Italien). In Südtirol existiert mit der Südtiroler Pfadfinderschaft ein deutschsprachiger Pfadfinderverband mit etwa 600 Mitgliedern, der sich in seiner Arbeit an der DPSG orientiert. Er ist über die Associazione Guide e Scouts Cattolici Italiani (AGESCI) Mitglied der Federazione Italiana dello Scautismo (FIS) und damit von WOSM und WAGGGS. Zusätzlich unterhalten auch AGESCI und der zweite Mitgliedsverband der FIS, das Corpo Nazionale Giovani Esploratori ed Esploratrici Italiani (CNGEI), eigene italienischsprachige Gruppen in Südtirol. Symbole. Das Symbol der männlichen Pfadfinder ist die Lilie, graphisch wird aber eigentlich eine Fleur-de-Lis verwendet, das der weiblichen ein Kleeblatt. Die Lilie wird teilweise auch als geschlechterübergreifendes Symbol für alle Pfadfinder verwendet. Besondere Einflüsse in Deutschland. Zwischen 1918 und 1933 wurden die Pfadfinder in Deutschland stark von der Jugendbewegung und damit von den Ideen der Wandervogel-Bewegung und der Bündischen Jugend beeinflusst. Diese Einflüsse wirken heute in der deutschen Pfadfinderbewegung fort. Vor allem darin unterscheiden sich die heutigen deutschen Pfadfinder von den Pfadfinderverbänden anderer Länder. Allerdings gibt es innerhalb der deutschen Pfadfinderbewegung Unterschiede, wie stark und auf welche Weise die einzelnen Gruppen durch die Jugendbewegung beeinflusst sind. Insgesamt hat sich dadurch in der deutschen Pfadfinderbewegung ein stärkerer Bezug auf Arbeit in der Natur und Abenteuer als in anderen Ländern erhalten. Weblinks. Pfadfinderportale und große Verbände im deutschsprachigen Raum Plankalkül. Der Plankalkül ist eine von Konrad Zuse in den Jahren 1942 bis 1946 entwickelte Programmiersprache. Es war die erste höhere Programmiersprache der Welt. Beschreibung. Die Programmiersprache umfasst unter anderem Zuweisungen, Funktionsaufrufe, bedingte Anweisungen, Schleifen, Gleitkommaarithmetik, Felder, zusammengesetzte Datentypen und andere besondere Merkmale wie zielgerichtete Ausführung. Die ursprüngliche Notation der Programme erfolgte zweidimensional: Für Indizes und Typangaben waren gesonderte Zeilen vorgesehen. Für die erste reale Implementierung in den 1990er Jahren wurde eine lineare Umschrift entwickelt. (Z1[:8.0] < V1[:8.0]) → V1[:8.0] → Z1[:8.0] Geschichte. Konrad Zuse nutzte bei der Entwicklung des Plankalküls die Arbeiten zum Lambda-Kalkül von Alonzo Church und Stephen Kleene aus den 1930er Jahren. Er wollte die Sprache auf einem Nachfolgemodell seiner Z3-Rechenanlage einsetzen, aber durch die Ereignisse des Zweiten Weltkriegs kam es nicht mehr dazu. Literaturhinweise finden sich zwar schon Ende der 1940er Jahre, aber erst 1972 wurde die Sprache erstmals komplett veröffentlicht. Im Rahmen einer Dissertation wurde Plankalkül 1975 von J. Hohmann beschrieben und implementiert. Ende der 1990er Jahre folgten unabhängige alternative Implementierungen (1998 und zwei Jahre später eine weitere an der Freien Universität Berlin), inklusive eines Syntax-Editors. Plankalkül kommt im Bereich der Programmiersprachen vor allem eine historische Bedeutung zu. Praktisch verwendet wurde die Sprache nicht. Pflanzen. Pflanzen (Embryophyta) sind eine Lebewesen-Gruppe in der Domäne der Eukaryoten, also der Lebewesen, die Zellkern und Zellmembran besitzen. Zu den Pflanzen zählen die Moose und die Gefäßpflanzen. Das Teilgebiet der Biologie, das sich wissenschaftlich mit der Erforschung der Pflanzen befasst, ist die Botanik. Nach heutigen Schätzungen existieren auf der Erde zwischen rund 320.000 und 500.000 Pflanzenarten, nach der International Union for Conservation of Nature (IUCN) 380.000, von denen rund ein Fünftel vom Aussterben bedroht sind. Merkmale. Die Pflanzen zeichnen sich durch einen Generationswechsel aus, bei dem sich eine haploide sexuelle und eine diploide vegetative Generation abwechseln (heterophasischer Generationswechsel). Bei den rezenten Pflanzen sind die beiden Generationen unterschiedlich gestaltet (heteromorpher Generationswechsel). Bei den Moosen dominiert der haploide Gametophyt, während bei den Gefäßpflanzen der diploide Sporophyt dominiert. a> als Beispiel für den Wechsel zwischen haploider Gametophyten-Generation und diploider Sporophyten-Generation bei den Pflanzen Die sexuelle Generation, der Gametophyt, bildet spezielle, mehrzellige Sexualorgane aus, die von mehreren sterilen Zellen umgeben sind. Die männlichen Organe sind die Antheridien und die weiblichen die Archegonien. Die Eizellen verbleiben in den Archegonien und werden hier befruchtet. Bei den Bedecktsamern sind die Gametophyten und damit auch die Antheridien und Archegonien extrem reduziert. Der Sporophyt wird zunächst als mehrzelliger Embryo angelegt, der an der Mutterpflanze verbleibt und von dieser ernährt wird. Häufig stellt er ein Ruhestadium dar. Der Sporophyt ist stets vielzellig. Die Pflanzen sind wie alle Vertreter der Chloroplastida, zu denen sie gehören, fast alle phototroph, decken also ihren Energiebedarf aus Licht. Weiterhin sind sie autotroph, das heißt, sie benötigen zum Aufbau der zum Wachsen und Lebensunterhalt notwendigen organischen Stoffe lediglich anorganische Stoffe, als Kohlenstoffquelle verwenden sie in der Regel ausschließlich Kohlenstoffdioxid. Der Aufbau dieser Stoffe mit Licht als Energiequelle wird als Photosynthese bezeichnet. Man bezeichnet Pflanzen als photoautotroph (phototroph und autotroph). Nicht autotrophe Vertreter sind stets abgeleitete Formen. Dies sind einige mykotrophe Pflanzen, die heterotroph von Pilzen leben (z. B. einige Orchideen, Corsiaceae, Burmanniaceae), die im Laufe der Evolution ihr Chlorophyll (Blattgrün) verloren haben, und einige heterotrophe Vollschmarotzer auf anderen Pflanzen (z. B. Rafflesiaceae, einige Orobanchaceae und Convolvulaceae). Die Basalkörper der Geißeln besitzen eine eigentümliche viellagige Struktur aus Mikrotubuli sowie eine Verankerung im Cytoskelett. Die Mitose ist offen, während der Zellteilung wird ein Phragmoplast gebildet. Pyrenoide fehlen meist. Weitere Merkmale, die auch viele andere Vertreter der übergeordneten Taxa Charophyta oder Chloroplastida besitzen, sind Chloroplasten mit Chlorophyll a und b als Photosynthesepigmente und Carotinoide als akzessorische Pigmente, Stärke als Reservepolysaccharid und Zellwände aus Zellulose. Die Sporenwand enthält Sporopollenin, die Sporophyten bilden eine Cuticula. Darüber hinaus sind Pflanzen in der Lage, miteinander, aber im Wurzelbereich auch mit Pilzen, Bakterien und anderen Mikroorganismen zu kommunizieren. Die Kommunikationsprozesse sichern zum einen die Verfügbarkeit geeigneter Nährstoffe, zum anderen aber auch die kurz-, mittel- und langfristige Koordination und Organisation von Wachstums- und Entwicklungsprozessen in all ihren Detailschritten. Größe. Die Größe von Pflanzen ist sehr unterschiedlich, von Pflanzen im Millimetermaßstab bis zum mehr als 100 Meter hohen Küstenmammutbaum ("Sequoia sempervirens"). Pflanzenarten werden entsprechend ihrer Größe in "Makrophyten" und "Mikrophyten" eingeteilt: Ein Makrophyt ist mit bloßen Auge sichtbar, ein Mikrophyt nur mit optischen Hilfsmitteln. Systematik. Gemäß der aktuellen Eukaryoten-Systematik von Adl u. a. (2012) zählen die Vertreter der Grünalgen und Rotalgen, die lange zusammen mit den "Landpflanzen" (Embyrophyten) gemeinsam zu den Pflanzen im weiteren Sinne gerechnet wurden, nicht mehr zu den Plantae. Somit entsprechen die Plantae lediglich den Embryophyten, umfassen also die Moose und die Gefäßpflanzen. Äußere Systematik. Die manchmal vertretene Ansicht, es gebe mehrere Abstammungslinien der Pflanzen aus den Algen heraus, wurde bereits durch morphologische Studien als unwahrscheinlich erkannt. Dies wird auch durch molekularbiologische Studien nicht gestützt und daher heute kaum mehr vertreten. Innere Systematik. Die Hornmoose wären demnach die Schwestergruppe der Gefäßpflanzen. Neben molekularbiologischen Studien weisen auch mehrere den Hornmoosen im Vergleich zu den anderen Moosen eigentümliche Merkmale auf die nahe Verwandtschaft zu den Gefäßpflanzen hin: die Sporophyten der Hornmoose sind relativ groß, langlebig und photosynthetisch aktiv, also relativ selbständig. Damit nehmen sie eine Zwischenstellung zwischen den anderen Moosen mit ihren vom Gametophyten abhängigen Sporophyten und den Gefäßpflanzen mit ihren völlig unabhängigen Sporophyten ein. Für eine detailliertere Übersicht über das Pflanzenreich, siehe Systematik des Pflanzenreichs. Systematik fossiler Vertreter. Zwischen den Moosen (nicht dargestellt) und den Gefäßpflanzen gibt es also noch einige Gruppen ausgestorbener Pflanzen. Polysporangiophyten. Die Polysporangiophyten umfassen die gesamte oben dargestellte Klade und umfassen alle Landpflanzen, die nicht zu einer der Moosgruppen gezählt werden. Ihre gemeinsamen abgeleiteten Merkmale (Synapomorphien) sind: verzweigte Sporophyten mit mehreren Sporangien; der Sporophyt ist unabhängig vom Gametophyten. Die Archegonien sind in den Gametophyten eingesenkt, dies ist aber auch bei den Hornmoosen der Fall. Zu den Vertretern der Polysporangiophyten gehören als basalste Gruppe die Horneophytopsida mit "Horneophyton". Eine isoliert stehende Art ist "Aglaophyton major". Die übrigen Vertreter gehören zu den Gefäßpflanzen (Tracheobionta), deren basale Gruppe die Rhyniopsida sind. Geschichte der Definition. Die Pflanzen galten lange Zeit neben den Tieren und den Mineralien als eines der drei Naturreiche. Noch Carl von Linné gliederte seine "Systema naturae" dementsprechend. Auch Ernst Haeckel schloss in seine Gruppe der Plantae die Pilze, Flechten, die Cyanobakterien sowie sehr verschiedene Algengruppen ein. Auch die Bakterien wurden lange Zeit, obwohl sie weit überwiegend nicht phototroph sind und viele von ihnen sich aktiv bewegen, zu den Pflanzen gerechnet, weil die meisten von ihnen feste Zellwände besitzen. Während die Botanik sich weiterhin mit all diesen Gruppen beschäftigt, wurde die Definition der Pflanzen später auf diejenigen Landpflanzen und Grünalgen eingeengt, die sich durch die Chlorophylle a und b, Stärke als Reservepolysaccharide und Zellulose in der Zellwand auszeichnen. Heute werden die Pflanzen verschieden definiert: Manche Systeme beziehen die Grünalgen in die Pflanzen ein, andere Systeme, so das hier verwendete, fassen die Lebewesen mit den oben angeführten Merkmalen in den Chloroplastida zusammen und beschränken die Pflanzen auf die Landpflanzen (Embryophyta). Bedeutung für den Menschen. Die Nutzung der Pflanzen begann in der Frühzeit des Menschen mit dem Sammeln. Heute werden Pflanzen für den menschlichen Gebrauch überwiegend als Kulturpflanzen angebaut (Landwirtschaft). Einen Grenzfall stellt die Nutzung des Holzes aus Wäldern dar. Die Ernährung des Menschen basiert vollständig auf Pflanzen, entweder durch den direkten Verzehr, oder indirekt durch den Verzehr von pflanzenfressenden Tieren oder Tierprodukten. Die weltweit wichtigsten Nutzpflanzen sind Weizen, Reis, Mais und Kartoffeln. Von der großen Anzahl der kultivierten Nutzpflanzen trägt nur ein kleiner Anteil die Hauptlast der menschlichen Ernährung (Grundnahrungsmittel). Pflanzen tragen zur Versorgung der Atemluft mit Sauerstoff bei. Die klassische Form der Energiegewinnung aus Pflanzen ist das Verbrennen. Die Verwendung von Feuer ist eine der ganz frühen Errungenschaften des Menschen. Wichtigstes Brennmaterial ist Holz. Auch die bergmännisch gewonnene Kohle ist ein pflanzlicher Brennstoff. Eine zunehmende Bedeutung gewinnen die aus Pflanzen gewonnenen Kraftstoffe, zum Beispiel Biodiesel. Traditionell werden Pflanzen zu verschiedenen Zwecken für den menschlichen Gebrauch verarbeitet. Pflanzen sind das wichtigste Ausgangsmaterial zur Herstellung von Kleidung und Papier. Sie werden zu vielerlei Werkzeugen verarbeitet. Pflanzen, insbesondere ihr Holz, sind ein unverzichtbares Baumaterial. Viele Pflanzen werden seit altersher als Färberpflanzen eingesetzt, da sie Inhaltsstoffe enthalten, die zum Färben genutzt werden können. Als einige der bekanntesten so genutzten Pflanzen seien genannt: Färberwaid, Indigolupine, Färberginster, Färberdistel, Saflor und Färberkrapp. Seit jeher werden Pflanzen nicht nur als Grundnahrungsmittel gegessen. Viele Pflanzen und Pflanzenprodukte werden auch als Genussmittel genutzt, wie etwa Kräuter und Gewürze zum Verfeinern von Speisen. Beispiele für pflanzliche Genussmittel mit großer wirtschaftlicher Bedeutung sind Kaffee, Tee, Tabak und der aus verschiedensten Pflanzen gewonnene Alkohol. Genussmittel im weiteren Sinn sind auch die rauscherzeugenden Drogenpflanzen, die oft zu den Giftpflanzen gezählt werden. Vor dem Aufkommen synthetischer Arzneimittel spielten Pflanzen und Pflanzenextrakte eine Schlüsselrolle als Heilmittel. Auch heute noch sind in vielen zugelassenen Arzneimitteln pflanzliche Stoffe enthalten. Eine zentrale Bedeutung haben Heilpflanzen in der Volksmedizin, insbesondere in der Form von Kräutertees. Zierpflanzen werden aus ästhetischen Gründen angepflanzt, beispielsweise zur Begrünung von Bauwerken. Die meisten Zimmerpflanzen gehören in diese Kategorie. Beliebte Familien sind Bromelien und Orchideen. Sehr häufig werden aromatische Pflanzen auch ihres Duftes wegen angepflanzt, wie es bei duftenden Blumen − insbesondere den Rosen − der Fall ist. Psychologie. Psychologie (psychología, wörtlich: Seelenkunde; "psyché" ‚Hauch‘, ‚Seele‘, ‚Gemüt‘ und -logie als Lehre bzw. Wissenschaft) ist eine empirische Wissenschaft. Sie beschreibt und erklärt das Erleben und Verhalten des Menschen, seine Entwicklung im Laufe des Lebens und alle dafür maßgeblichen inneren und äußeren Ursachen und Bedingungen. Da Empirie nicht alle psychologischen Phänomene erfasst, ist auch auf die Bedeutung der geisteswissenschaftlichen Psychologie zu verweisen. Psychologie ist als Wissenschaft bereichsübergreifend. Sie lässt sich weder den Naturwissenschaften noch den Sozialwissenschaften oder Geisteswissenschaften allein zuordnen. Eine Anthropologie im weitesten Sinn bildet ihre Grundlage. Eine aus dem angelsächsischen Raum stammende Einteilung untergliedert Psychologie im Sinne der "Behavioural sciences" in Verhaltenswissenschaft, Kognitionswissenschaft und Neurowissenschaft. Neben der akademischen Psychologie existiert eine "Alltagspsychologie." Sie ist vereinzelt Gegenstand der akademischen Disziplin, von der hier die Rede ist. Sie bedient sich ursprünglich akademisch-psychologischer Konzepte und Begriffe, die in die Alltagssprache eingeflossen sind, und beruft sich gerne auf den sogenannten „gesunden Menschenverstand“. Dessen Erkenntnisse genügen nicht den wissenschaftlichen Ansprüchen, etwa hinsichtlich ihrer Objektivität, Reliabilität und Validität. Psychologen sind Personen, deren Berufsbild durch die Anwendung psychologischen Wissens charakterisiert ist. Das Führen dieser Bezeichnung kann in einigen Ländern an ein entsprechendes akademisches Studium und einen bestimmten akademischen Grad gebunden sein. Ursprung und Geschichte. "Psychologie" wurde als eigenständige akademische Disziplin Anfang des 19. Jahrhunderts in damaligen wissenschaftlichen Zentren Deutschlands wie Leipzig und Königsberg begründet. In Leipzig gründete Wilhelm Wundt gemeinsam mit Gustav Theodor Fechner 1879 (zunächst als Privatinstitut) das "Institut für experimentelle Psychologie". Um diese beiden sammelte sich binnen kurzer Zeit ein Kreis engagierter junger Forscher, zu denen unter anderem Emil Kraepelin, Hugo Münsterberg, Granville Stanley Hall und James McKeen Cattell gehörten. 1883 wurde das Institut offizielles Universitätsinstitut. Insbesondere Johann Friedrich Herbart, ab 1809 Nachfolger Immanuel Kants auf dessen Königsberger Lehrstuhl, bemühte sich mit zahlreichen Veröffentlichungen um eine eigene "Lehre der Psychologie" (siehe die entsprechenden Angaben dazu in dem Namensartikel zu Herbart 1816, 1824, 1839–1840 und 1840). Dies ist deshalb nicht so geläufig, da Herbart vornehmlich als Begründer der wissenschaftlichen Pädagogik gilt. Dennoch ist die Bedeutung Herbarts für beide Disziplinen nicht zu unterschätzen. Wissenschaftler heutiger Zeit entdecken bisweilen, dass scheinbare neue Entwicklungen sich schon in Ansätzen bei Herbart und zeitgenössischen Wissenschaftlern finden. 1896 verwendete Sigmund Freud zum ersten Mal den Begriff Psychoanalyse. Die Tierpsychologie (heute: Verhaltensforschung) sonderte sich im frühen 20. Jahrhundert unter Konrad Lorenz als eigenständiges Fach von der Psychologie ab. Sie ging ebenfalls maßgeblich vom ehemaligen Lehrstuhl Kants aus. Standortbestimmung. Entgegen ihrem Bild und dem Verständnis in der Öffentlichkeit ist die in den akademischen Institutionen betriebene und gelehrte Psychologie eine streng empirische Wissenschaft. Als empirische Wissenschaft vom Erleben und Verhalten obliegt es der Psychologie, Theorien und daraus abgeleitete Modelle, Hypothesen, Annahmen für die Beantwortung einer konkreten Fragestellung usw. mit geeigneten wissenschaftlichen Methoden empirisch zu prüfen. Die Methodik ist überwiegend naturwissenschaftlich, mithin quantitativ, in Verbindung mit experimentellem oder quasi-experimentellem Vorgehen. Daher stellen die Mathematik, insbesondere die Deskriptive Statistik, die Stochastik – hier besonders die Induktive Statistik und die statistischen Testverfahren – sowie zunehmend Ansätze der Systemtheorie – insbesondere die mathematische Systemanalyse – die wichtigsten Werkzeuge der Psychologen dar. Als empirische Humanwissenschaft unterscheidet sich Psychologie von verwandten Forschungsgebieten anderer Fächer, die zum Teil eigene „Psychologien“ inkorporieren, wie beispielsweise Philosophie, Soziologie, Pädagogik, Anthropologie, Ethnologie, Politikwissenschaft, Wirtschaftswissenschaften, Allgemeinen Linguistik, Medizin oder Biologie, durch naturwissenschaftlich-experimentelle Ausrichtung: "Mentale Prozesse," konkrete "Verhaltensmechanismen" sowie "Interaktionen" von mentalen Prozessen und dem Verhalten von Menschen werden beschrieben und erklärt, wobei Überschneidungen bis hin zur gegenseitigen Interdisziplinarität möglich sind. Diese Abgrenzung kann als eine erweiterte Definition der Psychologie gelesen werden. Methodisch finden sich heute neben den naturwissenschaftlichen Ansätzen auch solche der empirischen Sozialwissenschaften. Eine Schwerpunktsetzung schwankt je nach Ausrichtung eines psychologischen Fachbereiches. Vorherrschend sind hier quantitative Methoden, wiewohl auch qualitative Methoden zum Repertoire gehören, zum Beispiel Grounded Theory oder Inhaltsanalyse. Die Trennung zwischen qualitativer und quantitativer Sozialforschung ist nicht immer eindeutig: Die Psychologie unterscheidet eher zwischen primär naturwissenschaftlichen und primär sozialwissenschaftlichen methodischen Ansätzen, die sehr oft neben den quantitativen in einer gewissen Art und Weise auch qualitative Aspekte beinhalten. Eine Trennung zwischen natur- und sozialwissenschaftlichen Ansätzen ist nicht immer eindeutig möglich. Insbesondere bei mathematischen und statistischen Modellierungen ist, wie sonst in der quantitativ geprägten psychologischen Arbeitsweise, das Vorgehen nicht zwingend deduktiv. Wenig bekannt ist, dass in der Psychologie wie in anderen Naturwissenschaften und der Medizin auch Tierversuche durchgeführt werden, sowohl im Rahmen der psychologischen Grundlagenforschung, vornehmlich der Allgemeinen und der Biopsychologie als auch zum Beispiel in der Klinischen Psychologie. Schon in den 1920er Jahren, vor allem im Rahmen der Lernforschung durchgeführt, wurden sie grundlegender Bestandteil der Aggressions-, Stress- und Angstforschung, später auch der Depressionsforschung und der Wahrnehmungsforschung. Insbesondere bei neuropsychologischen Fragestellungen wurden sie nochmals, besonders in Form von Läsionsexperimenten, verstärkt eingesetzt. Heute werden sie vornehmlich in Forschungen zur Psychoneuroendokrinologie und -immunologie, zur Umweltpsychologie, zur Ernährungspsychologie und zum Beispiel auch in der Erforschung selbstverletzenden Verhaltens, vor allem aber in der Sucht­forschung eingesetzt. Auch psychologische Tierexperimente unterliegen weltweit strengen ethischen Standards. Was Psychologie als moderne Wissenschaftsdisziplin nicht ist. Die Auffassung über Psychologie als Wissenschaft unterliegt einem historischen Wandlungsprozess, immer im Spannungsfeld zwischen Geistes- und Naturwissenschaften liegend. Eine rein „geisteswissenschaftlich“ verstandene Psychologie lässt sich am ehesten aus der deutschen Philosophie als „verstehenden Psychologie“ (Wilhelm Dilthey) ableiten. Die Psychologie ist nach moderner Auffassung nur insoweit eine „Geisteswissenschaft“, zumindest bezogen auf die englische Bedeutung der „Humanities“, als sie sich mit dem Menschen, genauer gesagt mit den ausgewählten Aspekten des Menschseins, eben dem zu beobachtenden Erleben und Verhalten, befasst. Dabei darf nicht übersehen werden, dass bis weit ins 19. Jahrhundert hinein die Psychologie ein Teil der Philosophie war und als „spekulative“ oder „rationale“, also nicht-empirische, Psychologie meist der Metaphysik zugeordnet wurde. Der deutsche Aufklärungsphilosoph Christian Wolff setzte dieser „rationalen“ Psychologie bereits eine „empirische“ entgegen, meinte damit aber eine introspektive, also nach heutigem Sprachgebrauch gerade nicht empirische Psychologie. Wiewohl anfangs die Introspektion anerkannte Methode in den frühen psychologischen Experimenten war und erst später wegen erkannter methodischer Probleme und besserer indirekter Beobachtungsmethoden – besonders durch die Gestaltpsychologie der Würzburger Schule – aus dem Repertoire der Psychologie weitgehend verschwand. Im Unterschied zu den Begriffen Seele oder Geist als Synonyme für Psyche sind sie im metaphysischen beziehungsweise theologischen Sinn nicht Gegenstand der heutigen Psychologie. Bei ihrer Begründung im 19. Jahrhundert wurden metaphysische Elemente explizit ausgeklammert, jedoch deren Gegenstände – natürlich mit Beschränkung auf im gewählten methodischen Zugang auch untersuchbare Bereiche – in Kombination damals neuer Methoden der Biologie und Physik, später auch der modernen Inferenzstatistik, erforscht. Die Ausgestaltung der Psychologie als eine eigene akademische Disziplin geht einher mit der durchaus kompromisshaften Lösung methodologischer Probleme, die schon innerhalb der Philosophie lange Zeit heftig diskutiert wurden, wie beispielsweise auch von Immanuel Kant. Möglich wurde dies durch neue Erkenntnisse der Experimentalphysik und Neuerungen insbesondere der Biologie, genauer: der Sinnesphysiologie des 19. Jahrhunderts. Dadurch bedingt, beschränkt sich die Psychologie in ihrer Arbeitsweise wie auch in ihrem Anspruch ("Psychologie ist keine Universalwissenschaft der „menschlichen Seele“ oder „des Menschlichen“"); wesentlich ist also "auch" ein vornehmlich der Physik und besonders der Biologie entlehnter Reduktionismus. Außerhalb dieses Vorgehens bleiben die methodologischen Probleme bestehen, sodass auch nach heute gültigen mehrheitlich vertretenen wissenschaftstheoretischen Ansichten Psychologie als eine eigene Wissenschaftsdisziplin nur unter diesen Prämissen, analog insbesondere zu den Naturwissenschaften, möglich ist. Insofern bestehen Gebiete mit stärker „spekulativen“ oder „metaphysisch“ geprägten „psychologischen Ansätzen“ oder "Seelenlehren," zum Beispiel eingebettet innerhalb der Philosophie und Theologie, teilweise auch in den Kulturwissenschaften und vereinzelt in der Soziologie weitgehend unabhängig von der akademischen Psychologie fort. Psychologie ist auch nicht – insbesondere im Hinblick auf die Darstellung ihrer Geschichte – mit dem Gebiet der Philosophie des Geistes zu verwechseln. Nach einem weiteren populären Irrtum beschäftigt sich die Psychologie hauptsächlich mit gestörtem Verhalten und „psychischen Problemen“. Tatsächlich stellt die Klinische Psychologie aber nur einen Teilbereich der Angewandten Psychologie dar. Verhältnis zur Psychotherapie und Psychoanalyse (bzw. Tiefenpsychologie), Psychiatrie und Psychosomatik. Die Psychotherapie beschäftigt sich mit der Heilung bzw. Behandlung der erkrankten Seele. Um als Psychotherapeut in Deutschland tätig werden zu dürfen, ist eine Approbation nötig. Diese setzt grundsätzlich neben einem einschlägigen wissenschaftlichen Hochschulstudium in Psychologie oder Medizin (im letzteren Fall mit Approbation zum Arzt) auch eine entsprechende, gesetzlich geregelte Weiterbildung voraus. Auch wenn das Fach Klinische Psychologie absolviert wurde, dürfen daher Psychologen ohne entsprechende Approbation nicht als Psychotherapeuten tätig sein. In Deutschland ist mithin zwischen einem (bloßen) Psychologen und einem Psychologischen Psychotherapeuten bzw. zwischen einem (bloßen) Arzt und einem Ärztlichen Psychotherapeuten zu differenzieren. Für Ärzte gibt es mehrere Wege, die Qualifikation zum Psychotherapeuten zu erlangen. Darüber hinaus existiert das Berufsbild eines Kinder- und Jugendlichenpsychotherapeuten. Unter gewissen Voraussetzungen dürfen auch Heilpraktiker Psychotherapie betreiben. Ein Psychoanalytiker ist in den meisten Fällen ein Psychologe oder Arzt, der nach dem jeweiligen Studium eine Weiterbildung in Psychoanalyse abgeschlossen hat. Die Psychoanalyse ist Teil der Tiefenpsychologie und wurde durch Sigmund Freud begründet. Das Spezifische der Psychoanalyse ist ihre Ausrichtung auf die Erforschung des Unbewussten. Psychoanalytische Konzepte spielen in der Entwicklungspsychologie, der Pädagogischen Psychologie, der Klinischen Psychologie, der Sozialpsychologie, sowie in der Differentiellen- und Persönlichkeitspsychologie eine Rolle. In der internationalen Psychotherapie stellt die Psychoanalyse in vielen modifizierten Formen keine einzelne, vielmehr verschiedene Behandlungsverfahren für Psychische Störungen dar. Gleichzeitig ist die Psychoanalyse nicht nur eine Behandlungsmethode der Psychotherapie, sondern auch ein Modell des Menschen im Sinne von Heuristiken durch Induktion. Die Psychoanalyse nach Sigmund Freud sowie die Theorien anderer Vertreter einer Tiefenpsychologie wie Carl Gustav Jung oder Alfred Adler spielen in der heutigen Psychologie an den meisten deutschen Universitäten eine Nebenrolle, an vielen naturwissenschaftlichen Fakultäten wird an den psychologischen Instituten die Psychoanalyse (im Gegensatz zu kultur- und geisteswissenschaftlichen Fakultäten) praktisch ausgeklammert und häufig wissenschaftshistorisch aufgrund des Induktionsproblems kritisiert. Nach dem Zweiten Weltkrieg avancierten tiefenpsychologische Ansätze innerhalb der Psychologie kurzzeitig zum Forschungsparadigma. Insbesondere in den Bereichen Motivation und Kognition gab es Versuche, tiefenpsychologische Annahmen in der Modellbildung zu berücksichtigen. Einiges konnte nach den vorherrschenden wissenschaftstheoretischen Vorstellungen in weiterführende Modelle integriert und weiter differenziert werden und einiges konnte anders oder zumindest sparsamer erklärt werden (siehe Ockhams Rasiermesser). In der Regel entfernen sich Ansätze dieser Art jedoch sehr weit von den theoretischen und praktischen Konzepten der Psychoanalyse. Die Psychoanalyse wird oft als unwissenschaftlich abgelehnt, z. B. durch Karl Popper, der sie als Pseudowissenschaft klassifizierte. Gleichwohl gibt es heutzutage Bestrebungen seitens der Psychoanalyse, sich der Forderung nach wissenschaftlicher Überprüfbarkeit zu stellen. Besonders deutlich wurde dies in Deutschland durch die Umwandlung des Sigmund-Freud-Instituts Frankfurt zur reinen Forschungseinrichtung, die Gründung der International Psychoanalytic University Berlin, sowie durch zahlreiche Publikationen der Internationalen Psychoanalytischen Vereinigung, der Deutschen Psychoanalytischen Gesellschaft, der Deutschen Psychoanalytischen Vereinigung und der Deutschen Gesellschaft für Psychoanalyse, Psychotherapie, Psychosomatik und Tiefenpsychologie. Der Mediziner Otto F. Kernberg, der zurzeit wohl bedeutendste Vertreter der Objektbeziehungstheorie, publizierte beispielsweise über die Integration von Erkenntnissen und Vorstellungen verschiedener neurowissenschaftlicher Disziplinen mit psychoanalytischen Erklärungsmodellen. Auch in erkenntnistheoretischer Hinsicht wird der kritisch-rationalistische Standpunkt Poppers nicht unwidersprochen rezipiert. Dennoch wurde und wird die Psychoanalyse sowohl aus der Psychologie heraus wie auch von Seiten der Philosophie kritisiert; insbes. Grünbaum (1988) legte eine v. a. aus erkenntnistheoretischer Sicht grundlegende moderne Kritik an der Psychoanalyse vor. Wissenschaftliche Paradigmen. Es gab und gibt innerhalb der Psychologie viele Ansätze (Paradigmen) und Behandlungsmethoden, die darauf basieren. Die wichtigsten sind das behavioristische Paradigma, das Informationsverarbeitungsparadigma und das psychoanalytische/psychodynamische Paradigma. Ebenfalls wichtig sind das phänomenologische/humanistische Paradigma, das Eigenschaftsparadigma, das dynamisch-interaktionistische Paradigma und das soziobiologische Paradigma, die Evolutionäre Psychologie. Diese Paradigmen sind keine Teildisziplinen der Psychologie (wie etwa die Allgemeine Psychologie), sondern jedes ist ein theoretisches Konzept für die verschiedenen Teildisziplinen und Forschungsprogramme der Psychologie. Diese Ansätze, die sich in Grundannahmen und in der Methodologie unterscheiden, werden in der Regel nicht explizit erwähnt, bilden aber eine sehr wichtige Grundlage für das (korrekte) Verständnis der Psychologie, ihrer Theorien und v. a. der psychologischen Forschungsergebnisse. Heute sind innerhalb eines psychologischen Faches (einer Disziplin) in der Regel verschiedene Paradigmen gleichberechtigt (so z. B. in der aktuellen persönlichkeitspsychologischen Forschung das Informationsverarbeitende Paradigma, das Eigenschaftsparadigma und das dynamisch-interaktionistische Paradigma). Diese Komplexität der Psychologie sollte man vor allem auch in Bezug auf die einzelnen Disziplinen berücksichtigen: Es gibt eben innerhalb einer Disziplin immer verschiedene Ansätze, unter denen ein Gegenstandsbereich betrachtet werden muss, bzw. eben eine hohe methodologische Flexibilität, unter der eine Fragestellung bestmöglich wissenschaftlich-methodisch beantwortet werden kann. Zuordnung zu den unterschiedlichen Fakultäten. Die Anbindung eines psychologischen Fachbereichs an eine Fakultät (in der Regel naturwissenschaftliche, sozialwissenschaftliche oder philosophische) sagt nicht immer etwas über dessen Ausrichtung (eher naturwissenschaftlich oder eher sozialwissenschaftlich) aus. Diese Anbindungen sind in der Regel historisch und/oder verwaltungstechnisch begründet. Insofern kann man z. B. auch keine analogen Rückschlüsse über den Doktorgrad eines promovierten Psychologen ziehen; anders ausgedrückt: Man kann als Psychologe im Extrem einen Dr. phil. mit einer Dissertation in Neuropsychologie erlangen und genauso im Extrem einen Dr. rer. nat. mit einer qualitativ-sozialwissenschaftlichen Arbeit. Disziplinen. Vielfach wird innerhalb der Psychologie zwischen Grundlagen-, Anwendungs- und Methodenfächern unterschieden. Außerdem kann der empirischen Forschung sowie der Praxis der Angewandten Psychologie eine Theoretische Psychologie (Metatheorie) gegenübergestellt werden. Grundlagenfächer. Innerhalb dieser Disziplinen kann man noch zwischen solchen unterscheiden, die auch Bestandteil "anderer" Grundlagenfächer sind, und solchen, die grundlegende Erkenntnisse in spezifischen "Kontexten" liefern. Zu den ersteren gehören die Psychologische Methodenlehre, sowie die Allgemeine Psychologie und die Biopsychologie (die wiederum untereinander stark vernetzt sind), zu den letztgenannten die Sozialpsychologie, die Entwicklungspsychologie sowie die Persönlichkeits- und Differenzielle Psychologie. Die neuere Einteilung (z. B. für die Bachelor-of-Science-Studiengänge) fasst die Allgemeine und die Biologische Psychologie unter „Kognitive und biologische Grundlagen des Verhaltens und Erlebens“ zusammen, die Persönlichkeits-, Differenzielle, Sozial- und Entwicklungspsychologie unter „Grundlagen intra- und interpersoneller Prozesse“. Anwendungsfächer. Weitere Anwendungsbereiche der Psychologie bilden u. a. die Verkehrs-, Personalpsychologie, Medien-, Rechts-, Kulturvergleichende-, Geronto-, Sport-, Umwelt-, politische Psychologie, Führungspsychologie, Gesundheitspsychologie, Behavioral Finance, Werbepsychologie, Suchtprävention, etc. Methodenfächer. Grundsätzlich sind auch andere Klassifikationen psychologischer Teildisziplinen möglich, z. B. solche, die einen "Forschungsgegenstand" benennen und als Untergebiet oder Arbeitsschwerpunkt ausweisen oder diesen über alle ihn betreffende Disziplinen hinweg und zusammenfassend beschreiben (z. B. Wahrnehmungspsychologie, Emotionspsychologie u. a.), oder auch solche, die zugrunde liegende Ansätze oder besondere Aspekte von Paradigmen betonen (z. B. Verhaltenspsychologie, Evolutionäre Psychologie u. a.). Diese eher bereichsspezifischen Bezeichnungen (mit entsprechender thematischer Bündelung von verschiedenen Inhalten) finden sich auch häufig dann, wenn es um eine umfassende Vermittlung von spezifischen Inhalten und weniger um Forschung und methodische Zusammenhänge geht, also insbesondere wenn psychologisches Wissen im Rahmen von Neben- oder Hilfsfächern (z. B. an nicht-psychologischen Fachbereichen, in Fachhochschulstudiengängen usw.) vermittelt wird. Hier werden auch zum Teil Bezeichnungen o. g. Grundlagendisziplinen anders inhaltlich ausgefüllt, wie z. B. Allgemeine Psychologie als eine den allgemeinen (ersten) Überblick gebende Einführung in die Psychologie (wie in den sprichwörtlichen 101-Kursen in den USA) oder Pädagogische Psychologie als Psychologie für Pädagogen. Parasitismus. a>) auf der Haut eines Menschen Parasitismus ("para" „neben“, σιτεῖσθαι "siteisthai" „essen“; auch "Schmarotzertum") im engeren Sinne bezeichnet den Ressourcenerwerb mittels eines in der Regel erheblich größeren Organismus einer anderen Art, meist dient die Körperflüssigkeit dieses Organismus als Nahrung. Der auch als Wirt bezeichnete Organismus wird dabei vom Parasiten geschädigt, bleibt aber in der Regel am Leben. In seltenen Fällen kann der Parasitenbefall auch zum Tod des Wirtes führen, dann aber erst zu einem späteren Zeitpunkt. Im weiteren Sinne kann Parasitismus als eine Steigerung der Fitness des Parasiten verstanden werden, die bisweilen verbunden ist mit einer Verminderung der Fitness des Wirtes. Herkunft des Wortes. Parasit kommt von, παρά "pará-" für "neben" und σιτος "sitos" für "gemästet" – ursprünglich für Vorkoster bei Opferfesten, die dadurch ohne Leistung zu einer Speisung kamen. Das deutsche Wort "Schmarotzer" für einen Parasiten stammt vom mittelhochdeutschen "smorotzer" ab, das so viel wie "Bettler" heißt. Beschreibung. Parasiten sind in hohem Maße spezialisierte Lebewesen. Ihr Habitat ist in der Regel auf einige wenige Wirtsarten beschränkt, nicht selten findet sich nur eine einzige Wirtsart. Parasitismus zeigt sich in sehr vielfältigen Formen. Es gibt Zweifelsfälle, in denen Parasitismus von anderen Interaktionen zwischen Arten schwer zu unterscheiden sind. Parasitismus ist beileibe kein seltenes Phänomen, denn die überwiegende Zahl aller Lebewesen parasitiert. Unter dem Vorbehalt, dass sich keine genauen Zahlen festlegen lassen, wird ein Verhältnis von bis zu 4:1 angenommen. Im Allgemeinen ist ein Parasit stark von seinem Wirt abhängig. Das Parasitieren kann sich auf verschiedene Wirtsfaktoren beziehen wie beispielsweise Körpersubstanz, Nahrungsangebot, Sauerstoffbedarf, Osmotik, pH-Verhältnisse oder Wärmehaushalt. Je nach Ausmaß des Parasitenbefalls ist die Belastung des Wirtes verschieden groß. Auch wenn Parasitenbefall den Wirt nicht lebensbedrohlich schädigt, wirkt er sich doch stets negativ auf dessen Wachstum, Wohlbefinden, Infektanfälligkeit, Fortpflanzung oder Lebensdauer aus. So können giftige Stoffwechselprodukte des Parasiten, zurückgebliebene innere oder äußere Verletzungen oder der Entzug von Nahrung eine Verkürzung des Lebens zur Folge haben, insbesondere bei weiteren ungünstigen Umweltbedingungen. Parasitismus ist allgegenwärtig, so dass sich praktisch alle Lebewesen damit auseinandersetzen müssen. Nicht selten findet man auf bzw. in einem einzelnen Lebewesen Dutzende verschiedener Parasiten, wobei die Mikroorganismen unberücksichtigt bleiben. Bei Waldmäusen fand man nicht weniger als 47 parasitierende Arten. Wirte verhalten sich allerdings keineswegs passiv gegenüber ihren Parasiten, sondern sind meist imstande, Zahl und Schadeffekt durch geeignete Abwehrmechanismen zu begrenzen. In einer gemeinsamen Entwicklung (Koevolution) passten sich Wirte und ihre Parasiten einander an. Dadurch entwickelte sich in jedem Stadium der Evolution ein Gleichgewicht, bei dem der Parasit profitiert, ohne dem Wirt, der ja seine „Existenzgrundlage“ darstellt, mehr als nötig zu schaden oder ihn gar völlig zu vernichten. Viele Parasiten schmarotzen während ihrer Entwicklung in verschiedenen Wirten. Man unterscheidet Zwischenwirte und den Endwirt. Sexuelle Fortpflanzung findet meist nur im Endwirt statt. Organismen, die befallen werden, ohne dass eine Fortsetzung des Entwicklungszyklus' des Parasiten möglich ist, werden als Fehlwirt bezeichnet. Häufig ist der Parasit schlecht an seinen Fehlwirt adaptiert, so dass der Fehlwirt durch den Parasiten stärker geschädigt wird als der Wirt. Möglicherweise ist die geschlechtliche Fortpflanzung aufgrund des Selektionsdrucks von Parasiten entstanden. Anpassung von Parasiten. Die Evolution aller Parasiten und ihrer Wirte beeinflusst sich wechselseitig, was als Koevolution bezeichnet wird und eine hochgradige Anpassung von Parasit und Wirt zur Folge hat. Mikroparasiten. Mikroparasiten sind klein, manchmal extrem klein (und meist so zahlreich, dass man die Zahl von Parasiten im Wirt nicht angeben kann). Normalerweise ist es daher einfacher, die Zahl der befallenen Wirte zu untersuchen als die Anzahl der Parasiten. Mikroparasiten sind meist Protozoa, die Tiere und Pflanzen als Krankheitserreger infizieren. Bei manchen Pflanzen gibt es mikroparasitisch lebende niedere Pilze. Makroparasiten. Makroparasiten sind in der Regel so groß, dass man ihre Anzahl genau bestimmen oder wenigstens in ihrer Größenordnung schätzen kann. Bei Tieren findet man sie eher auf dem Körper oder in Körperhohlräumen (z. B. im Darm) als intrazellulär. Die Hauptmakroparasiten von Tieren sind Würmer (Band- und Saugwürmer sowie Nematoden), aber auch Läuse, Zecken, Milben und Flöhe, außerdem auch einige Pilze. Makroparasiten der Pflanzen leben allgemein zwischen den Zellen (interzellulär) und gehören zu den höheren Pilzen (z. B. Mehltau), zu den Insekten (z. B. Gallwespe) oder anderen Pflanzen (z. B. Teufelszwirn oder Sommerwurz). Ekto- und Endoparasiten. Ektoparasiten oder Außenparasiten leben auf anderen Organismen. Sie dringen nur mit den der Versorgung dienenden Organen in ihren Wirtsorganismus ein und ernähren sich von Hautsubstanzen oder nehmen Blut oder Gewebsflüssigkeit auf. Beispiele für Ektoparasiten sind blutsaugende Arthropoden wie etwa Stechmücken, Läuse oder Zecken. Ektoparasiten sind häufig auch Krankheitsüberträger von Erkrankungen wie Malaria oder Lyme-Borreliose. Endoparasiten (auch Ento- oder Innenparasiten) leben im Inneren ihres Wirtes. Zu ihnen zählen z. B.: Dasselfliegen, Bandwürmer und einige Pilze. Sie besiedeln Hohlräume, Epithelien, das Blut oder auch das Gewebe verschiedener Organe. Die von ihnen ausgelösten Krankheiten nennt man "Endoparasitosen". Des Weiteren kann man die Endoparasiten nach ihren Eigenschaften beim Befall von Zellen in zwei Gruppen einteilen. Extrazelluläre Endoparasiten leben außerhalb von Zellen, (z. B. Giardia auf Darmepithel), Intrazelluläre Endoparasiten leben dagegen vorwiegend innerhalb von Wirtszellen (z. B. Malariaerreger). Viele Endoparasiten halten sich während ihres Lebenszyklus sowohl extra- als auch intrazellulär auf. Fakultative und obligate Parasiten. Parasiten lassen sich anhand der Notwendigkeit eines Wirtes unterscheiden. Fakultative Parasiten (oder auch Gelegenheitsparasiten) sind freilebende Lebewesen, die nur gelegentlich parasitieren. Ihre Entwicklung kann auch ohne parasitische Phase ablaufen. Obligate Parasiten sind für ihre Entwicklung zwingend auf einen Wirt angewiesen. Temporäre und stationäre Parasiten. Auf Grund der Dauer der parasitischen Lebensphase unterscheidet man "temporäre" und "stationäre" Parasiten. Stationäre Parasiten bleiben ständig über ihr ganzes Leben oder zumindest während einer Entwicklungsperiode einem Wirt treu. Ein Wirtswechsel findet nur bei engem Kontakt mit einem anderen möglichen Wirtstier oder beim Tod des ursprünglichen Wirtes statt (Bsp.: Filzlaus mit hoher Bindung an den Wirt, Floh mit bedingter Bindung). Temporäre Parasiten besuchen einen Wirt nur für begrenzte Zeit. Sie suchen ihn z. B. nur kurzfristig zur Nahrungsaufnahme auf (Bsp.: Stechmücke). Wirtsspezifität und Wirtswechsel. Wenn Parasiten auf eine einzige Wirtsart spezialisiert sind, nennt man sie "monoxen" (oder "autoxen"), sind es einige wenige Wirtsarten, nennt man sie "oligoxen", und Parasiten mit vielen Wirtsarten heißen "polyxen" (oder "pleioxen"). Benötigen Parasiten für ihre Entwicklung nur einen Wirt, so dass kein Wirtswechsel stattfindet, bezeichnet man sie als "homoxen" (oder "monoxen"). Das Gegenteil sind "heteroxene" (oder "heterözische") Parasiten, die während ihrer Entwicklung einen Wirtswechsel vollziehen. Der Begriff "heterözisch" wird in einem allgemeineren Sinn auch für Parasiten verwendet, die nicht wirtsspezifisch sind. Kleptoparasitismus. Als Kleptoparasitismus (von altgriechisch "kléptein" „stehlen“) wird das Ausnutzen von Leistungen anderer Lebewesen bezeichnet, beispielsweise das Stehlen von Nahrung oder das Ausnutzen von Nistgelegenheiten. Insbesondere etliche Vogelarten sind dafür bekannt, dass sie sich zumindest gelegentlich kleptoparasitisch ernähren. Brutparasitismus. Brutparasiten oder Brutschmarotzer sind Organismen, welche ihren eigenen Nachwuchs durch andere brutpflegende Tierarten aufziehen lassen. Letztlich handelt es sich um eine besondere Form des Kleptoparasitismus. Brutparasitimus findet sich bei Vögeln, Fischen und Insekten. Meist werden die Wirtseltern einer anderen Art zur Aufzucht der Jungen des Brutparasiten genutzt, es gibt aber auch Fälle, bei denen die Wirtseltern zur eigenen Art gehören (intraspezifischer Brutparasitismus). Der Brutparasitismus bewahrt die parasitierenden Eltern vor vielerlei Investition, vom Nestbau über die Fütterung der Jungtiere bis zur Möglichkeit weiterer Verpaarungen während der Aufzuchtphase. Schließlich sinkt auch das Risiko eines vollständigen Gelegeverlusts durch Nesträuber, wenn die eigenen Eier auf zahlreiche Gelege verteilt werden. Da Brutparasiten die Fitness der Wirtseltern nachhaltig absenken, ist häufig eine intensive evolutionäre Anpassung („evolutionäres Wettrüsten“) zwischen Parasit und Wirt zu beobachten. Parasitierende Pflanzen. Als Phytoparasiten bezeichnet man parasitische Pflanzen, welche einige lebensnotwendige Ressourcen mittels einer Wirtspflanze erwerben. Bei parasitischen Pflanzen werden zwei Gruppen unterschieden, die parasitischen Blütenpflanzen und die myko-heterotrophen Pflanzen. Die "parasitischen Blütenpflanzen" schmarotzen direkt mit Hilfe besonderer Organe (Haustorien) auf anderen Blütenpflanzen. Es gibt chlorophyllfreie (vollmykotrophe) Arten wie den Fichtenspargel, aber auch Arten wie das Weiße Waldvöglein, die noch Blattgrün besitzen und nur partiell myko-heterotroph oder mixotroph sind. Parasitismus in der Ökologie. Die ökologische Funktion von Parasiten (inkl. Parasitoiden) in unseren Ökosystemen ist immens und wird häufig zu wenig beachtet. Ihr Wert zeigt sich oft aber relativ deutlich bei eingeschleppten Arten (Neobiota, die manchmal auch als invasive Arten bezeichnet werden). In prekären Fällen fehlen nämlich die natürlichen Gegenspieler im neuen Habitat (wobei Parasiten ein nicht zu unterschätzender Anteil zukommt), und deshalb verzeichnen die Neobiota einen Vorteil in ihrer Fitness gegenüber einheimischen Spezies, vermehren sich übermäßig und stören Ökosysteme. Beispiele dafür sind die Kastanienminiermotte (in Mitteleuropa) oder die sog. Killeralge "Caulerpa taxifolia" und dutzende weiterer Neobiota. Obwohl also dem Menschen Parasiten verständlicherweise als negativ und pathogenetisch erscheinen, haben sie eine wichtige ausgleichende Funktion in unserer belebten Natur. Treten Parasiten übermäßig stark in Erscheinung, ist dem häufig eine menschgemachte Störung des Ökosystems vorausgegangen (z. B. durch intensive Landwirtschaft, Raubbau, anthropogene Abwässer etc.). Parasiten des Menschen. Parasitäre Infektionen beim Menschen sind Infektionen durch Protozoen bzw. Protista und Wurminfektionen, wobei es sich bei Letzteren i. d. R. um eine Infestation handelt, also um einen Befall ohne Vermehrung. Infektionen führen schon bei Erstbefall zum Vollbild der Parasitose, Infestationen nur nach Akkumulation vieler Individuen aufgrund starker bzw. langer Exposition. Einige Parasiten übertragen Krankheitserreger auf den Menschen, die zum Teil tödliche Krankheiten (Parasitosen) verursachen. Eine Auflistung ist unter Parasiten des Menschen zu finden. Auf viele Bakterien und Pilze trifft die Definition Parasit nicht zu; sie werden aufgrund ihrer medizinischen Bedeutung in den Fachgebieten Infektionskrankheiten, Bakteriologie und Mykologie innerhalb der Mikrobiologie behandelt. Abgrenzung: Viren, Transposons und Prionen. Neben den Parasiten existieren auch pathogene und teilweise auch infektiöse Moleküle und Molekülkomplexe, welche die Kriterien für Lebewesen wie Metabolismus, autonome Replikation oder Kompartimentierung nicht erfüllen, z. B. Viren, Viroide, Transposons, Retroelemente, eigennützige DNA und die ausschließlich Protein-basierten Prionen. Sie besitzen einige parasitäre Eigenschaften wie den Ressourcenerwerb und einen Größenunterschied, ohne Parasiten zu sein. Diese Pathogene werden thematisch von der Virologie behandelt. Viren stellen eine besondere Form der Anpassung dar. Da sie keinen eigenen Stoffwechsel besitzen, gehören sie auch nicht zu den Parasiten. Sie schädigen den Erkrankten mittels eines minimalen Genoms, das nur aus einem Typ Nukleinsäure (entweder DNA oder RNA) besteht. Dieses lediglich der Fortpflanzung dienende Genom zwingt der infizierten Zelle Funktionen auf, die zu einer nichtselbständigen Replikation des Virus führen. Der sich hieraus oftmals ergebende Zelltod kann zu erheblichen Schädigungen des Erkrankten führen. Handelt es sich bei dem infizierten Organismus um ein Bakterium, bezeichnet man das Virus auch als Bakteriophage. Fossile Belege. Beispiele für Parasitismus sind auch aus der Paläontologie bekannt. So sind im Baltischen Bernstein Inklusen überliefert, die Schmarotzertum belegen (z. B.: Milbenlarven an einer Langbeinfliege, einer Stelzmücke oder einer Rindenlaus; Fadenwurm an einer Zuckmücke). Programmable Read-Only Memory. Ein PROM-Chip für einen PDA Ein Programmable Read-Only Memory (PROM; deutsch "programmierbarer Nur-Lese-Speicher") ist ein elektronisches Bauteil. Die ursprünglichen PROMs werden inzwischen nicht mehr verwendet. PROMs sind von EPROMs abgelöst worden, wobei es hier von der Funktionalität des PROMs ähnliche OTP-ROM-Bausteine gibt, welche EPROM-Technologie einsetzen, jedoch aus Kostengründen kein UV-Löschfenster besitzen und damit genauso wie PROMs nur einmalig beschreibbar und nicht mehr löschbar sind. Der Unterschied vom PROM zum ROM liegt darin, dass der ROM bei der Herstellung seinen Speicherinhalt erhält, der nicht mehr veränderbar ist, und der PROM (einmal) programmierbar ist. Im Auslieferungszustand enthalten alle Speicherzellen eines PROM eine logische 1. Speicherzellen, die später ein 0-Signal ausgeben sollen, werden programmiert. Bei diesem Programmiervorgang werden an den Kreuzungspunkten von gitterartig angeordneten Leitungen Metallverbindungen durch gezieltes Anlegen einer höheren Spannung (Programmierspannung) verdampft. Problematisch an dieser Technik ist neben der einmaligen Programmierbarkeit, die eine spätere Veränderung ausschließt bzw. schwierig macht, der bei der Programmierung im Bauteilgehäuse freigesetzte Metalldampf. Durch den Niederschlag des Metalldampfes kann es zu Fehlern kommen. Auch wenn direkt nach dem Programmiervorgang der Speicherinhalt korrekt ist, kann es später durch physikalische Effekte wie Elektromigration zu Fehlern kommen, wenn Metallpartikel die zuvor programmierten Kreuzungspunkte wieder leitend verbinden. Technisch gesehen kann ein PROM als eine programmierbare logische Anordnung (PLA) betrachtet werden, bei der ausschließlich das ODER-Array programmierbar ist. Der Adressdecoder stellt dabei die voreingestellte UND-Matrix dar. Liste bedeutender Kosmologen. Die Liste bedeutender Kosmologen enthält Personen, die wichtige Beiträge zur Kosmologie, der Wissenschaft von der Entwicklung des Kosmos, geleistet haben. Siehe auch. Kosmologen Kosmologen Pinguine. Die Pinguine (Spheniscidae) sind eine Gruppe flugunfähiger Seevögel der Südhalbkugel und bilden die einzige Familie in der Ordnung Sphenisciformes. Ihre stammesgeschichtliche Schwestergruppe bilden wahrscheinlich die Seetaucher (Gaviiformes) und Röhrennasen (Procellariiformes). Pinguine sind leicht von allen anderen Vögeln zu unterscheiden und in herausragender Weise an das Leben im Meer und in den teilweise extremen Kältezonen der Erde angepasst. Etymologie. Der deutsche Name "Pinguin" stammt direkt von dem englischen Wort "penguin" ab, dessen Herkunft umstritten ist. Das Wort bezog sich wohl ursprünglich auf den auf der Nordhalbkugel im Atlantik beheimateten, heute ausgestorbenen flugunfähigen Riesenalk (ehemals "Pinguinus impennis"). Die ersten Aufzeichnungen über Pinguine aus dem späten 15. Jhdt. in Afrika und dem frühen 16. Jhdt. in Südamerika verwenden den Namen Pinguin noch nicht. Obwohl nicht näher mit dem Riesenalk verwandt, wurde der Name vermutlich von Seeleuten in der zweiten Hälfte des 16. Jhdt. auf die oberflächlich ähnlich aussehenden Pinguine übertragen. Er leitet sich vermutlich von walisisch "pen gwyn" „weißer Kopf“ her. Im Gegensatz zu Pinguinen haben die Riesenalke immerhin zwei weiße Flecken am Kopf. Es wurde auch gemutmaßt, dass sich die Bezeichnung "weißer Kopf" nicht auf den überwiegend dunklen Kopf der Riesenalke, sondern auf die durch Guano weiß gefärbten Inseln mit Brutkolonienen der Vögel beziehen könnte. Eine weitere Theorie leitet den Namen von lat. "pinguis" = fett ab, was sich auf den Körperbau der Tiere beziehen würde (vergl. auch Fettgans und nl. "vetgans"). Es wurde auch noch das engl. "pin-wing" sowie Sprachen amerikanischer Ureinwohner als möglicher Ursprung des Namens diskutiert. Keine der Theorien konnte bislang schlüssig belegt werden. Anatomie und Aussehen. Der Größen- und Gewichtsunterschied der verschiedenen Pinguinarten ist beträchtlich, Körperbau und Gefieder sind in der Familie dagegen sehr homogen. Größe und Gewicht. Der Zwergpinguin ("Eudyptula minor") erreicht lediglich eine Größe von 30 Zentimetern und ein Gewicht von einem bis eineinhalb Kilogramm, dagegen gehört der Kaiserpinguin ("Aptenodytes forsteri") mit einer Größe von bis zu 1,20 Metern und einem Gewicht von bis zu 40 Kilogramm zu den größten Neukiefervögeln überhaupt. Dieser Größenunterschied wird durch die Bergmannsche Regel erklärt, für welche die Pinguine ein häufig angeführtes Beispiel sind. Die Bergmannsche Regel besagt, dass Tiere in kälteren Regionen größer sind, da dies zu einem günstigeren Verhältnis von Volumen zu Oberfläche des Tieres und damit zu weniger Wärmeverlust führt. Die meisten Arten sind nur um weniges leichter als das von ihnen verdrängte Wasser, so dass ihnen das Tauchen vergleichsweise leicht fällt. Körperbau. Der stämmig wirkende Körper der Tiere ist durch seine Stromlinienform und die zu schmalen, aber kräftigen Flossen umgestalteten Flügel deutlich an ein Leben im Meer angepasst. Anders als die ebenfalls flugunfähigen Laufvögel besitzen Pinguine ein Brustbein mit stark ausgebildetem Kiel, an dem die kräftige Flügelmuskulatur ansetzt. Da anders als beim Fliegen in Luft beim Schwimmen unter Wasser wegen des höheren Wasserwiderstands der Flügelaufschwung genauso viel Energie kostet wie der Flügelabschwung, haben die Schulterblätter eine im Vergleich zu anderen Vögeln vergrößerte Oberfläche, an der die für den Aufschwung verantwortliche Muskulatur ansetzen kann. Ober- und Unterarmknochen sind am Ellbogen geradlinig und steif miteinander verbunden, was den Flossen eine große Festigkeit verleiht. Die bei Vögeln sonst hohlen Knochen sind bei Pinguinen dicht und schwer, da eine Gewichtsreduktion zum Schwimmen nicht notwendig ist. Die Oberschenkel sind sehr kurz, das Kniegelenk starr und die Beine stark nach hinten versetzt, wodurch an Land der ungewöhnliche aufrechte Gang hervorgerufen wird. Die mit Schwimmhäuten versehenen großen Füße sind relativ kurz – an Land ruhen die Tiere häufig auf ihren Fersen, wobei ihre vergleichsweise starren Schwanzfedern eine zusätzliche Stütze bilden. Der Schwanz ist meist stark reduziert, seine bei anderen tauchenden Seevögeln wesentlich ausgeprägtere Funktion als Ruder wird in erster Linie von den Beinen übernommen. Der Schnabel ist bei den meisten Arten nicht sehr lang, dafür aber kräftig; eine Ausnahme bilden die Großpinguine ("Aptenodytes"), deren Schnabel wahrscheinlich in Anpassung an ihre Beutetiere – schnell schwimmende Fische – lang, schlank und leicht nach unten gekrümmt ist. Wärmeregulation. Pinguine sind in ihrem Lebensraum zum Teil extremen klimatischen Bedingungen ausgesetzt und haben sich daran durch verschiedene anatomische Merkmale angepasst. Zur Wärmeisolation dient zunächst eine ausgeprägte, oft zwei bis drei Zentimeter dicke Fettschicht, über der sich drei wasserdichte Schichten kurzer, dicht gepackter und gleichmäßig über den ganzen Körper verteilter Federn befinden. "Apterien", Hautregionen, in denen keine Federn wachsen, gibt es bei Pinguinen im Gegensatz zu fast allen anderen Vögeln nicht; eine Ausnahme bildet bei manchen tropischen Arten die Gesichtshaut. Die in den Federschichten eingeschlossene Luft schützt im Wasser ebenfalls sehr effektiv vor Wärmeverlusten. Daneben besitzen Pinguine hoch entwickelte Wärmeübertrager in ihren Flossen und Beinen: Das in diese Gliedmaßen einströmende arterielle Blut gibt seine Wärme zu einem großen Teil an das kühlere in den Körper zurückströmende venöse Blut ab, so dass Wärmeverluste minimiert werden. Dies wird als „Gegenstromprinzip“ bezeichnet. Auf der anderen Seite kämpfen einige in tropischen Gewässern beheimatete Pinguinarten eher mit Überhitzung. Um dies zu verhindern, sind ihre Flossen im Vergleich zur Körpergröße verbreitert, so dass die Fläche, über die Wärme abgegeben werden kann, erweitert ist. Bei einigen Arten ist zudem die Gesichtshaut nicht von Federn bedeckt, so dass aufgestaute Wärme im aktiv aufgesuchten Schatten schneller abgegeben werden kann. Manche Pinguinarten verlagern ihre Aktivitätszeit sogar vollständig auf den Abend oder die Nacht. Gefieder. Die Farbe des aus zahlreichen kleinen, undifferenzierten, fast haarähnlichen Federn bestehenden Gefieders ist bei fast allen Arten rückseitig ein ins Schwarze spielendes Blaugrau, bauchseitig dagegen weiß. Männchen und Weibchen sehen sich sehr ähnlich, obwohl erstere meist etwas größer sind. Ein besonders auffälliger orangegelber Kopfschmuck zeichnet die meisten Schopfpinguine ("Eudyptes") aus. Bei Jungtieren ist das Gefieder meistens einheitlich grau bis braun, bei manchen Arten sind die Flanken und die Bauchseite allerdings weiß gefärbt. Zumeist kurz nach dem Ende der Brutsaison, nach der Aufzucht der Jungen, kommt es bei Pinguinen zur Mauser, dem Austausch des Federkleids. Während dieser Zeit, die je nach Art zwischen zwei und sechs Wochen dauern kann, verbrauchen die Vögel ihre Fettreserven etwa doppelt so schnell wie zuvor. Bei Eselspinguinen ("Pygoscelis papua") und Galápagos-Pinguinen ("Spheniscus mendiculus") ist die Zeit der Mauser dagegen nicht festgelegt und kann zu jedem Zeitpunkt zwischen den Brutzeiten erfolgen. Nicht-brütende Vögel mausern fast immer früher als ihre brütenden Artgenossen. Pinguine besitzen zur Färbung ihres Gefieders eine eigene Farbstoffgruppe, die als Spheniscine bezeichnet werden – ähnlich wie bei einigen Schmetterlingen die Pterine; beide Gruppen zählen zu den Pteridinen. Sicht und Gehör. Die Augen der Pinguine sind auf scharfe Unterwassersicht ausgerichtet; ihre Hornhaut ist extrem flach, so dass die Vögel an Land leicht kurzsichtig sind. Besonders bei den tief tauchenden Kaiserpinguinen sind die Pupillen des Auges zudem extrem dehnungs- und kontraktionsfähig, so dass sich die Augen sehr schnell auf unterschiedliche Lichtverhältnisse wie sie an der Wasseroberfläche bzw. in 100 Metern Tiefe herrschen, einstellen können. Aus der Pigmentzusammensetzung schließt man, dass Pinguine besser im blauen als im roten Bereich des Spektrums sehen können und eventuell sogar ultraviolettes Licht wahrnehmen. Da rotes Licht schon in den obersten Wasserschichten ausgefiltert wird, lässt dies eine evolutionäre Anpassung vermuten. Die Ohren besitzen wie bei den meisten Vögeln keine äußerlich wahrnehmbaren Strukturen. Sie werden durch besonders kräftige Federn beim Tauchen wasserdicht verschlossen. Bei Großpinguinen ist darüber hinaus der Rand des Außenohrs so vergrößert, dass dieses geschlossen werden kann, so dass Mittel- und Innenohr vor tauchbedingten Druckschäden geschützt sind. Unter Wasser geben Pinguine – anders als an Land, wo sie durch trompetenhafte Rufe und lautes Schnarren miteinander kommunizieren – keine auffälligen Laute von sich. Ob sie ihr Gehör umgekehrt zum Aufspüren von Beute bzw. zur Wahrnehmung von Fressfeinden nutzen, ist unbekannt. Verbreitung. Pinguine leben in den offenen Meeren der südlichen Hemisphäre. Dort finden sie sich insbesondere in den Küstengewässern der Antarktis, in Neuseeland, dem südlichen Australien, Südafrika, Namibia (Pinguininseln), südliches Angola, auf den vor Südamerika gelegenen Falklandinseln und an der Westküste hinauf bis nach Peru sowie auf den äquatornah gelegenen Galápagos-Inseln. Als kälteliebende Vögel treten sie in tropischen Gebieten nur dann auf, wenn Kaltwasserströmungen existieren; dies ist etwa an der Westküste Südamerikas mit dem Humboldt-Strom oder um Südafrika mit dem Benguela-Strom an der Kap-Halbinsel der Fall. Die meisten Arten leben etwa zwischen dem 45. und dem 60. Breitengrad südlicher Breite; die größte Individuenzahl findet sich um die Antarktis und auf nahegelegenen Inseln. Auf der Nordhalbkugel leben mit Ausnahme von Zootieren und eines Teils der Population des Galápagos-Pinguins auf der Galápagos-Insel Isabela keine Pinguine. Lebensraum. Der eigentliche Lebensraum der Pinguine ist das offene Meer, an das sie anatomisch hervorragend angepasst sind. Lediglich zum Brüten und zum Federwechsel kehren sie an Land zurück; dort leben sie an den felsigen Küsten der südlichen Kontinente, in kühlen Wäldern der gemäßigten Zonen, an subtropischen Sandstränden, auf weitgehend vegetationslosen Lavafeldern, subantarktischem Grasland oder sogar auf dem Eis der Antarktis. Während die tropischen Arten standorttreu sind, entfernen sich andere im Winter teilweise mehrere hundert Kilometer vom Ozean, um zu ihren Brutgebieten zu gelangen. Fortbewegung. Die von Pinguinen durchschnittlich beim Schwimmen erreichte Geschwindigkeit beträgt Messungen zufolge etwa fünf bis zehn Kilometer pro Stunde, obwohl in kurzzeitigen Sprints auch höhere Geschwindigkeiten denkbar sind. Eine besonders schnelle Fortbewegungsart ist das „Delfinschwimmen“; dabei verlässt das Tier wie ein Delfin sprungartig jeweils kurzzeitig das Wasser. Die Gründe für dieses Verhalten liegen noch im Dunkeln: Möglicherweise nutzt es den in der Luft niedrigeren Strömungswiderstand, vielleicht dient es aber auch dazu, Fressfeinde zu verwirren. Beim Tauchen legen manche Pinguine erstaunliche Leistungen an den Tag: Während die kleineren Arten wie der Eselspinguin ("Pygoscelis papua") meist nur für etwa eine, selten mehr als zwei Minuten abtauchen und dann auch „nur“ Tiefen von etwa 20 Metern erreichen, sind bei Kaiserpinguinen länger als 18 Minuten andauernde Tauchgänge belegt, bei denen schon Tauchtiefen von mehr als 530 Metern gemessen wurden. Obwohl insbesondere die extremen Leistungen der Großpinguine bis heute nicht richtig erklärbar sind, ist bekannt, dass während des Tauchens der Herzschlag der Tiere auf bis zu ein Fünftel des normalen Ruhewertes herabgesetzt sein kann, was den Sauerstoffverbrauch verringert und damit die mit derselben Menge Atemluft mögliche Tauchzeit vervielfacht. Die Druck- und Temperaturregulation bei tiefen Tauchgängen ist dagegen zu Beginn des 21. Jahrhunderts noch eine Herausforderung für die Forschung. Beim Verlassen des Wassers können Pinguine durch Sprünge Höhen von bis zu 1,80 Metern überwinden. Durch ihre verhältnismäßig kurzen Beine bewegen sie sich an Land meist watschelnd fort, eine Fortbewegungsart, die, wie biomechanische Studien ergeben haben, allerdings überraschend energieeffizient ist. Auf dem Eis können sie dagegen auch sehr schnell vorwärts kommen, indem sie auf dem Bauch bergabwärts schlittern. Manche Arten legen zwischen ihren Brutkolonien und dem Meer kilometerlange Wege zurück. Ernährung. Je nach Größe ernähren sich Pinguine von Fischen, häufig zum Beispiel vom Antarktischen Silberfisch ("Pleuragramma antarctica"), von Sardellen (Engraulidae) oder Sardinen (in Clupeidae), von Krebstieren wie Krill oder kleinen Tintenfischen, die aktiv auf Sicht gejagt und noch unter Wasser verschluckt werden. Teilen sich unterschiedliche Arten denselben Lebensraum, so haben sie in der Regel unterschiedliche Nahrungsvorlieben: So verzehren Adelie-Pinguine und Zügelpinguine Krill unterschiedlicher Größe. Die auf Kleinkrebse spezialisierten Arten sind viel stärker auf regelmäßige Beute angewiesen als die fischjagenden Pinguine, benötigen zum Fang allerdings auch weniger Energie: Während letzteren oft ein Erfolg in zehn Versuchen reicht, müssen erstere pro Tauchgang bis zu 16 Kleinkrebse aufspüren – umgerechnet etwa einen Fang in sechs Sekunden –, um ihren Energiebedarf und den ihrer Jungen zu decken. Die Zahl der Tauchgänge pro Jagdzug ist art- und jahreszeitabhängig: Während der Brutzeit beträgt sie bei Zügelpinguinen ("Pygoscelis antarctica") mehr als 190, während Kaiserpinguine auf ihren ausgedehnten tagelangen Zügen durchaus mehr als 860 Tauchgänge unternehmen können. Während der Mauser und bei Großpinguinen ("Aptenodytes"), Adeliepinguinen ("Pygoscelis adeliae"), Zügelpinguinen ("Pygoscelis antarctica") und Schopfpinguinen ("Eudyptes") auch in der Brutsaison müssen viele Pinguine ganz auf Nahrung verzichten. Die Fastenzeit ist bei den einzelnen Arten unterschiedlich lang und beträgt etwa einen Monat bei den Adelie- und Schopfpinguinen, kann bei männlichen Kaiserpinguinen aber mehr als dreieinhalb Monate andauern. Während dieser Zeit können sie bis zu knapp der Hälfte ihres Körpergewichtes verlieren, da die Vögel ihre Stoffwechselenergie dann aus den vor der Mauser- bzw. Brutsaison aufgebauten Fettreserven beziehen müssen. Bei Eselspinguinen ("Pygoscelis papua"), Gelbaugenpinguinen ("Megadyptes antipodes"), Zwergpinguinen ("Eudyptula minor") oder Brillenpinguinen ("Spheniscus demersus") wechseln sich Männchen und Weibchen dagegen beim Brüten ab, so dass sie nur während der Mauser auf ihre Fettreserven zurückgreifen müssen. Für Untersuchungen darüber, dass sich im Darm von defäkierenden Pinguinen Drücke von bis zu einer halben Atmosphäre (450 Torr) entwickeln, wurden zwei Wissenschaftler 2003 mit dem Ig-Nobelpreis ausgezeichnet. Ihren Wasserbedarf decken Pinguine hauptsächlich aus dem Meer. Überschüssiges Salz wird durch spezielle Salzdrüsen, die oberhalb der Augen liegen, wieder ausgeschieden. Fortpflanzung. In welchem Alter Pinguine den ersten Anlauf zur Fortpflanzung unternehmen, hängt zum einen von der Art, zum anderen auch vom Geschlecht ab. So brüten Zwerg-, Gelbaugen-, Esels- und Brillenpinguine erstmals mit zwei Jahren; die Weibchen von Adelie-, Zügel-, Königs- und Kaiserpinguinen beginnen meist ein Jahr später mit dem ersten Brutversuch, während die Männchen dieser Arten noch zwölf weitere Monate mit der Fortpflanzung warten. Goldschopfpinguine brüten sogar erst im Alter von fünf Jahren. Bei den vorstehenden Angaben handelt es sich um statistische Mittelwerte: In der Praxis kommt es mit zunehmendem Alter zu immer längeren Aufenthalten in der Brutkolonie, bis schließlich das Brutverhalten selbst einsetzt. So besuchen zum Beispiel bei den Königspinguinen nur wenige Einjährige überhaupt die Kolonie; auch in ihrem zweiten Lebensjahr erscheinen die Tiere dort oft nur für ein paar Tage. In den Folgejahren verschiebt sich das erste Auftauchen in der Kolonie jedoch nicht nur von Mal zu Mal nach vorne, sondern auch die Verweildauer steigt mit zunehmendem Alter deutlich an. Bei Männchen der Großpinguine ist es durchaus nicht ungewöhnlich, erst ab dem achten Lebensjahr mit dem Brüten zu beginnen. Der jahreszeitliche Beginn der Brutzeit ist in erster Linie von klimatischen Faktoren abhängig. Während die weiter nördlich lebenden Galápagos-, Zwerg- und Brillenpinguine über das ganze Jahr hin brüten können und Zwergpinguine in Einzelfällen sogar zwei Bruten pro Jahr aufziehen, beginnen fast alle in subantarktischen bis arktischen Klimaverhältnissen lebenden Pinguine grundsätzlich im Frühling oder Sommer mit der Eiablage. Eine bemerkenswerte Ausnahme von dieser Regel stellen die Kaiserpinguine dar, bei denen die Brutzeit im Herbst beginnt. Die Jungen werden dann ausgerechnet während des antarktischen Winters bei Temperaturen von bis zu –40 Grad Celsius aufgezogen – einzigartige Anpassungen an das Leben in der Kälte sind bei ihnen daher überlebenswichtig. Auch die Jungen der Königspinguine überwintern in den (weiter nördlich gelegenen) Brutkolonien. Sie werden in dieser Zeit von ihren Eltern aber nur selten gefüttert, so dass es bei ihnen im ersten Winter zu einem erheblichen Gewichtsverlust kommt. Pinguine sind nicht nur im Wasser, sondern auch an Land sehr gesellige Tiere. Insbesondere die Eiablage, Brut und die weitere Aufzucht der Jungen finden bei vielen Arten synchron in großen Brutkolonien statt, die im Extremfall bis zu fünf Millionen Tiere umfassen können. Bei den nicht permanent siedelnden Arten betreten zur Brutzeit meist als erstes die Männchen die Kolonie und versuchen bei fast allen Arten, sich ein kleines Territorium zu sichern, das allerdings selten mehr als einen Quadratmeter Fläche umfasst. Ihr Sozialverhalten ist somit nestgebunden. Eine Ausnahme bilden lediglich die Großpinguine, die für ihre Eier keine Nester anlegen und nur gegenüber ihren Partnern und ihrem Nachwuchs auffälliges Verhalten zeigen. Darauf versuchen die Männchen durch trompetenhaftes Rufen, ein Weibchen zu gewinnen. Handelt es sich nicht um den ersten Brutversuch, ist dies oft die Partnerin vom letzten Jahr. Die „Scheidungsrate“ ist bei Pinguinen je nach Art unterschiedlich hoch: Die Prozentzahl der Gelbaugenpinguine, die nach einem Jahr einen anderen Partner wählten, liegt mit 14 sehr niedrig; ihre Partnertreue wird auch dadurch unterstrichen, dass zwölf Prozent der Partnerschaften länger als sieben Jahre andauern. Dagegen liegt die jährliche Trennungsrate bei Adeliepinguinen bei mehr als 50 Prozent, entsprechend sind keine Partnerschaften bekannt, die länger als sechs Jahre überdauert hätten. Es ist bekannt, dass der Bruterfolg des Vorjahres bei der Frage der Partnerwahl eine gewichtige Rolle spielt. Zwischen der Komplexität des Sozialverhaltens und der Mechanismen zur Partnererkennung einerseits und der Koloniegröße andererseits besteht ein enger Zusammenhang: Die Paarungsrituale der in riesigen Kolonien eng beieinander lebenden Adelie-, Zügel-, Esels- und Schopfpinguine sind sowohl visuell als auch lautlich besonders auffällig; die in dichter Vegetation lebenden Gelbaugenpinguine oder die in weit auseinander liegenden Nestern brütenden Zwergpinguine sind dagegen weitaus zurückhaltender. Eiablage und Brutreduktion. Nach der Kopulation, zu der das Männchen auf dem Rücken der Partnerin balancieren muss, erfolgt die Eiablage. Während Kaiser- und Königspinguine ihr jeweils einziges Ei auf ihren Füßen ausbrüten, legen bei allen anderen Arten die Pinguinweibchen im Abstand von drei bis fünf Tagen zwei Eier in ein einfaches Nest, das aus den in der Umgebung vorhandenen Materialien wie Gräsern oder kleinen Kieselsteinen angelegt wird. Die Eifarbe ist weiß oder grünlich. Nicht alle Eier werden erfolgreich ausgebrütet: Gerade bei jungen Paaren kommt es oft gar nicht erst zum Schlüpfen der Jungen; so wurden bei zweijährigen Eltern Schlupfraten von weniger als 33 Prozent nachgewiesen. Der Bruterfolg steigt dann mit zunehmendem Alter rapide an und erreicht Werte von über 90 Prozent; erst bei sehr alten Pinguinpaaren fällt er wegen der dann abnehmenden Fruchtbarkeit langsam wieder auf etwa 75 Prozent ab. Meist ist das erste Ei etwas größer als das zweite, so dass das erste Küken etwas eher schlüpft als sein Geschwisterküken. Die Inkubationszeit beträgt je nach Art zwischen einem und zwei Monaten. Das erstgeborene Jungtier wird von seinen Eltern bevorzugt und erhält zum Beispiel regelmäßig mehr Nahrung als das zweitgeschlüpfte, welches meist schnell stirbt. Diese sogenannte "Brutreduktion" ist eine evolutionäre Anpassung an ein begrenztes Nahrungsangebot: Durch den schnellen Tod des zweiten Kükens wird sichergestellt, dass die Überlebenschancen des ersten nicht durch Verteilung der knappen Ressourcen auf zwei Nachkommen herabgesetzt werden. Umgekehrt haben sich die Eltern durch das zweite Ei „rückversichert“, falls das erste Küken frühzeitig umkommen sollte. Während es bei den meisten Arten nur bei knappem Nahrungsangebot zur Brutreduktion kommt und die Dickschnabelpinguine ("E. pachyrhynchus") sogar fast immer beide Küken aufziehen, ist bei allen Schopfpinguinen Brutreduktion die Regel. Interessanterweise ist in dieser Gattung das zweitgelegte Ei das größere (der prozentuale Unterschied liegt zwischen 20 und 70 Prozent), aus dem dann das erste Jungtier schlüpft. Aufzucht. Die Fütterungszeiten sind stark artabhängig: Eselspinguine füttern ihren Nachwuchs täglich, Adelie- oder Zügelpinguine nur alle zwei Tage, die Großpinguine oft nur alle vier Tage oder sogar noch seltener. Allerdings sind bei letzteren die Mahlzeiten dann umso größer. Die Futtermenge ist meist dem Entwicklungsstand der Jungen angepasst, doch immer enorm im Verhältnis zum Körpergewicht: Schon junge Küken kleiner Pinguinarten können leicht 500 g Nahrung pro Fütterung erhalten; Großpinguine geben sogar auf einen Schlag bis zu einem Kilogramm Fisch an ihr Junges weiter. Königspinguin-Junge können nach zwölf Monaten sogar schwerer sein als ihre Eltern. Bei den nicht dauerhaft kolonielebenden Arten wird nach der elterlichen Mauser die Kolonie schnell verlassen, bei den Schopfpinguinen zum Beispiel innerhalb einer Woche. Die elterliche Fürsorge ist damit in aller Wahrscheinlichkeit beendet – von einer Fütterung auf See wurde bisher nicht berichtet, sie ist auch schwer vorstellbar. Bei den Eselspinguinen, die das ganze Jahr über in der Nähe ihrer Kolonie zubringen, kehren die Jungen noch für zwei bis drei Wochen regelmäßig zu ihren Eltern zurück und erhalten dort weiteres Futter; danach sind auch sie auf sich allein gestellt. Lebenserwartung. Ihre Überlebenschancen sind in den ersten zwölf Monaten gering. Bei Adeliepinguinen zum Beispiel leben nach dem harten ersten Jahr nur noch schätzungsweise knapp die Hälfte aller Jungen. Ein bedeutender Faktor, der ihre Lebensaussichten maßgeblich beeinflusst, ist der Umfang der in der Brutkolonie angesetzten Fettreserven, der wiederum von der Fütterung durch die Alttiere und damit von deren Jagderfolg abhängt. Die Überlebenswahrscheinlichkeit erwachsener Tiere liegt dagegen wesentlich höher: Sie beträgt bei den kleinen Adeliepinguinen 70 bis 80, bei den Großpinguinen sogar über 90 Prozent. Pinguine können ein Alter von mehr als 25 Jahren erreichen. Natürliche Feinde. Aufgrund der meist isoliert gelegenen Brutplätze haben erwachsene Pinguine an Land so gut wie keine Feinde; vom Menschen eingeführte Säugetiere wie Hunde und Katzen stellen allerdings regional eine ernste Bedrohung dar. Pinguine können zur Verteidigung sowohl ihren Schnabel als auch ihre Flossen als wirksame Waffen einsetzen. Küken werden unbeaufsichtigt dagegen schnell zur Beute der Subantarktikskuas ("Catharacta antarctica"). Diese Vögel und einige Möwen nutzen jede sich bietende Gelegenheit, um Eier zu stehlen. Seeleoparden ("Hydrurga leptonyx"), Südliche Seebären ("Arctocephalus"), Australische ("Neophoca cinerea") und Neuseeländische Seelöwen ("Phocarctos hookeri") sowie Orcas ("Orcinus orca") und Haie (Selachii) jagen Pinguine im Meer, insbesondere die angegebenen Robbenarten patrouillieren oft im flachen Wasser vor den Brutkolonien, wo Pinguine ihre hohe Manövrierfähigkeit nicht gut ausspielen können. Es wird geschätzt, dass auf diese Weise etwa fünf Prozent aller Adeliepinguine pro Jahr getötet werden. Daher rührt vermutlich die auf den ersten Blick seltsam anmutende Angst der Vögel vor dem Gang ins Wasser, an das sie doch so gut angepasst sind. Vor dem Losschwimmen nähern sich Pinguine oft in kleineren Gruppen zögerlich dem Ufer, offensichtlich jeder mit dem Wunsch, nicht der erste sein zu müssen, der das Meer betritt (Pinguin-Effekt); oft dauert diese Prozedur bis zu einer halben Stunde. Sobald ein einzelner schließlich genug Mut gefasst hat und ins Wasser springt, folgen alle anderen nach. Gefährdung. Drei Arten, der Kronenpinguin ("Eudyptes sclateri"), der Gelbaugenpinguin ("Megadyptes antipodes") und der Galápagos-Pinguin ("Spheniscus mendiculus"), werden zu Beginn des 21. Jahrhunderts als vom Aussterben bedroht eingestuft, sieben weitere gelten als gefährdet. Zu dem Gründen zählen der Verlust des Lebensraums, wie zum Beispiel beim Gelbaugenpinguin, dessen Bestände durch zunehmende Landnutzung und menschliche Eingriffe in das Dünensystem Neuseelands bedroht sind. Ausgewilderte Säugetiere stellen ebenfalls eine Gefahr dar, wie beim Galápagos-Pinguin, dessen auf zwei Inseln beschränkte Brutkolonien durch streunende Hunde dezimiert wurden. Darüber hinaus spielen klimatische Veränderungen eine Rolle: Die Populationen der Galápagos-Pinguine wurden in den 1980er und 1990er Jahren durch einen Kollaps der Fischbestände dezimiert, der auf das mit dem Klimawandel in Verbindung gebrachte El-Niño-Phänomen zurückgeführt werden kann. Felsenpinguine ("Eudyptes chrysochome"), Magellan-Pinguine ("Spheniscus magellanicus") oder Humboldt-Pinguine ("Spheniscus humboldti") geraten auf ihren ausgedehnten Beutezügen nach Sardellen und Sardinen in subantarktischen Gewässern immer wieder in Konflikt mit der kommerziellen Fischerei, die sich teilweise auf dieselben Arten spezialisiert hat. Während von Seiten der Fischer Klagen über Einkommenseinbußen erhoben werden, verlieren viele Pinguine ihre Nahrungsgrundlage. Es gibt allerdings Bemühungen, diesen Konkurrenzkonflikt unter Berücksichtigung der Interessen der Fischer zu entschärfen. Brillenpinguine und Magellan-Pinguine, deren Kolonien sich am Kap der Guten Hoffnung in Südafrika oder an der Magellanstraße vor Südamerika befinden, leiden besonders unter der Ölverschmutzung, die durch die dort verlaufenden Schifffahrts- und insbesondere Tankerrouten bedingt ist. Verölte Pinguine können zwar eingefangen, gesäubert und wieder in die Freiheit entlassen werden; dies ist jedoch ein sehr zeitraubender und kostenträchtiger Prozess. Auf der anderen Seite hat die intensive Bejagung der Bartenwale (Mysticeti) und die dadurch ausgelöste Krill-Vermehrung zu einer erheblichen Zunahme bei Zügel- und auch Königspinguinen geführt; die meisten antarktischen Arten gelten wegen der Abgelegenheit ihres Lebensraums als stabil. Pinguine als Forschungsobjekte – Gefährdung durch Markierung und Fehlschlüsse. Für einige Aufregung bei Zoologen und Klimaforschern hat die Erkenntnis gesorgt, dass gerade eine für Migrationsuntersuchungen sehr verbreitete Methode, das Anbringen von Markierungsbändern an den Flossen (engl. "flipper bands", Flossenbänder) freilebende Pinguine erheblich gefährdet und in ihrer Lebensweise stark beeinträchtigt. So zeigt eine zehnjährige Untersuchung einer Kolonie von Königspinguinen, dass markierte Tiere eine um 16 % geringere Überlebenschance haben und 39 % weniger Küken produzieren als nicht-markierte Pinguine. Eine Erklärung dafür ist, dass die Markierungsbänder durch die andauernde Reibung zu Verletzungen an den Flossen und den umgebenden Körperteilen führen können, beträgt doch die Flossenschlagfrequenz eines mittelgroßen Pinguins während des Schwimmens rund drei Schläge pro Sekunde. Zudem müssen mit Flossenbänder markierte Pinguine ca. 24 % mehr Kraft zum Schwimmen aufwenden als unmarkierte Tiere. Infolge dieser Beeinträchtigung dauert bei ihnen die Futtersuche erheblich länger, und sie treffen im Durchschnitt 16 Tage später an den Brutplätzen ein als die anderen Tiere. Pinguine, wie auch andere Raubtiere an der Spitze der Nahrungskette, werden vielfach als integrative Indikatorspezies herangezogen, um den Einfluss des Klimawandels auf das marine Ökosystem des südpolaren Ozeans zu untersuchen. Die Zehnjahresstudie zeigt jedoch eindeutig, dass markierte Tiere in anderer Weise auf Umweltveränderungen – etwa infolge des wärmeren Klimas – reagieren als nicht markierte. Dies lässt erhebliche Zweifel an der Aussagekraft von Daten zu, die mit Hilfe von Markierungsbänder gewonnen wurden. Mithin sollte nach Ansicht der Forscher die Verlässlichkeit von "flossenband-markierten" Pinguinen als Indikatoren des Klimawandels und seiner Folgen für das südpolare Ökosystem neu überdacht werden. Pinguine und der Mensch. Die erste Begegnung zwischen Menschen und Pinguinen ist aus Australien bezeugt: Archäologische Knochenfunde in Lagerstätten der Aborigines zeigen, dass Pinguine in vorgeschichtlicher Zeit einen Bestandteil der Nahrung dieser australischen Ureinwohner bildeten. In Europa wurden Pinguine erst gegen Ende des 15. und mit Beginn des 16. Jahrhunderts durch die Erkundungsfahrten der portugiesischen Seefahrer unter Vasco da Gama und Ferdinand Magellan bekannt. Der erste bekannte Hinweis auf die Vögel entstammt dem Tagebuch Vasco da Gamas vom 25. November 1497, als dieser in der Mossel Bay an der Küste Südafrikas vor Anker lag. Er begegnete dort den heute als Brillenpinguin ("Spheniscus demersus") bezeichneten Vögeln. Der Brillenpinguin ist auch die erste wissenschaftlich beschriebene Art, von der sich der lateinische Familien- und Ordnungsname ableitet – er wurde bereits 1758 von dem schwedischen Systematiker Carl von Linné in seinem Werk Systema Naturae behandelt. Fast alle anderen Arten wurden dagegen erst mit der Erforschung des südlichen Ozeans im späten 18. Jahrhundert und 19. Jahrhundert entdeckt. Früher wurden ganze Kolonien durch Einsammeln der Eier für Nahrungszwecke und Abschlachten der erwachsenen Tiere zur Ölgewinnung aus der reichen Fettschicht ausgelöscht. Zudem wurden Pinguine als Brennmaterial für die Tranerzeugung genutzt. Pinguine sind sehr neugierige Vögel und an Land weitgehend furchtlos. Anders als gezähmte Tiere, die erst durch ihren häufigen Kontakt mit Menschen ihre Furcht verloren haben, haben die meisten Pinguine von Natur aus keine Angst vor Menschen. Obwohl die Auffassung naturgemäß nicht wissenschaftlich bestätigt werden kann, ist von Antarktis-Reisenden oft die Vermutung geäußert worden, sie seien von den Vögeln selbst für lediglich etwas seltsam gebaute Pinguine gehalten worden. In Mitteleuropa lassen sich Pinguine nur in zoologischen Gärten betrachten. Manche bieten zu diesem Zweck sogenannte Pinguinmärsche an, bei denen die Vögel zumeist am Wochenende aus ihren Gehegen gelassen werden und unter Begleitung und Beobachtung der Tierpfleger einen kleinen Rundgang um ihr Zuhause unternehmen können. Pinguinmärsche werden unter anderem in den Zoologischen Gärten von Münster und München-Hellabrunn angeboten, in der Schweiz im Zoo Zürich; der Pinguinmarsch im Zoo von Edinburgh gilt als sehenswert. Pinguine gelten als sehr beliebte Tiere, die leidenschaftlichen Zuspruch auslösen können. Kühlschränke sind ebenso nach ihnen benannt wie Eishockey-Mannschaften, und auch ein großer englischer Buchverlag tritt unter ihrem englischen Namen "Penguin" auf. Bis heute scheint dieser Charme nicht verblasst zu sein: Als Linus Torvalds, der Urheber des Free-Software-Betriebssystems Linux, nach einem Maskottchen suchte, entschied er sich mit Tux für einen Pinguin (allerdings mit gewissen Einflüssen einer Ente). Umgekehrt war es vielleicht gerade das friedlich-charmante Image, das die Urheber der Comic-Serie Batman dazu bewog, der sinistren Figur des obersten Bösewichts ausgerechnet den Namen Pinguin zu geben. Danny DeVito verkörperte diese Rolle im Jahr 1992 im Film Batmans Rückkehr. Freundlich-friedlich begegnen Pinguine dem Zuschauer dagegen in der Kindertrickfilmfigur Pingu des Schweizer Fernsehens. Als Grund für die menschliche Sympathie wird oft die durch die scheinbare Unbeholfenheit der Tiere hervorgerufene unfreiwillige Komik angeführt: Die hüpfenden, daherschliddernden und watschelnden Vögel wirken auf viele Betrachter erheiternd. Das entfernt an weißes Hemd und schwarzen Smoking, also an sehr formelle Herrenkleidung erinnernde Gefieder verstärkt diesen Eindruck noch; in manchen Idiomen ist das Wort „Pinguin“ sogar eine scherzhafte Bezeichnung für einen Frack tragenden Mann. Die Ursache der Zuneigung mag aber auch tiefer liegen: Demnach erkennen Menschen in den Vögeln nicht zuletzt sich selbst – wozu sicherlich auch die Tatsache beiträgt, dass Pinguine eine der wenigen Tierarten sind, die wie Menschen aufrecht auf zwei Beinen gehen. Stammesgeschichte. a> aus der Ordnung der Röhrennasen Die stammesgeschichtlichen Verwandtschaftsverhältnisse der Pinguine sind umstritten. Als vergleichsweise sicher gilt, dass sie von einer Gruppe von Seevögeln abstammen, die sich wohl in der frühen Kreidezeit von den anderen Vogelgruppen trennte und zu der heute die Seetaucher (Gaviiformes), Röhrennasen (Procellariiformes), Ruderfüßer (Pelecaniformes) und vielleicht die Lappentaucher (Podicipediformes) gezählt werden. Die seit dem frühen Tertiär bekannten Fossilien geben nur wenig Einblick in die stammesgeschichtlichen Verwandtschaftsverhältnisse, da schon die frühen Pinguine sich sehr deutlich von allen anderen Vögeln abheben. Allerdings erinnert das Flügelbein (Pterygoid) der ausgestorbenen Gattung "Paraptenodytes" an den entsprechenden Knochen der Röhrennasen, und der lange spitze Schnabel der Gattung "Palaeeudyptes" weist Ähnlichkeiten mit den Schnäbeln der Seetaucher auf. Letztere können wie die Pinguine unter Wasser tauchen, erhalten ihren Vortrieb aber durch die Füße und nicht durch Flossen. Es gibt jedoch fossile Hinweise darauf, dass die Vorfahren der Seetaucher sich unter Wasser wie die heutigen Pinguine mit Hilfe ihrer Flügel fortbewegten. Wie die Erscheinungsform der Pinguine entstand, ist unbekannt: Die ersten Pinguinfossilien, die aus dem Eozän vor 55 Millionen Jahren erhalten sind und auf der vor Antarktika gelegenen Seymour-Insel gefunden wurden, zeigen schon die typischen Pinguinmerkmale. Klar ist, dass die Pinguine von fliegenden Vögeln abstammen, die wohl wie die heutigen Seetaucher bereits unter Wasser jagen konnten. Der Flug in Luft und das Schwimmen unter Wasser stellen aber sehr unterschiedliche Ansprüche an den Vogelflügel – als Folge können die fliegenden "und" tauchenden Vorfahren der Pinguine wenig größer als etwa die heutigen Zwerg- oder Brillenpinguine gewesen sein. Daraus ergibt sich ein – hypothetisches – Szenario, nach dem die Pinguine von einer Population kleiner standorttreuer Meeresvögel abstammen, die bei Wassertemperaturen oberhalb von etwa 15 Grad Celsius in küstennahen Gewässern der Subtropen oder gemäßigten Zone lebten und wie zum Beispiel die Galápagos-Pinguine auf isolierten Inseln nisteten. Im Zuge einer immer besseren Anpassung an das Meer bildeten sich ihre Flügel immer weiter zu Flossen um, während die Beine nach hinten wanderten, um den Strömungswiderstand beim Schwimmen zu verringern. Mit der Spezialisierung auf den Lebensraum Meer und zunehmender Körpergröße ging zwar gleichzeitig ein Verlust der Flugfähigkeit einher und der durch die zurückgesetzten Beine erzwungene Watschelgang an Land gefährdete die Tiere theoretisch auch an Land; dies war jedoch bei Abwesenheit von Fressfeinden kein evolutionärer Nachteil. Das genaue Gebiet, in dem die Entwicklung der Pinguine stattfand, lässt sich heute nicht mehr rekonstruieren, hypothetisch werden aber sowohl Neuseeland als auch die damals noch wesentlich wärmere Antarktis in Betracht gezogen. Unbestritten ist nur, dass die Pinguine auf der Südhalbkugel entstanden sind, da kein einziges Fossil nördlich des Äquators gefunden werden konnte. Warme äquatoriale Meeresströmungen stellten in der Folgezeit dann anscheinend eine unüberwindliche Barriere für die Vögel dar; daneben wird auch die hohe Zahl schneller Raubfische in tropischen Breiten wie etwa Haien als Ursache dafür in Betracht gezogen, dass die Pinguine nie den Äquator überschritten haben. Die weitere stammesgeschichtliche Entwicklung lässt sich nur grob nachvollziehen, auch wenn bis zu Beginn des 21. Jahrhunderts mindestens 17 fossile Gattungen beschrieben wurden. Kein vollständiges Skelett ist erhalten, die meisten Fossilien stammen zudem von großen Vögeln; dies ist vermutlich nur ein Auswahleffekt, der sich durch die wesentlich bessere Fossilisierung ihrer Knochen erklären lässt und wohl keine systematische Bedeutung hat. Die höchste Artenvielfalt der Pinguine wurde im Tertiär, insbesondere in den erdgeschichtlichen Epochen des Oligozäns und frühen Miozäns erreicht. Zu dieser Zeit lebten auch die größten Pinguine, die eine Körperlänge von bis zu 1,70 Metern erreichten. Eine dieser Arten war beispielsweise "Pachydyptes ponderosus". Warum die Riesenpinguine schließlich im Miozän ausstarben, ist unbekannt; spekulativ wird die zunehmende Konkurrenz durch Robben (Pinnipedia) und Wale (Cetacea) angeführt: Die Riesenpinguine brauchten zum Tragen des Körpergewichts bei ihren regelmäßigen Landgängen sehr große Beine und Füße, die im Meer nutzlos mitgeschleppt werden mussten – anders als bei den vollständig meereslebenden Säugetieren, die ihre Hintergliedmaßen zu Flossen umbilden oder gleich ganz aufgeben konnten. Etwas früher, vor etwa 25 Millionen Jahren, am Wendepunkt von Oligozän und Miozän, begann auch die durch die Öffnung der Drake-Passage zwischen der Antarktis und Südamerika ausgelöste Bildung des kalten Zirkumpolarstroms, der Antarktika klimatisch isolierte und so eine Absenkung der Wassertemperaturen um mehr als zehn Grad herbeiführte. Als bereits wasserlebende und daher gut wärmeisolierte Tiere waren die Pinguine auf diesen Temperatursturz verhältnismäßig gut vorbereitet, so dass man von Exaptation sprechen kann, in diesem Fall der Nutzbarmachung einer für eine bestimmte ökologische Nische entwickelten Merkmalskombination für eine andere Nische. Die modernen Pinguingattungen tauchen erst im Pliozän vor drei Millionen Jahren auf. Systematik. Während das Schwestergruppenverhältnis von Schopfpinguinen und Gelbaugenpinguin sowie von Zwergpinguin und Brillenpinguinen als wenig umstritten gilt, ist die Einordnung der beiden anderen Gattungen mit größerer Unsicherheit behaftet. Schnellübersicht nach Gattungen. Angegeben sind auch der Lebensraum und die äußeren Merkmale Perl (Programmiersprache). Perl ist eine freie, plattformunabhängige und interpretierte Programmiersprache (Skriptsprache), die mehrere Programmierparadigmen unterstützt. Der Linguist Larry Wall entwarf sie 1987 als Synthese aus C, awk, den Unix-Befehlen und anderen Einflüssen. Ursprünglich als Werkzeug zur Verarbeitung und Manipulation von Textdateien insbesondere bei System- und Netzwerkadministration vorgesehen (zum Beispiel Auswertung von Logdateien), hat Perl auch bei der Entwicklung von Webanwendungen und in der Bioinformatik weite Verbreitung gefunden. Traditionell vertreten ist Perl auch in der Finanzwelt, vor allem bei der Verarbeitung von Datenströmen verschiedenartiger Nachrichtenquellen. Hauptziele sind eine schnelle Problemlösung und größtmögliche Freiheit für Programmierer. Die Bearbeitung von Texten mit Hilfe regulärer Ausdrücke sowie viele frei verfügbare Module, die an einem zentralen Ort (CPAN) gesammelt werden, sind Stärken der Sprache. Entstehung. Larry Wall war als Administrator und Programmierer bei dem Unternehmen Unisys angestellt, wo er seit März 1987 daran beteiligt war, unter dem Namen "blacker" ein sicheres Netzwerk für die NSA zu entwickeln. Er erhielt mehrere Aufträge, Werkzeuge zur Überwachung und Fernwartung der entstehenden Software zu schaffen. Eine Hauptaufgabe war dabei, übersichtliche Berichte aus verstreuten Logdateien zu erzeugen. Da ihm die vorhandenen Sprachen und Werkzeuge dafür zu umständlich erschienen, entwickelte er mit Hilfe seines damaligen Teamkollegen Daniel Faigin und seines Schwagers Mark Biggar schrittweise eine eigene Sprache, um seine Aufgaben zu lösen. Dabei griff er auch auf sein Wissen und seine Erfahrung als Linguist zurück und entwarf Perl nahe an den menschlichen Sprachgewohnheiten. Dies drückt sich in minimalen Voraussetzungen für Einsteiger, einer starken Kombinierbarkeit der Sprachelemente und einem reichen Wortschatz aus, der auch Befehle zulässt, deren Bedeutungen sich überschneiden. Wall sieht darin die Bedürfnisse eines Praktikers nach Freiheit und intuitivem Ausdruck verwirklicht. Gemäß diesem praktischen Ansatz borgte sich Perl seinen Wortschatz und seine logischen Strukturen von den in den 1980er Jahren unter Unix verbreiteten Sprachen und Werkzeugen, was das Erlernen vereinfachte, aber auch die Unix-Philosophie umkehrte. Unix und seine Systembefehle waren kompiliert und meist in C geschrieben. Diese Befehle waren logische Einheiten und sollten genau eine Aufgabe beherrschen: „Do one thing and do it well“ („Mach genau eine Sache und mach sie gut“). Interpretierte Shell-Skripte kombinierten schnell und einfach die Befehle, die untereinander ihre Ergebnisse durch Pipes weiterreichen konnten. Perl verletzt diese Philosophie, indem es diese Befehle zum Bestandteil der Programmiersprache macht, also C und Shell vereint und die vorhandenen Befehle und Werkzeuge übergeht. Dies wurde notwendig, weil Shell-Skripte für komplexe Aufgaben ungeeignet waren. Ihr Ablauf ist sehr einfach, sie können Daten nur eingeschränkt zwischenspeichern und die Pipes sind Nadelöhre für den Datenaustausch. Andererseits erlauben sie einen wesentlich kompakteren Programmierstil, da die Benutzung eines UNIX-Werkzeugs viele Zeilen C-Quelltext ersetzen kann. Um die Vorteile beider Programmierarten nutzen zu können, schuf Wall eine Kombination aus C und Werkzeugen wie sed, awk, grep und "sort". Er fügte Eigenschaften der Bourne Shell, in geringem Maße auch Elemente aus Pascal und BASIC, sowie eigene Ideen dazu. Diese Fusion ermöglichte kurze, mächtige Programme, die man schnell schreiben und jederzeit auch testen konnte, ohne sie kompilieren zu müssen, was die Entwicklung ebenfalls beschleunigte. Später wurden weitere Fähigkeiten von Sprachen wie Lisp, Smalltalk, Python oder Ruby „importiert“. Name. Der Name Perl bezieht sich auf ein Zitat aus dem Matthäus-Evangelium , in dem Jesus das Himmelreich mit dem Bild eines Händlers beschreibt, der seinen gesamten Besitz verkaufen will, um eine kostbare Perle zu erwerben. Noch vor der Veröffentlichung wurde der Name von „Pearl“ in „Perl“ geändert, da es bereits eine Programmiersprache namens PEARL gab. Allgemein verbreitet und von Larry Wall akzeptiert sind auch die Backronyme "Practical Extraction and Report Language" (zweckmäßige Extraktions- und Berichtssprache) und "Pathologically Eclectic Rubbish Lister" (krankhaft stilmischender Blödsinnsauflister). Die Schreibweise „Perl“ bezeichnet die Sprache, „perl“ dagegen das Programm, das diese Sprache interpretiert. Ferner legt die Perl-Gemeinde Wert darauf, dass nicht die Schreibweise „PERL“ verwendet wird. Perl 1 bis 4. Am 18. Dezember 1987 publizierte Larry Wall sein Programm im Usenet als Perl 1.0, das damals noch eine mächtigere Shell war, die gut mit Texten und Dateien umgehen, andere Programme steuern und gut lesbare Berichte ausgeben konnte. Bereits am 5. Juni im Jahr darauf erschien die Version 2.0 mit grunderneuerter und erweiterter Regex-Engine und einigen weiteren Verbesserungen. Am 18. Oktober 1989 folgte Perl 3, das mit binären Daten umgehen konnte und auch Netzwerkprogrammierung ermöglichte. Als neue Lizenz wurde die GPL gewählt. Fast unverändert war es ab dem 21. März 1991 als Perl 4 erhältlich, jedoch nun wahlweise unter der GPL oder der von Larry Wall entwickelten Artistic License. Der eigentliche Grund für die neue Version war aber das gleichzeitig erschienene Kamelbuch, das als Referenz für den aktuellen, als Version 4 markierten Stand veröffentlicht wurde. Bis dahin waren die seit Perl 1 verfügbaren UNIX-"man-pages" die einzige verfügbare Perl-Dokumentation. Diese bieten zu jedem Thema eine fundierte und umfangreiche Abhandlung, aber keinen einfachen Einstieg für Perl-Anfänger. Diese Lücke sollte das von Randal L. Schwartz, Larry Wall und Tom Christiansen verfasste Buch schließen. Es erschien im O’Reilly Verlag, der mit diesem und weiteren Titeln als renommierter Fachverlag für Programmierer bekannt wurde. Perl-Bücher von O’Reilly wurden die maßgeblichen Perl-Publikationen, was sich erst im neuen Jahrtausend etwas relativierte. Der Verlag betrieb auch unter der Internetadresse "perl.com" das meistbesuchte Online-Magazin für Perl-Programmierung und veranstaltet mit der "TPC" (The Perl Conference – heute OSCON) die größte Perl-Konferenz. O’Reilly profitierte von Perls wachsender Popularität, und im Gegenzug bezahlte Tim O’Reilly seinem Freund Larry Wall in den folgenden Jahren ein festes Gehalt, der sich so, ohne weitere Pflichten oder Vorgaben, der Weiterentwicklung der Sprache widmen konnte. 1993, als Perl die Version 4.036 erreichte, brach Larry Wall die Weiterentwicklung ab und entwickelte Perl 5 vollständig neu. Perl 5. Perl 5.0 wurde am 18. Oktober 1994 veröffentlicht und war der bisher größte Fortschritt für die Sprache. Mit Plain Old Documentation konnte man nun formatierte Dokumentation in den Quelltext einfügen. Auch ließ sich die Sprache ab jetzt durch separate Module erweitern, was im folgenden Jahr zur Entstehung des CPAN führte. Dieses große Archiv frei erhältlicher Module ist heute selbst ein wichtiger Grund, Perl einzusetzen. Eine weitere wichtige Neuerung war die Einführung von Referenzen, die erstmals eine einfache Erstellung zusammengesetzter Datenstrukturen erlaubte. Mit Version 5 wurde es auch möglich, objektorientiert in Perl zu programmieren. Dabei wählte Larry Wall einen ungewöhnlichen Weg und leitete die dafür verwendete Syntax fast ausschließlich aus vorhandenen Sprachelementen ab (Packages, Package-Funktionen und Package-Variablen sowie den neuen Referenzen). Lediglich die Funktion codice_1 zum Anlegen eines Objektes und der Pfeil-Operator (codice_2) zum Aufruf von Methoden kamen hinzu (der Pfeil-Operator ist eigentlich der Dereferenzierungsoperator, der aus einem Objekt, das aus einer Referenz auf die Klasse besteht, eine bestimmte Methode dereferenziert). Es entstand auch XS, eine Schnittstellenbeschreibungssprache, die es ermöglicht, Perl-Programme mit anderen Sprachen zu erweitern oder mit Perl-Programmen beliebige Software oder Hardware anzusprechen. Seit der Veröffentlichung von Perl 5 beteiligte sich Larry Wall kaum noch an der Entwicklung der Sprache. Dies übernahmen freiwillig Perl-begeisterte Programmierer, die sogenannten "Perl 5 Porter," die über die im Mai 1994 gegründete p5p-Mailingliste kommunizieren, aber auch zunehmend über einen eigenen Bug- und Request-Tracker (RT) über Fehlerbehebungen und neue Funktionen der Sprache entscheiden. Dabei übernimmt je Version ein sogenannter "Pumpking" die Leitung. Der Begriff "Perl Porter" entstammt der ursprünglichen Aufgabe der p5p-Liste, die Portierung von Perl auf andere Betriebssysteme zu koordinieren. In den Jahren nach Version 5.0 wurde nicht nur Perl auf Macintosh und Windows portiert, sondern es verschob sich auch die Nummerierung der Versionen. Da sich an der Syntax nichts Wesentliches änderte, beließ man die 5 und erhöhte bei größeren Meilensteinen die erste Nachkommastelle, verwendete aber zusätzliche Nummern, um die Zwischenschritte zu zählen. Da Perl erst ab 5.6 mit Versionsnummern, die mehrere Kommata enthalten, umgehen konnte, wurden sie bis dahin z. B. Perl 5.001 oder Perl 5.001012 geschrieben. Ab 5.6 wurde auch das Versionsschema von Linux übernommen, bei dem gerade Nummern auf Fehlerfreiheit gepflegte Benutzerversionen hindeuten und ungerade auf Entwicklerversionen, in die neue Funktionen einfließen. Serien von Benutzerversionen (z. B. 5.8.x) werden untereinander binär kompatibel gehalten, was bedeutet, dass ein für Perl 5.8.7 kompiliertes Binärmodul auch mit 5.8.8, nicht jedoch mit 5.10 oder 5.6.1 funktioniert. Diese Version brachte am 22. März 2000 einige neue experimentelle Fähigkeiten, die erst später ausreiften, wie Unicode und UTF-8, Threads und cloning. Auch 64-Bit-Prozessoren konnten nun genutzt werden. Sprachlich fügte diese von Gurusamy Sarathy geleitete Reihe vor allem lexikalisch globale Variablen (mit codice_3) und eine Vektorschreibweise, die den Vergleich mehrstelliger Versionsnummern erlaubt, sowie die Spezialvariablen codice_4 und codice_5, ein. Mit der am 18. Juli 2002 von Nicholas Clark betreuten Reihe 5.8.x wurden vor allem die Probleme mit Unicode und den Threads behoben, aber auch die Ein-/Ausgabe (IO), Signale und die numerische Genauigkeit wurden entscheidend verbessert. ab Perl 5.10. Neben verringertem Speicherverbrauch und einer erneuerten und nun auch austauschbaren Regex-Maschine brachte diese Version am 18. Dezember 2007 unter der Führung von Rafaël Garcia-Suarez vor allem Neuerungen, die dem Entwurf von Perl 6 entstammen und deren Gebrauch entweder einzeln oder kollektiv mit codice_6 angemeldet werden muss oder kürzer codice_7. Dies gilt ab dieser Version für alle Funktionen, welche die Kompatibilität brechen könnten. Hierzu zählen codice_8, codice_9 und codice_10 (analog zur codice_11-Anweisung in C), der "smartmatch"-Operator (codice_12), der "defined or"-Operator (codice_13) und codice_14-Variablen, welche die Erzeugung von Closures vereinfachen. Weitere nennenswerte Neuheiten umfassen den verlagerbaren Installationspfad, stapelbare Dateitestoperatoren, definierbare lexikalische Pragmas, optionale "C3"-Serialisierung der Objektvererbung und "field hashes" (für „inside out“-Objekte). Die Regex-Engine arbeitet nun iterativ statt rekursiv, was nun rekursive Ausdrücke ermöglicht. Komplexe Suchanfragen können nun auch verständlicher und weniger fehleranfällig durch "named captures" formuliert werden. Die Spezialvariablen codice_15 und codice_16 sowie die Interpreterschnittstellen "perlcc" und "JPL" wurden entfernt. Im folgenden Jahr wurden die Quelle von Perforce auf Git umgestellt, was die Entwicklung und Herausgabe neuer Versionen wesentlich vereinfachte. Diese von Jesse Vincent geleitete Version vom 12. April 2010 beinhaltet weit weniger große und sichtbare Veränderungen als 5.10. codice_17 impliziert codice_18 und codice_19, wodurch alle Befehle Strings als Unicode behandeln. Unter den technischen Verbesserungen sind besonders der aktualisierte Unicode (5.2), DTrace-Unterstützung und Sicherheit von Datumsangaben jenseits von 2038 hervorzuheben, "suidperl" wurde entfernt. Aus Perl 6 wurden der "yadda"-Operator und die Regex-escape-Sequence "\N" übernommen, Modulversionen können jetzt von "package" und "use" verwaltet werden. Ebenfalls neu ist die Möglichkeit, eigene Schlüsselwörter durch Perlroutinen zu definieren. Dies ist allerdings als experimentell markiert und kann sich ändern. Für bessere Planbarkeit und Zusammenarbeit mit Distributionen erscheint ab 5. Dezember 2000 am 20. jedes Monats eine Entwicklerversion, alle 3 Monate eine kleine Benutzerversion und jedes Jahr eine große. Ab 14. Mai 2011 erleichtern neue Modifikatoren und Steuerzeichen den Umgang mit Unicode, der auf den Stand 6.0 gebracht wurde. Built-ins für Listen und Hashes dereferenzieren automatisch und weite Teile der Dokumentation wurden überarbeitet oder neu geschrieben. Auch die Unterstützung von IPv6 wurde verbessert, sowie das Anbinden von Multithread-Bibliotheken erleichtert. Die am 20. Mai 2012 herausgegebene Version beinhaltet zahlreiche syntaktische Glättungen, in Teilen erneuerte Dokumentation und den Wechsel zu Unicode 6.1. Die Leitung hatte Jesse Vincent und ab November 2011 Ricardo Signes. Durch einen neu eröffneten Spendentopf der Perl Foundation konnten zudem zwei langjährige Entwickler dazu verpflichtet werden, undankbare Aufgaben zum Abschluss zu führen und den Build-Prozess zu vereinfachen. Einzige grundlegend neue Funktionalität ist das mit "use feature 'current_sub';" oder "use v5.16;" zuschaltbare Token "__SUB__", eine Referenz auf die aktuelle Routine. Die am 18. Mai 2013 erschienenen Funktionalitäten lexikalische Subroutinen ("lexical_subs") und mit Mengenfunktionen erzeugte Zeichenklassen innerhalb regulärer Ausdrücke sind beide experimentell. Solche Funktionen, zu denen auch lexikalische Kontextvariablen und der Smartmatch-Operator gehören, erzeugen jetzt Warnhinweise, die mit "no warnings 'experimental::funktionsname';" oder "no warnings 'experimental';" abgeschaltet werden können. Die Hashes wurden konsequent randomisiert, um Programme besser gegen DoS-Attacken zu schützen. Ebenfalls unter der Führung von Ricardo Signes kamen am 27. Mai 2014 die experimentellen Funktionalitäten der Subroutinen-Signaturen ("signatures") und ("postderef") ein alternativer Postfix-Syntax zum Dereferenzieren. Das mit 5.14 aufgenommene "autoderef" wurde als experimentell herabgestuft. Unicode 6.3 wird unterstützt und mit drand48 hat Perl nun einen eigenen, plattformunabhängig guten Zufallszahlengenerator. String- und Arraygrößen sind jetzt 64-Bit Werte. Mit dem 1. Juni 2015 kam der Doppeldiamantoperator («»), die ("bitwise")-Stringops (&. |. ^. ~.), ein 'strict'-Modus für reguläre Ausdrücke "use re 'strict';" ("re_strict"), Unicode 7.0, Aliasing von Referenzen ("refaliasing") und konstante Routinen ("const_attr"), die stets einen zur Kompilierungszeit ermittelten Wert liefern. Alle benannten Funktionalitäten (Name in Klammern) sind vorerst experimentell. Aktuelle Versionen. Auch wenn die neueste Benutzerversion 5.22.1 lautet, wird derzeit die Versionsreihe 5.20.x weiterhin gepflegt (aktuell ist 5.20.2). Die Versionen 5.18.2, 5.16.3, 5.14.4, 5.12.5, 5.10.1 und 5.8.9 sind Schlusspunkte ihrer Reihe, sicherheitsrelevante Verbesserungen werden noch bis zu 3 Jahre nach Veröffentlichung einer Version nachgereicht. Bei Kernmodulen wird meist auf eine Kompatibilität bis zu 5.6 geachtet, bei wichtigen CPAN-Modulen meist 5.8.3. Derzeitige Änderungen finden im Entwicklerzweig 5.23 statt, der nicht für allgemeine Benutzung bestimmt ist. Die nächste Perlversion wird 5.24 und nicht Perl 6 sein, welches ein Langzeitprojekt ist. Die Sprache, der Interpreter und die umgebende Infrastruktur sollen vollständig neu gestaltet werden. Perl 6. a> ist an der Neugestaltung der Sprache beteiligt Am 19. Juli 2000 auf der TPC 4 wurde Perl 6 als die Version der Perl-Gemeinschaft angekündigt. Nachdem Larry Wall mehrere hundert Vorschläge auswertete und thematisch sortierte, schrieb er je Thema einen Überblick seiner Vorstellungen ("Apocalypse" genannt), der nach Diskussionen in den Mailinglisten von Damian Conway zu einer detaillierten "Exegese" formuliert wurde. In den folgenden Jahren wurde die Sprache in kleinerem Kreis weiterentwickelt und dabei der aktuelle Stand in wesentlich knapperen "Synopsen" festgehalten, wobei die Impulse ab etwa 2009 vor allem von den Implementatoren und Benutzern ausgehen. Die Sprache wurde entrümpelt und mit neuen Fähigkeiten ausgestattet. Unter anderem wurde die Objektorientierung komplett neu gestaltet und funktionale Programmierelemente wie Hyperoperatoren und Junctions eingeführt. Makros lösen die Sourcefilter ab und die neu systematisierten und erweiterten regulären Ausdrücke lassen sich zu ableitbaren Grammatiken zusammenfassen. Sie erlauben es die den Compiler zu verändern oder um DSL zu erweitern und werden mit dem "smart match"-Operator codice_12 angewendet, der je nach Kontext verschiedene Arten von Daten, Datenstrukturen und auch Inhalte von Symboltabellen vergleichen kann. Der Bereich der asynchronen und parallelen Programmierung wird derzeit als letzter spezifiziert. Als Interpreter für Perl 6 wurde ursprünglich (seit 2001) eine neue registerbasierte virtuelle Maschine namens "Parrot" entwickelt. Sie sollte viele Sprachen (auch gemischt) ausführen und ist für dynamische Sprachen wie Perl, Python oder Ruby optimiert. Parrot wurde von Dan Sugalski und Chip Salzenberg entworfen und später von Jonathan Leto und Patrick Michaud betreut, wobei letzterer für die "Parrot Compiler Tools" (PCT) zuständig war, einem Satz Werkzeuge für die Erstellung von Parsern und Compilern. Der auf Parrot und PCT basierende Perl 6-Compiler nennt sich Rakudo. Unter der Führung von Jonathan Worthington bekam Rakudo einen in NQP (sehr einfache Perlvariante) programmierten Unterbau, der es erlaubt, den Compiler auf die JVM (kleine Inkompatibilitäten) und .NET (geplant) zu portieren, sowie auf Moar, eine ausschließlich auf Rakudo ausgerichtete VM. Seit dem 29. Juli 2010 erscheint monatlich für „frühe Nutzer“ eine "Rakudo *"-Distribution mit Dokumentation und Bibliotheken sowie wahlweise Parrot oder (seit August 2014) Moar. Benutzenswerte Bibliotheken sind auf gelistet und werden mit panda installiert. Audrey Tang leitete seit Anfang Februar 2005 die Entwicklung des alternativen Perl-6-Compilers namens "Pugs" in der Sprache Haskell. Mehrere Jahre war Pugs der vollständigste, aber auch langsamste Perl-6-Compiler und ermöglichte es als erster, zahlreiche Details der Sprache vorzuführen, zu testen und nachzubearbeiten. Die umfangreiche und in Perl 6 geschriebene Perl-6-Testsuite entstammt dem Pugs-Quellcode. Neben Ablegerprojekten wie elf und viv entstanden zahlreiche weitere Interpreter, Compiler- und Parser-Projekte, mit unterschiedlichen Schwerpunkten wie SMOP (Meta-OOP-runloop), Niecza (schneller Compiler für.NET), Sprixel, Perlito (compiliert u. a. zu im Browser ausführbarem Javascript), Yapsi, welche teilweise wertvolle Erkenntnisse erbrachten, aber oft kaum direkten praktischen Nutzen. Einzig Rakudo, Perlito und gimme5 werden noch fortgesetzt. Letzteres übersetzt eine maschinell lesbare Definition der Perl 6-Syntax (STD genannt) nach Perl 5. Jede Software, welche diese Regeln einhält, darf sich offiziell Perl 6 nennen. Perl 6 ist als „Schwestersprache“ ausgerufen, ohne jegliche Absicht Perl 5 mittelfristig zu ersetzen. Prinzipien. Perl wurde für den praktischen Einsatz entwickelt und konzentriert sich daher auf schnelle und einfache Programmierbarkeit, Vollständigkeit und Anpassbarkeit. Diese Philosophie drückt sich in den folgenden Schlagworten oder Phrasen aus, die meist von Larry Wall stammen. Mehrere Wege . Das bekannteste und grundlegendste Perl-Motto ist „There is more than one way to do it“ (deutsch: „Es gibt mehr als einen Weg, etwas zu tun“), was meist zu TIMTOWTDI (selten TMTOWTDI) oder (mit englischer Kontraktion) „Tim To[a]dy“ verkürzt wird. Perl macht im Gegensatz zu Sprachen wie Python weniger Vorgaben und bietet absichtlich für jedes Problem mehrere Formulierungs- und Lösungsmöglichkeiten ("Syntaktischer Zucker"). Zum Beispiel kann man logische Operatoren als codice_21 und codice_22 (wie in C) oder (mit Bedeutungsnuancen) als codice_23 und codice_24 (wie in Pascal) schreiben; aber auch zahlreiche Befehle mit einem sich überschneidenden Funktionsumfang wie codice_25 und codice_26 erlauben verschiedene Formulierungen für den gleichen Sachverhalt. Einige Befehle wie der Diamant-Operator (codice_27) bieten verkürzte Schreibweisen für bereits vorhandene Funktionalität (hier wäre, mit leichten Unterschieden, codice_28 äquivalent, was jedoch viel länger zu schreiben wäre). Diese Vielfalt wird auch im CPAN sichtbar, wo oft mehrere Module einen sehr ähnlichen Zweck erfüllen oder einen, der auch (wenn auch umständlicher) manuell implementiert werden könnte (Beispiel codice_29). Ein weiteres Schlagwort, das man auch als Erweiterung von TIMTOWTDI sehen kann, bezeichnet Perl als die erste "postmoderne Programmiersprache." Damit ist gemeint, dass Perl verschiedene Paradigmen vereint und es dem Benutzer frei steht, strukturierte, objektorientierte, funktionale und imperative Sprachmerkmale zu kombinieren. Einfach und möglich. Der andere wichtige Merksatz ist "Perl makes easy jobs easy and hard jobs possible", was zu deutsch bedeutet „Perl hält die einfachen Aufgaben einfach und macht (die Lösung) schwierige(r) Aufgaben möglich“. Dies beinhaltet zum ersten das Ziel, gängige Aufgaben möglichst mit kurzen „fertigen Lösungen“ zu vereinfachen. Zum Beispiel prüft codice_30 die Existenz einer Datei. Einfache Aufgaben einfach zu belassen bedeutet für Perl aber auch, möglichst keine vorbereitenden Programmieranweisungen zu verlangen, wie das Anmelden von Variablen oder das Schreiben einer Klasse. Zweitens versucht Perl vollständig zu sein und für jedes Problem mindestens die Grundlagen bereitzustellen, die eine Lösung möglich machen. Das dritte Ziel, die ersten beiden Ziele nicht kollidieren zu lassen, gewinnt mit dem wachsenden Sprachumfang von Perl 6 immer mehr an Bedeutung, wo in Anlehnung an den Huffman-Code die Schreibweisen der am häufigsten verwendeten Befehle möglichst kurz gehalten sind, ohne mit der Logik der Schreibweise ähnlicher Befehle zu brechen. Kontextsensitiv. In Perl gibt es Befehle, die verschiedene Bedeutungen haben, je nachdem in welchem Zusammenhang sie benutzt werden. Derart kontextsensitiv sind Datenstrukturen wie das Array. Wird es einem anderen Array zugewiesen, wird dessen Inhalt übergeben; ist der Empfänger ein einzelner Wert (Skalar), erhält dieser die Länge des Arrays. Technische Merkmale. Der Perl-Interpreter selbst ist ein in C geschriebenes Programm, das auf annähernd jedem Betriebssystem kompilierbar ist. Vorkompilierte Versionen auf selten verwendeten Systemen wie zum Beispiel BeOS oder 2 sind jedoch nicht immer auf dem neuesten Stand. Der Quellcode umfasst circa 50 MB und enthält auch Perl-Skripte, die die Funktion von "Makefiles" und der Test-Suite übernehmen. Aktuell ist das kompilierte Programm circa 850 KB groß, was aber je nach Betriebssystem, verwendetem Compiler und Bibliotheken variieren kann. Perl-Skripte werden in Textdateien mit beliebigem Zeilentrennzeichen gespeichert. Beim Start eines Skripts wird es vom Perl-Interpreter eingelesen, in einen Parse Tree umgewandelt, dieser zu Bytecode, welcher dann ausgeführt wird. Der im Interpreter integrierte Parser ist eine angepasste Version von GNU Bison. Strenggenommen ist Perl daher keine interpretierte Sprache, da ein Perl-Programm vor jeder Ausführung kompiliert wird. Das führt etwa dazu, dass – anders als bei rein interpretierten Sprachen – ein Programm mit Syntaxfehlern nicht startet. Verbreitung. Zu Beginn war Perl ein UNIX-Werkzeug, das besonders auf die Verarbeitung von Textdateien, Steuerung anderer Programme sowie zur Ausgabe von Berichten ausgelegt war. Dafür wird es bis heute, nicht nur von Systemadministratoren, auf allen verbreiteten Betriebssystemen eingesetzt. Dabei bekam Perl auch den Ruf einer "glue language" („Klebstoff-Sprache“), weil mit Hilfe von relativ schnell geschriebenen Perl-Skripten inkompatible Software verbunden werden kann. Bis heute gehört Perl auf allen POSIX-kompatiblen und Unix-ähnlichen Systemen zur Grundausstattung. Mit der Verbreitung des World Wide Web wurde Perl zunehmend benutzt, um Webserver, Datenbanken und weitere Programme und Daten zu verbinden und die Ergebnisse in Form von HTML-Seiten auszugeben. Der Perl-Interpreter wird dabei über CGI oder FastCGI vom Webserver angesprochen oder ist direkt im Server eingebettet. (mod perl im Apache, "ActiveState PerlEx" im Microsoft IIS). Auch wenn für diese serverseitige Skript-Programmierung PHP mittlerweile populärer wurde, wird Perl weiterhin von vielen großen und kleinen Seiten und Internetdiensten wie "Amazon.com", "IMDb.com", "slashdot.org," "Movable Type", "LiveJournal" und "XING" verwendet. Da Perl-Skripte oft kaum erkennbar an vielen wichtigen Stellen arbeiten, wurde Perl auch scherzhaft als das Klebeband bezeichnet, welches das Internet zusammenhält. In Perl entstanden auch Frameworks wie Mason, Catalyst, Jifty, Mojolicious und Dancer, die eine sehr schnelle Entwicklung komplexer und leicht veränderbarer Internetseiten erlauben. Auch Wiki-Software ist häufig in Perl geschrieben wie z. B. Socialtext, welches auf Mason basiert, Kwiki, TWiki, Foswiki, ProWiki oder UseMod. Auch verbreitete Ticket-Systeme mit Webschnittstelle wie Bugzilla oder RT sind in Perl geschrieben. Jedoch sind WWW-Anwendungen weiterhin nur eines der vielen Einsatzgebiete von Perl. Wichtige Perl-Programme im E-Mail-Bereich sind "SpamAssassin" (Spam-Filter), "PopFile" und "open webmail". Zur Systemverwaltung wird Perl zum Beispiel in Debconf, einem Teil der Paketverwaltung des Betriebssystems Debian, benutzt. Auch "automake", ein Teil des GNU Build System, ist in Perl geschrieben. Weitere Hauptanwendungsfelder sind das Data-Munging und die Bioinformatik, wo Perl seit etwa 1995 die am häufigsten verwendete Sprache war und immer noch bedeutend ist. Gründe hierfür sind wieder die Fähigkeit, Informationen in Textform zu verarbeiten, und die Flexibilität und Offenheit der Sprache, die es der internationalen Forschergemeinde erlauben, trotz unterschiedlicher Standards der Institute zusammenzuarbeiten. BioPerl ist hier die wichtigste Sammlung frei erhältlicher Werkzeuge, die sich vor allem auf das Gebiet der Genomsequenzenanalyse konzentriert. Beim Human Genome Project spielte Perl eine wichtige Rolle. Auch Desktop-Anwendungen und Spiele wie "Frozen Bubble" können in Perl geschrieben werden. Die heutigen Computer sind schnell genug, diese Programme flüssig auszuführen. Bereiche, in denen Skriptsprachen wie Perl nicht sinnvoll eingesetzt werden können, sind zum einen Anwendungen mit hohen Anforderungen an Hardware-Nähe oder Geschwindigkeit wie zum Beispiel Treiber oder Codecs. Zum anderen sollten sie nicht in stark sicherheitskritischen Bereichen (z. B. Flugzeugsteuerung) Verwendung finden, da aufgrund der laxen Syntaxprüfung (z. B. fehlendes/sehr schwaches Typsystem) viele Fehler erst zur Laufzeit auftreten und eine Verifizierung im Allgemeinen nicht möglich ist. Perl-Portierungen existierten für über 100 Betriebssysteme. Perl und andere Programmiersprachen. Für Aufgaben, die mit Perl nur schwierig oder langsam lösbar sind, bietet Perl mit dem Modul Inline eine Schnittstelle an, über die Programmteile in anderen Sprachen in ein Perl-Programm eingebunden werden können. Unterstützte Sprachen sind u. a. C, C++, Assembler, Java, Python, Ruby, Fortran und Octave. Die Anwendung von Inline ist relativ einfach und gut dokumentiert. Bei kompilierten Programmteilen führt Inline mittels MD5-Kennung Buch über den Versionsstand, wodurch Mehrfachcompilierung des gleichen Codes vermieden wird. Bei Inline erfordert die Übergabe der Parameter und Rückgabe der Ergebnisse einigen Aufwand. Bei kurzen Berechnungen überwiegt dieser Aufwand den Gewinn an Geschwindigkeit. Wird zum Beispiel die Mandelbrot-Menge berechnet, indem die Formel formula_1 über Inline als C-Funktion berechnet, die Iteration aber in Perl belassen, verlangsamt sich die Programmausführung gegenüber einer reinen Perl-Implementierung. Wird hingegen auch die Iterationsschleife in C ausgelagert, steigert sich die Performance signifikant. Logos. Als Maskottchen von Perl dient ein Dromedar. Es zierte erstmals den Umschlag des auch als "Kamelbuch" bekannten Referenzwerkes "Programming Perl". Sein Verleger (Tim O’Reilly) sagte in einem Interview scherzhaft als Begründung: "Perl ist hässlich und kommt über lange Strecken ohne Wasser aus." Das Dromedar ist auf dem "Programming Republic of Perl" Emblem zu sehen, das oft als offizielles Perl-Logo angesehen wird und dessen nichtkommerziellen Gebrauch O’Reilly gestattet. Andere im Zusammenhang mit Perl benutzte Logos sind neben Perlen die aufgeschnittene Zwiebel (Erkennungszeichen der Perl Foundation) und der Komodowaran, der die weit verbreitete Perl-Distribution ActivePerl von ActiveState schmückt. Kritikpunkte. Häufigster Kritikpunkt an Perl ist seine mangelnde Lesbarkeit. Tatsächlich bietet Perl überdurchschnittlich viele Freiheiten, die zu unleserlichem Code führen können "(siehe Disziplinen)," und jedes nichttriviale Programm wird viel öfter gelesen als geschrieben. Andererseits ermöglicht es die gleiche Freiheit auch, nahe an der logischen Struktur des Problems oder dem menschlichen Verständnis zu programmieren. Die von Perl-Programmierern geschätzte Freiheit, persönlichen Vorlieben nachzugehen, muss bei Projekten, die von mehreren Programmierern oder über längere Zeiträume entwickelt werden, durch selbst auferlegte Regeln eingeschränkt werden, um spätere Probleme zu vermeiden. Dies erfordert zusätzlichen Kommunikationsaufwand oder die Verwendung von Software wie "Perl::Critic". Einige Teile der Syntax, wie die Objektorientierung und Signaturen, sind zwar einfach und sehr mächtig, werden aber häufig gegenüber vergleichbaren Sprachen wie Python oder Ruby als veraltet wahrgenommen und fordern bei standardisierten Herangehensweisen, besonders von Perl-Anfängern, zusätzliche Tipp- und Denkarbeit. Diese Probleme sollen mit Perl 6 behoben werden oder können mit zusätzlichen, für Perl 5 erhältlichen Modulen umgangen werden. So gibt es mit ein sehr modernes und umfangreiches Objektsystem, das sich stark an das von Perl 6 anlehnt. Moose gilt in der Zwischenzeit als De-facto-Standard für objektorientierte Programmierung mit Perl.. Signaturen wurden mit 5.20 eingeführt, sind aber immer noch als experimentell eingestuft. Weiterhin wird Perl vorgeworfen, es verletze die UNIX-Philosophie. Siehe dazu den Abschnitt Entstehung. Starke Kritik wird auch gegen Perl 6 erhoben, das zu hoch gesteckte Ziele habe und nach 15 Jahren angeblich immer noch keine sichtbaren Ergebnisse bringe und stattdessen die Zukunft von Perl (5) lähme. Perl 6 war von Anfang an als Langzeitprojekt ausgerufen, das ausschließlich auf nicht immer planbarer Freiwilligenarbeit und kaum auf finanzieller Unterstützung beruht. Seine konkreten Ziele zeichneten sich erst im Verlauf der Entwicklung ab, und es gab eindeutige Probleme bei der Kommunikation und der Außendarstellung. Allerdings stammen seit Perl 5.10 wesentliche Neuerungen aus Perl 6. Das seit 2010 monatlich erscheinende Rakudo kann fast alle Teile von Perl 6 verlässlich, aber langsamer als Perl 5 ausführen und soll im Dezember 2015 als Perl 6.0 erscheinen. Freies Format. Perl erlaubt bedingt formatfreien Quellcode. Das bedeutet, dass Einrückungen und zusätzliche Leerzeichen syntaktisch unerheblich sind und auch Zeilenumbrüche nach Belieben eingefügt werden können. Dafür müssen Befehle eines Blocks mit Semikolon getrennt werden. Einige Sprachelemente wie Formate, heredocs und gewöhnliche reguläre Ausdrücke sind nicht formatfrei. Variablen. Datei-Handles, Verzeichnis-Handles und Formate besitzen kein Präfix, sind aber ebenfalls eigenständige Datentypen. Jeder Datentyp hat in Perl seinen eigenen Namensraum. Basisdatentypen in Perl sind skalare Variablen, Arrays und Hashes (assoziative Arrays). Hashes und Arrays lassen sich einander zuweisen, wobei Hashes als Listen von Key/Value-Paaren betrachtet werden. Daten verschiedenen Typs lassen sich mittels Referenzen beliebig zu neuen Datenstrukturen kombinieren, beispielsweise sind Hashes denkbar, die neben (Referenzen auf) Arrays auch einzelne Skalare enthalten. Package-Variablen werden automatisch erstellt, sobald sie das erste Mal verwendet werden. Weitaus häufiger im modernen Sprachgebrauch kommen gültigkeitsbeschränkte Variablen zum Einsatz. Diese müssen mittels codice_41 deklariert werden. codice_3 macht eine Variable im gesamten Programm verfügbar. codice_43 gibt die angegebene Variable wieder frei. Kontrollstrukturen. Die grundlegenden Kontrollstrukturen unterscheiden sich kaum von denen in C, Java und JavaScript. Bedingte Ausführung. codice_44 funktioniert wie aus C bekannt; codice_45, eine Besonderheit von Perl, ist eine Schreibweise für codice_46. Eine Case- oder Switch-Anweisung (codice_47) gibt es erst ab Perl 5.10, vorher musste man diese Struktur mit codice_48 nachbilden. Jedoch setzt codice_9 die Kontextvariable (codice_50) wie codice_26 und codice_10 wendet smartmatch (codice_12) darauf an, was dieses Konstrukt ungleich vielfältiger einsetzbar macht als traditionelle Case-Befehle. Das optionale codice_54 entspricht hier einem codice_55. Die optimierten logischen Operatoren erlauben auch eine bedingte Ausführung. Bei codice_23 (bzw. codice_21) wird der zweite Ausdruck ausgeführt, wenn das Ergebnis des ersten kein wahrer Wert ist, codice_24 (bzw. codice_22) funktioniert analog. Schleifen. Wie in C iterieren codice_60 und codice_26 (in der an C angelehnten Variante), solange die Bedingung wahr ist, codice_62, bis sie wahr ist, und codice_63 iteriert über eine Liste. In Perl 5 sind codice_26 und codice_63 austauschbar. [label:] for[each] my $element] () codice_66 verlässt sofort die Schleife, codice_67 wiederholt die derzeitige Iteration, und codice_68 springt zum codice_69-Block, bevor es dann mit der nächsten Iteration fortfährt. Diese Befehle können von einem Label-Bezeichner gefolgt sein, der bei geschachtelten Strukturen bestimmt, auf welche Schleife sich der Befehl bezieht. do while ; # Spezialfall: in dieser Form do until ; # mindestens eine Ausführung Nachgestellte Kontrollstrukturen. Die oberhalb aufgezählten Kontrollstrukturen beziehen sich auf einen Block mit mehreren Anweisungen. Bei einzelnen Anweisungen kann man auch die verkürzte, nachgestellte Schreibweise wählen, die auch den (englischsprachigen) Lesern das Verständnis durch natürlichsprachige Formulierung erleichtert. Reguläre Ausdrücke. Seit seinen Anfängen waren reguläre Ausdrücke (Regex) ein besonderes Merkmal von Perl, da ähnliche Fähigkeiten bis dahin meist nur spezialisierte Sprachen wie Snobol und awk hatten. Durch die große Verbreitung setzte Perl einen inoffiziellen Standard, der durch die von Perl unabhängige und auch teilweise abweichende Bibliothek PCRE aufgegriffen wurde, die heute von mehreren bedeutenden Sprachen und Projekten verwendet wird. Seit Version 5.0 hat Perl seine Regex-Fähigkeiten um viele Funktionen, wie z. B. Rückwärtsreferenzen, erweitert. Auch lassen sich reguläre Ausdrücke in Perl wesentlich direkter – als z. B. in Java – mit dem codice_70-Operator verwenden, da sie Kernbestandteil der Sprache sind und nicht eine zuschaltbare Bibliothek. Der eigentliche reguläre Ausdruck wird mit Schrägstrichen als Begrenzungszeichen notiert. Weil Schrägstriche häufig auch innerhalb regulärer Ausdrücke vorkommen können, dürfen auch viele andere Zeichen zur Begrenzung verwendet werden. Das verbessert die Lesbarkeit, weil man so Zeichen wählen kann, die sich vom Inhalt des regulären Ausdrucks abheben. Perl kennt zwei Befehle für reguläre Ausdrücke, deren Verhalten mit vielen nachgestellten Optionen verändert werden kann. Der oft in einem Atemzug mit codice_90 und codice_91 beschriebene Operator codice_92 hat mit ihnen nur die Schreibweise gemein. Er lehnt sich an den UNIX-Befehl codice_93 an, der dem Ersetzen einzelner Zeichen dient. Synonym kann statt codice_93 auch codice_95 geschrieben werden. Neben diesen beiden kann auch der Befehl codice_96 erwähnt werden, der eine Zeichenfolge aufteilt anhand eines Trennzeichens, das auch ein regulärer Ausdruck sein darf. Quoting und Interpolation. $text = 'He\'s my friend '. $name. ' from '. $town. '.' . ' '. $name. ' has worked in company "'. $company. '" for '. $years. ' years.'; $text = "He's my friend $name from $town. $name has worked in company \"$company\" for $years years."; Gemeinschaft. Wie auch bei anderen Projekten freier Software gibt es zwischen vielen Entwicklern und Benutzern der Sprache besondere soziale Bindungen, und es bildete sich eine eigene Kultur daraus. Die Perl-Kultur ist von Offenheit, Gastlichkeit und Hilfsbereitschaft, aber auch von Individualismus, Spieltrieb und Humor geprägt. Anfangs war sicher Larry Wall hierfür ein Vorbild, da er durch andere Projekte wie "rn" oder "patch" bereits bei der Veröffentlichung von Perl eine prominente Position in UNIX-Entwicklerkreisen hatte, doch mittlerweile zählen auch Randal L. Schwartz, Damian Conway, Audrey Tang, Brian Ingerson und Adam Kennedy zu den Leitfiguren, die durch ihre Arbeiten innerhalb der „Szene“ große Beachtung finden. Im Gegensatz zu kommerziellen Programmiersprachen lassen sich fast alle Aktivitäten auf persönliche Motivationen zurückführen. Dementsprechend ist die Perl Foundation eine reine Freiwilligen-Organisation, die sich als Angelpunkt einer sich selbst verwaltenden Gemeinschaft versteht und die gespendeten Gelder für einflussreiche Projekte und Personen, Organisation von Entwicklerkonferenzen und den Betrieb der wichtigsten Perl betreffenden Webseiten verwendet. Treffen, Workshops und Konferenzen. Lokale Benutzergruppen, die meist ein oder zweimal im Monat zu zwanglosen Treffen einladen, bei denen auch Vorträge gehalten werden können, nennen sich Perl Mongers und sind in über 200 größeren Städten auf der ganzen Welt zu finden. Größer, wesentlich straffer organisiert und meist landesbezogen sind die jährlichen Workshops, von denen der gut etablierte "Deutsche Perl-Workshop" der erste war. Workshops wollen ambitionierte Entwickler in einem möglichst erschwinglichen Rahmen lokal zusammenführen. Ein ähnliches Ziel haben die größeren "Yet Another Perl Conferences" (YAPC), die für die Regionen Nordamerika, Brasilien, Europa, Asien, Russland und Israel abgehalten werden. Am größten, allerdings auch am teuersten ist die von O’Reilly in den USA ausgerichtete "The Perl Conference" ("TPF"), die mittlerweile Teil der OSCON ist. Seit etwa 2005 werden für engagierte Beitragende auch Hackathons abgehalten, meist zu den Themen "Qualitätssicherung" und Perl 6. Disziplinen. Viele Spracheigenschaften von Perl laden dazu ein, Programmcode kreativ zu gestalten. Dies hat zu verschiedenen intellektuellen, teils humorvollen, teils skurrilen Wettbewerben und Traditionen um die Programmiersprache Perl geführt. @P=split//,".URRUU\c8R";@d=split//,"\nrekcah xinU / lreP rehtona tsuJ";sub pp;p;p;p;p;map%p;wait until$?;map%p;$_=$d[$q];sleep rand(2)if/\S/;print insertum stringo unum tum duo excerpemento da. Mottos und Zitate. Perl-Programmierer sehen Kamele jeder Art als Maskottchen. Die London Perl Mongers haben sogar eines aus dem Londoner Zoo adoptiert. Prädikatenlogik. Die Prädikatenlogiken (auch Quantorenlogiken) bilden eine Familie logischer Systeme, die es erlauben, einen weiten und in der Praxis vieler Wissenschaften und deren Anwendungen wichtigen Bereich von Argumenten zu formalisieren und auf ihre Gültigkeit zu überprüfen. Auf Grund dieser Eigenschaft spielt die Prädikatenlogik eine große Rolle in der Logik sowie in Mathematik, Informatik, Linguistik und Philosophie. Gottlob Frege und Charles Sanders Peirce entwickelten unabhängig voneinander die Prädikatenlogik. Frege entwickelte und formalisierte sein System in der 1879 erschienenen Begriffsschrift. Ältere logische Systeme, zum Beispiel die traditionelle Begriffslogik, sind hinsichtlich ihrer Ausdrucksstärke echte Teilmengen der Prädikatenlogik. Sie lassen sich vollständig in diese übersetzen. Zentrale Begriffe. Prädikatenlogik ist eine Erweiterung der Aussagenlogik. In der Aussagenlogik werden zusammengesetzte Aussagen daraufhin untersucht, aus welchen einfacheren Aussagen sie zusammengesetzt sind. Zum Beispiel besteht die Aussage „Es regnet oder die Erde ist eine Scheibe“ aus den beiden Aussagen „Es regnet“ und „Die Erde ist eine Scheibe.“ Diese beiden Aussagen lassen sich ihrerseits nicht in weitere Teilaussagen zerlegen – sie werden deshalb atomar oder elementar genannt. In der Prädikatenlogik werden atomare Aussagen hinsichtlich ihrer inneren Struktur untersucht. Ein zentrales Konzept der Prädikatenlogik ist das "Prädikat". Ein Prädikat ist eine Folge von Wörtern mit Leerstellen, die zu einer wahren oder falschen Aussage wird, wenn in jede Leerstelle ein Eigenname eingesetzt wird. Zum Beispiel ist die Wortfolge „… ist ein Mensch“ ein Prädikat, weil durch Einsetzen eines Eigennamens – etwa „Sokrates“ – ein Aussagesatz, zum Beispiel „Sokrates ist ein Mensch“, entsteht. Die Aussage „Die Erde ist eine Scheibe“ lässt sich prädikatenlogisch in den Eigennamen „die Erde“ und das Prädikat „… ist eine Scheibe“ zerlegen. Anhand der Definition und der Beispiele wird klar, dass der Begriff „Prädikat“ in der Logik, speziell in der Prädikatenlogik, nicht dieselbe Bedeutung hat wie in der traditionellen Grammatik, auch wenn historisch und philosophisch ein Zusammenhang besteht. Statt eines Eigennamens kann in das Prädikat auch eine Variable eingesetzt werden, wodurch das Prädikat zu einer Satzfunktion wird: φ("x")=„"x" ist ein Mensch“ ist eine Funktion, die in der klassischen Prädikatenlogik für die Eigennamen derjenigen Individuen, die Menschen sind, den Wahrheitswert "wahr" ausgibt und für alle anderen den Wahrheitswert "falsch". Das zweite charakteristische Konzept der Prädikatenlogik ist der "Quantor". Quantoren geben an, von wie vielen Individuen des Diskursuniversums eine Satzfunktion erfüllt wird. Ein Quantor "bindet" die Variable einer Satzfunktion, so dass wieder ein Satz entsteht. Der Allquantor sagt aus, dass ein Prädikat auf alle Individuen zutreffen soll. Der Existenzquantor besagt, dass ein Prädikat auf mindestens ein Individuum zutrifft. Die Quantoren ermöglichen Aussagen wie „Alle Menschen sind sterblich“ oder „Es gibt mindestens einen rosa Elefanten“. Gelegentlich werden zusätzlich numerische Quantoren verwendet, mit denen ausgesagt werden kann, dass ein Prädikat auf eine bestimmte Anzahl von Individuen zutrifft. Diese sind jedoch nicht unbedingt nötig, denn sie lassen sich auf den All- und den Existenzquantor sowie auf das Identitätsprädikat zurückführen. Prädikate. Die oben gegebene Definition eines Prädikats als Folge von Wörtern mit klar definierten Leerstellen, die zu einer Aussage wird, wenn in jede Leerstelle ein Eigenname eingesetzt wird, ist eine rein formale, inhaltsfreie Definition. Inhaltlich betrachtet können Prädikate ganz unterschiedliche Gegebenheiten ausdrücken, zum Beispiel Begriffe (z. B. „_ ist ein Mensch“), Eigenschaften (z. B. „_ ist rosa“) oder Relationen, d. h. Beziehungen zwischen Individuen (z. B. „_1 ist größer als _2“ oder „_1 liegt zwischen _2 und _3“). Da die genaue Natur und der ontologische Status von Begriffen, Eigenschaften und Relationen umstritten sind bzw. von unterschiedlichen philosophischen Richtungen unterschiedlich betrachtet werden und da auch die genaue Abgrenzung von Begriffen, Eigenschaften und Relationen untereinander unterschiedlich gesehen wird, ist diese formale Definition die anwendungspraktisch günstigste, weil sie es erlaubt, Prädikatenlogik zu verwenden, ohne bestimmte ontologische bzw. metaphysische Voraussetzungen akzeptieren zu müssen. Die Zahl der unterschiedlichen Leerstellen eines Prädikats wird seine Stelligkeit genannt. So ist ein Prädikat mit einer Leerstelle einstellig, eines mit zwei Leerstellen zweistellig usw. Gelegentlich werden Aussagen als nullstellige Prädikate, d. h. als Prädikate ohne Leerstellen betrachtet. Bei der Zählung der Leerstellen werden nur unterschiedliche Leerstellen berücksichtigt. In formaler Prädikatenlogik werden Prädikate durch Prädikatbuchstaben ausgedrückt, meist Großbuchstaben vom Anfang des lateinischen Alphabets, zum Beispiel F_1_2 für ein zweistelliges Prädikat, G_1 für ein einstelliges Prädikat oder H_1_2_3 für ein dreistelliges Prädikat. Oft werden die Argumente eines Prädikats in Klammern gesetzt und durch Kommas getrennt, sodass die genannten Beispiele als F(_1,_2) bzw. G(_1) und H(_1,_2,_3) geschrieben würden. Eigennamen und Individuenkonstanten. In Sprachphilosophie und Sprachwissenschaft ist das Thema der Eigennamen ein durchaus komplexes. Für die Behandlung im Rahmen einer einleitenden Darstellung der Prädikatenlogik soll es ausreichen, solche Sprachausdrücke als Eigennamen zu bezeichnen, die genau ein Individuum bezeichnen; das Wort „Individuum“ wird hier in einem ganz allgemeinen Sinn verstanden und meint jedes „Ding“ (physikalischer Gegenstand, Zahl, Person...), das in irgendeiner erdenklichen Weise von anderen Dingen unterschieden werden kann. Eigennamen im genannten Sinn werden meistens eigentliche Eigennamen (z. B. „Gottlob Frege“) oder Kennzeichnungen (z. B. „der gegenwärtige Bundeskanzler von Österreich“) sein. Das Gegenstück zu den Eigennamen der natürlichen Sprache sind die Individuenkonstanten der Prädikatenlogik; meist wählt man Kleinbuchstaben vom Anfang des lateinischen Alphabets, zum Beispiel a, b, c. Im Gegensatz zu natürlichsprachlichen Eigennamen bezeichnet jede Individuenkonstante tatsächlich genau ein Individuum. Dies bedeutet keine impliziten metaphysischen Voraussetzungen, sondern legt lediglich fest, dass nur solche natürlichsprachlichen Eigennamen mit Individuenkonstanten ausgedrückt werden, die tatsächlich genau ein Individuum benennen. Mit dem Vokabular von Prädikatbuchstaben und Individuenkonstanten lassen sich aussagenlogisch atomare Sätze wie „Sokrates ist ein Mensch“ oder „Gottlob Frege ist Autor der ‚Begriffsschrift’“ bereits in ihrer inneren Struktur analysieren: Übersetzt man den Eigennamen „Sokrates“ mit der Individuenkonstante a, den Eigennamen „Gottlob Frege“ mit der Individuenkonstante b, den Eigennamen bzw. Buchtitel „Begriffsschrift“ mit der Individuenkonstante c und die Prädikate „_ ist ein Mensch“ und „_1 ist der Autor von _2“ mit den Prädikatbuchstaben F_ bzw. G_1_2, dann lässt sich „Sokrates ist ein Mensch“ als Fa und „Gottlob Frege ist der Autor der ‚Begriffsschrift’“ mit Gbc ausdrücken. Quantoren. Mit Quantoren können Aussagen darüber gemacht werden, ob eine Satzfunktion auf keines, einige oder alle Individuen des Diskursuniversums zutrifft. Im einfachsten Fall ist die Satzfunktion ein einstelliges Prädikat. Setzt man in das Prädikat eine Individuenvariable ein und stellt den Existenzquantor und dieselbe Variable davor, so wird damit behauptet, dass es mindestens ein Individuum gibt, auf das das Prädikat zutrifft. Es muss also mindestens einen Satz der Form geben, dass in das Prädikat eine Individuenkonstante eingesetzt wird, der im betreffenden Diskursuniversum wahr ist. Der Allquantor sagt aus, dass ein Prädikat auf alle Individuen aus dem Diskursuniversum zutrifft. In der klassischen Prädikatenlogik sind daher alle atomaren, allquantifizierten Aussagen wahr, wenn das Diskursuniversum leer ist. Der Existenzquantor wird in halbformaler Sprache als „es gibt mindestens ein Ding, sodass...“ oder „es gibt mindestens ein (Variablenname), für das gilt...“ ausgedrückt. In formaler Sprache werden die Zeichen formula_1 oder formula_2 verwendet. Der Allquantor wird in halbformaler Sprache als „Für alle (Variablenname) gilt:...“ ausgedrückt, in formaler Sprache durch eines der Zeichen formula_3 oder formula_4. Unmittelbar einsichtig ist die Verwendung von Quantoren bei einstelligen Prädikaten, zum Beispiel „_ ist ein Mensch.“ Die existenzquantifizierte Aussage würde lauten „Es gibt mindestens ein Ding, für das gilt: es ist ein Mensch,“ in formaler Sprache: formula_5. Dabei ist M_ die Übersetzung des einstelligen Prädikats „_ ist ein Mensch“ und formula_6 ist der Existenzquantor. Der Buchstabe x ist keine Individuenkonstante, sondern erfüllt dieselbe Funktion, die in der halbformalen Formulierung das Wort „es“ erfüllt: Beide kennzeichnen die Leerstelle, auf die sich der Quantor bezieht. Im gewählten Beispiel erscheint das als redundant, weil es nur einen Quantor und nur eine Leerstelle enthält und daher keine Mehrdeutigkeit möglich ist. Im allgemeinen Fall, in dem ein Prädikat mehr als eine Leerstelle und ein Satz mehr als einen Quantor und mehr als ein Prädikat enthalten kann, wäre ohne die Verwendung geeigneter „Querverweiszeichen“ keine eindeutige Lesart vorgegeben. Zum Herstellen der Beziehung zwischen einem Quantor und der Leerstelle, auf die er sich bezieht, werden meist Kleinbuchstaben vom Ende des lateinischen Alphabets verwendet, zum Beispiel die Buchstaben x, y und z; sie werden als Individuenvariablen bezeichnet. Die Leerstelle, auf die sich ein Quantor bezieht, bzw. die Variable, die zum Herstellen dieser Verbindung verwendet wird, bezeichnet man als durch den Quantor gebunden. Bindet man in einem mehrstelligen Prädikat eine Leerstelle durch einen Quantor, dann entsteht ein Prädikat von um eins niedrigerer Stelligkeit. Das zweistellige Prädikat L_1_2, „_1 liebt _2“, das die Relation des Liebens ausdrückt, wird durch Binden der ersten Leerstelle durch den Allquantor zum einstelligen Prädikat formula_7, sozusagen zur Eigenschaft, von jedem geliebt zu werden (der Allquantor bezieht sich auf die erste Leerstelle, in der das Individuum steht, von dem die Liebe ausgeht). Durch Binden der zweiten Leerstelle wird daraus hingegen das einstellige Prädikat formula_8, sozusagen die Eigenschaft, alles und jeden zu lieben (der Allquantor bindet die zweite Leerstelle, also jene, in der das Individuum steht, das die Rolle des oder der Geliebten innehat). Die Matrizen veranschaulichen die Formeln für den Fall, dass fünf Individuen als Liebende und Geliebte in Frage kommen. Abgesehen von den Sätzen 6 und 9/10 handelt es sich um Beispiele. Die Matrix zu Satz 5 steht z. B. für „b liebt sich selbst.“; die zu Satz 7/8 für „c liebt b.“ Wichtig und instruktiv ist es, zwischen den Sätzen 1, formula_9, und 3, formula_17, zu unterscheiden: In beiden Fällen wird jeder geliebt; im ersten Fall jedoch wird jeder von irgendjemandem geliebt, im zweiten Fall wird jeder von ein und demselben Individuum geliebt. Zwischen einigen dieser Sätze bestehen Folgerungszusammenhänge – so folgt etwa Satz 1 aus Satz 3, aber nicht umgekehrt. (Siehe Hasse-Diagramm) Mit dreistelligen Prädikaten können Formeln wie formula_21 gebildet werden. Mit dem Prädikat „x will, dass y z liebt.“ bedeutet diese Formel „Jemand wünscht allen jemanden zu lieben.“ In natürlicher Sprache treten Quantoren in sehr unterschiedlichen Formulierungen auf. Oft werden Wörter wie „alle,“ „keine,“ „einige“ oder „manche“ verwendet, manchmal ist die Quantifizierung nur aus dem Zusammenhang erkennbar – zum Beispiel meint der Satz „Menschen sind sterblich“ in der Regel die Allaussage, dass alle Menschen sterblich sind. Einige prädikatenlogische Äquivalenzen. Dieses Kapitel stellt exemplarisch einige häufiger gebrauchte prädikatenlogische Äquivalenzen, angezeigt durch den Doppelpfeil, dar. Arten von Prädikatenlogik. Wenn – wie bisher skizziert – Quantoren die Leerstellen von Prädikaten binden, dann spricht man von Prädikatenlogik erster Stufe oder Ordnung, englisch: "first order logic", abgekürzt FOL; sie ist sozusagen das Standardsystem der Prädikatenlogik. Eine naheliegende Variation der Prädikatenlogik besteht darin, nicht nur die Leerstellen von Prädikaten zu binden, also nicht nur über Individuen zu quantifizieren, sondern auch Existenz- und Allaussagen "über Prädikate" zu machen. Auf diese Weise kann man Aussagen wie „Es gibt ein Prädikat, für das gilt: es trifft auf Sokrates zu“ und „Für jedes Prädikat gilt: es trifft auf Sokrates zu, oder es trifft nicht auf Sokrates zu“ formalisieren. Zusätzlich zu den individuellen Leerstellen der Prädikate erster Stufe hätte man auf diese Weise Prädikatsleerstellen eingeführt, die zu Prädikaten zweiter Stufe führen, zum Beispiel eben zu „_ trifft auf Sokrates zu“. Von hier ist es nur ein kleiner Schritt zu Prädikaten dritter Stufe, in deren Leerstellen Prädikate zweiter Stufe eingesetzt werden können, und allgemein zu Prädikaten höherer Stufe. Man spricht in diesem Fall daher von Prädikatenlogik höherer Stufe, englisch "higher order logic", abgekürzt HOL. Die formal einfachste Erweiterung der Prädikatenlogik erster Stufe besteht jedoch in der Ergänzung um Mittel zur Behandlung von Identität. Das entstehende System heißt Prädikatenlogik der ersten Stufe mit Identität. Zwar lässt sich Identität in der Prädikatenlogik höherer Stufe definieren, d. h. ohne Spracherweiterung behandeln, doch ist man bestrebt, möglichst lange und möglichst viel auf der ersten Stufe zu arbeiten, weil es für diese einfachere und vor allem vollständige Kalküle gibt, d. h. Kalküle, in denen alle in diesem System gültigen Formeln und Argumente hergeleitet werden können. Für die Prädikatenlogik höherer Stufe gilt das nicht mehr, d. h. es ist für die höhere Stufe nicht möglich, mit einem einzigen Kalkül alle gültigen Argumente herzuleiten. Umgekehrt kann man Prädikatenlogik der ersten Stufe einschränken, indem man sich zum Beispiel auf einstellige Prädikate beschränkt. Das aus dieser Einschränkung entstehende logische System, die monadische Prädikatenlogik, hat den Vorteil, entscheidbar zu sein; das bedeutet, dass es mechanische Verfahren (Algorithmen) gibt, die für jede Formel bzw. für jedes Argument der monadischen Prädikatenlogik in endlicher Zeit feststellen können, ob sie bzw. ob es gültig ist oder nicht. Für einige Anwendungszwecke ist monadische Prädikatenlogik ausreichend; zudem lässt sich die gesamte traditionelle Begriffslogik, namentlich die Syllogistik, in monadischer Prädikatenlogik ausdrücken. Weicht man von mindestens einem dieser Prinzipien ab, dann entsteht nichtklassische Prädikatenlogik. Selbstverständlich ist es auch innerhalb der nichtklassischen Prädikatenlogik möglich, sich auf einstellige Prädikate zu beschränken (nichtklassische monadische Prädikatenlogik), über Individuen zu quantifizieren (nichtklassische Prädikatenlogik der ersten Stufe), das System um Identität zu erweitern (nichtklassische Prädikatenlogik der ersten Stufe mit Identität) oder die Quantifikation auf Prädikate auszudehnen (nichtklassische Prädikatenlogik höherer Stufe). Ein häufig verwendetes nichtklassisches prädikatenlogisches System ist die modale Prädikatenlogik (siehe Modallogik). Alternativen. Vor dem Aufblühen von Aussagenlogik und Prädikatenlogik dominierte die Begriffslogik in Gestalt der von Aristoteles entwickelten Syllogistik und darauf aufbauender relativ moderater Erweiterungen. Zwei in den 1960er-Jahren in der Tradition der Begriffslogik entwickelte Systeme werden von ihren Vertretern als der Prädikatenlogik gleichmächtig (Freytag) bzw. sogar überlegen (Sommers) bezeichnet, haben aber in der Fachwelt wenig Resonanz gefunden (siehe Artikel Begriffslogik). Die Gesetze der Prädikatenlogik gelten nur dann, wenn der Bereich der untersuchten Individuen nicht leer ist, d. h. wenn es überhaupt mindestens ein Individuum (welcher Art auch immer) gibt. Eine Modifikation der Prädikatenlogik, die dieser Existenzvoraussetzung nicht unterliegt, ist die Freie Logik. Anwendung. Prädikatenlogiken sind von zentraler Bedeutung für verschiedene Grundlegungen der Mathematik. Daneben gibt es einige konkrete Anwendungen in der Informatik: Sie spielt in der Konzeption und Programmierung von Expertensystemen und in der künstlichen Intelligenz eine Rolle. Logische Programmiersprachen basieren zu Teilen auf – oft eingeschränkten – Formen der Prädikatenlogik. Eine Form der Wissensrepräsentation kann mit einer Sammlung von Ausdrücken in Prädikatenlogik erfolgen. Der Relationenkalkül, eine der theoretischen Grundlagen von Datenbankabfragesprachen wie etwa SQL, bedient sich ebenfalls der Prädikatenlogik als Ausdrucksmittel. In der Linguistik, speziell der formalen Semantik, werden Formen der Prädikatenlogik zur Repräsentation von Bedeutung angewendet. Piers Anthony. Piers Anthony Dillingham Jacob (* 6. August 1934 in Oxford) ist ein US-amerikanischer Schriftsteller. Leben. Als er vier Jahre alt war, zog seine Familie mit ihm nach Spanien. 1940 flüchtete sie vor dem Bürgerkrieg und dem Franco-Regime in die USA, wo Piers Anthony seine weitere Kindheit verbrachte. Dort ging er auch zur Schule. Er war nicht gerade ein Musterschüler und verbrachte drei Jahre in der ersten Klasse, bis er lesen und schreiben konnte. 1956 schloss Piers Anthony die Schule (Goddard College, Vermont) ab und heiratete Carol Ann Marbel (kurz Cam). 1958 erlangte er nach dem Dienst in der U. S. Army die amerikanische Staatsbürgerschaft. Piers und Cam ließen sich nach seinem Kriegsdienst in Florida nieder, wo sie bis heute leben. Ihre Töchter nannten sie Penny (* 1967; † 3. September 2009) und Cheryl (* 1970). Nach einigen Jobs als Lektor und Englischlehrer kündigte er und begann zu schreiben; seit dieser Zeit kürzte er aus praktischen Gründen auch seinen Namen. 1962 wurde seine erste Geschichte veröffentlicht. Sein erster Roman erschien fünf Jahre später. Der Durchbruch gelang Anthony mit den Romanen aus der magischen Welt Xanth. 1977 gewann der erste Roman der Serie den British Fantasy Award. Von Anthony sind mittlerweile weit über 100 Romane erschienen. Cluster-Zyklus (Cluster Series). Dieser Zyklus wird in Deutschland auch als "Cluster-Trilogie" bezeichnet, weil Heyne den Roman "Tausendstern" nicht als zum Zyklus gehörend gekennzeichnet hat. Pascal (Programmiersprache). Niklaus Wirth, der Entwickler von Pascal Pascal ist eine Anfang der 1970-er Jahre entwickelte imperative Programmiersprache, die heute noch in älteren Anwendungen und zur einführenden Lehre ins Programmieren Verwendung findet. Im produktiven Bereich wurde sie mittlerweile von Sprachen wie Java abgelöst. Pascal wurde von Niklaus Wirth an der ETH Zürich als Lehrsprache eingeführt, um die strukturierte Programmierung zu lehren. Allgemeines. Pascal ist eine Weiterentwicklung von Algol 60. Es lehnt sich in seiner Syntax stark an die englische Grammatik an. Dies soll die Lesbarkeit für Programmiereinsteiger verbessern und ist daher besonders gut als Lehrsprache geeignet. Seine große Verbreitung in der professionellen Programmierung fand es als Borland/Turbo Pascal (später Object Pascal) – gegenüber dem Ur-Pascal wesentlich erweiterte und verbesserte Versionen. Heute findet Pascal im universitären Bereich (Entwicklung/Ausbildung) und in sicherheitskritischen Bereichen (z. B. Verkehrstechnik, Energieversorgung, Medizintechnik, Raumfahrt, Militär, teilweise im Banken- und Versicherungswesen) Anwendung. Dies beruht hauptsächlich auf der guten Prüfbarkeit und Wartbarkeit des Codes und der klaren Zuordnung der Variablen. So ist die 2005 eingeführte Betriebsleittechnik IV der Transrapid-Versuchsanlage Emsland in Pascal programmiert. Eine pascalähnliche Notation wird von jeher in der Informatik und Mathematik zur Darstellung von Algorithmen benutzt. Aus didaktischen Gründen, es seien hier die Typstrenge, hohe Fehlersicherheit und frei verfügbare portierbare Pascalcompiler (Free Pascal, GNU Pascal) genannt, wird im aktuellen Informatikunterricht Pascal ebenfalls häufig eingesetzt. Im Hobby-Bereich erlangte Pascal zeitweilig eine sehr weite Verbreitung, die jedoch mit neueren Microsoft-Windows-Versionen wieder zurückging. Hallo Welt. Ein Detail am Rande: In manchen alten Beispielen findet man ein codice_11 nach dem codice_12-Befehl. Das war nur notwendig, weil die I/O-Architektur der CDC-Cyber 6000, auf der Wirth den ersten Pascal-Compiler entwickelte, das benötigte, um die internen Puffer zu leeren – sonst wäre im interaktiven Betrieb keine Ausgabe zu sehen gewesen. IDEs konnte man mit diesem READLN zwingen, am Ende der Programmausführung nicht sofort wieder in den Editor-Modus umzuschalten, was die Ausgabe bei manchen IDEs (z. B. Turbo-Pascal) sonst hätte verschwinden lassen. Im Batch-Betrieb war das ohnehin nie notwendig. Standarddatenypen. Jeder Variablen muss in einer Variablendeklaration ein Datentyp zugeordnet werden. Der Datentyp bestimmt, welche möglichen Werte die Variable während des Programmablaufs speichern kann. In Pascal gibt es vier einfache Standardtypen, nämlich codice_3, codice_1, codice_24 und codice_25. Die Länge der verschiedenen Datentypen außer boolean sind abhängig vom Compiler. Weiterhin haben viele Implementation noch weitere vordefinierte einfache Datentypen. Selbstdefinierte Datentypen. In Pascal ist es möglich neben den vier Standardtypen, eigene einfache Datentypen zu definieren. Dabei handelt es sich entweder um Aufzählungstypen oder Ausschnittstypen. Um einen neuen Aufzählungstyp zu definieren, schreibt man alle Werte, die eine Variable dieses Typs speichern können soll, der Reihe nach auf. Im folgenden Beispiel wird ein neuer Typ mit dem Namen codice_26 definiert, wobei das optionale codice_27 am Anfang für den weiteren Programmverlauf klarstellen soll, dass es sich um einen Namen eines Typs handelt: codice_28 Einen Ausschnittstyp definiert man, wenn der Wertebereich eines umfassenderen Typs nicht voll ausgeschöpft wird. Wenn eine Variable beispielsweise nur die Zahlen zwischen 0 und 255 speichern können soll, so ist es möglich, den Datentyp codice_3 auf diese Teilmenge einzuschränken. Im folgenden Beispiel wird ein neuer Typ mit dem Namen codice_30 definiert: codice_31 Strukturierte Datentypen. Pascal bietet Programmierern vier strukturierte Datentypen, die es ermöglichen, mehrere Werte in einer Variablen zu speichern. In einem Feld ("array") kann eine feste, also während der Laufzeit unveränderbare Anzahl von Werten gespeichert werden, die alle vom selben Datentyp sein müssen. Im folgenden Beispiel wird ein Feld definiert, in welchem maximal 100 ganze Zahlen abgespeichert werden können:tBeispielFeld = array [1..100] of integer; In einer Menge ("set") können ebenfalls Werte vom selben Datentyp gespeichert werden, allerdings ist deren Anzahl nicht fest sondern variabel. Ein Beispiel für die Definition einer Menge: codice_32 Eine beliebig lange Folge von Werten desselben Typs kann in Pascal mithilfe des Datentyps Datei ("file") dargestellt werden. Beispiel einer Definition: codice_33 Zeiger. Hauptzweck der Verwendung von Zeigern ist in Pascal das Erstellen von verschiedenen Datenstrukturen, je nach den Vorstellungen des Programmierers. So lassen sich mithilfe von Zeigern etwa Listen und Bäume erstellen, die bei der Speicherung von Daten Vorteile gegenüber Feldern, Mengen, Verbünden und Dateien bieten. Ein weiterer Vorteil von Zeigern ist, dass Zeigervariablen den von ihnen benötigten Speicherplatz während der Laufzeit anfordern können. Der Programmierer muss also nicht schon im Vorhinein definieren, wieviel Platz die Variablen seines Programms bei der Ausführung benötigen werden und kann grundsätzlich vom Minimum ausgehen, welches dann je nach Bedarfsfall überschritten wird. Programmstrukturen. bar //Compilerfehler, da bar nicht sichtbar Bedingte Anweisung und Verzweigung. else if (1 = 1) then Schleifen. Pascal bietet vier Arten von Schleifen. Soll vor jedem Schleifendurchlauf eine Abbruchbedingung geprüft werden, verwendet man die while-Anweisung, für eine Prüfung nach jedem Durchlauf die repeat-Anweisung. Für eine vorgegebene Anzahl von Durchläufen gibt es die for-Anweisung. Ausschließlich zum verarbeiten des record-Typs dient die with-Anweisung. Sprunganweisungen können mit codice_34 auch verwendet werden, dessen Gebrauch jedoch umstritten ist (siehe Artikel zu Sprunganweisungen). Compiler. Der erste Pascal-Compiler selbst entstand auf der CDC Cyber 6000 der ETH Zürich. Daraus entstand dann Pascal 6000, das als erste operative Version eines Compilers der Sprache gesehen werden kann. Ein zweiter Pascal-Compiler – der P4 „Portable Pascal Compiler“ von Urs Ammann, Kesav Nori und Christian Jacobi – stammte ebenfalls von der ETH Zürich. Der P4 erzeugte eine plattformunabhängige, als Assemblersprache ausgelegte Zwischensprache, den P-Code, der durch eine virtuelle Maschine (ein Programm) interpretiert wird. Später entstanden dann Compiler, die auf dem P4 basierten. Die verbreitetste Version wurde unter dem Namen UCSD Pascal bekannt, das auf vielen Systemen implementiert wurde, u. a. auf Apple II und 4A und wesentlich zur Verbreitung der Sprache sowohl (zuerst) in den Vereinigten Staaten, später auch in Europa beitrug. Im Mai 2006 wurden die Quelltexte von UCSD Pascal freigegeben. Bei den meisten Pascal-Compilern handelte es sich um "Single-Pass-Compiler", d. h. der Compiler muss die Quelle nur ein einziges Mal lesen und analysieren. Das Design der Sprache war so gehalten, um genau das zu ermöglichen. Bei der damaligen geringen Geschwindigkeit der Rechner war dies ein großer Vorteil. Unterschiede zu C. Da Pascal sowie der Quasi-Standard Borland/Turbo-Pascal eine strikte Trennung unterschiedlicher Typen vorsehen und die Zuweisungskompatibilität von Ausdrücken beachten, kommen implizite Typumwandlungen, anders als in C, praktisch nicht vor. Insbesondere bei der Übergabe von Daten (z. B. aus externen Dateien, aber auch innerhalb des Programms) an Funktionen oder Prozeduren kann der Compiler schon beim Kompilieren die Korrektheit der Typen kontrollieren. Standard Pascal hatte zwar Zeichenketten-Literale, aber keinen Typ codice_35 (s. oben). In den meisten späteren Implementierungen wurden Zeichenketten als codice_25-Arrays definiert, bei denen das erste Feld (Byte) zur Speicherung der Länge verwendet wurde. Daraus ergab sich eine Längenbegrenzung von 255 Zeichen. Bei den in der C-Standard-Bibliothek verwendeten Strings handelt es sich dagegen um NUL-terminierte Strings. Durch die Längenspeicherung in Pascal können verschiedene Operationen wie Stringverkettung effizienter durchgeführt werden (kein Durchsuchen bis zum NUL-Zeichen erforderlich). Größere Zeichenketten mussten selbst definiert werden (z. B. als "Array of char"), sofern sie nicht (wie z. B. in Borland Pascal 7) durch die Compilerhersteller bereits implementiert wurden. Im Extended-Pascal-Standard wurden Zeichenketten als Scheme-Typ definiert. Auch hier muss die Kapazität angegeben werden, sie wird aber in runde Klammern geschrieben, und es gibt keine formale Längenbeschränkung: codice_37. Strikte Trennung zwischen Programm, Funktionen und Prozeduren Pascal trennt strikt zwischen einer Funktion (mit Rückgabewert) und einer Prozedur (kein Rückgabewert). Eine Funktion darf nicht als Prozedur aufgerufen werden – d. h. der Rückgabewert muss stets entgegengenommen werden. Seit Turbo Pascal 4.0 (1991) ist es jedoch möglich, Funktionen auch ohne Entgegennahme des Funktionsergebnisses aufzurufen. Weiterhin wird ein ausführbares Programm in Pascal durch das Schlüsselwort codice_38 gekennzeichnet, wohingegen in C der Einstiegspunkt für ein Programm die Funktion codice_39 ist, die sich außer durch ihren Namen nicht von anderen Funktionen unterscheidet. Programme, Funktionen und Prozeduren sind im Gegensatz zu C dreigegliedert: Es gibt neben dem Kopfteil, der den Namen und die Signatur enthält, einen separaten Deklarationsteil, in dem Typen, Variablen und verschachtelte Prozeduren/Funktionen deklariert werden und einen Definitionsteil, in dem implementiert wird. In C gibt es nur einen Funktionskopf und Funktionsrumpf, der den Deklarations- und Definitionsteil vereinigt. In C dürfen Funktionen nicht verschachtelt definiert werden. Im Gegensatz zu C ist Pascal in Bezug auf Schlüsselwörter, Bezeichner von Variablen, Funktionen oder Prozeduren "case in-sensitive". Das Semikolon wird nicht wie in C als Befehlsabschluss interpretiert, sondern als Trennzeichen zwischen Anweisungen. Vor einem codice_40 oder codice_41 kann es somit weggelassen werden. Vor einem codice_42 darf es in der Regel gar nicht stehen, da sonst der codice_43-Zweig als abgeschlossen angesehen werden würde. Ein Fall, bei dem es vor dem ELSE steht (und stehen muss), ist am Ende einer CASE-Auflistung. Für Zeichenketten-Literale und Zeichen-Literale wird dasselbe Begrenzungszeichen (Delimiter), nämlich der Apostroph, verwendet. Zuweisungen an Variablen werden durch die Sequenz codice_2 definiert, das Gleichheitszeichen allein dient dem Gleichheitsvergleich und der Definition von Konstanten. Damit werden „mathematisch falsche“ Ausdrücke z. B. i = i + 1 vermieden. Verkürzte Schreibweisen für Zuweisungen wie i++ statt i = i + 1 oder i *= 2 statt i = 2 * i existieren in Pascal nicht. Pascal verwendet die Operatoren codice_45, codice_46, codice_47, codice_48 (nur für "Integer", bei "Real" ist es codice_49), codice_50 und codice_51 anstatt der C-Operatoren codice_52, codice_53, codice_54, codice_49, codice_56 und codice_57. Die „Short Circuit“-Funktionalität von codice_52 und codice_53 in C (sobald das Ergebnis feststeht, nämlich wenn der linke Teil beim codice_45 FALSE beziehungsweise beim codice_46 TRUE ist, wird der rechte nicht mehr ausgewertet) schloss Niklaus Wirth explizit aus, da compilerinterne Optimierungsvorgänge die Reihenfolge der Auswertung verändern können. Spätere Pascalversionen implementierten eine lokal oder global zuschaltbare „Short Circuit“-Funktionalität, so dass der Programmierer im Einzelfall entscheiden kann, welche Art der Auswertung er wünscht. In Standard-Pascal gibt es keine Bitoperationen für "Integer" (wie codice_62, codice_63, codice_64 und codice_65 von C), aber stattdessen den Typ codice_66 (mit den Operatoren codice_67, codice_68 und codice_69 für Durchschnitt, Vereinigung und Mengendifferenz). Unter anderem ist codice_9 nicht austauschbar mit codice_71, die Umwandlung muss mit den Funktionen codice_72 und codice_73 durchgeführt werden. Dadurch werden verdeckte (oder ungewollte) Umwandlungen vermieden; z. B. führt die Anweisung i = 7/2 zu einer Fehlermeldung, wenn i vom Typ Integer = Ganzzahl ist da 7/2 = 3.5 keine Ganzzahl ist. Spätere Pascalversionen (z. B. Turbo Pascal) führten zusätzlich „explizite“ Typumwandlungen, sog. „type casts“, ein, so dass z. B. mit codice_74 der Wertebereich der Ganzzahlvariablen i erweitert oder eingeschränkt werden konnte. In Standard-Pascal musste dafür ein Umweg über (den Missbrauch von) Variantenrecords (codice_75 in C) genommen werden. Standards. Wirths erste Veröffentlichung der neuen Programmiersprache erschien 1971, eine überarbeitete und erweiterte Version dieses Berichts 1973. Ein weiteres Jahr später folgte ein mit Kathleen Jensen geschriebener Bericht, welchen Wirth als ultimative Referenz für Programmierer und Implementoren bezeichnete; das darin beschriebene Pascal nannte er Standard Pascal. Allerdings sind – wie bei den meisten anderen Programmiersprachen auch – nur die wenigsten Compiler zu diesen Standards vollständig kompatibel. Diese Tatsache verleitete Scott A. Moore zu der bissigen Bemerkung „Pascal is, unfortunately, very much a great improvement on its successors“ („Pascal ist leider so ziemlich eine große Verbesserung seiner Nachfolger“ – damals bereits ein geflügelter Satz). Selbst großen Compilern wie Delphi oder Free Pascal fehlen bis heute einige Elemente aus Standard Pascal, während Extended Pascal von kaum einem unterstützt wird. Lediglich Prospero Pascal ist vollständig kompatibel zu Extended Pascal, während auch GNU Pascal vollständige Kompatibilität anstrebt. Pascal und Mac OS. Historisch interessant ist die Tatsache, dass Apple bei der Entwicklung des Betriebssystems und der darauf laufenden Applikationen des Apple-II-Nachfolgers Macintosh auf Pascal gesetzt hatte. Hierzu wurde bei Apple in einem von Larry Tesler geführten Team unter Konsultation von Niklaus Wirth eine eigene Object-Pascal-Variante entwickelt, die von einer früheren objektorientierten Pascal-Variante namens Clascal abgeleitet wurde, welche schon auf Lisa verfügbar war. Object Pascal war für die Unterstützung von MacApp, einem Macintosh Application Framework erforderlich, das heute unter den Begriff Klassen-Bibliothek fallen würde. Object Pascal wurde 1986 fertiggestellt. Apple beendete den Fokus auf Object Pascal mit der Umstellung von Motorola 68K-CPUs auf PowerPC-CPUs von IBM im Jahre 1994 mit der Betriebssystem-Version Mac OS 7.5. Zwecks Rückwärtskompatibilität blieb die Übergabe von Parametern für Betriebssystemaufrufe bis zur letzten Mac-OS-Version 9.2.2 des Jahres 2002 an Pascal-Konventionen angelehnt. Implementierungen (Compiler, Interpreter und IDEs). Pascal hatte von Anfang an im universitären Bereich sehr großen Erfolg, was sich u. a. auch in der Programmiersprache Ada niederschlug, die sehr stark an der Syntax von Pascal angelehnt ist. Ebenfalls fand es weite Verbreitung, auch im kommerziellen Bereich, mit den Produkten der Firma Borland Turbo Pascal, Borland Pascal und Delphi. Diese Versionen sind durch starke Erweiterungen des ursprünglichen Sprachstandards gekennzeichnet. Die Objektorientierung wurde dabei mit Version 5.5 eingeführt. Geschichte. Die Entwicklung der Programmiersprache Algol (bis 1958) wie auch die ihrer Nachfolger war Produkt von Entwicklungskomitees. Niklaus Wirth war maßgeblich an der Erstellung des Abkömmlings Algol W beteiligt, das in Zürich entwickelt und 1966 fertiggestellt wurde. Er berichtete später von den Nachteilen einer gemeinsamen Entwicklung. Konsens innerhalb des Komitees musste mühsam erarbeitet werden, auch erschienen dem praktisch denkenden Wirth, der sich nicht nur als Wissenschaftler sondern auch als Ingenieur sah, einige Entwicklungsziele mancher Kollegen als übertrieben und unumsetzbar. Im Jahr 1968 erhielt Wirth eine Professur an der ETH Zürich, wo er neben seiner Lehrtätigkeit Zeit fand, mit der Entwicklung einer neuen Sprache zu beginnen. Er arbeitete diesmal alleine und konnte Pascal im Lauf des Jahres 1969 fertigstellen. Einer der Gründe für die Neuentwicklung war laut Wirth das Fehlen einer für den universitären Unterricht geeigneten Sprache. Weder das zu unwissenschaftlich angelegte Fortran noch das für die praktische Ingenieurstätigkeit ungeeignete Algol konnten Wirths Ansprüchen genügen. Über den Programmierunterricht hinaus sollte Pascal aber ebenso in der Wirtschaft, der Forschung und bei der Entwicklung von Compilern und Betriebssystemen einsetzbar sein. Nachdem Wirth die Sprache 1969 fertiggestellt hatte, folgte ein Jahr später die Entwicklung des ersten Pascal-Compilers. Dieser wurde für Computer der CDC 6000 Serie geschrieben und ging bereits 1970 in Betrieb. Im Jahr 1971 veröffentlichte Wirth die nur 28 Seiten lange Beschreibung der Sprache und 1972 konnten Lehrende Pascal erstmals für einführende Programmierkurse verwenden. 1973 folgte eine überarbeitete und 54 Seiten lange Überarbeitung der Spezifikation. Kritik. Da die Sprache als Lehrsprache konzipiert war, wies das Standard-Pascal einige Merkmale auf, die den kommerziellen Einsatz erschwerten: Das Konzept für Dateizugriffe („file I/O“) war nicht mächtig, die Laufzeitbibliothek wenig umfangreich, und Zeichenketten konnten nur über Umwege (packed array) direkt im Code verwendet werden. Das führte dazu, dass praktisch jede kommerzielle Implementierung hierzu eigene Lösungen anbot, was zunächst (ähnlich wie die Diversifizierung bei C) zu eigenen Pascal-Dialekten und damit zu Kompatibilitätsproblemen führte. Mit der monopolartigen Dominanz der Turbo-Pascal-Produkte von Borland verschwanden diese Unterschiede fast vollständig. Ein anderer wesentlicher Nachteil war, dass eine Modularisierung im Sinne getrennter Compilierung nicht vorgesehen war – was mit der Weiterentwicklung Modula-2 geändert wurde. Plattformspezifische Implementierungen sahen dafür eigene Lösungen vor (z. B. die Units von Turbo-Pascal, oder später die Module in ANSI/ISO Extended Pascal). Prolog (Programmiersprache). Prolog (vom Französischen: "Programmation en Log'"ique", dt.: „Programmieren in Logik“) ist eine Programmiersprache, die Anfang der 1970er Jahre maßgeblich von dem französischen Informatiker Alain Colmerauer entwickelt wurde und ein deklaratives Programmieren ermöglicht. Sie ist die wichtigste logische Programmiersprache. Erste Implementierungen wichen in ihrer Syntax stark voneinander ab, aber der Edinburgh-Dialekt setzte sich bald als Quasistandard durch. Er war jedoch nicht formal definiert, bis er 1995 zur Grundlage eines ISO-Standards wurde (ISO/IEC 13211-1), der auch ISO-Prolog genannt wird. Der erste Prolog-Interpreter wurde in Marseille in ALGOL W realisiert. Der erste Ansatz für einen Compiler stammte von David H. D. Warren aus Edinburgh. Dieser hatte als Zielsprache die des Logik-Prozessors Warren’s Abstract Machine und erlaubte deshalb weder dynamische Änderungen noch einen Anschluss rücksetzbarer Prädikate in anderen Programmiersprachen. Der erste voll nutzbare Compiler, der beides erlaubte, wurde von Preben Folkjaer in München entwickelt. Er verwandte einen anderen, von der TU Wien stammenden, Zwischencode, der inkrementell compiliert wurde; wurden Prädikate verändert, wurde das Compilat gelöscht und beim nächsten Aufruf neu compiliert. Grundprinzip. Prolog-Programme bestehen aus einer Wissensdatenbank, deren Einträge sich Fakten und Regeln nennen. Der Benutzer formuliert Anfragen an diese Wissensdatenbank. Der Prolog-Interpreter benutzt die Fakten und Regeln, um systematisch eine Antwort zu finden. Ein positives Resultat bedeutet, dass die Anfrage logisch ableitbar ist. Ein negatives Resultat bedeutet nur, dass aufgrund der Datenbasis keine Ableitung gefunden werden kann. Dies hängt eng mit der Closed world assumption zusammen (siehe unten). Das typische erste Programm in Prolog ist nicht wie in prozeduralen Programmiersprachen ein Hallo-Welt-Beispiel, sondern eine Wissensdatenbank mit Stammbauminformationen. Folgendes Beispiel repräsentiert den Stammbaum einer kleinen Familie. In einem Prolog-Interpreter können nun interaktiv Anfragen an die Datenbasis gestellt werden. Das Ausführen eines Prolog-Programms bedeutet immer das Stellen einer Anfrage. Das System antwortet entweder mit "yes." oder "no.", abhängig davon, ob die Anfrage bewiesen werden konnte. "no" ist die Antwort auf die um die vorher ausgegebenen Antworten reduzierte Faktenliste. Zusätzlich zu Fakten lassen sich in Prolog Regeln formulieren. Die Regel besagt: X ist Großvater von Y, wenn es ein Z gibt, sodass X Vater von Z ist und Z Vater von Y. Damit ist der Großvater väterlicherseits definiert. Der Operator codice_1 in dieser Regel definiert eine Konjunktion und wird "und" gesprochen. Der Term links vom Implikationsoperator nennt sich auch Head oder Konsequenz. Haben zwei Regeln (wie oben) die gleiche Konsequenz, folgt diese, wenn mindestens in einer Regel die Vorbedingung erfüllt ist (Disjunktion). Durch die Definition von Regeln können auch Fakten geschlossen werden, die nicht Vergleiche. ?- anton == anton. % == prüft ob das muster links und rechts übereinstimmt ?- 3 == 1+2. % muster stimmt nicht überein ?- 3 =:= 1+2. % =:= ist der numerische vergleich ?- 3 =\= 4. % =\= bedeutet ungleich ?- 3 =< 4. % =< bedeutet kleiner/gleich; '<=' ist nicht zulässig ?- 3 >= 4. % >= bedeutet größer/gleich Regeln. % Wenn X Vater von Z ist und Z Vater von Y ist, dann ist X Großvater von Y % Adam ist der Vater von Tobias % Tobias ist der Vater von Frank % Abfrage ob Adam der Großvater von Frank ist Symmetrische Relation. % anton und berta sind ein ehepaar % das ehepaar X Und Y ist genau dann ein ehepaar, % wenn ein ehepaar Y Und X existiert % Abfrage ob berta und anton ein ehepaar sind Arithmetik. Prolog kennt die Grundrechnungsarten, also Addition +, Subtraktion -, Skalarprodukt *, Division / und Modulo mod. Die Zuweisung eines Wertes zu einer Variable erfolgt mit dem Schlüsselwort is. Listen. Listen sind rekursive Datenstrukturen bestehend aus einem Kopf (') und einem Rest ('). Der Rest kann hierbei wieder aus Listen bestehen. % Head ist die Zahl 1 % Tail ist die Zahl 2 % Head ist die Zeichenkette 'one' % Tail ist die Zeichenkette 'two' % Listen können auch gemischt sein % Head ist die Ziffer 1 % Tail ist die Liste [2,3] member(X, [X,_]). member(X, [_|T]):- Laden von Prolog-Texten. Ein Prolog-Text kann direkt über die Konsole eingegeben werden. Dazu kann man auf ?- [user]. % tippe Prolog-Text direkt ein append([X|Y], Z, [X|T]):- append(Y, Z, T). ?- consult('append.pl'). % lade Prolog Text-aus Datei Weitere Techniken. Entscheidend für die Prolog-Programmierung sind die Techniken der Rekursion und die Nutzung von Listen. % X ist genau dann ein elternteil von Y, % wenn X die mutter von Y ist Oder % wenn X der vater von Y ist. % X ist einerseits dann ein vorfahr von Z, % wenn X ein elternteil von Z ist. % X ist andererseits dann ein vorfahr von Z, wenn % X ein elternteil von Y ist Und % Y ein vorfahre von Z ist Dies lässt sich wie folgt lesen: X ist ein Vorfahr von Z, wenn X Elternteil von Z ist (Regel 1) oder es ein Y gibt, das Vorfahr von Z ist und gleichzeitig X Elternteil von Y (Regel 2) (Es wurde hier "elternteil" statt "mutter" oder "vater" verwendet.) ?- familie(X, _,). Dabei ist X die Variable, deren verschiedene Werte ausgegeben werden sollen. Der Unterstrich _ ist in Prolog die anonyme Variable, wodurch Prolog veranlasst wird hier jeden Wert zuzulassen. Die eckigen Klammern stehen für die leere Menge, welche die nicht vorhandenen Kinder repräsentiert. retract(auto(bmw,_)), aus der Datenbank gelöscht wurden. Auch "?- auto(bmw,X)" liefert jetzt nur noch "No". Zum Löschen aller gleichen Elemente (also z. B. "auto()") auf einmal benutzt man retractall(), zum Ausgeben asserta() (oben in der Datenbank) und assertz() (unten in der Datenbank). gen(A,B,C,D,E,F,G,H):- permutation([A,B,C,D,E,F,G,H,_,_],[0,1,2,3,4,5,6,7,8,9]). gl1(A,B,C,D,E):- ((A * 100 + B * 10 + B) - (C * 10 + D)) =:= (E * 100 + E * 10 + D). gl2(C,D,E,F):- ((F * 10 + D) + (E * 10 + F)) =:= (C * 10 + E). gl3(A,B,D,E,F,G):- ((A * 100 + B * 10 + B) - (F * 10 + D)) =:= (E * 100 + G * 10 + D). gl4(C,D,E,F,H):- ((C * 10 + D) - (E * 10 + F)) =:= (F * 10 + H). gl5(C,D,E,F,G,H,X):- ((E * 100 + E * 10 + D) * (C * 10 + E)) =:= ((E * 100 + G * 10 + D) * (F * 10 + H)), X is ((E * 100 + G * 10 + D) * (F * 10 + H)). Wird nun die Abfrage "loesung." eingegeben, wird die Lösung ausgegeben. Wie man sieht, benötigt man zur Lösung dieses Problems fast keine Programmierkenntnisse über Schleifen oder ähnliches, sondern gibt nur die Fakten ein und welches Ergebnis man benötigt. Prolog steht in der Abstraktionshierarchie aus genau diesem Grund über imperativen und objektorientierten Sprachen. Bearbeitung hierarchischer Strukturen. Eine häufig gestellte Aufgabe an Programmiersprachen ist die Verarbeitung hierarchischer Strukturen, wie z. B. SGML oder XML. Insbesondere für XML bildet Prolog eine sehr wirkungsvolle und ausdrucksstarke Alternative zu der verbreitetsten Verarbeitungssprache XSLT. wird unter Prolog als rekursive Liste von Elementen "element(TagName, Attribute, Kinder)" dargestellt. Ein sehr einfaches Paradigma (untere drei Klauseln) erlaubt es, jeden Baum rekursiv zu durchlaufen. Folgende Beispiele löschen (oberster Klausel mit "delete") und konkatenieren (zweiter Klausel von oben mit "concat") bestimmte Tags. Der erste Unifikator ist die Operation ("delete" oder "concat"), der zweite die zu bearbeitende Struktur, der dritte das spezifizierte Tag, der vierte der Ergebnisbaum. "append" ist ein Befehl zum Konkatenieren von Listen. transform(delete, [element(DelTag, _, _) | Siblings], DelTag, ResTree):- transform(concat, [Element1, Element2 | Siblings], ConTag, ResTree):- Element2 = element(Contag, _, Children2), transform(concat, [element(ConTag, Attr, Children) | Siblings], ConTag, ResTree). transform(_, _,). transform(Trans, [element(CTag, Attr, Children) | Siblings], Tag, ResTree):- ResTree = [element(CTag, Attr, ResChildren) | ResSiblings]. transform(_, [Atom], _, [Atom]):- Stößt der Backtracker bei der Operation "delete" auf ein Tag, das wie das zu löschende heißt, so wird dieses entfernt und bei den Nachbarn weitergesucht. Ein entsprechender Aufruf ist z. B. "transform(delete, Tree, autor, ResTree).", der alle Autoren entfernt. Ähnlich können durch "transform(concat, Tree, paragraph, ResTree)." alle nebeneinanderstehenden Paragraphen miteinander verschmolzen werden. Dazu werden zunächst deren Inhalte konkateniert, daraus eine neue Paragraphstruktur erzeugt und diese weiterverarbeitet. Planungssysteme. write(Zustandsliste),nl. /* Ziel erreicht, Abbruch der Rekursion und Ausgabe */ weg(Start,Ziel,Zustandsliste):- /* Es gibt einen Weg vom Start zum Ziel, wenn... */ operator(Op), /*... es einen Operator gibt... */ anwendbar(Op,Start), /*... der im Startzustand anwendbar ist... */ fuehrt_zu(Op,Start,Neu), /*... von dort zu einem neuen Zustand fuehrt... */ not(member(Neu,Zustandsliste)), /*... der noch nie da war (Verhinderung von Schleifen)... */ zulaessig(Neu), /*... und zulaessig ist... */ weg(Neu,Ziel,[Neu|Zustandsliste]). /*... und es von dort einen Weg zum Ziel gibt. */ Nur die Prädikate "operator", "anwendbar", "fuehrt_zu" und "zulaessig" sowie die Beschreibung eines Zustands sind problemspezifisch zu formulieren. Aufgerufen wird das Prädikat mit einer Zustandsliste, die den Anfangszustand enthält. Abhängig vom Problemtyp lässt sich einiges vereinfachen und/oder weglassen; für eine Wegesuche in einem Straßennetz ergibt sich z. B. write(Ortsliste),nl. /* Ziel erreicht, Abbruch der Rekursion und Ausgabe */ weg(Start,Ziel,Ortsliste):- /* Es gibt einen Weg vom Start zum Ziel, wenn... */ strasse(Start,Neu), /*... es eine Strasse vom Start zu einem neuen Ort gibt... */ not(member(Neu,Ortsliste)), /*... in dem man noch nicht war (Verhinderung von Schleifen)... */ weg(Neu,Ziel,[Neu|Ortsliste]). /*... und von dem es einen Weg zum Ziel gibt. */ write(Ortsliste),nl,write(Strecke),nl. /* Ziel erreicht, Abbruch der Rekursion und Ausgabe */ weg(Start,Ziel,Ortsliste,Strecke):- /* Es gibt einen Weg vom Start zum Ziel, wenn... */ findall(Ort,strasse(Start,Ort),Neuliste), /*...es eine Liste erreichbarer neuer Orte gibt... */ bewerte(Neuliste,Start,Strecke,Ziel,BewerteteListe), /*...von denen jeder bewertet und... */ sort(BewerteteListe,SortierteListe), /*...durch Sortieren der Liste... */ member([_,Sgesamt,Neu],SortierteListe), /*...der beste gesucht wird... */ not(member(Neu,Ortsliste)), /*...in dem man noch nicht war... */ weg(Neu,Ziel,[Neu|Ortsliste],Sgesamt). /*...und von dem es einen Weg zum Ziel gibt. */ Jedes Element von BewerteteListe hat die Struktur [Heuristikwert,gesamte Fahrtstrecke,Ort]; zur Berechnung der A-Heuristik sind die bisherige Strecke, der letzte Ort und der Zielort (Luftlinie) erforderlich. Einsteins Rätsel. Dies ist eine Version des Zebrarätsels. Es wurde angeblich von Albert Einstein im 19. Jahrhundert verfasst. Einstein wird oft der Vermerk zugeschrieben, nur 2 % der Weltbevölkerung seien im Stande, das Rätsel zu lösen. Es existiert jedoch kein Hinweis auf jedwede Autorenschaft. Hier soll es ein Beispiel für ein Problem darstellen, das mit Prolog lösbar ist. Jedes Haus ist eine Liste der Form [Farbe, Nationalitaet, Getraenk, Zigarettenmarke, Haustier]. erstes(E,[E|_]). mittleres(M,[_,_,M,_,_]). links(A,B,[A,B|_]). links(A,B,[_|R]):- links(A,B,R). X = [_,_,_,_,_], /* Es gibt (nebeneinander) 5 (noch unbekannte) Häuser */ member([rot,brite,_,_,_],X), /* Der Brite lebt im roten Haus */ member([_,schwede,_,_,hund],X), /* Der Schwede hält einen Hund */ member([_,daene,tee,_,_],X), /* Der Däne trinkt gern Tee */ links([gruen,_,_,_,_],[weiss,_,_,_,_],X), /* Das grüne Haus steht links vom weißen Haus */ member([gruen,_,kaffee,_,_],X), /* Der Besitzer des grünen Hauses trinkt Kaffee */ member([_,_,_,pallmall,vogel],X), /* Die Person, die Pall Mall raucht, hält einen Vogel */ mittleres([_,_,milch,_,_],X), /* Der Mann, der im mittleren Haus wohnt, trinkt Milch */ member([gelb,_,_,dunhill,_],X), /* Der Besitzer des gelben Hauses raucht Dunhill */ erstes([_,norweger,_,_,_],X), /* Der Norweger wohnt im 1. Haus */ neben([_,_,_,marlboro,_],[_,_,_,_,katze],X), /* Der Marlboro-Raucher wohnt neben dem, der eine Katze hält */ neben([_,_,_,_,pferd],[_,_,_,dunhill,_],X), /* Der Mann, der ein Pferd hält, wohnt neben dem, der Dunhill raucht */ member([_,_,bier,winfield,_],X), /* Der Winfield-Raucher trinkt gern Bier */ neben([_,norweger,_,_,_],[blau,_,_,_,_],X), /* Der Norweger wohnt neben dem blauen Haus */ member([_,deutsche,_,rothmans,_],X), /* Der Deutsche raucht Rothmans */ neben([_,_,_,marlboro,_],[_,_,wasser,_,_],X), /* Der Marlboro-Raucher hat einen Nachbarn, der Wasser trinkt */ member([_,N,_,_,fisch],X), /* Der mit der Nationalität N hat einen Fisch */ write(X),nl, /* Ausgabe aller Häuser */ write('Der '),write(N),write(' hat einen Fisch als Haustier.'),nl. /* Antwort auf die Frage */ Definite Clause Grammar. Um Regeln für Parser zu schreiben, haben die meisten Prologsysteme einen Präprozessor implementiert. Er erlaubt es, die Regeln in einer besser lesbaren Form zu notieren, die in der Form den Regeln entsprechen, die verwendet wird, um eine kontextfreie Sprache zu beschreiben. Der Präprozessor ergänzt Platzhalter und erzeugt die oben erwähnten Prolog-Logik-Formeln. Durch Übergabe weiterer Attribute ist es möglich, mit Definite Clause Grammars auch komplexere Sprachen als die kontextfreien zu beschreiben. Prolog aus logischer Sicht. Ein Prolog-Programm ist eine geordnete Liste so genannter Horn-Klauseln, einer eingeschränkten Form der Prädikatenlogik erster Ordnung. Stellt man dem System eine Anfrage ("Query"), versucht es, diese auf der Grundlage dieser Datenbasis mittels Resolution zu beweisen. Das Ergebnis einer Query ist "yes" oder "no". Seine eigentliche Wirkung entfaltet ein Prolog-Programm streng genommen durch Nebenwirkungen, die während der Beweissuche auftreten. Also kann ein Prolog-System auch als ein sehr effizienter – wenn auch eingeschränkter – automatischer Theorembeweiser verstanden werden. Die einzige in Prolog eingebaute Suchstrategie bei der Beweisfindung ist Tiefensuche mit Backtracking. Anwendungsgebiete. In den 1980er Jahren spielte die Sprache eine wichtige Rolle beim Bau von Expertensystemen. Die Sprache wird heute noch in den Bereichen Computerlinguistik und Künstliche Intelligenz verwendet. Zum Beispiel sind Sprachverarbeitungskomponenten des durch seinen Auftritt bei Jeopardy! bekannt gewordenen KI-Systems Watson in Prolog geschrieben. Außerdem gibt es einige kommerzielle Anwendungen im Bereich des Systemmanagements, bei denen asynchrone Ereignisse (Events) mit Hilfe von Prolog oder darauf basierenden proprietären Erweiterungen verarbeitet werden. Ein Beispiel hierzu ist das Produkt "Tivoli Enterprise Console" (TEC) von IBM, das auf IBM-Prolog basiert. Einzelnachweise und Anmerkungen. Prolog Phonem. a>s Apparat zur Aufzeichnung der Phoneme (um 1900) Ein Phonem (selten: Fonem) (von, "phōnḗ", „Laut, Ton, Stimme, Sprache“) ist die abstrakte Klasse aller Laute (Phone), die in einer gesprochenen Sprache die gleiche bedeutungsunterscheidende (distinktive) Funktion haben. Das Phonem kann somit als die kleinste bedeutungsunterscheidende akustische Einheit (auch: Segment) des Lautsystems einer Sprache definiert werden. Demgegenüber steht das Graphem für die kleinsten bedeutungsunterscheidenden graphischen Einheiten des (eines) Schriftsystems einer Sprache. Die Phoneme sind Untersuchungsgegenstand der Phonologie oder "Phonemik," während die Phonetik die Phone gleichsam sprachunabhängig untersucht. Notierung. Zur Notierung von Phonemen bedient man sich im Allgemeinen der Lautschrift-Symbole des Internationalen Phonetischen Alphabets. Dabei handelt es sich jedoch lediglich um eine Vereinfachung: Da Phoneme nicht mit den Lauten identisch, sondern Positionen innerhalb einer Systematik sind, könnte man im Prinzip jedes beliebige Symbol für ein Phonem verwenden. Zur Unterscheidung werden Phoneme durch Schrägstriche und Phone in eckigen Klammern notiert. Phon und Phonem. Phone gehören zu unterschiedlichen Phonemen, wenn dem phonetischen Unterschied in der jeweiligen Sprache ein Bedeutungsunterschied entspricht. Dies stellt man anhand von Wörtern fest, die sich nur in einem Laut unterscheiden. Wenn beide Wörter Unterschiedliches bedeuten, sind die untersuchten Laute Realisierungen unterschiedlicher Phoneme. (Ebendies ist mit „bedeutungsunterscheidend“ gemeint.) Ergeben sich Bedeutungsunterschiede, werden die Wörter „Wortpaare“ oder „Minimalpaare“ genannt. Zu erwähnen ist hier auch, dass Phoneme nicht nur als Lautsegmente realisiert werden, sondern auch als suprasegmentale Eigenschaften von Silben auftreten können. So bei den Tonsprachen, die verschieden hohe oder verlaufende Töne auf einer Silbe kennen, die eindeutig bedeutungsunterscheidend sind. Man spricht hier auch von Tonemen, die eine Untergruppe der Phoneme sind. Mit Hilfe dieser sogenannten Minimalpaaranalyse lassen sich alle Phoneme einer Sprache systematisch erfassen und identifizieren: Führt das Ersetzen eines Lauts durch einen anderen zu einer Änderung (oder zum Verlust) der Bedeutung des Wortes, können beide Laute unterschiedlichen Phonemen zugeordnet werden. Bei Phonemen handelt es sich jedoch nicht um die Laute selbst; vereinfacht ausgedrückt kann man ein Phonem als eine Gruppe von Lauten, die von Muttersprachlern der jeweiligen Sprache als „ungefähr gleich“ empfunden werden, auffassen. Es sind also von den Einzellauten (Phonen) einer Sprache abstrahierte Einheiten. Als solche sind sie keine physischen Laute im eigentlichen Sinn, sondern müssen durch entsprechende Allophone realisiert („hörbar gemacht“) werden. Phonem und distinktive Merkmale. Die Phoneme sind keine Atome, sondern „kontrastieren in bestimmten Lauteigenschaften“. Die Lauteigenschaften, die ein Phonem von einem anderen unterscheiden, werden auch distinktive Merkmale genannt. Wenn das Phonem als kleinste bedeutungsdifferenzierende Einheit bezeichnet wird, kann sich das also nur „auf kleinste "in der Sequenz aufeinander folgende" Einheiten“ beziehen, während „eine Gliederung in noch kleinere "simultan" im Phonem gebündelte Merkmale" damit nicht ausgeschlossen wird. In phonologischen Theorien, die primär mit distinktiven Merkmalen arbeiteten, gibt es allerdings eigentlich keinen Bedarf für den Phonembegriff mehr, und Symbole wie „/p/“ werden nur als eine praktische Abkürzung für ein Merkmalbündel betrachtet. Welche Lauteigenschaften distinktiv sind, erschließt sich nicht einfach aus dem Klang, sondern ist eine Eigenschaft, die durch die Grammatik einer Einzelsprache festgelegt wird. Beispielsweise beruht der Kontrast der deutschen Wörter "Bass" und "Pass" darauf, ob der mit den Lippen gebildete Verschlusslaut stimmhaft oder stimmlos ist. In einer Sprache wie dem Koreanischen etwa bildet jedoch derselbe Kontrast keine Minimalpaare (sondern ein und dasselbe Phonem wird stimmhaft ausgesprochen wenn es zwischen zwei Vokalen steht und sonst stimmlos). Stattdessen benutzt das Koreanische die Behauchung (Aspiration) oder die gespannte Ausführung eines Verschlusslautes als distinktive Merkmale; minimale Kontraste sind z. B. [pal] "Fuß" - [phal] "Arm" – [ppal] "schnell" (hierbei ist "ph" als ein einziges phonetisches Zeichen für ein aspiriertes p und "pp" als ein einziges phonetisches Zeichen für ein gespanntes p zu verstehen). Die Aspiration des Verschlusslautes "p" liegt in dem deutschen Wort "Pass" zwar vor, eine Aussprache ohne Hauch ergibt aber im Deutschen, anders als im Koreanischen, nie ein anderes Wort. Phonem und unterschiedliche konkrete Realisierungen (Allophone). Gleichgültig, ob man Phoneme als das Ergebnis einer rein linguistischen Systematisierung oder als mentale Entitäten auffasst, in jedem Fall handelt es sich bei ihnen um Abstraktionen einer konkreten lautlichen Äußerung. Genauer handelt es sich um eine „Klasse von Lauten …, die alle distinktiven Eigenschaften gemeinsam haben, in den nicht-distinktiven dagegen differieren können.“ Dies bedeutet, dass sich konkrete Realisierungen von Phonemen erheblich voneinander unterscheiden können und dennoch ein und demselben Phonem zugeordnet werden. Die Realisierungen (Instanzen) eines Phonems werden auch Allophone genannt. Nach dem Gesagten können Allophone mitunter in verschiedenen Varianten auftreten. Für eine Reihe von Phonemen existieren jedoch phonologische Regeln, die in Abhängigkeit von der lautlichen Umgebung eines Phonems eindeutig festlegen, mit welchem Allophon es zu realisieren ist. Man spricht von (kontextgebundenen) "kombinatorischen Varianten eines Phonems" - im Gegensatz zu "freien Varianten eines Phonems". Entscheidend ist also einzig und allein die lautliche Umgebung, inhaltliche Unterschiede zwischen den Wörtern spielen keine Rolle. Bei derartigen sogenannten kombinatorischen Varianten sind beide Allophone zumeist so verteilt, dass dort, wo das eine stehen muss, das andere nicht stehen darf und umgekehrt (komplementäre Distribution). Führen solche Regeln dazu, dass ein eigentlich distinktives Merkmal seine bedeutungsunterscheidende Funktion verliert, spricht man von Neutralisation. Auch Assimilationsprozesse führen häufig zu Neutralisation. Phoneme sind also nicht bloß phonetisch bestimmt, sondern „linguistische Elemente, die durch ihre Stellung im sprachlichen System, durch ihre syntagmatischen und paradigmatischen Relationen, das heißt durch ihre Umgebung und durch ihre Substituierbarkeit, bestimmt sind“. Distingem. Phonem und Graphem werden auch unter der Sammelbezeichnung „Distingem“ zusammengefasst. Graphem. Das Phonem ist zu unterscheiden vom Graphem. Das Graphem ist die kleinste bedeutungsunterscheidende Einheit der geschriebenen Sprache. Phonem. Das Phonem ist die kleinste bedeutungsunterscheidende Einheit der gesprochenen Sprache. Morphem. Das Phonem ist zu unterscheiden vom Morphem. Das Phonem ist als kleinste bedeutungsunterscheidende, während das Morphem als kleinste bedeutungstragende sprachliche Einheit definiert ist, da es einen semantischen Inhalt enthält. Die Phoneme /r/ und /t/ zum Beispiel unterscheiden die Lexeme (Wörter) „rot“ und „tot“ als Minimalpaar voneinander; sie selbst tragen keinerlei Bedeutung. Eine eigene Bedeutung haben dagegen die genannten beiden Wörter (Lexeme) und bilden jeweils ein Morphem. Ein Morphem besteht in der Regel aus einem oder mehreren Phonemen, die in der Schriftsprache als Grapheme notiert werden. Das Fehlen eines Phonems kann als Morphemform "(Nullmorphem)" bezeichnet werden, etwa wenn eine Flexionsform an der jeweiligen Stelle Phoneme enthält, eine andere dagegen nicht. Phoneme und Phonemklassen der deutschen Lautsprache. Umstritten ist der phonematische Status im Deutschen u. a. bei den Schwa-Lauten (e-Schwa und a-Schwa), dem glottalen Verschlusslaut (auch Knacklaut, engl. „glottal stop“), den Diphthongen (vokalische Doppellauten mit Gleitbewegung von einem Ausgangs- hin zu einem Endvokal) und den Affrikaten (Abfolge von Plosiv und Frikativ, die mit dem gleichen Organ gebildet werden). Am weitesten auseinander gehen die in der Forschungsliteratur anzutreffenden Anzahlen an Vokalphonemen (nämlich von 8 bis 26). Phoneminventar. Die Gesamtheit aller Phoneme wird auch als „Phoneminventar“ bezeichnet, dessen Größe von Sprache zu Sprache teilweise erheblich schwankt. Am Phoneminventar orientieren sich auch die meisten Alphabetschriften, im Idealfall existiert eine 1-zu-1-Zuordnung von Phonemen und Buchstaben. Anzahl der Phoneme der Sprachen der Welt. Sprecher nutzen nur eine eingeschränkte Zahl potentieller Laute, die das menschliche Sprachorgan hervorbringen kann. Aufgrund von Allophonen ist die Anzahl der zu unterscheidenden Phoneme in der Regel kleiner, als die Anzahl der Laute, die in einer Einzelsprache identifiziert werden kann. Verschiedene Sprachen unterscheiden sich maßgeblich in der Anzahl der Phoneme, die ihrem Sprachsystem eigen sind. Das gesamte phonetische Inventar in den Sprachen variiert zwischen nur 11 in Rotokas und 10 - nach allerdings umstrittenen Analysen - in Pirahã, der phonemärmsten Sprache der Welt, und bis zu 141 Phonemen in oder !Xũ, der phonemreichsten. Die Zahl der phonemisch distinktiven Vokale kann niedrig sein wie in Ubyx und Arrernte mit nur zwei oder hoch wie in der Bantusprache Ngwe, die 14 Grundvokale aufweist, wovon 12 lang und kurz unterscheiden, plus 6 nasalierte Vokale, ebenfalls jeweils lang und kurz realisiert, was insgesamt 38 phonemische Vokale macht. !Xóõ (!Xũ) hingegen besitzt schon 31 reine Vokale, ohne dass man die zusätzlichen Variationen hinsichtlich der Vokallänge durch Tonhöhen dazuzählt. Hinsichtlich der konsonantischen Phoneme besitzt Puinave gerade einmal sieben und Rotokas sechs. !Xóõ (!Xũ) dagegen hat um die 77 und Ubyx gar 81 konsonantische Phoneme. Das häufigste Vokalsystem besteht aus den fünf Grundvokalen /i/, /e/, /a/, /o/, /u/. Die häufigsten Konsonanten sind /p/, /t/, /k/, /m/, /n/. Sehr wenigen Sprachen fehlen diese Konsonanten, so gibt es im Arabischen kein /p/, im Standardhawaiianischen fehlt das /t/, Mohawk und Tlingit haben kein /p/ und /m/, Hupa hat weder /p/ noch ein /k/, umgangssprachliches Samoanisch hat weder /t/ noch /n/, wohingegen Rotokas und Quileute die Nasale /m/ und /n/ nicht haben. Englisch besitzt eine große Variationsbreite an vokalischen Phonemen (zwischen 13 und 21, einschließlich der Diphthonge). Die 22 bis 26 Konsonanten entsprechen hingegen dem Durchschnitt der meisten Sprachen. Deutsch besitzt ungefähr 40 Phoneme (etwa 20 Vokalphoneme und 20 konsonantische Phoneme, je nach Zählweise), regionale Sprachvarianten besitzen oft erheblich mehr Phoneme. Phonemsystem. Die Phonetik gibt die Möglichkeit, Phoneme als Mengen von (distinktiven) Merkmalen aufzufassen, anhand auserwählter Merkmale Phonemklassen zu bilden und das Phoneminventar als "Phonemsystem" zu betrachten. Die Merkmale, durch die sich Phoneme unterscheiden, nennt man "phonologische Merkmale" im Gegensatz zu den "phonetischen Merkmalen" der Phone. Phoneme lassen sich anhand ihrer Merkmale klassifizieren. Gibt es ein Merkmal, das zwei Phoneme voneinander unterscheidet, so wird es als distinktives Merkmal bezeichnet. Für manche Phoneme gelten Einschränkungen, was ihre Position anbelangt: Im Deutschen etwa darf nicht am Wortanfang auftauchen, nicht am Wortende. Strukturalismus. Nach der klassischen Charakterisierung des Strukturalismus sind Phoneme abstrakte Einheiten einer systematisierenden Untersuchung von Sprache. Phoneme als mentale Einheiten (Chomsky). Noam Chomsky und Morris Halle begründeten eine psychologische Interpretation der Phoneme als mentale Einheiten. Im Laufe des Spracherwerbs erlernt ein Kind, welche phonetischen Merkmale eines Lautes für die Bedeutung eines Wortes entscheidend sind und welche nicht. Die im Zuge dieses Prozesses entstehenden Kategorien werden als mentale Entsprechungen (Repräsentationen) der ursprünglich rein linguistisch definierten Phoneme angesehen. Nach dieser Auffassung haben Phoneme eine eigenständige Existenz im mentalen Sprachverarbeitungssystem eines Sprechers: Das System greift bei der Sprachverarbeitung tatsächlich auf diese Einheiten zurück. (Eine gegenteilige Hypothese wäre etwa die Behauptung, dass durch das Zusammenspiel von gelernten Wörtern und einzelnen Lautwahrnehmungen nur der "Eindruck" entsteht, Phonemkategorien seien im System am Werk.) Der Einfluss dieser Phonemkategorien auf die Wahrnehmung lässt sich besonders gut beim Umgang mit einer Fremdsprache beobachten. Phonetische Unterscheidungen, die in der eigenen Sprache keine Rolle spielen, werden vom untrainierten Ohr auch in anderen Sprachen nicht wahrgenommen oder fälschlicherweise ein und demselben Phonem zugeordnet. Beispiel: Das chinesische wird retroflex gebildet, das chinesische in etwa wie unser. Wenn ein Deutscher seinen Laut ausspricht, wird dieser von Chinesen als wahrgenommen und nicht als das chinesische retroflexe. Phonemvariation. Es kommt vor, dass in bestimmten Wörtern ein Phonem durch ein anderes ersetzt werden kann, ohne dass sich die Bedeutung ändert. Man nennt das Phonemvariation oder "Phonemfluktuation". Sie ist in der standardsprachlichen Aussprachenorm relativ selten. Dort wo sie standardsprachlich anerkannt ist, kann sie auch Auswirkungen auf die Schreibung haben. Gebärdensprachen. Der Begriff des Phonems wurde erkennbar bei der Untersuchung von Lautsprachen entwickelt. Aber auch Gebärdensprachen verfügen über ein bestimmtes Inventar von gebärdensprachlichen Phonemen. Wegen des Modalitätsunterschieds (oral-auditorisch vs. manuell-visuell) wird dieses Phoneminventar in die vier Parameter Handkonfiguration, Handorientierung, Bewegung und Platzierung aufgeteilt, statt in Vokale und Konsonanten wie in Lautsprachen. Alle Gebärden werden mit mindestens einem Phonem aus jedem Parameter aufgebaut und simultan ausgeführt. Die Art und Anzahl der Phoneme können auch in Gebärdensprachen variieren, so dass man deswegen auch einen fremden Gebärdensprach-Akzent erkennen kann. Plattentektonik. Als Plattentektonik bezeichnet man die Gliederung der äußeren Erdhülle, der Lithosphäre, in Lithosphärenplatten (umgangssprachlich Kontinentalplatten genannt), die dem tieferen Erdmantel aufliegen und darauf umherwandern (Kontinentaldrift). Ursprünglich war "Plattentektonik" die Bezeichnung für das entsprechende Denkmodell in den Geowissenschaften. Die Theorie der großräumigen tektonischen Vorgänge in der äußeren Erdhülle ist mittlerweile vielfach belegt worden und gehört heute zu den grundlegenden Theorien über die endogene Dynamik der Erde. Zu den mit der Plattentektonik verbundenen Phänomenen zählen die Entstehung von Faltengebirgen (Orogenese) durch zusammenstoßende Kontinente sowie die häufigsten Formen von Vulkanismus und Erdbeben. Die Lithosphärenplatten. Daneben gibt es noch eine Reihe kleinerer Platten wie z. B. die Nazca-Platte, die Indische Platte, die Philippinische Platte, die Arabische Platte, die Karibische Platte, die Cocosplatte, die Scotia-Platte sowie weitere Mikroplatten, über deren Abgrenzung jedoch teilweise noch wenig bekannt ist oder deren Existenz nur vermutet wird. Die Bewegungen der Platten. Die Plattengrenzen werden an der Erdoberfläche meist entweder durch mittelozeanische Rücken oder Tiefseerinnen repräsentiert. An den Rücken driften die benachbarten Platten auseinander ("divergierende Plattengrenze"), wodurch basaltisches Magma aus dem oberen Erdmantel emporsteigt und neue ozeanische Lithosphäre gebildet wird. Dieser Prozess wird auch als Ozeanbodenspreizung oder "Seafloor Spreading" bezeichnet. Er geht mit intensivem, meist untermeerischem Vulkanismus einher. An anderen Plattengrenzen taucht im Gegenzug ozeanische Lithosphäre unter eine anstoßende (ozeanische oder kontinentale) Platte tief in den Erdmantel ab (Subduktion). An diesen "konvergierenden Plattengrenzen" befinden sich die Tiefseerinnen. Entwässerungsprozesse in der abtauchenden Platte führen in der oben bleibenden Platte ebenfalls zu ausgeprägtem Vulkanismus. Die eigentlichen Kontinentalblöcke oder Kontinentalschollen aus vorwiegend granitischem Material werden – zusammen mit den umgebenden Ozeanböden sowie dem jeweils darunter befindlichen lithosphärischen Mantel – wie auf einem langsamen Fließband von den Spreizungszonen weg und zu den Subduktionszonen hin geschoben. Nur eine Kollision zweier Kontinentalblöcke kann diese Bewegung aufhalten. Da die kontinentale Kruste spezifisch leichter ist als die ozeanische Kruste, taucht sie an einer Subduktionszone nicht zusammen mit der ozeanischen Platte ab, sondern wölbt sich stattdessen zu einem Gebirgszug auf (Orogenese). Hierbei kommt es zu komplexen Deformationsvorgängen. Zwischen der Indischen und der Eurasischen Platte findet eine Kontinent-Kontinent-Kollision statt, die ebenfalls zur Gebirgsbildung führte (Himalaya). Darüber hinaus können zwei Platten auch horizontal aneinander vorbeigleiten ("konservative Plattengrenze"). In diesem Fall wird die Plattengrenze als Transformstörung (Transformverwerfung) bezeichnet. Das Lager, auf dem die Lithosphärenplatten gleiten, befindet sich im Grenzbereich zwischen der starren Lithosphäre und der darunterliegenden, extrem zäh fließenden Asthenosphäre (engl.: "Lithosphere-Asthenosphere Boundary", LAB). Die Ergebnisse seismischer Untersuchungen des Ozeanbodens im Westpazifik lassen darauf schließen, dass im Bereich der LAB zwischen 50 und 100 km Tiefe eine geringviskose Schicht existiert, die die mechanische Entkopplung der Lithosphäre von der Asthenosphäre erlaubt. Als Grund für die geringe Viskosität wird angenommen, dass der Mantel in diesem Bereich entweder teilweise aufgeschmolzen ist oder einen hohen Anteil flüchtiger Stoffe (hauptsächlich Wasser) aufweist. Während früher die Reibung des konvektiven Mantels (engl.: "convective drag") an der Basis der Lithosphärenplatten als die wichtigste Triebkraft der Plattentektonik betrachtet wurde, gelten heute eher die von den Platten selbst ausgehenden Kräfte als die entscheidenden. Der sogenannte "Ridge Push" („Rückendruck“) geht von der jungen, warmen, auf dem Mantel „aufschwimmenden“ und daher hoch aufragenden Kruste der Mittelozeanischen Rücken aus, die einen horizontal von den Spreizungszonen weg gerichteten Druck erzeugt. Der "Slab Pull" („Plattenzug“) ist der Zug, den alte, kalte Lithosphäre erzeugt, wenn sie an Subduktionszonen in den konvektiven Erdmantel eintaucht. Durch Gesteinsumwandlungen subduzierter ozeanischer Kruste in größerer Manteltiefe erhöht sich die Dichte des Krustengesteins und bleibt höher als die Dichte des sie umgebenden Mantelmaterials. Dadurch kann der Zug auf den noch nicht subduzierten Teil der entsprechenden Lithosphärenplatte aufrechterhalten werden. Kontinentaldrift. a>, dem Südteil der Wegener’schen Pangaea, und damit auch für die Kontinentaldrift. Nachdem einige Forscher bereits ähnliche Gedanken geäußert hatten, war es vor allem Alfred Wegener, der in seinem 1915 veröffentlichten Buch "Die Entstehung der Kontinente und Ozeane" aus der teilweise sehr genauen Passung der Küstenlinien auf beiden Seiten des Atlantiks folgerte, dass die heutigen Kontinente Teile eines großen Urkontinents gewesen sein müssen, der in der erdgeschichtlichen Vergangenheit auseinandergebrochen war. Die Passung ist noch genauer, wenn man nicht die Küstenlinien, sondern die Schelfränder, das heißt die untermeerischen Begrenzungen der Kontinente betrachtet. Wegener nannte diesen Urkontienent Pangaea und den Prozess des Auseinanderbrechens und Auseinanderstrebens seiner Bruchstücke "Kontinentaldrift". Wegener sammelte zwar viele weitere Belege für seine Theorie, jedoch konnte er keine überzeugenden Ursachen für die Kontinentaldrift benennen. Eine vielversprechende Hypothese kam von Arthur Holmes (1928), der vorschlug, dass Wärmeströme im Erdinneren genügend Kraft erzeugen könnten, um die Erdplatten zu bewegen. Zu diesem Zeitpunkt konnte sich seine Hypothese jedoch nicht durchsetzen. Ab 1960: Ozeanböden, Subduktion, Erdmessung. Der Paradigmenwechsel zum Mobilismus setzte deshalb erst etwa um 1960 vor allem durch die Arbeiten von Harry Hammond Hess, Robert S. Dietz, Bruce C. Heezen, Marie Tharp, John Tuzo Wilson und Samuel Warren Carey ein, als man grundlegend neue Erkenntnisse über die Geologie der Ozeanböden erlangte. Muster der mit wechselnder Polarität magnetisierten ozeanischen Kruste. a) vor 5 Mio. Jahren, b) vor 2–3 Mio. Jahren, c) heute Die einleuchtendste Erklärung für diese Phänomene war, dass der ständige Austritt basaltischer Magmen an den langgezogenen mittelozeanischen Bruchzonen Teil eines Prozesses ist, durch welchen der Ozeanboden in entgegengesetzte Richtungen auseinandergedrückt wird, so dass er sich im Laufe der Zeit immer weiter ausdehnt (Seafloor Spreading). Da es keine Anzeichen gibt, dass sich der Radius der Erde im Laufe ihres Bestehens kontinuierlich vergrößert, wie es z. B. in Careys Expansionstheorie gefordert wurde, liegt der Gedanke nahe, dass die in Form ozeanischer Kruste neu gebildete Erdoberfläche an anderer Stelle wieder verschwinden muss. Dieser Ansatz wird gestützt durch die Tatsache, dass sich in den heutigen Ozeanen (abgesehen von tektonischen Sonderpositionen wie im Mittelmeer) keine Lithosphäre findet, die älter ist als 200 Millionen Jahre (Mesozoikum). Die Hälfte der Meeresböden aller Ozeane ist nicht einmal älter als 65 Millionen Jahre (Känozoikum). Dadurch wurde die ursprüngliche Vorstellung widerlegt, nach der die Ozeane uralte Vertiefungen seien, die sich zusammen mit den Kontinenten schon bei der Formung der ersten festen Kruste um die glutflüssige Urerde gebildet hatten. Stattdessen bestehen die Ozeanböden, verglichen mit den Kontinenten, aus geologisch außerordentlich jungen Gesteinen. Unter Berücksichtigung der kontinuierlichen Ozeanbodenbildung an den Mittelozeanischen Rücken, kann hieraus zudem der Rückschluss gezogen werden, dass vor dem Mesozoikum gebildete Ozeanböden wieder von der Erdoberfläche verschwunden sein müssen. Als Ort des Verschwindens von ozeanischer Lithosphäre wurden in den 1970er Jahren die Tiefseerinnen erkannt, die vor allem den Pazifischen Ozean umgeben. Wegen der damit verbundenen starken seismischen und vulkanischen Aktivität wird diese Zone auch als Pazifischer Feuerring bezeichnet. Die neuen Methoden der Satellitengeodäsie und des VLBI, die sich in den 1990ern der Zentimeter-Genauigkeit näherten, liefern einen direkten Nachweis der Kontinentaldrift. Die Geschwindigkeit der Ozeanboden-Spreizung beträgt einige Zentimeter pro Jahr, variiert aber zwischen den einzelnen Ozeanen. Die geodätisch ermittelten Driftraten zwischen den großen Platten liegen zwischen 2 und 20 cm pro Jahr und stimmen mit den geophysikalischen NUVEL-Modellen weitgehend überein. Neben Wegeners Theorie der Kontinentaldrift enthält die Plattentektonik auch Elemente der Unterströmungstheorie von Otto Ampferer (siehe auch Geschichte der Geologie, Permanenztheorie). Gebirgsbildung und Vulkanismus im Licht der Plattentektonik . Schematische Darstellung der Prozesse entlang der Plattengrenzen und wesentlicher damit einhergehender geologischer Erscheinungen Im Gegensatz zu der klassischen Geosynklinal-Theorie geht man heute davon aus, dass die meisten gebirgsbildenden und vulkanischen Prozesse an die Plattenränder bzw. Plattengrenzen gebunden sind. Hier entstehen als Begleiterscheinungen der sich bewegenden Platten für den Menschen bedeutsame Naturphänomene wie Vulkanausbrüche, Erdbeben und Tsunamis. Es gibt eindimensionale Plattengrenzen, an denen zwei tektonische Platten zusammentreffen und Tripelpunkte, an denen drei tektonische Platten zusammentreffen. Nicht an Plattengrenzen gebunden sind Hotspots, die durch thermische Anomalien im unteren Erdmantel verursacht werden. Konstruktive (Divergierende) Plattengrenzen. Diese Brücke auf Island überspannt eine Bruchzone in jenem Gebiet, in dem sich die Nordamerikanische und die Eurasische Platte voneinander entfernen. Das Auseinanderdriften zweier Platten nennt man "Divergenz". Hier entsteht neue Lithosphäre. Mittelozeanische Rücken. Die Mittelozeanischen Rücken (MOR) werden (als sogenannte Rücken und Schwellen) mit einer Gesamtlänge von rund 70.000 km als die größten zusammenhängenden Gebirgssysteme des Planeten Erde angesehen. Die Flanken der MOR sind sehr flach. Die Kammregion weist über weite Strecken Einsenkungen auf – den "Zentralen Graben". Dort erfolgt die eigentliche Neubildung von Erdkruste bzw. Lithosphäre, indem große Mengen an heißen, größtenteils basaltischen Magmen aufsteigen und kristallisieren. Nur ein kleiner Bruchteil erreicht hierbei als Lava den Meeresboden. Das frisch kristallisierte Gestein hat im Vergleich zu älterer ozeanischer Lithosphäre eine geringere Dichte. Dies ist der Grund dafür, dass die MOR sich über den benachbarten Ozeanboden erheben. Mit zunehmendem Alter der basaltischen Gesteine steigt deren Dichte, weshalb die MOR mit zunehmender Entfernung von der Kammregion immer flacher werden. Quer zum Zentralgraben verlaufen Bruchlinien, an denen die einzelnen Abschnitte des MOR gegeneinander versetzt sind. Daher haben die MOR keine durchgehende Kammlinie. Ein eigentümliches vulkanisches Phänomen, das an die Mittelozeanischen Rücken gebunden ist, sind die Schwarzen und Weißen Raucher – hydrothermale Schlote, an denen überhitztes, mineralgesättigtes Wasser austritt. Dabei kommt es an den Schwarzen Rauchern zur Ablagerung von Erzen, die dann sogenannte sedimentär-exhalative Lagerstätten bilden. Intrakontinentale Gräben (Riftzonen). Auch Riftzonen wie der Ostafrikanische Graben, die als die erste Phase einer Ozeanbildung aufgefasst werden können, sind mit vulkanischer Aktivität verbunden. Allerdings handelt es sich nicht um konstruktive Plattengrenzen im eigentlichen Sinn. Die Plattendivergenz wird hier zu einem Großteil durch das Einsinken und Verkippen kontinentaler Krustenblöcke ausgeglichen. Charakteristisch ist die Aufwölbung der umgebenden kontinentalen Kruste, die aus der Aufheizung und damit einhergehenden Dichteabnahme der ausgedünnten Lithosphäre resultiert und sich in Form herausgehobener Grundgebirgsmassive äußert, welche die "Riftflankengebirge" ("Riftschultern") des Grabensystems bilden. Grabensysteme wie der Ostafrikanische Graben entstehen durch die Tätigkeit sogenannter Manteldiapire. Diese heizen die Lithosphäre auf, dünnen sie aus und wölben sie domartig auf. Die entstehenden Spannungen führen schließlich dazu, dass die Kruste nachgibt und sich dreistrahlige Grabensysteme, ausgehend von den domartigen Aufwölbungen, radial ausbreiten, wobei aufeinandergerichtete Riftstrahlen zusammenwachsen und ein langgestrecktes Grabensystem bilden. Die übrigen Äste des Riftsystems verkümmern. An den tiefreichenden Brüchen in der Kruste, die bei diesen Prozessen entstehen, steigt Magma auf, was für den typischen alkalischen Vulkanismus kontinentaler Riftzonen sorgt. Bei zunehmender Ausweitung der Bruchzonen bilden sich schmale, langgezogene Meeresbecken, die, wie das Rote Meer, bereits mit ozeanischer Kruste unterlegt sind und sich mit der Zeit zu ausgedehnten Ozeanbecken ausweiten können. Destruktive (Konvergierende) Plattengrenzen. Die gegeneinander gerichtete Bewegung zweier Platten wird Konvergenz genannt. Dabei findet entweder eine Überschiebung statt, bei der entlang einer Subduktionszone die dichtere unter die weniger dichte Platte geschoben wird (Subduktion), oder eine Kollision, bei der eine oder beide Platten in den Randbereichen gefaltet werden. Kordilleren- oder Andentyp. Subduktion von dichterer ozeanischer Kruste unter einen Block aus kontinentaler Kruste Der klassische Kordillerentyp der Kettengebirge findet sich über jenen Subduktionszonen, bei denen ozeanische Lithosphäre direkt unter kontinentale Lithosphäre subduziert wird, wie an der Westküste Südamerikas. Durch das Abtauchen der ozeanischen Platte unter den Kontinentalblock befindet sich unmittelbar an der Subduktionsfront eine Tiefseerinne. Auf dem Kontinent entsteht durch den horizontalen Druck, den die subduzierte Platte ausübt, ein Faltengebirge, jedoch ohne ausgedehnte Deckenüberschiebungen. Die erhöhten Drücke und Temperaturen der Gebirgsbildung können zu Regional-Metamorphosen und Aufschmelzungen (Anatexis) in den betroffenen kontinentalen Krustenbereichen führen. Innerhalb des Faltengebirges bildet sich ein vulkanischer Bogen aus. Dies geht darauf zurück, dass die subduzierte Platte im Gestein gebundene Fluide – insbesondere Wasser – mit in die Tiefe transportiert. Unter den dort vorherrschenden Druck- und Temperaturbedingungen kommt es zu Phasentransformationen im Gestein, wobei Wasser aus der abtauchenden Platte in den darüberliegenden Mantel abgegeben wird. Dadurch wird die Schmelztemperatur des Mantelgesteins verringert und es kommt zu einer Teilaufschmelzung. Die zunächst basaltische Schmelze steigt durch die darüberliegende Lithosphäre auf und differenziert sich dabei zum Teil gravitativ oder vermengt sich mit Krustenmaterial. Die resultierenden zähflüssigen andesitischen bis rhyolitischen Magmen können bis an die Oberfläche gelangen und rufen dort zum Teil hochexplosive vulkanische Eruptionen hervor. Die Anden als Typusregion der Anden-Typ-Subduktion sind entsprechend auch beispielhaft für den damit verbundenen Vulkanismus, der durch zahlreiche aktive Vulkane, wie z. B. den Cerro Hudson oder den Corcovado, aber auch durch weit verbreitete fossile Lavagesteine und Ignimbrite repräsentiert wird. Bei der Kollision von ozeanischer mit kontinentaler Kruste wird der Ozeanboden nicht immer vollständig subduziert. Kleine Reste von Meeresbodensedimenten und basaltischem Material (Ophiolithe) werden zuweilen bei der Subduktion von ihrer Unterlage „abgeschabt“ (abgeschert) und versinken nicht im oberen Mantel. Stattdessen werden sie, keilförmig auf den Kontinentalrand aufgeschoben (obduziert) und in das Kettengebirge und damit die kontinentale Kruste integriert. Da sie der Subduktionsfront am nächsten sind, erfahren sie den höchsten Druck und werden zusammen mit den übrigen Gesteinen des Kontinentalrandes gefaltet und einer Hochdruck-Niedrig-Temperatur-Metamorphose unterzogen. Vulkanische Inselbögen (Marianen-Typ). Am Westrand des Pazifiks sowie in der Karibik wird ozeanische Kruste unter andere ozeanische Kruste subduziert. Auch dort bilden sich Tiefseerinnen und vulkanische Bögen. Letztere heißen Inselbögen, weil nur die höchsten Teile der Vulkanbögen oberhalb des Meeresspiegels liegen. Die Bogenform ist auf das geometrische Verhalten einer Kugeloberfläche, wie der Erdkruste, beim Abknicken und Untertauchen eines Plattenteils zurückzuführen. Die konvexe Seite des Bogens weist dabei stets in Richtung der subduzierten Platte. Beispiele sind die Marianen, die Alëuten, die Kurilen oder die japanischen Inseln sowie die Kleinen und Großen Antillen. Typisch für Subduktionszonen vom Marianen-Typ sind sogenannte Backarc-Becken (von engl. "back" für ‚hinter‘ und "arc" für ‚Bogen‘). Der Name verweist darauf, dass sich diese Dehnungszonen in der Kruste hinter dem Inselbogen (von der subduzierten Platte aus gesehen) befinden. Kollisionstyp . Wenn die ozeanische Kruste zwischen zwei Kontinentalblöcken vollständig subduziert worden ist, kommt es zum Kollisionstyp der Gebirgsbildung, wie bspw. im Fall des Himalayas durch den Zusammenstoß des indischen Subkontinents mit der Eurasischen Platte. Bei einem solchen Zusammenstoß wird die Lithosphäre durch die Bildung ausgedehnter tektonischer Decken enorm verdickt. Nach einer mehrphasigen Gebirgsbildung (Orogenese), d. h. zeitlich versetzten Zusammenstößen mehrerer Kleinkontinente oder vulkanischer Inselbögen (sog. Terrane) mit einem größeren Kontinentalblock und zwischenzeitlichen Subduktionsphasen, zeigen die erhaltenen Ophiolithzonen die Grenze zwischen den einzelnen Kleinkontinentalblöcken an (s. a." Geosutur"). Sowohl an der West- als auch an der Ostküste Nordamerikas finden sich Anzeichen, dass der nordamerikanische Kontinent durch solche mehrphasigen Orogenesen im Laufe seiner geologischen Geschichte immer mehr Kruste ansetzte. Das Bild kann bei schrägem Aufeinandertreffen der Blöcke, wie bei der Apenninhalbinsel im Mittelmeer, noch komplizierter werden. So gibt es Indizien, dass ozeanische Mittelmeerkruste zeitweilig sowohl unter die Afrikanische als auch unter die Eurasische Platte subduziert wurde, während die Iberische Halbinsel, der Sardokorsische Block und die Apenninhalbinsel zwischen den großen Kontinentalblöcken gegen den Uhrzeigersinn rotierten. Konservative Plattengrenzen (Transform-Störungen). An konservativen Plattengrenzen oder Transform-Störungen wird Lithosphäre weder neu gebildet noch subduziert, denn die Lithosphärenplatten „gleiten“ hier aneinander vorbei. An und nahe der Erdoberfläche, wo die Gesteine spröde sind, ist eine solche Plattengrenze als Blattverschiebung ausgebildet. Mit zunehmender Tiefe ist das Gestein infolge der hohen Temperaturen nicht spröde, sondern hochviskos, d.h., es verhält sich wie eine extrem zähe Masse. Daher geht die Blattverschiebung in größerer Tiefe in eine sogenannte duktile Scherzone über. Transform-Störungen in kontinentaler Kruste können eine beachtliche Länge erreichen und gehören, wie alle Plattengrenzen, zu den Erdbebenschwerpunkten. Bekannte Beispiele sind die San-Andreas-Verwerfung in Kalifornien oder die Nordanatolische Verwerfung in der Türkei. An den Mittelozeanischen Rücken (MOR) gibt es nicht nur vulkanisch aktive Längsgräben, sondern auch querlaufende Störungen, bei denen es sich ebenfalls um Blattverschiebungen bzw. Scherzonen handelt. Diese zerschneiden die Flanken der MOR in unregelmäßigen Abständen und teilen den Rücken in einzelne, gegeneinander versetzte Abschnitte. Allerdings sind nur die Bereiche der Störungen, die zwischen den Zentralgräben zweier benachbarter MOR-Abschnitte verlaufen, tatsächlich auch konservative Plattengrenzen und damit Transformstörungen im eigentlichen Sinn. Auch die Transformstörungen der MOR sind seismisch aktiv. Hotspots. Ausbruch des Mauna Loa auf Hawaii, 1984 Hotspot-Vulkanismus steht nicht unmittelbar mit der Plattentektonik in Zusammenhang und ist nicht an Plattengrenzen gebunden. Stattdessen wird aus Quellen im tieferen Mantel heißes Material in Form sogenannter Manteldiapire oder Plumes in den oberen Mantel gefördert, wo aus diesem Material basaltische Magmen mit charakteristischer chemischer Zusammensetzung herausschmelzen, die als "Ocean Island Basalts" (OIBs, „Ozeaninsel-Basalte“) den Meeresgrund bzw. die Erdoberfläche erreichen. Als Paradebeispiel für Hotspot-Vulkanismus gilt die Insel Hawaii, die mitten auf der Pazifischen Platte liegt. Die Hawaii-Inselkette (bis einschließlich Midway und Kure) und ihre untermeerische Fortsetzung, der Emperor-Rücken, sind dadurch entstanden, dass die ozeanische Lithosphäre kontinuierlich über einen Hotspot geglitten ist, dessen Magmen in regelmäßigen Abständen den Ozeanboden durchschlagen haben. Da Hotspots traditionell als ortsfest gelten, wurden aus dem Verlauf solcher Vulkanketten und dem Alter des Lavagesteins ihrer Vulkane die Bewegungsrichtung und die Geschwindigkeit von Lithosphärenplatten rekonstruiert. Zumindest für den Hawaii-Emperor-Rücken lassen neue Erkenntnisse vermuten, dass es sich dort nicht um einen stationären, sondern um einen beweglichen Hotspot handelt. Wissenschaftler untersuchten paläomagnetische Daten in Basalten mehrerer untermeerischer Berge (englisch:), d. h. vormaliger Vulkaninseln, des Hawaii-Emperor-Rückens, die Hinweise auf die geographische Breite liefern, in der die Lava seinerzeit erstarrte („Paläobreite“). Die Ergebnisse der Analyse zeigten, dass mit zunehmendem Alter des Gesteins auch die Paläobreite zunimmt, was nahelegt, dass der Hotspot nicht stationär war, sondern im Laufe der letzten 80 Millionen Jahre eine Eigenbewegung nach Süden vollzogen hat, und zwar mit einer mittleren Geschwindigkeit von 4 cm pro Jahr. Da diese Geschwindigkeiten in der gleichen Größenordnung liegen, wie die Plattengeschwindigkeiten (Pazifische Platte aktuell ca. 10 cm pro Jahr) sind mögliche Eigenbewegungen von Hotspots bei Berechnungen der Bewegungsrichtung und der Geschwindigkeit von Lithosphärenplatten anhand von Altersdaten von Hotspotvulkanketten zu berücksichtigen. Auch unter Island befindet sich ein Hotspot. Dort liegt jedoch der Sonderfall vor, dass der Hotspot-Vulkanismus mit dem Vulkanismus eines Mittelozeanischen Rückens zusammenfällt. Ursachen der Plattentektonik und ungelöste Probleme. Wenn die Realität der Kontinentaldrift unter Geowissenschaftlern auch kaum noch bezweifelt wird, so besteht über die Kräfte im Erdinnern, die die Bewegungen der Platten auslösen und vorantreiben, noch fast so viel Unklarheit wie zu Zeiten Wegeners (siehe hierzu auch Mantelkonvektion). Die beiden hier angeführten Theorien galten lange Zeit als gegensätzlich und miteinander unvereinbar. Nach heutiger Sicht werden sie immer mehr als einander ergänzend angesehen. Konvektionsströmungen. Das Prinzip der Plattentektonik (nicht maßstäblich) Die heute am meisten vertretene Meinung geht von langsamen Konvektionsströmen aus, die sich durch den Wärmeübergang zwischen dem heißen Erdkern und dem Erdmantel ergeben. Der Erdmantel wird hierbei von unten aufgeheizt. Die Energie für die Aufheizung des Mantelmaterials könnte nach einer Modellvorstellung noch von der Akkretionsenergie herrühren, die bei der Entstehung der Erde frei wurde. Zum Teil tragen auch radioaktive Zerfallsprozesse zur Aufheizung bei. Die Reibungsenergie der Gezeitenwirkung des Mondes auf den Erdkörper kann wohl vernachlässigt werden. Allerdings bilden Konvektionsströme unter Laborbedingungen, zum Beispiel in erhitzten zähen Flüssigkeiten, sehr hoch strukturierte und symmetrische Formen aus, die z. B. eine Wabenstruktur haben. Dies lässt sich kaum mit der tatsächlich beobachteten Gestalt der geotektonischen Platten und ihren Bewegungen vereinbaren. Eine andere Theorie geht von nur zwei sich gegenüber liegenden Konvektionszentren aus. Eine heute dominante Zelle läge unter Afrika, was das dortige Vorherrschen von Dehnungsbrüchen und das Fehlen einer Subduktionszone am Rand der Afrikanischen Platte erklären würde. Die andere Konvektionszelle läge auf der Gegenseite des Globus – unter der Pazifischen Platte, die ständig an Größe verliert. Der Pazifik, der interessanterweise keinerlei kontinentale Kruste beinhaltet, wäre somit der Überrest eines urzeitlichen Superozeans Panthalassa, der einst Pangaea umschlossen habe. Erst wenn sich im Gebiet des heutigen Pazifik alle Kontinente wieder zu einem neuen Superkontinent vereinigt hätten, würde sich die Bewegung umkehren (Wilson-Zyklus). Die neue Pangaea würde wieder auseinanderbrechen, um den neuen Superozean, der sich aus Atlantik, Indischem und Arktischem Ozean gebildet hätte, ein weiteres Mal zu schließen. Aktive Lithosphärenplatten. Andere Autoren sehen die Platten nicht nur passiv auf dem Mantel liegen. So nimmt die Mächtigkeit und die Dichte einer ozeanischen Lithosphärenplatte stetig zu, während sie sich vom Mittelozeanischen Rücken entfernt und abkühlt, wodurch sie bereits ein wenig in den Mantel einsinkt und dadurch leichter von der Oberplatte überschoben werden kann. Nach dem Abtauchen unter die Oberplatte wird das subduzierte Gestein schließlich unter den Druck- und Temperaturbedingungen bei zunehmender Tiefe in Gestein höherer Dichte umgewandelt. So bildet sich beispielsweise aus dem Basalt der ozeanischen Kruste Eklogit, wodurch die Dichte der subduzierten Platte sogar die Dichte des darunter liegenden Teils des Erdmantels übersteigen kann. Deshalb wird die bei einer Kollision in den Mantel sinkende Platte durch ihr eigenes Gewicht tiefer gezogen, wobei Plattenmaterial im Extremfall bis nahe an den unteren Rand des Erdmantels sinken kann. Die auf die Lithosphärenplatte ausgeübte Kraft wird Plattenzug genannt (engl. "slab pull", von "pull" ‚ziehen‘; "slab" ‚Platte‘). Eine etwa um den Faktor 10 kleinere Kraft entsteht darüber hinaus an der dem Mittelozeanischen Rücken zugewandten Seite einer Lithosphärenplatte, da die dort aufgewölbte Kruste eine Hangabtriebskraft erfährt, den Rückendruck (engl. "ridge push", von "ridge" ‚Rücken‘ und "push" ‚drücken‘). Auch auf die gegenüberliegende, nicht in den Mantel sinkende Platte wirkt in einer Subduktionszone eine Kraft, eine Zugspannung. Mit welcher Geschwindigkeit sich eine ozeanische Lithosphärenplatte allerdings tatsächlich bewegt, hängt auch von der Größe der Gegenkräfte ab. Plattentektonik auf anderen Himmelskörpern. Nach dem bisherigen Stand der Forschung scheint der Mechanismus der Plattentektonik nur auf der Erde wirksam zu sein. Das ist für den kleinen Planeten Merkur und für die großen Monde der Gasplaneten und den Erdmond noch plausibel. Die Lithosphäre dieser relativ zur Erde viel kleineren Himmelskörper ist im Verhältnis zu mächtig, um in Form von Platten mobil sein zu können. Allerdings zeigt die Kruste des Jupitermondes Ganymed Ansätze einer zum Erliegen gekommenen Plattentektonik. Bei der fast erdgroßen Venus ist wiederum schwer zu verstehen, warum eine Plattentektonik trotz starkem Vulkanismus nicht in Gang gekommen sein dürfte. Eine erhebliche Rolle könnte dabei das nur auf der Erde vorkommende freie Wasser spielen. Offensichtlich dient es hier bis hinab auf die Kristallgitterebene als reibungsminderndes „Schmiermittel“. An den Subduktionszonen der Erde werden im Porenraum der Sedimente des Ozeanbodens Milliarden Tonnen Wasser mit in die Tiefe gezogen, das den überliegenden Erdmantel partiell aufschmilzt. Auf der Venus sind flüssiges Wasser und folglich Meere zumindest heute nicht mehr vorhanden. Der Mars dagegen scheint eine Zwischenstellung zu besitzen. Wasser bzw. Eis ist vorhanden, und man meint, Ansätze einer Plattentektonik erkennen zu können. Die aufgereihten gigantischen Schildvulkane und Grabensysteme, die den halben Planeten umspannen, erinnern in gewisser Weise an das Rifting auf der Erde. Dem steht wiederum das Fehlen von eindeutigen Verschluckungszonen gegenüber. Wahrscheinlich reichte die innere Hitzeentwicklung und die daraus folgende Konvektion auf diesem relativ kleinen Planeten nicht ganz aus, um den Mechanismus wirklich in Gang zu setzen, oder der Vorgang kam bereits in der Frühgeschichte des Planeten wieder zum Stillstand. Ob eine Art Plattentektonik auf anders aufgebauten Himmelskörpern stattfindet, ist nicht bekannt, aber vorstellbar. Als Kandidaten für konvektionsgetriebene weiträumige horizontale Krustenverschiebungen können die Monde Europa und Enceladus gelten. Der knapp erdmondgroße Europa weist einen Eispanzer von etwa 100 km Dicke über einem felsigen Mondkörper auf, der in den unteren Bereichen teilweise oder vollständig aufgeschmolzen sein könnte, so dass der Eispanzer möglicherweise wie Packeis auf einem Ozean schwimmt. Der nur etwa 500 km kleine Enceladus wird wahrscheinlich durch Gezeitenkräfte aufgeheizt. Flüssiges Wasser oder durch hohen Druck duktiles Eis könnte bei beiden Himmelskörpern an tiefreichenden Störungen aufsteigen und das spröde Eis der Kruste zur Seite drücken, was wiederum folgen ließe, dass andernorts Kruste verschluckt werden müsste. Die Oberfläche dieser Monde ist jedenfalls geologisch aktiv oder zumindest aktiv gewesen und zeigt Anzeichen dafür, dass dort eine Krustenerneuerung stattfand. Der Vulkanismus auf Io dagegen scheint derartig stark zu sein, dass stabile Krustenbereiche in der Art der Platten erst gar nicht entstanden sind. Jean-François Pilâtre de Rozier. Jean-François Pilâtre de Rozier (* 30. März 1754 in Metz; † 15. Juni 1785 in Wimereux, Pas-de-Calais) war ein französischer Physiker, der erste Luftfahrtpionier und zusammen mit Pierre Romain das erste Todesopfer der Luftfahrtgeschichte. Leben und Wirken. Jean-François Pilâtre de Rozier wurde in Metz als dritter Sohn von Magdeleine Wilmard und Mathurin Pilastre geboren. Sein Vater, der den Beinamen „du Rosier“ trug, war ein ehemaliger Soldat, der Wirt geworden war. Im Militärhospital seiner Heimatstadt Metz, einer wichtigen Garnison an der Grenze Frankreichs, wurde Pilâtres Interesse an der Chemie von Drogen geweckt. Er ging mit achtzehn Jahren nach Paris, arbeitete dort als Apotheker und hörte daneben Vorlesungen über Mathematik, Physik und Naturgeschichte. Danach lehrte er Physik und Chemie an der Akademie in Reims, wodurch er die Aufmerksamkeit des Grafen von Provence erregte, dem späteren Ludwig XVIII. und Bruder von König Ludwig XVI. Pilâtre kehrte nach Paris zurück, wo er mit dem naturgeschichtlichen Kuriositätenkabinett des Grafen beauftragt wurde. Zudem wurde er Höfling der Gattin des Grafen, was ihm den Adelsnamen „Pilâtre de Rozier“ einbrachte. Er eröffnete im Pariser Quartier Marais am 11. Dezember 1781 sein eigenes Museum, das "Musée technique", wo er physikalische Experimente vornahm und seinen adligen Besuchern Demonstrationen vorführte. Er forschte auf dem neuen Gebiet der Gase und erfand ein Beatmungsgerät (Respirator). Am 15. Oktober 1783 gelang dem damals 29-jährigen Physiker mit königlicher Bewilligung die Fahrt in einer Montgolfière, einem Heißluftballon der Brüder Montgolfier, in der er eine Höhe von etwa 26 Metern erreichte. Damit gelang ihm die erste historisch gesicherte bemannte Luftfahrt der Menschheit, der Ballon war jedoch noch mit Fesseln am Boden verankert. Am 21. November 1783 führte Pilâtre die erste Freiballonfahrt in der Geschichte der Menschheit durch. Bei der 25-minütigen Fahrt schwebte er zusammen mit François d’Arlandes nach dem Start vom Schlossgarten des Schlosses La Muette in Passy, heute ein Stadtteil von Paris, über die Seine hinweg etwa 10 km weit bis zur Butte aux Cailles in der Gemeinde Gentilly, wenige Kilometer vom Zentrum der französischen Hauptstadt entfernt (heute Teil von deren 13. Arrondissement). Über diese Luftreise berichtete er in der Schrift "Première expérience de la Montgolfière" (1784). Er entwickelte die nach ihm benannte Rozière, eine Kombination aus Wasserstoffballon und Heißluftballon. Am 15. Juni 1785 startete er mit einem solchen Heißluft-Gas-Hybrid-Ballon von Boulogne-sur-Mer aus in Richtung Großbritannien. Nach 5 km Fahrt entzündete sich in 900 Metern Höhe der Wasserstoff und zerstörte die Ballonhülle, woraufhin die Gondel in die Tiefe stürzte. Pilâtre de Rozier und sein Mitfahrer Pierre Romain kamen beim Absturz ums Leben. Sie waren die ersten Todesopfer der Luftfahrt. Der Mondkrater Pilâtre wurde 1991 nach ihm benannt. Per Anhalter durch die Galaxis. Per Anhalter durch die Galaxis (auch: "Per Anhalter ins All", Originaltitel: "The Hitchhiker’s Guide to the Galaxy", abgekürzt "HHGTTG", oder "H2G2") ist das bekannteste Werk des englischen Schriftstellers Douglas Adams. Es handelt sich um eine Mischung aus Komödie, Satire und Science Fiction, die zuerst als Hörspielserie vom BBC-Radio ausgestrahlt wurde. Als Roman international erfolgreich, wurde das Werk weiterentwickelt und dabei noch in weitere Medien (Fernsehserie, Computerspiel, Musical, Kinofilm) umgesetzt. "Per Anhalter durch die Galaxis" ist dabei sowohl der Titel des ersten Buches als auch gleichzeitig der gesamten Serie. Die Geschichte erlangte schon früh Kultcharakter, wobei der charakteristische Humor des Autors besonderen Anklang fand. Entstehungsgeschichte. Ursprünglich im Jahr 1978 als Hörspielserie für die BBC geschrieben, entwickelte Adams die Geschichte weiter. Es entstand eine Romanreihe, deren fünf Teile in den Jahren 1979 bis 1992 erschienen. Außerdem wurde 1981 – ebenfalls für die BBC – eine Fernsehserie produziert, die später in stark gekürzter Form ins Deutsche übersetzt und ausgestrahlt wurde. In Zusammenarbeit mit Douglas Adams erfolgte 1984 eine Umsetzung der Geschichte für ein Computerspiel. Die grundsätzliche Idee zu seiner Geschichte hatte Adams nach eigenen Angaben, als er einmal betrunken bei Innsbruck (Österreich) in einem Acker lag, das Buch "Per Anhalter durch Europa" las und sein Blick auf den Sternenhimmel fiel. → "Zitat im Artikel: Douglas Adams" Obwohl die verschiedenen Adaptionen – Radio, Bücher, Computerspiel und Fernsehserie – im Großen und Ganzen die gleiche Handlung beschreiben, gibt es doch zahlreiche Variationen in einzelnen Punkten; es gibt sogar einige widersprüchliche Elemente und Varianten. Handlung. Die Geschichte, die allen Versionen zugrunde liegt, sind die Abenteuer des Arthur Dent, eines Durchschnittsengländers, der mit knapper Not und mit Hilfe seines Freundes Ford Prefect der totalen Zerstörung des Planeten Erde durch eine außerirdische Rasse namens Vogonen entgeht. Zu Arthurs Verblüffung erweist sich sein Freund als außerirdischer Besucher, der die Erde zu Recherchezwecken wegen eines galaktischen Nachschlagewerks bereiste und zu dessen Unglück sich für einige Jahre keine Weiterreisemöglichkeit ergeben hatte. Als die Flotte der Vogonen auftaucht, um die Erde zwecks Baus einer galaktischen Hyperraum-Expressroute zu zerstören, nutzt Ford die Gelegenheit und bringt sich und Arthur mittels „Subraum-Äther-Winker“ (Sub-Etha-Sens-O-Matik, eine Art elektronischer Daumen) sozusagen per Anhalter an Bord eines der Vogonenraumschiffe. Vogonen zeichnen sich jedoch nicht durch besondere Gastfreundlichkeit aus, und so werden Arthur und Ford durch eine Luftschleuse ins All befördert. Anstatt nun im Weltraum umzukommen, werden die beiden in letzter Sekunde vom Raumschiff "Herz aus Gold" gerettet. Dort treffen Arthur und Ford die anderen Hauptfiguren der Geschichte: Zaphod Beeblebrox, Halbcousin von Ford und zeitweise Präsident der Galaxis. Zaphod hat gemeinsam mit Tricia McMillan (genannt „Trillian“), einer Frau, die Arthur einmal auf einer Party in einer Wohnung in Islington kennengelernt hatte, das Raumschiff gestohlen. Mit an Bord ist außerdem Marvin, ein depressiver Roboter. Gemeinsam begeben sie sich auf die Suche nach dem legendären Planeten Magrathea, den sie auch finden. Auf Magrathea treffen sie auf Slartibartfaß, der ihnen erklärt, dass die Erde in Wahrheit ein Supercomputer war, an dem er mitgearbeitet hat. Der einzige Zweck der Erde bestand darin, die Frage nach dem Sinn des Lebens, dem Universum und dem ganzen Rest zu finden. Die Antwort auf die Frage wurde nach sieben Millionen Jahren Rechenzeit von einer früheren Version des Supercomputers namens Deep Thought errechnet, der sich allerdings außerstande sah, die zugrunde liegende Frage zu formulieren. Nachdem die Vogonen die Erde fünf Minuten vor Ablauf des 10 Millionen Jahre dauernden Programms zerstört haben, versuchen die Auftraggeber, eine Rasse hyperintelligenter, pandimensionaler Lebewesen in Gestalt von weißen Mäusen, Arthur sein Gehirn abzukaufen, da sie es für einen Teil der Computermatrix halten und hoffen, die Frage herausfiltern zu können. Nachdem Arthur ablehnt, versuchen die Mäuse, ihm das Gehirn mit Gewalt zu entnehmen. Genau in diesem Moment trifft allerdings die galaktische Polizei auf der Suche nach Zaphod ein. In der entstehenden Verwirrung können Arthur, Ford, Zaphod und Trillian zur Herz aus Gold flüchten und beschließen, erst einmal etwas zu essen, wodurch Adams zum zweiten Teil der Romanreihe, "Das Restaurant am Ende des Universums", überleitet. In der Hörspiel- und Fernsehserie ist dieses Ende etwas anders: Die Polizisten zerstören einen Computer, hinter dem sich die Protagonisten verstecken. Durch die folgende Explosion werden diese durch die Zeit direkt ins Milliway's geschleudert, womit die Handlung erst bei Kapitel 14 des Buches beginnt. Hörspielserie. "The Hitchhiker’s Guide to the Galaxy" wurde zuerst in zwei Staffeln als Hörspielserie für die BBC geschrieben. Die erste Folge lief am 8. März 1978 bei BBC Radio 4. Nach der Produktion der Hörspielserie brachte Adams die Geschichte in Romanform, wodurch die ersten beiden Bände entstanden. In den folgenden Jahrzehnten schrieb er noch drei weitere Bücher, auf deren Grundlage nach seinem Tod wiederum drei weitere Staffeln der Hörspielserie produziert und in den Jahren 2004 und 2005 ausgestrahlt wurden. Viele Sprecher der ursprünglichen Serie konnten dafür wieder verpflichtet werden. Die Titelmusik ist das Eagles-Stück "Journey of the Sorcerer". Unter dem Titel "Per Anhalter ins All" wurde 1981/82 eine deutsche Hörspielvariante vom BR, SDR und WDR unter Regie von Ernst Wendt produziert, die die sechs Folgen der ersten englischen Radioserie umfasst. 1990/91 wurden dann vom BR und SWF weitere Teile unter Regie von Hartmut Kirste aufgenommen, die den Inhalt des dritten und vierten Buches umfassen. Die Titelmusik stammt von Frank Duval. Roman. Die ersten vier Teile wurden von Benjamin Schwarz ins Deutsche übersetzt, der fünfte Teil von Sven Böttcher. Zur Anhalter-Serie zählt ferner die Kurzgeschichte "Der junge Zaphod geht auf Nummer sicher" (Originaltitel „Young Zaphod Plays it Safe“), die als Verbindungsstück zwischen dem 4. und dem 5. Band angesehen werden kann. Die Geschichte liegt in zwei etwas unterschiedlichen Versionen vor und ist in verschiedenen Sammelbänden erschienen, u. a. im Nachlassband "Lachs im Zweifel" (The Salmon of Doubt), ISBN 3-453-40045-3. Fernsehserie. Aufgrund der hohen Beliebtheit des Hörspiels wurde 1981 eine sechsteilige Fernsehserie produziert, in der die meisten Akteure des Hörspiels mitspielten (Ausnahmen: David Dixon als Ford Prefect und Sandra Dickinson als Trillian). Die Serie basiert auf den sechs Folgen der ersten Radioserie, welche grob den Inhalt der ersten beiden Bücher ("Per Anhalter durch die Galaxis" und "Das Restaurant am Ende des Universums") umfasst. Geplant war eine zweite Serie auf Grundlage von Douglas Adams’ Projekt "Doctor Who and the Krikkitmen", die aber wegen verschiedener Probleme nicht verwirklicht wurde. Aus dem Projekt wurde später Band drei "Das Leben, das Universum und der ganze Rest". Die Serie ist auf zwei DVDs im Handel erhältlich. Kinofilm. 1997 unterschrieb Douglas Adams einen Vertrag bei Disney/Spyglass, die damals seinen Kultroman in die Kinosäle bringen wollten. Regie sollte Jay Roach führen. Adams meinte 2001, dass er sich Hugh Laurie oder Hugh Grant für die Hauptrolle "Arthur Dent" gut vorstellen könnte. Im Oktober 2003 wurde das von Fans lang erwartete Filmprojekt dann begonnen. Verfilmt wurde der Bestseller "Hitchhiker’s Guide to the Galaxy" von Regisseur Garth Jennings. Das damalige Drehbuch von Douglas Adams wurde noch einmal von Karey Kirkpatrick bearbeitet, der unter anderem durch den Animationsfilm "Chicken Run – Hennen rennen" bekannt ist. Die Hauptrolle Arthur Dent spielt Schauspieler Martin Freeman, Ford Prefect wird vom Musiker Mos Def umgesetzt, sein Cousin Zaphod Beeblebrox, der Präsident der Galaxis, vom amerikanischen Schauspieler Sam Rockwell, und in der Rolle der Trillian sieht man Zooey Deschanel. Im englischen Original leiht der britische Schauspieler Alan Rickman dem depressiven Roboter Marvin seine Stimme. Helen Mirren spricht den Super-Computer „Deep Thought“, und Stephen Fry, persönlicher Freund Adams’, ist der Erzähler, der den Film begleitet. In der Rolle des Slartibartfaß ist Bill Nighy zu sehen. Extra für die Kinoversion fügte Douglas Adams eine neue Figur ins Drehbuch ein: Humma Kavula, den geistigen Führer der Jatravartiden. Er verlor die Wahl zum Präsidenten der Galaxis gegen Zaphod Beeblebrox. Die Rolle wurde John Malkovich auf den Leib geschneidert, der sie schließlich auch annahm. Filmstart in Deutschland, Österreich und der Schweiz war der 9. Juni 2005. Musical. Die Musik des Musicals ist auf CD erhältlich: MäGäDäm: "Don’t Panic". Produziert von MäGäDäm (Andrea Bongers, Jo Jacobs) und Tim Brettschneider. Hamburg 1997. Theater. Das Linzer Theater Phönix setzte den Stoff der ersten beiden Bücher 2001 mit großem Erfolg als Theaterstück um. Regie führten Stefan Kurowski und Jürgen Heib. Weitere Medien. Das Thema wurde auch in ein Textadventure-Computerspiel von der Firma Infocom umgesetzt (The Hitchhiker’s Guide to the Galaxy). Letzteres wurde vom Autor für die Öffentlichkeit freigegeben und kann daher online gespielt werden. Weiterhin wurden die ersten drei Anhalter-Bücher als Comics umgesetzt. Anspielungen auf die Geschichte können auch immer wieder in verschiedensten Computerspielen (z. B. dient "Marvin" als Cheatcode in Gothic) oder Serien (z. B. Futurama) gefunden werden. Probus (Kaiser). Marcus Aurelius Probus (* 19. August 232 in Sirmium, Unterpannonien (nahe dem heutigen Sremska Mitrovica); † 282 ebenda) war römischer Kaiser von 276 bis 282. Leben. Probus wurde in Sirmium als Sohn eines Tribuns geboren. Er selbst schlug ebenfalls eine militärische Laufbahn ein, wobei er sich bei seinen Vorgesetzten und Truppen gleichermaßen Achtung verschaffte. Schon unter Aurelian verteidigte Probus Germanien gegen die Alamannen. Als Kaiser Tacitus 276 starb, hatte er das Truppenkommando im Orient inne. Im selben Jahr wurde er von seinen Truppen zum Gegenkaiser ausgerufen, woraufhin ihn Tacitus’ Bruder und Nachfolger Florianus angriff. Trotz zahlenmäßiger Unterlegenheit besiegte er Florianus offenbar durch geschicktes Taktieren, worauf dieser von seinen Truppen ermordet wurde. Nach dessen Tod fand er auch die Anerkennung des Senats, der ihn wohl als Kaiser bestätigte. Wahrscheinlich war dies das letzte Mal, dass ein Kaiser in dieser Weise auf den Senat Rücksicht nahm, fast alle späteren Herrscher verzichteten auf die nominelle Anerkennung durch dieses Organ: Der augusteische Prinzipat ging seinem Ende entgegen. Probus, einer der illyrischen Kaiser, wurde von der spätantiken Geschichtsschreibung (Aurelius Victor, Historia Augusta) ungewöhnlich positiv beurteilt. Von 277 bis 282 bestritt Probus fünf Konsulate und führte mehrere Kriege. Es ist allerdings unklar, wie viele der im Folgenden aufgeführten Siege tatsächlich errungen wurden: 277 scheint Probus zunächst die Goten im Gebiet von Pannonien, Moesia oder Thrakien besiegt zu haben, da er laut Münzfunden den Ehrentitel "Gothicus Maximus" annahm. Dann wandte er sich der Verteidigung Galliens zu, in das Germanen über den Rhein eingedrungen waren, da es nach dem Ende des Gallischen Sonderreichs schutzlos war. Im selben Jahr ließ er wohl die Franken hinter den Fluss zurückdrängen und am rechten Ufer Befestigungen und Brückenköpfe errichten. Zur gleichen Zeit überquerte er selbst den Neckar, um die eingefallenen Alamannen und Longioner zu vertreiben. Er besiegte sie und nahm ihren Anführer Semnon gefangen, dem er aber die Freiheit schenkte. Im Gegenzug mussten sie wie auch die Franken in ihre Heimat zurückkehren, ihre Beute abgeben und die gefangenen Römer ausliefern. Am Ligys (wohl der Lech) schlug er danach die Burgunden, die zahlenmäßig überlegen waren, indem er sie taktisch klug zu einem unüberlegten Vorstoß verleitete. Auch mit ihnen schloss er ein Abkommen. Da sie ihre Gefangenen nicht ausliefern wollten, wie es vereinbart worden war, besiegte er sie ein zweites Mal. 10.000 der dabei gemachten Gefangenen siedelte er zur Verstärkung des Heeres nach Britannien um. Für seine Siege erhielt er den Titel "Germanicus Maximus". 278 besiegte er noch die Vandalen in Illyrien und Rätien, vermutlich am Lech, was ebenfalls auf einer Münze gefeiert wurde ("Restitutor Illyrici"). 279 wandte sich Probus dem Osten des Reiches zu und bekämpfte rebellierende isaurische Stämme in Kleinasien unter ihrem Anführer Lydius. Als dieser im Kampf fiel, ergaben sie sich. Ferner wurden 279 die nubischen Blemmyer in Ägypten, die schon die Städte Koptos und Ptolemais eingenommen hatten, besiegt (Triumphzug 281). Damit waren die wichtigen Getreidelieferungen von Ägypten nach Rom vorerst gesichert. Als im Westen des Reiches Aufstände ausbrachen, verschaffte sich Probus Zeit, indem er mit den Sassaniden einen Waffenstillstand schloss. Dann schlug er den gallischen Aufstand nieder. Schließlich endeten 280/81 die Usurpationen des Saturninus in Syrien, des Proculus in Gallien und des Bonosus in Köln. In Rom ließ er den Bau der Aurelianischen Mauer zum Abschluss bringen. Probus wurde im September/Oktober 282 von unzufriedenen Soldaten in Sirmium ermordet. Hintergrund war angeblich, dass der Kaiser daran dachte, die Armee zu entlassen, nachdem relativer Frieden im Reich eingekehrt war. Ob diese völlig unglaubwürdige Nachricht einen realen Kern hat, ist unklar - selbst eine Verkleinerung des Heeres wäre zum fraglichen Zeitpunkt unklug gewesen. Denkbar ist allenfalls, dass der Sold verringert werden sollte, doch ist auch dies spekulativ. Fest steht: Der Kaiser verlor trotz seiner militärischen Erfolge den Rückhalt im Heer. Offensichtlich wurden die Legionäre von ihm mehr und mehr zu zivilen Aufgaben herangezogen, die bei den Truppen jedoch sehr unbeliebt waren. Schließlich schlugen sich die Soldaten offenbar auf die Seite des Usurpators Carus; Probus wurde von meuternden Legionären bei einer Inspektion erschlagen. Probus’ Bruder Dometius und seine beiden Neffen Probus von Konstantinopel und Metrophanes von Konstantinopel waren angeblich christliche Bischöfe von Konstantinopel. Weinbau. Mosaik auf einem Haus in Wien-Heiligenstadt, einem Weinbaugebiet Deshalb gilt Probus in zahlreichen Weinbaugebieten nördlich der Alpen (zum Beispiel in Österreich und an der Mosel) als derjenige, der dort den Weinbau eingeführt hat. Sicher ist zwar, dass die Römer bereits lange vor Probus den Weinanbau in ihren Nordprovinzen eingeführt hatten, allerdings deutet zugleich vieles darauf hin, dass die Weinproduktion in dieser Region nach der Mitte des 3. Jahrhunderts deutlich an Bedeutung gewonnen hat. Eine Verbindung mit den Maßnahmen des Kaisers kann also nicht ausgeschlossen werden. In Bad Godesberg erinnert eine "Probussäule" an den Kaiser. Paul von Hindenburg. Paul Ludwig Hans Anton von Beneckendorff und von Hindenburg (* 2. Oktober 1847 in Posen; † 2. August 1934 auf Gut Neudeck, Ostpreußen) war ein deutscher Generalfeldmarschall und Politiker. Im Ersten Weltkrieg übte die von ihm geführte Oberste Heeresleitung von 1916 bis 1918 quasi diktatorisch die Regierungsgewalt aus. Hindenburg wurde 1925 zum zweiten Reichspräsidenten der Weimarer Republik gewählt. 1932 wurde er wiedergewählt. Am 30. Januar 1933 ernannte er Adolf Hitler zum Reichskanzler. Unterschrift Paul von Hindenburg (1931) Familie. Hindenburg im Kreise seiner Familie (1917) Paul von Hindenburg entstammte väterlicherseits einem alten ostpreußischen Adelsgeschlecht, der Familie von Beneckendorff und von Hindenburg. Er wurde 1847 als Sohn des preußischen Offiziers und Gutsbesitzers Hans Robert Ludwig von Beneckendorff und von Hindenburg (1816–1902) und seiner bürgerlichen Ehefrau Luise Schwickart (1825–1893) geboren. Sein elf Jahre jüngerer Bruder Bernhard von Hindenburg verfasste 1915 die erste Biografie des Feldmarschalls. Zunächst war Paul von Hindenburg mit Irmengard von Rappard (1853–1871) aus Sögeln (Bramsche) verlobt, die aber vor der Hochzeit starb. Am 24. September 1879 heirateten Hindenburg und Gertrud von Sperling (1860–1921). Aus dieser Ehe gingen die Kinder Irmengard Pauline Louise Gertrud (1880–1948), Oskar (1883–1960) und Annemarie Barbara Ilse Ursula Margarete Eleonore (1891–1978) hervor. Die ältere Tochter heiratete 1902 Hans Joachim von Brockhusen (1869–1928), die jüngere 1912 Christian von Pentz (1882–1952) und der Sohn 1921 Margarete von Marenholtz (1897–1988). Seinen Neffen Wolf von Beneckendorff (1891–1960), den späteren Schauspieler, adoptierte Hindenburg, nachdem dessen Eltern gestorben waren. Militärische Laufbahn. Paul von Hindenburg als Kadett in Wahlstatt (1860) Als Sohn eines preußischen Offiziers beschritt Hindenburg ebenfalls die militärische Laufbahn. Nach jeweils zweijährigem Besuch der Bürgerschule (Grundschule) und des evangelischen Gymnasiums in Posen besuchte er von 1859 bis 1863 die Kadettenanstalt in Wahlstatt in Schlesien und ab Ostern 1863 die Hauptkadettenanstalt in Berlin. Im Jahre 1865 wurde er Königin Elisabeth, der Witwe des verstorbenen preußischen Königs Friedrich Wilhelm IV., als Leibpage zugeteilt. Im April 1866 wurde er als Leutnant in das 3. Garderegiment zu Fuß aufgenommen und nahm an der Schlacht von Königgrätz teil. Hindenburg kämpfte 1870/71 im Deutsch-Französischen Krieg. Am 18. Januar 1871 repräsentierte er sein Garderegiment bei der Kaiserproklamation im Spiegelsaal des Schlosses von Versailles. Von 1873 bis 1876 besuchte er die Kriegsakademie in Berlin, die er mit der Qualifikation für den Generalstab verließ. 1877 wurde er in den Großen Generalstab versetzt und im folgenden Jahr zum Hauptmann befördert. Im Jahr 1881 diente er im Generalstab der 1. Division in Königsberg und wurde zum Major befördert. Im März 1888 zählte er zu den Offizieren, die am aufgebahrten Leichnam Kaiser Wilhelms I. Totenwache hielten. Im Jahr 1890 leitete er die II. Abteilung im Kriegsministerium und wurde im Jahr darauf Oberstleutnant. Im Jahr 1893 kommandierte er das Oldenburgische Infanterieregiment Nr. 91 und wurde im Jahr darauf zum Oberst befördert. Im Jahr 1896 wurde er Chef des Generalstabes des VIII. Armee-Korps in Koblenz und im Jahr darauf Generalmajor. Im Jahr 1900 erfolgte seine Beförderung zum Generalleutnant und Ernennung zum Kommandeur der 28. Division in Karlsruhe. Im Jahr 1903 wurde er Kommandierender General des IV. Armee-Korps in Magdeburg. Im Jahr 1911 wurde er unter Verleihung des Schwarzen Adlerordens in den Ruhestand verabschiedet. Als Pensionär zog von Hindenburg erstmals nach Hannover und bezog in der Oststadt als Mieter die Villa Köhler, Am Holzgraben 1. Hindenburgs Aufstieg während des Ersten Weltkrieges. Hindenburg als Major, um 1890 Am 22. August 1914 wurde Hindenburg Oberbefehlshaber der 8. Armee. Bereits am nächsten Morgen reiste er nach Ostpreußen ab, wo er vier Tage später bei der Schlacht bei Tannenberg zum Generaloberst befördert wurde. Am 2. September 1914 wurde ihm der Orden Pour le Mérite verliehen. Vom 6. bis 14. September nahm er an der Schlacht an den Masurischen Seen teil. Er wurde am 1. November 1914 Oberbefehlshaber Ost und am 27. November 1914 zum Generalfeldmarschall befördert. Am 23. Februar 1915 wurde Hindenburg für den Sieg in der Winterschlacht in Masuren mit dem Eichenlaub zum Pour le Mérite geehrt. Am 29. August 1916 erfolgte seine Ernennung zum Chef des Generalstabes des Feldheeres. Er wurde am 9. Dezember 1916 mit dem Großkreuz des Eisernen Kreuzes geehrt. Am 25. März 1918 bekam Hindenburg die Sonderstufe zum Großkreuz des Eisernen Kreuzes, den sogenannten Hindenburgstern. Am 25. Juni 1919 trat er als Chef des Generalstabes des Heeres zurück. Am 3. Juli 1919 wurde die Mobilmachungsbestimmung aufgehoben. Der Stab der 8. Armee unter Hindenburg Bei Beginn des Ersten Weltkrieges bemühte sich Hindenburg zunächst vergeblich um ein Kommando. Erst als die Lage an der Ostfront außer Kontrolle zu geraten drohte, wurde er zum Oberbefehlshaber der 8. Armee mit Generalmajor Erich Ludendorff als Stabschef ernannt. Unter seinem Kommando wurde die nach Ostpreußen eingedrungene russische Narew-Armee in einer Umfassungs- und Vernichtungsschlacht, die vom 26. bis zum 30. August 1914 andauerte, geschlagen. Dieser Sieg war für Hindenburg in zweierlei Hinsicht von entscheidender Bedeutung. Zum einen war er der Beginn der engen Zusammenarbeit mit Ludendorff, dessen strategischem Geschick der Sieg in erster Linie zu verdanken war – Hindenburg selbst traf kaum Entscheidungen und erwähnte wiederholt, dass er während der Schlacht sehr gut geschlafen habe. Zum anderen begründete er Hindenburgs ganz außerordentliches Prestige, das ihn im weiteren Verlauf des Krieges zum mächtigsten Mann in Deutschland machen sollte. An diesem politischen Mythos, der sich um seine Person und den Sieg ranken sollte, arbeitete er selbst aktiv mit. Unmittelbar nach der Schlacht setzte er durch, dass sie nach dem vom Kampfgeschehen am Rande betroffenen Ort Tannenberg genannt werden sollte. In der Schlacht bei Tannenberg hatte 1410 ein polnisch-litauisches Heer den Deutschen Orden vernichtend geschlagen, eine „Scharte“, die der auf die Wirkung in der Öffentlichkeit bedachte Hindenburg durch die Namensgebung auszuwetzen versuchte. Der triumphale Sieg wurde von der Öffentlichkeit in der Folge Hindenburg zugeschrieben und brachte ihm die Ernennung zum Generalfeldmarschall und die Verleihung des Sterns zum Großkreuz des Eisernen Kreuzes. Von großer Bedeutung und Nachwirkung war seine und Ludendorffs Rolle bei der ab 1915 erfolgenden Etablierung des Militärstaates „Land Ober Ost“. Hindenburgs Rolle im Ersten Weltkrieg beruhte vor allem auf dem Mythos als „Sieger von Tannenberg“, weniger auf seinen tatsächlichen militärischen Leistungen. Im August 1916 übernahm er mit Ludendorff die Oberste Heeresleitung, die schnell an Einfluss auf die Politik des Deutschen Reiches gewann und Wilhelm II. praktisch entmachtete. Hindenburg war dabei (mit)verantwortlich für entscheidende Weichenstellungen im Krieg wie die Eröffnung des uneingeschränkten U-Boot-Krieges, die Ablehnung eines Verständigungsfriedens und die Diktatfrieden von Brest-Litowsk und Bukarest. Die Machtfülle von Hindenburg und Ludendorff war so groß, dass verschiedene Zeitgenossen wie Max Weber, Wilhelm Solf und Friedrich Meinecke von einer regelrechten „Militärdiktatur“ der dritten OHL sprachen. Dieser Begriff wurde von verschiedenen Historikern übernommen. Andere Historiker wie Gregor Schöllgen und Hans-Ulrich Wehler weisen dagegen darauf hin, dass die Machtausübung der OHL nicht im strengen Sinne als Militärdiktatur gewertet werden könne, da sie die politische Führung nie verantwortlich übernommen habe und durchaus auch innenpolitisch an Grenzen gestoßen sei. Wehler betont aber, dass „die indirekte, gleichwohl massive ‚faktische Machtausübung‘ der 3. OHL unübersehbar zutage“ getreten sei. Wolfram Pyta charakterisiert Hindenburgs Herrschaft, wie sie seit 1916 ausgeübt wurde, als Sonderform der charismatischen Herrschaft. Nach der militärischen Niederlage 1918 riet Hindenburg Wilhelm II., das Land zu verlassen. Durch die Zusammenarbeit mit der neuen republikanischen Regierung versuchte er, Unruhen innerhalb des Heeres entgegenzuwirken. Mit Abschluss des Versailler Vertrages im Juli 1919 erteilte Reichspräsident Friedrich Ebert Hindenburg auf dessen Wunsch den Abschied. Vor dem Untersuchungsausschuss der Weimarer Nationalversammlung verbreitete er die Dolchstoßlegende, wonach das deutsche Heer „im Felde unbesiegt“ geblieben und von den Novemberrevolutionären durch einen Waffenstillstand „von hinten erdolcht“ worden sei. 1919–1925 Ruhestand in Hannover. Am 25. Juni 1919 trat Hindenburg von seinem Posten als Chef des Generalstabes des Heeres zurück und verließ seinen letzten Dienstort Kolberg. Er wählte Hannover, das ihn im August 1915 zum Ehrenbürger ernannt und ihm im Oktober 1918 im Zooviertel eine Villa zum lebenslangen Nießbrauch überlassen hatte, zu seinem Alterssitz. Von dort unternahm er in den folgenden Jahren viele Reisen durch das Reich, besonders durch Ostpreußen, wo er sich als Befreier Ostpreußens einer großen Popularität erfreute. 1921 wurde er Vorsitzender der Deutschenhilfe und Ehrenbursch des Corps Montania Freiberg. Als Adjutant arbeitete in diesen Jahren der Oberstleutnant a. D. Wilhelm von Kügelgen (Enkel des Malers Wilhelm von Kügelgen) für Hindenburg. Nachdem beim ersten Wahlgang zur Reichspräsidentenwahl am 29. März 1925 kein Kandidat eine absolute Mehrheit erreicht hatte, fragten die Rechtsparteien bei dem parteilosen Hindenburg eine Kandidatur an. Der 77-Jährige äußerte sich zunächst zögerlich, stimmte aber schließlich zu. Am 23. November 1925 wurden sein Sohn Oskar von Hindenburg erster und Wedige von der Schulenburg zweiter militärischer Adjutant. Sein Sohn wurde im Laufe der Zeit persönlicher Assistent des Reichspräsidenten und damit faktisch Bindeglied zwischen dem Staatsoberhaupt und dem Reichswehrministerium in der Bendlerstraße. Hindenburg als Reichspräsident. Am 26. April 1925 wurde Hindenburg im zweiten Wahlgang im Alter von 77 Jahren als Nachfolger Friedrich Eberts zum Reichspräsidenten gewählt und am 12. Mai vereidigt. Damit ist er bis heute das einzige deutsche Staatsoberhaupt, das je vom Volk direkt gewählt wurde. In England wurde seine Wahl ruhig aufgenommen. Der "Daily Chronicle" schrieb, es liege kein Bruch des Friedensvertrages vor, und man müsse Deutschland an seinen Taten messen, nicht an seinen Wahlen. Die "Times" meinte, die Wähler hätten den alten Soldaten als typischen und besten Repräsentanten der Nation gewählt, und es sei das beste für Deutschland und Europa, wenn an der Spitze des Staates ein Mann von Ehre und Tatkraft stünde. In Frankreich war man kritischer. "Le Temps" merkte an, dass ein ehemaliger Armeeführer gewählt worden sei, was zum Ausdruck bringe, dass Deutschland sich seine Niederlage im Krieg nicht eingestehen wolle. Im Urteil über Hindenburgs Amtsführung bis zum Beginn der Weltwirtschaftskrise ist die Forschung gespalten. Hagen Schulze etwa betont Hindenburgs Treue zur Weimarer Reichsverfassung, der er als Monarchist zwar distanziert gegenüberstand, die er aber bis 1930 hoch gehalten habe „wie die preußische Felddienstordnung“. Hindenburg habe sich durch seinen Amtseid strikt an sie gebunden gefühlt und daher auch bis 1930 ihren Notstandsartikel 48 nie angewendet. Schulzes Berliner Kollege Henning Köhler bestätigt zwar, dass Hindenburg sich bis 1930 verfassungskonform verhielt, macht aber darauf aufmerksam, dass der durchaus machtbewusste Präsident Ansätze, seine Amtsbefugnisse durch ein Ausführungsgesetz zum Artikel 48 einzuschränken, hintertrieb. Auch habe er deutlichen Einfluss auf die Zusammensetzung der Kabinette genommen und dabei „deutlich konservative Politiker bevorzugt“. Beginn der Präsidialkabinette. Wegen seiner Unterschrift unter den Young-Plan, der von den rechtsradikalen Parteien als Verpflichtung zu jahrzehntelanger "Versklavung" des Volkes hingestellt wurde, rückten seine ehemaligen politischen Freunde immer mehr von ihm ab. Hindenburg beschloss, die derzeit regierende Große Koalition unter Kanzler Hermann Müller (SPD) durch eine "antimarxistische und antiparlamentarische" Regierung zu ersetzen. Die Gelegenheit hierzu ergab sich, nachdem die Große Koalition an der Frage des Beitragssatzes zur Arbeitslosenversicherung zerbrochen war. Am 29. März 1930 berief er Heinrich Brüning (Zentrum) zum Reichskanzler eines Minderheitskabinetts, ohne das Parlament zu konsultieren. Damit begann die Zeit der Präsidialkabinette, in denen der jeweilige Kanzler hauptsächlich vom Vertrauen des Präsidenten abhängig sein sollte. Ganz gelang die geplante Ausschaltung des Parlaments indes nicht, da der Reichstag die von der Regierung gemäß Artikel 48 der Reichsverfassung erlassenen Notverordnungen jederzeit aufheben konnte. Als er das im Juni 1930 tat, löste Hindenburg ihn kurzerhand auf – eine folgenschwere Entscheidung, denn dieser Reichstag war der letzte, in dem die demokratischen Parteien die Mehrheit hatten. Durch die beginnende Weltwirtschaftskrise radikalisiert, gaben die Bürger zunehmend den extremen republikfeindlichen Parteien, nämlich der KPD und vor allem der NSDAP, ihre Stimme. Damit war die politische Notlage, die nach dem Sinn der Verfassung durch die Anwendung der Artikel 48 und 25 doch eigentlich behoben werden sollte, durch die Politik Hindenburgs erst herbeigeführt worden. Um weitere Parlamentsauflösungen zu verhindern, beschloss daraufhin die SPD, künftig die Regierung Brüning zu tolerieren, das heißt, gegen weitere Anträge der extremistischen Parteien auf Aufhebung der Notverordnungen zu stimmen. Damit war auch der zweite Teil von Hindenburgs Plan gescheitert: Die Regierung blieb weiter abhängig vom Parlament und von den verhassten Sozialdemokraten. Bei der Reichspräsidentenwahl 1932 wurde Hindenburg für weitere sieben Jahre in seinem Amt bestätigt. Dies ist dem Umstand zu verdanken, dass sich alle demokratischen Parteien, einschließlich der Sozialdemokraten und des Zentrums, hinter den überzeugten Monarchisten stellten, um so Hitler als Reichspräsidenten zu verhindern. Der Osthilfeskandal. Hindenburg sollte 1927 zu seinem 80. Geburtstag den alten Familienbesitz Gut Neudeck von einem Freundeskreis um Elard von Oldenburg-Januschau geschenkt bekommen, nachdem Hindenburgs Familie es aus finanziellen Gründen nicht mehr hatte halten können. Die gesammelten Mittel reichten jedoch bei weitem nicht aus und wurden durch Sammlungen in Vereinen, vor allem aber durch Spenden der Wirtschaft so aufgestockt, dass schließlich der Betrag von 1 Million Reichsmark erreicht wurde. Um Erbschaftssteuern zu sparen, wurde es gleich auf seinen Sohn Oskar überschrieben. Dieses im Prinzip legale, aber für einen Mann in seiner Position anrüchige Verhalten schädigte sein Ansehen. Außerdem gab es Korruptionsvorwürfe gegen Hindenburg im Zusammenhang mit dem zwei Jahre darauf verabschiedeten „Ostpreußengesetz“, das den Kreis der Schenker und anderer Junker wirtschaftlich begünstigte. Diese Vorgänge und die anschließenden Auseinandersetzungen und Untersuchungen gingen als Osthilfeskandal in die Geschichte ein. Historiker vermuten, dass diese Verwicklungen Hindenburgs Entscheidung für Hitler beeinflusst haben könnten. Von Papen zu Schleicher. Hindenburg und Hitler (Mai 1933) Nach der Wahl geriet Hindenburg noch stärker als zuvor unter den Einfluss der "Kamarilla", eines Kreises von Freunden und Weggefährten der politischen Rechten. Zu dieser gehörte unter anderen Oskar, der „in der Verfassung nicht vorgesehene Sohn des Reichspräsidenten“ (so ein viel zitiertes Bonmot Kurt Tucholskys), ferner sein Nachbar auf Neudeck Elard von Oldenburg-Januschau sowie Generalleutnant Kurt von Schleicher und schließlich auch Franz von Papen. Diese überredeten Hindenburg, Brüning zu entlassen und stattdessen von Papen zum Reichskanzler zu ernennen, der "mehr nach Rechts" regieren sollte. (Hindenburgs Biographen, insbesondere Wolfram Pyta und sein früherer Biograph Dorpalen, heben allerdings hervor, dass Hindenburg diese Entscheidungen in eigener Verantwortung getroffen habe. Beide Biographien und auch Memoiren von Beteiligten – etwa Staatssekretär Meißner – relativieren den Einfluss der Berater und heben Hindenburgs Eigenverantwortung bei diesen Entscheidungen hervor). Als dies nicht zum Erfolg führte, erwog der Kreis kurzfristig einen Staatsstreich, um ein autoritäres Regime zu errichten, doch weigerte sich Schleicher, dafür die Reichswehr zur Verfügung zu stellen. Letztlich stand der Reichspräsident nur noch vor der Alternative: Entweder würde er erneut eine Präsidialregierung ohne Rückhalt im Volk einsetzen, was möglicherweise zu einem Bürgerkrieg führen würde, den die Reichswehr – wie entsprechende von Reichswehrminister Schleicher in Auftrag gegebene Planspiele in seinem Ministerium Anfang Dezember 1932 zeigten – nicht gewinnen könne, oder er bildete eine Mehrheitsregierung im Reichstag bzw. eine Regierung, die zwar formal eine Minderheitsregierung war, aber begründete Aussicht haben würde, eine Mehrheit im Reichstag zu erlangen. Dieses war seit den Wahlen im Juli und im November 1932 ohne eine Beteiligung der Nationalsozialisten aber nicht mehr möglich. Am 6. November sprach sich ein „Deutscher Ausschuss“ unter der Überschrift „Mit Hindenburg für Volk und Reich!“ für die Regierung Papen, für die DNVP und gegen die NSDAP aus. Diesen Aufruf hatten insgesamt 339 Persönlichkeiten unterschrieben, darunter mehrere Dutzend Großindustrielle wie Ernst von Borsig, der Vorsitzende des Bergbauvereins Ernst Brandi, Fritz Springorum und Albert Vögler. Am 19. November 1932 erhielt Hindenburg eine gegenläufige Eingabe von zwanzig Industriellen, mittelständischen Unternehmern, Bankiers und Agrariern mit der Aufforderung, Adolf Hitler zum Reichskanzler zu ernennen. Hindenburg berief am 2. Dezember 1932 jedoch Kurt von Schleicher zum Reichskanzler. Der versuchte noch, Teile der NSDAP um Gregor Strasser von Hitler weg in eine Querfront zu bringen, doch dies misslang. Als Schleicher dann seinerseits vorschlug, den Reichstag aufzulösen und unter Bruch der Reichsverfassung bis auf Weiteres keinen neuen wählen zu lassen, entzog ihm Hindenburg seine Unterstützung. Ernennung Hitlers und politisches Ende. Am 30. Januar 1933 berief Hindenburg Adolf Hitler zum Reichskanzler (Machtergreifung). Außer Hitler gehörten mit Innenminister Wilhelm Frick und Hermann Göring als Minister ohne Geschäftsbereich nur zwei Nationalsozialisten dem neuen Kabinett Hitler an. Trotz seiner anfänglichen persönlichen Abneigung gegen Hitler, den er abschätzig den „böhmischen Gefreiten“ nannte, geriet Hindenburg immer stärker in dessen Einflussbereich. Am 1. Februar 1933 löste er den Reichstag auf. Die Verordnung zur Auflösung des Reichstages ist unterschrieben von Hindenburg, Hitler und Frick. Im Laufe des Februars wurde eine ganze Reihe von Maßnahmen wie die „Verordnung des Reichspräsidenten zum Schutze des Deutschen Volkes“ und (unmittelbar nach dem Reichstagsbrand vom 27. Februar 1933) die „Verordnung des Reichspräsidenten zum Schutz von Volk und Staat“ erlassen, mit denen die Grundrechte bis auf Weiteres (faktisch bis zum Ende des Zweiten Weltkrieges) außer Kraft gesetzt wurden. In der Folge kam es zu Massenverhaftungen von Anhängern der KPD und der SPD. Bei der von Propagandaminister Joseph Goebbels am 21. März 1933 (dem so genannten Tag von Potsdam) inszenierten Eröffnung des neu gewählten Reichstags in der Garnisonkirche wurde durch eine symbolische Verneigung Hitlers vor dem greisen Reichspräsidenten eine symbolträchtige Kontinuität zwischen der Kaiserzeit und dem Dritten Reich hergestellt und Hindenburgs hohes Ansehen für das neue Regime instrumentalisiert und vereinnahmt. Das am 23. März 1933 von der erforderlichen Zweidrittelmehrheit des Reichstags verabschiedete Ermächtigungsgesetz hob das in der Weimarer Verfassung festgelegte alleinige Gesetzgebungsrecht des Reichstags auf. Nun konnte die Regierung selbst Gesetze erlassen und war nicht mehr wie bisher auf das Notverordnungsrecht des Reichspräsidenten angewiesen, wobei auf Forderung der bürgerlichen Parteien, allen voran des Zentrums, als Bedingung für ihre Zustimmung das Ermächtigungsgesetz das Notverordnungsrecht des Reichspräsidenten unangetastet ließ. Von der Reichsregierung und der Preußischen Regierung erhielt er 1933 Dotationen von insgesamt 1 Million Reichsmark. Anfang März 1934 trat Papen an Hindenburg heran, dieser möge ein politisches Testament verfassen, um im Falle der Regierungsunfähigkeit einen „chaotische[n] Zustand“ zu vermeiden. Hindenburg sollte dem deutschen Volk die Einführung der Monarchie empfehlen. Papen glaubte zu diesem Zeitpunkt, Hitler sei der monarchischen Staatsform nicht abgeneigt und hielt sich auch selbst für einen geeigneten Reichspräsidenten. Er verfasste einen Entwurf, der sich an Hindenburgs Rechenschaftsbericht in "Aus meinem Leben" anlehnte. Ende April 1934 informierte Hindenburg den Vizekanzler, dass er keine offizielle Empfehlung zur Staatsform abgeben wolle. Die Monarchie werde er vielmehr Hitler persönlich in einem Brief empfehlen. Anfang Mai 1934 ließ Hindenburg seinen zweiten Adjutanten Wedige von der Schulenburg auf der Grundlage von Papens Entwurf eine Reinschrift erstellen, die außerdem das letzte Kapitel aus Hindenburgs Memoiren und den persönlichen Brief an Hitler enthielt. Die Dokumente wurden in Hindenburgs Arbeitszimmer hinterlegt. Im Juli 1934 verschlechterte sich der Gesundheitszustand Hindenburgs. Bis dahin hatte er seine Dienstpflichten als Reichspräsident wahrgenommen. Und auch noch in der Endphase seines Blasenleidens „blieb Hindenburg im Vollbesitz seiner geistigen Kräfte. Erst zwanzig Stunden vor dem Ableben fiel er in Bewusstseinstrübungen, erkannte aber Hitler, als dieser den Sterbenden am Nachmittag des 1. August aufsuchte.“ Tod und Beisetzung. Am Morgen des 2. August 1934 um 9 Uhr starb Hindenburg auf Gut Neudeck. Dort sollte er eigentlich begraben werden, jedoch organisierte Hitler eine Beisetzung im Denkmal der Schlacht bei Tannenberg. Das Kabinett Hitler erließ bereits am 1. August, also dem Tag vor Hindenburgs Tod, ein Gesetz über die Zusammenlegung der Ämter des Reichskanzlers und des Reichspräsidenten in der Person Hitlers. Dieses Gesetz trat mit dem Ableben Hindenburgs in Kraft. Oskar von Hindenburg hielt die Dokumente des politischen Testaments seines Vaters eine Woche lang zurück. Am 9. August erhielt sie Papen, der sie am 14. August Hitler übergab. Hitler war von Papen bereits vorab über den Inhalt informiert worden. Den an ihn persönlich gerichteten Brief hielt Hitler zurück und ließ ihn später vermutlich vernichten. Die anderen Dokumente wurden am 15. August als „das politische Testament Hindenburgs“ veröffentlicht. Aus den Umständen der Veröffentlichung lässt sich schließen, dass Hitler, Papen und Oskar von Hindenburg sich abgesprochen hatten, das Testament erst kurz vor der Volksabstimmung über das Staatsoberhaupt des Deutschen Reichs am 19. August 1934 zu veröffentlichen, damit Hitler davon profitieren könnte, obwohl Hindenburg ihn darin nicht zu seinem Nachfolger berufen hatte. Am Tag vor der Wahl hielt Oskar von Hindenburg eine Rundfunkrede, in der er behauptete, sein Vater habe in Hitler „seinen unmittelbaren Nachfolger als Oberhaupt des Deutschen Reiches gesehen“. Bei der Volksabstimmung stimmten fast neunzig Prozent der Wähler dem "Gesetz über das Staatsoberhaupt des Deutschen Reiches" zu. Wenige Wochen zuvor hatte Hitler anlässlich des so genannten Röhm-Putsches Ende Juni/Anfang Juli 1934 seine letzten potenziellen Konkurrenten ermorden lassen – darunter seinen Vorgänger im Amt des Reichskanzlers General Kurt von Schleicher sowie seinen Duz-Freund Ernst Röhm – und durch Gleichschaltung der SA die Reichswehr für sich gewonnen. Beim Anrücken der Roten Armee im Januar 1945 brachte die Wehrmacht Hindenburgs Sarg und den seiner Frau aus dem Tannenberg-Denkmal auf den Leichten Kreuzer "Emden", um die Leichname von Königsberg nach Pillau und von dort mit dem Passagierschiff "Pretoria" nach Stettin zu transportieren. Zusammen mit den Särgen der preußischen Könige Friedrich II. und Friedrich Wilhelm I. wurden sie anschließend in einem thüringischen Salzbergwerk eingelagert. Nach der Eroberung Thüringens durch die US-Armee brachte man die Särge nach Marburg, wo Hindenburg mit seiner Frau in der Nordturmkapelle der Elisabethkirche endgültig beigesetzt wurde. Ehrungen und deren Rücknahme. Abbild Hindenburgs auf einer 5-Reichsmark-Münze Ehrenbürgerschaften. Hindenburg wurde bereits während des Ersten Weltkriegs Ehrenbürger von mehreren Städten und Gemeinden. Die Zahl wuchs insbesondere ab 1933 auf insgesamt 3.824 Ehrenbürgerschaften. Seit den 1970er Jahren gab es in vielen Städten und Gemeinden erinnerungskulturelle Bürgerdiskussionen und geschichtspolitische Initiativen zum Widerruf der Ehrenbürgerschaft. Seit dem Ende des NS-Regimes haben zahlreiche Kommunen wie Dortmund, Köln, Leipzig, München, Münster und Stuttgart die Ehrenbürgerschaft als NS-belastet gelöscht. An anderen Orten wie in Berlin gab es entsprechende Initiativen, wenn sie sich auch nicht durchsetzten. → "Siehe auch: Paul von Hindenburg als Ehrenbürger" Ehrendoktorwürden. Hindenburg war Ehrendoktor aller vier Fakultäten der Universität Königsberg, der Rechts- und Staatswissenschaften der Universität Breslau, der juristischen und philosophischen Fakultät der Universität Bonn sowie der juristischen Fakultät der Universität Graz. Gleichzeitig war Hindenburg Dr.-Ing. E.h. aller Technischen Hochschulen der Weimarer Republik und der Freien Stadt Danzig sowie Dr. med. vet. h.c. der Tierärztlichen Hochschule Hannover. Zudem war er Ehrenbürger der Universitäten Göttingen, Königsberg, Köln und Jena sowie der Technischen Hochschule Stuttgart und der Forstwirtschaftlichen Hochschule Eberswalde. Orden. Er war Ehrenkommandeur des Johanniterordens und Dechant des Hochstifts Brandenburg. Namenspatenschaften, Diskussion und Rücknahme. Zahlreiche Straßen, Plätze, Brücken und öffentliche Einrichtungen wie Schulen oder Kasernen wurden nach ihm benannt, ebenso wie der 1927 durch ihn eingeweihte Hindenburgdamm nach Sylt. Der Ort Zabrze in Oberschlesien benannte sich in Anerkennung seiner Verdienste am 21. Februar 1915 in "Hindenburg" um. Ramsau bei Berchtesgaden taufte 1933 die bis dahin als „Große Linde“ bekannte überdimensionale Linde in "Hindenburglinde" um. In der Hindenburg-Gedächtniskirche Stetten ordnete das französische Militärgouvernement 1948 die Verdeckung der Hindenburg-Plastik an. 1980 wurde die Plastik wieder freigelegt. Auch Schiffe und Luftschiffe wurden nach Paul von Hindenburg benannt. Bereits im Ersten Weltkrieg, also zu Lebzeiten des Namensgebers, trug ein Schlachtkreuzer der Derfflinger-Klasse, die SMS Hindenburg, seinen Namen. Die Kriegsmarine plante angeblich, einem der projektierten Schlachtschiffe der H-Klasse den Namen "Hindenburg" zu geben. Bekannter wurde das Luftschiff Hindenburg, mit dem die deutsche Passagierluftschifffahrt ihren Höhepunkt und 1937 auch ihr Ende erreichte, als die "Hindenburg" bei der Katastrophe von Lakehurst verbrannte. In zahlreichen Kommunen wurden seit dem Ende des NS-Regimes nach Hindenburg benannte öffentliche Orte wegen dessen NS-Belastung umbenannt. Im April 2009 änderte das "Hindenburg-Gymnasium Trier" seinen Namen. Die "Anton-Leo-Schule" in Bad Säckingen war die letzte nach Hindenburg benannte Schule, sie wurde 2013 umbenannt. Die Umbenennung scheiterte bis 2013 trotz mehrerer Initiativen. Im März 2012 beschloss der Rat der Stadt Münster die Umbenennung des Hindenburgplatzes in Schlossplatz. Entsprechende Initiativen waren zuvor in den Nachkriegsjahrzehnten immer wieder gescheitert, zuletzt 1998. Ein Bürgerbegehren gegen den Ratsentscheid war letztlich nicht erfolgreich, bei einem Bürgerentscheid im September 2012 lehnten es fast 60 Prozent der Münsteraner Wähler ab, den Platz erneut in seinen alten Namen Hindenburgplatz umzubenennen. In Ludwigsburg scheiterte am 30. Juli 2015 die Vorlage der Stadtverwaltung, die Hindenburgstraße umzubenennen an der Ablehnung der CDU-Fraktion, der Fraktion der Freien Wähler und des Stadtrats der REP. Auch ein Stadtrat der FDP lehnte die Vorlage ab. 2014 berief die Stadt Hannover einen Beirat aus Fachleuten zur Überprüfung, ob es bei Personen als Namensgeber für Straßen „eine aktive Mitwirkung im Nazi-Regime oder schwerwiegende persönliche Handlungen gegen die Menschlichkeit gegeben hat“. Er regte die Umbenennung der nach Hindenburg benannten Straße an. Nach der Darstellung dieses Beirats habe Hindenburg „Hitler den Weg zur Macht geebnet und alle politischen Maßnahmen Hitlers mitgetragen“. Dies könne auch nicht dadurch relativiert werden, dass Hindenburg „nicht mehr Herr seiner Entscheidungen“ gewesen sei, denn diebezügliche Thesen seien widerlegt. "Siehe auch: Hindenburgstraße, Hindenburgplatz, Hindenburgbrücke, Hindenburgschule, Hindenburg-Kaserne, Hindenburgufer, Hindenburgschleuse" Briefmarken. Von 1928 bis 1936 gab die Deutsche Reichspost mehrere Sondermarken sowie Freimarkenserien mit dem Porträt Hindenburgs heraus, im September 1934 eine Serie aus sechs Werten mit schwarzem Trauerrand. Primzahl. Die Zahl 12 ist keine Primzahl, die Zahl 11 hingegen schon. Eine natürliche Zahl größer als 1 heißt "prim", wenn sie eine Primzahl ist, andernfalls heißt sie "zusammengesetzt". Die Zahlen 0 und 1 sind weder prim noch zusammengesetzt. Diese Eigenschaften werden in der Algebra für Verallgemeinerungen des Primzahlbegriffs genutzt. Schon im antiken Griechenland interessierte man sich für die Primzahlen und entdeckte einige ihrer Eigenschaften. Obwohl Primzahlen seit damals stets einen großen Reiz auf die Menschen ausübten, sind viele die Primzahlen betreffenden Fragen bis heute ungeklärt, darunter solche, die mehr als hundert Jahre alt und leicht verständlich formulierbar sind. Dazu gehören die Goldbachsche Vermutung, wonach außer 2 jede gerade Zahl als Summe zweier Primzahlen darstellbar ist, und die Vermutung, dass es unendlich viele Primzahlzwillinge gibt (das sind Paare von Primzahlen, deren Differenz gleich 2 ist). Über 2000 Jahre lang konnte man keinen praktischen Nutzen aus dem Wissen über die Primzahlen ziehen. Dies änderte sich erst mit dem Aufkommen elektronischer Rechenmaschinen, bei denen die Primzahlen beispielsweise in der Kryptographie eine zentrale Rolle spielen. Primfaktorzerlegung. Es gilt der Fundamentalsatz der Arithmetik: Jede positive ganze Zahl lässt sich als Produkt von Primzahlen darstellen, und diese Darstellung ist bis auf die Reihenfolge der Primzahlen eindeutig. Diese Primzahlen nennt man die "Primfaktoren" der Zahl. Man kennt bisher keine Methode, um die Primfaktorzerlegung einer beliebigen gegebenen Zahl effizient zu bestimmen, d. h. in einer Zeit, die polynomiell mit der Länge der Zahl wächst. Die "Faktorisierungsannahme" besagt, dass es eine solche Methode auch nicht gibt. Man versucht, die Zeit mit geeigneten Faktorisierungsverfahren zu minimieren. Aufgrund dieses Satzes, also dass sich jede natürliche Zahl größer 0 durch Multiplikation von Primzahlen eindeutig darstellen lässt, nehmen die Primzahlen eine besondere atomare Stellung in der Mathematik ein. Alexander K. Dewdney bezeichnete diese als den Elementen der Chemie weitgehend ähnlich. Eigenschaften von Primzahlen. Mit Ausnahme der Zahl 2 sind alle Primzahlen formula_2 ungerade, denn alle größeren geraden Zahlen lassen sich außer durch sich selbst und 1 auch noch (mindestens) durch 2 teilen. Damit hat jede Primzahl außer 2 die Form formula_3 mit einer natürlichen Zahl formula_4. Jede Primzahl formula_5 lässt sich einer der beiden Klassen „Primzahl der Form formula_6“ oder „Primzahl der Form formula_7“ zuordnen, wobei formula_4 eine natürliche Zahl ist. Darüber hinaus hat jede Primzahl formula_5 die Form formula_10 oder formula_11, wobei formula_4 eine natürliche Zahl ist. Nach dem dirichletschen Primzahlsatz gibt es in jeder dieser vier Klassen unendlich viele Primzahlen. Jede natürliche Zahl der Form formula_13 mit einer nichtnegativen ganzen Zahl formula_14 enthält mindestens einen Primfaktor der Form formula_7. Eine entsprechende Aussage über Zahlen der Form formula_16 oder Primfaktoren der Form formula_6 ist nicht möglich. Eine Primzahl formula_18 lässt sich genau dann in der Form formula_19 mit ganzen Zahlen formula_20 schreiben, wenn formula_2 die Form formula_6 hat. In diesem Fall ist die Darstellung im Wesentlichen eindeutig, d.h. bis auf Reihenfolge und Vorzeichen von formula_20. Diese Darstellung entspricht der Primfaktorzerlegung im Ring der ganzen gaußschen Zahlen. Die Zahl −1 ist ein quadratischer Rest modulo jeder Primzahl der Form formula_6 und quadratischer Nichtrest modulo jeder Primzahl der Form formula_7. Der kleine Satz von Fermat. Es gibt Zahlen, die keine Primzahlen sind, sich aber dennoch zu einer Basis formula_28 wie Primzahlen verhalten und somit den kleinen Satz von Fermat erfüllen. Solche zusammengesetzten Zahlen nennt man fermatsche Pseudoprimzahlen zur Basis formula_28. Eine fermatsche Pseudoprimzahl "n", die pseudoprim bezüglich "aller" zu ihr teilerfremden Basen formula_28 ist, nennt man Carmichael-Zahl. In diesem Zusammenhang zeigt sich die Problematik fermatscher Pseudoprimzahlen: sie werden von einem Primzahltest, der den kleinen Satz von Fermat nutzt (Fermatscher Primzahltest), fälschlicherweise für Primzahlen gehalten. Wenn allerdings ein Verschlüsselungsverfahren wie RSA eine zusammengesetzte Zahl statt einer Primzahl verwendet, ist die Verschlüsselung nicht mehr sicher. Deshalb müssen bei solchen Verfahren bessere Primzahltests verwendet werden. Euler und das Legendre-Symbol. Eine einfache Folge aus dem kleinen Satz von Fermat ist die folgende Aussage: Für jede ungerade Primzahl formula_2 und jede ganze Zahl formula_28, die nicht durch formula_2 teilbar ist, gilt entweder Man kann zeigen, dass der erste Fall genau dann eintritt, wenn es eine Quadratzahl formula_42 gibt, die kongruent zu formula_28 modulo formula_2 ist, "siehe" Legendre-Symbol. Binomialkoeffizient. Für Primzahlen formula_2 und formula_46 gilt zusammen mit dem binomischen Satz folgt daraus Für ganze Zahlen formula_20 folgt diese Aussage auch direkt aus dem kleinen fermatschen Satz, aber sie ist beispielsweise auch für Polynome mit ganzzahligen Koeffizienten anwendbar; im allgemeinen Kontext entspricht sie der Tatsache, dass die Abbildung formula_50 in Ringen der Charakteristik formula_2 ein Homomorphismus ist, der so genannte Frobenius-Homomorphismus. Aus dem Satz von Wilson ("p" ist genau dann eine Primzahl, wenn formula_52 ist) folgt, dass für jede Primzahl "p" und jede natürliche Zahl "n" die Kongruenz Giuga. Giuseppe Giuga vermutete, dass auch die umgekehrte Schlussrichtung gilt, dass also eine Zahl mit dieser Eigenschaft stets prim ist. Es ist nicht geklärt, ob diese Vermutung richtig ist. Bekannt ist aber, dass ein Gegenbeispiel mehr als 10.000 Dezimalstellen haben müsste. Im Zusammenhang mit Giugas Vermutung werden die Giuga-Zahlen untersucht. Lineare Rekursionen. Den kleinen fermatschen Satz kann man auch in der Form lesen: In der Folge formula_59 ist das formula_2-te Folgenglied für eine Primzahl formula_2 stets durch formula_2 teilbar. Ähnliche Eigenschaften besitzen auch andere Folgen von exponentiellem Charakter, wie die Lucas-Folge (formula_63) und die Perrin-Folge (formula_64). Für andere lineare Rekursionen gelten analoge, aber kompliziertere Aussagen, beispielsweise für die Fibonacci-Folge formula_65: Ist formula_2 eine Primzahl, so ist formula_67 durch formula_2 teilbar; dabei ist Divergenz der Summe der Kehrwerte. Das ist gleichbedeutend mit der Aussage, dass die Folge formula_71 keinen endlichen Grenzwert besitzt, was wiederum bedeutet, dass sich für ein genügend groß gewähltes "n" jede erdenkliche reelle Zahl übertreffen lässt. Dies ist zunächst einmal verblüffend, da die Primzahllücken im Schnitt immer weiter zunehmen. Der Satz von Mertens trifft eine Aussage über das genaue Wachstumsverhalten dieser divergenten Reihe. Primzahltests. Ob eine Zahl eine Primzahl ist, kann man mit einem Primzahltest entscheiden. Es gibt mehrere solcher Verfahren, deren Grundlagen meist besondere Eigenschaften von Primzahlen sind. In der Praxis wird der Miller-Rabin-Test am häufigsten verwendet, der eine extrem kurze Laufzeit hat, allerdings mit kleiner Wahrscheinlichkeit falsch-positive Ergebnisse liefert. Mit dem AKS-Primzahltest ist es möglich, Zahlen in polynomialer Laufzeit zu testen. Allerdings ist er in der Praxis deutlich langsamer als der Miller-Rabin-Test. Größte bekannte Primzahl. Der Grieche Euklid hat im vierten Jahrhundert vor Christus logisch geschlussfolgert, dass es unendlich viele Primzahlen gibt; diese Aussage wird als "Satz von Euklid" bezeichnet. Euklid führte einen Widerspruchsbeweis für die Richtigkeit dieses Satzes ("Elemente", Buch IX, § 20): Ausgehend von der Annahme, dass es nur endlich viele Primzahlen gibt, lässt sich eine weitere Zahl konstruieren, die eine bisher nicht bekannte Primzahl als Teiler hat, oder selbst eine Primzahl ist, was einen Widerspruch zur Annahme darstellt. Somit kann eine endliche Menge niemals alle Primzahlen enthalten, also gibt es unendlich viele. Heute kennt man eine ganze Reihe von Beweisen für den Satz von Euklid. Der Satz von Euklid besagt, dass es keine größte Primzahl gibt. Es ist jedoch kein Verfahren bekannt, das effizient beliebig große Primzahlen generiert – deshalb gab es stets eine jeweils "größte bekannte" Primzahl, seitdem sich die Menschen mit Primzahlen befassen. Derzeit ist es formula_72 eine Zahl mit 17.425.170 (dezimalen) Stellen, die am 25. Januar 2013 mit einem CPU-Cluster der mathematischen Fakultät an der University of Central Missouri berechnet wurde. Für den Entdecker Dr. Curtis Cooper gab es für den Fund 3.000 US-Dollar vom Projekt Great Internet Mersenne Prime Search, das Mersenne-Primzahlen mittels verteiltem Rechnen sucht. Die größte bekannte Primzahl war fast immer eine Mersenne-Primzahl, also von der Form formula_73 da in diesem Spezialfall der Lucas-Lehmer-Test angewendet werden kann, ein im Vergleich zur allgemeinen Situation sehr schneller Primzahltest. Bei der Suche nach großen Primzahlen werden deshalb nur Zahlen dieses oder eines ähnlich geeigneten Typs auf Primalität untersucht. Pi-Funktion und Primzahlsatz. a> Li("n") in rot sind Approximationen der π-Funktion. Zur Untersuchung der Verteilung der Primzahlen betrachtet man unter anderem die Funktion die die Anzahl der Primzahlen formula_75 angibt und auch "Primzahlzählfunktion" genannt wird. Diese Funktion und ihr Wachstumsverhalten ist ein beliebter Forschungsgegenstand in der Zahlentheorie. Mit der Zeit wurden einige Näherungsformeln entwickelt und verbessert. Der dirichletsche Primzahlsatz dagegen schränkt die Betrachtung auf Restklassen ein: Es sei formula_14 eine natürliche Zahl. Ist formula_28 eine ganze Zahl, die zu formula_14 nicht teilerfremd ist, so kann die arithmetische Folge höchstens eine Primzahl enthalten, weil alle Folgenglieder durch den größten gemeinsamen Teiler von formula_28 und formula_14 teilbar sind. Ist formula_28 aber teilerfremd zu formula_14, so besagt der dirichletsche Primzahlsatz, dass die Folge unendlich viele Primzahlen enthält. Beispielsweise gibt es unendlich viele Primzahlen der Form formula_6 und unendlich viele der Form formula_7 (formula_4 durchläuft jeweils die nichtnegativen natürlichen Zahlen). Diese Aussage kann noch in der folgenden Form präzisiert werden: Es gilt dabei ist formula_92 die eulersche φ-Funktion. In diesem Sinne liegen also für ein festes formula_14 in den Restklassen formula_94 mit formula_95 jeweils „gleich viele“ Primzahlen. Schranken. Die (bewiesene) Bonsesche Ungleichung garantiert, dass das Quadrat einer Primzahl kleiner ist als das Produkt aller kleineren Primzahlen (ab der fünften Primzahl). Nach der (unbewiesenen) Andricaschen Vermutung ist die Differenz der Wurzeln der formula_96-ten und der formula_97-ten Primzahl kleiner als 1. Primzahllücken. Der Satz von Bertrand sichert die Existenz einer Primzahl zwischen jeder natürlichen Zahl formula_96 und ihrem Doppelten formula_99. Nach der (unbewiesenen) Legendreschen Vermutung gibt es stets mindestens eine Primzahl zwischen formula_100 und formula_101. Abschätzungen zu Primzahlen und Folgerungen aus dem Primzahlsatz. Im Folgenden sei die Folge der Primzahlen mit formula_102 bezeichnet. Folgerungen aus dem Primzahlsatz. Für jede positive reelle Zahl formula_115 existiert eine Folge formula_116 von Primzahlen mit Die Menge der aus allen Primzahlen gebildeten Quotienten ist eine dichte Teilmenge der Menge aller positiven reellen Zahlen. D. h.: Für beliebige positive reelle Zahlen formula_118 mit formula_119 existieren stets Primzahlen formula_120, sodass Generierung von Primzahlen. Veranschaulichung des Algorithmus "Sieb des Eratosthenes" Einer der ältesten Algorithmen zur Bestimmung von Primzahlen ist das Sieb des Eratosthenes. Bis heute ist kein effizienter Primzahlgenerator bekannt. Es gibt allerdings Formeln, bei denen eine gewisse Wahrscheinlichkeit besteht, dass die erzeugten Zahlen prim sind. Solche Zahlen müssen nachträglich noch auf ihre Primalität getestet werden. Spezielle Primzahlen und Primzahlkonstellationen. Weitere spezielle Arten von Primzahlen finden sich in der. Verallgemeinerung. In der Ringtheorie wird das Konzept der "Primzahl" auf die Elemente eines beliebigen kommutativen unitären Rings verallgemeinert. Die entsprechenden Begriffe sind "Primelement" und "irreduzibles Element". Die Primzahlen und deren Negative sind dann genau die Primelemente und auch genau die irreduziblen Elemente des Rings der ganzen Zahlen. In faktoriellen Ringen, das sind Ringe mit eindeutiger Primfaktorisierung, fallen die Begriffe "Primelement" und "irreduzibles Element" zusammen; im Allgemeinen ist die Menge der Primelemente jedoch nur eine Teilmenge der Menge der irreduziblen Elemente. Insbesondere im zahlentheoretisch bedeutsamen Fall der Dedekindringe übernehmen Primideale die Rolle der Primzahlen. Primzahlen in Natur und Technik. In Nordamerika weisen manche Zikadenarten einen besonders langen Fortpflanzungsrhythmus von genau 13 oder 17 Jahren auf, mit dem sie den 2-, 4- und 6-jährigen Entwicklungsrhythmen ihrer Fressfeinde ausweichen. Schnelldrehende Maschinenteile mit einer Anzahl von Flügeln werden nicht nur durch die Fliehkraft, sondern auch durch Querschwingungen der Flügel stark belastet. Ist die Anzahl der Flügel eine Primzahl, können sich solche Querschwingungen mangels Symmetrie kaum über den ganzen Drehkörper ausdehnen. Vor dem Hauptwerk der Andritz AG ist das Laufrad einer 23-flügeligen Pelton-Turbine aufgestellt. Pierre-Simon Laplace. Pierre-Simon Laplace (Gemälde aus dem 19. Jahrhundert) Laplace (Kupferstich aus dem 19. Jahrhundert) Pierre-Simon (Marquis de) Laplace (* 28. März 1749 in Beaumont-en-Auge in der Normandie; † 5. März 1827 in Paris) war ein französischer Mathematiker, Physiker und Astronom. Er beschäftigte sich unter anderem mit der Wahrscheinlichkeitstheorie und Differentialgleichungen. Jugend. Laplace wurde als Sohn eines reichen Landwirtes und Cidre-Händlers geboren. Der Beruf des Vaters sicherte der Familie ein relativ komfortables Leben. Von seinem siebten bis zu seinem sechzehnten Lebensjahr besuchte Laplace als Tagesschüler die Schule des Benediktinerordens im Ort. Nach der Schulausbildung schlugen Kinder des Dritten Standes normalerweise einen militärischen oder kirchlichen Lebensweg ein. Der Vater von Laplace wünschte sich für seinen Sohn eine geistliche Karriere und so studierte Laplace ab 1766 Theologie und Philosophie am Jesuiten-Kolleg von Caen. Dort machte er die Bekanntschaft der Professoren Christoph Gadblet (1734–1782) und Pierre Le Canu, die seine mathematische Begabung erkannten und seine Augen für die Mathematik öffneten. Karriere. 1768 verließ er deshalb Caen und ging nach Paris mit einem Empfehlungsschreiben an Jean-Baptiste le Rond d’Alembert, den damals berühmtesten Mathematiker Frankreichs, um bei ihm Mathematik zu studieren. Als Laplace bei d’Alembert vorstellig wurde, gab dieser ihm ein mathematisches Problem und eine Woche Zeit, um dieses zu lösen. Laplace löste es über Nacht und klopfte schon am nächsten Tag wieder an d’Alemberts Tür. Darauf gab dieser ihm ein schwierigeres Problem, das Laplace jedoch in derselben Zeit löste. Es ist nicht sicher, ob sich diese Begebenheit wirklich zugetragen hat, sicher ist jedoch, dass d’Alembert sehr von Laplace beeindruckt war und ihn unterstützte und förderte. Um seine finanzielle Situation zu sichern, verschaffte d’Alembert Laplace 1771 eine Stelle als Lehrer für Geometrie, Trigonometrie, elementare Analysis und Statistik an der Pariser Militärakademie. Von 1770 bis 1773 verfasste Laplace 13 wichtige Abhandlungen zu unterschiedlichen und schwierigen Themen, zu Extremwertproblemen, Astromechanik, Differentialgleichungen, Wahrscheinlichkeits- und Spieltheorie, sowie zur Integralrechnung, um Reputation zu erlangen und an der Pariser Académie des sciences aufgenommen zu werden. Laplace bewarb sich 1771 und 1772 an der Académie, wurde jedoch zugunsten älterer Bewerber abgelehnt. Trotz des Altersunterschieds traf Laplace dies tief, besonders 1772, da Laplace seine mathematischen Fähigkeiten sehr viel höher einstufte als die seines Konkurrenten (Cousin). Überhaupt war Laplace relativ arrogant. D’Alembert schrieb darauf Anfang 1773 einen Brief an Lagrange, der damals in Berlin weilte, um zu erfahren, ob dort die Möglichkeit eines Postens und eines Platzes an der Preußischen Akademie der Wissenschaften für Laplace bestehe. Laplace wäre also fast ein deutscher Wissenschaftler geworden. Dieser Brief erübrigte sich jedoch als Laplace 1773 im Alter von gerade 24 Jahren als Adjunkter an der Académie française aufgenommen wurde. In den folgenden Jahren steigerte Laplace sein wissenschaftliches Ansehen stetig und wurde zu einem der wichtigsten und einflussreichsten Wissenschaftler. Darunter litt aber sein Verhältnis zu seinen Kollegen. So spürte zum Beispiel d’Alembert, dass die Arbeiten von Laplace einen großen Teil seines eigenen Lebenswerks hinfällig machten. 1784 wurde Laplace Examinateur für die Königliche Artillerie, was damals ein verantwortungsvoller Posten war, da die Anwärter, deren Eignung Laplace prüfte, fast ausschließlich aus sehr gutem Hause kamen und seine Berichte an höchsten Stellen Beachtung fanden. In dieser Funktion prüfte er 1785 auch den damals sechzehnjährigen Napoleon Bonaparte. Im April jenes Jahres wurde Laplace dann ordentliches Mitglied an der "Académie des sciences". Familie und Französische Revolution. 1788 heiratete Laplace die zwanzig Jahre jüngere Marie-Charlotte de Courty de Romanges (* 8. Oktober 1769 in Besançon (Doubs); † 20. Juli 1862 in Paris). Sie gebar ihm ein Jahr später einen Sohn, Charles-Emile Laplace (1790-1874), der später General wurde. 1792 kam ihre Tochter Sophie-Suzanne Laplace (1792-1813) zur Welt. Während der Französischen Revolution konnte Laplace seine Forschungen weitestgehend weiterführen und wurde 1792 Mitglied des Komitees für Maße und Gewichte, das später für die Einführung der Einheiten Meter und Kilogramm sorgte. Dieses Amt musste Laplace aber im Dezember des Jahres aufgeben, genau wie seine übrigen Tätigkeiten, da mit der Herrschaft Robespierres die Mitwirkung an der Revolution und Hass auf die Monarchie Bedingung für die Arbeit wurde. Laplace floh mit seiner Familie vor der Schreckensherrschaft der Jakobiner in das 50 Kilometer süd-östlich von Paris liegende Melun. Nachdem Robespierre am 28. Juli 1794 selbst durch die Guillotine starb, kehrte Laplace nach Paris zurück und wurde im Dezember des Jahres einer der beiden Examinateure für die École polytechnique. 1795 nahm Laplace seine Arbeit im Komitee für Maße und Gewichte wieder auf und wurde dessen Vorsitzender. Im selben Jahr wurde die Akademie mit der Dachorganisation Institut de France neu gegründet. Laplace war Gründungsmitglied und wurde Vizepräsident des Instituts. Fünf Monate später wurde er dessen Präsident. Des Weiteren übernahm er die Leitung des Pariser Observatoriums und des Forschungsbereichs. Innenminister Napoleons. Zur selben Zeit knüpfte er erste Beziehungen zu Napoleon, sodass er nach dessen Staatsstreich 1799, angeblich auf eigene Bitte, Innenminister wurde. Dieses Amt versah er jedoch so schlecht, dass er schon nach sechs Wochen durch einen Bruder Napoleons, Lucien, ersetzt wurde. Zum Trost machte ihn Napoleon zum Mitglied des relativ einflusslosen Senats. 1803 wurde Laplace Vizepräsident des Senats und damit ein reicher Mann. Durch die Vielzahl seiner Ämter verdiente er 100.000 Francs im Jahr, was damals eine mehr als stattliche Summe war. Zum Vergleich: 1810 verdiente Gauß als Leiter des Göttinger Observatoriums ungefähr 4.000 Francs. Nachdem Laplace 1804 im Senat für die Einsetzung Napoleons zum Kaiser stimmte, adelte dieser ihn 1806 zum Grafen. Im selben Jahr zog Laplace nach Arcueil, einem Vorort von Paris, in das Nachbarhaus des Chemikers Claude-Louis Berthollet. Mit diesem gründete er die Société d’Arcueil, in der die beiden mit anderen, meist jungen Wissenschaftlern, Experimente durchführten. Zu diesen Wissenschaftlern gehörten unter anderen auch Jean-Baptiste Biot und Alexander von Humboldt. Durch diese Arbeit machte er sich jedoch Feinde, da er ein klares Forschungsprogramm aufstellte, das hauptsächlich seine eigenen Forschungsschwerpunkte beinhaltete, und dieses auch gnadenlos durchführte. An weiterem Ansehen verlor Laplace, weil er weiterhin an der Teilchennatur des Lichtes festhielt, während die Wellentheorie durch Augustin Jean Fresnel immer mehr Anerkennung fand. 1813 starb seine Tochter im Kindbett, schenkte Laplace jedoch eine Enkelin. Von ihr stammen alle heutigen Nachkommen von Laplace ab, da sein Sohn zwar 85 Jahre alt wurde, aber kinderlos starb. Weitere Gegner schuf sich Laplace, als er 1814 für die Absetzung Napoleons stimmte und sich sogleich der bourbonischen Restauration zur Verfügung stellte. König Ludwig XVIII. hingegen machte Laplace zum Dank 1815 zum Pair von Frankreich und 1817 zum Marquis (Markgraf). 1816 legte Laplace seine Arbeit an der École polytechnique nieder und wurde Mitglied der 40 Unsterblichen der Académie française. 1822 wurde er in die American Academy of Arts and Sciences gewählt. 1826 erließ der König ein verschärftes Pressegesetz, gegen das viele Wissenschaftler mit Unterschriften zu Felde zogen. Laplace verlor seine letzten politischen Freunde, als er versuchte, Kollegen für das Gesetz einzunehmen. Wegen seiner Eigenschaft, immer auf der Seite der Mächtigen zu sein, wurde Laplace nach seinem Tode trotz großer wissenschaftlicher Erfolge nicht im Panthéon beigesetzt, sondern auf dem Pariser Friedhof. Werk. Laplace’ größtes wissenschaftliches Werk liegt auf dem Gebiet der Astronomie oder genauer der Himmelsmechanik. Von 1799 bis 1823 verfasste er sein Hauptwerk "Traité de Mécanique Céleste" (Abhandlung über die Himmelsmechanik). Dieses fünfbändige Buch erschien auf deutsch unter dem Namen "Himmelsmechanik". Darin gibt er einen Überblick über alle seit Newton gewonnenen Erkenntnisse sowie über seine eigenen Forschungen und erweist sich als Vollender Newtons. Er gibt einen rechnerischen Beweis für die Stabilität der Planetenbahnen. Aufgrund von Unregelmäßigkeiten in den Bahnkurven war man damals der Meinung, dass das Sonnensystem kollabieren könnte. Außerdem postuliert er die Existenz von Schwarzen Löchern und beschäftigt sich mit dem Drei-Körper-Problem. Obwohl das Werk mathematisch sehr anspruchsvoll und deshalb sehr schwer zu lesen ist, wurde es in der Folgezeit Pflichtlektüre für alle angehenden Astronomen. Dieses Gespräch wurde von vielen als Ausdruck eines radikalen Atheismus gewertet. Möglicherweise meinte Laplace mit seiner Antwort jedoch etwas anderes. Newton hatte in seinem Werk eine ordnende Funktion Gottes postuliert. Gott sollte regelmäßig in das mechanische Weltgeschehen eingreifen um die säkularen Störungen, die es zunehmend in Unordnung brachten und zu zerstören drohten, quasi wieder zurecht zu rücken. Seit Newton war aber die Himmelsmechanik weiter fortgeschritten und Laplace konnte solche Störungen erklären und berechnen, ohne einen ordnenden Gott zu bemühen. Deswegen ist die Antwort von Laplace wahrscheinlich nicht als vollständige Negierung der Existenz Gottes zu verstehen. Das Werk war eine zu seiner Zeit umfassende Zusammenstellung des Wissens über die Himmelsmechanik, die noch 50 Jahre später als weitgehend vollständig angesehen wurde. Bereits 1796, drei Jahre vor den ersten beiden Bänden der "Himmelsmechanik", veröffentlichte Laplace die "Exposition du systeme du monde" (Darstellung des Weltsystems). Dieses ebenfalls fünfbändige Buch ist gewissermaßen eine nichtmathematische Einführung zur "Himmelsmechanik". Laplace gibt darin das astronomische Weltbild seiner Zeit wieder und beweist, dass die Wahrscheinlichkeit einer Kollision eines Kometen mit der Erde nur klein, im Verlauf astronomischer Zeiträume jedoch groß ist. Im letzten Band und letzten Kapitel des Werkes entwickelt Laplace auf 19 Seiten eine Theorie über die Entstehung des Sonnensystems, die heute als Nebularhypothese bekannt ist. 1799 stellte er die Hypothese auf, dass auf der Rückseite des Mondes eine größere „Beule“ existieren müsse, die die Bewegung des Mondes beeinflusst. Das zweite große Forschungsgebiet von Laplace war die Wahrscheinlichkeitsrechnung. Für Laplace stellte sie einen Ausweg dar, um trotz fehlender Kenntnisse zu gewissen Resultaten zu kommen. In seinem zweibändigen Werk "Théorie Analytique des Probabilités" (1812) gab Laplace eine Definition der Wahrscheinlichkeit und befasste sich mit abhängigen und unabhängigen Ereignissen, vor allem in Verbindung mit Glücksspielen. Außerdem behandelte er in dem Buch den Erwartungswert, die Sterblichkeit und die Lebenserwartung. Das Werk stellte eine Widerlegung der These dar, dass eine strenge mathematische Behandlung der Wahrscheinlichkeit nicht möglich sei. Diese These wurde damals von vielen Mathematikern vertreten und auch Laplace’ ehemaliger Lehrer d’Alembert war bis zu seinem Tod 1783 dieser Auffassung. Zwei Jahre später erschien das Buch "Essai philosophique sur des Probabilités" (Philosophischer Essay über die Wahrscheinlichkeit). Dieses Werk war, wie die "Exposition du systeme du monde", für einen breiten Leserkreis geschrieben, ersparte dem Leser jedoch nur die Formeln und war sonst in keiner Weise einfacher. Neben den Themen der "Théorie Analytique" beschrieb Laplace außerdem einen alles rational erfassenden „Weltgeist“, der die Gegenwart mit allen Details kennt und daher die Vergangenheit und Zukunft des Weltgeschehens in allen Einzelheiten beschreiben kann. Laplace meinte jedoch auch, dass die menschliche Intelligenz dieses nie erreichen könne. Dieser „Weltgeist“ wurde später als Laplacescher Dämon bekannt und sorgte für erbitterten Widerspruch unter den Philosophen, da er einen vollkommenen Determinismus verkörpert, der jeden freien Willen ausschließt. Das vollkommen deterministische Weltbild ist nicht kompatibel mit den Erkenntnissen der modernen Quantenmechanik und deren statistischer Interpretation (z. B. Bornsche Wahrscheinlichkeitsinterpretation). Einige Physiker konnten sich mit dieser statistischen Interpretation der Quantenmechanik nicht abfinden und hielten gewissermaßen am Laplaceschen Determinismus fest. Am bekanntesten ist sicher der skeptische Ausspruch Einsteins „Gott würfelt nicht“. Die Frage nach einem allumfassenden Determinismus ist nach wie vor ungeklärt (siehe Determinismus). 1780 machte Laplace mit Lavoisier Experimente mit einem Eiskalorimeter: Sie bestätigten die Äquivalenz von tierischer Atmung mit der Verbrennung von Holzkohle – in beiden Fällen wird durch Sauerstoff Kohlenstoff zu Kohlendioxid verbrannt. Interessant erscheint die Einschätzung des Zufalls: Die Experimentatoren nahmen an, dass die Schwankungen im Experiment prinzipiell auszumerzen wären, wenn man nur alle Bedingungen des Experiments kennen würde ("siehe auch" Determinismus). Laplace war stets mehr Physiker als Mathematiker. Die Mathematik diente ihm nur als Mittel zum Zweck. Heute sind jedoch die mathematischen Verfahren, die Laplace entwickelte und anwandte, viel wichtiger als das eigentliche Werk an sich. Die wichtigsten sind der Laplacesche Entwicklungssatz, der Laplace-Operator, die Laplace-Gleichung sowie die Laplace-Transformation. Ehrungen. Er ist namentlich auf dem Eiffelturm verewigt, siehe: Die 72 Namen auf dem Eiffelturm. Nach Pierre-Simon Laplace sind auf dem Mond verschiedene Oberflächenstrukturen benannt worden, z.B. das Promontorium Laplace und der Mondkrater Laplace. Der Asteroid (4628) Laplace ist ebenfalls nach ihm benannt. Projekt. Ein Projekt ist ein zielgerichtetes, einmaliges Vorhaben, das aus einem Satz von abgestimmten, gelenkten Tätigkeiten mit Anfangs- und Endtermin besteht und durchgeführt wird, um unter Berücksichtigung von Zwängen bezüglich Zeit, Ressourcen (zum Beispiel Geld bzw. Kosten, Produktions- und Arbeitsbedingungen, Personal) und Qualität ein Ziel zu erreichen. Projekt leitet sich ab von, Neutrum zu ‚nach vorn geworfen‘, Partizip Perfekt von ‚vorwärtswerfen‘ (vgl. "Projektil"). Bei Projekten wird unter ‚nach vorn' eine zeitliche Dimension verstanden (siehe auch "Terminplanung"). Das deutsche Wort kommt im späteren 17. Jh. in Gebrauch in der Bedeutung "Bauvorhaben". Zur Durchführung von Projekten werden häufig Projektteams gebildet, denen Steuerungsaufgaben obliegen. Um dieses Projektmanagement effizient zu gestalten, werden von Beratungsfirmen und Hochschulen spezielle Lehrgänge angeboten. Viele Projektmanagement-Lehren empfehlen, dass die Ziele bzw. Zielvorgaben eines Projektes nach den SMART-Regeln vorab formuliert werden (SMART = Spezifisch, Messbar, Akzeptiert, Realistisch, Terminiert). Für Forschungsprojekte gilt dies aber nur bedingt. Das Projektziel bestimmt das strategische Vorgehen, dies bestimmt die nötigen Prozesse/Tätigkeiten und die hilfreiche Grundstruktur, welche den Umgang mit den Ressourcen bestimmen. Definition. Eine Aufgabenstellung kann und sollte in der Regel als Projekt betrachtet werden, sofern das zu lösende Problem relativ komplex erscheint, der Lösungsweg zunächst unbekannt ist, eine Zielrichtung und ein Zeitrahmen vorliegen und/oder bereichs-/fachübergreifende Zusammenarbeit erforderlich ist. Die Komplexität des Problems liegt beispielsweise darin, dass Meist wirken alle diese Faktoren zusammen. Die Gesamtheit der Tätigkeiten, die mit der erfolgreichen Abwicklung eines Projektes zusammenhängen, münden in einen Regelkreis zur Steuerung von Projekten. Wichtig sind verlässliche Anfangs- und Enddaten zur Planung des Vorhabens und Zusagen für die benötigten Ressourcen im Rahmen eines Projektplans. Im Rahmen großer Investitions- und Bauvorhaben verwenden Engineering- und Projektgesellschaften spezielle Projektkontenrahmen und vorhabensorientierte Projektkontenpläne zur leistungsgerechten Strukturierung der Projektpläne und zur ordnungsgemäßen Erfassung und Abrechnung der Planungs- und Bauleistungen. In der Regel birgt ein Projekt – im Gegensatz zu regelmäßigen, stets ähnlich durchgeführten, großteils identischen Vorhaben – meist ein höheres Risiko des Scheiterns und wird in einer speziellen und befristeten Organisationsform, der so genannten Projektorganisation, abgewickelt, innerhalb derer auf das Ziel hingearbeitet wird. Typische Projekte sind Produktentwicklungs-, (Re-)Organisations-, EDV-, Sanierungs- oder Bauprojekte. Organisationen, die regelmäßig ähnliche Projekte durchführen, sollten bestrebt sein, diese zu Produkten weiterzuentwickeln. Dies wird selten uneingeschränkt möglich sein. Jedoch ist eine Standardisierung des Vorgehens, die den Lerneffekt aus vorangegangenen Projekten wieder in neue Projekte einfließen lässt, ein Vorteil gegenüber einer ständigen „Neuerfindung des Rades“. Diese Standardisierung äußert sich in der Regel in definierten Prozessen, in denen neue Projekte angegangen werden, sowie in vorhandenen Schablonen für Dokumentationen etc., die zwar ggf. projektspezifisch angepasst werden, jedoch bereits die Punkte enthalten, die – aus Erfahrung – nicht vergessen werden sollten. Projekt in der Didaktik. Neben Projekten im Wirtschaftsbereich gibt es Projekte im Pädagogikbereich mit einer andersartigen Definition und Aufgabenstellung. Diese wurden bereits zu Anfang des Zwanzigsten Jahrhunderts von John Dewey, William Heard Kilpatrick u.a. als Gegenentwurf zum kopfbetonten Frontalunterricht entwickelt. Es handelt sich um Lehr- und Lernformen, mit denen bestimmte Unterrichts- und Erziehungsziele erreicht werden sollen. Als didaktische Konzeptionen werden sie einerseits lediglich als Methode (Frey), andererseits (komplexer) als eine sozialintegrative Unterrichtsform (Warwitz/Rudolf, Bastian u.a.) verstanden und eingesetzt, bei der die Impulse der Lernprozesse nicht vom Lehrer allein ausgehen, sondern in Interessenabstimmung von der gesamten Lehr- und Lerngemeinschaft gestaltet werden. Bei dem Verständnis als komplexer Unterrichtsform werden neben den Lernwegen und der Organisation des Unterrichts (= Methoden) auch die Inhalte, Ziele, Begründungsfragen und Lernerfolgskontrollen der Lernprozesse miteinander ausgehandelt und gemeinsam verantwortet. Ist die anspruchsvollere Form des Projektunterricht durch bestimmte harte Kriterien definiert, so hat der Projektorientierte Unterricht die Funktion, methodisch und motivational auf ihn hinzuarbeiten. Dabei wird von bestimmten Fächern ausgegangen, die sich einer interdisziplinären Kooperation öffnen, etwa als „Projektorientierter Physik-, Deutsch- oder Sportunterricht“. Beide Unterrichtsformen werden vereinfachend auch bisweilen als „Projektarbeit“ bezeichnet. Umgangssprachliche Bedeutung. Nicht konform im Sinne der zeitlichen Begrenztheit, jedoch im Sinne der thematisch/organisatorischen Abgrenzung vom „Normalfall“, also mit der Bedeutung, dass es „etwas Besonderes“ sei, verwendet man die Bezeichnung "Projekt" auch, um Sprachwörterbücher (z. B. Duden) definieren Projekte eher in diesem allgemeineren Sinn als "Planung, Unternehmung, Entwurf oder Vorhaben". In der psychosozialen Betreuung und der Sozialen Arbeit werden (neue) Angebote oft ebenfalls als Projekte bezeichnet, auch wenn sie von vorhinein als dauerhaft oder wiederkehrend konzipiert werden, unabhängig von deren Finanzierung. Projektarten. Projekte können nach folgenden Gliederungskriterien klassifiziert / differenziert werden (Beispiele). Die individuellen Besonderheiten in diesen Projektarten führten in der Projektorganisation zur Entwicklung spezieller Vorgehensweisen und Bearbeitungstechniken. Rollen in Projekten. Je nach Projektsituation (z.B. der Größe eines Projekts) können bestimmte Rollen in „Personalunion“ besetzt sein, Mitarbeiter können ggf. auch gleichzeitig in mehreren Projekten tätig sein. Propaganda. Propaganda (von ‚weiter ausbreiten, ausbreiten, verbreiten‘) bezeichnet einen absichtlichen und systematischen Versuch, öffentliche Sichtweisen zu formen, Erkenntnisse zu manipulieren und Verhalten zum Zwecke der Erzeugung einer vom Propagandisten oder Herrscher erwünschten Reaktion zu steuern. Dies im Gegensatz zu Sichtweisen, welche durch Erfahrungen und Beobachtungen geformt werden. Der Begriff „Propaganda“ wird vor allem in politischen Zusammenhängen benutzt; in wirtschaftlichen spricht man eher von „Werbung“, in religiösen von „Missionierung“. Entscheidend ist dabei die geschickte Auswahl und gegebenenfalls die Manipulation der Nachricht und nicht ihr Wahrheitscharakter. Durch die Monopolisierung der Propaganda in diktatorischen Regimen, insbesondere des Nationalsozialismus und Stalinismus, erhielt der Terminus einen stark pejorativen (abwertenden) Charakter. Als Folge verwendet z. B. keine der demokratischen Parteien der Bundesrepublik Deutschland für ihre Werbemaßnahmen heute noch die Bezeichnung "Propaganda". Dennoch ist die gezielt einseitige Darstellung von Informationen eine gängige Praxis politischer Parteien. Auf Grund seiner negativen Konnotation ist der Begriff "Propaganda" weitgehend dem der "Öffentlichkeitsarbeit" (oder dem englischen "Public Relations") gewichen. Wortgeschichte. Der Begriff leitet sich vom lateinischen Namen einer päpstlichen Behörde ab, der 1622 von Gregor XV. im Zuge der Gegenreformation ins Leben gerufenen "Sacra congregatio de propaganda fide", zu deutsch etwa „Heilige Kongregation für die Verbreitung des Glaubens“, heute offiziell „Kongregation für die Evangelisierung der Völker.“ Noch im 17. Jahrhundert bürgerte sich die Kurzform "propaganda" – eigentlich die Gerundivform von lat. "propagare", „verbreiten, ausdehnen“ – als Name für diese Missionsgesellschaft ein, deren Zweck es war, dem Protestantismus entgegenzutreten sowie die Neue Welt zu missionieren. Etwa seit der Zeit der Französischen Revolution wird das Wort im heutigen, weltlichen Sinne gebraucht, also als Bezeichnung für die Verbreitung politischer Ideen. So formierte sich 1790 in Paris der "Club de la propagande", eine Geheimgesellschaft der Jakobiner zur Verbreitung revolutionärer Ideen. In dieser Bedeutung findet sich der Begriff heute in vielen weiteren Sprachen. Propaganda im Ersten Weltkrieg. → "Hauptartikel: Propaganda im Ersten Weltkrieg" Gezielte und organisierte Kriegspropaganda wurde von allen kriegführenden Mächten betrieben, im Deutschen Kaiserreich dabei stark von der Obersten Heeresleitung, in Großbritannien vom War Propaganda Bureau und in Frankreich vom Maison de la Presse. Zum Beispiel spielten bei der psychologischen Kriegführung sogenannte Maueranschläge eine wichtige Rolle, sowohl bei den Mittelmächten als auch bei der Entente und ihren Alliierten. So beteiligten sich in Deutschland zahlreiche Künstler, u. a. Walter Trier, Louis Oppenheim und Paul Brockmüller, an der Gestaltung zahlreicher Plakate. Propaganda im Zweiten Weltkrieg. In den kriegführenden Ländern wurde Propaganda gegen die Kriegsgegner gemacht. Vor allem die Erfindung des Films führte zu einer großen Anzahl von Propagandafilmen. Propaganda in der Zeit des Nationalsozialismus. Adolf Hitler und sein Reichsminister für Volksaufklärung und Propaganda Joseph Goebbels gaben in der Zeit des Nationalsozialismus der Propaganda eine totalitäre und dominante Bedeutung und nutzten dazu vor allem die Presse, den Rundfunk, sämtliche Medien der Künste und symbolisch markant aufgezogene Massenveranstaltungen. Agitation und Propaganda (Agitprop). Lenin verstand unter Propaganda die allgemeine Überzeugungsarbeit von Kommunisten, im Unterschied zur Agitation, die ein „"Appell an die Massen zu bestimmten konkreten Aktionen"“ sei. Besonders in den Anfangszeiten der Sowjetunion war die Agitprop durch moderne Kunstrichtungen (den Futurismus) beeinflusst. Propaganda in der DDR. Agitprop war ein wichtiges Mittel der Herrschaftssicherung in der Deutschen Demokratischen Republik. Ihr Ziel bestand u. a. in der Diskreditierung der Wirtschafts- und Gesellschaftsordnung der Bundesrepublik Deutschland. Sie richtete sich allgemein gegen Kapitalismus und „westlichen Imperialismus“. Da alle Medien vom Staat zensiert und gesteuert wurden, war dessen Propaganda allgegenwärtig. Als permanente politisch-ideologische Indoktrination wurde sie bereits in den staatlichen Kindergärten praktiziert und im Schulunterricht (Staatsbürgerkunde) fortgesetzt. Massenorganisationen wie Junge Pioniere, FDJ, FDGB und andere waren integraler Bestandteil des staatlichen Propagandaapparates. Das Eindringen mittels Propaganda in Familien, die Unterdrückung der Opposition und die versuchte Einflussnahme auf die gesamte Gesellschaft sind typische Kennzeichen einer totalitären Herrschaft. Ein wichtiges Element der DDR-Propaganda war die Fernsehsendung „Der schwarze Kanal“. Propagandamethoden waren ein fester Ausbildungsbestandteil für Kader, so z. B. im „Roten Kloster“, der "Fakultät für Journalistik" in Leipzig, einem Ausbildungsinstitut des Zentralkomitees der SED. Die DDR setzte sich auch propagandistisch mit der Reform des Strafrechts der Bundesrepublik Deutschland auseinander und stellte eine Verbindung zur nationalsozialistischen Justiz her. Propaganda in der Bundesrepublik Deutschland. In der Bundesrepublik wurde Propaganda zu Zeiten des Kalten Krieges in den öffentlich-rechtlichen Rundfunk- und Fernsehanstalten und privaten Medien sowie in vielen übrigen Bereichen des täglichen Lebens eingesetzt, oft mit starker Wendung gegen die DDR. Eine tragende Rolle hatte das Bundesministerium für innerdeutsche Beziehungen und privat-rechtliche Propaganda-Organisationen wie z. B. der Volksbund für Frieden und Freiheit, aber auch die politischen Parteien, die oftmals mit ihrer antikommunistischen Haltung Angst schürten und Wahlkampf betrieben. Neben der offenen Propaganda im alltäglichen Leben gab es auch verdeckte staatliche Aktionen, die vom Bundesministerium für Verteidigung als operative Information systematisch durchgeführt wurden. Der damalige Verteidigungsminister Franz Josef Strauß richtete 1958 ein Referat für "Psychologische Kampfführung" ein, in dem u. a. Eberhard Taubert, früherer Mitarbeiter im Reichspropagandaministerium, führend mitwirkte. Pazifischer Ozean. Der Pazifische Ozean (‚friedlich‘), auch Pazifik, Stiller Ozean oder Großer Ozean genannt, ist der größte und tiefste Ozean der Erde. Er grenzt an alle anderen Ozeane der Erde an. Namensursprung. Am 28. November 1520 erreichte Ferdinand Magellan aus der Magellanstraße kommend auf seiner Weltumsegelung den Pazifik oder Stillen Ozean. Er nannte ihn so, weil die sie bis dahin begleitenden Stürme sich legten. Trotz dieses Namens gibt es im Pazifik auch heftige Stürme und Wirbelstürme, die je nach Region Taifun oder Hurrikan genannt werden. Geographie. Der Pazifik liegt zwischen der Arktis im Norden, Nordamerika im Nordosten (siehe Pazifischer Nordwesten), Mittelamerika im Osten, Südamerika im Südosten, der Antarktis im Süden, Australien im Südwesten, Ozeanien im Westen und Asien im Nordwesten (siehe Nordwestlicher Pazifikraum). Im Norden grenzt er an den Arktischen Ozean und im Süden an den Südlichen Ozean, der südlich des 60. Breitengrades liegt. Der pazifische Pol der Unzugänglichkeit (Point Nemo), die Stelle, welche am weitesten von Festland und Inseln entfernt ist, befindet sich im Südpazifik zwischen Neuseeland und Chile. Nebenmeere. Die meisten Randmeere des Pazifiks liegen vor der asiatisch-australischen Seite und werden zum Ozean hin durch eine Kette von Inseln und Tiefseegräben getrennt. Inseln. Gliederung der pazifischen Inselwelt in Kulturräume Geographie der Inseln des Pazifiks Die zahllosen Inseln der Südsee werden mehr nach kulturellen als nach geographischen Gesichtspunkten in die Archipele Melanesien, Polynesien und Mikronesien unterteilt. Zu Melanesien gehört mit Neuguinea die zweitgrößte Insel der Welt. Neuseeland und die umliegenden Inseln wie z. B. die Chatham-Inseln werden üblicherweise zu Polynesien gezählt. Einige größere Inseln und Inselgruppen am Rande des Pazifiks sind in ihrer Zuordnung umstritten. Das sind Feuerland (Chile) und die vorgelagerten Inseln in der Drakestraße, die am Übergang zum Atlantik liegen, Taiwan und die Philippinen, die am Rand zum Südchinesischen Meer liegen und Tasmanien (Australien), das gelegentlich zum Indischen Ozean gezählt wird. Weiter südlich existieren noch einige antarktische und subantarktische Inseln wie die Peter-I.-Insel, die Scott-Insel und die Balleny-Inseln, die im Allgemeinen zum Südlichen Ozean gezählt werden. Kontinentale Anrainerstaaten. Kanada, USA, Mexiko, Guatemala, El Salvador, Nicaragua, Honduras, Costa Rica, Panama, Kolumbien, Ecuador, Peru, Chile, Australien, Malaysia, Thailand, Kambodscha, Vietnam, China und Russland. Inselstaaten. Cookinseln, Fidschiinseln, Französisch Polynesien, Indonesien, Kiribati, Japan, Nauru, Neuseeland, Marshallinseln, Föderierte Staaten von Mikronesien, Osttimor, Palau, Papua-Neuguinea, Philippinen, Republik China (Taiwan), Salomonen, Samoa, Tonga, Tuvalu, Wallis und Futuna und Vanuatu. Daten. Die Fläche des Ozeans beträgt mit Nebenmeeren 181,34 Mio. km², ohne die Nebenmeere 166,24 Mio. km², was rund 35 Prozent der gesamten Erdoberfläche oder die Hälfte der Meeresfläche der Erde und damit mehr als die Fläche aller Kontinente zusammen ausmacht. Sein Volumen beträgt mit Nebenmeeren 714,41 Mio. km³, ohne die Nebenmeere 696,19 Mio. km³ – mehr als die Hälfte allen Wassers auf der Erde. Während seine mittlere Tiefe mit Nebenmeeren 3.940 m (4.188 m ohne Nebenmeere) beträgt, liegt seine tiefste Stelle bei 11.034 m unter dem Meeresspiegel. Die größte Ausdehnung in West–Ost-Richtung hat der Pazifik bei 18°39′N (Hainan, VR China 110°15′O 103°42′W Mexiko); die größte Ausdehnung Nord–Süd hat der Pazifik bei 172°9′W (Sibirien, Russische Föderation 64°45′N 78°20′S Ross-Schelfeis, Kontinent Antarktika). Die West–Ost-Distanz ist die längste aller Weltmeere; die Nord–Süd-Distanz wird nur noch vom Atlantischen Ozean übertroffen (15.986 km bei 34°46′W). Meeresboden. Innerhalb des Pazifischen Ozeans beziehungsweise auf dessen Grund befinden sich teils hohe und langgestreckte Mittelozeanische Rücken, viele niedrigere Schwellen, riesige Tiefseebecken, Tiefseerinnen, verschiedene Meerestiefs und der Pazifische Feuerring. Zu den Mittelozeanischen Rücken gehört insbesondere der Ostpazifische Rücken, der sich durch den Südosten des Pazifischen Ozeans zieht. Zu den Tiefseerinnen beziehungsweise Meerestiefs gehört der Marianengraben mit dem 11.034 m tiefen Witjastief 1, die tiefste Stelle des Pazifischen Ozeans. Zu den Tiefseebecken gehört das äußerst große Nordpazifische Becken, das den Großteil des nördlichen Pazifiks ausmacht, in Richtung Süden sogar über den Äquator hinaus reicht und nur wenig vom Mittelozeanischen Rücken und Schwellen durchzogen ist. Am Pazifischen Feuerring, einem weitausgedehnten, um den Ozean verlaufenden Ring von aktiven Vulkanen, verbunden mit Tiefseerinnen, fanden einige der gewaltigsten Erdbeben des 20. Jahrhunderts statt, zum Beispiel 1960 das Große Chile-Erdbeben und in Japan 1923 das Große Kantō-Erdbeben. Eine weitere Gefahr sind Seebeben, welche meterhohe Tsunamis auslösen können. Müllstrudel. Ein Strudel aus Plastikteilen schwimmt etwa tausend Kilometer nördlich von Hawaii und umfasst dabei eine Fläche von rund 7000 km² – etwa ein Prozent der Größe von Texas. Angaben, welche die Ausdehnung des Müllstrudels auf die doppelte Größe Texas’ beziffern, sind stark übertrieben. Der Plastikmüll stammt zu ca. 80 % vom Festland und wird über die Flüsse ins Meer gespült. Der restliche Teil kommt von Schiffen, die ihre Abfälle über Bord werfen. Die Plastikteile treiben bis zu 16 Jahre in diesem Strudel und stellen eine große Gefahr für die Fauna dar. Durch die Reibung der Wellen zerfällt der Müll zu immer kleineren Teilen, löst sich aber nicht ganz auf. Wichtige Häfen am Pazifischen Ozean. Die nachfolgend aufgezählten Häfen stellen aufgrund ihrer Lage und ihrer Größe die wichtigsten Liegestellen für Schiffe aller Art dar. Die Auflistung erfolgt dabei nach Staaten von Norden nach Süden sortiert. Auf dem amerikanischen Doppelkontinent. In Kanada finden sich in Vancouver, Kitimat, Prince Rupert und in Victoria wichtige Seehäfen (alle in der Provinz British Columbia). Auf dem Gebiet der Vereinigten Staaten liegen die Häfen von Anchorage, Long Beach, Los Angeles, Oakland, Portland, San Diego und San Francisco. Südlich davon, in Mexiko, befinden sich Seehäfen in Acapulco, Ensenada und Salina Cruz. Am Panamakanal liegt der Hafen von Panama-Stadt. In Südamerika liegen in Kolumbien der Hafen von Buenaventura, weiterhin in Ecuador der von Guayaquil. Peru weist in Callao einen bedeutenden Seehafen vor. Des Weiteren befinden sich in Chile folgende wichtige Häfen: Antofagasta, Arica, Iquique, Puerto Montt, San Antonio sowie Talcahuano und Valparaiso. Auf dem asiatischen Kontinent. Der bedeutendste russische Hafen am Pazifik liegt in Wladiwostok, das südkoreanische Pendant dazu ist Busan. Südlich davon schließen sich Häfen auf chinesischem Hoheitsgebiet an, darunter Dalian, Qingdao, Shanghai, Shenzhen, Tianjin, Xiamen und Yantai. In Thailand finden sich in Bangkok, Laem Chabang sowie Songkhla wichtige Seehäfen. Am Südende des südchinesischen Meeres liegt der Hafen von Singapur. Inmitten des Pazifik liegen auf den Inseln Japans die Seehäfen von Kōbe, Nagoya, Ōsaka und Yokohama. Auf Taiwan folgen die Häfen Kaohsiung, Keelung und Taichung. Auf den Philippinen befinden sich wichtige Liegestellen in Cebu City sowie in Metro Manila. Auf dem australischen Kontinent. Der australische Kontinent weist vier wichtige Häfen auf: Brisbane, Melbourne und Sydney in Australien sowie Auckland in Neuseeland. Provitamin. Provitamine sind Vorstufen der Vitamine und müssen erst noch in diese umgewandelt werden, um für den Körper von Nutzen zu sein. Pest. Vorkommen der Pest in Tieren (1998) Die Pest (‚Seuche‘) ist eine hochgradig ansteckende Infektionskrankheit, die durch das Bakterium "Yersinia pestis" ausgelöst wird. Sie ist ursprünglich eine Zoonose von Nagetieren (Murmeltiere, Ratten, Eichhörnchen), bei deren Populationen sie enzootisch sein kann. Daher kommt auch der Begriff „silvatische Pest“ (lat. ‚Wald‘) bei sich unmittelbar ansteckenden Menschen. Der Ausbruch dieser Erkrankung ist gegebenenfalls weltweit möglich. Ein historischer Überblick über die Krankheit, die viele Menschenleben forderte, ist unter Geschichte der Pest nachzulesen. Erreger. Die Pest wird bei Mensch und Tier durch das Bakterium "Yersinia pestis" ausgelöst. Dieses Bakterium, eine Mutation des für den Menschen relativ ungefährlichen Bakteriums "Yersinia pseudotuberculosis", ist sehr anpassungsfähig, und es werden sehr viele verschiedene Varianten beschrieben. Die krankmachenden Eigenschaften von "Yersinia pestis" entstehen durch Ektotoxin, Endotoxin- und Bakterienkapselbildung. Vorkommen. Die Verbreitung der Pest hängt von der Verbreitung der Zwischenwirte ab. Wo diese festgestellt werden, sind immer auch Pestfälle möglich. Ob sie zu Epidemien auswachsen können, hängt von mehreren Faktoren ab, wie beispielsweise Resistenz der Bakterien gegen Medikamente, den vorherrschenden hygienischen Verhältnissen und der Bekämpfung der lokalen Zwischenwirte. Übertragungsweg. Die Pest kann auf verschiedene Weise übertragen werden: Zum einen durch den Biss von mit Krankheitserregern verseuchten Insekten, vorwiegend Flöhen, zum anderen durch Tröpfcheninfektion. Letztere Übertragungsart führt zur primären Lungenpest. Flöhe. Das Zwischenglied bei der Übertragung von der Ratte auf den Menschen ist der Floh. Als erster entdeckte diesen Zusammenhang 1898 Paul-Louis Simond. An erster Stelle steht die tropische Flohart "Xenopsylla cheopis" (Rattenfloh). Über die Bedingungen und Mechanismen der Verbreitung der Pest durch diesen Floh siehe dort. Diese Flohart kommt in Europa wegen der für diese Art zu kühlen Witterungsbedingungen nicht vor. A. W. Bacot vermutete, dass der Menschenfloh ("Pulex irritans"), der in Europa verbreitet ist und sich durch eine große Variationsbreite in Bezug auf Wirtstiere auszeichnet, für die Übertragung verantwortlich sei. Die Forscher Hariette Chick und C. J. Martin schlugen "Nosopsyllus fasciatus" (= "Ceratopsyllus fasciatus") als Überträger vor. Diese Flohart macht die Hälfte der Flöhe in England aus. Diese beiden Arten kamen mit tieferen Temperaturen weit besser zurecht als "Xenopsylla cheopis". Hinzu kommt, dass dessen Eier bei 13 °C absterben, so dass Bacot meinte, dass mindestens 15,5 °C vorliegen müssten, um dessen Flohpopulation am Leben zu erhalten. Demgegenüber überlebte ein Teil der Eier von "Pulex irritans" noch bei 8 °C, und die Hälfte der Eier von "Nosopsyllus fasciatus" überstand sogar Temperaturen von 5 °C. Heute geht man von einem Temperaturfenster von 0 bis 40 °C für diesen Floh aus. "Nosopsyllus fasciatus" und "Pulex irritans" finden sich weit verbreitet in England, Wales, Schottland, Shetlands, Orkneys und Irland. Man führte dann den Vektor-Index ein, um die verschiedenen Floharten miteinander in diesem Punkte vergleichen zu können. Die "Xenopsylla"-Arten wurden zum Maßstab genommen. "Nosopsyllus fasciatus" kommt diesen am nächsten. Dagegen zeigt "Pulex irritans" geringe Vektoreffektivität, ähnlich wie Katzen- und Hundeflöhe, weil bei ihnen die erforderliche Blockade durch Bakterienklumpen selten vorkommt. Bei Laborversuchen kam "Nosopsyllus fasciatus" auf den 2. Platz hinter "Xenopsylla cheopis". Bei "Pulex irritans" kam es nur bei einem von 57 Exemplaren zur Blockade, und dieses Exemplar starb, bevor es seine Infektion weitergeben konnte. Georges Blanc und Marcel Baltazard gingen einen anderen Weg: In der Pest von 1940 in Marokko fingen sie "Pulex irritans" in Häusern Pestverstorbener in Marrakesch, zerdrückten sie und spritzten ihre Lösung in Meerschweinchen, die alsbald an Pest verstarben. Damit lenkten sie den Blick auf die Möglichkeit, dass die Pest ohne Ratte vom Menschenfloh unmittelbar übertragen werden konnte, worauf sie in einer weiteren Veröffentlichung hinwiesen. Die marokkanischen Häuser waren voll von Menschenflöhen. Von gut 3500 eingesammelten Flöhen waren 3000 "Pulex irritans", während nur knapp 600 Exemplare "Xenopsylla cheopis" gefunden wurden. Dagegen wandte Georges Girard ein, dass die Pestepidemien in Indien, Senegal und Madagaskar starke Unterschiede zu der marokkanischen aufwiesen, obgleich auch dort "Pulex irritans" in Mengen aufgetreten waren. Er bestritt im übrigen aus seiner Erfahrung die Effektivität als Übertragungsvektor von "Pulex irritans". Aber er hielt es für möglich, dass die Menge der Flöhe in Marokko den Mangel an Effektivität ausgeglichen habe. Andere Untersuchungen von Pest in Nordafrika, besonders in Ägypten, zeigten, dass der Menschenfloh an der Verbreitung der Pest nicht beteiligt war, obgleich er in hohem Grad von der Pest infiziert war. Atilio Macchiavello stellte andererseits das vollständige Fehlen von "Xenopsylla cheopis" bei einem Pestausbruch in Peru 1946 in 600–700 m Höhe fest. Robert Pollitzer und Karl F. Meyer bestimmten dann die Pestübertragung durch Flöhe näher als massenhaften Befall von Flöhen, deren Saugwerkzeuge von vorherigem Befall von Nagern infiziert waren (mechanische Übertragung), oder als Bisse von im Verdauungssystem blockierten Flöhen (biologische Übertragung). Ein wesentlicher Faktor bei der Übertragung der Pest durch den Floh ist die Zahl der Bakterien, die er bei einem Biss injiziert. Ole Jørgen Benedictow ging von 25.000 Bakterien pro Biss eines blockierten Flohs aus. Allerdings waren die Zahlen vor Einführung der PCR-Technik sehr ungenau. Mit dieser Methode hat man um die 100.000 Bakterien von "Yersinia pestis" in den infizierten Exemplaren gefunden. Der Aufenthalt der Flöhe außerhalb von Wirtstieren in Nestern und im Boden ist jedoch keine besondere Verhaltensweise bestimmter Floharten, so dass die Unterscheidung zwischen Pelzfloh und Nestfloh nicht weiterführt. Pollitzer und Meyer stellten fest, dass es zwischen Nestflöhen und Pelzflöhen keine Trennungslinie gibt. Das unterschiedliche Verhalten in diesem Zusammenhang zwischen "Xenopsylla cheopis" und "Nosopsyllus fasciatus" beruht auf ihren Fressgewohnheiten: "cheopis" beißt oft und verlässt daher selten und nur kurz das Wirtstier, während "fasciatus" seltener beißt und daher längere Zeit auch ohne Wirtstier lebt. Nach Pollitzer und Meyer hängt dies aber nicht mit der Art, sondern mit dem Klima zusammen, in welchem die Flöhe leben: "cheopis" in tropischen Breiten, "fasciatus" in kühleren Gegenden. Von diesen Erkenntnissen ausgehend ist "fasciatus" nicht unbedingt ein schlechterer Pestvektor als "cheopis". Warmblütige Wirtstiere. Es hat sich gezeigt, dass die Pest über 200 Säugetierarten befallen kann, also nicht auf Ratten beschränkt ist. Sie wurde auch bei Hunden und Katzen festgestellt. Neben der braunen bis schwarzen Hausratte ("Rattus rattus") und der grau-braunen Wanderratte ("Rattus norvegicus") wurde auch der Hausmaus ("Mus musculus") die Auslösung von Epidemien zugeschrieben, so die in Südost-Russland in den 20er Jahren, in Brasilien 1936–1945 und in Saigon 1943. Gleichwohl spielt die Hausmaus in diesem Zusammenhang nur eine untergeordnete Rolle, da sie nicht die hohe Bakterienkonzentration im Blut entwickelt, die erforderlich ist (Pollitzer 1954 S. 299–300). Außerdem ist deren Floh "Leptopsylla segnis" ein schlechter Überträger. Er nimmt nur wenig Pestbakterien auf. Auch ist der Floh in hohem Grade auf die Maus fixiert. Die Ratten standen daher immer im Vordergrund. Das beruhte auf der Beobachtung bei der Pest 1905 in Bombay, dass es zu dieser Zeit dort eine Überfülle von Ratten beider Arten gab. Die Kommission beobachtete, dass die Seuche zuerst die Wanderratte ergriff, etwa 10 Tage danach die Hausratte, und der Höhepunkt der Sterblichkeitsrate bei den Menschen knapp 1 Monat später auftrat. 1910 starben einige Kilometer entfernt von Ipswich einige Personen an einer bakteriologisch identifizierten Pest. Daraufhin machte man Jagd auf Ratten, und von den 568 gefangenen Exemplaren wiesen 17 Pestbakterien auf. Alle in dieser ländlichen Gegend waren Wanderratten. Aber man kann sicher davon ausgehen, dass die Schwarze Ratte der wichtigste Vermittler der Pestepidemie von Indien 1898 bis Madagaskar 1998 gewesen ist. Der Floh bleibt nur bei lebenden Tieren. Sobald das befallene Lebewesen erkaltet, verlässt der Floh den Wirt. Krankheitsentstehung. Wenn bei der Infektion ausreichend viele Bakterien in die Blutbahn gelangt sind, so dass die körpereigene Abwehr ihrer nicht mehr Herr wird, kommt es nach kurzer Zeit zu einer hohen Bakterienkonzentration im Blut, die dann zu einer Sepsis führt. Die blutvergiftende Wirkung wird ausgelöst, wenn die Bakterien ihren normalen Lebenszyklus vollenden und absterben. Dabei werden große Mengen toxischen Sekrets direkt in den Blutkreislauf abgegeben; Nieren und Leber können nekrotisch werden, wenn sie versuchen, den Organismus von Toxinen zu reinigen. Am Ende erliegt das Opfer einem toxischen Schock. Klinische Erscheinungen. Man unterscheidet vier Erscheinungsformen der Pest: Beulenpest, auch "Bubonenpest" genannt (griechisch ' „Beule“), Pestsepsis, Lungenpest sowie die abortive Pest'". Bei Pandemien treten alle Formen der Erkrankung auf, am häufigsten jedoch die Beulenpest und die Lungenpest. Aus einer Beulenpest entwickelt sich ohne Behandlung oftmals eine Pestsepsis, die zu einer Lungenpest führt. Selten tritt auch die Pestmeningitis auf, wenn die hämatogene Streuung der Pesterreger ("Yersinia pestis") nach Beulenpesterkrankung die Hirnhäute befällt. Beulenpest. Bei der Beulenpest erfolgt die Ansteckung gewöhnlich durch den Biss eines Rattenflohs, der den Erreger als Zwischenwirt in sich trägt. Durch den Wirtswechsel wird das Bakterium von einem infizierten auf ein bislang gesundes Nahrungsopfer übertragen, nachdem es sich im Floh vermehrt hat. Die Inkubationszeit liegt bei wenigen Stunden bis sieben Tagen. Die Symptome sind Fieber, Kopf- und Gliederschmerzen, starkes Krankheitsgefühl und Benommenheit. Später kommt es zu Bewusstseinsstörungen. Der Name Beulenpest stammt von den stark geschwollenen, sehr schmerzhaften Beulen am Hals, in den Achselhöhlen und in den Leisten, die durch die Infektion der Lymphknoten und Lymphgefäße im Bereich des Flohbisses entstehen. Diese Beulen können einen Durchmesser von bis zu zehn Zentimetern erreichen und sind aufgrund innerer Blutungen in den Lymphknoten blau-schwarz gefärbt. Die Geschwülste zerfallen, nachdem sie eitrig eingeschmolzen sind. Pestsepsis. Die Pestsepsis entsteht durch Eintritt der Bakterien von ihrem Vermehrungsort in die Blutbahn. Dies kann durch Infektion von außen, zum Beispiel über offene Wunden, geschehen, aber auch als Komplikation aus den beiden anderen schweren Verlaufsformen, zum Beispiel durch Platzen der Pestbeulen nach innen. Die Erreger im Blut verteilen sich mit dem Blutstrom im gesamten Körper. Die Infektion bewirkt hohes Fieber, Schüttelfrost, Kopfschmerzen und ein allgemeines Unwohlsein, später Schock, großflächige Haut- und Organblutungen (Name: "schwarzer Tod"). Pestsepsis ist unbehandelt praktisch immer tödlich, in der Regel spätestens nach 36 Stunden. Heute kann durch die Behandlung mit Antibiotika die Sterblichkeit deutlich gesenkt werden. Lungenpest. Infizierte LungeStreifige Zeichnungsvermehrung im mittleren Teil der linken Lunge, atypische Lungenentzündung Die Lungenpest ist noch nicht völlig verstanden, da sie heute relativ selten vorkommt. Gleichwohl ist sie interessant, weil sie die einzige Pestform mit spezifischem Ansteckungsweg und Ausbreitungsmuster ist. Sie dürfte der Influenza ähneln, wenn auch die Ausbreitungskraft wesentlich schwächer ist. Die Ausbreitung ist so spezifisch, dass sie nur unter besonders günstigen Umständen zur Epidemie werden kann. Zunächst sind die Ansteckungsquellen selten. Nur ein kleiner Teil der pestinfizierten Bevölkerung bekommt Lungenpest. Man kann zwar durch Säugetiere angesteckt werden, aber dabei handelt es sich in aller Regel um Schoßtiere. So hatten sich die meisten Patienten mit Lungenpest in Amerika in den letzten 10 Jahren an infizierten Katzen angesteckt. Die physische Nähe zur Pestquelle ist eine weitere Voraussetzung. Der kritische Abstand zum Gesicht eines Lungenpestkranken für eine Ansteckung liegt bei 30 cm und darunter. Im Gegensatz zu den Influenza-Viren sterben die Pestbakterien in der Luft rasch ab. Ein weiteres Moment, das die Ausbreitung vermindert, ist, dass die Infizierten sehr schnell sterben und damit nur eine geringe Zeitspanne verbleibt, in der die Lungenpest weitergegeben werden kann. Die Inkubationszeit wird mit 1 bis 3 Tagen angegeben, die Sterblichkeitsrate liegt bei 95 %, und der ansteckungsgefährliche Bluthusten tritt erst im fortgeschrittenen Stadium der Krankheit auf. Gleichwohl sind im 20. Jahrhundert Lungenpestepidemien dokumentiert, die von pestinfizierten Reisenden ausgelöst wurden. Die beiden größten Lungenpestepidemien traten Anfang des 20. Jahrhunderts in der chinesischen Grenzregion Mandschurei auf. Das Auftreten war vor allem an ein kaltes Klima geknüpft. Die Epidemie in der Mandschurei 1910–1911 fand im Winter (September – April) statt und war an die Hauptverkehrswege geknüpft. Die Pest wurde über 2.700 km innerhalb von 7 Monaten transportiert. Es starben um die 60.000 Menschen. Wu Lien-Teh beobachtete, dass die Lungenpest in der Mandschurei an die Jagd auf die Tabarganer oder auch Sibirischen Murmeltiere ("Marmota sibirica") gekoppelt und auf den wertvollen Pelz zurückzuführen war. Der Preis für die Felle war vor 1910 um das Vierfache gestiegen. Heutige Erfahrungen haben gezeigt, dass die Lungenpest regelmäßig mit der Erkrankung von Nagetierpopulationen auftritt. Der Zusammenhang zwischen der Lungenpest und einer vorangegangenen Nagererkrankung mit epidemischer Beulenpest ist gut dokumentiert. Wenn die Erreger bei einer Beulenpest über die Blutbahn im Verlaufe einer Pestsepsis in die Lunge geraten, spricht man von sekundärer Lungenpest. Wird sie aber durch eine Tröpfcheninfektion von Mensch zu Mensch übertragen, spricht man von primärer Lungenpest. Die Lungenpest verläuft heftiger als die Beulenpest, weil die Abwehrbarrieren der Lymphknoten durch direkte Infektion der Lunge umgangen werden. Sie beginnt mit Atemnot, Husten, Blaufärbung der Lippen und schwarz-blutigem Auswurf, der extrem schmerzhaft abgehustet wird. Daraus entwickelt sich ein Lungenödem mit Kreislaufversagen, welches unbehandelt nach zwei bis fünf Tagen zum Tod führt. Abortive Pest. Die abortive Pest ist die harmlose Variante der Pest. Sie äußert sich meist nur in leichtem Fieber und leichter Schwellung der Lymphknoten. Nach überstandener Infektion werden Antikörper gebildet, die eine langanhaltende Immunität gegen alle Formen der Krankheit gewährleisten. Untersuchungsmethoden. Die Diagnose erfolgt über den Nachweis der Erreger im Blut, im Sekret der Beulen oder bei der Lungenpest im Auswurf. Das französisch-madagassische Forschungsteam um Suzanne Chanteau vom Institut Pasteur de Madagascar (IPM) hat sowohl für die Lungen- als auch die Beulenpest 2003 einen Schnelltest entwickelt, mit dem sich Antikörper schon innerhalb von 15 Minuten nachweisen lassen. Davor ließen beide Erkrankungen sich erst nach einer 14-tägigen Auswertungsdauer nachweisen. Bei den immerhin noch jährlich 4.000 weltweit auftretenden Pestfällen ist eine rasche Diagnose innerhalb von 24 Stunden entscheidender Bestandteil einer erfolgreichen Behandlung. In 20 Ländern, vor allem in Afrika, tritt die Pest heute vermehrt auf. Die zunächst vieldeutigen und oft nur schwachen Symptome erforderten bislang in der Regel bakteriologische Untersuchungen, manchmal sogar über die DNA für eine eindeutige Zuordnung. Dabei sind Verwechselungen mit Blinddarmentzündung, Hirnhautentzündung und Streptokokkeninfektionen in den USA dokumentiert. Der mikrobielle Nachweis wird aus Sputum, Blut oder Bubonenaspirat (Eiter) erhoben. Epidemiologie. Die Pestausbreitung in den Epidemien von 1910 und 1921 ist auch auf die Entwicklung der Transportmittel zurückzuführen. 1921 traten die Pestfälle vor allem an den Eisenbahnstationen von Harbin bis Wladiwostok auf. Harbin war der Knotenpunkt zwischen der transsibirischen und der südmandschurischen Eisenbahn und besonders betroffen. Aber auch die Reise zu Pferd verbreitete die Pest über weite Strecken, wie die Pestausbrüche in den Jahren 1878–1925 in Astrachan und dem südlichen Ural beweisen, wo es keine Eisenbahnverbindungen gab. Es starben über 5.000 Menschen, davon 70 % an Lungenpest. Schuld am Ausbruch waren dort die unhygienischen Wohnverhältnisse: Dunkel, schmutzig und überbelegt. 10–15 Menschen wohnten auf ca. 10 m². Die Menschen wuschen sich selten oder nie und wechselten auch die Kleider nicht. Die Pestkranken wurden von vielen Menschen besucht, und die Gäste wischten den Auswurf mit Händen oder Kleidern ab. Dies galt auch für die Pestepidemie von 1910, wo die Tarbagan-Jäger sich als erste bei der Jagd nach Murmeltieren zur Gewinnung der Murmelfelle an den verseuchten Tieren ansteckten. Sie schliefen in besonders kleinen Hütten, bis zu 40 Mann in Kojen, was die Weiterverbreitung begünstigte. Ein weiteres Indiz waren die Verhältnisse an den Bitumen-Gruben am See Dalai Nur. Während der Pestepidemie von 1921 arbeiteten dort 4.000 Chinesen und 2.000 Russen. Von den insgesamt 1.027 Toten waren nur 4 Russen. Die Chinesen lebten zusammengepfercht in kleinen Hütten, halb in die Erde eingegraben, die Russen lebten in oberirdischen Häusern. Die Übertragung der Lungenpest per Tröpfcheninfektion kam also am Anfang des 20. Jahrhunderts durchaus vor. Verlauf einer Epidemie. Der endemische Verlauf der Pest folgt einem für diese Seuche typischen Muster, das so bei keiner anderen Seuche festzustellen ist: Der Tod setzt bei Ratten nach Befall einer Kolonie mit der Zeit immer schneller ein. Während anfangs mit ca. 7 Flöhen pro Ratte diese einen normalen Krankheitsverlauf zeigen, wird der Befall mit der Dezimierung der Kolonie bei den verbleibenden Ratten immer stärker, so dass 50 bis 100 Flöhe pro Ratte vorkommen, was zu einer wesentlich höheren Verseuchung führt. Nach 10 bis 14 Tagen ist die Rattenkolonie so stark reduziert, dass die Flöhe kaum noch Wirte finden. Diese Dauer von 10 bis 14 Tagen ist die erste wichtige Phase der Verbreitung. Danach nehmen die Flöhe ungefähr 3 Tage lang kein Blut auf, bis ihr Drang so groß ist, dass sie, da sie keine Ratten finden, nunmehr den Menschen anfallen. Es folgt die Inkubationsperiode von 3 bis 5 Tagen. Dieser folgt die Krankheitsperiode von 3 bis 5 Tagen, die bei der Mehrzahl der Befallenen zum Tode führt. Von der Ansteckung bis zum Tode vergehen durchschnittlich 8 Tage. Von der Erstinfizierung einer Rattenkolonie bis zum ersten Todesfall vergehen also 20 bis 28 Tage, gewöhnlich sind es 24 Tage. Der Kontakt zwischen verseuchten und frischen Rattenkolonien führt zu einer langsamen Ausbreitung. Wichtiger ist der Ausbreitungsprozess über die Besuchspersonen. Sie nehmen die verseuchten Flöhe nach Hause mit und stecken so die eigene Rattenkolonie an. Das bedeutet, dass diese Form der Ausbreitung sich erst auswirkt, wenn die Pest bei einem Menschen sichtbar ausgebrochen ist, so dass im Spätmittelalter diese Form der Ausbreitung mit Krankenwache, Totenwache, Begräbnisfeier und Erbteilung einsetzte. Dieser Zeitpunkt ist etwa 3 bis 4 Wochen nach dem Einschleppen der Pest an einen Ort erreicht. Eine Woche später hat sich die Pest auf die Heimathöfe der Besucher verteilt, und die epidemische Phase beginnt. Bis dahin sind also ungefähr 40 Tage oder 5 1/2 Wochen vergangen. Ein weiteres typisches Kennzeichen der Pestepidemie ist der Zusammenbruch im Winter. Es ist keine Epidemie der Beulenpest in einem Winter bekannt. Das hängt damit zusammen, dass bei Kälte die septische Bakteriendichte in den Ratten geringer ist, so dass die Flöhe weniger Bakterien aufnehmen, und damit, dass sich die Flöhe bei Kälte nicht vermehren. Das Ende von Pestepidemien, die durch Flöhe verbreitet werden, fällt regelmäßig auf die Wintermonate. Wurde die Pest erst im Spätherbst eingeschleppt, brach sie erst im nächsten Frühjahr aus. Wilde Nagetierpopulationen als Rückzugsgebiet des Pestbakteriums. Die Pestbakterien kommen auch heute noch in wild lebenden Nagetierpopulationen vor – wie beispielsweise bei den Präriehunden, Erdhörnchen und Murmeltieren. Diese Populationen sind die natürlichen Reservoire des Pestbakteriums, von denen aus gelegentlich häusliche Nager wie beispielsweise Ratten infiziert werden. Während in Europa und Australien keine infizierten Tierpopulationen bekannt sind, kommen solche im Kaukasus, in Russland, in Südostasien, der Volksrepublik China, der Mongolei, Süd- und Ostafrika, Mittel- und Südamerika sowie im Südwesten der USA vor. Nach Nordamerika gelangte der Erreger dabei über ein Handelsschiff während einer Pestepidemie, die ab 1894 in Südostasien grassierte. Obwohl nur sehr wenige Menschen in Nordamerika an der Pest erkrankten, infizierte der Erreger die amerikanische Eichhörnchenpopulation. Gelegentlich kommt es daher auch heute noch in Nordamerika zu Übertragungen von Tier zu Mensch. Meist sind es Jäger, die sich bei einem Nagetier anstecken. Norman F. Cantor verweist jedoch auch auf einen nordamerikanischen Fall aus den 1980er Jahren, bei dem eine Frau ein Eichhörnchen mit einem Rasenmäher überfuhr und sich dabei mit der Pest infizierte. Weltweit registriert die Weltgesundheitsorganisation (WHO) etwa eintausend bis dreitausend Pestfälle pro Jahr, meistens in Form kleinerer, örtlich begrenzter Epidemien. In Europa gab es den letzten dokumentierten Pestausbruch im Zweiten Weltkrieg. Man nimmt an, dass die Pest gegenwärtig in Europa nicht mehr existiert. Behandlung. Behandelt wird die Pest heutzutage mit Antibiotika, und bei frühzeitiger Erkennung bestehen gute Chancen auf Heilung. Eingesetzte Wirkstoffe sind beispielsweise Streptomycin und Chloramphenicol sowie Kombinationen aus Tetracyclinen und Sulfonamiden. Chloramphenicol ist zwar hochwirksam, gilt aber wegen seiner Nebenwirkungen nur als Reservemedikament. Anzumerken bleibt, dass dies jedoch nur bei rechtzeitiger Diagnose der Fall ist. Die Letalität steigt exponentiell zum Fortschreiten der Erkrankung. In Entwicklung sind derzeit Hemmstoffe, die ein Enzym des Bakteriums blockieren sollen, das eine wichtige Rolle beim Aufbau der Zellschutzmembran spielt, ohne die das Bakterium nicht überleben kann. Vorbeugung. Es stehen Schutzimpfungen zur Verfügung, die aber eine Immunität lediglich für drei bis sechs Monate gewähren, und dies auch nur bei der Beulenpest, nicht aber bei der Lungenpest. Die Autoren Eberhard-Metzger und Ries weisen jedoch auf die schlechte Verträglichkeit dieser Schutzimpfungen hin. Die Weltgesundheitsorganisation empfiehlt die Impfung daher nur Risikogruppen, zu denen beispielsweise Bauern, Landarbeiter und Jäger in Regionen zählen, in denen infizierte Nagetierpopulationen verbreitet sind. Weitere Maßnahmen, um eine Pestepidemie einzudämmen, sind verbesserte Hygiene, Bekämpfung der Ratten und die Verhinderung des Transports von Ratten auf Schiffen. Da nach dem Tod der Ratten die Flöhe ihren Wirt wechseln, müssen die Menschen mit Insektiziden vor den Flöhen geschützt werden. Die Pest gehört neben den hämorrhagischen Fiebern (Ebola, Lassa und anderen) in Deutschland zu den zwei Quarantäne-Krankheiten nach § 30 Infektionsschutzgesetz. Derart erkrankte Patienten müssen in speziellen Infektionsabteilungen abgeschirmt werden. Länderübergreifende Quarantäneregelungen für Schiff-, Luft-, Zug- oder Kraftfahrzeugverkehr sind in den Internationalen Gesundheitsvorschriften von 1971 festgehalten. Ein Hinweis auf die Pest, die Erkrankung an oder der Tod durch Pest müssen in Deutschland nach dem Infektionsschutzgesetz auch bei Verdacht namentlich gemeldet werden. Die Meldungen werden von den Gesundheitsämtern an die Landesgesundheitsbehörde und das Robert-Koch-Institut weitergeleitet. Das Robert-Koch-Institut meldet sie gemäß internationalen Vereinbarungen an die Weltgesundheitsorganisation. Geschichte. Sehr lange war umstritten, ob bereits die spätantike Justinianische Pest, die ab 541 Europa und Vorderasien schwer traf und um 770 wieder verschwand, durch einen Erreger vom Stamm "Yersinia pestis" verursacht wurde. Schließlich zeigte Anfang 2013 eine an verschiedenen Laboratorien parallel durchgeführte internationale Studie unter der Leitung von Michaela Harbeck und Holger C. Scholz anhand von DNA-Material aus Gräbern aus Aschheim, die eindeutig in das spätere 6. Jahrhundert datiert werden können, dass es sich tatsächlich um den Erreger "Yersinia pestis" gehandelt hat. Zudem gelang eine phylogenetische Einordnung des betreffenden Erregers zwischen den frühen Stammbaum-Abzweigungen N03 und N05. Mithin kann es nach aktuellem Forschungsstand als nahezu gesichert gelten, dass ein Erreger vom Stamm "Yersinia pestis" an der Justinianischen Pest zumindest prominent beteiligt war und es sich bei der Seuche somit tatsächlich um die Pest gehandelt hat. Als erster Ausbruch der Krankheit hatte bis 2013 vielen Forschern der Schwarze Tod von 1347 bis 1351 gegolten. Wieso die Pest um 770 für mehrere Jahrhunderte wieder aus Europa verschwunden zu sein scheint, ist bislang ungeklärt. Forschungsgeschichte. Mit der Pestpandemie von 1890 in Indochina begann die moderne Beschreibung der Krankheit. Alexandre Yersin hatte den Bazillus isoliert und der Pest zugeordnet. Gleichzeitig wurde in Indien von dem Franzosen Paul-Louis Simond die Ausbreitung von der Schwarzen Ratte ("Rattus rattus") über den orientalischen Rattenfloh auf den Menschen entdeckt. Das führte zu einer Beschreibung der Pest als einer einheitlichen Krankheit. Die Entdeckung der Ausbreitung der Pest in Indien hatte eine beherrschende Bedeutung in der Anschauung der Pest in ihrer heutigen Bedeutung als moderne Krankheit. Sie führte zunächst zu der Auffassung, dass es nur diese eine Art der Ausbreitung der Krankheit gebe. Inzwischen haben sich die Forschungen auf eine große Zahl von Nagern und eine große Zahl von Floharten ausgeweitet. Die hohe Sterblichkeit in den Kolonien führte zu erhöhten Forschungsanstrengungen mit einer Kartografie der epidemischen Züge. Dass es sich immer um die Pest handele, war nicht hinterfragter Ausgangspunkt. So wurde die Krankheit mit dem historischen Begriff "Pest" belegt und auch die Bakterien danach benannt. Die Identität der mittelalterlichen Pest mit der in Indien erforschten Seuche wurde vorausgesetzt. Bei der Erforschung der Pest und ihrer Ausbreitung waren die Vorgaben der englischen Pestforschungskommission maßgeblich, die 1905 nach Indien entsandt worden war. Viele Forschergruppen reisten nach Indien, darunter auch eine deutsche mit Wissenschaftlern aus der Umgebung Robert Kochs. Diese stellten 1897 fest: „Aus vielen Orten ist berichtet, dass dem Ausbruch der Pest eine seuchenartige Krankheit und massenhaftes Sterben der Ratten voranging.“ Eine vom indischen Vizekönig eingesetzte englische Kommission verkündete 1910 definitiv, dass die Pestepidemie in Indien direkt von der Pest in der Rattenpopulation abhängig sei. Für andere Tiere als Wirtstier wurden keine Belege gefunden. Dabei unterschied die Kommission zwischen Beulenpest und anderen klinischen Formen. Alle Beobachtungen deuteten darauf hin, dass die Pestepidemien ausschließlich in Form der Beulenpest auftraten. Die Ansteckung der Ratten untereinander geschah nachweislich durch die Flöhe. (Zum Nachweis wurden gesunde und kranke Ratten getrennt gehalten, wobei die Trennung für die Flöhe durchlässig war.) Hinsichtlich der Pest bei den Menschen zog die Kommission eine Reihe von Schlüssen: 1. Die Pest wird nicht von Mensch zu Mensch übertragen, denn die Pfleger in den Krankenhäusern steckten sich nicht an. 2. Die Epidemie war nach ihrer Meinung fest mit der Epidemie unter den Ratten verknüpft. 3. Die in Indien vorherrschende Flohart "Pulex cheopis", heute "Xenopsylla cheopis", hatte sich erwiesen als eine, die auch Menschen anfällt, insbesondere, wenn ihre natürlichen Wirtstiere fehlten. Wiederholte Versuche mit Meerschweinchen und Affen in pestverseuchten Häusern zeigten, dass sie erkrankten, wenn sie nicht gegen Flöhe geschützt wurden. Weder pestverseuchter Boden noch die Kleider oder das Bettzeug von Pestkranken waren im Stande, ohne Flöhe mit Pest anzustecken. Da die Kommission experimentell feststellte, dass die Pestbakterien nur wenige Tage außerhalb eines Wirtstiers überleben konnten, kam sie zu dem Schluss, dass die Pest in den Landstädten von außerhalb hereingetragen worden sein musste. Da in den Großstädten die Pest auch außerhalb der pestgefährlichen Monate auftrat, meinte sie, dass die Pest dort in kleinen Rattenpopulationen oder einzelnen Menschen als Reservoir zwischen den Pestsaisonen erhalten blieb. Bei einem Untersuchungsgebiet in der Größe Indiens stellte sich die Frage nach den Ausbreitungswegen. Da die Ratten kaum große Distanzen zurücklegen konnten, meinte die Kommission, dass die Verbreitung in bislang pestfreie Zonen über den Warenverkehr stattgefunden haben müsse. Diese Untersuchungen und Schlussfolgerungen bezogen sich ausschließlich auf die in Indien damals aufgetretene Beulenpest. Genomentschlüsselung. Schwarzer Tod 2011 wurde das Genom des "Yersinia-pestis"-Stammes beschrieben, der von 1348 bis 1350 während der Zeit des „Schwarzen Todes“ Menschen in England infiziert hatte. Mit den Ergebnissen kann die Evolution von Krankheitserregern besser nachvollzogen werden. Laut Studie veränderten sich die Pesterreger seit der Epidemie zwischen 1348 und 1353 kaum. Vermutungen, der Erreger sei in Ostasien im 13. oder 14. Jahrhundert entstanden, was bedeutete, dass frühere Pestepidemien wie die Justinianische Pest, die im 6. Jahrhundert weltweit zum Tod von mehr als 100 Millionen Menschen führte, von einem anderen, bisher nicht identifizierten Erreger verursacht worden wären, stellten sich Anfang 2013 als falsch heraus: Auch die Infektionen aus dem 6. Jahrhundert sind auf den Erreger Yersinia pestis zurückzuführen. Das Erbmaterial der jahrhundertealten Pesterreger gewannen die Forscher aus den Skeletten von Pestopfern, die im Mittelalter auf dem East-Smithfield-Friedhof in London begraben wurden. Dieser Friedhof gilt als der am besten dokumentierte Pestfriedhof in ganz Europa; er wurde nur drei Jahre lang – von 1348 bis 1350 – benutzt. Die Pest heute. Die Pest ist auch heute noch nicht besiegt: Von 1978 bis 1992 meldete die Weltgesundheitsorganisation (WHO) 1451 Todesfälle in 21 Ländern. In den USA gab es beispielsweise 1992 dreizehn Infektionen und zwei Todesfälle. Eine größere Pestepidemie ereignete sich von August bis Oktober 1994 im indischen Surat. Die WHO zählte 6344 vermutete und 234 erwiesene Pestfälle mit 56 Toten. Der dort festgestellte Pesterreger wies dabei bislang noch nicht beobachtete Eigenschaften auf. Er zeichnete sich durch eine schwache Virulenz aus und gilt aufgrund einiger molekularbiologischer Besonderheiten als neuartiger Erregerstamm. Im Jahr 2003 kam es in Algerien nach 50 Jahren wieder zu einem Pestausbruch. Im Februar 2005 breitete sich die Lungenpest in Bas-Uele im Norden der Demokratischen Republik Kongo aus. Nach Berichten der WHO gab es 64 Tote. Durch das Eingreifen der Organisation Ärzte ohne Grenzen konnte eine weitere Verbreitung verhindert werden. Am 14. Juni 2006 wurden im Kongo 100 Pesttote gemeldet, wobei die am stärksten betroffene Region der Distrikt Ituri im Nordosten war mit bis zu 1000 Fällen pro Jahr, sowohl Lungenpest als auch Beulenpest. Anfang 2008 brach auch in Madagaskar die Pest aus, 18 Menschen fanden dabei den Tod. 2010 starben 18 Menschen. Von Jahresbeginn bis März 2011 waren 60 Menschen gestorben und 200 weitere erkrankt. Betroffen sind vor allem abgeschiedene Regionen wie der Bereich um das Städtchen Ambilobe im Nordwesten, weitere Fälle gab es im Osten und im Hochland. Im November 2008 wurde ein erneuter Ausbruch der Erkrankung in Uganda von den lokalen Zeitungen gemeldet. Betroffen waren insgesamt zwölf Menschen, von denen drei starben. In den südwestlichen US-amerikanischen Bundesstaaten treten immer wieder Pestfälle auf. Das silvatische Erregerreservoir bilden hier Präriehunde. Werden erkrankte Präriehunde von Hauskatzen erbeutet, so erkranken diese in 10 % der Fälle an Lungenpest und scheiden große Mengen des Erregers aus. Sie sind dann eine Infektionsquelle für den Tierbesitzer und andere Kontaktpersonen. Insgesamt erkranken in den USA jährlich zehn bis zwanzig Menschen an der Pest, wobei die Zahlen rückläufig sind. Dies wird vom Osloer Biologen Nils Christian Stenseht auf den Klimawandel zurückgeführt. Anfang August 2009 wurde in Ziketan in der tibetisch geprägten Provinz Qinghai im Nordwesten Chinas bei elf Menschen die Infektion mit Lungenpest festgestellt, ein Mensch starb. Ende 2013 starben im abgelegenen Norden der Tropeninsel Madagaskar im Bezirk Mandritsara 20 Menschen an der Lungenpest. Seit September 2013 sind in vier verschiedenen Bezirken auf Madagaskar 36 Menschen der Infektionskrankheit zum Opfer gefallen. Im Jahr 2014 starben in Madagaskar, in einem Mitte November noch grassierenden Pest-Ausbruch, erneut mindestens 40 Menschen. Ebenfalls 2014 wurde eine chinesische Kleinstadt unter Quarantäne gestellt, nachdem ein Mann an der Pest gestorben war. Kulturelle Aspekte. "Die Pest" (Arnold Böcklin, 1898) Die Pestsäule am Wiener Graben In der Stadt Flörsheim am Main wird seit 1666 bis in die Gegenwart am letzten Montag im August der sogenannte „Verlobte Tag“ zum Dank für die Verschonung der Bevölkerung von der Pest als örtlicher Feiertag begangen. Arnold Böcklin schuf zu diesem Thema 1898 in Italien das Bild "Die Pest/Der Schwarze Tod", das heute im Kunstmuseum Basel ausgestellt ist. Böcklin personifiziert die Pest in seinem Bild als einen auf einem fliegenden Ungeheuer reitenden Sensenmann, vor dem es kein Entrinnen gibt. Die Sense und die skelettartige Gestalt greifen auf die mittelalterliche Todessymbolik zurück. Nach einem Drehbuch von Fritz Lang entstand 1919 als erster Film der Monumentalfilmreihe "Decla-Weltklasse" der Stummfilm "Pest in Florenz", in dem die Pest das Florenz der Renaissance heimsucht. In der letzten Sequenz des Filmes zieht eine Personifikation der Pest tanzend und Geige spielend als eine Form des Totentanzes durch die Stadt. Die Darstellung der Pest dabei zeigt sehr deutliche Bezüge zu Arnold Böcklins "Pest". 1921/1922 drehte F. W. Murnau den Stummfilm "Nosferatu – Eine Symphonie des Grauens", in dem ein Vampir symbolisch mit der Pest gleichgesetzt wird und deren bildhaft-körperliche Personifizierung darstellt. Noch deutlicher ist diese Metaphorik in Werner Herzogs Tonfilm-Adaption "Nosferatu – Phantom der Nacht" mit Klaus Kinski in der Titelrolle herausgearbeitet. Veit Harlan schildert in seinem 1938 gedrehten Seuchendrama "Verwehte Spuren" einen angeblich authentischen Pestfall während der ersten Pariser Weltausstellung im Jahr 1867. Ingmar Bergman drehte 1957 "Das siebente Siegel" ("Det sjunde inseglet") mit Max von Sydow, der Film spielt im 14. Jahrhundert. Albert Camus schrieb den Roman "Die Pest" (fr. "La Peste") über einen neuzeitlichen Pestausbruch in der algerischen Stadt Oran (publiziert 1947). Darin trifft ein Arzt trotz der Aussichtslosigkeit und Absurdität des Kampfes gegen die Pest auf Menschlichkeit und Solidarität. Die Pest wird hierbei oft als Symbol für den Nationalsozialismus interpretiert. Auch Marcel Pagnol schrieb eine Erzählung über die Pest. Sie hat die Verwüstung von Marseille 1720 zum Thema. "Les Pestiférés" erschien postum 1977 in Band IV der "Souvenirs d’Enfance", "Le Temps des Amours". Jens Peter Jacobsen veröffentlichte 1881 die Novelle "Pesten i Bergamo" ("Die Pest in Bergamo"). Die Oberammergauer Passionsspiele finden als Einlösung eines Versprechens nach der überstandenen Pest 1634 statt. Seit 1680 finden sie in 10-jährigem Rhythmus statt und zählen zu den weltweit bekanntesten – wenn nicht den bekanntesten – Passionsspielen. Der Pesterreger als biologische Waffe. Der Pesterreger wird von der Weltgesundheitsorganisation zu den zwölf gefährlichsten biologischen Kampfstoffen gezählt. Zu diesem sogenannten "dreckigen Dutzend" gehören neben dem Erreger der Pest auch die des Milzbrands und der Tularämie sowie Pocken-, Ebola- und Marburg-Viren. Es gibt die populäre Hypothese, dass die Pest als biologische Waffe bereits im 14. Jahrhundert zum Einsatz kam - als 1346 in der genuesischen Hafenstadt Kaffa auf der Krim der Tatarenführer Dschanibek Pestleichen über die Mauern der Stadt werfen ließ und die Belagerten vor der Pest nach Italien flüchteten. Dies ist jedoch kontrovers und nicht eindeutig belegt. Während des zweiten Chinesisch-Japanischen Krieges stellte die japanische Armee im "Einheit 731" genannten Gefangenenlager bei Harbin in der Mandschurei Waffen her, die mit Pest infizierte Flöhe enthielten und deren Einsatz in der Republik China in den Jahren 1940 bis 1942 lokale Pestausbrüche verursachte. Bei der Zerstörung der Produktionsstätten durch die japanische Armee 1945 bei Kriegsende kamen mit Pest infizierte Ratten frei und lösten in den chinesischen Provinzen Heilongjiang und Jilin eine Epidemie mit über 20.000 Todesopfern aus. Zur Zeit des Kalten Krieges beschäftigten sich sowjetische Wissenschaftler (Im Institut Biopreparat unter Leitung von Ken Alibek) des Direktorium-15 mit dem Einsatz von Pesterregern als biologischer Waffe. Wie der ehemalige Forscher für biologische Waffen Alibek berichtete, gelang es der Sowjetunion Ende der 1980er Jahre, die Pest in eine sprühbare Form zu bringen und gegen Antibiotika resistent zu machen. In Deutschland beschäftigt sich das Robert-Koch-Institut mit den Gefahren durch biologische Kampfführung. Dort wurde auch die "Informationsstelle des Bundes für biologische Sicherheit" (IBBS) eingerichtet. Wie groß die Gefahr eines Angriffs mit biologischen Kampfstoffen tatsächlich ist, ist umstritten. Die IBBS rät nicht zu einer Impfung gegen die Pest in Deutschland. Diese Empfehlung gilt sowohl für die Bevölkerung insgesamt als auch für Risikogruppen. Am 28. August 2014 berichtete „Foreign Policy“ von einem Computer, der in einem ISIS-Versteck gefunden wurde und unter anderem Anleitungen zur Erstellung von Beulenpest-Waffen enthalten soll. Peer-to-Peer. Peer-to-Peer (P2P) Connection (von „Gleichgestellter“, „Ebenbürtiger“) und Rechner-Rechner-Verbindung sind synonyme Bezeichnungen für eine Kommunikation unter Gleichen, hier bezogen auf ein Rechnernetz. In einigen Kontexten spricht man auch von Querkommunikation. In einem reinen "Peer-to-Peer-Netz" sind alle Computer gleichberechtigt und können sowohl Dienste in Anspruch nehmen, als auch zur Verfügung stellen. In modernen P2P-Netzwerken werden die Netzwerkteilnehmer jedoch häufig abhängig von ihrer Qualifikation in verschiedene Gruppen eingeteilt, die spezifische Aufgaben übernehmen. Kernkomponente aller modernen "Peer-to-Peer-Architekturen", die meist bereits als Overlay-Netz auf dem Internet realisiert werden, ist daher ein zweites internes Overlay-Netz, welches normalerweise aus den besten Computern des Netzwerks besteht und die Organisation der anderen Computer sowie die Bereitstellung der Such-Funktion übernimmt. Mit der Suchfunktion ("lookup") können Peers im Netzwerk diejenigen Peers identifizieren, die für eine bestimmte Objektkennung (Object-ID) zuständig sind. In diesem Fall ist die Verantwortlichkeit für jedes einzelne Objekt mindestens einem Peer fest zugeteilt, man spricht daher von "strukturierten Overlays". Mittels der Such-Operation können die Peers nach Objekten im Netzwerk suchen, die gewisse Kriterien erfüllen (z. B. Datei- oder Buddynamen-Übereinstimmung). In diesem Fall gibt es für die Objekte im P2P-System keine Zuordnungsstruktur, man spricht also von "unstrukturierten Overlays". Sobald die Peers, die die gesuchten Objekte halten, in dem P2P-System identifiziert wurden, wird die Datei (in Dateitauschbörsen) direkt, d. h. von Peer zu Peer, übertragen. Es existieren unterschiedliche Verteilungsstrategien, welche Teile der Datei von welchem Peer heruntergeladen werden soll, z. B. BitTorrent. Der Gegensatz zum Peer-to-Peer-Modell ist das Client-Server-Modell. Bei diesem bietet ein Server einen Dienst an und ein Client nutzt diesen Dienst. In Peer-to-Peer-Netzen ist diese Rollenverteilung aufgehoben. Jeder Teilnehmer ist ein "peer", denn er kann einen Dienst gleichermaßen nutzen und selbst anbieten. Typen von Peer-to-Peer-Systemen. P2P-Systeme lassen sich in unstrukturierte und strukturierte P2P-Systeme unterteilen. Zentralisierte und reine P2P-Systeme bezeichnet man als Systeme erster Generation, während dezentrale Systeme als Systeme zweiter Generation bezeichnet werden. Systeme, die Dateien über nicht-direkte Verbindungen weiterreichen, sind Systeme dritter Generation. Siehe dazu auch ausführlich den Begriff Filesharing. Strukturierte P2P-Systeme verwenden oftmals eine Verteilte Hashtabelle (DHT). In strukturierten Systemen können daher Suchen aus einem verteilten Index heraus beantwortet werden. Standardisierung und Zukunft. Die Zukunft der Peer-to-Peer-Technik wird vor allem davon abhängen, ob es gelingt, einen Standard zu definieren – eine Art Plattform-Technik, die es ermöglicht, weitere Anwendungen aufzusetzen. JXTA ist ein solcher Standard, der stark von Sun Microsystems unterstützt wurde und Open Source ist. Sun stellte die zurzeit umfangreichste und stabilste Referenzimplementierung her. Gnutella ist ein weiterer offener Standard, der umfangreich getestet ist, jedoch bisher fast ausschließlich für Dateiverteilung und dezentrales Suchen von Dateien genutzt wird. Außerdem ist es denkbar, dass die Netzwerkübertragungsleistung ähnlich der Rechenleistung bei den PCs steigen wird, sodass die Möglichkeit besteht, dass ein Peer noch den „übernächsten“ Peer kennen kann und dass die Sichtweite eines Peer über Datenbestände und andere Peers weiter anwachsen kann. Potsdamer Platz. Der Potsdamer Platz ist ein Verkehrsknoten in den Berliner Ortsteilen Mitte und Tiergarten im Bezirk Mitte zwischen der alten Innenstadt im Osten und dem neuen "Berliner Westen". Als Doppelplatzanlage schließt er sich westlich an den Leipziger Platz an. Zur Zeit der Berliner Zollmauer lag er direkt vor, der Leipziger Platz hinter dem Potsdamer Stadttor. Seit dem späten 18. Jahrhundert begann hier die Berlin-Potsdamer Chaussee, ein wichtiges Glied im Netz der Preußischen Staatschausseen. Bis zum Zweiten Weltkrieg war der Potsdamer Platz, an dem der Potsdamer Bahnhof lag und auf dem sich viele Straßenbahn- und Omnibuslinien kreuzten, einer der verkehrsreichsten Plätze Europas. Er erhielt eine der ersten Verkehrsampel-Anlagen auf dem Kontinent. Der Platz war auch ein beliebter Treffpunkt der politischen, sozialen und kulturellen Szene Berlins. Nach Kriegsende bildete der Potsdamer Platz ein "Dreiländereck" zwischen dem sowjetischen, dem britischen sowie dem amerikanischen Sektor. 1961 wurde der Platz durch die Berliner Mauer geteilt. Bis zur Öffnung der Mauer fristete der Platz ein randständiges Dasein als innerstädtische Brache. Nach dem 9. November 1989 stellte sich eine völlig neue Situation ein: Schon wenige Tage später wurde am Potsdamer Platz ein Stück der Mauer abgebrochen und ein provisorischer Grenzübergang geschaffen. Das nach 1990 auf dem alten Stadtgrundriss größtenteils neu bebaute Terrain zählt zu den markantesten Orten der Stadt und ist ein touristischer Anziehungspunkt. 18. und 19. Jahrhundert. Das Potsdamer Tor war eines der vierzehn Stadttore der 1734 bis 1737 errichteten Berliner Zollmauer. Vor dem Tor trafen sich Straßen und Wege zu einer fünfarmigen Straßenkreuzung. Die wichtigste Verbindung war die zur Sommerresidenz Potsdam. Hier wurde 1788 bis 1795 die Berlin-Potsdamer Chaussee angelegt, eine der ersten beiden modernen Landstraßen im preußischen Staat. In den Jahren 1823 und 1824 wurde das zwischen Potsdamer und Leipziger Platz liegende Stadttor ("Leipziger Tor" oder auch "Potsdamer Tor" genannt) von dem königlichen Baumeister Karl Friedrich Schinkel baulich ausgestaltet. Die von ihm gestalteten Torhäuschen (die sogenannten „Schinkel“) des "Neuen Potsdamer Thores" blieben auch nach dem Abriss der Akzisemauer 1867 stehen und prägten mit ihrer klassizistischen Architektur den Platz bis zum Ende des Zweiten Weltkriegs. Seit Inbetriebnahme des Potsdamer Fernbahnhofs im Jahr 1838 wurde der damals noch am Stadtrand gelegene Platz Zug um Zug zu einem großstädtischen Umschlagplatz für Menschen und Waren. Besonders nach der Reichsgründung 1871 wurden neue große Gebäude errichtet und gastronomische Betriebe eröffnet, darunter das "Hotel Fürstenhof" am Leipziger Platz, 1880 der Literaten- und Künstlertreffpunkt "Café Josty" und ebenfalls vor der Jahrhundertwende das "Grand-Hotel Bellevue" und das "Palast Hotel". 1900 bis 1945. Seit 1902 lag unter dem Platz der gleichnamige U-Bahnhof, eine der ersten drei Stationen der Berliner U-Bahn, deren erste Linie von hier nach Süden zum U-Bahnhof Gleisdreieck führte. In unmittelbarer Nähe entstand auf dem heutigen Grundstück Potsdamer Straße 10 in den Jahren 1907 bis 1908 nach Plänen des Architekten Otto Stahn das Vox-Haus. Hinter der gemauerten Jugendstilfassade verbarg sich ein Stahlskelettbau. Es beherbergte die Vox-Schallplatten- und Sprechmaschinen-AG und ab 1921 im Dachgeschoss den Sender Funk-Stunde Berlin. Dort begann mit der ersten öffentlichen Hörfunksendung am 19. Oktober 1923 die Geschichte des Hörfunks in Deutschland. Hinter dem Potsdamer Bahnhof wurde 1911/1912 nach Plänen des Architekten Franz Schwechten an der Einmündung der Köthener Straße in die Königgrätzer Straße (ab 1930: Stresemannstraße) das sechsgeschossige "Haus Potsdam" errichtet, eine Mischung aus Vergnügungspalast und Bürohaus mit einer markanten Kuppel zum Platz hin. Zu Beginn des Ersten Weltkriegs im Jahr 1914 wurde das darin gelegene "Café Piccadilly" in "Kaffee Vaterland" umbenannt. Im Haus war ein großes Kino untergebracht, außerdem besaß hier die UFA Büroräume. In den Jahren 1926 bis 1928 wurde das Gebäude umgebaut und erweitert. Unter dem Namen "Haus Vaterland" avancierte es unter Leitung der Gastronomenfamilie Kempinski zu Deutschlands größtem Amüsierpalast. Bekannte Restaurants in dem Gebäude waren die "Rheinterrassen" (mit einer stündlichen Gewittersimulation), das "Wiener Café" und "Weinlokal Grinzing" sowie die bayerische "Bierstube Löwenbräu". Im Zweiten Weltkrieg wurde das Gebäude mehrfach schwer beschädigt. Die Räume des "Kaffee Vaterland" im nördlichen Teil des Gebäudes konnten nach dem Krieg noch mit einfachen Mitteln als "HO-Gaststätte Haus Vaterland" hergerichtet und weiter betrieben werden. Durch die Lage direkt an der Sektorengrenze geriet das große Gebäude in eine innerstädtische Randlage. Nach dem Mauerbau 1961 war es bis zu einem Gebietstausch 1972 nicht mehr zugänglich, verfiel zunehmend und wurde schließlich 1976 abgerissen. Vor dem Haus Potsdam befand sich nordöstlich des Bahnhofs bis 1922 der winzige Friedhof der Dreifaltigkeitsgemeinde und "Mutter Michaelis’ Blumenhalle". Historischer Verkehrsturm am Potsdamer Platz, 1932 Der "Verkehrsturm" prägte ab 1924 das Bild des Platzes. Aufgrund des großen Verkehrsaufkommens hatte der Magistrat die Firma Siemens beauftragt, in Platzmitte die erste Verkehrsampel Berlins (und die zweite Ampelanlage Deutschlands) aufzustellen, deren drei Lichter horizontal – und nicht vertikal, wie heute üblich – angeordnet waren. Als Vorbild dienten die gerade in den USA aufgekommenen Ampeln. Bei den Bauarbeiten für den Nord-Süd-Tunnel wurde der Verkehrsturm in der Nacht vom 1. auf den 2. Oktober 1937 demontiert. Die Gebrüder Wassili und Hans Luckhardt bauten im Jahr 1928 das an der Einmündung der Potsdamer Straße in den Platz befindliche "Telschow-Haus", ein älteres Geschäftshaus, im Bauhausstil um. Das mit einer geschwungenen Fassade aus mehrfarbigem Opalglas verkleidete Haus (1943 kriegszerstört) wurde dadurch zu einem der modernsten Gebäude Berlins. In den Jahren 1930–1932 vervollständigte das zehngeschossige Columbushaus, nach Entwürfen von Erich Mendelsohn erbaut, die Reihe moderner, ehrgeiziger Gebäude am Platz. Seit 1932 führte über den Platz die Fernverkehrsstraße Nr. 1 (ab 1934 Reichsstraße 1), die Aachen mit Ostpreußen verband. Heute ist es bis an die Oder die Bundesstraße 1. Am 6. November 1939, also siebzig Tage nach Beginn des Zweiten Weltkriegs, wurde der S-Bahnhof Potsdamer Platz eröffnet. Als zentrumsnaher Dreh- und Angelpunkt entwickelte sich die Gegend um den Potsdamer Platz auch zu einem großstädtischen Amüsierviertel. Während hier tagsüber Angestellte, Sekretärinnen, Geschäftsleute und Touristen flanierten, bestimmten nachts Amüsierwillige, Varietébesucher und Prostituierte das Bild. Obwohl die Ausübung der Prostitution im kaiserlichen Berlin strengstens untersagt war, entstand seit Beginn des 20. Jahrhunderts rund um den Platz ein veritables Rotlichtmilieu. Verewigt wurde diese Seite des Potsdamer Platzes durch ein bekanntes Gemälde des expressionistischen Künstlers Ernst Ludwig Kirchner, "Potsdamer Platz, 1914", das zwei mondän gekleidete Frauen sowie eine Reihe weiterer Personen vor einem Nachtleben-Hintergrund inszeniert. 1945 bis 1989/1990. Bis in den Zweiten Weltkrieg hinein war der Potsdamer Platz einer der belebtesten Plätze Europas. Nach den Luftangriffen der Alliierten in den 1943/1944er-Jahren lag er jedoch zur Hälfte in Trümmern. Nach Kriegsende wurden die Ruinen rund um den Platz oberirdisch enttrümmert, die Fläche wurde dann einige Zeit als Bau- und Lagerplatz für die zu recycelnden Materialien benutzt. Bald diente das "Dreiländereck" zwischen dem sowjetischen, dem britischen sowie dem amerikanischen Sektor als blühender Schwarzmarkt. Mit der Einführung der Deutschen Mark in den westlichen Sektoren und dem Beginn der Berlin-Blockade im Juni 1948 änderte sich das Bild jedoch bereits wieder und am 21. August des gleichen Jahres markierte die Verwaltung erstmals der Grenzverlauf zwischen dem sowjetischen und den angrenzenden Westsektoren mit einem Strich im Asphalt. In Erwartung eines baldigen Wiederaufbaus wurde – wie auch in anderen Teilen der Stadt – am Potsdamer Platz der verbliebene Rest der Bebauung notdürftig wiederhergerichtet, freilich in verringerten Formen und ohne den Pomp und die Gloria der 1920er Jahre. Zum Beispiel zog in den ehemaligen Vergnügungspalast Haus Vaterland wieder eine Gaststätte ein. Auch in den unteren Stockwerken des ausgebrannten, zehngeschossigen Columbushauses wurde eines der ersten HO-Kaufhäuser eröffnet. Beim Volksaufstand am 17. Juni 1953 brannten das genau an der Grenze des Sowjetsektors gelegene Geschäftshaus, das Haus Vaterland und weitere Gebäude erneut nieder. In den folgenden Jahren machte sich schrittweise praktisch in allen Gebäuden rund um den Potsdamer Platz Leerstand breit, da das gesamte Areal über Jahrzehnte hinweg für Investoren jeglichen Wert verloren hatte. Blick vom Potsdamer Platz, 1975.Im Hintergrund rechts das Haus Vaterland Diese Entwicklung verschärfte sich noch im Jahr 1961, als der Platz durch die Berliner Mauer geteilt wurde. Bis Mitte der 1970er Jahre wurden nahezu alle übriggebliebenen Gebäude abgerissen. Auf der Ostseite des Platzes war hierfür das übersteigerte Sicherheitsbedürfnis der DDR verantwortlich: An keiner anderen Stelle der Berliner Mauer waren die eigentliche Mauer und die "Hinterlandmauer" durch einen derart breiten Todesstreifen voneinander getrennt wie am Potsdamer Platz. Fast alle Gebäude, die innerhalb des Streifens lagen, mussten verschwinden, darunter die an der Ebert- und Stresemannstraße, ebenfalls die Reste des Kaufhauses Wertheim am Leipziger Platz. Erhalten blieb dagegen das ehemalige preußische Landwirtschaftsministerium, heute Sitz des Bundesumweltministeriums, in der Stresemannstraße. Auf der Westseite kaufte der Senat von Berlin nach und nach viele ungenutzte Ruinengrundstücke auf, um auch die letzten Reste der Gebäude entfernen zu lassen, da sie eine Gefahrenquelle darstellten. So wurden unter anderem die Ruinen des Prinz-Albrecht-Palais, des Vox-Hauses, des Völkerkundemuseums oder auch des etwas weiter südlich gelegenen Anhalter Bahnhofs geopfert. Im Jahre 1976 wurden die noch recht beachtlichen Reste des Hauses Vaterland abgetragen. Die Planungen jener Zeit sahen vor, das Gelände für den Bau einer Stadtautobahn zu nutzen, die dann erst nach der Wende in Gestalt des Tunnel Tiergarten Spreebogen gebaut wurde. Ein langsamer Meinungswechsel setzte im Westen aber im Jahr 1981 mit der Wiederherstellung des Martin-Gropius-Baus, des ehemaligen Kunstgewerbemuseums, ein. Bis zur Öffnung der Mauer im Jahr 1989 fristete der Platz ein recht randständiges Dasein als innerstädtische Brache, auf dessen westlichem Teil sich unter anderem ein Rollheimer-Dorf angesiedelt hatte. Außerdem ließen sich eine Handvoll Imbissbuden, Souvenirgeschäfte für Touristen sowie Podeste, von denen aus man einen Blick in den östlichen Teil der Stadt erhalten konnte, nieder. In dem 1987 gedrehten Film "Der Himmel über Berlin" von Wim Wenders spielen einige Szenen auf dem Westteil des Potsdamer Platzes. Der Platz stellte jedoch durch seine zentrale Lage und die Nähe der Entlastungsstraße, über die der West-Berliner Nord-Süd-Verkehr Ost-Berlin umfuhr, noch einen der bekanntesten Punkte dar, an denen man in West-Berlin die sonst vielfach verdrängte Mauer wahrnehmen konnte. 1972 und 1988 ergaben sich wesentliche Änderungen des Grenzverlaufs durch Gebietsaustausch, bei denen das Gelände des ehemaligen Potsdamer Bahnhofs bzw. das Lennédreieck zu West-Berlin kamen. a> am Potsdamer Platz, November 1989 Nach der Öffnung der Berliner Mauer am 9. November 1989 stellte sich nach Jahrzehnten der Vernachlässigung quasi über Nacht eine völlig neue Situation ein: Schon wenige Tage später wurde am Potsdamer Platz ein Stück der Mauer abgebrochen, ein aufgegrabenes Straßenstück asphaltiert und am 12. November 1989 ein provisorischer Grenzübergang geschaffen. Seit 1989/1990. a> des Potsdamer Platzes bei Nacht von Norden gesehen Im Jahr 1990, kurz nach der Öffnung der Mauer, führte Roger Waters das Konzert "The Wall" auf dem Niemandsland zwischen Potsdamer Platz und Pariser Platz auf. Es wurde das bislang größte Konzert in der Geschichte der Rockmusik. In Hinblick auf die Stadtentwicklung stellte sich spätestens seit der deutschen Wiedervereinigung die Frage, wie die traditionelle Klammer zwischen dem östlichen und dem westlichen Zentrum Berlins in Zukunft aussehen sollte. Die Veräußerung der Grundstücke an den damaligen Automobilkonzern "Daimler-Benz AG" (1998–2007 "DaimlerChrysler AG", seit 2007 "Daimler AG") seitens des Berliner Senats erfolgte sehr rasch. Senatsbaudirektor Hans Stimmann versuchte, eine an den traditionellen Traufhöhen und Blockstrukturen Berlins orientierte städtebauliche Anlage durchzusetzen, die im Stil der Postmodernen Architektur gehalten sein sollte. Sie sollte der von Stimmann so bezeichneten „Europäischen Stadt“ und dem Begriff einer „kritischen Rekonstruktion“ entsprechen. Dem entsprach das Projekt der Architekten Hilmer und Sattler mit seiner weitgehend einheitlichen Traufhöhe von 35 Metern. Die unzufriedenen Investoren lancierten allerdings ein Alternativprojekt des internationalen Stararchitekten Richard Rogers, und setzten sich mit ihrem stark verdichteten Konzept einer „(Hochhaus-)City für das 21. Jahrhundert“ durch. Die realisierte Lösung fand nicht nur Zustimmung, sondern zog auch Kritik auf sich. Kritisiert wurde zum Einen die Schnelle der Veräußerung, zum Zweiten die Aufgabe eigenen städtischen Planungswillens und zum Dritten die Tatsache, dass die Investoren die Straßen und Plätze nicht nur errichteten, sondern durch den Eigentumserwerb auch das Hausrecht in einem öffentlich zugänglichen Stadtgelände erwarben. Der Architekt Rem Koolhaas, als einer der Juroren des Potsdamer-Platz-Wettbewerbs, geißelte die Pläne als einem „dilettantischen Bild der Stadt“ entspringend und verließ 1991 die Jury. Befürworter hingegen wiesen auf die angespannte Berliner Finanzlage hin und argumentierten, dass die Neugestaltung der riesigen Brachfläche letztlich nur durch einen kühnen Wurf aus einem Guss möglich sei. Zu den Vorbereitungen der künftigen Neubebauung gehörte auch die Sprengung des "Bellevue-Towers" an der Eichhornstraße im Oktober 1993. Dieses – mit Waschbeton verkleidete – 14-geschossige Hochhaus war im Jahr 1971 als eines der ganz wenigen Neubauten dieser Zeit im Umfeld des Potsdamer Platzes errichtet worden. Ursprünglich als Hotel gebaut, wurde der Bellevue-Tower später als Wohnheim für Studenten und Asylbewerber genutzt und trug zuletzt deutliche Zeichen von Verwahrlosung. Während der 1990er Jahre wurde der Potsdamer Platz zur größten innerstädtischen Baustelle Europas. Von einem als "Infobox" bezeichneten Aussichts-Container auf dem gegenüberliegenden Leipziger Platz konnten Berliner und Touristen den Fortschritt der Bauarbeiten beobachten und Modelle der zukünftigen Bauten betrachten. Grob eingeteilt entstanden auf der an den ehemaligen Potsdamer Platz angrenzenden Brache vier unterschiedliche Komplexe. Das nordwestliche, zwischen der neu angelegten "Entlastungsstraße" und dem (neuen) Potsdamer Platz liegende, 27.000 m² umfassende Sony Center wurde vom US-Amerikaner Helmut Jahn gestaltet. Untergebracht sind in dem dreieckigen Areal Cafés, das Filmmuseum Berlin mit der "Deutschen Kinemathek", Appartements, Büros sowie die europäische Zentrale von Sony. Richtung (neuer) Potsdamer Platz endet das Sony-Areal mit dem Sitz der Holding der Deutschen Bahn in Berlin, dem Bahntower. Im Oktober 1996 wurde mit einem "Kranballett" das Richtfest für das 85 Meter hohe Gebäude der Daimler Benz Tochtergesellschaft "debis" gefeiert. Unter der Leitung von Daniel Barenboim „tanzten“ sieben Minuten lang 19 Krane synchron zu den Klängen des 4. Satzes der 9. Sinfonie von Ludwig van Beethoven (Ode „An die Freude“). Südlich an das Daimler-Benz-Areal schließt sich das Quartier Potsdamer Platz, mit rund 70.000 m² der beherrschende Gebäudekomplex, an. Unter anderem steht hier das von dem italienischen Stararchitekten Renzo Piano entworfene debis-Haus (heute: Atrium Tower) – erkennbar an dem markanten grünen Würfel auf seiner Spitze. Direkt gegenüber dem Bahntower befindet sich ein weiteres markantes Hochhaus: der von Hans Kollhoff im New Yorker Backsteinstil entworfene, 103 Meter hohe Kollhoff-Tower. Laut Eigenaussage enthält er den schnellsten Aufzug Europas und ermöglicht von der oben liegenden Dachterrasse einen guten Überblick über den Potsdamer Platz und seine Umgebung. Auch die restliche Architektur weist teilweise mediterrane Stilzitate auf. Mittelpunkt des Quartiers Potsdamer Platz ist der im Westen gelegene Marlene-Dietrich-Platz. Um ihn herum angesiedelt sind das Theater am Potsdamer Platz (ehemals: "Musical-Theater Berlin"), das Bluemax (Theater der Blue Man Group, ehemaliges "IMAX-Kino"), ein Spielcasino, das Luxushotel Grand Hyatt Berlin sowie Varietébühnen und Restaurants. Durch die Lage zwischen zwei Gebäudereihen im südlichen Block und der Überdachung bilden die Potsdamer Platz Arkaden eine wettergeschützte Einkaufsstraße. Den südlichen Abschluss der Hochhaus-Triade am Platz bildet ein nach Plänen von Renzo Piano errichtetes Gebäude, in dem PricewaterhouseCoopers seine Berlin-Niederlassung hat. Es hat, wie der benachbarte Kollhoff-Tower, einen dreieckigen Grundriss und ist im hinteren Bereich treppenartig gestaltet, sodass es zur nachfolgenden Bebauung überleitet. Der obere senkrechte Teil hat aber im Gegensatz zum Kollhoff-Tower eine verglaste Fassade. Zwei kleinere Baueinheiten komplettieren die Neubebauung der ehemaligen Brache: im Norden das zwischen Sony Center und Tiergarten gelegene, unter anderem von Otto Beisheim errichtete Beisheim Center mit mehreren Hotels wie dem Marriott und dem Ritz-Carlton, und weiter im Süden die Park Kolonnaden – fünf vorwiegend mit Büroraum verplante Gebäude. Am östlichen Ende des Potsdamer Platzes steht das von Hans Kollhoff entworfene Delbrück-Hochhaus, auch bekannt als "P5" (Hausnummer des Platzes). Ebenso wie im Kollhoff-Tower finden sich im Delbrück-Hochhaus renommierte Rechtsanwalts-, Steuerberater-, Wirtschaftsprüfer- und Unternehmensberaterbüros. Unterirdische Tunnel ermöglichen eine Verbindung zwischen den Appartementhochhäusern und dem Bahntower. a> auf die Hochhäuser am Potsdamer Platz Mit dem Tilla-Durieux-Park und dem Henriette-Herz-Park wurden auch zwei Parkanlagen realisiert. Der Tilla-Durieux-Park grenzt über eine schräge, sich der Länge nach um die eigene Achse drehende Wiesenfläche das Quartier Potsdamer Platz von den Park-Kolonnaden ab. Er befindet sich an der Stelle des ehemaligen Potsdamer Bahnhofs. Unter ihm verlaufen die vier Bahnröhren des Tunnels Nord-Süd-Fernbahn. In der Mitte der rechteckigen, 450 Meter langen Grundfläche ist die Rasenfläche unterbrochen. Fünf überdimensional lange Edelstahlwippen sind dort von den Architekten des Parks angeordnet worden. Sie erfüllten damit auf eine etwas andere Art und Weise die Forderung der Politik nach einem Spielplatz. Zwischen Sony Center und Beisheim-Center liegt der vom gleichen Architektenteam entworfene Henriette-Herz-Park. Besonderes Merkmal dieser zweiten, in Richtung des Tiergartens gelegenen Parkfläche ist die in Schollen gegliederte Höhenmodellierung sowie die aus finnischem Granit bestehende Einfassung der Rasenflächen. Sowohl der Tilla-Durieux-Park als auch der kleinere Henriette-Herz-Park ergänzen die Geschäftigkeit des restlichen Areals durch Räume für Ruhe und Entspannung. Beide Parkanlagen erfreuen sich breiter Akzeptanz und werden – vor allem im Sommer – gerne auch als Liegewiesen zur Erholung genutzt. Obwohl Firmenhochhäuser, Geschäfts- und Bürobauten das Bild am neuen Potsdamer Platz bestimmen, ist langfristig eine Wohnfläche von 20 Prozent vorgesehen. Hochgerechnet heißt dies, dass hier einmal 20.000 Menschen wohnen sollen. Aufgrund des Reißbrettentwurfs befürchten Kritiker, dass hier letztlich eine „Stadt in der Stadt“ entsteht. Angemerkt wird bei aller Geschäftigkeit, dass sonst zum metropolitanen Straßenbild dazugehörende Personengruppen wie etwa Obdachlose, Punks oder auch Straßenmusiker am Potsdamer Platz nicht anzutreffen sind und das Ganze so einen sehr synthetischen, künstlichen Charakter aufweise. Zögerlichen Einzug in die lange verödete Berliner Mitte hält die Kultur. Ein wesentlicher Meilenstein war die Eröffnung der Berlinale im Jahr 2000 im Sony Center. Der Innenhof des Sony Centers, die Sony Plaza, war zur Fußball-Weltmeisterschaft 2006 als sportliches Sendezentrum des ZDF umgebaut worden. Zumindest Teile des Areals werden mittlerweile von Einheimischen wie Touristen rege frequentiert. Der Komplex hat sich zur fünftwichtigsten Kaufadresse der Hauptstadt entwickelt. Sogar Skeptiker räumen mittlerweile ein, dass durch die Neubebauung zumindest das Leben wieder an den Potsdamer Platz zurückgekehrt ist. 2008 fand in den Parkkolonnaden erstmals die Expressionale mit Kunst des Expressionismus und der Neuen Sachlichkeit statt. Die Großkonzerne Daimler und Sony haben ihre Areale inzwischen verkauft. Am 13. Dezember 2007 wurde das Daimler-Areal an die Immobilientochter des Finanzdienstleistungskonzerns SEB zu einem unveröffentlichten Preis verkauft, der gewünschte Mindestpreis wurde mit 1,2 Milliarden Euro angegeben. Hierzu gehören unter anderem die Potsdamer-Platz-Arkaden. Das Areal ging 2008 an die Savills Fund Management in Frankfurt, die es in den offenen SEB Immoinvest Fonds eingliederte. Durch die Finanzkrise ab 2007 geriet der Fonds in eine Schieflage durch Kapitalabzug, sodass er im Jahr 2010 offiziell geschlossen wurde und die Besitzungen zum Verkauf standen. Als Filetstück des Fonds mit mehreren Interessenten, verblieb das Daimler-Areal noch mehrere Jahre im Besitz des Fonds - für den vollständigen Abverkauf der Immobilien bestand Zeit bis 2018. Im Februar 2013 wurde der Verkauf des Blocks mit dem Hotel "Grand Hyatt" an die Al Rayyan Tourism and Investment (Artic) bekannt, ein Unternehmen des Emirats Katar. Im Oktober 2015 wurde das restliche Areal an die Brookfield Property Partners mit Sitz in Kanada verkauft. Das restliche 267.000 Quadratmeter umfassende Areal hat dabei geschätzte 1,4 Milliarden Euro eingebracht, womit der SEB Immoinvest insgesamt mit einem Gewinn weiterverkauft hat. Die rote Infobox wurde nach dem Ende der Neubebauung im Jahr 2001 demontiert. Ein ähnliches Bebauungskonzept wurde später auch für den östlich an den Potsdamer Platz anschließenden und inzwischen weitgehend bebauten Leipziger Platz verwendet. Erinnerungen an das 20. Jahrhundert. Nachbau des Verkehrsturms (historische Ampel) am Potsdamer Platz im 21. Jahrhundert Erinnerung an den Mauerverlauf am Potsdamer Platz Skulpturen. Von Anfang 2000 bis Ende 2010 stand am Marlene-Dietrich-Platz die Skulptur "Balloon Flower" aus der "Celebration"-Serie von Jeff Koons. Das auffällige blau glänzende Werk, das ein sehr beliebtes Fotomotiv darstellte, wurde im November 2010 über Christie’s New York für 16,9 Millionen US-Dollar veräußert. An der Fassade des debis-Haus ist die von weitem erkennbare Skulptur "Gelandet" von Auke de Vries angebracht. Schienenverkehr. Anders als beispielsweise der Bahnhof Friedrichstraße ist der Potsdamer Platz kein wirklich bedeutender Umsteigeschnittpunkt für das U- und S-Bahn-System. Allerdings wurde er aufgrund seiner Lage an der Nord-Süd-Trasse zum Hauptbahnhof, parallel zu den oberirdischen Errichtungen, mit einem Tunnelbahnhof dennoch auch an den Regionalverkehr angeschlossen. Aktuell halten am Regionalbahnhof Potsdamer Platz Regionalverkehrszüge der DB und der ODEG, die S-Bahn (Nord-Süd-Tunnel) sowie die U-Bahn-Linie U2. Über zahlreiche Buslinien ist der Platz ebenfalls zu erreichen. Mittelfristig ist eine Straßenbahnanbindung durch die Leipziger Straße geplant, die über die langfristig neugeplante U-Bahn-Linie U3 ergänzt oder gar ersetzt werden kann. In Nord-Südrichtung soll langfristig eine weitere S-Bahn-Strecke (), vor allem zur besseren ÖPNV-Erschließung des Hauptbahnhofs, gebaut werden. Motorisierter Individualverkehr (MIV). Der Individualverkehr wird über die sternförmig auf den Platz zulaufenden Straßen und die ihn zentral durchquerende Neue Potsdamer Straße, die hier als Bundesstraße 1 verläuft, geführt. Kleinere Straßen innerhalb der einzelnen Quartiere sorgen für die Zu- und Abfahrten zu den unterirdischen Parkhäusern am Potsdamer Platz. Darüber hinaus wurde 2006 eine im Tunnel verlaufende Verbindung zwischen der Uferstraße am Landwehrkanal und dem Hauptbahnhof in Betrieb genommen: Der Tunnel Tiergarten Spreebogen bildet hier einen Teilabschnitt der Bundesstraße 96. Nicht-motorisierter Individualverkehr. Bei der Neugestaltung des Potsdamer Platzes wurde auch der umweltverträgliche und lärmfreie nicht-motorisierte Individualverkehr berücksichtigt und alle großen Straßen erhielten gut sichtbare Fahrradwege. Bisher fehlt noch der Lückenschluss entlang der Leipziger Straße vom Potsdamer Platz zum Alexanderplatz (Stand im Jahr 2015). Umgebung. Der Bereich des Kulturforums Berlin mit einigen der wichtigsten Berliner Museen, darunter die Neue Nationalgalerie und die Gemäldegalerie, grenzt westlich an den Platz. Außerdem befinden sich hier die Berliner Philharmonie, das Ibero-Amerikanische Institut und das Haus Potsdamer Straße der Staatsbibliothek zu Berlin. Der Verlauf der ehemaligen Berliner Mauer wird seit der Fertigstellung des Platzes durch in den Boden eingelassene Pflastersteine – wie an vielen anderen Stellen der ehemaligen Mauer – gekennzeichnet. Östlich des Potsdamer Platzes befindet sich das Oktogon des Leipziger Platzes. Nördlich liegt der Große Tiergarten. Zur näheren Umgebung gehören das Gebäude des Bundesrats, das Areal des Denkmals für die ermordeten Juden Europas (Holocaust-Mahnmal), das Brandenburger Tor, das Musikinstrumenten-Museum, das Daimler Contemporary sowie der Martin-Gropius-Bau. Bis zum April 2005 gab es in der Nähe des Potsdamer Platzes die Diskotheken "Tresor" sowie bis 1997 das "E-Werk", beides Geburtsstätten des Techno in Deutschland. Peter Mark Roget. Peter Mark Roget c. 1865. Peter Mark Roget (* 18. Januar 1779 in London; † 12. September 1869 in West Malvern, Worcestershire) war ein englischer Arzt und Lexikograph. Arbeiten. Roget erfand 1815 den log-log Rechenschieber. Weiters entwickelte er um das Jahr 1835 die nach ihm benannte Rogetsche Spirale, einen Form von Selbstunterbrecherkontakt. Perihel. __STATICREDIRECT__ Pandemie. Unter Pandemie versteht man eine "länder- und kontinentübergreifende" Ausbreitung einer Krankheit, im engeren Sinn einer Infektionskrankheit. Im Gegensatz zur Epidemie ist eine Pandemie somit örtlich nicht beschränkt. Da sich die Endung "-demie" sprachlich auf Menschen bezieht, sind in der Veterinärmedizin auch die Bezeichnungen Panzootie statt "Pandemie" und "Epizootie" statt "Epidemie" üblich. Auch bei Pandemien gibt es Gebiete, die nicht von der Krankheit betroffen werden. Durch ihre abgeschiedene Lage können manche Gebirgstäler, Völker im Urwald oder Bewohner abgelegener Inseln von einer Infektion verschont bleiben. Etymologie. Das Wort "Pandemie" (πανδημία) ist aus den griechischen Wörtern πᾶν (Transliteration "pān") ‚alles‘ und δῆμος "dēmos" ‚Volk‘ abgeleitet, es bezeichnet also etwas, das ‚das ganze Volk‘ trifft. Für pandemieartige Tierkrankheiten gibt es die Begriffe "Seuchenzug" und "Panzootie" (gr.  "zóon" ‚Tier‘). Ausbreitung. Flugrouten sind heute die schnellsten Ausbreitungswege von Infektionskrankheiten. So entwickelte sich AIDS, das durch das HI-Virus verursacht wird, u. a. durch den Flugtourismus von einem lokalen zu einem weltweiten Problem. Nachvollziehbar war dieser Effekt auch während der 2003: Während man in Asien noch die klassischen Verbreitungswege für SARS annahm, zeigte die zunehmende Zahl der Erkrankungen in Kanada diesen Reise-Effekt schon recht deutlich. Die Pest im Mittelalter kam wahrscheinlich an Bord von Handelsschiffen von Asien nach Europa. Natürlich können sich manche Krankheitserreger, je nach Übertragungsweg, auch ohne solche „technische Hilfsmittel” schnell über große Flächen und Entfernungen ausbreiten, doch verhindern dabei meist geografische Barrieren die weltweite Verbreitung. Zur quantitativen Beschreibung und Prognose pandemischer und ähnlicher Ausbreitungsprozesse nutzen Wissenschaftler Computersimulationen sowie Methoden der Theoretischen Biologie, beispielsweise das SIR-Modell. Influenzapandemien. Auslöser der Influenza-Epidemien und -Pandemien sind Influenzaviren der Gruppen A und – seltener – B, da diese in der Lage sind, ihre antigenen Oberflächenmoleküle Hämagglutinin (HA) und Neuraminidase (N) ständig zu verändern. Solche Veränderungen können jederzeit eintreten und dazu führen, dass sie vom Immunsystem trotz Impfung (oder Immunität nach einer vorhergegangenen Influenza-Infektion mit Viren, die noch andere Oberflächeneigenschaften hatten) bei einer erneuten Infektion nicht mehr oder nur schlecht erkannt werden. Bei einer Influenza-Epidemie oder „Grippewelle“ werden 10 bis 20 Prozent einer Bevölkerung infiziert, aber die Ausbrüche bleiben lokal begrenzt. Bei einer Pandemie hingegen verbreiten sich die Viren rasch und mit Infektionsraten von bis zu 50 Prozent über den ganzen Globus. Auslöser ist immer ein neuer Subtyp des Influenza-A-Virus, der auch durch eine Antigenshift (eine Durchmischung von humanen und aviären, das heißt aus Geflügel stammenden Gen-Segmenten) entstehen kann. Eine solche Durchmischung von „Vogelgrippe“- und humanen Influenzaviren kann beispielsweise im Schwein stattfinden („Schweinegrippe“), wenn diese Tiere Träger beider Viren sind. Auch in „Grippe-“Jahren ohne Pandemie stirbt jährlich eine Vielzahl von Menschen an dieser Krankheit oder an ihren Folgen, vor allem einer Lungenentzündung infolge bakterieller Superinfektion. Szenario einer Pandemie am Beispiel von Influenza A/H5N1. Besondere Brisanz wurde ab 2005/06 der sogenannten Vogelgrippe H5N1, verursacht durch das Influenza-A-Virus H5N1, zugeschrieben, deren Viren auch ohne jedes Zutun des Menschen von Zugvögeln verbreitet werden. Ihr hat die Weltgesundheitsorganisation seit mehreren Jahren die Pandemiewarnstufe 3 zugeordnet (Stand: April 2013.) Ferner sind Vorbereitungen dafür zu treffen, dass genügend Krankenhausbetten verfügbar gemacht werden können. So schrieb die "Deutsche Gesellschaft für Innere Medizin" Ende April 2006 in einer Pressemitteilung: „Sollte es eines Tages zu einem weltumspannenden Erkrankungsausbruch kommen, würden in Deutschland voraussichtlich 360.000 Menschen einen Platz im Krankenhaus benötigen.” Auf einem Influenza-Fachkongress in Wien wurde im Oktober 2006 berichtet, dass damals mehr als 95 Prozent aller Impfstoffe in nur neun Ländern produziert wurden, was bedeutete, dass 86 Prozent aller Menschen in Ländern lebten, die selbst keine Produktionskapazitäten besaßen. Wären im Jahr 2007 alle Kapazitäten für den normalen Grippeimpfstoff auf Pandemie-Impfstoff umgestellt, hätten maximal 300 Millionen Menschen versorgt werden können. Bis zum Jahr 2011 begannen elf Entwicklungsländer mit dem Aufbau oder der Inbetriebnahme entsprechende Fertigungsanlagen. Trotz der mittlerweile erfolgten, erheblichen Ausweitung von Produktionskapazitäten gilt es auch weiterhin als illusorisch, dass ein weltweiter Schutz vor einer Influenza-Pandemie durch Impfungen angesichts der Größe der Weltbevölkerung möglich ist. Sollten allerdings die Autoren eines im Juli 2006 in "Nature" veröffentlichten Berichts recht behalten, dann würden sich alle Planungen für Massenimpfungen – zumindest für die erste Erkrankungswelle – als obsolet erweisen: Sie prognostizierten, dass der Gipfelpunkt der ersten Erkrankungswelle zwei bis drei Monate nach dem Beginn der Pandemie erreicht und die akute Pandemiephase schon nach vier Monaten beendet sein würde. Vorbeugungsmaßnahmen. Die Weltgesundheitsorganisation (WHO) hat im Jahre 1948 ein weltweites Überwachungssystem installiert, das die von 110 Referenzlaboratorien isolierten Virusstämme ständig auf neue Varianten überprüft, was zu den jährlich neuen Empfehlungen für die Impfstoffzusammensetzung der kommenden Saison führt, mit industriellem Herstellungszyklus von zehn bis zwölf Monaten. Zudem hat die WHO 1999 von allen Ländern die Erstellung nationaler Pandemiepläne gefordert. Durch diese Maßnahmen soll zum einen sichergestellt werden, dass im Fall einer Pandemie rasch sichere Impfstoffe hergestellt werden können; für Europa hat die "Vaccine Expert Group" der Europäischen Arzneimittelagentur entsprechende Leitlinien erarbeitet. Zum anderen soll ein erprobter Maßnahmenkatalog dazu beitragen, Infektionsketten zu unterbrechen und die Krankenversorgung sicherzustellen. Zwischen 2006 und 2010 wurde die Impfstoffproduktion weltweit verdoppelt, von 500 Millionen Dosen pro Jahr auf nahezu eine Milliarde Dosen; bis 2015 soll die Produktion abermals verdoppelt werden, auf dann zwei Milliarden Dosen. Ende 2006 kam es zwischen der indonesischen Regierung und der WHO zu Spannungen, da das Land sich weigerte, wie vereinbart die im Land gewonnenen Virusproben des Influenza-Subtyps H5N1 an die WHO-Labors zu liefern. Indonesien versuchte so, Druck auf die WHO auszuüben, um zu erreichen, dass dem Land im Fall einer Pandemie ausreichende Mengen an Impfstoff zur Verfügung gestellt werden. Da Fabriken zur Impfstoffproduktion nur in Industrieländern existieren, befürchtet die indonesische Regierung, dass diese Impfstoffe im Fall einer Pandemie vorwiegend in den Herstellungsländern verteilt werden. Im März 2007 schien Indonesien einzulenken, nachdem die WHO zugesagt hatte, den Aufbau von Impfstoffproduktionen auch in den weniger entwickelten Regionen zu fördern. Tatsächlich wurden im Jahr 2007 aber nur zwei indonesische Virusproben abgegeben, obwohl im Land mit mehr als 40 Neuerkrankungen die weltweit höchsten Fallzahlen aktenkundig wurden. Krisenpläne für den Fall einer Pandemie. Die Weltgesundheitsorganisation hat in die betroffenen Gebiete Ermittler (Feldepidemiologen) entsandt. Diese beobachten zum Teil mit erheblichem Aufwand die aktuellen Übertragungswege und Entwicklungen des Virus. In vielen Staaten wurden nationale Krisenpläne für den Fall eines massiven Übergangs von Vogelgrippeviren auf Menschen erarbeitet. In Japan wurde beispielsweise ein Notstandsplan vorgelegt, der auch die Zwangsverlegung von Erkrankten in Hospitale vorsieht, die Schließung von Schulen und das Verbot großer Versammlungen. Die Volksrepublik China kündigte an, notfalls die Landesgrenzen zu schließen. Auch der australische Notfallplan sieht eine Schließung sämtlicher Häfen und Flugplätze für Verkehr mit dem Ausland vor. Auf betrieblicher Ebene befürchteten 92 % der Unternehmen 2006 im Falle einer Pandemie wie der Vogelgrippe mittlere bis schwere Unterbrechungen des Geschäftsbetriebs, da bis dahin bestehende Notfallpläne dieses Szenario weitestgehend ausklammerten. Im Nachgang zu dieser Studie führten die Erfahrungen im Rahmen der Vogelgrippe bei zahlreichen Unternehmen (insbesondere bei der Produktion von Energie, Nahrungs- und Arzneimitteln) zu einer Integration in überregionale Pandemiepläne und zu einer präventiven Schulung der Mitarbeiter mit Hygienemaßnahmen im Pandemiefall. Notfallplanung im deutschsprachigen Raum. Für Deutschland hat das Robert-Koch-Institut – als "Nationale Referenzzentrum für Influenza" – als Grundlage für die Abschätzung der Folgen einer Pandemie mehrere Szenarien entwickelt. Die schlimmste Variante unterstellt 21 Millionen zusätzliche Arztbesuche und bis zu 160.000 Tote. Als realistischer wird allerdings eine mittlere Variante angesehen, bei der aber auch noch ca. 100.000 zusätzliche Todesfälle unterstellt werden. Das Auswärtige Amt hat zudem einen eigenen Pandemieplan erstellt, um den Schutz seiner Mitarbeiter in Auslandsvertretungen zu gewährleisten. Gefördert mit je 10 Millionen Euro wurden die Firmen Novartis und GlaxoSmithKline vertraglich verpflichtet, ihre Produktionskapazitäten so zu erweitern, dass die gesamte Bevölkerung mit einem Pandemie-Impfstoff versorgt werden könnte – das wären zweimal 80 Millionen Dosen. In dem Anfang 2005 veröffentlichten Nationalen Pandemieplan des Bundes und der Länder wurde für den Fall eines Ausbruchs einer Influenzapandemie als Mindestmaßnahme festgelegt, dass die Therapie aller Erkrankten durch antivirale Arzneimittel sichergestellt sein soll. Darauf begannen die Bundesländer mit Planungen zur Bevorratung dieser Medikamente. Ergänzt wurde der nationale Pandemieplan durch detailliertere lokale Planungen der Landkreise und der Gemeinden. In der Schweiz sollte das Pflichtlager mit antiviralen Medikamenten bis Ende 2005 aufgefüllt sein. Zudem wird vom Bundesamt für Gesundheit die vorsorgliche Anschaffung von Atemschutzmasken empfohlen. Da in Österreich die Gesundheitsversorgung Landessache ist, kann der Bund nur Empfehlungen und Koordinationen anbieten. Bisher wurde vom Bund die Anschaffung von Medikamentendosen für 15 % der Bevölkerung beschlossen. Es werden auch laufend Stabsübungen der Einsatzorganisationen durchgeführt, wobei es immer eine Gratwanderung ist, die Menschen zu informieren und trotzdem keine Panik zu erzeugen. Der Zivilschutzverband in Österreich hat eine Homepage mit Verhaltensregeln für den Fall einer Pandemie aktiviert. Notfallplanung in den USA. In den USA wurden ab 2005 erhebliche Gelder bereitgestellt, um eine neue Generation von Technologien zu entwickeln, damit innerhalb von sechs Monaten nach Ausbruch einer Epidemie genug Impfstoff für alle US-Bürger produziert werden kann. Seit 2005 hat die US-Regierung zudem eine Website mit Verhaltensregeln für den Pandemiefall geschaltet. Im Rahmen der Notfallplanung wurde vom „National Vaccine Advisory Committee” (NVAC) im März 2006 auch ein Vorschlag vorgelegt, welche Personengruppen im Falle einer Influenzapandemie vorrangig geimpft werden sollen, wenn der Impfstoff nicht für die gesamte Bevölkerung verfügbar ist. Zu diesem vorrangig zu schützenden Kreis gehören die mit der Herstellung und Verteilung des Impfstoffs befassten Personen, Ärzte und Krankenschwestern, hohe Regierungs- und Behördenvertreter, Schwangere sowie Schwerstkranke, bei denen ein erhöhtes Risiko für Lungenentzündungen besteht. Außerdem sollen diejenigen vorrangig geimpft werden, die zuhause immungeschwächte Personen oder ein Kind von unter sechs Monaten pflegen. Zweite Priorität wurde für folgende Gruppen vorgeschlagen: Menschen jenseits des 65. Lebensjahres, Kinder unter zwei Jahren sowie die Beschäftigten von Polizei und Feuerwehr, von Energieversorgungs- und Transportunternehmen, von Fernsprech- und IT-Firmen. Pragmatik. Die Pragmatik (griechisch "geschäftig") bezeichnet allgemein Geschäfts- und Sachkunde, spezieller Politikwissenschaft. Politikwissenschaft (früher meist Politische Wissenschaft, Wissenschaft von der Politik, Wissenschaftliche Politik oder auch Politologie) ist als Integrationswissenschaft ein Teil der modernen Sozialwissenschaften und beschäftigt sich mit dem wissenschaftlichen Lehren und Erforschen politischer Prozesse, Strukturen und Inhalte sowie den politischen Erscheinungen und Handlungen des menschlichen Zusammenlebens. Die Politikwissenschaft zählt von ihrer traditionellen Entwicklung als Wissenschaftsdisziplin im weiteren Sinne auch zu den Staatswissenschaften. Mit Nachbardisziplinen wie der Soziologie, der Rechtswissenschaft, der Geschichtswissenschaft, den Wirtschaftswissenschaften und der Psychologie erschloss sie sich inzwischen einen interdisziplinär angelegten Untersuchungsgegenstand, der über den Staat und seine Institutionen als Forschungsgegenstand hinausreicht. Das Fach wird in verschiedene Teilbereiche untergliedert. Grundlegend ist die Differenzierung zwischen den Bereichen "Politische Theorie" (einschließlich "Politische Philosophie" und "Ideengeschichte"), "Vergleichende Politikwissenschaft" (früher "Vergleichende Regierungslehre" oder "Vergleichende Analyse politischer Systeme") und "Internationale Beziehungen" (einschließlich "Internationale Politik"). Im Fall eines breiter angelegten Lehrangebots, wie es an manchen Universitäten betrieben wird, werden beispielsweise zusätzlich die Teildisziplinen "System-" bzw. "Regierungslehre", "Politische Soziologie", "Politische Ökonomie", "Politische Methodenlehre", "Verwaltungswissenschaft" und "Politikfeldanalyse" oder in jüngerer Zeit "Geschlechterforschung" unterschieden. Gegenstand der Forschung. Die Politikwissenschaft befasst sich mit dem gesellschaftlichen Zusammenleben der Menschen und untersucht, wie dieses Zusammenleben geregelt ist und geregelt werden kann. Ihr Gegenstandsbereich reicht demnach grundsätzlich über eine Beschäftigung mit der Tagespolitik hinaus. Ihr Untersuchungsinteresse erfordert die Analyse von grundlegenden Prinzipien, Zusammenhängen und von Ursache- und Wirkungsmechanismen des menschlichen Zusammenlebens in seinen unterschiedlichen Formen. Dabei berücksichtigt sie u. a. institutionelle, prozedurale, sachlich-materielle und politisch-kulturelle Gesichtspunkte. Ein besonderes Augenmerk richtet die moderne Politikwissenschaft auf die Frage, wie staatliche und zivilgesellschaftliche Akteure agieren, wie politische Entscheidungsprozesse ablaufen, wie Machtverhältnisse entstehen und auf gesellschaftliche Strukturen einwirken. Ursprünglich hatte die Politikwissenschaft eine nahezu rein normativ-ontologische Ausrichtung: Seit dem Altertum beschäftigte sie sich mit der Frage, wie das Zusammenleben der Menschen "am besten" gestaltet werden könne. Dies lässt sich bis zu den antiken griechischen Philosophen – vor allem auf Platon und Aristoteles – zurückführen und ist bis heute Gegenstand des philosophischen und ideengeschichtlichen Zweiges der Politikwissenschaft. Als normative Wissenschaft wurde die Politikwissenschaft auch nach ihrer Wiederbegründung als akademische Disziplin in der Geschichte der Bundesrepublik Deutschland nach 1945 verstanden und konzipiert („Demokratiewissenschaft“). Die deutsche Tradition der policeywissenschaftler und kameralwissenschaftlicher Forschung war vom 19. bis 20. Jahrhundert abgebrochen. Im klassischen Verbund mit der Rechtswissenschaft entsprang die Politikwissenschaft früher als Teil der Staatswissenschaften, zu denen sie auch heute noch gezählt werden kann, obwohl sie nicht mehr ausschließlich den Staat als Untersuchungsobjekt behandelt. Ausgehend von der Entwicklung des Faches in den Vereinigten Staaten wurde die Politikwissenschaft seit den 1960er Jahren methodisch stärker vom Aufkommen des Behavioralismus sowie von den sozialwissenschaftlich orientierten empirisch-analytischen Methoden beeinflusst. Damit einher ging eine zunehmende Orientierung des Faches hin zu positivistischen Fragestellungen. Ziel der modernen "empirischen" Politikwissenschaft ist es, aus der Beschäftigung der Gesellschaft und ihren Strukturen Zusammenhänge zu bestimmen, die das Zusammenleben von Menschen erklären und beschreiben. Dieser Zweig des Faches ist stark methodisch geprägt und arbeitet sowohl quantitativ als auch qualitativ. Eine abschließende Wertung der Untersuchungsergebnisse muss hierbei entfallen. Damit orientiert sich dieser prominente Zweig des Faches analytisch und methodisch an den Naturwissenschaften und wird im Allgemeinen nach wie vor wesentlich durch US-amerikanische Entwicklungen und Innovationen geprägt. Dies betrifft vor allem die analytische Stringenz (Einsatz mathematischer Modelle, die sogenannte Theorie der rationalen Entscheidung) sowie methodische Rigorosität (Einsatz statistischer Verfahren). Etwas anders stellt sich das Fach im Bereich der modernen theoretischen bzw. normativen Politikwissenschaft dar, der größtenteils mit dem eher geisteswissenschaftlich orientierten Teilfach der Politischen Theorie zusammenfällt: In Anknüpfung an die lange normative Tradition der Politischen Wissenschaft, werden hier gesellschaftliche Werthaltungen auf ihren normativen Gehalt hin analysiert und vor dem Hintergrund ideen- und philosophiegeschichtlicher Kontexte diskutiert und bewertet. Dabei bedient man sich beispielsweise der Methode der analytisch-hermeneutischen Textinterpretation oder anderer qualitativer Verfahren. Die Beschäftigung mit Werturteilen steht dementsprechend mitunter im Zentrum der Politischen Theorie als Teilfach der Politikwissenschaft. Im Besonderen gilt dies für die Politische Philosophie als betont normativer politischer Theorie. Name. Das wissenschaftliche Fach "Politik" wird im deutschsprachigen Raum meist unter der Bezeichnung "Politikwissenschaft" gelehrt. Diese Begriffsbestimmung hat die früheren Fachbezeichnungen "Politische Wissenschaft", angelehnt an die angelsächsische Bezeichnung "political science" und "Wissenschaft von der Politik" oder "Wissenschaftliche Politik", wie sie mit der Einrichtung von Lehrstühlen an Universitäten seit Beginn der 1950er Jahre genannt wurde, weitgehend abgelöst. Bei Instituts- oder Seminar-Bezeichnungen einiger Universitäten besteht noch die Fachbezeichnung "Politische Wissenschaft" oder "Wissenschaft von der Politik". Die Bezeichnung "Politologie" ist ebenfalls gebräuchlich. Die genannten Begriffe sind allerdings synonym verwendet. Vertreter der Disziplin bevorzugen heute die Bezeichnung "Politikwissenschaft", weil sie den Gegenstand des wissenschaftlichen Bemühens, die Erforschung der Politik und ihrer Prozesse, stärker betont. Dieser Wissenschaftsbegriff wird inzwischen an den Universitäten allgemein verwendet. Das Problem der uneinheitlichen Terminologie rührt daher, dass "Politik" als Universitätsfach vom 19. bis 20. Jahrhundert über mehr als 100 Jahre unterbrochen war. Die Bezeichnung "Politikwissenschaft" grenzt sich begrifflich zudem besser als der Begriff der Politischen Wissenschaft dem möglichen Verdacht ab, es handele sich um eine Pseudowissenschaft, die aus vorwiegend politischen Motiven und zu politischen Zwecken betrieben wird. Politik als Zweck der Wissenschaft gilt als unvereinbar mit dem allgemein akzeptierten Wissenschaftsverständnis. Politikwissenschaft erhebt den Anspruch auf Wertneutralität und auf eine strikte Unterscheidung von "Politikwissenschaft" und der realen "Politik". Ein Politiker "macht" Politik, ein Politikwissenschaftler setzt sich wissenschaftlich mit politischen Fragen auseinander. Der Begriff "Politische Wissenschaft" übersetzt sehr eng die Fachbezeichnung im angelsächsischen Sprachraum, die "political science". Wenn in der Bundesrepublik und im weiteren deutschsprachigen Raum überhaupt noch an unterschiedlichen Bezeichnungen für den denselben Wissenschaftsgegenstand festgehalten wird, hat das vornehmlich kulturelle und wissenschaftsgeschichtliche Gründe. Eine Herleitung aus dem Altgriechischen ("episteme politike") stellt der Begriff "Politologie" dar, in Anlehnung an die moderne "Soziologie". Allerdings entstand dieser Terminus ohne Kenntnis des Griechischen; eigentlich müsste er "Politikologie" lauten. Die "Politikwissenschaft" als wissenschaftliche Disziplin hat sich hierzulande erst nach dem Zweiten Weltkrieg herausgebildet und etabliert. Gleichwohl gab es schon vorher Ansätze, eine solche Disziplin im Deutschen Reich zu etablieren: so wurde 1920 die Deutsche Hochschule für Politik in Berlin gegründet. An ihr lehrten hauptsächlich Wissenschaftler aus anderen Disziplinen, da es zum damaligen Zeitpunkt eine Politikwissenschaft im engeren Sinne in Deutschland noch nicht gab – anders als in den USA. Politikwissenschaft wurde in der Zwischenkriegszeit und zunächst auch nach dem Zweiten Weltkrieg als Demokratie- und Integrationswissenschaft verstanden, die Inhalte und Methoden anderer, benachbarter Wissenschaften aufnahm. Die Nachfolgeinstitution der Deutschen Hochschule für Politik wurde das Otto-Suhr-Institut der Freien Universität Berlin. Geschichte der Politikwissenschaft. Bereits im 18. Jahrhundert lehrte Joseph von Sonnenfels an der Universität Wien Politische Wissenschaften. Es etablierten sich im 19. Jahrhundert Fächer wie die Kameralwissenschaft und die Policeywissenschaft. Dabei führte die damalige politische Wissenschaft Ansätze fort, die schon seit der frühen Neuzeit von Rechtswissenschaftlern, Politischen Philosophen, Theologen und von Historikern begründet worden sind. Eine eigene Disziplin entwickelte sich in Deutschland aber erst nach dem Zweiten Weltkrieg unter US-amerikanischem Einfluss. Anknüpfen ließ sich dabei an Aktivitäten der Deutschen Hochschule für Politik, die in der Frühphase der Weimarer Republik 1920 in Berlin gegründet worden war und bis zu ihrer Eingliederung in die Berliner Universität 1940 bestand. Politikwissenschaft wurde damals im Wesentlichen als Demokratiewissenschaft verstanden. Nach dem Zweiten Weltkrieg stand ihr Selbstverständnis als Demokratiewissenschaft und damit als Wissenschaft von der Funktionsweise der Demokratie erneut im Zentrum. Mit ihrer Hilfe sollten insbesondere Mittler wie Lehrer und Journalisten befähigt werden, den demokratischen Gedanken zu vermitteln und demokratisches Denken in der Bevölkerung zu verankern. Daher beschäftigte sich die frühe nachkriegsdeutsche Politikwissenschaft hauptsächlich mit der Analyse, der Funktionsweise und dem formellen Interagieren von Institutionen wie etwa den Parteien, den Gewerkschaften, dem Parlament oder der Bundesregierung. Heute bezeichnet man diesen Gegenstandsbereich als Polity. Mit dem politischen und wirtschaftlichen Erfolg der Bundesrepublik Deutschland rückte die Erforschung der eigentlichen politischen Prozesse in den Vordergrund: Man versuchte zu verstehen, was innerhalb der Institutionen selbst passiert und welche Funktionen sie jeweils im Gesamtsystem erfüllten, anstatt zu beschreiben, welche Aufgaben sie formal hatten. Dabei traten insbesondere die Verbände in den Mittelpunkt des Interesses, die – obwohl nicht gesetzlich verankert – gleichwohl einen wichtigen Anteil am politischen Prozess haben. Man versuchte also, die tatsächlichen Willensbildungs- und Entscheidungsprozesse (Politics) zu analysieren und zu verstehen. In der bundesdeutschen Entwicklung der Politikwissenschaft bildeten sich in den Jahrzehnten nach dem Zweiten Weltkrieg mit der Kölner Schule, der Freiburger Schule sowie der Marburger Schule sogenannte Schulen der Politikwissenschaft heraus, die jeweils ein spezifisches Verständnis des universitären Faches besaßen und vertraten. Teildisziplinen. Ebenso wie ihr Forschungsfeld, die Politik, ist auch die Politikwissenschaft bestrebt, ihre Betrachtungen zu spezialisieren, etwa auf einzelne Politiksektoren wie z. B. die Gesundheitspolitik. Hierbei ist Fachkompetenz zur Analyse der tatsächlichen Probleme erforderlich. Diese neuere Teildisziplin der Politikwissenschaft, die sich mit Sachproblemen einzelner Politikbereiche auseinandersetzt, wird Policy-Forschung oder auch Politikfeldforschung genannt. Diese spielt für die Politikberatung eine zunehmende Rolle, mit Hilfe derer sich politische Entscheidungsträger an wissenschaftlich fundierter Beratung orientieren oder eine politische Entscheidung treffen und absichern wollen. Die Grenzen der Wissenschaftlichkeit solcher Beratungen sind jedoch oft unklar – vielfach sind es „Gefälligkeitsgutachten“, also interessengeleitete Gutachten, die zu einem vom Auftraggeber gewünschten Ergebnis kommen. Die Paradigmen der Integrationswissenschaft und der Demokratiewissenschaft werden daher heute zunehmend durch die Auffächerung der Disziplin Politikwissenschaft in die Teildisziplinen "Polity", "Politics" und "Policy" ersetzt. Eine weitere auch für die Lehrstuhlbezeichnungen gebräuchliche Unterteilung der Politikwissenschaft in Teildisziplinen ist die Unterteilung in Politisches System (bezogen auf einzelne Staaten, beispielsweise Deutschland; früher: Regierungslehre), Politische Theorie, Politikgeschichte, Internationale Politik oder Internationale Beziehungen, European Studies oder Europäische Politik, Vergleichende Politikwissenschaft oder Komparatistik (früher: Vergleichende Regierungslehre, auch Vergleichende Analyse politischer Systeme). Zu den wichtigsten Gegenständen der Politikwissenschaft gehören die Strukturprobleme der Demokratie, politische Parteien und soziale Bewegungen, internationale Beziehungen, Konfliktforschung, Staatsinterventionen und Wirtschaft, politische Haltungen und Bewusstseinsformen, öffentliche Meinung, Massenmedien und Wahlverhalten. Studium. Absolventen politikwissenschaftlicher Studiengänge sind jenseits der wissenschaftlichen Tätigkeit von Politikwissenschaftlern in vielen Berufsfeldern zu finden. Klassisch sind dabei vor allem die Politische Bildung, als Unterrichtsfach im Lehramt, in der Publizistik und in den Medien, in Parteien und Parlamenten, in Verbänden sowie auch in der öffentlichen Verwaltung und in internationalen Organisationen und zudem in der Wirtschaft. Die individuellen Berufslaufbahnen orientieren sich dabei neben der Absolvierung des politikwissenschaftlichen Studiums auch an Zusatzqualifikationen wie Sprachkenntnissen oder anschließenden weiteren fachlichen Qualifikationen. Deutschland. An fast jeder größeren deutschen Universität kann man Politikwissenschaft entweder als Haupt- oder Nebenfach studieren. Vereinzelt bieten kleinere Universitäten aus Ressourcenmangel Politikwissenschaft nur als Nebenfach an. Während früher oftmals Diplom- und einige wenige Magisterstudiengänge mit politikwissenschaftlichem Schwerpunkt existierten, werden infolge des Bologna-Prozesses heutzutage für Studienanfänger fast ausschließlich Bachelor- und Masterstudiengänge angeboten. Viele Studiengänge sind interdisziplinär ausgerichtet und verbinden Inhalte verschiedener Sozialwissenschaften mit politikwissenschaftlichen Kernthemen, was dem früheren Magisterstudium sehr nahekommt. Das Staatsexamen für das Lehramt befähigt zur Ausübung des Lehrerberufs – das korrespondierende Unterrichtsfach Politische Bildung firmiert in den meisten Bundesländern unter verschiedenen Bezeichnungen: Gemeinschaftskunde, Sozialkunde, Gesellschaftslehre, Politik- und Sozialwissenschaft, Politik und Wirtschaft etc. In der Nachkriegszeit wurden in Deutschland zahlreiche Institute für Politikwissenschaft gegründet. Auch einzelne Lehrstühle und Professuren können an manchen Universitäten existieren. Österreich. Als intellektueller Vater der Politikwissenschaft in Österreich gilt der österreichisch-US-amerikanische Historiker Ernst Florian Winter. 1938 musste er mit seinem Vater Ernst Karl Winter, dem damaligen Vizebürgermeister von Wien, aus politischen Gründen in die Vereinigten Staaten emigrieren. Doch als überzeugter Österreicher marschierte er 1945 mit der US-Armee als erster Austro-Amerikaner im österreichischen Innviertel ein. Auf Einladung der Minister Drimmel und Klaus kehrte er 1960 nach Studien an der University of Michigan und Columbia University und Gastprofessuren an der Fletcher School of Law and Diplomacy, Princeton University, Georgetown University und Indiana University erneut nach Österreich zurück, um auch hier die Studienrichtung der Politikwissenschaft zu etablieren. 1964 wurde er vom damaligen Außenminister Bruno Kreisky zum Gründungsdirektor der Diplomatischen Akademie Wien nach dem Zweiten Weltkrieg bestellt, wo er lange noch regelmäßig unterrichtete. Ab 1967 war er im Institut für Höhere Studien in Wien tätig. Ernst Florian Winter verstarb am 16. April 2014. Ein Studium der Politikwissenschaft in Österreich wird mit der Verleihung des Diploms zum Magister (meistens Magister Philosophiae, abgekürzt Mag. Phil.) abgeschlossen. Danach ist die Promotion möglich. Neben dem wissenschaftlichen Abschluss eines Diplomstudiums ist auch ein Lehramtsabschluss möglich, bei dem Politikwissenschaft innerhalb des Lehrfachs Geschichte-Sozialkunde-Politische Bildung studiert wird. Politikwissenschaft wird in Österreich an den Universitäten Innsbruck, Salzburg und Wien angeboten. In Innsbruck wurde mit 1. Januar 2005 sogar eine eigene Fakultät für Politikwissenschaft und Soziologie eingerichtet. Dort gibt es seit dem Wintersemester 2007/08 auch die Bachelorstudien Politikwissenschaft und Soziologie. (Abschluss jeweils mit Bachelor of Arts). Im Wintersemester 2008/09 wurden die beiden Masterstudiengänge „Europäische Politik und Gesellschaft“ und „Soziale und Politische Theorie“ eingerichtet. Schweiz. Auch in der Schweiz lässt sich Politikwissenschaft an fast allen großen Universitäten studieren, namentlich in Zürich, Bern, Genf, Lausanne, Luzern und St. Gallen. In Basel gibt es keinen politikwissenschaftlichen Studiengang, allerdings beinhaltet der interdisziplinäre MA-Studiengang "European Studies" ebenfalls eine politikwissenschaftliche Komponente. Das CIS (Center for Comparative and International Studies) ist ein politikwissenschaftliches Forschungsinstitut. Es wurde 1997 gebildet aus dem Institut für Politikwissenschaft der Universität Zürich und den politikwissenschaftlichen Lehrstühlen der ETH Zürich. Besondere Studienformen. Die Universität Konstanz bietet interdisziplinäre politikwissenschaftliche Studiengänge mit verwaltungswissenschaftlichen Inhalten und besonderem Fokus auf der sozialwissenschaftlichen Methodenlehre an. Die Universität Erfurt und die Universität Passau bieten unter dem Namen Staatswissenschaften einen Studiengang, in dem Politikwissenschaft interdisziplinär mit Bezügen zu Nachbardisziplinen wie Rechtswissenschaft und Wirtschaftswissenschaften studiert werden kann. Ähnliche staatswissenschaftliche Programme existieren auch an der Leuphana Universität Lüneburg und mit starkem verwaltungspraktischen Bezug an der NRW School of Governance. Die Zeppelin Universität Friedrichshafen bietet die interdisziplinär ausgerichteten 4-jährigen Bachelor- und 2-jährigen Masterstudiengänge „Politics, Administration & International Relations“ an, die Vertiefungen in „International Relations, Global Politics & Organisations“, „Political Behavior & Decision Making“ und „Public Management, Regulation & E-Government“ ermöglichen. An der Friedrich-Alexander-Universität Erlangen-Nürnberg kann Politikwissenschaft im Bachelor- und Masterstudiengang mit verschiedenen Schwerpunkten, teilweise unter Einbindung benachbarter Fächer, studiert werden. So bietet die Erlanger Universität u. a. die Schwerpunkte „Menschenrechte und Menschenrechtspolitik“ (als Teilfach vertreten durch einen eigenen Lehrstuhl), Öffentliches Recht (in Kooperation mit dem Fachbereich Rechtswissenschaft) oder „Außereuropäische Regionen“ (etwa Lateinamerika betreffend) an. Ein Masterstudiengang mit dem Schwerpunkt Politische Theorie ist in Vorbereitung. Umgekehrt kann Politikwissenschaft auch als Schwerpunkt im regionalwissenschaftlichen Masterstudiengang Nahoststudien gewählt werden. Eine Einbeziehung des Öffentlichen Rechts ist auch an der Julius-Maximilians-Universität Würzburg möglich. Die FernUniversität in Hagen bietet ein Fernstudium der Politikwissenschaft an, das den Bachelorstudiengang Politikwissenschaft, Verwaltungswissenschaft, Soziologie (bis 2008: Politik- und Organisation, danach: Politik- und Verwaltungswissenschaft) und den Masterstudiengang Governance umfasst. Es ist auch möglich, an der Universität der Bundeswehr Hamburg im Diplomstudiengang Politikwissenschaft zu studieren. Voraussetzung hierfür ist eine Verpflichtung in der Offizierslaufbahn zum Soldat auf Zeit für mindestens 13 Jahre. Unter bestimmten Umständen ist auch das Studium als Zivilist ohne eine Verpflichtung bei der Bundeswehr möglich. Eine Besonderheit ist die Organisation des Studienablaufs in Trimestern statt in Semestern. Man studiert somit im Jahr drei Trimester anstatt zweier Semester. Der Arbeits- und Lernaufwand für ein Trimester entspricht dabei dem eines Semesters. Dadurch sind weniger Studienjahre bis zum Abschluss erforderlich und der Diplomstudiengang kann schon nach drei Jahren abgeschlossen werden. Berufssituation in Deutschland. An den Universitäten, Hochschulen und später Fachhochschulen entstand nach dem Zweiten Weltkrieg ein großer Bedarf an Lehrpersonal, weswegen die Politikwissenschaft eine attraktive Karrierechance für viele politikwissenschaftlich interessierte Wissenschaftler aus den Nachbardisziplinen darstellte. Heute wird eine wissenschaftliche Karriere an Universitäten oder bei Forschungseinrichtungen nur etwa von jedem fünften Studierenden der Politikwissenschaft angestrebt. Die erfolgreiche Einbindung in den wissenschaftlichen Arbeitsmarkt ist dabei von unterschiedlichen Faktoren wie dem Alter zum Zeitpunkt der Promotion, dem Engagement des Betreuers, der breiten fachlichen und thematischen Ausrichtung der Ausbildung und gesellschaftlichen Rahmenbedingungen wie beispielsweise einem Generationenwechsel auf der Ebene der Professuren oder gesellschaftlichen Diskursen über die Bedeutung der Politikwissenschaft und der damit einhergehenden staatlichen Förderung der politikwissenschaftlichen Lehre und Forschung abhängig. In diesem Sinne unterliegt auch der politikwissenschaftliche Arbeitsmarkt gewissen Konjunkturen und weist somit momentan einen hohen Konkurrenzdruck auf. Frauen sind von diesen Aspekten auf eine sehr spezifische Art und Weise betroffen. Die Zahl der bei Parteien, Parlamenten, Verbänden oder Nichtregierungsorganisationen tatsächlich im politischen Sektor beschäftigten Politikwissenschaftlern liegt mit ca. 15 % nur unwesentlich unter der Zahl für die Wissenschaft. Ein großer Anteil von Studienabsolventen des Faches Politikwissenschaft ist in unterschiedlichen Bereichen der Medien beschäftigt. Rund ein Fünftel ist in der freien Wirtschaft (insbesondere in den Bereichen Consulting und Public Relations) tätig, lediglich ein Zehntel in der öffentlichen Verwaltung. In diesem Bereich sehen sich Politologen in Deutschland ebenso wie Vertreter anderer staatswissenschaftlicher Disziplinen wie Verwaltungswissenschaftlern, Soziologen und Volkswirten durch das faktische „Juristenmonopol“ im höheren Dienst der öffentlichen Verwaltung in ihren Karrierechancen beschränkt. Fachverbände und -gesellschaften. Ferner existiert mit der "International Political Science Association" (IPSA) auch ein internationaler Fachverband für Politikwissenschaftler. Preußen. Die größte Ausdehnung des preußischen Staates (1866–1918) Preußen war ein seit dem Spätmittelalter bestehendes Land an der Ostsee, zwischen Pommern, Polen und Litauen, dessen Name nach 1701 auf ein weit größeres, aus dem Kurfürstentum Brandenburg hervorgegangenes Staatswesen angewandt wurde, das schließlich fast ganz Deutschland nördlich der Mainlinie einschloss und bis zum Ende des Zweiten Weltkrieges bestand. Ursprünglich bezeichnete der Name „Preußen“ nur den Kern des Deutschordensstaats im einstigen Stammesgebiet der Prußen und die aus ihm hervorgegangenen Herrschaftsgebiete außerhalb des Heiligen Römischen Reiches. Nachdem der hohenzollernsche Kurfürst von Brandenburg 1701 als Herzog in Preußen den Königstitel angenommen hatte, bürgerte sich für alle Besitzungen seines Hauses inner- und außerhalb des Reichs die Gesamtbezeichnung Königreich Preußen ein. Aus dem Königreich, das seit 1871 der dominierende Bundesstaat des Deutschen Reiches war, entstand 1918 der republikanische Freistaat Preußen. Dieser ging infolge des Preußenschlags von 1932 und der Gleichschaltung der Länder in der Zeit des Nationalsozialismus nahezu vollständig im Deutschen Reich auf. Im Jahr 1947 erklärte der Alliierte Kontrollrat ihn auch formell für aufgelöst. Die Hauptstadt des Herzogtums Preußen war Königsberg, die des Königreichs und späteren Freistaats Berlin. Überblick. Die ursprüngliche "historische Landschaft Preußen", benannt nach ihren baltischen Ureinwohnern, den Prußen, entsprach in etwa dem späteren Ostpreußen. Nachdem der Deutsche Orden das Preußenland unterworfen hatte, für das er aufgrund der päpstlichen Bulle von Rieti (1234) keinem weltlichen Lehensherren unterstand, bildete es zusammen mit Pommerellen das Zentrum des "Deutschordensstaates". Dessen Gebiet wurde 1466 im Zweiten Frieden von Thorn geteilt: in das der polnischen Krone direkt unterstehende "Königliche Preußen", das Pommerellen einschloss, und in den "Restordensstaat", der die polnische Lehenshoheit anerkennen musste. Durch dessen Säkularisierung entstand 1525 das weltliche "Herzogtum Preußen", das 1618 durch Erbschaft an die Kurfürsten von Brandenburg fiel. Diese regierten nun beide Länder in Personalunion. Kurfürst Friedrich Wilhelm konnte das Herzogtum 1657 aus der polnischen Lehensherrschaft lösen. Da es außerhalb der Reichsgrenzen lag, war es nunmehr souverän, so dass sich Kurfürst Friedrich III. 1701 als Friedrich I. zum „König in Preußen“ krönen lassen konnte. Zentrum des hohenzollernschen Herrschaftsgebiets blieb nach wie vor die Mark Brandenburg. In den von Friedrich II. ausgelösten Schlesischen Kriegen stieg der nun als Königreich Preußen bezeichnete Staat zur fünften europäischen Großmacht auf. Nach der Niederlage gegen das napoleonische Frankreich verlor Preußen 1806 große Teile seines Staatsgebiets, errang aber schon wenige Jahre später infolge der Stein-Hardenberg’schen Reformen und der siegreichen Teilnahme an den Befreiungskriegen eine größere Machtfülle als zuvor. Der Wiener Kongress brachte Preußen 1815 erhebliche territoriale Zugewinne, vor allem im Westen Deutschlands, ein. Durch den Sieg im Deutschen Krieg löste Preußen 1866 Österreich als führende deutsche Macht ab. Anschließend bildete es mit den deutschen Staaten nördlich der Mainlinie den Norddeutschen Bund. Im Deutsch-Französischen Krieg von 1870/71 vereinte es alle deutschen Staaten mit Ausnahme Österreichs unter seiner Führung. Von 1871 an war Preußen der dominierende Teilstaat des neu gegründeten Deutschen Reiches und der König von Preußen zugleich Deutscher Kaiser. Nach dem Sturz der Monarchie in der Novemberrevolution von 1918 wurde aus dem Königreich der republikanisch verfasste "Freistaat Preußen", der während der Weimarer Republik ein Bollwerk der Demokratie war. Im sogenannten Preußenschlag wurde seine Landesregierung jedoch 1932 von der Reichsregierung entmachtet. Die preußischen Minister wurden durch Reichskommissare ersetzt und ihre Ministerien 1934 im Zuge der nationalsozialistischen Gleichschaltungspolitik mit den entsprechenden Ressorts des Reichs verschmolzen. Mit dem Kontrollratsgesetz Nr. 46 vom 25. Februar 1947 verfügte der Alliierte Kontrollrat der vier Besatzungsmächte in Deutschland die rechtliche Auflösung Preußens. De facto hatte es bereits mit dem Kriegsende 1945 aufgehört, als Staat zu bestehen. Sowohl die Deutsche Demokratische Republik als auch die Bundesrepublik Deutschland und viele ihrer Länder haben preußische Traditionen weitergeführt. Die Gebiete, die bis 1918 – also zum Zeitpunkt seiner größten Ausdehnung – den preußischen Staat bildeten, gehören heute zu Deutschland und sechs weiteren Staaten: Belgien, Dänemark, Polen, Russland, Litauen und Tschechien. Geschichte. Das spätere Königreich Preußen entwickelte sich im Wesentlichen aus zwei Landesteilen: aus der Markgrafschaft Brandenburg, die zu den sieben Kurfürstentümern des Heiligen Römischen Reiches gehörte, sowie aus dem Herzogtum Preußen, das wiederum aus dem Staat des Deutschen Ordens hervorgegangen war. Deutschordensstaat und Herzogtum. Nach mehreren vergeblichen Versuchen, die Stammesgebiete der heidnischen Prußen zu erobern, rief der polnische Herzog Konrad von Masowien im Jahr 1209 den Deutschen Orden zu Hilfe und war bereit, ihm Landrechte in den zu erobernden Gebieten einzuräumen. Diese Pläne nahmen Gestalt an, nachdem 1226 Kaiser Friedrich II. den Großmeister des Ordens, Hermann von Salza, in der Goldenen Bulle von Rimini mit der so genannten „Heidenmission“ im Preußenland betraut hatte. 1234 wurden die Rechte des Ordens auch vom Papst bestätigt. Mit dem Jahr 1226 begann die Herausbildung des Ordensstaates in Preußen, der zwar mit dem Heiligen Römischen Reich in Verbindung stand, jedoch kein Teil von ihm war. Nachdem die gewaltsame Christianisierung der Prußen und die Eroberung ihres Landes abgeschlossen war, gerieten die Ordensritter zunehmend in eine Legitimationskrise. Dazu kamen Konflikte mit den Nachbarländern Polen und Litauen. In der Schlacht von Tannenberg erlitten die Ordensritter 1410 schließlich eine entscheidende Niederlage gegen Polen und Litauen. 1466 im Zweiten Frieden von Thorn musste der Ordensstaat den Westen seines Gebietes abtreten und für den Rest die Lehnshoheit der polnischen Krone anerkennen. Westpreußen und das Ermland unterstanden fortan als Königliches Preußen direkt der polnischen Krone. Das verbliebene Gebiet des Ordensstaates umfasste in etwa das spätere Ostpreußen ohne das Ermland. Der letzte Hochmeister des Deutschen Ordens, Albrecht von Brandenburg-Ansbach führte zunächst Krieg gegen Polen, besonders gegen das königliche Preußen mit dem Ermland. Als die erhoffte Unterstützung aus dem Reich ausblieb, änderte er seine Politik: Er wandelte das Ordensgebiet in ein weltliches, im Haus Hohenzollern erbliches Herzogtum um, das er am 8. April 1525 aus der Hand des polnischen Königs Sigismund I. in Krakau zu Lehen nahm. Albrecht hatte sich zuvor auf Anraten Martin Luthers der Reformation angeschlossen. Wie der Herzog, so wurden auch seine Untertanen evangelisch. Da Papst und Kaiser weder den zweiten Thorner Frieden noch die Säkularisierung des Ordensstaates anerkannten, galten auf den Reichstagen noch längere Zeit die Hochmeister des Deutschen Ordens formell als Landesherren der preußischen Gebiete. Die Mark Brandenburg und die Hohenzollern. Die eigentliche Keimzelle des späteren hohenzollernschen Staates Preußen war die Mark Brandenburg. Sie war 1157 von dem Askanier Albrecht I. gegründet worden, nachdem er das von Slawen besiedelte Territorium endgültig erobert hatte. Albrecht verstand das Gebiet als Allodialbesitz und bezeichnete sich seither als „Markgraf in Brandenburg“. Nach dem Tod des letzten askanischen Markgrafen Waldemar im Jahr 1320 fiel das Land zunächst an die Wittelsbacher, 1373 dann an die Luxemburger. Dass Brandenburg schließlich an das damals noch vergleichsweise unbedeutende Haus Hohenzollern fiel, hatte seine Ursache in der strittigen Königswahl des Jahres 1410. Nach dem Tod König Ruprechts stellten sich Sigismund von Luxemburg und sein Cousin Jobst von Mähren zur Wahl. Zudem beanspruchten beide den Titel und die Stimme eines Kurfürsten von Brandenburg für sich. Sigismund entsandte seinen Schwager, den Burggrafen Friedrich VI. von Nürnberg als seinen Vertreter ins Kurkollegium, um dort die brandenburgische Stimme für ihn abzugeben. So setzte er sich zunächst mit 4:3 Kurstimmen gegen seinen als Favoriten geltenden Vetter durch. Am 1. Oktober 1410 aber erkannten die übrigen Kurfürsten Jobsts Anspruch auf die Kurmark doch noch als rechtmäßig an, so dass nun er zum römisch-deutschen König gewählt wurde. Allerdings starb Jobst von Mähren schon am 18. Januar 1411 aus ungeklärten Ursachen. Die Krone ging nun endgültig an Sigismund. Zum Dank für Friedrichs Dienste bei der ersten Wahl und um seine Schulden bei ihm zu begleichen, verlieh König Sigismund dem Hohenzollern 1415 die erbliche Würde eines Markgrafen und Kurfürsten von Brandenburg. 1417 belehnte er ihn förmlich mit der Kurmark und dem Amt des Erzkämmerers. Im Gegenzug gewährte der wohlhabende Friedrich seinem Schwager Darlehen, mit denen dieser seine Kriegskosten in Ungarn decken konnte. Friedrich entstammte der fränkischen Linie der Hohenzollern und war seit 1397 Burggraf in Nürnberg. In den Jahren nach 1411 sicherte er in jahrelangen Kämpfen gegen den widerstrebenden, märkischen Adel seine Vormachtstellung im Land. Als Friedrich I. von Brandenburg vereinte er von nun an die Titel Kurfürst von Brandenburg, Markgraf von Brandenburg-Ansbach und Markgraf von Brandenburg-Kulmbach. Er begründete die brandenburgische Linie seines Hauses, die später alle Könige Preußens und von 1871 bis 1918 die deutschen Kaiser stellen sollte. Brandenburg-Preußen (1618–1701). Brandenburg-Preußen um 1700 (rot und grün)"Karte aus F.W. Putzgers Historischer Schul-Atlas, 1905" Im Jahr 1618 erlosch die herzoglich-preußische Linie des Hauses Hohenzollern im Mannesstamm. Ihre Erben, die Markgrafen und Kurfürsten von Brandenburg, regierten von da an beide Länder in Personalunion. Sie waren damit sowohl dem Kaiser als auch dem König von Polen lehenspflichtig. Die Bezeichnung Brandenburg-Preußen für die weit auseinander gelegenen hohenzollernschen Herrschaftsgebiete ist nicht zeitgenössisch, sondern hat sich in der Geschichtswissenschaft eingebürgert, um die Übergangszeit von 1618 bis zur Gründung des Königreichs Preußen im Jahre 1701 zu bezeichnen und zugleich die Kontinuität zwischen dem Kurfürstentum Brandenburg und dem Königreich Preußen zu betonen. Zeit des Dreißigjährigen Krieges. Wenige Jahre vor dem Dreißigjährigen Krieg hatte sich Brandenburg im Jülich-Klevischen Erbfolgestreit auch die Herrschaft über das Herzogtum Kleve sowie die Grafschaften Mark und Ravensberg im Westen des Reichs sichern können. Vom Krieg selbst blieb das Land zunächst verschont. Im Jahr 1625 brach jedoch der Dänisch-niedersächsische Krieg aus, in dem einige protestantische Staaten Norddeutschlands, angeführt von Dänemark und unterstützt von England und den Generalstaaten der Katholischen Liga und dem Kaiser entgegentraten. Nach der Niederlage der dänischen Armee bei Dessau im April 1626 drangen kaiserliche Truppen in die Mark ein. Kurfürst Georg Wilhelm, der über keine nennenswerten Streitkräfte verfügte, zog sich in das außerhalb des Reiches gelegene Herzogtum Preußen zurück und schloss 1627 gezwungenermaßen ein Bündnis mit dem Kaiser. Brandenburg diente fortan den kaiserlichen Truppen als Aufmarsch- und Rückzugsgebiet. Am 6. Juli 1630 landete der Schwedenkönig Gustav Adolf mit 13.000 Mann auf Usedom. Damit begann ein neuer Abschnitt des Dreißigjährigen Kriegs. Als Gustav Adolf im Frühjahr 1631 in Brandenburg einzog, nötigte er den Kurfürsten, seinen Schwiegervater, zu einem Bündnis. Nachdem die schwedischen Truppen in der Schlacht bei Nördlingen am 6. September 1634 vernichtend geschlagen wurden, brach die protestantische Allianz auseinander. Brandenburg ging ein neues Bündnis mit dem Kaiser ein. Die Kurmark wurde nun abwechselnd von Gegnern und Verbündeten besetzt. Der Kurfürst zog sich erneut ins preußische Königsberg zurück, wo er am 1. Dezember 1640 starb. Neuer Kurfürst wurde sein Sohn Friedrich Wilhelm. Primäres Ziel seiner Politik war, das Land zu befrieden. Dies versuchte er durch einen Ausgleich mit Schweden zu erreichen, der ab dem 24. Juli 1641 für zwei Jahre galt. In Verhandlungen mit dem schwedischen Reichskanzler Axel Oxenstierna gelang es den Brandenburgern am 28. Mai 1643, einen Vertrag auszuhandeln, der das ganze Land formell der kurfürstlichen Verwaltung zurückgab. Bis zum Westfälischen Frieden 1648 blieb Brandenburg jedoch von den Schweden besetzt. Im Westfälischen Frieden konnte Brandenburg-Preußen dann Hinterpommern, das Hochstift Halberstadt und das Fürstentum Minden erwerben sowie die Anwartschaft auf das Erzstift Magdeburg, das 1680 anfiel. Die Gebietsgewinne machten zusammen etwa 20.000 km² aus. Konsolidierungs- und Reformpolitik des Großen Kurfürsten. Der Große Kurfürst in der Schlacht bei Fehrbellin, 1675 Brandenburg war eines der am stärksten vom Dreißigjährigen Krieg betroffenen deutschen Territorien. Weite Landstriche waren verwüstet und entvölkert. Um es dem Land in Zukunft zu ersparen, Spielball mächtigerer Nachbarn zu sein, betrieb Friedrich Wilhelm, später der "Große Kurfürst" genannt, nach dem Krieg eine vorsichtige Schaukelpolitik zwischen den Großmächten sowie den Aufbau einer schlagkräftigen Armee und einer effizienten Verwaltung. Er baute ein stehendes Heer auf, das Brandenburg zu einem begehrten Verbündeten der europäischen Mächte machte. Dies ermöglichte es dem Kurfürsten, Subsidienzahlungen von mehreren Seiten zu erhalten. Er betrieb den Aufbau einer eigenen kurbrandenburgischen Marine und verfolgte in späteren Jahren Kolonialprojekte in Westafrika und Westindien. Nach der Gründung der Festung Groß Friedrichsburg durch die Brandenburgisch-Afrikanische Compagnie im heutigen Ghana nahm Brandenburg am internationalen Sklavenhandel teil. Im Inneren führte Friedrich Wilhelm Wirtschaftsreformen durch und initiierte umfangreiche Peuplierungsmaßnahmen, um sein ökonomisch geschwächtes Land zu entwickeln. Unter anderem lud er 1685 im Edikt von Potsdam – seiner Antwort auf das Edikt von Fontainebleau König Ludwigs XIV. – Tausende aus Frankreich vertriebene Hugenotten zur Niederlassung in Brandenburg-Preußen ein. Gleichzeitig entmachtete er die Stände zugunsten einer absolutistischen Zentralverwaltung. Er legte damit den Grundstein für das preußische Beamtentum, das seit dem 18. Jahrhundert den Ruf besonderer Effizienz und Staatstreue genoss. Dem Kurfürsten gelang es im Jahre 1657 im Vertrag von Wehlau, das Herzogtum Preußen aus der polnischen Oberhoheit zu lösen. Im Frieden von Oliva von 1660 wurde die Souveränität des Herzogtums endgültig anerkannt. Dies war eine entscheidende Voraussetzung für seine Erhebung zum Königreich unter dem Sohn des Großen Kurfürsten. Durch den Sieg im Schwedisch-Brandenburgischen Krieg (1674–1679) konnte das Land seine Machtstellung trotz ausbleibender Landgewinne weiter ausbauen. Friedrich Wilhelm hatte in seiner Amtszeit das zuvor vergleichsweise unbedeutende Brandenburg zum nach Österreich zweitmächtigsten Territorium im Reich gemacht. Damit war der Grundstein für das spätere Königreich gelegt. Auf Betreiben Friedrich Wilhelms und seiner oranischen Gemahlin Luise Henriette trugen bedeutende niederländische Gelehrte, insbesondere von der Universität Leiden, zur Modernisierung des brandenburg-preußischen Staates bei. Erringung der Königswürde durch Friedrich I. (1701–1713). Krönung von Kurfürst Friedrich III. als König Friedrich I. in Preußen, Königsberg 1701 Rang, Reputation und Prestige eines Fürsten waren in der Zeit des Absolutismus wichtige politische Faktoren. Kurfürst Friedrich III. nutzte daher die Souveränität des Herzogtums Preußen dazu, dessen Erhebung zum Königreich und seine eigene zum König anzustreben. Damit versuchte er vor allem, die Ranggleichheit mit dem Kurfürsten von Sachsen, der zugleich König von Polen war, und mit dem Kurfürsten von Braunschweig-Lüneburg („Kurhannover“), der Anwärter auf den englischen Thron war, zu wahren. Da es innerhalb des Heiligen Römischen Reiches keine Krone außer der des Kaisers geben konnte, strebte Kurfürst Friedrich III. die Königswürde für das Herzogtum Preußen an und nicht für den eigentlich wichtigeren Landesteil, die Mark Brandenburg. Kaiser Leopold I. stimmte schließlich zu, dass Friedrich für das nicht zum Reich gehörende Herzogtum Preußen den Königstitel erhalten solle. Kurfürst Friedrich III. krönte sich selbst am 18. Januar 1701 in Königsberg und wurde zu Friedrich I., "König in Preußen". Die einschränkende Titulatur „"in" Preußen“ war notwendig, weil die Bezeichnung „König "von" Preußen“ als Herrschaftsanspruch auf das gesamte preußische Gebiet verstanden worden wäre. Da Ermland und westliches Preußen (Pommerellen) damals aber noch unter der Oberhoheit der polnischen Krone waren, hätte dies Konflikte mit dem Nachbarland heraufbeschworen, dessen Herrscher noch bis 1742 den Titel eines „Königs von Preußen“ beanspruchten. Seit 1701 bürgerte sich aber im allgemeinen deutschen Sprachgebrauch allmählich die Landesbezeichnung "Königreich Preußen" für alle von den Hohenzollern regierten Gebiete ein – ob innerhalb oder außerhalb des Heiligen Römischen Reiches gelegen. Zentren des Hohenzollernstaates blieben die Hauptstadt Berlin und die Sommerresidenz Potsdam. Alle Königskrönungen fanden jedoch traditionsgemäß in Königsberg statt. Friedrich I. überließ das politische Geschäft weitgehend dem sogenannten Drei-Grafen-Kabinett. Er selbst konzentrierte sich auf eine aufwändige Hofhaltung nach französischem Vorbild, die seinen Staat an den Rand des finanziellen Ruins brachte. Er finanzierte den Prunk am Hof u. a. dadurch, dass er preußische Soldaten an die Allianz im Spanischen Erbfolgekrieg vermietete. Als Friedrich I. am 25. Februar 1713 starb, hinterließ er einen Schuldenberg von zwanzig Millionen Talern. Zentralisierung und Militarisierung unter Friedrich Wilhelm I. (1713–1740). Tabakskollegium Friedrich Wilhelms I. von Preußen (1736) Der Sohn Friedrichs I., Friedrich Wilhelm I., war nicht prunkliebend wie sein Vater, sondern sparsam und praktisch veranlagt. Folglich kürzte er die Ausgaben für die Hofhaltung auf ein Minimum. Alles, was dem höfischen Luxus diente, wurde entweder abgeschafft oder anderen Nutzungen zugeführt. Alle Sparmaßnahmen des Königs zielten auf den Ausbau eines starken stehenden Heeres, in dem der König die Grundlage seiner Macht nach innen und außen sah. Diese Haltung brachte ihm den Beinamen „Soldatenkönig“ ein. Gleichwohl führte Friedrich Wilhelm I. nur einmal in seiner Amtszeit einen kurzen Feldzug im Großen Nordischen Krieg während der Belagerung Stralsunds. In dessen Folge gewann Preußen nicht nur einen Teil Vorpommerns, sondern dank des prestigeträchtigen Siegs über die Schweden auch an internationalem Prestige. Friedrich Wilhelm I. revolutionierte die Verwaltung unter anderem mit der Gründung des Generaldirektoriums. Damit zentralisierte er das Land, das bisher noch immer territorial zersplittert war, und gab ihm eine einheitliche staatliche Organisation. Durch eine merkantilistische Wirtschaftspolitik, die Förderung von Handel und Gewerbe sowie eine Steuerreform gelang es dem König, die jährlichen Staatseinnahmen zu verdoppeln. Um die nötigen Fachkräfte zu gewinnen, führte er die allgemeine Schulpflicht ein und errichtete volkswirtschaftliche Lehrstühle an preußischen Universitäten, die ersten ihrer Art in Europa. Im Zuge einer intensiven Peuplierungspolitik ließ er Menschen aus ganz Europa in seinen dünnbesiedelten Provinzen ansiedeln. Als Friedrich Wilhelm I. 1740 starb, hinterließ er ein wirtschaftlich und finanziell gefestigtes Land. Mit ihm begann jedoch auch die Militarisierung Preußens, wenngleich deren Umfang und Auswirkungen umstritten sind. Aufstieg zur Großmacht unter Friedrich II. (1740–1786). Preußens Gebietszuwächse unter Friedrich II., 1740–1786 (grün) Am 31. Mai 1740 bestieg sein Sohn Friedrich II. – später "Friedrich der Große" genannt – den Thron. Noch in seinem ersten Regierungsjahr ließ er die preußische Armee in das zu Österreich gehörende Schlesien einmarschieren, auf das er Anspruch erhob. Damit begann der preußisch-österreichische Dualismus, der Kampf der beiden führenden deutschen Mächte um die Vorherrschaft im Reich. In den drei Schlesischen Kriegen (1740–1763) gelang es, die neu gewonnene Provinz für Preußen zu sichern. Im dritten, dem Siebenjährigen Krieg (1756–1763), stand das mit Großbritannien verbündete Preußen einer Koalition aus Österreich, Frankreich, Russland und Sachsen gegenüber und geriet trotz großer militärischer Erfolge an den Rand des Zusammenbruchs. Vor der Niederlage wurde es nur durch das „Mirakel des Hauses Brandenburg“, den Tod der Zarin Elisabeth, bewahrt. Ihr Nachfolger, Zar Peter III., war ein Bewunderer Friedrichs und löste Russland aus der Allianz. Seine Gegner sahen sich dadurch gezwungen, sich mit Friedrich zu verständigen und gestanden ihm im Frieden von Hubertusburg den endgültigen Besitz Schlesiens zu. Preußen, dessen Armee nun als eine der besten Europas galt, war zur fünften Großmacht aufgestiegen. Friedrich II. war ein Vertreter des aufgeklärten Absolutismus und verstand sich selbst als „ersten Diener des Staates“. So schaffte er die Folter ab, verminderte die Zensur, legte den Grundstein für das Allgemeine preußische Landrecht und holte mit der Gewährung völliger Glaubensfreiheit weitere Exulanten ins Land. Unter seiner Regierung wurde der Landesausbau ebenso vorangetrieben wie die Peuplierung von zuvor weitgehend unbesiedelten Gebieten, etwa des Oder- und des Netzebruchs. Gemeinsam mit Österreich und Russland betrieb Friedrich die Teilung Polens. Bei der ersten Teilung 1772 erwarb er Polnisch Preußen, das in Westpreußen eingegliedert wurde, den Netzedistrikt und das Fürstbistum Ermland, das zu Ostpreußen kam. Damit waren die hohenzollernschen Territorien Pommern und Ostpreußen nicht mehr durch polnisches Staatsgebiet voneinander getrennt. Außerdem gehörten nun alle preußischen Gebiete zum Hohenzollernstaat, so dass sich Friedrich nun König „von Preußen“ nennen konnte. Er starb am 17. August 1786 auf Schloss Sanssouci. Stagnation und Ende des preußischen Feudalstaates (1786–1807). Nach dem Tod Friedrichs II. bestieg sein Neffe Friedrich Wilhelm II. (1786–1797) den preußischen Thron. Berlin wuchs in den 1790er Jahren zu einer ansehnlichen, vom Klassizismus geprägten Stadt heran. Hier, wie im ganzen Reich, nahm das erstarkende Bildungsbürgertum die Französische Revolution meist positiv auf. Seit 1794 galt in Preußen das Allgemeine Landrecht, ein umfassendes Gesetzeswerk, dessen Ausarbeitung schon unter Friedrich II. begonnen hatte. In der Außenpolitik zwang Preußen Österreich 1790 durch ein Bündnis mit dem Osmanischen Reich zu einem Separatfrieden im Russisch-Österreichischen Türkenkrieg. Friedrich Wilhelm setzte die Teilungspolitik gegenüber Polen fort, so dass sich Preußen in der zweiten und der dritten Teilung Polens (1793 und 1795) weitere Gebiete bis nach Warschau sichern konnte. Aus ihnen wurden die neuen Provinzen Südpreußen (1793), Neuostpreußen und Neuschlesien (beide 1795) gebildet. Die Bevölkerungszahl wuchs damit zunächst um 2,5 Millionen, jedoch gingen die Neuerwerbungen nach der Niederlage gegen Frankreich im Jahr 1806 wieder verloren. Die französische Revolution bewirkte eine Annäherung zwischen Österreich und Preußen. Obwohl die preußische Regierung die Revolution zu Beginn noch wohlwollend betrachtet hatte, schloss sie am 7. Februar 1792 ein Verteidigungsbündnis mit Österreich. Wegen der Pillnitzer Deklaration zugunsten König Ludwigs XVI. erklärte Frankreich beiden Ländern am 20. April 1792 den Krieg. Im Ersten Koalitionskrieg folgte auf den anfänglichen raschen Vormarsch nach der Kanonade von Valmy der Rückzug der preußischen und österreichischen Truppen aus Frankreich. Anschließend stießen französische Revolutionstruppen bis zum Rhein vor. Nach dem Frieden von Basel 1795 schied Preußen für mehr als ein Jahrzehnt aus der antifranzösischen Allianz aus. Am 16. November 1797 starb Friedrich Wilhelm II. Ihm folgte sein Sohn Friedrich Wilhelm III. (1797–1840) auf den Thron. Zwischen 1795 und 1806 profitierte Preußen in territorialer Hinsicht von seiner frankreichfreundlichen Außenpolitik. Faktisch kam es zu einer von Frankreich unterstützten Vormachtstellung in Norddeutschland. Im Reichsdeputationshauptschluss von 1803 wurde das Land für Verluste auf dem linken Rheinufer mit den Bistümern Hildesheim und Paderborn sowie weiteren Gebieten entschädigt. Zudem besetzte Preußen kurzfristig das mit Großbritannien verbundene Kurfürstentum Hannover. Preußischer Reststaat nach dem Frieden von Tilsit 1807 (braun) Als 1806 Verhandlungen mit Frankreich über die Aufteilung der Machtsphären in Deutschland scheiterten, kam es erneut zum Krieg. In der Schlacht bei Jena und Auerstedt erlitt Preußen eine vernichtende Niederlage gegen die Truppen Napoleons I., die den Untergang des bisherigen altpreußischen Staates bedeutete. Im Frieden von Tilsit verlor Preußen 1807 etwa die Hälfte seines Territoriums: alle Gebiete westlich der Elbe sowie die Zugewinne aus der zweiten und dritten polnischen Teilung. Zudem musste das Land eine französische Besatzung hinnehmen, die fremden Truppen versorgen und hohe Kontributionszahlungen an Frankreich leisten. Preußen verlor faktisch seine Großmachtstellung und war nach Größe und Funktion nur noch ein Pufferstaat zwischen Frankreich und Russland. Staatsreformen und Befreiungskriege (1807–1815). Die als untragbar empfundenen Bedingungen des Tilsiter Friedens bewirkten aber auch eine Erneuerung des Staates. Die grundlegenden Reformen, die nach 1807 in Angriff genommen wurden, zielten innenpolitisch darauf ab, die Zustände, die zur Niederlage von 1806 geführt hatten, zu verändern und außenpolitisch darauf, die französische Hegemonie abzuschütteln. Mit den Stein-Hardenbergschen Reformen unter Leitung von Freiherr vom Stein, Scharnhorst und Hardenberg wurde das Staatswesen modernisiert. So wurde 1807 die Leibeigenschaft der Bauern aufgehoben, 1808 die kommunale Selbstverwaltung eingeführt und 1810 die Gewerbefreiheit gewährt. Der aus Rom zurückberufene Gesandte Wilhelm von Humboldt gestaltete das Bildungswesen neu und gründete 1809 die erste Berliner Universität, die heute seinen Namen trägt. Die Heeresreform wurde 1813 mit der Einführung der allgemeinen Wehrpflicht abgeschlossen. An Napoleons Russlandfeldzug von 1812 nahm Preußen als Verbündeter Frankreichs teil. Nach der Niederlage der „Grande Armee“ schloss der preußische Generalleutnant Graf Yorck jedoch bereits am 30. Dezember 1812 die Konvention von Tauroggen mit dem General der russischen Armee Hans von Diebitsch. Sie sah einen Waffenstillstand vor und besagte, dass Yorck seine preußischen Truppen aus der Allianz mit der französischen Armee herauslösen sollte. Yorck handelte aus eigener Initiative, ohne Befehl seines Königs, der noch mehrere Monate zwischen der erzwungenen Bündnistreue zu Frankreich und einer russlandfreundlichen Politik schwankte. Die Konvention von Tauroggen wurde in Preußen als Beginn des Aufstandes gegen die französische Fremdherrschaft verstanden. Schließlich rang sich auch Friedrich Wilhelm zu einem Politikwechsel durch. Als er am 20. März 1813 in der "Schlesischen privilegierten Zeitung" mit seinem Aufruf An Mein Volk, der auf den 17. März datiert war, zum Befreiungskampf aufrief, standen 300.000 preußische Soldaten (6 % der Gesamtbevölkerung) bereit. Für die Dauer des bevorstehenden Krieges wurde die Allgemeine Wehrpflicht eingeführt. Preußische Truppen unter Blücher und Gneisenau trugen in der Völkerschlacht bei Leipzig 1813, beim Vorstoß der Alliierten nach Paris in der Frühjahrskampagne 1814 und in der Schlacht bei Waterloo 1815 entscheidend zum Sieg über Napoleon bei. Restauration und Reaktion, Vormärz und Märzrevolution (1815–1848). Preußen nach dem Wiener Kongress 1815 (dunkelblau) Jubelnde Revolutionäre nach Barrikadenkämpfen in Berlin, 18. März 1848 Gewaltsame Auflösung der preußischen Nationalversammlung Auf dem Wiener Kongress 1815 erhielt Preußen den Großteil seines seit 1807 bestehenden Staatsgebietes zurück. Neu hinzu kamen der Rest Schwedisch-Vorpommerns und der nördliche Teil des Königreichs Sachsen. Außerdem gewann Preußen beträchtliche Gebiete im Westen hinzu, die es unter Vereinigung mit früherem westlichem Staatsgebiet bald zur Provinz Westfalen und zur Rheinprovinz zusammenfasste. In den neuen Provinzen im Westen entstanden in Koblenz, Köln und Minden mächtige Festungen, gebaut nach neupreußischer Befestigungsmanier, zur Sicherung der preußischen Vormachtstellung. Preußen erhielt zwar die früher polnische, 1807 zum Herzogtum Warschau gekommene Provinz Posen zurück, verlor jedoch Gebiete der zweiten und der dritten polnischen Teilung an Russland. Der preußische Staat bestand seitdem aus zwei großen, aber räumlich getrennten Länderblöcken in Ost- und Westdeutschland. Preußen wurde Mitglied des Deutschen Bundes. Das während der Freiheitskriege seinem Volk gegebene Versprechen, dem Land eine Verfassung zu geben, löste Friedrich Wilhelm III. nicht ein. Anders als in den meisten übrigen deutschen Staaten wurde in Preußen auch keine Volksvertretung für den Gesamtstaat geschaffen. Statt eines Landtages für ganz Preußen wurden lediglich Provinziallandtage einberufen. Das Gesetz vom 5. Juni 1823 gewährte ihnen ein Mitspracherecht. Es herrschten daher Zustände wie in einem Ständestaat, weil außer dem einflussreichen Adel in den Provinzen die Städte eine Selbstverwaltung besaßen, wenn auch eine gewisse Staatsaufsicht bestand. Die königliche Regierung glaubte so, liberale Bestrebungen nach einer konstitutionellen Monarchie und demokratischen Mitwirkungsrechten verhindern zu können. Dem Ziel, die Demokratiebestrebungen in ganz Europa zu unterdrücken, diente auf außenpolitischer Ebene die Heilige Allianz, die Friedrich Wilhelm III. gemeinsam mit dem Zaren des Russischen Reiches und dem Kaiser von Österreich ins Leben rief. Dem Bestreben der königlichen Regierung, Liberalismus, Demokratie und die Idee der Einigung Deutschlands zu bekämpfen, standen jedoch starke ökonomische Zwänge entgegen. Aufgrund der Zweiteilung seines Staatsgebiets lag die wirtschaftliche Einigung Deutschlands nach 1815 in Preußens ureigenem Interesse. Das Königreich gehörte daher zu den treibenden Kräften des Deutschen Zollvereins, dessen Mitglied es 1834 wurde. Durch den Erfolg des Zollvereins setzten immer mehr Befürworter der deutschen Einigung ihre Hoffnungen darauf, dass Preußen Österreich als Führungsmacht des Bundes ablösen werde. Die preußische Regierung jedoch wollte sich nicht für die politische Einigung Deutschlands engagieren. Die Hoffnungen, die der Regierungsantritt Friedrich Wilhelms IV. (1840–1861) bei Liberalen und Anhängern der deutschen Einigung zunächst geweckt hatte, wurden bald enttäuscht. Auch der neue König machte aus seiner Abneigung gegen eine Verfassung und einen gesamtpreußischen Landtag keinen Hehl. Der große Finanzbedarf für den Bau der von den Militärs geforderten Ostbahn erforderte jedoch die Bewilligung von Etatmitteln aller Provinzen. Deswegen wurde im Frühjahr 1847 schließlich der Vereinigte Landtag einberufen. Der König machte schon in seiner Eröffnungsrede unmissverständlich deutlich, dass er den Landtag nur als Instrument der Geldbewilligung ansah und dass er keine Verfassungsfragen erörtert sehen wollte. Da die Mehrheit des Landtags aber von Beginn an nicht nur das Etatbewilligungsrecht, sondern auch eine parlamentarische Kontrolle der Staatsfinanzen und eine Verfassung forderte, wurde das Gremium schon nach kurzer Zeit wieder aufgelöst. Preußen stand damit schon vor dem Ausbruch der Märzrevolution vor einem Verfassungskonflikt. Nach den Volkserhebungen in Südwestdeutschland erreichte die Revolution am 18. März 1848 schließlich auch Berlin. Friedrich Wilhelm IV., der zunächst noch auf die Aufständischen hatte schießen lassen, ließ die Truppen aus der Stadt zurückziehen und schien sich nun den Forderungen der Revolutionäre zu beugen. Der Vereinigte Landtag trat noch einmal zusammen, um die Einberufung einer preußischen Nationalversammlung zu beschließen, die vom 22. Mai bis in den September 1848 in der Sing-Akademie zu Berlin tagte. Der preußischen Nationalversammlung war von der Krone die Aufgabe zugedacht worden, mit ihr gemeinsam eine Verfassung auszuarbeiten. Die Nationalversammlung stimmte dem Regierungsentwurf für eine Verfassung jedoch nicht zu, sondern arbeitete mit der "Charte Waldeck" einen eigenen Entwurf aus. Auch durch die Verfassungspolitik der preußischen Nationalversammlung kam es zur Gegenrevolution: der Auflösung der Versammlung und zur Einführung einer oktroyierten (verordneten) Verfassung seitens der Staatsspitze. Diese oktroyierte Verfassung behielt zwar einige Punkte der Charte bei, stellte aber andererseits zentrale Vorrechte der Krone wieder her. Vor allem das eingeführte Dreiklassenwahlrecht prägte die politische Kultur Preußens bis 1918 entscheidend. In der Frankfurter Nationalversammlung setzten sich zunächst die Befürworter eines großdeutschen Nationalstaats durch, die ein Reich unter Einschluss der deutschsprachigen Teile Österreichs vorsahen. Da Österreich aber nur unter Einbeziehung aller seiner Landesteile einer Reichseinigung zustimmen wollte, wurde schließlich doch die so genannte Kleindeutsche Lösung beschlossen, d. h. eine Einigung unter Preußens Führung. Demokratie und deutsche Einheit scheiterten aber 1849, als Friedrich Wilhelm IV. die Kaiserkrone ablehnte, die ihm die Nationalversammlung angetragen hatte. Die Revolution wurde in Südwestdeutschland mit Hilfe preußischer Truppen endgültig niedergeschlagen. Von der Revolution zum Verfassungskonflikt (1849–1862). Noch während der Niederschlagung der Revolution unternahm Preußen einen erneuten Einigungsversuch, allerdings mit einem konservativeren Verfassungsentwurf und einer engeren Zusammenarbeit mit den Mittelstaaten. Unterdessen versuchte Österreich, ein Großösterreich durchzusetzen. Nachdem die politisch-diplomatische Auseinandersetzung zwischen den beiden deutschen Großmächten in der Herbstkrise 1850 beinahe zum Krieg geführt hatte, gab Preußen seine Erfurter Union endgültig auf. Der Deutsche Bund wurde fast unverändert wiederhergestellt. Während der Reaktionsära arbeiteten Preußen und Österreich wieder eng zusammen, um demokratische und nationale Bewegungen niederzuhalten; die Gleichberechtigung wurde Preußen aber verweigert. König Wilhelm I. bestieg 1861 den preußischen Thron. Mit Kriegsminister Roon strebte er eine Heeresreform an, die längere Dienstzeiten und eine Aufrüstung der preußischen Armee vorsah. Die liberale Mehrheit des Preußischen Landtags, dem das Budgetrecht zustand, wollte die dafür nötigen Gelder jedoch nicht bewilligen. Es kam zu einem Verfassungskonflikt, in dessen Verlauf der König seine Abdankung in Erwägung zog. Als letzten Ausweg entschloss sich Wilhelm 1862, Otto von Bismarck als Ministerpräsidenten zu berufen. Dieser war ein vehementer Befürworter des königlichen Alleinherrschaftsanspruchs und regierte jahrelang in der Konfliktsperiode gegen Verfassung und Parlament und ohne gesetzlichen Haushalt. Aus der Erkenntnis heraus, dass die preußische Krone nur dann Rückhalt im Volk gewinnen könne, wenn sie sich an die Spitze der deutschen Einigungsbewegung setzte, verfolgte Bismarck eine offensive Politik, die zu den drei Einigungskriegen führte. Bismarck, die Einigungskriege und die Reichsgründung (1862–1871). Mit der sogenannten Novemberverfassung von 1863 versuchte die dänische Regierung – entgegen den Bestimmungen des Londoner Protokolls von 1852 – das Herzogtum Schleswig unter Ausschluss Holsteins stärker an das eigentliche Königreich Dänemark zu binden. Dies löste 1864 den Deutsch-Dänischen Krieg aus, den Preußen und Österreich im Namen des Deutschen Bundes gemeinsam führten. Nach dem Sieg der Truppen des Deutschen Bundes musste die dänische Krone im Frieden von Wien auf die Herzogtümer Schleswig, Holstein und Lauenburg verzichten. Die Herzogtümer wurden von Preußen und Österreich zunächst gemeinsam verwaltet. Preußen mit seinen Gebietsgewinnen aus dem Deutschen Krieg von 1866 (dunkelblau) in den Grenzen des Deutschen Reiches von 1871 Bald nach Ende des Krieges mit Dänemark brach zwischen Österreich und Preußen Streit um die Verwaltung und die Zukunft Schleswig-Holsteins aus. Dessen tiefere Ursache war jedoch das Ringen um die Vorherrschaft im Deutschen Bund. Es gelang Bismarck, den aus Gründen der Loyalität gegenüber Österreich lange zögerlichen König Wilhelm zu einer kriegerischen Lösung zu überreden. Auf Seiten Preußens trat neben einigen norddeutschen und thüringischen Kleinstaaten auch das Königreich Italien in den Krieg ein (→ Schlacht bei Custozza und Seeschlacht von Lissa). Im Deutschen Krieg errang Preußens Armee unter General Helmuth von Moltke am 3. Juli 1866 in der Schlacht von Königgrätz den entscheidenden Sieg. Im Prager Frieden vom 23. August 1866 konnte Preußen seine Bedingungen diktieren. Österreich musste die Auflösung des bisherigen deutschen Bundes anerkennen, auf eine Beteiligung an der „neuen Gestaltung Deutschlands“ verzichten und das „engere Bundesverhältnis“ anerkennen, welches Preußen nördlich von der Mainlinie begründete, und musste sich mit einer späteren „nationalen Verbindung“ der süddeutschen Staaten mit dem „norddeutschen Bunde“ einverstanden erklären. Ferner konnte Preußen mit den Annexionen des Königreichs Hannover, des Kurfürstentums Hessen-Kassel, des Herzogtums Nassau, der Freien Stadt Frankfurt und ganz Schleswig-Holsteins durchsetzen, dass nun fast alle preußischen Territorien miteinander verbunden waren. Bereits fünf Tage vor dem Friedensschluss hatte Preußen zusammen mit den Ländern nördlich der Mainlinie den Norddeutschen Bund gegründet. Anfangs ein Militärbündnis, gaben ihm die Vertragsparteien 1867 eine Verfassung, die ihn zu einem von Preußen dominierten Bundesstaat machte. Dessen von Bismarck entworfene Verfassung nahm in wesentlichen Punkten die des Deutschen Kaiserreiches vorweg. Die vorerst souverän bleibenden süddeutschen Staaten mussten Schutz- und Trutzbündnisse mit Preußen eingehen. Bismarck beendete den preußischen Verfassungskonflikt durch die Indemnitätsvorlage, die dem preußischen Landtag nachträglich das Budgetbewilligungsrecht zusprach. a> in Versailles, 18. Januar 1871 Mit vagen Versprechungen, Luxemburg eventuell Frankreich zu überlassen, hatte Bismarck Napoleon III. dazu gebracht, seine Politik gegenüber Österreich zu dulden. Nun sah sich Frankreich einem erstarkten Preußen gegenüber, das von den früheren territorialen Zusagen nichts mehr wissen wollte. Schließlich spitzte sich der Streit um die spanische Thronkandidatur des katholischen Hohenzollernprinzen Leopold von Hohenzollern-Sigmaringen durch die Emser Depesche so weit zu, dass die französische Regierung Preußen den Krieg erklärte. Dies stellte für die süddeutschen Staaten Bayern, Württemberg, Baden und das südlich der Mainlinie noch unabhängige Hessen-Darmstadt den Bündnisfall dar. Nach dem raschen deutschen Sieg im Deutsch-Französischen Krieg und der darauf folgenden nationalen Begeisterung in ganz Deutschland sahen sich nun auch die süddeutschen Fürsten gedrängt, dem Norddeutschen Bund beizutreten. Daraufhin wurde das Deutsche Reich in der kleindeutschen Version gegründet, die schon als Einigungsmodell von der Nationalversammlung 1848/49 vorgesehen war. Im Spiegelsaal von Versailles wurde Wilhelm I. am 18. Januar 1871 – am 170. Jahrestag der Königskrönung Friedrichs I. – zum Deutschen Kaiser proklamiert. Obwohl Wilhelm I. Wert auf den Titel „Kaiser von Deutschland“ legte, riet ihm Bismarck aus politischen Gründen dazu, den Titel „Deutscher Kaiser“ anzunehmen. Der Titel „Kaiser von Deutschland“ hätte auch einen Anspruch auf die nicht-preußischen Gebiete erhoben, wozu die Fürsten niemals zugestimmt hätten. Wilhelm I. war damit bis zum Tag der Proklamation nicht einverstanden. Um eine genaue Formulierung zu umgehen, brachte der badische Großherzog Friedrich I. ein Hoch auf „Seine Kaiserliche und Königliche Majestät, Kaiser Wilhelm“ aus. Das Königreich Preußen verlor damit seine staatliche Souveränität an das neue Deutsche Kaiserreich, die vormalige Führungsmacht des Norddeutschen Bundes ging also im Reich auf. Im Deutschen Kaiserreich (1871–1918). Von der Reichsgründung 1871 bis zur Novemberrevolution 1918 blieben deutsche und preußische Politik stets aufs engste miteinander verknüpft, da der König von Preußen zugleich Deutscher Kaiser und die preußischen Ministerpräsidenten – bis auf die kurzen Amtszeiten von Botho zu Eulenburg und Albrecht von Roon – immer auch Reichskanzler waren. Zwischen 1871 und 1887 führte Bismarck in Preußen den sogenannten Kulturkampf, um den Einfluss des Katholizismus zurückzudrängen. Widerstände der katholischen Bevölkerungsteile und des Klerus, insbesondere im Rheinland und in den ehemals polnischen Gebieten, zwangen Bismarck aber dazu, die Auseinandersetzung ergebnislos zu beenden. In den mehrheitlich von Polen bewohnten östlichen Landesteilen Preußens ging der Kulturkampf mit dem Versuch einer Germanisierungspolitik einher. Auf Wilhelm I. folgte im März 1888 der bereits schwer kranke Friedrich III., der nach einer Regierungszeit von nur 99 Tagen verstarb. Im Juni des „Drei-Kaiser-Jahres“ bestieg Wilhelm II. den Thron. Er entließ 1890 Bismarck und bestimmte die Politik des Landes von da an weitgehend selbst. Dies änderte sich erst im Verlauf des Ersten Weltkriegs, als sowohl der Kaiser als auch die Reichsregierung, die Richtlinienkompetenz weitgehend der Obersten Heeresleitung unter den Generälen Hindenburg und Ludendorff überließen. Die Siegermächte sahen im Kaiser jedoch einen der Hauptverantwortlichen für den Kriegsausbruch. In mehreren Antwortnoten auf das deutsche Waffenstillstandsgesuch vom Oktober 1918 drangen sie verklausuliert auf seine Abdankung. Wilhelm II. erwog zunächst, nur als Deutscher Kaiser, nicht aber als König von Preußen abzudanken. Aufgrund seines Zögerns verschärfte sich die revolutionäre Lage in Berlin. Um sie zu entschärfen, gab Reichskanzler Max von Baden am 9. November den Verzicht des Kaisers auf beide Kronen ohne dessen Zustimmung bekannt. Damit endete de facto die Monarchie in Preußen und Deutschland. Am 28. November dankte Wilhelm II. vom niederländischen Exil aus auch formell ab. Die preußische Königskrone befindet sich heute auf der Burg Hohenzollern bei Hechingen. Freistaat Preußen in der Weimarer Republik (1918–1933). Preußen nach dem Ersten Weltkrieg (dunkelblau) Otto Braun, der sozialdemokratische Ministerpräsident des Freistaates Preußen von 1921 bis 1932 Preußen wurde mit dem Ende des Kaiserreichs zum eigenständigen Freistaat innerhalb des Reichsverbands proklamiert und erhielt 1920 eine demokratische Verfassung. Die im Versailler Vertrag festgelegten Gebietsabtretungen Deutschlands betrafen – bis auf das nach dem Deutsch-Französischen Krieg gebildete Reichsland Elsass-Lothringen und Teile der bayerischen Pfalz – ausschließlich preußisches Territorium: Eupen-Malmedy ging an Belgien, Nordschleswig an Dänemark, das Hultschiner Ländchen an die Tschechoslowakei. Große Teile der Gebiete von Westpreußen und Posen, die Preußen im Rahmen der Teilungen Polens erhalten hatte, sowie Ost-Oberschlesien gingen an Polen. Danzig wurde Freie Stadt unter Verwaltung des Völkerbunds und das Memelland kam unter Alliierte Verwaltung. Wie schon vor den polnischen Teilungen war Ostpreußen von den übrigen Landesteilen durch polnisches Gebiet getrennt. Vom Reichsgebiet aus war es per Schiff – mit dem Seedienst Ostpreußen –, auf dem Luftweg oder per Bahn durch den Polnischen Korridor erreichbar. Auch das nun für 15 Jahre vom Völkerbund verwaltete Saargebiet wurde überwiegend aus preußischen Gebietsteilen gebildet. Einen preußischen Gebietszuwachs in der Zeit der Weimarer Republik stellt die Angliederung des Freistaats Waldeck dar. Dieser Kleinstaat hatte bereits 1868 durch einen Akzessionsvertrag einen Teil seiner Hoheitsrechte an Preußen verloren. Nach einer Volksabstimmung kam 1921 zunächst der Waldecker Kreis Pyrmont zur preußischen Provinz Hannover. Die Kündigung des Akzessionsvertrages durch Preußen fünf Jahre später führte zu großen Finanzproblemen im verbliebenen Teil Waldecks, der daraufhin im Jahre 1929 schließlich in die preußische Provinz Hessen-Nassau eingegliedert wurde. Von 1919 bis 1932 regierten in Preußen Regierungen der Weimarer Koalition (SPD, Zentrum und DDP), 1921 bis 1925 um die DVP erweitert. Anders als in einigen anderen Ländern des Reichs war die Mehrheit der demokratischen Parteien bei Wahlen in Preußen bis 1932 nicht gefährdet. Der von 1920 bis 1932 fast ununterbrochen regierende Ostpreuße Otto Braun, der bis heute als einer der fähigsten sozialdemokratischen Politiker der Weimarer Republik gilt, verwirklichte zusammen mit seinem Innenminister Carl Severing mehrere zukunftsweisende Reformen, die später für die Bundesrepublik beispielgebend waren. Dazu gehörte das Konstruktive Misstrauensvotum, das die Abwahl des Ministerpräsidenten nur dann ermöglichte, wenn gleichzeitig ein neuer Ministerpräsident gewählt wurde. Auf diese Weise konnte die Preußische Landesregierung solange im Amt bleiben, wie sich im Landtag keine positive Mehrheit bildete, also eine Mehrheit derjenigen Oppositionsparteien, die auch wirklich zusammenarbeiten wollten. Auch die Landtagswahl vom 24. April 1932 brachte keine positive Mehrheit zustande, da die radikalen Parteien KPD und NSDAP zusammen mehr Mandate erhielten als alle übrigen Parteien zusammen. Weil im Parlament keine regierungsfähige Koalition zustande kam, blieb die Regierung Braun weiter geschäftsführend im Amt. Dies lieferte Reichskanzler Franz von Papen den Vorwand zum sogenannten „Preußenschlag“. Mit diesem Staatsstreich setzte die Reichsregierung am 20. Juli 1932 per Verordnung die preußische Landesregierung unter dem Vorwand ab, sie habe die Kontrolle über die öffentliche Ordnung verloren (siehe auch: Altonaer Blutsonntag). Vom Großteil des Staatsapparats begrüßt, übernahm von Papen als Reichskommissar selbst die Macht in Preußen, das bis dahin „zu einem gewissen Grad […] seiner Rolle als Bollwerk der Weimarer Demokratie gerecht werden“ konnte. Die Absetzung der wichtigsten demokratisch gesinnten Landesregierung hat die Machtübernahme Adolf Hitlers ein halbes Jahr später entscheidend erleichtert. Den Nationalsozialisten standen dadurch von Anfang an die Machtmittel der preußischen Regierung – vor allem der Polizeiapparat – zur Verfügung. Nationalsozialismus und Ende Preußens (1933–1947). Nach der Ernennung Hitlers zum Reichskanzler wurde Hermann Göring "Reichskommissar für das preußische Innenministerium". Damit stand den Nationalsozialisten bei ihrer Machtübernahme die Exekutivgewalt der preußischen Landesregierung zur Verfügung. Wenige Wochen später, am 21. März 1933, fand der sogenannte Tag von Potsdam statt. Dabei wurde der am 5. März neugewählte Reichstag in Anwesenheit des Reichspräsidenten Paul von Hindenburg symbolträchtig in der Potsdamer Garnisonkirche eröffnet, der Grabstätte der preußischen Könige. Die propagandistische Veranstaltung, in der Hitler und die NSDAP feierten, sollte preußisch-monarchistische und deutschnationale Kreise für den nationalsozialistischen Staat gewinnen und die Konservativen im Reichstag zur Zustimmung zum Ermächtigungsgesetz bewegen, die zwei Tage später anstand. Seit 1933 schuf die Reichsregierung durch Gleichschaltungsgesetze den nationalsozialistischen Einheitsstaat. Das "Reichsstatthaltergesetz" vom 7. April 1933 und das "Gesetz über den Neuaufbau des Reichs" vom 30. Januar 1934 lösten die Länder zwar nicht formell auf, beraubten sie aber ihrer Eigenständigkeit. Alle Landesregierungen wurden der Kontrolle durch Reichsstatthalter unterstellt. Eine Ausnahme davon bildete Preußen, wo laut Gesetz der Reichskanzler selbst die „Rechte des Reichsstatthalters“ wahrnehmen sollte. Die Ausübung dieser Rechte übertrug Hitler aber bereits am 10. April 1933 per Erlass dem preußischen Ministerpräsidenten Göring. Parallel dazu gewannen die (Partei-)Gaue zunehmend an Bedeutung für die Umsetzung der nationalen Politik auf regionaler Ebene. Die Gauleiter wurden von Hitler in seiner Eigenschaft als Führer der NSDAP ernannt. In Preußen ging diese anti-föderalistische Politik noch weiter: Seit 1934 wurden nahezu alle seine Landes- mit den entsprechenden Reichsministerien zusammengelegt. Nur das preußische Finanzministerium, die Archivverwaltung und wenige andere Landesbehörden blieben bis 1945 eigenständig. Die räumliche Ausdehnung Preußens veränderte sich zwischen 1933 und 1945 kaum. Im Zuge des Groß-Hamburg-Gesetzes fanden noch kleinere Gebietsveränderungen statt. Preußen wurde am 1. April 1937 unter anderem um die bis dahin Freie und Hansestadt Lübeck erweitert. Die im Zweiten Weltkrieg annektierten polnischen, vormals preußischen, Gebiete wurden überwiegend nicht in das angrenzende Preußen eingegliedert, sondern sogenannten Reichsgauen zugeteilt. Schon vor Erlass dieses Gesetzes waren in den westdeutschen Besatzungszonen auf bis dahin preußischem Gebiet flächendeckend Länder gebildet worden. Nach dem Kontrollratsbeschluss schritt die Auflösung Preußens auch in der sowjetischen Besatzungszone fort: Die bis dahin nur noch als Verwaltungseinheiten existierenden Provinzen Sachsen(-Anhalt) und Brandenburg wurden in Länder umgewandelt, und der Zusatz „Vorpommern“ wurde aus dem Namen des Landes Mecklenburg-Vorpommern 1947 entfernt, so dass im amtlichen Sprachgebrauch z. B. Greifswalder „Mecklenburger“ genannt wurden. Auf dieselbe Weise wurden Bewohner der vormals niederschlesischen Oberlausitz zu „Sachsen“. Zugleich galt in der SBZ und später in der DDR die Benutzung der Begriffe „Pommern“ und „Schlesien“ für die deutsch gebliebenen Teile dieser ehemaligen preußischen Provinzen offiziell als unerwünscht. Rechtsnachfolger Preußens. Die Länder auf dem früheren Staatsgebiet des Freistaats Preußens sind in rechtlicher, insbesondere staats- und völkerrechtlicher Hinsicht Nachfolgestaaten Preußens. So ist zum Beispiel das Land Nordrhein-Westfalen an das Konkordat gebunden, das der Freistaat Preußen mit dem Heiligen Stuhl abgeschlossen hat. Besonderheiten des preußischen Staatswesens. Die Staatswerdung Preußens unterscheidet sich deutlich von der anderer europäischer Mächte wie Frankreich oder England. Das Königreich, das 1701 entstand, war kein Produkt einer gewachsenen Kultur oder Konsequenz der geschichtlichen Entwicklung eines Volkes. Da seine Gebiete weit verstreut lagen, fehlte ein weiterer wichtiger Anreiz für einen natürlichen Staatsbildungsprozess, nämlich die Organisation und Zusammenfassung (Synergie) geografisch zusammenhängender Gebiete. So war der preußische Staat ausschließlich Ausdruck des Machtwillens seiner Eliten. In anderen historisch gewachsenen Staaten, so eine These, passten sich diese den Bedürfnissen der Gesellschaft an. In Preußen dagegen, wo die Voraussetzungen für eine Staatswerdung vollkommen fehlten, habe der Staat die Gesellschaft nach seinen Bedürfnissen geformt. So entstand ein straff durchorganisierter Herrschaftsapparat, der durch seine Machtfülle und Organisationsfähigkeit seinen Nachbarn für einige Jahrhunderte überlegen war und damit den Erfolg dieses „Preußischen Staatsmodells“ begründete. Mit der Errichtung des Deutschen Kaiserreiches am 18. Januar 1871 wurde versucht, das preußische Modell auf das übrige Deutschland zu übertragen. Dieser Versuch erwies sich allerdings als ein Fehlschlag, der schließlich mit dem Untergang Preußens und des von ihm begründeten Deutschen Reiches endete. Protestantischer Liberalismus. Seit der Reformation hatte Preußen eine überwiegend evangelische Bevölkerung. Im Vergleich zu stärker vom Katholizismus geprägten Nachbarstaaten galt Preußen in Fragen der Religionsausübung als verhältnismäßig ‚liberal‘. Letzteres traf insbesondere auf die Regierungszeiten Friedrich Wilhelms I., welcher die Salzburger Exulanten, protestantische Glaubensflüchtlinge, in Preußen ansiedelte, und Friedrichs des Großen zu, der die Auffassung vertrat, jeder Bürger sollte die Möglichkeit haben, „nach seiner eigenen Fasson selig zu werden“. In Nachbarstaaten verfolgte religiöse Minderheiten suchten in Preußen Schutz, andere Minderheiten blieben hier unbehelligt. Während der Volkszählung am Ende des Jahres 1840 wurden in Preußen 194.558 Juden gezählt. „Preußischer Geist“. Das preußische Staatsmodell stützte sich auf eine besondere Form der Ethik, die gemeinhin als "preußischer Geist" zusammengefasst wird und in die Legendenbildung eingegangen ist. So verbindet man mit Preußen auf der einen Seite die Stereotype der von protestantischen Werten (überwiegend lutherische Bevölkerung, aber calvinistisches Herrscherhaus) geprägten preußischen Tugenden wie beispielsweise Zuverlässigkeit, Sparsamkeit, Bescheidenheit, Ehrlichkeit, Fleiß und Toleranz. Das gegenteilige Stereotyp verweist auf Militarismus, Autoritarismus, aggressiven Imperialismus und auf eine grundsätzlich demokratiefeindliche und reaktionäre Politik. Dabei hat Preußen weniger Kriege geführt als etwa Frankreich und England. Christopher Clark stellt für die erste Hälfte des 19. Jahrhunderts fest, dass in England und Wales jährlich etwa sechzehnmal so viele Menschen hingerichtet wurden wie im vergleichbar großen Preußen. Wurde in Preußen die Todesstrafe fast nur gegen Mörder verhängt, so gab es diese Strafe in England auch für zum Teil geringfügige Eigentumsdelikte. „Die Briten tolerierten staatliche Gewalt in einem Maße, wie sie in Preußen undenkbar gewesen wäre.“ Das Elend der Armen in Preußen in den 1840er-Jahren bleibe auch zurück hinter der irischen Hungerkatastrophe unter britischer Herrschaft. „Wären die Polen in Preußen von einer vergleichbaren Hungersnot dahingerafft worden, würden wir darin heute vielleicht Vorboten der Naziherrschaft nach 1939 sehen.“ Das heutige Bild Preußens in der Geschichtswissenschaft ist weitaus differenzierter als beide Stereotype, deren letzteres aber, wie nachfolgend gezeigt, als Gründungsmythos der Bundesrepublik Deutschland als notwendig erscheint; es wird auf die Vielschichtigkeit und lange historische Entwicklung dieses Staates verwiesen. Staatssymbole. Die Landesfarben Preußens, Schwarz und Weiß, sind schon im Stammwappen der Hohenzollern enthalten. Das Wappentier Preußens ist der schwarze Preußische Adler. Der Wappenspruch lautet seit der Reformation "Suum cuique" – "Jedem das Seine". Prutenische Tafeln. Die Preußischen oder Prutenischen Tafeln der Himmelsbewegungen ("Prutenicae Tabulae Coelestium Motuum") sind astronomische Tafeln zur Berechnung der Standorte von Sonne, Mond und den Planeten. Die Prutenischen Tafeln lösten die bisher verwendeten Alfonsinischen Tafeln ab, deren vorhergesagte Daten zunehmend von der Realität abwichen. Sie wurden von Erasmus Reinhold im Jahre 1551 angefertigt. Er bezog sich auch auf die Arbeiten von Nikolaus Kopernikus während er eine große Anzahl von Sternen identifizierte und beschrieb. Die höhere Genauigkeit der Prutenischen Tafeln ist allerdings nicht auf das verwendete Kopernikanische System zurückzuführen, sondern in erster Linie auf die Aktualität der verwendeten Ausgangsdaten. Herzog Albrecht von Brandenburg-Ansbach unterstützte Reinhold und finanzierte den Druck der Prutenischen Tafeln, obwohl es dabei zu unerquicklichen Auseinandersetzungen wegen der Bezahlung kam. Reinhold und seine Prutenischen Tafeln trugen dazu bei, dass das Kopernikanische System überall im deutschsprachigen Reich und darüber hinaus bekannt wurde, ebenso wie Königsberg durch die Wahl als Nullmeridian. Die Erkenntnisse von Kopernikus und die Preußischen Tafeln waren später die Grundlage zur Kalenderreform von 1582 unter Papst Gregor XIII. Die Tafeln erschienen erstmals 1551 bei Ulrich Morhard in Tübingen, Morhards Witwe verbreitete 1562 zudem einen Nachdruck der ersten Auflage. Herausgeber der zweiten Auflage (Tübingen, 1571) war Michael Mästlin (1550–1631), der später Keplers Lehrer wurde. Er fügte ein Nachwort und zwei Seiten mit Korrekturen hinzu. Die dritte Auflage (Wittenberg, Matthäus Welack, 1585) stammt von Caspar Strubius, Rektoren der Universität Wittenberg. Die Rudolfinische Tafeln von Brahe und Kepler lösten die Preußischen im 17. Jahrhundert ab. Owen Gingerich untersuchte den Einfluss von Reinhard und dessen Tafeln auf die Verbreitung der Kopernikanischen Lehre. Pickelhaube. Die Pickelhaube (amtlich seinerzeit: „Helm mit Spitze“) war eine zunächst rein militärische, dann auch polizeiliche Kopfbedeckung, die erstmals ab 1843 in der preußischen Armee Verwendung fand und später auch von anderen Ländern übernommen wurde. Etymologie. Der vom preußischen Militär 1843 eingeführte „Helm mit Spitze“ wurde im Volksmund bald „Pickelhaube“ genannt, was schlicht auf die „pieksende“ Spitze, also den „Pickel“, verwies. Die „Haube“ hingegen war im Deutschen schon immer ein anderes Wort auch für den militärischen Helm, wie etwa bei der Sturmhaube und der Beckenhaube. Letztere war – nach einigen Lautverschiebungen in manchen Teilen des deutschen Sprachraums – schon „Bickelhaube“ bzw. „Pickelhaube“ genannt worden. Helmtyp und Name dieser mittelalterlichen Beckenhaube verschwanden aber nach 1450 ganz. Der 1842/43 entwickelte preußische „Helm mit Spitze“ weist daher keine historische Verbindung zur Beckenhaube bzw. „Bickelhaube“ auf. Im amtlichen Sprachgebrauch kam der Begriff „Pickelhaube“ niemals vor, und auch in seriösen Publikationen (z. B. in Herstellerkatalogen, in sachlichen Artikeln der preußischen Tagespresse etc.) wurde meist nur vom „Helm“ bzw. vom „Helm mit Spitze“ oder „Lederhelm“ gesprochen. Der preußische Helm mit Spitze erlangte in anderen deutschsprachigen Staaten jedoch gerade unter seiner volkstümlichen Bezeichnung „Pickelhaube“ rasch größere Bekanntheit, nach 1871 auch im nicht-deutschsprachigen Ausland. Dort wurde die Pickelhaube bald als typisch preußisch-deutsche Kopfbedeckung bzw. als Sinnbild des preußischen Militarismus betrachtet. Der preußische „Helm mit Spitze“. 1842 wurde unter König Friedrich Wilhelm IV. von Preußen für die preußische Armee (mit Ausnahme der Jäger, Schützen, Husaren und Ulanen) ein neuer Helm verordnet, der dann 1843 eingeführt wurde. Der von der Metallwarenfabrik Wilhelm Jaeger in Elberfeld (heute Wuppertal) entwickelte Prototyp war aus gepresstem Leder mit Metallverstärkungen gefertigt und hatte einen Augen- und Nackenschirm. Charakteristisch war die Metallspitze; sie sollte Hiebe mit Säbeln oder ähnlichen Blankwaffen seitlich ablenken. Bei einigen Regimentern (insbesondere bei der Garde) wurde zur Paradeuniform die Spitze durch einen Haarbusch ersetzt. Bei der Artillerie wurde anstelle der Spitze eine Kugel getragen, da sonst bei der Bedienung der Geschütze das Risiko von Verletzungen bestanden hätte. Die Kürassiere trugen eine Ausführung mit stählerner Helmglocke und tief nach unten gezogenem Nackenschirm. Helm der Gardes du Corps, 1900 Bei der Garde du Corps, der Leibgendarmerie und den Gardekürassieren wurde zur großen Uniform statt der Spitze eine metallene Adlerskulptur getragen. Der metallene Helmtyp wurde später auch von den Teilen der Jäger zu Pferde (Regimenter Nr. 1 bis 7, 8 bis 13 trugen Lederhelme) übernommen, bestand jedoch aus Tombak. Die beiden sächsischen schweren Kavallerie-Regimenter trugen ab 1875 den Kürassierhelm in Gelbmetall mit weißem Haarbusch zur großen Uniform, ab 1910 beim 1. Regiment zur großen Uniform mit einer Löwenskulptur anstelle der Spitze. Ob die moderne Pickelhaube wirklich in Preußen erfunden wurde, ist nicht sicher. Der Legende nach sah Friedrich Wilhelm IV. 1842 bei einem Besuch in Russland auf dem Schreibtisch des Zaren das Vorserienmodell einer russischen Pickelhaube und war davon so begeistert, dass er diese Helmform sofort in Preußen einführte, während Russland erst 1846 folgte. Angeblich wurden aber auch schon vor 1842 bei einer bayerischen Feuerwehr Helme dieses Typs getragen. Von Preußen ausgehend verdrängte diese Helmform nach und nach bei allen deutschen Staaten andere Helmtypen und den bis dahin üblichen Tschako. 1857 wurde die Helmglocke flacher und bekam ihre heute bekannte, charakteristische Form. Dieses Modell wurde in der Kaiserzeit (ab 1871) von allen deutschen Ländern verwendet und mit einem Messingemblem in Form von Landestier oder Landeswappen getragen. 1897 bekam sie zwei Kokarden (eine in den Reichs- und eine in den Landesfarben), die seitlich unter den Ansatzrosetten des Kinnriemens bzw. der Schuppenkette angebracht waren. 1886 gab letztlich sogar Bayern den für sein Heer bis dahin typischen Raupenhelm auf und übernahm die Pickelhaube (wobei in Bayern, anders als in den übrigen Bundesstaaten, auch bei der Artillerie eine Spitze und kein Kugelaufsatz getragen wurde), auch wenn die bayerischen Generäle mit Rücksicht auf Vorbehalte von Prinzregent Luitpold weiterhin den in Bayern üblichen Generalshut trugen. a> aus der Zeit kurz vor dem Ersten Weltkrieg. Den Einsatzbedingungen eines modernen Krieges war das 1895 eingeführte, vorletzte Pickelhaubenmodell zu Beginn des Ersten Weltkrieges nicht mehr gewachsen. Die Messingbeschläge reflektierten das Licht und erschwerten die Tarnung des Soldaten im Feld. Als Konzession an die moderne Kriegführung trug man deshalb schon seit 1892 im Kampf- und Manövereinsatz einen beigefarbenen Helmüberzug mit roter, aufgenähter oder aufgemalter Regimentsnummer. Die meisten Kopfverletzungen im Krieg infolge des gewaltig gesteigerten Artillerieeinsatzes wurden durch Granatsplitter verursacht, gegen die der alte Helm unzureichenden Schutz bot. Weiter ragte die Helmspitze oft verräterisch aus dem Schützengraben heraus. Als Übergangslösung ordnete die Oberste Heeresleitung daher 1915 an, die Spitze im Fronteinsatz nicht mehr zu tragen. Beim letzten, noch während des Krieges hergestellten Pickelhaubenmodell ließ sich die Spitze auf sehr einfache Weise abschrauben, auch der Helmüberzug wurde entsprechend abgeändert. Die Farbe wurde generell feldgrau, die auffällige rote Regimentsnummer entfiel. Um Leder einzusparen, wurde die letzte Generation der Pickelhaube zum Teil auch aus Ersatzmaterialien wie Filz oder Pappe hergestellt. Als verbesserter Kopfschutz wurde dann im Laufe des Jahres 1916 im deutschen Heer der Stahlhelm aus heißgepresstem Chromnickelstahl eingeführt. Spätere Verwendung. a> trägt einen Kürassierhelm in der klassisch-preußischen Form. a> (Foto 1879), wo sie als Teil einer Gardeuniform noch heute getragen wird. Die Pickelhaube blieb nach dem Weltkrieg teilweise noch bei Polizei und Feuerwehr in Gebrauch. In den 1920er Jahren wurde sie häufig von Weltkriegsoffizieren und Kriegervereinsmitgliedern bei Veteranentreffen, Beerdigungen und ähnlichen Gelegenheiten getragen. Auch Reichspräsident Hindenburg trug diese Kopfbedeckung bei manchen offiziellen Anlässen noch, z. B. am „Tag von Potsdam“. Auch in einigen anderen europäischen Ländern (z. B. von einigen englischen Regimentern), in lateinamerikanischen Staaten und in den USA wurden von einigen militärischen oder polizeilichen Formationen zeitweilig Pickelhauben getragen. In England, Chile und Schweden werden Helme in Pickelhaubenform heute noch von Paradeeinheiten bei besonderen Anlässen getragen. Auch der Helm der britischen Bobbys ist eine Abwandlung der ursprünglichen, höheren Version der Pickelhaube. Ein englisches Polizeimodell hat auch eine Spitze mit einer Kugel. Bei der Paradeuniform der britischen Gardekavallerie ist die Spitze durch den Rosshaarbusch ersetzt. Symbolische Bedeutung. Australisches Propagandaplakat aus dem Ersten Weltkrieg Französische Karikatur zu deutschen Ambitionen auf französische Gebiete Zwischen 1842 und 1871 wurde die Pickelhaube im deutschsprachigen Raum bald als charakteristisches Symbol des preußischen Militarismus betrachtet. Nach der Gründung des Deutschen Reichs durch Preußen 1871 wurde dieser preußische Militarismus auch im nicht-deutschsprachigen Ausland zu einem deutschen Militarismus umgedeutet, als dessen charakteristischer Ausdruck die Pickelhaube wahrgenommen wurde. In zahlreichen Karikaturen wurde diese Einschätzung durch die Darstellung pickelhaubentragender deutscher Aggressoren ausgedrückt. Dies war insbesondere bis zum Ende des Ersten Weltkriegs (und damit bis zum Ende der preußischen Vormachtstellung in Deutschland) der Fall. Aber auch heute noch steht die Pickelhaube im Ausland mitunter stellvertretend für das Deutsche als solches. So wird sie zum Beispiel bei sportlichen Wettkämpfen von manchen deutschen Fans getragen, oder gegnerische Fans stellen „die Deutschen“ mit Pickelhauben dar. In der Gebärdensprache der Gehörlosen symbolisiert der ausgestreckte, nach oben zeigende und über die Stirn gehaltene Zeigefinger die Pickelhaube und bedeutet "deutsch". Penicilline. Die Penicilline sind eine Gruppe von antibiotisch wirksamen Substanzen, die sich strukturell von der 6-Aminopenicillansäure ableiten. Neben natürlich vorkommenden Penicillinen, die von verschiedenen "Penicillium"-, "Aspergillus"-, "Trichophyton"- und "Streptomyces"-Arten gebildet werden, zählt man dazu auch biosynthetisch und teilsynthetisch hergestellte Penicilline. Penicillin G, ein heute noch therapeutisch verwendetes natürliches Penicillin, gehört zu den ältesten verwendeten Antibiotika, dem neben seinem großen medizinischen Nutzen auch die Vorreiter-Rolle für die wissenschaftliche Verwendung dieser Wirkstoffgruppe zugeschrieben wird. Nach der Entdeckung der antibiotischen Wirksamkeit von Penicillinen durch Alexander Fleming wurde die enorme Bedeutung der Antibiotika für die Medizin erkannt, was das moderne Verständnis der Bedeutung bakterieller Krankheitserreger maßgeblich beeinflusst und revolutioniert hat. In den Jahrzehnten nach seiner Entdeckung trug Penicillin G zur Rettung ungezählter Menschenleben bei. Obwohl es heute zahlreiche Bakterienstämme gibt, die gegen dieses Antibiotikum resistent sind, kann es noch immer weltweit erfolgreich eingesetzt werden. Penicilline gehören zur Gruppe der β-Lactam-Antibiotika. Die Summenformel lautet R-C9H11N2O4S, wobei „R“ für eine variable Seitenkette steht. Natürlich vorkommende Penicilline. Die Muttersubstanz der Penicilline, die 6-Aminopenicillansäure, entsteht biologisch aus L-α-Aminoadipinsäure und den Aminosäuren L-Cystein und L-Valin, wobei zunächst Isopenicillin N gebildet wird. Durch den durch die Acyltransferase katalysierten Austausch des L-α-Aminoadipylrestes durch andere organische Säurereste entstehen verschiedene Penicilline. Von den natürlichen Penicillinen ist nur Penicillin G (Benzylpenicillin) therapeutisch bedeutsam, das fermentativ aus "Penicillium chrysogenum" gewonnen wird. Es wird nicht so rasch abgebaut wie das stärker wirksame Penicillin K. Unter Verwendung eines entsprechenden Präkursors, der Phenylessigsäure, lässt es sich zudem gezielt fermentativ herstellen. Bio- und partialsynthetische Penicilline. Das oral wirksame Penicillin V (Phenoxymethylpenicillin) entsteht ebenfalls fermentativ, aber nicht spontan, sondern durch Zusatz eines synthetischen Präkursors, der Phenoxyessigsäure („Biosynthese“). Partialsynthetische Weiterentwicklungen der natürlichen Penicilline entstehen durch Umsetzung von 6-Aminopenicillinsäure mit Carbonsäurehalogeniden. Sie zeichnen sich gegenüber dem Penicillin G durch bestimmte Vorteile aus wie Säure- und Penicillinasestabilität oder ein erweitertes Wirkspektrum. Säurestabile (oral wirksame) Penicilline ohne bzw. mit geringer Penicillinasestabilität. Durch eine verminderte Nucleophilie des Carbonylsauerstoffs ist der Angriff von Hydronium-Ionen erschwert, wodurch die Umwandlung zur unwirksamen Penillsäure gehemmt wird. Säurestabile Penicilline werden also durch Magensäure nicht zerstört und können daher oral verabreicht werden. Sie haben das gleiche Wirkspektrum wie Penicillin G. Penicillinasestabile Penicilline. Durch Abschirmung des Betalactamringes mit Isoxazolylstrukturen gegenüber der von manchen Erregern gebildeten Penicillinase sind solche Penicilline auch wirksam gegen penicillinasebildende Staphylokokken („Staphylokokken-Penicillin“). Im Vergleich zu Penicillin G ist ihre Wirkstärke deutlich geringer und gegenüber gramnegativen Erregern sind Isoxazolylpenicilline gänzlich wirkungslos. Breitspektrumpenicilline. Durch die Einführung polarer Substituenten vermögen solche hydrophilen Penicilline die Zellwände von gramnegativen Erregern zu passieren, wodurch ihr Wirkspektrum erweitert wird. Die Breitspektrumpeniclline sind teilweise säure- und penicillinaseempfindlich, teilweise ist auch die Wirksamkeit gegenüber einigen grampositiven Bakterien vermindert. Kein Acylierungsprodukt der 6-Aminopenicillansäure ist das Pivmecillinam, es besitzt jedoch das bicyclische Lactam-Grundgerüst der Penicilline. Wirkungsmechanismus. Penicilline wirken bei der Zellteilung der Bakterien bakterizid, und zwar beim Neuaufbau der Zellwand, indem sie in die Synthese der Zellwand eingreifen, dort die innere Vernetzung verhindern und damit die Zellwand so schwächen, dass diese bei Belastung platzt. Insbesondere grampositive Bakterien, die sich teilen, sterben unter Penicillineinfluss. Das Grundgerüst der Penicilline besteht aus 6-Aminopenicillansäure, einem bicyclischen Dipeptid aus L-Cystein und L-Valin. Dieser sogenannte Beta-Lactam-Ring wird (im dann geöffneten Zustand) von dem bakteriellen Enzym D-Alanin-Transpeptidase gebunden, das für die Quervernetzung der Peptidoglykane in den bakteriellen Zellwänden grampositiver Bakterien zuständig ist. Das Enzym wird vor allem bei sich teilenden Bakterien benötigt, da bei diesen die starre Zellwand geöffnet und zumindest teilweise neu synthetisiert werden muss. Da die Bindung an die D-Alanin-Transpeptidase irreversibel ist, kann keine Zellwand mehr synthetisiert werden, und das grampositive Bakterium verliert seine wichtigste Schutzhülle. Daneben kommt es durch den ständigen Auf- und Abbau der defekten Zellwand zu toxischen Abbauprodukten. Die Wirkung der Penicilline betrifft also nur sich vermehrende Bakterien, nicht aber sich nicht teilende: Diese beeinflusst das Antibiotikum nicht mehr, weil keine Zellwand-Neusynthese stattfinden muss – sie ist bereits vollständig abgeschlossen und bildet für Penicillin somit keinen Angriffspunkt mehr. Sich nicht vermehrende Bakterien stellen aber keine Gefahr für den Wirtsorganismus dar und werden relativ schnell durch die körpereigene Immunabwehr der Patienten unschädlich gemacht. Treten sie dagegen erneut in einen Vermehrungszyklus ein, wird wiederum die Zellwand teilweise abgebaut und muss neu synthetisiert werden; solche Bakterien sind daher durch Penicilline wieder angreifbar. Aus diesem Grund müssen Penicilline auch eine gewisse Folgezeit nach Abklingen der Symptome weiter verabreicht werden. Penicilline sind also nur wirksam, wenn die Bakterien in ihrem Wachstum ansonsten unbehindert sind; so sollen Penicilline nicht zusammen mit Medikamenten verabreicht werden, die die Bakterien an der Vermehrung hindern, da man sonst therapeutisch selbst den Ansatzpunkt der Penicillin-Wirkungsweise versperrt. Penicilline wirken nicht nur auf Bakterien, inklusive Cyanobakterien, sondern sie blockieren auch die Teilung der Cyanellen, der photosynthetisch aktiven Organellen der "Glaucocystaceae" (einer Algenfamilie) sowie der Chloroplasten von Blasenmützenmoosen. Auf die Teilung der Plastiden der höher entwickelten Gefäßpflanzen wie beispielsweise bei Tomaten haben sie jedoch keinen Effekt. Dies ist ein Hinweis darauf, dass bei höheren Pflanzen durch erfolgte, evolutionäre Veränderungen der Plastidteilung β-Lactam-Antibiotika im Allgemeinen auf Chloroplasten keine Wirkung mehr zeigen. Penicillin G und V wirken nicht gegen gramnegative Bakterien (mit Ausnahme gramnegativer Kokken wie beispielsweise Neisserien), die über ihrer Zellmembran noch eine zusätzliche äußere Membran besitzen. Diese macht den Angriff des Penicillins unmöglich, da es in die Ausbildung der darunter liegenden Peptidoglycanschicht eingreifen muss. Daher ist der Einsatz von Penicillin G und V nur bei grampositiven Bakterien sinnvoll. Gegen gramnegative Bakterien werden strukturelle Varianten wie zum Beispiel Aminopenicilline eingesetzt. Resistenzen. Zahlreiche klinisch vorkommende Bakterien sind heute bereits gegen Penicillin G resistent, was zu einer Reihe von weiterentwickelten β-Lactam-Antibiotika geführt hat. Dabei bleibt das Problem der Kreuzresistenzen kritisch, was bedeutet, dass Keime, die einmal eine Resistenz gegen Penicilline entwickelt haben, auch gegen andere β-Lactam-Antibiotika (z. B. Cephalosporine) unempfindlich werden. Resistente Mutanten würden eigentlich keinen Schaden anrichten, da sie nur in geringem Maße auftreten. Wirkt jedoch das Penicillin auf die anderen, nichtresistenten Bakterien und eliminiert diese, so kann sich eine resistente Bakterie viel besser fortpflanzen und wird damit zur Gefahr, da sie ihre Resistenz an die Folgegenerationen weitervererbt. Durch den Austausch von Resistenzgenen zwischen verschiedenen Bakterienarten wird eine Antibiotikaresistenz auch auf andere Arten weitergetragen. Besonders gefürchtet ist die Multiresistenz bei Staphylococcus aureus. Der Vorgang der Resistenzentwicklung ist ein sehr anschauliches Beispiel der darwinschen Evolutionstheorie (natürliche Selektion); aufgrund der raschen Teilung und Generationenfolge werden die an ihre Umwelt angepassten, resistenten Bakterien selektiert und bilden die Grundlage für spätere Generationen. Die Bildung von penicillinresistenten Stämmen gilt als einer der ersten experimentellen Beweise für beobachtete Mikroevolution. Biologische Grundlage der Wirkstoffgruppe ist die Konkurrenz zwischen den beiden Organismenstämmen Pilze und Bakterien, die auf dieselben Ressourcen angewiesen sind, wobei die Pilze sich mit antibakteriellen wachstumshemmenden Substanzen gegen die Bakterien schützen. Nebenwirkungen. Neben der Gefahr einer Resistenzbildung gegenüber Penicillinen liegt ein weiterer Nachteil in der relativ häufigen Allergie der Patienten gegen diese Arzneistoffe (etwa bei einem von 7000 Patienten). Allergische Reaktionen können dabei von leichter Hautrötung bis zum anaphylaktischen Schock reichen. Durch Penicilline können nützliche Bakterien wie die der Darmflora abgetötet werden, insbesondere durch Breitbandpenicilline, die auch gegen gramnegative Bakterien wirken. Im ungünstigsten Fall können sich so schädliche Mikroorganismen im Darm ausbreiten und zu einer antibiotikaassoziierten Kolitis führen. Entdeckung. Alexander Fleming, Entdecker des Penicillins. Briefmarke der Faröer Inseln zu Ehren von Alexander Fleming. Nährboden mit Schimmelpilz von Alexander Fleming, 1935. Die Entdeckung der Penicilline begann mit einer verschimmelten Bakterienkultur: Alexander Fleming, der sich am St. Mary’s Hospital in London mit Staphylokokken beschäftigte, hatte 1928 vor den Sommerferien eine Agarplatte mit Staphylokokken beimpft und dann beiseite gestellt. Bei seiner Rückkehr entdeckte er am 28. September 1928, dass auf dem Nährboden ein Schimmelpilz ("Penicillium notatum") wuchs und sich in der Nachbarschaft des Pilzes die Bakterien nicht vermehrt hatten. Fleming nannte den bakterientötenden Stoff, der aus dem Nährmedium gewonnen werden konnte, "Penicillin" und beschrieb ihn für die Öffentlichkeit erstmals 1929 im "British Journal of Experimental Pathology". Er untersuchte die Wirkung des Penicillins auf unterschiedliche Bakterienarten und tierische Zellen; dabei stellte er fest, dass Penicillin nur grampositive Bakterien wie Staphylokokken, Streptokokken oder Pneumokokken abtötete, nicht aber gramnegative Bakterien wie beispielsweise Salmonellen. Auch gegenüber weißen Blutkörperchen und menschlichen Zellen oder für Kaninchen erwies es sich als ungiftig. Fleming kam trotz dieser Kenntnis offenbar nicht auf die Idee, Penicillin als Medikament einzusetzen. Fast zehn Jahre später – 1938 – machten sich Howard W. Florey, Ernst B. Chain und Norman Heatley daran, systematisch alle von Mikroorganismen gebildeten Stoffe zu untersuchen, von denen bekannt war, dass sie Bakterien schädigten. So stießen sie auch auf Flemings Penicillin. Sie reinigten es und untersuchten seine therapeutische Wirkung zunächst an Mäusen und dann auch an Menschen. Im Jahre 1939 isolierte René Dubos vom Rockefeller Institute for Medical Research aus menschlichen Tränen das Tyrothricin und zeigte, dass es die Fähigkeit besaß, bestimmte bakterielle Infektionen zu heilen. 1941 unternahmen Florey und Chain den ersten klinischen Test, der allerdings nur auf wenige Personen beschränkt war. Da die Herstellung von Penicillin noch sehr mühsam war, gewannen sie es sogar aus dem Urin der behandelten Personen zurück. Mit dem Ausbruch des Zweiten Weltkriegs war den Alliierten daran gelegen, für ihre verwundeten Soldaten ein wirksames Medikament zu entwickeln. Die Antibiotika-Forschung verlagerte sich in die USA und nahm dort einen rasanten Verlauf. Man fand heraus, dass es günstiger ist, den Pilz in geeigneten flüssigen Nährmedien zu kultivieren. In den USA züchtete man neue Stämme von "Penicillium chrysogenum", die mehr Penicillin produzierten. Damit stand der Stoff als Medikament in der notwendigen Menge zur Verfügung. 1943 stellte sich heraus, dass Penicillin keine chemisch einheitliche Substanz ist: so bestand das von den britischen Forschern mittels der oberflächlichen Fermentation (emerse Fermentation) gewonnene Rohpenicillin vor allem aus Penicillin F, das in den USA durch submerse Fermentation erzeugte Rohpenicillin im Wesentlichen aus Penicillin G. Früh erkannte man insgesamt vier Varianten, die mit römischen Zahlen als Penicillin I, II, III und IV bzw. mit den Buchstaben F, G, X und K bezeichnet wurden. 1945 erhielten Fleming, Chain und Florey für ihre Entdeckung, die einen Wendepunkt in der Geschichte der Medizin markiert, gemeinsam den Nobelpreis. Der Wirkstoff beendete das seit der Antike bestehende medizinische Problem, dass chirurgische Verletzungen aufgrund einfacher Wundinfektionen auch lange nach den Kriegshandlungen zum Tod der Betroffenen führen können, und wurde deshalb auch nach dem Krieg noch in der Bevölkerung als Wundermedizin angesehen. In Deutschland verkannte man die Bedeutung der biogenetischen Antibiotika völlig und konzentrierte sich auf die Weiterentwicklung der Sulfonamide, die heute noch eingeschränkt gebräuchlich sind. Frühere Arbeiten. Schon die Nubier verwendeten ein Bier mit antibakteriellen Wirkstoffen. Die Alten Ägypter versorgten Entzündungen mit aus Getreide gebrauten Heiltränken. In der Antike und im Mittelalter legten Chirurgen schimmelige Lappen auf Wunden, um Infektionen vorzubeugen. Die Wirkstoffe wurden jedoch nicht als solche erkannt, der Begriff des Antibiotikums wurde erst mit dem Penicillin eingeführt. Fleming war jedoch nicht der erste neuzeitliche Wissenschaftler, der entdeckte, dass Schimmelpilze Bakterienwachstum hemmen können: Schon 1870 hatte John Scott Burdon-Sanderson einen Zusammenhang zwischen Schimmelpilzen und Bakterienwachstum erkannt. 1884 behandelte Joseph Lister den Abszess einer Krankenschwester mit einem Penicillium-Schimmelpilz (genauer: "Penicillium glaucum"), veröffentlichte die Ergebnisse jedoch nicht. 1896 führte Ernest Duchesne einen erfolgreichen Tierversuch mit Meerschweinchen durch. Alle diese Erkenntnisse blieben jedoch ohne Resonanz in der wissenschaftlichen Welt und wurden völlig verkannt. Erst Sir Fleming verwendete sicher das "Penicillium notatum" (welches Penicillin Burdon-Sanderson und Duchesne verwendeten, ist leider unbekannt). Entwicklung bis zum Durchbruch in der medizinischen Praxis. Flemings Veröffentlichungen fanden zunächst bei Kollegen kaum Beachtung. Erst im Zweiten Weltkrieg erzielte das Penicillin den Durchbruch. Dabei spielte eine Rolle, dass die Sulfonamide, von denen ein Wirkstoff unter dem Handelsnamen "Prontosil" das erste praktisch eingesetzte Antibiotikum war, in Deutschland hergestellt und von deutschen Firmen patentiert waren, so dass sie für die Kriegsgegner nach Kriegsausbruch nicht mehr in der gleichen Weise verfügbar waren. Erst in der weiteren Forschung stellten sich die Vorzüge des Penicillin G gegenüber dieser Wirkstoffklasse heraus. Die Deutschen setzten jedoch bis Kriegsende weiterhin auf Sulfonamide. Im Jahre 1939 interessierten sich Howard Walter Florey und Ernst Boris Chain für das Penicillin. Norman Heatley gelang es, Penicillin aus der Kulturflüssigkeit, in der man die Schimmelpilze züchtete, zu extrahieren und zu reinigen. Am 24. August 1940 fand ein Tierversuch an 50 Ratten statt, die mit einer tödlichen Dosis Streptokokken infiziert wurden. Die Hälfte von ihnen erhielt Penicillin, und nur eine aus dieser Gruppe starb. Die Ratten, die kein Penicillin erhielten, starben alle innerhalb weniger Stunden. Dieses Tierexperiment stellte überraschend die kraftvolle Wirkung des Penicillins heraus, die bei diesem aggressiven Bakterienstamm nicht erwartet wurde. Am 12. Februar 1941 wurde der erste Patient mit dem gewonnenen Penicillin behandelt. Es handelte sich um einen 43-jährigen Londoner Polizisten, der sich beim Rasieren geschnitten und durch Infektion der Wunde eine Blutvergiftung erlitten hatte. Nach fünf Tagen Behandlung war das Fieber verschwunden. Die Penicillinvorräte waren jedoch aufgebraucht und die Behandlung musste abgebrochen werden. Der Mann verstarb einen Monat später. Dies stellte retrospektiv die Notwendigkeit heraus, dass Antibiotika grundsätzlich länger eingenommen werden müssen, als die sichtbaren Beschwerden andauern. Ein vorzeitiger Abbruch birgt immer das Risiko eines Krankheitsrückfalls, auch heute oftmals nur behandelbar durch Einsatz alternativer Antibiotika. Erst als Florey und Heatley in die USA flogen, um dort für Penicillin zu werben, wurde das allgemeine Interesse an Penicillin geweckt, besonders beim amerikanischen Militär. Zunächst suchte man nach einem Pilzstamm, der mehr Penicillin produziert. Dazu sammelte die amerikanische Luftwaffe Bodenproben von möglichst vielen Flugplätzen weltweit. Der ergiebigste Stamm, "Penicillium chrysogenum", wurde jedoch auf einer verschimmelten Melone vor dem Forschungsinstitut entdeckt. Industrielle Produktion. Nachdem 1940 und 1941 der „Oxforder Kreis“ um E. B. Chain und H. W. Florey ein Verfahren zur Produktion und Isolierung von Penicillin in „Lancet“ veröffentlichte, wurden ab 1942 die ersten industriellen Penicillinproduktionen gestartet, allen voran Glaxo und ICI in England, Merck & Co., Pfizer & Co. und Squibb & Sons in den USA sowie Schott Jena (vorangetrieben durch Hans Knöll) in Deutschland. Ab 1942 wurde auch bei den Farbwerken Hoechst an Penicillin geforscht. Die Forscher mussten sich dabei auf die knappen Veröffentlichungen Flemings stützen. Hoechst hatte auch nicht den ergiebigen Chrysogenum-Stamm zur Verfügung. Eine Probe dieses Stamms schickte erst 1950 im Rahmen einer Zusammenarbeit der US-Konzern Merck & Co. nach Deutschland. Im Jahre 1945 war die in den USA produzierte Penicillinmenge 20-mal größer als die in Europa produzierte Menge. Gewöhnlicher Mais, in Wasser eingeweicht, von den Amerikanern ' genannt (Maisquellwasser), erwies sich als ideales Nährmedium für den Pilz. Dabei wurde (1944 bei Pfizer) das zunächst angewandte Oberflächenverfahren (Emerskultur) durch das Submersverfahren (Flüssigkultur im Rührkesselreaktor) abgelöst, mit dem höhere Produktivitäten erreicht wurden. Im Oktober 1944 wurden die ersten Injektionspräparate hergestellt. 1943 boten 22 Firmen Penicillin an. Es blieb zunächst hauptsächlich verwundeten Soldaten vorbehalten, denn die Produktionsmenge reichte noch nicht aus, um auch alle zivilen Patienten damit zu behandeln. Seit 1944 waren die USA jedoch in der Lage, ihren gesamten zivilen und militärischen Bedarf an Penicillin zu decken. Hingegen war in Europa nach dem Zweiten Weltkrieg die Nachfrage groß und die Penicillinproduktion reichte hier nicht für alle Patienten. Es entwickelten sich Schmuggel und Schwarzhandel mit Penicillin, was auch Thema des Films "Der dritte Mann" ist. In den Jahrzehnten nach dem Zweiten Weltkrieg entwickelte sich die Nederlandsche Gist-en Spiritusfabrik (NG & SF), später Gist Brocades, heute DSM, zum weltgrößten Penicillinhersteller. Heute produziert die DSM Penicilline im Rahmen von Joint Ventures in China, während die Sandoz GmbH in Kundl (Österreich) heute den größten Produktionsstandort für Penicilline in der westlichen Welt betreibt. Pfeffer. Der Pfefferstrauch ("Piper nigrum"), auch Schwarzer Pfeffer oder kurz Pfeffer genannt, ist eine Pflanzenart aus der Familie der Pfeffergewächse (Piperaceae). Die Früchte werden wegen des darin enthaltenen Alkaloids Piperin als scharf schmeckendes Gewürz verwendet. Zur Unterscheidung von ähnlichen Gewürzen spricht man auch vom echten Pfeffer. Die Früchte des Schwarzen Pfeffers (botanischer Name) sind nicht immer schwarz. Je nach Erntezeitpunkt und weiterer Behandlung haben die Pfefferkörner verschiedene Färbungen: grüner Pfeffer, schwarzer Pfeffer, weißer Pfeffer, roter Pfeffer. Die Pfefferpflanze. Illustration von 1832 von "Piper nigrum" Längsschnitt durch die Frucht des Schwarzen Pfeffers Beschreibung. Die Pfefferpflanze ist eine ausdauernde, verholzende Kletterpflanze, die an Bäumen emporwächst und rund zehn Meter hoch werden kann. In der Kultur hält man die Pflanze üblicherweise auf einer Höhe von 3 bis 4 Metern. Die kleinen, unauffälligen Blüten stehen in ca. 10 Zentimeter langen Ähren mit 50 bis 150 Einzelblüten, die bei kultiviertem Pfeffer, anders als bei Wildsorten, zum größten Teil (bis zu 90 Prozent) zwittrig sind. Nach der Befruchtung entwickeln sich in typischerweise 8 bis 9 Monaten reife Früchte (Steinfrucht). Von einer Pfefferpflanze kann zweimal jährlich Pfeffer geerntet werden; die Pflanzen bleiben bis zu 30 Jahre ertragreich. Verbreitung. Die ursprüngliche Heimat dieser Pflanze ist Indien, speziell die Malabarküste. Im Zuge der Ausbreitung der indischen Kultur nach Südostasien gelangte der Pfefferanbau vor ca. 1000 Jahren in das heutige Indonesien und Malaysia. Die größten Anbauländer von Pfeffer sind Vietnam, Indonesien, Indien, Brasilien und Malaysia. Weltweit werden etwa 200.000 Tonnen Pfeffer jährlich produziert, wobei jedoch starke jährliche Schwankungen auftreten. Der Wert einer gesamten Jahresweltproduktion von Pfeffer wird auf 300 bis 600 Millionen US-Dollar geschätzt. Das Gewürz. Pfeffer ist heute hauptsächlich als Gewürz bedeutsam. Gewinnung und Bezeichnungen. Grüner Pfeffer wird aus unreifen, früh geernteten Früchten gewonnen. Er unterscheidet sich vom schwarzen Pfeffer dadurch, dass er entweder frisch in Salzwasser eingelegt wird oder schnell und bei hohen Temperaturen getrocknet oder gefriergetrocknet wird. Daher behält er die ursprüngliche grüne Farbe. Durch Luftfracht ist mittlerweile frischer grüner Pfeffer weit verbreitet erhältlich. Schwarzer Pfeffer wird ebenfalls aus den unreifen (grün) bis knapp vor der Reife (gelb-orange) stehenden, durch Trocknen runzlig und schwarz gewordenen Früchten des "Piper nigrum" gewonnen. Weißer Pfeffer ist von der Schale befreiter vollreifer Pfeffer. Zu seiner Produktion werden die reifen roten Pfefferbeeren etwa acht bis vierzehn Tage in fließendem Wasser eingeweicht, so dass sich die Schale durch Fäulnis ablöst. Danach werden sie mechanisch geschält, getrocknet und teilweise in der Sonne gebleicht. Der recht lange Vorgang des Einweichens kann durch Behandlung mit Pektinasen verkürzt werden. Roter Pfeffer besteht aus vollkommen reifen, ungeschälten Pfefferfrüchten und wird meist ähnlich wie auch der grüne Pfeffer in salzige oder saure Laken eingelegt. Verglichen mit dem grünen Pfeffer ist der eingelegte rote Pfeffer jedoch eher selten erhältlich. Noch viel seltener findet man den echten roten Pfeffer in getrockneter Form. Pfeffer kommt bisweilen unter Bezeichnungen in den Handel, die auf die Herkunft und graduelle geschmackliche Unterschiede hinweisen, aber auch werblich verwendet werden. "Borneopfeffer" und "Sarawak-Pfeffer" weisen auf eine Herkunft aus dem malaysischen Bundesstaat Sarawak im Norden von Borneo hin. "Lampong-Pfeffer" stammt von der indonesischen Insel Sumatra (siehe die Provinz Lampung auf Sumatra). Geschichte. a> nach Indien für den Import der Pfefferkörner. Bevor der Gütertransport mit Schiffen von Asien nach Europa üblich wurde, musste Pfeffer aus seinem damals einzigen bedeutenden Anbaugebiet in Südwest-Indien nach Europa auf dem Landweg transportiert werden. Seine Haltbarkeit und Schärfe machten ihn zum idealen Fernhandelsgut. Pfeffer dominierte bereits in der Antike (Römisch-indische Beziehungen) den Gewürzhandel zwischen Asien und Europa. Mit Karawanen und über den Seeweg durch das Rote Meer wurde er in den Mittelmeerraum bzw. das römischen Reich transportiert. Das Bremer Pfefferkorn vom Anfang des 13. Jahrhunderts ist der älteste erhaltene Fund als Gewürzmittel nördlich der Alpen. Pfeffer war ein kostbares Gut und wurde zeitweilig mit Gold aufgewogen. Händler, die ihren Reichtum unter anderem dem Pfeffer zu verdanken hatten, wurden als Pfeffersäcke bezeichnet. Pfeffer war ein Luxusartikel, erhielt aber seine Bedeutung vor allem dadurch, dass mit seiner Hilfe Lebensmittel lange haltbar gemacht werden können. Darüber hinaus galt er auch als Heilmittel. Im Mittelalter hatten die Türken und Araber, später Venedig, das Monopol auf den Gewürzhandel mit Indien und wachten eifrig darüber. Die kostbaren Gewürze waren ein Grund, warum Marco Polo sich um einen eigenen europäischen Karawanenbetrieb nach Asien bemühte und Christoph Kolumbus und andere Seefahrer einen Seeweg nach Indien suchten. 1498 gelang es Vasco da Gama erstmals, eine Ladung Pfeffer auf dem Seeweg aus Indien nach Europa zu bringen. Einen Teil seiner Bedeutung als Handelsgut in Asien büßte Pfeffer nach der Entdeckung Amerikas ein, als von dort stammende Chili (scharfe Paprika) ihn in vielen asiatischen Gerichten aus seiner Rolle als wichtiges scharfes Gewürz verdrängte. Pfeffer wurde ab dem hohen bis späten Mittelalter auch in Südostasien angebaut – zunächst in Thailand, später vor allem in Indonesien („Gewürzinseln“). Von dort wurden hauptsächlich der chinesische und der einheimische Markt bedient. Erst im 17. Jahrhundert gelangte Pfeffer von dort auch in nennenswerten Mengen, zunächst durch niederländische Handelsgesellschaften, nach Europa. Der südostasiatische Gewürzhandel spielte eine Rolle in diversen bewaffneten Auseinandersetzungen, vor allem zwischen den Niederlanden und anderen europäischen Seemächten. Mit der Redensart „Geh dahin, wo der Pfeffer wächst!“ wünscht man jemanden, mit dem man nicht klarkommt, in ein sehr weit entferntes Gebiet, um ihm absehbar nicht mehr zu begegnen. – Eine andere Erklärung bezieht die Redensart auf die Strafkolonien in Französisch-Guayana (Hauptstadt: Cayenne). Das Land war zudem auch für den Pfefferanbau bekannt. Die Redensart „Geh dahin, wo der Pfeffer wächst“ würde den Gesprächspartner folglich in diese Strafkolonie wünschen. Der prominenteste Häftling in Französisch-Guayana war Alfred Dreyfus, der von 1895 bis 1899 auf der Teufelsinsel (Île du Diable) inhaftiert war. Inhaltsstoffe. Ausschlaggebend für die Schärfe des Pfeffers sind das Alkaloid Piperin (5-8 %) und Derivate des Piperins wie Piperettin, Piperylin, Piperanin, Chavicin (eine isomere Verbindung des Piperins) und andere je nach Pfefferart in wechselnder Zusammensetzung, die man auch als Alkamide (Säureamid-Alkaloide) bezeichnet. Piperin erhält man in Form von gelben Kristallen über Kristallisation aus einem alkoholischen Pfefferextrakt. Es wurde erstmals 1819 von Ørsted isoliert. In weißem Pfeffer ist etwa 2,5 Prozent ätherisches Öl, sogenanntes Pfefferöl, und in grünem und schwarzem Pfeffer bis zu 4,8 Prozent davon enthalten, welches dem Pfeffer sein Aroma gibt. Das Pfefferöl erhält man über Wasserdampfdestillation von Pfeffer. Im ätherischen Öl sind die Hauptbestandteile Monoterpene, wie Pinene, 3-Caren, Terpinene, Terpinolen und Limonen, sowie Sesquiterpene, wie α- und β-Caryophyllen und β-Farnesen. Außerdem findet man im Pfefferöl auch oxidierte Terpene, wie Terpinen-4-ol. Das sogenannte Pfefferharz erhält man nach Abtrennung des Piperins über Kristallisation und der Terpene über Wasserdampfdestillation. Es enthält Substanzen, die man unter dem Sammelbegriff Piperoleine zusammenfasst. Sie ähneln dem Piperin, haben aber längere Kohlenwasserstoffketten mit einer Doppelbindung und neigen zum Verharzen. Weitere wichtige Bestandteile im schwarzen Pfeffer sind etwa 50 Prozent Stärke, 5 bis 6 Prozent fettes Öl sowie die Flavonoide (und Glykoside von) Kaempferol, Rhamnetin und Quercetin. Schwarzer Pfeffer als Heilpflanze. Als Heildroge dienen die ausgewachsenen, aber noch grünen, ungeschälten, getrockneten Früchte. Nach einer Behandlung mit kochendem Wasser werden sie in der Wärme getrocknet und werden dabei dunkel. Wirkstoffe sind: Scharf schmeckende Säureamide, vor allem Piperin; ätherisches Öl mit Limonen, Sabinen, Caryophyllen und auch Safrol. Anwendung: Der scharf brennende Geschmack des Pfeffers kommt über die Erregung von Wärme- und Schmerzrezeptoren zustande. Reflektorisch werden Speichel- und Magensaftsekretion angeregt, ebenso die Ausschüttung der Verdauungsenzyme. Pfeffer hat daher eine deutlich appetitanregende und verdauungsfördernde Wirkung, die aber in Arzneimitteln außer in Tonika in Europa kaum noch eingesetzt wird. Aus der Gattung "Piper" (Pfeffer). Getrocknete Früchte des Voatsiperifery-Pfeffers (Madagaskar) Langer Pfeffer besteht aus den getrockneten, unreifen Fruchtkätzchen von "Piper longum", einer anderen Art aus der Gattung Pfeffer ("Piper"). Das lateinische Wort "piper" (und davon das deutsche Wort "Pfeffer") entstammt dem indischen Wort für diesen Langpfeffer: "pippali". Voatsiperifery-Pfeffer ("Piper borbonense") ist ein selten im Spezialitätenhandel erhältlicher Pfeffer aus Madagaskar von stark aromatischem Geschmack. Er zeichnet sich durch seine dunkelbraune Farbe und den typischen Stielansatz der ovalen Beeren aus. Da er aus Wildsammlungen stammt und die Kletterpflanze erst ab 10 bis 20 Meter Höhe Früchte trägt, ist die Jahresernte sehr gering und sein Preis sehr hoch. Der Kubebenpfeffer ("Piper cubeba") spielt heute nur noch in der nordafrikanischen Küche eine Rolle, war aber im 15. und 16. Jahrhundert in Europa recht populär. Aus der Gattung "Capsicum" (Paprika). Spanischer Pfeffer ("Capsicum annuum") gehört zur Gattung Paprika ("Capsicum"). Aus dieser Pflanzenart sind sehr verschiedene Sorten gezüchtet worden: einerseits Gemüsepaprika, andererseits Sorten mit scharfen und sehr scharfen Früchten. Cayennepfeffer besteht aus den gemahlenen Schoten, wobei bevorzugt die scharfe Varietät Cayenne verwendet wird. Im englischen Sprachraum werden sowohl echter Pfeffer als auch Paprikaschoten – scharfe und nicht scharfe Sorten – als "pepper" bezeichnet. Zum Beispiel können mit "green pepper" grüne Paprika gemeint sein, aber auch grüne Pfefferkörner. Entsprechendes gilt für "red pepper". "Black pepper" kann sich allerdings nur auf Pfeffer beziehen: entweder auf die Pfefferpflanze (Schwarzer Pfeffer) oder auf schwarze Pfefferkörner. Im Gewürzmuseum in Hamburg ist ein Pfeffer-Ersatz aus der Zeit des Zweiten Weltkriegs ausgestellt, der Paprika enthält: 50 kg Haferschalenmehl, 50 kg gem. Dillstroh, 40 kg Paprikafruchtstängelpulver und 1/2 kg Sellerie-Öl wurden dafür gemischt. Aus anderen Gattungen. Rosa Pfeffer (auch "brasilianischer Pfeffer" oder "rosa Beere" genannt) stammt vom Brasilianischen Pfefferbaum ("Schinus terebinthifolius") oder vom Peruanischen Pfefferbaum ("Schinus molle"). Aus optischen Gründen wird rosa Pfeffer oft zum weißen, schwarzen und grünen Pfeffer in die Pfeffermühle hinzugegeben. Szechuanpfeffer ("Zanthoxylum piperitum") wird vor allem in der asiatischen Küche und Heilkunde verwendet. Der Guineapfeffer (oder "Meleguetapfeffer") stammt aus Westafrika (siehe auch Pfefferküste). Es handelt sich um die getrockneten Samen von "Aframomum melegueta", einer Pflanzenart, die zu den Ingwergewächsen gehört. Sie werden auch als Paradieskörner bezeichnet. Piment ("Pimenta dioica") ist auch unter den Bezeichnungen "Nelkenpfeffer" oder "Jamaikapfeffer" bekannt geworden. Er gehört zur Familie der Myrtengewächse. Macrotyloma uniflorum. Macrotyloma uniflorum ist eine Pflanzenart aus der Gattung "Macrotyloma" in der Unterfamilie der Schmetterlingsblütler (Faboideae) innerhalb der Familie der Hülsenfrüchtler (Fabaceae). Sie wird seit einigen Jahrhunderten im südlichen Indien genutzt, hat aber mittlerweile Verbreitung in weiten Teilen der Welt gefunden. Die Art wird auf Deutsch gelegentlich "Pferdebohne" genannt, in Übersetzung des englischen Trivialnamens "Horsegram", und ist dann nicht mit der oft ebenso genannten Ackerbohne zu verwechseln. Diese Nutzpflanze ist nahe verwandt mit einer Reihe von anderen als Bohnen bezeichneten Feldfrüchte, insbesondere der Erdbohne. Beschreibung. "Macrotyloma uniflorum" wächst als windende oder halbaufrechte, einjährige bis ausdauernde krautige Pflanze und erreicht je nach Standort Wuchshöhen von 30 bis 90 Zentimetern. Die wechselständigen Laubblätter sind gestielt und dreiteilig gefiedert. Die drei eiförmigen Teilblätter sind an ihrer Basis gerundet, meist 3,5 bis 5 (2,5 bis 7,5) cm lang und 2 bis 4 cm breit. Das Endfiederblatt ist symmetrisch und die seitlichen Fiederblätter sind asymmetrisch. Ober und -unterseite der Fiederblätter sind weich-wollig behaart. Die Nebenblätter sind 7 bis 10 mm lang. In den Blattachseln stehen die Blüten einzeln oder zu zweit bis viert in mehr oder weniger sitzenden, kurzen, traubigen Blütenständen. Die zwittrigen Blüten sind zygomorph und fünfzählig. Die fünf wollig behaart Kelchblätter sind verwachsen; die Kelchröhre ist 3 mm lang, die Kelchzähne sind 3 mm lang, wobei das obere Paar vollkommen verwachsen ist. Die fünf Kronblätter sind gelb bis grünlich-gelb. Die 9 bis 10,5 mm lang und 7 bis 8 mm breite Fahne besitzt zwei etwa 5 mm lange Anhängsel. Die zwei Flügel und das Schiffchen sind mit 8 bis 9,5 mm etwa gleich lang. Die unbehaarte oder wollig behaarte, leicht gebogene, 2,5 bis 6 Zentimeter lange und etwa 6 Millimeter breite Hülsenfrucht endet in einer etwa 6 Millimeter langen Spitze und enthält fünf bis acht Samen. Die eiförmigen Samen sind meist 4 bis 6, selten bis zu 8 Millimeter lang, 3 bis 5 Millimeter breit und ihre Farben reichen von hellrot über braun bis schwarz, manchmal mit Flecken. Das Hilum ist zentral. Das Tausendkorngewicht beträgt zwischen 30 und 50 g. Vorkommen. Das heutige Verbreitungsgebiet ist sehr groß: in Afrika: Angola, Botswana, Demokratische Republik Kongo (Zaire), Äthiopien, Kenia, Mosambik, Namibia, Ruanda, Somalia, Südafrika (Transvaal), Sudan, Tansania, Uganda und Simbabwe; in Asien: Bhutan, China, Indien, Indonesien (Java), Nepal, Pakistan, die Philippinen, Sri Lanka und Taiwan; auch in Australien. In den Gebieten der afrikanischen Aufsammlungen betragen die jährlichen Niederschlagsmengen 450 bis 750 mm und bei den indischen Aufsammlungen 600 bis 2200 mm, insgesamt hauptsächlich 550 bis 1000 mm, meist mit einer hohen Dominanz von Sommerregen. In den Anbaugebieten kann der Jahresniederschlag minimal 300 mm betragen. Blattkrankheiten können ein Problem in Gebieten mit hohen Niederschlagsmengen sein. Sie sind sehr trockenheitstolerant, aber sie tolerieren keine Überflutungen und vertragen Staunässe schlecht. Beim Anbau gibt es auch keine hohen Ansprüche an die Bodenbeschaffenheit. Der Anbau kann erfolgen wenn Durchschnittstemperatur zwischen 20 und 30 °C vorliegt. Bei genügend hohen Mindesttemperaturen findet ein Anbau bis in Höhenlagen von 1800 Meter statt. Systematik. Die Erstveröffentlichung erfolgte 1786 als "Dolichos uniflorus" Lam. durch Jean-Baptiste de Lamarck in "Encyclopedie Methodique. Botanique... Paris", 2, S. 299. Der aktuell gültige Name "Macrotyloma uniflorum" (Lam.) Verdc. wurde 1970 von Bernard Verdcourt in "Kew Bulletin", 24: 322, 401 veröffentlicht. Weblinks. Macrotyloma uniflorum Pippin der Jüngere. a> (zusätzlich Darstellung von Münzen aus seiner Zeit) Pippin der Jüngere, genannt auch Pippin III., Pippin der Kurze und Pippin der Kleine (* 714; † 24. September 768 in Saint-Denis bei Paris) war ein fränkischer Hausmeier aus dem Geschlecht der Karolinger und seit 751 König der Franken. Er war der Sohn Karl Martells und der Vater Karls des Großen. Leben. Pippin wurde 714 als zweiter Sohn Karl Martells und dessen erster Ehefrau Chrotrud geboren und im Kloster Saint-Denis erzogen. Im März 741 teilte Karl Martell sein Reich zwischen seinen Söhnen aus erster Ehe, Karlmann und Pippin, wobei sich über Art und Durchführung die wenigen, aus späterer Zeit stammenden Quellen durchaus widersprechen. Karlmann bekam Austrien, Alemannien und Thüringen, während Pippin Neustrien, Burgund und die Provence erhielt. Kurz vor seinem Tod änderte Karl Martell sein Testament. Grifo, sein Sohn von Swanahild, bekam nun auch seinen Teil. Nach dem Tod von Karl Martell ergriff Karlmann seinen Halbbruder Grifo mit dessen Mutter und setzte beide in unterschiedlichen Klöstern fest. 742, nach dem Aquitanien-Feldzug, teilten Karlmann und Pippin den "Annales regni Francorum" zufolge das Reich endgültig unter sich auf. Da die Macht nicht gefestigt schien, setzte Karlmann 743 mit Childerich III. erneut einen merowingischen König ein, um so seinem Amt als Hausmeier eine königliche Legitimierung zu geben. Zwischen den beiden Brüdern scheint es grundsätzlich kein Einvernehmen und keine erfolgreiche Kooperation gegeben zu haben. Als Karlmann 747, laut den karolingerfreundlichen Quellen, seine Länder Pippin übergab und sich in die Klöster Monte Soracte und Monte Cassino zurückzog, scheint es zumindest Gerüchte gegeben zu haben, dass dieser Rückzug nicht ganz freiwillig war. Pippin ließ explizit in zeitgenössischen Quellen erwähnen, dass es allein der Entschluss seines Bruders gewesen sei. Er übernahm dann jedoch unter Umgehung möglicher Erbrechte von Karlmanns Kindern und von seinem Halbbruder Grifo die Regentschaft des ganzen Frankenreichs, die allerdings nicht unangefochten blieb. So musste er erneut eine Empörung Grifos unterdrücken. Bei den Alemannen hob Pippin die Herzogswürde auf, und in Bayern setzte er Odilos unmündigen Sohn Tassilo III. als Herzog, aber unter fränkischer Oberhoheit, ein. Pippin war bestrebt, nach dem Amt des Hausmeiers auch den Königstitel zu erlangen. Die faktische Macht lag schon lange bei den karolingischen Hausmeiern. Die merowingischen Könige waren nur noch dem Namen nach die Herrscher. Zur Legitimation dieser Titelübernahme bediente sich Pippin nach Darstellung der fränkischen Reichsannalen des Papstes Zacharias. Pippin schickte dazu seine wichtigsten Ratgeber, Fulrad von Saint-Denis und Bischof Burkard von Würzburg, nach Rom zum Papst mit der Frage: „Wegen der Könige in Francia, die keine Macht als Könige hätten, ob das gut sei oder nicht.“ Wunschgemäß antwortete der Papst: „Es ist besser, den als König zu bezeichnen, der die Macht hat“. Im November 751 ließ sich Pippin durch eine Versammlung der Franken in Soissons nach Absetzung Childerichs III., der mitsamt seinem Sohn Theoderich in das Kloster Prüm verwiesen wurde, zum König (Rex Francorum) ausrufen und beendete damit die Reihe der Könige aus dem Geschlecht der Merowinger. Mit der Wahl Pippins zum König begann die Königsherrschaft der Karolinger im Frankenreich. Die exakte Rolle des Papstes bei diesem Vorgang wurde später unterschiedlich gesehen: Während Rom von einer Art autoritativer Aufforderung zur Krönung und damit einem päpstlichen Verfügungsrecht über das Königtum ausging, verstanden die weltlichen Großen das „Weistum“ des Papstes eher als eine Art Gutachten. Als der von den Langobarden bedrängte Papst Stephan II. in das Frankenreich kam, um Pippin um Hilfe zu bitten (6. Februar 754 in Ponthion), ließ sich dieser am 28. Juli 754 samt seinen Söhnen Karlmann und Karl in der Basilika Saint-Denis von ihm salben. Im Frühjahr 755 zog Pippin nach Italien. Der Langobardenkönig Aistulf, in Pavia belagert, zeigte sich entgegenkommend, brach aber nach Pippins Abzug seine Zusagen und belagerte den Papst in Rom. Pippin kehrte 756 zurück, zwang Aistulf zur Anerkennung der fränkischen Oberherrschaft und zur Abtretung des Exarchats von Ravenna, das Pippin dem Papst schenkte (Pippinische Schenkung), und übernahm das Patriziat über die Stadt Rom. 753 und 757 führte er erfolgreich Kriege gegen die Sachsen und trieb durch die Eroberung Narbonnes die Sarazenen über die Pyrenäen. 760 bis 768 unternahm er wiederholt Feldzüge gegen Herzog Waifar von Aquitanien. Überdies konnte er Herzog Tassilo III. von Bayern 757 zur Leistung des Vasalleneides zwingen. Vor seinem Tode teilte Pippin das Reich unter seinen Söhnen Karl (747–814) und Karlmann I. (751–771). Pippin starb am 24. September 768 in Saint-Denis bei Paris und wurde im Westen vor der dortigen Klosterkirche, der heutigen Kathedrale von Saint-Denis beigesetzt. Bei der Plünderung der Königsgräber von Saint-Denis während der Französischen Revolution wurde sein Grab im August 1793 geöffnet und geplündert, seine Überreste wurden in einem Massengrab außerhalb der Kirche beerdigt. Eine Gedenktafel für ihn fand Aufnahme in die Walhalla bei Regensburg. Kontroverse um Pippins Königssalbung. Die Rolle des Bonifatius bei Pippins Königssalbung von 751 wird in der Wissenschaft kontrovers diskutiert. Dass Bonifatius Pippin damals gesalbt habe, wird erst in Quellen berichtet, die ein bis zwei Generationen nach dem Ereignis entstanden (Reichsannalen, Metzer Annalen), in zeitgenössischen Quellen wie der Fredegar-Fortsetzung und den Bonifatius-Briefen ist dies nicht erwähnt. In der Geschichtswissenschaft wird die Bonifatiussalbung daher teils skeptisch betrachtet, teils aber auch für möglich gehalten. Unklar ist auch, ob gegebenenfalls das Vorbild der Westgoten eine Rolle gespielt haben könnte, die bis zum Untergang ihres Reiches enge Kontakte zu den Franken gepflegt hatten und deren Herrscher spätestens seit Wamba gesalbt worden waren. Josef Semmler stellte 2003 die den bisherigen Forschungsstand völlig in Frage stellende These auf, dass es 751 überhaupt keine Salbung gegeben habe, während die Salbung 754 durch Papst Stephan II. keine Königssalbung, sondern nur eine so genannte „postbaptismale Taufsalbung“ gewesen sei, was seitdem kontrovers diskutiert wird. Falls Semmlers These zutreffend wäre, würde jedoch im Hinblick auf den symbolisch-rituellen Aspekt selbst eine nur fiktiv vollzogene Salbung von Bedeutung sein. Denn sie wurde als legitimierender Faktor in den karolingischen Quellen festgehalten und wurde somit wirksamer Bestandteil der symbolisch-politischen Kommunikation. Beiname. Pippins Beiname „der Kurze“ oder „der Kleine“ kommt nicht, wie gelegentlich behauptet, von der falschen Übersetzung des lateinischen „Pippinus minor“ für „Pippin den Jüngeren“. Vielmehr war „Pippin der Kurze“ (lateinisch: "Pippinus brevis") ein Beiname, der ursprünglich in Quellen des 11. und 12. Jahrhunderts Pippin dem Mittleren beigelegt wurde (so bei Ademar von Chabannes und noch im 13. Jahrhundert in den Grandes Chroniques de France). Die Übertragung des Beinamens auf Pippin den Jüngeren dürfte ab dem 12. Jahrhundert unter Einfluss einer bereits 883/884 von Notker Balbulus aufgeschriebenen Anekdote erfolgt sein ("Gesta Karoli Magni", Buch 2, Kap. 15). Danach hätte Pippin der Jüngere einen Löwen mit dem Schwert besiegt und habe sich dabei mit dem kleinen David, wie er dem großen Goliat gegenüberstand, sowie mit dem kleinwüchsigen Alexander dem Großen verglichen. Gottfried von Viterbo nennt Pippin den Jüngeren in seinem „Königsspiegel“ ("Speculum regum", 1183) sogar "Pippinus nanus", also „Pippin den Zwerg“. Einige spätere Autoren sind ihm darin gefolgt, so Sicardus von Cremona in seiner Universalchronik ("Chronica universalis", 1213). Für die Zuweisung des Beinamens „der Kurze“ an Pippin den Jüngeren spielte wohl ebenso eine Rolle, dass man die Größe seines Sohnes Karls "des Großen" mit einem "kleinen" Vorgänger kontrastieren wollte. Ein weiterer Erklärungsansatz geht davon aus, dass sich der Beiname „der Kurze“ auch aus dem Namen Pippin heraus angeboten hat, da „Pippin“ als „Kleiner“ (ursprünglich ein Kosename für ein kleines Kind) gedeutet werden kann. In der heutigen deutschen Geschichtswissenschaft ist der Beiname „der Kurze“ ungebräuchlich; allgemein wird von Pippin dem Jüngeren gesprochen, was auf seine Stellung als dritter und jüngster Hausmeier dieses Namens zurückgeht. Im Englischen ("Pepin the Short") und Französischen ("Pépin le Bref") ist die Bezeichnung dagegen noch heute geläufiger, vergleiche den Buchtitel von I. Gobry (2001). Lauch. Lauch ("Allium ampeloprasum" Lauch-Gruppe, Syn. "Allium porrum"), auch Porree, Breitlauch, Winterlauch, Welschzwiebel, Gemeiner Lauch, Spanischer Lauch, Aschlauch, Fleischlauch genannt, ist eine Sortengruppe des aus dem Mittelmeerraum stammenden Ackerlauchs ("Allium ampeloprasum"). Dieses Gemüse zählt zur Gattung "Allium" in der Unterfamilie der Lauchgewächse (Allioideae). Beschreibung. Es ist eine zweijährige krautige Pflanze, die Wuchshöhen von 60 bis 80 cm erreicht. Im Gegensatz zur Wildform hat Lauch keine Zwiebel. Die linealischen bis lanzettlichen Laubblätter sind 1 bis 5 cm breit. Der Blütenstand steht auf einem glatten Blütenstandsschaft und hat eine vielblättrige, langgeschnäbelte Hülle, welche länger als der große, kugelige, vielblütige, doldige Blütenstand ist. Die zwittrigen Blüten sind radiärsymmetrisch. Die weißen bis hellpurpurnen Blütenhüllblätter sind 4,5 bis 5 mm lang und 2 bis 2,3 mm breit. Es werden eirunde Kapselfrüchte gebildet. Manchmal werden im Blütenstand Brutknollen gebildet. Herkunft und Geschichte. Der Lauch ist eine Kulturform des Ackerlauchs ("Allium ampeloprasum"), welcher wild im Mittelmeerraum vorkommt und in verschiedenen Formen kultiviert wird. Lauch war schon um 2100 v. Chr. bekannt. Der sumerische Herrscher Urnammu ließ ihn in den Gärten der Stadt Ur anbauen. Auch im alten Ägypten war Lauch in Verwendung. Nach Herodot soll er den Arbeitern, die die Pyramiden erbauten, als Nahrung gedient haben. Danach war Lauch in der Antike im gesamten Mittelmeergebiet geschätzt. Wahrscheinlich ist der Lauch im Mittelalter aus Italien nach Mitteleuropa gekommen. Anbau und Ernte. Lauch wird hauptsächlich im Mittelmeerraum und in Europa angebaut, wobei in Deutschland der Schwerpunkt in Nordrhein-Westfalen liegt. Der Anbau von Sorten für die Ernte im Herbst oder Winter erfolgt durch Aussaat in ein Freiland-Saatbeet von März bis April und in der Regel Verpflanzung auf den endgültigen Standort zwischen Ende Mai/Anfang Juni bis Ende Juli. Zwecks Ernte von Lauch bereits im Zeitraum zwischen Juni und August/September erfolgt die Aussaat in einem kalten Gewächshaus von Anfang Januar bis Anfang März an; die so gewonnenen Jungpflanzen werden zwischen Ende März und Ende Mai ins Freiland ausgepflanzt. Bei der Verpflanzung setzt man abhängig von der angestrebten Bestandesdichte die Lauchpflänzchen in Reihenabständen von 30 bis 50 cm und Pflanzenabständen zwischen 10 und 15 cm. Die Bestandesdichte je Hektar variiert zwischen 200.000 Pflanzen bei Frühsorten und 100.000 Pflanzen bei Wintersorten. Der Ertrag liegt bei Wintersorten um 25 t pro Hektar. Aufgrund der hohen Frosthärte der meisten Lauchsorten für den Winteranbau können diese oft über den Winter auf dem Feld verbleiben. Krankheiten und Schädlinge. Als wichtigste und vor allem Qualität mindernde Schädlinge sind Zwiebelthrips ("Thrips tabaci"), die durch Saugtätigkeit die Blätter silbergrau werden lassen, und die Lauchmotte ("Acrolepiopsis assectella"), welche Löcher in Blatt und Lauchstange frisst, zu nennen. Seltenere Schädlinge sind Zwiebelminierfliege und Zwiebelfliege. Bei den Pilzkrankheiten sind es Porree-Rost ("Puccinia allii"), der durch rostige „Pusteln“, Papierfleckenkrankheit ("Phytophthora porri") durch papierartige Verfärbung der Blätter und Wachstumsverlust und Purpurfleckenkrankheit ("Alternaria porri") durch seine Blattflecken die Qualität mindern oder Lauch unverkäuflich machen. Seltener tritt auch der Pilz Samtfleckenkrankheit ("Cladosporium allii"), die Viruserkrankung Gelbstreifigkeit (' = LYSV, ' = SLV, oder ' = GLV) an Lauch auf, die durch mehrere Viren verursacht werden kann. Wichtig ist eine weit gestellte Fruchtfolge, die den Aufbau einer erhöhten Schadpopulation in einem Feld oder in einer Region verhindert. Dem kann im Hausgarten mit Mischkulturen etwas entgegengewirkt werden. Dabei spielen Nachbarpflanzen eine gewisse Rolle. Ein wichtiger Faktor hierfür ist die Allelopathie. Günstige Nachbarn wie Endivie, Erdbeere, Kamille, Kohl, Kohlrabi, Kopfsalat, Möhre, Schwarzwurzel, Sellerie und Tomate mindern, schlechte Nachbarpflanzen wie Bohne, Erbsen oder Rote Bete können Wachstum und Krankheitsdruck fördern. Verwendung in der Küche. Lauch wird sowohl als Gemüse (meist Winterlauch) als auch als Küchengewürz (meist Sommerlauch) genutzt; man kann ihn als Gemüse oder Salat kalt oder warm essen. Zusammen mit Karotten und Sellerie wird Lauch als Gewürz in Suppen als sogenanntes Suppengrün verwendet. Weitere Verwendung findet sich auch als "Lauchtorte" in kalter und heißer Ausführung. Lauch führt bei der Verdauung – ähnlich wie bei Zwiebeln – zu Blähungen. Inhaltsstoffe. Lauch enthält unter anderem Vitamin C, Vitamin K und Folsäure sowie die Mineralstoffe Kalium, Calcium, Magnesium und die Spurenelemente Eisen und Mangan. Die Schwefelverbindung Propanthial-"S"-oxid, die aus Isoalliin und dem katalysierenden Enzym Allinase entsteht, verursacht den intensiven Geruch und Geschmack von Lauch. Das Sulfoxid Cycloalliin kommt ebenfalls in diversen Laucharten vor. Sprache. Bis in die 1970er Jahre wurde im deutschsprachigen Raum hauptsächlich die Bezeichnung „Porree“ benutzt, nur in der deutschsprachigen Schweiz, in Baden-Württemberg, Saarland, Rheinland-Pfalz, im südlichen Hessen und gestreut in Österreich und dem westlichen Bayern war die Bezeichnung „Lauch“ gebräuchlich. Die Bezeichnung „Lauch“ hat sich jedoch in den letzten Jahrzehnten ausgebreitet und ist mittlerweile beinahe so verbreitet wie „Porree“. Weitere zum Teil auch nur regional gebräuchliche Bezeichnungen für den Lauch sind oder waren: "Aeschlauch", "Bieslook" (niederdeutsch), "Biramsam" (mittelhochdeutsch), "Bolle" (Brandenburg), "Borren" (Brandenburg), "Burrä" (Oldenburg), "Burchon" (Oberhessen), "Burri" (Mecklenburg, Jever), "Burrei" (Butjerden), "Burren" (Altmark), "Burro" (Pommern), "Fristlich" (Erzgebirge), "Gemeinloch" (mittelhochdeutsch), "Kil" (mittelniederdeutsch), "Läuchel" (mittelhochdeutsch), "Lauchekyl", "Loek" (mittelniederdeutsch), "Lók" (mittelniederdeutsch), "Look" (Oldenburg, Ostfriesland), "Pfarr", "Pforisamo" (mittelhochdeutsch), "Pharren" (mittelhochdeutsch), "Phorro" (mittelhochdeutsch), "Phorsame", "Poré" (Siebenbürgen), "Pork" (mittelhochdeutsch), "Porlok" (mittelhochdeutsch), "Porsam", "Prei" (Oldenburg, Ostfriesland), "Prieslauch", "Priselocher", "Prö" (Lübeck) und "Slauch". Kulturelle Rezeption. Lauch war im altgermanischen Ritual so heilig, dass er einer Rune den Namen gab. Auf den britischen Inseln soll er vom Britenkönig Cadwallader um 640 als Erkennungszeichen für seine Truppen verwendet worden sein. Porree ist eines der Nationalsymbole von Wales. Ein Band mit Erzählungen Arno Schmidts von 1959 trägt den Titel "Rosen und Porree". Portugiesische Euromünzen. Die portugiesischen Euromünzen sind die in Portugal in Umlauf gebrachten Euromünzen der gemeinsamen europäischen Währung Euro. Am 1. Januar 1999 trat Portugal der Eurozone bei, womit die Einführung des Euros als zukünftiges Zahlungsmittel gültig wurde. Umlaufmünzen. Portugiesische Euromünzen haben für jede der drei Münzreihen ein eigenes Motiv. Abgebildet werden drei königliche Siegel aus den Jahren 1134, 1142 und 1144, umgeben von – die sieben Schlachten Alfons III. gegen fünf maurische Könige symbolisierend – sieben Kastellen und fünf Wappenschilden sowie dem Wort "PORTUGAL". Alle Entwürfe stammen von Vítor Manuel Fernandes dos Santos, der mit "VS" signiert, und enthalten die zwölf Sterne der EU und das Prägejahr. Die Randprägung aller 2-Euro-Münzen zeigt sieben Kastelle und fünf Schilde, die auch im Wappen Portugals symbolhafte Elemente sind. Geprägt werden die Münzen in der „Imprensa Nacional – Casa da Moeda“ in Lissabon. Das Zeichen der Münzprägestätte – INCM – ist auf den Münzen über dem ersten Wappenschild von rechts zu finden. Die Münzen, die in den Jahren 1999–2002 geprägt wurden tragen das Prägejahr 2002. Die ab 2003 geprägten Münzen tragen das tatsächliche Prägejahr. Die ab 2007 neu gestaltete Vorderseite der Euromünzen (neue Europakarte) wurde in Portugal erst 2008 eingeführt. Rund 100000 der insgesamt 5 Millionen 1-Euro-Münzen aus dem Jahre 2008 wurden noch mit der alten Europakarte auf der Vorderseite geprägt. Die Münzen ab 2011 weisen ein geringfügig verändertes Erscheinungsbild auf der Rückseite auf. Die Sterne sind nun etwas kleiner und die Schriftzüge sowie Burgen und Wappen wurden zarter gestaltet. Einzelnachweise. Euromunzen Volksfront zur Befreiung Palästinas. Die Volksfront zur Befreiung Palästinas (, engl. Popular Front for the Liberation of Palestine, allgemein als PFLP abgekürzt) ist eine dem linken Flügel des Panarabismus zuzurechnende, 1968 gegründete Palästinenserorganisation, die politisch und militärisch aktiv ist. Die EU und die USA führen die PFLP auf ihren Listen von Terrororganisationen. Das britische Innenministerium rechnet sie im Jahr 2014 nicht mehr dazu. Gründung. Die PFLP wurde am 11. Dezember 1967 gegründet. Sie wurde in ihrer Anfangszeit von Wadi Haddad und dem Kinderarzt George Habash geführt. Vor allem Mitte der 1990er-Jahre verlor die Organisation zunehmend an Einfluss. Mit dem Zerfall des Ostblocks und der Auflösung der Sowjetunion, sowie bedingt durch weitere Faktoren, wurden vor allem islamistische Kräfte wie die Hamas zusehends stärker und verdrängten die PFLP allmählich aus den Schlagzeilen. Ideologie. Die Volksfront entstand aus der Vereinigung einiger linksgerichteter nicht-religiöser palästinensischer Organisationen, deren größte die palästinensische Sektion der Bewegung Arabischer Nationalisten war, und verband in ihrer Ideologie zunächst Elemente des Marxismus-Leninismus mit palästinensischem Nationalismus. Das erklärte Ziel der Volksfront: „Die Befreiung ganz Palästinas im bewaffneten Kampf und die Errichtung eines demokratischen und sozialistischen palästinensischen Staates.“ Zu Beginn widersetzte sich die Volksfront jeglicher Lösung des israelisch-palästinensischen Konflikts, die zur Bildung zweier Staaten zwischen dem Mittelmeer und Jordanien führen sollte. Zu Beginn der 1990er-Jahre etwa spaltete sie sich von der PLO ab und bildete zusammen mit anderen Organisationen die sogenannte „Ablehnungsfront“ aus sich dem Oslo-Friedensprozess widersetzenden Organisationen, zu der unter anderem auch die DFLP und die islamistischen Organisationen Hamas und Islamischer Dschihad gehören. Die Gruppe hält an ihrem Widerstand gegen die Oslo-Abkommen fest und beharrt auf dem Rückkehrrecht der palästinensischen Flüchtlinge. Auf taktischer Ebene bekennt sich die Volksfront zu spektakulären Terroraktionen, die die Aufmerksamkeit der Medien erregen und die Meinung der weltweiten Öffentlichkeit auf das palästinensische Problem lenken, wie beispielsweise Flugzeugentführungen sowie Attentate an zentralen Orten und Veranstaltungen. Al-Aqsa-Intifada und Arafats Tod. Im April 2000 kündigte Habash seinen Rücktritt aus gesundheitlichen Gründen an. Habashs Nachfolger als Generalsekretär wurde am 8. Juli 2000 Abu Ali Mustafa, der am 27. August 2001 einer gezielten Tötung durch die israelische Armee zum Opfer fiel. Nach ihm benannte sich kurz danach der militärische Teil der PFLP Abu-Ali-Mustafa-Brigaden. Ein Kommando der Brigaden tötete kurz darauf als Vergeltung den israelischen Tourismusminister Rechaw’am Ze’ewi. Während dieses Mordanschlages hatte bereits die zweite, Al-Aqsa-Intifada begonnen. Als Reaktion darauf forderte die israelische Regierung die Verhaftung des neuen Generalsekretärs Ahmad Saadat, des Chefs der "Abu-Ali-Mustafa-Brigaden", sowie einiger weiterer PFLP-Angehörigen, denen Israel die Planung bzw. Durchführung des Attentats vorwirft. Diesem Druck kam die palästinensische Autonomieregierung schließlich nach und ließ alle verhaften. Währenddessen kämpften Brigaden-Einheiten in der zweiten Intifada aktiv mit. So waren die Abu-Ali-Mustafa-Brigade-Einheiten, obwohl kleiner als etwa die bewaffneten Kräfte der Hamas oder die Fatah-Milizen, an militanten und gewalttätigen Demonstrationen, direkten Kampfhandlungen und Schießereien mit der israelischen Armee, an Selbstmordanschlägen und Attentaten führend beteiligt. Während der Amtszeit des früheren palästinensischen Ministerpräsidenten Mahmud Abbas wurde im Sommer des Jahres 2003 eine Waffenpause ausgehandelt, an der sich jedoch einige Organisationen, unter ihnen auch die PFLP, nicht beteiligten. Nach Arafats Tod im November 2004 bemühte sich die PFLP um eine gemeinsame Kandidatur mit der DFLP und der Palestinian People's Party und führte Gespräche mit diesen Gruppen, die aber zu keiner Einigung führten. Infolgedessen unterstützte die PFLP dann bei der Präsidentenwahl 2005 die Palestinian National Initiative um deren Spitzenkandidaten Mustafa Barghuti. Dieser gewann dann insgesamt etwa 19,5 Prozent der Stimmen und wurde damit hinter "Mahmud Abbas" zweitstärkster Kandidat. Wahlen 2006. Bei den Wahlen zum palästinensischen Parlament am 25. Januar 2006 trat die PFLP mit der Liste "Märtyrer Abu Ali Mustafa" an und erhielt 4,25 Prozent der Stimmen. Dabei gewann sie die meisten Prozente in ihren Hochburgen in Bethlehem 9,4 Prozent, in Ramallah 6,6 Prozent, gefolgt von Nord-Gaza mit 6,5 Prozent. Mit diesem Ergebnis ist sie drittstärkste Partei im Parlament und mit drei Abgeordneten vertreten: dem in israelischer Haft sitzenden Generalsekretär Ahmad Saadat, Jamil al-Majdalawi und Chalida Dscharrar. An der Regierung „der nationalen Einheit“, aus Hamas, Fatah, DFLP und anderen kleineren linken und bürgerlichen Gruppen, beteiligte sich die PFLP als einzige Oppositionspartei im Parlament nicht. Weiterhin beteiligte sich die PFLP bzw. ihr militärischer Arm an Anschlägen und Angriffe gegen israelische Ziele. Dazu gehörten beispielsweise die Entführung von vier Amerikanern und zwei Franzosen 2006, sowie Schießereien und Angriffe auf israelische und westliche Gebäude, die alle im Zusammenhang mit dem in Haft sitzenden Ahmad Saadat und anderen PFLP-Mitgliedern stehen. Auch während der Stürmung des Gefängnisses durch die israelische Armee selbst, kam es zu Gefechten zwischen den inhaftierten PFLP-Gefangenen und den Streitkräften Israels. Im Laufe der israelischen Angriffe und Operationen gegen Ziele im Gaza-Streifen 2007 verstärkten die Abu-Ali-Mustafa-Brigaden ihre militärischen Aktivitäten. Abspaltungen. 1968, kurz nach der Gründung der PFLP spaltete sich von der jungen Organisation die PFLP-GC um Ahmad Dschibril ab. Die PFLP-GC stand damals für eine eher auf den praktischen bewaffneten Kampf ausgerichtete Gruppe und verstand sich damit als Gegensatz zur – von ihr als zu stark theoretisch orientierten – PFLP. Sie blieb immer kleiner als PFLP oder DFLP, ist aber durch ihre stärkere Radikalität bekannt. Die Gruppe hat ihr Haupteinflussgebiet eher in den Flüchtlingslagern in Syrien und wird auch bis heute von Syrien unterstützt. Heute ist die Gruppe vor allem in libanesischen Flüchtlingslagern aktiv und soll in einigen sogar die Oberhand haben. Nach einigen Angaben soll es zu kleineren Kooperationen mit der in dem gleichen Gebiet aktiven Hisbollah gekommen sein, vor allem während des zweiten Libanonkrieges. Zuerst nannte sich die 1969 abgespaltene Fraktion "„Volksdemokratische Front zur Befreiung Palästinas“ (PDFLP)". Erst 1974 wurde der Name in DFLP geändert. Grundsätzlich unterschieden sich die beiden Fraktionen nicht viel voneinander. Knackpunkt der internen Fraktionskämpfe zwischen den sogenannten "Progressiven (DFLP)" und "Historikern (PFLP)" war letztlich vor allem die theoretische Frage über den bewaffneten Kampf, zum Teil nicht als solches, obwohl die eher Moskau-orientierte DFLP viel weniger militant ist, sondern eher um dessen Stellung in taktischen Fragen. Während des Jahres 1972 spitzten sich die internen inhaltlichen Konflikte wieder zu. An dessen Ende stand die Abspaltung der Gruppe der linken Fraktion um den damaligen militärischen Verantwortlichen für den Süd-Libanon "Salim Darduna" von der PFLP, die sich dann PRFLP nannte. Etwa 150 PFLP-Mitglieder sollen dieser Gruppe angehört haben. Die PRFLP konnte aber niemals nennenswert Einfluss gewinnen. Weiterhin stellte auch die vom PFLP-Mitgründer Wadi Haddad (Abu Hani) geleitete PFLP-EO eine Abspaltung dar – zumindest aber eine autonome Gruppe innerhalb der PFLP. Nachdem die von der PFLP verantworteten Flugzeugentführungen vom September 1970 zu heftigen anti-palästinensischen Reaktionen innerhalb der arabischen Welt beigetragen hatten (s. Schwarzer September), distanzierte sich die Führung um Habash vom internationalen Terrorismus als Instrument der Kriegsführung, woraufhin Haddad seine folgenden Aktionen auf eigene Verantwortung organisierte und durchführte. Die Haddad-Gruppe arbeitete eng mit linksrevolutionären Guerillagruppen aus verschiedenen Teilen der Welt zusammen und wurde durch außerhalb des Nahen Ostens begangene Terroraktionen bekannt, darunter die Flugzeugentführungen von Entebbe 1976 und Mogadischu 1977 und der Überfall auf die OPEC-Konferenz in Wien 1975. 1976 wurde Haddad wegen seiner fortgesetzten Flugzeugentführungen aus der PFLP ausgeschlossen. Die von der westdeutschen Antiterror-Spezialeinheit GSG 9 der Bundespolizei beendete Flugzeugentführung nach Mogadischu war die letzte Aktion der Haddad-Gruppe, deren Anführer im März 1978 starb. Organisation. Seit der gezielten Tötung von Abu Ali Mustafa durch die israelischen Streitkräfte ist "Ahmad Saadat" Generalsekretär der PFLP. Dieser sitzt seit der Gefangennahme zusammen mit anderen PFLP-Aktivisten durch palästinensische Sicherheitskräfte vorher in palästinensischer Haft, zurzeit in israelischer Haft. Ein Großteil der Anhänger der PFLP ist im zentraleren Westjordanland, vor in allem Ramallah, Bethlehem und in den Außenbezirken Ostjerusalems, weiterhin auch in Gaza bzw. Nord-Gaza oder Nablus zu finden. Ein großer Teil gerade auch der Kämpfer für die Abu-Ali-Mustafa-Brigaden kommt aus dem studentischen Umfeld aus den Universitäten in Ostjerusalem, Ramallah, Nablus und Dschenin. Die Zahl der Mitglieder schwankt nach verschiedenen Quellen. So soll es nach einigen CIA-Angaben nur etwa 800 Mitglieder der PFLP geben. Wahrscheinlicher sind Angaben über mehrere Tausend in der PFLP. Nach Angaben in der FAZ soll die PFLP 2004 etwa 3000 Aktivisten haben und damit die größte Organisation der Linken, vor etwa der DFLP, sein. Gesichert scheint außerdem, dass es einige hundert Mitglieder und Kämpfer der PFLP und ihrer Organisationen zurzeit in israelischer Haft gibt. Für der Gefangenenbetreuung der PFLP-Angehörigen ist auch die palästinensische Gefangenenorganisation "Adameer" verantwortlich. Die Organisation hat eine eigene Zeitung mit dem Namen "al-Hadaf" (deutsch: "Das Ziel") und weitere Publikationen, sowie eine englische und arabische täglich aktualisierte Internetpräsenz. Das englischsprachige Blatt namens "Democratic Palestine" musste in den 1990er-Jahren wegen Geldmangel eingestellt werden. Die PFLP besitzt auch eine Reihe von Nebenorganisationen oder von ihr beeinflusste Zusammenschlüsse wie die studentische "Progressive Student Action Front", die Jugendorganisation "Palestinian Progressive Youth Union", Frauengruppen sowie die Gefangenen-Solidaritätsorganisation "Adameer". Weiterhin arbeiten viele Mitglieder in Kulturvereinen und vor allem Gewerkschaften aktiv mit. Teilweise sind bzw. sollen PFLP-Mitglieder oder Sympathisanten auch als Schuldirektoren oder Bürgermeister aktiv. So soll beispielsweise die Bürgermeisterin von Ramallah, Janet Micha'il, Verbindungen zur PFLP haben oder Mitglied sein, während der Bürgermeister von Bethlehem, Victor Batarseh, langjähriges Mitglied ist. Ein weiteres Beispiel ist der langjährige Schuldirektor und PFLP-Kader Imad Abd al-Aziz. Der bewaffnete Kampf spielte in der PFLP immer eine entscheidende Rolle. Die PFLP verstand sich immer als revolutionär, also auch militant kämpfende, Organisation. Zur Geldbeschaffung arbeitete die PFLP zeitweise mit der dänischen Untergrundgruppe Blekingegadebanden zusammen. Seit der Tötung von Abu Ali Mustafa durch die israelische Armee und seit der Al-Aqsa-Intifada bilden die Abu-Ali-Mustafa-Brigaden den Arm für militärische Operationen. Kommandierender ist der schon früher im militärischen Arm der PFLP arbeitende Ahad Yusuf Musa Olma. Die Brigaden, die in den gesamten besetzten Gebieten vertreten sind, traten vor allem während der Al-Aqsa-Intifada, dem Kampf 2006 um das Gefängnis, in dem "Ahmad Saadat" saß, sowie seit den Operationen Israels gegen den Gaza-Streifen ab 2007 stark mit Selbstmordanschlägen, Qassam-Raketenangriffen, Verschleppungen, Angriffen auf Streitkräfte Israels und den Beschuss von mehrheitlich rechts-gerichteten jüdischen Siedlungen in Erscheinung. Portugal. Die Republik Portugal (amtl. ') ist ein europäischer Staat im Westen der Iberischen Halbinsel. Als westlichster Punkt Kontinentaleuropas wird das Land im Osten und Norden von Spanien begrenzt, im Westen und Süden dagegen vom Atlantischen Ozean. Zum portugiesischen Staatsgebiet gehören die Inseln der Azoren und Madeira (mit Porto Santo). Das im 12. Jahrhundert gegründete Königreich Portugal stieg im 15. Jahrhundert zu einer Großmacht auf und spielte eine wesentliche Rolle im Zeitalter der Entdeckungen. Das Königreich schuf eines der größten Kolonialreiche mit Besitzungen in Afrika, Asien und Südamerika, dessen Niedergang jedoch bereits im Laufe des 17. Jahrhunderts eingeläutet wurde. 1910 kam es durch einen militärischen Aufstand zum Sturz der portugiesischen Monarchie, der König Manuel II. ins Exil zwang. Die Erste Portugiesische Republik trat am 5. Oktober 1910 in Kraft und bestand bis zum Militärputsch von General Gomes da Costa im Jahr 1926. Danach stand das Land für mehr als vierzig Jahre unter der autoritären Diktatur von António de Oliveira Salazar. Die Nelkenrevolution vom 25. April 1974 führte zum Sturz des Régimes und eröffnete den Weg zur demokratischen Dritten Republik. Portugal ist Gründungsmitglied der NATO (1949) und der OECD (1948) und zudem Mitglied der Vereinten Nationen (seit 1955), des Europarats (seit 1976) und des Schengener Abkommens (seit 1991). Portugal gehört außerdem zu den Gründungsstaaten der Eurozone und gilt trotz des wirtschaftlichen Aufschwungs Ende des 20. Jahrhunderts immer noch als ärmstes "Altmitglied" der EU (Beitritt 1986). Die Finanzkrise ab 2007 und die sich anschließende Eurokrise haben für eine Rezession und eine sozioökonomische Krise im Land gesorgt. Für lange Zeit war Portugal ein Auswanderungsland; wichtige Zentren der portugiesischen Kultur in der Diaspora gibt es heute in Brasilien, Angola, Mosambik, der Schweiz, Luxemburg und vor allem in Frankreich, sowie den USA, wo jeweils etwa 1 bis 2 Millionen Portugiesen leben. Wichtigste bilaterale Partnerländer sind Brasilien und Spanien. Der Tourismus, insbesondere der Badetourismus, ist eine wichtige Einnahmequelle. Mit 25 Millionen Touristen pro Jahr gehört Portugal zu den meistbesuchten Ländern der Welt, häufigste Reiseziele sind die Algarve und die Region um die Hauptstadt Lissabon. Das Land ist daneben für den Weinanbau bekannt, insbesondere für den Portwein, und als weltweit bedeutendstes Produktionsland für Rohkork. Landesname. Der Name "Portugal" entstammt dem vom Römischen Imperium angelegten Hafen Porto, auf Lateinisch "Portus Cale" (lat. "portus" bedeutet „Hafen“). Was mit "Cale" gemeint ist, ist umstritten. Die meisten Gelehrten meinen, "Cale" beziehe sich auf die Gallaeker (altgriechisch "Kallaikoi", lat. "Callaici") – „Hafen der Galläker“. Andere meinen, es handele sich um ein Überbleibsel von lat. "calidus", was „warm“ bedeutet – „Warmer Hafen“. Es gibt auch Historiker, die meinen, die Griechen hätten vielleicht als Erste dort gesiedelt und das griechische Wort "kallis" für „schön“ sei namensgebend gewesen – „Schöner Hafen“. Im Mittelalter wurde "Portus Cale" zu "Portucale", später "Portugale", wobei der Name im 7. und 8. Jahrhundert nur die nördlichen Teile des Landes bezeichnete, also die Region zwischen den Flüssen Rio Douro und Rio Minho. Geographie. Typische Landschaft des Alentejo bei Monsaraz Im Westen und Süden wird Portugal vom Atlantischen Ozean, im Osten und Norden mit der einzigen Landesgrenze von insgesamt 1214 km Länge mit Spanien begrenzt. Der Norden Portugals hat ein relativ kühles und feuchtes Klima und besteht aus zwei traditionellen Provinzen oder Landschaften: Der Minho im Nordwesten gehört zu den am dichtesten besiedelten Gegenden des Landes. Die größten Städte des Minho sind Braga und Viana do Castelo. Der Minho wird wegen seines Klimas und der vergleichsweise üppigen Vegetation als der "grüne Garten" Portugals bezeichnet. Auf den Hängen der zahlreichen Flusstäler wird vor allem Wein angepflanzt, der zum berühmten Vinho Verde weiterverarbeitet wird. Daneben gedeihen viele Gemüsesorten. Die natürliche Vegetation ist eine Mischung aus der Flora der gemäßigten Klimazone und der subtropischen Flora, je nach Höhenlage gibt es Eichen und Kastanien oder Pinien und Olivenbäume. Im Nordosten liegt Trás-os-Montes ("Hinter den Bergen"). Dies ist die dem Meer abgewandte Seite Nordportugals, die sehr gebirgig ist und deshalb sehr kalte Winter und sehr heiße Sommer hat. Die Vegetation ist bedeutend weniger üppig als im Minho und wird zur Grenze nach Spanien hin spärlicher. Beiden Provinzen ist gemein, dass ihre Gebirgsmassive, wie z. B. Marão oder Peneda-Gerês von zahlreichen Flüssen, wie dem Rio Minho (Grenzfluss zu Spanien) oder dem Rio Douro, durchschnitten werden. Im Norden Portugals liegt der Nationalpark Peneda-Gerês, ein wichtiges Schutzgebiet des Landes. Dort existieren noch Restbestände naturbelassener Wälder, in denen sich insbesondere die immergrüne Steineiche findet. Bedeutende Städte des Nordens sind Porto, Vila Nova de Gaia, Matosinhos, Braga, Vila Real und Bragança. Mittelportugal ist größtenteils hügelig bis gebirgig und hat mit der "Serra da Estrela" ein beachtliches Gebirge mit Wintersportmöglichkeiten. Der höchste Berg ist der Torre mit. Er ist die höchste Erhebung Kontinentalportugals. Die wichtigsten Landschaften sind die Beira, der Ribatejo (die Tejo-Ebene mit Beinamen "Garten Lissabons"), die Estremadura sowie die Mündung des Tejo in den Atlantik. Die gesamte Region ist sehr fruchtbar und hat ein für den Weinanbau günstiges Klima. Die Tradition des Weinbaus reicht bis zu den Römern zurück. Daneben werden Getreide, Reis, Sonnenblumen und Gemüse angebaut. Die Region wird durch den Tejo geteilt. Überschwemmungen, die früher den Ribatejo regelmäßig heimsuchten, kommen seit dem Bau zahlreicher Staudämme kaum mehr vor. Die wichtigsten Städte Mittelportugals sind Lissabon, Aveiro, Sintra, Coimbra, Viseu, Leiria, Castelo Branco sowie Santarém. Der Süden Portugals setzt sich aus den drei Landschaften Terras do Sado, Alentejo und Algarve zusammen. Die Oberfläche der gesamten Region ist eben bis hügelig und hat ein trockenes und heißes Klima. Der Alentejo, die frühere Kornkammer Portugals, ist heute nur dünn besiedelt und von Abwanderung gekennzeichnet, weitläufige Getreidefelder mit Olivenhainen und Korkeichen dominieren die Landschaft. Zum Weinanbau kommen als Hauptprodukte Getreide und zunehmend Sonnenblumen. Die Wiesen dienen zur Schafzucht und sind im Frühling mit Blumen übersät. Zum wirtschaftlichen Niedergang tragen nicht zuletzt die länger werdenden Trockenperioden bei, die mit dem Bau von Staudämmen gemildert werden sollen. Umstritten sind die Anpflanzungen von schnell wachsenden Eukalyptusbäumen. Diese stellen ein erhöhtes Risiko für Waldbrände dar, trotzdem nehmen die Anbauflächen zu. Die südlichen Küstenregionen sind häufig von Kiefernwäldern bewachsen. Daneben finden sich zahlreiche Palmenarten, von denen nur die Zwergpalme einheimisch ist. Die Algarve markiert die gesamte Südküste des Landes und ist mit ihren hübschen Städten, den Steilküsten und Sandstränden zu einem beliebten Feriendomizil geworden, was übliche negative Begleiterscheinungen wie Massentourismus mit sich gebracht hat. Die größten Städte Südportugals sind Portalegre, Évora, Beja sowie Faro und Lagos. Der bestimmende Fluss ist der Rio Guadiana, der zweimal ein längeres Stück die Grenze zu Spanien bildet. An die große sommerliche Hitze angepasst sind zahlreiche sukkulente Pflanzen. Zu Portugal gehören des Weiteren die Inselgruppen Madeira ("Holzinsel") und Azoren ("Habichtsinseln") im Atlantik. Sie sind, bis auf die Azoreninsel Santa Maria, vulkanischen Ursprungs. Die Inselgruppe Madeira hat aufgrund ihrer Lage vor der afrikanischen Küste eine teils tropische, teils subtropische Vegetation. Der höchste Berg Portugals befindet sich auf den Azoren (Ponta do Pico,). Die wichtigsten Flüsse Portugals sind der Tejo, welcher in Spanien unter dem Namen "Tajo" entspringt, der Douro (spanisch "Duero") und der Mondego, wobei letzterer nur durch Portugal fließt. "Siehe auch": Liste der Städte in Portugal; Liste portugiesischer Inseln Die Tierwelt Portugals unterscheidet sich nur unwesentlich von der Spaniens. Vereinzelt leben hier noch Wölfe; der nur auf der Iberischen Halbinsel verbreitete Pardelluchs ist dagegen in Portugal nahezu ausgestorben, nur noch selten werden Einzeltiere angetroffen, die vermutlich über die Grenze zu Spanien eingewandert sind. Ansonsten finden sich Wildkatzen, Füchse, Wildschweine, Hirsche, wilde Ziegen sowie Wildkaninchen. Da Portugal auf der Zugvogelroute nach Afrika liegt, lassen sich zahlreiche Vögel beobachten, darunter insbesondere im Süden die Flamingos; Steinadler leben und jagen in den Küstengebieten. Im Landesinneren kommen verschiedene Schlangen und Skorpione vor. Bevölkerung. Portugal ist, bezogen auf die alteingesessene Bevölkerung, in sprachlicher, ethnischer und religiöser Hinsicht ein sehr homogenes Land. Die portugiesische Sprache wird im ganzen Land gesprochen und nur in den Dörfern von Miranda do Douro wird ein dem Asturischen zugeordneter Dialekt (Mirandés) gesprochen, der als Minderheitensprache anerkannt wird. Die größte einheimische ethnische Minderheit bilden 40.000 bis 50.000 Roma, die sozial und ökonomisch marginalisiert sind. Die dichteste Besiedelung weist ein Küstenstreifen von der spanischen Grenze im Norden bis in die Gegend um Lissabon auf. Während in diesem Streifen 70 % der Bevölkerung leben, sind das Hinterland und der Süden Portugals sehr dünn besiedelt. Mehr als 10 % der Bevölkerung entfällt auf zwei Städte (Lissabon und Porto), während mehr als die Hälfte in Orten unter 2.000 Einwohnern lebt. Der Trend geht in Portugal in Richtung Verstädterung. Bevölkerungsentwicklung. Die in Portugal ansässige Bevölkerung wurde für Ende Dezember 2008 auf 10.627.250 Personen geschätzt. Damit hat sich die Bevölkerung seit 1900 verdoppelt. Das Bevölkerungswachstum war dabei keineswegs konstant. Einem Bevölkerungsrückgang im Jahre 1920 aufgrund der Auswirkungen des Ersten Weltkrieges, der Spanischen Grippe und einer Auswanderungswelle folgte eine Wachstumsphase, die bis in die 1940er-Jahre dauerte und die von steigender Lebenserwartung der Menschen profitierte. Von etwa 1965 bis 1973 kam es zu starker Auswanderung, bis sich 1974 aufgrund der Unabhängigkeit der Kolonien eine starke Rückwanderung ereignete. Die Auswanderung der 1980er-Jahre kam in den 1990ern zum Stillstand. Das natürliche Bevölkerungswachstum war 2007 leicht negativ, 2008 stagnierte es. Das leichte Gesamtwachstum, das 2008 0,09 % und 2007 0,17 % betrug, ist deshalb nur auf die Nettomigration zurückzuführen. 2003 noch war die Bevölkerung um 0,64 % gewachsen. Die Geburtenrate, die vor 1920 noch bei 30 pro 1000 Einwohnern lag, ist bis 2008 auf 9,8 pro 1000 Einwohner gesunken. Die Fruchtbarkeitsrate erreichte 2007 mit nur 1,33 Kindern pro Frau den tiefsten Wert in der Geschichte des Landes. In den 1960er-Jahren bekam eine Frau im Durchschnitt drei Kinder. Regional gibt es hinsichtlich der Bevölkerungsentwicklung erhebliche Unterschiede: Während die Bevölkerung der Algarve, Lissabons und der Azoren wächst, geht jene des Alentejo und der Region Centro zurück. Innerhalb Portugals gibt es starke Migrationsbewegungen, wobei die Wanderungsbewegungen aus den Regionen des Hinterlandes in Richtung der Zentren von Industrie (Lissabon, Porto) und Tourismus (Algarve, Madeira und Azoren) gehen. Die Bevölkerung Portugals altert: 2008 waren 15,3 % der Bewohner 15 Jahre oder jünger, während 17,6 % 65 Jahre oder älter waren. Dieser Trend ist im Hinterland besonders ausgeprägt, der Grund ist die Abwanderung der jüngeren Bewohner in die Ballungszentren. Da zahlreiche Portugiesen, die im Ausland gearbeitet haben, für ihren Lebensabend in ihre Heimat zurückziehen, ist die Alterung der Bevölkerung des Landes besonders prägnant. Die Lebenserwartung bei Geburt lag 2008 bei 81,7 Jahren für Frauen und 75,5 Jahren für Männer. Im Jahre 1970 hatte sie noch bei 70,3 bzw. 64,0 Jahren gelegen. Parallel dazu ging die Kindersterblichkeit zurück: 2008 lag sie bei 3,3 pro Tausend Lebendgeborenen, während sie 100 Jahre davor noch um 150 pro Tausend Lebendgeborenen gelegen hatte. Das durchschnittliche Heiratsalter ist in den letzten Jahren gestiegen, 2008 heirateten Frauen zum ersten Mal mit 26,8 und Männer mit 29,7 Jahren. Dabei sinkt der Anteil kirchlicher Ehen rapide, von 59,6 % im Jahre 2003 auf 44,4 % 2008. Innerhalb von zehn Jahren schrumpfte die Bevölkerungszahl Portugals um 45.000 Menschen. Sie fiel von 10,473 Mio. auf 10, 427 Mio. Portugiesen im Ausland. Für lange Zeit war Portugal ein Auswanderungsland; wichtige Zentren der portugiesischen Kultur in der Diaspora gibt es vor allem in Frankreich, wo allein 1.132.048 Portugiesen leben, aber auch in vielen anderen Staaten, insbesondere Brasilien, Südafrika, Venezuela, Schweiz, an der Ostküste der USA, und zuletzt verstärkt in Angola. In Luxemburg lebten 2012 81.274 Portugiesen, damit stellten sie 16 Prozent der Bevölkerung Luxemburgs. Andererseits war Portugal schon während der Unabhängigkeitskriege seiner Kolonien Zielland für Einwanderer aus den kolonisierten Regionen. Ausländische Bevölkerung. Seit dem Beitritt Portugals zur Europäischen Union 1986 und dem damit verbundenen politischen und wirtschaftlichen Wandel ist Portugal verstärkt zu einem Einwanderungsland geworden, wobei die Herkunftsländer der Zuwanderer vor allem in Afrika (Angola, Kap Verde, Guinea-Bissau), Südamerika (Brasilien) sowie Osteuropa (Ukraine, Russland und Moldawien) liegen. Ende 2008 lebten 443.102 ausländische Staatsangehörige in Portugal. Diese stammen zu mehr als der Hälfte aus anderen portugiesischsprachigen Ländern, sind meist katholischen Glaubens und teilen deshalb einen ähnlichen kulturellen Hintergrund. Etwa ein Viertel der Ausländer, die in Portugal leben, sind Europäer, wovon ein Teil Rückkehrer sind, also aus Portugal ehemals ausgewanderte Portugiesen, die mit fremder Staatsbürgerschaft zurückgekehrt sind. Ein anderer Teil sind Dauerurlauber, die in Portugal ihren Ruhestand verbringen. Die ausländische Bevölkerung lebt zu mehr als der Hälfte in Lissabon, davon abgesehen konzentriert sie sich auf die Stadtgebiete an der Küste. Im Hinterland liegt der Anteil bei unter 0,5 %. Religion. Die große Mehrheit der Portugiesen bekennt sich zum römisch-katholischen Glauben, wobei der Anteil an der Gesamtbevölkerung mit Werten zwischen 85 % und 95 % angegeben wird. In Portugal herrscht Glaubensfreiheit und, seit Einführung des "Gesetzes über die Glaubensfreiheit" ("Lei da Liberdade Religiosa") offiziell auch Gleichheit zwischen den Religionen. Die Gleichheit ist aber in der Realität noch nicht erreicht: die Kirche betreibt in Portugal bedeutende Kultureinrichtungen, eine angesehene Universität, Privatschulen und auch einen Radiosender. Weiter ist das Gesetz über die Glaubensfreiheit nur teilweise auf die katholische Kirche anzuwenden. Ob öffentliche Schulen verpflichtet sein sollen, Religionsunterricht anzubieten, ist in Portugal seit 25 Jahren umstritten. In der ersten Verfassung Portugals von 1822 wurde der Katholizismus zur Staatsreligion erklärt. Die Verfassung von 1826 schaffte die religiöse Verfolgung ab. Die offizielle Trennung von Staat und Kirche erfolgte mit der republikanischen Revolution von 1910, wobei Konkordate mit dem Vatikan der katholischen Kirche weiterhin weitreichende Privilegien einräumten. Die portugiesische Ausprägung des Katholizismus wird, im Vergleich zur Praxis in anderen Ländern, als "menschlich, lyrisch und mit Verständnis für die fleischlichen Dinge des Lebens" beschrieben. Typisch ist die starke Verehrung der Jungfrau Maria. Wichtigstes Pilgerziel ist der Wallfahrtsort Fátima. Hier soll die Jungfrau Maria 1917 drei Hirtenkindern erschienen sein. Im Mittelalter spielten zwei weitere Religionen eine bedeutende Rolle in Portugal. Mauren und Araber beherrschten zeitweise den Süden des Landes. Nach der Reconquista mussten sie das Land verlassen oder sich den Christen unterwerfen. Sie brachten zahlreiche technologische Fortschritte mit sich, wie Verbesserungen im Brunnenbau, Bewässerung, Olivenanbau, Anbau von Zitrusfrüchten, Baumwolle und Zuckerrohr, die Seidenraupenzucht, die Herstellung von Fliesen, Jalousien, Hygiene und Ornamentik. Die Gesellschaft im damaligen Portugal bot auch unterworfenen oder versklavten Mauren die Möglichkeit, gesellschaftlich aufzusteigen, so dass die muslimische Bevölkerung in der christlichen aufging. Die Juden genossen im Mittelalter den Schutz der portugiesischen Könige. Das durch Handel und Verwaltungsposten in Staat und Kirche angehäufte Vermögen diente als Grundlage für den Aufbau der portugiesischen Flotte. 1504 und 1506 kam es in Lissabon jedoch zu anti-jüdischen Pogromen. Frühgeschichte bis Antike. Die römische Provinz Lusitania im Südwesten der iberischen Halbinsel Es wird geschätzt, dass Portugal bereits vor 500.000 Jahren besiedelt wurde. Das älteste in Portugal gefundene menschliche Fossil stammt von Neandertalern, die vor etwa 100.000 Jahren Portugal bewohnten. Felszeichnungen aus der Altsteinzeit, die die weltweit bedeutendsten ihrer Art sind, werden auf ein Alter von 10.000 bis 25.000 Jahren geschätzt. Der Übergang zur Jungsteinzeit erfolgte zwar spät, dafür setzte sich speziell in Südportugal die Kupferverarbeitung besonders schnell durch. Erste Handelsbeziehungen mit anderen Regionen Europas sind für diese Zeit belegt. Ab 800 v. Chr. gründeten Phönizier Handelsstützpunkte an der Algarve. Ab etwa 600 v. Chr. gründeten Griechen im östlichen und nordöstlichen Bereich mehrere kleine Siedlungen. Frühestens ab dem 6. bis 3. Jh. v. Chr. wanderten in mehreren Wellen Kelten ein, die sich mit den Iberern vermischten. Neben den Kelten wird der Stamm der Lusitaner genannt, der den Römern als besonders wehrhaft galt und im Lateinischen namensgebend für das Land werden sollte. Die Vermischung der Kelten mit der einheimischen Kultur erschuf die Keltiberer. Ab 450 v. Chr. wurde die südliche iberische Halbinsel von Karthago kolonisiert. Bis 206 v. Chr. gelang es den Römern, die Karthager zu vertreiben. Im Verlaufe des Zweiten Punischen Krieges, an dem zahlreiche lusitanische Söldner von Karthago eingesetzt wurden, kam es zu einer Gegeninvasion Roms auf der iberischen Halbinsel und damit zu einer Romanisierung. Von den Römern wurde das Territorium Portugals zunächst als Provinz Hispania ulterior, ab der Regierungszeit von Augustus unter dem Namen "Lusitania" verwaltet, die neben dem Großteil des heutigen Portugal weitere Gebiete im Westen des heutigen Spanien umfasste. In Nord- und Nordostportugal trafen die römischen Eroberer auf starken Widerstand; erst ab 19 v. Chr. galt die Region als unterworfen. Danach kam es zu starker Romanisierung, Städte nach römischem Vorbild, Römerstraßen, Villae und Bergwerke entstanden, mit den Siedlern kam das Vulgärlatein ins Land, aus dem später die portugiesische Sprache entstand, und auch das Christentum. Die römische Herrschaft endete in der Völkerwanderungszeit; Sueben (ab 409), Alanen, Vandalen und vor allem Westgoten (ab 416) fielen ein und gründeten kurzlebige Reiche auf dem Gebiet des heutigen Portugal. Nur die Sueben konnten sich länger halten, ihr Reich um Braga wurde jedoch 456 durch Theoderich II. und ein zweites Mal 585 zerstört. Maurische Herrschaft bis Kolonialmacht Portugal. Im Jahre 711 besiegte ein von Tariq ibn Ziyad geführtes Berberheer die Armee von Westgoten-König Rodrigo. Bis 716 war das ganze Territorium des Westgoten-Reiches unter Kontrolle der Umayyaden, Lusitanien wahrscheinlich schon 713. Al-Andalus und vor allem das Emirat, später Kalifat von Córdoba wurde teils von sehr fähigen und erfolgreichen Herrschern wie Abd ar-Rahman I., Abd ar-Rahman III. oder al-Hakam II. geführt und gehörte zu den fortschrittlichsten Reichen seiner Zeit. Nach seinem Zerfall in mehrere Taifas, gehörte der Großteil Lusitaniens zur Taifa von Badajoz, der äußerste Süden zu Sevilla. Es kam zu einer Einwanderung von berberischen Siedlern, klimatisch bedingt vor allem in den Süden der Halbinsel. Der maurische Einfluss auf Kultur und Sprache Portugals war stark und nachhaltig. Das Königreich Asturien war für die Mauren nicht von Interesse. Von hier ausgehend begann im 9. Jahrhundert die christliche Reconquista der Territorien des späteren Portugal. Im Jahre 868, während einer Schwächephase des Emirates von Córdoba, wurde "Portucale" erobert (Presúria), 879 Coimbra. Mit der Presúria von Portucale durch Vímara Peres entwickelte sich in der Gegend um Porto als Teil des Königreiches Asturien-León eine „erste“ Grafschaft Portucale ("Condado Portucalense"). Nachkommen aus der Familie von Vímara Peres herrschten in dieser Region bis 1071; es kam zum Wiederaufbau von Braga und zum Bau der Festung von Guimarães. 1071 wurde eine Revolte des letzten Grafen von Portucale, Nuno Mendes, gegen den 1065 zum König von Galicien und Portugal ernannten Garcia niedergeschlagen. Der König von León belehnte um 1095 Heinrich von Burgund mit Portucale und Coimbra. Es entstand eine, ebenfalls als Condado Portucalense bezeichnete, „zweite“ Grafschaft Portucale, die direkt zur Gründung des unabhängigen Königreiches von Portugal führte. Bereits der Sohn Heinrichs von Burgund, Alfons I., rebellierte 1127 mit Unterstützung des lokalen Kleinadels ("infanções") nach dem Tod Heinrichs gegen seine eigene Mutter, die einen galizischen Prinzen geheiratet hatte. Nach der gewonnenen Schlacht von Ourique hatte er so weit an Prestige gewonnen, dass er 1143 mit Einverständnis von Alfons VII. von León den Königstitel annahm. Im Jahre 1166 gab León den Anspruch der Vorherrschaft über Portucale auf, womit die formelle Unabhängigkeit erlangt wurde. Die Herrscher des Hauses Burgund versuchten, ihr Territorium in Richtung Süden auszudehnen, wobei es das Ziel gewesen sein dürfte, die Macht über ganz Lusitanien zu erlangen. Kastilien verhinderte dies aber. Bis 1250 wurde die Reconquista mit der Eroberung der Algarve, unter starker Beteiligung ausländischer Ritter und Ritterorden, abgeschlossen. a>, das Hauptsymbol für Portugals Unabhängigkeit 1383 starb das Haus Burgund in Portugal aus. Ein nichtehelicher Abkömmling, Johann von Avis rief sich zum König aus, konnte kastilische Ansprüche auf den portugiesischen Thron in der Schlacht von Aljubarrota (1385) abwehren und gründete die zweite portugiesische Dynastie, das Haus Avis. Unter den Avis-Königen (besonders Emanuel I. – er herrschte von 1495 bis 1521) stieg Portugal zur führenden europäischen Handels- und Seemacht auf. Heinrich der Seefahrer (1394–1460) initiierte Entdeckungsreisen an der westafrikanischen Küste, die am Beginn der Errichtung des portugiesischen Kolonialreiches zuerst in Afrika, später in Südamerika (Brasilien) sowie Asien (Portugiesisch-Indien, Ceylon, Malakka, Macau u. a.) und der europäischen Expansion standen. Das Land war Weltmacht und eine der reichsten Nationen Europas. Auch kulturell kam es zu einer Blütezeit (Luís de Camões). 1580 starb das Haus Avis aus, Portugal fiel aus dynastischen Gründen an die spanischen Habsburger. Bis 1640 herrschten die Spanier, Portugal verlor seine Unabhängigkeit, sank zur spanischen Provinz herab und verlor Teile seines Kolonialreiches. 1640 führte der Herzog von Braganza eine Adelsrevolte gegen die spanische Herrschaft an und rief sich als Johann IV. zum König aus. Er gründete die vorletzte portugiesische Dynastie, das Haus Braganza. Außen- und wirtschaftspolitisch geriet das Land in immer größere Abhängigkeit von England (Methuenvertrag, 1703). 1755 vernichtete ein Erdbeben große Teile der Hauptstadt Lissabon. Unter dem Ersten Minister und Reformer Marquês de Pombal wurde die Stadt wieder aufgebaut und das Land mit zum Teil drastischen Methoden zu einem aufgeklärt absolutistischen Staat umgeformt. 1761 kam es zu einem Angriff Spaniens und Frankreichs auf das Land, Pombal trug Wilhelm Graf zu Schaumburg-Lippe den Oberbefehl über die vereinigten portugiesischen und britischen Truppen an. Wilhelm wehrte die Angriffe ab und sicherte damit die Unabhängigkeit Portugals. In den folgenden Jahren reformierte er das portugiesische Heer tiefgreifend und ließ die Festung Elvas an der spanischen Grenze errichten. 1807 besetzten napoleonische Truppen das Land, die königliche Familie floh nach Brasilien. Nachdem die Franzosen mit britischer Hilfe vertrieben worden waren, kam es zur liberalen Revolution, das Land erhielt zum ersten Mal in seiner Geschichte eine Verfassung (1821). Der anschließende Kampf zwischen Anhängern des Absolutismus und Befürwortern einer konstitutionellen Monarchie wurde erst durch den Sieg Letzterer im Miguelistenkrieg entschieden. Am 7. September 1822 erlangte Brasilien unter Kaiser Pedro I. seine Unabhängigkeit. Endphase der Monarchie bis Estado Novo. Die Zeit nach Ende des Miguelistenkrieges wurde von der Auseinandersetzung zwischen Rechts- und Linksliberalen (Cartisten und Setembristen) geprägt. 1853 starb mit Königin Maria II. das Haus Braganza in direkter Linie aus, über die Ehe der Königin mit Ferdinand II. von Sachsen-Coburg und Gotha übernahm der portugiesische Zweig dieses deutschen Adelshauses den Thron (bis 1910). Die Endphase der Monarchie war durch eine große Armut, geringe Bildung (80 Prozent der Portugiesen waren Analphabeten), allgemeine wirtschaftliche Probleme (Staatsbankrott 1891) und durch sich zu Staatskrisen ausweitende republikanische Aufstände geprägt. Unter João Franco wurden die Königsbezüge weiter erhöht und das Ansehen der Monarchie litt verschärft durch den sichtbaren Widerspruch zwischen zerrütteten Staatsfinanzen einerseits und dem luxuriösen, extravaganten Lebensstil der Herrscherfamilie andererseits. 1908 wurden der König Karl I. und sein Sohn, Thronfolger Ludwig Philipp, bei einer Kutschfahrt erschossen. Nur der Sohn Manuel überlebte das Attentat. Am 3. Oktober 1910 wurde der republikanische Abgeordnete Miguel Bombarda unter ungeklärten Umständen ermordet. In der Nacht kam es daraufhin in Lissabon zu Aufständen. Eine schnell gebildete provisorische Regierung rief am 5. Oktober 1910 die Republik aus; König Manuel II. floh ins englische Exil. Die junge Republik Portugal sagte Großbritannien 1914 materielle Unterstützung und die Entsendung eigener Truppen zu. Obwohl sie offiziell neutral war, rechtfertigte die portugiesische Regierung die Beteiligung am Krieg mit einem alten Allianz-Abkommen der beiden Länder, das 1912 erneuert worden war. Im März 1916 trat das Land auf Seiten der Entente in den Ersten Weltkrieg ein. Portugal mobilisierte zeitweise 56.500 Soldaten. In der Vierten Flandernschlacht fielen an einem einzigen Tag fast 7.500 Männer bei einer deutschen Offensive. In der sogenannten ersten Republik (bis 1926) herrschten allgemeine politische Instabilität und anarchisch chaotische Zustände. Sie war durch monarchistische und kommunistische Aufstände, Putschversuche (unter anderen des Sidónio Pais, 1917) und schwache, häufig wechselnde Regierungen ohne parlamentarische Mehrheit gekennzeichnet. 1926 putschte das Militär und beendete die erste Republik. Unter den Militärs stieg ein Zivilist, António de Oliveira Salazar, ab 1928 Finanzminister, ab 1932 Ministerpräsident, zu höchster Macht auf. Er gründete ab 1933 den „Estado Novo“, den neuen Staat, ein autoritäres Gebilde mit faschistischen Tendenzen, mit Einheitspartei (Nationale Union), Staatsjugend und Geheimpolizei (PIDE). Die katholisch-autoritäre und antidemokratische Ideologie des Diktators verfolgte das Projekt eines „Ständestaates“. Außenpolitisch baute Salazar auf die Bindung an Großbritannien, sympathisierte im spanischen Bürgerkrieg mit den nationalspanischen Kräften und taktierte geschickt zwischen den Blöcken. Im Zweiten Weltkrieg blieb das Land neutral, belieferte beide Seiten mit dem wichtigen Rohstoff Wolfram und wurde zum Tummelplatz von Geheimagenten aller Kriegsparteien. Salazar, der von Anfang an mit einem alliierten Sieg rechnete und entscheidend auf Franco im Sinne einer spanischen Neutralität eingewirkt hatte, erlaubte den Alliierten schließlich im Herbst 1943 die Einrichtung von Militärbasen auf den Azoren. Nach Ende des Krieges war Portugal Gründungsmitglied der NATO. Ab 1960 – dem "Afrikanischen Jahr", bei dem 18 Länder unabhängig wurden – begann der Kolonialkrieg, der in Afrika (Angola, Mosambik, Guinea-Bissau) mit großer Härte geführt wurde. Der Versuch des Offiziers Henrique Galvão, das Salazar-System durch die Entführung des Passagierschiffs "Santa Maria" im Januar 1961 in der Karibik zum Einsturz zu bringen, scheiterte, obwohl die Santa-Maria-Affäre international Aufsehen erregte. 1968 musste Salazar wegen gesundheitlicher Probleme zurücktreten, sein Nachfolger, Marcelo Caetano, konnte sich nicht zu grundlegenden Reformen entschließen. Durch den Kolonialkrieg war Portugal außenpolitisch zunehmend isoliert, die Kriegskosten führten zu steigender Staatsverschuldung und Inflation. Führende Militärs erkannten, dass der Kolonialkrieg militärisch für Portugal nicht zu gewinnen war. Wegen der Unfähigkeit der Regierung, eine politische Lösung des Problems zu finden, putschten sie 1974. Eine allgemeine Unzufriedenheit der Bevölkerung mit der Diktatur, durch die einsetzende Wirtschaftskrise (ausgelöst durch die erste Ölkrise 1973) noch verstärkt, führte dazu, dass sich große Teile der Bevölkerung mit den putschenden Offizieren solidarisierten. Es kam zu einer allgemeinen Volkserhebung, der Nelkenrevolution, die den Estado Novo beendete. Die neuen Machthaber entließen die portugiesischen Kolonien, bis auf Macau, in die Unabhängigkeit (1974/1975). Macau folgte 1999. Nelkenrevolution bis EG-Beitritt. Die erste Zeit nach der Revolution war geprägt von der Auseinandersetzung zwischen einer eher konservativen Strömung (General Spínola) und einem sozialistischen Flügel (Hauptmann Otelo Saraiva de Carvalho) innerhalb des MFA (Movimento das Forças Armadas – Bewegung der Streitkräfte), der Vereinigung der putschenden Offiziere. Zunächst sah es so aus, als würde die sozialistische Strömung siegen, es kam zu Verstaatlichungen und zu einer Landreform. Die Verfassung von 1976 definierte den Übergang zum Sozialismus als Staatsziel. Als sich bei den ersten Präsidentschaftswahlen nach der neuen Verfassung 1976 der gemäßigtere General Eanes überraschend deutlich gegen Otelo Saraiva de Carvalho durchsetzen konnte, waren die Weichen für eine Rückkehr des Landes zu einer parlamentarischen Demokratie westeuropäischen Zuschnitts gestellt. Eanes und der Vorsitzende der Sozialistischen Partei Mário Soares (Regierungschef von 1976 bis 1978 und 1983 bis 1985, Staatspräsident von 1986 bis 1996) führten das Land schließlich 1986 in die Europäische Gemeinschaft. Vom EU-Beitritt bis heute. 1979 gewann zum ersten Mal seit der Nelkenrevolution wieder eine politische Gruppierung die Parlamentswahlen, die rechts der Mitte stand, die Regierungen unter Francisco Sá Carneiro und Francisco Pinto Balsemão. Die Regierung konnte sich mit der sozialistischen Opposition auf eine Verfassungsänderung einigen, die die sozialistischen Überreste entfernte, welche nach der Nelkenrevolution in die Verfassung geschrieben worden waren. Die 1982 in Kraft getretene Verfassungsänderung ersetzte den bis dahin bedeutenden Revolutionsrat durch ein Verfassungsgericht nach dem Vorbild anderer demokratischer Staaten. 1985 wurde Aníbal Cavaco Silva Premierminister. Seiner konservativen Partido Social Democrata (PSD) gelang bei den Wahlen 1987 ein Erdrutschsieg; erstmals errang eine Partei die absolute Mehrheit. Cavaco Silva blieb bis 1995 Ministerpräsident. Er verfolgte eine neoliberale Wirtschaftspolitik und nahm die Verstaatlichungen aus der Zeit der Nelkenrevolution zurück. Von 1995 bis 2002 stellten wieder die Sozialisten mit António Guterres die Regierung. Bei den Parlamentswahlen vom 17. März 2002 kam es zu einem neuerlichen Rechtsrutsch. Bei einer Wahlbeteiligung von 62,3 Prozent erreichte die konservative PSD unter José Manuel Durão Barroso eine relative Stimmenmehrheit von 40,1 Prozent, gefolgt von der sozialistischen Partido Socialista und der rechtskonservativen Volkspartei CDS-PP mit 37,9 beziehungsweise 8,8 Prozent. Mit letzterer bildete Barroso eine Koalitionsregierung, wobei der populistische Vorsitzende des CDS-PP, Paulo Portas, das Amt des Verteidigungsministers übernahm und zudem die Bereiche Justiz sowie Arbeit und Soziales an das CDS-PP gingen. Die Sozialisten stellten jedoch ununterbrochen den Präsidenten des Landes, da Nachfolger von Soares 1996 der Sozialist Jorge Sampaio wurde. Im Juli 2004 wurde Barroso vom Europäischen Rat zum Nachfolger von Romano Prodi als Präsident der Kommission der Europäischen Union nominiert. Sein Nachfolger als Ministerpräsident wurde Pedro Santana Lopes, der nur kurze Zeit regieren konnte, da Präsident Sampaio bereits im November das Parlament vorzeitig auflöste und für Februar 2005 Neuwahlen ausschrieb, bei der die Partido Socialista mit 121 von 230 Sitzen zum ersten Mal in der Geschichte die absolute Mehrheit der Parlamentssitze errang. Ihr Spitzenkandidat José Sócrates wurde am 12. März 2005 neuer Ministerpräsident des Landes. Am 22. Januar 2006 wählten ungefähr 8,9 Millionen Portugiesen einen neuen Präsidenten. Der bisherige Präsident, der Sozialist Jorge Sampaio, durfte sich nach zwei Amtszeiten nicht mehr zur Wahl stellen. Gegen fünf Kandidaten der Linken setzte sich bereits im ersten Wahlgang der Mitte-rechts-Kandidat und frühere Regierungschef Aníbal Cavaco Silva (PSD) mit einer absoluten Mehrheit von 50,6 Prozent bei einer Wahlbeteiligung von 62,6 Prozent durch. Er wurde von einem Bündnis aus PSD und CDS-PP unterstützt. Der als Architekt des portugiesischen Wirtschaftsaufschwungs in den Jahren 1985 bis 1995 geltende 66-jährige Wirtschaftsprofessor wurde damit der erste bürgerliche Präsident in Portugal seit der Nelkenrevolution von 1974. Er wurde am 9. März 2006 für fünf Jahre in sein Amt eingeführt. Am 23. Januar 2011 wurde Cavaco Silva im Amt bestätigt. Die drastischen Auswirkungen der weltweiten Wirtschafts- und Finanzkrise dominierten den Wahlkampf bei den Parlamentswahlen 2009. Obwohl die regierenden Sozialisten deutlich an Wählerstimmen verloren und ihre absolute Mehrheit einbüßten, gelang es ihnen, sich als wählerstärkste Partei zu behaupten. Damit blieb auch die Regierung Sócrates im Amt. Nachdem das Sparkonzept der Regierung im Parlament keine Mehrheit fand, reichte Sócrates am 23. März 2011 sein Rücktrittsgesuch ein. In den anschließenden Neuwahlen erfuhren die Sozialisten eine deutliche Wahlniederlage. Folgerichtig wurde am 15. Juni 2011 Pedro Passos Coelho, Vorsitzender der mit fast 40 % der Stimmen siegreichen liberal-konservativen Sozialdemokratischen Partei (PSD), zum neuen Ministerpräsidenten Portugals ernannt. Er führt eine Koalitionsregierung aus PSD und CDS-PP, die mit 132 von 230 Parlamentssitzen über eine solide Mehrheit verfügt. Nach der Parlamentswahl am 4. Oktober 2015 blieb die bisher regierende PáF zwar stärkste Partei, verlor jedoch die absolute Mehrheit. Die linken bisherigen Oppositionsparteien PS, BE und CDU halten zusammen mit 124 der insgesamt 230 Sitze im Parlament eine regierungsfähige Mehrheit. Am 20. Oktober 2015 kündigte Antònio Costa (PS) Staatspräsident Anibal Cavaco Silva an, eine Linksregierung bilden zu wollen. Dieser hat die Versuche der Sozialisten und Kommunisten, ein Regierungsbündnis zu schließen, jedoch vorerst blockiert und den amtierenden bürgerlich-konservativen Ministerpräsidenten Pedro Passos Coelho abermals zum Regierungschef ernannt. In einer Fernsehrede an die Nation am Abend des 22. Oktober 2015 begründete Cavaco Silva dies mit Rücksichtnahme auf Europäische Union und Euro, „Finanzinstitutionen, Investoren und die Märkte“. Erst zwei Wochen nachdem die Parlamentsmehrheit das Regierungsprogramm Passos abgelehnt hatte, beauftragte der Präsident am 23. November Costa, der ein Ende der unsozialen Politik versprach und den Mindestlohn und die Renten anheben und die Wirtschaft ankurbeln will, mit der Regierungsbildung unter der Auflage, den Regeln der Euro-Zone zu folgen und den internationalen Verpflichtungen Portugals nachzukommen. António Costa ist seit 26. November 2015 als Premierminister im Amt. Politisches System. Seit der Nelkenrevolution des Jahres 1974 hat sich Portugal zu einer stabilen parlamentarischen, semipräsidentiellen Republik entwickelt. Die vier wichtigsten Organe der Politik in Portugal sind der Präsident, der Premierminister und sein Ministerrat, das Parlament sowie die Justiz (siehe auch Verfassung Portugals). Der Präsident, der alle fünf Jahre direkt in allgemeinen und direkten Wahlen bestimmt wird, ist Oberkommandierender der Streitkräfte. Er ernennt einen Premierminister und den Ministerrat, wobei er sich am Ergebnis der Parlamentswahlen zu orientieren hat. Der Staatsrat ist ein Gremium, das den Präsidenten berät, und besteht aus dem Staatspräsidenten und seinen Vorgängern, dem Premierminister, dem Präsidenten des Verfassungsgerichtes (Tribunal Constitucional), dem Bürgerbeauftragten, den regionalen Präsidenten (Madeira und Azoren) sowie fünf vom Staatspräsidenten und fünf vom Parlament ausgewählten Personen. Die Verfassung von 1976 galt als ein Kompromiss zwischen zwei Legitimitätsformen, die sich während der Transformation herausgebildet haben: dem Militär, dem gewählten Parlament und dem gewählten Präsidenten. Bis zu einer endgültigen Institutionalisierung des Regierungssystems in Portugal dauerte es bis 1982, als die Verfassung eine Revision erfuhr. Bis 1982 wurde die revolutionäre Legitimation des Militärs als notwendig empfunden. Seit der Revision 1982 wurden die Befugnisse des Präsidenten zu Gunsten des Parlamentes beschnitten. Man spricht in dem Zusammenhang von der Herausbildung eines parlamentarischen Regierungssystems. Die Regierung ist seitdem allein dem Parlament verantwortlich. Die Befugnisse des Militärs wurden durch die Auflösung des Revolutionsrates beschnitten und einer zivilen Kontrolle unterstellt. Seit der Verfassungsrevision 1982 hat der direkt gewählte Präsident in Portugal keine exekutiven Befugnisse mehr. Die Regierung wird vom Premierminister geleitet, der sich einen Ministerrat zusammenstellt. Jede neue Regierung muss dem Parlament ihr Programm zur Debatte vorlegen. Wird es nicht abgelehnt, ist die Regierung vom Parlament akzeptiert. Das Parlament wird als Assembleia da República ("Versammlung der Republik") bezeichnet und besteht aus einer Kammer mit bis zu 230 Abgeordneten (Einkammersystem). Die Abgeordneten werden für vier Jahre nach Verhältniswahlrecht gewählt. Der Präsident hat das Recht, das Parlament aufzulösen und Neuwahlen anzusetzen. Das Oberste Gericht ist die höchste Instanz der portugiesischen Justiz. Zudem sind besondere Oberste Gerichte für militärische, verwaltungsrechtliche und steuerrechtliche Fragen zuständig. Das Verfassungsgericht Portugals hat neun Mitglieder und überwacht die verfassungsgemäße Auslegung des Rechts. Die über lange Zeit größten Parteien sind die sozialdemokratisch orientierte "Sozialistische Partei" ("PS") und die bürgerlich-konservativ orientierte Sozialdemokratische Partei ("PSD"). Daneben gibt es noch die rechtspopulistische Volkspartei ("CDS/PP"), die traditionsreiche Kommunistische Partei ("PCP") und den vor wenigen Jahren als Sammelbecken der intellektuellen Linken gegründeten Linksblock ("BE"). Die fünf Parteien sind seit der Parlamentswahl am 5. Juni 2011 im Parlament vertreten. Die Grünen ("PEV") treten in Portugal immer in Listenunion mit den Kommunisten an und bekommen darüber normalerweise ein Parlamentsmandat. Internationale Beziehungen. Portugal ist Mitglied der Europäischen Union und hatte im zweiten Halbjahr 2007 den Ratsvorsitz inne. Das Land hatte den Vorsitz bereits im ersten Halbjahr 2000. In dieser Zeit verfolgte Portugal vor allem das Ziel, den Dialog mit Afrika zu forcieren und Impulse zur Stärkung der Wettbewerbsfähigkeit der europäischen Wirtschaft zu geben. Portugal war Gründungsmitglied der NATO und beteiligt sich mit Truppen an der Friedenssicherung auf dem Balkan. Zusammen mit Spanien ist Portugal an den Ibero-Amerikanischen Gipfeltreffen beteiligt, die vor allem den Dialog mit den Ländern Lateinamerikas fördern sollen. Federführend war das Land bei der Gründung der Gemeinschaft der Portugiesischsprachigen Länder (CPLP), deren Ziel es ist, die Zusammenarbeit dieser Länder zu vertiefen. Ferner ist das Land Mitglied in der Lateinischen Union, die den Erhalt und die Vielfältigkeit der romanischen Sprachen fördert. Portugal unterstützte eins seiner früheren Kolonialgebiete, Osttimor, im Kampf um Unabhängigkeit von Indonesien, und kooperiert dabei zugunsten des jungen Staates finanziell und militärisch mit asiatischen Ländern, den Vereinigten Staaten sowie der UNO. Es besteht ein Streit zwischen Portugal und Spanien um das Gebiet von Olivenza (oder "Olivença"), das gegenwärtig zum spanischen Staat gehört, jedoch von Portugal beansprucht wird. Olivença kam 1801 unter spanische Verwaltung, doch Spanien erklärte sich auf dem Wiener Kongress von 1815 bereit, das Gebiet an Portugal zurückzugeben. Portugal verlangt seither die Rückgabe. Bildungssystem. a> zählt zu Europas bedeutendsten Forschungsuniversitäten Bis zur Nelkenrevolution 1974 wurde Bildung vernachlässigt, und nach der Revolution ging der Aufbau des Bildungssystems nur langsam voran. Dies macht sich bis heute bemerkbar: Im Jahr 2000 verfügten beispielsweise nur ungefähr ein Zehntel der Dreißigjährigen über einen Hochschulabschluss. Damit lag Portugal unter den EU-Mitgliedern vor der Osterweiterung mit großem Abstand weit zurück. Die Analphabetenquote liegt um 6,7 % (5 % bei Männern, 9 % bei Frauen). Das Schulsystem besteht aus einer vierjährigen Grundschule und einer fünfjährigen Oberschule. Für Kinder ab dem sechsten Lebensjahr besteht eine gesetzlich festgelegte neunjährige Schulpflicht. Der Pflichtschulunterricht ist an staatlichen Schulen kostenlos. Für den Unterricht an einer der vergleichsweise zahlreichen privaten Schulen können bedürftige Familien Unterstützung erhalten. Wer nach der Oberschule die dreijährige "Escola Secundária" absolviert, bekommt die Universitätsreife und kann zwischen mehreren Möglichkeiten des Hochschulstudiums wählen: Hochschulbildung wird in Portugal von staatlichen und privaten Universitäten ("universidades") sowie staatlichen und privaten Fachhochschulen ("escolas politécnicas") angeboten. Zur Förderung abgelegener Gebiete wurden in vielen mittleren Städten Hochschulen eingerichtet. In jedem Fall ist eine Aufnahmeprüfung zu absolvieren und es sind Studiengebühren zu entrichten, die bei privaten Schulen höher sind als bei staatlichen. Sie sind je nach Fachrichtung unterschiedlich, für staatliche Einrichtungen bis zu 850 € jährlich. Trotzdem ist etwa ein Drittel der Studenten bei einer privaten Institution eingeschrieben. Zusätzlich zu den Einschreibegebühren sind "propinas", Gebühren für die Vergabe von Zeugnissen und Diplomen zu zahlen. Etwa 20 % der Studenten kommen in den Genuss einer einkommensabhängigen staatlichen Unterstützung. Gesundheitssystem. Mit dem steuerfinanzierten Serviço Nacional de Saúde steht seit 1979 allen Einheimischen und Besuchern ein, bis auf meist geringe Zuzahlungen, weitgehend kostenloses Gesundheitssystem zur Verfügung, wie es die portugiesische Verfassung von 1976 festgeschrieben hat. Daneben bestehen berufsständische und private Gesundheitssysteme. Mit 3,33 Ärzten pro 1000 Einwohner befindet sich der medizinische Versorgungsgrad in Portugal weltweit auf dem 28. Rang (Vergleich: Deutschland 3,73; Schweiz 3,57; Österreich 2,28). Die Lebenserwartung in Portugal liegt mit 79 Jahren (2009) inzwischen über dem europäischen Mittelwert von 77 Jahren.(2012) Der öffentliche Rettungsdienst INEM deckt Kontinentalportugal mit einem einheitlichen Notfalldienst ab. Administrative Gliederung. Portugal gliedert sich in fünf Regionen, 18 Distrikten und den zwei autonomen Regionen der Azoren und Madeira. Zu statistischen Zwecken sind zudem 28 sogenannte statistische Unterregionen eingerichtet. Eine Ebene darunter folgt die Kommunale Selbstverwaltung in Portugal mit 308 Kreisen (Concelhos) und 3091 Gemeinden (Freguesias). Bis zur administrativen Neuordnung 2013 waren es 4259 Gemeinden. Militär. Die Portugiesischen Streitkräfte (portugiesisch: "Forças Armadas Portuguesas") unterstehen dem Verteidigungsministerium und bestehen aus den Teilstreitkräften Der Präsident ist Oberkommandierender der Streitkräfte. Die bis 2003 herrschende allgemeine Wehrpflicht ist ausgesetzt. Recht. Das portugiesische Recht hat sich aus dem römischen Recht entwickelt. Nach dem französischen Recht ist es im 20. Jahrhundert vor allem vom deutschen Recht beeinflusst worden. Allgemeines. Seit dem Beitritt Portugals zur EG im Jahre 1986 hat sich Portugal zu einer zunehmend diversifizierten, vor allem auf Dienstleistungen ausgerichteten Ökonomie entwickelt. Dienstleistungen sind mittlerweile für etwa zwei Drittel des BIP verantwortlich. Wie in anderen Staaten Europas wurden weit reichende Privatisierungen durchgeführt und die Staatsausgaben reduziert. Im Jahre 1998 hat sich Portugal für den Beitritt zur Europäischen Währungsunion qualifiziert und führte wie elf andere Staaten am 1. Januar 2002 den Euro als Zahlungsmittel ein und löste damit den Portugiesischen Escudo ab. Das Wirtschaftswachstum hat mit etwa 3,3 % jährlich jenes des EU-Durchschnitts in den Jahren bis zur Weltwirtschaftskrise ab 2007 meist übertroffen. Trotzdem ist Portugal immer noch das ärmste "Altmitglied" der EU: Das Pro-Kopf-BIP (in Kaufkraftparitäten) liegt bei etwa 78 % des Durchschnitts der EU-Länder vor der Osterweiterung, wobei es im Jahr 1985 noch etwa bei 50 % lag. Im Vergleich mit dem BIP der erweiterten EU ausgedrückt in Kaufkraftstandards erreicht Portugal einen Index von 72.9 (EU-25:100) (2003). Die Entwicklung im Land ist jedoch sehr unterschiedlich. Nimmt man nur den Großraum Lissabon, so liegt der Index hier mit über 100 inzwischen leicht über dem europäischen Durchschnitt (2014). 2011 schrumpfte die Wirtschaft um 1,7 % und 2012 um 3,2 %. Erst in der zweiten Jahreshälfte 2013 konnte Portugal die Rezession überwinden. Im Jahr 2014 wurde ein Wachstum von rund 1 % erzielt. Für das Jahr 2015 werden knapp 2 % Wirtschaftswachstum erwartet. Demographie und Arbeitslosigkeit. Als Hindernis für stärkeres Wachstum von Produktivität und Beschäftigung wurden traditionell strukturelle Probleme angegeben. Zunächst waren dies Defizite im Bildungssystem, die relativ hohe Analphabetismusrate, die teils schlechte Infrastruktur und die ineffiziente Verwaltung. Insbesondere seit den späten 1990er-Jahren gelten diese Defizite weitgehend als behoben. So liegt die Analphabetenrate in Portugal inzwischen bei 5 %, Tendenz sinkend (zum Vergleich: Deutschland 1 %). 2013 hatten 24,6 % der Männer und 36,1 % der Frauen zwischen 30 und 34 Jahren einen Hochschulabschluss (zum Vergleich: NRW 28,3 % / 29,9 %). Zudem erfuhr die Infrastruktur im Land enorme Investitionen, auch mit Hilfe der EU. Als Ergebnis kann beispielhaft ein überdurchschnittlicher Ausbau der Glasfaseranschlüsse für schnelles Internet gelten,(2012: 10,3 %, zum Vergleich: Deutschland 1,1 %) auch ist das Autobahnnetz Portugals heute eines der dichtesten in Europa, und eine Unternehmensgründung ist online innerhalb eines Tages möglich. Prämierte Entwicklungen wie die weitverbreiteten Multibanco-Bankautomaten oder das Via Verde-Mautsystem können als Beispiele für die Innovationsfähigkeit im Land gelten. Nach einer Boomphase bis Anfang der 2000er-Jahre geriet Portugal dann zunehmend in Wettbewerb mit den Niedriglohnländern Mittel- und Osteuropas, Asiens und Nordafrikas, worunter die Attraktivität Portugals für ausländische Direktinvestitionen litt. Diese steigen jedoch seit 2009 wieder deutlich an und betrugen 2012 über 57 Mrd. Euro. Die Durchschnittslöhne in Portugal sind für westeuropäische Verhältnisse weiterhin niedrig und die Arbeitszeiten zum Teil wesentlich länger. Im Juni 2015 lag die Arbeitslosigkeit in Portugal bei 12,4 Prozent – 5,3 Prozentpunkte weniger als noch 2013. Vor der Krise, 2008, hatte die Arbeitslosenquote bei 7,6 Prozent gelegen. Außenhandel. Der Außenhandel wird zu etwa 80 % mit den EU-Partnern abgewickelt. Exportiert werden vor allem Bekleidung und Schuhe, Maschinen, Chemieprodukte, Kork sowie Zellstoff und Papier. Importiert werden Maschinen, Fahrzeuge, Öl und Ölprodukte sowie Landwirtschaftsprodukte. Dabei hat Portugal ein großes Handelsbilanzdefizit. Das Zahlungsbilanzdefizit ist durch Einnahmen aus dem Tourismus und den Rücküberweisungen der Auslandsportugiesen nicht so hoch wie das Handelsbilanzdefizit. Ausländische Investitionen kommen vor allem aus Großbritannien und Spanien, zuletzt sorgten auch zunehmende Investitionen aus der ölreichen ehemaligen portugiesischen Kolonie Angola für Aufsehen, etwa durch den Kauf der Bank Banco BIC Português durch ein angolanisches Bankhaus. Zu den bedeutendsten ausländischen Investitionen in Portugal zählt das Automobil-Montagewerk "Autoeuropa". Zu den wichtigsten international tätigen portugiesischen Unternehmen zählen Energias de Portugal, die Portugal Telecom, der besonders im Einzelhandel erfolgreiche Konzern Jerónimo Martins, und die Sonae-Gruppe, die beispielsweise das Alexa Einkaufszentrum am Berliner Alexanderplatz führt. Energiewirtschaft. Laut dem port. Übertragungsnetzbetreiber REN betrug die installierte Leistung der Kraftwerke in Portugal im Jahre 2010 11.195 MW, davon entfielen auf kalorische Kraftwerke 6.561 MW (59 %) und auf Wasserkraftwerke 4.584 MW (41 %). Insgesamt wurden im Jahre 2010 48,5 Mrd. kWh erzeugt, davon 37,4 Mrd. (77 %) durch kalorische Kraftwerke und 11,1 Mrd. (23 %) durch Wasserkraftwerke. In den letzten Jahren wurde die Windenergie zu einem wichtigen Faktor in der Elektrizitätsversorgung. Im Jahr 2014 waren in Portugal Windkraftanlagen mit einer Nennleistung von 4.914 MW installiert, die mit 27 % mehr als ein Viertel des portugiesischen Strombedarfes deckten. Das war weltweit der zweithöchste Wert und wurde nur von Dänemark mit 39,1 % übertroffen. Die Stromerzeugung aus Photovoltaik ist hingegen mit einer installierten Leistung von etwa 419 MW vergleichsweise unbedeutend. Bezogen auf den gesamten Endenergiebedarf (Strom, Wärme, Verkehr) lieferten Erneuerbare Energien im Jahr 2013 25,7 % der Energie. Bis 2020 will Portugal diesen Anteil auf 31 % erhöhen. Bodenschätze. Portugal gehört zu den weltführenden Nationen in der Wolframproduktion. An abbaubaren Bodenschätzen gibt es außerdem Kohle, Kupfer, Zinn, Gold, Eisenerze wie Pyrit und Chalcopyrit, Tonminerale wie Kaolinit sowie Wolframit und Uraninit. In der zweiten Hälfte des 20. Jahrhunderts galt Portugal als wichtiger Lieferant für Uran. Der Uranabbau wurde jedoch zu Beginn des 21. Jahrhunderts wegen Unwirtschaftlichkeit eingestellt. Während des Zweiten Weltkrieges versorgte sich Deutschland mit portugiesischem Wolfram für die Waffenproduktion. Die Atombombe von Hiroshima enthielt portugiesisches Uran. Landwirtschaft. Die Landwirtschaft Portugals ist eine der ineffizientesten in Europa; der Anteil der Landwirtschaft am BIP liegt bei etwa 5 %, jedoch sind mehr als 15 % der Arbeitskräfte in der Landwirtschaft beschäftigt. Dies führte dazu, dass viele Betriebe aufgaben und fast die Hälfte der Nahrungsmittel importiert wird. Der Anbau von Mandeln befindet sich ebenso wie die Korkeichenplantagen ("montados") im Alentejo und im Douro-Tal in einer tiefen Krise. Zwar ist Portugal mit etwa 125.000 Tonnen und damit der Hälfte der weltweit geernteten Menge das bedeutendste Produktionsland für Rohkork. Dennoch steht der Wirtschaftszweig etwa seit der Jahrtausendwende durch die zunehmende Popularität und internationale Herstellung von synthetisch hergestellten Verschlussalternativen für Weinflaschen stark unter Druck. Auch die Hoffnung zahlreicher Korkbauern ("tiradores"), die portugiesische Korkeichennutzung sei zumindest für Weine im Hochpreissegment unersetzlich, hat sich nicht erfüllt. Denn der Trend weg vom Naturprodukt hin zu kostengünstigeren Alternativen aus Kunststoff ist auch bei teuren Weinen beobachtbar Ausdruck findet diese Entwicklung in zahlreichen Firmeninsolvenzen und Abwanderungen aus den Korkanbauregionen. Portugals Regierung und die Korkindustrie reagieren inzwischen auf die Entwicklung mit weltweiten „Green-Marketing“-Werbekampagnen, in denen Winzer wieder von der ökologischen Nachhaltigkeit des Naturprodukts Kork überzeugt werden sollen. Für die Zellstoffindustrie, einen wichtigen Wirtschaftsfaktor Portugals, werden große Flächen mit schnell wachsendem Eukalyptus als Rohstoff aufgeforstet. Dies ist aus ökologischen Gründen bedenklich, weil Eukalyptus den Boden auslaugt, den ursprünglichen Wald und damit die Tierwelt verdrängt, und die katastrophalen Waldbrände im Sommer begünstigt. Ähnlich der Landwirtschaft kämpft die Fischerei mit Produktivitätsproblemen. Die portugiesische Fischereiflotte ist im Vergleich zur spanischen schwach entwickelt. Der meiste Fisch wird importiert. Tourismus. Für etwa acht Prozent des BIP, mit steigender Tendenz, ist der Tourismus verantwortlich, wobei die meisten Besucher aus Spanien und Großbritannien kommen. Die Algarve ist dabei unangefochten das Zentrum. Auf der Atlantikinsel Madeira begann der Tourismus in der Mitte des 19. Jahrhunderts; die Insel war eines der bevorzugten Ziele wohlhabender britischer Reisender. Sie stiegen vor allem im Hotel Reid’s Palace ab, das der Schotte William Reid 1891 hatte bauen lassen. Kenndaten. Entwicklung der langfristigen Zinsen für portugiesische Staatsanleihen im Vergleich zu anderen Ländern (2010–2011) Staatshaushalt. Der Staatshaushalt umfasste 2009 Ausgaben von 81 Mrd. Euro, dem standen Einnahmen von 65 Mrd. Euro gegenüber. Daraus ergibt sich ein Haushaltsdefizit in Höhe von 16 Mrd. Euro beziehungsweise 9,3 % des BIPs. Die Staatsverschuldung betrug 2009 127,9 Mrd. Euro oder 76,1 % des BIP (laut folgender Tabelle 83,6 %), mittlerweile liegt sie bei über 100 % des BIP. Am 6. April 2011 gab der Premierminister Portugals bekannt, dass das Land im Zuge der Verschuldungskrisen von Eurozonen-Staaten Finanzhilfen der Europäischen Union annehmen werde. Im Jahr 2011 betrug die Neuverschuldung 4,2 % des BIP. Damit erfüllte Portugal die vorgeschriebenen Sparziele der EU von 5,9 % des BIP deutlich. Dies gelang aber nur durch zusätzliche Zahlungen aus Pensionsfonds, ansonsten hätte das Defizit bei 7,7 % gelegen. Straßenverkehr. Neue Brücke über den Mondego Das Straßennetz ist nicht zuletzt dank EU-Mitteln aus Förderungsfonds seit den 1980er-Jahren schnell gewachsen und gut ausgebaut. Die wichtigen Routen werden von gebührenpflichtigen "Autoestradas" abgedeckt. Diese erreichen insgesamt eine Länge von 1100 km und werden größtenteils vom börsennotierten Unternehmen Brisa betrieben. Gebührenfrei sind hingegen "Itinerários Principais (IP)" oder "Itinerários Complementares (IC)". Die Investitionen in den Straßenverkehr verdeutlichen sich nicht zuletzt in den Unfallstatistiken, 2008 starben in Portugals Straßenverkehr 83 Menschen pro 1 Million Einwohner nach 323 im Jahre 1991 (zum Vergleich 54 pro 1 Million in Deutschland 2008). Der Fernverkehr mit Bussen hat in Portugal einen höheren Stellenwert als in Mitteleuropa. Das größte Linienbusunternehmen ist Rede Expressos. Schienenverkehr. Das Eisenbahnnetz Portugals ist relativ weitmaschig. Das staatliche Unternehmen Infraestruturas de Portugal verwaltet ein Schienennetz, das eine Gesamtlänge von 2789 km hat. Davon sind 188 km Schmalspur, 607 km sind mehrspurig ausgebaut. Züge werden von der staatlichen Comboios de Portugal und seit kurzem von der privaten Fertagus angeboten. Auf den Hauptverkehrsrouten sind die Verbindungen jedoch effizient, der Alfa Pendular bietet die schnellsten Verbindungen zwischen den Ballungszentren Internationale Züge verbinden Portugal mit Städten in Spanien. Daneben gibt es eine Verbindung nach Irún an der spanisch-französischen Grenze mit direktem TGV-Anschluss nach Paris. In Lissabon gibt es eine U-Bahn. Porto verfügt über eine Stadtbahn und einen davon unabhängigen Straßenbahnbetrieb. Weitere Straßenbahnen existieren in Lissabon und südlich des Tejo. Luftverkehr. Airbus A310 der TAP Portugal Die fünf wichtigsten Flughäfen Portugals sind Lissabon, Porto, Faro, Ponta Delgada und Funchal. Sie werden von mehreren Fluggesellschaften bedient, wobei die portugiesischen Linien TAP Portugal, SATA Air Açores und Portugália Airlines die meisten Verbindungen bieten. Im Jahr 2006 fertigten die portugiesischen Flughäfen insgesamt 22 Millionen Passagiere und 135.000 Tonnen Fracht ab. Es wurde erwartet, dass das Verkehrsaufkommen bis 2025 auf 46,8 Millionen Passagiere und 259.000 Tonnen Fracht steigen wird. Angesichts dieser Zahlen wurde entschieden, den existierenden Flughafen Lissabons durch einen neuen zu ersetzen. Der um 3,3 Milliarden Euro zu errichtende Flughafen soll sich in Ota (Alcochete) befinden und 2017 eröffnet werden. Wassertransport. Die wichtigsten Häfen Portugals befinden sich in Aveiro, Porto, Lissabon, Sines und Setúbal. Im Jahr 2007 kamen fast 70 % aller Importe über den Seeweg ins Land, während 41 % der Exporte über die Häfen abgewickelt wurden. Von den 58 Millionen Tonnen liefen 39 % über den Hafen von Sines. Die Häfen werden modernisiert und ihre Verkehrsanbindung verbessert, damit sie einen größeren Teil des spanischen Außenhandels abwickeln können. Von den Flüssen sind der Douro und der Tejo schiffbar. Literatur. Portugal wird manchmal als "Land der Poeten" bezeichnet. In der portugiesischen Literatur hatte die Poesie immer stärkeren Einfluss als die Prosa. Im Mittelalter, als die portugiesische Nation entstand, war im Nordwesten der Iberischen Halbinsel die Poesie weit verbreitet. Es entstanden exzellente epische wie lyrische Werke. Während die bekanntesten klassischen Poeten Luís de Camões und Fernando Pessoa sind, gibt es eine Reihe weniger bekannter Künstler, die auf die moderne portugiesische Literatur bedeutenden Einfluss haben. Die Prosa entwickelte sich später als die Poesie und prägte sich erst im 14. Jahrhundert in der Form von Chroniken oder der Beschreibung des Lebens von Heiligen heraus. Hier ist Fernão Lopes der berühmteste Vertreter; er verfasste eine Chronik der Regentschaften von drei Königen seiner Zeit. Für ihn waren Genauigkeit der Darstellung sowie eine lebhafte Schilderung am wichtigsten. International ist die portugiesische moderne Literatur am bekanntesten, besonders mit den Werken von José Maria Eça de Queiroz und dem Nobelpreisträger für Literatur 1998, José Saramago. Auch Frauen sind unter den bedeutenden zeitgenössischen Schriftstellern des Landes zu finden, hier zu nennen wären besonders Lídia Jorge und Agustina Bessa-Luís. Unter den jungen Autoren konnte sich zuletzt Valter Hugo Mãe einen Namen machen. Film. Die Filmkunst hat eine lange Tradition in Portugal. International genießt vor allem der anspruchsvolle Autorenfilm des Landes unter Cineasten einen guten Ruf, doch sind preisgekrönte Regisseure, wie João Botelho oder João Canijo, der breiten Bevölkerung, selbst in Portugal, eher wenig bekannt. Wird die Filmwirtschaft auch hier von den internationalen Großproduktionen und den Multiplex-Kinos bestimmt, so gibt es abseits davon aber noch immer eine rege Filmklub-Bewegung und eine Reihe verschiedener Filmfestivals im Land, die engagierte neue Regisseure wie die sehr unterschiedlichen Miguel Gomes, Jorge Pelicano oder Fernando Fragata hervorbringen, ebenso Schauspielernachwuchs mit Namen wie etwa Ana Moreira, Diogo Infante oder Lúcia Moniz. Als bekanntester portugiesischer Regisseur ist hier Manoel de Oliveira († 2. April 2015) zu nennen, der zudem mit über 100 Jahren (Jahrgang 1908) der älteste noch arbeitende Regisseur der Welt war, und der letzte lebende, der bereits zu Stummfilmzeiten drehte. Die bekanntesten Schauspieler sind Maria de Medeiros, die in Pulp Fiction die Filmpartnerin von Bruce Willis war, und Joaquim de Almeida mit seinen zahlreichen Hollywood-Rollen. Fado. „Königin des Fado“ Amália Rodrigues als Graffiti in Lissabon Die wichtigste Musikform Portugals ist der Fado, der sehr melancholisch sein kann und zum Klischee der melancholischen Portugiesen (gegenüber den temperamentvollen Spaniern) beigetragen hat. Diese Musik geht eng einher mit "Saudade" (etwa: "Sehnsucht"), und ist wahrscheinlich durch die Vermischung der Lieder von portugiesischen Seefahrern mit den Rhythmen afrikanischer Sklaven entstanden. Hierbei werden zwei Stilformen unterschieden, nämlich der variantenreichere, volksnahe Fado von Lissabon, und der akademische, nur von Männern gesungene Fado von Coimbra. Das international bekannteste Fadolied wurde "April in Portugal", das in einigen hundert Versionen weltweit veröffentlicht wurde und von Raul Ferrão stammt, und zudem den Fado Coimbras mit dem Lissabons vereint. Amália Rodrigues war die bedeutendste Fado-Künstlerin, nach ihrem Tod sind mehrere Musiker aus ihrem Schatten getreten und bringen neue Formen des Fado hervor, die teils nur noch die "saudade" mit dem ursprünglichen Fado gemein haben, teils aber ganz bewusst an traditionellen Mustern des Fado festhalten. In den letzten Jahren hat die Zahl der Fado-Veröffentlichungen und seine öffentliche Präsenz wieder stärker zugenommen, durch Erfolge von jungen Sängern wie Mariza, Camané oder Ana Moura. In den früheren Kolonien Portugals hat sich der Fado ebenfalls verbreitet und sich zur kapverdischen Morna einer Cesária Évora und zum brasilianischen Choro weiterentwickelt. Zu den heute im deutschsprachigen Raum bekannten, vom Fado beeinflussten Gruppen zählt Madredeus mit der Sängerin Teresa Salgueiro. Klassik, Neue Musik, Jazz. Seit dem Mittelalter war die Kirchenmusik im Rahmen des starken portugiesischen Katholizismus sehr bedeutend in Portugal und erreichte ihren Höhepunkt in der Renaissance. Im Bereich der geistlichen Vokalpolyphonie hatte Portugal eine bemerkenswerte Generation portugiesischer Komponisten vorzuweisen, die im 16. und 17. Jahrhundert die Musikgeschichte von Portugal geprägt haben: Estêvão de Brito (c. 1575–1641), Filipe de Magalhães (c.1571–1652), Duarte Lobo (1565–1646) und Manuel Cardoso (1566–1650). Diese sogenannte "Generation der Polifonisten von Évora" stellt die Glanzzeit der Kirchenmusik in Portugal dar. Im Bereich der klassischen Musik hat Portugal keine international bedeutenden Komponisten vorzuweisen. Im 18. und 19. Jahrhundert waren es einzelne Komponisten wie Carlos Seixas, João Domingos Bomtempo, José Vianna da Motta oder Luís de Freitas Branco, die zwar für Portugal bedeutende Werke schrieben, jedoch keine nennenswerte internationale Aufmerksamkeit erreichten. Hingegen gehörte Luísa Todi ("La Todi", 1753–1833) zu den europaweit berühmtesten Sängerinnen ihrer Zeit. Im 20. Jahrhundert wurde die Tradition portugiesischer klassischer Musik von Komponisten wie Emmanuel Nunes, António Victorino de Almeida oder Eurico Carrapatoso fortgesetzt. Der Tenor Lomelino Silva erlangte in den 1920er- und 1930er-Jahren internationalen Ruhm, geriet danach jedoch in Vergessenheit. António Pinho Vargas oder Bernardo Sassetti wurden sowohl in der Klassik als auch im Jazz bedeutende moderne Komponisten und Interpreten des Landes. Der Jazzclub "Hot Clube de Portugal" in Lissabon gilt als ältester noch bestehender Jazzclub Europas. Mit einer Reihe Jazzfestivals und zahlreichen Musikern ist die Jazzszene weiter lebendig im Land, mit Namen wie dem Trompeter Sei Miguel, dem Bassisten Carlos Bica, dem Gitarristen Manuel Mota, oder der bekannten Sängerin Maria João. Im Free Jazz und neuer Improvisationsmusik weist Portugal eine Reihe aktiver Musiker auf, etwa Carlos Zingaro, Ernesto Rodrigues, Carlos Maria Trindade oder Vítor Rua. Der ehemalige Madredeus-Musiker Rodrigo Leão konnte sich mit seinen modern-klassischen Kompositionen im zeitgemäßen und doch traditionellen Gewand sowohl in seiner Heimat, als auch international einen Namen machen. Das Akkordeon-Quartett Danças Ocultas erhielt international ebenfalls einige Aufmerksamkeit. Liedermacher und Folk. Aus der Zeit des faschistischen "Estado Novo" unter Salazar kommt eine kritische Liedermachertradition. Bekannteste Vertreter dieser Protestbewegung waren José Afonso (häufig "Zeca" genannt) und Adriano Correia de Oliveira, während Vertreter der Bewegung wie José Mário Branco und insbesondere Sérgio Godinho bis heute in der Musikszene aktiv sind. Von José Afonso stammt das Lied "Grândola, Vila Morena", welches in der Nacht der Nelkenrevolution und darüber hinaus landesweit politische Symbolwirkung entfaltete. Die musikalischen Traditionen der verschiedenen Regionen werden zudem immer wieder neu belebt und zeitgemäß interpretiert, oft auch durch die Vereinigung verschiedener Musikstile. Künstler wie Trovante, Júlio Pereira oder Rão Kyao, ein Komponist, Musiker und Sänger portugiesischer Musik und des Fado hat sich durch Aufnahme musikalischer Einflüsse aus indischer Musik (Goa, ehemalige portugiesische Kolonie), aus Macau (ehemalige portugiesische Kolonie), aus dem arabischen Raum und aus Nordafrika einen Namen gemacht. Pop- und Rockvarianten, Folklore. Das Popmusik-Genre, das in den 1960er-Jahren vor allem mit Beatbands wie Quinteto Académico, Conjunto Académico João Paulo und insbesondere den Sheiks in Portugal eingeführt wurde, konnte seit den 1980er-Jahren neben der Rockmusik zur bestimmenden Musik der Jugend aufsteigen, mit Namen wie Heróis do Mar, den Delfins, oder dem früh verstorbenen, exzentrischen Sänger António Variações. Die Band The Gift hat in den letzten Jahren mit ihrem vielschichtigen Pop und ihrem Amália Rodrigues-Tribut-Projekt Hoje für vergleichbar viel Aufsehen unter Musikfreunden im Land gesorgt, ebenso Silence 4 und ihr inzwischen solo auftretender Sänger David Fonseca. Die erste Eurodance-Gruppe Portugals, „Santamaria“, brachte auch Technobeats in die Diskotheken. Über die Landesgrenzen hinaus konnte sich der Rock und Blues Sänger, Gitarrist und Komponist Rui Veloso einen Namen machen. Neben bekannten Gruppen wie GNR oder UHF sind die unbestritten populärste Rockband des Landes die 1978 als Punkband gegründeten Xutos & Pontapés, während Moonspell die international bekannteste Metal-Band aus Portugal ist. Aus Bands wie der als Psychobilly-Band begonnenen Gruppe Tédio Boys oder der Punkband Censurados sind einige der prägendsten Formationen der vielfältigen Underground- und Independent-Szenen im Land entstanden. Mata-Ratos sind die älteste, noch bestehende Band der Punkszene Portugals. Jede Region Portugals besitzt ihren Folklorestil ("Ranchos Folclóricos"). Projekte wie die Popbands Sétima Legião oder Sitiados verbinden diese mit zeitgemäßen Popstilen. Die portugiesische Musik- und Tanztradition hat sich in Brasilien mit den Traditionen der Sklaven aus dem heutigen Angola zur Samba gemischt und ist in dieser Mischung ebenso in Portugal populär. Vor allem unter angolanischen Einwanderern ist der Kuduro beliebt. Hierbei handelt es sich um eine Musikrichtung welche unter anderem Einflüsse des Sungura sowie des Afro Zouk beinhaltet. Der Rhythmus ist schnell und hart. Die verbreitete Kizomba ist eine Mischform aus dem angolanischen Semba und Zouk. Es handelt sich meist um romantische Lieder mit entsprechend langsamen Rhythmen. Populär sind diese beiden Musikrichtungen (jedoch die Kizomba im Besonderen) bei der jungen Generation afrikanischer Einwanderer. In den vergangenen Jahren wurde diese Musikrichtung unter Jugendlichen kulturell portugiesischer Herkunft verbreitet. Zudem hat sich in Portugal der Hip Hop Tuga entwickelt, eine an Portugal adaptierte Version des Hip-Hop, die unter Jugendlichen populär ist. Bekannteste Vertreter wurden Da Weasel und Sam the Kid. Auch Reggae ist nach dem Erfolg der Gruppe Kussondulola in Portugal populärer geworden, mit heutigen Interpreten wie Richie Campbell, Mercado Negro oder Freddy Locks. Tanz. Im Bereich des Kunsttanzes ist Portugal seit Anfang der 1990er-Jahre recht erfolgreich und gehört mit Russland zu den wichtigsten Ländern in Europa auf diesem Gebiet. Zahlreiche Tänzer sowie Choreographen konnten europaweiten oder weltweiten Ruhm erlangen: Rui Horta, João Fiadeiro, Clara Andermatt. Dabei werden oftmals moderne und innovative Formen eingesetzt, neue Stile entwickelt. An der Ausbildung junger Tänzer ist Portugal regelmäßig beteiligt. Die Tanzkultur in Portugal wird als "Nova Dança Portuguesa" bezeichnet. Bildende Kunst. In der Malerei und Bildhauerei erreichten portugiesische Künstler nie große Bekanntheit. Das lag an diversen Gründen: Zum einen gab es keine neuen, innovativen Techniken und Formen aus dem Land. Oft wurden viele Gemälde und Skulpturen zur Ehre Gottes nur für bestimmte Klöster oder Kirchen erschaffen, ohne dass die Namen der Künstler bekannt waren (die oftmals ihren Namen absichtlich nicht angaben). Daneben spielte die oft schwierige Aussprache portugiesischer Namen sowie die Zerstörung von Kunst durch das Erdbeben von 1755 und durch napoleonische Truppen Anfang des 19. Jahrhunderts eine entscheidende Rolle. Dennoch hat auch Portugal viele Maler hervorgebracht. Die heutige Malerei ist an den Tendenzen moderner Malerei ausgerichtet. Im Mittelalter und der Renaissance waren es oftmals ausländische Maler, die in Portugal wirkten, etwa aus Flandern, die aber keine berühmten Maler waren, sondern dort, weil sich durch die großen Meister ihres Landes verdrängt worden waren, dann in Portugal wirkten konnten. Bedeutende Namen aus dieser Zeit waren Nuno Gonçalves, Gregorio Lopes und Grao Vasco. Barock, Rokoko und beginnendes 19. Jahrhundert wurde durch Maler wie Domingos de Sequeira, Vieira Portuense oder Francisco Augusto Metrass abgedeckt. Im 20. Jahrhundert dann kamen viele Maler: Paula Rego, Almada Negreiros, Mario Eloy, Santa Rita Pintor, Maria Helena Vieira da Silva, Amadeo de Souza-Cardoso und viele andere. Architektur. Baustile umfassen nahezu alle Epochen der europäischen Kunstgeschichte. Klöster, Kirchen, Burgen, Schlösser und staatliche Einrichtungen wurden oftmals nach den in Europa vorherrschenden Stilen wie z. B. Gotik oder Neoklassizismus, erbaut. Der Architekt Alvaro Siza Vieira erhielt den Pritzker-Preis, ebenso sein Landsmann Eduardo Souto de Moura. Weitere bekannte Architekten waren oder sind Raoul Posnard de Mesnier (ein Eiffel-Schüler), Miguel Ventura Terra, Tomas Taveira. In der Dekoration (Baudekoration) konnte Portugal vor allem durch den Manuelismus und die Azulejo-Kunst eine eigene, nationale Note erreichen. Küche. Bacalhau – Das portugiesische Nationalgericht vor der Verarbeitung Die portugiesische Küche ist mannigfaltig, sie folgt in mancher Hinsicht der iberischen Tradition, darüber hinaus nahm sie jedoch viele Elemente aus den kolonisierten Gebieten auf. Nach der maurischen Herrschaft über Portugal blieben auch viele nordafrikanische Einflüsse erhalten, dazu gehören der starke Gebrauch von Zucker, Zimt, Gewürzen und Eidotter. Als Nationalgericht Portugals gilt der Bacalhau. Bereits seit dem 13. Jahrhundert spielte diese Art Trocken- und Salzfisch in der Ernährung der Portugiesen eine bedeutende Rolle. Heute sagt man, dass es in der portugiesischen Küche ein Bacalhau-Rezept für jeden Tag des Jahres gibt. Sardinen, im 16. Jahrhundert das billigste Nahrungsmittel im Land, sind auch heute ein traditionelles Essen ("Sardinhas Assadas"). Zahlreiche weitere Gerichte wie "Caldeirada", "Amêijoas à Bulhão Pato", "Rissóis de Camarão" oder "Arroz de marisco" unterstreichen die Bedeutung von Fisch und anderen Meeresprodukten in der portugiesischen Küche. Auch gegrillte Sardinen sind sehr populär, insbesondere im Sommer. Typisch sind außerdem Suppen wie "Caldo verde", eine Grünkohl-Kartoffelsuppe aus dem portugiesischen Kohl "Couve-galega", die typischerweise mit "Broa" (Maisbrot) und Chouriço serviert wird, oder die "Sopa alentejana" mit Brot, Ei, Koriander, Knoblauch und Olivenöl. Fleisch wurde im Mittelalter Portugals nur sehr wenig gegessen, trotzdem sind Würste ("enchidos") verbreitet und es gibt einige berühmte Fleischgerichte wie Cozido à portuguesa oder das populäre Schnellgericht Francesinha. "Frango Assado" (Gegrilltes Hähnchen) insbesondere mit scharfem Piri-Piri gewürzt, ist heute ein weitverbreitetes Gericht, das aus den afrikanischen Kolonien nach Portugal kam. Weiters gibt es eine lange Tradition in der Käserei, nennenswert sind Queijo do Pico, Queijo Serra da Estrela oder Queijo de Azeitão. Süßspeisen nehmen in Portugal einen ganz bedeutenden Platz ein. Die berühmten Pastéis de Nata (Pastéis de Belém) sind eine Spezialität aus Belém und verbreiteten sich in den letzten Jahren über Macau in weite Teile Südostasiens. Einige der zahlreichen weiteren Süßspeisen sind die "Pastéis de Tentúgal", die "Ovos moles de Aveiro", oder auch der vor allem zu Weihnachten verbreitete "Bolo Rei". Vor allem im Herbst werden traditionell geröstete Maronen an kleinen Straßenständen verkauft. Für seinen Wein ist Portugal bekannt. Seit der Römerzeit wird Portugal mit dem Gott des Weines und der Feste, Bacchus/Dionysos, assoziiert. Einige portugiesische Weine gehören zu den besten der Welt. Eine bekannte Weinspezialität ist der spritzig-moussierende Vinho Verde. Weltbekannt ist der Portwein, während von der Insel Madeira ein weiterer bekannter Likörwein aus Portugal stammt, der Madeira. Daneben gibt es auch einige einheimische Bierbrauereien. Volksfeste. Im Juni finden in ganz Portugal Feste zu Ehren der drei Volksheiligen ("Santos Populares") statt. Diese drei Heiligen sind Antonius, Johannes und Petrus. Gefeiert wird mit Wein, "água-pé" (Most), traditionellem Brot mit Sardinen, Straßenumzügen und -tänzen, Hochzeiten, Feuer und Feuerwerk sowie viel guter Laune. "Santo António" wird in der Nacht vom 12. auf den 13. Juni gefeiert, vor allem in Lissabon (wo dieser Heilige geboren wurde und lebte), wo eine Art Straßenkarneval ("Marchas Populares") stattfindet. Zu diesen Tagen gibt es Hochzeiten, die "Casamentos de Santo António". Der populärste Heilige ist "São João" (hl. Johannes), für den am Johannistag vor allem in Porto und Braga gefeiert wird, wobei es Sardinen und "Caldo Verde" (eine traditionelle Suppe) gibt. Zu Ehren von "São Pedro" wird am 28. und 29. Juni gefeiert, besonders in Póvoa de Varzim und Barcelos, wobei diese Feste dem Meer gewidmet sind. Dabei gibt es Feuer ("fogeiras") und einen Straßenkarneval. Fußball. Fußball ist der am meisten ausgeübte Sport in Portugal. Der portugiesische Fußball hat Weltklassespieler wie Eusébio, Nené, Paulo Sousa, Rui Costa, Nani, Cristiano Ronaldo, Vítor Baía, Deco, Fernando Meira oder Luís Figo hervorgebracht. Im Jahr 2004 wurde die Fußball-Europameisterschaft in Portugal ausgetragen, bei der die portugiesische Nationalmannschaft nach Griechenland Vize-Europameister wurde. Das Erreichen des dritten Platzes bei der WM 1966 ist der bisher größte Erfolg der portugiesischen Fußballgeschichte. Die höchste Spielklasse, die "Primeira Divisão", wird von den drei bedeutendsten Vereinen FC Porto, Sporting Lissabon, und dem Rekordmeister Benfica Lissabon dominiert. Erster Gewinner des Landespokals "Taça de Portugal" wurde 1939 Académica Coimbra, der ihn 2012 erneut gewinnen konnte, und dank seiner Rolle als oppositioneller Studentenverein der 1960er-Jahre eine besondere Geschichte vorweisen kann. Weitere Traditionsvereine sind Belenenses Lissabon, Boavista Porto und Vitória Setúbal. Neben Fußball sind noch Futsal und Strandfußball verbreitet, und Portugal hat dort Erfolge zu verzeichnen. Kanusport. Auch im Kanusport kann Portugal Erfolge vorweisen, etwa seine Silbermedaille bei Olympia 2012. Der portugiesische Kanuhersteller Nelo ist Weltmarktführer und rüstete auch die Mehrzahl der erfolgreichen Olympia-Wettbewerbsteilnehmer 2012 aus. In der Kleinstadt Montemor-o-Velho hat der portugiesische Kanuverband mit seinem Leistungszentrum seinen Schwerpunkt. Hier wurden auch mehrmals internationale Veranstaltungen ausgerichtet, zuletzt die Kanurennsport-Europameisterschaften 2013. Laufen. Insbesondere portugiesische Langstreckenläufer waren häufig international erfolgreich. Die bekannteste weibliche Läuferin dürfte die olympische Goldmedaillengewinnerin Rosa Mota sein, während Carlos Lopes 1984 die erste olympische Goldmedaille für Portugal überhaupt holte. Die Orientierungslauf-Europameisterschaften 2014 richtete Portugal aus. Seit 1991 findet in der Hauptstadt mit dem Lissabon-Halbmarathon jährlich im März auch einer der weltweit bedeutendsten Halbmarathonläufe statt. Motorsport. In der Nähe des Seebades Estoril, nahe der Atlantikküste, befindet sich mit dem Circuito do Estoril eine bekannte Rennstrecke für Auto- und Motorradrennen, auf der jahrelang der Formel 1 Grand Prix von Portugal ausgefahren wurde. Auch als Teststrecke für Rennwagen wird der Kurs in Estoril genutzt. In der Stadt Santarém befindet sich ein bekanntes Speedway-Stadion, in dem auch bereits internationale Meisterschaften ausgefahren wurden, wie die Europäische Speedway-Club-Meisterschaft im Jahre 2000. Radsport. Seit 1927 wird mit der "Volta a Portugal" ein landesweites Rennen des populären Radsports veranstaltet. Beliebte Radfahrer waren der erste Berufssportler Portugals 1896, José Bento Pessoa, der zweimalige Tour de France-Dritte Joaquim Agostinho, oder auch Alves Barbosa, der auf dem Höhepunkt seiner Popularität 1958 Titelheld des ersten Werks des Portugiesischen Films in Cinemascope wurde. Surfen und Segeln. Ganzjährig bieten die Küsten im Süden und Westen ideale Bedingungen zum Wellenreiten. Einige der besten Surfspots Europas ziehen Surfer aus aller Welt an, etwa in Ericeira, das weltweit dritte und Europas erstes Surfreservat. Unter den vielen weiteren Surfspots sind das traditionsreiche Seebad Figueira da Foz, der nahe Lissabon gelegene Strand Praia do Guincho, oder auch das frühere Fischerdorf Nazaré, das für seine besonders große Welle bekannt ist. Segeln hat eine lange Tradition in Portugal. Bekannt dafür sind insbesondere die Azoren, etwa mit der Les Sables–Les Açores–Les Sables-Regatta oder dem international bekannten Treffpunkt, der Stadt Horta. Segelveranstaltungen finden zudem an der Algarve und im Großraum Lissabon statt. So fanden die ISAF-Segel-Weltmeisterschaften 2007 in Cascais statt, das auch für seinen Yachthafen bekannt ist. Tennis und Badminton. Mit dem ATP Oeiras beziehungsweise WTA Oeiras finden in Oeiras bekannte internationale Tennisturniere in Portugal statt. Weitere Turniere sind ATP Porto bzw. WTA Porto, und seit 2013 ATP Challenger Guimarães. Zuletzt war João Sousa aus Guimarães der vielversprechendste portugiesische Tennisspieler. Am 14. Juli 2014 erreichte er mit dem 35. Platz seine bisher beste Platzierung in der Tennis-Weltrangliste. Für portugiesisches Badminton ist dagegen Caldas da Rainha der wichtigste Ort, etwa als häufiger Austragungsort für Turniere der Portugal International, und als Sitz des portugiesischen Badmintonverbandes. Als erfolgreichste Spielerin kann Isabel Rocha gelten, die in den 1960er- und 1970er-Jahren insgesamt 32 nationale Titel gewann. Als besonders erfolgreicher männlicher Spieler ist José Bento zu nennen. Er stammte aus Lourenço Marques, der heute Maputo genannten Hauptstadt der damaligen portugiesischen Kolonie Mosambik, und dominierte besonders während der 1970er-Jahre das Badminton in Portugal. Wintersport. Außerhalb Portugals eher unbekannt sind die Snowboard-Meisterschaften in den Skigebieten der Serra da Estrela, oder auch der portugiesische Eishockeyverband "Federação Portuguesa de Desportos no Gelo". Weitere Sportarten und Internationale Veranstaltungen. Mit 13 Landesmeisterschaften ist Joaquim Durão Rekordmeister im Schach. Erfolgreichste weibliche Spielerin ist Catarina Leite, während Schachgroßmeister Luís Galego der aktuell bedeutendste Schachspieler Portugals sein dürfte. Portugiesische Sportler sind international im Beachvolleyball und insbesondere im Rollhockey erfolgreich, wo sie mit Spanien im Wechsel Rekord-Rollhockey-Weltmeister sind. Traditionelle Sportarten Portugals wie das Jogo do pau sind dagegen international weitgehend unbekannt. Portugal richtete eine Vielzahl internationaler Sportveranstaltungen aus, neben der Fußball-Europameisterschaft 2004 sind so verschiedene Turniere wie die Handball-Europameisterschaft 1994 oder die Spiele der Portugiesischsprachigen Länder, die Jogos da Lusofonia 2009 zu nennen. Inline-Speedskating-Europameisterschaften fanden mehrmals in Portugals statt, so 1989, 1995, 2001 und 2007. Bibliothekswesen. Portugal verfügt, ausgehend von mittelalterlichen und klösterlichen Sammlungen, über eine lange Bibliothekstradition. So entwickelten sich bis heute vielfältige Bibliothekstypen, wie wissenschaftliche Bibliotheken, Universitätsbibliotheken, öffentliche Bibliotheken, Bibliotheken der zentralen Verwaltung und Spezialbibliotheken. Die genaue Anzahl von Bibliotheken und der Gesamtbestand an Medien ist nicht bekannt (die LIB2-Studie von 1986 ermittelte 556 portugiesische Bibliotheken). Systematische und methodische Arbeiten zur Förderung des öffentlichen Bibliothekswesens und der Bibliothekswissenschaft begannen Ende des 19. Jahrhunderts. In der Zeit des Estado Novo (1928–1974) war die Bedeutung der Bibliotheken und die Bibliotheksarbeit selbst durch Zensur und Restriktionen stark eingeschränkt. Dadurch gibt es bis heute Defizite in der Entwicklung des Bildungs– und Bibliothekssystems. Die jahrzehntelangen Diktatur begünstigte eine mangelnde Volksbildung und den Analphabetismus. Nach der Nelkenrevolution 1974 kam es zur Demokratisierung im Bildungs- und Kulturbereich. Gegen die mangelnde Volksbildung und den Analphabetismus wurde systematische Erwachsenenbildung und Leseförderung betrieben. Die besorgniserregende Situation der öffentlichen Bibliotheken hatte zahlreiche Initiativen und Neuregelungen innerhalb des Bibliothekswesens zur Folge, z. B. 1983 das „Manifest des öffentlichen Lesens“. 1986 wurde dies durch eine Gesetzgebung zur Schaffung und Koordinierung eines Netzes des öffentlichen Lesens untermauert. Gleichzeitig kam es zur in Portugal erst relativ spät einsetzenden Automatisierung der Bibliotheksarbeit und zum Einsatz moderner Informationstechnik, zunächst in Universitätsbibliotheken und der Nationalbibliothek „Biblioteca Nacional de Lisboa“. Letztere war die erste öffentliche Bibliothek, die 1796 als Königlich-öffentliche Hofbibliothek gegründet wurde. Sie betreibt z. B. die nationale bibliographische Datenbank PORBASE. Diese enthält über 1 Million Titeleinträge, 800.000 Verfassereinträge von etwa 134 Bibliotheken und Dokumentationszentren und die Portugiesische Nationalbibliographie. Die Nationalbibliothek und vermutlich fast alle anderen Bibliotheken arbeiten mit dem Bibliothekssystem ISIS und dem Datenaustauschformat UNIMARC. Eine Archivar- und Bibliothekar-Ausbildung ist über ein Studium an den staatlichen Universitäten Coimbra, Lissabon und Porto möglich. Einige zum Teil staatliche Institutionen übernehmen Koordinierungsaufgaben und unterstützen die Förderung des portugiesischen Buches und die Kooperation und Unterstützung von Bibliotheken. Durch umfangreiche innovative Arbeiten der letzten Jahre hat das portugiesische Bibliothekswesen den Anschluss an europäische und internationale Standards geschafft. Noch existierende Defizite sollen durch Förderung des Lesens und der Bibliotheken und durch internationale Zusammenarbeit weiter abgebaut werden. Medien. Eine komplette "Expresso"-Ausgabe aus dem Jahre 2006 Vier Hauptfernsehkanäle können im ganzen Land per Antenne empfangen werden: "RTP1" und "RTP2", die vom staatlichen portugiesischen Rundfunk "Rádio e Televisão de Portugal" (RTP) betrieben werden und die privaten Kanäle "SIC" (Sonae Group) und "TVI" (Media Capital, davon 32 % RTL-Group). Das Programm wird bei diesen Sendern, außer dem kulturell ausgerichteten "RTP2", besonders am Abend stark von brasilianischen und portugiesischen Telenovelas bestimmt; die Nachrichtensendungen sind mit meist ein bis zwei Stunden Dauer sehr lang und in hohem Maße auf das Tagesgeschehen in Portugal ausgerichtet. Fremdsprachige Spielfilme werden angesichts des kleinen Binnenmarktes selten synchronisiert, sondern mit Untertiteln gezeigt. Der Auslandssender "RTP Internacional" kann u.a. auch in Mitteleuropa empfangen werden und zeigt eine Auswahl der vier Programme, während "RTP África" aus den portugiesischsprachigen Ländern Afrikas berichtet. Daneben gibt es eine Vielzahl von Kabelkanälen, zu nennen ist insbesondere Sport TV und brasilianische Sender. In Porto und Lissabon gibt es Lokalsender, zudem unterhält die RTP auf Madeira und den Azoren eigene Sendeanstalten. Es gibt etwa 150 Radiostationen in Portugal. Die Sender der "RTP", des katholischen Rádio Renascença und der TSF sind landesweit zu empfangen. Die RTP ist über Kurzwelle auch in Mitteleuropa zu hören, allerdings nur auf Portugiesisch. Unter den zahlreichen Zeitungen, die in Portugal gedruckt werden, findet ein Konsolidierungs- und Konzentrationsprozess statt, bei dem viele der kleinen Blätter aufgeben müssen. Bedeutende täglich erscheinende Zeitungen sind der konservativ-liberale "Diário de Notícias", der linksliberale "Público" (beide aus Lissabon) und das "Jornal de Notícias" aus Porto, dazu die Boulevardzeitung "Correio da Manhã". Wichtige Wochenzeitungen sind "Expresso" und "Sol", auch das politische Wochenmagazin "Visão" und die Musikzeitung "BLITZ" sind zu nennen. "Jornal de Letras" gehört zu den bedeutendsten Kulturzeitungen des Landes, während "Jornal de Negócios" und der "Diário Económico" die bedeutenden Wirtschaftszeitung sind. "Destak" und "Metro" sind die wichtigsten Gratiszeitungen in Portugal. Sehr große Auflagen haben Sportzeitungen, die täglich erscheinen und sich fast ausschließlich mit Fußball beschäftigen – die bedeutendsten sind "O Jogo", "A Bola" und "Record". Die Benfica Lissabon nahestehende "A Bola" ist die auflagenstärkste Zeitung in Portugal. Von Bedeutung sind auch die zahlreichen Lokalzeitungen. Unter den Regionalzeitungen ist der Diário As Beiras zu nennen. Im Bereich der Klatschpresse sind die wöchentlich erscheinenden Magazine "Maria" und "Nova Gente" die auflagenstärksten. Die bedeutendste Parteizeitung ist der "Avante!" von der Portugiesischen Kommunistischen Partei. Feiertage. "Anmerkung:" Jeder Kreis hat einen eigenen kommunalen Feiertag, oft für den Heiligen Antonius am 13. Juni, den Heiligen Johannes am 24. Juni oder den Heiligen Petrus am 29. Juni. Wenn der Kreis einen solchen Feiertag nicht hat, ist Karneval ein gesetzlicher Feiertag. Der Karneval wird wie ein normaler Feiertag behandelt, insbesondere Staatsbedienstete haben an diesem Tag normalerweise frei. Der erfolglose Versuch im Jahre 1995, diese Regelung abzuschaffen, kostete den damaligen Ministerpräsidenten Cavaco Silva viel Popularität. Daneben wird der 24. Juni als Feiertag diskutiert (Unabhängigkeit Portugals im Jahre 1128). Portugiesische Sprache. Die portugiesische Sprache (portugiesisch) ist eine Sprache aus dem romanischen Zweig der indogermanischen Sprachfamilie und bildet mit dem Spanischen, Katalanischen und weiteren Sprachen der Iberischen Halbinsel die engere Einheit des Iberoromanischen. Zusammen mit dem Galicischen in Nordwest-Spanien geht sie auf eine gemeinsame Ursprungssprache zurück, das Galicisch-Portugiesische, das sich zwischen Spätantike und Frühmittelalter entwickelte. Nach der Herausbildung der Staatlichkeit Portugals entwickelten sich daraus die beiden heutigen Sprachen. Heute gilt Portugiesisch als Weltsprache. Es wird von über 240 Millionen Muttersprachlern gesprochen; einschließlich der Zweitsprachler beläuft sich die Zahl der Sprecher auf etwa 270 Millionen. Die portugiesische Sprache verbreitete sich weltweit im 15. und 16. Jahrhundert, als Portugal sein Kolonialreich aufbaute, das in Teilen bis in das Jahr 1975 überdauerte und Gebiete in Brasilien, Afrika und an den Küsten Asiens umfasste. Als letztes ging Macau aus portugiesischem Besitz an China über. Daraus ergab sich, dass Portugiesisch heute die Amtssprache mehrerer unabhängiger Staaten ist und darüber hinaus von vielen Menschen als Minderheiten- oder Zweitsprache gesprochen wird. Neben dem eigentlichen Portugiesischen gibt es etwa zwanzig Kreolsprachen auf überwiegend portugiesischer Basis. Durch die Auswanderung aus Portugal ist Portugiesisch in den letzten Jahrzehnten in mehreren Staaten Westeuropas und in Nordamerika zu einer wichtigen Minderheitensprache geworden. Verbreitung. Portugiesisch ist alleinige Amtssprache in Angola, Brasilien, Mosambik, Portugal und São Tomé und Príncipe. Zusammen mit anderen Sprachen ist Portugiesisch Amtssprache in Osttimor (zusammen mit Tetum), Macau (zusammen mit Chinesisch) und Äquatorialguinea (zusammen mit Französisch und Spanisch). Auf Kap Verde und in Guinea-Bissau ist es zwar alleinige Amtssprache, jedoch nicht die wichtigste Sprache. Eine wichtige Sprache, aber keine Amtssprache ist Portugiesisch in Andorra, Luxemburg (aufgrund der Zuwanderung von portugiesischen Arbeitskräften von etwa zehn Prozent der Bevölkerung gesprochen), Namibia und Südafrika. Amerika. Mit über 190 Millionen Sprechern in Brasilien ist Portugiesisch die am weitesten verbreitete Sprache in Südamerika. Aber auch in den spanischsprachigen Ländern Südamerikas erfreut sich Portugiesisch wachsender Bedeutung. Wegen des großen Einflusses Brasiliens wird Portugiesisch in einigen der restlichen südamerikanischen Staaten unterrichtet, besonders in Argentinien und den anderen Mercosur (Mercosul)-Mitgliedsstaaten. Im Grenzgebiet von Brasilien zu Argentinien, Bolivien, Paraguay (Brasiguayos) und Uruguay gibt es Menschen, für die Portugiesisch Muttersprache ist (in Paraguay leben 122.520 Portugiesisch-Muttersprachler gemäß der 2002 durchgeführten Volkszählung). Unter den Menschen, die im Grenzgebiet leben, aber der jeweils anderen Sprache nicht mächtig sind, hat sich teilweise eine Mischsprache aus Portugiesisch und Spanisch namens Portunhol herausgebildet. Darüber hinaus ist Portugiesisch eine wichtige Minderheitensprache in Guyana und Venezuela. In Nordamerika und der Karibik gibt es große portugiesischsprachige Kolonien in Antigua und Barbuda, Bermuda, Kanada, Jamaika und den Vereinigten Staaten, wobei sich die Mehrzahl aus Einwanderern beziehungsweise Gastarbeitern aus Brasilien oder Portugal zusammensetzt. In Mittelamerika ist die portugiesische Sprache dagegen nur von geringer Bedeutung. Europa. In Europa wird Portugiesisch vor allem von den 10,6 Millionen Einwohnern Portugals gesprochen. In Westeuropa hat sich die Sprache vor allem durch Einwanderung aus Portugal in den letzten Jahrzehnten verbreitet und wird von mehr als zehn Prozent der Bevölkerung Luxemburgs und Andorras gesprochen. Daneben gibt es einen nennenswerten Anteil portugiesischsprachiger Bevölkerung in Belgien, Frankreich, Deutschland, auf Jersey und in der Schweiz. In Spanien wird Portugiesisch im Vale do Xalima gesprochen, wo es als "A fala" bezeichnet wird. Im heute spanischen Olivença wurde bis in die 1940er Jahre ein portugiesischer Dialekt gesprochen. Das mit Portugiesisch sehr eng verwandte Galicisch wird im nordwestspanischen Galicien gesprochen. Galicisch und Portugiesisch haben dieselben Wurzeln und waren bis zum Mittelalter eine einzige Sprache, die man heute als Galicisch-Portugiesisch bezeichnet. Diese Sprache wurde sogar in Spanien (Kastilien) im poetischen Schaffen verwendet. Auch heute werden von vielen Linguisten Galicisch und Portugiesisch als eine Einheit gesehen. Aus soziolinguistischen Gründen werden die beiden Sprachen jedoch häufig getrennt gesehen. In Galicien haben sich zwei Standards der Schriftsprache gebildet, wobei sich derjenige, der von der Galicischen Autonomen Regierung gestützt wird, mehr am Spanischen (Kastilischen) anlehnt, während sich in gewissen politischen und universitären Kreisen ein Standard etabliert hat, der sehr nah am Portugiesischen liegt. Der einzige galicische Abgeordnete im Europäischen Parlament, Camilo Nogueira, spricht nach eigenen Angaben Portugiesisch. Afrika. Portugiesisch ist eine wichtige Sprache im Afrika südlich der Sahara. Angola und Mosambik sind zusammen mit São Tomé und Príncipe, Kap Verde, Äquatorialguinea und Guinea-Bissau als PALOP "(Paises Africanos de Língua Oficial Portuguesa)" bekannt und organisiert; sie vertreten etwa 22 Millionen Sprecher des Portugiesischen (großzügige Schätzungen gehen dabei von neun Millionen Muttersprachlern aus, der Rest ist zweisprachig). Paradoxerweise ist der Gebrauch der portugiesischen Sprache nach der Unabhängigkeit der früheren Kolonien von Portugal gewachsen. Die Regierungen der jungen Staaten sahen die portugiesische Sprache als Instrument zur Entwicklung des Landes und einer nationalen Einheit. In Afrika ist Portugiesisch eine wichtige Minderheitensprache in der Demokratischen Republik Kongo, Malawi, Namibia, Südafrika (mehr als eine Million Sprecher), Sambia und Simbabwe. In anderen Teilen Afrikas gibt es portugiesische Kreolsprachen. Im Süden Senegals, in Casamance, gibt es eine Gemeinschaft, die sprachlich und kulturell mit Guinea-Bissau verwandt ist und wo Portugiesisch gelernt wird. Auf der Insel Annobón (Äquatorialguinea) gibt es eine weitere Kreolsprache, die mit jener von São Tomé und Príncipe eng verwandt ist. In Angola wurde Portugiesisch schnell zu einer Nationalsprache statt "nur" einer Verkehrssprache. Dies gilt insbesondere für die Hauptstadt Luanda. Gemäß der offiziellen Volkszählung von 1983 war Portugiesisch damals die Muttersprache von 75 % der Bevölkerung Luandas von etwa 2,5 Millionen (mindestens 300.000 davon sprachen es dazu als einzige Sprache), und 99 % davon konnten sich auf Portugiesisch verständigen, wenn auch mit unterschiedlicher Sprachkompetenz. Dieses Ergebnis ist kaum erstaunlich, denn bereits für die siebziger Jahre gab eine 1979 in den Slumgebieten Luandas geführte Umfrage an, dass alle afrikanischen Kinder von sechs bis zwölf Jahren Portugiesisch sprachen, aber nur 47 % eine afrikanische Sprache. Heute sprechen vor allem in Luanda junge Angolaner neben dem Portugiesischen nur noch selten eine afrikanische Sprache. Landesweit benutzen etwa 60 % der Bevölkerung, die laut Volkszählung von 2014 auf etwa 24 Millionen geschätzt wird, Portugiesisch als Umgangssprache. Die Fernsehstationen aus Portugal und Brasilien, die man in Angola empfangen kann und die sehr populär sind, tragen dazu ihren Anteil bei. Das angolanische Portugiesisch beeinflusste auch das heute in Portugal gesprochene Portugiesisch, da die "Retornados," (portugiesische Rückkehrer nach der Unabhängigkeit Angolas) und angolanische Zuwanderer Wörter mitbrachten, die sich vor allem in der jungen Stadtbevölkerung verbreiteten. Dazu gehören "iá" "(ja)", "bué" "(viele)" oder "bazar" "(weggehen)". Mosambik gehört zu den Ländern, in denen Portugiesisch Amtssprache ist, es wird aber größtenteils nur als Zweitsprache gesprochen. In den Städten ist es aber die am meisten verbreitete Sprache. Gemäß der Volkszählung von 1997 sprechen etwa 40 % der Gesamtbevölkerung Portugiesisch, jedoch etwa 72 % der Stadtbevölkerung. Andererseits bezeichnen nur 6,5 % (bzw. 17 % in den Städten und 2 % in den ländlichen Gebieten) Portugiesisch als ihre Muttersprache. Die mosambikanischen Schriftsteller verwenden alle ein Portugiesisch, das sich an die mosambikanische Kultur angepasst hat. Auf Kap Verde und in Guinea-Bissau sind die wichtigsten Sprachen portugiesische Kreolsprachen, die als Crioulos bezeichnet werden, wohingegen der Gebrauch der portugiesischen Sprache als Umgangssprache im Abnehmen begriffen ist. Die meisten Kapverdier können aber auch Standard-Portugiesisch sprechen, das in formellen Situationen verwendet wird. Schulbildung und Fernsehen aus Portugal und Brasilien tragen andererseits zur Entkreolisierung bei. In Guinea-Bissau ist die Lage etwas anders, weil nur etwa 60 % der Bevölkerung Kreolisch sprechen, und gar nur 10,4 % davon beherrschen Standard-Portugiesisch (gemäß der Volkszählung von 1992). In São Tomé und Príncipe spricht die Bevölkerung eine Art archaisches Portugiesisch, das viele Ähnlichkeiten mit brasilianischem Portugiesisch aufweist. Die Elite des Landes verwendet jedoch eher die europäische Version, ähnlich wie in den anderen PALOP-Ländern. Neben dem eigentlichen Portugiesisch gibt es noch drei Kreolsprachen. Kinder lernen in der Regel Portugiesisch als Muttersprache und eignen sich das Forro genannte Kreolisch erst später an. Der tägliche Gebrauch der portugiesischen Sprache auch als Umgangssprache ist im Wachsen begriffen, und fast die gesamte Bevölkerung beherrscht diese Sprache. Asien. Portugiesisch wird in Osttimor, in den indischen Staaten Goa und Daman und Diu sowie in Macau (Volksrepublik China) gesprochen. In Goa wird Portugiesisch als "Sprache der Großeltern" bezeichnet, weil es nicht mehr in der Schule unterrichtet wird, keinen offiziellen Status hat und deshalb von immer weniger Menschen gesprochen wird. In Macau wird Portugiesisch nur von der kleinen portugiesischen Bevölkerung gesprochen, die nach der Übergabe der früheren Kolonie an China dort geblieben ist. Es gibt dort nur eine einzige Schule, in der auf Portugiesisch unterrichtet wird. Trotzdem bleibt Portugiesisch vorerst eine offizielle Sprache neben Chinesisch. Es gibt in Asien mehrere portugiesische Kreolsprachen. In der malaiischen Stadt Malakka gibt es eine Kreolsprache namens "Cristão" oder "Papiá Kristang," andere aktive Kreolsprachen findet man in Indien, Sri Lanka und auf Flores. In Japan gibt es etwa 250.000 Personen, die als "dekasegui" bezeichnet werden; das sind Brasilianer japanischer Abstammung, die wieder nach Japan zurückgekehrt sind, deren Muttersprache jedoch Portugiesisch ist. In Osttimor ist die am weitesten verbreitete Sprache Tetum, eine austronesische Sprache, die jedoch von der portugiesischen Sprache stark beeinflusst wurde. Am Ende der portugiesischen Kolonialzeit konnten durch eine rudimentäre Schulausbildung viele Timoresen zumindest in Grundlagen Portugiesisch sprechen. Die Wiedereinführung des Portugiesischen als Nationalsprache nach der indonesischen Besatzung (1975–1999) stieß aber bei der jüngeren Bevölkerung, die durch das indonesische Bildungssystem gegangen ist und Portugiesisch nicht beherrscht, auf Missfallen. Überwiegend spricht die ältere Generation Portugiesisch, doch der Anteil steigt, da die Sprache der jüngeren Generation und interessierten Erwachsenen unterrichtlich vermittelt wird. Osttimor hat die anderen CPLP-Staaten um Hilfe bei der Einführung des Portugiesischen als Amtssprache gebeten. Osttimor versucht, mit Hilfe der portugiesischen Sprache Anschluss an die internationale Gemeinschaft zu finden und sich von Indonesien abzugrenzen. Xanana Gusmão, der erste Präsident Osttimors seit der Wiederherstellung der Unabhängigkeit, hoffte, dass innerhalb von zehn Jahren Portugiesisch in Osttimor weit verbreitet sein würde. 2010 ergab die Volkszählung, dass 595 Osttimoresen Portugiesisch als Muttersprache haben, 25,2 % der Bevölkerung können Portugiesisch sprechen, lesen und schreiben, 21 % nur lesen und vier Prozent nur sprechen. Es gibt Stimmen, die in der Einführung von Portugiesisch als Amtssprache durch die alten Bildungseliten einen Fehler sehen. So werden die meisten Universitätslehrgänge immer noch in Bahasa Indonesia gehalten. Englisch hat immer größere Bedeutung durch die Nähe zu Australien und durch die internationalen Friedenstruppen, die bis 2013 im Land waren. Portugiesisch wird erst nach und nach in der Schule den Kindern beigebracht und als Unterrichtssprache neben Tetum verwendet. Unter anderem liegt das am Mangel an portugiesischsprechenden Lehrern. Die portugiesische Kreolsprache Osttimors "Português de Bidau" starb in den 1960er Jahren aus. Die Sprecher verwendeten immer öfter das Standard-Portugiesisch. "Bidau" wurde nahezu nur im Stadtteil Bidau im Osten der Hauptstadt Dili von der Volksgruppe der Bidau gesprochen, Mestizen mit Wurzeln auf der Insel Flores. Kreolisches Portugiesisch aus Macau wurde während der stärksten Einwanderungsphase im 19. Jahrhundert auch auf Timor gesprochen, verschwand aber schnell. Offizieller Status. Die Gemeinschaft der Portugiesischsprachigen Länder CPLP ist eine internationale Organisation von acht unabhängigen Staaten, deren Amtssprache Portugiesisch ist. Portugiesisch ist auch offizielle Sprache der Europäischen Union, des Mercosul, der Afrikanischen Union und einiger anderer Organisationen. Geschichtliche Entwicklung. Die portugiesische Sprache entwickelte sich im Westen der iberischen Halbinsel aus einer Form der gesprochenen lateinischen Sprache (Vulgärlatein), die von römischen Soldaten und Siedlern seit dem 3. Jahrhundert v. Chr. auf die Halbinsel gebracht worden war. Nach dem Zusammenbruch des Römischen Reiches begann sich das Galicisch-Portugiesische unter Einfluss der vorrömischen Substrate und der späteren Superstrate getrennt von den übrigen romanischen Sprachen zu entwickeln. Ab dem 11. Jahrhundert sind schriftliche Dokumente überliefert, die auf Portugiesisch abgefasst wurden. Bis zum 15. Jahrhundert hatte sich die portugiesische Sprache zu einer reifen Sprache mit einer reichen Literatur entwickelt. Römische Kolonisierung. Ab dem Jahre 154 v. Chr. eroberten die Römer den Westen der Iberischen Halbinsel mit dem heutigen Portugal und Galicien, woraus die spätere römische Provinz Lusitanien wurde. Mit den Siedlern und Legionären kam auch eine volkstümliche Version des Lateins, das Vulgärlatein, von dem alle romanischen Sprachen abstammen. Obwohl das Gebiet des heutigen Portugal bereits vor der Ankunft der Römer bewohnt war, stammen 90 Prozent des portugiesischen Wortschatzes vom Lateinischen ab. Es gibt nur sehr wenige Spuren der ursprünglichen Sprachen im modernen Portugiesischen. Germanische Völkerwanderung. Vom Jahre 409 an, als das weströmische Reich zusammenzubrechen begann, drangen Völker germanischen Ursprungs auf die iberische Halbinsel vor. Diese Germanen, hauptsächlich Sueben und Westgoten, assimilierten sich langsam an die römische Sprache und Kultur. Da jedoch der Kontakt zu Rom gering war, entwickelte sich Latein unabhängig weiter, wobei sich die regionalen Unterschiede verstärkten. Die sprachliche Einheit auf der iberischen Halbinsel wurde somit langsam zerstört und es entwickelten sich voneinander unterscheidbare Dialekte, darunter die heute zu Standardsprachen weiterentwickelten Formen Galicisch-Portugiesisch, Spanisch und Katalanisch. Die Entwicklung des Galicisch-Portugiesischen weg vom Spanischen und Mozarabischen wird unter anderem auf die Sueben zurückgeführt. Germanismen kamen somit auf zwei Wegen in das Portugiesische: indirekt als germanische Entlehnungen, die als Bestandteil der gewöhnlichen lateinischen Umgangssprache der römischen Legionäre auf die iberische Halbinsel gelangten, darüber hinaus direkt als Lehnwörter gotischer und suebischer Herkunft. Maurische Eroberung. Ab 711 eroberten die Mauren die iberische Halbinsel und in den eroberten Gebieten wurde das Arabische zur Verwaltungssprache. Die Bevölkerung sprach jedoch weiterhin ihren iberomanischen Dialekt, weshalb der Einfluss des Arabischen auf das Portugiesische nicht sehr stark war. Es entwickelte sich auch eine romanische Schriftsprache in arabischer Schrift, das sogenannte Mozarabische. Nachdem die Mauren durch die Reconquista vertrieben worden waren, blieben viele in ihrem rechtlichen Status stark beschränkte Araber auf dem Gebiet des heutigen Portugals, sie waren später auch als freie Handwerker tätig und assimilierten sich an die portugiesische Kultur und Sprache. Aufgrund des Kontakts mit dem Arabischen lassen sich arabische Spuren hauptsächlich in der Lexik finden, wo das Neuportugiesische viele Wörter arabischen Ursprungs besitzt, die sich in anderen romanischen Sprachen nicht wiederfinden. Diese Einflüsse betreffen vor allem die Bereiche Ernährung und Landwirtschaft, in denen durch die Araber Neuerungen eingeführt wurden. Daneben ist der arabische Einfluss in Ortsnamen des südlichen Portugal wie "Algarve" oder des im Westen gelegenen "Fátima" ersichtlich. Aufstieg der portugiesischen Sprache. Von der römischen Provinz Lusitanien spalteten die Römer im 1. Jh. v. Chr. die Gallaecia (das heutige Galicien) ab und gliederten sie der Tarraconensis (Hispania Citerior) an. Die portugiesische Sprache entwickelte sich (wie auch das Galicische) aus dem heute bis auf wenige Reste (A Fala) ausgestorbenen Galicisch-Portugiesischen, das im Zeitraum vom 8. bis 12 Jh. im heutigen Nordportugal sowie im heutigen Galicien entstand. Das Galicisch-Portugiesische existierte über lange Zeit nur als gesprochene Sprache, während als Schriftsprache weiterhin Latein benutzt wurde. Die frühesten schriftlichen Zeugnisse dieser Sprache sind die „Cancioneiros“ aus der Zeit um 1100. Das Galicisch-Portugiesische entwickelte sich im Hochmittelalter (13./14. Jh.) zur wichtigsten Sprache der Lyrik auf der Iberischen Halbinsel. Die Grafschaft Portugal wurde im Jahr 1095 unabhängig, ab 1139 war Portugal Königreich unter König Alfons I. Nach der Unabhängigkeit Portugals von Kastilien entwickelte sich die Sprache vor allem durch den normierenden Einfluss des Königshofs (im Gegensatz zu Galicien) auf portugiesischem Gebiet langsam weiter. Erste schriftliche Zeugnisse des sogenannten romanischen Dialekts sind das Testament von Alfons II. und die Notícia de Torto aus dem Jahr 1214. Im Jahre 1290 gründete König Dionysius (Diniz) die erste portugiesische Universität, das "Estudo Geral" in Lissabon. Er legte fest, dass das "Vulgärlatein," wie das Portugiesische damals noch genannt wurde, dem klassischen Latein vorgezogen werden solle. Ab 1296 benutzten die königlichen Kanzleien das Portugiesische, womit die Sprache nicht mehr nur in der Poesie, sondern auch in Gesetzen und notariellen Schriftstücken Verwendung fand. Durch die Ausstrahlung der höfischen Kultur Südfrankreichs auf die galicische Dichtersprache im 12. und 13. Jahrhundert gelangten auch okzitanische Lehnwörter in das Sprachgebiet Portugals. Im modernen Portugiesischen hat sich aber nur eine begrenzte Zahl dieser Wörter erhalten. Von größerer Bedeutung für die Ausprägung des Wortschatzes ist der französische Spracheinfluss, der heute nicht nur lexikalisch, sondern auch phraseologisch nachweisbar ist. Mit der Reconquista-Bewegung dehnte sich der Einflussbereich des Portugiesischen allmählich nach Süden hin aus. Bis zur Mitte des 13. Jahrhunderts endete diese Ausdehnung an der Südgrenze des heutigen Portugals mit der Rückeroberung Faros im Jahr 1249, wodurch der gesamte Westen der Iberischen Halbinsel zum galicisch-portugiesischen Sprachgebiet wurde. Im 14. Jahrhundert war Portugiesisch zu einer reifen Sprache geworden, die eine reiche literarische Tradition besaß und auch in anderen Gegenden der iberischen Halbinsel in der Dichtung verbreitet war wie etwa im Königreich León, Kastilien, Aragón und Katalonien. Später, als sich Kastilisch (was praktisch das moderne Spanisch ist) in Kastilien fest etablierte und Galicien unter den Einfluss der kastilischen Sprache kam, wurde die südliche Variante des Galicisch-Portugiesischen zur Sprache Portugals. Bei der Entwicklung der portugiesischen Sprache hatten das Arabische und Mozarabische einen erheblichen Einfluss: Während der Reconquista rückte das Zentrum Portugals immer weiter nach Süden Richtung Lissabon, wo es Sprecher verschiedenster Varietäten gab, die das Galicisch-Portugiesische beeinflussten – im Gegensatz zum Norden, dessen Sprache konservativer und noch stärker vom Latein geprägt war. An einem Dialekt im Norden Portugals (an der Grenze zu Spanien), dem Mirandés, ist die Verbindung zum Königreich León, d. h. der kastilische Einfluss, noch zu erkennen, während der leonesiche Dialekt in Spanien z. T. stark vom Galicisch-Portugiesischen geprägt ist. Zeit der portugiesischen Entdeckungen. Zwischen dem 14. und 16. Jahrhundert, also während der Zeit der portugiesischen Entdeckungen, verbreitete sich die portugiesische Sprache in vielen Regionen von Asien, Afrika und Amerika. Im 16. Jahrhundert war es die "lingua franca" in Asien und Afrika, wo es nicht nur der Kolonialverwaltung, sondern auch dem Handel und der Kommunikation zwischen den lokalen Machthabern und den Europäern aller Nationalitäten diente. In Ceylon (heutiges Sri Lanka) sprachen einige Könige fließend Portugiesisch und Adlige nahmen häufig portugiesische Namen an. Die Ausbreitung der Sprache wurde auch durch die Ehen zwischen Portugiesen und Einheimischen gefördert (was im portugiesischen Kolonialreich eine gängigere Praxis als in anderen Kolonialreichen war). Da die Sprache in vielen Erdteilen mit den missionarischen Aktivitäten der Portugiesen gleichgesetzt wurde, nannte man das Portugiesische dort auch "Cristão" (Christlich). Obwohl später die Niederländer versuchten, in Ceylon und dem heutigen Indonesien das Portugiesische zurückzudrängen, blieb es dort lange eine populäre und verbreitete Sprache. In Indien, Sri Lanka, Malaysia und Indonesien entwickelten sich portugiesische Kreolsprachen heraus, nachdem Portugal den Einfluss in diesen Ländern an andere europäische Mächte verloren hatte. In vielen Sprachen findet man portugiesische Wörter in der modernen Lexik wieder, so zum Beispiel das Wort "pan" für „Brot“ im Japanischen (portugiesisch: "pão"), "sepatu" für „Schuh“ im Indonesischen (portugiesisch: "sapato"), "keju" für „Käse“ im Malaiischen (portugiesisch: "queijo") oder auch "meza" für „Tisch“ in Swahili (portugiesisch: "mesa"). Entwicklung seit der Renaissance. Seit der Mitte des 16. Jahrhunderts fand eine große Anzahl von Lehnwörtern Eingang in die portugiesische Sprache, meist lateinischen oder griechischen Ursprungs. Italienische Wörter aus den Bereichen Musik, Theater, Malerei sowie spanische Lehnwörter, die aufgrund der Personalunion zwischen Portugal und Spanien von 1580 bis 1640 besonders zahlreich sind, machten die Sprache reicher und komplexer. Man unterscheidet aus diesem Grund zwei Entwicklungsphasen: das Altportugiesische (12. bis Mitte des 16. Jahrhunderts) und das Neuportugiesische, wobei als Ende des Altportugiesischen das Erscheinen des "Cancioneiro Geral" von Garcia de Resende im Jahre 1516 betrachtet wird. Die Gegenden, wohin sich das Portugiesische vor der Entwicklung des Neuportugiesischen verbreitet hatte, machten diese Entwicklungen jedoch größtenteils nicht mit. In Brasilien und São Tomé und Príncipe, aber auch in einigen abgelegenen ländlichen Gebieten Portugals werden deshalb Dialekte gesprochen, die dem Altportugiesischen ähnlich sind. Neben den gut 200 Millionen Brasilianern sprechen heute mehr als 10 Millionen Portugiesen und ebenso viele Bewohner der ehemaligen afrikanischen und asiatischen Kolonien Portugiesisch als Muttersprache. Portugiesisch entwickelte sich somit nach Spanisch zur zweithäufigsten romanischen Muttersprache. Diese Position verdankt Portugiesisch der Tatsache, dass sich die Bevölkerung Brasiliens innerhalb der letzten 100 Jahre mehr als verzehnfacht hat: 1900 hatte Brasilien eine Bevölkerung von nur 17 Millionen. Verwandtschaft mit anderen Sprachen. Fast alle Wörter der einen Sprache haben sehr ähnlich lautende Verwandte in der jeweils anderen Sprache, die jedoch unter Umständen sehr selten gebraucht werden. Es gibt Orte, in denen Spanisch und Portugiesisch nebeneinander gesprochen werden. Muttersprachler des Portugiesischen können in der Regel Spanisch lesen und umgekehrt, auch wenn sie die gesprochene Sprache des jeweils anderen nicht verstehen. Andererseits wird der Versuch von Besuchern in Portugal oder Brasilien, mit den Einheimischen auf Spanisch zu kommunizieren, häufig nicht gern gesehen und lässt in den Augen der Einheimischen auf Ignoranz schließen. Dialekte. Das Standardportugiesisch, auch als "Estremenho" bezeichnet, hat sich in der Geschichte häufiger geändert als andere Variationen. Alle Formen der portugiesischen Sprache Portugals können nach wie vor im brasilianischen Portugiesisch gefunden werden. Afrikanisches Portugiesisch, besonders die Aussprache von São Tomé und Príncipe (auch "Santomense" genannt) hat mit brasilianischem Portugiesisch viele Gemeinsamkeiten. Die Dialekte Südportugals haben ebenfalls ihre Eigenheiten bewahrt, wozu die besonders häufige Benutzung des Gerundiums zählt. Dagegen sind Alto-Minhoto und Transmontano in Nordportugal der galicischen Sprache sehr ähnlich. Das Standard-Portugiesische aus Portugal ist in den früheren afrikanischen Kolonien die bevorzugte Aussprache. Deshalb kann man zwei Formen unterscheiden, nämlich die europäische und die brasilianische; wobei man gemeinhin vier große Standard-Aussprachen unterscheidet, nämlich jene von Coimbra, Lissabon, Rio de Janeiro und São Paulo, dies sind auch die einflussreichsten Ausspracheformen. Verbreitung der portugiesischen Dialekte in Portugal Verbreitung der portugiesischen Dialekte in Angola Verbreitung der portugiesischen Dialekte in Brasilien ³ Angolanischer Ursprung ("Machimbombo" hat wahrscheinlich mosambikanischen Ursprung) Unterschiede in der Schriftsprache. Die Unterschiede zwischen diesen Varianten betreffen das Vokabular, die Aussprache und die Syntax, besonders in der Umgangssprache, wohingegen in der Sprache der gehobenen Schichten diese Unterschiede geringer ausfallen. Hierbei handelt es sich jedoch um Dialekte derselben Sprache, die Sprecher der beiden Varianten können die jeweils andere leicht verstehen. Einige Unterschiede im Wortschatz sind in Wirklichkeit keine. In Brasilien ist der Standardausdruck für 'Teppich’ "tapete." In Portugal benutzt man eher "alcatifa." Jedoch gibt es in Portugal ebenfalls regional den Ausdruck "tapete," ebenso wie es in Brasilien regional den Ausdruck "alcatifa" gibt. Für alte Wörter trifft dies fast generell zu, während in neuen Wörtern diese Unterschiede in der Tat landesspezifisch sind wie etwa "ônibus" in Brasilien und "autocarro" in Portugal. Signifikantere Unterschiede bestehen in der Orthografie. In Wörtern, die "cc," "cç" oder "ct" enthalten, wird in Brasilien das erste "c" weggelassen, in Wörtern, die "pc," "pç" oder "pt" enthalten, entfällt das "p". Diese Buchstaben werden nicht ausgesprochen, sondern stellen vielmehr Überbleibsel aus dem Latein dar, die man in Brasilien zumeist eliminiert hat. Man vergleiche mit dem Italienischen. Eine Rechtschreibreform wurde mit dem "Acordo Ortográfico" im Jahr 1990 verabschiedet, um einen internationalen Standard für das Portugiesische zu erreichen. Allerdings dauerte es bis 2009, bis das Abkommen in Portugal und Brasilien in Kraft trat, nachdem es im Jahr 2008 von diesen beiden Ländern sowie von den Kapverden und São Tomé e Príncipe ratifiziert worden war (später folgte Guinea-Bissau; Angola und Mosambik haben es bis heute – Stand Oktober 2014 – nicht ratifiziert). Im Rahmen dieser Reform fielen in Portugal die oben genannten "c" in "cc," "cç" oder "ct" und "p" in "pc," "pç" oder "pt" weitgehend weg, daneben gab es kleinere Vereinheitlichungen und man versucht, sich auf ein koordiniertes Vorgehen in Bezug auf neue Lehnwörter aus anderen Sprachen zu einigen. Seitdem ist die Rechtschreibung in Brasilien und Portugal weitgehend identisch, Unterschiede bestehen nur noch für wenige Ausnahmen. Phonetik. Die portugiesische Sprache hat eine sehr komplexe phonetische Struktur, was sie für Sprachwissenschaftler besonders interessant macht. Die Sprache verfügt über 9 Vokale, 5 nasale Vokale, 10 Diphthonge, 5 nasale Diphthonge und 25 Konsonanten. Betonungstelle. Im Portugiesischen stellt die Betonung (auch Wortakzent) der Wörter, die orthografisch mit den Vokalen "a", "e" bzw. "o" sowie einem "s" oder "m" enden, auf dem vorletzten Vokal, wohingegen sich die Betonung der Wörtern, die orthografisch mit "i", "u" oder Konsonanten (meist "l," "r," "z") enden, auf der Endsilbe befindet. Eine von dieser Regel abweichende Betonung wird durch ein diakritisches Zeichen (Akut oder Zirkumflex) angezeigt. Durch Tilde gekennzeichnete Silben sind immer betont, es sei denn, eine andere Silbe trägt einen Akut oder einen Zirkumflex. Beispiele: Der kleine Prinz auf Portugiesisch Das Portugiesische ist, anders als das Französische und Spanische, eher eine akzentzählende Sprache. Alphabet. Das Portugiesische Alphabet verwendet 23 Buchstaben des lateinischen Alphabets – A, B, C, D, E, F, G, H, I, J, L, M, N, O, P, Q, R, S, T, U, V, X, Z – und macht außerhalb von Namen keinen Gebrauch von K, W und Y. 2009 wurde mit dem "Acordo Ortográfico" eine Rechtschreibreform durchgeführt, die diese Buchstaben wieder ins Alphabet aufnimmt. Á, Â, Ã, À, Ç, É, Ê, Í, Ó, Ô, Õ, Ú, Ü Aussprache. Die folgenden Aussprachehinweise gelten für sowohl europäisches als auch brasilianisches Portugiesisch; wenn es Unterschiede gibt, sind sie beim jeweiligen Laut angegeben. Vokale. ¹"você" steht im Brasilianischen oft auch für "Du" Nasalvokale. Die portugiesischen Nasalvokale werden nicht so vollständig nasal ausgesprochen wie im Französischen und in der Regel gibt es im Portugiesischen auch keinen Verschlusslaut am Ende des Nasals. In manchen Publikationen wird z. B. die Aussprache des Nasalvokals "ã" mit "ang" angegeben, was allerdings nicht richtig ist, weil es sich bei den nasalierten Vokalen um einen einzigen Nasenlaut handelt. Substantive. In der Regel sind Substantive, die auf -o enden, männlich und Substantive, die auf -a enden, weiblich. Es gibt aber auch Ausnahmen ("o problema", "o motorista"). Das Geschlecht wird durch den vorangehenden Artikel angezeigt (männlich: "o"; weiblich: "a"). Daneben gibt es zahlreiche Substantive, die auf andere Vokale ("o estudante" – der Student; "o javali" – das Wildschwein; "o peru" – der Truthahn), auf Diphthonge ("a impressão" – der Eindruck; "o chapéu" – der Hut) oder auf Konsonanten enden ("o Brasil" – Brasilien; "a flor" – die Blume). Der Plural wird im Allgemeinen durch das Anhängen von -s an das Substantiv gebildet (o amigo – os amigos; a mesa – as mesas; o estudante – os estudantes). Bei Substantiven, die auf einen Konsonanten enden, ergeben sich Änderungen. Bei auslautendem -r, -z und -n wird im Plural -es angehängt. Manche Substantive, die auf -s enden und auf der vorletzten oder drittletzten Silbe betont sind, sind im Plural unveränderlich (o ônibus – os ônibus; o lápis – os lápis). Ein auslautendes -m vor dem Plural-S wird zu einem -n (o homem – os homens). Auslautendes -l wird im Plural zu -i- vokalisiert (o animal – os animais; o papel – os papéis; o farol – os faróis). Eine Besonderheit sind die Pluralformen der Substantive auf -ão. Je nach der Etymologie des Wortes bilden diese Substantive unterschiedliche Pluralformen (o irmão – os irmãos; o alemão – os alemães; a informação – as informações). Durch das Anhängen von Suffixen kann die Bedeutung eines Substantivs verändert werden. So lässt sich durch das Augmentativsuffix -ão eine Vergrößerungsform bilden: o nariz – o narigão (die Riesennase). Ähnlich verhält es sich mit der Verkleinerungsform (Diminutiv) durch das Suffix -inho/-inha: o nariz – o narizinho (das Näschen). Artikel. Der bestimmte Artikel des Portugiesischen entstand aus dem lateinischen Demonstrativpronomen "ille" (jener). Im Altportugiesischen sind die Formen "el" (als Relikt heute erhalten in der Anredeform für den König „El-Rei“), "lo", "la", "los" und "las" zu finden. Durch die phonetische Entwicklung fiel das anlautende l- weg, so dass die heutigen Formen entstanden. In manchen regionalen Wendungen hat sich die altportugiesische Form dennoch erhalten (mais + o → mai-lo). Der bestimmte Artikel dient im Portugiesischen dazu, Wörter zu bestimmen, wenn sie bereits bekannt sind oder eine neue Aussage über sie getroffen wird. Darüber hinaus kann der bestimmte Artikel Wörter substantivieren ("o saber" – das Wissen). Wie in manchen deutschen Substandardvarietäten wird im Portugiesischen vor dem Eigennamen praktisch immer der bestimmte Artikel verwendet: Eu sou "o" João. (Ich bin "der" Hans.) Auch vor Possessivpronomen ist der bestimmte Artikel häufig: O João é "o" meu amigo. (Hans ist mein Freund.) Ähnlich wie im Italienischen wird auch der portugiesische Artikel nach bestimmten Präpositionen (a / de / em / por) mit diesen verbunden. Die Verbindung der Präposition "a" mit dem weiblichen Artikel "a" wird durch einen Gravis-Akzent angezeigt: "à". Dieses Phänomen heißt Krasis (port: crase). Der unbestimmte Artikel entstand aus dem lateinischen Zahlwort "unus, una, unum". Er dient dazu, bisher unbekannte Substantive einzuführen und zu präsentieren. Er individualisiert und definiert Wörter, die zuvor noch nicht näher bestimmt wurden. Der unbestimmte Artikel wird mit der Präposition "em", in Portugal selten auch mit der Präposition "de" zu einer so genannten Artikelpräposition verbunden. Adjektiv. Das Adjektiv dient im Portugiesischen dazu, Substantive näher zu bestimmen. Es muss in Zahl und Geschlecht mit dem Substantiv übereinstimmen, auf das es sich bezieht. In der Regel werden die Adjektive im Portugiesischen dem Substantiv nachgestellt (Como uma maçã vermelha – Ich esse einen roten Apfel.) Einige Adjektive werden dem Substantiv aber auch vorangestellt. Dazu gehören die Superlativformen (o melhor amigo: der beste Freund). Manche Adjektive erhalten durch die Voranstellung eine kleine Sinnveränderung (um homem grande: ein großer Mann; um grande homem: ein großartiger Mann). Eine Voranstellung ist auch aus stilistischen Gründen möglich. Die Bedeutung des Substantivs erhält dadurch eine subjektive Komponente. Adjektive können gesteigert werden. In der Regel wird die erste Steigerungsstufe (Komparativ) durch Voranstellung des Steigerungswortes "mais" (mehr) oder "menos" (weniger) gebildet: O João é "mais" inteligente. A Carla é "menos" inteligente. Will man ausdrücken, im Vergleich womit etwas mehr oder weniger ist, verbindet man den Vergleich mit "do que" (als): O João é "mais" inteligente "do que" a Carla. Die zweite Steigerungsform (Superlativ) existiert in zwei Formen. Einmal als relativer Superlativ, bei dem ausgedrückt wird, im Vergleich womit etwas das Maximum ist: O João é "o" aluno "mais" estudioso da escola (João ist der fleißigste Schüler der Schule, also im Vergleich zu allen anderen Schülern.) Beim absoluten Superlativ wird nicht angegeben, was die Vergleichsgröße ist. Diese Form wird durch das Anhängen des Suffixes "-íssimo/-íssima" oder durch den Elativ mit "muito" (sehr) ausgedrückt: O João é inteligent"íssimo" / "muito" inteligente (João ist sehr intelligent.) Einige häufig vorkommende Adjektivformen bilden unregelmäßige Steigerungsformen: bom – melhor – o melhor / ótimo; ruim – pior – o pior / péssimo; grande – maior – o maior / máximo; pequeno – menor – o menor / mínimo. Verben. Verben werden in drei Konjugationen eingeteilt, die man nach der Infinitivendung unterscheidet (entweder "-ar," "-er" oder "-ir"), wobei die meisten Verben zur "-ar"-Gruppe gehören. Diese Verben folgen dann den gleichen Konjugationsregeln. Ähnlich wie im Deutschen gibt es den Imperativ "(o imperativo)," den Indikativ ("o "indicativo")" und den Konjunktiv " ("subjuntivo" o "conjuntivo")," wobei die Regeln strenger sind, wann der Konjunktiv zu verwenden ist, und die Verwendung mit dem Gebrauch des deutschen Konjunktivs nicht zu vergleichen ist, eher mit dem Gebrauch des spanischen "subjuntivo." Eine weitere Besonderheit stellt der sogenannte "persönliche Infinitiv" "(infinitivo pessoal)" dar. Damit werden Infinitivformen bezeichnet, die eine Personalendung erhalten. Beispiel: Mostro-te para saber"es" disso. (Ich zeige es dir, damit du davon weißt. – wörtlich: für du wissen(-st) davon). Anrede. Im Portugiesischen gibt es, wie in den meisten indoeuropäischen Sprachen, zwei Formen der Anrede, eine der Nähe "(tu)" und eine der Ferne "(o senhor/a senhora)". Die ursprüngliche Form der zweiten Person Plural "(vós)" hat heute bis auf einige Dialekte in Nordportugal sowie die im Gottesdienst verwendete biblisch geprägte Sakralsprache kaum noch Bedeutung. Daneben hat sich in Brasilien aus der höflichen Anrede "vossa mercê" (Euer Gnaden) die Kurzform "você" entwickelt, die mit der dritten Person Singular des Verbes verwendet wird. Diese Anrede ist in den meisten Regionen Brasiliens die normale Umgangsform im Alltag. So gesehen siezen sich Brasilianer praktisch immer (Beispiel: "Você me dá seu livro?" – Gibst du mir dein Buch? – eigentlich: Geben Sie mir Ihr Buch?) Interessant dabei ist, dass die "você"-Form eine größere semantische Breite hat als die deutsche Du-Form. Das heißt, wo man auf Deutsch die Sie-Form verwenden würde, kann man in Brasilien durchaus auch die "você"-Form verwenden. In Portugal wird diese Form als "vertrautes Sie" verwendet, etwa unter gleichrangingen Arbeitskollegen oder unter älteren Nachbarn. "O senhor/a senhora" ist auf sehr formelle Situationen beschränkt. In beiden Sprachvarianten hat die Pluralform "vocês" das alte "vós" komplett ersetzt. vorrömische Lehnwörter. Es gibt wenige Wörter aus der Zeit vor der römischen Herrschaft Hispaniens, die sich aus der Sprache der Urbevölkerung des heutigen Portugals (Lusitaner, Konii, Iberer) oder aus der Sprache von Siedlern (Phönizier, Karthager oder Kelten beziehungsweise Keltiberer) bis in das moderne Portugiesisch erhalten haben. Bei vielen dieser Wörter fehlt jedoch der genaue wissenschaftliche Nachweis ihrer Herkunft (Etymologie). Gerade bei den Keltismen könnte es sich um Wörter handeln, die auf dem Umweg über das Lateinische ins Portugiesische gelangt sind. Da praktisch alle dieser Wörter keltischen Ursprungs auch in anderen romanischen Sprachen belegt sind, liegt es nahe, dass sie schon von den Römern aus dem Keltischen entlehnt worden und dann als lateinische Wörter ins Portugiesische gelangt sind. Auch hier gilt: Diese Wörter sind auch in anderen romanischen Sprachen belegt. Es liegt daher nahe, dass sie schon von den Römern aus dem Phönizischen (oder einer anderen Sprache) entlehnt worden und dann als lateinische Wörter ins Portugiesische gelangt sind. Erbwörter lateinischer Abstammung. Portugiesisch ist ein Abkomme des Vulgärlateins, welches mit dem klassischen Latein zwar verwandt, jedoch nicht identisch ist. Die Transformation von lateinischen zu den heutigen portugiesischen Wörtern begann teils schon während des Römischen Reiches, bei anderen Wörtern begann dieser Prozess erst später. Die portugiesische Sprache wurde durch die lateinische immer wieder beeinflusst; so gelangten später auch Wörter aus der lateinischen Schriftsprache des Mittelalters und der frühen Neuzeit ins Portugiesische. Diese so genannten "Buchwörter" haben sich gegenüber der lateinischen Form wenig verändert, während die Wörter, die aus dem gesprochenen Latein entstanden sind "(Erbwörter)", stark verändert wurden. Lehnwörter afrikanischen, asiatischen und indianischen Ursprungs. Durch die Entdeckungen kam das Portugiesische in Kontakt mit lokalen afrikanischen, asiatischen und indianischen Sprachen, von denen die portugiesische Sprache viele Elemente aufgenommen und an andere europäische Sprachen weitergegeben hat. Besonders geografische Bezeichnungen in Afrika und Brasilien gehen auf die Sprachen der Einwohner dieser Regionen zurück. Portugiesische Literatur. In der frühen portugiesischen Literatur hatte die Poesie die höchste Bedeutung. Einer der berühmtesten Literaten Portugals ist Luís de Camões (* 1524; † 1580), der mit dem Epos "Die Lusiaden" eines der wichtigsten Werke geschaffen hat. Seine Bedeutung wird nicht zuletzt dadurch illustriert, dass die portugiesische Entsprechung zum deutschen Goethe-Institut "Instituto Camões" heißt und Portugals Nationalfeiertag („Dia de Portugal“ – Tag von Portugal) auf den 10. Juni, den Todestag des Nationaldichters gelegt wurde. Andere wichtige Autoren sind der Romancier Eça de Queirós (1845–1900), der Dichter Fernando Pessoa (1888–1935), der brasilianische Dichter und Romancier Machado de Assis (1839–1908), der brasilianische Romancier Jorge Amado (1912–2001), und der Literaturnobelpreisträger José Saramago (1922–2010). Sprachregulierung. Die portugiesische Sprache wird reguliert durch Peter Sellers. Peter Sellers CBE (* 8. September 1925 in Portsmouth; † 24. Juli 1980 in London; eigentlich "Richard Henry Sellers)" war ein britischer Filmschauspieler und Komiker. Er war ein Spezialist für Auftritte in den unterschiedlichsten Rollen und Verkleidungen. Endgültig bekannt wurde er als trotteliger Inspektor Clouseau in der Filmreihe "Der rosarote Panther". Die charakteristische deutsche Synchronstimme der Rolle wurde von Georg Thomalla (ausgenommen der erste Film, dort von Harald Juhnke) gesprochen. Leben. "Richard Henry Sellers" kam 1925 als einziges Kind des Pianisten William Sellers und seiner jüdischen Ehefrau Agnes „Peg“ Marks zur Welt. Seine Mutter, die als Entertainerin mit den "Ray Sisters" auftrat, war eine Urenkelin des bekannten englischen Boxers Daniel Mendoza (1764–1836). Sellers begleitete seine Eltern in den ersten sechs Lebensjahren auf ihren Tourneen, ehe er die römisch-katholische Schule "St Aloysius College" in Highgate besuchte. Er beendete seine Schulausbildung bereits im Alter von 14 Jahren, um sich seinen Lebensunterhalt mit verschiedenen Aushilfsjobs hinter der Theaterbühne und später auch als Schlagzeuger einer Tanzkapelle zu verdienen. Gegen den Willen seiner Mutter folgte er der Einberufung durch die Royal Air Force zu Einsätzen im Zweiten Weltkrieg. Bis 1947 spielte er den Truppenunterhalter in verschiedenen Teilen Indiens und Südostasiens. Zurück in der Heimat fiel dem BBC-Produzenten Roy Speer Sellers' Talent als Stimmenimitator auf. Speer verschaffte ihm einen Auftritt in einer Comedy-Show, daraufhin kam Sellers zu Engagements in verschiedenen Radiosendungen. Bekanntheit brachte ihm vor allem sein Mitwirken in der BBC-Radioproduktion The Goon Show ein, bei der er einmal pro Woche zusammen mit Spike Milligan und Harry Secombe live auftrat. Sellers übernahm in diesen Shows, die zwischen 1951 und 1960 vom "BBC Home Service" gesendet wurden, mindestens fünf verschiedene Sprechrollen. Die „Goons“ griffen mit surrealem Humor bizarre Figuren auf, die durch Nachkriegs-Großbritannien reisten und dabei mit bürokratischem Nonsens, imperialen Illusionen oder im Niedergang begriffenen Figuren aus dem Establishment konfrontiert wurden. Parallel zu seiner Arbeit im Radio trat Sellers ab Beginn der 1950er Jahre regelmäßig in britischen Spielfilmen auf. 1955 war er in einer Nebenrolle der preisgekrönten Kriminalgroteske "Ladykillers" an der Seite von Alec Guinness zu sehen. 1957/58 drehte er zusammen mit Richard Lester den komödiantischen Film "The Running Jumping & Standing Still Film", in dem sie auch die beiden Hauptrollen übernahmen, Sellers die des Fotografen und Lester die des Malers. Der handlungsarme elfminütige Kurzfilm brachte Sellers 1959 einen Preis auf dem San Francisco International Film Festival sowie eine Oscar-Nominierung in der Kategorie "Bester Kurzfilm" ein. Bald darauf hatte Sellers mit John Boultings Spielfilm "Junger Mann aus gutem Hause" seinen internationalen Durchbruch als Filmschauspieler. In dieser zeitgenössischen Sozialkomödie erschien er als kommunistischer Arbeitnehmervertreter, was ihm 1960 den British Film Academy Award als bester britischer Darsteller einbrachte. Anknüpfen konnte Sellers an diesen Erfolg mit Stanley Kubricks groteskem Antikriegsfilm ', in dem er neben einem verrückten Wissenschaftler zwei weitere Figuren verkörperte. Der Film brachte ihm 1965 seine erste Oscar-Nominierung als "Bester Hauptdarsteller" ein. Zu weltweiter Bekanntheit verhalf Sellers dann die Rolle des unfähigen bis trotteligen "Inspektor Clouseau" in Blake Edwards’ Serie "Der rosarote Panther", die er in sechs Filmen zwischen 1963 und 1982 interpretierte. Die Rolle war ursprünglich Peter Ustinov zugedacht, der jedoch abgelehnt hatte. In Edwards fand Sellers seinen kongenialen Partner und Freund für eine Reihe weiterer Komödien. Sellers gehörte zu den bestbezahlten Schauspielern seiner Zeit und wurde von der britischen Presse häufig als der größte englische Komiker seit Charlie Chaplin betitelt. Allerdings trat er in Ermangelung weiterer Angebote und nicht zuletzt aus finanziellem Interesse auch in Produktionen auf, die seinem Talent oder seinen Vorstellungen weniger entsprachen (z.B. in verschiedenen Rollen in Werbespots der Barclays Bank). Zu seiner populärsten Rolle als Inspektor Clouseau entwickelte Sellers daher eine regelrechte Hassliebe. Durch jeden weiteren Auftritt war er stärker auf diese komische Figur festgelegt, auf der anderen Seite konnte er sie dann aber auch als „Comeback“ nutzen. Auf die Frage, wie es ihm denn möglich sei, so viele unterschiedliche Figuren darzustellen, gab der Schauspieler die ironische Antwort, er habe sich seine Identität operativ entfernen lassen. Unter diesem Blickwinkel sollte auch sein Auftritt bei der "Muppet Show" gesehen werden, bei dem der Gaststar normalerweise bei einem „privaten Moment“ mit einer der Muppets-Figuren in der Garderobe gezeigt wird; Sellers jedoch trat als eine Art durchgedrehter „Wikinger-Pirat-Landstreicher“ auf mit der Begründung, er selbst wäre doch wohl allzu langweilig. Diese Darbietung brachte ihm eine Nominierung für den US-amerikanischen Fernsehpreis Emmy ein. Einen weiteren Erfolg bei der Kritik verbuchte Sellers mit der Darstellung eines geistig zurückgebliebenen Gärtners in Hal Ashbys Spielfilm "Willkommen Mr. Chance" (1979), die ihm u.a. einen Golden Globe als Bester Komödiendarsteller und eine weitere Oscar-Nominierung einbrachte. Der Titelheld, der das Anwesen seines Dienstherrn nie verlassen hat und die Welt nur von Fernsehdarstellungen kennt, kann über seine Freundschaft zu einem sterbenskranken Industriellen (gespielt von Melvyn Douglas) Einfluss auf die amerikanische und internationale Politik nehmen. Der zeitgenössischen Kritik der Neuen Zürcher Zeitung zufolge hätte "Willkommen Mr. Chance" den Grundstein "„für einen Neubeginn jenseits der grellen Komik“" legen können, doch Sellers verstarb kurze Zeit später. Sellers war viermal verheiratet; mit Anne Hayes (1951–1961), Britt Ekland (1964–1968), Miranda Quarry (1970–1974) und Lynne Frederick (1977–1980). Aus den Ehen gingen drei Kinder hervor: Michael Sellers (* 1954; † 2006), Sarah Sellers (* 1957) und Victoria Sellers (* 1965). 1966 wurde Peter Sellers zum Commander of the British Empire (CBE) ernannt. Sellers starb am 24. Juli 1980 an den Folgen eines Herzinfarkts. In den letzten 15 Jahren seines Lebens litt er unter einer Herzkrankheit, 1977 war ihm ein Schrittmacher eingesetzt worden. Sein Erbe belief sich auf ein Vermögen von umgerechnet ca. 10 Mio. Euro. Seine letzte Ruhestätte fand Peter Sellers auf dem "Golders Green Crematorium and Mausoleum" in London. Der Film "The Life and Death of Peter Sellers" mit Geoffrey Rush in der Hauptrolle beleuchtet die Hintergründe seines Lebens und Wirkens. Sellers war Mitglied im Bund der Freimaurer. Seine Loge "(Chelsea Lodge No. 3098)" ist in London ansässig. Schauspielerisches und komödiantisches Profil. Seine Wandlungsfähigkeit, sein stetes Konservieren von Würde und Haltung auch in komischen oder gar peinlichen Lagen mit seiner überspielenden oder eingefrorenen Mimik machte seine künstlerische „Handschrift“ aus. Sellers konnte zwischen verschiedenen Akzenten hin und her wechseln wie z.B. Upper-Class English, amerikanischem Englisch, deutschem Akzent etc., was ihm z.B. in "Dr. Seltsam" erlaubte, gleich in drei Hauptrollen aufzutreten. Diese Fähigkeiten konnte auch Georg Thomalla in der deutschen Synchronisation umsetzen. Roger Field, als Kind ein Nachbar von Peter Sellers, soll diesen 1975 gefragt haben, ob er lieber Drama oder Komödie spielen würde. Sellers soll eindeutig „Komödie!“ geantwortet haben. Sellers hegte große Sympathien für die „Nonsens-Schule“ "(nonsense school)", jene Art von Komik, die er selbst in der "Goon Show" praktizierte und ihm die glücklichste Zeit seines Lebens beschert habe. Versuche, dies als Drehbuchautor und Regisseur auf den Film zu übertragen "(Das boshafte Spiel des Dr. Fu Man Chu", 1980), schlugen jedoch fehl. Sellers bekannte später, mit den "Goons" habe man versucht, ernsthafte Ideen oder überhaupt Ideen aufzugreifen und in eine „unlogische Folgerung“ zu setzen. Primaten. Die Primaten (Primates) oder Herrentiere sind eine zu der Überordnung der Euarchontoglires gehörige Ordnung innerhalb der Unterklasse der Höheren Säugetiere. Ihre Erforschung ist Gegenstand der "Primatologie". Der Ausdruck „Affen“ wird bisweilen für diese Ordnung verwendet, ist aber missverständlich, da Affen nur eine Untergruppe darstellen. Primaten werden in die beiden Unterordnungen der Feuchtnasenaffen (Strepsirrhini) und Trockennasenaffen (Haplorrhini) eingeteilt, wobei letztere auch die Menschenaffen (Hominidae) inklusive des Menschen ("Homo sapiens") mit einschließen. Der Begriff stammt vom lateinischen "primus" (der erste) und bezieht sich auf den Menschen als „Krone der Schöpfung“. Verbreitung. a> kommen nur auf Madagaskar vor Mit Ausnahme des Menschen, der eine weltweite Verbreitung erreicht hat, ist das Verbreitungsgebiet der Primaten größtenteils auf die Tropen und Subtropen Amerikas, Afrikas und Asiens beschränkt. Auf dem amerikanischen Doppelkontinent reicht ihr heutiges Verbreitungsgebiet vom südlichen Mexiko bis ins nördliche Argentinien. Die Arten auf den Karibischen Inseln, die Antillenaffen (Xenotrichini), sind ausgestorben, heute gibt es dort nur vom Menschen eingeschleppte Tiere. In Afrika sind sie weit verbreitet, die größte Artendichte erreichen sie in den Regionen südlich der Sahara. Auf der Insel Madagaskar hat sich eine eigene Primatenfauna (ausschließlich Feuchtnasenaffen) entwickelt. In Asien umfasst ihr Verbreitungsgebiet die Arabische Halbinsel (der dort lebende Mantelpavian wurde jedoch möglicherweise vom Menschen eingeschleppt), den indischen Subkontinent, die Volksrepublik China, Japan und Südostasien. Die östliche Grenze ihres Vorkommens bilden die Inseln Sulawesi und Timor. In Europa kommt frei lebend eine einzige Art vor, der Berberaffe in Gibraltar, doch ist auch diese Population wahrscheinlich vom Menschen eingeführt. Nicht-menschliche Primaten fehlen in Nordamerika, dem größten Teil Europas, den nördlichen und zentralen Teilen Asiens, dem australisch-ozeanischen Raum sowie auf abgelegenen Inseln und in den Polarregionen. Anders als andere Säugetiergruppen sind Primaten nicht im großen Ausmaß vom Menschen in anderen Regionen sesshaft gemacht worden, außer den bereits erwähnten Mantelpavianen auf der Arabischen Halbinsel und den Berberaffen in Gibraltar betrifft das nur kleine Gruppen, beispielsweise eine Population der Grünen Meerkatze, die von afrikanischen Sklaven auf die Karibikinsel Saint Kitts mitgebracht wurde, oder eine Gruppe Rhesusaffen in Florida. Körpergröße. Die kleinste Primatenart ist der Berthe-Mausmaki mit weniger als 10 Zentimetern Kopfrumpflänge und maximal 38 g Gewicht. Am größten sind die bis zu 275 kg schweren Gorillas. Generell sind Feuchtnasenaffen mit einem Durchschnittsgewicht um 500 g kleiner als die Trockennasenaffen mit einem Durchschnittsgewicht von 5 kg. Dies gründet auch auf den unterschiedlichen Aktivitätszeiten (siehe unten). Einige Arten haben einen ausgeprägten Geschlechtsdimorphismus, wobei die Männchen mancher Arten doppelt so schwer wie die Weibchen sein können und sich auch in der Fellfarbe unterscheiden können (zum Beispiel beim Mantelpavian). Behaarung. Der Körper der meisten Primaten ist mit Fell bedeckt, dessen Färbung von weiß über grau bis zu braun und schwarz variieren kann. Die Handflächen und Fußsohlen sind meistens unbehaart, bei manchen Arten auch das Gesicht oder der ganze Kopf (zum Beispiel Uakaris). Am wenigsten behaart ist der Mensch. Gesicht. Die größten Augen aller Primaten haben die Koboldmakis. Bei den größtenteils nachtaktiven Feuchtnasenaffen ist zusätzlich eine lichtreflektierende Schicht hinter der Netzhaut, das Tapetum lucidum vorhanden. Namensgebender Unterschied der beiden Unterordnungen ist der Nasenspiegel (Rhinarium), der bei den Feuchtnasenaffen feucht und drüsenreich ist und sich in einem gut entwickelten Geruchssinn widerspiegelt. Die Trockennasenaffen hingegen besitzen einfache, trockene Nüstern und ihr Geruchssinn ist weit weniger gut entwickelt. Zähne. Die ältesten gefundenen fossilen Primaten besaßen eine Zahnformel von 2-1-4-3, das bedeutet pro Kieferhälfte zwei Schneidezähne, einen Eckzahn, vier Prämolaren und drei Molaren, insgesamt also 40 Zähne. Die maximale Zahnformel der rezenten Primaten lautet jedoch 2-1-3-3, die beispielsweise bei den Gewöhnlichen Makis und Kapuzinerartigen auftritt. Manche Gattungen haben ernährungsbedingt weitere Zähne eingebüßt, so besitzen die Wieselmakis keine Schneidezähne im Oberkiefer. Die wenigsten Zähne aller lebenden Arten hat mit 18 das Fingertier, das keine Eckzähne und nur mehr einen Schneidezahn pro Kieferhälfte besitzt. Die Altweltaffen, einschließlich des Menschen, haben die Zahnformel 2-1-2-3, also 32 Zähne. Die Form insbesondere der Backenzähne gibt Aufschluss über die Ernährung. Vorwiegend fruchtfressende Arten haben abgerundete, insektenfressende Arten haben auffallend spitze Molaren. Bei Blätterfressern haben die Backenzähne scharfe Kanten, die zur Zerkleinerung der harten Blätter dienen. Gliedmaßen. Gibbons haben die längsten Arme aller Primaten Die sehr unterschiedlichen Füße verschiedener Primaten Da die meisten Primatenarten Baumbewohner sind, sind ihre Gliedmaßen an die Lebensweise angepasst. Die Hinterbeine sind fast immer länger und stärker als die Vorderbeine (Ausnahmen sind die Gibbons und die nicht-menschlichen Menschenaffen) und tragen den größeren Anteil der Bewegung. Besonders ausgeprägt ist das bei den springenden Primaten und beim Menschen. Bei Arten, die sich hangelnd durch die Äste bewegen, ist der Daumen zurückgebildet (beispielsweise bei den Klammeraffen und Stummelaffen). Feuchtnasenaffen haben an der zweiten Zehe eine Putz- oder Toilettenkralle, die der Fellpflege dient. Die Unterseite der Hände und Füße ist unbehaart und mit sensiblen Tastfeldern versehen. Schwanz. Für viele baumbewohnende Säugetiere ist ein langer Schwanz ein wichtiges Gleichgewichts- und Balanceorgan, so auch bei den meisten Primaten. Jedoch kann der Schwanz rückgebildet sein oder ganz fehlen. Mit Ausnahme der Menschenartigen, die generell schwanzlos sind, ist die Schwanzlänge kein Verwandtschaftsmerkmal, da Stummelschwänze bei zahlreichen Arten unabhängig von der Entwicklung vorkommen. Sogar innerhalb einer Gattung, der Makaken, gibt es schwanzlose Arten (zum Beispiel der Berberaffe) und Arten, deren Schwanz länger als der Körper ist (zum Beispiel der Javaneraffe). Einen Greifschwanz haben nur einige Gattungen der Neuweltaffen ausgebildet (die Klammerschwanzaffen und die Brüllaffen). Dieser ist an der Unterseite unbehaart und mit sensiblen Nervenzellen ausgestattet. Lebensraum. Man vermutet, dass sich die Primaten aus baumbewohnenden Tieren entwickelt haben und noch heute sind viele Arten reine Baumbewohner, die kaum jemals auf den Boden kommen. Andere Arten sind zum Teil terrestrisch (auf dem Boden lebend), dazu zählen beispielsweise Paviane und Husarenaffen. Nur wenige Arten sind reine Bodenbewohner, darunter der Dschelada und der Mensch. Primaten finden sich in den verschiedensten Waldformen, darunter Regenwälder, Mangrovenwälder, aber auch Gebirgswälder bis über 3000 m Höhe. Obwohl man diesen Tieren generell nachsagt, wasserscheu zu sein, finden sich Arten, die gut und gerne schwimmen, darunter der Nasenaffe oder die Sumpfmeerkatze, die sogar kleine Schwimmhäute zwischen den Fingern entwickelt hat. Für einige hemerophile Arten (Kulturfolger) sind auch Städte und Dörfer Heimat geworden, zum Beispiel den Rhesusaffen und den Hanuman-Langur. Aktivitätszeiten. Vereinfacht gesagt sind Feuchtnasenaffen meist nachtaktiv (Ausnahmen: Indri, Sifakas und Varis), während Trockennasenaffen meist tagaktiv sind (Ausnahmen: Koboldmakis und Nachtaffen). Die unterschiedlichen Aktivitätszeiten haben sich auch im Körperbau niedergeschlagen, so sind in beiden Untergruppen nachtaktive Tiere durchschnittlich kleiner als tagaktive. Eine weitere Anpassung an die Nachtaktivität stellt der bessere Geruchssinn der Feuchtnasenaffen dar. Vergleichbar mit anderen Säugetieren ist die Tatsache, dass Arten, die sich vorwiegend von Blättern ernähren, längere Ruhezeiten einlegen, um den niedrigen Nährwert ihrer Nahrung zu kompensieren. Fortbewegung. Mantelpaviane sind typische Vertreter des vierbeinigen Gehens am Boden Sozialverhalten. Primaten haben in den meisten Fällen ein komplexes Sozialverhalten entwickelt. Reine Einzelgänger sind selten, auch bei Arten, die vorwiegend einzeln leben (zum Beispiel der Orang-Utan), überlappen sich die Reviere von Männchen und Weibchen, und bei der Fortpflanzung werden Tiere aus solchen überlappenden Territorien bevorzugt. Andere Arten leben in langjährigen monogamen Beziehungen (zum Beispiel Indriartige oder Gibbons). Vielfach leben Primaten jedoch in Gruppen. Diese können entweder Harems- oder Einzelmännchengruppen sein, wo ein Männchen zahlreiche Weibchen um sich schart, oder gemischte Gruppen, in denen mehrere geschlechtsreife Männchen und Weibchen zusammenleben. In Gruppen etabliert sich oft eine Rangordnung, die durch Kämpfe, Alter, Verwandtschaft und andere Faktoren bestimmt ist. Auch die Kommunikation und Interaktion spielt eine bedeutende Rolle. Etliche Arten haben eine Vielzahl von Lauten, die zur Markierung des Territoriums, zur Suche nach Gruppenmitgliedern, zur Drohung oder zur Warnung vor Fressfeinden dienen kann. Besonders bekannt sind die Urwaldkonzerte der Brüllaffen und die Duettgesänge der Gibbonpärchen. Der Mensch ist der einzige, der wirklich ein hochkomplexes Lautsystem (Sprache) benutzt. Auch Körperhaltungen und Grimassen können eine Kommunikationsform darstellen, eine weitere wichtige Form der Interaktion ist die gegenseitige Fellpflege. Bei den Feuchtnasenaffen spielt der Geruchssinn eine bedeutendere Rolle, oft wird das Revier mit Duftdrüsen oder Urin markiert. Ernährung. Größere Primatenarten tendieren dazu, auf Blatternährung spezialisiert zu sein Vermutlich waren die Vorfahren der Primaten Insektenfresser, die Mehrzahl der Arten ist heute jedoch vorrangig Pflanzenfresser. Früchte stellen für viele Arten den Hauptbestandteil der Nahrung dar, ergänzt werden sie durch Blätter, Blüten, Knollen, Pilze, Samen, Nüsse, Baumsäfte und andere Pflanzenteile. Viele Arten sind jedoch Allesfresser, die neben pflanzlicher auch tierische Nahrung zu sich nehmen, insbesondere Insekten, Spinnen, Vogeleier und kleine Wirbeltiere. Zu den Gattungen, die gelegentlich Jagd auf größere Säugetiere (Hasen, kleine Primaten, junge Paarhufer) machen, gehören Paviane und Schimpansen. Primaten gehören zu den wenigen Wirbeltieren, die das wichtige Vitamin C nicht selbst produzieren können. Sie müssen es deshalb mit der Nahrung aufnehmen. Folivore Arten weisen besondere Anpassungen auf: so haben die Stummelaffen einen mehrkammerigen Magen, in welchem Mikroorganismen die Zellulose abbauen. Dieses Konzept ähnelt dem der Wiederkäuer oder mancher Känguruarten. Andere, wie die Brüllaffen oder die Gorillas, haben einen vergrößerten Dickdarm, der demselben Zweck dient. Reine Fleischfresser sind selten unter den Primaten, dazu gehören beispielsweise die insektenfressenden Koboldmakis und Bärenmakis. Da das Nahrungsangebot für Folivoren dazu tendiert, zeitlich und räumlich uniform und vorhersehbar zu sein, sind ihre Aktionsräume meist kleiner als die von Frugivoren und Insektivoren. Fortpflanzung. Generell zeichnen sich Primaten durch eine lange Trächtigkeitsdauer, eine lange Entwicklungszeit der Jungen und eine eher hohe Lebenserwartung aus. Die Strategie dieser Tiere liegt darin, viel Zeit in die Aufzucht der Jungtiere zu investieren, dafür ist die Fortpflanzungsrate gering. Die kürzeste Tragzeit haben Katzenmakis mit rund 60 Tagen, bei den meisten Arten liegt sie zwischen vier und sieben Monaten. Die längste Trächtigkeitsdauer haben der Mensch und die Gorillas mit rund neun Monaten. Bei den meisten Arten überwiegen Einzelgeburten, und auch bei den Arten, die üblicherweise Mehrfachgeburten aufweisen (darunter Katzenmakis, Galagos und Krallenaffen) liegt die Wurfgröße selten über zwei oder drei Neugeborenen. Innere Systematik. Die Primaten umfassen mehr als 400 Arten, man teilt sie heute in zwei Unterordnungen, die Trockennasenprimaten (Haplorrhini) und die Feuchtnasenprimaten (Strepsirrhini). Die Feuchtnasenprimaten teilen sich in die Lemuren (Lemuriformes), die ausschließlich auf Madagaskar leben, und die Loriartigen (Lorisiformes), zu denen Loris und Galagos gehören. Bei den Trockennasenaffen stehen die Koboldmakis den anderen Arten gegenüber, die als Affen (Anthropoidea oder Simiae) bezeichnet werden und sich wiederum in die Neuweltaffen und die Altweltaffen teilen. Früher wurden die Feuchtnasenprimaten und die Koboldmakis als Halbaffen (Prosimiae) zusammengefasst (teilweise inklusive der Riesengleiter und der Spitzhörnchen); diese wurden den „Echten“ Affen gegenübergestellt. Stammesgeschichte. Die ältesten zweifelsfrei den Primaten zuzuordnenden Fossil­funde stammen aus dem frühen Eozän (vor rund 55 Millionen Jahren). Diese Funde, wie diejenigen des Trockennasenaffen "Teilhardina", dokumentieren jedoch bereits die Aufspaltung in die beiden Unterordnungen, daher liegt der Ursprung der Primaten vermutlich in der Oberkreide­zeit vor rund 80 bis 90 Millionen Jahren. Es existieren einige Funde aus der Oberkreide und dem Paläozän wie "Purgatorius" oder die Plesiadapiformes, die manchmal als früheste bekannte Primaten bezeichnet werden. Ihre Stellung ist jedoch umstritten, viele Autoren sehen in ihnen eine gänzlich eigene Säugetierordnung. Die Funde aus dem Eozän werden den Adapiformes und den Omomyidae, einer den Koboldmakis ähnlichen Familie zugeordnet und sind aus Afrika, Asien, Europa und Nordamerika bekannt. Während die Primaten in Nordamerika im Oligozän ausstarben, entwickelten sie sich auf den anderen Kontinenten weiter. Die heutigen Primaten Amerikas, die Neuweltaffen, sind seit rund 25 Millionen Jahren fossil belegt, älteste bekannte Gattung ist "Branisella". Aus dem Miozän sind Vorfahren der meisten heutigen Familien bekannt, eine Ausnahme bilden die Primaten Madagaskars, was aber wohl auf eine schlechte Fossilienfundrate zurückzuführen ist. In Europa starben die nichtmenschlichen Primaten – aus der Familie der Meerkatzenverwandten (Cercopithecidae) – im Pleistozän aus. In beispielloser Weise hat sich der Mensch (die Gattung "Homo)" innerhalb der letzten 100.000 Jahre über die gesamte Welt ausgebreitet, sodass heute – mit Ausnahme des antarktischen Kontinents, wo dauerhafte Wohnsiedlungen fehlen – überall auf der Erde Primaten zu finden sind. Primaten und Menschen. Die folgenden Kapitel befassen sich mit dem Verhältnis zwischen Menschen und anderen Primaten, wobei der Mensch selbst weitestgehend unbeachtet bleibt. Forschungsgeschichte. Darstellung eines „Orang-Utan“ (eigentlich ein Schimpanse) von Edward Tyson aus dem Jahr 1699 Zu den frühesten im Mittelmeerraum bekannten Primaten zählten der Berberaffe Nordafrikas und der Mantelpavian Ägyptens. Der karthagische Seefahrer Hanno († 440 v. Chr.) brachte von seiner Afrikareise die Felle von drei „wilden Frauen“ mit, vermutlich Schimpansen. Aristoteles schreibt über Tiere, die sowohl Eigenschaften des Menschen als auch Eigenschaften der „Vierfüßer“ teilen und unterteilt sie in (Menschen-)Affen, „Affen mit Schwanz“ ("kēboi", vermutlich Meerkatzen oder Makaken) und Paviane ("kynokephaloi"). Den Pavianen attestierte er eine hundeähnliche Schnauze und Zähne und prägte so den Begriff der Hundsaffen. Im 2. Jahrhundert nach Christus sezierte Galenos von Pergamon Berberaffen und schlussfolgerte daraus die menschliche Anatomie; bis ins 16. Jahrhundert hinein waren seine Forschungen für die Medizin bestimmend. Die Vorstellungen von Primaten im Mittelalter waren überlagert von Fabelwesen wie behaarten, geschwänzten Menschen und Halbwesen ähnlich dem Satyr. "Pan", der Gattungsname der Schimpansen, abgeleitet vom bocksfüßigen Hirtengott Pan, geht auf solche Vorstellungen zurück. 1641 kam erstmals ein lebendiger Schimpanse nach Holland und wurde vom niederländischen Arzt Nicolaes Tulpius (1593–1674), der durch seine Verewigung in Rembrandts Gemälde "Die Anatomie des Dr. Tulp" berühmt wurde, untersucht und unter dem Titel „Indischer Satyr“ veröffentlicht. Als Begründer der Primatologie gilt der englische Arzt und Zoologe Edward Tyson (1650–1708), der 1699 eine Reihe von Gemeinsamkeiten zwischen dem von ihm untersuchten „Orang-Utan oder "Homo sylvestris"“ – in Wahrheit einem Schimpansen aus Angola – und dem Menschen feststellte. Carl von Linné schuf die grundsätzlich heute noch gültige Systematik der Tiere, er teilte in der zehnten Auflage seiner Systema Naturae (1758) die Primaten in vier Gattungen: "Homo" (Mensch), "Simia" (Menschenaffen und andere Affen), "Lemur" (Lemuren und andere „niedere“ Affen) und "Vespertilio" (Fledermäuse) – in früheren Auflagen hatte er auch noch die Faultiere zu den Primaten gerechnet. Ganz mochte man sich mit der Einordnung der Menschen unter die Primaten nicht abfinden, so teilte Johann Friedrich Blumenbach diese Gruppe in die „Bimana“ (Zweihänder, also Menschen) und „Quadrumana“ (Vierhänder, also nicht-menschliche Primaten). Diese Einteilung spiegelt sich auch in der Tatsache wider, dass Menschenaffen in jener Zeit oft mit einem Stock dargestellt wurden, da das zweifüßige Gehen ohne Hilfe dem Menschen vorbehalten war. Im 19. Jahrhundert wurde die Evolutionstheorie entwickelt und Thomas Henry Huxley band mit seinem Werk "Evidence as to Man’s Place in Nature" (1863) den Menschen konsequent in die Evolutionsvorgänge ein, was noch jahrzehntelange Diskussionen anheizen sollte, ob der Mensch denn wirklich vom Affen abstamme. Der britische Zoologe St. George Mivart (1827–1900), ein konservativer Katholik und Autodidakt, versuchte einerseits, Darwins und Huxleys Thesen zu widerlegen, unter anderem mit der Behauptung, die Erde existiere für die beschriebenen Evolutionsprozesse noch nicht lang genug, andererseits aber modifizierte er die Einteilung Linnés, indem er die Fledermäuse von den Primaten abtrennte und die bis vor kurzem gültige Einteilung in Halbaffen und Affen durchführte. Mivart etablierte auch eine Merkmalsliste der Primaten, in der er unter anderem ausgebildete Schlüsselbeine, einen Greiffuß mit gegenüberstellbarer Großzehe und einen freihängenden Penis mit dahinterliegendem Skrotum anführte. Generell lässt sich in den letzten Jahrzehnten ein Rückgang der Forschung mit anatomischen und physiologischen Fragestellungen und ein Aufschwung in Freilandforschung und Verhaltensbiologie erkennen. Kulturelle Bedeutung. Die Menschenähnlichkeit im Körperbau und mehrere Angewohnheiten haben oft zu mythischen Vorstellungen beigetragen. Zu diesen Angewohnheiten zählen das morgendliche Aalen in der Sonne, das als religiöse Sonnenverehrung gedeutet wurde, die Schreie und Gesänge und die vermutete eheliche Treue mancher Arten. In verschiedenen Religionen wurden manche Arten zu heiligen Tieren erklärt. Der altägyptische Gott Thot wurde manchmal in Gestalt eines Pavians dargestellt. Im ägyptischen Totenbuch wird von den Pavianen berichtet, sie sitzen am Bug der Todesbarke und der Tote kann sich an sie wenden und beim Totengericht um Gerechtigkeit im Totenreich bitten. Paviane genossen deshalb Schutz und wurden sogar mumifiziert. In Indien gelten Rhesusaffen und Hanuman-Languren als heilig. Im Epos "Ramayana" helfen Affen, geführt von Hanuman, dem Prinzen Rama bei der Befreiung seiner Gattin aus den Fängen des Dämonenfürsten Ravana. Der affengestaltige Gott Hanuman gehört heute zu den populärsten Göttern des Hinduismus. In verschiedenen Regionen der Erde genossen gewisse Primaten aufgrund mythischer Vorstellungen Schutz vor der Bejagung, so zum Beispiel der Indri auf Madagaskar. In China wurden die Duettgesänge der Gibbons mit der angeblichen Melancholie dieser Tiere in Verbindung gebracht, was sich in Gedichten und Gemälden niedergeschlagen hat. Bekannt ist das buddhistische Symbol der drei Affen, die nichts sehen, nichts hören und nichts sagen. Primaten als Haustiere. Die ältesten Belege über Primaten als Haustiere stammen aus dem Alten Ägypten, wo Bilder zeigen, wie Paviane an der Leine geführt wurden und mit Kindern spielten. Aus dem alten China sind Gibbons als Haustiere bekannt. Über Jahrtausende hinweg wurden Primaten als Haustiere gehalten, auch heute ist dies noch mancherorts üblich. Gehalten werden vor allem Menschenaffen und kleinere Arten wie Totenkopfaffen – bekannt war der Schimpanse Michael Jacksons. Problematisch ist dabei, dass diese Tiere selten gezüchtet, sondern meistens als Jungtiere gefangen werden, was oft mit der Tötung der Mutter einhergeht. Unter dem Aspekt des Tierschutzes werden Primaten als Haustiere generell abgelehnt, da eine artgerechte Haltung kaum möglich ist und es auch zur Übertragung von Krankheiten – in beide Richtungen – kommen kann. Primaten als Nutztiere. Der Rhesusaffe „Sam“ bei seinem Raumflug 1959 Unter den Primaten finden sich keine klassischen Nutztiere. Im Bereich der medizinischen Forschung und der Erprobung von Kosmetika werden Primaten vielfach für Tierversuche verwendet. Am bekanntesten ist wohl der Rhesusfaktor, der 1940 am Rhesusaffen entdeckt wurde. Früher hat die Suche nach Versuchstieren die Populationen zum Teil drastisch dezimiert; heute stammen die Tiere für diese Zwecke meist aus eigener Züchtung. Der Sinn und Nutzen der Tierversuche ist heftig umstritten, und die Diskussion darüber wird äußerst kontrovers geführt. Ein weiterer Verwendungszweck von Primaten war die Raumfahrt. Der erste war 1958 „Gordo“, ein Totenkopfaffe, der an Bord einer Redstone-Rakete ins All befördert wurde. Es folgten weitere Totenkopfaffen, Rhesusaffen und Schimpansen in den Raumfahrtprogrammen der USA, Frankreichs und der Sowjetunion. In den USA gibt es Projekte, bei denen Kapuzineraffen als Hilfen für körperlich behinderte Menschen ausgebildet werden. Bedrohung. Das größte Artensterben in jüngerer Vergangenheit hat auf Madagaskar stattgefunden. Die Insel, die erst vor rund 1500 Jahren von Menschen besiedelt wurde, ist Heimat zahlreicher endemischer Tierarten, darunter fünf Primatenfamilien. Mindestens acht Gattungen und fünfzehn Arten sind seither dort ausgestorben, höchstwahrscheinlich aufgrund der Bejagung, möglicherweise gekoppelt mit klimatischen Veränderungen. Zu den dort ausgerotteten Primaten zählen vorrangig größere, bodenlebende Arten, darunter die Riesenlemuren "Megaladapis" und der gorillagroße "Archaeoindris" sowie die Palaeopropithecinae („Faultierlemuren“) und Archaeolemurinae („Pavianlemuren“). Global betrachtet ist die Situation vieler Primatenarten besorgniserregend. Als vorrangig waldbewohnende Tiere sind sie den Gefahren, die mit den großflächigen Abholzungen der Wälder einhergehen, drastisch ausgeliefert. Die Verbreitungsgebiete vieler Arten machen nur mehr einen Bruchteil ihres historischen Vorkommens aus. Die Jagd tut ein Übriges: Gründe für die Bejagung sind unter anderem ihr Fleisch, das verzehrt wird, und ihr Fell. Hinzu kommt die Tatsache, dass sie Plantagen und Felder verwüsten, sowie die – weitgehend illegale – Suche nach Haustieren. Dabei werden meist die Mütter erlegt, um halbwüchsige Tiere einfangen zu können. Obwohl die International Union for Conservation of Nature keine Primatenart als in den letzten 200 Jahren ausgestorben listet, gilt eine Reihe als stark gefährdet. Zu den bedrohtesten Primaten zählen beispielsweise die Spinnenaffen und die Löwenäffchen Südamerikas, der auf Java endemische Silbergibbon, mehrere Stumpfnasenarten und der Sumatra-Orang-Utan. Neuen IUCN-Zahlen zufolge sind 48 % der Primaten-Arten bedroht, darunter sind 11 % vom Aussterben bedroht ("critically endangered"), 22 % stark gefährdet ("endangered") und 15 % gefährdet ("vulnerable"). Besonders verheerend ist die Situation in Ost- und Südostasien. Photon. Das Photon (von griechisch φῶς "phōs", Genitiv φωτός "phōtos" ‚Licht‘) ist das Elementarteilchen (Quant) des elektromagnetischen Feldes. Anschaulich gesprochen sind Photonen das, woraus elektromagnetische Strahlung besteht. Daher wird gelegentlich auch die Bezeichnung Lichtquant oder Lichtteilchen verwendet. In der Quantenelektrodynamik gehört das Photon als Vermittler der elektromagnetischen Wechselwirkung zu den Eichbosonen. Forschungsgeschichte. Seit der Antike gab es verschiedene, einander teilweise widersprechende Vorstellungen von der Natur des Lichts. Bis Anfang des 19. Jahrhunderts konkurrierten Wellen- und Teilchentheorien miteinander "(siehe Abschnitt Geschichte im Artikel Licht)". Dann schien die Wellennatur des Lichts durch viele Phänomene (z. B. Interferenz- und Polarisationserscheinungen) bewiesen und durch die 1867 aufgestellten Maxwellschen Gleichungen als elektromagnetische Welle verstanden. Daneben gab es auch Indizien für einen Teilchencharakter. Ein historisch wichtiges Experiment hierzu war im Jahre 1887 die Beobachtung des Photoelektrischen Effekts durch Heinrich Hertz und Wilhelm Hallwachs. Die Entdeckung der Quantisierung der elektromagnetischen Strahlung ging im Jahr 1900 vom planckschen Strahlungsgesetz aus, das die Wärmestrahlung eines schwarzen Körpers beschreibt. Um dieses Gesetz theoretisch erklären zu können, musste Max Planck annehmen, dass die Oberfläche des schwarzen Körpers nur diskrete, zur Frequenz proportionale Energiemengen mit dem elektromagnetischen Feld austauschen kann. Planck selbst stellte sich allerdings nur den Energieaustausch quantisiert vor, noch nicht die elektromagnetische Strahlung an sich. Albert Einstein stellte dann 1905 in seiner Publikation zum photoelektrischen Effekt die Lichtquantenhypothese auf. Ihr zufolge ist Licht ein Strom von „in Raumpunkten lokalisierten Energiequanten, welche sich bewegen, ohne sich zu teilen, und nur als Ganze absorbiert und erzeugt werden können“. Aufgrund verbreiteter Zweifel an diesen Ansichten wurden diese Arbeiten erst 1919 (Planck) und 1922 (Einstein) mit dem Nobelpreis ausgezeichnet. Vielfach wurde der Teilchencharakter der elektromagnetischen Strahlung aber weiterhin bezweifelt, bis Arthur Holly Compton in den Jahren 1923–1925 nachweisen konnte, dass Röntgenstrahlung auf einzelne Elektronen genau so wirkt wie der Beschuss mit einzelnen Teilchen, deren Energien und Impulse gerade denen von hochenergetischen Lichtquanten entsprachen. Für diese Entdeckung und Interpretation des Compton-Effekts erhielt er 1927 den Nobelpreis. Die formale Quantentheorie des Lichtes wurde seit 1925 beginnend mit Arbeiten von Max Born, Pascual Jordan und Werner Heisenberg entwickelt. Die heute gültige Theorie der elektromagnetischen Strahlung ist die Quantenelektrodynamik (QED); sie beschreibt auch die Lichtquanten. Sie geht in ihren Anfängen auf eine Arbeit von Paul Dirac im Jahre 1927 zurück, in der die Wechselwirkung von quantisierter elektromagnetischer Strahlung mit einem Atom analysiert wird. Die QED wurde in den 1940er Jahren entwickelt und 1965 mit der Verleihung des Nobelpreises für Physik an Richard P. Feynman, Julian Schwinger und Shinichirō Tomonaga gewürdigt. In der QED ist das elektromagnetische Feld selbst quantisiert und das Photon seine elementare Anregung. Bezeichnung und Symbol. Das Wort "Photon" leitet sich vom griechischen Wort für Licht, ' ("phôs"), ab. Der Name war durch verschiedene Autoren schon seit 1916 für eine kleine Energiemenge, die einen photochemischen oder photoelektrischen Effekt auslösen kann, eingeführt worden, wurde aber kaum beachtet. Max Planck z. B. sprach in seiner Nobelpreisrede 1920 noch von „Lichtquanten“. Endgültig wurde der Name durch Arthur Compton bekannt gemacht, der sich dabei auf eine Veröffentlichung des Chemikers Gilbert Newton Lewis im Jahre 1926 berief. Lewis verwandte den Begriff im Rahmen eines von ihm vorgeschlagenen Modells der Wechselwirkung von Atomen mit Licht. Dieses Modell sah unter anderem fälschlich eine Erhaltung der Photonenzahl vor und wurde allgemein nicht anerkannt. Für das Photon wird im Allgemeinen das Symbol formula_1 (gamma) verwendet. In der Hochenergiephysik ist dieses Symbol allerdings reserviert für die hochenergetischen Photonen der Gammastrahlung (Gamma-Quanten), und die in diesem Zweig der Physik ebenfalls relevanten Röntgenphotonen erhalten häufig das Symbol "X" (von "X-Strahlen" und Englisch: "X-ray"). Eigenschaften. Jegliche elektromagnetische Strahlung, von Radiowellen bis zur Gammastrahlung, ist in Photonen quantisiert. Das bedeutet, die kleinste Menge an elektromagnetischer Strahlung bestimmter Frequenz ist ein Photon. Photonen haben eine unendliche natürliche Lebensdauer, können aber bei einer Vielzahl physikalischer Prozesse erzeugt oder vernichtet werden. Ein Photon besitzt keine Masse. Daraus folgt, dass es sich im Vakuum immer mit Lichtgeschwindigkeit formula_9 bewegt, sofern es in einem Zustand mit wohldefiniertem Impuls ist, also durch eine einzige ebene Welle darzustellen ist. Sonst bewegt es sich mit der Gruppengeschwindigkeit der beteiligten ebenen Wellen. Ein Photon im Überlagerungszustand von Impulsen mehrerer Richtungen bewegt sich auch im Vakuum langsamer als die Lichtgeschwindigkeit "(siehe Bessel-Strahl)". In optischen Medien mit einem Brechungsindex formula_10 ist die Gruppengeschwindigkeit aufgrund der Wechselwirkung der Photonen mit der Materie um den Faktor formula_11 verringert. Erzeugung und Detektion. Photonen können auf vielerlei Arten erzeugt werden, insbesondere durch Übergänge („Quantensprünge“) von Elektronen zwischen verschiedenen Zuständen (z. B. verschiedenen Atom- oder Molekülorbitalen oder Energiebändern in einem Festkörper). Photonen können auch bei nuklearen Übergängen, Teilchen-Antiteilchen-Vernichtungsreaktionen (Annihilation) oder durch beliebige Fluktuationen in einem elektromagnetischen Feld erzeugt werden. Zum Nachweis von Photonen können unter anderem Photomultiplier, Photoleiter oder Photodioden verwendet werden. CCDs, Vidicons, PSDs, Quadrantendioden oder Foto-Platten und Filme werden zur ortsauflösenden Detektion von Photonen benutzt. Im IR-Bereich werden auch Bolometer eingesetzt. Photonen im Gammastrahlen-Bereich können durch Geigerzähler einzeln nachgewiesen werden. Photomultiplier und Avalanche-Photodioden können auch zur Einzelphotonendetektion im optischen Bereich verwendet werden, wobei Photomultiplier im Allgemeinen die niedrigere Dunkelzählrate besitzen, Avalanche-Photodioden aber noch bei niedrigeren Photonenenergien bis in den IR-Bereich einsetzbar sind. Masse. Das Photon ist ein Elementarteilchen mit der Masse formula_12. Diese Tatsache ist durch Messungen sehr gut abgesichert und liegt den Formeln zugrunde, mit denen Photonen in der theoretischen Physik behandelt werden. Wegen der Äquivalenz von Energie und Masse ist gleichzeitig richtig, dass ein physikalisches System, wenn es eine Masse formula_13 besitzt, einen Massenzuwachs formula_14 erfährt, wenn es ein Photon der Energie formula_2 aufnimmt. Theoretische Formulierung. Nach der Speziellen Relativitätstheorie gilt für ein physikalisches System mit der Masse formula_16, das sich mit der Geschwindigkeit formula_17 und dem Impuls formula_18 bewegt, die Energie-Impuls-Relation Dabei ist formula_2 die Energie des Systems, formula_9 die Lichtgeschwindigkeit im Vakuum. formula_23 und formula_24 sind die Beträge der beiden entsprechenden Vektoren. Durch Einsetzen von formula_12 ergibt sich die Energie-Impuls-Relation der Photonen zu und die Geschwindigkeit der Photonen zu Diese Gleichungen sind für jedes Photon erfüllt, das einen Eigenzustand zu Impuls und Energie mit den Eigenwerten formula_18 bzw. formula_2 einnimmt. Ebenso ergeben sich die Feldgleichungen des Photonenfelds, d. h. die elektromagnetischen Maxwellgleichungen im Vakuum als Spezialfall der quantentheoretischen Klein-Gordon-Gleichung für solche Felder, deren Quanten die Masse formula_12 haben. Ebene elektromagnetische Wellen haben daher im Vakuum sowohl die Phasengeschwindigkeit als auch die Gruppengeschwindigkeit formula_9. Statische elektrische und magnetische Felder entstehen nach der Quantenelektrodynamik durch virtuelle Anregung des Photonenfelds. Experimentelle Befunde. Wenn die Masse des Photons größer als null wäre, dann würde sie sich durch verschiedene Folgen bemerkbar machen. Keine von ihnen ist bisher beobachtet worden. Die Genauigkeit der Experimente erlaubt die Aussage, dass eine eventuelle Photonenmasse in jedem Fall unter formula_35 liegen muss, das ist der formula_36ste Teil der Masse des Wasserstoffatoms. Falls die Photonenmasse größer als null wäre, Schwerefeld. Photonen unterliegen der Schwerebeschleunigung doppelt so stark wie nach der klassischen Physik zu erwarten. Nach der relativistischen Beschreibung der Gravitation folgen sie einer Geodäte der gekrümmten Raumzeit. Photonen gehören selbst zu den Quellen der Gravitation, indem sie mit ihrer Energie die Krümmung der Raumzeit beeinflussen (siehe Energie-Impuls-Tensor in der allgemeinen Relativitätstheorie). Spin. Photonen sind Spin-1-Teilchen und somit Bosonen. Es können also beliebig viele Photonen denselben quantenmechanischen Zustand besetzen, was zum Beispiel in einem Laser realisiert wird. Während etwa der Elektronenspin parallel oder antiparallel zu einer "beliebig" vorgegebenen Richtung ist, kann der Photonenspin wegen fehlender Masse nur parallel oder antiparallel zur "Flugrichtung" orientiert sein. Zirkular polarisierte E-M-Wellen haben nach dem Maxwell-Gleichungen immer den Drehimpulsbetrag von ħ pro Photon. Die Helizität der Photonen einer zirkular polarisierten Welle ist daher eine charakteristische Größe. Wird durch einen Spiegel die Ausbreitungsrichtung umgekehrt, oder wird die Rotationsrichtung umgekehrt, zum Beispiel durch eine λ/2-Platte, so wechselt die Helizität das Vorzeichen. "Linear" polarisierte elektromagnetische Wellen bestehen aus der Überlagerung von rechts und links polarisierten Photonen. Auch ein einzelnes Photon kann linear polarisiert werden, indem zwei entgegengesetzt zirkular polarisierte Zustände überlagert werden. Photonen im Vakuum. Photonen mit wohldefiniertem Impuls bewegen mit Lichtgeschwindigkeit formula_44. Die Dispersionsrelation, d. h. die Abhängigkeit der Energie formula_45 von der Frequenz formula_46 (ny), ist linear, und die Proportionalitätskonstante ist das Plancksche Wirkungsquantum formula_47, Der Impuls formula_24 eines Photons beträgt Beispiel: Rotes Licht mit 620 nm Wellenlänge hat eine Photonenenergie von ungefähr 2 eV. Photonen in optischen Medien. In einem optischen Medium wechselwirken Photonen mit dem Material. Durch Absorption kann ein Photon vernichtet werden. Dabei geht seine Energie in andere Energieformen über, beispielsweise in elementare Anregungen (Quasiteilchen) des Mediums wie Phononen oder Exzitonen. Möglich ist auch, dass das Photon sich durch ein Medium ausbreitet. Dabei wird es durch eine Abfolge von Streuprozessen behindert, in denen Teilchen des Mediums virtuell angeregt werden. Photon und Reaktion des Mediums zusammen kann man durch ein Quasiteilchen, das Polariton, beschreiben. Diese elementaren Anregungen in Materie haben üblicherweise keine lineare Dispersionsrelation. Ihre Ausbreitungsgeschwindigkeit ist niedriger als die Lichtgeschwindigkeit im Vakuum. In Experimenten der Quantenoptik konnte die Geschwindigkeit der Ausbreitung von Licht in einem verdünnten Gas von geeignet präparierten Atomen auf wenige Meter pro Sekunde gesenkt werden. Weblinks. "Zu Wechselwirkung von Photonen mit Photonen:" Pauli-Prinzip. Das Pauli-Prinzip (auch Pauli-Verbot, Pauli’sches Ausschlussprinzip oder Paulisches Ausschließungsprinzip) ist ein Grundprinzip der Quantenmechanik. Es wurde 1925 von Wolfgang Pauli zur quantentheoretischen Erklärung des Aufbaus eines Atoms aufgestellt und besagte, dass je zwei Elektronen in einem Atom nicht in allen Quantenzahlen übereinstimmen können. In der modernen Formulierung besagt das Pauli-Prinzip, dass die Wellenfunktion eines Quantensystems in Bezug auf Vertauschung von identischen Fermionen antisymmetrisch ist. Da auch die Quarks als Bausteine von Protonen und Neutronen zu den Fermionen zählen, gilt das Pauli-Prinzip für die gesamte Materie im allgemein verstandenen Sinne: Fermionen „schließen sich gegenseitig aus“, können also nicht am selben Ort existieren. Nur deshalb kommt es überhaupt zum differenzierten Aufbau der Materie mit Atomen und Molekülen. Das Pauli-Prinzip bestimmt demnach nicht nur den Aufbau des Atoms, sondern auch den größerer Strukturen. Eine Folge ist der Druck, den kondensierte Materie weiterer Kompression entgegensetzt. Vereinfachte Darstellung. Ausgangspunkt des Pauli-Prinzips ist die Tatsache, dass identische Teilchen in der Quantenmechanik "ununterscheidbar" sind. Denn der Verlauf eines Experiments oder allgemein die Entwicklung eines physikalischen Systems kann sich nicht ändern, wenn man darin zwei identische Teilchen vertauscht. Quantentheoretisch ergeben sich aber bei Vertauschung identischer Teilchen nur dann stets die gleichen Messwerte, wenn das Betragsquadrat der (Gesamt-)Wellenfunktion gleich bleibt, sich also allenfalls der Phasenanteil der Wellenfunktion ändert. Die experimentelle Erfahrung hat sogar die weitergehende Tatsache gezeigt, dass bei Vertauschung zweier identischer Teilchen je nach Teilchenart die Wellenfunktion entweder unverändert bleibt oder nur ihr Vorzeichen wechselt. Diejenigen Teilchen, bei denen sich das Vorzeichen ändert, nennt man Fermionen. Für sie ist also die Wellenfunktion antisymmetrisch bzgl. Teilchenvertauschung. Teilchen, bei denen die Wellenfunktion bei Vertauschung der Teilchen unverändert bleibt, nennt man Bosonen. Die Wellenfunktion ist dann symmetrisch bzgl. Teilchenvertauschung. In seiner speziellen und zuerst beobachteten Form besagt das Pauli-Prinzip, dass in einem Atom keine zwei Elektronen in allen vier Quantenzahlen, die zu seiner Zustandsbeschreibung im Orbitalmodell notwendig sind, übereinstimmen. Wenn zwei Elektronen beispielsweise gleiche Haupt-, Neben- und magnetische Quantenzahlen haben, müssen sie sich also in der vierten Quantenzahl, der Spin-Quantenzahl, unterscheiden. Da diese nur die Werte formula_1 und formula_2 annehmen kann, können sich in einem einzigen Atomorbital maximal zwei Elektronen aufhalten. Diese Tatsache bestimmt maßgeblich den Aufbau des Periodensystems. Anschauliche Deutung. Betrachtet man ein System aus zwei nichtunterscheidbaren Fermionen, so gilt wegen der Antisymmetrie der Gesamtwellenfunktion Für formula_12 ergibt sich daraus formula_13, d.h. formula_14. Somit muss auch das Betragsquadrat dieser Wellenfunktion, also die Wahrscheinlichkeitsdichte dafür, dass man bei einer Messung beide Fermionen am selben Ort formula_15 mit selbem Spin formula_16 findet, Null sein. In vielen Fällen (ein solcher Fall ist z. B. für nichtentartete Eigenfunktionen von Hamilton-Operatoren ohne Spin-Bahn-Kopplung stets gegeben) ist die Gesamtwellenfunktion formula_17 als Produkt von Ortswellenfunktion formula_18 und Spinwellenfunktion formula_19 darstellbar, also Wegen der Antisymmetrie ist dann formula_21. Ist etwa die Spinwellenfunktion symmetrisch, also formula_22, so folgt daraus die Antisymmetrie der Ortswellenfunktion formula_18. Entsprechend gilt allgemein, dass die Symmetrie einer der Funktionen formula_18 oder formula_19 äquivalent zur Antisymmetrie der jeweils anderen ist. Sind also die zwei Fermionen etwa im selben Spinzustand formula_26, dann ist formula_27 symmetrisch und daher folgt die Antisymmetrie der Ortswellenfunktion. Diese Zusammenhänge gelten sinngemäß auch dann, wenn mehr als zwei nichtunterscheidbare Fermionen beteiligt sind. Gültigkeit. Aufgrund des sogenannten Spin-Statistik-Theorems kommen in der Natur nur Fermionen mit halbzahligem Spin und Bosonen mit ganzzahligem Spin vor. Das Paulische Ausschließungsprinzip gilt also für alle Teilchen mit halbzahligem Spin und nur für diese. Für Bosonen gilt das Paulische Ausschließungsprinzip hingegen "nicht". Diese Teilchen genügen der Bose-Einstein-Statistik und können gleiche Quantenzustände einnehmen (im Extremfall bis zum Bose-Einstein-Kondensat). Permutations- und Drehverhalten. Das unterschiedliche Permutationsverhalten von Fermionen und Bosonen passt genau zum unterschiedlichen Drehverhalten der jeweiligen Spinoren. In beiden Fällen ergibt sich ein Faktor von formula_28, mit dem (+)-Zeichen für Bosonen ("s" ganzzahlig) und dem (−)-Zeichen für Fermionen ("s" halbzahlig), entsprechend einer Drehung um 360°. Der Zusammenhang ist unter anderem deshalb naheliegend, weil eine Vertauschung der Teilchen 1 und 2 in der Tat einer komplementären Drehung der beiden Teilchen um 180° entspricht (zum Beispiel Teilchen 1 zum Ort 2 auf dem oberen Halbkreis, Teilchen 2 zum Ort 1 auf dem unteren Halbkreis). Konsequenzen. Das Pauli-Prinzip führt zur Austauschwechselwirkung und ist für die Spinordnung in Atomen (Hundsche Regeln) und Festkörpern (Magnetismus) verantwortlich. In der Astrophysik wird durch das Pauli-Prinzip erklärt, dass alte Sterne mit Ausnahme der sogenannten Schwarzen Löcher – zum Beispiel Weiße Zwerge oder Neutronensterne – nicht unter ihrer eigenen Gravitation zusammenbrechen. Hierbei erzeugen die Fermionen einen Gegendruck, den Entartungsdruck, der einer weiteren Kontraktion entgegenwirkt. Dieser Gegendruck kann so stark sein, dass es zu einer Supernova kommt. Bei Streuprozessen von zwei identischen Teilchen ergeben sich für das Trajektorienpaar durch Vertauschung stets zwei zwar von außen nicht unterscheidbare, aber prinzipiell verschiedene Möglichkeiten, was bei der theoretischen Berechnung von Wirkungsquerschnitt und Streuwellenfunktion berücksichtigt werden muss. Physiker. a> gilt als einer der bedeutendsten Physiker der Antike a> gilt als der erste, der vorurteilsfreie Experimente durchführte a> schuf auf der Basis der Mathematik die Grundlagen der Entwicklung der modernen Physik als exakte Wissenschaft a> war einer der einflussreichsten Physiker der modernen Zeit Ein Physiker ist ein Naturwissenschaftler, der sich mit Themen aus der Physik befasst. Berufsfeld. Physiker sind in verschiedenen Berufsfeldern tätig: sie bearbeiten Aufgaben in der Grundlagen- und Industrieforschung, Entwicklung, Produktion, Beratung, Organisation und Verwaltung, im Marketing, im Öffentlichen Dienst und in der Lehre an Schulen und Hochschulen. Dabei wenden sie Methoden der theoretischen, experimentellen und angewandten Physik an. Unverzichtbares Werkzeug ist die Mathematik. Ein Teil der Physiker bleibt nach Studium und Promotion in der universitären Forschung und Lehre. In der Regel sind sie dann auf ein Spezialgebiet orientiert, wie zum Beispiel Kernphysik und Elementarteilchenphysik, Atom-, Hochenergiephysik und Molekularphysik, Clusterphysik, Festkörperphysik, Hydrodynamik, Aerodynamik, Thermodynamik, Optik und Laserphysik, Akustik, Elektrodynamik, Plasmaphysik und Tieftemperaturphysik, Astrophysik, Extraterrestrische Physik, Biophysik, Atmosphärenphysik, Ozeanographie. Viele Physiker sind in Forschungs- und Entwicklungsabteilungen von Unternehmen fast aller Branchen tätig, zum Beispiel im Maschinen- oder Fahrzeugbau, der Rundfunk-, und Nachrichtentechnik, der Medizin-, Mess-, Steuer- und Regelungstechnik, der Energieerzeugung und -verteilung oder der Chemischen Industrie. Physiker, die auf Lehramt studiert haben, arbeiten in der Regel als Lehrer an Schulen. Etwa 25 % der rund 6.500 deutschen Patentanwälte haben ursprünglich – vor einer juristischen Zusatzausbildung – Physik studiert. Laut einer im Februar 2010 veröffentlichten Studie der Deutschen Physikalischen Gesellschaft (DPG), durchgeführt vom Institut der Deutschen Wirtschaft Köln, ist die Situation für Physiker am Arbeitsmarkt schlechter als bei den übrigen Akademikern. Auf der Basis von Daten, die aus dem Mikrozensus des Statistischen Bundesamtes erhoben wurden, lässt sich die Erwerbslosenquote für alle diejenigen im erwerbsfähigen Alter bis 65 Jahre berechnen, die als Physiker ausgebildet wurden, d.h. die ein Physikstudium an einer Universität oder FH abgeschlossen haben (Ausbildungsberuf Physiker). Diese Quote lag im Jahr 2007 bei 4,5 Prozent und war damit etwas höher als die durchschnittliche Erwerbslosigkeit bei Akademikern (3,9 Prozent), allerdings geringer als die Erwerbslosenquote der Gesamtbevölkerung (8,6 Prozent). Die Werte lassen sich nur bedingt mit den Arbeitslosenzahlen der Bundesagentur für Arbeit vergleichen, die für 2007 eine Arbeitslosenquote für Physiker und Mathematiker von 6,6 % (für 2009 5,9 %) (bezogen auf die sozialversicherungspflichtig Beschäftigten) angibt, da die Arbeitssuchenden dort nicht nach dem Ausbildungsberuf, sondern nach dem gewünschten Zielberuf erfasst werden. Aus dieser Statistik fallen also alle Physiker heraus, die eine Stelle in einem anderen Beruf, z. B. im IT-Bereich, suchen. Aus der DPG-Arbeitsmarktstudie wird deutlich, dass die Bundesagentur für Arbeit nur ca. ¼ der Menschen mit einem Physikabschluss erfasst. Der Unterschied in den Quoten wird zudem dadurch beeinflusst, dass verschiedene Grundgesamtheiten für die Ermittlung der Quote zu Grunde gelegt wurden. Z. B. besteht ein Unterschied zwischen Arbeitslosen und Erwerbslosen (siehe Wikipedia Artikel zur Arbeitslosenstatistik), außerdem betrachtet die Statistik der Bundesagentur für Arbeit Physiker, Statistiker und Mathematiker gemeinsam. Ende 2014 waren in Deutschland etwa 14.800 Personen als Physikerinnen (2.600) oder Physiker (12.200) beschäftigt. Die Arbeitslosenquote unter Physikern, Mathematikern und Statistikern betrug 2013 2,6 Prozent. Im Vergleich zum Zeitraum 2008-2013 ist seit 2014 die Zahl der offenen Stellen stark gesunken, vor allem in Hochschulen und Foschungseinrichtungen. Bei den Berufsanfängern, deren Zahl bis ca. 2018 noch ansteigen wird, ist auch die Arbeitslosigkeit gestiegen. 2015 waren etwa 1.800 Physiker als arbeitslos gemeldet (2008: ca. 800). Charakteristika. Physiker arbeiten nicht selten in Berufsfeldern, die dem eigentlichen Physikstudium fremd sind (vgl. z. B. diese Liste bekannter Physiker in anderen Berufsfeldern). Viele Physiker arbeiten bei Finanzdienstleistern wie Banken oder Versicherungen. Viele Physiker, vor allem aus der Geophysik und der Meteorologie, sind in der Informatik mit der Programmierung von Modellen komplexer Systeme beschäftigt. Physiker erlernen in ihrem Studium den Prozess der mathematischen Modellierung und seiner Überprüfbarkeit. Obwohl diese Fähigkeit im Studium primär auf physikalische Fragestellungen angewandt wird, finden sich Anwendungsgebiete auch in anderen Bereichen der Technik und Naturwissenschaften und darüber hinaus. Ausbildung. Der Abschluss als Diplom-Physiker setzt ein Studium an einer Universität voraus. Er gilt als berufsqualifizierender Abschluss. Gegenwärtig werden an vielen deutschen und Schweizer Universitäten die Diplom-Studiengänge durch die neuen internationalen Bachelor/Master-Studiengänge ersetzt. Daneben gibt es Bachelor/Master-Studiengänge zum Physikingenieur und Lehramtsstudiengänge. Physik mit Abschlussziel Magister kann an fast allen Hochschulen jedoch nur als Nebenfach gewählt werden. Die Regelstudienzeit beträgt für den Diplomstudiengang 10 Semester, jedoch war die tatsächliche Studiendauer im Jahr 2013 im Durchschnitt mit 12,1 Semestern höher. Die Regelstudienzeit eines Bachelorstudiengangs liegt bei 6 Semestern, ein Masterstudiengang dauert mindestens 4 Semester. Für beide Studiengänge wurde die Regelstudienzeit 2013 mit 6,6 Semestern bzw. 4,4 Semestern nur leicht überschritten. Peine. Peine (niederdeutsch '; frühneuhochdeutsch "Peina") ist eine Stadt und selbständige Gemeinde in Norddeutschland und liegt im Land Niedersachsen. Die um 1220 gegründete Stadt hat rund 50.000 Einwohner. Sie ist die Kreisstadt des gleichnamigen Landkreises. Bekannt ist die Stadt vor allem für ihre Stahlindustrie. Noch heute ist "Peiner" in der Bauwirtschaft ein Synonym für breitflanschige Stahlträger. Lage. Peine liegt an der Fuhse zwischen dem Harz und der Lüneburger Heide und zugleich zwischen den beiden größten Oberzentren Niedersachsens, der 40 Kilometer westlich gelegenen Landeshauptstadt Hannover und dem 25 Kilometer östlich gelegenen Braunschweig. Weitere größere Städte im näheren Umkreis sind Hildesheim, Salzgitter, Gifhorn, Wolfsburg und Celle. Diese interessante Lage machte Peine seit seiner Gründung bei den umliegenden Herrschern begehrt, weshalb die Stadt in zahlreiche Auseinandersetzungen verwickelt war. Peine liegt in der Geestlandschaft zwischen Hannover und Braunschweig, der sogenannten Burgdorf-Peiner Geest. Die Stadt hat eine Fläche von 119,51 km² und somit eine Bevölkerungsdichte von 417 Einwohner pro km². Ihre Höhe über dem Meeresspiegel beträgt etwa 70 Meter über Normalhöhennull. Klima. Peine liegt innerhalb der gemäßigten Breiten im Übergangsbereich zwischen ozeanisch und kontinental geprägten Gebieten. Stadtgliederung. Zur Stadt Peine gehören 14 Ortschaften bzw. Ortsteile: Berkum, Dungelbeck, Duttenstedt, Eixe, Essinghausen, Handorf, Röhrse, Rosenthal, Schmedenstedt, Schwicheldt, Stederdorf, Vöhrum / Landwehr, Wendesse und Woltorf. In diesen Ortsteilen leben etwa 24.600 Einwohner. Die Gründung. Eine Urkunde von 1130 erwähnt zum ersten Mal Berthold von Pagin, der ein Ministeriale des römisch-deutschen Königs Lothar III. (1075–1137) war. Vermutlich ließ er Burg Peine in dieser Zeit erbauen. Dementsprechend wurde der Name Peine wahrscheinlich von "Pagin" abgeleitet. Das genaue Gründungsjahr der Burg ist auf Grund fehlender Urkunden allerdings nicht mehr feststellbar, so dass deren Erbauung auch schon früher erfolgt sein könnte. a> als Bronzestatue in der Fußgängerzone Für das Jahr 1202 berichtet das Chronicon Hildesheimense über eine Fehde zwischen dem Bischof Hartbert von Hildesheim und den Brüdern Ekbert und Gunzelin von Wolfenbüttel (* um 1170; † 2. Februar 1255), der letzte ein Dienstmann und Feldherr Kaiser Ottos IV. (* um 1175; † 19. Mai 1218). Gunzelin ging siegreich aus dieser Fehde hervor und erreichte die Belehnung mit Burg und Grafschaft Peine durch Bischof Hartbert. Auf einer Landzunge südlich dieser Burg gründete er um 1220, vermutlich bereits im Jahr 1218, die eigentliche Stadt Peine. Seit 1223 hat Peine Stadtrechte. Unter anderem geht das Peiner Wappen auf dasjenige Gunzelins zurück. 1256 erobert Herzog Albrecht von Braunschweig-Lüneburg die Stadt. Die Söhne Gunzelins verloren nach dem Tod des Vaters das Lehen Peine bereits 1260 wieder an das Hochstift Hildesheim; Otto I. von Braunschweig-Lüneburg, Bischof von Hildesheim, gab Burg, Stadt und Grafschaft Peine dem Grafen Wedekind von Poppenburg zum Lehen. Dadurch gehörte Peine endgültig zum Einflussbereich des Bistums Hildesheim und wurde gleichzeitig Marktort. Ab 1260 besaß Peine das Münzrecht und war mit Unterbrechungen bis 1428 eine Münzstätte Hildesheims. 1954 und 1956 wurden in Peine (in der Stederdorfer Straße und am Horstweg) zwei der größten mittelalterlichen Silberschätze Deutschlands gefunden. Es handelt sich um 95 flache, runde und zum Teil halbierte Silberbarren, einige von ihnen sind handtellergroß. Das Gesamtgewicht der beiden Funde beträgt 7,5 Kilogramm. Geprägt wurden die Silberstücke vermutlich im 14. Jahrhundert. Einige weisen die Wappen von Hildesheim und Hannover, den Braunschweiger Löwen und andere bisher noch nicht zugeordnete Prägungen auf. Der Fund ist ein Hinweis darauf, dass es der Stadt damals wirtschaftlich gut ging und die Peiner Kaufleute viel Einfluss hatten. Hildesheimer Stiftsfehde. Im Jahre 1518 begann die Hildesheimer Stiftsfehde, die bis 1523 dauern sollte und unter der Peine besonders zu leiden hatte. Einige Jahre lang war es zwischen der Stadt und dem Hildesheimer Bischof bereits zu Streitigkeiten um zusätzliche Steuern und an den Stiftadel verpfändete Rechte gekommen. Im Januar 1518 verbündete sich Bischof Johann von Hildesheim mit Herzog Heinrich von Lüneburg-Celle gegen Bischof Franz von Minden und Herzog Erich I. von Calenberg. Der offene Kampf begann 1519. Im Juni desselben Jahres kam es schließlich zur ersten Belagerung Peines. Nach dem ersten Angriff brannte der Südteil der Stadt ab, später stand die ganze Stadt in Flammen, doch die Burg konnte gehalten werden. Insgesamt wurde die Peiner Burg drei Mal jeweils für einige Monate belagert. Die zweite Belagerung erfolgte im Herbst 1521, die dritte im Sommer 1522. Die Burg Peine konnte zwar jedes Mal verteidigt werden – das so genannte „Eulennest“ wurde als uneinnehmbar bezeichnet –, doch überstand sie die Angriffe keineswegs unbeschadet. „Aus Gottes Gnad und Hülf allein, hat festgehalten das Haus Pein“. Im Juli 1967 stieß man bei Arbeiten zur Verlegung einer Fernheizleitung am Marktplatz auf menschliche Schädel und Knochen, gefallene und verscharrte Braunschweiger Söldner, die in der Stiftsfehde 1521 die Burg vergeblich gestürmt hatten. Der Friedensschluss durch den „Quedlinburger Rezess“ im Mai 1523 führte dazu, dass dem Hildesheimer Bischof nur noch das „kleine Stift“ blieb, zu dem auch Peine gehörte. Da Bischof Johann für die Kriegskosten aufkommen musste, ging Peine 1526 in den Pfandbesitz der Stadt Hildesheim über. Nach dem Tod Hans Wildefüers, des Hildesheimer Bürgermeisters und Anführers der katholischen Partei, entschied sich der Rat der Stadt Hildesheim am 27. August 1542, der lutherischen Lehre zu folgen. Da die Stadt Hildesheim immer noch Pfandinhaberin Peines war, wurde damit auch in Peine die Reformation durchgeführt. Im Jahre 1553 wurde Peine wieder an das Hildesheimer Hochstift zurückgegeben. Stadtbrände. Am 18. März 1510 gab es einen Stadtbrand, bei dem ein großer Teil der Stadt vernichtet wurde. Es hieß: „de stat, de kerke unde de vörborch to Peine al ut in ver stunden“: Die Stadt, die Kirche und die Vorburg waren in vier Stunden ein Raub der Flammen geworden. Am 15. Mai 1557 kam es zu einem weiteren verheerenden Stadtbrand, bei dem das Rathaus und auch die auf dem Marktplatz stehende Pfarrkirche St. Jacobi zerstört wurden. Alle Urkunden der Stadt wurden dabei vernichtet. Die Geschichte Peines vor 1600 lässt sich deshalb fast ausschließlich aus Hildesheimer und Braunschweiger Urkunden rekonstruieren. 1592 brannten noch einmal 66 Häuser nieder. Der Dreißigjährige Krieg. Der Dreißigjährige Krieg griff im Jahr 1623 erstmals auf das Gebiet des heutigen Niedersachsens über, was in Peine zur Vorbereitung auf Kampfhandlungen durch Stationierung einer Hildesheimer Kompanie führte. Die Wallanlagen und der Stadtgraben wurden ausgebessert. Ab 1625 fanden erste Kämpfe im Hildesheimer Stiftsgebiet statt, Peine wurde im August 1626 für kurze Zeit von den dänischen Truppen König Christians IV. besetzt. Graf von Tilly belagerte Peine und nahm es noch im August 1626 ein, bevor Tilly Christian bei Lutter am Barenberge schlug. Bis zum Sommer 1627 verlegte Tilly sein Hauptquartier nach Peine, was für die Stadt zusätzlichen Schutz bedeutete. Außerdem beließ er Peines protestantische Konfession. 1629 wurde das kaiserliche Restitutionsedikt erlassen, das die Gegenreformation durchsetzen sollte. In diesem Jahr kam auch Friedrich Spee von Langenfeld im kaiserlichen Auftrag; er blieb, bis ein Mordanschlag auf ihn verübt wurde. Die Peiner Bürger hatten die Wahl, den katholischen Glauben anzunehmen oder innerhalb von drei Monaten die Stadt zu verlassen. Zahlreiche Bürger verließen Peine. Ihren Grundbesitz hatten sie zuvor verkaufen müssen. 1632 kam es abwechselnd zu Besatzungen durch schwedische und katholische Truppen in Peine, woraufhin Herzog Friedrich Ulrich zu Braunschweig und Lüneburg um Hilfe gebeten und dadurch als Lehnsherr anerkannt wurde. Im Sommer 1633 wurde Peine erneut belagert und schließlich von Wolfenbütteler Truppen unter Verstärkung aus Goslar und Hildesheim am 28. Juli 1633 erobert. Wenige Tage später wurde Peine an Herzog Friedrich Ulrich übergeben. Die Gegenreformation war mit der Einnahme durch protestantische Truppen beendet, und die Glaubensflüchtlinge von 1628 kehrten zu einem Großteil zurück. 1637 ließ August der Jüngere, Herzog zu Braunschweig-Lüneburg erneut Befestigungsanlagen einrichten. Bis 1642 war das Große Stift Hildesheim unter Braunschweiger Kontrolle. 1642 wurde mit dem „Goslarer Akkord“ Frieden geschlossen, die Welfen gaben die Stadt Peine zurück an das Hochstift. Abgesehen von weiteren Einquartierungen in Peine und von Hildesheim geforderten Zahlungen war der Krieg für das nun bankrotte Peine beendet. 18. Jahrhundert. 1756 kam es zwischen Frankreich und Großbritannien in den Kolonien zum Siebenjährigen Krieg. Durch die Bündnisse auf beiden Seiten wurde auch Peine in den Konflikt verwickelt. 1757 und 1758 wurde es von Franzosen besetzt. Bis 1763 musste Peine die Kriegsparteien – sowohl die Franzosen als auch Braunschweig – mit Geld und Arbeitskräften (unter anderem zum Festungsbau) unterstützen. Am Ende des Krieges war das Stift Hildesheim hoch verschuldet. Nach der französischen Revolution 1789 verbündeten sich 1792 Preußen und Österreich gegen Frankreich. Daraufhin zogen 1792 und 1793 preußische Truppen durch Peine. 1802 kam es zu einer Besetzung des Hildesheimer Stiftsgebiets durch die Preußen, ein Jahr später wurde Peine eine preußische Stadt. Die kirchlichen Fürstentümer verloren wegen der Säkularisation im Zuge des Reichsdeputationshauptschlusses ihre Macht. Das alte Rathaus von 1827 auf dem Marktplatz 19. Jahrhundert. Das ehemals umkämpfte Burg Peine wurde wegen Verschlechterung der Bausubstanz baufällig. 1803 wurde der Abbau begonnen, 1816 war schließlich auch das letzte Gebäude abgerissen. Zudem wurde, da sich weitere Reparaturen am Rathaus nicht mehr lohnten, auch dieses Gebäude 1827 für 240 Reichstaler auf Abbruch verkauft und an gleicher Stelle am Marktplatz – teilweise mit den alten Steinen – ein neues Rathaus erbaut. Infolge der Niederlage Preußens bei Jena und Auerstedt 1806 fiel Peine an das Königreich Westfalen unter Jérôme Bonaparte. Deshalb wurde auch die Verwaltung nach französischem Vorbild umgestaltet. Nach der Völkerschlacht bei Leipzig 1813 löste sich dieses Königreich jedoch wieder auf. Am 1. Mai 1815 wurde Peine, das damals ein Ackerbürgerstädtchen von 2.300 Einwohnern war, Teil des Königreiches Hannover. Nach dem Deutschen Krieg von 1866 wurde Hannover von Preußen annektiert. Damit war nun auch Peine Teil einer preußischen Provinz. Die Stadt blühte auf mit der in der zweiten Hälfte des 19. Jahrhunderts einsetzenden Industrialisierung, ausgelöst durch die Gründung des Peiner Walzwerkes im Jahre 1872. Innenaufnahme aus dem Peiner Walzwerk aus dem Jahr 1906, Postkarte Aufstieg der Wirtschaft. Ab der Mitte des 19. Jahrhunderts begann ein großer Wandel der bis dahin vorwiegend landwirtschaftlich geprägten Stadt Peine zum Industriestandort. Bereits 1844 wurde die Bahnlinie Hannover–Peine–Braunschweig fertiggestellt, denn man erhoffte sich durch den Bahnanschluss wirtschaftlichen Aufschwung. Nachdem 1855 ein Eisenerzlager in Groß Bülten bei Ilsede entdeckt wurde, kam die Gründung der Ilseder Hütte 1858, einer Eisenhütte, hinzu. Dieser Roheisenlieferant stellte eine wichtige Voraussetzung für die weitere Entwicklung Peines dar. In enger Zusammenarbeit wurde 1872 die Aktiengesellschaft "Peiner Walzwerk" gegründet. Das neu gebaute Walzwerk nahm bereits 1873 den Betrieb auf, hatte jedoch die ersten Jahre unter der beginnenden Wirtschaftskrise zu leiden. Um die Zukunft der Eisenindustrie zu sichern, betrieb Gerhard Lucas Meyer 1880 den Zusammenschluss von Hütte und Walzwerk. Ziel war der Aufbau eines Thomas-Stahlwerks zur Veredelung des phosphorreichen Ilseder Eisens. Durch das Thomas-Verfahren veredeltes Ilseder Eisen wurde als Peiner Stahl überall konkurrenzfähig. Peine nahm infolgedessen einen rasenden Aufschwung, und bis 1891 wurden zwei weitere Walzwerke eröffnet. Durch das Wirtschaftswachstum und den damit verbundenen Bevölkerungszustrom wuchs und gedieh die Stadt. 20. und 21. Jahrhundert. Denkmal für die Synagoge von Peine Der wirtschaftliche Aufschwung des vorigen Jahrhunderts wurde durch den Ersten Weltkrieg unterbrochen. Peine war nicht direkt von Kampfhandlungen betroffen, aber die Deutsche Inflation 1914 bis 1923 und die Weltwirtschaftskrise machten der Wirtschaft der Stadt zu schaffen. Dennoch konnte ein weiterer Ausbau der Infrastruktur erfolgen. So wurde 1919 bis 1922 die Stromversorgung errichtet, und von 1921 bis 1929 erfolgte der Bau des Mittellandkanals für den Kohletransport der Wirtschaft. 1935 und 1936 wurde die jetzige Bundesautobahn 2 gebaut. Im Laufe der „Reichspogromnacht“ wurde am 10. November 1938 die Synagoge von 1907 in der Bodenstedtstraße in Brand gesteckt und zerstört. Hans Marburger, Sohn eines jüdischen Kaufmanns, wurde in dem Gebäude niedergeschossen und verbrannte. Ihm zu Ehren wurde ein Teil der Straße später in Hans-Marburger-Straße umbenannt. Auf dem Platz der ehemaligen Synagoge befindet sich die zentrale Gedenkstätte, an der alljährlich am Jahrestag der „Reichskristallnacht“ Kränze niedergelegt werden. Während des Zweiten Weltkriegs wurden das zur Rüstungsproduktion genutzte Walzwerk und die benachbarten Mineralölwerke mehrmals bombardiert, wobei es insgesamt etwa 50 Tote gab. Der Wiederaufbau dauerte noch bis 1951. Am 9. April 1945 wurde die Peiner Innenstadt mit leichten Bomben angegriffen, bei der es Tote und Gebäudeschäden gab. Tags darauf wurde die Stadt kampflos an amerikanische Truppen übergeben. Dadurch konnten größere Opfer und Zerstörungen vermieden werden. Kurz nach dem Einmarsch der Alliierten in Peine rollte Mitte Mai 1945 ein beladener Munitionszug durch den Peiner Bahnhof. Ein Bahnarbeiter bemerkte im Bahnhofsbereich, dass Rauch aus einem Waggon stieg; er konnte den Lokführer warnen und koppelte mehrere Waggons ab, darunter auch den qualmenden Güterwagen. Der restliche Güterzug fuhr weiter in Richtung Hannover, der abgekoppelte Zugteil explodierte auf der Fuhsebrücke kurz vor der Horst. Die Explosion war so stark, dass in der Stadt Scheiben zu Bruch gingen, Dachziegel von den Dächern gedrückt wurden und dass Töpfers Mühle größtenteils zerstört wurde. Zu allem Unglück – die Dächer waren noch nicht wieder gedeckt – wurde die Stadt am nächsten Tag von einem Unwetter überrascht. Die Alliierten verhafteten den Bahnarbeiter, weil sie Sabotage vermuteten. Er wurde aber bald wieder freigelassen. 1946 wurde Niedersachsen als Teil der britischen Besatzungszone gebildet. Peine gehörte von da an zum Regierungsbezirk Hildesheim. Wegen der vielen Flüchtlinge verzeichnete die Stadt zwischen 1939 und 1950 einen Bevölkerungszuwachs von etwa 10.000 Menschen. Zur Zeit des Wirtschaftswunders wurden viele städtische Projekte und Straßenbauten verwirklicht. Durch die Gebietsreform 1974 wurden 14 zuvor selbstständige Dörfer und Gemeinden eingemeindet. Peine gehörte danach zum Regierungsbezirk Braunschweig, bis der Bezirk im Zuge einer landesweiten Verwaltungsreform am 31. Dezember 2004 aufgelöst wurde. Die Stahlkrise 1975 hatte den Niedergang von etlichen Industriebetrieben in Peine zur Folge. Von 23.000 Arbeitsplätzen gingen mehr als 10.000 verloren. Die Ilseder Hochöfen wurden 1983 stillgelegt. Der Stadt Peine drohte der Verlust ihrer wirtschaftlichen Existenzgrundlage. Bis in die 1980er Jahre hinein wurden Arbeitsplätze abgebaut, und es fand ein Wandel der Industrie zu zukunftsorientierten Branchen (siehe Kapitel 5.2 Wirtschaft) statt. Die Stahlindustrie konnte sich wieder erholen, auch wenn heute nicht mehr so viele Arbeiter im Stahlwerk beschäftigt sind wie in der Blütezeit des Peiner Stahls. Die Salzgitter AG baute das Peiner Werk im November 1994 zu einem der modernsten Elektrostahlwerke Europas um (Peiner Träger GmbH). Durch den Bau eines zweiten Elektro-Ofens durch die Salzgitter AG im Verlaufe der Jahre 2008/2009 wurde dieser Anspruch unterstrichen. Im Jahr 1995 war Peine Ausrichter des Kulturfestes Tag der Braunschweigischen Landschaft und im Jahr 2000 des Landesfestes Tag der Niedersachsen. Vom 28. bis 30. August 2015 war Peine Gastgeber des 18. Europaschützenfestes, einer Veranstaltung der Europäischen Gemeinschaft Historischer Schützen. Eingemeindungen. Am 1. März 1974 wurden im Zuge der Gebietsreform Niedersachsens die Gemeinden Berkum, Dungelbeck, Duttenstedt (vorher im Landkreis Braunschweig), Eixe, Essinghausen (vorher im Landkreis Braunschweig), Landwehr (vorher im Landkreis Burgdorf), Röhrse (vorher im Landkreis Burgdorf), Rosenthal, Schmedenstedt, Schwicheldt, Stederdorf, Vöhrum, Wendesse und Woltorf eingegliedert. Handorf wurde bereits am 1. Juli 1968 eingemeindet. Entwicklung der Einwohnerzahl. In der Kernstadt Peines wohnen 25.088 Menschen, davon sind 12.795 (51 Prozent) weiblich und 12.293 (49 Prozent) männlich (Stand 31. Juli 2015). Darunter sind 15,24 Prozent Ausländer. Die Ausländer in Peine stammen überwiegend aus der Türkei, danach aus Polen. Die Quote der sozialversicherungspflichtig Beschäftigten beträgt rund 35,3 Prozent (Angabe von 2007) und ist in den letzten Jahren relativ konstant geblieben. Das Durchschnittsalter beträgt etwa 44 Jahre. Rund 47 % der Bewohner sind evangelisch-lutherisch, 11,3 % römisch-katholisch. Neben den beiden großen Kirchen gibt es auch jeweils eine Gemeinde der Baptisten, der Siebenten-Tags-Adventisten, der Zeugen Jehovas und der Neuapostolischen Kirche. Inzwischen stellen Menschen mit Migrationshintergrund rund 18 % der Peiner Bevölkerung. So sind auch Menschen muslimischen Glaubens in Peine zu Hause und finden sich beispielsweise in den Moscheen von DITIB und TAKVA zusammen. Der Aufstieg der Wirtschaft in der zweiten Hälfte des 19. Jahrhunderts führte zu einem rasanten Bevölkerungswachstum von 3.823 Einwohnern im Jahre 1852 auf 15.421 Einwohner 1900. Durch Zuzug von Flüchtlingen nach dem Zweiten Weltkrieg hatte die Stadt 1954 bereits 28.918 Einwohner. Die Anzahl von 49.893 nach der Gebietsreform 1974 ist bis heute etwa gleich geblieben. Es folgt eine Übersicht mit den Einwohnerzahlen nach dem jeweiligen Gebietsstand. Bis 1987 handelt es sich meist um Volkszählungsergebnisse (¹), danach um amtliche Fortschreibungen der jeweiligen Statistischen Ämter oder der Stadtverwaltung selbst. Die Angaben beziehen sich ab 1852 auf die „Ortsanwesende Bevölkerung“, ab 1925 auf die Wohnbevölkerung und seit 1987 auf die „Bevölkerung am Ort der Hauptwohnung“. Das „Eulennest“. Peine wird häufig als "Eulenstadt" oder auch als "Eulennest", mundartlich "Ulennest", bezeichnet. Es gibt mehrere Legenden und Sagen, die sich um die Eule ranken. Der Ursprung dieser Symbolik im Zusammenhang mit Peine als Stadt ist jedoch nicht eindeutig geklärt. Es ist möglich, dass die Burg Peine wegen der unwegsamen und gefährlichen Moore in der Umgebung „Ulennest“ genannt wurde und daraus die Sagen entstanden. Die geläufigste ätiologische Herleitung des Namens ist die folgende: „Vor langer Zeit ließ sich eine Eule auf dem Wartturm der Vorburg nieder und fing an, unter dem Dache ein Nest zu bauen. Mit offenem Munde staunte die Besatzung das Tier an und geriet in Furcht angesichts des unbekannten und furchterregenden Wesens. Man sucht den ungebetenen Gast zu vertreiben, doch umsonst, er kommt immer wieder. Schließlich legt man Feuer in den Turm, die Eule jedoch fliegt zur Stadt hinüber. Die Peiner aber fürchten sich nicht, nehmen den Fremdling wohlgemut auf und verehren die Eule als einen Schutzgeist. (Kluge Leute behaupten freilich, auch die Peiner Bürger hätten den sonderbaren Ankömmling durch Feuer vertreiben wollen und dabei die ganze Stadt eingeäschert.)“ Eine andere Fassung der Erklärungslegende lautet so: Eine Eule hatte sich eine Scheune als Schlupfwinkel ausgesucht. Der Knecht bemerkte das Tier beim Strohholen und bekam eine große Angst. Ähnliches widerfuhr dem Bürger. Bald war die gesamte Nachbarschaft versammelt, doch selbst ein besonders mutiger Mann in Rüstung soll Angst bekommen haben. Man entschloss sich daraufhin, die Scheune niederzubrennen, was großen Spott über die Stadt brachte. „Ist einer keck, zieh er gen Pein, Und geh daselbst zum Bier und Wein, Frag sie, was ihn’ die Eul gethan, Und trink mit ihn’ den letzten aus, Wil ich ihm, was er drinn verzecht, Als Peine im Verlauf der Hildesheimer Stiftsfehde mehrmaligen Eroberungsversuchen standhielt, schrieb man dem bisherigen Unglücksbringer nunmehr die Rettung der Stadt zu. So wurde die Eule nun zu einem Wahrzeichen der Stadt und Abzeichen ihres Bürgerstolzes. Auf eine positive Bedeutung der Eule deuten auch die aus dem Jahre 1534 erhaltenen Hochzeitsschüssel hin. Die nun veränderte Legende wollte es, dass die Eule die Peiner nicht erschreckt, sondern im Gegenteil in den Bedrängnissen ihrer Geschichte behütet habe. Charakteristischer Ausdruck dieser Umdeutung der Eule ist der mundartliche Zweizeiler „Peine was maket so feste,/ dat de Ule blev sitten in’n Neste!“ (hochdeutsch etwa „Peine machte so fest, dass die Eule im Nest sitzen blieb!“), der sich auch an einer Häuserwand nahe der Fußgängerzone findet. Er gehört in eine Legende aus der Zeit der Stiftsfehde, nach der die Angreifer sich schon mit Leitern an der Festung zu schaffen machten, als eine Eule, die in der Nähe ihr Nest hatte, mit ihrem Ruf Alarm schlug. Sie soll – wie die kapitolinischen Gänse nach der römischen Legende – die Wachen mit ihrem Lärm geweckt haben und somit einen Angriff der feindlichen Truppen vereitelt haben. Die Verteidiger konnten dadurch rechtzeitig Stellung beziehen und die nächtlichen Braunschweiger,Besucher‘ abwehren (aus dem Geschichtsunterricht an der Gunzelin-Realschule Peine und dem Gymnasium Groß Ilsede, Erzählung eines Lehrers). Auch heute noch ist die Eule ein beliebtes Symbol in Peine, sei es bei Veranstaltungen, an Häusern, in Form von Statuen oder Ähnlichem. Besonders die Häuser um den Marktplatz herum, aber auch die Jakobi-Kirche sind mit Eulensymbolen verziert. Religion. Peine ist Sitz eines Evangelisch-lutherischen Kirchenkreises, er gehört zum Sprengel Hildesheim-Göttingen der Landeskirche Hannovers. Zum Kirchenkreis gehört in der Kernstadt Peine die "St.-Jakobi-Kirche" in der Stadtmitte, in der heutigen Form Ende des 19. Jahrhunderts erbaut, sowie die "Friedenskirche" in der Gunzelinstraße und die "Martin-Luther-Kirche" in der Südstadt, beide 1955 errichtet. Ferner die "St.-Johannis-Kirche" aus der Nachkriegszeit auf Telgte und die "Horstkirche" (St. Nicolai) in der Horst, eine Fachwerkkapelle aus dem 18. Jahrhundert. Weitere evangelische Kirchen und Kapellen befinden sich in den Stadtteilen Berkum, Dungelbeck, Duttenstedt, Eixe, Essinghausen, Handorf, Röhrse, Rosenthal, Schmedenstedt, Schwicheldt, Stederdorf, Vöhrum und Woltorf. Die katholische Kirche "Zu den heiligen Engeln" wurde 1867/68 am heutigen Von-Ketteler-Platz errichtet und 1923 durch die inzwischen profanierte "Herz-Jesu-Kapelle" in der Südstadt ergänzt. Weitere Kirchen wurden nach 1945 in den heutigen Stadtteilen Dungelbeck, Stederdorf und Vöhrum erbaut, ferner 1960 auf dem Telgter Friedhof an der Vöhrumer Straße die "St.-Barbara-Kirche". In Essinghausen befand sich eine Notkapelle. Sämtliche katholischen Kirchen in Peine gehören heute zur Pfarrgemeinde "Zu den heiligen Engeln" und zum Dekanat Braunschweig. Zur Evangelisch-Freikirchlichen Gemeinde Peine (Baptisten) gehört die "Christuskirche" am Rosenhagen. Die Gemeinde gehört zum Bund Evangelisch-Freikirchlicher Gemeinden in Deutschland. Eine "Neuapostolische Kirche" befindet sich im Stadtteil Vöhrum. Ihre Gemeinde gehört zum Kirchenbezirk Braunschweig. Eine weitere Kirche befand sich in der Spittastraße 5. Am 7. Oktober 2012 fand dort der letzte Gottesdienst statt, 2013/14 wurde sie zu einem Konzertsaal umgebaut. Die "Adventgemeinde" Peine am Werderpark gehört zur Freikirche der Siebenten-Tags-Adventisten. Ein "Königreichssaal" der Zeugen Jehovas befindet sich in der Horst. Neben den christlichen sind inzwischen auch islamische Religionsgemeinschaften in Peine ansässig. Die drei Moscheen in Peine befinden sich alle in der Südstadt. Rat der Stadt. Der Rat der Stadt Peine, das oberste politische Entscheidungsorgan, trifft Entscheidungen, welche die Selbstverwaltung der Stadt betreffen. Dazu gehören die Bestimmung von öffentlichen Abgaben, Bebauungspläne oder auch die Benennung von Ehrenbürgern. Genau fällt darunter die Festsetzung der Benutzung und Gebühren von öffentlichen Einrichtungen wie beispielsweise Bibliotheken, Straßenreinigung, Müllabfuhr, Wasserversorgung, Kanalisation und Fernwärme. Der Stadtrat besteht aus 40 Ratsfrauen und Ratsherren. Dies ist die festgelegte Anzahl für eine Stadt mit einer Einwohnerzahl zwischen 40.001 und 50.000 Einwohnern. Die 40 Ratsmitglieder werden durch eine Kommunalwahl für jeweils fünf Jahre gewählt. Die aktuelle Amtszeit begann am 1. November 2011 und endet am 31. Oktober 2016. Stimmberechtigt im Rat der Stadt ist außerdem der hauptamtliche Bürgermeister Michael Kessler (SPD). Verwaltungsausschuss. Die Hauptaufgabe des Verwaltungsausschusses ist es, die Ratsbeschlüsse mit Hilfe von Empfehlungen der Fachausschüsse und Ortsräte vorzubereiten. Er fällt auch eigene Entscheidungen und kümmert sich um Einwohneranträge, Anregungen und Beschwerden der Bürger. Der Verwaltungsausschuss setzt sich aus dem Bürgermeister, den aus dem Rat bestimmten Beigeordneten und den Grundmandatsinhabern zusammen. Bürgermeister. Der Bürgermeister, das dritte Organ der Stadt, wird bei der Kommunalwahl für eine Dauer von acht Jahren gewählt. Er sorgt für die Vorbereitung und Ausführung der Beschlüsse von Stadtrat und Verwaltungsausschuss. Er repräsentiert die Stadt Peine und vertritt die Gemeinde in gerichtlichen Verfahren. 2001 wurde Udo Willenbücher mit 50,8 % zum ersten hauptamtlichen Bürgermeister der Stadt Peine gewählt. Er war bereits von 1996 bis 2001 in der Nachfolge von Dr. Boß Stadtdirektor. Er verzichtete 2006 aus gesundheitlichen Gründen auf eine Wiederwahl. Seit 2006 ist Michael Kessler (SPD) hauptamtlicher Bürgermeister. Er wurde bei der Kommunalwahl am 11. September 2006 im ersten Wahlgang mit 51,4 % gewählt. Bei der gleichzeitig mit der Europawahl 2014 stattfindenden Bürgermeisterwahl am 25. Mai 2014 kandidierte Kessler erneut und setzte sich mit 73,9 % der Stimmen gegen Karl-Heinrich Belte von der Peiner Bürgergemeinschaft (PB) durch. Vorab gab Kessler jedoch bereits bekannt, das Amt im Falle des Wahlsieges nur noch zwei Jahre auszuführen. Bürgermeister der Stadt Peine seit 1945 Wappen. Peiner Wappen Das Peiner Wappens zeigt auf dem in Gold und Rot geteilten Schild einen nach links über zwei goldene Garben springenden schwarzen Wolf. Diese Getreidegarben neigen sich nach außen und stehen auf einem grünen Hügel. Die Farben Gold und Rot weisen auf die lange Zugehörigkeit zum Fürstbistum Hildesheim (von 1260 bis 1802) hin. Das Wappen geht auf Gunzelin von Wolfenbüttel zurück. Seit dem 13. Jahrhundert haben sich an dem Wappen lediglich Kleinigkeiten geändert. So war der Boden ursprünglich silbern und die Farben der Garben wurden mehrfach gewechselt. Zunächst war der Schild noch nicht geteilt, erst seit dem 17. Jahrhundert ist er gespalten. Es existierte auch eine andere Version des heute üblichen Stadtwappens aus dem 19. Jahrhundert. Das damalige Wappen war rot und grün gespalten. Oben mit einem schwarzen Wolf, der über zwei goldene Garben springt. Darüber beherrscht ein bläulicher Kolbenturnierhelm samt gelb-roter Helmzier die Szenerie. Das Peiner Wappen zeigt heute die Farbe Grün nur im unteren Teil – als Grund für die darauf gestellten goldenen Garben, über die ein schwarzer Wolf springt. Beim Wappen aus dem 19. Jahrhundert fehlt auch der ehemals über dem Helm hervortretende zweite Wolf. Erst seit 1924 gibt es ein festes Stadtwappen, das von dem Grafiker Emil-Werner Baule (1870–1953) gestaltet worden ist, wie man bei Recherchen im Stadt- und Kreisarchiv herausfand. Die Stadtfarben von Peine sind bis heute Grün und Rot. Städtepartnerschaften. Nach längeren guten Beziehungen wurde am 13. Februar 2003 mit Asselheim, einem Stadtteil Grünstadts, ein Freundschaftsvertrag geschlossen. Bauwerke. „Peine. Partie auf dem Herzberge“, Postkarte von 1918 Sport. Die Stadt Peine hat ein breit gefächertes Sportangebot. Dazu gehören zahlreiche Sport- und Turnhallen, Freisportplätze, Fitnesscenter und Schießstände. Außerdem gibt es Reithallen und Reitplätze, ein Hallenbad, ein Freibad, ein Kegelheim, und unweit von Peiner Stadtkern auf der Glindbruchkippe einen Segelflugplatz. Des Weiteren finden sich in Peine zwei Kanuvereine: Die Faltbootabteilung des MTV Vater Jahn und die Kanu-Gemeinschaft Peine. Im gesamten Landkreis Peine gibt es über 280 Kilometer befestigte Radwanderwege, auch der Peiner Herzberg lädt zum Radfahren oder Joggen ein. Die größte Sportveranstaltung in Peine ist jährlich der Peiner Triathlon, der fast 1000 Athleten an den Eixer See lockt. Regelmäßige Veranstaltungen. Das größte Fest ist das jährliche Schützenfest, das „Peiner Freischießen“, das für fünf Tage um den ersten Sonntag im Juli stattfindet. Der Name rührt ursprünglich daher, dass sich die Peiner von den bürgerlichen Pflichten „freischießen“ konnten. Der Ursprung des Festes ist wegen des bereits erwähnten Stadtbrandes von 1557 unbekannt. Urkundliche Erwähnung findet das Fest erst in den daraufhin angefertigten Statuten der Stadt Peine. Man geht heute davon aus, dass bereits kurz nach der Stadtgründung um 1220 eine Art „Bürgerwehr“ in der häufig umkämpften Stadt existierte. Diesen Willen zur Selbstverteidigung nutzten die Peiner Bürger im Laufe der Zeit um sich immer mehr Rechte von Seiten der Grundherren zu sichern (z.B. das "Freischießen" von den Steuern oder ein von den Bürgern gewählter Bürgermeister). Seit dem Ende des 19. Jahrhunderts ist das Peiner Freischießen nicht mehr eine Veranstaltung eines einzelnen „Orts-Schützenvereins“, sondern es treten sieben „Korporationen“ an. Jede Korporation ermittelt ihren eigenen König. Unter den sieben Korporationen gibt es drei sogenannte „Bürgerkorporationen“, nämlich das "Neue Bürger Corps (1927)", das "Bürger Jäger Corps (1871)" und die "Schützengilde (1597)". Diese drei Bürgerkorporationen schießen untereinander den Bürgerkönig aus, der Bürgerkönig kommt also aus nur einer der drei Bürgerkorporationen. Der Bürgerkönig nimmt im Jahr seiner Regentschaft eine besondere Stellung im gesellschaftlichen Leben der Stadt ein. Große Tradition hat das "Corps der Bürgersöhne (1814)", in dem die sogenannten Junggesellen das Freischießen feiern. Das Corps der Bürgersöhne schießt seinen eigenen aktiven König aus. Die sogenannte passive Abteilung, bestehend aus nicht mehr ledigen Mitgliedern, bestimmt unter sich den passiven König. Die Gründung von sieben Korporationen hat ihre Wurzeln in der Zeit der industriellen Revolution, die großen Einfluss auf Peine hatte. Die vielen Neubürger wollten auch aktiv am Freischießen teilnehmen, jedoch war ihnen der Eintritt in die Schützengilde versperrt, die damals aus alteingesessenen Peiner Kaufleuten und Handwerkern bestand. Neben den bereits erwähnten Korporationen nehmen der "MTV Vater Jahn Peine von 1862 Corporation", der "TSV Bildung von 1863" sowie der "Peiner Walzwerker Verein von 1878" an dem größten Heimatfest teil. Seit 1966 wird das Fest mit einem Großfeuerwerk eröffnet, heute findet es auf dem 1979 gebauten Schützenplatz statt. Nach wie vor sind die offiziellen Termine und Freischießenämter eine Domäne der Männer. Ein weiteres jährliches Großereignis ist das Peiner Stadtfest, der "Eulenmarkt". Weitere Ereignisse sind der "Autofrühling", bei dem die Autohäuser ihre neuen Modelle präsentieren und das "Highland Gathering", bei dem sich internationale Pipe- and Drumbands bei den offiziellen offenen deutschen Meisterschaften einen musikalischen Wettkampf liefern und anschließend die Highland Games veranstaltet werden. Unternehmen. Peine war bis zur Stahlkrise in den 1970er Jahren sehr weitgehend durch die Stahlindustrie geprägt (siehe auch Aufstieg der Wirtschaft). Nach dem Zusammenbruch der Stahlindustrie sah man sich wie in anderen Industriezentren auch gezwungen, die Monostruktur und die damit verbundene Abhängigkeit abzulösen. Im Mittelzentrum Peine wurde eine Vielzahl zukunftsträchtiger Betriebe erfolgreich angesiedelt. Unter anderem hatte der Hersteller von Unterhaltungselektronik Matsushita eine Produktions- und Entwicklungsniederlassung in Peine. Das Gelände wurde inzwischen vom Berliner Schokoladen-Produzenten Rausch übernommen, der schon seit 1982 eine Fabrik im Norden von Peine unterhält. Die Firma Pelikan AG errichtete 1973 ein Werk im Peiner Ortsteil Vöhrum. Dieses Werk ist bis heute der bedeutendste Produktionsstandort der Pelikan-Gruppe weltweit. Das denkmalgeschützte Gebäude der BrauManufaktur Härke Beliebt bei vielen Peinern ist das Bier der Privatbrauerei Härke, die seit der Übernahme der Rauls’schen Brauerei im Jahre 1890 auf eine lange Tradition zurückblicken kann. 2013 verlor das Unternehmen seine Eigenständigkeit. Es wurde von der Einbecker Brauhaus AG übernommen und firmiert seitdem als "Härke Braumanufaktur". Auch die Firma Funkwerk Enterprise Communications GmbH (früher Elmeg Communication Systems GmbH) ist in Peine ansässig. 2011 eröffnete die Fa. NOWEDA (Arzneimittelgroßhandel) einen neuen Standort in Peine. Im Gewerbegebiet Peine-Ost konnte die Logistikfirma Meyer & Meyer mit Sitz in Osnabrück angesiedelt werden. Neben den außerhalb gelegenen Industrie- und Gewerbegebieten mit günstiger Anbindung konnte die 1971 errichtete Fußgängerzone in der Breiten Straße mit ihrem Einzelhandel aufrechterhalten werden. Die Stadt ist Unternehmenssitz der Kreissparkasse Peine und der Volksbank Peine. Die Stadt Peine ist schuldenfrei, was angesichts überbordender kommunaler Verschuldung eine Besonderheit darstellt. Zusammengefasst sind Kunststoff- und Metallverarbeitung, Daten- und Kommunikationselektronik, Lebensmittel- und Schokoladenhersteller, sowie öffentliche und private Dienstleistungsunternehmen in Peine vertreten. Die Stadt Peine unterhält selbst zwei Unternehmensparks, in denen verschiedene Firmen mit Produktion und Verwaltung ansässig sind. Unter anderem ist die Aula des Gymnasiums am Silberkamp im Unternehmenspark II untergebracht. Bildung. Der erste Nachweis einer Peiner Schule – vermutlich eine Lateinschule – geht auf das Jahr 1423 zurück. In einer Urkunde wurde der damalige, aus Hildesheim stammende Schuldirektor erwähnt. In den 1960er Jahren wurden zahlreiche Schulen ausgebaut und einige weitere neu errichtet. Peine hat heute mehrere Grund- und Hauptschulen wie die "Bodenstedt-/Wilhelmschule" (Haupt-/Realschule) und die "Burgschule" (verlässliche Grund-/Hauptschule), die "Gunzelin-Realschule" und eine berufsbildende Schule. Dazu kommen mit dem "Ratsgymnasium", dem "Gymnasium am Silberkamp" und dem "beruflichen Gymnasium (ausschließlich Oberstufe)" drei Gymnasien. Seit 2001 ist im Stadtteil Vöhrum eine Integrierte Gesamtschule ansässig, welche ebenfalls eine gymnasiale Oberstufe bekommen hat und somit die vierte Möglichkeit bietet, im Stadtgebiet die Fach- und Allgemeinhochschulreife zu erlangen. Die drei Schulen der Orientierungsstufe wurden im Sommer 2004 aufgelöst und in die weiterführenden Schulen eingegliedert. Zwar besitzt Peine keine eigene Hochschule, profitiert dafür aber von der Nachbarschaft zu den Forschungszentren in Braunschweig und Hannover. Darüber hinaus hat Peine für die Erwachsenen- und Weiterbildung eine Kreisvolkshochschule. Zum Ratsgymnasium gehört zudem eine Sternwarte mit elektrisch betriebener, 360°-drehbarer Baader-Sternwartenkuppel. Im Herbst 2014 stiftete die Erich-Mundstock-Stiftung (Kraftverkehr Mundstock) ein neues "Maede-12"-Teleskop. Straßen und Brücken. Peine liegt direkt an der Bundesautobahn 2 (A 2), die das Ruhrgebiet mit der deutschen Hauptstadt Berlin verbindet, und verfügt über eine sogenannte Doppelanschluss-Stelle: Neben der ursprünglichen Autobahnausfahrt „Peine“ wurde im Jahre 1997 eine zusätzliche Ausfahrt „Peine-Ost“ fertiggestellt. Beide werden mit der Nr. 52 geführt. Daneben führen die Bundesstraßen B 65, B 444 und B 494 durch die Stadt. Die beiden wichtigsten straßenbaulichen Bauwerke sind die Nord-Süd-Brücke (1978) und die Stahlwerkbrücke (2003). Beide überspannen die in West-Ost-Richtung durch die Stadt verlaufende Bahnstrecke Hannover–Braunschweig. Die Errichtung der Stahlwerkbrücke dauerte insgesamt gut zwei Jahre: Der erste Spatenstich erfolgte am 1. August 2001, die Eröffnung fand unter großer Anteilnahme der Bevölkerung am 19. September 2003 statt. Ihren Namen verdankt die Brücke dem Peiner Stahlwerk, über dessen Werksgelände sie verläuft. Eisenbahn und Bus. Peine liegt an der Bahnstrecke Hannover–Braunschweig. Eine Besonderheit besteht darin, dass das Bahnhofsgebäude im Besitz der Stadt ist, nachdem es Mitte der 1990er Jahre auf ihre Kosten errichtet wurde. An den Bahnhof angeschlossen ist zusätzlich ein Nahverkehrsterminal, der die öffentlichen Verkehrsmittel Bus und Bahn verknüpft. Der Peiner Bahnhof wurde mehrfach mit Preisen ausgezeichnet. Der Bahnhof Peine war Endpunkt der 1922 eröffneten und bis 2003 vollständig stillgelegten Bahnstrecke Plockhorst–Peine. Außerdem ist in Peine eine nur im Güterverkehr genutzte Strecke der Verkehrsbetriebe Peine-Salzgitter, die ehemalige Peine–Ilseder Eisenbahn, mit dem Netz der Deutschen Bahn AG verknüpft. Der Stadtverkehr wird hauptsächlich von der Peiner Verkehrsgesellschaft mbH (PVG) betrieben. Im Regionalverkehr fährt hauptsächlich die Regionalbus Braunschweig GmbH (kurz RBB). Schiffsverkehr. Peine besitzt einen Hafen am Mittellandkanal, der 1929 im Zuge des Baus des Mittellandkanals angeschlossen wurde. Er befindet sich bei Kilometer 202. Flughäfen. Die nächstgelegenen Flughäfen sind der Flughafen Hannover-Langenhagen in Langenhagen und der Flughafen Braunschweig-Wolfsburg in Braunschweig. Im Peiner Stadtgebiet bei Vöhrum befindet sich der Segelflugplatz "Glindbruchkippe", auf dem Gebiet der Nachbargemeinde Edemissen der derzeit geschlossene Flugplatz Peine-Eddesse. Persönlichkeiten. a>, Autor des Standardwerks "Das Heilige" Paris (Mythologie). Paris (griech. Πάρις) ist in der griechischen Mythologie der Sohn des trojanischen Königs Priamos und der Hekabe. Er ist damit Bruder des Hektor und der Kassandra. Insgesamt hat er mehr als 50 Geschwister und Halbgeschwister. Indem er Helena entführt, löst er den Trojanischen Krieg aus. Auffallenderweise, und bisher unerklärt, trägt er in Homers "Ilias" noch einen zweiten Namen, und diesen sogar häufiger: Alexandros. Überwiegend, wohl wegen des Einflusses Homers, heißt er so auch in den Beischriften der Vasenmalerei. Möglicherweise hängt der Name mit dem König Alaksandu von Wilusa zusammen, der auch in hethitischen Texten vorkommt. Die Geburt des Paris und sein Leben bei den Hirten. Hekabe träumt vor der Geburt des Paris, sie gebäre eine Fackel, die Troja in Brand stecken werde. Nachdem sie Priamos von dem Traum erzählt hat, lässt dieser den Aisakos zu sich kommen, der die Fähigkeit besitzt, Träume zu deuten. Aisakos sagt, Hekabe werde einen Sohn gebären, der Trojas Verderben herbeiführen werde. Von dieser Weissagung erschreckt, beschließen Priamos und Hekabe, das Neugeborene auszusetzen. Der Auftrag wird Agelaos, einem Sklaven des Königs, übertragen. Der setzt das Kind auf dem Berg Ida aus; nach einiger Zeit kehrt er jedoch reumütig zurück. Zu seinem Erstaunen findet er das Kind gesund und munter vor: Eine Bärin hat es gesäugt. Agelaos nennt den Jungen Paris und zieht ihn bei sich auf dem Feld und bei den Hirten auf. Paris wächst als Schäfer auf. Mit Erreichen des Mannesalters heiratet er die Nymphe Oinone, eine Tochter des Flussgottes Kebren. Das Urteil des Paris. Eines Tages erscheint ihm Hermes, der ihn bittet auszuwählen, welche der drei Göttinnen Hera, Athene und Aphrodite die schönste sei, woraufhin diese versuchen, ihn zu bestechen. Paris trifft sein Urteil: Nachdem ihm Hera Macht verspricht und Athene Ruhm, entscheidet er sich für Aphrodite, die ihm die Hand der schönsten Frau auf Erden, Helena, der Frau des Menelaos, König von Sparta, versprochen hat. Die anderen beiden Göttinnen sind enttäuscht, Hera schwört Paris und den Trojanern ewige Feindschaft. Ihr Hass trägt zum Untergang Trojas bei und verfolgt den Trojaner Aeneas auch noch auf seinen Irrfahrten. (Siehe Vergils "Aeneis") Leichenspiele in Troja und Wiedererkennung des Paris. In Troja trauert Hekabe immer noch um den verlorenen Sohn. In ihrem Kummer wendet sie sich an Priamos; der verspricht ihr, Leichenspiele zu Ehren des verlorenen Prinzen zu veranstalten. Als Preis wird ein besonders kraftvoller Stier aus den Herden des Königs auf dem Berg Ida ausgesetzt. Dieser Stier ist jedoch das Lieblingstier des Paris, so dass dieser beschließt, an den Spielen in Troja teilzunehmen, um selbst den Stier zu gewinnen. Tatsächlich gelingt es Paris, der sich weiterhin für einen einfachen Hirten hält und von den anderen dafür gehalten wird, den Sieg gegen seine Brüder und die stärksten jungen Trojer zu erringen. Paris’ Bruder Deiphobos jedoch will sich mit seiner Niederlage gegen einen Hirten nicht abfinden und möchte ihm am liebsten die Kehle durchschneiden. Aus Furcht vor Deiphobos flieht Paris zum Altar des Zeus. Dort sieht ihn seine Schwester Kassandra, die von Apollon mit der Fähigkeit des Wahrsagens ausgestattet worden ist, und erkennt in ihm den lange für tot gehaltenen Bruder. Als die Eltern hören, dass der verloren Geglaubte wieder aufgetaucht ist, nehmen sie ihn in den Königspalast auf, die Weissagung, Paris werde die Brandfackel Trojas sein, vergessend. Kassandra versucht vergeblich, sie daran zu erinnern; denn Apollon hat sie auch mit dem Fluch belegt, dass niemand ihre Prophezeiungen ernst nimmt. Ausfahrt nach Griechenland. Priamos war vor langer Zeit von den Griechen die Schwester Hesione geraubt worden. Aphrodite legt Paris in den Sinn, im Rat der Trojer vorzuschlagen, eine Gesandtschaft nach Sparta in Griechenland zu entsenden, die Hesione zunächst friedlich zurückverlangen, notfalls jedoch mit militärischer Gewalt zurückbringen soll. Bei dieser Gelegenheit berichtet Paris von seinem Urteil und davon, dass er nun unter Aphrodites Schutz stehe. Priamos vertraut der Hilfe Aphrodites und willigt in den Plan ein. Zur Gesandtschaft gehören auch Paris und Hektor. In Sparta begegnet Paris jedoch Helena, die Aphrodite ihm als Gattin versprochen hat. Paris entführt sie, was nicht schwer ist, denn sie hat sich in ihn verliebt, und löst damit, ohne es zu wollen, den Trojanischen Krieg aus. Ethnologisch betrachtet handelte es sich um Brautraub, wie er in vielen Gesellschaften praktiziert und de facto geduldet wurde und bis heute in Hochzeitsbräuchen nachgespielt wird. In einer anderen Sagenversion handelt es sich freilich nur um ein Abbild, das Paris nach Hause führt, während die wirkliche Helena in Sparta verbleibt. Kriegserfolge. Zu großem Ruhm auf dem Schlachtfeld gelangt Paris nicht. Er ist ein guter Bogenschütze, im Kampf Mann gegen Mann versagt er jedoch, so z.B. bei seinem Duell mit Menelaos, dem Gemahl der Helena und König von Sparta, bei dem er von Menelaos fast mit seinem eigenen Helmriemen erdrosselt wird, bis sich Aphrodite selbst einmischt und ihn mit Hilfe einer Wolke in Sicherheit bringt. In der Ilias wird es zwar nicht direkt herausgearbeitet, da die zentralen Heroen andere sind (Hektor, Achill, Ajax, Diomedes), aber auch Paris ist ein guter Kämpfer. Sein Themenbereich und seine Typisierung ist eine andere als die der anderen Heroen, aber er ist und bleibt ein Heros und ist somit den "Normalsterblichen" an Kampfkraft immer noch überlegen. Hektor lobt ihn sogar: "Tor du, schwerlich könnte ein Mann, der billig ist, tadeln, was in der Schlacht du vollbringst, denn du bist tapfer und wehrhaft." Er tadelt ihn daraufhin, dass er zu unwillig zum Kämpfen ist, und sagt, dass es ihn traurig stimme, wenn die Trojaner herablassend von Paris sprächen. Auf diese Rede folgt eine kurze Aristie von Hektor und Paris, das heißt, eine Phase, in der sie sehr schnell einige Griechen töten. Diese kurze Phase des ungehinderten Siegens ist weniger ausgearbeitet als andere Aristien, enthält weniger Details und keine einzige Rede und wird schroff von den Göttern beendet. So wird Paris nur kurz als ebenfalls tapferer Heros eingeführt und darf sich seiner Taten kaum so sehr wie die anderen Heroen rühmen. Dies ist die Darstellung von Paris’ Kampfesleistung in der Ilias. Außerhalb der Ilias gelingt es ihm jedoch, den gefürchteten Achilleus zu töten, der bis auf seine Ferse als unverwundbar gilt. Dies vollbringt Paris mit dem Bogen, wobei ihm Apollon allerdings die Hand führt. Paris’ unglückliches Schicksal. Der griechische Bogenschütze Philoktetes besitzt den Bogen und die Pfeile des Herakles, die mit dem tödlichen Gift der Lernäischen Schlange vergiftet sind. Mit zweien dieser Pfeile verwundet er Paris. Leidend schleppt dieser sich auf den Berg Ida zu Oinone, seiner ersten Ehefrau, und bittet sie, ihn mit einem Gegengift, das sie besitzt, zu retten. Aus Zorn darüber, dass er sie einst Helenas wegen verlassen hat, verweigert sie ihm jegliche Hilfe. Qualvoll erliegt Paris seiner Verletzung. Oinone aber wird von Reue, ihm nicht geholfen zu haben, überwältigt; sie lässt einen Scheiterhaufen schichten und springt zu dem geliebten Toten in die Flammen. Helena fällt als Ehefrau an dessen nächst jüngeren Bruder, Deiphobos. Quellen. Bei weitem nicht alles, was oben referiert ist, steht in der Ilias. Zumeist dürfte der Stoff außerhalb des Kampfes vor Troja auf die Kypria zurückgehen, aber natürlich hat Homer die Gestalt für uns geprägt, vor allem die Ambivalenz zwischen dem manchmal tüchtigen Kämpfer und dem dann wieder verweichlichten Schönling. Manche Züge, etwa der Eris-Apfel, sind offenbar erst später aufgekommen, als sich die griechische Tragödie und vor allem griechische Komödie intensiv mit der Geschichte befassten. Einen starken Einfluss hat auch die Vasenmalerei ausgeübt. Polyglotta Africana. Polyglotta Africana war eine von Sigismund Wilhelm Koelle 1854 verfasste Studie, in der er afrikanische Sprachen miteinander verglich. Sie umfasst etwa 200 Wortlisten (je 296 sorgfältig ausgewählte Einträge) und war damals bahnbrechend. Nach heutiger Klassifikation handelt es sich um etwa 120 Sprachen. Er verwendete ein standardisiertes umfassendes Alphabet und eine standardisierte, konsistente Orthographie. Politische Parteien in Deutschland. Die Bundesrepublik Deutschland ist eine Parteiendemokratie. Die politischen Parteien bestimmen zu einem großen Teil die Politik in Deutschland. Ihre Gründung und ihr Aufbau ist mit einem Parteiengesetz geregelt; die Parteien werden auch in der Verfassung erwähnt. Grundgesetz. Die Aufgaben der Parteien und ihre wichtige Rolle in modernen Staaten werden damit zum ersten Mal in einer deutschen Verfassung anerkannt. Die Aufnahme der Parteien in das Grundgesetz wird als Lehre aus der Weimarer Republik gesehen; tatsächlich aber gab es nach 1945 auch in anderen Ländern den Trend, die Parteien in der Verfassung zu erwähnen. Grund dafür ist die große Bedeutung von Parteien im modernen Staat. Eine Partei muss sich an Regeln halten, dafür kann sie gefördert und nur unter erschwerten Regeln verboten werden. Nur Parteien dürfen an Bundestags- und Landtagswahlen teilnehmen. Daher spricht man von einem Parteienprivileg. Definition im Parteiengesetz. Auf die Parteien finden die Bestimmungen des Bürgerlichen Gesetzbuchs (BGB) Anwendung, soweit nicht Spezialgesetze abweichende Regelungen treffen. Dementsprechend sind sie zivilrechtliche rechtsfähige und nichtrechtsfähige Vereine mit besonderen Rechten und Pflichten. Parteien müssen sich beim Bundeswahlleiter registrieren und dort Satzung, Programm und die Namen der Vorstandsmitglieder hinterlegen. Diese Daten kann dort jedermann kostenlos auf dem Postwege oder per Internet abrufen. Das aktuelle Anschriftenverzeichnis aller registrierten Parteien ist als PDF-Datei online abrufbar. Ihre Arbeit nimmt eine Partei in Deutschland offiziell mit der Gründungsversammlung auf. Programme. Die Parteien geben sich ein Grundsatzprogramm, das in der Regel für mehrere Jahre oder Jahrzehnte Gültigkeit hat. In den Grundsatzprogrammen werden vor allem die Werte und Ideologien festgelegt. Vor den einzelnen Wahlen werden aktuelle und für die kommende Legislaturperiode bestimmte Wahlprogramme oder Regierungsprogramme beschlossen. Programmatische Beschlüsse sind neben der Bundesebene auch auf Landesebene und in den Kommunen üblich. Daneben gibt es zu aktuellen Anlässen auch programmatische Beschlüsse zu einzelnen Themenbereichen, die das Grundsatzprogramm ausfüllen und ergänzen sollen. Die deutschen Parteien haben nach der Wiedervereinigung Deutschlands meist auch neue Grundsatzprogramme verabschiedet. Parteienfinanzierung. In Deutschland erhalten die Parteien neben Spenden, Mitgliedsbeiträgen und sonstigen Einnahmen auch staatliche Zuwendungen. Entwicklung der Parteien in Deutschland. Nachdem in der ersten Bundestagswahl viele Parteien in den Bundestag gewählt wurden, befürchtete man teilweise wieder Weimarer Verhältnisse (Parteienzersplitterung). Bereits in der ersten Legislaturperiode nahm die Zahl der Fraktionen ab. In der Folge konzentrierten sich die Stimmen mit der Zeit fast vollständig auf die drei großen Fraktionen (CSU, SPD, FDP). Erst in den 1980ern schaffte mit den Grünen wieder eine vierte Partei den Einzug in den Bundestag. Seit der Wiedervereinigung ist mit der PDS bzw. deren Nachfolgerin Die Linke eine weitere Partei im Bundestag vertreten. Die FDP scheiterte bei der Bundestagswahl 2013 erstmals an der 5-Prozent-Sperrklausel, wodurch wieder nur vier Fraktionen im Bundestag vertreten sind. Parteienkritik. In Deutschland wird oft Kritik an der Macht und Arbeit der Parteien geäußert. Diese Kritik wird vielfach mit dem politischen Schlagwort der Parteienverdrossenheit beschrieben (siehe auch Politikverdrossenheit). Parteien im 18. Deutschen Bundestag. Im Deutschen Bundestag sind derzeit vier Fraktionen und fünf Parteien vertreten: "SPD", "CDU", "CSU", "Die Linke" und "Bündnis 90/Die Grünen". Nahezu allen einflussreichen Parteien stehen – mehr oder weniger selbständig – Jugendorganisationen zur Seite. Die wichtigsten sind die Junge Union (CDU/CSU), die Jusos (SPD), Linksjugend Solid (Die Linke) und die Grüne Jugend (Bündnis 90/Die Grünen). CDU/CSU. Die Christlich Demokratische Union Deutschlands (CDU) wurde 1945 als überkonfessionelle Nachfolgepartei bürgerlicher und religiös geprägter Parteien (Zentrumspartei, DDP, DVP, DNVP u. a.) gegründet. Sie ist sowohl der christlichen Soziallehre als auch dem Konservatismus zugeneigt und deckt damit ein christlich-soziales, konservatives und liberales Spektrum ab. Im Zuge der Wiedervereinigung ging die CDU (Ost) am 1. Oktober 1990 in die CDU auf. Die CDU (Ost) verstand sich noch bis 1989 zwangsweise als Blockpartei in der DDR und als eine „Partei des Sozialismus“. Auch die DDR-Blockpartei DBD (Demokratische Bauernpartei Deutschlands) propagierte bis 1989 in wesentlichen Punkten die SED-Linie und schloss sich nach der Wiedervereinigung der CDU an. Mit der Ausnahme Bayerns ist die CDU im gesamten Bundesgebiet vertreten. Die Christlich-Soziale Union in Bayern (CSU) hat eine eher konservativere Ausrichtung als die CDU, tritt aber nur in Bayern zur Wahl an. Dafür verzichtet die CDU dort auf einen eigenen Landesverband. Sie bildet mit der CDU im Deutschen Bundestag eine Fraktionsgemeinschaft, zusammen werden sie „die Union“ oder auch „Unionsparteien“ genannt. SPD. Die Sozialdemokratische Partei Deutschlands (SPD) existiert einschließlich ihrer Vorläuferorganisationen seit 1863 und ist damit die älteste bestehende politische Partei Deutschlands. Sie hat die Tradition der Sozialdemokratie begründet. Nach Verbot in der Zeit des Nationalsozialismus wurde sie 1945 wiedergegründet. Sie versteht sich seit ihrem Godesberger Programm von 1959 auch offiziell nicht mehr nur als Arbeiterpartei, sondern als eine Volkspartei, die für breite Schichten wählbar sein will. Ihr Wahlspruch lautet „Freiheit, Gerechtigkeit und Solidarität“. Die Linke. Die Linke entstand am 16. Juni 2007 aus der Fusion der eher in Ostdeutschland verankerten Linkspartei.PDS (früher: SED) und der westdeutsch geprägten WASG. Im Jahr 2005 wurde aus Protest gegen die Politik der rot-grünen Bundesregierung die Partei WASG gegründet, auf Initiative von linken Gewerkschaftern und regierungskritischen vormaligen SPD-Mitgliedern. Für die Bundestagswahl 2005 öffnete die PDS ihre Wahllisten für WASG-Kandidaten. Aus diesem Grund nahm die PDS eine Umbenennung in Linkspartei.PDS vor. Inhaltlich berief sich die Linkspartei.PDS auf demokratisch-sozialistische Ideale und beanspruchte für sich, das politisch linke demokratische Spektrum in Deutschland abzudecken. Bündnis 90/Die Grünen. Die "Grünen" entstanden als bundesweite Partei 1980 aus Teilen der Neuen Sozialen Bewegungen, beispielsweise der damaligen Frauenbewegung, der Friedens- und der Ökologiebewegung der 1970er Jahre. 1983 zogen sie erstmals in den Bundestag ein. 1990 schlossen sie sich mit den ostdeutschen Grünen und 1993 mit Bündnis 90 zu Die Grünen zusammen. Sie sind stärker in den westlichen Bundesländern vertreten. 1985 waren sie (in Hessen) erstmals an einer Landesregierung beteiligt, danach noch in vielen weiteren Ländern und schließlich, 1998 bis 2005, auch an der Bundesregierung. Parteien außerhalb des Deutschen Bundestags. Neben den im Bundestag vertretenen Parteien gibt es zahlreiche regionale und Kleinparteien, deren politischer Einfluss auf Bundesebene durch die Fünf-Prozent-Hürde in der Regel auf außerparlamentarische Aktivitäten beschränkt ist. Für regional starke Parteien besteht die Möglichkeit, über Direktmandate in den Bundestag einzuziehen. Bei mindestens drei Direktmandaten ist die Partei von der Fünf-Prozent-Hürde ausgenommen. Seit Einführung dieser Regelung gelang dies jedoch nur der Deutschen Partei, die 1957 über sechs Direktmandate bei 3,4 % der Zweitstimmen 17 Mandate erreichte, sowie der PDS, die 1994 mit vier Direktmandaten die Sperrklausel übersprang und bei 4,4 % Zweitstimmen 30 Mandate bekam, 2002 jedoch nur zwei Direktmandate erreichte und entsprechend nur mit zwei Sitzen im Bundestag vertreten war. Bei der Bundestagswahl 2013 traten 30 Parteien, bei der Europawahl 2014 25 Parteien und Sonstige Politische Vereinigungen an. Neben den vier Bundestagsparteien zogen neun weitere Parteien ins Europaparlament ein. Drei weitere Parteien bzw. Wählergruppen sind in Landesparlamenten vertreten. Freie Demokratische Partei. Die Freie Demokratische Partei (FDP) wurde 1948 gegründet und beruft sich in ihrem Selbstverständnis auf die Tradition des deutschen Liberalismus, der sich bereits 1861 mit der Deutschen Fortschrittspartei in Preußen als erste politische Partei Deutschlands im heute verstandenen Sinne organisiert hatte. Die moderne FDP steht insbesondere in Wirtschafts-, aber auch in Bürgerrechtsfragen für mehr Freiheiten und Verantwortung des Einzelnen sowie für eine stärkere Zurückhaltung des Staates – insbesondere in wirtschaftlichen Fragen. Sie war mit insgesamt 42 Jahren am längsten an der Regierungsverantwortung der Bundesrepublik beteiligt, als kleinerer Koalitionspartner sowohl der CDU/CSU als auch der SPD. Vor der Wiedervereinigung Deutschlands vereinigte sich die FDP 1990 mit der LDPD (Liberal-Demokratische Partei Deutschlands) und der NDPD (Nationaldemokratische Partei Deutschlands der DDR), die noch bis 1989 als Blockparteien an der Seite der Sozialistischen Einheitspartei Deutschlands politisch agierten. Bei der Bundestagswahl 2013 verfehlte die FDP mit 4,8 % die Fünf-Prozent-Hürde bei Bundestagswahlen und ist somit erstmals in ihrer Geschichte nicht mehr im Bundestag vertreten. Alternative für Deutschland. Zweitstärkste nicht im Parlament vertretene Partei bei den Bundestagswahlen 2013 wurde die Alternative für Deutschland (AfD), die an der 5-%-Hürde mit einem amtlichen Zweitstimmenergebnis von 4,7 % scheiterte. Die AfD wurde am 6. Februar 2013 gegründet, ihre erste öffentliche Versammlung hatte sie am 11. März 2013 in Oberursel (Taunus). Sie steht dem Euro kritisch gegenüber und wird deshalb in den Medien oft als „Anti-Euro-Partei“ bezeichnet. Des Weiteren werden die Rückverlagerung von Kompetenzen von der EU an die Mitgliedstaaten und mehr direkte Demokratie gefordert. Einige weitere Themen schneidet das Programm kurz an, so etwa eine Steuerreform nach dem Vorbild Paul Kirchhofs sowie eine großzügigere Asylpolitik auf Kosten einer restriktiveren Einwanderungspolitik. Eingeordnet wird sie häufig als konservativ und/oder wirtschaftsliberal. Bestimmte politische Forderungen, Formulierungen und Mitglieder werden in Kommentaren und Analysen einiger politischer Beobachter in Forschung und Medien aber auch als rechtspopulistisch kategorisiert. Im Mai 2014 gelang es der Partei, mit sieben Abgeordneten in das Europäische Parlament einzuziehen. Im September 2014 zog sie mit jeweils rund 10 Prozent der Wählerstimmen in die Landtage von Brandenburg, Sachsen und Thüringen ein. Piratenpartei. Drittstärkste nicht im Parlament vertretene Partei bei den Bundestagswahlen 2013 wurde die Piratenpartei Deutschland. Die Piraten entstanden am 10. September 2006 nach schwedischem Vorbild als Protestpartei gegen die von ihr beklagte zunehmende Überwachung und Einschränkung u. a. im Internet durch den Staat und die Urheberrechts-Verwerter. Sie konzentrieren sich auf die Themen Informationsfreiheit, Bürgerrechte, freie Bildung und „Transparenz statt Korruption“. 2009 war durch den Übertritt des SPD-Abgeordneten Jörg Tauss zeitweise ein Mitglied der Piratenpartei im Bundestag vertreten. Bei der Wahl zum Abgeordnetenhaus von Berlin 2011 gelang den Piraten erstmals der Einzug in ein Landesparlament. Im Jahr 2012 konnten sie Mandate bei allen drei Landtagswahlen, im Saarland, in Schleswig-Holstein und in Nordrhein-Westfalen erringen. Rechte und rechtsextreme Parteien. In den ersten Wahlperioden gab es im Bundestag rechtskonservative Parteien wie die Deutsche Reichspartei (1950), die Deutsche Partei und den Bund der Heimatvertriebenen und Entrechteten. Bis 1961 war die "Deutsche Partei" durch Direktmandate im Bundestag vertreten, da ihr die CDU Wahlkreise überließ. Nach 1961 wurden Parteien rechts der Union im politischen Spektrum nicht mehr in den Deutschen Bundestag gewählt. Auf Landesebene konnten Parteien des rechten Lagers zeitweise in Parlamente einziehen. Die Nationaldemokratische Partei Deutschlands (NPD) wurde 1964 gegründet und entstand im Wesentlichen aus den verschiedenen rechtskonservativen und nationalliberalen Parteien und Gruppierungen jener Zeit. Ende der 60er Jahre war sie für jeweils eine Wahlperiode in sieben der damals zehn westdeutschen Landesparlamente vertreten. Nach der deutschen Wiedervereinigung gelangen ihr wieder vereinzelt Erfolge bei Wahlen, so dass sie derzeit in Mecklenburg-Vorpommern im Landtag vertreten ist. Ende 2010 fusionierte die NPD mit der ebenfalls rechtsextremen und teilweise bei Landtagswahlen erfolgreichen DVU, der Zusammenschluss wurde vom Landgericht München im Januar 2011 allerdings als rechtlich unwirksam gestoppt. Die Republikaner (REP) wurden 1983 von ehemaligen CSU-Abgeordneten gegründet und konnten in den 80er Jahren ins Europaparlament und ins Abgeordnetenhaus von (West-)Berlin sowie in den 90er Jahren in den Landtag Baden-Württembergs einziehen. Drei Politiker, die als Unionsvertreter in den Bundestag eingezogen waren, wechselten zu den Republikanern, zwei von 1983 bis 1985 und einer von 1993 bis 1994. Von 2001 bis 2004 war die rechtspopulistische Partei Rechtsstaatlicher Offensive (auch Schill-Partei) in der Bürgerschaft von Hamburg vertreten und stellte dort zusammen mit CDU und FDP die Landesregierung. Weiterhin gibt es zahlreiche vorrangig regional aktive Kleinparteien und Wählergruppen, beispielsweise die in den Neuen Bundesländern aktive, rechtskonservative Deutsche Soziale Union (DSU), die im Bremer Landtag vertretene Wählervereinigung Bürger in Wut, die in Nordrhein-Westfalen tätige Bürgerbewegung pro NRW oder die aus dem Umfeld der NPD bestehende Bürgerinitiative Ausländerstopp in München und Nürnberg. Linke und linksextreme Parteien. Unter anderem im 19. Jahrhundert blieben linke Parteien und Gruppen über relativ große Zeiträume hinweg aus Parlamenten ausgegrenzt, waren verboten oder infolge eines Zensuswahlrechts in der Relation zu den tatsächlichen Mehrheitsverhältnissen in der Bevölkerung nur unterrepräsentiert in den Kammerparlamenten vertreten. Dies galt insbesondere für sozialistisch inspirierte Zusammenschlüsse, die gerade im 19. Jahrhundert, aber auch bis in die Gegenwart hinein revolutionäre Umwälzungen anstrebten und teilweise auch umsetzten. Entsprechend waren diese Gruppen auch immer vor Ort aktiv an Revolutionen, Aufständen, Revolten und anderen sozialen (Klassen-)Kämpfen über die gesamte Neuzeit hinweg beteiligt oder führten diese an. Heute existieren neben der Partei Die Linke, die im Bundestag vertreten ist, viele außerparlamentarische politische Gruppierungen mit unterschiedlicher Wirkungskraft, die sich auf linke Positionen beziehen. Die inhaltlichen Vorstellungen darüber, was linke Politik mit welchen Mitteln anstrebt, sind sehr heterogen. Die Kommunistische Partei Deutschlands (KPD) war eine kommunistische Partei in Deutschland, die am 1. Januar 1919 gegründet wurde. Sie ging aus mehreren linksrevolutionären Gruppierungen hervor, die sich nach dem Ersten Weltkrieg im Verlauf der Novemberrevolution von 1918 vereinten. Nach dem Zweiten Weltkrieg gründete sich die KPD unter Führung des späteren DDR-Staatsratsvorsitzenden Walter Ulbricht auf gesamtdeutscher Ebene neu, nach der Teilung in zwei deutsche Staaten arbeitete die KPD auch in der Bundesrepublik zunächst weiter, bis sie 1956 verboten wurde. In Reaktion darauf gründete sich 1968 auf Initiative der DDR-Staatspartei SED die Deutsche Kommunistische Partei (DKP). Da sie in erheblichem Umfange politische Positionen des damaligen Ostblocks wie die gewaltsame Niederschlagung des Volksaufstands vom 17. Juni 1953 in der DDR und des Prager Frühlings 1968, sowie den Bau der Mauer verteidigte und den sowjetischen Einmarsch in Afghanistan 1979 begrüßte, konnte sie in der Bundesrepublik nie nennenswerte Wahlergebnisse erzielen. Im Januar 1990 gründete sich unter dem Namen Kommunistische Partei Deutschlands (Kurzbezeichnung: KPD) in Ost-Berlin eine neue Partei. Sie wird in einigen Publikationen als „KPD-Ost“ oder „KPD (Rote Fahne)“ bezeichnet, um sie von anderen Gruppen gleichen Namens abzugrenzen. Die Partei wird vom Landesamt für Verfassungsschutz in Brandenburg als linksextremistisch eingeschätzt. Daneben finden sich mit der Marxistisch-Leninistischen Partei Deutschlands, der Partei für Soziale Gleichheit, Sektion der Vierten Internationale, und anderen noch ein weites Spektrum linker, linksradikaler und linksextremer, politisch jedoch weitgehend erfolgloser Parteien. Regionale Parteien und Parteien ethnischer Minderheiten. Ein Sonderfall ist der Landtag von Schleswig-Holstein, wo aufgrund einer Sonderregelung für die dänische Minderheit der Südschleswigsche Wählerverband gesetzlich von der Fünf-Prozent-Hürde befreit wurde. Die Regelung gilt auch für den Bundestag, allerdings trat der SSW seit den 50er Jahren nicht mehr zu Bundestagswahlen an. Bei der Wahl zum Landtag Brandenburg ist die Minderheit der Sorben ebenfalls von der Fünf-Prozent-Hürde befreit. Die sorbische Lausitzer Allianz trat bisher jedoch nicht zur Landtagswahl an. In Sachsen, ebenfalls Siedlungsgebiet der Sorben, ist hingegen keine Befreiung von der Sperrklausel vorgesehen. Die Partei Die Friesen sieht sich als Vertreter der Minderheit der Friesen, ist in Niedersachsen jedoch auch nicht von der Sperrklausel befreit. Die Bayernpartei als regionale Partei war 1949–1953 im Bundestag und 1950–1966 im Bayerischen Landtag sowie von 1954 bis 1957 und 1962 bis 1966 in der Bayerischen Staatsregierung vertreten. Seit 1966 hat sie nur noch Sitze in Kommunalparlamenten und in Bezirkstagen. Andere Regionalparteien (z. B. Die Westfalen) sind praktisch ohne Relevanz. Kommunalparteien und Wählergruppen. Bei den Wahlen zu Kommunalparlamenten, teilweise auch bei Landtagswahlen, kandidieren neben Parteien auch unabhängige Wählergruppen. Diese sind teilweise in der Bundesvereinigung Freie Wähler organisiert. Bei der Landtagswahl in Bayern 2008 zog als erster Landesverband die Freien Wähler Bayern in ein Landesparlament ein. Die Bundesvereinigung ist seit 2014 mit einer Abgeordneten im Europaparlament vertreten. Im September 2014 zog die unabhängige Freie Wähler in den Brandenburgischen Landtag ein. Interessenparteien. Viele der in Deutschland existierenden Kleinparteien sind Interessenparteien und politisch weitgehend bedeutungslos. Diese konzentrieren sich häufig auf eine bestimmte Zielgruppe – beispielsweise die Allianz Graue Panther Deutschland oder die Rentner Partei Deutschland als Partei von Rentnern oder die im Europaparlament vertretene Familien-Partei Deutschlands als Partei von Eltern – oder einen eingegrenzten Themenbereich – zum Beispiel die ebenfalls im Europaparlament vertretene Tierschutzpartei. Die Ökologisch-Demokratische Partei (ÖDP) entstand 1982 als konservative Abspaltung der Grünen. Sie hat ihren Schwerpunkte in Bayern und Baden-Württemberg und ist seit 2014 im Europäischen Parlament vertreten. Einige Parteien wenden sich explizit an religiöse Menschen. Dies sind zum Beispiel Bündnis C – Christen für Deutschland oder Bündnis für Innovation und Gerechtigkeit für Muslime. Weitere Parteien. Weiterhin gibt es in Deutschland mehrere Parteien, die durch radikale, teilweise abstruse politische Forderungen auffallen. Diese sind zum Teil Spaßparteien. Die PARTEI zeigt klar satirische Züge und verschreibt sich als einzige Partei offen dem Populismus. Seit 2014 ist sie im Europäischen Parlament vertreten. Die APPD versteht sich als „Anwalt des Pöbels und Sozialschmarotzer“ und fordert u. a. das Recht auf Arbeitslosigkeit bei vollem Lohnausgleich und die Abschaffung der Schulpflicht. Verbote. In der Geschichte der Bundesrepublik gab es zwei Parteiverbote: Gegen die Sozialistische Reichspartei 1952 und die Kommunistische Partei Deutschlands 1956. Ein NPD-Verbotsverfahren scheiterte 2003 vor allem wegen Koordinationsfehlern beim Bundesamt für Verfassungsschutz und den Verfassungsschutzämtern der Länder, da V-Leute auch in der Führungsebene der Partei tätig waren. Seit dem Jahr 2012 wird ein erneutes Verbotsverfahren der NPD geplant. Der Bundesrat hat in seiner Sitzung am 14. Dezember 2012 einen neuen Anlauf für ein Verbot der NPD genommen. Er beschloss nahezu einstimmig, beim Bundesverfassungsgericht in Karlsruhe erneut eine Entscheidung über die Frage der Verfassungswidrigkeit der NPD zu beantragen. Am 3. Dezember 2013 wurde das Verbot der NPD erneut beantragt, siehe NPD-Verbotsverfahren (ab 2013). Planetarischer Nebel. Ein planetarischer Nebel ist ein astronomisches Objekt aus der Kategorie der Nebel und besteht aus einer Hülle aus Gas und Plasma, das von einem alten Stern am Ende seiner Entwicklung abgestoßen wird. Der Name ist historisch bedingt und irreführend, denn solche Nebel haben nichts mit Planeten zu tun. Die Bezeichnung stammt daher, dass sie im Teleskop meist kugelförmig erscheinen und aussehen wie ferne Gasplaneten. Planetarische Nebel existieren meist nicht länger als einige zehntausend Jahre. Im Vergleich zu einem durchschnittlichen „Sternenleben“, das mitunter mehrere Milliarden Jahre dauert, ist diese Zeitspanne sehr kurz. In unserer Galaxis, dem Milchstraßensystem, sind rund 1.500 planetarische Nebel bekannt. Planetarische Nebel spielen eine entscheidende Rolle in der chemischen Evolution der Galaxis, da das abgestoßene Material die interstellare Materie mit schweren Elementen, wie Kohlenstoff, Stickstoff, Sauerstoff, Calcium und anderen Reaktionsprodukten der stellaren Kernfusion anreichert. In anderen Galaxien sind planetarische Nebel manchmal die einzigen beobachtbaren Objekte, die genug Information liefern, um etwas über die chemische Zusammensetzung zu erfahren. Mit dem Hubble-Weltraumteleskop wurden Aufnahmen vieler planetarischer Nebel angefertigt. Ein Fünftel der Nebel weist eine kugelförmige Gestalt auf. Die Mehrzahl ist jedoch komplex aufgebaut und weist unterschiedliche Formen auf. Die Mechanismen der Formgebung sind noch nicht genau bekannt. Mögliche Ursachen könnten Begleitsterne, Sternwinde oder Magnetfelder sein. Beobachtungsgeschichte. Planetarische Nebel sind im Allgemeinen schwach leuchtende Objekte und deshalb mit dem bloßen Auge nicht beobachtbar. Der erste entdeckte planetarische Nebel war der Hantelnebel im Sternbild Fuchs. Er wurde 1764 von Charles Messier entdeckt und wird in seinem Katalog mit dem Index M 27 aufgeführt. Durch die relativ geringe optische Auflösung der damaligen Teleskope sah ein planetarischer Nebel wie eine winzige neblige Scheibe aus. Da der 1781 entdeckte Planet Uranus einen ähnlichen Anblick bot, führte sein Entdecker Wilhelm Herschel 1785 für diese Nebel die bis heute beibehaltene Bezeichnung ein. Die Zusammensetzung planetarischer Nebel blieb unbekannt, bis in der Mitte des 19. Jahrhunderts die ersten spektroskopischen Beobachtungen durchgeführt wurden. William Huggins war einer der ersten Astronomen, die das Lichtspektrum astronomischer Objekte studierten, indem er mit Hilfe eines Prismas ihr Licht spektral zerlegte. Seine Beobachtungen von Sternen zeigten ein durchgehendes, also kontinuierliches Spektrum mit einigen dunklen Absorptionslinien. Wenig später fand er heraus, dass einige neblige Objekte, wie der Andromedanebel, ein ganz ähnliches Spektrum aufwiesen. Diese Nebel stellten sich später als Galaxien heraus. Als Huggins jedoch den Katzenaugennebel beobachtete, fand er ein ganz anderes Spektrum vor. Dieses war nicht kontinuierlich mit ein paar Absorptionslinien, sondern wies lediglich einige Emissionslinien auf. Die hellste Linie hatte eine Wellenlänge von 500,7 Nanometern. Dies stand in keinem Zusammenhang mit irgendeinem bekannten chemischen Element. Zunächst wurde daher angenommen, es handle sich um ein unbekanntes Element, das daraufhin den Namen Nebulium erhielt. 1868 hatte man bei der Untersuchung des Spektrums der Sonne das bis dahin unbekannte Element Helium entdeckt. Obwohl man bereits kurz nach dieser Entdeckung das Helium auch in der Erdatmosphäre nachweisen und isolieren konnte, fand man Nebulium nicht. Anfang des 20. Jahrhunderts schlug Henry Norris Russell vor, dass es sich nicht um ein neues Element handele, das die Wellenlänge 500,7 nm hervorrief, sondern eher ein bekanntes Element in unbekannten Verhältnissen. In den 1920er Jahren wiesen Physiker nach, dass das Gas in den planetarischen Nebeln eine extrem niedrige Dichte besitzt. Elektronen können in den Atomen und Ionen metastabile Energieniveaus erreichen, die sonst bei höheren Dichten durch die ständigen Kollisionen nur kurzzeitig existieren können. Elektronenübergänge im Sauerstoff führen zu einer Emission bei 500,7 nm. Spektrallinien, die nur in Gasen mit sehr niedrigen Dichten beobachtet werden können, werden verbotene Linien genannt. Bis Anfang des 20. Jahrhunderts ging man davon aus, dass planetarische Nebel die Vorstufen von Sternen darstellen. Man glaubte, dass sich die Nebel unter der eigenen Schwerkraft zusammenzögen und im Zentrum einen Stern bildeten. Spätere spektroskopische Untersuchungen zeigten jedoch, dass sich alle planetarischen Nebel ausdehnen. So fand man heraus, dass die Nebel die abgestoßenen äußeren Schichten eines sterbenden Sterns darstellen, der als sehr heißes, aber lichtschwaches Objekt im Zentrum zurückbleibt. Gegen Ende des 20. Jahrhunderts half die fortschreitende Technik, die Entwicklung der planetarischen Nebel besser zu verstehen. Durch Weltraumteleskope konnten Astronomen auch emittierte elektromagnetische Strahlung außerhalb des sichtbaren Spektrums untersuchen, das wegen der Erdatmosphäre durch bodengebundene Observatorien nicht beobachtet werden kann. Durch Beobachtung auch der infraroten und ultravioletten Strahlungsanteile der planetarischen Nebel kann man deren Temperatur, Dichte und chemische Zusammensetzung viel genauer bestimmen. Mit Hilfe von CCD-Techniken lassen sich die Spektrallinien viel präziser bestimmen und auch extrem schwache Linien sichtbar machen. Planetarische Nebel, die in bodengebundenen Teleskopen einfache und regelmäßige Strukturen aufwiesen, zeigten infolge der hohen Auflösung des Hubble-Weltraumteleskops sehr komplexe Gestalten. Entstehung. Planetarische Nebel stellen das Endstadium eines durchschnittlichen Sterns wie unserer Sonne dar. Ein typischer Stern weist weniger als die doppelte Sonnenmasse auf. Seine Energie wird im Kern erzeugt, in dem die Kernfusion von Wasserstoff zu Helium abläuft. Der dadurch entstehende Strahlungsdruck verhindert, dass der Stern durch seine eigene Gravitation kollabiert. Es stellt sich ein stabiler Zustand ein, der über Milliarden von Jahren andauern kann. Nach mehreren Milliarden Jahren sind die Wasserstoffvorräte im Kern verbraucht. Der Strahlungsdruck lässt nach und der Kern wird durch die Gravitationskräfte komprimiert und heizt sich auf. Die Temperatur im Kern steigt in dieser Phase von 15 Millionen auf 100 Millionen K an. Im Kern fusioniert nun Helium zu Kohlenstoff und Sauerstoff. In der „Schale“ um den Kern fusioniert Wasserstoff zu Helium. Als Folge dehnt sich die Hülle des Sterns stark aus, er tritt in das Stadium eines Roten Riesen auf dem asymptotischen Riesenast ein. Ringnebel in der Leier (M57) Die Heliumfusion ist sehr temperaturempfindlich. Die Reaktionsgeschwindigkeit ist proportional zur 30. Potenz der Temperatur und verdoppelt sich daher bei einer Temperaturerhöhung von nur 2,3 %. Dies macht den Stern sehr instabil – eine kleine Erhöhung der Temperatur führt sofort zu einem erheblichen Anstieg der Reaktionsgeschwindigkeit, die erhebliche Energien freisetzt, wodurch die Temperatur weiter ansteigt. Die Schichten, in denen gerade die Heliumfusion stattfindet, dehnen sich mit starker Geschwindigkeit aus und kühlen sich dadurch wieder ab, wodurch die Reaktionsrate wieder herabgesetzt wird. Die Folge ist eine starke Pulsation, die manchmal stark genug ist, um die ganze Sternatmosphäre in den Weltraum zu schleudern. Das Gas der Sternhülle dehnt sich anfangs mit einer Geschwindigkeit von 20 bis 40 Kilometern pro Sekunde aus und besitzt eine Temperatur von etwa 10.000 K. Dieser vergleichsweise langsame Sternwind bildet die Hauptmasse des Nebels. In dem Maße, in dem der Stern nach und nach seine äußeren Hüllen verliert und den immer heißeren Kern freilegt, wechselt seine Farbe von orange über gelb bis hin zu weiß und schließlich blau – ein sichtbares Zeichen dafür, dass seine Oberflächentemperatur auf über 25.000 K ansteigt. Wenn die freigelegte Oberfläche rund 30.000 K heiß ist, werden genug hochenergetische ultraviolette Photonen ausgesendet, um das zuvor ausgeworfene Gas zu ionisieren. Die Gashülle wird dadurch als planetarischer Nebel sichtbar. Der Stern im Zentrum hat das Stadium eines Weißen Zwerges erreicht. Dauer der Sichtbarkeit des Nebels. Die ausgestoßenen Gase der planetarischen Nebel bewegen sich mit einer Geschwindigkeit von einigen Kilometern pro Sekunde vom Zentrum weg. Der Sternwind flaut im Laufe der Zeit vollständig ab, und beim Gas tritt eine Rekombination ein, wodurch es unsichtbar wird. Für die meisten planetarischen Nebel beträgt die Zeitspanne zwischen Formation und Rekombination ungefähr 10.000 Jahre. Galaktische Erzeuger von Elementen. Planetarische Nebel spielen eine wichtige Rolle in der Entwicklung einer Galaxie. Das frühe Universum bestand fast vollständig aus Wasserstoff und Helium. Erst durch die in den Sternen ablaufende Nukleosynthese wurden die schwereren Elemente erzeugt, die in der Astrophysik auch Metalle genannt werden. Planetarische Nebel bestehen zu nennenswerten Teilen auch aus Elementen wie Kohlenstoff, Stickstoff und Sauerstoff, mit denen sie die interstellare Materie anreichern. Nachfolgende Sterngenerationen bestehen zu einem geringen Anteil aus diesen schwereren Elementen, der einen Einfluss auf die Sternentwicklung hat. Die Planeten bestehen zu einem großen Teil aus schweren Elementen. Neben den planetarischen Nebeln stoßen auch Supernovaexplosionen in der Endphase massereicher Sterne schwere Elemente aus. Physikalische Eigenschaften. Typische planetarische Nebel bestehen zu etwa 70 % Wasserstoff und 28 % Helium. Den restlichen Anteil bilden hauptsächlich Kohlenstoff, Stickstoff und Sauerstoff sowie Spuren anderer Elemente. Sie haben einen Durchmesser von rund einem Lichtjahr und bestehen aus extrem verdünntem Gas mit einer Dichte von rund 1.000 Teilchen pro Kubikzentimeter. Die höchste Dichte besitzen „junge“ planetarische Nebel mit bis zu einer Million Teilchen pro Kubikzentimeter. Im Laufe der Zeit führt die Ausdehnung des Nebels zur Verringerung seiner Dichte. a>) Der Stern im Zentrum heizt durch seine Strahlung die Gase auf eine Temperatur von rund 10.000 K auf. Entgegen den Erwartungen ist die Gastemperatur meist höher, je weiter man sich vom Zentrum weg bewegt. Das liegt daran, dass energiereiche Photonen seltener absorbiert werden als weniger energiereiche. In den Randbereichen des Nebels sind die gering energetischen Photonen bereits absorbiert worden und die übrig gebliebenen hochenergetischen Photonen führen dann zu der stärkeren Temperaturerhöhung. Planetarische Nebel kann man entweder mit „materiebegrenzt“ oder „strahlungsbegrenzt“ beschreiben. Im ersteren Fall ist so viel Materie um den Stern, dass alle ultravioletten Photonen, die emittiert worden sind, absorbiert werden und so der Nebel von neutralem Gas umgeben ist. Im anderen Fall wird die Strahlung durch die Materie begrenzt. Dabei werden genügend Photonen emittiert, um das gesamte Gas des Nebels zu ionisieren. Nebel, die Regionen aus ionisiertem Wasserstoff enthalten, nennt man Emissionsnebel. Sie bestehen zum größten Teil aus einem Plasma, in dem ionisierter Wasserstoff (Protonen) und freie Elektronen vorkommen. Anders als bei einem „einfachen“ Gas erhält der Nebel durch das Plasma charakteristische Eigenschaften wie Magnetfeld, Plasma-Doppelschichten, Synchrotronstrahlung und Plasmainstabilitäten. Anzahl und Vorkommen. Derzeit sind rund 1.500 planetarische Nebel in unserer Galaxis, die aus etwa 200 Milliarden Sternen besteht, bekannt. Wenn man die sehr kurze Existenz der Nebel in Relation zum gesamten „Sternleben“ sieht, wird die geringe Anzahl verständlich. Man findet sie meist um die Ebene der Milchstraße, mit der größten Konzentration im Galaktischen Zentrum. Es sind nur ein oder zwei planetarische Nebel in Sternhaufen bekannt. Vor kurzem hat eine systematische fotografische Durchmusterung des Himmels die Anzahl der bekannten planetarischen Nebel drastisch erhöht. Obwohl CCDs den chemischen Film in der modernen Astronomie bereits ersetzt haben, wurde dabei ein "Kodak-Technical-Pan"-Film eingesetzt. In Kombination mit einem speziellen Filter für die Isolation der typischen Wasserstofflinien, die in allen planetarischen Nebeln vorkommen, konnten auch sehr lichtschwache Objekte nachgewiesen werden. Gestalt. Im Allgemeinen haben planetarische Nebel eine symmetrische und ungefähr sphärische Gestalt, es existieren jedoch auch sehr unterschiedliche und komplexe Formen. Ungefähr 10 % sind stark bipolar ausgeprägt, einige sind asymmetrisch; ein Exemplar ist – von uns aus gesehen – sogar rechteckig. Die Ursachen der extremen Formenvielfalt sind bislang nicht genau bekannt, sie werden derzeit kontrovers diskutiert. Gravitationswirkungen von Begleitersternen könnten dazu beitragen. Eine andere Möglichkeit wäre, dass massereiche Planeten den Materiefluss stören, wenn sich der Nebel ausformt. Im Januar 2005 wurde erstmals ein Magnetfeld um die zentralen Sterne zweier planetarischer Nebel gefunden. Man nimmt an, dass dieses Feld teilweise oder vollständig für die außergewöhnliche Struktur verantwortlich ist. 2011 fotografierte das Hubble-Weltraumteleskops einen planetarischen Nebel im Sternbild Pfeil, den ‚Necklace Nebula’ (‚Halsband-Nebel’), der aus einem Ring leuchtender Gasknoten besteht, die wie Diamanten eines Colliers funkeln. Aktueller Forschungsgegenstand. a> ist der jüngste bisher beobachtete planetarische Nebel Ein Hauptproblem bei der Erforschung planetarischer Nebel besteht darin, dass man ihre Entfernung nur schwer bestimmen kann. Bei relativ nahen planetarischen Nebeln ist die Entfernungsbestimmung mit Hilfe der Parallaxe möglich. Wegen der geringen Zahl naher Nebel und der Formenvielfalt ist daraus allerdings kein Vergleichsmaßstab ableitbar. Bei bekannter Entfernung lässt sich durch jahrelange Beobachtungen die Expansionsgeschwindigkeit des Nebels senkrecht zur Beobachtungsrichtung bestimmen. Durch die spektroskopische Untersuchung des Dopplereffekts erhält man auch die Expansionsgeschwindigkeit in Beobachtungsrichtung. Der Anteil der schweren Elemente in planetarischen Nebeln kann durch zwei Methoden bestimmt werden, wobei die Ergebnisse manchmal stark voneinander abweichen. Einige Astronomen meinen, dies könnte auf Temperaturschwankungen innerhalb der Nebel zurückzuführen sein. Andere sind hingegen der Auffassung, dass die Unterschiede zu groß sind, um sie mit diesem Temperatureffekt zu erklären und führen die Abweichungen auf kalte Gebiete mit sehr wenig Wasserstoff zurück. Solche Gebiete sind jedoch bisher nicht beobachtet worden. Psychoanalytische Filmtheorie. Als Psychoanalytische Filmtheorie bezeichnet man eine Strömung der Filmwissenschaft bzw. Filmtheorie, welche die Methode der Psychoanalyse auf das Phänomen des Films und des Kinos anwendet. Einführung. Mitte der 1970er Jahre entwickelte sich, ausgehend von Frankreich, eine theoretische Auseinandersetzung mit dem Medium Kino, dessen Grundlage eine Mischung aus Psychoanalyse, Semiotik, Strukturalismus und Marxismus bildete. Im Mittelpunkt dieser filmtheoretischen Debatte stand das Zuschauersubjekt sowie dessen Beziehung zum Kino. Ausgangsbasis bildeten die Überlegungen des französischen Theoretikers Jean Louis Baudry sowie die filmtheoretischen Schriften von Christian Metz, dessen "Le signifiant imaginaire. Psychoanalyse et cinéma" (1977, dt.: "Der imaginäre Signifikant. Psychoanalyse und Kino") die Diskussion erst richtig eröffnete. Metz unternimmt den Versuch, psychoanalytische Termini – insbesondere der Theorie Jacques Lacans – auf den Bereich der Kinematographie zu übertragen. Psychoanalytische Filmtheorie versucht in erster Linie herauszuarbeiten, wie das Unbewusste die Rezeption von Filmgeschehen unterstützt, bzw. wie Film und Kino unbewusste, irrationale Prozesse beim Betrachter auslösen und Filmschauen so zu einer lustvollen Erfahrung werden lassen. Wenn der Film, wie seit jeher behauptet, in Nähe des Traumes gerückt werden kann, so muss es möglich sein, ihm mit Mitteln der Psychoanalyse (analog einer Traumdeutung) beizukommen. Christian Metz umschreibt die Fragestellung psychoanalytischer Filmtheorie folgendermaßen: „Welchen Beitrag kann die Freudsche Psychoanalyse zur Erkenntnis über den kinematographischen Signifikanten leisten?“ Dass es sich dabei um einen Forschungsbereich handelt, der auch ohne die Analyse einzelner Filme oder Genres auszukommt, wird schnell deutlich. Ziel der Auseinandersetzung bleibt es, Aussagen über den Gesamtapparat Kino und seiner Anordnung zu treffen, wobei das Zuschauersubjekt stets im Mittelpunkt der Beschäftigung steht. Entsprechend war es niemals die Aufgabe psychoanalytischer Filmtheorie herauszuarbeiten, wie das Unbewusste filmisch sichtbar gemacht werden kann (etwa durch Traumsequenzen, Darstellung von Visionen, Rückblenden etc.). Ebenso wenig handelt es sich um die Auseinandersetzung mit Filmen, die die Darstellung psychoanalytischer Probleme oder die der Psychoanalyse selbst zum Thema haben. Die Rolle des Zuschauers soll also entscheidend sein, nicht die Rolle einzelner Schauspieler oder Autoren. Eine solche neue psychoanalytische Methode, die sich seit Mitte der 1970er Jahre von Frankreich ausgehend zu entwickeln begann, konnte nicht länger den Film isoliert betrachten, sondern musste das gesamte Umfeld Kino miteinbeziehen. Dabei stießen die neuen Theoretiker vor allem auf zwei bestehende Strömungen früherer filmtheoretischer Auseinandersetzung, die sie um die Frage nach dem filmisch Unbewussten ergänzten: Zum einen hat die Realismusdiskussion um André Bazin, die davon ausgeht, dass die Leinwand als Fenster zur Welt fungiert, das die Objekte und den Raum außerhalb der Leinwand bereits impliziert, nichts von ihrer Aktualität verloren. Zum anderen gibt es die formalistische Position von Eisenstein und Rudolf Arnheim, die die Leinwand durch ihre Rahmung begrenzt sehen, wobei diese Begrenzung das auf der Leinwand sichtbare Bild formt und positioniert. Jean Mitry führt beide Metaphern wieder zusammen, indem er dem Kino sowohl den Status des Fensters als auch den der Rahmung zubilligt. Durch Hinzuziehen einer weiteren Metapher entwickelt sich schließlich die neue Theorie: Die Leinwand wird nun als Spiegel aufgefasst. Die Begriffe Realität (Fenster) und Kunst (Rahmung) werden so mit der Frage nach dem Zuschauer verknüpft, der Diskurs der Psychoanalyse und der Begriff des Unbewussten in die Diskussion eingebracht. Es geht also um mehr als nur um Film – zwei Systeme werden miteinander in Beziehung gesetzt: das Kino und die Psyche. Schulen. Die "klassische psychoanalytische Filmtheorie" begann bereits 1916 mit der Veröffentlichung von Hugo Münsterbergs Studie "Das Lichtspiel". Sie bedient sich vor allem der Konzepte Sigmund Freuds, als das wichtigste Konzept sei hier der das unbewusste Verarbeiten ödipaler oder narzisstischer Strukturen genannt. Daneben gibt es seit den 1970er Jahren die auf den Theorien des französischen Psychoanalytikers Jacques Lacan aufbauenden Ansätze, die von Filmwissenschaftlern wie Laura Mulvey und Christian Metz aufgegriffen wurden. Wichtige Aspekte sind hierbei Identifikation und Symbolik sowie Lacans auf dem Konzept des Spiegelstadiums beruhende Konzeption des Imaginären. Auffallend bei der Beschäftigung mit psychoanalytischer Filmtheorie ist die nahezu ausschließliche Beschäftigung mit Filmen des klassischen narrativen Erzählkinos (besonders beliebt sind hierbei die Filme Alfred Hitchcocks), während Überlegungen etwa zum Avantgarde- und Experimentalfilm meist völlig unberücksichtigt bleiben. Paella. Zubereitung einer Paella (Fleisch anbraten) Große Paellapfanne in einem Restaurant Eine Paella ist ein spanisches Reisgericht aus der Pfanne und das Nationalgericht der Region Valencia und der spanischen Ostküste. Der Begriff "paella" kommt aus dem Katalanischen (um 1892) und hat seinen Ursprung im lateinischen Wort "patella" (eine Art große Platte oder flache Schüssel aus Metall). Um 1900 adaptierten die Valencianer das Wort "Paella" für die Metallpfanne, in der ihr Nationalgericht zubereitet wird. Der Begriff "paella" wird im Spanischen gelegentlich nicht nur für das Gericht, sondern auch für die Pfanne verwendet. Doch heute bezeichnet man die Pfanne, in der eine "paella" zubereitet wird, gewöhnlich als "paellera" [pae'ʎeɾa]. Die Paella ist ein traditionell valencianisches Gericht. Obwohl die spanische Küche sehr regional geprägt ist, hat die Paella in ganz Spanien einen sehr hohen Bekanntheitsgrad. Aufgrund dieser regionalen Prägung werden jedoch in den verschiedenen Regionen Spaniens mehrere von der traditionellen "Paella Valenciana" abweichende Varianten zubereitet. Die Paellera (Paellapfanne). Diese "Paellera" mit einem Außendurchmesser von 40 cm eignet sich für "Paellas" für sechs Personen Paella für 12 Personen mit Gestaltung Die Pfanne zum Zubereiten von "paellas" wird als "paellera" bezeichnet. "Paelleras" sind große, kreisrunde und sehr flache Pfannen. Ihre beiden Griffe sind je nach Hersteller rot oder grün lackiert. Sie sind in verschiedenen Durchmessern erhältlich. Oftmals finden sich in spanischen Haushalten mehrere "paelleras" mit unterschiedlichem Durchmesser, um einer unterschiedlichen Zahl zu Verköstigender gerecht zu werden. Da der Reis in einer Paellapfanne allenfalls vier Zentimeter hoch stehen sollte, nimmt man besser eine große als eine zu kleine Paellapfanne. Zum traditionellen Zubereiten von "paella" auf dem Holzfeuer werden meist Paelleras aus gestanztem Stahlblech verwendet. In Katalonien ist es manchmal auch üblich, statt Stahlblech Tonpfannen zu benutzen. Emaillierte Pfannen und teflonbeschichtete Paelleras aus Edelstahl oder Aluminium für den Küchenherd sind ebenfalls erhältlich, aber weniger populär. "Paelleras" aus gestanztem Stahlblech sind nicht spülmaschinengeeignet. Sie rosten sehr schnell, wenn sie nicht sofort sorgfältig abgetrocknet werden. Nach dem Abwaschen werden die gut abgetrockneten Pfannen mit Olivenöl eingerieben. Rostige Pfannen reinigt man mit Hydrogencarbonaten, die man mit einer halben Zitrone in die Paellapfanne einreibt. Dann die Pfanne abspülen, gut abtrocknen und einölen. Die einfache und traditionelle Methode ist das Reinigen mit trockenem Sand. Paella Valenciana. Paella Valenciana (mit Rosmarin garniert) Die "Paella Valenciana" besteht aus Reis, der mit Safran leuchtend gelb gefärbt wird, und hauptsächlich aus Huhn, Schweinerippe und Kaninchen, das Fleisch stets mit Knochen in mundgerechte Stücke gehackt. Gelegentlich werden auch kleine Schnecken beigegeben. Dazu kommt Gemüse: geriebene Tomaten, rote Paprika-Schoten in Streifen geschnitten, grüne Bohnen/flache grüne Bohnen, gelegentlich auch geviertelte Artischockenherzen sowie "garrofón", das sind große, flache weiße Bohnen. Gewürzt wird mit Salz, gelegentlich mit fein geriebenem frischen Knoblauch und eben Safran. Rosmarinzweige, die während der letzten Minuten auf den Reis gelegt und dem Feuer (falls traditionelle Zubereitung) beigegeben werden, geben einen zusätzlichen mediterranen Geschmack. Da allerdings Safran eines der teuersten Gewürze überhaupt ist und die Paella in ihrer eigentlichen Entstehungsform ein "Arme-Leute-Essen" war, ist zu bezweifeln, dass diese Rezeptur die ursprüngliche ist. Es gibt einige verschiedene Pulvermixturen, die die schöne, gelborange Farbe hervorrufen, meist auf Paprikapulver-Basis. "Siehe auch" Valencianische Küche Zubereitung. Zubereitung einer Paella (Reis zugeben) Es wird reichlich Olivenöl in der Pfanne erhitzt. Wenn Meeresfrüchte dabei sind, werden sie zuerst angebraten und wieder herausgenommen. Danach wird das Fleisch 10 Minuten angebraten, bis es fast gar ist. Dann kommen die ganzen, ungeschälten Knoblauchzehen dazu. Nun wird die ganze, ungeschälte Tomate auf einer Gemüsereibe über das Fleisch gerieben und die grünen Bohnen, die Streifen roten Paprikas und die "garrofones" zugegeben. Das Gemüse wird circa 10 Minuten in der Pfanne mitgeschmort. Dann kommt der Reis hinzu. Man vermischt ihn mit den anderen Zutaten und gießt dann Wasser oder "caldo", Brühe darüber. Ab jetzt darf die Paella nicht mehr umgerührt werden. Das Wasser und die Hitze des Feuers müssen so bemessen sein, dass das Wasser völlig vom Reis aufgesaugt wurde, wenn die Paella fertig ist. Man darf kein Wasser mehr hinzugießen. Ist die Paella fertig gekocht, lässt man sie acht bis zehn Minuten zugedeckt ruhen, am besten mit einem Küchentuch bedeckt. Vor dem Essen wird die Paella mit Zitronensaft beträufelt. Dazu gibt es Weißbrot. Tradition und Geschichte. "Arroz con costra" („Reis mit Kruste“) Traditionell wird eine Paella auf einem offenen, vorwiegend im Freien gemachten Pinien- oder Mandelholz-Feuer am Wochenende für die ganze Familie zubereitet. Die Paellapfanne ruht auf einem eisernen "tripote", Dreifuß, der direkt im Holzfeuer steht. Diese Tradition erfreut sich – besonders in der Region von Valencia – nach wie vor großer Beliebtheit. Traditionell wird die Paella direkt aus der Pfanne mit dem Löffel, selten noch Holzlöffeln, gegessen. Fälschlich wird die Paella oft als spanisches Nationalgericht bezeichnet. Das ist nicht richtig, denn die Paella ist ein traditionelles Gericht aus der Region Valencia. Genauso falsch ist die Aussage, dass die Paella ein Fischgericht sei. Fische werden üblicherweise gar nicht in einer Paella Valenciana verwendet. Die oftmals angebotene "Paella mixta" (Meeresfrüchte-Fleisch-Paella) ist eine neuere Art der Paella Valenciana, die von Valenzianern gern als "Paella de turistas" (Touristen-Paella) „beschimpft“ wird. Oft wird für Paellas kein Safran verwendet, obwohl Safran in Spanien nicht sehr teuer ist, sondern es wird mit Lebensmittelfarbstoffen wie E-102 Tartrazin gefärbt. Dieser Farbstoff ist unter dem Namen „Colorante alimentario“ im Handel. Es gibt aber auch geeignete, preiswerte Paellagewürzmischungen mit Safran. Paella traditionell. Es gibt zahlreiche Arten, eine Paella zuzubereiten. Einig sind sich alle Paella-Köche, dass man sie als Mittagessen isst (gegen 15 Uhr) und niemals abends, weil sie zu schwer im Magen liegt. Einig ist man sich auch darüber, dass man eine Paella mit Paellareis, am besten arroz bomba zubereitet, der in der Gegend um Valencia angebaut wird. Langkornreis stellt einen adäquaten Ersatz dar. Risottoreis eignet sich dagegen nicht für eine Paella, da er sehr stärkehaltig ist und im Gegensatz zum Paellareis beim Kochen sehr weich und klebrig wird. Die Reiskörner in der Paella sollten aber trocken, körnig und nicht verklebt sein. Einige lassen den Reis in Kreuzform über das angebratene Fleisch und Gemüse rieseln und gießen dann Wasser oder Brühe hinzu. Andere bedecken die fertige Paella nicht nur mit einer Zeitung, sondern auch mit Rosmarinzweigen, manche wiederum gar nicht. Einig wiederum sind sich alle, dass kein Wasser nachgegossen werden darf. Manche gießen übrigens auch einen Schuss Bier oder Rotwein hinzu. Entscheidend für das Gelingen einer Paella ist der Reis. Paellareis "arroz bomba" benötigt etwa die doppelte bis zweieinhalbfache Volumenmenge an Wasser, also für eine Tasse Reiskörner zwei Tassen Wasser. Wenn das Wasser kocht, sollte man die Hitze verringern, damit das Wasser nicht verkocht, ehe der Reis gar ist. Im Normalfall wird die Paella nicht umgerührt. Fertig ist die Paella, wenn das Wasser verdampft ist und der Reis gar, aber noch bissfest ist. Damit sich die geschätzte schmackhafte feine Kruste, "socarrat" im Boden der Paellaform bilden kann, sollte sie noch einige Minuten weiter garen bis die unteren Reiskörner an der Pfanne anzubacken beginnen. Trivia. Paellaweltrekord in Valencia, März 1992 Am 8. März 1992 wurde in Valencia eine Paella für 100.000 Personen zubereitet. Es wurden folgende Zutaten verwendet: 5.000 kg Reis, 6.800 kg Hähnchen, 5.000 kg Kaninchen, 400 kg Ente, 1.000 kg Schnecken, 2.400 kg Grüne Bohnen, 1.400 kg Weiße Dicke Bohnen, 1.000 kg Tomaten, 150 kg Salz, 5 kg Paprikapulver (mild), 1 kg Colorante, 1.000 Liter Öl und 12.500 Liter Wasser. Die Pfanne hatte einen Durchmesser von zwanzig Metern, ein Fassungsvermögen von 210.000 Litern, eine Blechstärke von acht Millimetern und wies insgesamt 4.000 Meter Schweißnähte auf; das Gesamtgewicht der gefüllten Paellera betrug etwa 30.000 Kilogramm und wurde von 90 Stützpfeilern getragen. Diese Paella wurde in das Guinness-Buch der Rekorde aufgenommen. Pfund. Das Pfund (von mhd. und ahd. pfunt, phunt, dies von lat. pondus "ein Pfund an Gewicht"; Abk. "Pfd.", "Pf.") ist eine alte Maßeinheit für die Masse. Die Abkürzung "lb" (‚Pfund‘), gleichbedeutend mit "lbm" oder "lbm", erscheint in den Vereinigten Staaten häufig in der Pluralform als "lbs" (Beispiel: "1 lb", aber: "2 lbs"). Für Rohrleitungen nach US-amerikanischem Standard wird die Druckfestigkeit mit "psi" oder "lbs" angegeben, womit "lbs per square inch" gemeint sind, genauer "Pound-force per square inch". Auch der Reifendruck wird so angegeben. Geschichte. Kürzel (hervorgegangen aus „lb“) für das Gewichtsmaß Pfund Das Pfund taucht zum ersten Mal im karolingischen Reich auf. Es geht auf die altrömische "Libra" (von der auch das Kurzzeichen "Lb.", "lb.", "lb", "℔." oder "℔" (codice_1) übernommen wurde), auf die sizilianische "Litra" und das griechische "Litron" (‚Waage‘) zurück. Dieses maß 327,168 g (nach anderen Quellen ca. 327,45 g) zu 12 Unzen von 27,264 g. Die ebenfalls altrömische "Mina" war mit 16 Unzen 436,224 g schwer. Unter Karl dem Großen wurde das Gewicht neu festgelegt. Das Karlspfund "(pondus Caroli)" betrug ca. 406,5 Gramm. Im Mittelalter war das Pfund als Gewichtsmaß in ganz Europa verbreitet, sein Gewicht wich jedoch von Stadt zu Stadt ab. Hatte das Pfund in Nürnberg gut 510 Gramm, so waren es in Berlin nur etwa 467 Gramm. Als „Krämergewicht“ war 1 Pfund = 16 Unzen = 32 Lot = 128 Quentchen = 512 Pfenniggewichte = 1024 Hellergewichte (oder 1 : 16 : 2 : 4 : 4 : 2). Heutiger Gebrauch. 10-Pfund-Gewicht mit den Angaben „5 K.“ & „10 lb.“ (das Pfund mit 500 Gramm) In Deutschland verstehen die meisten Menschen noch heute die Definition des ehemaligen Zollvereins von 1858, das heißt 1 Pfund = 500 Gramm. Besonders in Deutschland, weniger in der Schweiz wird das Pfund noch heute in der Umgangssprache benutzt (vor allem bei Lebensmitteln (halbes Pfund, Viertelpfund), in Deutschland auch für das Körpergewicht); es dient dann sozusagen als Abkürzung für „500 Gramm“. Das Pfund ist weder SI-Einheit noch nach dem deutschen „Einheiten- und Zeitgesetz“ im geschäftlichen und amtlichen Verkehr zulässig. In Österreich ist der Begriff bekannt, aber nicht gebräuchlich; stattdessen ist hier das Dekagramm üblich. Apotheker-Pfund. Als Apothekergewicht in Medizin und Pharmazie konnte sich das "Nürnberger Apotheker-Pfund" zu etwa 357,854 g durchsetzen, in der Unterteilung 1 lb = 12 Unzen = 96 Drachmen = 288 Skrupel = 576 Oboloi = 5760 Gran (oder 1 : 12 : 8 : 3 : 2 : 10). In den österreichischen Kronländern galt hierfür das "Wiener-Medizinal-Pfund" zu etwa 420,0450 g, mit der Unterteilung in 12 Unzen. Eine Unze entsprach 2 Loth und 1 Loth entsprach 4 Quintlein bzw. Drachmen. Drei Skrupel entsprachen einem Quintlein. Die kleinste Einheit war das Gran, wobei ein Gran etwa gleich schwer war wie ein Pfefferkorn, das sind umgerechnet auf Gramm 0,0729 g. Zwanzig Gran entsprachen einem Skrupel. Ein normales Wiener Handelspfund entsprach 560,012 Gramm, Seit etwa der Mitte des 19. Jahrhunderts ist auch die pharmazeutische Industrie dezimal-metrisch. Für das britische bzw. amerikanische Apotheker-Pfund "(troy pound)" siehe → Apothekergewicht. Zollpfund. Gewicht zu 10 Zollpfund („10 Z. Pf.“) 1854 legte der Deutsche Zollverein das Pfund (Zollpfund) auf exakt 500 Gramm fest. 1858 wurde es in Berlin eingeführt. Es war etwa sieben Prozent schwerer als das abgelöste Pfund. Jetzt hatte 1 Zentner 100 Pfund. 1 Zollpfund = 10 Neulot = 100 Quint = 1000 Halbgramm Das heutige umgangssprachliche Pfund hat mit 500 Gramm die gleiche Masse wie das Zollpfund. Ausgewählte historische Pfundangaben. a> in die Höhlung auf der Unterseite konnte das Gewicht auf das (regionale) Pfund-Gewicht angepasst werden. Pfund als Flächenmaß. Das Pfund als Flächenmaß war in Österreich um Wien verbreitet. Es ist in den Einträgen der Grundbücher nachweisbar. Pfund als Stückmaß. Pfund war auch ein Stückmaß. Es bezeichnete an einigen Orten eine Menge von 8 oder 240. Das Stückmaß war in Regensburg gleichzeitig ein Salzmaß. Pfund im übertragenen Sinne. Im übertragenen Sinne bedeutet "Pfund" die Fähigkeit oder Begabung eines Menschen (in Anspielung auf das biblische Gleichnis von den anvertrauten Talenten (oft auch "… Pfunden" genannt) in Matthäus 25,18). Auch der Begriff "Talent" bezeichnet sowohl eine bestimmte Menge Silber als auch die Begabung. Abgeleitet von "Pfund" war um 1900 das Wort "pfundig" ein Modeausdruck der Jugendsprache. In einigen Teilen Bayerns hat sich der Ausdruck im Sinne von „toll, großartig“ erhalten. In der Sprache der US-amerikanischen Amischen ist der „Pfunder“ eine Führungskraft und wird im Englischen häufig mit „founder“ (Gründer) verwechselt. Der Ursprung des Wortes stammt jedoch vom biblischen Talent. Pocken. Ein mit Pocken infiziertes Kind (Bangladesch 1973) Die Pocken (auch "Blattern";) waren eine für den Menschen gefährliche Infektionskrankheit, die von Pockenviren verursacht wurde. Seit den letzten Erkrankungen im Jahr 1977 in Somalia sind keine Pockenfälle mehr aufgetreten; der letzte Fall in Deutschland trat im Jahr 1972 in Hannover durch die Rückreise eines jugoslawischen Gastarbeiters aus den betroffenen Gebieten im Kosovo während der grassierenden Pockenepidemie in Jugoslawien auf. Durch ein konsequentes Impf- und Bekämpfungsprogramm der WHO und anderer Gesundheitsorganisationen wurde erreicht, dass im Jahr 1980 die Welt von der WHO für pockenfrei erklärt werden konnte, weil der Erreger nur durch den Menschen weitergegeben werden kann. Dennoch sind weitere Pockeninfektionen nicht völlig ausgeschlossen. Offiziell existiert das Virus noch in zwei Laboratorien der Welt; allerdings ist unklar, ob in einigen Staaten heimlich Virenbestände behalten werden. So könnten Neuinfektionen durch Laborunfälle oder Bioterrorismus auftreten. Erreger. Die Erreger der Pocken beim Menschen sind Viren aus der Gattung Orthopoxvirus. Pockenviren sind die größten und bekanntesten Tierviren. Sie weisen Eigenschaften auf, die denen primitiver Zellen ähneln. Jedoch sind die Pockenviren wie alle Viren nicht in der Lage, Stoffwechsel zu betreiben, und sind daher in Bezug auf die Proteinbiosynthese vom Wirt abhängig. Diese Viren sind auch hinsichtlich ihrer DNS-Replikation im Cytoplasma ungewöhnlich. Eine mit einem Pockenvirus infizierte Zelle weist eine DNS-Synthese außerhalb des Kerns auf, was sonst nur in intrazellulären Organellen wie Mitochondrien (und bei Pflanzen in Chloroplasten) oder bei einer Infektion mit dem Hepatitis-B-Virus vorkommt. Tierpocken. Neben den Pockenerkrankungen des Menschen gibt es auch bei einer Reihe von Tieren durch verwandte Viren ausgelöste Erkrankungen. Die ebenfalls durch "Orthopox"-Viren hervorgerufenen Tierpocken – die sogenannten „Säugerpocken“ wie Kuhpocken, Affenpocken, Katzen-, Kamel- und Mäusepocken – sind mit Ausnahme der Mäusepocken prinzipiell auch für den Menschen pathogen. Sie sind also Zoonosen und daher meldepflichtige Tierkrankheiten, lösen aber meist nur leichte Erkrankungen aus. Die übrigen durch Pockenviren hervorgerufenen Tierkrankheiten wie Schweine-, Schaf- und Ziegen-, Euter- und Vogelpocken, Myxomatose, Kaninchenfibromatose, Stomatitis papulosa der Rinder sind dagegen streng wirtsspezifisch und für den Menschen ungefährlich. Von besonderer Bedeutung ist der Erreger der Kuhpocken "Orthopoxvirus vaccinia," der mit dem Variolavirus eng verwandt ist, beim Menschen aber nur eine leichtere Krankheit auslöst. Dafür ist der Patient nach einer Ansteckung mit Kuhpocken gegen die echten Pocken immunisiert. Deshalb wurden Varianten von Vaccinia für die Pockenimpfung verwendet. Das Erregerreservoir stellen vermutlich Nagetiere dar, und ein wichtiger Überträger auf den Menschen sind Katzen (→ Katzenpocken). Bei Menschen mit geschwächtem Immunsystem (zum Beispiel durch AIDS oder eine hochdosierte Kortisonbehandlung) können durch Katzen übertragene Kuhpockeninfektionen auch tödlich enden. Die Bläschenkrankheit der Schlangen wird fälschlicherweise auch als „Pocken“ oder „Wasserpocken“ bezeichnet. Sie ist jedoch keine Viruserkrankung, sondern eine bakterielle Hautentzündung infolge schlechter Haltungsbedingungen. Übertragung. Pocken können direkt von Mensch zu Mensch durch Tröpfcheninfektion beim Husten übertragen werden. Daneben kann die Ansteckung auch durch Einatmen von Staub erfolgen, der z. B. beim Ausschütteln von Kleidung oder Decken von Pockenkranken entsteht. Krankheitsverlauf. Im Gegensatz zu den Windpocken sind bei Pocken schwerpunktmäßig stärker die Extremitäten und das Gesicht vom Hautausschlag betroffen Die Inkubationszeit beträgt eine bis zweieinhalb Wochen, meistens jedoch 12 bis 14 Tage. Bei Beginn der Erkrankung kommt es zu schwerem Krankheitsgefühl, Rückenschmerzen mit Fieber und Schüttelfrost, ferner tritt ein Rachenkatarrh auf. Zu diesem Zeitpunkt ist der Patient hochinfektiös. Bei den Pocken ist ein biphasischer Fieberverlauf typisch: Nach 1–5 Tagen sinkt das Fieber und steigt nach einem Tag wieder an. Nun kommt es zu den typischen Hauterscheinungen. Die Reihenfolge, in welcher die Hauterscheinungen (Effloreszenzen) auftreten, ist dabei typisch: Makula (Fleck) → Papel → Vesikel (Bläschen) → Pustel (Eiterbläschen) → Kruste. Die verschieden lokalisierten Hauteffloreszenzen sind, im Gegensatz zu den Effloreszenzen bei Windpocken, nacheinander alle im gleichen Stadium. Sie treten fast am gesamten Körper auf, wobei Kopf, Hände und Füße am stärksten, Brust, Bauch und Oberschenkel nur schwach betroffen sind. Ausgenommen sind die Achselhöhlen und Kniekehlen. Die eitrige Flüssigkeit in den Pusteln verbreitet einen sehr unangenehmen Geruch. Bei einem weniger schweren Krankheitsverlauf trocknen die Pusteln etwa zwei Wochen nach Ausbruch der Krankheit nach und nach ein und hinterlassen deutlich erkennbare Narben. In schwereren Fällen können Erblindung, Gehörlosigkeit, Lähmungen, Hirnschäden sowie Lungenentzündungen auftreten. Oft verläuft die Krankheit tödlich. Die geschätzte Letalität der unbehandelten Pocken liegt bei etwa 30 Prozent. Impfung. Gegen Pocken gibt es kein bekanntes Heilmittel, nur eine vorbeugende Impfung ist möglich; sie kann ihre Schutzwirkung auch noch entfalten, wenn sie bis etwa fünf Tage nach der Infektion vorgenommen wird. Die Pockenimpfung ist eine Lebendimpfung und ist durch eine Reihe von Impfkomplikationen belastet, so dass nur bei eindeutigen Pockenausbrüchen geimpft werden sollte. Eine Massenimpfung ist z. B. in den USA gar nicht vorgesehen – die dortigen Notfallpläne sehen nur eine Impfung der gefährdeten Personen vor. Zur Eindämmung der Erkrankung haben sich dagegen Quarantänemaßnahmen (Isolierung von Kranken und Krankheitsgebieten) bewährt. Am 26. August 1807 wurde in Bayern als weltweit erstem Land eine Impfpflicht eingeführt. Baden und Preußen folgten 1815, Schweden 1816, England 1867 und das Deutsche Reich 1874. Im lutherischen Schweden hatte die protestantische Geistlichkeit bereits um 1800 eine Vorreiterrolle bei der freiwilligen Pockenschutzimpfung inne. Die ab 1967 weltweit von der Weltgesundheitsorganisation vorgeschriebene Impfpflicht gegen Pocken endete in Westdeutschland 1976. Die Impfung wurde typischerweise mit einer Impfpistole oder Lanzette meist am Oberarm durchgeführt, wo sich an der Einritzstelle durch die resultierende, gewollte Infektion in der Regel eine Pustel und daraus schließlich eine rundliche vertiefte Impfnarbe bildete, die bis heute bei vielen geimpften Menschen zu sehen ist. In manchen Ländern war es in Zeiten der Impfpflicht bei der Einreise erforderlich, die Impfnarbe vorzuzeigen. Impfung durch Variolaviren. Einfache Formen der Impfung sind schon lange bekannt. Die vorbeugende Ansteckung mit geringen Mengen von Variolaviren, heute Variolation genannt, ist schon seit mindestens 3000 Jahren aus China bekannt, wo zerriebener Schorf der Pusteln geschnupft wurde. In Indien dagegen wurde dieses Material in die Haut eingeritzt. In Europa führte Lady Montagu (1689–1762), die Frau eines britischen Diplomaten in Istanbul, die Variolation durch Einritzen von etwas Flüssigkeit aus den Pockenbläschen in die Haut ein. Impfung mit Vaccinia-Viren. Die zweite, sicherere Impfmethode beruht auf der seit spätestens 1765 belegten Beobachtung, dass Menschen nach durchgemachter vermeintlicher Kuhpocken-Infektion vor Infektionen mit den echten Pocken geschützt sind. Die künstliche Pockeninfektion mit weniger pathogenen Pockenarten zum Schutz vor "echten Pocken" wurde ab ca. 1771 in Einzelfällen entdeckt und erprobt u. a. von Sevel, Jensen, Benjamin Jesty (1774), Rendall und Peter Plett (1791). Selbst auf dem Lande wurde sie 1787 erprobt. Der Arzt Calmeyer impfte in Gehrde (Niedersachsen) damals 57 Kinder so erfolgreich, dass keines davon starb. Jedoch erst 1796 wurde die Impfung von Edward Jenner mit einer gewissen Breitenwirkung in England eingeführt. Auch er glaubte der Landbevölkerung, die berichtete, dass Menschen, die von Kuhpocken (Die infizierten Kühe waren in Wahrheit nicht an Kuhpocken erkrankt, sondern an Vaccinia-Viren, deren Infektionen meist harmlos verlaufen.) angesteckt worden waren, nicht mehr die echten Pocken bekommen könnten. Zur Überprüfung dieser These infizierte Jenner den achtjährigen James Phipps mit aus den Pocken der infizierten Kühe gewonnenem Material und, nach Abklingen der Krankheit, mit den echten Pocken. Der Junge überlebte. Als Jenners Artikel von der Royal Society abgelehnt wurde, unternahm er weitere Versuche – auch mit seinem 11 Monate alten Sohn. Im Jahr 1798 veröffentlichte er seine Ergebnisse und musste erleben, dass man ihn lächerlich zu machen versuchte. Dennoch setzte sich die von ihm propagierte Methode durch. Dieses Verfahren wird, nach den verwendeten Vacciniaviren, Vakzination genannt. Das Wort "vaccination" bedeutet heute im Englischen Impfung ganz allgemein, auch im Deutschen werden Impfstoffe Vakzine genannt. In vielen Ländern wurde die Impfung von Kleinkindern und auch die Nachimpfung nach etwa 12 Jahren gesetzlich vorgeschrieben. 1799 führte der Arzt Jean de Carro, der an der Universität Wien wirkte, aufgrund der Vorarbeiten von Jenner als erster auf dem europäischen Kontinent in Wien die Pockenschutzimpfung ein. Das zur Pockenimpfung verwendete Modified-Vaccinia-Ankara-Virus wurde in den 1970er Jahren von Anton Mayr entwickelt. Geschichte. Pocken sind vermutlich schon seit Jahrtausenden bekannt. Die an mehreren Stellen des Alten Testaments (u. a.; und das Leiden des Hiob) hebräisch als "schechin" (Pustel, Geschwür) bezeichnete Seuche wurde von Medizinhistorikern mit den Pocken in Verbindung gebracht. Besonders die sechste ägyptische Plage () gilt vielen Exegeten als Beschreibung einer Pockenepidemie. In der "Vita Mosis" beschreibt Philon von Alexandria diese Plage mit allen Symptomen der Pocken. Diese auch als „ägyptisches Geschwür“ ("schechin mizraim.") bezeichnete Seuche wurde auch mit der Uhedu-Krankheit identifiziert, die mehrfach im Papyrus Ebers genannt wird. Das altägyptische Wort "uhedu" oder "uhet" steht für einen eigentümlichen, tödlichen Hautausschlag, der mit Geschwüren einhergeht. Die Mumie von Pharao Ramses V. von Ägypten zeigt Läsionen, die histologisch den Pockennarben entsprechen könnten. In China wurden die Pocken vermutlich um 250 v. Chr. über die noch unfertige chinesische Mauer durch die Hunnen eingeschleppt, daher rührt die dort verwendete Bezeichnung "Hunnenpocken". Nach Europa kamen die Pocken wahrscheinlich 165 n. Chr. mit dem Einzug der siegreichen römischen Legionen nach der Einnahme der parthischen Stadt Seleukia-Ktesiphon im heutigen Irak. Die Pocken breiteten sich rasch bis zur Donau und zum Rhein hin aus. Die Folge war ein Massensterben über 24 Jahre hin, das als "Antoninische Pest" in die Geschichte eingegangen ist. Die Bezeichnung "variola" (von lat. ‚bunt‘, ‚scheckig‘, ‚fleckig‘) wurde von Bischof Marius von Avenches (heute Schweiz) um 571 n. Chr. geprägt und soll im 11. Jahrhundert der Krankheit auch von dem Arzt und Übersetzer Constantinus Africanus gegeben worden sein. Die Kreuzritter des 11.–13. Jahrhunderts trugen zur Verbreitung der Pocken wesentlich bei. Seit dem 15.–16. Jahrhundert waren die Pocken weltweit verbreitet. Über 10 Prozent der Kinder starben vor dem 10. Lebensjahr an Pocken. Der Name „Pocken“ kommt zum ersten Mal in einer angelsächsischen Handschrift aus dem 9. Jahrhundert am Ende eines Gebets vor: "... geskyldath me wih de lathan Poccas and with ealleyfeln. Amen." („... beschützt mich vor den scheußlichen Pocken und allem Übel. Amen.“) Das Wort "Pocken" kommt aus dem Germanischen und bedeutet „Beutel“, „Tasche“, „Blase, Blatter“. Es ist mit den, und verwandt. Die europäischen Eroberer brachten die Pocken nach Amerika mit, wo sie unter den Indianern verheerende Epidemien auslösten, die Millionen von Toten forderten. Gut untersucht ist die Pockenepidemie an der Pazifikküste Nordamerikas ab 1775. Die Europäer dagegen waren durch zahlreiche frühere Pockenepidemien stark durchseucht und daher relativ wenig gefährdet. Ob die Pocken als biologische Waffe gegen die Indianer eingesetzt wurden, ist trotz aller Forschung umstritten. Aus dem Juni 1763 existieren ein Briefwechsel und eine Quittung, laut denen zwei Decken und ein Taschentuch aus dem Hospital des belagerten Fort Pitt – in dem die Pocken ausgebrochen waren – an eine Delegation der Lenni Lenape-Indianer überreicht worden sind. Der Versuch hatte aber keinen Erfolg, die später doch ausgebrochene Epidemie wird auf andere Ursachen zurückgeführt. Die vielfältig erhobenen Vorwürfe bezüglich eines Pockenausbruchs 1837 bei den Mandan am Missouri River wurden als wissenschaftliche Fälschung enttarnt. Der Verantwortliche, Ward Churchill, verlor seinen Lehrstuhl infolge des akademischen Skandals. Im Fall der Pockenepidemie an der Pazifikküste Nordamerikas 1862 lässt sich zeigen, dass äußerst verschieden motivierte Entscheidungsträger im Ergebnis ihrer Handlungen die Ausbreitung förderten und in der Bevölkerung erfreute Reaktionen über das folgende Massensterben vorkamen. Nach Impfung der meisten Weißen und vieler Indianer in Victoria konnte in diesem Fall eine unerwünschte Ausbreitung der Pocken unter den weißen Siedlern nahezu ausgeschlossen werden. a> war 1975 der letzte Mensch, der an Echten Pocken erkrankte (abgesehen von späteren Laborinfektionen). Nach Australien kamen die Pocken vermutlich mit Seefahrern aus Makassar in Indonesien, die ab etwa 1700 alljährlich im Arnhemland Seegurken sammelten. Als erste Pockenepidemie wurde die von 1789 von den Mitgliedern der First Fleet im heutigen Gebiet von Sydney dokumentiert. In Europa galten Pocken teilweise als Kinderkrankheit. Ab dem 18. Jahrhundert häuften sich die Pockenfälle und lösten die Pest als schlimmste Krankheit ab. Nach Schätzungen starben jedes Jahr 400.000 Menschen an Pocken. Oft zählten Kinder erst zur Familie, wenn sie die Pocken überstanden hatten. Berühmte Persönlichkeiten wie Mozart, Haydn, Beethoven und Goethe blieben von der Krankheit nicht verschont, Ludwig XV. von Frankreich und Zar Peter II. starben daran. Die Heiratspolitik der Habsburger wurde gleichfalls von den Pocken immer wieder durcheinander gebracht. Die Kaiserin Maria Theresia, die mit der Verheiratung ihrer Töchter an andere Herrschaftshäuser Allianzpolitik betrieb, musste mehrfach ihre Pläne ändern, weil zwei ihrer Töchter an den Pocken starben und eine dritte (Marie Elisabeth) durch diese völlig verunstaltet wurde. Der erste noch vage morphologische Nachweis des Pockenvirus wird dem in Mexiko gebürtigen Hamburger Impfarzt Enrique Paschen (1860–1936) zugeschrieben, der bereits 1906 mit einem Lichtmikroskop die von ihm „Elementarkörperchen“ und nach ihm „Paschenschen Körperchen“ benannten Partikel in Kinderlymphe sah. Noch in den 1950er und 1960er Jahren gab es in Europa Pockenepidemien, so z. B. 1950 in Glasgow, 1958 in Heidelberg (18 Krankheitsfälle, davon zwei tödlich), 1963 in Breslau (99 Krankheitsfälle, davon sieben tödlich) und 1967 in der Tschechoslowakei. Ein Einzelfall im Frühsommer 1957 in Hamburg konnte hingegen isoliert werden. Ab 1967 wurde die Pockenimpfung auf Beschluss der Weltgesundheitsorganisation (WHO) weltweit Pflicht. Es wurde mit großangelegten Impfaktionen ein weltweiter Feldzug zur Ausrottung der Pocken gestartet. Die letzte Pockenepidemie in Deutschland fand Anfang 1970 statt, als ein 20-jähriger die Pocken in das nördliche Sauerland einschleppte und insgesamt 20 Personen infizierte. Die Erkrankten wurden im Marienhospital in Wimbern isoliert. Der letzte Pockenfall in der Bundesrepublik Deutschland trat 1972 als eine aus dem Kosovo eingeschleppte Erkrankung auf. Der weltweit letzte Fall von Echten Pocken wurde 1975 in Bangladesch dokumentiert, der letzte Fall von Weißen Pocken 1977 in Merka, Somalia, der letzte Erkrankte war der damals 23-jährige Ali Maow Maalin. Am 8. Mai 1980 wurde von der WHO festgestellt, dass die Pocken ausgerottet sind. Seitdem gibt es offiziell nur noch zwei Orte, an denen Pockenviren lagern, nämlich das Forschungszentrum der US-amerikanischen Seuchenbehörde CDC "(Centers for Disease Control and Prevention)" in Atlanta und ihr russisches Gegenstück VECTOR in Kolzowo südöstlich von Nowosibirsk. Über eine Vernichtung der letzten Bestände wurde nachgedacht, die Gedanken wurden allerdings verworfen. Die Bestände wären die letzte Möglichkeit, Impfstoffe gegen die Pocken herzustellen. Um das von den gelagerten Pocken-Viren ausgehende Restrisiko zu beseitigen, wollten die Vertreter der Mitgliedsstaaten der Weltgesundheitsorganisation (WHO) bis 2014 eine Einigung darüber erzielen, wann die zwei noch vorhandenen Sammlungen der tödlichen Erreger unschädlich gemacht werden. Auf der Sitzung im Mai 2014 sprach sich die Mehrheit für eine Vernichtung aus, sie erreichte aber nicht die notwendige Einigkeit. Insbesondere wollen Forscher die Viren als Material für Forschung und Prüfung so lange erhalten, bis mehrere Medikamente, die gerade in der Prüfung sind, die Zulassung erhalten haben. Ein neues Datum für die Diskussion wurde nicht beschlossen, die Viren bleiben also auf unbestimmte Zeit in den beiden Laboren erhalten. 2014 wurden versiegelte Ampullen mit gefriergetrockneten Pocken-Viren in einem Abstellraum in den National Institutes of Health entdeckt, das seit 1972 zur Food and Drug Administration gehört. Nach ersten Untersuchungen stammen die Proben aus den 1950er Jahren. Iris Hunger, die Leiterin der Forschungsstelle Biowaffenkontrolle am Carl-Friedrich von Weizsäcker-Zentrum für Naturwissenschaft und Friedensforschung, kritisierte schon 2003, dass durch einen Unfall oder Terrorangriff die tiefgekühlten Erreger freigesetzt werden könnten. Die Industriestaaten haben sich nach den Terroranschlägen am 11. September 2001 umfassend mit Pocken-Impfstoff für ihre Bevölkerung eingedeckt (u. a. die USA mit 100 Millionen Impfdosen), so dass umgehend reagiert werden könnte. Neben den USA halten noch Deutschland, Südafrika, das Vereinigte Königreich und Israel größere Bestände an Impfstoffen vorrätig. Doch die Entwicklungsländer waren laut Aussage der Experten nicht dazu in der Lage, sich die Anschaffung der kostspieligen Impfdosen in dem für ihre Bevölkerung benötigten Umfang zu leisten, so dass ein Ausbruch der Pocken hier katastrophale Folgen haben könnte. Um im Notfall reagieren zu können, hält auch die WHO 64 Millionen Impfstoffdosen vorrätig, doch für die Bevölkerung in den Entwicklungsländern wird diese Anzahl an Impfdosen im Ernstfall nicht ausreichen und die Pocken könnten erneut eine Ausbreitung erfahren. Die meisten Staaten hoben ab den 1970er Jahren die Pockenimpfpflicht wieder auf (in Teilen Deutschlands wurde die Erstimpfung 1975 ausgesetzt, später die Wiederimpfung), da auch die Impfung nicht völlig risikofrei ist. Nach Erfahrungswerten aus den 1950er und 1960er Jahren rechnet das CDC mit 15 lebensbedrohlichen Komplikationen und zwei Todesfällen pro einer Million Geimpfter. Nachdem die „natürliche“ Verbreitung der Pocken mit den Impfkampagnen eliminiert wurde, rückte das Virus als mögliche Methode eines Biowaffenanschlags wieder in die Aufmerksamkeit der Öffentlichkeit. Unter dem Eindruck des bevorstehenden Irakkriegs gab die Bundesrepublik Deutschland daher der Firma Bavarian Nordic um den Jahreswechsel 2002/2003 den Auftrag, für jeden Einwohner Deutschlands etwas mehr als eine Impfdosis auf Vorrat zu produzieren. Piltdown-Mensch. Der Piltdown-Mensch war eine wissenschaftliche Fälschung. Er besteht aus den Fragmenten eines Schädels und eines Unterkieferknochens, die vor 1912 in einer Kiesgrube bei dem Dorf Piltdown in der Nähe von Uckfield, Grafschaft East Sussex, Südostengland gefunden wurden. Von diesen Fragmenten behaupteten die damaligen britischen Experten, dass es die Überreste einer bisher unbekannten Form der Vorfahren des Menschen seien. Dem Exemplar wurde der wissenschaftliche Name "Eoanthropus dawsoni" (etwa „Dawsons Mensch der Morgenröte“) gegeben, zu Ehren seines Entdeckers Charles Dawson (1864–1916), eines britischen Rechtsanwalts und Amateurarchäologen. Zweifel an der Echtheit des Fundes und, nach der Entlarvung der Fälschung 1953, die Suche nach deren Urheber währten über Jahrzehnte und brachten einen umfangreichen Bestand an Literatur hervor. Bedingungen. Zur Zeit der Piltdown-Funde waren nur wenige Überreste von Frühmenschen gefunden worden; zu den bekanntesten zählten die des Neandertalers 1856, des Java-Menschen 1891 und der Unterkiefer von Mauer 1907. Die Wissenschaft interpretierte die Funde als Übergangsformen zum modernen Menschen, allerdings erlaubten die spärlichen Funde noch eine Vielzahl von Deutungen, so auch in der Frage, in welcher Reihenfolge die Entwicklungsschritte auf dem Weg zum modernen Menschen erfolgten. Der Fund von Piltdown schien diese Frage ein für alle Mal beantworten zu können und war schon von daher eine sensationelle Entdeckung. Daraus erklärt sich wohl seine schnelle Akzeptanz, obwohl bereits die Fundumstände dubios blieben. Die besonderen Merkmale des Fundes waren sein hohes Alter, das auf rund 500.000 Jahre geschätzt wurde, eine große, schon dem modernen Menschen ähnelnde Schädelkapsel und ein noch primitiver Unterkiefer, der an den eines Menschenaffen erinnerte. Aus dieser Kombination wurden weitreichende Schlussfolgerungen zur Stammesgeschichte des Menschen abgeleitet, unter anderem, dass die Entwicklung zum modernen Menschen in Europa stattgefunden habe und dass sich beim Menschen bereits sehr früh ein großes Gehirn entwickelte. Die ersten Australopithecus-Funde, so das Kind von Taung, wurden daher von britischen und US-amerikanischen Paläoanthropologen jahrzehntelang nicht als Vormenschen anerkannt. Deutsche und französische Forscher hatten hingegen aufgrund genauer Kenntnis der Neandertaler-Funde von Beginn an Zweifel an der Aussagekraft der Piltdown-Fragmente. Auch im Licht späterer Fossilfunde aus Asien und Afrika konnte der Piltdown-Mensch sich bestenfalls als rätselhafter Nebenast im Stammbaum des Menschen behaupten, da jene einen völlig anderen Entwicklungsweg zum modernen Menschen belegten, insgesamt jünger und mit spät einsetzender Vergrößerung des Gehirnvolumens. Die Bedeutung des Piltdown-Menschen blieb 40 Jahre lang umstritten, bis er 1953 als Fälschung entlarvt wurde: Der Schädel eines modernen Menschen und der geschickt manipulierte Unterkieferknochen eines Affen waren zusammen mit weiteren Fragmenten von Tierknochen und Steinwerkzeugen im genannten Kiesbett vergraben worden. Entdeckung und Veröffentlichung. Die genauen Umstände, unter denen der Piltdown-Schädel entdeckt worden ist, wurden nur unzureichend dokumentiert. Charles Dawson berichtete, ihm sei 1908 bei einem Besuch der Piltdown-Kiesgrube von einem Arbeiter ein erstes Fragment eines menschlichen Schädels übergeben worden. Er habe daher in den folgenden Jahren die Kiesgrube wiederholt aufgesucht und mehrere weitere Schädelfragmente entdeckt. Diese Funde übergab er jeweils Arthur Smith Woodward, dem Kustos der geologischen Abteilung des British Museum. Woodward war an den Fundstücken sehr interessiert und begleitete Dawson mehrfach zur Fundstelle, wo sie gemeinsam zwischen Juni und September 1912 weitere Teile des Schädels und eine Hälfte eines Unterkieferknochens fanden, bei dem der Gelenkansatz fehlte. Zeitweise beteiligte sich auch Pierre Teilhard de Chardin an den Grabungen in der Kiesgrube. Am 18. Dezember 1912 gaben Arthur Smith Woodward und Charles Dawson während eines Treffens der Geological Society of London bekannt, die Schädelfragmente seien ein epochemachender Fund. Die von Woodward anhand der gefundenen Fragmente angefertigte Rekonstruktion ähnelte weitgehend dem Schädel eines modernen Menschen, mit Ausnahme des Occiput, einer Region am Übergang des Schädels zur Wirbelsäule, sowie der Größe des Gehirns, die nur ungefähr zwei Drittel eines modernen Menschen betrage, und der nur annähernd menschenähnlichen Zähne und des Kieferknochens, der sich nicht von dem eines heutigen jungen Schimpansen unterscheide. Gestützt auf die hohe wissenschaftliche Autorität des British Museum interpretierte Woodward die Funde von Piltdown als ein "Missing Link" zwischen Menschenaffe und Mensch. Die Gelehrten des Natural History Museum in London schrieben – trotz anfänglicher Zweifel – dem Fund ein Alter zwischen 200.000 und 500.000 Jahren zu. Damit wäre er wesentlich älter gewesen als der Neandertaler. Die Bekanntgabe der Entdeckung fand sofort ein großes Interesse sowohl in der Fachwelt als auch in der britischen Bevölkerung: Die Tageszeitung "Manchester Guardian" hatte bereits Anfang Dezember 1912 über den Fund berichtet, mit der Folge, dass das Treffen der "Geological Society of London" so gut besucht war wie keines zuvor. Die Meldung des Piltdown-Fundes ging als Sensation um die ganze Welt. Über 500 wissenschaftliche und publizistische Veröffentlichungen beschäftigten sich mit dem "Eoanthropus dawsoni", darunter der Überblick "The earliest Englishman" von Arthur Smith Woodward, posthum herausgegeben von Arthur Keith. Vor allem für die britischen und einige US-amerikanische Paläoanthropologen stellte der Fund eine Bestätigung ihrer theoretischen Überlegungen dar, dass die Entwicklung eines großen Gehirns Voraussetzung für die Menschwerdung gewesen sei und das Größerwerden des Gehirns der Ausbildung anderer Merkmale des modernen Menschen (terrestrische Lebensweise, aufrechter Gang, Werkzeuggebrauch, Entwicklung von Sprache und Kultur) vorausgegangen sei. Daher blieb die früh einsetzende Kritik an Woodwards Rekonstruktion der Piltdown-Fragmente weitgehend unbeachtet. Am "Royal College of Surgeons" wurden beispielsweise Kopien der Fragmente für eine Rekonstruktion verwendet, die hinsichtlich der Größe des Gehirns und anderer Eigenschaften dem modernen Menschen wesentlich stärker ähnelte als jene von Woodward. Das Ansehen, das Woodward unter seinen Fachkollegen genoss, verhinderte jedoch letztlich jede offene Kritik an seiner Rekonstruktion. 1915 behauptete Dawson, Fragmente eines zweiten Schädels an einer Stelle gefunden zu haben, die etwa zwei Meilen vom Ort der ursprünglichen Funde entfernt lag. Nach Dawsons Tod im folgenden Jahr konnte die in Frage kommende Stelle (Piltdown II) nicht mehr exakt identifiziert werden, zudem sind die Funde schlecht dokumentiert. Selbst Woodward scheint den zweiten Fundort nicht besucht zu haben. Gedenken an die Entdeckung. Der nahe gelegene Pub wurde zu Ehren des Fundes in „The Piltdown Man“ umbenannt. Entlarvung der Fälschung. Die Enthüllung der Piltdown-Fälschung am 21. November 1953 durch Angestellte des British Museum und anderer Institutionen wurde in vielen akademischen Kreisen mit Erleichterung aufgenommen. Der Piltdown-Mensch war zuvor bereits als Abweichung betrachtet worden, die vollständig im Widerspruch zur wesentlichen Hauptrichtung menschlicher Evolution stand, wie sie zwischenzeitlich an anderen Orten entdeckte fossile Hominiden zu zeigen schienen. Die Anfang der 1950er Jahre entwickelte Methode, den Fluoridgehalt der Fossilien zu messen, ergab für die Piltdown-Funde ein unterschiedliches, in jedem Fall aber weit geringeres Alter als die ursprünglich geschätzte Datierung ins mittlere Pleistozän. Eine anschließende Altersbestimmung durch die Radiokohlenstoffdatierung konnte 1959 nachweisen, dass sowohl Schädel als auch Unterkiefer nur wenige hundert Jahre alt waren. Sie zeigte damit, dass der Piltdown-Mensch eine zusammengesetzte Fälschung ist. Die Knochenfunde bestehen aus einem mittelalterlichen Menschenschädel, dem 500 Jahre alten Unterkiefer eines Orang-Utans und den fossilen Zähnen eines Schimpansen. Das Aussehen von hohem Alter wurde erzeugt, indem man die Knochen mit einer Eisenlösung und Kaliumdichromat einfärbte. Schwierigkeiten machte bei der Fälschung der Bereich, an dem der Kiefer an den Schädel anschließt, da jener sich bei Affe und Mensch in der Form deutlich unterscheidet. Dieses Problem löste man, indem man die verräterischen Enden des Kiefers abbrach. Die Zähne im Kiefer wurden passend gefeilt, und es war dieses Feilen, das zu Zweifeln an der Glaubwürdigkeit des gesamten Stücks führte: Man bemerkte, dass die Spitze eines der Backenzähne im Vergleich mit den anderen Zähnen in einem stark unterschiedlichen Winkel abgeschrägt war. Mikroskopische Untersuchungen zeigten Schleifspuren an den Zähnen, und man folgerte daraus, dass die Zähne bearbeitet worden waren, um ihre Form zu verändern, da Affenzähne eine andere Form als menschliche Zähne haben. Der vielleicht unglaublichste Fund war ein „Artefakt“ in der Nähe der Knochen, von dem die Wissenschaftler glaubten, es sei ein Werkzeug oder Teil eines Skeletts. Dieser versteinerte Oberschenkelknochen eines Elefanten wies Bearbeitungsspuren von Menschenhand auf, doch konnte ihm kein sinnvoller Verwendungszweck zugeschrieben werden. Seine Form erinnerte 1914 einige der untersuchenden Wissenschaftler noch am ehesten an einen Cricket-Schläger, aber diese Erkenntnis zog damals keine weiteren Konsequenzen nach sich. Vermutlich wollte der Urheber der Fälschung damit auf sein Werk aufmerksam machen, doch die Forscher um Woodward sahen sich mit jedem neuen Fund nur in ihren Theorien bestätigt. Der Grad der technischen Kompetenz der Piltdown-Fälschung bleibt weiterhin ein Diskussionsthema, jedoch liegt das besondere Wesen der Fälschung darin, dass sie den damaligen Experten genau das anbot, was sie suchten: den überzeugenden Beweis, dass die menschliche Evolution vom Gehirn ausging – und in Europa stattgefunden hatte. Es wurde auch vermutet, dass Nationalismus und Rassismus ebenso eine Rolle bei der Akzeptanz des Fossils als Original spielten, da bereits zuvor die Forderung aufkam, Großbritannien bräuchte einen „Ersten Briten“, um ihn gegen die fossilen Funde von Hominiden zu stellen, die in anderen Teilen der Welt, besonders Frankreich und Deutschland, gefunden worden waren. Mögliche Fälscher. Die Identität des Piltdown-Fälschers bleibt ebenso unbekannt wie seine Motive. Viele Autoren vermuten, dass diese wohl berühmteste Betrugsaffäre der Naturforschung ein Streich war, der außer Kontrolle geriet. Verdachtsmomente konnten für alle an dem Fund beteiligten Forscher nachgewiesen werden. So wurden Dawson, Woodward, Teilhard de Chardin, die Anatomen Arthur Keith und Grafton Elliot Smith ebenso beschuldigt wie Arthur Conan Doyle, der damals 15 km von der Fundstelle entfernt wohnte. Ihm wurde ein Rachemotiv unterstellt, weil die etablierte Wissenschaft seine Forschungen zu Geistwesen heftig angegriffen hatte. So gut wie jeder, der jemals mit dem Fund in Berührung kam, wurde irgendwann der Tat verdächtigt. So hat 1978 der Londoner Paläontologe Brian Gardiner einen weiteren möglichen Täter in die Diskussion eingebracht. Er hält Martin Alister Campbell Hinton für den Urheber der Posse. Hinton hatte zur Zeit des Fundes als freier Mitarbeiter und bis 1945 als Kurator für Zoologie im Natural History Museum in London gearbeitet und war 1961 verstorben. Er hinterließ einen Schrankkoffer im Lager des Museums, der 1978 gefunden wurde. Der Koffer enthielt Tierknochen und Zähne, die in einer Art und Weise gefeilt und gefärbt waren, die den Piltdown-Funden ähnelten. Kurz vor seinem Tod hatte Hinton zudem einem Kollegen geschrieben, wie sehnsüchtig er als junger Student davon geträumt habe, in den Hügeln von Sussex den von Charles Darwin propagierten "missing link" zwischen Mensch und Affe zu finden. Vor allem bei „charakterlich ungefestigten Mitgliedern“ der Paläontologengemeinde, hatte er geschrieben, könne „die Versuchung, die Entdeckung eines Affenmenschen zu erfinden“, schlicht „unwiderstehlich“ gewesen sein. Unwidersprochen ist aber auch dieser Verdacht nicht geblieben. Andere Autoren halten Charles Dawson für den wahrscheinlichsten Urheber der Fälschung, da er als einziger bei allen Funden in Piltdown I anwesend war, er allein die Fundstelle Piltdown II kannte und seit seinem Tod 1916 keine weiteren „Funde“ mehr aufgetaucht sind. Auch hat er der Wissenschaft nachweislich eine ganze Reihe von „archäologischen Funden“ präsentiert, die sich später als gefälscht herausstellten, unter anderem römische Ziegelstempel und eine Figurine als angeblich frühesten Beleg für Gusseisentechnik in Europa. Auch wenn Dawson als der wahrscheinlichste Fälscher des Piltdown-Menschen gilt, so wird doch angezweifelt, dass er allein handelte, und die Frage nach möglichen Komplizen beschäftigt die Wissenschaftler noch heute. Rezeption durch die Popkultur. Bereits die 1917 entstandene frühe Kurzgeschichte "Dagon" von H. P. Lovecraft verweist auf den Piltdown-Menschen. Auch in der späteren Kurzgeschichte „Die Ratten im Gemäuer“ erwähnt Lovecraft den Piltdown-Menschen. The Piltdown Men waren eine US-amerikanische Instrumental-Rock-Band aus Los Angeles, die Anfang der 1960er-Jahre einige erfolgreiche Singles bei Capitol Records veröffentlichte. Mike Oldfield führt auf seinem Album "Tubular Bells" von 1973 den „Piltdown man“ als eines der Instrumente an, die er spielt. Dies verweist auf einen Teil des Albums, das zweite Stück, der durch die frühen Hominiden inspiriert und mit einer rauen Stimme gesungen wurde. In der Neubearbeitung des Albums von 2003 heißt dieser Teil „Caveman“. In „Der Psychiater“, einer Episode der Fawlty Towers von 1979, wird ein Besucher aus der Unterschicht als „Piltdown-Weichei“ bezeichnet. Im März 1994 führte Apple Computer den Power Macintosh 6100 ein, der den Codenamen „Piltdown Man“ trug. Etwas später im selben Jahr wurde das Macintosh-Computerspiel Marathon herausgebracht, in dem ein Computerterminal mit dem Wort „piltdown“ in der Kopfzeile vorkam. Dies sollte vermutlich darauf hindeuten, dass die Mitteilung des Terminals nicht vollständig wahr ist und der vermutete Sender nicht existiert. Portable Network Graphics. Portable Network Graphics (PNG, für "portable Netzwerkgrafik") ist ein universelles, vom World Wide Web Consortium (W3C) anerkanntes Grafikformat für Rastergrafiken mit verlustfreier Kompression. Es wurde als freier Ersatz für das ältere, bis zum Jahr 2006 mit Patentforderungen belastete Graphics Interchange Format (GIF) entworfen und ist weniger komplex als das Tagged Image File Format (TIFF). PNG unterstützt neben unterschiedlichen Farbtiefen auch Transparenz per Alphakanal. PNG ist das meistverwendete verlustfreie Grafikformat im Internet. Geschichte. Die Entwicklung des PNG-Formats begann Ende 1994, verglichen mit anderen Grafikformaten wie TIFF, GIF und JFIF also recht spät. Auslöser waren Lizenzforderungen der Softwarefirma Unisys für den von GIF verwendeten Lempel-Ziv-Welch-Algorithmus (LZW). Am 4. Januar 1995 legte Thomas Boutell einen frühen Entwurf (PBF Draft 1) vor. Die erste richtige PNG-Spezifikation (Version 1.0) von Thomas Boutell und Tom Lane wurde bereits am 1. Oktober 1996 offizielle Empfehlung des World Wide Web Consortium (W3C). Am 14. Oktober 1996 erhielt PNG von der Internet Assigned Numbers Authority (IANA) den MIME-Typ "codice_1" zugewiesen. Am 15. Januar 1997 wurde PNG von der Internet Engineering Task Force (IETF) als RFC 2083 verabschiedet. Am 31. Dezember 1998 erschien die von Adam Costello und Glenn Randers-Pehrson überarbeitete PNG-Spezifikation Version 1.1. Am 11. August 1999 veröffentlichte Glenn Randers-Pehrson schließlich die bisher letzte Version 1.2. Diese wurde am 10. November 2003 zum ISO-Standard ISO/IEC 15948:2003 erhoben und gleichzeitig zur zweiten Ausgabe der W3C-Empfehlung. Farbmodi und Präzision. Das PNG-Format ermöglicht Graustufen-, Vollfarb- und Farbpaletten-Modus, sowie einen Graustufen- und einen Farbmodus mit Alpha-Kanal (Farb-Typen 0, 2, 3, 4 und 6). Farbtiefen. Bei Graustufenbildern kann die Auflösung 1, 2, 4, 8 oder 16 Bit pro Pixel betragen, bei Farbbildern 8 (RGB8) oder 16 Bit (RGB16) pro Farbkanal. Farbbilder können alternativ mit dem Farbpalettenmodus mit bis zu 256 indizierten Farben gespeichert werden. Die indizierten Farben sind aus dem vollen RGB8-Spektrum frei wählbar. Transparenz. PNG-Datei mit Alphakanal, darstellbar auf jedem Hintergrund Dasselbe Bild auf einem anderen Hintergrund PNG-Dateien können Transparenzinformationen enthalten, entweder in Form eines Alphakanals, als einzelne transparente Farbe oder als ergänzende Transparenzpalette zu einer vorhandenen Farbpalette, die zu jeder Palettenfarbe einen Transparenzwert enthält. Ein Alphakanal ist eine zusätzliche Information, die für jedes Pixel angibt, wie viel vom Hintergrund des Bildes durchscheinen soll. PNG unterstützt Alphakanäle von 8 oder 16 Bit, was 256 beziehungsweise 65.536 Abstufungen der Transparenzstärke entspricht. Das PNG-Format erlaubt somit, unabhängig vom Hintergrund die Kanten von Text und Bildern zu glätten. Man kann echte Schlagschatten verwenden, die im Hintergrund ausblenden, oder Bilder erzeugen, die beliebig geformt sind – wenn das Anzeigeprogramm das PNG-Format beherrscht. Metadaten und Datenblöcke. PNG-Dateien sind aus verschiedenen Datenblöcken (englisch „chunks“) mit jeweils unterschiedlichen Funktionen aufgebaut, die durch eine Zeichenkette aus vier Buchstaben gekennzeichnet werden (beispielsweise "tEXt" für textuelle Informationen). Neben den Pflicht-Blocktypen IHDR, IDAT, PLTE und IEND, die jede Implementierung unterstützen muss, sind weitere optionale Datenblöcke standardisiert. Diese können Metadaten zu den Bildinhalten und andere Zusatzinformationen enthalten, etwa zur Farbkorrektur. Diese können mit Programmen wie TweakPNG bearbeitet werden. Anwendungen können auch private Datenblöcke für eigene Zwecke definieren. Adobe Fireworks verwendet PNG als Anwendungsformat und nutzt private Datenblöcke, um darin verschiedene weitere Informationen abzulegen. Dabei besteht allerdings auch Verwechslungsgefahr mit den wesentlich kleineren, normalen PNG-Dateien. Komprimierung. Beispieldatei mit verschiedenartigen InhaltenDarstellung der Bitkosten pro Pixel obigen PNG-Bildes Die verlustfreie Datenkompression in PNG basiert auf mehreren, teils optionalen Verarbeitungsschritten. Zuerst können mit einem Vorfilter die Werte benachbarter Bildpunkte dekorreliert werden, um sie besser komprimierbar über eine Differenz zu Nachbarwerten beschreiben zu können. Dann kann mit einer Substitutionskompressionsmethode versucht werden, wiederkehrende Bildmuster zu erkennen und durch kürzere Rückverweise auf ein vorheriges Auftreten zu ersetzen. Abschließend wird eine Entropiekodierung angewendet, die Auftrittswahrscheinlichkeiten einzelner Werte ausnutzt, indem sie die Werte nach Wahrscheinlichkeit sortiert durch Codes variabler Länge ersetzt. Dekorrelation. Ein PNG-Bild mit 256 Farben, das dank Vorfilter nur 251 Byte groß ist. Das gleiche Bild als GIF-Datei wäre mehr als dreizehnmal so groß. In der Regel korreliert der Farbwert eines Bildpunktes mit Werten von Nachbarpunkten, das heißt es besteht eine Abhängigkeit oder Ähnlichkeit. Um diese Korrelationen auszunutzen, unterstützt PNG Vorfilter, die die Ausgangsdaten zunächst dekorrelieren. Dadurch werden Bildpunkte über die Differenz zu Nachbarpunkten beschrieben (Delta-Kodierung). Zu jeder Bildzeile kann eine von 5 Filtermöglichkeiten bestimmt werden (siehe unten). Die Auswahl erfolgt aus Geschwindigkeitsgründen oft heuristisch. Diese Filter ersetzen auf umkehrbare Weise die Farbwerte der Bildpunkte durch (ebenso viele, ebenso große) Differenzwerte. Dieses Differenzsignal hat in der Regel eine wesentlich geringere Dynamik, also Werte mit im Schnitt kleineren Beträgen. Diese sind von der abschließenden Entropiekodierung effektiver zu komprimieren. Je uniformer die Bildinhalte ausfallen, desto gewinnbringender funktioniert dieser Mechanismus. Bei der Dekodierung werden nach der Dekomprimierung der Daten umgekehrte Versionen der Filter angewandt, um die eigentlichen Bilddaten wiederherzustellen. Diese Möglichkeit ist einer der Gründe für die geringe Größe von PNG-Dateien. Manche Kodierer probieren zur Verbesserung der Kompression mehrere Filter durch. Dies ist besonders bei den zahlreichen Werkzeugen zur Optimierung der PNG-Kompression eine gängige Technik. In vielen Fällen bietet der nach seinem Erfinder Alan W. Paeth benannte Paeth-Predictor die besten Ergebnisse. Mit diesem wird versucht, aus den links, oben und linksoben benachbarten Bildpunkten automatisch den ähnlichsten für die Differenzbildung zu nutzen. Die Funktion wählt den Bildpunkt, der links+oben−linksoben am nächsten kommt. Substitutionskompression und Entropiekodierung. erfolgen nach dem populären Deflate-Verfahren, da dieses ohne Belastung durch Software-Patente frei verwendbar ist. Es umfasst Substitutionskompression nach Storer, Szymanski, Lempel und Ziv (LZSS-Algorithmus) und Entropiekodierung nach Huffman. Viele Programme binden für die Deflate-Kodierung und -Dekodierung (Codec) die freie Deflate-Bibliothek zlib ein, welche ursprünglich extra für PNG geschaffen wurde. Die Deflate-Komprimierung kann üblicherweise (wie auch in anderen Anwendungen – beispielsweise bei der ZIP-Kompression) im Ausgabeprogramm in 10 Stufen von 0 (keine) bis 9 (beste) eingestellt werden. Bislang ist Deflate die einzige unterstützte Methode. Es ist aber absichtlich Raum für Erweiterungen gelassen worden, um in zukünftigen PNG-Versionen auch andere, effizientere oder schnellere Algorithmen zu unterstützen. Um Abwärtskompatibilität zu existierenden PNG-fähigen Programmen zu gewährleisten, ist derzeit eine Aufnahme anderer Verfahren in den Standard jedoch nicht geplant. Farbprofile. Bis auf Safari und Firefox (nach Aktivierung) unterstützt bisher kein Browser eingebettete Farbprofile (iCCP-Blöcke). Sie bieten daher kein vollständiges Farbmanagement. Dadurch, dass Safari als einziger Browser auch vollständige Farbprofile wiedergibt, ist eine einheitliche und plattformübergreifende Darstellung bei Bildern im PNG-Format mit eingebettetem Farbprofil zurzeit nicht möglich. Zumindest für den Browser Firefox ist diese Funktion aber für die Zukunft geplant. Eingebettete Gammakorrekturwerte (gAMA-Blöcke) hingegen werden von den meisten aktuellen Browsern fehlerfrei erkannt und verarbeitet. Transparenz. Der Microsoft Internet Explorer hatte bis zur Version 6 Probleme mit der Darstellung von transparenten PNG-Dateien mit Alphakanal. PNG-Dateien mit binärer („ja/nein“-) Transparenz wurden jedoch fehlerfrei dargestellt. Es gibt aber Umgehungslösungen zur Nutzung des Alphakanals in älteren Versionen des Internet Explorers. Die neuesten Versionen der Browser Mozilla Firefox, Konqueror, Safari und Opera, sowie der Internet Explorer ab der Version 7 unterstützen PNG jedoch weitgehend fehlerfrei. Rechtliches. Das PNG-Format unterliegt keiner Patentbeschränkung. Jeder Softwarehersteller kann daher ohne Zahlung von Lizenzgebühren Programme veröffentlichen, die PNG lesen und schreiben. Vergleich mit Graphics Interchange Format (GIF). Mangels Animationsmöglichkeit stellt PNG für sich eine unvollständige Alternative zum GIF-Format dar. Animationsmöglichkeiten sind bei PNG in ein eigenes Format ausgelagert. Die beiden Formate sollten zusammen GIF vollständig ersetzen; dazu kam es bis heute nicht. Neben dem Farbpaletten-Modus unterstützt PNG zusätzlich Vollfarb- und Graustufenbilder mit einer Präzision von bis zu 16 Bit pro Farbkanal. Bei GIF ist es nur möglich, einen einzigen der Paletteneinträge als vollständig transparent zu deklarieren. Die Kompressionsrate von PNG ist meistens besser als bei GIF. Die Vorfilter sind der Grund für den meist geringeren Platzbedarf von PNG-Dateien. Dagegen ist jedoch auch die Komplexität des Formats höher. Bei PNGs progressivem Bildaufbau mit dem Adam7-Interlacing treten deutlich weniger Bildverzerrungen auf als bei GIF. Bis 2004 war die Nutzung des GIF durch die Verwendung des patentbelasteten LZW-Algorithmus’ beschränkt, wovon PNG von Anfang an frei war. (GIF war bis Oktober 2006 noch von weiteren Patenten beschränkt.) Verwandte Formate. Weder MNG, JNG, noch APNG oder PNG+ sind W3C-Empfehlungen. Software. Die offizielle Referenzimplementierung für das PNG-Format ist die Programmbibliothek "libpng". Sie unterliegt einer Freie-Software-Lizenz und findet sich daher üblicherweise auch als wichtige Systembibliothek in freien Betriebssystemen. PNGOUT und ZopfliPNG sind bekannte auf kompakteste Komprimierung optimierte PNG-Kodierer. Es existiert eine Reihe von Hilfsprogrammen zur Dateigrößenoptimierung für PNG-Dateien, die maßgeblich wegen ihres Einsatzes für die Optimierung von Webseiten-Ladezeiten bekannt sind und oft unter anderem auf diesen beiden Spezialkodierern basieren. Viele Programme speichern PNG-Bilder nicht optimal ab, was zu unnötig großen Dateien führt. Verschiedene Programme wie beispielsweise pngcrush, OptiPNG oder andere ermöglichen eine verlustfreie Neukomprimierung und oft wesentlich kleinere Dateien. Mittlerweile unterstützen alle modernen Webbrowser das Format. Wichtige Bildbearbeitungsprogramme unterstützen es üblicherweise lesend wie auch schreibend. Protolyse. Die Protolyse (oder auch protolytische Reaktion) ist eine chemische Reaktion, bei der ein Proton (H+-Ion) "zwischen zwei Reaktionspartnern übertragen wird". Mit dem Begriff Proto"lyse" wird häufig fälschlich die Abspaltung von Protonen beschrieben. Die Protolyse ist der entscheidende Vorgang nach der wichtigen Brønstedschen Säure-Base-Theorie. Danach überträgt eine Säure ein Proton (H+) an einen Reaktionspartner. Die als Säure bezeichnete Verbindung wirkt als Protonenspender ("Protonendonator"), die Base (häufig Wasser) nimmt die Protonen auf und wird daher als "Protonenakzeptor" bezeichnet. Zwischen den Reaktionspartnern stellt sich ein chemisches Gleichgewicht ein. Protolytische Reaktionen. Wird das Gas Chlorwasserstoff (HCl) in Wasser eingebracht, bildet sich unter Protolyse die Salzsäure. In dieser Gleichgewichtsreaktion sind das Molekül HCl und das Ion H3O+ Protonendonatoren, also nach Brønsted "Säuren". H2O und Cl− wirken als Protonenakzeptoren, sie sind nach Brønsted also "Basen". Wird beispielsweise reine Essigsäure (H3C–COOH) in Wasser gegeben, bilden sich unter Protolyse H3O+ und das Acetat-Anion (H3C–COO−). Hier sind CH3COOH und H3O+ Protonendonatoren, während H3C–COO− und H2O Protonenakzeptoren sind. In dieser Reaktionsgleichung sind die Moleküle H2SO4 und das Ion H3O+ Protonendonatoren, also nach Brønsted "Säuren". H2O und SO42− wirken als Protonenakzeptoren, sie sind nach Brønsted also "Basen". Eine besondere Rolle spielt HSO4−, das je nach Reaktionsrichtung als Protonenakzeptor oder Protonendonator reagieren kann. Man bezeichnet Substanzen mit solchen Eigenschaften als Ampholyte. Wird das Gas Ammoniak (NH3) in Wasser eingeleitet, bilden sich Ammonium-Ionen (NH4+) und Hydroxid-Ionen (OH−). Protonendonatoren sind hier NH4+ und H2O, während OH− und NH3 Protonenakzeptoren sind. Autoprotolyse. Reines Wasser unterliegt einer sogenannten "Autoprotolyse" (auch "Autodissoziation"). Hierbei entstehen Oxoniumionen (H3O+) und Hydroxidionen (OH−). H2O kann sowohl als Protonendonator (als Säure) oder als Protonenakzeptor (als Base) reagieren. Man spricht daher auch hier von einem Ampholyten. Das Gleichgewicht liegt sehr stark auf Seite des Wassers. Das Ionenprodukt für diese Reaktion beträgt bei 298 K (25 °C) etwa 10−14 mol2 l−2. Die Autoprotolyse des Wassers ist der Grund dafür, dass auch chemisch reines Wasser eine zumindest geringe elektrische Leitfähigkeit besitzt. Eine Anwendung der Autoprotolyse zur elektrischen Ladungstrennung findet sich bei dem Kelvin-Generator, wenn dieser mit chemisch reinem Wasser betrieben wird. Autoprotolyse in nichtwässrigen Lösungen. In Brønstedschen Säure-Base-Reaktionen können neben Wasser auch andere hinreichend polare Lösungsmittel als Reaktionspartner dienen, zum Beispiel Methanol oder Ethanol. Ein gutes Beispiel ist die Autoprotolyse des flüssigen Ammoniaks. Es bilden sich die Ionen Ammonium und Amid. Phase Alternating Line. Das -Verfahren, kurz PAL, ist ein Verfahren zur Farbübertragung beim analogen Fernsehen. Es wurde mit dem Ziel entwickelt, störende Farbton-Fehler, die im NTSC-Verfahren nur manuell und unbefriedigend ausgeglichen werden können, automatisch zu kompensieren. Grundlage des Verfahrens ist der Gedanke, dass zwei aufeinander folgende Bildzeilen mehr Ähnlichkeit als Unterschied aufweisen, weil Bilder aus Flächen bestehen. Der technische Kniff, das rote Farbdifferenzsignal jeder zweiten Bildzeile zur vorhergehenden um 180° phasenverschoben (darum der Name) zu übertragen, ermöglicht es, auf der Empfängerseite durch Verrechnung der beiden Zeilen einen eventuell auftretenden Farbton-Fehler vollständig aufzuheben, lediglich ein kleiner Farbsättigungs-Fehler bleibt. Ein Fehler der Farbsättigung ist für den Menschen allerdings wesentlich schwerer wahrzunehmen als ein Farbtonfehler. Dadurch, dass jeweils 2 Bildzeilen zur Farbinformationsgewinnung herangezogen werden, reduziert sich die vertikale Farbauflösung auf die Hälfte. Da die räumliche Auflösungsfähigkeit des menschlichen Sehsinnes für Farbinformationen gegenüber derjenigen für Helligkeitsinformationen jedoch geringer ist, nimmt man diesen Nachteil in Kauf. PAL wird vor allem in Europa benutzt, aber auch in Australien und vielen Ländern in Afrika, Asien und Südamerika. Details siehe im Abschnitt "Verbreitung." Umgangssprachlich wird der Begriff PAL häufig für die Gesamtheit aller Parameter der Fernsehnorm verwendet. Geschichte. Die Anfänge des Fernsehens waren unbunt. Es wurden nur die Helligkeitswerte des Bildes übertragen, keine Farben. Um bereits vorhandene Schwarz-Weiß-Fernsehapparate nach Einführung des Farbfernsehens weiterhin nutzen zu können, wurden die Farbfernsehsysteme abwärtskompatibel entwickelt. Mit einem Schwarz-Weiß-Fernseher konnte man bei geringfügig verschlechterter Bildqualität auch Farbausstrahlungen, auf einem Farbfernseher auch Schwarz-Weiß-Ausstrahlungen empfangen. PAL wurde Anfang der 1960er Jahre von Walter Bruch bei der Telefunken GmbH in Hannover entwickelt, zum Patent angemeldet und am 3. Januar 1963 erstmals vor Experten der Europäischen Rundfunkunion (EBU) vorgeführt. Auf die Frage, warum er dem unter seiner Leitung entwickelten Verfahren den Namen „PAL“ gab, antwortete er sinngemäß: „Ein Bruch-System wäre wohl schwer verkäuflich gewesen.“ Das Farbfernsehen in der Bundesrepublik Deutschland wurde auf der 25. Großen Deutschen Funkausstellung in West-Berlin durch den Vizekanzler der Bundesrepublik Deutschland Willy Brandt am 25. August 1967 mit einem Druck auf einen roten Knopf gestartet. In dieser Szene wurde die Farbe wenige Sekunden zu früh zugeschaltet, da der rote Knopf lediglich eine Attrappe war. Um 9.30 Uhr übertrugen die Fernsehsender ARD und ZDF die Begrüßungsmoderation durch Edith Grobleben vom Sender Freies Berlin (SFB) in Farbe. Bereits am 5. August 1967 entschied sich die Schweiz für die Einführung des PAL-Farbfernsehsystems, begann aber erst später mit der Übertragung in Farbe. Als ein möglicher, abwärtskompatibler Nachfolger und Zwischenschritt zum digitalen Fernsehen wurde PALplus in den 1990er Jahren entwickelt, hat sich jedoch nicht weit verbreitet. Vergleich. PAL hat die grundlegenden Konzepte der Signalübertragung vom amerikanischen Farbübertragungssystem NTSC übernommen. Es benutzt, wie NTSC, die Quadraturamplitudenmodulation für die Farbübertragung. Als Verbesserung treten die bei NTSC-Übertragung typischen Farbartschwankungen nicht mehr auf, allerdings wird dies mit erheblichem Mehraufwand bei der Schaltung und (meist kaum) sichtbaren Schwankungen in der Farbsättigung erkauft. Es kann jedoch bei beiden Systemen zu Cross-Color- und Cross-Luminance-Störungen kommen, die sich als störende farbige Muster (Moiré-Effekt) oder als Unruhe an Farbübergängen äußern. Moiré tritt besonders bei feinen Strukturen im Bild auf, zum Beispiel bei kleinkarierten Hemden. Mit erhöhtem Schaltungsaufwand können diese Störungen reduziert werden (Kammfilter). Zusätzlich verschlechtert sich bei PAL im Vergleich zu NTSC die vertikale Farbauflösung. Das französische Farbfernsehsystem SECAM unterscheidet sich wesentlich stärker von NTSC als PAL. Fernsehnormen mit PAL-Farbübertragung. Im PAL-Farbsystem selbst ist keine Zeilen- oder Bildfrequenz definiert, stattdessen gibt es verschiedene Normen. In Deutschland wird üblicherweise ein Videoformat mit 625 Zeilen pro Bild verwendet, welches eine Bildübertragungsrate von 25 Vollbildern pro Sekunde besitzt. Diese werden halbbildweise übertragen, d. h. es wird erst ein Halbbild mit 312½ ungeraden und dann ein Halbbild mit 312½ geraden Zeilen übertragen, was eine Halbbildfrequenz von 50 Hz ergibt, das sogenannte Zeilensprungverfahren. Dadurch erhält man bei geringer Bandbreite des Fernsehsignals ein flimmerarmes Bild. Das PAL-System überträgt die Fernsehnormen B, G, H, I und N. Einige osteuropäische Staaten, die ihre Fernsehnorm von SECAM D und K auf PAL umgestellt haben, verwenden PAL D/K, wobei es einige Ausnahmen gibt, in denen die Länder komplett auf PAL B/G umgestellt haben. In Brasilien wird PAL in Verbindung mit 525 Zeilen und 29,97 Bildern pro Sekunde (System M) und einer fast identischen Farbträgerfrequenz wie NTSC benutzt. Alle anderen Länder, die das Übertragungssystem „M“ benutzen, verwenden NTSC für das Farbfernsehen. In Argentinien, Paraguay und Uruguay wird PAL mit den normalen 625 Zeilen verwendet, jedoch mit einer Farbträgerfrequenz, die fast mit der für NTSC identisch ist. Diese Abart der PAL-Norm wird PAL-N und PAL-CN genannt. Fernsehgeräte mit PAL. Neuere PAL-Fernsehempfänger können fast alle PAL-Varianten (außer PAL-M und PAL-N) verarbeiten und korrekt wiedergeben. Viele davon können auch fehlerfrei SECAM darstellen, das in Osteuropa und im Nahen Osten verbreitet ist. Allerdings funktionieren sie im Regelfall nicht mit der Variante des SECAM-Systems, die in Frankreich verwendet wird; davon ausgenommen sind Geräte französischer Herkunft. Viele dieser neueren Geräte kommen auch problemlos mit NTSC-M-Signalen zurecht, die von Videorekordern, DVD-Spielern oder Spielkonsolen erzeugt werden und über die Videobuchse oder die SCART-Buchse ins Fernsehgerät eingespeist werden (sogenannte Basisband-Signale). Allerdings treten häufig Probleme auf, wenn es um die Verarbeitung von NTSC-Signalen geht, die von Fernsehstationen ausgestrahlt werden oder über Kabelnetze übertragen werden und die über die Antennenbuchse ins Fernsehgerät eingespeist werden (hochfrequent aufmodulierte Signale). Konvertierung. Kinofilme werden traditionell mit 24 Bildern pro Sekunde gedreht, dadurch ergibt sich auf PAL-Geräten eine Laufzeitverkürzung um 4 %, da PAL 25 Bilder in der Sekunde wiedergibt. Dieser schnellere Ablauf des Filmes (Fachbegriff: PAL-Beschleunigung) wird von Menschen kaum wahrgenommen, nur die damit einhergehende, etwa einen Halbton höhere Tonwiedergabe kann auffallen, wenn man zum Beispiel darin vorkommende Musikstücke schon von anderen Quellen (CDs, etc.) kennt. Technik. PAL baut wie NTSC und SECAM auf dem Schwarz-Weiß-Fernsehen auf. Aus Gründen der Kompatibilität müssen die Farbkomponenten „versteckt“ innerhalb des S/W-Luminanzsignals (Grauwert) mit übertragen werden. Weil dieses bereits aus allen drei Farbkomponenten zusammengesetzt ist, reicht die Übertragung von zwei Farbdifferenzsignalen für Rot (R-Y) und Blau (B-Y) aus. Diese beiden Signale werden aus der Differenz von Farb- und Luminanzsignal (schwarz-weiß-Signal) gebildet. Im Empfänger können aus den drei Signalen R-Y, B-Y und Y die drei Farbsignale R, G und B wieder erzeugt werden. (Dies beschreiben die Artikel YUV und Farbübertragung.) Durch die additive Farbmischung können mit den drei Einzelfarben Rot, Grün und Blau alle anderen Farben zusammengesetzt werden, begrenzt durch den Farbraum der Farbbildröhre. Ebenso wie NTSC verwendet PAL für die Übertragung der beiden Farbdifferenzsignale Rot minus Helligkeit (R-Y) und Blau minus Helligkeit (B-Y) die Quadraturamplitudenmodulation (QAM). Da bei der QAM der Träger unterdrückt ist, dieser für die Demodulation aber benötigt wird, wird er im Empfänger durch einen quarzgesteuerten Hilfsträgeroszillator neu generiert. Dieser wird durch den „Burst“, einer ca. 10 Perioden langen Schwingung, die auf der hinteren Schwarzschulter des FBAS-Signals übertragen wird, mit dem Sendersignal synchronisiert. PAL korrigiert automatisch Phasenfehler auf dem Übertragungsweg, die zu einer falschen Farbdarstellung führen. Hierzu wird der R-Y-Anteil des Farbsignals nach jeder übertragenen Zeile um 180° phasenverschoben (also einfach „umgepolt“) und tritt dann im Farbartsignal mit Phasenverschiebungen von +90°, bzw −90° auf (siehe Falschfarben). Die Information, welche Phasenlage das R-Y-Signal gerade hat, wird im Burst mit übertragen. Bei +90° ist die Phase des Bursts +135°, bei −90° entsprechend −135°. Das B-Y-Signal hat dabei immer die Phasenlage 0°. Darstellung des FBAS-Signals bei PAL, eine Bildzeile. Der PAL-Burst befindet sich an Punkt 5. Vermeidung der Farbfehler. "Phase Alternating Line" invertiert die Phase des Rot-Differenzsignals von Zeile zu Zeile. Im Empfänger werden, im Gegensatz zu NTSC, Farbtonfehler (die in diesen Systemen den häufig auftretenden elektrischen Phasenfehlern entsprechen) durch Mittelwertbildung des Farbsignals zweier benachbarter Zeilen automatisch kompensiert, wenn die Farbe und der Farbtonfehler zwischen beiden Zeilen konstant sind, und in einen geringen Farbsättigungsfehler umgewandelt. Farbsättigungsfehler fallen dem menschlichen Auge wesentlich weniger auf als Farbtonfehler. Dies ist der entscheidende Vorteil des PAL-Verfahrens gegenüber NTSC. Stellt man sich die analoge Quadraturamplitudenmodulation (QAM) im Zeigerdiagramm vor (siehe Abbildung), so steckt beim jeweiligen Zeiger in der Phase (Richtung) die Farbart (der Farbton), in der Länge des Zeigers der Farbkontrast (die Farbsättigung). Die beiden Farbsignale R-Y und B-Y werden dabei im Sender zueinander um 90 Grad verschoben, dann auf den Farbhilfsträger mittels QAM moduliert und als ein Signal übertragen. Treten Phasenfehler auf, würden sich diese daher bei einer einfachen Demodulation wie bei NTSC als Farbtonfehler zeigen. Jedoch wird bei PAL in jeder zweiten Zeile der Träger der Rotkomponente (R-Y) um 180 Grad gedreht, die Blaukomponente (B-Y) wird ohne laufenden Phasensprung übertragen. Von diesem Prinzip leitet sich auch der Name "PAL" ab. Bei der Demodulation wird diese Phasendrehung entsprechend kompensiert und damit ein eventuell aufgetretener Phasenfehler (Farbtonfehler) über zwei aufeinanderfolgende Zeilen weggemittelt. Dabei geht man davon aus, dass sich von Zeile zu Zeile die Farbinformation nur wenig ändert und der zu verdeckende Farbfehler sich ebenfalls von Zeile zu Zeile wenig ändert. Über diesen Voraussetzungen wird der Farbtonfehler 1. Ordnung in einen Farbsättigungsfehler 2. Ordnung umgewandelt, der vom Auge wesentlich schwieriger wahrzunehmen und daher vernachlässigbar ist. Da zur Dekodierung des PAL-Signals jeweils die Information der aktuellen sowie der vorherigen Zeile benötigt werden, durchläuft das eingehende PAL-Signal im Empfänger eine Verzögerungsleitung mit einer Laufzeit knapp von der Länge einer Fernsehzeile (63,943 μs) zur Speicherung. Ausgegeben wird dann jeweils ein Mittelwert zwischen dem gerade einlaufenden und dem aus der vorigen Bildzeile gespeicherten Signal. Nachteilig ist jedoch, dass sich dabei die Farbinformation um eine halbe Zeile nach unten verschiebt, was besonders unangenehm bei mehrfach kopierten Videokassetten auffällt, da bei jedem Kopiervorgang eine weitere Verschiebung entsteht. Wahl der NTSC-Farbträgerfrequenz. Die Farbträgerfrequenz wurde so gelegt, dass das durch sie hervorgerufene Stör-Moiré (vor allem auf den bereits existierenden Schwarz-Weiß-Empfängern) möglichst unauffällig ist und gleichzeitig feinstrukturierte Helligkeitsinformationen (feinkarierte Hemden im Bild u.ä.) möglichst wenig störende Farbbilder verursachen. Zugleich darf jedoch auch das Tonsignal nicht gestört werden. Das ergibt dann 4,5 MHz / 286 * 227,5 Perioden = 3,57954545 MHz für den Farbträger bei der NTSC-Farbmodulation. Es werden etwa 1,3 MHz des unteren Seitenbandes und 0,4 MHz des oberen Seitenbandes davon übertragen. Durch die Natur des Farbsignals treten dabei ganz bestimmte Frequenzen in diesen Seitenbändern wesentlich stärker auf als andere; im Empfänger genügt es diese Frequenzen aus dem Schwarz-Weiß-Bild wieder „herauszufischen“, um eine möglichst saubere Trennung von Helligkeits- und Farbinformation zu erreichen. Wahl der PAL-Farbträgerfrequenz. Die Farbträgerfrequenz wurde so gelegt, dass das durch sie hervorgerufene Stör-Moiré möglichst unauffällig ist und gleichzeitig feinstrukturierte Helligkeitsinformationen möglichst wenig störende Farbbilder verursachen. Schwarz-Weiß-Bild mit schwarz-weißen Farbmustern des Farbsignals, das Signal erscheint in Form diagonaler Streifen Das ergibt dann 15625 Hz * 283,75 Perioden + 25 Hz = 4,43361875 MHz für den Farbträger bei der PAL-Farbmodulation. Es werden etwa 1,3 MHz des unteren Seitenbandes und 0,65 MHz des oberen Seitenbandes davon übertragen. Die Farbträgerfrequenz wird üblicherweise im Empfangsgerät durch einen vom Fernsehsender nachsynchronisierten Quarzoszillator erzeugt. Dieser Oszillator wird durch den Burst in Frequenz und Phase an den Oszillator beim Sender angeglichen. Damit steht in jedem Fernsehgerät eine stabile, hochkonstante Referenzfrequenz zur Verfügung. Die verwendete Frequenz wird teilweise auch zur Basisband-Übertragung von NTSC verwendet und heißt dann NTSC-4.43. Dieses Verfahren wird häufig mit PAL 60 verwechselt, unterscheidet sich jedoch darin, dass der Farbunterträger seine Phasenlage nicht ändert. Ein PAL 60 können auch die meisten neueren PAL-Fernseher problemlos anzeigen, weshalb es beispielsweise genutzt wird, um NTSC-DVDs auf einem PAL-Fernsehgerät wiederzugeben. Die Störunterdrückung des Farbträgers (Trägerfrequenz ist das 281,78-fache der Zeilenfrequenz, was nicht mehr halbzahlig ist) ist dann allerdings nicht mehr optimal. Demodulation. Die Mittelung von benachbarten Zeilen bei der Dekodierung ist bei PAL, im Gegensatz zu SECAM, nicht prinzipiell notwendig. Man kann jede Zeile auch für sich unabhängig dekodieren. Die Korrektur von Farbtonfehlern funktioniert bei geringen Fehlern immer noch ordentlich, die Mittelung wird bei geringem Farbtonfehler (wie man sie heutzutage durch Kabelfernsehen und andere phasenfestere Übertragungsmethoden häufig antrifft) problemlos durch das menschliche Auge übernommen. Die vertikale Auflösung verringert sich dabei (gegenüber der Variante mit Zeilenmittlung) nicht. Die Gerätehersteller können auf diese Weise die PAL-Lizenzen umgehen. Bei der Farbübertragung von PAL via Y/C (Hosidenverbindung, S-Video), also mit getrenntem Helligkeits- und Farbsignal, ist auch eine größere Farbbandbreite möglich, da es keine Beschränkung auf 1,3 MHz Bandbreite mehr gibt. Hiervon wird jedoch kaum Gebrauch gemacht. Referenzen. Die derzeit neueste Version des Standards, der das PAL-System (und auch das NTSC-System) definiert, wurde 1998 von der Internationalen Fernmeldeunion ("International Telecommunications Union" - ITU) publiziert und hat den Titel „Recommendation ITU-R BT.470-6, Conventional Television Systems“. Diese Publikation ist nicht öffentlich im Internet zugänglich, kann aber bei der ITU gekauft werden. Verbreitung. In vielen Ländern stirbt die Farbnorm aus. PAL in Deutschland gibt es nur noch in Kabelnetzen. In den Kopfstationen wird SDTV über DVB in analoges PAL-Fernsehen umgesetzt, um Fernsehgeräten ohne DVB-C den Empfang zu ermöglichen. Eine ähnliche Situation liegt vor, wenn DVB-C verschlüsselt übertragen wird. Scherzhafte Falschübersetzung der Abkürzung PAL. In Anlehnung an die in Europa geprägten falschen Übersetzungen („Nie die gleiche Farbe“) und („Seit Christi Geburt nie getestet“) für die amerikanische Farbnorm NTSC revanchierten sich die US-Amerikaner mit den ebenso falschen, scherzhaften Übersetzungen („Bezahle den zusätzlichen Luxus“) sowie („Bezahle eine weitere Lizenz“) für die europäische Farbnorm PAL. Diese bezogen sich auf den größeren Schaltungsaufwand und den deshalb höheren Preis der PAL-Farbfernseher zu Beginn des Farbfernsehzeitalters. Europa schlug mit den Aufschlüsselungen („Endlich Frieden“) und („Endlich Perfektion“) für PAL zurück, die wieder auf die schlechte Qualität der NTSC-Norm verwiesen. Bei PAL ist eine automatische Farbkorrektur integriert, außerdem wurde Flimmern, durch mit den Halbbildern vorgetäuschte 50 Hertz, reduziert. NTSC entspricht einer Videoübertragung in einfacherer Form, die zwar bei direkter Übertragung z. B. von einem DVD-Spieler auf einen Fernseher unproblematisch ist, aber bei der ursprünglichen analogen Übertragung, vor allem per Antenne, erhebliche Farbschwankungen aufweist. Digitales PAL. Alles bisher Beschriebene bezieht sich auf den Begriff PAL in der analogen Welt, also zum Beispiel Analogfernsehen und Videorekorder. In der digitalen Welt, etwa beim Digitalfernsehen, neueren Spielkonsolen oder auf einer DVD, wird die Farbkodierung, die mit der Eingangsbuchse des Ziel-Fernsehers kompatibel ist, erst im Abspielgerät erzeugt und ist nicht auf dem Medium selbst gespeichert. Auf diesem werden die Farbinformationen dagegen, unabhängig ob digitales PAL/SECAM oder digitales NTSC, stets mittels des digitalen Farbmodells YCbCr kodiert. Zwischen PAL und SECAM besteht auf einem digitalen Medium kein Unterschied mehr – ein PAL-DVD-Spieler erzeugt aus einer „PAL-DVD“ ein analoges PAL-Videosignal, ein SECAM-DVD-Spieler aus der gleichen DVD ein analoges SECAM-Videosignal. Und das auch nur bei Ansteuerung per FBAS/Composite Video/RCA oder S-Video/YC/Hosiden-Anschluss. Am RGB/SCART oder YPbPr-Component-Video-Anschluss oder über digitale Schnittstellen (DVI, HDMI) findet keine Wandlung in YUV (analoges PAL), YDbDr (analoges SECAM) oder YIQ (veraltet, früher bei analogem NTSC verwendet) mehr statt. Zusätzlich zur oben genannten Ausformung des digitalen PAL gibt es noch eine weitere Form. Dabei wird das analoge Signal mit der vierfachen Farbträgerfrequenz abgetastet. Die Abtastung geschieht synchron zum Burst. Durch Addition und Subtraktion nahestehender Abtastwerte erhält man das Farbdifferenzsignal. Dieses Verfahren wird besonders intern in videoverarbeitenden Geräten benutzt. Digitale Fernsehgeräte arbeiten hier häufig mit einer 7- oder 8-Bit-genauen Abtastung (Analog-Digital-Wandlung), bessere Geräte verwenden bis zu 10 Bit. Frühe digitale Videorekorder (zum Beispiel D2) nutzten ebenfalls dieses Verfahren. Auflösung. PAL bezeichnet im Digitalbereich, losgelöst von der Bedeutung des Akronyms, alle Bildformate mit einer Bildauflösung von 576 sichtbaren Zeilen je Vollbild (ggf. auch 288) bei 25 Vollbildern pro Sekunde; die horizontale Auflösung variiert. Heutige Bezeichnungen (nach EBU) sind bei Verwendung des Zeilensprungverfahrens 576i/25, bei Vollbildern 576p(sf)/25 (es wird in jedem Fall in „Bildern“ gezählt, nicht in „Feldern“). Technisch gesehen ist 576p immer „psf“ (progressive segmented frame), der Einfachheit spricht man von 576p (es gibt hier keine tatsächliche Progressive Kodierung, wie beispielsweise bei 720p). Den Gegenpart zu „PAL“ bildet hier wiederum „NTSC“, das auf digitalen Medien eine Auflösung von 480 (bzw. 486) Zeilen je Vollbild bei entweder 29,97 bzw. 30, oder (für Spielfilme) 23,976 bzw. 24 Vollbildern pro Sekunde bedeutet, wobei die Farbinformationen auf dem Medium ebenfalls YCbCr-kodiert gespeichert sind. Fast alle PAL-DVD-Spieler können jedoch aus NTSC-Medien ein PAL-60 genanntes PAL-ähnliches Signal erzeugen, mit dem fast alle neueren PAL-Fernsehgeräte problemlos zurechtkommen. Die horizontalen Auflösungen beziehen sich auf das PAL-System in seiner digitalisierten Darstellung, welche mit Pixeln arbeitet wie es z. B. im ITU-R BT 601-Standard festgelegt ist. Dort besteht eine digitale Zeile aus nicht-quadratischen Pixeln. Digital entspricht im PAL-System ein 4:3-Bild einer Auflösung von 702×576 wobei allerdings typischerweise 720×576-Bilder gespeichert werden. (siehe Artikel CCIR 601 zur Entstehung der 702 Pixel) Falls das gewünschte Ausgabemedium mit (idealisierten) quadratischen Pixeln arbeitet (z. B. ein an einen PC angeschlossener Monitor), muss dies entsprechend berücksichtigt werden, indem das Seitenverhältnis idealerweise umgerechnet wird. Quadratische Pixel. PAL im Vergleich zu HDTV In vielen Medien wird dies vielfach falsch erklärt und weitergegeben, auch viele Softwarepakete rechnen hier falsch. Zum Beispiel rechnet Adobe After Effects und Photoshop erst ab der Version CS4 korrekt, in früheren Versionen wurde mit dem gängigen, aber falschen Pixelseitenverhältnis (PAR) gerechnet. Nicht-quadratische Pixel. Bei nicht-quadratischen Pixeln ist das Seitenverhältnis ("Aspect Ratio" oder "AR") des Bildes (z. B. 4:3) nicht identisch zum Verhältnis der horizontalen zur vertikalen Pixelzahl (z. B. 11:9 bei 704 × 576). Daher muss neben der reinen Pixelzahl zusätzlich entweder das Seitenverhältnis der Pixel oder das des Gesamtbilds angegeben werden; es muss also eindeutig sein, ob es sich um das Pixelseitenverhältnis ("PAR") oder das Bild-Seitenverhältnis ("DAR") handelt. Nur dann kann ein verzerrungsfreies Bild angezeigt werden. Persönliche Identifikationsnummer. Mitteilung einer PIN, die zuvor durch Abdeckung gegen Einsichtnahme gesichert war Eine Persönliche Identifikationsnummer (PIN) oder Geheimzahl ist eine nur einer oder wenigen Personen bekannte Zahl, mit der diese sich gegenüber einer Maschine authentisieren können. Häufig werden auch das redundante Akronym PIN-Nummer oder die Bezeichnung PIN-Code verwendet. Ursprünglich besteht eine PIN nur aus Ziffern, inzwischen gibt es aber auch Banken, die etwa beim Online-Banking PINs aus Ziffern und Buchstaben vorschreiben. Insofern besteht zwischen einer PIN und einem Passwort kein Unterschied. Bei der Karte ohne Chip erfolgt diese Verarbeitung nach dem Lesen der Daten von der Karte ausschließlich in einer geschützten Umgebung, bei Karten mit Chip leistet diese zusätzlich einen durch die Verbindung zum Leser geschützten Beitrag. Verwendung. Eine häufige Anwendung für PINs ist die Authentifizierung an einem Geldautomaten. Hier ist die Eingabe einer mindestens vierstelligen Zahl nötig, um einen Kontozugriff durch unbefugte Personen zu verhindern oder zumindest zu erschweren. Auch kann man mit der Bankkarte und der zugehörigen PIN in vielen Geschäften bargeldlos zahlen. Auch für das Internetbanking ist zumeist eine PIN nötig. Mit dieser PIN und den Kontodaten kann man sich sein Konto, den Kontostand und die letzten Buchungen ansehen. Mit einer TAN kann man dann eine Überweisung tätigen oder andere Bankgeschäfte abwickeln. PINs werden auch zum Schutz von Mobiltelefonen vor unberechtigter Nutzung und in vielen weiteren Anwendungsgebieten der Technik verwendet, wo ein Mindestmaß an Sicherheit erforderlich ist. SIM-Karten für Mobiltelefone werden mit einer PIN, PIN2, PUK und PUK2 ausgeliefert. Alle Codes sind auf der SIM-Karte gespeichert. PINs sind veränderbar, PUKs nicht. Die PUKs dienen für die Entsperrung gesperrter PINs. Die PIN2 wird zum Ändern von speziellen oft kostenpflichtigen Diensten verwendet. Technische Gestaltung. Das Bundesamt für Sicherheit in der Informationstechnik hat im Jahr 2001 ein neu eingeführtes PIN-Verfahren begleitet. Die PIN ist neben der Kontonummer, der Bankleitzahl und anderen Daten – in besonders verschlüsselter Form auf den EC-Karten enthalten. Mit der Tastatur des Geldautomaten ist ein so genannter Krypto-Prozessor verbunden, der die PIN zur sicheren Übertragung entschlüsselt. Zur vorangegangenen Verschlüsselung nutzen die Kreditinstitute das Verschlüsselungsverfahren Data Encryption Standard (DES). Bei der einfachen Variante des DES werden die zu verschlüsselnden Informationen in Textblöcke zu je 64 Bit umgewandelt. Dann werden die Zeichen innerhalb eines Blocks mehrfach vertauscht und addiert. Diese Zahlendaten werden außerdem geteilt und zur Sicherheit weitere 16 Male chiffriert. Schon die alte Variante war damals nur durch Profis zu knacken – aufgrund der rasanten Entwicklung der Computertechnik war es jedoch möglich. Seit 1997 benutzen die Banken nunmehr den Triple-DES, eine Variante mit noch längeren Verschlüsselungsketten, die jedenfalls für die Gerichte als sicher gilt. Letztendlich ist es allerdings gar nicht unbedingt nötigt ein volles Triple-DES zu knacken. Insider scheinen Angriffstechniken gegen das Verfahren entwickelt zu haben bei denen sie z.B. durch Kompromittierung der Terminals auch ohne Triple-DES zu knacken an die PIN kommen. Konkret passiert also Folgendes: Der Geldautomat liest die verschlüsselte PIN von der Karte. Er entschlüsselt diese mit Hilfe eines Krypto-Prozessors und des im Geldautomaten hinterlegten Institutsschlüssels. Schließlich vergleicht er das Ergebnis mit der eingegebenen Ziffernfolge. Im Falle der Übereinstimmung sind die weiteren Transaktionen freigegeben (z.B. Abhebung), andernfalls nicht. Kartenterminals und Kassen, wie sie im Einzelhandel, der Gastronomie und in anderen Branchen vorkommen, verwenden dasselbe Prinzip, um Kartenzahlung mit PIN zu autorisieren. Sicherheit. Es ist deshalb auch mit größtmöglichem finanziellen Aufwand mathematisch ausgeschlossen, die PIN ohne vorherige Erlangung des Institutsschlüssels in einer Breite von 118 Bit zu ermitteln. Ein Betrüger, der eine Maestro-Karte (ehem. EC-Karte) gefunden oder gestohlen hat, wird probieren, damit an einem Automaten Geld abzuheben. Auch wenn er die PIN nicht kennt, kann er versuchen, sie zu raten. Bei der vierstelligen Maestro-Karten-PIN aus numerischen Ziffern ist die Wahrscheinlichkeit, dass der Betrüger die PIN mit einem Versuch raten kann, 1/10000 (Bei Ziffern von 0–9 ergeben sich für jede Ziffernstelle 10 Möglichkeiten – bei 4 Stellen folgt daraus: 104=10.000). Da jedoch im Allgemeinen bis zu drei Versuche erlaubt sind, hat der Betrüger eine Wahrscheinlichkeit von etwa Wenn beim Online-Banking eine fünfstellige PIN verwendet wird mit ausschließlicher Nutzung von Ziffern, ergibt sich somit (unter Vernachlässigung der Beschränkung von Kombinationen) eine Ratewahrscheinlichkeit von ungefähr 1 zu 33 Tsd. (wegen formula_4). Falls jedoch auch Kleinbuchstaben verwendet werden, verringert sich die Wahrscheinlichkeit bei zehn Ziffern und 26 Buchstaben auf ungefähr 1 zu 20 Mio. Damit eine PIN nicht durch wiederholtes Ausprobieren zu erraten ist (sog. Enumerations-Angriff), darf ein durch PIN geschütztes System nicht beliebig viele falsche Eingaben der PIN akzeptieren. Insbesondere bei Online-Formularen könnte ein Angreifer sonst einfach automatisch alle möglichen PIN durchprobieren. Die meisten Systeme sperren daher nach einer bestimmten Anzahl von Falscheingaben der PIN den Zugang, der dann auf anderem Wege (meist durch eine weitere PIN oder durch den Kundendienst des Anbieters) entsperrt werden muss. Bei Geldautomaten, beim Online-Banking und bei Mobiltelefonen erfolgt die Sperre üblicherweise nach drei Falscheingaben. Bemerkung: Die PIN auf dem Magnetstreifen erlaubt lediglich eine Übertragung zur unidirektionalen Prüfung oder zum erneuten Schreiben. Heute tragen Bankkarten meist neben dem Magnetstreifen zusätzlich einen Chip, der eine dynamische Prüfung der PIN durch eine bidirektionale Verbindung ermöglicht. Das unterstützt einen komplexeren Schutz. PINs unterliegen bei der Eingabe dem Angriff durch Skimming, einer betrügerischen Handlung. Probleme im Zahlungsverkehr. Viele international herausgegebene Kreditkarten sind mittlerweile mit bis zu sechsstelligen PINs gesichert, in Europa betrifft dies zum Beispiel einen großen Teil der Schweizer Kreditkarten. Häufig ergeben sich hierbei im internationalen Umgang mit Zahlungssystemen Probleme, denn die meisten Händler akzeptieren nur noch Kreditkarten-Einsätze mit PIN-Code. Sollte das Lesegerät des Händlers fest auf vierstellige PINs programmiert sein und keine Möglichkeit zur Eingabe von 6 Ziffern bieten, kann so mit der Karte nicht bezahlt werden; dies ist beispielsweise bei vielen niederländischen Fahrkartenautomaten und einem Großteil der POS-Systeme der Fall. Auffällig ist die Häufung dieses Problems bei POS-Systemen mit zeilenbasierten LC-Displays. Systeme wie beispielsweise Geldautomaten mit großen LC-Displays schalten bei Einführung einer Kreditkarte meist in einen Modus, der die Eingabe PINs beliebiger Länge erlaubt. Abhilfe für den Konsumenten schafft hier meist, sofern möglich, die Änderung der PIN auf vier Stellen im Ursprungsland. Priester. Der Priester () existiert in einem Großteil der Religionen als eine aus der Allgemeinheit herausgehobene Amtsperson, die in ihrer Eigenschaft als Vorsteher kultischer Handlungen eine Mittlerrolle zwischen jeweiliger Gottheit und den Menschen einnimmt. Das deutsche Wort Priester stammt vom griechischen πρεσβύτερος, "presbyteros" ‚Ältester‘. Davon abgeleitet sind auch die entsprechenden Wörter vieler europäischer Sprachen. Religionsphänomenologisch und soziologisch steht der Priesterbegriff jedoch im Bedeutungsfeld von griech. ἱερός, "hierós" ‚heilig, geweiht‘ und lat. "sacerdos" (von "sacer" ‚heilig, geweiht‘). Das Judentum und der Islam sehen keinen Mittler zwischen dem Menschen und Gott vor, folglich gibt es bei diesen Religionen keine Priester. Die jüdischen Tempelbediensteten und die islamischen Vorbeter (Imame) sind nur theologisch gebildete Bedienstete, die bestimmte Aufgaben bei den Gottesdiensten erfüllen. Im Islam können die fünf täglichen Gottesdienste sowohl in der Moschee als auch allein und zu Hause durchgeführt werden. Ein Vorbeter ist nur dann nötig, wenn mehrere Gläubige gemeinsam beten (gewissermaßen zur Synchronisation des Rituals); er soll ein Mindestmaß an theologischen Fertigkeiten besitzen. Religionswissenschaftliche Definition. In fast allen Religionen gibt es Menschen, die durch besondere Kenntnisse, Fähigkeiten, Vollmachten und göttliche Kräfte eine Verbindung zwischen dem göttlichen Bereich und der Alltagswelt der Menschen vermitteln und dadurch als göttlicher Stellvertreter ordnen, heilend wirken oder Erkenntnisse gewinnen. Aus schamanischen Ursprüngen hat sich in den Hochkulturen in der Regel im Umfeld der Tempel ein Priesterstand mit genau geregelten Rechten und Pflichten entwickelt. Die jüdischen Tempelbediensteten, die Kohanim (Einzahl: Kohen) lassen sich nicht in den religionswissenschaftlichen Grundsatz einordnen. Sie sind und waren keine Mittler zwischen Menschen und Gott und haben entschieden keine göttlichen Kräfte. Dies im Unterschied zu anderen Religionen, die gerade priesterliche Vermittler zwischen Gott (bzw. Göttern) und den Menschen vorsehen und aus ihrer zwingenden Vermittlerrolle heraus die Existenzberechtigung herleiten. Bei der Einordnung in das Typen-Modell religiöser Autorität ergeben sich für den Priester gewisse Überschneidungen zu anderen Typen, die, neben der allgemeinen Unschärfe des Modells, vor allem auf die Schwierigkeiten zurückzuführen sind, die sich ergeben, wenn der Begriff des Priesters aus den Mittelmeerreligionen auf vollkommen anders strukturierte Religionen beispielsweise aus Fernost oder Nordamerika übertragen wird. In Gesellschaften, in denen es noch nicht zur Ausbildung eines Priesterstandes gekommen ist, aber auch in solchen, in denen dieser Schritt bereits vollzogen ist, gibt es gewisse Vorstufen zum Priestertum. So ist in der Regel der Hausvater oder das Oberhaupt der Sippe mit der Wahrnehmung sakraler Funktionen betraut. In archaischen Kulturen ist die Ausübung priesterlicher Aufgaben ursprünglich dem König vorbehalten, der sie aber mit der zunehmenden Weiterentwicklung und Differenzierung des religiösen Kultes an ihm untergeordnete Priester vergibt. Ein in solcher Weise ausgeprägtes Priestertum ist zuerst in Neolithikum und Bronzezeit im östlichen Mittelmeer zu beobachten. Das Gottkönigtum eines Pharao, Sohn, Abgesandter, Mittler und Nachfolger der Gottheiten, ist ein Beispiel. Der Typ des Priesters ist in schriftlosen Kulturen zumeist von denen der Geisterbeschwörer – Medizinleute, Zauberer, Schamanen usw. – oftmals nicht klar zu trennen. Jedoch ist festzuhalten, dass Geisterbeschwörer charakteristischerweise mit unpersonalen Mächten oder Kräften zu tun haben, die sie beherrschen müssen, statt über den Kultdienst in einer personalen Beziehung zu einer Gottheit zu stehen "(siehe dazu: Priester)." Der Mönch schließlich hat ursprünglich zwar nicht die kultische Mittlerfunktion des Priesters, doch kann er, wie beispielshalber im Buddhismus, priesterliche Funktionen übernehmen und so aus seiner ursprünglichen Lebensweise in ein Priestertum hineinwachsen. Oftmals hat sich also das Priestertum erst aus dem Mönchtum entwickelt. Typologisch charakteristisch ist jedoch, dass der Mönch die göttliche Kraft oder Gnade aus seiner Lebensführung und nicht wie der Priester seines Amtes wegen erhält. Die Aufgaben, die dem Priester zugeordnet sind, differieren je nach Religion. Grundsätzlich nimmt der Priester jedoch stets eine Mittlerfunktion zwischen dem Göttlichen und den Menschen ein. Dabei ist er wechselseitig mit Stellvertretung der Gottheit gegenüber den Menschen und der Menschen gegenüber der Gottheit betraut: Er tut den göttlichen Willen kund, bewahrt das heilige Wissen und vermittelt die göttlichen Gnadenerweise. Als Stellvertreter der Menschen handelt er in Opferungen und bei den Gebeten an die Gottheit. Als Kultdiener vollzieht er die kultischen Handlungen zumeist in einem engen räumlichen Zusammenhang mit einem Tempel, Altar oder Naturheiligtum. Er opfert der Gottheit und leitet die Riten, verliest die heiligen Schriften und bewahrt den Kultort vor dem Eindringen religionsgesetzlich Unbefugter. Zusätzlich zu diesen beiden Bereichen treten diverse andere Aufgaben hinzu, die jedoch nicht genuin priesterlich sind. Dazu zählen psychische und medizinische Betreuung der Gläubigen, das Verkünden von Prophezeiungen oder Beschwörungen der Gottheit oder anderer Geistwesen. Darüber hinaus sind in vielen Religionen die Priester gleichzeitig Lehrer und Missionare und übernehmen administrative Aufgaben oder die Rechtsprechung. a> mit einem Bronzegefäß. Museo Archaeologico Regionale, Palermo, Sizilien. Die Initiation der Priester erfolgt entweder über eine leibliche oder eine geistige Abfolge (Sukzession). In beiden Fällen ist wichtig, dass die Auswahl dabei nicht durch menschlichen Willen, sondern durch göttliche Kraft fällt. Bei der "leiblichen" Sukzession wird das Priesteramt innerhalb einer Familie vom Vater an den Sohn vererbt und weitergegeben. Der Vater weiht den Sohn in das priesterliche Wissen und eine eventuelle Geheimlehre ein. Die "geistige" Sukzession unterscheidet sich nur dahingehend, dass der Priester nicht durch Geburt, sondern durch eine besondere Weihe in das Priestertum aufgenommen wird und daher nicht in einer leiblichen, sondern über seinen „Weihevater“ in einer geistigen Ahnenreihe steht. Dabei werden die potentiellen Bewerber gezielt ausgewählt und im Hinblick auf ihre spätere Aufgabe erzogen, eventuell sogar in einer eigens dafür geschaffenen Institution. Die Ausbildung erstreckt sich dabei in erster Linie auf das Wissen um die korrekte Verrichtung des Kultes. Das Erlernen einer vielfach vorhandenen alten Kultsprache, des richtigen Ablaufs der verschiedenen Riten und der oft umfangreichen Gebetstexte steht im Vordergrund. Daneben ist die Priesterschaft einer Kultur aber oft auch ein Kulturträger ersten Ranges und wird in vielen anderen Bereichen zusätzlich ausgebildet. Dazu zählen bevorzugt Astronomie (Priesterastronom), Mathematik, Zeitrechnung, Medizin, Krankenpflege,Schrift, Kartographie und Geschichtsschreibung. Nicht selten waren Mönche, Äbte und Priester auch mit Erfolg technisch und naturwissenschaftlich tätig; mehrere wichtige Erfindungen und Entdeckungen gehen auf sie zurück, siehe etwa Roger Bacon, Nikolaus von Kues, Christoph Scheiner, Johann Adam Schall von Bell, Athanasius Kircher, Christophorus Clavius, Marin Mersenne, Kaspar Schott, Claude Chappe, Gregor Mendel und Sebastian Kneipp. Der Standort des Priestertums innerhalb der Gesamtgesellschaft ist durch eine Reihe von Sonderstellungen gekennzeichnet. Auf der einen Seite können dazu Tabuvorschriften wie bestimmte Speisevorschriften, Reinheitsgebote, sexuelle Enthaltsamkeit und allgemein das Einhalten eines strengen Lebenswandels gehören. Die Vorschriften können auf einen bestimmten Zeitraum vor und während der Kulthandlung beschränkt oder aber auch dauerhaft sein. Andererseits genießen die Priester meist gewisse Vorrechte, haben oftmals auch einen rechtlichen Sonderstatus, der sich z. B. in der Steuerfreiheit, Nichtteilnahme an direkten Kriegshandlungen, oder der Immunität des Klerus äußert, und heben sich durch ein hervorstechendes Äußeres (Amtstracht, Tonsur o. Ä.) von den Laien ab. Aus diesen Sonderregelungen für die Priesterschaft entwickelte sich das Priestertum in einer Gesellschaft oft zur abgeschlossenen Kaste fort, das sich streng hierarchisch geordnet nach unten abschloss: Dabei bilden sich vielfach innerhalb des Priestertums Rangklassen mit abgestuften Befugnissen oder Kenntnissen und an die Spitze des gesamten Priestertums stellte sich ein allgemeiner Oberpriester (Hohepriester) mit umfassender Leitungsgewalt. Prominenteste Beispiele hierfür sind der Papst in der römisch-katholischen Kirche oder der chinesische Kaiser. Judentum. Der Titel des "Kohen" (hebräisch כהן) ist ein Status des Judentums. Ihr Status geht allein auf die Gebote Gottes zurück. Die Kohanim (hebräisch כהנים, Plural von "Kohen") sind eine Untergruppe der Leviten, des priesterlichen unter den Zwölf Stämmen Israels. Sie gelten als direkte Nachfahren des Aaron, eines Bruders des Mose. Die Kohanim übten im Jerusalemer Tempel den Tempeldienst am Altar aus. Der "HaKohen HaGadol" (Hohepriester, wörtlich „Großer Priester“) war die höchste religiöse Autorität des Judentums. Die Kohanim sind keine Mittler zwischen jüdischen Menschen und Gott oder der Menschheit und Gott. Damit ist bis heute der Unterschied gegenüber anderen Religionen bestimmt, die Vermittler zwischen Gott (bzw. Göttern) und den Menschen vorsehen. Jeder Jude ist Gott direkt verantwortlich. Der Tempelkult hatte keine vermittelnde Funktion und – bis auf die Ausnahme der möglichen Sühne einer unbeabsichtigt begangenen Sünde – keine Sünden tilgende Funktion durch Opferung und Blut. Das Volk Israel – ein Königreich von Priestern – hat die Aufgabe, den am Sinai geschnittenen Bund oder „Vertrag“ einzuhalten. Davon hängt das Wohl jedes Juden bzw. Israeliten, des Volkes Israel, ja sogar das der Menschheit und der Erde ab. Im dritten Tempel Jerusalems wird der jüdische Mashiach das "Reinigungsopfer" oder "Sühnopfer" (Chatat) darbringen, um Sünden zu tilgen, die unabsichtlich begangen wurden. Christentum. Der Priester im Christentum ist aus der Allgemeinheit der Laien abgesondert, dauerhaft bestellt durch den Empfang der Priesterweihe. Das Dekret Presbyterorum ordinis Papst Johannes Pauls II. stellt dazu fest, dass die Priester „aus der Reihe der Menschen bei Gott bestellt“ würden, „um Gaben und Opfer für die Sünden darzubringen“. Die christlichen Konfessionen unterscheiden sich in ihrer Definition der priesterlichen Vollmacht und Aufgaben. Zwischen den römisch-katholischen, alt-katholischen und orthodoxen Traditionen stimmt das theologische Profil des Priesters in großen Teilen überein. Die protestantischen Konfessionen der Reformation haben sich vom Amtsverständnis des Priestertums distanziert und verwenden den Begriff meist nicht. Ausgehend von der jüdischen Jerusalemer Urgemeinde Jesu Christi hatte das Judenchristentum noch keine besonderen Mittler zwischen Mensch und Gott. Nach dem Neuen Testament gilt für das daraus entstandene hellenistische Heidenchristentum (ab 49 n. Chr.) und die frühe christliche Kirche: "„Es ist ein Gott und ein Mittler zwischen Gott und Mensch: der Mensch Jesus Christus“" (1. Timotheus 2,5). Jesus Christus war zugleich Hohepriester und Knecht. Durch das Anwachsen der Heidenmission und der heidenchristlichen Gemeinden entstand die neue christliche Liturgie und gewannen die religiösen, kirchlichen Ämter an Gewicht. Im zweiten Jahrhundert bildete sich eine bis heute verbreitete dreigliedrige hierarchische Struktur heraus: Bischof, Ältester (presbyteros) und Diakon, wobei die heutigen Priester in die Kategorie der Presbyter einzustufen sind. Nach der konstantinischen Wende von 313 erlangten die Bischöfe eine hervorgehobene Rolle im Reich; dadurch war eine Abgrenzung von den Priestern gegeben, die aber nicht immer genau festgelegt wurde. Hinzu kam die Kategorie der Mönche, die oft, aber nicht immer, die Priesterweihe empfangen hatten. Bischöfe wurden meist aus den Reihen der Priestermönche gerufen. In der Westkirche des Mittelalters trennen sich Bischofs- und Priesteramt durch ihre Kompetenzen: Nur ein Bischof kann die Weihen und im Normalfall die Firmung spenden, die übrigen Sakramente kann der Priester spenden. Pfalzgraf. a> zum König. Die Kurfürsten, durch die Wappen über ihren Köpfen kenntlich, sind, von links nach rechts, die Erzbischöfe von Köln, Mainz und Trier, der Pfalzgraf bei Rhein, der Herzog von Sachsen, der Markgraf von Brandenburg und der König von Böhmen Die Pfalzgrafen (von lat. "palatinus" „der im Palast bzw. bei Hofe“) waren ursprünglich Amtsträger und Vertreter des Königs oder Kaisers. Sie standen dem Hofgericht vor und hatten eine leitende Funktion allgemeiner Art inne. Außerdem fungierten sie auch als Verbindungsmänner zwischen Bittstellern aus dem Reich und dem König oder Kaiser. Im Heiligen Römischen Reich gab es anfangs je einen Pfalzgrafen für jedes Herzogtum. Später wurden die meisten Pfalzgrafschaften einem mächtigeren Fürstentum inkorporiert. Der einzig übriggebliebene Pfalzgraf am Rhein gehörte ab dem Spätmittelalter dem Reichsfürstenstand an und war den Herzögen faktisch gleichgestellt. Historische Entwicklung. Zur Bedeutung des lateinischen Wortes "palatinus" siehe unter Paladin, denn sowohl das Wort "Pfalzgraf" als auch das Wort "Paladin" leiten sich von lat. "palatinus" ab. In der Merowingerzeit, genauer im Laufe des 6. Jahrhunderts, wurde erstmals der Titel eines Pfalzgrafen genannt, ihm oblag die Verwaltung des königlichen Hofes. In der Karolingerzeit stieg der Pfalzgraf am Königs- oder Kaiserhof zur höchsten Instanz für weltliche Angelegenheiten auf und erhielt insbesondere den Vorsitz im Pfalzgericht. Die Träger des Pfalzgrafenamtes waren also in ihrer Frühzeit leitende königliche Amtsträger bei Hofe mit vorwiegend administrativen und richterlichen Aufgaben gewesen. Mit ihrem Amt wurde den Pfalzgrafen oft auch die Herrschaft über eine Königs- bzw. Kaiserpfalz mit Gefolge und zugehörigen Gütern verliehen. Diese burgähnlichen Pfalzen bzw. Königshöfe lagen verstreut über das Königreich in unterschiedlichen Herzogtümern. Im Rahmen der Entwicklung des deutschen Königreichs aus dem ostfränkischen auf der Grundlage der Stammesherzogtümer des Ostfrankenreichs erhielten die Pfalzgrafen weitgehende königliche Sonderrechte, um den Zusammenhalt des Königtums politisch zu sichern und die mächtigen Herzöge in Schach zu halten. Dabei entwickelten sich seit Ende des 10. Jahrhunderts in den Stammesherzogtümern Sachsen, Bayern, Schwaben und Lothringen Stammes-Pfalzgrafen als Vertreter und Wahrer der königlichen Rechte. Die Pfalzgrafenwürde war nun nicht mehr mit der ursprünglichen Aufgabe der Betreuung einer Königspfalz verbunden, sondern beinhaltete eine Art Kontrollfunktion und Vertretung des Königs innerhalb der Stammesherzogtümer und damit auch die zweite Position nach dem Herzog innerhalb des Herzogtums. Damit verbunden war eine Rangerhöhung gegenüber anderen Grafen des Herzogtums und das Recht, das Richteramt an Königs Statt auszuüben. Damit einher gingen Jagd-, Zoll- und Münzrecht. Der mächtigste unter den Pfalzgrafen, der Pfalzgraf bei Rhein, war Stellvertreter des Königs im Hofgericht, Reichsvikar bei Thronvakanzen, und sogar Richter über den König. (Siehe auch: Vikariatsmünzen der Kurpfalz, darin die Liste der vikarierenden Kurfürsten) Eine strikte Ämtertrennung z. B. zwischen Pfalzgrafen einerseits und anderen Fürstenämtern gab es nicht. Mächtige Pfalzgrafen waren oft auch Land- oder Markgrafen, Herzöge oder auch kirchliche Fürsten. Damit wuchs dem Herrschaftsbegriff Pfalz im Heiligen Römischen Reich eine neue Bedeutung zu. Pfalz bezeichnete danach nicht nur befestigte Königshöfe, sondern auch von Pfalzgrafen bzw. Kurfürsten beherrschte Territorien. Später wurde die Bezeichnung zu einem erblichen Titel in verschiedenen deutschen Fürstenhäusern. Im Heiligen Römischen Reich zählten ab dem Spätmittelalter Herzöge, Land-, Mark- und Pfalzgrafen zum Reichsfürstenstand. Hinzu kamen die kirchlichen Fürsten: Erzbischöfe, Bischöfe und die Äbte und Äbtissinnen von Reichsabteien. Der dem Hause Wittelsbach entstammende Pfalzgraf bei Rhein war seit 1214, endgültig seit 1356 einer der sieben Kurfürsten des Heiligen Römischen Reiches und in Abwesenheit des Königs dessen Stellvertreter. Die wichtige Kurfürstenwürde überdeckte dabei den Pfalzgrafentitel und ließ die Bezeichnung „Pfalz“ allmählich zum Namen für die Territorien dieses „Kurfürsten von der Pfalz“ (Kurpfalz) bzw. für Länder mit ihm verwandter Nebenlinien (z.B. Oberpfalz, Pfalz-Neumarkt, Pfalz-Neuburg) werden. Als der Kurfürst von der Pfalz 1777 das Kurfürstentum Bayern erbte, entstand kurzfristig der Doppelstaat „Pfalz-Bayern“. Der linksrheinische Teil der Pfalz ging jedoch sehr bald an Frankreich verloren, dessen Herrscher Napoléon Bonaparte Bayern 1805 zum Königreich erhob. Als Teile der alten Kurpfalz 1814/15 an Bayern zurückkamen, änderte dies am nunmehr rein bayerischen Landesnamen nichts mehr, und „die Pfalz“ war nun eine bayerische Provinz unter anderen. 1945 wurde sie von Bayern abgetrennt und mit dem Südteil der bisherigen preußischen Rheinprovinz und Rheinhessen zum neuen deutschen Bundesland Rheinland-Pfalz vereinigt. In diesem Namen lebt der Bedeutungswandel des Begriffes „Pfalz“ bis heute fort. Merowingische und karolingische Pfalzgrafen. Der Karolinger Lothar (König von Frankreich 954–986) machte Odo I., Graf von Blois, einen seiner treuesten Verbündeten im Kampf gegen die Robertiner neben den Grafen von Vermandois, zum Pfalzgrafen, ein Titel, der in seiner Familie erblich und dann auf die Champagne bezogen geführt wurde. Pfalzgraf von Bayern. Das Pfalzgrafenamt hing ursprünglich mit der Pfalz in Regensburg zusammen und war in Bayern vermutlich nicht dem König, sondern dem bayerischen Herzog untergeordnet. Es verlieh dem Inhaber im Rechts- und Gerichtsbereich eine führende Stellung im Herzogtum. Pfalzgraf von Burgund. 1169 von Kaiser Friedrich I. aus der Freigrafschaft Burgund gebildet, siehe hier. Pfalzgraf von Lothringen. Nach dem Tod von Hermann II. von Lothringen heiratete seine Witwe Adelheid den Luxemburger Heinrich II. von Laach, der zwischen 1085/1087 in der Pfalzgrafschaft nachfolgte. Die Pfalzgrafschaft von Lothringen ging damit in die Pfalzgrafschaft bei Rhein über. Pfalzgraf bei Rhein. Die Pfalzgrafschaft bei Rhein entwickelte sich seit 1085/1087 aus der Pfalzgrafschaft Lothringen. Die regierenden Pfalzgrafen bei Rhein sind in der Liste der Herrscher der Kurpfalz aufgeführt. Pfalzgraf von Sachsen. Auf dem Reichstag zu Gelnhausen wurde Landgraf Ludwig III. von Thüringen am 13. April 1180 zum Pfalzgrafen von Sachsen ernannt. Nach dem Tod Heinrich Raspes ging das Amt des Pfalzgrafen von Sachsen aufgrund einer Eventualbelehnung durch Kaiser Friedrich II. zunächst auf die Wettiner über. Unter König Rudolf I. von Habsburg ging das Amt des Pfalzgrafen von Sachsen an die braunschweigischen Welfenherzöge. Pfalzgraf in Schwaben. Die schwäbische Pfalzgrafschaft ging 1146 an die Pfalzgrafen von Tübingen über. Partnerschaftsgesellschaft (Deutschland). Die Partnerschaft ist nach Partnerschaftsgesellschaftsgesetz (PartGG) eine Personengesellschaft, in der sich Angehörige freier Berufe zur Ausübung ihrer Berufe zusammenschließen. Sie übt wegen ihrer Bindung an freiberufliche Tätigkeiten im Gegensatz zu den Personenhandelsgesellschaften kein Handelsgewerbe aus. Angehörige einer Partnerschaft können nur natürliche Personen sein. Bloße Kapitalbeteiligung ist nicht zulässig. Kapitaleinlage. Eine bestimmte Mindestkapitaleinlage ist gesetzlich nicht vorgeschrieben. Name. Die Partnerschaftsgesellschaft übt kein Handelsgewerbe aus, ist folglich keine Handelsgesellschaft und kann somit auch im eigentlichen Sinne keine Firma führen. Nach PartGG führt sie jedoch einen Namen. Dieser muss den Namen mindestens eines Partners, den Zusatz „& Partner“ oder „Partnerschaft“ sowie die Berufsbezeichnungen aller in der Partnerschaft vertretenen Berufe enthalten. Vornamen müssen nicht angegeben werden. Andere Namen als die der Partner dürfen nicht mit aufgenommen werden; laut Urteil des Bundesgerichtshofs vom 11. März 2004 (I ZR 62/01) gilt dieses Verbot aber nicht für sonstige Zusätze wie etwa Phantasienamen. Ergänzend gelten für die Namensführung der Partnerschaftsgesellschaft bestimmte Regelungen des HGB entsprechend (Abs. 2 PartGG). Eintragung im Partnerschaftsregister. Die Gesellschafter der Partnerschaft müssen nach Abs. 1 PartGG die Partnerschaft im Partnerschaftsregister eintragen lassen. Auch der Ein- oder Austritt eines Partners, die Änderung des Namens oder die Sitzverlegung der Partnerschaft müssen zur Eintragung ins Partnerschaftsregister angemeldet werden. Rechtsgrundlagen. Es gilt das Partnerschaftsgesellschaftsgesetz (PartGG). Soweit dort nichts anderes bestimmt ist, finden die Vorschriften des Bürgerlichen Gesetzbuches (§§ 705–740) und des Handelsgesetzbuchs (§§ 105–160) über die Gesellschaft Anwendung Geschäftsführung bzw. Vertretung nach außen. Zur Führung der Geschäfte sind grundsätzlich alle Partner berechtigt und verpflichtet, es sei denn, im Partnerschaftsvertrag ist etwas anderes vereinbart. Einzelne Partner können im Partnerschaftsvertrag nur von der Führung der sonstigen Geschäfte ausgeschlossen werden. Im Übrigen richtet sich das Rechtsverhältnis der Partner untereinander nach dem Partnerschaftsvertrag. Die Geschäftsführergehälter der Partner sind steuerlich nicht als Betriebsausgabe abzugsfähig; sie sind bei der steuerlichen Gewinnverteilung dem jeweiligen Partner als Vorwegvergütung zuzurechnen. Gewinn- und Verlustverteilung. Die Aufteilung von Gewinn und Verlust auf die Partner ist gewöhnlich im Partnerschaftsvertrag geregelt. Rechtsfähigkeit der Partnerschaft. Eine Partnerschaft kann unter ihrem Namen Rechte erwerben und Verbindlichkeiten eingehen, Eigentum und andere dingliche Rechte an Grundstücken erwerben und vor Gericht klagen und verklagt werden (Abs. 2 PartGG i.V.m HGB). Haftung der Partner. Die Partner einer Partnerschaft haften – im Unterschied zu einer bloßen Bürogemeinschaft – für die Verbindlichkeiten der Partnerschaft den Gläubigern als Gesamtschuldner persönlich. Nach Abs. 2 PartGG haften für berufliche Fehler kraft Gesetz neben dem Gesellschaftsvermögen nur diejenigen Partner, die mit der Bearbeitung eines Auftrags tatsächlich befasst waren. Scheidet ein Partner aus, haftet er für die bis dahin begründeten Verbindlichkeiten weiter. Für Verbindlichkeiten, die nicht mit der Ausführung eines Auftrages in Verbindung stehen (beispielsweise die Bestellung von Büromaterial) haften demnach die Partner wie in einer Gesellschaft bürgerlichen Rechts (GbR) immer als Gesamtschuldner. Auflösung einer Partnerschaft. Ein Partner scheidet aus der Partnerschaft aus, Rechnungslegung der Partnerschaft. Nach BGB hat der Rechnungsabschluss bei einer Gesellschaft und die Gewinnverteilung im Zweifel am Schluss jedes Geschäftsjahrs zu erfolgen. Diese Rechnungslegungspflicht ist auch im steuerlichen Interesse zu befolgen. Partnerschaften können als Gewinn den Überschuss der Betriebseinnahmen über die Betriebsausgaben ansetzen. Die Vorschriften über die Absetzung für Abnutzung oder Substanzverringerung sind dabei zu befolgen. Die Anschaffungs- oder Herstellungskosten für nicht abnutzbare Wirtschaftsgüter des Anlagevermögens sind erst zum Zeitpunkt der Veräußerung oder Entnahme dieser Wirtschaftsgüter als Betriebsausgaben zu berücksichtigen. Die nicht abnutzbaren Wirtschaftsgüter des Anlagevermögens sind unter Angabe des Tages der Anschaffung oder Herstellung und der Anschaffungs- oder Herstellungskosten oder des an deren Stelle getretenen Werts in besondere, laufend zu führende Verzeichnisse aufzunehmen. Nicht abziehbare Aufwendungen im Sinne des Abs. 5 Satz 1 Nr. 1 bis 4, 6b und 7 EStG sind einzeln und getrennt von den sonstigen Betriebsausgaben aufzuzeichnen. Soweit diese Aufwendungen nicht vom Abzug ausgeschlossen sind, dürfen sie bei der Gewinnermittlung nur berücksichtigt werden, wenn sie besonders aufgezeichnet sind. Steuerliche Behandlung einer Partnerschaft. Wirtschaftsgüter, die ein Partner einer Partnerschaft für Zwecke der Partnerschaft nutzt, gehören zum Sonderbetriebsvermögen des betreffenden Partners. Die Partnerschaft ist dann nicht Gewerbesteuerpflichtig, wenn an ihr keine berufsfremden Personen beteiligt sind. Ein Partner einer Partnerschaft erzielt aus seiner Beteiligung an der Partnerschaft Einkünfte aus selbständiger Arbeit. Einkommensteuerpflichtig ist nicht die Partnerschaft, sondern jeder einzelne Partner. Die Partnerschaft ist Unternehmer im Sinne des Umsatzsteuergesetzes. Ein Unternehmer ist verpflichtet, zur Feststellung der Umsatzsteuer und der Grundlagen ihrer Berechnung Aufzeichnungen zu machen. Bei der Übertragung einer Partnerschaftsbeteiligung im Wege der Schenkung oder Erbfolge auf einen Nachfolger wird bei der Erbschaftsteuer ein spezieller Freibetrag für das Betriebsvermögen des Partners gewährt. Prachteiderente. Der weithin auffällige Kopf des Männchens Die Prachteiderente ("Somateria spectabilis") ist eine Vogelart aus der Gattung der Eiderenten ("Somateria") und der Familie der Entenvögel (Anatidae). Die Art, deren Männchen ein unverwechselbares Prachtkleid haben, brütet zirkumpolar an den Küsten und Inseln des nördlichen Eismeers. Wie bei vielen arktischen Vogelarten ist der Bestand der Prachteiderente starken Schwankungen unterworfen. Sie gilt jedoch insgesamt als nicht gefährdet. Während des Winterhalbjahres sind sie an den Küsten Skandinaviens und Islands zu beobachten. An den Küsten der Nord- und Ostsee sind sie nur vereinzelt als Irrgast zu sehen. Erscheinungsmerkmal adulter Prachteiderenten. Die Prachteiderente ist etwas kleiner als die zur selben Gattung gehörende Eiderente ("Somateria mollissima"). Das Männchen, der Erpel, ist unverwechselbar mit seinem schwarz gefärbten Körper, der weißen bis lachsfarbenen Brust und dem hellblauen Oberkopf und Nacken. Die Nackenfedern sind leicht verlängert, so dass sich eine Federhaube andeutet. Auffälligstes Merkmal des Erpels ist der zu einem Stirnhöcker erweiterte rote Oberschnabel. Er ist durch einen schwarzen Federkranz vom hellblauen Oberkopf abgesetzt. Die Wangen sind meergrün. Kinn und Kehle sind weiß. Das schwarze Gefieder des hinteren Körperteils ist durch ein schmales weißes Seitenband und einen fast runden weißen Fleck an den Bürzelseiten scharf abgesetzt. Geschlechtsreife Erpel haben wie die Weibchen sichelförmig gekrümmte innere Armschwingen. Im Ruhekleid sind die weißen Federn am Oberkopf durch schwarzbraune ersetzt. Die Kopfseiten und die Vorderbrust ist hell zimtbraun. Das übrige Körpergefieder ist dunkelbraun bis schwarzbraun. Das Weibchen hat ein braunes Gefieder. Es kann aber anhand der Größe und dem Körperbau leicht von allen Enten außer anderen Eiderenten unterschieden werden. Verglichen mit den Weibchen der Eiderente ist bei den Weibchen der Prachteiderente das Gefieder rötlicher, der Schnabel ist etwas kürzer, und das Körpergefieder ist anders als bei der Eiderente nicht gebändert, sondern wirkt mit Ausnahme des Kopfes schuppenförmig getüpfelt. Brust und die Körperunterseite sind schwarzbraun. Der Schnabel und die Füße haben eine grünbraune Farbung. Die Iris ist schmutziggelb. Das Ruhekleid des Weibchens gleicht dem Brutkleid. Allerdings sind die Farbkontraste etwas schwächer ausgeprägt, und das schuppenförmige Muster ihres Körpergefieders ist weniger auffällig. Erscheinungsbild der Jungvögel. Junge weibliche Prachteiderenten gleichen in ihrem Gefieder bereits den weiblichen Prachteiderenten sehr weitgehend. Allerdings ist die Tüpfelung noch wenig auffällig, und den Federsäumen fehlt das kräftige Zimtbraun, das bei den geschlechtsreifen Weibchen charakteristisch ist. Ähnlich wie bei den Eiderenten dauert es bei den jungen Erpeln einige Jahre, bis sie das Prachtkleid vollkommen ausgebildet haben. Im ersten Prachtkleid fehlt noch die blaue Kopfoberseite, und die weißen Federpartien sind noch von braunen Federn durchsetzt. Im zweiten Prachtkleid ist die Ähnlichkeit zum Prachtkleid adulter Erpel schon weitergegeben, erst im dritten Jahr aber gleicht es dem der geschlechtsreifen Vögel. Auch der Stirnhöcker entwickelt sich erst mit der Zeit. Er ist zwar nach der Mauser ins erste Prachtkleid schon leicht vorhanden. Voll ausgebildet ist er jedoch erst im 3. oder 4. Jahr. Stimme. Die Prachteiderente ist verglichen mit der Eiderente weniger ruffreudig. Der Balzruf des Männchens ist ein dumpfes "ruú go go." oder "gu-gruu gruúu-gruu". Er zeigt dabei die charakteristische "Verbeugung nach hinten", wie sie auch bei den Erpeln der Eiderente zu beobachten ist. Dabei legt das Männchen den Kopf weit in den Nacken und wölbt die Brust nach vorne. Die Weibchen antworten auf die Balzrufe mit einem sonoren, rauen "gok". Verbreitung und Lebensraum. Die Prachteiderente brütet entlang der arktischen Küste von Nordosteuropa, Asien und Nordamerika. Das Brutgebiet ist nicht geschlossen, sonders weist besonders im atlantischen Bereich weite Verbreitungslücken auf. Die Prachteiderente fehlt zum Beispiel als Brutvogel auf Island und den Küsten Norwegens, da auf Grund des warmen Golfstromes diese Regionen für Prachteiderenten nicht als Brutstätte in Frage kommen. Sie kommt auf den nördlichen Polarmeeren in Küstennähe vor, und wandert flussaufwärts auch bis zu 100 km ins Binnenland, wo sie dann oft an Seen brütet. Sie überwintert etwas weiter im Süden in Norwegen und im östlichen Kanada, wo sie in passenden Küstengewässern auch große Gruppen bilden kann. Schwerpunkt der Verbreitung ist die Subarktis. Ihre südliche Verbreitungsgrenze ist der Beginn der Strauchtundra. Sie brütet an der westlichen Küste Spitzbergens, auf der Halbinsel Kanin, der Jenissej-Mündung und an dem südlichen und mittleren Teil von Nowaja Semljas. Sie kommt an der Küste Nordostsibiriens vor und ist dort bis zur Tschuktschen-Halbinsel verbreitet. Ist Ostsibirien brütet sie gelegentlich auch im Binnenland. Prachteiderenten nutzen stärker als die Eiderenten die Gewässer der Tundra. Dies bedingt auch eine etwas andere Nahrungszusammensetzung. Die Überwinterungsquartiere der Prachteiderente sind die Teile der arktischen Meere, die eisfrei bleiben. Zu den Überwinterungsquartieren gehört die Südwestküste Grönlands. Sie überwintert in kleinerer Zahl auch in Island und an den nördlichen schottischen Inseln. Überwinterungsgäste gibt es in geringer Zahl auch der nördlichen und mittleren Küste Norwegens. Sie erscheint in dieser Jahreszeit auch verhältnismäßig häufig im nordöstlichen Teil der Ostsee. Es handelt sich dabei um Prachteiderenten, die auf den Inseln und an der Küste des Weißen Meeres brüten. An der dänischen, der südschwedischen sowie den west- und mitteleuropäischen Küsten ist die Prachteiderente ein verhältnismäßig seltener Irrgast. Nahrung. Die Prachteiderente ist eine omnivore Entenart. Allerdings spielt tierische Nahrung eine größere Rolle als pflanzliche. Hauptnahrung sind Wirbellose und zwar insbesondere Wasserinsekten wie Schnaken und Köcherfliegenlarven. Sie frisst außerdem in großen Mengen Mollusken und Stachelhäuter wie Seeigel, See- und Schlangensterne. Vermutlich nimmt sie auch Kleinnager zu sich, wenn diese sich in der Tundra stark vermehrt haben. An pflanzlicher Nahrung spielen vor allem die Samen von verschiedenen Wasserpflanzen eine Rolle. Prachteiderenten suchen ihr Futter weiter draußen im Wasser als Eiderenten, in der Regel können sie auch größere Tauchtiefen erreichen. Im Allgemeinen gehen sie im Salzwasser in einer Tiefe von 15 Metern auf Futterjagd. Prachteiderenten jagen länger als Eiderenten und können bis zu zwei Minuten unter Wasser bleiben. Im Sommer wird die Nahrung aus den aufgetauten Tundrenseen geholt und besteht dann zum größten Teil aus Insektenlarven sowie Süßwasserkrustentieren. Fortpflanzung. Prachteiderenten kehren in ihre Brutgebiete zurück, sobald diese eisfrei sind. Dies ist häufig erst ab Mitte Mai und in strengen Wintern sogar erst Anfang Juni der Fall. Fortpflanzungsfähige Prachteiderenten halten sich häufig geraume Zeit an der Meeresküste in der Nähe ihrer Brutgebiete auf, bis die klimatischen Bedingungen es zulassen dass sie ihre Brutplätze aufsuchen. Prachteiderenten sind in der Regel schon verpaart, wenn sie in ihren Brutgebieten auftauchen. Die Balz wird aber bis zum Beginn der Brutphase fortgesetzt. Die Balzposen und -gesten gleichen weitgehend denen der Eiderente; die Prachteiderente bläht ihren weißen Hals allerdings stärker auf. Zu dem Balzrepertoire gehört auch eine nach vorne schiebende Kopfbewegung, die auf den Betrachter wirkt, als schöbe die Ente ein imaginäres Objekt weg. Prachteiderenten brüten meist einzeln. Das unterscheidet sie unter anderem von den Eiderenten, die große Brutkolonien bilden. Wo allerdings die Lebensumstände günstig sind, stehen die Nester der Prachteiderente nahe beieinander. Prachteiderenten brüten auch in der Nähe von Wildgänsen, in Möwenkolonien und bauen ihr Nest gelegentlich auch in Eiderentenkolonien. Sie bastardisieren gelegentlich mit der Eiderente. Nach bisherigen Beobachtungen gehen aus solchen Kreuzungen allerdings nur männliche Tiere hervor. Das Nest wird vom Weibchen gebaut und ist meist nicht mehr als eine flache Mulde. Wie die Eiderente nutzt die Prachteiderente die körpereigenen Daunen, um ihr Nest auszupolstern. Die Daunen der Prachteiderente sind gröber als die der Eiderente und das Nest wird mit deutlich weniger Daunen ausgelegt. Die Daunen spielen deshalb auch keine wirtschaftliche Rolle. Das Gelege umfasst zwischen vier und sieben Eier von grüner bis bräunlicher Farbe. Die Brutdauer, bis die Dunenjungen schlüpfen, beträgt zwischen 22 und 23 Tage. Bestand. Der Gesamtbestand an Prachteiderenten wird auf 790.000 bis 930.000 Individuen geschätzt. Der europäische Brutbestand beträgt davon nur 37.000 bis 46.000 Brutpaare, der aber als stabil und ungefährdet gilt. Der Winterbestand in Nordeuropa beträgt mehr als 350.000 Individuen. Pasteurisierung. Pasteurisierung oder Pasteurisation bezeichnet die kurzzeitige Erwärmung von flüssigen oder pastösen Lebensmitteln auf Temperaturen von mindestens 75 °C (klassisches Verfahren von Pasteur) bis 100 °C ("Hochpasteurisieren") zur Abtötung von Mikroorganismen. Sie dient dazu, Lebensmittel, unter anderem Milch, Frucht- und Gemüsesäfte und Flüssigei, haltbar zu machen. Durch die kurze Zeitdauer der Hitzeeinwirkung und die mäßige Temperatur werden der Nährwert, der Geschmack und die Konsistenz des Lebensmittels nur unbedeutend verändert und dennoch die meisten Lebensmittelverderber wie Milchsäurebakterien und Hefen sowie viele krankheitserregende Bakterien wie Salmonellen zuverlässig abgetötet. Hitzeresistente Bakteriensporen wie die von "Clostridium botulinum", die Erreger der Paratuberkulose sowie Sporen einiger Schimmelpilze überleben diese Behandlung zumindest teilweise. Aus diesem Grund sollte der Mikroorganismengehalt der Rohware möglichst gering gehalten werden. Da sie nicht keimfrei sind, müssen pasteurisierte Lebensmittel im Regelfall gekühlt gelagert werden und sind dann einige Tage bis einige Wochen haltbar. Davon abzugrenzen ist die Sterilisation bei Temperaturen von über 100 °C, die auch hitzeresistente Bakteriensporen abtötet. Sterilisierte Lebensmittel können erheblich länger und ungekühlt gelagert werden als pasteurisierte Lebensmittel, verlieren jedoch durch das Erhitzen stärker an Nährwert und Geschmack. Das Verfahren der Pasteurisierung wurde nach dem französischen Chemiker Louis Pasteur benannt und 1864 entwickelt. Pasteur hatte erkannt, dass durch kurzzeitiges Erhitzen von Lebensmitteln und anderen Stoffen die meisten der darin enthaltenen Mikroorganismen abgetötet werden. Sind so behandelte Stoffe in einem abgeschlossenen Bereich, können auch keine neuen Mikroorganismen in diese eindringen. Unter Zuhilfenahme eines speziell angefertigten Glaskolbens, des Pasteurkolbens, wurde diese Methode sehr eindrucksvoll demonstriert. Bei Lebensmitteln kann dadurch die Haltbarkeitszeit deutlich gesteigert werden. Zugleich war mit diesem Versuch auch die Urzeugungsthese widerlegt. Geschichte. Als Vorversuch zur Entwicklung des Verfahrens gilt Pasteurs Nachweis, dass Lebensmittelverderb eindeutig durch Lebewesen verursacht wird und kein abiotischer Prozess ist, wie viele seiner Zeitgenossen annahmen. Für diesen Nachweis füllte er frisch gekochte Bouillon in zwei gläserne Kolben. Einen davon ließ er unverschlossen stehen, auf den anderen setzte er ein S-förmig gekrümmtes Glasrohr, das zwar einen Ausgleich des Gasdrucks zwischen Gärraum und Umgebung erlaubt, das Eindringen von Partikeln jedoch verhindert. In beiden Glaskolben kochte er die Bouillon nochmals auf und beobachtete dann die Entwicklung des Inhalts beider Kolben über einen längeren Zeitraum. Der Inhalt des unverschlossenen Kolbens verdarb schneller, während die Bouillon im Kolben mit dem Gärröhrchen längere Zeit genießbar blieb. Pasteurisierung von Milch und Milchprodukten. Am bekanntesten ist die Pasteurisierung von Milch, die hierzu 15 bis 30 Sekunden auf 72 bis 75 °C erhitzt und danach sofort wieder abgekühlt wird. Pasteurisierte Milch bleibt ungeöffnet bei 6 bis 7 °C gelagert etwa 6 bis 10 Tage fast unverändert. Bei der Hochpasteurisierung wird Milch auf 85 bis 134 °C erhitzt. Die resultierende „hoch pasteurisierte Milch“ ist nahezu keimfrei und bleibt wesentlich länger haltbar als die übliche pasteurisierte Milch (im Kühlschrank bei 5 °C etwa 2 Wochen). Sie wird in Deutschland seit 1990 auch als ESL-Milch angeboten. Eine Pasteurisierung bei Temperaturen von über 135 °C wird Ultrahocherhitzung genannt und führt zu H-Milch. In Deutschland und der EU ist nach der europäischen Milchhygiene-Richtlinie die Pasteurisierung für alle gehandelten Milchsorten außer Roh- und Vorzugsmilch gesetzlich vorgeschrieben, Rohmilchkäse müssen als solche gekennzeichnet werden und sollten von Schwangeren und Menschen mit geschwächtem Immunsystem vorbeugend gemieden werden. In Australien und Neuseeland dürfen seit 1994, mit wenigen Ausnahmen wie Roquefort, nur pasteurisierte oder thermisierte Milchprodukte in den Handel gebracht werden. Die Pasteurisierung von Milch und Milchprodukten geht nicht auf Louis Pasteur zurück, sondern wurde erst später von Franz von Soxhlet verwirklicht. Pasteurisierung von Eiern. Pasteurisiertes Ei ist verschlossen bei Temperaturen bis 4 °C einige Tage bis wenige Wochen haltbar. Nach dem Öffnen besteht die Gefahr, dass das Ei erneut mit Mikroorganismen in Kontakt kommt und von ihnen besiedelt wird (Rekontamination). Daher muss pasteurisiertes Flüssigei nach dem Öffnen weiterhin kühl gelagert und innerhalb eines Tages verbraucht werden. Pasteurisierung von Getränken. Auch andere Lebensmittel wie Wein, Fruchtsaft oder Bier werden von der Lebensmittelindustrie häufig pasteurisiert oder aus pasteurisierten Bestandteilen erzeugt in den Handel gebracht. In diesen Bereichen wird die Behandlung meist mit dem Kürzel KZE (Kurzzeiterhitzung) bezeichnet. Saure Produkte mit einem pH-Wert kleiner als 4,5 können in Kombination mit der Pasteurisierung so haltbar gemacht werden, dass eine gekühlte Lagerung nicht erforderlich ist. Zu dieser Gruppe zählen viele Obst- und Gemüsesäfte oder -konserven und u. a. Limonaden und Energy Drinks. Andere Anwendungen. Neben Lebensmitteln können auch andere Produkte pasteurisiert werden, beispielsweise Klärschlamm oder Flüssigmist. Pulitzer-Preis. Der Pulitzer-Preis ist ein US-amerikanischer Journalisten- und Medienpreis. Er ist dort bei Journalisten ebenso berühmt und begehrt wie der Oscar in der Filmindustrie. Mit seinen Auszeichnungen für Romane und Sachbücher ist er der wichtigste US-amerikanische Literaturpreis. Es werden zudem Reportagen, Fotos, Karikaturen, Theaterstücke und Musikaufnahmen ausgezeichnet. Er wurde vom Journalisten und Zeitungsverleger Joseph Pulitzer gestiftet und wird seit 1917 verliehen. Jährlich gibt die Pulitzer-Journalisten-Schule an der New Yorker Columbia Universität die Preisträger bekannt, die von einer Jury aus US-amerikanischen Journalisten und Verlegern ausgewählt werden. Das Preisgeld beträgt je Kategorie ca. 10.000 US-Dollar. Bekanntgabe und Verleihung. Die Preisträger werden in der Regel Ende April bekanntgegeben. Die Verleihung des Pulitzer-Preises erfolgt ca. einen Monat darauf während eines Mittagessens in der Bibliothek der Columbia Universität. Erstmals wurde ein Pulitzer-Preis am 4. Juni 1917 vergeben. Im Jahr 2010 wurde der Preis erstmals an eine Online-Publikation verliehen. Die Journalistin Sheri Fink (ProPublica) gewann in der Sparte Investigativer Journalismus für einen Artikel über die Arbeit eines Krankenhauses in New Orleans nach dem Hurrikan Katrina. Aktuelle Kategorien. Pulitzer-Goldmedaille mit Abbild von Benjamin Franklin und einem Druckarbeiter Die wichtigste der Preiskategorien ist die "Dienst an der Öffentlichkeit" genannte, deren Preisträger seit 1918 neben dem Preisgeld noch die Pulitzer-Goldmedaille erhalten. Privatrecht. Privatrecht ist ein Rechtsgebiet, das Beziehungen zwischen rechtlich – nicht zwingend auch wirtschaftlich – gleichgestellten Rechtssubjekten (→ Natürliche Person, → Juristische Person) regelt. Die Bezeichnungen Bürgerliches Recht bzw. Zivilrecht (Verdeutschungen des lat. Terminus ') werden oft synonym zu "Privatrecht" verwendet, bezeichnen genau genommen allerdings nur einen Teil desselben (nämlich das Gebiet „Allgemeines Privatrecht“; s. u.). Das Privatrecht steht in der Rechtswissenschaft neben dem Öffentlichen Recht (einschließlich des Strafrechts); zur genaueren Abgrenzung (siehe "Abgrenzung zum Privatrecht"). Das Privatrecht sieht – im Gegensatz zum Öffentlichen Recht – eine aus der Privatautonomie abgeleitete Freiheit des Willens vor, die es dem Einzelnen grundsätzlich gestattet, mit anderen in eine Rechtsbeziehung zu treten (oder auch darauf zu verzichten). Diese Freiheit kann allerdings durch eine Vielzahl von tatsächlichen Gegebenheiten eingeschränkt sein, etwa durch ein Monopol oder die finanzielle Leistungskraft des Einzelnen. Sie ist jedoch, davon unabhängig, für das Privatrecht prägend, weil sie eine Gestaltung des Rechts ohne staatlichen Einfluss zulässt. Eines der wichtigsten privatrechtlichen Gestaltungsmittel ist der privatrechtliche Vertrag ("siehe auch:" Rechtsgeschäft, Vertragsrecht). Das Privatrecht gliedert sich zuoberst in "Für weitere Unterteilungen siehe die entsprechenden Absätze und Grafiken unten." Während im Bürgerlichen Recht die grundlegenden Regeln über die Personen, die Sachen und die Schuldverhältnisse (in der Schweiz: Obligationen) festgelegt sind, wird das Sonderprivatrecht – das gelegentlich auch mit dem Wirtschaftsprivatrecht zusammengefasst wird – ausführlich geregelt besonders durch das Handelsrecht, das Arbeitsrecht, das Mietrecht und anderen – sehr detaillierten – Rechtsgebieten. Gliederung nach dem Pandektensystem. Einteilung des Bürgerlichen Rechtes (Zivilrecht) nach dem Pandektensystem Die Gliederung nach dem Pandektensystem teilt das Zivilrecht in fünf (bzw. sechs, mit eigenständigem Personenrecht) Teilbereiche ein: Allgemeiner Teil (in der Regel mit Personenrecht), Schuldrecht, Sachenrecht, Erbrecht, Familienrecht. Diesem Schema folgen pandektistische Kodifikationen, im Besonderen das deutsche Bürgerliche Gesetzbuch (BGB) und das schweizerische Zivilgesetzbuch (ZGB), sowie die moderne Rechtswissenschaft im deutschen Rechtskreis (Deutschland, Österreich). Gliederung nach dem Institutionensystem. Einteilung des Bürgerlichen Rechtes (Zivilrecht) nach dem Institutionensystem Die Gliederung des Zivilrechtes nach dem Institutionensystem, das nach dem Hauptwerk des klassischen römischen Juristen Gaius benannt ist, ist eine Einteilung nach Römischem Recht, die in der Zeit der ersten großen Kodifikationswelle – französischer Code civil, österreichisches Allgemeines Bürgerliches Gesetzbuch (ABGB) – aufgenommen wurde. Die österreichische Rechtswissenschaft betrachtet diese Einteilung als historisch und gliedert das Zivilrecht nach dem Pandektensystem. Das Institutionensystem ist damit nur für die inhaltliche Orientierung bei der praktischen Arbeit mit dem Gesetz sowie gegebenenfalls für Auslegungsfragen maßgeblich. Handelsrecht. Das Handelsrecht wird als „Sonderprivatrecht der Kaufleute“ bezeichnet. Es beinhaltet Normen, die für Kaufleute relevant sind, wie Bestimmungen über Handelsgeschäfte, die Firmierung des Kaufmannes, kaufmännische Hilfspersonen (Handelsmakler, Handelsvertreter, Kommissionäre, Spediteure, Lagerhalter) sowie weiter im Bereich des Gesellschaftsrechts Regeln über Personen- und Kapitalgesellschaften. Für all diese Rechtsgebiete gilt, dass die Normen des allgemeinen Privatrechts subsidiär gelten, sodass z. B. für Handelsgeschäfte grundsätzlich allgemeines Privatrecht gilt, jedoch modifiziert und erweitert durch die Normen des Handelsrechts. Dieses subsidiäre Verhältnis findet in Deutschland seine Kodifizierung in Abs. 1 EGHGB. In der schweizerischen Rechtstradition wurde ein eigenständiges kaufmännisches Handelsrecht seit jeher abgelehnt, dies mit der Begründung einer demokratischen Gleichheit aller Personen, die eine besondere Behandlung der Kaufleute nicht rechtfertige. Trotzdem finden sich im OR vereinzelt Sonderregeln für den kaufmännischen Verkehr (z. B. Art. 190 OR), die sachgerechte Differenzierungen ermöglichen sollen. Arbeitsrecht. Das Arbeitsrecht regelt die Rechtsbeziehungen zwischen einzelnen Arbeitnehmern und Arbeitgebern (Individualarbeitsrecht) sowie zwischen den Koalitionen der Arbeitnehmer und Arbeitgeber und zwischen Vertretungsorganen der Arbeitnehmer und dem Arbeitgeber (kollektives Arbeitsrecht). Die Normen des Arbeitsrechtes enthalten vielfach (einseitig) zwingende Vorschriften zugunsten des Arbeitnehmers. Auch hier gelten die Normen des allgemeinen Privatrechts subsidiär. Weitere Bereiche. Weitere Sonderprivatrechtsbereiche sind z. B. das Mietrecht, das Verkehrszivilrecht oder das Wertpapierrecht, wobei anzumerken ist, dass das Mietrecht und das Verkehrszivilrecht oft gemeinsam mit dem Bürgerlichen Recht (Schuldrecht/Vertragsrecht) behandelt wird und das Wertpapierrecht eine immanente Nahebeziehung zum Handelsrecht hat. Kodifikationen. Eine Kodifikation des Zivilrechts erfolgte in Deutschland 1900 mit dem Bürgerlichen Gesetzbuch (BGB), in Österreich 1812 mit dem Allgemeinen Bürgerlichen Gesetzbuch (ABGB), in der Schweiz 1883 mit dem Schweizerischen Obligationenrecht (OR) und 1912 mit dem Zivilgesetzbuch (ZGB), in Frankreich 1804 mit dem Code civil (Code Napoléon) und in Italien mit dem Codice civile. Besonders der Code civil hatte eine starke Ausstrahlungskraft und war Vorbild für die übrigen Kodifikationen der sogenannten "Civil Law Countries". Bevor das Deutsche Kaiserreich das Bürgerliche Gesetzbuch einführte, gab es in einigen deutschen Teilstaaten bereits ein kodifiziertes Landrecht, so den Codex Maximilianeus Bavaricus Civilis von 1756 in Bayern und das Allgemeine Landrecht für die Preußischen Staaten von 1794 (ALR). Manche Landrechte basierten auf dem Code civil, z. B. das Badische Landrecht von 1810. Bereits im Mittelalter hatten viele Territorien des Heiligen Römischen Reiches deutscher Nation ein kodifiziertes Landrecht, das jedoch neben dem Zivilrecht auch andere Rechtsbereiche (z. B. Straf- und Verfassungsrecht) regelte. Internationales Privatrecht. Bei privatrechtlichen Fällen mit Auslandsbezug (z. B. bei Eheschließung von zwei Personen unterschiedlicher Staatsbürgerschaft, bei einem Schadensfall im Ausland oder bei internationalen Verträgen) bestehen besondere Kollisionsnormen, die bestimmen, welches Privatrecht anzuwenden ist. Dieser Rechtsbereich wird – etwas missverständlich – als "Internationales Privatrecht" bezeichnet. Einzelne Rechtsmaterien haben völkerrechtliche Regelungen erhalten, die dann den nationalen Regelungen vorangehen, so insbesondere der internationale Warenkauf durch das Übereinkommen der Vereinten Nationen über Verträge über den internationalen Warenverkauf vom 11. April 1980, dem auch Deutschland, Österreich und die Schweiz beigetreten sind. Die weltweit einzigartige Möglichkeit, privatrechtliche Ansprüche aus jedem Land der Welt vor einem US-Gericht einzuklagen, wird durch den US-amerikanischen Alien Tort Claims Act geregelt. Pazifische Eibe. Die Pazifische Eibe ("Taxus brevifolia") ist eine Pflanzenart, die zur Familie der Eibengewächse (Taxaceae) gehört. Verbreitung. Die Pazifische Eibe ist im pazifischen Nordamerika beheimatet. Sie kommt entlang der Küste von Alaska bis Mittelkalifornien vor. Ostwärts dringt sie bis Idaho vor und reicht bis auf Höhenlagen von 2100 Meter. Die Pazifische Eibe wächst bevorzugt in feuchten und schattigen Lagen. Beschreibung. Die Pazifische Eibe ist ein immergrüner Strauch oder breitkroniger, oft krummstämmiger Baum, der Wuchshöhen von bis zu 15 (selten auch 25) Meter und Stammdurchmesser von 0,5 bis zu 1,4 Meter erreicht. Die schuppige Borke ist purpurfarben bis rötlich. Die Rinde der Zweige ist anfangs grün, später rot-braun. Die scheinbar zweireihig an den Zweigen angeordneten Nadelblätter sind 8 bis 35 mm lang und 1 bis 3 mm breit. Sie besitzen einen kurzen (5 bis 8 mm) Stiel. Die Pazifische Eibe ist zweihäusig getrenntgeschlechtig (diözisch). Die einzeln oder in Gruppen an einjährigen Zweigen stehenden männlichen Zapfen sind zuerst kugelig, grün und weisen einen Durchmesser von 1,5 mm auf. Die weiblichen Zapfen sind eiförmig, zwei- bis vierkantig und weisen einen Durchmesser von etwa 5 bis 6,5 mm auf. Die im Spätsommer bis Herbst reifenden Samen sind von einem roten Arillus umhüllt, der einen Durchmesser von etwa 10 mm aufweist. Inhaltsstoffe. Seit 1980 ist die Pazifische Eibe aufgrund ihres Inhaltsstoffes Paclitaxel bekannt, einem wichtigen Medikament in der Behandlung von verschiedenen Krebserkrankungen wie Brustkrebs und Eierstockkrebs. Die Pazifische Eibe ist allerdings eine geschützte Art. Noch dazu gehört sie zu den am langsamsten wachsenden Bäumen der Welt. Eine Wirkstoffisolierung aus ihrer Rinde (wobei der Baum getötet wird) ist daher kaum in größerem Umfang möglich. So bedürfte es sechs 100 Jahre alter Bäume, um genug Paclitaxel für die Behandlung einer einzigen Krebspatientin zu gewinnen. Inzwischen kann Paclitaxel halbsynthetisch aus kultivierten Exemplaren der viel häufigeren Europäischen Eibe gewonnen werden. Pflanzenöle. Raps ist in Europa die bedeutendste Ölpflanze Pflanzenöle (pflanzliche Öle) sind aus Ölpflanzen gewonnene Fette und fette Öle. Ausgangsstoffe zur Herstellung von Pflanzenöl sind Ölsaaten und -früchte, in denen das Öl in Form von Lipiden vorliegt. Pflanzenöle und -fette sind vorwiegend Ester des Glycerols mit Fettsäuren, sogenannte Triglyceride. Die Abgrenzung zu den Pflanzenfetten ist die Fließfähigkeit bei Zimmertemperatur. Im Gegensatz zu den oben genannten fetten Ölen hinterlassen die ebenfalls meist aus Pflanzen gewonnenen ätherischen Öle beim Trocknen auf Papier allenfalls Farbränder, aber keine Fettflecken. Geschichte. Noch vor zehn Jahren, so die Autorin 1902, aß „das Wiener Volk nur einmal im Jahr Fisch - den unvermeidlichen Spiegelkarpfen am heiligen Abend.“ Und zwar in Butter. Herstellung und Eigenschaften. "Zur Herstellung von Pflanzenölen siehe Ölmühle." Pflanzenöle werden durch Auspressen und Extrahieren von Ölfrüchten und -saaten gewonnen. Pflanzenöle enthalten oft einen höheren Anteil an ungesättigten Fettsäureresten als tierische Fette und gelten daher als gesünder. Die Pflanzenöle unterscheiden sich aufgrund ihrer unterschiedlichen Zusammensetzung in einer Vielzahl von Eigenschaften. Ein Beispiel hierfür ist der Rauchpunkt, der spezifisch für die Pflanzenölsorte ist und bei einigen häufigen Arten zwischen 130 und über 200 liegt. Je nach dem Anteil an ungesättigten Fettsäureresten unterscheidet man zwischen nichttrocknenden (z. B. Olivenöl), halbtrocknenden (z. B. Soja- oder Rapsöl) und trocknenden Pflanzenölen (z. B. Lein- oder Mohnöl). Der Begriff „Trocknung“ bezeichnet hierbei nicht Verdunstung, sondern das durch Oxidation mit Sauerstoff und anschließende Polymerisation der ungesättigten Fettsäuren bedingte Verdicken („Verharzen“) des Öls. Trocknende und halbtrocknende Öle. Bei den trocknenden Ölen unterscheidet man zwischen "Isolenölen" mit isolierten Doppelbindungen und "Konjuenölen" mit konjugierten Doppelbindungen. Qualitätsmerkmale. Die Qualität von Pflanzenölen ist sowohl von der Art der Herstellung des Öls als auch von Herstellung der ölhaltigen Früchte und Saaten abhängig. Die Herstellung der Früchte und Saaten geschieht entweder im konventionellen Landbau oder im biologischen bzw. ökologischen Landbau. Während im konventionellen Landbau chemische Pflanzenschutzmittel, Mineraldünger und Grüne Gentechnik zum Einsatz kommen, wird hierauf in der ökologischen Landwirtschaft verzichtet. Zur Kennzeichnung von Ölen, die aus biologisch angebauten Früchten oder Saaten hergestellt und denen bei der Verarbeitung keine weiteren Zusatz- und Hilfsstoffe zugesetzt wurden, bedienen sich die Hersteller verschiedener Bio-Siegel. Raffinierte Öle erfüllen diese Kriterien nicht. Bei allen unraffinierten Ölen ist die Qualität der Rohware entscheidend für Geschmack, Geruch, Farbe und Vitamingehalt. Bei raffinierten Ölen werden diese Eigenschaften unabhängig von der Qualität der Rohware verringert. Raffinierte Öle. Das Öl wird zunächst bei Temperaturen von über 100 heiß gepresst. Bei der chemischen oder physikalischen Raffination gehen wertvolle sekundäre Pflanzenstoffe, geschmackliche Eigenarten und die typische Farbe verloren. Das raffinierte Öl ist weitestgehend geschmacksneutral, von heller Farbe, lange haltbar und universell einsetzbar. Unraffinierte Öle. Die Rohware wird kalt gepresst, eine geringe Wärmezufuhr bei der Pressung bis ca. 60 ist möglich. Zur Steigerung der Haltbarkeit werden diese Öle teilweise gedämpft. Bei der Dämpfung werden wie bei der Raffination erwünschte Begleitstoffe vermindert. Kalt gepresste Öle. Kalt gepresste Öle werden ohne weitere Wärmezufuhr nur durch Druck oder Reibung in meist dezentralen Ölmühlen hergestellt. Auf die Pressung folgt meist eine Filtration. Die Öle enthalten alle Inhaltsstoffe. Diese haben positiven Einfluss auf die Qualitätskriterien wie Geschmack, Geruch, Farbe und Vitamingehalt. Native Öle. Native Öle sind naturbelassen und kalt gepresst ohne weitere Wärmezufuhr. (bei Olivenöl auch "Virgin") Die kalte Pressung ohne Wärmezufuhr vermeidet Oxidation. Das Öl wird filtriert. Weder Öl noch Rohware werden vor- oder nachbehandelt, etwa durch Raffination, Dämpfung oder Rösten der Saat. Es bleiben alle Inhaltsstoffe erhalten. Der deutliche Frucht- oder Saatgeschmack, Geruch und intensive Farbe sind charakteristisch. Öle aus geschälter Saat. Die Saat wird in Schälmühlen von der Schale befreit. Die Kerne werden anschließend zu kalt gepresstem, nativem Öl weiterverarbeitet. Auf eine Raffination kann verzichtet werden. Das gewonnene Öl ist ein reines Kernöl. Wie bei den kalt gepressten oder nativen Ölen bleiben die Inhalts- und Geschmacksstoffe sowie die Vitamine erhalten. Durch die Schälung werden unerwünschte Geschmacksbeeinträchtigungen und Trübungen, die von den Schalen ausgehen, vermindert. a> (= ungesättigte Fettsäurereste) als Fette. Zusammensetzung. Die folgende Tabelle und die Abbildung zeigen die Anteile verschiedener Fettsäurereste der Triglyceride (Triester des Glycerins) in pflanzlichen Fetten und Ölen in Prozent; in Klammern jeweils die Anzahl der C-Atome sowie gegebenenfalls der Doppelbindungen im Fettsäurerest (C-Atome: Doppelbindung). Weitere Sorten. Diese Aufstellung enthält in der Zusammensetzungstabelle oben nicht aufgeführte weitere Sorten. In Klammern: der verwendete Pflanzenteil. Verwendung. Pflanzenöl verbrennt an einem Docht mit rußender Flamme Pflanzenöle finden vielfältige Verwendung, so unter anderem als Prokura. Prokura (, Vollmacht, von, für etwas Sorge tragen, zu, für, und, Sorge) ist in Deutschland, Österreich und in der Schweiz bei Unternehmen eine, durch einen Kaufmann an Mitarbeiter erteilte, umfangreiche geschäftliche Vertretungsmacht. Sie stellt, wie die Handlungsvollmacht, eine gewillkürte Form der Stellvertretung dar und hat den Zweck, dem Handelsverkehr eine sichere Grundlage für das Vertretungshandeln der kaufmännischen Gehilfen zu bieten. Rechtsgrundlagen. Die Rechtsgrundlagen der Prokura finden sich in bis HGB. Danach ermächtigt sie gemäß Abs. 1 HGB „zu allen Arten von gerichtlichen und außergerichtlichen Geschäften und Rechtshandlungen, die der Betrieb eines Handelsgewerbes mit sich bringt“. Durch Verwendung des unbestimmten Artikels „eines Handelsgewerbes“ will der Gesetzgeber zum Ausdruck bringen, dass der Prokurist auch branchenübergreifende Geschäfte abschließen darf. Genau dies ist dem Handlungsbevollmächtigten verwehrt, weil die entsprechende Bestimmung in Abs. 1 HGB die bestimmtere Formulierung „eines derartigen Handelsgewerbes“ verwendet und damit sein Geschäftsfeld auf das Handelsgewerbe beschränkt, in dem er tätig ist. Die Prokura ist ausdrücklich (mündlich oder schriftlich) zu erteilen (Abs. 1 HGB) und vom Inhaber des Handelsgewerbes nach Abs. 1 HGB im Handelsregister einzutragen. Diese Eintragung hat lediglich deklaratorische Wirkung, da bereits die förmliche Ernennung zum Prokuristen eine handelsrechtliche Prokura begründet. Umfang. Die Vorschrift des Abs. 1 HGB legt den Umfang der Prokura zwingend fest, sodass der Prokurist in diesem Rahmen rechtsgeschäftlich im Namen und für Rechnung des Kaufmanns handeln darf und die so abgeschlossenen Geschäfte den Kaufmann verpflichten und berechtigen (Abs. 1 BGB). Selbst wenn die Prokura im Innenverhältnis zwischen Kaufmann und Prokurist enger ausgestaltet wird als es der gesetzliche Rahmen vorsieht, darf der Prokurist im Außenverhältnis den Umfang seiner handelsrechtlichen Prokura voll ausschöpfen, denn HGB erklärt alle Beschränkungen dieser Prokura für unwirksam. Die Geschäftspartner des Prokuristen dürfen ohne weiteres auf den gesetzlich vorgesehenen Umfang der Prokura vertrauen und brauchen nicht das Risiko einer eventuell fehlenden Vertretungsmacht zu fürchten. Nicht nur alle typischen und gewöhnlichen Geschäfte werden von einer Prokura erfasst, sondern alle Geschäfte, die sich auch nur mittelbar auf irgendein Handelsgewerbe beziehen, also mit ihm zumindest noch in einem entfernten, lockeren Zusammenhang stehen. Das Vorliegen eines Handelsgeschäfts wird nach HGB vermutet. Diese weitreichende Vollmacht versetzt den Prokuristen in die Lage, rechtswirksam Geschäfte vorzunehmen, die weit außerhalb des Tätigkeitsbereichs seines Unternehmens liegen. Erst recht umfasst die Prokura alle betrieblichen Funktionen (Beschaffung, Produktion, Vertrieb, Versicherung oder Finanzierung). Auch organisatorische oder arbeitsrechtliche Handlungen sind im Rahmen einer Prokura statthaft. Ausgenommen von der Prokura sind sogenannte "Grundlagen-" und "Prinzipalgeschäfte". "Grundlagengeschäfte" umfassen alle Handlungen, die das Handelsgeschäft als solches betreffen. Dazu zählen insbesondere die Belastung und Veräußerung von Grundstücken (Abs. 2 HGB), sofern der Prokurist hierzu nicht ausdrücklich ermächtigt wird, aber auch die Veräußerung des Betriebes, die Aufnahme neuer Gesellschafter, der Antrag auf Insolvenz, die Änderung der Rechtsform oder die Abänderung des Unternehmensgegenstandes. "Prinzipalgeschäfte" sind originäre Geschäfte des Kaufmanns, z. B. die Erstellung von Handelsbilanzen HGB, Anmeldungen zum Handelsregister, die nur der Kaufmann wirksam vornehmen kann (, HGB) oder die Erteilung der Prokura selbst (Abs. 1 HGB). Dies macht eine sog. "Unterprokura" unzulässig. Der Prokurist unterliegt, wie auch ein Geschäftsführer, den Verboten des "Selbstkontrahierens" und der "Mehrvertretung" nach BGB, von beiden (in § 181 BGB enthaltenen) Verboten kann der Prokurist jedoch befreit werden (wie auch der Geschäftsführer), was zur Eintragung in das Handelsregister anzumelden ist (siehe Insichgeschäft). Da die Prokura keine Untervollmacht des Geschäftsführers darstellt, kann der Prokurist selber von den Verboten des §181 BGB befreit sein - auch wenn der Geschäftsführer selber diese Befreiung nicht hat. Führt der Prokurist Geschäfte aus, welche durch seine Vollmacht nicht gedeckt sind, handelt er als Vertreter ohne Vertretungsmacht nach § ff. BGB. Im Außenverhältnis haftet jedoch immer die durch den Prokuristen vertretene Gesellschaft, im Innerverhältnis kann der Prokurist von der Gesellschaft in Haftung genommen werden. Zu berücksichtigen ist die mehrfache Bestätigung durch die Rechtsprechung, dass der fremde Dritte jederzeit den gesetzlichen Umfang der entsprechenden Prokura annehmen darf. Einzelprokura. Einzelprokura ist die einer einzelnen Person erteilte Vollmacht, wodurch sie allein vertretungsberechtigt handeln kann. Diese Prokura hat einen umfassenden Charakter. Filialprokura. Bei Filialprokura ist die Prokura auf eine Filiale oder Geschäftsstelle eines Unternehmens beschränkt (Abs. 3 HGB). Eine Prokura, die sich auf alle Niederlassungen eines Kaufmanns erstreckt, bezeichnet man als Generalprokura. Die Firmen der Zweigniederlassungen müssen sich durch einen Zusatz unterscheiden, etwa „Filiale Grenzach-Wyhlen“. Gesamtprokura. Bei der echten Gesamtprokura sind nur zwei oder mehrere Prokuristen zum gemeinschaftlichen Handeln befugt (Abs. 2 HGB; siehe Gesamtvertretung). Die Prokuristen müssen gemeinschaftlich handeln und unterschreiben regelmäßig gemeinsam. Vertretungsmacht des Prokuristen. Sofern er zur selbständigen Einstellung oder Entlassung von Arbeitnehmern berechtigt ist, gilt für ihn selbst das Kündigungsschutzgesetz nur eingeschränkt (grundlose Beendigung gegen Abfindung, Abs. 2, Abs. 1 S. 2 KSchG). Er darf hingegen keine höchstpersönlichen Geschäfte des Betriebsinhabers ausführen, die kraft Gesetzes dem Kaufmann vorbehalten sind. Dazu gehören insbesondere Innenverhältnis. Im Verhältnis zwischen Kaufmann und Prokuristen ist eine Beschränkung der Prokura dem Umfang nach, zum Beispiel durch Dienst- oder Arbeitsvertrag des Prokuristen, möglich. Außenverhältnis. Beschränkungen im Innenverhältnis sind gegenüber Dritten absolut unwirksam (Abs. 1 und 2 HGB), daher sind auch die vom Prokuristen ohne Vertretungsbefugnis abgeschlossenen Geschäfte für den Kaufmann verbindlich, sofern nicht der Geschäftsgegner positive Kenntnis von dem Fehlen der Vertretungsbefugnis hatte (siehe auch Abschnitt über den Missbrauch). Der Prokurist ist dem Kaufmann dann aber zum Schadensersatz verpflichtet. Missbrauchsfälle, bei denen der Kaufmann nicht verpflichtet wird. Des Weiteren sind Fälle denkbar, in denen die Prokura weder gem. HGB in das Handelsregister eingetragen wurde noch das Erlöschen der Prokura Eintrag in das Handelsregister gefunden hat, die so genannte "sekundäre Unrichtigkeit des Handelsregisters". Hier ist umstritten, ob das Rechtsgeschäft, das ein Vertreter nach dem Erlöschen dieser Prokura vorgenommen hat, trotzdem gegen den Vertretenen wirkt, also ob Absatz 1 HGB anwendbar ist. Bejaht man die Anwendbarkeit, gilt das oben Geschriebene auch in diesem Fall. Erlöschen der Prokura. Hingegen erlischt die Prokura nicht beim Tod des Geschäftsinhabers (Abs. 3 HGB). Hier wirkt sich die rechtsgeschäftliche Vollmacht aus, zu denen die Prokura gehört. Der Tod des Vollmachtgebers ändert nichts an rechtswirksam erteilten Vollmachten. Erfolgt nach Widerruf der Prokura keine Löschung im Handelsregister, können sich Dritte auf das Fortbestehen der Prokura berufen (Abs. 1 HGB). Die Prokura ist nicht auf Dritte übertragbar. Unterschrift. Das Ausüben der Vollmacht wird durch Hinzufügen eines Hinweises auf die Prokura zum Namen des Kaufmanns (der Firma) und zum Namen des Prokuristen kenntlich gemacht ( HGB). Der Zusatz wird üblicherweise mit "ppa." ("per procura autoritate", deutsch ‚mit der Macht einer Prokura‘) abgekürzt. Prokura in der Schweiz. Der Begriff der Prokura ist nahezu identisch mit dem des deutschen Rechts. Die gesetzlichen Regelungen finden sich in OR Art. 458–465. Die Regelung, wie Prokura definiert ist und wie sie erteilt wird, findet sich in OR Art. 458. Auch der Umfang der Prokura ist nahezu identisch mit der im deutschen Recht geregelten Prokura. Besonderheiten ergeben sich aus OR Art. 459. Die Löschung der Prokura muss zwingend in das Handelsregister eingetragen werden. Sofern dies nicht geschieht, können sich gutgläubige Dritte weiterhin darauf berufen. Parteispende. Als Parteispenden werden Spenden an politische Parteien bezeichnet. Die Einnahmen aus den Parteispenden bilden zusammen mit den Mitgliedsbeiträgen und öffentlichen Zuschüssen die Grundlage der Parteienfinanzierung. Deutschland. In Deutschland dürfen sowohl natürliche als auch juristische Personen in unbegrenzter Höhe spenden. Spenden sind in bestimmtem Umfang steuerlich absetzbar, die Parteien erhalten für Spendeneinnahmen zudem einen staatlichen Zuschuss. 2007 finanzierten sich die Parteien zu etwa 15 % durch Parteispenden. In Wahljahren fließen traditionell deutlich mehr Spenden als in anderen Jahren. 2009 (Bundestagswahl) waren es zum Beispiel etwa 6 Millionen Euro. 2011 flossen insgesamt 2,03 Millionen Euro Großspenden an die Parteien. 2012 waren es 1,3 Millionen Euro (CSU 460.000 Euro; CDU und SPD je etwa 260.000 Euro, FDP 205.000 Euro, Marxistisch-Leninistische Partei Deutschlands (MLPD) 115.000 Euro, Grüne 60.000 Euro). Veröffentlichungspflicht. Das Parteiengesetz (PartG) wurde 2002 (Kabinett Schröder I) wesentlich geändert. Seit dem 1. Juli 2002 müssen Parteispenden von über 50.000 Euro (sogenannte 'Großspenden') unverzüglich beim Bundestagspräsidenten angezeigt und anschließend veröffentlicht werden. Die Veröffentlichung erfolgt als Drucksache und auf der Homepage des Bundestags. Parteispenden über 10.000 Euro müssen in den Rechenschaftsberichten der Parteien veröffentlicht werden. Die Rechenschaftsberichte der Parteien erscheinen etwa eineinhalb Jahre nach Ende des betreffenden Jahres. Die Spenden über 10.000 Euro (aber unter 50.000 Euro) im Wahlkampfjahr 2005 wurden z. B. erst im Sommer 2007 bekannt. Veröffentlichungspraxis. Bundestagspräsident Norbert Lammert (CDU) wies am 28. Januar 2010 die Parlamentsverwaltung an, Großspenden von mehr als 50.000 Euro sofort schriftlich oder im Internet zu veröffentlichen. Zuvor wurden sie in Sammelübersichten im Vier-Wochen-Rhythmus publik gemacht. Parteien zeigen Großspenden. Anlass für diese Anweisung waren drei Spenden in Höhe von insgesamt 1,1 Millionen Euro, die die FDP zwischen Oktober 2008 und Oktober 2009 von einem Hotel-Unternehmer erhalten hatte. Steuerliche Absetzbarkeit. Für Parteispenden wird dem Steuerpflichtigen gem. EStG eine Ermäßigung der Einkommensteuer gewährt. 50 % des gespendeten Betrags können direkt von der Steuerschuld abgezogen werden, maximal 825 Euro (erreicht bei einer Spendensumme von 1.650 Euro). Bei Zusammenveranlagung beträgt der maximale Abzug 1.650 Euro (erreicht bei einer Spendensumme von 3.300 Euro). Aufgrund von Solidaritätszuschlag und Kirchensteuer beträgt die Steuerersparnis etwas mehr als die Hälfte der Spendensumme. So ermäßigt sich die Steuerbelastung bei einem Kirchensteuersatz von 9 % und dem Solidaritätszuschlag von 5,5 % um insgesamt 57,25 % der Parteispendensumme. Werden pro Kalenderjahr mehr als 1.650 Euro (bzw. mehr als 3.300 Euro bei Zusammenveranlagung) an Parteien gespendet, kann der übersteigende Teil der Spendensumme gemäß Abs. 2 EStG als Sonderausgabe abgezogen werden. Für diesen Teil gilt erneut eine Grenze von 1.650 Euro (Zusammenveranlagung 3.300 Euro). Da hierdurch lediglich das zu versteuernde Einkommen gemindert wird, hängt die Steuerersparnis für diesen Teil vom persönlichen Steuersatz ab. Werden mehr als 3.300 Euro (bei Zusammenveranlagung 6.600 Euro) jährlich an politische Parteien gespendet, ist der übersteigende Teil nicht mehr steuerlich begünstigt. Absetzbar sind nur Parteispenden von natürlichen Personen – juristische Personen (Unternehmen) können gemäß Abs. 6 EStG Parteispenden nicht absetzen. Staatliche Bezuschussung von "Kleinspenden". Spenden von natürlichen Personen werden im Rahmen der "staatlichen Teilfinanzierung" politischer Parteien mit 0,38 Euro für jeden Euro bezuschusst. Dabei werden pro Person höchstens bis 3.300 Euro berücksichtigt. Statistiken. Die nachfolgenden Statistiken sollen einen Überblick über die größten Spender und Spendenempfänger verschaffen. Größte Spender (juristische Personen). Für den Zeitraum 2000-2008. Ab 2007 sind hierbei nur Großspenden ab 50.000 Euro berücksichtigt sind, da kleinere Spenden durch die Rechenschaftsberichte der Parteien noch nicht veröffentlicht wurden. Parteispenden 2013. Im Jahr der Bundestagswahl 2013 gab es wesentlich mehr Großspenden an die Parteien als im Jahr zuvor. Österreich. In Österreich sind seit 1. Juli 2012 Spenden, die im Einzelfall die Höhe von 50.000 Euro übersteigen, unverzüglich dem Rechnungshof zu melden. Dieser hat die Spenden unter Angabe des Spenders auf der Website des Rechnungshofes zu veröffentlichen. Diese Veröffentlichung wird fortlaufend aktualisiert. Zudem hat jede politische Partei über die Art ihrer Einnahmen und Ausgaben jährlich bis 30. September des jeweiligen Folgejahres dem Rechnungshof einen Rechenschaftsbericht zu übermitteln. In einer Anlage zum Rechenschaftsbericht sind Spenden gesondert auszuweisen. Spenden, deren Gesamtbetrag in einem Rechenschaftsjahr 3.500 Euro übersteigen, sind unter Angabe des Namens und der Anschrift des Spenders auszuweisen. Der Rechenschaftsbericht ist nach Prüfung durch den Rechnungshof auf der Webseite des Rechnungshofes als auch auf der Webseite der jeweiligen politischen Partei zu veröffentlichen. Die ersten, den neuen Vorschriften entsprechenden, Rechenschaftsberichte für das Jahr 2013 können auf der Internetseite des Rechnungshofs eingesehen werden. Schweiz. Die Schweiz gehört zu den wenigen europäischen Ländern, die über keine besonderen gesetzlichen Bestimmungen zu den politischen Parteien verfügen, weder zu deren Finanzierung noch zur Finanzierung von Wahlkampagnen. Parteispenden sind auf Bundesebene bis CHF 10'000 pro Jahr und auf Kantonsebene bis zu einem vom Kanton festgelegten Betrag steuerlich abziehbar. Politische Partei. Eine politische Partei (, Genitiv ‚Teil‘, ‚Richtung‘) ist ein auf unterschiedliche Weise organisierter Zusammenschluss von Menschen, die innerhalb eines umfassenderen politischen Verbandes (eines Staates o. Ä.) danach streben, möglichst viel politische Mitsprache zu erringen, um ihre eigenen sachlichen oder ideellen Ziele zu verwirklichen und/oder persönliche Vorteile zu erlangen. Wesentlicher Teil des Erringens bzw. Ausübens solcher politischer Macht ist es, Führungspositionen in staatlichen und anderen Institutionen (zum Beispiel Öffentlich-rechtlicher Rundfunk) mit Parteimitgliedern oder der Partei nahestehenden Menschen zu besetzen. Innerhalb eines Mehrparteiensystems konkurrieren politische Parteien untereinander um die Besetzung der politischen Entscheidungspositionen; sie tragen zur politischen Willensbildung bei und bilden insofern eine wichtige Säule der politischen Verfasstheit eines demokratischen Staates. In einem Einparteiensystem ändern sich notwendigerweise auch Struktur und Funktion einer Partei. Eine derartige Partei „neuen Typs“ bekommt in der Regel „totalitären“ Charakter. Parteien in der modernen Demokratie. In der Massendemokratie erfolgt die politische Willensbildung, indem das Volk verschiedene Kandidaten der einzelnen Parteien wählt. Parlament und Regierung beeinflussen das Volk mittels Gesetzen und Verwaltungsakten. In diesem Prozess gegenseitiger Einwirkung kommt den Parteien die Aufgabe der Integration und Repräsentation des Wählerwillens gegenüber dem Staate zu. Parteien müssen in der demokratischen Struktur für die staatlichen Organe sowie für die Stimm- und Wahlberechtigten zeit- und kostenintensive Dienstleistungen erbringen, die von staatlichen Organen oder anderen privaten Institutionen nicht wahrgenommen werden können. Die Zeit wird von den Parteimitgliedern aufgebracht, und die Kosten werden aus den Mitgliederbeiträgen, in Deutschland inzwischen durch eine überwiegend vom Staat übernommene Parteienfinanzierung aufgebracht. Eine besonders wichtige und wertvolle Aufgabe der Parteien ist die Evaluation (Bewertung) und Nomination (Benennung) von Kandidaten für staatliche Aufgaben. Die staatlichen Organe erwarten außerdem, dass die Parteien zu allen Sachgeschäften umgehend und professionell Stellung nehmen. Die Stimm- und Wahlberechtigten erwarten, dass sie von den Parteien informiert werden. Es gibt Mehrparteien- und Zweiparteiensysteme, was nicht zuletzt durch das jeweils herrschende Wahlrecht bedingt ist. Das Mehrheitswahlrecht trägt zur Bildung von Zweiparteiensystemen bei, z. B. Vereinigtes Königreich, USA. Hierbei ist nur eine Regierungs- und eine Oppositionspartei im Parlament vertreten, allerdings bei vergleichsweise geringer Bindung des Abgeordneten an Vorgaben seiner Partei (v. a. USA, bei GB durch innerparlamentarische Opposition wieder stärkere Bindung an die Partei). Das Verhältniswahlrecht hingegen begünstigt die Bildung eines Parlaments mit mehreren Parteien, wobei jedoch im Allgemeinen die Fraktionsdisziplin eine größere Rolle spielt (z. B. Niederlande, Deutschland). Zweiparteiensysteme führen zu klaren Mehrheiten, die Regierungsbildung ist relativ einfach zu vollziehen. Mehrparteiensysteme führen zu Koalitionsregierungen, die schwieriger zu bilden sind und bei denen es leicht zu internen Konflikten kommt. Andererseits bildet ein Mehrparteiensystem die komplexe gesellschaftliche Wirklichkeit besser ab. In diesem Zusammenhang findet das Medianwählermodell Anwendung. Einparteiensysteme finden sich nur in nicht-demokratischen Staaten. Parteien in der deutschen Verfassungsgeschichte. Im Deutschen Reich verwehrte den Parteien der Obrigkeitsstaat mit seiner Selbstinterpretation als „überparteiliches“ Gebilde den Zugang zu staatlichen Organen, innerhalb derer sie erst zur Geltung hätten kommen können. Hegels Lehre vom Staate als dem „sittlich Ganzen“ setzt „Partei“ gleich mit der „Gewalt Weniger“, dem „besonderen, zufälligen Interesse“. Sie traf sich hierin mit Jean-Jacques Rousseaus fiktiver radikaler Demokratie. Es waren nicht die Monarchie oder der militärische und zivile Beamtenstab, die die Bildung der Parteien behinderten; denn Parteien entstehen gegen die autoritäre Herrschaft, indem ein bisher ausgeschlossener Teil an der Herrschaft zu partizipieren verlangt, gemäß dem englischen Vorbild, wo eine Partei die parlamentarische Herrschaft ausübt und die andere eine regierungsfähige Opposition bildet. Zur Zeit der Schaffung des deutschen Nationalstaates auf der Basis der Volkssouveränität sind in der Theorie Parteien ausgeschlossen, um der Einheit willen, die eine Identität von Herrschern und Beherrschten verlangt. Auch das Staatsrecht war geteilter Meinung über den Parteienstaat. Doch die „Lebenslüge des Obrigkeitsstaates“ von der Überparteilichkeit des Staates lässt die Weimarer Reichsverfassung sie nur „mit einer negativen Gebärde sprödester Abwehr“ (Leo Wittmayer) erwähnen. Hierbei gab es mehrere Entwicklungsstufen. Die Ansicht, dass Parteien für den Parlamentarismus unerlässlich seien, als, hatte sich noch nicht durchgesetzt. Im Bonner Grundgesetz fand hingegen ein neues Verständnis der Parteien seinen Ausdruck. Die im Grundgesetz vorgesehene Diese singuläre Mittellage, die dem bisherigen Verfassungsrecht fremd war, hat das Bundesverfassungsgericht mit dem Ausdruck „Inkorporation in das Verfassungsgefüge“ umschrieben. Zielt eine Partei auf Beseitigung oder Beeinträchtigung der freiheitlichen demokratischen Grundordnung ab, so ist sie nach Abs. 2 Satz 1 GG verfassungswidrig und kann vom Bundesverfassungsgericht verboten werden. Wichtig ist jedoch, dass hierüber gemäß Abs. 2 Satz 2 GG nur das Bundesverfassungsgericht zu entscheiden hat. Erst durch ein entsprechendes Urteil verliert eine solche Partei dann den Schutz durch die Verfassung. Das in Abs. 3 GG vorgesehene Gesetz über die politischen Parteien kam erst 1967 zustande. Das Parteiengesetz schreibt unter anderem vor, dass eine Partei demokratisch organisiert sein und zudem offenlegen muss, woher sie ihre (finanziellen) Mittel hat. Parteien und ihre Untergliederungen (z. B. Ortsvereine) haben in Deutschland in der Regel die Rechtsform eines nicht rechtsfähigen (d. h. nicht eingetragenen) Vereins im Sinne von BGB. Ausnahmen sind die CSU und die FDP, die als eingetragene Vereine (e. V.) geführt werden. Auch deren Untergliederungen sind jedoch eigene, nicht rechtsfähige Vereine. Die Rechtsform des nicht rechtsfähigen Vereins hatte früher zur Folge, dass Parteien sich der Konstruktion eines Treuhänders bedienen mussten, wenn sie etwa Grund- und Unternehmensvermögen kaufen und halten wollten. Seit der Bundesgerichtshof im Jahr 2001 seine Rechtsprechung zur Gesamthandsdoktrin geändert hat, wird jedoch auch der nicht rechtsfähige Verein (trotz seiner Bezeichnung) als rechts- und parteifähig behandelt, sodass die Treuhänderkonstruktion unnötig wurde. Da nach der derzeitigen Rechtsprechung aber nur die höchste und zweithöchste Organisationsebene einer Partei (in der Regel der Bundesverband und die Landesverbände) als Eigentümer eines Grundstücks ins Grundbuch eingetragen werden können, kann die Treuhänderkonstruktion für das Halten von Immobiliareigentum auch weiterhin sinnvoll bleiben. Gründung von Parteien. Zur Gründung einer Partei in Deutschland bedarf es zunächst einer politischen Vereinigung, beispielsweise muss diese nach PartG über eine Mindestzahl an Mitgliedern verfügen, eine Anzahl von 55 Personen wurde von einem Gericht als zu gering bewertet. Hingegen wurde die Partei „Nein!-Idee“ mit 61 Mitgliedern für die Bundestagswahl 2013 vom Bundeswahlausschuss als Partei anerkannt. Die Partei muss innerhalb von sechs Jahren an mindestens einer Bundestags- oder Landtagswahl teilnehmen, um weiterhin als Partei anerkannt zu werden. Nur natürliche Personen können Mitglied einer Partei sein. Die Zulassung von Parteien zu Wahlen wird über Wahlgesetze geregelt – z. B. bei Bundestagswahlen das über Bundeswahlgesetz. In der Schweiz müssen Parteien nicht registriert werden, da sie in der Regel als Verein im Sinne des Art. 60 Zivilgesetzbuch (ZGB) organisiert sind. Insofern können sich Schweizer Parteien ihre eigenen Statuten geben und Einschränkungen wie Altersgrenzen, Einschränkungen wegen Herkunft oder Stimmberechtigtkeit etc. verordnen. Dadurch können auch juristische Personen einer Partei beitreten, sofern die Partei dies nicht einschränkt. Auf Grund der fehlenden eigenen Rechtsform für Parteien, werden sie staatlich nicht finanziert. Im parlamentarischen Tagesgeschäft sind Fraktionen maßgebend. In Österreich ist politische Partei nach des Parteiengesetzes 2012 „eine dauernd organisierte Verbindung, die durch gemeinsame Tätigkeit auf eine umfassende Beeinflussung der staatlichen Willensbildung, insbesondere durch die Teilnahme an Wahlen zu allgemeinen Vertretungskörpern und dem Europäischen Parlament, abzielt”. Politische Parteien erlangen Rechtspersönlichkeit durch Hinterlegung ihrer Satzung beim Bundesministerium für Inneres. Da dem Bundesministerium für Inneres im Zusammenhang mit dem Gründungsvorgang keine Kontroll- oder Entscheidungsbefugnisse zukommen, kann die Existenz einer politischen Partei nur in einem anderen Verfahren als Vorfrage beurteilt werden. Das Recht zur Teilnahme an Wahlen ist von der Gründung einer politischen Partei völlig unabhängig; im österreichischen Verfassungsrecht wird strikt zwischen den politischen Parteien einerseits und den nur zum Zweck der Kandidatur an einer einzigen Wahl gebildeten „wahlwerbenden Parteien” (auch „Wahlparteien” genannt) andererseits unterschieden. Rechtsgrundlagen für die wahlwerbenden Parteien sind die jeweiligen Wahlordnungen. Das Parteiengesetz 2012 trifft nähere Vorschriften über die Prüfung der Rechnungslegung und die Offenlegungsverpflichtungen; diese gelten neben den politischen Parteien teilweise auch für die wahlwerbenden Parteien. Eine Abmeldung einer Partei ist erst seit dem Inkrafttreten des Parteiengesetzes 2012 vorgesehen; daher gibt es in Österreich auch über 710 sogenannter „Parteileichen“. In Polen kann es zur Gründung einer Partei kommen, wenn mindestens ein tausend polnische Staatsbürger einen Gründungsantrag unter Angabe der Personenregisternummer unterzeichnen und dieser durch das Bezirksgericht Warschau als rechtsgültig anerkannt wird. Mitglieder einer Partei müssen mindestens 18 Jahre alt sein. Dem Antrag muss der Namenskürzel sowie das Logo hinzugefügt werden. Eine Teilnahme an Wahlen ist für die polnischen Parteien nicht zwingend vorgeschrieben, jedoch die "Teilnahme an der Öffentlichkeit mittels demokratischen Aktivitäten zwecks Prägung der staatlichen Politik oder Ausübung der Staatsgewalt." Geschichte. Zur Entstehungszeit der Parlamente waren Parteien meist nur lockere Vereinigungen, die vor allem kurz vor Wahlen tätig wurden, um Kandidaten zu unterstützen. Die ersten Parteien in einem klar definierten Parteiensystem gab es im englischen Parlament um 1690–1695. „Whig“ und „Tory“ definierten mehr und mehr eine politische Vorliebe für die verschiedensten Politikfragen. Seit den 1830er Jahren wurden Parteien in England erstmals auch vollständig mit Regierung und Opposition in Verbindung gebracht. Die Bildung von Parteistrukturen auf lokaler, regionaler und nationaler Ebene sowie der Aufbau von Parteisekretariaten mit besoldeten Parteisekretären geht maßgeblich auf die Sozialdemokratie zurück. Allgemeines. Ein spezieller Fall sind die sogenannten Blockparteien, wie es sie zum Beispiel in der DDR gab. Ihre Funktion bestand darin, breitere Bevölkerungskreise in das Herrschaftssystem einzubinden und so die Herrschaft der führenden SED abzusichern. Parteien mit besonders kleinem Mitgliederkreis und niedrigen Wahlergebnissen werden auch als Kleinparteien oder Splitterparteien bezeichnet. Unterscheidung nach gesellschaftspolitischen Zielen. Die folgenden Kategorien sind vor allem in der europäischen Politik entstanden. Sie spiegeln die gesellschaftlichen Furchungen, also Konfliktlinien wider, die in verschiedenen Staaten ganz unterschiedlich ausgeprägt sein können. Grundsätzlich ist allerdings seit Mitte der 1980er Jahre eine Auflösung bzw. Schwächung der Konflikte zu beobachten. Diese Konfliktlinien durchkreuzen sich teilweise bzw. überlagern sich gegenseitig, sodass in den einzelnen Parteien, v. a. den größeren mehrere Konfliktlinien zu finden sind. Mitgliedschaft. Wer Mitglied einer Partei werden möchte, stellt einen Aufnahmeantrag beim betreffenden Landesverband. Über die Aufnahme des Mitgliedes entscheidet der Vorstand des Kreis- oder Unterverbandes, in dem der Antragsteller wohnt, per Abstimmung. Es kann dafür eine Anhörung anberaumt werden. Je nach parteiinterner Regelung kann auch eine Eintrittserklärung ohne Genehmigung eines Parteigremiums zum Erreichen der Mitgliedschaft ausreichen. Allerdings besteht in den betreffenden Parteien meist explizit die Möglichkeit eines Parteiausschlusses unter bestimmten Bedingungen. Parteimitglieder können sich in unterschiedlich gestufte Parteigremien wählen lassen (Stadt-/Unterverbandsvorstand, Kreis-, Bezirksvorstand, Landes- und Bundesvorstand, Landes- und Bundesfachausschüsse). Wer für eine Partei in ein Parlament gewählt werden möchte, muss sich von seinem Verband als Kandidat ernennen lassen. Während Direktkandidaten von Wahlkreiskonferenzen (Versammlung aller Mitglieder, die im Wahlkreis wahlberechtigt sind) gewählt werden, werden Listenplätze durch Wahlgänge auf einem dafür anzuberaumenden Landesparteitag (Landesdelegiertenversammlung) besetzt. Kritik am „Parteienstaat“. Die Kritik am Parteienstaat hat in Deutschland ansehnliche Tradition. Sie wird von der Politikwissenschaft erklärt aus der deutschen Ideologie des Obrigkeitsstaates, der angeblich überparteilich die Geschicke des Volkes verwaltet, während Parteien nichts weiter als Sonderinteressen vertreten. Begünstigt wurde diese Anschauung dadurch, dass die deutsche Revolution von 1848 gescheitert war und keine Partei von sich aus an die parlamentarische Macht gelangt war. Der Praxistest durch Regierungsverantwortung blieb demzufolge aus, und die Parteien konnten sich den Luxus weltanschaulicher Aufspalterei erlauben. Darauf folgten die politisch turbulenten Jahre nach dem Ersten Weltkrieg, die zu einer überhitzten Politisierung vormals unpolitischer Schichten führten, wobei sich eine mangelnde Integrationskraft des politischen Systems herausstellte. Seit einigen Jahrzehnten ist auch in der Gegenwart der Bundesrepublik das Ansehen der Parteien rückläufig, da einerseits der Wohlstand das politische Interesse abnehmen lässt, andererseits regierenden Parteien häufiger Bürgerferne vorgeworfen wird, sei es wegen Kritik an bestimmten einzelnen Entscheidungen, sei es aus wirtschaftlichen Interessen oder weltanschaulichen Motiven. (siehe auch Politikverdrossenheit). Pfeffergewächse. Die Pfeffergewächse (Piperaceae) sind eine Pflanzenfamilie aus der Ordnung der Pfefferartigen (Piperales). Die 13 Gattungen mit etwa 1920 Arten sind in den Subtropen bis Tropen fast weltweit verbreitet. Die für den Menschen wichtigste Gattung aus dieser Familie ist der Pfeffer ("Piper"). Beschreibung. Es sind verholzende Pflanzen: kleine Bäume und aufrechte, windende oder schlingende Sträucher (Lianen) oder einjährige bis ausdauernde krautige Pflanzen. Es werden oft Rhizome ausgebildet. Einige Arten duften aromatisch. Pflanzenteile können behaart bis unbehaart oder mit Drüsen bedeckt sein. Sie wachsen terrestrisch oder epiphytisch; einige Arten sind sukkulent. Die meist wechselständig und spiralig oder seltener gegenständig oder wirtelig angeordneten, meist gestielten Laubblätter sind einfach und krautig oder fleischig. Der Blattrand ist glatt. Nebenblätter sind meist vorhanden und sind oft mit den Blattstielen verwachsen. Die Blüten sind in endständigen, kolbenförmigen, ährigen Blütenständen angeordnet; selten sind es doldige, bei "Zippelia" traubige Blütenstände. Jede Blüte steht fast immer ohne Blütenstiel über einem kleinen Deckblatt. Die kleinen Blüten sind zwittrig oder bei "Piper" eingeschlechtig; wenn sie eingeschlechtig sind dann sind die Arten meist zweihäusig getrenntgeschlechtig (diözisch). Die Blüten besitzen keine Blütenhüllblätter. Es sind ein bis zehn meist freie Staubblätter vorhanden. Ein Teil der Staubblätter kann zu Staminodien umgewandelt sein. Die (zwei bis fünf) meist vier Fruchtblätter sind zu einem oberständigen, einfächerigen Fruchtknoten verwachsen, der mit basaler Plazentation nur eine Samenanlage enthält. Die Griffel enden meist in drei bis vier Narben. Es werden Beeren oder Steinfrüchte gebildet, sie enthalten nur einen Samen. Der Same besitzt nur spärlich Endosperm, viel stärkehaltiges Perisperm und einen winzigen Embryo. Inhaltsstoffe. Die ätherischen Öle enthalten meist Alkaloide. Systematik. Die Gattung "Peperomia" bildete früher eine eigenständige Familie Peperomiaceae, jetzt wird sie den Piperaceae zugeordnet. Die Familie Piperaceae wurde 1792 von Paul Dietrich Giseke in "Praelectiones in ordines naturales plantarum", S. 123 und am 13. Juni 1824 von Carl Adolf Agardh in "Aphor. Bot.", S. 201 beschrieben. Typusgattung ist "Piper" Die Familie der Pfeffergewächse (Piperaceae) wird seit M.-S. Samain et al. 2008 in drei Unterfamilien neu aufgegliedert. Davor gab es die zwei Unterfamilien Piperoideae und Peperomioideae. Heute gehören fünf Gattungen mit etwa 3600 Arten zur Familie. Wenn aus der Gattung "Piper" verschiedene Gattungen ausgegliedert sind können es bis zu zehn Gattungen mehr sein. Nutzung. Einige Arten werden als Zierpflanzen verwendet. "Peperomia blanda", "Peperomia tetraphylla" und "Piper nigrum" werden in der chinesischen Medizin verwendet. "Piper hainanense", "Piper hancei", "Piper hongkongense", "Piper nigrum", "Piper sarmentosum", "Piper wallichii", "Piper wangii" und "Piper yunnanense" liefern Gewürze. Palmengewächse. Die Palmengewächse oder Palmen (Arecaceae oder Palmae) sind die einzige Familie der Ordnung der Palmenartigen (Arecales) innerhalb der Monokotyledonen (Einkeimblättrigen Pflanzen). Verwandte Arten waren schon vor etwa 70 Millionen Jahren in der Kreidezeit weit verbreitet. Die Familie enthält 183 Gattungen mit etwa 2600 rezenten Arten. In der Familie der Palmengewächse finden sich das längste Blatt (bei Palmen der Gattung "Raphia" mit bis zu 25 Meter Länge), der größte Samen (von der Seychellenpalme ("Lodoicea maldivica") mit bis zu 22 Kilogramm Gewicht) sowie mit einer Länge von etwa 7,5 Metern der längste Blütenstand (in der Gattung "Corypha" mit geschätzten 10 Millionen Blüten pro Blütenstand) des Pflanzenreichs. Merkmale. Die Vertreter der Palmengewächse sind sehr vielgestaltig. Sie sind klein, mittelgroß oder groß, sie stehen einzeln oder in Gruppen (Cluster), sie sind bewehrt oder unbewehrt. Sie können mehrmals im Leben (pleonanth) oder nur einmal im Leben blühen (hapaxanth). Sie sind zwittrig, polygam, monözisch oder diözisch. Der Stamm ist „verholzt“. Er ist schlank bis massiv, sehr kurz bis sehr hoch, er kann kriechend, unterirdisch, kletternd oder aufrecht sein. Normalerweise ist der Stamm im oberirdischen Bereich unverzweigt, selten ist er dichotom verzweigt. Dem Stamm fehlt ein Kambium, Palmen verfügen daher über kein sekundäres Dickenwachstum, weshalb sie nicht zu den Bäumen gerechnet werden. Bei manchen Palmen tritt jedoch ein diffuses Dickenwachstum auf. Die Internodien sind kurz bis lang. Die Blattnarben sind auffällig bis unauffällig. Bei manchen Palmen treten Stelzwurzeln auf. Blätter. Die Laubblätter sind wechselständig und stehen in spiraliger Anordnung, selten zweizeilig (distich). Die Blattspreite wird anfangs immer ungeteilt gebildet, häufig spaltet sie sich später auf. Die Blätter können mit Stacheln oder Borsten bewehrt sein, sie sind kahl oder verschiedenartig mit Schuppen und/oder Haaren besetzt. Manchmal besitzen sie ein Ligula-ähnliches Anhängsel an beiden Seiten oder vor dem Blattstiel. Die Blattscheiden bilden manchmal einen Kronschaft. Der Blattstiel ist meist deutlich ausgebildet. Er ist unbewehrt oder verschieden bewehrt. Eine Hastula kann ausgebildet sein oder fehlen. Die Form der Blattspreite ist gefächert (palmat, Fächerpalme), costapalmat, gefiedert (pinnat), doppelt gefiedert (bipinnat), zweiteilig (bifid) oder ungeteilt, dann aber mit fiederförmiger Aderung. In der Knospe ist das Blatt gefaltet. Später reißt die Spreite entweder entlang der adaxialen Faltkanten (induplicat) auf oder entlang der abaxialen Kanten (reduplicat). Nur selten reißt sie zwischen den Faltkanten auf oder gar nicht. Die derart entstehenden Segmente oder Fiederchen sind lanzettlich oder linealisch bis hin zu rhombisch oder keilförmig. Im Querschnitt sind die Fiederchen bei den induplicaten Blättern V-förmig, bei den reduplicaten Λ-förmig. Sie sind einfach oder mehrfach gefaltet, meist besitzen sie eine Mittelrippe und zahlreiche parallel verlaufende Nebenadern. Die Segmente reißen selten zwischen diesen Nebenadern weiter ein. Die Spreite kann unterschiedlich behaart oder beschuppt sein, auch Stacheln und Borsten kommen vor. Die proximalen Blättchen können bei kletternden Arten zu Dornen umgewandelt sein (Akanthophylle), die Rhachis kann distal zu einer Kletterhilfe (Ranke) umgebildet sein und kann dann ebenfalls Akanthophylle tragen. Generative Merkmale. Die Blütenstände befinden sich meist seitlich oder seltener an der Spitze. Befindet sich der Blütenstand an der Spitze der Palme (endständig = terminal), dann stirbt die Pflanze nach dem Blühen und der Samenbildung ab; diese Arten sind hapaxanth, also mehrjährig, alle anderen sind ausdauernd. Die meistens stark verzweigten Blütenstände sind im knospigen Zustand von einer Spatha als Schutz umhüllt. Die Blüten können zwittrig sein, aber meistens sind sie eingeschlechtig. Es gibt einhäusige (monözische) und zweihäusige (diözische) Palmen-Arten. Die Blüten sind immer dreizählig und sind meistens radiärsymmetrisch, selten ist der Blütenaufbau schraubig. Es sind meist drei Kelch- und Kronblätter vorhanden; sie sind frei oder verwachsen. Es sind meist sechs, selten weniger Staubblätter vorhanden; davon sind oft einige zu Staminodien reduziert. Die drei Fruchtblätter können vollkommen frei oder an ihrer Basis verwachsen sein. Jedes Fruchtblatt enthält ein bis zwei Samenanlagen. Selten kann man einen Griffel erkennen und so sind die drei Narben je Blüte meist sitzend. Die Bestäubung erfolgt durch Insekten (Entomophilie) oder durch den Wind (Anemophilie). Palmen bilden Schließfrüchte, meistens harte Beeren oder Steinfrüchte. Das Perikarp ist glatt, behaart, mit Stacheln oder Schuppen besetzt. Die Früchte enthalten meist einen oder zwei bis drei oder selten bis zu zehn Samen. Verbreitung. Palmen sind weltweit in tropischen und subtropischen Gebieten verbreitet. Die größte Artenvielfalt findet sich in tropischen Regenwäldern, Palmen wachsen aber auch in einigen saisonalen oder semiariden Gebieten. Ein Beispiel für letzteres ist etwa der recht palmenreiche Cerrado in Zentral-Brasilien. Im Norden reicht das Areal der Palmen bis etwa 44° nördlicher Breite in Südfrankreich ("Chamaerops humilis"), im Süden etwas über 44° auf den Chatham Islands nahe Neuseeland ("Rhopalostylis sapida"). In Nordamerika reicht "Sabal minor" bis fast 36° nördlicher Breite in North Carolina, "Washingtonia filifera" in Kalifornien bis 37°. In Südamerika reicht "Jubaea chilensis" bis 35° in Chile. Am asiatischen Festland reicht "Nannorrhops ritchiana" bis etwa 34° nördliche Breite in Afghanistan und Pakistan. In Australien reicht "Livistona australis" über 37°, in Afrika "Jubaeopsis caffra" bis etwa 31°. Systematik. Der Familienname Arecaceae wurde 1820 durch Friedrich von Berchtold und Jan Svatopluk Presl in "O Prirozenosti Rostlin", S. 266, gültig veröffentlicht. Der Familienname Palmae wurde 1789 durch Antoine Laurent de Jussieu in "Genera Plantarum", S. 37, erstveröffentlicht. Nahrungsmittel. Von rund 100 Palmenarten sind die Früchte essbar (Dattelpalme, Palmyrapalme), von anderen die Samen (Kokosnuss, Betelnuss, Palmyrapalme). Den essbaren Vegetationskegel bezeichnet man als Palmherz, aus dem Mark des Stammes einiger Arten lässt sich Sago gewinnen. Im indomalayischen Raum hat die Sagopalme eine große Bedeutung als Stärkelieferant. Der Saft von Palmen wird zur Herstellung von Getränken benutzt, aus ihm kann auch Zucker gewonnen werden. Durch Gärung entsteht Palmwein. Auch durch die Vergärung von Fruchtfleisch lassen sich Getränke herstellen. Wenige Palmenblüten locken Bienen an, Palmhonig wird nicht von Bienen gewonnen, sondern entsteht durch Einkochen des Palmensaftes etwa wie Ahornsirup. Baumaterialien. In vielen Ländern sind Palmenarten das Grundmaterial für den Hausbau, wobei die Stämme als Holz und die wasserabweisenden Blätter für die Dacheindeckung genutzt werden. Aus Rotangpalmen ("Calamus") werden Rattan-Möbel hergestellt. Zierpflanzen und Erosionsschutz. Palmenarten werden sowohl als Stilelement zur Vermittlung eines südländischen Eindrucks in öffentlichen Grünanlagen und Gärten genutzt als auch als Zimmerpflanzen. In regenarmen Gebieten werden sie zur Stabilisierung des Bodens an Böschungen und (evtl. bewässerten) Grünanlagen verwendet. Sie sind auch wesentlich unempfindlicher gegen Windbruch als Laubbäume, sodass sie gut an windexponierten Stellen gedeihen können. Phraseologismus. Unter einem Phraseologismus versteht man in der Sprachwissenschaft eine zu einer festen Form verwachsene Folge von Lexemen (Komponenten; Konstituenten), also eine bestimmte Art eines Syntagmas (= grammatische Fügung (Wortverbindung) aus i. d. R. mehreren Wörtern). Die Bedeutung eines solchen sprachlichen Fertigbausteins geht meist über die rein wörtliche Bedeutung ihrer einzelnen Bestandteile hinaus. Der Begriff kommt vom neugr. ', einem Neologismus aus dem altgr. φράσεος ' (Gen. von ', (hier) ‚das Sprechen‘, ‚Ausdruck(sweise)‘ ⇒ Phrase [hier: i. S. v. "Phrase (Linguistik)"] und ', ‚Rechnen‘, ‚Berechnung‘ ⇒ Logismus: „auf die Vernunft gegründeter Schluss“). Synonyme. In der Regel synonym zu „Phraseologismus“ werden die Termini Phrasem, Phraseolexem, phraseologische Wortverbindung, Wortgruppenlexem und (idiomatische) Redewendung sowie teilweise auch Idiom – hier: im Sinne einer – und Idiomatisierung verwendet (die beiden Letzteren nur zum Teil bzw. selten(er), da es sich hierbei um uneindeutige bzw. mehrdeutige Begrifflichkeiten handelt; vgl. "Artikel"). Der Gegenbegriff zu „Phraseologismus“ und Synonymen lautet „freie Wortverbindung“. Die Unterdisziplin der Sprachwissenschaft, die sich mit diesen "festen Wortverbindungen" beschäftigt, ist die Phraseologie. Phraseologismen sind und waren immer geschichtlicher Entwicklung unterworfen. Gegenwartssprachliche Phraseologismen sind leichter verständlich, wohingegen historische schwieriger zu erschließen sind. Die Teildisziplin der Phraseologie, die sich mit solchen historischen Phraseologismen befasst, nennt sich entsprechend Historische Phraseologie. Merkmale. Die drei "Hauptkriterien", die zur Beschreibung von Phraseologismen verwendet werden, sind "Weitere nennenswerte Eigenschaften" eines Phraseologismus sind Polylexikalität. Ein Phraseologismus muss aus mindestens zwei lexikalischen Einheiten bestehen. Eine Maximalgröße existiert nicht (gehen sie in ihrer Struktur allerdings über Satzlänge hinaus, gehören sie nicht mehr zum phraseologischen Bestand). In der Forschung ist man sich uneinig darüber, ob Phraseologismen Autosemantika (bedeutungstragende Wörter) beinhalten müssen, oder ob eine minimale feste Wortverbindung auch aus zwei Synsemantika (bedeutungslose oder -schwache Wörter) bestehen kann. Festigkeit. Die Festigkeit (oder Stabilität) kommt als formale, lexikalische und semantische Festigkeit vor. Die Festigkeit ist ein relatives Kriterium, das heißt dass Phraseologismen in unterschiedlichem Maß modifiziert werden können. Dies geschieht vor allem in der mündlichen Alltagssprache, in Medientexten (z. B. in der Werbesprache) und in literarischen Texten (einschließlich Liedtexten). Idiomatizität. Unter der Idiomatizität versteht man die semantische Umdeutung einzelner Komponenten oder des ganzen Phraseologismus. Die einzelnen Komponenten geben ihre freie Bedeutung zugunsten einer neuen Bedeutung auf. Die Idiomatizität ist ebenfalls ein relatives Merkmal, denn sie ist einerseits abhängig von Kontext und Vorwissen (vor allem wenn unikale Komponenten auftreten, also Wörter, die in der heutigen Sprache keine freie Bedeutung mehr haben, z. B. „Maulaffen feilhalten“, „jemanden ins Bockshorn jagen“), andererseits ist sie graduell stufbar. So existieren Basisklassifikationen von Phraseologismen. Phraseologismen kann man nach Burger in Basisklassifikationen einteilen, und zwar anhand ihrer Zeichenfunktion, die sie in der Kommunikation haben. Referentielle Phraseologismen. Referentielle Phraseologismen beziehen sich auf Objekte, Vorgänge und Sachverhalte der Wirklichkeit. Wenn sie diese Objekte, Vorgänge oder Sachverhalte bezeichnen (semantisches Kriterium) und satzgliedwertig (syntaktisches Kriterium) sind, lassen sich solche Phraseologismen als ‚nominative Phraseologismen‘ subklassifizieren. Beispiele hierfür wären "Schwarzes Gold" (bezeichnet das Objekt Kohle), "jemanden übers Ohr hauen" (bezeichnet den Vorgang des Betrugs). Nach dem graduell abgestuften Merkmal der Idiomatizität (Erklärbarkeit der Bedeutung ohne historisches Wissen) lassen sich wiederum drei Untergruppen der nominativen Phraseologismen einteilen, nämlich Wenn referentielle Phraseologismen Aussagen über Objekte, Vorgänge und Sachverhalte machen (semantisches Kriterium) und satzwertig (syntaktisches Kriterium) sind, können sie als ‚propositionale Phraseologismen‘ subklassifiziert werden. Sind diese in einen Kontext eingebettet und nur durch diesen verständlich, bezeichnet man sie als ‚feste Phrasen‘ (z. B. die Redensart "Alles für die Katz!"). Gibt es keinen Anschluss an einen Kontext, so bezeichnet man sie als "topische Formeln". Dies sind beispielsweise Sprichwörter oder Gemeinplätze. Strukturelle Phraseologismen. Strukturelle Phraseologismen sind Funktionswörter, die innerhalb einer Sprache grammatische Relationen herstellen. Beispiele sind "entweder … oder, in Bezug auf" oder " nicht nur … sondern auch". Kommunikative Phraseologismen. Kommunikative Phraseologismen sind feste Fügungen, die in sich wiederholenden Handlungen (Routinen) meist unbewusst verwendet werden. Funktion. Phraseologische Ausdrücke in Texten haben vor allem stilistische Funktionen. So haben sie generelle „‚höhere Expressivität‘ gegenüber nicht-phraseologischen Verbindungen, was stilistisch geeignet ist für das Hervorheben.“ Phraseologische Ausdrücke wirken deshalb viel stärker auf den Leser und intensivieren daher die Aussage des Autors. Phraseme wurden in Deutschland in der Vergangenheit zum Beispiel als Zeichen für die Zugehörigkeit zum Bildungsbürgertum benutzt. Eine bestimmte gesellschaftliche Gruppe kann also spezielle Phraseologie benutzen, um deutlich zu machen, wo in der Gesellschaft sie steht oder selbst glaubt zu stehen. Die Phraseologismen dienen dann als Abgrenzung zu anderen gesellschaftlichen Gruppen. Unter "Adressatenberücksichtigung" wird verstanden, sowohl den Leser des Textes zu unterhalten, als auch den Text für den Leser zu strukturieren. Phraseologismen können zu beidem beitragen. „Unterhaltsamkeit wird gefördert durch die Verwendung idiomatischer Phraseme und deren spielerische Modifizierungen in unterschiedlichen Kontexten und Intensitäten.“ Gerade die idiomatischen Phraseologismen tragen also dazu bei, den Text für den Leser interessanter zu machen. Strukturierende Funktion haben Phraseme, wenn sie an eine mit dem Hörer geteilte Wissensbasis anknüpfen. Die oftmals verschleiernde Wirkung bestimmter idiomatischer Phraseme wirkt zum Beispiel in dieser Art und Weise. Peristaltik. Propulsive Peristaltik. Bei der propulsiven Peristaltik handelt es sich um ringförmig einschnürende Kontraktionen der glatten Muskulatur, die sich in eine Richtung fortsetzen und auf diese Weise dem Transport des Inhalts dienen. Die Peristaltik beruht zum Teil auf einem Eigenrhythmus der Muskulatur (besonders an Magen und Harnleiter) und teilweise auf lokalen Reflexen (besonders im Darm). Zusätzlich wird die Peristaltik durch den Parasympathikus gefördert und durch den Sympathikus gehemmt. Nicht-propulsive Peristaltik. Die nicht-propulsive Peristaltik des Darmes, auch als „Segmentationen“ bezeichnet, dient insbesondere der Durchmischung des Darminhalts. Retrograde Peristaltik. Eine retrograde Peristaltik findet sich als Transportbewegung in die umgekehrte Richtung in der Speiseröhre bei Erbrechen sowie bei Wiederkäuern, physiologischerweise aber auch im Dickdarm, wo sie der Stuhlspeicherung dient. Im Gegensatz zu der gleichmäßigeren Peristaltik des Dünndarmes wird der Dickdarminhalt durch periodische Massenbewegungen angetrieben. Sie treten etwa ein- bis dreimal pro Tag im Dickdarm auf und treiben den Darminhalt zum Rektum voran. Diese Massenbewegungen sind durch den gastrokolischen Reflex auslösbar. Photovoltaik. Unter Photovoltaik bzw. Fotovoltaik versteht man die direkte Umwandlung von Lichtenergie, meist aus Sonnenlicht, in elektrische Energie mittels Solarzellen. Seit 1958 wird sie in der Raumfahrt genutzt („Sonnensegel“). Inzwischen wird sie überwiegend auf der Erde zur Stromerzeugung eingesetzt und findet unter anderem Anwendung auf Dachflächen, bei Parkscheinautomaten, in Taschenrechnern, an Schallschutzwänden und auf Freiflächen. Der Begriff leitet sich aus dem griechischen Wort für „Licht“ (φῶς, phos, im Genitiv: φωτός, photos) sowie aus der Einheit für die elektrische Spannung, dem Volt (nach Alessandro Volta) ab. Die Photovoltaik ist ein Teilbereich der Solartechnik, die weitere technische Nutzungen der Sonnenenergie einschließt. Ende 2014 waren weltweit mehr als 177 GWp Nennleistung installiert, die mit rund 200 TWh jährlicher Produktion etwa 1 % des weltweiten Strombedarfs decken könnten. In Europa deckte die Photovoltaik 3,5 % des gesamten Strombedarfes bzw. 6 % des Spitzenlastbedarfes. Spitzenreiter war Italien mit einem Anteil von etwa 8 % am Stromverbrauch. In Deutschland trägt Photovoltaik mit etwa 7 % zum Stromverbrauch bei. Die Photovoltaik galt lange als die teuerste Form der Stromerzeugung mittels erneuerbaren Energien; eine Sicht, die mittlerweile durch die starken Kostensenkungen der Anlagenkomponenten jedoch überholt ist. Seit Beginn des Photovoltaikausbaus sind die Kosten der Photovoltaik stark gesunken. Mittlerweile liegen die Stromgestehungskosten der Photovoltaik in bestimmten Regionen der Erde auf gleichem Niveau oder sogar niedriger als bei fossilen Konkurrenten (Stand 2014). Inklusive Speicher, die bei hohem Anteil der Photovoltaik am Strommix notwendig werden, liegen die Kosten höher als bei fossilen Kraftwerken. Allerdings ist Solarstrom bereits heute konkurrenzfähig, wenn die externen Kosten der fossilen Stromerzeugung (d.h. Umwelt-, Klima- und Gesundheitsschäden) mit berücksichtigt werden; selbst wenn diese nur zum Teil internalisiert werden. Geschichte der Photovoltaik. Die Photovoltaik basiert auf der Fähigkeit bestimmter Materialien, Licht direkt in Strom umzuwandeln. Der photoelektrische Effekt wurde bereits im Jahre 1839 von dem französischen Physiker Alexandre Edmond Becquerel entdeckt. Dieser wurde daraufhin weiter erforscht, wobei insbesondere Albert Einstein mit seiner 1905 erschienenen Arbeit zur "Lichtquantentheorie" großen Anteil an dieser Erforschung hatte, für die er 1923 mit dem Nobelpreis für Physik ausgezeichnet wurde. 1954 gelang es, die ersten Siliziumsolarzellen mit Wirkungsgraden von bis zu 6 % zu produzieren. Die erste technische Anwendung wurde 1955 bei der Stromversorgung von Telefonverstärkern gefunden. In Belichtungsmessern für die Photographie fand Photovoltaik weite Verbreitung. Seit Ende der 1950er Jahre werden Photovoltaikzellen in der Satellitentechnik verwendet; als erster Satellit mit Solarzellen startete Vanguard 1 am 17. März 1958 in die Erdumlaufbahn, der bis 1964 in Betrieb blieb. In den 1960er und 1970er Jahren führte die Nachfrage aus der Raumfahrt zu Fortschritten in der Entwicklung von Photovoltaikzellen, während Photovoltaikanlagen auf der Erde nur für bestimmte Inselanlagen eingesetzt wurden. Ausgelöst durch die Ölkrise von 1973/74 sowie später verstärkt durch die Nuklearunfälle von Harrisburg und Tschernobyl setzte jedoch ein Umdenken in der Energieversorgung ein. Seit Ende der 1980er Jahre wurde die Photovoltaik in den USA, Japan und Deutschland intensiv erforscht; später kamen in vielen Staaten der Erde finanzielle Förderungen hinzu um den Markt anzukurbeln und die Technik mittels Skaleneffekten zu verbilligen. Infolge dieser Bemühungen stieg die weltweit installierte von 700 MWp im Jahr 2000 auf 177 GWp im Jahr 2014. Bis 2020 rechnet die IEA mit einem weiteren Anstieg auf ca. 400 bis 500 GWp. Schreibweise. Üblicherweise wird die Schreibung "Photovoltaik" und die Abkürzung "PV" angewendet. Seit der deutschen Rechtschreibreform ist die Schreibweise "Fotovoltaik" die neue Hauptform und "Photovoltaik" eine weiterhin zulässige alternative Schreibung. Im Deutschen Sprachraum ist die alternative Schreibweise "Photovoltaik" die gebräuchliche Variante. Auch im internationalen Sprachgebrauch ist die Schreibweise PV üblich. Für technische Fachgebiete ist die Schreibweise in der Normung (hier ebenfalls "Photovoltaik") ein wesentliches Kriterium für die anzuwendende Schreibweise. Technische Grundlagen. Zur Energiewandlung wird der photoelektrische Effekt von Solarzellen genutzt, die zu so genannten Solarmodulen verbunden werden. Die erzeugte Elektrizität kann direkt genutzt, in Akkumulatoren gespeichert oder in Stromnetze eingespeist werden. Vor der Einspeisung in Wechselspannungs-Stromnetze wird die erzeugte Gleichspannung von einem Wechselrichter umgewandelt. Das System aus Solarmodulen und den anderen Bauteilen (Wechselrichter, Stromleitung) wird als Photovoltaikanlage oder Solargenerator bezeichnet. Nennleistung und Ertrag. Die Nennleistung von Photovoltaikanlagen wird häufig in der Schreibweise Wp (Watt Peak) oder kWp angegeben und bezieht sich auf die Leistung bei Testbedingungen, die in etwa der maximalen Sonnenstrahlung in Deutschland entsprechen. Die Testbedingungen dienen zur Normierung und zum Vergleich verschiedener Solarmodule. Die elektrischen Werte der Bauteile werden in Datenblättern angegeben. Es wird bei 25 °C Modultemperatur, 1000 W/m² Bestrahlungsstärke und einer Luftmasse (abgekürzt AM) von 1,5 gemessen. Diese Standard-Testbedingungen (meist abgekürzt STC, engl. "standard test conditions") wurden als internationaler Standard festgelegt. Können diese Bedingungen beim Testen nicht eingehalten werden, so muss aus den gegebenen Testbedingungen die Nennleistung rechnerisch ermittelt werden. Ausschlaggebend für die Dimensionierung und die Amortisation einer Photovoltaikanlage ist neben der Spitzenleistung vor allem der Jahresertrag, also die gewonnene Strommenge. Die Strahlungsenergie schwankt tages-, jahreszeitlich und wetterbedingt. So kann eine Solaranlage in Deutschland im Juli einen gegenüber dem Dezember zehnmal höheren Ertrag aufweisen. Tagesaktuelle Einspeisedaten mit hoher zeitlicher Auflösung sind für die Jahre ab 2011 im Internet frei zugänglich. Der Ertrag pro Jahr wird in Wattstunden (Wh) oder Kilowattstunden (kWh) gemessen. Standort, Ausrichtung der Module und Verschattungen haben wesentlichen Einfluss auf den Ertrag, wobei in Mitteleuropa Dachneigungen um 30° und Ausrichtung nach Süden den höchsten Ertrag liefern. Deshalb werden auch für Freiflächenanlagen in aller Regel derartige Ausrichtungen gewählt. Der spezifische Ertrag ist als die Wattstunden pro installierter Nennleistung (Wh/Wp bzw. kWh/kWp) pro Zeitabschnitt definiert und erlaubt den einfachen Vergleich von Anlagen unterschiedlicher Größe. Montagesysteme für Hausdächer. Bei den Montagesystemen wird zwischen Aufdach-Systemen und Indach-Systemen unterschieden. Bei einem Aufdach-System für geneigte Hausdächer wird die Photovoltaik-Anlage mit Hilfe eines Montagegestells auf dem Dach befestigt. Diese Art der Montage wird am häufigsten gewählt, da sie für bestehende Dächer am einfachsten umsetzbar ist. Bei einem Indach-System ist eine Photovoltaik-Anlage in die Dachhaut integriert und übernimmt deren Funktionen wie Dachdichtigkeit und Wetterschutz mit. Vorteilhaft bei solchen Systemen sind die optisch attraktivere Erscheinung sowie die Einsparung einer Dachdeckung, sodass der höhere Montageaufwand oftmals kompensiert werden kann. Die Aufdach-Montage eignet sich neben Ziegeldächern auch für Blechdächer, Schieferdächer oder Wellplatten. Ist die Dachneigung zu flach, können spezielle Haken diese bis zu einem gewissen Grad ausgleichen. Die Installation eines Aufdach-Systems ist in der Regel einfacher und preisgünstiger als die eines Indach-Systems. Ein Aufdach-System sorgt zudem für eine ausreichende Hinterlüftung der Solarmodule. Die Befestigungsmaterialien müssen witterungsbeständig sein. Das Indach-System eignet sich bei Dachsanierungen und Neubauten, ist jedoch nicht bei allen Dächern möglich. Ziegeldächer erlauben die Indach-Montage, Blechdächer oder Bitumendächer nicht. Auch die Form des Dachs ist maßgebend. Die Indach-Montage ist nur für ausreichend große Schrägdächer mit günstiger Ausrichtung zur Sonnenbahn geeignet. Generell setzen Indach-Systeme größere Neigungswinkel voraus als Aufdach-Systeme, um einen ausreichenden Regenwasserabfluss zu ermöglichen. Indach-Systeme bilden mit der übrigen Dacheindeckung eine geschlossene Oberfläche und sind daher aus ästhetischer Sicht attraktiver. Zudem weist ein Indach-System eine höhere mechanische Stabilität gegenüber Schnee- und Windlasten auf. Die Kühlung der Module ist jedoch weniger effizient als beim Aufdach-System, was die Leistung und den Ertrag etwas verkleinert. Eine um 1 ° höhere Temperatur reduziert die Modulleistung um ca. 0,5 %. Neue Entwicklungen. Bisher basiert der Großteil der Photovoltaikanlagen weltweit auf Siliziumtechnik. Daneben konnten verschiedene Dünnschichttechnologien Marktanteile gewinnen. Als sehr aussichtsreich wird aufgrund der günstigen Herstellung die Entwicklung von Solarmodulen auf Perowskit-Basis beurteilt. Die Zellen können deutlich dünner als Siliziumzellen gebaut und damit auch in flexiblen Folien eingesetzt werden. Dadurch, dass Perowskitzellen auch grünes und blaues Licht gut verwerten können, während Siliziumzellen hauptsächlich den roten und infraroten Bereich des Lichts wandeln, gelten sie auch als aussichtsreiche Kandidaten für sog. Tandem-Solarzellen. Problematisch ist bisher jedoch noch die geringe Haltbarkeit. Ein 2015 erschienener Review-Artikel in der Fachzeitschrift Energy and Environmental Science kam zu dem Ergebnis, dass nach den beständigen Wirkungsgradsteigerungen in den letzten wenigen Jahren Perowskit-Module als ein ernstzunehmender potentieller Herausforderer für andere Solartechnologien betrachtet werden müssen. Der Wirkungsgrad sei in nur 5 Jahren von 3,8 % auf 20,1 % gestiegen und würde wohl in den nächsten Jahren auf 25 % steigen, zudem sei die Technologie günstig. Obwohl sie noch am Anfang ihrer Entwicklung stünden, hätten sie ein herausragendes Potential für Nachhaltigkeit gezeigt. Sie hätten bereits heute die niedrigste Energierücklaufzeit aller Solarmodule (bei einem Perowskitmodul wurden 0,22 Jahre ermittelt, d.h. knapp 3 Monate) und könnten perspektivisch die umweltfreundlichste Photovoltaiktechnologie sein, wenn durch weitere Entwicklung Nutzungsgrad und Haltbarkeit gesteigert werden können. Ein weiteres Forschungsziel ist die Entwicklung organischer Solarzellen. Dem Fraunhofer-Institut für Solare Energiesysteme ISE in Freiburg ist es zusammen mit Partnern gelungen, eine günstige organische Solarzelle auf flexibler Folie herzustellen. Weltweites Nutzungspotenzial. Strahlungsatlas aufgrund von Satellitendaten aus den Jahren 1991–1993 Weltweite PV-Installation in Watt pro Einwohner (2013). Die auf die Erdatmosphäre auftreffende Sonnenenergie beträgt jährlich 1,56 × 1018 kWh, was knapp dem 12.000-Fachen des Primärenergieverbrauchs der Menschheit im Jahr 2005 (1,33 × 1014 kWh/Jahr) entspricht. Von dieser Energie erreicht etwa die Hälfte die Erdoberfläche, womit sie potentiell für die photovoltaische Energiegewinnung nutzbar ist. Die Einstrahlung hängt von der geographischen Lage ab: Nahe dem Äquator, beispielsweise in Indien, Australien, Indonesien oder Kolumbien, sind aufgrund der hohen Einstrahlungsdichte die Stromgestehungskosten niedriger als in Mitteleuropa. Zudem schwankt am Äquator die Zeit zwischen Sonnenauf- und -untergang im Jahresverlauf viel weniger als an höheren Breitengraden. Absatzentwicklung. Weltweit wurden bis Ende 2014 Photovoltaikanlagen mit einer Leistung von ca. 177 GWp installiert. Der Zubau 2012 betrug etwa 30 GWp. Im Jahr 2013 wurden weltweit ca. 39 GW zugebaut, wichtigster Markt mit rund 12 GW war China. Hauptabsatzmarkt war 2011 mit einer installierten Leistung von 24.875 MWp Deutschland, gefolgt von Italien. Japan fördert den Solarmarkt durch Subventionen von über 9 Mrd. US$ und will 2020 damit 28 GWp erreichen. Indien hat ein ehrgeiziges Ausbauprogramm aufgelegt und steigerte die installierte Leistung von 10 MWp im Dezember 2010 auf 1040 MWp im Juli 2012. Bis 2017 wird eine Steigerung um weitere 10 GWp im Land erwartet. Die folgenden Tabellen geben einen Überblick über die Entwicklung der installierten Nennleistung der Photovoltaikanlagen in der Europäischen Union in den Jahren 2005 bis 2013. Einsatzfelder. Neben der Stromgewinnung zur Netz-Einspeisung wird die Photovoltaik auch für mobile Anwendungen und Anwendungen ohne Verbindung zu einem Stromnetz, so genannte Inselanlagen, eingesetzt. Hier kann der Gleichstrom auch direkt genutzt werden. Am häufigsten finden sich daher akkugepufferte Gleichstromnetze. Neben Satelliten, Solarfahrzeugen oder Solarflugzeugen, die oft ihre gesamte Energie aus Solarzellen beziehen, werden auch alltägliche Einrichtungen, wie Wochenendhäuser, Solarleuchten, elektrische Weidezäune, Parkscheinautomaten oder Taschenrechner von Solarzellen versorgt. Inselanlagen mit Wechselrichter können auch Wechselstromverbraucher versorgen. In vielen Ländern ohne flächendeckendes Stromnetz ist die Photovoltaik eine Möglichkeit, elektrischen Strom preisgünstiger zu erzeugen als z. B. mit einem Dieselgenerator. Wirkungsgrad. Der Wirkungsgrad ist das Verhältnis zwischen momentan erzeugter elektrischer Leistung und eingestrahlter Lichtleistung. Je höher er ist, desto geringer kann die Fläche für die Anlage gehalten werden. Beim Wirkungsgrad ist zu beachten, welches System betrachtet wird (einzelne Solarzelle, Solarpanel bzw. -modul, die gesamte Anlage mit Wechselrichter bzw. Laderegler und Akkus und Verkabelung). Einige Bauteile sind auch von der Temperatur abhängig. So kann bei Solarzellen der Wirkungsgrad um bis zu 10 % sinken, wenn die Temperatur um 25 °C steigt. Daher erreichen viele Anlagen im Sommer nicht die theoretische Spitzenleistung, die aufgrund von Laborversuchen errechnet wurde. Eine Kombination von Solarzellen und thermischem Sonnenkollektor, sogenannte Hybridkollektoren, steigert den Gesamtwirkungsgrad durch die zusätzliche thermische Nutzung, und kann den elektrischen Wirkungsgrad aufgrund der Kühlung der Solarzellen durch die thermischen Kollektoren verbessern. Die mit Solarzellen erzielbaren Wirkungsgrade werden unter standardisierten Bedingungen ermittelt und unterscheiden sich je nach verwendeter Zelltechnologie. Eine Tabelle von Wirkungsgraden einzelner Zelltechnologien findet sich hier. Besonders hohe Wirkungsgrade werden von Mehrfachsolarzellen mit Konzentrator erreicht; hier wurden im Labor bereits Wirkungrade bis ca. 46 % erreicht. Durch die Kombination von Solarzellen unterschiedlicher spektraler Empfindlichkeit, die optisch und elektrisch hintereinander angeordnet sind, in Tandem- oder Tripelschaltung wurde der Wirkungsgrad speziell bei amorphem Silicium erhöht. Allerdings begrenzt bei einer solchen Reihenschaltung stets die Zelle mit dem geringsten Strom den Gesamtstrom der Gesamtanordnung. Alternativ wurde die Parallelschaltung der optisch hintereinander angeordneten Solarzellen in Duo-Schaltung für Dünnschichtzellen aus a-Si auf dem Frontglas und CIS auf dem Rückseitenglas demonstriert. Ein Vorteil dieser Technik ist, dass mit einfachen und günstigen optischen Einrichtungen die Solarstrahlung auf eine kleine Solarzelle gebündelt werden kann, die der teuerste Teil einer Photovoltaikanlage ist. Nachteilig ist hingegen, dass konzentrierende Systeme wegen der Lichtbündelung zwingend auf Nachführsysteme und eine Kühleinrichtung für die Zellen angewiesen sind. Heutige Solarmodule absorbieren einen Teil des Sonnenlichts nicht, sondern reflektieren es an ihrer Oberfläche. Daher werden sie in der Regel mit einer Antireflexionsschicht ausgestattet, die die Reflexion bereits stark vermindert. Schwarzes Silicium vermeidet diese Reflexionen fast vollständig. Performance Ratio. Die "Performance Ratio" (PR) – häufig auch Qualitätsfaktor (Q) genannt – ist der Quotient aus dem tatsächlichen Nutzertrag einer Anlage und ihrem Sollertrag. Der „Sollertrag“ berechnet sich aus der eingestrahlten Energie auf die Modulfläche und dem nominalen Modul-Wirkungsgrad; er bezeichnet also die Energiemenge, die die Anlage bei Betrieb unter Standard-Testbedingungen (STC) und bei 100 % Wechselrichter-Wirkungsgrad ernten würde. Real liegt der Modulwirkungsgrad auch bei unverschatteten Anlagen durch Erwärmung, niedrigere Einstrahlung etc. gegenüber den STC unter dem nominalen Wirkungsgrad; außerdem gehen vom Sollertrag noch die Leitungs- und Wechselrichterverluste ab. Der Sollertrag ist somit eine theoretische Rechengröße unter STC. Die Performance ratio ist immer ein Jahresdurchschnittswert. Beispielsweise liegt die PR an kalten Tagen über dem Durchschnitt und sinkt vor allem bei höheren Temperaturen sowie morgens und abends, wenn die Sonne in einem spitzeren Winkel auf die Module scheint. Die Performance Ratio stieg mit der Entwicklung der Photovoltaik-Technik deutlich an: Von 50-75 % in den späten 1980er Jahren über 70 bis 80 % in den 1990er Jahren auf mehr als 80 % um ca. 2010. Für Deutschland wurden ein Median von 84 % im Jahr 2010 ermittelt, Werte von über 90 % werden in der Zukunft für möglich gehalten. Quaschning gibt mit durchschnittlich 75 % niedrigere Werte an. Demnach können gute Anlagen Werte von über 80 % erreichen, bei sehr schlechten Anlagen sind jedoch auch Werte unter 0,6 möglich, wobei dann häufig Wechselrichterausfälle oder längerfristige Abschattungen die Ursache sind. Verschmutzung und Reinigung. Wie auf jeder Oberfläche im Freien (vergleichbar mit Fenstern, Wänden, Dächern, Auto etc.) können sich auch auf Photovoltaikanlagen unterschiedliche Stoffe absetzen. Dazu gehören beispielsweise Blätter und Nadeln, klebrige organische Sekrete von Läusen, Pollen und Samen, Ruß aus Heizungen und Motoren, Sand, Staub (z. B. auch Futtermittelstäube aus der Landwirtschaft), Wachstum von Pionierpflanzen wie Flechten, Algen und Moosen sowie Vogelkot. Bei Anlagen mit Neigungswinkel um 30° ist die Verschmutzung gering; hier liegen die Verluste bei ca. 2-3 %. Stärker wirkt sich Verschmutzung hingegen bei flachen Anstellwinkeln aus, wo Verschmutzungen bis zu 10 % Verluste verursachen können. Bei Anlagen auf Tierställen von landwirtschaftlichen Betrieben sind auch höhere Verluste möglich, wenn Schmutz aus Lüftungsschächten auf der Anlage abgelagert wird. In diesen Fällen ist eine Reinigung in regelmäßigen Abständen sinnvoll. Stand der Technik zur Reinigung ist die Verwendung von vollentsalztem Wasser (Demineralisiertes Wasser), um Kalkflecken zu vermeiden. Als weiteres Hilfsmittel kommen bei der Reinigung wasserführende Teleskopstangen zum Einsatz. Die Reinigung sollte durchgeführt werden, ohne Kratzer an der Moduloberfläche zu verursachen. Zudem sollten Module überhaupt nicht und Dächer nur mit geeigneten Sicherheitsvorkehrungen betreten werden. Auch mit einer Wärmebildkamera kann man die Verschmutzung feststellen. Verschmutzte Stellen auf den Modulen sind bei Sonneneinstrahlung wärmer als saubere Stellen. Schwankung des Angebots. Die Erzeugung von Solarstrom unterliegt einem typischen Tages- und Jahresgang, überlagert durch Wettereinflüsse. Diese lassen sich durch Wetterbeobachtung einigermaßen zuverlässig vorhersagen ("siehe Meteorologie"). Insbesondere im Frühling und Sommer kann Solarstrom um die Mittagszeit zur Deckung eines Teils der Mittellast genutzt werden - aber nur, wenn es das Wetter zulässt (kein bewölkter Himmel). Im Herbst und Winter (insbesondere in den Monaten November bis Januar) erzeugen die PV-Anlagen in den Regionen von den Polen bis etwa zum jeweiligen 45. Breitengrad wegen der kurzen Sonnenscheindauer und des niedrigen Sonnenstandes nur wenig Strom. Da dann für Heizung und Beleuchtung aber besonders viel Strom gebraucht wird, müssen dann auch besonders viele Kapazitäten aus anderen Energiequellen zur Verfügung stehen. Um die statistisch vorhersagbaren Tages-, Wetter- und Jahresschwankungen auszugleichen, sind außerdem Speichermöglichkeiten und schaltbare Lasten zur Verbrauchsanpassung (Smart-Switching in Verbindung mit Smart-Metering) erforderlich. Tagesaktuelle Einspeisedaten (für Deutschland) sind für die Jahre ab 2011 im Internet frei zugänglich. Übertragung. Bei einer dezentralen Stromversorgung durch viele kleine Photovoltaikanlagen (PVA) im Leistungsbereich einiger 10 kW liegen Quelle und Verbraucher nah beeinander; es gibt kaum Übertragungsverluste. Die erzeugte Leistung verlässt den Niederspannungsbereich praktisch nicht. Der PVA-Betreiber speist die nicht selbst verbrauchte Leistung in das Niederspannungsnetz ein. Bei einem weiteren erheblichen Ausbau der Photovoltaik können regional Überschüsse entstehen, die per Stromnetz in andere Regionen transportiert werden müssen. Energiespeicherung. Bei Inselanlagen wird die gewonnene Energie in Speichern, meist Akkumulatoren, gepuffert. Die deutlich häufigeren Verbundanlagen speisen den erzeugten Strom direkt in das Verbundnetz ein, wo er sofort verbraucht wird. Photovoltaik wird so zu einem Teil des Strommixes. Inselanlage. Bei Inselanlagen müssen die Unterschiede zwischen Verbrauch und Leistungsangebot der Photovoltaikanlage durch Energiespeicherung ausgeglichen werden, z. B., um Verbraucher auch nachts oder bei ungenügender Sonneneinstrahlung zu betreiben. Die Speicherung erfolgt meist über einen Gleichspannungszwischenkreis mit Akkumulatoren, die Verbraucher bei Bedarf versorgen können. Neben Bleiakkumulatoren werden auch neuere Akkutechnologien mit besserem Wirkungsgrad wie Lithium-Titanat-Akkumulatoren eingesetzt. Mittels Wechselrichter kann aus der Zwischenkreis-Spannung die übliche Netzwechselspannung erzeugt werden. Anwendung finden Inselanlagen beispielsweise an entlegenen Standorten, für die ein direkter Anschluss an das öffentliche Netz unwirtschaftlich ist. Darüber hinaus ermöglichen autonome photovoltaische Systeme auch die Elektrifizierung einzelner Gebäude (wie Schulen oder Ähnliches) oder Siedlungen in „Entwicklungsländern“, in denen kein flächendeckendes öffentliches Stromversorgungsnetz vorhanden ist. Bereits heute sind derartige Systeme in vielen nicht-elektrifizierten Regionen der Welt wirtschaftlicher als Dieselgeneratoren, wobei bisher jedoch häufig noch die Subventionierung von Diesel die Verbreitung hemmt. Verbundanlage. Bei kleineren Anlagen wird alle verfügbare bzw. über dem Eigenverbrauch liegende Leistung in das Verbundnetz abgegeben. Fehlt sie (z. B. nachts), beziehen Verbraucher ihre Leistung von anderen Erzeugern über das Verbundnetz. Bei größeren Photovoltaikanlagen ist eine Einspeiseregelung per Fernsteuerung vorgeschrieben, mit deren Hilfe die Einspeiseleistung reduziert werden kann, wenn die Stabilität des Versorgungsnetzes das erfordert. Bei Anlagen in einem Verbundnetz kann die lokale Energiespeicherung entfallen, da der Ausgleich der unterschiedlichen Verbrauchs- und Angebotsleistungen über das Verbundnetz erfolgt, üblicherweise durch Ausregelung durch konventionelle Kraftwerke. Bei hohen Anteilen von Solarstrom, die mit konventionellen Kraftwerken nicht mehr ausgeglichen werden können, werden jedoch weitere Integrationsmaßnahmen notwendig, um die Versorgungssicherheit zu garantieren. Hierfür kommen eine Reihe von Power-to-X-Technologien in Frage. Neben der Speicherung sind diese insbesondere Flexibilisierungsmaßnahmen wie z.B. der Einsatz von Power-to-Heat, Vehicle-to-Grid oder die Nutzung intelligenter Netze, die bestimmte Verbraucher (z. B. Kühlanlagen, Warmwasserboiler, aber auch Wasch- und Spülmaschinen) so steuern, dass sie bei Erzeugungsspitzen automatisch zugeschaltet werden. Aus Effizienzgründen sollten zunächst bevorzugt auf die Flexibilisierung gesetzt werden, bei höheren Anteilen müssen ebenfalls Speicherkraftwerke zum Einsatz kommen, wobei zunächst Kurzfristspeicher ausreichen und erst bei sehr hohen Anteilen variabler erneuerbarer Energien auf Langfristspeicher wie Power-to-Gas gesetzt werden sollte. Versorgungssicherheit. Trotz des schwankenden Angebots steht die Leistung aus Photovoltaik (etwa 24 Stunden im Voraus durch Wettervorhersagen prognostizierbar) deutlich zuverlässiger zur Verfügung als die eines einzelnen Großkraftwerks. Ein Ausfall oder ein geplanter Stillstand eines Großkraftwerks hat im Stromnetz eine stärkere Auswirkung als der Ausfall einer einzelnen Photovoltaikanlage. Bei einer hohen Anzahl von Photovoltaikanlagen ergibt sich eine im Vergleich zu einer einzelnen Großanlage extrem hohe Einspeise-Zuverlässigkeit. Um einen Ausfall großer Stromerzeuger abzusichern, müssen Kraftwerksbetreiber Reserveleistung bereithalten. Dies ist bei Photovoltaik bei einer stabilen Wetterlage nicht notwendig, da nie alle PV-Anlagen gleichzeitig in Revision oder Reparatur sind. Bei einem hohen Anteil von dezentraler Photovoltaik-Kleinanlagen muss jedoch eine zentrale Steuerung der Lastverteilung durch die Netzbetreiber erfolgen. Während der Kältewelle in Europa 2012 wirkte die Photovoltaik netzunterstützend. Im Januar/Februar 2012 speiste sie zur Mittagsspitze zwischen 1,3 und 10 GW Leistung ein. Aufgrund des winterbedingt hohen Stromverbrauchs musste Frankreich ca. 7–8 % seines Strombedarfs importieren, während Deutschland exportierte. Volkswirtschaftliche Betrachtung. Solarstrom verursacht geringere Umweltschäden als Energie aus fossilen Energieträgern oder Kernkraft und senkt somit die externen Kosten der Energieerzeugung (s.a. externe Kosten bei Stromgestehungskosten). Noch im Jahre 2011 betrugen die Kosten der Vermeidung von CO2-Emissionen durch Photovoltaik 320 € je vermiedener Tonne CO2 und waren damit teurer als bei anderen erneuerbaren Energiequellen, der Modernisierung des konventionellen Kraftwerksparks oder Maßnahmen zur Energieeinsparung (Gebäudeisolierung), die Kosten von bis zu 45 € je Tonne CO2 verursachen oder sogar Kostenersparnisse erwirtschaften. Durch die starke Kostensenkung der Photovoltaik sind die Vermeidungskosten einer Hausdachanlage in Deutschland jedoch auf ca. 17-70 € je Tonne CO2 gefallen, womit die Solarstromerzeugung günstiger ist als die Kosten für Klimawandelfolgeschäden, die mit 80 € je Tonne CO2 angesetzt werden. In sonnenreicheren Gegenden der Welt werden sogar Vorteile bis ca. 380€ je Tonne vermiedener CO2-Emissionen erzielt. Wie viel CO2-Emissionen durch Photovoltaik tatsächlich vermieden werden, hängt dabei auch von der Koordination des EEGs mit dem EU-Emissionshandel ab. "→ siehe Abschnitt „Interaktion mit Emissionshandel“ unter „Erneuerbare Energien Gesetz“" Ende 2011 sah der US-Wirtschaftsnobelpreisträger Paul Krugman die Photovoltaik aufgrund sinkender Modulkosten kurz vor ihrer Wettbewerbsfähigkeit, insbesondere wenn die externen Kosten fossiler Energieträger in den Preisen mit berücksichtigt würden. Im Februar 2012 dokumentierte das Fraunhofer ISE, dass die kontinuierlich sinkenden Stromgestehungskosten für kleine Photovoltaikanlagen (< 10 kW) im 3. Quartal 2011 mit 24,67 ct/kWh das Preisniveau von Haushaltsstrom erreicht haben. Aufgrund der bisherigen Preisentwicklung erwartet das ISE, dass die Kosten proportional mit dem Zuwachs der installierten Leistung fallen. Anschaffungskosten und Amortisationszeit. Der durchschnittliche Preis für Anlagen bis 100 kWp lag im Dezember 2014 in Deutschland bei 1240 € netto je kWp. Dieser Preis enthält neben den Modulen auch Wechselrichter, Montage und Netzanschluss. Eine in Deutschland installierte Anlage liefert je nach Lage und Ausrichtung einen Jahresertrag von etwa 700 bis 1100 kWh und benötigt bei Dachinstallation 6,5 bis 7,5 m² Fläche pro kWp Leistung. Das Erneuerbare-Energien-Gesetz (EEG) garantiert in Deutschland den Betreibern von Photovoltaik-Anlagen feste Einspeisevergütungen für den ins Netz eingespeisten Strom (ab Juli 2015: 8,57 bis 12,76 ct/kWh über 20 Jahre). Der Betrieb von Photovoltaik-Anlagen kann dadurch wirtschaftlich lohnend sein. Die Amortisation ist abhängig vom Zeitpunkt der Inbetriebnahme (aufgrund sinkender gesetzlicher Vergütungen), der Sonneneinstrahlung, der Ausrichtung und Neigung der Anlage sowie dem Anteil der Fremdfinanzierung. In Österreich lag der Preis für Photovoltaikanlagen im Jahr 2013 durchschnittlich bei 1792 Euro je kWp und somit deutlich über dem in Deutschland im selben Jahr durchschnittlich zu zahlenden Preis von 1510 Euro je kWp. Stromgestehungskosten. Deutsche Stromgestehungskosten (LCoE) für erneuerbare Energien und konventionelle Kraftwerke im Jahr 2013. Photovoltaik galt lange als die teuerste Form der Stromerzeugung mittels erneuerbaren Energien. Durch den starken Preisverfall hat sich dies mittlerweile geändert, sodass Photovoltaik inzwischen konkurrenzfähig zu anderen regenerativen und konventionellen Arten der Stromerzeugung ist. In manchen Teilen der Welt werden PV-Anlagen mittlerweile ganz ohne Förderung installiert. Nach Swanson’s Gesetz fällt der Preis der Solarmodule mit der Verdopplung der transportierten Module um 20 %. Die Stromgestehungskosten von Photovoltaikanlagen in Deutschland lagen im dritten Quartal 2013 zwischen 7,8 und 14,2 ct/kWh. Seit dem Jahr 2011 liegen sie in Deutschland unterhalb des Haushaltsstrompreises. In anderen Ländern, wie Spanien, Italien, Teilen der USA und Australien wurde die Netzparität bereits in den Jahren zuvor erreicht. In Südspanien können im Jahr 2012 laut VDI nachrichten Photovoltaikanlagen für 7-9 ct/kWh Energie produzieren. Im Januar 2014 war in mindestens 19 Märkten die Netzparität erreicht; die Wirtschaftlichkeit für Endverbraucher wird von einer Vielzahl an Analysedaten gestützt. Das Deutsche Institut für Wirtschaftsforschung (DIW) stellt fest, dass die Kosten für Photovoltaik bislang weit schneller gesunken sind als noch vor kurzem erwartet. So sei in einem jüngsten Bericht der EU-Kommission noch von Kapitalkosten ausgegangen worden, die „bereits heute zum Teil unterhalb der Werte liegen, die die Kommission für das Jahr 2050 erwarte“. Bis 2025 wird Solarstrom in sonnigen Regionen der Welt billiger als Kohle- oder Gasstrom sein, so eine Studie des Fraunhofer Instituts für Solare Energiesysteme. So werden sich bis 2025 die Erzeugungskosten in Mittel- und Südeuropa auf 4-6 Cent pro Kilowattstunde verringern, bis 2050 auf 2-4 Cent. Zugrunde liegen konservative Annahmen zur technologischen Weiterentwicklung von Solaranlagen. Die nebenstehende Tabelle bildet die Stromgestehungskosten in ct/kWh entsprechend einer Studie des Fraunhofer-Instituts für Solare Energiesysteme ab. Die Annahmen folgen abgesehen von Investitionskosten und Ertrag der Studie: Der zugrunde gelegte reale gewichtete durchschnittliche Kapitalkostensatz beträgt 2,8 %, die jährlichen Betriebskosten 35 €/kWp und die jährliche Minderung des Ertrags 0,2 %. Andere Betriebskosten oder Ertragsminderungen können die Werte der Tabelle verändern. Weiterhin wird von einer Nutzungsdauer von 25 Jahren ausgegangen. Da Photovoltaikanlagen keine beweglichen Teile enthalten, sind sie sehr langlebig; es ist durchaus denkbar, dass sie auch über diesen Zeitraum hinaus nutzbar bleiben. Es wird davon ausgegangen, dass Demontage- und Entsorgungskosten dem Restwert der Anlage entsprechen. Für die Berechnung der durchschnittlichen Kosten je Kilowattstunde zu Preisen des Jahrs der Installation sind sowohl Kosten als auch Ertrag mit dem zuvor verwendeten realen Kapitalkostensatz diskontiert. Weiterhin gelten die Stromgestehungskosten nur für den Fall, dass der erzeugte Strom auch vollständig verbraucht wird. Zur Veranschaulichung ist die Tabelle farblich abgestuft: Weiße Kästchen stehen hierbei für Kosten, die unter dem Strompreis von 9,71 ct/kWh für industrielle Großverbraucher in Deutschland liegen, grau hinterlegte liegen darüber. Sämtliche Werte liegen unter dem durchschnittlichen Privatkundenpreis im Jahr 2014 von 29,13 ct/kWh. In Deutschland liegen die Erträge bei nicht nachgeführten Anlagen zwischen 700 und 1200 kWh Ertrag je Jahr und kWp. Die Werte für den durchschnittlichen Ertrag für neue Anlagen sind in der Tabelle kursiv hervorgehoben. Im Sommer 2014 hat die Investmentbank Lazard mit Sitz in New York eine Studie zu den aktuellen Stromgestehungskosten der Photovoltaik in den USA im Vergleich zu konventionellen Stromerzeugern veröffentlicht. Die günstigsten großen Photovoltaikkraftwerke können Strom mit 60 USD pro MWh produzieren. Der Mittelwert solcher Großkraftwerke liegt aktuell bei 72 USD pro MWh und die Obergrenze bei 86 USD pro MWh. Im Vergleich dazu liegen Kohlekraftwerke zwischen 66 USD und 151 USD pro MWh, Atomkraft bei 124 USD pro MWh. Kleine Photovoltaikaufdachanlagen liegen jedoch noch bei 126 bis 265 USD pro MWh, welche jedoch auf Stromtransportkosten verzichten können. Onshore-Windkraftanlagen liegen zwischen 37 und 81 USD pro MWh. Ein Nachteil sehen die Stromversorger der Studie nach in der Volatilität von Solar- und Windstrom. Eine Lösung sieht die Studie in Batterien als Speicher (siehe Batterie-Speicherkraftwerk), die bislang jedoch noch teuer seien. Modulpreise. Die Modulpreise sind in den letzten Jahren stark gesunken, getrieben durch Skaleneffekte, technologische Entwicklungen, Normalisierung des Solarsiliziumpreises und durch den Aufbau von Überkapazitäten und Konkurrenzdruck bei den Herstellern. Die durchschnittliche Preisentwicklung seit Januar 2009 nach Art und Herkunft ist in der nebenstehenden Tabelle dargestellt. Infolge der Marktankurbelung durch Einspeisevergütungen in Deutschland, Italien und einer Reihe weiterer Staaten sowie der damit einhergehenden sehr steilen Lernkurve kam es zu einem drastischen Kostenrückgang bei den Modulpreisen, die von 6 bis 7 US-Dollar/Watt im Jahr 2000 auf 0.5 bis 0.6 $/Watt im Jahr 2013 fielen. Die weitere Preisentwicklung hängt von der Entwicklung der Nachfrage sowie von den technischen Entwicklungen ab. Die niedrigen Preise für Dünnschichtanlagen relativieren sich teilweise für die fertige Anlage durch den aufgrund des geringeren Wirkungsgrades höheren Installationsaufwand für Anlagen gleicher Leistung. Es handelt sich bei den angegebenen Preisen nicht um Endkundenpreise; die Kosten für die Module haben lediglich einen Anteil von 40–50 % an den Gesamtkosten (Stand 2012). Weitere Entwicklung. Insgesamt wächst der Photovoltaikmarkt immer noch stark (um ca. 40 % jährlich); allerdings sind andere erneuerbare Energien, insbesondere die Windkraft an Land, deutlich günstiger je kWh erzeugter Energie. Da die Mehrkosten für erneuerbare Energie entsprechend dem Erneuerbare-Energien-Gesetz (EEG) auf alle Verbraucher umgelegt werden, und dies zu erheblichen Mehrbelastungen und Wettbewerbsnachteilen führt, werden die Vergütungssätze entsprechend dem Zubau gesenkt. Im Ergebnis werden günstigere Energieerzeuger bevorzugt. Bloomberg New Energy Finance sieht einen sog. tipping point bei Wind- und Solarenergie. Die Preise für Wind- und Solarstrom seien in den letzten Jahren stark gefallen und würden heute (1/2014) in einigen Bereichen bzw. Teilen der Welt bereits unter den Preisen der konventionellen Stromerzeugung liegen. Die Preise würden weiter fallen. Die Stromnetze seien weltweit stark ausgebaut worden, so dass diese nun auch Strom aus erneuerbaren Energien aufnehmen und verteilen könnten. Zudem hätten die erneuerbaren Energien weltweit dafür gesorgt, dass die Strompreise stark unter Druck geraten seien. Zudem würden die erneuerbaren Energien enthusiastisch von den Verbrauchern aufgenommen. Bereits im Jahr 2014 soll dieser Systemwechsel für sehr viele Menschen offensichtlich werden. Im Juni 2014 stuft Barclays Anleihen von US-Stromversorgern wegen der Konkurrenz durch die Kombination aus Photovoltaik und Energiespeichern, welche zu einem verstärkten Eigenverbrauch führt, herunter. Dies könne das Geschäftsmodell der Stromversorger verändern. Barclays: „Wir rechnen damit, dass in den nächsten paar Jahren sinkende Preise für dezentrale Photovoltaik-Anlagen und private Stromspeicher den Status Quo durchbrechen werden“ und „In der über 100-jährigen Geschichte der Stromversorger gab es bisher noch keine wettbewerbsfähige Alternative zum Netzstrom. Wir sind überzeugt, dass Photovoltaik und Speicher das System in den nächsten zehn Jahren umgestalten können.“ Produktion. Die Umweltauswirkungen bei der Silizium-Technologie und bei der Dünnschichttechnologie sind die typischen der Halbleiterfertigung, mit den entsprechenden chemischen und energieintensiven Schritten. Die Reinstsiliziumproduktion bei der Silizium-Technologie ist aufgrund des hohen Energieaufwandes und dem Aufkommen an Nebenstoffen maßgebend. Für 1 kg Reinstsilizium entstehen bis zu 19 kg Nebenstoffe. Da Reinstsilizium meist von Zulieferfirmen produziert wird, ist die Auswahl der Lieferfirmen unter Umweltaspekten entscheidend für die Umweltbilanz eines Moduls. Bei der Dünnschichttechnologie ist die Reinigung der Prozesskammern ein sensibler Punkt. Hier werden oft die klimaschädlichen Stoffe Stickstofftrifluorid und Schwefelhexafluorid verwendet. Der CdTe-Technologie wird auf Grund ihrer kurzen Energierücklaufzeit das beste Umweltverhalten auf einer Lebenszyklus-Basis zugeschrieben. Betrieb. 2011 bestätigte das Bayerische Landesamt für Umwelt, dass CdTe-Solarmodule im Fall eines Brandes keine Gefahr für Mensch und Umwelt darstellen. Durch die absolute Emissionsfreiheit im Betrieb weist die Photovoltaik sehr niedrige externe Kosten auf. Liegen diese bei Stromerzeugung aus Stein- und Braunkohle bei circa 6 bis 8 ct/kWh, betragen sie bei Photovoltaik nur etwa 1 ct/kWh (Jahr 2000). Zu diesem Ergebnis kommt ein Gutachten des Deutschen Zentrums für Luft- und Raumfahrt und des Fraunhofer-Instituts für System- und Innovationsforschung. Zum Vergleich sei der dort ebenfalls genannte Wert von 0,18 ct/kWh externer Kosten bei solarthermischen Kraftwerken genannt. Treibhausgasbilanz. Auch wenn es im Betrieb selbst keine CO2e-Emissionen gibt, so lassen sich Photovoltaikanlagen derzeit noch nicht CO2e-frei herstellen, transportieren und montieren. Die rechnerischen CO2e-Emissionen von Photovoltaikanlagen betragen Stand 2013 je nach Technik und Standort zwischen 10,5 und 50 g CO2e/kWh, mit Durchschnitten im Bereich 35 bis 45 g CO2e/kWh. Eine neuere Studie aus dem Jahr 2015 ermittelte durchschnittliche Werte von 29,2 g/kWh. Verursacht werden diese Emissionen durch Verbrennung fossiler Energien insbesondere während der Fertigung von Solaranlagen. Mit weiterem Ausbau der erneuerbaren Energien im Zuge der weltweiten Transformation zu nachhaltigen Energieträgern wird sich die Treibhausgasbilanz damit automatisch verbessern. Ebenfalls sinkende Emissionen ergeben sich durch die technologische Lernkurve. Historische betrachtet sanken die Emissionen um 14 % pro Verdopplung der installierten Leistung (Stand 2015). Nach einem ganzheitlichen Vergleich der Ruhr-Universität Bochum von 2007 lag der CO2e-Ausstoß bei der Photovoltaik noch bei 50–100 g/kWh, wobei vor allem die verwendeten Modulen und der Standort entscheidend waren. Im Vergleich dazu lag er bei Kohlekraftwerken bei 750–1200 g/kWh, bei GuD-Gaskraftwerken bei 400–550 g/kWh, bei Windenergie und Wasserkraft bei 10–40 g/kWh, bei der Kernenergie bei 10–30 g/kWh (ohne Endlagerung), und bei Solarthermie in Afrika bei 10–14 g/kWh. Energetische Amortisation. Die Energetische Amortisationszeit von Photovoltaikanlagen ist der Zeitraum, in dem die Photovoltaikanlage die gleiche Energiemenge geliefert hat, die während ihres gesamten Lebenszyklus benötigt wird; für Herstellung, Transport, Errichtung, Betrieb und Rückbau bzw. Recycling. Sie beträgt derzeit (Stand 2013) zwischen 0,75 und 3,5 Jahren, je nach Standort und verwendeter Photovoltaiktechnologie. Am besten schnitten CdTe-Module mit Werten von 0,75–2,1 Jahren ab, während Module aus amorphem Silizium mit 1,8 bis 3,5 Jahren über dem Durchschnitt lagen. Mono- und multikristalline Systeme sowie Anlagen auf CIS-Basis lagen bei etwa 1,5 bis 2,7 Jahren. Als Lebensdauer wurde in der Studie 30 Jahre für Module auf Basis kristalliner Siliziumzellen und 20 bis 25 Jahren für Dünnschichtmodule angenommen, für die Lebensdauer der Wechselrichter wurden 15 Jahre angenommen. Bis zum Jahr 2020 wird eine Energierücklaufzeit von 0,5 Jahren oder weniger für südeuropäische Anlagen auf Basis von kristallinem Silizium als erreichbar angesehen. Bei einem Einsatz in Deutschland wird die Energie, die zur Herstellung einer Photovoltaikanlage benötigt wird, in Solarzellen in etwa zwei Jahren wieder gewonnen. Der Erntefaktor liegt unter für Deutschland typischen Einstrahlungsbedingungen bei mindestens 10, eine weitere Verbesserung ist wahrscheinlich. Die Lebensdauer wird auf 20 bis 30 Jahre geschätzt. Seitens der Hersteller werden für die Module im Regelfall Leistungs-Garantien für 25 Jahre gegeben. Der energieintensiv hergestellte Teil von Solarzellen kann 4- bis 5-mal wiederverwertet werden. Flächenverbrauch. PV-Anlagen werden überwiegend auf bestehenden Dach- und über Verkehrsflächen errichtet, was zu keinem zusätzlichen Flächenbedarf führt. Freilandanlagen sind nur EEG-vergütungsfähig, wenn bereits belastete Flächen wie Konversionsflächen (aus militärischer, wirtschaftlicher, verkehrlicher oder wohnlicher Nutzung), Flächen entlang von Autobahnen und Bahnlinien (im 110 m Streifen), Flächen die als Gewerbe- oder Industriegebiet ausgewiesen sind oder versiegelte Flächen (ehem. Deponien, Parkplätze etc.) verwendet werden. Diese Flächen stellen keine Flächenversiegelung dar. Einen neuen Designansatz verfolgen Wissenschaftler des Massachusetts Institute of Technology, indem sie ihre Solarmodule im 3-dimensionalen Raum ausrichten, woraus ein deutlich verminderter Flächenbedarf und eine gesteigerte Effizienz der Anlage resultieren. Recycling von PV-Modulen. Bisher läuft die einzige Recyclinganlage (spezialisierte Pilotanlage) für kristalline Photovoltaikmodule in Europa im sächsischen Freiberg. Die Firma Sunicon GmbH (früher Solar Material), ein Tochterunternehmen der SolarWorld, erzielte dort im Jahr 2008 eine massenbezogene Recyclingquote bei Modulen von durchschnittlich 75 % bei einer Kapazität von ca. 1200 Tonnen pro Jahr. Die Abfallmenge von PV-Modulen in der EU lag 2008 bei 3.500 Tonnen/Jahr. Geplant ist durch weitgehende Automatisierung eine Kapazität von ca. 20.000 Tonnen pro Jahr. Zum Aufbau eines freiwilligen, EU-weiten, flächendeckenden Systems zur Wiederverwertung gründete die Solarindustrie als gemeinsame Initiative im Jahr 2007 den Verband PV CYCLE. Es werden in der EU bis 2030 ansteigend ca. 130.000 t ausgediente Module pro Jahr erwartet. Als Reaktion auf die insgesamt unbefriedigende Entwicklung fallen seit 24. Januar 2012 auch Solarmodule unter eine Novellierung der Elektroschrott-Richtlinie. Für die PV-Branche sieht die Novelle vor, dass 85 Prozent der verkauften Solarmodule gesammelt und zu 80 Prozent recycelt werden müssen. Bis 2014 müssen alle EU-27-Mitgliedsländer die Verordnung in nationales Recht umsetzen. Man will dadurch die Hersteller in die Pflicht nehmen, Strukturen für die Wiederverwertung bereitzustellen. Die Trennung der Module von anderen Elektrogeräten wird dabei bevorzugt und bereits existierende Sammel- und Recyclingstrukturen sollen ausgebaut werden. Staatliche Behandlung. Die Erzeugung elektrischen Stroms mittels Photovoltaik wird in vielen Staaten gefördert. Nachstehend ist eine (unvollständige) Liste von verschiedenen regulatorischen Rahmenbedingungen in einzelnen Staaten aufgeführt. Deutschland. Ende 2014 waren nach Angaben der Bundesnetzagentur rund 38 GW elektrische Nettoleistung installiert. Die Unternehmensberatung Roland Berger und die Prognos AG halten bis 2020 einen Ausbau auf 70 GW für realistisch. Unter der Annahme, dass elektrische Energie verlustfrei gespeichert werden könnte, wären bei einem durchschnittlichen jährlichen Ertrag von 900 kWh je kWp für eine Energieversorgung ausschließlich mit Photovoltaik insgesamt rund 690 GW zu installieren. Förderprogramme. In Deutschland gibt es eine gesetzlich geregelte und über 20 Jahre gewährte Einspeisevergütung; die Höhe ist im Erneuerbare-Energien-Gesetz geregelt. Die Einspeisevergütung ist degressiv gestaltet, fällt also für neue Anlagen pro Jahr um einen gewissen Prozentsatz. Zudem gibt es zwölf weitere Programme, die die Anschaffung einer Photovoltaikanlage fördern sollen. Auf Bundesebene kann die sogenannte Investitionszulage für Photovoltaikanlagen im produzierenden Gewerbe und im Bereich der produktionsnahen Dienstleistungen in Form von Steuergutschriften genehmigt werden. Die Fördergelder der KfW-Förderbank werden im Gegensatz zur Investitionszulage ausschließlich als Darlehen genehmigt und über die jeweilige Hausbank zur Verfügung gestellt. Weitere Fördermittel und Zuschüsse werden auch von zahlreichen Städten und Kommunen, lokalen Klimaschutzfonds sowie einigen privaten Anbietern angeboten. Diese können teilweise mit anderen Förderprogrammen kombiniert werden. Ein lokales Förderprogramm bietet die oberbayerische Stadt Burghausen mit 50 € je 100 Wp installierte Leistung bis max. 1.000 € pro Anlage und Wohngebäude. Steuerliche Behandlung. Bei einem Jahresumsatz bis 17.500 € gilt die Kleinunternehmerregelung nach UStG, so dass keine Umsatzsteuer erklärt werden muss. Meldet sich der Betreiber beim Finanzamt als umsatzsteuerpflichtiger Unternehmer, hat er auch das Recht, die Vorsteuer auf alle Investitionen erstattet zu bekommen. Zu der Einspeisevergütung wird dann zusätzlich die Mehrwertsteuer gezahlt, die an das Finanzamt abzuführen ist. Für die Einkünfte aus der Photovoltaikanlage gilt EStG. Ein eventueller Verlust mindert die Steuerlast. Die deutsche Finanzverwaltung erkennt Verluste aus dem Betrieb der Photovoltaikanlage dann nicht an, wenn sich anhand einer auf 20 Jahre Betriebsdauer der Anlage gerichteten Berechnung ergibt, dass der Betrieb der Anlage insgesamt Verlust erwirtschaftet. Soweit einschlägige Renditeberechnungsprogramme einen Steuervorteil berücksichtigen, muss diese Problematik berücksichtigt werden. Da es für die Gewerbesteuer einen Freibetrag von 24.500 € für natürliche Personen und Personengesellschaften gibt (Abs. 1 Nr. 1 GewStG), fallen meist nur große Anlagen unter die Gewerbesteuer. Dämpfender Effekt auf die Börsenstrompreise. PV eignet sich als Lieferant von Spitzenlaststrom, da sie zur „Kochspitze“ am Mittag die höchsten Erträge erzielt, und verdrängt teure Gas- und Steinkohlekraftwerke aus dem Markt. Solarenergie dämpft daher die Börsenpreise für Spitzenstrom („Merit-Order-Effekt“). Die Spitzenpreise für Strom sind in den letzten Jahren parallel zum Ausbau der Solarenergie im Vergleich zum Durchschnittspreis stark zurückgegangen. Im Sommer sind die früheren Tagesspitzen weitgehend verschwunden. Dieser preissenkende Effekt kommt durch die fehlerhafte Konstruktion des EEG-Ausgleichsmechanismus jedoch nicht beim Privatkunden an, sondern verteuert paradoxerweise die Stromkosten von Privatkunden, während hingegen die Industrie von den gesunkenen Beschaffungskosten an der Strombörse profitiert. Der Strompreis an der Strombörse war bis zum Jahr 2008 kontinuierlich gestiegen und erreichte im Jahr 2008 das Maximum von 8,279 Cent/kWh. Durch das vermehrte Auftreten der erneuerbaren Energien ist der Strompreis unter Druck geraten. Im ersten Halbjahr 2013 betrug der mittlere Strompreis an der Strombörse nur noch 3,75 Cent/kWh und für den Terminmarkt 2014 lag dieser im Juli 2013 bei 3.661 Cent/kWh. Krise der Solarindustrie. Aufgrund stark gesunkener Modulpreise im Zuge billiger Importe aus China ist die deutsche Solarindustrie wie auch die europäische in eine Krise geraten. Zahlreiche Hersteller meldeten Insolvenz an. Im Mai 2013 verhängte die EU-Kommission Strafzölle gegen China, da dieses Land durch enorme staatliche Subventionen unter den Herstellungskosten verkauft (Dumping). Die Strafzölle sind in der Branche und unter Umweltverbänden umstritten. Ende Juli einigten sich China und die EU auf einen Mindestpreis von 56 ct/Wp und eine jährliche Höchstliefermenge von 7 GW. China. Der Ausbau von Photovoltaik wird von der chinesischen Regierung stark vorangetrieben. Die chinesischen Nationalen Energieagentur hat ihre Ausbauziele zuletzt um 30 % erhöht und 2015 Deutschland als größten Installateur von Photovoltaik sowohl insgesamt (21,3 GW) als auch pro Kopf der Bevölkerung der neu installierten Leistung (16,3 W) überholt. Japan. Ein Jahr nach der Nuklearkatastrophe von Fukushima hat die japanische Regierung ein Gesetz nach dem Vorbild des deutschen EEG beschlossen. Seit 1. Juli 2012 wird bei Photovoltaikanlagen mit einer Leistung ab zehn Kilowatt eine Einspeisevergütung von 42 Yen/kWh gezahlt (umgerechnet etwa 0,36 €/kWh). Diese Vergütung wird 20 Jahre lang gezahlt. Kleinere Anlagen bis 10 kW werden nur zehn Jahre lang gefördert. Rumänien. Der rumänische Staat vergibt aufgrund eines Gesetzes vom November 2011 grüne Zertifikate, gegenwärtig sechs Zertifikate je 1000 kWh bis zum 31. Dezember 2013. Eine Reduzierung der Zahl der Zertifikate ist für das Jahr 2014 geplant. Der Wert der grünen Zertifikate wird an der Börse ausgehandelt und sinkt mit der Menge des erzeugten Stroms aus erneuerbaren Energien. Im Februar 2012 belief sich der Preis für ein Zertifikat auf umgerechnet 55 €, so dass für 1 kWh 0,33 € gezahlt wurde. Allerdings kann der Preis auch auf rund die Hälfte sinken. Schweiz. In der Schweiz ist die Förderung durch die kostendeckende Einspeisevergütung geregelt. Die dabei entstehenden Kosten werden auf alle Stromverbraucher umgelegt. Sierra Leone. Im westafrikanischen Staat Sierra Leone soll bis Ende 2016 etwa ein Viertel des erzeugten Stroms aus erneuerbaren Energien, vor allem aus Solarenergie, stammen. In der Nähe der Hauptstadt Freetown soll mit 6 MW Leistung Westafrikas größter Solarpark entstehen. In Koindu wird nachts das Stadtzentrum von einer solarbasierten Straßenbeleuchtung erhellt. Diese ist seit Juli 2013 in Betrieb. Außerdem werden Teile der Straße nach Yenga, einem Dorf an der Grenze zu Guinea und Liberia, ebenfalls von Photovoltaikbeleuchtungen erhellt. Persona non grata. Der Ausdruck Persona non grata (auch, für "unerwünschte Person";) bezeichnet den Status eines Angehörigen des diplomatischen Dienstes oder einer anderen Person, deren Aufenthalt von der Regierung des Gastlandes per Notifikation nicht mehr geduldet wird. Das Gegenteil ist die "persona grata" beziehungsweise die "persona gratissima". Gebrauch in der Diplomatie. Diplomaten besitzen im Gastland diplomatische Immunität, auch wenn sie dort eine Straftat begehen. Dem Gastgeberland bleibt dann nur die Möglichkeit, den Diplomaten des Landes zu verweisen, indem es ihn zur "Persona non grata" erklärt. In diesem Fall haben die Diplomaten das Gastland innerhalb einer bestimmten Frist zu verlassen. Weitere häufige Gründe für einen „diplomatischen Rauswurf“ sind Spionageverdacht gegenüber einem Diplomaten oder aber auch eine Form der Reaktion, wenn die eigenen Diplomaten zur "Persona non grata" erklärt wurden. So haben z. B. die USA und die Sowjetunion oft auf Parität geachtet – wenn der eine Staat den Kulturattaché und zwei Mitarbeiter ausgewiesen hat, dann hat der andere Staat genauso viele Diplomaten in vergleichbarer Stellung des Landes verwiesen. Als neuerliches Beispiel dieser Praxis können die Ausweisungen der russischen Diplomaten aus dem Vereinigten Königreich von Großbritannien und Nordirland und die Ausweisungen der britischen Diplomaten aus der Russischen Föderation, welche im Gegenzug dazu stattfanden, im Zusammenhang mit dem Mordfall Litwinenko angesehen werden. Die Erklärung zur "Persona non grata" betrifft mittelbar auch die Familien der ausgewiesenen Diplomaten, da deren Aufenthaltserlaubnis in der Regel vom diplomatischen Status abhängt. Partitionstabelle. Die Partitionstabelle gibt die Aufteilung eines Datenspeichers in Partitionen an. Partitionen sind mehrere unabhängig voneinander benutzbare Teile auf dem Speichermedium. Partitionen und Partitionstabellen wurden für Festplattenlaufwerke eingeführt. Auf Disketten kommen Partitionstabellen mangels Kapazität der Datenträger üblicherweise nicht zum Einsatz. Der Begriff "Partitionstabelle" umfasst alle Formen der Partitionierung, wenn diese eine Tabelle verwenden; umgangssprachlich wird häufig die am weitesten verbreitete im " (MBR)" enthaltene Partitionstabelle des IBM-kompatiblen PC mit dem Begriff gleichgesetzt, obwohl dies nicht ganz korrekt ist. Partitionierung auf Ebene eines Dateisystems (siehe ') ist nicht Teil des Begriffs. Die beiden häufigsten Partitionstabellen sind der bereits genannte ' sowie dessen Nachfolger " (GPT)". Einrichtung. Unter den meisten Betriebssystemen auf PCs werden Partitionstabellen mit einem Programm namens fdisk eingerichtet. Es gibt aber auch eine Vielzahl weiterer Programme, um eine Festplatte zu partitionieren. Moderne Betriebssysteme mit grafischer Benutzeroberfläche bieten meist ein einfach zu bedienendes grafisches Dienstprogramm zum Erstellen und Verwalten von Partitionen (unterschiedlicher Partitionstabellen) an. Unter Microsoft Windows ist dies die "Datenträgerverwaltung", bei Linux- und BSD-Distributionen ist meist ein entsprechendes geführtes Modul beim Installationsprogramm enthalten bzw. wird üblicherweise ein auf "GNU Parted" gestütztes Frontend mitgeliefert. "→ Hauptartikel: Partition (Informatik)" Interoperabilität. Auf Festplatten für IBM-PC-kompatible Computer mit BIOS wird der ' (kurz: "MBR") als Partitionstabelle verwendet. Er wurde 1983 mit MS-DOS 2.0 eingeführt. Da der "MBR" auf fast allen gängigen Betriebssystemen und Plattformen unterstützt wird, hat er sich als De-facto-Standard für die Partitionierung auf externen Speichermedien (z. B. Speicherkarten, USB-Sticks, Zip-Disketten) etabliert. Man findet ihn daher auf Geräten wie MP3-Playern oder Autoradios (wenn ein USB-Stick angesteckt wird) ebenso wie auf externen Speichermedien aller Art. Auf großen Festplatten (größer als 2 TB) wird meist die "GUID-Partitionstabelle", kurz "GPT", verwendet. Diese Partitionstabelle wurde etwa um das Jahr 2000 von Intel mit der EFI-Spezifikation definiert und soll einige Einschränkungen des "MBR" als dessen Nachfolger aufheben. Die meisten modernen Betriebssysteme können auf "GPT"-Partitionen zugreifen. Obwohl auf Speichermedien eine Art von Partitionierung immer möglich ist, ist sie keineswegs notwendig. Einige Betriebssysteme verlangen jedoch eine Partitionstabelle, um auf ein Speichermedium zugreifen zu können oder haben Einschränkungen beim Zugriff und können nur bestimmte Partitionen verwenden. Auf verschiedenen Systemen (oder auch Plattformen) finden oft spezifische Partitionstabellen auf Speichermedien, die zum Systemstart verwendet werden, Verwendung. Beispiele dazu sind etwa Workstations, aber auch Apple Macintosh bis 2005 mit "APM" und Amiga mit "Rigid Disk". Auf modernen IBM-PC-kompatiblen Computern mit dem BIOS-Nachfolger UEFI wie auch auf Apple Macintosh-Computern seit 2006 wird " (GPT)" verwendet. Priamos. Priamos (, eingedeutscht auch "Priam"), ist der Sohn des Laomedon und der Strymo (Plakia, Tochter des Otreus). Er war in der griechischen Mythologie der sechste und letzte König von Troja (Ilios), während des von Homer geschilderten trojanischen Krieges. Name und Geschichte. Sein Name rührt nach antiker Etymologie von dem (griech. oder lydischen) Wort ' ‚das Kaufgeschäft‘ her. Diesen Namen hatte er der Sage nach erhalten, weil seine Schwester Hesione ihn freikaufte, als die Stadt von Herakles erstürmt worden war, da dieser von seinem Vater und damaligen König Laomedon, betrogen worden war. Davor soll er Podarkes (‚der Schnellfüßige‘) genannt worden sein. Als seine (Halb-)Brüder gelten Tithonos, Lampo, Klytios, Hiketaon, als (Halb-)Schwestern Hesione, Killa und Astyoche. Homer berichtete auch, dass Priamos mit den Phrygiern gegen die Amazonen in den Kampf gezogen sei. Er hatte am Kampf um Troja seines Alters wegen nicht teilgenommen. In der "Ilias" Homers tritt er als Greis durch seinen nächtlichen Gang ins griechische Schiffslager hervor, wo er von Achilleus den geschändeten Leichnam seines Sohnes Hektor erbittet und erhält. Priamos soll bei der Eroberung Trojas von Neoptolemos (bei Vergil: "Pyrrhus"), dem Sohn des Achilles, am Altar des Zeus vor seinen Angehörigen niedergemacht worden sein. Spätere Dichtungen nach Homer stellen das Geschehen anders dar: Nach Erstürmung der Stadt Troja hätte sich Priamos bewaffnet und wollte sich so in die feindliche Menge stürzen. Hekabe flehte ihn aber an, zu fliehen, wodurch er sich mit ihr und seinen Töchtern an den Altar des Zeus Herkeios flüchtete. Hier sah er, wie sein Sohn Polites [also hier nicht Hektor] durch Pyrrhus getötet wurde und „sendete sein Geschoß gegen diesen, findet aber hierbei seinen Tod durch denselben“. Ehe und Nachkommen. Priamos' erste Frau soll Arisbe, Tochter des Merops gewesen sein, mit welcher er Aisakos zeugte. Danach heiratete er Hekabe (auch "Hecuba" geschrieben; Tochter des phrygischen Königs Dymas) und zeugte mit ihr insgesamt 19 Kinder, darunter Hektor, Krëusa, Helenos, Antiphos, Polites, Laodike, Paris, Kassandra, Polydoros, Polyxena, Troilos, Agathon, Deiphobos. Er soll mit allen seinen Frauen und Nebenfrauen weit über 50 Kinder gehabt haben, die fast alle im Krieg um Troja gefallen oder umgekommen sind. Namensgeber. Nach Priamos wurde 1872 von Heinrich Schliemann der „Schatz des Priamos“ benannt, den dieser bei Ausgrabungen in den Ruinen von Troja entdeckt hatte. Literatur. Priamos tritt sowohl in Homers „"Ilias"“ als auch in der „"Aeneis"“ Vergils auf, sowie in zahlreichen Erzählungen und Bühnenstücken über den Trojanischen Krieg, bis hinein in die Moderne. Panamakanal. Der Panamakanal ist eine künstliche, rund 82 Kilometer lange Wasserstraße, die die Landenge von Panama in Mittelamerika durchschneidet, den Atlantik mit dem Pazifik für die Schifffahrt verbindet und ihr damit die Fahrt um das Kap Hoorn an der Südspitze Südamerikas erspart. Der 1914 eröffnete Kanal ist eine der wichtigsten Wasserstraßen der Welt; etwa 14.300 Schiffe (Mittel der Jahre 2011 bis 2013) durchfahren ihn pro Jahr. Die Abmessungen der Schleusen und Fahrrinnen – die sogenannten Panamax-Maße – genügen beispielsweise für Containerschiffe mit 4.600 Standardcontainern (TEU), die aber nach heutigen Maßstäben lediglich mittelgroße Schiffe sind. Nach der Vollendung des 2007 begonnenen Ausbaus (Fertigstellung voraussichtlich Mitte 2016) sollen ihn Schiffe mit 12.000 TEU passieren können. Die durch den Panamakanal transportierte Warenmenge entspricht etwa fünf Prozent des Seefrachtverkehrs. Der Kanal generiert fast acht Prozent des Bruttoinlandsprodukts von Panama. Übersicht. Karte und Längsprofil des Panamakanals Sicht vom Cerro Ancón (Panama-Stadt) auf den Panamakanal Der Kanal ist einschließlich der Zufahrtskanäle ungefähr 82 Kilometer lang. Er verläuft zwischen den Städten Colón an der Atlantik- und Balboa, einem Vorort von Panama-Stadt an der Pazifikküste. Er ist durchgehend zweispurig für Gegenverkehr ausgelegt. Die dieser Beschreibung zugrundegelegte Richtung vom Atlantik zum Pazifik gilt in der umgekehrten Richtung sinngemäß ebenso. Die Schiffe werden bei Colón durch die Gatún-Schleusen zu dem auf 26 Metern über dem Meeresspiegel aufgestauten Gatunsee gehoben, fahren in ausgebaggerten Rinnen durch den Gatunsee und den Río Chagres, durchqueren im Gaillard-Kanal (auch Culebra Cut genannt) einen Bergrücken und werden mit den dicht aufeinanderfolgenden Pedro-Miguel- und Miraflores-Schleusen wieder zum Pazifik hinabgelassen. Der Kanal ist seit seiner Übergabe durch die USA an Panama am 31. Dezember 1999 "unveräußerliches Eigentum des panamaischen Volkes" und wird von der Panama Canal Authority (spanisch: Autoridad del Canal de Panamá, „ACP“) verwaltet und betrieben, einer selbstständigen panamaischen Behörde mit rund 9000 Mitarbeitern. Die ACP ist an die Bestimmungen des "Abkommens über die Neutralität des Kanals" gebunden, das ein Bestandteil der am 7. September 1977 zwischen den USA und Panama abgeschlossenen Torrijos-Carter-Verträge ist, und deshalb verpflichtet, die Benutzung allen Schiffen, auch Kriegsschiffen, aller Nationen ohne Diskriminierung und zu gleichen Bedingungen zu gewähren – gegen Bezahlung der Transitgebühren. Durch die Schleusen und die Puente de las Américas ist die Größe der Schiffe auf die Panamax-Maße beschränkt. Schiffe, die dementsprechend maximal 294,3 Meter lang und exakt 32,3 Meter breit sind, haben in den Schleusen auf beiden Seiten noch 61 Zentimeter Abstand zu den Wänden der Schleusenkammer. Die für die Durchfahrt benötigte Zeit wird vom Andrang und von dem nicht so seltenen Nebel beeinflusst. Für gebuchte Passagen betrug sie 2011 im Durchschnitt 15,2 Stunden für die gesamte Strecke und knapp 11 Stunden von der Einfahrt in die erste Schleuse bis zur Ausfahrt aus der letzten Schleuse. Im Jahr 2011 fuhren 14.684 Schiffe durch den Kanal, davon 6.918 Schiffe der Panamax-Klasse. Das Transportvolumen betrug 322,1 Mio. PCUMS (Einheiten des Panama Canal Universal Measurement System); die Gebührenerlöse beliefen sich auf 1,73 Milliarden Balboa (= US-Dollar). Am 4. September 2010 fuhr der chinesische Schüttgut-Frachter mit dem Namen „Fortune Plum“ (Glückspflaume) als einmillionstes Schiff seit der Eröffnung durch den Panamakanal. Bedeutend ist der Kanal insbesondere für Transporte zwischen der Ost- und der Westküste der USA sowie für die Importe aus Asien, soweit sie zur Ostküste der USA transportiert werden. Die wichtigsten Nutzer des Kanals sind daher die USA und China. Die transportierte Warenmenge entspricht 68 % aller Waren, die in US-Häfen be- oder entladen werden; für China 23 % und für Japan 16 %. Der Preis der Passage wird nach Art und Größe des Schiffes berechnet. Seit 2011 gilt eine revidierte, komplexe Gebührentabelle, die eine Vielzahl von Grund- und Nebengebühren enthält, wie beispielsweise Lotsen-, Schlepper- und Lokomotivgebühren. Als Anhaltspunkt für die anfallenden Gebühren können die Basisgebühren von 74 US-Dollar pro Standardcontainer und von 134 US-Dollar pro Passagier-Bett dienen. Vor dem Bau des Kanals führte die kürzeste nutzbare Seeverbindung von der Ostküste zur Westküste Nordamerikas durch die Magellanstraße. Durch den Kanal wurde die Seestrecke New York–San Francisco von etwa 25.000 auf zirka 10.000 Kilometer verkürzt. Die Einsparung von 15.000 Kilometern (8.100 Seemeilen) entspricht bei einer angenommenen Schiffsgeschwindigkeit von 15 Knoten einer Verkürzung der Reisezeit um rund drei Wochen. Für anders liegende Relationen, etwa von/nach Europa oder von/nach China ist die Abkürzung naturgemäß geringer. Der Kanal wurde 1984 von der American Society of Civil Engineers in die List of Historic Civil Engineering Landmarks aufgenommen. Der Kanal. Gatún-Schleuse, Blick von der obersten Kammer, hinten der Zufahrtskanal Der Staat Panama erstreckt sich etwa 700 Kilometer entlang des neunten Breitengrades, so dass der Atlantik beziehungsweise die Karibik nördlich und der Pazifik südlich von Panama liegen. Da der Kanal von der Einfahrt auf der atlantischen Seite aus in südöstlicher Richtung verläuft, liegt diese atlantische Einfahrt westlicher als die pazifische Ausfahrt bei Panama-Stadt. Mit anderen Worten: Der Panamakanal führt auf Grund dieser geographischen Besonderheit in West-Ost-Richtung von dem östlicher gelegenen Atlantischen Ozean in den westlich gelegenen Pazifischen Ozean. Auf der atlantischen Seite gilt die Einfahrt in die Limón Bay (Bahía Limón) zwischen den Wellenbrechern von Colón und Fort Sherman (Fuerte Sherman) als Beginn des Kanals. Die Limón Bay dient als Reede für wartende Schiffe. Ihr 8,7 Kilometer von der Einfahrt entferntes südliches Ende ist gleichzeitig der Beginn des 3,1 Kilometer langen Zufahrtskanals zu den Gatún-Schleusen. In den Gatún-Schleusen werden die Schiffe zu dem im Mittel 26 Meter über dem Meeresspiegel liegenden, künstlich aufgestauten Gatúnsee gehoben. Von den Gatún-Schleusen aus ist in südwestlicher Richtung der Gatún-Damm zu sehen, ein 2.300 Meter langer Erddamm, in dessen Mitte eine bogenförmige Betonmauer mit 14 großen Stahltoren den Abfluss aus dem See steuert. Hinter dem Damm liegt ein Wasserkraftwerk, das den Schleusenbetrieb und die Steuerung des Damms mit Strom versorgt. Mit dem Damm wurde der Río Chagres so weit aufgestaut, dass die Schiffe große Strecken im Gatúnsee fahren können und außerdem der Durchstich des Kanals durch die Berge nicht bis unter den Meeresspiegel ausgehoben werden musste. Im Gatúnsee folgt der Kanal in einer ausgebaggerten und gut betonnten, etwa 29 Kilometer langen Fahrrinne dem früheren Bett des Río Chagres. Die Fahrrinne umgeht dabei verschiedene Inseln, unter anderem die größte und bekannteste Insel, das Barro Colorado Island (BCI) mit der gleichnamigen Forschungsstation der Smithsonian Institution. Auf Grund der seit 1946 durchgeführten intensiven Beobachtung durch internationale Forscher gilt der tropische Regenwald auf BCI als der besterforschte der Erde. Kleinere Boote, wie die Dienstboote der Panama Canal Authority und private Segeljachten, können im Gatunsee eine "Banana Cut" genannte Abkürzung durch eine enge Passage zwischen zwei kleineren Inseln nehmen. Der Gatúnsee geht in den immer noch aufgestauten Teil des Río Chagres über, dem die Schiffe über 8 Kilometer lang bis zu dem Ort "Gamboa" folgen. Dort beginnt der rund 13 Kilometer lange "Culebra Cut" oder "Gaillard-Durchstich" durch die Berge der kontinentalen Wasserscheide. Der Kanal war auf dieser Strecke ursprünglich nur 152 Meter breit, so dass für große Schiffe kein Begegnungsverkehr möglich war. 2002 wurde der Abschnitt auf 192 Meter in den Geraden und auf 222 Meter in Kurven erweitert. Seither kann ständig in beide Richtungen gefahren werden, was zu einer Zeitersparnis von mehr als 16 % führte. Kurz vor dem Ende des Gaillard-Durchstichs überquert die Puente Centenario (Centennial Bridge, Jahrhundertbrücke), eine sechsspurige Schrägseilbrücke, den Kanal in 80 Metern Höhe. Der Gaillard-Durchstich endet an der Pedro-Miguel-Schleuse, die den Abstieg zum Pazifik einleitet und in den ebenfalls künstlich aufgestauten, nur rund zwei Kilometer langen Miraflores-See führt. Auf der anderen Seite des 16,5 Meter über dem mittleren Wasserspiegel des Pazifik liegenden Sees befindet sich die Einfahrt in die Miraflores-Schleusen. Unmittelbar neben der Schleuseneinfahrt beginnt der Miraflores-Damm, eine 133 Meter lange Gewichtsstaumauer aus Beton mit acht anhebbaren Stahltoren zur Steuerung des Abflusses aus der Pedro-Miguel-Schleuse und aus dem in den See mündenden Río Cocoli. Nach den Miraflores-Schleusen folgt ein natürlicher Zufahrtskanal vorbei an den Hafenanlagen von Balboa und unter der Puente de las Américas (Brücke der Amerikas) hindurch in den Golf von Panama. Die Puente de las Américas hat eine lichte Höhe von 61,3 m über MHW – Mittleres Hochwasser, weshalb die Höhe der Schiffe auf 57,91 m (190 Fuß) über der Wasserlinie begrenzt ist. Der Anfang beziehungsweise das Ende des Kanals auf der pazifischen Seite wird durch eine Boje bei der Isla Perico am Ende eines langen Dammes markiert. Die Strecke von den Schleusen bis zu der Boje ist gut 12 Kilometer lang. Der Damm dient hier weniger dem Schutz vor anbrandenden Wellen. Er soll vielmehr den Eintrag von Schlamm durch eine entlang der Küste verlaufende Strömung verhindern. Der Kanal kann seit der Erweiterung des Gaillard-Durchstichs auch von großen Schiffen durchgehend in beiden Richtungen im Gegenverkehr befahren werden. Um bei den zahlreichen Kurven und Richtungsänderungen keine Missverständnisse aufkommen zu lassen, werden alle vom Atlantik zum Pazifik fahrenden Schiffe als "southbound" "(südwärts fahrend)", die in der Gegenrichtung zum Atlantik fahrenden Schiffe als "northbound" "(nordwärts fahrend)" bezeichnet. Die Schleusen. Gatún-Schleusen, vorn knapp über dem Wasser die ausgefahrenen Kfz-Brücken Pedro-Miguel-Schleuse, ganz hinten der Pier der Miraflores-Schleusen Miraflores-Schleusen, an den Bildrändern die Drehbrücke 24 h-Zeitraffer an der Miraflores-Schleuse Zulässige Schiffsmaße. Ein Schiff mit genau der zulässigen Breite und Länge hat somit an beiden Seiten noch 0,61 Meter Abstand zur Kanalwand und an Bug und Heck noch 5,33 Meter Abstand zu den Schleusentoren der kürzeren Kammern. Die Schiffsklasse, die an diese zulässigen Schiffsmaße angepasst ist, wird Panamax genannt. Schiffe, die diese Maße überschreiten, werden Post-Panamax-Schiffe genannt. Das Luxuskreuzfahrtschiff Queen Elizabeth 2 wurde so konstruiert, dass es gerade noch in die Schleusen des Panamakanals passt (Panamax-Klasse). Die Nachfolgerin Queen Mary 2 ist deutlich größer und kann den Panamakanal derzeit noch nicht passieren. Nach Abschluss der Erweiterungen wird sie es aber bei Niedrigwasser voraussichtlich auch können. Schleusentore. Doppeltes Tor in den Mirafloresschleusen Die beiden obersten Kammern der Gatún-Schleusen, die Pedro-Miguel-Schleuse und die oberste Kammer der Miraflores-Schleusen haben an beiden Enden aus Sicherheitsgründen doppelte Schleusentore im Abstand von ungefähr 24 m (80 Fuß). Die Gatún-Schleusen haben somit sechs Tore pro Richtung, die Pedro-Miguel-Schleuse vier Tore und die Miraflores-Schleusen fünf Tore pro Richtung, zusammen somit 15 Tore beziehungsweise in beiden Richtungen insgesamt 30 Tore. Jedes Tor hat zwei V-förmig zum Oberwasser schließende Torflügel, die beim Absenken des Unterwassers vom steigenden Wasserdruck gegeneinandergepresst und abgedichtet werden. Jeder Torflügel ist 19,81 m (65 Fuß) breit und 2,13 m (7 Fuß) stark. Seine Oberkante ist als Gehweg für das Schleusenpersonal ausgebildet. Der untere Teil der Torflügel enthält Hohlkörper, die ihm so viel Auftrieb geben, dass sie sich relativ leicht bewegen lassen. Die Höhe der Torflügel variiert je nach ihrem Einsatzort zwischen 14,33 m im oberen Tor der Gatún-Schleusen und 25 m in den Miraflores-Schleusen (zwischen 47 und 82 Fuß) und ihr Gewicht zwischen 320,96 Tonnen und 600,73 Tonnen (353,8 und 662,2 Short tons). Ursprünglich wurden die Tore von einem stählernen Arm bewegt, der an einem horizontalen Rad mit 6 Meter Durchmesser in den Wänden der Schleusenkammern angebracht war, ähnlich der Pleuelstange am Treibrad einer Dampflokomotive. Dabei genügten zwei 19-kW-Elektromotoren für die Bewegung eines Torflügels, der im Notfall auch von einem der Motoren bewegt werden konnte. Seit einigen Jahren werden die Torflügel hydraulisch bewegt. Wasserzu- und -abfluss. Die parallelen Schleusenkammern sind durch eine 18,29 m (60 Fuß) dicke Betonwand getrennt, in deren oberem Teil sich ein Gang für das Personal, ein Kabelkanal und eine Abwasserleitung befinden. Die Seitenwände sind an der Basis 15,24 m stark und verjüngen sich nach oben auf rund 2 Meter. Im unteren Teil der drei Wände verlaufen die Zu- und Abflussleitungen der Schleusenkammern, die am Einlass zunächst einen Durchmesser von 6,7 m (22 Fuß) haben, der nach 97,5 m (320 Fuß) reduziert wird auf 5,49 m (18 Fuß). Je zehn elliptische Querverbindungen unter dem Boden der Kammern sind abwechselnd mit dem Seiten- und dem Mittelrohr verbunden. Sie haben jeweils fünf Öffnungen im Boden der Schleusenkammer, so dass das Wasser durch 100 Öffnungen im Boden mit geringen Turbulenzen ein- und ausfließen kann. Die Schleusenkammern werden allein durch die Schwerkraft des Wassers gefüllt und geleert, es gibt dafür keine Pumpen. Es dauert ungefähr acht Minuten, um eine Kammer zu füllen oder zu leeren, das heißt, den Wasserspiegel vom Niveau des Unterwassers auf das des Oberwassers anzuheben und umgekehrt. Der Schleusungsvorgang mit Ein- und Ausfahrt der Schiffe dauert wesentlich länger als die genannten 8 Minuten. Dabei laufen typischerweise 101.000 m³ Wasser aus der Kammer oder in sie. Die Schleusen haben keine Sparbecken. Um Wasser zu sparen, kann jedoch die Verbindung zwischen den parallelen Schleusen genutzt werden. Eine Schleusung im Sinne einer Durchfahrt durch alle Schleusen soll 197.000 m³ Süßwasser verbrauchen (52 Millionen US-Gallonen). Treidelloks. Eine zügige und sichere Durchfahrt durch die Schleusenanlagen gewährleisten die beidseitig angebrachten Zahnradbahnen. Je nach Größe des Schiffes schleppen vier bis acht Zahnradlokomotiven ("Treidelloks", „Mulis“, nach den Lasttieren benannt) die Schiffe durch die Schleusen und stabilisieren sie gegen die Strömungen in der Schleusenkammer beim Wasserein- und -auslass. Dabei können sie auf bis zu 45 Grad steilen Rampen von einer Schleusenkammer zur nächsten fahren. Das Zahnradbahnsystem und die Lokomotiven wurden von Edward Schildhauer konstruiert, dem für die Planung der elektrischen Ausstattung der Schleusen zuständigen Ingenieur, und von Schenectady, New York, zu einem Preis von 13.000 US-Dollar pro Stück gebaut und geliefert. Um eine bessere Traktion zu erreichen, werden spezielle Zahnstangen verwendet, die auf dem System Riggenbach beruhen. Die 2012 im Einsatz befindlichen neuen Lokomotiven wiegen rund 45 Tonnen (50 tons) und haben zwei Antriebseinheiten mit jeweils 290 PS, gegenüber den 170 PS des Vorgängermodells. Kleine Schiffe werden dagegen in traditioneller Weise mit von Hand gehaltenen Leinen geführt. Wasserhaltung. Der Wasserverlust durch die Schleusungen wird durch den Río Chagres ausgeglichen, wobei der Gatúnsee als Pufferspeicher wirkt. Da zunehmender Verkehr zwangsläufig zu einem größeren Wasserverlust führt, wurde bereits 1935 der Oberlauf des Río Chagres durch den Madden-Damm zum Alajuelasee aufgestaut, um die großen Wassermassen der Regenzeit für die Trockenzeit speichern zu können. Sollte der Wasserspiegel des Gatunsees dennoch unter die für den maximalen Tiefgang der Schiffe ausschlaggebende Niedrigwassermarke von 24,84 Meter (81,5 Fuß) fallen, wird der zulässige Tiefgang schrittweise um jeweils 15 cm reduziert, nach Möglichkeit mit dreiwöchiger Ankündigung. Extrem hoher Zulauf kann weitgehend durch die großen Tore des Gatún-Dammes und durch die großen Rohre in den Schleusen abgeführt werden, um den Wasserspiegel im Gatúnsee nicht über 26,5 Meter (87 Fuß) ansteigen zu lassen. In großen zeitlichen Abständen führt der Río Chagres allerdings so viel Wasser, dass sowohl der Alajuela- als auch der Gatúnsee ihren maximalen Füllstand erreichen. So musste der Schiffsverkehr auf dem Panamakanal vom 8. zum 9. Dezember 2010 für 17 Stunden unterbrochen werden – zum dritten Mal in der bis dahin 96-jährigen Geschichte des Kanals. Allgemeines. Die "Talisman" in der oberen Kammer der Miraflores-Schleusen Nach den traditionellen Regeln der Autoridad del Canal de Panamá (ACP) erfolgt die Durchfahrt in der Reihenfolge der Ankunft. Dabei können Wartezeiten von mehreren Stunden entstehen, im Fall der Schließung einer "Fahrspur" wegen Reparaturarbeiten an den Schleusenkammern auch von mehreren Tagen. Deshalb können pro Tag 24 Passagen (von insgesamt etwa 40 möglichen Durchfahrten) in einem komplexen Verfahren im Voraus gebucht werden, eine 25. Passage wird von der ACP versteigert. Die Autoridad del Canal de Panamá (ACP) hat für den Schiffsverkehr 291 Lotsen und 36 Schlepper zur Verfügung, während in den Schleusen 100 Lokomotiven im Einsatz sind (Stand Mai 2012). Die Schiffe müssen einer Reihe von technischen Vorschriften entsprechen, die vor der ersten Passage nachgewiesen werden. Im Kanal besteht Lotsenpflicht, eine Passage wird von bis zu drei Lotsen gleichzeitig begleitet. Vor den Schleusen wird eine Gruppe von "Pasacables" (in etwa: Schiffsbefestiger) an Bord genommen, die die Leinenverbindung zu den Lokomotiven herstellen und bis zur Ausfahrt aus der Schleuse überwachen. Im engen und kurvigen Culebra Cut erhalten große Schiffe meist die Unterstützung von ein oder zwei Schleppern. Die Höchstgeschwindigkeit wird von der ACP für die verschiedenen Kanalabschnitte je nach den Umständen festgelegt, meist wird mit 6 kn (11 Kilometer/h) gefahren. Passagegebühren. Die Gebühren für eine Passage werden nach einer seit 2011 geltenden, komplexen Gebührentabelle berechnet, bei der unterschieden wird zwischen Art und Größe des Schiffes, ob es beladen oder unter Ballast fährt und die eine Vielzahl von Grund- und Nebengebühren enthält, wie beispielsweise die Gebühren für Lotsen, "Pasacables", Lokomotiven und Schlepper. Als Anhaltspunkt für die anfallenden Gebühren können die Basisgebühren von 74 US-Dollar pro Standardcontainer und von 134 US-Dollar pro Passagier-Bett dienen. Für ein Containerschiff mit den maximal möglichen 4.600 TEU würden daher Grundgebühren von 340.400 US-Dollar anfallen zuzüglich der genannten Nebengebühren. Für ein auf die Panamax-Maße hin konstruiertes Kreuzfahrtschiff wie die Coral Princess oder ihr Schwesterschiff Island Princess mit jeweils 1.970 Passagierbetten wird deshalb eine Grundgebühr von 263.980 US-Dollar zuzüglich der Buchungsgebühr für die Passage und den sonstigen Nebengebühren bezahlt, so dass insgesamt knapp 400.000 US-Dollar anfallen (Stand April 2012). Zum Vergleich: Die Queen Elizabeth 2 musste für ihre Panamakanal-Passage im Jahre 2003 vor der Umstellung der Gebühren auf die Anzahl der Passagierbetten nur 99.000 US-Dollar bezahlen. Ebenfalls vor der Einführung der neuen Gebührentabelle betrug der höchste Preis für eine versteigerte Passage 220.300 US-Dollar für einen Tanker, der im August 2006 dadurch eine Warteschlange von 90 Schiffen passieren und eine siebentägige Wartezeit wegen der Schließung einer Schleuse vermeiden konnte. Die normale Gebühr hätte nur 13.430 US-Dollar betragen. Die niedrigste Gebühr fiel im Jahre 1928 für den US-Amerikaner Richard Halliburton (1900–1939) an, den ersten Menschen, der den Panamakanal durchschwamm. Der weltreisende Journalist und Abenteurer war im April 1928 von New Orleans aus nach Mexiko aufgebrochen. Dort wandelte er auf den Spuren von Hernán Cortés und bestieg den Popocatépetl. Krönender Abschluss seiner Tour durch Mittelamerika sollte die Benutzung des Panamakanals als Schwimmer werden. Die US-Kanalbehörde war einverstanden unter dem Vorbehalt, dass sie nur einem „Wasserfahrzeug“ die „Durchfahrt“ gestatten könne. Halliburton wurde daher nach dem Schiffsmaß Tonnage vermessen und eingestuft und durfte gegen eine Gebühr von 36 US-Cent, das niedrigste jemals entrichtete Entgelt, seinen Plan umsetzen. In acht Tagesetappen bewältigte er die Strecke inklusive aller Schleusen. Betriebsmittel. Die Autoridad del Canal de Panamá (ACP) unterhält eine Verkehrslenkungszentrale, die Wasserkraftwerke am Gatún- und am Madden-Damm, das thermoelektrische Kraftwerk von Miraflores, eigene Leitungsnetze für Strom, Wasser und Telefon sowie verschiedene Schiffe zur Instandhaltung des Kanals, darunter einen großen Greiferbagger und ein Saugbaggerschiff sowie eine Bohrplattform für die Vorbereitung von Sprengungen. Vier Schwimmkräne mit einer Kapazität von 75 bis 386 Tonnen dienen unter anderem der Wartung der Schleusentore. Zwei Trinkwasseraufbereitungsanlagen an den beiden Enden des Kanals versorgen nicht nur die ACP, sondern auch große Teile der umliegenden Städte. Eine Schiffswerft dient der Wartung und Reparatur der Wasserfahrzeuge der ACP. Querungen. Die "Rosemar" vor der Puente de las Américas Die wichtigsten Querungen des Panamakanals sind Seit 1942 gibt es die Drehbrücke in den Miraflores-Schleusen, die heute wegen der nahegelegenen festen Straßenverbindungen kaum noch genutzt wird. Bei den Gatún-Schleusen gibt es quer zu den unteren Einfahrten eine einspurige bewegliche Brücke für kleinere Kraftfahrzeuge. So wie die Torflügel der Schleusentore hat sie zwei Brückenteile pro Einfahrt, die sich bei Schiffsverkehr ebenso wie die offenen Torflügel in Nischen entlang den Schleusenwänden befinden, sonst aber wie ein sich schließendes Tor in die Einfahrt gedreht werden können. Im Rahmen des Ausbauprogramms soll an der atlantischen Seite eine weitere Schrägseilbrücke mit zwei Pylonen gebaut werden. Nahe der Puente Centenario queren zwei Hochspannungsleitungen den Kanal mit einer Spannweite von je 1,8 Kilometer. Erweiterung des Kanals ab 2007. Nach jahrelanger Diskussion wurden im April 2006 die Pläne für den Ausbau verkündet. Ein verfassungsgemäßes Referendum wurde am 22. Oktober 2006 durchgeführt, wobei 78 Prozent der Wähler bei 43 Prozent Wahlbeteiligung für den Ausbau des Kanals stimmten. Das Ergebnis ist aufgrund der Torrijos-Carter-Verträge von 1978 für die Regierung bindend. Der Panamakanal wird seit 2007 ausgebaut und erweitert. Dazu werden auf beiden Seiten, der atlantischen und der pazifischen Seite, neben den existierenden je eine neue, dreistufige Schleusenanlage gebaut, deren Kammern 55 m breit und 427 m lang sein werden. Die pazifische Schleusenanlage umgeht dabei mit verlängerten Zufahrtskanälen sowohl die Miraflores- als auch die Pedro-Miguel-Schleusen. Die beiden Schleusen werden als Sparschleusen mit je drei Sparbecken pro Kammer ausgelegt. Außerdem sollen die Fahrrinnen im Gatúnsee erweitert und vertieft und der Culebra Cut vertieft werden. Die alten Schleusen sollen weiterhin in Betrieb bleiben. Auf der atlantischen Seite wird eine weitere Straßenverbindung durch eine Schrägseilbrücke mit zwei Pylonen geschaffen, die Anfang 2015 eröffnet werden soll. Mit einer feierlichen Eröffnung am 3. September 2007, dem 30. Jahrestag des Abkommens über die Rückgabe der Kontrolle des Kanals von den USA an Panama, wurde der Ausbau begonnen. Im Beisein des früheren US-Präsidenten Jimmy Carter, zahlreicher lateinamerikanischer Staatschefs sowie rund 40.000 Schaulustiger ließ Präsident Martín Torrijos, der Sohn von Omar Torrijos, mehr als 13 Tonnen Sprengstoff explodieren. In der ersten Bauphase mussten rund 47 Millionen Kubikmeter Erde und Gestein abtransportiert werden. Der Erweiterungsbau soll bis 2015 abgeschlossen sein. Die Regierung rechnet mit 7.000 neuen Arbeitsplätzen und weiteren 35.000 indirekten Arbeitsplätzen. Baubeginn für die Postpanamax-großen Schleusen soll 2014 sein. Die neuen Schleusen wurden am 11. Juni 2015 geöffnet. Der Ausbau verzögerte sich durch Streiks und andauernden Streit über zusätzliche Kosten, wodurch die Fertigstellung nun voraussichtlich für 2016 geplant ist. Der finanzielle Aufwand ist schwer abzusehen. Kritiker beziffern ihn auf rund 8 Milliarden US-Dollar, was rund der Hälfte des jährlichen panamaischen Bruttoinlandsprodukts entspricht. Alberto Alemán Zubieta, der Chef der ACP, bezifferte die Ausbaukosten auf 5,24 Milliarden Dollar. Die Finanzierung soll durch vorgezogene höhere Kanalgebühren und Kredite sichergestellt werden. Die Kanal-Behörde rechnet bis 2025 mit Einkünften von 4,8 Milliarden Euro. Die Höhe der Kosten waren vor allem deshalb umstritten, weil unter anderem zugleich eine Kürzung der Renten diskutiert wurde. Durch die Verzögerung des Ausbaus wurden zusätzliche Kosten von 2,39 Milliarden US-Dollar angemeldet, wovon 227 Millionen Dollar genehmigt wurden. Gegen den Ausbau des Kanals wurden ökologische Bedenken ins Feld geführt. Der Wasserbedarf des vergrößerten Kanals mit eventuell vergrößerten Stauseen wäre größer und könnte einen erheblichen Eingriff in die Landschaft bedeuten. Diese befindet sich zwar nicht mehr in einem Naturzustand, sondern ist schon seit präkolumbischer Zeit und insbesondere infolge des Kanalbaus bis 1914 eine ausgeprägte Kulturlandschaft. Sie ist aber nicht zuletzt deswegen wichtiger ökologischer Lebensraum und auch wichtige Süßwasserquelle für die Stadt Panama. Die neuen Kanalschleusen sollen deshalb als Sparschleusen mit mehreren Kammern ausgeführt werden, um den Gesamtwasserbedarf zu minimieren. Angeblich sollen keine vergrößerten Wasserreservoirs nötig werden. Letzterem widersprach der US-Wissenschaftler und Ingenieur Bert G. Shelton in einem am 5. Januar 2011 veröffentlichten Artikel. Darin wies er darauf hin, dass mehrere Verfahren bekannt seien, die benötigten Wassermengen zu reduzieren, von denen nur zwei in das Projekt eingeflossen seien. Shelton gibt an, dass bei Anwendung weiterer Kriterien mit dem gleichen oder geringfügig höheren Kostenaufwand die Kapazität des Kanals erheblich erweitert und damit seine Rentabilität erhöht werden könnte, die Versalzung des Gatun-Sees verhindert, die Instandhaltungskosten verringert und der Bau zusätzlicher Vorhaltebecken vermieden werden könnte. Unter anderem kritisierte er den Bau eines Dammes über einer bekannten tektonischen Bruchlinie, der bei einem Bruch die wichtige Verbindung zwischen Atlantischem und Pazifischem Ozean gefährden und ein ökologisches Desaster auslösen könnte. Shelton äußerte die Vermutung, dass in erster Linie große finanzielle Interessen für das Festhalten an einem vorgefassten und in seiner Sicht mangelhaften Entwurf bei gleichzeitiger Fehlinformation der Öffentlichkeit verantwortlich seien. Vorgeschichte. 1513 überquerte – auf der Flucht vor dem Galgen und auf der Suche nach dem sagenumwobenen Perlen- und Goldland im Westen Südamerikas – der Spanier Vasco Núñez de Balboa mit einer Gruppe von Gefolgsleuten mit Booten als erster die Landenge. Die Idee einer Verbindung zwischen Atlantik und Pazifik durch einen Kanal in der mittelamerikanischen Provinz Darién wurde 1523 von Kaiser Karl V. angeregt. In seinem Auftrag suchte Hernando de la Serna 1527 nach einem geeigneten Weg für den Bau eines Kanals. Das erste Projekt wurde 1529 vom Spanier Alvarado de Saavedra Colon ausgearbeitet. In den folgenden Jahrhunderten beschäftigte sich eine Reihe von Politikern und Wissenschaftlern mit der Frage eines Kanalbaus. Anfang des 19. Jahrhunderts galt das insbesondere für Alexander von Humboldt, der von 1799 bis 1804 Lateinamerika erforschte. Johann Wolfgang von Goethe prophezeite 1827, dass es der „jugendliche Staat“ der USA sein werde, der einen Kanal bauen würde. Nach Goldfunden in Kalifornien wurde 1848 eine Lizenz für eine Eisenbahnverbindung vergeben. 1849–1853 nutzten Goldgräber eine Fluss-Land-Route durch das Isthmusgebiet von Panama. Erster Versuch des Kanalbaus. Historische Karte des Panamakanals und des Nicaragua-Kanals Nach dem finanziellen Erfolg des 1869 eröffneten Sueskanals in Ägypten wurde in Frankreich davon ausgegangen, dass ein Kanal, der Atlantik und Pazifik miteinander verbindet, ebenso einfach zu bauen wäre. Diese Gedanken nahmen Gestalt an, als 1876 in Paris die "Société Civile Internationale du Canal Interocéanique" geschaffen wurde, der 1879 durch französisches Gesetz die Panamakanal-Gesellschaft folgte, zu deren Präsidenten der 73-jährige Graf Ferdinand de Lesseps, der Erbauer des Sueskanals, ernannt wurde. Die Panamakanal-Gesellschaft übernahm eine 1878 von der Société Civile Internationale du Canal Interocéanique erworbene Konzession der kolumbianischen Regierung, die sogenannte Wyse-Konzession, und begann 1881 mit den Arbeiten, die bis 1889 andauerten. Gebaut werden sollte ein schleusenloser Kanal über den Isthmus von Panama mit einer Länge von 73 Kilometern. Der Aushub sollte 120 Millionen Kubikmeter nicht übersteigen. Eine Aktiengesellschaft, die "Compagnie Universelle du Canal Interocéanique", wurde zur Finanzierung gegründet und versprach genauso hohe Rentabilität wie die Sueskanal-Aktien. In der Bauzeit von 1881 bis 1889 starben bei dem Bau 22.000 Arbeiter (7,5 Menschenleben pro Tag) in der Sumpflandschaft an Gelbfieber und Malaria, deren Erreger noch unbekannt waren. Auf Anraten französischer Ärzte wurde 1883 beim Bau des Kanals angeordnet, zum Schutz vor Malaria die Pfosten der Betten der Arbeiter in Wassereimer zu stellen. Die Eimer wurden allerdings zu Brutstätten der Malariamücken, die Krankheit breitete sich rasend schnell aus, der Bau musste nicht zuletzt auch deshalb abgebrochen werden. Rund um die Baustelle standen Kreuze; Leichen wurden in Essigfässern nach Europa verschifft, damit nicht noch mehr Kreuze aufgestellt werden mussten. 287 Millionen US-Dollar wurden investiert. Während der Bauarbeiten emittierte die "Compagnie Universelle du Canal Interocéanique" mit großem publizistischen Aufwand wiederholt neue Schuldverschreibungen. Der ständig steigende Finanzbedarf konnte damit nicht befriedigt werden. Ähnlich wie beim Bau des Sueskanals sollte eine Lotterie das notwendige Kapital einbringen. In der französischen Nationalversammlung war die erforderliche gesetzliche Ermächtigung anfangs hoch umstritten. Die Widerstände überwand die "Compagnie Universelle du Canal Interocéanique" 1888 durch Bestechung in Form von Geldzahlungen an mehr als einhundert Abgeordnete. Eine objektive Berichterstattung über die technischen und finanziellen Unzulänglichkeiten des Projekts wurde durch Journalistenbestechung und Einflussnahme auf die Zeitungsverlage durch die "Compagnie Universelle du Canal Interocéanique" hintertrieben, Öffentlichkeit und Anleger wurden planmäßig und systematisch belogen. 1887 revidierte Ferdinand de Lesseps unter dem Druck der schlechten Finanzlage die Pläne und schloss mit dem Ingenieur Gustave Eiffel einen Vertrag ab, um einen Schleusenkanal bis 1890 herzustellen. Die Kosten für den Schleusenkanal wurden auf 1,6 Milliarden Goldfranken geschätzt. Wegen Planungsmängeln, falscher geologischer Untersuchungen, schlechter Organisation, Bestechung, unzähliger technischer Schwierigkeiten und Pannen gaben die Franzosen schließlich aus finanziellen und politischen Überlegungen auf und stellten die Arbeiten 1889 ein. Am 15. Dezember 1888 trat die Zahlungsunfähigkeit der "Compagnie Universelle du Canal Interocéanique" ein. Wegen des nichtkommerziellen Unternehmensgegenstandes der Gesellschaft, des Baus eines Kanals, wurde diese nach damaliger gesetzlicher Regelung als nichtkonkursfähige Gesellschaft behandelt, was ein vermögensauseinandersetzendes Konkursverfahren ausschloss. Der Zusammenbruch löste den Panamaskandal, einen der größten Finanzskandale des 19. Jahrhunderts in Frankreich, aus und zog heftige öffentliche Auseinandersetzungen und Politikerrücktritte nach sich. Zweite Bauphase und Fertigstellung. a>" am 2. Februar 1915, bis zu dem Tag das größte Passagierschiff, das den Kanal je durchquerte Das deutsche Tankschiff "Vistula" vor dem Culebra Cut, 1931 a>. In der Zwischenkriegszeit und während des Zweiten Weltkrieges wurden amerikanische Schlachtschiffe so gebaut, dass sie die Schleusen des Kanals noch passieren konnten. 1894 übernahm eine Auffanggesellschaft, die "Compagnie Nouvelle du Canal de Panama", die Fortführung der theoretischen Arbeiten und verkaufte 1902 den Gesamtkomplex für 40 Millionen US-Dollar an die USA, die etwa 40 % der bis dahin geleisteten praktischen Arbeiten verwenden konnten. Senator John Coit Spooner hatte Präsident Theodore Roosevelt überzeugt, dass nun die Gelegenheit gekommen war, beim im Panama steckengebliebenen Projekt einzusteigen. Mit dem 1902 verabschiedeten „Spooner Act“ machte der Kongress den Weg dafür frei. Die USA hatten sich bereits vorher mit verschiedenen Kanalprojekten einer Querung Mittelamerikas beschäftigt, waren jedoch bis dahin zu keinem praktikablen Ergebnis gelangt. Die Planungen des Panamakanals konkurrierten mit Planungen zum Nicaragua-Kanal. Dieser wurde jedoch nicht realisiert, da dessen Investoren den Panamakanal favorisierten. Kolumbien weigerte sich, es entstand der Panamakonflikt. Nach dem Ankauf der Wyse-Konzession verlangten die USA von Kolumbien die Abtretung des Panamakanalgebiets. Im November 1903 landeten US-Truppen, besetzten das Gebiet und riefen den unabhängigen Staat Panama aus. Die US-Regierung glaubte, so schneller den Bau des aus strategischen Gründen für absolut notwendig erachteten Kanals zu erreichen. Am 18. November 1903 vereinbarten der damalige US-Außenminister, John Hay, und ein ehemaliger Mitarbeiter von Ferdinand de Lesseps, der französische Ingenieur Philippe Bunau-Varilla einen Staatsvertrag – den sogenannten Hay-Bunau-Varilla-Vertrag, nach dem Ende der Ratifikation am 26. Februar 1904 in Washington verkündet und auf unbestimmte Zeit gültig – über die Nutzung einer Kanalzone in der Breite von zehn Meilen (16 Kilometern), jeweils fünf Meilen beiderseits der Kanaltrasse, ihre Besetzung und ihre unbeschränkte Kontrolle. Die USA kontrollierten damit eine Kanalzone in einer Größe von 84.000 Hektar. Sie mussten aber die territoriale Souveränität Panamas zusichern. Der Vertrag sah zudem die Zahlung von 10 Millionen US-Dollar vor sowie eine ab 1913 beginnende jährliche Zahlung von 250.000 US-Dollar in Gold. Am 6. Mai 1904 ernannte Präsident Roosevelt John Findley Wallace zum leitenden Ingenieur, der nach einem Jahr aufgab. Die Feldbahn konnte die anfallenden Erdmengen nicht abtransportieren. Außerdem wurde der Bau durch großen bürokratischen Aufwand – jede Entscheidung von Wallace musste durch die Isthmus-Kanal-Kommission (ICC) bestätigt werden – erschwert. Im April 1905 wurde der Kanalbau dem Ingenieur John Frank Stevens anvertraut. Er erkannte, dass die größten Schwierigkeiten die Krankheiten darstellten und er daher zuerst die Lebensumstände der Arbeiter verbessern musste. Mit seinem Einsatz erwarb er sich ihren Respekt, so dass er sich mit der Planung der Logistik und dem Aufbau der Organisation der eigentlichen Herausforderung stellen konnte. Als er damit fertig war, kündigte er überraschend und zum Unmut Roosevelts mit der Erklärung, er habe seinen Vertrag aufs Wort erfüllt. In diesem hieß es, er solle solange daran arbeiten, bis er selbst mit Sicherheit sagen könne, dass es gelingen oder scheitern wird. Die Gründe für seine Kündigung sind umstritten. Vermutet wird, dass er begriff, der beste Mann für die Planung, aber nicht für die Ausführung zu sein. Eine andere Anekdote besagt, er habe einfach den für ihn interessanten Teil und die eigentliche Herausforderung bewältigt, die Ausführung habe ihn nur noch gelangweilt. In einem Brief seines Nachfolgers an dessen Sohn wird davon gesprochen, Mr. Stevens habe den Bau so perfekt organisiert, dass es für ihn eigentlich nichts zu tun gäbe, außer die Organisation zu erhalten. Im April 1907 verließ Stevens den Kanal, und die Arbeit wurde von Generalmajor George Washington Goethals fortgesetzt, der besonders von US-Präsident Theodore Roosevelt unterstützt wurde. Roosevelt hatte ihn u. a. deshalb ausgesucht, weil er – anders als sein Vorgänger – als Militärangehöriger nicht kündigen konnte. Die Kosten des nun mit Schleusen und Stauseen erbauten Kanals beliefen sich auf 386 Millionen US-Dollar. Während der Bauarbeiten 1906–1914 starben 5.609 Arbeiter an Unfällen und Krankheiten (noch etwa 1,9 Todesfälle pro Tag). Insgesamt forderte der Bau somit circa 28.000 Menschenleben. Am 3. August 1914 passierte der Doppelschraubendampfer "Cristobal" als erstes Wasserfahrzeug den Panamakanal in voller Länge. Wegen des Ausbruchs des Ersten Weltkriegs wurden die Eröffnungsfeierlichkeiten abgesagt und erst 1920 nachgeholt. Am 12. Juli 1920 gab US-Präsident Woodrow Wilson die Wasserstraße offiziell für den Schiffsverkehr frei. Politische Probleme nach Fertigstellung des Kanals. Die Tatsache, dass die USA die Hoheit über den Kanal und die Panamakanalzone, einen Landstreifen entlang des Kanals, behielten, sorgte wiederholt für Spannungen zwischen der US-Regierung und Panama. 1935 und 1936 erfolgten die ersten Revisionen der entsprechenden Abkommen, die unter anderem eine Erhöhung der jährlichen Zahlungen der USA an Panama auf 430.000 US-Dollar und die Gewährung eines Landkorridors durch die Kanalzone an Panama vorsahen und den USA das Interventionsrecht absprachen. 1955 erfolgte eine weitere Revision, in der die Jahrespacht auf 1,93 Millionen US-Dollar erhöht wurde. Zudem gab es eine Erhöhung der Löhne der panamaischen Arbeiter der Panamakanalverwaltung. Panama erhielt auch das Recht, die in der Kanalzone tätigen Arbeiter mit Ausnahme der US-Bürger zu besteuern. 1960 gab US-Präsident Dwight D. Eisenhower auf Grund von Beschwerden der Regierung von Panama ein 9-Punkte-Programm bekannt, das insbesondere verbesserte Arbeits- und Wohnbedingungen in der Kanalzone und den Bau einer Wasserleitung zur Versorgung der Hauptstadt Panama-Stadt vorsah. Am 17. September 1960 gab US-Präsident Eisenhower bekannt, dass ab sofort die Flagge Panamas gemeinsam mit der der USA in der Kanalzone als Ausdruck der nominellen Souveränität Panamas über dieses Gebiet gehisst werden solle. Die erste Hissung der panamaischen Flagge fand am 21. September 1960 auf dem Shaler Triangle statt. 1964 kam es zu gewaltsamen Auseinandersetzungen zwischen Zivilisten und der US-Armee im Flaggenstreit zwischen den USA und Panama 1964. 1977 handelte US-Präsident Jimmy Carter mit General Omar Torrijos die Torrijos-Carter-Verträge aus, nach denen der Kanal bis zum Jahre 2000 an Panama zurückzugeben sei, was dann am 31. Dezember 1999 um 12 Uhr geschah. Seitdem wird der Kanal von der Panamakanal-Behörde (span. "Autoridad del Canal de Panamá – ACP") verwaltet. Die Behörde ist autonom, allerdings wird ihr Vorstand vom panamaischen Präsidenten ernannt. Am 15. Juli 2013 stoppte die Behörde ein Schiff, das – verborgen unter Zuckersäcken – zwei Container mit (vermutlich) Raketenausrüstung von Kuba nach Nordkorea transportieren sollte. Panamas Präsident Martinelli erklärte dazu: „Man kann nicht einfach undeklarierte Waffen durch den Panamakanal transportieren. Der Panamakanal ist ein Kanal des Friedens und nicht des Krieges“. Pläne zum Ersatz des Panamakanals durch einen anderen Mittelamerika-Kanal. Im Zusammenhang mit den Auseinandersetzungen um den Panamakanal 1964 wurden erneut Pläne diskutiert, Mittelamerika an einer anderen Stelle zu durchstechen, da einem Ausbau des Panamakanals Grenzen gesetzt waren und seine Verkehrskapazität Ende der 1960er Jahre erschöpft war. Erwogen wurden Durchstiche in Mexiko, Nicaragua/Costa Rica, Panama und Kolumbien. In allen Fällen sollte der neu zu bauende Kanal ohne Schleusen angelegt werden, da der Niveau-Unterschied zwischen Pazifik und Atlantik für minimal gehalten wurde. Alle unten kurz aufgeführten Projekte würden eine Bauzeit von fünf bis zehn Jahren erfordern und mehrere Milliarden US-Dollar an Baukosten verschlingen. Mexiko. Die Mexiko-Planung sah einen Durchstich am Isthmus von Tehuantepec von der Mündung des Flusses Coatzacoalcos am Atlantik entlang des Flusses zum Golf von Tehuantepec vor. Bei konventionellen Arbeitsmethoden sollte der Kanal 266 Kilometer lang sein und damit mehr als dreimal so lang wie der Panamakanal. Die USA erwogen zudem im Rahmen der Operation Plowshare Sprengungen mit Hilfe von Nuklearladungen, die dann eine Kanallänge von 241 Kilometer ergeben hätte. Nicaragua / Costa Rica. Schon Mitte des 16. Jahrhunderts hatten spanische Kolonialisten einen Kanal entlang des San-Juan-Flusses zwischen dem heutigen Nicaragua und Costa Rica im Süden angedacht. Der amerikanische Eisenbahnmagnat Cornelius Vanderbilt (1794–1877) verdiente einen Teil seines Vermögens durch den Goldrausch, indem er in den 1840er und 1850er Jahren Abenteurer und Goldsucher von der Ostküste Nordamerikas – via Nicaragua – nach Kalifornien brachte. Damals gab es noch keine Eisenbahnverbindung durch Nordamerika. Vanderbilt sicherte sich die Rechte für einen Kanalbau und eine Route durch Nicaragua für seine "Accessory Transit Company". Einen Kanal durch Nicaragua zu bauen erwog auch Napoleon III. Frankreichs letzter Kaiser (1852–1870). Seine Französische Intervention in Mexiko von Januar 1862 bis März 1867 endete mit einer Niederlage und der Hinrichtung des von den Franzosen 1864 als Kaiser von Mexiko eingesetzten Maximilian I. Der Durchstich durch Nicaragua war parallel zur Grenze mit Costa Rica projektiert und sollte den südlichen Teil des Sees von Nicaragua durchschneiden, die konventionelle Trasse hätte 270 Kilometer und eine Trasse mit Hilfe von Nuklearsprengungen 225 Kilometer betragen. Der Nicaragua-Kanal hätte aber die Grenze mit Costa Rica geschnitten und würde den Pazifik auch auf dem Gebiet von Costa Rica erreichen. Nicaragua will die Pläne mit einem Gesetz vom 3. Juli 2012 wiederbeleben. Dieses Gesetz überträgt einer "Hong Kong Nicaragua Canal Development Investment Co." (HKND) die Rechte für zunächst 50 Jahre (verlängerbar um weitere 50 Jahre) für den Bau und den Betrieb des Kanals. HKND bzw. seinem Besitzer, Investor Wang Jing, wird 49 % und Nicaragua 51 % der Anteile gehören. Im Sommer 2014 gab HKND die Streckenführung des El Gran Canal, von der Mündung des Río Punta Gorda an der Karibikküste zur Mündung des Río Brito auf der Pazifikseite, bekannt und verkündete, dass mit den Baumaßnahmen noch im Jahr 2014 begonnen werden soll. Der Kanal wird mit der geplanten Streckenführung eine Länge von 278 Kilometer sowie eine Breite zwischen 230 und 530 Metern haben. Kolumbien. Das Kanal-Projekt in Kolumbien sah einen Durchstich unter Nutzung der Flussbetten des Atrato und des Truando vor und sollte eine Länge von 153 Kilometer haben. Seit Anfang 2011 wird zwischen der Volksrepublik China und Kolumbien über den Bau einer Eisenbahnlinie als „trockener Konkurrenz“ zum Panamakanal verhandelt. Einzelnachweise. KPanamakanal Phidias. Phidias (Pheidias; * um 500/490 v. Chr. in Athen; † um 430/420 v. Chr.) war ein antiker Bildhauer und Toreut. Er gilt als einer der größten Bildhauer der Antike und als prominenter Vertreter der griechischen Hochklassik. Seine Arbeiten sind vollständig vernichtet worden und heute nur in Kopien greifbar. Die bekanntesten Werke sind die 12 Meter hohe Zeusstatue in Olympia, die zu den Sieben Weltwundern der Antike zählte, und die Athena Parthenos in Athen. Leben. Phidias wurde um 500/490 v. Chr. als Sohn des Charmides in Athen geboren (nicht zu verwechseln mit dem Athener Politiker Charmides). Über sein Leben ist sonst sehr wenig bekannt. Allein durch die Beschreibung seines Werkes kann ein ungefährer Schattenriss des Lebens sichtbar gemacht werden. Mit großer Wahrscheinlichkeit stand Phidias in engem persönlichen Kontakt zu den Radikaldemokraten, die 462/461 v. Chr. in Athen an die Macht gelangten und deren bekannteste Vertreter Ephialtes und Perikles waren. Zum letzten Lebensabschnitt gibt es zwei widersprüchliche Überlieferungsstränge. Gemäß der einen Überlieferung wurde Phidias, nachdem er die Statue des olympischen Zeus fertiggestellt hatte, von den Gegnern des Perikles angeklagt, Gold von der bereits zuvor geschaffenen Statue der Athena Parthenos gestohlen zu haben. Dieser Beschuldigung konnte er sich jedoch entziehen. Daraufhin warfen ihm Perikles’ Gegner Gotteslästerung vor, da er sich selbst sowie Perikles auf dem Schild der Athena Parthenos dargestellt hatte, und er wurde eingekerkert. Angeblich starb er kurz darauf an einer Vergiftung. Nach einer anderen Fassung konnte er nach Elis fliehen und schuf die Statue des olympischen Zeus erst nach Anklage und Flucht in der Verbannung. Das Todesdatum, selbst das Ende seiner Schaffenszeit gilt heutzutage allgemein als ungeklärt und wird eher um 420 v. Chr. als um 430 v. Chr. angenommen. Es gibt keinen gesicherten Grund, in der Statue des Zeus sein letztes Werk zu sehen. Athena in Pellene. Phidias erhielt eine erstklassige Ausbildung bei den Bildhauern Hegias und Ageladas von Argos, der auch Lehrer von Myron und Polyklet gewesen sein soll. Die Ausbildung umfasste nicht nur die Bildhauerei in Stein, sondern auch den Bronzehohlguss in verlorener Form. Aufbauend auf diese Verfahren entwickelte Phidias später die Kunst weiter, in seinen Bildwerken unterschiedliche Materialien wie Marmor, Bronze, Glasfluss, Gold und Elfenbein zu vereinigen. Das früheste Werk, mit dem Phidias sein Können unter Beweis stellte, war ein Athenastandbild aus Gold und Elfenbein für den Tempel in Pellene in der nördlichen Peloponnes. Es dürfte um 465 v. Chr. entstanden sein. Das Marathonweihegeschenk der Athener in Delphi. Phidias’ erstes großes Werk war eine Bronzegruppe, das aus dem traditionell den Göttern vorbehaltenen Zehnten aus der Schlacht bei Marathon (490 v. Chr.) finanziert wurde. Es umfasste die zehn Bronzestatuen der attischen Phylenheroen: Aias, Aigeus, Akamas, Antioches, Erechtheus, Hippothoon, Kekrops, Leos, Oineus und Pandion. Darüber hinaus waren vielleicht auch Athene als Schutzgöttin Athens und Apollon als Schutzgott Delphis dargestellt. Sie standen auf einer 16 m langen Basis vor dem Schatzhaus der Athener in Delphi. Die 10 Phylenheroen waren Ausdruck des Sieges der jungen Demokratie über alle inneren und äußeren Feinde. Gleichzeitig setzte man sich mit dem Monument unter Verweis auf die kleisthenischen Reformen bewusst von dem politischen System der Tyrannis ab. Weitere Heroen sowie ein Standbild des Miltiades, über die uns Pausanias unterrichtet, müssen als spätere, propagandistische Ausschmückung und Nutzung des Monumentes angesehen werden wie auch die Anfügung von drei ptolemäischen Königen, die sich im Hellenismus gerne als Phylenheroen in die Nähe des Marathonsieges rücken ließen. Wenn auch das Werk selbst verloren ist, so liefert uns seine Ausformung doch sehr wichtige Informationen bezüglich der Marathonschlacht. Als Weihgeschenk aus der Beute des Sieges sollen die Heroen gegossen worden sein. Damit wurde das Überleben der Demokratie gefeiert, mit der es im Falle eines persischen Sieges vorbei gewesen wäre. Unmittelbar nach der Schlacht kam Marathon also eine lokal auf Attika beschränkte Bedeutung zu. Wenn Herodot Athen im fortschreitenden 5. Jahrhundert v. Chr. als „Vorkämpfer der Griechen“ bezeichnet, greift er damit eine gezielt gestreute Propaganda auf, die so effizient war, dass sie bis heute wirksam ist. Das Phylenmonument des Phidias jedoch liefert uns den chronologisch ersten und entscheidenden Beweis, dass Marathon für Griechenland längst nicht die Bedeutung hatte, die ihm später zugemessen wurde. Athena Areia in Platää. Die etwa 3,50 m hohe Statue der Athena Areia stand im Tempel, den die Athener auf dem Schlachtfeld bei Plataiai zu Ehren des Sieges über die Perser errichtet hatten. Gewand und Waffen waren aus Gold, die nackten Hautpartien der Göttin aus Marmor. Das Standbild ist möglicherweise in römischen Kopien im Typus der Athena Medici überliefert. An der Basis befand sich das Bildnis des Arimnestos, der in den Schlachten von Marathon und Plataiai das Kontingent der Plataier befehligt hatte. Phidias’ Standbild war Zentrum eines Ensembles, zu dem die Maler Polygnotos und Onasias mit Wandgemälden beigetragen hatten. Auf Polygnots Gemälde war die Tötung der Freier durch Odysseus dargestellt, auf dem von Onasias der erste Feldzug der Sieben gegen Theben. Das bildliche Programm dieses Ensembles richtete sich vor allem gegen die inneren Feinde Athens. Athena, die Schutzgöttin der Stadt, usurpierte die Insignien des Ares, des Schutzgottes von Theben, das während der Perserkriege auf der Seite des Gegners gestanden hatte und ein Verbündeter Spartas war. Onasias’ Gemälde zeigte, wohin Bruderzwist führt, nämlich zum Untergang der Herrscher Thebens; Polygnotos verdeutlichte die Bestrafung jener, die göttliche Gesetze übertreten. Athena Promachos in Athen. Phidias begann wahrscheinlich um 460 v. Chr. an der neun Meter hohen Bronzestatue zu arbeiten; etwa um 450 v. Chr. dürfte das Werk vollendet gewesen sein. Es schmückte die Akropolis in Athen. Die 5 × 5 m große Basis für die Statue ist heute noch zu erkennen. Reste der Inschrift, die berichten, dass die Statue aus Beutegeldern finanziert wurde, sind erhalten. Die Athena Promachos ist sehr schlecht überliefert. Auf Münzbildern ist zu erkennen, dass sie den rechten Arm ausgestreckt hielt, auf dem Nike, die Siegesgöttin, stand. Gegen das linke Bein der Göttin lehnte ein Schild, gegen ihre linke Schulter die Lanze. Auf dem Schild war der Kampf der Griechen gegen die Kentauren dargestellt. Gearbeitet hatten ihn der Toreut Mys und der Maler Parrhasios. Nach den Perserkriegen verstand man den Kampf gegen die Kentauren als Metapher für den Kampf gegen die Perser. Athena Parthenos in Athen. Varvakion-Statuette, Athen (Nationalmuseum, Nachbildung der Athena Parthenos) In zahlreichen verkleinerten römischen Kopien ist die Athena Parthenos überliefert, die im Parthenon auf der Akropolis von Athen stand. Die Kolossalstatue war 11,5 m groß. Bei der Erschaffung der Athena Parthenos benutzte Phidias Elfenbein, und für die Kleidung, Sandalen und den Helm wurden ca. 1000 kg Gold verbraucht. In Nashville (Tennessee) steht eine maßstabsgetreue Nachbildung des Parthenon mitsamt der 13 m hohen Kolossalstatue der Athena Parthenos. Phidias und der Parthenon. Die Frage, inwieweit Phidias an der Planung und Ausführung des Skulpturenschmucks am Parthenon beteiligt war, hat in der früheren Phidias-Forschung eine große Rolle gespielt. Plutarch berichtet, Phidias habe aufgrund seiner Freundschaft mit Perikles die Leitung oder Aufsicht über alle Arbeiten auf der Akropolis innegehabt. Einige Forscher haben daraus abgeleitet, dass Phidias das Programm der Bilder entworfen habe, das dann – daran lässt die Forschung keinen Zweifel – von mehreren Meistern ausgeführt worden sei, Phidias in gewissem Sinne also der Schöpfer des Skulpturenschmucks sei. Heute ist die vorherrschende Meinung, dass Phidias eher eine Vermittlerfunktion zwischen den verschiedenen Bildhauern besaß. Da die Stadt Athen Auftraggeber des Parthenon war, wurden alle damit in Zusammenhang stehenden Fragen (auch die künstlerischen) der Volksversammlung vorgelegt, die auf demokratische Weise darüber befand. Man kann sich vorstellen, dass ein so hervorragender Künstler und einflussreicher Politiker wie Phidias ein von ihm entwickeltes Programm der Volksversammlung zur Entscheidung vorgelegt und sich damit durchgesetzt hat. Phidias war also nicht das große, alles überragende Genie, das nur seinem eigenen Gesetz gehorcht und in unüberwindlichem Gegensatz zu einer es kaum oder gar nicht verstehenden Volksmasse Kunst geschaffen habe, sondern eingebunden in Athens demokratische Strukturen; nicht das eigene Kunstgesetz war ihm oberstes Prinzip, sondern der Wille, Athen und dessen Demokratie zu dienen. Insofern muss man den Skulpturenschmuck am Parthenon als das Gemeinschaftswerk aller Athener ansehen. Athena Lemnia in Athen. Athena Lemnia (römische Kopie, Bologna) Die helmlose, überlebensgroße Statue der Athena Lemnia aus Bronze dürfte um 450 v. Chr. entstanden und auf der Akropolis in Athen aufgestellt worden sein. In der Inschrift wurden die Kleruchen der Insel Lemnos als Stifter genannt. Kleruchen waren Athener, die in die verbündeten Territorien entsandt wurden und dort Land erhielten und Athens Interessen wahrnahmen. Die Göttin ist nicht behelmt, also nicht bereit zum Kampf. Sie betrachtet den Helm, den sie in der rechten Hand hält, in ruhiger Haltung. Der Speer lehnt ihr jedoch gegen die linke Schulter; er verdeutlicht ihre Kampffähigkeit. Wohl wegen ihrer wenig kampfbegierigen Erscheinung galt die Statue in der Antike als Phidias’ schönste. Mit großer Wahrscheinlichkeit haben sich Kopien erhalten. Eine Rekonstruktion, die auf Adolf Furtwängler zurückgeht, ist in Dresden zu sehen. Die Zeusstatue von Olympia. Die 12 m hohe Statue im Zeustempel von Olympia ruhte auf einem inneren Gerüst aus Eisen, Gips und Holz, war außen mit Goldblech, Elfenbein und Ebenholz verkleidet und wurde in der sogenannten Chryselephantin-Technik errichtet. Dabei werden vor allem bei Götterbildern Gesicht, Hände und Füße der hölzernen oder marmornen Figuren mit Goldblech und Elfenbein verkleidet und mit Edelsteinen und gegossenem farbigem Glas verziert. Bei Ausgrabungsarbeiten in Olympia in der Nähe des Zeustempels fand man die Überreste der Werkstatt des Phidias und darin Materialreste, Werkzeug etc., außerdem einen Keramikbecher, in dessen Boden die Worte zu lesen waren: ("Pheidiou eimi" „des Pheidias [Eigentum] bin ich“). Amazone in Ephesos. Amazone, am linken Oberschenkel verwundet (Statuentypus Mattei, römische Kopie der ursprünglichen Bronzestatue) Antike Schriftsteller berichten über ein Amazonenmonument im Artemistempel in Ephesos. Phidias, Polyklet, Kresilas, Kydon und Phradmon fertigten je eine Amazonenstatue. Nach dem Stil der Bronzestatuen zu urteilen, dürfte das Monument um 430 v. Chr. errichtet worden sein. Die Statuen des Polyklet, des Phidias und des Kresilas sind in Kopien fassbar, die erhaltenen Statuentypen „Sosikles“, „Mattei“ und „Sciarra“ gehen auf den Wettbewerb zurück. Umstritten ist bis heute die Zuweisung der Amazonentypen an einzelne Künstler. Die Amazonen waren der Legende nach aus Osten kommend in Attika eingefallen und von den Griechen besiegt worden. Die Überlebenden hatten in Ephesos Zuflucht gefunden. Dort waren aus den „männermordenden“ Kriegerinnen Frauen geworden, die Ehen mit Griechen eingingen und hinfort ein häusliches Leben führten. Die Amazonen wurden von der damaligen Öffentlichkeit als Sinnbild der besiegten Eindringlinge verstanden. Sie standen für das Schicksal derer, die sich gegen Athen zu stellen wagten. Aphrodite Urania in Elis bei Olympia. Pausanias berichtet von einer Aphrodite Urania aus Gold und Elfenbein, die im Aphroditetempel in Elis aufgestellt war. Der linke Fuß der Statue ruhte auf einer kleinen Schildkröte. Ein römischer Marmortorso im Pergamonmuseum in Berlin (Inventarnummer Sk 1459) überliefert vielleicht die Statue. Stilistisch kann man das Werk den 430er Jahren zuordnen. Apollon Parnopios. Pausanias berichtet von einer Apollonstatue in Athen, die Phidias zugeschrieben werde (vergleiche 1, 24, 8). Die Statue hielt einen Bogen in der einen, eine Heuschrecke in der anderen Hand. Damit begründet wird der so genannte Kasseler Apollon, die besterhaltene Kopie in einer ganzen Reihe von Marmorkopien einer Bronzeskulptur, als Apollon Parnopios identifiziert und Phidias zugeordnet. Ein Bogen und Pfeil ist in Resten in einer Hand der Kassler Skulptur nachgewiesen. Procynosuchus. "Procynosuchus" (gr. „Vor-Hundekrokodil“) ist eine Gattung ursprünglicher Therapsiden innerhalb der Cynodontia. Fossilien dieses „säugetierähnlichen Reptils“ wurden im Mittel- und Oberperm (270 bis 251 mya) in Südafrika, Sambia und in der nordhessischen Korbacher Spalte („Korbacher Dackel“) gefunden. "Procynosuchus" war etwa 60 Zentimeter lang und wies im Gegensatz zu anderen Therapsiden Anpassungen an ein Leben im Wasser auf, insbesondere einen außergewöhnlich beweglichen Hinterkörper mit seitlich abgeplattetem Schwanz, der wahrscheinlich ein Schwimmen ähnlich dem von Krokodilen oder Ottern erlaubte. Es wird daher angenommen, dass "Procynosuchus" ähnlich wie diese Tiere semi-aquatisch lebte und sich von Fischen oder anderen Wassertieren ernährte. Postleitzahl. Eine Postleitzahl (Abk. "PLZ") ist eine Ziffern- oder Buchstaben-/Ziffern-Kombination innerhalb von Postadressen auf Briefen, Paketen oder Päckchen, die den Zustellort eingrenzt. Postleitzahlen in der Datenverarbeitung. Postleitzahlen sollten nicht als Zahlen angesehen werden, da mit ihnen nicht gerechnet wird, sondern als Zeichenketten, weil sie nicht nur aus Ziffern bestehen können. Im englischsprachigen Umfeld werden die Postleitzahlen korrekter als "Code" bezeichnet. Da Postleitzahlen bis zu zehn Stellen haben können (z. B. Vereinigte Staaten von Amerika: fünf Ziffern, Bindestrich, vier Ziffern), wird für die Speicherung von internationalen Adressen in EDV-Systemen eine Länge von zehn Zeichen für die Postleitzahl empfohlen. Postleitzahlen in der Privatwirtschaft. Obwohl Postleitzahlen originär als post-interne Zustellsystematik fungieren, haben sie in den allermeisten Ländern der Erde einen mindestens quasi-offiziellen Charakter. Denn nicht nur konkurrierende Zustellunternehmen bedienen sich desselben Systems, auch Unternehmen und Organisationen planen ihre räumlichen Aktivitäten mit Hilfe der Postleitzahl. Auf dieser Basis werden in der Privatwirtschaft beispielsweise Lieferzonen, Geschäftsstellenbereiche oder Außendienstgebiete abgegrenzt. Auch dienen sie manchmal der Marktforschung, wie z. B. zur Erhebung des Kunden-Einzugsgebietes eines Ladengeschäfts (z. B. Baumarkt) an der Kasse mit der Frage nach der Postleitzahl des Kundenwohnortes. Weitere Verwendungen von Postleitzahlen. Des weiteren dienen Postleitzahlen der örtlichen Zuordnung bei der Onlinesuche in Branchenverzeichnissen, bei Online-Tarifvergleichen von Strom- und Gaspreisen bei Preisvergleichsportalen und Anderen. Bei Kfz-Navigationssystemen verkürzt und erleichtert die Verwendung der Postleitzahl statt der namentlichen Ortseingabe die Handhabung meist beträchtlich. Internationale Postleitsysteme. Nachdem die Ukrainische SSR in den 1930er-Jahren für einige Jahre ein landesweites Postleitzahlensystem namens "Index" verwendete, führte das Deutsche Reich als erster Staat weltweit im Jahr 1941 die Postleitzahlen ein, danach folgten die Vereinigten Staaten (1963) sowie die Schweiz (1964) als drittes Land. Pranger. Der Pranger, Schandpfahl oder Kaak war ein Strafwerkzeug in Form einer Säule, eines Holzpfostens oder einer Plattform, an denen ein Bestrafter gefesselt und öffentlich vorgeführt wurde. Zunächst Folter-Werkzeug und Stätte der Prügelstrafe (Stäupen), erlangten Pranger ab dem 13. Jahrhundert weite Verbreitung zur Vollstreckung von Ehrenstrafen. Der Pranger diente den Städten auch als äußeres Zeichen der Gerichtsbarkeit. Strafe. Die Strafe bestand vor allem in der öffentlichen Schande, welche der Verurteilte zu erdulden hatte und die vielfach ein „normales“ Weiterleben in der Gemeinschaft unmöglich machte oder sehr erschwerte. Auch war der Bestrafte den Schmähungen der Passanten ausgesetzt, die für ihn nicht ungefährlich waren. Auch das Bewerfen der betroffenen Person mit Gegenständen und das Prügeln (niederdeutsch „kaakstreeken“, Streek = ‚Streich‘ und entsprechend dänisch „kagstryge“) waren üblich. In vielen Städten (z. B. Lübeck) war es jedoch untersagt, mit festen Gegenständen nach der Person im Pranger (hier als Kaak bezeichnet) zu werfen. "„… als es uns auffiel, dass sich vor der Hausvogtei eine neugierige Menschenschar unruhig vor etwas herumdrängte. Wir beschleunigten unsere Schritte und erblickten nun eine schon ziemlich bejahrte, korpulente Frau, mit den Händen rücklings an einen Pfahl gebunden, über dem zu lesen war: ‚Wegen Meineid‘. Man schrieb damals 1853. Es war also ein auf der Höhe der Reaktion gemachter Versuch, die mittelalterliche Strafe des Prangers wieder einzuführen. Als wir um zwölf Uhr auf dem Rückwege an derselben Stelle standen, war das uns Jungen natürlich sehr interessierende Schauspiel bereits von der Bildfläche verschwunden. Die Regierung hatte wohl eingesehen, dass sie nach 1848 so etwas den Berlinern nicht mehr bieten durfte.“" Block. Der Block als wohl verbreitetste Form des Prangers bestand in der Regel aus zwei parallel angeordneten Brettern, die durch ein Scharnier miteinander verbunden und am Ende eines starken Pfahles angebracht waren. In beiden Brettern waren Aussparungen für den Hals und, links und rechts davon, für die Handgelenke. Die geschlossenen Bretter fesselten nun den Straftäter um Hals und Hände. Derart ausgestattet wurde er dann auf öffentlichen Plätzen ausgestellt. Berühmte Fälle. Eine der prominentesten Personen am Pranger war der englische Schriftsteller Daniel Defoe, der 1703 in London für seine Satiren an den Pranger gestellt wurde. Sein Gedicht "Hymn to the Pillory" (engl. Pranger) sprach dem Publikum jedoch derart aus dem Herzen, dass es ihn mit Blumen bewarf, statt mit dem üblichen Fallobst und Steinen, und auf seine Gesundheit trank. „An den Pranger stellen“. Rubrik „Funk-Pranger“ in der Nazi-Zeitschrift „Der Deutsche Sender“, Heft 12, 1932 Im übertragenen Sinn bedeutet „An den Pranger stellen“, jemanden quasi-institutionell öffentlich bloßzustellen. Die Nationalsozialisten nutzten den Begriff zum Beispiel in ihrer hetzerischen Radioprogrammzeitschrift Der Deutsche Sender. Die Rubrik, in der sich die Redaktion kritisch mit vergangenen Hörfunksendungen auseinandersetzte, hieß „Funk-Pranger“. Heute. Trotz der modernen Ächtung des Prangers existieren ähnliche Formen der öffentlichen Vorführung nach wie vor: In den Medien werden tatsächliche oder vermeintliche Straftäter (oft mit Bild oder Angabe des Namens) zur Schau gestellt. In den USA werden inzwischen offiziell von Behördenseite Listen von Straftätern (z. B. Vergewaltigern) mit vollem Namen, Anschrift und Foto veröffentlicht. Im Rahmen des sogenannten „Creative Sentencing“ mehren sich vor allem in den Vereinigten Staaten alternative Schuldsprüche, die unter anderem auch das öffentliche Anprangern der Verurteilten vorsehen. Große mediale Aufmerksamkeit erhielt zudem ein Fall im US-Bundesstaat Ohio, bei dem eine Frau vom Gericht dazu verurteilt wurde, zweimal eine Stunde lang ein Schild mit der Aufschrift „Nur ein Idiot würde auf dem Gehsteig einen Schulbus überholen“ hochzuhalten.. Die Rechtsgrundlage von „Online-Prangern“, wie sie u. a. von Seiten des Bayerischen Landesamtes für Gesundheit und Lebensmittelsicherheit und des Landesamtes für Natur, Umwelt und Verbraucherschutz Nordrhein-Westfalen betrieben wurden, um Verstöße gegen das Lebensmittelrecht zu veröffentlichen, ist umstritten. Des Weiteren werden Pranger und artverwandte Konstrukte im Bereich des BDSM verwendet. Politisches Spektrum. Politische Parteien und Ideen werden häufig vereinfachend anhand der eindimensionalen Systematik des politischen Spektrums klassifiziert. Dabei werden sie auf einer Achse platziert, deren Enden mit den einprägsamen und in ihrer wörtlichen Bedeutung wertneutralen Attributen "links" und "rechts" bezeichnet werden, mit einer dazwischenliegenden "Mitte" oder dem "Zentrum". Dieses Rechts-links-Schema wird heute von den meisten politischen Parteien und auch von den meisten Medien angewandt, obwohl es bei differenzierteren Betrachtungen – insbesondere bei politischen Randthemen – versagt und diese Unzulänglichkeit auch allgemein anerkannt wird. Herkunft. Das Aufkommen der Unterscheidung „links“ – „rechts“ im Sinne politischer Richtungsbegriffe wird auf den Ursprung der Französischen Nationalversammlung in der verfassunggebenden Nationalversammlung von 1789 zurückgeführt. Dadurch blieb die Sitzordnung nicht länger das Spiegelbild festgefügter gesellschaftlicher Hierarchien wie in der Versammlung der feudalen Generalstände, sondern brachte bald die Dynamik politischer-ideologischer Auseinandersetzungen zum Ausdruck. Es entstand eine Auffächerung der politischen Orientierungen in der Nationalversammlung in ein Meinungsspektrum zwischen zwei Extremen: Die linke Seite „le côté gauche“ kennzeichnete eine revolutionäre, republikanische Stoßrichtung, während „le côté droit“ mehr zurückhaltende, der Monarchie freundlich gesinnte Vorstellungen vertrat. Bald wurden die räumlichen Adjektive „links“ und „rechts“ substantiviert und man sprach nun einfach von „la gauche“ und „la droite“. Innerhalb dieser Lager bildeten sich wiederum sehr rasch Flügelgruppen: „l’extrémité gauche“ und „l’extrémité droite“. Die mit der Verfassung von 1791 eingerichtete gesetzgebende Versammlung setzte sich dann bereits aus mehreren institutionalisierteren Gruppen zusammen, die allerdings nicht wie heutige Fraktionen parlamentarischer Parteien aufzufassen sind, sondern die Organisation der politischen Landschaft der französischen Revolution in Klubs abbildeten. Auch schwankte die Zahl der sympathisierenden Abgeordneten eines Klubs stark und eine knappe Hälfte der 745 Abgeordneten ordnete sich keinem der Klubs zu. Das Spektrum bewegte sich zwischen dem rechten, monarchistischen Klub der Feuillants und den linken Girondisten und Montagnards, zu denen sich vor allem der Klub der Jakobiner und Cordeliers zählten. Die sich allmählich ausbildenden Sprachkonventionen konnten sich jedoch aufgrund der turbulenten Entwicklung der Revolution nicht fest verwurzeln. Die Machtübernahme der Jakobiner hatte eine rigorose Beschneidung des als legitim geltenden politischen Spektrums zur Folge. Zu Beginn der Restaurationsphase wirkte die Erlahmung noch fort. Nach den Wirren der ersten hundert Tage erneuerte sich das politische Leben im Jahre 1814 rasch. Erst jetzt konnte sich die bereits im ersten Jahr der Großen Revolution entfaltete, an der parlamentarischen Sitzordnung anknüpfende Geographie revitalisieren. Dies geschah aber in etwas veränderten Formen: Zwischen die Lager der „Rechten“ und der „Linken“ trat eine auf Ausgleich setzende, gemäßigt-monarchisch orientierte Mitte („centre“). Man sprach nach wie vor von den „extrémités“, nun aber auch von „extrême gauche“ und „extrême droite“. Bereits vor 1820 gehörte das Kontinuum extrême droite - droite modérée - centre droite - centre gauche - gauche modérée - extrême gauche (Ultraroyalisten - gemäßigte Konservative - Liberale - Radikale/Demokraten - Sozialisten) zum festen politischen Sprachgebrauch. Von Frankreich aus breitete sich die Links-rechts-Unterscheidung in ganz Europa aus. In Deutschland konstituierte sich das Paulskirchenparlament von 1848 nach ihrem Muster. Hier saßen die republikanischen Abgeordneten, die einen sofortigen Sturz der damaligen Monarchie forderten, links und die Befürworter einer konstitutionellen Monarchie rechts. Typische Interpretationen. Der Gegensatz "links-rechts" steht im allgemeinen Verständnis stellvertretend für die nachfolgend beschriebenen Gegensätze. Egalitär – Elitär. Ausgehend vom Gleichheitspostulat (Egalité) der französischen Revolution sind egalitäre politische Ansätze zentral für das Selbstverständnis der „Linken“. Diese richtete sich gegen Benachteiligungen bestimmter Bevölkerungsgruppen. Dies betraf zunächst die materiell schlechter gestellten Schichten (Arbeiterklasse), wurde später aber auch auf religiöse oder ethnische Minderheiten, Frauen, ältere Menschen, Behinderte, Homosexuelle und andere Bevölkerungsgruppen angewandt. Der Kampf für politische und gesellschaftliche Gleichberechtigung galt den Linken als Teil eines fortschrittlichen Strebens nicht nur nach Gleichheit, sondern auch nach Freiheit. Daher ist der Begriff der Emanzipation als Bezeichnung für die Befreiung und Selbstbestimmung benachteiligter Gruppen für das Selbstverständnis linker Gruppen und Organisationen ein wichtiger Bezugspunkt. Die „Rechte“ rechtfertigt die Notwendigkeit einer mehr oder weniger stark ausgeprägten Ungleichheit. Die Gründe dafür werden entweder in der Natur des Menschen (Begabung, Befähigung) gesehen oder die Ungleichheit wird auf gesellschaftliche Nützlichkeitserwägungen (Leistungsanreiz) zurückgeführt. In diesem Zusammenhang wird die Herausbildung von Eliten befürwortet, aus denen sich das Führungspersonal gesellschaftlich bedeutsamer (politischer, kultureller, wissenschaftlicher und wirtschaftlicher) Einrichtungen rekrutiert. Dagegen gelten linke/egalitäre Konzepte als „Gleichmacherei“ und werden als Eingriffe in individuelle Freiheitsrechte und Entfaltungsmöglichkeiten oder in die hergebrachte Gesellschaftsordnung abgelehnt. Im demokratischen Rechtsstaat steht nach erfolgter politischer Gleichberechtigung die Verteilung gesellschaftlichen Reichtums im Zentrum der Auseinandersetzung über egalitäre bzw. antiegalitäre Ansätze. Differenzierungen beim Verdienst (Primärverteilung) werden mit unterschiedlicher „Begabung“ und „Leistung“ des Individuums begründet. Die Frage nach einer „angemessenen“ einkommensabhängigen Steuerbelastung (Sekundärverteilung) ist ein bedeutenderer Streitpunkt in der politischen Auseinandersetzung, da die Besteuerung im unmittelbaren Zugriff der Gesetzgebung liegt. Willkürliche Ungleichbehandlung (Diskriminierung) aufgrund von Sprache, Geschlecht, „Rasse“, Herkunft, Religion, politischer Anschauungen oder Behinderungen sind in demokratischen Rechtsstaaten geächtet. Umstritten ist jedoch, ob und in welchem Umfang der Staat Maßnahmen zum Ausgleich von Benachteiligungen ergreifen soll und inwiefern der Staat Diskriminierung im gesellschaftlichen Bereich entgegentreten soll. Dabei wird zwischen Gleichstellung und Gleichbehandlung unterschieden. So werden von Teilen der heutigen Linken zur Durchsetzung gesellschaftlicher Gleichstellung Maßnahmen gerechtfertigt, die als Ungleichbehandlung im Sinne einer Besserstellung gesellschaftlich benachteiligter Gruppen konzipiert sind („umgekehrte Diskriminierung“). Progressiv – Konservativ. In der Anfangszeit der westlichen Demokratien, insbesondere im 19. Jahrhundert, bemühten sich die Linken vor allem um die Verbesserung der Lebensbedingungen der unteren Schichten, insbesondere der Arbeiter, um die Durchsetzung der Menschenrechte und damit um eine kontinuierliche Erneuerung der Gesellschaft. Die Linke propagierte dies als gesellschaftlichen Fortschritt (Progressivität). Die Rechten traten hingegen für die Wahrung des Status quo in Bezug auf politische und ökonomische Verhältnisse ein und verwiesen auf „hergebrachte“ gesellschaftliche Normen, wodurch sie auch die Bezeichnung „konservativ“ („bewahrend“) erwarben. Mehrere Entwicklungen erschweren heute die Einteilung nach den Begriffen konservativ/progressiv: In den westlichen Demokratien nach 1945 haben auch eher rechts stehende Parteien eigenständige programmatische Fortschrittskonzepte entwickelt und eine eigene Politik der technischen wie auch gesellschaftlichen Modernisierung vertreten. Unterdessen ist es innerhalb und zwischen Organisationen mit linkem Selbstverständnis äußerst umstritten, welche Auffassungen und Maßnahmen als „progressiv“ anzusehen sind. Zudem entwickelte sich die Ideologiefigur der „Verteidigung fortschrittlicher Errungenschaften“, die als eine linke Variante konservativer Denkansätze angesehen werden kann. Internationalistisch – Nationalistisch. Der egalitären Grundidee entsprechend verfolgte die Linke lange Zeit einen internationalistischen Ansatz, begriff sich als weltweite Bewegung und organisierte sich international. Nach 1945 begriffen allerdings viele linke Gruppierungen ihre Aufgabe als „nationalen Befreiungskampf“ und stützten sich dabei auf antiimperialistische Ideologien. Zur Befriedigung patriotischer Emotionen in der Bevölkerung, zur Durchsetzung territorialer Machtansprüche oder als Ausdruck eines antiimperialistischen Weltbildes wurden auch von Regierungen mit linkem Selbstverständnis nationalistische Ansätze vertreten. Im Zusammenhang einer globalisierungskritischen Vorstellungswelt wird heute von Teilen der „Linken“ die Souveränität der Nationalstaaten als Voraussetzung für die Absicherungen sozialer Errungenschaften angesehen und gegen eine Internationalität des Kapitalismus gedanklich in Stellung gebracht. Bis in die Mitte des 20. Jahrhunderts verfolgte das rechte Lager eine nationalistische Politik und vertritt eine entsprechende Ideologie noch heute. Zugleich versteht sich das „bürgerliche Lager“ in Westeuropa – inklusive der Liberalen – aber als treibende Kraft der wirtschaftlichen Globalisierung und verweist auf seinen Beitrag zur europäischen Einigung. Weitere Gegensätze. Während die oben genannten Gegensätze zumindest ursprünglich auf das Links-rechts-Spektrum abgebildet werden konnten, ist dies bei weiteren Gegensätzen nicht oder nur im Einzelfall möglich. Dies ist auch die Basis für alternative Modelle. Ein typisches Beispiel hierfür ist der Gegensatz "Zentralistisch – Separatistisch". Bei einigen Staaten mit starken Autonomie-Bewegungen, z. B. Spanien, gibt es sowohl im linken als auch rechten Teil des politischen Spektrums zentralistische und separatistische Parteien. Einordnung der politischen Strömungen. Heutige demoskopische Untersuchungen zeigen, dass sich die Wähler der einzelnen parlamentarisch vertretenen Parteien in ihrem Selbstverständnis jeweils über weite Bereiche des politischen Spektrums verteilen. So sehen sich in einer 2007 von Emnid durchgeführten Umfrage bei den Wählern von Bündnis 90/Die Grünen 76 Prozent als „links“, bei denen der SPD 39 Prozent, bei denen der CDU 25 Prozent und bei denen der FDP 23 Prozent. Insgesamt sagten 34 Prozent der Bundesbürger, sie seien im politischen Spektrum „links“ zu verorten, 52 Prozent ordnen sich der „politischen Mitte“ zu und 11 Prozent der politischen Rechten. Konservatismus. Das „konservativ-bürgerliche Lager“ betont in der Selbstdarstellung meist den konservativen und seltener den elitären Aspekt der eigenen Politik. Gerade aus der Opposition heraus wird häufig mit egalitären Ideen geworben, zum Teil auch zur Abgrenzung zu liberalen Positionen. Der Begriff "rechts" für die eigene Position wird von den Konservativen vermieden, der Begriff "links" – wenn überhaupt – meist nur abwertend für politische Gegner benutzt. Ebenso wie im sozialdemokratischen und liberalen Lager wird von einigen konservativen Volksparteien zunehmend der Begriff „"Politische Mitte"“ proklamiert. Sozialdemokratie. Viele sozialdemokratische Parteien distanzieren sich zunehmend von der Klassifizierung als „"linke" Partei“, um eine breitere Akzeptanz zu erreichen. Im Godesberger Programm der deutschen SPD von 1959 wurde der Begriff "links" nicht explizit verwendet, im Berliner Programm heißt es lediglich rückblickend: „Die Sozialdemokratische Partei stellte sich in Godesberg als das dar, was sie seit langem war: die "linke" Volkspartei.“ Im Bundestagswahlkampf 1998 warb die SPD mit dem Schlagwort der „Neuen "Mitte"“. Im Oktober 2007 verabschiedeten Hamburger Programm definiert sie sich als „"linke" Volkspartei“. Im vorangegangenen "Bremer Entwurf" vom Januar 2007 wurde die SPD noch zusätzlich als „Partei der solidarischen "Mitte"“ definiert. Liberalismus. Der Liberalismus lässt sich anhand dieser Sichtweise kaum einer bestimmten politischen Orientierung im Rechts-links-Schema zuordnen, weil er einerseits sehr stark die rechtliche Gleichstellung propagiert, leistungsbedingte soziale Unterschiede jedoch als Anreiz für persönliches Engagement befürwortet. Eine Einordnung ist mittels Nolan-Diagramm möglich. Oftmals wird von den Liberalen dem Gegensatz elitär-egalitär der Gegensatz liberal-regulativ entgegengesetzt. Liberale streben sowohl in Bereichen des persönlichen als auch im Bereich des wirtschaftlichen Lebens nach der größtmöglichen Selbstbestimmung und Eigenverantwortung des Individuums. In Deutschland und anderen europäischen Staaten wird der parlamentarische Liberalismus aufgrund seiner Wirtschaftsnähe („Leistungsgerechtigkeit“) teilweise als politisch „rechts“ oder „bürgerlich“ eingestuft. In den Vereinigten Staaten wird „liberalism“ aufgrund der Betonung auf gesellschaftliche Gleichstellung und Individualrechte eher als politisch „links“ angesehen (vergleichbar mit der europäischen Sozialdemokratie), während Liberale nach europäischem Verständnis eher als „fiscal conservative“ oder „libertarian“ (vgl. Libertarian Party) bezeichnet werden. Sozialismus. Viele Europäische Sozialisten definieren sich mittlerweile direkt über das Attribut "links". Dies kommt am deutlichsten darin zum Ausdruck, dass sich viele Parteien direkt als Linkspartei bezeichnen. In Deutschland gab sich 2005 die Partei des Demokratischen Sozialismus den neuen Namen "Die Linkspartei.PDS", durch Fusion mit der WASG entstand daraus 2007 die Partei Die Linke. In Österreich wurde 2000 von Trotzkisten die Sozialistische Linkspartei gegründet, die neben der älteren, größeren und bei Wahlen erfolgreicheren KPÖ (Kommunistische Partei Österreichs) als weitere Partei links der Sozialdemokratie agiert. Im Zuge der Vorbereitungen zur Nationalratswahl 2008 konstituierte sich ein "Linksprojekt", das nach dem Vorbild der deutschen Linkspartei linke sozialdemokratische und gewerkschaftliche sowie weitere links der SPÖ stehende Kräfte vereinigen soll. Grüne. Die Grünen sind in den westlichen Ländern entstanden aus der Friedens- und Umweltbewegung und galten deshalb lange Zeit als links bzw. links-liberal. Allerdings hatte sich die grüne Partei in Deutschland zunächst mit rechten Strömungen in den eigenen Reihen (z. B. Herbert Gruhl) auseinanderzusetzen, schlug dann jedoch einen durch linke Strömungen (z. B. Ökosozialisten) beeinflussten Kurs ein. Mit den zunehmenden Regierungsbeteiligungen in den 1990er Jahren haben sie sich jedoch in einigen Ländern von radikal-pazifistischen Positionen verabschiedet und in Wirtschaftsfragen neoliberalen Konzepten angenähert, was diese Einstufung in Frage stellt. Zuletzt vollzogen sich bei der grünen Partei in Deutschland innerparteilich ein Prozess der Klärung von Positionen in wirtschafts- und sozialpolitischen Fragen, infolgedessen wirtschaftsliberale Kräfte (z. B. Oswald Metzger) die Partei verließen. Ökologische Positionen sind nicht notwendigerweise mit traditionell „linken“ Positionen verknüpft. So gelten zum Beispiel die Grünen in Lettland eher als konservativ, ebenso die ÖDP in Deutschland. Die Bürgerrechtler des Bündnis 90, welches 1993 mit den gesamtdeutschen Grünen fusionierte, sahen sich zwar eher „links“, grenzten sich aber radikal von der PDS ab. Einige Mitglieder vertraten sogar konservative Positionen, wie zum Beispiel Vera Lengsfeld und Günter Nooke, die sich später in der CDU organisierten. In der Schweiz grenzen sich die Grünliberalen von den Grünen durch eine liberale Wirtschaftspolitik und eine eher restriktive Finanz- und Sozialpolitik ab. Wertung der Randbereiche. Aufgrund der Vielzahl an Parteien erfolgt im deutschsprachigen Raum an den Enden des politischen Spektrums eine zusätzliche Abstufung mittels der Attribute "radikal" und "extrem", wobei Letzteres als weiter von der Mitte „entfernt“ betrachtet wird. Nach Seymour Martin Lipset und Earl Raab bedeutet Extremismus „Antipluralismus“ und die „Schließung des politischen Marktes“. Hiernach ist für Lipset auch ein Extremismus der Mitte denkbar. "Siehe auch:" Radikalismus, Extremismus, Rechtsextremismus, Linksradikalismus, Linksextremismus Alternative und ergänzende Attribute. Da das Modell des politischen Spektrums nur bedingt dazu geeignet ist, die Parteienlandschaft umfassend zu beschreiben, werden zusätzliche Attribute für die Einordnung herangezogen. Dabei werden die Parteien und Strömungen allgemein oder in Bezug auf ein bestimmtes Themenfeld Ideologien und politischen Konzepten zugeordnet. Starke Vereinfachung. Ein Hauptkritikpunkt ist die extreme Vereinfachung der politischen Landschaft durch die Projektion verschiedener programmatischer Unterschiede auf eine einzige Achse. Darüber hinaus wird kritisiert, dass der Begriff "Spektrum" eine Kontinuität suggeriert (wie z. B. bei den Farbschattierungen des Lichtspektrums), obwohl auch ideologisch „benachbarte“ politische Strömungen klare Bruchlinien aufweisen können und die einzelnen politisch-ideologischen Ausrichtungen keineswegs immer bruchlos ineinander übergehen. Korrelation zwischen Zielen und Methoden. Die Verwendung dieser Attribute stellt indirekt eine positive Korrelation zwischen der Radikalität von Ideen (d. h. wie sehr sie vom Status Quo abweichen) und der Vehemenz, mit der sie vertreten werden (latente oder offene Gewalt gegen Andersdenkende oder den Staat), her. Obwohl diese Korrelation naturgemäß in gewissem Maße gegeben ist (die Parteien der Mitte haben in der Regel die Unterstützung von Exekutive, Justiz und Medien und bedürfen selbst keiner extremen Maßnahmen), ist sie jedoch keineswegs zwingend. So gibt es moderate Gruppierungen mit radikalen Ideen und aggressive Verfechter allgemein akzeptierter Ansichten. Diesen Umstand versuchen linke und rechte Gruppierungen in jüngster Vergangenheit durch den Begriff "Mitt-Extremismus" (Extremismus der Mitte) zu verdeutlichen. Hufeisenschema. Ein alternativer, aber ebenfalls stark vereinfachender Ansatz besteht darin, die politische Landschaft nicht als horizontale Gerade, sondern als offenen Kreis („Hufeisenschema“) zu sehen. Durch diese Darstellung soll zum Ausdruck gebracht werden, dass sich die beiden Ränder in manchen Punkten näher sind, als es der Rand zur Mitte ist. Hierbei werden jedoch partielle Übereinstimmungen in den Methoden über grundsätzliche Unterschiede bei den Zielen sowie beim Welt- und Menschenbild gestellt. Politisches Wertedreieck. Der Vorteil dieses Modells liegt darin, dass man die Parteien innerhalb dieses Dreiecks genauer platzieren kann. Das "Extreme" ist hierbei nicht nur auf die drei Spitzen beschränkt, sondern auch auf den gesamten Rand der drei Dreiecksseiten. Politischer Kompass. Ein ähnliches Konzept ist der politische Kompass, der durch die Webseite "politicalcompass.org" populär geworden ist. Er besitzt ebenfalls zwei Achsen, nämlich "Links" – "Rechts" in Bezug auf die Wirtschaft und die Achse "Autoritär" – "Liberal", die sich auf das soziale Zusammenleben bezieht. Dabei steht "Links" für eine Kontrolle oder gar Steuerung der Wirtschaft durch den Staat oder internationale Instanzen, "Rechts" für Wirtschaftsliberalismus. "Autoritär" steht für den Autoritarismus, "Liberal" für Liberalismus, allerdings nur auf soziale und nicht auf ökonomische Fragen bezogen (d. h. ohne Wirtschaftsliberalismus). Der politische Kompass ordnet zum Beispiel den im politischen Spektrum als links eingeordneten Stalin als linken Autoritären (im Bild links oben), den rechts eingeordneten Hitler als Autoritären ohne einen besonderen Hang zu links/rechts (im Bild oben, in der Mitte) ein. Die tatsächlichen Parallelen zwischen Stalin und Hitler sind also nach Ansicht der Ersteller auch im politischen Kompass vorhanden. Ein weiterer Ansatz, politische Orientierungen zweidimensional über das Maß an ökonomischer und gesellschaftlicher Freiheit darzustellen, ist das Nolan-Diagramm. Politische Milieus. Statt der zweidimensionalen Polarisation eines politischen Spektrums bemüht sich die Erforschung von (politischen) Milieus um die Einteilung gesellschaftlicher Gruppen gemäß ähnlicher Werteorientierungen, Alltagseinstellungen und dem sozialen Status. Die bedeutendsten Studien zu (politischen) Milieus erstellt das Sinus-Institut (Sinus-Milieu). An die Stelle der Links-rechts-Achse tritt die Orientierung an traditionellen Werten (Ordnung, Pflichterfüllung), Modernisierung (Individualisierung, Selbstverwirklichung) sowie Neuorientierung (Experimentierfreude, Leben in Paradoxien). Obwohl manche Milieus ihrer Bezeichnung nach mit bestimmten politischen Einstellungen in Verbindung zu bringen sind (z. B. „Konservative“), zielt die Sinus-Milieukartierung nicht vorrangig auf die Abgrenzung von in ihren politischen Haltungen möglichst homogenen Gruppen. Deutscher Bundestag. Beim Deutschen Bundestag wird die Sitzordnung vom Ältestenrat auf der Basis von Vorschlägen der Bundestagsverwaltung festgelegt. Der Vor-Ältestenrat besteht aus dem noch amtierenden Bundestagspräsidenten und den parlamentarischen Geschäftsführern der Fraktionen des scheidenden Bundestages und Vertretern aller Fraktionen des neuen Bundestages. Bei der Sitzordnung orientiert man sich traditionell grob am politischen Spektrum. Die Linke – SPD – Die Grünen – CDU/CSU Die FDP wurde 1949 rechts von den Unionsparteien platziert, da sie damals allgemein als rechtsliberal galt. Später wollte keine der beiden Seiten tauschen. Bis 1983 bestand die SPD darauf, dass links von ihr keine Fraktion sitzen darf. Daher sitzt die Grünen-Fraktion rechts von ihr, obwohl sie in ihrer Anfangszeit als deutlich „linker“ betrachtet wurde. Beim Einzug der damaligen PDS 1990 bestand die SPD nicht weiter auf ihrem äußeren Platz. Nationalrat (Österreich). In Österreich hat die Sitzordnung des Parlamentes nichts mit der politischen Richtung der Parteien zu tun. SPÖ – Stronach – Neos – Grüne – FPÖ – ÖVP Nationalrat (Schweiz). Bei der Sitzordnung orientiert man sich seit 1995 grob am politischen Spektrum (zuvor orientierte man sich primär an den Sprachgruppen). Links befindet sich die SP – GPS vorn, CVP hinten – diverse Kleinparteien vorn, FDP.Die Liberalen hinten – und die SVP rechts. Planung. Planung beschreibt die menschliche Fähigkeit zur gedanklichen Vorwegnahme von Handlungsschritten, die zur Erreichung eines Zieles notwendig scheinen. Dabei entsteht ein Plan, gemeinhin als eine zeitlich geordnete Menge von Daten. Bei der Planung wird berücksichtigt, mit welchen Mitteln das Ziel erreicht werden kann, wie diese Mittel angewendet werden können, um das Ziel überhaupt zu erreichen (Vorgehensmodell), und wie man das Erreichte kontrollieren kann (Steuerung). Als Planungsergebnis erzeugen im Idealfall kurz-, mittel- oder langfristige Pläne Handlungssicherheit. Ein Plan hat in Bezug auf Management und Organisationen die Bedeutung einer zumindest in schriftliche Form (oder in die einer Zeichnung) gebrachten Vorstellung von den Modalitäten, wie ein erstrebenswertes Ziel erreicht werden kann. Die geistige und handwerkliche Tätigkeit zur Erstellung eines Plans wird Planung genannt. Planung ist die Phase bis zur Genehmigung eines Plans vor Beginn der Realisierung. Der Zweck von Planung besteht darin, über eine realistische Vorgehensweise zu verfügen, wie ein Ziel auf möglichst direktem Weg erreicht werden kann. Das "abstrakte Planen" ist eine kognitive Fähigkeit, die in der Allgemeinen Psychologie und der Kognitionswissenschaft untersucht wird. Planmäßiges Vorgehen zählt dort zu den Kriterien für Rationalität und Intelligenz. Bei der "konkreten Planung" wird zusätzlich auf externe Informations- und Erfahrungsquellen zurückgegriffen. In der Neuropsychologie wird darüber hinaus zunehmend versucht, individuelle Planungsleistungen durch psychologische Tests (z.B. die Turm von London-Aufgabe) objektiv zu erfassen. Eigenschaften. Die mitunter vielschichtigen Wirkungen der Planung lassen sich auf vier entscheidende Funktionen reduzieren. Validität. Die Gültigkeit einer Planung (Validität) kann nicht als gegeben und selbstverständlich angenommen werden. Eine Planung ist lediglich eine abstrakte Abbildung oder ein Modell der in aufeinanderfolgenden Schritten zu erwarteten Realität, die zudem im weiteren Zeitablauf noch zu gestalten ist. Daher gilt wie für alle Modelle, dass die Planung ein vereinfachendes Abbild der erwarteten künftigen Realität wiedergibt. Die zugrunde liegenden Vereinfachungen bergen die Gefahr, dass solches Modell entscheidende Merkmale nicht enthält und dann die Prüfung der Planung hinsichtlich der zu Fehleinschätzungen führt. Zudem kann der Planer in Unkenntnis der Prozesse bei der Abbildung in den Plan übersehen, dass es weitere gibt, die für die Umsetzung bedeutsam sind. Automatische Prüfverfahren können lediglich formale Fehler, wie Schleifen oder unmögliche Terminsetzungen erkennen. Eine weitergehende semantische Prüfung erfordert dagegen die Einbindung von Prozesskenntnissen, um Fehler zu erkennen. Aktualisierung. Jede Planung altert mit der Umsetzung. Ein besonderes Problem entsteht aus dem Erkenntnisfortschritt im Zuge der Umsetzung über die finanziellen, sozialen und technischen Einzelheiten. Dabei ist zu erwarten, dass sowohl mit dem Zeitablauf auf der Grundlage der formulierten Anforderungen (Spezifikationen) verändert eingeschätzt wird. Im Allgemeinen wird eine überarbeitete Planung ein Wachstum in allen diesen Merkmalen aufweisen. Es gehört eine gemeinsame Disziplin dazu, die unvermeidlichen und die wünschenswerten Änderungen zu trennen, um dem Plan weiter folgen zu können. Insgesamt muss die Planung durch fortlaufende Aktualisierung dem im Konsens angenommenen Änderungsbedarf folgen. Durchsetzung. Genauso, wie der Planer und die ausführenden Instanzen einen Erkenntnisfortschritt erlangen, wird auch von den Erstellern und von den Empfängern der geplanten Lieferung oder Leistung oder eines entstehenden Werkes eine stets zunehmende Vielzahl von Widrigkeiten erkannt. Um zu vermeiden, dass der Plan schließlich als nicht durchführbar erkannt wird, muss er in jedem Schritt gegen solche Widrigkeiten durchgesetzt (engl. enforcement) werden. Dazu dienen in der Regel Hilfsmittel, die frühe Zeichen besser wahrnehmen lassen. Solche Zeichen werden von den ausführenden Instanzen gegeben, es sind meist Die Durchsetzung einer Planung wird im Allgemeinen unter Aspekten der Steuerung behandelt. Es ist allerdings zu beachten, dass durch Feedback aus dem Prozess der Umsetzung eher eine Regelung im geschlossenen Kreis erforderlich ist. Planungsprozesse in der Stadtplanung und im Bauwesen. Das Planverfahren bezeichnet im Rahmen eines Planungsprozesses alle rechtlich normierten Planungs- und Entscheidungsabläufe. Für den Bereich der städtebaulichen Planung oder Stadtplanung werden die Verfahren zur Aufstellung, Änderung oder Aufhebung von Bebauungsplänen und Flächennutzungsplänen in Deutschland im Baugesetzbuch geregelt. In übergeordneten räumlichen Planungen wie der Raumordnung und der Landesplanung erfolgt dies ebenfalls in den einschlägigen Gesetzen der Länder. Auch Fachplanungen wie beispielsweise die Landschaftsplanung oder die überörtliche Verkehrsplanung haben gesetzlich geregelte Verfahrensschritte zur Aufstellung von Planwerken. Die Verfahrensschritte der Planfeststellung, mit denen Großprojekte wie Bundesstraßen oder Flughäfen geplant werden, sind im Verwaltungsverfahrensgesetz festgelegt. In der Regel enthalten förmliche Planverfahren Beschlüsse politischer Gremien zur Aufstellung und zur Feststellung der jeweiligen Pläne sowie Beteiligungen der Öffentlichkeit und fachlich relevanter Behörden bzw. anderer Träger öffentlicher Belange. Neben den rechtlich normierten Planverfahren existieren zahlreiche informelle Planungen. Im Bereich der Stadtplanung sind dies beispielsweise der Stadtentwicklungsplan, der Masterplan oder der städtebauliche Rahmenplan. "Planungsprozess" steht in der Stadtplanung als Oberbegriff für alle formellen und informellen Planungs- und Entscheidungsabläufe. Er vereinigt somit die rechtlich verbindliche Ebene mit ergänzenden, nicht vorgeschriebenen Planungen und Plänen. Er kam erst in den 1990er Jahren auf, als sich das Planungsverständnis zunehmend wandelte. Die Einbeziehung informeller Pläne, wie z. B. Stadtentwicklungspläne und informeller Verfahren, wie z. B. Citymanagement und Charrette-Verfahren, die rechtlich nicht vorgeschrieben und normiert sind, wurde als geeignetes Mittel angesehen, Planungen durchsichtiger und verständlicher zu machen. Die erhöhte Transparenz kommt Behörden und Bürgern gleichermaßen zugute. Eine Ergänzung der formellen Pläne erhöht zudem die Qualität einer Planung, da sie nicht mehr starr immer demselben Muster folgt, sondern Flexibilität erlangt. Beispiel einer gesetzlich normierten kommunalen Planung ist die Jugendhilfeplanung, in deren Rahmen die Träger der öffentlichen Jugendhilfe den Bestand an Einrichtungen und Diensten festzustellen, den Bedarf unter Berücksichtigung der Wünsche, Bedürfnisse und Interessen der jungen Menschen und der Personensorgeberechtigten für einen mittelfristigen Zeitraum zu ermitteln und die zur Befriedigung des Bedarfs notwendigen Vorhaben rechtzeitig und ausreichend zu planen haben. Dabei soll darauf hingewirkt werden, dass die Jugendhilfeplanung und andere örtliche und überörtliche Planungen aufeinander abgestimmt werden und die Planungen insgesamt den Bedürfnissen und Interessen junger Menschen und ihrer Familien Rechnung tragen. Die Bauleitplanung ist das wichtigste Planungsinstrumentarium zur Lenkung und Ordnung der städtebaulichen Entwicklung. Innerhalb der Bauleitplanung werden alle relevanten Belange im Rahmen einer Abwägung berücksichtigt (s. §§ 1 und 1a Baugesetzbuch). Ergänzend zum Städtebaurecht wirkt im planungsrechtlichen Außenbereich das Planungsinstrument der Landschaftsplanung. Im Bauwesen existiert der Begriff der Bauplanung, in der Architektur auch der Begriff des Entwerfens für Teilbereiche der Planung eines Architekten, deren Gesamtheit in Deutschland in Leistungsphasen nach HOAI gegliedert ist. Pflanzenwuchsform. Bei Pflanzen ist die Wuchsform die morphologische Ausgestaltung einer Pflanze in Bezug auf ihre Lebensdauer, auf die Dauer ihrer einzelnen Teile, ihre Verzweigung usw. Der Begriff überschneidet sich stark mit Lebensform und wird häufig synonym dazu verwendet. Nach einer anderen Definition (von W. Rauh) ist die Wuchsform das Organisationsprinzip, der Bauplan. Die Lebensform ist demnach die im konkreten Fall realisierte Form dessen, was im Lebensraum innerhalb der Bandbreite des Bauplans möglich ist. Beispielsweise werden unter der Zuchtform (Obstgehölze) die Ergebnisse, welche Gärtner für die Wuchsform "Obstbaum" erzielen, zusammengefasst. In der Literatur wird jedoch zwischen Lebensform und Wuchsform nicht unterschieden, beide Begriffe synonym verwendet, wobei im englischen Sprachraum "growth form" dominiert, im deutschen Lebensform. Für einen Überblick über die Wuchsformen, siehe Lebensform (Botanik). Für die Wuchsformen von Algen, siehe Organisationsstufe. Peano-Axiome. Die Peano-Axiome (auch Dedekind–Peano-Axiome oder Peano-Postulate) sind fünf Axiome, welche die natürlichen Zahlen und ihre Eigenschaften charakterisieren. Sie wurden 1889 vom italienischen Mathematiker Giuseppe Peano formuliert und dienen bis heute als Standardformalisierung der Arithmetik für metamathematische Untersuchungen. Während die ursprüngliche Version von Peano in Prädikatenlogik zweiter Stufe formalisiert werden kann, wird heute meist eine schwächere Variante in Prädikatenlogik erster Stufe verwendet, die als Peano-Arithmetik bezeichnet wird. Mit Ausnahme von Vertretern des Ultrafinitismus wird die Peano-Arithmetik in der Mathematik allgemein als korrekte und konsistente Charakterisierung der natürlichen Zahlen anerkannt. Andere Formalisierungen der natürlichen Zahlen, die mit der Peano-Arithmetik verwandt sind, sind die Robinson-Arithmetik und die Primitiv rekursive Arithmetik. Richard Dedekind bewies bereits 1888 den sogenannten Isomorphiesatz von Dedekind, dass alle Modelle der Peano-Arithmetik mit Induktionsaxiom zweiter Stufe isomorph zum Standardmodell formula_1 sind, d. h. dass die Struktur der natürlichen Zahlen so bis auf Benennung eindeutig charakterisiert wird. Dies gilt dagegen nicht für die erststufige Formalisierung, aus dem Satz von Löwenheim-Skolem folgt die Existenz von paarweise nicht isomorphen Modellen (u. a. Modellen jeder unendlichen Kardinalität), die die Peano-Axiome erfüllen. Ursprüngliche Formalisierung. Aus dieser Definition folgt mit der Additionsdefinition für den Nachfolger formula_21. Peano setzte als Rahmen eine Klassenlogik voraus. Sein Axiomensystem ist auch in der Mengenlehre interpretierbar oder auch in der Prädikatenlogik zweiter Stufe, da neben Zahlenvariablen im Induktionsaxiom auch die Mengenvariable formula_11 vorkommt. Formalisierung in der Prädikatenlogik erster Stufe. Für jede Formel formula_24 muss das entsprechende Induktionsaxiom hinzugefügt werden; die erststufige Version der Peano-Arithmetik enthält also eine unendliche Menge von Axiomen. Peroxide. Peroxide, veraltet auch Peroxyde geschrieben, sind eine chemische Stoffgruppe, die das Peroxidanion O22− beziehungsweise eine Peroxygruppe –O–O– enthalten. Im Gegensatz zum Oxidion, dem häufigsten Anion des Sauerstoffs, besitzen die Sauerstoffatome im Peroxidion die Oxidationsstufe −1. Die Gruppe peroxidischer Verbindungen kann zunächst grob in anorganische und organische Peroxide unterteilt werden, wobei die anorganischen oftmals salzartigen Charakter besitzen, die organischen hingegen kovalent gebundene Peroxygruppen tragen. Die Sauerstoff-Sauerstoff-Bindung von Peroxiden ist labil und neigt zur homolytischen Spaltung unter Bildung reaktiver Radikale. Aus diesem Grund sind Peroxide in der Natur nur in geringen Mengen anzutreffen, unter anderem im Wasser und der Erdatmosphäre sowie in geringen Mengen in pflanzlichen, tierischen und menschlichen Organismen. Industrielle Bedeutung erlangen Peroxide durch ihre Bleichwirkung gegenüber organischen Substanzen. So werden sie Waschmitteln beigemengt, unter anderem unter der Werbebezeichnung "Aktivsauerstoff", oder in Haarfärbeprodukten eingesetzt. Zu den weiteren Anwendungsbereichen gehören die chemische Industrie, in der Peroxide zur Synthese eingesetzt werden oder als Zwischenprodukte auftreten, sowie die Medizin. Wasserstoffperoxid ist mit einem jährlichen Produktionsvolumen von über 2.000.000 Tonnen die wirtschaftlich bedeutendste peroxidische Verbindung. Oft sind die Peroxide instabil, somit nicht lagerfähig und bisweilen gefährliche Substanzen. Deshalb werden sie oft vor Ort ("in situ") hergestellt und sogleich umgesetzt. Geschichte. Als wahrscheinlich erste synthetisch hergestellte Peroxoverbindung erhielt Alexander v. Humboldt im Jahre 1799 bei "Versuchen zur Zerlegung der Luft" Bariumperoxid. Erst 19 Jahre später erkannte Thénard, dass dieses Salz zur Herstellung einer bisher unbekannten Verbindung genutzt werden kann, die er als "oxidiertes Wasser" bezeichnete - heute als Wasserstoffperoxid bekannt. Im Jahre 1811 stellten Thénard und Gay-Lussac erstmals Natriumperoxid her. In anhaltenden Forschungsbemühungen der folgenden Jahrzehnten wurden Wasserstoffperoxid und seine Salze untersucht. Auf der Suche nach einer Verwendung wurde schon früh die bleichende Wirkung der Verbindung auf natürliche Farbstoffe erkannt. Ein industrieller Einsatz scheiterte jedoch zunächst daran, dass lediglich schwach konzentrierte und verunreinigte Bariumperoxidlösungen hergestellt werden konnten. Die erste industrielle Anlage zur Synthese von Wasserstoffperoxid entstand 1873 in Berlin. Erst nach der Entdeckung der Synthese von Wasserstoffperoxid durch Elektrolyse von Schwefelsäure konnten verbesserte Verfahren auf elektrochemischer Basis entwickelt werden. Die erste Fabrik, die nach diesem Verfahren arbeitete, wurde 1908 in Weißenstein in Kärnten errichtet. Das heute noch verwendete Anthrachinon-Verfahren wurde während der 1930er Jahre bei den I.G. Farben in Ludwigshafen entwickelt. Durch modernere Syntheseverfahren und die Erweiterung des Anwendungsgebiets stieg die Jahresproduktion von Wasserstoffperoxid stark von 35.000 t im Jahr 1950 über 100.000 t 1960 zu 300.000 t 1970 an. 1998 bestand eine weltweite Produktionskapazität von 2.700.000 t pro Jahr. In der Umwelt. Peroxide sind meist sehr reaktiv, weshalb es nur geringe natürliche Vorkommen gibt. Hierzu gehören neben Wasserstoffperoxid wenige pflanzliche Naturstoffe wie beispielsweise ein peroxidisches Derivat des Prostaglandins sowie Ascaridol. Wasserstoffperoxid tritt natürlich in Oberflächenwasser, Grundwasser sowie in der Erdatmosphäre auf. Die Bildung erfolgt hier durch die Einwirkung von Licht oder natürlichen katalytisch wirksamen Substanzen aus Wasser. In Meerwasser sind 0,5–14 μg/l, in Süßwasser 1–30 μg/l, in Luft 0,1–1 ppb enthalten. Es sind zwei peroxidhaltige Minerale bekannt, Studtit und Metastudtit. Es handelt sich um Uranylperoxide mit unterschiedlichen Mengen Kristallwasser in der Struktur. Das instabile Peroxid entsteht dabei bei der Radiolyse von Wasser durch die Alphastrahlung des Urans. Außer in natürlichen Uranlagerstätten bilden sich diese Verbindungen auch auf der Oberfläche von radioaktiven Abfällen und könnten daher in ihrer Stabilität für die Endlagerung von Uranabfällen von Bedeutung sein. In biochemischen Prozessen. Auch in menschlichen und tierischen Organismen wird Wasserstoffperoxid gebildet. Es tritt als kurzlebiges Produkt in biochemischen Prozessen auf und gehört zu den Zellgiften. Die Toxizität beruht auf Veränderungen von Proteinen, Membranlipiden und DNA durch oxidative Reaktionen der Peroxidionen. Das Enzym Superoxiddismutase, das der Beseitigung gebildeter Superoxidionen dient, produziert durch Disproportionierung Wasserstoffperoxid "in vivo". Diese wird dann durch das Enzym Katalase rasch zu Sauerstoff und Wasser zersetzt. Entstandenes Wasserstoffperoxid wird anschließend wiederum durch Katalase umgesetzt. Ein weiterer Entstehungsort von Wasserstoffperoxid ist der Abbau von Adenosinmonophosphat. In einer Abfolge biochemischer Reaktionen wird dieses zunächst zu Hypoxanthin umgesetzt. Dieses wird dann oxidativ zunächst zu Xanthin und anschließend zu Harnsäure katabolisiert. Diese Reaktion wird durch das Enzym Xanthinoxidase katalysiert und es entsteht ein Äquivalent Wasserstoffperoxid je Formelumsatz. Abbau von Hypoxanthin zu Harnsäure unter Bildung von Wasserstoffperoxid. XO = Xanthinoxidase Auch der Abbau von Guanosinmonophosphat läuft über Xanthin als Zwischenprodukt, welches dann auf gleichem Wege unter Bildung von Wasserstoffperoxid zu Harnsäure umgesetzt wird. In Eizellen von Seeigeln wird kurz nach der Befruchtung durch ein Spermium kurzzeitig Wasserstoffperoxid produziert. Dieses wird zu OH-Radikalen dissoziiert und dient als Initiator einer radikalischen Polymerisation, welche die Eizelle mit einer dichtenden polymeren Schutzschicht umgibt. Die Bombardierkäfer besitzen am Hinterleib einen Explosionsapparat, mit welchem sie zur eigenen Verteidigung ätzende und übelriechende Blasen auf Feinde zu schießen vermögen. Zum Hinausblasen einer Blase werden kurz zuvor Wasserstoffperoxid und Hydrochinon miteinander vermischt, die heftig miteinander reagieren und zum Abschuss des Chemikaliengemischs führen. Des Weiteren stellt Wasserstoffperoxid ein Signalmolekül bei der pflanzlichen Abwehr von Pathogenen dar. In Leuchtkäfern werden durch Oxidation von Luciferinen 1,2-Dioxetane gebildet. Diese Reaktion wird von Luciferasen katalysiert. Das entstandene Dioxetan ist labil und zerfällt spontan zu Kohlenstoffdioxid und einem angeregten Keton. Dieses relaxiert unter Abgabe eines Photons in den Grundzustand, wodurch das Leuchten dieser Spezies hervorgerufen wird. Abspaltung von CO2 aus einem Dioxetan, woraus ein angeregtes Keton entsteht, das durch Abgabe eines Photons in der Grundzustand relaxiert Bindung. Das Peroxidion ist aus zwei Sauerstoffatomen aufgebaut, welche über eine Einfachbindung miteinander verknüpft sind. Dies steht im Einklang mit dem MO-Diagramm des Peroxidions, das auf Grund der doppelt besetzten "antibindenden" π*-Molekülorbitale eine Bindungsordnung von 1 vorhersagt. Die Bindungslänge beträgt 149 pm und ist im Vergleich zum Sauerstoffmolekül (Triplett-Sauerstoff (3O2): 121 pm) durch die zunehmende Besetzung antibindender Orbitale verlängert. Dies drückt sich auch in der kleineren Kraftkonstante der Bindung (2,8 N/cm, 3O2: 11,4 N/cm) und der kleineren Frequenz der Molekülschwingung (770 cm−1, 3O2: 1555 cm−1) aus. Das Peroxidion ist im Vergleich zu den weiteren Sauerstoffmolekülionen (Hyperoxidion: O2− und Ozonidion O3−) sowie dem Sauerstoffmolekül als einziges kein Radikal und nicht paramagnetisch. Aufgrund der schwachen Bindung zwischen den Sauerstoffatomen kann leicht eine homolytische Spaltung induziert werden. Hierbei werden zwei radikalische Fragmente gebildet, die in den meisten Fällen eine hohe Reaktivität aufweisen. Auslöser für die Spaltung können sowohl Temperatur (Thermolyse) als auch Lichtwellen (Photolyse) oder chemische Reaktionen sein. Anorganische Peroxide. a> von Natriumperoxid Na2O2. Die Natriumionen sind lila, die Peroxidionen rot dargestellt. Die Gruppe der anorganischen Peroxide gliedert sich in die Klassen der ionischen Peroxidsalze und die der anorganischen Säureperoxide, die kovalent gebundene Peroxideinheiten tragen. Während von der ersten Klasse im Wesentlichen die Peroxide der Alkali- und Erdalkalimetalle von technischer Bedeutung sind, ist bei den kovalenten Wasserstoffperoxid der prominenteste Vertreter. Des Weiteren sind noch eine Reihe von Peroxiden von Mineralsäuren wie Carosche Säure und Perkohlensäure von Bedeutung. Im Gegensatz zum rein ionischen Charakter der Alkalimetallperoxide besitzen die Peroxide der Übergangsmetalle einen stärker kovalenten Charakter, was auf ihre höhere Elektronegativität zurückzuführen ist. Synthese ionischer Peroxide. Alkalimetallperoxide, mit Ausnahme von Lithiumperoxid, können direkt durch Oxidation der Elemente mit Sauerstoff unter Normaldruck dargestellt werden. Lithiumperoxid hingegen kann durch Umsetzung von Lithiumhydroxid mit Wasserstoffperoxid synthetisiert werden. Das historisch zur Wasserstoffperoxidherstellung genutzte Bariumperoxid kann durch Oxidation von Bariumoxid bei erhöhter Temperatur und erhöhtem Druck erhalten werden. Synthese kovalenter Peroxide. Die direkte Synthese von Wasserstoffperoxid aus den Elementen ist derzeit im industriellen Maßstab nicht möglich, da es nur in geringem Maße gebildet wird. Viele peroxidische Mineralsäuren lassen sich durch anodische Oxidation der zugrundeliegenden Säuren synthetisieren. So sind beispielsweise Peroxodisulfate und Percarbonate auf diesem Wege zugänglich. Peroxodischwefelsäure diente historisch zur Herstellung von Wasserstoffperoxid in einem zu Beginn des 20. Jahrhunderts entwickelten Verfahren. Die oxidativ erhaltene Peroxodischwefelsäure wurde hierbei durch Hydrolyse in Wasserstoffperoxid und Schwefelsäure überführt. Eigenschaften. Für die Reaktionen von Peroxidsalzen sind wenige Reaktionen allgemein formulierbar. Bei allen Peroxidsalzen tritt bei Versatz mit einem Überschuss verdünnter Säuren die Freisetzung von Wasserstoffperoxid auf. Die Reaktion mit Wasser, ebenso die Thermolyse des Salzes, führt zur Bildung naszierenden Sauerstoffs. Verwendung. Peroxide sind starke Oxidationsmittel und können zur Oxidation weiterer Verbindungen eingesetzt werden. Alkalimetallperoxide können zur Synthese organischer Peroxide verwendet werden. Ein Beispiel ist die Umsetzung von Natriumperoxid mit Benzoylchlorid zu Dibenzoylperoxid. Viele anorganische Peroxide finden Verwendung als Bleichmittel in der Textilindustrie sowie in der Papierindustrie. Durch die zunehmende Entwicklung umweltschonender Bleichverfahren ist die Verwendung peroxidhaltiger Verbindungen stark angestiegen und hat die älteren auf der Bleichwirkung chlorhaltiger Verbindungen basierende Herangehensweise in weiten Teilen verdrängt. Zu den Hauptanwendungsgebieten im Haushalt gehören der Einsatz in Waschmitteln. In der Vergangenheit wurden hierzu Perborate eingesetzt, welche auf Grund der ansteigenden Borkonzentrationen in der Umwelt weitgehend durch Percarbonate ersetzt wurden. Die Verwendung peroxidischer Verbindungen in Waschmitteln schlägt sich auch in deren Handelsbezeichnungen nieder. So setzt sich der Name des Waschmittels Persil aus den Worten "Per'"borat" und "Sil'"icat" zusammen. Durch Reaktion mit Kohlenstoffdioxid kann aus einigen peroxidischen Salzen Sauerstoff unter Bildung von Carbonatsalzen freigesetzt werden. Dies wird in Sauerstoffgeneratoren beispielsweise in Atemgeräten, U-Booten oder Raumkapseln ausgenutzt. Zur Generation von Sauerstoff wird hierbei das in der Atemluft unerwünschte Kohlenstoffdioxid, das als Stoffwechselprodukt in die Umgebung abgegeben wird, umgesetzt und benötigter Sauerstoff freigesetzt. In den meisten Fällen wird hierzu Natriumperoxid verwendet, in Raumkapseln jedoch Lithiumperoxid, da es eine geringere molare Masse besitzt und pro Gewichtseinheit verhältnismäßig ein größeres Volumen an Sauerstoff zu erzeugen vermag. Bariumperoxid wurde historisch zur Herstellung reinen Sauerstoffs aus Luft verwendet. Ausgenutzt wurde hierzu das temperaturabhängige Gleichgewicht zwischen Bariumoxid und -peroxid. Durch die Umsetzung von Bariumoxid mit Luft wurde zunächst bei 500 °C Bariumperoxid gebildet. Dieses setzt bei Temperaturen über 700 °C Sauerstoff unter Rückbildung von Bariumoxid frei. Organische Peroxide. Die Gruppe der organischen Peroxide teilt sich im Wesentlichen in zwei Verbindungsklassen auf, die Peroxycarbonsäuren und die "organischen Peroxide" beziehungsweise Hydroperoxide. Die erste Klasse leitet sich von den Carbonsäuren ab, die zweite formal von den Ethern beziehungsweise Alkoholen. Synthese von Peroxiden und Hydroperoxiden. Zur Synthese aliphatischer Peroxide sind mehrere Wege bekannt. So kann die Reaktion von Dialkylsulfaten mit alkalischer Wasserstoffperoxidlösung hierzu benutzt werden. Das Alkylsulfat tritt hierbei als Donor der Alkylgruppe auf und das Sulfation reagiert im Sinne einer Abgangsgruppe. Cyclische Peroxide hingegen können aus Alkylendisulfaten unter gleichen Bedingungen erhalten werden. Die viergliedrigen Dioxetane lassen sich durch 2+2-Cycloaddition von Sauerstoff an Alkene darstellen. Mechanismus der Bildung des Cumolhydroperoxids Die gezielte Synthese von Hydroperoxiden kann durch radikalische Oxidation von Alkanen mit Sauerstoff durchgeführt werden. Das durch einen Radikalstarter gebildete "Primärradikal" reagiert hierbei mit Sauerstoff zu einem Hydroperoxylradikal. Dieses ist ein wenig reaktives Radikal, das mit hoher Selektivität aktivierte Wasserstoffatome zu abstrahieren vermag, wobei das Hydroperoxid unter Bildung eines neuen Radikals freigesetzt wird. Diese Selektivität wird beispielsweise in der Hockschen Phenolsynthese großtechnisch ausgenutzt. Diese Reaktion läuft auch langsam durch Luftsauerstoff induziert bei Stoffen ab, die stabile Radikale bilden können. Beispiele hierfür sind die Autoxidation häufig eingesetzter Lösungsmitteln aus der Gruppe der Ether, wie beispielsweise Diethylether, Diisopropylether, Tetrahydrofuran oder 1,4-Dioxan. Hierbei entstehen explosive "Etherhydroperoxide", die beim Erhitzen oder Konzentrieren schwere Explosionen verursachen können. Synthese von Hydroperoxiden aus Alken und Singulett-Sauerstoff in einer En-Reaktion. Peroxide können in Organismen durch eine En-Reaktion oder Diels-Alder-Reaktion von Alkenen mit Sauerstoff gebildet werden. Als olefinische Substrate können hierbei ungesättigte Fettsäuren zur En-Reaktion oder ungesättigte Aminosäuren wie Histidin zur Diels-Alder-Cyclisierung dienen. Auch das Ranzigwerden von Fetten wird teils durch die Bildung von Peroxiden verursacht. Hierbei laufen Oxidationen mit Luftsauerstoff wie die En-Reaktion oder Radikalreaktionen ab und bilden neben Peroxiden auch Alkohole, Aldehyde und Carbonsäure. Die Verdorbenheit eines Fettes oder Öls kann somit anhand der Peroxidzahl bestimmt werden, welche die Menge an Peroxiden pro Kilogramm Substanz angibt. Synthese von Peroxycarbonsäuren. Einen weiteren Syntheseweg stellt die Verwendung von Carbonsäurechloriden anstelle der freien Carbonsäure dar. Dieser Weg wird vor allem bei aromatischen Carbonsäuren gewählt und im basischen Milieu durchgeführt, um den entstehenden Chlorwasserstoff zu neutralisieren. Eigenschaften. Peroxycarbonsäuren sind im Allgemeinen schwächere Säuren als die ihnen zu Grunde liegenden Carbonsäuren. Wie die meisten peroxidischen Verbindungen neigen sie in hoher Konzentration und bei höheren Temperaturen zu explosivem Verhalten. In Gegenwart oxidierbarer Verbindungen können sie als Oxidationsmittel fungieren. Verwendung. Organische Persäuren können zur Synthese von Epoxiden dienen. Dies geschieht in der Prileschajew-Reaktion. Die Baeyer-Villiger-Umlagerung zur Synthese von Lactonen aus cyclischen Ketonen stellt ein weiteres Anwendungsgebiet für organische Peroxide dar. In beiden Fällen eignen sich besonders elektronenarme Peroxycarbonsäure zur Durchführung der Reaktion. Eine häufig verwendete Persäure stellt "meta"-Chlorperbenzoesäure ("m"CPBA) dar. Mechanismus der Prileschajew-Reaktion.Mechanismus der Baeyer-Villiger-Oxidation Das Hydroperoxid "tert"-Butylhydroperoxid dient in der Sharpless-Epoxidierung zur enantioselektiven Synthese von Epoxiden, für welche unter anderem 2001 der Nobelpreis für Chemie an Barry Sharpless verliehen wurde, als Oxidationsmittel. Peressigsäure findet als Desinfektionsmittel im medizinischen Bereich und der Lebensmittelindustrie Anwendung. Es sind des Weiteren peroxidhaltige Lösungen zur Reinigung von Kontaktlinsen im Handel erhältlich. Sowohl im Labor- als auch im industriellen Einsatz wird Dibenzoylperoxid als Radikalstarter verwendet. Die schwache peroxidische Bindung kann leicht homolytisch gespalten werden und bildet somit reaktive Benzoylradikale. Diese können im großtechnischen Maßstab zur Polymerisation zu Kunststoffen wie Polyethylen eingesetzt werden. Von industrieller Bedeutung ist die Synthese des zur Kunststoffherstellung benötigten ε-Caprolactams. Hierzu wird ε-Caprolacton durch eine Baeyer-Villiger-Umlagerung von Cyclohexanon mit Peressigsäure gebildet, welches anschließend mit Ammoniak zum Lactam umgesetzt wird. Industrielle Kunstharze auf Basis von Acryl- und/oder Metacrylsäureestern werden ausnahmslos durch radikalische Polymerisation mit organischen Peroxiden bei erhöhten Temperaturen hergestellt. Durch geeignete Wahl von Temperatur und Typ des Peroxids lässt sich die Polymerisationsrate einstellen. Es konnten wenige peroxidische Wirkstoffe hergestellt werden. Zu ihnen gehören beispielsweise Artesunat und Artemisinin. Ihre Wirkungsweise basiert auf der Bildung von Radikalen an gewünschten Stellen im Organismus. Auf Grund der explosiven Wirkung vieler Peroxide wurden auch Initialsprengstoffe auf Peroxidbasis entwickelt und eingesetzt. Zu den bekanntesten hiervon zählen Acetonperoxid (APEX) und Hexamethylentriperoxiddiamin (HMTD). Nachweis. Zur qualitativen und quantitativen Bestimmung von Peroxiden sind viele Analysemethoden in der Literatur beschrieben. Als einfacher qualitativer Nachweis für Peroxide gilt die Iod-Stärke-Reaktion. Hierbei oxidieren anwesende Peroxide, Hydroperoxide oder Persäuren das zugesetzte Kaliumiodid zu Iod, welches in Anwesenheit von Stärke tiefblaue Einlagerungskomplexe bildet. Diese Methode eignet sich auch zur quantitativen Bestimmung, unterscheidet jedoch nicht zwischen den verschiedenen Arten peroxidischer Verbindungen. Zur Unterscheidung zwischen Peroxiden und Persäuren kann die Entfärbung einer Indigolösung untersucht werden, die bei Anwesenheit von Persäuren sofort eintritt. Die Blaufärbung, die bei Anwesenheit von Peroxiden mit Leuko-Methylenblau auftritt, ist hingegen spezifisch für Peroxide. Im Handel sind Iod-Stärke-Papiere erhältlich, die als schneller Indikator auf die Anwesenheit von Peroxiden verwendet werden können. Zur quantitativen Bestimmung von Hydroperoxiden eignet sich die potentiometrische Titration mit Lithiumaluminiumhydrid. Eine Möglichkeit, den Gehalt an Persäuren und Peroxiden quantitativ zu bestimmen, ist die volumetrische Titration mit Alkoholaten wie Natriumethanolat. Sicherheitsmaßnahmen. Die sichere industrielle Handhabung von Peroxiden erfordert umfangreiche Sicherheitsmaßnahmen. Organische Peroxide werden industriell in Zellenbauten hergestellt (Explosionsschutz). Der apparative Aufbau befindet sich meist in Betonzellen mit Folienfenstern zur Druckentlastung bei etwaiger Explosion. Weitere Sicherheitsmaßnahmen sind mit Wasser gefüllte Gräben vor den Produktionszellen, die mit der Reaktionslösung im Falle von thermischem Durchgehen geflutet werden können. Nach der Herstellung und Abfüllung in Kleingebinde müssen peroxidische Verbindungen zügig in gekühlte Lager verbracht werden. Ausführliche Unfallverhütungsvorschriften sind im Rahmen der berufsgenossenschaftlichen Vorschrift BGV 4 verankert. Philosophie der Mathematik. Die Philosophie der Mathematik ist ein Bereich der theoretischen Philosophie, der anstrebt, Voraussetzungen, Gegenstand, Methode und Natur der Mathematik zu verstehen und zu erklären. Ausgangspunkt. Systematisch grundlegend sind dabei Fragen nach Ausgangspunkt ist fast durchgehend die Auffassung, dass mathematische Sätze apodiktisch gewiss, zeitlos und exakt sind und ihre Richtigkeit weder von empirischen Ergebnissen noch von persönlichen Ansichten abhängt. Aufgabe ist es, die Bedingungen der Möglichkeit solcher Erkenntnis zu ermitteln, wie auch diesen Ausgangspunkt zu hinterfragen. Realismus, Platonismus. Eine unter Mathematikern verbreitete Position ist der Realismus, vertreten u. a. durch Kurt Gödel und Paul Erdős. Mathematische Gegenstände (Zahlen, geometrische Figuren, Strukturen) und Gesetze sind keine Konzepte, die im Kopf des Mathematikers entstehen, sondern es wird ihnen eine vom menschlichen Denken unabhängige Existenz zugesprochen. Mathematik wird folglich nicht erfunden, sondern entdeckt. Durch diese Auffassung wird dem objektiven, also interpersonellen Charakter der Mathematik entsprochen. Dieser ontologische Realismus ist unvereinbar mit allen Spielarten der materialistischen Philosophie. Die klassische Form des Realismus ist der Platonismus, dem zufolge die mathematischen Gegenstände und Sätze losgelöst von der materiellen Welt und unabhängig von Raum und Zeit existieren, zusammen mit den anderen Ideen wie dem „Guten“, dem „Schönen“, oder dem „Göttlichen“. Das Hauptproblem des Platonismus in der Philosophie der Mathematik ist die Frage, auf welche Weise wir als begrenzte Wesen die mathematischen Objekte und Wahrheiten erkennen können, wenn sie in diesem „Ideenhimmel“ beheimatet sind. Laut Gödel leistet dies eine mathematische Intuition, die, ähnlich einem Sinnesorgan, uns Menschen Teile dieser anderen Welt wahrnehmen lässt. Derartige rationale Intuitionen werden auch von den meisten Klassikern des Rationalismus und in jüngeren Debatten um Rechtfertigung oder Wissen a priori u. a. von Laurence Bonjour verteidigt. Aristoteles behandelt seine Philosophie der Mathematik in den Büchern XIII und XIV der "Metaphysik". Er kritisiert hier und vielerorts den Platonismus. Logizismus. Der Logizismus wurde unter anderem von Gottlob Frege, Bertrand Russell und Rudolf Carnap begründet. Nach dieser These lässt sich die Mathematik vollständig auf die formale Logik zurückführen und ist folglich auch als ein Teil der Logik zu verstehen. Logizisten vertreten die Ansicht, dass mathematische Erkenntnis a priori gültig ist. Mathematische Konzepte sind abgeleitet von logischen Konzepten, mathematische Sätze folgen direkt aus den Axiomen der reinen Logik. Gottlob Frege, der als einer der großen Denker des 20. Jahrhunderts gilt, führte in seinen "Grundgesetzen der Arithmetik" das Gesetzesgebäude des Zahlenrechnens auf logische Prinzipien zurück. Freges Konstruktion erwies sich aber noch vor seiner vollständigen Veröffentlichung als brüchig, nachdem Russell mit seiner berühmten Antinomie zeigte, dass Zirkelschlüsse und Widersprüche seinem auf formale Logik gegründeten mathematischen Gebäude das Fundament nahmen. Russell teilte dies Frege in einem Brief mit, worauf dieser in eine tiefe persönliche Krise geriet. Später konnten mit komplizierteren Axiomensystemen die Widersprüche vermieden werden, so dass die Mengenlehre und insbesondere die Theorie der Natürlichen Zahlen widerspruchslos begründet werden konnten. Kritisiert wird am Logizismus vor allem, dass er die Grundprobleme der Mathematik nicht löst, sondern lediglich auf Grundlagenprobleme der Logik schiebt und somit keine befriedigenden Antworten gibt. Formalismus, Deduktivismus. Der Formalismus versteht die Mathematik ähnlich einem Spiel, das auf einem gewissen Regelwerk beruht, mit dem Zeichenketten "(engl. strings)" manipuliert werden. Zum Beispiel wird in dem Spiel „Euklidische Geometrie“ der Satz des Pythagoras gewonnen, indem gewisse Zeichenfolgen (die "Axiome") mit gewissen Regeln (denen des logischen Schlussfolgerns) wie Bausteine zusammengefügt werden. Mathematische Aussagen verlieren damit den Charakter von Wahrheiten (etwa über geometrische Figuren oder Zahlen), sie sind letztlich gar keine Aussagen mehr „über irgendetwas“. Als "Deduktivismus" wird oft eine Variante des Formalismus bezeichnet, in der z. B. der Satz des Pythagoras keine absolute Wahrheit mehr darstellt, sondern nur eine "relative": Wenn man den Zeichenfolgen in einer Weise Bedeutungen zuweist, so dass die Axiome und die Schlussregeln wahr sind, dann muss man die Folgerungen, z. B. den Satz des Pythagoras, als wahr ansehen. So gesehen muss der Formalismus kein bedeutungsloses symbolisches Spiel bleiben. Der Mathematiker darf vielmehr hoffen, dass es eine Interpretation der Zeichenfolgen gibt, die ihm z. B. die Physik oder andere Naturwissenschaften vorgeben, so dass die Regeln zu wahren Aussagen führen. Ein deduktivistischer Mathematiker kann sich also sowohl von der Verantwortung für die Interpretationen als auch von den ontologischen Schwierigkeiten der Philosophen freihalten. David Hilbert gilt als bedeutender früher Vertreter des Formalismus. Er strebt einen konsistenten axiomatischen Aufbau der gesamten Mathematik an, wobei er wiederum die natürlichen Zahlen als Ausgangspunkt wählt, in der Annahme, damit ein vollständiges und widerspruchsloses System zu besitzen. Dieser Auffassung hat kurze Zeit später Kurt Gödel mit seinem Unvollständigkeitssatz den Boden entzogen. Damit war für jedes Axiomensystem, das die natürlichen Zahlen umfasst, bewiesen, dass es entweder unvollständig oder in sich widersprüchlich ist. Strukturalismus. Der Strukturalismus betrachtet die Mathematik in erster Linie als eine Wissenschaft, die sich mit allgemeinen Strukturen beschäftigt, d. h. mit den Relationen von Elementen innerhalb eines Systems. Um dies zu illustrieren, kann man als Beispiel-System etwa die Verwaltung eines Sportvereins betrachten. Die verschiedenen Ämter (etwa Vorstand, Kassenprüfer, Kassenwart usw.) lassen sich unterscheiden von den Personen, die diese Aufgaben übernehmen. Wenn man nur das Gerüst der Ämter betrachtet (und somit die konkreten Personen, die sie ausfüllen, weglässt), dann erhält man die allgemeine Struktur eines Vereins. Der Verein selbst mit den Personen, die die Ämter übernommen haben, exemplifiziert diese Struktur. Ebenso exemplifiziert jedes System, dessen Elemente einen eindeutigen Nachfolger haben, die Struktur der natürlichen Zahlen: Analoges gilt für andere mathematische Objekte. Da der Strukturalismus Objekte wie Zahlen nicht losgelöst von ihrer Gesamtheit oder Struktur betrachtet, sondern sie mehr als Plätze in einer Struktur sieht, weicht er der Frage nach der Existenz von mathematischen Objekten aus bzw. klärt sie als Kategorienfehler. So ist etwa die Zwei als natürliche Zahl nicht mehr losgelöst von der Struktur der natürlichen Zahlen zu betrachten, sondern ein Bezeichner für den zweiten Platz in der Struktur der natürlichen Zahlen: weder hat sie interne Eigenschaften noch eine eigene Struktur. Dementsprechend gibt es sowohl Varianten des Strukturalismus, die mathematische Objekte als existent annehmen, als auch solche, die ihre Existenz ablehnen. Probleme ergeben sich bei dieser Strömung insbesondere aus der Frage nach den Eigenschaften und dem Sein der Strukturen. Ähnlich wie im Universalienstreit handelt es sich bei Strukturen offenbar um etwas, das gleichzeitig vielen Systemen zukommen kann. So wird die Struktur einer Fußballmannschaft sicher von Tausenden Mannschaften exemplifiziert. Es stellt sich also die Frage, ob und wie Strukturen existieren, ob sie etwa unabhängig von Systemen existieren. Andere offene Fragen betreffen den Zugang zu Strukturen; wie können wir etwas über Strukturen lernen? Aktuelle Vertreter des Strukturalismus sind Stewart Shapiro, Michael Resnik und Geoffrey Hellman. Andere Theorien. Der von Luitzen Brouwer begründete Intuitionismus verneint die Existenz mathematischer Begriffe außerhalb des menschlichen Geistes, verwendet deshalb konstruktive Beweise und nicht solche, die Existenzaussagen ohne Angabe einer Konstruktion machen, weshalb in der verwendeten intuitionistischen formalen Logik der Satz vom ausgeschlossenen Dritten nicht verwendet wird. Eine Verallgemeinerung des Intuitionismus ist der Konstruktivismus. Der Konventionalismus wurde von Henri Poincaré entwickelt und teilweise von logischen Empiristen (Rudolf Carnap, Alfred Jules Ayer, Carl Hempel) weiterentwickelt. Ein anderes bedeutendes Thema ist die Rechtfertigung einer mathematischen Theorie. Da die Mathematik (anders als die Naturwissenschaften) nicht experimentell überprüft werden kann, sucht man nach Gründen, eine bestimmte mathematische Theorie für "richtig" zu halten (siehe auch Erkenntnistheorie). Von der Perspektive des Mathematikers ausgehend und zugleich auf die Erkenntniskritik Immanuel Kants zurückgreifend, ergibt sich die Frage nach der "kategorialen Verfassung" des Menschen, aus welcher sich die mathematischen Disziplinen ableiten lassen (vgl. Ernst Kleinert). Auch in populärwissenschaftlicher Literatur werden Fragen der Philosophie der Mathematik vorgestellt. So wird u. a. von John D. Barrow und Roger Penrose diskutiert, wieso die Mathematik überhaupt nützlich ist und warum sie so gut auf die Welt passt. Pneumologie. Die Pneumologie (auch Pneumonologie; griech. πνεύμων "pneumōn" „Lunge“) oder Pulmologie (auch Pulmonologie; lat. "pulmo" „Lunge“) ist ein Teilgebiet der Inneren Medizin, das sich mit Lungenerkrankungen beschäftigt. Die deutsche Bezeichnung lautet Lungenheilkunde. Die Pneumologie umfasst die Prophylaxe, Erkennung und konservative Behandlung der Krankheiten der Lunge, der Bronchien, des Mittelfells (Mediastinums) und der Pleura. Die Thoraxchirurgie als Teil der Chirurgie, die Bestrahlung von Lungentumoren als Teil der Strahlentherapie und die Chemotherapie von Lungentumoren als Teil der Onkologie gehören nicht direkt zur Pneumologie. Häufige Untersuchungsmethoden der Pneumologie. internistische Thorakoskopie (eine Spiegelung des Rippenfells) Pleura. Die Pleura (von griechisch πλευρά „Flanke“, „Rippe“), deutsch Brustfell, ist eine dünne seröse Haut in der Brusthöhle. Sie überzieht die Lungen und kleidet die Brusthöhle von innen aus. Gliederung. Als Lungenfell (fachsprachlich "Pleura visceralis" oder "Pleura pulmonalis") überzieht die Pleura die Lungen. Aufbau. Pleura besteht histologisch aus einschichtigem Plattenepithel, welches ontogenetisch vom Mesothel abstammt, und einer Lamina propria. Die beiden Blätter schlagen am Hilus der Lunge und am Ligamentum pulmonale ineinander um. Sie sind durch die Pleurahöhle ("Cavitas pleuralis") voneinander getrennt, einen dünnen, druckdichten Spalt, der mit seröser Flüssigkeit gefüllt ist. In der Pleurahöhle können sich Ergüsse sammeln oder Metastasen bilden. Die sensible Nervenversorgung des Brustfells übernehmen Äste des zehnten Hirnnerven, des Nervus vagus sowie des Nervus phrenicus (Pars mediastinalis und diaphragmatica) und der Interkostalnerven (Pars costalis). Das Lungenfell dagegen hat wahrscheinlich keine Schmerzempfindung. Funktion. Das Lungenfell ist eine gleitende Verschiebeschicht für die Lungenbewegungen. Sie ist ein unbedingt notwendiges, Sog-vermittelndes Medium für die Atmung: Durch relativen Unterdruck im Pleurazwischenraum und die kapillare Adhärenz der Pleurablätter müssen die Lungen beim Einatmen der aktiven Ausdehnung von Brustwandmuskeln und dem Zwerchfell folgen. Wird der relative Unterdruck zwischen beiden Pleurablättern aufgehoben (wie etwa durch einströmende Luft bei Stichverletzung), so folgt die Lunge dem sich ausdehnenden Brustkorb beim Einatmen nicht mehr, was schließlich zum Zusammenfallen des auf Entfaltung angewiesenen Lungenflügels führt (Pneumothorax). Passiva. Unter Passiva (Plural von "Passivum") versteht man die Summe des einem Unternehmen zur Verfügung gestellten Kapitals, das auf der rechten Seite einer Bilanz zu finden ist. Gegensatz sind die Aktiva. Allgemeines. Passiva (lat. "pati", „untätig sein“, „leiden“) stehen auf der Passivseite der Bilanz und stellen die Kapitalquellen eines Unternehmens dar. Bilanz- und gesellschaftsrechtlich ist also Kapital die Summe aller Passiva eines Unternehmens. Die Passivseite lässt erkennen, aus welchen Kapitalquellen die auf der Aktivseite der Bilanz stehenden Vermögenswerte finanziert wurden. Von Passivierung spricht man, wenn ein Bilanzposten auf der Passivseite verbucht wird. Dabei ist zu unterscheiden, ob die Passiva einer Passivierungspflicht, einem Passivierungswahlrecht oder einem Passivierungsverbot unterliegen. Grundsätzlich besteht Passivierungspflicht, also die gesetzlich vorgeschriebene Verpflichtung eines bilanzierenden Unternehmens, alle Eigenkapital- und Fremdkapitalposten in die Passivseite der Bilanz aufzunehmen. Ausnahmsweise bestehen Wahlrechte (für bestimmte Pensionsrückstellungen) und Passivierungsverbote (für alle nicht in HGB aufgezählten Rückstellungen). Die Buchhaltung führt die Endbestände der Passiv- und Aktivkonten zusammen, die Gegenüberstellung der Passiva mit den Aktiva zu einer kontenmäßigen Einheit heißt Bilanz. Hierin sind die Summen der Aktiva und der Passiva (Bilanzsumme) formal identisch, dies ist ein wesentliches Merkmal einer Bilanz. Der so gefasste Bilanzbegriff unterscheidet sich vom Kontobegriff nur darin, dass man beim Konto von Soll und Haben spricht. Dass Aktiva und Passiva summenmäßig identisch sind, liegt am systematischen Wertausgleich durch den Saldoposten des Erfolges. Daraus ergibt sich die Gleichung Die drei Bilanzprinzipien der Bilanzwahrheit, Bilanzklarheit und Bilanzkontinuität gelten sowohl für Aktiv- als auch Passivseite. Aus Gründen des Vorsichtsprinzips und des damit einhergehenden Gläubigerschutzes können bestimmte Teile der Passiva (insbesondere Rückstellungen) im Rahmen des Niederstwertprinzips überbewertet werden, Aktiva werden hingegen unterbewertet. Überbewertung bedeutet, dass den als Verbindlichkeiten anzusehenden Rückstellungen in den Grenzen der vernünftigen kaufmännischen Beurteilung ein höherer Rückzahlungsbetrag beigemessen werden kann, der der wahrscheinlichen Inanspruchnahme des Unternehmens durch einen Dritten entspricht. Unterteilung der Passiva. Der Begriff Passivseite ist ein bestimmter Rechtsbegriff, der im Gliederungsschema des Abs. 3 HGB erwähnt wird. Danach besteht die Passivseite auf der ersten Gliederungsebene abschließend aus Eigenkapital und Verbindlichkeiten, zu denen Rückstellungen, Verbindlichkeiten, Rechnungsabgrenzungsposten und passive latente Steuern gehören. Eigenkapital. Oftmals werden die Positionen IV. und V. auch zu einer Position mit der Bezeichnung "Bilanzgewinn/Bilanzverlust" zusammengefasst. Weitere Posten. Unter bestimmten Umständen kann oder muss die Passivseite um weitere Posten ergänzt werden. Neue Posten dürfen hinzugefügt werden, wenn ihr Inhalt nicht von einem vorgeschriebenen Posten abgedeckt wird. Gliederung und Bezeichnung bestimmter Posten der Bilanz sind zu ändern, wenn dies wegen Besonderheiten (der Kapitalgesellschaft) zur Aufstellung eines klaren und übersichtlichen Jahresabschlusses erforderlich ist (Abs. 5 und 6 HGB). Sonderposten mit Rücklagenanteil hatten sowohl Fremd- als auch Eigenkapitalcharakter und durften nur bis Dezember 2009 gebildet werden. Bilanzanalyse. Die Bilanzanalyse interessiert sich für die Zusammensetzung der Passiva, deren Verhältnis zu anderen Bilanzpositionen und ermittelt betriebswirtschaftliche Kennzahlen, die sich mit der vertikalen Kapitalstruktur der Passivseite befassen. Hierzu gehören Eigenkapitalquote und Fremdkapitalquote, während sich die horizontale Kapitalstruktur mit dem Verhältnis von Aktiv- zu Passivseite einer Bilanz im Rahmen der Anlagendeckung befasst. Die Eigen- und Fremdkapitalrentabilität spiegeln die Verzinsung des eingesetzten Eigen- oder Fremdkapitals wider, der Verschuldungsgrad macht Aussagen über das Verhältnis von Fremdkapital zum Cashflow. Ferner ist die Aufteilung des Fremdkapitals in kurzfristig und langfristig fällige Verpflichtungen von Bedeutung. Hierzu haben beispielsweise Kapitalgesellschaften entsprechende Angaben über die Fristigkeiten ihrer Verbindlichkeiten im Anhang zu machen (Satz 1 Nr. 1 HGB). Hierbei ist insbesondere relevant, ob das Unternehmen mit den vorhandenen oder kurzfristig verfügbaren liquiden Mitteln seinen kurzfristigen Verbindlichkeiten nachkommen kann. Konzernabschlüsse müssen daher u. a. eine Kapitalflussrechnung enthalten (Abs. 1 HGB). Volkswirtschaftliche Gesamtrechnung. In den Vermögensbilanzen der Volkswirtschaftlichen Gesamtrechnung bestehen die Passiva aus den Verbindlichkeiten. Die Aktiva saldieren sich mit den Passiva zum Reinvermögen. Liste bedeutender Psychologen. In der Wissenschaft der Psychologie anerkannte und wirklich bedeutende Psychologen und Psychologinnen mit Artikel in der deutschsprachigen Wikipedia werden hier aufgeführt. Bedeutung wird z.B. an der Begründung einer Schule oder Theorie mit namhaften Anhängern, dem Verfassen eines epochalen Werkes und/oder der Leitung eines innerhalb der Psychologie herausragenden Institutes festgemacht. Vorwiegend als Psychotherapeuten bekannte Personen sind in der Liste bedeutender Psychotherapeuten enthalten. A. Alfred Adler – Mary Ainsworth – Gustav Johannes von Allesch – Gordon Allport – Rudolf Arnheim – Wilhelm Karl Arnold – Elliot Aronson – Solomon Asch – John William Atkinson B. Robert Freed Bales – James Mark Baldwin – Michael Balint – Paul B. Baltes – Albert Bandura – Aaron T. Beck – Daryl Bem – Hans Bender – Friedrich Eduard Beneke – George Berkeley – Bruno Bettelheim – Alfred Binet – Niels Birbaumer – Ernst E. Boesch – Ernst Bornemann – John Bowlby – Elmar Brähler – Jürgen Bredenkamp – Franz Brentano – Urie Bronfenbrenner – Charlotte Bühler – Karl Bühler – Cyril Burt – David Buss C. Donald T. Campbell – James McKeen Cattell – Raymond Bernard Cattell – Ludwig Ferdinand Clauß – Ruth Cohn – Mihály Csíkszentmihályi D. Karl Duncker – Dietrich Dörner – Rudolf Dreikurs – Heinrich Düker E. Hermann Ebbinghaus – Daniil Borissowitsch Elkonin – Albert Ellis – Milton H. Erickson – Erik H. Erikson – Hans J. Eysenck F. Jochen Fahrenberg – Gustav Theodor Fechner – Leon Festinger – Peter Fiedler – Kurt W. Fischer – Peter Fonagy – Peter Frensch – Sigmund Freud – Erich Fromm – Erika Fromm G. Franz Josef Gall – Francis Galton – Howard Gardner – Eugene T. Gendlin – Eleanor J. Gibson – James J. Gibson – Gerd Gigerenzer – Daniel Goleman – Kurt Gottschaldt – Carl Friedrich Graumann – Klaus Grawe – Arno Gruen – Jürgen Guthke H. Winfried Hacker – Jay Haley – Harry F. Harlow – Judith Rich Harris – Donald O. Hebb – Heinz Heckhausen – Fritz Heider – Johannes Helm – Mary Henle – Johann Friedrich Herbart – Theo Herrmann – Richard Herrnstein – Peter R. Hofstätter – Klaus Holzkamp – Karen Horney – Oswald Huber – Clark L. Hull I. Martin Irle – Joachim Israel J. Marie Jahoda – William James – Pierre Janet – Arthur Janov – Julian Jaynes – Arthur Jensen – Philip Johnson-Laird – Ernest Jones – Carl Gustav Jung K. Gustav Kafka – Daniel Kahneman – Gaetano Kanizsa – Frederick Kanfer – Anitra Karsten – David Katz – Melanie Klein – Friedhart Klix – Kurt Koffka – Kurt Kohl – Wolfgang Köhler – Hans-Joachim Kornadt – Ernst Kretschmer – Oswald Kroh – Felix Krueger – Julius Kuhl – Oswald Külpe – Fritz Künkel L. Karl S. Lashley – Timothy Leary – Ursula Lehr – Alexej Nikolajewitsch Leontjew – Philipp Lersch – Erwin Levy – Kurt Lewin – Friedrich Liebling – Marsha M. Linehan – Elizabeth Loftus − Konrad Lorenz – Friedrich Lösel – Abraham S. Luchins – Elisabeth Lukas – Alexander R. Lurija M. Karl Marbe – Abraham Maslow – Richard Meili – Fabio Metelli – Wolfgang Metzger – Stanley Milgram – Alice Miller – George A. Miller – Walter Mischel – Jacob Levy Moreno – Georg Elias Müller – Hugo Münsterberg – Henry A. Murray – Cesare Musatti N. Ulrich Neisser O. Erhard Olbrich P. Kurt Pawlik – Iwan Pawlow – Fritz Perls – Meinrad Perrez – Franz Petermann – Hilarion Petzold – Jean Piaget – Steven Pinker – Karl H. Pribram – Wolfgang Prinz R. Josef Rattner – Edwin Rausch – Wilhelm Reich – Dirk Revenstorf – Carl Rogers – Hubert Rohracher – Marshall B. Rosenberg – Erwin Roth – Paul Rozin – Edgar Rubin S. Wilhelm Salber – Friedrich Sander – Virginia Satir – Lothar R. Schmidt – Reinhard Schmitz-Scherzer – Wolfgang Schneider – Heinz Schuler – Friedemann Schulz von Thun – Friedrich Schumann – Martin Seligman – Muzafer Sherif – Burrhus F. Skinner – Charles Spearman – Ursula Staudinger – William Stern – Robert J. Sternberg – Fritz Strack – J. Ridley Stroop – Carl Stumpf – James Sully T. Anne-Marie Tausch – Reinhard Tausch – Paul Tholey – Hans Thomae – Alexander Thomas – Edward Lee Thorndike – Louis Leon Thurstone – Edward Bradford Titchener – Edward C. Tolman – Amos Tversky U. Eberhard Ulich – Udo Undeutsch W. Hans-Jürgen Walter – Peter Wason – John B. Watson – Ernst Heinrich Weber – Karl E. Weick – Robert Weimar – Franz Emanuel Weinert – Albert Wellek – Max Wertheimer – Robert S. Woodworth – Wilhelm Wundt – Lew Semjonowitsch Wygotski Y. Irvin D. Yalom – Robert Yerkes Z. Robert Zajonc – Bluma Zeigarnik – Philip Zimbardo Literatur. Psychologen Paul Linebarger. Paul Myron Anthony Linebarger (* 11. Juli 1913 in Milwaukee, Wisconsin, USA; † 6. August 1966 in Baltimore) war ein US-amerikanischer Psychologe und Schriftsteller, der als Cordwainer Smith ein bekannter Science-Fiction-Schriftsteller wurde, aber auch unter den Pseudonymen Felix C. Forrest, Carmichael Smith und Anthony Bearden veröffentlichte. Leben. Linebarger war der Sohn eines pensionierten Richters und wuchs in Japan, China, Frankreich und Deutschland auf. Sein Taufpate war der chinesische Politiker Sun Yat-sen, der ihm den chinesischen Namen Lin-Bai Lo gab (‚Wald des strahlenden Glücks‘, von Linebarger selbst später in seinem Pseudonym “Felix C. Forrest” wiederverwendet). Er promovierte als Dreiundzwanzigjähriger an der Johns Hopkins University in Politikwissenschaft und arbeitete für den Geheimdienst der US-Armee. Im Zweiten Weltkrieg arbeitete er in der psychologischen Kriegführung in Chongqing, später war er Mitarbeiter des CIA, beriet die britischen Truppen in Malaya und die US-amerikanischen Streitkräfte in Korea. Dem Beraterstab des US-Präsidenten John F. Kennedy gehörte er als Asien-Experte an. Paul Linebarger war ein Experte in südostasiatischer Politik; er hat mit "Psychological Warfare" ein Buch geschrieben, das auch heute noch als Standardwerk der psychologischen Kriegsführung gilt. Linebarger benutzte das Pseudonym Cordwainer Smith für Science-Fiction-Arbeiten. Viele von Cordwainer Smiths' Werken sind im sog. Universum der „Instrumentalität der Menschheit“ angesiedelt: In einer fernen Zukunft hat die Menschheit das Weltall erobert, und sowohl die Erde als auch alle anderen von Menschen bewohnten Planeten werden von einer allumfassenden, wohlmeinenden Regierung, der „Instrumentalität“, regiert. Diese versucht zunächst in utilitaristischer Weise einen stabilen Frieden zu wahren, der durch Eugenik, Unterdrückung aller Leidenschaften und die Versklavung der "Untermenschen" (aus genmanipulierten Tieren gezüchteter Humanoiden, s.u.) erkauft ist. Erst mit der ausgerechnet von den "Untermenschen" ausgehenden "Wiederentdeckung des Menschen" findet die Instrumentalität zu dem neuen Ziel, die Gesellschaft zu ihren Wurzeln zurückzubringen, Unvollkommenheit nicht nur zuzulassen, sondern als substantielles Merkmal der Menschlichkeit zu würdigen und die alten Fehler wie Sklaverei oder Ausbeutung zu vermeiden. Die Erzählungen sind keiner klassischen Richtung der Science-Fiction zuzuordnen. Der in der christlichen Philosophie interessierte Leser kann viele Ideen und Themen wiedererkennen; gleichzeitig erinnert der Erzählstil an die chinesische Literatur. Einige der bekannteren „Erfindungen“ Cordwainer Smiths sind der Planet "Norstrilia", in dessen Halbwüsten gigantische (über 100 Tonnen schwere), mutierte Schafe ein Unsterblichkeitsserum liefern, der Strafplanet "Shayol", auf dem verurteilten Verbrechern ständig Organe nachwachsen, die für Transplantationen geerntet werden und die "Untermenschen", die in Wirklichkeit Tiere sind, deren Wachstum bei der Befruchtung so manipuliert wurde, dass die menschliche Gestalt annehmen. Diese zum Bedienen der Menschen gezogenen, rechtlosen Wesen kämpfen um ihre Menschenrechte. Peter Plichta. Peter Plichta (* 21. Oktober 1939 in Remscheid) ist ein deutscher Chemiker, Apotheker und Autor. Leben und Wirken. Peter Plichta studierte Chemie in Köln, legte 1966 seine Diplomprüfung ab und wurde 1970 mit einer Dissertation über Silane ("„Präparative und spektroskopische Untersuchungen zur Darstellung von Disilanyl- und Digermanylverbindungen und Germaniumwasserstoffen“") unter Franz Fehér am Institut für Anorganische Chemie der Universität Köln promoviert. 1977 erlangte er die Approbation als Apotheker. Zu Plichtas technischen Konzepten gehört ein Fluggerät, das in seiner Form einem Diskus ähnelt. Dieses Konzept soll nach Plichta das heute übliche Mehrstufenantriebs-Prinzip in der Raumfahrt ablösen, welches nur zur Beförderung sehr geringer Nutzlasten (etwa 4 Prozent bei Ariane 5) in der Lage ist. Seinem Buch "Benzin aus Sand" zufolge ist das „einstufige“ Erreichen der erdnahen Umlaufbahn möglich, weil der von Plichta entdeckte Treibstoff (siehe unten) nicht nur in Sauerstoff, sondern auch in Stickstoff brennt, und deshalb in der Erdatmosphäre kein Oxidationsmittel mitgeführt werden muss. Peter Plichta hat in mehreren Ländern Patente auf einige seiner Entwicklungen angemeldet, darunter in den USA. Sein Entwurf wird von der Fachwelt abgelehnt. Bis heute wurde kein ernstzunehmender Versuch einer Realisierung unternommen. In den 1970er-Jahren begann Plichta, sich mit der synthetischen Treibstoffgewinnung aus Silicium, insbesondere aus Sand, zu beschäftigen. Plichta gibt an, als erster stabile, längerkettige Silane synthetisiert zu haben. Trotz Plichtas Veröffentlichungstätigkeit zu diesem Thema (Hauptwerk: „Benzin aus Sand. Die Silan-Revolution“) blieben seine Forschungen bisher ohne nachhaltige Resonanz in der Fachwelt und bei Automobilherstellern. In einer der wenigen Rezensionen des Werks in einer Fachzeitschrift wird Plichtas Vorschlag der Silan-Revolution als "origineller Vorschlag" bezeichnet und die Frage gestellt, ob dieser "... belastbar oder gar seriös?“ sein könne. Das Buch informiere den Leser "... in einer eigenartigen Mischung aus Selbstbewusstsein, verkanntem Genie, Besserwisserei und Weinerlichkeit über selbstgewählte Höhepunkte…“ und folge in seinen Deutungen einer dem Rezensenten nicht zugänglichen Logik. Auch wenn nicht klar würde, was das Werk solle, gehe ein gewisser Reiz davon aus. Die Urknalltheorie lehnt Plichta ab. Er vertritt eine alternative Erklärung für die Bindung des Sauerstoffs ans Hämoglobin im Blut. Die Chemiker Jan C. A. Boeyens und Demetrius C. Levendis haben Plichta in ihrem Werk "Number Theory and the Periodicity of Matter" referenziert. Ebenso wie Plichta versuchen sie die moderne Quantenphysik durch elementare zahlentheoretische Überlegungen zu ersetzen, im Gegensatz zu Plichta stellen sie jedoch nicht die allgemeine Relativitätstheorie in Frage, in der der Raum nicht euklidisch ist, und sehen keine ausgezeichnete Rolle des Dezimalsystems ("The specification of common numbers in decimal notation is almost certainly a remnant of counting practice using a ten-finger base."). Peter Plichta trat seit 2011 mehrfach als Gesprächspartner beim "Alpenparlament.tv" sowie 2013 beim "Alpenparlament Kongress" auf. Pythagoreer. Als Pythagoreer (auch Pythagoräer) bezeichnet man im engeren Sinne die Angehörigen einer religiös-philosophischen, auch politisch aktiven Schule, die Pythagoras von Samos in den zwanziger Jahren des 6. Jahrhunderts v. Chr. in Unteritalien gründete und die nach seinem Tod noch einige Jahrzehnte fortbestand. Im weiteren Sinn sind damit alle gemeint, die seither Ideen des Pythagoras (oder ihm zugeschriebene Ideen) aufgegriffen und zu einem wesentlichen Bestandteil ihres Weltbildes gemacht haben. Wegen der verworrenen Quellenlage sind viele Einzelheiten der philosophischen Überzeugungen und politischen Ziele der Pythagoreer unklar, zahlreiche Fragen sind in der Forschung stark umstritten. Sicher ist, dass in einer Reihe von griechischen Städten Unteritaliens Gemeinschaften von Pythagoreern bestanden, die sich als soziale und politische Reformbewegung betrachteten und mit Berufung auf die Lehren des Schulgründers massiv in die Politik eingriffen. Dabei kam es zu schweren, gewaltsamen Auseinandersetzungen, die im 5. Jahrhundert v. Chr. mit wechselndem Erfolg ausgetragen wurden und schließlich mit Niederlagen der Pythagoreer endeten. In den meisten Städten wurden die Pythagoreer getötet oder vertrieben. Für die Pythagoreer charakteristisch ist die Überzeugung, dass der Kosmos eine nach bestimmten Zahlenverhältnissen aufgebaute harmonische Einheit bildet, deren einzelne Bestandteile ebenfalls harmonisch strukturiert sind oder, soweit es sich um menschliche Lebensverhältnisse handelt, harmonisch gestaltet werden sollten. Sie nahmen an, dass in allen Bereichen – in der Natur, im Staat, in der Familie und im einzelnen Menschen – dieselben zahlenmäßig ausdrückbaren Gesetzmäßigkeiten gelten, dass überall Ausgewogenheit und harmonischer Einklang anzustreben sind und dass die Kenntnis der maßgeblichen Zahlenverhältnisse eine weise, naturgemäße Lebensführung ermöglicht. Das Streben nach Eintracht beschränkten sie nicht auf die menschliche Gesellschaft, sondern dehnten es auf die Gesamtheit der Lebewesen aus, was sich in der Forderung nach Rücksichtnahme auf die Tierwelt zeigte. Forschungsprobleme. Von Pythagoras sind keine authentischen Schriften überliefert, nur einige ihm zugeschriebene Verse sind möglicherweise echt. Schon in der Antike gab es unterschiedliche Meinungen darüber, welche der als pythagoreisch geltenden Lehren tatsächlich auf ihn zurückgehen. Die Unterscheidung zwischen frühpythagoreischem und späterem Gedankengut gehört bis heute zu den schwierigsten und umstrittensten Fragen der antiken Philosophiegeschichte. In der Forschung ist sogar strittig, ob es sich bei der Lehre des Pythagoras tatsächlich um Philosophie und um wissenschaftliche Bestrebungen handelte oder um eine rein mythisch-religiöse Kosmologie. Zu diesen Schwierigkeiten trägt das frühe Einsetzen einer üppigen Legendenbildung bei. Die Schule des Pythagoras. Die politische Geschichte der Schule bis zu ihrem Untergang im 5. Jahrhundert v. Chr. ist in Umrissen bekannt. Hinsichtlich ihres Zwecks und ihrer Arbeitsweise und Organisation gehen die Meinungen der Historiker jedoch weit auseinander. Politische Geschichte der Schule. Pythagoras stammte von der griechischen Insel Samos. Er emigrierte zwischen 532 und 529 v. Chr in ein damals von Griechen besiedeltes Gebiet Unteritaliens, wo er sich zunächst in Kroton (heute Crotone in Kalabrien) niederließ. Dort gründete er die Schule, die von Anfang an neben den Studien auch politische Ziele verfolgte. Am Krieg zwischen Kroton und der ebenfalls griechischen Stadt Sybaris, der von Sybaris ausging und mit großer Brutalität ausgetragen wurde, nahmen die Pythagoreer aktiv teil. Der Befehlshaber des Heeres der Krotoniaten, der berühmte Athlet Milon, war Pythagoreer. 400px Nach dem Sieg über Sybaris, das erobert und geplündert wurde (510), wurden die Pythagoreer in heftige Auseinandersetzungen innerhalb der Bürgerschaft von Kroton verwickelt. Dabei ging es um die Verteilung des eroberten Landes und um eine Verfassungsänderung. Wegen dieser Unruhen verlegte Pythagoras seinen Wohnsitz nach Metapontion (heute Metaponto in der Basilikata). Dort setzte er seine Lehrtätigkeit fort, während in Kroton seine hart bedrängten Anhänger unterlagen und vorübergehend die Stadt verlassen mussten. Als Anführer der gegnerischen Partei trat ein vornehmer Bürger namens Kylon hervor (daher „kylonische Unruhen“), und auch ein Volksredner namens Ninon hetzte gegen die Pythagoreer. Berichte einzelner Quellen, wonach es damals bereits zu einer blutigen Verfolgung kam, beruhen aber anscheinend auf Verwechslung mit späteren Vorgängen. Da die Schule erhebliche Ausstrahlungskraft hatte, bildeten sich auch in anderen griechischen Städten Unteritaliens Pythagoreergemeinschaften, die wohl auch dort in die Politik eingriffen. Eine institutionalisierte Herrschaft der Pythagoreer hat es aber weder in Kroton noch in Metapontion oder anderswo gegeben, sondern nur eine mehr oder weniger erfolgreiche Einflussnahme auf den jeweiligen Rat der Stadt und auf die Bürgerversammlung. Mehrere Quellen berichten, dass der Pythagoreismus sich auch in der nichtgriechischen Bevölkerung verbreitete. Genannt werden u. a. die Stämme der Lukanier und Messapier. Pythagoras starb in den letzten Jahren des 6. Jahrhunderts oder im frühen 5. Jahrhundert. Nach seinem Tod setzten seine Schüler ihre Aktivitäten in den Städten fort. Es bestand nun aber wohl keine zentrale Lenkung der Schule mehr, denn Pythagoras hatte anscheinend keinen Nachfolger als allgemein anerkanntes Schuloberhaupt. Die Pythagoreer waren – gemäß ihrer insgesamt auf Harmonie und Stabilität ausgerichteten Weltanschauung – politisch konservativ. Dadurch wurden sie zu Verbündeten der traditionell in den Stadträten dominierenden Geschlechter. Sie stießen aber, wie das Beispiel Kylons zeigt, in den einflussreichen Familien auch auf Opposition. Ihre natürlichen Feinde waren überall die Agitatoren, die für einen Umsturz und für die Einführung der Demokratie eintraten und nur auf diesem Wege Macht erlangen konnten. Um die Mitte des 5. Jahrhunderts oder etwas später kamen in einer Reihe von Städten demokratisch gesinnte Volksredner an die Macht. Sie gingen, damaliger Sitte folgend, mit großer Härte gegen die Anhänger der unterlegenen Partei vor. Daher kam es zu blutigen Verfolgungen der Pythagoreer, die entweder getötet wurden oder aus den Städten fliehen mussten. Die politischen Wirren hielten anscheinend längere Zeit an. Dabei konnten die Pythagoreer sich zeitweilig wieder durchsetzen; schließlich unterlagen sie jedoch überall außer in Tarent, wo sie noch bis um die Mitte des 4. Jahrhunderts eine starke Stellung hatten. Viele von ihnen emigrierten nach Griechenland. Die Schule hörte als Organisation zu bestehen auf. Der Unterricht und sein Zweck. Die Pythagoreer zerfielen laut einigen Quellenberichten in zwei Gruppen oder Richtungen, die „Mathematiker“ und die „Akusmatiker“. „Mathematiker“ waren diejenigen, welche sich mit „Mathemata“ befassten, das heißt mit schriftlich festgehaltenen Lerngegenständen und Empirie (auch, aber nicht nur Mathematik im heutigen Wortsinn). Dies kann als eine frühe Form von mathematisch-naturwissenschaftlicher Forschung betrachtet werden. Akusmatiker wurden Pythagoreer genannt, die sich auf „Akusmata“ (Gehörtes) beriefen, also auf die nur mündlich mitgeteilten Lehren des Pythagoras; dabei ging es hauptsächlich um Verhaltensregeln und das religiöse Weltbild. Unklar ist, ob schon Pythagoras seine Schüler gemäß ihren Neigungen und Fähigkeiten in zwei Gruppen mit verschiedenen Aufgaben aufteilte oder die Abgrenzung zwischen den beiden Richtungen erst nach seinem Tod deutlich wurde. Jedenfalls kam es nach einem Bericht, den manche Forscher auf Aristoteles zurückführen, zu einem unbekannten Zeitpunkt nach dem Tod des Schulgründers zu einer Spaltung zwischen den zwei Richtungen. Dabei nahm jede von ihnen für sich in Anspruch, die authentische Tradition des Pythagoras fortzusetzen. Der völlig verschiedenartige Charakter dieser beiden Richtungen gibt bis heute Rätsel auf. So ist unklar, welche der beiden Gruppen älter, welche größer und welche für den Pythagoreismus wichtiger war, welche den Kern der Schule ausmachte und damit als fortgeschrittener und höherrangig galt. Darüber gehen die Ansichten in der Forschung weit auseinander. Manche Gelehrte (besonders Walter Burkert) meinen, dass zu Lebzeiten des Pythagoras alle Pythagoreer Akusmatiker waren und dass die griechische Wissenschaft außerhalb des Pythagoreismus entstanden ist. Demnach waren die „Mathematiker“ einzelne Pythagoreer, die sich erst nach dem Tod des Schulgründers mit wissenschaftlichen Anliegen zu befassen begannen; ihr Wirken fiel größtenteils in die Zeit nach dem Untergang der Schule. Diese „Mathematiker“ waren aber diejenigen Repräsentanten des Pythagoreismus, mit denen sich Platon im 4. Jahrhundert auseinandersetzte. Sie prägten das später (und bis heute) in der Öffentlichkeit vorherrschende, nach Burkerts Ansicht falsche Bild vom anfänglichen Pythagoreismus, indem sie ihn als eine Pflanzstätte wissenschaftlicher Forschung erscheinen ließen. Hinzu kam, dass schon die Schüler Platons und des Aristoteles platonische Gedanken für pythagoreisch hielten. In Wirklichkeit war die Schule nach Burkerts Deutung ein Bund mit religiösen und politischen Zielen, der seine esoterischen Lehren geheim hielt und kein Interesse an Wissenschaft hatte. Burkert vergleicht die Pythagoreergemeinschaft mit den Mysterienkulten. Der Hauptvertreter der gegenteiligen Auffassung ist gegenwärtig Leonid Zhmud. Sie besagt, es habe weder eine Geheimlehre der frühen Pythagoreer noch eine für alle verbindliche religiöse Doktrin gegeben. Die Schule sei eine „Hetairie“ gewesen, ein lockerer Zusammenschluss autonom forschender Personen. Diese hätten sich gemeinschaftlich – aber ohne Fixierung auf vorgegebene Dogmen – ihren wissenschaftlichen und philosophischen Studien gewidmet. Außerdem seien sie durch bestimmte politische Ziele verbunden gewesen. Die Berichte über die Akusmatiker seien späte Erfindungen. Die Akusmata – ursprünglich „Symbola“ genannt – seien nur Sprüche und nicht konkrete, verbindliche Regeln für den Alltag gewesen. Sie seien zwar sehr alt, wie auch Burkert meint, aber großenteils nicht pythagoreischen Ursprungs. Vielmehr seien es teils Weisheitssprüche unbestimmter Herkunft, teils handle es sich um uralten Volksaberglauben, der in Pythagoreerkreisen in symbolischem Sinn umgedeutet wurde. Burkert bemerkt: „Die modernen Kontroversen um Pythagoras und den Pythagoreismus sind im Grunde nur die Fortsetzung des alten Streits zwischen ‚Akusmatikern‘ und ‚Mathematikern‘.“ Andere Gelehrte wie B. L. van der Waerden vertreten eine Mittelposition. Sie weisen weder der einen noch der anderen Gruppe die Priorität und alleinige Authentizität zu, sondern meinen, die Unterscheidung zwischen Mathematikern und Akusmatikern gehe auf unterschiedliche Bestrebungen zurück, die schon zu Pythagoras’ Lebzeiten in der Schule bestanden. Nach dem Tod des Schulgründers habe sich daraus ein Gegensatz entwickelt, der zur Spaltung der Schule führte. Späte Quellen schildern die Pythagoreer – gemeint sind offenbar Akusmatiker – als eine verschworene Gemeinschaft von Jüngern, die ihren Meister als göttliches oder jedenfalls übermenschliches Wesen verehrten und blind an seine Unfehlbarkeit glaubten. Dieser Glaube soll dazu geführt haben, dass sie jede Frage durch Berufung auf eine (angebliche) mündliche Äußerung des Pythagoras entschieden. Allein der „Autoritätsbeweis“ durch die Versicherung „Er selbst [Pythagoras] hat es gesagt“ habe bei ihnen gegolten. In diesen Zusammenhang gehören auch Berichte, wonach Pythagoras Bewerber, die in seine Schule eintreten wollten, zunächst physiognomisch prüfte und ihnen dann eine lange (nach manchen Angaben fünfjährige) Schweigezeit auferlegte, nach deren erfolgreicher Absolvierung sie in die Gemeinschaft aufgenommen wurden. Pythagoreer der Frühzeit. Der prominenteste unter den forschenden Pythagoreern der Frühzeit war der Mathematiker und Musiktheoretiker Hippasos von Metapont. Er soll Klangexperimente durchgeführt haben, um das Verhältnis der Konsonanzen zu messbaren physikalischen Größen zu bestimmen. Bekannt ist er vor allem durch die früher herrschende Ansicht, er habe eine „Grundlagenkrise“ des Pythagoreismus ausgelöst, indem er die Inkommensurabilität entdeckte und damit die Behauptung widerlegte, alle Phänomene seien als Erscheinungsformen ganzzahliger Zahlverhältnisse erklärbar. Angeblich schlossen die Pythagoreer Hippasos daraufhin aus und betrachteten seinen Tod durch Ertrinken im Meer als göttliche Strafe für den „Geheimnisverrat“. Die Entdeckung der Inkommensurabilität mag eine historische Tatsache sein, aber die Vermutung, dies habe zu einer Grundlagenkrise geführt, wird in der neueren Forschung abgelehnt. In der Frühzeit sollen auch Frauen in der Bewegung aktiv gewesen sein. Insbesondere wird in den Quellen oft der Name von Pythagoras’ Gattin Theano genannt. Ihr wurden später zahlreiche Aussprüche und Schriften zugeschrieben, die vor allem von Tugend und Frömmigkeit handelten, sowie sieben Briefe, die erhalten sind. Der Philosoph Parmenides soll Schüler eines Pythagoreers namens Ameinias gewesen sein; pythagoreischer Einfluss auf ihn wird von der heutigen Forschung angenommen, das Ausmaß ist aber unklar. Der Philosoph Empedokles, der Pythagoras bewunderte, war zwar kein Pythagoreer im engeren Sinne, stand aber der pythagoreischen Gedankenwelt sehr nahe. Lehren und Legenden. Trotz der ungeheueren persönlichen Autorität des Pythagoras war der frühe ebenso wie auch der spätere Pythagoreismus kein verbindlich fixiertes, in sich geschlossenes und detailliert ausgearbeitetes dogmatisches Lehrgebäude. Eher handelte es sich um eine bestimmte Art der Weltbetrachtung, die für unterschiedliche Ansätze Spielraum ließ. Alle Pythagoreer teilten die Grundüberzeugung, die gesamte erkennbare Welt sei eine auf der Basis bestimmter Zahlen und Zahlenverhältnisse aufgebaute, prinzipiell harmonisch gestaltete Einheit. Diese Gesetzmäßigkeit bestimme alle Bereiche der Wirklichkeit gleichermaßen. Die Kenntnis der maßgeblichen Zahlenverhältnisse betrachteten sie daher als den Schlüssel zum Verständnis von allem und als Voraussetzung für eine gute, naturgemäße Lebensführung. Ihr Ziel war es, die unterschiedlichen und gegensätzlichen Kräfte durch Ausgewogenheit zu einem harmonischen Einklang zu bringen, sowohl im menschlichen Körper als auch in der Familie und im Staat. Dabei wollten sie das, was sie als Maß, Ordnung und Harmonie zu erkennen meinten, überall in der Natur finden und in ihrem eigenen Leben wahren. Sie gingen also von einer ganzheitlichen Deutung des Kosmos aus. Das, was in ihm in Unordnung geraten war, wollten sie in die natürliche Ordnung zurückbringen. Im Sinne dieses Weltbildes hielten sie alle beseelten Wesen für miteinander verwandt und leiteten daraus ein Gebot der Rücksichtnahme ab. Hinsichtlich der Einzelheiten gingen ihre Meinungen aber oft weit auseinander. Seelenlehre. Die Lehre von der Unsterblichkeit der Seele gehört zum ältesten Bestand der frühpythagoreischen Philosophie. Sie ist eine der wichtigsten Gemeinsamkeiten von Pythagoreismus und Platonismus, die sich im Lauf ihrer Entwicklung gegenseitig beeinflussten und bei manchen Philosophen miteinander verschmolzen. Die Pythagoreer waren ebenso wie die Platoniker von der Seelenwanderung überzeugt. Dabei nahmen sie keinen Wesensunterschied zwischen menschlichen und tierischen Seelen an. Diese Idee setzte die Unsterblichkeit der Seele voraus. Da jedoch die Pythagoreer in den harmonischen Zahlenverhältnissen das Fundament der Weltordnung sahen, gab es bei ihnen auch die Vorstellung, dass die Seele eine Harmonie sei, nämlich das harmonische Gleichgewicht der den Körper bestimmenden Kräfte. Das ist mit der Unsterblichkeitsidee schwer zu vereinbaren. In diesem Widerspruch zeigt sich die Unfertigkeit des in Entwicklung begriffenen pythagoreischen Philosophierens. Platon setzte sich in seinem Dialog "Phaidon" mit der Deutung der Seele als Harmonie auseinander und bemühte sich sie zu widerlegen. Ein weiterer Bereich, in dem innerhalb der pythagoreischen Bewegung offenbar disparate Ideen vertreten und nicht zu einem stimmigen Ganzen verbunden wurden, war die Frage nach der Bestimmung und Zukunft der Seele. Ein wesentlicher, allerdings für die sehr quellenarme Frühzeit nicht eindeutig bezeugter Bestandteil des Pythagoreismus war die religiöse Überzeugung, dass die menschliche Seele göttlicher Herkunft und Natur sei. Daraus folgte (wie bei den Orphikern und den Platonikern), dass es die Aufgabe und Bestimmung der Seele sei, aus dem Diesseits in ihre jenseitige Heimat zurückzukehren. Darauf sollte sie sich durch Schulung und rechte Lebensführung vorbereiten. Ihr wurde zugetraut, ihre göttlichen Fähigkeiten und Möglichkeiten zurückzuerlangen. Der Umstand, dass Pythagoras von vielen seiner Anhänger als gottähnliches Wesen betrachtet wurde, zeigt, dass ein solches Ziel grundsätzlich erreichbar schien. Mit diesem Erlösungsstreben schwer vereinbar war jedoch ein anderes Konzept, welches von einem ewigen, unabänderlichen Kreislauf des Weltgeschehens ausging. Die Annahme, dass ein einheitlicher Kosmos immer und überall von den gleichen mathematischen Gegebenheiten bestimmt sei, und die zyklische Natur der gleichmäßigen Bewegungen der Himmelskörper führten dazu, auch das Schicksal der Menschheit als vorbestimmt und zyklisch aufzufassen. Daher herrschte zumindest bei einem Teil der Pythagoreer ein astrologischer Fatalismus, also die Vorstellung von der zwangsläufigen ewigen Wiederkunft aller irdischen Verhältnisse entsprechend den Gestirnbewegungen. Dieser Idee zufolge beginnt die Weltgeschichte von neuem als exakte Wiederholung, sobald alle Planeten nach Ablauf einer langen kosmischen Periode, des „Großen Jahres“, ihre Ausgangsstellung wieder erreicht haben. Als religiöse Erlösungslehre präsentierte sich der Pythagoreismus insbesondere in einem sehr populären antiken Gedicht eines unbekannten Autors, den „Goldenen Versen“. Dort wird dem Menschen, der sich an die philosophischen Lebensregeln hält und zur Erkenntnis der Weltgesetze vorgedrungen ist, in Aussicht gestellt, dass seine Seele dem Leiden und der Sterblichkeit entrinnen und in die Daseinsweise unsterblicher Götter überwechseln könne. Dies hatte schon im 5. Jahrhundert Empedokles als Ziel formuliert. Ernährung und Kleidung. Ebenso wie viele andere philosophische Richtungen traten die Pythagoreer für Beherrschung der Begierden und damit auch für eine einfache Lebensweise und frugale Ernährung ein. Dass sie jeden Luxus – insbesondere den Kleiderluxus – verwarfen, ergab sich aus ihrer allgemeinen Forderung, das rechte Maß zu wahren und so die Harmonie zu verwirklichen. Ein Kernbestandteil des ursprünglichen Pythagoreismus war der Vegetarismus. Er wurde als „Enthaltung vom Beseelten“ bezeichnet. Diese Bezeichnung weist auf die ethische und religiöse Wurzel des pythagoreischen Vegetarismus hin. Er hing mit der Überzeugung zusammen, dass die Seelen der Menschen und diejenigen der Tiere nicht essentiell verschieden seien und man den Tieren somit Rücksichtnahme schulde. Verschiedene Legenden, nach denen Pythagoras sich Tieren verständlich machen konnte, zeugen von einer besonderen Nähe der Pythagoreer zur Tierwelt. Daher wurden neben der Fleischnahrung auch die Tieropfer verworfen. Damit waren aber soziale Probleme verbunden, denn die Teilnahme an den traditionellen Opfern und den anschließenden Opfermahlzeiten gehörte zu den wichtigsten gemeinschaftsstiftenden Bräuchen, und die politisch aktiven Pythagoreer mussten auf ihr Ansehen in der Bürgerschaft Wert legen. Daher gab es anscheinend kein für alle verbindliches Gebot, und nur ein Teil der Pythagoreer lebte vegetarisch. Ein strenges Tabu richtete sich gegen den Verzehr von Bohnen. Der ursprüngliche Grund des Bohnenverbots war schon in der Antike unbekannt, es wurde darüber gerätselt. Gelegentlich wurde ein gesundheitlicher Grund angedeutet, aber meist ging man davon aus, dass es ein religiöses Tabu war. Es wurde sogar angenommen, das Verbot sei so umfassend gewesen, dass es auch bloße Berührung einer Bohnenpflanze absolut untersagte. Daher entstanden Legenden, wonach vor Verfolgern fliehende Pythagoreer (bzw. Pythagoras selbst) eher den Tod in Kauf nahmen, als ein Bohnenfeld zu durchqueren. Der tatsächliche Grund für das Bohnentabu ist bis heute nicht geklärt. Die Möglichkeit eines Zusammenhangs mit dem Favismus, einer erblichen Enzymkrankheit, bei welcher der Genuss von Ackerbohnen "(Vicia faba)" gesundheitsgefährlich ist, wurde mehrfach als Erklärung erwogen. Diese Hypothese findet in den Quellen keine konkrete Stütze und ist daher spekulativ. Freundschaftsideal. Eine wichtige Rolle spielte im Pythagoreismus das Konzept der Freundschaft "(philía)". Dieser Begriff wurde gegenüber seiner normalen Bedeutung stark ausgeweitet. Da die Pythagoreer den Kosmos als Einheit von zusammengehörigen und harmonisch zusammenwirkenden Bestandteilen auffassten, gingen sie von einer naturgegebenen Freundschaft sämtlicher Lebewesen (einschließlich der Götter) untereinander aus. Dieses Ideal universaler Freundschaft und Harmonie in der Welt erinnert an den Mythos vom paradiesischen Goldenen Zeitalter. Das Ziel war, die so verstandene Verbundenheit aller zu erkennen und im eigenen Leben umzusetzen. Damit war aber – wie die Beteiligung am Krieg gegen Sybaris schon zu Lebzeiten des Pythagoras zeigt – kein absoluter Gewaltverzicht im Sinne des Pazifismus verbunden. Insbesondere praktizierten die Pythagoreer die Freundschaft untereinander. Manche von ihnen verstanden darunter eine unbedingte Loyalität nicht nur zu ihren persönlichen Freunden, sondern zu jedem Pythagoreer. Über die Freundestreue sind einige Anekdoten überliefert. Die berühmteste ist die Geschichte von Damon und Phintias, die von Friedrich Schiller für seine Ballade "Die Bürgschaft" verwertet wurde. Es wird erzählt, dass der Pythagoreer Phintias wegen eines Komplotts gegen den Tyrannen Dionysios zum Tode verurteilt wurde, aber die Erlaubnis erhielt, vor der Hinrichtung seine persönlichen Angelegenheiten in Freiheit zu regeln, da sich sein Freund Damon als Geisel für seine Rückkehr verbürgte. Phintias kehrte rechtzeitig zurück; anderenfalls wäre Damon an seiner Stelle hingerichtet worden. Dies beeindruckte den Tyrannen stark, worauf er Phintias begnadigte und selbst vergeblich um Aufnahme in den Freundschaftsbund bat. Nach einer Version hatte Dionysios den ganzen Vorfall nur zum Schein arrangiert, um die legendäre Treue der Pythagoreer auf die Probe zu stellen, nach einer anderen Version handelte es sich um eine wirkliche Verschwörung. Bekannt war in der Antike der Grundsatz der Pythagoreer, dass der Besitz der Freunde gemeinsam sei "(koiná ta tōn phílōn)". Dies ist aber nicht im Sinne einer „kommunistischen“ Gütergemeinschaft zu verstehen; eine solche wurde – wenn überhaupt – nur von wenigen praktiziert. Gemeint war, dass die Pythagoreer einander in materiellen Notlagen spontan und großzügig unterstützten. Mathematik und Zahlensymbolik. Zahlen und Zahlenverhältnisse haben in der pythagoreischen Lehre von Anfang an eine zentrale Rolle gespielt. Dies ist ein Merkmal, das den Pythagoreismus von anderen Ansätzen unterscheidet. Ob das aber bedeutet, dass Pythagoras schon Mathematik getrieben hat, ist strittig. Manche Forscher (insbesondere Walter Burkert) haben die Ansicht vertreten, er habe sich nur mit Zahlensymbolik befasst, wissenschaftliches Denken sei ihm fremd gewesen, und erst um die Mitte des 5. Jahrhunderts habe sich Hippasos als erster Pythagoreer mathematischen Studien zugewandt. Die Gegenposition von Leonid Zhmud lautet, die frühen Pythagoreer seien Mathematiker gewesen und die Zahlenspekulation sei erst spät hinzugekommen und nur von vereinzelten Pythagoreern betrieben worden. Der Grundgedanke der Zahlenspekulation wird oft in dem Kernsatz „Alles ist Zahl“ zusammengefasst. In damaliger Ausdrucksweise besagt das, dass die Zahl für die Pythagoreer die archē, das konstituierende Urprinzip der Welt gewesen sei. Damit fiele der Zahl diejenige Rolle zu, die Thales dem Wasser und Anaximenes der Luft zugewiesen hatte. Diese Auffassung ist aber im frühen Pythagoreismus nicht belegt. Aristoteles schreibt sie „den Pythagoreern“ zu, ohne Namen zu nennen. Er kritisiert sie und unterstellt dabei, die Pythagoreer hätten unter den Zahlen etwas Stoffliches verstanden. In der zweiten Hälfte des 5. Jahrhunderts schrieb der Pythagoreer Philolaos, alles für uns Erkennbare sei notwendigerweise mit einer Zahl verknüpft, denn das sei eine Voraussetzung für gedankliches Erfassen. Seine Feststellung bezieht sich aber nur auf den menschlichen Erkenntnisprozess. Sie besagt nicht im Sinne einer Ontologie der Zahl, dass alle Dinge aus Zahlen bestehen oder hervorgehen. Die Auffassung, dass die Zahlen selbst die Dinge seien, wird oft als typisch pythagoreisch bezeichnet. Dies ist jedoch nur Aristoteles’ möglicherweise irriges Verständnis der pythagoreischen Lehre. Das für Philolaos Wesentliche war der Unterschied zwischen dem nach Zahl, Größe und Form Begrenzten und dem Unbegrenzten, das er für prinzipiell unerforschbar hielt, und das Zusammenspiel dieser beiden Faktoren. Ausgangspunkt der konkreten Zahlenspekulation war der Gegensatz von geraden und ungeraden Zahlen, wobei die ungeraden als begrenzt (und damit höherrangig) und – wie im chinesischen Yin und Yang – als männlich bezeichnet wurden und die geraden als unbegrenzt und weiblich. Die als Prinzip der Einheit aufgefasste Eins galt als der Ursprung, aus dem alle Zahlen hervorgehen (und infolgedessen die ganze Natur); so gesehen war sie selbst eigentlich keine Zahl, sondern stand jenseits der Zahlenwelt, obwohl sie rechnerisch als Zahl wie alle anderen erscheint. So konnte die Eins paradoxerweise als gerade und ungerade zugleich bezeichnet werden, was rechnerisch nicht zutrifft. Die Zahlen stellte man mit Zählsteinen dar, und mit den ebenen geometrischen Figuren, die mit solchen Steinen gelegt werden können (beispielsweise einem gleichseitigen Dreieck), wurden die den Zahlen zugewiesenen Eigenschaften demonstriert. Große Bedeutung legte man dabei der Tetraktys („Vierheit“) bei, der Gesamtheit der Zahlen 1, 2, 3 und 4, deren Summe die 10 ergibt, die bei Griechen und „Barbaren“ (Nichtgriechen) gleichermaßen als Grundzahl des Dezimalsystems diente. Die Tetraktys und die „vollkommene“ Zehn betrachtete man als für die Weltordnung grundlegend. Einzelne mathematische Erkenntnisse wurden in der Antike – zu Recht oder zu Unrecht – den Pythagoreern oder einem bestimmten Pythagoreer zugeschrieben. Pythagoras soll einen Beweis für den nach ihm benannten Satz des Pythagoras über das rechtwinklige Dreieck gefunden haben. Hippasos von Metapont schrieb man die Konstruktion des einer Kugel einbeschriebenen Dodekaeders und die Entdeckung der Inkommensurabilität zu. Eine nicht genau bekannte Rolle spielten Pythagoreer bei der Entwicklung der Lehre von den drei Mitteln (arithmetisches, geometrisches und harmonisches Mittel). Ferner sollen sie unter anderem den Satz über die Winkelsumme im Dreieck bewiesen haben. Womöglich stammen große Teile von Euklids "Elementen" – sowohl der arithmetischen als auch der geometrischen Bücher – aus verlorener pythagoreischer Literatur; dazu gehörte die Theorie der Flächenanlegung. Kosmologie und Astronomie. In der Astronomie vertraten die Pythagoreer keinen einheitlichen Standpunkt. Das älteste Modell, das wir kennen, ist dasjenige des Philolaos aus der zweiten Hälfte des 5. Jahrhunderts. Es nimmt ein Zentralfeuer an, das den Mittelpunkt des Universums bildet und um das die Himmelskörper einschließlich der Erde kreisen. Für uns ist es unsichtbar, da die bewohnten Gegenden der Erde auf der ihm stets abgewandten Seite liegen. Um das Zentralfeuer kreist auf der innersten Bahn die Gegenerde, die für uns ebenfalls unsichtbar ist, da sie vom Zentralfeuer verdeckt wird. Darauf folgen (von innen nach außen) die Erdbahn und die Bahnen von Mond, Sonne und fünf Planeten (Merkur, Venus, Mars, Jupiter und Saturn). Umschlossen ist das Ganze von einer kugelförmigen Schale, auf der sich die Fixsterne befinden. Aristoteles kritisierte dieses System, da es nicht von den Erscheinungen, sondern von vorgefassten Ansichten ausgehe; die Gegenerde sei nur eingeführt worden, um die Zahl der bewegten Körper am Himmel auf zehn zu bringen, da diese Zahl als vollkommene galt. Aristoteles erwähnt, dass „einige“ Pythagoreer einen Kometen zu den Planeten zählten. Das widerspricht der Zehnzahl bei Philolaos. Auch über die Milchstraße hatten die Pythagoreer keine einheitliche Meinung. Daraus ist zu ersehen, dass die frühen Pythagoreer kein gemeinsames, für alle verbindliches Kosmosmodell hatten. Manche Forscher nehmen an, dass es vor Philolaos ein völlig anderes, nämlich geozentrisches pythagoreisches Modell gab. Es sah vor, dass sich die kugelförmige Erde im Zentrum des Kosmos befindet und vom Mond, der Sonne und den damals bekannten fünf Planeten umkreist wird. Zu den wichtigsten Annahmen der Pythagoreer gehörte die Idee der Sphärenharmonie oder – wie die Bezeichnung in den ältesten Quellen lautet – „Himmelsharmonie“. Man ging davon aus, dass bei der Kreisbewegung der Himmelskörper ebenso wie bei Bewegungen irdischer Objekte Geräusche entstehen. Wegen der Gleichförmigkeit der Bewegung konnte dies für jeden Himmelskörper immer nur ein konstanter Ton sein. Die Gesamtheit dieser Töne, deren Höhe von den unterschiedlichen Geschwindigkeiten und den Abständen der Himmelskörper abhing, sollte einen kosmischen Klang ergeben. Diesen betrachtete man als für uns unhörbar, da er ununterbrochen erklinge und uns nur durch sein Gegenteil, durch einen Gegensatz zwischen Klang und Stille zu Bewusstsein käme. Allerdings soll Pythagoras laut einer Legende als einziger Mensch imstande gewesen sein, die Himmelsharmonie zu hören. Da die Töne der Himmelskörper nur als gleichzeitig, nicht als nacheinander erklingend gedacht werden konnten, musste als Ergebnis ihres Zusammenklingens ein ebenfalls stets unveränderter Klang angenommen werden. Daher ist der populäre Begriff „Sphärenmusik“ sicher unpassend. Dass der Zusammenklang harmonisch ist, ergibt sich in diesem Modell aus der Annahme, dass die Entfernungen der kreisenden Himmelskörper vom Zentrum und ihre bei größerer Entfernung entsprechend höheren Geschwindigkeiten eine bestimmte arithmetische Proportion aufweisen, die dies ermöglicht. Musik. Die Musik war derjenige Bereich, in dem die Grundidee einer auf Zahlenverhältnissen beruhenden Harmonie am einfachsten demonstrierbar war. Den musikalischen Gesetzmäßigkeiten galt die besondere Aufmerksamkeit der Pythagoreer. Auf diesem Gebiet haben sie offenbar auch experimentiert. Pythagoras wurde in der Antike allgemein als Begründer der mathematischen Analyse der Musik angesehen. Platon bezeichnete die Pythagoreer als Urheber der musikalischen Zahlenlehre, sein Schüler Xenokrates schrieb die entscheidende Entdeckung Pythagoras selbst zu. Dabei ging es um die Darstellung der harmonischen Intervalle durch einfache Zahlenverhältnisse. Das konnte durch Streckenmessung veranschaulicht werden, da die Tonhöhe von der Länge einer schwingenden Saite abhängt. Für solche Versuche eignete sich das Monochord mit verstellbarem Steg. Einen anderen, ebenfalls tauglichen Weg zur Quantifizierung fand Hippasos, der die Töne bronzener Scheiben von unterschiedlicher Dicke bei gleichem Durchmesser untersuchte. Sicher unhistorisch ist allerdings die Legende von Pythagoras in der Schmiede, der zufolge Pythagoras zufällig an einer Schmiede vorbeiging und, als er die unterschiedlichen Klänge der verschieden schweren Hämmer hörte, sich von dieser Beobachtung dazu anregen ließ, mit an Saiten aufgehängten Metallgewichten zu experimentieren. Platon, der eine rein spekulative, aus allgemeinen Prinzipien abgeleitete Musiktheorie forderte und die Sinneserfahrung durch das Gehör für unzureichend hielt, kritisierte die Pythagoreer wegen ihres empirischen Vorgehens. Die Musik eignete sich zur Abstützung der These einer universalen Harmonie und der Verflochtenheit aller Teile des Kosmos. Durch die Idee der klingenden Himmelsharmonie war sie mit der Astronomie verbunden, durch die Messbarkeit der Tonhöhen mit der Mathematik, durch ihre Wirkung auf das Gemüt mit der Seelenkunde, der ethischen Erziehung und der Heilkunst. Die Pythagoreer befassten sich mit den unterschiedlichen Wirkungen verschiedener Instrumente und Tonarten auf das menschliche Gemüt. Den Legenden zufolge setzte Pythagoras ausgewählte Musik gezielt zur Beeinflussung unerwünschter Affekte und zu Heilzwecken ein, betrieb also eine Art Musiktherapie. Entwicklung nach den antipythagoreischen Unruhen. Von den Pythagoreern der zweiten Hälfte des 5. Jahrhunderts scheint der Naturphilosoph Philolaos einer der prominentesten gewesen zu sein. Er gehörte anscheinend zu denjenigen, die wegen der politischen Verfolgung in Italien nach Griechenland gingen. Jedenfalls lehrte er zumindest zeitweilig in Theben. Seine Kosmologie mit der Annahme eines Zentralfeuers in der Mitte des Universums unterschied sich stark von der zuvor dominierenden. Den Mond hielt er für bewohnt, die Sonne für glasartig (also kein eigenes Licht ausstrahlend, sondern fremdes Licht wie eine Linse sammelnd). Seine Ansichten sind nur aus Fragmenten seines Buchs bekannt, deren Echtheit zum Teil umstritten ist. Im 4. Jahrhundert v. Chr. war der bedeutendste Pythagoreer der mit Platon befreundete Archytas von Tarent. Er war sowohl ein erfolgreicher Staatsmann und Heerführer seiner Heimatstadt als auch Philosoph, Mathematiker, Physiker, Musiktheoretiker und ein hervorragender Ingenieur. Das pythagoreische Konzept einer mathematisch fassbaren Harmonie wandte er auf die Politik an, indem er für einen kalkulierten Ausgleich zwischen den sozialen Schichten eintrat. Die Eintracht der Bürger führte er auf eine angemessene, von allen als gerecht empfundene Besitzverteilung zurück. Platon befasste sich intensiv mit der pythagoreischen Philosophie. Umstritten ist die Frage, inwieweit die Ansichten des Philolaos und des Archytas sein Bild von ihr prägten. Nach seinem Tod dauerte in der Platonischen Akademie das Interesse am Pythagoreismus an, und unter den Platonikern bestand die Neigung, Anregungen aus dieser Tradition aufzunehmen und Platon in entsprechendem Sinne zu deuten. Aristoteles verfasste eine Schrift über die Pythagoreer, von der nur Fragmente erhalten geblieben sind, und setzte sich auch sonst kritisch mit dem Pythagoreismus auseinander. Unter anderem argumentierte er gegen die Himmelsharmonie (Sphärenharmonie). Im 4. Jahrhundert lebten in Griechenland zahlreiche aus Italien geflüchtete Anhänger des Pythagoras. Man unterschied nun zwischen „Pythagoreern“ und „Pythagoristen“ (von altgriechisch "Pythagoristēs" „die pythagoreische Lebensweise Befolgender“). Die letzteren waren ein beliebtes Ziel des Spotts der Komödiendichter, da sie bettelten und asketisch lebten. Besonders ihre äußerst genügsame Ernährungsweise wurde in Komödien aufs Korn genommen. Sie wurden als schmutzige Sonderlinge dargestellt. Daneben gab es aber unter den aus Italien emigrierten Pythagoreern auch Gelehrte, die sich Respekt zu verschaffen wussten. Zu ihnen gehörte Lysis. Er wurde in Theben Lehrer des später berühmten Staatsmanns und Feldherrn Epameinondas; auf diesem Weg hat möglicherweise der Pythagoreismus ein letztes Mal auf die Politik Einfluss genommen. Neupythagoreismus. Bei den Römern stand Pythagoras in hohem Ansehen. Er wurde als Lehrer des zweiten Königs von Rom, Numa Pompilius, bezeichnet, was allerdings chronologisch unmöglich ist. Im 1. Jahrhundert v. Chr. bemühte sich anscheinend der mit Cicero befreundete Gelehrte und Senator Nigidius Figulus um eine Erneuerung des Pythagoreismus. Da eine kontinuierliche Tradition nicht mehr bestand, war dies ein Neuanfang. Daher pflegt man Nigidius als den ersten Neupythagoreer zu bezeichnen; allerdings ist nicht klar, ob seine tatsächlichen Ansichten und Aktivitäten diese Bezeichnung rechtfertigen. Der Neupythagoreismus dauerte bis in die Spätantike fort, doch gab es keinen kontinuierlichen Schulbetrieb, sondern nur einzelne pythagoreisch gesinnte Philosophen und Gelehrte. Es handelte sich beim Neupythagoreismus nicht um eine in sich geschlossene neue, von älteren Richtungen inhaltlich klar abgrenzbare Lehre. Starkes Interesse an pythagoreischen Ideen zeigte Marcus Terentius Varro, der berühmteste römische Universalgelehrte. Er wurde gemäß seiner testamentarischen Verfügung „nach pythagoreischer Sitte“ beigesetzt. In der von Quintus Sextius im 1. Jahrhundert v. Chr. in Rom gegründeten Philosophenschule der Sextier wurden neben stoischen auch neupythagoreische Lehren, darunter der Vegetarismus, vertreten. Dieser (allerdings kurzlebigen) Schule gehörte Sotion, der Lehrer Senecas, an. Von den Sextiern übernahm Seneca die pythagoreische Übung der Rekapitulation des Tages am Abend, mit der man für sich Bilanz zog. Dazu gehörte eine Selbstbefragung mit Fragen wie: „Welches deiner (charakterlichen) Übel hast du heute geheilt? Welchem Laster hast du widerstanden? In welcher Hinsicht bist du besser (geworden)?“ Der Dichter Ovid gab im 15. Buch seiner "Metamorphosen" einem fiktiven Lehrvortrag des Pythagoras breiten Raum und trug damit zur Verbreitung von pythagoreischem Gedankengut bei, doch gibt es keinen Beleg für die Annahme, dass er selbst Neupythagoreer war. 1917 wurde in Rom in der Nähe der Porta Maggiore ein unterirdisches Bauwerk in Form einer Basilika aus der Zeit des Kaisers Claudius (41–54) entdeckt. Es sollte offenbar als Versammlungsraum für einen religiösen Zweck dienen, wurde aber schon bald nach dem Ende der Bauarbeiten geschlossen. Der Historiker und Archäologe Jérôme Carcopino hat eine Reihe von Indizien gesammelt, die dafür sprechen, dass die Erbauer Neupythagoreer waren. Dazu gehört unter anderem die Ausschmückung von Decken und Wänden mit Darstellungen von Szenen aus der Mythologie, die dem Betrachter den als Erlösung aufgefassten Tod und das nachtodliche Schicksal der Seele vor Augen führen. Der bekannteste Neupythagoreer der römischen Kaiserzeit war Apollonios von Tyana (1. Jahrhundert n. Chr.). Von seiner Philosophie ist wenig Zuverlässiges überliefert. Er orientierte sich offenbar in seiner philosophischen Lebensführung stark am Vorbild des Pythagoras (bzw. an dem damals dominierenden Pythagorasbild) und beeindruckte damit seine Zeitgenossen und die Nachwelt nachhaltig. Die übrigen Neupythagoreer waren zugleich Platoniker bzw. Neuplatoniker. Im Neupythagoreismus waren frühpythagoreische Ideen mit Legenden aus der späteren pythagoreischen Tradition und (neu)platonischen Lehren verschmolzen. Moderatos von Gades (1. Jahrhundert n. Chr.) betrachtete die Zahlenlehre als didaktisches Mittel zur Veranschaulichung von Erkenntnisgegenständen der geistigen Welt. Von Nikomachos von Gerasa (2. Jahrhundert) stammen eine Einführung in die Arithmetik (d. h. in die pythagoreische Zahlenlehre), die Schulbuch wurde und im Mittelalter in der lateinischen Fassung des Boethius sehr verbreitet war, und ein Handbuch der musikalischen Harmonik. Boethius ging in seiner für das Mittelalter maßgeblichen lateinischen Darstellung der Musiktheorie "(De institutione musica)" von den musikalischen Lehren des Nikomachos aus und behandelte auch die Sphärenharmonie. Außerdem verfasste Nikomachos eine Biographie des Pythagoras, die verloren ist. Im 2. Jahrhundert lebte auch der Platoniker Numenios von Apameia, der den Pythagoreismus mit der authentischen Lehre Platons gleichsetzte und auch aus Sokrates einen Pythagoreer machte; den späteren Platonikern warf er vor, von Platons pythagoreischer Philosophie abgewichen zu sein. Der Neuplatoniker Porphyrios schrieb im 3. Jahrhundert eine Lebensbeschreibung des Pythagoras und zeigte sich besonders in seinem Eintreten für den Vegetarismus pythagoreisch beeinflusst. Weit stärker trat pythagoreisches Gedankengut bei dem etwas jüngeren Neuplatoniker Iamblichos von Chalkis in den Vordergrund. Er verfasste ein zehnbändiges Werk über die pythagoreische Lehre, von dem Teile erhalten sind, darunter insbesondere die Abhandlung „Vom pythagoreischen Leben“. Sein Pythagorasbild war von einer Fülle von legendenhaftem Stoff geprägt, den er zusammentrug. Sein Anliegen war insbesondere, die metaphysisch-religiöse und die ethische Seite des Pythagoreismus mit der Mathematik (worunter er primär die arithmetische und geometrische Symbolik verstand) zu verbinden und dieses Ganze als göttliche Weisheit darzustellen, die den Menschen durch Pythagoras geschenkt sei. Wie Numenios betrachtete er Platons Lehre nur als Ausgestaltung der pythagoreischen Philosophie. Im 5. Jahrhundert schrieb der Neuplatoniker Hierokles von Alexandria einen Kommentar zu den „Goldenen Versen“. Er betrachtete dieses Gedicht als allgemeine Einführung in die Philosophie. Unter Philosophie verstand er einen Platonismus, den er mit Pythagoreismus gleichsetzte. Auch der Neuplatoniker Syrianos, ein Zeitgenosse des Hierokles, war überzeugt, dass Platonismus nichts anderes als Pythagoreismus sei. Neuzeitliche Rezeption. Seit der Renaissance haben einzelne Naturphilosophen so stark pythagoreisches Gedankengut rezipiert und sich so nachdrücklich zur pythagoreischen Tradition bekannt, dass man sie als Pythagoreer bezeichnen kann. Ihnen ging und geht es darum, das Universum als einen nach mathematischen Regeln sinnvoll und ästhetisch durchstrukturierten Kosmos zu erweisen. Diese harmonische Ordnung soll in den Planetenbahnen ebenso wie in musikalischen Proportionen und in der Zahlensymbolik erkennbar sein. Die Gesetze der Harmonie werden als grundlegende Prinzipien betrachtet, die in der gesamten Natur auffindbar seien. Zu dieser Denkweise bekannten sich bedeutende Humanisten wie Giovanni Pico della Mirandola (1463–1494), der sich ausdrücklich als Pythagoreer bezeichnete, und Johannes Reuchlin (1455–1522). Einen Vorläufer hatten sie in dem spätmittelalterlichen Gelehrten Pietro d’Abano. Besonders eifrig bemühte sich der Astronom und Naturphilosoph Johannes Kepler (1571–1630), die Planetenbewegungen als Ausdruck einer vollkommenen Weltharmonie zu erweisen und astronomische Proportionen mit musikalischen zu verbinden. Im 20. Jahrhundert knüpfte der Musikwissenschaftler Hans Kayser mit seiner „harmonikalen Grundlagenforschung“ an die pythagoreische Tradition an. Sein Schüler Rudolf Haase setzte seine Arbeit fort. Diese Bemühungen finden insbesondere in Kreisen der Esoterik Anklang. Da die Grundannahme einer kosmischen Harmonie, von der die modernen Pythagoreer ausgehen, den Charakter einer religiösen Überzeugung hat, finden ihre Forschungen in der Wissenschaft kaum Beachtung. Werner Heisenberg wies in seinem erstmals 1937 veröffentlichten Aufsatz „Gedanken der antiken Naturphilosophie in der modernen Physik“ den Pythagoreern eine Pionierrolle bei der Entstehung der naturwissenschaftlichen Denkweise zu, welche darauf abzielt, die Ordnung in der Natur mathematisch zu fassen. Heisenberg schrieb, die „Entdeckung der mathematischen Bedingtheit der Harmonie“ durch die Pythagoreer beruhe auf „dem Gedanken an die sinngebende Kraft mathematischer Strukturen“, einem „Grundgedanken, den die exakte Naturwissenschaft unserer Zeit aus der Antike übernommen hat“; die moderne Naturwissenschaft sei „eine konsequente Durchführung des Programms der Pythagoreer“. Die Entdeckung der rationalen Zahlenverhältnisse, die der musikalischen Harmonie zugrunde liegen, gehört für Heisenberg „zu den stärksten Impulsen menschlicher Wissenschaft überhaupt“. Die spanische Philosophin María Zambrano (1904–1991) sah im Pythagoreismus eine Ausrichtung des Denkens, welche die Wirklichkeit in Zahlenverhältnissen sucht und damit das Universum als „ein Gewebe aus Rhythmen, eine körperlose Harmonie“ betrachtet, worin die Dinge nicht in sich selbst bestehen, sondern nur durch ihre mathematischen und zeitlichen Beziehungen zueinander Phänomene in Erscheinung treten lassen. Den Gegenpol dazu bilde der Aristotelismus, für den die einzelnen Dinge als Substanzen in sich ruhen und damit eine eigene innere Wirklichkeit aufweisen. Der Aristotelismus habe zwar gesiegt, da er zunächst eine überlegene Erklärung der Natur und des Lebens anbieten konnte, aber die pythagoreische Haltung existiere als Alternative weiter und die moderne Physik der Relativität sei eine Rückkehr zu ihr. Phasenübergang. Ein Phasenübergang bzw. eine Phasenumwandlung oder Phasentransformation ist in der Thermodynamik die Umwandlung einer oder mehrerer Phasen eines Stoffes in andere Phasen. Eine grafische Darstellung der Stabilitätsbereiche der Phasen in Abhängigkeit von den Zustandsvariablen wie Druck, Temperatur, chemischer Zusammensetzung und magnetischer Feldstärke liefern Phasendiagramme. In diesen Diagrammen sind die Stabilitätsbereiche durch Phasengrenzlinien begrenzt, an denen die Phasenübergänge ablaufen. Klassifikation. In einigen Stoffsystemen verschwinden oberhalb eines kritischen Punktes, der durch eine kritische Temperatur und einen kritischen Druck gekennzeichnet ist, die Phasengrenzflächen zwischen flüssiger und gasförmiger Phase. Damit sind Flüssigkeit und Gas unter diesen Bedingungen nur noch eine Phase, die „überkritisch“ genannt wird. Somit kann es dort auch kein Verdampfen und Kondensieren mehr geben. Ebenso kann es in einigen Stoffsystemen einen Tripelpunkt geben, an dem sowohl eine feste, als auch eine flüssige und eine gasförmige Phase im Gleichgewicht miteinander stehen und dementsprechend alle sechs erstgenannten Formen des Phasenübergangs gleichzeitig ablaufen. Andere Typen von Phasenübergängen werden im Weiteren erwähnt werden. Klassifikation nach Ehrenfest. Grundsätzlich werden Phasenübergänge nach der "Ehrenfest-Klassifikation" (nach Paul Ehrenfest) in unterschiedliche Ordnungen eingeteilt. Dazu betrachtet man thermodynamische Größen wie Volumen, Enthalpie oder Entropie in Abhängigkeit von einer (oder mehreren) Variablen, meist der Temperatur. Das System wird durch ein thermodynamisches Potential G (Gibbs-Energie, freie Enthalpie) beschrieben. Bei einem Phasenübergang n-ter Ordnung ist G als Funktion zum Beispiel der Temperatur (oder des Drucks) betrachtet samt seinen ersten n-1 Ableitungen stetig, erst die n-te Ableitung ist unstetig. Genauer werden Phasenübergänge in der Landau-Theorie beschrieben, wo die Phasen durch Symmetriebrüche von geordneten zu ungeordneten Phasen und begleitenden Sprüngen makroskopischer Größen wie der Magnetisierung oder der Deformation eines Kristallgitters gekennzeichnet sind, den Ordnungsparametern. Von besonderer Bedeutung ist die Unterscheidung in Phasenübergänge 1. Ordnung und solche höherer Ordnung ("Kontinuierliche Phasenübergänge"), speziell 2. Ordnung. In der "modernen Klassifikation" wird in der Tat nur diese Unterscheidung vorgenommen. Ein Beispiel für einen Phasenübergang erster Ordnung ist der Übergang einer Flüssigkeit wie Wasser zu einem Feststoff am Gefrierpunkt. Zur Überführung vom festen in den flüssigen Zustand muss zusätzlich Wärmeenergie (in Form von latenter Wärme) zugeführt werden, ohne dass es zu einer tatsächlichen Temperaturerhöhung kommt. Da es dabei zu einer Unstetigkeit in der Entropie (der 1. Ableitung der freien Enthalpie G nach der Temperatur) kommt, ist das Schmelzen von Eis ein Phasenübergang erster Ordnung. Ebenso macht das Volumen (1. Ableitung von G nach dem Druck p) einen Sprung an der Phasengrenze. Der Dichteunterschied der Phasen entspricht hier dem Ordnungsparameter in der Landautheorie. Ein Sprung im Ordnungsparameter ist typisch für Phasenübergänge erster Art. Ein Beispiel für einen Phasenübergang 2. Ordnung ist der Übergang von der ferromagnetischen zur paramagnetischen Phase bei der Curie-Temperatur in einem Ferromagneten. Der Ordnungsparameter ist die Magnetisierung, die am Phasenübergang stetig gegen Null geht, ohne dass dabei zusätzlich latente Wärme auftritt. Es tritt aber ein Sprung in der zweiten Ableitung der Enthalpie nach der Temperatur auf (Wärmekapazität). Dieses Verhalten kennzeichnet einen kontinuierlichen Phasenübergang oder auch einen Phasenübergang 2. Ordnung. Typisch ist hier ein stetiger Übergang im Ordnungsparameter. Ein weiteres Beispiel für einen Phasenübergang zweiter Ordnung ist der Übergang von Normalmetall zu Supraleiter. In der folgenden Abbildung sind die erwähnten Phasenübergänge 1. und 2. Ordnung nach Ehrenfest dargestellt. Die Abbildung zeigt bei konstantem Druck die freie Enthalpie G, das Volumen V, die Enthalpie H, die Entropie S und die Wärmekapazität C"P" in Abhängigkeit von der Temperatur. In der obersten Reihe sind die Parameter ohne Phasenübergang gezeigt, in der Mitte ein Phasenübergang erster Ordnung und in der unteren Reihe ein Phasenübergang zweiter Ordnung. Die Phasenumwandlung findet jeweils bei der kritischen Temperatur TC statt. In der Abbildung sind die Kurven der freien Enthalpie der jeweiligen Phase eingezeichnet und grau in der jeweils anderen Phase fortgesetzt; sie können dort Unterkühlungseffekte oder Metastabilität vorhersagen. Phasenübergang erster und zweiter Ordnung nach Ehrenfest Weitere Typisierung. Neben dieser grundsätzlichen Einteilung gibt es noch eine Reihe weiterer Unterscheidungen in speziellen Anwendungsgebieten. Nach der "strukturellen Klassifikation" unterscheidet man in der Mineralogie zwischen diskontinuierlichen (= rekonstruktiven), martensitischen und kontinuierlichen Phasenübergängen. Diskontinuierliche Phasenübergänge sind durch den Bruch chemischer Bindungen charakterisiert. Ein Beispiel ist die Umwandlung von Graphit in Diamant. Bei martensitischen Phasenübergängen wird das Kristallgitter geschert. Ein Beispiel ist die Umwandlung von γ- zu α-Eisen. Martensitische Phasenübergänge werden nochmals in athermale und isothermale Phasenübergänge gegliedert. Im Unterschied zu ersteren ist der Umwandlungsgrad bei letzteren zeitabhängig. Kontinuierliche Phasenübergänge sind nur mit einer Ordnung der Kristallstruktur verbunden. Man unterscheidet zwei Subtypen: Displazive und Ordnungs-Unordnungs-Phasenübergänge. Bei ersterem kommt es zu einer Verschiebung oder Rotation der Atompositionen (zum Beispiel bei der Umwandlung von Hochquarz in Tiefquarz), bei letzteren zu einer Ordnung mehrerer auf verschiedene Atompositionen statistisch verteilter Atome, sodass jede Position nur noch mit einer Atomsorte besetzt ist. In beiden Fällen kann es zum Auftreten großräumiger Periodizitäten kommen, welche die Gitterstruktur überlagern. Man bezeichnet diese als inkommensurable Strukturen. Die "kinetische Klassifikation" unterteilt Phasenübergänge nach ihrer Reaktionsgeschwindigkeit in Phasenübergänge nullter Ordnung, bei denen die Reaktionsgeschwindigkeit konstant ist, Phasenübergänge erster Ordnung, bei denen sie von der Konzentration der Ausgangsphase abhängt und Phasenübergängen zweiter (dritter) Ordnung, bei denen sie von den Konzentrationen von zwei (drei) Ausgangssubstanzen abhängt. "Strömungsdynamisch" wird unterschieden bei Geschwindigkeits-Übergängen, wo sich Strömungseigenschaften schlagartig und massiv ändern, zum Beispiel die Änderung wichtiger Werte wie Widerstand und Auftrieb bei Gasen und Flüssigkeiten. Ein wichtiger Bereich ist der kritische Übergang von "unterkritisch" zu "überkritisch". Theorie. Die Theorie kontinuierlicher Phasenübergänge geht von einem "Ordnungsparameter" aus (zum Beispiel der Magnetisierung bei der Umwandlung eines Ferromagneten in einen Paramagneten). Bei kontinuierlichen Phasenübergängen geht der Ordnungsparameter bei Annäherung an den Umwandlungspunkt kontinuierlich gegen Null (dagegen springt er an einem Phasenübergang 1. Ordnung) und die "Korrelationslänge" divergiert (bei einer Umwandlung 1. Ordnung bleibt sie endlich). Es lassen sich sehr unterschiedliche Arten von kontinuierlichen Phasenübergängen in "Universalitätsklassen" zusammenfassen, was letztlich erneut auf die Divergenz der Korrelationslänge zurückzuführen ist. Diese Klassen können durch einige wenige Parameter charakterisiert werden. Beispielsweise verschwindet der Ordnungsparameter in der Nähe des kritischen Punktes, z. B. als Funktion des Temperaturabstandes zum Übergangspunkt, in der Form eines Potenzgesetzes. Der zugehörige Exponent, der "kritische Exponent", ist ein solcher Parameter. Der Zusammenhang zwischen grundlegenden Symmetrien der jeweiligen Phasen und den Werten dieser Parameter ist im Rahmen der Statistischen Physik in den letzten Dekaden ausführlich theoretisch untersucht und auch in einer Vielzahl von Experimenten sowie in Computersimulationen überprüft worden. Bei theoretischen Beschreibungen von Phasenübergängen wird mitunter die Landau- oder Mean-Field-Theorie benutzt. Dabei werden jedoch kritische thermische Fluktuationen vernachlässigt, die in der Umgebung des Übergangs eine wesentliche Rolle spielen können (und beispielsweise in der kritischen Opaleszenz beobachtet werden). Die Landau-Theorie kann trotzdem als Ausgangspunkt genauerer Theorien (von der "Skalentheorie" von Pokrowski und Patashinski bis hin zur "epsilon-Entwicklung" von K.G. Wilson und M.E. Fisher) wertvolle erste Einsichten vermitteln. Dies ist insbesondere von Kenneth G. Wilson erkannt worden, der 1982 den Nobelpreis für bahnbrechende Arbeiten über kontinuierliche Phasenübergänge erhielt. Wilson ist einer der entscheidenden Pioniere der Renormierungsgruppentheorie, die berücksichtigt, dass bei kontinuierlichen Phasenübergängen die kritischen Fluktuationen auf vielen Längenskalen in "selbstähnlicher" Form stattfinden. Analoge Theorien finden heute in vielen Bereichen der Physik und Mathematik Anwendung. Bedeutung für die Mineralogie. Das Wissen über die physikochemischen Bedingungen, bei denen Phasenübergänge ablaufen, erlaubt Mineralogen Rückschlüsse über die Entstehungsgeschichte von Gesteinen. Wenn ein Gestein unter hohe Drücke und Temperaturen gerät, kommt es in vielen Fällen zu einer Phasenumwandlung. Unter der Voraussetzung, dass die anschließende Abkühlung so rasch erfolgt, dass die Umkehrreaktion aufgrund der bei tiefen Temperaturen kaum noch möglichen Diffusion nicht mehr stattfindet, kann man davon ausgehen, dass die bei hohen Temperaturen und Drücken stabilen Minerale „eingefroren“ werden und so an der Erdoberfläche erhalten bleiben. So sind Aussagen darüber möglich, welche Temperaturen und Drücke ein Gestein im Laufe seiner Genese „gesehen“ hat. Beispiele hierfür sind die Phasenübergänge zwischen Andalusit, Sillimanit und Disthen im Bereich der Aluminosilikate, die Umwandlung von Graphit in Diamant und von Quarz in Coesit oder Stishovit. Das durch experimentelle Mineralogie erworbene Wissen über Phasenübergänge erklärt auch das rheologische Verhalten des Erdmantels: Das Eisen-Magnesiumsilikat Olivin wandelt sich in 410 km Tiefe in den in der β-Spinell-Struktur kristallisierenden Wadsleyit um, der sich seinerseits in 520 km Tiefe weiter in den in der γ-Spinell-Struktur auftretenden Ringwoodit umwandelt (siehe auch die Artikel 410-km-Diskontinuität und 520-km-Diskontinuität). Dabei kommt es zu keinerlei chemischen Veränderungen, sondern nur zu einer Änderung der Kristallstruktur. Am Beispiel der Umwandlung von Coesit in Stishovit kann man gut erklären, warum es zu einer Phasenumwandlung kommt: Unter normalen Bedingungen ist Silizium von vier Sauerstoffatomen umgeben, unter hohen Drücken rücken die Atome jedoch dichter zusammen, so dass die Koordination durch sechs Sauerstoffatome energetisch günstiger ist. Bedeutung für technische Prozesse. Während des keramischen Brandes wandelt sich bei einer Temperatur von 573 °C Quarz in Hochquarz um. Dabei ändert sich das Volumen. Bei einer zu großen Heizrate kann dies zum Zerspringen der Keramik führen. Deshalb wird die Heizrate in diesem Temperaturbereich gedrosselt. Im Bereich der Konservierung von Kunstobjekten werden die Gegenstände oft kühl und trocken gelagert und auch ausgestellt. Bei Objekten aus Zinn ist dies nicht richtig, weil dieses unterhalb von 15 °C in eine andere Modifikation übergeht, deren äußeres Erscheinungsbild wenig attraktiv ist und die als Zinnpest bezeichnet wird. Für die Kunstgeschichte ist es interessant zu wissen, dass früher oft das Blaupigment Azurit für die Darstellung des Himmels verwendet wurde. Im Lauf der Jahrhunderte ist dieses jedoch in die thermodynamisch stabile Form Malachit umgewandelt worden, welche grün ist. Dadurch ist der Himmel auf alten Bildern manchmal grün. Bei der Stahl­erzeugung sind mit der Umwandlung der Eisen­modifikation Ferrit in Martensit Veränderungen des Gefüges verbunden, die für die Eigenschaften des Stahls von großer Bedeutung sind. In zweidimensionalen Materialien, z. B. in dünnen magnetischen Schichten, kann es nur unter eingeschränkten Bedingungen langreichweitige Ordnung und damit einen Phasenübergang geben. Dieser interessante Aspekt wird im Mermin-Wagner-Theorem (nach N. David Mermin und Herbert Wagner) behandelt und ist auch experimentell untersucht worden. Paraffine besitzen eine besonders große Volumenänderung um etwa 30 % beim Phasenübergang von fest nach flüssig. Dieser Hub kann für die Konstruktion von Aktoren genutzt werden. PHP. PHP (rekursives Akronym und Backronym für „PHP: Hypertext Preprocessor“, ursprünglich „Personal Home Page Tools“) ist eine Skriptsprache mit einer an C und Perl angelehnten Syntax, die hauptsächlich zur Erstellung dynamischer Webseiten oder Webanwendungen verwendet wird. PHP wird als freie Software unter der PHP-Lizenz verbreitet. PHP zeichnet sich durch breite Datenbankunterstützung und Internet-Protokolleinbindung sowie die Verfügbarkeit zahlreicher Funktionsbibliotheken aus. Geschichte. Seit der Veröffentlichung im Jahr 1995 nahmen die Entwickler teilweise umfangreiche Änderungen innerhalb der Programmiersprache vor. Der Kern der Sprache wurde mit PHP 3 komplett neu erstellt. Deutliche Anpassungen wurden mit PHP 5 bzw. PHP 5.3 vorgenommen, die den Fokus der Programmiersprache auf die objektorientierte Programmierung legt. Klassen waren jedoch bereits mit der vierten Version nutzbar. Personal Home Page Tools (PHP1). PHP wurde 1995 von Rasmus Lerdorf entwickelt. Der Begriff stand damals noch für "Personal Home Page Tools" und war ursprünglich als Ersatz für eine Sammlung von Perl-Skripten gedacht, die Lerdorf zur Protokollierung der Zugriffe auf seinen Online-Lebenslauf geschrieben hatte. PHP/FI (PHP 2). Bald schuf Lerdorf eine umfangreichere Version in der Programmiersprache C, in der PHP bis heute entwickelt wird. Das schließlich veröffentlichte PHP/FI (FI stand für "Form Interpreter") war Perl sehr ähnlich, wenn auch eingeschränkter. PHP 3. PHP 3 wurde von Andi Gutmans und Zeev Suraski 1997 neu geschrieben, da das inzwischen erschienene PHP/FI 2 ihrer Meinung nach für E-Commerce unzureichend war. Lerdorf kooperierte nun mit Gutmans und Suraski, und so wurde die Entwicklung von PHP/FI eingestellt. Die Version PHP3 brachte die Verbreitung der Web-Skriptsprache PHP bedeutend voran. Die neue Sprache wurde einfach unter dem Namen "PHP" veröffentlicht, ein rekursives Akronym für "PHP: Hypertext Preprocessor", um die in den Vorversionen PHP und PHP/FI vorhandene Implizierung einer persönlichen Nutzung zu beseitigen. PHP 4. Das von Gutmans und Suraski gegründete Unternehmen Zend Technologies Ltd. entwickelte in der Folge die Zend Engine 1, die den Kern der PHP-4-Standardimplementierung bildet. Mit PHP 4 wurden die Ausführungsgeschwindigkeit komplexer Applikationen und die Sicherheit bei Verwendung globaler Variablen verbessert. Eingeführt wurden die Unterstützung für viele weitere Webserver, das Sessionmanagement, die Ausgabepufferung sowie eine Anzahl neuer Sprachkonstrukte. Da das World Wide Web Ende der 1990er Jahre stark wuchs, bestand großer Bedarf an Skriptsprachen, mit denen sich dynamische Webseiten realisieren lassen. PHP wurde mit der Zeit für die Webentwicklung populärer als der vorherige De-facto-Standard Perl, weil es durch seine Spezialisierung als einfacher erlernbar galt. Seit 2008 sind die Weiterentwicklung und der Support eingestellt. PHP 5. Im Sommer 2004 wurde mit Version 5.0 eine weitere Entwicklungsstufe veröffentlicht. Wesentlicher Unterschied zum Vorgänger ist die Zend Engine II, die vor allem ein verbessertes Objektmodell nutzt, somit objektorientierte Anwendungen effizienter ausführt und Sprachkonstrukte wie Überladung ermöglicht. Dazu kommen Exceptions, Reflection, die Integration der Datenbank SQLite sowie Erweiterungen bei XML- und DOM-Handhabung. Derzeit werden die Versionszweige ab Version 5.4 weiterentwickelt. Die Weiterentwicklung von PHP 5.3 wurde Mitte 2013 eingestellt. Auch der Support von PHP 5.3 mit Sicherheitsupdates wurde mit der Veröffentlichung von PHP 5.3.29 am 14. August 2014 eingestellt. Weitere Möglichkeiten im Rahmen der objektorientierten Programmierung wurden mit PHP 5.3 (Namespaces, Late Static Bindings), 5.4 (Traits, Array- und Konstruktor-Dereferenzierung) und 5.5 (Generatoren) vorangetrieben. Mitte 2011 entschieden die Entwickler, den laut eigenen Angaben chaotischen Release-Prozess zu vereinheitlichen. Demnach sollen regelmäßig neue Versionen erscheinen und der Support für ältere Versionen mit einer festen Zeitspanne garantiert werden. PHP 6. Ursprünglich als früher Nachfolger von PHP 5 geplant, wurde die Entwicklung von PHP 6 eingestellt. Geplant war unter anderem die Unterstützung verschiedener Unicode-Standards. Einige Verbesserungen sind in aktuellen PHP-Versionen ab 5.3 implementiert. PHP 7. Nach einer Diskussion darüber, ob die nächste PHP-Version den Namen des ehemals gescheiterten PHP 6 wiederaufnehmen soll, oder stattdessen eine Versionsnummer überspringen und PHP 7 heißen soll, wurde am 29. Juli 2014 bekanntgegeben, dass die Entwickler sich mit 58 zu 24 Stimmen für die Hauptversionsnummer 7 entschieden haben. Der Nachfolger von PHP 5 heißt somit offiziell "PHP 7". PHP 7 hat eine um bis zu 30 Prozent geringere Ausführungszeit als PHP 5, da unter anderem Hashtabellen neu implementiert wurden. Die erste Vorabversion (Alpha 1) erschien am 11. Juni 2015, die fertige Version am 3. Dezember 2015. Verbreitung. PHP wird auf etwa 244 Millionen Websites eingesetzt (Stand: Januar 2013), wird auf rund 82 % aller Websites als serverseitige Programmiersprache verwendet (Stand: Dezember 2015) und ist damit die am häufigsten verwendete Programmiersprache zum Erstellen von Websites, Tendenz steigend. Zudem ist sie bei den meisten Webhostern vorinstalliert. Objektorientierung. Seit der Version 5 unterstützt PHP durch Kapselung der Daten, Destruktoren und Ausnahmebehandlung per Exceptions verbesserte und erweiterte Möglichkeiten der objektorientierten Programmierung. Objekt-Variablen sind in PHP 5 nur noch Referenzen auf Objekte und nicht wie in PHP 4 die Objekte selbst. Aktuelle Versionen setzen weitere Konzepte objektorientierter Programmierung ein, so werden seit Version 5.3 Namensräume und seit Version 5.4 Traits unterstützt. Datenbankanbindung. Mit der objektorientierten Datenbankabstraktionsebene PDO wurde dem oft bemängelten uneinheitlichen Zugriff auf verschiedene Datenbanken in der Version 5.1 entgegengewirkt. Speicheroptimierung. In PHP 5.3 wurde eine deutliche Verbesserung der Speicheranforderung eines PHP-Skripts zur Laufzeit durch einen internen "Garbage Collector" erreicht. Seitdem ist eine Zusatzinstallation von Zend Optimizer nicht mehr notwendig. Webserver. Seit Version 5.4 ist ein einfacher Webserver integriert, der über die Kommandozeile konfigurierbar ist. Er wird nicht für den Produktiveinsatz empfohlen. Unicode. Ab Version 5.4 ist der Standardzeichensatz von ISO 8859-1 auf Unicode geändert worden. Ziel ist außerdem die vollständige Unicode-Umsetzung aller Funktionen in PHP, die in PHP 5.4 noch nicht abgeschlossen ist. Damit werden vor allem interne Probleme mit Sprachkonstrukten bei der Verarbeitung von Unicode gelöst. Um Standard-Zeichenkettenfunktionen zu nutzen, welche keine Parameter für den Zeichensatz besitzen, können sie durch das Überladen der entsprechenden Multibyte-Funktionen auf Unicode-Fähigkeit umgestellt werden. Funktionsweise. Darstellung der Funktionsweise von PHP PHP ist ein System, das PHP-Code serverseitig verarbeitet. Das bedeutet, dass der Quelltext nicht an den Webbrowser übermittelt wird, sondern an einen Interpreter auf dem Webserver. Erst die Ausgabe des PHP-Interpreters wird an den Browser geschickt. In den meisten Fällen ist das ein HTML-Dokument, wobei es mit PHP aber auch möglich ist, andere Dateitypen, wie Bilder oder PDF-Dateien, zu generieren. Um eine PHP-Datei im Rahmen einer Webanwendung ausführen zu können, benötigt man ein System, das mit den in der Datei enthaltenen Anweisungen umgehen kann. Aus diesem Grund wird durch eine Schnittstelle, wie ISAPI oder CGI, der Interpreter von einem Server-Daemon oder Server-Dienst, wie Apache oder IIS, ausgeführt. Die Kombination von Linux/Windows/Mac OS X als Betriebssystem, Apache als Webserver, MySQL als Datenbanksystem und PHP wird LAMP (für Linux), WAMP (für Windows) oder MAMP (für Mac OS X) genannt. Fertige LAMP-, MAMP- und WAMP-Pakete, die das einzelne Laden und Konfigurieren von Paketen aus dem Internet unnötig machen, werden etwa im Projekt XAMPP entwickelt. Hier gibt es Versionen für Linux, Solaris, Windows und Mac OS X, die jedoch nur für Test- und Entwicklungsumgebungen genutzt werden sollen. Da PHP normalerweise in einer Webserver-Umgebung läuft, unterliegt es auch dem zustandslosen HTTP. Jede PHP-Seite belastet den Webserver durch den Interpreter, zudem arbeitet der Interpreter den Quelltext bei jedem Aufruf erneut ab. Das mindert die Reaktionsgeschwindigkeit des Servers und erhöht die Last. Um dem entgegenzuwirken, stehen verschiedene Bytecode-Caches zur Verfügung, die eine zur Ausführung vorbereitete Version des Programmes zwischenspeichern und somit den Zugriff auf diese Datei beim nächsten Aufruf beschleunigen (siehe auch Abschnitt Bytecode-Caching und Artikel PHP-Beschleuniger). Mit PHP lassen sich auch kommandozeilenorientierte Skripte schreiben, die vom Internet unabhängig sind. Die Qt-Erweiterung und die GTK-Erweiterung stellen sogar eine Programmierschnittstelle für eine grafische Oberfläche zur Verfügung, für die weder ein Webserver noch ein Browser benötigt werden. Die ersten Versionen der Schnittstellen zur grafischen Oberfläche und zu anderen Betriebssystemfunktionen waren spärlich und wurden kaum verwendet. Die aktuell entwickelte PHP-GTK-Version 2 strebt hingegen eine Abdeckung der GTK-API von 95 % an. Gegenwärtig wird PHP jedoch vor allem auf Webservern genutzt. Code-Beispiel. "Anmerkung: Der PHP-Interpreter führt nur den Code zwischen codice_1 und codice_2 aus. Der übrige Code, üblicherweise HTML, wird vom Interpreter nicht berücksichtigt. Es gibt verschiedene Möglichkeiten, PHP-Code innerhalb einer HTML-Website einzubinden. Neben wird auch oft die kürzere Form akzeptiert, je nach Konfiguration des Webservers. Welche Version verwendet wird, ist egal, jedoch sollte bei der Verwendung der Kurzform codice_3 darauf geachtet werden, dass andere Skriptsprachen, welche auf demselben Webhost verwendet werden, nicht auf dieselben Zeichen reagieren, da es sonst zu einer Doppel-Interpretation kommen kann. Allgemein. Kritiker führen eine Reihe von Unzulänglichkeiten in PHP an. So sei die Sprache ungesteuert gewachsen, wodurch ähnlich arbeitende Funktionen oft unterschiedlich benannt worden sind und die Reihenfolge der Funktionsparameter bei Funktionen mit ähnlichem Zweck teilweise nicht übereinstimmt. Zudem sind trotz vorhandener Objektorientierung viele Standardbibliotheken noch prozedural angelegt. Einige PHP-Module sind nicht threadsicher. PHP besaß bis Version 5.4 keinen eigenen Bytecode-Cache, was ohne entsprechende Erweiterung bei jedem Aufruf einer Datei ein komplettes Parsen notwendig machte. Seit PHP 5.5 wird Zend Optimizer+ als Bytecode-Cache mitgeliefert. Programmierungsspezifische Probleme. Die schwache Typisierung von PHP ist Teil des Konzepts, aber auch eine häufige Fehlerquelle. Ein Fehler tritt etwa auf, wenn numerische Werte mit Zeichenketten verglichen werden sollen, wobei es durch die implizite Typumwandlung zu unerwarteten Ergebnissen kommen kann, sofern nicht der Operator für typsichere Vergleiche verwendet wurde. Auch die unübliche Vereinigung des Array-Konzepts mit dem Dictionary-Konzept sorgt bei Programmierern, die mit anderen Programmiersprachen vertraut sind, teils für Fehler. Zudem ist es in PHP nicht möglich, eine Variablendeklaration zu erzwingen – Variablen werden vielmehr stets automatisch angelegt, sobald sie erstmals verwendet werden. Diese Bequemlichkeit hat zur Folge, dass etwa Tippfehler im Variablennamen zu schwer auffindbaren Programmfehlern führen können. Wird bei der Fehlerausgabe zusätzlich das Level E_NOTICE aktiviert, wird beim Verwenden einer nicht initialisierten Variable eine Fehlermeldung ausgegeben. Webanwendungsspezifische Probleme. Eine Änderung der PHP-Standardkonfiguration konnte im Zusammenspiel mit globalen Variablen bewirken, dass fremde Daten über URL-Parameter in ein Skript eingeschleust werden konnten. Ab PHP 5.4 ist dies nicht mehr möglich, da die Option für globale Variablen entfernt wurde. Allgemein. PHP setzt man üblicherweise als Servermodul, also als Teil der Webserver-Prozesse oder über FastCGI ein. Setzt man PHP als CGI-Programm ein, so kann sich das negativ auf die Ausführungsgeschwindigkeit auswirken, da für jede HTTP-Anfrage eine neue PHP-Interpreter-Instanz gestartet wird. Bytecode-Caching. Mit der Zend-Engine wird ein PHP-Skript zunächst zu einem (plattformunabhängigen) Bytecode (Zend-Opcode) übersetzt, aus dem zur Ausführung noch Maschinencode erzeugt werden muss. Durch Verwendung eines Bytecode-Cache kann die redundante Generierung von Opcode vermieden werden. Bis zur Version 5.4 besaß PHP keinen integrierten Bytecode-Cache, was dazu führte, dass ein Skript bei jedem Aufruf neu übersetzt werden musste. Um dem entgegenzuwirken, wurden einige Erweiterungen entwickelt, die diese Funktionalität nachrüsten, wie beispielsweise den eAccelerator, den Alternative PHP Cache, XCache sowie den kommerziellen Zend Optimizer. Ab der PHP-Version 5.5 wurde der Zend Optimizer+ nun in die Skriptsprache integriert. Besonders bei umfangreichen Skripten kann durch einen Bytecode-Cache eine deutliche Steigerung der Ausführungsgeschwindigkeit erreicht werden. Kompilierung. Der PHP-Compiler (PHC) ist ein OpenSource-Compiler von Paul Biggar, welcher PHP-Scripte in optimierten C-Code übersetzt und dann als eigenen Webserver ausführt. Die Grundlage für PHC ist Biggars Doktorarbeit aus dem Jahr 2009 und dessen mehrjährige Forschung an Konzepten zur Konvertierung von Scriptsprachen in kompilierte Sprachen. Mit HipHop existiert seit 2010 eine weitere freie Software zum Übersetzen von PHP-Code in optimierten C++-Code, der kompiliert werden kann, was nach Herstellerangaben dort die Leistung im Schnitt auf etwa das Doppelte steigert. HipHop wurde von Facebook entwickelt, um die Serverlast zu senken (laut Facebook um etwa 40 %). Es ist als Open-Source-Software auf GitHub zu finden. Schutzsysteme für PHP-Installationen. "Suhosin" ist ein von Stefan Esser, einem ehemaligen Mitglied des „PHP Security Response Team“ und Mitentwickler von PHP, entwickeltes Schutzsystem für PHP-Installationen. Es wurde entworfen, um den Server und die Benutzer vor bekannten und unbekannten Fehlern in PHP-Anwendungen und im PHP-Kern zu schützen. Lizenz und Bezug. PHP 3 wurde unter der GNU General Public License (GPL) vertrieben. Seit Version 4 wird PHP unter der PHP License vertrieben, da der neue Parser, die Zend Engine, vom Hersteller Zend unter einer nicht GPL-kompatiblen Lizenz veröffentlicht wird. Die PHP-Lizenz ist eine Softwarelizenz, die die freie Verwendung und Veränderung der Quelltexte erlaubt. Die Software kann kostenlos aus dem Internet geladen werden; daneben ist PHP auch im Lieferumfang einiger Betriebssysteme (so bei einigen Linux-Distributionen oder Mac OS X) enthalten. Prion. Prionen sind Proteine, die im tierischen Organismus sowohl in physiologischen (normalen) als auch in pathogenen (gesundheitsschädigenden) Konformationen (Strukturen) vorliegen können. Die englische Bezeichnung "prion" wurde 1982 von Stanley Prusiner vorgeschlagen, der für die Entdeckung der Prionen 1997 den Nobelpreis erhielt. Sie ist abgeleitet von den Wörtern "pr'"otein" und "i'"nfection" und bezieht sich auf die Fähigkeit von Prionen, ihre Konformation auf andere Prionen zu übertragen. Es handelt sich also nicht um Lebewesen, sondern um organische Toxine (Gifte) mit virusähnlichen Eigenschaften. Körpereigene Prionen kommen vermehrt im Hirngewebe vor, so dass pathologische Veränderungen schwerwiegende Folgen für den Organismus haben können. Die pathogenen Prionen sind mit großer Wahrscheinlichkeit für die Creutzfeldt-Jakob-Krankheit beim Menschen, BSE („Rinderwahn“) beim Rind oder Scrapie (Traberkrankheit) bei Schafen verantwortlich. Sie gelangen am wahrscheinlichsten durch kontaminierte Nahrung in den Körper (z. B. bei BSE, Chronic Wasting Disease oder Kuru). Andere Infektionswege wie etwa die Schmierinfektion konnten noch nicht ausgeschlossen werden. Pathogene Prionen können aber auch durch die spontane Umfaltung körpereigener Prionen entstehen (z. B. familiäre Variante der Creutzfeldt-Jakob-Krankheit, familiäre Schlaflosigkeit). Grundsätzlich sind pathogene Prionen von anderen Krankheitserregern wie Viren, Bakterien oder Pilzen zu unterscheiden, da sie keine DNA oder RNA enthalten. Sie sind nicht nur von großem wissenschaftlichem und medizinischem Interesse, sondern hatten durch die „BSE-Krise“ auch starke Auswirkungen auf Gebiete wie Landwirtschaft, Verbraucherschutz und Politik. Die vereinfachte Prionhypothese und Besonderheiten der Prionkrankheiten. Eines der zahlreichen im tierischen Körper vorkommenden Eiweiße heißt PrPC (Prion Protein cellular = zelluläres Prion-Protein). Es findet sich vor allem im Nervensystem, speziell im Gehirn. Zwischen den verschiedenen Tierarten und gegebenenfalls auch innerhalb einer Tierart unterscheiden sich die Prionen mehr oder weniger geringfügig. PrPC kommt vor allem an der Zelloberfläche vor und schützt die Zellen vor zweiwertigen Kupfer-Ionen, H2O2 und freien Radikalen. Des Weiteren wird vermutet, dass es einer der ersten Sensoren in der zellulären Abwehr von reaktivem Sauerstoff und freien Radikalen ist und Auswirkungen auf den enzymatischen Abbau von freien Radikalen hat. Gerät dieses normale Eiweiß PrPC in Kontakt mit einem PrPSc genannten Eiweiß (Prion Protein Scrapie; pathogene Form des Prion-Proteins, das in der Form zuerst bei an Scrapie erkrankten Tieren gefunden wurde), nimmt PrPC die Form von PrPSc an, „es klappt um“, es ändert seine Konformation. Es entwickelt sich eine Kettenreaktion, in der immer mehr PrPC in PrPSc umgewandelt werden. Große Mengen an PrPSc wirken zerstörerisch auf das Gehirn, da sie unlöslich sind und sich in den Zellen ablagern. Infolgedessen sterben diese Zellen ab; es entstehen Löcher im Gehirn, eine schwammartige Struktur entsteht. Daher auch der Name dieser Krankheit: spongiforme Enzephalopathie, schwammartige Gehirnerkrankung. Prionerkrankungen enden stets tödlich. Auch die familiären Formen von Prionkrankheiten lassen sich im Experiment übertragen, so kann beispielsweise das in einem Menschen aufgrund der genetischen Disposition entstandene PrPSc bei Mäusen die Krankheit auslösen, wenn es zuvor ins Gehirn gespritzt wurde. Prionen sind sehr widerstandsfähig gegen übliche Desinfektions- bzw. Sterilisationsverfahren, was auch ein Grund für die iCJD-Fälle und die BSE-Krise war. Heute gibt es auf die erschwerte Inaktivierung von Prionen abgestimmte strenge Vorschriften für die Sterilisierung von Material, das mit möglicherweise prionhaltigem Gewebe in Kontakt gekommen ist. Die Prionhypothese gilt heute als relativ gesichert. Dass außer dem PrPSc noch ein weiterer Faktor eine Rolle spielt, kann jedoch noch nicht endgültig ausgeschlossen werden. Nachdem auch die intensive Suche nach Viren, Viroiden oder Nukleinsäure überhaupt erfolglos blieb, gibt es kaum noch Wissenschaftler, die diesen Weg weiter verfolgen. In der Öffentlichkeit kursieren gelegentlich Außenseitermeinungen wie etwa die Organophosphattheorie, nach der BSE im Zusammenhang mit Insektengiften steht, wofür es jedoch keine wissenschaftlichen Hinweise gibt. Geschichte der Prionforschung. Einzelne Prionkrankheiten wurden schon vor langer Zeit beschrieben (Scrapie, die Prionkrankheit des Schafes 1759 von Leopoldt; CJD 1920 von Creutzfeld), ohne dass man etwas über die Ursache dieser Krankheiten wusste oder sie in eine Gruppe einordnen konnte. Nachdem 1932 die Übertragbarkeit von Scrapie nachgewiesen und 1957 erstmals Kuru beschrieben worden war, wurde in den 60er Jahren die Ähnlichkeit dieser Krankheiten festgestellt und Kuru ebenfalls experimentell auf Affen übertragen. Obwohl es auch erste Anhaltspunkte für einen nukleinsäurefreien Erreger gab, ging man allgemein am ehesten von Lentiviren als Ursache aus. Die 1982 von Stanley Prusiner veröffentlichte „Prionhypothese“ wurde zunächst in der Wissenschaft kritisch aufgenommen, da ein nukleinsäurefreies infektiöses Agens bis dahin nicht vorstellbar war. Im Nachhinein erwies sich diese Hypothese jedoch als bahnbrechend und 1997 wurde Prusiner für seine Arbeiten auf dem Gebiet der Prionforschung mit dem Nobelpreis geehrt. In den Jahren nach der Aufstellung dieser Hypothese konnten in zahlreichen Experimenten Hinweise für die Richtigkeit dieser Hypothese gewonnen werden, allerdings kein endgültiger Beweis. 1986 begann die BSE-Epidemie in Großbritannien, 1996 wurden die ersten Fälle von vCJD beschrieben. Politiker versuchten, ihre Versäumnisse in Prävention und Verbraucherschutz unter anderem durch großzügige Ausgaben im Bereich der Prionforschung wettzumachen. Zahlreiche Arbeitsgruppen wurden neu eingerichtet, Zentren erbaut und Verbünde gegründet. Die Prionforschung wurde intensiviert und beschleunigt. 2007 ergaben sich Zweifel, ob der Gehalt eines Gewebes an pathogenen Prionen in jedem Fall mit dessen Infektiosität korreliert. Neue Forschungsergebnisse um die US-amerikanische Forscherin Susan Lindquist zeigen, dass Prionen eine wichtige Rolle bei der Neurogenese (Entwicklung neuer Nervenzellen im Gehirn) spielen. Struktur des Prion-Proteins. Physiologische (d. h. normale oder apathogene) Prionen haben zu 43 % die Struktur von Alpha-Helices. Die pathogenen Formen bestehen nur zu 30 % aus Alpha-Helices, zu 43 % bestehen sie aus Beta-Faltblatt-Strukturen. Die Gefahr der pathogenen Prionen besteht darin, dass sie in der Lage sind, die physiologischen, nicht pathogenen Prionen in pathogene umzuwandeln. Das Prion-Protein ist ein beim Menschen aus 253 Aminosäuren (AS) bestehendes Glykoprotein, das im Prion-Protein-Gen (PRNP) codiert wird. Die AS-Homologie zu anderen Säugetieren beträgt 85 % oder mehr, zwischen Rind und Mensch gibt es z. B. 13 AS-Unterschiede. Es sind jeweils eine oder mehrere Mutationen bekannt, die zu fCJD, GSS oder FFI führen. Am Codon 129 besteht ein Methionin/Valin-Polymorphismus, der für Krankheitsausbruch und -verlauf mitentscheidend ist. PrPC enthält zum großen Anteil alpha-Helices, PrPSc mehr beta-Faltblattstrukturen, aber beide enthalten die gleiche Aminosäure-Primärsequenz. Der genaue Vorgang der „Umfaltung“ von PrPC in PrPSc ist noch unbekannt. Diese verändert die Eigenschaften des Prion-Proteins, das PrPSc ist schlechter wasserlöslich (weil die hydrophoben Ketten nicht, wie bei der α-Helix üblich, zur Innenseite der Protein-Tertiärstruktur zeigen), weitestgehend resistent gegenüber vielen Desinfektionsmitteln, ionisierender und UV-Strahlung, hitzestabil (feuchte Hitze (131 °C) in zur Sterilisation in der Medizin eingesetzten Autoklaven zerstört das PrPSc erst nach zwei Stunden, so dass medizinische Instrumente viermal hintereinander autoklaviert werden müssen, bei trockener Hitze wird das Prion bei 200 °C erst nach 60 Minuten inaktiviert) und durch Proteasen nur schwer verdaulich (Proteasen können ein Protein am besten im entfalteten Zustand „zerschneiden“, die Denaturierung im Körper ist jedoch durch die veränderte Sekundärstruktur schlechter möglich). PrPC ist vor allem an Synapsen lokalisiert. Die PrPC spielen laut neuster Erkenntnisse eine Rolle bei der Bildung von Blut-bildenden Stammzellen (s. u.). Prionprotein-Knockoutmäuse zeigen nach einem Schlaganfall eine verlangsamte Genesung, zudem neigen die Mäuse zu Fettleibigkeit. Es gibt jedoch Hinweise auf eine Rolle als kupferbindendes Protein an der Synapse. Laut einer Veröffentlichung von US-Forschern in der Fachzeitschrift "PNAS" erhalten normale Prion-Proteine die Regenerationsfähigkeit von blutbildenden Stammzellen. In diesen Zellen treten Prionen in der Zellmembran auf und erfüllen offenbar keine wichtigen Aufgaben – zumindest solange der Körper gesund ist. Pathologie und Symptomatik von Prionkrankheiten. Prionkrankheiten sind vor allem durch motorische Störungen wie Ataxie und (am auffallendsten beim Menschen) kognitive Probleme bis zur Demenz gekennzeichnet. Nach einer Inkubationszeit von Jahren bis Jahrzehnten enden die Krankheiten stets tödlich. Im Gehirn finden sich bei der neuropathologischen Begutachtung unter dem Lichtmikroskop spongiöse (schwammartige) Veränderungen und, je nach Krankheit, unterschiedlich ausgeprägte Ablagerungen wie Amyloide, Kuru-Plaques und floride Plaques. Auswahl aktueller Forschungsgebiete. Es wird angenommen, dass die Ansteckung mit der Prionenkrankheit durch Prion-assoziierte Proteine erfolgt und nicht durch das eigentliche Prionprotein. Von besonderem Interesse ist deshalb die Erforschung der Prion-assoziierten Proteine. Weblinks. !Prion Pelit. Pelit (gr.: "pelos" - Ton, Schlamm) (entspricht weitgehend dem Tonstein) ist die Bezeichnung für feinklastische Sedimentgesteine mit Korngrößen unter 0,02 mm (Ton bis Mittelschluff). Der Begriff lässt sich materialunabhängig verwenden, d.h. nicht nur für klastische Silikatgesteine, sondern auch für klastische Karbonatgesteine. Im Fall einer Metamorphose erhalten Pelite die Vorsilbe "Meta"-, sie werden zu Metapeliten wie Glimmerschiefer oder Phyllit. Neben dem feinklastischen Pelit unterscheidet man mittelklastische (Psammite) und grobklastische Sedimente (Psephite). Allerdings werden diese drei Begriffe in der Regel fast ausschließlich für klastische Silikatgesteine verwendet. Während Kalkpelit und sehr selten auch Kalkpsammit noch gelegentlich in der Literatur zu finden sind, ist Kalkpsephit völlig unüblich. In der Karbonatpetrographie wird sehr viel häufiger das Begriffstrio Lutit/Arenit/Rudit zur Beschreibung oder Benennung von Gesteinen nach Korngrößen benutzt. Alternativ zum Schema Pelit/Psammit/Psephit zur Benennung von siliziklastischen Sedimentgesteinen nach Korngrößen werden die Begriffe Tonstein/Siltstein/Sandstein/Konglomerat oder Brekzie angewendet. Pilsner Bier. Pils(e)ner Bier, auch Pils oder Bier nach Pils(e)ner Brauart, ist ein nach der böhmischen Stadt Pilsen () benanntes, untergäriges Bier mit im Vergleich zu anderen Biersorten erhöhtem Hopfengehalt (und auch starkem Hopfenaroma) und höchstens 12,5 °P Stammwürzegehalt. Nach Pilsner Brauart hergestellte Biere bilden heute den Großteil der in Deutschland produzierten und verkauften Biere. Geschichte. Herrenporträt mit Hunden und Pilsglas, 19. Jahrhundert Das Bier wurde als Lagerbier und Exportbier sehr beliebt und auch außerhalb Böhmens verbreitet. Bald nannten sich viele Biere nicht nur in Deutschland "Pilsner", "Pilsener" oder auch nur "Pils". Dabei ist die "Pilsner Brauart" aus der schon damals berühmten "Bayerischen Brauart" entstanden, die vor allem auf dem schonend gedarrten und daher sehr hellen Malz beruhte. Das heute als Pilsner Malz bezeichnete und auf einer langsamen, kalten Gärung und langen Lagerung in kalten Höhlen und tiefen Kellern beruhende Bier ist typisch für diese Brauweise. Da das ehemalige Bier aus Pilsen – ein dunkles, trübes, warm vergorenes Bier – einen so schlechten Ruf hatte, dass sogar mehrere Fässer Bier aus Protest öffentlich auf dem Rathausplatz ausgeschüttet wurden, berief der Pilsner Braumeister des "Bürgerlichen Brauhauses" Martin Stelzer in Pilsen 1842 den bayerischen Braumeister Josef Groll aus Vilshofen nach Pilsen, um den Böhmen in Pilsen ein gutes Bier zu brauen. Josef Groll braute am 5. Oktober 1842 den ersten Sud nach Pilsner Brauart. Dieser wurde erstmals am 11. November 1842 öffentlich ausgeschenkt. Heute wird dieses Bier unter der Marke Pilsner Urquell vertrieben. Erst die Verfügbarkeit von wirtschaftlich arbeitenden Kältemaschinen ab den 1870er-Jahren machte das Brauen nach Pilsener Methode flächendeckend auch dort möglich, wo keine natürlichen Höhlensysteme zur Kühlung vorhanden waren. Zunächst setzte sich sogar für die untergärigen Biere der Begriff "Nach Bayerischer Brauart" durch, der erst später zu Pilsner Brauart geändert wurde. So existieren Etiketten der nach Pilsner Art brauenden Brauerei Heineken mit der Bezeichnung 'Nach Bayerischer Brauart'. Die Fürther Brauerei Geismann, die als erste Brauerei im heutigen Bayern Pils braute, taufte dieses 'Bayrisch Pilsener'. Der wesentliche Unterschied eines nach Pilsner Brauart gebrauten Bieres zu anderen Vollbieren – wie etwa dem Hellen – ist, dass es stärker gehopft und somit bitterer ist. Dabei wird insbesondere im Pilsner Urquell Hopfen aus der berühmten Hopfenanbauregion um die nordböhmische Stadt Saaz verwendet. In der tschechischen Stadt Pilsen können sich Besucher im städtischen Brauereimuseum ausführlich über die Geschichte des Pils’ informieren. Es beherbergt unter anderem frühere Mälzertrachten, antike Korkmaschinen und seltene Bierkrüge. Trivia. Dem Pilsner entspricht in der Schweiz das dortige „Spezialbier“. Aufgrund eines Abkommens über die Verwendung von Herkunftsangaben, Ursprungsbezeichnungen und anderen geografischen Bezeichnungen mit der Tschechoslowakei darf die Bezeichnung Pilsner dort nicht verwendet werden. Im Gegenzug dazu verzichtet Tschechien beispielsweise auf die Verwendung der Bezeichnung Emmentaler für Käse. Pschyrembel (Medizinisches Wörterbuch). Pschyrembel ist eine Marke für medizinische Nachschlagewerke des Verlags De Gruyter in Berlin. Der Name kommt von Willibald Pschyrembel, der lange das Klinische Wörterbuch des Verlags betreut hat. Dieses Wörterbuch ist ein alphabetisches Verzeichnis der gebräuchlichsten und wichtigsten Begriffe der Medizin, koordinierend für den Fachgebrauch und zugleich die medizinische Sprache auch nach außen bekannt machend. Im deutschen Sprachraum erlangte der Pschyrembel eine Bedeutung für die Medizin, wie ihn der Duden für die Sprache hat. Pschyrembel Klinisches Wörterbuch. Die Geschichte des Pschyrembel begann mit dem "Wörterbuch der klinischen Kunstausdrücke" des Mediziners Otto Dornblüth, das 1894 im Verlag Veit & Comp., Leipzig, erstmals erschien. Dieser Verlag gehört zu den fünf Gründungsverlagen des Verlags De Gruyter, der den Pschyrembel seither herausgibt. Die 265. Auflage – als "Pschyrembel Klinisches Wörterbuch 2014" betitelt – ist im Juni 2013 erschienen; sie löste die 264. Auflage „2013“ von September 2012 ab. Die aktuelle 266. Auflage erschien 2014. Seinen Namen hat das medizinische Standardwerk dem Berliner Arzt und Universitätsprofessor Willibald Pschyrembel (1901–1987) zu verdanken, der von 1931 bis 1982 alleiniger Redakteur und Autor des Werkes war. Neben der gedruckten Buchversion sind auch eine (kostenpflichtige) Online-Version sowie Versionen für Windows Mobile und iOS erhältlich. Eine Kuriosität des Pschyrembel ist der fingierte Artikel über die von Loriot erdachte "Steinlaus": Anfangs ein Scherz der Redaktion in der 255. Auflage, die ihn in der 257. Auflage wieder entfernte und nach vielen Lesernachfragen ab der 258. Auflage wieder einsetzte, findet der Eintrag heute eine große Fangemeinde und bekam sogar ein eigenes Weblog. Paläontologie. Die Paläontologie (gr. "palaiós" „alt“; "ōn", Genitiv "óntos", „Seiendes“; -logie) ist die Wissenschaft von den Lebewesen vergangener Erdzeitalter (z. B. Kreidezeit). Gegenstand paläontologischer Forschung sind Fossilien (lat. "fossilis" „ausgegraben“), das heißt in Sedimentgesteinen vorkommende Organismenreste und sonstige Hinweise auf vorzeitliche Lebewesen. Der französische Zoologe und Anatom Henri de Blainville führte 1825 den Begriff "Paläontologie" ein, der allmählich die älteren Bezeichnungen Oryktologie (gr. "oryktós" „ausgegraben“) und Petrefaktenkunde (lat. "petrefactum" „versteinert“) ersetzte. Geschichte. Baron Georges Cuvier gilt als Begründer der Paläontologie. Als Begründer der modernen, nach wissenschaftlichen Kriterien arbeitenden Paläontologie gilt der französische Naturforscher Georges Cuvier (1769–1832). Seine Ansicht, dass Katastrophen das Leben auf der Erde jeweils komplett auslöschten und der Mensch erst nach der letzten Eiszeit erschaffen wurde, widerlegte bereits der britische Geologe Charles Lyell (1797–1875), der die Eiszeittheorie beisteuerte. Parallel dazu erkannte der französische Amateurarchäologe Jacques Boucher de Perthes (1788–1868) als erster in den Steinartefakten menschliche Schöpfungen. Der Franzose Marcellin Boule (1881–1942) schuf mit seinem Eolithen-Experiment von 1905 die Möglichkeit, menschliche Werkzeuge von natürlich entstandenen Formen zu unterscheiden. Der Schweizer Arzt Otto Hauser (1874–1932) machte in Frankreich (Le Moustier) den professionellen Einstieg in die Höhlen- und Abriforschung. Er stieß dort auf den Widerstand der einheimischen Forschung. Der erste deutsche Paläontologe, der Darwins Abstammungslehre vertrat, war Ernst Haeckel (1834–1919). Er war Zoologe und brachte die Entwicklung zum Menschen über die Hominiden in die Forschung ein. Er hatte Rudolf Virchow zum Gegner, der ihn den „Affenprofessor“ nannte. Haeckels Anregungen wurden von dem niederländischen Anatom, Geologen und Militärarzt Eugène Dubois (1858–1940) und dem deutschen Paläontologen Gustav Heinrich Ralph von Koenigswald (1902–1982) aufgenommen. Seit 1997 wurden in Deutschland 21 Paläontologie-Professuren aufgegeben, acht von 27 Hochschulstandorten wurden ganz gestrichen. Teilgebiete. Hinzu kommt die Palichnologie, die fossile Lebensspuren verschiedener Erzeuger erforscht. Die Paläontologie der Makrofossilien unterscheidet sich in ihrer Methodik von der Mikropaläontologie, die unter Zuhilfenahme verschiedener Mikroskopie-Techniken Mikrofossilien und die noch kleineren Nannofossilien untersucht. Mikrofossilien können Überreste von Mikroorganismen und mikroskopisch kleine Zeugnisse größerer Lebewesen sein. Geologische Kartierung. Der gezielten Suche nach Fossilien in einer paläontologischen Grabung geht die geologische Kartierung der (mutmaßlich) fossilführenden Sedimentgesteine voraus. Ziel ist es, neue Fundpunkte zu finden, die Lage der bereits bekannten Fundhorizonte zu benachbarten Schichten und Gesteinseinheiten aufzuklären und den Ablagerungsraum sedimentologisch näher zu charakterisieren, zum Beispiel ob Sedimente in einem See oder in einem Meer gebildet wurden. Eine derartige Übersichtskartierung entfällt, falls das Alter, die stratigraphische Einordnung und die Lithologie der fossilführenden Gesteine bereits hinreichend bekannt sind. Paläontologische Grabung. Eine systematische paläontologische Grabung erfolgt Schicht für Schicht vom Hangenden, das heißt beginnend mit der oben aufliegenden jüngsten Schicht, zum Liegenden, das heißt in Richtung der darunter liegenden älteren Schichten. Begleitend zur Fossiliensuche ist die Geologie der abgetragenen Schichten genau zu beschreiben. Die Horizonte werden durchnummeriert. Die Nummerierung wird auf die Fossilfundstücke übertragen, so dass sie exakt den Horizonten zugeordnet werden können. Falls größere Organismenreste (wie beispielsweise Dinosaurier-Skelette) Ziel der Grabung sind, ist die Lage einzelner Knochen und Skelettteile innerhalb einer Schicht mit Hilfe eines darüber gelegten Rasters exakt zu dokumentieren. Das ist wichtig, um z. B. Sterbehaltungen oder Ablagerungs- und Transportprozesse zu rekonstruieren und Knochen unterschiedlicher Individuen auseinanderzuhalten. Für die Gewinnung von Mikrofossilien werden Gesteinsproben der einzelnen Horizonte genommen und später im Labor aufbereitet. Präparation und Aufbereitung. Noch vor Ort werden bröcklige Fossilreste geklebt bzw. mit alkohollöslichen Chemikalien für die spätere Präparation fixiert. Zum Schutz von Knochenfunden kann auch die Ummantelung mit Gips erforderlich sein. Falls Fossilien auf mehrere Gesteinsplatten verteilt sind, werden diese oft an der Bruchstelle wieder zusammengeklebt. Die spätere Präparation der Fossilien im Labor erfolgt meistens mechanisch, das heißt mit Skalpell und Präpariernadeln (Druckluftmeißel/Airtool) unter der Lupe oder unter Verwendung eines Stereomikroskops. Mit Hilfe von Röntgenstrahlung können vom Gestein verdeckte Fossilienteile lokalisiert werden. Schädigungen bei der Präparation werden auf diese Weise vermieden. Oftmals lassen sich Mikrofossilien mit Hilfe von Säureätzung oder anderen nasschemischen Verfahren aus dem Gestein herauslösen (siehe Mikropaläontologie). Dokumentation/ Beschreibung/Klassifikation. Wichtig für die weitere Analyse der Fossilien ist die Darstellung mit verschiedenen Methoden, d. h. zeichnerisch, fotografisch und gegebenenfalls zur Sichtbarmachung filigraner Strukturen mit dem Rasterelektronenmikroskop. Die fotografische und/oder zeichnerische Dokumentation bildet die Grundlage für eine Beschreibung des Fossilfunds und die darauf beruhende systematische Einordnung. Rekonstruktion. Aus der Fossilzeichnung kann unter Berücksichtigung bereits bekannter Exemplare und/oder Vertreter verwandter Gruppen der ursprüngliche Skelettzusammenhang (bei Tieren) oder Organzusammenhang (z. B. bei Pflanzen) rekonstruiert werden. Eine Rekonstruktion des Lebensbildes kann im Anschluss erfolgen. Dabei fließen Interpretationen zur Funktion, Lebens- und Fortbewegungsweise des fossilen Lebewesens mit ein. Gegebenenfalls wird auch der Todesvorgang des Tieres rekonstruiert. Palökologische Auswertung der Geländedaten. Da die Fossilinhalte aller Fundschichten genau dokumentiert sind, kann in dem Fall, dass die jeweiligen Organismenreste nicht von verschiedenen Ursprungsorten antransportiert wurden, sondern aus demselben Ökosystem stammen, eine Analyse der Faunen- und Florenzusammensetzung und im Anschluss eine Rekonstruktion des Nahrungsnetzes erfolgen. Die sedimentologische Beschreibung liefert ergänzende Hinweise zu Transport- und Ablagerungsprozessen, die zur Bildung des fossilführenden Gesteins führten. Umgekehrt liefern Fossilien den Geologen Aussagen zur Natur des Sedimentationsraums, zum Beispiel, wenn die vorherrschenden Fossiliengruppen nur unter ganz bestimmten Umweltbedingungen (z. B. am Meeresboden in ungetrübtem Wasser bei Temperaturen zwischen 18 und 20 °C und einer Salinität < 2,5 %) vorkamen. Der vertikalen Abfolge von Horizonten entspricht eine zeitliche: Durch den Vergleich der Lebensgemeinschaften verschiedener Horizonte kann auf die Entwicklungsgeschichte eines vorzeitlichen Ökosystems geschlossen werden. Statistische Methoden. Falls die Stichproben groß genug sind, das heißt von einer Art genügend Individuen in einem Horizont gefunden und dokumentiert wurden, können diese als Äquivalent zu einer natürlichen Population in Hinsicht auf die Variabilität von Körpermerkmalen untersucht werden. Auch die Zusammensetzung des Ökosystems kann gegebenenfalls quantitativ erfasst werden (z. B. Räuber-Beute-Zahlenverhältnisse). Geochemische Analysen. Der Chemismus von Gewässern kann Einfluss auf die Zusammensetzung von Skeletten und Gehäusen haben. Oftmals sind in akkretionär wachsenden Hartteilen jahres- und tageszeitliche Schwankungen der chemischen und Isotopen-Zusammensetzung zu verzeichnen. Diese lassen sich zum Teil klimatisch interpretieren (siehe auch Paläoklimatologie). Die chemische Zusammensetzung von Skeletten lässt sich z. B. mit Hilfe von Mikrosondenanalysen aufklären. Die Analyse der Isotopenzusammensetzung erfordert massenspektroskopische Verfahren. Histologische Untersuchungen. Die mikroskopische Analyse von Dünnschliffen, die von Knochen oder Gehäusen angefertigt wurden, liefert Aussagen zum Wachstum und zur früheren Gewebebeschaffenheit der jeweiligen Hartteile. Sie enthalten mitunter wichtige Anhaltspunkte zur Physiologie und Ontogenese des Hartteilbildners. Biomechanische Modelle. Bei vollständiger Erhaltung von Skeletten können Bewegungsabläufe fossiler Tiere in Form von Computermodellen simuliert werden. Auf diese Weise ist es möglich, bestimmte Verhaltens- und Lebensweisen auszuschließen oder als wahrscheinlich anzunehmen. Phylogenetische Analysen. Verwandtschaftsverhältnisse und Stammbäume fossiler Organismengruppen werden heute im Wesentlichen durch Methoden der rechnergestützten Kladistik ermittelt. Dabei werden Merkmalskombinationen der zu untersuchenden fossilen Arten miteinander verglichen und Stammbäume in Form von Verzweigungsschemata (Kladogrammen) nach dem Prinzip der Sparsamkeit errechnet. Dem entsprechend repräsentieren die Ergebnisse dieser Analysen den mutmaßlichen Verlauf der Evolution unter der Annahme möglichst weniger Evolutionsschritte. Stratigraphische Beziehung (Korrelation). Alle fossilen Arten, die eine Fundstätte hervorbringt, kommen in einem bestimmten relativ engen geologischen Zeitraum vor. Falls diese Arten auch von anderen Fundorten bekannt sind, folgt daraus ein möglicher gemeinsamer Bildungszeitraum der verschiedenen Fundschichten. Der Vergleich mehrerer Sedimentgesteinsabfolgen, die bestimmte Fossilien sowie durch geochronologische Methoden datierbare Vulkanite (wie z. B. Tuffe) enthalten, ermöglicht die Zuweisung genauerer Alter (das heißt solcher mit geringeren Fehlerspannen). Besonders gut entwickelt ist die biostratigraphische Untergliederung von überwiegend terrestrischen Sedimenten des Känozoikums in Europa mit Hilfe von Landsäugetierresten. Qualität. Qualität ist die Bezeichnung einer wahrnehmbaren Zustandsform von Systemen und ihrer Merkmale, welche in einem bestimmten Zeitraum anhand bestimmter Eigenschaften des Systems in diesem Zustand definiert wird. Qualität könnte sowohl ein "Produkt" wie Wein und dessen chemische Bestandteile und den daraus resultierenden subjektiv bewertbaren Geschmack beschreiben, als auch die "Prozesse" der Reifung der Traube, der Produktion und des Vertriebs des Weines, oder den Prozess des Managements der Winzerei. In der Bedeutung b) spricht man von "Qualitätswein" oder "Wein mit Prädikat" bzw. von "Excellentem Management". ISO und IEC-Normierung. Qualität wird laut der Norm (der gültigen Norm zum Qualitätsmanagement), als "„Grad, in dem ein Satz inhärenter Merkmale Anforderungen erfüllt“", definiert. Die Qualität gibt damit an, in welchem Maße ein Produkt (Ware oder Dienstleistung) den bestehenden Anforderungen entspricht. Die Benennung der Qualität kann zusammen mit Adjektiven wie schlecht, gut oder ausgezeichnet verwendet werden. "Inhärent" bedeutet im Gegensatz zu „zugeordnet“ "einer Einheit innewohnend", insbesondere als ständiges Merkmal. Damit sind objektiv messbare Merkmale wie z. B. Länge, Breite, Gewicht, Materialspezifikationen gemeint. Nicht inhärent sind subjektiv zugeordnete Beschreibungen wie „schön“ oder auch der Preis, weil diese eben nicht objektiv messbar sind. Der Preis oder ein persönliches Urteil sind also nicht Bestandteil der Qualität. Durch die Definition einer Zielgruppe und Meinungsumfragen kann das subjektive Empfinden dieser Zielgruppe ermittelt, ein inhärentes Merkmal definiert und damit „messbar“ und Bestandteil der Qualität werden. Diese Definition löste die Formulierung des DIN EN ISO 8402:1995-08, des früheren Standards zum Qualitätsmanagement, ab. Nach dieser ist Qualität "„die Gesamtheit von Merkmalen einer Einheit bezüglich ihrer Eignung, festgelegte und vorausgesetzte Erfordernisse zu erfüllen.“" Einheiten sind dabei Produkte, Dienstleistungen, Konzepte, Entwürfe, Software, Arbeitsabläufe, Verfahren und Prozesse; Qualität ist eine Funktion der Anspruchsklasse. Nach der IEC 2371 ist Qualität die "Übereinstimmung zwischen den festgestellten Eigenschaften und den vorher festgelegten Forderungen einer Betrachtungseinheit". Während Qualität früher traditionell als eine Eigenschaft von Produkten oder Dienstleistungen verstanden wurde, also die Erfordernisse der Kunden im Vordergrund standen, erstreckt sich der Qualitätsbegriff im Rahmen von Total-Quality-Konzepten, wie dem Total-Quality-Management als umfassende Variante des Qualitätsmanagements, über ganze Unternehmen. Neben die Kundenanforderungen treten die Anforderungen von Mitarbeitern, Kapitalgebern und Öffentlichkeit (rechtliche Anforderungen), an deren Erfüllung sich die umfassende Qualität eines Unternehmens („Total Quality“) misst. Unternehmerisches Qualitätsverständnis. Das unternehmerische Qualitätsverständnis geht über das Qualitätsverständnis der hinaus. Letztere versteht Qualität als Überdeckungsgrad zwischen expliziten und impliziten Forderungen des Kunden „Soll“ und den gelieferten Eigenschaften „Ist“. Eine alleinige Ausrichtung des Unternehmens auf Kundenwünsche ist jedoch nicht zwangsläufig unternehmerisch. Beim unternehmerischen Qualitätsverständnis stellt erst der Überdeckungsgrad der drei Zielgrößen „Kundenforderungen“ (Sollen), „Unternehmensausrichtung“ (Wollen) und „Unternehmensfähigkeit“ (Können) unternehmerische Qualität dar. Kundenforderungen sind z. B. Forderungen nach spezifischen Funktionalitäten oder Eigenschaften, die z. B. ein Produkt (aus Sicht des Kunden) erfüllen soll. In der Unternehmensausrichtung spiegeln sich die Ziele und die strategische Ausrichtung des Unternehmens wider. Die Unternehmensausrichtung definiert, wie ein Unternehmen den Markt und damit die Kunden bedienen möchte. Dabei orientiert sich das Unternehmen an den gesellschaftlichen sowie selbst auferlegten Werten. Unter der Unternehmensfähigkeit werden die Kompetenzen verstanden, die das Unternehmen besitzt, um die gesetzten Ziele zu erreichen und die Kundenforderungen umzusetzen. Qualität im Sprachgebrauch. Obgleich die Bezeichnung „Qualität“ an sich keine Bewertung beinhaltet, wird der Begriff im Alltag oft wertend gebraucht. So wird Qualität etwa als Gegenstück zu Quantität verstanden ("Quantität ist nicht gleich Qualität"). „Quantität“ bezeichnet in Wahrheit lediglich die Menge von qualitativen Eigenschaften und drückt sich daher in Mengen- oder Messwerten aus. Die Redewendung bezieht sich jedoch darauf, dass in der Alltagssprache Qualität oft ein Synonym für Güte ist, oft ist daher von „guter“ oder „schlechter“ Qualität die Rede. Kauft ein Kunde ein Produkt oder eine Dienstleistung und erfüllen diese ihre Zwecke für den Kunden, so haben sie im Allgemeinen Sprachgebrauch eine „gute Qualität“. Dieses subjektive, kundenbezogene Qualitätsverständnis lässt sich nur sehr schwer insbesondere durch Marktforschung erfassen, da es sich individuell stark unterscheiden kann. "Qualität ist, wenn der Kunde wieder kommt und nicht die Ware." Produkt-, Service- und Prozessqualität. Tatsächlich hat sich der Begriff „Qualität“ im wirtschaftlichen Alltag als ein allgemeiner Wertmaßstab etabliert, der die Zweckangemessenheit eines Produkts (Produktqualität), einer Dienstleistung (Servicequalität) oder eines Prozesses (Prozessqualität) zum Ausdruck bringen soll. Dieses Verständnis zeigt sich etwa im Ausdruck „Qualitätsarbeit“. Sie findet häufig in einem bereichsübergreifenden, die Qualität der einzelnen Ergebnisse sicherndem, System statt. Die Planung, Steuerung und Kontrolle aller hierzu nötigen Tätigkeiten wird als Qualitätsmanagement bezeichnet. Als Ergebnis entsteht das „Qualitätsprodukt“. Der Unterschied zwischen Produkt- und Prozessqualität kann in der Praxis bei Fragen der Haftung zum Tragen kommen. Beispielsweise berücksichtigte das Oberlandesgericht Zweibrücken 2014 bei seiner Zurückweisung von Haftungsansprüchen, welche im Zusammenhang mit den fehlerhaften Brustimplantaten des Herstellers PIP gegen den TÜV Rheinland erhobene worden waren, dass der TÜV Rheinland zwar das Qualitätssicherungssystem von PIP zu prüfen hatte, nicht aber die Beschaffenheit und Qualität der hergestellten Produkte selbst. Wo sich Produktqualität mit quantitativen Größen messen lässt, wird sie häufig als "technische Qualität" bezeichnet. Das betrifft beispielsweise Eigenschaften wie Bruchfestigkeit, Belastbarkeit, Langlebigkeit, Farbechtheit usw. Als eine der einfachsten Definitionen für Qualität gilt hier die Regel: "Qualität ist die Übereinstimmung von Ist und Soll", also die Erfüllung von Spezifikationen oder Vorgaben (Fulfilment of a specification) im Gegensatz zu der Erfüllung von Erwartungen und Zielen als dem übergreifenden Qualitätsanspruch (Fitness for Purpose). In der Produktion werden hierbei heute Kennzahlen zur Qualität über rechnergestützte Systeme bestimmt. Diese Systeme zur Qualitätssicherung werden CAQ-Systeme (CAQ von engl. "Computer Aided Quality assurance") genannt. Qualitätsbegriff in der Medizin. Aufgeführte Sichtweisen zur Qualität sind in der Heilkunde unter den Stichworten Struktur-, Prozess- u. Ergebnisqualität wiederzufinden. Die transzendente Betrachtungsweise, die schon in der Renaissance hinterfragt wurde, hat sich überall da erhalten, wo Einzelfälle und nicht objektivierbare Erfolge bei Patienten und Behandlern eine Rolle spielen. Die Wege zu einer qualitativ hochwertigen und somit erfolgreichen Behandlung werden über „Expertenäußerung“, Medizinische Leitlinien der Fachverbände bis hin zu justitiablen Richtlinien im Rahmen der medizinischen Qualitätssicherung festgelegt. In Bezug auf neuartige Behandlungstechniken und ihre Relevanz für therapeutische Minimal- oder Maximalstandards gelten zum Teil unterschiedliche Bewertungskriterien. Wissenschaftliche und berufspolitische Organisationen versuchen im Konsens bei den verschiedenen miteinander konkurrierenden Therapien den Grad der Evidenz zu bestimmen. Bei Krankenkassen und Patienten, die eine Kostentransparenz besitzen (Zuzahler) hat sich ein „materialistischer Qualitätsbegriff“ durchgesetzt. D. h. ein gutes Produkt für einen angemessenen Preis, was natürlich auch eine (zahn)ärztliche Dienstleistung sein kann. Berufe im Qualitätsbereich. Die Deutsche Gesellschaft für Qualität bietet Bildungsveranstaltungen in diesem Umfeld an. Quentin Tarantino. Quentin Jerome Tarantino (* 27. März 1963 in Knoxville, Tennessee) ist ein US-amerikanischer Filmregisseur, Produzent, Drehbuchautor, Kameramann und Schauspieler. Er ist zweifacher Oscar- und Golden-Globe-Preisträger sowie Gewinner der Goldenen Palme der Internationalen Filmfestspiele von Cannes. Kindheit und Jugend. Tarantino kam als Sohn der damals erst 16-jährigen Connie Tarantino und des 21-jährigen Italo-Amerikaners Tony Tarantino in Knoxville, Tennessee, zur Welt. Seinen Namen verdankt er Quint Asper, einer Figur aus der Westernserie "Rauchende Colts". Diese wurde zur Zeit seiner Geburt von Burt Reynolds gespielt. Die Figur in der Serie war Halbblutindianer wie Tarantinos Mutter (jeweils zur Hälfte irischer und Cherokee-Abstammung). Als Tarantino zwei Jahre alt war, zog seine Mutter mit ihm nach Los Angeles, wo sie ihn alleine großzog. Als Einzelkind verbrachte er seine Freizeit besonders gern in kleinen Vorstadtkinos, die hauptsächlich Martial-Arts- und B-Movies (Grindhousefilme) zeigten. Erste Schritte beim Film. Mit 15 Jahren brach Tarantino die High School ab und begann eine Schauspielausbildung. Tarantino ist Legastheniker. Fünf Jahre später bekam er wegen seines umfassenden Filmdetailwissens einen Job in der "Video Archives"-Videothek in Manhattan Beach. Er schrieb zusammen mit seinen Freunden Roger Avary und Jerry Martinez die Drehbücher "My Best Friend’s Birthday" (1987, die letzten beiden Akte des Films sind nach ihrer Fertigstellung im Schneideraum verbrannt) und "The Open Road". Das zuletzt genannte wurde wegen seiner Länge (über 500 Seiten) jedoch von sämtlichen Studios abgelehnt und später in "True Romance" und "Natural Born Killers" aufgeteilt. Tarantinos Filmkarriere begann dann mit einer gezielten Lüge: Er behauptete, er habe eine Rolle in Godards Verfilmung von "König Lear", „die ohnehin niemals jemand anschauen würde“ (Zitat Tarantino), gespielt. In Sundance besuchte Tarantino den Regie-Workshop von Robert Redford, bei dem er Terry Gilliam traf. Dieser habe ihn bezüglich der Umsetzung filmischer Ideen ermutigt; denn es gebe genügend Spezialisten. Als Regisseur müsse man, so Tarantino in einem Interview mit der "Woche", nur wissen, was man wolle – „so wurde ich Regisseur“. Von der vergeblichen Suche nach Investoren frustriert, verfasste er Anfang der 1990er das Skript zu "Reservoir Dogs – Wilde Hunde", das er ursprünglich mit bescheidenen Mitteln selbst verfilmen wollte. Auf Initiative des Produzenten Lawrence Bender wurde jedoch der Schauspieler Harvey Keitel auf das Projekt aufmerksam, der seine finanzielle Unterstützung zusicherte. Der Film, in dem neben Keitel und Tarantino auch Michael Madsen, Steve Buscemi, Chris Penn, Tim Roth und Lawrence Tierney mitwirkten, wurde ein großer Erfolg und dann auch auf dem Sundance Film Festival gezeigt. Tarantino galt als neuer Hoffnungsträger des unabhängigen Films und fand nun auch Käufer für seine weiteren Drehbücher. 1993 wurde "True Romance" von Tony Scott verfilmt und Oliver Stone drehte ein Jahr später die kontroverse Mediensatire "Natural Born Killers", von der sich Tarantino jedoch distanzierte. Zusammen mit Lawrence Bender gründete er schließlich die Produktionsfirma A Band Apart. Pulp Fiction und Jackie Brown. Tarantino begann 1993 mit den Dreharbeiten an seinem dritten Spielfilm, "Pulp Fiction". Auch dieser entstand mit relativ bescheidenen Mitteln, wurde jedoch ein sensationeller Erfolg an den Kinokassen. Viele Kritiker lobten die Erzählstruktur und die clevere Handlung, auch wenn einzelne die extreme und übertriebene Darstellung von Gewalt bemängelten. Der Film verhalf Schauspielern wie John Travolta, Samuel L. Jackson und Uma Thurman zu einem Karriereschub und erhielt zahlreiche Preise (unter anderem die Goldene Palme von Cannes, den Oscar für das beste Drehbuch sowie sechs weitere Nominierungen). Nach dem kommerziellen Durchbruch legte Tarantino als Regisseur eine dreijährige Pause ein. 1995 schrieb er Teile der Drehbücher zu dem Episodenfilm "Four Rooms" und zu "From Dusk Till Dawn", das von seinem Freund Robert Rodriguez verfilmt wurde. Für seine nächste Regiearbeit "Jackie Brown" (1997) besetzte Tarantino unter anderem Pam Grier, Robert Forster (zwei seiner Jugendidole), Robert De Niro, Samuel L. Jackson, Bridget Fonda und Michael Keaton. Der Film war für einen Oscar nominiert, erhielt einen Golden Globe Award und eine weitere Golden-Globe-Nominierung. Kill Bill, Death Proof, Inglourious Basterds. Nach einer weiteren Pause von fünf Jahren kündigte Tarantino sein nächstes Projekt an – das Racheepos "Kill Bill". Während der Dreharbeiten entschied er, den Film in zwei Teilen zu veröffentlichen, die im Oktober 2003 und im April 2004 ins Kino kamen. Im Jahr 2005 unterstützte er seinen Freund Robert Rodriguez bei den Dreharbeiten zu "Sin City" und führte Gast-Regie für die symbolische Gage von einem Dollar, da Rodriguez, ebenfalls für einen Dollar, den Soundtrack von Kill Bill – Volume 2 zusammengestellt hatte. Das nächste Projekt, das im April 2007 in die amerikanischen Kinos kam, war "Grindhouse", ein Double Feature, bei dem Tarantino erneut zusammen mit Robert Rodriguez Regie führte. Tarantinos Teil war "Death Proof – Todsicher", eine Art Slasher-Film mit einem Auto als Waffe. 2007 lief Tarantinos "Death Proof" im Wettbewerb der 60. Filmfestspiele von Cannes. Tarantino drehte 2009 "Inglourious Basterds"; die Dreharbeiten fanden unter anderem in den Babelsberger Filmstudios, in Potsdam und in Görlitz statt. Mit diesem Film war Tarantino erneut im Wettbewerb der 62. Internationalen Filmfestspiele von Cannes vertreten; Christoph Waltz wurde für seine Darstellung des Antagonisten Hans Landa mit dem Darstellerpreis ausgezeichnet. Auch bei der Oscarverleihung 2010 wurde Waltz als „Bester Nebendarsteller“ ausgezeichnet; in weiteren sieben Kategorien kam "Inglourious Basterds" zudem auf eine Nominierung. Django Unchained und The Hateful Eight. Anfang Mai 2011 wurde bekannt, dass Tarantinos nächstes Projekt ein Western mit dem Titel "Django Unchained" sein würde. Christoph Waltz, Jamie Foxx, Leonardo DiCaprio, Kerry Washington und Samuel L. Jackson übernahmen Rollen. Christoph Waltz wurde als „Bester Nebendarsteller“ mit einem Golden Globe ausgezeichnet und bekam zum zweiten Mal nach 2010 den Academy Award. Seit dem 17. Januar 2013 ist "Django Unchained" in Deutschland zu sehen. Ende November 2013 kündigte Tarantino in der "The Tonight Show" einen weiteren Western, "The Hateful Eight", an. Nachdem sein Drehbuch, das er seinen Angaben zufolge nur sechs Personen ausgehändigt hatte, im Januar 2014 vermutlich von einer Schauspieleragentur an Dritte weitergereicht worden war, kündigte er einen Stopp der Planungen für den Film an. Am 21. April 2014 veranstaltete er in Los Angeles mit den ursprünglich angedachten Schauspielern eine Lesung des Drehbuchs. "The Hateful Eight" spielt während eines Schneesturms in einem Kurzwarenladen und wird von zwei Kopfgeldjägern dominiert. Die festsitzende Notgemeinschaft wird, Stück für Stück, von einem geheimnisvollen Mörder dezimiert. Tarantino verkündete nach der Lesung, dass es sich noch nicht um eine finale Fassung handle und dass er das Drehbuch noch mehrmals umschreiben wolle. Am 25. Dezember 2015 kam der Film in die Kinos. In Deutschland erscheint der Film am 28. Januar 2016. Stilistik. Tarantino wird der Riege der Autorenfilmer zugeordnet, da er alle wichtigen Aspekte seiner Filme selbst bestimmt, Regie führt und oft auch selbst auftritt ("Pulp Fiction", "Reservoir Dogs", "Four Rooms", "Death Proof", "Inglourious Basterds", "Django Unchained"), sich kurz im Hintergrund zeigt ("Kill Bill") oder auch nur etwas spricht ("Jackie Brown"). Ferner sind seine Filme oft über bestimmte Dialoge, Markenzeichen oder Anspielungen miteinander verknüpft. So wird schon in "Reservoir Dogs" über "Pam Grier" gesprochen, die erst fünf Jahre später in "Jackie Brown" die Hauptrolle spielte. Vic Vega in "Reservoir Dogs" ist der Bruder von Vincent Vega aus "Pulp Fiction". Der Klingelton von Abbeys Mobiltelefon, der in "Death Proof" zu hören ist, während sie in einer Tankstelle einkauft, ist die Titelmelodie von "Kill Bill". Auch das Schwert aus "Pulp Fiction", mit dem Butch Coolidge Zed und seinen Kollegen verwundet bzw. tötet, ist ein Hattori-Hanzō-Schwert, das in "Kill Bill" eine tragende Rolle hat. Des Weiteren ist der "Bärenjude" Donny Donowitz aus "Inglourious Basterds" der Vater des Lee Donowitz aus "True Romance". Bisher drehte Tarantino all seine Werke mit Ausnahme der Gastregie in "Sin City" auf analogem Film mit der Begründung: „Ich werde nie im Leben digital drehen, das hasse ich! Diese Filme sehen doch grauenvoll aus. Falls eines Tages Filme ausschließlich digital gedreht werden sollten, werde ich Romane schreiben.“ Vorlieben und Retroelemente. In seinen Filmen brachte Tarantino ganz unterschiedliche seiner Vorlieben unter. Durch seine Arbeit in einer Videothek wurde er zu einem großen Fan von skurrilen B-Filmen und Kampfkunst-Filmen, die er in seinen eigenen Werken häufig zitiert. Außerdem ist er ein großer Fan von Sergio Leones Italowestern, deren Stilmittel er häufig in seine Filme einbaut, so zum Beispiel in "Kill Bill – Volume 2". In einem Interview mit der New York Times erwähnte Tarantino, dass er William Witney zu seinen Lieblings-Regisseuren zähle, insbesondere wegen "The Golden Stallion" (1949), einem Film, der auf Roy Rogers zugeschnitten war. Um Witney zu ehren, widmete er diesem den Film "Kill Bill – Volume 2". Zu seinen Vorbildern zählen außerdem Sam Peckinpah, Stanley Kubrick, Brian De Palma, Martin Scorsese, Alfred Hitchcock und James Best. Oft besetzt er ältere, bekannte Schauspieler wie John Travolta, Michael Keaton, und Kurt Russell oder er setzt Schauspieler ein, die aus Filmen bekannt sind, auf die angespielt wird. Das sind zum Beispiel Pam Grier in "Jackie Brown", Sonny Chiba und David Carradine in "Kill Bill" und Franco Nero in "Django Unchained". So manchem Star verhalf er damit zu einem neuen Popularitätsschub. Einen hohen Stellenwert in Tarantinos Filmen hat die Musik. Häufig lässt er die Musik nicht extra komponieren (Filmmusik oder auch "Score Music)", sondern wählt sie aus bereits existierenden, auch Vokalmusik (sonst eher selten im Film) einschließenden Stücken bekannter Künstler aus. Die gewählten Stücke sind geprägt von klaren Gitarrenklängen und einer Mischung aus südkalifornischen, mexikanischen und texanischen Klängen. Auch klassischer Rock ’n’ Roll, Surfrock, Tex-Mex, Texas Blues und Filmmusik, die stark von Ennio Morricone beeinflusst ist, tauchen in seinen Filmen immer wieder auf. Weitere Markenzeichen. Neben den wiederkehrenden Darstellern existieren zahlreiche Markenzeichen, die in vielen Tarantino-Filmen auftauchen. Dazu zählen Gegenstände wie Chevrolets, „Red Apple“-Zigaretten, „Big Kahuna“- Burger, silberfarbenes Klebeband und diverse Rollennamen; aber auch Stilmittel wie der „Mexican standoff“, der obligatorische „Trunk Shot“ (eine Kamera-Einstellung aus dem Inneren eines Kofferraums), unkonventionelle Erzählstrukturen sowie lange Kamerafahrten und Großaufnahmen. Ein besonderes Verhältnis hat Tarantino zu der Schauspielerin Uma Thurman, die sowohl in "Pulp Fiction" als auch in "Kill Bill" Hauptrollen übernahm und die er als seine „Muse“ bzw. seine „Marlene Dietrich“ bezeichnet. Von ihr sind in diesen Filmen Großaufnahmen der Füße zu sehen. Generell kommen in Tarantinos Filmen, er bezeichnet sich selbst als Fußfetischisten, häufig Nahaufnahmen von mehr oder weniger bekleideten Füßen zum Einsatz, wie z. B. Bridget Fondas Füße in "Jackie Brown", oder die Füße von Juliette Lewis und Salma Hayek in From Dusk Till Dawn, die Tarantino selbst in der Rolle des "Richard Gecko" anstarrt und ableckt, was er in "Death Proof" weiter variiert. Auch im Film "Inglourious Basterds" spielt ein (verletzter) Fuß eine entscheidende Rolle, es ist der Fuß von "Bridget von Hammersmark", gespielt von Diane Kruger, ebenso wie die anfangs noch gelähmten Füße von Uma Thurman in "Kill Bill – Volume 1". Als Lieblingsfilme hat Tarantino häufig die beiden Sleaze-Klassiker "Der Tollwütige" (wird in "Jackie Brown" sogar ausschnittweise gezeigt) und "Der Killer von Wien" sowie den Italowestern "Zwei glorreiche Halunken" genannt. Des Öfteren hat er in seinen Filmen kleine Nebenrollen mit Komikern besetzt: Steven Wright als Radio-DJ in der Originalfassung von "Reservoir Dogs"; Kathy Griffin als Unfallzeugin und Julia Sweeney als die Tochter des Schrottplatzbesitzers in "Pulp Fiction"; Chris Tucker als Beaumont in "Jackie Brown"; Volker Michalowski und Mike Myers in "Inglourious Basterds" und Jonah Hill in "Django Unchained". Tarantinos Arbeit besticht durch die vielen Zitate, die er den Filmen von Sergio Corbucci, Enzo G. Castellari, Sergio Grieco und dem asiatischen Kino entnommen hat. Dabei ist Tarantino so weit gegangen, dass er ganze Szenen inklusive der Dialoge aus Filmen wie "Django" kopiert. Bei Puristen hat ihm dies Kritik eingebracht, doch den Protagonisten von damals scheint dies nicht viel auszumachen. In einigen Filmen, bei denen Tarantino mit Robert Rodriguez zusammengearbeitet hat ("From Dusk Till Dawn", "Kill Bill", "Grindhouse"), spielt Michael Parks den Ranger Earl McGraw. Der Sohn von Michael Parks, James Parks, spielt auch seinen fiktiven Nachfahren Edgar McGraw. Zusammenarbeit mit anderen Künstlern. Tarantino arbeitet oft mit dem befreundeten Regisseur Robert Rodriguez zusammen, für dessen Film "From Dusk Till Dawn" er das Drehbuch schrieb, mitproduzierte und selbst eine der Hauptrollen spielte. Zudem hatte er einen kurzen Gastauftritt in Rodriguez’ Film "Desperado". Weitere gemeinsame Projekte waren "Four Rooms", die Produktion der "From Dusk Till Dawn"-Fortsetzungen und Tarantinos Auftritt als Gastregisseur für die Comic-Verfilmung "Sin City". Gemeinsam gedreht haben die beiden außerdem "Grindhouse", eine Hommage an die schäbigen B-Movies aus den Sechzigern und Siebzigern, der außerhalb der USA weitgehend getrennt als die zwei Filme Quentin Tarantinos "Death Proof – Todsicher" und Robert Rodriguez’ "Planet Terror" in den Kinos lief. Roger Avary assistierte ihm bei den Drehbüchern zu "Reservoir Dogs – Wilde Hunde" und "Pulp Fiction". Für letzteren teilen sich die beiden den Oscar für das beste Original-Drehbuch, den sie 1995 verliehen bekamen. Allerdings kam es bei Tarantino und Avary zum Streit, weil Tarantino ihn im Vorspann von "Pulp Fiction" nicht als Drehbuchautor nennt, sondern lediglich als Mitentwickler der Story. Als Regisseur. Von dem in den Jahren 1985 bis 1987 entstandenen Tarantino-Film "My Best Friend’s Birthday" sind nur noch wenige Ausschnitte erhalten, da der Film beim Entwickeln verbrannte, deshalb erschien er auch nie auf DVD. Weitere Auszeichnungen und Nominierungen (Auswahl). Bei der Deutschlandpremiere von "Inglourious Basterds" in Berlin wurde Tarantino mit einer nach ihm benannten Straße auf dem Filmgelände Babelsberg geehrt. Das Straßenschild wurde am 27. Juli 2009 in seiner Anwesenheit enthüllt. 2010 leitete Tarantino die Wettbewerbsjury der 67. Internationalen Filmfestspiele von Venedig. Quecksilber. Quecksilber ("Hydrargyros",flüssiges Silber‘, davon abgeleitet das lat. Wort "hydrarg'"yrum" (Hg), Name gegeben von Dioskurides) ist ein chemisches Element mit dem Symbol Hg und der Ordnungszahl 80. Obwohl es eine abgeschlossene d-Schale besitzt, wird es häufig zu den Übergangsmetallen gezählt. Im Periodensystem steht es in der 2. Nebengruppe, bzw. der 12. IUPAC-Gruppe, die auch Zinkgruppe genannt wird. Es ist das einzige Metall und neben Brom das einzige Element, das bei Normalbedingungen flüssig ist. Aufgrund seiner hohen Oberflächenspannung benetzt Quecksilber seine inerte Unterlage nicht, sondern bildet wegen seiner starken Kohäsion linsenförmige Tropfen. Es ist wie jedes andere Metall elektrisch leitfähig. Etymologie. Quecksilber bedeutet ursprünglich lebendiges Silber (ahd. "quëcsilabar", "quëchsilper", mhd. "quëcsilber", "këcsilber" zu germanisch "kwikw",[quick]lebendig‘). Ähnlich ist das lateinische "argentum vivum" (dt. "lebendiges Silber"). Geschichte. Quecksilber ist mindestens seit der Antike bekannt. So wird es schon in den Werken von Aristoteles, Theophrastos von Eresos, Plinius dem Älteren und anderen Schriftstellern der Antike erwähnt. Im Altertum wurde es als "Heilmittel" verwendet (aufgrund seiner Toxizität jedoch mit entsprechend negativen Folgen). Quecksilber wurde damals durch Verreiben von Zinnober mit Essig oder durch Erhitzen von Zinnober über ein Sublimationsverfahren gewonnen. Vitruv war bereits die Legierung des Quecksilbers mit Gold bekannt. Diese wurde zum Feuervergolden von Gegenständen benutzt, wobei das Quecksilber verdampfte. Im 5. Jahrhundert n. Chr. kannte man als Quecksilberverbindung das Sublimat (Quecksilber(II)-chlorid). Paracelsus war der erste Arzt, der Präzipitate und basische Quecksilbersalze herstellte und als Heilmittel verwendete. Ab dem 16. Jahrhundert wurde Quecksilber bedeutungsvoll, weil es zur Gewinnung von Silber aus Silbererzen über Amalgambildung benötigt wurde. Am Quecksilber wurde vom niederländischen Physiker Heike Kamerlingh Onnes im Jahre 1911 das erste Mal das Phänomen der Supraleitung entdeckt. Unterhalb von 4,183 Kelvin (−268,9 Grad Celsius) verschwindet dabei der elektrische Widerstand vollständig. Die Nähe zum Siedepunkt von Helium trug dabei zwar zur Entdeckung bei, ist jedoch rein zufällig. Alchemie. In der griechischen Antike symbolisierte das Quecksilber sowohl den Gott Hermes als auch den zugehörigen Planeten. Dies wurde von den Römern und den Alchemisten für den gleichgesetzten Gott Mercurius übernommen. Daher ist im Englischen "mercury" sowohl die Bezeichnung für das Quecksilber als auch für den Planeten und den Gott. Als alternative Bezeichnung für das Metall wird aber auch „"Quicksilver"“ verwendet. Für die mittelalterlichen Alchemisten waren Quecksilber, Schwefel und Salz die drei grundlegenden Elemente. Das Einhorn symbolisierte das Quecksilber. Vorkommen. Quecksilber kommt in reiner Form in der Natur vor und ist als einzige flüssige Substanz aus Tradition als Mineral von der IMA anerkannt. Quecksilbervorkommen gibt es unter anderem in Serbien, Italien, China, Algerien, Russland und Spanien. Meist findet man es als Mineral in Form von Zinnober (HgS) in Gebieten mit ehemaliger vulkanischer Aktivität. Seltener kommt Quecksilber auch gediegen vor. Im spanischen Ort Almadén befinden sich die größten Zinnober-Vorkommen der Erde. Die Förderung wurde im Jahr 2003 beendet und die Minen zu touristischen Attraktionen umgearbeitet. Weit seltenere Quecksilberminerale sind Montroydit (HgO), Paraschachnerit, Schachnerit, Eugenit, Luanheit und Moschellandsbergit (alle AgHg). Ein anderes Mineral ist Belendorffit (CuHg). Quecksilber wird traditionell in Metalltonnen engl. "flask" von 76-pound (34,473 kg) gehandelt und an der Rohstoffbörse in der Einheit "FL" = flask notiert. Gewinnung und Darstellung. Reines Quecksilber wird gewonnen, indem man das Quecksilbererz Zinnober (HgS) mit Sauerstoff reagieren lässt "(Röstverfahren)". Die Reaktionsprodukte sind elementares Quecksilber und Schwefeldioxid. Eigenschaften. Quecksilber ist ein silberweißes, flüssiges Schwermetall. Es wird manchmal noch zu den Edelmetallen gezählt, ist jedoch viel reaktiver als die klassischen Edelmetalle (zum Beispiel Platin, Gold), die in derselben Periode stehen. Es bildet mit sehr vielen Metallen Legierungen, die sogenannten Amalgame. Quecksilber leitet Strom im Vergleich zu anderen Metallen schlecht. Es ist außer den Edelgasen das einzige Element, das bei Raumtemperatur in der Gasphase einatomig vorliegt. Quecksilber ist etwa 13,5-mal so dicht wie Wasser, so dass nach dem Archimedischen Prinzip seine Tragfähigkeit auch 13,5-mal so hoch ist; somit schwimmt auch ein Eisenwürfel (Dichte etwa 7,87-mal so hoch wie die von Wasser) in Quecksilber. Kürzlich durchgeführte Monte-Carlo-Simulationen zeigen, dass auch die Dichte des Quecksilbers relativistischen Effekten unterliegt. Nicht-relativistische Berechnungen würden eine Dichte von 16,1 g/cm3 erwarten lassen. Aggregatzustand. Die Antwort auf die Frage, warum Quecksilber flüssig ist, findet sich in der Betrachtung der Bindung zwischen den Quecksilberatomen. Quecksilber hat eine einmalige Elektronenkonfiguration, die keine stabile Bindung zwischen den einzelnen Atomen zulässt. Die Atome aller anderen bei Raumtemperatur festen Metalle werden durch das sogenannte Elektronengas elektrostatisch zusammengehalten, welches aus delokalisierten Elektronen der äußeren Schale der Atome besteht. Die Metallbindung elementarer Metalle kommt durch so genannte Bänder zustande, welche sämtliche Elektronen eines Energieniveaus enthalten. Solche Bänder werden benötigt, um das Pauli-Prinzip zu erfüllen. Bei der Metallbindung springen Elektronen vom Valenzband, dem energetisch am höchsten liegenden mit Elektronen vollbesetzte Band, ins Leitungsband, das nicht komplett aufgefüllte Band, und zurück. Dadurch werden die Metallatome eine Art schwacher Kationen, die durch die negative Ladung der ferneren Elektronen – auch „Elektronengas“ – zusammengehalten werden. Zugleich sind die Elektronen beweglich genug, um als Ladungsträger für elektrischen Strom zu dienen, was die elektrische Leitfähigkeit von Metallen erklärt. Als Element der 12. Gruppe des PSE besitzen Quecksilberatome komplett gefüllte s- und d-Atomorbitale, was eine sehr stabile und energetisch günstige Konstellation bedeutet. Das Leitungsband ist dadurch leer. Bei den leichteren Homologen Zink und Cadmium, die in derselben Gruppe des PSE wie Quecksilber stehen, jedoch bei Raumtemperatur fest sind, ist der energetische Unterschied zwischen dem Valenzband zum Leitungsband so gering, dass Elektronen problemlos vom Valenz- ins Leitungsband springen können, wodurch eine Metallbindung zustande kommt. Die Besonderheit bei Quecksilber liegt in den mit 14 Elektronen vollständig gefüllten 4f-Orbitalen, welche bei Zink und Cadmium zwar vorhanden, jedoch nicht besetzt sind. Während Zink und Cadmium jeweils 12 Elektronen in der äußersten Schale haben, hat Quecksilber 26 darin. Aufgrund der Lanthanoidenkontraktion und des relativistischen Effekts kommt es zu einem Massezuwachs und einer weniger effizienten Abschirmung der Kernladung. Erst kürzlich konnte mittels Monte-Carlo-Simulation nachgewiesen werden, dass die Schmelzpunktanomalie des Quecksilbers tatsächlich relativistischen Effekten geschuldet ist. Ohne relativistische Effekte wäre ein Schmelzpunkt zu erwarten, der um 105 K höher liegen würde als der experimentell beobachtete. Besetzte Orbitale werden so näher an den Kern herangezogen, sowie auch das Valenzband des Quecksilbers. Unbesetzte Orbitale, das Leitungsband, werden nicht näher an den Kern gezogen, was zu einer besonders großen Energiedifferenz zwischen Valenz- und Leitungsband führt, die bei Zink und Cadmium deutlich geringer ist. So können kaum Elektronen das Valenzband verlassen, wodurch die Metallbindung außergewöhnlich schwach ausfällt. Dies erklärt zugleich auch die Flüchtigkeit und die für Metalle untypisch schlechte Leitfähigkeit des Quecksilbers. Isotope. Von Quecksilber sind insgesamt 34 Isotope und 9 Kernisomere mit Massenzahlen von 175 bis 208 bekannt. Sieben dieser Isotope sind stabil (mit den Massen 196, 198, 199, 200, 201, 202 und 204). Von den radioaktiven Isotopen weist nur 194Hg mit 444 Jahren (nach neueren Angaben 520 Jahre) eine relativ lange Halbwertszeit auf. Die anderen Isotope und Kernisomere haben nur Halbwertszeiten zwischen 1,1 Millisekunden und 46,612 Tagen. "Siehe auch: Liste der Quecksilber-Isotope" Thermometer. Außerdem benetzt Quecksilber Glas nicht und ist visuell gut zu erfassen. Daher eignet es sich zum Einsatz in Flüssigkeitsthermometern und Kontaktthermometern. Als Außenthermometer in sehr kalten Regionen kann es aber auf Grund seines Schmelzpunktes (−38,83°) nur bedingt verwendet werden. Bedingt durch seine starke Toxizität ist der Einsatz heutzutage auf den wissenschaftlichen Bereich beschränkt, es kann teilweise durch gefärbten Alkohol oder Galinstan oder elektronische Thermometer ersetzt werden. Das erste brauchbare Quecksilberthermometer wurde um 1720 von Daniel Gabriel Fahrenheit entwickelt. In einem Thermometer befinden sich im Schnitt 150 mg Quecksilber. In einem Fieberthermometer kann die Menge bis zu 1 g betragen. Dies entspricht in etwa einem Kügelchen von 5,2 mm Durchmesser. Seit dem 3. April 2009 ist das Inverkehrbringen von neuen quecksilberhaltigen Fieberthermometern, Barometern und Blutdruckmessgeräten innerhalb der EU verboten; ausgenommen hiervon sind Messgeräte für den wissenschaftlichen oder medizinischen Gebrauch sowie Alt- und Gebrauchtgeräte. Manometer/Barometer. Die klassische Bauform eines Manometers („Druckdifferenzmessers“) ist ein U-Rohr, dessen Enden mit den beiden Druckatmosphären über Leitungen verbunden sind. Bis in die heutige Zeit ist Quecksilber als Manometerflüssigkeit weit verbreitet. Die alte Bauform des Barometers ist ein U-förmiges, aufrecht stehendes Rohr, welches auf einer Seite oben geschlossen ist; damit ist es eine Sonderbauform des Manometers. Die Quecksilbersäule in der geschlossenen Hälfte sinkt nur soweit ab, bis der Luftdruck und die Gewichtskraft des Quecksilbers sich im Kräftegleichgewicht befinden. Bei Normaldruck (1 Atmosphäre) sind dies 760 mm. Die alte Angabe in der Maßeinheit Torr für den Luftdruck entspricht der Höhe der Quecksilbersäule in Millimetern, 1 mm Quecksilbersäule entsprechen 133,21 Pascal. Schalter. Durch seine elektrische Leitfähigkeit und die sehr hohe Oberflächenspannung (0,476 N/m bei 20 °C) ist Quecksilber ideal für die Anwendung als Kontaktwerkstoff in den früher verwendeten Quecksilberschaltern. Wegen der Problematik bei der Entsorgung von Elektronikschrott ist seit dem Jahr 2005 in der EU („RoHS“-Richtlinie) der Einsatz von Quecksilber in Schaltern für die meisten Anwendungsgebiete untersagt. In Spezialanwendungen werden auch heute noch mit Quecksilber benetzte Kontakte verwendet, um besonders geringe Kontaktwiderstände zu erzielen oder das Prellen der Kontakte zu vermeiden (z. B. Hg-Relais). Quecksilber-Neigungsschalter funktionieren dank Schwerkraft ähnlich der Libelle einer Wasserwaage; ein beweglicher Quecksilbertropfen in einem gebogenen oder geraden Glasrohr öffnet und schließt neigungsabhängig den elektrischen Kontakt zwischen zwei ins Glas eingeschmolzenen Metallstiften. Solche Neigungsschalter finden sich teilweise in alten Treppenlicht-Zeitschaltern, in Thermostaten von Boilern, in Druckschaltern von Hauswasserpumpen und als Rumpelsicherung in Waschmaschinen. In den früher verwendeten Turbowechselrichtern wurde ein Quecksilberstrahl als „Schalter“ benutzt. Quecksilberdampflampen. Sichtbarer Bereich des Quecksilber-Spektrums. Die violette Linie ist gerade noch mit dem Auge sichtbar. Besonders stark ausgeprägte Linien liegen im (links) anschlieenden unsichtbaren UV. Quecksilber wird in Entladungsgefäßen (Quecksilberdampflampen) von Gasentladungslampen (Leuchtstofflampen, „Energiesparlampen“, Kaltkathodenröhren, Quecksilberdampf-Hochdruck- und -höchstdrucklampen, Höhensonne, Quarzlampe, sog. „Schwarzlichtlampe“) eingesetzt. Amalgam. Quecksilber bildet mit vielen anderen Metallen spontan Legierungen, die Amalgame genannt werden. Amalgame werden z. B. als Zahnfüllmittel eingesetzt. Da Quecksilber durch Aluminiumamalgambildung die schützende Oxidhaut des Aluminiums zerstört, ist das Mitführen von quecksilberhaltigen Geräten (z. B. Fieberthermometer) in Flugzeugen zwar nicht verboten, aber gemäß der IATA Dangerous Goods Regulations beschränkt (1 Stück / Passagier und zwingend in Schutzhülle – DGR 2.3). Quecksilber ist der "Gefahrgutklasse 8 – Ätzende Materialien" zugeordnet. Eine ätzende Wirkung besteht in Verbindung mit fast allen Metallen, u. a. Zink, Magnesium und Aluminium, die im Flugzeugbau verwendet werden. Desinfektions- und Beizmittel. In dem Wunddesinfektionsmittel Mercurochrom war der wirksame Bestandteil ein organisches Quecksilbersalz. Die heute erhältliche Mercuchrom-Jod-Lösung ist eine Povidon-Jod-Lösung. In Merfen, einem weiteren Desinfektionsmittel, war früher Phenylquecksilberborat enthalten. HgCl2 (Sublimat) wurde früher als Desinfektionsmittel in Krankenhäusern verwendet. Thiomersal ist eine organische Quecksilberverbindung, die in sehr geringen Konzentrationen als Bakterizid zur Konservierung von Impfstoffen verwendet wird. Die konventionelle Landwirtschaft verwendet Quecksilberverbindungen als Beizmittel für Saatgut. Seit 1984 ist dies in Deutschland verboten. Heilkunde, Pharmazeutika, Kosmetik. Im ausgehenden 19. Jahrhundert hielt man Quecksilber für ein geeignetes Medikament gegen Frauenleiden, weswegen es zum Teil in toxischen Mengen verabreicht wurde. Das Wort hat allerdings nichts mit Quacksalber zu tun, auch wenn der Klang dies nahelegt. (Quacksalber kommt vielmehr aus dem Niederländischen: "kwakzalver", wobei "kvakken" soviel wie „schwatzen“ oder „prahlen“ bedeutet). Bis zum Anfang des 20. Jahrhunderts war die graue Quecksilbersalbe ein weit verbreitetes Mittel zur Behandlung der Syphilis. Dazu wurde das Quecksilber in der Regel auf die Haut aufgetragen oder gelegentlich sogar inhaliert, wobei es in vielen Fällen zu Vergiftungserscheinungen kam. Syphilis galt als Volksseuche und Anspielungen auf die Symptome der Syphilis sowie der damit einhergehenden Quecksilbervergiftung finden sich in vielen literarischen Werken der damaligen Zeit. Metallisches Quecksilber diente im gleichen Zeitraum zur Behandlung von Darmverschlüssen. Der Patient nahm dazu oral mehrere Kilogramm metallisches Quecksilber auf, um das Hindernis im Darm zu überwinden. Wenn er die Behandlung überlebte, verließ das Metall seinen Körper auf natürlichem Wege ohne weitere Vergiftungserscheinungen. Quecksilber(I)-chlorid wurde in der Vergangenheit sowohl äußerlich, etwa gegen Hornhautflecken oder Feigwarzen, als auch vielfach innerlich und bis in die 1990er Jahre als Spermizid in Form von Vaginal-Zäpfchen zur Empfängnisverhütung angewandt. Früher hatten fast alle Merfen-Präparate, auch Lutschtabletten, als Wirkstoff die etwa 1951 als wirksam entdeckte organische Quecksilberverbindung Phenylmercuriborat, während diese heute alle quecksilberfrei sind. Ebenfalls Antiseptisch wirkte Merbromin im nur bis 2003 zugelassenen Mercurochrom. Elektrolyse. Quecksilber spielte eine große Rolle bei der Herstellung von Natronlauge und Chlor durch Chlor-Alkali-Elektrolyse nach dem Amalgamverfahren. Während der Elektrolyse wird das reduzierte Natriummetall als Amalgam, einer Natrium-Quecksilber-Legierung, in eine separate Zelle, den Zersetzer, überführt, um die Bildung des explosiven Chlorknallgases und des unerwünschten Natriummonooxochlorates (Natriumhypochlorit) in der Elektrolysezelle zu verhindern. Derzeit wird ein großer Teil der deutschen und europäischen mit dem Amalgamverfahren arbeitenden Einrichtungen auf alternative, quecksilberfreie Prozesse (Membranverfahren) umgestellt, um die Quecksilberemissionen zu senken. Goldwäsche. Bei einem Verfahren zur Goldgewinnung wird Quecksilber verwendet, um den feinen Goldstaub zu lösen, wodurch Goldamalgam entsteht (siehe Amalgamation). Da Quecksilber schon bei niedrigen Temperaturen flüssig wird, bildet es Legierungen, die besonders leicht schmelzen. Beim Waschen und bei anschließendem Glühen zur Rückgewinnung reinen Goldes gelangt das Quecksilber in die Umgebung. Dies ist der Hauptgrund für die hohe Umweltverschmutzung bei dieser Art der Goldgewinnung (siehe dazu Umweltemissionen, weiter unten). Früher wurde unter anderem im Harz auf diese Weise auch Silber gewonnen. Kunst. Im Grabmal des ersten chinesischen Kaisers Qin Shihuangdi soll es Flüsse aus Quecksilber gegeben haben. In der Umgebung hat man wissenschaftlich den Boden untersucht und dabei einen unnatürlich hohen Quecksilbergehalt festgestellt. Dieser allein ist aber noch kein Beleg für die Richtigkeit der Legende. Unterhalb der Maya-Tempelpyramide der Quetzalcoatl haben mexikanische Archäologen flüssiges Quecksilber gefunden. Die Forscher vermuten, dass es sich dabei um die rituelle Darstellung des Unterweltflusses der Maya – vergleichbar mit dem altgriechischen Styx – handelt. Der amerikanische Künstler Alexander Calder baute 1937 einen Quecksilber-Springbrunnen zum Gedenken an die Todesopfer des Quecksilberabbaus. Um das Jahr 1000 gab es in den Palästen der Kalifen von Córdoba (Medina az-Zahra), Kairo und Bagdad mit Quecksilber gefüllte Becken, die für das Spiel mit Lichtwirkungen genutzt wurden, außerdem in großen Porphyrmuscheln angelegte Quecksilberteiche (für Kairo sind 50 Ellen im Quadrat, also ca. 26 m × 26 m überliefert). Im Kunsthandwerk war die Feuervergoldung lange gebräuchlich. Hier wurde wie bei der Goldgewinnung die leichte Amalgambildung und thermische Trennung von Gold und Quecksilber ausgenutzt. Mit dieser Methode ist auch ein Vergolden von Kupferblechen möglich, was zum Beispiel bei den Kuppeln der Isaakskathedrale in Sankt Petersburg im 19. Jahrhundert angewendet wurde. Sonstige Anwendungen. Quecksilberdampfgleichrichter gibt im Betrieb Licht ab Zurückdrängung der Anwendung und Gewinnung. Vom 9. (dem Tag der Apotheke) bis zum 25. Oktober 2007 wurden in einer Aktion von Lebensministerium und Apothekerkammer in Österreich über die Apotheken eine Million Quecksilberfieberthermometer aus Privathaushalten eingesammelt und über Pharmagroßhandel und den Entsorger Saubermacher in ein Untertage-Lager in Deutschland verbracht. Diese Menge entspricht einer Tonne Quecksilber. Als Anreiz gab es für jedes zurückgegebene ein digitales Fieberthermometer (im Wert von ca. 1 €). Die Initiatoren rechneten nur mit 50.000 Thermometern und mussten 200.000 Digitalthermometer nachliefern. 2009 entschied sich Schweden, den Gebrauch von Quecksilber generell zu verbieten. Das Verbot bedeutet, dass der Gebrauch von Amalgam in Zahnfüllungen eingestellt wird und dass quecksilberhaltige Produkte nicht mehr in Schweden vermarktet werden dürfen. Laut dem schwedischen Umweltministerium ist das Verbot „ein starkes Signal für andere Länder und der Beitrag Schwedens zu den Zielen von EU und UN, Gebrauch und Emission von Quecksilber zu reduzieren.“ Dem vorausgegangen war 2008 ein Verbot des Gebrauchs von Quecksilber in Norwegen. Zu diesem Thema wurde 2010 auch eine UN-Konferenz in Stockholm abgehalten. Die „Gemeinschaftsstrategie für Quecksilber“ der EU vom 28. Januar 2005 zielt auf die Reduktion von Emissionen, Angebot und Nachfrage von Quecksilber. Existierende Mengen sollen bewirtschaftet, Menschen vor Exposition geschützt, Verständnis geschaffen und Maßnahmen gefördert werden. Per EU-Richtlinie vom September 2006 wurde der Quecksilbergehalt von Batterien und Akkus mit 0,0005 Gewichtsprozent (Knopfzellen jedoch 2 %) limitiert. Die EG-Verordnung über das Verbot der Ausfuhr von Quecksilber und bestimmten Verbindungen sowie die sichere Lagerung von Quecksilber vom 22. Oktober 2008 verbietet seit 15. März 2011 den Export von Quecksilber und Quecksilberhaltigem – mit Ausnahmen – aus der EU. Mit demselben Datum ist Quecksilber, das vor allem in der Chloralkali-Industrie durch Verfahrensumstellung außer Funktion gebracht wird, als gefährlicher Abfall zu behandeln und in Hochsicherheitsbereiche unter Tage, wie aufgelassenen Salzbergwerken, einzulagern und zu überwachen. Europa war bisher der Haupterzeuger von Quecksilber weltweit. Das Inventar an Quecksilber vor allem in der in Deutschland konzentrierten Chloralkali-Elektrolyse beträgt rund 1000 t. Die Weltproduktion von Quecksilber hat seit ihrem Maximum 1970 mit 10.000 t/a bis 1992 um 3.000 t/a abgenommen. Bereits seit 2001 haben die Vereinten Nationen in Ihrem "United Nations Environmental Program Governing Council" Quecksilber auf der Liste der regulierten Substanzen der globalen Umweltverschmutzungen gesetzt. Zehn Jahre nach Anstoß durch Schweiz und Norwegen haben 140 Staaten nach langen Verhandlungen am 19. Januar 2013 in Genf das Minamata-Übereinkommen, das erste bindende Abkommen zur Einschränkung der Gewinnung und zur Eindämmung der Quecksilberemissionen, unterzeichnet. Das Übereinkommen regelt Produktion, Verwendung und Lagerung von Quecksilber und den Umgang mit Hg-haltigen Abfällen; seine Einhaltung wird durch eine beratende Kommission überwacht. Neue Minen dürfen nicht errichtet, bestehende müssen binnen 15 Jahren geschlossen werden, so dass dann Quecksilber nur mehr aus Recycling zur Verfügung steht. Durch den Menschen wurde in den letzten 100 Jahren die Quecksilber-Konzentration in den obersten 100 m der Ozeane verdoppelt, so ein UNO-Bericht. Amalgamprobe. Quecksilbersalze können mit Hilfe der Amalgamprobe nachgewiesen werden. Die salzsaure Lösung wird auf ein Kupferblech gegeben und es bleibt ein fester, silbriger Amalgamfleck zurück. Silberionen können den Nachweis stören und werden daher als AgCl gefällt. formula_4 Glührohrprobe. Ein weiterer Nachweis für Quecksilber ist die Glührohrprobe. Dabei wird die zu analysierende Substanz mit etwa der gleichen Menge Natriumcarbonat (Soda) vermengt und im Abzug geglüht. Elementares Quecksilber scheidet sich als metallischer Spiegel an der Reagenzglaswand ab. Qualitativer Nachweis im Trennungsgang. Im qualitativen Trennungsgang kann Quecksilber sowohl in der HCl-Gruppe als auch in der H2S-Gruppe nachgewiesen werden. Nach Zugabe von HCl bildet sich Kalomel, Hg2Cl2, welches nach Zugabe von Ammoniaklösung zu fein verteiltem Quecksilber und Quecksilber(II)-Amidochlorid reagiert. Nach Einleiten von H2S fällt zweiwertiges Quecksilber in Form von schwarzem Zinnober, HgS, aus und kann mit Hilfe der Amalgamprobe nachgewiesen werden. Instrumentelle Analytik des Quecksilbers. Für die Spurenanalytik des Quecksilbers und seiner Organoderivate stehen eine Reihe von Methoden zur Verfügung. Allerdings werden in der Literatur laufend neue bzw. verbesserte Verfahren vorgestellt. Ein nicht zu unterschätzendes Problem ist die Probenaufarbeitung. Atomabsorptionsspektrometrie (AAS). Unter den verschiedenen Techniken der AAS liefern die Quarzrohr- und die Graphitrohrtechnik die besten Ergebnisse für anorganische und metallorganische Quecksilberverbindungen. Dabei wird eine Quarzküvette elektrisch auf über 900 °C erhitzt und die Probe dabei atomisiert. Anschließend wird die Absorption bei 253,7 nm gemessen. Als Beispiel sei eine Nachweisgrenze für CH3HgCl von 100 µg/L genannt. Eine weitere beliebte Technik zum Nachweis von elementarem Quecksilber oder Quecksilberorganylen ist die Kaltdampferzeugung in Verbindung mit der AAS. Bei sehr geringen Konzentrationen werden die volatilen Analytspezies zunächst unter Bildung von Amalgamen auf Gold- oder Silberoberflächen, welche in einer Graphitküvette platziert wurden, angereichert. Anschließend wird bei 1400 °C atomisiert und die Absorption gemessen. Auf diesem Wege wurde eine Nachweisgrenze von 0,03 ng erreicht. Atomemissionsspektrometrie (AES). In der AES haben sich das mikrowelleninduzierte Plasma (MIP) und das induktiv gekoppelte Plasma (ICP) zur Atomisierung bewährt. Die Detektion findet auch bei dieser Methode bei 253,65 nm und 247,85 nm statt. Mit Hilfe der MIP-AES wurden absolute Nachweisgrenzen von 4,4 ng/g Probe gefunden. Die ICP-AES weist eine Nachweisgrenze von 20 bis 50 ng/mL auf. Massenspektrometrie (MS). Quecksilber weist insgesamt sieben stabile Isotope unterschiedlicher Häufigkeit auf. Für die Massenspektrometrie sind jedoch häufig nur 201Hg (13,22 %) und 202Hg (29,80 %) relevant. Mit Hilfe der ICP-MS können anorganische Quecksilberverbindungen und Quecksilberorganyle wie Methylquecksilber, CH3Hg, mit Nachweisgrenzen von bis zu 2,6 ng/g bestimmt werden. Neutronenaktivierungsanalyse (NAA). Die NAA basiert auf der Kernreaktion AHg(n,γ)A+1Hg (Bestrahlung von Quecksilber mit Neutronen). Dadurch entstehen radioaktive Quecksilbernuklide. Die Intensität resultierenden charakteristischen Gammastrahlung wird mit einem hochreinen Germaniumdetektor bestimmt. Sie ist proportional der Anzahl an vorhandenen aktivierten Kernen und es können durch interne Kalibrierung quantitative Aussagen getroffen werden. Häufig wird 197mHg mit einer Halbwertszeit von 2,7 Tagen bei 77,3 keV detektiert. Voltammetrie. Für die elektrochemische Bestimmung von Hg-Spuren eignet sich am besten die anodische Stripping-Voltammetrie (ASV). Dabei geht der voltammetrischen Messung eine reduktive Anreicherungsperiode auf der Gold-Messelektrode voraus. Es folgt die eigentliche Bestimmung durch Messung des Oxidationsstroms beim Scannen eines Spannungsfensters von 0 V bis 600 mV. Die Höhe des Oxidationspeaks bei 500 mV korreliert mit der Menge an vorhandenem Quecksilber. Es wurden Nachweisgrenzen von 12 pM Quecksilber im Meerwasser nach 2-minütiger Anreicherungszeit erzielt. Daneben kommt die Invers-Voltammetrie an Gold-, Platin- oder Kohleelektroden in Frage. Automatisierte Analytik. Für die Routineanalytik von Quecksilber gibt es mittlerweile automatisierte Analysatoren. Sie beruhen üblicherweise auf dem Prinzip der thermischen Zersetzung, gefolgt von einer Amalgamierung und anschließender Messung der Atomabsorption (siehe AAS). Mit derartigen Analysengeräten können feste und flüssige Proben innerhalb von wenigen Minuten auf ihren Quecksilbergehalt untersucht werden. Diese kommerziell erhältlichen Geräte sind sehr empfindlich und genügen den Anforderungen von nationalen Qualitäts-sicherungsstandards wie der US-EPA-Methode 7473 und der ASTM-Methode D-6722-01. Umweltemissionen. Quecksilber wird in großen Mengen durch menschliche Aktivitäten freigesetzt. Es wird geschätzt, dass jährlich etwa 2.200 Tonnen als gasförmiges Quecksilber in die Atmosphäre abgegeben werden, zudem noch erhebliche Mengen in Böden und Gewässer. Bei den Quecksilber-Luftemissionen hatte 2011 in Deutschland die Energiewirtschaft aufgrund der Kohlekraftwerke einen Anteil von 70% (6656 kg), die Metallverhüttung 11 % (1116 kg) und die Zement- u.a. Mineralindustrie 7 % (686 kg) der Gesamtemissionen (9490 kg). Im Mai 2014 zeigte eine im Auftrag der Grünen erstellte Studie, dass die 2011 in den USA für 1100 Kohlekraftwerke beschlossenen Quecksilber-Grenzwerte in Deutschland überwiegend deutlich höher sind, da entsprechend strenge gesetzliche Anforderungen fehlen. Das Umweltbundesamt empfiehlt seit mehreren Jahren die Absenkung des Grenzwertes im Abgas von Kohlekraftwerken auf 3 µg/m3 im Tagesmittel und 1 µg/m3 im Jahresmittel. Bei der Umsetzung der europäischen Industrieemissionsrichtlinie haben Bundesregierung und Bundestagsmehrheit Ende Oktober 2012 für Kohlekraftwerke Grenzwerte von 30 µg/m3 im Tagesmittel und (für bestehende Kraftwerke ab 2019) 10 µg/m3 im Jahresmittel beschlossen. Auf der Expertenanhörung im Umweltausschuss des Bundestags am 15. Oktober 2012 war eine Angleichung an die US-amerikanischen Grenzwerte empfohlen worden (im Monatsmittel 1,4 µg/m3 für Steinkohlekraftwerke, 4 µg/m3 für Braunkohlekraftwerke). Die beiden folgenden Tabellen nennen meldepflichtige Betriebe in Deutschland, die jährlich mehr als 100 Kilogramm Quecksilber an die Luft abgeben bzw. mehr als 5 Kilogramm Quecksilber pro Jahr in ein Gewässer einleiten. In Norwegen sind quecksilberhaltige Produkte seit 2008, in Schweden seit 2009 verboten. Aufgrund der bekannten Gefahren durch freigesetztes Quecksilber hat das UN-Umweltprogramm (UNEP) ein internationales Abkommen erarbeitet ("Minamata-Konvention"), das 140 Staaten im Oktober 2013 unterschrieben haben. Ziel ist die weltweite Minderung von Quecksilberemissionen aus Bergbau, Produktionsverfahren, Produkten und Abfällen. Das Abkommen wird erst nach der Ratifizierung durch mindestens 50 Unterzeichnerstaaten verbindlich. Das amerikanische Blacksmith Institute ermittel seit 2006 die "Top 10 der am stärksten verseuchten Orte der Erde". Quecksilber gehört hier häufig zu den Schadstoffen der „nominierten“ Orte. Der Export von Quecksilber bzw. von Quecksilberhaltigen Stoffen mit einer Konzentration von über 95% Quecksilber in nicht EU-Staaten ist verboten. Gesundheitsschäden durch Quecksilber. Quecksilber ist ein giftiges Schwermetall, das bereits bei Zimmertemperatur Dämpfe abgibt. Bei der Aufnahme über den Verdauungstrakt ist reines metallisches Quecksilber vergleichsweise ungefährlich, eingeatmete Dämpfe wirken aber stark toxisch. Besonders toxisch sind vor allem organische Quecksilberverbindungen, wenn sie mit der Nahrung aufgenommen werden. Sie entstehen in der Nahrungskette durch Biomethylierung zu Methylquecksilber. Vergiftungen durch organische Quecksilberverbindungen wurden weltweit Mitte der 1950er Jahre durch die Berichterstattung über die Minamata-Krankheit bekannt. Je nach Aufnahme sind sowohl eine akute als auch eine chronische Vergiftung möglich. Als Beispiel kann der Fall des englischen Schiffes "Triumph" im Jahre 1810 dienen, auf dem sich mehr als 200 Menschen vergifteten, als ein Fass mit Quecksilber auslief. In den Jahren 2007 und 2015 sind ayurvedische Mittel mit hohen Quecksilbergehalten aufgefallen. Quantenmechanik. Die Quantenmechanik ist eine physikalische Theorie zur Beschreibung der Materie, ihrer Eigenschaften und Gesetzmäßigkeiten. Sie erlaubt im Gegensatz zu den Theorien der klassischen Physik eine Berechnung der physikalischen Eigenschaften von Materie auch im Größenbereich der Atome und darunter. Die Quantenmechanik ist eine der Hauptsäulen der modernen Physik. Sie bildet die Grundlage zur Beschreibung der Phänomene der Atomphysik, der Festkörperphysik und der Kern- und Elementarteilchenphysik, aber auch verwandter Wissenschaften wie der Quantenchemie. Grundlagen. Die Grundlagen der Quantenmechanik wurden zwischen 1925 und 1935 von Werner Heisenberg, Erwin Schrödinger, Max Born, Pascual Jordan, Wolfgang Pauli, Niels Bohr, Paul Dirac, John von Neumann, Friedrich Hund und weiteren Physikern erarbeitet, nachdem erst die klassische Physik und dann die älteren Quantentheorien bei der systematischen Beschreibung der Vorgänge in den Atomen versagt hatten. Die Quantenmechanik erhielt ihren Namen in Anlehnung, aber auch Abgrenzung zu der klassischen Mechanik. Wie diese bleibt die Quantenmechanik einerseits auf die Bewegung von massenbehafteten Teilchen unter der Wirkung von Kräften beschränkt und behandelt z. B. noch keine Entstehungs- und Vernichtungsprozesse, andererseits werden einige zentrale Begriffe der klassischen Mechanik, unter anderem "Ort" und "Bahn" eines Teilchens, durch grundlegend andere, der Quantenphysik besser angepasste Konzepte ersetzt. Die Quantenmechanik bezieht sich auf materielle Objekte und modelliert diese als einzelne Teilchen oder als Systeme, die aus einer bestimmten Anzahl von einzelnen Teilchen bestehen. Mit diesen Modellen können Elementarteilchen, Atome, Moleküle oder die makroskopische Materie detailliert beschrieben werden. Zur Berechnung von deren möglichen Zuständen mit ihren jeweiligen physikalischen Eigenschaften und Reaktionsweisen wird ein der Quantenmechanik eigener mathematischer Formalismus genutzt. Die Quantenmechanik unterscheidet sich nicht nur in ihrer mathematischen Struktur grundlegend von der klassischen Physik. Sie verwendet Begriffe und Konzepte, die sich der Anschaulichkeit entziehen und auch einigen Prinzipien widersprechen, die in der klassischen Physik als fundamental und selbstverständlich angesehen werden. Durch Anwendung von Korrespondenzregeln und Konzepten der Dekohärenztheorie können viele Gesetzmäßigkeiten der klassischen Physik, insbesondere die gesamte klassische Mechanik, als Grenzfälle der Quantenmechanik beschrieben werden. Allerdings gibt es auch zahlreiche Quanteneffekte ohne klassischen Grenzfall. Zur "Deutung" der Theorie wurde eine Reihe verschiedener Interpretationen der Quantenmechanik entwickelt, die sich insbesondere in ihrer Konzeption des Messprozesses und in ihren metaphysischen Prämissen unterscheiden. Auf der Quantenmechanik und ihren Begriffen bauen die weiterführenden Quantenfeldtheorien auf, angefangen mit der Quantenelektrodynamik ab ca. 1930, mit denen auch die Prozesse der Erzeugung und Vernichtung von Teilchen analysiert werden können. Genauere Informationen zum mathematischen Formalismus finden sich im Artikel "Mathematische Struktur der Quantenmechanik". Geschichte. a> 1932 „für die Begründung der Quantenmechanik“ Erwin Schrödinger, Nobelpreis 1933 „für die Entdeckung neuer produktiver Formen der Atomtheorie“ Anfang des 20. Jahrhunderts begann die Entwicklung der Quantenphysik zunächst mit den sogenannten alten Quantentheorien. Max Planck stellte 1900 zur Herleitung des nach ihm benannten Strahlungsgesetzes die Hypothese auf, dass ein Oszillator Energie nur in ganzzahligen Vielfachen des "Energiequantums" formula_1 aufnehmen oder abgeben kann (h ist das Plancksche Wirkungsquantum, f ist die Frequenz des Oszillators). 1905 erklärte Albert Einstein den photoelektrischen Effekt durch die Lichtquantenhypothese. Demnach besteht Licht aus diskreten Partikeln gleicher Energie formula_2, welchen mit der Frequenz formula_3 auch eine Welleneigenschaft zukommt. Im Zeitraum ab 1913 entwickelte Bohr das nach ihm benannte Atommodell. Dieses basiert auf der Annahme, dass Elektronen im Atom nur Zustände zu ganz bestimmten Energien einnehmen können und dass die Elektronen bei der Emission oder Absorption von Licht von einem Energieniveau auf ein anderes „springen“ (siehe Quantensprung). Bei der Formulierung seiner Theorie nutzte Bohr das Korrespondenzprinzip, dem zufolge sich das quantentheoretisch berechnete optische Spektrum von Atomen im Grenzfall großer Quantenzahlen dem klassisch berechneten Spektrum annähern muss. Mit dem Bohrschen Atommodell und seinen Erweiterungen, dem Schalenmodell und dem Bohr-Sommerfeld-Modell, gelangen einige Erfolge, darunter die Erklärung des Wasserstoffspektrums, der Röntgenlinien und des Stark-Effekts, sowie die Erklärung des Aufbaus des Periodensystems der Elemente. Paul Dirac, Nobelpreis 1933 zusammen mit Schrödinger Schnell erwiesen sich diese frühen Atommodelle jedoch als unzureichend. So versagten sie bereits bei der Anwendung auf das Anregungsspektrum von Helium, beim Wert des Bahndrehimpulses des elektronischen Grundzustandes von Wasserstoff und bei der Beschreibung verschiedener spektroskopischer Beobachtungen, wie z. B. des anomalen Zeeman-Effekts oder der Feinstruktur. Im Jahr 1924 veröffentlichte Louis de Broglie seine Theorie der Materiewellen, wonach jegliche Materie einen Wellencharakter aufweisen kann und umgekehrt Wellen auch einen Teilchencharakter aufweisen können. Diese Arbeit führte die Quantenphänomene auf eine gemeinsame Erklärung zurück, die jedoch wieder heuristischer Natur war und auch keine Berechnung der Spektren von Atomen ermöglichte. Daher wird sie als letzte den alten Quantentheorien zugeordnet, war jedoch richtungsweisend für die Entwicklung der Quantenmechanik. Die moderne Quantenmechanik fand ihren Beginn im Jahr 1925 mit der Formulierung der Matrizenmechanik durch Werner Heisenberg, Max Born und Pascual Jordan. Während Heisenberg im ersten dieser Aufsätze noch von "quantentheoretischer Mechanik" gesprochen hatte, wurde in den beiden späteren Aufsätzen die noch heute gebräuchliche Bezeichnung "Quantenmechanik" geprägt. Wenige Monate später stellte Erwin Schrödinger über einen völlig anderen Ansatz – ausgehend von De Broglies Theorie der Materiewellen – die Wellenmechanik bzw. die Schrödingergleichung auf. Kurz darauf konnte Schrödinger nachweisen, dass die Wellenmechanik mit der Matrizenmechanik mathematisch äquivalent ist. Schon 1926 brachte J. H. Van Vleck in den USA unter dem Titel "Quantum Principles and Line Spectra" das erste Lehrbuch zur neuen Quantenmechanik heraus. Das erste deutschsprachige Lehrbuch, "Gruppentheorie und Quantenmechanik" von dem Mathematiker Hermann Weyl, folgte 1928. Heisenberg entdeckte die nach ihm benannte Unschärferelation im Jahr 1927; im gleichen Jahr wurde auch die bis heute vorherrschende Kopenhagener Interpretation der Quantenmechanik formuliert. In den Jahren ab etwa 1927 vereinigte Paul Dirac die Quantenmechanik mit der speziellen Relativitätstheorie. Er führte auch erstmals die Verwendung der Operator-Theorie inklusive der Bra-Ket-Notation ein und beschrieb diesen mathematischen Kalkül 1930 in seinem Buch "Principles of Quantum Mechanics". Zur gleichen Zeit formulierte John von Neumann eine strenge mathematische Basis für die Quantenmechanik im Rahmen der Theorie linearer Operatoren auf Hilberträumen, die er 1932 in seinem Buch "Mathematische Grundlagen der Quantenmechanik" beschrieb. Die in dieser Aufbauphase formulierten Ergebnisse haben bis heute Bestand und werden allgemein zur Beschreibung quantenmechanischer Aufgabenstellungen verwendet. Grundlegende Eigenschaften. Diese Darstellung geht von der Kopenhagener Interpretation der Quantenmechanik aus, die ab 1927 vor allem von Niels Bohr und Werner Heisenberg erarbeitet wurde. Trotz ihrer begrifflichen und logischen Schwierigkeiten hat sie gegenüber anderen Interpretationen bis heute eine vorherrschende Stellung inne. Auf Formeln wird im Folgenden weitgehend verzichtet, Genaueres siehe unter "Mathematische Struktur der Quantenmechanik". Observable und Zustände. Im Rahmen der klassischen Mechanik lässt sich aus dem Ort und der Geschwindigkeit eines (punktförmigen) Teilchens bei Kenntnis der wirkenden Kräfte dessen Bahnkurve vollständig vorausberechnen. Der Zustand des Teilchens lässt sich also eindeutig durch zwei Größen beschreiben, die (immer in idealen Messungen) mit eindeutigem Ergebnis gemessen werden können. Eine gesonderte Behandlung des Zustandes und der Messgrößen (oder „Observablen“) ist damit in der klassischen Mechanik nicht nötig, weil der Zustand die Messwerte festlegt und umgekehrt. Die Natur zeigt jedoch Quantenphänomene, die sich mit diesen Begriffen nicht beschreiben lassen. Es ist im Allgemeinen nicht mehr vorhersagbar, an welchem Ort und mit welcher Geschwindigkeit ein Teilchen nachgewiesen wird. Wenn beispielsweise ein Streuexperiment mit einem Teilchen unter exakt gleichen Ausgangsbedingungen wiederholt wird, muss man für das Teilchen nach dem Streuvorgang immer denselben Zustand ansetzen (siehe "Deterministische Zeitentwicklung"), gleichwohl kann es an verschiedenen Orten des Schirms auftreffen. Der Zustand des Teilchens nach dem Streuprozess legt also seine Flugrichtung nicht fest. Allgemein gilt: In der Quantenmechanik gibt es Zustände, die auch dann nicht die Vorhersage eines einzelnen Messergebnisses ermöglichen, wenn der Zustand exakt bekannt ist. Es lässt sich dann jedem der möglichen Messwerte nur noch eine Wahrscheinlichkeit zuordnen. Daher werden in der Quantenmechanik Messgrößen und Zustände getrennt behandelt und es werden für diese Größen andere Konzepte verwendet als in der klassischen Mechanik. Allen messbaren Eigenschaften eines physikalischen Systems werden in der Quantenmechanik mathematische Objekte zugeordnet, die sogenannten Observablen. Beispiele sind der Ort eines Teilchens, sein Impuls, sein Drehimpuls oder seine Energie. Es gibt zu jeder Observablen einen Satz von speziellen Zuständen, bei denen das Ergebnis einer Messung nicht streuen kann, sondern eindeutig festliegt. Ein solcher Zustand wird „Eigenzustand“ der betreffenden Observablen genannt, und das zugehörige Messergebnis ist einer der „Eigenwerte“ der Observablen. In allen anderen Zuständen, die nicht Eigenzustand zu dieser Observablen sind, sind verschiedene Messergebnisse möglich. Sicher ist aber, dass bei dieser Messung einer der Eigenwerte festgestellt wird und dass das System anschließend im entsprechenden Eigenzustand dieser Observablen ist. Zu der Frage, welcher der Eigenwerte für die zweite Observable zu erwarten ist, oder gleichbedeutend: in welchem Zustand sich das System nach dieser Messung befinden wird, lässt sich nur eine Wahrscheinlichkeitsverteilung angeben, die aus dem Anfangszustand zu ermitteln ist. Verschiedene Observablen haben im Allgemeinen auch verschiedene Eigenzustände. Dann ist für ein System, das sich als Anfangszustand im Eigenzustand einer Observablen befindet, das Messergebnis einer zweiten Observablen unbestimmt. Der Anfangszustand selbst wird dazu als Überlagerung (Superposition) aller möglichen Eigenzustände der zweiten Observablen interpretiert. Den Anteil eines bestimmten Eigenzustands bezeichnet man als dessen "Wahrscheinlichkeitsamplitude". Das Betragsquadrat einer Wahrscheinlichkeitsamplitude gibt die Wahrscheinlichkeit an, bei einer Messung am Anfangszustand den entsprechenden Eigenwert der zweiten Observablen zu erhalten (Bornsche Regel oder Bornsche Wahrscheinlichkeitsinterpretation). Allgemein lässt sich jeder beliebige quantenmechanische Zustand als Überlagerung von verschiedenen Eigenzuständen einer Observablen darstellen. Verschiedene Zustände unterscheiden sich nur dadurch, welche dieser Eigenzustände mit welchem Anteil zu der Überlagerung beitragen. Bei manchen Observablen, zum Beispiel beim Drehimpuls, sind nur diskrete Eigenwerte erlaubt. Beim Teilchenort hingegen bilden die Eigenwerte ein Kontinuum. Die Wahrscheinlichkeitsamplitude dafür, das Teilchen an einem bestimmten Ort zu finden, wird deshalb in Form einer ortsabhängigen Funktion, der so genannten Wellenfunktion angegeben. Das Betragsquadrat der Wellenfunktion an einem bestimmten Ort gibt die räumliche Dichte der Aufenthaltswahrscheinlichkeit an, das Teilchen dort zu finden. Nicht alle quantenmechanischen Observablen haben einen klassischen Gegenpart. Ein Beispiel ist der Spin, der nicht auf aus der klassischen Physik bekannte Eigenschaften wie Ladung, Masse, Ort oder Impuls zurückgeführt werden kann. Mathematische Formulierung. Für die mathematische Behandlung physikalischer Vorgänge soll der Zustand des betrachteten Systems zum betrachteten Zeitpunkt alle Angaben enthalten, die – bei bekannten äußeren Kräften – zur Berechnung seines zukünftigen Verhaltens erforderlich sind. Daher ist der Zustand eines Massenpunktes zu einem bestimmten Zeitpunkt "t" in der klassischen Physik schon durch die Angabe von Ort formula_4 und Impuls formula_5 gegeben, zusammen also durch einen "Punkt" in einem 6-dimensionalen Raum, der Zustandsraum oder Phasenraum genannt wird. Genau in dieser Definition liegt begründet, dass die Quantenphänomene in der klassischen Physik keine Erklärung finden können. Dies zeigt sich beispielsweise in der unten beschriebenen Heisenbergschen Unschärferelation, der zufolge Ort und Impuls eines Quantenobjekts prinzipiell nicht gleichzeitig eindeutig bestimmt sein können. In der Quantenmechanik wird der Zustand durch einen Vektor im Hilbertraum wiedergegeben, die übliche Notation ist formula_6 vereinfacht wird auch oft nur formula_7 geschrieben. Dabei ist zu berücksichtigen, dass zwei verschiedene Vektoren genau dann denselben physikalischen Zustand bezeichnen, wenn sie sich nur um einen konstanten Zahlenfaktor unterscheiden. Eine unter vielen Möglichkeiten, formula_8 zu repräsentieren, ist die Wellenfunktion formula_9 (die ganze Funktion, nicht nur ihr Wert an einem Ort formula_10), oft ebenfalls einfach als formula_7 geschrieben. Betrachtet man die zeitliche Entwicklung des Zustands, schreibt man formula_12 beziehungsweise formula_13 Zwei Wellenfunktionen, die sich nur durch einen konstanten Faktor unterscheiden, geben denselben Zustand wieder. Eine Observable wird allgemein durch einen linearen Operator formula_14 dargestellt, der mathematisch auf einen Zustandsvektor wirkt und als Ergebnis einen neuen Vektor des Zustandsraums erzeugt: formula_15 Falls formula_8 ein Eigenzustand dieser Observablen ist, gilt die Eigenwertgleichung formula_17 Darin ist der Faktor formula_18 der Eigenwert, also der für diesen Zustand eindeutig festgelegte Messwert der Observablen formula_19 Meist wird der Zustandsvektor formula_8 dann durch einen unteren Index gekennzeichnet, z. B. formula_21 oder formula_22 worin formula_23 der Eigenwert selber ist bzw. n (die „Quantenzahl“) seine laufende Nummer in der Liste aller Eigenwerte (sofern eine solche Liste existiert, also nicht für kontinuierliche Eigenwerte). Deterministische Zeitentwicklung. mit dem Hamilton-Operator formula_25, der die Gesamtenergie des quantenmechanischen Systems beschreibt. Der Hamilton-Operator setzt sich zusammen aus einem Term für die kinetische Energie der Teilchen des Systems und einem zweiten Term, der im Falle mehrerer Teilchen die Wechselwirkungen zwischen ihnen beschreibt sowie im Fall externer Felder die potentielle Energie, wobei die externen Felder auch zeitabhängig sein können. Wechselwirkungen zwischen verschiedenen Teilchen werden also – anders als in der newtonschen Mechanik – nicht als Kräfte, sondern ähnlich zur Methodik der klassischen hamiltonschen Mechanik als Energieterme beschrieben. Hierbei ist in den typischen Anwendungen auf Atome, Moleküle, Festkörper insbesondere die elektromagnetische Wechselwirkung relevant. Die Schrödingergleichung ist eine partielle Differentialgleichung erster Ordnung in der Zeitkoordinate, die Zeitentwicklung des quantenmechanischen Zustands eines geschlossenen Systems ist also vollständig deterministisch. Stationäre Zustände. Die Schrödingergleichung reduziert sich in diesem Fall auf Die zeitliche Entwicklung drückt sich also einzig in einem zusätzlichen Exponentialfaktor aus, einem "Phasenfaktor". Das bedeutet, dass der durch formula_32 beschriebene Zustand derselbe ist wie formula_33 − ein stationärer Zustand eben. Nur die "quantenmechanische Phase" ändert sich, und zwar mit der (Kreis-) Frequenz formula_34. Auch für andere Observable als die Energie ist in stationären Zuständen die Wahrscheinlichkeit, einen bestimmten Wert zu messen, von der Zeit unabhängig. Interferenz. Eine weitere wesentliche Eigenschaft des quantenmechanischen Zustandes ist die Möglichkeit zur Interferenz. Wenn z. B. formula_35 und formula_36 Lösungen derselben Schrödingergleichung sind, ist es auch ihre Summe formula_37. In dieser Eigenschaft drückt sich das bei Wellen aller Art geltende Superpositionsprinzip aus. Mathematisch ergibt sie sich hier aus der Linearität der Schrödingergleichung. Die entsprechende räumliche Wahrscheinlichkeitsverteilung für ein Teilchen im Zustand formula_38 ist (bis auf einen konstanten Normierungsfaktor) durch das Betragsquadrat formula_39 gegeben. Im Zustand formula_40 ist die Aufenthaltswahrscheinlichkeit daher nicht die Summe der beiden einzelnen Aufenthaltswahrscheinlichkeiten formula_41 und formula_42, wie man es für klassische Teilchen erwarten würde. Vielmehr ist sie Null an jedem Ort, wo formula_43 gilt (destruktive Interferenz), während sie an Orten mit formula_44 doppelt so groß ist wie die Summe der beiden einzelnen Aufenthaltswahrscheinlichkeiten (konstruktive Interferenz). Diese Eigenschaft weist auch Licht auf, das zum Beispiel hinter einem Doppelspalt ein Interferenzmuster entstehen lässt. Die Quantenmechanik sagt dementsprechend für Teilchen ähnliche Interferenzerscheinungen wie für Licht voraus. Das Doppelspaltexperiment zeigt sowohl die statistische Natur der Quantenmechanik als auch den Interferenzeffekt und ist damit ein gutes Beispiel für den Welle-Teilchen-Dualismus. Dabei werden mikroskopische „Teilchen“, zum Beispiel Elektronen, in einem breiten Strahl auf ein Hindernis mit zwei eng beieinander liegenden Spalten gesendet und weiter hinten auf einem Leuchtschirm aufgefangen. In der Verteilung der Elektronen auf dem Schirm würde man unter Annahme des klassischen Teilchenmodells zwei klar voneinander abgrenzbare Häufungen erwarten. Das kann man sich so vorstellen, als ob man kleine Kugeln von oben durch zwei Schlitze fallen ließe; diese werden unter jedem Schlitz je einen Haufen bilden. Die mit Elektronen tatsächlich beobachteten Messergebnisse sind anders (siehe Abbildung rechts). Mit der klassischen Teilchenvorstellung stimmen sie nur insoweit überein, als jedes einzelne Elektron auf dem Schirm genau einen einzigen Leuchtpunkt verursacht. Bei der Ausführung des Experiments mit vielen Elektronen (gleich, ob gleichzeitig oder nacheinander auf die Spalte gesendet) wird die Wahrscheinlichkeitsverteilung der Ortsmesswerte sichtbar, die nicht den klassisch erwarteten zwei Häufungen entspricht. Sie weist stattdessen wie beim Licht ausgeprägte Interferenzstreifen auf, in denen sich die destruktive und konstruktive Interferenz abwechseln. Messprozess. Gemessenes Interferenzmuster von Elektronen hinter einem Doppelspalt Die Tatsache, dass Messungen eindeutig vorhersagbare Messergebnisse liefern können (nämlich wenn sich das System in einem Eigenzustand zu der zu messenden Observablen befindet), scheint im Widerspruch zu den von der Quantenmechanik postulierten Gesetzmäßigkeiten der Zeitentwicklung des Systemzustands zu stehen: Einerseits erfolgt die Zeitentwicklung des Systemzustands strikt deterministisch, andererseits sind die Messergebnisse im Allgemeinen nur statistisch vorhersagbar. Einerseits sollen den Zuständen des Systems im Allgemeinen überlagerte Linearkombinationen von Eigenzuständen entsprechen, andererseits wird kein verwaschenes Bild mehrerer Werte gemessen, sondern stets ein eindeutiger Wert. Ist ein Messwert einmal erhalten, muss das System sich anschließend in einem Zustand befinden, für den im Fall einer sofort folgenden Wiederholungsmessung derselbe Wert als eindeutiges Ergebnis vorhergesagt werden kann, denn „die Natur macht keine Sprünge“. Eine der hauptsächlichen Herausforderungen für Interpretationen der Quantenmechanik ist es, diesen scheinbaren Widerspruch, das so genannte Messproblem, zu erklären. Eine Klasse von Interpretationen, die sogenannten "Kollaps-Theorien", zu welcher auch die Kopenhagener Interpretation zählt, erklärt dies mit einem "Kollaps der Wellenfunktion", also einem Übergang des vorher vorliegenden Systemzustands, sofern er nicht schon ein Eigenzustand der gemessenen Observablen ist, in einen solchen Eigenzustand. In den entsprechenden Formulierungen der Quantenmechanik erfolgt dieser Kollaps "beim Vorgang des Messens". Doch dies ist nur eine Umschreibung in der Alltagssprache. Viele Physiker und Interpreten halten es dagegen für notwendig, "in physikalischen Begriffen" anzugeben, was genau eine „Messung“ ausmacht. Wenn nämlich die Quantenmechanik die zutreffende grundlegende Theorie über die Welt ist, müsste sie "alle" physikalischen Systeme – inklusive der Messvorrichtung selbst – und deren wechselseitige Wirkung aufeinander beschreiben. Dann wird aber auch die Zeitentwicklung ihrer Zustände strikt deterministisch beschrieben – bis unter allen mehr oder minder wahrscheinlichen Ergebnissen "das" Messergebnis festgestellt wird, womit sich das Problem wiederholt. Das Problem, wo die Grenze zwischen beschreibenden Quantensystemen und der „Messapparatur“ liegt, wird als "Demarkationsproblem" bezeichnet. Die Kopenhagener Interpretation selbst erklärt den Kollaps und die Fragen zur Demarkation nicht weiter: Eine Messung wird schlicht beschrieben als Interaktion eines "Quantensystems" mit einem "Messgerät", das selber als "klassisches" physikalisches System aufgefasst wird. Die oben gegebene Beschreibung von Observablen und Zuständen ist an dieser Interpretation orientiert. Daraus, dass die Messung einer Observablen das System immer in einem Eigenzustand zurücklässt, der zu dem beobachteten Eigenwert gehört, folgt, dass bei zwei aufeinander folgenden Messungen verschiedener Observablen die Reihenfolge, in der sie durchgeführt werden, die Messergebnisse beeinflussen kann. Das ist immer der Fall, wenn nacheinander zwei Observablen an einem System gemessen werden, das sich nicht in einem gemeinsamen Eigenzustand beider Observablen befindet. Da der Endzustand einer exakten Messung immer ein Eigenzustand der Observablen ist, die gerade gemessen wurde, durchläuft das System bei zwei aufeinander folgenden Messungen von Observablen mit unterschiedlichen Eigenzuständen je nach ihrer Abfolge verschiedene Zustände. Für viele Paare von Observablen trifft dies immer zu, denn sie haben überhaupt keinen gemeinsamen Eigenzustand. Solche Observablen werden komplementäre Observablen genannt. Ein Beispiel für ein Paar komplementärer Observablen sind Ort und Impuls. Heisenbergsche Unschärferelation. Das Unschärfeprinzip der Quantenmechanik, das in Form der Heisenbergschen Unschärferelation bekannt ist, setzt die kleinstmöglichen theoretisch erreichbaren Unsicherheitsbereiche zweier Messgrößen in Beziehung. Es gilt für jedes Paar von komplementären Observablen, insbesondere für Paare von Observablen, die wie Ort und Impuls oder Drehwinkel und Drehimpuls physikalische Messgrößen beschreiben, die in der klassischen Mechanik als kanonisch konjugiert bezeichnet werden und kontinuierliche Werte annehmen können. Hat für das betrachtete System eine dieser Größen einen exakt bestimmten Wert (Unsicherheitsbereich Null), dann ist der Wert der anderen völlig unbestimmt (Unsicherheitsbereich unendlich). Dieser Extremfall ist allerdings nur theoretisch von Interesse, denn keine reale Messung kann völlig exakt sein. Tatsächlich ist der Endzustand der Messung der Observablen "A" daher kein reiner Eigenzustand der Observablen "A", sondern eine Überlagerung mehrerer dieser Zustände zu einem gewissen Bereich von Eigenwerten zu "A". Bezeichnet man mit formula_45 den Unsicherheitsbereich von "A", mathematisch definiert durch die sog. Standardabweichung, dann gilt für den ebenso definierten Unsicherheitsbereich formula_46 der kanonisch konjugierten Observablen "B" die Ungleichung Darin ist formula_48 das Plancksche Wirkungsquantum und formula_49. Selbst wenn beide Messgeräte beliebig genau messen können, wird die Schärfe der Messung von "B" durch die der Messung von "A" beschränkt. Es gibt keinen Zustand, in dem die Messwerte von zwei kanonisch konjugierten Observablen mit kleinerer Unschärfe streuen. Für das Beispiel von Ort und Impuls bedeutet das, dass in der Quantenmechanik die Beschreibung der Bewegung eines Teilchens durch eine Bahnkurve nur mit begrenzter Genauigkeit sinnvoll und insbesondere im Innern eines Atoms unmöglich ist. Eine ähnliche Unschärferelation gilt zwischen Energie und Zeit. Diese nimmt aber hier eine Sonderrolle ein, da in der Quantenmechanik aus formalen Gründen der Zeit keine Observable zugeordnet ist. Tunneleffekt. Durchtunneln und Reflexion an einer Potentialbarriere durch ein Elektron-Wellenpaket. Ein Teil des Wellenpaketes geht durch die Barriere hindurch, was nach der klassischen Physik nicht möglich wäre. Der Tunneleffekt ist einer der bekannteren Quanteneffekte, die im Gegensatz zur klassischen Physik und zur Alltagserfahrung stehen. Er beschreibt das Verhalten eines Teilchens an einer Potentialbarriere. Im Rahmen der klassischen Mechanik kann ein Teilchen eine solche Barriere nur überwinden, wenn seine Energie höher als der höchste Punkt der Barriere ist, andernfalls prallt es ab. Nach der Quantenmechanik kann das Teilchen hingegen mit einer gewissen Wahrscheinlichkeit die Barriere auch im klassisch verbotenen Fall überwinden. Andererseits wird das Teilchen auch dann mit einer gewissen Wahrscheinlichkeit an der Barriere reflektiert, wenn seine Energie höher als die Barriere ist. Die Wahrscheinlichkeiten für das Tunneln beziehungsweise für die Reflexion können bei bekannter Form der Potentialbarriere präzise berechnet werden. Der Tunneleffekt hat eine große Bedeutung in verschiedenen Bereichen der Physik, wie zum Beispiel bei der Beschreibung des Alpha-Zerfalls, der Kernfusion, der Funktionsweise der Feldemissions- und Rastertunnelmikroskopie oder bei der Erklärung des Zustandekommens der chemischen Bindung. Verschränkung, EPR-Experiment. Wenn zwei Quantensysteme miteinander in Wechselwirkung treten, müssen sie als ein Gesamtsystem betrachtet werden. Selbst wenn vor der Wechselwirkung der quantenmechanische Zustand dieses Gesamtsystems einfach aus den beiden wohldefinierten Anfangszuständen der beiden Teilsysteme zusammengesetzt ist, entwickelt er sich durch die Wechselwirkung zu einer Superposition von Zuständen, die jeweils aus solchen Paaren von Zuständen der Teilsysteme gebildet sind. Es sind mit verschiedener Wahrscheinlichkeit verschiedene Paarungen möglich (z. B. beim Stoß der elastische oder der inelastische Stoß, oder Ablenkung um verschiedene Winkel etc.). In jedem dieser Paare sind die Endzustände der Teilsysteme so aufeinander abgestimmt, dass die Erhaltungssätze (Energie, Impuls, Drehimpuls, Ladung etc.) erfüllt sind. Der Zustand des Gesamtsystems liegt eindeutig fest und ist eine Superposition aller möglichen Paarungen. Er kann nicht – wie der Anfangszustand vor der Wechselwirkung – einfach aus je einem bestimmten Zustand beider Teilsysteme gebildet werden. Dann ist mit einer Messung, die nur an einem Teilsystem ausgeführt wird und dieses in einem bestimmten seiner möglichen Endzustände findet, auch eindeutig festgestellt, dass das andere Teilsystem sich im dazu passenden Endzustand befindet. Es besteht nun eine Korrelation zwischen den physikalischen Eigenschaften der Teilsysteme. Daher bezeichnet man den Zustand des Gesamtsystems als verschränkt. Die Verschränkung bleibt auch dann erhalten, wenn der Zeitpunkt der Wechselwirkung schon weit in der Vergangenheit liegt und die zwei Teilsysteme sich inzwischen weit voneinander entfernt haben. Es ist zum Beispiel möglich, ein Paar von Elektronen so zu präparieren, dass sie sich räumlich entfernen und für keins der Elektronen einzeln die Richtung des Spins vorhersagbar ist, während es feststeht, dass das eine Elektron den Spin „down“ aufweist, wenn das andere Elektron mit dem Spin „up“ beobachtet wurde, und umgekehrt. Diese Korrelationen sind auch beobachtbar, wenn erst nach der Wechselwirkung entschieden wird, welche beliebige Richtung im Raum als Up- bzw. Down-Achse definiert wird. Folge der Verschränkung ist, dass die Durchführung einer Messung an einem Ort die Messergebnisse an einem (im Prinzip beliebig weit entfernten) anderen Ort beeinflusst, und das ohne jede Zeitverzögerung, also mit Überlichtgeschwindigkeit. Dieses Phänomen war einer der Gründe, weshalb Albert Einstein die Quantenmechanik ablehnte. Er betrachtete die "Separierbarkeit" physikalischer Systeme (d. h. die Existenz wohlbestimmter lokaler physikalischer Eigenschaften) als ein fundamentales Prinzip der Physik, insbesondere der speziellen Relativitätstheorie, und versuchte nachzuweisen, dass die Quantenmechanik entweder das Prinzip der Separierbarkeit verletzt oder unvollständig ist. Gemeinsam mit Boris Podolsky und Nathan Rosen entwickelte Einstein ein Gedankenexperiment, das als Einstein-Podolsky-Rosen-Paradoxon bekannt wurde. Dieses Gedankenexperiment erwies sich in seiner ursprünglichen Formulierung als nicht praktisch durchführbar. Jedoch gelang es John Stewart Bell im Jahr 1964, aus Einsteins zentraler Prämisse der Existenz lokaler physikalischer Eigenschaften die experimentell überprüfbare Bellsche Ungleichung zu gewinnen. Alle bislang vorliegenden experimentellen Untersuchungen haben die Verletzung der Bellschen Ungleichung gezeigt, damit Einstein widerlegt und die Voraussagen der Quantenmechanik bestätigt. Weiterhin zeigt die genaue theoretische Analyse des EPR-Effektes, dass dieser doch nicht im Widerspruch zur speziellen Relativitätstheorie steht, da auf diese Weise keine Information übertragen werden kann: Die einzelne Messung ergibt – unabhängig davon, ob das andere Teilchen bereits gemessen wurde – stets ein am Ort und zum Zeitpunkt der Messung unvorhersagbares Ergebnis. Erst, wenn das Ergebnis der anderen Messung – frühestens durch Kommunikation mit Lichtgeschwindigkeit – bekannt wird, kann man die Korrelation feststellen oder ausnutzen. Identische Teilchen, Pauli-Prinzip. Durch die prinzipielle Unmöglichkeit, den Zustand eines quantenphysikalischen Systems nach klassischen Maßstäben „vollständig“ zu bestimmen, verliert eine Unterscheidung zwischen mehreren Teilchen mit gänzlich identischen intrinsischen Eigenschaften (wie beispielsweise Masse oder Ladung, nicht aber zustandsabhängigen Größen wie Energie oder Impuls) in der Quantenmechanik ihren Sinn. Nach den Vorstellungen der klassischen Mechanik können beliebig genaue Orts- und Impulsmessungen simultan an mehreren Teilchen durchgeführt werden – ob identisch oder nicht –, woraus (zumindest prinzipiell) die zukünftige Bahn jedes Teilchens genau vorhergesagt werden kann. Findet man später ein Teilchen an einem bestimmten Ort, kann man ihm eindeutig seinen Ausgangspunkt zuordnen und mit Sicherheit sagen, an beiden Orten habe es sich um "dasselbe" Teilchen gehandelt. Eine quantenmechanische Betrachtung lässt eine solche „Durchnummerierung“ von identischen Teilchen nicht zu. Das ist deshalb wichtig, weil z. B. alle Elektronen in diesem Sinne identische Teilchen sind. Es ist also beispielsweise unmöglich die Frage zu beantworten, ob bei zwei aufeinander folgenden Messungen an einzelnen Elektronen „dasselbe“ oder ein „anderes“ Elektron beobachtet wurde. Hier sind die Worte „dasselbe“ und „anderes“ in Anführungszeichen gesetzt, weil sie zwar umgangssprachlich klar erscheinen mögen, für identische Teilchen aber gar keinen Sinn ergeben. Es ist nicht nur "unmöglich", die gestellte Frage zu beantworten, sie lässt sich schon gar nicht physikalisch sinnvoll stellen. Da das Vertauschen zweier identischer Teilchen keine der physikalischen Eigenschaften des Zustands eines Vielteilchensystems ändert, muss der Zustandsvektor gleich bleiben oder kann höchstens sein Vorzeichen wechseln. Identische Teilchen bezeichnet man als Bosonen, wenn bei deren Vertauschung der Zustandsvektor gleich bleibt, als Fermionen, wenn er das Vorzeichen wechselt. Das Spin-Statistik-Theorem besagt, dass alle Teilchen mit ganzzahligem Spin Bosonen sind (z. B. die Photonen) und alle Teilchen mit halbzahligem Spin Fermionen. Dies lässt sich nicht im Rahmen der Quantenmechanik, sondern erst aus der Quantenfeldtheorie ableiten. Eine wichtige Konsequenz ist die als „Pauli-Prinzip“ bekannte Regel, dass zwei identische Fermionen nicht die gleichen Einteilchenzustände einnehmen können. Es schließt bei den Atomen die Mehrfachbesetzung elektronischer Zustände aus und erzwingt deren „Auffüllung“ bis zur Fermienergie. Das ist von großer praktischer Bedeutung, denn es ermöglicht den Atomen, vielgestaltige chemische Verbindungen einzugehen. Das Spin-Statistik-Theorem bewirkt außerdem erhebliche Unterschiede im thermodynamischen Verhalten zwischen Systemen mit vielen identischen Teilchen. Bosonen gehorchen der Bose-Einstein-Statistik, die z. B. die Wärmestrahlung beschreibt, Fermionen der Fermi-Dirac-Statistik, die z. B. die elektronischen Eigenschaften von Leitern und Halbleitern erklärt. Dekohärenz. a) klassische Streuungb) Dekohärenz durch Delokalisierung der quantenmechanischen Kohärenz Die Dekohärenz ist ein modernes Konzept der Quantenmechanik, das bei makroskopischen Systemen die äußerst effiziente Unterdrückung der Folgen der Kohärenz beschreibt. Damit kann im Rahmen der Quantenmechanik erklärt werden, dass makroskopische Systeme keine Superpositionseffekte zeigen, sich also (von Ausnahmen abgesehen) „klassisch“ verhalten. Dekohärenz ist damit heute ein wichtiger Bestandteil des Korrespondenzprinzips der Quantenmechanik. Zur Veranschaulichung dieses Effektes sei das Beispiel eines makroskopischen Objekts betrachtet, das dem Einfluss einer isotropen Lichtstrahlung – im Folgenden auch als "Umgebung" bezeichnet – ausgesetzt ist. Im Rahmen der klassischen Physik ist der Einfluss des einfallenden Lichts auf die Bewegung des Objekts vernachlässigbar, da der mit dem Stoß eines Photons verbundene Impulsübertrag sehr gering ist und sich die Stöße aus verschiedenen Richtungen im Mittel kompensieren. Bei quantenmechanischer Betrachtung findet bei jedem Stoß eine Verschränkung des Objekts mit einem Photon statt (siehe oben), sodass das Objekt und das Photon nun als ein erweitertes Gesamtsystem betrachtet werden müssen. Die für Interferenzeffekte entscheidenden festen Phasenbeziehungen des quantenmechanischen Zustands erstrecken sich nun also über zwei Teilsysteme, das Objekt und das Photon, man spricht auch von einer Delokalisierung der Kohärenz. Bei isolierter Betrachtung des (Teil)zustands des Objekts äußert sich jeder Stoß in einer Verschiebung seiner quantenmechanischen Phasenbeziehungen und damit in einer Verringerung seiner Interferenzfähigkeit. Hierbei handelt es sich um einen reinen Quanteneffekt, der unabhängig von einem mit dem Stoß verbundenen Impuls- oder Energieübertrag ist. Die praktisch unvermeidlichen, zahlreich auftretenden Wechselwirkungen makroskopischer Objekte mit ihrer Umgebung führen so zu einer effektiven Ausmittelung aller quantenmechanischen Interferenzeffekte. Die für die Dekohärenz charakteristische Zeitskala, die Dekohärenzzeit formula_50, ist im Allgemeinen unter Normalbedingungen äußerst kurz (z. B. etwa formula_51), die Dekohärenz gilt daher als der effizienteste bekannte physikalische Effekt. Bei makroskopischen („klassischen“) Objekten sind daher nur noch solche Zustände anzutreffen, die den Prozess der Dekohärenz schon abgeschlossen haben und ihm nicht weiter unterworfen sind. Die verbleibende inkohärente Überlagerung quantenmechanischer Zustände entspricht demnach genau den Zuständen der makroskopischen bzw. klassischen Physik. Die Dekohärenz liefert so eine quantenmechanische Erklärung für das klassische Verhalten von makroskopischen Systemen. Relativistische Quantenmechanik. a>e sind eine Notation für Teilchenreaktionen in der Quantenfeldtheorie. Die Quantenmechanik wurde zuerst noch ohne Berücksichtigung der speziellen Relativitätstheorie entwickelt. Die Schrödingergleichung ist eine Differentialgleichung erster Ordnung in der Zeit, aber zweiter Ordnung in der Raumkoordinate, sie ist also nicht relativistisch kovariant. In der relativistischen Quantenmechanik muss sie durch eine kovariante Gleichung ersetzt werden. Nach der (quadratischen) Klein-Gordon-Gleichung setzte sich vor allem die (lineare) Dirac-Gleichung durch. Mit der Dirac-Gleichung konnten wichtige am Elektron beobachtete physikalische Phänomene erstmals erklärt oder sogar vorhergesagt werden. Während der halbzahlige Spin in der nichtrelativistischen Quantenmechanik ad hoc als zusätzliches Konstrukt und entgegen den Regeln der Drehimpulsquantelung eingeführt werden muss, ergibt sich seine Existenz zwanglos aus der mathematischen Struktur der Dirac-Gleichung. Auch folgt aus der Dirac-Gleichung richtig, dass das magnetische Moment des Elektrons im Verhältnis zum Spin, der gyromagnetische Faktor, fast genau doppelt so groß ist wie das für eine kreisende Ladung. Auch die Feinstruktur des Wasserstoffspektrums erweist sich als ein relativistischer Effekt, der mit der Dirac-Gleichung berechnet werden kann. Eine weitere erfolgreiche Anwendung der Dirac-Gleichung ist die Beschreibung der Winkelverteilung bei der Streuung von Photonen an Elektronen, also des Compton-Effekts, durch die so genannte Klein-Nishina-Formel. Eine weitere zutreffende Folge der Dirac-Gleichung war die zu ihrer Zeit ungeheuerliche Vorhersage der Existenz eines Antiteilchens zum Elektron, des Positrons. Trotz dieser Erfolge sind diese Theorien jedoch insofern lückenhaft, als sie die Erzeugung und Vernichtung von Teilchen nicht beschreiben können, einen bei hochrelativistischen Energien allgegenwärtigen Effekt. Als sehr fruchtbar erwies sich hier die Entwicklung der Quantenfeldtheorie. In dieser Theorie werden sowohl materielle Objekte als auch deren Wechselwirkungen durch Felder beschrieben, die gemäß bestimmten Quantisierungsregeln, wie z. B. der zweiten Quantisierung, quantisiert werden. Die Quantenfeldtheorie beschreibt nicht nur die Entstehung und Vernichtung von Elementarteilchen (Paarerzeugung, Annihilation), sondern liefert auch eine tiefere Erklärung für deren Ununterscheidbarkeit, für den Zusammenhang zwischen Spin und Statistik von Quantenobjekten sowie für die Existenz von Antiteilchen. Interpretation. Die klassischen physikalischen Theorien, zum Beispiel die klassische Mechanik oder die Elektrodynamik, haben eine klare Interpretation, das heißt, den Symbolen der Theorie (Ort, Geschwindigkeit, Kraft beziehungsweise Spannungen und Felder) ist eine intuitive, klare Entsprechung in Experimenten (also eine messbare Größe) zugeordnet. Da die Quantenmechanik in ihrer mathematischen Formulierung auf sehr abstrakten Objekten, wie etwa Wellenfunktionen, basiert, ist eine Interpretation nicht mehr intuitiv möglich. Daher wurden seit dem Zeitpunkt der Entstehung der Theorie eine Reihe verschiedener Interpretationen vorgeschlagen. Sie unterscheiden sich in ihren Aussagen über die Existenz von Quantenobjekten und ihren Eigenschaften. Die Standpunkte der meisten Interpretationen der Quantenmechanik können grob in zwei Gruppen aufgeteilt werden, die "instrumentalistische" Position und die "realistische" Position. Gemäß der instrumentalistischen Position stellt die Quantenmechanik, beziehungsweise ein auf ihrer Basis ausgearbeitetes Modell, keine Abbildung der „Realität“ dar. Vielmehr handele es sich bei dieser Theorie lediglich um einen nützlichen mathematischen Formalismus, der sich als Werkzeug zur Berechnung von Messergebnissen bewährt hat. Diese ursprünglich insbesondere von Bohr im Rahmen der Kopenhagener Interpretation vertretene pragmatische Sicht dominierte bis in die 1960er Jahre die Diskussion um die Interpretation der Quantenmechanik und prägt bis heute viele gängige Lehrbuchdarstellungen. Neben dieser pragmatischen Variante der Kopenhagener Interpretation existiert heute eine Vielzahl alternativer Interpretationen, die bis auf wenige Ausnahmen das Ziel einer realistischen Deutung der Quantenmechanik verfolgen. In der Wissenschaftstheorie wird eine Interpretation als wissenschaftlich-realistisch bezeichnet, wenn sie davon ausgeht, dass die Objekte und Strukturen der Theorie treue Abbildungen der Realität darstellen und dass sowohl ihre Aussagen über beobachtbare Phänomene als auch ihre Aussagen über nicht beobachtbare Entitäten als (näherungsweise) wahr angenommen werden können. In vielen Arbeiten zur Quantenphysik wird Realismus gleichgesetzt mit dem Prinzip der Wertdefiniertheit. Dieses Prinzip basiert auf der Annahme, dass einem physikalischen Objekt physikalische Eigenschaften zugeordnet werden können, die es mit einem bestimmten Wert eindeutig entweder "hat" oder "nicht hat". Beispielsweise spricht man bei der Beschreibung der Schwingung eines Pendels davon, dass das Pendel (zu einem bestimmten Zeitpunkt, und innerhalb einer gegebenen Genauigkeit) eine Auslenkung "x" "hat". In der Kopenhagener Interpretation wird die Annahme der Wertdefiniertheit aufgegeben. Ein Quantenobjekt hat demnach im Allgemeinen keine solchen Eigenschaften, vielmehr entstehen Eigenschaften erst im Moment und im speziellen Kontext der Durchführung einer Messung. Die Schlussfolgerung, dass die Wertdefiniertheit aufgegeben werden muss, ist allerdings weder aus logischer noch aus empirischer Sicht zwingend. So geht beispielsweise die (im Experiment von der Kopenhagener Interpretation nicht unterscheidbare) De-Broglie-Bohm-Theorie davon aus, dass Quantenobjekte Teilchen sind, die sich entlang wohldefinierter Bahnkurven bewegen, wobei diese Bahnen selbst aber der Beobachtung entzogen sind. Klassischer Grenzfall. Niels Bohr formulierte 1923 das sogenannte Korrespondenzprinzip, wonach die Eigenschaften von Quantensystemen im Grenzwert großer Quantenzahlen mit hoher Genauigkeit den Gesetzen der klassischen Physik entsprechen. Dieser Grenzwert bei großen Systemen wird als „klassischer Grenzfall“ oder „Korrespondenz-Limit“ bezeichnet. Hintergrund dieses Prinzips ist, dass klassische Theorien wie die klassische Mechanik oder die klassische Elektrodynamik an makroskopischen Systemen (Federn, Kondensatoren etc.) entwickelt wurden und diese daher sehr genau beschreiben können. Daraus resultiert die Erwartung, dass die Quantenmechanik im Falle „großer“ Systeme diese klassischen Eigenschaften reproduziert beziehungsweise ihnen nicht widerspricht. Ein wichtiges Beispiel für diesen Zusammenhang zwischen der klassischen Mechanik und der Quantenmechanik ist das Ehrenfestsche Theorem. Es besagt, dass die Mittelwerte der quantenmechanischen Orts- und Impulsobservablen eines Teilchens in guter Näherung der klassischen Bewegungsgleichung folgen, sofern die Kräfte, die auf das Teilchen wirken, nicht zu stark mit dem Ort variieren. Das Korrespondenzprinzip ist daher ein wichtiges Hilfsmittel bei der Konstruktion und Verifikation quantenmechanischer Modellsysteme: Zum einen liefern „klassische“ Modelle mikroskopischer Systeme wertvolle heuristische Anhaltspunkte zur quantenmechanischen Beschreibung des Systems. Zum anderen kann die Berechnung des klassischen Grenzfalls zur Plausibilisierung der quantenmechanischen Modellrechnungen herangezogen werden. Sofern sich im klassischen Grenzfall physikalisch unsinnige Resultate ergeben, kann das entsprechende Modell verworfen werden. Umgekehrt bedeutet diese Korrespondenz aber auch, dass die korrekte quantenmechanische Beschreibung eines Systems, inklusive einiger nicht-klassischer Effekte wie etwa des Tunneleffekts, oft näherungsweise mittels klassischer Begriffe möglich ist; solche Näherungen erlauben oft ein tieferes Verständnis der quantenmechanischen Systeme. Man spricht hier auch von semiklassischer Physik. Beispiele für semiklassische Beschreibungen sind die WKB-Näherung und die Gutzwillersche Spurformel. Allerdings besitzen die oben beschriebenen Korrespondenzregeln keine universale Gültigkeit, da sie nur unter bestimmten einschränkenden Randbedingungen gelten und die Dekohärenz (siehe oben) nicht berücksichtigen. Weiterhin nähern sich nicht alle Quanteneffekte bei Anwendung der Korrespondenzregeln einem klassischen Grenzfall. Wie bereits das Schrödingers-Katze-Gedankenexperiment veranschaulicht, können „kleine“ Quanteneffekte, wie z. B. der Zerfall eines radioaktiven Atoms, durch Verstärker prinzipiell beliebig vergrößert werden. Zwar bewirken Dekohärenzeffekte bei makroskopischen Systemen in der Regel eine sehr effiziente Ausmittelung von Interferenzeffekten, jedoch weist auch der Zustand makroskopischer Systeme noch quantenmechanische Korrelationen auf, die z. B. in Form der so genannten Leggett-Garg-Ungleichungen in experimentell überprüfbarer Form beschrieben werden können. Ein weiteres Beispiel für Quanteneffekte, für die keine Korrespondenzregel gilt, sind die Folgen der Ununterscheidbarkeit gleicher Teilchen, etwa die Verdoppelung der Wahrscheinlichkeit einer Ablenkung um 90° beim Stoß (neben weiteren Interferenzerscheinungen in der Winkelverteilung), ganz gleich, wie gering die Energie der Teilchen ist und wie weit entfernt voneinander sie bleiben, wenn es sich nur um zwei "gleiche" Bosonen (z. B. α-Teilchen) handelt. Verhältnis zur allgemeinen Relativitätstheorie. Da die Gravitationskraft im Vergleich zu den anderen Grundkräften der Physik sehr schwach ist, treten allgemein-relativistische Effekte hauptsächlich bei massiven Objekten, wie z. B. Sternen oder schwarzen Löchern auf, während Quanteneffekte überwiegend bei mikroskopischen Systemen beobachtet werden. Daher gibt es nur wenige empirische Daten zu Quanteneffekten, die durch die Gravitation verursacht sind. Zu den wenigen verfügbaren experimentellen Ergebnissen gehören das Pound-Rebka-Experiment und der Nachweis diskreter gebundener Zustände von Neutronen im Gravitationsfeld. Die oben genannten Experimente können im Rahmen der nicht-relativistischen Quantenmechanik beschrieben werden, indem für den Potentialterm der Schrödingergleichung das Gravitationspotential verwendet wird. Die Gravitation wird hier als klassisches (also nicht quantisiertes) Feld betrachtet, eine Vereinheitlichung der Gravitation mit den übrigen drei Grundkräften der Physik, die in ihrer allgemeinsten Form als Quantenfeldtheorien formuliert sind, lässt sich auf diesem Weg also nicht erreichen. Die Vereinheitlichung der Quantentheorie mit der allgemeinen Relativitätstheorie ist ein aktuelles Forschungsthema; der aktuelle Stand ist im Artikel Quantengravitation beschrieben. Anwendungen. Quantenphysikalische Effekte spielen bei zahlreichen Anwendungsfällen der modernen Technik eine wesentliche Rolle. Beispiele sind der Laser, das Elektronenmikroskop, die Atomuhr oder in der Medizin die bildgebenden Verfahren auf Basis von Röntgenstrahlung bzw. Kernspinresonanz. Die Untersuchung von Halbleitern führte zur Erfindung der Diode und des Transistors, ohne die es die moderne Elektronik nicht gäbe. Auch bei der Entwicklung von Kernwaffen spielen die Konzepte der Quantenmechanik eine wesentliche Rolle. Bei der Erfindung beziehungsweise Entwicklung dieser und zahlreicher weiterer Anwendungen kommen die Konzepte und der mathematische Formalismus der Quantenmechanik jedoch nur selten direkt zum Einsatz (eine bemerkenswerte Ausnahme sind die aktuellen Arbeiten zur Entwicklung eines Quantencomputers). In der Regel sind hierfür die anwendungsnäheren Konzepte, Begriffe und Regeln der Festkörperphysik, der Chemie, der Materialwissenschaften oder der Kernphysik von größerer praktischer Bedeutung. Die Relevanz der Quantenmechanik ergibt sich hingegen aus der überragenden Bedeutung, die diese Theorie bei der Formulierung des theoretischen Fundamentes vieler wissenschaftlicher Disziplinen hat. Atomphysik und Chemie. Die chemischen Eigenschaften aller Stoffe sind ein Ergebnis der elektronischen Struktur der Atome und Moleküle, aus denen sie aufgebaut sind. Grundsätzlich lässt sich diese elektronische Struktur durch Lösung der Schrödingergleichung für alle involvierten Atomkerne und Elektronen quantitativ berechnen. Eine exakte analytische Lösung ist jedoch nur für den Spezialfall der wasserstoff-ähnlichen Systeme – also Systeme mit einem Atomkern und einem Elektron – möglich. Bei komplexeren Systemen – also in praktisch allen realen Anwendungen in der Chemie oder der Biologie – kann die Vielteilchen-Schrödingergleichung daher nur unter Verwendung von numerischen Methoden gelöst werden. Diese Berechnungen sind bereits für einfache Systeme sehr aufwändig. Beispielsweise dauerte die ab-initio-Berechnung der Struktur und des Infrarot-Spektrums von Propan mit einem marktgängigen PC im Jahre 2010 einige Minuten, die entsprechende Berechnung für ein Steroid bereits mehrere Tage. Daher spielen in der theoretischen Chemie Modellvereinfachungen und numerische Verfahren zur effizienten Lösung der Schrödingergleichung eine große Rolle, und die Entwicklung entsprechender Verfahren hat sich zu einer eigenen umfangreichen Disziplin entwickelt. Ein in der Chemie besonders häufig verwendetes, stark vereinfachtes Modell ist das Orbitalmodell. Bei diesem Modell wird der Vielteilchenzustand der Elektronen der betrachteten Atome durch eine Summe der Einteilchenzustände der Elektronen gebildet. Das Modell beinhaltet verschiedene Näherungen (unter anderem: Vernachlässigung der Coulomb-Abstoßung der Elektronen untereinander, Entkopplung der Bewegung der Elektronen von der Kernbewegung), erlaubt jedoch eine näherungsweise korrekte Beschreibung der Energieniveaus des Atoms. Der Vorteil dieses Modells liegt neben der vergleichsweise einfachen Berechenbarkeit insbesondere in der anschaulichen Aussagekraft sowohl der Quantenzahlen als auch der grafischen Darstellung der Orbitale. Das Orbitalmodell erlaubt die Klassifizierung von Elektronenkonfigurationen nach einfachen Aufbauregeln (Hundsche Regeln). Auch die Regeln zur chemischen Stabilität (Oktettregel bzw. Edelgasregel, Magische Zahlen) und die Systematik des Periodensystems der Elemente lassen sich durch dieses quantenmechanische Modell rechtfertigen. Durch Linearkombination mehrerer Atom-Orbitale lässt sich die Methode auf sogenannte Molekülorbitale erweitern, wobei Rechnungen in diesem Fall wesentlich aufwändiger werden, da Moleküle keine Kugelsymmetrie aufweisen. Die Berechnung der Struktur und der chemischen Eigenschaften komplexer Moleküle auf Basis von Näherungslösungen der Schrödingergleichung ist der Gegenstand der Molekularphysik. Dieses Gebiet legte den Grundstein für die Etablierung der Quantenchemie beziehungsweise der Computerchemie als Teildisziplinen der theoretischen Chemie. Kernphysik. Die Kernphysik ist ein weiteres großes Anwendungsgebiet der Quantentheorie. Atomkerne sind aus Nukleonen zusammengesetzte Quantensysteme mit einer sehr komplexen Struktur. Bei ihrer theoretischen Beschreibung kommen – abhängig von der konkreten Fragestellung – eine Reihe konzeptionell sehr unterschiedlicher Kernmodelle zur Anwendung, die in der Regel auf der Quantenmechanik oder der Quantenfeldtheorie basieren. Festkörperphysik. Die Vielzahl prinzipiell möglicher chemischer Zusammensetzungen von kondensierter Materie – also von makroskopischer Materie im festen oder flüssigen Zustand – und die große Anzahl an Atomen, aus welchen kondensierte Materie besteht, spiegelt sich in einer großen Vielfalt von Materialeigenschaften wider (siehe Hauptartikel Materie). Die meisten dieser Eigenschaften lassen sich nicht im Rahmen der klassischen Physik beschreiben, während sich quantenmechanische Modelle kondensierter Materie als überaus erfolgreich erwiesen haben. Aufgrund der großen Anzahl beteiligter Teilchen ist eine direkte Lösung der Schrödingergleichung für alle mikroskopischen Komponenten eines makroskopischen Stückes Materie unpraktikabel. Stattdessen werden Modelle und Lösungsverfahren angewendet, die an die zugrundeliegende Materiegattung (Metall, Halbleiter, Ionenkristall etc.) und an die zu untersuchenden Eigenschaften angepasst sind. In den gängigen Modellen kondensierter Materie sind Atomkerne und Elektronen die relevanten Grundbausteine kondensierter Materie. Hierbei werden in der Regel Atomkerne und innere Elektronen zu einem Ionenrumpf zusammengefasst, wodurch sich die Anzahl der im Modell zu berücksichtigenden Komponenten und Wechselwirkungen stark reduziert. Von den 4 Grundkräften der Physik wird lediglich die elektromagnetische Wechselwirkung berücksichtigt, die Gravitation und die Kernkräfte sind hingegen für die in der Physik kondensierter Materie betrachteten Effekte und Energieskalen irrelevant. Trotz dieser Vereinfachungen handelt es sich bei Modellen kondensierter Materie um komplexe quantenmechanische Vielteilchenprobleme, wobei insbesondere die Berücksichtigung der Elektron-Elektron-Wechselwirkung eine Herausforderung darstellt. Für viele Anwendungszwecke, wie z. B. die Berechnung der Ladungsverteilung, des Phononenspektrums oder der strukturellen Eigenschaften, ist die Berechnung des elektronischen Grundzustandes ausreichend. In diesem Fall kann das elektronische Vielteilchenproblem unter Anwendung der Dichtefunktionaltheorie oder anderer Verfahren als ein effektives Einteilchenproblem umformuliert werden, welches heute routinemäßig auch für komplexe Systeme berechnet werden kann. Häufig sind neben den Grundzustandseigenschaften auch die elementaren Anregungen kondensierter Materie von Interesse. Beispielsweise basieren alle experimentellen Methoden der Festkörperspektroskopie auf dem Prinzip, dass durch einen externen Stimulus (z. B. Licht oder Neutronen) bestimmte Freiheitsgrade einer Probe angeregt bzw. abgeregt werden. Bei den elementaren Anregungen handelt es sich um kollektive quantenmechanische Effekte, denen – ähnlich einem freien Quantenobjekt – eine Energie und eine Wellenlänge bzw. ein Wellenvektor zugeordnet werden kann, weshalb sie auch als Quasiteilchen bezeichnet werden. Beispiele sind das Phonon (Energiequant der Gitterschwingung), oder das Exciton (Elektron-Loch-Paar). Quasiteilchen verschiedener Typen können miteinander wechselwirken und so aneinander streuen oder sich verbinden und neue Quantenobjekte mit Eigenschaften bilden, die sich drastisch von den Eigenschaften freier Elektronen unterscheiden. Ein bekanntes Beispiel sind die Cooper-Paare, die gemäß der BCS-Theorie die Supraleitung von Metallen ermöglichen. Quanteninformatik. Von aktuellem Interesse ist die Suche nach robusten Methoden zur direkten Manipulation von Quantenzuständen. Es werden zurzeit größere Anstrengungen unternommen, einen Quantencomputer zu entwickeln, welcher durch Ausnutzung der verschiedenen Eigenzustände und der Wahrscheinlichkeitsnatur eines quantenmechanischen Systems hochparallel arbeiten würde. Einsatzgebiet eines solchen Quantenrechners wäre beispielsweise das Knacken moderner Verschlüsselungsmethoden. Im Gegenzug hat man mit der Quantenkryptographie ein System zum theoretisch absolut sicheren Schlüsselaustausch gefunden, in der Praxis ist diese Methode häufig etwas abgewandelt und unsicherer, da es hier auch auf die Übertragungsgeschwindigkeit ankommt. Ein weiteres aktuelles Forschungsgebiet ist die Quantenteleportation, die sich mit Möglichkeiten zur Übertragung von Quantenzuständen über beliebige Entfernungen beschäftigt. Physik. Zwei Jahre nach den ersten Veröffentlichungen hatte sich die Quantenmechanik in der "Kopenhagener Interpretation" durchgesetzt. Als wichtiger Meilenstein gilt die fünfte Solvay-Konferenz im Jahr 1927. Rasch erlangte die Theorie den Status einer zentralen Säule im Theoriengebäude der Physik. Im Hinblick auf ihre Leistungsfähigkeit bei konkreten Anwendungen (jedoch nicht im Hinblick auf ihre Interpretation, siehe oben) ist die Quantenmechanik bis heute praktisch unumstritten. Zwar existieren eine Reihe alternativer, empirisch nicht-äquivalenter Theorien, wie die Familie der Dynamischer-Kollaps-Theorien oder die Nichtgleichgewichts-Versionen der De-Broglie-Bohm-Theorie, jedoch haben diese Theorien gegenüber der Quantenmechanik nur eine marginale Bedeutung. Hinzu kam eine Reihe weiterer Nobelpreise für Weiterentwicklungen und Anwendungen der Quantenmechanik sowie für die Entdeckung von Effekten, die nur im Rahmen der Quantenmechanik erklärt werden können (siehe Liste der Nobelpreisträger für Physik). Auch einige Nobelpreise für Chemie wurden für erfolgreiche Anwendungen der Quantenmechanik vergeben, darunter die Preise an Robert Mulliken (1929, „für seine grundlegenden Arbeiten über die chemischen Bindungen und die Elektronenstruktur der Moleküle mit Hilfe der Orbital-Methode“), an Walter Kohn (1998, „für seine Entwicklung quantenchemischer Methoden“) oder an John Anthony Pople (1998, „für die Entwicklung von Methoden, mit denen die Eigenschaften von Molekülen und deren Zusammenwirken in chemischen Prozessen theoretisch erforscht werden können“). Populärwissenschaftliche Darstellungen. Bereits kurz nach Begründung der Quantenmechanik veröffentlichten verschiedene Quantenphysiker, z. B. Born, de Broglie, Heisenberg oder Bohr, eine Reihe semi-populärwissenschaftlicher Bücher, die sich insbesondere mit philosophischen Aspekten der Theorie befassten. Der Physiker G. Gamov veranschaulichte in seinem Buch "Mr. Tompkins Explores the Atom" die Eigenschaften von Quantenobjekten, indem er seinen Protagonisten verschiedene Abenteuer in einer fiktiven Quantenwelt erleben lässt. Auch die 1964 veröffentlichten "Feynman-Vorlesungen über Physik", echte Lehrbücher, aber für die damalige Zeit sensationell anregend geschrieben, wurden in hohen Stückzahlen verkauft. Allerdings erreichten Publikationen über die Quantenmechanik bis in die 1970er Jahre bei weitem nicht das Maß an öffentlicher Wahrnehmung, welches beispielsweise der Relativitätstheorie und der Kosmologie zuteilwurde. Weiterhin prägten die praktischen Auswirkungen der Kernphysik, insbesondere die Risiken von Kernwaffen und Kernenergie, die öffentliche Diskussion über die moderne Physik. Auch in Film und Fernsehen wurde die Quantenmechanik gelegentlich in populärwissenschaftlicher Form dargestellt, z. B. in Sendungen des Physikers H. Lesch. Einfluss auf populäre Kultur, Geisteswissenschaften und Esoterik. F. Capras Buch "Das Tao der Physik" verbindet Konzepte der Quantenmechanik mit fernöstlichem Mystizismus Mit dem Aufkommen der New-Age-Gegenkultur ab Anfang der 1970er Jahre entstand ein verstärktes Interesse an Literatur mit aus der Wissenschaft entlehnten Ausdrücken, in der Verbindungen zwischen der Quantenmechanik, dem menschlichen Bewusstsein und fernöstlicher Religion hergestellt wurden. Bücher wie F. Capras "Tao der Physik" oder G. Zukavs "Dancing Wu Li Masters" wurden Bestseller. Die Quantenmechanik – so eine Kernaussage dieser Bücher – enthalte holistische und mystische Implikationen, die eine Verbindung von Spiritualität, Bewusstsein und Physik zu einem „organischen“ Weltbild nahelegten. Ab den 1980er Jahren erlebte der Markt für quantenmechanisch inspirierte Literatur einen weiteren kräftigen Aufschwung, und das Wort „Quanten“ entwickelte sich zu einem in vielen Komposita verwendeten Modewort. Die veröffentlichten Bücher umfassten ein breites Themenspektrum, welches von allgemeinverständlichen Darstellungen über weitere Bücher zu dem Themenkomplex „Quantenmechanik und Bewusstsein“ bis hin zu Themen wie dem „Quantum Learning“, „Quantum Golf“ oder den „Quantum Carrots“ reichte. Ein bekanntes Beispiel für die Erweiterung quantenmechanischer Konzepte auf Bereiche jenseits ihrer Anwendbarkeit ist der Film "What the Bleep do we (k)now!?". Die Literaturwissenschaftlerin Elizabeth Leane kommt zu einer zwiespältigen Bewertung des Genres. Einerseits misst sie ihm pädagogische Bedeutung bei der allgemeinverständlichen Darstellung von Wissenschaft zu. Andererseits weist sie auf das Problem von Bedeutungsverschiebungen hin, die durch die Verwendung von Metaphern und „fiktionalen Techniken“ erzeugt werden. Am Beispiel von Zukavs "Dancing Wu Li Masters", einem der meistverkauften und am häufigsten zitierten Bücher, die Quantenmechanik und Esoterik verquicken, zeigt sie eine rhetorische Umdeutung der Quantenmechanik zur Unterstützung eines anthropozentrischen Weltbildes auf. Der Soziologe S. Restivo weist auf prinzipielle linguistische und konzeptionelle Probleme bei Versuchen hin, Quantenmechanik umgangssprachlich zu beschreiben und mit Mystik zu verbinden. Viele Physiker, etwa J. S. Bell, M. Gell-Mann oder V. Stenger, lehnen Hypothesen, die Verbindungen zwischen Quantenmechanik und Bewusstsein herstellen, als spekulativ ab. Kunst. "Quantum Man" (2006), J. Voss-Andreae "Quantum Corral" (2009), J. Voss-Andreae Die Quantenmechanik wurde und wird in der Kunst, insbesondere in der Belletristik, aber auch in der bildenden Kunst und punktuell im Theater, wahrgenommen und künstlerisch verarbeitet. Die Literaturwissenschaftlerin E. Emter weist Rezeptionsspuren der Quantentheorie in Texten von R. Musil "(Der Mann ohne Eigenschaften)," H. Broch, E. Jünger, G. Benn, Carl Einstein und B. Brecht nach, wobei sich ihre Studie auf den deutschen Sprachraum und die Jahre 1925 bis 1970 beschränkt. In den letzten Jahren erlangten Arbeiten von Bildhauern Aufmerksamkeit, die Quantenobjekte als Skulpturen darstellen. Der Bildhauer J. Voss-Andreae geht davon aus, dass Kunst, die nicht an die Textform gebunden ist, Möglichkeiten zur Darstellung von Realität hat, die der Wissenschaft nicht zur Verfügung stehen. Ein Beispiel ist seine Skulptur "Quantum Man" (siehe Abbildung rechts), die von Kommentatoren als Symbolisierung des Welle-Teilchen-Dualismus und der Beobachterperspektive interpretiert wird. Weitere bekannte Beispiele für künstlerische Darstellungen von Quantenobjekten sind die Skulpturen "Quantum Corral" und die "Spin Family" desselben Künstlers sowie die "Quantum Cloud" von A. Gormley. Auch einige Theaterstücke thematisieren die Quantenmechanik, so z. B. Tom Stoppards Bühnenstück "Hapgood" oder das Stück "QED" des US-amerikanischen Dramatikers P. Parnell. In seinem Bühnenstück "Kopenhagen" überträgt der Schriftsteller M. Frayn das Heisenbergsche Unschärfeprinzip in ein Unschärfeprinzip des menschlichen Verhaltens. Quadratur des Kreises. Das Quadrat und der Kreis haben den gleichen Flächeninhalt. Die Quadratur des Kreises ist ein klassisches Problem der Geometrie. Die Aufgabe besteht darin, aus einem gegebenen Kreis in endlich vielen Schritten ein Quadrat mit demselben Flächeninhalt zu konstruieren. Sie ist äquivalent zur sogenannten Rektifikation des Kreises, also der Konstruktion einer geraden Strecke, die dem Kreisumfang entspricht. Beschränkt man die Konstruktionsmittel auf Lineal und Zirkel, ist die Aufgabe unlösbar. Dies konnte im Jahr 1882 vom deutschen Mathematiker Ferdinand von Lindemann bewiesen werden. Die Quadratur des Kreises gehört zu den populärsten Problemen der Mathematik. Jahrhundertelang suchten neben Mathematikern auch immer wieder Laien vergeblich nach einer Lösung. Der Begriff "Quadratur des Kreises" ist in vielen Sprachen zu einem Symbol für eine unlösbare Aufgabe geworden. Vorgeschichte. Bereits in den altorientalischen Hochkulturen gab es Verfahren zur Berechnung von Kreisflächen. In einer Problemstellung des Papyrus Rhind (um 1650 v. Chr.) beispielsweise wird die Fläche eines Kreises vom Durchmesser 9 über ein (unregelmäßiges) Achteck angenähert – indem beide einem Quadrat der Seitenlänge 9 eingeschrieben werden, das in 9 kleinere Quadrate zerlegt wird – und darüber der Fläche eines Quadrats der Seitenlänge 8 gleichgesetzt, was einem recht genauen Wert für die Kreiszahl π von 3 + 1/9 + 1/27 + 1/81 = 3,16… entspricht. Derartige Musterlösungen waren aus der Praxis gewonnen und für die Praxis bestimmt, es gab keine weitergehenden theoretischen Überlegungen, insbesondere wurde kein Unterschied zwischen exakter Lösung und Näherung gemacht. Eine deduktive Vorgehensweise in der Mathematik, bei der durch Beweise gestützte Sätze die Musteraufgaben ersetzen, entwickelte sich ab dem 6. Jahrhundert v. Chr. in Griechenland. Ansatzweise ist sie schon bei Thales von Milet, deutlicher in der von Pythagoras von Samos gegründeten Schule der Pythagoreer zu erkennen. Mit der gemeinhin dem Pythagoreer Hippasos von Metapont zugeschriebenen Entdeckung inkommensurabler Strecken im späten 6. oder frühen 5. Jahrhundert stellte sich heraus, dass es konstruierbare Objekte gibt (beispielsweise die Diagonale eines Quadrats), die nicht als ganzzahliges Verhältnis darstellbar sind. Als Folge dieser Entdeckung trat die Arithmetik zugunsten der Geometrie in den Hintergrund, Gleichungen mussten jetzt geometrisch gelöst werden, etwa durch Aneinanderlegung von Figuren und Überführung verschiedener Figuren in Rechtecke oder Quadrate. Aus dem späten 5. Jahrhundert stammen die drei klassischen Konstruktionsprobleme der antiken Mathematik, neben der Quadratur des Kreises noch die Aufgabe der Dreiteilung des Winkels und das Delische Problem der Verdoppelung des Würfels. Eine Beschränkung der Konstruktionsmittel auf Zirkel und Lineal wurde dabei nicht generell gefordert. Während der Beschäftigung mit den klassischen Problemen wurden schon früh Lösungen gefunden, die auf weitergehenden Hilfsmitteln basieren. Allerdings kristallisierte sich im Lauf der Zeit eine Haltung heraus, die eine möglichst weitgehende Beschränkung verlangt. Spätestens bei Pappos war diese weitestgehende Beschränkung zur Maßregel geworden. Frühe Arbeiten. Als einer der ersten soll dem griechischen Schriftsteller Plutarch zufolge der Philosoph Anaxagoras „im Gefängnis die Quadratur des Kreises aufgeschrieben (oder: gezeichnet, ') “ haben, nähere Angaben zu Anaxagoras' Konstruktion macht Plutarch nicht. Ein Gefängnisaufenthalt des Anaxagoras wäre auf etwa 430 v. Chr. zu datieren, als der Philosoph in Athen wegen Gottlosigkeit angeklagt war und schließlich fliehen musste. Ausführlichere Quellen zu den Anfängen der Forschung sind hauptsächlich spätantike Kommentare zu Werken des Aristoteles, Schriften also, die mit einer zeitlichen Distanz von rund 900 Jahren entstanden sind. Dementsprechend unsicher sind zeitliche Reihenfolge und genaue Gedankengänge der ersten Ansätze. Die wichtigsten Arbeiten des 5. Jahrhunderts v. Chr. stammen von Hippokrates von Chios, Antiphon, Bryson von Herakleia und Hippias von Elis. Die Überführung von Dreiecken in Rechtecke, von Rechtecken in Quadrate oder die Addition zweier Quadrate war mit den bekannten geometrischen Sätzen bereits damals elementar zu bewältigen. Die grundlegende Frage, ob auch krummlinig begrenzte Flächen exakt in Quadrate überführt werden können, konnte um 440 v. Chr. von Hippokrates von Chios positiv beantwortet werden. Ausgehend von dem bei ihm noch als Axiom benutzten Satz, dass sich die Flächen ähnlicher Kreissegmente wie die Quadrate über ihren Sehnen verhalten, gelang es Hippokrates, von Kreisbögen begrenzte Flächen, die sogenannten „Möndchen des Hippokrates“, zu quadrieren. Die Quadratur des Kreises ist auf diese Weise jedoch nicht zu erreichen, da nur bestimmte Möndchen – zum Beispiel die über der Seite des Quadrats, nicht jedoch die über der Seite eines regelmäßigen Sechsecks – quadrierbar sind. Da Dreiecke (und damit beliebige Vielecke) in ein Quadrat übergeführt werden konnten, war ein zweiter Ansatz, ein dem Kreis flächengleiches Polygon zu konstruieren. Antiphon hatte die Idee, den Kreis durch einbeschriebene Vielecke anzunähern. Bryson von Herakleia verfeinerte dieses Vorgehen, indem er den Kreis zusätzlich durch umbeschriebene Vielecke näherte und einen Zwischenwert bildete. Hippias von Elis entwickelte etwa 425 v. Chr. zur Lösung der Winkeldreiteilung eine Kurve, die mechanisch durch die Überlagerung einer kreisförmigen mit einer linearen Bewegung erzeugt wurde. Gut hundert Jahre später entdeckte Deinostratos, dass mithilfe dieser Kurve, der sogenannten Quadratrix, die Strecke der Länge formula_1 – und damit mithilfe weiterer elementarer Konstruktionen ein Quadrat der Fläche π – konstruiert werden kann. Da die Quadratrix selbst jedoch eine sogenannte "transzendente Kurve" ist, also nicht mit Zirkel und Lineal zu erzeugen, war die Lösung im strengen Sinne damit nicht erreicht. Archimedes. Mit dem ersten Satz ist das Problem der Quadratur des Kreises auf die Frage nach der Konstruierbarkeit des Umfangs eines Kreises aus dem vorgegebenen Radius und damit auf die Konstruierbarkeit von π zurückgeführt. Im dritten Satz gibt Archimedes gleich eine ebenso einfache wie genaue Näherung dieser Zahl, nämlich 22/7, ein Wert (~3,143), der für praktische Zwecke noch heute Verwendung findet. Der zweite Satz ist ein einfaches Korollar aus den beiden anderen; dass sich die Fläche eines Kreises proportional zum Quadrat seines Durchmessers verhält, war bereits Euklid bekannt, Archimedes gibt hier den Wert der Proportionalitätskonstanten an. Zum Beweis seiner Aussagen greift Archimedes die Brysonsche Idee der beliebigen Annäherung des Kreises durch ein- und umbeschriebene regelmäßige Polygone auf. Ausgehend vom einbeschriebenen Sechseck und umbeschriebenen Dreieck gelangt Archimedes durch sukzessive Verdoppelung der Seitenzahl jeweils beim 96-Eck an. Eine geschickte Abschätzung der in den einzelnen Rechenschritten auftretenden Quadratwurzeln ergibt die in Satz 3 genannten Schranken. In einer weiteren Arbeit "Über Spiralen" beschreibt Archimedes die Konstruktion der später nach ihm benannten archimedischen Spirale, die ähnlich wie Hippias' Quadratrix durch die Überlagerung einer kreisförmigen mit einer linearen Bewegung gewonnen wird. Er zeigt, dass durch das Anlegen der Tangente an diese Spirale der Umfang eines Kreises auf einer Geraden abgetragen werden kann. Auf die damit geleistete Quadratur des Kreises weisen spätere Kommentatoren hin, Archimedes selbst macht hierzu keine Aussage. Wie bei der Quadratrix sind weder die Spirale selbst noch ihre Tangente mit Zirkel und Lineal konstruierbar. Mittelalter. Infolge eines verstärkten Interesses für die antike Mathematik im christlichen Europa ab etwa dem 11. Jahrhundert entstanden etliche Abhandlungen über die Quadratur des Kreises, jedoch ohne dass dabei wesentliche Beiträge zur eigentlichen Lösung geleistet wurden. Als Rückschritt zu betrachten ist, dass im Mittelalter der Archimedische Näherungswert von 22/7 für die Kreiszahl lange Zeit als exakt galt. Einer der ersten Autoren des Mittelalters, der das Problem der Kreisquadratur wiederaufnahm, war Franco von Lüttich. Um 1050 entstand sein Werk "De quadratura circuli." Franco stellt darin zunächst drei Quadraturen vor, die er verwirft. Die ersten beiden geben für die Seitenlänge des Quadrates 7/8 beziehungsweise für die Diagonale 10/8 des Kreisdurchmessers an, was relativ schlechten Näherungen von 31/16 und 31/8 für π entspricht. Der dritte Vorschlag wiederum setzt den Umfang des Quadrates dem Kreisumfang gleich, verlangt also die Rektifikation des letzteren. Francos eigene Lösung geht von einem Kreis mit Durchmesser 14 aus. Dessen Fläche beträgt aus seiner Sicht genau 7² x 22/7 = 154. Rechnerisch lässt sich nach Francos Argumentation kein flächengleiches Quadrat finden, da die Quadratwurzel aus 22/7 irrational ist, konstruktiv jedoch schon. Dazu zerlegt er den Kreis in 44 gleiche Sektoren, die er zu einem Rechteck der Seitenlängen 11 und 14 zusammenfügt. Den nötigen Kunstgriff, bei dem er die Kreissektoren durch rechtwinklige Dreiecke mit Katheten der Länge 1 und 7 ersetzt, erläutert Franco allerdings nicht. Problematisch ist auch sein nicht ganz geglückter Versuch, das Rechteck anschließend durch eine geeignete Zerlegung in ein Quadrat zu überführen. Offensichtlich war Franco das althergebrachte griechische Verfahren nicht geläufig. Spätere Abhandlungen der Scholastik erschöpfen sich mehr oder minder in einer Abwägung der Argumente der bekannten Klassiker. Erst mit der Verbreitung lateinischer Übersetzungen der archimedischen Schriften im Spätmittelalter wurde der Wert 22/7 wieder als Näherung erkannt und nach neuen Lösungen des Problems gesucht, so beispielsweise von Nikolaus von Kues. Dieser griff die Idee, den Kreis durch eine Folge regelmäßiger Vielecke mit wachsender Seitenzahl anzunähern, wieder auf, suchte im Gegensatz zu Archimedes jedoch nicht den Kreisumfang, sondern den Kreisradius bei vorgegebenem gleichbleibendem Umfang der Polygone zu bestimmen. In einem Brief gab von Kues eine solche Lösung, die er für genau hielt, an. Der daraus ermittelte Wert für die Kreiszahl liegt auch immerhin zwischen den von Archimedes gegebenen Grenzen. Die eigentlichen cusanischen Arbeiten zum Thema liefern deutlich schlechtere Näherungen und wurden damit zum Ziel einer Streitschrift des Regiomontanus, der die Ungenauigkeit der Berechnungen nachwies und die Beweise „als philosophische, aber nicht als mathematische“ bezeichnete. Fortschritte der Kreismessung in der frühen Neuzeit. Fortschritte in der Kreisberechnung brachten ab dem 16. Jahrhundert die Weiterentwicklung des archimedischen Näherungsverfahrens sowie das Aufkommen moderner analytischer Methoden. Bei der ursprünglichen Methode des Archimedes wird der Kreisumfang durch den Umfang eines dem Kreis einbeschriebenen und den eines dem Kreis umbeschriebenen Vielecks abgeschätzt. Genauere Schranken ergeben sich durch eine Erhöhung der Eckenzahl. Der niederländische Mathematiker Willebrord van Roijen Snell (Snellius) fand heraus, dass auch ohne die Seitenzahl zu vergrößern feinere Schranken für die Länge eines Bogenstückes als nur die Sehnen der Polygone angegeben werden können. Er konnte dieses Ergebnis allerdings nicht streng beweisen. Die Ausarbeitung und Verbesserung des snelliusschen Ansatzes leistete Christiaan Huygens in seiner Arbeit "De circuli magnitudine inventa", in der er auch den Beweis der von Snellius aufgestellten Sätze erbrachte. Auf rein elementargeometrischem Weg gelang Huygens eine so gute Eingrenzung der zwischen Vieleck und Kreis liegenden Fläche, dass er bei entsprechender Seitenzahl der Polygone die Kreiszahl auf mindestens dreimal soviel Stellen genau erhielt wie Archimedes mit seinem Verfahren. Der rein geometrische Ansatz zur Bestimmung der Kreiskonstanten war mit Huygens Arbeit im Wesentlichen ausgeschöpft. Bessere Näherungen ergaben sich mithilfe von unendlichen Reihen, speziell der Reihenentwicklung trigonometrischer Funktionen. Zwar hatte François Viète schon Ende des 16. Jahrhunderts durch die Betrachtung bestimmter Streckenverhältnisse aufeinanderfolgender Polygone eine erste exakte Darstellung von π durch ein unendliches Produkt gefunden, doch erwies sich diese Formel als unhandlich. Eine einfachere Reihe, die darüber hinaus nur mit rationalen Operationen auskommt, stammt von John Wallis, eine weitere Darstellung der Kreiszahl als Kettenbruch von William Brouncker. Wichtiger für die Praxis war die von James Gregory und davon unabhängig von Gottfried Wilhelm Leibniz gefundene Reihe für den Arcustangens. Obwohl diese Reihe selbst nur langsam konvergiert, kann man aus ihr andere Reihen ableiten, die sich wiederum sehr gut zur Berechnung der Kreiszahl eignen. Anfang des 18. Jahrhunderts waren mithilfe solcher Reihen über 100 Stellen von π berechnet, neue Erkenntnisse über das Problem der Kreisquadratur konnten dadurch allerdings nicht gewonnen werden. Algebraische Problemstellung und Irrationalität von π. Descartes beschreibt am Anfang seiner "Géométrie" den neuen Ansatz der analytischen Geometrie. Zur Lösung des Problems bedurfte es zum einen der Möglichkeit, dem geometrischen Begriff „konstruierbar“ eine algebraische Bedeutung zu geben, zum anderen genauerer Einsicht der Eigenschaften der Kreiszahl. Eine geometrische Konstruktion mit Zirkel und Lineal geht von einer endlichen Anzahl vorgegebener Punkte aus und ermittelt in einer endlichen Anzahl von Schritten neue Punkte durch das Schneiden zweier Geraden, zweier Kreise oder einer Geraden mit einem Kreis. Die Übersetzung dieser Vorgehensweise in die Sprache der Algebra gelang durch die Einführung von Koordinatensystemen im Rahmen der im 17. Jahrhundert hauptsächlich von Pierre de Fermat und René Descartes entwickelten analytischen Geometrie. Geraden und Kreise konnten mit den neuen Mitteln durch Gleichungen beschrieben, Schnittpunkte durch das Lösen von Gleichungssystemen bestimmt werden. Es stellte sich heraus, dass die mit Zirkel und Lineal konstruierbaren Streckenlängen genau die sind, die sich durch eine endliche Zahl von rationalen Operationen (Addition, Subtraktion, Multiplikation und Division) sowie einer endlichen Anzahl von Quadratwurzeln aus einer vorgegebenen Länge ableiten lassen. Insbesondere sind diese Längen algebraische Zahlen, also eine Teilmenge der Zahlen, die eine Lösung einer algebraischen Gleichung beliebigen Grades mit rationalen Koeffizienten sind. Zahlen, die nicht algebraisch sind, heißen transzendent und sind nicht konstruierbar. Ausgangspunkt für die weiteren Untersuchungen der Kreiszahl waren einige grundlegende Erkenntnisse Leonhard Eulers, die dieser 1748 in seinem Werk "Introductio in analysin infinitorum" veröffentlicht hatte. Euler stellte unter anderem mit der bekannten Formel erstmals einen Zusammenhang zwischen trigonometrischen Funktionen und der Exponentialfunktion her und lieferte darüber hinaus einige Kettenbruch- und Reihendarstellungen von π und der später nach ihm benannten eulerschen Zahl "e". Diese Vorarbeit machte sich Johann Heinrich Lambert zunutze, der mithilfe einer der eulerschen Kettenbruchentwicklungen 1766 erstmals zeigen konnte, dass "e" und π irrationale, also nicht durch einen ganzzahligen Bruch darstellbare Zahlen sind. Eine kleine Lücke in Lamberts Beweisführung wurde 1806 von Adrien-Marie Legendre geschlossen, der gleichzeitig den Irrationalitätsbeweis für formula_3 erbrachte. Die Vermutung, dass π nicht algebraisch sein könne, stand jetzt im Raum, wurde zumindest von Euler, Lambert und Legendre ausgesprochen. Dabei war bis zur Mitte des 19. Jahrhunderts noch nicht klar, dass es überhaupt transzendente Zahlen geben musste. Dieser Nachweis gelang 1844/1851 Joseph Liouville durch explizite Konstruktion von transzendenten liouvilleschen Zahlen. Beweis der Unmöglichkeit. Ferdinand von Lindemann konnte 1882 schließlich beweisen, dass π nicht algebraisch, sondern transzendent ist. Deshalb ist π in gerader Linie nicht konstruierbar und die Quadratur des Kreises unmöglich. Lindemann griff in seiner Arbeit auf ein Ergebnis des französischen Mathematikers Charles Hermite zurück. Dieser hatte 1873 gezeigt, dass die eulersche Zahl "e" transzendent ist. Darauf aufbauend konnte Lindemann den sogenannten Satz von Lindemann-Weierstraß beweisen, welcher besagt, dass für beliebige voneinander verschiedene algebraische Zahlen formula_4 und für beliebige algebraische Zahlen formula_5 die Gleichung nur dann gelten kann, wenn alle formula_7 den Wert Null haben. Insbesondere kann für keine von Null verschiedene algebraische Zahl "z" der Ausdruck formula_8 eine rationale Zahl ergeben. Nach dieser Vorbereitung konnte Lindemann die Annahme, π sei algebraisch, mithilfe der eulerschen Identität formula_9 zum Widerspruch führen; π musste somit transzendent sein. Lindemanns Beweis für die Transzendenz von π wurde in den folgenden Jahren und Jahrzehnten noch wesentlich vereinfacht, so etwa durch David Hilbert im Jahre 1893. Popularität der Kreisquadratur. Die Quadratur des Kreises erreichte wie nur wenige andere Fragestellungen auch außerhalb der Mathematik eine große Popularität. Als Folge versuchten sich viele mathematische Laien an der Lösung des einfach scheinenden Problems, und etliche glaubten, sie gefunden zu haben. Als frühester Beleg für das Auftauchen eines sogenannten „Kreisquadrierers“ oder „Quadrators“ wird gelegentlich eine Stelle in Aristophanes’ Komödie "Die Vögel" zitiert, in der Meton als Vermesser auftritt und den Grundriss einer neuen Stadt mit geometrischen Hilfsmitteln so festlegen will, dass „der Kreis ein Viereck werde“. Gemeint ist damit jedoch nicht die Quadratur eines Kreises, sondern das Anlegen zweier rechtwinklig aufeinandertreffender Straßen, auch wenn der Ausdruck eine Anspielung auf die Kreisquadratur vermittelt. Auch nach dem lindemannschen Unmöglichkeitsbeweis wurden immer noch vermeintliche Quadraturen veröffentlicht. In jüngerer Zeit sind die vergeblichen Versuche der Amateurmathematiker Stoff der Unterhaltungsmathematik geworden. Ein Hauptgrund für die gerade für mathematische Laien hohe Attraktivität ist wohl die sehr elementare Problemstellung, die auch ohne tiefergehendes mathematisches Wissen verstanden werden kann oder zumindest verständlich erscheint. In Verbindung mit den vielen vergeblichen Lösungsversuchen etablierter Wissenschaftler entstand ein regelrechter Nimbus um die Kreisquadratur. Ein weiterer nicht zu unterschätzender Grund für die zahlreichen Bemühungen um die Quadratur des Kreises war die verbreitete Meinung, auf die Lösung des Problems sei ein hoher Preis ausgesetzt – ein Irrglaube, der möglicherweise auf die falsche Vermutung zurückgeht, die Kreisquadratur stünde in direkter Verbindung mit dem ebenfalls lange offenen Problem der exakten Bestimmung der geographischen Länge zur See, auf dessen Lösung in der Tat Preise ausgesetzt waren. Die Sage von den Preisausschreiben hielt sich so hartnäckig, dass selbst 1891 in Meyers Konversations-Lexikon noch zu lesen war, dass "„Karl V. 100.000 Thaler und die holländischen Generalstaaten eine noch höhere Summe“" ausgesetzt hätten. Prominentes Beispiel für einen Amateurmathematiker, der die Quadratur des Kreises gefunden zu haben glaubte, war der englische Philosoph Thomas Hobbes. Seine 1665 in seinem Werk "De corpore" veröffentlichte Lösung – in Wirklichkeit eine Näherungskonstruktion – wurde von John Wallis noch im selben Jahr zurückgewiesen. In der Folgezeit entspann sich zwischen den beiden eine in scharfem Tonfall vorgetragene Auseinandersetzung, die erst mit Hobbes' Tod im Jahr 1679 endete. Lambert berichtet von drei Kreisquadraturen mittels eines bestimmten rationalen Wertes. Die in der Mitte des 18. Jahrhunderts erschienenen Arbeiten beruhen auf der Näherung 35/31 für das Verhältnis von Kreisdurchmesser zur Seite des flächengleichen Quadrates. Für die Kreiszahl erhält man daraus die Näherung Einem der drei Autoren, dem Prediger Merkel aus Ravensburg, widmete Gotthold Ephraim Lessing das Gedicht „Auf den Herrn M** den Erfinder der Quadratur des Zirkels“. Die Kreisquadratur des amerikanischen Arztes Edward J. Goodwin erschien 1894 sogar im ersten Band des "American Mathematical Monthly", wenn auch nur als Annonce des Autors. Die Arbeit selbst ist in sich widersprüchlich und lässt je nach Lesart mehrere Werte für π zu. Sie war Grundlage für einen 1897 dem Parlament von Indiana vorgelegten Gesetzentwurf, der sogenannten Indiana Pi Bill, durch den die Erkenntnisse Goodwins zum Gesetz erhoben werden sollten. Näherungskonstruktionen. Babylonisches Verfahren nach Dürer (1525) Im Jahr 1913 erschien eine Konstruktion des indischen Mathematikers S. Ramanujan, die auf der Näherung beruht, einem Wert, der sogar auf sechs Nachkommastellen genau ist und in Europa jedenfalls seit dem 17. Jahrhundert, in China schon seit dem 5. Jahrhundert bekannt war. Ramanujan merkte bezüglich der Genauigkeit seines Verfahrens an, dass bei einer Kreisfläche von 140.000 Quadratmeilen die konstruierte Quadratseite nur um etwa einen Inch vom wahren Wert abweiche. In einer Arbeit aus dem Folgejahr lieferte Ramanujan neben anderen Näherungsverfahren eine weitere Quadratur mit Zirkel und Lineal. Dieser liegt der Wert zugrunde, der π sogar auf acht Stellen nahekommt. Eine einfachere Methode veröffentlichte Louis Loynes 1961. Sie beruht auf der Feststellung, dass der Flächeninhalt des Umkreises eines rechtwinkligen Dreiecks gleich dem Quadrat über der größeren Kathete ist, wenn der Tangens des kleineren Winkels, also das Verhältnis von kleinerer zu größerer Kathete, beträgt, ein Wert, der sehr nahe an dem Bruch Daraus ergibt sich eine einfache Näherung, indem man das (konstruierbare) rechtwinklige Dreieck mit dem Katheten-Verhältnis 23:44 zur Quadratur benutzt. Der angenäherte Wert für die Kreiszahl von ist etwas besser als bei Kochańskis Konstruktion. Tarskis Problem der Quadratur des Kreises. Alfred Tarski stellte 1925 die Aufgabe, einen Kreis in beliebig viele Teile zu stückeln und diese dann durch reine Bewegung (also ohne Streckung) so zu verschieben, dass ein Quadrat entsteht. Miklós Laczkovich gelang 1989 die Lösung: Er bewies, dass es möglich ist, einen Kreis in endlich viele Teile zu zerlegen und diese nur durch Bewegung so zu verschieben, dass ein Quadrat entsteht. Er zerteilte den Kreis in 1050 Stücke. Für den Beweis benötigt er jedoch das Auswahlaxiom, welches von den meisten Wissenschaftlern heutzutage zwar akzeptiert wird, aber nicht selbstverständlich ist. Der Beweis ähnelt stark dem Banach-Tarski-Paradoxon. Laczkovich hat zwar bewiesen, dass (unter Annahme des Auswahlaxioms) so eine Zerlegung existiert, diese Zerlegung lässt sich jedoch nicht explizit angeben. Lemniskate. Im Gegensatz zum Kreis ist es möglich, eine Lemniskate (∞) durch zwei Quadrate darzustellen, deren Seitenlänge dem größten Lemniskatenradius "a" entspricht. Quarz. Quarz, auch Tiefquarz oder α-Quarz genannt, ist ein Mineral mit der chemischen Zusammensetzung SiO2 und trigonaler Symmetrie. Er ist die auf der Erdoberfläche stabile Form (Modifikation) des Siliciumdioxids und nach den Feldspaten das zweithäufigste Mineral der Erdkruste. Bei einer Temperatur von über 573 °C (unter einem Druck von 1 bar) geht Tiefquarz durch Änderung der Kristallstruktur in Hochquarz über. Mit einer Mohshärte von 7 gehört Quarz zu den harten Mineralen und dient als Bezugsgröße auf der bis 10 (Diamant) reichenden Skala nach Friedrich Mohs. Er bildet oft gut entwickelte Kristalle von großer Formen- und Farbenvielfalt (siehe Modifikationen und Varietäten), deren Kristallflächen Glasglanz aufweisen. Quarz besitzt keine Spaltbarkeit, bricht muschelig wie Glas und zeigt auf den Bruchflächen einen fettigen Glanz. In der Industrie ist Quarz eines der wichtigsten Minerale und hat gleichermaßen als Baustoff wie als Rohstoff für die Keramik-, Glas- und Zementindustrie weltweite Bedeutung. Quarzkies und gebrochener Quarz sind Rohstoff zur Gewinnung von Silicium. Darüber hinaus werden Quarz und seine farbigen Varietäten seit alters her als Schmuckstein geschätzt (siehe Verwendung). Quarzkristalle werden auch künstlich hergestellt: Daraus geschnittene Schwingquarze dienen als Taktgeber in elektronischen Schaltungen und Quarzuhren. Gelegentlich wird Quarz mit dem Calcit verwechselt, kann jedoch durch seine größere Härte, die niedrigere Doppelbrechung und die Reaktion des Calcits mit verdünnter Salzsäure leicht von diesem unterschieden werden. Etymologie und Geschichte. Quarz war im Mittelalter eine Bezeichnung für das Bergwerk sowie für alle Kristalle. Erst mit Georgius Agricola im 16. Jahrhundert wurde der Begriff auf Bergkristalle eingeschränkt. Die Wortherkunft ist unklar. In Frage kommt das altslawische "tvurdu" für „hart“. Das mittelhochdeutsche "quarz", "quärz" oder als Mengenbezeichnung "querze" ist mit dem neulateinischen "quarzum (silex)" „Kies, Felsgestein“ verwandt und entstammt der älteren Bezeichnung "quaterz" oder "quaderz" „böses Erz“, die sich bis ins 16. Jahrhundert hielt. Nach anderer Annahme ist das Wort aus "gewärz" „Auswuchs“ zusammengezogen. Schließlich soll das Wort als Zusammenziehung des Begriffs sächsischer Bergleute „Querklufterz“ entstanden sein. Die Bezeichnung „Quarz“ hat sich international durchgesetzt (mit leichten, sprachspezifischen Abwandlungen wie beispielsweise „quartz“ im Englischen und Französischen oder „quarzo“ im Italienisch). Klassifikation. Nach der 8. und 9. Auflage der strunzschen Systematik der Minerale gehört Quarz aufgrund seiner chemischen Zusammensetzung zur Mineralklasse der Oxide mit einem Metall-Sauerstoff-Verhältnis von 1:2. In der 8. Auflage der Mineralsystematik ist er zudem Namensgeber für eine Gruppe chemisch ähnlicher oder gleicher Minerale, der "Quarzgruppe", deren weitere Mitglieder Coesit, Cristobalit, Melanophlogit, Mogánit, Opal, Stishovit und Tridymit sind. Die 9. Auflage der Mineralsystematik nach Strunz untergliedert die Oxide allerdings feiner. Quarz sowie die ihm verwandten Minerale Beta-Quarz (Existenz bisher nur als Synthese bekannt) Coesit, Cristobalit, Melanophlogit, Mogánit, Seifertit, Opal, Stishovit und Tridymit werden nun der Unterabteilung "(Chemische Verbindungen) Mit kleinen Kationen: Kieselsäure-Familie" zugerechnet. Das in der Systematik ebenfalls mit aufgeführte Lechatelierit (Kieselglas) hat allerdings nach wie vor einen fraglichen Mineralstatus und ist daher von der International Mineralogical Association (IMA) auch nicht als eigenständiges Mineral anerkannt. Die Systematik von James Dana ordnet die Minerale nach ihrer Kristallstruktur. Im Quarz ist Silicium tetraedrisch von vier Sauerstoffatomen umgeben. Diese SiO4-Tetraeder sind über ihre Ecken zu einem dreidimensionalen Gerüst verknüpft, und Quarz wird daher in der Systematik von Dana den Gerüstsilikaten zugeordnet. Chemismus. Quarz ist eine sehr reine Verbindung und baut andere Elemente nur in Spuren ins Kristallgitter ein. Natürliche Quarze können zwischen 13 und 15.000 ppm (meist aber nur einige 100 ppm) Al3+, zwischen 9 und 1400 ppm Na+, zwischen 3 und 300 ppm K+, sowie geringere Mengen an Fe3+, Ti4+, P5+, H+ und Li+ enthalten. Der Einbau dieser Ionen erfolgt zumeist über einen gekoppelten Ersatz (Substitution) eines Si4+-Ions durch ein dreiwertiges und ein einwertiges Ion, so etwa Al3+ und Na+. Die Fremdionen werden sowohl auf den Si-Positionen im Gitter eingebaut wie auch auf ansonsten leeren Zwischengitterplätzen. Der Einbau von Eisen und Aluminium ist zusammen mit der Einwirkung von ionisierender Strahlung verantwortlich für die verschiedenen Farben der Quarzvarietäten. Kristallstruktur. Jedes Sauerstoffion ist von zwei Siliciumionen im Abstand von 1,6054 Å und 1,6109 Å umgeben und sechs Sauerstoffionen im Abstand von ca. 2,62 Å. Die Si-O-Bindungen haben einen großen kovalenten Anteil, was die Ursache für die große Härte von Quarz ist. Der Si-O-Si-Bindungswinkel beträgt 143,61°. Entsprechend ist jedes Siliciumion tetraedrisch von vier Sauerstoffionen umgeben, zwei im Abstand von 1,6054 Å und zwei im Abstand von 1,6109 Å. "SiO2-Gerüst": Die SiO4-Tetraeder sind untereinander über die Tetraederecken verknüpft, jeder Tetraeder mit vier benachbarten Tetraedern. In Richtung der c-Achse sind sie zu Paaren von spiralförmigen Ketten verknüpft. Diese SiO4-Tetraederhelixpaare, die untereinander nicht verbunden sind, bilden sechsseitige, offene Kanäle in Richtung der c-Achse. α-Quarzkristalle der beiden enantiomorphen Raumgruppen unterscheiden sich im Drehsinn der Tetraederschrauben. Linkshändischer α-Quarz kristallisiert in der Raumgruppe und die Tetraederschrauben winden sich im Uhrzeigersinn um die c-Achse dem Betrachter entgegen, wenn man von oben auf die c-Achse schaut. Entsprechend winden sich die Tetraederschrauben des rechtshändigen α-Quarzes (Raumgruppe) entgegen dem Uhrzeigersinn dem Betrachter entgegen. Die spiralförmigen Tetraederketten sind mit sechs benachbarten Tetraederspiralen so verknüpft, dass jeder SiO4-Tetraeder zu zwei benachbarten Tetraederketten gehört und an zwei der sechsseitigen Kanäle grenzt. Quarz ist nur bei niedriger Temperatur in der trigonalen α-Quarz-Phase stabil. Bei 573 °C findet eine Phasenumwandlung in die hexagonale β-Quarz-Phase statt. Die höhere Symmetrie des β-Quarzes führt unter anderem zum Verlust der piezoelektrischen Eigenschaften. Den Übergang von der β-Quarz-Phase zum α-Quarz kann man sich leicht vereinfacht durch Kippen robuster Tetraeder um die -Achse veranschaulichen. Die Kipprichtung entscheidet über die Orientierung des α-Quarzes. Morphologie. Gut ausgebildete Kristalle sind verbreitet und ihre Form kann je nach Wachstumsbedingungen recht unterschiedlich sein. Die nebenstehende Abbildung illustriert die typische prismatische Kristallform von Linksquarz und wie sich diese Form aus den Grundkörpern der trigonal-trapezoedrischen Klasse (Klasse 32) zusammensetzt. Die in Klammern gesetzten Zahlen im Text und auf der Abbildung sind die Millerschen Indizes. Sie werden in der Kristallographie für die Bezeichnung von Kristallflächen verwendet. Indizes von Kristallflächen werden in runde Klammern gesetzt, Indizes von einer Flächengruppe, die einen Grundkörper bilden, in geschweifte Klammern und Indizes von Richtungen (Kristallachsen) in eckige Klammern. Dominiert wird die Kristallform vom hexagonalen Prisma I. Stellung (). Die Prismenflächen liegen parallel zur kristallographischen c-Achse. Begrenzt wird das Prisma an den Enden vom positiven und negativen Rhomboeder (und), wobei das positive Hauptrhomboeder mit größeren Flächen auftritt. Untergeordnet, d.h. kleiner ausgebildet, treten verschiedene trigonale Trapezoeder, meist, und trigonale Bipyramiden, meist, auf. Von diesen Polyedern gibt es in der Kristallklasse 32 jeweils zwei enantiomorphe (linke und rechte), ansonsten aber identische Formen. An einem unverzwillingten Quarzkristall treten entweder nur rechte oder nur linke Trapezoeder und Bipyramiden auf, am Linksquarz (Raumgruppe) linke Formen und am Rechtsquarz (Raumgruppe) rechte Formen. Unterschieden werden können Rechts- und Linksquarze anhand der Anordnung der Trapezoeder- und Bipyramidenflächen. Beim Linksquarz treten diese links von den Hauptrhomboederflächen auf und beim Rechtsquarz rechts von den Hauptrhomboederflächen. Kristallzwillinge. Die beiden chiralen Formen des Quarzes, Rechtsquarz und Linksquarz, treten zuweilen auch orientiert miteinander verwachsen auf. Piezoelektrizität. Quarz zeigt einen starken piezoelektrischen Effekt senkrecht zur Prismenachse entlang der a-Achsen. Auf Druck oder Zug reagiert ein Quarzkristall mit einer elektrischen Polarisierung entlang der Kraftrichtung. Umgekehrt führt das Anlegen einer elektrischen Gleichspannung zu einer Dehnung oder Stauchung des Kristalls. Wird eine Wechselspannung mit geeigneter Frequenz angelegt, so kann der Kristall zu Resonanzschwingungen angeregt werden. Die Resonanzfrequenz ist dabei von der Geometrie (Form und Größe) des Kristalls abhängig. Aufgrund der Regelmäßigkeit und Genauigkeit dieser Schwingungen werden "Schwingquarze" in Quarzoszillatoren als Zeitbasis und Taktgeber für elektronische Schaltungen eingesetzt, zum Beispiel in Uhren, Computern, Geräten der Digitaltechnik und der Funktechnik. Optische Aktivität. Durch die Kristallisation des Quarzes in einer enantiomorphen Struktur wird die Schwingungsebene des Lichtes, das einen Tiefquarz in Richtung der c-Achse durchquert, gedreht. Die Angabe exakter Messergebnisse dieser Drehung erweist sich als schwierig, da Messergebnisse aufgrund verschiedener Störfaktoren wie unerkannter Verzwillingungen von Rechts- und Linksquarz oder kleinster Verunreinigungen stark streuen. Zusätzlich erschweren Fertigungstoleranzen die Herstellung exakt orientierter Quarzschnitte. Weiterhin ist die Stärke der Drehung der Schwingungsebene des Lichtes abhängig von der Wellenlänge des Lichtes (Beispiel: Natrium-D-Linie: 589,3 nm, Grünfilter für Quecksilberdampflampen: 546 nm). So schwankt die Angabe des optischen Drehvermögens bei Quarz je nach Quelle und Wellenlänge zwischen 21 und 28 °/mm. Andererseits eignet sich bearbeiteter Quarz in Form von Quarzplatten hervorragend zur Überprüfung von Polarimetern. Bildung und Fundorte. Als solche Kiesel kann man Quarz in der Natur finden. Quarz kristallisiert bei der Abkühlung SiO2-reicher Schmelzen und ist primärer Bestandteil von SiO2-reichen Plutoniten (Quarzreiche Granitoide, Granite, Granodiorite, Tonalite, Quarz-Syenite, Quarz-Monzonite, Quarz-Diorite), Ganggesteinen (z. B. Aplite) sowie der entsprechenden Vulkanite (Rhyolithe, Dacite, Andesite, Quarz-Trachyte, Quarz-Latite). Die Quarzgehalte dieser Gesteine sind eines der Hauptkriterien zur Klassifikation magmatischer Gesteine nach dem Streckeisendiagramm. Quarz ist in vielen metamorphen Gesteinen enthalten (z. B. in Schiefer und Gneisen) und wird über zahllose Mineralreaktionen während der Gesteinsmetamorphose abgebaut oder gebildet. So markiert zum Beispiel die quarzproduzierende Reaktion von Chloritoid und Alumosilikat zu Staurolith und Quarz die Grenze zwischen Grünschieferfazies und Amphibolithfazies bei Metapeliten. Wegen seiner Härte und Verwitterungsbeständigkeit ist Quarz verbreitet in sedimentären Gesteinen wie Sandsteinen und Böden zu finden. In den Obernkirchener Sandsteinbrüchen wird der sogenannte "Bremer Stein" schon seit Jahrhunderten abgebaut. Gut ausgebildete Quarzkristalle entstehen jedoch bevorzugt in Klüften, Gängen und als Auskleidung natürlicher Höhlungen, sogenannter Geoden. Modifikationen. Quarz ist die auf der Erdoberfläche stabile Form (Modifikation) des kristallinen Siliciumdioxids. Zahlreiche weitere Modifikationen treten bei höheren Drücken und Temperaturen auf. Einige können metastabil an der Erdoberfläche erhalten bleiben. Bei niedrigen Temperaturen (70–200 °C) kristallisiert aus SiO2-Gel ein Gemisch aus Quarz und Mogánit, einem charakteristischen Bestandteil von Quarzin und Chalcedon. Bei Temperaturen oberhalb von 573 °C (bei 1013,2 hPa) wandelt sich Quarz in Hochquarz um. Die Phasenumwandlung erfolgt sehr schnell, und Hochquarz bleibt auch bei rascher Abkühlung nie metastabil erhalten. Zwar finden sich in einigen Magmatiten Quarzkristalle mit der Kristallform von Hochquarz (Paramorphose), strukturell handelt es sich jedoch um Quarz. Bei höheren Temperaturen wandelt sich Hochquarz erst in Tridymit um (ab 867 °C), dann in Cristobalit um (ab 1470 °C). Cristobalit schmilzt bei 1727 °C (Temperaturen jeweils bezogen auf 1013,2 hPa). Die Umwandlungstemperaturen sind abhängig vom Druck. Allgemein nehmen sie mit steigenden Drücken zu. Bei hohem Druck, wie er im Erdmantel herrscht oder bei Meteoriteneinschlägen auftritt, bilden sich besonders dichte SiO2-Phasen. Ab 2 GPa bildet sich Coesit (3,01 g/cm³), ab 7,5 GPa Stishovit (4,3 g/cm³) und ab ca. 78 GPa Seifertit (4,12 g/cm³). Varietäten. Reiner Quarz ist vollkommen transparent und farblos und wird, wenn er gut ausgebildete Kristalle entwickelt, als Bergkristall bezeichnet. Quarze sind meist durch mikroskopische Einschlüsse von Flüssigkeiten und Gasen milchig trüb ("Milchquarz") und erscheinen im Gestein eingewachsen grau. Unter der Bezeichnung "Rheinkiesel" sind zudem durchsichtige bis milchig trübe Rollstücke aus Bergkristall bekannt, die vorwiegend aus dem Alpenraum stammen und im Rheinkies gefunden werden. Mikrokristallines SiO2. Amethystquarz ist eine undurchsichtige, gebänderte Verwachsung von Amethyst und Milchquarz. Alle Formen von mikrokristallinem Quarz weisen eine große Dichte an Gitterbaufehlern und Verzwillingungen auf. Andere Varietäten und Handelsnamen. Der oft im Handel zu findende "Aqua Aura" ist keine Varietät, sondern meistens Bergkristall (oder ein anderer Quarz), der mit Metall (vorwiegend Gold) bedampft wurde. Resultat ist ein transparenter, blau gefärbter Kristall, zum Teil mit vielfarbigem Schimmer. "Brasilit" ist dagegen die Handelsbezeichnung für eine durch Brennen grünlich-gelb bis blassgelb gefärbten Quarz. Im Safiental (Graubünden, Schweiz) wurden die weltweit ersten Funde des Mantelquarzes gefunden, dessen Spitze ein wenig im Prisma versenkt ist. Nutzung der piezoelektrischen Eigenschaften. Künstlich gezogene Quarz-Einkristalle werden u.a. für piezoelektrische Anwendungen eingesetzt. Die piezoelektrischen Eigenschaften des Quarzes werden bei Schwingquarzen ausgenutzt, die ähnlich einer Stimmgabel bei Erregung durch eine elektrische Spannung mit einer festen Frequenz mechanisch schwingen. Der Bau sehr genau gehender Quarzuhren wurde so möglich. Heute finden sich in praktisch allen elektronischen Geräten Schwingquarze als Taktgeber. Daneben ist Quarz auch geeignet für Druckmessungen, in der Hochfrequenztechnik sowie als akustooptischer Güteschalter in Lasern. Die beiden chiralen Formen des Quarzes, Rechtsquarz und Linksquarz, zeigen einen gegensätzlichen piezoelektrischen Effekt. In solchen Zwillingen heben sich daher die piezoelektrischen Effekte im Gesamtkristall auf, weshalb sie für piezoelektrische Anwendungen unbrauchbar sind und gegenüber synthetischen Quarzen seltener eingesetzt werden. Für technische Anwendungen werden die Zwillinge häufig parallel zur (01-1)-Ebene (AT-Schnitt) oder (023)-Ebene (BT-Schnitt) geschnitten, da der piezoelektrische Effekt senkrecht zu diesen Ebenen nahezu unabhängig von der Temperatur ist. Als Schmuckstein. Quarzvarietäten wie der Achat, der violette Amethyst, der zitronengelbe Citrin, der blutrote Jaspis oder der schwarz-weiß gestreifte Onyx werden wegen der großen Härte und der guten Schneid- und Polierbarkeit des Minerals in der Schmuckindustrie zu Schmucksteinen verarbeitet. Quarz und Fossilisierung. Dringt kieselsäurereiches Grundwasser in das Gewebe abgestorbener, holziger Pflanzen ein, so können diese durch Auskristallisieren von Quarz (Si(OH)4 → SiO2 + 2 H2O) fossilisieren, wobei das holzige Gewebe zwar durch kristallines Quarz ersetzt wird, die ursprüngliche Zellstruktur oft jedoch erhalten bleibt. Paläobotaniker können daraus heute zum Beispiel Schlüsse zu den einstigen Wachstumsbedingungen der Pflanze ziehen. Verkieselungen gibt es auch von Tieren: berühmt sind beispielsweise verkieselte Korallen aus Indonesien und von den Philippinen, Schnecken und Muscheln, die opaleszieren aus Australien, sowie verkieselte Schnecken von den Deccan Traps in Indien. In den Hohlräumen der Schnecken bilden sich manchmal sehr schöne Drusen und bunte achatartige Strukturen. Besonders schön sind versteinerte Araucarien-Zapfen aus Patagonien. Aus geschiffenen verkieselten Fossilien lassen sich mitunter schöne Schmuckstücke herstellen. Vorsichtsmaßnahmen. Beim Abbau von Quarz kommt es teilweise zu erheblichen Staubbildungen, die, über längere Zeit eingeatmet, zu der unter Bergleuten gefürchteten Silikose führen. Jedoch kommt es beim Schleifen der Edelsteine nie zur Staubbildung, da der Schleifvorgang immer mit Wasser, Emulsion, Petroleum oder einem speziellen Schleiföl ausreichend gekühlt wird. Ein Trockenschliff würde auch die meisten Edelsteine beschädigen oder zerstören. Esoterik. In der Esoterik gilt reiner Quarz (Bergkristall) als Heilstein, der vor schädlichen Strahlen bewahren, Kopfschmerzen und verschiedene Entzündungen lindern, Leber und Niere reinigen und die Durchblutung (Krampfadern) stärken soll. Quarz ist dem Tierkreiszeichen Löwe, den Planeten Saturn und Neptun und dem Monat April zugeordnet. Den verschiedenen Varietäten wie dem gelben Citrin oder dem violetten Amethyst werden zudem überwiegend Eigenschaften zugeschrieben, die sich aus der Mythologie ihrer Farbe ableiten lassen, zum Beispiel gelb für Energie und violett für Spiritualität. In der biologisch-dynamischen Landwirtschaft wird das Präparat Hornkiesel eingesetzt. Wissenschaftliche Belege für die Wirksamkeit liegen nicht vor. Quinoa. Quinoa (gesprochen, ursprünglich von Quechua: "kinwa", Aussprache:), ist eine Sammelbezeichnung für die eiweißreichen Samen der beiden Gänsefußgewächse (Fam. "Chenopodiáceae") "Chenopodium quinoa" Willd. und "Chenopodium pallidicáúle" Aellen. Sie gehören beide zur Familie der Fuchsschwanzgewächse (Amaranthaceae). In den Anden sind sie seit etwa 5000 Jahren als Kulturpflanzen bekannt. Die Pflanzen sind anspruchslos und gedeihen bis in sehr große Höhen: "C. quinoa" bis zu einer Höhe von 4200 m und "C. pallidicáúle" sogar bis zu 4500 m. Die einsamigen Nüsschen dieser Pflanzen sind in diesen Hochregionen ein wichtiges Grundnahrungsmittel der Bergvölker, da Mais in diesen Höhen nicht mehr angebaut werden kann. UN-Generalsekretär Ban Ki-moon erklärte das Jahr 2013 zum "Jahr der Quinoa". Die Pflanze soll aufgrund ihrer spezifischen Vorteile helfen, den Hunger auf der Welt, gerade in Zeiten des Klimawandels, zu bekämpfen. Beschreibung. Quinoa ist eine einjährige krautige Pflanze mit einer Wuchshöhe von 50 bis 150 cm. Der aufrechte Stängel ist verzweigt. Die dicklichen Blätter sind rhombisch und am Rand gezähnt. Die endständigen, aufrechten Blütenstände bestehen aus knäueligen Teilblütenständen. Die unscheinbaren grünen Blüten besitzen eine fünfteilige Blütenhülle. Der oberständige Fruchtknoten entwickelt sich nach Selbstbestäubung zu einer etwa zwei Millimeter großen Nussfrucht. Quinoa ist allotetraploid mit einer Chromosomenzahl von 2n = 4x = 36 (36XXXX) und einem diploiden Genom von 967 Mbp. Systematik. Die Erstbeschreibung von "Chenopodium quinoa" verfasste 1797 Carl Ludwig von Willdenow. Synonyme. Synonyme von "Chenopodium quinoa" Willd. sind "Chenopodium album" subsp. "quinoa" (Willd.) Kuntze, "Chenopodium album" var. "quinoa" (Willd.) Kuntze, "Chenopodium canihua" O. F. Cook, "Chenopodium ccoyto" Toro Torrico, "Chenopodium ccuchi-huila" Toro Torrico, "Chenopodium chilense" Pers. (nom invalid.), "Chenopodium guinoa" Krock., "Chenopodium hircinum" var. "quinoa" (Willd.) Aellen und "Chenopodium nuttalliae" Saff. Im Deutschen sind auch folgende Begriffe für die Pflanze üblich: "Inkareis", "Reismelde", "Inkakorn", "Reisspinat", "Andenhirse" oder "Perureis" genannt. Nutzung. Handelsübliches Quinoa vor der Zubereitung Die mineralstoffreichen Blätter werden als Gemüse oder Salat verzehrt. Die senfkorngroßen Samen haben eine getreideähnliche Zusammensetzung, daher wird Quinoa − ebenso wie Amarant − als glutenfreies Pseudogetreide bezeichnet. Botanisch zählt Quinoa aber zu den Fuchsschwanzgewächsen, und es ist folglich eher mit dem Spinat oder den Rüben verwandt. Der Gehalt an Eiweiß und einigen Mineralien (besonders Magnesium und Eisen) übertrifft sogar den Gehalt bei gängigen Getreidearten. Das Aminosäurespektrum umfasst alle essentiellen Aminosäuren, darunter auch Lysin. Dagegen enthält Quinoa in den Samen kein Vitamin A oder C; die Fettsäuren sind zu über 50 Prozent ungesättigt. Es lässt sich gut anstelle von Reis verwenden. Der Naturkosthandel führt Quinoa pur oder als Zutat in Müslimischungen. Für die Inkas war es ein Mittel gegen Halsentzündungen. Besonders für Menschen, die unter Zöliakie (Glutenunverträglichkeit) leiden, bildet es einen vollwertigen Getreideersatz. Aufgrund dieser Eigenschaften ist es für Allergiker geeignet und in der vegetarischen sowie veganen Küche sehr beliebt. Quinoa eignet sich auch für die Herstellung von glutenfreiem Bier. Anbau. Quinoa stammt aus Südamerika, wo es seit 6000 Jahren gemeinsam mit Amarant (lokale Bezeichnung "Kiwicha") ein Hauptnahrungsmittel ist. Es wurde besonders in den Hochebenen der Anden oberhalb einer Höhe von 4000 m angebaut. Dort waren die beiden Pflanzen für die Menschen unentbehrlich, da Mais als einziger Ersatz in diesen Höhen nicht mehr angebaut werden konnte. Während der spanischen Eroberungszüge und Kriege gegen die Inkas und Azteken im 16. Jahrhundert (siehe Francisco Pizarro und Hernán Cortés) wurde der Anbau von Quinoa und Amarant verboten und sogar unter Todesstrafe gestellt. Damit sollten die Völker geschwächt werden. Das als „unchristlich“ eingestufte Nahrungsmittel blieb dadurch in Europa bis in das 20. Jahrhundert hinein nahezu unbekannt. 1993 machte ein Bericht der NASA Quinoa als „neues“ Getreide, das sich durch seine hohen Eiweißwerte und einzigartige Aminosäurestruktur besonders für die Nutzung in Controlled Ecological Life Support Systems (z. B. Raumstationen oder Kolonien) eignen würde, international bekannt. Die Nachfrage stieg in den kommenden Jahren in Europa und Nordamerika sprunghaft an. Die steigende Nachfrage führte zu einem erhöhten Weltmarktpreis und steigenden Einkünften der Quinoa-Bauern. Andererseits konnten sich nun immer weniger Bolivianer und Peruaner das stark verteuerte Lebensmittel leisten und mussten auf billigere, industriell verarbeitete Lebensmittel ausweichen. Laut FAO wurden 2013 weltweit 103.418 t Quinoa geerntet. Hauptanbauländer sind Peru, Bolivien und Ecuador. In Deutschland werden nur geringe Mengen – meist zu Versuchszwecken – angebaut. Wird Quinoa in Mitteleuropa angebaut, so erfolgt die Aussaat von Anfang bis Mitte April. Die Ernte erfolgt ab Mitte September mit Mähdreschern. Da die Körner in den großen Fruchtständen ungleichmäßig reifen, ist nach der Ernte die Trocknung der Körner erforderlich. Heute wird der Anbau dieses Pseudogetreides im Rahmen von Entwicklungsprojekten in Peru und Bolivien gefördert, da die Pflanzen geringe Ansprüche an Boden und Wasser stellen und als ein gesundes alternatives Nahrungsmittel erkannt wurden. Gesundheitsaspekte. Den Schutz vor Schädlingen erreicht Quinoa durch bitter schmeckende Saponine, die auf der Samenschale liegen. In ungeschältem Zustand ist Quinoa daher ungenießbar. Handelsübliches Quinoa ist geschält oder gewaschen und dadurch vom Saponin befreit und entbittert. Der Saponingehalt wird durch dieses Verfahren erheblich reduziert. Durch ein Erhitzen/Kochen kann etwa ein Drittel der eventuell verbliebenen Saponine unschädlich gemacht werden. Der mögliche Restgehalt an Saponinen ist für den Menschen nicht schädlich, da sie kaum vom Darm aufgenommen werden. Saponine sind Glycoside von Steroiden, wie diejenigen, die in der Zellmembran vorkommen. Sie zeigen eine große Strukturvielfalt und damit eine große Variabilität in den biologischen Eigenschaften auf. Manche Saponine können den Cholesteringehalt im Plasma (Blutfettwerte) senken. Quarantäne. Die Quarantäne (ital. "quarantina di giorni," frz. "quarantaine de jours", „vierzig Tage“) ist die befristete Isolierung von Personen oder von Tieren, die verdächtig sind, an bestimmten Infektionskrankheiten erkrankt oder Überträger dieser Krankheiten zu sein. Bei Import von Tieren ist die Quarantäne überdies zum Ausschluss der Krankheitsverbreitung in den Einfuhrbestimmungen des jeweiligen Landes präventiv vorgesehen. Die Zeitdauer der Quarantäne richtet sich nach der Inkubationszeit der vermuteten Krankheit. Die Quarantäne ist eine sehr aufwendige, aber auch sehr wirksame seuchenhygienische Maßnahme, die insbesondere bei hochansteckenden Krankheiten mit hoher Sterblichkeit angewendet werden muss. In Anlehnung an diese Analogie wird der Begriff auch in der IT-Branche verwendet, um Schadsoftware (wie etwa Trojaner-, Viren- und Wurmprogramme) in einem extra isolierten, meist verschlüsselten Bereich aufzubewahren. Im 19. Jahrhundert war ein ebenfalls gängiges Wort für Quarantäne "Kontumaz" (lat. "contumacia", dt. Trotz, Stolz, Eigensinn, Unbeugsamkeit). Bestimmungen in Deutschland. In Deutschland sind gefahrenabwehrrechtliche Quarantänebestimmungen in Infektionsschutzgesetz, geregelt. Die dortigen Bestimmungen besagen, dass bei der Bekämpfung bestimmter Erkrankungen besondere Absonderungsmaßnahmen ergriffen werden können und müssen. Dies kann auch gegen den Willen der Erkrankten geschehen. Zurzeit sind nur die Pest und das hämorrhagische Fieber quarantänepflichtig, aber auch bei Erkrankungen wie der Cholera oder bei multiresistenten Keimen kommen Isolationsmaßnahmen zum Einsatz. Nur die behandelnden Ärzte, Pflegekräfte sowie Seelsorger müssen Zutritt zum Erkrankten haben, anderen Personen kann ärztlicherseits der Zutritt erlaubt oder verwehrt werden (Abs. 4 IfsG). Geschichte. Um ihre Stadt vor Pestepidemien zu schützen, beschloss im Juli 1377 die Regierung der Republik Ragusa, dass sich vor dem Betreten der Stadt alle ankommenden Reisenden und Kaufleute dreißig, später dann vierzig (d.h. "quaranta") Tage lang isoliert in eigens dafür errichteten Lazaretten aufhalten müssen, darunter in Lazareti bei Dubrovnik. Von dieser Regelung leitete sich der Begriff "Quarantäne" in der heutigen Bedeutung ab. 1383 wurde zum ersten Mal in Marseille die Quarantäne über ankommende Schiffe verhängt, um sich auch vor der Pest zu schützen, die damals in Europa wütete. Eine andere Quelle spricht davon, dass Beamte aus Venedig 1374 die Quarantäne einführten. Besatzung und Waren wurden zunächst auf der Insel Lazzaretto Nuovo isoliert und durften erst nach dreißig, später nach vierzig Tagen an Land. Quarantänemaßnahmen haben 1918 Australien vor dem Übertritt der Spanischen Grippe geschützt. Bei Pockenausbrüchen wurden in Deutschland noch in den 1960er Jahren drastische Isolierungsmaßnahmen ergriffen. Die betroffenen Personen wurden teilweise ohne ärztliche Versorgung in Schullandheimen isoliert und mussten sich selbst versorgen. Quedlinburg. Quedlinburg im Jahre 1782 gezeichnet von C. C. Voigt (Norden ist links) Dächer der Altstadt, vom Burgberg nach Norden Quedlinburg (, plattdeutsch "Queddelnborg", offiziell auch Welterbestadt Quedlinburg) ist eine Stadt an der Bode nördlich des Harzes im Landkreis Harz (Sachsen-Anhalt). 994 mit dem Stadtrecht versehen, war die Stadt vom 10. bis zum 12. Jahrhundert Sitz der zu Ostern besuchten Königspfalz weltlicher Herrscher und fast 900 Jahre lang eines (zunächst geistlichen, nach der Reformation freiweltlichen) Damenstifts. Quedlinburgs architektonisches Erbe steht seit 1994 auf der UNESCO-Liste des Weltkulturerbes und macht die Stadt zu einem der größten Flächendenkmale in Deutschland. In der historischen Altstadt mit ihren kopfsteingepflasterten Straßen, verwinkelten Gassen und kleinen Plätzen befinden sich gut 2000 Fachwerkhäuser aus acht Jahrhunderten. Am Markt liegt das Renaissance-Rathaus mit der Roland-Statue, südlich davon der Schlossberg mit der romanischen Stiftskirche und dem Domschatz als Zeugnisse des Quedlinburger Damenstifts. Auch der Münzenberg mit der romanischen Klosterkirche St. Marien und im Tal dazwischen die romanische St. Wiperti, der sich anschließende Abteigarten und der Brühl-Park gehören zum Weltkulturerbe. Geographie. Auf dem Lehof-Felsen, Sandsteinfelsen nördlich von Quedlinburg Lage. Die Stadt liegt im nördlichen Harzvorland durchschnittlich, 50 km südwestlich der Landeshauptstadt Magdeburg. Die unmittelbar angrenzenden Höhen erreichen. Der größte Teil der Stadt liegt westlich des Flusses Bode, in dessen weiterem Flussbett Quedlinburg liegt. Das Stadtgebiet hat eine Fläche von 78,14 Quadratkilometern. Geologie. Quedlinburg liegt inmitten des Quedlinburger Sattels, einem Schmalsattel, der das Stadtgebiet von Nordwesten nach Südosten durchquert. Dazu gehört der Quedlinburger Schlossberg mit seiner Verlängerung über den Münzenberg-Strohberg, die nördlich gelegene Hamwarte und die südlicher gelegene Altenburg. Weiter im Süden liegt die Harznordrandstörung. Parallel zum Nordrand des herausgehobenen Harzes sind die mesozoischen Gesteinsschichten daran aufgebogen und teilweise abgebrochen. Die wechselnden Lagen von unterschiedlich widerständigen mesozoischen Gesteinen (Jura, Kreide, Muschelkalk) bilden teilweise freipräparierte Schichtrippen, die als markante Höhenzüge von der Bode quer durchschnitten werden. Der markanteste Höhenzug ist die Teufelsmauer. Da die Region während der letzten Eiszeiten nicht vom Inlandeis bedeckt war, konnte sich hier Löss ablagern, der später zu Schwarzerdeböden hoher Güte umgewandelt wurde. Es sind dies die südlichen Ausläufer der fruchtbaren Magdeburger Börde. Klima. Die Stadt befindet sich in der gemäßigten Klimazone. Die durchschnittliche Jahrestemperatur in Quedlinburg beträgt 8,8 °C. Die wärmsten Monate sind Juli und August mit durchschnittlich 17,8 beziehungsweise 17,2 °C und die kältesten Januar und Februar mit 0,1 beziehungsweise 0,4 °C im Mittel. Der meiste Niederschlag fällt im Juni mit durchschnittlich 57 Millimeter, der geringste im Februar mit durchschnittlich 23 Millimeter. Der Harz liegt als Hindernis in der von Südwesten kommenden Westwinddrift. Durch die Höhe (Brocken mit) werden die Luftmassen zum Aufsteigen gezwungen und regnen sich dabei ab. Die nordöstliche Seite liegt im Regenschatten des Harzes. In diesem Gebiet befindet sich Quedlinburg mit einem der geringsten Jahresniederschläge in Deutschland von nur 438 Millimetern (zum Vergleich: Köln annähernd 798 Millimeter). Da die Monate Dezember, Januar und Februar absolut die niedrigsten Niederschlagswerte besitzen und die stark abnehmende Tendenz bereits im Spätherbst beginnt, kann von einer Quedlinburger „Wintertrockenheit“ gesprochen werden. Bei der 2010 erstmals durchgeführten Gesamtauswertung der 2100 Messstationen des Deutschen Wetterdienstes wurde festgestellt, dass Quedlinburg im August 2010 mit 72,4 Liter je Quadratmeter (= mm) der trockenste Ort in Deutschland war. Frostfreie Tage gibt es pro Jahr 177, während an 30 Tagen Dauerfrost herrscht. Eine geschlossene Schneedecke ist an weniger als 50 Tagen vorhanden und die Sonnenscheindauer liegt bei 1.422 Stunden jährlich. Stadtgliederung. Die historische Kernstadt gliedert sich in den ehemaligen Königsbesitz mit dem Westendorf, dem Burgberg, der St.-Wiperti-Kirche sowie dem Münzenberg. Nördlich davon liegt die 994 gegründete Altstadt und östlich die im 12. Jahrhundert gegründete Neustadt. Im dazwischenliegenden Bereich wurde im 13./14. Jahrhundert die Steinbrücke angelegt und die Word trockengelegt. Nördlich der Altstadt befindet sich das mittelalterliche Vorstadtviertel Gröpern. Um diesen mittelalterlichen Kern wurde am Übergang vom 19. zum 20. Jahrhundert ein Gürtel aus Villen im Jugendstil gebaut. Im Zuge der Industrialisierung entstanden außerhalb dieses Gürtels neue Ortsteile, so die Kleysiedlung, das Neubaugebiet in der Süderstadt (19./20. Jahrhundert) und das auf dem Kleers (1980er Jahre). Neben dieser Kernstadt gehören zu Quedlinburg noch die Ortsteile Münchenhof (vier Kilometer nördlich), Gersdorfer Burg (drei Kilometer südöstlich), Morgenrot (vier Kilometer östlich) und Quarmbeck (vier Kilometer südlich) sowie seit dem 1. Januar 2014 wieder Gernrode und Bad Suderode. Nachbargemeinden. Quedlinburg ist eine Stadt im Landkreis Harz und grenzt an acht sachsen-anhaltische Städte und Gemeinden (im Uhrzeigersinn, im Nordosten beginnend): Gemeinde Harsleben, Stadt Wegeleben, Gemeinden Ditfurt und Selke-Aue, Städte Ballenstedt und Thale. Geschichte. → "Hauptartikel: Geschichte der Stadt Quedlinburg" Frühe Besiedlungen. Die ersten Siedlungsspuren reichen bis in die Altsteinzeit zurück. Die Gegend war fast durchgehend besiedelt. Die ertragreichen Böden machten die Gegend für Siedler während des Neolithikums besonders interessant, was sich durch über 55 Siedlungsreste dieser Epoche allein in der Stadt und der näheren Umgebung nachweisen lässt. So befinden sich auf den markanten Bergspitzen wie dem Moorberg, der Bockshornschanze oder dem Brüggeberg, die an den Seitenwänden des Bodetals aufgereiht wie auf einer Kette aufragen, neolithische Begräbnishügel. Etwa zwei Kilometer nordwestlich von Quedlinburg, westlich der Wüstung Marsleben, konnte 2005 eine Kreisgrabenanlage der Stichbandkeramik untersucht werden, die der Kreisgrabenanlage von Goseck in Alter, Ausdehnung und Form nicht nachsteht. Am Ende des 8. Jahrhunderts häufen sich urkundliche Nachrichten über Ortschaften in der Umgebung Quedlinburgs: Marsleben, Groß Orden, Ballersleben (alle wüst), Ditfurt und Weddersleben. Die Wipertikirche als Filiale der Abtei Hersfeld ist wahrscheinlich um 835/63 gegründet worden. → "Siehe auch: Quedlinburger Wüstungen" Königliche Osterpfalz vom 10. bis 12. Jahrhundert. Bedeutung erlangte Quedlinburg, als es im 10. Jahrhundert die Königspfalz wurde, in der die ottonischen Herrscher das Osterfest feierten. Erstmals wurde es als "villa quae dicitur Quitilingaburg" in einer Urkunde König Heinrichs I. vom 22. April 922 erwähnt. Später bestimmte Heinrich den Ort zu seiner Grablege. Nach seinem Tod im Jahr 936 in Memleben wurde sein Leichnam nach Quedlinburg überführt und in der Pfalzkapelle auf dem Schlossberg bestattet. Seine Witwe Königin Mathilde ließ sich von Heinrichs Sohn und Nachfolger Otto I. die Gründung eines Damenstiftes mit der Aufgabe der Totenmemorie bestätigen. Dreißig Jahre lang stand sie ihrer Stiftsgründung selbst als Leiterin vor, ohne Äbtissin geworden zu sein. Otto I. besuchte Quedlinburg in unregelmäßigen Abständen zur Feier des Osterfestes und zu den Gedenktagen seines Vaters. Im Jahr 941 entging er dabei nur knapp einem Mordanschlag durch seinen jüngeren Bruder Heinrich. Auf dem Oster-Hoftag 966 wurde Ottos Tochter Mathilde als Äbtissin mit der Leitung des Damenstiftes betraut. Zwei Jahre später, am 14. März 968, starb ihre Großmutter und wurde an der Seite ihres Gemahls bestattet. Ihr Grab und ihr steinerner Sarkophag sind erhalten geblieben, während Heinrichs Grablege leer ist. Der größte und glanzvollste Hoftag Ottos des Großen fand 973 statt. Unter den internationalen Teilnehmern befanden sich Boleslav I., Herzog von Böhmen, und Mieszko I., Herzog der Polanen, die dem Kaiser den Treueeid leisteten. Kurz darauf starb Otto I. Sein Sohn Otto II. besuchte in seiner zehnjährigen Regentschaft nur zweimal Quedlinburg. Nach dessen Tod 983 war Otto III. erst drei Jahre alt. Sein Onkel Heinrich der Zänker wollte sich in Quedlinburg selbst zum König erheben und entführte den jungen König. Vor allem das Eingreifen von Ottos Großmutter Adelheid, der zweiten Gemahlin Ottos I., und seiner Mutter Theophanu, der Gemahlin Ottos II., zwang Heinrich zwei Jahre später, dem jungen Otto III. in Quedlinburg zu huldigen. Otto III. verlieh 994 dem Stift das Markt-, Münz- und Zollrecht, noch unter dem Vorstand seiner Tante, der Äbtissin Mathilde. Damit war eine wichtige Bedingung für die weitere städtische Entwicklung Quedlinburgs geschaffen. Von der weiteren reichspolitischen Bedeutung Quedlinburgs im 11. und 12. Jahrhundert zeugen die vor Ort verfassten, später so genannten Quedlinburger Annalen. Diese verzeichnen im Jahre 1009 erstmals in schriftlichen Quellen "Litua", den Namen Litauens. Für die Zeit vom 10. bis zum 12. Jahrhundert, als Quedlinburg die Osterpfalz der ostfränkisch/deutschen Herrscherhäuser war, sind 69 urkundlich nachweisbare Aufenthalte eines Königs oder Kaisers gezählt worden. In den ersten Jahrzehnten nach Gründung des Damenstiftes wurden zahlreiche Schenkungen durch das sächsische Königshaus verzeichnet. Zu Quedlinburg gehörten über 200 teils weit entfernte Orte, aber auch andere Schätze. Aufstrebende Stadt im Spätmittelalter und der Frühneuzeit. 1326 schloss sich die Stadt mit Halberstadt und Aschersleben zum Halberstädter Dreistädtebund zusammen, der 150 Jahre andauern sollte. In den folgenden vier Jahrhunderten nahm Quedlinburg einen wirtschaftlichen Aufschwung. Wie in anderen Städten (Braunschweig, Halberstadt) der Region waren das Gewandschneider- und das Kaufmannswesen besonders intensiv. Um 1330 wurde die Altstadt mit der im 12. Jahrhundert gegründeten Neustadt belehnt, die fortan immer geschlossen als Stadt Quedlinburg agierten. Zum wirtschaftlichen Erfolg gesellte sich 1336 ein politischer, als die Stadt in einem regionalen Konflikt zwischen dem Halberstädter Bischof und dem Grafen von Regenstein Letzteren gefangen setzen konnte. Die Stadt erlangte größere Unabhängigkeit von der Stadtherrin, der Äbtissin des Damenstiftes, und durfte in der Folge ihre Verteidigungsanlagen massiv ausbauen. Das neue Selbstbewusstsein wurde in Form von vielen Städtebündnissen nach außen hin demonstriert. Als Krönung dieser Entwicklung trat die Stadt 1384 dem Niedersächsischen Städtebund und 1426 dem Hansebund bei. Der Plan des Stadtrates, sich von den Befugnissen der Äbtissin Hedwig von Sachsen zu befreien, mündete 1477 in einen gewaltsamen Konflikt. Die Quedlinburger versuchten, Hedwig mit Waffengewalt aus der Stadt zu vertreiben. Daraufhin bat diese ihre Brüder, die Wettiner Herzöge Ernst und Albrecht um Hilfe. Die entsandten Truppen stürmten die Stadt ohne eigene Verluste, während 80 Quedlinburger fielen. Die Bürgerschaft unterwarf sich daraufhin und schied aus sämtlichen Bündnissen aus. Der um 1435 aufgestellte Roland, Symbol der Marktfreiheit und Zeichen städtischer Unabhängigkeit, wurde gestürzt und zerschlagen. Erst 1869 wurden die Bruchstücke dieser Rolandstatue wieder aufgefunden, zusammengesetzt und neu aufgestellt. 2013 wurde die Figur gesäubert und komplettiert. Während des Bauernkriegs wurden vier Klöster der Stadt, das Prämonstratenserkloster St. Wiperti, das Benediktinerinnenkloster St. Marien, das Franziskanerkloster in der Altstadt und das Augustinerkloster in der Neustadt zerstört. Die Reformation wurde in Quedlinburg im Jahr 1539 durchgesetzt und das Stift in ein evangelisches "Freies weltliches Stift" umgewandelt. Den größten städtebaulichen Aufschwung nahm die Stadt ab dem Dreißigjährigen Krieg. Die meisten der 1200 erhaltenen Fachwerkhäuser sind in dieser Zeit entstanden. Zwei Stadtbrände verwüsteten 1676 und 1797 große Teile der Stadt. 1698 besetzten brandenburgische Truppen die Stadt, womit fortan Preußen Schutzmacht war. 1802 wurde das seit 936 bestehende Damenstift aufgelöst. Die Stiftsgebäude auf dem Schlossberg gingen in den Besitz des preußischen Staates über. Aufstrebendes Pflanzzuchtzentrum vom 18. bis 20. Jahrhundert. Quedlinburg von Südwesten, um 1900 Schlossberg mit Stiftskirche St. Servatii und Stiftsgebäuden, Dezember 2005 Im Laufe des 18. und besonders des 19. Jahrhunderts entwickelte sich durch die Blumen- und Saatgutzucht ein beachtlicher Wohlstand, der städtebaulich auch in einer Reihe von Jugendstil-Villen seinen Ausdruck fand. Als die erste Zuckerfabrik des Regierungsbezirks Magdeburg 1834 von G. Chr. Hanewald in Quedlinburg eingerichtet wurde, führte dies zur raschen Entwicklung landwirtschaftlicher Zuliefer- und Großbetriebe. Die Entwicklung von Zuchtverfahren, der Anschluss an das Eisenbahnnetz und die Separation (1834–1858) sind Stationen zu einer weltwirtschaftlichen Bedeutung im Saatzuchtbereich. Neben der Zucht von Blumensamen wuchs seit Beginn des 20. Jahrhunderts die Bedeutung der Gemüsezucht. Von 1815 bis 1938 war Quedlinburg eine Garnisonsstadt. Zu den sechs Fragmenten der in den Jahren 1865 bis 1888 entdeckten sogenannten "Quedlinburger Itala", einer Prachtbibel des 4. Jahrhunderts, die als Einbände frühneuzeitlicher Verzeichnisses überliefert worden waren, "siehe: Domschatzkammer Quedlinburg" 20. Jahrhundert. Im beginnenden 20. Jahrhundert waren die Saatzuchtfirmen die größten Arbeitgeber. 1907 sprach Rosa Luxemburg vor 800 Quedlinburger Saatzucht-Arbeitern. Während des Ersten Weltkrieges wurden viele landwirtschaftliche Arbeiten mit Hilfe von bis zu 17.000 Kriegsgefangenen durchgeführt, die in einem Kriegsgefangenenlager auf dem so genannten Ritteranger nordöstlich der Stadt untergebracht waren. Dieses Lager wurde seit September 1914 eingerichtet und bestand über den Krieg hinaus als Notunterkunft zaristischer Soldaten, bis es im Juni 1922 niedergebrannt wurde. Im selben Jahr fand in Quedlinburg eine Feier zum tausendsten Jahrestag der ersten urkundlichen Erwähnung (922) statt. Ein verheerendes Hochwasser der Bode zerstörte 1926 alle Brücken und legte die Infrastruktur lahm. Immer wieder behinderten spätere Hochwasser die Wiederaufbauarbeiten. Zur Zeit des „Dritten Reiches“ wurde die Tausendjahrfeier (936–1936) des Todestages König Heinrichs I. von den Nationalsozialisten in Gestalt der SS als ein "propagandistisches Geschenk" angesehen. Heinrich Himmler entwickelte ab 1936 einen Kult um den König und wurde selbst als eine Reinkarnation Heinrichs angesehen, was ihm geschmeichelt haben soll, wie sein Leibarzt Felix Kersten berichtet. In Quedlinburg wurden die Wipertikrypta und die Kirche St. Servatii beschlagnahmt und zu Weihestätten der SS umfunktioniert. Himmlers persönliches Erscheinen (bis 1939) zu den jährlichen Feierlichkeiten am 2. Juli, die bis 1944 stattfanden, wurde zum Beispiel 1937 propagandistisch mit Nachrichten über das Auffinden der verlorenen Gebeine Heinrichs I. aufgewertet. Nach dem Krieg wurden bei einer Öffnung des (neuen) Sarkophags die von der SS vorgezeigten „Funde“ als plumpe Fälschungen entlarvt. Am Morgen nach den Zerstörungen der „Reichspogromnacht“ legte der Ladenbesitzer Sommerfeld seine Eisernen Kreuze aus dem Ersten Weltkrieg (EK 1 und 2) in sein zerstörtes Schaufenster und ein Schild: "„Der Dank des Vaterlandes ist Dir gewiss.“" Bald darauf begann die Verschleppung jüdischer Bewohner. Im Stadtgebiet befanden sich drei Außenstellen von Konzentrationslagern: das Kreisgerichtsgefängnis und je ein Gefangenenlager in der Kleersturnhalle und im Fliegerhorst in Quarmbeck. Seit 1943/1944 wurden in Quedlinburg über 8.000 Verwundete in den Sporthallen und Notlazaretten versorgt. In der Woche, bevor am 19. April 1945 amerikanische Truppenverbände (RCT 18) die Stadt fast kampflos einnehmen konnten, gelang es, Teile der V 2, die auf dem Quedlinburger Bahnhof auf Waggons lagerten, aus der Stadt zu bringen. Dies verhinderte eine Bombardierung und so beschränkten sich die Kriegszerstörungen auf Artillerietreffer. a> Typ Quedlinburg (HMBQ) in der Schmalen Straße Nach dem Krieg war Quedlinburg Teil des 1945 gegründeten Landes Sachsen-Anhalt, seit 1952 des Bezirkes Halle in der DDR. Die Demonstrationen vom 17. Juni 1953 konnten in Quedlinburg und Thale nur durch den Einsatz von Streitkräften der Sowjetarmee unterbunden werden. Obwohl es kaum nennenswerte Kriegszerstörungen gab, reichten die Bemühungen durch die DDR bei weitem nicht aus, den drohenden natürlichen Verfall der Altstadt zu stoppen. Durch den Einsatz erfahrener polnischer Restauratoren aus Toruń "()" konnten nur punktuell Häuser wiederhergestellt werden. Seit 1957 wurde St. Wiperti restauriert und 1959 neugeweiht. Die ursprünglichen Planungen der DDR in den 1960er-Jahren, die historische Altstadt vollständig niederzureißen und durch einen zentralen Platz und sozialistische Plattenbauten zu ersetzen, scheiterten an Geldmangel. Versuche, die Plattenbauweise den historischen Verhältnissen anzupassen, sind im Bereich des Marschlinger Hofes, in Neuendorf und in der Schmalen Straße nördlich des Marktes zu sehen. Dafür wurde die sogenannte Hallesche Monolithbauweise (HMB) modifiziert und als Hallesche Monolithbauweise Typ Quedlinburg (HMBQ) umgesetzt. Erst nach der Wiedervereinigung 1990 wurden zielstrebig Fachwerkbauwerke restauriert. Im Herbst 1989 demonstrierten in kaum einer anderen Stadt, gemessen an der Einwohnerzahl, so viele Menschen wie in Quedlinburg. Gewaltlose Demonstrationen während der „Wende“ fanden in Quedlinburg immer am Donnerstag statt. Die Demonstration am 2. November 1989 mit 15.000 Teilnehmern war trotz provozierenden Verhaltens der SED-Größen vor Ort ein Beispiel der Gewaltlosigkeit. Die größte Demonstration mit über 30.000 Teilnehmern fand am 9. November 1989 statt. Keiner der Teilnehmer ahnte, dass zur gleichen Zeit die Mauer geöffnet wurde. Die Kreisdienststelle des Ministeriums für Staatssicherheit wurde am 12. Dezember 1989 aufgelöst, nachdem die Klarnamendatei und die brisantesten Akten (beispielsweise zu Kirchenangelegenheiten) in den Tagen vorher vernichtet worden waren. Am 6. Januar 1990 fand zum Dank für den überwältigenden Empfang beim Überschreiten der Grenze ein großes Stadtfest statt. Zu diesem Fest kamen Würdenträger und 50.000 Gäste. Bei einem Spontanbesuch sagte Helmut Kohl im Januar 1990 der Stadt Hilfsgelder zur Sicherung der extrem gefährdeten Bausubstanz zu und das Bundesland Niedersachsen spendete im Frühjahr 100.000 Dachziegel für Sofortmaßnahmen. Ein gesellschaftlicher Tiefpunkt waren im Herbst 1992 ausländerfeindliche Übergriffe in der Quedlinburger Neustadt. Eine Antwort von Quedlinburger Einwohnern war die Gründung der bis heute sehr aktiven Präventionsmaßnahme „Altstadtprojekt“. Die geplante NPD-Demonstration 15 Jahre später wurde durch eine betont bunte Demonstration engagierter Quedlinburger verhindert. Von den 1945 geraubten zwölf Teilen des Domschatzes kehrten 1993 zehn aus den USA zurück in die Quedlinburger Domschatzkammer. Zwei Beutestücke bleiben weiterhin in Amerika verschollen. Zur Tausendjahrfeier der Verleihung des Markt-, Münz- und Zollrechtes wurden große Teile der Quedlinburger Altstadt und der Königshofkomplex am 17. Dezember 1994 auf Antrag Deutschlands auf die Liste der Welterbestätten der UNESCO gesetzt, als ein Ensemble, das die Ansprüche gemäß dem Kriterium IV. erfüllt, „ein herausragendes Beispiel eines Typus von Gebäuden oder architektonischen Ensembles oder einer Landschaft, die bedeutsame Abschnitte in der menschlichen Geschichte darstellen“. (IV). Gerhard Schröder besuchte 1999 mit dem französischen Premierminister Lionel Jospin und 2001 mit dem spanischen Ministerpräsidenten José María Aznar die Stadt. Seit 2000. Das schwedische Königspaar, Carl XVI. Gustaf und seine Frau Silvia, besuchte 2005 die Quedlinburger Stiftskirche. Nach mehrjährigen Restaurierungen ist die Krypta der Stiftskirche seit März 2009 wieder für die Öffentlichkeit zugänglich. Von 2011 bis 2014 wurden umfassende Neugestaltungsarbeiten am Marktplatz, im Bereich der Breiten Straße und der Steinbrücke vorgenommen. Im Vorfeld dieser Arbeiten wurden bei archäologischen Grabungen Pflasterreste eines Marktes entdeckt, die in das 10. Jahrhundert datiert werden. Im Jahr 2014 wurde seitens des Stadtrates beschlossen, die Bezeichnung "Welterbestadt" voranzustellen. Nach Genehmigung durch den zuständigen Landkreis und die UNESCO Deutschland gilt seit 29. März 2015 die Bezeichnung "Welterbestadt Quedlinburg". Einwohnerentwicklung. Da Quedlinburg lange Zeit nicht über seine mittelalterliche (Stadtmauer-)Grenzen hinauswuchs, blieb die Einwohnerzahl vom Mittelalter bis in das 19. Jahrhundert bei maximal 8.000 bis 10.000 Personen. Erst mit der Industrialisierung begann die Zahl zu wachsen und erreichte den höchsten Wert 1950 mit 35.426 Einwohnern. Danach sank sie von 1950 bis 1990 um 21 Prozent (7459) kontinuierlich ab und lag bereits 1975 wieder unter 30.000. Seit der gewaltlosen Revolution und der Grenzöffnung 1989/1990 verlor die Stadt wegen hoher Arbeitslosigkeit, des Wegzugs vieler Einwohner in das Umland und des Geburtenrückgangs erneut 20 Prozent ihrer Bewohner (5.500 Personen). Am 30. Juni 2006 betrug die amtliche Einwohnerzahl für Quedlinburg nach Fortschreibung des Statistischen Landesamtes Sachsen-Anhalt 22.481 (nur Hauptwohnsitze und nach Abgleich mit den anderen Landesämtern). Zum 1. Januar 2011 vergrößerte sich die Stadt zunächst durch die Eingemeindung der Stadt Gernrode sowie der Gemeinden Bad Suderode und Rieder von 78,14 km² auf 141,82 km²; die Bevölkerungszahl stieg von etwas über 21.000 auf über 28.000. Diese Eingliederung musste jedoch wegen eines Formfehlers am 19. Februar 2013 aufgrund einer Gerichtsentscheidung wieder rückgängig gemacht werden. Bad Suderode und Gernrode gehören seit dem 1. Januar 2014 wieder zu Quedlinburg. Bevölkerungsentwicklung 1786–2005 und -prognose bis 2020 Bevölkerungsprognose. Die Bertelsmann-Stiftung, Wegweiser Demographischer Wandel, liefert Daten zur Entwicklung der Einwohnerzahl von 2959 Kommunen in Deutschland (Publikation Januar 2006). Für Quedlinburg wird ein Absinken der Bevölkerung zwischen 2003 und 2020 um 14,1 Prozent (3.281 Personen) vorausgesagt. Im Rahmen der Fortschreibung des WelterbeManagementPlans wurde 2011 eine eigene Prognose aufgestellt. Zum Stichtag 31. Dezember 2010 wohnten 21.016 Einwohner mit Hauptwohnsitz in Quedlinburg (mit Gebietsstand zu diesem Stichtag). Im Jahressaldo verlor die Stadt im Laufe 2011 insgesamt 69 Einwohner. Unter Einschluss der Zu- und Abwanderungen wurde damit seit 2001 ein durchschnittliches Negativsaldo von 150 bis 180 Einwohnern jährlich konstatiert. Die Prognose für 2025 liegt nach dieser Erhebung bei 16.200 bis 17.300 Einwohner (in den Grenzen von 2010). Altersstruktur Ende 2010 (Gebietsstand 2010) für Quedlinburg in 5-Jahres-Intervallen von 0 bis 104 Altersstruktur. Die folgende Übersicht zeigt die Altersstruktur vom 31. Dezember 2007. Einige Zahlen spiegeln sechs, andere über 20 Jahrgänge wider. Christentum. → "Siehe auch:" Liste der Kirchen in Quedlinburg Der überwiegende Teil der Quedlinburger Bevölkerung gehört keiner Religionsgemeinschaft an. Die ehemals fünf protestantischen Gemeinden umfassen rund 16 Prozent der Stadtbevölkerung und haben sich in der "Evangelischen Kirchengemeinde Quedlinburg" zusammengeschlossen, die ein Teil der Evangelischen Kirche in Mitteldeutschland ist. Etwa vier Prozentder Stadtbevölkerung gehören zur katholischen St.-Mathildis-Gemeinde, einer Pfarrei im Bistum Magdeburg. Weitere christliche Gemeinden gehören zu den Siebenten-Tags-Adventisten, der Evangelisch-Freikirchlichen Gemeinde (Baptisten) oder anderen evangelischen Freikirchen sowie zur Neuapostolischen Kirche. Darüber hinaus leben in der Stadt Mitglieder der Blankenburger Gemeinde der alt-katholischen Kirche. Judentum. → "Hauptartikel: Jüdische Gemeinde Quedlinburg" Bereits im 11./12. Jahrhundert sollen sich jüdische Kaufleute in Quedlinburg angesiedelt haben. Seit dem frühen 13. Jahrhundert sind sie urkundlich fassbar. Sie fungierten vor allem als unabhängige Kreditgeber der Quedlinburger Äbtissin und anderer lokaler Magnaten. Im Jahr 1514 mussten alle Juden Quedlinburg verlassen. Zwar waren im 18. Jahrhundert drei sogenannte Schutzjuden erlaubt, aber erst nach der Auflösung des Stiftes 1802 siedelten sie sich wieder in Quedlinburg an. Von 1933 bis 1945 lebten weniger als 100 „Nichtarier“ in Quedlinburg. Von diesen kamen mindestens 13 gewaltsam zu Tode, 14 gelang die Emigration und 34, überwiegend „Halbjuden“, überlebten und starben eines natürlichen Todes. Die anderen Schicksale sind unbekannt. Eine jüdische Gemeinde gibt es seit der NS-Zeit nicht mehr in Quedlinburg. Politik. Quedlinburger Marktplatz mit Rathaus (links) Stadtrat. Sitzverteilung im Quedlinburger Stadtrat (2014–2019) An der Spitze der Stadt stand seit dem 13. Jahrhundert der Rat mit zunächst zwölf, später dreimal zwölf Ratsherren (abwechselnd zwölf pro Jahr). Den Vorsitz hatte ein Bürgermeisterpaar, bestehend aus einem Bürgermeister der Alt- und einem der Neustadt. Bis zum 19. Jahrhundert gab es also drei Altstädter und drei Neustädter Bürgermeister, die sich abwechselten. Dann wurde das Amt auf eine Person beschränkt. Von 1890 bis 2000 trugen die Bürgermeister den Titel Oberbürgermeister. Als Vertretung der Bürger gibt es eine Stadtvertretung, die in Quedlinburg die Bezeichnung "Stadtrat" trägt. Die Mitglieder der Bürgerschaft werden von den Bürgern der Stadt auf fünf Jahre gewählt. Die Mehrheitsverhältnisse in der Quedlinburger Bürgerschaft sind sehr unübersichtlich. 2009 wurde der Stadtrat noch für die Kernstadt Quedlinburg allein gewählt. Durch die Eingemeindung der Ortschaften Rieder (2011–2013) sowie Gernrode und Bad Suderode (2011–2013 sowie seit 2014) vergrößerte sich der Stadtrat zeitweilig auf bis zu 45 Sitze. Bei der Kommunalwahl am 25. Mai 2014 wurde der erste Stadtrat gewählt, bei dem Kandidaten auch aus den neuen Ortsteilen direkt antraten. Zusätzlich wurde für Gernrode und Bad Suderode ein Ortschaftsrat gewählt. Insgesamt bewarben sich 126 Männer und Frauen um die 36 Sitze im Stadtrat. Die Wahlbeteiligung lag 2014 bei 40,0 % (35,7 %; 34,7 %; 51,3 %). Sie zählt damit zwar zu den niedrigsten Werten in Deutschland, erhöht sich aber wieder seit 2004. Wappen. Quedlinburg führte seit Jahrhunderten ein Wappen, doch liegen keine Zeugnisse dafür vor, dass dieses Hoheitszeichen rechtmäßig verliehen wurde. Das Wappenbuch des Heraldikers Johann Siebmacher führt im Jahr 1605 die Wappen der Reichstätte und Städte vor; ein Quedlinburger Wappen nennt er nicht. Auch finden sich in den Archiven keine historiografischen Hinweise auf eine Wappenverleihung. Es ist darum anzunehmen, dass Quedlinburg im Laufe seiner Stadtgeschichte aus dem ursprünglichen Siegelbild ein in Gewohnheitsrecht getragenes Wappen entwickelte. Das erklärt auch die Tatsache, dass das Wappenbild im Laufe der Jahrhunderte häufig wechselte und von einem verbindlichen Erscheinungsbild nicht die Rede sein kann. Das bis 1998 gebräuchliche Wappenbild fand bei der Landesregierung keine Zustimmung und wurde deshalb in seiner Gestaltung verändert. Diese Änderungen betrafen allerdings lediglich Details und kaum die heraldische Erscheinung des Wappens. Begründet wurde die gestalterische Modifizierung damit, dass es gerade die veränderten Details seien, die aus einem Bild ein korrektes Wappenbild machen würden. Vorbild des Adlers war das 1882 von Adolf Matthias Hildebrandt (M.) gestaltete Wappenbild aus dem „Urkundenbuch der Stadt Quedlinburg“. Der innere Schild wurde in seiner Grafik den heraldischen Gepflogenheiten und überlieferten stilistischen Formen angepasst. Die grafische Ausführung und Dokumentation erfolgte durch den Heraldiker Jörg Mantzsch, (Magdeburg). Blasonierung: „In Gold einen rotbewehrten schwarzen Adler mit goldkonturiertem roten Brustschild, darin eine silberne Burg mit schwarz gefugter Zinnenmauer und gezinntem Torturm mit offenem Rundbogenfenster im Spitzdach, geöffneten Torflügeln und emporgezogenem Fallgitter, der Torturm flankiert von zwei spitzbedachten Zinnentürmen mit je einem offenen Rundbogenfenster, im Tor ein sitzender silberner Hund mit schwarzem Halsband.“ Die Farben der Stadt sind Schwarz-Gelb. Flagge. Die Flagge der Stadt besteht aus den Farben der Stadt in Streifen mit einem aufgesetzten Stadtwappen. Städtepartnerschaften. Quedlinburg hat seit 1961 eine Städtepartnerschaft mit dem kleinen Ort Aulnoye-Aymeries in Nordostfrankreich und seit 1991 eine Städteunion mit den vier historisch bedeutsamen Städten Herford in Nordrhein-Westfalen sowie Celle, Hann. Münden und Hameln in Niedersachsen. Gemeinsam mit diesen wurde ein sogenanntes Städteunionshaus (Hohe Straße 8) eingerichtet, in dem regelmäßig Treffen stattfinden. Seit 2000 gibt es einen Städtekontakt mit Torbay in Großbritannien. Städtische Museen Quedlinburg. Die Ausstellung des Schlossmuseums zeigt die Entwicklung des Burgberges mit dem Damenstift und Facetten der Stadtgeschichte. Herausragende Exponate sind der bronzezeitliche Hortfund vom Lehof, die Goldscheibenfibel aus Groß Orden (wüst), der sogenannte "Raubgrafenkasten" und eine mittelalterliche Balliste. Seit 2002 wird im sogenannten Ottonenkeller eine Ausstellung zur Rezeption der ottonischen Zeit während des Nationalsozialismus gezeigt. Im 1570 erbauten Klopstockhaus wurde 1724 der Dichter Friedrich Gottlieb Klopstock geboren. Klopstock wurde durch sein Wirken zu einem Begründer der klassischen deutschen Literatur und war weit über die Grenzen Deutschlands hinaus berühmt. An das Museum angeschlossen sind eine Bibliothek und ein Archiv. Das Fachwerkmuseum "Ständerbau" zählt zu den ältesten Fachwerkhäusern in Quedlinburg. Neuere Untersuchungen ergaben eine Datierung von 1346/1347. Älter sind Gebäudeteile von Klink 6/7 von 1289 (d), Hölle 11 von 1301 (d), Breite Str. 12/13 1330 (d). Die Ausstellung zeigt die Geschichte des Ständer- und Fachwerkbaus vom 14. bis zum 20. Jahrhundert und einzelne Stile des Quedlinburger Fachwerkbaus anhand von Modellen. Andere Museen und Galerien. Die 1986 eröffnete Lyonel-Feininger-Galerie zeigt Werke des New Yorker Bauhaus-Künstlers Lyonel Feininger (1871–1956), die vom Quedlinburger Hermann Klumpp, einem Mitschüler des Bauhauses, vor der Vernichtung durch die Nationalsozialisten bewahrt worden waren. Die Sammlung, eine der umfangreichsten geschlossenen Bestände von Grafiken, Radierungen, Lithographien und Holzschnitten des Künstlers, dokumentiert seine Schaffensperioden von 1906 bis 1937. Daneben befinden sich drei weitere Galerien in der Stadt: Galerie "Weißer Engel", Galerie im Kunsthoken und die Galerie im kleinen Kunsthaus. Im "Mitteldeutsches Eisenbahn- und Spielzeugmuseum" befinden sich über 3.000 Ausstellungsobjekte zum Thema "Historisches Spielzeug aus der Zeit um 1900" und eine Sammlung historischer Modelleisenbahnen der Spuren I, 0, S und H0, vor allem von Märklin, aber auch ausländische Modelleisenbahnen. Das "Museum für Glasmalerei und Kunsthandwerk", untergebracht im restaurierten Wordspeicher, einem Speichergebäude des 17. Jahrhunderts, bietet eine Ausstellung zur Bedeutung und Geschichte der Quedlinburger Glasmalerei sowie eine Schauwerkstatt und einen interaktiven Erlebnisraum. Das "Münzenbergmuseum" zeigt die Geschichte des mittelalterlichen Marienklosters auf dem Münzenberg und die Siedlungs- und Sozialgeschichte dieses Viertels in der Frühen Neuzeit. Romanische Kirchen. Die Stiftskirche St. Servatii thront weithin sichtbar auf dem Schlossberg über der Stadt. Der jetzige, vierte Kirchenbau an gleicher Stelle wurde nach einem Brand im Jahr 1070 begonnen und im Jahr 1129 geweiht. Der romanische Kirchenraum ist durch den niedersächsischen Stützenwechsel und einen imposanten, innen und außen verlaufenden Relieffries gekennzeichnet. Der Hohe Chor wurde unter der Äbtissin Jutta von Kranichfeld bis 1320 im gotischen Stil umgebaut. Bei der umfassenden Restaurierung unter Ferdinand von Quast 1863 bis 1882 erhielt die Kirche zwei romanische Türme mit stilwidrigen rheinischen Helmen. In der Zeit von 1936 bis 1945 war die Kirche durch die SS unter dem Reichsführer SS Heinrich Himmler besetzt und profaniert. In den beiden Schatzkammern ist der Quedlinburger Domschatz mit den 1945 gestohlenen und 1992 aus Texas zurückgekehrten Teilen zu sehen. Gezeigt werden unter anderem das Servatiusreliquiar, das Katharinenreliquiar, Fragmente der Quedlinburger Itala, der mit Goldblech beschlagene Servatius- oder Äbtissinnenstab und der Knüpfteppich aus dem 12. Jahrhundert. St.-Wiperti-Kirche wurde als katholische Filialkirche 1959 neugeweiht. Reste des Altarraums reichen bis zur Mitte des 10. Jahrhunderts zurück. In diesen Bau wurde in der Zeit um das Jahr 1020 die romanische Krypta eingefügt. 1146 wurde der gesamte Kanonikerkonvent (seit 961/4) in einen Prämonstratenserkonvent umgewandelt. Dieses Kloster überstand in vier Jahrhunderten mehrere Zerstörungen (1336, 1525), bevor es im Zuge der Reformation spätestens 1546 aufgehoben wurde. Die Kirche wurde als evangelische Pfarrkirche der Münzenberg- und Westendorfgemeinde genutzt. Mit der Auflösung des Damenstiftes 1802 wurde die Wipertikirche zunächst verpachtet, später verkauft und als Scheune genutzt. Von 1936 bis 1945 wurde sie ebenfalls als nationalsozialistische Weihestätte profaniert. In den Jahren 1954 bis 1958 wiederhergerichtet, wird sie seit 1959 in den Sommermonaten für das sonntägliche Hochamt genutzt. 1995 wurde ein Förderverein gegründet, der die bauliche und historische Substanz betreut. Die Stiftskirche und die Wipertikirche sind die Quedlinburger Stationen (Nr. 36) auf der südlichen Route der Straße der Romanik. Münzenberg mit St. Marien (rechts) Die Reste der St.-Marien-Kirche auf dem Münzenberg werden nicht als Sakralraum genutzt. Sie sind aber durch private Initiativen wieder zugänglich gemacht worden. Die 1525 aufgegebene romanische Kirche ist 986 auf Intervention der Äbtissin Mathilde als Klosterkirche eines Benediktinerinnenklosters gegründet worden. 1017 wurde sie nach einem Brand in Gegenwart Heinrichs II. neu geweiht. Nach den Zerstörungen im Bauernkrieg war das Kloster verlassen worden und seit den 1550er-Jahren siedelten sich einfache Leute (Musikanten etc.) auf dem Münzenberg an. Diese zersiedelten das ehemalige Klostergelände mit vielen kleinen Häusern, sodass der Kirchenraum in 17 einzelne Gebäude aufgeteilt war. Ein Großteil der Kirche wurde wieder in der ursprünglichen Form zugänglich gemacht. Gotische Kirchen. St. Aegidii im Norden der Altstadt, eine spätgotische dreischiffige Kirche mit ihren wuchtigen, festungsartigen Türmen, wurde erstmals 1179 erwähnt. Die evangelische Kirchengemeinde Quedlinburg nutzt sie aus denkmaltechnischen Gründen zurzeit nur selten. Aus dem gleichen Grund sind die Besuchsmöglichkeiten eingeschränkt. Die Marktkirche St. Benedikti mit der angeschlossenen Kalandskapelle ist auf romanischen Resten errichtet und wurde 1233 erstmals erwähnt. Sie wird von der evangelischen Kirchengemeinde als Pfarrkirche genutzt und ist für Gäste ganzjährig zu besichtigen. Der Bau ist eine Hallenkirche mit achteckigen Pfeilern, einem spätgotischen Chor aus dem 14. Jahrhundert und einem Taufstein aus dem Jahre 1648. Dach und Dachstuhl der Kirche sind als Fauna-Flora-Habitat (FFH) für die Große-Mausohr-Fledermäuse ausgewiesen. St. Nikolai in der Neustadt wurde 1222 erstmals erwähnt und ist mit ihren 72 Meter hohen Türmen und ihrem hohen dreischiffigen Bau ein imposantes Beispiel für einen frühgotischen Kirchenraum. Ob der romanische Vorgängerbau auf eingerammten "Ellernpfählen" errichtet wurde, um in dem morastigen Untergrund Halt zu finden, konnten archäologische Untersuchungen bisher weder bestätigen noch widerlegen. Nach chronikalischen Nachrichten des 13. Jahrhunderts haben zwei Schäfer auf der so genannten Pfannenwiese ihre Herden gehütet und dabei einen Schatz gefunden, den sie zum Bau der Kirche stifteten. Deshalb sind zwei Ecken des Turmes mit Figuren eines Schäfers und seines Hundes geschmückt. Die Hallenkirche besitzt verschiedenartig gegliederte Pfeiler, einen einschiffigen Chor und Doppeltürme. St. Blasii in der Altstadt, von der nur noch die gotischen Türme (mit Spolien eines romanischen Vorgängerbaus) stehen, während das Kirchenschiff aus dem Barock stammt, wurde wegen fehlender Nutzung durch eine eigene Kirchengemeinde der Stadt übergeben und wird heute vor allem als Konzert- und Ausstellungsraum genutzt. Sehr sehenswert sind die komplett erhaltenen hölzernen Bankeinbauten des 16./17. Jahrhunderts. Neugotische Kirchen. St. Mathilde im Neuendorf wurde von 1856 bis 1858 nach Plänen des Mitarbeiters der Kölner Dombauhütte Friedrich von Schmidt errichtet. 1858 von Bischof Konrad Martin (Paderborn) konsekriert und Mathilde, der Ehefrau König Heinrich I. geweiht, ist sie die Pfarrkirche der katholischen Gemeinde. Der Turm des neugotischen einschiffigen Baus wurde 1984 aus baustatischen Gründen heruntergenommen. In der Süderstadt wurde 1906 St. Johannis errichtet, die sich auf dem Gebiet des ehemaligen Hospitals mit der alten St.-Johannes-Kapelle befindet. Die bereits im 13. Jahrhundert erwähnte St.-Johannis-Kapelle ist in den Jakobsweg eingebunden. Sie war einst die Kirche eines weit vor der Stadt Quedlinburg gelegenen Hospitals. Historische Bauwerke und Plätze. → "Liste der Kulturdenkmale in Quedlinburg" Der Quedlinburger Fachwerkbau. Danach wurden mindestens elf (1 Prozent) Fachwerkhäuser vor 1530 errichtet, weitere 70 (5 Prozent) zwischen 1531 und 1620, mehr als 439 (33 Prozent) zwischen 1621 und 1700, mehr als 552 (42 Prozent) zwischen 1700 und 1800 und 255 (19 Prozent) die im 19. und 20. Jahrhundert erbaut wurden. Insgesamt sind das mehr als 1327 Fachwerkhäuser in Quedlinburg. Im Vergleich haben sich in Wernigerode 624, in Stolberg 354 und in Osterwieck 353 Fachwerkbauten erhalten. In den vergangenen Jahren konnte die Bauforschung mit Hilfe von Dendrochronologie über zwanzig bisher bauzeitlich unbekannte Häuser und Dachstühle aus der Zeit zwischen dem 13. und 15. Jahrhundert identifizieren. Von 1989 bis 2005 gelang durch verschiedene Förderprogramme die Sanierung von etwa 650 der insgesamt 1200 denkmalgeschützten Quedlinburger Fachwerkhäuser. Die Sanierung der verbliebenen etwa 550 Fachwerkhäuser bleibt für die Stadt eine bedeutende Aufgabe der kommenden Jahre. Besonders um die Förderung verdient gemacht hat sich die Deutsche Stiftung Denkmalschutz. Ein Denkmalpflegeplan, der 2012 veröffentlicht wurde, spricht von 2119 Fachwerkbauten, von denen 1689 als Baudenkmale eingestuft sind. Insgesamt gelten 2050 der 3562 Gebäude als ortsbildprägend. Mittelalterliche Wehrbauten. Der Ring der mittelalterlichen Stadtmauer mit seinen Stadttürmen ist in weiten Teilen noch zu sehen. Von den mittelalterlichen Stadttoren, dem Hohen Tor, dem Gröperntor, dem Öringertor und dem Pölkentor hat sich dagegen keines erhalten. Der größte und unheimlichste Turm ist zweifelsohne der Schreckensturm mit Folterkammer und Verlies. Der durch sein grünes Dach leicht erkennbare Lindenbeinsche Turm ist mit einer Galerie versehen und für Besucher geöffnet. Zwei Türme sind heute zu Wohnungen ausgebaut, darunter der Kaiserturm. Einige Türme sind in Privathand, zum Teil in schlechtem baulichen Zustand. Dazu zählen unter anderen der Gänsehirtenturm, der Kuhhirtenturm, der Schweinehirtenturm, der Kruschitzkyturm, der Pulverturm, der Mertensturm und der Spiegelsturm. Von den im Felde um die Stadt befindlichen ehemals elf Wachtürmen, die entlang des Landgrabens oder der Landwehr an wichtigen strategischen Positionen erbaut waren, haben sich sechs, hier so genannte Feldwarten erhalten. Es sind dies die Bicklingswarte, die Lethwarte, die Altenburgwarte, die Gaterslebener Warte, die Steinholzwarte und die Seweckenwarte. Weitgehend durch Steinraub verschwunden sind die Warte auf dem Lehof, die Aholzwarte, die Heidbergwarte, die Anamberger Warte und die Sültenwarte. Sie waren umgeben von befestigten Höfen, die den auf den Feldern arbeitenden Bauern und Hirten als Fliehburg dienten. Die Warttürme wurden auf Bergen an der Gemarkungsgrenze als Frühwarnsystem errichtet und meldeten Gefahren mittels Rauch- und Feuerzeichen an die Stadt. → "Siehe auch: Quedlinburger Landgraben" Parks und Naturdenkmäler. Brühl vom Abteigarten aus gesehen Der größte Park ist der Brühl, ein altes Waldstück, das bereits um 1179 als "broil" genannt und im 16./17. Jahrhundert planmäßig angelegt wurde. Der Brühlpark ist Bestandteil des 40 Gartenanlagen umfassenden Projektes Gartenträume Sachsen-Anhalt. Zwischen Brühl und Schlossberg wurde 2006 der Historische Abteigarten wieder neu gestaltet und mit einem Demeter-Garten versehen. Als weiterer Park steht der Worthgarten im unmittelbaren Stadtbereich Spaziergängern offen. In der Süderstadt wurde der ehemalige Johannisfriedhof im 19. Jahrhundert zur Parkanlage Johannishain umgestaltet. Als Ausflugsziele in der Nähe sind die Altenburg, der Lehof, das Steinholz, der 1913 erworbene Eselstall und die Hamwarte zu nennen. Die dort im 19. Jahrhundert befindlichen Ausflugslokale sind vollständig verschwunden. Theater und Musik. Das Nordharzer Städtebundtheater ist mit je zwei Spielstätten in Halberstadt und in den Städtischen Bühnen Quedlinburg sowie mit Sommerbespielung im Bergtheater Thale aktiv. Weitere Theaterbesuche sind in der Waldbühne Altenbrak, der Seebühne Magdeburg und der Schlossbühne Wolfenbüttel möglich. Der 1981 von Kirchenmusikdirektor Gottfried Biller gegründete Quedlinburger Musiksommer bietet in den Sommermonaten wöchentlich ein Konzert innerhalb einer thematischen Konzertreihe in der Stiftskirche St. Servatii in Quedlinburg an. Von den verschiedenen Chören seien genannt: der Fritz-Prieß-Chor, der Quedlinburger Oratorienchor und der Ökumenische Jugendchor. Regelmäßige Veranstaltungen. Mittlerweile weist Quedlinburg ein zunehmend angenommenes Veranstaltungsprogramm auf. Als größtes Ereignis kristallisiert sich zur Zeit der Advent in den Höfen heraus, bei dem 2006 an jedem Wochenende über 50.000 Besucher und 2007 zum Besuch von Gotthilf Fischer sogar 75.000 in die Stadt kamen. Traditionell am zweiten und dritten Adventswochenende laden bis zu 24 sonst größtenteils geschlossene Höfe zum Geschenkekaufen, Essen, Glühweintrinken und Verweilen ein. Die Reihe der Veranstaltungen beginnt im Frühjahr mit dem sogenannten "Kaiserfrühling" zu Ostern und Pfingsten, einem mittelalterlichen Spektakel in der historischen Altstadt. Mitte Mai folgt die deutschlandweit verbreitete Lange Nacht der Museen. Das Programm "Zauber der Bäume", eine Kunst- und Musikinstallationen im Brühlpark findet am ersten Samstag des Monats Juli statt. Über den Sommer verteilt, von Juni bis September, finden die verschiedenen Aufführungen des Quedlinburger Musiksommers statt. Meist im August findet das "Gildefest" der Quedlinburger Kaufmannsschaft statt. Am zweiten Wochenende im September wird der Tag des offenen Denkmals für Deutschland in Quedlinburg eröffnet. In der Stadt sind über 70 Quedlinburger Denkmäler für Besucher kostenlos geöffnet, die sonst meist verschlossen sind, und es wird eine "Quedlinburger Blumenmesse" am Mathildenbrunnen in der Neustadt veranstaltet. Daneben laden alle drei Monate die Quedlinburger Dixieland- und Swingtage ein, bei denen von einem Konzertort zu nächsten gefahren wird, um die Musik zu genießen; weiterhin findet monatlich eine so genannte Milonga, ein Tanzabend mit argentinischem Tango statt, der von Braunschweiger "Milongueras" ausgerichtet wird. Im Sommer 2009 fand erstmals das weltweit ausgetragene kostenlose Musikfestival Fête de la Musique statt. Straßenanbindung. Die Stadt liegt am Knotenpunkt der Bundesstraßen 79 und 6 sowie der neugebauten vierspurigen B 6n. Der nördliche Anschluss (Quedlinburg-Zentrum) zur B 6n über der mittelalterlichen Siedlung Marsleben (wüst) ist seit 2006 unter Verkehr, der Lückenschluss zwischen Quedlinburg-Zentrum und Quedlinburg-Ost wurde am 1. Dezember 2007 unter Verkehr gestellt. Die Autobahn A 14 ist 40 Kilometer in östlicher, die A 395 44 Kilometer in westlicher, die A 2 50 Kilometer in nördlicher und die A 7 75 Kilometer in westlicher Richtung von der Stadt entfernt. Eisenbahn und ÖPNV. → "Hauptartikel: Bahnhof Quedlinburg" Die 1863 als Durchgangsbahnhof gebaute Station Quedlinburg hat seit 2006 eine herausragende Bedeutung als Verkehrsknotenpunkt erhalten: Hier besteht eine Umstiegsmöglichkeit von der Eisenbahnstrecke Halberstadt–Thale zu den Harzer Schmalspurbahnen über die Trasse der umgespurten Bahnstrecke Quedlinburg-Frose bis Gernrode und weiter über die Selketalbahn und Harzquerbahn zur Brockenbahn. Quedlinburg war seit 1863 Durchgangsbahnhof des Nordharzer Eisenbahnnetzes an der Verbindung von Halberstadt zum Harzrand bei Thale. Auf dieser Verbindung verkehrt stündlich der sogenannte Harz-Elbe-Express im Nahverkehr von Magdeburg über Halberstadt nach Thale. Freitags, samstags und sonntags fährt der private Fernverkehrszug Harz-Berlin-Express von Berlin über Potsdam, Magdeburg, Halberstadt und Quedlinburg nach Thale und zurück. Der frühere Verkehr über die Nebenstrecke Quarmbeck, Gernrode und Ballenstedt nach Ermsleben, der ältesten regelspurigen Nebenbahn des Harzes, des sogenannten "Balkans" wurde 2004 eingestellt. Hier verkehrt heute der Landesbus 318. 2006 wurde der Abschnitt Gernrode-Quedlinburg als Schmalspurbahn reaktiviert. Diese Stichstrecke Frose–Ballenstedt war 1868 von den Magdeburg-Halberstädter Eisenbahnen (MHE) auf Drängen des Herzogs von Anhalt errichtet worden, der sein Schloss in Ballenstedt erreichen wollte. Nachdem die "Deutsche Bahn AG" den normalspurigen Streckenabschnitt nach Aschersleben über Gernrode stillgelegt hatte, wurde am 18. April 2005 mit den Arbeiten zur Verlängerung der Selketalbahn von Gernrode nach Quedlinburg begonnen. Dafür wurde zunächst der Endbahnhof Gernrode zu einem Durchgangsbahnhof umgebaut. Die Selketalbahn der HSB wurde bis Ende Dezember 2005 um 8,5 Kilometer von Gernrode nach Quedlinburg verlängert. Die bestehende Normalspurstrecke – auf der Trasse der stillgelegten Bahnstrecke Frose–Quedlinburg – wurde dazu auf Meterspur umgespurt. Am 4. März 2006 fuhr der erste Schmalspurzug der Harzer Schmalspurbahnen in den Bahnhof Quedlinburg ein, und seit dem 26. Juni 2006 gibt es einen planmäßigen Zugbetrieb der Harzer Schmalspurbahnen bis Quedlinburg mit mindestens zwei Dampfzugpaaren am Tag. Der Busverkehr wird von den Harzer Verkehrsbetrieben im Landkreis Harz durchgeführt. Flugverkehr. In den 1920er Jahren wurde im zwei Kilometer südlich gelegenen Quarmbeck ein Regionalflughafen eröffnet, der in den 1930er Jahren zum Militärflugplatz ausgebaut und in "Römergraben" umbenannt wurde. Während der DDR-Zeit war dort ein sowjetischer Truppenstützpunkt untergebracht. Der Flugbetrieb ist heute eingestellt. Südwestlich in vier Kilometer Entfernung befindet sich der Verkehrslandeplatz Ballenstedt–Quedlinburg, der über eine 800 Meter lange Asphaltbahn verfügt und zum Nachtflugbetrieb zugelassen ist. Als kleiner Sonderlandeplatz (für Flugzeuge bis 5700 Kilogramm zugelassen) befindet sich drei Kilometer nördlich von Aschersleben der Flugplatz Aschersleben. Etwa 22 Kilometer nordöstlich von Quedlinburg befindet sich der seit dem 1. September 2006 wieder aktivierte Flughafen Magdeburg-Cochstedt. Die nächstgelegenen internationalen Flughäfen sind 90 Kilometer südöstlich der Halle und 120 Kilometer nordwestlich der Flughafen Hannover. Historische Entwicklung. Die ersten Nachweise einer Lateinschule der Benediktikirche und der Nikolaikirche reichen bis 1303 zurück. Seit den 1530er-Jahren sind die Rektoren bekannt. Die Lateinschule der Altstadt führte seit 1623 den Namen "Gymnasium illustre" und seit 1776 die Bezeichnung "Fürstliches Gymnasium". Daneben gab es bis 1787 auch acht sogenannte "deutsche Schulen", die Elementarkenntnisse in Lesen, Schreiben und Rechnen vermittelten. Auch eine Mädchenschule wurde bereits 1539 genannt. Im 19. Jahrhundert wurden eine katholische Privatschule, mehrere höhere Mädchenschulen und eine jüdische Privatschule gegründet. Neben dem altsprachlichen Gymnasium und der Oberrealschule entwickelte sich ein neusprachliches Lyceum. Zu DDR-Zeiten wurden die Schulen zu zehn sogenannten Polytechnischen Oberschulen vereinheitlicht, die in zehn Klassen die mittlere Reife vermittelten. Das Abitur konnte in zwei weiteren Jahren auf der Erweiterten Oberschule (EOS) im Konvent (heute GutsMuths-Gymnasium) erworben werden. Grundausbildung. Derzeit gibt es in Quedlinburg fünf Grundschulen, zwei Förderschulen (Sine Cura Schule und Pestalozzischule), zwei Sekundarschulen (Bosse- und Bansischule), ein Gymnasium und die Kreismusikschule. Die "Kleersgrundschule" (ab dem Schuljahr 2008/2009: "Integrationsschule Am Kleers") ist im Rahmen der Errichtung des Neubaugebietes Kleers in den 1980er-Jahren entstanden und führt seit 1991 ihren Namen. Seit 2004 ist sie eine integrative Schule mit Kooperationsklassen, integrativen Klassen und einer umfangreichen Nachmittagsbetreuung, die bei mehreren Landeswettbewerben in den Bereichen Schülerzeitung und Schülertheater siegte. Die "Bosseschule" (von 1983 bis 1991: "Maxim-Gorki-Oberschule") liegt als Sekundarschule inmitten der Altstadt und ist seit 1955 nach dem deutschen Politiker Robert Bosse benannt. Die Schule nimmt seit 2005 an einem Modellversuch "Produktives Lernen" teil, der eine Verknüpfung von Unterricht und betrieblicher Praxis erreichen soll. Durch die Schließung der "Carl-Ritter-Sekundarschule" im Jahr 2004 musste die Bosseschule räumlich umgebaut werden, um einen Teil der zusätzlichen Schüler aufnehmen zu können. Die ehemalige Oberrealschule, jetzt GutsMuths-Gymnasium Das "GutsMuths-Gymnasium" besteht aus zwei Gebäuden: dem 1903 gebauten denkmalgeschützten Hauptgebäude im Konvent und dem "Erxleben-Haus" in der Süderstadt, welches von 1991 bis 1998 als "Süderstadt-Gymnasium" und bis 2004 als "Dorothea-Erxleben-Gymnasium" bezeichnet wurde. Beide Schulen fusionierten im Jahre 2004. In der Süderstadt sind die Klassen 5 bis 9 und im Konvent die Oberstufenklassen 10 bis 12 untergebracht. Die Schule zeichnet sich durch ein breit gefächertes Angebot von Freizeitangeboten aus, darunter Projekte wie "Das Lernen lernen" oder Musik am Computer. Seit 2006 trägt die Schule den Titel "Schule ohne Rassismus, Schule mit Courage". Seit 2007 ist sie eine Ganztagsreferenzschule in Sachsen-Anhalt. Die "Musikschule Johann Heinrich Rolle", Außenstelle der Kreismusikschule Harz und Mitglied im Verband deutscher Musikschulen (VdM), ist 1952 aus dem seit 1945 bestehenden Landeskonservatorium hervorgegangen. Die musikalische Ausbildung von Kindern und Jugendlichen ist ihr Hauptziel. Dafür werden in Quedlinburg und an den betreuten Außenstellen Thale, Ballenstedt und Harzgerode ungefähr 560 Schüler in 30 Fächern instrumental und vokal unterrichtet. Weiterführende Bildungsmöglichkeiten. Landesfachschule für Gartenbau (links), St. Wiperti (rechts) vom Münzenberg nach Süden Weiterführende Bildung ermöglichen die Berufsbildende Schule, die Volkshochschule, die Landesfachschule für Gartenbau, das Deutsche Fachwerkzentrum und eine Reihe von Bildungswerken, wie das Regionale Kompetenzzentrum Harz des "Europäischen Bildungswerkes für Beruf und Gesellschaft e.V.", das Bildungszentrum für das "Hotel- und Gaststättengewerbe Ostharz GmbH", das "Bildungswerk der Wirtschaft Sachsen-Anhalt e.V." und die Kreishandwerkerschaft Harzland-Staßfurt. Die Berufsbildende Schule führt seit 2007 den Namen des Quedlinburger Firmengründers und Saatzüchters "Johann Peter Christian Heinrich Mette" (1735–1806). Die amerikanische Texas Tech University bietet in Quedlinburg (Deutsch-)Kurse für ihre Studenten an. Die "Landesfachschule für Landwirtschaft, Forsten und Gartenbau, Fachbereich Gartenbau" des Ministeriums für Landwirtschaft und Umwelt befindet sich in Quedlinburg. Sie bietet ein- und zweijährige Fachschulausbildungen (staatlich geprüfter Techniker, Wirtschafter, hauswirtschaftlicher Betriebsleiter) in den Bereichen Garten- und Landschaftsbau und Hauswirtschaft sowie Vorbereitungskurse auf die Meisterprüfung in den genannten Bereichen an. Wegen zu geringer Schülerzahlen ist eine Schließung zum Juni 2013 geplant. Seit 1999 bildet das IBB – Institut für Berufliche Bildung, A. Gesche an der Berufsfachschule für Kosmetik staatlich geprüfte Kosmetiker/innen aus. Außerdem bietet das IBB pflegerische, kosmetische und kaufmännische Weiterbildungen sowie Berufsausbildungen an der Berufsfachschule Altenpflege und Altenpflegehilfe und der staatlich anerkannten Schule für Podologie (Podologe/Podologin) an. Das "Deutsche Fachwerkzentrum Quedlinburg" wurde 2002 als Trägerverein der Deutschen Stiftung Denkmalschutz, des Landes Sachsen-Anhalt und der Stadt Quedlinburg unter Mithilfe der Deutschen Bundesstiftung Umwelt gegründet. Das Zentrum betreut ökologische Sanierungen und Bauforschungen und ermöglicht Jugendlichen ein Freiwilliges Jahr in der Denkmalpflege in einer "Jugendbauhütte". In der Kreisbibliothek Quedlinburg stehen 67.500 Medien zur Ausleihe. Freizeit- und Sportanlagen. In der Stadt gibt es ein 1903 eröffnetes Hallenbad und eine 2004 eröffnete moderne Dreifelderhalle. Für den Schulsport stehen eine Reihe von Sporthallen zur Verfügung, die zum Teil schon älter sind, so wurde die Kleersturnhalle 1910 erbaut. Die größten öffentlichen Sportplätze befinden sich am Moorberg südlich der Stadt und an der Lindenstraße, nordöstlich der Stadt. Im Jahr 2001 wurde das in den 1950er Jahren gebaute Freibad unweit des letztgenannten Sportplatzes geschlossen und eingeebnet. Die Judo-Halle auf dem Gelände der Polizei ist teilweise für den Breitensport zugänglich. Gesundheitswesen. Das Harzklinikum Dorothea Christiane Erxleben befindet sich am östlichen Stadtrand. Das 1907 eingeweihte Krankenhaus wurde in den 1990er-Jahren zum Haus der Schwerpunktversorgung ausgebaut, es ist zudem Lehrkrankenhaus des Universitätsklinikums der Otto-von-Guericke-Universität Magdeburg. Das Klinikum mit 481 stationären und 50 teilstationären Betten besitzt zwölf stationäre Fachbereiche und drei tagesklinische Einrichtungen. Das Hauttumorzentrum des Klinikums ist neben dem Dessauer das einzige zertifizierte in Sachsen-Anhalt. Jährlich werden ca. 20.000 stationäre und 20.000 ambulante Patienten betreut. Friedhöfe. Größter kommunaler Friedhof ist der 1906 eingerichtete Städtische Zentralfriedhof am Badeborner Weg. Er befindet sich im Südosten der Stadt und sein Wegenetz ist sternförmig auf die Kapelle ausgerichtet. Während des Ersten Weltkrieges wurden hier über 700 verstorbene kriegsgefangene Soldaten und ein Großteil der über 160 gefallenen Quedlinburger begraben. Das Gleiche geschah im Zweiten Weltkrieg mit mindestens 110 Kriegsgefangenen und einer unbekannten Zahl Quedlinburger. In dieser Zeit wurde das Krematorium (gebaut 1928) auch zur Verbrennung von mindestens 912 Opfern des KZ Langenstein-Zwieberge benutzt. Die historischen kirchlichen Friedhöfe befanden sich im unmittelbaren Umfeld der jeweiligen Kirche. Sie lagen innerhalb der Stadtmauern an folgenden Stellen: St.-Aegidii-Friedhof nordöstlich der Kirche, er ist bis auf einzelne späte Grabsteine fast vollständig verschwunden; der St.-Benedikti-Kirchhof liegt unter der neuzeitlichen Pflasterung und wird zum Teil als Parkplatz genutzt (ein Mausoleum ist erhalten); der St.-Nikolai-Kirchhof ist heute eine Grünanlage; ein weiterer Friedhof der St.-Nikolai-Gemeinde lag zwischen der östlichen Bebauung (im nördlichen Teil) der Ballstraße und der Stadtmauer (diese Grünanlage ist als privates Gartengelände erhalten). Alle innerhalb der Stadtmauern gelegenen Friedhöfe wurden zu Beginn des 19. Jahrhunderts aufgelassen. Die Gemeinden legten in der Folge neue Friedhöfe vor den Toren der Stadt an: den Friedhof der Marktkirchgemeinde in der Weststraße (seit 1843, Kapelle 1915), den Friedhof der Blasiikirchgemeinde an der Zwergkuhle (neuerrichtet 1841 bis 1843), den Friedhof der Aegidiigemeinde am Ziegelhohlweg (Mitte 19. Jahrhundert), den Friedhof der Katholischen Gemeinde Weststraße (seit 1868) und den Wiperti- und Servatiikirchhof links und rechts der Wipertistraße (Kapelle 1934/1935). An dieser Stelle befindet sich eine Quedlinburger Besonderheit: die in den Felsen des Kapellenberges eingehauene dreistöckige terrassenförmige Gruftanlage mit über zwanzig Grüften auf jeder Etage und Seite des Berges. Darüber hinaus wurde der Friedhof der jüdischen Gemeinde Quedlinburgs im 19. Jahrhundert von der Straße Weingarten an die Stelle der heutigen Anlage des Jüdischen Friedhof Quedlinburgs an der Zwergkuhle verlegt. Ehemalige Gaststätte „Börse“ im Steinweg Ortsansässige Unternehmen. Zu Zeiten der Industrialisierung wuchs auch in Quedlinburg die wirtschaftliche Kraft. Im Süden der Stadt siedelten sich zahlreiche Betriebe, Unternehmen und Firmen an, die besonders in den Bereichen Metallverarbeitung oder landwirtschaftliche Samenzucht zu Hause waren. Der Zuwachs der Beschäftigten in dieser Zeit kam in dem neu gebauten Wohngebiet der "Süderstadt" unter. Nach dem Zweiten Weltkrieg wurden alle diese Werke zwangsenteignet und in staatliche Formen wie Volkseigener Betrieb oder Landwirtschaftliche Produktionsgenossenschaft überführt. Größter Arbeitgeber wurde das Werk "Mertik", der Nachfolgebetrieb von "Hartmann & Söhne", in dem zwischenzeitlich mehr als 3000 Menschen beschäftigt waren. Als weiterer ehemaliger Betrieb ist der VEB Union zu nennen, in dem Schnellkochtöpfe (auch für den Export) und Essgeschirre für die Nationale Volksarmee hergestellt wurden. Das ehemalige volkseigene Gut "August Bebel" hat Saatgut für den landwirtschaftlichen Bedarf und Spezial-Kulturen erzeugt. Viele dieser Betriebe, deren Produktion fast ausschließlich auf die Mitgliedsstaaten des sozialistischen Rates für gegenseitige Wirtschaftshilfe ausgerichtet war, gingen nach der Wiedervereinigung 1990 in die Insolvenz. Die leeren Betriebs- und Lagerhallen stehen zum Teil bis heute. Eines der wenigen Unternehmen, das die Marktanpassung geschafft hat, ist die Walzengießerei & Hartgusswerk Quedlinburg GmbH, die 1865 gegründet wurde und eine der wenigen Gießereien in Sachsen-Anhalt ist. Die Nachfolgeeinrichtungen der 1945 enteigneten Saatzuchtbetriebe wurden nach 1990 zu Teilinstituten der Bundesanstalt für Züchtungsforschung an Kulturpflanzen (BAZ), einer dem Bundesministerium für Ernährung, Landwirtschaft und Verbraucherschutz zugeordneten Forschungseinrichtung, umgewandelt. Von den neun Teilinstituten der BAZ befinden sich fünf in Quedlinburg. Es sind dies das Institut für gartenbauliche Kulturen, das Institut für Epidemiologie und Resistenzressourcen, das Institut für Resistenzforschung und Pathogendiagnostik, das Institut für Pflanzenanalytik und das Forschungs- und Koordinierungszentrum für pflanzengenetische Ressourcen. Seit Jahresbeginn 2008 hat das neu gegründete Julius Kühn-Institut – Bundesforschungsinstitut für Kulturpflanzen (JKI), entstanden aus der Biologische Bundesanstalt für Land- und Forstwirtschaft (BBA), der BAZ und der Bundesforschungsanstalt für Landwirtschaft (FAL), seinen Hauptsitz in Quedlinburg. Neben der Funktion des Hauptsitzes dieser Forschungseinrichtung, sind nun sechs Forschungsschwerpunkte: Epidemiologie und Pathogendiagnostik, Ökologische Chemie, Pflanzenanalytik und Vorratsschutz, Resistenzforschung und Stresstoleranz, Sicherheit biotechnologischer Verfahren bei Pflanzen, Züchtungsforschung an gartenbaulichen Kulturen und Obst und Züchtungsforschung an landwirtschaftlichen Kulturen in Quedlinburg angesiedelt. Auch privatwirtschaftliche Unternehmen wie "satimex Quedlinburg", "Quedlinburger Saatgut" oder "International Seeds Processing" (ISP) konnten sich etablieren. Wirtschaftsbereiche. Die Wirtschaftsbereiche unterteilen sich in: 2 Prozent Landwirtschaft, 19,29 Prozent Industrie und 78,71 Prozent Dienstleistungsbereich. Die Landwirtschaft ist spezialisiert auf Saatzucht, die Industrie auf Baugewerbe mit Spezialleistungen für Restaurierung und Sanierung, Bauelementefertigung, Holzverarbeitung, Metallverarbeitung und Pharmazie sowie Druckerei, der Dienstleistungssektor vornehmlich auf Tourismus. Tourismus. Der Tourismus stellt für Quedlinburg eine der wichtigsten wirtschaftlichen Größen dar, und so zählt die Schaffung einer modernen touristischen Infrastruktur zu den Hauptvorhaben. An Übernachtungskapazitäten in Quedlinburg stehen den auswärtigen Gästen 20 Pensionen, 18 Hotels und eine Jugendherberge zur Verfügung. Die Anzahl der Übernachtungen ist stark saisonabhängig, mit Spitzenwerten um Ostern, von Mai bis Juli, von September bis Oktober und zum Advent/Jahreswechsel. Größte Schwächezeit ist von Januar bis März. In den Spitzenzeiten sind die Kapazitäten in Quedlinburg und im ganzen Vorharz sehr stark ausgelastet. Die meisten Hotels wurden nach 1994 neu gebaut oder vollständig saniert. Seit 1994 ist Quedlinburg Teil der südlichen Route der Straße der Romanik, einer touristischen Straße zu den romanischen Denkmälern Sachsen-Anhalts. Die St.-Johannes-Kapelle ist seit 2003 eine Station der deutschen Verlängerung des Jakobsweges. Ganz in der Nähe verlaufen die Deutsche Fachwerkstraße und die Deutsche Alleenstraße. Seit dem 12. November 2008 ist die Stadt staatlich anerkannter Erholungsort. Der Reiseführer „1000 places to see before you die“ nennt Quedlinburg: „Ein Märchen aus Fachwerk“, der Reiseführer Lonely Planet spricht von einem „ungeschliffenen Juwel“, und die Stadt selbst hat sich 2006 den Leitspruch „Quedlinburg – Wiege Deutschlands“ gegeben (bis 1990 „Blumenstadt Quedlinburg“, bis 2006 „Neugierig auf …?“). Persönlichkeiten. → "Hauptartikel: Liste von Persönlichkeiten der Stadt Quedlinburg" Söhne und Töchter der Stadt. Zu den bekannten Persönlichkeiten, die in Quedlinburg geboren wurden, zählen unter anderen der Rechtswissenschaftler Johann Salomon Brunnquell (1693–1735), Dorothea Erxleben (* 1715), die als erste deutsche Frau in Medizin promovierte, Friedrich Gottlieb Klopstock (* 1724), der Begründer der Erlebnisdichtung und des deutschen Irrationalismus, Johann Christoph Friedrich GutsMuths (* 1759), der als Begründer des modernen Sportunterrichts und Vater der Gymnastik gilt, und auch der Begründer der wissenschaftlichen Erdkunde, Carl Ritter (* 1779). Aus neuerer Zeit sind zu nennen: der Dichter und Maler Fritz Graßhoff (1913–1997), der Schriftsteller Volker von Törne (1934–1980), die ehemalige Präsidentin des Bundesrechnungshofes (1993–2001) Hedda von Wedel (* 1942) und Leander Haußmann (* 1959), der u.a. bei den Filmen Sonnenallee, Herr Lehmann und NVA Regie geführt hat. Ehrenbürger. Zahlreiche Persönlichkeiten wurden zu Ehrenbürgern der Stadt Quedlinburg ernannt, zum Teil abhängig von den politischen Verhältnissen. So wurden in der Zeit des Nationalsozialismus am 20. April 1933 Adolf Hitler (1889–1945) und am 1. Juni 1937 Heinrich Himmler (1900–1945) die Ehrenbürgerwürde verliehen und nach dem Ende des Zweiten Weltkrieges sofort wieder aberkannt. Zu den bekanntesten Personen, die durch die Stadt Quedlinburg das Ehrenbürgerrecht erhielten, zählen: 1895 Otto von Bismarck (1815–1898), der erste Kanzler des Deutschen Reiches, 1910 Julius Wolff (1834–1910), ein Dichter und Schriftsteller, und 1998 Gottfried Kiesow (1931–2011), Vorstandsvorsitzender der Deutschen Stiftung Denkmalschutz. → "Siehe auch: Liste der Äbtissinnen von Quedlinburg" Medien, Literatur und Filme. Die Mitteldeutsche Zeitung ist mit einer Lokalredaktion in Quedlinburg vertreten. Weiterhin die lokal erscheinenden Blätter "SuperSonntag", "Wochenspiegel" und "Harzer Kreisblatt". Regionalprogramm des Öffentlich-rechtlichen Rundfunks ist der Mitteldeutsche Rundfunk (MDR) mit Regionalbüro in Halberstadt. Der Sender des Regionalfernsehens Harz (RFH) kann über das örtliche Kabelnetz hauptsächlich im Harzkreis empfangen werden. Die Handlung einiger Romane ist in Quedlinburg und Umgebung angesiedelt. So handelt Wilhelm Raabes Roman Der Schüdderump (1869) auf der fruchtbaren Erde des geschichtsträchtigen Quedlinburger Landes. Weiterhin spielt der erste Teil von Theodor Fontanes Roman Cécile (1887) in Quedlinburg und Thale, ebenso die verschiedenen Romane zur ersten promovierten deutschen Ärztin Dorothea Christiane Erxleben und Julius Wolffs Roman der "Der Raubgraf. Eine Geschichte aus dem Harzgau" (1884). Weiterhin von Gerhard Beutel "Der Stadthauptmann von Quedlinburg" (Berlin 1972), von Helga Glaesener "Du süße sanfte Mörderin" (München 2000), von Christian Amling "Quitilinga History Land" (2005) und "Odins Fluch. Ein neuer Fall für Irenäus Moll" (2006). Sonstiges. An lokal produzierten kulinarischen Spezialitäten sind Imkererzeugnisse, wie reiner Rapshonig, Senfprodukte und Edelbrand aus regionalen Früchten, und das einzige noch in Quedlinburg gebraute Bier "Pubarschknall" der Brauerei Lüdde zu nennen. Ferner hat der im überregional bekannten Cafè "St. Vincent" produzierte Käsekuchen (Käsekuchenkönig) eine gewisse Berühmtheit erlangt. Das Hochseeschiff (Typ XD) MS "Quedlinburg" war im August 1967 auf der Warnow-Werft in Rostock vom Stapel gelaufen und fuhr bis Februar 1991 für den VEB Deutsche Seereederei Rostock. Am 4. Mai 2004 wurde im Hauptbahnhof Magdeburg der ICE Nr. 242 (Baureihe 402/ICE 2) auf den Namen "Quedlinburg" getauft und am 24. September 2008 auf dem Flughafen Frankfurt am Main ein Flugzeug (Bombardier CRJ700) der Lufthansa CityLine. Eine 126 Tonnen schwere Diesellok (Bauart Voith Maxima 40 CC) erhielt am 27. Mai 2011 den Namen "Quedlinburg", da sie für den Transport vom neugebauten Verladebahnhof bei Quedlinburg aus vorgesehen ist. Panoramen. 180°-Panorama vom Schlossberg in Richtung Norden, links die Altstadt und rechts die Neustadt Panoramablick vom Schlossberg nach Norden auf die Altstadt Panoramablick nach Norden auf den Bahnhof mit Dampfzug der Harzer Schmalspurbahn Quagga. Das Quagga ("Equus quagga quagga") ist eine ausgestorbene Zebra-Form. Sie gilt als südliche Unterart des Steppenzebras ("Equus quagga"), die sich durch eine, verglichen mit anderen Zebraformen, weitestgehende Reduktion der Bestreifung an Rumpf und Beinen auszeichnet. Das Quagga wurde Ende des 19. Jahrhunderts vom Menschen ausgerottet. Merkmale. Die ursprüngliche Beschreibung des Quaggas nannte das Tier eine „Mischform aus Pferd und Zebra“, was die äußere Erscheinung gut wiedergibt, aber nichts mit den tatsächlichen Verwandtschaftsverhältnissen zu tun hat. Kräftig schwarz-weiß gestreift waren lediglich Kopf und Hals. Zum Rumpf hin wurden die Streifen blasser und verschmolzen zu einem einfarbigen Rotbraun. Es gab aber auch Tiere mit einer deutlichen Streifenbildung bis zum hinteren Teil des Körpers. Die Beine waren nicht gestreift. Es wurde bis zu 1,30 Meter groß. Verbreitung und Aussterben. a>s "African scenery and animals" (1804) Das Quagga war in Südafrika weit verbreitet und soll bis ins 17. Jahrhundert einer der häufigsten Großsäuger gewesen sein. Dann begann die exzessive Jagd, bei der Tausende von Quaggas geschossen wurden. Farmer betrachteten die Wildtiere als Nahrungskonkurrenten ihrer Rinder, die Tiere wurden aber auch wegen Fleisch und Leder gejagt. Südafrika galt zudem unter Mitgliedern der finanziell gutgestellten Oberschicht als Jagdparadies, wodurch sehr viele Tiere aus „sportlichen“ Motiven getötet wurden. Um 1850 war das Quagga südlich des Oranje ausgestorben. Die letzten wilden Quaggas grasten im Oranje-Freistaat, doch auch diese Bestände wurden ausgerottet. Das letzte wilde Quagga wurde schätzungsweise in den späten 1870ern geschossen, nach der Dürre von 1877, der letzte kleinere Populationen zum Opfer fielen, galt das wildlebende Quagga als ausgestorben. Das letzte Tier in Gefangenschaft starb am 12. August 1883 im Artis-Zoo in Amsterdam. Allerdings berichtet der deutsche Schutztruppenoffizier Victor Franke in seinen Tagebuchaufzeichnungen 1901 noch von kleineren Quaggaherden, die er im damaligen Deutsch-Südwestafrika beobachtet haben will. Franke berichtet aber an mehreren Stellen, dass er es nicht über sich brächte, auf die „wunderschönen und herrlichen“ Quaggas zu schießen. DNA-Analysen haben gezeigt, dass das Quagga keine eigene Art von Zebra war, sondern eine Unterart des Steppenzebras ("Equus quagga"). Das Quagga bewohnte die trockeneren Grasland-Gebiete in Südafrika. Die nördliche Verbreitungsgrenze scheinen der Oranje, im Osten der Vaal gewesen zu sein, als Südgrenze wird der Great Kei River vermutet. Systematische Stellung. Die systematische Stellung des Quaggas war und ist umstritten. Die Lehrmeinung, das Quagga als Unterart einzustufen, wurde durch genetische Untersuchungen an Museumsmaterial in den 1980er Jahren gestützt. Die vor allem im angelsächsischen Raum verbreitete Lehrmeinung, das Quagga als eigene Art einzustufen, stützen die genetischen Daten nicht, jedoch werden diese aufgrund der beschränkten Datenbasis von Befürwortern des Artstatus für das Quagga sehr kritisch betrachtet. Schon in den 1960er Jahren wurde es gelegentlich als Unterart des Steppenzebras eingeordnet. Aber 1980 versuchte sich D.K. Bennett an einer Analyse der Schädelform und kam zu dem Schluss, dass das Quagga mit dem Hauspferd wesentlich näher verwandt sein müsse als mit jeder Zebra-Art. Um die Frage endgültig zu klären, wurden 1984 vier alten Museumsexemplaren Gewebeproben entnommen, aus denen DNA-Fragmente extrahiert werden konnten. Diese waren mit Proben des Steppenzebras nahezu identisch, so dass der Schluss gezogen wurde, das Quagga sei eine Unterart des Steppenzebras gewesen. Dieser Schluss ist allerdings immer noch nicht gänzlich unumstritten. So kritisieren Mace A. Hack, Rod East und Dan I. Rubenstein in ihrer Analyse für die IUCN ursprünglich ("Status and Action Plan for the Plains Zebra"), dass eine genetische Analyse auf Basis so fragmentarischer Proben kaum aussagekräftig sei und dass dem Quagga wegen seiner farblichen und formlichen Andersartigkeit der Status einer eigenen Art eingeräumt werden müsse. Untersuchungen aus dem Jahr 2004 ergaben aber auch unter morphologischen und anatomischen Gesichtspunkten eine Stellung des Quaggas als Unterart des Steppenzebras, so dass dies auch heute von der IUCN anerkannt wird. In einer neueren Studie von Jennifer Leonhard (Smithsonian Institution) an Genmaterial von acht Museums-Exponaten wurde darauf geschlossen, dass sich das Quagga vor etwa 120.000 bis 290.000 Jahren vom Steppenzebra abgezweigt hätte. Da in dieser Zeit die Eisbedeckung der Erde besonders hoch war, erörtert die Wissenschaftlerin, dass ein Klimawechsel die Ursache für diese Aufzweigung gewesen sein könnte. Abbildzüchtung. Mehrere genetische Untersuchungen bestätigten die nahe Verwandtschaft mit dem Steppenzebra, die 1984 veröffentlichten DNA-Analysen waren darüber hinaus Anlass, ein Abbildzüchtungsprojekt des Quaggas aus südlichen Steppenzebras zu starten. Vor allem einzelne Vertreter der südlichen Unterart des Steppenzebras ("E.q. burchelli") zeigen eine deutliche Reduktion der Streifen, was an die deutliche Streifenreduktion des Quaggas erinnert. Mittlerweile wird im von Reinhold Rau (1932–2006) im Jahr 1986 initiierten "Quagga Project" versucht, durch selektive Zucht eine Steppenzebra-Zuchtlinie aufzubauen, die äußerlich an die Quaggas erinnert. Mehrere Exemplare ab der dritten Generation zeigen mittlerweile bereits eine erhebliche Streifenreduktion. Ziel des Projekts ist ein Tier, das dem Quagga sehr ähnlich sieht und möglicherweise in den einstigen Lebensräumen ausgewildert werden kann. Etymologie. Der Name „Quagga“ wurde einer Sprache der Khoi Khoi entlehnt. Das Doppel-G wurde ursprünglich als kehliges ch ausgesprochen, was heute aber nicht mehr getan wird. Angeblich leitet sich der kehlige Laut vom Ruf des Quaggas ab. Da es aber keine Tonaufzeichnungen der Tiere gibt, ist dies heute nicht mehr nachzuvollziehen. Quantenfeldtheorie. Die Quantenfeldtheorie (QFT) ist ein Gebiet der theoretischen Physik, in dem Prinzipien klassischer Feldtheorien (zum Beispiel der klassischen Elektrodynamik) und der Quantenmechanik zur Bildung einer erweiterten Theorie kombiniert werden. Sie geht über die Quantenmechanik hinaus, indem sie Teilchen und Felder einheitlich beschreibt. Dabei werden nicht nur sog. Observablen (also beobachtbare Größen wie Energie oder Impuls) quantisiert, sondern auch die wechselwirkenden (Teilchen-)Felder selbst; Felder und Observable werden also analog behandelt. Die Quantisierung der Felder bezeichnet man auch als Zweite Quantisierung. Diese berücksichtigt explizit die Entstehung und Vernichtung von Elementarteilchen (Paarerzeugung, Annihilation). Die Methoden der Quantenfeldtheorie kommen vor allem in der Elementarteilchenphysik und in der statistischen Mechanik zur Anwendung. Man unterscheidet dabei zwischen "relativistischen Quantenfeldtheorien", die die spezielle Relativitätstheorie berücksichtigen und häufig in der Elementarteilchenphysik Anwendung finden, und "nicht-relativistischen Quantenfeldtheorien", die beispielsweise in der Festkörperphysik relevant sind. Die Objekte und Methoden der QFT sind physikalisch motiviert, auch wenn viele Teilbereiche der Mathematik zum Einsatz kommen. Die Axiomatische Quantenfeldtheorie versucht dabei, Grundlagen und Konzepte in einen mathematisch rigorosen Rahmen zu fassen. Motivation. Die Quantenfeldtheorie ist eine Weiterentwicklung der Quantenphysik über die Quantenmechanik hinaus. Die vorher existierenden Quantentheorien waren ihrem Aufbau nach Theorien für Systeme mit wenigen Teilchen. Um Systeme mit vielen Teilchen zu beschreiben ist zwar prinzipiell keine neue Theorie nötig, doch die Beschreibung von 1023 Teilchen in einem Festkörper ist mit den Methoden der Quantenmechanik ohne Näherungen aufgrund des hohen Rechenaufwands rein technisch unmöglich. Ein fundamentales Problem der Quantenmechanik ist ihre Unfähigkeit, Systeme mit variierender Teilchenzahl zu beschreiben. Die ersten Versuche einer Quantisierung des elektromagnetischen Feldes zielten darauf ab, die Emission von Photonen durch ein Atom beschreiben zu können. Außerdem gibt es nach der relativistischen Klein-Gordon-Gleichung und der Dirac-Gleichung die oben erwähnten Antiteilchen-Lösungen. Bei ausreichender Energie ist es dann möglich, Teilchen-Antiteilchen-Paare zu erzeugen, was ein System mit konstanter Teilchenzahl unmöglich macht. Zur Lösung dieser Probleme behandelt man das Objekt, das in der Quantenmechanik als Wellenfunktion eines Teilchens interpretiert wurde, als "Quantenfeld". Das heißt, dass man es ähnlich behandelt, wie eine Observable der Quantenmechanik. Dies löst nicht nur die zuvor genannten Probleme, sondern beseitigt auch Inkonsistenzen der klassischen Elektrodynamik, wie sie z. B. in der Abraham-Lorentz-Gleichung auftreten. Außerdem erhält man Begründungen für das Pauli-Prinzip und das allgemeinere Spin-Statistik-Theorem. Grundlagen. Die Quantenfeldtheorien sind ursprünglich als relativistische Streutheorien entwickelt worden. In gebundenen Systemen sind die Teilchenenergien im Allgemeinen deutlich kleiner als die Massenenergien "mc2". Daher ist es in solchen Fällen meist ausreichend genau, in der nichtrelativistischen Quantenmechanik mit der Störungstheorie zu arbeiten. Bei Kollisionen zwischen kleinen Teilchen können jedoch sehr viel höhere Energien auftreten, so dass relativistische Effekte berücksichtigt werden müssen. Im folgenden Abschnitt wird erklärt, welche Schritte zur Entwicklung einer relativistischen Streutheorie nötig sind. Zunächst wird dazu die Lagrangedichte aufgestellt, dann werden die Felder quantisiert. Zuletzt wird mit den quantisierten Feldern eine Streutheorie beschrieben und ein dabei auftretendes Problem durch die Renormierung gelöst. Lagrangedichte. Der erste Schritt zu einer Quantenfeldtheorie besteht darin, Lagrangedichten für die Quantenfelder zu finden. Diese Lagrangedichten müssen als Euler-Lagrange-Gleichung die im Allgemeinen bekannte Differentialgleichung für das Feld liefern. Das sind für ein Skalarfeld die Klein-Gordon-Gleichung, für ein Spinorfeld die Dirac-Gleichung und für das Photon die Maxwellgleichungen. Im Folgenden wird immer 4er-(Raumzeit)-Vektoren-Schreibweise verwendet. Dabei werden die üblichen Kurzschreibweisen benutzt, nämlich die Kurzschreibweise formula_1 für Differentiale und die Einsteinsche Summenkonvention, die besagt, dass über einen oben und einen unten stehenden Index (von 0 bis 3) summiert wird. Im verwendeten Einheitensystem gilt: formula_2. Dabei bezeichnet formula_12 die Dirac-Matrizen. formula_13 ist der sogenannte adjungierte Spinor. formula_14 sind die Komponenten des Feldstärketensors. Dabei wurden hier die Maxwellgleichungen in kovarianter Formulierung ohne die Quellenterme (Ladungs- und Stromdichte) benutzt. Erlaubte Terme sind zum Beispiel formula_15 wobei "m" und "n" natürliche Zahlen sind (einschließlich Null) und "k" die Kopplungskonstante ist. Wechselwirkungen mit dem Photon werden meist durch die kovariante Ableitung (formula_16) in der Lagrangedichte für das freie Feld realisiert. Dabei ist die elektrische Ladung "e" des Elektrons hier zugleich die Kopplungskonstante des elektromagnetischen Feldes. Feldquantisierung. Bisher wurde noch keine Aussage über die Eigenschaften der Felder gemacht. Bei starken Feldern mit einer großen Zahl von Bosonen-Anregungen können diese halbklassisch behandelt werden, im Allgemeinen muss man aber zunächst einen Mechanismus entwickeln, um die Auswirkungen der Quantennatur der Felder zu beschreiben. Die Entwicklung eines solchen Mechanismus bezeichnet man als "Feldquantisierung" und sie ist der erste Schritt, um das Verhalten der Felder berechenbar zu machen. Es gibt dabei zwei verschiedene Formalismen, die unterschiedliches Vorgehen beinhalten. Im Folgenden werden die Grundlagen der Feldquantisierung für freie Felder in beiden Formalismen erklärt. Kanonischer Formalismus. Für die Feldquantisierung im kanonischen Formalismus benutzt man den Hamilton-Formalismus der klassischen Mechanik. Man ordnet dabei jedem Feld (formula_17 bzw. formula_18) ein "kanonisch konjugiertes Feld" formula_19 analog dem kanonischen Impuls zu. Das Feld und sein kanonisch konjugiertes Feld sind dann im Sinne der Quantenmechanik konjugierte Operatoren, sogenannte Feldoperatoren, und erfüllen eine Unschärferelation, wie Ort und Impuls in der Quantenmechanik. Die Unschärferelation kann entweder durch eine Kommutatorrelation (für Bosonen nach dem Spin-Statistik-Theorem) oder eine Antikommutatorrelation (für Fermionen) analog zum Kommutator von Ort und Impuls realisiert werden. Diese Relation muss einen positiven Hamilton-Operator ergeben, da dieser die Energie des Systems charakterisiert und negative Energien vermieden werden sollen. Den Hamilton-Operator erhält man, indem man die Hamilton-Funktion bildet und dann die Felder durch Operatoren ersetzt. Skalare Felder. Für skalare Felder erhält man formula_20 als kanonisch konjugiertes Feld zu formula_21 und formula_22 als kanonisch konjugiertes Feld zu formula_23. Die geforderte Kommutatorrelation lautet Es ist in Quantenfeldtheorien üblich, im Impulsraum zu rechnen. Dazu betrachtet man die Fourier-Darstellung des Feldoperators, die für das Skalarfeld lautet Dabei sind formula_26 der Impuls und formula_27 die Stufenfunktion, die bei negativem Argument 0 und sonst 1 ist. Da formula_28 und formula_29 Operatoren sind, trifft dies auch auf formula_30, formula_31, formula_32 und formula_33 zu. Ihre Kommutatoren folgen aus dem Kommutator der Feldoperatoren. Der Operator formula_31 kann als Operator interpretiert werden, der ein Teilchen mit Impuls formula_26 erzeugt, während formula_33 ein Antiteilchen mit Impuls formula_26 erzeugt. Entsprechend können formula_30 und formula_32 als Operatoren interpretiert werden, die ein Teilchen oder Antiteilchen mit Impuls formula_26 vernichten. Die Verwendung der Kommutatorrelationen führt wie gewünscht zu einem positiv definiten Hamilton-Operator. Es können beliebig viele Skalarfelder im selben Zustand sein (Bose-Einstein-Statistik). Spinorfelder. Wenn man für ein Spinorfeld analog vorgeht, erhält man formula_41 als kanonisch konjugiertes Feld zu formula_6 und formula_43 als kanonisch konjugiertes Feld zu formula_44. Damit ergeben sich die geforderten (Anti-)Kommutatorrelationen zu Dabei sind formula_46 und formula_47 Spinorindizes. Man betrachtet dann wieder analog die Fourier-Darstellung des Feldoperators und berechnet den Hamilton-Operator. Einen positiven Hamilton-Operator erhält man beim Spinorfeld jedoch nur, wenn man Antikommutatoren benutzt. Diese werden mit geschweiften Klammern geschrieben, was in den obigen Formeln bereits vorweggenommen wurde. Aufgrund dieser Antikommutatoren ergibt die zweimalige Anwendung desselben Erzeugungsoperators auf einen Zustand den Nullzustand. Das bedeutet, dass nie zwei Spin-1/2-Teilchen im selben Zustand sein können (Pauli-Prinzip). Spinorfelder gehorchen daher der Fermi-Dirac-Statistik. Eichfelder. Für Eichfelder lauten die geforderten Kommutatorrelationen wobei formula_49 die Komponenten der Minkowski-Metrik bezeichnet. Allerdings erhält man aus der Lagrangedichte formula_50, was die geforderte Kommutatorrelation nicht erfüllen kann. Die Quantisierung von Eichfeldern ist daher nur bei Festlegung einer Eichbedingung möglich. Die Festlegung einer geeigneten Eichbedingung, die den Zugang über Kommutatorrelationen von Feldern ermöglicht und gleichzeitig die Lorentzinvarianz der Lagrangedichte erhält, ist kompliziert. Man verwendet meist eine Abwandlung der Lorenz-Eichung, um sinnvoll ein kanonisch konjugiertes Feld definieren zu können. Der Formalismus wird nach seinen Entwicklern Suraj N. Gupta und Konrad Bleuler als Gupta-Bleuler-Formalismus bezeichnet. Eine Alternative stellt eine physikalische Eichung wie z.B. die temporale plus eine weitere Eichbedingung dar. Hier werden zwei der vier Polarisationen des Eichfeldes als physikalische Freiheitsgrade direkt durch die Wahl der Eichung formula_51 sowie durch die anschließende Implementierung des Gaußschen Gesetzes formula_52 als Bedingung an die physikalischen Zustände eliminiert. Der wesentliche Vorteil ist die Reduzierung des Hilbertraumes auf ausschließlich physikalische, transversale Freiheitsgrade. Dem steht als Nachteil der Verlust einer manifest kovarianten Formulierung gegenüber. Pfadintegral. Im Pfadintegralformalismus werden die Felder nicht als Operatoren, sondern als einfache Funktionen behandelt. Das Pfadintegral stellt im Wesentlichen eine Übergangsamplitude von einem Vakuumzustand zum Zeitpunkt formula_53 zu einem Vakuumzustand zum Zeitpunkt formula_54 dar, wobei über alle dazwischen möglichen Feldkonfigurationen ("Pfade") integriert wird, mit einem Phasenfaktor, der durch die Wirkung festgelegt wird. Es hat für das Skalarfeld die Form Um allerdings überhaupt Wechselwirkungen bei einem Übergang vom Vakuum zum Vakuum zu erhalten, müssen Felder erzeugt und vernichtet werden können. Dies wird im Pfadintegralformalismus nicht mithilfe von Erzeugungs- und Vernichtungsoperatoren, sondern durch Quellenfelder erzielt. Es wird also zur Lagrangedichte ein Quellenterm der Form formula_56 hinzugefügt. Das Quellenfeld "J(x)" soll nur in einem endlichen Intervall auf der Zeitachse von Null verschieden sein. Das bedeutet, dass die wechselwirkenden Felder genau innerhalb dieses Zeitintervalls existieren. Das volle Pfadintegral für ein freies Skalarfeld hat damit die Form Dabei ist formula_60 gegeben durch formula_61 also gewissermaßen als das Inverse des Klein-Gordon-Operators. Dieses Objekt wird als zeitgeordnete Greensche Funktion oder Feynman-Propagator bezeichnet. Man bezeichnet das Pfadintegral daher auch als "Erzeugendenfunktional des Propagators", da die Ableitungen nach formula_62 und formula_63 effektiv einer Multiplikation mit dem Propagator entsprechen. Das Verhalten des freien Feldes in Anwesenheit von Quellen wird nur durch den Propagator und das Quellenfeld bestimmt. Dieses Ergebnis entspricht der Erwartung, denn das Verhalten eines Feldes, das nicht wechselwirkt, ist offenbar nur durch seine Eigenschaften bei Erzeugung und Vernichtung und seine freie Bewegung bestimmt. Erstere stecken im Quellenfeld und das Bewegungsverhalten wird durch den Klein-Gordon-Operator bestimmt, dessen Informationsgehalt hier durch sein Inverses gegeben ist. Bei der Quantisierung des Spinorfeldes im Pfadintegral-Formalismus tritt das Problem auf, dass die Felder einerseits wie normale zahlenwertige Funktionen behandelt werden, auf der anderen Seite jedoch antikommutieren. Normale Zahlen kommutieren jedoch. Diese Schwierigkeit lässt sich lösen, indem man die Fermionfelder als Elemente einer Graßmann-Algebra, sogenannte Graßmann-Zahlen, auffasst. Rechnerisch bedeutet das nur, dass man sie wie antikommutierende Zahlen behandelt. Durch die Graßmann-Algebra ist diese Vorgehensweise theoretisch abgesichert. Das Pfadintegral mit Quellenfeldern formula_64 und formula_65 hat dann die Form Dabei ist formula_70 das Inverse des Dirac-Operators, das auch als Dirac-Propagator bezeichnet wird. Analog zum skalaren Feld ergibt sich auch hier eine Form, die erwartungsgemäß nur von den Quellenfeldern und der Dynamik der Felder bestimmt ist. Das Pfadintegral für ein Eichfeld ist von der Form Der Operator formula_72 hat jedoch kein Inverses. Das erkennt man daran, dass er bei Anwendung auf Vektoren des Typs formula_73 Null ergibt. Mindestens einer seiner Eigenwerte ist also Null, was analog einer Matrix dafür sorgt, dass der Operator nicht invertierbar ist. Daher lässt sich hier nicht dieselbe Vorgehensweise anwenden, wie beim skalaren Feld und beim Spinorfeld. Man muss der Lagrangedichte einen zusätzlichen Term hinzufügen, so dass man einen Operator erhält, zu dem es ein Inverses gibt. Dies ist äquivalent dazu, eine Eichung festzulegen. Daher bezeichnet man den neuen Term als "eichfixierenden Term". Er ist allgemein von der Form formula_74. Die dazu korrespondierende Eichbedingung lautet formula_75. Das führt jedoch dazu, dass die Lagrangedichte von der Wahl des Eichterms "f" abhängt. Dieses Problem lässt sich durch das Einführen von sogenannten Faddejew-Popow-Geistern beheben. Diese Geister sind antikommutierende skalare Felder und widersprechen damit dem Spin-Statistik-Theorem. Sie können daher nicht als freie Felder auftreten, sondern nur als sogenannte virtuelle Teilchen. Durch die Wahl der sogenannten Axial-Eichung lässt sich das Auftreten dieser Felder vermeiden, was ihre Interpretation als mathematische Artefakte naheliegend erscheinen lässt. Ihr Auftreten in anderen Eichungen ist jedoch aus tieferliegenden theoretischen Gründen (Unitarität der S-Matrix) zwingend notwendig für die Konsistenz der Theorie. Die vollständige Lagrangedichte mit eichfixierendem Term und Geistfeldern ist von der Eichbedingung abhängig. Für die Lorenz-Eichung lautet sie bei nichtabelschen Eichtheorien Dabei ist formula_65 das Geistfeld und formula_78 das Anti-Geistfeld. Für abelsche Eichtheorien wie den Elektromagnetismus nimmt der letzte Term unabhängig von der Eichung die Form formula_79 an. Daher kann dieser Teil des Pfadintegrals einfach integriert werden und trägt nicht zur Dynamik bei. Das Pfadintegral liefert auch einen Zusammenhang mit den Verteilungsfunktionen der statistischen Mechanik. Dazu wird die "imaginäre" Zeitkoordinate im Minkowskiraum analytisch in den euklidischen Raum fortgesetzt und statt komplexer Phasenfaktoren im Wegintegral erhält man reelle ähnlich den Boltzmann-Faktoren der statistischen Mechanik. In dieser Form ist diese Formulierung auch Ausgangspunkt von numerischen Simulationen der Feldkonfigurationen (meist zufällig im Monte-Carlo-Verfahren mit einer Wichtung über diese "Boltzmannfaktoren" ausgewählt) in Gitter-Rechnungen. Sie liefern die bisher genauesten Methoden z. B. für die Berechnung von Hadronmassen in der Quantenchromodynamik. Streuprozesse. Wie oben schon ausgeführt, ist das Ziel der vorangegangenen Verfahren die Beschreibung einer relativistischen Streutheorie. Obwohl die Methoden der Quantenfeldtheorien heute auch in anderen Zusammenhängen genutzt werden, ist die Streutheorie noch heute eines ihrer Hauptanwendungsgebiete, daher werden die Grundlagen derselben an dieser Stelle erläutert. Das zentrale Objekt der Streutheorie ist die sogenannte "S-Matrix" oder "Streumatrix", deren Elemente die Übergangswahrscheinlichkeit von einem Anfangszustand formula_80 in einen Ausgangszustand formula_81 beschreiben. Die Elemente der S-Matrix bezeichnet man als Streuamplituden. Auf der Ebene der Felder ist die S-Matrix also bestimmt durch die Gleichung Die S-Matrix lässt sich im Wesentlichen als Summe von Vakuumerwartungswerten von zeitgeordneten Feldoperatorprodukten (auch n-Punkt-Funktionen, Korrelatoren oder Greensche Funktionen genannt) schreiben. Ein Beweis dieser sogenannten LSZ-Zerlegung ist einer der ersten großen Erfolge der axiomatischen Quantenfeldtheorie. Im Beispiel einer Quantenfeldtheorie, in der es nur ein Skalarfeld gibt, hat die Zerlegung die Form Dabei ist "K" der Klein-Gordon-Operator und T der Zeitordnungsoperator, der die Felder aufsteigend nach dem Wert der Zeit formula_84 ordnet. Falls noch andere Felder als das Skalarfeld vorkommen, müssen jeweils die entsprechenden Hamilton-Operatoren verwendet werden. Für ein Spinorfeld muss z. B. der Dirac-Operator statt des Klein-Gordon-Operators verwendet werden. Zur Berechnung der S-Matrix genügt es also, die zeitgeordneten n-Punkt-Funktionen formula_85 berechnen zu können. Feynman-Regeln und Störungstheorie. Als nützliches Werkzeug zur Vereinfachung der Berechnungen der n-Punkt-Funktionen haben sich die Feynman-Diagramme erwiesen. Diese Kurzschreibweise wurde 1950 von Richard Feynman entwickelt und nutzt aus, dass sich die Terme, die bei der Berechnung der n-Punkt-Funktionen auftreten, in eine kleine Anzahl elementarer Bausteine zerlegen lassen. Diesen Term-Bausteinen werden dann Bildelemente zugeordnet. Diese Regeln, nach denen diese Zuordnung geschieht, bezeichnet man als Feynman-Regeln. Die Feynman-Diagramme ermöglichen es damit, komplizierte Terme in Form kleiner Bilder darzustellen. Dabei gibt es zu jedem Term in der Lagrangedichte ein entsprechendes Bildelement. Der Massenterm wird dabei zusammen mit dem Ableitungsterm als ein Term behandelt, der das freie Feld beschreibt. Diesen Termen werden für verschiedene Felder meist verschiedene Linien zugeordnet. Den Wechselwirkungstermen entsprechen dagegen Knotenpunkte, sogenannte "Vertices", an denen für jedes Feld, das im Wechselwirkungsterm steht, eine entsprechende Linie endet. Linien, die nur an einem Ende mit dem Diagramm verbunden sind, werden als reale Teilchen interpretiert, während Linien, die zwei Vertices verbinden als virtuelle Teilchen interpretiert werden. Es lässt sich auch eine Zeitrichtung im Diagramm festlegen, so dass es als eine Art Veranschaulichung des Streuprozesses interpretiert werden kann. Dabei muss man jedoch zur vollständigen Berechnung einer bestimmten Streuamplitude alle Diagramme mit den entsprechenden Anfangs- und Endteilchen berücksichtigen. Wenn die Lagrangedichte der Quantenfeldtheorie Wechselwirkungsterme enthält, sind dies im Allgemeinen unendlich viele Diagramme. Wenn die Kopplungskonstante kleiner ist als eins, werden die Terme mit höheren Potenzen der Kopplungskonstante immer kleiner. Da nach den Feynmanregeln jeder Vertex für die Multiplikation mit der entsprechenden Kopplungskonstante steht, werden die Beiträge von Diagrammen mit vielen Vertices sehr klein. Die einfachsten Diagramme liefern also den größten Beitrag zur Streuamplitude, während die Diagramme mit zunehmender Kompliziertheit gleichzeitig immer kleinere Beiträge liefern. Auf diese Weise lassen sich die Prinzipien der Störungstheorie unter Erzielung guter Ergebnisse für die Streuamplituden anwenden, indem nur die Diagramme niedriger Ordnung in der Kopplungskonstanten berechnet werden. Renormierung. Die Feynman-Diagramme mit geschlossenen inneren Linien, die sogenannten Schleifendiagramme (z. B. Wechselwirkung eines Elektrons mit „virtuellen“ Photonen aus dem Vakuum, Wechselwirkung eines Photons mit virtuell erzeugten Teilchen-Antiteilchen Paaren aus dem Vakuum), sind meist divergent, da über alle Energien/Impulse (Frequenz/Wellenzahl) integriert wird. Das hat zur Folge, dass sich kompliziertere Feynman-Diagramme zunächst nicht berechnen lassen. Dieses Problem lässt sich jedoch häufig durch ein sogenanntes Renormierungsverfahren beheben, nach einer falschen Rückübersetzung aus dem Englischen auch manchmal als „Renormalisierung“ bezeichnet. Es gibt grundsätzlich zwei verschiedene Sichtweisen auf diese Prozedur. Die erste traditionelle Sichtweise ordnet die Beiträge der divergierenden Schleifendiagramme so an, dass sie wenigen Parametern in der Lagrangefunktion wie Massen und Kopplungskonstanten entsprechen. Dann führt man Gegenterme (counter terms) in der Lagrangefunktion ein, die als unendliche „nackte“ Werte dieser Parameter diese Divergenzen aufheben. Das ist in der Quantenelektrodynamik möglich, ebenso in der Quantenchromodynamik und anderen solchen Eichtheorien, bei anderen Theorien wie der Gravitation dagegen nicht. Dort wären unendlich viele Gegenterme nötig, die Theorie ist „nicht renormierbar“. Eine zweite neuere Sichtweise aus dem Umfeld der Renormierungsgruppe beschreibt die Physik je nach Energiebereich durch verschiedene „effektive“ Feldtheorien. Beispielsweise ist die Kopplungskonstante in der Quantenchromodynamik energieabhängig, für kleine Energien geht sie gegen Unendlich (confinement), für hohe Energien gegen Null (Asymptotische Freiheit). Während in der QED die „nackten“ Ladungen durch die Vakuumpolarisation (Paarerzeugung und -vernichtung) wirksam abgeschirmt werden, liegt der Fall bei Yang-Mills-Theorien wie der QCD wegen der Selbstwechselwirkung der geladenen Eichbosonen komplizierter. Man vermutet, dass sich alle Kopplungskonstanten physikalischer Theorien bei genügend hohen Energien annähern, und dort wird die Physik dann durch eine große vereinheitlichte Theorie der Grundkräfte beschrieben. Das Verhalten von Kopplungskonstanten und die Möglichkeit von Phasenübergängen mit der Energie wird durch die Theorie der Renormierungsgruppe beschrieben. Aus solchen theoretischen Extrapolationen hat es in den 1990er Jahren erste Hinweise auf die Existenz supersymmetrischer Theorien gegeben, für die sich die Kopplungskonstanten am besten in einem Punkt treffen. Die technische Vorgehensweise ist jedoch unabhängig von der Sichtweise. Es wird zunächst eine Regularisierung vorgenommen, indem ein zusätzlicher Parameter in die Rechnung eingeführt wird. Dieser Parameter muss zuletzt wieder gegen null oder unendlich laufen (je nach Wahl) um die ursprünglichen Terme wieder zu erhalten. Solange der Regularisierungsparameter jedoch als endlich angenommen wird, bleiben die Terme endlich. Man formt dann die Terme so um, dass die Unendlichkeiten nur noch in Termen auftreten, die reine Funktionen des Regularisierungsparameters sind. Diese Terme werden dann weggelassen. Danach setzt man den Regulierungsparameter null bzw. unendlich, wobei das Ergebnis nun endlich bleibt. Diese Vorgehensweise wirkt auf den ersten Blick willkürlich, doch das „Weglassen“ muss nach bestimmten Regeln erfolgen. Dadurch wird sichergestellt, dass die renormierten Kopplungskonstanten bei niedrigen Energien den gemessenen Konstanten entsprechen. Antiteilchen. Ein spezielles Gebiet der relativistischen Quantenmechanik betrifft Lösungen der relativistischen Klein-Gordon-Gleichung und der Dirac-Gleichung mit negativer Energie. Dies würde es Teilchen erlauben, zu unendlicher negativer Energie abzusteigen, was in der Realität nicht beobachtet wird. In der Quantenmechanik löst man dieses Problem, indem man die entsprechenden Lösungen willkürlich als Entitäten mit positiver Energie interpretiert, die sich rückwärts in der Zeit bewegen; man überträgt also in der Wellenfunktion das negative Vorzeichen von der Energie "E" auf die Zeit "t", was wegen der Beziehung formula_86 naheliegend ist ( "h"  ist die Plancksche Konstante und formula_87 das der Energiedifferenz formula_88 zugeordnete Frequenzintervall). Paul Dirac interpretierte diese rückwärts bewegten Lösungen als Antiteilchen. Standardmodell. Durch Kombination des elektroschwachen Modells mit der Quantenchromodynamik entsteht eine vereinte Quantenfeldtheorie, das so genannte Standardmodell der Elementarteilchenphysik. Es enthält alle bekannten Teilchen und kann die meisten bekannten Vorgänge erklären. Gleichzeitig ist aber bekannt, dass das Standardmodell nicht die endgültige Theorie sein kann. Zum einen ist die Gravitation nicht enthalten, zum anderen gibt es eine Reihe von Beobachtungen (Neutrinooszillationen, Dunkle Materie), nach denen eine Erweiterung des Standardmodells notwendig scheint. Außerdem enthält das Standardmodell viele willkürliche Parameter und erklärt z. B. das sehr unterschiedliche Massenspektrum der Elementarteilchenfamilien nicht. Die im Folgenden erläuterten Quantenfeldtheorien sind alle im Standardmodell enthalten. "ϕ"4-Theorie. Die Lagrangedichte der formula_89-Theorie lautet Diese Quantenfeldtheorie besitzt große theoretische Bedeutung, da sie die einfachste denkbare Quantenfeldtheorie mit einer Wechselwirkung ist und hier im Gegensatz zu realistischeren Modellen einige exakte mathematische Aussagen über ihre Eigenschaften gemacht werden können. Sie beschreibt ein selbstwechselwirkendes reelles oder komplexes Skalarfeld. In der statistischen Physik spielt sie eine Rolle als einfachstes Kontinuumsmodell für die (sehr allgemeine) Landau-Theorie der Phasenübergänge zweiter Ordnung und der kritischen Phänomene. Von der statistischen Interpretation aus bekommt man zugleich einen neuen und konstruktiven Zugang zum Renormierungsproblem, indem gezeigt wird, dass die Renormierung der Massen, Ladungen und Vertex-Funktionen durch Eliminierung kurzwelliger Wellenphänomene aus der sog. Zustandssumme formula_91 (englisch: „Partition Function“) erreicht werden kann. Auch das Higgsfeld des Standardmodells hat eine formula_89-Selbstwechselwirkung, die allerdings noch um Wechselwirkungen mit den anderen Feldern des Standardmodells ergänzt wird. In diesen Fällen ist die Kopplungskonstante "m2" negativ, was einer imaginären Masse entspräche. Diese Felder werden daher als tachyonische Felder bezeichnet. Diese Bezeichnung bezieht sich jedoch auf das "Higgsfeld" und nicht auf das "Higgs-Teilchen", das sog. Higgs-Boson, welches kein Tachyon, sondern ein gewöhnliches Teilchen mit reeller Masse ist. Das Higgsteilchen wird auch nicht durch das Higgsfeld beschrieben sondern nur durch einen bestimmten Anteil dieses Feldes. Quantenelektrodynamik. Die Lagrangedichte der Quantenelektrodynamik (QED) lautet Die QED ist die erste physikalisch erfolgreiche Quantenfeldtheorie. Sie beschreibt die Wechselwirkung eines Spinorfeldes mit Ladung "-e", das das Elektron beschreibt, mit einem Eichfeld, das das Photon beschreibt. Man erhält ihre Bewegungsgleichungen aus der Elektrodynamik durch Quantisierung der maxwellschen Gleichungen. Die Quantenelektrodynamik erklärt mit hoher Genauigkeit die elektromagnetische Wechselwirkung zwischen geladenen Teilchen (zum Beispiel Elektronen, Myonen, Quarks) mittels Austausch von virtuellen Photonen sowie die Eigenschaften von elektromagnetischer Strahlung. Dadurch lassen sich etwa die chemischen Elemente, ihre Eigenschaften und Bindungen und das Periodensystem der Elemente verstehen. Auch die Festkörperphysik mit der wirtschaftlich bedeutsamen Halbleiterphysik leiten sich letztendlich von der QED ab. Konkrete Rechnungen werden allerdings in der Regel im vereinfachten, aber ausreichenden Formalismus der Quantenmechanik durchgeführt. Schwache Wechselwirkung. Die schwache Wechselwirkung, deren bekanntester Effekt der Betazerfall ist, nimmt eine physikalisch geschlossene Formulierung nach Vereinheitlichung mit der QED im elektroschwachen Standardmodell an. Die Wechselwirkung wird hier durch Photonen, W- und Z-Bosonen vermittelt. Quantenchromodynamik. Ein anderes Beispiel einer QFT ist die Quantenchromodynamik (QCD), welche die Starke Wechselwirkung beschreibt. In ihr wird ein Teil der im Atomkern auftretenden Wechselwirkungen zwischen Protonen und Neutronen auf die subnukleare Wechselwirkung zwischen Quarks und Gluonen reduziert. Interessant ist in der QCD, dass die Gluonen, welche die Wechselwirkung vermitteln, selbst miteinander wechselwirken. (Das wäre am Beispiel der QED etwa so, als ob sich zwei durchdringende Lichtstrahlen direkt beeinflussen würden.) Eine Konsequenz dieser gluonischen Selbstwechselwirkung ist, dass die elementaren Quarks nicht einzeln beobachtet werden können, sondern immer in Form von Quark-Antiquark-Zuständen oder Zuständen dreier Quarks (oder Antiquarks) auftreten (Confinement). Auf der anderen Seite folgt daraus, dass die Kopplungskonstante bei hohen Energien nicht zunimmt, sondern abnimmt. Dieses Verhalten wird als "asymptotische Freiheit" bezeichnet. Spontane Symmetriebrechung. Wie oben schon angesprochen, eignet sich die formula_89-Theorie zur Beschreibung von Systemen mit spontaner Symmetriebrechung oder kritischen Punkten. Der Massenterm wird dazu als Teil des Potentials verstanden. Für eine reelle Masse hat dieses Potential dann nur ein Minimum, während bei imaginärer Masse das Potential eine w-förmige Parabel vierten Grades beschreibt. Wenn das Feld mehr als eine reelle Komponente hat, erhält man noch mehr Minima. Bei einem komplexen Feld (mit zwei reellen Komponenten) erhält man zum Beispiel die Rotationsfigur der w-förmigen Parabel mit einem Minimakreis. Diese Form wird auch als "Mexican Hat Potential" bezeichnet, da das Potential an die Form eines Sombrero erinnert. Jedes Minimum entspricht nun einem Zustand niedrigster Energie, die vom Feld alle mit gleicher Wahrscheinlichkeit angenommen werden. In jedem dieser Zustände hat das Feld jedoch ein geringeres Maß an Symmetrie, da die Symmetrie der Minima untereinander durch Auswahl eines Minimums verloren geht. Diese Eigenschaft der klassischen Feldtheorie überträgt sich auf die Quantenfeldtheorie, so dass sich die Möglichkeit ergibt, Quantensysteme mit gebrochener Symmetrie zu beschreiben. Beispiele für solche Systeme sind das Ising-Modell aus der Thermodynamik, das die spontane Magnetisierung eines Ferromagneten erklärt, und der Higgs-Mechanismus, der die Massen der Eichbosonen in der schwachen Wechselwirkung erklärt. Durch die erhaltenen Massenterme der Eichbosonen wird nämlich die Eichsymmetrie reduziert. Axiomatische Quantenfeldtheorie. Die Axiomatische Quantenfeldtheorie versucht, ausgehend von einem Satz möglichst weniger, als mathematisch oder physikalisch unumgänglich angesehener Axiome, eine konsistente Beschreibung der Quantenfeldtheorie zu erzielen. Die axiomatische Quantenfeldtheorie wurde u.a. aus den Wightman-Axiomen, entstanden im Jahr 1956, begründet. Ein weiterer Zugang ist die von Haag und Araki 1962 formulierte algebraische Quantenfeldtheorie, die durch die Haag-Kastler-Axiome charakterisiert wird. Die Osterwalder-Schrader-Axiome stellen einen dritten axiomatischen Zugang zur Quantenfeldtheorie dar. Etliche konkrete Ergebnisse konnten mit dieser Herangehensweise erzielt werden, zum Beispiel die Herleitung des Spin-Statistik-Theorems und des CPT-Theorems alleine aus den Axiomen, d.h. unabhängig von einer speziellen Quantenfeldtheorie. Ein früher Erfolg war die 1955 von Lehmann, Symanzik und Zimmermann entwickelte LSZ-Reduktionsformel für die S-Matrix. Außerdem existiert ein von Bogoliubov, Medvedev und Polianov begründeter funktionalanalytischer Zugang zur S-Matrix-Theorie (auch BMP-Theorie genannt). Verhältnis zu anderen Theorien. Versuche, diese Quantenfeldtheorien mit der allgemeinen Relativitätstheorie (Gravitation) zur Quantengravitation zu vereinen, sind bisher ohne Erfolg geblieben. Nach Ansicht vieler Forscher erfordert die Quantisierung der Gravitation neue, über die Quantenfeldtheorie hinausgehende Konzepte, da hier der Raum-Zeit Hintergrund selbst dynamisch wird. Beispiele aus der aktuellen Forschung sind die Stringtheorie, die M-Theorie und die Loop-Quantengravitation. Weiter liefern die Supersymmetrie, die Twistor-Theorie und die Finite Quantenfeldtheorie wichtige konzeptionelle Ideen, die zurzeit in der Fachwelt diskutiert werden. Auch in der Festkörpertheorie finden sich Anwendungen der (nicht-relativistischen) Quantenfeldtheorie, und zwar hauptsächlich in der Vielteilchentheorie. Literatur. Allgemeine Einführungen in das Thema (jeweils in Alphabetischer Reihenfolge) Quintenzirkel. Als Quintenzirkel bezeichnet man in der Musiktheorie eine Reihe von zwölf im Abstand temperierter Quinten angeordneten Tönen, deren letzter Ton die gleiche Tonigkeit wie der erste hat und demzufolge mit ihm gleichgesetzt werden kann. Diese Gleichsetzung ist jedoch nur möglich auf Grund einer enharmonischen Verwechslung, die an beliebiger Stelle erfolgen kann. Durch die Rückkehr zum Anfang ergibt sich ein „Rundgang“, der grafisch als Kreis (lat.:" circulus" „Kreis“) dargestellt wird. Quartenzirkel. Ein Quartenzirkel entsteht, wenn man statt von Quinten von temperierten Quarten ausgeht, was jedoch für die Theorie keinen Unterschied zum Quintenzirkel ausmacht. Arnold Schönberg begründet dies folgendermaßen: „Geht man in der einen Richtung des Kreises (C, G, D, A usw.), so ist das der Quintenzirkel, oder wie ich lieber sage: Quintenzirkel aufwärts, weil es die über dem Ausgangspunkt sich aufbauenden Quinten sind. Geht man in der entgegengesetzten Richtung des Kreises, so erhält man C, F, B, Es usw., was manche den Quartenzirkel nennen, was aber wenig Sinn hat, denn C, G ist Quint nach oben oder Quart nach unten und C, F Quint nach unten oder Quart nach oben. Deshalb nenne ich die entgegengesetzte Richtung lieber Quintenzirkel abwärts.“ Da man Quintschritte nach oben auch durch Quartschritte nach unten ersetzen kann, ist es möglich, einen Rundgang durch den Quintenzirkel innerhalb einer Oktave durchzuführen: zentriert Dies ist auch die gebräuchlichste Reihenfolge der Bassknöpfe bei einem Akkordeon, Stradella-Bass genannt. Quintenzirkel und Quintenspirale. Der Quintenzirkel ist kein von der Natur vorgegebenes Ordnungssystem wie etwa die Obertonreihe, sondern eine künstliche Konstruktion, die nur auf Grund von temperierten Stimmungen und ihrer Möglichkeit zur enharmonischen Umdeutung von Tönen denkbar ist. In einer Stimmung mit theoretisch reinen Quinten, wie der pythagoreischen Stimmung, kann kein geschlossener Quintenzirkel, sondern nur eine Quintenspirale verwirklicht werden: Zwölf Quinten ("c g d a e h fis cis gis dis ais eis his") umschließen zwar ein Intervall von circa sieben Oktaven; nimmt man jedoch die Quinten und Oktaven mit ihren reinen Schwingungszahlverhältnissen 3:2 und 2:1 an, so zeigt sich rechnerisch, dass der Abschlusston "his" der Quintenreihe geringfügig (um ca. einen Achtelton) höher ist als das gleichzeitig erreichte letzte "c" der Oktavenreihe. Dieser Unterschied, pythagoreisches Komma genannt, verhindert die Gleichsetzung von "his" und "c" sowie aller anderen, ebenfalls um das pythagoreische Komma verschiedenen, enharmonischen Tonpaare ("fis/ges, dis/es, ais/b" usw.). Die Quintenfolge schließt sich somit nicht zum Kreis, sondern lässt sich nur als Spirale darstellen. Würde man dessen ungeachtet versuchen, den Kreis „mit Gewalt“ zu schließen, so ginge das nur über eine sogenannte Wolfsquinte. Das Problem, die Quintenspirale ohne solche misstönenden Wolfsquinten zum Kreis zu schließen, wird bei der heute verbreiteten gleichstufig temperierten Stimmung dadurch gelöst, dass man jede der zwölf Quinten um 1/12 des pythagoreischen Kommas verkleinert, so dass man mit dem zwölften Quintschritt exakt zur siebten Oktave des Ausgangstons gelangt. Durch die gleichmäßige Verteilung des Kommas wird erreicht, dass zwar außer der Oktave kein Intervall mehr ganz rein klingt, die Unsauberkeiten jedoch so gering bleiben, dass sie kaum noch stören. Der Quintenzirkel im Dur-Moll-System. Obwohl der Quintenzirkel für sich weder sachlich noch historisch zwingend an das Dur-Moll-System gebunden ist, wird er heute in erster Linie verwendet, um die Verhältnisse im Bereich der Dur- und Molltonarten zu veranschaulichen. Die nebenstehende Grafik zeigt im Äußeren des Kreises die Dur-Tonarten, die im Deutschen mit Großbuchstaben bezeichnet werden. Im Inneren des Kreises stehen die parallelen Moll-Tonarten, die mit kleinen Buchstaben benannt werden. Sie haben jeweils die gleichen Vorzeichen wie die zugehörigen Dur-Tonarten. Der Grafik ist zu entnehmen, dass bei einem Fortschreiten im Quintenzirkel mit jeder Tonart ein Vorzeichen hinzutritt oder verschwindet. Die Dur-Tonarten mit b-Vorzeichen (). Auch hier lässt sich die Reihenfolge der mit einem zu versehenden Noten (H, E, A, D, G, C, F, …) aufgrund des Quintabstandes im Quintenzirkel ablesen, wenn man bei H beginnt und gegen den Uhrzeigersinn weitergeht. Die Molltonarten. Die Molltonarten sind im Quintenzirkel als Paralleltonarten den Durtonarten zugeordnet. (Paralleltonarten haben die gleichen Vorzeichen.) Bei Kenntnis der Vorzeichen für die Durtonarten kann man die Vorzeichen einer bestimmten Molltonart leicht ermitteln, wenn man weiß, dass die parallele Durtonart stets eine kleine Terz (= drei Halbtonschritte) höher liegt. So hat beispielsweise g-Moll die gleichen Vorzeichen wie das um eine kleine Terz höhere B-Dur. Tonarten mit mehr als sechs Vorzeichen. Die Reihe der Kreuz- und b-Tonarten ließe sich beliebig fortführen, bei den Kreuztonarten etwa: Cis-Dur mit sieben , Gis-Dur mit acht  bis hin zu Eis-Dur mit elf  usw. Aber das macht nicht nur die Notation sehr unübersichtlich; weitere Erhöhungen bereits erhöhter Töne führen auch im Klangbild nur zu schon dagewesenen Tönen. So würde bei His-Dur (zwölf ) neben den aus Fis-Dur schon bekannten 6  ein „His“ (klingend wie C), ein „Fisis“ (doppelte Erhöhung von F, klingend wie G), ein „Cisis“ (klingend wie D), ein „Gisis“ (klingend wie A), ein „Disis“ (klingend wie E) und ein „Aisis“ (klingend wie H) hinzutreten. Da aber His-Dur sich (bei gleichstufiger Stimmung) nicht von C-Dur unterscheidet, wäre eine solche Notation wenig sinnvoll. Deshalb nutzt man das Phänomen der klanglichen Gleichheit unterschiedlich benannter Töne zur "enharmonischen Verwechslung": Statt der immer komplizierter werdenden Kreuztonarten verwendet man die entsprechenden, gleich klingenden -Tonarten, etwa statt Gis-Dur (8 ) As-Dur (4 ). Oder, um beim Beispiel der Tonart „Eis-Dur“ zu bleiben: Statt elf  braucht F-Dur nur ein einziges. Tonarten mit mehr als sechs Vorzeichen werden so gut wie nie eingesetzt, wenn es um die Wahl der Grundtonart eines Musikstücks geht. Bachs Verwendung von Cis-Dur (7 ) im Wohltemperierten Klavier hat Seltenheitswert. Im Verlauf eines Musikstücks kann es jedoch sinnvoll sein, auch Tonarten mit vielen Vorzeichen zu verwenden. So würde man z. B. bei einer kurzzeitigen Modulation von E-Dur (4 ) in die Obermediante Gis-Dur (8 ) die Notierung mit Kreuzen beibehalten, um den harmonischen Zusammenhang zu verdeutlichen. Erst wenn ein längeres Verweilen in der neuen Tonart angestrebt wird, ist es üblich, die alten Vorzeichen aufzulösen und durch die einfachere Schreibweise der enharmonischen Tonart (in diesem Falle As-Dur mit 4 ) zu ersetzen. Anwendung des Quintenzirkels auf modale Tonarten. In der Tabelle sind „gleichnamige“, also auf dem gleichen Grundton basierende Tonarten aufgeführt, wobei die durgeschlechtlichen Tonarten mit einem großen C, die mollgeschlechtlichen mit einem kleinen c gekennzeichnet sind. Die Zirkeldarstellung rechts zeigt parallele Tonarten: Die jeweils auf einem bestimmten Radius liegenden Tonarten haben gleiche Vorzeichen. Ermittlung der Quintenbreite. Auch bei der Bestimmung der Größe der Quintenbreite kann der Quintenzirkel verwendet werden. Ordnet man jedem Ton einer Tongruppe seine Position im Quintenzirkel zu, lässt sich der größte Abstand zweier Töne in Quintsprüngen leicht ablesen. Kompositionen mit besonderem Bezug zum Quintenzirkel. Die Verwirklichung des Quintenzirkels mit Hilfe temperierter Stimmungen und die dadurch geschaffene Möglichkeit des uneingeschränkten Gebrauchs aller Tonarten fand ihren Niederschlag in Kompositionen, welche die Möglichkeiten der Transposition und Modulation in besonderer Weise ausschöpfen. Einzelwerke. Die folgenden Kompositionen modulieren durch alle Tonarten des Quintenzirkels. Beispiele aus der Rock-/Popmusik: Der französische Perkussionist Pierre Moerlen spielte Ende der 1970er Jahre einige Stücke, die sich durch den Quintenzirkel bewegten, u. a. mit seinem Bruder Benoît und den Oldfield-Geschwistern. Quelltext. Unter dem Begriff Quelltext, auch Quellcode () oder unscharf "Programmcode" genannt, wird in der Informatik der für Menschen lesbare, in einer Programmiersprache geschriebene Text eines Computerprogrammes verstanden. Abstrakt betrachtet kann der Quelltext für ein Programm auch als "Software-Dokument" bezeichnet werden, welches das Programm formal so exakt und vollständig beschreibt, dass dieses aus ihm vollständig automatisch von einem Computer in Maschinensprache übersetzt werden kann. Ein Quelltext kann auch (teilweise oder komplett) nicht-textueller Form sein, zum Beispiel als grafische Verknüpfung von logischen Funktionsblöcken (beispielsweise in Simulink oder als UML-Diagramm). Der Quelltext eines Programms kann mehrteilig sein, zum Beispiel auf mehrere Dateien (evtl. unterschiedlicher Formate) aufgeteilt sein oder teilweise grafisch, teilweise textuell vorliegen (z. B. UML, angereichert mit Methodenimplementierungen in der verwendeten Programmiersprache). Erstellung. Der Quelltext wird meist manuell mit Hilfe einer integrierten Entwicklungsumgebung oder eines Texteditors erstellt, aber es gibt auch Codegeneratoren, die den Code aus strukturierten Entwurfsdokumenten, z. B. Struktogrammen oder UML-Entwürfen, automatisch generieren. Besonders interessant sind Entwicklungswerkzeuge, die aus Entwürfen Code und umgekehrt auch aus Code wieder Entwürfe erzeugen können. Dabei werden manuelle Änderungen am Code nachträglich wieder in den Entwurf übernommen. Auf diese Weise ist ein „Round-Trip-Engineering“ möglich, bei dem an jeder Stelle manuelle Veränderungen in den gesamten Entwicklungsprozess eingebracht werden können. Zum Erstellen des Quelltextes ist meist ein einfacher Texteditor ausreichend, jedoch vereinfachen spezialisierte integrierte Entwicklungsumgebungen einige Arbeitsschritte. Mittels der Syntaxhervorhebung sind die Teile des Quelltextes entsprechend ihrer Funktionalität farblich hervorgehoben, was die Lesbarkeit verbessert. Ebenfalls zur Verbesserung der Lesbarkeit halten sich Programmierer meist an eine bestimmte Quelltextformatierung (z. B. Einrückung von Unterabschnitten, Groß-/Kleinschreibung …). In manchen Sprachen ist eine bestimmte Quelltextformatierung vorgegeben (z. B. Fortran-77, Python), manche integrierte Entwicklungsumgebung kann den Quelltext automatisch formatieren (sog. "Beautifier"). Bei größeren Programmen, die aus vielen einzelnen Quelldateien bestehen, werden mitunter Informationen verwaltet, welche die Abhängigkeiten der Quelltextdateien untereinander beschreiben. Dies erlaubt beim Kompilieren mittels eines einzigen Aufrufes, alle Arbeitsschritte zur Erstellung des fertigen Programms auszuführen und nur jene Bestandteile erneut zu übersetzen, welche zwischenzeitlich geändert wurden oder von geänderten Komponenten abhängen. Beispiel hierfür sind Makefiles. Zur besseren Dokumentation der Änderungen oder der gezielten Synchronisierung von mehreren gleichzeitig arbeitenden Programmierern wird der Quelltext häufig mit einer Software-Versionsverwaltung gespeichert, wodurch alle Änderungen später einsehbar sind. Übersetzung und Ausführung. Bevor das Programm, das der Programmierer schreibt, von einem Computer ausgeführt werden kann, muss es in Maschinensprache, also in eine vom Computer verständliche Folge von Bits, umgesetzt werden. Dies kann entweder vorab durch einen Compiler oder – zur Laufzeit – durch einen Interpreter oder JIT-Compiler geschehen. In vielen Fällen wird mittlerweile eine Kombination aus beiden Varianten gewählt, bei der zuerst – meist vom Programmierer – der Quelltext der eigentlichen Programmiersprache in einen abstrakten Zwischencode übersetzt wird, welcher dann zur Laufzeit von einer Laufzeitumgebung durch einen Interpreter oder JIT-Compiler in den eigentlichen Maschinencode überführt wird. Dieses Prinzip hat den Vorteil, dass ein und derselbe Zwischencode auf sehr vielen verschiedenen Plattformen ausführbar ist und somit nicht für jedes auf dem Markt übliche System eine eigene Version der Software erscheinen muss. Typische Beispiele für einen solchen Zwischencode sind der Java-Bytecode sowie die Common Intermediate Language. Mittels eines Debuggers kann die Funktionsweise des Programmes zur Laufzeit verfolgt werden. Programmiersprachen wie C++, Java, Perl oder auch PHP arbeiten mit Begriffen, die Menschen leichter zugänglich sind. Bei der Programmierung wird dann auf der Grundlage der Begrifflichkeit der jeweiligen Programmiersprache ein Quelltext erstellt. Dieser ist im Vergleich zum Maschinencode besser verständlich, muss aber im nächsten Schritt noch in die maschinenlesbare binäre Form gebracht werden. Lizenzierung. Software und der dazugehörige Quelltext unterliegen dem Urheberrecht. Sie können in zwei Kategorien unterteilt werden: Proprietäre Software und quelloffene-Software. Quelloffene Programme, also solche, die unter einer "Open-Source"-Lizenz stehen, werden in der Regel direkt mit ihrem Quelltext ausgeliefert, dessen Änderung und Weitergabe durch die Lizenz gestattet ist. Dies ermöglicht deren Studium, Prüfung und Anpassung für spezifische Bedürfnisse. Verfechter des Open-Source-Prinzips sind der Meinung, dass dies zudem die Qualität verbessere, da Fachleute die Fehler besser lokalisieren könnten und sie entweder direkt beheben oder den ursprünglichen Programmierern qualitativ bessere Fehlermeldungen liefern könnten. Die Möglichkeit, Open-Source-Software anhand ihres Quelltextes zu überprüfen, erhöhe das Vertrauen des Anwenders in ihre Korrektheit und Funktionalität im Sinne des Anwenders. Freie Software ist in diesem Sinne mit Open-Source-Software identisch. Proprietäre Software wird in der Regel ohne Quelltext (Closed Source) oder nur unter besonders restriktiven Lizenzen ausgeliefert. Dem Schutz des Abnehmers dienen dann manchmal Vereinbarungen zur Quelltexthinterlegung "(Source Code Escrow Agreements)". Lediglich bei der Erstellung von Individualsoftware wird häufiger auch die Übergabe des Quelltexts vereinbart. Andere Bedeutungen. Im weiteren Sinne versteht man unter Quelltext auch die menschenlesbare Beschreibung eines gerenderten Mediums. Quam. Quam war ein Mobilfunkanbieter mit Geschäftstätigkeit in Deutschland, Österreich und der Schweiz. Er gehört der Group 3G, einem Konsortium aus der finnischen Sonera (mittlerweile TeliaSonera) und der spanischen Telefónica Móviles. Firmengeschichte. Ein Konsortium aus Telefónica und Sonera ersteigerte im August 2000 eine deutsche UMTS-Lizenz für 16,45 Milliarden DM. Quam startete Anfang des dritten Quartals 2001 seinen Netzbetrieb. Da Quam kein eigenes Mobilfunknetz besaß, kooperierte es mit dem Mobilfunkbetreiber E-Plus, indem das Mobilfunknetz von E-Plus unter eigenem Namen und mit eigenen Rufnummern genutzt wurde (MVNO). Im Dezember 2001 gab es Probleme mit der Zusammenschaltung der Netze von Quam mit den Netzen der anderen Mobilfunkbetreiber. Unter anderem konnten Quam-Kunden aus vielen Netzen nicht direkt erreicht werden, da Quam nach Aussagen anderer Netzbetreiber notwendige Verbindungsleistungen nicht rechtzeitig bestellt hatte. Anrufer mussten zunächst eine kostenlose Quam-Vermittlung anwählen und sich dann von dieser zum gewünschten Gesprächspartner verbinden lassen. Nachdem sich abzeichnete, dass dieser Zustand noch längere Zeit andauern würde, stellte das Unternehmen mitten im Weihnachtsgeschäft 2001 den Verkauf ein. Die meist in teuren Innenstadtlagen befindlichen Quam-Ladengeschäfte servierten lediglich Kaffee, was den Quam-Geschäften den zweifelhaften Spitznamen „Deutschlands exklusivste Cappuccino-Bars“ einbrachte. Am 4. Februar 2002 erhielt Quam die ironische Auszeichnung „Goldener Marketingflop 2001“, der von der Universität Duisburg verliehen wird. Begründet wurde die Auszeichnung mit dem riesigen Marketing-Budget von 50 Millionen Euro, während die technischen Voraussetzungen für den Telefoniebetrieb noch nicht gegeben waren. Im Juli 2002 stellte Quam seine GSM-Dienste ein. Zu diesem Zeitpunkt hatte der Anbieter etwa 200.000 Kunden. Weiterhin war eine spätere Nutzung der UMTS-Lizenz in Planung. Am 15. Oktober 2002 wurde das endgültige Ende des Angebots von GSM-Diensten zum 15. November 2002 bekannt gegeben. Quam empfahl seinen Kunden einen Wechsel zum Konkurrenten T-Mobile, der dem Unternehmen dafür eine Prämie zahlte. Die UMTS-Lizenz verblieb beim Anbieter, da die Lizenzbedingungen der Regulierungsbehörde für Telekommunikation und Post es nicht zuließen, diese zu verkaufen. Der Lizenznehmer musste sich der Bedingung unterwerfen, bis Ende 2003 einen Versorgungsgrad von 25 % zu erreichen. Da bei einer Prüfung durch die Bundesnetzagentur keine Aktivität festgestellt werden konnte, wurde die Lizenz- und Frequenzzuteilung im Jahr 2004 wieder entzogen (Az.: 13 A 2969/07). Das Oberverwaltungsgericht Münster wies die Klage auf Erstattung der rd. 8,5 Mrd. Euro im Jahr 2009 ab. Eine Revision wurde durch das Oberverwaltungsgericht nicht zugelassen, wohl aber durch das Bundesverwaltungsgericht. Letzteres wies die zugelassene Revision allerdings im August 2011 zurück: Der Widerruf der Frequenznutzungsrechte sei als einschränkende Konkretisierung von Art. 14 GG zulässig gewesen; auch eine Erstattung könne nicht beansprucht werden. Das Bundesverfassungsgericht hat diese Entscheidung durch Beschluss vom 25. Juni 2015 bestätigt und eine eingelegte Verfassungsbeschwerde nicht zur Entscheidung angenommen. Die entzogenen UMTS-Frequenzblöcke wurden im Frühjahr 2010 erneut versteigert. Im April 2006 wurde die Domain quam.eu von der Muttergesellschaft Telefónica reserviert. Querruder. Raumachsen und Ruder eines Flugzeugs Querruder () sorgen bei fast allen 3-Achs-gesteuerten Flugzeugen für die Flugsteuerung um die Längsachse. Funktionsweise. Querruder sind im Allgemeinen bewegliche Klappen an den Tragflächen-Hinterkanten, die beim Betätigen der Rollsteuerung gleichzeitig und entgegengesetzt bewegt werden. Das Querruder, das nach unten bewegt wird, erhöht auf seiner Seite den Auftrieb, wodurch sich diese Tragfläche hebt. Das andere Querruder bewegt sich nach oben, verringert somit den Auftrieb und die Tragfläche senkt sich. So entsteht eine Rollbewegung um die Längsachse, welche wiederum beispielsweise die erforderliche Schräglage als Ausgangssituation für einen koordinierten Kurvenflug herbeiführt. Teilen sich mehrere aerodynamisch wirksame Flächen die Hinterkante einer Tragfläche, so sind die Querruder meist die am weitesten außen angeordneten Steuerflächen, um eine gute Hebelwirkung bei der Erzeugung des Rollmomentes zu erreichen, Landeklappen hingegen sind meist im inneren Bereich der Flügel zu finden. Bei Düsenverkehrsflugzeugen existieren oft mehrere Querruderklappen pro Tragflächenseite, die sich in Länge, Tiefe und Position unterscheiden und die für verschiedene Geschwindigkeitsbereiche ("Low-, High-Speed") ausgelegt sind. Die Steuerklappen werden durch Seilzüge, Schubstangen, Hydraulikaktuatoren, elektrohydraulisch oder elektrisch betätigt, bei größeren Flugzeugen werden meist mehrere Möglichkeiten zur redundanten Absicherung vorgesehen. Die Querruder-Trimmung erfolgt durch so genannte Trimmruder. Sonderformen in Verbindung mit anderen Steuerflächen. Im modernen Flugzeugbau werden oft die ursprünglichen Funktionen einzelner Steuerflächen mit anderen Steuerfunktionen gemischt und überlagert, um die Steuerbarkeit zu verbessern, die Flugsicherheit zu erhöhen und die Leistungsdaten des Flugzeuges zu verbessern. Die Einführung von Flugkontrollrechnern und Fly-by-wire-Flugsteuerungen unterstützt diese neuen Möglichkeiten. Störklappen als Rollspoiler. Bei Verkehrsflugzeugen wird zur Unterstützung der Querruder üblicherweise ein Teil der Störklappen-Segmente - meist die am Flügel am weitesten aussen gelegenen - eingesetzt. Bei einer Steuereingabe wird proportional zusätzlich zum nach oben gehenden Querruder des kurveninneren Flügels der Spoiler ein Stück weit mit betätigt (ausgefahren), während die Spoilerklappen auf der gegenüberliegenden Tragfläche in ihrer eingefahrenen Ruheposition verharren. Dies wirkt neben einer Unterstützung des Rollens durch einseitige Auftriebsverminderung an der abzusenkenden Tragfläche dem durch die Querruder erzeugten "Negativen Wendemoment" entgegen, da an der kurveninneren Tragfläche der Widerstand erhöht wird, was wiederum ein sinnrichtiges unterstützendes Giermoment in Kurvenrichtung zur Folge hat. Beim Airbus A380 werden beispielsweise sechs der auf jeder Seite vorhandenen acht Spoilersegmente zur Unterstützung der Querruder im Aussenflügel eingesetzt. Taileron. Bei vielen modernen Kampfflugzeugen in üblicher Tragenflächen-/Leitwerkauslegung unterstützen die meist als Pendelruder ohne Dämpfungsfläche ausgeführten Höhenruder die Querruder, indem sie zusätzlich – überlagert zu den für die Höhensteuerung erforderlichen Ruderausschlägen – wie Querruder gegensinnig bewegt werden. Beim Tornado ersetzten diese gegensinnig ausschlagenden Höhenruder herkömmliche Querruder gänzlich. Diese Bauart wird im englischen Fachbegriff auch Taileron ("combined tailplane and aileron") genannt. Der Vorteil der damit möglichen extrem großen, fast über die ganze Flügellänge gehenden Landeklappen (und somit hohe Zuladung bzw. hohe Auftriebserzeugung für engen Kurvenflug im Luftkampf) wird durch eine leicht verminderte Rollrate erkauft. Um diese wichtige Kenngröße eines Kampfflugzeug auf die gefordert hohen Werte zu bringen, wurden die Flügel des Tornados relativ weit außen – und somit sehr wirksam – mit je einer Störklappe ("Rollspoiler") pro Flügel ausgestattet. Elevon. Bei Nurflügel- und Deltakonfigurationen kommen oft Steuerflächen an der Hinterkante der Tragflächen zum Einsatz, die gleichzeitig überlagerte Steuerausschläge für Höhen- und Rollsteuerung ausführen. Diese werden mit dem Kunstwort "Elevon" (aus den englischen Begriffen "elevator" für Höhenruder und "aileron" für Querruder) bezeichnet. Flaperon. Nimmt die Querruderklappe durch gleichsinnige Verstellbarkeit eine weitere Funktionen als Wölbklappe zur Auftriebssteigerung (Landehilfe) oder zur Profiloptimierung wahr, spricht man von einem Flaperon (aus den englischen Begriffen "Flap" für Klappe und "aileron" für Querruder). Ein Beispiel hierfür ist das Segelflugzeug LS3. Entwicklung und Geschichte. Erstmals wurde ein funktionierendes und bekanntes Querruder von dem Franzosen Robert Esnault-Pelterie entworfen und getestet, wie es auch heute in der Luftfahrt noch verwendet wird. Zuvor im 19. Jahrhundert beschäftigten sich bereits theoretisch Clément Ader, Charles Renard, Edson Gallaudet, Alphonse Pénaud und John Joseph Montgomery mit der Möglichkeit und dem Bau eines Querruders. Flügelverwindung. Rollsteuerung durch Verwindung - ohne Querruder - der Gebrüder Wright In der Frühzeit der Fliegerei wurde die Rollsteuerung oft ohne eigentliche Querruder, sondern durch Tragflächenverwindung erzielt. Dabei wurden die gesamten Tragflächen über Seilzüge gegensinnig etwas in sich verdreht, wodurch sich durch die unterschiedlichen Anstellwinkel ebenfalls eine Auftriebsdifferenz zwischen beiden Flügeln und damit ein Rollen des Flugzeuges ergab. Die Brüder Wright, deren Flugzeuge durch Flügelverwindung gesteuert wurden, waren der Meinung, dass ihr weitgefasstes Patent auch die von Glenn Hammond Curtiss erfundene Methode der Rollsteuerung über Querruder abdeckte und prozessierten deswegen gegen Curtiss. Erstmals angewendet wurden Querruder durch Robert Esnault-Pelterie an einem antriebslosen Doppeldecker-Gleitflugzeug im Jahre 1904. Die Flügelverwindung verwendeten neben dem Wright Flyer auch weitere frühe Motorflugzeuge, wie die Blériot XI (1908), die Etrich Taube und ihre Nachbauten (1909), die Morane-Saulnier N (1915) und die zahlreichen Varianten des Fokker-Eindeckers (1915), sowie die einige Segelflugzeuge wie der Harth-Messerschmitt S7 (1918). Im Vergleich zur Verwendung von Querrudern hat die Flügelverwindung den Vorteil, dass man keine durch die Ruderklappen bedingten Spalten in der Tragfläche hat und dass die Profiltreue erhalten bleibt. Somit kann der aerodynamische Widerstand leicht reduziert werden. Die Verwindung ist jedoch konstruktiv schwer mit der nötigen Torsionsfestigkeit von moderneren, üblicherweise gepfeilten Tragflächen vereinbar: Beim Flug mit hohen Geschwindigkeiten, d.h. kleinem Anstellwinkel, entstehen starke Torsionskräfte (Auftrieb wird fast nur an der Hinterkante produziert, so wird der Flügel nach vorne tordiert), denen mit der sehr verdrehsteif ausgebildeten "Torsionsnase" („D-Box“) entgegengewirkt wird. Das negative Wendemoment. Ein nachteiliger Sekundär-Effekt des Querrudereinsatzes (auch Querruder-Gier-Moment genannt) entsteht dadurch, dass aufgrund der unterschiedlichen Druckverhältnisse auf Tragflächenober- und Unterseite das – kurveninnere – nach oben ausschlagende Querruder den Strömungswiderstand der abzusenkenden Tragfläche vermindert, das nach unten ausschlagende Querruder auf der Gegenseite durch die Erhöhung der Auftriebserzeugung und der damit einher gehenden Erhöhung des Widerstandes jedoch die Tragfläche nicht nur anhebt, sondern auch abbremst: folglich giert das Flugzeug zusätzlich zur beabsichtigten Rollbewegung, jedoch zur "entgegengesetzten" Seite (= negativ). Aus diesem Grund führt die Betätigung des Querruders zu einem negativen Wendemoment (also: ein Bewegen der Flugzeugnase gegen die gewollte Steuerrichtung), weshalb saubere Kurven im Flugzeug koordiniert mit Quer- und Seitenruder (in die Kurvenrichtung zum Ausgleich des negativen Wendemomentes) eingeleitet und durchflogen werden müssen. Dies ist aufgrund der Hebelverhältnisse (große Spannweite im Verhältnis zur Gesamtlänge, damit ein großer Hebel für das angreifende Wendemoment sowie ein relativ kurzer Leitwerkshebelarm) besonders in der Segelfliegerei von großer Bedeutung, um widerstandsarme Kurvenflüge ohne Schieben oder Hängen (Schmieren) zu erzielen; als Hilfsmittel für die Koordination der Ruder dient hierzu der an jedem Segelflugzeug vorhandene Faden. Das negative Wendemoment kann durch konstruktive Maßnahmen abgeschwächt oder weitgehend neutralisiert werden. Eine mechanisch einfach zu realisierende Möglichkeit der Abschwächung ist eine differenzierte Ansteuerung mit unterschiedlichen Ausschlägen, bei der die Querruderklappen nach unten weniger weit ausschlagen als nach oben. So wird der Ausschlag den unterschiedlichen Druckverhältnissen auf Ober- und Unterseite des Flügels angepasst und die Widerstandmomente werden gleichmäßiger. Eine weitere Möglichkeit ist die Gestaltung der Ruder selbst als "Friese-Querruder", bei der der Scharnier-Drehpunkt der Ruderklappe so gelegt wird, dass bei einem Ausschlag nach oben auch der Widerstand an der Unterseite des Klappenspaltes stark erhöht wird, um ein ausgleichendes Widerstandsmoment zu schaffen. Weiterhin hilft bei größeren Flugzeugen der Einsatz von Störklappen als Rollspoiler (siehe oben), das Wendemoment zu neutralisieren; solche Flugzeuge besitzen oft auch einen sog. Gierdämpfer (engl. yaw damper), der automatisch den Seitenruderausschlag für verschiedene Flugzustände anpasst; ein bewußtes Mitsteuern des Seitenruders durch den Piloten erübrigt sich in diesem Fall. Ebenso kann mechanisch oder über den Flugkontrollrechner ein gewisser, sinnrichtiger Seitenruderausschlag automatisch zur Querruder-Steuereingabe hinzugemischt werden. Querruderumkehr. Wird das Querruder betätigt, so erhöht sich an jenem Flügel, bei dem das Querruder nach unten ausschlägt, durch die stärkere geometrische Wölbung der Profil-Skelettlinie der Anstellwinkel. Zusätzlich verursacht das nach unten in den Bereich höheren Druckes ausschlagende Querruder auch eine Widerstandserhöhung. In extremem Langsamflug kann dies zu einseitigem Strömungsabriss an diesem Flügel führen, wodurch er, anstatt sich nach oben zu bewegen, nach unten „fällt“. Da gleichzeitig durch den erhöhten Widerstand auch eine Drehbewegung um die Hochachse verursacht wird, kann dies das Flugzeug ins Trudeln bringen. Dieser Effekt wird, technisch etwas ungenau, „Querruderumkehr“ genannt. Die meisten modernen Flugzeuge weisen durch geeignete konstruktive Maßnahmen kaum noch eine Querruderumkehr auf. Quersumme. Als Quersumme (oder Ziffernsumme) bezeichnet man üblicherweise die Summe der Ziffernwerte einer natürlichen Zahl. So ist für eine Zahl n = 36036 die dezimale Quersumme q(n) = 3 + 6 + 0 + 3 + 6 = 18. Die Quersumme ist (ebenso wie das Querprodukt) abhängig vom verwendeten Zahlensystem. Neben der Quersumme als Summe der Ziffernwerte gibt es Graphenverlauf. Quersumme der ersten 10 000 natürlichen Zahlen. Der Graph der Quersummenfunktion q(n) besitzt einen charakteristischen Verlauf. Im Dezimalsystem steigt er für jeweils zehn aufeinanderfolgende n mit den Endziffern 0 bis 9 stetig – pro Schritt um 1 – an, um danach einen Zahlenschritt lang zu fallen. Niedrigster und höchster Wert der Anstiegsspanne verschieben sich dabei allerdings von Mal zu Mal um 1 nach oben. Dieses Verhalten wiederholt sich in jeder Zehnerpotenz. Bei 10, 100, 1000 usw. fällt q(n) stets wieder auf 1. Daraus ergibt sich eine Selbstähnlichkeit des Graphen. Einzig für n = 0 gilt q(n) = 0, für alle größeren Zahlen ist q(n) ≥ 1. Nach oben hin ist q(n) nicht beschränkt. Anwendung. Bei jedem Eingeben und Übertragen von Zahlen können technische oder menschliche Fehler auftreten. Deshalb existieren Prüfverfahren, um die Datenintegrität zu gewährleisten. Eine simple Prüfsummen-Maßnahme ist das Bilden der Quersumme. Prüfziffer der ISBN. Die mit den Faktoren (10,9,8,7,6,5,4,3,2,1) gewichtete Quersumme einer ISBN10 (veraltete Version) ist modulo 11 immer 0 (die Ziffer 'X' hat dabei den Zahlenwert von 10 und kann in der letzten Ziffer auftreten). Dies wird erreicht, indem die ersten 9 Ziffern das Produkt beschreiben und eine 10. Ziffer (Prüfziffer) so angehängt wird, dass obige Forderung erfüllt ist. "Beispiel:" Für die ISBN 3442542103 ist Also ist dies eine (formal) gültige ISBN. Quersummensatz. Beispielsweise ist im Dezimalsystem die Grundzahl 10, also "n"=9. Damit ist "t" ∈. Folglich kann man die Quersummenregelung zur Überprüfung der Teilbarkeit durch 3 und durch 9 anwenden. Im Hexadezimalsystem ist "n"=15. Damit ist "t" ∈. Somit kann man die Quersummenregelung im Hexadezimalsystem zur Überprüfung der Teilbarkeit durch 3, durch 5 und durch 15 anwenden. Allgemein gilt, dass die Quersumme formula_5 der Darstellung einer Zahl formula_6 im Stellenwertsystem mit der Basis formula_7 den Rest modulo formula_8 unverändert lässt, also und die alternierende Quersumme formula_10 der Darstellung im Stellenwertsystem mit der Basis formula_7 den Rest modulo formula_12 unverändert lässt, also Spezialfall: Neunerprobe. formula_14 Einstellige (oder iterierte) Quersumme. Von der einfachen Quersumme wird weiter so lange die Quersumme gebildet, bis nur noch eine einstellige Zahl übrig bleibt. Insbesondere ist also eine positive natürliche Zahl genau dann durch 9 teilbar, wenn ihre iterierte Quersumme im Dezimalsystem 9 ist. "Siehe auch:" Hash-Funktion und die dort genannten Verfahren. Alternierende Quersumme. Die alternierende Quersumme (auch Querdifferenz, Paarquersumme oder Wechselsumme genannt) erhält man, indem man die Ziffern einer Zahl abwechselnd subtrahiert und addiert. Dabei kann links oder rechts begonnen werden. Im Folgenden wird von rechts begonnen. So ist für die Zahl n = 36036 die alternierende Quersumme aqs(n) = 6 - 3 + 0 - 6 + 3 = 0. Für die Teilbarkeit einer Zahl n durch 11 kann stellvertretend ihre alternierende Quersumme aqs(n) herangezogen werden: Eine dezimal dargestellte Zahl "n" ist genau dann durch 11 teilbar, wenn ihre alternierende Quersumme "aqs(n)" ohne Rest durch 11 teilbar ist. Wiederholte Anwendung der alternierenden Quersumme liefert den Rest der Zahl bei Division durch 11, wobei negative Werte durch Addition von 11 zu normalisieren sind. Eine aqs von 11 zieht eine weitere Bildung einer aqs nach sich, die 0 liefert (also den Rest der Division von 11 durch 11). 4 + 8 + 3 + 2 = 17 7 + 6 + 5 = 18 17 - 18 = -1; -1 + 11 = 10 daraus folgt: Die Zahl 2536874 lässt bei Division durch 11 den Rest 10, ist also nicht durch 11 teilbar. Nichtalternierende k-Quersumme. Die nichtalternierende 2er-Quersumme von n = 36036 ist q = 3+60+36 = 99. Für alle Teiler von 99, also für 3, 9, 11, 33 und 99, ist sie ein Teilbarkeitskriterium: Die nichtalternierende 2er-Quersumme "q" einer dezimalen Zahl "n" ist genau dann durch diese Zahlen teilbar, wenn "n" durch diese teilbar ist. Die nichtalternierende 3er-Quersumme von n = 36036 ist q = 36+036 = 72. Für alle Teiler von 999, also für 3, 9, 27, 37, 111, 333 und 999, ist sie ein Teilbarkeitskriterium: Die nichtalternierende 3er-Quersumme "q" einer dezimalen Zahl "n" ist genau dann durch diese Zahlen teilbar, wenn "n" durch diese teilbar ist. "Bemerkung": Die nichtalternierende k-Quersumme ist identisch mit der nichtalternierenden Quersumme zur Basis formula_20. Sie liefert ein Teilbarkeitskriterium für alle Teiler von formula_21. Alternierende k-Quersumme. Die alternierende 2er-Quersumme von n = 36036 ist q = 3-60+36 = -21. Für 101 ist sie ein Teilbarkeitskriterium: Die alternierende 2er-Quersumme "q" einer dezimalen Zahl "n" ist genau dann durch 101 teilbar, wenn "n" durch 101 teilbar ist. Die alternierende 3er-Quersumme von n = 36036 ist q = -36+036 = 0. Für alle Teiler von 1001, also für 7, 11, 13, 77, 91, 143 und 1001, ist sie ein Teilbarkeitskriterium: Die alternierende 3er-Quersumme "q" einer dezimalen Zahl "n" ist genau dann durch diese Zahlen teilbar, wenn "n" durch die Zahlen teilbar ist. "Bemerkung": Die alternierende k-Quersumme ist identisch mit der alternierenden Quersumme zur Basis formula_20. Sie liefert ein Teilbarkeitskriterium für alle Teiler von formula_23. Gewichtete Quersumme. Eine Verallgemeinerung sind "gewichtete Quersummen", bei denen die Ziffern erst mit den Werten einer Zahlenfolge multipliziert und diese Ergebnisse dann addiert werden. Es wird dabei mit der niederwertigsten Ziffer begonnen (bei der einfachen Quersumme ist die Reihenfolge egal). Die Wichtungsfolge kann dabei periodisch Ein Beispiel ist die Periodische Folge Die so gewichtete Quersumme liefert eine Teilbarkeitsregel für die Zahl 7. Auch für andere natürliche Zahlen kann man solche periodischen Folgen finden, z. B. Für die meisten Teiler ist es jedoch nicht praktikabel, die Teilbarkeit mittels Quersummenbildung zu überprüfen, weil es nur wenige gut merkbare periodische Wichtungsfolgen gibt. Möchte man eine entsprechende Teilbarkeitsregel für die natürliche Zahl m finden, so betrachtet man die Reste der 10er-Potenzen bei der Division mit m. Die Reste entsprechen den gesuchten Gewichten. Die Wichtungsfolge lautet also 1, 3, 2, −1, −3, −2... Quaternion. Die Quaternionen ("Singular:" die Quaternion, von lat. "quaternio, -ionis f." „Vierheit“) sind ein Zahlbereich, der den Zahlbereich der reellen Zahlen erweitert – ähnlich den komplexen Zahlen und über diese hinaus. Beschrieben (und systematisch fortentwickelt) wurden sie seit 1843 von Sir William Rowan Hamilton; sie werden deshalb auch "hamiltonsche Quaternionen" oder Hamilton-Zahlen genannt. Olinde Rodrigues entdeckte sie bereits 1840 unabhängig von Hamilton. Trotzdem wird die Menge der Quaternionen meistens mit formula_1 bezeichnet. Die Quaternionen bilden einen Schiefkörper (oder Divisionsring), bei dem die Multiplikation "nicht" kommutativ ist. Das heißt, es gibt Quaternionen formula_2 und formula_3, bei denen die beiden Produkte formula_4 und formula_5 von der Reihenfolge der Faktoren abhängen, also Einige aus dem Reellen bekannte Rechenregeln gelten deshalb für Quaternionen nicht, jedoch Assoziativ- und Distributivgesetz, sowie multiplikative Invertierbarkeit, d. h. die Existenz des Inversen formula_7 zu jedem formula_8. Die Quaternionen waren der erste derartige Gegenstand in der Geschichte der Mathematik. Quaternionen erlauben in vielen Fällen eine rechnerisch elegante Beschreibung des dreidimensionalen euklidischen Raumes und anderer Räume, insbesondere im Kontext von Drehungen. Daher verwendet man sie unter anderem in Berechnungs- und Darstellungsalgorithmen für Simulationen, sowie zur Auswertung kristallographischer Texturen. Sie sind aber auch als eigenständiges mathematisches Objekt von Interesse und dienen so zum Beispiel im Beweis des Vier-Quadrate-Satzes. Konstruktion. Die Quaternionen entstehen aus den reellen Zahlen durch Hinzufügen (Adjunktion) dreier neuer Zahlen, denen in Anlehnung an die komplex-imaginäre Einheit die Namen formula_9, formula_10 und formula_11 gegeben werden. So ergibt sich ein vierdimensionales Zahlensystem (mathematisch: ein Vektorraum) mit einem "Realteil", der aus "einer" reellen Komponente besteht, und einem "Imaginärteil" aus "drei" Komponenten, der auch Vektorteil genannt wird. Jede Quaternion lässt sich eindeutig in der Form mit reellen Zahlen formula_13, formula_14, formula_15, formula_16 schreiben. Damit sind die Elemente formula_17 eine Basis, die Standardbasis der Quaternionen über formula_18. Die Addition ist komponentenweise und wird vom Vektorraum geerbt. Multiplikativ werden die neuen Zahlen formula_9, formula_10, formula_11 gemäß den "Hamilton-Regeln" verknüpft. Die Skalarmultiplikation formula_23, die ebenfalls vom Vektorraum geerbt wird und bei der die Skalare als mit jedem Element vertauschbar angesehen werden, zusammen mit der Addition, dem Rechtsdistributivgesetz und den Hamilton-Regeln erlauben es, die Multiplikation von der Basis auf alle Quaternionen zu erweitern. Da so auch jeder Skalar formula_24 als formula_25 in formula_1 eingebettet wird, kann formula_18 als Unterring von formula_1 aufgefasst werden. Die so definierte Multiplikation ist assoziativ, erfüllt die beiden Distributivgesetze und macht so die Quaternionen zu einem Ring. Sie ist allerdings "nicht" kommutativ, d. h. für zwei Quaternionen formula_2 und formula_3 sind die beiden Produkte formula_4 und formula_32 im Allgemeinen verschieden (s. u.). Das Zentrum von formula_33, also die Menge derjenigen Elemente der multiplikativen Gruppe von formula_1, die mit allen Elementen kommutieren, ist formula_35. Die Quaternionen bilden einen Schiefkörper (Divisionsring), da es zu jeder Quaternion formula_36 eine inverse Quaternion formula_7 gibt mit Wegen der fehlenden Kommutativität werden Notationen mit Bruchstrich, wie z. B. formula_39, vermieden. Des Weiteren sind die Quaternionen eine vierdimensionale Divisionsalgebra über formula_18 – und bis auf Isomorphie die einzige. Schreibweise. Ist formula_2 eine Quaternion, dann werden ihre (reellen) Komponenten mit formula_42 bezeichnet, und diese sind folgendermaßen zugeordnet Gelegentlich wird eine vektorielle Schreibweise benötigt. Dabei werden bspw. die Komponenten formula_44 zu einem 3-dimensionalen Vektor formula_45 zusammengefasst, so dass man formula_2 mit dem 4-dimensionalen Vektor formula_47 identifizieren kann. Analoge Abmachungen sollen für andere Buchstaben wie formula_3 etc. gelten. mit formula_51 . Grundrechenarten. Die Konstruktion der Quaternionen ist der der komplexen Zahlen analog, allerdings wird nicht nur eine neue Zahl hinzugefügt, sondern deren drei, die mit formula_9, formula_10 und formula_11 bezeichnet werden. über der Basis formula_56 spannen mit reellen Komponenten formula_57 den 4-dimensionalen Vektorraum der Quaternionen formula_1 auf. (Das Basiselement formula_59, das zugleich das neutrale Element der Multiplikation darstellt und welches die reellen Zahlen injektiv einbettet, wird in der Linearkombination meist weggelassen.) Die Addition und Subtraktion geschieht komponentenweise wie in jedem Vektorraum. Vom Vektorraum wird auch die Skalarmultiplikation übernommen, also die linke und rechte Multiplikation mit einer reellen Zahl, die distributiv zu jeder Komponente multipliziert wird. Diese Skalarmultiplikation ist eine Einschränkung der Hamilton-Multiplikation, die auf ganz formula_1 definiert ist. Die Hamilton-Multiplikation der Basiselemente untereinander oder etwas umfassender innerhalb der Menge die zusammen mit der Vertauschbarkeit von formula_68 mit jedem anderen Element eine vollständige Tafel für eine Verknüpfung ausmachen, die sich als assoziativ erweist und formula_69 zu einer Gruppe macht – der Quaternionengruppe. Unter Voraussetzung der Regel formula_63 (und der Gruppenaxiome) sind die anderen beiden formula_65 und formula_67, in denen sich u. a. das "zyklische" bzw. "anti-zyklische" Verhalten der drei nicht-reellen Quaternionen-Einheiten ausdrückt, äquivalent zu der Kurzform Mithilfe dieser Ersetzungsregeln, dem Assoziativgesetz und (linkem wie rechtem) Distributivgesetz lässt sich die Multiplikation auf ganz formula_1 fortsetzen. Die formula_76 kann man wie "anti-kommutierende" Variablen behandeln. Treten Produkte von zweien von ihnen auf, so darf man sie nach den Hamilton-Regeln ersetzen. Die ausgearbeiteten Formeln für die 2 Verknüpfungen von zwei Quaternionen Hiermit sind die für einen Ring erforderlichen 2 Verknüpfungen definiert. Es ist leicht nachgerechnet, dass alle Ring-Axiome erfüllt sind. Das additive Inverse ist (wie in jedem Vektorraum) das Produkt mit dem Skalar –1. Die "Subtraktion" ist die Addition dieses Inversen. Die für einen Schiefkörper erforderliche "Division" muss wegen der fehlenden Kommutativität durch eine Multiplikation mit dem (multiplikativen) Inversen ersetzt werden (siehe Inverses und Division). Skalarteil und Vektorteil. Aufgrund der besonderen Stellung der Komponente formula_13 einer Quaternion bezeichnet man sie – wie bei den komplexen Zahlen – als "Realteil" oder "Skalarteil" während die Komponenten formula_89 zusammen den "Imaginärteil" oder "Vektorteil" bilden. Häufig identifiziert man den Vektorteil auch mit dem Vektor formula_91. Konjugation. ist die "konjugierte Quaternion" definiert als Da hier der Imaginärteil mit seinen Einheitsvektoren verknüpft bleibt und der Realteil als reelle Zahl eindeutig in die Quaternionen einzubetten ist, ergeben sich die einfachen Beziehungen Ist eine Quaternion gleich ihrer Konjugierten, so ist sie reell, d. h. der Vektorteil ist null. Ist eine Quaternion gleich dem Negativen ihrer Konjugierten, so ist sie eine reine Quaternion, d. h. der Skalarteil ist null. Skalarprodukt. Es ist eine positiv definite symmetrische Bilinearform, über die sich Norm und Betrag definieren lassen und mit der Winkel und Orthogonalität bestimmt werden können. Im Folgenden sei das Skalarprodukt, und zwar sowohl das 4- wie das 3-dimensionale – wie in der Physik üblich – mit dem Mittepunkt formula_109 notiert. Kreuzprodukt. Das Kreuzprodukt zweier Quaternionen formula_110 ist das Kreuzprodukt (Vektorprodukt) ihrer Vektorteile und bis auf den Faktor 2 ihr Kommutator. Ist formula_111 und formula_112, so ist Quaternionenmultiplikation als Skalar- und Kreuzprodukt. mit Paaren aus einem Skalar formula_116 und einem Vektor formula_117 Zwei Quaternionen sind demnach genau dann miteinander "vertauschbar", wenn ihr Kreuzprodukt 0 ist, wenn also ihre Vektorteile als reelle Vektoren linear abhängig voneinander sind (s. a. Einbettung der komplexen Zahlen). Norm und Betrag. Insbesondere ist dieser Wert reell und nichtnegativ. wird "Betrag" oder "Länge" der Quaternion formula_2 genannt und stimmt überein mit Betrag oder euklidischer Länge des Vektors formula_127. Er erfüllt die wichtige Eigenschaft Mit dem Betrag werden die Quaternionen zu einer reellen Banachalgebra. Inverses und Division. Bei einer nicht-kommutativen Multiplikation muss man die Gleichungen unterscheiden. Wenn das Inverse formula_131 existiert, dann sind respektive Lösungen, die nur dann übereinstimmen, wenn formula_134 und formula_135 kommutieren, insbesondere wenn der Divisor formula_134 reell ist. In solch einem Fall kann die Schreibweise formula_137 verwendet werden – bei allgemeinen Divisionen wäre sie nicht eindeutig. Wenn zusätzlich formula_138 existiert, gilt die Formel erfüllt dann die Bedingungen des Rechts- und kann deshalb als das Inverse schlechthin von formula_2 bezeichnet werden. Reine Quaternion. Eine Quaternion, deren Vektorteil 0 ist, wird mit der ihrem Skalarteil entsprechenden reellen Zahl identifiziert. Eine Quaternion, deren Realteil 0 ist, nennt man "reine Quaternion" (auch: "rein imaginär" oder "vektoriell"). Reine Quaternionen lassen sich auch als diejenigen Quaternionen charakterisieren, deren Quadrat reell und nichtpositiv ist. Für die Menge der reinen Quaternionen schreibt man Sie ist ein dreidimensionaler reeller Vektorraum mit Basis formula_149. Einheitsquaternion. Eine "Einheitsquaternion" (auch: "normierte Quaternion", Quaternion "der Länge 1") ist eine Quaternion, deren Betrag gleich 1 ist. Für sie gilt (analog zu den komplexen Zahlen) Für eine beliebige Quaternion formula_36 ist eine Einheitsquaternion, die man manchmal auch als das Signum von formula_2 bezeichnet. Das Produkt zweier Einheitsquaternionen und die Inverse einer Einheitsquaternion sind wieder Einheitsquaternionen. Die Einheitsquaternionen bilden also eine Gruppe. Geometrisch kann man die Menge der Einheitsquaternionen als die Einheits-3-Sphäre formula_155 im vierdimensionalen euklidischen Raum und damit als Lie-Gruppe interpretieren, mit dem Raum der reinen Quaternionen als zugehöriger Lie-Algebra. Die Darstellung als komplexe Matrizen verdeutlicht die umkehrbar eindeutige Entsprechung der Einheitsquaternionen mit der speziellen unitären Gruppe formula_156. Die einzigen reellen Einheitsquaternionen sind formula_157. Sie machen auch das Zentrum von formula_155 aus. Reine Einheitsquaternion. Sie liegen auf dem Rand und in der Äquatorhyperebene der 3-Sphäre formula_155 und machen die Einheits-2-Sphäre formula_162 des dreidimensionalen Raums formula_163 aus. Einbettung der komplexen Zahlen. Jede Quaternion formula_164 mit Quadrat formula_159 definiert einen Einbettungsisomorphismus formula_166 der komplexen Zahlen in die Quaternionen mit formula_168 und formula_169 als imaginärer Einheit der komplexen Zahlen. Dabei sind die Bildmengen der formula_164 und formula_171 entsprechenden Einbettungen identisch: formula_172. Eine jede solche Quaternion darf formula_9 genannt werden, eine senkrechte dazu formula_10 und ihr Produkt formula_11. Jede nicht-reelle Quaternion liegt in genau einer solchen Einbettung von formula_176 . Zwei Quaternionen sind genau dann vertauschbar, wenn es eine gemeinsame Einbettung gibt. Zwei verschiedene Bilder haben die reelle Achse zum Durchschnitt. So betrachtet, sind die Quaternionen eine Vereinigung komplexer Ebenen. Polardarstellung. Jede Einheitsquaternion formula_177 kann auf eindeutige Weise in der Form Mit der verallgemeinerten Exponentialfunktion lässt sich dies wegen formula_182 auch schreiben als mit der reinen Quaternion formula_184. Will man also eine reine Quaternion formula_185 exponentiieren, so ist formula_186 und die reine Einheitsquaternion formula_187 zu bilden, und es ergibt sich die Einheitsquaternion Der Fall   formula_189   lässt sich stetig ergänzen. Damit ist die Exponentialabbildung formula_190 surjektiv – und bijektiv   formula_191   bei Einschränkung auf formula_192, denn es ist   formula_193   für unendlich viele formula_194 mit formula_195. Sie ist stetig, wegen der Nicht-Kommutativität der Multiplikation aber kein Homomorphismus. Allgemein lässt sich jede nicht-reelle Quaternion eindeutig in der Form schreiben. Durch die Festlegung formula_201 ist formula_202, so dass formula_164 in dieselbe Richtung wie der Vektorteil formula_204 zeigt. Jede nicht reell-negative Quaternion schreibt sich eindeutig als mit einer reinen Quaternion formula_194 mit   formula_207. Diese Darstellungen sind der Polarform komplexer Zahlen (mit formula_169 als imaginärer Einheit) analog. Für die Funktionalgleichung müssen formula_211 allerdings kommutieren. Exponentialfunktion, Logarithmus. mit formula_214 . Für nicht-reelles formula_2 sind sie Umkehrfunktionen voneinander und, falls formula_219, Für nicht-reelles, mit formula_2 kommutierendes formula_3 gelten die Funktionalgleichungen letzteres für formula_211 mit hinreichend kleinem Imaginärteil. Fortsetzungen komplexer Funktionen. Da formula_1 als eine Vereinigung von Einbettungen komplexer Ebenen aufgefasst werden kann (s. Abschnitt Einbettung der komplexen Zahlen), kann man versuchen, Funktionen formula_230 mithilfe der genannten Einbettungsisomorphismen formula_166 vom Komplexen ins Quaternionische zu liften. Dabei ist zu fordern, dass die so gewonnenen Funktionen formula_232 mit formula_233 bei Überschneidungen der Definitionsbereiche dasselbe Ergebnis liefern, so dass die vereinigte Funktion formula_234 auf der Vereinigungsmenge formula_235 vermöge formula_236 als formula_237 in wohldefinierter Weise gebildet werden kann. Sei formula_238 eine komplexwertige Funktion formula_239 einer komplexen Variablen formula_240 mit reellen formula_241 und reellen formula_242. Einbettbarkeit: formula_243 ist genau dann einbettbar in die Quaternionen, wenn formula_244 eine gerade und formula_245 eine ungerade Funktion von formula_246 ist. Beweis: Ist formula_2 eine beliebige nicht-reelle Quaternion, dann ist formula_248 eine reine und normierte Quaternion mit formula_249. Seien ferner formula_250 und formula_251, die beide reell sind. Sowohl formula_166 wie formula_253 ist ein Einbettungsisomorphismus für das Bild formula_2. Im ersteren Fall ist formula_255 das Urbild von formula_256, im zweiten Fall haben wir wegen formula_257 das Urbild formula_258; jeweils mit formula_169 als der imaginären Einheit von formula_176. Die Urbilder sind verschieden, das Bild, das bei der zu bildenden Funktion formula_234 als Argument fungieren soll, ist aber beidesmal formula_2. Das „Liften“ wird durch die Einbettung der Funktionswerte als vervollständigt (s. Diagramm). Nun ist nach Voraussetzung ergibt und formula_267 nicht von der Wahl des Einbettungsisomorphismus abhängt. Die Bedingung ist auch notwendig. Denn lässt umgekehrt die Funktion formula_238 eine Einbettung formula_269 in die Quaternionen zu, so haben wir zu jedem formula_270 eine geeignete reine Einheitsquaternion formula_164 mit formula_272 und Nun hat die konjugierte Einbettung formula_253 dasselbe Bild wie formula_166, somit formula_276 dieselbe Definitionsmenge wie formula_277. Der Funktionswert muss also mit dem vorigen für alle formula_280 übereinstimmen. ■ Die eingebettete Funktion formula_234 stimmt auf "allen" Teilmengen formula_282 mit formula_243 überein, kann also als Fortsetzung von formula_243 angesehen werden und, wenn Verwechslungen nicht zu befürchten sind, wird auch der Funktionsname beibehalten. Ist formula_238 eine einbettbare Funktion, so ist formula_286 wegen der Ungeradheit von formula_245 in der zweiten Variablen, also formula_288 und formula_289 für formula_290. Somit folgt aus der Einbettbarkeit, dass die Einschränkung aufs Reelle reell ist. Zu dieser Klasse von komplexen Funktionen gehören Norm und Betrag, aber auch alle Laurent-Reihen formula_291 mit reellen Koeffizienten formula_292, so die Exponential- und Logarithmusfunktion. Nicht zu dieser Klasse gehört bspw. die Funktion formula_293, bei der formula_294 "nicht ungerade" ist in formula_246. Gleichwohl ist formula_296 eine wohldefinierte Funktion formula_297 und eine Fortsetzung von formula_298, denn es besteht Übereinstimmung auf der Teilmenge formula_299. Analysis. Schwieriger ist es, eine allgemeine quaternionische Analysis mit Differential- und/oder Integralrechnung aufzustellen. Ein Problem springt unmittelbar ins Auge: der Begriff des Differenzenquotienten formula_300, der in der reellen wie der komplexen Analysis so erfolgreich ist, muss wegen der Nicht-Kommutativität als linke "und" rechte Version definiert werden. Legt man dann genauso strenge Maßstäbe wie bei der komplexen Differenzierbarkeit an, dann stellt sich heraus, dass gerade mal lineare Funktionen, und zwar formula_301 links und formula_302 rechts, differenzierbar sind. Immer definieren lässt sich aber eine Richtungsableitung und das Gâteaux-Differential. Ausgehend von den Cauchy-Riemannschen Differentialgleichungen und dem Satz von Morera wurde folgender Regularitätsbegriff gefunden: Eine quaternionische Funktion ist regulär an der Stelle formula_303, wenn ihr Integral über jeder hinreichend kleinen formula_303 umschließenden Hyperfläche verschwindet. Vektoranalysis. Im Folgenden werden Vektoren im dreidimensionalen Raum formula_307 mit reinen Quaternionen formula_308, also die üblichen formula_309-Koordinaten mit den formula_44-Komponenten identifiziert. Definiert man den Nabla-Operator (wie Hamilton) als und wendet ihn auf eine skalare Funktion formula_312 als (formale) Skalarmultiplikation an, erhält man den Gradienten als (formales) Skalarprodukt ergibt die Divergenz Die Anwendung auf ein Vektorfeld als (formales) Kreuzprodukt ergibt die Rotation Die Anwendung auf ein Vektorfeld als (formales) Produkt zweier reiner Quaternionen ergibt mit formula_318 als Skalarteil und formula_319 als Vektorteil der Quaternion. Zweimalige Anwendung auf eine Funktion formula_320 ergibt den Laplace-Operator formula_321 d. h. formula_323 wirkt wie ein Dirac-Operator als (formale) „Quadratwurzel“ des (negativen) Laplace-Operators. Drehungen im dreidimensionalen Raum. Einheitsquaternionen können für eine elegante Beschreibung von Drehungen im dreidimensionalen Raum verwendet werden: Für eine feste Einheitsquaternion formula_179 ist die Abbildung auf formula_163 eine Drehung. (Hier, wie im Folgenden, ist nur von Drehungen die Rede, die den Ursprung festlassen, d. h. deren Drehachse durch den Ursprung verläuft.) Die Polardarstellung stellt die Einheitsquaternion formula_328 durch einen Winkel formula_329 und eine reine Einheitsquaternion formula_164 eindeutig dar als Dann ist formula_332 eine Drehung des formula_333 um die Achse formula_334 mit Drehwinkel formula_335. Für jede Einheitsquaternion formula_179 definieren formula_179 und formula_338 dieselbe Drehung; insbesondere entsprechen formula_339 und formula_159 beide der identischen Abbildung (Drehung mit Drehwinkel 0). Im Unterschied zur Beschreibung von Drehungen durch orthogonale Matrizen handelt es sich also um keine 1:1-Entsprechung, zu jeder Drehung formula_341 gibt es genau "zwei" Einheitsquaternionen formula_179 mit formula_343. Die Hintereinanderausführung von Drehungen entspricht der Multiplikation der Quaternionen, d. h. ein Homomorphismus der Gruppe formula_155 der Einheitsquaternionen in die Drehgruppe formula_348. Sie ist eine Überlagerung der formula_348, und, da ein Bildelement formula_350 genau die zwei Urbilder formula_351 hat, "zwei"blättrig, weshalb der Homomorphismus auch "2:1-Überlagerung(shomomorphismus)" genannt wird. Ferner ist sie universell, da formula_352 einfach zusammenhängend ist. Bezug zu orthogonalen Matrizen. Explizit entspricht der Einheitsquaternion formula_353, mit formula_355 und formula_356 Sie bildet eine reine Quaternion formula_194 auf formula_360 ab. gegeben und ist die Spur die Drehung formula_365, denn es ist formula_366 für jede reine Quaternion formula_194 . Wenn man die homogen formulierte Version von formula_368 als Eingabematrix nimmt, produziert die gezeigte Lösung mit formula_369 die Quaternion formula_370. Wegen formula_371 kann die Homogenität in den formula_372 durch die Setzung formula_373 aufrechterhalten werden. Die formula_348 hat wie die formula_155 über formula_18 die Dimension 3. Die 9 Komponenten von formula_377 können also nicht alle frei wählbar sein. Da einer jeden Matrix formula_378 eine Quaternion formula_179 entspricht, decken die Drehmatrizen formula_368 die ganze formula_348 ab. Bei formula_368 ist formula_383. Falls also formula_377 wirklich formula_385, ist auch formula_386 die Einheitsquaternion zu formula_387. Überlegungen zur numerischen Stabilität des Problems finden sich in. Bezug zu Eulerwinkeln. Für Eulerwinkel gibt es verschiedene Konventionen; die folgende Darlegung bezieht sich auf die Drehung, die man erhält, wenn man zuerst um die formula_388-Achse um den Winkel formula_389, dann um die neue formula_2-Achse um den Winkel formula_391 und schließlich um die neue formula_388-Achse um den Winkel formula_393 dreht, d. i. die sog. „x-Konvention“ (z, x’, z’’) mit allen Winkeln "doppelt". Die Einzeldrehungen entsprechen den Einheitsquaternionen und da jeweils um die mitgedrehten Achsen gedreht wird, ist die Reihenfolge der Komposition umgekehrt. Die Gesamtdrehung entspricht also Für andere Konventionen ergeben sich ähnliche Formeln. Die Eulerwinkel zu einer gegebenen Quaternion lassen sich an der zugehörigen Drehmatrix ablesen. Universelle Überlagerung der Drehgruppe; Spingruppe. Wie im Abschnitt Einheitsquaternionen gezeigt, gibt es einen durch die Hamiltonschen Zahlen vermittelten Isomorphismus zwischen der Gruppe formula_155 der Einheitsquaternionen und der speziellen unitären Gruppe formula_156. Diese beiden Gruppen sind isomorph zur Spingruppe formula_402 (zur Physik: siehe Spin). Die liefert also einen Homomorphismus der Spingruppe formula_402 in die Drehgruppe formula_348. Diese Überlagerung ist zweiblättrig und universell, da formula_405 im Gegensatz zur formula_348 einfach zusammenhängend ist. Die natürliche Operation von formula_156 auf formula_408 ist eine sog. Spinordarstellung. dabei ist formula_169 die imaginäre Einheit der komplexen Zahlen. Die Pauli-Matrizen haben –1 zur Determinante (sind also keine Quaternionen), sind spurfrei und hermitesch und kommen daher in der Quantenmechanik als "messbare Größen" in Frage, was sich für die Anwendungen (s. mathematische Struktur der Quantenmechanik) als wichtig erwiesen hat. Einzelheiten sind im Artikel SU(2) dargestellt. Orthogonale Abbildungen des vierdimensionalen Raumes. Analog zum dreidimensionalen Fall kann man jede orientierungserhaltende orthogonale Abbildung von formula_1 in sich selbst in der Form für Einheitsquaternionen formula_416 beschreiben. Es gilt mit Kern formula_419. Die endlichen Untergruppen. der einer Einheitsquaternion formula_421 die 3D-Drehung zuordnet, muss eine endliche Gruppe formula_423 von Quaternionen in eine endliche Gruppe formula_424 überführen, die dann eine endliche Drehgruppe im formula_307 ist. Man findet zyklische Gruppen formula_426 und Polyedergruppen, also die Diedergruppen formula_427 (Zählweise der "n"-Ecke), die Tetraedergruppe formula_428, die Oktaedergruppe formula_429 und die Ikosaedergruppe formula_430. Die Erzeugenden der zyklischen Gruppen sind Einbettungen von Einheitswurzeln formula_431. Die Urbilder der formula_427, formula_428, formula_429, formula_430 unter formula_341 werden als formula_437, formula_438, formula_439, formula_440 bezeichnet, also formula_441 für eine Polyedergruppe formula_442. Die zyklischen Gruppen formula_426 sind in naheliegender Weise Untergruppen von anderen Gruppen. Die Quaternionengruppe formula_69 = formula_469 ist eine Untergruppe der binären Tetraedergruppe formula_438. Die Automorphismengruppe von formula_69 ist isomorph zur Oktaedergruppe formula_472 (Symmetrische Gruppe). Ihre Elemente sind ebenfalls Automorphismen von formula_438, formula_439, formula_440 und formula_1. Die konvexen Hüllen sind (bis auf die Fälle formula_426, bei denen man mit 2 Dimensionen auskommt) 4-Polytope und haben, da alle Gruppenelemente von der Länge 1 sind, die Einheits-3-Sphäre formula_155 als Um-3-Sphäre. Die Ränder dieser 4-Polytope, also die Zellen, sind Ansammlungen von Tetraedern – bis auf den Fall formula_438, bei dem es Oktaeder sind. Bei den regulären unter den konvexen Hüllen ist es klar, dass die Zellen ebenfalls regulär und zueinander kongruent sind und es eine In-3-Sphäre gibt, die alle Zellen (an ihrem Mittelpunkt) berührt. Die übrigen, nämlich formula_437 und formula_439, spannen sog. perfekte 4-Polytope auf. Hier sind die Zellen tetragonale Disphenoide, welche ebenfalls alle zueinander kongruent sind und an ihrem Mittelpunkt von der In-3-Sphäre berührt werden. Automorphismen. Die Konjugation als Spiegelung an der reellen Achse ist "anti"homomorph in der Multiplikation, d. h. formula_495, und wird als involutiver Antiautomorphismus bezeichnet, weil sie zudem eine Involution ist. Komplexe Matrizen. Im Ring formula_496 der komplexen 2×2-Matrizen bildet man den von den Elementen erzeugten Unterring formula_498, wobei die imaginäre Einheit der komplexen Zahlen als formula_169 kenntlich gemacht ist. mit reellen formula_501 und komplexen formula_502 hat die Determinante formula_503, die nur dann 0 ist, wenn formula_504. Somit sind alle von der Nullmatrix verschiedenen Matrizen invertierbar – und der Ring formula_498 ist ein Schiefkörper. Der so konstruierte Schiefkörper erweist sich als isomorph zu den Quaternionen. Denn die Abbildung formula_506 mit den Zuordnungen ist homomorph in den Verknüpfungen Addition und Multiplikation, wobei letztere der Matrizenmultiplikation zuzuordnen ist. Die konjugierte Quaternion geht auf die adjungierte Matrix und die Norm auf die Determinante. Darüber hinaus ist die Abbildung injektiv und stetig, also topologisch. Es gibt verschiedene Möglichkeiten für die Einbettung formula_506, die alle zueinander konjugiert und homöomorph sind. Reelle Matrizen. Ganz analog kann man die Quaternion formula_12 auch als reelle 4×4-Matrix schreiben. Die Konjugation der Quaternion entspricht der Transposition der Matrix und der Betrag der vierten Wurzel aus der Determinante. Das Modell der reellen Matrizen ist bspw. dann vorteilhaft, wenn man eine Software für lineare Algebra mit Schwächen bei den komplexen Zahlen hat. Quotientenalgebra. Eine elegante, aber zugleich abstrakte Konstruktion stellt der Weg über den Quotienten des nichtkommutativen Polynomrings in drei Unbestimmten, deren Bilder formula_512 sind, modulo des Ideals, das von den Hamilton-Regeln erzeugt wird. Alternativ kommt man auch mit nur zwei Unbestimmten aus. Auf diese Weise ergibt sich die Quaternionen-Algebra als Clifford-Algebra der zweidimensionalen, euklidischen Ebene mit Erzeugern formula_513. Im Zusammenhang mit dreidimensionalen Drehungen ist auch die Interpretation als der gerade Anteil der Clifford-Algebra des dreidimensionalen, euklidischen Raumes wichtig. Die Erzeuger werden dann mit formula_514 identifiziert. Die Quaternionen als Algebra. Es gibt bis auf Isomorphie genau vier endlichdimensionale formula_18-Algebren, deren Multiplikation ohne Nullteiler ist, nämlich den Körper formula_18 der reellen Zahlen selbst, den Körper formula_176 der komplexen Zahlen, den Schiefkörper formula_1 der Quaternionen und den Alternativkörper formula_519 der Cayleyschen Oktaven. Das Zentrum von formula_1 ist formula_18; die Quaternionen sind also eine zentraleinfache Algebra über formula_18. Reduzierte Norm und Spur sind durch Die komplexe Konjugation auf dem Faktor formula_176 des Tensorproduktes entspricht einer Involution formula_245 der Matrizenalgebra. Die Invarianten von formula_245, d. s. die von formula_245 fix gelassenen Elemente formula_2 mit formula_533, bilden eine zu formula_1 isomorphe Algebra. Zur oben angegebenen Matrixdarstellung der Quaternionen als komplexe Matrizen passt die Involution Die Tatsache, dass die Brauergruppe von formula_18 nur aus zwei Elementen besteht, spiegelt sich auch darin wider, dass Allgemein bezeichnet man jede vierdimensionale zentraleinfache Algebra über einem Körper als eine Quaternionenalgebra. Die Quaternionen sind die Clifford-Algebra zum Raum formula_444 mit einer negativ-definiten symmetrischen Bilinearform. Quaternionen über den rationalen Zahlen. Bei allen obigen Arten der Konstruktion spielt die Vollständigkeit des Koeffizientenvorrats keine Rolle. Deshalb kann man (anstatt von den reellen Zahlen formula_540 über formula_541 zu formula_542) auch von anderen Grundkörpern, z. B. den rationalen Zahlen formula_543, ausgehen, um via gaußsche Zahlen formula_544 bei den Quaternionen mit rationalen Koeffizienten anzukommen – mit formal denselben Rechenregeln. Danach kann, falls überhaupt erforderlich, die Vervollständigung für die Betragsmetrik durchgeführt werden mit einem Endergebnis isomorph zu formula_542. Insofern kann bei vielen Aussagen formula_540 durch formula_543, formula_549 durch formula_544 und formula_542 durch formula_552 ersetzt werden. Da es nach dem Satz von Wedderburn keinen endlichen Schiefkörper mit nicht-kommutativer Multiplikation gibt und die Dimension des Vektorraums formula_552 über seinem Primkörper und Zentrum formula_543 mit formula_555 minimal ist, gehört formula_552 als abzählbare Menge zu den „kleinsten“ Schiefkörpern mit nicht-kommutativer Multiplikation – auf jeden Fall enthält formula_552 keinen kleineren. Der Körper formula_552 besitzt einen sog. Ganzheitsring, d. h. eine Untermenge von Zahlen, genannt Hurwitzquaternionen, die einen Ring bilden und formula_552 zum Quotientenkörper haben, – ganz ähnlich, wie es sich bei den ganzen Zahlen formula_560 und ihrem Quotientenkörper formula_543 verhält. In einem solchen Ring lassen sich bspw. Approximationsfragen, Teilbarkeitsfragen u. Ä. untersuchen. Weitere Grundkörper. Auch Körper formula_562 eignen sich als Ausgangspunkt zur Bildung nicht-kommutativer Erweiterungskörper nach Art der Quaternionen. Wichtig ist, dass in formula_563 die Summe aus 4 Quadraten formula_564 nur für formula_565 verschwindet. Dann gibt es auch kein formula_566 mit formula_567 und formula_568 ist eine echte quadratische Erweiterung, die eine Konjugation definiert. Diese Bedingungen sind z. B. bei allen formal reellen Körpern erfüllt. Aber auch bei Körpern, die nicht angeordnet werden können, kann die obige Bedingung betreffend die Summe aus 4 Quadraten erfüllt sein, bspw. im Körper formula_569 der 2-adischen Zahlen. Der so über formula_569 gebildete Quaternionenkörper ist isomorph zur Vervollständigung des (oben beschriebenen) Körpers formula_571 der Quaternionen mit rationalen Koeffizienten für die folgende (nichtarchimedische diskrete) Bewertung formula_245 , dem 2-Exponenten der Norm, mit   formula_574 . Die Primzahl formula_575 ist die einzige, für die die Quaternionen-Algebra über formula_576 nullteilerfrei und ein Schiefkörper ist. Eulerscher Vier-Quadrate-Satz. Die Identität, die aus dem Produkt zweier "Summen von vier Quadraten" wieder eine "Summe von vier Quadraten" macht, gilt universell – einschließlich aller Varianten, die durch Vorzeichenspiel und Permutation entstehen, – in jedem Polynomring formula_582 über einem kommutativen unitären Ring formula_583 und kann im Nachhinein als „Abfallprodukt“ der Multiplikativität des quaternionischen Betrags angesehen werden. Ihre Entdeckung 1748, also lange "vor" der Quaternionenzeit, geht jedoch auf Leonhard Euler zurück, der mit ihrer Hilfe den 1770 erstmals erbrachten Beweis von Joseph Louis Lagrange für den lange vermuteten Vier-Quadrate-Satz wesentlich vereinfachen konnte. Ingenieurwissenschaften. Die Darstellung von Drehungen mithilfe von Quaternionen wird heutzutage im Bereich der interaktiven Computergrafik genutzt, insbesondere bei Computerspielen, sowie bei der Steuerung und Regelung von Satelliten. Bei Verwendung von Quaternionen an Stelle von Drehmatrizen werden etwas weniger Rechenoperationen benötigt. Insbesondere, wenn viele Drehungen miteinander kombiniert (multipliziert) werden, steigt die Verarbeitungsgeschwindigkeit. Des Weiteren werden Quaternionen, neben den Eulerwinkeln, zur Programmierung von Industrierobotern (z. B. ABB) genutzt. Physik. Durch die Verwendung der Quaternionen kann man in vielen Fällen auf getrennte Gleichungen zur Berechnung von Zeit und Raum verzichten. Dies bietet Vorteile in der Physik, unter anderem in den Gebieten Mechanik, Wellengleichungen, Spezielle Relativitätstheorie und Gravitation, Elektromagnetismus sowie der Quantenmechanik. Wie im Abschnitt Vektoranalysis werden Vektoren im dreidimensionalen Raum mit reinen Quaternionen identifiziert. Elektromagnetismus. Die Maxwell-Gleichungen zur Beschreibung des Elektromagnetismus sind der bekannteste Anwendungsfall für Quaternionen. Die Maxwellgleichungen werden durch eine Gruppe von Kommutatoren und Antikommutatoren des Differenzoperators, des elektrischen Feldes "E" und dem magnetischen Feld "B" im Vakuum definiert. Im Wesentlichen sind dieses die homogene Maxwellgleichung und das gaußsche Gesetz. mit formula_211 als (formalen) Quaternionen und diversen formalen Produkten. Hierbei besagt formula_590, dass keine magnetischen Monopole existieren. formula_591 ist das Faradaysche Induktionsgesetz. Hierbei ergibt formula_594 das gaußsche Gesetz und formula_595 das von Maxwell korrigierte Ampèresche Durchflutungsgesetz. Elektromagnetisches Viererpotential. Die elektrischen und magnetischen Felder werden häufig als elektromagnetisches Viererpotential (d. h. als 4-wertiger Vektor) ausgedrückt. Dieser Vektor kann auch als Quaternion umformuliert werden. Hierbei sind die Ausdrücke formula_606 und formula_607 die beiden Quellenfelder, die durch die Differenz aus zwei Kommutatoren und zwei Antikommutatoren gebildet werden. Das Induktionsgesetz formula_608 und das Durchflutungsgesetz formula_609 werden durch die Summe aus den zwei ineinanderliegenden Kommutatoren und Antikommutatoren gebildet. Lorentzkraft. Die Lorentzkraft wird auf ähnliche Weise aus den Maxwellgleichungen abgeleitet. Allerdings müssen die Vorzeichen korrigiert werden. Erhaltungssatz. Der Erhaltungssatz der elektrischen Ladung wird durch die Anwendung des konjugierten Differenzoperators auf die Quellen der Maxwellgleichung gebildet. Mit formula_612 sei hier der Real- oder Skalarteil der Quaternion formula_2 bezeichnet. In den Beispielen ist formula_2 ein Quaternionenprodukt. Diese Gleichung zeigt, dass das Skalarprodukt des elektrischen Feldes formula_621 plus dem Kreuzprodukt des magnetischen Feldes formula_622 auf der einen Seite, sowie der Stromdichte formula_623 plus der Frequenz der Ladungsdichte formula_341 auf der anderen Seite, gleich ist. Dieses bedeutet, dass die Ladung bei der Umformung erhalten bleibt. Poyntings Energieerhaltungssatz wird in auf dieselbe Weise abgeleitet, mit dem Unterschied, dass statt des Differentials das konjugierte elektrische Feld formula_621 verwendet wird. umformen, was der Poynting-Gleichung entspricht. Der Ausdruck formula_637 entspricht hierbei dem Poynting-Vektor. Geschichte. a> die Multiplikationsregeln im Oktober 1843 spontan in den Stein ritzte. William Rowan Hamilton hatte 1835 die Konstruktion der komplexen Zahlen als Zahlenpaare angegeben. Dadurch motiviert, suchte er lange nach einer entsprechenden Struktur auf dem Raum formula_307 der Zahlentripel; heute weiß man, dass keine derartige Struktur existiert. 1843 schließlich gelangte er zu der Erkenntnis, dass es möglich ist, eine Multiplikation auf der Menge der 4-Tupel zu konstruieren, wenn man dazu bereit ist, die Kommutativität aufzugeben. In einem Brief an seinen Sohn gibt er als Datum den 16. Oktober 1843 an und berichtet, er habe sich spontan dazu hinreißen lassen, die Multiplikationsregeln in einen Stein an der Brougham Bridge (heute Broombridge Road) in Dublin zu ritzen; später wurde dort eine Gedenktafel angebracht. Die Rechenregeln für Quaternionen waren in Ansätzen schon früher bekannt, so findet sich die Formel für den Vier-Quadrate-Satz bereits bei Leonhard Euler (1748). Andere, auch allgemeinere Multiplikationsregeln wurden von Hermann Graßmann untersucht (1855). Schon kurz nach der Entdeckung der Quaternionen fand Hamilton die Darstellung von Drehungen des Raumes mithilfe von Quaternionen und damit eine erste Bestätigung der Bedeutung der neuen Struktur; Arthur Cayley entdeckte 1855 die entsprechenden Aussagen über orthogonale Abbildungen des vierdimensionalen Raumes. Die bloße Parametrisierung der formula_639-Drehmatrizen war hingegen schon Euler bekannt. Cayley gab 1858 in der Arbeit, in der er Matrizen einführte, auch die Möglichkeit der Darstellung von Quaternionen durch komplexe formula_640-Matrizen an. Verwandte Themen. Ähnliche Konstruktionen wie die Quaternionen werden manchmal unter dem Namen „hyperkomplexe Zahlen“ zusammengefasst. Beispielsweise sind die "Cayley-Zahlen" oder "Oktaven" ein achtdimensionales Analogon zu den Quaternionen; ihre Multiplikation ist allerdings weder kommutativ noch assoziativ. Quadratmeter. Quadratmeter ist ein Flächenmaß, nämlich die kohärente SI-Einheit einer Fläche. Ein Quadratmeter ist die Fläche eines Quadrats der Seitenlänge 1 Meter. Das Einheitenzeichen für Quadratmeter ist "m2". Die oft gelesene Abkürzung "qm" ist ein veraltetes, im aktuell gültigen SI-Einheitensystem nicht mehr zulässiges Einheitenzeichen. Umgangssprachlich wird der Quadratmeter auch "Meter im Quadrat" oder "Geviertmeter" (veraltet) genannt. Umrechnungen. "Barn", "Ar" und "Hektar" sind in Deutschland, Österreich und der Schweiz gesetzliche Einheiten im Messwesen mit "beschränktem Anwendungsbereich". Das Barn darf nur in Kern- und Atomphysik, Ar und Hektar dürfen nur bei der Flächenangabe für Grund- und Flurstücke benutzt werden. Zur Angabe von Wohnflächen gelten besondere Regeln (prozentuale Abschläge für Nebenräume oder unter Dachschrägen usw.), sodass eine rechtlich korrekte Angabe von der gemessenen Grundfläche abweichen kann. Häufige Abwandlungen der Einheit Quadratmeter. Indem man zwischen "Quadrat-" und "-meter" ein entsprechendes SI-Präfix setzt, kann man auch andere Maße für Flächen definieren. Der Vorsatz wird dabei gemäß dem internationalen Einheitensystem (SI) direkt vor die Basiseinheit gesetzt. Quadratmillimeter. Der Quadratmillimeter (Einheitenzeichen: mm2) ist eine SI-Einheit der Fläche. Ein Quadratmillimeter oder „Millimeter zum Quadrat“ ist die Fläche eines Quadrates mit 1 Millimeter = 0,1 Zentimeter Seitenlänge. Es gilt: 100 mm2 = 1 cm2. Quadratzentimeter. Der Quadratzentimeter (Einheitenzeichen: cm2) ist eine SI-Einheit für die Fläche. Ein Quadratzentimeter oder „Zentimeter zum Quadrat“ ist die Fläche eines Quadrates mit 1 Zentimeter = 10 Millimeter Seitenlänge. Mit der Verbreitung der Computer trat das Problem auf, dass die hochgestellte „2“ anfangs nicht dargestellt werden konnte, daher wurden und werden teilweise noch die Behelfsschreibungen „cm2“, „cm^2“ und „cm**2“ verwendet. Es gilt: 100 cm2 = 1 dm2. Quadratdezimeter. Der Quadratdezimeter (Einheitenzeichen: dm2) ist ein Flächenmaß. Ein Quadratdezimeter oder „Dezimeter zum Quadrat“ ist die Fläche eines Quadrates mit 1 Dezimeter Seitenlänge. Auch die Umschreibungen „qdm“, „dm^2“ und „dm**2“ werden benutzt, sind aber unzulässig. Es gilt: 10.000 cm2 = 100 dm2 = 1 m2. Quadratkilometer. Ein Quadratkilometer ist die Fläche eines Quadrats von 1 Kilometer Seitenlänge. Ein Quadratkilometer umfasst 100 Hektar. Das Einheitenzeichen für Quadratkilometer ist "km2". Es gilt: 1.000.000 m2 = 1 km2. Die immer noch oft verwendete Abkürzung "qkm" entspricht nicht dem Internationalen Einheitensystem, den in Normen festgelegten Empfehlungen des Deutschen Instituts für Normung (DIN) und den deutschen Rechtsvorschriften über gesetzliche Einheiten im Messwesen. Recht. Eine Rechtsordnung ist nicht ein Gefüge „abstrakter“, vom Leben abgelöster Normen, sondern als geltendes Recht ein Gefüge „wirksamer“ Normen, die hinreichende Motivationskraft (notfalls auch Durchsetzungschancen) besitzen, das von ihnen vorgesehene Verhalten zu „bewirken“, kurz, Recht ist "law in action," das durch menschliches Handeln „zur Geltung gebracht“ wird und sich hierbei in die Lebenswirklichkeit der jeweiligen Kultur und deren Zeitgeist fügt. "Objektives Recht" sind die allgemeingültigen, generellen Rechtsnormen: Regeln mit allgemeinem Geltungsanspruch, die gewohnheitsrechtlich entstehen oder als „positives“ (d. h. gesetztes) Recht von staatlichen oder überstaatlichen Gesetzgebungs­organen oder satzungsgebenden Körperschaften geschaffen werden. Im Gegensatz zu Moral und Sitte ist das Recht staatlich gewährleistet. Die Normen des objektiven Rechts fügen sich zu staatlichen Rechtsordnungen zusammen. Deren Grundbausteine sind die Gebote, die ein bestimmtes Tun oder Unterlassen vorschreiben, und die Rechtsentstehungsnormen. Dies sind – außer den in der Frühzeit des Rechts bedeutsamen Regeln über die Entstehung von Gewohnheitsrecht – heute vor allem gesetzliche Ermächtigungen, die bestimmen, wer auf welche Weise die allgemeinen Vorschriften erlassen oder konkrete Rechtspflichten begründen kann (Letzteres z. B. durch eine behördliche Anordnung oder „privatautonom“, insbesondere durch Abschluss eines Vertrages). Ein "subjektives Recht" ist die konkrete Berechtigung eines Rechtssubjekts (etwas zu tun, zu unterlassen oder von einem anderen zu verlangen), die sich entweder unmittelbar aus dem objektiven Recht ergibt oder in ihm ihre (Ermächtigungs-)Grundlage hat. Zu solchen Berechtigungen gehören insbesondere die individuellen Freiheitsrechte, die sich aus den generellen Grundrechtsgarantien ergeben (z. B. das Recht, seinen Beruf zu wählen), ferner Ermächtigungen zu rechtswirksamen Handlungen (z. B. ein Kündigungsrecht, durch das ein Mietvertrag beendet werden kann) und schließlich Ansprüche, von einem anderen etwas zu verlangen. Die rechtliche Gewährleistung für solches „Verlangenkönnen“ liegt darin, dass der Berechtigte vor Gericht klagen und dieses dadurch verpflichten kann, ihm zur Durchsetzung seines Rechts zu verhelfen "(ubi actio ibi ius)." Eine wesentliche Komponente eines subjektiven Rechts ist also eine rechtlich gewährleistete Durchsetzungsinitiative. Die Bedeutung des Begriffs „Recht“ variiert je nach Verwendungszusammenhang; auch wissenschaftlich unterscheidet er sich je nach Disziplin, wobei auch innerhalb der Disziplinen keine Einigkeit besteht. Die Schwierigkeiten einer allgemeinen Definition werden deutlich, wenn man die verschiedenen Komposita betrachtet, die "Recht" als Teilbegriff beinhalten. Als Beispiele seien genannt: Strafrecht, Kirchenrecht, Naturrecht, Völkerrecht, Richterrecht, Gewohnheitsrecht. Daneben lassen sich mehrere Gegenbegriffe ausmachen; jede Definition hängt auch davon ab, von welchen dieser Begriffe sie "Recht" unterscheiden will. Als Beispiele seien hier genannt: Recht und Unrecht; Recht, Moral und Sitte; Rechte und Pflichten; Recht und Gerechtigkeit; Gesetz und Recht (Abs. 3 GG). Rechtssystematisch wird das ursprüngliche apodiktische Recht etwa der Zehn Gebote (Du sollst/sollst nicht …) vom konditionalen Recht (wenn – dann) unterschieden, das die moderne Gesetzgebung prägt. Etymologie. Das Wort "Recht" ist aus der indogermanischen Wurzel *"h₃reĝ"-, „aufrichten, gerade richten“ entstanden und somit aus etymologischer Sicht moralisch konnotiert. Der etymologische Hintergrund des deutschen Wortes ist der gleiche wie in vielen europäischen Sprachen (franz. "droit", span. "derecho", ital. "diritto", engl. "right"); auch in außereuropäischen Sprachen finden sich Entsprechungen. Inhaltlich ist der deutsche Begriff stark von der Bedeutung des lateinischen "ius" beeinflusst, das ursprünglich die menschliche Ordnung gegenüber der überirdischen Ordnung ("fas") bezeichnete. Diese mit "ius" bezeichnete Ordnung wurde durch "leges" konkretisiert, die zunächst Riten darstellten, später aber in die Form staatlicher Gesetze überführt wurden. Mit dieser Begriffswende der "lex" vom Ritus zum staatlichen Gesetz veränderte sich der Begriff des lateinischen "ius" und über die spätscholastische Philosophie und die Rezeption des römischen Rechts auch die Bedeutung des deutschen Worts „Recht“. In diesem etymologischen Dreiklang aus moralischem Anspruch, herkömmlich-ritueller Lebensordnung und staatlicher Gesetzgebung finden sich bereits drei wesentliche Eckpunkte des (modernen) Diskurses über den Rechtsbegriff, die noch um die geschichtliche Bedingtheit des Rechts ergänzt werden können. Der Diskurs über den Rechtsbegriff. Vor dem Hintergrund dieses sprachgeschichtlich vielschichtigen Begriffs wird die Frage, was Recht ist, wie also „Recht“ von der Gesamtheit gesellschaftlicher Normen abzugrenzen ist, unterschiedlich beantwortet. Essentialistische Ansätze versuchen, diese Frage allgemein verbindlich zu beantworten und beanspruchen damit den „wahren“ Begriff des Rechts. Demgegenüber versuchen nominalistische Ansätze lediglich, eine praktikable Definition aufzustellen, die den Rechtsbegriff für den jeweiligen Untersuchungsbereich zweckmäßig erfasst, während er „für andere Zwecke ganz anders abgegrenzt werden mag“. Insbesondere bei Vertretern des Rechtspositivismus, die nur staatliche Gesetze als Recht anerkennen wollen, ist allerdings häufig unklar, inwieweit die Autoren eine essentialistische oder nominalistische Definition beabsichtigen. Rechtsdogmatik. Das wohl gängigste Verständnis des Rechtsbegriffs in der Rechtsdogmatik geht von einer engen Verknüpfung des Rechts mit dem Staat aus. Danach gehören zum Recht die staatlich erlassenen Rechtssätze (Gesetze, Verordnungen, völkerrechtliche Verträge, Richterrecht etc.) sowie staatlich anerkannte Rechtssätze (Kirchenrecht, Handelsgewohnheitsrecht, in begrenztem Umfang auch Naturrecht). Eine solche Definition vermeidet insbesondere Abgrenzungsschwierigkeiten gegenüber moralischen und sittlichen Normen; diese können durch staatliche Akte zu Rechtsnormen werden. Rechtsethnologie. In der Rechtsethnologie (oder: Rechtsanthropologie) wurde gerade in den Anfängen ethnologischer Forschung darüber diskutiert, ob Konfliktlösungsmechanismen nichtstaatlicher Gesellschaften als Recht bezeichnet werden können. Die Frage, ob nichtstaatliche Gesellschaften über Recht (und nicht nur über Moral und Sitte) verfügen, wird inzwischen mehrheitlich bejaht. Rechtsphilosophie. Die Rechtsphilosophie umfasst unter allen Disziplinen die wohl größte Spannbreite an unterschiedlich verstandenen Rechtsbegriffen. Während der Rechtspositivismus allein auf staatliche Normen abstellt, sehen Naturrechtslehren die staatlichen Gesetze – wenn überhaupt – als Teil des Rechts an. Eine Zwischenstellung nimmt die Historische Schule der Rechtswissenschaft ein, die das positive Recht gerade als geschichtlich gewachsene Ausprägung des Naturrechts ansieht. Rechtssoziologie. Die Rechtssoziologie kennt drei Wege, Recht als gesellschaftlichen Teilbereich zu erfassen: zum Ersten durch die Feststellung von Normen, die im Zusammenleben der Gruppe für verbindlich gehalten werden und an denen sich aus diesem Grunde die Normadressaten bei ihrem Verhalten orientieren; zum Zweiten durch die Feststellung von Verhaltensmustern, nach denen das Gruppenleben tatsächlich abläuft; und zum Dritten durch die Feststellung von Verhaltensmustern, nach denen der Rechtstab in bestimmten sozialen Situationen reagiert. Rechtstheologie. Das Recht ist definiert als eine im Menschen innerlich wirkende geistige Macht, die ihn antreibt, bestimmte Dinge zu tun oder zu unterlassen, die aber durch eine äußere Macht unterstützt werden muss, um ein gedeihliches Zusammenleben der Menschen zu erzielen. Alle alten Völker schreiben dem Recht einen überirdischen Ursprung zu. Allgemeines zur Geschichtlichkeit des Rechts. „Alles Recht entwickelt sich.“ Diese Wandelbarkeit des positiven Rechts wurde von Montesquieu erstmals artikuliert und ist heute unbestritten. Über lange Zeiten der Geschichte scheint es aber nicht im gesellschaftlichen Bewusstsein verankert gewesen zu sein, dass positives Recht evolutionären Charakter hat und somit geändert werden kann. So erklärt sich beispielsweise, dass große Kodifikationen sich zumeist auf älteres, bestehendes Recht berufen oder dass einige Rechtsänderungen im Mittelalter mittels Urkundenfälschungen, die ein schon bestehendes Recht vortäuschten, vorgenommen wurden. Der Geschichtlichkeit des Rechts widersprechen auch solche Theorien nicht, die bestimmte Funktionen des Rechts zur Bestimmung von Normgefügen als Recht heranziehen. Denn diese Funktionen sind nicht rechtsimmanent, sondern werden ihm zur besseren Analyse zugeschrieben. Der geschichtliche Ursprung des Rechts. Mit dem geschichtlichen Ursprung des Rechts befasst sich die Rechtsethnologie; er spielt aber auch zu Bekräftigung rechtsphilosophischer und -soziologischer Hypothesen eine Rolle. Als erste schriftliche Kodifikationen des Rechts gelten der Codex Ur-Nammu und der Codex Hammurapi. Wie bei allen frühen schriftlichen Quellen (z. B. auch beim Zwölftafelgesetz) war der Inhalt dieser Codices jedoch keine genuine Rechtsetzung, sondern – zumindest zum Teil – eine Sammlung und Zusammenfassung bestehender, ungeschriebener Rechtsnormen. Über die Entstehung dieses frühgeschichtlichen ungeschriebenen Rechts als soziales Teilsystem gibt es keine Gewissheit; nach der ganz überwiegenden Ansicht jedoch waren Recht, Religion und Moral in vorgeschichtlichen Gesellschaften nicht abgrenzbare Teile einer umfassenden Sittlichkeit, die sich erst in einer späteren Phase der gesellschaftlichen Entwicklung als eigenständige Teilsysteme ausdifferenziert haben. Nach einer anderen Hypothese ist das Recht eine Hervorbringung der Religion. In diesem Sinne sollen Rechtsnormen aus religiösen Normen umgewandelte Handlungsvorschriften sein. In der Tat berufen sich noch heute einige Rechtssysteme auf ihre Entstehung aus göttlicher Offenbarung, so das jüdische Recht, die Scharia und zum Teil das kanonische Recht. Aufgrund mehrerer Argumente wird diese Hypothese heute allerdings nicht mehr ausdrücklich vertreten: Wesel hält ihr entgegen, dass in den Gesellschaften der Jäger und Sammler die Verbote des Ehebruchs, des Totschlags und des Diebstahls niemals religiöse Bedeutung gehabt hätten. Zudem weist Malinowski darauf hin, dass religiöse Gebote archaischer Gesellschaften „absolut festgelegt, strikt zu befolgen und umfassend sind“, während ihre Rechtsregeln „dem Wesen nach elastisch und anpassungsfähig“ sind und es sich – in scheinbarem Widerspruch – gleichwohl „zweifellos um Regeln bindenden Rechts“ handeln kann. Diese Argumente sagen freilich nichts aus über die religiöse Legitimierung des Rechts in späteren Stadien der gesellschaftlichen Entwicklung; nur betrifft dies einen (späteren) Entwicklungsschritt des Rechts, hingegen nicht seinen geschichtlichen Ursprung. Recht, Moral und Sitte. Je nach Gesellschaftsordnung und politischer Auffassung überschneiden sich Recht, Moral und Sitte unterschiedlich stark. Recht und Moral decken sich häufig, jedoch nicht immer. Recht bezieht sich vornehmlich auf das äußere Verhalten des Menschen, während sich die Moral an die Gesinnung des Menschen wendet. Das Recht unterscheidet sich von der Moral auch durch die Art, wie es Geltung fordert und in einem normierten Verfahren durch von der Gemeinschaft autorisierte Organe (Justiz, Sicherheitsbehörden) zwangsweise durchgesetzt wird. Moralisches Verhalten ist in der Gemeinschaft nur erzwingbar, soweit es durch das Recht gefordert wird. Und Recht entstammt oft moralischen Bewertungen. Es gibt allerdings auch moralisch neutrale Rechtssätze, zum Beispiel das Links- oder Rechtsfahrgebot im Straßenverkehr. Eine Sitte wie eine Kleiderordnung kann rechtlich verbindlich sein: Richter und Rechtsanwälte sind bisweilen gesetzlich verpflichtet, eine Robe zu tragen; Frauen aus Ländern des islamischen Rechtskreises sind in ihrer Heimat gesetzlich verpflichtet, ein Kopftuch zu tragen, müssen aber in Europa bisweilen aus den gleichen Gründen darauf verzichten. Funktionen des Rechts. Die funktionelle Analyse wird meist aus rechtssoziologischer Perspektive vorgenommen. Wesel unterscheidet darüber hinaus aus historischer Perspektive zwischen vorstaatlichem und staatlichem Recht, wobei er dem vorstaatlichen Recht allein eine Ordnungs- und Gerechtigkeitsfunktion zuschreibt, während er das staatliche Recht zusätzlich durch eine Herrschafts- und (historisch später entstandene) Herrschaftskontrollfunktion gekennzeichnet sieht. Ähnlich unterscheidet Bernd Rüthers zwischen politischen, d. h. an Herrschaft gebundenen, und gesellschaftlichen Funktionen des Rechts, die er noch um Funktionen für das Individuum ergänzt. Die Friedensfunktion, auch Konfliktbereinigungs- oder Befriedungsfunktion genannt, bezeichnet die Wirkung des Rechts für den sozialen Frieden; dieser wird zum einen dadurch hergestellt, dass Streitigkeiten durch materielle und Verfahrensregelungen im Recht kanalisiert werden, zum anderen dadurch, dass durch bindende Beschlüsse, sei es eines Gerichts oder durch Einigung der Parteien, der Streit zwischen den Parteien beendet wird. In diesem, auch als Garantie- oder Rechtssicherheitsfunktion bezeichneten Wirkbereich stellt das Recht gewisse Erwartungen der Individuen sicher, indem sie gewisse Situationen in vorhersehbarer Weise regeln und somit eine verlässliche Basis sozialer Beziehungen zur Verfügung stellt. Dafür kommt es teils gar nicht auf den Inhalt der Regelungen an, sondern nur auf die Existenz einer Regelung an sich; als Beispiel für einen solchen Fall wird hier das Rechts- oder Linksfahrgebot genannt. Daneben dient Recht auch der Aufrechterhaltung der Werte, die die Einzelnen in einer Gesellschaft von Rechtsgenossen ihrem Handeln zugrunde legen. Insofern hat Recht auch die Funktion, bestehende Orientierungen aufrechtzuerhalten. Diese Funktion wird aus rechtssoziologischer Perspektive meist ausgeklammert; denn die Anerkennung dieser Funktion birgt die Gefahr, in einem nächsten Schritt die Werte zu ermitteln und somit den beschreibend-analytischen Weg zu verlassen. Die Freiheitsfunktion sichert dem Einzelnen Freiräume zu, die ihn vor Zugriffen Dritter und in neueren Stadien der Geschichte auch vor staatlicher Machtausübung schützen. Dieser Schutz kann durch Ansprüche gegenüber Dritten sowie Abwehr- oder Statusrechte vermittelt werden. Zudem dient das Recht auch der Integration von Gesellschaften. Die Rechtseinheit stellt zugleich eine politische Einheit her, die nicht zuletzt dadurch erfolgt, dass das Recht ein gemeinsames Rechtsbewusstsein und übereinstimmende Rechtsüberzeugungen schaffen kann. Diese, von Wesel Herrschaftsfunktion genannte Funktion beschreibt, dass sich politische Herrschaft des Rechts als legitimatorischen Instruments bedient. Dies kann – sowohl im Hinblick auf die Legitimation der konkreten Herrschaftsstruktur im Ganzen als auch im Hinblick auf die Legitimation einzelner Aspekte oder Entscheidungen – auf zwei Weisen geschehen: im Positiven, indem die Ausübung der Herrschaft rechtlichen Ansprüchen genügt, im Negativen, indem die rechtsförmige Ausgestaltung der Herrschaft den Anschein der Interesselosigkeit gibt und so die Sicht auf die eigentlichen Motive der Herrschaftsausübung trübt. Die Steuerungsfunktion bezeichnet die Möglichkeit, durch Rechtsnormen das Verhalten gesellschaftlicher Akteure zu regeln. Politische Programme werden mithilfe des Rechts umgesetzt und der Alltag hierdurch gestaltet und gesteuert; somit trägt das Recht mittelbar zur Beförderung sozialen Wandels bei. Die Kontrollfunktion des Rechts ermöglicht die nachträgliche Überprüfung der Herrschaftsausübung und begrenzt die Herrschaft dadurch. Sie ist unter den Funktionen des Rechts die jüngste. Die Kontrolle kann durch Außenstehende oder politische Konkurrenten veranlasst werden. Das Rechtssystem als Ganzes. Die moderne Rechtsordnung (auch „Rechtssystem“ genannt) besteht aus der Gesamtheit der Normen, die nach ihrem nationalen oder internationalen Geltungsbereich in Rechtsordnungen und das global geltende Völkerrecht eingeteilt sind. Die Jurisprudenz, besonders die Rechtstheorie, unterteilt diese Rechtsordnungen des objektiven Rechts wiederum in Rechtsgebiete, die nach methodischen Gesichtspunkten in die drei großen Bereiche des öffentlichen Rechts, Privatrechts und Strafrechts, nach sachlichen oder inhaltlichen Gesichtspunkten in methodenübergreifende Rechtsgebiete wie das Verkehrsrecht, das Wirtschaftsrecht oder das Baurecht gegliedert werden. Aus den genannten Normsystemen ergibt sich für die Normadressaten im Einzelfall eine Berechtigung (subjektives Recht), wie etwa das Recht auf freie Meinungsäußerung (z. B. in Deutschland:), das Eigentums­recht, ein Anspruch (zum Beispiel eines Verkäufers auf den Kaufpreis) oder das Recht, von einem Vertrag zurückzutreten. Der Aufbau der einzelnen Normen. Normbefehle (Rechtsnormen) werden im Voraus, vor dem Zeitpunkt ihrer Anwendung formuliert. Es muss daher zugleich geregelt werden, für welchen Fall sie gelten. So entsteht der Aufbau einer Rechtsnorm: „Wenn die Voraussetzungen A, B und C erfüllt sind, dann soll die Rechtsfolge R eintreten.“ Die Gesamtheit der erforderlichen Voraussetzungen nennt man Tatbestand, die einzelne erforderliche Voraussetzung nennt man Tatbestandsmerkmal. Normen bestehen somit aus "Tatbestand" und "Rechtsfolge". Rechtsfolge ist das Entstehen von Rechten und Pflichten. Es gibt auch Normen, die als negative Rechtsfolge anordnen, dass Rechte und Pflichten gerade nicht entstehen (zum Beispiel: Wegen Verstoßes gegen die guten Sitten ist ein Rechtsgeschäft nichtig). Die Durchsetzbarkeit des geltenden Rechts. Für die Durchsetzung des Rechts ist durch Gerichte vorgesorgt. Die Einzelnen müssen in der Regel ihr Recht vor den staatlichen Gerichten und nicht durch Selbsthilfe suchen. Soweit Rechte strafrechtlich bewehrt sind, ist dem verletzten Bürger ebenfalls die Bestrafung des Täters in Selbstjustiz untersagt. Hier besteht zur Verwirklichung ein staatlicher Strafanspruch, für dessen Durchsetzungen die Strafjustiz, nämlich Staatsanwaltschaften und Strafgerichte sorgen sollen. Was Gerichtsentscheidungen anordnen, ist – wiederum mit staatlicher Hilfe – zwangsweise durchsetzbar durch Organe des Justizvollzugs (in der Strafvollstreckung) beziehungsweise der Zwangsvollstreckung (zur Durchsetzung von Urteilen der Zivilgerichte) bzw. der Vollziehung (zur Durchsetzung von Titeln der Steuerbehörden und Finanzgerichte sowie der allgemeinen und besonderen Verwaltungsgerichte). Wenn sich ein Richter bei der Rechtsgewährung nicht an das Recht hält, sieht das deutsche Recht für den Fall der Rechtsbeugung strafrechtliche (§ 339 StGB), im übrigen dienstrechtliche Sanktionen gegen ihn (etwa seine Entfernung aus dem Dienst) vor (vgl. §§ 62 und 78 des Deutschen Richtergesetzes). Ein auf die richtige richterliche Entscheidung gerichteter Zwang ist nicht vorgesehen, denn der Richter soll unabhängig von Weisungen (in richterlicher Unabhängigkeit) nach bestem Wissen und Gewissen urteilen. Rechtskreise. Das geltende Recht lässt sich nach (ideen-)geschichtlicher Herkunft in verschiedene Rechtskreise einteilen. Die größten Rechtskreise sind der kontinentaleuropäische, der angelsächsische, der chinesische und der islamische Rechtskreis. Rechtskreise unterscheiden sich bei der Setzung der Normen (Gesetzesrecht, Gewohnheits- und Richterrecht, göttliches Recht), aber auch der Rechtsanwendung, z. B. was die Rolle des Richters angeht. Rechtsquellen. Den Begriff Rechtsquelle kann man in einem weiten und einem engen Sinn verstehen. In einem weiten Sinn betrifft er alle Faktoren, die das objektive Recht prägen bzw. aus denen Recht ermittelt werden kann. Diesem Begriff nach fallen etwa die rechtswissenschaftliche Lehre, die Praxis der Verwaltung und das Rechtsempfinden der Bürger und Rechtsanwender darunter. Die faktisch wichtigste Quelle des objektiven Rechts ist heute das Gesetz. Selbst das Präjudiz aus dem Case Law (Richterrecht) des anglo-amerikanischen Rechtskreises wird dort immer mehr vom förmlichen Gesetzesrecht ("Statutory Law") abgelöst. Das auch im Völkerrecht geltende Gewohnheitsrecht füllt als ungeschriebene Rechtsquelle Lücken in den gesetzlichen Regelungen. Ob es über dieses positive Recht hinaus weitere Rechtsquellen gibt, ist in der Rechtswissenschaft umstritten. Die Naturrechts­lehre stellt dem positiven Recht ein überpositives Recht gegenüber, ein ewig gültiges, dem menschlichen Einfluss entzogenes Recht, das seine Gültigkeit von der Natur des Menschen oder einer höheren Macht (Vernunft, Natur oder Gott) ableitet und nicht legitim durch staatliche Gesetzgebung geändert werden kann. Dem engeren Begriff der Rechtsquelle nach ist all das Recht, was für den Rechtsanwender verbindliche Rechtssätze erzeugt. Die Frage nach den Rechtsquellen ist besonders vor dem Hintergrund des Gewaltenteilungs­prinzips relevant, denn danach entscheidet sich, wer verbindliche Rechtssätze schaffen darf. Besonders wichtig ist als Rechtsquelle daher das geschriebene, in einem verfassungskonformen Verfahren geschaffene Recht sowie die Verfassung selbst. Daneben gibt es als Rechtsquelle auch das Gewohnheitsrecht, welches insbesondere im Bereich des Völkerrechts noch eine große Rolle spielt. Völkerrecht. Lediglich Rechtserkenntnisquellen (Hilfsmittel zur Feststellung von Rechtsnormen, Art. 38 Abs. 1 Buchst. d IGH-Statut) sind richterliche Entscheidungen (Richterrecht) und die anerkannten Lehrmeinungen der Wissenschaft. Geltungsbereich. Nach dem Geltungsbereich unterscheidet man nationales (innerstaatliches) Recht, das innerhalb jedes einzelnen Staates gilt, Gemeinschaftsrecht einer Staatengemeinschaft und das Völkerrecht. Das "nationale Recht" lässt sich nach dem Rechtsetzungsorgan noch weiter untergliedern. In einem Bundesstaat wie Deutschland gibt es Bundesrecht und Landesrecht. Unterhalb der staatlichen Ebene gibt es öffentlichrechtliche Gebietskörperschaften (Gemeinden, Landkreise) und berufsständische Körperschaften des öffentlichen Rechts (Beispiel: Rechtsanwaltskammer), die für ihren Bereich ebenfalls Recht setzen können. Das "Völkerrecht" wirkt über das Gebiet eines Staates hinaus. Es besteht aus Normen, die Rechte und Pflichten von Völkerrechtssubjekten regeln. Dabei handelt es sich in erster Linie um Staaten, aber auch um internationale Organisationen wie zum Beispiel die Vereinten Nationen. Völkerrecht entsteht durch Staatsverträge zwischen zwei oder mehr Staaten oder durch Gewohnheit. Ferner gibt es allgemeine Rechtsgrundsätze des Völkerrechts. Beim "Recht der Europäischen Union" ist umstritten, ob es sich um Völkerrecht oder – so die herrschende Meinung in der deutschen Rechtslehre – um ein Recht eigener Art handelt. Begriffliche Differenzierungen. Recht und Rechte lassen sich nach verschiedenen Aspekten unterteilen. Objektives Recht und subjektives Recht. Objektives Recht ist das Recht im objektiven Sinn, das heißt die Rechtsordnung. Die Rechtsordnung ist die Summe aller geltenden Rechtsnormen. Die Rechtsordnung umfasst geschriebenes (z. B. Gesetzes­recht) und ungeschriebenes Recht (z. B. Gewohnheitsrecht). Ein "Subjektives Recht" ist die Berechtigung eines Rechtssubjekts (etwas zu tun, zu unterlassen oder von einem anderen zu verlangen), die sich entweder unmittelbar aus dem objektiven Recht ergibt oder in ihm ihre (Ermächtigungs-) Grundlage hat (s. o.). Formelles Recht und materielles Recht. Die Rechtsnormen, die Rechte und Pflichten regeln, bezeichnet man als "materielles Recht", beispielsweise die Regelungen des Strafrechts Deutschlands, wann ein Mord vorliegte und wie er zu bestrafen ist, oder dass wegen einer schuldhaften Pflichtverletzung in einem Vertrags­verhältnis der Gläubiger Schadensersatz verlangen kann. Als "formelles Recht" werden dagegen diejenigen Regelungen bezeichnet, die dem Vorgang der Feststellung und Durchsetzung des materiellen Rechts dienen, also insbesondere die Verfahrens- und Prozessordnungen der einzelnen Gerichtszweige. Sie regeln, meist nach den Rechtsgebieten unterschieden, die Zuständigkeit des Gerichts, das gerichtliche Verfahren und die Form der gerichtlichen Entscheidung. Dabei wird meist unterschieden zwischen einem Verfahren, in dem die grundlegenden Feststellungen getroffen werden (die meist mit einem Urteil enden), und einem Vollstreckungsverfahren, das der Durchsetzung der Gerichtsentscheidung dient. Öffentliches Recht und Privatrecht. Die Rechtsordnung unterscheidet zwischen öffentlichem Recht und Privatrecht. Das öffentliche Recht regelt die Angelegenheiten der Allgemeinheit. Das sind zum einen die Rechtsbeziehungen, in denen sich die Hoheitsträger und der Einzelne (Hoheitsbetroffene) in einem Über- und Unterordnungsverhältnis befinden. Zum anderen sind es die Rechtsbeziehungen der Hoheitsträger untereinander. Hoheitsträger sind die juristischen Personen des öffentlichen Rechts (Körperschaften, Anstalten, Stiftungen des öffentlichen Rechts) und die Beliehenen (natürliche und juristische Personen des Privatrechts, denen durch Rechtsvorschrift eng begrenzte öffentliche Aufgaben und hoheitliche Befugnisse übertragen worden sind). Körperschaften des öffentlichen Rechts sind in erster Linie die staatlichen Gebietskörperschaften Bund und Land und die nichtstaatlichen Gebietskörperschaften, vor allem Landkreis und Gemeinde oder Europäische Unionsrecht (EU), aber auch die (Personal)Körperschaften wie etwa die Universitäten oder die berufständischen Kammern (Ärztekammer, Rechtsanwaltskammer, Handwerkskammer, Handelskammer usw.). Das Privatrecht regelt demgegenüber die Rechtsbeziehungen, in denen sich die Beteiligten auf der Ebene der Gleichordnung gegenüberstehen. Das sind zum einen die Rechtsbeziehungen der natürlichen Personen, der juristischen Personen des Privatrechts (Körperschaften und Stiftungen des Privatrechts) und der teilrechtsfähigen Vereinigungen des Privatrechts, wie etwa die rechtsfähige Personengesellschaft (§ 124 Abs. 1 HGB), die Gesellschaft des bürgerlichen Rechts (§ 705 BGB) oder die Wohnungseigentümergemeinschaft. Das sind zum anderen die Rechtsbeziehungen, in denen juristische Personen des öffentlichen Rechts nicht als Hoheitsträger, sondern als Privatrechtssubjekte verwaltungsprivatrechtlich (Erfüllung von öffentlichen Aufgaben in privatrechtlichen Handlungsformen) oder fiskalisch (etwa als Grundstückseigentümer) beteiligt sind. Zum öffentlichen Recht gehören das Völkerrecht, das Europarecht (Unionsrecht), das Staatsrecht (Bund, Land), das Verwaltungsrecht, das Strafrecht (Ordnungswidrigkeitenrecht, Kriminalstrafrecht), das Kirchenrecht (Staatskirchenrecht, innerkirchliches Recht der Kirchen mit dem Status einer Körperschaft des öffentlichen Rechts), das öffentliche Organisationsrecht (juristische Personen des öffentlichen Rechts, Beliehene; Behördenorganisation, Gerichtsverfassung) sowie das Verfahrens- und Prozessrecht (auch: Zivilprozessrecht, Recht der Freiwilligen Gerichtsbarkeit, arbeitsgerichtliches Prozess- und Verfahrensrecht). Das Privatrecht gliedert sich in das allgemeine Privatrecht (bürgerliche Recht) und in die Sonderprivatrechte. Zu den Sonderprivatrechten gehören vor allem das Handelsrecht, das Gesellschaftsrecht, das Wertpapierrecht, das Wettbewerbsrecht, das Privatversicherungsrecht und – mit einem hohen Anteil an öffentlich-rechtlichen Regelungen – das Arbeitsrecht. Das bürgerliche Recht (Allgemeiner Teil, Schuldrecht, Sachenrecht, Familienrecht und Erbrecht) ist in Deutschland hauptsächlich im Bürgerlichen Gesetzbuch, in Österreich hauptsächlich im Allgemeinen bürgerlichen Gesetzbuch geregelt. Das sind zum anderen die Rechtsbeziehungen der Hoheitsträger untereinander. Hoheitsträger sind die juristischen Personen des öffentlichen Rechts (Körperschaften, Anstalten, Stiftungen des öffentlichen Rechts) und die Beliehenen (natürliche und juristische Personen des Privatrechts, denen durch Rechtsvorschrift eng begrenzte öffentliche Aufgaben und hoheitliche Befugnisse übertragen worden sind). Körperschaften des öffentlichen Rechts sind in erster Linie die staatlichen Gebietskörperschaften "Bund" und "Land" und die nicht staatlichen Gebietskörperschaften, vor allem Landkreis und Gemeinde oder Europäische Union (EU), aber auch die (Personal)Körperschaften wie etwa die Universitäten oder die berufsständischen Kammern (Ärztekammer, Rechtsanwaltskammer, Handwerkskammer, Handelskammer usw.). Das Privatrecht regelt demgegenüber die Rechtsbeziehungen, in denen sich die Beteiligten auf der Ebene der Gleichordnung gegenüberstehen. Das sind zum einen die Rechtsbeziehungen der natürlichen Personen, der juristischen Personen des Privatrechts (Körperschaften und Stiftungen des Privatrechts) und der teilrechtsfähigen Vereinigungen des Privatrechts, wie etwa die "rechtsfähige Personengesellschaft" (§ 124 Abs. 1 HGB), die Gesellschaft des bürgerlichen Rechts (§ 705 BGB) oder die Wohnungseigentümergemeinschaft. Das sind zum anderen die Rechtsbeziehungen, in denen juristische Personen des öffentlichen Rechts nicht als Hoheitsträger, sondern als Privatrechtssubjekte verwaltungsprivatrechtlich (Erfüllung von öffentlichen Aufgaben in privatrechtlichen Handlungsformen) oder fiskalisch (etwa als Grundstückseigentümer) beteiligt sind. Zum öffentlichen Recht gehören das Völkerrecht, das Europarecht (Unionsrecht), das Staatsrecht (Bund, Land), das Verwaltungsrecht, das Strafrecht (Ordnungswidrigkeitenrecht, Kriminalstrafrecht), das Kirchenrecht (Staatskirchenrecht, innerkirchliches Recht der Kirchen mit dem Status einer Körperschaft des öffentlichen Rechts), das öffentliche Organisationsrecht (juristische Personen des öffentlichen Rechts, Beliehene; Behördenorganisation, Gerichtsverfassung) sowie das Verfahrens- und Prozessrecht (auch: Zivilprozessrecht, Recht der freiwilligen Gerichtsbarkeit, arbeitsgerichtliches Prozess- und Verfahrensrecht). Das "Privatrecht" gliedert sich in das allgemeine Privatrecht (bürgerliches Recht) und in die Sonderprivatrechte. Zu den Sonderprivatrechten gehören vor allem das Handelsrecht, das Gesellschaftsrecht, das Wertpapierrecht, das Wettbewerbsrecht, das Privatversicherungsrecht und – mit einem hohen Anteil an öffentlich-rechtlichen Regelungen – das Arbeitsrecht. Das bürgerliche Recht (Allgemeiner Teil, Schuldrecht, Sachenrecht, Familienrecht und Erbrecht) ist in Deutschland hauptsächlich im Bürgerlichen Gesetzbuch, in Österreich hauptsächlich im Allgemeinen bürgerlichen Gesetzbuch geregelt. Historisch bedeutsam ist die Gestaltung eines einheitlichen Arbeitsrechts in den sozialistischen Staaten, z. B. das Arbeitsrecht in der DDR. Subordinationsrecht und Koordinationsrecht. Ähnlich den Kategorien von privatem Recht unterscheiden sich Subordinations- und Koordinationsrecht dadurch, dass die Rechtssubjekte in einem Subordinationsrechtsverhältnis in einem Überunterordnungsverhältnis zueinanderstehen, während Koordinationsrecht aus einem Rechtsverhältnis resultiert, in dem die Rechtssubjekte rechtlich gleichgestellt sind. Das Subordinationsrecht deckt sich mit dem Begriff des öffentlichen Rechts; zum Koordinationsrecht zählt neben dem Privatrecht auch das Völkerrecht. Absolute Rechte und relative Rechte. Die Subjektiven Rechte werden ihrerseits unterschieden in absolute Rechte und relative Rechte. Absolute Rechte bezeichnen Rechte, die absolut gelten, die mithin von jedermann zu beachten sind. Sie lassen sich wiederum unterteilen in Herrschaftsrechte, wie etwa das Eigentum oder das Urheberrecht und Persönlichkeitsrechte, wie etwa das Recht auf körperliche Unversehrtheit oder das allgemeine Persönlichkeitsrecht. Das Eigentum an einer Sache gibt dem Eigentümer die Befugnis, nach Belieben mit der Sache zu verfahren und andere von jeder Einwirkung auszuschließen. Man spricht deshalb auch von einem „Herrschaftsrecht“, einem dinglichen Recht oder einem Recht „an einer Sache“. Neben dem Eigentum als grundsätzlich umfassendem Herrschaftsrecht gibt es beschränkte dingliche Rechte, die den Gebrauch nur in bestimmten Beziehungen gestatten, wie den Nießbrauch. Auch das ist ein absolutes Recht. Relative Rechte sind Rechte, die sich gegen bestimmte Personen richten. Unter den relativen Rechten ist von zentraler Bedeutung der Anspruch, also das Recht, von einem anderen ein Tun oder Unterlassen verlangen zu können (vgl. Bürgerliches Gesetzbuch). Dazu gehören typischerweise die Rechte aus Verträgen, beispielsweise beim Kaufvertrag der Anspruch des Käufers auf Eigentumsverschaffung und umgekehrt des Verkäufers auf Zahlung des Kaufpreises, aber auch viele andere, beispielsweise der Schadensersatz­anspruch aus Delikt wegen der Verletzung des Körpers oder von Sachen anderer. Eine besondere Art von subjektiven Rechten sind "Gestaltungsrechte", welche die Befugnis geben, subjektive Rechte zu begründen, zu verändern oder aufzuheben – typischerweise etwa Kündigungserklärungen, die Anfechtung von Willenserklärungen oder der Rücktritt vom Vertrag. Einzelne Rechtsgebiete. Aus den vorstehenden Ausführungen ergibt sich, dass sich die Komplexität des menschlichen Zusammenlebens in der Rechtsordnung widerspiegelt. Die dadurch bedingte Stofffülle führt ihrerseits dazu, dass sich das Recht in etliche Teilgebiete untergliedern lässt, was vor allem im Rahmen der juristischen Ausbildung unverzichtbar ist. Die traditionelle Aufteilung des Stoffs in der an den Hochschulen gelehrten Rechtswissenschaft nimmt dabei primär auf die bereits geschilderte Aufteilung in das Privatrecht einerseits und das öffentliche Recht andererseits Bezug. Daneben treten das Strafrecht und das Prozessrecht. Beide sind streng genommen Bestandteil des öffentlichen Rechts, da sie ebenfalls das Verhältnis zwischen Staat und Bürger regeln. Die spezifischen Eigenheiten beider Rechtsgebiete lassen jedoch ihre separate Behandlung in der Praxis sachgerecht erscheinen. Das Privatrecht lässt sich weiter untergliedern in die einzelnen bürgerlichen Rechtsgebiete, also das Schuldrecht, das Sachenrecht, das Familienrecht und das Erbrecht, in das Handelsrecht als Sonderprivatrecht der Kaufleute, das Gesellschaftsrecht u. a. Das öffentliche Recht unterteilt sich weiter in die großen Bereiche des Verwaltungsrechts, des Verfassungsrechts und des Staatskirchenrechts. Das Steuerrecht, das begrifflich nur ein Teilgebiet des besonderen Verwaltungsrechts ist, wird wegen seiner Bedeutung und seines Umfangs ebenso wie wegen seiner starken Bezüge zum Wirtschaftsrecht heute regelmäßig als eigenständiges Untergebiet des öffentlichen Rechts begriffen. Eine schematische Übersicht über die Stoffgliederung des deutschen Rechts bietet der Artikel Bundesdeutsches Recht. Robert Rodriguez. Robert Rodriguez in Cannes 2005 Robert Anthony Rodriguez (* 20. Juni 1968 in San Antonio, Texas) ist ein US-amerikanischer Kameramann, Cutter, Regisseur, Drehbuchautor, Filmkomponist und Filmproduzent mexikanischer Herkunft. Leben und Karriere. Wegen zu schlechter Noten wurde Rodriguez nach dem Grundstudium an der University of Texas nicht in die Filmklasse aufgenommen. Erst nachdem er mit einem Videokurzfilm ein lokales Filmfestival gewonnen hatte, wurde er nachträglich für das Filmstudium zugelassen. Nach unzähligen Videofilmen, die er als Jugendlicher gedreht hatte, konnte er zum ersten Mal auf richtigem Film drehen. Sein erstes Projekt war 1991 der 16-mm-Kurzfilm "Bedhead", mit dem er über ein Dutzend Filmpreise gewann. Während der Sommerferien 1991 drehte er, inspiriert durch die Filme von John Woo, den Action-Film "El Mariachi". Die 16-mm-Filmkamera für diesen Dreh lieh er sich und als Schauspieler verpflichtete er Freunde und Bekannte. Da er auf eine Crew verzichtete und alles am Set selbst machte, reichte ihm ein Budget von nur 7000 $. Einen Teil des Geldes, 3000 $, verdiente er durch das Testen von Medikamenten. Während der 30 Tage im medizinischen Institut schrieb er nicht nur das Drehbuch, sondern lernte auch einen seiner Hauptdarsteller kennen. Nachdem er den Film innerhalb von zweieinhalb Wochen in der mexikanischen Stadt Ciudad Acuña gedreht hatte, versuchte Rodriguez ihn anfangs erfolglos in Hollywood an spanischsprachige Videoverleiher zu verkaufen. Er fand jedoch nach einiger Zeit eine große Agentur, die das Potential des Filmes erkannte und ihm einen Vertrag mit Columbia Pictures verschaffte. Das Studio steckte noch einmal etwa 200.000 $ in den Film, um ihn für den Kinostart vorzubereiten, und reichte ihn zu verschiedenen Festivals ein. Im Januar 1993 gewann Rodriguez beim Sundance Film Festival als größten Erfolg den Publikumspreis. Rodriguez berichtet über seine Erfahrungen in dem Buch "Rebel Without a Crew", das jungen Filmemachern zeigen soll, dass Filme auch ohne großes Budget möglich sind. Rodriguez gründete 1991 zusammen mit der Produzentin Elizabeth Avellan in Texas die Produktionsfirma Los Hooligans Productions, um fortan darüber Filme zu produzieren. Im Jahr 2001 kam die Firma Troublemaker Studios hinzu. Sein nächster Film war "Desperado", die Fortsetzung des Stoffes von "El Mariachi". In dem Film hatte auch Salma Hayek ihren ersten Auftritt in einem größeren amerikanischen Film. Rodriguez arbeitete zusammen mit Quentin Tarantino, mit dem ihn auch heute noch eine enge Freundschaft verbindet, an dem Vampir-Thriller "From Dusk Till Dawn". 1998 drehte Robert dann zusammen mit Kevin Williamson den Horrorfilm "The Faculty". Rodriguez hatte 2001 seinen bis zu diesem Zeitpunkt größten Erfolg mit der Komödie "Spy Kids", zu der es später noch drei Fortsetzungen gab. Ende 2003 schloss er die "Mariachi"-Trilogie mit dem Film "Irgendwann in Mexiko" ab. Rodriguez drehte "Spy Kids" und "Irgendwann in Mexiko" auf dem HDCAM-System und zählt somit zu den Pionieren des Einsatzes von digitalen Kinokameras. Auch seine weiteren Filme nahm er durchgängig nicht mehr auf Film, sondern digital auf. Auch auf dem Gebiet der „3D-Filme“ ist Rodriguez vorne mit dabei. So wurde bereits der Film "Mission 3D" und später auch der Film "Die Abenteuer von Sharkboy und Lavagirl in 3-D" im 3D-Verfahren verfilmt und veröffentlicht. Im Jahr 2004, während der Dreharbeiten zu "Sin City", bestand Rodriguez darauf, dass der Autor der Comicvorlage, Frank Miller, ebenfalls als Regisseur aufgeführt wird, da er dessen visuellen Stil für den Film als prägend empfindet. Auf Grund dessen trat er aus der Directors Guild of America aus, da diese solche Nennungen ablehnt. 2007 erschien Rodriguez' Beitrag zum Double-Feature "Grindhouse" mit dem Namen "Planet Terror". Der andere Teil wurde von Quentin Tarantino gedreht und hieß "Death Proof". Im Juli 2010 erschien der von Rodriguez produzierte Science-Fiction-Film "Predators", eine Fortsetzung des Films "Predator" von 1987. Am 4. November 2010 ist "Machete" in die deutschen Kinos gekommen. Derzeit angekündigt sind die Filme "The Jetsons", und "Nervewreckers". Bei der Fortsetzung von "Machete" schrieb er gemeinsam mit seinem Bruder Marcel und Kyle Ward das Drehbuch für "Machete Kills". Musik. Rodriguez ist Gitarrist der Band Chingon, die von ihm ursprünglich nur für den Soundtrack zu "Irgendwann in Mexiko" gegründet wurde. Außerdem stellte er für Quentin Tarantino den Soundtrack für "Kill Bill 2" zusammen – für eine Gage von einem Dollar. Im Gegenzug führte Tarantino Gastregie in Rodriguez "Sin City", ebenfalls für einen Dollar. Privatleben. Von 1990 bis 2007 war er mit der Filmproduzentin Elizabeth Avellan verheiratet, gemeinsam haben sie vier Söhne, welche die ungewöhnlichen Namen Rocket Valentino, Racer Maximilliano, Rebel Antonio, Rogue Joaquin tragen, sowie eine Tochter mit dem Namen Rhiannon Elizabeth. Avellan war und ist als Produzentin seiner Filme tätig, gemeinsam betreiben sie die Produktionsfirma Troublemaker Studios. Ihre Zusammenarbeit begann bereits 1990 bei der Inszenierung des Kurzfilms "Bedhead", bei der seine Ex-Frau noch als Animator beteiligt war. Rodriguez war mit der Schauspielerin Rose McGowan verlobt, die bereits in einigen seiner Filme zu sehen war. Er ist ein Cousin des Schauspielers Danny Trejo. Trejo wird regelmäßig in seinen Filmen als Darsteller eingesetzt. Trivia. In dem Film "Scream 4", gibt es eine Anspielung auf Robert Rodriguez: Er wird im Vorspann des fiktiven Films im Film „Stab“ als Regisseur aufgelistet. Roland Emmerich. Roland Emmerich (* 10. November 1955 in Stuttgart) ist ein deutscher Filmproduzent, Regisseur und Drehbuchautor. Berühmt wurde Emmerich durch seine Katastrophenfilme wie "Independence Day", "Godzilla", "The Day After Tomorrow" und "2012" sowie "Stargate" aus dem Jahr 1994, auf dem auch mehrere Serien und Filme basieren. Leben. Roland Emmerich wurde in Stuttgart-Obertürkheim geboren und wuchs in Maichingen auf. Er besuchte das Gymnasium in den Pfarrwiesen Sindelfingen. Im Jahr 1977 fing er an, an der Hochschule für Fernsehen und Film München Szenenbild zu studieren. Nachdem er "Star Wars" gesehen hatte, wechselte er allerdings ins Regiefach. Sein Abschlussfilm "Das Arche Noah Prinzip" sprengte dabei in jeder Hinsicht den Rahmen. Größtenteils fremdfinanziert kostete er etwa eine Mio. DM – das Budget für einen Abschlussfilm lag damals bei 20.000 DM. Auch das Genre irritierte, denn opulent ausgestattete Science-Fiction-Filme aus Deutschland waren eher unüblich. Letztendlich wurde der Film, der 1984 auf den Internationalen Filmfestspielen in Berlin uraufgeführt wurde, aber ein beachtlicher Erfolg. Mit den in Deutschland produzierten, aber in englischer Sprache gedrehten Filmen wie "Joey", "Hollywood Monster" und "Moon 44" konnte Emmerich schließlich in Hollywood Aufmerksamkeit erregen. Ein weiteres Resultat des Films "Moon 44" war die langjährige Zusammenarbeit mit Dean Devlin, der fortan als Drehbuchautor und Produzent bei Emmerichs Filmen tätig war, sowie Volker Engel, der als VFX-Supervisor für die Spezial-Effekte mehrerer seiner Filme verantwortlich zeichnete. 1992 drehte er dann den Science Fiction-Film "Universal Soldier" mit Jean-Claude Van Damme und Dolph Lundgren, mit dem ihm der endgültige Durchbruch in Hollywood gelang. Sein langjähriges Interesse an Prä-Astronautik und den Theorien Erich von Dänikens setzte er 1994 mit dem Film "Stargate" um. Den vorläufigen Höhepunkt seiner Karriere erreichte er dann 1996 mit "Independence Day", einem Blockbuster, der auch heute einen der vordersten Plätze in den Ranglisten der erfolgreichsten Filme belegt. 1998 folgte mit "Godzilla" eine Neuinterpretation der japanischen Monsterfilme. 1994 war er bei dem Film "High Crusade – Frikassee im Weltraum" sowie 1999 bei dem Film "The Thirteenth Floor" als Produzent tätig. 2000 begab sich Emmerich dann auf ernsteres Terrain, als er bei "Der Patriot" Regie führte, der 1776 zur Zeit der Amerikanischen Revolution spielt, die Hauptrollen in "Der Patriot" übernahmen Mel Gibson und Heath Ledger. In der Zeit danach beschränkte sich Emmerich hauptsächlich auf das Produzieren, bevor er im Mai 2004 mit "The Day After Tomorrow" als Regisseur auf die Leinwand zurückkehrte. In einem Interview mit der Zeitschrift Merian gab Emmerich im November 2009 bekannt „… dass " 2012" mein letztes Desaster-Movie ist. Es ist die Mutter aller Zerstörungsfilme, mit Effekten, wie man sie noch nie gesehen hat. Ich wüsste wirklich nicht, was ich danach noch zerstören sollte.“ Als Chefin der 1985 gegründeten gemeinsamen Produktionsfirma Centropolis Entertainment (früher Centropolis Film) wirkt seine Schwester Ute Emmerich bei den meisten seiner Filme wie er selbst als Executive Producer mit. Emmerich lebt offen homosexuell mit seinem Lebensgefährten, dem Popsänger Mowgli Moon, mit dem er sich eine Hochzeit vorstellen könne: „Früher hat keiner gewusst, dass ich schwul bin, heute ist mir das wurscht. Ich finde es wichtig, dass man zu politischen Themen wie der Homosexuellen-Ehe Stellung bezieht.“ Seine Wohnorte sind Los Angeles, London und Berlin. Am 26. November 2009 erhielt er zusammen mit Florian Henckel von Donnersmarck, Michael Ballhaus, Oliver Hirschbiegel und Caroline Link (alle Oscar-Nominierte bzw. -Gewinner) einen Ehren-Bambi "Deutsche in Hollywood". Die Trophäen überreichte Jürgen Prochnow. Emmerich engagiert sich außerdem für die Menschenrechte. So saß er in der Jury, die bei der Auswahl eines universellen Logos für Menschenrechte half. Weitere Tätigkeiten und Projekte. Bei der Berlinale 2005 war Emmerich Präsident der Internationalen Jury. 2006 spendete Emmerich 150.000 US-Dollar für das "Legacy Project", ein gemeinsames Projekt des Film- und Fernseharchivs der UCLA und des größten Filmfestivals von Los Angeles, "Outfest", zur Bewahrung und Restaurierung lesbischer und schwuler Filme. 2007 war Roland Emmerich Gastredner bei der fmx/07 in Stuttgart, einer der wichtigsten internationalen Konferenzen für Animation, Effekte, Spiele und digitale Medien. Im März 2008 kam Emmerichs Projekt " 10.000 B.C." (Drehbuch: Roland Emmerich und Harald Kloser) weltweit in die Kinos; ein Film der, nachdem das Sony-Studio Columbia Pictures zwischenzeitlich sein Interesse daran verloren hatte, von Warner Bros. produziert wurde. Der ca. 110 Millionen US-Dollar teure Streifen hatte schon nach vier Wochen mehr als 200 Mio. US-Dollar eingespielt. Emmerichs Film "2012" mit John Cusack, Woody Harrelson und Danny Glover in den Hauptrollen startete am 12. November 2009 weltweit in den Kinos und erreichte bereits nach acht Wochen ein weltweites Einspielergebnis von 730 Mio. US-Dollar. "2012" ist somit der zweiterfolgreichste Film seiner Karriere. Ab März 2010 fanden in den Filmstudios Babelsberg in Potsdam die Dreharbeiten für seinen Film "Anonymus" (Arbeitstitel: „Soul of the Age“) statt. Das Drama um die Urheberschaft der Werke von William Shakespeare nach einem Script von John Orloff (unter anderem Drehbuchautor von " Band of Brothers") startete in Deutschland im November 2011. Auf der Frankfurter Buchmesse wurde Anonymus den Presse- und Medienvertretern vorgestellt. Bei einer anschließenden Podiumsdiskussion diskutierte Emmerich mit dem Publizisten Hellmuth Karasek, dem Präsidenten der Deutschen Shakespeare-Gesellschaft und Uni-Dozent für Anglistik Tobias Döring, dem Shakespeare-Übersetzer Frank Günther und dem Autor des Buches "Der Mann, der Shakespeare erfand", Kurt Kreiler. Das Thema der Diskussion war die langjährige Debatte um die William-Shakespeare-Urheberschaft. Ende 2012 drehte Emmerich den Film "White House Down", der im Juni 2013 Premiere feierte. Darin geht es um einen Secret-Service-Mitarbeiter (Channing Tatum), der das Leben des amerikanischen Präsidenten (Jamie Foxx) retten soll, der im Weißen Haus von einer paramilitärischen Gruppe gefangen genommen worden ist. Bis auf Weiteres verschoben hat Roland Emmerich ein Remake des Kinofilms "Die fantastische Reise", "One Nation" (einen politischen Thriller, geschrieben von "The-Day-After-Tomorrow"-Drehbuchautor Jeffrey Nachmanoff) und "King Tut", einen Film über den ägyptischen Pharao Tutanchamun. 2014 bereitet Roland Emmerich die Verfilmung des Historienepos "Maya Lord" vor, das auf der Romanvorlage des Schriftsteller John Cue Robbins beruht. Es handelt sich um die Verfilmung der wahren Geschichte des Gonzalo Guerrero, der 1511 nach einem Schiffbruch von Maya gefangen genommen wurde und schließlich zu ihrem Verbündeten wurde. Im Sommer 2014 drehte Emmerich das Drama "Stonewall" nach einem Drehbuch von Jon Robin Baitz, der Film kam in den USA im September 2015 in die Kinos. Rainer Werner Fassbinder. Rainer Werner Fassbinder, stilisierte Grafik Rainer Werner Fassbinder (* 31. Mai 1945 in Bad Wörishofen, Bayern; † 10. Juni 1982 in München, Pseudonym: Franz Walsch) war ein deutscher Regisseur, Filmproduzent, Schauspieler und Autor. Er gilt als einer der wichtigsten Vertreter des Neuen Deutschen Films der 1970er und 1980er Jahre. Kindheit und Jugend. Der Sohn des Arztes Helmuth Fassbinder (1918–2010) und der Übersetzerin Liselotte Eder (1922–1993) wuchs nach der Scheidung seiner Eltern 1951 als Einzelkind bei seiner Mutter auf. Im Alter von sechzehn Jahren brach Fassbinder die Schule (das Gymnasium bei St. Anna in Augsburg) ab und zog nach Köln zu seinem Vater. In dieser Zeit verfasste Fassbinder erste Theaterstücke, Gedichte, Kurzgeschichten und Filmtreatments. Er galt als belesen und eignete sich durch das Studium philosophischer, gesellschaftskritischer und psychoanalytischer Schriften eine Bildung auf hohem Niveau an. Bereits im Jugendalter interessierte sich Fassbinder für das Filmemachen. Doch sollte sein Wunsch, an einer Filmhochschule zu studieren, nicht in Erfüllung gehen. Nach einer zweijährigen privaten Schauspielausbildung versuchte er vergeblich, in München die staatliche Schauspielprüfung abzulegen. Auch bei der Aufnahmeprüfung an der damals neu gegründeten Deutschen Film- und Fernsehakademie Berlin scheiterte er. Karrierebeginn: Vom Theater zum Film. Dem Film näherte er sich als Autodidakt und scherte sich zunächst wenig um Konventionen. 1966 und Anfang 1967 produzierte Fassbinders Partner Christoph Roser dessen erste Kurzfilme "Der Stadtstreicher" und "Das kleine Chaos". 1967 stieß Fassbinder auf das Action-Theater und wurde von der jungen Gruppe um Ursula Strätz, Peer Raben, Kurt Raab, u. a. als Ensemblemitglied aufgenommen, woraus dann kurz danach das antiteater hervorging. Fassbinder, der bald auch die Regie übernahm, brachte Hanna Schygulla mit, die er 1963 auf der Schauspielschule kennengelernt hatte, sowie Irm Hermann, mit der er und Roser zusammenlebten. Etwas später stießen Harry Baer, Ingrid Caven und Günther Kaufmann sowie 1970 Margit Carstensen hinzu, die er als Star neben Hanna Schygulla in die Gruppe integrierte. Er schrieb für sie unter anderem die Theaterstücke "Bremer Freiheit" und "Die bitteren Tränen der Petra von Kant". 1968 löste sich das Action-Theater auf, und Fassbinder gründete mit Peer Raben, Hanna Schygulla und Kurt Raab das antiteater. Das Ensemble hatte Aufführungen im Büchner-Theater in der Kunstakademie und schließlich im Hinterraum der Schwabinger Kneipe Witwe Bolte. Beeinflusst von Jean-Luc Godard und der Nouvelle Vague sowie den US-amerikanischen Kriminalfilmen von John Huston, Raoul Walsh und Howard Hawks, vor allem aber von den Melodramen von Douglas Sirk, begann Fassbinder mit den Schauspielern des antiteaters die ersten Spielfilmprojekte zu realisieren. 1969 entstanden der Krimi "Liebe ist kälter als der Tod" und "Katzelmacher". In beiden Filmen verband Fassbinder die Theaterarbeit mit der des Filmemachens. 1969 spielte er fürs Fernsehen die Hauptrolle in Volker Schlöndorffs Theaterverfilmung "Baal". Zwischen 1969 und 1971 entstanden nicht nur zahlreiche Theaterstücke, sondern auch in sehr kurzer Zeit von Fassbinder produzierte „alternative“ Filme unter dem Unternehmensnamen (Firma) "antiteater-X-Film" (z. B. "Götter der Pest", "Rio das Mortes", "Whity", "Der amerikanische Soldat", "Warnung vor einer heiligen Nutte"). Als das "antiteater" Mitte 1971 aufgrund einer desaströsen Finanzsituation auseinanderbrach (es war keine im Handelsregister eingetragene Firma), übernahm Fassbinder die alleinige Verantwortung und in den kommenden Jahren die Abzahlung der Schulden, die sich auf ca. 200.000 DM beliefen. Seine Mutter Liselotte Eder übernahm die Aufarbeitung der Steuer- und Sachleistungsschulden und die Filmgeschäftsführung der von Fassbinder neu gegründeten Produktionsfirma Tango-Film, mit der er im August 1971 als erstes Werk den Film "Händler der vier Jahreszeiten" produzierte. Fernsehen. Fassbinders wachsender künstlerischer Erfolg ließ auch die Verantwortlichen des Fernsehens auf ihn aufmerksam werden, und so begann ab 1971 eine sehr produktive Zusammenarbeit mit dem Westdeutschen Rundfunk (WDR). Peter Märthesheimer, der für ihn später, gemeinsam mit Pea Fröhlich, die Drehbücher seiner BRD-Trilogie schrieb, war sein wichtigster Unterstützer und zeichnete als verantwortlicher Redakteur des WDR bei den Fernsehfilmen "Niklashauser Fart" (1971), der Arbeiterserie "Acht Stunden sind kein Tag" (1972) sowie bei "Martha" (1974), "Welt am Draht" (1973), "Angst vor der Angst", "Ich will doch nur, daß ihr mich liebt" (1975) und "Wie ein Vogel auf dem Draht" (1976). Das ZDF erteilte 1970 den Auftrag für "Pioniere in Ingolstadt" (ausgestrahlt im Mai 1971) und sendete im März 1972 den "Händler der vier Jahreszeiten". "Wildwechsel" entstand 1972 im Auftrag des SFB, "Bremer Freiheit" 1972 und "Nora Helmer" 1973 im Auftrag des Saarländischen Rundfunks. Kontroversen. In den Jahren 1971 bis 1974 erreichte Fassbinder mit den von Tango-Film produzierten Spielfilmen "Die bitteren Tränen der Petra von Kant" (1972), "Angst essen Seele auf" (1973), "Faustrecht der Freiheit" (1974) und zusätzlich mit Theaterregie-Einsätzen in Bremen, Bochum und Frankfurt am Main ein Optimum an öffentlicher Aufmerksamkeit. Fassbinder war in der Spielzeit 1974/75 Mit-Intendant am Theater am Turm in Frankfurt und schrieb für das Ensemble das Stück "Der Müll, die Stadt und der Tod" (1974), das aufgrund der Verwendung antisemitischer Klischees eine heftige Kontroverse auslöste. Kritik kam z. B. von Joachim Fest, Ignatz Bubis, Salomon Korn und Friedrich Uttitz. Eine der Figuren ist ein jüdischer Immobilienspekulant, dem Ähnlichkeiten mit Ignatz Bubis nachgesagt wurden. Im Jahr 1975 verfilmte der Schweizer Regisseur Daniel Schmid das noch nicht aufgeführte Stück unter dem Titel "Schatten der Engel" (mit Fassbinder selbst in einer Hauptrolle und als Co-Drehbuchautor sowie Ingrid Caven, Klaus Löwitsch, Annemarie Düringer, Boy Gobert und Irm Hermann). Eine erste Inszenierung am Schauspiel Frankfurt wurde in den 1980er Jahren von Demonstranten verhindert, die in dem Stück das antisemitische Klischee vom „reichen Juden“ propagiert sahen und ihren Protest zum Ausdruck brachten, indem sie die Bühne besetzten. Weitere Pläne, das Stück in Deutschland zu zeigen, wurden nach Protesten zurückgezogen. Dagegen wurde das Stück in Israel inszeniert und ohne Proteste aufgeführt. Karrierehöhepunkte. Fassbinder entwickelte seine Filmsprache konsequent weiter und die Filme wurden größer und professioneller. 1977 realisierte er für sechs Millionen DM den Film "Despair – Eine Reise ins Licht" mit der Bavaria Film in München, seine bis dahin teuerste Produktion, gedreht in englischer Sprache nach einem Drehbuch des britischen Dramatikers Tom Stoppard, basierend auf einer Novelle von Vladimir Nabokov. Obwohl hochkarätig besetzt (der englische Weltstar Dirk Bogarde spielte die Hauptrolle) und als Wettbewerbsfilm 1978 in Cannes eingeladen, hatte der Film an den Kinokassen keinen Erfolg. Als Teilnehmer der Berlinale und vielen Festivals im Ausland (1974 widmete ihm die "Cinémathèque française" eine Gesamtretrospektive und das "New York Film Festival" zeigte seit 1971 jährlich seine aktuellen Filme) wurde er zwar von der internationalen Kritik in höchsten Tönen gelobt, in Deutschland aber wegen seiner direkten Themen häufig angegriffen. Erst mit seinem vorletzten Film, "Die Sehnsucht der Veronika Voss" (in der Hauptrolle Rosel Zech, die seit den frühen 1970er Jahren ein großer Theaterstar war), gewann er den Goldenen Bären der Berlinale. Fassbinder schuf weitere wichtige Frauenfiguren der Nachkriegsfilmgeschichte, so mit "Fontane Effi Briest" (1974), "Die Ehe der Maria Braun" (1979) und "Lili Marleen" (1981), dargestellt von Hanna Schygulla, oder mit dem Film "Lola" (1981), in dem Barbara Sukowa die Hauptrolle spielte. Diese Frauenfiguren gingen in die Filmgeschichte ein und ihre Darstellerinnen erlangten eine Bekanntheit, die ihnen eine von Fassbinder unabhängige Karriere ermöglichte. Fernsehgeschichte schrieb er 1980 mit dem Mehrteiler "Berlin Alexanderplatz" nach dem Roman von Alfred Döblin (mit Günter Lamprecht, Gottfried John, Hanna Schygulla und Barbara Sukowa), der später im Kino, meist bei Festivals und Retrospektiven, als 15½-Stunden-Marathon gezeigt wurde. Fassbinder war auch berühmt wegen seines atemberaubenden Arbeitstempos (im Jahr 1970 entstanden sieben Filme). So habe er sein Lebensziel darauf eingerichtet, am Ende mit der Zahl seiner Filme die Zahl seiner Lebensjahre zu erreichen. Früher Tod. Fassbinder war 1982 Hauptdarsteller in dem Film "Kamikaze 1989" von Regisseur Wolf Gremm. Er starb am 10. Juni 1982 in München, wo er lebte, während der Arbeit an der Endfertigung seines letzten Projekts "Querelle" (nach einem Roman von Jean Genet) im Alter von 37 Jahren. Als Todesursache wurde Herzstillstand diagnostiziert, vermutlich ausgelöst durch Überarbeitung und eine Vergiftung mit einer Mischung aus Kokain, Schlaftabletten und Alkohol. Nach Fassbinders Tod begann seine Mutter Liselotte Eder, die ihn mit seinem Vater Helmuth Fassbinder beerbte, damit, zusammen mit seiner letzten Partnerin bzw. Mitbewohnerin Juliane Lorenz sein Werk zu ordnen und zu erschließen. 1986 gründete sie die "Rainer Werner Fassbinder Foundation" (RWFF), in die sie ihren Erbteil einbrachte. 1988 wurde der Vater ausbezahlt und sein Erbteil ebenfalls in die RWFF eingebracht. 1991 übertrug Eder die gesamten Anteile an der RWFF an Juliane Lorenz, die diese seit 1992 leitet. Die Stiftung besitzt heute alle Rechte an Fassbinders Nachlass, einschließlich aller nachträglich erworbenen Rechte. Rainer Werner Fassbinder wurde in einem Urnengrab auf dem Bogenhausener Friedhof (Grab Nr. 1-4-2) in München beigesetzt. Der „Clan“: Hanna Schygulla und andere künstlerische Weggefährten. Fassbinder lebte in einer häufig als „Clan“ bezeichneten Gruppe, die ihm als Familienersatz diente. Als „Eckpfeiler und in gewisser Weise auch als Motor vielleicht“ war (nach eigenem Bekunden) Hanna Schygulla von Anfang an Antrieb und Inspiration seines filmischen Schaffens. Er hatte sie vom Zeitpunkt ihrer ersten Begegnung (1963) an als Star seiner künftigen Filme gesehen. Ihre absolute Leinwandpräsenz und ihr ursprünglich völliges „Anti-Star“-Bewusstsein bescherten beiden erste gemeinsame filmische Erfolge. Fassbinder löste sich auch zunehmend von den Abhängigkeiten innerhalb seines „Clans“ und integrierte auch sogenannte „Altstars“ in seine Bühnen- und Filmarbeiten, allen voran Karlheinz Böhm, mit dem er unter anderem "Martha" (1974) drehte, sowie Brigitte Mira und Barbara Valentin, mit denen er "Angst essen Seele auf" (1974) produzierte. Fassbinder traf bei seinem siebten Spielfilm "Whity" 1970 auf den Kameramann Michael Ballhaus, mit dem er in neun gemeinsamen Jahren 15 Filme machte. Von den ehemaligen Gruppenmitgliedern begleiteten ihn noch einige bis Mitte der 1970er Jahre, doch es kam auch zu Trennungen; zum Beispiel 1976 von Kurt Raab, von Hanna Schygulla (für drei Jahre), Irm Hermann und Ingrid Caven. Mit Peer Raben verband ihn jedoch seit seiner frühen Theaterarbeit eine fruchtbare Zusammenarbeit; ebenso mit Harry Baer, der später weitere Aufgaben als Produktionsleiter, Regieassistent und künstlerischer Mitarbeiter in der Filmproduktion übernahm. 1974 trat Fassbinder dem 1971 gegründeten Filmverlag der Autoren bei und wurde eines seiner tragenden Mitglieder. Ebenfalls 1974 lernte Fassbinder im Hotel Deutsche Eiche seinen Gefährten Armin Meier kennen, der in seiner Episode "Deutschland im Herbst" zu sehen ist (er spielt selbst sich). Anfang 1978 trennte sich Fassbinder von ihm, und kurz darauf wurde Meier tot in der gemeinsamen Wohnung aufgefunden. Vermutlich starb er an einer Überdosis Schlaftabletten. Um den Tod seines Freundes zu verkraften, drehte er den sehr persönlichen Film "In einem Jahr mit 13 Monden", in dem Volker Spengler die Hauptrolle übernahm. Fassbinders bisexuelle Beziehungen. Der bisexuelle Fassbinder integrierte in seinen Clan auch seine Partner. Von 1970 bis 1972 war er mit der Schauspielerin Ingrid Caven verheiratet, für die er auch einige Chanson-Texte schrieb (z. B. "Alles aus Leder", "Freitag im Hotel", "Nietzsche", "Die Straßen stinken)" und der er eine spätere Karriere als Sängerin ermöglichte (erstes öffentliches Konzert 1976 im Münchner Rationaltheater). Zwischen 1971 und 1974 lebte er mit dem aus Algerien stammenden El Hedi ben Salem zusammen, der Fassbinder von Paris nach Westdeutschland gefolgt war und durch ihn zum bekannten Schauspieler seiner Filme wurde. Es folgte 1974 bis 1978 eine Beziehung mit Armin Meier, der auch in einigen Filmen auftrat. Bis zu seinem Tod im Juni 1982 lebte Fassbinder dann mit seiner Cutterin Juliane Lorenz, mit der er seit 1976 zusammenarbeitete, in einer gemeinsamen Wohnung in der Clemensstraße 76 in München. Juliane Lorenz behauptet, dass sie und Fassbinder in Fort Lauderdale (Florida, USA), geheiratet hätten; dies ist sehr umstritten und es gibt dafür keine Beweise. Lorenz gibt an, den Trauschein vor lauter Freude aus dem fahrenden Auto geworfen zu haben. Streitigkeiten. 2007 stellte eine Gruppe ehemaliger Fassbinder-Mitarbeiter seiner frühen „Clan“-Periode drei Monate nach der deutschen Uraufführung des restaurierten Films "Berlin Alexanderplatz" die Arbeit von Juliane Lorenz und der RWFF in Frage. Der Hauptvorwurf war, Lorenz habe den Film bei der digitalen Abtastung aufgehellt. Nach anhaltender, intensiver Diskussion in der deutschen Presse und einer Stellungnahme des künstlerischen Leiters der Restaurierung, Xaver Schwarzenberger (ursprünglicher Kameramann), sowie des Kameramanns Michael Ballhaus konnten die Vorwürfe entkräftet werden. Hinzu kamen sorgfältige Recherchen des Autors Tilman Jens für einen Filmbeitrag in der Fernsehsendung "Kulturzeit", die nahelegten, dass die Behauptungen gegen Lorenz und die RWFF nicht zutreffend waren. Reminiszenzen und Würdigungen. Der US-amerikanische Musikproduzent und Gitarrist Omar Rodriguez Lopez widmete Fassbinder 2009 ein ganzes Album. Nicht nur der Titel des Albums "Despair", sondern auch sämtliche Lieder sind nach Filmen von Fassbinder benannt: „Liebe ist kälter als der Tod“, „Angst essen Seele auf“ oder „Warnung vor einer heiligen Nutte“. Es handelt sich durchweg um reine Instrumentalstücke ohne explizite Bezugnahme. 2015 widmet das Berliner Theatertreffen unter dem Titel "Focus Fassbinder" mehrere Inszenierungen der Erinnerung an den Filmemacher. Auf dem Programm steht auch ein Symposium "Das Private ist politisch! – Rainer Werner Fassbinder im Theater heute". Auch ein Lieder- und Erinnerungsabend mit Hanna Schygulla ist geplant. 2009 und erneut 2015 fanden in München "Fassbindertage" mit Veranstaltungen unter anderem im Filmmuseum, im Residenztheater, den Kammerspielen und dem Teamtheater statt. Robustheit. Der Begriff Robustheit (lat. "robustus", von "robur" Hart-, Eichenholz) bezeichnet die Fähigkeit eines Systems, Veränderungen ohne Anpassung seiner anfänglich stabilen Struktur standzuhalten. Meist ist es sinnvoll anzugeben, wogegen das System robust ist (z. B. gegen Änderung der Umgebungstemperatur oder gegen Fehlbedienung). Informatik. In der Informatik und Softwareentwicklung bedeutet der Begriff „Robustheit“ die Eigenschaft eines Verfahrens, auch unter ungünstigen Bedingungen noch zuverlässig zu funktionieren. Robustheit, auch als „Fehlertoleranz“ bezeichnet, zählt zu den Qualitätskriterien für Software. Beispiele für entsprechende Vorkehrungen sind das Verhindern undefinierter Zustände und „Systemabstürze“ (z. B. durch vollständiges und detailliertes Auswerten von Antwortcodes nach der Ausführung von Unterprogrammen oder Systemaufrufen) und insbesondere das Abfangen fehlerhafter Benutzer- oder Dateneingaben (wie ungültiger Kommandos/Funktionscodes, falscher Formate in Datenfeldern usw.). Soweit wie möglich sollte ein „Spektrum sinnvoller Reaktionsmöglichkeiten, abhängig von der Situation“ definiert und angewendet werden, was je nach Erwartungshaltung hohen Implemtierungsaufwand bedeuten kann. Trotzdem wird eine 100 prozentige Robustheit nicht erreichbar sein, etwa, wenn erforderliche Komponenten der Systemsoftware fehlen oder nicht korrekt arbeiten. Doch selbst in solchen Fällen kann ein Computerprogramm u. U. noch eine möglichst aussagefähige Fehlermeldung erzeugen und sich kontrolliert selbst beenden. Wirtschaft. In der Industrie wird der Begriff „Robuster Produktionsprozess“ verwendet. Für die Automobilindustrie gibt es hierzu einen VDA-Band in der Reihe „Das gemeinsame Qualitätsmanagement in der Lieferkette“ mit dem Titel „Produktherstellung und -lieferung, Robuster Produktionsprozess“. Danach zeichnet sich ein robuster Produktionsprozess dadurch aus, dass er gegen unerwünschte Einflussgrößen unempfindlich ist und eine termin- und abrufgerechte Produktion mit ausgezeichneter Qualität unter Einhaltung des geplanten wirtschaftlichen Aufwandes sicherstellt. Die Definition für den „Robusten Produktionsprozess“ ist gleichzeitig die Festlegung der „Leitplanken“, die den Weg der Realisierung beschreiben. Analytik, Diagnostik. In der Analytik oder Diagnostik erlaubt die Robustheit eines analytischen Systems eine bestimmte Variabilität der zu analysierenden Probe (z.B. Probenvorbehandlung nicht erforderlich) und/oder anderer definierter physikalischer Parameter während des Messvorganges und liefert trotzdem reproduzierbare und standardisierbare Ergebnisse. Statistik. In der Inferenzstatistik bedeutet Robustheit, dass ein Test selbst bei verletzten Voraussetzungen (z.B. keine Normalverteilung, zu kleine Stichprobe) verlässlich arbeitet und sich der Fehler 1. und 2. Art nur geringfügig ändert. Bei mangelnder Robustheit entstehen durch Voraussetzungsverletzungen vermehrt Fehler 1. Art oder 2. Art und führen entweder zu progressiven (fälschliche Verwerfung der Nullhypothese) oder konservativen Entscheidungen (fälschliches Beibehalten der Nullhypothese). Biologie. Robustheit eines biologischen Systems ist die evolutionäre Beständigkeit eines bestimmten Merkmals oder einer Eigenschaft in einem System unter Störungen oder Unsicherheitsbedingungen. Robustheit in der embryonalen Entwicklung ist Kanalisierung. Rückkopplung. Eine Rückkopplung, auch Rückkoppelung, Rückmeldung oder Feedback (engl.), ist ein Mechanismus in signalverstärkenden oder informationsverarbeitenden Systemen, bei dem ein Teil der Ausgangsgröße direkt oder in modifizierter Form auf den Eingang des Systems zurückgeführt wird. Arten von Rückkopplung. Rückkopplungen kommen überall in technischen, biologischen, geologischen, wirtschaftlichen und sozialen Systemen vor. Je nach Art und Richtung der rückgeführten Größe kommt es zur Selbstverstärkung des durch das System bedingten Prozesses oder zu dessen Abschwächung oder Selbstbegrenzung. Im ersten Fall spricht man von positiver Rückkopplung oder Mitkopplung, im letzteren Fall von Gegenkopplung oder negativer Rückkopplung. In technischen Systemen wird häufig angestrebt, Rückkopplungsvorgänge nicht nur durch die Kapazität der beteiligten Energiespeicher zu begrenzen, sondern auch eine Struktur zu schaffen, die durch passive und aktive Gegenkopplung Überlastungen verhindert. Dabei handelt es sich oft um Regelungsvorgänge. In der Natur können Rückkopplungen in komplexen Strukturen vorkommen, in denen Elemente über andere, zum Teil entfernt gelegene Systeme, wieder auf sich selbst zurückwirken. In psychologisch determiniertem Verhalten ist die Richtung der Rückkopplung nicht von vornherein festgelegt. So kann zum Beispiel im System "Lernen in der Schule" eine schlechte Notenwertung je nach Motivation sowohl zu erhöhtem Fleiß (Gegenkopplung) oder im Gegenzug auch zur Resignation führen (Mitkopplung, bzw. verstärkende Wirkung). Mitkopplung. a> reißt der in Bewegung gekommene Schnee in einem Mitkopplungsprozess noch mehr Schnee mit sich, der wiederum das Phänomen weiter anschwellen lässt. Bei der Mitkopplung kommt eine vorzeichen- oder phasenrichtige Rückführung der Ausgangsgröße im Zusammenspiel mit verstärkenden Elementen des Systems zum Tragen. Dies kann nützlich sein, beispielsweise um Reibungsverluste auszugleichen, es kann aber auch eine Gefahr darstellen, denn die beteiligten Größen können hierbei gefährlich anwachsen, solange dazu Energie bereitgestellt wird, und es kann, wenn nicht zusätzliche, auf den Prozess dämpfend einwirkende Größen wirksam werden, zu einer Zerstörung kommen. Hierbei wird der Vorgang nur noch durch die Begrenzung der (Energie-) Ressourcen limitiert. In technischen Systemen spricht man von einer ungedämpften periodischen Schwingung in Resonanz oder einer aperiodischen Schwingung. Je nachdem, ob es zu einem lawinenartigen Anschwellen im System kommen kann oder nicht, unterscheidet man zwischen unterkritischer, kritischer oder überkritischer Mitkopplung. Positive Rückkopplung findet man oft bei Wachstumsprozessen. Man spricht in nichttechnischen Systemen auch von einem "circulus virtuosus", oder, wenn das Ergebnis als solches nicht gewünscht wird, auch von einem "Teufelskreis" oder "Circulus vitiosus". Beispiele: Schuldenfalle, Kettenreaktion, Autokatalyse, Akustische Rückkopplung, Börsencrash, elektronische Schaltungen wie z. B. Schmitt-Trigger oder Oszillatoren (Meißner-Schaltung zur Realisierung eines ungedämpften Schwingkreises), Benjamin-Franklin-Effekt der Sozialpsychologie Gegenkopplung. Bei der Gegenkopplung ist eine Rückführung des Ausgangssignals mit negativem Vorzeichen bzw. gegenphasiger Polarität wirksam. Diese negative Rückführung wirkt der äußeren Anregung entgegen und führt zu einer sich verringernden Zustandsänderung. Solche Systeme neigen entweder stark zum Einnehmen einer stabilen Lage oder zu mehr oder weniger abklingenden Schwingungsverhalten um einen stabilen Mittelwert. Die Gegenkopplung ist ein fundamentales Prinzip in der gesamten belebten Natur und verbreitet in technischen Systemen. Insbesondere die Regelungstechnik hat das Ziel, die Gegenkopplung so einzurichten, dass ein stabiles Systemverhalten erreicht wird. Dazu werden in technischen Systemen automatische Regler verwendet. Unerwünschte Schwingneigung in einem Regelkreis kann beispielsweise durch variable Dimensionierung der Gegenkopplung vermieden werden, indem die Verstärkung mit zunehmender Frequenz verringert wird. Das kennzeichnende Merkmal in natürlichen Systemen sind Rückkopplungsschleifen mit Selbstregulationseigenschaften. In biologischen Systemen von Organismen ist dieses Prinzip entscheidend bei der Homöostase. Gegenkopplung spielt eine Rolle in allen (Selbst-)Erhaltungsprozessen. Selbsterregung (d. h. das initiale Entstehen von Schwingungen) tritt ein, wenn zunächst eine positive Kopplung und dann verzögert eine negative Kopplung einsetzt. Die Systemparameter pendeln dann zwischen Ruhe und typischen Höchstwerten. Dieser Fall kann insbesondere in elektronischen Regelkreisen bei hohen Frequenzen eintreten, wenn die Phasenbedingung für eine Gegenkopplung aufgrund zufälliger Phasenverschiebungen aller Komponenten nicht mehr zuverlässig gegeben ist. Beispiele: Fliehkraftregler, das Füllen eines Eimers mit einem Loch im Boden, selbstregelnde Vorgänge in Ökosystemen, Gegenkopplung in Reglern und Verstärkern, Aussetzen von Nützlingen, Drehstrommotoren, Boiler mit Thermostat, Kühlschrank, Körperwärme-Regulation bei Säugetieren, Preisbildung durch Angebot und Nachfrage Beispiele mit variablem Schwingungsverhalten: Räuber-Beute-Beziehung, Rhythmus der Cortison-Sekretion, zirkadiane biologische Rhythmen, Menstruationszyklus, Konjunkturzyklen, Regelschwingungen (Instabilität) von Reglern, Selbsterregung von Verstärkern (aufgrund ungeeigneter Gegenkopplung, unzureichender Abschirmung zwischen Ein- und Ausgang oder ungeeigneten Lasten) Stabilitätsbedingungen. Die Bedingungen für die Stabilität eines technischen Systems können formal behandelt werden. Anschaulich ist es das Ziel, dass die Kreisverstärkung noch vor einer kritischen Phasendrehung unter eins sinkt. Elektrische Schaltungstechnik. Im Jahr 1913 entwickelten unabhängig voneinander Alexander Meißner (* 1883 in Wien, † 1958 in Berlin) bei Telefunken in Berlin und Edwin Howard Armstrong (* 1890, † 1954) in New York das System einer Sender- und Empfängerschaltung mittels Röhren-Verstärker mit Rückkopplung. 1927 entdeckte der Telefoningenieur Harold Stephen Black, dass man die Qualität eines Signalverstärkers erheblich verbessern kann, indem man einen Teil des Ausgangssignals vom Eingangssignal subtrahiert, was im Prinzip eine Gegenkopplung darstellt. Tontechnik. In der Tontechnik bzw. der Elektroakustik ist Rückkopplung (kurz Kopplung oder „Koppeln“ oder „Feedback“ genannt) eine in aller Regel unerwünschte, als unangenehmes Pfeifen wahrgenommene Selbsterregung des Systems Schallaufnehmer – Verstärker – Lautsprecher. Hauptsächlich entsteht sie zwischen den vom Verstärker gespeisten Lautsprechern und den Mikrofonen. Aber auch jeder andere elektroakustische Schallaufnehmer, wie beispielsweise bei E-Gitarren oder Schallplattenspielern, kann betroffen sein. Eine Rückkopplung kann sich ausbilden, wenn ein Lautsprecher das Signal eines Mikrofons wiedergibt und gleichzeitig das Mikrofon dieses Signal erneut aufnimmt, wenn es zu nahe am Lautsprecher steht, wie es typischerweise etwa bei Hörgeräten vorkommt. Das Signal wird erneut verstärkt, über den Lautsprecher wiedergegeben und es entsteht eine elektroakustische Schleife, die sich bis zur Selbsterregung aufschaukelt. Die Frequenz der Selbsterregung hängt von den frequenzselektiven Eigenschaften und der Phasenverschiebung der Übertragungsstrecke (Luftstrecke, Equalizer, Lautsprecher, Mikrofoneigenschaften, reflektierende Raumwände) ab. Im extremen Fall einer Rückkopplung ist neben der Belästigung der Zuhörer auch die Zerstörung der Lautsprecher möglich, insbesondere die Hochtöner können dadurch beschädigt werden. Tieftonlautsprecher und Subwoofer sind gegen Feedback unempfindlicher und verkraften auch ein stärkeres Feedback als Hochtöner. In Lautsprecherboxen befindliche Frequenzweichen können beschädigt werden. Oft tritt Kopplung bei leerem Zuhörersaal eher ein, als bei gefülltem, da die Zuhörer den Schall und dessen Reflexion im Raum dämpfen. Das Feedback wird in verschiedenen modernen Musikstilen, vor allem aber in der Rockmusik, insbesondere beim Heavy Metal ganz bewusst als Sounddesign zur Klangbearbeitung eingesetzt. Des Weiteren gibt es vereinzelt DJs, die Feedback in ihre Performance mit einbauen. Dazu wird das Signal am Kopfhörerausgang des Mischpults auf einen Eingang gelegt. Unter extrem vorsichtiger Verwendung der verschiedenen Regler (Höhen, Mitten, Tiefen usw.) können somit Geräusche von verzerrt über pfeifend bis hin zu rhythmisch schlagend und weiteren Variationen erzeugt werden. Jedes Mischpult reagiert auf diese Manipulation anders. Selbst bei geringen Veränderungen an den Reglern können schlagartig wechselnde Geräusche entstehen, die bei unvorsichtiger Handhabung, wie oben erwähnt, die Boxen zerstören können. In der Computertechnik. In der Computertechnik kann Feedback dazu dienen, dem Nutzer Information über den aktuellen Zustand einer Anwendung zu geben. Dies kann mit optischen Mitteln geschehen, etwa durch farblich hervor gehobene Details in einer Graphischen Benutzeroberfläche. Oder es werden akustische Signale genutzt, indem ein Geräusch über einen Lautsprecher abgespielt wird. Manche Eingabegeräte besitzen die Fähigkeit, dem Nutzer mit mechanischen Mitteln eine Rückmeldung zu geben. Dieses Force-Feedback dient unter anderem, den Eindruck einer Simulation realistischer zu gestalten. Die Hardware mancher Computerspiele ist in der Lage, dem Spieler mit mechanischen Mitteln Rückmeldungen über Ereignisse im Spiel zu geben. Dies wird häufig für eine direkte Reaktion auf Aktionen des Spielers genutzt. Ein Beispiel dafür sind Vibrationen eines Lenkrads. Eine geschlossene Regelschleife mit dem Nutzer als Systemblock wird beim Verfahren User in the loop genutzt, um z. B. im Mobilfunk oder Smart Grid eine Nachfrageregelung zu erreichen. System Erde und Klimaforschung. In der Klimatologie sind viele Rückkopplungen zu beobachten. Bei der Eis-Albedo-Rückkopplung (positive Rückkopplung) wird beispielsweise durch Vereisung mehr Sonnenlicht reflektiert, so dass es kälter wird. Damit können größere Flächen vereisen und es wird noch kälter. Umgekehrt funktioniert der Prozess ebenfalls. Weitere Rückkopplungen beinhalten Wolken-Wasserdampf-Kopplungen („Der Wasserdampf-Effekt in der oberen Troposphäre ist der stärkste bekannte Rückkopplungsprozess.“) oder die Kohlendioxid-Aufnahmefähigkeit von Meeren. Viele dieser Prozesse sind noch nicht genau genug erforscht und erschweren eine genaue Klimavorhersage mit Klimamodellen. Dabei ist während der letzten 35 Jahren die Luftfeuchtigkeit am oberen Rand der Wetterschicht um durchschnittlich ca. zehn Prozent gestiegen. Medizin und Biologie. In der Biologie und Medizin bewirkt negative Rückkopplung die Aufrechterhaltung der Homöostase (Gleichgewichtszustand innerhalb zulässiger Grenzen) eines Systems. Solche Regulationsvorgänge laufen z. B. beim Aufrechterhalten der Körpertemperatur von Warmblütern oder bei der Regulation der Genaktivität ab. Dagegen bedeutet Biofeedback, dass z. B. ein Signalton oder eine Lampe eine Werteüberschreitung einer gemessenen Größe (z. B. Hauttemperatur, Muskelspannung/Tonus oder EEG-Wellenamplitude einer vorgewählten Frequenz) an die untersuchte Person zurückgemeldet wird, die ansonsten nicht oder nicht hinreichend wahrgenommen werden kann. Sie wird auf diese Weise erfahrbar gemacht und kann z. B. zum Erlernen einer Selbstkontrolle dienen. Der menschliche Körper ist ein komplexes System, welches von einem sehr effektiven Feedback-Kontroll-System gesteuert und kontrolliert wird – dem Zentralnervensystem. Die aktuellen Sinneseindrücke werden dabei immer mit den dazu passenden Informationen (Erfahrungen) aus dem Gedächtnis kombiniert, um dem Individuum eine passende Zukunftsvorhersage als Handlungsvorschlag für die aktuelle Situation zu liefern. Damit kann man auf jede Situation sofort angemessen reagieren. Der Vorschlag des Gehirns wird immer an die aktuelle Situation angepasst. Z. B. steuert das Gehirn beim Gehen/Laufen nach der gesehenen optischen Information über die Beschaffenheit des Weges, wie man den Fuß aufsetzen muss. Das Feedback-System kann z. B. durch Drogen (Alkoholkonsum) gestört werden; dann torkelt man oder stürzt. Ridley Scott. Sir Ridley Scott (* 30. November 1937 in South Shields, England) ist ein britischer Filmregisseur und Produzent. Er gilt heute als einer der renommiertesten und einflussreichsten Regisseure und hat die Erzählweisen mehrerer Filmgenres geprägt. Seine Filme "Alien", "Blade Runner", "Thelma & Louise" und "Gladiator" wirkten filmhistorisch stilbildend. Sein Bruder Tony Scott war ebenfalls Hollywood-Regisseur. Ridley und Tony Scott betrieben seit den 1970ern die Produktionsfirma für Werbefilme "Ridley Scott Associates (RSA)". 1995 gründeten dann beide in Los Angeles die Filmproduktionsfirma "Scott Free Productions". 2003 wurde Scott von der britischen Königin aufgrund seiner Verdienste um die Kunst zum Ritter geschlagen. Sein Sohn Jake Scott und seine Tochter Jordan Scott sind ebenfalls im Filmgeschäft tätig. Biographie. Scott wurde als Sohn eines Berufssoldaten geboren (South Shields, Tyne and Wear). Sein Vater, den er selten zu sehen bekam, diente bei den Royal Engineers (Kampfunterstützungstruppen der britischen Armee). Nach Aufenthalten in Cumbria, Wales und Deutschland ließ sich die Familie in Stockton-on-Tees im Norden Englands nieder (die industriell geprägte Landschaft inspirierte später Szenen in "Blade Runner"). Scott erlernte 1954 bis 1958 Grafikdesign und Malerei am "West Hartlepool College of Art" und erlangte das Diplom mit Auszeichnung. Er studierte daraufhin Grafikdesign (M.A., 1960 bis 1962) am Royal College of Art in London, wo David Hockney einer seiner Mitstudenten war. Er schloss 1963 mit Auszeichnung ab. Scott erhielt ein einjähriges Reisestipendium in die USA und wurde bei Time Life, Inc. beschäftigt, wo er mit den Dokumentaristen Richard Leacock und D.A. Pennebaker arbeitete. Nach seiner Rückkehr nahm er 1965 eine Lehrstelle bei der BBC als Szenenbildner an. Diese Position führte ihn zur Mitarbeit an beliebten Fernsehproduktionen wie der Polizei-Serie "Z-Cars" oder der Science-Fiction-Serie "Out of the Unknown". Nach kurzer Zeit wurde er ins Trainingsprogramm für Regisseure aufgenommen und inszenierte einige Episoden selbst. 1968 verließ Scott die BBC, um "Ridley Scott Associates" (RSA) zu gründen. An dem Projekt arbeiteten neben seinem Bruder Tony Regisseure wie Alan Parker, Hugh Hudson und Hugh Johnson mit. RSA wurde zu einem der erfolgreichsten Werbefilm-Häuser in Europa, in dessen Auftrag Scott für über 2000 Werbespots verantwortlich zeichnet; viele davon wurden auf den Festspielen von Cannes und Venedig ausgezeichnet. Ridley Scott gilt in der Branche als ökonomischer Regisseur, da er in der Regel mit einem Drittel der Drehtage seiner Kollegen auskommt. Eigenen Worten zufolge verdankt er dies seiner Vergangenheit als Werbe- und Videospotregisseur sowie der Tatsache, dass er manche Szenen mit bis zu 15 Kameras gleichzeitig drehe. Werk. Scotts Markenzeichen ist ein ausgeprägt ästhetischer und malerischer visueller Stil, der sich durch seine jahrelange Erfahrung als Production Designer und Regisseur von Werbespots entwickelt hat. Sein erster Themenfilm "Die Duellisten" (1977) war zwar kommerziell kein großer Erfolg, fand aber bei der Kritik genug Beachtung, um Scott die Realisierung des Science-Fiction-Films "Alien – Das unheimliche Wesen aus einer fremden Welt" (1979) zu ermöglichen. Sein nächster Film "Blade Runner" (1982), basierend auf dem Roman "Träumen Androiden von elektrischen Schafen?" von Philip K. Dick, spielt in einem düster-futuristischen Los Angeles. Das Werk war visuell derart beeindruckend, dass es für eine ganze Generation von Cyberpunk Literatur, Musik und Kunst als Inspiration diente. In der Folge drehte Scott "Legende" (1985), "Der Mann im Hintergrund" (1987) und "Black Rain" (1989), die alle nicht an die Bedeutung und den Erfolg der vorigen Werke anknüpfen konnten. "Legende" setzte sich jedoch im Lauf der Zeit als Fantasy-Kultfilm durch und wurde 2002 mit einem restaurierten Director’s Cut ergänzt. Die von der Kritik stetig vorgebrachte Beschuldigung, visuellen Stil vor Inhalt und Charakterzeichnung zu stellen, wurde mit "Thelma & Louise" (1991) entkräftet. Neben guten Kritiken erhielt Scott seine erste Oscar-Nominierung für die beste Regie. Danach folgten mit dem Kolumbus-Film "1492 – Die Eroberung des Paradieses" (1992), "White Squall – Reißende Strömung" (1996) und "Die Akte Jane" (1997) erneut Filme, die künstlerisch und kommerziell durchfielen. Insbesondere der Militärfilm "Die Akte Jane", in dem Demi Moore eine Frau spielt, die als erste Mitglied bei den Navy Seals werden will, wurde wegen einer nach Ansicht vieler Kritiker undifferenzierten Pro-Militär-Haltung angegriffen. Mit "Gladiator" feierte Scott 2000 ein triumphales Comeback. Der Film war beim Publikum sehr erfolgreich und gewann neben dem Oscar für den besten Film im Jahr 2000 auch den Golden Globe 2001. Die Regie-Leistung wurde ebenfalls nominiert, den Preis erhielt Scott jedoch nicht. Eine weitere Oscar-Nominierung erhielt er für den kontroversen Kriegsfilm "Black Hawk Down" (2001), der einen verunglückten US-amerikanischen Militäreinsatz in Somalia thematisiert und in eindrucksvolle Bilder umsetzt. "Black Hawk Down" prägte die neuere "Action"-Darstellung und verhalf der dokumentaristischen Kameraführung zum Durchbruch in der Filmkunst. Scott übernahm die Regie bei dem Film "Hannibal" (2001), der Fortsetzung zu "Das Schweigen der Lämmer" (1991, Regie: Jonathan Demme). 2005/06 folgte in zwei Versionen der Film "Königreich der Himmel". 2006 erschien "Ein gutes Jahr" nach dem Roman "Ein guter Jahrgang" seines Landsmannes Peter Mayle. Er handelt von einem Bankmanager, der von seinem Onkel ein Weingut in der Provence erbt und daraufhin beschließt, sein Leben umzukrempeln. Die Hauptrolle spielt der australische Schauspieler Russell Crowe. Gemeinsam mit seinem Bruder Tony produzierte er für den amerikanischen Kabelsender TNT die Miniserie "The Company", die im August 2007 ausgestrahlt wurde. "The Company" erzählt die Geschichte dreier Yale-Absolventen, die in der Nachkriegszeit auf Seiten der CIA bzw. des KGB in den Kalten Krieg verwickelt werden. In den Hauptrollen sind u. a. Chris O’Donnell, Michael Keaton und Alfred Molina zu sehen. Im Oktober 2008 bestätigte Ridley Scott, dass er 25 Jahre warten musste, bis die Rechte an dem Buch "Der Ewige Krieg" von Joe Haldeman für eine Verfilmung zur Verfügung standen. Scott plane, dieses Buch in 3D zu verfilmen. Für den US-Fernsehsender CBS produziert er seit 2009 die Serie "Good Wife". Die Ausstrahlung begann in den USA im September 2009, in Deutschland bei ProSieben Ende März 2010. Auch hier arbeitete Ridley Scott mit seinem Bruder Tony zusammen. Mit der 2009 abgedrehten Produktion "Robin Hood" legte Scott erneut einen Historienfilm vor. Mit seinem 22. Spielfilm, realisiert nach einem Drehbuch von Brian Helgeland mit Russell Crowe in der Titelrolle, wurden am 12. Mai 2010 die 63. Filmfestspiele von Cannes eröffnet. Ridley Scott arbeitet an der ersten Verfilmung von Aldous Huxleys Roman "Schöne neue Welt" für das Kino. Der Film wird von ihm und Leonardo DiCaprio produziert, Drehbuchautor ist Farhad Safinia. Scott wird voraussichtlich auch Regie führen. Der Film "Prometheus" war ursprünglich als Prequel zu seinem ersten großen Erfolg "Alien" geplant. Das Drehbuch stammt von Jon Spaihts; Damon Lindelof überarbeitete das Drehbuch für 20th Century Fox. In den USA erfolgte der Kinostart am 8. Juni 2012. Auszeichnungen. Ridley Scott ist dreimal in der Kategorie "Bester Regisseur" für den Oscar nominiert worden (1992 für "Thelma & Louise", 2001 für "Gladiator" und 2002 für "Black Hawk Down"). Gewinnen konnte er diese Auszeichnung bislang noch nicht. Redewendung. Eine Redewendung, auch Phraseologismus, Idiom oder idiomatische Wendung, ist eine feste Verbindung mehrerer Wörter („feste Wortverbindung“) zu einer Einheit, deren Gesamtbedeutung sich nicht unmittelbar aus der Bedeutung der Einzelelemente ergibt. Es handelt sich um den Spezialfall einer Kollokation. Definition. Das metaphorische Bild unterscheidet die sprichwörtliche Redens"art" von der bloßen Rede"wendung". Sprichwörtlich werden heißt, im kollektiven Bewusstsein üblich werden. Es geht um sprachliche Elemente, die nur reproduziert werden, um vorfabrizierte Formeln (englisch: "patterned speech"). Der Hörer weiß, dass er das Gesagte schon einmal gehört hat. Das Wort Phraseologie bezeichnet dabei sowohl die Gesamtheit der in einer Sprache auftretenden Redewendungen als auch die sich damit befassende Wissenschaft. Eine "phraseologische Einheit" ist die Verbindung zweier oder mehrerer Wörter, die keine allein aus ihnen selbst erklärbare Einheit bilden. Als Beispiel die Redensart "ins Gras beißen": Sie hat nichts mit "in den Apfel beißen" oder "ins Gras fallen" zu tun. Die Wendung hat die Bedeutung „sterben“ und kann nicht durch Wendungen wie "in die Wiese beißen" oder "ins Gras schnappen" ersetzt werden. Übertragene Bedeutung. Der Sprachforscher Lutz Röhrich weist darauf hin, dass wörtliche und übertragene Bedeutung oft nebeneinander bestehen. Das Verstehen setzt zunächst die Kenntnis der Hintergründe voraus. Die Aneignung der Sprachbildlichkeit ist ein Prozess, der sich über einen großen Teil der Kindheit hinzieht und am Ende über ein ganzes Leben erstrecken kann. So vermag z. B. ein Nicht-Muttersprachler durchaus zu lernen, was die deutschen Worte "grün" und "Zweig" bedeuten; um aber die Bedeutung von "auf den grünen Zweig kommen" zu kennen („zu Wohlstand kommen“), bedarf es einer größeren Vertrautheit mit dem Deutschen. Wortverbindungen und Wortschatz. Phraseologismen bestimmen die Spezifik einer Sprache stärker als der Wortschatz. Die Idiomatizität einer Wortverbindung zeigt sich daran, dass Diese Wendungen werden unterschieden von den Gruppen der freien (unfesten) Wortverbindungen und den losen Wortverbindungen. In ungenauer Redeweise werden unter Redewendungen auch Sprichwörter, Redensarten, Funktionsverbgefüge und Zwillingsformeln subsumiert. Oft enthalten sie ehemalige rhetorische Figuren, vor allem Metaphern. Fast immer sind sie aus sprachhistorisch älteren unidiomatischen („wortwörtlich gebrauchten“) Syntagmen entstanden. Die Unanalysierbarkeit der Bedeutung löst sich somit fast immer auf, wenn die Geschichte einer Redewendung nur weit genug zurückverfolgt werden kann. Redewendungen können (wie alle Wortschatz-Elemente) eine eingeschränkte regionale Verbreitung haben. Mit dem Sprichwort gemeinsam hat die Redensart das einprägsame Bild, dessen Wortlaut unveränderlich ist. So heißt es "Maulaffen feilhalten" und nicht "Maulaffen verkaufen". Literarische Zitate, die als Redewendungen Eingang in den allgemeinen Sprachgebrauch gefunden haben, werden als geflügelte Worte bezeichnet. Robert Zemeckis. Robert Lee Zemeckis (* 14. Mai 1952 in Chicago, Illinois) ist ein US-amerikanischer Regisseur und Filmproduzent. Seine Regiearbeit an "Forrest Gump" verschaffte ihm 1995 einen Oscar. Leben. Zemeckis wurde in Chicago als Sohn eines litauisch-amerikanischen Vaters und einer italo-amerikanischen Mutter geboren und wuchs in einer katholischen Arbeiterfamilie auf. Bereits als Kind liebte Zemeckis Film und Fernsehen und war von der 8-mm-Filmkamera seines Vaters begeistert. Nachdem er damit bereits Familienfeste und Urlaubserlebnisse gefilmt hatte, begann er, kleine Dokumentarfilme mit Freunden zu drehen, in denen er auch Spezialeffekte einzubauen versuchte. Der Film "Bonnie and Clyde" faszinierte ihn dermaßen, dass er beschloss, eine Filmschule zu besuchen. Zemeckis opferte eigenen Aussagen zufolge viel Lebenszeit, nur um im Film Karriere zu machen. "Mit 44 Jahren gewann ich einen Academy Award, aber ich bezahlte dafür mit meiner Lebenszeit der 20er. Diese Dekade meines Lebens von der Filmschule bis 30 war nichts als Arbeit, nichts als absolutes, getriebenes Arbeiten. Ich hatte kein Geld und kein Leben." 1980 heiratete Zemeckis die Schauspielerin Mary Ellen Trainor, mit der er einen Sohn namens Alexander hat. Diese Beziehung stand immer im Spannungsverhältnis mit seinem filmischen Schaffen und endete 2000 mit Scheidung. 2001 heiratete er die Schauspielerin Leslie Harter. Politisch betätigte sich Zemeckis wiederholt als Wahlkampfsponsor für die Demokratische Partei. Karriere. Zemeckis’ erster großer Erfolg war die Trilogie "Zurück in die Zukunft" Ende der 1980er-Jahre, für die er das Drehbuch schrieb (zusammen mit Bob Gale) und auch Regie führte. Er erhielt 1995 den "„Oscar“" in der Kategorie „Beste Regie“ in dem Film "Forrest Gump" mit Tom Hanks in der Hauptrolle. Er führte auch Regie bei "Falsches Spiel mit Roger Rabbit", "Contact" und "Cast Away – Verschollen" (erneute Zusammenarbeit mit Hanks). Robert Zemeckis hat bis jetzt acht Filme mit einem Einspielergebnis von über 100 Millionen Dollar in den Vereinigten Staaten geschaffen. Er gehört zu den treuesten Weggefährten Steven Spielbergs. Spielberg produzierte fast alle seine Filme, und Robert Zemeckis schrieb auch das Drehbuch für den Steven-Spielberg-Film "1941 – Wo bitte geht's nach Hollywood". Robert Zemeckis gründete 1998 mit Steve Starkey und Jack Rapke die Produktionsfirma ImageMovers, welche jedoch 2007 geschlossen und nach einiger Zeit von der Walt Disney Company als "ImageMovers Digital" wieder eröffnet wurde. Zudem gründete er zusammen mit Joel Silver und Gilbert Adler die auf Horrorfilme spezialisierte Produktionsfirma Dark Castle Entertainment. Zemeckis’ Film "Der Polarexpress" wurde per Motion Capture komplett computeranimiert hergestellt und stellt die dritte Zusammenarbeit mit Tom Hanks dar. Nach "Die Legende von Beowulf" entstammt Charles Dickens’ "Disneys Eine Weihnachtsgeschichte" ebenfalls reiner Computerarbeit mit gleicher Technik. In diesem fungierte Jim Carrey als menschliches Vorbild für die künstlich generierte Computerfigur. Seit "Auf der Jagd nach dem grünen Diamanten" sind die Regiearbeiten von Robert Zemeckis durch die Filmmusik des Komponisten Alan Silvestri geprägt (Ausnahme: "Drei Wege in den Tod"). 2012 drehte er mit seiner Frau Leslie Zemeckis die Dokumentationen "Bound by Flesh" über die Siamesischen Zwillinge Daisy und Violet Hilton. Robert Benton. Robert Benton (* 29. September 1932 in Waxahachie, Texas, USA) ist ein US-amerikanischer Regisseur, Drehbuchautor und Filmproduzent. Seine Bekanntheit begründete er zunächst als Drehbuchautor, um dann als Regisseur internationale Erfolge zu erzielen. Werdegang. Robert Benton wuchs in seinem kleinen Geburtsort Waxahachie auf, machte an der University of Texas seinen Bachelor of Fine Arts und ging nach New York, wo er an der Columbia University den Master Degree erwarb. Sein Berufswunsch war, Maler zu werden, seine über Jahre anhaltende Arbeit für den Esquire, zuletzt als Art Director, brachte ihn aber mehr zum Schreiben. Zusammen mit Harvey Schmidt veröffentlichte er 1962 "The In and out Book". Zugleich begann er, mit David Newman das Drehbuch für "Bonnie und Clyde" zu entwickeln. Nach großen Anfangsschwierigkeiten wurde es 1966 verfilmt. Nach weiteren Erfolgen mit "Zwei dreckige Halunken" (1969) und "Is’ was, Doc?", für das der Filmemacher Peter Bogdanovich den Plot lieferte, beendete das Autorenteam 1972 mit "In schlechter Gesellschaft" seine Zusammenarbeit. Der Film war für Robert Benton zugleich das Debüt als Regisseur. Für seinen Welterfolg "Kramer gegen Kramer", wie auch für seine späteren Regiearbeiten, war sein eigenes Drehbuch häufig Vorlage. Richard Quine. Richard Quine (* 12. November 1920 in Detroit, Michigan, USA; † 10. Juni 1989 in Los Angeles, Kalifornien durch Selbsttötung) war ein US-amerikanischer Schauspieler, Drehbuchautor, Komponist, Produzent und Filmregisseur, der sich durch einen Gewehrschuss selbst getötet hat. Quine diente im Zweiten Weltkrieg bei der US Coast Guard. Er war mit der Schauspielerin Susan Peters von 1943 bis 1948 verheiratet, gemeinsam hatten sie ein Kind. Robert Siodmak. Robert Siodmak (* 8. August 1900 in Dresden; † 10. März 1973 in Locarno) war ein deutscher Filmregisseur, Drehbuchautor und Filmproduzent. Mit dem Film "Menschen am Sonntag" drehte er 1929 einen der wichtigsten Vertreter der "Neuen Sachlichkeit". Wie viele Filmschaffende seiner Zeit floh er vor der nationalsozialistischen Diktatur aus Deutschland. In Hollywood machte er sich in den 1940er Jahren als Regisseur von Thrillern und Film noirs wie "Die Wendeltreppe" und "Rächer der Unterwelt" einen Namen, die als Klassiker ihrer Genres gelten. Frühe Jahre. Siodmak entstammte einer jüdischen Familie. Seine Eltern waren der Kaufmann Ignatz Siodmak und dessen Ehefrau Rosa Philippine, geborene Blum. Ignatz Siodmak stammte ursprünglich aus Schlesien, war nach Amerika ausgewandert und hatte sich dann als US-amerikanischer Staatsbürger 1899 in Deutschland niedergelassen, wo er heiratete. Im Jahr 1902 wurde hier auch Robert Siodmaks jüngerer Bruder Curt Siodmak geboren. Robert Siodmaks Mutter starb noch vor ihrem 40. Geburtstag an Krebs, sein jüngster Bruder Rolf beging mit gerade einmal 20 Jahren Selbstmord. Bereits in seinen Jugendjahren brach er mit seinem Vater. Siodmak besuchte das Gymnasium in Dresden und nahm Schauspielunterricht bei Erich Ponto. Im Jahr 1918 schloss er sich einer Wanderbühne an, 1921 arbeitete er als Buchhalter bei den Banken Mattersdorf und Schermer in Dresden, 1924 gründete er den „Verlag Robert Siodmak“ und gab kurzzeitig die Illustrierte "Das Magazin" heraus. Eine von Siodmaks ersten Filmaufträgen war die Übersetzung der Zwischentitel für Lewis Milestones "Die Schlachtenbummler" (1927). Bei der von seinem Onkel Heinrich Nebenzahl geleiteten Nero-Film in Berlin etablierte er sich als Cutter und Regieassistent für Filme von Harry Piel und Kurt Bernhardt. Schließlich konnte Siodmak Nebenzahl überreden, ihm das Startkapital für seinen Debütfilm "Menschen am Sonntag" zur Verfügung zu stellen. Karriere in Deutschland und Frankreich 1929–1939. Bei "Menschen am Sonntag" (gedreht 1929, uraufgeführt 1930) führte Robert Siodmak, gemeinsam mit Edgar G. Ulmer, erstmals selbst Regie. Durch den Erfolg dieses ausschließlich mit Laien besetzten halbdokumentarischen Films erhielt er einen Vertrag bei der Universum Film (UFA), für die er Filmdramen, Kriminalfilme und Filmkomödien inszenierte. Zu den Darstellern, mit denen Siodmak arbeitete, gehörten schnell Filmgrößen wie Emil Jannings und Hans Albers. Als er 1932 bei "F.P.1 antwortet nicht", einer Verfilmung des Romans von Curt Siodmak, wegen seiner jüdischen Wurzeln übergangen wurde, verließ er die UFA. 1933 erschien "Das brennende Geheimnis", Siodmaks Leinwandversion von Stefan Zweigs Roman "Brennendes Geheimnis". Die Aufführung des Films wurde von Joseph Goebbels’ kurz zuvor eingerichtetem Reichsministerium für Volksaufklärung und Propaganda, das Anspielungen auf den Reichstagsbrand vom 27. Februar 1933 mutmaßte, verboten. Nach der „Machtergreifung“ der Nationalsozialisten verließ Siodmak Deutschland und ging nach Frankreich. In Paris arbeitete er unter anderem für die Néro-Films von Seymour Nebenzahl, der wie Siodmak hatte emigrieren müssen. Größter Publikumserfolg dieser Schaffensperiode wurde 1939 der Film "Mädchenhändler (Pièges)" mit Maurice Chevalier, Marie Déa und Erich von Stroheim. Siodmaks Vorhaben, Ödön von Horváths Roman "Jugend ohne Gott" zu verfilmen, scheiterte am plötzlichen Unfalltod des Autors. Die amerikanischen Jahre 1939–1952. Mit Beginn des Zweiten Weltkrieges wanderte Siodmak in die USA aus. Er arbeitete zunächst für Paramount Pictures, 20th Century Fox und Republic Pictures. Seine Bewerbung bei Mark Hellinger, damals Produzent bei Warner Brothers, war dagegen erfolglos, obwohl Hellinger ihn später für "Rächer der Unterwelt" engagierte. 1943 drehte er mit "Draculas Sohn" seinen ersten Film für die Universal Studios, bei denen er bis 1950 unter Vertrag blieb. Siodmak äußerte sich rückblickend abfällig über seine vor "Zeuge gesucht" (1944) entstandenen amerikanischen Filme, die er als reine Brotarbeiten betrachtete. "Zeuge gesucht" läutete eine Reihe von Thrillern und Film noirs ein, von denen einige heute als Klassiker ihrer Genres gelten. "Zeuge gesucht", "Rächer der Unterwelt" (1946) und "Gewagtes Alibi" (1949) förderten die Karriere von Burt Lancaster, Ava Gardner, Ella Raines und Tony Curtis. „Wenn man mit einer Sorte Film Erfolg hat, bekommt man den Auftrag, mehr von dieser Sorte zu drehen“, erklärte Siodmak 1959 die Gewichtung seiner Filme jener Jahre. Filmhistoriker entdeckten in diesen Arbeiten als inhaltliche und stilistische Gemeinsamkeiten die Untersuchung von „krankhafter Psychologie“ (Charles Higham) und „obsessiver Liebe und Hass“ (Colin McArthur) sowie „deutsche Lichtsetzung und expressionistische Umwandlung der äußeren Wirklichkeit“ (Foster Hirsch). David Thomson dagegen bezeichnete Siodmak als reinen „Auftragsregisseur“ und bezweifelte, ob man in seinem Fall von einer künstlerischen Autorenschaft sprechen könne. Universal „lieh“ Siodmak auch wiederholt an andere Studios aus, so an RKO Pictures für "Die Wendeltreppe" (1945), 20th Century Fox für "Schrei der Großstadt" (1948) und MGM für die Dostojewski-Verfilmung "Der Spieler" (1949). Der für Paramount inszenierte "Strafsache Thelma Jordon" (1950) beendete Siodmaks Noir-Reihe. Ein neuerliches Sieben-Jahres-Vertragsangebot von Universal lehnte er ab. 1952 drehte Siodmak mit dem Abenteuerfilm "Der rote Korsar" seinen letzten amerikanischen Film vor Verlassen seiner Wahlheimat. Die Dreharbeiten waren gezeichnet von anhaltenden Auseinandersetzungen zwischen ihm und Hauptdarsteller Burt Lancaster, der inzwischen zum Star avanciert war. Siodmak zog das Ende der 1940er Jahre aussterbende, alte Hollywood-Studiosystem den neuen Studioverhältnissen vor, in denen in seinen Worten „Anarchie“ herrsche und „egomanische“ Stars das Sagen hätten, und ging zurück nach Europa. Curt Siodmak und Filmhistoriker Hervé Dumont gaben als weiteren Grund für Siodmaks Abkehr von Hollywood an, er sei unter anderem wegen seiner persönlichen Bekanntschaft zu Charlie Chaplin ins Visier des House Committee on Un-American Activities (HUAC) geraten, das in den 1940er und 1950er Jahren Filmschaffende auf ihre politische Gesinnung überprüfte. Diese Behauptung ist jedoch nicht belegt. Zurück in Europa 1952–1973. Mitte der 1950er Jahre ließ Siodmak sich in Ascona am Schweizer Ufer des Lago Maggiore nieder und führte auch wieder in Deutschland Regie. Erneut betätigte er sich auf so unterschiedlichen Gebieten wie dem Kriminalfilm, dem Filmdrama, dem Western und dem Historienfilm. „Wenn ich, wie Hitchcock, mein ganzes Leben nur Kriminalfilme gemacht hätte, wäre mein Name bestimmt ebenso bekannt. Aber das langweilte mich und ich versuchte es auf verschiedenen Gebieten.“ (Siodmak) Für "Die Ratten" (1955), seine Verfilmung von Gerhart Hauptmanns gleichnamigem Theaterstück, wurde er auf den Internationalen Filmfestspielen Berlin mit dem Goldenen Bären ausgezeichnet. Der 1957 von ihm inszenierte "Nachts, wenn der Teufel kam" erhielt zahlreiche nationale und internationale Auszeichnungen, darunter auch eine Oscar-Nominierung als Bester fremdsprachiger Film. Der Film behandelt den Fall des angeblichen Serienmörders Bruno Lüdke vor dem zeithistorischen Hintergrund des Nationalsozialismus. In seiner Autobiografie bemerkte Siodmak, dass er von seinen nach der Rückkehr aus den USA gedrehten Filmen nur auf diese zwei stolz sei. Siodmak drehte mit namhaften Darstellern wie Maria Schell, Curd Jürgens, Heinz Rühmann und Romy Schneider, und die meisten Filme waren an der Kinokasse profitabel, wenn auch nicht immer erfolgreich bei der Kritik. "Mein Schulfreund" (1960) und "Affäre Nina B." (1961) hatten nach "Nachts, wenn der Teufel kam" erneut den Nationalsozialismus als thematischen Hintergrund. In den Jahren 1964 und 1965 führte Siodmak Regie in drei von Artur Brauner produzierten Karl-May-Verfilmungen mit Lex Barker: "Der Schut", "Der Schatz der Azteken" und "Die Pyramide des Sonnengottes". In Spanien drehte Siodmak für US-Produzent Philip Yordan den Western "Ein Tag zum Kämpfen". 1968 und 1969 erschien der wieder von Brauner produzierte zweiteilige Monumentalfilm "Kampf um Rom" nach Felix Dahns 1876 erschienenem historischen Roman "Ein Kampf um Rom". "Kampf um Rom" blieb Siodmaks letzte Regiearbeit, das geplante Projekt „Atrox“ mit James Mason wurde nicht mehr realisiert. Dessen ungeachtet zeigte er bis zuletzt ein großes Interesse am internationalen filmischen Geschehen, äußerte sich beeindruckt von der französischen Nouvelle Vague, vom italienischen Kino und von Francis Ford Coppolas "Der Pate". In Thomas Schamonis Film "Ein großer graublauer Vogel" (1970) absolvierte Siodmak einen kurzen Auftritt. Seine Frau Bertha, die er am 16. November 1933 in Paris geheiratet hatte, starb am 20. Januar 1973. Zwei Monate später, am 10. März 1973, erlag Robert Siodmak im Alter von 72 Jahren einem Herzinfarkt. Nachwirkung. Die Nachrufe im Spiegel und in der New York Times präsentierten sich beide mit fehlerhaften Angaben zu Leben und Werk des Regisseurs: Während der Spiegel Siodmaks Geburtsort in die USA verlegte (eine Legende, die Siodmak in den 1930er Jahren selbst geschaffen hatte, um ein Auslandsvisum zu erhalten), verlieh ihm die New York Times den Titel „Meister der Low-key-Thriller der 1950er“. Zur Erstausgabe von Siodmaks (postum erschienener) Autobiografie schrieb Herausgeber Hans-Christoph Blumenberg: „Er drehte Filme über mörderische Obsessionen, über labile, heillos in krankhafte Familien-Bande verstrickte Schwächlinge, die sich durch Verbrechen zu befreien versuchen […] über einsame, unglückliche Männer im Dickicht der Städte […] aber es dürfte unmöglich sein, einen definitiven Siodmak-Touch zu entdecken: stilistische und thematische Konstanten, die das ganze, über genau vierzig Jahre und viele Länder verstreute Werk zusammenhalten.“ 1965, als Siodmaks Karriere sich bereits ihrem Ende zuneigte, konstatierte Pauline Kael in "I Lost It at the Movies": „Ich vermute, dass jeder, der sich für Filme interessiert, den Namen eines Regisseurs als Leitfaden benutzt […] in den 40er Jahren hielten meine Freunde und ich Ausschau nach den Filmen von Robert Siodmak […] [diese wurden] oft fälschlicherweise anderen Regisseuren oder medienpräsenten Produzenten zugeschrieben.“ 1980 zeigte das Londoner National Film Theatre eine Werkschau mit Robert Siodmaks Filmen. 1998 widmeten die Internationalen Filmfestspiele Berlin den Gebrüdern Siodmak eine Retrospektive, der Curt Siodmak, der selbst zwei Jahre später starb, beiwohnte. Richard Attenborough. Lord Richard Samuel Attenborough, Baron Attenborough CBE (* 29. August 1923 in Cambridge, England; † 24. August 2014 in London) war ein britischer Schauspieler, Regisseur sowie mehrfacher Oscar- und Golden-Globe-Preisträger. Leben und Werk. Attenborough wuchs als Sohn einer sozial sehr engagierten Mutter auf; sein Vater leitete später die University of Leicester. Im Alter von 17 Jahren ging Richard nach London und besuchte dort die "Royal Academy of Dramatic Art". Sein Debüt gab er 1942 am West End Theatre. Im selben Jahr wirkte er außerdem in einer kleineren Rolle in dem Film "In Which We Serve" mit. Nach drei Jahren als Pilot bei der Royal Air Force wandte sich Attenborough nach dem Zweiten Weltkrieg wieder der Schauspielerei zu. Im Jahr 1959 gründete er mit Bryan Forbes die Produktionsfirma "Beaver Films". Insgesamt drehte er in den 1940er- und 1950er-Jahren rund 30 Filme. Der große Durchbruch gelang ihm als Schauspieler jedoch erst 1963 mit dem Klassiker "Gesprengte Ketten", in dem er neben Steve McQueen, Charles Bronson, James Coburn und James Garner zu sehen war. Ab Ende der 1960er-Jahre war Attenborough verstärkt auch als Regisseur und Produzent tätig. Seinen größten Erfolg hinter der Kamera hatte er 1982 mit "Gandhi", der acht Oscars (u. a. Beste Regie und Bester Film) sowie zahlreiche andere Preise erhielt. Attenborough hatte 20 Jahre um die Finanzierung gekämpft. Auch seine nachfolgenden Regie-Projekte "A Chorus Line", "Schrei nach Freiheit", "Chaplin" und "Shadowlands" erhielten je eine Oscar-Nominierung für die Beste Regie. Im Jahr 1993 war Attenborough erstmals seit 1979 wieder als Schauspieler tätig. Steven Spielberg besetzte ihn in "Jurassic Park" und erfüllte sich damit „einen lebenslangen Traum“. Attenborough war zudem in zahlreichen Ämtern tätig und saß unter anderem in den Vorständen des Fernsehsenders "Channel 4", der Royal Academy of Dramatic Art, deren Präsident er von 2004 bis zu seinem Tod war, des "British Film Institute" und der "British Academy of Screen and Television Arts". Seit 1997 war er Präsident der National Film and Television School und Dozent der Universität von Oxford. Seine zahlreichen Vorstandsposten brachten ihm den Spitznamen „Chairman of London“ ein. Nach einem Sturz Ende 2008 in seinem Haus in London verschlechterte sich Attenboroughs gesundheitliche Verfassung zunehmend. Er starb im August 2014, wenige Tage vor seinem 91. Geburtstag, in London. Synchronisation. Zahlreiche bekannte Synchronsprecher liehen Attenborough ihre Stimme. Friedrich W. Bauschulte tat dies in den neueren Filmen, so unter anderem in den beiden Teilen von "Jurassic Park". Weitere namhafte Sprecher des Briten waren Michael Chevalier, Paul Klinger und Joachim Nottke. Privates. Der Tierfilmer und Naturforscher Sir David Attenborough ist sein jüngerer Bruder. Richard Attenborough war seit 1945 mit der Schauspielerin Sheila Sim (* 1922) verheiratet, mit der er Vater dreier Kinder wurde. Mit seiner Frau spielte er als Sergeant Trotter in den ersten Londoner Aufführungen von Agatha Christies "Die Mausefalle". Seine 1989 geborene Enkeltochter kam bei der Flutkatastrophe in Südasien 2004 ums Leben, seine 1955 geborene Tochter sowie deren Schwiegermutter gelten seitdem als vermisst. Auszeichnungen. Seine Beliebtheit und sein hohes Ansehen in der Öffentlichkeit nutzte Attenborough, um sich für die Schwachen und Benachteiligten in der Welt stark zu machen. Für sein Engagement erhielt er 1983 den Martin-Luther-King-Friedenspreis. Im Laufe der Zeit wurden ihm zahlreiche weitere Ehrentitel zugesprochen. So war er unter anderem UNICEF-Botschafter, Ehrenbürger der Stadt Leicester, Ehrendoktor und Kanzler der Universität von Sussex, Kommandeur des Ordre des Arts et des Lettres, Ritter der Ehrenlegion und Träger des Padma-Bhushan-Ordens. Im Jahr 1967 wurde er Commander of the Order of the British Empire (CBE), 1976 schlug ihn Königin Elisabeth II. zum Knight Bachelor, womit die Anrede Sir einherging. Am 30. Juli 1993 erfolgte aus Anlass seines 70. Geburtstages seine Erhebung zum Life Peer mit dem Titel "Baron Attenborough", of Richmond upon Thames im London Borough of Richmond upon Thames, wodurch sich seine Anrede in "Lord" änderte. Er hatte einen Sitz als Labour-Mitglied im House of Lords. Richard Attenborough bekam 1998 das Praemium Imperiale verliehen. Robert Redford. Charles Robert Redford, Jr. (* 18. August 1936 in Santa Monica) ist ein US-amerikanischer Schauspieler, Filmregisseur und Filmproduzent. Redford zählt seit den späten 1960er Jahren zu den populärsten Hollywoodschauspielern und war zwischen 1973 und 1976 der kassenträchtigste Filmstar. Er hat sieben Spielfilme inszeniert und für sein Regiedebüt "Eine ganz normale Familie" 1981 den Oscar erhalten. Redford ist auch als Umweltschützer aktiv und unterstützt unter anderem den Natural Resources Defense Council. Leben. Robert Redford ist der Sohn von "Martha" und "Charles Robert Redford" und wuchs mit seinem Halbbruder "William" in einfachen Verhältnissen auf. Er besuchte die Van Nuys High School in Los Angeles. 1955 erhielt er aufgrund seines Talents im Baseballspiel ein Stipendium der University of Colorado Boulder. Im selben Jahr starb seine Mutter, woraufhin seine sportlichen sowie schulischen Leistungen stark zurückgingen und schließlich – Alkoholmissbrauch kam hinzu – zum Verlust seines Stipendiums führten. Redford hielt sich zunächst mit kleineren Jobs auf den Ölfeldern um Los Angeles herum über Wasser, ging dann nach Europa, wo er in Paris und Florenz kurzzeitig an mehreren Kunstakademien studierte. In Florenz versuchte er sich in der Kunst der Malerei und war zeitweise auch als Straßenmaler tätig. 1958 zog es Redford wieder zurück in die USA. Er studierte nun Theaterdesign am New Yorker Pratt Institute und besuchte, dem Rat eines Lehrers folgend, ab 1959 außerdem die "American Academy of Dramatic Arts", wo er seine Leidenschaft für die Schauspielerei entdeckte. Seine ersten Rollen hatte er in den Broadway-Produktionen "Tall Story" und "Little Moon of Alban". Das erste Mal vor der Kamera stand er für eine Episode der Fernsehserie Maverick, in dieser bekleideten James Garner, Jack Kelly und Roger Moore die Hauptrollen. 1962 gab er in Hinter feindlichen Linien sein Leinwanddebüt. Während er am Theater große Erfolge feierte, kam seine Filmkarriere nur schwer in Gang – bis 1966 landete er einen Flop nach dem anderen. Joyce Selznick, eine Cousine des Produzenten David O. Selznick und Chefin der Nachwuchs-Scouts der Columbia versuchte, Redford unterzubringen – doch zu dem Zeitpunkt wollten ihn die Studios nicht. Immer häufiger zog er sich mit seiner Familie nach Spanien oder Kreta zurück, um dem Stress zu entkommen, den Hollywood für ihn bedeutete. 1967 machte Redford in Barfuß im Park erstmals ein größeres Kinopublikum auf sich aufmerksam. Zwei Jahre später wurde er mit Zwei Banditen zum Superstar. Seit 1976 arbeitet Robert Redford auch als Filmproduzent, seit 1980 zudem als Filmregisseur. Später gründete er gemeinsam mit Richard Gregson die Produktionsfirma Wildwood Enterprises, mit der er fortan Filme produziert. Der Schauspieler steht dem Film-Establishment in Hollywood von jeher skeptisch gegenüber und führt ein zurückgezogenes Privatleben. Er lebt vorwiegend im Napa Valley bei San Francisco und in Utah und gehörte nie zur Hollywood-Schickeria. Der linksliberale Redford ist als Naturliebhaber bekannt und hat oft den Niedergang des alten amerikanischen Westens beklagt. Er engagiert sich für den Umweltschutz und die Rechte der indigenen Bevölkerung. Familie. Am 21. September 1958 heirateten Redford und Lola Van Wagenen, 1985 ließ sich das Paar scheiden. Aus der Ehe gingen vier Kinder hervor: Scott (*/† 1959), Shauna Redford (* 1960), David James Redford (* 1962) und Amy Heart Redford (* 1970). Seit 1996 ist Robert Redford mit der deutschen Malerin Sibylle Szaggars (* 1957) liiert. Ehesegnung und Hochzeit feierten sie am 11. Juli 2009 im Hamburger Hotel „Louis C. Jacob“. Redford hat vier Enkelkinder. 1960–1969. Robert Redford in dem Film "Tollkühne Flieger" Robert Redford stand ab 1960 als TV-Schauspieler vor der Kamera und spielte bis 1964 zahlreiche Rollen in Serien wie "Maverick", "Perry Mason", "Alfred Hitchcock Presents" oder "Die Leute von der Shiloh Ranch". 1962 startete er seine Filmkarriere mit dem künstlerisch ambitionierten (Anti-)Kriegsfilm "Hinter feindlichen Linien", in dem er einen Soldaten des Korea-Krieges spielte. Dieser Film konnte sich an den Kinokassen nicht durchsetzen. Bei den Dreharbeiten freundete sich Redford mit dem späteren Regisseur Sydney Pollack an, der hier ebenfalls als Filmschauspieler debütierte. Nachdem sich einige Kino-Projekte zerschlagen hatten, drehte Redford 1965 die Kriegskomödie "Lage hoffnungslos, aber nicht ernst", in der er einen amerikanischen Soldaten spielte, der während des Zweiten Weltkriegs von einem deutschen Sonderling (Alec Guinness) im Keller versteckt wird. Dieser in Deutschland gedrehte Film kam weder bei der Kritik noch beim Publikum gut an. Auch das Filmdrama "Ein Mann wird gejagt" (1966), in dem Redford als flüchtiger Sträfling zu sehen war, blieb trotz profilierter Besetzung (u.a. Marlon Brando und Jane Fonda) weit hinter den kommerziellen Erwartungen zurück. "Verdammte, süße Welt" (1965) war der erste von zwei Filmen, die Redford mit der damals sehr populären Natalie Wood, einer ehemaligen Schulkameradin von der Van Nuys High School, drehte. Sie stellt mit 27 Jahren eine 15-jährige dar, die von einer Hollywood-Karriere träumt. 1966 standen die beiden Darsteller in "Dieses Mädchen ist für alle", der Adaption eines Tennessee Williams-Dramas, erneut zusammen vor der Kamera. Mit diesem Film begann Redford seine jahrzehntelange Zusammenarbeit mit Regisseur Sydney Pollack. Mit Natalie Wood blieb er bis zu deren Tod im Jahr 1981 eng befreundet. Keiner der beiden Filme konnte sich an der Kasse durchsetzen. Nachdem Redfords erste Filme gefloppt hatten und er sich zunächst nicht als Filmschauspieler hatte etablieren können, gelang ihm 1967 mit der Adaption des Theaterstücks "Barfuß im Park" der Durchbruch zum Kino-Star. In dieser populären Neil-Simon-Komödie hatte der Darsteller bereits als Broadway-Schauspieler einen großen Erfolg gefeiert. In der Hollywood-Adaption war der 31-jährige Darsteller an der Seite von Jane Fonda zu sehen und konnte sich durch seinen Auftritt als spießiger Anwalt, der "barfuß im Park" spazieren geht, in Hollywood etablieren. Redford war 1967 auch im Gespräch für die Hauptrolle in "Die Reifeprüfung". Regisseur Mike Nichols glaubte jedoch, dass er der Falsche sei, um einen verklemmten jungen Mann darzustellen, der Probleme mit dem anderen Geschlecht hat. In dieser Rolle gelang schließlich Dustin Hoffman der Durchbruch. 1969 drehte Redford drei Filme, von denen "Blutige Spur" und "Schußfahrt", zwei inhaltlich ambitionierte Dramen, an den Kinokassen floppten. Sein Auftritt in der Westernkomödie "Zwei Banditen" jedoch machte Redford endgültig zu einem der führenden Hollywood-Stars. Seine Gage war mit diesem Film auf 150.000 Dollar gestiegen. Unter der Regie von George Roy Hill verkörperte er in "Zwei Banditen" den schweigsamen Revolverhelden Sundance Kid an der Seite von Paul Newman, der die eigentliche Hauptrolle des Bandenchefs Butch Cassidy spielte. Zunächst war ein etablierter Star wie Steve McQueen, Warren Beatty oder Jack Lemmon für die Rolle des Sundance Kid vorgesehen. "Zwei Banditen" traf den liberalen Zeitgeist der späten 1960er Jahre und zeigte die beiden Zug- und Bankräuber Butch und Sundance als sympathische, fast hippiehafte Antihelden, die schließlich von einem riesigen Polizeiaufgebot zusammengeschossen werden. Dieser Film avancierte zu einem der größten Kassenerfolge der späten 1960er Jahre und verfestigte bei einem weltweiten Publikum Redfords Image als Frauenschwarm und romantischer Held. Mit Paul Newman blieb er zeitlebens eng befreundet. ab 1970. 1973 drehten die beiden Darsteller, wieder unter der Regie von George Roy Hill, die Gaunerkomödie "Der Clou", die zu einem der erfolgreichsten Filme der 1970er Jahre avancierte. Redford erhielt für die Darstellung des Trickbetrügers Hooker seine bislang einzige Oscar-Nominierung als Schauspieler (Redford und Newman wollten nach "Der Clou" ihre erfolgreiche Zusammenarbeit fortsetzen, fanden aber kein geeignetes Projekt mehr). 1972 spielte Robert Redford in "Bill McKay – Der Kandidat" einen idealistischen jungen Anwalt, der zum Politiker wird. Ab den frühen 1970er Jahren arbeitete Redford verstärkt mit Regisseur Sydney Pollack zusammen, mit dem er mehrere große Kinoerfolge feiern konnte. In dem von Pollack produzierten Western "Jeremiah Johnson" (geschätztes Budget: 3,5 Mio. Dollar) war er 1972 als zivilisationsmüder Trapper zu sehen, der die Schönheit und Grausamkeit der Rocky Mountains kennenlernt. Der Film, der unter anderem auf Redfords Anwesen in Utah gedreht wurde, war kein Kassenschlager, avancierte aber zu einem Klassiker seines Genres. 1973 konnten Pollack, Redford und Barbra Streisand mit dem epischen Liebesfilm "So wie wir waren" Kasse machen. Auch Pollacks Politthriller "Die drei Tage des Condor" von 1975 wurde zum Kassenhit. "Der große Gatsby" (1974, Regie: Jack Clayton) und "Tollkühne Flieger" (1975, Regie: George Roy Hill) konnten die großen Erwartungen in kommerzieller Hinsicht nicht erfüllen. Trotzdem war Redford nach mehreren Top-Hits in kurzer Folge auf dem Höhepunkt seiner Popularität und zwischen 1973 und 1976 der kassenträchtigste Filmstar. Der blonde, blauäugige Schauspieler mit dem strahlenden Lächeln galt weltweit als Sexsymbol. 1976 betätigte er sich bei "Die Unbestechlichen" erstmals als Filmproduzent. Der Politthriller beschreibt die Arbeit der Zeitungsreporter Bob Woodward (Redford) und Carl Bernstein (Dustin Hoffman), die in den frühen 1970er Jahren den Watergate-Skandal aufdeckten. Der von Alan J. Pakula inszenierte Film war bei Kritik und Publikum ein großer Erfolg. Redford spielte 1977 in dem mit Stars besetzten Kriegsfilm "Die Brücke von Arnheim" und trat danach zwei Jahre lang nicht mehr vor eine Filmkamera. 1979 inszenierte Sydney Pollack mit ihm "Der elektrische Reiter", in dem er als abgewrackter Rodeoreiter ein wertvolles Pferd aus Las Vegas entführt. 1980 debütierte Redford als Filmregisseur und inszenierte das Sozialdrama "Eine ganz normale Familie", in dem er allerdings nicht als Schauspieler auftrat. Für sein Regiedebüt erhielt Redford seinen ersten Oscar. 1980 gründete Robert Redford in seiner Heimat Utah das Sundance Institut, benannt nach seiner Rolle in "Zwei Banditen". Ziel des Instituts ist die Förderung unabhängiger Filmemacher und ihrer Werke. Seit 1984 findet das jährliche Sundance Film Festival statt, das im Lauf der Jahre zum wichtigsten Treffpunkt der amerikanischen "Independent-Regisseure" (Filmemacher, die nicht den Massengeschmack bedienen wollen, sondern an künstlerisch anspruchsvollen Filmen interessiert sind) wurde. In den 1980er Jahren trat Redford nur in vier Filmen auf. In "Brubaker" spielte er 1980 einen idealistischen Gefängnisdirektor. 1984 war er in "Der Unbeugsame" als Baseballspieler zu sehen. 1985 konnte er, erneut unter der Regie von Sydney Pollack, in dem epischen Liebesfilm "Jenseits von Afrika" an der Seite von Meryl Streep einen großen Erfolg verbuchen. 1986 war er in dem romantischen Film "Staatsanwälte küßt man nicht" zu sehen. 1990 kam es zur sechsten und letzten Zusammenarbeit mit Pollack. Doch "Havanna", eine Liebesgeschichte vor dem Hintergrund der kubanischen Revolution, war kommerziell ein Flop. Auch in den 1990er Jahren trat Redford nur sporadisch vor die Kamera und spielte lediglich in fünf Filmen mit. In "Sneakers" (1992) war er der Chef einer Bande von High-Tech-Einbruchsspezialisten. 1993 machte er Demi Moore das titelgebende "Unmoralische Angebot". 1996 spielte er als Fernsehjournalist mit Michelle Pfeiffer in "Aus nächster Nähe" und 1998 in der erfolgreichen Bestsellerverfilmung "Der Pferdeflüsterer" erstmals unter eigener Regie. Seit 2000 trat er unter anderem in den Filmen "Die letzte Festung" (2001) und in dem Spionagefilm "Spy Game" (2001) auf, in dem er als Lehrmeister von Brad Pitt zu sehen war. Robert Redford hat bislang neun Spielfilme inszeniert: "Eine ganz normale Familie" (1980), "Milagro – Der Krieg im Bohnenfeld" (1988), "Aus der Mitte entspringt ein Fluß" (1992), "Quiz Show" (1994), "Der Pferdeflüsterer" (1998), "Die Legende von Bagger Vance" (2000), "Von Löwen und Lämmern" (2007), "Die Lincoln Verschwörung" (2010) und "The Company You Keep – Die Akte Grant" (2012). 2002 erhielt Redford einen Ehren-Oscar für sein Lebenswerk als Schauspieler, Regisseur und Produzent sowie als Gründer des Sundance Instituts. Engagement für den Umweltschutz. Im Jahr 2013 beteiligte er sich als Darsteller von Fernsehspots der Umweltschutzorganisation Natural Resources Defense Council, in denen US-Präsident Barack Obama dazu aufgefordert wurde, Maßnahmen zur Reduktion von Treibhausgasemissionen zu ergreifen. Auch in seinem Blog bei der Huffington Post engagiert er sich für Maßnahmen gegen die globale Erwärmung. Sonstiges. Redford kaufte 1969 ein Tal am Fuße des Timpanogos Bergmassivs in den Rocky Mountains. Dort betreibt er eine Luxusherberge namens Sundance Resort. Redford sprach sich 2013 gegen die kontroverse Versteigerung heiliger Objekte der Hopi aus. Er bezeichnete die Versteigerung, die die Hopi und die Menschenrechtsorganisation Survival International versucht hatten zu verhindern, als „Sakrileg“ und als „kriminelle Handlung“. Deutsche Synchronstimmen. Seit 1969 wurde Robert Redford in fast all seinen Filmen von Rolf Schult (1927–2013) synchronisiert. In den 1970er Jahren war auch Christian Brückner als deutscher Sprecher des Schauspielers tätig. Obwohl sich Rolf Schult aus Altersgründen von der Synchronarbeit weitgehend zurückgezogen hatte, war er noch bis in die 2000er Jahre als Sprecher von Redford tätig (ab 1979 exklusiv). Im Jahr 2007 befand ein US-amerikanischer Supervisor, nachdem Schult den Trailer zu Redfords neuestem Film bereits synchronisiert hatte, seine Stimme für zu tief, sodass Rolf Schult in "Von Löwen und Lämmern" durch Kaspar Eichel ersetzt wurde. Schult ist daher nur noch im ersten Trailer zu hören. In seinem Film The Company You Keep – Die Akte Grant aus dem Jahr 2013 wird Redford von Jürgen Heinrich synchronisiert. Robert De Niro. Robert Anthony De Niro, Jr. (* 17. August 1943 in New York City) ist ein US-amerikanischer Schauspieler, zweifacher Oscarpreisträger, Filmregisseur und Produzent. Er zählt seit Mitte der 1970er Jahre zu den führenden Charakterdarstellern des US-amerikanischen Films und ist in zahlreichen Filmklassikern zu sehen. 1943–1959. Robert De Niro wuchs als Einzelkind einer Künstlerfamilie auf. Sein Vater, Robert De Niro, Sr. (1922–1993) zählt heute zu den führenden abstrakt-expressionistischen Malern der USA. Seine Bilder wurden in zahlreichen Museen und Galerien ausgestellt. Er war mit Schriftstellern wie Henry Miller und Tennessee Williams befreundet und starb mit 71 Jahren an Krebs. Die Mutter Virginia Admiral (1915–2000) war Poetin und Malerin und arbeitete auch als Typistin für Anaïs Nin. Ihre Werke werden unter anderem im Metropolitan Museum of Art ausgestellt. Als sich seine Eltern 1945 scheiden ließen, lebte De Niro bei seiner Mutter im New Yorker Stadtteil Little Italy in Manhattan. Er verbrachte aber auch viel Zeit mit seinem Vater, der nicht weit entfernt wohnte und nach der Scheidung homosexuelle Beziehungen unterhielt. Seine spätere Mentorin Shelley Winters erzählte, dass De Niro in Armut aufgewachsen sei, da seine Eltern mit ihrer Kunst kaum Einnahmen erzielt hätten. Die Mutter betrieb unter anderem eine kleine Druckerei. Robert, der wegen seiner Blässe „Bobby Milk“ genannt wurde und als scheu galt, stand mit zehn Jahren erstmals auf einer Bühne – als ängstlicher Löwe in einer Schulaufführung von Der Zauberer von Oz. „Ich wollte schon mit zehn Jahren Schauspieler werden“, erzählte er später. Er verließ mit 16 Jahren die Schule und strebte mit dem Segen seiner Eltern, die seine künstlerischen Ambitionen unterstützten, eine Karriere als Schauspieler an. Bei einer High-School-Tournee mit Tschechows Stück "Der Bär", die ihn durch New England und New York führte, erhielt er als 16-Jähriger seine erste Schauspielergage. In seiner Jugend bewunderte De Niro besonders die Schauspieler Montgomery Clift, Robert Mitchum und Marlon Brando. Mit Mitchum und Brando arbeitete er später auch zusammen, Clift starb bereits 1966. 1960–1972. Er tourte als Schauspieler durch die Südstaaten und spielte größere Rollen in Stücken wie „Cyrano de Bergerac“ oder „Eines langen Tages Reise in die Nacht“. Er trat mit Komödien in Dinner-Theatern auf und nahm ab 1960 professionellen Schauspielunterricht, unter anderem bei Schauspiellehrerin Stella Adler, die im Laufe ihrer Karriere bekannte Darsteller wie Marlon Brando, Harvey Keitel, Martin Sheen, Warren Beatty oder Christoph Waltz unterrichtete. 1963 debütierte De Niro in "The Wedding Party" in einer Nebenrolle als Filmschauspieler. Die mit nur 43.000 Dollar budgetierte Komödie markierte das Filmdebüt des späteren Star-Regisseurs Brian De Palma und orientierte sich formal an den Stilmitteln der französischen Nouvelle Vague. "The Wedding Party" kam erst 1969 in die Kinos und fiel bei Kritik und Publikum gleichermaßen durch. Nachdem er in zwei weiteren Filmen kleine Rollen gespielt hatte, trat de Niro 1968 in De Palmas zweitem Spielfilm "Greetings" auf, einem zeittypischen Werk, das in satirischer Weise mit Elementen des Underground-Films um Themen wie Sex, Gewalt und Vietnam kreist. "Greetings" erhielt wegen seiner freizügigen Szenen ein X-Rating und galt damit als Pornofilm. Auch dieser Film fiel an der Kinokasse durch. 1968 trat De Niro in dem Off-Broadway-Stück "Glamour, Glory and Gold" auf und wurde von der Theaterkritik, die dem Stück ansonsten skeptisch gegenüberstand, positiv erwähnt. Dem 25-Jährigen wurde großes Talent bescheinigt. Seine Schauspielpartnerin Sally Kirkland erklärte, sie habe nie eine derart brillante Darstellung gesehen. Um das Jahr 1970 herum wurde die bekannte Charakterdarstellerin und Oscar-Preisträgerin Shelley Winters auf De Niro aufmerksam und besetzte ihn als ihren Schauspielpartner in dem Stück "One Night Stands of a Noisy Passenger", das nach nur sieben Vorstellungen abgesetzt wurde. Da er in dem Stück ein Bett mit einem Karateschlag zerstören musste, trainierte De Niro monatelang diese Kampfsportart. Obwohl auch dieses Theaterstück bei der Kritik auf wenig Gegenliebe stieß, wurde De Niros Darstellung erneut gelobt. 1970 arbeitete er erneut mit Regisseur De Palma zusammen, der ihm die Hauptrolle in seinem Film "Hi, Mom!" übertrug. In dem komödiantischen Low-Budget-Streifen war De Niro als Vietnam-Veteran zu sehen, der die Bewohner eines gegenüberliegenden Appartementblocks beobachtet. In den frühen 1970er Jahren spielte der Darsteller weitere Rollen in Filmen wie "Wo Gangster um die Ecke knallen" (1971) oder "Pforte zur Hölle" (1971), von denen aber keiner seine Karriere voranbrachte. Für eine Rolle in "Der Pate" (1972) sprach er vergeblich vor. 1973 trat er zum vorläufig letzten Mal im Theater auf. 1973–1980. Das Jahr 1973 wurde für den 30-jährigen Darsteller zum entscheidenden Wendepunkt. In "Das letzte Spiel" stellte er den sterbenden Baseballspieler "Bruce Person" dar und gewann den „New York Film Critics Award“ als bester Schauspieler. Er traf Martin Scorsese, der wie er in Little Italy aufgewachsen war und der seit den späten 1960er Jahren als Filmregisseur arbeitete. Scorsese gab De Niro die wichtige Rolle des neurotischen Johnny Boy in seinem Film "Hexenkessel", einem biographisch geprägten Porträt einiger New Yorker Kleinganoven, die sich im Italienerviertel durchschlagen. Der Film wurde von der Kritik nahezu einhellig gelobt, war an den Kinokassen erfolgreich (3 Millionen Dollar Einspielergebnis bei einem Budget von 500.000 Dollar) und begründete die Jahrzehnte dauernden Karrieren von Scorsese, De Niro sowie Harvey Keitel, der hier noch die Hauptrolle spielte. Ab 1975 avancierte De Niro zu Scorseses bevorzugtem Darsteller; sie arbeiteten von 1973 bis 1995 acht Mal zusammen. Nachdem De Niro in "Hexenkessel" überzeugt hatte, gab ihm Regisseur Francis Ford Coppola die begehrte Rolle des „Paten“ Vito Corleone in "Der Pate – Teil 2" (1974). De Niro übernahm hier den Part, den Marlon Brando zwei Jahre zuvor im ersten Teil des Welterfolgs gespielt hatte, stellte den Mafia-Chef aber als jungen Mann am Anfang seiner „Karriere“ dar. Auf der zweiten Zeitebene des epischen Films war Al Pacino erneut als Vitos Sohn Michael Corleone zu sehen. De Niro hatte sich akribisch darauf vorbereitet, die speziellen Manierismen der berühmten von Brando gespielten Figur zu übernehmen. "Der Pate – Teil 2" war ein weltweiter Erfolg bei Kritik und Publikum und etablierte De Niro endgültig als neuen Star. Nahezu einhellig wurde ihm bescheinigt, er habe die schwierige Herausforderung als Brandos Nachfolger bravourös gemeistert. 1975 war De Niro als Nebendarsteller erstmals für einen Oscar nominiert und gewann den Preis für seine Darstellung des Vito Corleone. De Niro erhielt den Preis damit für die Darstellung derselben Figur, für deren Interpretation bereits Marlon Brando (im ersten Teil) einen Oscar erhalten hatte. "Der Pate – Teil 2" war elf Mal nominiert und gewann sechs Mal, darunter auch in der Kategorie Bester Film des Jahres. De Niro war bislang sechs Mal für den Oscar nominiert und gewann ihn zwei Mal. Er konnte seinen Oscar für "Der Pate – Teil 2" nicht persönlich entgegennehmen, weil er in Italien den Film "1900" drehte. 1975 stellte De Niro in Bernardo Bertoluccis großangelegtem Epos "1900", das 1976 in die Kinos kam, einen italienischen Großgrundbesitzer dar und sorgte wegen einer expliziten Sexszene für Aufsehen (er wird von einer Prostituierten mit der Hand befriedigt). Der von US-Studios finanzierte 5-Stunden-Film spielte seine enormen Kosten (20 Millionen Mark) nie ein, obwohl er mehrfach gekürzt und umgeschnitten wurde. Auch De Niro, der mit Bertoluccis Regiestil und seinem französischen Co-Star Gérard Depardieu unzufrieden war, konnte nach allgemeinem Tenor schauspielerisch nicht voll überzeugen. 1976 spielte der Schauspieler dann die Rolle, die ihn endgültig als einen der führenden Charakterdarsteller etablierte. Unter der Regie von Scorsese war er in der titelgebenden Rolle als "Taxi Driver" Travis Bickle zu sehen. Der entwurzelte Vietnam-Veteran („Gottes einsamster Mann“) arbeitet in New York als Taxifahrer und ist angewidert von dem menschlichen Abschaum, mit dem er in den nächtlichen Straßenschluchten konfrontiert wird. Er stilisiert sich zum Beschützer einer jugendlichen Prostituierten (Jodie Foster) und richtet ein Blutbad an. Mit "Taxi Driver" gelang Scorsese ein durchschlagender Erfolg bei Kritik und Publikum (28 Millionen Dollar in den USA bei einem Budget von 1,3 Millionen Dollar). Das düstere Drama avancierte zu einem der großen Filmklassiker der 1970er Jahre und erhielt 1977 vier Oscar-Nominierungen, darunter eine für den Hauptdarsteller De Niro. Einige Dialogzeilen De Niros („Du laberst mich an?“) gingen in die Umgangssprache ein. Der Schauspieler hatte sich wie immer mit großem Engagement auf die Rolle vorbereitet und war unter anderem selbst in New York Taxi gefahren. Nach diesem Erfolg spielte De Niro in zwei Filmen, die bei Kritik und Publikum durchfielen. In Elia Kazans "Der letzte Tycoon" (1976) stellte er einen Filmproduzenten der 1930er Jahre dar (angelehnt an den früh verstorbenen MGM-Chef Irving Thalberg). Trotz eindrucksvoller Starbesetzung (Jack Nicholson, Tony Curtis, Robert Mitchum, Jeanne Moreau) wurde der Film zu einem Flop; auch De Niros Darstellerleistung wurde nicht als herausragend bewertet. "Der letzte Tycoon" markierte für den 67-jährigen Kazan das Ende einer mehr als 30-jährigen Regiekarriere. 1977 drehte Martin Scorsese mit großem Budget und aufwendigen Kulissen das nostalgische Musical "New York, New York", das De Niro im Jahr 1945 als Saxophonspieler zeigt, der sich in eine Sängerin (Liza Minnelli) verliebt. Der Film, für den De Niro das Saxophonspielen erlernte, konnte die Erwartungen nicht erfüllen und wurde reserviert aufgenommen. Sein nächster Film sah ihn in der Rolle eines russischstämmigen Stahlarbeiters, der zusammen mit seinen Freunden nach Vietnam eingezogen wird. Michael Ciminos epischer Kriegsfilm "Die durch die Hölle gehen" (1978) porträtiert zunächst ausführlich das Leben der Stahlarbeiter und blendet dann in einem abrupten Schnitt auf das barbarische Geschehen in Vietnam über, das die Protagonisten psychisch schwer zeichnet. Mit Darstellern wie John Cazale, Christopher Walken oder Meryl Streep war der Film hochkarätig besetzt. De Niro führte für den Film zahlreiche Stunts selbst aus – er ließ sich unter anderem 15 Mal aus 10 Metern Höhe in einen Fluss fallen und hängte sich an die Kufen eines Hubschraubers, der hoch in die Luft stieg. Ciminos Film wurde zu einem kommerziellen und künstlerischen Erfolg, rief aber Kontroversen hervor. Als er bei der Berlinale gezeigt wurde, verließen die Delegationen der kommunistischen Länder das Festival, weil sie die nordvietnamesischen Soldaten durch den Film verunglimpft sahen. Mit fünf Auszeichnungen, darunter einer für den besten Film, war Ciminos Vietnam-Epos der große Gewinner der Oscar-Verleihung des Jahres 1979. 1980 spielte Robert De Niro in "Wie ein wilder Stier" seine nach allgemeinem Tenor bedeutendste Rolle. Das von Martin Scorsese in Schwarz-weiß inszenierte Boxer-Drama zeichnet das Leben und die Karriere von Jake LaMotta nach, der 1949 Weltmeister im Mittelgewicht wurde. Der Regisseur und sein Hauptdarsteller zeigen hier konsequent das Porträt eines unsympathischen Schlägers, mit dessen Leben es immer weiter bergab geht. LaMotta verkommt nach seiner Boxkarriere zu einem aufgeschwemmten Entertainer, der in Nachtclubs schlechte Witze erzählt. Um sich auf seine Rolle vorzubereiten, absolvierte De Niro ein einjähriges Box-Training und wurde dabei unter anderem von dem echten Jake LaMotta (* 1921) angeleitet, der De Niro bescheinigte, er habe das Zeug zum Profi-Kämpfer. Der Darsteller absolvierte drei Boxkämpfe und gewann davon zwei. Als die aufwändig choreographierten Kampfszenen abgedreht waren (die später von der Kritik für ihre inszenatorische, darstellerische und schnitttechnische Brillanz besonders gelobt wurden), aß sich De Niro innerhalb kurzer Zeit 30 Kilo Übergewicht an, um den späten, fetten Jake LaMotta adäquat spielen zu können. Der Film beginnt und endet mit Szenen, in denen LaMottas traurige Existenz als drittklassiger Nachtclub-Entertainer gezeigt wird. LaMotta verklagte die Produktionsgesellschaft United Artists wegen der Art und Weise, wie er in dem Film porträtiert wird. Scorseses düsteres Boxerdrama war kein großer Kassenerfolg, avancierte aber schnell zum Klassiker und wird vielfach als eines der besten Werke der Filmgeschichte bezeichnet. De Niro hatte sich mit einer bis dato beispiellosen Intensität auf seine Rolle vorbereitet und hielt jahrelang den Rekord für die stärkste Gewichtszunahme, der sich ein Schauspieler bis dato für eine Rolle unterzogen hatte. 1987 wurde er von Vincent D’Onofrio geschlagen, der sich für "Full Metal Jacket" 35 Kilo anfraß. De Niro wurde 1981 mit einem Oscar für die beste Hauptrolle ausgezeichnet (er setzte sich gegen Robert Duvall, Jack Lemmon, Peter O’Toole und John Hurt durch). "Wie ein wilder Stier" war auch als bester Film des Jahres nominiert, verlor aber gegen Robert Redfords Regiedebüt "Eine ganz normale Familie", was häufig als Fehlentscheidung gewertet wurde. De Niro schloss mit "Wie ein wilder Stier" seine in künstlerischer Hinsicht wohl bedeutendste Phase als Schauspieler mit einem Triumph ab und befand sich auf dem Höhepunkt seiner Karriere. 1981–1989. Für Scorsese und De Niro markierte "Wie ein wilder Stier" einen Karrierehöhepunkt. Beide konnten zunächst nicht mehr an ihre Erfolge anknüpfen. 1981 spielte De Niro (der hier noch deutlich übergewichtig aussah) in Ulu Grosbards "Fesseln der Macht" einen Priester in Gewissensnöten, der in den 1940er Jahren indirekt in einen Mordfall verwickelt wird. Der eher ruhige und unspektakuläre, mit Robert Duvall, Charles Durning und Cyril Cusack hoch besetzte Film erhielt gemischte Kritiken und wurde in Deutschland nie im Kino gezeigt. Mit "King of Comedy" setzten De Niro und Scorsese 1983 ihre Zusammenarbeit fort. De Niro agierte in der Rolle des erfolglosen Stand-Up-Comedians Rupert Pupkin, der einen berühmten TV-Entertainer (Jerry Lewis) entführt. Von der Kritik gelobt, wurde die pessimistische Tragikomödie zu einem katastrophalen Flop an der Kinokasse (2,5 Millionen Dollar in den USA bei einem Budget von 20 Millionen Dollar) und einem Rückschlag in Scorseses Karriere. In den 1980er Jahren war De Niro auch für die Rolle des "Jesus Christus" in Scorseses Film "Die letzte Versuchung Christi" vorgesehen. Das Projekt wurde mehrfach verschoben und 1988 schließlich mit Willem Dafoe realisiert. Auch Sergio Leones fast vierstündige Gangster-Saga "Es war einmal in Amerika" wurde 1984 zu einem Kassenflop. Der Film erzählt auf drei Zeitebenen (1922/1932/1968) das Leben des jüdischen Gangsters "Noodles" (De Niro), der während der Prohibition an der Seite seines Freundes "Max" (James Woods) Karriere macht, diesen dann aber an die Polizei verrät. Das aufwendige Epos (Budget: 30 Millionen Dollar) fand mit seiner komplexen Erzählstruktur im Kino kein Publikum und wurde erfolglos umgeschnitten und gekürzt. "Es war einmal in Amerika" wurde von der Kritik rehabilitiert und gilt seit langem als großer Klassiker der 1980er Jahre. Sergio Leone konnte allerdings nie die von ihm geplante Schnittfassung des Films erstellen, er starb 1989. Unter Scorseses Leitung wurde der Film restauriert und 2012 bei den Filmfestspielen von Cannes in einer um 25 Minuten längeren Fassung präsentiert. Mit "Der Liebe verfallen" (1984), einer eher konventionell angelegten Liebesgeschichte, hatte De Niro an der Seite von Meryl Streep moderaten kommerziellen Erfolg. 1985 war er in Terry Gilliams "Brazil" in der zentralen, wenn auch kurzen Rolle des "Harry Tuttle" zu sehen, der in einem kafkaesken Überwachungsstaat als Terrorist gesucht wird. Der bizarre und düstere Streifen fand zwar kein großes Publikum, gilt aber allgemein als Meisterwerk und Kultfilm. In Roland Joffés epischem Historienfilm "The Mission" (1986) war De Niro (langhaarig und mit Vollbart) als Missionar in Südamerika zu sehen. Der mit der Goldenen Palme von Cannes ausgezeichnete Streifen erhielt gemischte Kritiken und konnte sich im Kino nicht durchsetzen. 1987 spielte De Niro (erneut langhaarig und mit Vollbart) in Alan Parkers Horrorthriller "Angel Heart" die zentrale Nebenrolle des ominösen "Louis Cyphre", der in den 1950er Jahren einen heruntergekommenen Privatdetektiv (Mickey Rourke) engagiert. Kritiker merkten an, De Niro habe bei seiner Darstellung des dämonischen Cyphre überzogen. "Angel Heart" wurde kein Kassenerfolg, gilt aber als Genreklassiker. 1987 war De Niro nach Jahren wieder in einem großen Kassenhit zu sehen. Unter der Regie von Brian De Palma (für den er bereits in den 1960er Jahren gespielt hatte) stellte er in dem großangelegten Gangsterepos "The Untouchables – Die Unbestechlichen" "Al Capone" dar. Kevin Costner (in der Hauptrolle des FBI-Agenten "Eliot Ness)" und Sean Connery (Oscar-gekrönt als erfahrener Polizist) agierten als dessen Widersacher. Um den legendären Mafia-Boss adäquat darstellen zu können, hatte De Niro an Gewicht zugelegt und sich eine Halbglatze rasieren lassen. Er trug außerdem die Sorte Unterwäsche, die früher Capone getragen hatte. Martin Brests Actionkomödie "Midnight Run – Fünf Tage bis Mitternacht" (1988) zählte zum Genre der damals besonders beliebten „Buddy Movies“ und zeigte De Niro in der Rolle eines heruntergekommenen Kopfgeldjägers, der einen Mafia-Buchhalter (Charles Grodin) quer durch die USA befördern muss. Der Film fand bei der Kritik zwar positive Resonanz, war aber weniger erfolgreich als andere „Buddy Movies“ dieser Zeit (wie zum Beispiel "Lethal Weapon – Zwei stahlharte Profis"). Für De Niro endeten die 1980er Jahre mit drei Filmen, die an der Kinokasse durchfielen. In "Stanley und Iris" (1989) agierte er als analphabetischer Koch, der sich in eine Kollegin (Jane Fonda) verliebt, in "Jacknife" (1989) als traumatisierter Vietnam-Veteran. Auch die Komödie "Wir sind keine Engel" (1989), in der er und Sean Penn als Gefängnisausbrecher, die sich als Priester verkleiden, zu sehen sind, floppte. 1990–1998. Ab den frühen 1990er Jahren konnte De Niro seine Filmkarriere mit einigen Erfolgen wieder stabilisieren. In Scorseses epischem Gangsterdrama "Good Fellas – Drei Jahrzehnte in der Mafia" agierte er in der zentralen Nebenrolle des „Mobsters“ "Jimmy Conway", der zum Mentor des Nachwuchsgangsters "Henry Hill" (Ray Liotta) wird. Der teils mit schonungsloser Brutalität inszenierte Film avancierte zum Kassenhit und Genreklassiker. Für die Darstellung eines Komapatienten in "Zeit des Erwachens" (1990) war De Niro für einen Oscar nominiert. In dem eher unspektakulären Drama "Schuldig bei Verdacht" (1991) agierte er als Filmregisseur, der während der McCarthy-Ära unter Druck gerät. Der erfolgreiche Actionfilm "Backdraft – Männer, die durchs Feuer gehen" (1991) zeigte ihn in einer zentralen Nebenrolle als erfahrenen Brandermittler. Mit einem weltweiten Einspielergebnis von über 180 Millionen Dollar wurde der Psychothriller "Kap der Angst" zum größten Erfolg für Martin Scorsese und Robert De Niro – und zu einem Kassenhit des Jahres 1991. Das freie Remake von "Ein Köder für die Bestie" aus dem Jahr 1962 war deutlich kommerzieller angelegt als frühere Werke des eingespielten Duos und zeigte De Niro als tätowierten Psychopathen "Max Cady", der mit manischer Energie einen Anwalt (Nick Nolte) und seine Familie terrorisiert. (De Niro hatte einen Zahnarzt beauftragt, sein Gebiss für die Cady-Rolle in einen möglichst schlimmen Zustand zu versetzen.) Die brutalen Gewaltdarstellungen des Films wurden kontrovers diskutiert. De Niro, der sich für die Rolle einen besonders drahtig-muskulösen Körper antrainiert hatte, erhielt für seine Darstellung des Max Cady 1992 eine Oscarnominierung. Mit Streifen wie "Die Nacht von Soho", "Mistress – Die Geliebte von Hollywood" (beide 1992) oder "Sein Name ist Mad Dog" (1993) sorgte er für weniger Aufsehen. 1993 debütierte er mit "In den Straßen der Bronx" als Regisseur und spielte einen Busfahrer in der Bronx, der im Jahr 1960 verhindern will, dass sein Sohn eine Mafia-Karriere einschlägt. De Niro widmete den Film, der beim Publikum kaum Resonanz fand, seinem Vater, der im selben Jahr verstorben war. Kenneth Branaghs Horrordrama "Mary Shelley’s Frankenstein" wurde 1994 zum Kassenhit, es zeigt De Niro als künstliche Kreatur aus dem Labor "Dr. Frankensteins" (Branagh). Die Kritik reagierte eher ablehnend auf den Film, in dem De Niro unter einer perfekt konstruierten Horrormaske quasi nicht zu erkennen war. 1995 drehte De Niro zwei fast dreistündige Gangsterepen, die zu Klassikern wurden. Unter der Regie von Scorsese agierte er in "Casino" als Manager eines Las-Vegas-Casinos. Der in den 1970er Jahren angesiedelte Film zeigt exemplarisch Aufstieg und Fall von "Sam Rothstein" (De Niro), der als perfektionistischer Kontrollfanatiker höchst effektiv ein Casino führt und seinen Auftraggebern (die Chicagoer Mafia) zu spektakulären Gewinnen verhilft. Als er sich unglücklich in eine schöne Edelprostituierte (Sharon Stone) verliebt und mit mächtigen Lokalpolitikern anlegt, beginnt sein Niedergang. Publikum und Kritik reagierten positiv auf den Film, der thematisch und durch seinen fiebrigen Inszenierungsstil sehr an "Good Fellas – Drei Jahrzehnte in der Mafia" erinnert. Auch in Michael Manns epischem Gangsterfilm "Heat" (1995) agierte De Niro als Kontrollfanatiker auf der falschen Seite des Gesetzes. "Neil McCauley" (De Niro) ist als erfahrener Profigangster Anführer einer Gang, die in Los Angeles perfekt geplante Einbrüche und Banküberfälle durchführt. Die Bande gerät zunehmend unter Druck, als Polizei-Lieutenant "Vincent Hanna" gegen sie ermittelt. Regisseur Mann sicherte seinem Film große Aufmerksamkeit, indem es ihm gelang, neben De Niro den nicht minder profilierten Al Pacino für die Rolle des "Vincent Hanna" zu engagieren. In der wohl bekanntesten Szene des Films führen die beiden legendären Charakterdarsteller in einem Coffee Shop ein längeres Gespräch über ihr Privatleben und ihre Profession. "Heat" spielte weltweit 174 Millionen Dollar ein, "Casino" 116 Millionen. 1995 wurde damit für de Niro zum bis dahin erfolgreichsten Jahr. Bis 1998 verteuerte sich seine Gage auf 14 Millionen Dollar. Mit Barry Levinsons Drama "Sleepers", das in den 1960er Jahren angesiedelt ist und um Themen wie Jugendkriminalität und sexuellen Missbrauch kreist, konnte De Niro 1996 erneut einen großen Kassenerfolg verbuchen (Einspielergebnis: 166 Millionen Dollar). Er agierte darin als engagierter Pfarrer und Teil eines profilierten Ensembles (Kevin Bacon, Brad Pitt, Dustin Hoffman, Vittorio Gassman). Als deutlich weniger erfolgreich erwies sich Tony Scotts Psychothriller "Der Fan" (1996), in dem er einen psychopathischen Baseball-Fan darstellte. Die Filmkritik bezeichnete Scotts Inszenierungsstil überwiegend als zu glatt und oberflächlich. Das Drama "Marvins Töchter" (1996) floppte trotz prominenter Besetzung (Meryl Streep, Leonardo DiCaprio, Diane Keaton); De Niro trat in einer Nebenrolle als Arzt auf. Bis in die späten 1990er Jahre war De Niro in mehreren Filmen zu sehen, die bescheidenen Erfolg hatten. Er spielte neben Sylvester Stallone und Harvey Keitel in Cop Land (1997), einem Drama, das im Polizei-Milieu angesiedelt ist, und agierte im selben Jahr neben Dustin Hoffman in der Polit-Satire "Wag the Dog – Wenn der Schwanz mit dem Hund wedelt". De Niro spielte profilierte Nebenrollen in Quentin Tarantinos komödiantischem Gangsterfilm "Jackie Brown" (1997) und der Charles-Dickens-Adaption "Große Erwartungen (1998)", die den klassischen Stoff in die Gegenwart verlegte. John Frankenheimers Actionthriller "Ronin" (1998) zeigte De Niro – mit Jean Reno als Co-Star – in der Hauptrolle des Söldners "Sam", der den Auftrag bekommt, zusammen mit einem Team von Spezialisten einen schwer bewachten Koffer zu erbeuten. Den Film, der in Frankreich spielt und im Kino überraschenderweise floppte, dominieren aufwendig inszenierte Verfolgungsjagden, die unter anderem mit dem ehemaligen Formel-1-Fahrer Jean-Pierre Jarier durchgeführt wurden. 1999 bis heute. 1999 drehte er mit Billy Crystal die Mafia-Komödie "Reine Nervensache", die mit einem weltweiten Einspielergebnis von 141 Millionen Dollar ein Kassenschlager wurde. Der rauhbeinige Mafia-Boss "Paul Vitti" (De Niro) ist durch Erektionsprobleme und Heulkrämpfe gehandicapt. Er lässt sich von einem sanftmütigen Psychiater (Crystal) behandeln, der sich in Vittis Macho- und Mafia-Welt äußerst unwohl fühlt. De Niro war bis dahin nie in einer reinen Komödie aufgetreten, auch wenn einige seiner Rollen einen humoristischen Grundton hatten "(Midnight Run)". Nun etablierte er sich zur großen Überraschung als einer der führenden Stars des Genres. In seinen Komödien entstammt die Komik in der Regel dem Stilmittel der Parodie. Noch erfolgreicher als "Reine Nervensache" war im Jahr 2000 "Meine Braut, ihr Vater und ich". Als knochenharter Ex-CIA-Agent "Jack Byrnes" (mit Lügendetektor im Kellergeschoss) hegt De Niro starke Vorbehalte gegen seinen vertrottelten Schwiegersohn in spé, den Krankenpfleger "Gaylord Focker" (Ben Stiller); er hält ihn – und auch seinen Namen – für untragbar. Mit einem weltweiten Einspielergebnis von 330 Millionen Dollar wurde die Komödie zu seinem erfolgreichsten Film bis dahin. Er selbst avancierte mit knapp 60 zu einem der Topverdiener Hollywoods; er erhielt plötzlich Gagen, wie sie für etablierte Actionhelden wie Harrison Ford oder Komödien-Stars wie Jim Carrey üblich waren (20 Millionen Dollar). In den Fortsetzungen "Reine Nervensache 2" (2002), "Meine Frau, ihre Schwiegereltern und ich" (2004) sowie "Meine Frau, unsere Kinder und ich" (2010) wurde das Erfolgsrezept mehrfach variiert. Vor allem in der Rolle des Ex-CIA-Agenten "Byrnes" war De Niro äußerst erfolgreich, auch wenn die Kritik die Qualität der Filme nach und nach bemängelte. Kein anderer Film De Niros konnte indessen an die Einspielergebnisse seiner Erfolgskomödien heranreichen, einige fielen bei Kritik und Publikum komplett durch. Streifen wie "Makellos" (1999), "Die Abenteuer von Rocky & Bullwinkle" (2000), "15 Minuten Ruhm" (2001), "Showtime" (2002), "City by the Sea" (2002), "Godsend" (2004), "Inside Hollywood" (2008), "Kurzer Prozess – Righteous Kill" (2008), "Everybody’s Fine" (2009), "Stone" (2010) oder "Killer Elite" (2011) wurden allesamt Flops. Mit "The Score" (2001), in dem er neben Marlon Brando und Edward Norton als Meisterdieb auftrat, dem Militärdrama "Men of Honor" (2000), dem historischen Drama "Die Brücke von San Luis Rey" (2004) und dem Actionfilm "Machete" (2010) verbuchte er moderate Erfolge. Zu einem großen Kinohit avancierte der Animationsfilm "Große Haie – Kleine Fische" (2004), in dem De Niro den Hai-Mafiaboss Don Lino sprach, der friedliche Meeresbewohner terrorisiert. Ein Kassenhit wurde auch der Horrorthriller "Hide and Seek – Du kannst dich nicht verstecken" (2005), dessen Handlung die Kritik allerdings als plump und vorhersehbar bezeichnete. De Niros zweite (und bislang letzte) Regiearbeit, "Der gute Hirte", erhielt 2006 gemischte Kritiken. In epischer Breite wird die Karriere des Geheimdienstoffiziers "Edward Wilson" (Matt Damon) nachgezeichnet, der von den 1940er bis zu den 60er Jahren CIA-Operationen steuerte. Der Film konnte sein hohes Produktionsbudget (90 Millionen Dollar) nicht einspielen. In dem erfolgreichen Fantasyfilm "Der Sternwanderer" trat De Niro 2007 in einer Nebenrolle auf. Zu einem Publikumserfolg wurde auch der Thriller "Ohne Limit" (2011), in dem er einen Geschäftsmann spielte (weltweites Einspielergebnis: 162 Millionen Dollar). In der erfolgreichen Liebeskomödie "Happy New Year" war er 2011 in einer Nebenrolle zu sehen (der Film wurde von der Kritik verrissen). 2012 spielte De Niro in der US-amerikanisch-spanischen Mystery-Produktion "Red Lights" unter der Regie von Rodrigo Cortés an der Seite von Sigourney Weaver und Toby Jones einen (vorgeblichen) Parapsychologen, der es zu legendärer Berühmtheit gebracht hat. Für die kommenden Jahre sind zahlreiche Filme mit De Niro angekündigt, von denen sich einige bereits in der Produktion befinden (Stand: Juni 2012). Privates. Robert De Niro lebt als Privatmann zurückgezogen, gilt als medienscheu und hält sich von der Glamourwelt Hollywoods fern. Sein Lebensmittelpunkt ist seit jeher New York („Ich ging nach Paris, ich ging nach London, ich ging nach Rom, und ich sage immer: ‚Es gibt keinen Platz wie New York. Es ist die aufregendste Stadt der Welt‘“). De Niro erklärte: „Ich gehe nur nach Los Angeles, wenn ich dafür bezahlt werde.“ De Niro gab, soweit bekannt, zu Beginn seiner Karriere noch Interviews, dann längere Zeit nicht mehr. Auch heute tut er es eher sporadisch und offensichtlich ungern, häufig fällt er dabei durch einsilbige Antworten auf. Auskünfte zu seiner Schauspieltechnik oder Rollenvorbereitung gibt er kaum. („Leute werfen mir vor, dass ich etwas zu reserviert sei. Schauen Sie sich Dustin Hoffman an. Ich bewundere immer, wie clever und humorvoll er sein kann. Ich kann das einfach nicht.“) 1976 heiratete er die Schauspielerin Diahnne Abbott (* 1945), von der er sich 1988 wieder scheiden ließ. Aus der Beziehung ging der Sohn Raphael (* 1976) hervor. Abbotts Tochter Drena (* 1971) wurde von De Niro adoptiert, sie ist seit 1996 als Schauspielerin aktiv. De Niro hatte eine langjährige Beziehung mit dem Model Toukie Smith, mit der er zwei Kinder hat, die Zwillinge Aaron Kendrick De Niro and Julian Henry De Niro (* 1995). 1997 heiratete er in zweiter Ehe Grace Hightower (* 1955). Aus dieser Verbindung, die bis heute gehalten hat, ging 1998 ein Sohn hervor. Im November 2004 heiratete De Niro auf seiner Farm in den Catskill Mountains unweit von New York seine Frau Grace Hightower ein zweites Mal – nach einer Scheidung, die nie rechtskräftig wurde. Gäste und Trauzeugen waren unter anderem Regisseur Martin Scorsese sowie De Niros Kollegen Meryl Streep und Ben Stiller. Im Dezember 2011 wurde De Niro erneut Vater – mit Hilfe einer von ihm und seiner Ehefrau bezahlten Schwangerschaftsaustragung durch eine namentlich nicht genannte Frau. Diese sogenannte Leihmutterschaft ist in den USA legal. Das Prominentenpaar übernahm das Kind vertragsgemäß durch die direkte nachgeburtliche Übergabe von der anonymen Mutter. De Niro 1998 bei einer Pressekonferenz auf den Internationalen Filmfestspielen Berlin Während der Dreharbeiten zu "Ronin" geriet der 54-jährige De Niro in die Schlagzeilen, als er im Februar 1998 von der französischen Polizei vernommen und neun Stunden im Pariser Justizpalast festgehalten wurde. Man warf dem Schauspieler vor, er habe über einen Callgirl-Ring Edel-Prostituierte engagiert, was De Niro über seine Anwälte zurückweisen ließ. Wenige Tage später tauchte der pressescheue Star überraschenderweise auf einer Pressekonferenz der Berliner Filmfestspiele auf. Zu den besten Freunden des Schauspielers zählt auch Joe Pesci, dessen Karriere er förderte und der seit "Wie ein wilder Stier" in mehreren Filmen sein Co-Star war. Auch mit seinem Kollegen Harvey Keitel ist De Niro befreundet, seit er mit ihm 1973 "Hexenkessel" drehte. Verschiedenes. 1989 gründete De Niro zusammen mit Jane Rosenthal in New York die Produktionsfirma Tribeca Productions, von der seither überwiegend Filme produziert werden, an denen der Star als Schauspieler oder Regisseur beteiligt ist. Die erste Tribeca-Produktion war der Thriller "Kap der Angst", der deutlich kommerzieller ausgerichtet war als die meisten vorherigen Filme des Schauspielers. Offenbar, um das Unternehmen finanziell zu stützen, orientiert sich De Niro seit den späten 1990er Jahren bei seiner Filmauswahl vor allem am Mainstream und spielt regelmäßig in eingängigen Krimis und Komödien. Seither dreht er außerdem sehr viel mehr Filme als früher. War er in den 1980er Jahren noch in 13 Filmen aufgetreten, waren es in den 1990er Jahren bereits 25 und in den 2000er Jahren 18. Allein für die Jahre 2010–2013 vermerkt die Internet Movie Database 18 Filme mit De Niro, die bereits produziert wurden oder sich in der Vorproduktion befinden (Stand: Juni 2012). De Niro ist damit schon seit Jahren der wohl produktivste Hollywood-Star überhaupt, wobei ein Großteil der Filme (siehe oben) bei Kritik und Publikum auf wenig Resonanz stößt und der Darsteller, wohl auch altersbedingt, zunehmend in Nebenrollen auftritt. Nach allgemeiner Einschätzung reichen De Niros spätere Filme nicht an seine Klassiker wie "Taxi Driver" oder "Wie ein wilder Stier", mit denen er Filmgeschichte schrieb, heran. Dies zeigt sich auch darin, dass kaum einer von ihnen mit einem wichtigen Filmpreis ausgezeichnet wurde. Die Internet Movie Database listet (Stand: Juni 2012) unter den 250 am besten bewerteten Filmen acht Werke mit Robert De Niro auf: "Der Pate – Teil 2" (Platz 3), "Goodfellas" (16), "Taxi Driver" (47), "Es war einmal in Amerika" (80), "Wie ein wilder Stier" (90), "Heat" (122), "Die durch die Hölle gehen" (132) und "Casino" (164). Diese Filme sind zwischen 1974 und 1995 entstanden. De Niro spielte bislang in zwei Filmen, die mit einem Oscar für den besten Film ausgezeichnet wurden: "Der Pate – Teil 2", 1975, und "Die durch die Hölle gehen", 1979). Sein kommerziell erfolgreichster Film ist (Stand: 2012) "Meine Frau, ihre Schwiegereltern und ich" aus dem Jahr 2004, der weltweit 516 Millionen Dollar einspielte. Gleichwohl wird De Niro weiterhin als zuverlässiger Charakterdarsteller mit starker Präsenz wahrgenommen. Er selbst räumte ein, dass er sich nicht mehr mit derselben Energie und Besessenheit auf seine Rollen vorbereite, wie er dies in seinen Anfangsjahren getan habe. 2013 war der Schauspieler - nach 21 Jahren - wieder für einen Oscar nominiert (Nebenrolle in "Silver Linings)". Bis 2013 wurde De Niro also zweimal mit dem bekannten Filmpreis ausgezeichnet und weitere fünf Mal nominiert. Seit 2003 erhielt De Niro mehrere Auszeichnungen für sein Lebenswerk, darunter den renommierten Life Achievement Award vom American Film Institute. Bei der Golden-Globe-Verleihung 2011 wurde er mit dem Cecil B. DeMille Award für sein Lebenswerk geehrt. Darüber hinaus hat er mehrere Dutzend internationale Auszeichnungen erhalten. 2011 leitete De Niro die Wettbewerbsjury der 64. Filmfestspiele von Cannes, die den US-amerikanischen Beitrag "The Tree of Life" von Terrence Malick mit der Goldenen Palme auszeichnete. De Niro ist als Unterstützer der Demokratischen Partei bekannt, er setzte sich mehrfach für deren Präsidentschaftskandidaten ein. 2011 unterstützte De Niro zusammen mit anderen renommierten Persönlichkeiten und Menschenrechtsverteidigern die Initiative Ein Logo für Menschenrechte. Die britische Popband Bananarama hatte 1984 einen Hitparadenerfolg mit dem Song "Robert De Niro’s Waiting". Der Sänger Finley Quaye platzierte in seinem Song "Sunday Shining" die Textzeile „I’m a hero like Robert De Niro“. "Gun Love", ein Song von ZZ Top, enthält die Textzeile „Runnin’ with the Wild Bunch, makin’ like Robert De Niro“. De Niro war mit dem Komiker John Belushi befreundet und besuchte ihn am frühen Morgen des 5. März 1982, dem Tag, an dem Belushi an einer Überdosis starb. Glaubt man De Niros eigenen Worten, mag er sich seine Filme nicht ansehen („Ich schlafe dabei ein“). Synchronsprecher. Seit "Der Pate – Teil 2" wird Robert De Niro vom etwa gleichaltrigen Christian Brückner synchronisiert, einem der profiliertesten deutschen Sprecher. Brückner ist dank seiner charakteristischen rauen Stimme auch als "The Voice" bekannt. In dem Film "Hexenkessel" (1973) wurde De Niro noch von Rolf Zacher gesprochen. In den 1980er Jahren wurde der Darsteller dann einige Male von Joachim Kerzel synchronisiert (u. a. "Angel Heart" oder "The Untouchables - Die Unbestechlichen)". Seit 1988 ist Brückner der einzige Sprecher De Niros, er übernahm auch die Neu-Synchronisation von "Es war einmal in Amerika", die 2003 für die DVD-Veröffentlichung des Films erstellt wurde. In der TV-Serie Der Pate – Die Saga (1977) sprach Brückner nicht nur De Niro in der Rolle des jungen, sondern auch Marlon Brando in der Rolle des älteren Vito Corleone. Religion. Religion (von ‚gewissenhafte Berücksichtigung‘, ‚Sorgfalt‘, zu ‚bedenken‘, ‚achtgeben‘, ursprünglich gemeint ist „die gewissenhafte Sorgfalt in der Beachtung von Vorzeichen und Vorschriften.“) ist ein Sammelbegriff für eine Vielzahl unterschiedlicher Weltanschauungen, deren Grundlage der jeweilige Glaube an bestimmte transzendente (überirdische, übernatürliche, übersinnliche) Kräfte und damit verbundene heilige Objekte ist, die nicht im Sinne der Wissenschaftstheorie bewiesen werden können, sondern nur im Wege individueller intuitiver Erfahrung. Im Gegensatz zu "den" philosophischen Weltanschauungen, die ebenfalls auf Glaubenssätzen basieren, bezeichnet Religion soziale und kulturelle Phänomene, die menschliches Verhalten, Handeln, Denken und Fühlen prägen und Wertvorstellungen normativ beeinflussen. In diesem Zusammenhang kann Religion eine Reihe von ökonomischen, politischen und psychologischen Funktionen erfüllen. Diese weitreichenden gesellschaftlichen Verflechtungen bergen zwangsläufig ein großes Risiko der Bildung religiöser Ideologien. Im deutschen Sprachraum wird der Begriff Religion zumeist sowohl für die "individuelle" „Religiosität“ als auch für die "kollektiven" „Religionen“ verwendet. Obwohl beide Bereiche im menschlichen Denken eine enorme Vielfalt aufweisen, lassen sich einige universale Elemente formulieren, die in allen Kulturen der Welt vorkommen. Zusammenfassend sind dies die individuellen Wünsche nach Sinnfindung, moralischer Orientierung und Welterklärung; sowie der kollektive Glaube an übernatürliche Mächte, die in irgendeiner Weise das Leben des Menschen beeinflussen und das Streben nach der Wiedervereinigung der diesseitigen Existenz mit seinem jenseitigen Ursprung. Diese Standarderklärungen werden jedoch zum Teil kritisiert. Eine „klassische“ Definition nach Gustav Mensching lautet: Nach dem Religionswissenschaftler Peter Antes werden mit Religion Es gibt jedoch keine eindeutige Definition von Religion, sondern nur verschiedene Definitionsversuche. Alle vormodernen Kulturen hatten ausnahmslos eine Religion. Religiöse Weltanschauungen und Sinngebungssysteme stehen oft in langen Traditionen. Mehrere Religionen weisen verwandte Elemente auf, wie die Kommunikation mit transzendenten Wesen im Rahmen von Heilslehren, Symbolsystemen, Kulten und Ritualen oder bauen aufeinander auf, wie zum Beispiel Judentum und Christentum. Die Erstellung einer fundierten Systematik der Religionen, die aus den Verwandtschaftsbeziehungen zwischen den Religionen und ihrer Entstehungsgeschichte abgeleitet wird, ist eine noch nicht erfüllte Forderung der Religionswissenschaften. Einige Religionen beruhen auf philosophischen Systemen im weitesten Sinne oder haben solche rezipiert. Einige sind stärker politisch, teils sogar theokratisch orientiert. Einige legen starken Wert auf spirituelle Aspekte, andere weniger. Überschneidungen finden sich in nahezu allen Religionen und insbesondere bei deren Rezeption und Ausübung durch den einzelnen Menschen. Zahlreiche Religionen sind als Institutionen organisiert, dabei kann in vielen Fällen von einer "Religionsgemeinschaft" gesprochen werden. Die weltweit größten Religionen (auch bekannt als Weltreligionen) sind: Christentum, Islam, Hinduismus, Buddhismus, Daoismus, Sikhismus, Jüdische Religion, Bahaitum und Konfuzianismus (siehe auch: Liste von Religionen und Weltanschauungen). Die Anzahl und der Formenreichtum der historischen und gegenwärtigen Religionen übersteigt die Weltreligionen bei weitem. Mit der wissenschaftlichen Erforschung von Religionen und (z. T.) Religiosität befassen sich besonders die Religionswissenschaft, Religionsgeschichte, Religionssoziologie, Religionsethnologie, Religionsphänomenologie, Religionspsychologie, Religionsphilosophie sowie in vielen Fällen Teilgebiete der jeweiligen Theologie. Konzepte, Institutionen und Erscheinungsformen von Religion werden durch Formen der Religionskritik punktuell oder grundsätzlich in Frage gestellt. Das Adjektiv „religiös“ muss im jeweiligen Kontext gesehen werden: Es bezeichnet entweder „den Bezug zu (einer bestimmten) Religion“ oder „den Bezug zur "Religiosität" eines Menschen“. Substantialistische und funktionalistische Definitionsversuche. Grob lassen sich substantialistische und funktionalistische Ansätze unterscheiden. Substantialistische Definitionen versuchen, das Wesen der Religion etwa in ihrem Bezug zum Heiligen, Transzendenten oder Absoluten zu bestimmen. Nach Rüdiger Vaas und Scott Atran etwa stellt der Bezug zum Transzendenten den zentralen Unterschied zum Nichtreligiösen dar. Funktionalistische Religionsbegriffe versuchen Religion anhand ihrer gemeinschaftsstiftenden gesellschaftlichen Rolle zu bestimmen. Eine der berühmtesten und oft zitierten Definitionen von (christlicher) Religion stammt von Friedrich Schleiermacher und lautet: Religion ist „das Gefühl der schlechthinnigen Abhängigkeit von Gott“. Etymologie. Das Wort "religio" hatte im Lateinischen verschiedene Bedeutungen: „Gottesfurcht“, „Frömmigkeit“, „Heiligkeit“, aber auch „Rücksicht“, „Bedenken“, „Skrupel“, „Pflicht“, „Gewissenhaftigkeit“ oder „Aberglaube“. Die Etymologie des Begriffs lässt sich nicht mit Sicherheit bis zu seinem Ursprung zurückverfolgen. "Religio" ist kein Terminus altrömischer Religion. Die frühesten Belege für die Verwendung dieses Ausdrucks finden sich erst in den Komödien des Plautus (ca. 250–184 v. Chr.) und in den politischen Reden des Cato (234–149 v. Chr.). Nach Cicero (1. Jh. v. Chr.) geht "religio" auf "relegere" zurück, was wörtlich „wieder (auf)lesen, wieder aufsammeln, wieder aufwickeln“, im übertragenen Sinn „bedenken, achtgeben“ bedeutet. Cicero dachte dabei an den Tempelkult, den es sorgsam zu beachten galt. Dieser "religio" (gewissenhafte Einhaltung überlieferter Regeln) stellte er "superstitio" (nach der ursprünglichen Bedeutung Ekstase) als eine übertriebene Form von Spiritualität (tagelanges Beten und Opfern) gegenüber. Im Sinn einer „berufsmäßigen“ Gottesverehrung wurden entsprechend im Mittelalter Ordensleute als "religiosi" bezeichnet. Diese Bedeutung hat der Begriff bis heute im römisch-katholischen Kirchenrecht. Auch bei der Entlehnung ins Deutsche im 16. Jahrhundert wird "Religion" zunächst in diesem Sinne verwandt, nämlich zur Bezeichnung amtskirchlicher Bibelauslegung und Kultpraxis und ihrer Abgrenzung gegenüber sogenanntem Aberglauben (siehe Superstitio). Bis heute heißt die römische Kongregation für die Ordensleute „Religiosenkongregation“. Zu Beginn des 4. Jahrhunderts führte der christliche Apologet Lactantius dagegen das Wort "religio" auf "religare" = „an-, zurückbinden“ zurück, wobei er sich polemisch mit Ciceros Auffassung über den Unterschied von "religio" und "superstitio" auseinandersetzte. Er meinte, es handle sich um ein „Band der Frömmigkeit“, das den Gläubigen an Gott binde. Diese Herkunft ist bei Sprachwissenschaftlern jedoch umstritten, da es keine vergleichbaren Wörter gibt, die aus einem Verb der lateinischen a-Konjugation entstammen, bei denen sich das Suffix "-are" ohne Anzeichen zu "-ion" entwickelt hat. Im Mittelalter und in der frühen Neuzeit waren zur Bezeichnung der Gesamtheit des Religiösen die Ausdrücke "fides" (Glaube), "lex" (Gesetz) und "secta" (von "sequi", „folgen“, also „Gefolgschaft, Richtung, Partei“) gebräuchlich. „Religion“ bezeichnete zunächst Lehren, die je nach Auffassung für richtig oder falsch gehalten wurden. Erst nach der Reformation, vor allem im Zeitalter der Aufklärung wurde ein abstrakterer „Religions“-Begriff geprägt, auf den die gegenwärtigen Definitionsansätze zurückgehen. In den meisten außereuropäischen Sprachen fanden sich bis zum 19. Jahrhundert keine genauen Übersetzungen des Wortes "Religion". Häufig wurde das Phänomen mit mehreren Begriffen umschrieben. Eigene Begriffsprägungen erfolgten relativ spät. Dies trifft beispielsweise auf den Ausdruck Hinduismus zu, dessen Bedeutung zudem einem mehrmaligen Wandel unterlag. Neuerdings hat der Religions- und Sprachwissenschaftler Axel Bergmann eine andere Etymologie vorgeschlagen. Demnach gehört zu dem Wort nicht das Präfix "re-" („zurück“, „wieder“), sondern es geht ursprünglich auf das altlateinische "rem ligere" = eine „Sache“ (gemeint: ein Vorhaben) „binden“ (= mit Skrupel oder Skepsis betrachten und wegen dieser Bedenken zögern und davor zurückschrecken) zurück. Dieser Ausdruck der Alltagssprache wurde laut Bergmann zunächst speziell auf religiöse Skrupel bezogen und später auf den gesamten Bereich des Religiösen ausgedehnt. Orientierung. "(Kursiv = Wernhart zitiert die „Erklärung über das Verhältnis der Kirche zu den nichtchristlichen Religionen“ des 2. Vatikanischen Konzils von 1962–1965)" Sicherheitsaspekt. Viele Wissenschaftler (etwa A. Giddens, L. A. Kirkpatrick, A. Newberg und E. d’Aquili) heben in Bezug auf die Orientierung den Aspekt der Sicherheit für den Einzelnen oder seine Nächsten besonders hervor. Nach ihrer Auffassung befriedigen Religionen das Bedürfnis nach Beistand und Stabilität bei existentiellen Ängsten; sie bieten Trost, Schutz und Sinnerklärung angesichts von Leiden, Krankheit, Tod, Armut, Elend und Ungerechtigkeit. Nach der "Bindungstheorie" von Kirkpatrick sei Gott (bezogen auf das Christentum) eine Ersatz-Bezugsperson, wenn menschliche Bezugspersonen (Eltern, Lehrer u.ä.) fehlen oder unzureichend sind. Diese Annahme konnte von R. K. Ullmann empirisch untermauert werden. Boyer und Atran kritisieren die Funktionen Sicherheit und Orientierung. Sie halten dem entgegen, dass Religionen häufig mehr Fragen aufwerfen, als sie beantworten, dass der Erlösungsgedanke häufig nicht vorkommt, dass trotz der offiziellen Religionen häufig der Glaube an böse Geister und Hexen vorkomme und dass selbst viele Konfessionen nicht nur Ängste reduzieren, sondern auch neue schaffen. Die beiden Wissenschaftler reduzieren die Universalien im Gegensatz zu Wernhart auf zwei menschliche Bedürfnisse: Kooperation und Information. Älteste Spuren. Nachdem ältere Theorien – wie die eines prähistorischen Bärenkultes oder einer einheitlichen „Urreligion“ "(siehe etwa: Animistische Urreligion, Core Schamanismus nach Harner oder Urmonotheismus nach Wilhelm Schmidt)" – heute als widerlegt gelten, andererseits aber die lange bezweifelten Datierungen jungpaläolithischer Höhlenmalereien und Musikinstrumente wesentlich erweitert und bestätigt wurden, hat sich ein wissenschaftlicher Konsens über den Beginn menschlicher Religionsgeschichte herausgebildet. Demnach werden Bestattungen und (später) Grabbeigaben als frühe archäologische Zeichen religiösen Ausdrucks anerkannt, die sich ab etwa 120.000 Jahren v. Chr. im Mittelpaläolithikum sowohl bei Homo sapiens als auch beim Neandertaler nachweisen lassen. Der "Homo sapiens" entwickelt im späten Mittelpaläolithikum (mittlerer Abschnitt der Altsteinzeit) und beginnendem Mesolithikum (Mittelsteinzeit) komplexere Ausdrucksformen in frühen Kleinkunstwerken, Höhlenmalereien, später mit aufwändigen Grabstätten und zum Beginn des Neolithikums (Jungsteinzeit) im Nahen Osten herausgehobene Bauwerke, wie das als Tempelanlage interpretierte Göbekli Tepe. Ab ca. 40.000 v. Chr. – mit dem Auftreten künstlerischer Skulpturen, Malereien und Musikinstrumente – werden die Hinweise deutlicher. Welche religiösen Inhalte und Konzepte diesen Artefakten zuzuschreiben sind, ist allerdings unklar bzw. spekulativ. Historische Religionen. Viele der heute noch praktizierten Religionen haben ihre Wurzeln in vorgeschichtlicher Zeit. Andere frühe Religionen existieren heute nicht mehr und sind in ihren Inhalten oft schwer fassbar, da fehlende oder lückenhafte Überlieferung das Verständnis erschwert und religiöse Konzepte sich in den von der Archäologie gefundenen materiellen Artefakten nur mittelbar abbilden. Das führt zu sehr unterschiedlichen Interpretationen der archäologischen Funde. Auch dort, wo sehr umfangreiche schriftliche Quellen vorliegen (etwa bei den antiken Religionen der Griechen und Römer) sind die Kenntnisse über Kultpraxis und individuelle Religionsübung dennoch sehr lückenhaft. Häufig hat man Kenntnisse hauptsächlich von der Mythologie, so weiß man einiges über die Mythologie der Kelten und der Germanen, über die Kultpraxis jedoch kaum etwas. Religion in der Neuzeit. Im Gegensatz zu den mittelalterlichen christlichen Gesellschaften, in denen fast die gesamte Lebenswirklichkeit unter der Autorität der Religion stand, verlor die institutionalisierte Religion in der Neuzeit zunehmend an Machtfülle. Anstelle der Theologie errangen die Natur- und Geisteswissenschaften Autorität, beispielsweise in Fragen zu Evolution oder Ethik/Recht, Bereichen, die zuvor der Religion unterstanden. Die Tendenzen hin zu einer Trennung von Kirche und Staat werden als Säkularisierung bezeichnet. Erklärungsversuche für dieses Phänomen beziehen sich oft auf die Ideen des Humanismus und der Aufklärung, Einflüsse der Industrialisierung, die allmähliche bzw. durch eine Revolution hervorgerufene Überwindung des feudalen Ständestaates und den damit verbundenen ökonomischen, sozialen, kulturellen und rechtlichen Wandel. Der Wandel umfasst alle gesellschaftlichen Felder, so auch das der verfassten Religion, welche sich ebenfalls ausdifferenzierte, einerseits Gewaltpotenzial und Unduldsamkeit zeigte, andererseits pluralistischer auftrat und vielfach mehr Toleranz aufbrachte. In Europa verlor das Christentum seit dem späten 19. Jahrhundert hinsichtlich seiner Reputation, seines gesellschaftlichen und politischen Einflusses und seiner Verbreitung beschleunigt an Bedeutung. Einige traditionell christliche westliche Länder verzeichneten sinkenden Klerikernachwuchs, Verkleinerung der Klöster und ein Anwachsen von Kirchenaustritten oder andere Formen von Distanzierung. Besonders in Frankreich, wo durch die Revolution 1789, den Code Civil 1804 und Anfang des 20. Jahrhunderts durch das Gesetz zur Trennung von Kirche und Staat ein strikter Laizismus umgesetzt worden ist, ging der gesellschaftliche Einfluss der katholischen Kirche zurück. Die abnehmende materielle und geistige Macht der großen christlichen Kirchen, die Friedrich Nietzsche Ende des 19. Jahrhunderts mit den Worten „"Gott ist tot"“ kommentierte, wurde und wird von einigen religiösen Denkern bemängelt. Sie argumentieren, durch das Schwinden des Einflusses der Religion würden ethische Standards reduziert und der Mensch zum Maß aller Dinge gemacht. Unter der Devise „Ohne Gott ist alles erlaubt“, könnten destruktive Handlungen und nihilistisches Denken gefördert werden. Für solche Folgen gibt es allerdings keine eindeutigen Hinweise. In der Sowjetunion, insbesondere während der Terrorherrschaft Stalins, im nationalsozialistischen Deutschland und weniger ausgeprägt in den Ostblockstaaten nach 1945 konnte eine öffentliche religiöse Betätigung zu gesellschaftlichen Benachteiligungen führen, bis hin zu Todesurteilen und Verschleppung. Daher war der Anteil der sichtlich praktizierenden Mitglieder von Religionsgemeinschaften vergleichsweise gering. Nach dem Zusammenbruch der Sowjetunion ist eine ambivalente Entwicklung festzustellen. Während in den neuen Bundesländern die organisierte Religion weiterhin nur eine marginale Rolle spielt, ist sie beispielsweise in Polen tief verwurzelt. Gegenwärtige Trends. Zahlreiche Studien belegen rückläufige Besucherzahlen in Kirchen, Synagogen und anderen religiösen Einrichtungen, z. B. in Großbritannien, Deutschland und Frankreich, obwohl die Kirchen hier Umfragen zufolge weiterhin zu den anerkannten öffentlichen Einrichtungen zählen. In den meisten europäischen Staaten waren 2005 jedoch noch mehr als 50 % der Einwohner Mitglieder einer christlichen Kirche. In Polen, Irland, Spanien und Italien gilt die katholische Kirche, der jeweils mehr als 80 % der Bewohner angehören, als politisch einflussreich. In vielen europäischen Ländern ist es nach wie vor üblich, zumindest formell einer Religion anzugehören. Seit einigen Jahrzehnten, verstärkt seit dem Ende des letzten Jahrtausends, wenden sich vor allem junge Menschen weltweit häufiger wieder institutionalisierten oder anderen religiösen Ausdrucksformen zu. Im Gegenzug zur Säkularisierung in Europa gewinnen insbesondere Islam und Christentum, aber auch der Buddhismus, in der übrigen Welt an Bedeutung. In den USA und Lateinamerika etwa stellt die Religion nach wie vor einen wichtigen Faktor dar. Im 20. Jahrhundert ist in Afrika der Einfluss des Christentums und des Islam erheblich gewachsen. In der arabischen Welt ist der Islam zunehmend das prägende Element der Gesellschaft. Auch in Teilen Asiens hat der Islam an Einfluss gewonnen, so in Indonesien, Pakistan, Indien und Bangladesch. In der Volksrepublik China erleben religiöse Gemeinschaften seit der Lockerung entsprechender Verbote wieder einen moderaten Aufschwung. Von den christlichen Kirchen und Religionsgemeinschaften erzielen die sich zum Protestantismus zählenden evangelikalen Missionare weltweit die meisten „Bekehrungserfolge“. Neuere Forschungen verweisen darauf, dass in zeitgenössischen Gesellschaften statistisch nachweisbar ein Zusammenhang zwischen Demografie und Religion besteht. Die Kinderzahl in religiösen Gemeinschaften ist zum Teil erheblich höher als die in den eher säkular geprägten Gesellschaften. Beispiele hierfür sind die Geburtenraten der türkischstämmigen Familien in Deutschland, die zumeist dem sunnitischen Islam angehören, evangelikaler christlicher Gruppen in den USA und zunehmend auch in Europa und Angehöriger des orthodoxen Judentums in Israel. Dieses Phänomen wird gegenwärtig auf dem Hintergrund der Probleme einer wachsenden Weltbevölkerung nicht nur positiv, sondern auch negativ bewertet. In den meisten Mitgliedsstaaten der Vereinten Nationen wurde das Recht auf Religionsfreiheit inzwischen gesetzlich verankert, aber nicht unbedingt im Alltagsleben verwirklicht. Allerdings gibt es noch zahlreiche Länder, in denen keinerlei Recht auf freie Wahl der Religion besteht, so z. B. Saudi-Arabien und Nordkorea, oder in denen der Handlungsspielraum religiöser Individuen und Gruppen eingeschränkt ist. Demgegenüber gewähren die USA praktisch jeder Gemeinschaft, die sich selbst als religiös bezeichnet, den Status einer "religious community" mit entsprechenden Rechten. Seit der zunehmenden Anerkennung indigener Völker kommt es zum Teil zu einer Revitalisierung ethnischer Religionen (etwa bei den Tuwinern in China und Russland, bei vielen Indianern Nordamerikas oder bei den Samen Skandinaviens). Aufgrund des vielfach bereits verlorenen Wissens, der langjährigen Einflüsse anderer Religionen oder auch der Bezugnahme auf (zum Teil falsche) Interpretationen westlicher Autoren aus Wissenschaft und Esoterik kann man diese Religionsformen in den meisten Fällen jedoch "nicht" mit den traditionellen Vorläufern gleichsetzen. Religionen in Zahlen. Die Quellenlage für präzise Aussagen über die Religionszugehörigkeit weltweit ist äußerst fraglich. Nicht nur die Forschungsmethoden unterscheiden sich erheblich, vor allem ist die Ausgangssituation in den Staaten sehr unterschiedlich. Lediglich über Staaten, in denen Religionsfreiheit besteht, können relativ exakte Aussagen gemacht werden. Aber auch dort gibt es eine hohe Varianz, schon hinsichtlich der Datenerhebung. Unterschiedliche Ergebnisse sind beispielsweise zu erwarten, je nachdem ob die Aussagen auf behördlich erfasster Zugehörigkeit zu einer Religionsgemeinschaft oder auf Befragungen beruhen. Regimes, die keine Religionsfreiheit gewährleisten oder Staaten, die sich offiziell als atheistisch betrachten, machen ein realistisches Bild fast unmöglich. Hinzu kommt, dass auch die Weltreligionen sehr heterogen sind: so unterscheidet sich beispielsweise das Christentum in afrikanischen Ländern von dem in skandinavischen in vielen Merkmalen. Zum Judentum werden zumeist auch nichtreligiöse Juden gerechnet, zum Christentum in Deutschland alle Kirchensteuerzahler, auch wenn sie nicht gläubig sind, zum Islam alle Bürger Saudi-Arabiens. Unschärfen entstehen u. a. auch, weil Kinder und Jugendliche der Religion ihrer Eltern zugerechnet werden, jedoch sich selbst nicht unbedingt dieser Religion angehörig fühlen. Für einzelne Staaten mit ausgewiesenen statistischen Systemen lassen sich genauere Angaben machen, die aber nicht ohne Weiteres miteinander vergleichbar sind. Zur Verteilung in Deutschland, Österreich und der Schweiz siehe auch Religionen in Deutschland, Anerkannte Religionen in Österreich und Religionen in der Schweiz Nach der 15. Shell-Jugendstudie aus dem Jahr 2006 glauben 30 % der befragten deutschen Jugendlichen im Alter zwischen 12 und 24 Jahren an einen persönlichen Gott, 19 % an eine überirdische Macht, während 23 % eher agnostische Angaben machten und 28 % weder an einen Gott noch eine höhere Macht glauben. Wissenschaftliche Ansätze zur Definition und Beschreibung von Religion. Bereits beim Versuch, einen wissenschaftlichen Zugang zum "Begriff" „Religion“ zu finden, sehen sich die Wissenschaften vor große Schwierigkeiten gestellt: Wie kann man eine alle Religionen umfassende, über-historische Definition von Religion finden, mit der sich wissenschaftlich arbeiten lässt? Oft sind die Definitionen entweder zu eng, so dass wichtige religiöse Strömungen nicht mit erfasst werden; oder aber der Begriff „Religion“ verliert seine Präzision und wird zu beliebig, als dass sich vergleichbare Untersuchungen noch erlauben würden. Sich wissenschaftlich mit einem Untersuchungsobjekt zu befassen, dessen Definition keine klare Abgrenzung erlaubt, erweist sich als schwierig. Dennoch ist Religion aber „eine soziale Realität, ein spezifischer Kommunikationsprozess, der Wirklichkeiten schafft und durch soziale Handlungen selbst reale Gestalt gewinnt“ und daher notwendigerweise Gegenstand wissenschaftlicher Neugierde. Die im Folgenden dargestellten Konzepte sollten immer vor dem Hintergrund der Schwierigkeiten in der Begriffsfindung wahrgenommen werden, die im Kontrast zur wissenschaftlichen Notwendigkeit stehen, sich mit dem realen Phänomen „Religion“ zu beschäftigen. Philosophische und psychologische Ansätze. Der Vordenker der Aufklärung Jean-Jacques Rousseau kritisierte in seinem 1762 in Paris erschienenen einflussreichen Werk „Vom Gesellschaftsvertrag oder Prinzipien des Staatsrechtes“ die Religion grundlegend als Quelle von Krieg und Machtmissbrauch, konstatierte aber religiöse Gefühle der Menschen. Er entwickelte das Modell einer Zivilreligion, die den politischen Erfordernissen einer „freien“ aufgeklärten Gesellschaft gerecht werde. Dazu gehörte die Anerkennung der Existenz Gottes, eines Lebens nach dem Tod, die Vergeltung von Gerechtigkeit und Ungerechtigkeit, die Unantastbarkeit (Heiligkeit) des Gesellschaftsvertrages und der Gesetze und schließlich die Toleranz. Diese neue, für alle Bürger gleichermaßen gültige Zivilreligion sollte zur Stabilität der Gemeinschaft beitragen. Sein ebenfalls aufgeklärter Gegenspieler Voltaire, welcher die Dogmen und die Machtfülle der katholischen Kirche noch schärfer ablehnte, setzte sich für einen vernunftgeleiteten, toleranten Deismus unabhängig von den bis dahin existierenden Religionen ein und betonte die moralische Nützlichkeit des Glaubens an Gott. Er war von der Gesetzmäßigkeit des Kosmos und der Existenz einer höchsten Intelligenz überzeugt, ging von der Unsterblichkeit der Seele und einem freien menschlichen Willen aus, Positionen, die er jedoch auch in jeder Hinsicht bezweifelte. Den Glauben an heilige Schriften oder an Jesus Christus als Sohn Gottes teilte er nicht. Immanuel Kant formulierte 1793 in seiner religionsphilosophischen Schrift „Die Religion innerhalb der Grenzen der bloßen Vernunft“ seine Auffassung über eine Vernunftreligion. Er entwickelte eine philosophische Religionslehre, die das Prinzip des Bösen postuliert. Das Böse sei dem menschlichen Wesen innewohnend. Er geht von der Existenz Gottes und von der Unsterblichkeit der Seele aus. Gott lasse sich allerdings nicht beweisen. Laut Kant verfügt lediglich das Christentum im Gegensatz zu anderen, seiner Auffassung nach „veralteten“ und „ritualisierten“ Religionen wie Judentum und Islam, über eine Lehre und Moral, die die Philosophie anerkennen kann. Konsequentes moralisches Handeln ist demnach nicht möglich ohne den Glauben an die Freiheit, die Unsterblichkeit der Seele und Gott. Daher ist die Moral das Ursprüngliche. Die Religion indes erklärt die moralischen Pflichten als göttliche Gebote. Also folge die Religion dem bereits vorhandenen Moralgesetz. Um die eigentlichen menschlichen Pflichten zu finden, müsse man das Richtige aus den verschiedenen Religionslehren herausfiltern. Rituelle Praktiken der Religionen lehnte Kant als „Pfaffentum“ ab. Erkenntnistheoretisch nahm er eine agnostische Haltung ein. Der Religionskritiker Ludwig Feuerbach erklärte 1841 Religion als „das "erste" und "zwar indirekte Selbstbewusstsein" des Menschen. […] der Mensch vergegenständlicht in der Religion sein eignes geheimes Wesen.“ Demnach betrachtet der religiöse Mensch alles, was er für wahr, richtig und gut hält, als selbstständige Erscheinungen außerhalb seiner selbst. Diese selbstständigen Erscheinungen kann sich der Mensch als Person in Einzahl oder Mehrzahl mit begrenztem oder unbegrenztem Wirkungsbereich vorstellen und demzufolge seine Begriffe vom Wahren, Richtigen und Guten als Bereichsgötter oder einzigen Gott benennen oder ohne Personifikation als Kräfte, Mächte, Wirkungen, gesetzmäßige Abläufe oder ähnlich bestimmen. Wie er das tut, richtet sich nach regionaler Entwicklung und Überlieferung. Folgerichtig betrachtet Feuerbach Religion nicht mehr als weltdeutendes, menschenverpflichtendes System, sondern als völkerkundliches Forschungsgebiet. Karl Marx bezeichnete 1844 im Anschluss an Feuerbach in seiner "Einleitung zur Kritik der Hegelschen Rechtsphilosophie" Religion als „das Opium des Volkes“, ein Ausspruch, der zum geflügelten Wort geworden ist. Ein für Marx zentraler Gedanke ist, dass die Geschöpfe ihre Schöpfer beherrschen: „Wie der Mensch in der Religion vom Machwerk seines eigenen Kopfes, so wird er in der kapitalistischen Produktion vom Machwerk seiner eigenen Hand beherrscht.“ Aus Feuerbachs Forderung an den Menschen, die „Illusion über seinen Zustand aufzugeben“ zieht Marx die Konsequenz, „einen Zustand aufzugeben, der der Illusionen bedarf“. Nach Marx wird Religion als ein verkehrtes Weltbewusstsein von Staat und Gesellschaft produziert, weil in bisherigen Gesellschaftsordnungen der Mensch von sich selbst entfremdet war. „Die Aufhebung der Religion als des "illusorischen" Glücks des Volkes“ ist für ihn daher „die Forderung seines "wirklichen" Glücks“. Von Friedrich Nietzsche stammt der als Gedanke der Moderne immer wieder zitierte Ausspruch „Gott ist tot!“ Er fährt fort, und dies ist weniger bekannt: „Gott bleibt tot! Und wir haben ihn getötet! Wie trösten wir uns, die Mörder aller Mörder?“ Der Philosoph zählte die wachsende Bedeutung der Naturwissenschaften und der Geschichtswissenschaft zusammen mit der radikalen Religionskritik zu den Ursachen für den Verfall der (christlichen) Moral. In der Tradition Feuerbachs und Nietzsches stehend, stellte der Begründer der Psychoanalyse Sigmund Freud Religion als Zwangsneurose und infantiles Abwehrverhalten dar. Der Urmensch habe die Naturkräfte personalisiert und zu schützenden Mächten erhoben, damit sie ihn in seiner Hilflosigkeit stützen. Das zugrunde liegende Verhaltensmuster knüpft demnach an die frühkindliche Erfahrung des schützenden, aber auch strafenden Vaters an. Daraus resultiere ein zwiespältiges Verhältnis zum Vater, das im Erwachsenenalter zum „Glauben“ führe. Der Mensch fürchte die Gottheiten und suche gleichzeitig ihren Schutz. Auf die Evolutionstheorie Charles Darwins Bezug nehmend, sah Freud die „Urhorde“ mit einem despotischen „Stammesvater“ als Anführer, der über alle Frauen des Stammes verfügen konnte. Seine Söhne verehrten ihn, fürchteten ihn aber auch. Aus Eifersucht brachten sie gemeinsam den Urvater um. Daraus sei der „Ödipuskomplex“ hervorgegangen. Das Schuldbewusstsein der gesamten Menschheit (Vorstellung von der „Erbsünde“) sei somit der kulturbewahrende Anfang sozialer Organisation, der Religion sowie – damit zusammenhängend – sexueller Einschränkung. Die argentinische Religionspsychologin Ana-Maria Rizzuto geht – anders als Freud – davon aus, dass die Gottesvorstellung einen notwendigen Teil der Ichbildung darstellt. Demnach entwickeln Kinder aus der breiten Fülle von Fantasien zu Helden und magischen Wesen ihr jeweiliges Gottesbild – im Rahmen des Bezugsystems ihrer Eltern und der Umwelt. Erich Fromm prägte eine weite, sozialpsychologische Definition. Als Religion betrachtete er jedes von einer Gruppe geteilte System des Denkens und Handelns, das dem Einzelnen einen Rahmen der Orientierung und ein Objekt der Hingabe bietet. Der zeitgenössische postmoderne deutsche Philosoph Peter Sloterdijk schreibt der Religion die Wirkung eines "psychosemantischen Immunsystems" zu. Im Zuge der kulturellen Entwicklung sei der Mensch offener, aber auch verletzbarer geworden. Religion befähige den Menschen, „Verletzungen, Invasionen und Kränkungen“ selbst zu heilen. Sloterdijk bezeichnet nicht Gott, sondern „das Wissen um Heilung als Realität, von der biologischen bis zu einer spirituellen Stufe“ als "die Perle in der Muschel der Theologie". Jürgen Habermas, der prominenteste Vertreter der Kritischen Theorie in der Gegenwart, betont seit Ende der 1990er Jahre den positiven Einfluss der (christlichen) Religion auf demokratische Wertsysteme, während Theodor W. Adorno in Marxscher Tradition die Religion als „gesellschaftliche Projektion“ begreift und die Durkheimsche Religionssoziologie pointiert in der Aussage zusammenfasst, dass „in der Religion die Gesellschaft sich selbst anbete“. Religionsgeschichtliche Theorien. Die vorrangige Fragestellung der Religionsgeschichte lautet: „Unterliegt die Religionsentwicklung einer direkten soziokulturellen Evolution oder ist sie nur ein Nebenprodukt anderer kognitiver Entwicklungen?“ Ein evolutionärer Prozess setzt immer selektive Faktoren voraus, so dass die Frage nur beantwortet werden kann, wenn zweifelsfreie Faktoren ermittelt werden können, die gläubigen Menschen irgendwelche Überlebensvorteile verschaffen. In der Frühzeit der wissenschaftlichen Behandlung von Religion waren evolutionistische Entwürfe vorherrschend, in denen die einzelnen Ereignisse als bloße Etappen vergleichsweise einfacher, globaler, quasi naturgesetzlicher Entwicklungen gesehen wurden, etwa bei James Frazer als eine Entwicklung von der Magie über die Religion zur Wissenschaft. Diese teleologischen Positionen krankten oft an unzureichenden empirischen Grundlagen, enthielten meist explizite oder implizite Wertungen und waren vielfach auf den Einzelfall konkreter religionsgeschichtlicher Ereignisse nicht anwendbar. In der modernen Religionswissenschaft spielen sie nur noch als Materiallieferanten und als Teil der Fachgeschichte eine Rolle. In einer geschichtsphilosophischen Betrachtung machte Karl Jaspers eine von ihm sogenannte Achsenzeit zwischen 800 und 200 v. Chr. aus, in der wesentliche geistesgeschichtliche Innovationen die Philosophie- und Religionsgeschichte Chinas, Indiens, des Iran und in Griechenland prägten. Jaspers deutete diese als eine umfassende Epoche der „Vergeistigung“ des Menschen, die sich in Philosophie und Religion, sekundär auch in Recht und Technologie ausgewirkt habe. Mit dieser pluralistischen Interpretation wandte Jaspers sich vor allem gegen eine christlich motivierte Konzeption einer Universalgeschichte. Im Gegensatz zu den Offenbarungsreligionen, die er ablehnte, konzipierte er in seinem religionsphilosophischen Werk "Der philosophische Glaube angesichts der Offenbarung" eine philosophische Annäherung an eine Transzendenz angesichts menschlicher Allmachtsvorstellungen. Die religiös-spirituellen Vorstellungen schriftloser Kulturen, häufig als Naturreligionen bzw. ethnische Religionen oder (veraltet) als Animismus bezeichnet, wurden aufgrund ihrer angeblichen „Primitivität“ lange für die ältesten Formen von Religion gehalten. Doch auch sie unterliegen einem historischem Wandel und werden daher heute von einigen Autoren nicht mehr im Sinne unveränderter Traditionen verstanden. Aufgrund der nicht vorhandenen Dogmen und ihrer großen Anpassungsfähigkeit an veränderte Bedingungen sind sie ganz im Gegenteil sämtlich jünger als die bekannten Hochreligionen. Dennoch halten etliche Prähistoriker (etwa Marcel Otte) an der Vorstellung fest, die Religionen der Vorzeit ließen sich aus Vergleichen mit heutigen „primitiven Religionen“ rekonstruieren. Dabei wird außer Acht gelassen, dass auch diese Glaubenssysteme irgendwann einmal einen Anfang gehabt haben müssen, der erheblich einfacher gedacht werden muss als die komplexen Weltbilder heutiger Indigener. Allgemein wird heute eine direkte Evolution der Religionen in engem Zusammenhang mit dem Wandel der Sozialstrukturen postuliert, weil sie offenbar gewisse Aspekte des Zusammenlebens positiv beeinflusst. Allerdings ist man sich über die konkreten Selektionsvorteile nach wie vor uneinig. Weder die Förderung altruistischen Verhaltens noch ein konkreter Einfluss auf die Reproduktionsrate ist zweifelsfrei belegt. Überdies kritisiert die Religionswissenschaftlerin Ina Wunn, dass viele Modelle nach wie vor eine Höherentwicklung voraussetzen, womit sie ethnische oder polytheistische Religionen degradieren. Damit würden Repressalien bestimmter Staaten gegen ihre religiösen Minderheiten im Sinne des Fortschritts gerechtfertigt. In neuerer Zeit tritt die Religionsgeschichte als Universalgeschichte gegenüber dem Studium der Geschichte einzelner Religionen oder Kulturräume zurück. Jedoch finden religionsgeschichtliche Theoriekonzepte wie Säkularisierung und Pluralisierung wieder verstärkt Beachtung. Religionssoziologische Ansätze. Religionssoziologische Gedankengänge finden sich bereits in der griechischen Antike, zumal bei Xenophanes ("Wenn die Pferde Götter hätten, sähen sie wie Pferde aus."). Nach Ferdinand Tönnies (1887), einem der Mitbegründer der Soziologie, ist die Religion in der „Gemeinschaft“ das Äquivalent zur „öffentlichen Meinung“ in der „Gesellschaft“. Diese Abgrenzung versteht Tönnies als normaltypisch. Religion und öffentliche Meinung sind die jeweilige "mentale" Ausbildung von Gemeinschaft bzw. Gesellschaft (neben der politischen und der wirtschaftlichen). Da sich die Menschen in der Gemeinschaft als „Mittel zum Zweck übergeordneter Kollektive“ verstehen, sind sie zu großen Opfern zugunsten einer angenommenen höheren Instanz fähig – anders als „gesellschaftlich“ verbundene Menschen, die alle Kollektive als Mittel für ihre je individuellen Zwecke ansehen, und die jeweilige Gesellschaft utilitaristisch unterstützen oder bekämpfen. Religion und öffentliche Meinung haben, so Tönnies, starke Gemeinsamkeiten, etwa heftige Unduldsamkeit gegen Abweichler. Laut Émile Durkheim (1912), einem anderen Mitbegründer der Soziologie, trägt Religion zur Festigung sozialer Strukturen, aber auch zur Stabilisierung des Einzelnen bei. Sein Religionsbegriff ist somit ein funktionalistischer. Gemäß Durkheim ist die Religion ein solidarisches System, das sich auf Überzeugungen und Praktiken bezieht, die als heilig erachtete Dinge umfassen und in einer moralischen Gemeinschaft, wie beispielsweise der Kirche, alle Mitglieder miteinander verbindet. Daraus ergeben sich drei Aspekte von Religion, die Glaubensüberzeugungen (Mythen), die Praktiken (Riten) und die Gemeinschaft, auf die diese Überzeugungen und Praktiken bezogen sind. Durkheim bezeichnet unter anderen Faktoren den Glauben als ein Element der Macht, die die Gesellschaft über ihre Mitglieder ausübt. Zu den bemerkenswerten Aspekten seines Religionsbegriffs gehört die Unterscheidung zwischen dem Sakralen und dem Profanen, die es erlaubt, Religion ohne den Bezug auf Gott, Götter oder übernatürliche Wesenheiten (Gottheiten) zu definieren. Sie wird auch außerhalb der Soziologie verwendet und liegt ebenfalls dem Begriff „säkulare Religion“ (bei Max Weber: „Diesseitigkeitsreligion“) zugrunde, mit dem Weltanschauungen bezeichnet werden, die diesseitige Phänomene wie z. B. den Staat, eine Partei oder einen politischen Führer zum Gegenstand einer religionsähnlichen Verehrung machen. Max Weber, der sich am Anfang des 20. Jahrhunderts ausführlich mit dem Phänomen „Religion“ aus soziologischer Sicht befasste, unterscheidet zwischen Religion und Magie. Unter „Religion“ versteht er ein dauerhaftes, ethisch fundiertes System mit hauptamtlichen Funktionären, die eine geregelte Lehre vertreten, einer organisierten Gemeinschaft vorstehen und gesellschaftlichen Einfluss anstreben. „Magie“ dagegen ist nach Weber lediglich kurzfristig wirksam, gebunden an einzelne Magier oder Zauberer, die als charismatische Persönlichkeiten vermeintlich Naturgewalten bezwingen und eigene moralische Vorstellungen entwickeln. Diese Abgrenzung versteht Weber als idealtypisch. Reinformen sind selten, Überschneidungen und Übergänge werden konstatiert. Weber erarbeitete umfangreiche theoretische Abhandlungen über die verschiedenen Religionen, insbesondere über die protestantische Ethik und führte empirische Studien zu der unterschiedlichen wirtschaftlichen Entwicklung in protestantischen und katholischen Ländern durch. In der zweiten Hälfte des 20. Jahrhunderts unterscheidet Niklas Luhmann in seiner Systemtheorie zwischen „System“ und „Umwelt“. Die Umwelt bietet demnach Möglichkeiten, die vom System durch Ausgrenzung und Auswahl genutzt werden können. Durch diesen Selektionsprozess wird die Umwelt in ihrer Komplexität eingeschränkt. Da jedoch sowohl das System als auch die Umwelt nach wie vor von hoher Komplexität geprägt sind, sind Vereinfachungen notwendig, die der Orientierung dienen. Religion kommt solch eine orientierende Funktion zu. Sie begrenzt ein Übermaß an Möglichkeiten und verhindert die beliebige Veränderung der Auswahl. Die Theorie der rationalen Entscheidung der Religionen entstand in den 1980er Jahren. Als Hauptvertreter gelten Rodney Stark, Laurence R. Iannaccone und Roger Finke. Diese Theorie besagt, dass Akteure ihre Handlungen nutzenorientiert wählen. Annahmen dieser Theorie sind: Der Akteur handelt rational durch Abwägen von Kosten und Nutzen; es gibt stabile Präferenzen, die sich weder von Akteur zu Akteur noch zeitlich stark unterscheiden; soziale Ereignisse sind Ergebnisse von sozialen Interaktionen zwischen den Akteuren. Nicht nur der Akteur in Form des Gläubigen handelt nach dieser Theorie nutzenmaximierend, sondern auch religiöse Organisationen. Sie spezialisieren ihr Angebot von religiösen Gütern, so dass sie möglichst viele Gläubige anziehen. Diese Theorie wird von verschiedenen anderen Religionssoziologen kritisiert, da beispielsweise zentrale Begriffe der Theorie nicht genau definiert seien („Kosten“, „Nutzen“), und es ist strittig, ob kostentheoretisch ausgefeilte Begriffe aus der Betriebswirtschaftslehre auf religiöses Handeln übertragen werden können. Religionswissenschaftliche Ansätze. Die Religionswissenschaft, die eine Vielzahl von Disziplinen wie Religionssoziologie, Religionsphilosophie, Religionsphilologie, Religionsgeschichte u. a. umfasst, untersucht auf empirischer und theoretischer Grundlage Religionen als gesellschaftliche Phänomene. Religionswissenschaftliche Theorien müssen unabhängig von Glaubensannahmen nachvollziehbar und falsifizierbar sein. Seit etwa 100 Jahren als eigenständige Disziplin etabliert, geht sie auf Vorläufer sowohl innerhalb Europas wie auch darüber hinaus (religionsvergleichende Studien in China und der islamischen Welt) zurück. In Abgrenzung zur Theologie gehört zur Religionswissenschaft einerseits die Möglichkeit des Dialoges, aber auch die Option der Religionskritik. Nach Clifford Geertz (1973) ist Religion ein kulturell-geschaffenes Symbolsystem, das versucht, dauerhafte Stimmungen und Motivationen im Menschen zu schaffen, indem es eine allgemeine Seinsordnung formuliert. Diese geschaffenen Vorstellungen werden mit einer überzeugenden Wirkung („Aura von Faktizität“) umgeben, dass diese Stimmungen und Motivationen real erscheinen. Solche „heiligen“ Symbolsysteme haben die Funktion, das Ethos – das heißt das moralische Selbstbewusstsein einer Kultur – mit dem Bild, das diese Kultur von der Realität hat, mit ihren Ordnungsvorstellungen zu verbinden. Die Vorstellung von der Welt wird zum Abbild der tatsächlichen Gegebenheiten einer Lebensform. Die religiösen Symbolsysteme bewirken eine Übereinstimmung zwischen einem bestimmten Lebensstil und einer bestimmten Metaphysik, die einander stützen. Religion stimmt demnach menschliche Handlungen auf eine vorgestellte kosmische Ordnung ab. Die ethischen und ästhetischen Präferenzen der Kultur werden dadurch objektiviert und erscheinen als Notwendigkeit, die von einer bestimmten Struktur der Welt erzeugt wird. Die Glaubensvorstellungen der Religionen bleiben demgemäß nicht auf ihre metaphysischen Zusammenhänge beschränkt, sondern erzeugen Systeme allgemeiner Ideen, mit denen intellektuelle, emotionale oder moralische Erfahrungen sinnvoll ausgedrückt werden können. Da somit eine Übertragbarkeit von Symbolsystem und Kulturprozess vorliegt, bieten Religionen nicht nur Welterklärungsmodelle, sondern gestalten auch soziale und psychologische Prozesse. Durch die unterschiedlichen Religionen wird eine Vielfalt unterschiedlicher Stimmungen und Motivationen erzeugt, so dass es nicht möglich ist, die Bedeutsamkeit von Religion in ethischer oder funktionaler Hinsicht festzulegen. Nach Rüdiger Vaas bieten Religionen die „ultimative Bezogenheit“: das Gefühl der Verbundenheit, Abhängigkeit, Verpflichtung sowie den Glauben an Sinngebung und Bestimmung. Jacques Waardenburg bezeichnet die Definition von Religion als ‚Glauben‘ als ein Produkt westlicher Tradition. Dieser Begriff treffe daher nicht auf die Vorstellungen anderer Kulturen zu und sei für die Beschreibung von Religionen eher ungeeignet. Religionen können nach seiner Auffassung als Bedeutungsgefüge mit darunterliegenden Grundintentionen für Menschen angesehen werden. Ein in der Religionswissenschaft gängiger Umgang mit dem Religionsbegriff ist, Religion als „Offenes Konzept“ zu betrachten, also auf eine Definition des Religionsbegriffes gänzlich zu verzichten. Diese Auffassung wurde besonders von dem Bremer Religionswissenschaftler Hans G. Kippenberg vertreten. Andere Religionswissenschaftler entwickelten das Modell der verschiedenen „Dimensionen“ von Religion. Hier sind vor allem Rodney Stark und Charles Glock zu nennen. Sie unterscheiden die ideologische, die ritualisierte, die intellektuelle Dimension sowie die Dimension der Erfahrung und die handlungspraktische Dimension. Einen ähnlichen Ansatz vertrat der irisch-britische Religionswissenschaftler Ninian Smart: auch er entwarf ein multidimensionales Modell von Religion und unterscheidet dabei sieben Dimensionen: 1. die praktische und rituelle, 2. die erfahrungsmäßige und emotionale, 3. die narrative oder mythische, 4. die doktrinale und philosophische, 5. die ethische und rechtliche, 6. die soziale und institutionale und 7. die materielle Dimension (z. B. sakrale Bauwerke). In jüngster Zeit entwickelt sich ein Dialog zwischen einigen Hirnforschern und Religionswissenschaftlern sowie Theologen, der mitunter als Neurotheologie bezeichnet wird und sich zunehmend auch mit der Suche von Biologen nach einer schlüssigen Theorie zur Evolution der Religionen verschränkt. Naturwissenschaftliche Ansätze. Verschiedene Hirnforscher suchen seit 1970 nach neurologischen Erklärungen für verschiedene Typen religiöser Erfahrungen. Entsprechende Studien wurden etwa publiziert von David M. Wulff, Eugene d’Aquili, C. Daniel Batson, Patricia Schoenrade, W. Larry Ventis, Michael A. Persinger, K. Dewhurst, A. W. Beard, James J. Austin und Andrew Newberg. Evolutionsforscher wie der Biologe Richard Dawkins und die Psychologin Susan Blackmore stellten die Theorie der Meme auf, und versuchten damit das Phänomen Religion zu erfassen. Dawkins bezeichnet 1991 eine Religion als Gruppe von Ideen und Denkmustern, die sich gegenseitig bestärken und gemeinsam auf ihre Verbreitung hinwirken (Memplex). Grundlage dieser Einordnung bildet die Beobachtung, dass durch Religionen Handlungen und Überzeugungen erfolgreich verbreitet werden können, die außerhalb ihres religiösen Kontexts sinnlos scheinen oder im Gegensatz zur objektiven Realität stehen. Voraussetzung zur Verbreitung von religiösen Gedanken ist laut Dawkins die Bereitschaft zur wörtlichen Weitergabe von Glaubenssätzen und zur Befolgung der in ihnen codierten Anweisungen. Er vergleicht diese Vorgänge mit den Mechanismen, durch die Viren einen befallenen Organismus zur Weiterverbreitung ihres eigenen Erbguts anregen. In Analogie zu Computerviren spricht er auch von „Viren des Geistes“. Einige Autoren ziehen aus den in unterschiedlichen Kulturen beobachteten Vorstellungen von übernatürlichen Akteuren auch empirische Rückschlüsse auf zugrunde liegende Verarbeitungsprozesse im menschlichen Gehirn. Nach einer aus völkerkundlichen Untersuchungen abgeleiteten Hypothese postuliert z. B. Pascal Boyer, dass das Gehirn Sinneseindrücke mit Hilfe verschiedener Module verarbeite. Eines dieser Module sei darauf spezialisiert, aus Veränderungen in der Umwelt auf die Anwesenheit von Lebewesen zu schließen. Ein solches „Lebewesenerkennungsmodul“ sollte überempfindlich arbeiten, da es dem Überleben meist dienlicher sei, z. B. einen Windhauch irrtümlich als Raubtier zu interpretieren, als ein tatsächlich vorhandenes zu übersehen. Dadurch könnten im Gehirn aus unklaren Wahrnehmungen leicht Vorstellungen von übernatürlich erscheinenden Akteuren, wie etwa Geistern oder Göttern, entstehen. Auch die Forschungen zur Willensfreiheit bzw. die Annahme einer absoluten Determination des menschlichen Geistes haben Einfluss auf die Erklärungsversuche hinsichtlich religiöser Vorstellungen und Praktiken. Speziell die Religionspsychologie bearbeitet die Frage, ob allgemein eine Korrelation zwischen Religion und Gesundheit bzw. Lebensdauer eines Individuums besteht. Forschungen in den USA belegen mehrheitlich diese These, während europäische Studien eine solche Verknüpfung häufig nicht finden. Die amerikanischen Studien von Newberg und d’Aquili belegen etwa, dass religiöse Menschen gesünder und glücklicher seien, länger lebten und sich schneller von Krankheiten und Operationen erholen würden. Als mögliche Ursache geben sie die sicherheitsstiftende und damit stressmindernde Wirkung der Religion, sowie das Zurechtfinden in einer furchteinflössenden Welt an. B. Clark und R. Lelkes führen zudem eine größere Lebenszufriedenheit an, die durch geringer Aggressionsneigung und höherer Sozialkompetenz entstünde. Phänomene und religionsspezifische Begrifflichkeit. Verschiedene Kriterien und Begriffe zur Beschreibung religiöser Phänomene liegen vor. Viele von ihnen sind allerdings selbst Produkte religiöser Sichtweisen und damit für das Beschreiben religiöser Phänomene auf wissenschaftlicher Grundlage von umstrittenem Wert. So beschreibt beispielsweise „Synkretismus“ die Vermischung religiöser Ideen, bezeichnet jedoch ursprünglich auch das Übersehen logischer Widersprüche und ist als Kampfbegriff verwendet worden. Dennoch gelten sie (vor allem in der Religionsphänomenologie) als zu vergleichenden Zwecken wertvoll. Natürliche Religion. Auf die Philosophen der griechischen Antike Platon und Aristoteles gehen Vorstellungen im Zeitalter der Aufklärung über Natürliche Religion (bzw. Natürliche Theologie) zurück, die als Ursprung der geschichtlichen, mit Fehlern behafteten, Religionen gesehen wurde. Dagegen vertrat u.a. Friedrich Schleiermacher die These, dass es sich dabei um Abstraktionen vorhandener Religionen handelt. Diese Auffassung hat sich in der modernen Religionswissenschaft durchgesetzt. Religion und Glaube. Besonders in der christlich-protestantischen Theologie wird im 20. Jahrhundert nach Karl Barth oft Glaube gegen Religion abgegrenzt. Barth sah Religion als eigenmächtigen Weg des Menschen zu Gott an und betonte, eine Erkenntnis des Willens Gottes gebe es nur im Glauben an Jesus Christus. Das Hören auf das Evangelium sprenge alle menschlichen Begriffe von Gott, alle ethischen Irrwege. Dietrich Bonhoeffer übernahm die Unterscheidung und radikalisierte sie in seiner Frage nach einem Christentum ohne Religion, grenzte sich jedoch von einem „Offenbarungspositivismus“ Barths ab. Gerhard Ebeling betonte ebenfalls die kritische Kraft des Glaubens gegen religiöse Festlegungen und Sicherheiten, sah aber Religion als Lebensbedingung des Glaubens an. Theismus und Atheismus. Die weitgefächerten Bandbreiten des Theismus schließen den Deismus, den Polytheismus, den Pantheismus bzw. Pandeismus und den Panentheismus bzw. Panendeismus mit ein, es werden gleichzeitig Überschneidungen und Abgrenzungen zum Agnostizismus und Atheismus beschrieben. Religionen, deren Anhänger mehrheitlich an die eigene Verpflichtung, nur einem einzigen höchsten Gott ihre Verehrung zu erweisen, glauben, werden als monotheistisch bezeichnet. Damit ist nicht zwingend eine Annahme der Nichtexistenz anderer Götter verbunden, sondern eventuell auch ein Werturteil, eine Unterscheidung zwischen dem einen wahren Gott und den verschiedenen falschen Göttern ("siehe auch:" Schirk im Islam). Solche, die von der Existenz mehrerer Götter ausgehen und ihnen eine Bedeutung für bzw. einen Einfluss auf ihr Leben zugestehen, werden polytheistisch genannt. Vorstellungen, denen zufolge das Göttliche bzw. Gott mit der Gesamtheit der Welt (dem Universum) identisch (und in der Regel nicht persönlich) ist, werden als pantheistisch bezeichnet. Für einige Forscher, z. B. Ray Billington, gelten Religionen wie der Buddhismus, deren tradierte Vorstellungen und Riten im Kern nicht auf ein oder mehrere Götter ausgerichtet sind, in gewissem Sinn als atheistisch. Als Beispiele werden der Jainismus und der Buddhismus angeführt. Die meisten lehnen es jedoch ab, diesen Begriff auf Weltanschauungen anzuwenden, in denen die Frage nach Gott keine Rolle spielt. Kosmologie. Häufig vermitteln Religionen eine Vorstellung, wie die Welt entstanden ist (eine Schöpfungsgeschichte oder Kosmogonie) und ein Bild der letzten Dinge, eine Eschatologie. Dazu gehören auch Antworten auf die Frage, was mit dem Menschen nach dem Tod geschieht. (Siehe auch: Seele.) Viele Religionen postulieren ein Dasein nach dem Tod und machen Aussagen über die Zukunft der Welt. Themen wie Reinkarnation, Nirwana, Ewigkeit, Jenseits, Himmel oder Hölle, und was mit der Welt geschehen wird (Weltuntergang, Apokalypse, Ragnarök, Reich Gottes), sind in vielen Religionen zentral. Religiöse Spezialisten. Die meisten Religionen kennen Personengruppen, die die Religion überliefern, lehren, ihre Rituale ausführen und zwischen Mensch und Gottheit vermitteln. Beispiele sind Seher oder Propheten, Priester, Prediger, Geistliche, Mönche, Nonnen, Magier, Druiden, Medizinmänner oder Schamanen. Manche Religionen sprechen einzelnen dieser Menschen übernatürliche Eigenschaften zu. Der Status dieser Personen variiert stark. Sie können innerhalb einer formellen Organisation tätig oder unabhängig sein, bezahlt oder unentgeltlich, können auf verschiedene Weise legitimiert sein und unterschiedlichsten Verhaltenskodizes unterliegen. In einigen Religionen werden die religiösen Rituale vom Familienoberhaupt durchgeführt oder geleitet. Es gibt auch Religionen ohne spezifisch autorisierten Vermittler zwischen dem Übernatürlichen und dem Menschen. Spiritualität, Frömmigkeit und Rituale. Häufig pflegen Religionen und Konfessionen eine eigene Art von Spiritualität. Spiritualität – ursprünglich ein christlicher Begriff – bezeichnet das geistliche Erleben und den bewussten Bezug zum jeweiligen Glauben im Gegensatz zur Dogmatik, die die festgesetzte Lehre einer Religion darstellt. Im heutigen westlichen Sprachgebrauch wird Spiritualität häufig als seelische Suche nach Gott oder einem anderen transzendenten Bezug betrachtet, ob im Rahmen von spezifischen Religionen oder jenseits davon. Häufig synonym verwendet wird der Begriff der Frömmigkeit, der jedoch heute eher im kirchlichen Kontext verwendet wird und zudem oft eine negative Konnotation im Sinne einer übertrieben bedingungslosen Hinwendung zur Religion hat. In einigen Religionen finden sich Strömungen, deren Anhänger die Begegnung mit der Transzendenz oder dem Göttlichen in mystischen Erfahrungen finden. Zu den religiösen Riten im weiteren Sinne gehören unter anderem Gebet, Meditation, Gottesdienst, religiöse Ekstase, Opfer, Liturgie, Prozessionen und Wallfahrten. Darüber hinaus zählen dazu beispielsweise auch im Alltag gelebte Frömmigkeit wie das Geben von Almosen, Barmherzigkeit oder Askese. Auch einige atheistisch-säkulare Weltanschauungen bedienen sich religiös anmutender Rituale. Beispiele sind die aufwändig inszenierten Aufmärsche und Feiern in sozialistischen oder faschistischen Staaten wie auch die zumindest zeitweilig in ihnen praktizierten (An-)Führerkulte. Die These, dass scheinbar nichtreligiöse Systeme sich religiöser Formen bedienen, wird wissenschaftlich diskutiert ("siehe auch:" Politische Religion, Zivilreligion, Staatsreligion). Schismen und Synkretismen. Vielfach ist es in der Geschichte der Religionen zu Schismen (Spaltungen) gekommen. Neue Religionen entstehen in der Regel durch die Abtrennung einer Gruppe aus einer älteren Religionsgemeinschaft. Der Begriff Synkretismus beschreibt das Vermischen von Praktiken verschiedener Religionen. Es kann sich hierbei um den Versuch handeln, ähnliche Religionen (wieder) zu vereinen oder die Schaffung einer neuen Religion aus unterschiedlichen Vorgängern zu initiieren. Religion und Religiosität. Insbesondere im Deutschen wird zwischen „Religion(en)“ und „Religiosität“ unterschieden. Während "eine Religion" die religiöse Lehre "(→ Dogma)" und die zugehörige Institution bezeichnet, bezieht sich "Religiosität" auf das subjektive religiöse Empfinden (Ehrfurcht vor dem „Großen Ganzen“, transzendente Welterklärung) und Wünschen (Erleuchtung, Religionszugehörigkeit) des Einzelnen. Für Johann Gottfried Herder war Religiosität der Ausdruck für das echte religiöse Gefühl. Im christlichen Kontext wir Religiosität häufig mit Glaube gleichgesetzt. In der deutschen Religionsgeschichte betonten vor allem die Romantik und der Pietismus die innere Haltung des Gläubigen. Der protestantische Theologe Friedrich Schleiermacher etwa schrieb in seiner Schrift "Über die Religion" (1799): „Religion ist nicht Metaphysik und Moral, sondern Anschauen und Gefühl.“ Die Betonung des Gefühls ist auch für die mehr als 100 Jahre später vorgelegte Religionsauffassung des nordamerikanischen Philosophen und Psychologen William James kennzeichnend: In seinem Werk "The varieties of religious experience" (1902) vermeidet der Pragmatiker eine allgemeine Definition des Begriffs Religion. Nach James ist religiöse Wahrheit nichts Übergeordnetes, dem Menschen Entzogenes. Sie zeigt sich vielmehr im Erleben des religiösen Menschen und wird durch das religiöse Gefühl erfahren, das sich durch die Verbindung mit einem religiösen Objekt bildet. Aufgrund der unterschiedlichen Gefühle, die von der Gewissheit der transzendentalen Bedeutung von Wörtern und Wahrnehmungen bis hin zum mystischen Gefühl der Verbundenheit mit dem Kosmos reichen, lassen sich verschiedene Formen von Religiosität beschreiben. Das tiefe religiöse Erleben übersteige einfache Moralvorstellungen. Für James sind erkenntnistheoretische Fragen und solche der Methodik sekundär. Er stützt seine Arbeiten allein auf Beschreibungen und Systematisierung religiöser Gefühle. James’ Werk war bedeutsam für die Entwicklung der frühen Religionswissenschaft Anfang des 20. Jahrhunderts. Während etwa Ernst Troeltsch versuchte, James' Beschreibungen für seine Theorie nutzbar zu machen, wurde James Ansatz von Religionspsychologen wie Wilhelm Wundt und Karl Girgensohn heftig kritisiert. Der evangelische Theologe und Religionsphilosoph Rudolf Otto geht in seinem 1917 veröffentlichten Hauptwerk "Das Heilige" davon aus, dass es eine besondere Anlage (sensus numinis) für das religiöse Gefühl gibt. Habe ein Mensch diese Anlage nur schwach ausgeprägt oder gar nicht, sei dieser als Religionskundler kaum geeignet. Das religiöse Gefühl sei von anderen Empfindungen zu unterscheiden, gleichwohl sei es möglich, Parallelen zum Erleben anderer Gefühle zu ziehen (z. B. ästhetische Gefühle). Otto nennt vier Momente, die für das Erleben des religiösen Gefühls typisch sind: Das Tremendum = Das Schauervolle, Das Majestas = Das Übermächtige, Das Energische = Die Kraft, Der Wille, Das Mysterium = Das „Ganz Andere“. Diese Momente ziehen sich durch die gesamte Religionsgeschichte. Ferner geht er davon aus, dass das religiöse Erleben, das zunächst affekthaft („irrational“) erfahren, nie „begriffen“, wohl aber durch kognitive Prozesse („Rationalisierung“) „versittlicht“ wird. Auch Rudolf Ottos auf Gefühlen beruhendes Konzept des Heiligen hat damals eine lebhafte Diskussion ausgelöst. Während sich der Religionswissenschaftler Gustav Mensching in seiner Toleranzidee der Religionen von Otto anregen ließ, wurde Ottos Theorie von dem Wundt-Schüler Willy Hellpach als parapsychologisch verworfen. Heute spielt Otto in der Religionswissenschaft praktisch keine Rolle mehr. Vorstellungen vom Numinosen werden aber nach wie vor u.a. bedingt durch die tiefenpsychologischen Konzepte von Erik H. Erikson und C. G. Jung in alternativen Richtungen der Psychologie (z. B. transpersonale Psychologie) aufgenommen. Seit der Aufklärung wird – vor allem im westlichen Kulturkreis – zwischen institutionalisierter Religion und persönlicher Haltung zum Transzendenten unterschieden. Hierdurch wird die individuelle Ausformung der Religiosität des Einzelnen begünstigt. Daneben gibt es zunehmend Formen von Religion, die sich nur wenig auf den Lebensstil der Anhänger auswirken, weil diese nur zu bestimmten Gelegenheiten religiöse ‚Dienstleistungen‘ in Anspruch nehmen. Hierzu gehören auch Ansätze, nach denen Gruppen oder Individuen Ideen, Rituale usw. aus Religionen und anderen Weltanschauungen, u. a. esoterischen neu zusammenstellen und auf ihre Bedürfnisse zuschneiden. Dieses eklektizistische Vorgehen wird von Vertretern traditioneller Religionen zuweilen „Patchwork-Religion“ oder „Supermarkt der Weltanschauungen“ genannt. Religion und Ethik. a>en, in welchen ethisches Verhalten festgelegt und über die Schrift weitergegeben wird Zahlreiche alte Religionen hatten den Anspruch, menschliches Zusammenleben durch Gesetze zu regeln. Die meisten Religionen der Gegenwart haben ein ethisches Wertesystem, dessen Einhaltung sie fordern. Dieses System von Wertvorstellungen umfasst Ansichten darüber, was richtig und falsch und was gut und böse ist, wie ein Angehöriger der jeweiligen Religion zu handeln und teilweise, wie er zu denken hat. Dem liegt zumeist eine bestimmte Auffassung über die Welt, die Natur und die Stellung des Menschen zugrunde. Obgleich sich diese Anschauungen historisch wandeln, stehen hinter solchen religiösen Pflichten in fast allen Religionen ähnliche ethische Prinzipien. Diese sollen das konfliktarme Miteinander der Mitglieder der Religionsgemeinschaft regeln, die Gesellschaft und zum Teil die Politik im Sinne der Religion beeinflussen und die Menschen individuell dem jeweiligen religiösen Ziel näher bringen. Zudem bieten sie für den Einzelnen einen moralischen Rahmen, der ihn psychisch und physisch stabilisieren kann, zu individueller und kollektiver Hilfsbereitschaft anhalten oder sogar zu gesellschaftlichen Verbesserungen beitragen kann. Alle Weltreligionen und die meisten kleineren Religionen fordern Barmherzigkeit von ihren Mitgliedern. So ist im Islam z. B. vorgeschrieben, dass jeder einen festen Anteil seines Einkommens für soziale Zwecke spenden soll (Zakat). Im christlich geprägten Mittelalter hat die römisch-katholische Kirche Universitäten und Schulen gegründet, Hospitäler und Waisenhäuser unterhalten und für die Armenspeisung gesorgt. Ein Aspekt von Religion kann der Frieden stiftende sein, der in den meisten Religionen durch besondere Vorschriften über Mitgefühl, Vergebung oder sogar Feindesliebe Ausdruck findet. In einigen Religionen sollen diese moralischen Gesetze der jeweiligen Überlieferung nach direkt dem Religionsstifter von der entsprechenden Gottheit überbracht worden sein und somit höchste Autorität besitzen. (Offenbarungsreligionen). Nach dieser Vorstellung sollen sich auch weltliche Herrscher den jeweiligen ethischen Anforderungen beugen. Gehorsam wird jeweils unter Androhung von diesseitigen oder jenseitigen Strafen gefordert oder als einziger Weg zum Heil dargestellt. Häufig existieren noch weitere Regeln, die nicht direkt vom Stifter der Religion stammen, sondern aus den heiligen Schriften und anderen Tradierungen der jeweiligen Religion abgeleitet werden (z. B. Talmud, Sunna). Einige dieser Normen verloren im Laufe der historischen Entwicklung für viele Gläubige ihren Sinn und wurden in einigen Fällen den sehr unterschiedlichen Wertesystemen der entsprechenden Zeit angepasst. (Vgl. Reformjudentum.) Wie in allen Weltanschauungen gibt es auch in den Religionen einen Widerspruch zwischen theoretischem Anspruch und praktischer Umsetzung. Während Machtmissbrauch und andere Missstände im Mittelalter und der frühen Neuzeit häufig zu Schismen und religiösen Erneuerungsbewegungen führten, haben sie gegenwärtig vielfach eine Abkehr von der Religion insgesamt zur Folge. Parallel zu Reformbestrebungen kommt es aber auch zu fundamentalistischen religiösen Interpretationen und Praktiken, die bis hin zu terroristischen Aktivitäten mit pseudoreligiöser Begründung reichen. Die stärkste Form des Versagens ethischer religiöser Normen stellen Religionskriege und andere Gewalttaten dar, die mit religiösen Auffassungen begründet werden. Dies werten Gläubige zumeist als Missbrauch ihrer Religion, während Religionskritiker von einer allen Religionen immanenten Tendenz zu Fanatismus und Grausamkeit ausgehen. Überdies ist umstritten, ob diese Geschehnisse notwendige Folge von Religionen sind. Die Römisch-Katholische Kirche war für die Inquisition verantwortlich. Verbrechen im Namen der christlichen Religion waren die Kreuzzüge, die Hexenverfolgung, die Judenverfolgung, gewalttätige Formen der Missionierung oder religiös verbrämte, eigentlich politische Gräueltaten, wie die Tötung zahlreicher sogenannter Indios, Angehöriger indigener Völker Südamerikas während der Eroberung und in der Neuzeit teilweise die Unterstützung von Diktaturen und die ambivalente Rolle der Kirchen in der Zeit des Nationalsozialismus. Allerdings fanden sich bei all diesen Ereignissen auch immer wieder Kritiker aus den eigenen Reihen. Der Kirchen- und Religionskritiker Karlheinz Deschner hat in seinem auf zehn Bände angelegten Werk Kriminalgeschichte des Christentums ab 1986 eine Fülle historischen Materials zu diesem Thema ausgewertet und kommentiert. Auch in jüngerer Zeit sind Gewalttaten partiell mit Religion verbunden: So werden seit der Begründung eines Gottesstaates, der "Islamischen Republik Iran", Tausende von Menschen wegen sogenannter „Verbrechen gegen die Religion“ im Rahmen eines Rechtssystems, das auf einer speziellen Interpretation der Scharia beruht, inhaftiert, gefoltert und häufig sogar (medienwirksam öffentlich) hingerichtet. Frauen werden schon wegen einer Nichteinhaltung von Bekleidungsvorschriften bestraft, wegen „moralischer Vergehen“ in seltenen Fällen gesteinigt. Auch die Religionsgemeinschaft der Baha’i (und z. B. Homosexuelle) werden strafrechtlich und von den „Religionswächtern“ verfolgt. In Indien gibt es zunehmend Ausschreitungen von radikalen Hindus, vor allem gegenüber Muslimen. Ethik der abrahamitischen Religionen. Die praktizierte Ethik im Judentum, Christentum und im Islam unterscheidet sich unter anderem dadurch, ob die jeweilige Religion mit einem weiten individuellen Denk- und Handlungsspielraum, traditionell oder fundamentalistisch ausgelegt wird. Auch innerhalb der einzelnen Religionen gibt es unterschiedliche Schulen, welche die jeweilige Morallehre verschieden interpretieren und anwenden. So gibt es z. B. im Christentum Strömungen, die das Alte Testament aufgrund der darin sehr gewalttätig wirkenden Gottheit gering schätzen. Die drei bedeutendsten Offenbarungsreligionen verbindet in ihren ethischen Systemen der Gedanke an eine Endzeit, allerdings ist das Judentum weniger jenseitsbezogen als die beiden anderen Religionen. Dieses lineare Verständnis von Zeit bedeutet, dass die Gläubigen im Diesseits nach den von ihrer Gottheit geforderten Regeln leben, um den Lohn dafür in einer späteren Zeit zu erhalten, wobei Gott auch im Diesseits schon wirken kann. Allerdings wird im Protestantismus zumeist die göttliche Gnade für ausschlaggebend gehalten, auch unabhängig von der Befolgung moralischer Postulate. Judentum und Islam haben mehr Rechtscharakter und ein umfassenderes System von rituellen Ge- und Verboten als das Christentum, was sich z. B. im hebräischen Wort für Religion, Tora (Gesetz), widerspiegelt. Ähnlich wie im Hinduismus gibt es genaue Anweisungen, wie die Handlungsweisen in der Gruppe sein sollen. In den christlichen Religionen sind heute, anders als im Römisch-Katholischen Mittelalter, u. a. durch Interpretationen biblischer Überlieferungen von Aussagen ihres Stifters, neuplatonische Einflüsse und Auswirkungen der Aufklärung in vielen Strömungen weniger rituelle Ge- und Verbote vorgegeben. Jüdische Ethik. Grundlegend für die jüdische Ethik sind die Thora, der Hauptteil der hebräischen Bibel, der Talmud – besonders die in ihm enthaltenen Pirkej Avot sowie die Halacha, ein seit 1500 Jahren stetig weiterentwickeltes Korpus von rabbinischen Aussagen. Auch heute noch wird die jüdische Ethik durch Äußerungen von Rabbinern der verschiedenen Richtungen des Judentums weiterentwickelt. Zentral für die jüdische Ethik ist eine Stelle über die Nächstenliebe aus Levitikus (3. Buch Mose) 19, 18, die in deutscher Übersetzung etwa lautet: „Liebe deinen Nächsten, denn er ist wie du“. Weite Teile des Talmuds und auch vieles in der Tora sind Erläuterungen zur konkreten Umsetzung dieser Nächstenliebe. Die jüdische Ethik ist ein zentraler Teil der jüdischen Philosophie. Insgesamt lässt sich keine allgemeine „jüdische Auffassung“ zu zeitgebundenen ethischen Fragen erkennen. Sehr unterschiedliche Antworten auf solche Fragen finden sich im Ultraorthodoxen Judentum, Orthodoxen Judentum, Konservativen Judentum, Jüdischen Rekonstruktivismus und Liberalen Judentum. Christliche Ethik. Die christlichen Hauptrichtungen (Orthodoxe, Römisch-katholische und Protestantische Kirche) – wie auch andere christliche Gemeinschaften – fordern, dass der christliche Glaube mit einer moralischen Lebensführung verbunden wird. Dabei ist die Bandbreite dessen, was jeweils darunter zu fassen ist, auch innerhalb einer christlichen Religionsgemeinschaft bzw. Kirche häufig sehr groß. In der Theologie wird zwischen theoretischer Ethik und ihrer Umsetzung unterschieden. Es gibt gewisse Überschneidungen mit der biblischen Ethik, jedoch ist das Feld der christlichen Ethik weiter gefasst. In der christlichen Ethik existieren vorrangig zwei theoretische Positionen: der christlich teleologische Ansatz und der deontologische, d. h. die Pflichtenlehre, wobei häufig beide mit unterschiedlicher Gewichtung miteinander verbunden werden. Die Teleologie erörtert die Frage nach dem Sinn und Zweck, z. B. nach dem „Guten“, „Wahren“ oder nach dem „Ende“, das Christen erstreben sollen (in einigen christlichen Konzepten ist dies die „Vereinigung mit Gott“), während die christliche Deontologie Moral als Pflicht begreift, Gesetze oder andere religiöse Verordnungen zu erfüllen, vor allem die aus dem alttestamentlich-jüdischen Glauben übernommenen Zehn Gebote. Islamische Ethik. Die Ethik im Islam ist ähnlich wie im Judentum sehr stark an Gebote für fast alle Lebensbereiche gebunden. Der Koran gibt genaue Anweisungen für die Handlungen des Einzelnen in der Gruppe. Wichtig für den Islam ist eine kollektive Verantwortung für Gut und Böse. Dies wird beispielsweise in der Anweisung "Das Rechte gebieten und das Verwerfliche verbieten" deutlich. In Folge besteht die Möglichkeit einer unumschränkten Befehlsgewalt der Gemeinschaft (siehe auch Hisbah). Der Islam geht in seinen Hauptrichtungen Sunniten und Schiiten von der Prädestination (Vorherbestimmung) aus, die dem Individuum nur begrenzten Handlungsspielraum zugesteht. In fundamentalistisch ausgerichteten Staaten hat die Scharia als islamisches Recht eine wesentliche Bedeutung. Ethik (fern)östlicher Religionen. In den Religionen indischen Ursprungs wie dem Buddhismus, Hinduismus, Sikhismus und Jainismus besteht eine direkte Verbindung zwischen dem ethischen bzw. unethischen Verhalten einer Person und dessen Rückwirkungen im gegenwärtigen Leben und in künftigen Leben (Reinkarnation) bzw. in einer künftigen jenseitigen Existenz. Dieser Zusammenhang ergibt sich nicht indirekt durch das Eingreifen einer richtenden, belohnenden und strafenden göttlichen Instanz, sondern wird als naturgesetzlich aufgefasst. Eine Tat gilt als unweigerlich mit ihrer positiven oder negativen Auswirkung auf den Handelnden verknüpft (Karma-Konzept). Daher werden die ethischen Regeln an einer angenommenen universalen Gesetzmäßigkeit bzw. einem Weltprinzip ausgerichtet, das im Hinduismus, Buddhismus und Jainismus Dharma genannt wird. Aus diesem Prinzip werden detaillierte ethische Anweisungen abgeleitet. Von den Anhängern der Religionsgemeinschaften wird erwartet, die Gesetzmäßigkeiten des Daseins zu erkennen und entsprechend zu handeln. In manchen Fällen sanktioniert die Gemeinschaft Verstöße gegen die Regeln, doch weit wichtiger sind für das Individuum die angenommenen negativen Konsequenzen von Übeltaten in einer künftigen diesseitigen oder jenseitigen Existenzform. Buddhafigur aus Indien – viele Religionen kennen die verehrende Verwendung religionsspezifischer Gegenstände Gemeinsam ist diesen Religionen der Ansatz, den mentalen Ursachen unerwünschter Handlungen konsequent nachzuforschen, um sie in einem möglichst frühen Stadium beeinflussen zu können. Eine zentrale Rolle spielt in der Ethik dieser Religionen die Auseinandersetzung mit der Gewaltfrage. Gemeinsam ist ihnen ein grundsätzliches Bekenntnis zum Ideal der Gewaltlosigkeit (Ahimsa, „Nicht-Gewalt“). Da kein prinzipieller Unterschied zwischen dem Menschen und anderen Lebensformen gemacht wird, erstreckt sich die Forderung der Gewaltlosigkeit auch auf den Umgang mit Tieren und zumindest theoretisch sogar mit Pflanzen. Eine konsequente Umsetzung des Gewaltlosigkeitsideals scheitert jedoch an dem Erfordernis, das eigene Überleben auf Kosten anderer Lebensformen zu sichern und gegen Angriffe zu verteidigen. Daraus ergibt sich die Notwendigkeit von Konzessionen und Kompromissen, die in den einzelnen Religionen bzw. Strömungen unterschiedlich ausfallen. Die Frage nach der Zulässigkeit defensiver Gewalt und nach ihrer Legitimierung im Einzelfall wurde und wird kontrovers diskutiert. Sehr unterschiedlich ist auch die Umsetzung in der Praxis der Religionsanhänger. Entgegen einem im Westen verbreiteten Irrtum verbietet weder der Hinduismus noch der Buddhismus oder der Jainismus die Anwendung militärischer Gewalt unter allen Umständen. Daher sind Kriege, die von Anhängern dieser Religionen geführt wurden und werden, nicht notwendigerweise Verstöße gegen religiöse Pflichten. Außerdem gelten in allen Gemeinschaften für Mönche und Nonnen weit strengere Ethikmaßstäbe als für Laienanhänger. Eine andersartige Position nimmt der in China entstandene Daoismus ein. Er nimmt mit dem Dao zwar auch ein universales Weltprinzip an, aber das heilige Buch Daodejing, betont, dass die Weltordnung hinsichtlich des ethischen oder unethischen Verhaltens der Individuen indifferent sei. „Himmel und Erde“ belohnen weder gute Taten noch bestrafen sie schlechte, das Dao richtet sich nicht nach menschlichen Vorstellungen von Gut und Böse. Ethisches Verhalten ergibt sich aus der Sicht des Daoismus nicht aus Tugendlehren, wie sie der Konfuzianismus vertritt, sondern unmittelbar aus einem spontanen Impuls des autonomen Individuums, das seiner eigenen Natur folgt, soweit es nicht von außen daran gehindert wird. Trotzdem gibt es im späteren religiösen Daoismus auch ethische Lehren. Der Alchemist Ge Hong beispielsweise vertrat konfuzianische Tugenden und der Quanzhen-Daoismus übernahm eine buddhistische Ethik für Mönche und Nonnen. Desgleichen sind die Priester des Daoismus, die Daoshi, angehalten, die Reinheit von Denken und Glauben zu praktizieren und ein integres Leben zu führen. Der Daoismus missbilligt Kriegführung, verwirft sie aber nicht absolut im Sinne eines radikalen Pazifismus. Ethik traditioneller indigener Kulturen. Auch indigene Kulturen weisen verschiedenste Moralsysteme auf, welche die Gemeinschaft schützen sollen. Da nur durch ein funktionierendes Sozialbewusstsein das Überleben der Gruppe gesichert werden kann, bildet die Übung prosozialen Verhaltens den Schwerpunkt mündlich weitergegebener Überlieferungen. Häufiger als in komplexeren Kulturen werden unmittelbare übernatürliche Konsequenzen von Regelverstößen erwartet. Religion und Recht. So wie Religion ethische Urteile beeinflusst, so beeinflussen religiöse Überzeugungen auch das Rechtssystem. Beispielsweise stellte der Bundesgerichtshof in einem Gutachten von 1953 fest, dass die Familie „von Gott gestiftet“ sei. Im gleichen Gutachten erklärte das Gericht den Mann kraft Schöpfung zum Oberhaupt der Familie und die Frau zuständig für die Kinder. Die Rechtsprechung wurde dadurch direkt durch religiöse Überzeugungen bestimmt. Auch wenn der Einfluss der Religion auf das Recht durch die Säkularisierung in den meisten westlichen Ländern weitgehend reduziert wurde, so ist die Rechtsprechung in vielen traditionelleren Gesellschaften immer noch massiv von religiösen Werten bestimmt. Ein prominentes Beispiel ist die Scharia in muslimischen Ländern. Religion und Kunst. Zahlreiche Kunstformen hatten zunächst eine religiöse Hauptbestimmung und verselbstständigten sich erst danach. Klassisches Beispiel ist das abendländische Theater, das aus dem antiken athenischen Dionysos-Kult hervorgegangen ist. Religionen haben oftmals einen zentralen Einfluss auf die Kulturproduktion einer Gesellschaft und die Entwicklung der bildenden, darstellenden und angewandten Künste ausgeübt. Wie weit dieser Einfluss sich tatsächlich auf die künstlerische Arbeit auswirkt, hängt stark von dem Wertesystem und bestimmten theologischen Konzepten der jeweiligen Religion ab. In der Bildverehrung wird das oftmals künstlerisch ausgestaltete Abbild religiöser Szenen oder Motive zu einem wesentlichen Bestandteil des religiösen Ritus und führt mitunter zu der Ausbildung spezifischer künstlerischer Traditionen. Ebenso wirkt die Ausgestaltung von Sakralbauten und Kultgegenständen (wie Reliquiaren oder sakralem Gerät) auf die Entwicklung architektonischer und handwerklicher Traditionen ein, die später mitunter in die säkulare Kunst übernommen werden. In vielen Religionen waren und werden den Künsten zugleich thematische oder formale Restriktionen auferlegt. Dies kann daraus abgeleitet werden, dass bestimmte Kunstformen – vor allem der bildenden und der darstellenden Kunst – als zu weltlich empfunden werden, aber auch aus spezifischen theologischen Konzepten, am strengsten im Bilderverbot mancher Religionen; dies kam nicht selten der Ausbildung des Ornaments und der Kalligrafie zugute. Kunstwerke können sogar als blasphemisch verteufelt werden. Die Ablehnung bekämpfter religiöser Anschauungen führte zum Beispiel zum byzantinischen Ikonoklasmus, zum Reformatorischen Bildersturm oder zur Sprengung der Buddha-Statuen von Bamiyan durch die Taliban. Seit in der Neuzeit in vielen Gesellschaften die Kunst weitgehend als autonom betrachtet wird und Kunstwerke gemäß der Kunstfreiheit behandelt werden, kommt es immer wieder zu Fällen, in denen Werke durch die Vertreter einer Religion als anstößig empfunden und zu symbolischen Auslösern gesellschaftlicher oder sogar politischer Konflikte werden. Einzelnachweise. A. Karl R. Wernhart: "Ethnische Religionen – Universale Elemente des Religiösen." Topos, Kevelaer 2004, ISBN 3-7867-8545-7. Rhodium. Rhodium ist ein chemisches Element mit dem Elementsymbol Rh und der Ordnungszahl 45. Es ist ein silberweißes, hartes, unreaktives Übergangsmetall. Im Periodensystem zählt es zusammen mit Cobalt, Iridium und Meitnerium zur 9. Gruppe oder Cobaltgruppe. Rhodium besitzt große Ähnlichkeit zu anderen Platinmetallen wie Platin oder Palladium. Dies betrifft beispielsweise die für Edelmetalle charakteristische geringe Reaktivität und eine hohe katalytische Aktivität. Rhodium wird daher, oft in Form von Legierungen, vorwiegend als Katalysator eingesetzt. Als wichtiger Bestandteil von Fahrzeugkatalysatoren wird es zur Reduktion von Stickoxiden eingesetzt. Auch in industriellen Prozessen zur Herstellung einiger chemischen Grundstoffe, wie dem Ostwald-Verfahren zur Salpetersäure-Produktion, werden Rhodiumkatalysatoren genutzt. Da das Metall in der Natur sehr selten vorkommt und gleichzeitig eine breite Anwendung findet, zählt es zu den teuersten Metallen überhaupt. Im menschlichen Körper kommt Rhodium normalerweise nicht vor, eine biologische Bedeutung ist nicht bekannt. Geschichte. Rhodium wurde 1803 von William Hyde Wollaston in einem aus Südamerika stammenden Rohplatinerz entdeckt. Im gleichen Erz wurden von Wollaston und Smithson Tennant drei weitere Platinmetalle, Palladium, Iridium und Osmium, entdeckt. Dazu lösten sie das Erz zunächst in Königswasser. Es bildete sich eine lösliche Fraktion und ein schwarzer Rückstand, in dem Tennant Osmium und Iridium fand. Wollaston fällte aus der Königswasserlösung Rhodium und einige weitere Bestandteile mit Zinkpulver. Nach der Abtrennung von Kupfer und Blei mit verdünnter Salpetersäure, erneutem Lösen in Königswasser und Zugabe von Natriumchlorid bildete sich Na3[RhCl6] · n H2O, das beim Verdunsten der Flüssigkeit als rosarotes Salz zurückblieb. Aus diesem konnte Wollaston durch Extraktion mit Ethanol und Reduktion mit Zink das elementare Rhodium gewinnen. Der Name wurde von Wollaston nach dem griechischen "rhodeos" („rosenrot“) gewählt, da viele Rhodiumverbindungen diese Farbe zeigen. Die erste Anwendung des neuen Metalls war ab 1820 Spitzen von Schreibfedern, für die Rhodium-Zinn-Legierungen eingesetzt wurden. Diese wurden später jedoch durch härtere Osmium-Iridium-Legierungen abgelöst. Vorkommen. Rhodium ist nach Rhenium zusammen mit Ruthenium und Iridium eines der seltensten nicht radioaktiven Metalle in der kontinentalen Erdkruste. Sein Anteil beträgt nur 1 ppb. Rhodium kommt in der Natur gediegen vor und ist daher als eigenständiges Mineral anerkannt. Fundorte sind unter anderem die Typlokalität Stillwater in Montana und Goodnews Bay in Alaska. Rhodium ist unter anderem mit anderen Platinmetallen und Gold vergesellschaftet. Neben dem elementaren Rhodium sind auch einige Rhodiumminerale wie Bowieit, Genkinit oder Miassit bekannt. Diese sind jedoch wie das elementare Rhodium sehr selten und spielen für die Gewinnung keine Rolle. Die wichtigsten Vorkommen des Elements liegen in sulfidischen Nickel-Kupfer-Erzen, die vor allem in Südafrika, Sudbury (Kanada) und Sibirien vorkommen. Auch in mexikanischen Goldlagerstätten kommt Rhodium in nennenswerter Menge vor. Rhodium fällt zusammen mit den anderen Platinmetallen beim Verarbeiten dieser Erze an und muss anschließend von diesen getrennt werden. Gewinnung und Darstellung. Die Gewinnung von Rhodium ist wie die der anderen Platinmetalle sehr aufwendig. Dies liegt vor allem an der Ähnlichkeit und geringen Reaktivität der Platinmetalle, wodurch sie sich schwer trennen lassen. Ausgangsstoff für die Gewinnung von Rhodium ist Anodenschlamm, der bei der Kupfer- und Nickelproduktion als Nebenprodukt bei der Elektrolyse anfällt. Dieser wird zunächst in Königswasser gelöst. Dabei gehen Gold, Platin und Palladium in Lösung, während Ruthenium, Osmium, Rhodium und Iridium sowie Silber als Silberchlorid ungelöst zurückbleiben. Das Silberchlorid wird durch Erhitzen mit Bleicarbonat und Salpetersäure in lösliches Silbernitrat umgewandelt und so abgetrennt. Um das Rhodium von den anderen Elementen abzutrennen, wird der Rückstand mit Natriumhydrogensulfat geschmolzen. Dabei bildet sich wasserlösliches Rhodiumsulfat Rh2(SO4)3, das mit Wasser ausgelaugt werden kann. Das gelöste Rhodium wird zunächst mit Natriumhydroxid als Rhodiumhydroxid Rh(OH)3 gefällt. Die folgenden Reaktionsschritte sind das Lösen in Salzsäure als H3[RhCl6] und die Fällung mit Natriumnitrit und Ammoniumchlorid als (NH4)3[Rh(NO2)6]. Um elementares Rhodium zu erhalten, wird aus dem Rückstand durch Digerieren mit Salzsäure der lösliche (NH4)3[RhCl6]-Komplex gebildet. Nachdem das Wasser durch Verdampfen entfernt wurde, kann das Rhodium mithilfe von Wasserstoff zum Metallpulver reduziert werden. Rhodiumisotope entstehen als Nebenprodukte bei der Kernspaltung von 235U und können aus abgebrannten Brennelementen extrahiert werden. Aufgrund der Radioaktivität gibt es jedoch noch keine kommerzielle Anwendung des so erhaltenen Rhodiums. Rhodium wird nur in geringem Umfang gewonnen, 2005 betrug die Produktion 23,5 Tonnen. 83,2 % der Gesamtproduktion fanden in Südafrika statt. Das zweitgrößte Produktionsland war Russland (11,9 %), gefolgt von Kanada und Simbabwe. Da der Verbrauch durch erhöhte Nachfrage in der Schmuckindustrie gestiegen ist und 2005 mit 25,3 Tonnen über der Produktion lag, ist der Preis stark gestiegen. So lag der Rhodiumpreis 2003 noch bei etwa 475 Dollar (entsprach 2003 etwa 420 Euro) pro Feinunze (etwa 31,1 Gramm), im Juni 2008 zählte es mit einem Preis von über 9700 US-Dollar (etwa 6230 Euro) pro Feinunze zu den teuersten Metallen überhaupt, fiel danach jedoch schnell auf einen Preis von unter 1000 Dollar im Dezember 2008. Der Preis erholte sich vorerst, so kostete Rhodium am 6. Dezember 2011 wieder 1675 Dollar. Bis zum 4. Januar 2013 sank der Preis allerdings wieder auf 1.130 Dollar. Eigenschaften. Ein Rhodiumstück von 78 g. Physikalische Eigenschaften. Kristallstruktur von Rh, a = 380,4 pm Rhodium ist ein silberweißes, hochschmelzendes, hartes Edelmetall. Es ist härter als Gold oder Platin, ist jedoch zäh und dehnbar und lässt sich durch Hämmern bearbeiten. In den meisten Eigenschaften ist es mit den anderen Platinmetallen vergleichbar. So liegt der Schmelzpunkt des Rhodiums von 1966 °C zwischen demjenigen von Platin (1772 °C) und Ruthenium (2334 °C). Die Dichte des Elements von 12,41 g/cm3 ist vergleichbar mit denen der benachbarten Elemente Ruthenium und Palladium. Rhodium besitzt die höchste Wärme- und elektrische Leitfähigkeit aller Platinmetalle. Unterhalb von 0,9 Kelvin wird Rhodium zum Supraleiter. Rhodium kristallisiert wie Cobalt und Iridium in einer kubisch-dichtesten Kugelpackung (Kupfer-Typ) in der mit dem Gitterparameter a = 380,4 pm sowie vier Formeleinheiten pro Elementarzelle. Chemische Eigenschaften. Als typisches Edelmetall ist Rhodium sehr reaktionsträge. Nach Iridium ist es das am wenigsten reaktive Platinmetall. Es reagiert mit Sauerstoff und Chlor erst bei Temperaturen von 600 bis 700 °C zu Rhodium(III)-oxid beziehungsweise Rhodium(III)-chlorid. Auch das reaktivste Halogen Fluor reagiert nur in der Hitze zu Rhodium(VI)-fluorid. Von Mineralsäuren wird das Metall nicht angegriffen. Eine Ausnahme ist feinstverteiltes Rhodium, das sich sehr langsam in Königswasser und konzentrierter Schwefelsäure löst. Das Metall reagiert mit einigen Salzschmelzen und lässt sich so aufschließen. Salze, die dies vermögen, sind Natriumhydrogensulfat, Kaliumdisulfat, Cyanide und Natriumcarbonat. Sauerstoff löst sich in flüssigem Rhodium. Beim Erkalten der Schmelze wird dieser unter Spratzen wieder abgegeben. Isotope. Es sind insgesamt 33 Isotope sowie weitere 20 Kernisomere des Rhodiums bekannt. Natürliches Rhodium besteht zu 100 % aus dem Isotop 103Rh, das Element ist somit eines von 22 Reinelementen. Die langlebigsten künstlichen Isotope sind 101Rh, das mit einer Halbwertszeit von 3,3 Jahren unter Elektroneneinfang zu 101Ru zerfällt, sowie 102"m"Rh, das mit einer Halbwertszeit von 3,742 Jahren überwiegend unter Aussendung von Positronen zu 102Ru zerfällt. Zu einem geringen Teil geht der metastabile Kern auch unter Isomerieübergang in 102Rh über. Eine Anwendung als Tracer hat der mit einer Halbwertszeit von 35,88 Stunden kurzlebige Kern 105Rh gefunden. "→ Liste der Rhodium-Isotope" Verwendung. Wie andere Platinmetalle wirkt Rhodium in vielen Prozessen katalytisch. Sowohl das Metall, als auch seine Verbindungen und Legierungen mit anderen Platinmetallen werden daher dementsprechend eingesetzt. Daneben existieren weitere rhodiumspezifische Anwendungsmöglichkeiten, die Verwendung ist jedoch durch den hohen Preis begrenzt. Die wichtigsten Anwendungsbereiche des Rhodiums sind Fahrzeugkatalysatoren. Es dient darin als Katalysator zur Reduktion von Stickstoffmonoxid zu elementarem Stickstoff. Würde stattdessen Platin oder Palladium eingesetzt, würden verstärkt Ammoniak und Distickstoffmonoxid entstehen. Ein Teil des Rhodiums wird in Katalysatoren zur Salpetersäureherstellung verwendet. Im sogenannten Ostwald-Verfahren werden zur katalytischen Ammoniakverbrennung zu Stickstoffmonoxid Netze eingesetzt, die aus einer Platin-Rhodiumlegierung mit etwa 10 % Rhodium bestehen. Durch den Einsatz von Rhodium erhöht sich die Haltbarkeit und Ausbeute im Vergleich zu reinem Platin. Auch im Andrussow-Verfahren zur Blausäure-Herstellung wird eine Rhodium-Platin-Legierung als Katalysator eingesetzt. Metallisches Rhodium kann als Beschichtung eingesetzt werden. Mit Rhodium beschichtete Flächen besitzen ein hohes Reflexionsvermögen und sind daher als hochwertige Spiegel geeignet. Gleichzeitig sind diese Beschichtungen sehr hart und chemisch stabil. Auch als Überzug für Schmuck, Brillengestelle oder Uhren wird Rhodium verwendet. Es verhindert das Anlaufen des verwendeten Metalls. Dies ist vor allem bei Schmuck aus Silber oder Weißgold wichtig. Der Vorgang des Überziehens wird Rhodinieren genannt. Weitere mögliche Anwendungen sind hochbeanspruchte Laborgeräte, Heizspiralen oder Thermoelemente, die aus Platin-Rhodium-Legierungen gefertigt werden. Seit Edelmetalle wieder international in den Fokus von Finanzanlegern gekommen sind, gibt es auch physische Rhodium-Anlageprodukte. Aufgrund des späteren Einsatzes in der Industrie nach dem Rückkauf wird Rhodium meist in Pulverform angeboten. Seit 2012 ist "Anlage-Rhodium" auch in Barren-Form erhältlich. Sicherheitshinweise. Kompaktes Rhodium ist auf Grund der geringen Reaktivität ungefährlich, als feinverteiltes Pulver dagegen ist es leicht entzündlich und brennbar. Da brennendes Rhodium mit Wasser reagiert, dürfen zur Löschung nur Metallbrandlöscher (Klasse D) eingesetzt werden. Wegen einiger Hinweise auf eine karzinogene Wirkung werden Rhodium und seine Verbindungen in die Kanzerogenitäts-Kategorie 3b eingeordnet. Wie andere Schwermetallionen sind gelöste Rhodiumionen in hohen Konzentrationen toxisch. In einer Untersuchung mit Lungenepithelzellen wurde ein LC50-Wert von 1,2 mmol · l−1 für Rhodium(III)-ionen ermittelt. Verbindungen. Rhodium bildet Verbindungen in den Oxidationsstufen von −I bis +VI. Die stabilste Stufe ist +III, höhere kommen vor allem in Verbindungen mit Fluor, niedrigere in Komplexen mit Liganden wie Kohlenstoffmonoxid, Cyanid oder Phosphanen vor. Einige Rhodium-Verbindungen, beispielsweise Rhodium(II)-carboxykomplexe, werden untersucht, ob sie sich zur Behandlung von Krebs eignen. Die Verbindungen sind dabei, wie die des Platins auch, sehr oft nierentoxisch. Komplexe. Einige Rhodiumkomplexe werden in technisch wichtigen Synthesen organischer Chemikalien als Katalysator eingesetzt. Dazu zählt der Wilkinson-Katalysator, ein quadratisch-planarer Rhodiumkomplex mit drei Triphenylphosphan (PPh3)- und einem Chlorid- Liganden. Eine Reaktion, die dieser Komplex katalysiert, ist die Hydrierung von Alkenen mit Wasserstoff. Es ist auch möglich, die Liganden durch chirale Gruppen zu ersetzen und so eine asymmetrische Hydrierung zu erreichen. Dies wird unter anderem für die Synthese der Aminosäure L-DOPA genutzt. Eine weitere wichtige Reaktion, bei der der Wilkinson-Katalysator eingesetzt wird, ist die Hydroformylierung. Dabei werden aus Alkenen, Kohlenstoffmonoxid und Wasserstoff Aldehyde dargestellt. Ein weiterer Rhodiumkomplex wird zur Herstellung von Essigsäure eingesetzt. Im Monsanto-Prozess wird "cis"-[(CO)2RhI2]−, ein quadratisch-planarer Komplex mit zwei Kohlenstoffmonoxid- und zwei Iodid-Liganden eingesetzt. Halogenverbindungen. Mit den Halogenen Fluor, Chlor, Brom und Iod sind eine Reihe Verbindungen bekannt. Während Chlor, Brom und Iod nur Verbindungen in der Oxidationsstufe +III bilden, sind die Fluoride Rhodium(IV)-fluorid, Rhodium(V)-fluorid und Rhodium(VI)-fluorid bekannt. Die wichtigste Rhodium-Halogenverbindung ist Rhodium(III)-chlorid, die als Katalysator bei Reduktionen, Polymerisationen oder Isomerisierungen eingesetzt werden kann. Weitere Verbindungen. Es sind insgesamt drei Rhodiumoxide, Rhodium(III)-oxid Rh2O3, Rhodium(IV)-oxid RhO2 und Rhodium(VI)-oxid RhO3 bekannt. Letzteres ist allerdings nur in der Gasphase zwischen 850 °C und 1050 °C stabil. Rhodium(III)-oxid entsteht in wasserfreier Form durch Verbrennung aus den Elementen bei 600 °C. Erhitzt man dieses unter erhöhtem Sauerstoffdruck weiter, entsteht Rhodium(IV)-oxid. Rhodiumsulfat Rh2(SO4)3 ist ein Zwischenprodukt bei der Rhodiumproduktion. Daneben wird es als Rohstoff für die galvanische Beschichtung von Oberflächen, beispielsweise bei Schmuckwaren, verwendet. Rhodium(II)-acetat wird in der Organischen Chemie als Katalysator verwendet. Es bildet mit Diazoverbindungen, die eine benachbarte Carbonylgruppe besitzen, Carbene. Aus den Carbenen können unter anderem Cyclopropane dargestellt werden. Auch für die Gewinnung von Yliden und für Insertionsreaktionen können Rhodium-Carbene eingesetzt werden. Ruthenium. Ruthenium (v. „Ruthenien“, „Russland“) ist ein chemisches Element mit dem Elementsymbol Ru und der Ordnungszahl 44. Es zählt zu den Übergangsmetallen, im Periodensystem steht es in der 5. Periode und der Gruppe 8 (früher Teil der 8. Nebengruppe) oder auch Eisengruppe. Es ist ein silberweißes, hartes und sprödes Platinmetall. Ruthenium wurde 1844 vom deutsch-baltischen Chemiker Karl Ernst Claus in sibirischen Platinerzen entdeckt. Es ist sehr selten und wird nur in geringen Mengen genutzt. Die Hauptanwendungsgebiete des Metalls liegen in der Elektronikindustrie beim Perpendicular Recording, einem Datenspeicherverfahren für Festplatten, und als Katalysator in verschiedenen chemischen Verfahren wie Hydrierungen, Methanisierung oder bei der Ammoniaksynthese. Einige Rutheniumverbindungen, z. B. die Grubbs-Katalysatoren, spielen ebenfalls eine Rolle in chemischen Synthesen. Ruthenium besitzt keine bekannten biologischen Funktionen, jedoch werden einige Komplexe des Metalls hinsichtlich ihrer Wirkung als Mittel gegen Krebs erforscht. Geschichte. Nachdem zwischen 1803 und 1804 kurz hintereinander die vier Platinmetalle Palladium, Rhodium, Iridium und Osmium von William Hyde Wollaston und Smithson Tennant in Platinerzen entdeckt wurden, versuchten andere Chemiker ebenfalls, aus derartigen Erzen bislang unbekannte Elemente zu isolieren. Zunächst meldete der polnische Chemiker Jędrzej Śniadecki 1808, dass er im Jahr zuvor in seltenen südamerikanischen Platinerzen ein neues Element entdeckt habe. Er nannte dieses nach dem kurz zuvor entdeckten Asteroiden Vesta Vestium. Nachdem diese Entdeckung von anderen Chemikern jedoch nicht verifiziert werden konnte, wurde die Entdeckung wieder verworfen. Nach der Entdeckung großer Platinerzlagerstätten im Ural 1819 begannen Jöns Jakob Berzelius in Stockholm und Gottfried Osann in Tartu diese zu untersuchen. Dabei erhielt Osann 1828 zunächst ein unbekanntes weißes Oxid, dessen Eigenschaften zu keinem anderen Oxid passten, und nach Reduktion ein unbekanntes goldgelbes Metall. Dieses nannte er nach dem Herkunftsland des Erzes Russland "Ruthenium". Nachdem jedoch Berzelius diese Entdeckung nicht bestätigen konnte, wiederholte Osann seine Arbeiten, konnte aber die Isolierung des Rutheniums nicht wiederholen und zog daraufhin seine Entdeckung zurück. Der deutsch-baltische Chemiker Karl Ernst Claus versuchte seit 1841 an der Universität Kasan, Osanns Experimente zu wiederholen und unbekannte Elemente aus Platinerzen zu extrahieren. Dies gelang ihm schließlich 1844, als er sechs Gramm eines unbekannten hellgrauen Metalls gewinnen konnte. Er nannte das neue Element wie Osann ebenfalls Ruthenium. Ebenso wie Osann bat Claus Berzelius, die Experimente zu überprüfen und das neue Element zu bestätigen. Da dieser 1845 die Ergebnisse bestätigen konnte, gilt seitdem Claus als Entdecker des Rutheniums. Vorkommen. Ruthenium zählt zu den seltensten nicht-radioaktiven Elementen auf der Erde. Seine Häufigkeit beträgt etwa 1 ppb und ist vergleichbar mit der von Rhodium, Iridium oder Rhenium. Es ist meist mit anderen Platinmetallen vergesellschaftet, so beträgt der Anteil des Rutheniums in der wichtigsten Platinmetalllagerstätte, dem südafrikanischen Bushveld-Komplex, zwischen acht und zwölf Prozent. Wie andere Platinmetalle kommt es gediegen in der Natur vor und ist darum von der IMA als Mineral mit der System-Nr. 1.AF.05 (Klasse: "Elemente", Abteilung: "Metalle und intermetallische Verbindungen", Unterabteilung: "Platingruppen-Elemente") anerkannt. Seine Typlokalität, in der das Mineral 1974 erstmals von Y. Urashima, T. Wakabayashi, T. Masaki und Y. Terasaki gefunden wurde, liegt am Fluss Uryū auf der japanischen Insel Hokkaidō. Neben dieser sind weitere 21 Fundorte elementaren Rutheniums bekannt. Zu diesen zählen unter anderem Nischni Tagil und der Miass-Fluss in Russland, der Yuba River in Kalifornien oder der Bushveld-Complex in Südafrika. Neben elementarem Ruthenium sind auch verschiedene rutheniumhaltige Minerale bekannt. Bei den 13 zurzeit bekannten (Stand: 2010) handelt es sich um Legierungen mit anderen Platinmetallen wie Rutheniridosmin, Sulfide wie Laurit (RuS2) oder Arsenide wie Ruthenarsenit (Ru,Ni)As. Gewinnung und Darstellung. Durch die Ähnlichkeiten und geringe Reaktivität der Platinmetalle ist eine Trennung dieser Elemente kompliziert. Es existieren mehrere Möglichkeiten, Ruthenium zu isolieren. Enthält ein Erz eine hohe Rutheniumkonzentration, erfolgt die Abtrennung des Rutheniums am besten zuerst und wird durch Destillation erreicht. Dazu wird eine drei- oder sechswertiges Ruthenium enthaltende Lösung mit Oxidationsmitteln wie Chlor, Chloraten oder Kaliumpermanganat versetzt. Durch dieses wird das Ruthenium zum leicht flüchtigen Ruthenium(VIII)-oxid oxidiert. Dieses kann in verdünnter Salzsäure aufgefangen und zu wasserlöslichen Chlororuthenat-Komplexen reduziert werden. Der Grund für dieses Vorgehen sind die Gefahren, die durch die Bildung von Ruthenium(VIII)-oxid während der Trennung bestehen. So können durch Reaktion von Ruthenium(VIII)-oxid mit Ammoniumsalzen explosive Stickstoff-Chlor-Verbindungen entstehen. Sind nur geringe Mengen Ruthenium im Ausgangsmaterial enthalten, werden zunächst die übrigen Platinmetalle abgetrennt. Dazu gibt es für die verschiedenen Metalle unterschiedliche Verfahren, insbesondere die Extraktion mit geeigneten Lösungsmitteln oder das Ausfällen der schwerlöslichen Salze. Schließlich bleibt das gelöste Ruthenium übrig. Die Lösung wird von vorhandenem Ammonium befreit, das Ruthenium zu Ruthenium(VIII)-oxid oxidiert und durch Destillation abgetrennt. Um metallisches Ruthenium zu erhalten, wird es entweder als Ammoniumhexachlororuthenat oder als Ruthenium(IV)-oxid ausgefällt und bei 800 °C in einer Wasserstoffatmosphäre reduziert. Neben Platinerzen ist auch der Anodenschlamm, der bei der Nickelproduktion anfällt, ein wichtiger Rohstoff für die Gewinnung von Ruthenium und den anderen Platinmetallen. Eine weitere mögliche Quelle für Ruthenium sind abgebrannte Brennelemente, da bei der Kernspaltung auch Ruthenium und andere Platinmetalle entstehen. Eine Tonne dieser Brennelemente enthält über zwei Kilogramm Ruthenium, aber auch andere Platinmetalle wie Rhodium oder Palladium. Die Weltproduktion an Ruthenium liegt im Bereich von ca. 20 t pro Jahr (Stand 2008). Physikalische Eigenschaften. Ruthenium ist ein silberweißes, hartes und sprödes Metall. Mit einer Dichte von 12,37 g/cm3 ist es nach Palladium das zweitleichteste Platinmetall. Ruthenium schmilzt bei 2606 K und siedet bei etwa 4592 K, lediglich Iridium und Osmium besitzen unter den Platinmetallen höhere Schmelz- und Siedepunkte. Unterhalb von 0,49 K wird das Element zum Supraleiter. Ebenso wie Osmium kristallisiert Ruthenium in einer hexagonal-dichtesten Kugelpackung in der mit den Gitterparametern "a" = 270,6 pm und "c" = 428,1 pm sowie zwei Formeleinheiten pro Elementarzelle. Mitunter werden vier verschiedene polymorphe Formen des Rutheniums angegeben, in die sich das Metall beim Erhitzen auf Temperaturen von 1308, 1473 und 1770 K umwandelt. Diese beruhen jedoch auf kalorimetrischen Messungen aus dem Jahr 1931, die in der Folgezeit nicht bestätigt werden konnten. Daher ist es wahrscheinlich, dass das Element bis zum Schmelzpunkt lediglich eine Modifikation besitzt. Chemische Eigenschaften. Innerhalb der Eisengruppe besitzt Ruthenium ähnliche Eigenschaften wie das Osmium, während es sich von denen des Eisens deutlich unterscheidet. Es ist wie andere Platinmetalle und im Gegensatz zum Eisen ein reaktionsträges Edelmetall. Mit dem Sauerstoff der Luft reagiert es erst bei Temperaturen über 700 °C und bildet dabei Ruthenium(VIII)-oxid. Hierbei unterscheidet es sich auch vom Osmium, das schon bei Raumtemperatur beim Kontakt mit Sauerstoff in Spuren das entsprechende Osmium(VIII)-oxid bildet. Auch mit Fluor und Chlor reagiert Ruthenium erst in der Hitze und bildet dabei Ruthenium(VI)-fluorid beziehungsweise Ruthenium(III)-chlorid. Das Metall löst sich nicht in Säuren wie z. B. Flusssäure, Schwefelsäure, Salpetersäure oder auch Königswasser. Angegriffen wird es dagegen langsam von wässrigen Chlor- und Bromlösungen, schnell von Cyanidlösungen und von Quecksilber(II)-chlorid. Starke Oxidationsmittel wie Kaliumhydroxid-Kaliumnitrat- oder Natriumhydroxid-Natriumperoxid-Schmelzen oxidieren Ruthenium schnell. Isotope. Es sind insgesamt 33 Isotope und weitere sechs Kernisomere des Rutheniums zwischen 87Ru und 120Ru bekannt. Von diesen sind sieben stabil und kommen auch in der Natur vor. Am häufigsten ist dabei das Isotop 102Ru mit einem Anteil von 31,6 % an der natürlichen Isotopenzusammensetzung. Vier Isotope, 104Ru, 101Ru, 100Ru und 99Ru sind mit Anteilen zwischen 12–19 % ähnlich häufig. Die seltensten der stabilen Isotope sind 96Ru und 98Ru mit Anteilen von 5,52 beziehungsweise 1,88 %. Von den instabilen Isotopen besitzen lediglich 97Ru, 103Ru und 106Ru Halbwertszeiten von einigen Tagen; die der anderen liegen im Bereich von Millisekunden bis Stunden. Rutheniumisotope, vor allem 101Ru, 102Ru und 104Ru entstehen bei der Kernspaltung und sind daher in abgebrannten Brennelementen vorhanden. Eine Tonne bei der Kernspaltung eingesetztes Uran enthält als Spaltprodukt etwa 1,9 Kilogramm Ruthenium. Dieses kann bei der Wiederaufarbeitung durch Oxidation zu flüchtigem Ruthenium(VIII)-oxid aus dem in Salpetersäure gelösten Gemisch abgetrennt werden. Da dieses Ruthenium aber auch einen Anteil des radioaktiven und mit einer Halbwertszeit von 373 Tagen relativ langlebigen Isotopes 106Ru enthält, kann es nicht direkt für andere Zwecke eingesetzt werden. Verwendung. Ruthenium wird nur in geringem Maß genutzt. Der größte Teil des Metalls wird dabei in der Elektronikindustrie verwendet. Hier spielt seit dem Jahr 2006 vor allem das Perpendicular Recording eine Rolle, ein Verfahren zur Speicherung von Daten auf Festplatten, bei dem eine dünne Schicht Ruthenium die Speicherschicht aus einer Cobalt-Chrom-Platin-Legierung von einer weichmagnetischen Unterschicht trennt. Der Grund dafür, dass Ruthenium genutzt wird, liegt in seiner hexagonalen Kristallstruktur, die eine ähnliche Gitterkonstante wie die verwendete Speicherschicht-Legierung besitzt. Dünne Rutheniumschichten werden in elektrischen Kontakten wie Schleifringen oder Reed-Relais eingesetzt. Sie sind im Vergleich zu anderen einsetzbaren Metallen wie cobalt-gehärtetem Gold härter und damit beständiger gegen Abrieb. Wie andere Platinmetalle wirkt auch Ruthenium katalytisch. So kann es etwa zur Hydrierung von Aromaten, Säuren und Ketonen verwendet werden. Ruthenium wirkt auch katalytisch bei der Methanisierung, der Herstellung von Methan aus Wasserstoff und Kohlenstoffmonoxid bzw. Kohlenstoffdioxid. Ruthenium hat bislang jedoch nur geringe Anwendungen für die Methanisierung gefunden, meist werden Nickel-Katalysatoren genutzt. Die zur Methanisierung mit Ruthenium benötigten niedrigeren Temperaturen könnten für Langzeit-Weltraummissionen interessant sein, da das von den Astronauten ausgeatmete Kohlenstoffdioxid umgesetzt und so der Sauerstoffkreislauf geschlossen werden könnte. Analog zu Eisen und Osmium katalysiert auch Ruthenium die Ammoniak-Synthese aus Stickstoff und Wasserstoff. Es besitzt eine höhere Katalysatoraktivität als Eisen und ermöglicht so eine höhere Ausbeute bei niedrigeren Drücken. Der Einsatz des Metalls ist vor allem durch den Preis limitiert. Industriell eingesetzt wird ein Rutheniumkatalysator, der auf einer Kohlenstoffmatrix geträgert und durch Barium und Caesium als Promotoren verbessert wurde, seit 1998 in zwei Produktionsanlagen von KBR auf Trinidad. Da die langsame Methanisierung des Kohlenstoffträgers beim Prozessablauf stört, wird an kohlenstofffreien Rutheniumkatalysatoren für die Ammoniaksynthese geforscht. In kleinen Mengen wird Ruthenium in Legierungen von Palladium oder Platin zur Erhöhung der Härte eingesetzt. Rutheniumhaltige Legierungen werden unter anderem für Federspitzen von Füllfederhaltern oder für Zahnfüllungen gebraucht. Titanlegierungen werden durch geringe Mengen an Ruthenium (0,1 %) korrosionsbeständiger, was für Anwendungen in der chemischen Industrie oder der Ölförderung wichtig ist. Es ist dabei eine mögliche Alternative zu Palladium. Auch in Superlegierungen auf Nickelbasis, die für Turbinenschaufeln verwendet werden, kann Ruthenium ein Legierungsbestandteil sein, es bewirkt hier eine erhöhte Phasenstabilität. Ein großer Teil des Rutheniums wird nicht in Form des Metalls, sondern als Verbindung, vor allem als Ruthenium(IV)-oxid eingesetzt, das unter anderem als Material für Widerstände und Elektroden, beispielsweise für die Beschichtung von Titananoden in der Chloralkali-Elektrolyse. Biologische Bedeutung. Da dreiwertiges Ruthenium relativ inaktiv ist, während zweiwertiges eine starke tumorhemmende Wirkung zeigt, sollte es möglich sein, dreiwertiges Ruthenium in einem Tumor zum zweiwertigen zu reduzieren und so zu aktivieren. Damit wäre eine selektivere Wirkung als bei anderen Zytostatika möglich. Bisher ist noch kein Arzneimittel auf der Basis von Ruthenium zugelassen. Neben der Verwendung in der antineoplastischen Chemotherapie werden auch Anwendungen von Rutheniumverbindungen als Immunsuppressivum, Antibiotikum und antimikrobielle Substanz, beispielsweise zur Bekämpfung von Malaria oder der Chagas-Krankheit, untersucht. Vorsichtsmaßnahmen. Ruthenium ist als Metall ungiftig. Im Gegensatz zu Osmium bildet sich auch das giftige und leicht flüchtige Tetraoxid nicht durch Reaktion mit Sauerstoff bei Raumtemperatur, sondern nur bei der Reaktion mit starken Oxidationsmitteln. In Pulverform ist Ruthenium brennbar, bei Bränden darf nicht mit Wasser, sondern nur mit Löschpulver oder Metallbrandlöschern gelöscht werden. Verbindungen. Ruthenium bildet Verbindungen in den Oxidationsstufen −2 bis +8, die stabilsten und häufigsten sind dabei +3 und +4. Es zählt damit zusammen mit Osmium und Xenon zu den Elementen, bei denen die höchste Oxidationsstufe +8 chemisch erreicht werden kann. Sauerstoffverbindungen. Ruthenium bildet mit Sauerstoff drei binäre Oxide, Ruthenium(VIII)-oxid, Ruthenium(VI)-oxid und Ruthenium(IV)-oxid. Dazu sind noch Ruthenium(III)-oxid, dieses jedoch nur als Hydrat, und verschiedene Ruthenate, Salze deren Anion eine Ruthenium-Sauerstoffverbindung ist, bekannt. Ruthenium(VIII)-oxid ist, wie Osmium(VIII)-oxid, eine gelbe, leicht flüchtige und giftige Verbindung, die durch Reaktion von Ruthenium oder dessen Verbindungen mit starken Oxidationsmitteln gewonnen wird und die als starkes Oxidationsmittel und für die Abtrennung von Ruthenium von anderen Platinmetallen von Bedeutung ist. Während Ruthenium(VI)-oxid nur in der Gasphase bekannt ist, ist Ruthenium(IV)-oxid ein stabiles, in der Rutilstruktur kristallisierendes Salz, das unter anderem in Widerständen verwendet wird und zur Beschichtung von Elektroden dient. Im Gegensatz zu Osmium ist vom Ruthenium kein achtwertiges Ruthenat bekannt, in wässrigen Lösungen entsteht bei Reaktion mit starken Oxidationsmitteln ein siebenwertiges, dem Permanganat entsprechendes Perruthenat. Dieses wirkt ebenfalls als Oxidationsmittel, ist jedoch milder und damit selektiver als Ruthenium(VIII)-oxid oder Osmium(VIII)-oxid. So werden primäre Alkohole durch Perruthenate nicht zu Carbonsäuren, sondern nur zu Aldehyden oxidiert. Häufig wird es in organischen Synthesen in Form von Tetrapropylammoniumperruthenat (TPAP) eingesetzt. Es wird dabei zu vierwertigem Ruthenium reduziert. Komplexe. Vom Ruthenium sind zahlreiche Komplexverbindungen sowohl mit anorganischen als auch organischen Liganden bekannt. Diese können in sehr unterschiedlichen Oxidationsstufen von −2 bis +8 vorliegen. In mittleren Stufen, wie +2, +3 und +4, sind auch nichtklassische Komplexe synthetisiert worden, die Metallcluster mit Ruthenium-Ruthenium-Bindungen enthalten. Einige Rutheniumkomplexe haben Anwendung als Katalysatoren in verschiedenen organischen Synthesen gefunden. So ist Ruthenium das Zentralmetall in den Komplexen der Grubbs-Katalysatoren, die zu den wichtigsten Katalysatoren für die Olefinmetathese zählen. Ein weiterer, in der organischen Synthese bedeutender Komplex ist der Noyori-Katalysator, ein Ruthenium-Chlor-BINAP-Komplex, der eine effiziente asymmetrische Hydrierung von β-Keto-Estern ermöglicht. Rutheniumkomplexe sind in der Lage, Polymerisationen zu katalysieren. Neben der auf der Metathese beruhenden Ringöffnungspolymerisation (ROMP) können auch lebende freie radikalische Polymerisationen durch Rutheniumkomplexe ermöglicht werden. Ein Beispiel hierfür ist die Polymerisation von Methylmethacrylat mit RuCl2(PPh3)3 als Katalysator. Zu den bekanntesten Rutheniumkomplexen zählt der Ammin-Komplex Rutheniumrot, der in der Histologie als Färbemittel sowie als Redoxindikator und zur Untersuchung von Textilfasern verwendet wird. Weitere Rutheniumverbindungen. Mit den Halogenen Fluor, Chlor, Brom und Iod bildet Ruthenium eine Reihe von Verbindungen. Am stabilsten sind dabei die dreiwertigen Rutheniumhalogenide, diese sind auch von allen Halogenen bekannt. In höheren Oxidationsstufen sind lediglich die Fluoride bis zum Ruthenium(VI)-fluorid sowie das instabile Ruthenium(IV)-chlorid bekannt. Die wichtigste dieser Verbindungen ist Ruthenium(III)-chlorid, die ein Ausgangsstoff für die Synthese vieler anderer Rutheniumverbindungen ist. Einen Überblick über Rutheniumverbindungen bietet die. Rhenium. Rhenium ist ein chemisches Element mit dem Elementsymbol Re und der Ordnungszahl 75. Im Periodensystem der Elemente steht es in der 7. Nebengruppe (Gruppe 7) oder Mangangruppe. Es ist ein sehr seltenes, silberweiß glänzendes, schweres Übergangsmetall. Legierungen mit Rheniumanteilen finden Verwendung in Flugzeugtriebwerken, beim Herstellen von bleifreiem Benzin und in Thermoelementen. Biologische Funktionen des Rheniums sind nicht bekannt, es kommt normalerweise nicht im menschlichen Organismus vor. Ebenso sind keine toxischen Effekte des Metalls bekannt, es gilt als arbeitshygienisch unbedenklich. Geschichte. Die Existenz des späteren Rheniums wurde erstmals 1871 von Dmitri Iwanowitsch Mendelejew als Dwi-Mangan vorhergesagt. Er schloss aus den Gesetzmäßigkeiten des von ihm entworfenem Periodensystems, dass unterhalb des Mangans zwei noch unbekannte Elemente, die späteren Technetium und Rhenium, stehen müssten. Entdeckt wurde Rhenium erst 1925 von Walter Noddack, Ida Tacke und Otto Berg. Sie untersuchten Columbit, um die gesuchten Elemente Eka- und Dwi-Mangan zu finden. Da die gesuchten Elemente in den Proben nur in sehr geringem Maße enthalten waren, mussten sie durch Abtrennen der anderen Bestandteile angereichert werden. Schließlich konnte das spätere Rhenium durch Röntgenspektroskopie nachgewiesen werden. Noddack und Tacke behaupteten auch, sehr geringe Mengen des Eka-Mangans (später Technetium) gefunden zu haben, jedoch konnte dies nicht durch Darstellung des Elements bestätigt werden. Sie nannten die Elemente nach ihren Heimatgegenden Rhenium (lat. "Rhenus" für Rhein) und "Masurium" (von Masuren). Letzterer setze sich jedoch nach der Entdeckung des Technetiums 1937 nicht durch. 1928 konnten Noddack und Tacke erstmals ein Gramm Rhenium aus 660 Kilogramm Molybdänerz extrahieren. Wegen der hohen Kosten begann die Herstellung nennenswerter Mengen erst ab 1950, als ein größerer Bedarf für neuentwickelte Wolfram-Rhenium- und Molybdän-Rhenium-Legierungen bestand. Vorkommen. Rhenium ist mit einem Anteil von nur 0,7 ppb in der kontinentalen Erdkruste seltener als Rhodium, Ruthenium und Iridium. Es kommt nicht gediegen, sondern ausschließlich gebunden in einigen Erzen vor. Da Rhenium ähnliche Eigenschaften wie Molybdän besitzt, wird es vor allem in Molybdänerzen wie Molybdänglanz MoS2 gefunden. In diesen kann bis zu 0,2 % Rhenium enthalten sein. Weitere rheniumhaltige Minerale sind Columbit (Fe, Mn)[NbO3], Gadolinit Y2 Fe Be [O|SiO4]2 und Alvit ZrSiO4. Auch im Mansfelder Kupferschiefer ist in geringen Mengen Rhenium enthalten. Die größten Vorkommen an rheniumhaltigen Erzen liegen in den Vereinigten Staaten, Kanada und Chile. Bisher wurde erst ein Rheniummineral, das Rheniit (Rhenium(IV)-sulfid, ReS2) entdeckt. Der Fundort lag in einer Fumarole am Gipfelkrater des Vulkans Kudrjawyj (russisch: Кудрявый) auf der Insel Iturup, die zu den Kurilen (Russland) gehört. Gewinnung und Darstellung. Der Grundstoff für die Gewinnung von Rhenium sind Molybdänerze, insbesondere Molybdänglanz. Werden diese im Zuge der Molybdängewinnung geröstet, reichert sich Rhenium als flüchtiges Rhenium(VII)-oxid in der Flugasche an. Dieses kann mit ammoniakhaltigem Wasser zu Ammoniumperrhenat (NH4ReO4) umgesetzt werden. Das Ammoniumperrhenat wird anschließend bei hohen Temperaturen mit Wasserstoff zu elementarem Rhenium reduziert. Die Hauptproduzenten waren 2006 Chile, Kasachstan und die Vereinigten Staaten, die Gesamtmenge an produziertem Rhenium belief sich auf etwa 45 Tonnen. 2013 betrug die Gesamtmenge des produzierten Rheniums 48,9 Tonnen; Hauptproduzenten waren Chile (25 t), Polen (7,5 t), die Vereinigten Staaten (7,1 t) sowie Usbekistan (5,5 t). Der USGS gibt als Preis für Rhenium 4.720 USD je kg im Jahre 2010 und 3.160 USD je kg für 2013 an. Physikalische Eigenschaften. Kristallstruktur von Re, "a" = 276,1 pm, "c" = 445,8 pm Rhenium ist ein weißglänzendes hartes Schwermetall, das äußerlich Palladium und Platin ähnelt. Es kristallisiert in einer hexagonal-dichtesten Kugelpackung in der mit den Gitterparametern "a" = 276,1 pm und "c" = 445,8 pm sowie zwei Formeleinheiten pro Elementarzelle. Die Dichte des Rheniums 21,03 g/cm3 wird nur von den drei Platinmetallen Osmium, Iridium und Platin übertroffen. Rhenium hat mit 3186 °C einen der höchsten Schmelzpunkte aller Elemente. Es wird nur noch von dem höchstschmelzenden Metall Wolfram (3422 °C) und Kohlenstoff übertroffen. Der Siedepunkt ist mit 5596 °C jedoch der höchste aller Metalle und übertrifft Wolfram (Siedepunkt 5555 °C) um 41 K. Unterhalb von 1,7 K wird Rhenium zum Supraleiter. Rhenium lässt sich gut durch Schmieden und Verschweißen verarbeiten, da es duktil ist und dies im Gegensatz zu Wolfram oder Molybdän auch nach Rekristallisation bleibt. Beim Schweißen von Rhenium tritt keine Versprödung auf, die zu einer höheren Sprödigkeit und damit schlechteren Materialeigenschaften führen würde. Die Aktivität von Rhenium ist 1,0 MBq/kg. Chemische Eigenschaften. Obwohl Rhenium mit einem negativen Standardpotential nicht zu den Edelmetallen zählt, ist es bei Raumtemperatur unreaktiv und gegenüber Luft stabil. Erst beim Erhitzen reagiert es ab 400 °C mit Sauerstoff zu Rhenium(VII)-oxid. Auch mit den Nichtmetallen Fluor, Chlor und Schwefel reagiert es beim Erhitzen. In nichtoxidierenden Säuren, wie Salzsäure oder Flusssäure, ist Rhenium nicht löslich. Dagegen lösen die oxidierenden Schwefel- und Salpetersäure Rhenium leicht auf. Mit Oxidationsschmelzen bilden sich leicht farblose Perrhenate(VII) der Form ReO4− oder grüne Rhenate(VI) des Typs ReO42−. Rhenium ist als Pulver ein entzündbarer Feststoff. Er kann durch kurzzeitige Einwirkung einer Zündquelle leicht entzündet werden und brennt nach deren Entfernung weiter. Die Entzündungsgefahr ist umso größer, je feiner der Stoff verteilt ist. Das feuchte Pulver wird schon bei Raumtemperatur allmählich unter Bildung von Perrheniumsäure oxidiert. Isotope. Es sind insgesamt 34 Isotope und weiter 20 Kernisomere des Rheniums bekannt. Von diesen kommen zwei, die Isotope 185Re und 187Re, natürlich vor. 185Re, das mit einem Anteil von 37,40 % an der natürlichen Isotopenverteilung vorkommt, ist das einzige stabile Isotop. Das mit einem Anteil von 62,60 % häufigere 187Re ist schwach radioaktiv. Es zerfällt unter Betazerfall mit einer Halbwertszeit von 4,12 · 1010 Jahren zu 187Os, was zu einer spezifischen Aktivität von 1020 Becquerel/Gramm führt. Rhenium ist damit neben Indium eines der wenigen Elemente, die zwar ein stabiles Isotop haben, in der Natur jedoch am häufigsten in ihrer radioaktiven Form vorkommen. Beide Isotope sind mit Hilfe der Kernspinresonanzspektroskopie nachweisbar. Von den künstlichen Isotopen werden 186Re und 188Re als Tracer verwendet. Als hauptsächlicher Beta-Strahler wird 186Re in der Nuklearmedizin zur Therapie bei der Radiosynoviorthese eingesetzt. 188Re dient als radioaktives Arzneimittel in der Tumortherapie. Der Zerfall von 187Re zu 187Os wird als "Rhenium-Osmium-Methode" in der Geologie zur isotopischen Altersbestimmung von Gesteinen oder Mineralen benutzt. Dabei wird zur Korrektur des schon vorher vorhandenen Osmiums die Isochronenmethode verwendet. "→ Liste der Rhenium-Isotope" Verwendung. Rhenium wird meist nicht elementar verwendet, sondern als Beimischung in einer Vielzahl von Legierungen eingesetzt. Etwa 70 % des Rheniums wird als Zusatz in Nickel-Superlegierungen genutzt. Ein Zusatz von 4 bis 6 % Rhenium bewirkt eine Verbesserung des Kriech- und Ermüdungsverhaltens bei hohen Temperaturen. Diese Legierungen werden als Turbinenschaufeln für Flugzeugtriebwerke eingesetzt. Weitere 20 % der produzierten Rheniummenge wird für Platin-Rhenium-Katalysatoren verwendet. Diese spielen eine große Rolle bei der Erhöhung der Oktanzahl von bleifreiem Benzin durch Reformieren („Rheniforming“). Der Vorteil des Rheniums liegt darin, dass es im Vergleich mit reinem Platin nicht so schnell durch Kohlenstoffablagerungen auf der Oberfläche des Katalysators („Coking“) deaktiviert wird. Dadurch ist es möglich, die Produktion bei niedrigeren Temperaturen und Drücken durchzuführen und so wirtschaftlicher zu produzieren. Auch andere Kohlenwasserstoffe, wie Benzol, Toluol und Xylol lassen sich mit Platin-Rhenium-Katalysatoren herstellen. Thermoelemente für die Temperaturmessung bei hohen Temperaturen (bis 2200 °C) werden aus Platin-Rhenium-Legierungen gefertigt. Auch als Legierung mit anderen Metallen, wie Eisen, Cobalt, Wolfram, Molybdän oder Edelmetallen verbessert Rhenium die Beständigkeit gegenüber Hitze und chemischen Einflüssen. Die Anwendung ist jedoch durch die Seltenheit und den hohen Preis des Rheniums beschränkt. In einigen Spezialanwendungen wird ebenfalls Rhenium verwendet, beispielsweise für Glühkathoden in Massenspektrometern oder Kontakte in elektrischen Schaltern. Nachweis. Es gibt mehrere Möglichkeiten, Rhenium nachzuweisen. Eine Möglichkeit sind spektroskopische Methoden. Rhenium besitzt eine fahlgrüne Flammenfärbung mit charakteristischen Spektrallinien bei 346 und 488,9 nm. Gravimetrisch ist Rhenium über die charakteristisch kristallisierende Perrheniumsäure oder verschiedene Perrhenat-Salze, etwa Tetraphenylarsonium-perrhenat, nachweisbar. Auch moderne analytische Methoden wie Massenspektrometrie oder Kernresonanzspektroskopie sind für den Nachweis des Elements geeignet. Sicherheitshinweise. Wie viele Metalle ist Rhenium in Pulverform leichtentzündlich und brennbar. Zum Löschen darf wegen des entstehenden Wasserstoffes kein Wasser verwendet werden. Stattdessen sind als Löschmittel Löschpulver oder Metallbrandlöscher zu verwenden. Kompaktes Rhenium ist dagegen nicht brennbar und ungefährlich. Rhenium hat keine bekannte biologische Bedeutung für den menschlichen Organismus. Obwohl über die Toxizität von Rhenium nichts Genaueres bekannt ist und keine Toxizitätswerte existieren, gilt Rhenium arbeitshygienisch als unbedenklich. Verbindungen. Rhenium bildet eine große Zahl an Verbindungen; wie bei Mangan und Technetium sind Verbindungen in den Oxidationsstufen von −III bis +VII bekannt. Im Gegensatz zu Mangan sind jedoch Verbindungen in den hohen Oxidationsstufen beständiger als in den niedrigeren. Oxide. Kristallstruktur von Rhenium(VI)-oxid in der, "a" = 374,8 pm Es sind insgesamt fünf Oxide des Rheniums bekannt, das gelbe Re2O7, rotes ReO3, Re2O5, braunschwarzes ReO2 und Re2O3. Rhenium(VII)-oxid Re2O7 ist das stabilste Rheniumoxid. Es ist ein Zwischenprodukt bei der Rheniumgewinnung und kann als Ausgangsverbindung für die Synthese anderer Rheniumverbindungen wie Methyltrioxorhenium genutzt werden. In Wasser löst es sich unter Bildung der stabilen Perrheniumsäure HReO4. Rhenium(VI)-oxid ReO3 hat eine charakteristische Kristallstruktur, die als Kristallstrukturtyp (Rheniumtrioxid-Typ) dient. Halogenide. Es sind insgesamt 13 Verbindungen des Rheniums mit den Halogenen Fluor, Chlor, Brom und Iod bekannt. Dabei reagiert Rhenium bevorzugt zu Hexahalogeniden des Typs ReX6. So entstehen blaßgelbes Rhenium(VI)-fluorid ReF6 und grünes Rhenium(VI)-chlorid ReCl6 direkt aus den Elementen bei 125 °C bzw. 600 °C. Reaktion von Rhenium mit Fluor unter leichtem Druck bei 400 °C führt zu hellgelbem Rhenium(VII)-fluorid, neben Osmium(VII)-fluorid und Iod(VII)-fluorid das einzige bekannte Halogenid in der Oxidationsstufe +VII. Rotbraunes Rhenium(V)-chlorid (ReCl5)2 besitzt eine dimere, oktaedrische Struktur. Chlorierung von ReO2 mit Thionylchlorid liefert ein schwarzes, polymeres Chlorid Re2Cl9, das aus Ketten von dimeren Re-Cl-Clustern besteht, die über Chloratome verbrückt sind. Werden höhere Rheniumchloride thermisch bei über 550 °C zersetzt, bildet sich dunkelrotes, trimeres Rhenium(III)-chlorid Re3Cl9. Strukturell bestehen dessen Moleküle aus Dreiecksmetallclustern, wobei die Re-Re-Abstände von 248 pm Doppelbindungscharakter der Metall-Metall-Bindungen beweisen. Die Halogenide sind wasserempfindlich und reagieren mit Wasser zu Halogenoxiden oder Oxiden. Weitere Rheniumverbindungen. Das schwarze Rhenium(VII)-sulfid Re2S7 entsteht aus Perrhenatlösungen durch Einleiten von Schwefelwasserstoff. Thermische Zersetzung ergibt ebenfalls schwarzes Rhenium(IV)-sulfid ReS2, das auch direkt aus den Elementen zugänglich ist. Rhenium bildet eine Vielzahl von Komplexen. Es sind sowohl klassische Komplexe mit einzelnen Metallzentren, als auch Metallcluster bekannt. Bei diesen liegen Rhenium-Rhenium-Mehrfachbindungen teilweise auch in Form von Dreifach- oder Vierfachbindungen vor. Eine Vierfachbindung existiert etwa im Re2X82−-Komplexion (X ist dabei ein Halogenatom oder eine Methylgruppe). Auch metallorganische Verbindungen des Rheniums sind bekannt. Eine wichtige organische Rheniumverbindung ist Methylrheniumtrioxid (MTO), die als Katalysator für Metathesereaktionen, zur Epoxidierung von Olefinen sowie zur Olefinierung von Aldehyden eingesetzt werden kann. MTO und andere Rheniumkatalysatoren für die Metathese sind besonders beständig gegenüber Katalysatorgiften. Radium. Radium (‚Strahl‘, wegen seiner Radioaktivität, wie auch Radon) ist ein chemisches Element mit dem Elementsymbol Ra und der Ordnungszahl 88. Im Periodensystem steht es in der 2. Hauptgruppe, bzw. der 2. IUPAC-Gruppe und zählt damit zu den Erdalkalimetallen. Geschichte. Die selbstleuchtenden Punkte an den Zahlen und auf den Zeigern dieser Uhr enthalten Radium Radium wurde am 21. Dezember 1898 in Frankreich von der polnischen Physikerin Marie Curie und ihrem Ehemann, dem französischen Physiker Pierre Curie, in der Pechblende aus dem böhmischen St. Joachimsthal entdeckt. Wegweisend war dabei der Befund, dass gereinigtes Uran (als Metallsalz) nur einen geringen Bruchteil der Radioaktivität des ursprünglichen Uranerzes aufwies. Stattdessen fand sich der größte Teil der Radioaktivität des Erzes in der Bariumsulfat-Fällung wieder. Für das abgetrennte Element wurde dann die ausgeprägte Strahlungseigenschaft zur Namensgebung herangezogen. Gefährlichkeit von Radium für Menschen. Radiumverbindungen galten zunächst als relativ harmlos oder gar gesundheitsfördernd und wurden in den Vereinigten Staaten und Europa als Medikament gegen eine Vielzahl von Leiden beworben (z. B. als Krebsmittel) oder als Zusatz in Produkten verarbeitet, die im Dunkeln leuchteten. Die Verarbeitung geschah ohne jegliche Schutzvorkehrungen. Noch bis Mitte der 1930er Jahre wurden Kosmetika und Genussmittel beworben, die Radium enthielten. Nach der Gründung des Radiumbades Sankt Joachimsthal in Böhmen 1906 kam es unmittelbar vor dem Ersten Weltkrieg aufgrund einer vermuteten Heilwirkung von Radium zu einem Aufblühen der Radiumbäder in Deutschland. Während bereits vor dem Krieg Bad Kreuznach damit warb, stärkstes Radiumsolbad zu sein, waren es nach dem Krieg neben St. Joachimsthal, Oberschlema vor allem Bad Brambach. Letztere beiden Orte behaupteten von sich, stärkstes Radium- bzw. Radiummineralbad der Welt zu sein. Wobei zu beachten ist, dass in den Heilquellen vor allem Radon, Radium hingegen nur in geringen Spuren vorkam. Korrekterweise hätten sich diese Bäder „Radonbad“ nennen müssen. In den 1920er Jahren erkannte man die gesundheitsschädliche Wirkung von Radium, als sehr viele der als "Radium Girls" bezeichneten Zifferblattmalerinnen in Orange (New Jersey) durch die radioaktive Strahlung der selbstleuchtenden Zifferblatt-Farbe Krebstumoren an Zunge und Lippen bekamen, weil sie mit dem Mund ihre Pinsel spitzten. Der New Yorker Zahnarzt Theodor Blum veröffentlichte 1924 einen Artikel über das Krankheitsbild des "Radiumkiefers" (engl. "radium jaw"). Er schrieb die Erkrankung zunächst der Giftigkeit des Phosphors zu. Harrison Martland, Pathologe in New Jersey, war es schließlich, der 1925 eine Studie begann, in deren Ergebnis die Ursache richtigerweise dem Radium zugeschrieben wurde. Bis 1931 wurde mit Radium versetztes Wasser namens Radithor in kleinen Flaschen zum Trinken verkauft. Spätestens mit dem Tod des Stahlmagnaten Eben Byers im Jahre 1932, der von 1928 bis 1930 täglich zwei Flaschen "Radithor" zu sich nahm, stand unumstritten fest, dass Radium schwerste Gesundheitsschäden hervorrufen kann. Vorkommen. Radium ist eines der seltensten natürlichen Elemente; sein Anteil an der Erdkruste beträgt etwa 7 · 10−12 %. Es steht in einem natürlichen Zerfallsgleichgewicht mit Uran. Damit ist der Radiumgehalt des jeweiligen Gesteines proportional zu dessen Urangehalt (unter der Voraussetzung des Nicht-Stattfindens von Transportprozessen). Der massebezogene Faktor beträgt etwa 1/3.000.000 (ca. 0,3 g/t Schwermetall). Im radioaktiven Zerfall, dem es selbst unterliegt, ist es das Mutternuklid von Radon-222. Eigenschaften. Als Metall ist es ein typisches Erdalkali-Element. Es ist weich und silberglänzend. Radium ist dem leichteren Gruppenhomologen Barium sehr ähnlich, jedoch noch unedler als dieses. Bei Kontakt mit Sauerstoff oxidiert es sehr rasch und reagiert heftig mit Wasser. In wässriger Lösung liegt es stets positiv zweiwertig vor. Das zweiwertige Kation ist farblos. Wie Barium bildet es einige schwerlösliche Salze, so das Carbonat, Sulfat und Chromat. Andere Salze wie die Halogenide (das Fluorid ist nur mäßig löslich), Nitrat und Acetat sind leicht löslich. Die Salze geben der Bunsenflamme eine karminrote Färbung. Isotope. Die Massenzahlen seiner Isotope reichen von 213 bis 230, ihre Halbwertszeiten liegen zwischen etwa 182 Nanosekunden für 216Ra und 1602 Jahren für 226Ra. Da das Radium-Isotop 226Ra in wägbaren Mengen gewonnen werden kann, ist es möglich, seine chemischen Eigenschaften recht gut zu studieren. Radium in der Radio-Onkologie. Die Anwendung von geschlossenen Radiumkapseln war eine frühe Form der Brachytherapie bei Krebserkrankungen, z. B. des Gebärmutterhalses. 2013 hat der Pharmahersteller Bayer HealthCare mit Radium-Ra-223-dichlorid (Xofigo) ein Radiopharmakon auf Basis von 223Ra zur intravenösen Anwendung bei symptomatischen Knochenmetastasen des kastrationsresistenten Prostatakrebses auf den Markt gebracht. Radium im Physikunterricht. Zur Darstellung der Alphastrahlung sind Radiumpräparate im Handel, die unter Wahrung der Sicherheitsvorschriften in Nebelkammern eingesetzt werden können. Es stehen zwei Intensitäten (3,7 kBq und 60 kBq) zur Verfügung. Radium und Uranbergbau. Da Radium über das Zerfallsgleichgewicht an das Uran gekoppelt ist, begleitet es dieses zwangsläufig in seinen Erzen, und wird bei den bergbaulichen Aktivitäten mit umgewälzt (= aus dem geologischen Einschluss herausgelöst). Bei der Erzaufbereitung ist im Wesentlichen nur das Uran von Interesse (Yellowcake). Das Radium wird zum Bestandteil der Rückstandsfraktion und wird deponiert. Damit ist nicht im „verkauften“ Uran der größte Teil der Radioaktivität des ursprünglich geförderten Uranerzes enthalten, sondern in den Schlammdeponien der Erzaufbereitung. Eine Beeinflussung der belebten Erdoberfläche („Umwelt“) ist gegeben einerseits über die vom Radium selbst ausgehende Strahlung (insbesondere Alphastrahlung), andererseits über seine Wirkung als Radonquelle. Auswirkungen dieser Art einzudämmen ist das Ziel von Sanierungsanstrengungen in Bergbaufolgelandschaften (siehe Wismut). Radium und stoffumwandelnde Industrien. Überall, wo große Mengen natürlicher heterogen zusammengesetzter Stoffgemische umgesetzt werden, wird über deren Spurengehalt von Uran und Radium auch „natürliche“ Radioaktivität mit verfrachtet. Dies trifft insbesondere für die Kohlen-Verfeuerung in Kraftwerken zu (Kohlelagerstätten als hydrogeologische Uran-Senken). Nicht zurückgehaltene Stäube verfrachten das Radium der Kohle anteilsweise in die Atmosphäre. Bei greifenden Rauchgasreinigungsmaßnahmen erscheint das Radium dann auch in den festen Rückständen, die zum Teil marktfähig sind. Sicherheitshinweise. Einstufungen nach der Gefahrstoffverordnung liegen nicht vor, weil diese nur die chemische Gefährlichkeit umfassen und eine völlig untergeordnete Rolle gegenüber den auf der Radioaktivität beruhenden Gefahren spielen. Auch Letzteres gilt nur, wenn es sich um eine dafür relevante Stoffmenge handelt. Rubidium. Rubidium (von: tiefrot; wegen zweier charakteristischer roter Spektrallinien) ist ein chemisches Element mit dem Elementsymbol Rb und der Ordnungszahl 37. Im Periodensystem steht es in der 1. Hauptgruppe, bzw. der 1. IUPAC-Gruppe und zählt zu den Alkalimetallen. Das weiche, silbrigweiß glänzende Metall entzündet sich spontan bei Luftzutritt. Geschichte. Rubidium wurde 1861 von Robert Wilhelm Bunsen und Gustav Kirchhoff spektroskopisch als Verunreinigung im Lepidolith entdeckt, als sie das Mineralwasser der neu erschlossenen Maxquelle in Bad Dürkheim analysierten. Bunsen gelang es, Rubidiumsalze aus dem Quellwasser zu fällen und diese von anderen Alkalimetallsalzen zu isolieren. Bunsen musste 44200 Liter Dürkheimer Quellwasser verarbeiten, um 9 g RbCl zu isolieren. Vorkommen. Rubidium gehört zur Gruppe der inkompatiblen Elemente und tritt in der Regel zusammen mit diesen in erhöhten Konzentrationen auf. Das Element kommt in kleiner Konzentration in einigen Mineralien wie Leucit, Pollucit und Zinnwaldit vor. Lepidolith enthält bis zu 1,5 % Rubidium. Erst in den letzten Jahren wurden auch eigenständige Rubidium-Mineralien entdeckt, wie Rubiklin (ein Rubidium-Aluminiumsilikat), sowie Voloshinit und Rubidium-Ramanit (Rubidiumpentaborat Tetrahydrat). Eigenschaften. 1 g Rubidium in einer Ampulle Wie die anderen Alkalimetalle ist Rubidium an der Luft unbeständig und oxidiert. Mit Wasser reagiert es äußerst heftig unter Bildung von Rubidiumhydroxid und Wasserstoff, der sich in der Luft in der Regel entzündet. Mit Quecksilber bildet es ein Amalgam, mit den Metallen Gold, Caesium, Natrium und Kalium ist es legierbar. Rubidiumverbindungen färben Flammen dunkelrot (daher der Name des Elements). Rubidium ist ein starkes Reduktionsmittel. Metallisches Rubidium kann durch Reduktion von Rubidiumchlorid mit Calcium im Vakuum hergestellt werden. Isotope. Von den beiden natürlich vorkommenden Isotopen ist nur 85Rb stabil, 87Rb ist ein Betastrahler und zerfällt zu 87Sr. Mit einer extrem langen Halbwertszeit von etwa 48 Milliarden Jahren ist seine Radioaktivität sehr gering. Das Verhältnis von Rb- und Sr-Isotopen in Gesteinen wird zur radiometrischen Datierung herangezogen. Nachweis. Zum Nachweis von Rubidium kann man seine rotviolette Flammenfärbung nutzen. Im Spektroskop zeigt sich eine deutliche Emissionslinie bei 780,0 nm. Quantitativ lässt sich dies in der Flammenphotometrie zur Bestimmung von Rubidiumspuren nutzen. In der Polarographie zeigt Rubidium eine reversible kathodische Stufe bei −2,118 V (gegen SCE). Dabei müssen als Grundelektrolyt quartäre Ammoniumverbindungen (hier beispielsweise 0,1 M Tetramethylammoniumhydroxid) verwendet werden, weil andere Alkali- oder Erdalkalimetallionen sehr ähnliche Halbstufenpotentiale besitzen. Physiologie. Für Pflanzen ist Rubidium vermutlich nicht essentiell, bei Tieren scheint es für den normalen Verlauf der Trächtigkeit notwendig zu sein. Der Rubidiumbedarf des Menschen dürfte bei weniger als 100 µg pro Tag liegen. Mit der üblichen Mischkost kommt er auf etwa 1,7 mg am Tag. Ein Rubidiummangel ist bei diesem Angebot ebenso wenig zu erwarten wie eine nutritive Rubidiumbelastung. Tee und Kaffee – Arabica-Kaffee hat den höchsten Rubidium-Gehalt, der in Lebensmitteln festgestellt wurde (Arabica-Bohne: 25,5-182 mg/kg Trockensubstanz) – liefern Erwachsenen im Mittel 40 % der verzehrten Rubidiummenge. Rubidium wirkt im zentralen Nervensystem und beeinflusst dort die Konzentration von Neurotransmittern, ein Einsatz von Rubidium als antidepressiver Wirkstoff wird diskutiert. Ein Rubidiummangel kann bei Dialysepatienten vorliegen. Sicherheitshinweise. Rubidium ist selbstentzündlich und reagiert äußerst heftig mit Wasser. Aus Sicherheitsgründen ist Rubidium in trockenem Mineralöl, im Vakuum oder in einer Inertgasatmosphäre aufzubewahren. Römische Zahlschrift. a>s mit der römischen Zahl LII (52) Als römische Zahlen bezeichnet man die Zahlzeichen einer in der römischen Antike entstandenen und noch heute für Nummern und besondere Zwecke gebräuchlichen Zahlschrift, in der in der heutigen Normalform die lateinischen Buchstaben I (1), V (5), X (10), L (50), C (100), D (500) und M (1000) als Zahlzeichen für die Schreibung der natürlichen Zahlen verwendet werden. Es handelt sich um eine additive Zahlschrift, mit ergänzender Regel für die subtraktive Schreibung bestimmter Zahlen, aber ohne Stellenwertsystem und ohne Zeichen für Null. Zugrunde liegt ein kombiniert quinär-dezimales oder "biquinäres" Zahlensystem mit den Basiszahlen 5 und 10. Allgemeines. Schreibweise römischer Zahlen in einer Übersicht aus dem Jahr 1582 Die in einer römischen Zahl verwendeten Zeichen haben einen festen Wert. Dabei gibt es die Zehnerpotenzen als Basiswerte (die „Einer“) und die fünffachen Hilfsbasiswerte (die „Fünfer“). Abgesehen von der Subtraktionsregel ist der Wert unabhängig von der Position. Heute ist die Darstellung mit Großbuchstaben (Majuskeln) üblich. Schreibweisen mit Kleinbuchstaben werden seit dem Mittelalter verwendet und bedeuten für den Zahlenwert keinen Unterschied, allerdings kann es zu Verwechslungen von i und l kommen. Für Seitennummerierungen (beispielsweise im Vorwort, zur Abgrenzung vom eigentlichen, mit arabischen Ziffern nummerierten Hauptteil eines Buches) und alphanumerische Gliederungen werden sie aber noch verwendet. Bisweilen, insbesondere bei handschriftlichen Aufzeichnungen, werden römische Zahlen zur Unterscheidung von normalen Buchstaben durch einen Überstrich oder Über- und Unterstrich gekennzeichnet (so bei IX = 9, nicht [ɪks]). Als sich im Mittelalter und der frühen Neuzeit aus den Buchstaben I und V die Abwandlungen J und U entwickelten, wurden diese oft für den jeweils gleichen Zahlenwert benutzt. Vor allem bei Minuskeln wurde schließendes i durch ein j wiedergegeben: j = 1; ij = 2; iij = 3 usw. Diese Schreibweise ist heute nicht mehr üblich. Einfache Umrechnung. Um eine solche römische Zahl wieder zurückzurechnen, braucht man nur die Werte der einzelnen Zahlenzeichen zu addieren. Subtraktionsregel. Die Subtraktionsregel ist eine heute übliche, verkürzende Schreibweise, mit der es vermieden werden soll, vier gleiche Zahlzeichen in direkter Aufeinanderfolge zu schreiben. Sie wurde bereits in römischer Zeit gelegentlich angewandt, ihre konsequente Anwendung erscheint jedoch erst seit dem späteren Mittelalter, auch dort häufig noch in vermischter Anwendung mit Schreibung einzelner Zahlen ohne Subtraktionsprinzip, und ist auch seither lediglich eine weithin vorherrschende Konvention geblieben, von der besonders in der Epigraphie vielfach kein Gebrauch gemacht wird. Zahlzeichen der Fünferbündelung (V, L, D) werden generell nicht in subtraktiver Stellung einem größeren Zeichen vorangestellt. Beide Abweichungen treten auch kombiniert auf, z. B. IIL statt XLVIII für 48, IIC statt XCVIII für 98. Subtraktive Schreibung und Zahlwörter. Die subtraktive Schreibung wird zuweilen mit den subtraktiven lateinischen Zahlwörtern in Verbindung gebracht, stimmt aber mit diesen nicht überein. Bei den lateinischen Zahlwörtern werden die Wörter für 1 "und" 2, aber nicht auch die für 10 und 100 subtraktiv verwendet und hierbei dann in der Regel auch nur den Vielfachen der 10 ab 20 ("duodeviginti" = 18, "undeviginti" = 19) sowie vereinzelt auch einmal der 100 ("undecentum" = 99) vorangestellt. Die Null. Eine additive oder kombiniert additiv-subtraktive Zahlschrift wie die römische benötigt kein Zeichen für die Null, wie es dagegen in einem Stellenwertsystem wie dem Dezimalsystem und dessen heute üblicher indo-arabischer Schreibung als Platzhalter eine grundlegende Rolle spielt. Die Römer kannten zwar sprachliche Ausdrücke für „nicht etwas“ "(nullum)" und „nichts“ "(nihil)," aber kein Zahlzeichen und keinen eigenen mathematischen Begriff für einen Zahlwert „Null“. Bei der Darstellung von Zahlen auf dem Rechenbrett wird das Nichtvorhandensein eines Stellenwertes durch Freilassen der entsprechenden Spalte angezeigt; in Tabellenwerken ist das Fehlen einer Zahl zuweilen durch einen waagerechten Strich, manchmal kombiniert mit einem kleinen Kreis, markiert. Zur Bezeichnung der Null hat Beda Venerabilis um 725 n. Chr. das Zeichen N verwendet. Große Zahlen. Die Schreibweisen wurden auch gemischt, wie zum Beispiel die Schreibweise mit Apostrophus und die Multiplikationsschreibweise. Schreibweise mit Apostrophus. Der römische Apostrophus, ein Zeichen, das aussieht wie eine schließende Klammer oder ein an der Vertikalen gespiegeltes C (Ↄ), leitet sich, wie auch andere römische Ziffern, aus chalkidisch-griechischen Zahlzeichen ab. Das ursprüngliche Zeichen für 1000, das Phi (Φ, auch geschrieben ↀ oder CIↃ) kann man sich bereits als eine Zusammensetzung von einem C, einem I und einem Apostrophus vorstellen: CIↃ. Durch das Hinzufügen weiterer Bögen, oder C und Apostrophi wurde der Wert jeweils verzehnfacht: ↂ oder CCIↃↃ für 10.000, CCCIↃↃↃ für 100.000. Die römische 500, die Hälfte von 1000, entsteht auch durch die Halbierung des Zeichens: ↀ → D. Die Bildung von 5000, 50.000 und den folgenden verläuft analog: ↁ oder IↃↃ, IↃↃↃ. Schreibweise mit Rahmen. Da die Apostrophus-Schreibweise für sehr große Zahlen unhandlich war, wurde ein Rahmen um eine Ziffer oder auch Zifferngruppe gezeichnet, um deren Wert mit 100.000 zu multiplizieren. Der Rahmen war üblicherweise unten offen: X, es kommen aber auch vollkommen geschlossene: X, sowie Schreibweisen, die die Zahlzeichen nur links und rechts mit vertikalen Linien einrahmen: X vor. Die Verwendung der 100.000 als Multiplikationszahl entspricht den römischen Zahlwörtern für große Zahlen, wie "decies centena milia" (buchstäblich „zehnmal je hundert Tausender“ = eine Million), "quadringenties milies centena milia" („vierhundertmal tausendmal je hundert Tausender“ = 40 Milliarden, die Staatsschulden Vespasians). Dabei wurde "centena milia" oft weggelassen, wobei durch die Verwendung der Multiplikativzahl statt der Kardinalzahl "(decies" statt "decem)" klar war, dass sie mit 100.000 multipliziert werden musste. Schreibweise mit Vinculum. Ein Vinculum (auch Titulus) ist ein Querstrich über den Ziffern, um eine Multiplikation mit 1000 anzuzeigen: X. Diese Methode wurde erst sehr viel später benutzt. Auch hier konnte der Querstrich über mehrere Ziffern gleichzeitig gezogen werden. Auch mehrere Querstriche für höhere Tausenderpotenzen waren möglich. Diese Schreibweise darf nicht mit der Kennzeichnung römischer Zahlen durch einen Überstrich (zum Beispiel VI für 6) zur Unterscheidung von normalen Buchstaben verwechselt werden. So wurde der Überstrich von den Römern verwendet. Sein Gebrauch zur Multiplikation mit 1000 kam erst im Mittelalter auf. Multiplikationsschreibweise. Mit größeren Zehnerpotenzen ab 1000 wurde manchmal auch eine stellenwertbezogene Multiplikationsschreibweise verwendet. Dazu wurde links von dem Zeichen ein Multiplikationsfaktor geschrieben, zum Beispiel V•M für Fünftausend (5 x 1000). Schreibweise mit Cifrão oder Calderón. Im 16. Jahrhundert kamen Schreibweisen von Zahlen auf, die spezielle Tausendertrennzeichen verwendeten, um große Zahlen zu gliedern. In Portugal wurde der Cifrão verwendet, ein Symbol ähnlich dem $, in Spanien der Calderón, ein U-ähnliches Zeichen (⊍). Diese Zeichen wurden sowohl mit indischen als auch mit römischen Zahlen benutzt. Die Zahl 18.642 wurde also 18 $ 642 beziehungsweise XVIII $ DCXLII geschrieben. Besonderheiten. Die gelegentliche Verwendung eines größeren, längeren I anstelle von zwei aufeinanderfolgenden i in lateinischen Texten ist selten auch in der Darstellung römischer Zahlen anzutreffen. So steht bei Verwendung dieser Schreibweise MDCLXXI nicht etwa für 1671, sondern für 1672. Im Zimmerhandwerk wird für Abbundzeichen generell die additive Schreibweise verwendet: 4 = IIII, 9 = VIIII, 14 = XIIII und so weiter. Dies ist zum einen unkomplizierter und verhindert zum anderen die Verwechslung von zum Beispiel IX und XI. Eine weitere Besonderheit ist die häufig verwendete Schreibweise X/ für XV. Auf Uhrenzifferblättern wird die Zahl 9 immer nach der Subtraktionsregel als IX geschrieben, die Zahl 4 aber oft als IIII. Brüche. Die Römer nutzten Brüche mit der Basis 12. Die Nutzung der 12 lag nahe, weil sich die am häufigsten benötigten Brüche „eine Hälfte“, „ein Drittel“ und „ein Viertel“ durch Vielfache von formula_1 darstellen lassen. Der römische Name für ein Zwölftel ist "Uncia," ein Wort, das später zum Gewichtsmaß „Unze“ wurde. Für Brüche, deren Zähler um 1 kleiner als der Nenner ist, wurde auch eine subtraktive Bezeichnung verwendet wie bei "Dodrans" (de quadrans, formula_2). Brüche wurden ausgeschrieben oder durch stark variierende Zeichen dargestellt. In einigen Fällen wurden sie einer römischen Zahl als eine den Zwölfteln entsprechende Anzahl von Punkten oder kleinen Querstrichen angehängt. Als Zeichen für formula_3(semis) oder für formula_4 (semuncia) wurde vielfach S oder Σ, für formula_5 (sicilicus) ein seitenverkehrtes C und für formula_6 (duae sextulae) ein Zeichen ähnlich dem Z oder der indischen 2 gebraucht. Darstellung in Unicode. Der Unicodeblock Zahlzeichen enthält an den Positionen U+2160 bis U+2188 eigene Codes für die römischen Ziffern 1–12, 50, 100, 500, 1000, 5000 und 10.000 als Groß- und überwiegend auch Kleinbuchstaben sowie einige heute ungebräuchliche altrömische Zahlzeichen. Diese Zeichen werden von den Schriftarten, die sie enthalten, in der Regel dicktengleich dargestellt, so dass sie sich als Tabellenziffern sowie für den ostasiatischen (horizontalen oder vertikalen) Satz eignen. Weder für die Darstellung eines Rahmens noch für Zeichen mit (mehrfachem) Vinculum sieht Unicode eigene Sonderzeichen vor. Hierzu bedarf es einer sogenannten Smartfonttechnik wie OpenType, um eine an die Buchstabenbreite und -höhe angepasste Variante der Zeichen U+0305 „Combining Overline“ und U+033F „Combining Double Overline“ auswählen können, sofern auch die benutzte Schrift dieses vorsieht. Zur Darstellung des Rahmens kann eine Variante von U+007C „Vertical Line“ benutzt werden. Derzeit sind diese Lösungen nur sehr wenig verbreitet. Bei der Verwendung von gebrochenen Schriften und Schreibschriften werden römische Ziffern in Antiqua gesetzt. Sofern vorhanden, ist dies über die erwähnten Unicode-Zeichen anstelle von Großbuchstaben möglich. Ersatzweise wird für römische Ziffern eine zur Textschrift passende Antiqua verwendet. Geschichte. Wie die meisten Kerbschriften und einfachen Zahlensysteme wurden die römischen Ziffern additiv nach dem Prinzip der kombinierten Zehner- und Fünferbündelung gereiht, so dass nie mehr als vier gleiche Zeichen aufeinanderfolgen. Nach etruskischem Vorbild wurde ergänzend auch eine subtraktive Schreibweise praktiziert, bei der die Voranstellung eines Zeichens vor einem der beiden in der Zehnerbündelung nächsthöheren anzeigt, dass sein Wert von diesem abzuziehen ist. In diesem Fall folgen nie mehr als drei gleiche Zeichen einander. Die ersten drei römischen Zahlzeichen I (1), V oder gerundet U (5) sowie X (10) haben ihre Schreibform im Verlauf der Geschichte im Wesentlichen unverändert beibehalten, davon abgesehen, dass V bzw. U in älteren römischen Inschriften zum Teil noch in kopfständiger Schreibung – mit nach oben weisendem Winkel bzw. Rundbogen – erscheint. Sie finden sich in gleicher oder rotierter Schreibung (V und U regelmäßig kopfständig Λ, statt X manchmal ein aufrecht stehendes Kreuz +) und mit den gleichen Zahlwerten auch bei den Etruskern. Weitgehend ähnlich – dabei V in einigen Fällen abweichend auch als einfacher Schrägstrich / oder rückwärts geneigt \ – können sie in älteren italischen Kulturen nachgewiesen werden, dort als Beschriftung von Kerbhölzern. Nach dem Ergebnis der Forschungen von Lucien Gerschel aus den 1960er-Jahren kann damit als sicher gelten, dass die Römer und Etrusker diese ersten drei Zahlzeichen aus der Kerbschrift älterer italischer Völker übernommen haben. Auch das ursprüngliche römische Zahlzeichen für 50, bei dem das Zeichen V bzw. U für 5 durch einen senkrechten Abstrich geteilt und so im Wert auf 50 verzehnfacht wurde (ungefähr Ψ), findet sich mit gleicher Schreibform (nur kopfständig) und mit gleichem Zahlwert bei den Etruskern und ähnlich in Kerbschriften anderer Kulturen. Es gleicht außerdem – in der römischen Schreibung – dem Buchstaben Chi des chalkidischen Alphabets, eines westgriechischen Alphabets, das in den griechischen Kolonien Siziliens in Gebrauch war, bzw. dem Psi der ostgriechischen Alphabete. Im Griechischen steht Chi als Zahlzeichen allerdings für den Wert 1000 (als Anfangsbuchstabe des Zahlwortes für 1000: χιλιοι) oder in der dezimal gegliederten griechischen Zahlschrift für den Wert 600, desgleichen Psi dort für den Wert 700. Ihre zahlschriftliche Verwendung im Griechischen kam außerdem wahrscheinlich erst später in Gebrauch als das entsprechende römische und etruskische Zahlzeichen. Entgegen der Vermutung älterer Forschung ist darum nach Gerschel anzunehmen, dass die Römer und Etrusker dieses Zahlzeichen nicht aus dem chalkidischen Alphabet, sondern ebenfalls aus der Kerbschrift älterer italischer Völker übernommen haben. Bei den Römern wurde es dann durch Abflachung des Winkels oder Rundbogens zu einem waagerechten Strich und Verkürzung seiner linksseitigen Hälfte an den lateinischen Buchstaben L angeglichen. In dieser Form ist es erstmals 44 v. Chr. belegt. Die Zahl 100 schrieben die Etrusker nach einem ähnlichen Prinzip wie die 50, indem das Zeichen X für 10 durch einen senkrechten Strich geteilt (ungefähr Ж) und so auf 100 verzehnfacht wurde. Nach den von Gerschel nachgewiesenen Parallelen wurde dieses Zeichen von den Etruskern ebenfalls aus der älteren italischen Kerbschrift übernommen. Die Römer und andere Völker Italiens schrieben die 100 demgegenüber als ein rechts- oder linksseitig offenes C. In der Forschung wurde dieses herkömmlich als Ableitung aus dem griechischen Buchstaben Theta (Zahlwert 9) gedeutet. Gerschel und Georges Ifrah dagegen vermuten, dass hier ebenfalls eine Abwandlung des kerbschriftlichen und etruskischen Zeichens für 100 vorliegt, bei der von einer – etruskisch belegten – gerundeten Schreibvariante des Ж unter dem Einfluss des lateinischen Zahlwortes "centum" („hundert“) nur der eine Rundbogen dieses Zeichens beibehalten wurde. Die Zahl 500 schrieben die Römer ursprünglich als eine Art waagerecht geteiltes D, also ungefähr D, und die Zahl 1000 als durch senkrechten Abstrich geteilten Kreis Φ oder Halbkreis (d. h. als eine Art kopfständiges Ψ) oder als eine Art liegendes S oder liegende 8 (). In einigen Fällen wurde diese liegende 8 () auch durch einen senkrechten Abstrich geteilt. Nach herkömmlicher Auffassung ist das römische Zeichen für 1000 aus dem griechischen Phi (Zahlwert 500) und das römische Zeichen für 500 durch dessen Halbierung entstanden. Gerschel und Ifrah dagegen vermuten, dass das römische Tausenderzeichen ursprünglich ein kerbschriftlicher senkrecht geteilter Kreis oder ein eingekreistes X oder Kreuz ⊕ war und das D durch dessen Halbierung entstand. Das römische Tausenderzeichen wurde seit etwa dem ersten Jahrhundert v. Chr. zunehmend durch den Buchstaben M (für "mille:" „tausend“) ersetzt. Die Zahlzeichen M und D sind inschriftlich erstmals 89 v. Chr. belegt. Die römische Zahlschrift ist im Gebrauch für die epigraphische oder dekorative Schreibung von Zahlen (insbesondere Jahreszahlen), für die Zählung von Herrschern, Päpsten und anderen Trägern gleichen Namens, für die Band-, Buch-, Kapitel- und Abschnittzählung in Texten und für die Bezifferung von Messinstrumenten wie dem Zifferblatt der Uhr bis heute in Gebrauch. Rechnen mit römischen Zahlen. Sieg des schriftlichen Rechnens mit indischen Zahlen über das Rechnen mit römischen Zahlen auf dem Rechenbrett Die römischen Zahlen haben hauptsächlich bei der Schreibung von Zahlwörtern, aber kaum in schriftlichen Rechenoperationen eine Rolle gespielt. Hierfür wurden Hilfsmittel wie die Fingerzahlen, das Rechenbrett und der Abakus herangezogen. Hierbei werden den römischen Zahlen wieder in einem Stellenwertsystem Werte (Anzahl Finger, Rechenmünzen, Kugeln) zugeordnet und mit diesen die Rechenoperation durchgeführt. 493 stellte Victorius von Aquitanien ein Tafelwerk mit 98 Spalten zusammen, in denen er die Produkte der Zahlen von den Brüchen bis zum Wert 1000 mit den Zahlen von 2 bis 50 in römischen Zahlen angab zur Erleichterung der Multiplikation und Division, der sogenannte "Calculus Victorii". Mathematiker, die die indischen Ziffern kennengelernt hatten, erkannten deren Überlegenheit. Bereits im Jahr 1202 veröffentlichte der italienische Mathematiker Leonardo Fibonacci sein Buch Liber abaci, mit dem er die indischen Zahlen, die er in Bejaja in Nordafrika kennengelernt hatte, in Europa bekannt machen wollte. Der deutsche Rechenmeister Adam Ries hat nach Untersuchung der existierenden Zahlensysteme ebenfalls den indischen Ziffern den Vorzug gegeben. Ries erkannte, dass durch die Null eine tabellarische Addition und Subtraktion gegenüber den römischen Ziffern wesentlich vereinfacht wurde. Mit der Etablierung von neuzeitlichem Rechnen auf Basis der indischen Ziffern läutete er Anfang des 16. Jahrhunderts zugleich das Ende der Nutzung von römischen Ziffern im Alltagsleben ein. Einzelnachweise. Zahlendarstellung Rood. Rood ist eine anglo-amerikanische Flächeneinheit. Das Einheitenzeichen ist ro. 1 rood = ¼ acre = 1210 sq.yd = 10.890 sq.ft. = 1011,7141056 m² 1 square mile = 640 acre = 2.560 rood Im Deutschen wird die Einheit auch als Viertelmorgen bezeichnet. Rem (Einheit). Das Rem, Einheitenzeichen rem (für) ist die veraltete Einheit für die Äquivalentdosis, abgeleitet von der Einheit für die Ionendosis Röntgen. Sie wurde am 1. Januar 1978 von der SI-Einheit Sievert (Sv) abgelöst und soll nach Ablauf der Übergangszeit seit 1. Januar 1985 nicht mehr verwendet werden. Allerdings sind noch immer ältere Messgeräte im Umlauf, die diese Einheit aufweisen. 100 Rem entsprechen 1 Sievert. 1 Rem entspricht 10 Millisievert. Reggae. Reggae ist eine aus Jamaika stammende Musikrichtung. Geschichte. Reggae entstand Ende der 1960er Jahre unter dem Einfluss US-amerikanischer Musikrichtungen wie Soul, R&B, Blues, Country und Jazz, die in Jamaika über das Radio empfangen wurden, aus seinen unmittelbaren Vorläufern Mento, Ska und Rocksteady. Er entwickelte sich seitdem zu einer der bedeutendsten Richtungen der populären Musik. Die ursprüngliche Bedeutung des Wortes „Reggae“ ist unklar. Manche – darunter Bob Marley – leiten es von dem lateinischen Wort "rex" (König) ab und behaupten, es heiße so viel wie „Musik des Königs“ (siehe auch Rastafari). Andere erklären es wesentlich weniger majestätisch als Ableitung von "streggae", einem jamaikanischen Slang-Wort für ein leichtes Mädchen. Wie auch immer – der erste Reggae-Titel, in welchem dieses Wort vorkommt, war "Do the Reggay" (1968) von Toots & the Maytals, der erste als eigentlicher Reggae-Song geltende ist "People funny boy" (1968) von Lee ‚Scratch‘ Perry. Der typische Grundrhythmus des Reggae entstand, als bei ersten Eigenproduktionen des Ska US-amerikanische R&B-Stücke gecovert und mit einer starken Betonung des zweiten und vierten Taktteils unterlegt wurden. Im Übergang von Ska zu Rocksteady und dann zu Reggae wurde dieser minimalistische Grundrhythmus jeweils verlangsamt. Reggae und seine Vorläufer entstanden vornehmlich als Tanzmusik, deren Verbreitung hauptsächlich durch so genannte „Sound-Systems“, mobile Diskotheken, vorangetrieben wurden. Betreiber dieser Soundsystems wie beispielsweise Clement „Sir Coxsone“ Dodd, Arthur „Duke“ Reid oder Cecil „Prince Buster“ Campbell gehörten zu den ersten Produzenten eigenständiger jamaikanischer Tanzmusik. Als erster großer und durchschlagender internationaler Erfolg – v. a. in den britischen Charts – gilt das 1968 von Desmond Dekker eingespielte „"The Israelites"“, mit Nr.1-Platzierungen u. a. in Deutschland und England: der erste eigentliche Welthit des Reggaes. Gegen Ende der 1960er Jahre war Reggae die bevorzugte Musik der britischen Skinheads, weswegen frühe britische Reggaeproduktionen auch unter dem Begriff „Skinhead-Reggae“ vermarktet werden und viele Reggae-Künstler, wie The Charmers, The Corporation, Joe the Boss oder Symarip, mit Titeln wie zum Beispiel „Skinhead Moonstomp“ oder „Skinheads A Bash Dem“ gezielt auch an die Skinhead-Community richteten. Mit der stärker werdenden Fokussierung auf den britischen Popmusik-Markt (zum Beispiel durch den Einsatz von Streichern) und spätestens mit der inhaltlichen Betonung speziell schwarzer Thematiken im Roots Reggae, verlor die Musik für Teile der Skinhead-Szene an Bedeutung. Hatten frühe jamaikanische und britische Reggae-Produktionen und -Künstler noch Wert auf gerade diese Szene als den Konsumenten gelegt und obwohl eine sich an den ursprünglichen Werten der unrassistischen Skinheadbewegung orientierende Szene bis heute existiert, wurde diese Szene für den Reggaemarkt weitgehend uninteressant; nicht zuletzt auch wegen des ökonomischen Erfolgs der neueren Spielarten. Diese sogenannten „Traditional Skins“ oder auch „Trojan Skins“ – benannt nach dem Plattenlabel „Trojan Records“ – organisieren bis heute traditionelle Reggae-Events, betreiben kleine Label und bringen mit eigenen Bands auch neue Reggae-Musik hervor, die sich stark am Hammondsound und dem Uptempo früher Reggaenummern orientieren. Angeregt durch den bedeutendsten Reggaemusiker und jamaikanischen Nationalhelden Bob Marley verknüpften zahlreiche Musiker die Musik mit der zu dieser Zeit zwar bereits existierenden, wenngleich noch nicht überaus weit verbreiteten Religion der Rastafari. Der klassische Reggae der 1970er Jahre wird heutzutage oft als „Roots-Reggae“ bezeichnet. Er entstand aus verschiedenen Einflüssen, wie Ska und Rocksteady oder dem frühen Pop-Reggae, der zunächst hauptsächlich aus Großbritannien kam. Natürlich spielten auch afrikanische Einflüsse eine Rolle. Parallel dazu entwickelte sich in Großbritannien eine eigene Form des Reggae, die Einflüsse aus anderen Musikformen wie Punk, New Wave oder Pop integrierte und säkularer war als der jamaikanische Stil (dazu gehören Gruppen wie The Police, The Clash, The Jam oder The Specials). Bedeutend ist Dub, eine oft sehr minimalistische Variante, die sich durch starken Gebrauch von elektronischen Studioeffekten und fast völligem Verzicht auf Gesang auszeichnet. Dubeffekte sind heute fester Bestandteil der meisten Reggae-Varianten, auch Bob Marleys Lieder wurden davon beeinflusst. Schon früh wurden auf den B-Seiten bekannter Reggaesingles Dubversionen der Lieder mitgeliefert. Die Deejays begannen, diese „Versions“ live mit Sprechgesang-Texten zu versehen (Toasting). Das Toasting stammt vom Scat, einer Gesangsart des Jazz, ab. Aus dem Toasting wurde im Lauf der Zeit eine neue Variante des Reggae: Raggamuffin bzw. Ragga. Parallel dazu entwickelte sich aus dem Toasting im New York der 1970er Jahre eine weitere neue Musikrichtung, der Hiphop. Moderne Reggaevarianten wie Ragga werden oft als Dancehall-Reggae bezeichnet. Dieser Begriff ist etwas problematisch, denn er bezeichnet streng genommen keine bestimmte Stilrichtung, sondern fasst diejenigen Stile zusammen, die momentan in den jamaikanischen „Dancehalls“ (Ort größerer Tanzpartys) populär sind. „Dancehall“ bezeichnet jedoch auch einen spezifischen, stark synkopierten Rhythmus im modernen Reggae. Texte. Gesungen wird im jamaikanischen Reggae meist auf "Patois", einer auf dem Englischen basierenden Kreolsprache mit zahlreichen Wortneuschöpfungen (z. B. "I and I" = "we" 'wir (Einheit zweier Personen [und mit "Jah"])', "to overstand", Neologismus statt "to understand" 'verstehen'). Die Texte des Roots-Reggae sind oft sozialkritisch, machen auf Missstände aufmerksam oder wollen den Jamaikanern ihre afrikanischen Wurzeln bewusst machen. Ein weiteres oft vorkommendes Themengebiet lässt sich mit "love, peace & unity" ("Liebe, Frieden und Einigkeit") zusammenfassen, auch der Genuss von Marihuana ist ein beliebtes Motiv. Die Texte des modernen Dancehall-Reggae sind dagegen – vergleichbar mit Hip-Hop-Texten – oft explizit sexuelle und gewaltverherrlichende Themen ("Slackness") sowie häufig homophobe Texte. Als Gegenbewegung dazu etablierten sich der Conscious Reggae, der soziale, politische und religiöse Themen in den Vordergrund rückt. Musik. Charakteristisch für den Reggae ist die Offbeat-Phrasierung, bei der entweder die Gitarre oder das Keyboard, hin und wieder auch die Bläser, in der in den meisten anderen Musikrichtungen unbetonten zweiten und vierten Taktzeit spielen. Im Gegensatz zum Ska, wo statt der 2/4-Betonung eher Offbeats eingesetzt werden, die die „und“-Zählzeiten betonen, ist der Reggae in der Regel langsamer und weniger durch Bläser dominiert. Die Instrumentierung der meisten (klassischen) Reggaebands besteht aus Drumset, E-Bass, E-Gitarre, Keyboard und Gesang. Oft kommen Blechbläser und Perkussion hinzu. Bei den neueren Stilrichtungen des Reggae (Dancehall, Ragga, Reggaeton) kommt häufiger die Elektronik in Form von Computern und Samplern zum Einsatz. Dabei ist das Schlagzeug meist stark betont, synthetisch erzeugt und mehr am Rock- und Diskosound orientiert. Bass. Besonders wichtig im Klangbild eines Reggae-Songs ist stets der Basslauf, der das Gegengewicht zu den Offbeats bildet und oft das eigentliche Thema des Stückes beschreibt. Als herausragende Reggae-Bassisten gelten Aston Barrett und Robbie Shakespeare. Schlagzeug. Das Schlagzeug wird oft von einem Perkussionisten unterstützt. Als herausragende Schlagzeuger gelten Carlton Barrett und Sly Dunbar. E-Gitarre. Gitarristen spielen beim Reggae hauptsächlich rhythmische Begleitung, wobei auch hier die Betonung des Offbeats im Vordergrund steht. Hin und wieder wird einfach der Basslauf gedoppelt. „Austoben“ dürfen sich die Gitarristen dann in zum Teil ausgedehnten Soli. Diese Soli geben der Musik auch eine besondere Note. Erwähnenswerte Gitarristen in der Welt des Reggae sind zum Beispiel Al Anderson, Peter Tosh, Earl „Chinna“ Smith, Ben Harper, Junior Marvin, Ernest Ranglin, Donald Kinsey. Keyboard/Hammond-Orgel. Verwendet werden hauptsächlich Piano- und Orgel-Sounds, hin und wieder auch synthetische Klänge. Die Keyboarder begleiten zusammen mit der Gitarre vorwiegend rhythmisch, natürlich ebenfalls mit Betonung des Offbeats. Zwei Variationen sind sehr gängig: Zum einen die Betonung der zweiten und vierten Zählzeit, zum anderen diese Betonung ergänzt um die folgenden „und“-Zählzeiten. Keyboard-Soli sind relativ selten, Orgel-Soli kommen häufiger vor. Es ist nicht unüblich, dass in größeren Reggaebands zwei Keyboarder spielen. Berühmte Tastenmänner (oder gar Tastenfrauen) gibt es in diesem Musikstil wenig. Wichtige Vertreter sind aber Earl „Wya“ Lindo, Tyrone Downie, Ian Wynter und Bernard „Tooter“ Harvey, sowie Jackie Mittoo, einer der wichtigsten Orgelspieler bei Studio One. Außerdem erwähnenswert: Augustus Pablo, berühmt geworden durch sein Melodicaspiel sowie Monty Alexander. Letzterer ist eigentlich Jazzmusiker, spielt aber als geborener Jamaikaner auch Reggae und verbindet diesen dann mit Jazz. Blasinstrumente. Die Bläser einer klassischen Reggaeband treten meist zu dritt auf. Die gespielten Instrumente sind hierbei in der Regel Posaune und Trompete, oft auch das Saxophon. Reggae in Deutschland. Seit Ende der 1970er Jahre wurden Reggae-Tracks von deutschen Musikern veröffentlicht, so zum Beispiel von Spliff (unter eigenem Namen sowie als Backing-Band von Nina Hagen). Der erste Künstler, der mit deutschsprachigem (bzw. bairischem) Reggae Erfolge erzielte, war Hans Söllner in den 1980er Jahren. Zuvor veröffentlichte die Aachener Gruppe Taugenixe 1984 die erste Reggae-LP auf deutsch über das Label Ariwa. Ihr Album "Reggae Ron", welches im Studio des Londoner Produzenten Mad Professor aufgenommen wurde, bekam in Magazinen wie Spax aber sehr negative Kritiken. Das Album drang daraufhin nicht zu den Reggae-Fans in Deutschland durch und der kommerzielle Erfolg blieb aus. Ab den 1990ern wuchs die Zahl der originär deutschen, zum Teil deutschsprachigen Reggae-Bands und -Artists, und etwa seit der Jahrtausendwende erzielen deutsche Reggaekünstler auch Charterfolge, allen voran Gentleman, Culcha Candela und Seeed (Peter Fox und Boundzound auch als Solokünstler), sowie z. B. auch Jan Delay (Album „Searching for the Jan Soul Rebels“). Orthographie. Die Orthographie (nach der Rechtschreibreform von 1996 auch "Orthografie"; "orthós" „aufrecht“, „richtig“ und -graphie) oder Rechtschreibung (seit der zweiten Hälfte des 16. Jahrhunderts als Übersetzung des griech.-lat. Terminus) ist die allgemein übliche Schreibweise der Wörter einer Sprache in der verwendeten Schrift. Eine davon abweichende Schreibung wird allgemein als Rechtschreibfehler bezeichnet. Rechtschreibung in Alphabetschriften. Der phonemische Ansatz bezieht sich gewöhnlich auf nur eine Standardvarietät der jeweiligen Sprache. In diesem Sinne überwiegend phonemisch ist die Orthographie zum Beispiel des Bulgarischen, Finnischen, Georgischen, Italienischen, Serbischen, Spanischen und Türkischen. Die Orthographie des Spanischen etwa ist für das kastilische Spanisch eher phonemisch als beispielsweise für das argentinische oder das kubanische (die sich beide freilich keineswegs als nachrangige Dialekte, sondern eben als die argentinische bzw. kubanische Hochsprache begreifen). Besonders fällt die stark etymologisch geprägte morphophonemische Orthographie des Englischen auf. Im Englischen kann eine Buchstabenfolge (z. B. "ough") vier oder mehr verschiedene Aussprachen haben; umgekehrt kann eine bestimmte Lautfolge viele verschiedene Schreibweisen haben, je nachdem, in welchem Wort sie vorkommt, z. B. der Laut (Stimmloser postalveolarer Frikativ, „sch“) als ocean, fish, action, sure usf. "Siehe auch:" ghoti. Auch das Französische schreibt sich entschieden etymologisch. Stellte Frankreich seine Orthographie auf eine rein phonemische Grundlage, wäre die Familienähnlichkeit des Französischen mit den übrigen romanischen Sprachen kaum mehr zu erkennen. Im Französischen kann ein Laut zahlreiche verschiedene Schreibweisen haben (z. B. die Graphemfolgen "au", "aud", "auds", "ault", "aulx", "aut", "auts", "aux", "eau", "eaud", "eaux", "haut", "hauts", "ho", "o", "ô", "od", "ods", "oh", "os", "ot", "ots"). Die Orthographie des Deutschen hat sowohl phonemische als auch morphophonemische Elemente (nicht dargestellte Auslautverhärtung, e/ä-Schreibweise u. a.), allerdings mit nur relativ wenigen etymologischen Schreibweisen (eine Ausnahme bilden viele neuere Fremdwörter und einige Homophone). Insbesondere bei Entlehnungen aus dem Englischen wird die Schreibweise nur selten an das deutsche Lautbild angepasst ("Keks", "Streik", aber nicht "(Korn-)Fleks", "Kompjuter", "Marschmelloh" u. ä.). Allerdings wurden mit der Rechtschreibreform von 1996 auf diesem Gebiet einige Eindeutschungen eingeführt (z. B. "Ketschup", "Portmonee"), die aber nicht konsequent fortgeführt wurden. Roman. Der Roman ist eine literarische Gattung, und zwar die Langform der schriftlichen Erzählung. Das Wort "Roman" ist ein Lehnwort aus dem Französischen und bedeutet „Erzählung in Versen oder Prosa“. Es löst im 17. Jahrhundert das Wort Historie ab, das bis dahin die unter diese Gattung fallenden Werke bezeichnet hatte. Auch versteht man ab dem 17. Jahrhundert nur noch in Prosa abgefasste Schriften als „Romans“. Der Plural „Romane“ wird erst im 18. Jahrhundert gebräuchlich. Definition. Bis heute ist es schwierig, den Roman eindeutig zu definieren, da er zum einen in der antiken Diskussion über literarische Formen nicht erwähnt wird und zum anderen viele unterschiedliche Einflüsse auf die Romanproduktion einwirkten und bis heute weiter einwirken. Daraus resultieren zwei für die Definition des Romans wichtige Grundannahmen. In der Romantheorie wird der Roman erstens als Synthese verschiedener Gattungen aufgefasst, da es außer dem Prosakriterium kaum formale Vorgaben gibt und daher andere ästhetische Muster leicht zu integrieren sind. Und zweitens ist der Roman aufgrund seiner Offenheit gegenüber anderen Formen und Genres einem stetigen Wandel unterworfen, der bis in die Gegenwart andauert und noch nicht abgeschlossen ist. Von anderen Gattungen ist der Roman vor allem negativ abzugrenzen. Das Kriterium der Fiktionalität unterscheidet den Roman von faktualen Erzählungen – etwa denen der Geschichtsschreibung –, die ein getreues Abbild eines Geschehens darbieten wollen. Oft weist schon das Wort "Roman" auf dem Cover oder Titelblatt einen Roman als künstlerisches und damit fiktionales Werk aus. Vor 1700 wurden die Romane allerdings oft als Schlüsselromane mit durchaus historiographischem Anspruch gelesen, weswegen sie oft das Wort „Historia“ im Titel trugen. Erst infolge der vertieften poetologischen Diskussionen im 18. Jahrhundert werden Romane als eigenständige Kunstform und als fiktionale Werke im eigentlichen Sinne wahrgenommen. Die Abwertung des Romans als geschichtliche Quelle geht mit einer Aufwertung im literarischen Gattungssystem einher. Im Unterschied zu historischen Werken behandelt der Roman in der Regel vergleichsweise private Stoffe aus subjektiven Erzählpositionen. Liebesgeschichten waren bis in das 18. Jahrhundert hinein als privates Sujet gattungsbestimmend. Andere, jedoch in der Regel nicht minder private Stoffe breiteten sich in den Untergattungen des Schelmenromans und des satirischen Romans aus. Novelle, Märchen, Legende sowie Kurzgeschichte sind als Formen epischer Prosa zwar mit dem Roman verwandt, aber als epische Kleinformen meist deutlich kürzer. Außer durch die Länge unterscheidet sich der Roman von diesen Gattungen vor allem aber dadurch, dass er die Darstellung einer kontingenten Welt ins Zentrum rückt. Literaturhistoriker des 19. und 20. Jahrhunderts sprachen wie Georg Lukács vom „epischen Zugriff des Romans auf das Leben in seiner ganzen Totalität“. Im Unterschied zum Epos setzt der Roman jedoch keinen für alle Leser gültigen Sinnhorizont voraus, sondern gestaltet die Welt aus dem Erfahrungshorizont des Einzelmenschen. Dieser kann brüchig, inkohärent oder gar chaotisch sein, was in einem Epos undenkbar wäre. Für Georg Lukács ist die Form des Romans daher „Ausdruck der transzendentalen Obdachlosigkeit“ der Moderne. Außereuropäische Traditionen und der europäische Roman der Antike. Romanhaftes Erzählen ist in vielen Hochkulturen bereits früh verbreitet, so in Japan, China, Indien und im arabisch-orientalischen Kulturkreis. Die außereuropäischen Romane und der Roman der Antike waren im Vergleich zum antiken Epos für die Herausbildung des modernen Romans jedoch nur von untergeordneter Bedeutung. Einige der wichtigsten außereuropäischen Romane sind die "Genji Monogatari" (11. Jhdt.) von Murasaki Shikibu, der arabische "Hayy ibn Yaqdhan" von Ibn Tufail (vor 1185) und die "Geschichte der Drei Reiche" Luo Guanzhongs. Die Rezeption der europäischen antiken Romane setzt bereits im Mittelalter ein, intensiviert sich aber erst im 17. Jahrhundert. Den barocken Romanciers wird vor allem Heliodors "Aithiopika" (3. Jhdt. n. Chr.) mit seinem Medias-in-res-Einstieg und den zahlreichen nachgeholten Vorgeschichten zum unerreichten Gattungsmuster. Weitere wichtige Vorbilder für den höfisch-historischen Roman waren auch Achilleus Tatios' "Leukippe und Kleitophon" (1. Jhdt. n. Chr.) und Xenophons von Ephesos "Ephesiaka" (2. Jhdt. n. Chr.). Ein vielgelesener Vorläufer des bukolischen Genres war Longos' "Daphnis und Chloe". Autoren des satirischen Romans konnten an die "Metamorphosen" des Apuleius (2. Jhdt. n. Chr.) sowie an Petrons "Satyricon" (1. Jhdt. n. Chr.) anknüpfen. Tradition des Heldenlieds, 1100–1500. Das altfranzösische Wort „romanz“ kam im 12. Jahrhundert für Erzählungen in „romanischer“ Volkssprache in Gebrauch, die allerdings im Unterschied zu späteren Romanen nicht in Prosa, sondern in Versen abgefasst waren. Frankreich etabliert sich mit Werken wie dem Roman de Thèbes (ca. 1160), dem Roman d’Énéas (kurz nach 1160), dem Roman de Troie (ca. 1165) und dem Roman d’Alexandre (von dem Fragmente und Redaktionsstufen aus der Zeit zwischen 1120 und 1180 überliefert sind) als neues literarisches Zentrum im mittelalterlichen Europa. Von der überregionalen Bedeutung dieser Werke zeugen Romane wie Heinrich von Veldekes Eneasroman (ca. 1170–1187) oder Geoffrey Chaucers "Troilus and Criseyde" (1380–1387). Alle diese Werke sind im höfischen Milieu angesiedelt und beziehen ihre Stoffe aus der Antike, weswegen sie als Antikenromane bezeichnet werden. Nordeuropäische und christliche Stoffe (etwa der Tristan, der Artus-, und der Grals-Stoff) verbreiten sich seit der Mitte des 12. Jahrhunderts in der Romanliteratur. Im höfischen Milieu angesiedelte Liebesbeziehungen dominieren als Sujet. Der Standardplot der mittelhochdeutschen Artusromane eines Hartmann von Aue oder Wolfram von Eschenbach, in denen der Held von der Geliebten getrennt wird und zahlreiche Abenteuer (Aventiuren) zu bestehen hat, zeigt formale Anleihen zum antiken Roman. Prosavarianten der neuen Romane – der Prosa-Lancelot, der Prosa-Perceval, der Prosa-Tristan – entstanden ab dem frühen 13. Jahrhundert. Zur selben Zeit werden auch die ersten Satiren auf diese Romane verfasst. Die Novelle, 1300–1600. Chaucer, "Canterbury Tales", Holzschnitt des Caxton-Drucks von 1484 Seit Beginn der schriftlichen Fixierung von Epen (in Nordeuropa etwa ab dem Jahr 1000) entwickelten sich hier rasch Kunstformen, die auf die Möglichkeit, den Text schrittweise zu komponieren, essentiell angewiesen waren. Der soziale Ort der Epik legte sich im selben Moment fest: Handschriften benötigten bis zum Aufkommen des Papiers finanzstarke Auftraggeber. Ab dem 13. Jahrhundert traten hier reiche städtische Handelsherren neben die adligen Auftraggeber als neue Interessentenschicht; sie erwarben mit Liederhandschriften von Rittern eine Kultur, an der sie selbst vom Stand keinen Anteil haben konnten. Eine Vielzahl von Erzählformen blieb gegenüber der Epik in der Tradition mündlicher Überlieferung: Bis heute bewahrte sich von ihnen allen der Witz seinen Ort mitsamt festgelegten Erzählmustern von Fragen und kuriosen Antworten oder dem Dreierschritt, bei dem der letzte Schritt die Pointe birgt. Der Witz selbst zirkulierte bis in das 19. Jahrhundert neben Langformen mündlichen Erzählens wie dem Schwank, der Fabel, dem Märchen, dem Exempel (mittelhochdeutsch bîspel), das in Büchern wie auf der Kanzel Einschub finden konnte, um eine jeweilige moralische Sentenz zu illustrieren. Mit dem ausgehenden 13. Jahrhundert behauptete sich die Novelle, so der übergeordnete Gattungsbegriff, der sich in der frühen Neuzeit herauskristallisierte, als ernstzunehmende Alternative zur Versromanze. Kritik am Heldentum antiquierter Heldenlieder, an der Erzählform des Epos, seiner Reihung von Kampfesproben und seinem Mangel an klug geplanten Interaktionen wurde erstmals in Novellenzyklen formuliert und von ihnen aus im 16. und 17. Jahrhundert zum Standard weiterführender Romankritik wie zum Plädoyer für die Novelle als einzige realistische Alternative zum antiquierten Roman. Geschichtsschreibung und Roman legitimieren sich unabhängig voneinander. Die populäreren der frühmodernen Historien bereiten der Literaturwissenschaft im Rückblick klare Einordnungsprobleme: Jehan de Mandevilles Bericht seiner Orientreise aus den 1370ern, in billigen gedruckten Ausgaben unverändert bis in das späte 18. Jahrhundert hinein verkauft, ist vollgefüllt mit spektakulären Fiktionen, wie etwa der einfüßigen Äthiopier. Einer Einstufung als Roman steht hier mehreres entgegen: es fehlt die romanhafte Handlung, der Held, der ein Leben erlebt. Gravierender ist: das einfache Publikum, das die "wundernswürdige Historie" las, scheint an der Wahrheit oder Unwahrheit des Gelesenen uninteressiert gewesen zu sein. In eine andere Grauzone führt Thomas Malorys "Le Morte Darthur" (1471): Der Leser erhält hier alle Erzählungen von König Artus samt magischen Details von Zaubereien, mit denen Helden etwa die Gestalt anderer annahmen, um in deren Körpern zu agieren. Die erste gedruckte Ausgabe beginnt dessen ungeachtet 1485 mit einem Vorwort, in dem der Herausgeber William Caxton den Text als "wahre Historie" einstuft. Der moderne Leser wird der kompilativen Historie Qualitäten eines Prosaromans zuerkennen: Hier wird im fiktionalen Raum erzählt. Zeitgenössische Urteile gehen in eine andere Richtung: Man las Historien und ließ Fiktionen dabei zu. Historiker sahen sich regelmäßig dazu aufgerufen, Lücken zu füllen. Beliebt waren die Reden, die auch bei fehlender Überlieferung ausgeschrieben wurden. Sowohl Historiker als auch Romanautoren schrieben mit dem Ziel, zu unterrichten. Uns trennt hier unsere Organisation der Debattenfelder vom 15. Jahrhundert. Die Geschichte wird zum Gegenstand nationaler Verantwortung. Zwischen 1400 und 1700 gerät die Geschichtsschreibung in eine Krise. Sie kulminiert im 17. Jahrhundert in der Pyrrhonismusdebatte mit ihrer letztlich unbeantwortbaren Frage, wann wir einen historischen Bericht für erwiesen erachten können. Eine Quellendiskussion muss Indikatoren dazu liefern, meinten Pierre Bayle und die Autoren um ihn. Die Geschichtsschreibung verzichtet im Verlauf dieser Kontroverse auf die Absicht, mit einer wahren Erzählung zu belehren und präsentiert stattdessen die Materiallage in kritischer Diskussion. Geschichtsbücher sehen von nun an Romanen nicht länger ähnlich. Historiker können in der Folge von der Mitte des 17. Jahrhunderts davon abrücken, sich vom Roman mit demselben Nachdruck zu distanzieren, mit dem sie sich von jeder geschichtlichen Unwahrheit distanzieren müssen: Unwahre Historien werden durch Quellenkritik disqualifiziert; Romane können dagegen als eigene Kunstform der Erzählung die Anerkennung von Kunstliebhabern finden. Als kritische Diskussion gewinnt die Geschichtswissenschaft ab dem 17. Jahrhundert in Westeuropa Bedeutung als Verhandlungsfeld partei- und konfessionsübergreifender Kontroversen. Sie ist im 19. und 20. Jahrhundert ein Diskurs, der die Einsetzung historischer Kommissionen rechtfertigt, die politische Fehlentscheidungen einer (zumindest wissenschaftlich) konsensuellen Bewertung unterziehen. Der Roman wird zum Gegenstand kulturgeschichtlicher Interpretation. Während sich die Geschichtsschreibung vom Roman wegbewegt, gewinnt dieser in der frühen Neuzeit eigene Anerkennung als Kunst und am Ende als Literatur, das Wort muss zu diesem Zweck im 19. Jahrhundert neu definiert werden. Hierfür sind bis 1700 mehrere Entwicklungsschritte verantwortlich, die aus einer erheblichen Legitimationskrise des Romans des 16. Jahrhunderts resultieren. Der Frühdruck schuf zunächst Raum für billigere Historien. Mit dem 16. Jahrhundert finden diese ein zunehmend breites Publikum. Eine Differenzierung setzt ein, in der sich ein neuer Markt eleganter Bücher vom entstandenen niederen wie vom akademischen Markt wissenschaftlicher Bücher absetzt. Der Erfolg des "Amadis", der ab den 1530ern eine erste internationale Lesemode auslöst, zieht am Ende die erste kritische Debatte im neuen Feld der eleganten Lektüre nach sich. Die Debatte um den "Amadis" wird im 17. Jahrhundert als offener Wettstreit der modernen Genres des Romans ausgetragen. Neue heroische Romane, alternative satirische sowie an Novellensammlungen orientierte Romane bringen sich in eine Gattungsdiskussion ein, in deren Verlauf unter der wachsenden Liebhaberschaft der belletristischen Produktion der kunstvolle Roman gegenüber kunstloser Produktion gerechtfertigt wird. Mit Huets "Traitté de l’origine des romans" setzt 1670 die Würdigung dieser Reform und die moderne Romaninterpretation ein. Romane werden in den nächsten Jahrzehnten neu bewertet. Man liest sie mit Bildung, um fremde Kulturen und vergangene Epochen zu verstehen. In der zweiten Hälfte des 18. Jahrhunderts verändert die neue Romaninterpretation den Umgang mit Poesie: Man beginnt, Dramen und Gedichte in einem neuen Verbund der Gattungen, die sich angeblich gemeinsam entwickelten, zusammen mit Romanen als fiktionale, künstlerisch gestaltete, kulturelle Produktion zu analysieren. Die neue Wissenschaft wird im 19. Jahrhundert zum zentralen Bereich der Literaturwissenschaft. In den westlichen Gesellschaften organisiert diese Mitte des 19. Jahrhunderts gegenüber der Historik eine eigene Auseinandersetzung, in der es um die Überlieferung künstlerischer Fiktionen als kulturellen Indikator geht. Bücher wie Malorys "Morte Darthur" oder Mandevilles "Reisen" entstammen letztlich einer Kultur, in der Geschichte nicht die heutige Bedeutung als Austragungsort kritischer Diskussionen hatte – einer Kultur auch, in der die Literaturwissenschaft keinen eigenen Bereich der Fiktionen zu nationaler Kunst zusammenstellte. Beide Bereiche sind Teil einer säkularen Debattenlandschaft, die im 19. Jahrhundert in Westeuropa gegenüber der bis dahin politisch-religiös definierten aufgebaut wurde. Die Entwicklung der Mentalitätsgeschichte erweckt den Eindruck, als hätten die Menschen zu Beginn der Neuzeit noch in Überresten mittelalterlichen Aberglaubens Wirklichkeit und Fiktionen durcheinander gebracht. Billige Romane, spätere Volksbücher. Datei:Honour of Chivalry c1715.jpg|mini|Grobe Machart und ein Text, der seit 1598 auf dem Markt ist: Géronimo Fernandez, "The Honour of Chivalry, or" […] "Don Bellianis of Greece" (London: J. S. ca. 1715]) Der Buchdruck schuf unverzüglich neue Marktfelder: Flugblätter, Frühformen der Zeitung, religiöse Streitschriften − hierfür hatte es bislang keine vergleichbaren Medien gegeben. Die Wissenschaften erlangten mit dem Druck die Möglichkeit, Standardausgaben von Texten zu erstellen, die am Ende in identischen Ausgaben in Fachbibliotheken zu Referenzwerken würden − sie zogen wenig später ein Besprechungswesen nach sich, das die Qualität der neuen Fachbücher observierte. Geschichtliche Darstellungen hatten in diesem Spektrum keinen klaren sozialen Status. Fürstenhäuser gaben sie in Auftrag, um sich mit ihnen zu schmücken, reiche Städter eiferten als Handschriftenbesitzer der Aristokratie nach, Bürgerinnen sammelten Beschreibungen von Heiligen und erbauliche Marienleben. Der Druck schuf in diesem Feld am ehesten die Möglichkeit der verbilligten Produktion. Die Verleger suchten beliebte historische Handschriften zusammen und überführten sie mit nachlassender Sorgfalt in gedruckte Fassungen, von denen sich weiter nachdrucken ließ. Mitte des 16. Jahrhunderts lag auf diesem Feld mit Rittererzählungen, Schelmengeschichten wie "Till Eulenspiegel", Heiligenlegenden, und erbaulichen allegorischen Fiktionen wie den "Sieben weisen Meistern" ein breites Segment billiger Bücher vor, das über die nächsten drei Jahrhunderte hinweg kaum noch Veränderungen erfahren sollte. Die Titel wurden mit groben Holzschnitten ausgestattet, in den Textfassungen nur geringfügig modernisiert, gekürzt und verstümmelt, wo sich der Profit maximieren ließ − eine Ware, die bevorzugt ohne Jahres- und Druckerangaben in den Handel kam; sie unterlag keinen Moden und verkaufte sich am besten als zeitlos bekannt an ein Publikum, das gerade das lesen wollte, was man angeblich schon immer gelesen hatte. Hier entstand ab 1530 erstmals eine Ware, die in den Städten die Handwerksschicht und die Lehrlinge erreichte und auch auf das Land verkauft wurde, − für viele jugendliche Leser ein Durchgangsstadium, das zu besseren Romanen führen konnte. Vorsicht ist jedoch vor dem Urteil angebracht, der Markt der Volksbücher sei Vorgänger der heutigen Trivialliteratur. Die Volksbücher bildeten ein geschlossenes Segment von Titeln ähnlichen Designs, das neben historischen Erzählungen religiöse und pseudowissenschaftliche Titel sowie moralische und medizinische Ratgeber enthielt. Nach aufklärerischen Bildungsinitiativen im Lauf des 18. Jahrhunderts geht dieses Marktsegment mit der Wende ins 19. Jahrhundert weitgehend verloren. In den 1840ern setzt die romantische Neuentdeckung ein. Das Wort „Volksbücher“ wird nun festgelegt, um zu unterstellen, dass hier ungekünstelte, dem Volk nahe Bücher entstanden. Der heutige Markt der Trivialliteratur (dazu weiter unten) entwickelt sich im selben Geschehen nicht aus den Volksbüchern heraus, sondern aus den eleganten belles lettres des 17. und 18. Jahrhunderts, als sich von diesem die hohe Produktion nationaler literarischer Werke im späten 18. Jahrhundert abzuheben beginnt. Der höfisch-historische Roman, 1600–1750. Die Untergattung des höfisch-historischen Romans entsteht in kritischer Auseinandersetzung mit dem vielgelesenen Amadis-Roman. Dabei wurden insbesondere die Unwahrscheinlichkeit der Handlungsführung sowie die frivolen Passagen kritisiert. Allerdings wurde dessen „grausame“ Länge übernommen, denn die höfisch-historischen Romane gehören bis heute zu den umfangreichsten Werken der Literatur überhaupt. Die Autoren versuchten jedoch durch die Orientierung an historischen Ereignissen den Grad der Wahrscheinlichkeit des Erzählten zu erhöhen. Die Romane Barclays, der Scudéry wie Anton Ulrichs enthalten als entscheidendes Merkmal Bezüge zur Gegenwart und zu den Moden, die sich mit den neuen Romanen verbreiteten. Die galante Conduite und der galante Stil werden im Lauf des 17. Jahrhunderts die entscheidenden Verkaufsargumente der neuen Ware: Man liest sie, um Muster für Komplimente zu erhalten, Briefe, Reden, übernahmefertige Dialoge des höfischen Umgangs zwischen den Geschlechtern. Das trifft für die Großromane zu, die sich als Spiel neuer europäischer Hofkultur behaupten, in ganz anderem Maße jedoch auch für die mit 300 bis 500 Seiten sehr viel handhabbarere Ware, die im 17. Jahrhundert einen Kundenstamm von Bildung und Geschmack unter jungen städtischen Lesern erobert. Hier entsteht in der zweiten Hälfte des 17. Jahrhunderts ein besonderer Markt für junge, wohl überwiegend noch unverheiratete Frauen, die galante Romane dieses kürzeren Formats goutieren – angesprochen nicht zuletzt von ihren gleichaltrigen Heldinnen, die als Prinzessinnen Indiens oder des antiken Persiens unter Lebensgefahr Identitäten wechseln, in Männerkleidung und weit unter ihrem Stand fliehen und Schutz suchen, bis sich ihre Lage bessert. Satirische Romane und Romansatiren, 1500–1780. Das Etikett "satirischer Roman" wird im Lauf des 17. Jahrhunderts auf ein breites Spektrum von Titeln mit unterschiedlichen historischen Wurzeln angewendet: Römische und spätantike Satire, insbesondere die Romane Petrons und Lucians, mittelalterliche Schwankgeschichten mit Helden wie Till Eulenspiegel sowie die Romansatire, die bereits im Mittelalter in erheblicher Spannbreite existierte. Der Rosenroman umfasst satirische Passagen. Heinrich Wittenwilers "Ring" ist selbst eine satirische Schlacht im Persiflagen auf das höfische Heldentum. Eine Reihe von Entwicklungen kennzeichnet die Produktion, die hier mit dem Druck aufkommt. Helden gewinnen Konsistenz: Wo Till Eulenspiegel zwar einen typischen Charakter hat, jedoch Held einer Sammlung überlieferter Episoden bleibt, gewinnen vergleichbare Helden des 16. und 17. Jahrhunderts Lebensgeschichten. Der anonyme "Lazarillo de Tormes" (1554), Richard Heads "English Rogue" (1665) und Grimmelshausens "Abenteuerlicher Simplicissimus" (1666/1668) stehen in dieser Entwicklungstendenz. Gegenüber den galanten Helden des heroischen Romans, die sich spanischer und dann zunehmend der französischen Conduite bedienen, internationalen Verhaltensmustern, zeichnen sich die satirischen Helden als Leute ihres Volkes aus. Die Titel kennzeichnen die Volkszugehörigkeit: Grimmelshausens Held ist "Simplicissimus Teutsch", Heads Held der "English Rogue", der auf dem Markt mit einem Französischen Schelmen konkurriert. Rozelli: "Der wundernswürdige Neapolitaner" ergänzt das Spektrum mit einem Italiener (französischer Verfasserschaft) zu Beginn des 18. Jahrhunderts. Hier entstand unter Lesern europäischen Geschmacks und deutlicher Distanz zum einfachen Volk eine Lust am nationaltypischen, die im Lauf des 17. Jahrhunderts in die Ausgestaltung nationaler Charaktere und Identitäten mündete. Die national identifizierten Helden wurden gleichzeitig zunehmend zu Akteuren der internationalen Geschichte, nicht als deren Lenker, sondern als Menschen, die von Europas wechselvollen Geschicken betroffen waren und zumeist kurios überlebten. Der Produktion haftet wiederholt eine Nostalgie des Rückblicks auf gar nicht so lustige Zeiten an. Berufsstände wurden Gegenstand der Satiren, zum Teil mit Romanen, deren Helden gezielt mit Berufen ausgestattet sind, öfter noch dadurch, dass diese Helden zum Überleben fortwährend neue Überlebensstrategien und mit ihnen neue Identitäten und Berufe benötigten. Zu den Helden, die mit ihren Streichen, Geschicken und Missgeschicken die grassierenden Laster entlarven, kam eine eigene Entwicklungslinie von Romanhelden, die vor allem als Persiflagen auf Helden des hohen Romans agieren. Rabelais' "La vie très horrifique du grand Gargantua" (1532–1554) bietet hier eine Welt zu Riesen übersteigerter Bauerntölpel, von exzessiver Körperlichkeit. Das derbdreiste Heldenepos begeisterte intellektuelle Leser mit Lust an der Zerstörung eleganter populärer Lesestoffe. Als weiterreichende Satire auf den "Amadis" erschien 1605 und 1615 Cervantes' "Don Quixote", der Roman des Mannes, den die Lektüre von Ritterromanen mit kauzigen Fehlwahrnehmungen der realen Welt gegentreten ließ. Scarrons "Roman Comique" nutze eine Truppe reisender Schauspieler zur dezidierten französischen Reflexion über die Welt und die Dichtung nach Cervantes und seiner Romansatire. Lesages "Gil Blas" (1715–1735), Fieldings "Joseph Andrews" (1742) und "Tom Jones" (1749), Diderots "Jacques le Fataliste" (1773, gedruckt 1796) sind Ausläufer der Traditionslinie im 18. Jahrhundert; Jaroslav Hašeks der "Der brave Soldat Schwejk" (1921–1923) und Günter Grass "Die Blechtrommel" (1959) griffen im 20. Jahrhundert deutlich auf Heldentum und Erzählmuster dieses Feldes zurück. „Petites Histoires“: Die Novelle als Alternative, 1600–1740. a> zum Verdrängungswettbewerb zwischen 'Novels' und 'Romances' 1600–1800. Die Gattungsentwicklung verlief europäisch, auch wenn sie sich nur im Spanischen und Englischen durch einen Begriffswechsel niederschlug. Dass im Englischen und im Spanischen heute von 'Novels' (Novelas) statt von 'Romanen' (Romances) gesprochen wird, ist eine späte Folge des Debakels, das der "Amadis" als Roman seinem Nachfolger bereitete. Dabei wurde der "Amadis" zu diesem Zeitpunkt nirgends in Europa länger gelesen. Kritikern war gerade noch bekannt, dass es in ihm um Ritter ging, die Prinzessinnen aus den Händen grausamer Riesen befreiten, dass er auf zahllose Bände anschwoll, und den Verstand kostete mit seinen Erfindungen von Heldentum. Die "Amadis"-Kritik aus dem "Don Quixote" (1615) war zum Standard der Romankritik geworden, obgleich der Roman der Gegenwart sich selbst gerade einem Spektrum gegenüber dem "Amadis" auffächerte. Der moderne heroische Roman und sein satirisches Gegenstück teilten mit dem "Amadis" Länge und Erfindungsreichtum. Die Alternative wurde an dieser Stelle die Novelle. Sie etablierte im Verlauf in den 1670ern das Wort "Novel" auf dem englischen Buchmarkt. Im Deutschen zeigt sich der Einfluss in Romanen von „curieusen Begebenheiten“. Ist die Novelle in den 1660ern und 1670ern noch vor allem die aktuelle, neue Geschichte, Teil des skandalösen Marktes, so erhält sie im frühen 18. Jahrhundert den Status eines Klassikers. Wegbereitend ist hier im Englischen die "Select Collection of Novels" (1722–1722), die unten noch eingehender erwähnt wird. In den 1720ern werden zunehmend längere "Novels" interessant: lange Liebesgeschichten, wie sie Eliza Haywood vorlegt, sorgen dafür, dass das Wort seine Beschränkung auf kurze pointierte Geschichten verliert. Mitte des 18. Jahrhunderts ist "Romance" im Englischen zwar immer noch der Dachbegriff für den Roman als Gattung. Die "Novel" ist jedoch zu diesem Zeitpunkt das gegenwärtige Genre geworden, das sich von abenteuerlicher Romankunst verabschiedet. Die heutige begriffliche Fixierung richtet sich im Englischen in den 1790ern ein, als die Romantik die "Romance" mit all ihren Schauern des Erfundenen für sich neu entdeckt. Das Wort "Novel" wird im selben Prozess im Englischen zum neutralen Gattungsbegriff, eine Situation in der man ein weiteres Wort für die ursprüngliche Novelle benötigt: „Novella“ wird hier aktiviert gegenüber „Novel“, von nun an das Wort für den langen Roman. Als kurzer Roman von Neuigkeiten übt die Novelle im 17. Jahrhundert entscheidenden Einfluss auf das gesamte Bild vom Roman aus. Die Gattung hat Wurzeln in die Novellensammlungen Boccaccios und Chaucers. Mit Cervantes' "Novelas Exemplares" (1613) erfolgt die offene Behauptung, sie könnte als Gattungsalternative im Zentrum eines neuen Spektrums stehen. Die meisten Gattungsdefinitionen – Du Sieurs "Sentimens sur l’histoire" (1680) gewinnen hier Bellegardes Plagiat der Überlegungen und deren Übersetzungen größeren Einfluss – leiten die einzelnen Gattungsmerkmale weitgehend von der Kürze ab. Mit der Kürze geht der Anspruch darauf verloren, den Leser in eine angenehme Dauerlektüre in eine Welt eigener Ideale zu entführen. Die kurze Erzählung muss sich keine Mühe mehr geben, lange Passagen von Reden und Beschreibungen zu entwickeln. „Bombast“ ist, so die Vertreter der Novelle, das Hauptmerkmal der heroischen Romane. Gezielte Kunstlosigkeit reklamieren die neuen Autoren für sich. Ihre Erzählungen sind unverziert, kurz, pointiert. Im Idealfall stellt der Autor klar, warum er erzählt: die folgende Geschichte soll ein Exempel geben für eine Tugend oder Untugend, einen Umstand modernen Lebens, eine erstaunliche und konsequenzenreiche intime Entscheidung. Verlauf, Stil, die gesamte Konzeption der Novelle müssen sich von da an an die Erzählintention, das zu gebende Beispiel zurückbinden lassen. Es gibt in der Novelle kein weiteres Einverständnis mehr darüber, was hoher Stil ist, stattdessen wird konzise auf die zumeist überraschende Schlusswendung, die Pointe, hinerzählt. Die Novelle ordnet sich mit diesen Vorgaben zwischen den heroischen und den satirischen Roman ein. Ersterer wollte durch Helden unterrichten, die man nachahmen will, letzterer durch Helden, deren Lächerlichkeiten man bei Bewusstsein eigener Reputation nicht nacheifern wird. Im neuen Kurzroman geht es dagegen nicht darum, durch eine Identifikation mit den Helden sich zu verbessern. Das Exempel selbst unterrichtet: Wenn man Dinge so tut wie hier in der Geschichte, kann einem eine solche Überraschung passieren. Die Helden werden zu Menschen mit Stärken und Schwächen. Regelmäßig gewinnen die Intriganten. Mitgefühl mit unterlegenen Opfern gewinnt in den neuen Romanen die Rolle, die moralische Balance auch zugunsten unterliegender Protagonisten herstellen zu können. Gegenüber dem heroischen Roman, der ewige Ideale in Verkörperungen zeigen will, zeigt die Novelle in Tradition der mittelalterlichen Novellistik Spezifik der Orte und der Zeiten. Beliebt sind Geschichten, die sich angeblich tatsächlich so zugetragen haben sollen. Die Novelle verbreitet sich auf dem internationalen Buchmarkt mit dem Angebot lokaler Perspektiven, und sie beschleunigt im selben Moment den Aufbau nationaler Gattungstraditionen: Die Helden von Scarrons "Roman Comique" diskutieren Mitte des 17. Jahrhunderts über die Vorteile der neuen Gattung in nationaler Perspektive: Frankreich müsse Geschichten vorlegen, wie die von den Spaniern als "Novelas" bezeichneten. Marie-Madeleine de La Fayette verfasst in der Folge noch mit ihrer "Zayde" (1670) eine Geschichte im neuen spanischen Stil und mit ihrer "Princesse de Clèves" (1678) deren französisches Pendant: eine exemplarische Geschichte nach höfischer französischer Mode. Deutsche Studenten liefern ab den 1690ern 'einheimische Geschichten'. Londoner Leserinnen riskieren sich um 1700 als Autorinnen im gezielt kunstlosen Genre. Die neue Gattung ist unter diesen Vorgaben gezielt skandalös. Angeblich wird hier nur für die lehrreiche Exempel erzählt, ein Prätext, unter dem sich beliebig indiskret in Privataffären vordringen lässt. Die kurzen Geschichten ziehen in den 1670ern in die skandalöse Publizistik ein. Journale und seriöse Historien bieten zur Auflockerung kleine Erzählungen in größeren Zusammenhängen. Die Novelle öffnet im selben Moment Europas Blick auf außereuropäische Erzähltraditionen: Die "Geschichten aus 1001 Nacht" werden zum europäischen Markterfolg des frühen 18. Jahrhunderts und sind eine Novellensammlung, kein heroischer und kein satirischer Roman. Für die Geschichte hat die vorübergehende Verschmelzung der Gattungen Romans mit der Novelle bis heute andauernde Nachwirkungen. Die vor den 1660ern bestehende Romandiskussion fragt nach Idealen und hoher Sprache. Mit der Novelle werden beliebige Erzählintentionen diskutierbar. Novellen werfen Schlaglichter auf das Leben, auf Menschen in überraschenden Situationen. Zu diskutieren ist hier der Realismus der Erzählung und die Moral des jeweiligen Beispiels. Die neue Diskussion hat Einfluss bis in die heutige Romanbetrachtung. Erzählsituationen sind in der Novelle interessant: Der Großroman verabschiedet sich von der Abenteuerserie. Das Abenteuer weicht der Intrige, dem Plan, der zumeist anders ausging als angedacht. Das Spiel mit der Erzählung dringt über die Novellistik im 17. Jahrhundert in den modernen Roman ein. Mitte des 18. Jahrhunderts ist der große Roman dank der Novellistik wieder legitim. Samuel Richardsons "Pamela or Virtue Rewarded" ist ein langer Roman und im Titel eine exemplarische Novelle: Hier wird ein Beispiel dafür gegeben, dass Tugend sich lohnt. Deutsche Romanautoren schreiben von Hunolds "Satyrischem Roman" (1706/1710) bis zu Schnabels "Wunderliche Fata einiger See-Fahrer" (1731–1743) und Gellerts "Schwedischer Gräfin G***" (1747/48) im Genre der aktuellen exemplarischen Geschichten. Die kurze Novelle steht zu diesem Zeitpunkt bereits als skandalöse Gattung in Misskredit. Heutige Literaturgeschichten scheiden sie in der Regel aus der Romangeschichte gänzlich aus: Es gibt für sie den Schritt der vom "Barockroman" in den Roman der Aufklärung. Häufig ist zu lesen, dass sich die Novelle zwischen dem Mittelalter und Goethes "Novelle" von 1828 gänzlich vom Markt verabschiedete. Die Aussage ist vor allem das Ergebnis einer rückgreifenden Bereinigung der Romangeschichte. Skandalöse Ausgriffe in die Historie, 1600–1750. Ende des 17. Jahrhunderts warf der Roman neuen Reformbedarf auf. Konservative Kritiker fuhren fort, von den Verführungen "amadisischer" Phantasterei zu sprechen, andere monierten, dass der Roman nach wie vor in der Historie eingebettet blieb – die Messkataloge nahmen diese Einordnung vor. Modernere Kritiker verteidigten im selben Moment den Roman mit seinen Ausgriffen in die Realhistorie. Sie taten dies aus zwei Gründen: Die Novellistik wie der heroische Roman, der sich auf das Gebiet der Schlüsselromane wagte, hatten sich reformiert. Die Beobachtung wirklicher Charaktere war sein neues Markenzeichen; die Gefahren des "Amadis" gingen von modernen Romanen nicht mehr aus. Gleichzeitig hatte sich mit den Schlüsselromanen der Scudéry, mit romanhaften Briefsammlungen der d’Aulnoy und ersten Briefromanen wie Aphra Behns "Love-Letters" (1684–1687), mit novellistischer Journalistik wie sie DuNoyer anbot, mit „curieusen“ romanhaften Memoires anonymer französischer Autoren, mit populären Journalen wie dem "Mercure Galant" und mit den aktuellen "nouvelles historiques", wie sie der Abbé de Saint Réal schrieb, ein neuer romanhafter Raum inmitten der Geschichtsschreibung eröffnet, auf dem Autoren elegant und bei Bedarf regimekritisch agierten. Nachhaltigen Einfluss übten hier die romanhaften Aufarbeitungen der Zeitgeschichte aus, die heute Gatien de Courtilz de Sandras zugeschrieben werden (wie die Geschichte des "Mannes mit der eisernen Maske", die unterstellte, dass Ludwig XIV. einen geheimen Bruder verbarg und damit seine Machtansprüche sicherte – die Geschichte, die Alexandre Dumas, mit den "Drei Musketieren" im 19. Jahrhundert berühmt machte). Aufgeschlossene Marktbeobachter wie Pierre Bayle sahen erheblichen Grund, die potentielle Kritikfähigkeit dieses Marktes zu verteidigen, und eher eine kritische Lektüre als die Zensur bzw. Abschaffung solcher Werke zu fordern. Englische Ausgabe von Fénelons "Telemach" (1715). Die Aufteilung bot bei Bedarf Autoren skandalöser öffentlicher wie privater Offenbarungen die Sicherheit, behaupten zu können, sie hätten doch lediglich einen Roman geschrieben. Wer etwas anderes behaupten wolle, müsse erst einmal in einem Gerichtsprozess nachweisen, dass ihre Veröffentlichungen unliebsame Wahrheiten publik machten. Das erwünschte Zwielicht herzustellen, erforderte Kreativität. "Robinson Crusoe" zeigt das: Das Titelblatt behauptet, die wahre Geschichte eines Seemanns zu veröffentlichen. Es liefert dabei gleichzeitig einen Anklang an den soeben berühmtesten aktuellen und definitiv fiktionalen Roman: Fénelon's "Telemach" hatte vergleichbar 'Adventures' aufgeboten. Crusoe überbietet den fiktionalen Rivalen mit spektakulären Adjektiven. In der anschließenden Vorrede will der Verleger alle Zweifel ausräumen, dass es sich bei diesem Buch um eine Fiktion handeln könnte. „Das sei, so weit er sehe, die eigenhändig verfasste Privathistorie eines Seemanns. Man werde sie indes wie alles bezweifeln. Doch könne der Verleger selbst die Leser beruhigen, die zweifelten. Die Geschichte werde so oder so dank ihres lehrreichem Gehalts und Lesevergnügens erfreuen.“ All dies streute so viel Zweifel, wie es angeblich ausräumen wollte, und legte die Grundfrage der Sparte, in der hier publiziert wurde, vor: „Angeblich wahre private Historie, tatsächlich jedoch Erfindung, Roman?“ Der Roman konnte mit ebendiesem Vorwort gleichzeitig als möglicherweise wahrer Bericht von einer Londoner Zeitung in Serie abgedruckt werden. Weder in der Grenzüberschreitung gegenüber der wahren Geschichte, noch im Realismus, den Defoe riskierte, war sein Buch 1719 ein Novum. Weit realistischer war soeben Constantin de Rennevilles Bericht seiner Gefangenschaft in der Bastille "Inquisition Françoise" (1715) – es ist bis heute unklar, was hier wahr und was erfunden war. Dass Defoe sich mit "Robinson Crusoe" von der französischen „Romance“ abwandte, ist eine problematische Behauptung. Die besagte „Romance“ hatte bereits in den 1670ern der novellistischen „Novel“ Platz gemacht. Der neue große Roman erweiterte die aktuelle Novellistik mit einem Angebot außergewöhnlich abenteuerlicher Fiktionalität. In die Entwicklung des 18. Jahrhunderts passte sich "Robinson Crusoe" am Ende perfekt ein: Sie führte zu einer Literatur gezielt fiktionaler Werke, die sich mit künstlerischen Mitteln mit der Realität auseinandersetzen. Jean-Jacques Rousseau nahm diese Neueinordnung Defoes in seinem Roman "Émile, ou De l'éducation" (1762) wegbereitend vor. Der Roman wird „Literatur“. a> 1641 folgte sowie die Ausschläge, die mit der Phase politischer Kontroversen zustande kamen. Ein exponentielles, stabiles Marktwachstum beginnt nach 1750. Londons Buchangebot 1700 nach Angaben der Meßkataloge. Die poetische und fiktionale Produktion verfügt noch über kein einheitliches Feld. ESTC Daten der jährlichen Produktion fiktionaler Prosa auf dem englischen Buchmarkt Der Aufstieg des Romans im 18. Jahrhundert. Die anglistische Forschung verband das 18. Jahrhundert mit Theorien vom Aufstieg des Romans. "The Rise of the Novel" titelt die maßgebliche Untersuchung, die Ian Watt im Blick auf die Romane Defoes, Richardsons und Fieldings 1957 vorlegte. Die Geschichte der englischen Literatur gewinnt an dieser Stelle maßgebliche Bedeutung. Mit ihr verknüpft sich die These eines Einflusswechsels. Französische Autoren bestimmen bis in das frühe 18. Jahrhundert hinein den europäischen Markt, englische gewinnen mit dem Veröffentlichung "Robinson Crusoes" (1719) Bedeutung. Nachweisen lässt sich für die englische wie für die deutsche und die französische Produktion fiktionaler Prosa für das 18. Jahrhundert ein nach relativ stabilen Zahlen für das 17. Jahrhundert beschleunigtes Wachstum. Anstieg der Produktionszahlen. Die gesamte Buchproduktion lag im Zeitraum 1600 bis 1800 in Sprachen wie Deutsch und Englisch bei 1500 bis 3000 Titeln. Bis in die 1750er war dieses Angebot dominiert von der wissenschaftlichen Produktion an Literatur, von Theologie und von einer tagespolitischen Produktion, zu der Pamphlete, Journale und Zeitungen gehörten. Literatur im heutigen Wortsinn, Romane, Dramen und Gedichte, hatten an der gesamten Buchproduktion bis in die 1750er hinein einen marginalen Anteil von 2–5 %. Der Anteil der Romane an der Gesamtproduktion lag entsprechend niedrig. Bis in die 1730er erschienen in Sprachen wie Deutsch und Englisch pro Jahr 20 bis 60 Romane. Die Romanproduktion in französischer Sprache lag etwas höher. Dies beruhte vor allem auf der Aufspaltung französischer Publikationen in einen innerfranzösischen und einen niederländischen Markt. Niederländische Verleger druckten, was in Frankreich der Zensur unterlag und verdoppelten so den Markt. Mitte des 18. Jahrhunderts stieg die Gesamtproduktion an. Fiktionen trugen dazu maßgeblich bei. Das hat vor allem damit zu tun, dass das englischsprachige Verlagswesen sich nach 1750 dezentrierte und zunehmend für den Markt jeweils vor Ort produziert wurde. Nicht minder beginnt hier die Phase der Rückkoppelung des allgemeinen Marktes mit der Literaturkritik, die auf dem Gebiet der Fiktion in der zweiten Hälfte des 18. Jahrhunderts einen Kanon klassischer Werke der Romankunst etablierte, an denen sich neue Romane von nun an messen mussten. Gesellschaftliche Anerkennung. Deutlich veränderte sich vom Mittelalter in das 18. Jahrhundert der Ort des Romans in der gesellschaftlichen Wahrnehmung. Die Epik des Mittelalters hatte sich mit aristokratischen Sitten und der Würdigung des Rittertums befasst. Romane wie der "Amadis" hatten die Ideale der Ritterlichkeit trivialisiert und zu gängiger Münze gemacht. Nationale Hofkultur bestimmte die Titel des 16. und 17. Jahrhunderts, diejenige Spaniens bis in die 1630er, die des französischen Hofes ab den 1640ern. Autoren wie die Scudéry hatten Mitte des 17. Jahrhunderts vor allem mit dem Versprechen verkauft, dass man ihnen die aktuellen Verhaltensformen französischer Etikette entnahm. In den 1660ern ergab sich eine Aufspaltung französischer Publikationen in einen einheimischen und einen niederländischen Markt. Raubdrucker in Den Haag und Amsterdam betrieben die Zweitvermarktung der Pariser Verleger und sie agierten als Anlaufpunkte für Autoren, die in Frankreich nur noch unter Behinderung durch die Zensur verlegen konnten. Es entstand damals ein politisch brisanter, tagesaktueller von französischer Mode geprägter internationaler Markt, der Moden aller Art verkaufte. Arcangelo Corelli und Antonio Vivaldi veröffentlichten von Italien aus bei Étienne Roger in Amsterdam, demselben Verleger, der 1715 Rennevilles "L'inquisition Françoise", "Französische Inquisition" herausbrachte – einen der vielen Titel, die noch selben Jahres in englischer und französischer Übersetzung vorlagen. Der politische Markt war Drehscheibe der internationalen, modisch ausgerichteten Tagesaktualitäten geworden. Von dieser internationalen Warte aus ließ sich eine dezidiert lokale Produktion inspirieren. Europäische Skandalromane finden im ausgehenden 18. Jahrhundert eine parallele lokale Produktion mit privaten Perspektiven in London wie in Leipzig, Halle und Jena. Entscheidend ist für die neue privatere Produktion, dass ihre Autoren bei den skandalösen intimeren Offenbarungen Anonymität wahren können. Frauen können dies in London, Studenten agieren ähnlich aus einer anonymen Masse heraus in den mitteldeutschen Universitätsstädten. Eine Blüte von Frauenromanen bestimmt das frühe 18. Jahrhundert in England, eine parallele Blüte von Studentenromanen skandalisiert die deutschen Staaten bis in die 1720er Jahre. Zu Beginn des 18. Jahrhunderts gilt es als einfach, Romane zu publizieren – sie suchen keine Bedeutung als Kunst zu erlangen, und bleiben, weitgehend unbesprochen, die Materie derer, die Romane lieben. Die Zensur beachtete religiöse und politische Schriften, kaum jedoch die privatere Romanproduktion. Der Roman ist damit zu Beginn des 18. Jahrhunderts bei den Lesern angekommen, eine internationale Ware mit besonderen lokalen Zusatzangeboten. Sein eigentlicher Aufstieg beginnt mit der Verbreitung von Huets "Traitté de l’origine des romans" (1670), worin erstmals die Karriere der Gattung öffentlich manifest wird, sowie mit der Romankritik der Moralischen Wochenschriften, die am gesamten Ideal des Galanten Anstoß nehmen. Sie führen nicht zu einem Niedergang der Gattung, sondern zu einer Aufspaltung der Produktion und zu einer Rivalität unter Autoren, die sich Mitte des 18. Jahrhunderts dezidiert der Reform des Romans verschreiben. Es entsteht ein neuer "höherer" Markt, der sich auf die Romankritik einlässt. Mitte des 18. Jahrhunderts übernehmen gelehrte Literaturzeitschriften die mittlerweile öffentliche Aufgabe der Romankritik. Der Roman kommt mit der neuen öffentlichen Beachtung in den 1780ern im Zentrum öffentlicher Wahrnehmung an, die sich in Zeitungen und Zeitschriften artikuliert. Es dauert von hieran noch ein weiteres halbes Jahrhundert, bis ihn die nationalen Bildungssysteme als literarische Gattung kanonisieren. Der Ort des Romans wird von Beginn des 19. Jahrhunderts an primär durch die Medien zugewiesen. Knapp formuliert kann gesagt werden, dass der Roman im Lauf des 18. Jahrhunderts vom skandalösen Seitenast der historischen Produktion zum Medium einer Reform der öffentlichen Sitten aufsteigt. Seine Ausrichtung auf das Private und den privaten Leser machen ihn hier sowohl bedrohlich wie zum idealen Medium der Reform: Mit keiner anderen Gattung erreicht man den Leser so klar im Privatraum, mit keiner anderen gibt man ihm so tiefe Einblicke in geheime Gedanken von Helden. Das Ergebnis ist dabei weniger die Reform des Romans als die Aufteilung in eine sich auf die Diskussion einlassende und eine sich ihr entziehende Produktion. Sexszenen etwa gab es in Romanen des 17. Jahrhunderts, eine eigene pornographische Produktion kommt dagegen Mitte des 18. Jahrhunderts gegenüber der moralisch reformfreudigen auf. Aufkommen der Klassiker Ende des 17. Jahrhunderts. Klassiker der „Novel“ in der repräsentativen Sammelausgabe "A Select Collection of Novels" (1720–1722). Der Aufbau eines Kanons der Weltliteratur geht im Wesentlichen auf Huets "Traitté de l’origine des romans" (1670) zurück. Huet hatte die bald in eigenständigen Ausgaben erscheinende Arbeit – noch gab es keine Literaturhistorik, die sich um sie kümmern konnte – als Vorrede zur "Zayde" Marie de La Fayettes auf dem Romanmarkt selbst publiziert. Mit ihr veränderte sich vor allem die Rechtfertigung der Romanlektüre unter Liebhabern der Belletristik. Musste der Romanleser sich bis dahin dem Vorwurf stellen, in eine prekäre Pseudowirklichkeit zu entfliehen, so demonstrierte Huet, dass man Romane verschiedener Epochen und Kulturen mit einer neuen Interpretationspraxis voneinander differenzieren könnte: Zeiten und Kulturen der Weltgeschichte hatten aus ganz unterschiedlichen Gründen das Fiktionale als Bereich ausgestaltet. Man würde unter dieser Prämisse Romane gezielt lesen können, um mehr über die Sitten, Denkweisen und Konsumbedürfnisse anderer Zeiten und Kulturräume zu erfahren. Die neue Romanlektüre setzte wissenschaftliche Expertise voraus, sobald man die weltweiten Traditionslinien rekonstruierte, in denen sich Fiktionalität verbreitete. Mit dem späten 17. Jahrhundert mehren sich Ausgaben fiktionaler Literatur mit Verweisen darauf, dass Huet diese Bücher in seiner Weltgeschichte der Fiktionen notierte. Die Romane Heliodors, die "Geschichten aus 1001 Nacht", Petron und Lucian wurden antike und internationale Klassiker. Gleichzeitig erschien mit Fenélons "Telemach" der Roman, der in den nächsten Jahrzehnten als Beleg dafür diskutiert wurde, dass in der Moderne nicht das heroische Versepos neu aufleben würde, sondern der Roman als dessen modernes Pendant und Ersatz. Die moderne Romanproduktion erhielt einen eigenen Markt klassischer Moderne: bahnbrechend ist hier die in London zwischen 1720 und 1722 erschienene "Select Collection of Novels"; sie umfasste die aktuelle Novellistik mit Autoren von Machiavelli über Cervantes bis zu La Fayette (ohne bereits ihren Namen zu kennen). Autoren der Gegenwart versuchten auf diesem Markt Fuß zu fassen, nachdem es Fénelon gelungen war, mit einer einzigen Publikation unverzüglich Klassiker zu werden. Unter bürgerlichen Namen zu veröffentlichen, wird in London in den 1720ern modern. Dem Aufbau eines internationalen Klassikerfeldes der "belles lettres" folgen in der zweiten Hälfte des 18. Jahrhunderts Versuche, nationale in eigenen Reihen Klassiker zu etablieren. Empfindsamkeit und Aufklärung: Reformen des Romans, 1678–1790. Die Reform des Romans, die das 18. Jahrhundert anstrebte, zielte vor allen Dingen auf die Sitten, insbesondere die des privaten Zugriffs auf die Presse und die Öffentlichkeit. Christian Friedrich Hunold alias Menantes hatte zu Beginn des 18. Jahrhunderts noch seine Verleger mit den privaten Nutzungsmöglichkeiten der Presse und des Mediums Roman verblüfft. Skandalautorinnen und hatten sich in Romanen in London profiliert. Überwiegend hatten sie genauso wie ihr Publikum und ihre Romanhelden der jungen Generation angehört. Der Roman des 17. Jahrhunderts lebte von Idealen einer privaten Klugheit, die sich der Gesellschaft geschickt entzog (siehe eingehender dazu den Artikel Galante Conduite): Die Helden und Heldinnen müssen in der Regel zu geheimen Aktionen, Intrigen, greifen, um ihr privates Glück zu finden. Der Umgang mit Geheimnissen bestimmt den Roman bis weit ins 18. Jahrhundert hinein, sowohl in den Romanhandlungen wie im Spiel, das diese Titel auf dem Buchmarkt spielen: Romane publizieren private Geheimnisse. Dem steht bis weit ins 18. Jahrhundert hinein eine spezifische Selbstdefinition der Helden wie der Autoren zur Seite: Man definiert sich nicht über psychologische Identität, sondern über Reputation, den Ruf, den man verteidigt. Das Duell ist eine legitime Form, den Ruf gewaltsam zu verteidigen. Die öffentliche Darlegung der eigenen Sicht, das Waschen schmutziger Wäsche, die Diffamierung von anderen Behauptungen sind die Sache von Romanheldinnen und -autorinnen bis in die 1740er. Wer anderes behaupten will, muss sich entscheiden, gegen Offenbarungen aufzutreten und damit die Reputation des Autors herauszufordern. Dieses harte Reglement, in dem Romanhelden und -autoren sich durchgängig als öffentliche Akteure begreifen, wird im 18. Jahrhundert eingetauscht gegen ein weiches der Sensibilität und Empfindsamkeit. Das empfindsame Verhaltensmodell geht von einem Individuum aus, das von Natur aus nur ungern öffentlich agiert. Scham, zu erröten, wenn von einem gesprochen wird, zeichnet das empfindsame Individuum aus. In Gesellschaft ist es nicht Spieler, der die eigene Reputation kalkuliert nutzt, sondern hilfsbedürftig. Wo Heldinnen des 17. Jahrhunderts ihren Eltern verheimlichen, wen sie lieben, um so den Freiraum zu gewinnen, ihre Ziele zu realisieren, fühlt sich das empfindsame Individuum hilflos. Es muss auf andere zutreten, Vertrauen wagen, die Eltern für das eigene Glück gewinnen. Liebe gegenüber allen Mitmenschen und Transparenz ihnen gegenüber zeichnen empfindsame Helden aus (Verhaltensratgeber des frühen Jahrhunderts definierten die Umwelt dagegen als feindlich und rieten zur Intransparenz). Den neuen Helden und Heldinnen steht im selben Moment eine neue Umwelt gegenüber, in der es gleichgeartete gute Menschen gegenüber intriganten Feinden gibt. Samuel Richardsons "Pamela or Virtue Rewarded" spielt 1740/41 exemplarisch den neuen Grundkonflikt durch zwischen einer unschuldigen moralischen Heldin niederen Standes und einem ihr als Verführer gegenübertretenden Dienstherrn. Der Konflikt endet weder mit dem Ruin der Heldin wie in den Romanen Delarivier Manleys, noch mit einem gewitzten Siegeszug der vermeintlichen Unschuld wie in vielen Novellen; er mündet stattdessen neuartig in der Reform des im Status überlegenen Mannes. Die neuen Helden erleben sich selbst als von ihren Tugenden geleitet, kaum fähig Geheimnisse zu haben. Der Verlust des Gefühls, in 'natürlicher' Harmonie mit ihrer Umwelt zu leben, macht sie unglücklich. Sie entwickeln eigene empfindsame psychische Dispositionen, mit denen sie sich und anderen ihre Handlungsweise erklären können – offen und auf Mitgefühl und Unterstützung angewiesen, wo ihre Vorgänger gewitzt und auch bei tugendhaftem Charakter „verschlagen“ agierten. Vorläufer hat die neue Produktion in der französischen Novellistik. Insbesondere Marie de LaFayettes "Princesse de Cleves" (1678) eroberte hier dem neuen Verhalten Terrain. Deutlich handhaben die Romanautoren des mittleren 18. Jahrhunderts ihre Werke als Proben. Die neuen Helden werden der Öffentlichkeit mit didaktischen Intentionen zur Verfügung gestellt: "„Now first published in order to cultivate the Principles of Virtue and Religion in the Minds of the Youth of Both Sexes, A Narrative which has the Foundation in Truth and Nature; and at the same time that it agreeably entertains…“", so der Untertitel zu Richardson's "Pamela". Der neue Roman setzt Fiktionalität ein, um zu unterrichten und entwirft Menschen mit der Absicht, darüber zu diskutieren, ob hier nicht erstmals die menschliche Natur korrekt erkannt sei. Die neuen Charaktere benötigen damit eine Wissenschaft von der geheimen Natur des Menschen, die bislang von Kultur deformiert wurde. Mit der Psychologie entsteht diese Wissenschaft im Parallelprozess. Gleichzeitig entwickeln die neuen Romane ein spezielles Interesse an Entwicklungen (auch dieses Wort ist Mitte des 18. Jahrhunderts neu, „Veränderungen“ machten Protagonisten von Romanen bis in die 1720er durch). Bildungs- und Entwicklungsromane kommen auf. Kindheit und Jugend werden Sujets des modernen Romans. Als Vorbilder dienen hier allenfalls die satirischen Romane des 17. Jahrhunderts, die lustige Schwächen ihrer Helden in ihrer Kindheit darlegten. In den Romanen Jean-Jacques Rousseaus werden in den 1760ern Entwicklungs- und Reifungsprozesse zum Gegenstand philosophisch experimenteller Fiktionen. Die Romane Laurence Sternes und Henry Mackenzies kosten in den 1760ern und 1770ern Entwicklungen ihrer Helden satirisch liebevoll zu „empfindsamen“ Charakterskizzen aus. Bildungsromane deutscher Autoren des 18. und 19. Jahrhunderts verknüpfen das neue Sujet mit einer Spannbreite von Gesellschaftskritik zu individueller historischer Reflexion. Die neuen Verhaltensnormen werden Mitte des 18. Jahrhunderts zuerst an weiblichen Helden vorgestellt. Männliche Helden verhalten sich wenig später „empfindsam“, oft mit deutlicher Selbstironie. In den 1770ern werden entgegen den konsensorientierten Modellen Romanhelden interessant, die mit der Gesellschaft brechen, an ihrem Glück aus eigenen Dispositionen heraus keinen Anteil haben können. Johann Wolfgang von Goethes "Werther" (1774) setzt hier einen europäischen Maßstab. Von ihm geht Ende des 18. Jahrhunderts eine eigene Mode tragischer Helden aus, denen die Integration in die empfindsamen beengenden Verhältnisse misslingt. Die gesamte Entwicklung ist an öffentliche Diskussionen gekoppelt, die jedoch keine Gleichschaltung der Romanvielfalt bewirken: Die Kritik ist dissonant, sie fördert Konkurrenz verschiedener Modelle. Sie teilt mehr noch den Markt in einen Bereich, dessen Reformbestrebungen Rezensenten ansprechen können und ein größeres Feld, das sich an den Kritikern vorbei auf Kundenschichten ausrichtet. Die Differenzierung zeigt sich ab Mitte des 18. Jahrhunderts deutlich im Aufbau eines eigenen Bereichs der Pornographie: Für ihn wird nicht öffentlich geworben, eine Subkultur muss Wissen über diese Titel verbreiten. So ergibt sich ein Romanangebot mit breiter unbesprochener trivialer Produktion und geheimen Nischen, in denen Grenzen des moralischen Konsenses aufgehoben werden. Der Roman als experimentelle Textform, 1700–1800. a>", Band 6, S. 70–71 (1769) Der neue Status, den der Roman als Gattung öffentlicher Diskussion im 18. Jahrhundert erringt, zeigt sich besonders in den philosophischen und experimentellen Werken. Philosophische Fiktionen sind dabei keine Neuheit. Platons "Dialoge" kamen in philosophischen Erzählungen heraus. Die klassischen Utopien nutzten von Thomas Morus' "Utopia" (1516) zu Tommaso Campanellas "La città del Sole" (1602) romanhafte Rahmenhandlungen. Sie blieben als Philosophie diskutiert, da Liebeshandlungen und Intrigen in ihnen keine weitere Rolle spielten. Mit den 1740ern ändert sich das. Morus' "Utopia" lässt sich nun als „Roman“ herausgeben. Voltaire schreibt philosophische Romane: "Zadig" (1747) und "Candide" (1759) werden zentrale Texte der französischen Aufklärung und Meilensteine der Romangeschichte. Jean-Jacques Rousseau erweitert hier die Optionen mit dem deutlich didaktischen "Emile oder über die Erziehung" (1762) und der wesentlich romanhafteren "Julie oder Die neue Heloise" (1761). Die genannten Titel belegen, dass philosophische Fragen nun eher im Roman als in fachinternen Abhandlungen gestellt wurden. Voltaire und Rousseau konnten mittlerweile darauf vertrauen, dass ihre Werke auch als Romane publiziert von der Fachdiskussion zur Kenntnis genommen würden. Die gesamte Literaturdiskussion wandte sich von den Wissenschaften aus Fiktionen zu. Mit dem neuen Selbstverständnis des Romans gingen Experimente mit den Gattungsgrenzen einher. Laurence Sternes "The Life and Opinions of Tristram Shandy, Gentleman" bricht 1759–1767 spielerisch und bahnbrechend mit der fortlaufenden Erzählung als der Grundlage des Romans. Die Autor-Leser Kommunikation, die bislang Vorreden beherrschte, ersetzt die Handlung. Ihr Thema ist der nicht zustande kommende Lebensbericht, ein Scheitern der Erzählung. Visuelle Momente ersetzen Text: eine marmorierte Seite gestaltet die Kommunikation wie eine demonstrativ schwarzer Block; auf einer anderen Seite gibt der Erzähler verschiedene Linien als Verlaufsskizzen der wirren Handlung. Jonathan Swifts satirische Erzählung "A Tale of a Tub" (1704 veröffentlicht) ging hier mit ähnlicher Experimentierfreude voran, experimentierte dabei jedoch nicht mit dem Roman, sondern mit der Gattung des Traktats. Der Roman wird „Nationalliteratur“, 1780–1860. Bis Anfang des 19. Jahrhunderts hatte sich der Roman als primär westeuropäische Produktion entwickelt. Als unwissenschaftliche Gattung, die vor allem mit Lesegenuss und Neugier rezipiert sein will, florierte er in einem breiten Spektrum von Büchern für einfache Leser bis zu brisanten Titeln, die Indiskretionen europäischer Politik vermarkteten. Ohne weitere Lokalisierung in der Religion oder der Politik war er gleichzeitig bis in die 1780er am ehesten Gegenstand kommerzieller Verwertung mehr oder minder eleganter Privatlektüre. In der zweiten Hälfte des 18. Jahrhunderts rückte der Roman schrittweise in den Brennpunkt öffentlicher Wahrnehmung: Literarische Rezensionen nahmen ihn in den Blick. In der ersten Hälfte des 19. Jahrhunderts festigt sich diese Tendenz: Es etablieren sich in Literaturgeschichten und literarischen Zeitschriften neue Rezensions- bzw. Besprechungsformen. „Literatur“ ist von nun an der Bereich der fiktionalen und poetischen Schriften. Die Wissenschaften, bislang Literatur im Sinne des Wortes, professionalisieren sich und heben sich von der allgemeinen Literaturbesprechung ab bzw. blendet sie aus. Mit Fiktionen und Poesie gewinnt die Literaturkritik in den Nationen des Westens einen eingeschränkten, säkularen, sehr frei handhabbaren Besprechungsgegenstand von großem öffentlichem Interesse. Institutionalisierung als Bildungsgegenstand. Mit den 1830ern erfolgt der nächste Schritt: die Nationen Westeuropas etablieren die Literatur im neuen Wortsinn als Unterrichtsgegenstand. Die Nationalliteraturen werden in einem Wettstreit unter den Kulturnationen Europas in Literaturgeschichten kanonisiert und mit Entwicklungsgeschichten versehen. Insbesondere die Nationen Nord-, Ost- und Südeuropas geraten im selben Moment in einen Entwicklungsdruck: Ihre kulturellen Eliten konsumierten in den letzten Jahrhunderten den westeuropäischen Roman. Nun ist es nötig, eigene Werke der großen Nationalliteratur vorzulegen. Der Roman gewinnt in diesem Wettstreit große Bedeutung in einer Produktion epochaler, in die nationale Geschichte greifender Großromane, die nationale Identität definieren. Charles Dickens bei einer Autorenlesung, ein neues Phänomen literarischen Lebens Bei der Verbreitung der Nationalliteratur spielte Deutschland in der Frühphase eine Vorreiterrolle. Zu Beginn des 18. Jahrhunderts war Deutschland territorial in Kleinstaaten zersplittert und durchgehend auf die Moden Frankreichs ausgerichtet gewesen, der Nation, mit der eine jahrhundertealte Erbfeindschaft bestand, während die politischen Romane ihrer regimekritischen Intellektuellen gelesen wurden. Mitte des 18. Jahrhunderts hatten deutsche Intellektuelle mit Blick auf den englischen Roman einen Entwicklungsrückstand Deutschlands festgehalten. Poesie und Prosafiktion zu Besprechungsgegenständen zu erheben, hatte in Deutschland national einigende Bedeutung – Religion und Politik boten keine vergleichbar überregional besprechbaren Gegenstände. Der Aufbau der deutschen Nationalliteratur schafft Anfang des 19. Jahrhunderts einen Bildungsgegenstand und eine nationale Diskussion, die sich exportieren lassen. Der englische Sprachraum hat zwar den entschieden tragfähigeren kommerziellen Roman aufgebaut, hinkt aber bei der Institutionalisierung nach, mit der im 19. Jahrhundert die Nationalliteratur Unterrichtsgegenstand in den Schulen und öffentlicher Debattengegenstand in den Medien wird. Eine französische Geschichte der Englischen Literatur, diejenige Hippolyte Taines, holt hier 1863 den institutionellen Entwicklungsschritt nach. Der Schritt des Romans in den Schulunterricht ist begleitet von einer Neugliederung der Wissenschaften, die für die neuen Bildungsgegenstände zuständig werden. Theologie, Jurisprudenz, Medizin und Philosophie waren die vier Grundwissenschaften bis in das mittlere 18. Jahrhundert hinein gewesen. Mit dem 19. Jahrhundert setzt sich eine neue Teilung in Naturwissenschaften, technische Wissenschaften, Sozialwissenschaften und Geisteswissenschaften durch. Die Geisteswissenschaften werden in dieser Entwicklung die institutionelle Dachstruktur von Geschichte und Kultur, deren Experten auf die Kunst und Literaturbesprechung entscheidenden Einfluss haben. Etablierung in neuen Formen literarischen Lebens. Mit der neuen gesellschaftlichen Bedeutung verändern sich im 19. Jahrhundert die Modalitäten literarischen Lebens. Das Gesamtangebot wächst und fächert sich auf in einen Bereich diskutierter Werke hohen literarischen Anspruchs und den Massenmarkt der Belletristik, der sich in der zweiten Hälfte des 18. Jahrhunderts entwickelte und der eine weitere Differenzierung mit modischer Trivialliteratur gewinnt. Ein breiter Austausch in den Medien erfasst nun den Roman. Die Stellung des Autors wird neu definiert. Bis in die Mitte des 18. Jahrhunderts war die anonyme Publikation die Regel. Ihr entsprach die weitgehende Abtrennung des Autors vom Geschäft, das sich mit seinem Buch machen ließ: der Autor lieferte sein Manuskript ab und erhielt ein Honorar nach Anzahl der Druckbögen im publizierten Buch. Im Ernstfall konnten Verleger behaupten, zu den Autoren brisanter Romane nie intensiveren Kontakt gehabt zu haben, sie erwarben Manuskripte, ohne deren Brisanz sogleich zu erkennen (so die Entschuldigung, die Verleger im 17. Jahrhundert wiederholt gegenüber der Zensur hervorbrachten). Mit dem 19. Jahrhundert ändert sich das Urheberrecht. Der Autor wird am weiteren Gewinn beteiligt, den sein Titel macht. Die neue Regelung gibt dem Autor Identität (die ein neues Presserecht mit neuen bürgerlichen Freiheiten schützen muss). Sie erlaubt zudem ein neues Kalkül mit der literarischen Karriere. Ein literarisch anspruchsvolles Buch kann erst einmal in einer kleinen Auflage gedruckt werden. Werden die Kritiker darauf aufmerksam, dann folgt der Durchbruch mit der kritischen Beachtung, die den Titel zum Bildungsgegenstand macht. Der Autor profitiert dann vom Ruhm, den er als anerkannter Dichter findet. Dichterlesungen sind symptomatisch für die neuen Formen literarischen Lebens wie Kontroversen mit Literaturkritiker oder öffentliche Stellungnahmen großer Autoren zu allen Fragen gesellschaftsweiter Bedeutung. Große Romanautoren des 19. Jahrhunderts wie Charles Dickens und Émile Zola, Lew Tolstoi, Fjodor Dostojewski, sind Produkte des neuen literarischen Lebens mit seiner klaren Ausrichtung auf die Nation und ihre Öffentlichkeit. Die Nation gewinnt mit dem Romanautor im Idealfall eine unabhängige Stimme, ein Gewissen, das nicht in die Politik oder in die Religion eingebunden ist, im Ernstfall aber allein der Kunst gegenüber verantwortlich handeln soll, so die Theorie. Der neuen Verantwortung, die der Autor großer Literatur für die Nation hat, trägt der literarische Streit in seiner zentralen Thematik Rechnung: Das Dauerthema der Literaturdebatte des 19. Jahrhunderts wird die Frage, wie weit der Autor sich auf die Schilderung der Wirklichkeit einlassen kann (ohne die Kunst mit dem Niederen der Wirklichkeit zu beschmutzen), wie weit er sich im selben Moment in öffentlichen Diskussionen instrumentalisieren lassen darf (oder ob er als Künstler nicht außen stehen muss). Die Gegenposition gegenüber dem Realismus erhebt die Forderung nach l’art pour l’art, Kunst um der Kunst willen. Sie ist nicht minder der weiteren Frage nach der gesellschaftlichen Verantwortung des Künstlers ausgesetzt. Der Künstler entzieht sich hier Ansprüchen der Gesellschaft mit dem Hinweis auf seine alleinige Verantwortung gegenüber der Kunst. Die Frage der moralischen Integrität des Romanautors gewinnt im 19. Jahrhundert Gewicht. Dazu passt, dass Romanautoren sich im Extremfall öffentlichen Verfahren ausgesetzt sehen. Die Karrieren von Émile Zola und Oscar Wilde liefern den Biographien von Autoren wie Alexander Solschenizyn und Salman Rushdie Vorbilder. Geraten große Autoren im 19. Jahrhundert in das Zentrum eines neuen nationalen literarischen und kulturellen Lebens, so wird das gesamte Buchangebot zunehmend von einem neuen und breiten Massenmarkt fiktionaler Literatur getragen, der die Genres des 18. Jahrhunderts weiterentwickelt. Eine Trennung hoher, auf Diskussionen Anspruch erhebender, und niederer Konsumware bildet sich im 19. Jahrhundert aus. Sie ist das Fundament der gesamten Entwicklung, da sie ein Marktgeschehen ohne Verlierer garantiert: Der Markt wächst insgesamt. Allenfalls die relative Bedeutung der Bereiche verschiebt sich. Unter den Debattengegenständen gewinnt Literatur gegenüber der Theologie gesellschaftlichen Rang. Zwischen Trivialität und Revolte: Romantische Fiktionen, 1770–1850. Illustration einer niederländischen Ausgabe von "Juliette" von de Sade, ca. 1800. Das Wort Romantik bindet mit der Wende ins 19. Jahrhundert eine ganze Generation von Künstlern an den Roman als interessanteste Kunstgattung. „Written in a romantick vein“, bedeutete im 17. Jahrhundert, dass der Autor sich eines romanhaften Stils bediente. Das deutsche Äquivalent war im 17. Jahrhundert die „romanische“ Schreibweise (das "t" in „romantisch“ setzt sich mit der anglophonen Epochendefinition durch). Die Romantiker riskieren alle Tugenden und Untugenden der alten Gattung, um erschreckende Welten aufzubauen (statt die reale "realistisch" und "natürlich" abzubilden) und Fiktionen phantastisch wuchern zu lassen (statt der Kunst realistischen Novellistik zu folgen). Die Novelle wird dabei neu entdeckt als Gattung, die sich in ihrer Geschlossenheit der Intrigenhandlung zerstören lässt, und die in ihrer Kürze neue Offenheit erlangen kann, um über sich hinaus auf eine jenseitige Realität zu verweisen. Anders als die Heldenromane des 17. Jahrhunderts, die sich vom "Amadis" als Abgrund der Verworrenheit abzusetzen suchten, zelebrieren die Romantiker das gefahrvoll Verworrene des Romans. Gegenüber der Romankritik der Aufklärung, die klare didaktische Intentionen lobte, wird offene Subversion geübt. Sie gehen gleichzeitig auf die neue Marktdifferenzierung ein, die den Roman soeben erfasst: Mitten im Prozess, in dem die aktuelle Literaturkritik die Belletristik weitgehend trivialisiert zugunsten eines kleinen Bereichs klassisch apostrophierter Literatur, die von nun an Gegenstand der Literaturdiskussion sein soll, spielt die junge Generation von Autoren mit den Stoffen des niederen Markts, auf dem sich Schauer und Emotion verkaufen. Das Groteske, schonungslos Spannende und atemberaubend Erfundene ist ein willkommenes Reservoir des Fiktionalen, das offenkundig als Trivial unterdrückt werden soll. Der Romantik gelingt im selben Moment der erste Angriff auf die Literaturkritik, die die Kunst durchaus auf Fiktionalität verpflichtet haben wollte. Die Frage danach, was Kunst eigentlich sein soll, bestimmt die Romane und Novellen der Romantiker offen. Künstlerromane und -Novellen widmeten sich kunsttheoretischen Diskussionen. Allegorische Geschichten erschienen, in denen es wie in E. T. A. Hoffmanns "Der Sandmann" (1817) explizit um Kunstkenntnis und romantische Verklärung der trivialeren und bedrohlicheren Wirklichkeit geht. Das Reale und das Künstliche sind hier ein so interessantes Objekt wie in Mary Shelleys "Frankenstein" (1818), dem noch entschieden deutlicher die Grenzen zum Trivialen überschreitenden Schauerroman über die Erschaffung und die Seele eines neuen künstlichen Menschen. Die in der Kunst offen diskutierte Frage danach, was Kunst eigentlich sein soll, hat ihren interessantesten Adressaten in der Literaturwissenschaft, die die Kunst insgesamt auf Fiktionalität und damit auf Interpretierbarkeit verpflichtet. Die Frage der Interpretation ist im selben Moment eine in den Romanen der Romantiker offen diskutierte Frage. Fiktionen mit oberflächlich trivialen Realitäten, unter denen tiefere Wahrheiten mit Kunstverständnis zu bergen sind, greifen um sich. Allegorie und der Abgrund der Bedeutungstiefe sind so beliebt wie der Trug des Oberflächlichen, das nur vorgibt, tiefere Bedeutung zu haben und allein im kunstbeflissenen, verklärenden Romantiker solche Bedeutung gewinnt. Das Fiktionale selbst wird von den Romantikern als der eigentliche Bereich der Kunst akzeptiert. Die neue Frage ist, woher das Fiktionale seine tieferen Wahrheiten bezieht. Dass es Ausdruck sexueller Antriebe, tieferer Ängste und Sehnsüchte ist, gehört ins Antwortenspektrum der Romantiker wie das Programm, die Kunst und die Fiktionalität von allen Regelzwängen zu befreien. Die ungenierte und unbezwingbare Fiktionalität, die sich im Albtraum und in der Vision Bahn bricht, sind beliebte Erzählstoffe, wie die Realität von Wahnvorstellungen, die sich im Verbrechen herstellt. Das Fragment wird zur Kunstform, die von sich aus Gattungsregeln bricht und über sich hinaus auf das Unvollendete verweist. Das Interesse an psychologischen Abgründen, wie sie im Traum, in der Phantasie, in Wahnvorstellung oder in künstlerischen Fiktionen zu Trage treten, schafft am Ende ein Stoffspektrum, das in der Trivialliteratur wie in der modernen Kunst fortwirkt und das gleichzeitig die gesamte wissenschaftliche Interpretationspraxis beeinflusst. Der Horrorfilm, Fantasy, die Rollenspielszene sind heute durchdrungen von romantischen Entdeckungen düsterer Materialbereiche, insbesondere des "finsteren" Mittelalters, der Nacht, des Gewaltexzesses, der Isolation des Individuums und der sich dem öffentlichen Zugriffs entziehenden Machtausübung in Geheimengesellschaften. Autoren wie De Sade, Poe, Shelley oder E. T. A. Hoffmann schufen im selben Moment die Vorstellungswelten, die in der Psychoanalyse wie im Surrealismus wieder auftauchten. Freuds Psychoanalyse bezieht zu Beginn des 20. Jahrhunderts einen großen Teil ihrer Plausibilität aus Interpretationen der Literatur, die hier zu Beginn des 19. Jahrhunderts zustande kommt. Romane in Auseinandersetzung mit der Gesellschaft und ihrer Geschichte, 1800–1900. In die Geschichte hinabtauchende Romane gibt es seit der Antike. Die Geschichte der Gegenwart ist seit dem 17. Jahrhundert ein ausgiebig genutztes Romanthema – satirische Romane wie Grimmelshausens "Simplicissimus" (1666/1668) beuteten es aus wie historische Enthüllungsromane von der Art des anonymen "La guerre d'Espagne, de Baviere, et de Flandre, ou Memoires du Marquis d***" (Cologne: Pierre Marteau, 1707), das im frühen 18. Jahrhundert einen französischen Agenten in James Bond-Manier Hintergründe des Spanischen Erbfolgekriegs aufdecken ließ. "Krieg und Frieden", Band I, Kapitel 5 a>s "Vingt mille lieues sous les mers" (1870) Die gesellschaftliche Stellung Historischer Romane des 19. Jahrhunderts markiert einen Umbruch: Der satirische Roman des 17. Jahrhunderts blieb unbesprochenes Abenteuer. Den Skandalroman des frühen 18. Jahrhunderts beuteten Journalisten als indiskrete und ungedeckte Informationsquelle aus. Der historische Roman, der mit dem frühen 19. Jahrhundert mit Werken wie Walter Scotts "Waverley" (1814) aufkommt, versucht den Titel in den Bildungskanon aufzunehmen und die Fiktion ins kollektive Geschichtsbewusstsein zu übernehmen, um auf diese Weise nationale Identität zu erzeugen. Die Stoffe der meisten historischen Romane sind unterhaltend, eskapistisch, leicht bildend und erbaulich. Brisant wurde die Popularisierung der Geschichte jedoch nicht durch den Schulunterricht und die Universitäten, die in den säkularen westlichen Nationen historische Diskussionen veranlassen und damit Identität stiften, sondern aufgrund individueller Lektüreerfahrung. Der historische Roman entwickelt bei seinen Ausgriffen auf die Vergangenheit wie die Gegenwart ein eigenes Potential durch seine Konzentration auf individuelles Erleben und Einzelschicksale. Er stattet die Leben von Romanhelden mit tieferer historischer Bedeutung aus. Historisches Leid und historische Triumphe werden im Roman nacherlebbar, und das schafft durchaus andere Geschichtswahrnehmungen, als jene, die Berichterstattung in den öffentlichen Medien oder Geschichtsbücher anbieten. Im unkritischen Fall wird hier das Einzelschicksal heroisiert, die Geschichte bestätigt; im spannenden Fall wird die kollektive Realität der Zeitungen und Geschichtsbücher unvermeidlich kritisch in Frage gestellt. Klassenkonflikte, Rassismus, wirtschaftliche Ausbeutung, oder internationale militärische Auseinandersetzungen bleiben in der wissenschaftlichen Aufarbeitungen weitgehend entindividualisiert; hier ist allenfalls interessant, wer für Entscheidungen Verantwortung trug. Anders im Roman: Mit Charles Dickens ist Kinderarbeit in Arbeitshäusern des 19. Jahrhunderts individuelles Leid. Mit Émile Zola wird die Proletarisierung der Großstädte des 19. Jahrhunderts nacherlebbar. Mit Lew Tolstois "Krieg und Frieden" (1868/69) werden die militärischen Auseinandersetzungen Russlands für Männer und Frauen private Lebensschicksale. Harriet Beecher-Stowes "Uncle Tom’s Cabin; or, Life Among the Lowly" (1851–1852) wurde nicht nur der meistverkaufte Roman des 19. Jahrhunderts, er trug gleichzeitig dadurch, dass er der gesellschaftlichen Realität Schicksale und Namen gab, maßgeblich dazu bei, dass die Sklaverei in den Vereinigten Staaten öffentlicher Debattengegenstand wurde. Autorinnen hatten die Romangeschichte von Madeleine de Scudéry über Eliza Haywood bis zu Jane Austen bestimmt. Mit den Romanen George Eliots wurde dagegen die Bildung und die Partizipation der Frau an gesellschaftlichen Prozessen Thema öffentlicher Auseinandersetzungen. Hier schlägt sich vor allem der Stellungswechsel des Romans nieder, der vom curieusen Gegenstand privater Lektüre (mit öffentlicher Brisanz) zum national anerkannten Debattengegenstand wurde, dessen Diskussionsangebote die Literaturkritik wie die Auseinandersetzung in den Medien annahmen. Der Aufstieg des Romans zum Gegenstand nationaler Auseinandersetzungen schlug sich im 19. Jahrhundert in der Institutionalisierung der Literaturgeschichtsschreibung nieder, die nun der verankerten französischen, englischen und deutschen Nationalliteratur folgte. Romane mit nationalgeschichtlicher Thematik initiierten hier Entwicklungen in den skandinavischen und ost- und südeuropäischen Sprachen. Zukunft wurde in einem Seitenzweig der Entwicklung ein neues Thema. Die Entwicklung läuft hier von Samuel Maddens satirische "Memoirs of the Twentieth Century" (1733) über Louis-Sébastien Merciers Fortschrittsutopie "L'An 2440" (1771) und Mary Shelleys autobiographischen wie politischen Roman "The Last Man" (1826) zu den dezidierten Auseinandersetzungen mit aktuellen Entwicklungsprozessen, wie sie Edward Bellamy mit "Looking Backward" (1887) und H. G. Wells mit "The Time Machine" (1895) am Ende des 19. Jahrhunderts vorlegten. Die Auseinandersetzungen mit Zukunft gewann mit diesen Büchern neue Qualität: Entwicklungen, Veränderungen, Evolution auf sozialem und kulturellem Gebiet wurde mit ihnen öffentlicher Diskussionsgegenstand und ein Raum populärer Phantasie, der eine eigene kommerzielle Produktion an Science Fiction inspirierte. Der Roman als Gattung des subjektiven Erlebens, 1760–1960. a>" in der Ausgabe von 1795 Individualismus hatte den Roman des Mittelalters wie den der frühen Neuzeit bestimmt: In der Regel standen einzelne Helden im Vordergrund. Ob sie als Heldinnen der Antike in Männerkleidern in heidnische Sklaverei gerieten, wie Robinson Crusoe allein auf einer Südseeinsel überleben mussten oder wie Constantin de Renneville am Rande der fiktionalen Durchdringung ihrer Existenz sich der Lebensumgebung der Bastille anpassten: Sie alle erlebten, anders als die Romanhelden des 19. und 20. Jahrhunderts, ihr eigenes Erleben nicht als vollkommen persönlich und unvermittelbar. Das hat sehr verschiedene Gründe. Mustergültig war bis Mitte des 18. Jahrhunderts das Individuum, das sich in bewusster Conduite über sein öffentliches Renommee definierte und behauptete. Entwicklungen spielten für dieses Individuum keine Rolle, wohl aber Situationsveränderungen, die es klug zu nutzen galt. Der Held, die Heldin, definierten sich über persönliche Stärke gegenüber anderen. Hiervon wichen die satirischen Helden ab, die persönliche Schwächen entwickelten, aus denen der Leser zu lernen hatte und von denen er sich mit Belustigung distanzierte. Solange der Roman in der Geschichtsschreibung angesiedelt blieb, bestand zudem kaum ein Grund, über persönliche Perspektiven und einen schmerzlichen Bruch zwischen diesen und dem kollektiven Erleben nachzudenken. Die Geschichte war Gegenstand der Vermittlung, für die der Autor mit Schreibkunst zuständig war. Brüche zwischen der eigenen Sicht und der der Umwelt bestimmten vor 1750 nicht den Roman, sondern die religiöse Literatur: die Frauenmystik des Mittelalters und die protestantische spirituelle Autobiographie der frühen Neuzeit. Im Moment, als der Roman aus der Geschichtsschreibung ausgegliedert und in das Feld der literarischen Kunst eingegliedert wurde, gewann er einen Entwicklungsspielraum mit der Stilisierung, die nun der Romanautor als der Öffentlichkeit gegenübertretendes Individuum fand. Seine Lebensrealität war zunehmend die der Kunst, die sich vom Leben entfernte, wenn sie es in dieser Entfernung nicht neu und intensiver fand – hier wurde unverzüglich ein Spannungsfeld aufgemacht, das zuvor, abseitiger definiert, für den Poeten bereits seit der Antike bestand. Romane wie Laurence Sternes "Sentimental Journey through France and Italy" (1768) kosteten das Spiel mit belustigendem, individuellem Leben noch in Anlehnung an satirische Romane des 17. und frühen 18. Jahrhunderts aus. Eine eigene Auseinandersetzung des Künstlers mit seinem Leben und Erleben kam mit den umliegenden "empfindsamen" Romanen auf. In der Romantik radikalisierten sich diese Erkundungen des einsamen Erlebens im spektakulären Auskosten der Bedrohungsszenarien von Wahn und Sehnsucht. Als sich in den ersten Jahrzehnten des 19. Jahrhunderts der Roman der Geschichte und der Gegenwart den aktuellen gesellschaftlichen Anliegen neu stellte, kam ein weiteres Spannungsfeld zwischen Individuum und Gesellschaft hinzu: Das Individuum als Beobachter, der Unabhängigkeit von Vereinnahmungen durch die kollektive Realität sucht, wurde ein neues Thema. Der Weg des Künstlers in eine solche Position blieb ein großes Sujet in diesem Feld mit Bildungsromanen von Goethes "Wilhelm Meister" (1777–1795) zu Gottfried Kellers "Grünem Heinrich" (1854, in zweiter Fassung 1879/80). Erkundungen von anderen Beobachtungspositionen kamen mit mehr oder minder fiktionalen Lebensskizzen hinzu, insbesondere von Frauen und in der öffentlichen Berichterstattung vergleichbar randständigen Gruppen, deren Sichtweisen nun gerade als unentdeckt isolierte interessierten. Der Roman bot sich hier als experimentelle Gattung an, da er zur langen Erzählung ausholte, ohne dass klar war, was eine Erzählung formal definierte, und (anders als das öffentlich inszenierte Drama) seinen Leser selbst im intimen, individuellen Erleben erreichte. Die Erkundung persönlichen Erlebens revolutionierte hier Schreibweisen des Romans. Die Suche nach einem individuellen, subjektiven Stil stand hier im Vordergrund des Wettbewerbs zwischen den Autoren. Das Experiment mit gänzlich neuen Erzählmustern, die sich wie der stream of consciousness dem Erleben effektiv anglichen, führte bei Autorinnen und Autoren wie Virginia Woolf und James Joyce in der ersten Hälfte des 20. Jahrhunderts zu den klarer definierten Experimenten im Verlauf einer kritischen Distanzierung vom Roman des 19. Jahrhunderts und seinen noch deutlich auktorial organisierten Erzählmustern. 20. und 21. Jahrhundert. a> bei einem Treffen in Kuba, 1960 Der Roman als Gattung mit weltweiter Bedeutung. Kulturpessimisten sahen in den letzten 100 Jahren mehrfach das Ende der Literatur gekommen. Das Fernsehen, das Kino, das Internet, Videospiele verdrängten das gute Buch. In einer größeren Sicht wird man das Gegenteil feststellen. Der Roman floriert auf dem Buchmarkt wie in der öffentlichen Wahrnehmung. Romane waren unter den ersten Büchern, die Nationalsozialisten in den Bücherverbrennungen 1933 demonstrativ vernichteten. Man verbrannte hier in Schauveranstaltungen einzelne Exemplare. Die Romane, die in privaten Regalen standen, ließen sich allenfalls bei Wohnungsdurchsuchungen erfassen. Der Roman war dabei nicht als Gattung verfolgt: Romane wurden mit den letzten Papierkontingenten gedruckt, die die Nationalsozialisten 1944/45 noch zum Druck freigaben. Während das Reich im Bombardement unterging, sollten die Soldaten an den Fronten, für die allein noch Lesestoff hergestellt wurde, fortfahren, in Heimatromanen von der Liebe zu träumen. Romane wurde von den US-Soldaten in Vietnam gelesen und von der Bewegung gegen den Vietnamkrieg. Hermann Hesse und Carlos Castaneda gehörten hier zum Reisegepäck. Während es schwierig war, innerhalb der Sowjetunion mehr über die sibirischen Konzentrationslager zu erfahren, blieb es einem Roman vorbehalten, die interne wie die Weltöffentlichkeit herzustellen – Alexander Solschenizyns "Ein Tag im Leben des Iwan Denissowitsch" (1962), ihm folgte der narrativ historischer angelegte "Archipel Gulag" (1973), der dem Grauen am Ende den Namen gab. Die Kundenschicht, der die Medien gerne die Abkehr vom Buch attestierten, sorgte in den letzten Jahren mit dem Absatz der "Harry Potter" Bände für die größten Bestseller des Jahrhunderts. Die gewichtigste politische Konfrontation der letzten dreißig Jahre, diejenige zwischen dem „freien Westen“ und der „Islamischen Welt“ fand ihre erste Runde mit der weltweiten Verfolgung eines Romans – Salman Rushdies "Satanischen Versen" (1988). Tatsächlich bot sich der Roman hier wie gar kein anderes Medium der Kulturkonfrontation an. Privat und gleichzeitig Gegenstand einer pluralistischen Debattenlandschaft. Das Erfolgsrezept des Romans im 20. Jahrhundert liegt zum Teil in seinem antiquierten Trägermedium. Romane zirkulieren in Einzelausgaben als bequemer Lektüregegenstand, mit dem man sich jederzeit in der Öffentlichkeit einen ungestörten Privatraum verschafft. Der Druck kann im politisch brisanten Fall im sicheren Ausland oder in einheimischen Samisdat-Pressen erfolgen. Exemplare können unter der Hand weitergegeben werden. Man erwirbt die "Satanischen Verse" auf Persisch in obskuren Drucken unter schwarzen einfachen Buchdeckeln, ohne Verlagsangabe und mit Angabe einer offenkundig pseudonymen Übersetzerin. Eine grundsätzlich andere Öffentlichkeit haben Theateraufführungen, Fernsehsendungen, Internetangebote. Der Reiz der Theateraufführung liegt gerade darin, dass man Teil einer von Publikum simultan bezeugten Vorführung wird. Fernsehen und Internet werden ähnlich wie das Buch überwiegend privat konsumiert, bleiben jedoch über Sender und Provider simultane Veranstaltungen von Öffentlichkeit, auf die staatliche Organe zugreifen können. Was Romane anbetrifft, so können Zensurbehörden deren Exemplare, einmal gedruckt, nur noch im privaten Besitz verfolgen. Der Roman selbst bleibt dabei öffentlich. Das Buch ist eine industriell verfertigte Massenware, im Medium der offenbare Beleg dafür, dass es so andere Leser wie einen selbst erreichte. Es bleibt dem Romanleser dabei auf spannende Weise unklar, wer las, was er soeben liest, und sich im brisanten Fall als Leser zu erkennen geben wird. Brisanz gewinnt der Roman als privates Medium im 20. Jahrhundert vor allem durch die ihm angebotene öffentliche institutionelle Deckung. Sie erfasst die private Lektüre, droht sie zu prägen, kann mit ihr in neue Formen des Streits geraten. Das „literarische Leben“, das die „freien Gesellschaften des Westens“ heute verteidigen mitsamt seinen modernen Institutionen von den städtischen Literaturhäusern, den öffentlich diskutierten Literaturpreisen, den in Buchhandlungen veranstalteten Literaturlesungen, den Buchmessen mit ihrem Presseaufgebot, geht kaum vor das mittlere 19. Jahrhundert zurück. Mit der öffentlichen Würdigung geht seitdem eine Kanondebatte einher, die ihren Niederschlag in den Medien, im Zeitungsfeuilleton, wie im Fernsehen und im Internet findet, und die den Bildungsbetrieb in seiner ganzen Hierarchisierung von den universitären Seminaren bis hinab in den täglichen Schulunterricht berührt, der zur Würdigung von primär nationaler Literatur anleitet. Autoren und Verlage können sich bei der Vermarktung anspruchsvoller Romane der Öffentlichkeit nicht verweigern. Die große Masse der Literaturpreise unterhalb des Nobelpreises für Literatur, die Preise, die mit dem Booker Prize und dem Pulitzer Prize beginnen, schafft Vermarktungsplattformen. In den Medien besprochen zu werden, ist für anspruchsvolle Titel, für Titel, die Anspruch auf öffentliche Würdigung erheben, die zentrale Verkaufsvoraussetzung. Die Literaturwissenschaft und die Literaturkritik nehmen im modernen literarischen Leben nur scheinbar den Rang von Beobachtern ein. Tatsächlich fungieren sie im Zentrum des Austauschs: Sie verteilen öffentliche Beachtung und trennen mit ihrer Aufmerksamkeit die gehobene Literatur von den primär kommerziell vertriebenen Büchern. Modell literarischer Kommunikation mit Linien des Austauschs zwischen Staat, von ihm angebotenem Schulunterricht, Literaturdebatte, Verlagen, Autoren und Lesepublikum. Die Literaturkritik nimmt hier eine zentrale Stellung ein als sowohl staatlich über die Bildungssysteme gedeckt, als auch in die Medien ausgreifende Instanz. Was sich das 20. Jahrhundert hier vor allem vom 19. unterscheidet, ist die Rolle der Weltöffentlichkeit, die sich nationalen Öffentlichkeiten gegenüber artikuliert. Im 20. Jahrhundert entwickelt sich eine zunehmende Globalisierung des Romans, welche die Globalisierung der Konflikte (Weltkriege) widerspiegelt. Waren es im 19. Jahrhundert die Staaten Osteuropas, die sich mit der Übernahme des westlichen Literaturbegriffs als Kulturnationen zu bezeichnen begannen und erste Romane in ihren Sprachen vorlegten, so wurde im 20. Jahrhundert die globale Ausbreitung fortgesetzt. Um 1900 wurde das Spektrum der aktuellen Romanproduktion durch südamerikanische und indische Autoren erweitert, worauf arabischsprachige Schriftsteller und ab der zweiten Hälfte des 20. Jahrhunderts schwarzafrikanische Romanschriftsteller folgten. Postkolonialismus-Studien gelten gegenwärtig der Dezentrierung des Literaturbegriffes, die hier geographisch markant wird. Die Liste der Nobelpreisträger für Literatur dokumentiert, wie sich die Standards westlichen literarischen Lebens im 20. Jahrhundert verbreiteten: Rabindranath Tagore erhielt die Auszeichnung als erster Inder 1913. Der erste Japaner, der den Preis zugesprochen erhielt, war Yasunari Kawabata 1968, der erste Südamerikaner Gabriel García Márquez 1982; der erste Nigerianer Wole Soyinka 1986, der erste Autor arabischer Sprache, Naguib Mahfouz 1988. Der Preisvergabe haftet in aller Regel ein politisches Moment an: der Westen unterstützt verfolgte Autoren und Autoren, die sich in ihrer Heimat zum „Gewissen ihrer Nation“ machen. Orhan Pamuk erhielt den Preis 2006 nicht zuletzt, da er als Autor der Türkei kritisch den Umgang mit dem Völkermord an den Armeniern ansprach. Mahfouz kritisierte zwar Rushdies "Satanische Verse" (1988) als „Beleidigung für den Islam“, verteidigte jedoch ihren Autor gegen Chomeinis Todesurteil und bezahlte sein Engagement beinahe mit dem Leben. Die weltweite Ausbreitung des literarischen Lebens als Teil des internationalen pluralistischen Austauschs geriet im 20. Jahrhundert zur Konfrontation. Das hat stark damit zu tun, dass Roman und die Literatur im Westen im Prozess der Säkularisierung die Bildungssysteme eroberten: Als Teil nationaler Auseinandersetzungen mit Texten, in der das Bibelstudium durch Lektüre der größten Kunstwerke abgelöst wird, die die eigene Nation schuf. Der Roman – vordem allein in der Belletristik beheimatet, eine Produktion aus der Hand primär privater Autoren – bot sich dem staatlichen Unterricht zu maximaler Freiheit der Behandlung an: Man kann Romane beliebig interpretieren, sie textkritisch analysieren, sie kanonisieren. Traditionell in der Theologie beheimatete Formen eines Umgangs mit Texten erfassten damit eine bislang eher säkulare der Moral entzogene Textgattung. In den Buchläden, in Universitätsseminaren, im Schulunterricht des Westens nimmt der Roman effektiv seit der Säkularisation einen Platz ein, den bis dahin religiöse Texten reklamierten. Der Konflikt, der mit der Veröffentlichung von Salman Rushdies "Satanischen Versen" (1988) entbrannte, verschärfte sich in der Folge sofort als Konflikt globaler Dimension zwischen dem säkularen Westen und dem postsäkularen Islam. Aus westlicher Perspektive ging es darum, Rushdie die Freiheit des Künstlers zuzugestehen, der im Roman, einem Medium subjektiven künstlerischen Ausdrucks, eine subjektive Weltsicht bieten muss. Die Islamische Republik befand sich im selben Moment in einer misslichen Lage: Wenn sie die Religion als Garant unverletzlicher Wahrheit verteidigt, kann sie nicht gleichzeitig der Kunst das Recht einräumen, alle anderen Diskurse nach belieben relativieren zu dürfen. Das geht im Westen, wo Literaturkritiker jede Provokation auf dem Feld der Kunst entschärfen können, indem sie sie bei Bedarf zu einer reinen Frage des Kunstgeschmacks erklären. Die Kunst ist dabei letztlich nur frei, da sie gleichzeitig beliebig skandalisierbar und beliebig entskandalisiert ist: beliebig bedeutungsvoll, da sie als freie Meinungsäußerung verteidigt wird und beliebig bedeutungslos, da sie als jederzeit als pure subjektive Äußerung interpretiert wird. Die Nationalstaaten des Westens schützen individuelle Freiheiten auf Kosten eines Systems das Jahrhunderte lang die Religion schütze. Der Iran konnte in derselben Konfrontation aufzeigen, dass die westlichen Gesellschaften gegenüber der freien künstlerischen Äußerung eigene neue unfreie Bereiche einrichteten. Mit Holocaustleugnungen, die Zeichen der Freiheit sein sollten, die der Iran Wissenschaftlern gewährt, gelang hier der zweischneidige publizistische Gegenschlag. Hinter der Ausweitung einer Gesellschaftsform, die mit dem Roman eine eigene Öffentlichkeit der privaten und subjektiven Meinungsäußerung verteidigt, steht ein Buch- und Informationsmarkt mit Medienanbindung, der vor dem 19. Jahrhundert kein Pendant hat. Der Roman auf dem modernen Buchmarkt. Mengen der Titel, die in Großbritannien 2001 veröffentlicht wurden. Aufschlüsselung des britischen Buchangebots nach den produzierten Marktwerten in £m für 2008 Gut 20 bis 60 Romane erschienen auf Englisch (die deutschen Zahlen differierten hier nicht) im frühen 18. Jahrhundert, bei einer Gesamtzahl von jährlichen 2.000 Titeln aller Textsorten. 2001 kamen in Großbritannien 119.001 Titel auf den Buchmarkt. Der Roman war mit 11 % an diesem Angebot beteiligt. Der Prozentanteil hält sich seit Jahrzehnten stabil, auch wenn sich der gesamte Titelausstoß seit 1986 verdoppelt hat. 5.992 Romane erschienen in Großbritannien 1986, 13.076 waren es 2001. Interessanter als die Titelzahlen ist das quantitative Volumen, die Menge der Bücher, die hier die Druckerpressen verlassen. Wenn wir rechnen, dass Verleger im frühen 18. Jahrhundert bei gutgängiger Ware mit Auflagen von um die 1.000 Exemplaren arbeiteten und lieber mehrfach neu auflegten, als zu viel zu drucken, dann müssten 20.000–60.000 Romane vor 300 Jahren an die englisch- (wie an die deutschsprachige) Kundschaft gegangen sein. Die Auflagenzahlen stiegen gerade in der Belletristik seit dem 18. Jahrhundert. Nach den Nielsen BookScan-Statistiken von 2009 brachten britische Verleger 2008 geschätzte 236,8 Millionen Bücher in den Druck. Romane für Erwachsene machten daran mit geschätzten 75,3 Million Büchern 32 Prozent aus. Der Jugend- und Schulbuchbereich, der Bestseller wie "Harry Potter" umfasst, kam mit 63,4 Millionen Exemplaren, weiteren 27 Prozent, hinzu. Der Gesamtwert der britischen Buchproduktion belief sich 2008 auf um die 1,773 Milliarden Pfund. Die Produktion an Romanen für Erwachsene hatte daran einen Anteil von 454 Millionen Pfund. Die weltweiten Zahlen differieren mit Größe der nationalen Märkte, die Zahlenverhältnisse dürften in Westeuropa ähnlich liegen. Das Buchmarketing, das sich mit dieser Produktion herausbildete, optimierte die Kommunikation mit allen Instanzen des modernen literarischen Lebens. Es ist Teil des Geschäftes, dass die Verlage die "hohe" literarische Produktion mitsamt ersten Diskussionsangeboten auf die Tische der Literaturkritiker kommen lassen. Die Diskussionen entstehen nicht, sie werden vorbereitet, sind Teil des Geschäfts der pluralistischen Gesellschaften. Die Romanproduktion des 20. Jahrhunderts kann unter dieser Perspektive grob in drei Bereiche eingeteilt werden, die unterschiedlich mit den Diskussionsfeldern umgehen. Romane, die Literaturtheorie schreiben. Entscheidende Entwicklungen der Techniken des Romans kann man aus der inspirierenden Auseinandersetzung mit konkurrierenden, modernen Medien erklären: Film, Zeitung und Comic entwickelten Einfluss auf den Roman. Schnitt und Montage wurden etablierte Techniken moderner Erzählformen. Die in der Form experimentellen Romane des 20. Jahrhunderts nahmen im selben Moment gemeinsame Schritte mit der Literaturtheorie, die im 20. Jahrhundert als interdisziplinäre Methodendiskussion die Literaturwissenschaft erfasste. Über die Methodik hatte in der Literaturkritik des 19. Jahrhunderts wenig Streit bestanden: Literatur wurde von Autoren unter dem Einfluss ihrer Epochen geschrieben. Die gesellschaftlichen Bedingungen spiegelten sich in den Werken wider. Man stritt nicht über die Literaturtheorie, sondern darüber, welchem Titel welche Bedeutung im nationalen Kanon zugesprochen wurde. Die Literaturtheorie des 20. Jahrhunderts vollzog an dieser Stelle eine Bewegung, die mit dem linguistic turn in der philosophischen Erkenntnistheorie einherging: Die Bedeutung eines Textes liegt, so der theoretische Ausgangspunkt, in seiner linguistisch erfassbaren Struktur. Große Kunstwerke bleiben in der Diskussion, da sie komplexere, wenn nicht unerschöpflich komplexe Strukturen aufweisen. Der Leser entschlüsselt und kontextualisiert Texte. Informationen über Autor, Epoche und Werk sind unter dieser Perspektive nicht wirklich Erklärungen des Textes, sondern von der Literaturwissenschaft produzierte Zusatztexte, und die Literaturwissenschaft des 19. Jahrhunderts hatte diese Zusatztexte produziert, ohne sich auch nur um die literarischen Kunstwerke mit Mitteln der Textanalyse zu kümmern. Die Theoriediskussion, die unter den Schlagworten Formalismus (1900–1920), New Criticism (1920–1965), Strukturalismus (1950–1980) und Poststrukturalismus (ab 1980) voranschritt, suchte nach den Aspekten der Kunst, analysierte strukturelle Komplexität und fragte nach den Assoziationen, dank derer sprachliche Bedeutung im Bewusstsein des Lesers entstand. Sie entmachtete den Autor. Für ihn war der Text so sehr Text wie für den Leser, und sie machte sich selbst zur eigentlich angesprochenen Instanz, über die der Text Bedeutung gewann. Romanautoren reagierten auf dieses Interaktionsangebot mit Texten, die genau das boten: Sprachkompositionen, die sich für den Autor so faszinierend lasen wie für den Leser. James Joyces "Ulysses" (1922 zensierte Erstveröffentlichung in Paris) kennt keinen übergeordneten Erzähler mehr. Der Erzähltext gerät zu einem Bewusstseinsstrom an Gedanken und Empfindungen. Es ist müßig, zu fragen, was der Autor hier sagen will, wenn der Text, den er produziert, ein Gewebe an textlichem Material der gesamten Literaturgeschichte wird. Der Autor erzeugt hier eher einen Assoziationsraum, als dass er Aussagen zu Politik und Gesellschaft macht. Alfred Döblin öffnete seine Romane "Berlin Alexanderplatz" (1929) und "Babylonische Wanderung" (1934) vergleichbar nicht-literarischem Material, Sätzen aus der Werbung und den Zeitungen. Realität durchdrang hier unvermittelt den fiktionalen Roman. Autoren der 1960er radikalisierten Konzepte der Erzählung, indem sie diese fragmentierten und Zeit und narrative Sequentialität als Ordnungsformen aufgaben. Die Postmoderne knüpfte spielerisch an diese Entwicklungen an mit Romanen, die Brücken in die Trivialliteratur schlugen. Ihr hatte wurde genau dies immer vorgeworfen: nicht originell zu sein, lediglich bestehendes Material neu zusammenzusetzen, und darum minderwertig zu sein. Poststrukturalisten wie Roland Barthes fragten, ob Kreativität überhaupt etwas anderes sein konnte als fortwährende Neukombination vorhandenen sprachlichen Materials. Autoren wie Thomas Pynchon griffen im selben Moment in die Textwelten, aus denen Trivialliteratur und populäre Verschwörungstheorien gemacht wurden, und machten aus ihnen neue Kunst. Das Verhältnis zwischen dem Roman und Literaturtheorie war spannend, da kaum zu erklären ist, was Fiktionalität ist; ein Satz aus einer Zeitung ist genau das, warum wird er Fiktion, wenn er im Roman auftaucht? Was macht eigentlich eine Erzählung aus, wenn man den Erzähler, oder die Chronologie streichen kann? Romanautoren bezogen Fragen aus der Theoriedebatte; sie inspirierten die Literaturtheorie auf der anderen Seite mit Werken, die Fragen dazu aufwarfen, was ein Text eigentlich ist; sie griffen zudem mit eigenen Texten in die Theoriediskussion ein. Raymond Federman formulierte die Theorie dahinter in einer Zusammenführung von fiktionaler Literatur und Literaturkritik unter dem Wort „Critifiction“ Die Diskussion, die in der zweiten Hälfte des 20. Jahrhunderts zwischen Autoren experimenteller Romane und Literaturtheoretikern geführt wurde, fand sich wiederholt als reines Gedankenspiel kritisiert. Die Experimente würden allenfalls Intellektuelle befriedigen. Filmkunst der letzten Jahrzehnte eignete sich die Diskussion dann jedoch vergleichsweise massenwirksam an. Apocalypse Now (1979) macht unvermittelt einen Roman des 19. Jahrhunderts zur Schablone aktueller Zeitkritik und reflektiert dabei die Sicht des Films auf die Realität als filmisch erzeugte, statt als Sicht, die von der Welt ausgeht. Pulp Fiction (1994) inszeniert sich als filmisches Stückwerk aus Groschenheften, Memento (2000) inszeniert eine Erzählung, die in Einzelszenen zerrissen ist, rückwärts neu zusammengesetzt zum Krimi, Matrix (1999–2003) erweist sich in literaturwissenschaftlicher Interpretation als Konglomerat und Stückwerk religiöser, literarischer und bildlicher Textualität. Die Zuschauer konsumierten die virtuellen Welten als funktionierende in Bestätigung der Theorie die bislang vor allem am Roman gebildet wurde. Romane, die gesellschaftsweite Debatten auslösen. Romane entfalten sich letzten Endes in einer privaten Lektüre – eine Privatsache ist das individuelle Erleben im selben Moment nicht mehr. Man kann in der Folge im Roman des 20. und 21. Jahrhunderts den weitesten Bogen spannen vom individuellen Erleben in die öffentliche Politik und über sie hinaus in primär fiktionale Weltentwürfe. Persönliche Ängste, Tagträume, halluzinatorische Wahrnehmungen breiten sich im Roman des 20. und 21. Jahrhunderts in Experimenten aus. Was privat geäußert die Offenlegung einer psychotischen Störung wäre, etwa der Bericht Gregor Samsas, der in Franz Kafkas "Die Verwandlung" als gewaltiges Ungeziefer aufwacht, erhält in der literarischen Fiktion unverzüglich heterogene Bedeutung, die in der öffentlichen Debatte als Metapher, als Bild für die moderne Lebenserfahrung von Instabilität und Verlust persönlicher Konsistenz interpretiert wird. Das Wort Kafkaesk wurde vom Roman auf die Erfahrung übertragen, die seither kollektiven Rang genießt. Die Generationen des 20. Jahrhunderts fanden ihre eigenen Romane. Deutschlands Veteranen des Ersten Weltkriegs identifizierten sich mit dem Helden von Erich Maria Remarques "Im Westen nichts Neues" (1928) (und ein Jahrzehnt später mit dem protoexistentialistischen faschistischen Gegenentwurf Thor Gootes). Der französische Existentialismus manifestierte sich in Romanen. Weltruhm erlangten Jean-Paul Sartres "Der Ekel" (1938) und Albert Camus' "Der Fremde" (1942). Den Kalten Krieg überschattete George Orwells "1984" (1949). Die Subkultur der 1960er entdeckte sich in Hermann Hesses "Der Steppenwolf" (1927) wieder. Ken Keseys "Einer flog über das Kuckucksnest", Thomas Pynchons "Gravity's Rainbow" und Chuck Palahniuks "Fight Club" (1996) gewannen ähnlich Kultstatus bei den nachfolgenden Generationen (letzterer nicht ohne die Hilfe des Kinofilms, der den Stoff aufnahm). Den spezifisch auf das männliche Geschlecht ausgerichteten Identifikationsangeboten stehen mit dem 20. Jahrhundert epochale Entwürfe weiblicher Autoren gegenüber: Virginia Woolf, Simone de Beauvoir, Doris Lessing, Elfriede Jelinek machten feministische Geschlechterpolitik. Das Feld ist dabei entschieden komplexer als das einer einfachen Konfrontation. Aneignungen sexistisch männlicher Weiblichkeitsmodelle erweiterten in den letzten Jahren das Spektrum der Optionen. Provokant starke Heldinnen aus der Trivialliteratur erlangten Kultstatus unter weiblichen Lesern. Die wichtigsten gesellschaftliche Prozesse des 20. Jahrhunderts wurden von und in Romanen reflektiert. Die sexuelle Revolution fand in Romanen ihren Austragungsort. Die Zensur riskierte D. H. Lawrence mit "Lady Chatterley’s Lover", in Italien 1928 publiziert in Großbritannien erst 1960 freigegeben. Den gleichwertigen Skandal erzeugte Henry Miller mit "Wendekreis des Krebses" (1934) in den USA. Von Vladimir Nabokovs "Lolita" (1955) zu Michel Houellebecqs "Elementarteilchen" (1998) verläuft hier eine Geschichte der Grenzüberschreitungen, mit denen der Roman die Öffentlichkeit gegenüber der Sexualität neu positioniert. Eine eigene weniger kommentierte Erfolgsgeschichte schrieben an selber Stelle die definitiver pornographischen Romane von Anne Desclos' "Die Geschichte der O" (1954) zu Anaïs Nins "Das Delta der Venus" (1978). Verbrechen und Kriminalität beherrschen den Roman des 20. und 21. Jahrhunderts in einer eigenen Gattung des Kriminalromans. Kriminalität entfaltet sich als Thema in dem Maße, wie aus privater Perspektive die Realität der modernen, hoch organisierten Gesellschaften hinterfragt wird. Der Straftäter steht als Individuum vor Gericht, die Opfer sind in erster Linie privat betroffen. Die Instanz des Detektivs oder Kommissars bildet die Schnittstelle zwischen öffentlicher Institutionalisierung (und Entmachtung, der Kommissar ermittelt, er richtet allenfalls als Privatmann) und privater Gegensicht auf die Realität. Patricia Highsmiths Thriller machten den Krimi zum neuen Ort psychologischer Beobachtung. Paul Austers "New York-Trilogie" (1985–1986) erschloss das im Ansatz triviale Feld der experimentellen Postmoderne. Die wichtigsten politischen Kontroversen involvierten Romanautoren des 20. und 21. Jahrhunderts. Günter Grass "Die Blechtrommel" (1959) und Joseph Hellers "Catch-22" (1961) widmeten sich dem Zweiten Weltkrieg. Der Kalte Krieg bestimmte den modernen Spionageromane. Der politische Aufbruch Lateinamerikas manifestierte sich mit einer Riege lateinamerikanischer Autoren der Avantgarde von Julio Cortázar, Mario Vargas Llosa zu Gabriel García Márquez. Magischer Realismus wurde ein Markenzeichen der von lateinamerikanischen Autoren ausgehenden Auseinandersetzung mit der Realität. Die Terroranschläge des 11. Septembers 2001 fanden breiten literarischen Niederschlag. Art Spiegelmans "In the Shadow of No Towers" (2004) ist hier einer der interessantesten Grenzgänge mit den Fragen, denen hier der Autor des graphischen Romans die kollektive Realität der Bilder entgegensetzt. Jenseits der Realität und ihrer kunstvollen Umformung beginnen die Alternativwelten der Fantasy und der Science-Fiction. Mit der Fantasy verschwimmen zudem die Grenzen zwischen Roman, Rollenspiel und esoterischer Mythenbildung. Im Zentrum dieser Produktion etablierte sich als literarischer Klassiker J. R. R. Tolkiens "Der Herr der Ringe" (1954/55), ein Roman, in dem sich ursprünglich primär jugendliche Leser in einem mythischen Konflikt zwischen archaischen Kulturen der germanischen Vorzeit mit Entlehnungen aus Beowulf und der skandinavischen Edda mit Weltentwürfen der Artusepik identifizieren konnten. Die Science-Fiction entwickelte gegenüber der Fantasy Spielräume, die mit der Welt ihrer Leser gezielt historisch und räumlich in Verbindung gebracht werden, ohne erreichbar zu werden. Jules Verne schuf die Klassiker der mit Technik und den Wissenschaften spielenden Produktion des 19. Jahrhunderts. Aldous Huxleys "Brave New World" (1932) und George Orwells "1984" gestalteten die Perspektiven auf das technisch Machbare zu warnenden politischen Szenarien aus. Stanisław Lem, Isaac Asimov und Arthur C. Clarke wurden die klassischen Autoren einer eher experimentellen Science-Fiction, die die Interaktion von Menschen und Maschinen besonders thematisierte. (Post-)apokalyptische Phantasien kamen mit der Ost-West-Konfrontation und der atomaren Bedrohung in die Gattung. Virtual realities wurden in den letzten Jahren beliebt – das Internet und der kollektive Umgang mit medienvermittelter Erfahrung sorgten hier für neue Themen. William Gibsons "Neuromancer" (1984) ist heute einer der Klassiker dieses Feldes. Trivialliteratur. a>, Bild vom Schutzumschlag eines seiner Bücher Niedere, aus heutiger Sicht triviale Literatur, hatte es in einer Palette europaweit bekannter Titel seit dem frühen Druck gegeben: Bücher, die man wieder und wieder las und die man kaufte, da sie allgemein bekannt waren. Das Segment umfasste Romane, ohne dass eine klare Trennung zwischen Fiktion und Geschichte dabei stattfand. Das Publikum setzte sich nicht kritisch mit der nationalen Geschichte auseinander, eine Eingrenzung des Fiktionalen blieb ihm uninteressant. Das gesamte Marktsegment starb Ende des 18. Jahrhunderts aus, als mit dem Erstarken der Nationalstaaten und dem Aufbau eines ihnen gerecht werdenden Bildungssystems die Lektüre von Fiktionen legitimiert und zur gesellschaftsweiten Pflicht erklärt wurde. Das Ziel war die Heranführung des Volkes an wertvolle Fiktionen, das Ergebnis eine Aufspaltung in unterrichtstaugliche Titel und einen Massenmarkt, der unter Verachtung der Kritik seine Kundschaft fand. Die Trivialliteratur, die sich in dieser Umwälzung im 19. Jahrhundert entwickelte, ist aus diesem Grund keine Fortsetzung des alten (in der der Romantik nostalgisch zu Volksbüchern erklärten) Bereichs, sondern weitaus mehr eine Fortsetzung des Feldes eleganter Fiktionalität, das sich seit dem 17. Jahrhundert entwickelt hatte und das bis in die 1780er weitgehend ohne kritische Beachtung verkäuflich war. Besonders deutlich zeigt sich dies in den Genres, die sich in der Trivialliteratur fortsetzen: Sie stammen im Kern mit Liebesromanen, historisch eskapistischen Romanen, Abenteuerromanen und spannenden zeitgeschichtlichen Bezügen, wie sie heute im Spionageroman und im Feld von Verschwörungsgeschichten angeboten werden, aus dem Markt eleganter Bücher, wie er bereits um 1700 bestand. Die Literaturkritik hat wiederholt behauptet, Trivialliteratur sei schlicht ein Recyclingprodukt gesunkener hoher Literatur. Präziser wird man die hohe Literatur als Produkt einer neuen Interaktion mit der Literaturkritik betrachten; die Trivialliteratur setzt ihr gegenüber die alten Marktbeziehungen fort – das zeigt sich auch in der Terminologie: Die belles lettres bezeichneten um 1700 den eleganten internationalen Stil mit Anspruch auf Geschmack. Die großen Werke der Literatur wurden dementsprechend in der Diskussion herausgehoben. Belletristik umfasst in der Folge heute das breite Feld unter Einschluss der Trivialliteratur, ein Feld, aus dem die "hohe Literatur" von nationalem Rang als "Höhenkammliteratur" herausragt, wobei die Literaturkritik rückwirkend fortwährend Neuorientierungen vornimmt. Paul Heyse war 1910 deutscher Nobelpreisträger für Literatur, heute tragen seine Titel Aspekte des Trivialen. John Clelands "Fanny Hill" (1749) wurde von eleganter libertinistischer Romankunst zu Trivialliteratur und verkauft sich nach wie vor unter dieser; man kann sie gleichzeitig als Penguin Classic kommentiert als Beitrag zur Weltliteratur lesen. Trivialliteratur umfasst historische Namen wie Karl May, Hedwig Courths-Mahler, Raymond Chandler, Margaret Mitchell, Barbara Cartland, Ian Fleming, Johannes Mario Simmel. Der Bereich ist in sich heterogen und bietet heute im gehobenen Segment international gefeierte Bestsellerautoren wie Rosamunde Pilcher, Ken Follett, Stephen King, Patricia Cornwell, Dan Brown und Joanne K. Rowling. Die kollektive, quasi-industrielle Textproduktion sichert über Jahrzehnte die Kontinuität beliebter Serien. Trivialliteratur des gehobenen Feldes lebt von Berührungen aktueller Debatten. Politische Konfrontationen, Verschwörungen oder Abgründe des Verbrechens sind verbreitete Stoffe. Populäre Autoren geben jederzeit zu, dass sie ihre Themen primär als Garanten von Spannung ausschöpfen. Sie artikulieren Konsens, der gegen Unrecht besteht, und stabilisieren – so die Kritik – das bestehende Verhältnis zwischen Recht und Unrecht. Künstlerische Experimente sind in diesem Marktsegment weitgehend tabu; wenn sie geschehen, dann ohne Absicht. a>e in einem Oldenburger Zeitungsgeschäft, 2009 Zwischen Secondhand-Billigromanen in der Buchhandlung Tuf-Tuf, Antwerpen, 2010 Renommierte Autoren von Trivialliteratur verfügen über eine Stammkundschaft, Fans, die jeden neuen Titel verfolgen. Ein Verhältnis wechselseitiger Treue besteht – so die Verlagswerbung in diesem Segment – zwischen dem Autor und seiner Kundschaft, wobei der Autor Erwartungen erfüllt. In den niedrigeren Marktsegmenten wird die Bindung an den bekannten Autor durch Stabilität von Pseudonymen und Serientiteln ersetzt, wie Perry Rhodan, Der Bergdoktor, Captain Future oder Jerry Cotton. Im gesamten Feld schaffen strukturierte Genres (wie Arzt-, Heimat-, Berg-, Abenteuer-, Spionage, Liebes-, Kriminalroman) Klarheit über die zu erwartende Lektüre. Der große Umsatz wird dabei mit den Liebesromanen gemacht. Für die USA gibt der Verband der "Romance Writers of America" für das eigene Geschäftsfeld werbend Auskunft: Mit einem jährlichen Umsatz von 1,375 Milliarden Dollar 2007 sind Liebesromane in den USA das interessanteste Marktsegment. Religiöse und erbauliche Literatur folgt mit 819 Millionen, Science-Fiction und Fantasy mit 700 Millionen, Mystery mit 650 Millionen Dollar. Auf Platz 5 folgt der Bereich der Höhenkammliteratur mit einem Umsatz von geschätzten 466 Millionen Dollar. Die literaturwissenschaftliche Auseinandersetzung mit dem trivialen Markt ist traditionell dürftig. Trivialliteratur ist der Bereich, dem sich die Literaturwissenschaft höchstens dann zuwendet, um klarzustellen, was diskussionswürdige Literatur dagegen auszeichnet. Die Positionen divergieren hier zwischen „Verdammung des verdummenden Schunds“ als konservative Lesart und politisch kritischer Analyse der systemstabilisierenden Funktion auf linker Seite. Postmoderne Erkundungen zeigten sich in den letzten Jahren gegenüber beiden Lesarten fasziniert von der Macht dieses Marktfeldes, kollektive Phantasien zu gestalten, Kult zu generieren, wenn schon nicht Kultur. Genre-Crossovers zwischen Trivialliteratur und Film und die Emanzipation einer anglophonen Kulturwissenschaft sorgten hier für neues Interesse. Das hat auch historische Gründe: Die strenge Trennung zwischen anspruchsvoller und trivialer Literatur fand in den kontinentaleuropäischen Nationen früher und massiver statt als im angelsächsischen Sprachraum; sie verbietet in der Folge noch immer deutschen und französischen Kulturkritikern eindeutige Würdigungen des Trivialen und damit Auflösungen der vor allem durch Rezensionen bzw. Literaturkritiken aufrechterhaltenen Marktdifferenzierung. Distale Radiusfraktur. Der häufigste Knochenbruch beim Menschen ist die distale Radiusfraktur, der Bruch der Speiche nahe dem Handgelenk (loco typico) mit Achsabweichung des distalen Fragmentes zur Streckseite (Typ Colles). Der seltenere handgelenknahe Speichenbruch mit Achsabweichung zur Beugeseite wird "Smith-Fraktur" genannt. Die häufigere "Colles-Fraktur" entsteht typischerweise durch Sturz auf das nach oben gestreckte Handgelenk. Leitsymptome sind Druckschmerz, Fehlstellung mit Bewegungseinschränkung und Schwellung der Weichteile. Einteilung der distalen Radiusfrakturen. Röntgenbild einer distalen Radiusfraktur "loco typico" (Colles-Fraktur) AO-Klassifikation. Eine gängige Klassifikation der distalen Radiusfrakturen ist, wie bei allen Knochenbrüchen, die AO-Klassifikation der Arbeitsgemeinschaft für Osteosynthesefragen (AO). Die A-Frakturen befinden sich außerhalb des Gelenks (extraartikulär) und lassen sich in die Typen A1, A2 und A3 weiter unterteilen. B-Frakturen sind nach der AO-Klassifikation partiell intraartikulär, d. h. sie betreffen zum Teil die Gelenkfläche. Typ-C-Frakturen befinden sich im Gelenk selbst (intraartikulär). Verschiedene Schweregrade werden hinter den Buchstaben A, B und C aufsteigend mit den Zahlen 1-3 belegt. Behandlung. Die Behandlung einer einfachen Radiusfraktur ohne Gelenkbeteiligung hängt vom Ausmaß der Verschiebung und Instabilität im Bruchbereich ab. Ohne Verschiebung der Bruchenden erfolgt eine einfache Ruhigstellung (Retention) mit einem Gipsverband für ca. sechs Wochen, bei einfachen Verschiebungen (Dislokation) erfolgt zuerst eine Einrichtung (Reposition) und anschließend die Ruhigstellung im Gipsverband. Ist der Bruch instabil, neigt er also dazu, sich neuerlich zu verschieben (sekundäre Dislokation; häufig bei glatten und Querbrüchen), oder ist das Einrichten nicht erfolgreich beziehungsweise aufgrund des Ausmaßes nicht möglich, erfolgt die Behandlung operativ durch Kirschnerdraht-Osteosynthese, das heißt Einbringen von Drähten in Bruchspaltanästhesie, Plexus- oder Allgemeinanästhesie in der Technik nach Willenegger oder Kapandji oder aber offen durch Plattenosteosynthese. Dabei ist das Verfahren mit Bohrdrähten ein geschlossenes Verfahren, der Bruch muss also nicht durch einen Schnitt freigelegt werden. Bei der Plattenosteosynthese wird zumeist von beugeseitig die Haut eröffnet und der Bruch dann offen wieder eingerichtet und mit der Platte und den Schrauben fixiert. Nach geschlossener Behandlung mit Bohrdrähten wird in der Regel zudem ein Gips für vier bis sechs Wochen angelegt. Bei offener Bruchbehandlung mit Plattenosteosynthese kann in der Regel auf einen zusätzlichen Gips alsbald verzichtet werden, um dann rasch mit der Beübung des Handgelenkes beginnen zu können. Das Verfahren der beugeseitigen T-Platten-Osteosynthese ist in den letzten Jahren immer beliebter geworden und wird bei instabilen Brüchen, komplexen Brüchen oder solchen mit Gelenkbeteiligung immer häufiger eingesetzt. Dies liegt vor allem daran, dass eine sichere und exakte Einrichtung der verschobenen Bruchfragmente möglich ist, auch wenn vergleichende Studien nur ein gering besseres Ergebnis im Vergleich zur Bohrdraht-Behandlung zeigen und diese deutlich kosteneffizienter ist. In einer englischen Studie wurden Gesamtkosten von mittleren 3.800 £ für die Spickdraht-Behandlung und 4.400 £ für die Plattenosteosynthese ermittelt, woraus sich aufgrund der nur minimal besseren Ergebnisse Kosten von 89.000 £ pro gewonnenem qualitätskorrigiertem Lebensjahr (QALY) ergaben. Zusammenfassend kann also, je nach Art der Fraktur entweder konservativ im Gips, operativ mit Gips und Bohrdrähten oder aber operativ mit Platte, dann aber ohne Gips, behandelt werden. Offene Radiusfrakturen machen meist die Anlage eines "Fixateur externe" erforderlich. Die Behandlung der Smith-Fraktur erfolgt durch beugeseitige Verplattung mit einer T-förmigen Platte. Eine moderne Therapieform stellt die beugeseitig angebrachte, winkelstabile Metallplatte dar. Raelismus. Die Rael-Bewegung, auch Raelismus oder Raelistische Religion genannt, war bis 1976 auch als MADECH (mouvement pour l’accueil des extraterrestres, créateurs de l’humanité, dt.: "Bewegung für den Empfang der Außerirdischen, Schöpfer der Menschheit") bekannt. Die Gruppe wurde dafür bekannt, dass sie das Klonen von Menschen ermöglichen will. Von Außenstehenden wird die Gruppe auch als „Glaubensgemeinschaft mit bizarr anmutender Science-Fiction-Weltanschauung“ angesehen. Das Symbol des Raelismus ist ein Hexagramm mit Hakenkreuz (letzteres wurde später durch ein Windrad ersetzt). Die Gruppe finanziert sich aus der Abführung von 3 % des Nettoeinkommens, das Anhänger abzugeben haben. Eine weitere Einkommensquelle sind Erbschaften. Außerdem verfügt sie über eine eigene Ära, wobei Raëls Geburtsjahr 1946 als Jahr 1 gezählt wird. Geschichtliche Entwicklung. Die Neue Religiöse Bewegung wurde 1973 von Claude Vorilhon alias Raël (* 1946), gegründet, der eine Begegnung mit einem aus einem UFO entstiegenen Vertreter einer außerirdischen Zivilisation gehabt haben will. Bei seiner ersten angeblichen Begegnung am 13. Dezember 1973 mit den Außerirdischen soll Claude Vorilhon eine Botschaft für die Menschheit erhalten haben, die besage, dass die "Elohim" vor 25.000 Jahren das erste Mal auf die Erde kamen und hier dank ihrer Beherrschung der DNA das Leben wissenschaftlich erschufen. Die Besucher sollen ihm den Namen Rael („der das Licht der Elohim bringt“) gegeben haben. Angeblich sei er der Halbbruder von Jesus Christus, da seine Mutter ohne ihr Wissen in einem UFO entführt und dort durch JAHWE, den ältesten der Elohim, am 25. Dezember 1945 Vorilhon gezeugt worden sein soll. Vorilhon verfasste darauf "Das Buch, das die Wahrheit sagt" und trat im Fernsehen auf, um seine Lehre zu verbreiten. Die dadurch erreichte Popularität führte zur Gründung der „MADECH“. Nach zwei Jahren verfügte Vorilhon über etwa 700 Anhänger. Am 7. Oktober 1975 besuchte Vorilhon angeblich den Planeten der Außerirdischen und erhielt die in seinem Buch "Die Außerirdischen haben mich auf ihren Planeten mitgenommen" veröffentlichten Lebensregeln. Es folgte eine Ausbreitung der Bewegung über den französischen Sprachraum, die eine Umbenennung, zuerst (1977) in „Rael-Bewegung“ (Mouvement Raëlien) und 1998 in „Raelistische Religion“, nach sich zog. Im Jahr 2002 hatte die Bewegung nach eigenen Angaben weltweit etwa 40.000 Mitglieder. Andere Quellen gehen von 22.000 bis 55.000 Mitgliedern aus. Sie verkündete auf der Internationalen Bio-Expo in Tokio im Juli 2002, dass sie in der Lage sei, Menschen zu klonen. Glaubensvorstellungen und Leben. Das Glaubenskonzept des Raëlismus verbindet wissenschaftliche Vorstellungen mit biblischen Überlieferungen. Diese werden allerdings aus einer technologischen Sicht neu dargestellt. Die Lehre gibt sich dabei als völlig rational mit keinen Bezügen zum Übernatürlichen. Typisch ist der weitgehende Verzicht auf mystische Ansätze. Durch die Verbindung von wissenschaftlicher Sichtweise und religiösen Gesichtspunkten ist das Konzept erfolgreich. Dazu ist die Bewegung nicht gegen Sinnlichkeit gerichtet und propagiert diese sogar. Die Raëlisten (auch Raëlianer oder Raeliens genannt) glauben, dass wissenschaftlich weit fortgeschrittene, menschenähnliche Wesen („"Elohim"“), die man früher für Götter gehalten habe, für die Schöpfungsgeschichte verantwortlich waren. Diese These wird als Prä-Astronautik auch von Erich von Däniken vertreten. Die Schöpfung – so postuliert Raël – sei ein Produkt dieser Wesen, die durch überlegene Technik dazu in der Lage seien, Landschaften zu formen, Atmosphären zu schaffen und durch Klontechnologie Menschen (nach ihrem Abbild) zu schaffen. Vor etwa 22.000 Jahren sei so die Erde geschaffen worden. Die Menschen sollen sich hiernach entwickelt haben, wobei gemäß der philosemitischen Einstellung Raels die Juden das am besten gelungenste menschlichen Volk sind. Als ihr technischer Fortschritt den "Elohim" gefährlich wurde, vernichteten diese daraufhin mit Kernwaffen das Leben auf der Erde mit Ausnahme von Noach, der sich und eine Zelle jeder Art in einer Rakete retten konnte. Modell des Botschaftsgebäudes in Zeltform Eines der Ziele der Raëlisten ist, ein Botschaftsgebäude auf neutralem Territorium zu bauen, in dem die "Elohim" empfangen werden können. Das Gebäude soll bis 2025 errichtet sein. Bevorzugtes Territorium wäre Israel. Sollte es sich jedoch wieder dem Willen der "Elohim" widersetzen, dann würde erneut der Zorn Gottes über es hinbrechen. Mit der Rückkehr der "Elohim" breche dann das "Zeitalter der Apokalyptik" an, in dem Religionen von der Wissenschaft abgelöst würden. Es soll dann zur Kommunion der Menschen mit ihren Schöpfern kommen. Durch wissenschaftlichen Fortschritt und einen Fortschritt des Bewusstseins – erreichbar auch durch die Angaben zum Beispiel in den „Schlüsseln“ in den Büchern Raëls, durch Meditation – mit der Vervollkommnung des Klonens und schließlich des "Mind-Uploading" würden die Menschen irdische Unsterblichkeit und paradiesische Zustände erreichen können. In der Folge würden die Auserwählten ein göttergleiches Leben führen und ihrerseits Planeten mit Klonen bevölkern können. Die Entsprechung für das Leben nach dem Tod ist bei den Raëlisten die Kombination von sofortigem Ganzkörperklonen (per Biotechnologie oder Nanotechnologie?) und „Uploading“ in diesen aus der eigenen DNA neu geschaffenen jungen Körper oder auch eine zwischenzeitliche Weiterexistenz in einem fortgeschrittenen Computer. Regelmäßige Meditationen gehören zur religiösen Praxis. Hierbei soll nach raëlianischer Vorstellung durch die Haare, die als Antennen dienen sollen, telepathisch Kontakt zu den "Elohim" aufgenommen werden. Mindestens einmal im Leben sollen sich die Anhänger durch Raël oder eine von ihm hierzu beauftragte Person die Hand auflegen lassen. Dies soll dem überwachenden Computer der "Elohim" den Bauplan der Körper übermitteln. Hierdurch werde eine Wiederherstellung nach dem Tode ermöglicht. Diesem Gedanken, dass der Mensch durch Klonen wiederhergestellt würde, wird entgegengehalten, dass der Mensch erst durch seine Entwicklung im Leben zu dem würde, was er ist. Letztlich würde der Mensch durch diese Gedanken auf seine reinen Erbanlagen reduziert. Die Raëlisten und das Klonen. In der Glaubensvorstellung der religiösen Gruppierung soll das Klonen von Menschen der erste Schritt zur Unsterblichkeit ihrer Mitglieder sein. Die der Raël-Bewegung nahestehende Firma "Clonaid" behauptet, mehrere Menschen geklont zu haben. Es gab von ihnen bereits einige Schlagzeilen, ihnen sei das Klonen gelungen. Jedoch ist die Firma laut Zeugenaussagen recht klein und unmodern, sodass die Klonerfolge von seriösen Wissenschaftlern bezweifelt werden. Im März 2001 kam es zu einer Anhörung vor einem Ausschuss des Repräsentantenhauses der Vereinigten Staaten, in welcher die Raëlisten bekräftigten, das Klonen von Menschen anzustreben. 2001 bemühte sich die Bewegung, durch eine Klage in den Vereinigten Staaten durchzusetzen, dass das Klonen von Menschen dort legal sein soll. Laut einer führenden Raelistin, Brigitte Boisselier, soll es Clonaid 2002 gelungen sein, die technischen Grundlagen des Klonens von Menschen zu schaffen. Im Dezember 2002 soll nach Angaben Boiselliers dann „Eve“ als erster geklonter Mensch geboren worden sein. Diese Behauptung wird von wissenschaftlicher Seite bezweifelt. Bis 2003 lagen keine wissenschaftlichen Beweise für eine genetische Identität von Mutter und Tochter vor. Clonaid behauptete zwar, dass eine Untersuchung durch neutrale Dritte möglich sei, wollte aber weder den Namen der Eltern, noch den von hierzu bereiten Wissenschaftlern nennen. Teilweise wird angenommen, dass die Bekanntgabe des Klonerfolges eine reine Werbemaßnahme ohne realen Grund gewesen sei. Es wurde nach der Bekanntgabe der Geburt „Eves“ vor einem Gericht in Florida Klage wegen der Bestellung eines Vormundes eingereicht. Nachdem Brigitte Boisselier unter Eid versichert hatte, das Kind habe sich nie in den USA aufgehalten, erklärte sich das Gericht für unzuständig. Die Food and Drug Administration (FDA) ermittelte ab 2002 im Falle „Eve“ wegen nicht genehmigter Genversuche. Wegen der mit dem Klonen verbundenen ethischen Bedenken geriet die Sekte in die Kritik. Kritisch wird hierbei die Quote von nur 2 bis 20 % an erfolgreichen Klonversuchen bei Säugetieren angeführt. Die nicht erfolgreichen Versuche führen zum Tod im Mutterleib oder zu schweren Missbildungen. Claude Vorilhon alias Raël als Führer der Sekte glaubt, dass die Kritik am Klonen auf religiösen Vorurteilen, insbesondere von Seiten der katholischen Kirche beruhe. „Wenn wir können, werden wir Sexpuppen machen, die nicht aus Gummi, sondern aus Haut bestehen. Wie ein Mensch, nur ohne Willen, Schmerzempfinden und Persönlichkeit.“ Rezeption. Michel Houellebecq beschreibt in seinem Roman "Die Möglichkeit einer Insel" und seiner Erzählung "Lanzarote" die Sekte der "Elohimiten" bzw. "Azraëlisten", deren Lehren denen des Raelismus sehr ähnlich sind. Houellebecq zeigt offen seine Sympathie für den Raelismus und ist mit Rael selbst befreundet. Gleichwohl zeigen die beiden Geschichten auch einen gewissen Abstand. So verlässt in "Die Möglichkeit einer Insel" der Protagonist Daniel25, dessen „Urahn“ Daniel1 den "Elohimiten" einst beitrat, 2000 Jahre später deren geordnetes Leben aus Klonen, Kontemplation und Studieren, um auf der Insel Lanzarote eine neue Form des Lebens zu finden. Auch wenn er dieses Ziel nicht erreicht und seine Klonlinie wie bei allen „Abtrünnigen“ für immer beendet wird, ist er am Ende nicht unglücklich. Rachel Ward. Rachel Claire Ward (* 12. September 1957 in Cornwell Manor, Chipping Norton, Oxfordshire, England) ist eine britisch-australische Filmschauspielerin, Regisseurin und Drehbuchautorin. Leben und Karriere. Rachel Ward ist aristokratischer Herkunft und besuchte in ihrer Kindheit Privatschulen. In Paris belegte sie ein Kunststudium und begann dann als Model zu arbeiten. 1976 zog sie in die USA und wurde 1983 zu einer der schönsten Frauen der Welt gekürt. 1981 hatte sie in "Sharky und seine Profis" an der Seite von Burt Reynolds ihren ersten großen Auftritt als Schauspielerin. Sie erhielt für diese Rolle eine Nominierung für den Golden Globe als "Beste Nachwuchsdarstellerin". Ende der 1970er Jahre war Ward mit David A. Kennedy liiert. International bekannt wurde Rachel Ward durch den Fernsehmehrteiler "Die Dornenvögel". Während der Dreharbeiten 1982 lernte sie Bryan Brown kennen, den sie im folgenden Jahr heiratete. Die beiden sind Eltern von drei Kindern, darunter Schauspielerin Matilda Brown. Noch einmal standen die beiden in "Der Versuchung verfallen" gemeinsam vor der Kamera. Während sie in ihrer Wahlheimat Australien stets ein Star blieb, behielt man sie in Hollywood und in Europa nur durch die beiden Rollen einer „Femme fatale“ in dem Remake "Gegen jede Chance" und in der Komödie "Tote tragen keine Karos" an der Seite von Steve Martin in Erinnerung. 2002 wirkte sie in dem TV-Film "Bobbie's Girl" mit Bernadette Peters und Thomas Sangster mit. Rachel Ward ist seit 2000 auch als Regisseurin und Drehbuchautorin tätig. Reese Witherspoon. Laura Jeanne Reese Witherspoon (* 22. März 1976 in New Orleans, Louisiana) ist eine US-amerikanische Schauspielerin, Filmproduzentin und Oscar-Preisträgerin. Bekannt wurde sie vor allem durch ihre Rollen in "Pleasantville – Zu schön, um wahr zu sein" (1998), "Election" (1998), "Eiskalte Engel" (1999), "Natürlich blond" (2001) und "Walk the Line" (2005). Jugend und Karrierebeginn. Witherspoon lebte als Kleinkind vier Jahre lang in Wiesbaden; ihr Vater John war dort bei der US-Luftwaffe als Militärarzt im Rang eines Lieutenant Colonel stationiert. Nach der Rückkehr in die Vereinigten Staaten wuchs sie in Nashville auf. Ihre Mutter Mary Elisabeth (geborene Reese), genannt Betty, ist Professorin für Krankenpflege an der Vanderbilt University. Sie hat einen drei Jahre jüngeren Bruder namens John Draper. Witherspoon ist eine direkte Nachfahrin des in Schottland geborenen und in die USA ausgewanderten John Witherspoon, der zu den Unterzeichnern der US-amerikanischen Unabhängigkeitserklärung gehörte. Im Alter von sieben Jahren wurde sie für Werbespots eines Blumenhändlers verpflichtet. Nach dem Abschluss der Harpeth Hall School, einer privaten Mädchen-High-School in Nashville, begann sie an der Stanford University ein Studium in Englischer Literatur, das sie jedoch bald zugunsten einer Schauspielkarriere abgebrochen hat. Durchbruch. 1991 spielte sie als 14-Jährige in "Der Mann im Mond" an der Seite von Jason London ihre erste Filmrolle, für die sie in der Kategorie "Best Young Actress Starring in a Motion Picture" für den Young Artist Award nominiert wurde. 1996 spielte sie die Hauptrolle in dem Thriller "Fear – Wenn Liebe Angst macht" an der Seite von Mark Wahlberg. Im gleichen Jahr lehnte sie die Hauptrolle in Wes Cravens "Scream – Schrei!" ab, die dann mit Neve Campbell besetzt wurde. 1998 entdeckte Paul Newman Witherspoon für seinen Thriller "Im Zwielicht". Größere Bekanntheit erlangt sie 1998 neben Tobey Maguire in der Komödie "Pleasantville – Zu schön, um wahr zu sein", welche sowohl bei der Kritik als auch beim Publikum ein Erfolg war. 1999 war Witherspoon für den Film "Election" als beste Hauptdarstellerin in einer Komödie erstmals für einen Golden Globe nominiert. In dem Jahr feierte sie einen weiteren Erfolg mit dem Drama "Eiskalte Engel" an der Seite von Sarah Michelle Gellar und ihrem späteren Ehemann Ryan Phillippe. 2001 gelang ihr mit der Hauptrolle der "Elle Woods" in der Komödie "Natürlich blond" der endgültige Durchbruch. Der Film war ein internationaler Kassenschlager und Witherspoon erhielt gute Kritiken sowie eine zweite Golden-Globe-Nominierung. 2003 konnte sie mit der Fortsetzung "Natürlich blond 2" an diesen Erfolg anknüpfen. 2002 war sie an der Seite von Patrick Dempsey in der ebenfalls erfolgreichen romantischen Komödie "Sweet Home Alabama – Liebe auf Umwegen" zu sehen. Zum selben Zeitpunkt gründete sie ihre eigene Produktionsfirma "Type A Films", so dass sie bei den Filmen "Natürlich blond 2" und "Penelope" (2006) auch als Produzentin fungierte. Oscargewinn. Witherspoon 2005 beim Toronto International Film Festival Ihre bisher wichtigste Rolle spielte Witherspoon 2005 in James Mangolds Drama "Walk the Line". In der Filmbiografie über den US-amerikanischen Country-Sänger Johnny Cash spielte sie dessen zweite Ehefrau June Carter Cash und sang für den Film vier Lieder selbst ein. Für ihre Darstellung wurde sie von der Kritik gelobt und mit zahlreichen Filmpreisen ausgezeichnet, darunter der Golden Globe als beste Hauptdarstellerin in einer Komödie/Musical sowie der Oscar als beste Hauptdarstellerin. In ihrem folgenden Film "Solange du da bist" brillierte Witherspoon erneut als Komödiendarstellerin, die mit Hilfe von Mark Ruffalo versucht ihre wahre Identität herauszufinden. In dem Thriller "Machtlos" (2007) war Witherspoon an der Seite ihres späteren Lebensgefährten Jake Gyllenhaal zu sehen. In der Komödie "Mein Schatz, unsere Familie und ich" (2008) spielte sie unter anderem an der Seite von Vince Vaughn. Zudem gilt Witherspoon als eine der bestbezahlten Schauspielerinnen Hollywoods. Im Oktober 2005 belegte sie hinter Julia Roberts (20 Mio. US-Dollar) und Nicole Kidman (16 Mio. US-Dollar) mit einem Einkommen von 15 Mio. US-Dollar pro Filmrolle Platz 3 auf der Liste der höchsten Gagen. 2007 sicherte sie sich dann mit einer Gage von 15 bis 20 Mio. US-Dollar Platz 1 vor Angelina Jolie und Cameron Diaz. In einer im Juli 2008 veröffentlichten Forbes-Rangliste lag sie mit einem Einkommen von 25 Mio. US-Dollar (zwischen Juni 2007 und Juni 2008) hinter Cameron Diaz, Keira Knightley und Jennifer Aniston auf Platz 4. 2010 stand sie an der Seite von Paul Rudd, Owen Wilson und Jack Nicholson für die Komödie "Woher weißt du, dass es Liebe ist" vor der Kamera. Sie spielte darin die Rolle der "Lisa", einer ehemaligen Softballspielerin, die sich zwischen zwei Männern entscheiden muss. Der Film kam im Dezember 2010 in die amerikanischen Kinos. Witherspoon erhielt am 1. Dezember 2010 den 2425. Stern auf dem Hollywood Walk of Fame. Für die Rolle der Cheryl Strayed in "Der große Trip – Wild" (2014) erhielt sie 2015 ihre zweite Oscar-Nominierung als beste Hauptdarstellerin, sie war in dieser Kategorie unter anderem auch für einen Golden Globe und den Screen Actors Guild Award nominiert. Privatleben. Am 5. Juni 1999 heiratete Reese Witherspoon den Schauspieler Ryan Phillippe. Sie haben zwei gemeinsame Kinder, eine Tochter (* 1999) und einen Sohn (* 2003). Die Ehe wurde am 5. Oktober 2007 geschieden. Von 2007 bis Dezember 2009 lebte sie mit ihrem Schauspielkollegen Jake Gyllenhaal, den sie bei den Dreharbeiten für den Film "Machtlos" kennenlernte, zusammen. Am 26. März 2011 heiratete Witherspoon den Schauspielagenten Jim Toth. Das Paar lebte zeitweilig auf einer Ranch in Ojai/Kalifornien (ca. 150 km nördlich von Los Angeles). Die Ranch hatte Witherspoon 2008 für 6,9 Mio. US-Dollar erworben. Ende 2013 wurde die Ranch für 4,984 Mio. US-Dollar veräußert. Im September 2012 brachte sie ihr drittes Kind, einen Sohn, zur Welt; dessen Vater ist ihr Mann Jim Toth. Synchronisation. Reese Witherspoon ist am häufigsten von Manja Doering synchronisiert worden. Doering sprach sie unter anderem in "Der Mann im Mond", "Fear", "Im Zwielicht", "Pleasantville", "Election", "Natürlich blond 1 und 2", "Solange du da bist", "Machtlos" und "Wasser für die Elefanten". In vielen ihrer neueren Filme "(Vanity Fair – Jahrmarkt der Eitelkeit", "Walk the Line" und "Penelope)" wird sie von Ranja Bonalana gesprochen. Zu ihren weiteren deutschen Stimmen gehörten Marie Bierstedt "(Eiskalte Engel)", Dascha Lehmann "(American Psycho)" und Claudia Lössl "(Sweet Home Alabama – Liebe auf Umwegen)". Ronald Schill. Ronald Barnabas Schill (* 23. November 1958 in Hamburg) ist ein deutscher Jurist und ehemaliger Politiker. Schill war Gründungsvorsitzender der Partei Rechtsstaatlicher Offensive und von 2001 bis 2003 Zweiter Bürgermeister und Innensenator Hamburgs. Ausbildung und Beruf. Nach dem Abitur am Wirtschaftsgymnasium Weidenstieg studierte Schill an der Universität Hamburg drei Semester Psychologie. Anschließend absolvierte er ein Studium der Rechtswissenschaften in Hamburg, welches er 1988 mit dem ersten und 1992 mit dem zweiten juristischen Staatsexamen abschloss. Er praktizierte von 1992 bis 1993 als Rechtsanwalt. 1993 wurde er Richter am Amtsgericht Hamburg, wo er bis 2001 tätig war. Bis zum 31. Dezember 1999 arbeitete Schill in einem Dezernat für Strafsachen, dann wurde ihm ein Dezernat in der Zivilgerichtsbarkeit zugewiesen. Öffentliche Wahrnehmung als Richter. Wegen einiger Urteile mit hohem Strafmaß erhielt Schill von der Hamburger Boulevardpresse den Spitznamen „Richter Gnadenlos“. Schill trat zu dieser Zeit häufig in der Presse und auch im Fernsehen auf, wobei er allgemein eine härtere Bestrafung insbesondere von Wiederholungstätern forderte und ein von ihm behauptetes „Kartell strafunwilliger Jugendrichter in Hamburg“ anprangerte. Freispruch vom Vorwurf der Rechtsbeugung. Für großes Aufsehen sorgte in den Jahren 1999 bis 2001 ein Strafverfahren gegen Ronald Schill wegen Rechtsbeugung. Schill wurde vorgeworfen, als Strafrichter eine Beschwerde von Personen, die er in Ordnungshaft genommen hatte, zwei Tage nicht weitergeleitet zu haben. Er soll beabsichtigt haben, bewusst den Rechtsschutz der Inhaftierten zu unterlaufen und zu erreichen, dass diese die dreitägige Ordnungshaft bereits abgesessen hätten, bevor das zuständige Oberlandesgericht über die Rechtmäßigkeit der Verhaftung entschied. Schill wurde mit Urteil des Landgerichts Hamburg vom 13. Oktober 2000 zu einer Geldstrafe von 120 Tagessätzen zu je 100 DM verurteilt. Der Bundesgerichtshof hob diese Verurteilung mit Urteil vom 4. September 2001 auf, da das Landgericht nicht hinreichend dargelegt habe, dass die zögerliche Weiterleitung der Beschwerde, die innerhalb eines objektiv vertretbaren Zeitraums erfolgt sei, aus sachfremden Erwägungen erfolgte. Nach erneuter Hauptverhandlung sprach das Landgericht Hamburg Schill im Dezember 2001 dann rechtskräftig vom Vorwurf der Rechtsbeugung frei – zu dieser Zeit war Schill bereits Zweiter Bürgermeister und Innensenator Hamburgs. Politische Karriere. Große Unterstützung hatte Schill von der Springer-Presse, insbesondere von der "Bild" bekommen; so hatte vor allem Letztere ihm schon vor der Parteigründung viel Platz in ihrer Berichterstattung eingeräumt. Am 23. September 2001 erhielt die Partei Rechtsstaatlicher Offensive bei der Bürgerschaftswahl in Hamburg 19,4 % der Wählerstimmen. Am 31. Oktober desselben Jahres wurde Schill zum Zweiten Bürgermeister und Innensenator der Freien und Hansestadt Hamburg in einer Koalitionsregierung seiner Partei mit CDU und FDP unter dem Ersten Bürgermeister Ole von Beust berufen. Politik als Innensenator. Anfang 2002 berief Ronald Schill den bayerischen Kriminaldirektor Udo Nagel zum Hamburger Polizeipräsidenten. Weiterhin stellte Schill im Laufe des Jahres 250 Angestellte im Polizeidienst neu ein, um die Polizei von Verwaltungsaufgaben zu entlasten, und übernahm 14 bereits fertig ausgebildete Polizeibeamte aus Berlin. Im Jahr 2003 wurden 325 Polizeibeamte aus Berlin und 29 aus anderen Bundesländern in den Hamburger Polizeidienst übernommen. Bis Mitte 2004 sollen damit 500 neue Beamte eingestellt worden sein. Darüber hinaus sind 2003 229 Nachwuchskräfte engagiert worden. Ein entscheidendes Kriterium, an dem Schills Arbeit gemessen wurde, war die amtliche Kriminalstatistik. Demnach ging die Zahl der erfassten Straftaten im Jahr 2002 um 15,5 Prozent zurück und stieg im Jahr 2003 um 0,8 Prozent an. Schill verbuchte den außergewöhnlich starken Rückgang der Kriminalitätsrate während seiner Amtszeit als einen Erfolg seiner Politik, was jedoch von Oppositionspolitikern bezweifelt wurde. Nach der von Schill angeordneten gewaltsamen Räumung des Bauwagenplatzes Bambule kam es zu monatelangen sogenannten "Bambule-Protesten" in der Stadt, denen Schill mit „rechtsstaatlicher Härte“ und „Repression“ begegnen wollte. Ein Slogan auf den Demonstrationen war „Schill muss weg“. Diese Forderung wurde auch zum Thema eines oft auf den „Anti-Schill-Demos“ zu hörenden Liedes der deutschen Hip-Hop-Band Fettes Brot mit Bela B. Felsenheimer mit dem Titel "Tanzverbot – Schill to hell". Schill setzte sich bereits im Wahlkampf 2001 für die Einführung blauer Polizeiuniformen ein. Die Einkleidung der Polizisten mit neuen Uniformen, die von Luigi Colani entworfen waren, geschah von Oktober 2003 bis August 2005. Die Umstellung wurde durch Firmensponsoring und Privatspenden finanziert. Im Übrigen begann Schill, grau-blaue Polizeidienstwagen zu beschaffen. Politische Eklats. Während seiner gesamten politischen Karriere blieb Schill im Blickpunkt des Medieninteresses. Die Kriminalitätsbekämpfung spielte in der öffentlichen Wahrnehmung eine große Rolle – die Lokalpresse bezeichnete Hamburg als „Hauptstadt des Verbrechens“. Für bundesweites Aufsehen sorgte Schill, als er am 29. August 2002 vor dem Deutschen Bundestag sprach. Im Rahmen einer Debatte über die Finanzierung der Flutkatastrophe in Ostdeutschland griff Schill die angeblichen politischen Ursachen auf, die zu der Notwendigkeit führten, ein Konjunkturprogramm mit Steuererleichterungen zu verschieben. Dabei sorgte vor allem Schills Kritik an der langjährig praktizierten Einwanderungspolitik für Empörung, wonach in der deutschen Politik im Vergleich zu anderen Ländern zu wenig Reserven für Katastrophen gebildet würden, aber zu viel für Zuwanderer gezahlt werde. Der Eklat setzte sich fort, als Bundestagsvizepräsidentin Anke Fuchs ihm nach Überziehung der für Bundestagsabgeordnete üblichen 15 Minuten Redezeit und vergeblicher Aufforderung, zum Schluss zu kommen, das Mikrofon abstellte. Mit der Aufforderung, ein Schlusswort zu sprechen, wurde das Mikrofon zwar wieder eingeschaltet; als Schill sich nun aber über das seiner Meinung nach verfassungswidrige Vorgehen beschwerte und sich auf das Grundgesetz sowie auf das "Recht auf jederzeitiges Gehör" nach der Geschäftsordnung des Bundestages berief, wurde das Mikrofon endgültig abgeschaltet und ihm das Wort entzogen. Das Präsidium war der Auffassung, dass Schill immer noch nicht zur Sache sprach und eine Beendigung seiner Rede nicht erkennbar sei. Schill sah darin eine Verletzung von Abs. 2 S. 2 GG, der nach seiner Meinung und der einiger Beobachter Bundesratsmitgliedern unbegrenzte Redezeit zugestehe. Er warf Fuchs Verfassungsbruch vor, reichte jedoch eine angekündigte Klage vor dem Bundesverfassungsgericht nicht ein. Die Rede führte zu einer Koalitionskrise in Hamburg. Ole von Beust missbilligte das Verhalten Schills und wies ihn darauf hin, er habe im Bundestag nicht als Parteivertreter, sondern als Vertreter des Hamburger Senats zu reden. Kokain-Konsum. Im Februar 2002 berichtete das Fernsehmagazin "Panorama" unter Berufung auf einen Zeugen, dass der Hamburger Innensenator Kokain konsumiert habe. Schill bezeichnete das Magazin als „Schweinemagazin“, das „mit Denunzianten“ arbeite. Er erwirkte vor der Pressekammer des Landgerichts Hamburg eine einstweilige Verfügung. Sie verbot dem NDR unter Androhung von Ordnungshaft und Ordnungsgeld, zu behaupten, er habe dieses Rauschmittel zu sich genommen. Grundlage der Entscheidung war, wie in Verfahren des einstweiligen Rechtsschutzes allgemein üblich, eine eidesstattliche Versicherung Schills. Zeitungen des Springer-Verlages verteidigten ihn und kritisierten die "Panorama"-Vorwürfe. Schill ließ im Zusammenhang mit den Kokain-Vorwürfen freiwillig eine Haarsträhne analysieren; dabei wurden keine Kokainspuren festgestellt. Das von der Staatsanwaltschaft Hamburg eingeleitete Ermittlungsverfahren wegen Betäubungsmittelbesitzes wurde daraufhin eingestellt. Laut Schill war der Haartest zunächst positiv, allerdings sei ein Verfahren angewendet worden, bei dem Kokain bis auf ein zehnmillionstel Gramm nachgewiesen werden kann. Ein erneuter Test, bei dem es um die Feststellung einer höheren Dosis ging, sei negativ ausgefallen. Laut Informationen der "Süddeutschen Zeitung" sei Hamburger Landespolitikern Schills mutmaßlicher Kokainkonsum schon früher bekannt gewesen. Am 7. März 2008 wurde der "Bild"-Zeitung ein Video mit dem ehemaligen Politiker angeboten, das ohne sein Wissen aufgenommen worden war. "Bild" kaufte nur einen Teil des Videos, das später auch im Internet zu sehen war und Schill augenscheinlich und nach dessen vernehmbarer Aussage beim Kokainschnupfen zeigt. Ausschluss aus dem Hamburger Senat. Im Sommer 2003 geriet der Staatsrat der Innenbehörde und Schill-Vertraute Walter Wellinghausen in die Schlagzeilen, weil dieser neben seinem Amt auch als Anwalt und Aufsichtsrat einer Klinik tätig war. Als von Beust Wellinghausen ohne Absprache mit Schill entlassen wollte, kam es am 19. August 2003 zu einer persönlichen Auseinandersetzung mit Schill. Im Anschluss daran entließ von Beust den Innensenator mit dem Vorwurf, dieser habe ihm gedroht, zu veröffentlichen, dass er seinen angeblichen Lebenspartner Roger Kusch zum Justizsenator gemacht habe und somit Privates mit Politischem verquickt habe. Aufgrund dieser Drohung stufte er Schill als „charakterlich nicht geeignet“ ein, sein Amt weiterzuführen. Die Staatsanwaltschaft Hamburg leitete gegen Schill wegen versuchter Nötigung ein Ermittlungsverfahren ein. Das Verfahren musste jedoch an den Generalbundesanwalt weitergereicht werden, da von Beust als Erster Bürgermeister ein Verfassungsorgan darstellte (siehe StGB – nur indirekt StGB). Das Verfahren wurde schon im August 2003 nach rechtlicher Prüfung eingestellt. Die Staatsanwaltschaft Hamburg hatte bei der Aufnahme der Ermittlungstätigkeiten die aktuelle Rechtsprechung des BGH übersehen, die in diesem Fall hätte Anwendung finden müssen. Die Bundesanwaltschaft teilte dazu in ihrer Presseerklärung begründend mit, dass nach der Rechtsprechung des Bundesgerichtshofs erwartet werden könne, dass Regierungsmitglieder derartigen Angriffen standhalten und hierauf mit politischen Mitteln reagieren (siehe dazu auch „Chantage“ = ursprüngl. Erpressung mit kompromittierenden Interna). Der Drohung fehle das „besondere Gewicht“ und „die spezifische staatsgefährdende Zwangswirkung“. Danach fiel die Partei Rechtsstaatlicher Offensive in Umfragen um einige Prozentpunkte zurück, lag jedoch noch deutlich über der Fünf-Prozent-Hürde. Vertreter verschiedener Verbände begrüßten die Entlassung Schills. Schill zog sich auf die Wahrnehmung seines Bürgerschaftsmandats zurück. Ausschluss und Niedergang der Partei Rechtsstaatlicher Offensive. Ende November 2003 wurde Schill zum Hamburger Landesvorsitzenden der Partei Rechtsstaatlicher Offensive wiedergewählt. In Interviews des Hamburger Lokalsenders Hamburg 1 entschuldigte sich Schill bei von Beust für Misstöne und bot ihm eine Zusammenarbeit auf politischer Ebene an. Weiterhin bot er Innensenator Dirk Nockemann seine Hilfe bei der Ausführung der Senatorentätigkeit an. Dies wurde von Regierungspolitikern als Kritik an der Kompetenz Nockemanns aufgefasst, woraufhin von Beust von der Parteiführung der Partei Rechtsstaatlicher Offensive forderte, Schills Auftritte zu unterbinden. Am 6. Dezember 2003 forderte der Bundesvorstand der Partei Rechtsstaatlicher Offensive von Ronald Schill die Unterzeichnung einer Erklärung, dass er sich in Zukunft nur noch unter vorheriger Absprache öffentlich äußern dürfe. Als Schill ablehnte, entzog ihm der Bundesvorstand das Amt des Hamburger Landesvorsitzenden und sprach ihm ein zweijähriges Verbot aus, weitere Ämter in der Partei einzunehmen. Schill sah diesen Vorgang als nicht rechtens an und nahm in der nachfolgend angesetzten Sitzung des Hamburger Landesvorstandes demonstrativ den Vorsitz ein. Am 16. Dezember 2003 beschloss der Bundesvorstand der Partei Rechtsstaatlicher Offensive bei einer außerordentlichen Sitzung in Berlin den Parteiausschluss von Schill. Die Mehrzahl der Landesverbände stand hinter Schill und begann, einen außerordentlichen Parteitag einzurufen, um den Bundesvorstand abzusetzen und seine Entscheidungen zu widerrufen. Am 18. Dezember 2003 gründete Schill mit fünf ehemaligen Mitgliedern seiner früheren Partei eine eigene Fraktion der Hamburger Bürgerschaft. Zur Vorsitzenden der neuen Ronald-Schill-Fraktion wurde Schills ehemalige Lebensgefährtin Katrin Freund gewählt. Nachdem deutlich geworden war, dass die Hamburger Koalition ohne Schill und seine Anhänger in der Schill-Fraktion der Bürgerschaft keine eigene Mehrheit mehr hatte, erklärte von Beust am 9. Dezember 2003 die Koalition aus CDU, FDP und der Schill-Partei für beendet. Der festgesetzte Termin für die Neuwahlen 29. Februar 2004 schloss aus, dass die Partei Rechtsstaatlicher Offensive zu dieser Wahl mit Schill antreten konnte, da die Einberufung des klärenden Parteitages unter Einhaltung der vorgegebenen Fristen erst nach Abgabe der Listen an den Wahlleiter stattfinden konnte. Anfang Januar 2004 traf sich Schill mit dem Parteivorsitzenden der Partei Pro DM, Bolko Hoffmann, und trat mit seinen Fraktionskollegen in die Pro DM ein, die zur Wahl unter der Bezeichnung „Pro DM/Schill“ antrat. Noch im Januar 2004 konnte die Pro DM/Schill-Partei erwirken, dass nur sie sich als „Schill-Partei“ bezeichnen darf. Die Partei Rechtsstaatlicher Offensive wollte diese Bezeichnung aus wahltaktischen Gründen behalten. Bei den Neuwahlen am 29. Februar 2004 erreichte die Pro DM 3,1 % der Stimmen, während seine ehemalige Partei nur noch ein Ergebnis von 0,4 % errang. Lediglich im Bezirk Harburg konnte die Pro DM die 5 %-Hürde überspringen und war dort in der Wahlperiode von 2004 bis 2008 in der Bezirksversammlung mit zwei Mitgliedern vertreten. Schill kündigte nach der Niederlage an, sich aus dem politischen Leben zurückzuziehen und aus Deutschland auszuwandern. Am 16. Oktober 2004 reiste er schließlich in die Karibik. Trotzdem blieb er Vorsitzender des Hamburger Landesverbandes der Partei Pro DM, die sich Ende 2007 auflöste. Ausreise nach Südamerika. Schill wurde nach seiner Ausreise aus Deutschland in Brasilien vermutet. Ende Mai 2006 sollte Schill vor dem Parlamentarischen Untersuchungsausschuss der Hamburgischen Bürgerschaft aussagen, doch diesem gelang es nicht, eine ladungsfähige Anschrift zu ermitteln. Mitte August meldete das "Hamburger Abendblatt", dass Schill von einem Leser in einem Restaurant in Rio de Janeiro fotografiert worden sei. Ende September 2006 gelang es einem Kamerateam, ein kurzes Interview mit Schill in Rio zu führen, dieses wurde im Hamburg Journal des NDR ausgestrahlt. Schill äußerte, dass er sich konsequenterweise aus Deutschland zurückgezogen habe, da er an den dortigen Verhältnissen nichts habe ändern können, er könne sich für die Zukunft vielleicht Aktivitäten in der brasilianischen Politik vorstellen. Anfang Dezember 2006 wurde Schill zur Aufenthaltsermittlung vom Landeskriminalamt Hamburg zur Fahndung ausgeschrieben. Im September 2007 berichtete die "Hamburger Morgenpost", dass Schill in Rio de Janeiro von seiner Richter-Pension lebe. 2007 drohte die Hamburger Bürgerschaft, dessen Ruhegehalt als Exsenator zu kürzen, wenn er nicht vor einem parlamentarischen Untersuchungsausschuss aussage. Daraufhin kam Schill am 17. Oktober 2007 nach Hamburg und machte seine Aussage. Schill bewohnt ein Haus in der Favela Pavão-Pavãozinho. Familie. Schill wuchs bei seiner Mutter in Hamburg auf. Er hat einen jüngeren Bruder, der als Lehrer in Hannover tätig ist. Schills Großvater Kurt Schill war Mitglied der KPD, aktiv im Widerstand gegen den Nationalsozialismus und wurde 1944 im KZ Neuengamme in Hamburg ermordet. Sonstiges. Ronald Schill war vom 15. bis 29. August 2014 Teilnehmer der zweiten Staffel von "Big Brother – Das Experiment", die von "Sat.1" ausgestrahlt wurde. Dort belegte er den dritten Platz. Seine Autobiografie "Der Provokateur" wurde am 18. August 2014 veröffentlicht. Am 10. Februar 2015 wurde eine Sendung der Serie "Goodbye Deutschland" von "VOX" über Ronald Schill ausgestrahlt, bei der er in Rio de Janeiro Besuch von Janina Youssefian erhielt. Robin Williams. Robin McLaurin Williams (* 21. Juli 1951 in Chicago, Illinois; † 11. August 2014 in Paradise Cay, Kalifornien) war ein US-amerikanischer Schauspieler und Komiker. Er wurde 1978 durch die Sitcom "Mork vom Ork" bekannt. Der Oscar- und fünffache Golden-Globe-Preisträger spielte sowohl tragikomische "(Good Morning, Vietnam, Der Club der toten Dichter)" als auch psychopathische Rollen "(One Hour Photo, Insomnia – Schlaflos)", wirkte aber auch in Familienfilmen "(Flubber, Mrs. Doubtfire – Das stachelige Kindermädchen)" mit. Herkunft und Ausbildung. Williams wuchs in wohlhabenden Verhältnissen in Chicago und Bloomfield Hills nahe Detroit auf. Seine Mutter Laura McLaurin war Gründerin einer Modelagentur und sein Vater Robert Fitzgerald Williams leitender Angestellter bei Ford. Während seiner Highschoolzeit wohnte er in Los Angeles und in Tiburon, einem Vorort von San Francisco. Nach der Highschool begann er auf dem College ein Studium der Politikwissenschaft, welches er jedoch abbrach. Er wechselte nun in die Theaterklasse, die er aber ebenfalls nicht beendete. Er belegte ein Improvisationsseminar und trat in der Gruppe „The Comedy of San Francisco“ als Stand-Up-Comedian auf. Als Amerikas führende Schauspielschule Juilliard’s ein Vorsprechen in San Francisco veranstaltete, nahm er teil und wurde dort angenommen. Mit 21 Jahren zog er nach New York City und freundete sich an der Juilliard mit seinem Klassenkameraden Christopher Reeve an. Die beiden wurden als einzige ihres Jahrgangs in die Fortgeschrittenen-Klasse von John Houseman aufgenommen. Nach drei Jahren ging er zurück nach San Francisco und trat 1975 wieder als Stand-Up-Comedian im „The Comedy Store“ auf. Karriere in Film und Fernsehen. 1977 wurde George Schlatter, Produzent der Comedy Show "Laugh-In", auf ihn aufmerksam und ließ ihn für sechs Folgen neben Frank Sinatra und Bette Davis auftreten. Es folgten Auftritte in der "Richard Pryor Show", die aber der Zensur von Network TV zum Opfer fielen. Im selben Jahr hatte er einen Gastauftritt als Außerirdischer namens "Mork" in einer Folge der Sitcom "Happy Days", die sehr gut ankam. Daraufhin entwarf der Direktor von Paramount eine Serie für diese Figur. Die Rolle des "Mork vom Ork" "(Mork & Mindy)" machte Williams über Nacht zum Star. a> mit der Journalistin Yola Czaderska-Hayek 1980 erhielt Williams einen Grammy für die "Beste Comedy-Aufnahme" "(Reality … What a Concept)". Mit seiner ersten Filmrolle in Robert Altmans "Popeye – Der Seemann mit dem harten Schlag" (1980) erlebte Williams einen herben Flop, konnte aber zwei Jahre später mit der Verfilmung von John Irvings "Garp und wie er die Welt sah" sowie mit "Moskau in New York" (1984), in dem er einen Immigranten darstellte, wohlwollende Kritiken verbuchen. 1987 gelang Williams der Durchbruch in einem dramatischen Kinofilm und er erhielt für "Good Morning, Vietnam" einen Golden Globe und eine Oscar-Nominierung. 1989 folgten "Der Club der toten Dichter", "Zeit des Erwachens" (1990) und "König der Fischer" (1991), die Williams den Ruf einbrachten, ein gutes Gespür für wirkungsvolle dramatische Rollen zu besitzen. Ab 1991 wirkte er in einer Reihe erfolgreicher Kinder- und Jugendfilme mit, darunter "Hook" und "Flubber". In seinen teils sentimentalen Filmen für ein erwachsenes Publikum war er in dieser Zeit – nicht immer erfolgreich – auf die Rolle des gutmütigen, sanften Gefühlsmenschen abonniert. Hierzu zählen "Hinter dem Horizont", "Patch Adams", "Jakob der Lügner" und "Der 200 Jahre Mann". Seine größten Hits in den 1990er Jahren waren "Mrs. Doubtfire", "The Birdcage" und "Good Will Hunting", für den er einen Oscar als bester Nebendarsteller erhielt. Auf George Martins 1998 erschienenem Beatles-Tribut-Album "In My Life" sang er gemeinsam mit Bobby McFerrin den Titel "Come Together". Nach der Jahrtausendwende bemühte Williams sich um einen Imagewandel und spielte eine Zeitlang Psychopathen und negative Charaktere. Filme wie "One Hour Photo" oder "Insomnia" und Williams’ Schauspielkunst abseits der Leinwand wurden von den Kritikern positiv aufgenommen. 2006 übernahm er die Hauptrolle in "Die Chaoscamper" und kehrte damit zu unbeschwerten Kinderfilmen zurück. Ab 2013 übernahm er für die Sitcom "The Crazy Ones" erstmals seit den Anfängen seiner Karriere wieder eine feste Rolle in einer Fernsehserie. Die Sendung war jedoch für den Sender CBS kein Erfolg und wurde im Mai 2014 nach nur einer Staffel wieder eingestellt. Williams, einer der beliebtesten Schauspieler bei Kindern, war auch ein gefragter Sprecher für Trickfilme, so etwa bei "Aladdin" (1992), "Happy Feet" (2006) und "Happy Feet 2" (2011). Er übernahm öfter kleine Cameo-Auftritte, so trat er bei Woody Allen in "Harry außer sich" und bei Kenneth Branagh in "William Shakespeare’s Hamlet" auf. In Terry Gilliams "Die Abenteuer des Baron Münchhausen" mimte er "Ray D. Tutto", den König des Mondes. In "To Wong Foo" blieb sein Auftritt ungenannt. Zu seinen zahlreichen Gastauftritten im Fernsehen gehörten Auftritte bei "Friends", "Alles dreht sich um Bonnie" und "Wilfred". Über die United Service Organizations trat er regelmäßig vor amerikanischen Truppen im Irak und in Afghanistan auf. Abgedreht wurden kurz vor seinem Tod im August 2014 das Drama "Boulevard", die Tragikomödie "The Angriest Man in Brooklyn", die Komödie "Merry Friggin’ Christmas" sowie die Fantasykomödie "Nachts im Museum 3: Das geheimnisvolle Grabmal". Familie und Hobbys. 1978 heiratete Williams Valerie Velardi; das Paar bekam 1983 einen Sohn. 1989 ging der Schauspieler eine Ehe mit Marsha Garces ein, dem Kindermädchen seines Sohnes. Die beiden haben zwei Kinder, Tochter Zelda Rae und Sohn Cody Alan. Garces reichte im Frühjahr 2008 die Scheidung ein. Am 23. Oktober 2011 heiratete Williams in St. Helena Susan Schneider, seine dritte Frau. Williams war ein begeisterter Radsportler und besuchte öfter die Tour de France. Er soll über 100 Fahrräder besessen haben, und bekannte Radsportler wie Greg LeMond zählten zu seinen Freunden. Als ein frühes Hobby gab er in der Frankfurter Allgemeinen Sonntagszeitung 2011 das Sammeln von Modellsoldaten an, was er als Verdrängung seiner Einsamkeit mangels Freundschaften durch diverse Umzüge in seiner Kindheit bezeichnete. 1986 gründete Williams zusammen mit Whoopi Goldberg und Billy Crystal die Wohltätigkeitsorganisation "Comic Relief USA", die eine jährliche Fernseh-Gala zugunsten Obdachloser veranstaltet. Zusammen mit seiner zweiten Ehefrau Marsha gründete er die "Windfall Foundation", die Gelder für unterschiedliche soziale Zwecke sammelt. Er unterstützte auch lange das "St. Jude Children’s Research Hospital" in Memphis, Tennessee mit Spenden. Gesundheitszustand. Williams litt nach Angaben seiner Sprecherin an einer klinischen Depression. Er gab an, bereits in den 1970er Jahren alkohol- und kokainabhängig gewesen zu sein. Seit dem Drogentod seines Freundes John Belushi 1982, noch vor der Geburt seines ersten Sohnes, galt er als abstinent. Nachdem er im Sommer 2006 rückfällig geworden war, entschloss er sich umgehend zu einem neuen Entzug. Im Herbst 2006 nahm er seine Arbeit wieder auf. Williams ging offen mit seiner Suchterkrankung um und sprach darüber öffentlich in verschiedenen Talkshows. Außerdem griff er die Thematik in seinem letzten Bühnenprogramm "Weapons of Self Destruction" selbstironisch auf. Ende Juni 2014 begab sich Williams erneut freiwillig in ein Rehabilitationszentrum, da er einen Rückfall befürchtete. Nach Angaben seiner Ehefrau litt er an Lewy-Körper-Demenz, zudem unter der Parkinson-Krankheit in einem frühen Stadium sowie an Angstzuständen. Tod. Williams wurde am 11. August 2014 von der Polizei wenige Minuten nach einem Notruf in seinem Haus in Paradise Cay, Kalifornien, tot aufgefunden. Im ersten veröffentlichten Bericht vom 12. August sagte der stellvertretende Gerichtsmediziner des Marin County Sheriff Office aus, Williams habe sich mit einem Gürtel erhängt und sei durch Ersticken gestorben. Für eine Gedenkminute wurden am Abend des 13. August 2014 am Broadway die Lichter ausgeschaltet; damit ehrte das New Yorker Theaterviertel den verstorbenen Schauspieler. Die sterblichen Überreste von Robin Williams wurden laut der offiziellen Todesurkunde am Tag nach seinem Tod eingeäschert und in der Bucht von San Francisco verstreut. Deutsche Synchronsprecher. In den deutschen Versionen seiner Filme wurde er überwiegend von Peer Augustinski synchronisiert. Nachdem dieser Ende 2005 einen Schlaganfall erlitten hatte, schrieb Williams ihm einen Dankesbrief mit Genesungswünschen. Einstweilen wurde Williams von Bodo Wolf gesprochen. Von Dezember 2007 an war wieder Augustinski als seine deutsche Stimme zu hören, so in dem Film "Der Klang des Herzens" "(August Rush)" und auch in "Nachts im Museum 2". Laut einem Interview mit Augustinski bei Markus Lanz hätten die Synchronfirmen dann entschieden, dass Bodo Wolf nun weiterhin Williams synchronisieren sollte. Eine Übersicht aller deutschen Robin-Williams-Synchronsprecher und -Filme enthält die Deutsche Synchronkartei. Filmpreise. Golden Globe Goldene Himbeere National Board of Review Award Rudolf Scharping. Rudolf Scharping in seiner Zeit als Verteidigungsminister (um 2000) Rudolf Scharping (* 2. Dezember 1947 in Niederelbert, Westerwald; vollständiger Name: "Rudolf Albert Scharping") ist ein deutscher Politiker (SPD) und Sportfunktionär. Er war von 1991 bis 1994 Ministerpräsident des Landes Rheinland-Pfalz und von 1998 bis 2002 Bundesminister der Verteidigung. Von 1993 bis 1995 war er außerdem Bundesvorsitzender der SPD, bei der Bundestagswahl 1994 war er Kanzlerkandidat. Von März 1995 bis Mai 2001 war er Parteivorsitzender der Sozialdemokratischen Partei Europas (SPE). Seit 2005 ist er Präsident des Bundes Deutscher Radfahrer. 2009 sowie am 23. März 2013 bestätigte die Bundesversammlung der Organisation Scharping in dieser Position, obgleich Scharping kurz vor seiner zweiten Wiederwahl mitgeteilt hatte, dass er nicht wieder für das Amt kandidieren wolle. Ausbildung. Nach dem Abitur 1966 am Gymnasium Lahnstein war Scharping Reserveoffizieranwärter bei der Bundeswehr, wurde jedoch nach wenigen Wochen beim Jagdbombergeschwader 33 in Büchel/Eifel wegen seiner Sehschwäche beurlaubt und nach einem halben Jahr entlassen. Ab 1966 studierte er Rechtswissenschaft und Soziologie an der Universität Bonn. Nach fünf Semestern wechselte er zum Hauptfach Politikwissenschaft und legte 1974 seine Magisterprüfung (M. A.) ab. Seine Magisterarbeit hat den Titel "Probleme eines regionalen Wahlkampfes am Beispiel des Bundestagswahlkampfes 1969 der SPD im Wahlkreis Bad Kreuznach." Parteilaufbahn. Scharping ist seit 1966 Mitglied der SPD. 1968 wurde ein Parteiordnungsverfahren gegen ihn eingeleitet, weil er Flugblätter gegen die Anschaffung der Starfighter verteilt hatte. Das Verfahren wurde jedoch nach zehn Monaten eingestellt. Von 1969 bis 1974 war er Landesvorsitzender der Jusos in Rheinland-Pfalz, von 1974 bis 1976 stellvertretender Bundesvorsitzender der Jusos. 1978 besuchte er als JuSo-Mitglied die XI. Weltfestspiele der Jugend in Havanna. 1984 bis 1990 war er Vorsitzender des SPD-Bezirks Rheinland/Hessen-Nassau, 1985 bis 1991 Vorsitzender der SPD-Landtagsfraktion, 1985 bis 1993 Vorsitzender der SPD Rheinland-Pfalz. 1987 trat er erstmals als Spitzenkandidat gegen Ministerpräsident Bernhard Vogel (CDU) an. Obgleich die CDU die absolute Mehrheit verlor, konnte sich Scharping nicht gegen Vogel durchsetzen. 1991 trat er erneut als Spitzenkandidat der SPD an, diesmal gegen Ministerpräsident Carl-Ludwig Wagner (CDU), gegen den er die Wahl gewinnen konnte. 1993 sprach sich eine relative Mehrheit der SPD-Mitglieder in einer Urwahl für Scharping als Parteivorsitzenden aus, anschließend wählten ihn die satzungsmäßig dazu bestimmten Bundesdelegierten auf einem Sonderparteitag in Essen zum Bundesvorsitzenden der SPD. Er setzte sich dabei gegen seine beiden Gegenkandidaten Gerhard Schröder und Heidemarie Wieczorek-Zeul durch. Scharping profitierte davon, dass er im Gegensatz zu Schröder nicht öffentlich erklärt hatte, dass er auch Kanzlerkandidat werden wollte. So zog er auch die Stimmen derjenigen Mitglieder auf sich, die Oskar Lafontaine als Kanzlerkandidat wollten. Bei der Bundestagswahl 1994 verlor er jedoch gegen den amtierenden Bundeskanzler Helmut Kohl. Auf dem Mannheimer Parteitag im November 1995 unterlag er dann in einer Kampfabstimmung um den Parteivorsitz dem damaligen Ministerpräsidenten des Saarlandes Oskar Lafontaine und wurde damit nicht im Amt bestätigt. Er war dann bis 2003 stellvertretender Bundesvorsitzender der SPD und von März 1995 bis Mai 2001 Vorsitzender der Sozialdemokratischen Partei Europas (SPE). Abgeordnetentätigkeit. Von 1975 bis 1994 war Scharping Mitglied des Landtages von Rheinland-Pfalz. Von 1994 bis 2005 war er Mitglied des Deutschen Bundestages. Hier war er von 1994 bis 1998 Vorsitzender der SPD-Bundestagsfraktion und Oppositionsführer. Scharping ist 1998 als direkt gewählter Abgeordneter des Wahlkreises Montabaur und sonst stets über die Landesliste Rheinland-Pfalz in den Bundestag eingezogen. Öffentliche Ämter. Vom 21. Mai 1991 bis zum 15. Oktober 1994 war er Ministerpräsident des Landes Rheinland-Pfalz. Er war nach vierundvierzigjähriger CDU-Regierungszeit der erste Sozialdemokrat in diesem Amt. Vom 27. Oktober 1998 bis zum 18. Juli 2002 war Scharping Bundesminister der Verteidigung und der erste, unter dessen Führung die Bundeswehr an einem Krieg, dem Kosovokrieg, teilnahm. Privates. Rudolf Scharping ist in zweiter Ehe mit Kristina Gräfin Pilati von Thassul zu Daxberg (geb. Paul), verheiratet. Mit seiner ersten Ehefrau Jutta Scharping, geb. Krause, hat er drei Töchter. Herkules-Projekt. Während seiner Amtszeit brachte Scharping das IT-Projekt Herkules auf den Weg, das die Telekommunikationsstruktur der gesamten Bundeswehr erneuern sollte. Kosovo-Konflikt. Der Angriff auf die Bundesrepublik Jugoslawien im Kosovo-Krieg stieß in Teilen der Bevölkerung auf Kritik, nicht nur weil die Übereinstimmung mit dem Grundgesetz und dem Völkerrecht umstritten war. Scharping rechtfertigte den Krieg wiederholt mit der angeblichen Existenz eines serbischen Plans zur militärischen Vertreibung der Albaner aus dem Kosovo, des so genannten Hufeisenplans, und bevorstehenden Greueltaten. Mittlerweile gilt als wahrscheinlich, dass dieser Plan nicht existierte, sondern eine gezielte Desinformation eines Geheimdienstes war. Nach General Heinz Loquai waren zu Kriegsbeginn wichtige Berichte zurückgehalten worden und dadurch selbst das bundesdeutsche Parlament nicht hinreichend über die tatsächliche Lage im Kosovo informiert gewesen. Zu Scharpings Verwendung des Hufeisenplans zur Rechtfertigung humanitärer Einsätze der Bundeswehr äußerte Loquai: „Ich kann nur sagen, dass der Verteidigungsminister bei dem, was er über den Hufeisenplan sagt, nicht die Wahrheit sagt.“ Entlassung. Im Juli 2002 wurde Scharping von Bundeskanzler Schröder entlassen. Als Gründe für die Entlassung kurz vor der Bundestagswahl 2002 gelten die Mallorca-Affäre, die Hunzinger-Affäre und der Verlust von Ansehen und Respekt in der Bundeswehr. So ließ er sich unter anderem für die Zeitschrift "Bunte" mit seiner Lebensgefährtin Kristina Gräfin Pilati-Borggreve im Swimming-Pool auf Mallorca fotografieren, während gleichzeitig die Bundeswehr unmittelbar vor einem Einsatz in Mazedonien stand; zudem wurde sein PR-Berater Moritz Hunzinger verdächtigt, Politiker bestochen zu haben. Eine der Affären hatte sich schon Anfang September 2001 zugespitzt und Scharping in die Kritik gebracht. Sportpolitisches Engagement. Scharping am Rande des Weltcuprennens in Nürnberg 2005 Scharping auf der Jahreshauptversammlung des BDR am 21. März 2009 in Leipzig. Am 19. März 2005 wurde Rudolf Scharping zum Präsidenten des Bundes Deutscher Radfahrer gewählt und am 21. März 2009 nach heftiger verbandsinterner Kritik in einer Kampfabstimmung auf der Jahreshauptversammlung in Leipzig wiedergewählt. Am 23. März 2013 wurde er nochmals wiedergewählt. Sonstiges Engagement. Nach einer Tätigkeit als Gastdozent wurde Rudolf Scharping 2006 von der Fletcher School of Law and Diplomacy zum Gastprofessor für Internationale Politik berufen. Scharping ist Geschäftsführender Gesellschafter der "RSBK Strategie Beratung Kommunikation GmbH," ein Unternehmen mit Sitz in Frankfurt am Main, das sich u.a. auf das Gebiet der Public Private Partnership spezialisiert hat. Ab 2007 beriet er das Beteiligungskapitalunternehmen Cerberus, das sich auf das Aufkaufen von beinahe bankrotten Firmen spezialisiert hat. Spätestens seit Mai 2009 ist Scharping als Berater für Maria-Elisabeth Schaeffler tätig. Eine seiner Aufgaben ist die Verhandlung für die Unternehmensführung mit den Arbeitnehmervertretern und Gewerkschaften und die Unterstützung der Schaeffler-Gruppe bei der Fusion mit der Continental AG. Kabinette. Kabinett Scharping − Kabinett Schröder I Auszeichnungen. Am 2. November 2000 verlieh ihm die Anti-Defamation League (ADL) in New York für sein Engagement für die Benennung der Feldwebel-Schmid-Kaserne in Rendsburg den Paul Ehrlich – Günther K. Schwerin – Menschenrechtspreis. Rita Süssmuth. Süssmuth auf dem CDU-Parteitag 2012 Rita Süssmuth (geb. "Kickuth"; * 17. Februar 1937 in Wuppertal) ist eine deutsche Politikerin (CDU). Sie war von 1985 bis 1988 Bundesministerin für Jugend, Familie und Gesundheit (ab 1986 Jugend, Familie, "Frauen" und Gesundheit) und von 1988 bis 1998 Präsidentin des Deutschen Bundestages. Mit fast zehn Jahren war ihre Amtszeit die drittlängste in der Geschichte des Bundestages. Nur Eugen Gerstenmaier und Norbert Lammert hatten das Amt länger inne. Leben und Beruf. Süssmuth wurde als Tochter eines Lehrers geboren. Nach dem Abitur 1956 am Emsland-Gymnasium in Rheine absolvierte sie ein Studium der Romanistik und der Geschichte in Münster, Tübingen und Paris, welches sie am 20. Juli 1961 mit dem ersten Staatsexamen für das Lehramt beendete. Danach folgte ein Postgraduiertenstudium der Erziehungswissenschaft, Soziologie und Psychologie. 1964 erfolgte dann ihre Promotion zum Dr. phil. mit der Arbeit "Studien zur Anthropologie des Kindes in der französischen Literatur der Gegenwart" an der Universität Münster. Von 1963 bis 1966 war sie als wissenschaftliche Assistentin an den Hochschulen Stuttgart (bei Robert Spaemann) und Osnabrück und ab 1966 als Dozentin an der Pädagogischen Hochschule Ruhr tätig. Von 1969 bis 1982 hatte sie einen Lehrauftrag an der Ruhr-Universität Bochum für Internationale Vergleichende Erziehungswissenschaft. 1971 wurde sie dann zur ordentlichen Professorin für Erziehungswissenschaft an der Pädagogischen Hochschule Ruhr ernannt. 1973 nahm sie den Ruf der Universität Dortmund an. Seit 1971 war sie im wissenschaftlichen Beirat des Bundesministeriums für Familie tätig. Von 1982 bis 1985 war sie Direktorin des Instituts "Frau und Gesellschaft" in Hannover. Während ihrer Zeit als aktive Politikerin gab sie Blockveranstaltungen an der Universität Göttingen. Im September 2000 wurde sie von dem damaligen Minister des Innern Otto Schily zur Vorsitzenden einer Unabhängigen Kommission Zuwanderung berufen, die am 12. September 2000 von Schily eingesetzt wurde und der 21 Mitglieder angehörten. Stellvertretender Vorsitzender der Kommission war Hans-Jochen Vogel. Auftrag der Kommission war, ein Gesamtkonzept für ein neues Ausländerrecht zu erarbeiten. Die Ergebnisse dieser Arbeit wurden im Juli 2001 in Form eines Berichtes vorgelegt, der den Titel "Zuwanderung gestalten – Integration fördern" trug. Die veröffentlichte Broschüre hatte 323 Seiten. Im Jahr 2002 wurde sie Mitglied der Limbach-Kommission, die als Mediatorin in Fragen zu NS-Raubkunst tätig wird. Am 6. September 2005 wurde Rita Süssmuth zur neuen Präsidentin der staatlich anerkannten Berliner OTA Privathochschule berufen, heute SRH Hochschule Berlin. Sie übergab im Januar 2010 an Peter Eichhorn. Für ihr großes Engagement im Kampf gegen AIDS wurde Rita Süssmuth 2007 mit dem Reminders Day Award ausgezeichnet. Rita Süssmuth ist seit 1964 mit dem Universitätsprofessor Hans Süssmuth verheiratet und hat eine Tochter. Partei. Seit 1981 ist sie Mitglied der CDU. 1983 wurde sie Vorsitzende des Bundesfachausschusses für Familienpolitik der Partei. 1986 bis 2001 war sie Bundesvorsitzende der Frauen Union. Von 1987 bis 1998 war sie Mitglied im Präsidium der CDU. Abgeordnete. Süssmuth (l.) bei der Besichtigung des Krankenhauses Friedrichshain 1990 Von 1987 bis 2002 war sie Mitglied des Deutschen Bundestages. Bei den Bundestagswahlen 1987, 1990 und 1994 gewann sie das Direktmandat im Wahlkreis Göttingen und 1998 zog sie über die Landesliste der CDU Niedersachsen ins Parlament ein. Am 25. November 1988 wurde sie zur Präsidentin des Deutschen Bundestages gewählt. Im September 1989 erwog sie beim CDU-Parteitag in Bremen eine Kandidatur gegen den CDU-Vorsitzenden Helmut Kohl. Im Dezember 1989 trat Süssmuth für eine gemeinsame Erklärung beider deutscher Staaten zur Anerkennung der polnischen Westgrenze ein. 1990 präsentierte sie einen „Dritten Weg“ im Streit um den § 218 (Schwangerschaftsabbruch) zwischen Indikations- und Fristenlösung. Im März 1991 geriet sie im Zusammenhang mit der „Dienstwagen-Affäre“ in die Schlagzeilen. Ihr Ehemann habe, so der Vorwurf, den Fahrdienst des Deutschen Bundestages benutzt. Die Bundestagsverwaltung stellte die Rechtmäßigkeit dieses Vorgangs fest. 1992 kritisierten die CDU-Bundestagsfraktion und Bundeskanzler Helmut Kohl ihre Initiative „Die letzte Entscheidung muss bei der Frau liegen“ zur Reform des Abtreibungsparagraphen. Im selben Jahr scheiterte sie an der Union mit dem Vorhaben, die Bonner Abgeordneten zu einer Diätennullrunde umzustimmen. Im März 1993 unterstützten alle Fraktionen ihren Vorschlag, die Anzahl der rund 660 Bundestagsmitglieder auf 500 zu senken. Im Juli verstimmte sie die CDU durch ihre Forderung nach Offenlegung des Kali-Fusionsvertrages im Zusammenhang mit dem von Stilllegung bedrohten Thüringer Kalibergwerk Bischofferode. Im Oktober warf Süssmuth dem Kandidaten der CDU für das Bundespräsidentenamt, Steffen Heitmann, vor, die nationalsozialistische Vergangenheit zu verharmlosen. Auf einer Klausurtagung des Parteivorstandes stimmte sie jedoch für Heitmann. 1995 vertrat Süssmuth die Überzeugung, dass ohne Aufarbeitung der Vergangenheit der neuen Bundesländer keine Versöhnung möglich sei. Im Mai kritisierte sie scharf die im Sparpaket der Bundesregierung geplanten Verschlechterungen bei der Lohnfortzahlung im Krankheitsfall und beim Kündigungsschutz sowie die Heraufsetzung des Renteneintrittsalters für Frauen auf 65 Jahre. 1996 entlastete der Ältestenrat des Bundestags Süssmuth von dem Vorwurf, sie habe die Flugbereitschaft der Bundeswehr zu privaten Besuchen bei ihrer Tochter in der Schweiz genutzt. Im selben Jahr setzte sie sich vor dem Bundesparteitag für die Einführung der Frauenquote innerhalb der CDU ein. 1998 setzte sie sich für die Errichtung eines Holocaust-Mahnmals in Berlin ein. Nach der Bundestagswahl 1998 stellte die SPD den Bundestagspräsidenten. Im Amt folgte ihr am 26. Oktober 1998 Wolfgang Thierse nach. Öffentliche Ämter. Am 26. September 1985 wurde sie als Bundesministerin für Jugend, Familie und Gesundheit (ab 6. Juni 1986: Bundesministerium für Jugend, Familie, Frauen und Gesundheit) in die von Bundeskanzler Helmut Kohl geführte Bundesregierung berufen. Nach ihrer Wahl zur Bundestagspräsidentin schied sie am 25. November 1988 aus dem Kabinett aus. Sie forderte einen möglichst weit gefassten Gesundheitsbegriff und wandte sich gegen die Aufhebung des kassenärztlichen Schutzes bei Abtreibung. Konfrontiert mit AIDS, setzte sie als Vorbeugungsmaßnahmen insbesondere auf ärztliche Aufklärung und Beratung. Daneben propagierte sie gegen Widerstände in ihrer Partei die Verwendung von Kondomen zur Prävention. Kritisiert wurde sie dafür, dass ungeprüfte Medikamente für Bluter nicht zurückgerufen wurden. Zahlreiche Bluter in Deutschland waren durch ungeprüfte Medikamente mit HIV infiziert worden und starben. Genaue Zahlen sind nicht bekannt, "Der Spiegel" (41/1987) sprach von 1500 bis 2200 mit HIV infizierten Blutern. Als Gesundheitsministerin initiierte sie im Jahr 1987 die Gründung der Nationalen AIDS-Stiftung und unterstützte die spätere Fusion mit der Deutschen AIDS-Stiftung „Positiv leben“ im Jahr 1996. Zunächst als Vorsitzende des Stiftungskuratoriums tätig, ist sie heute deren Ehrenvorsitzende. Institutionen. Rita Süssmuth bei der Grimme-Preis-Verleihung 2014 Richard Feynman. Richard Feynman im Jahr 1984 Richard Phillips Feynman (* 11. Mai 1918 in Queens, New York; † 15. Februar 1988 in Los Angeles) war ein amerikanischer Physiker und Nobelpreisträger des Jahres 1965. Feynman gilt als einer der großen Physiker des 20. Jahrhunderts, der wesentliche Beiträge zum Verständnis der Quantenfeldtheorien geliefert hat. Zusammen mit Shinichirō Tomonaga und Julian Schwinger erhielt er 1965 den Nobelpreis für seine Arbeit zur Quantenelektrodynamik (QED). Seine anschauliche Darstellung quantenfeldtheoretischer elementarer Wechselwirkungen durch Feynman-Diagramme ist heute ein De-facto-Standard. Für Feynman war es immer wichtig, die unanschaulichen Gesetzmäßigkeiten der Quantenphysik Laien und Studenten nahezubringen und verständlich zu machen. An Universitäten ist seine Vorlesungsreihe ("The Feynman Lectures on Physics") weit verbreitet. In Büchern wie "QED. Die seltsame Theorie des Lichts und der Materie" und "Character of Physical Law" – wandte er sich an ein breiteres Publikum. Seine charismatische Art und seine Fähigkeit, sich dem Auditorium anzupassen, ließen seine Vorlesungen und Vorträge legendär werden. Seine unkonventionelle Art ist in Büchern wie "Sie belieben wohl zu scherzen, Mr. Feynman. Abenteuer eines neugierigen Physikers" und "Kümmert Sie, was andere Leute denken?" zusammengefasst. Der Begriff „Cargo-Kult-Wissenschaft“ ("Cargo Cult Science") für eine wissenschaftliche Disziplin, welche zwar der Form genügt, aber den Ansprüchen an den Inhalt nicht gerecht wird, wurde von ihm in dem gleichnamigen Essay geprägt. Biografie. Richard („Dick“) Feynman wurde als Sohn jüdischer Eltern in Far Rockaway, einem Viertel im New Yorker Stadtbezirk Queens, geboren. Seine Eltern, deren Vorfahren aus Russland und Polen eingewandert waren, beschrieb Feynman als erklärte Atheisten. Auf Drängen seines Vaters, dem ein Studium verwehrt war, wurde der junge Feynman schon früh in wissenschaftlichem Denken trainiert und − wie er in seinem Buch "Surely You’re Joking, Mr. Feynman" erzählt − auf den Unterschied einer wirklichen Erklärung und bloßer Namensgebung hingewiesen. Feynman zeigte auch sehr früh technische Talente; er war ein Elektro-Hobbybastler und verdiente sich mit der Reparatur von Radios zusätzliches Taschengeld. Sein Talent zeigte sich auch in den naturwissenschaftlichen Schulfächern, wo sein Lehrer den gelangweilten Feynman mit Mathematikbüchern für Fortgeschrittene versorgte. Feynman studierte Physik als "undergraduate" von 1935 bis 1939 am MIT, und von 1939 bis 1943 besuchte er die Universität von Princeton, wo er Assistent von John Archibald Wheeler wurde. In seiner Dissertation bei Wheeler 1942 entwickelte er auch seine Pfadintegralformulierung der Quantenphysik, wobei er an eine Idee des Nobelpreisträgers Paul Dirac anknüpfte. Während des Zweiten Weltkrieges beteiligte er sich wie viele amerikanische Physiker in Los Alamos am Manhattan-Projekt, dem Bau der ersten Atombombe. Eine seiner Aufgaben war die Organisation der notwendigen umfangreichen numerischen Rechnungen, doch blieb ihm noch genügend Zeit für Streiche, wie er in dem Aufsatz „Los Alamos from below“ berichtet. Er brachte es zu einer wahren Meisterschaft im Öffnen der Dokumentensafes seiner Kollegen. In Los Alamos entdeckte Feynman als eine seiner Leidenschaften das Trommeln (ein bekanntes Foto aus seinen Büchern zeigt ihn mit Bongo-Trommeln), worin er sich während eines Aufenthalts in Brasilien noch verbesserte. Seine spätere Frau Arline Greenbaum lernte er bereits als Teenager kennen, sie kamen sich aber erst nach Ende der Highschool näher. Als er nach Princeton wechselte, war sie schon schwer erkrankt. Es dauerte jedoch lange, bis die Ärzte die Diagnose einer lebensbedrohlichen Form der Tuberkulose stellten. Er sorgte später dafür, dass sie (inzwischen seine Ehefrau) in einem Hospital nahe seinem Studienort Princeton unterkam. Auch in seiner Zeit in Los Alamos wurde ein Krankenhaus im 100 Meilen entfernten Albuquerque gefunden, wohin Feynman so oft wie möglich per Anhalter reiste. Trotz der schweren Krankheit waren die beiden bei seinen Kollegen als humorvolles Paar bekannt. Seine Frau starb am 16. Juli 1945. Die Geschichte wurde 1996 von Matthew Broderick, der neben Patricia Arquette auch die Hauptrolle verkörperte, als "Infinity" verfilmt. Nach dem Krieg war er maßgeblich an einer Formulierung der Quantenelektrodynamik beteiligt, die Ende der 1940er Jahre auf der "Shelter Island Konferenz" vorgestellt wurde. Sein unmittelbarer Chef in Los Alamos, der Nobelpreisträger Hans Bethe, berief ihn zu seinem ersten Lehrauftrag an die Cornell University im Staat New York, wo er bis 1951 blieb. Danach war er Professor für Theoretische Physik am Caltech in Pasadena (ab 1959 „Richard-Chase-Tolman“-Professur) und blieb dort für den Rest seiner akademischen Laufbahn. Dort widmete er sich intensiv der Lehre, und es entstanden in den Jahren 1961/62 die bekannten "Feynman Lectures on Physics", die durchweg einen originellen Zugang beschreiten. Sie entstanden aus einem Projekt zur Reform der Physik-Einführungsvorlesungen am Caltech mit Matthew Sands und Robert B. Leighton. Für seine Leistungen in der Vermittlung der Physik erhielt er 1972 die Oersted Medal der American Association of Physics Teachers. Eine eigentliche Schule hat Feynman allerdings nicht begründet und er hatte wenige Doktoranden. In den 1950er Jahren wandte er sich der Festkörperphysik zu und untersuchte u. a. die Suprafluidität (einen makroskopischen Quantenzustand, den man u. a. bei tiefen Temperaturen bei flüssigem Helium beobachten kann). Zusammen mit dem Nobelpreisträger Murray Gell-Mann entwickelte er eine neue Formulierung der Gesetze der schwachen Wechselwirkung (Vektor-Axialvektor-Form), die die damals gerade entdeckte Paritätsverletzung beim Betazerfall widerspiegelte. Am 29. Dezember 1959 hielt er am Caltech seine berühmte Rede "There’s Plenty of Room at the Bottom" (dt. "Ganz unten ist eine Menge Platz" oder "Viel Spielraum nach unten"), die von der Nanotechnologie gern als ihre Gründungsschrift angesehen wird. a>s (Zeitachse von unten nach oben). Im Jahr 1965 wurde ihm für seine Beiträge zur Entwicklung der Quantenelektrodynamik der Nobelpreis verliehen. Ende der 1960er und in den 70er Jahren arbeitete er an dem Ausbau des Parton-Bildes hochenergetischer Streuprozesse, das heute in die Quantenchromodynamik integriert ist. Dabei akzeptierte er durchaus das Quark-Bild seines Caltech-Kollegen Murray Gell-Mann, als es in den 1970er Jahren experimentell immer besser bestätigt wurde, und war selbst ein Pionier von Yang-Mills-Theorien (nicht-abelschen Eichtheorien), mit denen die fundamentalen Wechselwirkungen heute beschrieben werden: In den 1960er Jahren untersuchte er sie im Zusammenhang mit der Quantisierung der Gravitation. Zur in den 1980er Jahren boomenden Stringtheorie blieb er bis zu seinem Tod skeptisch eingestellt, da sie sich seiner Meinung nach zu weit von experimentellen Vorhersagen entfernt bewegte. 1981 stellte Feynman auf einem der ersten Workshops zum Thema "Physics and Computation" (Physik und Berechenbarkeit) die Frage "Can (quantum) physics be (efficiently) simulated by (classical) computers?" (dt.: Kann Quantenphysik wirksam von klassischen Computern simuliert werden?) und kam zu dem Schluss, dass das am besten mit Quantencomputern geschieht, einem heute sehr aktuellen Forschungsgebiet. Sein Interesse für Computer führte auch dazu, dass er technischer Berater in der Firma „Thinking Machines“ von Daniel Hillis wurde, welche die massiv parallele „connection machine“ herstellte. Am Caltech hielt er auch interdisziplinäre Kurse „Lectures on computation“, die später als Buch publiziert wurden. Feynman praktizierte zeitlebens einen unmittelbar seiner physikalischen Intuition folgenden praxisnahen und anschaulichen Zugang zur Physik. Abgehobenen und zu abstrakten Diskussionen sowie schematischem, oberflächlichem Denken begegnete er schnell mit Ungeduld. Viele seiner Beiträge zur Physik übermittelte er nur mündlich in Diskussionen an Kollegen, wo sie Teil der „Folklore“ wurden und oft erst viel später publiziert wurden. 1986 wurde er in die Untersuchungskommission zur Challenger-Katastrophe (Rogers-Kommission) berufen. Bekannt wurde sein öffentlicher Auftritt, in dem er die Folgen von Frost an den Dichtringen der Feststoff-Treibstofftanks mit einem Glas Eiswasser vorführte. Sein von der Mehrheit abweichender Bericht äußerte sich kritisch zur bürokratischen Organisation der NASA. Nur gegen Widerstand wurde sein Minderheitsbericht dem offiziellen als Anhang beigefügt. Feynman hatte gedroht, im Fall der Nichtberücksichtigung seiner Standpunkte öffentlichkeitswirksam aus der Kommission auszutreten. Sein Bericht endete mit der sarkastischen bzw. für die NASA-Verantwortlichen vernichtenden Feststellung: „For a successful technology, reality must take precedence over public relations, for nature cannot be fooled.“ (deutsch etwa „Für eine erfolgreiche Technik muss die Realität Vorrang vor Public Relations haben, denn die Natur lässt sich nicht zum Narren halten.“) Eine seit vielen Jahren latente Krebserkrankung wurde 1987 akut. Nachdem er sich schon einige Jahre vorher deswegen einer Operation unterzogen hatte, entschied sich Feynman, weitere Behandlungen zu unterlassen. Zwei Wochen vor seinem Tod hielt er seine letzte Vorlesung. Er starb am 15. Februar 1988. Seine letzten Worte waren: „Gut, dass man nur einmal sterben muss, es ist so langweilig.“ Feynman war dreimal verheiratet. Seine erste Frau Arline starb während seiner Zeit in Los Alamos an Tuberkulose. Mit seiner dritten Frau Gweneth hatte er einen Sohn und eine Adoptivtochter. Anekdoten und Trivia. In München haben Bürger eine Straßenecke zum Feynman-Platz ernannt, da die Straßen, die dort zusammenlaufen, ein bestimmtes Feynman-Diagramm bilden. Nördlich und westlich verläuft die Kanalstraße; südlich die Liebherrstraße und östlich die Mannhardtstraße. Richard Feynman hatte, wie schon sein Vater, stets liberale Ansichten. Feynman erzählt in seinen Memoiren, dass die Freude am Zeichnen ihn in seiner Caltech-Zeit auch dazu führte, professionelles Aktzeichnen zu betreiben. Vorgeblich zu diesem Zweck besuchte er auch fünf- bis sechsmal pro Woche einen Nachtklub, wo er sogar einige Werke verkaufen konnte. Als die „Oben-ohne-Bar“ nach einer Razzia geschlossen werden sollte, fragte der Wirt die Gäste, ob sie für ihn aussagen würden. Feynman willigte trotz seiner herausgehobenen Position als einziger ein. Vor Gericht erklärte er: „Hier verkehren Angestellte, Handwerker, Geschäftsleute, Techniker, ein Physikprofessor […]“. In seinem Buch "Sie belieben wohl zu scherzen, Mr. Feynman" beschreibt Feynman im Kapitel "I want my Dollar" (dt.: Ich will meinen Dollar), wie er auf skurrile Weise Inhaber des Patents auf das Atom-Flugzeug wurde und sogar einen Dollar dafür bekam, den er sich allerdings gegen eine bürokratische Hürde erkämpfen musste. Auf einem Urlaub in Mexiko entzifferte er ohne Kenntnis der Hieroglyphen astronomische Periodizitäten (Venus) und Berechnungen in einer Buchausgabe des Codex Dresdensis der Maya. Er hielt darüber auch einen Vortrag und berichtet darüber in seinem Buch "Sie belieben wohl zu scherzen, Mr. Feynman", publizierte aber nichts. Anfang der 1960er Jahre unternahm Feynman auch Abstecher in die Molekularbiologie und entdeckte in einem frühen Experiment zur Gentechnik beinahe, dass die DNS den universellen Code des Lebens darstellte. Jedoch schlug sein Experiment wegen einer Verunreinigung fehl. Während eines Aufenthalts auf der deutschen Insel Wangerooge (wo er sich unter anderem wegen seiner Krebserkrankung aufhielt) soll Feynman in einem Supermarkt ein Paket Quark entdeckt haben. In Anspielung auf den Namensvetter aus der Physik, Quark, soll er dies mit den Worten kommentiert haben, Deutschland sei Amerika weit voraus: Was in Amerika Gegenstand aktueller Forschung sei, gebe es in Deutschland bereits im Kühlregal zu kaufen. In den 1980er Jahren versuchten Feynman und sein Freund Ralph Leighton, mitten im Kalten Krieg, die Tuwinische ASSR zu bereisen. Ihnen gelang es, in Kooperation mit der sowjetischen Akademie der Wissenschaften eine Ausstellung tuwinischer Kunstgegenstände in den USA zu organisieren, und sie konnten dadurch eine Einreiseerlaubnis in das für Ausländer sonst gesperrte Gebiet erhalten. Feynman starb jedoch wenige Monate vor der Abreise. In seiner Anfangszeit an der High School unterzog sich Feynman auch wie seine Mitschüler einem IQ-Test, der ein respektables, aber nicht außergewöhnliches Ergebnis von 125 ergab, wie Feynman selbst bemerkte, als er anlässlich der Nobelpreisverleihung seine Schulzeugnisse überprüfte. Eine Einladung, Mitglied der Hochbegabtenvereinigung Mensa zu werden, die er nach dem Gewinn des Nobelpreises erhalten hatte, lehnte er ab, da er den Mindest-IQ von 130 verfehlt habe. Als Student in den Anfangssemestern machte er schnell durch seine mathematischen Fähigkeiten auf sich aufmerksam, unter anderem gewann er 1939 als MIT-Student den angesehenen, damals das zweite Mal stattfindenden Putnam-Wettbewerb. Dabei kamen ihm Fertigkeiten zum Beispiel zur Manipulation von Reihen und Integralen im Kopf zugute, die er sich schon als Schüler angeeignet hatte und für die er eigenständige Methoden entwickelte, die ihm auch bei der analytischen Behandlung der Feynmanintegrale zustatten kamen. Nach der Nobelpreisverleihung wurden Feynman diverse Ehrendoktorwürden angetragen. Er lehnte sie ab, weil er als junger Doktorand erlebt hatte, für welch geringe Leistungen Ehrendoktorwürden verliehen wurden. Am 22. April 1997 wurde ein Asteroid nach ihm benannt: (7495) Feynman. Das Foresight Institute vergibt ihm zu Ehren seit 1993 den Feynman Prize in Nanotechnology. Weitere Arbeiten. Feynman besuchte in seinen letzten Lebensjahren auch Deutschland, wo er 1987 auf der Insel Wangerooge „kurte“ und dabei an einer Konferenz über Variationsverfahren in der Quantenfeldtheorie teilnahm. Dort kritisierte er die gängigen Anwendungen und die „Gittermethoden“ der 1970er und 80er Jahre, die er einfallslos fand. Noch Anfang der 1980er Jahre versuchte er, mit Pfadintegralmethoden (engl. Feynman path integral) zum qualitativen Verständnis von Yang-Mills-Theorien (confinement, mass gap) beizutragen. Eugene Paul Wigner lud Feynman 1941 in Princeton zu einem Seminarvortrag am Institute for Advanced Study ein, in dem er über seine Arbeit mit Wheeler an einer Neuformulierung der klassischen Elektrodynamik („action at a distance“-Theorie) berichtete. Diese hatte zum Ziel, Divergenzen, die sich schon in der klassischen Theorie aus der Selbstwechselwirkung des Elektrons ergeben, zu untersuchen (eine gute Diskussion dieser Divergenzen findet sich in den "Feynman Lectures", Band 2). Dabei waren u. a. John von Neumann, Henry Norris Russell, Wolfgang Pauli und Albert Einstein anwesend. Einstein wies ihn dabei auf seine eigenen Arbeiten und Diskussionen mit Walter Ritz hin, wie Feynman in seinem Nobelvortrag erzählt. In dieser Zusammenarbeit mit John Archibald Wheeler wurden schon Grundlagen für seine spätere Formulierung der QED gelegt. Im Film. Im Fernsehfilmc The Challenger von 2013 spielt ihn William Hurt. Rosmarin. Der Rosmarin ("Rosmarinus officinalis") ist eine von zwei Arten der Gattung "Rosmarinus" und ein immergrüner Halbstrauch aus der Familie der Lippenblütler (Lamiaceae). Name. Der Name Rosmarin kommt vom lateinischen "ros marinus" und bedeutet „Tau ("ros") des Meeres ("marinus")“, also „Meertau“. Als Begründung wird dazu oft angeführt, dass Rosmarinsträucher an den Küsten des Mittelmeeres wachsen und nachts sich der Tau in ihren Blüten sammle. Eine weitere Deutung der Herkunft des Namens geht auf den griechischen Begriff "rhops myrinos" (balsamischer Strauch) zurück. Dazu gehört auch ein möglicher namenskundlicher Zusammenhang der griechischen Wörter "libanotis" (Rosmarin) und "libanos" (Weihrauch). Merkmale. Der immergrüne, buschig verzweigte Strauch duftet intensiv aromatisch und erreicht eine Größe von 0,5 bis 2 Meter. Die Äste sind braun und meist aufrecht. Ältere Äste haben abblätternde Rinde. Die 10 bis 40 mm langen und 1,5 bis 3 mm breiten Blätter sind gegenständig, sitzend und schmal lineal. Oberseits sind sie tiefgrün und runzlig und mit einer dicken Epidermis überzogen, an der Blattunterseite weiß- bis graufilzig behaart. Die Ränder sind nach unten umgerollt. Hierdurch wird das Blatt vor Austrocknung geschützt. Die Blüten können das ganze Jahr über entstehen. Sie stehen an zwei- bis zehnblütigen, sternhaarig-filzigen Scheinquirlen. Der Kelch ist glockig, zweilippig und zur Fruchtzeit deutlich größer. Die Oberlippe ist zweiteilig, die Unterlippe dreilappig mit großen Mittellappen. Die Krone ist hellblau, selten rosa oder weiß, 10 bis 12 mm lang, zweilippig mit zurückgebogener Oberlippe. Der Mittellappen der Unterlippe ist löffelförmig ausgehöhlt und nach unten gebogen. Die zwei Staubblätter ragen weit aus der Blüte heraus. Die Klausen sind braun, verkehrteiförmig. Rosmarin ist nicht mit der Pflanzenart Rosmarinheide aus der Familie der Heidekrautgewächse zu verwechseln. Verbreitung. Die Pflanze wächst im westlichen und zentralen Mittelmeerraum wild, insbesondere in Küstenregionen von Portugal bis zum Ionischen Meer. Auch im östlichen Mittelmeergebiet und am Schwarzen Meer wird die Art seit der Antike kultiviert und tritt gelegentlich verwildert auf, manchmal sogar bestandsbildend, z. B. auf Santorin. Rosmarin bevorzugt sonnige, trockene, kalkreiche Standorte. Er ist typisch für den Buschbewuchs von Macchien und Garigues. Der Rosmarin wird häufig als Zier- und Gewürzpflanze kultiviert. Wann der Rosmarin nach Mitteleuropa kam, ist nicht bekannt, er ist aber bereits in der Landgüterverordnung "Capitulare de villis vel curtis imperii" auf Erlass Karls des Großen verzeichnet. In England wurde Rosmarin 1388 durch Königin Philippa von Hennegau eingeführt. Vermehrung, Pflege und Ernte. Die Pflanze kann über Stecklinge vegetativ vermehrt werden. Die generative Vermehrung über Saatgut ist möglich, bedarf aber eines warmen Klimas. Die Keimdauer beträgt ungefähr vier Wochen. Der Rosmarin ist anfällig für langandauernde Nässe und braucht durchlässige, humusreiche Erde. Unter trockenen Bedingungen wächst die Pflanze besser. Nördlich der Alpen ist sie nicht winterhart. Im Spätwinter wird der Kleinstrauch zurückgeschnitten, damit er buschiger wird. Geerntet werden idealerweise ganze Zweiglein, nicht einzelne Nadeln. Es kann ganzjährig geerntet werden. In der Mischkultur eignet sich der Salbei als Nachbar. Inhaltsstoffe. Rosmarin enthält 2,5 % ätherische Öle (Terpene: Cineol, Borneol, Bornylacetat, Campher, Carnosol, Carnosolsäure, Terpineol), 8 % Gerbstoff (hauptsächlich Rosmarinsäure), Flavonoide, Glycolsäure, Bitterstoffe, Saponine, Harz. Verwendung als Duftpflanze. Rosmarin hat einen sehr intensiven, aromatischen Geruch und einen harzigen, leicht bitteren Geschmack, der etwas an Kampfer und Eukalyptus erinnert. Er wurde aufgrund seines ähnlichen Geruches auch als Ersatz für Weihrauch verwandt. Rosmarin war Bestandteil eines der ersten destillierten Parfüme, bei dem ätherisches Öl mit Alkohol kombiniert wird. Die Mischung wurde 1370 registriert und hieß nach der Königin Elisabeth von Ungarn (1305–1380) „Ungarisches Wasser“. Nach einer Legende versicherte ein Einsiedler, der das Duftwasser der Königin überreichte, es werde ihre Schönheit bis zu ihrem Tode bewahren. Kölnisch Wasser enthält nach wie vor Rosmarinöl. Verwendung in der Küche. Rosmarin fand seine Verwendung zuerst in religiösen Kulten und in Mitteln der Apotheker, bevor er in der Küche Einzug hielt. Rosmarin ist in der mediterranen Küche (vor allem in Italien und der Provence) ein wichtiges Gewürz und ist Bestandteil der Provence-Kräutermischung. Er gilt zudem als klassisches Grillgewürz und harmoniert unter anderem mit Fleisch, Geflügel, Lammfleisch, Zucchini, Kartoffeln und Teigwaren. Auch für Süßspeisen findet das Blatt oder der Rosmarinhonig Anwendung. Apfelgelee lässt sich beispielsweise mit Rosmarin aromatisieren. In Kräuterbutter wird Rosmarin häufig verwendet. Rosmarin wird oder wurde zeitweilig auch als Bitterstoff im Bier verwendet. Pharmaziegeschichte. Im 1. Jahrhundert wurde der Rosmarin von Dioskurides und von Plinius „libanotis“ oder „rosmarinus“ genannt. Dioskurides schrieb ihm erwärmende Kraft zu und empfahl seine Anwendung gegen Gelbsucht und als Zusatz zu kräftigenden Salben. Nach Plinius war seine Anwendung für den Magen sehr zuträglich. Verwendung in der Heilkunde. In der Naturheilkunde wird Rosmarin innerlich als Tee zur Kreislaufanregung und gegen Blähungen verwendet, vor allem wirkt er anregend bei der Blutzufuhr zu den Unterleibsorganen und der Bildung von Magen- und Darmsaft. Auch wirkt die Droge galle- und harntreibend und findet als Tee Anwendung als Appetitanreger. Zu hohe Dosen können Rauschzustände und Krämpfe auslösen. Tagesdosen von 6 g Blätter für Teeaufgüsse, 20 Tropfen ätherisches Öl und 50 g für Bäder sollten nicht überschritten werden; Schwangeren wird generell von der Einnahme abgeraten. Äußerlich wirkt Rosmarin durchblutungssteigernd und wird daher zu Bädern sowohl bei Kreislaufschwäche, Durchblutungsstörungen als auch bei Gicht und Rheuma (beispielsweise als Rosmarinspiritus) gebraucht. Neben Rosmarinspiritus kann auch die Salbe gegen Rheuma und Migräne eingesetzt werden. Als Bademittel wirkt der Aufguss desinfizierend und fördert den Heilungsprozess von infizierten, schlecht heilenden Wunden. Rosmarinöl hat eine stark antiseptische Wirkung, die das 5,4-fache von Karbolsäure (Phenol) beträgt. Rosmarin als Tee hat eine antimykotische Wirkung auf verschiedene Schadpilze und kann somit als hauseigenes Pflanzenschutz- bzw. -stärkungsmittel eingesetzt werden. Ätherisches Rosmarinöl. Struktur von 1,8-Cineol, Bestandteil von Rosmarinöl. Durch die attraktiven blassblauen Blüten wird der Rosmarin auch gerne als Zierpflanze kultiviert Das ätherische Rosmarinöl bildet je nach Standort, Höhenlage, Klima und Boden unterschiedliche Chemotypen aus, die sich in komplett verschiedenen Inhaltsstoffen und Wirkweisen unterscheiden. Man gewinnt es mittels Wasserdampfdestillation des Krautes. Rosmarinöl gehört zu den hautreizenden ätherischen Ölen. Hauptanbauregionen sind Spanien, Frankreich, Nordafrika und der Balkan. Die Inhaltsstoffe des Rosmarinöls sind: 1,8-Cineol (etwa 15–55 %), Campher (10–25 %), 1-Pinen (15–25 %), Camphen (5–10 %), Borneol (2 %), Sesquiterpene, Monoterpenole, Phenole, Ketone und Ester. Die Dichte beträgt 0,894 bis 0,920. Rosmarinus officinalis Chemotyp 1,8 Cineol enthält 45 % Oxide, 30 % Monoterpene, Sesquiterpene, Monoterpenole, Phenole, Ketone und Ester. Rosmarinus officinalis Chemotyp Verbenon enthält 50 % Monoterpene, 15 % Ketone, Monoterpenole, Ester und Oxide. Eine Rosmarinpflanze wächst schnell zu einem Busch von einigen Metern Breite heran Als Straßenbegleitgrün in Ingelheim am Rhein Anwendung des Öls. Nach dem Europäischen Arzneibuch zeigt Rosmarinöl antimikrobielle Aktivität gegen zahlreiche Bakterien, Hefen und Schimmelpilze und wirkt auf der Haut durchblutungsfördernd. Bei Kreislaufbeschwerden, rheumatischen Erkrankungen, Zerrungen wird eine 6- bis 10-prozentige Zubereitung in Form von Badezusätzen oder in 6- bis 10-prozentigen Salben angegeben. Innerlich nimmt man 3–4 Tropfen auf Zucker oder in warmem Tee zu sich. Weitere Anwendungsgebiete sind die Parfümindustrie und die Aromatherapie. Rosmarin war Heilpflanze des Jahres 2000 und 2011 in Deutschland. Rosmarinhonig. Sortenreiner, von den Blüten des Rosmarins stammender Honig ist in frischem Zustand von hellgelber Farbe und flüssiger Konsistenz, er kandiert zu einem weißlichen, salbenartigen Honig aus. Das kräftige Aroma des Rosmarinhonigs entspricht dem Aroma der Pflanze selbst, zur Milderung des intensiven Aromas wird er vielfach mit anderen Honigsorten verschnitten. Symbolik des Rosmarins. Als Symbol repräsentierte Rosmarin die Liebe. In der antiken Kultur hat der Rosmarin als eine den Göttern, insbesondere der Aphrodite, geweihte Pflanze eine große Rolle gespielt. Troubadoure überreichten der Dame ihrer Wahl Rosmarin, Ophelia band Hamlet einen Rosmarinkranz als Zeichen ihrer Treue. und in Deutschland trugen Bräute lange Zeit einen Rosmarinkranz, bevor die Myrte in Mode kam. Rosmarin symbolisierte auch das Gedenken an die Toten. Die Ägypter gaben ihren Toten Rosmarinzweige in die Hände, um die Reise in das Land der unsterblichen Seelen mit ihrem Duft zu versüßen; in Griechenland wand man Totenkränze aus Rosmarin. In der Literatur taucht Rosmarin als Totenpflanze bei Shakespeare und Hebel auf. Rosmarin und Thymian trug man als Sträußchen gerne bei Begräbnissen und Prozessionen. Man hoffte, auf diese Weise gegen ansteckende Krankheiten gefeit zu sein. In London war es Anfang des 18. Jahrhunderts üblich, dass jeder Trauergast, der einen Sarg zum Friedhof begleitete, vom Diener des Hauses einen Zweig Rosmarin überreicht bekam. Einerseits trug man diesen Rosmarinzweig als Symbol der Erinnerung, sein Duft half jedoch auch, den Gestank des Todes zu überdecken. Sobald der Sarg ins Grab gelegt war, warfen alle Trauergäste ihre Rosmarinzweige ins Grab hinab. Als Symbol des Todes taucht Rosmarin in dem Lied "Ich hab die Nacht geträumet" auf, dessen Textdichter Joachim August Zarnack ist. Ebenfalls gilt dies für das Lied "Rosmarin" aus "Des Knaben Wunderhorn," das von Johannes Brahms, Robert Schumann und anderen vertont wurde. Die Musiker der Pagan-Folk-Gruppe Faun hingegen greifen den Rosmarin in ihrem gleichnamigen Lied als Symbol für Liebe und Sehnsucht auf. Eine ähnliche Bedeutung kommt dem Rosmarin im englischen Volkslied Scarborough Fair zu. Eine Legende besagt, dass die Blüten ursprünglich weiß waren. Die Heilige Maria soll ihr blaues Übergewand auf den Strauch zum Trocknen gehängt haben. So erhielten die Blüten der Legende nach ihr heutiges Aussehen. In Spanien ist der "Romero" sowohl Rosmarin als auch der christliche Pilger einer Romería. Rene Russo. Rene Marie Russo (* 17. Februar 1954 in Burbank, Kalifornien) ist eine US-amerikanische Filmschauspielerin. Leben. Russo besuchte die "Burroughs High School", wo Ron Howard zu ihren Klassenkollegen gehörte. Ab der zehnten Klasse vernachlässigte sie die Schule und nahm zahlreiche Jobs, darunter in Disneyland, an, um die finanziellen Engpässe der Familie zu überwinden. 1972 besuchte sie ein Konzert der Rolling Stones und wurde vom Talentsucher "John Crosby" entdeckt. Sie begann ihre Karriere als Model in der Modebranche. Nach wenigen Jahren wurde sie zu den erfolgreichsten Models der USA gezählt. Sie war häufig auf Titelseiten von Zeitschriften wie z. B. Vogue zu sehen. In den 1980er Jahren kamen zahlreiche Aufträge für die Fernsehwerbung hinzu. Russo beschäftigte sich intensiv mit Literatur und nahm Schauspielunterricht. Sie bekam einige kleine Theaterrollen. 1988 bekam sie ihre erste Filmrolle in "Die Indianer von Cleveland". Russo ist seit 1992 mit dem Drehbuchautor und Filmregisseur Dan Gilroy verheiratet und hat eine Tochter. Sie lebt in Brentwood, einem Stadtteil von Los Angeles, in Kalifornien. Ragtime. Ragtime (möglicherweise von "rag" „zerrissen, synkopiert“, "time" „Zeit“, eine andere Deutung führt das Wort und die Musikrichtung auf Raqs Sharki, Bauchtanz, zurück) ist ein in den USA entstandener Vorläufer des Jazz, der seine Blütezeit zwischen 1899 und 1914 hatte. Er gilt als „Amerikas klassische Musik“ und wird heute im Wesentlichen als Klavierstil wahrgenommen, wurde aber zunächst auch auf anderen Instrumenten (insbesondere auf dem Banjo) und von größeren Ensembles gespielt. Die übliche etymologische Deutung leitet den Namen Ragtime aus "ragged time" („zerrissene Zeit“) ab, was sich auf die synkopierte Melodieführung und ihren Kontrast zum starren Rhythmus der Begleitung bezieht. Eine andere Deutung legt ein Hinweis im Musical Record von 1899 nahe, in dem es heißt: „The negroes call their clog-dancing ‚ragging‘ and the dance a ‚rag‘.“ Während um 1900 mit Ragtime verschiedene Sparten des afro-amerikanischen Musik-Entertainments bezeichnet wurden und selbst John Philip Sousa orchestrierte Ragtimes in sein Repertoire übernahm und Bluesmusiker wie Blind Blake und Blind Boy Fuller den Ragtime auch auf die Gitarre übertrugen, versteht man heute darunter zumeist den auf dem Klavier gespielten „City-Ragtime“. Eine dritte, kontrovers diskutierte Möglichkeit zeigt Blues-Forscher Karl Gert zur Heide auf, der einerseits auf stark beachtete US-Auftritte von Rags Sharki-Gruppen im Entstehungszeitraum des Ragtimes hinweist, darunter auch bei der Weltausstellung 1893 in Chicago, andererseits analytisch eine hohe rhythmische Verwandtschaft von Ragtime und Raqs Sharki bestimmt. Musikalische Charakteristik. Kennzeichen des Ragtime sind zum einen eine freizügige Synkopierung in der Melodiestimme, die oft gegen eine einfache Basslinie im Zweiviertel- oder Vierviertel-Takt verläuft, zum anderen ein Satz verwandter Themen, die innerhalb eines Stücks durch Modulationen miteinander verbunden waren. Spielweise. Für den „City-Ragtime“ charakteristisch ist die stride-Technik der linken Hand, bei der auf die Achtelschläge 1 und 3 des ragtimetypischen 2/4 Taktes der Bass (meist in Oktavschlägen), und auf den 2. und 4. Achtelschlag die Akkorde gespielt werden. Die „Zerrissenheit“ ergibt sich aus der Tatsache, dass die von der rechten Hand dazu vor allem in Sechzehntel- und Achtelnoten notierte Melodie zeitliche Verschiebungen zum von der linken Hand stetig gespielten Takt aufweist, oft Sechzehntel-Notenüberbindungen über die Taktmitte oder den Taktstrich hinweg. Einigen Ragtime-Komponisten ist es bei einzelnen ihrer Werke gelungen, die afroamerikanischen Ursprünge der Ragtime-Synkopierung heraushörbar zu machen. In vielen Fällen ähnelt der Rhythmus der Habanera, der möglicherweise in Lateinamerika, weil dort Trommeln nicht verboten waren, direkt aus der afrikanischen Musik der Vorfahren überliefert ist und in den USA auf andere Instrumente übersetzt wurde. Weitere wichtige Stilmittel des Ragtime sind Schleifer (slurs) mit „blue notes“, chromatische Durchgänge, Verschränkung von Dur und Moll, und enge Tonhäufungen (cluster). Ragtime ist zunächst komponierte Musik, und das Element der Improvisationen ist keine unbedingt notwendige Zutat des Ragtimespiels. Es ist historisch nicht gesichert, welchen Stellenwert sie zunächst hatte. Die Interpretation eines Rags ist jedoch durchaus individuell, man nehme nur die Scott-Joplin-Interpretationen von Marcus Roberts im Stile des Chicago Jazz. Viele der ersten Jazz-Pianisten kamen allerdings vom Ragtime her, und einige der ersten Jazz-Standards waren Rag-Kompositionen. Form. Die formelle Gliederung eines Rags folgt dem Aufbau eines Marsches (einige Rags tragen noch die Bezeichnung „March“ im Titel, der Abschnitt C wird gelegentlich als „Trio“ bezeichnet). Jeweils 16-taktige Abschnitte – sogenannte „Strains“ – sind häufig nach dem Schema AA-BB-A-CC-DD angeordnet, wobei die Strains C und D in der Regel in einer anderen Tonart - meist der Subdominante – stehen. Am Anfang steht oft eine kurze Einleitung, vor dem Abschnitt C gelegentlich eine kurze Überleitung. Alle Abschnitte werden in der Regel zweimal gespielt, Ausnahme ist meist die Wiederholung des Abschnitts A nach dem Abschnitt B. Eine Coda ist eher selten (Beispiel: Magnetic Rag von Scott Joplin). Geschichte. Mit dem Cakewalk kam in den 1890ern eine Tanzmode auf, zu der synkopierte Musik gespielt wurde. Die Synkopierung der Melodien leitete sich aus der afroamerikanischen Rhythmik derjenigen Volksmusik ab, von der letztlich diese neue Tanzmusik herkam. Vorläufer lassen sich bereits seit etwa 1860 feststellen. Andre Asriel zufolge wurde volkstümliche, ragtimeartige Klaviermusik im mittleren Westen und im Osten der USA schon lange vor der ersten Drucklegung von Ragtime-Kompositionen gespielt. „Dabei handelt es sich um naive Übertragungen der zur Begleitung des volkstümlichen Cake Walk gebräuchlichen Banjo-Spielweise auf das Klavier.“ Den voll entwickelten Ragtime aber gab es erst seit etwa 1885, als musikalisch ausgebildete Pianisten-Komponisten sich dieses Materials bemächtigten und „es auf eine höhere Stufe künstlerischer Vollkommenheit hoben“. Der Entwicklungsschwerpunkt des Ragtime lag in Missouri. 1897 erschienen die ersten Ragtime-Kompositionen, zuerst der "Louisiana Rag" von Theodore Northrup. Der erste bedeutende Ragtime-Musiker und -Pianist war Tom Turpin, dessen 1892 komponierter "Harlem Rag" ebenfalls 1897 veröffentlicht wurde. Eubie Blake überlieferte später einen Rag des reisenden Pianisten Jesse Pickett von 1897, ein Stück, das noch etwas essayistisch wirkte. Ebenso erschien im selben Jahr 1897 "Ben Harney’s Ragtime Instructor" mit von Theodore Northrup geschriebenen Ragtime-Arrangements populärer Melodien. Edition von Scott Joplins "Magnetic Rag" Der Weltausstellung in St. Louis im Jahre 1904 (Louisiana Purchase Exposition), in deren Rahmen Tom Turpin einen großen Ragtime-Wettbewerb veranstaltet hatte, wurden etliche Ragtimes gewidmet, unter anderem der "St. Louis Rag" von Tom Turpin, der "St. Louis Tickle" von Theron Catlen Bennet und "The Cascades" in Erinnerung an die Weltausstellungswasserspiele von Scott Joplin. Der Ragtime hatte damit, also fünf Jahre nach Erscheinen von Joplins "Maple Leaf Rag" (Auflage 1/2 Mio.), den ersten emotionalen Höhepunkt für seine Musiker. Ein Hauptort des Ragtime wurde Joplins Wohnort Sedalia, Missouri, wo auch sein Verleger John Stark seit 1885 ansässig war. Ein weiteres Zentrum des Ragtime wurde Atlantic City. Von 1906 bis zum Ersten Weltkrieg war Ragtime die populäre Musik in den USA und wurde schließlich auch in Europa populär. Nicht mehr streng der Form der Ragtimekomposition entsprechend, sondern nur noch Stilelemente des Rag benutzend, waren zu dieser Zeit die sogenannten Ragtime-Songs – Schlager im Stil der Zeit – weit verbreitet. Von den größeren Ragtime-Bands wurde die von James Reese Europe in New York besonders populär. Reine Saxophon-Ensembles präsentierten Ragtime auf neuartige Weise. Mit dem Tode Scott Joplins im Jahre 1917 endete die Ragtime-Ära und wurde durch die Jazz-Ära abgelöst. Aber auch in dieser Zeit entstanden noch neue Rags, vorwiegend pianistisch verwegene Kompositionen, die man auch Novelty oder "Novelty Ragtime" nannte. Eubie Blake hatte zusammen mit Noble Sissle 1921 großen Erfolg mit der Broadway-Show "Shuffle Along", die Musik, die sein "Shuffle Along Orchestra" dazu spielte, war geprägt vom Ragtime, aber auch schon vom Jazz. Aus dem Ragtime ging in den 1920er und 30er Jahren der Harlem Stride hervor, der auch nach dem Bebop weiterentwickelt wurde und so durchgängig in den Jazz Eingang fand. Ragtime im frühen Jazz. In den frühen Jazzbands wurden neben Bluesstücken auch Rags gespielt und zur Grundlage der Kollektivimprovisationen im Stil des New Orleans Jazz genommen. So ist für Bandleader wie Papa Jack Laine oder John Robichaux bekannt, dass sie zum großen Teil Rags aus dem "Red Back Book" aufführten. Songs wie "Alexander’s Ragtime Band" (von Irving Berlin, das selbst kein Rag ist) spielen auf diese Tendenz an, zumal – bevor 1917 das Wort Jazz aufkam – man manchmal auch den frühen Jazz als „Ragtime“ bezeichnete. Bedeutende Komponisten und Interpreten. Meistverkaufte Komposition, hier Ausgabe 1915 Die bekanntesten Rags sind heute Scott Joplins "The Entertainer" von 1902, der durch seine Verwendung im Film "Der Clou" 1973 großen Erfolg hatte, und die als Notenausgabe und als Schallplattenaufnahme (mit Pee Wee Hunt (1948)) meistverkaufte Ragtime-Komposition "Twelfth Street Rag" von Euday Bowman aus dem Jahr 1914, als das Ende der Ragtime-Ära begann. Zu den Hauptvertretern des klassischen auskomponierten Ragtime gehören neben Scott Joplin Tom Turpin, James Scott und Joseph Lamb. Bereits weniger notengebunden und damit jazzmäßiger spielte Jelly Roll Morton in New Orleans, der von sich selbst behauptete, im Jahre 1902 den Jazz erfunden zu haben. Seine Jazzkompositionen stehen dem Ragtime entweder sehr nah oder sind ausgewiesene Rags wie sein "Perfect Rag". Bedeutend als Vorbild für einige der ersten Jazz-Pianisten war Eubie Blake, der in Baltimore, Atlantic City und New York aktiv war, und ab 1899 Rags komponierte. Seine Rags sind ein Beispiel dafür, dass es sich bei diesen Werken durchaus um anspruchsvolle Klavierliteratur handelt. Das gilt für die Rags sowohl von afro-amerikanischen (z. B. Joplin und Blake) als auch euro-amerikanischen Komponisten (z. B. der junge George Gershwin). Einer der schönsten Rags ist der von Louis Chauvin, dem Gewinner des Wettbewerbs von St. Louis, und Scott Joplin gemeinsam komponierte "Heliotrope Bouquet". Bekannte moderne Interpreten des Ragtime sind der klassische Pianist William Bolcom und der Jazzpianist Marcus Roberts. Ein Pianist, der sich auf seinen Aufnahmen ausschließlich dem Ragtime widmet, ist Reginald R. Robinson. Auf den Alben des norwegischen Pianisten Morten Gunnar Larsen finden sich neben Titeln aus dem frühen Jazz ebenfalls Rags. Ein Orchester, das sich intensiv mit Ragtime beschäftigt, ist das amerikanische "Paragon Ragtime Orchestra" unter der Leitung von Rick Benjamin. Als in heutiger Zeit besonders authentischer Interpret gilt John Arpin. Der Ragtime fand auch Eingang in die europäische Kunstmusik, so komponierte Claude Debussy die Rag-Miniatur "The Little Negro" und mit "Golliwogg’s Cakewalk" (aus "Children’s Corner)" und "Général Lavine – eccentric" zwei Ragtime- und Cakewalk-Parodien. Auch Igor Strawinsky (etwa in seiner "Histoire du soldat)" und Paul Hindemith komponierten neoklassizistisch verfremdete Rags. Relativitätstheorie. Die Relativitätstheorie befasst sich mit der Struktur von Raum und Zeit sowie mit dem Wesen der Gravitation. Sie besteht aus zwei maßgeblich von Albert Einstein geschaffenen physikalischen Theorien, der 1905 veröffentlichten speziellen Relativitätstheorie und der 1916 abgeschlossenen allgemeinen Relativitätstheorie. Die spezielle Relativitätstheorie beschreibt das Verhalten von Raum und Zeit aus der Sicht von Beobachtern, die sich relativ zueinander bewegen, und die damit verbundenen Phänomene. Darauf aufbauend führt die allgemeine Relativitätstheorie die Gravitation auf eine Krümmung von Raum und Zeit zurück, die unter anderem durch die beteiligten Massen verursacht wird. In diesem Artikel werden die grundlegenden Strukturen und Phänomene lediglich zusammenfassend aufgeführt. Für Erläuterungen und Details siehe die Artikel spezielle Relativitätstheorie und allgemeine Relativitätstheorie sowie die Verweise im Text. Zum Begriff der Relativität als solcher siehe "Relativität". Der in der physikalischen Fachsprache häufig verwendete Ausdruck relativistisch bedeutet üblicherweise, dass eine Geschwindigkeit nicht vernachlässigbar klein gegenüber der Lichtgeschwindigkeit ist; die Grenze wird oft bei 10 Prozent gezogen. Bei relativistischen Geschwindigkeiten gewinnen die Effekte der speziellen Relativitätstheorie eine zunehmende Bedeutung, die Abweichungen von der klassischen Mechanik können dann nicht mehr vernachlässigt werden. Bedeutung. Die Relativitätstheorie hat das Verständnis von Raum und Zeit revolutioniert und Zusammenhänge aufgedeckt, die sich der anschaulichen Vorstellung entziehen. Diese lassen sich jedoch mathematisch präzise in Formeln fassen und durch Experimente bestätigen. Die Relativitätstheorie enthält die newtonsche Physik als Grenzfall. Sie erfüllt damit das Korrespondenzprinzip. Das Standardmodell der Teilchenphysik beruht auf der Vereinigung der speziellen Relativitätstheorie mit der Quantentheorie zu einer relativistischen Quantenfeldtheorie. Die allgemeine Relativitätstheorie ist neben der Quantenphysik eine der beiden Säulen des Theoriengebäudes Physik. Es wird allgemein angenommen, dass eine Vereinigung dieser beiden Säulen zu einer Theory of Everything (Theorie von allem) im Prinzip möglich ist. Trotz großer Anstrengungen ist so eine Vereinigung jedoch noch nicht vollständig gelungen. Sie zählt zu den großen Herausforderungen der physikalischen Grundlagenforschung. Das Relativitätsprinzip. Beide Beobachter messen für die Geschwindigkeit des Lichtes denselben Zahlenwert, obwohl der linke sich bewegt. Das Relativitätsprinzip an sich ist wenig spektakulär, denn es gilt auch für die newtonsche Mechanik. Aus ihm folgt unmittelbar, dass es keine Möglichkeit gibt, eine absolute Geschwindigkeit eines Beobachters im Raum zu ermitteln und damit ein absolut ruhendes Bezugssystem zu definieren. Ein solches Ruhesystem müsste sich in irgendeiner Form von allen anderen unterscheiden im Widerspruch zum Relativitätsprinzip, wonach die Gesetze der Physik in allen Bezugssystemen dieselbe Gestalt haben. Nun beruhte vor der Entwicklung der Relativitätstheorie die Elektrodynamik auf der Annahme des Äthers als Träger elektromagnetischer Wellen. Würde ein solcher Äther als starres Gebilde den Raum füllen, dann würde er ein Bezugssystem definieren, in dem im Widerspruch zum Relativitätsprinzip die physikalischen Gesetze eine besonders einfache Form hätten und welches überdies das einzige System wäre, in dem die Lichtgeschwindigkeit konstant ist. Jedoch scheiterten alle Versuche, die Existenz des Äthers nachzuweisen, wie beispielsweise das berühmte Michelson-Morley-Experiment von 1887. Durch die Aufgabe der konventionellen Vorstellungen von Raum und Zeit und die Verwerfung der Ätherhypothese gelang es Einstein, den scheinbaren Widerspruch zwischen dem Relativitätsprinzip und der aus der Elektrodynamik folgenden Konstanz der Lichtgeschwindigkeit aufzulösen. Nicht zufällig waren es Experimente und Überlegungen zur Elektrodynamik, die zur Entdeckung der Relativitätstheorie führten. So lautete der unscheinbare Titel der einsteinschen Publikation von 1905, die die spezielle Relativitätstheorie begründete, "Zur Elektrodynamik bewegter Körper". Relativität von Raum und Zeit. Raum- und Zeitangaben sind in der Relativitätstheorie keine universell gültigen Ordnungsstrukturen. Vielmehr werden der räumliche und zeitliche Abstand zweier Ereignisse oder auch deren Gleichzeitigkeit von Beobachtern mit verschiedenen Bewegungszuständen unterschiedlich beurteilt. Bewegte Objekte erweisen sich im Vergleich zum Ruhezustand in Bewegungsrichtung als verkürzt und bewegte Uhren als verlangsamt. Da jedoch jeder gleichförmig bewegte Beobachter den Standpunkt vertreten kann, er sei in Ruhe, beruhen diese Beobachtungen auf Gegenseitigkeit, das heißt, zwei relativ zueinander bewegte Beobachter sehen die Uhren des jeweils anderen langsamer gehen. Außerdem sind aus ihrer Sicht die Meterstäbe des jeweils anderen kürzer als ein Meter, wenn sie längs der Bewegungsrichtung ausgerichtet sind. Die Frage, wer die Situation korrekt beschreibt, ist hierbei prinzipiell nicht zu beantworten und daher sinnlos. Diese Längenkontraktion und Zeitdilatation lassen sich vergleichsweise anschaulich anhand von Minkowski-Diagrammen und anhand des bekannten Zwillingsparadoxons nachvollziehen. In der mathematischen Formulierung ergeben sie sich aus der Lorentz-Transformation, die den Zusammenhang zwischen den Raum- und Zeitkoordinaten der verschiedenen Beobachter beschreibt. Diese Transformation lässt sich direkt aus den beiden obigen Axiomen und der Annahme, dass sie linear ist, herleiten. Die meisten dieser relativistisch erklärbaren Phänomene machen sich erst bei Geschwindigkeiten bemerkbar, die im Vergleich zur Lichtgeschwindigkeit nennenswert groß sind. Solche Geschwindigkeiten werden im Alltag nicht annähernd erreicht. Lichtgeschwindigkeit als Grenze. Kein Objekt und keine Information kann sich schneller bewegen als das Licht im Vakuum. Nähert sich die Geschwindigkeit eines materiellen Objektes der Lichtgeschwindigkeit, so strebt der Energieaufwand für eine weitere Beschleunigung über alle Grenzen, weil die kinetische Energie mit zunehmender Annäherung an die Lichtgeschwindigkeit mit wachsender Geschwindigkeit immer steiler ansteigt. Zum Erreichen der Lichtgeschwindigkeit müsste unendlich viel Energie aufgebracht werden. Dieser Umstand ist eine Folge der Struktur von Raum und Zeit und keine Eigenschaft des Objekts, wie beispielsweise eines lediglich unvollkommenen Raumschiffes. Würde sich ein Objekt mit Überlichtgeschwindigkeit von A nach B bewegen, so gäbe es immer einen relativ zu ihm bewegten Beobachter, der eine Bewegung von B nach A wahrnehmen würde, wiederum ohne dass die Frage, wer die Situation korrekt beschreibt, einen Sinn gäbe. Das Kausalitätsprinzip wäre dann verletzt, da die Reihenfolge von Ursache und Wirkung nicht mehr definiert wäre. Ein solches Objekt würde sich übrigens für jeden Beobachter mit Überlichtgeschwindigkeit bewegen. Vereinigung von Raum und Zeit zur Raumzeit. Raum und Zeit erscheinen in den Grundgleichungen der Relativitätstheorie formal fast gleichwertig nebeneinander und lassen sich daher zu einer vierdimensionalen Raumzeit vereinigen. Dass Raum und Zeit auf verschiedene Weise in Erscheinung treten, ist eine Eigenheit der menschlichen Wahrnehmung. Mathematisch lässt der Unterschied sich auf ein einziges Vorzeichen zurückführen, durch das sich die Definition eines Abstandes im euklidischen Raum von der Definition des Abstands in der vierdimensionalen Raumzeit unterscheidet. Aus gewöhnlichen Vektoren im dreidimensionalen Raum werden dabei sogenannte Vierervektoren. Praktische Anwendung finden die Raumzeit-Vierervektoren beispielsweise in Berechnungen der Kinematik schneller Teilchen. Äquivalenz von Masse und Energie. Einem System mit der Masse "m" lässt sich auch im unbewegten Zustand eine Energie "E" zuordnen, und zwar nach formula_1 wobei "c" die Geschwindigkeit des Lichtes ist. Diese Formel ist eine der berühmtesten in der Physik. Oft wird irreführend behauptet, sie habe die Entwicklung der Atombombe ermöglicht. Die "Wirkungsweise" der Atombombe kann jedoch mit ihr nicht erklärt werden. Allerdings konnte schon 1939 kurz nach der Entdeckung der Kernspaltung mit dieser Formel und den schon bekannten Massen der Atome durch Lise Meitner die enorme Freisetzung von Energie abgeschätzt werden. Diese Massenabnahme tritt auch schon bei chemischen Reaktionen auf, war jedoch dort mit den damaligen Messmethoden nicht bestimmbar, anders als im Fall von Kernreaktionen. Magnetfelder in der Relativitätstheorie. Die Existenz magnetischer Kräfte ist untrennbar mit der Relativitätstheorie verknüpft. Eine isolierte Existenz des coulombschen Gesetzes für elektrische Kräfte wäre nicht mit der Struktur von Raum und Zeit verträglich. So sieht ein Beobachter, der relativ zu einem System statischer elektrischer Ladungen ruht, kein Magnetfeld, anders als ein Beobachter, der sich relativ zu ihm bewegt. Übersetzt man die Beobachtungen des ruhenden Beobachters über eine Lorentz-Transformation in die des Bewegten, so stellt sich heraus, dass dieser neben der elektrischen Kraft eine weitere, magnetische, Kraft wahrnimmt. Die Existenz des Magnetfeldes in diesem Beispiel lässt sich daher auf die Struktur von Raum und Zeit zurückführen. Unter diesem Gesichtspunkt wirkt auch die im Vergleich zum Coulombgesetz komplizierte und auf den ersten Blick wenig plausible Struktur des vergleichbaren biot-savartschen Gesetzes für Magnetfelder weniger verwunderlich. Im mathematischen Formalismus der Relativitätstheorie werden das elektrische und das magnetische Feld zu einer Einheit, dem vierdimensionalen elektromagnetischen Feldstärketensor, zusammengefasst, ganz analog zur Vereinigung von Raum und Zeit zur vierdimensionalen Raumzeit. Gravitation und die Krümmung der Raumzeit. Entzieht sich die vierdimensionale Raumzeit der speziellen Relativitätstheorie bereits einer anschaulichen Vorstellbarkeit, so gilt das für eine zusätzlich gekrümmte Raumzeit erst recht. Zur Veranschaulichung kann man jedoch Situationen mit reduzierter Anzahl von Dimensionen betrachten. So entspricht im Fall einer 2-dimensionalen gekrümmten Landschaft eine Geodäte dem Weg, den ein Fahrzeug mit geradeaus fixierter Lenkung nehmen würde. Würden zwei solche Fahrzeuge am Äquator einer Kugel nebeneinander exakt parallel Richtung Norden starten, dann würden sie sich am Nordpol treffen. Ein Beobachter, dem die Kugelgestalt der Erde verborgen bliebe, würde daraus auf eine Anziehungskraft zwischen den beiden Fahrzeugen schließen. Es handelt sich aber um ein rein geometrisches Phänomen. Gravitationskräfte werden daher in der allgemeinen Relativitätstheorie gelegentlich auch als Scheinkräfte bezeichnet. Da der geodätische Weg durch die Raumzeit von ihrer Geometrie und nicht von der Masse oder sonstigen Eigenschaften des fallenden Körpers abhängt, fallen alle Körper im Gravitationsfeld gleich schnell, wie bereits Galilei feststellte. Dieser Umstand wird in der newtonschen Mechanik durch die Äquivalenz von träger und schwerer Masse beschrieben, die auch der allgemeinen Relativitätstheorie zugrunde liegt. Die mathematische Struktur der allgemeinen Relativitätstheorie. Während viele Aspekte der speziellen Relativitätstheorie in ihrer einfachsten Formulierung auch mit geringen mathematischen Kenntnissen nachvollziehbar sind, ist die Mathematik der allgemeinen Relativitätstheorie deutlich anspruchsvoller. Die Beschreibung einer krummen Raumzeit erfolgt mit den Methoden der Differentialgeometrie, die die euklidische Geometrie des uns vertrauten flachen Raumes ablöst. Zur Beschreibung von Krümmung wird zur Anschauung meist ein gekrümmtes Objekt in einen höherdimensionalen Raum eingebettet. Zum Beispiel stellt man sich eine zweidimensionale Kugeloberfläche üblicherweise in einem dreidimensionalen Raum vor. Krümmung kann jedoch ohne die Annahme eines solchen Einbettungsraumes beschrieben werden, was in der allgemeinen Relativitätstheorie auch geschieht. Es ist beispielsweise möglich, Krümmung dadurch zu beschreiben, dass die Winkelsumme von Dreiecken nicht 180° entspricht. Die Entstehung der Krümmung wird durch die einsteinschen Feldgleichungen beschrieben. Dabei handelt es sich um Differentialgleichungen eines Tensorfeldes mit zehn Komponenten, die nur in speziellen Fällen analytisch, das heißt in Form einer mathematischen Gleichung, lösbar sind. Für komplexe Systeme wird daher üblicherweise mit Näherungsmechanismen gearbeitet. Uhren im Gravitationsfeld. In der allgemeinen Relativitätstheorie hängt der Gang von Uhren nicht nur von ihrer relativen Geschwindigkeit ab, sondern auch von ihrem Ort im Gravitationsfeld. Eine Uhr auf einem Berg geht schneller als eine im Tal. Dieser Effekt ist zwar im irdischen Gravitationsfeld nur gering, er wird jedoch beim GPS-Navigationssystem zur Vermeidung von Fehlern bei der Positionsbestimmung über eine entsprechende Frequenzkorrektur der Funksignale berücksichtigt. Kosmologie. Während die spezielle Relativitätstheorie bei Anwesenheit von Massen nur in Gebieten der Raumzeit gilt, die so klein sind, dass die Krümmung vernachlässigt werden kann, kommt die allgemeine Relativitätstheorie ohne diese Einschränkung aus. Sie kann somit auch auf das Universum als Ganzes angewandt werden und spielt daher in der Kosmologie eine zentrale Rolle. So wird die Expansion des Weltalls, die die Astronomen beobachten, durch die friedmannschen Lösungen der einsteinschen Feldgleichungen in Kombination mit einer sogenannten kosmologischen Konstanten angemessen beschrieben. Danach begann diese Expansion mit dem Urknall, der nach den jüngsten Untersuchungen vor 13,7 Milliarden Jahren stattgefunden hat. Er kann auch als der Beginn von Raum und Zeit angesehen werden, bei dem das gesamte Universum auf einem Raumgebiet vom Durchmesser der Planck-Länge konzentriert war. Schwarze Löcher. Eine weitere Vorhersage der allgemeinen Relativitätstheorie sind Schwarze Löcher. Diese Objekte haben eine so starke Gravitation, dass sie sogar Licht „einfangen“ können, so dass es nicht wieder aus dem schwarzen Loch herauskommen kann. Einstein konnte sich mit diesem Gedanken nicht anfreunden und meinte, es müsse einen Mechanismus geben, der die Entstehung solcher Objekte verhindert. Heutige Beobachtungen legen aber nahe, dass es solche Schwarzen Löcher im Universum tatsächlich gibt, und zwar als Endstadium der Sternentwicklung bei sehr massereichen Sternen und in den Zentren von Galaxien. Gravitationswellen. Die allgemeine Relativitätstheorie erlaubt die Existenz von Gravitationswellen, lokalen Deformationen der Raumzeit, die sich mit Lichtgeschwindigkeit ausbreiten. Sie sollten bei der Beschleunigung von Massen entstehen. Diese Deformationen sind jedoch dermaßen klein, dass sie sich bis heute einem direkten Nachweis entzogen haben. Eine vergleichsweise nahe Supernovaexplosion im Jahre 1987 sollte Gravitationswellen erzeugt haben, die mit heutigen (2011) Detektoren nachweisbar wären. Allerdings waren die zwei Detektoren, die zu diesem Zeitpunkt im Einsatz waren, nicht genau genug, um eine eindeutige Bestätigung zu erbringen. Immerhin konnte aus Beobachtungen an Doppelsternsystemen mit Pulsaren die Existenz von Gravitationswellen indirekt bestätigt werden. Russell Hulse und Joseph Taylor erhielten dafür 1993 den Nobelpreis für Physik. Spezielle Relativitätstheorie. Dies kulminierte in der speziellen Relativitätstheorie Albert Einsteins (1905) durch eine durchsichtige Ableitung der gesamten Theorie aus den Postulaten des Relativitätsprinzips und der Konstanz der Lichtgeschwindigkeit, und der endgültigen Überwindung des Ätherbegriffs durch Reformulierung der Begriffe von Raum und Zeit. Die dynamische Betrachtungsweise von Lorentz und Poincaré wurde durch die kinematische Einsteins ersetzt. Schließlich folgte die mathematische Reformulierung der Theorie durch Einbeziehung der Zeit als vierte Dimension durch Hermann Minkowski (1907). Allgemeine Relativitätstheorie. Während an der Entwicklung der speziellen Relativitätstheorie eine Reihe von Wissenschaftlern beteiligt war − wobei Einsteins Arbeit von 1905 sowohl ein Ende als auch einen Neuanfang darstellte − war die Entwicklung der allgemeinen Relativitätstheorie, was ihre grundlegenden physikalischen Aussagen betraf, praktisch die alleinige Errungenschaft Einsteins. Diese Entwicklung begann 1907 mit dem Äquivalenzprinzip, wonach träge und schwere Masse äquivalent sind. Daraus leitete er die gravitative Rotverschiebung ab und stellte fest, dass Licht im Gravitationsfeld abgelenkt wird, wobei er die dabei entstehende Verzögerung, die so genannte Shapiro-Verzögerung, bedachte. 1911 führte er mit verfeinerten Methoden diese Grundgedanken weiter. Diesmal vermutete er auch, dass die Lichtablenkung im Gravitationsfeld messbar ist. Der von ihm zu dieser Zeit vorhergesagte Wert war jedoch noch um einen Faktor 2 zu klein. Im weiteren Verlauf erkannte Einstein, dass Minkowskis vierdimensionaler Raumzeitformalismus, welchem er bislang skeptisch gegenüberstand, eine sehr wichtige Bedeutung bei der neuen Theorie zukam. Auch wurde ihm nun klar, dass die Mittel der euklidischen Geometrie nicht ausreichten, um seine Arbeit fortsetzen zu können. 1913 konnte er mit der mathematischen Unterstützung Marcel Grossmanns die im 19. Jahrhundert entwickelte nichteuklidische Geometrie in seine Theorie integrieren, ohne jedoch die vollständige Kovarianz, d. h. die Übereinstimmung aller Naturgesetze in den Bezugssystemen, zu erreichen. 1915 waren diese Probleme nach einigen Fehlschlägen überwunden, und Einstein konnte schließlich die korrekten Feldgleichungen der Gravitation ableiten. Nahezu gleichzeitig gelang dies auch David Hilbert. Einstein errechnete den korrekten Wert für die Periheldrehung des Merkurs, und für die Lichtablenkung das Doppelte des 1911 erhaltenen Wertes. 1919 wurde dieser Wert erstmals bestätigt, was den Siegeszug der Theorie in Physikerkreisen und auch in der Öffentlichkeit einleitete. Danach versuchten sich viele Physiker an der exakten Lösung der Feldgleichungen, was in der Aufstellung diverser kosmologischer Modelle und in Theorien wie die der Schwarzen Löcher mündete. Weitere geometrische Theorien. Nach der Erklärung der Gravitation als geometrisches Phänomen lag es nahe, auch die anderen damals bekannten Grundkräfte, die elektrische und die magnetische, auf geometrische Effekte zurückzuführen. Theodor Kaluza (1921) und Oskar Klein (1926) nahmen dazu eine zusätzliche in sich geschlossene Dimension des Raumes mit subatomarer Länge an, derart dass sie uns verborgen bleibt. Sie blieben jedoch mit ihrer Theorie erfolglos. Auch Einstein arbeitete lange vergeblich daran, eine solche einheitliche Feldtheorie zu schaffen. Nach der Entdeckung weiterer Grundkräfte der Natur erlebten diese sogenannten Kaluza-Klein-Theorien eine Renaissance – allerdings auf der Basis der Quantentheorie. Die heute aussichtsreichste Theorie zur Vereinigung der Relativitätstheorie und der Quantentheorie dieser Art, die Stringtheorie, geht von sechs oder sieben verborgenen Dimensionen von der Größe der Planck-Länge und damit von einer zehn- beziehungsweise elfdimensionalen Raumzeit aus. Experimentelle Bestätigungen. Der erste Erfolg der speziellen Relativitätstheorie war die Auflösung des Widerspruches zwischen dem Ergebnis des Michelson-Morley-Experiments und der Theorie der Elektrodynamik, der überhaupt als Anlass für ihre Entdeckung angesehen werden kann. Seither hat sich die spezielle Relativitätstheorie in der Interpretation unzähliger Experimente bewährt. Ein überzeugendes Beispiel ist der Nachweis von Myonen in der Höhenstrahlung, die auf Grund ihrer kurzen Lebensdauer nicht die Erdoberfläche erreichen könnten, wenn nicht auf Grund ihrer hohen Geschwindigkeit die Zeit für sie langsamer gehen würde, beziehungsweise sie die Flugstrecke längenkontrahiert erfahren würden. Dieser Nachweis gelang zum Teil bei den Ballonflügen in die Stratosphäre des Schweizer Physikers Auguste Piccard in den Jahren 1931 und 1932, die unter Mitwirkung von Einstein vorbereitet wurden. Hingegen gab es zur Zeit der Veröffentlichung der allgemeinen Relativitätstheorie einen einzigen Hinweis für ihre Richtigkeit, die Periheldrehung des Merkurs. 1919 stellte Arthur Stanley Eddington bei einer Sonnenfinsternis eine Verschiebung der scheinbaren Position der Sterne nahe der Sonne fest und lieferte mit diesem sehr direkten Hinweis auf eine Krümmung des Raums eine weitere Bestätigung der Theorie. Weitere experimentelle Tests sind im Artikel zur allgemeinen Relativitätstheorie beschrieben. Die Relativitätstheorie hat sich bis heute in der von Einstein vorgegebenen Form gegen alle Alternativen, die insbesondere zu seiner Theorie der Gravitation vorgeschlagen wurden, behaupten können. Die bedeutendste war die Jordan-Brans-Dicke-Theorie, die jedoch aufwändiger war. Ihre Gültigkeit ist bisher nicht widerlegt worden. Der Bereich, den der entscheidende Parameter nach heutigem experimentellen Stand einnehmen kann, ist jedoch stark eingeschränkt. Wahrnehmung in der Öffentlichkeit. Die neue Sichtweise der Relativitätstheorie bezüglich Raum und Zeit erregte nach ihrer Entdeckung auch in der Allgemeinheit Aufsehen. Einstein wurde zur Berühmtheit und die Relativitätstheorie erfuhr ein erhebliches Medienecho. Verkürzt auf den Spruch "alles ist relativ" wurde sie zuweilen in die Nähe eines philosophischen Relativismus gerückt. Im April 1922 wurde ein Film mit dem Titel "Die Grundlagen der Einsteinschen Relativitätstheorie" uraufgeführt, in dem Einsteins spezielle Relativitätstheorie mit vielen Animationen dem Publikum verständlich gemacht werden sollte. Kritik an der Relativitätstheorie speiste sich aus verschiedenen Quellen, wie Unverständnis, Ablehnung der fortschreitenden Mathematisierung der Physik und teilweise auch Ressentiments gegen Einsteins jüdische Abstammung. Ab den 1920er Jahren versuchten in Deutschland einige wenige offen antisemitische Physiker, namentlich die Nobelpreisträger Philipp Lenard und Johannes Stark, der Relativitätstheorie eine "deutsche Physik" entgegenzusetzen. Wenige Jahre nach der nationalsozialistischen Machtergreifung ging Stark mit einem Artikel in der SS-Zeitung "Das Schwarze Korps" vom 15. Juli 1937 gegen die im Land verbliebenen Anhänger der Relativitäts- und Quantentheorie in die Offensive. Unter anderem denunzierte er Werner Heisenberg und Max Planck als "weiße Juden". Heisenberg wandte sich direkt an Himmler und erreichte seine volle Rehabilitierung; nicht zuletzt mit Blick auf die Bedürfnisse der Rüstungsentwicklung blieb die Relativitätstheorie erlaubt. Auch viele führende Vertreter der hergebrachten klassischen Physik lehnten Einsteins Relativitätstheorie ab, darunter Lorentz und Poincaré selbst und auch Experimentalphysiker wie Michelson. Wissenschaftliche Anerkennung. Die Bedeutung der Relativitätstheorien war anfänglich umstritten (siehe Albert Einstein). Der Nobelpreis für Physik 1922 wurde Einstein für seine Deutung des lichtelektrischen Effekts zugesprochen. Allerdings sprach er in seiner Preisrede dann über die Relativitätstheorien. Philosophische Einführungen und Diskussion. sowie Überblicksdarstellungen in den meisten Handbüchern zur Naturphilosophie, Philosophie der Physik und oft auch Wissenschaftstheorie Renaissance. Renaissance („Wiedergeburt“) beschreibt eine europäische Kulturepoche hauptsächlich des 15. und 16. Jahrhunderts. Die Bezeichnung Renaissance wurde im 19. Jahrhundert geprägt und bringt das Bemühen zeitgenössischer Künstler und Gelehrter zum Ausdruck, die kulturellen Leistungen der griechischen und römischen Antike nach dem ausklingenden Mittelalter wieder neu zu beleben. Ausgehend von den Städten Norditaliens beeinflusste ihre innovative Malerei, Architektur, Skulptur sowie Literatur und Philosophie auch die Länder nördlich der Alpen, wenn auch in jeweils unterschiedlicher Ausprägung. Bereits im Mittelalter schaute Europa auf die Antike zurück, doch in den ein, zwei Jahrhunderten danach wurden unter anderem antike Texte wiederentdeckt und im Renaissance-Humanismus das antike Staatswesen studiert. Als der Renaissance gemäß gelten ferner die vielen Erfindungen und Entdeckungen, die man als Folge des geistigen Erwachens beschreiben kann. Als Kernzeitraum der Renaissance wird das 15. (Quattrocento) und 16. Jahrhundert (Cinquecento) angesehen. Das Ende der Epoche vollzieht sich im beginnenden 17. Jahrhundert in Italien durch den neu hervortretenden Stil des Barock. Außerhalb Italiens dominierten noch längere Zeit Formen der Gotik; die Übergänge sind hier fließend und ihre Einschätzung hängt davon ab, ob ein engerer Stilbegriff der Renaissance verwendet wird oder ein weiterer Epochenbegriff. Im protestantischen Nordeuropa wird der Epochenbegriff der Renaissance von dem der Reformation überlagert. Als Künstler der Renaissance sind besonders Italiener wie Leonardo da Vinci, Tizian und Donatello sowie der Deutsche Albrecht Dürer und die Donauschule bekannt. Zu dieser Epoche gehören aber auch bedeutende Schriftsteller von Dante Alighieri bis William Shakespeare. Der Staatsphilosoph Niccolò Machiavelli gilt als Analytiker und Vertreter einer selbstbewussten Machtpolitik, Erasmus von Rotterdam wiederum steht für Moral und Selbstreflexion. In der Musik verbindet man die Epoche vor allem mit verstärkter Mehrstimmigkeit und neuer Harmonie etwa bei Orlando di Lasso. Begriff. Erstmals wurde der Begriff (oder „Wiedergeburt“) 1550 von dem italienischen Künstler und Künstlerbiographen Giorgio Vasari verwendet, um die Überwindung der mittelalterlichen Kunst zu bezeichnen. Nach Vasari hatten bereits die italienischen Bildhauer, Architekten und Maler der zweiten Hälfte des 13. Jahrhunderts, darunter Arnolfo di Cambio, Niccolò Pisano, Cimabue oder Giotto, „in dunkelsten Zeiten den Meistern, die nach ihnen kamen, den Weg gewiesen, der zur Vollkommenheit führt“. Um 1820/30 wurde der Begriff „Renaissance“ in der heute geläufigen Schreibweise aus dem Italienischen ins Französische übernommen. Etwa 1840 erfolgte im deutschsprachigen Schrifttum eine Entlehnung aus dem Französischen, um eine kulturgeschichtliche Epoche Europas während des Übergangs vom Mittelalter zur Neuzeit zu benennen. Der Begriff wurde in dieser Bedeutung maßgebend vom Basler Historiker Jacob Burckhardt mit seinem Werk „Die Kultur der Renaissance in Italien“ (1860) geprägt. Allgemein spricht man auch in anderen Zusammenhängen von Renaissance, wenn alte Werte oder Ideen wieder zum Durchbruch gelangen. So bezeichnet man es oft als Renaissance, wenn regionale Kulturen im 19. und 20. Jahrhundert sich verstärkt für ihre Eigenarten (und Sprachen) interessiert haben, wie in der irischen Renaissance. Im Englischen bezeichnet man ferner als "renaissance man" einen Menschen mit besonders vielen und verschiedenen Fähigkeiten. Zeitliche Einordnung. Leonardo da Vinci – Abendmahl (1495–1498) Die Anfänge der Renaissanceepoche werden im späten 14. Jahrhundert in Italien gesehen; als Kernzeitraum gilt das 15. und 16. Jahrhundert. Gegenüber dem älteren wissenschaftlichen Modell einer Initialbewegung in Italien und der unaufhaltsamen nachfolgenden Ausbreitung über Europa geht man heute in den Kulturwissenschaften immer mehr von einer mehrsträngigen und vernetzten Situation wechselseitiger Einflüsse aus. Die vorausgehende kulturgeschichtliche Epoche der Renaissance war die Gotik, die nachfolgende der Barock. Im Gegensatz zum 19. Jahrhundert sieht die heutige Kunstgeschichte (und die Geschichtswissenschaft allgemein) den Bruch vom Mittelalter zur Renaissance weniger schroff. Bereits im 13. Jahrhundert oder davor kündigten sich Entwicklungen an, die an die Renaissance erinnerten, wie der Städtebau. Als Karolingische Renaissance bezeichnet man die Rückbesinnung auf die Antike, die unter Karl dem Großen um 800 eingesetzt hatte. Aneignung des griechischen und arabischen Wissens. Das Wissen und die Ideen der Antike, die im Europa des Früh- und Hochmittelalters in Vergessenheit gerieten, waren in Klosterbibliotheken, im arabischen Kulturkreis und Byzanz bewahrt worden. Wissenschaftler wie Poggio Bracciolini oder Niccolò Niccoli durchsuchten die Bibliotheken nach Werken klassischer Autoren wie Platon, Cicero und Vitruv. Außerdem fiel während der fortschreitenden Reconquista auf der Iberischen Halbinsel den christlichen Eroberern eine Vielzahl an Werken griechischer und arabischer Autoren in die Hände. Alleine die Bibliothek von Cordoba soll 400.000 Bücher umfasst haben. Der Niedergang des Byzantinischen Reichs nach dem Vierten Kreuzzug bis zur Eroberung Konstantinopels durch die Türken führte dazu, dass griechische Gelehrte nach Italien kamen, die das Wissen über die Kultur der griechischen Antike mitbrachten, welches im Byzantinischen Reich nach dem Untergang Westroms nahezu 1000 Jahre lang konserviert worden war. Bereits einige Jahre vor dem Ende des Oströmischen, Byzantinischen Reiches, zu dem Griechenland und Teile der heutigen Türkei gehörten, war der Italiener Giovanni Aurispa nach Konstantinopel gegangen und hatte 1423 von dort über 200 Codizes mit Texten antiker profaner Literatur nach Italien gebracht. Soziale und politische Strukturen. Auch die sozialen und politischen Zustände im Italien des ausgehenden Mittelalters trugen zu den Umbrüchen bei. Italien existierte nicht als politische Einheit, sondern war in kleinere Stadtstaaten und Territorien aufgeteilt. Im 15. Jahrhundert war es eine der am stärksten urbanisierten Gegenden Europas. Die Städte waren Republiken (aus heutiger Sicht Oligarchien) und boten relative politische Freiheit, die sich in wissenschaftlichen und künstlerischen Fortschritten widerspiegelte. In Italien war die Erinnerung an die Antike noch am lebendigsten. Es war durch die Verbindungswege des Mittelmeerraums nach allen Seiten erschlossen. Die Handelszentren der Städte brachten es in Kontakt mit entfernten Gegenden, vor allem mit der Levante (siehe: Wirtschaftsgeschichte der Republik Venedig). Der Wohlstand, der durch den Handel entstand, machte es möglich, große öffentliche und private Kunstprojekte in Auftrag zu geben. Außerdem konnte mehr Zeit für Bildung aufgewendet werden. Schwarzer Tod. Eine weitere Theorie macht den Schwarzen Tod und die daraus resultierende Änderung der Weltanschauung im 14. Jahrhundert für die Renaissance verantwortlich. Er führte zu einer Konzentration auf das Irdische statt auf Spiritualität und Jenseits. Dies alles erklärt jedoch nicht, warum die Renaissance in Italien begann, da es sich bei der Pest um eine Pandemie handelte, die überall in Europa wütete und nicht nur in Italien. Vermutlich muss die Renaissance als komplexes Zusammenspiel aller Faktoren gesehen werden. Selbstverständnis. Ein Hauptcharakteristikum der „Renaissance“ ist die Wiedergeburt des antiken Geistes. Der Humanismus ist die wesentliche Geistesbewegung der Zeit. Vorreiter waren italienische Dichter des 14. Jahrhunderts wie Francesco Petrarca, der durch seine ausgiebige Beschäftigung mit antiken Schriftstellern und durch seinen Individualismus den Glauben an den Wert humanistischer Bildung förderte und das Studium der Sprachen, der Literatur, der Geschichte und Philosophie außerhalb eines religiösen Zusammenhangs als Selbstzweck befürwortete. Das theozentrische Weltbild des Mittelalters wurde abgelöst durch eine stärker anthropozentrische Sicht der Dinge. Diese „Wiedergeburt“ manifestierte sich darin, dass zahlreiche Elemente des Gedankenguts der Antike neu entdeckt und belebt wurden (Schriften, Baudenkmäler, Skulpturen, philosophisches Denken etc.). Dies wird insbesondere in den Künsten und ihren neuen, als fortschrittlich empfundenen Prinzipien deutlich, in denen die mystisch-geistig orientierte Formensprache des Mittelalters von weltlicher, mathematisch-wissenschaftlicher Klarheit abgelöst wurde. Als beispielhaft für die neue Weltsicht kann die Proportionsstudie von Leonardo da Vinci betrachtet werden. In ihr wird der Mensch in seiner körperlichen Beschaffenheit in das Zentrum gesetzt und zum Maßstab für ein neues Ordnungssystem gemacht. Man kann die Renaissance damit als Beginn der neuzeitlichen anthropozentrischen Weltsicht begreifen. Die Künste und Wissenschaften genießen in den italienischen Stadtstaaten wieder ein ähnlich hohes Ansehen wie im antiken Griechenland. Künstler sind keine anonymen Handwerker mehr, sondern treten mit dem Selbstbewusstsein von Universalgelehrten auf. Ihre Werke werden als individuelle Schöpfungen von hohem Rang angesehen. Philosophie. a> (1460–1527) in Basel vom 13. Januar bis 25. August 1516 gedruckt wurde. Wesentlich mitgearbeitet hat an der Ausgabe Erasmus von Rotterdam. Das Original ist im Besitz von Henryart. Charakterisierung. Zur Nachahmung der antiken Kunst gesellte sich im 15. Jahrhundert die intensivere Beschäftigung mit der Natur, die einen wichtigen Aspekt in der Entwicklungsgeschichte der Renaissancekunst darstellt. Schon vor Vasari hatten Dichter wie Giovanni Boccaccio den Maler Giotto dafür gerühmt, dass er die Dinge so naturgetreu wie niemand vor ihm abzubilden verstand. Die Tendenz, Gegenstände und Personen der Natur gemäß zu gestalten, war seitdem ein Hauptanliegen der Künstler. In nahezu perfekter Ausprägung gelang ihnen eine solche naturalistische Darstellungsweise allerdings erst seit dem 15. Jahrhundert. Daher beschränken Kunsthistoriker den Renaissancebegriff meist nur auf die Kunstäußerungen des 15. Jahrhunderts, des "Quattrocento," und auf die des 16. Jahrhunderts, des "Cinquecento." Eng mit der Forderung nach der Naturwahrheit in der Kunst hing das Bekenntnis der Künstler zur Antike zusammen. Man bewunderte die antiken Kunstwerke als mustergültige Beispiele naturgemäßer Gestaltung. In ihnen sah man nachahmungswürdige Beispiele, wie man die Natur darzustellen hatte. Der bedeutende italienische Theoretiker Leon Battista Alberti forderte, dass sich der Künstler darum bemühen solle, „den antiken Meistern nicht nur gleichzukommen, sondern sie womöglich noch zu übertreffen“. Der Künstler solle das Naturvorbild verbessern und idealisieren. Die Darstellung der „Realität“, das getreue Abbilden, war nicht die Aufgabe des Künstlers ("artifex"). Neben der Neubestimmung des Verhältnisses der Kunst zur Natur und der Verehrung der Antike stellte die Renaissance auch die Frage nach dem Wesen der Schönheit. Die Künstler versuchen z. B., den idealschönen Menschen darzustellen. Ideale Maße und Proportionen spielen sowohl bei der Darstellung des menschlichen Körpers in der Malerei und Skulptur als auch bei der Konzipierung von Gebäuden eine Rolle. Die Künstler entwickeln mit der Zentralperspektive eine Methode, mit mathematischer Exaktheit Verkürzungen in der Raumtiefe darzustellen. Überblick. In der Kunst waren Filippo Brunelleschi, Lorenzo Ghiberti und Donatello die Bahnbrecher der neuen Richtung, die schon in der Protorenaissance des 13. und 14. Jahrhunderts mit Nicola Pisano, Giotto di Bondone und anderen Künstlern ihre Vorläufer gehabt hatten. Die Frührenaissance nimmt ihren Ausgangspunkt in Florenz mit den Skulpturen Donatellos, den Bronzereliefs Ghibertis, den Fresken Masaccios und den Bauten Filippo Brunelleschis. Die Zeit von ca. 1490/1500 bis 1520 bezeichnet man als Hochrenaissance. Zentrum dieser Periode, die sich durch das Streben nach höchster Vollkommenheit und Harmonie in der Kunst auszeichnet, ist das päpstliche Rom. In diese Zeit fallen Bramantes Zentralbau-Entwürfe für die neue Peterskirche in Rom, Leonardo da Vincis berühmteste Bilder („Das Abendmahl“; „Mona Lisa“, „Dame mit Hermelin“), Raffaels Ausmalung der „Stanzen“ und sein berühmtestes Altarbild, die „Sixtinische Madonna“, Michelangelos Skulpturen („römische Pietà“, „David“, „Moses“) und seine Fresken an der Decke der Sixtinischen Kapelle sowie Dürers Meisterstiche. Es folgt die etwa bis 1590 reichende Periode der Spätrenaissance oder des Manierismus, die durch unterschiedliche künstlerische Tendenzen gekennzeichnet ist. So neigt der Manierismus zu Übertreibungen des Formenrepertoires der Hochrenaissance (z. B. übertriebene Raumfluchten, überlange und verdreht dargestellte menschliche Körper in heftiger Bewegung). Ein Merkmal des Manierismus ist z. B. die "Figura serpentinata," wie sie der Bildhauer Giovanni da Bologna in seinem „Raub der Sabinerin“ (1583) dargestellt hat. Menschliche Gestalten werden dabei als sich schlangenartig nach oben windende Körper wiedergegeben. Die letzte Phase der Spätrenaissance geht dann allmählich in den Barock über. Malerei. Die Mehrzahl der Gemälde der Renaissancekunst sind Altarbilder und Fresken religiösen Inhalts, die für Kirchen gemalt wurden. Die religiöse Gestalt wurde jedoch vermenschlicht, indem sie in einer irdischen Umgebung dargestellt wurde. So erscheinen die Personen auf vielfigurigen Bildern oft in der Alltagskleidung des Renaissancezeitalters. Außerdem entstanden Bilder mit weltlichen oder heidnisch-mythologischen Themen (z. B. Allegorien, antike Götter- und Heldensagen, antike Geschichte) und individuelle Bildnisse zeitgenössischer Persönlichkeiten. Daneben entwickelten sich erste Landschaftsdarstellungen und Sittenbilder, die das zeitgenössische Leben repräsentieren. Die Landschaftsdarstellungen sollten jedoch nicht ein genaues Abbild der Wirklichkeit darstellen, vielmehr symbolisierten sie das Grundprinzip der Schönheit. Diese Schönheit wurde als Natur definiert. Die Raumtiefe wird mit den Mitteln der Zentralperspektive, also eines Fluchtliniensystems, geometrisch genau konstruiert. Hinzu kommen die Mittel der Luft- und Farbperspektive. Um ein dreidimensional wirkendes Bild auf einer zweidimensionalen Fläche darstellen zu können, musste sich der Künstler an optische und geometrische Regeln halten. Diese legten fest, dass der Horizont waagerecht auf Augenhöhe des Betrachters liegt. Um einem Bild räumliche Tiefe zu verleihen, laufen all seine parallel zum Erdboden verlaufenden Tiefenlinien auf einen Fluchtpunkt zu, der auf der Horizontlinie liegt. In der Renaissance wurde immer mehr Wert auf die Anatomie des Menschen gelegt. Die Künstler erforschten Muskelzüge, Bewegungen, Verkürzungen und die Körperproportion an sich. Trotz dieser genauen Studien wurde der nackte menschliche Körper, wie bereits in der Antike, als Akt in idealisierten Proportionen dargestellt. Der Künstler sah seine Aufgabe darin, aus der Fülle der menschlichen Natur das Schöne herauszufiltern und so körperliche Vollkommenheit auszudrücken. Die Nacktheit stand symbolisch für die Unschuld, da sie als natürlich empfunden wurde und so ursprüngliche Schönheit ausdrückte. All diese Auffassungen von der menschlichen Gestalt wurden wie andere Dinge aus der Antike übernommen. Ein symmetrischer, harmonisch ausgewogener Bildaufbau, unterstützt durch innerbildliche Kreis-, Halbkreis- und Dreiecksformen, wurde in der Malerei bevorzugt. Bildhauerei. Die Bildhauer der Renaissance schaffen vor allem Standfiguren und Bildnisbüsten. Auf den Plätzen der Städte werden Monumentalplastiken, beispielsweise in Form von Reiterstandbildern aufgestellt. Die Grabplastik für weltliche und geistliche Würdenträger verbindet zum Beispiel in Form eines Wandgrabmals die Skulptur mit der Architektur zu einem Gesamtkunstwerk. Die Bildhauerei befreit sich zudem immer mehr aus ihren mittelalterlichen Bindungen an die Architektur. Neben Nischenfiguren, die ohne einen engen Zusammenhang mit dem zugehörigen Gebäude undenkbar sind, werden zunehmend Freiplastiken geschaffen, die, auf öffentlichen Plätzen stehend, von allen Seiten betrachtet werden können. Renaissancebildhauer orientieren sich bei ihrer Arbeit an antiken Vorbildern. Skulpturen werden allseitig durchmodelliert, der Mensch in seiner Nacktheit dargestellt, die Beinstellung erfolgt oft im klassischen Kontrapost. Anatomische Vorstudien dienen dazu, den menschlichen Körper wirklichkeitsgetreu wiederzugeben. Antikische, klassizistische Renaissance. Eine Tendenz der Architektur besteht darin, die Formensprache der Antike in klassischer Strenge wiederzubeleben. In Italien war dieses Ziel mit der Hochrenaissance durch Donato Bramante gegen 1500 erreicht und setzte sich von da an in ganz Italien durch. Italienische Renaissancebauten wurden klar, überschaubar und harmonisch ausgewogen konzipiert. Die Architekten orientierten sich bei den Grundrissen an einfachen idealen geometrischen Formen wie dem Quadrat oder dem Kreis. Man entlehnt Bauelemente wie Säulen, Pilaster, Kapitelle, Dreiecksgiebel etc. direkt der (griechischen) Antike. So findet man an Säulen wieder dorische, ionische oder korinthische Kapitelle. Daneben kommt es zu einer vermehrten Verwendung der bereits der römischen Architektur bekannten toskanischen Säule, vor allem in den Untergeschossen der Renaissancebauten. Die einzelnen Bauglieder hatten unter sich und mit dem ganzen Gebäude in Übereinstimmung zu stehen. Man studiert die Architektur-Traktate des römischen Baumeisters Vitruv, um daraus Anhaltspunkte für idealschöne Proportionen zu gewinnen. Analogische Renaissance. Eine weitere Tendenz der Architektur besteht darin, der Antike entlehnte, aber auch neue formensprachliche Elemente wie in der mittelalterlichen Baukunst in analogischer Weise zu variieren, ohne eine streng gesetzmäßige Baukunst anzustreben. Wichtiger als die klassische Regel ist der inhaltliche Aspekt der antikisierenden Motive, die hohes soziales Prestige, aber auch antikes Ethos vermitteln. Die Nachahmung antiker Bauelemente wie Gebälke, Kapitelle oder Profile geschieht nicht in voller Strenge, sondern gemäß der mittelalterlichen Baupraxis nur imitatorisch-variierend. Teilweise stammen die Vorlagen aus der der Antike ähnlichen romanischen Architektur. Beispiel: Der Turm der Heilbronner Kilianskirche ab 1513. Häufig sind reiche Ornamentierungen durch Maßwerk, Arabesken, später durch Rollwerk, Beschlagwerk, Schweifwerk u. a. Die Vertikale in der Tradition der Gotik ist nach wie vor stark betont. Die Werkmeister sind in der Regel keine Intellektuellen wie in Italien, sondern oft der Tradition mittelalterlicher Handwerksbetriebe verpflichtet. Die Grundrisse und Fassaden sind oft asymmetrisch. Renaissance-Gotik oder auch Nachgotik. Eine dritte Tendenz ist die Weiterverwendung gotischer Motive, die im Gegensatz zu den antiken Formen als modern empfunden werden und gerne zur Kennzeichnung von Kirchengebäuden verwendet werden. Ein Beispiel ist die Kirche St. Mariä Himmelfahrt (Köln). Auf der Seite der Architekturtheorie findet sich erstere Tendenz im Architekturtraktat wieder, letztere im Musterbuch. Generell kann gesagt werden, dass je stärker eine Kultur das Mittelalter nicht als Kulturverfall und im Gegensatz zur Antike empfand, desto mehr die zweite und dritte Tendenz bevorzugt wurde. Das gilt vor allem im mittel- und im nordeuropäischen Raum, wo die Baukunst der Nordischen Renaissance völlig andere Formen erreichte. In Frankreich war die klassische antikisierende Strenge der Hochrenaissance gegen 1550 eingeholt (vgl. Westflügel des Louvre 1550–1558 durch Pierre Lescot), daneben gab es noch zahlreiche Kirchenbaustellen, auf denen noch mit gotischen Motiven gebaut wurde. Auf der iberischen Halbinsel bilden beide Tendenzen ein Nebeneinander, das sich bis in die Barockzeit fortsetzt. Im germanischen Europa und in Polen kam es teilweise zu einer Vermischung beider Tendenzen (z. B. Heidelberger Schloss oder das Wawel-Schloss in Krakau), jedoch blieb die analogische Form der Renaissance bis zum Schluss dominant. Dichter und Schriftsteller der Renaissance. In der Literatur leiten im 14. Jahrhundert Dante Alighieris „Göttliche Komödie“ ("La Divina Commedia," 1307–1321), Francesco Petrarcas Briefe, Traktate und Gedichte und Giovanni Boccaccios "Il Decamerone" (1353) das Zeitalter der Renaissance ein. Graf Baldassare Castiglione beschreibt in "Il Libro del Cortegiano" (1528) den Idealtypus eines Renaissancemenschen. Die Literatur nahm nach der Erfindung des Buchdrucks mit beweglichen Lettern durch Johannes Gutenberg in der Renaissancezeit einen ungeheuren Aufschwung. Musik. In der Renaissance war zunächst die franko-flämische Musik stilbestimmend, ab der Mitte des 16. Jahrhunderts kamen die wesentlichen Impulse dann aus Italien, besonders durch Komponistenströmungen wie die Florentiner Camerata, die Römische Schule und die Venezianische Schule. Wirtschaft und Soziales. Ökonomisch kam es in der Renaissance zur Durchbrechung des mittelalterlichen Zinsverbots und zur Abschaffung der mittelalterlichen Brakteaten­währung. Dies ermöglichte einerseits den Aufstieg der frühneuzeitlichen Bankhäuser wie die der Fugger oder der Medici, andererseits bedeutete das für viele, insbesondere für die Landbevölkerung, einen beträchtlichen sozialen Abstieg. Die sich daraus ergebenden sozialen Spannungen entluden sich u. a. durch die Bauernkriege. Die Einführung der Doppelten Buchführung in Konten erlaubte eine sehr viel stärkere Kontrolle des Erfolges wirtschaftlicher Unternehmungen. Mathematik. Die Renaissance ist nicht nur eine Kunstepoche, sondern auch eine Kulturepoche. In der Mathematik ist sie geprägt durch eine Wiederbelebung der griechischen Mathematik. Leibesübungen und Sport. Leibesübungen wurden wie in der Antike in der gesamten Breite der Verwertungszusammenhänge praktiziert und erkundet. Das moderne Denken zeigte sich in der Ausformulierung des Regelwerks, in der Anwendung der Naturwissenschaften und der Mathematik (vor allem der Geometrie) auf den Sport. Leibesübungen wurden zum Zwecke der Gesundheit, des Kriegshandwerks, der Selbstverteidigung oder einfach als Wettkampfsport betrieben. Das sich wandelnde Körperverständnis zeigte sich auch im Tanz und weiteren Körperpraktiken. Rom. Rom (lat. "Rōma"; ital. "Roma"; beides), amtlich "Roma Capitale", ist die Hauptstadt Italiens. Mit etwa 2,8 Millionen Einwohnern im Stadtgebiet bzw. rund 3,3 Millionen Einwohnern in der Agglomeration ist sie die größte Stadt Italiens. Rom liegt in der Region Latium an den Ufern des Flusses Tiber. Rom wurde erstmals im 1. Jahrhundert v. Chr. vom Dichter Tibull "Ewige Stadt" genannt. Diese Bezeichnung, ursprünglich eine Antonomasie, wurde zu einem Ehrennamen für die Stadt wegen der Bedeutung in ihrer bis heute drei Jahrtausende umspannenden Geschichte. Sie ist heute Verwaltungssitz der Region Latium und der Metropolitanstadt Rom, bis 2015 Provinz Rom. Innerhalb der Stadt bildet der unabhängige Staat der Vatikanstadt eine Enklave. Der Vatikan ist der Sitz des Papstes, d.h. des Bischofs von Rom und Oberhaupts der römisch-katholischen Kirche. Zudem ist Rom Sitz des Malteser-Ritterordens, der ein eigenständiges (jedoch nichtstaatliches) Völkerrechtssubjekt ist, sowie der UNO-Unterorganisationen FAO, IFAD und WFP. Rom ist außerordentlich reich an bedeutenden Bauten und Museen und Ziel zahlreicher Touristen. Die Altstadt von Rom, der Petersdom und die Vatikanstadt wurden von der UNESCO im Jahr 1980 zum Weltkulturerbe erklärt. Ausdehnung des Stadtgebietes. Rom liegt in der Mitte Italiens am Tiber, unweit des Tyrrhenischen Meeres, durchschnittlich 37 Meter über dem Meeresspiegel. In mehreren Windungen fließt der Tiber in südlicher Richtung durch die Stadt. Im Norden mündet in ihn im Stadtteil Parioli der Aniene. Die weitere Umgebung ist die Campagna Romana oder kurz "Campagna". Im Osten Roms befinden sich die Abruzzen, im Nordosten die Sabiner Berge und im Südosten die Albaner Berge. Die Metropolitanstadt Rom grenzt im Norden an die Provinz Viterbo und die Provinz Rieti, im Osten an die Provinz L’Aquila in der Region Abruzzen sowie im Süden an die Provinz Frosinone und die Provinz Latina. Stadtgliederung. Rom gliedert sich in vier Stadtbezirke, 15 Munizipien und 155 Stadtbereiche. Die 15 (bis zum 11. März 2013 19) Munizipien sind: (1) Centro Storico (Altstadt) und Prati, (2) Parioli und Nomentano – San Lorenzo, (3) Monte Sacro, (4) Tiburtina, (5) Prenestino und Centocelle, (6) delle Torri, (7) San Giovanni und Cinecittà, (8) Appia Antica, (9) EUR, (10) Ostia, (11) Arvalia Portuense, (12) Monte Verde, (13) Aurelia, (14) Monte Mario und (15) Cassia Flaminia. Der alte Municipio 14 wurde 1992 ausgemeindet und ist heute die selbstständige Stadt Fiumicino. Die Altstadt (Municipio 1) ist in 22 Rioni eingeteilt, die teilweise bis in die Antike zurückgehen. Sie haben heute keine verwaltungstechnische Bedeutung mehr. Einen realistischen Überblick über die historische Stadt vermittelt auch das 16 m × 17 m große Gips-Modell, der „Plastico di Roma Antica“, im Museo della Civiltà Romana im Maßstab 1:250. Klima. Das Klima Roms ist typisch mediterran sommertrocken (arid) und winterfeucht (humid). Die Trockenheit im Sommer ist auf die Verlagerung des subtropischen Hochdruckgürtels zurückzuführen; in dieser Hochdruckzone sinkt die Luft ab, und Wolken werden dabei aufgelöst. Der subtropische Hochdruckgürtel verlagert sich im Winter nach Süden, und von Norden her erfasst eine feuchte außertropische Westwindzone das Mittelmeergebiet. Geschichte. → "Siehe auch: Römisches Reich (Geschichte des römischen Reichs)" Gründung. Nach der Gründungssage wurde Rom am 21. April 753 v. Chr. von Romulus gegründet. Romulus brachte demnach später seinen Zwillingsbruder Remus um, als sich dieser über die von Romulus errichtete Stadtmauer belustigte. Die Zwillinge waren der Sage nach die Kinder des Gottes Mars und der Vestalin Rhea Silvia. Sie seien auf dem Tiber ausgesetzt, von einer Wölfin gesäugt und dann von dem Hirten Faustulus am Velabrum unterhalb des Palatin gefunden und aufgezogen worden. Der römische Astrologe Lucius Tarrutius, ein Freund des Gelehrten Marcus Terentius Varro, berechnete abweichend von dem bekannten Gründungsdatum den 4. Oktober 754 v. Chr. zwischen der 2. und 3. Tagesstunde als Zeitpunkt der Gründung, wobei er von einem Geburtshoroskop des Romulus ausging. Die Etymologie des Wortes "Roma" ist ungeklärt, seit der Antike gibt es dazu unterschiedliche Theorien. Eher unwahrscheinlich scheint die Herkunft aus dem altgriechischen "Ῥώμη" (Romē) mit der Bedeutung „Kraft, Stärke“. Naheliegender scheint ein Zusammenhang mit der Wurzel "*rum-", „weibliche Brust“, mit einem eventuellen Hinweis auf die Wölfin, die der Sage nach Romulus und Remus aufgezogen hat. Möglicherweise ist der Name "Roma" auch von einem etruskischen Geschlecht, den Rumina, abgeleitet. Das traditionelle Gründungsdatum Roms ist der Beginn der Zeitskala des Römischen Kalenders, lat. "ab urbe condita", abgekürzt "a.u.c.", deutsch „von der Gründung der Stadt (Rom) an“. Ausgrabungen auf dem Palatin brachten Siedlungsreste aus der Zeit um 1000 vor Christus zutage; wahrscheinlich wurden einige latinische und sabinische Dörfer dann um 800 v. Chr. (vielleicht durch Etrusker) zu einer Stadt vereinigt oder wuchsen zusammen. Königszeit und Republik. Schematische Karte der sieben Hügel Roms Die Zusammenfassung einzelner Siedlungen zu einem Gemeinwesen könnte sich also nach Auffassung der Historiker tatsächlich um das legendäre Gründungsdatum herum ereignet haben. Die sprichwörtlichen sieben Hügel Roms sind: Palatin, Aventin, Kapitol, Quirinal, Viminal, Esquilin und Caelius. Heute erstreckt sich das Stadtgebiet auch über die bekannten Hügel Gianicolo, Vaticano und Pincio. Zu Beginn seiner Geschichte war Rom ein Königreich; als ersten der – großteils legendären – Nachfolger des Romulus nennt Titus Livius Numa Pompilius. Nach Vertreibung des letzten etruskischen Königs Tarquinius Superbus – angeblich im Jahr 509 v. Chr. – wurde Rom eine Republik – wenngleich dies wohl tatsächlich erst um 475 v. Chr. geschah. Die Folgezeit war von Ständekämpfen zwischen den rechtlosen, wenn auch freien Plebejern und den adeligen Patriziern gekennzeichnet. Rom begann nun damit, die umliegenden Gebiete anzugliedern. Obwohl sich Rom 390 v. Chr. einer Invasion der Kelten kaum erwehren konnte, expandierte die Stadt dennoch ständig. Zum Schutz vor weiteren Übergriffen wurde die Servianische Mauer errichtet (siehe in der Abbildung "Die sieben Hügel Roms"). 312 v. Chr. folgte der Bau des ersten Aquädukts sowie der Bau der Via Appia. Zur Expansion Roms trugen insbesondere auch die schließlich erfolgreichen Punischen Kriege (264–146 v. Chr.) gegen das nordafrikanische Karthago bei, das den westlichen Mittelmeerraum kontrollierte. Nachdem die Brüder Tiberius und Gaius Sempronius Gracchus, die als Volkstribunen versucht hatten, Landreformen durchzusetzen, ermordet worden waren, kam es zu einer Phase der Instabilität, die in Bürgerkriegen ihren Höhepunkt fand. Gaius Iulius Caesar setzte als Diktator eine Reihe von Reformen durch, wurde jedoch 44 v. Chr. ermordet. Zu diesem Zeitpunkt erreichte das Forum Romanum bereits eine Bebauungsdichte, die eine Ausweitung des Areals nötig machte. Aus diesem Grund hatte Caesar mit dem Bau des Forum Iulium begonnen. Kaiserzeit. Im 1. Jahrhundert v. Chr. war Rom wohl bereits eine Millionenstadt und sowohl geografisches als auch politisches Zentrum des Römischen Reiches. Es verfügte über ein funktionierendes Frisch- und Abwassersystem, ein ausgebautes Straßennetz und funktionierende Bevölkerungsschutzeinheiten (Vigiles), die als Feuerwehr mit Polizeibefugnissen ihren Dienst versahen. Der Ausbau Roms, der besonders unter Caesars Erbe Augustus forciert worden war, wurde durch einen großen Brand von Rom unter Nero im Jahr 64 vorübergehend zurückgeworfen. Unter der Herrschaft der Flavischen Dynastie (69–96 n. Chr.) begannen umfangreiche Bautätigkeiten. Zu diesen neuen Bauwerken gehören einige der berühmtesten Baudenkmale wie das Kolosseum und ein Teil der Kaiserforen. Das letzte dieser Foren wurde Anfang des 2. Jahrhunderts unter Trajan fertiggestellt. Diese Zeit wird vielfach als Höhepunkt des römischen Reiches angesehen. Große Thermen wie die von Caracalla und Diokletian, welche sogar Bibliotheken einschlossen, waren fester Bestandteil des römischen Lebens geworden. Besessen vom Gigantismus errichteten die Kaiser immer größere Bauwerke, wie die Maxentiusbasilika. Dies gilt manchen als Indiz für einen beginnenden Niedergang des Kaiserreiches. Ferner wurde im dritten Jahrhundert die Aurelianische Mauer errichtet, da die Stadt über die Grenzen der Servianischen Mauer hinausgewachsen war. Spätantike und Niedergang. Zu Beginn der Spätantike erreichte Rom wohl seine größte Bevölkerungszahl; die häufigsten Annahmen liegen etwa bei geschätzt 1,5 Millionen Einwohnern. Die Stadt verlor aber bald an politischer Bedeutung, da die verschiedenen Kaiser andere Residenzen (darunter Ravenna, Konstantinopel, Mailand, Trier, Thessaloniki, Split) bevorzugten. Im 5. und 6. Jahrhundert kam es zu Katastrophen, die das Ende der antiken Herrlichkeit der Stadt bedeuteten: Auch die im 3. Jahrhundert errichtete Aurelianische Mauer konnte nicht verhindern, dass Rom während der Völkerwanderung 410 von den Westgoten und 455 von den Vandalen geplündert wurde. Nach dem formellen Untergang des Weströmischen Reiches im Jahr 476 wurden bekannte städtische Einrichtungen wie die Diokletiansthermen und das Kolosseum zunächst weiter unterhalten; trotz sinkender Einwohnerzahlen bestand das antike Leben fort. Prokopios hielt fest, dass die Bauwerke der Stadt während der Herrschaft der Ostgoten instand gehalten wurden. Um 530 lebten noch etwa 100.000 Menschen in Rom. Die zivilisatorische Katastrophe kam erst mit dem Gotenkrieg (535–554) und der in diesem Rahmen betriebenen Rückeroberungspolitik des oströmischen Kaisers Justinian. Die Kriegshandlungen führten zur endgültigen Zerstörung fast aller römischen Wasserleitungen (537), zur Auslöschung der das antike Erbe bewahrenden Senatorenschicht und zu einem mehrjährigen Aussetzen des städtischen Lebens durch oströmisch-gotische Belagerungskämpfe. Das letzte spätantike Bauwerk in der Stadt ist die 608 errichtete "Phokas-Säule". Die Stadt entging nur knapp einer vollständigen Zerstörung. Rom gehörte zwar formell seit 554 wieder zum Oströmischen Reich, die Ordnungsfunktionen wurden jedoch in den Zeiten der Völkerwanderung mehr und mehr von den Päpsten ausgeübt. Zwischen dem 8. und 11. Jahrhundert folgten weitere Belagerungen, Angriffe und Plünderungen durch Langobarden, Sarazenen und Normannen, so dass sich das bewohnte Stadtgebiet zeitweise kaum über die Tiberufer hinaus erstreckte. Die „Ewige Stadt“. Der Tiber und die Engelsbrücke Nachdem bereits in der späten Republik der Dichter Tibull für Rom die Umschreibung „die ewige Stadt“ gefunden hatte, wurde diese Vorstellung weiter entwickelt. So durch den römischen Dichter Vergil (70–19 v. Chr.), der nach dem Vorbild Homers die "Aeneis" verfasste, die eine Erzählung der Vorgeschichte und Bedeutung Roms darstellt. Dieses Buch wurde schon in jener Zeit zu einem Lehrbuch an römischen Schulen und gilt als das Nationalepos der Römer. Der Gott Jupiter prophezeit in diesem Werk die Ewigkeit Roms, dem keine räumlichen oder zeitlichen Grenzen gesetzt seien. Auch am Ende der Kaiserzeit (Mitte bzw. Ende des 4. Jahrhunderts n. Chr.) sprechen einige Autoren vom nie untergehenden Rom. Der Offizier und Geschichtsschreiber Ammianus Marcellinus (um 333–nach 391) begründet in seiner "Lebensanalogie" die Ewigkeit Roms damit, dass virtus (Kraft, Tugend) und fortuna (Glück) bei der Gründung einen Bund ewigen Friedens geschlossen hätten, welcher garantiert, dass Rom, solange Menschen leben, bestehen wird. Auch der Jurist und hohe Beamte Aurelius Prudentius Clemens (348–nach 405) verglich die Idee des Ewigen Rom mit der Idee des christlichen Rom. Das Römische Reich habe, so Prudentius, die Menge der Völker geeint und mit seinem Frieden den Christen den Weg bereitet. Weiterhin sei Rom nicht seiner Kraft beraubt oder gealtert, sondern könne immer noch zu den Waffen greifen, wenn die Kriege riefen. Hochmittelalter und Neuzeit. Die Seeschlacht vor Ostia stoppte 849 den dritten arabischen Angriff Seit Pippin erlangte Rom, das im Mittelalter nur noch etwa 20.000 Einwohner zählte, neue Bedeutung als Hauptstadt des Kirchenstaates (Patrimonium Petri) und als wichtigster Wallfahrtsort des Christentums neben Jerusalem und Santiago de Compostela. Neuer Glanz kam im Jahr 800 in die Stadt, als Karl der Große durch Papst Leo III. zum Kaiser des "Heiligen Römischen Reiches" gekrönt wurde. Zwischen 843 und 849 scheiterten drei Eroberungsversuche durch muslimische Araber, die Stadthälfte auf dem rechten Tiberufer aber wurde 846 geplündert. Das von der katholischen Kirche direkt in Rom vermutete Grab des nach dem Brand Roms unter Nero im Jahre 64 hingerichteten Apostels Paulus sowie zahlreiche andere Reliquien verhießen ab 1300 in den Heiligen Jahren den Pilgern außergewöhnliche Gnaden und Ablässe. Hierzu trug im Besonderen die Vermutung bei, dass Simon Petrus gemeinsam mit Paulus hingerichtet und in Rom begraben worden sein soll. Diese Annahme ist bis heute unter Historikern äußerst umstritten. Die Pilger stellten ein Standbein der Kommune dar, die sich seit dem 12. Jahrhundert um die Eigenverwaltung bemühte. Ein erstes Aufleben der Kommune im Streit mit dem Papsttum unter Beteiligung des Kirchenreformers Arnold von Brescia wurde mit der Kaiserkrönung Friedrich Barbarossas 1155 gewaltsam unterbrochen. Das Aufblühen Roms in der Renaissance wurde 1527 durch den "Sacco di Roma" („Plünderung Roms“) unterbrochen, als die Söldnertruppen Karls V. Rom plünderten und verwüsteten. In christlicher Zeit sind viele bedeutende Bauten entstanden, zum Beispiel die so genannten vier Patriarchalbasiliken Sankt Paul vor den Mauern über dem Grab des heiligen Apostels Paulus aus dem 4. Jahrhundert, der Lateran, ebenfalls aus dem 4. Jahrhundert, von Francesco Borromini barockisiert, Santa Maria Maggiore aus dem 5. Jahrhundert und vor allem der Petersdom, der in der heutigen Form aus der Renaissance und dem Barock stammt. In der Renaissance und im Barock fand die Stadt ein neues Gepräge, das hauptsächlich von Kirchen bestimmt wird, aber auch von neuen Straßenzügen mit Sichtachsen auf Obelisken, Palästen und Plätzen mit Brunnen. In diesem Zustand ist Rom bis heute verblieben, weshalb die römische Altstadt neben dem Vatikan eines der beiden Weltkulturerbe in der Stadt Rom darstellt. Hauptstadt Italiens. 1849 stationierte Frankreich Truppen im Kirchenstaat. Im Sommer 1870 – gerade war Sitzungspause des Ersten Vatikanischen Konzils – zog Frankreich diese nach seiner Kriegserklärung gegen Preußen aus Rom ab. Italienisches Militär nutzte die Gelegenheit und marschierte fast kampflos im Kirchenstaat ein; es entmachtete den Papst politisch und proklamierte wenig später Rom zur Hauptstadt Italiens. Am 26. Januar 1871 wurde Rom die Hauptstadt des im Zuge des Risorgimento als Königreich entstandenen italienischen Nationalstaates; zuvor hatten Turin und ab 1865 Florenz diese Rolle innegehabt. Der seiner weltlichen Macht beraubte Papst sowie große Teile der katholischen Bevölkerung standen diesem neuen Staat jahrzehntelang feindlich gegenüber. Sichtbares Zeichen der neuen Verhältnisse wurde das monumentale Nationaldenkmal Monumento Vittorio Emanuele II (für den gleichnamigen König) nördlich des Kapitolhügels und des Forum Romanum, das 1911 eingeweiht wurde. Gegen Ende des 19. Jahrhunderts setzte ein starker Zustrom aus den ländlichen Gebieten Italiens ein, so dass Rom erstmals seit der Antike über die Stadtgrenze der Aurelianischen Mauer hinauswuchs. Im Gefolge der gesellschaftlichen Konflikte nach dem Ersten Weltkrieg übernahmen 1922 die Faschisten unter Benito Mussolini die Macht in Italien. Unter dessen Herrschaft wurden die Differenzen zwischen Staat und Kirche durch die Lateranverträge mit dem Heiligen Stuhl 1929 beendet und der unabhängige "Staat der Vatikanstadt" begründet. Außerdem wurde in dieser Zeit im Zuge der propagandistischen Verherrlichung der römischen Antike Altertümer restauriert und neue Bauten sowie das Stadtviertel EUR ("Esposizione Universale di Roma") geschaffen. Als sich im Mai 1944 alliierte Truppen der Stadt näherten und eine Bombardierung des Stadtteils San Lorenzo begannen (wo sie deutsche Truppen und Nachschubzentren vermuteten), harrte Papst Pius XII. in Rom aus. Um ein zweites Monte Cassino oder gar Stalingrad zu verhindern, bemühte er sich um eine allseitige Erklärung Roms zur „offenen Stadt“. Auf deutscher Seite erhielt der Plan Unterstützung u.a. von Ernst von Weizsäcker und SS-General Karl Wolff. Der deutsche Generalfeldmarschall Albert Kesselring erklärte Rom Anfang Juni 1944 zur offenen Stadt und zog bis auf eine Nachhut alle Truppen ab. Am 4. Juni 1944 marschierten alliierte Truppen in Rom ein. Nach dem Zweiten Weltkrieg verließ 1946 König Umberto II. das Land und Italien wurde Republik. 1960 fanden in Rom die XVII. Olympischen Sommerspiele statt. Rom heute. Die großen Bauten des 20. Jahrhunderts wurden fast alle in den Außenvierteln wie dem E.U.R. errichtet, so etwa der Palazzo del Lavoro. In der Innenstadt dagegen sind Baumaßnahmen aus denkmalpflegerischen Gründen nur selten erlaubt. Derzeit finden große Grabungen im Bereich der antiken Kaiserforen statt. Im modernen Stadtbild ist die Vergangenheit noch an vielen Stellen anzutreffen. So ist etwa das Theater des Pompeius am Campo de’ Fiori aus dem 1. Jahrhundert v. Chr., in dessen Vorhof zu Cäsars Zeit die Kurie untergebracht war und er wohl auch getötet wurde, noch zu großen Teilen erhalten. Allerdings ist im Verlauf der Jahrhunderte aus dem Halbrund für die Zuschauer eine Wohnbebauung geworden. Heute befinden sich darin Keller und eine Tiefgarage, Restaurants und Bars, Privatwohnungen und Hotelpensionen. Alle Zimmer haben auf Grund der ursprünglichen halbrunden Theaterstruktur einen trapezförmigen Grundriss. Die Erneuerung der Stadt stellt die Römer im Alltag oft vor große Probleme. Schon der Bau einer riesigen Tiefgarage zum Jahr 2000 in einen Tuffhügel am Petersplatz war umstritten, weil die Zerstörung archäologischer Reste befürchtet wurde. Aus demselben Grund wurde die dringend benötigte dritte Metro-Linie bis heute nicht gebaut. Größere Probleme als die historische Innenstadt machen die oft unschönen Vorstädte mit ihrer hohen Kriminalitätsrate. Dort waren nach dem Zweiten Weltkrieg oft nachträglich gegen eine Gebühr genehmigte Gebäude fast unkontrolliert in die römische Campagna gebaut worden. Während in der Innenstadt die Kirchen aufgrund ihrer Überzahl oft kaum noch zu erhalten sind, fehlten sie in der Umgebung häufig völlig. Bis heute sind in der einstigen Stadt der „Thermen für alle“ öffentliche Bäder kaum vorhanden. Die Einwohner, die es sich leisten können, besitzen eine Wohnung in einem der oft begrünten und sorgsam gepflegten Innenhöfe oder gar eine kleine Villa im Stadtbereich. Insgesamt hat sich seit der Wahl von Bürgermeister Francesco Rutelli Anfang der 1990er Jahre und unter der Regierung von Silvio Berlusconi die Situation nur wenig gebessert. Unter dem Pontifikat Papst Johannes Pauls II. erlebte die Stadt zweimal einen nie zuvor da gewesenen Menschenandrang. Im Jahr 2000 kamen zum Gottesdienst am Weltjugendtag zwei Millionen Menschen vor die Tore der Stadt. An den Begräbnisfeierlichkeiten am 8. April 2005 auf dem Petersplatz nahmen 200 Staats- und Regierungschefs sowie drei bis vier Millionen Menschen aus aller Welt teil, von denen aber nur 300.000 Platz fanden, die übrigen verfolgten die Zeremonien auf Videogroßbildschirmen. Einwohnerentwicklung. Roms Geschichte begann etwa 800 v. Chr. mit einem Bündnis verschiedener kleiner Dörfer mit wenigen hundert bis tausend Einwohnern. Von da an wuchs Rom in den nächsten Jahrhunderten kontinuierlich zu einer Megastadt, die über eine Million Einwohner zählte. Im Zuge der Verlegung bedeutender Hauptstadtfunktionen nach Konstantinopel im 4. Jahrhundert sowie des Zerfalls des Weströmischen Reiches im 5. Jahrhundert nahm die Bevölkerung deutlich ab und sank rasch bis zum Jahr 530 auf etwa 100.000. Im frühen Mittelalter war Rom mit 20.000 Einwohnern im Vergleich zu heute eine Kleinstadt. Erst mit dem Aufstieg des Kirchenstaates blühte Rom erneut auf und konnte als Wallfahrtszentrum bis zum Ende des 19. Jahrhunderts seine Einwohnerzahl wieder auf 230.000 steigern. Im 20. Jahrhundert wuchs Rom erneut zur Millionenstadt heran, indem es in rund 100 Jahren seine Einwohnerzahl mehr als verzehnfachte. Die folgende Übersicht zeigt die Einwohnerzahlen nach dem jeweiligen Gebietsstand. Bis 1858 handelt es sich um Schätzungen, von 1871 bis 2001 um Volkszählungsergebnisse und 2005 um eine Fortschreibung des Nationalinstituts für Statistik (ISTAT). Bevölkerungsentwicklung von Rom zwischen 1750 und 2005 (*) Schisma 1309–1376, Pestepidemie 1348/50 Religionen. Blick auf Rom. Im Vordergrund die Vatikanischen Museen In der Antike war die römische Religion mit ihren Kulten die am weitesten verbreitete Religion in der Stadt. Dennoch waren in diesem Kulturzentrum auch andere Religionen vertreten, wie zum Beispiel der Mithraskult und weitere Mysterienkulte. Auf dem Palatin befand sich ein Tempel der Kybele oder Magna Mater, im Viertel rechts des Tiber, dem Trastevere, wo sich ursprünglich auch die jüdische Gemeinde angesiedelt hatte, war ein syrisches Heiligtum, auf dem Kapitol stand ein Heiligtum des Serapis und einen Tempel für Isis und Serapis, das Iseum Campense, gab es auf dem Marsfeld. Bereits sehr früh entstand eine christliche Gemeinde in der Stadt, welche trotz der Christenverfolgungen rasch anwuchs. Mit der Herrschaftszeit Konstantins des Großen nahm das Christentum im Römischen Reich einen Aufschwung und überlebte auch dessen Untergang. Nachdem die Stadt mehrfach von heidnischen Völkern geplündert und zerstört wurde, setzte sich Rom als Zentrum des Kirchenstaates durch. Infolgedessen wurden in Rom zahlreiche Kirchen errichtet, die die wichtigsten kirchlichen Heiligtümer beherbergen. 1797 wurde Rom von Napoléon Bonaparte im Italienfeldzug erobert. Nach dem Wiener Kongress wurde es 1815 wieder unter päpstliche Hoheit gestellt. Das italienische Nationalbewusstsein war unter der französischen Besatzung gewachsen (siehe Risorgimento). 1861 wurde das Königreich Italien gegründet. Als Frankreich infolge des Deutsch-Französischen Krieges seine Schutztruppen aus Rom abzog, eroberten italienische Truppen ab 11. September 1870 den Kirchenstaat; es gab keinen nennenswerten Widerstand. Am 20. September 1870 wurde Rom eingenommen („Breccia di Porta Pia“). Der Papst zog sich daraufhin in den Vatikan zurück, der 1929 in den Lateranverträgen als eigenständiger Staat anerkannt wurde. Rom (besonders der Vatikan) ist ein großes geistliches Zentrum des Christentums. Bürgermeister. Bei den Stichwahlen am 9. und 10. Juni 2013 wurde Ignazio Marino (PD) zum Bürgermeister gewählt. Er gewann mit 63,9 % gegen den Amtsinhaber Gianni Alemanno (PdL). Giovanni Alemanno wurde am 28. April 2008 zum Bürgermeister von Rom gewählt. In der Stichwahl erreichte er gegen den früheren Bürgermeister Francesco Rutelli 53,7 % der Stimmen. Der bisherige Bürgermeister Walter Veltroni wurde 2001 gewählt und am 28. Mai 2006 für eine zweite Amtszeit mit 61 % der Stimmen im ersten Wahlgang im Amt bestätigt. Giovanni Alemanno scheiterte damals mit nur 37,1 %. Veltroni trat am 13. Februar 2008 als Bürgermeister, wegen seiner Kandidatur bei den Parlamentswahlen, zurück. Überblick. St. Paul vor den Mauern Rom wurde der Überlieferung zufolge im Jahre 753 v. Chr. auf einem der sieben Hügel gegründet. Jedoch lassen Funde darauf schließen, dass schon 1000 v. Chr. in diesem Bereich menschliche Siedlungen existiert haben müssen. Besonders das Bild des Hügels Palatin und des nördlich gelegenen Tales ist durch antike Bauwerke bestimmt. Dies ist darauf zurückzuführen, dass der Palatin in der Kaiserzeit Residenzhügel der Kaiser war, während sich im Tal zwischen dem Palatin und dem Kapitol das Forum Romanum befand, das Zentrum des städtischen Lebens im antiken Rom. Als Innenstadt Roms gilt der Bereich innerhalb der Aurelianischen Mauer, die im 3. Jahrhundert um das Gebiet der sieben Hügel Kapitol, Quirinal, Viminal, Esquilin, Caelius, Aventin und Palatin errichtet wurde. Das historische Zentrum breitet sich zum großen Teil am linken Ufer des Tibers aus. Hier befinden sich die meisten und größten Baudenkmäler aus der Antike. Die christlichen Gebäude hingegen sind auf beiden Seiten des Tiber verstreut. Die Vatikanstadt mit dem weithin sichtbaren Petersdom befindet sich jedoch auf der rechten Seite des Tiber. Das historische Zentrum von Rom, der Petersdom und die Vatikanstadt wurden von der UNESCO im Jahre 1980 zum Weltkulturerbe erklärt. Die äußere Stadt und die Peripherie Roms befinden sich im Bereich außerhalb der aurelianischen Mauer. Die Konzentration antiker Bauwerke ist hier deutlich geringer, wenn man auch immer wieder solche antrifft. Man findet jedoch zahlreiche Kirchen, welche auch in diesem Bereich errichtet wurden, so zum Beispiel die Basilika St. Paul vor den Mauern. Die 1995 errichtete „Große Moschee“, 1150 Jahre nach einer gescheiterten Belagerung durch die Muslime, war bis 2005 die größte Moschee Europas und ein Zentrum des Islam in Italien. Theater. Rom spielt eine führende Rolle im italienischen Kulturleben. Im Opernhaus der Stadt, dem Teatro dell’Opera di Roma, das zu den größten in Italien zählt, werden Opernaufführungen geboten, die im Sommer auch in den Caracalla-Thermen stattfinden. Außerdem gibt es in Rom etwa 150 Theater und sechs Konzertsäle, die außerhalb der Sommermonate mit einem abwechslungsreichen Programm aufwarten. Eines der ältesten Theater Roms ist das Teatro Argentina, das auf das Jahr 1732 zurückgeht. Im April 2002 wurde im nördlichen Teil der Stadt ein Konzertpark eröffnet; das rund 50.000 Quadratmeter große Areal umfasst unter anderem drei Konzerthallen mit 700, 1.200 und 2.700 Plätzen, die nach Plänen des Genueser Architekten Renzo Piano erbaut wurden. Museen. Das älteste Museum Roms sind die 1471 eingerichteten Kapitolinischen Museen, die neben den wesentlich größeren Vatikanischen Museen zu den bedeutendsten Kunstkollektionen Roms gehören. In der Villa Giulia, dem Landhaus Papst Julius III., welches Mitte des 16. Jahrhunderts errichtet wurde, ist eine herausragende Sammlung etruskischer und antik-römischer Kunst untergebracht. Die Kunstsammlung der Familie Borghese wird in deren Palast aus dem frühen 17. Jahrhundert ausgestellt. Sie trägt den Namen Galleria Borghese und besteht vor allem aus Gemälden und Plastiken. In einem von Michelangelo entworfenen Kloster befindet sich das Museo Nazionale Romano. Hier sind griechische und römische Plastiken ausgestellt. Ebenfalls bedeutend sind die Gemäldegalerien im Palazzo Doria-Pamphilj und im Palazzo Colonna, die Renaissance-Bronzensammlung im Palazzo Venezia und die Gemäldesammlung im Palazzo Barberini. Bauwerke. Rom vom Petersdom aus gesehen Rom beherbergt als eine der großen Kulturstädte Europas zahlreiche Denkmale von der Zeit der Etrusker bis hin zur Gegenwart, wobei die Zeugnisse aus der Zeit der etruskischen Könige und der römischen Frühgeschichte eher spärlich sind. Umso umfangreicher sind die Hinterlassenschaften aus der Epoche des Römischen Reiches. Sie reichen vom fast vollständig erhaltenen Pantheon (gegründet im Jahre 27 v. Chr., wiederaufgebaut zwischen 118 und 128 n. Chr.), dem einzigen erhaltenen Kuppelbau der Antike, bis zum eindrucksvollen Kolosseum (fertiggestellt 80 n. Chr.), dem größten Amphitheater der Antike, das Austragungsstätte von Gladiatorenkämpfen und anderen Schauspielen war. Seit dem Jahre 1999 dient das Kolosseum auch als Monument gegen die Todesstrafe: Immer wenn ein Staat dieser Welt die Todesstrafe abschafft, wird das Kolosseum 48 Stunden lang hell erleuchtet – was aber nur selten geschieht. In der Stadt findet man neben den antiken Stadtmauern Triumphbögen, einzigartige Kirchen und Paläste sowie große öffentliche Plätze; besonders bedeutend sind das Forum Romanum und die Kaiserforen, ebenso die Caracalla-Thermen (erbaut um 217 n. Chr.), die heute als Szenerie für die Opernaufführungen im Sommer genutzt werden, die Katakomben – weit verzweigte unterirdische Anlagen, in denen Christen ihre Gottesdienste feierten und bestattet wurden – und die Engelsburg, die als Mausoleum für den römischen Kaiser Hadrian erbaut und im Mittelalter zu einer Festung ausgebaut wurde. Im 4. Jahrhundert wurde die Kirche San Paolo fuori le mura gebaut und nach der Zerstörung durch einen Brand im Jahre 1823 wiedererrichtet. Die Basilica San Giovanni in Laterano wurde im 4. Jahrhundert errichtet und im 17. und 18. Jahrhundert im Wesentlichen wiederaufgebaut. Die aus dem 5. Jahrhundert stammende Kirche San Pietro in Vincoli ist im 15. Jahrhundert restauriert worden und beherbergt die berühmte Moses-Statue von Michelangelo Buonarroti. Weitere bedeutende Bauwerke sind die Piazza Navona mit drei Brunnen (darunter die Fontana dei Quattro Fiumi, ein Hauptwerk des italienischen Bildhauers Gian Lorenzo Bernini), die Piazza del Campidoglio (Kapitolsplatz mit einer Bronzestatue des Kaisers Marcus Aurelius, die im 2. Jahrhundert n. Chr. fertiggestellt wurde), die Fontana di Trevi (ein Barock-Brunnen aus dem 18. Jahrhundert, in den Touristen traditionell Münzen hineinwerfen und sich etwas wünschen) und die Piazza di Spagna mit der berühmten, aus dem 18. Jahrhundert stammenden Spanischen Treppe, die zu der aus dem 15. Jahrhundert stammenden Kirche Santa Trinità dei Monti hinaufführt. Weitere Sehenswürdigkeiten des christlichen Rom sind über die gesamte Stadt verstreut. Das christliche Zentrum bildet hierbei der nicht zugängliche Staat der Vatikanstadt mit dem Petersdom. Weitere große Kirchen wie die Lateranbasilika, Santa Maria Maggiore, Sankt Paul vor den Mauern befinden sich innerhalb des Stadtgebiets. Die meisten Kirchen sind besonders prunkvoll ausgestattet und enthalten Kunstwerke von unschätzbarem Wert. Sehenswert und von allen Panoramapunkten aus zu erblicken ist auch die Große Synagoge. Sehenswürdigkeiten des modernen Rom befinden sich eher in den äußeren Bezirken der Stadt, wie zum Beispiel Bauwerke für die Olympischen Sommerspiele 1960, entworfen von Pier Luigi Nervi, einem der führenden italienischen Architekten des 20. Jahrhunderts, aber auch Ehrenmäler und Hochhäuser. Über die ganze Stadt verteilt sind zahlreiche weitere Baudenkmäler, Plätze, Brunnen und Obelisken, welche von großen Künstlern geschaffen und prunkvoll verziert wurden. Im Westen der Stadt entstand 1972–1982 mit dem Wohnkomplex Corviale das längste Wohnhaus Europas. Sport. Das Olympiastadion (rechts) und der Tiber (links) In der Stadt gibt es mit dem 1900 gegründeten Lazio Rom und dem im Jahre 1927 gegründeten AS Rom zwei national und international bedeutende Fußballvereine. Beide Vereine tragen ihre Heimspiele im 85.000 Zuschauer fassenden Olympiastadion aus. Der AS Rom wurde dreimal Italienischer Meister, neunmal Italienischer Pokalsieger und gewann einmal (1961) den UEFA-Pokal. Lazio Rom wurde zweimal Meister, sechsmal Pokalsieger und gewann einmal (1999) den Europapokal der Pokalsieger. Rom war Austragungsort der Olympischen Sommerspiele 1960 und der ersten Paralympics überhaupt. Das Olympiastadion liegt im Norden der Stadt. An einem Sonntag im März wird jedes Jahr der Rom-Marathon ausgetragen. Einige Wochen zuvor findet der Halbmarathon Roma – Ostia statt. Kulinarische Spezialitäten. Das kulinarische Angebot in Rom ist abwechslungsreich und reicht von der Küche berühmter Köche wie Heinz Beck bis zur typisch römischen Küche mit Einflüssen von der jüdischen Küche zur Zubereitung von Schalentieren über Spezialitäten aus Latium bis hin zu Fischgerichten. Typische Gerichte der römischen Küche sind die „coda alla vaccinara“, Ochsenschwanz in Wein mit Tomaten und Pfefferschoten gekocht, die „pajata“, gefüllter Kalbsdarm mit Tomatensoße, das "abbacchio alla scottadito" (Milchlammkoteletts), oder die "trippa alla romana" (Kutteln in Tomaten-Minzsoße), die mit der Zeit immer weiter verfeinert wurden und heute Spezialitäten sind. Schmackhaft sind auch die Supplì, frittierte Reisklößchen gefüllt mit Mozzarella, gefüllte Zucchiniblüten und Bruschette geröstete Brotscheiben mit Öl und Knoblauch oder auch in vielen anderen Varianten, beispielsweise mit Tomaten. Eine weitere römische Spezialität sind verschiedene Zubereitungsarten von jungen Artischocken, beispielsweise "alla Romana" mit Knoblauch und Minze im Ofen gedünstet oder frittiert "alla Giudea", und aus der jüdisch-römischen Küche kommt das beliebte "Baccalà", frittierte Kabeljaufilets, die oft als Imbiss zwischendurch gegessen werden. Auch zwei der berühmtesten Nudelgerichte kommen aus Rom, die „Bucatini all’amatriciana“, das sind Hohlnudeln zubereitet mit Bauchspeck in Tomatensoße, und die „Spaghetti alla carbonara“. Sie wurden einer Legende nach in der Besatzungszeit für amerikanische Soldaten als Ersatz für deren typisches Frühstück mit Speck und Ei erfunden, sind aber wohl schon viel länger bekannt, da sie in einem historischen Kochbuch aus dem 19. Jahrhundert beschrieben werden. Die traditionellen Restaurants der Stadt mit echten römischen Spezialitäten befinden sich überwiegend in Testaccio rund um den früheren Schlachthof. Wirtschaft. Rom ist seit dem Zweiten Weltkrieg der dynamischste Wirtschaftsstandort in Italien. Seine Wirtschaft basiert auf Dienstleistungsbranchen, profitiert speziell von ansässigen Staatsbetrieben sowie dem Fremdenverkehr. Daneben dominieren besonders der Groß- und Einzelhandel. Als Industriestandort produziert Rom vor allem die traditionellen Industrieerzeugnisse Textilien und Souvenirs für Touristen, sowie die neueren Erzeugnisse wie Nahrungsmittel, pharmazeutische Produkte, Maschinen, Papier- und Metallwaren. Daneben ist Rom wegen des Klimas und der Monumente auch für die Filmindustrie ein wichtiger Standort (Cinecittà). Flugverkehr. Rom ist mit drei Flughäfen ausgestattet. Der an der Küste gelegene interkontinentale Leonardo Da Vinci International Airport ist das wichtigste Luftfahrtdrehkreuz des italienischen Luftverkehrs und Italiens Hauptflughafen. Er ist allgemein als "Fiumicino Airport" bekannt, da er sich in der Gemeinde Fiumicino südwestlich von Rom befindet. Der ältere Flughafen Rom-Ciampino ist ein gemischter Verkehrs- und Militärflughafen. Er wird häufig als "Ciampino Airport" bezeichnet, da er in Ciampino südöstlich der Stadt liegt. Der kleine Flughafen Rom-Urbe ist vorwiegend für die Allgemeine Luftfahrt vorgesehen und befindet sich ungefähr 6 km nördlich des Stadtzentrums. Eisenbahn. Als einer der zentralen Knotenpunkte des italienischen Eisenbahnsystems verfügt Rom über die Bahnhöfe Roma Tiburtina, Roma Ostiense, Roma Tuscolana, Roma Trastevere, Roma San Pietro, Roma Aurelia sowie den Hauptbahnhof Roma Termini. Termini ist einer der größten Bahnhöfe Europas und mit ungefähr 400.000 Reisenden täglich einer der am häufigsten benutzten Italiens. Mit der Inbetriebnahme der neuen Hochgeschwindigkeitsbahnstrecke nach Neapel und dem Ausbau des Bahnhofs Roma Tiburtina werden Züge, die Rom nur als Durchgangsstation durchfahren, nicht mehr den Hauptbahnhof Termini anfahren. Der im Norden der Stadt gelegene Rangierbahnhof Roma Smistamento (italienisch: "Rangierbahnhof)" wird nach seiner Stilllegung in dieser Funktion noch weiterhin als Güterbahnhof genutzt. Ferner befindet sich in Rom die vom Bahnhof Roma San Pietro abzweigende kurze, nur dem Schienengüterverkehr dienende Strecke der Vatikanischen Staatsbahn. Straßenverkehr. Rom befindet sich im Zentrum eines sternförmigen Straßennetzes, das ausgehend vom kapitolinischen Hügel dem antiken Straßenverlauf folgt und damals Rom mit seinem Reich verband. Heute wird Rom von einem Autobahnring umschlossen (dem Grande Raccordo Anulare oder "GRA"), der sich etwa zehn Kilometer vom Stadtzentrum entfernt befindet. Die Stadt hat mit schweren Verkehrsproblemen zu kämpfen, da das sternförmige Straßensystem den Einwohnern nur die Fahrt durch das historische Zentrum oder auf der vollgestopften Ringautobahn zur Wahl lässt. Auch das Metrosystem, das im Vergleich zu anderen Städten gleicher Größe recht klein ausfällt, verschafft keine Abhilfe. Darüber hinaus kommen in Rom auf 10.000 Einwohner nur 21 Taxis, weit weniger als in anderen europäischen Großstädten. In einigen als verkehrsberuhigte Zone (ZTL) ("Zona a Traffico Limitato") ausgezeichneten Bereichen der Innenstadt ist zu Tagesstunden nur eingeschränkter Fahrzeugverkehr möglich. Das heißt, Privatautos dürfen sie tagsüber zwischen 6 und 18 Uhr nur mit einer speziellen Ausnahmegenehmigung befahren. Die Zonen wurden wegen der chronischen Überlastung des Straßenverkehrs während der 1970er und 1980er Jahre eingerichtet. In den beiden Stadtteilen Trastevere und San Lorenzo ist hingegen der Nachtverkehr so stark, dass dort entsprechende ZTLs während der Nachtzeit eingerichtet wurden. In Testaccio ist ebenfalls eine Nachtzeit-ZTL geplant. Allerdings hat eine großzügige Praxis der Ausnahmegenehmigungen den Effekt verwässert. Ausländische Reisebusse werden in Rom mit Einfuhrgebühren bis 210 Euro (Stand 2009) zur Kasse gebeten und dürfen dann nur zeitlich befristet oder überhaupt nicht parken. Öffentlicher Nahverkehr. Rom verfügt über ein ÖPNV-System, bestehend aus Bussen, Tram und U-Bahn (die Metropolitana). Die ganze Stadt ist durch ein System aus Express- und Stadtbussen erschlossen. Das Bus- und Straßenbahnnetz wird von der "Trambus S.p.A." betrieben, die zur "Azienda Tramvie e Autobus del Comune" (ATAC) gehört. Das Busnetz verfügt über 350 Buslinien mit mehr als 8000 Stationen. Die Straßenbahn von Rom nahm am 2. August 1877 den Betrieb auf. Sie verkehrt in sechs Linien auf einem 51,31 Kilometer langen Streckennetz und fährt 192 Haltestellen an. Nachdem zwischen dem 8. Januar 1937 und dem 2. Juli 1972 schon einmal Oberleitungsbusse in Rom gefahren waren, wurde das System auf einer Linie von 11,3 km nach einer Unterbrechung von 33 Jahren am 23. März 2005 wieder eingeführt. U-Bahn- und Regionalbahnstrecken in Rom (2011) Das U-Bahn-System verfügt nur über die Linien A und B, da eine Beschädigung vieler historischer Gebäude und Anlagen durch den Bau weiterer Tunnel befürchtet wurde. Die erste Strecke wurde in den 1930ern eröffnet und verband Termini mit dem Stadtviertel E42, in dem 1942 die geplante Weltausstellung stattfinden sollte. Die Strecke wurde 1955 in Betrieb genommen und gehört jetzt zur Linie B. Die Linie A wurde 1980 eröffnet und verband die Bahnhöfe Ottaviano und Anagnina. Von 1999 bis 2000 erfolgte der Ausbau nach Battistini. In den 1990ern wurde die Linie B von Termini nach Rebibbia erweitert. 2005 betrug die Gesamtlänge. Die beiden U-Bahn-Linien kreuzen sich in Termini. 2012 wurde die Linie B um eine lange Strecke mit vier Stationen erweitert (B1), die vom Bahnhof Piazza Bologna bis zur neuen Endhaltestelle Conca d’Oro führt. Es waren Kosten von voraussichtlich veranschlagt. Eine dritte Linie C ist zurzeit im Bau und wird die Regionalbahnstrecke Termini-Pantano ersetzen. Sie wird voraussichtlich kosten, lang sein und 30 Bahnhöfe anfahren. Auf der Strecke sollen vollautomatische fahrerlose Züge fahren. Der erste Abschnitt sollte 2011 und die letzten Abschnitte 2015 eröffnen, jedoch haben sich die U-Bahn-Arbeiten aufgrund von archäologischen Funden immer wieder verzögert. Darüber hinaus ist noch eine vierte Strecke Linie D mit 22 Stationen geplant, deren erster Abschnitt 2015 eröffnet und die nicht vor 2035 fertig sein wird. Medien. Weiter ist die Filmstadt Cinecittà sehr bekannt für erfolgreiche Produktionen. Die Rundfunkanstalt Radiotelevisione Italiana hat ebenfalls ihren Hauptsitz in Rom. Bildung. Rom hat drei staatliche Universitäten: Die Università degli Studi di Roma "La Sapienza" ist eine der ältesten Universitäten Europas (Gründung: 1303) und mit 147.000 Studenten die größte Universität Europas. Die beiden anderen Universitäten sind die "Tor Vergata" und "Roma Tre". Daneben bestehen mehrere katholische Universitäten als Einrichtungen des Heiligen Stuhls bzw. einzelner geistlicher Orden. Im Stadtteil Trastevere befindet sich die private "Amerikanische Universität". Außerdem ist Rom der Sitz der Nationalen Akademie der Wissenschaften (Accademia dei Lincei), der Päpstlichen Akademien, der Accademia di San Luca, der Nationalen Akademie für Tanz, der Nationalen Akademie für dramatische Kunst, des Musikkonservatoriums und des Zentralinstituts für die Restaurierung von Kunstwerken. Internationale Organisationen. Die Hauptverwaltungen zahlreicher internationaler Unternehmen und Organisationen haben ihren Sitz in Rom. Hierzu zählen unter anderem die Ernährungs- und Landwirtschaftsorganisation der Vereinten Nationen (FAO), der Internationale Fonds für landwirtschaftliche Entwicklung (IFAD), der Welternährungsrat (WFC) und das Welternährungsprogramm (WFP). Rhein. Der Rhein (,,) ist ein Strom in West- und Mitteleuropa. Sein Quellgebiet liegt überwiegend im Schweizer Kanton Graubünden, seine Mündungsarme erreichen in den Niederlanden die Nordsee. Das Einzugsgebiet hat Anteil an neun Staaten, sein größter Flächenanteil liegt in Deutschland, gefolgt von den Anteilen der Schweiz, Frankreichs, Österreichs und der Niederlande. Die fünf in der Länge, im Einzugsgebiet, sowie im Mittleren Abfluss (MQ) führenden Nebenflüsse sind in Fließrichtung die Aare, der Neckar, der Main, die Mosel und die Maas. Der Rhein ist der wasserreichste Nordseezufluss und eine der verkehrsreichsten Wasserstraßen der Welt. Der Strom steht mit seinen 1238,8 km jedoch in der Längenrangfolge der europäischen Flüsse erst an 7. Stelle, sofern man den Vergleich auf selbst ins Meer mündende Flüsse beschränkt, und wird unter Berücksichtigung von drei längeren Nebenflüssen der Wolga sogar auf die 10. Stelle verdrängt. Unter den Flüssen, die den deutschen Sprachraum berühren, liegt er jedoch hinter der insgesamt doppelt so langen Donau und vor der Elbe auf dem zweiten Platz. Der Lauf des Rheins wird nacheinander meist in die Hauptabschnitte Alpenrhein, Hochrhein (mit Bodensee), Oberrhein, Mittelrhein und Niederrhein eingeteilt. Vom letzten gliedert man manchmal noch einen untersten Abschnitt Deltarhein aus. Grunddaten. Der Rhein hat eine Gesamtlänge von 1238,8 km, davon sind 883 km für die Großschifffahrt nutzbar. Die mittlere Abflussmenge kurz vor der Verzweigung der Mündungsarme beträgt rund 2300 m³/s. Die höchste dort je gemessene Abflussmenge betrug 12.000 m³/s (1926), die niedrigste 600 m³/s (1947). Das Flusssystem insgesamt führt der Nordsee im Mittel rund 2900 m³/s zu. Das Einzugsgebiet des Rheins umfasst 218.300 km² (ohne die Maas: 185.300 km²).† Die administrativ definierte Flussgebietseinheit Rhein, die auch angrenzende Teile der Küste und der küstennahen Nordsee umfasst, wird mit 198.735 km² angegeben (das Maasgebiet ist eine eigene Flussgebietseinheit). Die Gewässerkennzahl des Rheins in Deutschland ist "2". Der Rhein ist – mit der Maas – der größte Fluss nordwestlich der europäischen Hauptwasserscheide. † Zum Vergleich: Wolga 1.360.000 km², Donau 795.686, Dnepr 531.817, Don 425.600, Weichsel 194.424, Elbe 148.268 km². Etymologie. Der Name „Rhein“ geht möglicherweise auf die indogermanische Wortwurzel "H1reiH-" für „fließen“ zurück. Aus dieser Wurzel entstanden u. a. auch das deutsche Verb "rinnen", das altgriechische Verb ' (fließen), das lateinische "rivus" (Fluss) – daraus dann spanisch "rio" und englisch "river". Die Kelten nannten den Fluss "Rhenos", die Römer "Rhenus". In der Antike wurde der Fluss zudem als "Rhenus Pater" („Vater Rhein“) verehrt. Möglicherweise wurde der Name zuerst von der vorrömischen Bevölkerung im Quellgebiet des Rheines benutzt und dann von Kelten und Römern übernommen. Der Name könnte aber auch von den Kelten selbst eingeführt worden sein. Der Name des Rheins in den romanischen und germanischen Sprachformen seines Einzugsgebiets lautet: rätoromanisch "Rein", alemannisch "Rhy", französisch "Rhin", vorderpfälzisch "Rhoi", südpfälzisch "Rhei", lëtzebuergesch (luxemburgisch) "Rhäin", ripuarisch "Rhing", niederländisch, niederdeutsch "Rijn", friesisch "Ryn". Abschnitte. Man untergliedert den Lauf des Rheins in den Bereich der Quellflüsse, den Alpenrhein, den aus Obersee, Seerhein und Untersee bestehenden Bodensee, den Hochrhein, den Oberrhein, den Mittelrhein, den Niederrhein und das Rhein-Maas-Delta. Quellflüsse. a> im Tal des Vorderrheins, Blick talabwärts nach Nordosten Der Abfluss aus dem Tomasee gilt traditionell als die Rheinquelle Der Rhein führt seinen Namen ohne unterscheidende Zusätze erst ab dem Zusammenfluss von Vorder- und Hinterrhein bei Tamins-Reichenau. Oberhalb dieses Punktes liegt das weitverzweigte Einzugsgebiet der Quellflüsse des Rheins. Es gehört fast ausschließlich zum schweizerischen Kanton Graubünden und reicht vom Gotthardmassiv im Westen über je ein im Tessin und in Italien liegendes Tal im Süden bis zum Flüelapass im Osten. Die Quellen des Rheins. Traditionell gilt der Tomasee nahe dem Oberalppass bei Sedrun im Gotthardgebiet als Quelle des Vorderrheins und des Rheins insgesamt. Der Hinterrhein entspringt im Hochtal des Rheinwalds unter dem Rheinwaldhorn. Die Quelle des Hauptfließwegs, der sich bei jeder Mündung über die jeweilige größere Wassermenge ergibt, liegt jedoch woanders, nämlich im Osten des Hinterrhein-Gebietes im Dischmatal. Der absolut längste Quellast, der Rein da Medel, entspringt im Süden des Vorderrhein-Gebietes gar auf Tessiner Kantonsgebiet. Hinterrhein. Der 64 km lange Hinterrhein fließt zunächst ostnordöstlich, dann nach Norden. Er durchfließt die drei Talkammern Rheinwald, "Val Schons" und Domleschg-Heinzenberg. Dazwischen liegen die Schluchtlandschaften "Roffla" und "Viamala". Seine Quellbäche liegen in den Adula-Alpen (Rheinwaldhorn, Rheinquellhorn, Güferhorn). Von Süden mündet der Averser Rhein ein, dessen Quellgebiet mit dem "Reno di Lei" (gestaut im Lago di Lei) teilweise auf italienischem Gebiet liegt. Bei Sils mündet aus Osten die dem Hinterrhein mindestens ebenbürtige Albula aus der Region des gleichnamigen Passes. Die Albula bezieht ihr Wasser vor allem vom Landwasser mit dem Dischmabach als größtem Quellbach, aber auch vom ebenfalls bedeutenden, vom Julierpass herabkommenden Nebenfluss Julia (Gelgia). Vorderrhein. Der 75 km lange Vorderrhein entsteht aus zahlreichen Quellbächen in der obersten Surselva und fließt in ostnordöstlicher Richtung. Eine Quelle ist der "Lai da Tuma" (Tomasee) (2345 m) mit dem ihn durchfließenden "Rein da Tuma", der üblicherweise als Rheinquelle angegeben wird. Ihm fließen von Süden teils längere, teils ebenbürtige Nebenflüsse zu wie der "Reno di Medel", der "Rein da Maighels" und der "Rein da Curnera". Die vom "Reno di Medel" entwässerte tessinische Val Cadlimo quert von Süden her den geomorphologischen Alpenhauptkamm. Alle Zuflüsse im Quellgebiet werden teilweise, mitunter restlos, gefasst und über Speicherseen den örtlichen Wasserkraftwerken zugeleitet. In seinem Unterlauf durchströmt der Vorderrhein die "Ruinaulta" genannte Schlucht durch die Flimser Bergsturzmassen. Alpenrhein. a>, kurz bevor er zum Grenzfluss zu Liechtenstein wird Bei Tamins-Reichenau vereinigen sich Vorder- und Hinterrhein zum Alpenrhein. Auf kaum 86 Kilometern Länge fällt er von 599 auf 396 Meter Höhe. Der Rhein knickt zunächst bei Chur, der Hauptstadt Graubündens, markant nach Norden ab. Das Rheintal ist ein glazial geprägtes, breit ausgeräumtes, alpines Kastental. Bei Sargans verhindert nur eine wenige Meter hohe Landstufe, dass der Rhein durch das offene Seeztal durch Walensee und Zürichsee in Richtung Aare fließt. Unterhalb davon ist sein Westufer schweizerisch, im Osten grenzen Liechtenstein und dann Österreich an. Der Rhein mit seinem von hohem Schwebfrachtgehalt hellen Wasser hat den anfangs weit in die Alpen reichenden Bodensee bereits großenteils mit Sedimenten aufgefüllt. Mit einer Rheinregulierung mit Durchstichen bei Diepoldsau und Fußach steuerte man den Überschwemmungen und der starken Sedimentation im westlichen Rheindelta entgegen. Hierdurch musste auch die Dornbirner Ach parallel zum kanalartig ausgebauten Rhein in den Bodensee geleitet werden. Der abgeschnittene Alte Rhein verlief zunächst in einer Sumpflandschaft, wurde aber später unterhalb von Rheineck kanalisiert und schiffbar gemacht. Der Rhein transportiert pro Jahr bis zu drei Millionen Kubikmeter Feststoffe in den Bodensee. Das in den Bodensee hineinwachsende "Rheindelta" (Binnendelta) ist zwischen dem Alten Rhein im Westen und dem unteren Rheindurchstich im Osten großenteils Natur- und Vogelschutzgebiet und umfasst die österreichischen Ortschaften Gaißau, Höchst und Fußach. Der natürliche Rhein verzweigte sich einst in mindestens zwei Hauptarme. Durch sich ablagerndes Geschiebe entstanden viele kleine Inseln (in bodenseealemannischer Mundart «Isel», vgl. Flurname "Esel"). Im Mündungsbereich ist ein permanenter Kiesabbau mit Schwimmbaggern nötig, um die Sedimentation zu steuern. Die großen Sedimentfrachten gelten auch als Folge der umfangreichen Meliorationen flussaufwärts. Obersee. Im Bodensee bildet das milchige, kältere und damit schwerere Rheinwasser zunächst einen kompakten Strom an der Oberfläche des grau-grünen Seewassers, fällt dann aber unvermittelt am "Rheinbrech" zum Seeboden ab. Die Hauptströmung im oberflächennahen Seewasser verläuft ab der Insel Lindau, oft deutlich sichtbar, entlang dem nördlichen, deutschen Ufer bis etwa Hagnau am Bodensee. Ein kleiner Teil der oberflächennahen Strömung zweigt vor der Insel Mainau in den Überlinger See ab. Die Hauptströmung wird im "Konstanzer Trichter" von der "Rheinrinne" aufgenommen und zum Abfluss geleitet. Anliegerstaaten des Obersees sind die Schweiz im Süden, Österreich im Südosten sowie Deutschland mit Bayern im Nordosten und Baden-Württemberg im Norden und im Nordwesten. Seerhein. Der nur vier Kilometer lange Fluss Seerhein verbindet den Obersee mit dem etwa 30 cm tiefer gelegenen Untersee. Am Beginn des Seerheins, in der Mitte der alten Konstanzer Rheinbrücke, beginnt die Kilometrierung des Rheins (vgl. Kapitel Kilometrierung). Der Seerhein entstand in den letzten Jahrtausenden gegen Ende einer erosionsbedingten Absenkung des Seespiegels um etwa zehn Meter, während derer auch die Insel Reichenau entstand. Zuvor waren Obersee und Untersee, wie es der übergreifende Name "Bodensee" heute nur suggeriert, ein zusammenhängender See. Untersee. Auch der Untersee weist durch den Schub des Rheinwassers deutliche Strömungen auf. Der südliche von der Rheinströmung durchzogene Teil wird vereinzelt auch "Rheinsee" genannt. Von den nördlichen Teilen des Untersees wird nur der Zeller See etwas von den Strömungen erfasst; der Gnadensee bleibt von der Durchströmung nahezu unberührt. Dem Untersee fließt über die Radolfzeller Aach im Mittel rund 9 m³/s Wasser aus dem Donausystem zu. Seerhein und Untersee bilden die Grenze zwischen der Schweiz und Deutschland; Ausnahmen sind das Stadtzentrum von Konstanz, das südlich des Seerheins liegt, und, nahe dem Ausfluss zum Hochrhein, das Stadtzentrum der Schweizer Stadt Stein am Nordufer. Hochrhein. Bei Stein am Rhein am Westende des Untersees beginnt der Hochrhein. Er fließt im Gegensatz zu Alpenrhein und Oberrhein vor allem nach Westen und fällt dabei von 395 m auf 252 m. Der Hochrhein bildet nun bis Eglisau zwischen den Schweizerischen Gebieten von Stein am Rhein, Schaffhausen und dem Zürcher Rafzerfeld zu einem Teil und ab Eglisau bis zum Kanton Basel Stadt auf der ganzen Länge die Grenze zwischen der Schweiz im Süden und Deutschland im Norden. Unterhalb von Schaffhausen liegt der Rheinfall, er ist bei einer mittleren Wasserführung von 373 m³/s (mittlerer Sommerabfluss circa 700 m³/s) hinter dem Dettifoss in Island der zweitgrößte Wasserfall Europas nach dem Kriterium der Fallenergie. Das Bild des Hochrheins wird durch zahlreiche Staustufen geprägt. Auf den wenigen verbliebenen natürlichen Abschnitten gibt es jedoch noch mehrere "Laufen" genannte Stromschnellen. Beim aargauischen Koblenz mündet von Süden die Aare, die zwar kürzer als der Rhein ist, aber mit einem durchschnittlichen Abfluss von 560 m³/s deutlich wasserreicher als der Rhein mit 439 m³/s, und damit der hydrologische Hauptstrang des gesamten Flusssystems. Bei Rheinfelden erreicht der Rhein im St. Anna-Loch eine Tiefe von 32 m. Oberrhein. Blick stromab von Mainz über das Mainzer Becken bei Eltville und Erbach bis Bingen Im Zentrum von Basel, der ersten Großstadt am Laufe des Stroms, liegt das „Rheinknie“; hier endet der Hochrhein. Offiziell gilt die Mittlere Brücke als Grenze zwischen Hoch- und Oberrhein. Der Fluss fließt nun als Oberrhein nach Norden durch die etwa 300 km lange und bis zu 40 km breite Oberrheinische Tiefebene, seine Höhe fällt dabei von 252 m auf 76 m. Die wichtigsten Nebenflüsse in diesem Bereich sind von links die Ill unterhalb von Straßburg, von rechts der Neckar in Mannheim und der Main gegenüber von Mainz. Bei Mainz verlässt der Rhein den Oberrheingraben und durchfließt das Mainzer Becken. Der Abschnitt des Oberrheins von Mainz abwärts durch den Rheingau und Rheinhessen ist auch als Inselrhein bekannt. In diesem mit bis zu 900 Metern breitesten Flussabschnitt liegen die als "Rheinauen" bekannten Flussinseln. Die Südhälfte des Oberrheins bildet die Staatsgrenze zwischen Frankreich (Elsass) und Deutschland (Baden-Württemberg). Die Nordhälfte bildet die Landesgrenze zwischen Rheinland-Pfalz im Westen einerseits und Baden-Württemberg und Hessen andererseits im Osten und Norden. Eine Kuriosität dieses Grenzverlaufs sind die seit 1945 zu Hessen gehörenden, sogenannten rechtsrheinischen Stadtteile von Mainz. Das Oberrheintal war bereits in Antike und Mittelalter eine bedeutende Kulturlandschaft Europas. Heute ist der Oberrhein Standort zahlreicher wichtiger Industrie- und Dienstleistungsbetriebe mit den Zentren Basel, Straßburg und Mannheim-Ludwigshafen. Mit Straßburg, dem Sitz des Europäischen Parlaments, liegt eine der drei europäischen Hauptstädte am Oberrhein. Die Oberrheinlandschaft hat sich durch die Rheinbegradigung im 19. Jahrhundert stark verändert. Wegen der Erhöhung der Fließgeschwindigkeit fiel der Grundwasserspiegel beträchtlich, wodurch Seitenarme trockenfielen und der Flussauen-Urwald stark zurückging. In Frankreich wurde der für die Rheinschifffahrt wichtige Rheinseitenkanal angelegt, der den überwiegenden Teil des Flusswassers mit sich führt. Mancherorts finden sich größere Ausgleichsbecken, so das riesige "Bassin de compensation de Plobsheim" im Elsass. Mittelrhein. Bei Bingen endet das Mainzer Becken, am Binger Loch tritt der Fluss bei Mittelwasser auf 77,4 m Meereshöhe als Mittelrhein ins Rheinische Schiefergebirge ein und wird es auf 50 m wieder verlassen. Linksrheinisch grenzen hier die Gebirgszüge von Hunsrück und Eifel an, rechtsrheinisch Taunus und Westerwald. Die charakteristische, enge Talform entstand erdgeschichtlich durch Tiefenerosion des Flusses in eine sich hebende Scholle (antezedentes Durchbruchstal). Die größten Nebenflüsse des Mittelrheins sind Lahn und Mosel, die bei Koblenz von rechts und links münden. Fast über die ganze Länge des Mittelrheins verläuft der Fluss im Bundesland Rheinland-Pfalz. Am Mittelrhein dominieren wirtschaftlich Weinbau und Tourismus. Der Talbereich zwischen Rüdesheim und Koblenz zählt zum UNESCO-Welterbe Oberes Mittelrheintal. Bei Sankt Goarshausen umfließt der Rhein den berühmten Loreleyfelsen, wo er eine Tiefe von 25 Metern erreicht. Mit seinen hochrangigen Baudenkmälern, den rebenbesetzten Hängen, seinen auf schmalen Uferleisten zusammengedrängten Siedlungen und den auf Felsvorsprüngen aufgereihten Höhenburgen gilt das Mittelrheintal als Inbegriff der Rheinromantik. Niederrhein. Niedrigwasser in Düsseldorf, Rheinkilometer 745 Bei Bonn geht der Mittelrhein mit dem durch das Siebengebirge markierten Eintritt in das Norddeutsche Tiefland und der Mündung der Sieg in den Niederrhein über. Der Niederrhein liegt in einer Höhe zwischen und. Wichtigste Nebenflüsse sind Ruhr und Lippe. Wie schon dem Oberrhein, so wurde auch dem mäandrierenden Niederrhein wasserbaulich ein festes Flussbett geschaffen. Weil die Deiche hier weiter zurückliegen, hat der Niederrhein aber bei Hochwasser mehr Ausdehnungsfläche als der Oberrhein. Der Niederrhein liegt vollständig in Nordrhein-Westfalen. Seine Ufer sind meist stark besiedelt und industrialisiert, besonders in den Agglomerationen Köln, Düsseldorf und Ruhrgebiet. Hier durchfließt der Niederrhein den größten Ballungsraum Deutschlands, die Metropolregion Rhein-Ruhr. Wichtigste Hafenstadt ist Duisburg mit dem größten Binnenhafen Europas (Duisburg-Ruhrorter Häfen). Stromabwärts von Duisburg ist die Region eher agrarisch geprägt. 30 Kilometer flussabwärts zweigt bei Wesel die zweite West-Ost-Schifffahrtsverbindung, der parallel zur Lippe verlaufende Wesel-Datteln-Kanal ab. Zwischen Emmerich und Kleve spannt sich die längste Hängebrücke Deutschlands über den an dieser Stelle mehr als 400 Meter breiten Strom. Bei Krefeld-Uerdingen quert die Uerdinger Linie den Rhein, eine Sprachgrenze, die die niederfränkischen Dialekte von den mittelfränkischen trennt. Hinter Emmerich am Rhein und Kleve fließt der Rhein über die deutsche Staatsgrenze in die Niederlande. Deltarhein. An der niederländisch-deutschen Staatsgrenze beginnt mit der Rheinteilung das Rhein-Maas-Delta, die bedeutendste naturräumliche Einheit der Niederlande, und damit der "Deltarhein". Weil der rheinische Zufluss überwiegt, ist auch die kürzere Bezeichnung "Rheindelta" (Rijndelta) gebräuchlich, das dann aber vom Binnendelta des Rheins am Bodensee zu unterscheiden ist, aber auch die längere "Rhein-Maas-Schelde-Delta", weil die Scheldemündung mit dem Delta eng verknüpft ist. Die zentralen und nördlichen Teile des Rhein-Maas-Deltas Bis zur Elisabethenflut 1421 floss die Maas etwas südlich der heutigen Linie Merwede – Oude Maas Richtung Nordsee und bildete mit Waal und Lek einen gemeinsamen, archipelartigen Mündungsbereich, dessen damaliger Zustand wegen zahlreicher Meeresbuchten, ästuarartig erweiterter Flussläufe, vieler Inseln sowie beständiger Küstenveränderungen heute schwer fassbar ist. Die Maas mündete später bis 1904 weiter flussaufwärts bei Gorinchem in die Waal. Aus Hochwasserschutzgründen trennte man dann die Maas vom Rhein durch eine Schleuse („Abgedämmte Maas“) und grub einen neuen Abfluss für sie, bestehend aus Bergse Maas und Amer. Seit dem Bau des Haringvlietdammes 1970 fließt sie wieder zusammen mit dem Rhein ins Meer, bei hohen Wasserständen des Rheins überwiegend durch die Schleusen des Haringvlietdammes, bei Niedrigwasser überwiegend über den Nieuwe Waterweg bei Rotterdam. Der Mündungsbereich im Nordwesten, auf Höhe der hier unterbrochenen Dünenketten, wird bereits seit der Antike als "Maasmündung (Maasmond)" bezeichnet. Dies erklärt auch die verwirrende Verwendung des Namens "Maas" für heute unzweifelhaft rheinische Unterläufe. Die Hydrographie des heutigen Deltas ist geprägt von den Delta-Hauptarmen, weiteren Stromarmen (Holländische Issel, Linge, Vecht u. a.) sowie kleineren Flüssen und Bächen. Viele Fließgewässer wurden stillgelegt („abgedämmt“) und dienen jetzt wie die zahlreich angelegten Kanäle zur Entwässerung von Poldern. Der Bau der Deltawerke veränderte das Delta in der zweiten Hälfte des 20. Jahrhunderts grundlegend. Gegenwärtig fließt an fünf Stellen Rheinwasser ins Meer; die Hauptwassermengen am Haringvlietdamm und unterhalb von Rotterdam (Hoek van Holland), die kleinere Ijssel und ihre Nebenflüsse durch Schleusen in Amsterdam und im Abschlussdeich. Das Rhein-Maas-Delta ist ein Gezeitendelta, denn nicht nur die Sedimentation der Flüsse, sondern auch die der Gezeitenströme bestimmten seine Gestalt. Dies bedeutete im Falle von Sturmfluten höchste Gefahr, weil solche Hochwasser wegen starker Gezeitenströme riesige Landflächen in die See reißen konnten. Vor dem Bau der Deltawerke war der Gezeiteneinfluss bis nach Nijmegen spürbar, selbst heute noch, nach den Regulierungsmaßnahmen der Deltawerke zur Sturmflutsicherung, wirken Ebbe und Flut bis weit ins Landesinnere. Während der Weichsel-Kaltzeit war so viel Wasser als Eis in den Polkappen gebunden, dass der Meeresspiegel etwa 100 m tiefer als heute lag und die südliche Nordsee trocken lag. Zu dieser Zeit war die Mündung des Rheins nach Norden bis zur Doggerbank verschoben, und die Themse war ein Nebenfluss des Rheins. Flusssystem und Einzugsgebiet. Der Rhein ist die Hauptsammelader eines Flusssystems, das mit einem unregelmäßigen Verlaufmuster voller abrupter Richtungswechsel seine bis heute bewegte, mit der Heraushebung der Alpen verknüpfte Entstehungsgeschichte erkennen lässt, und das sich zur Mündung hin in komplizierter Weise verzweigt. Der Rhein durchfließt in generell nordnordwestlicher Richtung sehr unterschiedliche Naturräume wie die Alpen, das nördliche Alpenvorland, den Oberrheingraben, die Mittelgebirgsschwelle und das niederrheinische Tiefland. Sein Lauf wird nach diesen Landschaften in Teilabschnitte gegliedert, die sich voneinander sehr unterscheiden. Das Quellgebiet des Rheins liegt im Übergangsbereich von den West- zu den Ostalpen. Etwas westlich davon liegt am Fuß der höchsten Erhebung des Einzugsgebietes, des Finsteraarhorns (4274 m), das Quellgebiet der Aare. Sie ist am Zusammenfluss mit dem Rhein der größere Fluss und gehört damit zur Hauptabflusslinie des Flusssystems. Das Einzugsgebiet des Rheins ist im oberen, südlichen Drittel durch die Nachbargebiete von Rhone und Donau markant eingeschnürt. Besonders zu Lasten dieser Ströme hat sich das Rheingebiet im Laufe der letzten drei Millionen Jahre vergrößert. Südlich davon erreicht der Rhein bereits gut ein Drittel seiner gesamten Wasserführung durch die hohen Abflüsse aus den Alpen. Aber auch Schwarzwald und Vogesen steuern später große Teile bei. Gut 150 Kilometer oberhalb der Mündung in die Nordsee beginnt der Strom, sich zu verzweigen. Die IJssel verlässt dabei das westwärts gerichtete Geflecht der Stromrinnen nach Norden. Dieser Wasserverlust wird stromabwärts durch die von Süden einmündende Maas in etwa ausgeglichen. Das Einzugsgebiet des Rheins grenzt (von Westen im Uhrzeigersinn) an jene der Ströme Seine, Schelde, Ems, Weser und Elbe (alle Nordsee), Donau (Schwarzes Meer) sowie Po und Rhone (beide Mittelmeer). Anteile an seiner Fläche von 218.300 km² (100 %) haben die Anrainerstaaten Schweiz (12,7 %), Österreich (1,1 %), Deutschland (50,2 %) und Niederlande (13,4 %). In Liechtenstein (0,1 %) ist er westlicher und in Frankreich (14,3 %) östlicher Grenzfluss. Sein Einzugsgebiet umfasst Teile Belgiens (6,7 %) und Italiens (Luxemburg (1,2 %). Es entwässert je rund 70 % der Schweiz und der Niederlande. Nebenflüsse. Der Status der Maas als eigenständiger Strom oder als Nebenfluss des Rheins hat mehrfach gewechselt ("siehe auch:" Rhein-Maas-Delta). Sie ist mit 355 m³/s Abflussmenge und rund 874 km Länge einer der wichtigsten Flüsse des zum Rhein orientierten Gewässersystems. Aus Gründen des Hochwasserschutzes war sie 1904 direkt der Nordsee zugeleitet worden und mündete danach nicht mehr in die Waal, den Hauptarm des Rheindeltas. Seit dem Bau des Haringvlietdammes im Jahre 1970 erreicht sie wieder zusammen mit dem Rhein die Nordsee, je nach Steuerung durch die Deltawerke entweder über die seeartigen Gewässer "Hollands Diep" und "Haringvliet" (ehemalige Meeresbuchten), oder aber über den "Nieuwe Waterweg" bei Rotterdam. Der wasserreichste und zugleich viertlängste Nebenfluss des Rheins ist die Aare. Diese entwässert große Gebiete der Schweiz und bringt mit einem mittleren Jahresabfluss von 560 m³/s am Zusammenfluss deutlich mehr Wasser ein als der Rhein (470 m³/s) selbst, da kurz vor der Einmündung die beiden großen Alpenflüsse Limmat und Reuss die Aare verstärken. In der Reihe der wasserreichsten Rheinzuflüsse folgen Maas (355 m³/s), Mosel (328 m³/s), Main (225 m³/s) und Neckar (145 m³/s). "Wasserführung der Nebenflüsse über 40 m³/s:" Die nach der Maas längsten Rheinzuflüsse sind die Mosel mit 544 km (mit Moselotte 558 km) und der Main mit 524 km (mit Regnitz 553 km). Eine Fließlänge über 200 Kilometer weisen ferner Neckar, Aare, Lippe, Lahn, Ruhr und die elsässische Ill auf. "Fließlängen der Nebenflüsse über 200 km:" In der Tabelle sind alle Nebenflüsse mit mindestens 60 Kilometer gesamter Fließlänge oder einer Wasserführung von mindestens 20 m³/s aufgeführt. Zusätzlich zu erwähnen ist die 32 Kilometer lange, in den Untersee mündende Radolfzeller Aach, da sie Wasser aus der Donauversickerung aufnimmt. a> markiert die Mündung der Ruhr bei Rheinkilometer 780 Inseln. Die Rheininseln werden je nach geographischer Lage oder Sprachgebrauch als "Wörth", "Werth/Werd" (vgl. Insel Werd im Untersee), "Aue" oder einfach als "Insel" bezeichnet. Einige Inseln sind, bedingt durch Strombaumaßnahmen, keine Inseln im wörtlichen Sinne mehr, werden aber immer noch so bezeichnet. In den meisten von der Großschifffahrt nicht mehr befahrbaren Stromarmen sind Yachthäfen entstanden. Im Ober- und Niederrhein sind wegen der Rheinbegradigung keine Inseln mehr in der Strommitte vorhanden, d. h. sie liegen in Ufernähe rechts- oder linksseitig. Großstadtgemeinden. Köln, die größte Stadt am Rhein An den Ufern des Rheins befinden sich 20 Gemeinden mit 100.000 und mehr Einwohnern. Nicht wenige gingen aus römischen Siedlungen hervor, wie Basel, Straßburg, Mainz, Koblenz, Bonn, Köln, Neuss, Nimwegen, Utrecht und Leiden. Diese gehören zu den wichtigsten Rheinstädten und liegen alle am linken Rheinufer, was mit der Rolle des Rheins als Grenze des Römischen Reiches zusammenhängt. Unter den rechtsrheinischen Großstädten finden sich mit Karlsruhe, Mannheim, Wiesbaden und Düsseldorf auffallend viele jüngere Residenzstädte. Die größte Rheinstadt mit rund einer Million Einwohnern ist Köln, gefolgt von Rotterdam mit gut 600.000 und Düsseldorf mit knapp 600.000 Einwohnern sowie Duisburg mit knapp 500.000. Über 250.000 Bewohner weisen die Städte Utrecht, Bonn, Karlsruhe, Mannheim, Straßburg und Wiesbaden auf. Orte mit staatlichen Hauptstadtfunktionen sind Chur, Vaduz, Bregenz, Schaffhausen, Basel, Wiesbaden, Mainz und Düsseldorf, früher gehörten auch Karlsruhe und Bonn in diese Liste (beide wurden durch bedeutende Bundeseinrichtungen für diesen Verlust entschädigt). Die Regierungssitze dreier Bundesländer Deutschlands liegen also am Rhein. Die Rheingroßstädte sind zumeist Zentren von weitaus größeren unmittelbar zusammenhängenden Siedlungsgebieten (Agglomerationen), die im nächsten Kapitel behandelt sind. Agglomerationen. Der Großraum Düsseldorf am Niederrhein aus dem All gesehen Am Rhein liegen 17 Agglomerationen mit mehr als 100.000 Einwohnern. (Unter Agglomeration soll hier eine zusammenhängende Siedlungsfläche verstanden werden, die von staatlichen oder kommunalen Grenzen durchschnitten ist.) Die drei größten Agglomerationen und mit mehr als einer Million Einwohnern sind das Ruhrgebiet, Köln und Mannheim. Über 500.000 Bewohner weisen mit Bonn, Düsseldorf, Rotterdam, Mainz-Wiesbaden, Basel und Karlsruhe weitere sechs Agglomerationen auf. Die von Straßburg, Utrecht und Koblenz haben über 200.000 Einwohner. Abgesehen vom Ruhrgebiet handelt es sich um monozentrische Agglomerationen. Über Staatsgrenzen hinweg gehen die drei Agglomerationen von Konstanz, Basel und Straßburg. Der Rhein bildet die Hauptentwicklungsachse der Blauen Banane, des zentralen Verdichtungsraums Europas. Mittelstädte und Gemeinden. Zu den bedeutendsten Mittelstädten (20.000–100.000 Einwohner) gehören oberhalb Basels Chur, Konstanz und Schaffhausen, am Oberrhein Kehl, Speyer, Worms und Ingelheim, am Mittelrhein Bingen, Andernach, Neuwied und Königswinter, am Niederrhein Wesseling, Dormagen, Meerbusch, Monheim, Wesel und Emmerich sowie im Delta Dordrecht, Deventer und Zwolle. Zu den bedeutendsten Gemeinden unter 20.000 Einwohnern gehören Vaduz, Kreuzlingen, Stein am Rhein, Breisach am Rhein, Rüdesheim und Remagen. Geologie. Die ersten Anfänge des Rheins (Ur-Rhein) lassen sich bis ins mittlere Miozän vor rund 15 Millionen Jahren zurückverfolgen. Das Quellgebiet des Urrheins wird im Bereich des Kaiserstuhlmassivs vermutet. Der Urrhein hatte teilweise ein anderes Flussbett als heute. Er floss ab etwa Worms über die Gegend von Alzey mitten durch Rheinhessen und auf die Binger Pforte zu. Die Gegend um Oppenheim und Mainz ließ er dabei rechts liegen. Der Hochrhein floss bis zum Tertiär nicht Richtung Norden in die Nordsee, sondern bog beim heutigen Basel ab, durchquerte die Burgundische Pforte und mündete in die Rhone und damit letztlich ins Mittelmeer. Geologische und geomorphologische Vorgänge haben die Talverläufe und -formen des Rheins geprägt. So floss der Rhein in frühen Erdzeitaltern in Mäandern auf breitem und flachem Talgrund, der heute noch auf den Rheinhöhen zu erahnen und durch Rheinschotter nachzuweisen ist. Senkungen wie die Kölner Bucht bewirkten, dass der Rhein ins Mittelgebirgsvorland Sand und Schotter ablagerte und Hebungen wie im Rheinischen Schiefergebirge, dass er sich in Zwangsmäandern eintiefte. Da die Landschaft sich in Schüben hob, bildete er bei Stillstand jeweils einen breiten Talboden aus, in den er sich bei der nächsten Hebung wiederum einschnitt. Flussterrassen in gleicher Höhe beiderseits des Flusses zeigen heute diese verschiedenen Hebungsphasen an. Die jüngste und niedrigste der Terrassen ist die "Inselterrasse" im Flusslauf selbst. Im Schotterfächer des Rheins ab der Kölner Bucht unterscheidet man Niederterrasse, Mittelterrasse und Rheinische Hauptterrasse. Außer der Tektonik wirkten bei deren Bildung auch die Unterschiede im Wasserabfluss zwischen den Kalt- und Warmzeiten der Eiszeit entscheidend mit. Der Rhein war mehrfach von Zufluss durch Lava aus der Eifel betroffen. Auch heute noch treten im Flussbett des Rheins im Bereich des Neuwieder Beckens Gasblasen (Mofetten) empor, ähnlich wie dies auch im Laacher See zu beobachten ist, was von Vulkanologen auf vulkanische Aktivitäten unterhalb des Rheins zurückgeführt wird. Hochwasser. Rheinhochwasser in Köln im Jahr 1970 Am Oberrhein haben die Länder Baden-Württemberg und Rheinland-Pfalz einige Hochwasserschutzpolder eingerichtet, um Hochwasserspitzen abfangen zu können. Der Polder Ingelheim wurde erstmals am 16. Januar 2011 geflutet. Niedrigwasser. Das Tiefstwasser im Spätherbst 2011 führte in Koblenz am 4. Dezember zur größten Evakuierung seit dem Zweiten Weltkrieg, weil im Rhein unter anderem eine britische 1,8-Tonnen-Luftmine aufgetaucht war und entschärft wurde. Eine alljährlich wiederkehrende meteorologische Erscheinung, die in der zweiten Novemberhälfte vermehrt Regenwetterlagen hervorruft, ändert den Wasserstand regelmäßig deutlich. Diese Erscheinung wird auch Adventswasser genannt. Eisbildung. In der Vergangenheit fror der Rhein immer wieder ganz oder teilweise zu (Eisgang). Im 84 mit anschließendem Temperatursturz führte dies zu gewaltigen Katastrophen (s.o. Hochwasser). Im Jahr 1929 war der Fluss fast auf seiner gesamten Länge zugefroren. Der Wiesbadener Filmpionier Georg Dengel hielt dieses Naturschauspiel mit seinem Dokumentarfilm "Der Rhein in Eisfesseln" fest. 1947 zerstörte Treibeis in Neuwied die hölzerne Behelfsbrücke. 1954 stellte sich das Eis von Oberwesel bis Mainz. Im Februar 1956 staute sich das Eis von der Loreley über Bingen hinaus auf einer Strecke von 40 km. Im Winter 1962/63 war der Rhein das letzte Mal streckenweise zugefroren. An der Loreley staute sich das Eis so stark, dass keine Eisbrecher mehr durchkamen, es wurde gesprengt. Auf der Waal waren oberhalb Zaltbommel mehrere Schiffe mitten im Strom festgefahren. Da die Niederländer fürchteten, dass beim Losbrechen des Eisstaus die Schiffe die Brücke von Zaltbommel zum Einsturz bringen könnten, sollten die Schiffe gesprengt werden. Sozusagen im letzten Moment konnten Eisbrecher die Schiffe befreien. In der zweiten Hälfte des 20. Jahrhunderts wurden diese Ereignisse durch die zunehmende Einleitung von Abwässern und der Abwärme in den Kühlwassern von Wärmekraftwerken immer seltener. In kalten Wintern kommt es wegen der geringeren Strömungsgeschwindigkeit im niederländischen Fahrgebiet manchmal noch zur Eisbildung. Als es noch keine Kühlschränke gab, wurde das Eis aus dem Rhein in Stroh verpackt in Felsenkellern gelagert und im Sommer verkauft. Auch Kirmesfeste fanden auf dem Rhein statt, und man nutzte die Eisdecke, um mit Fuhrwerken zum anderen Ufer zu gelangen. Gefährlich werden Eisstaus, wenn die oberhalb liegenden Orte durch Hochwasser gefährdet werden, oder wenn sich das Eis in Bewegung setzt. Dann können Uferbereiche größere Zerstörungen erfahren. Umwelt. a>n hinter einem Kontrollfenster am Iffezheimer Fischpass Fauna. Einen Gesamtüberblick über die Fauna des Rheins und seine Veränderungen im Verlaufe der Zeit gibt es nicht. Im Vergleich zu heute kann man für die Zeit vor den großen Begradigungen und Uferverbauungen und vor den starken anorganisch- und organisch-chemischen Belastungen infolge Industrie und verstärktem Bevölkerungsanstieg, d. h. bis etwa in die Mitte des 19. Jahrhunderts, von einer deutlich reichhaltigeren einheimischen Fauna ausgehen, der praktisch keine durch den Menschen verursachten Einschleppungen (Neozoen) beigemischt waren. Diese Letzteren sind in der zweiten Hälfte des 20. Jahrhunderts und vor allem ab Beginn der 1990er Jahre besonders augenfällig geworden und haben dazu geführt, dass heute die Mehrzahl der Steine besiedelnden größeren Wirbellosenarten eingeschleppte Formen darstellen. Darunter fallen zum Beispiel die zahlreichen bei Niedrigwasser beobachtbaren Vertreter der Asiatischen Körbchenmuschel. Wirbellose. Die Arten größerer Wirbellosen (das tierische Makrobenthos) sind von größenordnungsmäßig rund 160 Arten im Niederrhein um das Jahr 1900 auf rund 25 Arten im Jahre 1971 zurückgegangen und haben sich erst ab den 1980er Jahren wieder deutlich erholt. Sie erreichten gegen 2000 wieder um die 130 Arten. Hinzu kamen während des 20. Jahrhunderts zunehmend mehr eingeschleppte Arten, die um 1998 bereits rund 20 zusätzliche, teilweise massenhaft vorkommende Arten darstellen. Von der Biomasse her dominieren sie heute die Fauna des tierischen Makrobenthos im Rhein. Fische. Zurzeit beherbergt der Rhein wieder 63 Fischarten, lediglich der Stör fehlt. Alle auffindbaren Fische sind essbar. Durch den Bau von Fischtreppen an den Wehren können heute auch wieder Wanderfische wie Lachs und Meerforelle bis zum Oberrhein und in die Nebenflüsse aufsteigen und dort laichen. Auch die Artenvielfalt von Muscheln, Schnecken und Insekten hat zugenommen, es sind auch Neueinwanderer darunter. Den Hauptanteil an den Fischarten haben: Rotauge, Stint, Hecht, Wels, Neunauge, Äsche, Barbe, Döbel, Aal, Ukelei, Flussbarsch und Brachse. Neu eingewanderte Arten sind: Sonnenbarsch und Zander sowie die aus der Donau stammende Marmorierte Grundel und der Weißflossengründling. Der Schneider am Oberrhein und Flunder und Quappe am Niederrhein haben ihre Bestände vergrößert. Der Lachs vermehrt sich seit 1994 in einigen Nebenflüssen zunehmend natürlich. Die Anzahl der Kleintiere lag im Jahr 2000 fast so hoch wie vor 100 Jahren. Im Niederrhein wurden seit etwa 1800 immer etwa 33 bis 39 einheimische Fischarten gefunden, wobei die unterste Zahl in der Zeit um 1910 bis 1950 auftrat. Der Anteil der eingeführten gebietsfremden Fischarten vergrößerte sich dabei von ursprünglich ein bis zwei Arten im 19. Jahrhundert auf etwa elf Arten in den 1990er Jahren Wasservögel. Der Rhein ist vom Bodensee bis zu seiner Mündung ein wichtiges Rast- und Überwinterungsgebiet. Er dient auch anderen Vogelarten als Leitlinie beim Vogelzug. Plastikfracht. Als vermutlich erster Meereszufluss weltweit wurde 2015 der Rhein durch die Universität Basel auf seine Kontamination durch Plastikpartikel untersucht: Die gemessenen Konzentrationen lagen mit durchschnittlich 892.777 Partikeln pro Quadratkilometer bei den höchsten bisher weltweit: Am Rheinknie bei Basel noch unter der im Genfer See (220.000 Partikel/km², „zwischen Basel und Mainz 202.900 Partikel/km²“), im Bereich Rhein-Ruhr jedoch zehnfach höher, bei im Mittel 2,3 Millionen Partikel/km². Die Spitze lag mit 3,9 Mio. Partikeln/km² 15 Kilometer vor der niederländischen Grenze bei Rees. Hochgerechnet ergebe die Plastikfracht des Rheins in den Atlantik 191 Mio. Partikel/km², ca. zehn Tonnen pro Jahr. Als auffällig wurde bezeichnet, dass neben Faser- und Fragmentteilchen vor allem Plastikkügelchen gefunden wurden, was auf einen industriellen Einleiter unbekannter Herkunft hinweise. Schadstoffbelastung. Nach den Angaben des Umweltbundesamtes, das für Deutschland ökologische Aufgaben wahrnimmt, nimmt die Schadstoffbelastung des Rheins seit 1960 kontinuierlich ab. Dies ist einerseits auf die systematische Abwasserreinigung durch den Bau von Kläranlagen zurückzuführen und andererseits auf die Tatsache, dass die Industrie immer weniger mit Chemikalien und Schwermetallen belastete Abwässer in den Rhein einleitet. Die oberelsässischen Kaligruben leiten aber immer noch einen großen Teil nicht brauchbarer Salze in den Rhein ab, obwohl diese Einleitungen nach einem Schadensersatzprozess der Stadt Amsterdam vor dem Gericht in Straßburg reduziert sein sollen. Heute leben wieder etwa 63 Fischarten im Rhein. Trotz der deutlichen Reduzierung der Gewässerbelastung durch Haushalts- und Industrieabwässer transportiert der Rhein noch immer Schwermetalle und Chemikalien wie Pestizide in Richtung Nordsee und belastet damit die Trinkwasserversorgung der Rheinanlieger. Die in der Tabelle angegebenen Werte beziehen sich auf die Messstelle Bimmen am Niederrhein. Diese Daten werden von der Internationalen Kommission zum Schutze des Rheins veröffentlicht. Diese Kommission besteht seit 1950. Einfluss und Bedeutung bekam sie aber erst nach 1986. Am 1. November 1986 brannte eine Lagerhalle der Firma Sandoz in Schweizerhalle bei Basel am Rhein. Die mit dem Löschwasser in den Rhein gelangten Chemikalien (insbesondere Phosphorsäureester und Quecksilberverbindungen) vernichteten dort einen großen Teil des tierischen und pflanzlichen Lebens. Nach dem Brand bei Sandoz schien der Rhein auf weiten Strecken tot zu sein, doch erholte er sich in den folgenden Monaten und Jahren durch Hochwasser und Wiederbesiedlung. Durch verstärkten Aus- und Neubau von Kläranlagen und weitere Maßnahmen zum Gewässerschutz hat sich die Rheinbiozönose daher wieder erholt, war danach aber stärker von Neozoen besiedelt als zuvor. Nicht zuletzt als Folge dieses Unfalls wurde die Löschwasserrückhalterichtlinie erlassen. Andere den Rhein belastende Giftstoffe, zum Beispiel Pestizide und Rückstände von Medikamenten, sind in der Tabelle noch nicht berücksichtigt. Trinkwasser. Viele Städte entnehmen Wasser aus dem Rhein zur Trinkwassergewinnung, dabei handelt es sich meist um Uferfiltrat wie bei dem Wasserwerk Koblenz-Oberwerth oder dem Wasserwerk auf der Petersaue, das die Stadt Mainz versorgt. Die Niederlande sind darauf besonders angewiesen. Es gibt auch Verfahren mit einem System von Schluckbrunnen und Förderbrunnen wie im Wasserwerk Schierstein, das an der Wasserversorgung Wiesbadens einen erheblichen Anteil hat. Um bei Unfällen mit wassergefährdenden Stoffen schnell reagieren zu können, wurden mit dem Warn- und Alarmplan Rhein sieben internationale Hauptwarnzentralen zwischen Basel und Arnhem eingerichtet. Die Ausbreitungsgeschwindigkeit einer Schadstoffwelle kann über eine mathematische Simulation (Rheinfließzeitmodell) ermittelt werden. Weinanbau und Weinkultur. Wein prägt wie nichts Anderes den Natur- und Kulturraum des Rheins. Landschaftsnamen wie Rheingau, Rheinhessen oder Kaiserstuhl (Baden) sind gleichzeitig Weinbaugebiete. Besonders schwer ist der Weinanbau in den Steillagen des Mittelrheintales. An vielen Stellen war die Umwandlung in großflächigere mit Maschinen bebaubare Parzellen nicht möglich. Da aber der Wein in den Steillagen der schiefrigen Hänge besonders gut wird, lohnt sich hier doch manche Mühe. Der Wein ist ein Wirtschaftsfaktor für die Region. Wasserkraftwerke. An den Quellflüssen des Rheins erzeugen die Kraftwerke Hinterrhein und die Kraftwerke Vorderrhein mit mehreren Speicherseen und Kraftwerkszentralen elektrischen Strom. Vom Alpenrhein bis zum mittleren Oberrhein gibt es zahlreiche Laufwasserkraftwerke. Steinkohlekraftwerke. Zu den großen Dampfkraftwerken am Oberrhein, die mit Steinkohle betrieben werden und dem Fluss Kühlwasser entnehmen, zählen das Rheinhafen-Dampfkraftwerk Karlsruhe und das Grosskraftwerk Mannheim. Am Niederrhein liegen das Kraftwerk Duisburg-Walsum, das Kraftwerk Voerde sowie das ehemalige Kraftwerk Reisholz (1908–1966), das 1918 das größte Steinkohlekraftwerk der Welt war. Biblis (D). Das ehemalige deutsche Kernkraftwerk Biblis liegt an Rheinkilometer 455. Es hat zwei Reaktorblöcke von 1300 MW und nutzte den Rhein teilweise zur Kühlung. Um unabhängig von Rheintemperatur und -wasserführung zu sein, sind zusätzlich Kühltürme vorhanden. Das Kraftwerk wurde 2011 stillgelegt. Philippsburg (D). Das deutsche Kernkraftwerk Philippsburg liegt am Rheinkilometer 389 und besteht aus zwei Reaktorblöcken. Block 1 ging 1979 ans Netz und wurde im März 2011 stillgelegt (Atom-Moratorium nach der Nuklearkatastrophe von Fukushima); Block 2 (einen Druckwasserreaktor mit einer nominellen Nettoleistung von 1.402 MW el) ging 1984/85 in Betrieb. Er wird teilweise mit Rheinwasser gekühlt. Er wird gemäß Atomausstieg 2011 spätestens am Jahresende 2019 abgeschaltet. Fessenheim (F). Das Kernkraftwerk Fessenheim liegt an Rheinkilometer 210 in Frankreich auf der Westseite des Rheinseitenkanals "(Grand Canal d’Alsace)". Es hat zwei baugleiche Druckwasserreaktoren mit einer elektrischen Nettoleistung von je 880 Megawatt el. Bei einem Wirkungsgrad von ungefähr 33 % werden von beiden Reaktoren zusammen stündlich etwa 3.600 MW Abwärme in den Kanal geleitet; das AKW hat keine Kühltürme. Das entspricht dem Heizwert von etwa 360.000 Litern Öl pro Stunde. Laut französischer Genehmigung vom 26. Mai 1972 darf der Rhein durch die beiden Blöcke des AKW im Juni, Juli und August um 4 °C, im September, Oktober, November, März, April und Mai um 6,5 °C erwärmt werden. Im Dezember, Januar und Februar darf der Rhein sogar um 7 °C wärmer werden. Bis auf 30 Grad darf das Atomkraftwerk den Rhein aufheizen. Im Hitzesommer 2003 hat die Fessenheimer Abwärme zu einer Temperaturerhöhung des Rheinseitenkanals von 1,7 °C geführt. Das Kernkraftwerk soll Ende 2016 stillgelegt werden (Näheres hier). Leibstadt (CH). Das Schweizer Kernkraftwerk Leibstadt (Rheinkilometer 107; bei Waldshut-Tiengen) hat einen Siedewasserreaktor. Dieser ging Ende 1984 in Betrieb; er hat eine elektrische Nettoleistung von 1220 MW. Wirtschaft und Verkehr. Der Rhein ist auf weite Strecken Schifffahrtsstraße und dazu beidseitig von Eisenbahnlinien und Autobahnen begleitet. Vor allem an Schnittstellen mit anderen Handelsachsen bildeten sich bedeutende Wirtschaftsstandorte aus (so Köln, Koblenz, Mainz, Ludwigshafen, Mannheim, Karlsruhe, Straßburg, Basel). Für die Chemie mit Kohle/Teerfarben, die Petrochemie, die Kunststoffindustrie und die Ölraffinerien werden Kohle und Erdölprodukte billig herangeschafft und weiterverarbeitet; die Chlorchemie (Polyvinylchlorid) bekommt ihr Salz durch die Massentransportschifffahrt. Das Transportaufkommen 2005 betrug 236,765 Mio. Tonnen. Bedeutendster Wirtschaftsfaktor nach Handel und Industrie ist der Tourismus. Verkehr. Der Rhein ist von seinen Mündungsarmen im Rhein-Maas-Delta bis Basel für größere Schiffe und Schubverbände schiffbar. Von Breisach bis kurz vor Basel wird die Schifffahrt und der wesentliche Teil des Rheinwassers durch den vollständig auf französischem Gebiet liegenden Rheinseitenkanal geführt, der die Grenze bildende Restrhein hat für die Schifffahrt keine Bedeutung. Schiffe mit flachen Aufbauten, die in Basel die Mittlere Brücke passieren können, können bis zum Hafen Rheinfelden fahren. Wegen der ausgebauten Fahrrinne und der jahreszeitlich ziemlich regelmäßigen Niederschläge in seinem Einzugsgebiet ist der Rhein heute von der Mündung bis zum Hafen Rheinfelden weitgehend problemlos ganzjährig schiffbar. Vor Abschluss des Ausbaus waren bis 1988 am Mittelrhein noch Lotsen üblich. Am Oberrhein, zwischen Mannheim und Iffezheim, sind gelegentlich immer noch Lotsen tätig. Oberhalb des Rheinfalls ist der Rhein bis zur Brücke bei Neuhausen am Rheinfall für jeden Schiffsverkehr gesperrt. Von der Rheinbrücke in Schaffhausen bis nach Konstanz besteht in den Sommermonaten eine durchgehende Schiffsverbindung; das Stauwehr in Schaffhausen sorgt in diesem Bereich für einen gleichbleibenden Wasserstand bis Diessenhofen. Da die dortige Brücke sehr niedrig ist, senken manche Schiffe für die Durchfahrt ihr Ruderhaus ab. Flussaufwärts von Stein am Rhein ist der Rhein nicht reguliert, daher je nach Wasserstand schiffbar. Der Alpenrhein ist für die Schifffahrt ganz gesperrt, der „Alte Rhein“ aber auf zwei Kilometern von der Mündung bis nach Rheineck SG schiffbar. Rheinschifffahrt. Die Schifffahrt auf dem Rhein und seinen Zuflüssen hat eine lange Tradition, weil schon vor der Neuzeit wichtige Wirtschafts- und Industriegebiete Europas über das Flusssystem verbunden waren oder sogar an seinen Ufern lagen. Heute gehört der Rhein zu den am stärksten befahrenen Wasserstraßen der Welt. Nach dem Wiener Kongress trat 1816 in Mainz eine Kommission (die spätere Zentralkommission für die Rheinschifffahrt) zusammen, um für die Rheinschifffahrt auf der Strecke von Basel bis zur Nordsee eine gemeinsame Übereinkunft der Rheinuferstaaten zu erarbeiten. Die "Rheinschiffahrtsakte vom 31. März 1831 (Mainzer Akte)" garantierte die Freiheit der Schifffahrt bis ins offene Meer, schaffte das Stapelrecht in Köln und Mainz ab und verpflichtete die Uferanliegerstaaten, Schifffahrtshindernisse zu beseitigen. Man begradigte ab 1817 den Oberrhein, damit er überhaupt erst gut schiffbar würde. Die "Revidierte Rheinschiffahrtsakte vom 17. Oktober 1868 (Mannheimer Akte)" enthält die überwiegend auch heute noch gültigen Grundsätze der Rheinschifffahrt und befreite die Schifffahrt von Abgaben und Zöllen. Man schuf Rheinschifffahrtsgerichte. Seit 1920 residiert im "Palais du Rhin" in Straßburg die Zentralkommission für die Rheinschifffahrt, in der die Schweiz, Frankreich, Deutschland, die Niederlande und Belgien vertreten sind. Von Basel an rheinabwärts gilt die von der Zentralkommission für die Rheinschifffahrt beschlossene Rheinschifffahrtspolizeiverordnung sowie zahlreiche weitere, die Sicherheit des Verkehrs und der Schiffe regelnden Vorschriften. Die zulässigen Größen und Formationen der Schiffe und Schubverbände sind von Basel bis Bad Salzig (km 564,3) in der Wasserstraßenklasse VIb, anschließend in der Klasse VIc geregelt. Die Uferstaaten übernehmen diese Vorschriften in ihr eigenes, nationales Recht. Die schifffahrtspolizeilichen Vollzugsaufgaben auf dem Rhein werden von den Anrainerstaaten auf ihrem jeweiligen Hoheitsgebiet wahrgenommen. Dazu haben die betroffenen deutschen Bundesländer die Wasserschutzpolizei eingesetzt. In Nordrhein-Westfalen untersteht sie der Direktion Wasserschutzpolizei beim Polizeipräsidium Duisburg. Mainz ist der Sitz des Wasserschutzpolizeiamtes Rheinland-Pfalz und in Mainz-Kastel ist die Wasserschutzpolizeiabteilung der Hessischen Bereitschaftspolizei ansässig. Das Regierungspräsidium Karlsruhe umfasst schließlich für Baden-Württemberg die Wasserschutzpolizei als Referat der Landespolizeidirektion. Deutschland und Frankreich haben für die Strecke auf dem Oberrhein, auf der der Rhein die Grenze zwischen beiden Ländern bildet, im Jahr 2000 eine Zusammenarbeit bei der Wahrnehmung schifffahrtspolizeilicher Aufgaben vereinbart. Daraufhin wurde 2012 die deutsch-französische Wasserschutzpolizei (Compagnie fluviale de gendarmerie du Rhin) mit dem Sitz in Kehl und Außenstellen in Gambsheim und Vogelgrun eingerichtet, die ihren Dienst mit eigenen Booten und gemischten Besatzungen versieht. Bundeswasserstraße. Der Rhein ist auf der gesamten, auf deutschem Territorium verlaufenden Strecke eine Bundeswasserstraße. Auf der Restrhein-Strecke von Basel bis Breisach hat das jedoch untergeordnete Bedeutung. Die Außenstelle der Generaldirektion Wasserstraßen und Schifffahrt in Mainz (bis 30. April 2013: Wasser- und Schifffahrtsdirektion Südwest) ist als Mittelbehörde des Bundes zuständig für die Verwaltung des Oberrheins und des Mittelrheins von der schweizerischen Grenze bei Basel bis zur nordrhein-westfälischen Landesgrenze. Ihr unterstehen für den Rhein die Wasser- und Schifffahrtsämter Freiburg (km 170,0 – 352,1), Mannheim (km 352,1 – 493,5) und Bingen (km 493,5 – 639,3 re/642,2 li). In Nordrhein-Westfalen sind die Wasser- und Schifffahrtsämter Köln (km 639,3 re/642,2 li – 759,7) und Duisburg-Rhein (km 759,7 – 857,7 re/865,5 li) zuständig. Kanalverbindungen. Des Weiteren gibt es einige unverwirklichte Schifffahrtskanalprojekte in den Alpen, die den Rhein mit Rhone oder Po verbunden hätten. Rhein-Pegel. An Pegeln werden die aktuellen Wasserstände angezeigt und elektronisch gespeichert. Die Messwerte werden an die zuständige Wasser- und Schifffahrtsdirektion und an die Bundesanstalt für Gewässerkunde in Koblenz übertragen. Automatische Anrufbeantworter (in Deutschland Ortsvorwahl plus 19429) und behördliche Internetangebote der Anliegerstaaten informieren die Öffentlichkeit ständig über Veränderungen. Die wichtigsten Schifffahrtspegel am Rhein sind: Konstanz, Rheinfelden, Basel-Rheinhalle, Iffezheim, Maxau, Speyer, Mannheim, Worms, Mainz, Oestrich, Bingen, Kaub, Koblenz, Andernach, Oberwinter, Bonn, Köln, Düsseldorf, Duisburg-Ruhrort, Wesel, Rees, Emmerich am Rhein, Lobith, Pannerdense Kop, IJsselkop, Nijmegen Hafen, Tiel, Zaltbommel, Vuren, Krimpen, Dordrecht und Rotterdam. Am wichtigsten für die Schifffahrt innerhalb der frei fließenden Rheinstrecke sind die Pegel Duisburg-Ruhrort, Kaub und Karlsruhe-Maxau. Duisburg ist ausschlaggebend für die Strecke bis Koblenz, Kaub und Karlsruhe-Maxau für die südlicheren Rheinabschnitte. Die Wasserstände an den Pegeln (umgangssprachlich auch kurz: Pegelstände) sind wichtig für die Ladetiefe, die sich aus der möglichen Tauchtiefe bei Niedrigwasser bestimmt. Man lädt so beispielsweise 80 bis 120 cm "auf den Pegel Kaub" je nach Risikobereitschaft. Gegebenenfalls muss bei Niedrigwasser ein Hafen oder eine Reede angelaufen werden, um das Schiff zu leichtern. Für die Bergfahrt auf dem Mittelrhein war dies zum Beispiel bis in die 1970er Jahre in Bad Salzig für Tankschiffe möglich und in St. Goarshausen für sonstige Ladungen, heute hat diese Praxis an Bedeutung verloren. Wenn die Schiffe nicht mehr volle Ladung transportieren können, verteuert sich die Fracht. Deshalb erheben die Frachtschifffahrtsunternehmen bei niedrigen Wasserständen an den Pegeln Duisburg-Ruhrort, Köln und Kaub einen "Kleinwasserzuschlag" (Kwz). Für alle Rheinpegel sind die Hochwassermarken I und II in der Rheinschifffahrtspolizeiverordnung festgelegt. Ab Hochwassermarke I soll nur noch im mittleren Drittel des Fahrwassers gefahren werden, zu Tal maximal mit 20 km/h (Ausnahme: auf Gebirgsstrecke 24 km/h). Die Wasserschutzpolizei überwacht die Einhaltung. Wird die Hochwassermarke II erreicht oder überschritten, wird im betreffenden Bereich die Schifffahrt völlig gesperrt. Näheres dazu ist bei „Pegel Köln“ beschrieben. Brücken. a>, Spannbeton-Straßenbrücke der 1950er Jahre, Brückenturm vom Vorgängerbau um 1900 Brücken prägen das Erscheinungsbild des Rheins wesentlich mit. Die erste Brücke über den Rhein ließ Julius Cäsar 53 v. Chr. bei Urmitz errichten; die Römer benutzten dabei wie später die Brückenbauer des Mittelalters und der Frühneuzeit die Baustoffe Stein oder Holz. Brücken zur Römerzeit lagen etwa bei Bad Zurzach, Stein am Rhein, Kaiseraugst, Breisach am Rhein, Straßburg, Mainz, Koblenz und Köln. In der Mitte des 19. Jahrhunderts waren alle Brücken über den Rhein unterhalb von Basel Schiffbrücken, die geöffnet werden konnten, um Schiffe und die großen Rheinflöße passieren zu lassen. Ein Wandel ergab sich durch die Industrialisierung, die ein größeres Verkehrsaufkommen sowie neue Baumaterialien und Techniken mit sich brachte. In der zweiten Hälfte des 19. Jahrhunderts und zu Beginn des 20. Jahrhunderts waren es vor allem Eisenbahnbrücken, die durch die Größe und das Material (Stahl) einen neuen Akzent setzten (vgl. Hohenzollernbrücke in Köln). Auch militärische Gesichtspunkte waren für den Brückenbau entscheidend, etwa bei der als "Brücke von Remagen" bekannten Ludendorff-Brücke. In der Hochzeit der Moderne und des Automobilverkehrs in der zweiten Hälfte des 20. Jahrhunderts übernahmen dann zahlreiche neue Straßenbrücken, darunter große Autobahnbrücken, die Führung bei den Neubauten, deren Erscheinungsbild neben Stahl und dem Werkstoff Beton auch neue Brückenbautechniken mitbestimmten. Einen relativ neuen Akzent setzen seit Ende des 20. Jahrhunderts Fußgänger- und Radfahrerbrücken (vgl. Passerelle des deux Rives zwischen Straßburg und Kehl). a> mit der im Zweiten Weltkrieg zerstörten Straßenbrücke Fähren. Neben den Brücken spielen Fähren unterschiedlicher Größe eine wichtige Rolle. Die früher als "Fliegende Brücken" bezeichneten Gierseilfähren stellten im 19. Jahrhundert noch einen Großteil der Rheinquerungen her. Von der Strömung angetriebene Fähren existieren noch heute in Basel und bei Rastatt; sie haben überwiegend touristischen Nutzen. Der Bautyp wurde im 19. Jahrhundert zunächst durch Dampffähren, später durch Motorfähren abgelöst. Im Mittelrheintal sind zwischen Wiesbaden und Koblenz auf über 80 Flusskilometern sowie zwischen Neuwied und Bonn auf über 40 Kilometern keine Brücken, sondern nur Fährverbindungen vorhanden. Im Bereich der etwa 50 Kilometer betragenden längsten Flussstrecke ohne Straßenbrücke des Oberrheins zwischen Worms und Mainz gibt es zwei Autofähren. Seilbahnen. Den Rhein überqueren zwei Seilbahnen. Die Kölner Rheinseilbahn wurde zur Bundesgartenschau 1957 in Höhe der Zoobrücke erbaut. In Koblenz wurde als Attraktion und ökologisch sinnvolle Verkehrsverbindung zur Bundesgartenschau 2011 die Rheinseilbahn errichtet. Die 890 meter lange Dreiseilumlaufbahn verbindet die Rheinanlagen mit dem Plateau vor der Festung Ehrenbreitstein. Es ist die größte Seilbahn ihrer Art nördlich der Alpen in Deutschland. Um den UNESCO-Welterbe-Status der Kulturlandschaft Oberes Mittelrheintal nicht zu gefährden, war der Betrieb nur bis November 2013 mit anschließendem Abbau der Anlage vorgesehen. Die UNESCO hat am 19. Juni 2013 in Phnom Penh auf der 37. Sitzung des Welterbekomitees beschlossen, den Betrieb der Seilbahn bis 2026 zu erlauben. In diesem Jahr endet die technisch längstmögliche Betriebsdauer. Mainzer Zollhafen (vorne) und Industriehafen (hinten links) Häfen. An der Rheinmündung befindet sich mit dem Hafen Rotterdam einer der weltgrößten Seehäfen. Er verdankte seinen Aufschwung der Industrialisierung in den über den Rhein erreichbaren Wirtschaftszentren wie dem Ruhrgebiet. Unter den sieben dem Güterumschlag nach größten deutschen Binnenhäfen sind sechs Rheinhäfen. Die Duisburg-Ruhrorter Häfen gelten als größter Binnenhafen Europas. Den zweitgrößten Binnenhafenbetrieb in Deutschland besitzt Köln. Die nächstgrößen deutschen Rheinhäfen sind Ludwigshafen, Neuss, Mannheim und Karlsruhe. Der Port Autonome de Strasbourg ist der zweitgrößte Binnenhafen Frankreichs. Die wichtigste Drehscheibe für den Im- und Export der Schweiz sind die Schweizerischen Rheinhäfen in Basel. Kilometrierung. Rheinkilometer 500 am Mainzer Hafen Die bestehende Kilometrierung für die Schweiz, Deutschland und die Niederlande ist seit dem 1. April 1939 gültig, rechnet ab Konstanz und ersetzt alle vorherigen Einteilungen. Ihr Nullpunkt liegt in der Achse der alten Konstanzer Rheinbrücke und endet mit Kilometer 1036,20 westlich von Hoek van Holland (Einmündung in die Nordsee bei Kilometer 1032,80). Nach ihr richten sich die Schifffahrt und alle Behörden. Diese Kilometrierung misst für Seerhein, Untersee und Hochrhein 167 km (Konstanz bis Basel, km 0–167), für den Oberrhein 362 km (Basel bis Bingen, km 167–529), für den Mittelrhein 159 km (Bingen bis Köln, km 529–688) und für den deutschen Niederrhein 177,5 km (Köln bis Grenze, km 688–865,5). Geologisch gesehen beginnt der Mittelrhein jedoch schon in der Nähe von Mainz, wo der Rhein in das Mainzer Becken einfließt. Ab dem "Pannerdens Kop" (km 867) unterhalb von Millingen in den Niederlanden läuft die Kilometrierung in den drei Rheinarmen Waal, Nederrijn und Issel gleichlautend weiter. In der Schifffahrt ist es deshalb wichtig, bei einer Kilometerangabe immer auch das jeweilige Fahrwasser zu nennen. Auf niederländischen Strecken ist die Kilometerbezeichnung durch Tafeln mit weißen Ziffern auf schwarzem Grund an jeweils nur einem der Ufer angebracht. Hier werden nur die vollen Kilometer angezeigt. 100-Meter-Marke (Hektometerstein) am Rhein bei Karlsruhe (km 373,2) a> 36 bei Rüdesheim am Rhein Die vollen Rheinstrom-Kilometer zeigen große, rechtwinklig zur Stromachse an beiden Ufern stehende Tafeln an. Die 500-Meter-Marken tragen ein schwarzes Kreuz auf weißem Grund. Die übrigen 100-Meter-Marken (Hektometer), etwa 100 cm × 50 cm große Rechtecke und meistens aus Beton, sind direkt im Ufer eingelassen. Sie sind mit den Ziffern 1 bis 4 und 6 bis 9 beschriftet. Auf der deutsch-schweizerischen Rheinstrecke zwischen Stein am Rhein und Basel (Hochrhein) misst die Zählung das deutsche Rheinufer ab. Dasselbe Prinzip findet auf der deutsch-französischen Rheinstrecke zwischen Basel und Lauterbourg Anwendung. Auf der übrigen Strecke zählt man die Länge der Strommittellinie. Bereits im Jahre 1806 begann Johann Gottfried Tulla, der Leiter des Flussbauwesens in Baden, mit der Erstellung einer zusammenhängenden Karte des Rheins. Ab 1826 wurde unter Tullas Leitung mit der Rheinbegradigung begonnen, dadurch wurde der Rhein zwischen Basel und Bingen um 81 Kilometer verkürzt. Eine durchgehende Längenvermessung wurde aber erst 1839 beendet und im Jahresbericht der "Central-Commission für die Rheinschifffahrt" von 1844 veröffentlicht. Einige der ab 1863 als Vermessungsmarken gesetzten Myriametersteine existieren bis heute. Das heißt aber nicht, dass damit auch eine einheitliche Kilometereinteilung eingeführt worden wäre. Von etwa 1883 bis 1939 hatten die Rheinuferstaaten Baden, Bayern, Hessen und Preußen ebenso wie die Schweiz, das Elsass und die Niederlande für ihre Rheinabschnitte je eine eigene Kilometrierung. Sie fing jeweils an der Landesgrenze mit Null an und stieg stromabwärts an; Ausnahme war Hessen, das die Kilometerzählung weiterhin, wie die der Myriametersteine, an der Mittleren Brücke in Basel ausrichtete. Abweichend davon war der Hochrhein ausgehend von der badisch-schweizerischen Grenze bei Weil – dem Nullpunkt der badischen Einteilung – stromaufwärts kilometriert. Nach dieser Systematik lag z. B. Königswinter am preußischen Kilometer 143 (heute km 645). „Kurzer Kilometer“ bei Rüdesheim. Rechts eine 500-Meter-Marke. Das 1863 beschlossene Gesamt-Nivellement (Höhenvermessung) des Rheines erforderte auch eine erneute Längenvermessung, die 1890 abgeschlossen wurde, aber wegen mangelnder Genauigkeit wiederholt werden musste. 1904 machte Hessen der Zentral-Kommission Mitteilung über den erfolgreichen Abschluss und die Ergebnisse der Längen- und Höhenvermessung auf der hessischen Stromstrecke. Die anderen Länder schlossen ihre Messungen in den darauffolgenden Jahren ab. Die einzelnen Länder hatten den Sichtzeichen (Kilometertafeln und Einhundertmetersteine) größte Aufmerksamkeit gewidmet und sie teilweise, wie z. B. Hessen, für ihr Stromnivellement mit Höhenbolzen versehen. Um all diese Zeichen nicht versetzen zu müssen, hielt man bei der Gesamtvermessung ab Konstanz an mehreren bisherigen Systemgrenzen an dem fest eingemessenen Kilometerpunkt fest. Mittels des bloßen Auftragens neuer Zahlen konnten so alle schweizerischen, badischen, hessischen und die nördlich von Bingen stehenden preußischen Sichtzeichen weiterverwendet werden (und auch die Myriametersteine des damals hessischen Abschnitts befinden sich weiterhin an ganzen Kilometern). Daraus ergaben sich nun drei sogenannte "Kurze Kilometer": Die Strecke zwischen km 22 und km 23 bei Stein am Rhein (Zusammentreffen der neuen, von Konstanz flussabwärts laufenden Kilometrierung mit der bisherigen schweizerischen, von Basel aufwärts laufenden) wurde um rund 400 m kürzer als ein voller Kilometer, die zwischen km 436 und km 437 bei Roxheim – an der badisch-hessischen Grenze – um rund 365 m und die zwischen km 529 und km 530 bei Bingen – als letzter im ehemaligen Volksstaat Hessen beginnender Streckenkilometer – um rund 475 m. Der Rhein ist insgesamt ab Konstanz rund 1,2 Kilometer kürzer, als die Kilometerzahl an der Mündung ausweist. Flößerei. Flößerei mit Brenn- und Bauholz vor allem aus dem Schwarzwald wurde auf dem Rhein bis zur Mitte des 20. Jahrhunderts noch regelmäßig betrieben. Die Flöße ab Koblenz waren bis zu 400 m lang, bis 80 m breit und wurden von bis zu 500 Flößerknechten bedient. Bis Koblenz waren die Maße kleiner. Mit dem Bau der Eisenbahn und dem Zunehmen der Schifffahrt ging die Flößerei zurück. Nach 1945 wurde nur noch selten geflößt. 1967 wurde sie endgültig eingestellt. Auch aus dem Kanton Graubünden bis zum Bodensee fuhren Flöße. Ab 1291 galt der Alpenrhein als "Freie Reichsstraße". Flöße wurden in der Schweiz und anderen Regionen mit Handelswaren, sogenannter "Oblast" beladen, meist Brennholz oder verarbeitetes Holz. Parks. Als Rheinanlagen werden eine Reihe von parkähnlich gestalteten Uferpromenaden entlang des Rheins bezeichnet. So ließ die spätere deutsche Kaiserin Augusta ab 1856 in Koblenz die Rheinanlagen als Park gestalten. Später wurde der Park bis auf eine Länge von 3,5 km weiter ausgebaut. Zur Bundesgartenschau 2011 wurden dieser umfangreich restauriert. In Bingen wurden die Rheinanlagen zur Landesgartenschau 2008 neu angelegt und danach als Kulturufer vermarktet. Mit dem Rheinpark in Köln wurde zur Bundesgartenschau 1957 ein nachhaltig genutzter Naherholungsbereich geschaffen. Für die Bundesgartenschau 1979 wurden in Bonn die Rheinwiesen und landwirtschaftlich genutzten Flächen südlich des damaligen Regierungsviertels in einen 160 ha großen Landschaftspark, die Rheinaue, umgestaltet. Heute dient sie als Naherholungsgebiet und wird für Großveranstaltungen wie Freiluftkonzerte, Feste und Flohmärkte genutzt. Rheinromantik. Bestandteile von Rheinsagen sind Ritter, Drachen, einsame Jungfrauen auf hohen Felsen (Loreley), unachtsame Schiffer im verunglückenden Kahn oder fleißige Zwerge, die Heinzelmännchen. Der Rheinromantik sind abgesehen von einigen Liedern auch wiederaufgebaute Burgen wie Schloss Stolzenfels bei Koblenz oder die Hohkönigsburg im Elsass zu verdanken. Eine der bekanntesten Sagen ist das Nibelungenlied. Eng mit der Rheinromantik verbunden sind die zahlreichen Lieder, die dem Strom gewidmet sind. Das Repertoire reicht von Karnevalsschlagern wie „Einmal am Rhein“ von Willi Ostermann über patriotische Lieder des 19. Jahrhunderts (etwa „Zwischen Frankreich und dem Böhmerwald“ von August Heinrich Hoffmann von Fallersleben) bis zu der nationalistischen „Wacht am Rhein“ von Max Schneckenburger. Zu den bekanntesten Rheinliedern gehört „Ich weiß nicht, was soll es bedeuten“ von Heinrich Heine. Wegen seiner Bedeutung im Vergleich zu anderen deutschen Flüssen wird der Rhein auch schwärmerisch-liebevoll als "Vater Rhein" bezeichnet. Durch einen mächtig wirkenden Mann personifiziert, ist der für Deutschland symbolische Strom auch neben dem Hauptportal des Berliner Reichstagsgebäudes dargestellt. UNESCO-Welterbe. Das Obere Mittelrheintal zwischen Bingen/Rüdesheim und Koblenz wurde am 27. Juni 2002 in die Liste des Weltkulturerbes der UNESCO aufgenommen. Das Welterbegebiet erstreckt sich auf einer Länge von 67 km entlang des Durchbruchstals des Rheins durch das Rheinische Schiefergebirge. Die Einzigartigkeit dieser Kulturlandschaft ist der außergewöhnliche Reichtum an kulturellen Zeugnissen. Raumfahrt. Als Raumfahrt (Weltraumfahrt, Kosmonautik, Astronautik) bezeichnet man Reisen oder Transporte in oder durch den Weltraum. Der Übergang zwischen Erde und Weltraum ist fließend und wurde durch die US Air Force auf eine Grenzhöhe von 50 Meilen (~80 km) und durch die Fédération Aéronautique Internationale (FAI) auf eine Grenzhöhe von 100 Kilometern festgelegt (für letzteres siehe Kármán-Linie). Beide definierten Höhen liegen in der Hochatmosphäre. Während die Theorie der Raumfahrt bereits um 1900 von Konstantin Eduardowitsch Ziolkowski mit der Formulierung der Raketengleichungen entwickelt wurde, gab es die ersten Feststoffraketen bereits seit vielen Jahrhunderten. Die ersten Flüssigkeitsraketen wurden ab den 1920er Jahren von Robert Goddard und, im Rahmen des Zweiten Weltkriegs, von Wernher von Braun entwickelt. Die praktische Raumfahrt begann 1957 mit Sputnik 1 und erlebte 1969 einen ersten Höhepunkt mit der bemannten Mondlandung von Apollo 11. Vorbemerkung. Darüber hinaus gibt es die Hauptartikel Der Artikel "Raumfahrt" fasst die wichtigsten Aspekte zusammen und beschäftigt sich mit den Grundlagen der Raumfahrt. Geschichte. Obwohl schon lange die Vorstellung von Reisen zum Mond oder anderen Planeten und Sternen bestand, wurden erst im 20. Jahrhundert mit der Entwicklung der Raketentechnik die bisher einzigen Techniken entwickelt, mit der eine ausreichend hohe Geschwindigkeit erreicht werden kann. Für eine einfache Umlaufbahn sind das von der Erde mindestens 7,9 km/s (siehe Kosmische Geschwindigkeit). Theoretische Grundlagen und Raketen-Pioniere. Die Theorie der Raumfahrt wurde unter anderem von dem Russen Konstantin Ziolkowski (1857–1935) untersucht, der die mathematischen Grundprinzipien des Raketenantriebs und die Raketengrundgleichung formulierte. Auch der Deutsche Hermann Oberth (1894–1989) stellte 1923 die "Grundgleichung der Raketentechnik" auf und zeigte wie Ziolkowski mit dem Konzept der Stufenrakete, wie man große Nutzlasten energetisch günstig in die gewünschte Flugbahn bringen kann. Von den ersten Ingenieuren und experimentellen Wissenschaftlern sei der US-Amerikaner R. H. Goddard (1882–1945) erwähnt, der ab etwa 1910 kleine Raketenmotoren entwickelte. 1926 gelang ihm der Start der ersten Flüssigkeitsrakete. Noch früher tätig war hierin der Südtiroler Astronom und Raketenpionier Max Valier (1895–1930). Er wagte als erster Europäer Experimente mit flüssigen Treibstoffen und baute unter anderem ein Raketenauto (heute im Deutschen Museum). Bei einem Labortest in Berlin explodierte ein Aggregat, und ein Metallsplitter tötete den erst 35-Jährigen. Militär und Industrie entdecken die Raumfahrt. Dieser Prozess setzte zunächst im Deutschen Reich ein, das in der neuen Technologie eine Möglichkeit erkannte, die Bestimmungen des Versailler Vertrags zu umgehen. Bis zum Ausbruch des Zweiten Weltkrieges entstand so der Forschungs- und Produktionskomplex Peenemünde unter Wernher von Braun, der schließlich die A4/V2-Rakete hervorbrachte. Diese erste Großrakete der Welt wurde als Fernwaffe vor allem gegen London und Antwerpen eingesetzt. Aufgrund der relativen Treffungenauigkeit und des außerordentlich schlechten Verhältnisses von Kosten und Zerstörungswirkung war dieser Raketentyp militärökonomisch eine Fehlentscheidung. Die Militärstrategen und Politiker der Sowjetunion und der USA erkannten das Potential der Raketentechnik, das vor allem darin lag, dass Raketen praktisch nicht abgefangen werden konnten, und versuchten aus dem besetzten Deutschland nicht nur Geräte und Blaupausen, sondern auch Handlungswissen zu erbeuten. Damit begann bereits in den letzten Tagen des Zweiten Weltkrieges ein Wettlauf zwischen den beiden Staaten, der Jahrzehnte andauern sollte. Nach dem Krieg wurden sowohl vollständige Raketen als auch Produktionsanlagen und zahlreiche Wissenschaftler und Techniker in die USA und die Sowjetunion verbracht und bildeten dort die Grundlage der Raketenentwicklung für die nächsten Jahrzehnte (siehe Operation Paperclip). Der Wettlauf ins Weltall im Kalten Krieg. a>s in den Weltraum gebracht wurde Im nun einsetzenden Kalten Krieg kam der Raumfahrt vor allem eine massenpsychologische und propagandistische Bedeutung zu. Neben dem offensichtlichen militärischen Wert wurde sie von den Zeitgenossen als Messlatte für die Leistungsfähigkeit und Fortschrittlichkeit der beiden konkurrierenden Systeme wahrgenommen. Als Folge des sogenannten Sputnikschocks im Oktober 1957 wurde der amerikanischen Öffentlichkeit schlagartig bewusst, dass die Sowjetunion den technologischen Rückstand fast vollständig aufgeholt hatte. Von diesem Zeitpunkt an wurde die Raumfahrt auch in den USA nach Kräften gefördert, und es kam zu einem regelrechten Wettlauf. Die sowjetische Raumfahrt erbrachte dabei zahlreiche bedeutende Erstleistungen. Sie brachte einen Monat nach dem Start von Sputnik 1 das erste Lebewesen, die Hündin Laika, in den Weltraum. Am 12. April 1961 umkreiste Juri Gagarin als erster Mensch im Weltall die Erde. Die Sonden Lunik 2 und Luna 9 führten 1959 und 1966 erstmals auf dem Mond eine harte bzw. weiche Landung durch. Dagegen konzentrierten sich die Anstrengungen der USA unter Präsident Kennedy auf die bemannte Mondlandung, die am 20. Juli 1969 von einer halben Milliarde Fernsehzuschauern mitverfolgt wurde. Obwohl die zivile Raumfahrtbehörde NASA im Mittelpunkt der Öffentlichkeit stand und steht, wurde die Entwicklung der Raumfahrt abseits der öffentlichkeitswirksamen Prestigeprojekte ausschließlich von militärischen Erwägungen bestimmt. Etwa drei Viertel aller Satellitenstarts bis heute dienten militärischen Zwecken. Die USA verfügten seit 1959 über Aufklärungssatelliten, seit 1960 über Wetter-, Navigations- und Frühwarnsatelliten. Die Sowjetunion führte ihre bereits in den 1960er Jahren begonnenen Forschungen an Kopplungsmanövern, Langzeitflügen und Weltraumausstiegen von Kosmonauten weiter, über die erste Raumstation Saljut 1 bis zu gemeinsamen Kopplungsmanövern mit den USA 1975 und schließlich zur permanent bemannten Raumstation Mir. Kooperation und Globalisierung der Raumfahrt. Schon während der Mir-Ära konnte man eine verstärkte Kooperationsbereitschaft zwischen den USA und Russland beobachten. So dockte der Space Shuttle mehrmals an der alternden Raumstation an und trug damit wesentlich zum Erhalt bei. Die gemeinsamen Bemühungen mündeten schließlich in der Planung und dem Bau der Internationalen Weltraumstation (ISS). Nach dem Absturz der Raumfähre Columbia und einer Strategieänderung bei der NASA ist die Zukunft der ISS nach 2011 aber nicht mehr gesichert. Die NASA hat im Juli 2011 mit STS-135 zum letzten Mal eine Raumfähre ins All entsandt. Da sie bis etwa 2016 weder bemannte noch unbemannte Raumfahrzeuge zur Verfügung hat, ist sie auf russische Sojus-Raumschiffe angewiesen. Grundlagen. Moderne Raumfahrtantriebe funktionieren nach dem Rückstoßprinzip (Drittes newtonsches Axiom). Ähnlich einer Kanone, die zurückrollt, wenn eine Kugel abgeschossen wird, bewegt sich eine Rakete vorwärts, wenn sie hinten Masse ausstößt. Die wichtigste Eigenschaft eines Raketentreibstoffs aus antriebstechnischer Sicht ist sein spezifischer Impuls, welcher ein Maß für die Effektivität von Triebwerk und Treibstoff darstellt. Je höher er ist, desto besser ist der Treibstoff und das Triebwerk. Er gibt an, wie lange mit einer Treibstoffmasse M ein Schub von eben dessen Gewichtskraft erzeugt werden kann. Um von einem Himmelskörper wie der Erde senkrecht abheben zu können, muss die Schubkraft größer als die Gewichtskraft sein. Bisher sind nur chemische Raketentriebwerke und nukleare Raketentriebwerke dazu in der Lage. Start. Es wird in orbitale und suborbitale Raumfahrt unterschieden. Zur Erreichung eines Orbits muss ein Raumfahrzeug neben der Mindesthöhe auch noch die erste kosmische Geschwindigkeit von rund 7,9 km/s in horizontaler Richtung erreichen, um zu einem Erdsatelliten zu werden. Liegt die Geschwindigkeit darunter, entspricht die Flugbahn einer ballistischen Kurve. Um diese hohe Geschwindigkeit zu erreichen, werden Trägerraketen nach dem Stufenprinzip eingesetzt. Man unterscheidet zwischen Tank-, Triebwerks-, Parallel- und Tandemstufung. Der Start einer solchen Trägerrakete erfolgt von einer sogenannten Startrampe. Satellit. Ein Satellit (lat. für „Leibwächter“, „Begleiter“) ist in der Raumfahrt ein Raumflugkörper, der einen Himmelskörper – wie einen Planeten oder einen Mond – auf einer elliptischen oder kreisförmigen Umlaufbahn zur Erfüllung wissenschaftlicher, kommerzieller oder militärischer Zwecke umrundet. Satelliten, die auf einer eigenen Umlaufbahn einen anderen Körper als die Erde zu seiner Erforschung umlaufen, werden Orbiter genannt. Raumfahrzeuge. Als Raumschiffe werden im Allgemeinen alle Fahrzeuge bezeichnet, die zur Fortbewegung im Weltraum geschaffen wurden. Der Hauptantrieb im luftleeren Raum erfolgt durch konventionelle Raketentriebwerke. Sind Menschen an Bord, ist ein Lebenserhaltungssystem notwendig. Raketen die Einstufig sind, erreichen nur eine begrenzte Höhe und können deshalb den Anziehungsbereich der Erde nicht verlassen, darum werden Mehrstufenraketen verwendet. Sie bestehen aus mehreren aneinander gekoppelten Raketen. Raumstationen. Raumstationen sind, da sie selbst nicht über einen Antrieb zur Fortbewegung oder Landevorrichtungen verfügen, auf Raumfahrzeuge für Transporte angewiesen. Sie beinhalten Labore, Wohnmodule, Luftschleusen und eine Energieversorgung. Technisch herausfordernd beim Betrieb einer Raumstation ist vor allem die Versorgung der Besatzung. Aufgrund der hohen Kosten für Transporte müssen Systeme entwickelt werden, die den Betrieb einer Raumstation weitgehend autark erlauben, das heißt in einem geschlossenen Kreislauf. Besonders bei der Aufbereitung von Wasser und Luft wurden dabei große Fortschritte erzielt. Zum Austausch von Personal werden Raumfahrzeuge eingesetzt, zur Versorgung mit Frachtgütern, Treibstoff und Experimenten werden Raumfrachter eingesetzt. Raumtransporter. Um Raumstationen mit Fracht und Treibstoff zu versorgen, werden Versorgungsschiffe eingesetzt. Diese können auf bemannten Versionen von Raumfahrzeugen basieren, wie zum Beispiel das russische Progress. Andere sind ausschließlich für diesen Zweck verwendbar wie das japanische H-2 Transfer Vehicle. Räumliche Orientierung. Zur Steuerung von Raketenstarts, Satelliten und anderen Raumsonden ist eine genaue Orientierung im Raum notwendig. Sie erfolgt meist durch Kreiselplattformen, die entweder raumfest ausgerichtet sind (bzgl. astronomisches Koordinatensystem) oder laufend der Erdkrümmung nachjustiert werden. Gestützt und korrigiert wird diese Orientierung durch Sternsensoren. Es gibt auch die gravitative Stabilisierung anhand des natürlichen Schweregradienten. "Siehe auch:" Raumlage, räumliche Orientierung Landung. Beim Eintritt in die Atmosphäre wird das Raumschiff oder die Raumsonde abgebremst. Dabei treten Temperaturen von über 1000 °C auf. Bei Raumkapseln werden ablative Hitzeschilde eingesetzt, bei wiederverwendbaren Systemen wie dem Space Shuttle Hitzeschutzkacheln. Wenn keine Atmosphäre vorhanden ist, muss die Geschwindigkeit vollständig durch Bremsung mit Raketentriebwerken abgebaut werden, zum Beispiel bei einer Landung auf dem Mond. Das Aufsetzen erfolgt entweder vertikal mit laufenden Triebwerken oder horizontal. Raumfahrende Staaten. Zu den raumfahrenden Staaten und Staatengruppen zählten im Dezember 2012: Argentinien, Brasilien, China, Europa (ESA), Indien, Iran, Israel, Japan, Nordkorea, Russland (und die frühere Sowjetunion), Südkorea und die USA. Die Trägerraketen von Argentinien und Brasilien befinden sich derzeit noch in Entwicklung. Südkorea hat bereits Teststarts unternommen, aber noch keinen erfolgreichen Flug durchgeführt. Kommerzielle und private Raumfahrt. Der erste Bereich der Raumfahrt, der kommerziell nutzbar wurde, waren Kommunikationssatelliten und Fernsehsatelliten. Der erste experimentelle Nachrichtensatellit war der militärische SCORE. Der erste zivile Nachrichtensatellit war der passive Echo 1, und der erste aktive war Telstar. Die passiven Nachrichtensatelliten erwiesen sich als kommerziell nicht nutzbar. Bei Telstar erwies sich die niedrige Umlaufbahn als nicht sinnvoll. Systeme auf niedrigen Umlaufbahnen wurden daher im Westen von den Geostationären Satelliten abgelöst. Der erste funktionsfähige, noch experimentelle war Syncom 2. Danach wurde von den Fernmeldegesellschaften und Behörden der westlichen Welt zum kommerziellen Einsatz von Nachrichtensatelliten der Satellitenbetreiber Intelsat gegründet. In den USA entstanden in den folgenden Jahren auch rein private Satellitenbetreiber. In Europa entstanden ebenfalls in einigen Ländern von staatlichen Fernmeldeverwaltungen betriebene Nachrichtensatellitensysteme, die später eingestellt oder privatisiert wurden. Bei den Fernsehsatelliten konnten sich in Europa staatliche Systeme nie richtig entfalten, und es dominierte von Anfang an das private Astra-System. Nachdem Intelsat privatisiert wurde, werden Kommunikationssatelliten nur noch in Ausnahmefällen von staatlichen Organisationen betrieben, zum Beispiel militärische Nachrichtensatelliten und experimentelle Satelliten. Ebenfalls werden die Startdienste für diese Satelliten meist von privaten Firmen angeboten (z. B. Arianespace). Dagegen werden die von ihnen benutzten Trägerraketen noch immer mit Steuergeldern von Raumfahrtorganisationen entwickelt, oder die Entwicklung wird subventioniert. Komplett privat finanzierte Trägersysteme gibt es nur sehr wenige. Die meisten sind noch im Planungsstadium oder in Entwicklung. Trägersysteme. Kombinierte Luft- und Raumfahrzeuge oder der Weltraumlift sollen die Startkosten weiter senken und der Raumfahrt zu mehr wirtschaftlichem Erfolg verhelfen. Durch die Nanotechnologie ist es gelungen, neue Rohstoffe (Wasser, Aluminium, siehe ALICE) für den Antrieb nutzbar zu machen, die in großen Mengen verfügbar sind und einen Flug mit vergleichsweise harmlosen Emissionen ermöglichen. Über die ingenieurtechnischen Möglichkeiten hinaus geht bisher noch die Vision Eugen Sängers: der Photonenstrahlantrieb, mit dem man andere Sterne und Galaxien erreichen könnte. Forschung. Die Suche nach Leben außerhalb der Erde (Astrobiologie) rückte in den letzten Jahren immer mehr in den Fokus der Argumentationen, aber auch weiterhin wird Grundlagenforschung betrieben werden, zum Beispiel mit dem geplanten James Webb Space Telescope oder der Laser Interferometer Space Antenna. Weltraumtourismus. Als Weltraumtourismus werden Vergnügungs- oder Studienreisen in die suborbitale Bahn oder den Erdorbit bezeichnet. Ziele sind zurzeit die Erdumlaufbahn als Flugereignis und die Internationale Raumstation (ISS) für einen Besuch. Die US-Firma Space Adventures plant in Kooperation mit Russland, künftig auch Flüge um den Mond herum anzubieten. In derzeit nicht näher bestimmbarer Zukunft will auch die Firma Virgin Galactic für 200.000 US-Dollar suborbitale Flüge mit dem Raumflugzeug SpaceShipTwo anbieten. Mondbasis. Die NASA entwickelte im Rahmen des Constellation Programms die Ares-Trägerfamilie. Dieses wurde jedoch von US-Präsident Barack Obama ersatzlos gestrichen. Ziel war es, dass wieder Menschen auf dem Mond landen. Statt nur kurzer Ausflüge sollte diesmal eine Mondbasis errichtet werden. Auf diese Weise hätten neue Forschungsfelder erschlossen werden können. Marslandung. Ebenfalls will die NASA nach 2030 Menschen zum Mars schicken. Die Kosten und Herausforderungen sind ungleich größer als bei einem Mondflug. Weltraumhotel. Das am weitesten gediehene Projekt stammt von der Firma Bigelow Aerospace, die 1999 von dem US-Amerikaner Robert Bigelow, einem Hotelier und Immobilienmakler, gegründet wurde. Am 12. Juni 2006 startete von Russland aus ein erster Test-Satellit von Bigelow Aerospace mit dem Namen Genesis 1, der die Technologie dafür erproben soll. Am 28. Juni 2007 erfolgte nach mehreren Verschiebungen der Start von Genesis 2 mit einer Dnepr-Rakete. Die Idee besteht darin, Wohnmodule mit aufblasbarer Außenhaut in den Weltraum zu transportieren. Dabei handelt es sich um eine Technologie, die ursprünglich von der NASA entwickelt wurde. Nachdem die Entwicklung eingestellt wurde, kaufte Robert Bigelow das Patent. Rohstoffgewinnung. Viele Asteroiden bzw. NEOs enthalten u. a. Metalle wie Platin, Eisen, Nickel und Metalle der Seltenen Erden. Der Mond hat das für eine Kernfusion verwertbare Helium-3. Angesichts knapper werdender Ressourcen könnte sich die Rohstoffgewinnung auf fremden Himmelskörpern rechnen. Es gibt Konzepte für Asteroid Mining. Weltraumkolonisierung. Weltraumkolonisierung ist das Konzept eines menschlichen Habitats außerhalb der Erde und damit ein großes Thema der Science-Fiction, aber auch ein Langzeitziel verschiedener nationaler Weltraumprogramme. Entsprechende Kolonien könnten auf Planeten- oder Mondoberflächen oder im Inneren von Asteroiden errichtet werden. Es gibt auch Überlegungen, große Räder oder Röhren im All zu bauen, die durch Rotation künstliche Schwerkraft schaffen. Militärische Raumfahrt. Erste Überlegungen für orbitale Waffensysteme und Militarisierung des Weltraums gab es schon in den 1950er Jahren. Der Wettlauf ins All, der Kalte Krieg und das Wettrüsten der USA und der Sowjetunion führten zu militärischer Forschung und Entwicklung auf diesem Gebiet. Für Rüstungsprojekte wie SDI (ab 1984) und später NMD wurden weltraumgestützte Waffentechnologien entwickelt und im kleinen Rahmen zum Teil auch getestet. Die Sowjetunion entwickelte Killersatelliten wie z. B. Poljus (1987) und Prototypen militärischer Raumgleiter wie Uragan. Beide Supermächte betrieben geheime Forschungsprogramme für die Entwicklung Transatmosphärischer Flugzeuge (engl. Trans-Atmospheric Vehicles- TAV), die in der Lage gewesen wären, Low Earth Orbit zu erreichen. Nachdem zuvor auch Tests mit Kernwaffen wie Starfish Prime (1962) in der Exosphäre durchgeführt worden waren, kam es zu Verträgen wie u. a. dem Vertrag über das Verbot von Kernwaffenversuchen in der Atmosphäre, im Weltraum und unter Wasser (1963) und dem Weltraumvertrag (1967). Technische militärische Aufklärung, Kommunikation, Navigation, Früherkennung und Überwachung aus dem Erdorbit gewannen zunehmend an Bedeutung. Heute (Stand 2011) betreiben einige Nationen wie u. a. die USA, Russland und China in unterschiedlichen Umfang militärische Raumfahrt. Es gibt Konzepte für eine zukünftige Planetare Verteidigung. Rhätische Bahn. Die Rhätische Bahn (RhB) (,) ist ein Eisenbahnverkehrs- und Eisenbahninfrastrukturunternehmen in der Schweiz. Die Aktiengesellschaft hat ihren Sitz in Chur. Das Streckennetz liegt überwiegend im Kanton Graubünden, ein kleiner Teil auch in Italien. Von Misox aus bestand früher auch eine Strecke ins Tessin. Der Name geht auf die frühere römische Provinz Raetia zurück. Dieser wurde im 18. Jahrhundert auch für den Freistaat der drei Bünde verwendet, deren grösster Teil 1799 im helvetischen Kanton Rätien aufging. Mit der Mediationsakte Bonapartes erfolgte 1803 die Umbenennung Rätiens in Graubünden. Die RhB verfügt über ein meterspuriges Schmalspurnetz mit einer Länge von 384 Kilometern, das in Mustér an das ebenfalls meterspurige Netz der Matterhorn-Gotthard-Bahn (MGB) anschliesst. Bekannteste RhB-Strecken sind die Berninalinie und Albulabahn, die seit Juli 2008 als dritte Bahnstrecke zum UNESCO-Welterbe zählen. Ihr Wahrzeichen ist das Landwasserviadukt, das direkt in den Landwassertunnel führt. Gründungsgeschichte. Die Gründung der Rhätischen Bahn geht auf den Niederländer Willem Jan Holsboer zurück. Dieser war der Hauptinitiator einer Eisenbahn von Landquart nach Davos, der ersten Strecke im Netz der späteren RhB. Am 7. Februar 1888 wurde auf Initiative Holsboers hin die "Schmalspurbahn Landquart–Davos AG" (LD) gegründet. Ursprünglich wollte die Gesellschaft eine Zahnradbahn erstellen, um die Steigungen auf dieser Gebirgsstrecke zu überwinden. Eine Variante mit drei Spitzkehren war ebenfalls im Gespräch. Beide Varianten wurden jedoch aufgrund des Erfolges der zahnrad- und spitzkehrfreien Gotthardbahn verworfen und der Bau einer reinen Adhäsionsbahn mit nur noch einer Spitzkehre beschlossen. Diese einzige Spitzkehre befand sich im Bahnhof Klosters und wurde durch einen 1930 bis 1932 gebauten Kehrtunnel südlich des Bahnhofs abgelöst. Die anfangs geplante Normalspur konnte aufgrund der beengten Verhältnisse und aus Kostengründen nicht realisiert werden. Der erste Spatenstich erfolgte am 29. Juni 1888. Schon 1889 konnte der Streckenteil von Landquart nach Klosters und acht Monate später die gesamte Strecke bis Davos eröffnet werden. Aufgrund der weiteren, ebenfalls auf Holsboer zurückgehenden Pläne für eine Expansion der Bahn auch in andere Regionen des Kantons Graubünden, änderte im Jahre 1895 die "Schmalspurbahn Landquart–Davos AG" ihren Namen in "Rhätische Bahn". 1897 wurde die RhB nach einer Volksabstimmung zur bündnerischen Staatsbahn. 1907–1910 wurde in Chur in der Bahnhofstrasse das repräsentative Verwaltungsgebäude der RhB im "Bündner Heimatstil" errichtet und unter eidgenössischen und kantonalen Denkmalschutz gestellt. Erste Erweiterungen des Streckennetzes. Die Elektrifizierung (→Bahnstrom) machte den Zugbetrieb erheblich leistungsfähiger und reduzierte für die Bahn den vor allem durch den Ersten Weltkrieg bedingten Kohlemangel. Auf dem RhB-Stammnetz kam die bis heute übliche Wechselspannung von 11 kV und 16 2/3 Hz (seit 1995: 16,7 Hz) zur Anwendung. Eingliederung der Arosabahn, der Misoxerbahn und der Berninabahn in die RhB. Die Bündner Bahnen waren Ende der 1930er-Jahre mit den anstehenden Erneuerungsarbeiten und angesichts der Krise im Tourismus und in anderen Wirtschaftszweigen in finanzielle Schieflage geraten. Sie beantragten deshalb Bundeshilfe nach dem 1939 erlassenen Privatbahnhilfegesetz. Finanzielle Leistungen nach diesem Gesetz waren aber an die Bedingung gebunden, dass sich die Bahnen zu grösseren Einheiten zusammenschliessen. Am 26. Oktober 1941 genehmigten die Aktionäre der RhB den Fusionsvertrag mit der Chur-Arosa-Bahn und der Bellinzona-Mesocco-Bahn; die Fusion wurde auf den 1. Januar 1942 wirksam. Am 24. Juni 1944 stimmten die Generalversammlungen der RhB und der Berninabahn einer rückwirkend auf den 1. Januar 1943 zu vollziehenden Fusion zu. Bereits auf den 1. Januar 1942 hatte die RhB Verwaltung und Betrieb der Berninabahn übernommen. Wirtschaftliche Probleme. Im Zweiten Weltkrieg konnte die RhB die Transportmengen massiv steigern, die Strassenkonkurrenz war durch die Treibstoffknappheit paralysiert. Im Jahre 1945 wurde mit 117 Millionen Personenkilometer und 24 Millionen Tonnenkilometern praktisch die doppelte Transportleistung erbracht als in den Vorkriegsjahren. Nach dem Krieg stagnierten die Transportleistungen auf hohem Niveau. Die wieder einsetzende Strassenkonkurrenz setzte indessen der Ertragskraft zu und 1949 musste erstmals seit 1915 ein Betriebsfehlbetrag ausgewiesen werden. Eine Wende trat 1958 ein, als das Eisenbahngesetz in Kraft trat und ein Jahr später die Tarifannäherung (der Privatbahntarife im Berggebiet an die Tarife der SBB). Die neuen Abgeltungen des Bundes erlaubten wieder positive Rechnungsabschlüsse und bis 1962 stiegen die Personenkilometer auf 175 Millionen an, doch dann verlangsamte sich das Wachstum. Der Güterverkehr boomte dank der Kraftwerksbauten und 1966 wurde ein Spitzenwert von 56 Millionen Tonnenkilometern erreicht. Der Güterverkehr ging wieder zurück, der Personenverkehr stagnierte, doch die Lohnkosten folgten der Inflation und 1970 schrieb die RhB wieder rote Zahlen. Die nun einsetzende Defizitdeckung war an die Bedingung geknüpft, dass auch der Kanton einen Anteil leiste. Dies führte zur Forderung, die RhB zu verstaatlichen, was die Eingliederung in die Schweizerischen Bundesbahnen (SBB) bedeutet hätte. Ende der 1970er-Jahre besann sich die RhB auf ihre Stärken. Zielstrebig begann sie, ihre Streckenführung touristisch zu vermarkten. Als Spitzenprodukt wurde der Bernina-Express geschaffen, der Glacier-Express wurde gemeinsam mit der MGB bzw. ihren Vorgängerinnen ausgebaut, womit die Auslastung dank Besuchern aus der ganzen Welt auch in der Nebensaison erhöht werden konnte. Ausserdem wurde die personelle Besetzung umsatzschwacher Bahnhöfe aufgehoben. Die Bedienung bahnferner Ortschaften wurde PostAuto übergeben, wodurch im Abschnitt Thusis–Samedan auf Regionalzüge verzichtet werden konnte. Die Strecke von Mesocco nach Bellinzona wurde zunächst für den Personenverkehr und mittlerweile, nach der Schliessung des Betriebs des grössten Güterkunden, auch für den Güterverkehr stillgelegt. Die Personenkilometer überschritten 1980 die Marke von 200 Millionen und 2001 300 Millionen; 2009 wurden 383 Millionen Personenkilometer geleistet. Der Güterverkehr erreichte 1990 wieder 56 Millionen Tonnenkilometer und schwankt seither in einem Bereich von 44 bis 59 Millionen. Eröffnung der Vereinalinie. Zusätzlichen Auftrieb erhielt die RhB durch den Bau der Vereinalinie, welche von Landquart über Klosters, durch den im Jahre 1999 eröffneten Vereinatunnel, ins Unterengadin führt. Auf dieser Linie werden nebst Personen vor allem auch Personenwagen und Lastwagen transportiert, welche sich dadurch die beschwerliche Fahrt über den Flüelapass ersparen können. 2009 wurden 478'000 Fahrzeuge durch den Vereinatunnel transportiert. Das Unterengadin ist durch diesen Tunnel um zwei, im Winter drei Stunden der Kantonshauptstadt Chur und den Zentren des schweizerischen Mittellands nähergerückt. Die Frequenzen der grösstenteils vom Bund finanzierten Vereinalinie haben bisher sämtliche Erwartungen übertroffen und dem Unterengadin einen gewissen wirtschaftlichen Aufschwung und einen Tagestourismus gebracht. Die wirtschaftlichen Probleme der RhB sind trotz aller Neuerungen jedoch nicht aus der Welt geschafft, es bedarf ständiger Anstrengungen mit den Verkehrseinnahmen (2008: 121 Millionen Schweizer Franken) und den betraglich beschränkten Mitteln der öffentlichen Hand (Abgeltung durch Bund und Kanton Graubünden 2008: 137 Millionen Schweizer Franken) auszukommen. Ausserdem müssen seit 2000 die Fahrzeuge mit verzinslichen Krediten beschafft werden, da die öffentliche Hand keine zinslosen Darlehen für diesen Zweck mehr gewährt. Dies wiederum erhöht die Betriebskosten. Weitere Sanierungsmassnahmen. Am 24. August 2006 beschloss der Verwaltungsrat der Rhätischen Bahn eine Reduktion des Personalbestandes um 145 Mitarbeiter bis Ende 2008. Ein solcher Schritt ist gemäss Auffassung des Verwaltungsrates unerlässlich, um den Bestand der Rhätischen Bahn mittelfristig zu sichern. Die dadurch freiwerdenden finanziellen Ressourcen werden dringend benötigt, um die anstehende Sanierung der Trassen sicherzustellen (zum Beispiel ist rund ein Drittel der über 150 Brücken sanierungsbedürftig) und um modernes Rollmaterial anzuschaffen. Der Personalabbau, welcher einer Verminderung des gegenwärtigen Personalbestandes um ein Zehntel entspricht und vor allem die Bereiche Werkstätten und Stationspersonal betrifft (von den Stationen Untervaz, Ospizio Bernina und Campocologno wird das Personal abgezogen; für weitere Stationen werden private Betreiber gesucht), wird zwar weitestmöglich ohne Entlassungen erfolgen. Rund 40 Entlassungen sollen jedoch nicht zu umgehen sein. Aufnahme der Albulalinie und der Berninabahn in das UNESCO-Welterbe. Am 21. Dezember 2006 wurde in Paris ein Bewerbungsdossier an die UNESCO übergeben, mit dem Ziel die Albula- und die Berninalinie als UNESCO-Welterbe aufzunehmen. Dies erfolgte schliesslich am 7. Juli 2008. Der Bestand der Strecke von Thusis nach Tirano ist damit auf lange Sicht gesichert. Das Label UNESCO-Welterbe gilt nicht nur für die RhB-Linie im engeren Sinne, sondern auch für ein Band entlang der Bahnstrecke. Dieser mitgeschützte Bereich umfasst im Einzelnen definierte wichtige Kulturgüter, Ortsbilder und Landschaftselemente und weist eine Breite von 500 bis 1000 Metern auf. Schliesslich wurde eine sogenannte Pufferzone ("Kulisse") definiert, welche die Kulturlandschaft umfasst, die von der Bahnlinie aus gesehen wird. Wegen des Einbezuges von Tirano zeichnete Italien für die Welterbekandidatur mitverantwortlich. Die Schweiz war aber federführend. Das Bewerbungsdossier betreute das Bundesamt für Kultur. Künftig beschränkt sich die Rolle des Bundes auf die Überwachung der UNESCO-Richtlinien. Bund und Kanton Graubünden haben sich mit der Kandidatur verpflichtet, die Albula- und die Berninalinie einschliesslich Umgebung in ihrer Einzigartigkeit zu erhalten. Das bedeutet jedoch nicht, dass veraltete Einrichtungen künftig nicht mehr modernisiert werden dürfen. Die Albula- und Berninabahnstrecke ist, nach der Semmeringbahn in Österreich sowie der Mountain Railways of India (Darjeelingbahn, Nilgiribahn, Kalka-Shimla Bahn) in Indien, die dritte Bahnlinie, die in das Weltkulturerbe aufgenommen wurde. Das Netz der Rhätischen Bahn. Datei:KARTE_rhb.png|hochkant=1.5|miniatur|Streckennetz der Rhätischen Bahn poly 491 66 501 78 527 88 548 101 587 122 608 139 627 154 635 189 654 204 662 207 672 179 674 159 691 149 692 130 662 102 613 78 584 55 537 50 514 45 Bahnstrecke Landquart–Davos Platz poly 649 199 664 224 648 264 612 289 581 306 575 309 575 284 578 273 606 231 629 198 641 195 Bahnstrecke Davos Platz–Filisur poly 482 68 479 99 454 142 418 166 423 182 408 194 399 219 409 237 421 263 431 296 454 272 477 200 486 163 513 138 519 94 519 80 Bahnstrecke Landquart–Thusis poly 419 171 335 184 259 214 156 259 116 277 130 291 138 310 227 277 309 251 379 221 407 203 423 184 Mustér poly 674 430 697 427 710 416 741 370 787 333 808 302 825 272 815 251 847 235 895 223 915 208 898 182 850 190 805 200 784 207 784 228 747 282 690 351 678 386 681 404 672 423 Bahnstrecke Bever–Scuol-Tarasp poly 430 296 445 315 499 333 538 343 571 346 594 366 622 395 645 419 646 450 669 428 686 397 677 372 640 342 613 303 575 282 502 274 456 265 Albulabahn poly 646 431 654 463 695 490 734 533 762 572 785 626 812 653 833 676 867 666 861 641 816 585 792 542 782 506 764 467 742 437 713 423 Berninabahn poly 477 172 496 194 534 198 555 200 547 230 570 235 601 215 606 184 593 167 567 162 510 157 491 150 Bahnstrecke Chur–Arosa poly 218 691 241 699 269 680 311 654 326 620 351 580 353 544 339 529 311 539 295 585 274 623 255 648 217 669 204 682 214 699 Bellinzona-Mesocco-Bahn poly 769 245 793 214 769 181 705 154 678 150 667 168 667 181 Vereinatunnel Rollmaterial der RhB. Im Januar 2013 besass die RhB 73 Lokomotiven und sonstige Triebfahrzeuge, 20 Triebzüge sowie 297 Personenwagen und 489 Güterwagen. Technische Besonderheiten. Wenngleich die RhB zusammen mit der MGB als grösstes Schmalspurnetz in vielem den Standard setzt, so weisen heute deren Fahrzeuge Eigenschaften auf, die andernorts nicht oder kaum mehr zu finden sind. So sind RhB und MGB bis heute dem Mittelpuffer mit zwei Schraubenkupplungen treu geblieben, während fast alle kleineren Bahnen in der Schweiz zu einer automatischen Kupplung gewechselt haben. Allerdings sind für besondere Zwecke begrenzt andere Kupplungen eingesetzt worden (RhB: Vereina-Autozüge, Vorortspendelzüge). Dabei wurde für jeden neuen Zweck wiederum auf eine andere Kupplung zurückgegriffen, sodass das RhB/MGB-Netz heute mit insgesamt sechs Kupplungssystemen konfrontiert ist. Als Haupt-Bremssystem hat sich bis heute die Vakuumbremse gehalten. Sie wird aber zunehmend durch die vakuumgesteuerte Druckluftbremse verdrängt, die bei den Steuerwagen schon lange verwendet wird. Die Lärmsanierung (Umstellung auf Kunststoff-Bremsklötze) der Personenwagen erforderte den Einbau eines Gleitschutzes, der nur mit Druckluftbremsen möglich ist. Alle neuen Personenwagen werden deshalb nun ebenfalls mit vakuumgesteuerter Druckluftbremse ausgeliefert, ältere nachgerüstet. Bei den Vereina-Autozügen und den Vorortspendelzügen wird seit der Inbetriebnahme dieser Fahrzeuge die Druckluftbremse verwendet. Die ab 1913 eingeführte elektrische Heizung erfolgt mit 300 V ab dem Transformator des Triebfahrzeugs. Auf dem europäischen Normalspurnetz sind demgegenüber Spannungen von 1000, 1500 oder 3000 Volt üblich. Um die gleiche Heizleistung zu erreichen, sind deshalb bei der RhB wesentlich grössere Ströme erforderlich; das Maximum liegt derzeit bei 1000 Ampère. Da dies für sehr lange Züge nicht mehr ausreicht, wurden einige Gepäckwagen als Heizwagen ausgerüstet; sie heizen ab Zugmitte den hinteren, die Lok den vorderen Zugsteil. Längerfristig soll die Heizspannung auf 1000 Volt angehoben werden. Farbgebung des Rollmaterials. Die RhB hat sich über einen langen Zeitraum als „die kleine Rote“ bezeichnet, wenngleich die Fahrzeuge der RhB nicht immer rot waren. Vielmehr gab es zu unterschiedlichen Zeiten eine Reihe verschiedener Farbgebungen. Allgemeine Wagenfarbe war zu Beginn das Dunkelgrün. Der Anstrich sollte das Holz der Wagenkästen vor Verwitterung schützen, gleichzeitig sollte er nicht zu anfällig auf Verschmutzung sein, da die Wagen ständig in den Rauchfahnen der Dampfloks verkehrten. Auch die ersten elektrischen Lokomotiven (Ge 2/4 und Ge 4/6) erschienen ab 1913 mit wagengrünem Anstrich. Mit der Ablieferung der "Krokodile" Ge 6/6 401 bis 415 ab 1921 wurde Braun zur Farbe der Stangen-Elektroloks, auch die zuvor grünen Loks erhielten nun einen braunen Anstrich. 1929 wurde auf der RhB der Speisewagenbetrieb eingeführt und zwar mit Wagen, die (bis 1949) der Mitropa gehörten. Diese Wagen waren dunkelrot. Gleichzeitig erschien der erste zweifarbige Wagen, nämlich der As4ü 61 (später As 1161), der ab 1930 im Glacier-Express lief. Es folgten der A4ü 54 (A 1154) und die F4ü 4202 bis 4203 (D 4202 bis 4203), die ab 1931 zusammen mit einem grünen B4ü 1101 bis 1109 (A 1101 bis 1109) und einem roten Mitropa-Dr4ü 10 bis 12 (WR 3810 bis 3812) im Engadin-Express liefen. Ursprünglich für denselben Zweck kaufte die RhB von der Compagnie Internationale des Wagons-Lits vier Pullmanwagen, die für den GoldenPass beschafft worden waren und 1939 als grün/crème AB4ü 241 bis 244 (As 1141 bis 1144) in den Fahrzeugpark eingegliedert wurden. Durch den Beginn des Zweiten Weltkriegs und den damit verbundenen Einbruch im Tourismusbetrieb konnten die Wagen zunächst kaum vernünftig eingesetzt werden; sie dienten vorerst für Sonderfahrten, insbesondere der Armee respektive der Armeeführung und nach dem Krieg als Verstärkungswagen in der 1. Wagenklasse. 1939 und 1940 wurden zwölf Leichtbau-Fahrzeuge abgeliefert, vier Triebwagen (501–504) und acht Mitteleinstiegswagen, die zunächst für schnelle, leichte Expresszüge eingesetzt wurden. Diese Fahrzeuge erschienen in rot und behielten diese Farbe grundsätzlich bis heute, wobei aber der Rotton, die Anschriften und die Zierlinien den späteren Ausführungen angepasst wurden. 1942/43 wurden drei von Anfang an mit Gleichstrom betriebene Bahnen in die RhB integriert, deren Fahrzeuge nicht der "Russplage" ausgesetzt waren. Die Fahrzeuge der Chur-Arosa-Bahn waren seit der Eröffnung 1914 bis zur Eingliederung in die RhB 1942 grau/weiss, diejenigen der Bellinzona-Mesocco-Bahn grün/crème. Die Fahrzeuge der Berninabahn waren bis zur Fusion 1943 gelb, aber es vergingen noch mehr als zehn Jahre, bis die letzten Fahrzeuge den Anstrich ihrer ehemaligen Bahngesellschaft verloren hatten. Bekannt ist insbesondere der Berninabahn-4 6, der bis 1960 im gelben Anstrich verkehrte. Nun wurde grün/crème als Farbe für alle Reisezugwagen und die Gleichstrom-Triebwagen bestimmt. Die ersten Neubauten in diesem Anstrich waren die ab 1947 gelieferten Mitteleinstiegswagen von SWS. Bis weit in die 1960er-Jahre hinein waren noch grün/crème-farbige Wagen unterwegs. Als allerletzte Wagen verkehrten die B2 2075 bis 2076 in diesem Anstrich, bevor sie 1983 ausrangiert wurden beziehungsweise an die Schmalspurbahn Öchsle gingen. Die ab 1947 gelieferten Lokomotiven mit Einzelachsantrieb (Ge 4/4 I 601 bis 610, Ge 6/6 II 701 bis 707, Ge 4/4 II 611 bis 620) erschienen in grün. Dieselbe Farbe galt bisher als Norm für die Gepäckwagen. Bereits die 1956 abgelieferten Mitteileinstiegswagen von SIG wurden ebenfalls wieder ganz in Grün gehalten. Nach und nach wurden auch die Personenwagen und Gleichstrom-Triebwagen ab 1956 ganz grün gestrichen. 1957 wurden die ersten Neubautriebwagen für Gleichstromlinien geliefert, diese erschienen in rot und ab 1962 erhielten auch die alten Gleichstromtriebwagen diese Farbe. Mit der bald darauf beschlossenen Einführung von Steuerwagen wurde entschieden, jeweils die ganzen Pendelzüge in rot zu gestalten. Als erste kamen 1968 die vier Erstklasswagen A 1253 bis 1256 in Betrieb, die im Winter in den Pendelzügen nach Arosa und im Sommer im Glacier-Express verkehren sollten. Somit wurde auch dieser Expresszug erstmals ganz rot, da die von FO und BVZ gestellten Zweitklasswagen ebenfalls rot waren. Auch die pendelzugfähigen Neubauwagen (ABt 1701–03, B 2315–19 und D 4231–32) für die Arosa-Linie wurden in roter Farbe abgeliefert. Die in dieser Zeit beschafften sonstigen Personenwagen, also die Einheitswagen I in gewöhnlicher Länge und in verkürzter Ausführung für die Berninabahn waren, wie die älteren Wagen, grün gestrichen. Ab 1973 wurden die Fahrzeuge nicht mehr mit den Buchstaben «RhB» beschriftet, sondern mit dem neu eingeführten Logo versehen. Dieses Logo wurde ab 1983 (Lieferung EW III) mit dem rechts davon stehenden Bahnnamen in einer der drei in Graubünden vorkommenden Landessprachen ergänzt, also Rhätische Bahn, Ferrovia retica oder Viafier retica. Ab diesem Zeitpunkt wurden auch die technischen Anschriften in einen Block unterhalb der Wagennummer zusammengefasst und ab 1985 enthielt dieser erweiterte Informationen, insbesondere auch das für die Lastberechnung massgebliche Gewicht im beladenen Zustand. Alle Stammnetz-Einheitswagen II (EW2) wurden ebenfalls noch in grün ausgeliefert (bis 1980), aber kurz danach wurde beschlossen, generell auf rot zu wechseln, was circa zehn Jahre in Anspruch nahm. Zunächst beschränkte sich der Farbwechsel zwar noch auf Wagen, die auf die Berninastrecke übergehen konnten. Als erste in der Lackiererei waren 1981 die kurzen Bernina-B 2307 bis 2314 von 1968. Die A 1261 bis 1262 (EW2 verkürzt) wurden 1978 rot ausgeliefert, weil sie mit Steuerleitung ausgerüstet sind, 1982 erschienen die BD 2471–74 (ebenfalls EW2 verkürzt) ohne Steuerleitung in rot. Die zweite Serie Ge 4/4" wurde 1984 rot ausgeliefert. Kurz zuvor, 1983, wurde aber noch eine Sonderlackierung in rot mit braunem Fensterband für den Bernina-Express eingeführt (10 EW3), mit der 1985/86 auch die A 1261, 1262 und BD 2473 versehen wurden und 1993 alle verkürzten Einheitswagen IV (11 EW4). Bei den ab 2000 gelieferten Panoramawagen mit den grossen Fenstern war dieses Fensterband nicht mehr passend. Zwischen 1999 und 2004 wurden deshalb alle 24 Wagen mit dem roten Standardanstrich versehen. Als letzter grün lackierter moderner Wagen ging der B 2373 Mitte Dezember 1990 in die Revision. Die rot lackierten Wagen haben ein silbern lackiertes Dach, silberne Türen sowie eine silberne Zierlinie unter den Fenstern, die seit einigen Jahren breiter wurde und in rot auf den Türen fortgesetzt wird. Vorübergehend wurde auf das RhB-Logo verzichtet und der Schriftzug in den Zierstreifen integriert, allerdings wird inzwischen das Logo wieder wie seit 1983 üblich angebracht. Bei Loks und Triebwagen verläuft der Zierstreifen auf Fussbodenhöhe, darunter sind sie dunkelgrau lackiert. Die ab 2009 ausgelieferten Allegra-Triebzüge übernehmen den bisherigen Triebwagenanstrich mit tiefliegender Zierlinie, sind darunter jedoch dunkelrot statt dunkelgrau lackiert. Die Bereiche der ersten Klasse sind mit einer gelben Kennlinie an der Dachkante markiert (bei den Bernina-Panoramawagen nur im Türbereich). Die 1939 gekauften As 1141 bis 1144 wurden von 1974 bis 1977 revidiert und erhielten einen Anstrich in rot/crème, 1985 folgte der As 1161. Er war ab 1973 als Messwagen verwendet worden, für die Inbetriebnahme der Ge 4/4 II, und war danach im grün/crème-Anstrich abgestellt. 1986 erhielt auch der A 1154, der zwischenzeitlich grün war, diesen Anstrich. Nachdem aber der ganze Fahrzeugpark rot lackiert wurde, fielen die Speisewagen in den Zugskompositionen nicht mehr auf. Deshalb wurde blau zur neuen Speisewagenfarbe bestimmt. Während anfänglich ein helles Blau appliziert wurde, ist der Anstrich jetzt in Salonwagen-Dunkelblau. Weiter unter den blauen Fahrzeugen zu erwähnen sind einige Wagen, die 1997 einen Anstrich in der Hausfarbe der Gemeinde Arosa erhielten. Sie verkehrten ab der Umstellung der Arosabahn auf Wechselstrom im Arosa-Express und behielten ihren Sonderanstrich vertragsgemäss etwa zehn Jahre lang, der letzte Wagen (As 1256) bis 2012. Weiter wurde die Ge 6/6 I 412 passend zu den Pullman-Wagen komplett in Blau gestrichen. Diesen Anstrich behielt sie bis zu ihrer Ausrangierung und Verschrottung. 1998/99 wechselten die As 1141 bis 1144 auf Pullman-blau/crème und damit zurück zu ihrer Ursprungsfarbe, die sie bei der MOB getragen hatten. Auch der D2 4062 (heute D2 4051), der As 1161, und schliesslich Ende 2010 der zum Piano-Barwagen umgebaute (küchenlose) Speisewagen WR-S 3820 (vorher 3814) erhielten diesen Anstrich. Eine weitere Ausnahme vom Einheitsrot bilden die gelben offenen Panoramawagen, die vor allem auf der Berninabahn anzutreffen sind. Die Rangiertraktoren der RhB sind heute orange lackiert, Bahndienstfahrzeuge orange oder gelb. Die meisten Güterwagen sind grau (ältere gedeckte Güterwagen sowie einige Schüttgutwagen braun). Die Wagen des Glacier-Express tragen unabhängig vom Eigentümer einen einheitlichen Anstrich in einem bläulichen Hellgrau mit roten Wagenenden, der Speisewagen ist komplett rot. Abschaffung der Raucherplätze. Seit Dezember 2005 bietet die RhB wie alle anderen Bahngesellschaften in der Schweiz keine Raucherplätze mehr an. Die Bahn erhoffte sich durch diese Massnahme eine Steigerung des Komforts für die Bahnreisenden sowie erhebliche Einsparungen beim Unterhalt. So muss zum Beispiel die Klimatisierung nicht mehr in Raucher- und Nichtraucherbereiche aufgetrennt werden. Wechselstrom-Stammnetz. Die Rhätische Bahn benutzt zum Antrieb ihrer elektrisch betriebenen Fahrzeuge im Stammnetz (d. h. allen Strecken ausser der Berninabahn) Einphasenwechselstrom mit einer Spannung von 11 kV und einer Frequenz von 16,7 Hertz, der wie üblich über Oberleitungen zugeführt wird. Die Frequenz entspricht dabei derjenigen des übrigen Schweizer Bahnnetzes, während die Spannung um 4 kV niedriger liegt. Der Energietransport über mittlere Entfernungen erfolgt über ein bahneigenes Versorgungsnetz, das als Einphasen-Dreileiternetz mit derselben Frequenz 16,7 Hertz, aber einer Spannung von 66 kV betrieben wird. Dieses ist im Unterwerk Landquart mit dem Stromnetz der SBB verknüpft. Der Strom aus dem Versorgungsnetz wird in Unterwerken in Bever, Chur, Filisur, Küblis, Sagliains, Selfranga, Sils im Domleschg und Tavanasa auf die Fahrspannung von 11 kV heruntertransformiert und direkt vor Ort oder über Speiseleitungen in den Fahrdraht eingespeist. Siehe dazu auch die Liste von Bahnstromanlagen in der Schweiz. Insgesamt verbrauchte die Rhätische Bahn im Jahr 2012 Traktionsenergie von 98,3 Millionen Kilowattstunden. Die Kosten dafür beliefen sich im Jahr 2012 auf 11,7 Mio. Franken. Berninabahn. Die mit 1000 V Gleichstrom betriebene Berninabahn besitzt eine vom Stammnetz unabhängige Energieversorgung. Diese erfolgt über eine 23-kV-Drehstromleitung der Repower AG von Campocologno über den Berninapass nach Pontresina, die im Wesentlichen entlang der Bahnlinie verläuft. An diversen Stellen sind Transformatoren und Gleichrichter installiert, über die der Fahrdraht mit der Fahrspannung versorgt wird. Mit Hilfe von in jüngerer Zeit ebenfalls installierten Wechselrichtern wird der beim Bremsen der Fahrzeuge erzeugte Rekuperationsstrom wieder in die Versorgungsleitung zurückgespeist. Einzelnachweise. ! Regisseur. Ein Regisseur (von, ‚leiten‘), auch "Spielleiter" genannt, führt Regie und ist damit traditionell neben dem Schauspieler die entscheidende Person bei der Aufführung von Werken der darstellenden Kunst. Als Alternative zur Zentralgewalt des Regisseurs wurden verschiedene Ansätze von (mehr oder weniger) gleichberechtigten Regieteams entwickelt. Es gibt den Bühnenregisseur für Theater, Musical, Oper, Operette und andere Bühnen-Werke, den Filmregisseur für die Filmkunst, den Hörspielregisseur für Hörspiele und künstlerisches Feature, den Fernsehregisseur für Fernsehsendungen und den Dialogregisseur bei der Synchronisation von Filmen und Fernsehserien, der die einzelnen Synchronsprecher koordiniert. Der Regisseur eines Tanzes – beispielsweise im klassischen, Ausdrucks- oder zeitgenössischen Tanz – heißt Choreograf. Das gemeinsame dieser verschiedenen Regietätigkeiten ist die Verantwortung für die künstlerische Gestaltung eines Projekts, das in der Regel auf einer schriftlichen Vorlage basiert. Ein Filmregisseur (rechts) gibt letzte Anweisungen vor der nächsten Aufnahme Tätigkeit des Regisseurs. Die Inszenierung eines Regisseurs stellt ein eigenständiges künstlerisches Werk dar. Er besitzt das Urheberrecht am entstandenen Kunstwerk. In der Regel ist das allgemeine oder sogar das ausschließliche Nutzungsrecht durch vertragliche Vereinbarungen bereits im Vorfeld an das Theater bzw. den Produzenten abgetreten. Beim Film teilt der Regisseur sich die Urheberschaft mit dem Kameramann (der im Englischen zutreffender als "Director of Photography", also als "Bildregisseur" bezeichnet wird) und – da das Drehbuch typischerweise nicht als eigenständiges Werk veröffentlicht wird – dem Autor. Zu den Aufgaben des Regisseurs gehört die Interpretation eines Drehbuchs, Theaterstücks, eines Musiktheaterwerks bzw. eines Produktionsmanuskriptes (Hörspiel, Feature). Oft hat er auch – in Rücksprache mit dem Autor und dem Dramaturgen – entscheidenden Anteil an der Ausarbeitung oder Überarbeitung eines Stücks. Die Anpassung des künstlerischen Entwurfes an die ökonomisch-organisatorischen Möglichkeiten wird vom Regisseur in Zusammenarbeit mit dem Produzenten (siehe Theaterproduzent oder Filmproduzent) bzw. der Theaterleitung sowie anderen Verantwortlichen vorgenommen. Außerdem wird vom Regisseur (Film) in Rücksprache mit dem Besetzungsbüro die Auswahl der Darsteller und manchmal auch des Weiteren technisch-künstlerischen Stabes vorgenommen. Im Bereich Theater, insbesondere an subventionierten Häusern mit festem Ensemble, ist die Mitwirkung des Regisseurs bei der Besetzung der Rollen, insbesondere an kleineren und mittleren Häusern, eingeschränkt und obliegt in erster Linie der künstlerischen Leitung des jeweiligen Theaters. Bei der Umsetzung des Projektes unterscheiden sich die Aufgaben eines Regisseurs je nach Medium. Unabhängig davon bleibt eine zentrale Aufgabe des Regisseurs die Anleitung und Unterstützung der Darsteller bei der Ausgestaltung ihrer Charaktere. Theaterregisseure sind in der Regel freischaffend. Eine Ausnahme bilden Oberspielleiter und Schauspieldirektoren sowie Hausregisseure, die im Festengagement an einem Theater arbeiten. Durchschnittlich inszenieren Regisseure 3–5 Stücke pro Spielzeit (an einer Produktion wird zirka 6–8 Wochen gearbeitet). Die Gage ist frei verhandelbar; sie richtet sich nach der Erfahrung, den vorzuweisenden Erfolgen und dem Image des Regisseurs, die zusammen genommen seinen „Marktwert“ ausmachen. Weniger erfolgreiche Regisseure bekommen entsprechend weniger Inszenierungsangebote und geringere Gagen. Voraussetzungen. Voraussetzungen für die Regietätigkeit ist eine Kombination aus vielen verschiedenen Fähigkeiten. Die Fähigkeit, künstlerische und technische Mitarbeiter zu motivieren, zu leiten und koordinieren zählt ebenso dazu wie dramaturgische, darstellerische, sprachliche, musikalische und visuelle Elemente zu einem Filmwerk bzw. zu einem Theater-/Opernabend zusammenzufügen. Erfahrungen als Assistent, Darsteller oder in einem fachnahen Beruf sind ebenso hilfreiche Voraussetzungen wie die Möglichkeit häufiger Theaterbesuche sowie Kenntnisse des Bühnenrepertoires sowie neuer Stücke. Eine fachspezifische Ausbildung ist nicht vorgeschrieben. Der Ausbildungsgang ist nicht einheitlich geregelt; Filmregie kann in Deutschland an verschiedenen Filmhochschulen erlernt werden. Theaterregisseure werden an vergleichbaren Instituten ausgebildet (zum Beispiel an der Hochschule für Schauspielkunst „Ernst Busch“ Berlin, an der Akademie für Darstellende Kunst Baden-Württemberg und der Hochschule für Musik und Darstellende Kunst Frankfurt am Main). Die Zugangsvoraussetzung sind von Hochschule zu Hochschule unterschiedlich; eine Aufnahmeprüfung ist meist vorgeschrieben. An vielen Hochschulen gibt es ein Mindestalter, das zwischen 17 und 21 Jahren liegt. Praxiserfahrung, zum Beispiel als Hospitant oder Assistent, ist zumeist erwünscht. Kritik. Die Rolle des Regisseurs besteht heute weniger darin, ein Stück lediglich inszenatorisch „umzusetzen“, sondern vielmehr eine eigene (notwendig subjektive) Interpretation zu erarbeiten und der Inszenierung eine unverwechselbare ästhetische Prägung zu verleihen. Das ist einerseits Ausdruck einer Emanzipation dieses Berufes vom bloßen Nachschöpfen, andererseits birgt es die Gefahr einer Originalitätssucht in sich. Um unter den Gesetzen des Marktes interessant zu bleiben, kultivieren manche Regisseure ihre Regiehandschrift heute regelrecht zum Markenzeichen, das auf den ersten Blick wiedererkennbar sein soll. Dies hat die zum Teil erbittert geführte Debatte um das sogenannte „Regietheater“ hervorgerufen. Rems-Murr-Kreis. Der Rems-Murr-Kreis ist ein 858,14 km² großer Landkreis in Baden-Württemberg mit Sitz in Waiblingen. Er entstand 1973 aus dem ehemaligen Landkreis Waiblingen, großen Teilen des ehemaligen Landkreises Backnang sowie einem kleineren Teil des ehemaligen Landkreises Schwäbisch Gmünd. Namensgeber sind die beiden Flüsse Rems und Murr, die das Relief des Kreisgebiets mit ihren Tälern und Seitentälern prägen. Der Rems-Murr-Kreis gehört zur Region Stuttgart im Regierungsbezirk Stuttgart. Lage. Die Siedlungs-Schwerpunkte des Kreises liegen im Westen des Landkreises, wo er mit dem Neckarbecken und der Backnanger Bucht an den Gäu-Landschaften Anteil hat, und im Remstal, das im Süden des Kreises von Ost nach West verläuft. Südlich des Remstals bilden die Höhen des Schurwalds die Kreisgrenze. Der zentrale und nördliche Teil des Landkreises gehört zum Schwäbisch-Fränkischen Wald, zu dem hier der Welzheimer Wald, der Murrhardter Wald sowie der Süden des Mainhardter Walds und der Löwensteiner Berge gehören. Die Waldgebiete werden unterbrochen durch die Täler der Murr, die das zentrale Tal im Norden des Landkreises bildet, der Wieslauf, der Lauter und des Buchenbachs. Zwischen Murr-, Rems- und Wieslauftal erhebt sich der Höhenzug Berglen. Im äußersten Westen reicht das Kreisgebiet bis ans rechte Ufer des Neckars (wenig oberhalb bzw. südlich der Remsmündung). Orte. Die Liste der Orte im Rems-Murr-Kreis enthält die ungefähr 510 Orte (Städte, Dörfer, Weiler, Höfe und Wohnplätze) des Rems-Murr-Kreises im geographischen Sinne. Nachbarkreise. Der Rems-Murr-Kreis grenzt im Uhrzeigersinn im Südwesten beginnend an die Landeshauptstadt Stuttgart und dann an die Landkreise Ludwigsburg, Heilbronn, Schwäbisch Hall, Ostalbkreis, Göppingen und Esslingen. Natur. Der Rems-Murr-Kreis besitzt die nachfolgenden Naturschutzgebiete. Nach der Schutzgebietsstatistik der Landesanstalt für Umwelt, Messungen und Naturschutz Baden Württemberg (LUBW) stehen 833,37 Hektar der Kreisfläche unter Naturschutz, das sind 0,97 Prozent. Geschichte. Der Rems-Murr-Kreis wurde durch die Kreisreform am 1. Januar 1973 gebildet. Damals wurde der Altkreis Waiblingen mit dem größten Teil des Altkreises Backnang zum neuen Rems-Murr-Kreis vereinigt. Ferner wurde die Gemeinde Alfdorf des Altkreises Schwäbisch Gmünd eingegliedert. Die beiden Altkreise Waiblingen und Backnang gehen zurück auf die alten württembergischen Oberämter Waiblingen und Backnang, die schon zu Zeiten des Herzogtums Württemberg errichtet wurden. Im Laufe der Geschichte wurden sie mehrmals verändert und 1934/38 in die Landkreise Waiblingen und Backnang überführt. Damals nahm der Landkreis Waiblingen nahezu alle Gemeinden des Oberamts Schorndorf und viele Gemeinden des Oberamts Welzheim, der Landkreis Backnang viele Gemeinden der Oberämter Gaildorf, Marbach und Welzheim auf. Am 1. Januar 1977 kam es zu einem kleinen Gebietsaustausch mit dem Ostalbkreis. Nach Abschluss der Gemeindereform umfasst der Rems-Murr-Kreis noch 31 Gemeinden, darunter acht Städte und hiervon wiederum sechs „Große Kreisstädte“ (Backnang, Fellbach, Schorndorf, Waiblingen, Weinstadt und Winnenden). Größte Stadt ist Waiblingen, kleinste Gemeinde ist Spiegelberg. Einwohnerentwicklung. Die Einwohnerzahlen sind Volkszählungsergebnisse (¹) oder amtliche Fortschreibungen des Statistischen Landesamts Baden-Württemberg (nur Hauptwohnsitze). Politik. Der Landkreis wird vom Kreistag und vom Landrat verwaltet. Der Kreistag wird von den Wahlberechtigten im Landkreis auf fünf Jahre gewählt. Dieses Gremium wählt den Landrat für eine Amtszeit von acht Jahren. Dieser ist gesetzlicher Vertreter und Repräsentant des Landkreises sowie Vorsitzender des Kreistags und seiner Ausschüsse. Er leitet das Landratsamt und ist Beamter des Kreises. Zu seinem Aufgabengebiet zählen die Vorbereitung der Kreistagssitzungen sowie seiner Ausschüsse. Er beruft Sitzungen ein, leitet diese und vollzieht die dort gefassten Beschlüsse. In den Gremien hat er kein Stimmrecht. Sein Stellvertreter ist der Erste Landesbeamte. Kreistag. Der Kreistag wird von den Wahlberechtigten im Landkreis auf fünf Jahre gewählt. Die Kommunalwahl am 25. Mai 2014 führte zu folgendem vorläufigen Ergebnis. Das amtliche Endergebnis wird vom Statistischen Landesamt gegen Ende des Jahres bekannt gegeben. Wappen. Beschreibung: "In Gold zwischen zwei schräglinken blauen Wellenleisten eine schräglinke schwarze Hirschstange" Bedeutung: Die Hirschstange steht für das Haus Württemberg, welches bereits seit dem 14. Jahrhundert den Großteil des heutigen Kreisgebiets beherrschte. Die beiden Wellenleisten symbolisieren die Flüsse Rems und Murr, welche dem Kreis den Namen gaben. "Siehe auch:" Liste der Wappen im Rems-Murr-Kreis Kreispartnerschaften. Der Rems-Murr-Kreis pflegt partnerschaftliche Beziehungen zum Landkreis Meißen in Sachsen (seit 1990), zum Komitat Baranya in Ungarn (seit 1991), zum Rayon und zur Stadt Dmitrow in Russland (seit 1991) und zur Stadt Southampton in Großbritannien (seit 1991). Wirtschaft und Infrastruktur. Mit den Firmen Ericsson und Tesat-Spacecom befinden sich zwei Hochtechnologiefirmen in Backnang. Der internationale Hersteller von Motorsägen und Kleinmotorgeräten, die Andreas Stihl AG & Co. KG, hat sein Stammhaus in Waiblingen-Neustadt. Die Robert Bosch GmbH hat zwei Werke in Waiblingen (für Kunststofftechnik und Verpackungstechnik) sowie eines in Murrhardt. Winnenden ist Sitz des Reinigungsgeräteherstellers Kärcher. Der US-amerikanische Automobilzulieferer TRW Automotive hat in Alfdorf eines seiner Technologie-Zentren (Airbag und Sicherheitsgurt) aufgebaut. Straßenverkehr. Durch das Kreisgebiet führt keine Bundesautobahn, da Planungen für eine Odenwald-Neckar-Alb-Autobahn (A 45) und eine Bundesautobahn 85 aufgegeben worden sind. Die A 81 Stuttgart–Würzburg führt nur wenige Kilometer westlich des Kreisgebietes vorbei. Ab der Anschlussstelle Mundelsheim kann über die gut befahrbare Landesstraße L 1115 Backnang und das übrige Kreisgebiet gut angefahren werden. Die wichtigsten Straßen im Kreis sind die im Kreisgebiet durchgehend vierspurig ausgebaute B 29 Waiblingen–Aalen sowie die B 14 Stuttgart–Schwäbisch Hall, die bis zur Anschlussstelle Nellmersbach vierspurig ausgebaut ist. Ein weiterer Ausbau der B 14 bis Backnang ist vorgesehen. Schienenverkehr. Der Landkreis ist an das Netz der S-Bahn Stuttgart angeschlossen. Die Linie S2 führt von Filderstadt und Flughafen/Messe, dann Stuttgart über Fellbach und Waiblingen nach Schorndorf. Hierbei benutzt sie die Remsbahn, die über die Kreisgrenze hinaus bis Aalen führt, durchgehend zweigleisig ausgebaut und elektrifiziert ist. Hier fahren regelmäßig Züge der Intercity-Linie Karlsruhe–Nürnberg. Diese halten allerdings nur vereinzelt im Kreisgebiet, und zwar am Bahnhof Schorndorf. Dort zweigt auch die von der Württembergischen Eisenbahn-Gesellschaft (WEG) mit Dieseltriebwagen betriebene Wieslauftalbahn nach Rudersberg ab. Ebenfalls starten hier im Sommerhalbjahr die regelmäßigen Sonderfahrten der Schwäbischen Waldbahn, oft mit Dampflokomotiven, über Rudersberg hinaus nach Welzheim. Die Linie S3 fährt ab Flughafen/Messe über Stuttgart - Fellbach – Waiblingen nach Backnang. Diese Linie befährt die Bahnstrecke Waiblingen–Schwäbisch Hall. Von Backnang aus führt die Bahnstrecke Backnang–Ludwigsburg als S-Bahn Linie S4 nach Marbach am Neckar. Die Murrbahn wurde erst in den 1990er Jahren elektrifiziert. Sie stellt die kürzeste Verbindung von Stuttgart über Schwäbisch Hall und Crailsheim nach Nürnberg dar. Fernzüge im Personenverkehr nehmen aber trotzdem ab Waiblingen oft die attraktivere Strecke über Schorndorf und Aalen nach Crailsheim. Denn der Abschnitt Backnang - Schwäbisch Hall(-Hessental) ist zwar elektrifiziert, aber nur eingleisig, ebenso der Abschnitt Marbach/Neckar - Backnang. Die Stadt Fellbach ist ferner durch die Stadtbahnlinie U1 mit Stuttgart-Mitte verbunden. Sie trägt als Ziel den Stuttgarter Stadtteil Vaihingen. Schulen. Der Rems-Murr-Kreis ist Schulträger folgender Beruflichen Schulen: Gewerbliche Schule Backnang, Eduard-Breuninger-Schule Backnang (Kaufmännische Schule), Anna-Haag-Schule (Hauswirtschaftliche Schule) Backnang, Grafenberg-Schule Schorndorf (Gewerbliche Schule), Johann-Philipp-Palm-Schule Schorndorf (Kaufmännische Schule), Gewerbliche Schule Waiblingen, Kaufmännische Schule Waiblingen und Maria-Merian-Schule (Hauswirtschaftliche Schule) Waiblingen, ferner der Schulen für Geistig- und Körperbehinderte jeweils mit Schulkindergarten in Fellbach-Schmiden (Fröbelschule), Murrhardt (Bodelschwinghschule), Kernen-Stetten (Theodor-Dierlamm-Schule) und Schorndorf (Fröbelschule), der Christian-Morgenstern-Schule für Sprachbehinderte mit Schulkindergärten in Waiblingen, Schorndorf und Sulzbach an der Murr und der Schule für Kranke in längerer Krankenhausbehandlung Waiblingen. Krankenhäuser. Der Rems-Murr-Kreis ist auch Gesellschafter der Rems-Murr-Kliniken gGmbH mit Kliniken in Schorndorf und Winnenden. Weitere Kliniken sind das Zentrum für Psychiatrie Winnenden (Anstalt des öffentlichen Rechts), die Geriatrische Reha-Klinik Bethel Welzheim sowie die beiden privaten Kliniken Central Klinik Waiblingen GmbH und Fachklinik zur Behandlung von Alkohol- und Medikamentenabhängigkeit Wilhelmsheim in Oppenweiler. Am 14. Juli 2008 hat der Kreistag beschlossen, die bisher als Eigenbetrieb geführten drei Krankenhäuser in Waiblingen, Backnang und Schorndorf künftig in der Rechtsform einer gemeinnützigen GmbH zu betreiben. Auf derselben Sitzung beschloss der Kreistag das bisher größte Investitionsvorhaben in der Geschichte des Landkreises: den Neubau des Kreiskrankenhauses in Winnenden. Die Kosten sollen sich auf rund 266 Millionen Euro belaufen. Mit der Eröffnung des Kreiskrankenhauses in Winnenden im Juli 2014 wurden die Krankenhäuser in Waiblingen und Backnang geschlossen. Das Schorndorfer Krankenhaus besteht weiterhin. Sonstiges. Zur Pflege der Naturdenkmäler im Kreis unterhält das Landratsamt, als eines der wenigen in Deutschland, einen eigenen Landschaftspflegetrupp, bestehend aus einem hauptamtlichen Mitarbeiter und vier Plätzen für den Bundesfreiwilligendienst. Am 23. September 2008 erhielt der Kreis den von der Bundesregierung verliehenen Titel „Ort der Vielfalt“. WN. Am 1. Januar 1973 wurde dem - mit dem Landkreis Backnang vereinigten - Landkreis Rems-Murr-Kreis das seit dem 1. Juli 1956 für den Landkreis Waiblingen gültige Unterscheidungszeichen "WN" zugewiesen. Es wird durchgängig bis heute ausgegeben. BK. Seit dem 2. Dezember 2013 ist auch das Unterscheidungszeichen "BK" (Backnang) erhältlich, das der frühere Landkreis Backnang geführt hatte. Da "BK" inzwischen auch das primäre Kennzeichen vom Landkreis Börde, westlich von Magdeburg in Sachsen-Anhalt ist, wird erstmals das gleiche Unterscheidungskennzeichen in zwei Zulassungsbezirken vergeben. Beide Kreise haben sich deshalb die verfügbaren Nummernblöcke anhand von Buchstaben-Ziffern-Kombinationen aufgeteilt. Der Bördekreis hat zwei Buchstaben und die Ziffern von 100 - 9999, der Rems-Murr-Kreis hat einen Buchstaben und Ziffern bis 9999, sowie zwei Buchstaben und Ziffern bis 99. Rechtswissenschaft. Die Rechtswissenschaft oder Jurisprudenz (von) befasst sich mit der Auslegung, der systematischen und begrifflichen Durchdringung gegenwärtiger und geschichtlicher juristischer Texte und sonstiger rechtlicher Quellen. Eine sachgerechte Deutung juristischer Texte schließt eine wissenschaftliche Beschäftigung mit der Entstehung und der Anwendung von Rechtsquellen und Normen ein. Grundlegend für diese Arbeit ist ein Verständnis der Rechtsgeschichte, Rechtsphilosophie, Rechtstheorie, Rechtspolitik und Rechtssoziologie. Die vorgenannten Disziplinen werden zusammen mit der Rechtsdogmatik und Methodenlehre auch im Plural als Rechtswissenschaften bezeichnet. Eine klassische Definition dessen, was Rechtswissenschaft ist, gibt der römische Jurist Ulpian: Rechtswissenschaft ist die Kenntnis der menschlichen und göttlichen Dinge, die Wissenschaft vom Gerechten und Ungerechten.. Das „Göttliche“ im Sinne des kanonischen Rechts ist an deutschen Universitäten zwar erst lange nach der Aufklärung, aber in der Gegenwart dennoch endgültig als Pflichtfach aus den rechtswissenschaftlichen Lehrplänen entfernt worden. In Deutschland findet sich noch heute der Pluralbegriff "Jura" (lat. „die Rechte“), die Singular-Form "Jus" oder das lateinische "Ius" ist eher in Österreich und der Schweiz gebräuchlich. Neben dem weltlichen Recht und seiner Rechtswissenschaft gibt es noch religiös begründete Rechtswissenschaften. Das christliche Recht wird im deutschen Sprachraum oft als Kirchenrecht bezeichnet. Das Recht der katholischen Kirche ist das kanonische Recht. Mit dem Recht des Islam (Scharia) beschäftigt sich die islamische Rechtswissenschaft (Fiqh). Neben der Theologie, Medizin und Philosophie ist die Rechtswissenschaft eine der klassischen Universitäts­disziplinen. Wissenschaftstheoretische Einordnung der Rechtswissenschaft. Die Rechtswissenschaft ist eine hermeneutische Disziplin. Die durch die Philosophie der Hermeneutik gewonnene Erkenntnis über die Bedingungen der Möglichkeit von Sinnverstehen wendet sie als juristische Methode auf die Exegese juristischer Texte an. Ihre Sonderstellung gegenüber den übrigen Geisteswissenschaften leitet sie, soweit sie sich mit dem geltenden Recht beschäftigt, aus der Allgemeinverbindlichkeit von Gesetzes­texten ab, welche sie in Bezug auf konkrete Lebenssachverhalte in der Rechtsprechung anzuwenden hat. Unter diesem Blickwinkel lässt sich die Rechtswissenschaft im Idealfall auch als Erforschung von Modellen für die Vermeidung und Lösung gesellschaftlicher und zwischenmenschlicher Konflikte verstehen. Die hermeneutische Methode unterscheidet sie anderseits von den empirischen Wissenschaften, wie der Naturwissenschaft, der Medizin, der Wirtschafts- und Sozialwissenschaften, deren Ziel nicht das Verstehen von Texten ist, sondern die Erforschung von natürlichen oder sozialen Regelmäßigkeiten, welche durch Erfahrung und Beobachtung überprüfbar sind. Die Rechtswissenschaft beschäftigt sich wie die anderen Textwissenschaften (Philologie, Theologie) nicht mit objektiven Erkenntnissen über sinnlich erfahrbare Erscheinungen. Dies bleibt Nebenzweigen der Rechtswissenschaft vorbehalten, wie etwa der Rechtsphilosophie, der Rechtssoziologie und der Kriminologie. Disziplinen. Die Teilgebiete der Rechtswissenschaft lassen sich zusammenfassen zu den exegetischen Fächern und den nicht-exegetischen Fächern (historische, philosophische oder empirische Fächer). Bei den exegetischen Fächern steht die Rechtsdogmatik ganz im Vordergrund. Bei den exegetischen nicht-dogmatischen Fächern werden insbesondere die Digestenexegese und die Exegese deutschrechtlicher Quellen betrieben. Selten werden z. B. keilschriftrechtliche Quellen (Codex Hammurapi) ausgelegt. Die nichtexegetischen juristischen Grundlagenfächer sind oft zugleich Disziplinen von Nachbarwissenschaften, so etwa die Rechtsphilosophie, die Rechtsgeschichte und die Rechtssoziologie. In neuerer Zeit beschäftigt sich die Rechtswissenschaft viel mit der rechtlichen Methodik und der Lehre von der Gesetzesauslegung. Weil für die juristische Exegese eine "juristische Methodenlehre" von Bedeutung ist, wird diese oftmals gesondert gelehrt. Dabei hat insbesondere die Rechtsphilosophie in der Rechtswissenschaft und im Rechtsstudium, im Vergleich zu Hochmittelalter und Renaissance, erheblich an Stellenwert verloren. Die Kriminologie, welche sich unter anderem mit empirischer Forschung beschäftigt, hat an den Hochschulen ebenfalls einen eher geringen Stellenwert. Ein Überblick über die wichtigsten Rechtsgebiete ist im Artikel "Recht" enthalten. Geschichte und Funktion der Rechtswissenschaft. Während sich die Rechtsgeschichte mit der historischen Entwicklung des Rechts selbst beschäftigt, lässt sich auch untersuchen, wie sich die "Wissenschaft" vom Recht im Verlauf der Geschichte entwickelt hat. Die Frage, was Recht ist, wurde über die Jahrhunderte immer wieder unterschiedlich beantwortet. Anfangs wurde Recht gleichgesetzt mit den herrschenden Moralvorstellungen ("vgl. auch" Naturrecht). Später dominierte die Vorstellung, als Recht könne nur eine Regel verstanden werden, die von einer Körperschaft oder Person (i. d. R. dem „Herrscher“) erlassen wurde, die auch die Autorität zu ihrem Erlass und zur Durchsetzung hatte (Rechtspositivismus). Die historische Rechtsschule betonte demgegenüber zu Anfang des 19. Jahrhunderts wieder die gesellschaftliche und geschichtliche Verankerung des Rechts. Aus diesen und anderen Vorstellungen haben sich die heute üblichen Rechtssysteme entwickelt. Hier sind wiederum vor allem zwei Arten von Rechtssystemen zu unterscheiden, nämlich die des kodifizierten, abstrakt definierten Rechts, und die des Fallrechts (Common Law). Das "kodifizierte Recht" hat sich im Wesentlichen aus dem römischen Recht entwickelt. So war es Kaiser Justinian, der als Erster das römische Recht im Corpus Iuris Civilis zusammenstellte und damit zugleich im gesamten Römischen Reich vereinheitlichte. Auch wenn im kodifizierten Recht frühere Entscheidungen berücksichtigt werden, hat letztlich immer das Gesetzbuch und der Gesetzestext – gegebenenfalls auch Gewohnheitsrecht – die höchste Autorität. Der wichtige Bereich des Zivilrechts wurde von Napoleon überarbeitet und im Code civil neu kodifiziert. Dieser ist seitdem im französischsprachigen Raum, den ehemaligen französischen Kolonien und weiteren Ländern verbreitet. Daneben steht die deutsche Rechtstradition, die auf dem Boden des gemeinen Rechts in der Kodifikation des Bürgerlichen Gesetzbuchs Ausdruck gefunden und ebenfalls über Deutschland hinaus ausgestrahlt hat. Im Gegensatz dazu steht die Entwicklung der englischen Rechtstradition des "Common Law". Das Recht ist hier im Grundsatz nicht kodifiziert, sondern wird von der Rechtsprechung auf Grund von Präjudizien weiterentwickelt. Dieses Rechtssystem wurde auch in den USA und anderen ehemaligen britischen Kolonien übernommen und weiterentwickelt. So gibt es in den USA eine Schule des "legal realism", nach der allein das Recht ist, was die Gerichte als Recht anwenden und vollstrecken werden. Eine andere Besonderheit des US-amerikanischen Rechts ist die große Bedeutung der Schwurgerichte ("vgl." Jury). Stattdessen hat die Rechtswissenschaft beispielsweise in Deutschland eine eigenständige Funktion im Verhältnis zu Rechtsprechung. Die rechtswissenschaftliche Literatur ist ein (wirksamer und anerkannter) „Rechtsbildungsfaktor“ (zumindest im Arbeitsrecht). Dies kann auch aus den Worten des Bundesverfassungsgerichtes, dass „[d]ie Gerichte […] bei unzureichenden gesetzlichen Vorgaben das materielle Recht mit den anerkannten Methoden der Rechtsfindung aus den allgemeinen Rechtsgrundlagen ableiten [müssen], die für das betreffende Rechtsverhältnis maßgeblich sind“, geschlossen werden. Studium und Juristenausbildung. Zentraler Bestandteil der juristischen Ausbildung ist in vielen Rechtskreisen das Studium der Rechtswissenschaft an einer Hochschule. In Österreich und der Schweiz wird das rechtswissenschaftliche Studium "Jus" genannt, da das kanonische Recht keinen verpflichtenden Inhalt des Studiums mehr darstellt. Der Begriff "Rechtswissenschaft" bezeichnet die Wissenschaft eines Rechts (weltlich oder kirchlich). Rechtswissenschaften bedeutet hingegen, die Wissenschaft oder das Studium beider Rechte; des kanonischen und weltlichen Rechts. Der in Deutschland umgangssprachlich gebrauchte Begriff "Jura" für das Studium der Rechtswissenschaft ist – akademisch betrachtet – irreführend: Jura kommt von lat. "iura", dem Plural von "ius". Also auch hier wieder die Unterscheidung zwischen einem und beiden Rechten. Somit müsste „Rechtswissenschaft“ in Deutschland – wie in Österreich und der Schweiz richtigerweise als „Jus“ bezeichnet werden und die Rechtswissenschaften inklusive des kanonischen Rechts als Jura, wobei auch diese Theorie nicht der Realität entspricht, da „Rechtswissenschaften“ als Synonym für die breitgefächerte Materie – und unabhängig vom kanonischen Recht – verwendet wird. Grenzen, Defizite und Prinzipien der Rechtswissenschaft. Versteht man die Rechtswissenschaft als Wissenschaft vom geltenden Recht, so konzentriert sie sich dabei im Wesentlichen auf die Interpretation von Gesetzen und der aus den Gesetzen abgeleiteten Rechtsprechung und will daraus eine Erkenntnis über das geltende Recht gewinnen. Dies findet seine Grenzen zum einen in der Menge der Rechtsnormen und zum anderen in der fehlenden Kenntnis der tatsächlichen Wirkungen der Rechtsnormen. In einem modernen, hochkomplexen Staat gibt es jedoch eine nicht mehr überschaubare Menge von Rechtsnormen. Es gibt in Deutschland mehr als 5.000 Gesetze und Verordnungen des Bundes, zu denen die Gesetze und Verordnungen der 16 Bundesländer und die Rechtsverordnungen und Satzungen der Bezirke, Kreise, Verwaltungsgemeinschaften und Gemeinden hinzukommen. Hinzu kommen eine große Anzahl von Verwaltungsrichtlinien (wie z. B. die TA Luft, die TA Lärm) und von Ausschüssen und Verbänden geschaffene Normen, die faktisch ebenfalls Gesetzeskraft haben (wie z. B. die VOB, die DIN-Normen, die zahlreichen Richtlinien und Empfehlungen der Bundesanstalt für Straßenwesen (BASt) und der Forschungsgesellschaft für Straßen- und Verkehrswesen (FGSV) für den Straßenbau, die LAGA usw.). Da viele dieser Normen sehr spezifische und hochtechnische Sachverhalte regeln, sind sie zum Teil nur von Spezialisten vollständig verständlich. Das steht in einem Spannungsfeld zum grundsätzlichen Ziel der Rechtswissenschaft, wonach es einem jeden möglich sein soll, sein Handeln an ihm verständlichen Rechtsnormen auszurichten. Alle Rechtsnormen müssen einigen grundlegenden Prinzipien genügen. Dazu gehören das Prinzip „Keine Strafe ohne Gesetz“ ("nulla poena sine lege"), "Keine Strafe ohne Schuld" ("nulla poena sine culpa") sowie die Grundsätze der "Verhältnismäßigkeit" oder der "Einhaltung von Treu und Glauben". Zu den "rechtsstaatlichen Grundsätzen" () gehört ferner das "Verbot der Rückwirkung zum Nachteil des Bürgers", wenngleich von diesem Prinzip Durchbrechungen anerkannt sind. Kritisiert wird, dass die Rechtswissenschaft die Auswirkungen der Rechtsnormen in der Realität nur durch die Sicht der staatlichen Rechtsprechung erkennt, da sie so gut wie keinerlei rechtstatsächliche Forschungen betreibt. Da nur ein vergleichsweise winziger Teil der alltäglichen Rechtsanwendung zu Auseinandersetzungen vor Gericht führt, gelangt ein großer Teil des rechtlich relevanten menschlichen Verhaltens nicht zur Aufmerksamkeit der Rechtswissenschaft, auch wenn das Verhalten nicht mit der juristischen Theorie übereinstimmen sollte. Nicht zur Kenntnis der öffentlichen Gerichtsbarkeit gelangen ferner die Streitigkeiten, die aufgrund der wirtschaftlichen oder sozialen Machtverhältnisse außergerichtlich geregelt werden sowie solche Bereiche insbesondere der Wirtschaft, in denen Streitigkeiten bewusst von staatlichen Gerichten ferngehalten und allenfalls von Schiedsgerichten entschieden werden, die weder ihre Verfahren noch ihre Entscheidungen publik machen. Das Studium der Rechtsprechung vermittelt somit nur einen winzigen Ausschnitt aus der Wirklichkeit der Rechtsanwendung. Versteht man unter dem geltenden Recht nicht nur die Summe der Normen, die das menschliche Verhalten in einem bestimmten Gebiet zu regeln beabsichtigen, sondern auch ihre Rechtsfolgen, also die tatsächlichen Auswirkungen dieser Normen bzw. die Art und Weise, wie diese Normen von den Betroffenen verstanden und angewendet werden, muss man zu dem Ergebnis kommen, dass die Rechtswissenschaft nur die Oberfläche des geltenden Rechts zu erkennen vermag und gelegentlich auch falsche Schlüsse daraus zieht. Römisches Reich. a> der Territorien der Jahre 510 v. Chr. bis 530 n. Chr.) Das Römische Reich und seine Provinzen im Jahre 150 Römisches Reich () bezeichnet das von den Römern, der Stadt Rom bzw. dem römischen Staat beherrschte Gebiet zwischen dem 8. Jahrhundert v. Chr. und dem 7. Jahrhundert n. Chr., wobei eine eindeutige Abgrenzung weder zur vorrömischen Epoche noch zum Byzantinischen Reich möglich ist. Die Bezeichnung "Imperium Romanum" für den römischen Machtbereich ist seit der Zeit Ciceros belegt. Die antike staatsrechtliche Bezeichnung lautete ' (S.P.Q.R.) – „Der Senat und das Volk von Rom“. Die Herrschaftsform des Reiches wandelte sich im Laufe der Zeit von einer (unsicher belegten) Königsherrschaft zur Republik und schließlich zum Kaisertum. Zum Zeitpunkt seiner größten Ausdehnung unter Kaiser Trajan erstreckte sich das Römische Reich über Territorien auf drei Kontinenten rund um das Mittelmeer: Von Gallien und großen Teilen Britanniens bis zu den Gebieten rund um das Schwarze Meer (siehe auch Bosporanisches Reich). Damit beherrschte Rom den gesamten Mittelmeerraum. Das Reich war dabei bis in die Spätantike in Provinzen unterteilt, seitdem die Römer im 3. Jahrhundert vor Chr. begonnen hatten, ihre Macht über Italien hinaus auszuweiten (die erste Provinz war Sizilien). Das eigentliche Rückgrat der Verwaltung bildeten allerdings die Städte des Imperiums, die als halbautonome Bürgergemeinden organisiert waren und insbesondere für die Steuererhebung zuständig waren. Diese Delegation von Aufgaben ermöglichte es den Römern, mit einer sehr kleinen zentralen Administration operieren zu können. Handel, Künste und Kultur erreichten während der Zeit des Römischen Reiches, vor allem in der Kaiserzeit, in Teilen seines Gebietes eine Hochblüte, die damalige Lebensqualität und der entsprechende Bevölkerungsstand sollten in Europa und Nordafrika erst Jahrhunderte später wieder erreicht werden. Das Reich übte einen großen Einfluss auf die von ihm beherrschten Gebiete, aber auch auf die Gebiete jenseits seiner Grenzen aus. In seiner östlichen Hälfte mischte sich dieser Einfluss mit griechisch-hellenistischen und orientalischen Elementen. Der Westen Europas hingegen wurde latinisiert. Latein wurde zur Amtssprache im gesamten Reich (im Osten ergänzt durch das Altgriechische), wenngleich sich auch andere Sprachen halten konnten. Dieses Erbe des "Imperium Romanum" wirkte lange nach seinem Untergang fort: Über Jahrhunderte war Latein in ganz West- und Mitteleuropa bis in die Zeit des Barocks die Sprache der Gebildeten. In der römisch-katholischen Kirche ist Latein bis heute Amtssprache. Noch heute werden in vielen Wissenschaften wie der Biologie, der Medizin und der Rechtswissenschaft lateinische Fachausdrücke verwendet und sogar neu geschaffen. Aus dem Lateinischen entstanden die modernen „romanischen“ Sprachen Europas: Französisch, Italienisch, Spanisch, Portugiesisch und Rumänisch, Katalanisch, Galicisch, Okzitanisch, Rätoromanisch, Ladinisch, Friaulisch und Sardisch. Zudem finden sich viele lateinische Lehnwörter in den germanischen und den slawischen Sprachen. Das Rechts- und Staatswesen Europas, insbesondere das Zivilrecht, ist maßgeblich vom römischen Recht geprägt. Das Rechtswesen im antiken Rom beinhaltete elementare zivil- und strafrechtliche Verfahrensvorschriften in der Rechtsordnung, die vom Grundsatz her in die modernen Rechtsnormen eingeflossen sind. Das „Römische Reich“ mit seinen vielen unterschiedlichen Völkern, Sprachen und Religionen war Staat, Gesellschaftsform und nicht zuletzt eine Verkörperung der Idee eines ', eines „grenzenlosen Reiches“. Römische Königszeit und frühe Republik. Die altrömische Überlieferung datiert die Gründung Roms zwischen 814 und 728 v. Chr., meist jedoch um das Jahr 750 v. Chr.; die später als Beginn der römischen Zeitrechnung („ab urbe condita“) kanonisch gewordene Angabe 753 v. Chr. geht auf den Gelehrten Marcus Terentius Varro (116–27 v. Chr.) zurück. Obwohl die ältesten Siedlungsspuren auf dem späteren Gebiet der Stadt bis ins 10. Jahrhundert v. Chr. hinaufreichen, stammen die frühesten Hinweise für die Anlage einer Stadt wohl aus dem letzten Drittel des 7. Jahrhunderts v. Chr. Die Quellenlage zur römischen Frühzeit ist sehr schlecht, da die schriftliche Überlieferung erst Jahrhunderte später einsetzt. Nach Ansicht mancher Forscher kann daher nicht einmal als gesichert gelten, dass die Stadt Rom in ihrer Frühzeit tatsächlich Königen unterstand. Der neue Stadtstaat wurde jedenfalls laut späterer Überlieferung von "reges" beherrscht und geriet schließlich unter etruskische Herrschaft; diese Phase seiner Entwicklung wird die Königszeit genannt. Obwohl das Gebiet Roms aus äußerst unfruchtbaren, zum Teil sumpfigen und sandigen Böden bestand und somit eine gewinnbringende Landwirtschaft nahezu ausgeschlossen war, gelangte Rom unter den Etruskern bald zu wirtschaftlicher Bedeutung, kontrollierte es doch zwei bedeutende Handelswege: die Via Latina und die Via Salaria. Auch die Einführung des uralten römischen Hafenzolls für Handelsgüter trug ihren Teil zum wirtschaftlichen Erfolg bei. Verschiedene spätere Legenden wollen die römische Königszeit mit der Geschichte Troias verknüpfen. So sollen die überlebenden Troianer von Aeneas, einem Sohn des Anchises und der Göttin Venus, nach langer Seefahrt (ähnlich der Odyssee des Griechen Odysseus) nach Latium geführt worden sein. Die älteste Überlieferung dieses Mythos geht auf Timaios von Tauromenion zurück, der römische Dichter Vergil schrieb dann zur Zeit des Augustus das Nationalepos der Römer, die "Aeneis". Kulturell wurden die Römer stark von den Etruskern beeinflusst; über diese fanden auch griechische Elemente ihren Weg in die Stadt. Beispiele sind die etruskischen Zahlen, die griechisch-etruskische Schrift, aus der sich das lateinische Alphabet entwickelte, die etruskische Religion mit Leberschau und Vogelschau und das Begräbnisritual, das in den Gladiatorenkämpfen eine überzogene Spätblüte fand. Rom gewann in Italien zunehmend an Einfluss, nachdem es sich um 500 v. Chr. von der Herrschaft der Etrusker gelöst hatte. Der letzte römische bzw. etruskische König Tarquinius Superbus („Tarquinius der Stolze“, „der Hochmütige“) wurde laut der späteren Überlieferung im Jahre 510/09 v. Chr. vom römischen Volk unter Führung von Lucius Iunius Brutus aus Rom vertrieben, laut Überlieferung, weil einer seiner Söhne eine Römerin namens Lucretia geschändet hatte. Allerdings ist das Jahr 509 historisch nicht gesichert und wahrscheinlich eine Erfindung späterer Zeiten, die sich an den Sturz der Peisistratiden in Athen um 510 v. Chr. anlehnen könnte. Wahrscheinlich wandelte sich die mutmaßliche Monarchie erst um etwa 450 v. Chr. in die Römische Republik („Republik“ von „res publica“: „die öffentliche Sache“). Das römische Staatswesen wuchs über die Jahre und änderte sich laufend. Polybios, ein griechischer Gelehrter, charakterisierte es später als Mischung aus Monarchie (Magistratsämter wie Konsul), Adelsherrschaft (Senat) und Demokratie (Comitia). Das oberste Amt im Staat übte zuerst wohl ein Prätor ("prae-itor" – der [dem Heer] Vorangehende) aus, in historisch gesicherter Zeit bekleideten es alljährlich zwei Konsuln, welche die oberste Regierungsgewalt hatten und auf der obersten Ebene des "cursus honorum" standen. Die römische Adelsversammlung, der Senat, spielte eine bedeutende Rolle und entwickelte sich früh zum eigentlichen Machtzentrum. Daneben gab es mehrere Volksversammlungen, die Comitia, die "de iure" ebenfalls wichtig waren, besonders in Fragen von Krieg und Frieden und in der Rechtsprechung. Als erster einigermaßen fester Punkt in der römischen Geschichte gilt die Niederlegung des Zwölftafelgesetzes um 450 v. Chr. Zentraler Ort der römischen Republik war das Forum Romanum, das als Stätte politischer, religiöser und sozialer Zusammenkünfte diente. Damals bildete sich auch die römische Gesellschaftsordnung aus, die sich durch die Jahrhunderte nur langsam änderte. An der Spitze standen die alten Familien Roms, die landbesitzenden Patrizier, die politisch am einflussreichsten waren. Den größten Teil der Bevölkerung machten aber die Plebejer aus, die nur teilweise politische Rechte hatten. Sklaven wurden nicht als autonom handelnde Menschen, sondern als „sprechende Werkzeuge“ betrachtet, hatten also keine Rechte, konnten aber die Freiheit erlangen. Die Beziehungen zwischen Patriziern und Plebejern wurden durch das Klientelsystem geregelt. Zu den höchsten Ämtern im Staate, die ihren Inhabern Prestige und Ruhm versprachen, wurden anfänglich nur Patrizier zugelassen, während alle freien Bürger Kriegsdienst leisten mussten. Nach den Ständekämpfen, die etwa 150 Jahre anhielten und in denen die Plebejer angeblich zur „secessio plebis“ („Ausmarsch des einfachen Volkes“) gegriffen haben sollen, wurden die Plebejer 367 v. Chr. schließlich politisch fast gleichberechtigt; dennoch gelang nur wenigen plebejischen Familien der Aufstieg in die Führungsschicht. Diese wurde fortan vor allem von jenen Familien der Oberschicht gebildet, deren Angehörige durch die Bekleidung von öffentlichen Ämtern zu „bekannten Männern“ ("nobiles") wurden; diesen neuen, durch Meritokratie legitimierten Adel nennt man daher Nobilität. Expansion in Italien. Rom begann ab dem 5. Jahrhundert v. Chr. mit einer immer rascheren Expansion in Mittelitalien (Eroberung von Veji 396 v. Chr.), musste dabei aber auch schwere Rückschläge verkraften. Der „Galliersturm“ unter Brennus hinterließ psychologisch tiefe Spuren, wobei die Schlacht an der Allia am 18. Juli (wahrscheinlich) 387 v. Chr. als „dies ater“ („schwarzer Tag“) in die Geschichte Roms einging. Es folgten die Samnitenkriege (343–341 v. Chr.; 326–304 v. Chr.; 298–290 v. Chr.) und der Latinerkrieg (um 340–338 v. Chr.). Rom schuf schließlich ein weitverzweigtes Bündnisgeflecht. So wurden an strategisch wichtigen Orten Kolonien angelegt und Bündnisse mit mehreren italischen Stämmen geschlossen, die jedoch nicht das römische Bürgerrecht erhielten. Aus dieser Zeit seiner Geschichte ging Rom als straffes Staatswesen mit schlagkräftiger Armee und starkem Drang zur Ausdehnung hervor. Damit waren die Grundlagen für seinen weiteren Aufstieg geschaffen. Konkurrierende Mächte stellten auf der italischen Halbinsel die Stadtstaaten der Etrusker nördlich von Rom, die Kelten in der Poebene und die griechischen Kolonien in Süditalien dar. Im 3. Jahrhundert v. Chr. setzte sich Rom gegen die Samniten und andere italische Stämme durch. Nach und nach fiel die gesamte Halbinsel an Rom (außer Oberitalien, welches erst später annektiert wurde). Im Süden verleibte sich die Republik um 275 v. Chr. die dortigen griechischen Stadtstaaten ein, nachdem es während des Pyrrhischen Krieges gelungen war, den hellenistischen Hegemon Pyrrhos I. von Epiros abzuwehren. Mit dieser Expansion kam Rom allerdings in Konflikt mit der bisher Rom freundlich gesinnten Handelsrepublik Karthago (im heutigen Tunesien), was zu den Punischen Kriegen führte. Die Punischen Kriege und die Expansion im östlichen Mittelmeerraum. Im Ersten Punischen Krieg (264–241 v. Chr.) brach Rom die Vereinbarung mit Karthago über die Aufteilung der Interessenzonen auf Sizilien und dehnte seinen Einflussbereich bis an die Grenze des karthagischen Machtbereichs aus. Nachdem Karthago, solcherart provoziert, die Römer von See aus angegriffen und geschlagen hatte, baute Rom seine Flotte aus, um der Seemacht Karthago erfolgreich entgegentreten zu können. Nach mehreren Rückschlägen und wechselhaftem Kriegsglück gelang es Rom schließlich, besonders auf Sizilien Fuß zu fassen und die karthagische Flotte mehrmals zu schlagen. Karthago verlor im Friedensvertrag alle seine sizilischen Besitzungen (später auch Sardinien und Korsika); fortan war es das Hauptziel der karthagischen Politik, die Folgen dieser Niederlage auszugleichen. Die einflussreiche karthagische Familie der Barkiden errichtete in Hispanien eine Art Kolonialreich, dessen Ressourcen für den Kampf gegen Rom eingesetzt werden konnten. Im Zweiten Punischen Krieg (218–201 v. Chr.) gelang es dem karthagischen Strategen Hannibal beinahe, Rom in die Knie zu zwingen, wobei als Kriegsgrund die Belagerung und Eroberung der griechischen Kolonie Saguntum durch Hannibal diente, die mit Rom „verbündet“ war. Nach dem Fall Saguntums und der Weigerung der Regierung in Karthago, Hannibal auszuliefern, folgte die römische Kriegserklärung. Hannibal nahm den Landweg durch das südliche Gallien, überquerte die Alpen und fiel mit einem Heer in Italien ein, wobei er mehrere römische Armeen nacheinander vernichtete. Besonders die Niederlage bei Cannae (216 v. Chr.) war schmerzhaft für die Römer: Es handelte sich um die schwerste Niederlage in der römischen Geschichte, doch gelang es Hannibal nicht, das Bündnissystem Roms in Italien zu zerstören, sodass Hannibal trotz seiner Siege weitgehend isoliert blieb. Der römische Feldherr Scipio setzte 204 v. Chr. nach Afrika über und besiegte Hannibal 202 v. Chr. bei Zama. Karthago verlor alle außerafrikanischen Besitzungen und seine Flotte. Damit war es als Machtfaktor ausgeschaltet, während Rom mit seiner neuen Provinz Hispanien zunehmend an Einfluss gewann. a> Großreiche um 200 v. Chr. Der Sieg über Karthago im 1. und 2. Punischen Krieg sicherte Roms Vormachtstellung im westlichen Mittelmeer. Neben seiner neuen Rolle als Seemacht trugen auch die eroberten Silberminen in Hispanien und die gewaltigen Reparationen, die Karthago zu leisten hatte, zu Roms neuem Reichtum bei. In die Zeit ab 200 v. Chr. fiel auch die Einmischung Roms in das Machtspiel der hellenistischen Großreiche: Dort waren die Großmächte nicht in der Lage gewesen, ein friedliches Zusammenleben zu erreichen. Es folgten Konflikte mit den Antigoniden, wobei Rom 200 bis 197 v. Chr. in Griechenland gegen Philipp V. intervenierte, um den makedonischen Einfluss in Griechenland zurückzudrängen. Auf ein Hilfegesuch kleinasiatischer Staaten hin kam es zum Römisch-Syrischen Krieg (192–188 v. Chr.) gegen das hellenistische Seleukidenreich unter Antiochos III. Dieser musste nach Roms Sieg auf einen Großteil seiner Besitzungen in Kleinasien verzichten. Rom wurde damit zur De-facto-Vormacht im östlichen Mittelmeerraum. Versuche Makedoniens, die alte Hegemonie wieder aufzurichten, führten zum Krieg. 168 v. Chr. wurden die Makedonen unter ihrem König Perseus endgültig besiegt und ihr Königreich zerschlagen, 148 v. Chr. schließlich in eine römische Provinz umgewandelt. So erging es 146 v. Chr. auch Griechenland (ab 27 v. Chr. Provinz Achaea, vorher zu Makedonien gehörig) und der neuen römischen Provinz Africa nach der Zerstörung Karthagos, welches vor dem Dritten Punischen Krieg (149–146 v. Chr.) wieder an Macht gewonnen hatte. Pergamon wurde durch Erbvertrag 133 v. Chr. zur römischen Provinz. Gleichen Status erhielt 64/63 v. Chr. das Restreich der Seleukiden, das nicht mehr lebensfähig war und von Pompeius, der eine Neuordnung des Ostens vornahm, zur Provinz Syria gemacht wurde. Nur das schwächelnde Ägypten der Ptolemäer, welches zu einem römischen Protektorat wurde, behielt seine Unabhängigkeit, ehe es im Jahre 30 v. Chr. ebenfalls im Römischen Reich aufging. An der Grenze des Partherreiches kam die römische Expansion zum Stehen, hier sollte Rom in den nächsten Jahrhunderten einen ebenbürtigen Gegner gefunden haben. In den neuen Provinzen, vor allem in den reichen hellenistischen Küstenregionen, wurden in dieser Zeit von privaten „Gesellschaften“ („societates publicanorum“) römischer Ritter und Patrizier die Steuern erhoben. Während sie einen Fixbetrag an den Staat abführten, konnten sie Mehreinnahmen behalten. Dies führte zu oftmals unmäßigen Steuern, die die Wirtschaft dieser Gebiete auslaugte und immer wieder zu Aufständen führte. Über das Ansehen dieser Steuerpächter erfährt man etwa in der Bibel (Zöllner). Infolge der römischen Erfolge stieg auch die Menge des zur Verfügung stehenden Münzgeldes dramatisch an, ebenso wie sich die Anzahl der Sklaven immer mehr erhöhte. Gerade die Sklaverei spielte im Rahmen der römischen Wirtschaft eine wichtige Rolle, wobei die Sklaven zu ganz unterschiedlichen Tätigkeiten herangezogen wurden, aber gleichzeitig die Möglichkeit bestand, dass sie ihre Freiheit (zurück)erlangen konnten. So glänzend die außenpolitischen Erfolge Roms auch waren: Im Inneren erodierte die republikanische Ordnung allmählich. Die Revolutionszeit und die Bürgerkriege. Die Republik geriet seit der Mitte des 2. Jahrhunderts v. Chr. in eine innenpolitische Krise, die schließlich in die Epoche der Bürgerkriege mündete und mit dem Untergang der bisherigen Staatsform enden sollte. Hintergrund war zunächst der Ruf nach Reformen, vor allem im Agrarbereich. Die Römer pflegten einen Teil des im Krieg eroberten Landes in Staatsbesitz zu überführen und bedürftigen Bürgern zur Nutzung zu überlassen. Um Aneignung großer Agrargüter in den Händen einiger weniger zu vermeiden, war der Landbesitz offiziell auf 500 Iugera beschränkt worden. Dieses Gesetz konnte jedoch nicht durchgesetzt werden. Wohlhabende Bürger legten sich riesige Landgüter zu. Dies wurde spätestens zu dem Zeitpunkt zum Problem, als praktisch alles Land innerhalb Italiens verteilt war und gleichzeitig immer mehr Sklaven infolge der siegreichen Kriege ins Land strömten. Die Kleinbauern und Handwerker aus der Schicht der Plebejer konnten mit dem durch die zahlreichen Kriege stetig anwachsenden Sklavenheer nicht konkurrieren. Gleichzeitig waren sie durch die zahlreichen Kriege außerhalb Italiens zu langer Abwesenheit gezwungen, was den Erhalt des heimischen Hofes weiter erschwerte. Die Großgrundbesitzer hingegen vergrößerten ihren Landbesitz durch den Kauf unprofitabler Höfe oder auch durch gewaltsame Vertreibungen. Die Verarmung breiter Bevölkerungsschichten führte zu Landflucht und erheblicher Unzufriedenheit. Andere Gruppen von Plebejern, die im Handel zu Reichtum gekommen waren, verlangten nach mehr Rechten. Die nach den Brüdern Tiberius Sempronius Gracchus und Gaius Sempronius Gracchus benannte Gracchische Reform sollte die Grundbesitzverhältnisse reformieren und den ärmeren Schichten der Bevölkerung zu Land und Einkommen verhelfen. Die Reform scheiterte allerdings am Widerstand der konservativen Senatskreise, der zugrundeliegende Konflikt blieb weiter bestehen: die Popularen, die Vertreter der Plebejer und Kleinbauern, und die Optimaten, die konservative Adelspartei, bekämpften sich gegenseitig, um ihre jeweilige Politik durchzusetzen. Tiberius Gracchus wurde ermordet, sein Bruder Gaius sah keinen Ausweg und nahm sich 121 v. Chr. das Leben. Straßenkämpfe und politische Morde standen an der Tagesordnung. Auch machten sich innere Spannungen im Bündnissystem Roms bemerkbar, so dass es 91 bis 89 v. Chr. zum so genannten Bundesgenossenkrieg kam. Am Ende wurde das römische Bürgerrecht auch den Bundesgenossen verliehen. Im Anschluss daran kam es 88 v. Chr. zur berüchtigten Vesper von Ephesus: Nach der Ermordung Zehntausender römischer Siedler in Kleinasien zog Rom in den Krieg gegen Mithridates von Pontos und besiegte ihn nach mehrjährigen Kämpfen. Diesen Ereignissen folgte der Beginn des römischen Bürgerkriegs, in dem sich wieder Popularen und Optimaten gegenüberstanden (Marius, Cinna, Sulla), die sich gegenseitig in blutigen Pogromen und durch formelle Proskriptionen bekämpften. Sulla blieb siegreich und errichtete die Diktatur, um die republikanische Senatsherrschaft wieder zu festigen. Doch hatte diese Lösung keinen wirklichen Bestand, zumal Sulla bald zurücktrat und die alten Kräfte sich wieder bekämpften. Die Nachwirkungen der Rechtsbrüche führten zu einer permanenten inneren Schwächung der Republik, die gleichzeitig in der Außenpolitik aber auch grandiose Erfolge erzielte, insbesondere mit der Annexion des Seleukidenreichs und der Neuordnung des Ostens durch Gnaeus Pompeius Magnus. Die Krise der Senatsherrschaft wurde schließlich durch das (erste) Triumvirat verdeutlicht: der erfolgreiche Militär Gnaeus Pompeius Magnus (dem der Senat die Anerkennung seiner Leistungen und die Versorgung seiner Veteranen verweigerte), der ehrgeizige Gaius Iulius Caesar (der zwischen 58 v. Chr. und 51 v. Chr. im Gallischen Krieg Gallien bis an den Rhein unterwerfen sollte) und der reiche Marcus Licinius Crassus gingen ein informelles Bündnis ein, um sich in ihren jeweiligen Interessen zu unterstützen. Nach dem Tod des Crassus in einem Feldzug gegen die Parther rangen die einstigen Freunde Caesar und Pompeius um die Macht im Staat (49–46 v. Chr.), wobei sich Pompeius auf die Seite des Senats stellte. Nachdem Caesar den westlichen Teil des Reiches unter seine Kontrolle gebracht hatte, siegte er am 9. August 48 v. Chr. über Pompeius bei Pharsalos in Griechenland. Pompeius wurde kurz darauf auf seiner Flucht in Ägypten ermordet. Nach weiteren Feldzügen in Ägypten, Kleinasien, Afrika und Spanien, wo die letzten Republikaner geschlagen wurden, brach die Republik in sich zusammen. 46 v. Chr. führte Caesar den Julianischen Kalender ein, der den veralteten Kalender ersetzte. Im Februar 45 v. Chr. wurde Caesar zum „Diktator auf Lebenszeit“ ernannt. Nur durch seine Ermordung an den Iden des März durch eine Verschwörergruppe unter Marcus Iunius Brutus und Gaius Cassius Longinus wurde verhindert, dass sich die Republik in eine Diktatur verwandelte. Nach der Ermordung Caesars im Jahre 44 v. Chr. gelang es den Anhängern der Republik nicht, die alte republikanische Verfassung wiederherzustellen. In dem nun ausbrechenden Bürgerkrieg siegten nach Bildung des zweiten Triumvirats Octavian (der spätere Kaiser Augustus) und Marcus Antonius in der Schlacht bei Philippi gegen Brutus und Cassius. Nach Ausschaltung des letzten Konkurrenten Sextus Pompeius in Sizilien und der Entmachtung des dritten Triumvirn Marcus Aemilius Lepidus wandten sich Octavian und Marcus Antonius gegeneinander. In der Schlacht bei Actium besiegte Octavian 31 v. Chr. Marcus Antonius und die ihn unterstützende ägyptische Herrscherin Kleopatra. Damit fiel auch das reiche Ägypten an Rom und blieb für Jahrhunderte die „Kornkammer des Reiches“. Der gesamte Raum um das Mittelmeer war nun unter römischer Herrschaft, das Mittelmeer wurde zum „mare nostrum“ („unser Meer“). Die frühe Kaiserzeit (Prinzipat). Octavian zielte wie Caesar auf eine Alleinherrschaft. Doch anders als Caesar versuchte Octavian dieses Ziel nicht durch das Mittel einer außerordentlichen Diktatur zu erreichen. Octavian ließ vielmehr die alte republikanische Verfassung formal in Kraft und sicherte seine Position durch die Übernahme verschiedener Ämter, durch die Übertragung von Sondervollmachten und vor allem durch die Übernahme eines mehrjährigen Kommandos über wichtige Provinzen mit zahlreichen Legionen. Den alten senatorischen Adel konnte Octavian zu einer Anerkennung seiner Herrschaft bewegen, zumal die wichtigsten republikanisch gesinnten Familien bereits ausgeschaltet waren. Der Senat sah in Octavian den „Princeps“, den „Ersten Bürger des Staates“. Die von Octavian begründete Herrschaftsstruktur mit einer Verfassung, die sich in wesentlichen Punkten von der alten republikanischen Verfassung unterschied, wird deshalb auch „Prinzipat“ genannt. Octavian erhielt im Jahre 27 v. Chr. vom Senat den Titel „Augustus“ („der Erhabene“) verliehen. Auch in der Kaiserzeit blieben viele Einrichtungen der res publica erhalten: etwa der cursus honorum (der Senat), die Provinzverwaltung und die Priestertümer („Pontifex maximus“ war jedoch der Kaiser). Allerdings wurden diese Ämter von politischen Entscheidungspositionen mehr oder weniger zu reinen Verwaltungsämtern. Die Gesellschaftsordnung der Republik begann sich zu verändern, indem seit Augustus Angehörige neuer Schichten, besonders aus Italien und den Provinzen, in die nach wie vor herausgehobenen Stände der Senatoren und besonders der Ritter "(equites)" aufstiegen. Die Kaiser hatten das Recht, Ritter zu ernennen, was eine gewisse Durchlässigkeit der sozialen Schranken bewirkte. (Sie konnten auch den ehrenvollen Rang eines Patriziers an plebejische Senatoren vergeben.) Daneben war es nun auch für Nichtbürger Roms einfacher, das Bürgerrecht zu erlangen. Das Imperium Romanum beherrschte zu diesem Zeitpunkt bereits den gesamten Mittelmeerraum. Auch der Westen und Süden Germaniens gehörte zum römischen Reich; die Expansion nach Nordosten, die unter Augustus eingeleitet worden war, wurde erst durch die Varusschlacht im Jahre 9 gestoppt. Anschließend beschränkte sich Augustus auf die Sicherung der bestehenden Grenzen, an denen fast das gesamte, etwa 300.000 Mann zählende Berufsheer stationiert wurde. Seine Maßnahmen trugen erheblich dazu bei, den „römischen Frieden“, die „Pax Romana“, zu festigen. In die Zeit des Augustus fallen viele wichtige Neuerungen, so wurde eine Volkszählung im gesamten Imperium durchgeführt, die die Zahl der römischen Bürger erfassen sollte. Ferner wurden auch in zahlreichen Provinzen sämtliche Einwohner erfasst, so etwa in Syrien (dies ist die in der Bibel erwähnte „Schätzung“). Straßen und Verkehrswege wurden ausgebaut, Wirtschaft und Kultur („augusteische Klassik“) erlebten eine Blütezeit; die römische Kultur erreichte die Provinzen, deren Zahl zunahm. Trotz aller Maßnahmen zur Bewahrung alter römischer Institutionen wurde schon zur Zeit des Augustus auch die Weiterentwicklung vom stadtzentrierten Staat der Stadt Rom zum Gesamtstaat weitergetrieben. Ein Zeichen dafür ist, dass Augustus sich drei Jahre lang in Gallien aufhielt und sich nicht an Rom als Herrschaftssitz gebunden fühlte. Sein Nachfolger Tiberius verbrachte seine Regierungszeit sogar überwiegend auf Capri. Die Institution des Princeps war demnach von Anfang an dermaßen abgesichert, dass die Herrscher die städtischen Institutionen, allen voran der Senat, aus dem noch die Attentäter Caesars kamen, nicht direkt kontrollieren mussten. Augustus’ Adoptivsohn und Nachfolger Tiberius, der menschlich als ein schwieriger Charakter galt und sich wohl innerlich noch als Republikaner fühlte, beschränkte sich während seiner Herrschaft auf weitgehend defensive Maßnahmen zur Sicherung der Grenzen. Sein Nachfolger Caligula gilt traditionell als das erste Beispiel für „Cäsarenwahn“; heute sieht man diesen Kaiser, der nur gut drei Jahre herrschte, vielfach differenzierter, was dennoch keine positive Bewertung seiner Regierungszeit bedeutet. Unter Claudius, der nach der Ermordung Caligulas mehr als Verlegenheitskandidat Kaiser wurde (formal war das Kaisertum zudem ohnehin nicht erblich), wurde Britannien dem Reich hinzugefügt, später folgte noch Thrakien, welches aber schon vorher ein von Rom abhängiger Klientelstaat gewesen war. Der schlechte Ruf von Claudius’ Nachfolger Nero geht unter anderem auf nachträgliche, besonders christliche Beurteilungen zurück, da er die ersten großen Christenverfolgungen einleitete. Allerdings wird Nero auch in den heidnischen Quellen, in denen ein pro-senatorischer Standpunkt vertreten wurde, negativ dargestellt; ähnlich wird er auch weitgehend in der modernen Forschung beurteilt, wobei ihm unter anderem die Vernachlässigung des Militärs vorgeworfen wird. Neros Tod beendete 68 n. Chr. die Vorherrschaft des julisch-claudischen Hauses, das sich auf zwei der bedeutendsten römischen Geschlechter zurückführen konnte. Sein Ende markiert eine Zäsur in der römischen Geschichte: Fortan sollte kaum noch ein Kaiser dem alten stadtrömischen Adel entstammen. Die hohe Kaiserzeit. Nach den Wirren des Vierkaiserjahres traten die insgesamt erfolgreich regierenden Flavier die Herrschaft an, wobei Kaiser Vespasian im Jahre 70 einen Aufstand in Judäa durch seinen Sohn Titus niederschlagen ließ. Vespasian sanierte die Staatsfinanzen und sicherte die Grenze im Osten gegen die Parther ab. Als Vespasian, der auf eine insgesamt erfolgreiche Regierungszeit zurückblicken konnte, im Jahr 79 starb, folgte ihm Titus nach, dem allerdings nur eine sehr kurze Regierungszeit vergönnt war, in der es zu mehreren Katastrophen kam (Ausbruch des Vesuv sowie eine Seuchenepidemie), derer Titus jedoch Herr wurde. Titus’ Bruder Domitian trat 81 seine Nachfolge an. Er wird in den Quellen, beispielsweise bei Tacitus und Sueton, in düsteren Farben gezeichnet, da sein Verhältnis zum Senat gestört war, konnte aber durchaus Erfolge verbuchen und die Verwaltung effizienter gestalten. 96 brachte ihn jedoch eine Hofintrige zu Fall. Die nachfolgende Zeit der Adoptivkaiser, die mit Nerva begann, wird allgemein als die Glanzzeit des Imperiums verstanden, sowohl kulturell als auch in Bezug auf die Machtstellung Roms. Die Kaiser nahmen meist Rücksicht auf die Befindlichkeit des Senats und hielten in der Regel an der Staatsordnung des Prinzipats fest. Seine größte Ausdehnung erreichte das Römische Reich unter Nervas Nachfolger Trajan im Jahre 117, wobei Trajan, der als erster Kaiser nicht aus Italien, sondern aus den Provinzen stammte (aus Hispanien), als "optimus princeps" gefeiert wurde, als „bester Kaiser“. Das Imperium erstreckte sich nach Trajans Dakerkriegen und den Feldzügen gegen die Parther von Schottland bis nach Nubien in Nord-Süd-Richtung und von Portugal bis nach Mesopotamien in West-Ost-Ausrichtung; allerdings mussten die Eroberungen östlich des Euphrats nach sehr kurzer Zeit wieder aufgegeben werden, da sie nicht zu halten waren. Unter dem gebildeten und hellenophilen Hadrian kam es nun zu einer inneren Konsolidierung des Reiches und zu einer zivilisatorischen, kulturellen und technischen Blüte, die die Ausbreitung des damals noch jungen, schon stark angewachsenen Christentums begünstigte. Er verlegte sich vor allem auf den Aufbau von effizienten Grenzbefestigungen (zum Beispiel der Hadrianswall in Britannien, oder die Befestigung und Begradigung der Ostgrenze). Allerdings werfen einige moderne Historiker dem Kaiser vor, die Reichsfinanzen zu stark belastet zu haben. In der Tat lassen sich Vorboten einer Wirtschaftskrise erkennen, die aber noch keine dramatischen Ausmaße annahm. Um die Mitte des 2. Jahrhunderts, mit Beginn der Antoninischen Dynastie, schien das Imperium unter Antoninus Pius auf seinem Höhepunkt angelangt zu sein, doch traten unter dem „Philosophenkaiser“ Mark Aurel (161 bis 180) bereits die ersten Probleme auf. Es kam zu erbitterten Kämpfen mit verschiedenen germanischen Stämmen, besonders mit den Markomannen – wobei die Kämpfe mehrmals wieder ausbrachen, siehe Markomannenkriege –, während im Osten 161 die Parther angriffen; zudem schleppten die 166 siegreich aus dem Osten zurückkehrenden römischen Truppen eine Seuche in das Imperium ein, die so genannte „Antoninische Pest“. Neben der ernsthaften äußeren Bedrohung, welche die Ressourcen des Reiches bis an die Grenzen des Machbaren beanspruchte, machten sich im Inneren erste Zerfallserscheinungen bemerkbar. Nach dem Tod Mark Aurels, der gerade im Bereich der nördlichen Grenze vorläufige Erfolge verbuchen konnte, jedoch innere Reformen versäumte, kam es zu einer Reihe von weiteren Krisenereignissen, zumal sein Sohn Commodus offenbar nicht in der Lage war, dem Reich Sicherheit zu geben. Als er 192 ermordet wurde, folgte ein Bürgerkrieg. Zu Beginn des 3. Jahrhunderts konnten die Severer die Lage stabilisieren; Septimius Severus, der sich 193 im Kampf um die Macht durchsetzte, war auch der erste aus Africa stammende Kaiser. Er konnte im Krieg gegen die Parther einige Erfolge verbuchen (Einrichtung der römischen Provinz Mesopotamien), im Inneren wuchs derweil die Macht der Militärs. Unter Caracalla wurde allen freien Bewohnern des Reiches, außer den „dediticii“ (den militärisch Unterworfenen, die in einem besonderen Rechtsverhältnis zu Rom standen), das römische Bürgerrecht verliehen (Constitutio Antoniniana), was eine markante Zäsur in der Gliederung des römischen Staatswesens darstellte. Caracalla, der bei Volk und Heer beliebt war, jedoch innerhalb des Senats und auch seiner eigenen Familie Feinde hatte, fiel während seines Partherfeldzugs einem Attentat zum Opfer. Nach einer kurzen Zwischenzeit bestieg Elagabal den Thron, dessen Regierungszeit vom letztendlich gescheiterten Versuch geprägt war, die gleichnamige orientalische Gottheit zum Staatsgott zu erheben. 222 wurde der unbeliebte Elagabal ermordet und Severus Alexander versuchte vergeblich, sich im Krieg im Osten gegen die Sassaniden (siehe unten) und am Rhein gegen die Germanen zu bewähren. 235 wurde er von unzufriedenen Soldaten ermordet. Es folgte nach dem eher unrühmlichen Ende der Severer die Reichskrise des 3. Jahrhunderts, in welcher sich die Soldatenkaiser dem Ansturm der Germanen an Rhein und Donau (besonders der Alamannen und der Goten) ausgesetzt sahen. 259/60 musste im Rahmen des Limesfalls der Obergermanisch-Raetische Limes aufgegeben werden. Vor allem aber kam es an der Ostgrenze zu schweren Kämpfen mit dem "Neupersischen Reich" der Sassaniden (seit 224), welche die Partherherrschaft beseitigt hatten (siehe dazu Römisch-Persische Kriege). Die Sassaniden sollten sich als ein gefährlicherer Gegner Roms erweisen, als es die Parther je gewesen waren: Der bedeutende Sassanidenkönig Schapur I. fiel mehrmals in Syrien ein und konnte dabei mehrere römische Heere besiegen. 260 fiel sogar Kaiser Valerian in seine Hand, welcher sein Leben in der Gefangenschaft beschloss – eine unvergleichliche Blamage für Rom. Während Rom im Osten verzweifelt bemüht war, die Provinzen Syriens und Kleinasiens zu halten, erodierte auch im Westen das Imperium. Die Statthalter in Provinzen, die das Kommando über mehrere Legionen in den Händen hielten, nutzten diese oftmals, um an die Macht zu gelangen. Dabei kam es immer wieder zu Kämpfen zwischen den Usurpatoren und sogar zur Abspaltung einzelner Provinzen (besonders Galliens, siehe Gallisches Sonderreich), die aber unter Aurelian wieder rückgängig gemacht werden konnten. Das seit der frühen Kaiserzeit bewährte „Akzeptanzsystems“ des Prinzipats, demnach die Legitimität jedes "princeps" grundsätzlich auf der Zustimmung von Heer, Senat und Bevölkerung von Rom beruhte, stieß an seine Grenzen. Andere Mächte versuchten, die Schwäche Roms für Eroberungen zu nutzen. So wurde etwa Palmyra, ein ehemaliger Verbündeter Roms gegen die Parther und später die Sassaniden, 272 unterworfen, nachdem es unter Zenobias Führung zeitweilig Teile der östlichen Provinzen Roms erobert hatte. Die Krise führte zu zahlreichen Veränderungen, betraf allerdings nicht alle Gebiete des Reiches im selben Ausmaß. Und es sollte schließlich noch einmal gelingen, den drohenden Verfall des Reiches abzuwenden. Der Beginn der Spätantike. Mit Diokletian vollzog sich 284 der Übergang in die Spätantike, die von einer – im Gegensatz zur vorherigen Zeit – stärkeren Zentralisierung und Bürokratisierung sowie dem späteren Sieg des Christentums geprägt war. Diese Zeit wird heute nicht mehr, wie noch in der älteren Forschung (so etwa Edward Gibbon oder Otto Seeck), als eine reine Zerfallszeit begriffen, sondern vielmehr als eine Zeit des Umbruchs und der Transformation der antiken Mittelmeerwelt. Diokletian reformierte die Verwaltung, die in einen zivilen und einen militärischen Sektor geteilt wurde, und schuf die Ordnung der „Tetrarchie“, wonach es zwei „Senior-Kaiser“ („Augusti“) mit jeweils einem „Junior-Kaiser“ („Caesar“) geben sollte. Denn für einen Kaiser alleine war das Imperium schon längst unregierbar geworden, besonders da der Druck auf die Grenzen ständig anwuchs. Die Teilung der Provinzen und die Einführung der Diözesen und Präfekturen sollten die Verwaltung der Provinzen effizienter machen. Mit Höchstpreisverordnungen versuchte Diokletian, Inflation und wirtschaftlichen Niedergang einzudämmen. Die religiöse Festigung kaiserlicher Herrschaft, die sog. „Apotheose“ (so nahm Diokletian nach dem Gott Jupiter den Beinamen „Iovius“ an) sollte eine neuerliche Ausrichtung der Reichsbewohner auf Staat und Kaiser bewirken. Besonders die Christen empfand Diokletian als illoyal dem Reich gegenüber. Die letzten (und heftigsten) Christenverfolgungen fanden in seiner Regierungszeit statt. Die Idee der Teilung des Herrschaftsraumes war nicht völlig neu, doch wurde sie nun konsequenter umgesetzt. Allerdings wurde der Gedanke der Reichseinheit nicht aufgegeben. Rom blieb der ideelle Mittelpunkt des Reiches, auch wenn die Kaiser ihre Residenzen nun in die Nähe der Grenzen, so etwa nach Augusta Treverorum (aus dem das heutige Trier hervorging), verlegten. Konstantin der Große, dessen Vater Constantius I. nach dem Rücktritt von Diokletian und dessen Mitkaiser Maximian das Amt des „Senior Augustus“ im Westen übernommen hatte, wurde 306 von seinen Soldaten zum Kaiser ausgerufen, und der nun ranghöchste Kaiser Galerius erkannte ihn widerwillig als Mitherrscher an. Konstantin gab sich damit nicht zufrieden. Er beseitigte nach und nach seine Rivalen und sorgte so für die Auflösung der römischen Tetrarchie. Bereits seit 312 herrschte er im Westen und etablierte 324 die Alleinherrschaft über das gesamte Imperium. Bedeutend wurde seine Regierungszeit vor allem aus zwei Gründen: Zum einen wegen der Privilegierung des Christentums, die die konstantinische Wende einleitete, und zum anderen wegen der Gründung von Konstantinopel, das von nun an als neue Hauptstadt diente. Der Blick des Reiches wandte sich mehr und mehr gen Osten. Konstantins Dynastie überlebte ihn nicht lange. Es folgten zunächst Bruderkämpfe, bis Constantius II. 353 die Alleinherrschaft erlangte. Nach seinem Tod kam es 361 unter seinem Nachfolger Julian, dem Neffen Konstantins, zu einer „Renaissance“ des Heidentums, die aber nicht von langer Dauer war, weil der Kaiser schon 363 bei einem missglückten Perserfeldzug ums Leben kam. Mit ihm erlosch die konstantinische Dynastie. Unter Valentinian I. wurde das Reich aus Verwaltungsgründen vorläufig und nach dem Tod Kaiser Theodosius’ I. endgültig geteilt. Theodosius war nach dem Tod des Valens von Valentinians Sohn Gratian als Kaiser im Osten eingesetzt worden. Es gelang ihm nach der verheerenden Niederlage von Adrianopel, die eingedrungenen Goten durch Verträge wenigstens vorläufig zu binden. 394 wurde Theodosius schließlich Alleinherrscher, nachdem es im Westen zu einer Reihe von Usurpationen und Revolten gekommen war; er war der letzte Kaiser, der über das gesamte Imperium herrschen sollte. In seine Zeit fällt auch die Einführung des Christentums als Staatsreligion. Nach seinem Tod 395 kam es unter seinen Söhnen Honorius (im Westen) und Arcadius (im Osten) zur Reichsteilung, die von da an endgültig sein sollte. Dennoch blieb die Idee der Reichseinheit lebendig – so galten die Gesetze des einen Kaisers normalerweise auch im Machtbereich des jeweils anderen. Untergang des Reiches im Westen und Behauptung im Osten. Das Oströmische Reich überlebte die Wirren der so genannten Völkerwanderung, vor allem, da es der ökonomisch gesündere und dichter bevölkerte Reichsteil war und im Inneren befriedet blieb. Im Laufe des 5. Jahrhunderts zerfiel derweil allmählich das Römische Reich im Westen. Das Vordringen der Hunnen hatte nach Ansicht mancher Forscher einen Dominoeffekt ausgelöst, der die politische Aufteilung Europas gänzlich verändert habe. Andere Historiker halten hingegen interne Wirren für entscheidend. Die kaiserliche Regierung verlor jedenfalls nach 400 zunehmend die Kontrolle über die westlichen Provinzen, die von Bürgerkriegen und Plünderungszügen geplagt wurden. Große Teile Galliens und Spaniens gingen um die Mitte des 5. Jahrhunderts an germanische Krieger (Vandalen, Franken, Goten) verloren, die Rom anfangs als Söldner ("foederati") dienten, aber zusehends eigene Ziele verfolgten. Vor allem der Verlust Africas an die Vandalen 435 war ein schwerer Schlag für Westrom. Der westliche Regierungssitz war bereits um die Jahrhundertwende von Mailand nach Ravenna verlegt worden. Und selbst Italien geriet immer mehr unter den Einfluss von Germanen. 410 plünderten meuternde Westgoten die Stadt Rom, 455 folgten ihnen darin die Vandalen, 472 schließlich die Krieger Ricimers. (Der an die Plünderung von 455 angelehnte Ausdruck „Vandalismus“ kam erst im 18. Jahrhundert auf und ist historisch nicht gerechtfertigt, da es sich eher um eine „systematische Plünderung“ als um „sinnlose Zerstörung“ handelte; zudem wurde die Bevölkerung Roms weitgehend verschont, was zu dieser Zeit – auch bei Eroberungen durch Römer – keine Selbstverständlichkeit war. Alle drei Plünderungen Roms erfolgten dabei im Grunde im Kontext von Bürgerkriegen.) Es gab mehrere Gründe für den Verfall und Untergang des Römischen Reiches. Welche Prozesse letztlich zur Transformation des weströmischen Reiches in eine Reihe von poströmisch-germanischen Nachfolgestaaten führten, die spätestens seit dem 7. Jahrhundert als souverän gelten konnten, ist seit langem Gegenstand der Forschungsdiskussion. So bestand das Heer zum größten Teil nicht mehr aus römischen Bürgern, sondern aus Reichsfremden, wobei man allerdings jene Krieger, die dem regulären Heer beitraten und so zu Römern wurden, von den unter eigenen Anführern kämpfenden und formal reichsfremden "foederati" unterscheiden muss. (Ob es in der Spätantike wirklich zu einer "Barbarisierung" der Armee kam, ist in der heutigen Forschung sehr umstritten.) Die Stärke der westlichen Armee reichte angesichts leerer Kassen zudem nicht mehr aus, um die Grenzen zu sichern und Vergeltungsfeldzüge zu unternehmen. Im Inneren war die Verwaltung marode geworden, auch ein wirtschaftlicher Niedergang ist festzustellen, wenn auch nicht so dramatisch, wie noch die ältere Forschung meinte. Machthungrige Militärs wie Stilicho, Constantius (III.), Aëtius oder Ricimer - Römer ebenso wie "Barbaren" - dominierten den westlichen Kaiserhof und lieferten einander blutige Machtkämpfe. 476 setzte der germanische Heermeister Odoaker den Romulus Augustulus schließlich als weströmischen Kaiser ab (letzter anerkannter Westkaiser war allerdings Julius Nepos gewesen). Odoaker sah sich selbst als einen „Germanen in römischen Diensten“ und seine Herrschaft in Italien als Teil des "Imperium Romanum" unter dem römischen Kaiser in Konstantinopel, und auch sein Nachfolger Theoderich der Große sah sich selbst als Herrscher von Westrom und bemühte sich um eine kaiserliche Anerkennung seiner Stellung. Anders war die Lage im Osten. Der Ostteil des Reiches war wirtschaftlich erfolgreicher, konnte Bürgerkriege weitgehend vermeiden, verfügte über die größeren strategischen Reserven und betrieb auch die geschicktere Diplomatie. Vor allem das Hochland Anatoliens mit dem Taurus-Gebirge und die Propontis bildeten natürliche Barrieren gegen das Vordringen von feindlichen Truppen. Zudem war es Hunnen und Germanen nie gelungen, den Hellespont zu überqueren; daher blieben die reichen Provinzen Kleinasiens, Syriens und Ägyptens weitgehend unbehelligt. Die oftmals „barbarischen“ Militärs, deren Machtstreben mit zum Untergang Westroms beigetragen hatte, wurden noch im 5. Jahrhundert vom Kaiserhof zurückgedrängt und zu Beginn des 6. Jahrhunderts zum größten Teil ausgeschaltet. Fortan blieb das Militär unter Kontrolle. Und obwohl es zu schweren Kämpfen mit Hunnen und Sassaniden kam, blieb das Ostreich intakt. Unter Justinian, dem letzten römischen Kaiser, dessen Muttersprache Latein war, und seinem Feldherren Belisar konnten die Oströmer große Teile des Westens (Nordafrika, Italien, Südspanien) zurückerobern, während sie im Orient unter großen Anstrengungen die Grenzen gegen die Perser halten konnten. Allerdings wurden die Angriffe der Sassaniden seit der Thronbesteigung Chosraus I. immer heftiger und es bestand die Absicht, den gesamten römischen Osten zu erobern. Damit endete die Phase der Koexistenz der beiden Großreiche und eine Serie von verheerenden Kriegen begann. Der (ost-)römische Kaiser war noch einmal der mit Abstand mächtigste Herrscher im Mittelmeerraum, und Ostrom beherrschte den größten Teil des alten Reichsgebietes (mit Ausnahme Britanniens, Galliens und Nordspaniens). Die zurückeroberten Gebiete erwiesen sich nach Justinians Tod (565) allerdings vielfach als auf Dauer unhaltbar. So fiel etwa Südspanien nach einigen Jahren wieder an die Westgoten und Italien ab 568 großteils an die Langobarden. Das Ende des antiken Imperiums. Im Inneren des Oströmischen Reiches gärte es, religiöse Streitigkeiten zwischen christlichen Gruppen (Monophysiten gegen Orthodoxe) und die hohe Steuerlast wegen der ständigen Kriege förderten die Unzufriedenheit von Teilen der Bevölkerung, etwa in Syrien und Ägypten; dies bewirkte eine deutliche Schwächung des Loyalitätsempfindens. Am Anfang des 7. Jahrhunderts wurden dann zunächst weite Teile des Reiches zeitweilig von den Sassaniden erobert. Dabei stießen die persischen Truppen unter Chosrau II. zweimal bis Byzanz vor und entführten das Heilige Kreuz, das angeblich Helena, die Mutter Konstantins, gefunden hatte, und das den „größten Schatz“ des Reiches darstellte, aus Jerusalem. Nachdem Kaiser Herakleios den langen Krieg schließlich mit großer Mühe siegreich beendet hatte, konnte das erschöpfte Reich dem Angriff der islamischen Araber (arabische Expansion) kaum widerstehen und verlor ganz Syrien und Afrika. Besonders der Verlust des reichen Ägypten, das durch Verrat des Patriarchen Kyros beinahe kampflos an die Araber fiel, schwächte Ostrom substanziell. Herakleios brach mit der römischen Tradition, indem er statt des Titels „Imperator“ den alten griechischen Königstitel „Basileus“ annahm und Griechisch auch zur offiziellen Amtssprache machte. Das Reich verlor nun seinen römisch-antiken Charakter. Das Oströmische Reich mit seiner Hauptstadt Konstantinopel blieb zwar staatsrechtlich noch bis in das 15. Jahrhundert erhalten – aber die inneren Strukturen veränderten sich nach etwa 640 so grundlegend, dass es gerechtfertigt erscheint, von dieser Zeit an vom Byzantinischen Reich zu sprechen. Auch im Osten begann damit das Mittelalter. Die Gebietsveränderungen des Byzantinischen Reiches Dabei muss allerdings beachtet werden, dass es sich beim Begriff „Byzantiner“ um einen erst im 19. Jahrhundert aufgekommenen Begriff ohne historische Tradition handelt. Der katholische Westen des Mittelalters bevorzugte die Bezeichnung „Reich der Griechen“, da man den vom Papsttum abtrünnigen orthodoxen Christen des Ostens keineswegs das Erbe des Römischen Reiches zusprechen wollte, vielmehr dies für sich selbst beanspruchte (Bsp.: „Heiliges Römisches Reich Deutscher Nation“ als Name für das mittelalterliche „Deutsche Reich“; siehe auch folgender Abschnitt). Sprach hingegen ein Byzantiner selbst von den Griechen („Hellenoi“), waren stets die vorchristlichen Griechen der Antike gemeint, und manche bezeichnen sich sogar heute noch volkstümlich auch als „Rhomoi“, also „Römer“. Wie bei den Byzantinern selbst, war auch bei den Einwohnern der mittelalterlichen muslimischen Reiche stets der Name „Römisches Reich“ („Rum“) üblich, wenn das Byzantinische Reich gemeint war. Als Idee und Bezugspunkt blieb das "Imperium Romanum" auch lange über das Ende der Antike hinaus wirkmächtig. Historische Anknüpfung. Der fränkische König Karl der Große war der erste nachrömische Kaiser Westeuropas, der sich gemäß der "translatio imperii" in der Folgeherrschaft der römischen Kaiser sah. Seine Kaiserkrönung am 25. Dezember 800 in Rom führte so auch zu diplomatischen Auseinandersetzungen mit dem byzantinischen Basileus, der sich als einzig legitimen römischen Kaiser betrachtete. Das Heilige Römische Reich (seit dem 15. Jahrhundert mit dem Zusatz „Deutscher Nation“), das in seiner größten territorialen Ausdehnung – nach heutigen politischen Grenzen – Deutschland, die Niederlande, Belgien, Luxemburg, Österreich, Tschechien, die Schweiz, Liechtenstein, Nord- und Mittelitalien, Slowenien, Teile Frankreichs (Lothringen, Elsass, Burgund, Provence, Korsika), Teile Polens (Schlesien, Pommern) und Teile Kroatiens (Istrien) umfasste, sah sich später als Nachfolger des (west-)römischen Reiches, während der russische Zar über das byzantinische Erbe („Drittes Rom“) ebenfalls die Nachfolge der römischen Kaiserkrone beanspruchte: die Titel „Kaiser“ und „Zar“ leiten sich beide von dem römischen Titel „Caesar“ ab. Mit der Kaiserkrönung Napoleons I. gab es in Westeuropa erstmals mehr als einen Kaiser. Mit der Niederlegung der römisch-deutschen Kaiserkrone von Franz II. ging das Heilige Römische Reich 1806 in Westeuropa auch dem Namen nach unter. Allerdings wurde der Kaisertitel von verschiedenen Monarchen weitergeführt, bis 1917 mit dem Ende der Herrschaft Nikolaus II. (Russisches Kaiserreich) und 1918/1919 mit der Abdankung Karls I. (Österreich-Ungarn) und Wilhelms II. (Deutsches Reich) die Geschichte der Kaiser in Europa ihr Ende fand. Im 20. Jahrhundert beanspruchte mit Benito Mussolinis faschistischem Italien nochmals ein Staat die Nachfolge des Römischen Reiches: Die „Wiederherstellung des Imperium Romanum“ war Mussolinis erklärtes Ziel. Verwaltung. Das Reich war bis in die Spätantike in Provinzen unterteilt, seit die Römer im 3. Jahrhundert vor Chr. begonnen hatten, ihre Macht über Italien hinaus auszuweiten (die erste Provinz war Sizilien). In der Kaiserzeit wurde die Provinzeinteilung des Reiches mehrfach geändert und reformiert. Augustus teilte die Provinzen in kaiserliche und senatorische ein. Unter Kaiser Diokletian wurde die bis dahin bestehende Gliederung des Römischen Reiches in "Provinzen" durch eine neue zweistufige Gliederung in "Diözesen" und "Provinzen" abgelöst, in die jetzt auch die italienische Halbinsel einbezogen wurde. Das eigentliche Rückgrat der Verwaltung bildeten allerdings die Städte (in der Rechtsform "colonia", "municipium", "civitas", "urbs" oder "oppidum"), die als halbautonome Bürgergemeinden organisiert waren und insbesondere für die Steuererhebung zuständig waren. Diese Delegation von Aufgaben ermöglichte es den Römern, mit einer sehr kleinen zentralen Administration operieren zu können. Die Einwohner der Städte galten zur Zeit der Republik lange Zeit nicht als vollwertige römische Bürger, mussten aber im römischen Heer dienen und Steuern bezahlen, besaßen jedoch kein Stimm- und Wahlrecht in der römischen Gesamtgemeinde und waren auch nicht in die Tribus eingetragen. Die Lex Iulia und die Lex Plautia Papiria während des Bundesgenossenkriegs 90 und 89 v. Chr. erhoben alle Landstädte Italiens zum Municipium mit vollem Bürgerrecht, so dass seitdem das Wort Municipium generell „italische Landstadt“ bedeutete. In der Kaiserzeit, beginnend bereits mit Gaius Iulius Caesar, erhielten auch Städte in den Provinzen außerhalb Italiens (allerdings fast nur im Westen des Reiches) das Recht eines Municipiums. Im 1. und 2. Jahrhundert gab es auch municipia Latina, deren Einwohner das gegenüber dem römischen weniger umfassende latinische Recht besaßen. Durch die Constitutio Antoniniana des Jahres 212 n. Chr. besaßen dann alle Städte des Reiches mindestens den Rang eines municipiums, mit ihr wurde auch fast allen freien Reichsbewohnern das römische Bürgerrecht verliehen. Wirtschaft. Der relative Frieden (pax romana) an den Grenzen und im Inneren, eine weitgehende demographische Stabilität, die allen Bürgern gewährte Freizügigkeit und ein allgemein akzeptiertes und verbreitetes Währungssystem waren Grundlagen für das Funktionieren einer reichsweiten Ökonomie. Wenn auch die Landwirtschaft mit der Latifundien­wirtschaft die Grundlage der römischen Wirtschaft war, nahmen Handel und Handwerk doch ebenfalls eine wichtige Position ein. Ein grundlegendes Element der Wirtschaft war die Arbeit von Sklaven. Kunst und Kultur. Künste und Kultur erreichten während der Zeit des Römischen Reiches, vor allem in der Kaiserzeit, in Teilen seines Gebietes eine Hochblüte, die damalige Lebensqualität und der entsprechende Bevölkerungsstand sollten in Europa und Nordafrika erst viele Jahrhunderte später wieder erreicht werden. Die römische Kunst und Kultur entstand auf der Grundlage der bodenständigen Lebensform der Bewohner des westlichen Mittelmeerraumes, der eher kunstarmen und nüchternen Kultur der (indogermanischen) Italiker, die im 2. Jahrtausend v. Chr. eingewandert waren und schließlich der Etrusker, deren Kultur von den Römern weitgehend übernommen wurde. Als Vorbilder für wesentliche Bereiche der römischen Kunst dienten die griechische Architektur, die Malerei und Plastik einschließlich adaptierter Motive aus der griechischen Mythologie. Eine Gleichsetzung fremder Götter (Interpretatio Romana) war darüber hinaus ein besonderes Charakteristikum des römischen Umgangs mit unterworfenen Kulturen und Religionen, z. B. im alten Ägypten. Rom übte während seiner Herrschaft in Kunst und Kultur vor allem nach Norden und Westen einen großen Einfluss auf die von ihm unterworfenen Gebiete aus. Auch die Kulturen jenseits seiner Grenzen wurden z. B. durch regen Handelsverkehr nachhaltig beeinflusst. In der östlichen Hälfte des Reiches mischte sich die Ausstrahlung des Stils mit bestehenden griechisch-hellenistischen und orientalischen Elementen. Eine umfassende Vorstellung zu Kunst, Kultur und des sozialen Zusammenlebens zur "hohen" römischen Kaiserzeit bieten heute die Ausgrabungen in Herculaneum und der damals bedeutenden römischen Stadt Pompeji in Kampanien. Durch die Katastrophe des plötzlichen Vulkanausbruchs durch den Vesuv im Jahr 79 n. Chr. wurden sie mit einer ca. 20 Meter hohen Ascheschicht und Bimsstein bedeckt und dadurch "natürlich konserviert". Trotz Zerstörungen durch ein Erdbeben im Jahr 62 n. Chr. zeigen sich die ausgegrabenen Paläste, mit Reliefs verzierte Tempel, Theater, Thermen und ganze Wohnviertel mit ihren gepflasterten Straßenzügen vergleichsweise gut erhalten, da sich die Städte damals im Wiederaufbau befanden. Die Ausstattung der freigelegten Häuser deutet auf teilweise großen Wohlstand der Einwohner hin. Die Werkstätten des Pompejianischen Kunsthandwerks waren hoch entwickelt. Im Inneren der Gebäude fanden die Forscher zahlreiche, zum Teil auch erotische Motive römischer Wandmalerei (Fresko) und Mosaiken, die einen hohen künstlerischen Stand aufzeigen und das Leben eines pulsierenden und – aus heutiger Sicht unverkrampft – sinnesfreudigen sozialen Gefüges widerspiegeln. Pompeji wurde in der ersten langen Zeit seiner etwa siebenhundertjährigen Geschichte von Oskern, Samniten, Griechen und Etruskern bewohnt, geprägt und nur allmählich romanisiert. Die Römer waren erst ca. 100 Jahre ein Teil des Vielvölkergemischs, wenn auch die Herrschenden. Hinzu kamen die meist aus östlichen Provinzen stammenden und bis zu einem Viertel der Gesamtbevölkerung einnehmenden Sklaven und Wanderarbeiter. In diesem Kontext muss auch die ausgegrabene Stadt z. B. mit dem Isis- und Aeskulap-Salus-Tempel, dem dorischen Tempel oder die Übernahme der griechischen Götterwelt, die vor den Römern stattfand, mit der in Pompeji aufgefundenen Kunst rezipiert werden. Neben Pompeji und Herculaneum wurden auch die kleineren Orte Stabiae und Oplontis vollständig begraben. Der Ausbruch des Vesuvs wurde durch Plinius dem Jüngeren detailliert beschrieben, dessen Onkel Plinius der Ältere bei der Katastrophe umkam. Sprache. Latein, die Sprache Roms, verbreitete sich als Amtssprache im gesamten Reich. Im hellenistisch geprägten Osten des Reiches und Ägypten war das Altgriechische ebenfalls Amtssprache und galt im gesamten Reich als Bildungssprache. Auch andere Sprachen konnten sich als Regionalsprachen behaupten, germanische Sprachen waren in Germania inferior, Germania superior und Belgica verbreitet. Das Erbe der lateinischen Sprache wirkte lange nach seinem Untergang fort: Über Jahrhunderte war Latein in ganz West- und Mitteleuropa bis in die Zeit des Barock die Sprache der Gebildeten. In der römisch-katholischen Kirche ist Latein bis heute offizielle Amtssprache. Noch heute werden in vielen Wissenschaften wie der Biologie, der Medizin und der Rechtswissenschaft lateinische Fachausdrücke verwendet und sogar neu geschaffen. Aus dem Lateinischen entstanden die modernen „romanischen“ Sprachen Europas. Recht. Das Rechtswesen im antiken Rom beinhaltete elementare zivil- und strafrechtliche Verfahrensvorschriften in der Rechtsordnung, die vom Grundsatz her in die modernen Rechtsnormen eingeflossen sind. Die Rechtswissenschaften erreichte ihre höchste Blüte in den ersten Jahrhunderten der Kaiserzeit (1. – 3. Jahrhundert). Das Rechts- und Staatswesen Europas, insbesondere das Zivilrecht, ist aber auch noch heute maßgeblich vom Römischen Recht geprägt. Wichtige Punkte der Überlieferung waren dabei die Sammlungen der Spätantike, so der Codex Theodosianus und der Codex Iustinianus. Liste der römischen Kaiser der Antike. Augustus gilt als erster römischer Kaiser. Die Liste der römischen Kaiser der Antike enthält alle Kaiser des Römischen Reiches von Augustus, der im 1. Jahrhundert v. Chr. den Prinzipat begründete, bis Herakleios, dessen Herrschaftszeit 610–641 (ab 613 gemeinsam mit Konstantin III.) die späteste für das Ende der Antike in Betracht kommende Epochengrenze ist. Manche Forscher setzen frühere Endpunkte für die antike Kaiserzeit, etwa bei Romulus Augustulus, Justinian oder Maurikios. Die römische Kaiserzeit lässt sich grob in Prinzipat (einschließlich der Zeit der Reichskrise) und Spätantike einteilen (der Begriff Dominat gilt heute als veraltet). Die Liste überschneidet sich seit der Alleinherrschaft Konstantins I. 324–337 für etwa drei Jahrhunderte mit der Liste der byzantinischen Kaiser. Staatsrechtlich besteht kein Unterschied zwischen dem Römischen und dem Byzantinischen Reich, denn als byzantinisch bezeichnet erst die neuzeitliche Forschung den im Mittelalter zu einer griechisch geprägten Großmacht gewandelten Rumpf des römischen Weltreichs. Das deutsche Wort "Kaiser" (wie auch das Wort "Zar") leitet sich von Gaius Iulius Caesar ab, dem bekanntesten Träger des Cognomens "Caesar". Erläuterungen. Die nachstehende Liste führt die Kaiser mit ihrem Porträt (v. a. zeitgenössische Büsten oder Münzen), ihren im deutschen Sprachraum üblicherweise verwendeten Namen, ihre vollständigen Namen und Titulaturen (soweit bekannt oder erschließbar), ihre Regierungszeiten und unter Anmerkungen etwaige Besonderheiten auf. Bei oströmischen Kaisern wird der lateinischen Namensversion der Vorzug gegeben, auch wenn es sich um originär griechische Namen handelt (Beispiele: Anastasius statt "Anastasios", Zeno statt "Zenon"). Der griechische Name wird nur dann verwendet, wenn die entsprechende lateinische Version im Deutschen ungebräuchlich ist (Beispiel: Maurikios statt "Mauricius"). Weiß hinterlegt, VERSAL gesetzt und gefettet sind die legitim herrschenden Kaiser ("Augusti"; Beispiel: AUGUSTUS), in nur nominell (nicht de facto) gleichrangige Mitregenten (seit). Elemente der offiziellen „Kerntitulatur“ stehen in (nur bei Hauptkaisern und hier nur die durchgängig überlieferten Titelbestandteile). Elemente der Filiation, republikanische Funktionstitel und Triumphaltitel sind in gesetzt (die Triumphaltitel wurden oft nicht alle gleichzeitig getragen, auch die Reihenfolge variiert in den Quellen; in Klammern: evtl. nur inoffiziell bzw. erschlossen). Aufgeführt werden i.d.R. nur Begriffe der Selbstbezeichnung der Kaiser in der ausführlichsten bekannten Titulatur. Sofern keine urkundliche Selbstbezeichnung überliefert ist, wird die auf den Münzen wiedergegebene Titulatur herangezogen. Im Einzelfall sind numismatisch oder epigraphisch belegte Epitheta in Klammern ergänzt (Beispiel: erscheint in der Spätantike regelmäßig auf den Reichsmünzen anstelle des in Urkunden üblichen "semper"). Nicht einbezogen ist die Anredeform "dominus noster", da sie kein Bestandteil der offiziellen Selbstbezeichnung war. Die Regierungszeit gilt für die Amtszeit als "Augustus" bzw. (bei Hauptkaisern) für die Zeit der Alleinherrschaft, bei Usurpatoren und Thronprätendenten für den Zeitraum des Herrschaftsanspruchs. In der Spalte Anmerkungen werden Unterkaiser bzw. designierte Thronfolger "(Caesares)", sofern sie später nicht eigenständig geherrscht haben, den jeweiligen Kaisern unter Angabe der Jahre ihrer Mitregent- bzw. Würdenträgerschaft (Jahreszahl "kursiv": nur nominell) zugeordnet (Beispiel: Maximus). Die Fettung entfällt bei präsumtiven Thronfolgern ("principes iuventutis", "nobilissimi"), die infolge ihres eigenen Todes oder infolge des Todes bzw. der Entmachtung des Kaisers nicht mehr offiziell zum "Caesar" oder "Augustus" ausgerufen wurden (Beispiele: Marcellus, Romulus). Sogenannte „Kaisermacher“ werden mit der Präposition „durch“ gekennzeichnet (Beispiel: „durch Ricimer“). Kaiserinnen "(Augustae)" werden als Regentinnen genannt, wenn sie dem Kaiser nominell gleichgestellt waren und für ihn die Regierungsmacht ausgeübt haben (Beispiel:) oder nach dem Tod des Kaisers selbst (übergangsweise) die Herrschaft übernommen haben (Beispiel:). Nicht aufgeführt sind vom Kaiser eingesetzte und mit dem römischen Bürgerrecht ausgestattete Klientelfürsten, die in "de iure" außerhalb der Reichsgrenzen gelegenen Vasallenstaaten "(regna)" geherrscht haben (Beispiele: Prasutagus, Abgar), sowie spätantike Foederatenkönige auf Reichsterritorium (Beispiel: Wallia). Grau hinterlegt sind Gegenkaiser und Usurpatoren. Unter „Gegenkaiser“ werden Usurpatoren bzw. Thronprätendenten im engeren Sinne verstanden, die sich den Kaisertitel selbst zugelegt haben oder von ihren Truppen bzw. Unterstützern akklamiert worden sind (VERSAL oder in: "Augustus"-Titel durch Münzen oder Inschriften belegt). Das gilt auch für Gegenkaiser, die zeitweise den Thron innehatten, sofern der legitime Herrscher auf Reichsterritorium weiterhin eigene Regierungstätigkeit entfaltet und dem Rivalen die Anerkennung verweigert hat (Beispiel: ROMULUS AUGUSTULUS gegen Julius Nepos). Gefettet sind vom Senat auch nachträglich legitimierte Gegenkaiser, die ihren Herrschaftsanspruch zu Lebzeiten nicht durchsetzen konnten (Beispiel: GORDIAN I. und). Als „Usurpator“ werden in der Liste Gestalten bezeichnet, In gesetzt sind Usurpatoren und Thronprätendenten, die über eine nur regionale/lokale bzw. periphere Machtbasis verfügt oder nur kurzzeitig geherrscht bzw. einen Herrschaftsanspruch erhoben haben. Aufgeführt sind auch nichtrömische Herrscher, die in der Spätantike auf ehemaligem Reichsgebiet bzw. in Territorien unter nomineller römischer Oberhoheit eine kaiserähnliche Stellung beansprucht haben ("imitatio imperii"; Beispiel: Theudebert). Sofern die Regentenposition durch den Erhalt römischer Ehrentitel offiziell legitimiert war, sind die Figuren beim jeweiligen Kaiser aufgeführt (Beispiel: Chlodwig unter Anastasius I.). Klein geschrieben sind höchstwahrscheinlich unhistorische oder fiktive Figuren in der Zeit der Reichskrise des 3. Jahrhunderts (Beispiel: Trebellianus). Hinsichtlich der Gegenkaiser erhebt die Liste keinen Anspruch auf Vollständigkeit, zumal von einigen außer ihren Namen nichts oder fast nichts bekannt ist. Nachfolgestaaten. Den Titel eines römischen Kaisers beanspruchten seit dem Mittelalter weitere Herrscher, beispielsweise Verweise auf die betreffenden Kaiserlisten finden sich unten oder unter dem Lemma Kaiser. Weblinks. ! Rom Ratio Decidendi. ' (lat. „Entscheidungsgrund“) steht für Rechtsansichten in einer Gerichtsentscheidung, die für die Entscheidung tragend sind. Gegensatz ist das "obiter dictum". Die "ratio decidendi" ist „der wesentliche Gesichtspunkt“ einer gerichtlichen Entscheidung, nach Kriele als generell-abstrakte Regel gedanklich oder ausdrücklich formuliert. "Siehe auch:" Präzedenzfall, Ratio Rhone. Die Rhone (le Rhône [ləˈʁoːn]) ist ein 812 Kilometer langer Fluss in der Schweiz und in Frankreich. Er ist der wasserreichste Strom Frankreichs. Nach dem Fluss sind auch die französischen Départements Rhône und Bouches-du-Rhône benannt. Die Rhone entspringt im schweizerischen Kanton Wallis am Rhonegletscher und mündet in Frankreich in der Camargue ins Mittelmeer – das Mündungsdelta wird dabei durch die Große Rhone im Osten und die Kleine Rhone im Westen gebildet. Auf dem Weg zum Mittelmeer durchfließt die Rhone den Genfersee. Größter an der Rhone gelegener Ort ist Lyon. Name. Weitere Namensformen sind arpitanisch "Rôno", okzitanisch "Ròse" und deutsch "Rotten". Der ursprüngliche deutsche Name "der Rotten" ist nur noch im Oberwallis offiziell in Gebrauch, umgangssprachlich meist in der dialektalen Form "Rottu". Bei den Griechen wurde der Fluss "Rhodanos" genannt, bei den Römern "Rhodanus". Insgesamt überwiegt beim Flussnamen das männliche Geschlecht, zum Beispiel im Lateinischen "," im Französischen ' und im Walliserdeutschen "der Rotten". Der Rhoneverlauf. Die Rhone entspringt im schweizerischen Kanton Wallis am Rhonegletscher. Nach dem Ausfluss aus dem Rhonegletscher fließt die Rhone zunächst von Ost nach West. In Martigny macht die Rhone einen markanten 90°-Bogen (das "Rhoneknie") und fließt Richtung Norden. Danach folgt das Chablais in den Regionen um Monthey und Aigle VD. Die Rhone mündet im Ort Le Bouveret in den Genfersee, den sie in Genf wieder verlässt. Das Schweizer Rhonetal zwischen Quelle und Genfersee wird von den höchsten Bergen der Schweizer Alpen gesäumt (Alpenhauptkamm) und bildet das Haupttal des Kantons Wallis. Nach dem Ausfluss aus dem Genfersee verlässt die Rhone das Gebiet der Schweiz und fließt dem französischen Jura entlang nach Süden bis Culoz, wo sie ihn nach Westen durchbricht. Ab Lyon fließt die Rhone in südlicher Richtung zum Mittelmeer hin. Der südliche Abschnitt des Rhone-Tals – das Vallée du Rhône – ist nun weitläufiger als der flussaufwärts gelegene Teil in den Alpen. Das Mündungsdelta wird schließlich von der Camargue und den Städte Arles (nördlich, im Landesinnern), Saintes-Maries-de-la-Mer (im Süd-Westen) und Fos-sur-Mer (im Süd-Osten) gebildet. Hier zweigt nördlich von Arles die Petit Rhône (Kleine Rhone) nach Westen ab und mündet westlich von Saintes-Maries-de-la-Mer ins Mittelmeer. Der Hauptarm der Rhone hingegen zweigt als Große Rhone (Grand Rhône) nach Osten hin ab, um dann bei Fos-sur-Mer in das Mittelmeer zu münden. Die beiden Mündungsarme begrenzen die Camargue, welche durch ihre weißen Pferde, schwarzen Stiere sowie die Sumpf- und Wasservögel (vor allem Flamingos, Reiher und Löffler) bekannt ist. Bedeutende Nebenflüsse. Die Rhone hat zahlreiche Nebenflüsse. Hier zu sehen ist die Mündung der Arve (rechts) in die Rhone bei Genf. Eine umfassende Auflistung aller Nebenflüsse findet sich in der Liste von Zuflüssen der Rhone. Die Saône hat, wenn sie in Lyon in die Rhone mündet, bereits eine längere Strecke als diese hinter sich gebracht. Das Flusssystem Rhone–Saône misst 860 km, die Rhone allein 812 km. Das System Rhone–Saône–Doubs–Cébriot ist sogar 1031 km lang. Rhonekorrektionen im Wallis. In den Jahren 1863 bis 1893 wurde die erste Rhonekorrektion durchgeführt. Der Fluss wurde in ein Flussbett gelegt, damit die Ebene bewirtschaftet werden konnte. Die Länge des Flusslaufes auf Schweizer Gebiet verringerte sich dadurch von 230 km auf 119 km. 1930 bis 1960 wurden die Deiche erhöht und ein Doppelprofil mit Hauptgerinne und Vorland angelegt. Nach den Überschwemmungen von 2000 wurde im Jahre 2001 mit der Planung der dritten Rhonekorrektion begonnen. Das Ziel ist, die Sicherheit zu erhöhen und zugleich den Flusslauf wieder natürlicher zu gestalten. Schifffahrt. Die Rhone war noch vor Bau von Schnellstraßen und Eisenbahnen eine wichtige Verbindung von Städten wie Arles, Avignon, Valence, Vienne und Lyon zu den Mittelmeerhäfen von Fos, Marseille und Sète. Heutzutage ist die Rhone weitgehend kanalartig ausgebaut. Von Lyon bis zur Mündung besteht Schiffbarkeit für große Binnenschiffe (Grand Gabarit), zum Teil jedoch nur über Seitenkanäle. Wie ein Großteil der schiffbaren Wasserwege wird auch die Rhone von der Voies navigables de France (VNF) betrieben. Eine Schiffbarkeit für kleinere Binnenschiffe bestand früher auch von Lyon bis zum Genfer See, jedoch wurden die Schleusen auf diesem Flussabschnitt stillgelegt. Der Canal de Donzère-Mondragon ist auf einem Abschnitt südlich von Montélimar und nördlich von Avignon ein Seitenkanal der Rhone. Seitenkanäle der Großen Rhone in der Carmargue sind der Canal d’Arles à Fos, der Canal du Rhône à Fos und der Canal Saint-Louis, welche Arles mit Fos-sur-Mer und dem Mittelmeer verbinden. Die Rhone ist an anderen Wasserwege wie Flüße und Kanäle anbunden. Im Norden besteht von Lyon über den Fluss Saône sowie den Rhein-Rhône-Kanal (Fluss Doubs) eine Verbindung nach Ost-Frankreich sowie zum Rhein. Im Süden besteht Anschluss an den Canal du Rhône à Sète. Eine für den Güterverkehr wichtige Verbindung von Golfe de Fos (Canal du Rhône à Fos) zum Étang de Berre besteht über den Canal de Caronte. Der Canal de Marseille au Rhône verband bis zum Einsturz des Tunnel du Rove den Étang de Berre mit Marseille. Unverwirklicht blieben verschiedene Schifffahrtskanalprojekte in den Alpen, welche Rhone und Genfer See mit dem Hochrhein verbunden hätten, wie zum Beispiel der Transhelvetische Kanal. Eisenbahn. Im Tal der Rhone verlaufen verschiedene Eisenbahnstrecken. Die Hochgeschwindigkeitsstrecke LGV Rhône-Alpes für TGV-Züge verbindet seit 1994 Lyon mit Valence. Im Jahre 2001 wurde die Strecke LGV Méditerranée eröffnet, welche von Valence über Avignon weiter nach Marseille führt – seitdem beträgt in Verbindung mit der Strecke LGV Sud-Est die Fahrzeit zwischen Paris und Marseille nur noch drei Stunden. Die Rhone in der Kunst. Vincent van Gogh verbrachte im neunzehnten Jahrhundert einen Teil seines Lebens in Arles und verewigte dabei u.a. die Rhone in Gemälden. Im ausgehenden zwanzigsten Jahrhundert hat der Schweizer Schriftsteller Pierre Imhasly in seinem Poem und Lebenswerk "Rhone Saga" in zwölfjähriger literarischer Arbeit der Rhone ein Denkmal gesetzt. Landwirtschaft. Landwirtschaftlich genutzt wird der schweizerische Teil der Rhone, jedoch vor allem das französische Rhonetal (Vallée du Rhône), stromab von Lyon, das dank des warmen Klimas eine wichtige Landwirtschaftsregion in Frankreich ist. Im klimatisch begünstigten Rhonetal werden viele Obstsorten kultiviert, so z. B. Pfirsiche, Kirschen, Aprikosen und Erdbeeren. Im Tal der Rhone zwischen Vienne und Avignon finden sich das Rhône-Weinbaugebiet, mit vor allem den Côtes du Rhône (Hängen der Rhone) – dort findet sich unter anderem das bekannte Weinbaugebiet Châteauneuf-du-Pape. Der Weinbau im südlichen Rhônetal ist bereits für die vorrömische Antike nachgewiesen; hier begann der Weinanbau in Frankreich, ausgehend von phönizischen und griechischen Handelsniederlassungen. Aber auch für den Weinbau in der Schweiz ist das Rhonetal mit dem Wallis und den Hängen des Genfersees bedeutend. Kernenergie. An der Rhone betreibt die Électricité de France (EDF) mehrere Kernkraftwerke. Die Lage an der Rhone wurde gewählt, da das Wasser des Flusses zur Kühlung zur Verfügung steht. Neben Anlagen zur Produktion von elektrischer Energie befinden sich auch verschiedene Nuklearanlagen zur zivilen und militärischen Verarbeitung von nuklearem Material sowie zur Forschung an der Rhone – somit befindet sich ein bedeutender Teil der französischen Nuklear-Industrie an der Rhone. Forschung. Das CERN, die Europäische Organisation für Kernforschung, befindet sich im Tal der Rhone in der Nähe von Genf. Größte Anlage des CERN ist der Large Hadron Collider (LHC), ein Teilchenbeschleuniger in einem unterirdischen Ringtunnel mit 26,7 Kilometer Umfang. Der LHC befindet sich zum Großteil auf französischem Gebiet und zum Teil auf Schweizer Gebiet. Einzelnachweise. Rhone Robert Anton Wilson. Robert Anton Wilson (eigentlich "Robert Edward Wilson"; * 18. Januar 1932 in Brooklyn; † 11. Januar 2007 in Capitola bei Santa Cruz, Kalifornien) war ein US-amerikanischer Bestsellerautor, Philosoph und Anarchist. Berühmt wurde er unter anderem durch seine Romantrilogie "Illuminatus!". Leben. Robert Edward Wilson wurde am 18. Januar 1932 in Brooklyn als Sohn von John Joseph und Elizabeth Wilson geboren. In seiner Kindheit erkrankte er an Kinderlähmung, wurde jedoch mit der damals von der American Medical Association nicht anerkannten Methode von Sister Kenny geheilt. Wie Wilson mehrfach berichtete, war das für ihn der erste Vorfall, der ihn an Autoritäten zweifeln und auch alternativen, nicht anerkannten Heilmethoden vertrauen ließ. Die Krankheit soll mit der Grund dafür gewesen sein, weshalb er später nicht zum Koreakrieg eingezogen wurde, da er leicht hinkte. Wilsons Eltern schickten ihn auf eine katholische Grundschule. Seine Schulzeit dort war durch äußerst strenge Unterrichtsmethoden und Prügelstrafen geprägt. 1946 überzeugte er seine Eltern, ihn auf eine öffentliche, mathematisch-naturwissenschaftliche Schule zu schicken. Dort fing er an, mit Gewinn all die Autoren zu lesen, vor denen ihn die Nonnen auf seiner vorherigen Schule gewarnt hatten: Charles Darwin, Thomas Paine, Robert G. Ingersoll, H. L. Mencken und Friedrich Nietzsche. Als Jugendlicher schloss er sich einer trotzkistischen Gruppierung an, die er nach einem Jahr verließ, als ihm deren Dogmatismus nicht weniger absurd erschien als der der Kirche. Nicht weniger enttäuscht wurde er von Ayn Rands Philosophie, der er sich danach zuwandte. In den 1950er Jahren studierte Wilson am Brooklyn Polytechnic Institute Elektroingenieurwesen und schrieb seine ersten Geschichten, die jedoch nie veröffentlicht wurden. Später wechselte er sein Hauptfach und studierte Mathematik. Er verbrachte viel Zeit in Jazz-Bars, hatte eine Affäre mit einer Afroamerikanerin und begann, Cannabis zu rauchen. Um mit den Konflikten fertig zu werden, die aus seiner katholischen Erziehung herrührten, unterzog er sich mehrmals einer psychoanalytischen Behandlung; ein Therapeut aus der Schule Wilhelm Reichs heilte ihn von chronischen Kopfschmerzen. 1956 hielt Wilson seinen ersten öffentlichen Vortrag über Wissenschaft, Pseudowissenschaft und Science Fiction an der "New York Academy of Sciences." Angeblich saß auch seine spätere Frau Arlen Riley im Publikum. Er traf sie jedoch erst zwei Jahre später und heiratete sie kurz darauf. Weitere Einflüsse, die auf Wilson in den 1950er Jahren wirkten, waren Richard Buckminster Fuller und der Zen-Buddhismus, mit dem ihn sein Freund Alan Watts vertraut machte. In den frühen 1960ern begann er mit psychedelischen Drogen zu experimentieren. Zunächst probierte er Peyote aus. Zu dieser Zeit lebte er mit seiner Familie in einer alten Sklavenhütte in den Wäldern außerhalb von Yellow Springs, Ohio. Den Lebensunterhalt verdiente Wilson mit verschiedenen Anstellungen als Redakteur, bis er schließlich 1965 Leserbriefredakteur beim "Playboy" wurde. Diese Briefe, insbesondere die in ihnen enthaltenen höchst unterschiedlichen Verschwörungstheorien, lieferten ihm und seinem Arbeitskollegen Robert Shea viel Inspiration für die Illuminatus!-Trilogie, an der sie zusammen schrieben. Für seine Schriften übernahm Robert Wilson als zweiten Vornamen den seines Großvaters mütterlicherseits, "Anton," da er sich seinen eigentlichen Namen "Robert Edward Wilson" zunächst für zukünftige literarische Meisterwerke aufsparen wollte. "Robert Anton Wilson" (kurz RAW) wurde jedoch bald sein Erkennungszeichen in der Literaturszene. 1964 traf er bei seiner Arbeit Timothy Leary, mit dem er sich anfreundete und mit dem er im Jahr 1978 "Neuropolitics" veröffentlichte. Dieses Werk verhalf ihm zum Durchbruch. Mitte der 1960er begegnete er William S. Burroughs, der ihn auf die seltsamen Synchronizitäten mit der Zahl 23 aufmerksam machte, die auch in verschiedenen Büchern Wilsons verarbeitet sind. Während seiner Zeit beim "Playboy" nahm er Kontakt zu Kerry Thornley auf, einem der Gründer des Diskordianismus. Er schrieb einige Artikel für dessen Magazin "New Libertarian." 1968 wurden Wilson und Robert Shea bei Protestkundgebungen am Rande der Democratic National Convention mit Tränengas beschossen. Zu dieser Zeit waren sie dabei, "Illuminatus!" zu überarbeiten, und die Erlebnisse des Parteitags wurden in das Buch eingebaut. 1971 kündigte Wilson seinen Job beim "Playboy," um sich ernsthafter dem Schreiben widmen zu können. Als seine Ersparnisse nach einem Jahr aufgebraucht waren, musste die Familie zwei Jahre von Sozialhilfe leben. Erst ab 1974 verdiente Wilson mit dem Schreiben genug Geld für seinen Lebensunterhalt. "Illuminatus!" wurde 1975 veröffentlicht. Der Verlag lehnte jedoch eine vollständige Veröffentlichung des Werks ab. Dies führte zu einem Kampf zwischen Wilson und dem Verlag. Schließlich setzte sich der Verlag durch, und es erschien lediglich eine gekürzte Fassung. Am 3. Oktober 1976 wurde Patricia Luna, die Tochter der Wilsons, bei einem Raubüberfall erschlagen. 1982 bis 1988 lebten die Wilsons in Irland. Sie kehrten den Vereinigten Staaten den Rücken, um einerseits gegen Ronald Reagans Präsidentschaft zu protestieren, aber auch, um sich in ihrer neuen Heimat mit ihren irischen Wurzeln zu beschäftigen. Als die Wilsons später 1988 nach Kalifornien zurückkehrten, entdeckte Wilson seine Liebe zum Film. Seine Werke aus dieser Zeit beschäftigen sich oft mit den Filmen von Stanley Kubrick und Orson Welles. Mitte der 1990er Jahre zogen Wilson und Arlen nach Capitola, nahe Santa Cruz, Kalifornien. Dort starb Arlen am 22. Mai 1999. In den folgenden Jahren litt Wilson am Post-Polio-Syndrom, wohl eine Folge seiner früheren Kinderlähmung. Die Krankheit band ihn an den Rollstuhl. Nach einiger Zeit stellte sich jedoch eine Linderung der Symptome in dem Maße ein, dass er schließlich wieder gehen konnte. Wilson führte dies auf seinen Konsum von Cannabis zurück. Deshalb setzte er sich für die Entkriminalisierung der Cannabis-Anwendung ein. Er setzte seine Vortragstätigkeit fort und veröffentlichte weiterhin Bücher. Im Oktober 2006 starteten prominente US-Blogger und Fans einen Spendenaufruf für Wilson, der wegen der hohen Kosten für die medizinische Versorgung verarmt war und sein Haus hätte verkaufen müssen. Die Aktion brachte 68.000 Dollar ein. Wilson starb am 11. Januar 2007 nach längerer Krankheit an den Folgen des wiedergekehrten Post-Polio-Syndroms. Seine Asche wurde, ebenso wie zuvor die seiner Frau, vom Santa Cruz Beach Boardwalk herunter verstreut. Themen. Inhaltlich pflegte Wilson ein breites Themenspektrum aus der Quantenmechanik, der Drogen-Subkultur und der Welt der Geheimbünde. Sein immer wiederkehrendes Thema ist dabei die Relativität der Wahrheit und der Grenzbereich zwischen Rauschzuständen und mystischen Erfahrungen. Dies brachte auch ein Interesse an solchen Phänomenen mit sich, die sich in das bestehende Wissenssystem nicht einordnen lassen. Er betonte oft, sich auf Alfred Korzybski berufend, dass unsere Vorstellungen von der Welt nur eine Annäherung an diese darstellen. Er warb daher stets für eine Form von grundsätzlichem Agnostizismus, die er als „Modellagnostizismus“ bezeichnete: „My goal is to try to get people into a state of generalized agnosticism, not agnosticism about God alone, but agnosticism about everything.“ Dieser sollte unter anderem Menschen bei ihrer „Selbst-Programmierung“ hin zu größerer Bewusstheit und Freiheit unterstützen. Eines seiner Mittel war die Erschütterung vertrauter Weltbilder. Vieles in seinen Büchern dient der Verunsicherung des Lesers. Er versuchte, seinen Lesern ein grundsätzliches Misstrauen gegenüber allen vermeintlichen Autoritäten, seine eigenen Ideen eingeschlossen, nahezubringen. Schon in den 1980ern entwarf Wilson Ideen zu einem heute immer breiter diskutierten Bedingungslosen Grundeinkommen, wobei er als Endstufe „große Investitionen auf dem Gebiet der Erwachsenenbildung“ vorschlug. Er sah auch das Internet als eines der bedeutendsten Werkzeuge zur Weiterentwicklung der menschlichen Intelligenz an. "Wer einer solchen Menge sich widersprechender Signale ausgesetzt ist, müsse früher oder später beginnen, selbst zu denken," so folgerte er mit Augenzwinkern. Wilson vertrat Learys „8-Schaltkreise-Modell“ und schrieb über dieses auch eine Dissertation an einer alternativen Universität, die er, in überarbeiteter Fassung, später unter dem Titel "Prometheus Rising" veröffentlichte. Wilson beschäftigte sich auch mit politischen Verschwörungen und Verschwörungstheorien, erfand selbst einige – satirische – Verschwörungen und förderte die Pseudo-Religionen Diskordianismus und Church of the SubGenius sowie die "Operation Mindfuck". Er sah mit großem Vergnügen, dass diese Dinge schnell ein starkes, besonders in der Internetkultur verbreitetes Eigenleben entfaltet haben. Zur Beschreibung von Kommunikationsproblemen in Hierarchien benutzte er den Begriff des Snafu-Prinzips. Die "Nihilistische Anarchistenhorde (NAH)" entstammt den Büchern von Robert Anton Wilson. Die N.A.H. verteilte unter anderem Bastelbögen zum Bau von Atombomben und machte durch Sprüche wie „Hupen Sie, wenn Sie bewaffnet sind!“ auf sich aufmerksam. Eine weitere Zielscheibe seines Spotts war das Committee for the Scientific Investigation of Claims of the Paranormal (CSICOP), das Wilson für „eine der derzeit dogmatischsten, fanatischsten und kreuzzüglerischsten atheistischen Religionen“ hielt. Wilsons Antwort auf die Skeptikerbewegung war das "Committee for Surrealist Investigation of Claims of the Normal" (CSICON), das eine Million irische Pfund jedem anbietet, der irgendetwas „Normales“, „Durchschnittliches“ oder „Gewöhnliches“ vorweisen kann. Timothy F. X. Finnegan, der angebliche Gründer der CSICON, ist gleichzeitig auch der Erfinder der "Patapsychologie," Wilsons Hommage an Alfred Jarrys ’Pataphysik. Zu Wilsons literarischen Helden gehören neben Friedrich Nietzsche unter anderem Aleister Crowley und Charles Fort. Stilistisch pflegte er das Erbe von James Joyce und William S. Burroughs. Zusammen mit Robert Shea wurde er für die Romantrilogie "Illuminatus!" 1986 in die Prometheus Hall of Fame aufgenommen. Werke. Robert Anton Wilson hat sowohl fiktionale Texte als auch Sachtexte veröffentlicht. Da er jedoch auch häufig beide Arten miteinander kombinierte, ist eine getrennte Aufzählung hier nicht möglich. Russischer Film. Neuer Russischer Film. Die Auswanderung und der Tod Tarkowskis, die Perestrojka sowie der Zusammenbruch der Sowjetunion waren bedeutende Etappen auf dem Niedergang der Filmkultur in Russland, der bis zur Jahrtausendwende nicht nur die Filmproduktion, sondern vor allem fast alle Lichtspielhäuser sterben ließ. Eine Wende trat erst um die Jahre 2002, 2003 ein, seit denen die Anzahl der neu eröffneten Kinos schier explodiert und sich immer mehr Filme junger, russischer Regisseure auf internationale Festivals finden. Die Filmemacher der neuen Generation (studierte Biologen, Physiker, Psychologen, …) bedienen sich bei all denen, die das Kino vorantrieben: Kubrick, Tykwer, aber vor allem Tarkowski, der voll Ehrfurcht behandelt dazu benutzt wird, neue Wege in der russischen Filmkunst aufzuzeigen. Trotzdem sind diese Filme keine bloßen Collagen von bereits Gesehenem, vielmehr verweben sich die einzelnen Bestandteile zu etwas Neuen ähnlich den Farben eines impressionistischen Bildes und verknüpfen Tradition und Zukunft. Anfang und Ende einer Geschichte scheinen hier ebenso wenig wichtig zu sein, wie ein zielgerichteter Handlungsverlauf oder der „typische“ Held oder Antiheld des westlichen Filmes, den man nur vergebens suchen kann. Das Jahr 2003 war (ungeplant) ein besonderes: gleich drei Filme verwiesen zurück auf den russischen Realismus des 19. Jahrhunderts, der unter anderem mit Turgenjews Väter und Söhne und Dostojewskis Die Brüder Karamasow Weltliteratur über die Beziehungen zwischen Vätern und Söhnen hervorbrachte. Die Filme The Return – Die Rückkehr, Koktebel und Vater und Sohn greifen diese Tradition auf und verweisen trotzdem in die Zukunft des russischen Filmes, der wie Kukushka zeigte, nicht nur bestens kritisiert, sondern auch kommerziell erfolgreich sein kann. Zu einem neuen Schlag holte das russische Kino im Jahre 2005 mit Wächter der Nacht – Nochnoi Dozor aus. Ein russischer Fantasy-Actionfilm nach dem gleichnamigen Roman von Sergei Lukjanenko. Das Werk wurde mit einem für Russland beispiellosen PR-Aufwand in die westlichen Kinos gebracht. Doch auch hier bleibt sich der russische Film treu: es gibt keine Helden. Insgesamt lässt sich in den letzten Jahren (2004 bis 2008) ein enormer Anstieg der Kinobesuche in Russland nachvollziehen – während im Großteil des übrigen Europa die Kinobesuchszahlen in den letzten Jahren bestenfalls stagnierten. Ebenfalls außergewöhnlich ist hierbei, dass die russische Filmproduktion bei der beinahen Verdoppelung der Kinobesuche ihren – im Vergleich mit Europa überdurchschnittlich hohen – Marktanteil, der seit 2005 stets über einem Viertel an allen Kinobesuchen in Russland liegt, halten konnte. Wichtige russische Regisseure (alphabetisch). Große russische Filmstudios: Goskino, Sowkino, Mosfilm, Lenfilm, Gorki Filmstudio (vormals Meschrabpom) Preis der Russischen Filmkunst Akademie: Nika Filmpolitiker: Boris Schumjazki, (1886–1938) Einzelnachweise. ! Ribosom. Ribosomen sind makromolekulare Komplexe aus Proteinen und Ribonukleinsäuren (RNA), die im Cytoplasma, in den Mitochondrien und in den Chloroplasten vorkommen. An ihnen werden Proteine hergestellt, und zwar entsprechend der Basensequenz der DNA, die die Information zur Aminosäuresequenz der Proteine enthält. Hier werden die einzelnen Aminosäuren in genau der Reihenfolge, die das jeweilige Gen vorschreibt, zu einem Kettenmolekül zusammengesetzt. Die Information zur Aminosäuresequenz in der DNA wird durch Boten-RNA (mRNA) vermittelt. Die Umwandlung der in der mRNA gespeicherten Information in eine Abfolge von verknüpften Aminosäuren wird als Translation (für "Übersetzung") bezeichnet. Die Translation der mRNA am Ribosom ist ein zentraler Bestandteil der Proteinbiosynthese und kommt in allen Lebewesen vor. Aufbau und Arten. Ribosomen sind granuläre Partikel mit einem Durchmesser von etwa 20–25 nm. Sie bestehen zu etwa zwei Dritteln aus RNA (rRNA) und einem Drittel aus ribosomalen Proteinen. Sie setzen sich in allen Organismen aus zwei unterschiedlich großen und funktionell verschiedenen Untereinheiten zusammen. Die Masse der Ribosomen wird durch ihr Sedimentationsverhalten charakterisiert, das in Svedberg-Einheiten (S) angegeben wird. Während der Translation assemblieren sie zu einem funktionalen Komplex, wobei die große Untereinheit in der Proteinbiosynthese die Aminosäuren zur Kette verknüpft (Peptidyltransferaseaktivität), und die kleine Untereinheit für die mRNA-Erkennung verantwortlich ist. Beide Untereinheiten bestehen aus Proteinen und rRNA, wobei die Proteine für den Zusammenhalt und die richtige Positionierung zuständig sind, die eigentlichen Reaktionen hingegen werden durch die rRNAs vorgenommen. Beide Untereinheiten werden bei Eukaryonten in den Nucleoli innerhalb der Zellkerne gebildet und werden dann durch die Kernporen ins Cytoplasma geleitet. Prokaryotische Ribosomen. Die Anzahl von Ribosomen je Zelle liegt bei Prokaryoten in der Größenordnung von 10.000, beispielsweise besitzt ein einzelnes "E. coli"-Bakterium etwa 20.000 Ribosomen. Die Ribosomen haben einen Sedimentationskoeffizienten von 70S und eine molare Masse von etwa 2,5 MDa. Bei Magnesiumkonzentrationen unter 1 mmol/l zerfällt das 70S-Ribosom zu einer 50S- und einer kleineren 30S-Untereinheit. Die 30S-Untereinheit (0,9 MDa) ist aus 21 verschiedenen ribosomalen Proteinen und einer 16S ribosomalen RNA (16S rRNA) zusammengesetzt. In der 50S-Untereinheit (1,6 MDa) finden sich 31 verschiedene Proteine und zwei rRNAs (23S und 5S rRNA). Die Proteine der kleinen Untereinheit werden mit „S“ (‚klein‘), die der großen Untereinheit mit „L“ (engl. ‚groß‘) gekennzeichnet. Ihre Aminosäuresequenzen besitzen keine besonderen Gemeinsamkeiten, sind aber reich an positiv geladenen Aminosäuren wie L-Lysin oder L-Arginin. Dies erlaubt eine bessere Interaktion mit den negativ geladenen rRNAs. Das größte bakterielle, ribosomale Protein ist S1 mit 61,2 kDa und 557 Aminosäuren, das kleinste ist L34 mit 5,4 kDa und 34 Aminosäuren. Eukaryotische Ribosomen. In eukaryotischen Zellen kommen Ribosomen nicht nur im Cytoplasma, sondern auch in den Mitochondrien oder – bei Pflanzen – auch zusätzlich in den Chloroplasten vor. Man schätzt die Zahl cytosolischer Ribosomen je Zelle auf zwischen 105 und über 107, womit eukaryotische Zellen mehr Ribosomen besitzen als prokaryotische. Die Anzahl ist vom Zelltyp abhängig, und zwar von der Proteinsyntheserate der Zelle. So ist die Ribosomenanzahl in Leberzellen besonders hoch. Außerdem sind eukaryotische Ribosomen des Cytosols auch größer, sie haben einen Durchmesser von etwa 25 nm. Diese haben eine molare Masse von etwa 4,2 MDa, der Sedimentationskoeffizient beträgt 80S. Bei der großen Untereinheit liegt er bei 60S (2,8 MDa) und bei seiner kleinen Untereinheit bei 40S (1,4 MDa). Die kleine Untereinheit besteht in Säugern aus 33 Proteinen und einer rRNA (18S rRNA), die große Untereinheit aus 49 Proteinen und drei rRNAs (28S, 5,8S und 5S). Cytosolische Ribosomen höherer Eukaryoten sind komplexer als die niederer Eukaryoten. So ist die 28S rRNA in Backhefe 3.392 Nukleotide lang, in Säugern wie der Ratte dagegen 4.718 Nukleotide. Auch die 18S rRNA ist in Backhefe kleiner als in der Ratte (1799 gegenüber 1.874 Nukleotide). Die eigentliche katalytische Funktion besitzt die rRNA, wohingegen die Proteine eher am Rand des Ribosoms sitzen. In Eukaryoten gibt es außer den freien cytoplasmatischen Ribosomen auch membrangebundene Ribosomen, die an die Membran des rauen endoplasmatischen Retikulums (ER) gebunden sind (s. u.). Die Bildung der ribosomalen Untereinheiten findet im Nucleolus statt. Zellen mit hoher Proteinsyntheserate haben deshalb besonders gut ausgeprägte Nucleoli. Freie und membrangebundene Ribosomen haben die gleiche Struktur und können zwischen den Funktionen wechseln. Die Ribosomen aus Mitochondrien und Chloroplasten sind den prokaryotischen Ribosomen ähnlich, was die Endosymbiontenhypothese stützt. Das mitochondriale Ribosom des Menschen und anderen Säugern besteht aus 48 Proteinen, von denen 21 nur in Mitochondrien vorkommen, und erzeugt nur mitochondriale Membranproteine. Die Schreibweise eukaryotischer ribosomaler Proteine ist nicht ganz einheitlich. In Backhefe werden Proteine der großen Untereinheit mit „Rpl“, die der kleinen mit „Rps“ bezeichnet. Bei den entsprechenden Proteinen der Säuger verwendet man auch die Großschreibung RPL bzw. RPS. Freie und membrangebundene Ribosomen. Ribosomen können in eukaryotischen Zellen nach dem Ort ihrer Synthesetätigkeit unterschieden werden. Freie Ribosomen liegen im Cytoplasma verstreut und erzeugen Proteine, die ihre Aufgabe meistens ebenfalls im Zellplasma wahrnehmen. Membrangebundene Ribosomen sind mit der Membran des endoplasmatischen Retikulums verbunden. Die dort synthetisierten Proteine werden mittels des cotranslationalen Proteintransportes in das Lumen des endoplasmatischen Reticulums geleitet. Membrangebundene Ribosomen findet man gehäuft in sekretbildenden Zellen wie z. B. in der Bauchspeicheldrüse. Funktionsweise. Die Funktionsweise des Ribosoms während der Translation kann durch das Dreistellenmodell charakterisiert werden. Demnach besitzt das Ribosom drei tRNA-Bindungsstellen, die A-(Aminoacyl-), P-(Peptidyl-) und E-(Exit-)Stelle. Während des Elongationszyklus oszilliert das Ribosom zwischen zwei Zuständen, dem prä- und dem post-translationalen Zustand, wobei zwei der drei tRNA-Bindungsstellen mit einer tRNA besetzt sind. Im prätranslationalen Zustand sind die A- und P-Stelle besetzt, wobei die P-Stelle die tRNA mit der Polypeptidkette trägt und die A-Stelle von der neu hinzugekommenen Aminoacyl-tRNA besetzt ist. Im Ribosom wird nun die Polypeptidkette mittels Peptidyltransferase von der P-Stellen-tRNA auf die A-Stellen-tRNA übertragen. Danach wechselt das Ribosom in den posttranslationalen Zustand und wandert um drei Basen auf der mRNA weiter, wodurch die vorherige A-Stellen-tRNA zur P-Stellen-tRNA wird und die nun leere ehemalige P-Stellen-tRNA über die E-Stelle (Exit) aus dem Ribosom geschleust wird. Dabei ist eine Translokase (EF-G) beteiligt. Die beiden Hauptzustände des Ribosoms (prä- und posttranslational) sind durch eine hohe Aktivierungsenergie-Barriere voneinander getrennt. Die zentrale Rolle der beiden Elongationsfaktoren besteht darin, diese Energiebarriere zu erniedrigen und so das Ribosom in den jeweils anderen Zustand zu versetzen. Manchmal formieren sich mehrere prokaryotische Ribosomen an demselben mRNA-Molekül perlschnurartig zu einem Polysom. Nachdem ein Peptid im Ribosom verknüpft wurde, durchwandert es einen ribosomalen Tunnel. Dieser besteht größtenteils aus rRNA und tritt aus der großen ribosomalen Untereinheit aus. Er hat eine Länge von ca. 100 Å (10 nm) und einen durchschnittlichen Durchmesser von 15 Å (1,5 nm). An dessen engster Stelle wird der Kanal durch zwei konservierte ribosomale Proteine begrenzt, L4e und L22. Ribophagie. Der Abbau von Ribosomen ist noch nicht vollständig verstanden. Er wird in der Regel unter Nährstoffmangel eingeleitet. Für Bakterien wie "E. coli" wurde vorgeschlagen, dass intakte 70S-Ribosomen zunächst in beide Untereinheiten zerfallen. Unter Mangelbedindungen wird die Translation in der Zelle heruntergefahren, so dass viele Ribosomen inaktiv sind. Die beiden Untereinheiten sind wesentlich empfindlicher gegenüber Ribonukleasen (RNasen) als ein intaktes Ribosom, da sie eine größere Angriffsfläche bieten. Danach könnten auch Exonukleasen die ribosomale RNA weiter abbauen. Für Backhefe, einen Eukaryot, wurde ein mit „Ribophagie“ bezeichneter Autophagieweg vorgeschlagen. Dieser lehnt an die Begriffe Mitophagie (Abbau von Mitochondrien), Pexophagie (Abbau von Peroxisomen) und Reticulophagie (Abbau des endoplasmatischen Retikulums) an. Unter Nährstoffmangel baut Hefe Ribosomen auf einem Weg ab, der ähnlich wie bei Prokaryoten beginnt. Zunächst werden die beiden Untereinheiten getrennt. Eine Ubiquitinligase entfernt dann Ubiquitin an der 60S-Untereinheit, welche dann in einem Vesikel zur Vakuole transportiert wird. Dies erscheint zunächst paradox, da Ubiquitin ein allgemeines Abbausignal für die meisten Proteine ist. Von den Autoren wurde vorgeschlagen, dass eine Ubiquitinligase die 60S-Untereinheit zunächst für den Abbauweg markiert, der Prozess aber erst durch die Ubiquitinprotease endgültig ablaufen kann. Strukturaufklärung. Ribosomen wurden durch den Forscher Albert Claude Mitte des 20. Jahrhunderts entdeckt. 1940 hatte er mit Hilfe der Dunkelfeldmikroskopie RNA-enthaltende Granula aus dem Cytosol tierischer Zellen identifiziert, die kleiner als Mitochondrien waren. Er bezeichnete diese als „Mikrosomen“, spätere Analysen zeigten, dass sie Komplexe aus Phospholipiden und Ribonukleinproteinen waren. Heutzutage werden Fragmente des ERs als Mikrosomen bezeichnet. Durch Fortschritte in der Elektronenmikroskopie gelang es 1955 George Emil Palade, jene „Mikrosomen“ eindeutig als Bestandteile einer Zelle und nicht bloß als Artefakte von Zelltrümmern zu identifizieren. Es gab immer mehr Hinweise darauf, dass diese Ribonukleinproteinpartikel etwas mit der Translation zu tun hatten. 1959, wurde auch der Beweis in "E. coli" erbracht, dass Ribosomen für die Biosynthese von Polypeptiden notwendig sind. 1958 griff Richard B. Roberts in einem Symposium den Vorschlag auf, den Namen „Mikrosom“ bzw. „mikrosome Partikel“ auf den besserklingenden und einfachen Namen − so Roberts − „Ribosom“ zu ändern. Diese Abkürzung verweist auf die Art der Partikel, Komplexe aus RNA und Proteinen (Ribonukleopartikel). Die Bezeichnung „Ribosom“ konnte sich durchsetzen und wird im Sprachgebrauch verwendet. Wegen ihrer Größe konnten erst in jüngerer Zeit hochauflösende Strukturen von Ribosomen gewonnen werden, wenngleich der grobe molekulare Aufbau seit den 1970er-Jahren bekannt ist. Einige Details ribosomaler Proteine konnten mittels Affinitätsmarkierung und chemisches Quervernetzen ("crosslinking") aufgeklärt werden. Ende 2000 wurde zum ersten Mal die 50S-Untereinheit des Archaeon "Haloarcula marismortui" in einer Auflösung von 2,4 Å aufgeklärt. In dieser Auflösung kann man einzelne Moleküle auflösen. Zeitgleich wurde auch die Strukturen der kleinen ribosomalen Untereinheit aus "Thermus thermophilus" in einer atomaren Auflösung von 3 Å publiziert. Da zu diesem Zeitpunkt keine Strukturdaten des kompletten Ribosoms vorlagen, wurden die vorhandenen Daten genutzt, um das prokaryotische Ribosom zu rekonstruieren. 2005 wurden zum ersten Mal die kristallographischen Strukturdaten eines intakten Ribosom aus "E. coli" in einer Auflösung von 3,5 Å vorgestellt. Nahezu zeitgleich konnte eine andere Forschergruppe eine Struktur präsentieren, die mit Hilfe der Cryoelektronenmikroskopie gewonnen wurde. Die Auflösung war mit über 10 Å vergleichsweise gering, zeigte aber eine Momentaufnahme der Translation am Translokon. Später wurden immer mehr Strukturdaten von (prokaryotischen) Ribosomen veröffentlicht, die gerade mRNAs oder tRNAs gebunden hatten und damit einen besseren Einblick auf die Prozesse der Translation gewährten. Für das eukaryotische Ribosom (80S) gibt es noch keine vergleichbaren Strukturdaten. Eine dreidimensionale Rekonstruktion ist indes aus den gesammelten Daten der Kryoelektronenmikroskopie, der Röntgenkristallographie einzelner ribosomalen Komponenten sowie Homologievergleiche mit prokaryontischen Ribosomen möglich.Heena Khatter, Alexander G. Myasnikov, S. Kundhavai Natchiar, Bruno P. Klaholz: "Structure of the human 80S ribosome." In: "Nature." 520, 2015, S. 640. Thomas A. Steitz, Ada Yonath und Venkatraman Ramakrishnan erhielten für ihre Arbeit an der Strukturaufklärung 2009 den Nobelpreis für Chemie. Relais. Ein Relais (Pl.: "Relais") ist ein durch elektrischen Strom betriebener, elektromagnetisch wirkender, fernbetätigter Schalter mit in der Regel zwei Schaltstellungen. Das Relais wird über einen Steuerstromkreis aktiviert und kann weitere Stromkreise schalten. Funktionsprinzip. Ein mechanisches Relais arbeitet meist nach dem Prinzip des Elektromagneten. Ein Strom in der Erregerspule erzeugt einen magnetischen Fluss durch den ferromagnetischen Kern und einen daran befindlichen, beweglich gelagerten, ebenfalls ferromagnetischen Anker. An einem Luftspalt kommt es zur Krafteinwirkung auf den Anker, wodurch dieser einen oder mehrere Kontakte schaltet. Der Anker wird durch Federkraft in die Ausgangslage zurückversetzt, sobald die Spule nicht mehr erregt ist. Schematischer Aufbau. Als Beispiel ist hier ein Klappanker-Relais mit einem Schließer abgebildet. Das linke Bild zeigt das Relais in Ruhestellung; die Spule ist spannungslos, der Arbeitskontakt geöffnet. Auf dem rechten Bild liegt an der Spule eine Spannung an, wodurch der Anker vom Eisenkern der Spule angezogen und der Arbeitskontakt geschlossen wird. Begriffe. Schaltplandarstellung eines Relais mit einem Wechselkontakt Ein Kontakt wird als Schließer oder Arbeitskontakt bezeichnet, wenn er bei abgefallenem Anker bzw. stromloser Erregerspule offen und bei angezogenem Anker bzw. stromdurchflossener Spule geschlossen ist. Als Ruhekontakt oder Öffner wird ein Kontakt bezeichnet, wenn er in angezogenem Zustand des Relais den Stromkreis unterbricht. Eine Kombination aus Öffner und Schließer wird als Wechsler oder Umschaltkontakt bezeichnet. Ein Relais kann einen oder mehrere solcher Kontakte haben. Ein Relais heißt „Ruhestromrelais“, wenn es im Ruhezustand vom Strom durchflossen und angezogen ist, beispielsweise zur Überwachung von Netzausfall oder Drahtbruch. Im anderen und überwiegenden Fall, bei dem es im Ruhezustand stromlos ist, wird es als „Arbeitsstromrelais“ bezeichnet. Im Schaltplan werden Relais grundsätzlich im abgefallenen Zustand gezeichnet, auch wenn sie als Ruhestromrelais arbeiten. Nur in seltenen Ausnahmefällen wird der aktive Zustand dargestellt, der dann besonders gekennzeichnet ist. Relaistypen. Unter den Relais gibt es eine sehr große Anzahl verschiedener Bauformen und Ausführungen. Darüber hinaus können Relais nach verschiedenartigen Gesichtspunkten typisiert werden, beispielsweise nach Anzahl der in stromlosem Zustand möglichen Schaltzustände, nach Bauform, Baugröße, Einsatzgebiet, Art oder Material der Kontakte, Schaltleistung oder Funktionsprinzip. Ein Relais kann daher oft zu verschiedenen Typen gezählt werden. Kleinrelais. Zu dem etwas unklar abgegrenzten Begriff "Kleinrelais" gehören eine Vielzahl meist im Niederspannungsbereich eingesetzte Relais, die oft zum Einbau auf Leiterplatten vorgesehen sind („Printrelais“). Weitere Beispiele sind DIL-Relais, kammgeführte Relais oder SMD-Miniaturrelais. Schütze. Ein Relais für erheblich größere Leistungen in der Starkstromtechnik wird "Schütz" genannt. Die Stromstärke und elektrische Spannung im Laststromkreis können um ein Vielfaches größer als in der Spule sein. Schütze besitzen einen Zuganker, für dessen Ansteuerung eine etwas höhere Leistung erforderlich ist, und sie haben in der Regel mehrere gleichartige Schaltkontakte, wie sie zum Schalten von Drehstromverbrauchern benötigt werden. Des Weiteren gibt es sogenannte Hilfsschütze, die ihrerseits zur Steuerung der vorgenannten Hauptschütze dienen. Halbleiterrelais . Halbleiterrelais (engl. "solid state relay", SSR, daher eingedeutscht auch "Solid-State-Relais" genannt) sind keine eigentlichen Relais. Vielmehr handelt es sich um elektronische Bauelemente, die – auf Grundlage ganz anderer physikalischer Prozesse – den Effekt von echten Relais simulieren. Halbleiterrelais werden mit Transistoren oder Thyristoren beziehungsweise Triacs realisiert. Sie arbeiten ohne bewegte Teile, sind daher sehr langlebig und für hohe Schalthäufigkeit und ungünstige Umweltbedingungen (wie Umgebungen mit explosiven Gasgemischen) geeignet. Mit Halbleiterrelais besteht die Möglichkeit, Wechselspannung während des Nulldurchganges zu schalten, womit störende Impulse vermieden werden können. Eine galvanische Trennung wird bei Halbleiterrelais durch im Bauteil integrierte Optokoppler erreicht. Halbleiterrelais haben gegenüber mechanischen Relais höhere Verluste im Laststrompfad und müssen daher oft auf einen Kühlkörper montiert werden. Außerdem gibt es Halbleiterrelais, die im Scheitel der Netzspannung oder sofort beim Ansteuern, also momentan schalten. Scheitelschalter werden eingesetzt zum Schalten von Induktivitäten, die keine oder nur eine geringe Restmagnetisierung haben. Sie weisen keine Hysterese auf. Eine Sonderstellung nehmen so genannte OptoMOS- bzw. PhotoMOS-Relais ein, da sie im Aufbau Optokopplern ähneln: Sie arbeiten steuerungsseitig wie ein Optokoppler mit einer IR-LED und besitzen lastseitig im Unterschied zu den zuvor beschriebenen Halbleiterrelais keine Triacs oder Thyristoren, sondern MOSFETs, mit denen sie Gleich- und Wechselspannungen bei typischerweise eher geringem Strom schalten können. Sie müssen nicht gekühlt werden und besitzen bei geringem Laststrom einen geringeren Spannungsabfall als Halbleiterrelais, zeigen typischerweise jedoch einen höheren „Kontaktwiderstand“ als mechanische Signalrelais. Sie arbeiten prell- und verschleißfrei sowie mit hohen Schaltgeschwindigkeiten (einige Mikrosekunden), die bei Spezialausführungen Schaltfrequenzen bis zu 100 kHz erreichen können. Bistabile Relais . Bistabile Relais sind gekennzeichnet durch ihre Eigenschaft, dass sie im stromlosen Zustand zwei verschiedene stabile Schaltzustände einnehmen können. Zu den bistabilen Relais gehören Relais in Kraftfahrzeugen. Kfz-Relais sind robust gebaute Relais, die den erhöhten Anforderungen in Kraftfahrzeugen hinsichtlich Stoßfestigkeit und Temperaturbereich standhalten können. Sie arbeiten mit der Bordspannung von 12 V oder 24 V und können höhere Ströme schalten. In der Regel besitzen sie Anschlüsse mit 6,3-mm-Flachsteckern. Häufig enthalten sie im Gehäuse schon Bauelemente (Widerstand, Diode) zum Begrenzen der Gegeninduktionsspannung der Spule. Sonderfunktionen. Die „Relais“, die als steckbare Baugruppen u. a. im Sicherungskasten von Kraftfahrzeugen verbaut sind, sind häufig Relais mit weiteren Funktionen oder elektronische Baugruppen bzw. kleine Steuergeräte. In vielen dieser kleinen Steuergeräte ist zwar tatsächlich noch ein mechanisches Relais enthalten, der Begriff "Relais" für die gesamte Einheit ist aber eher historisch bedingt. In modernen Autos werden die meisten Funktionen in größeren zentralen Steuergeräten integriert – so wird heute oft das typische Geräusch des Blinkrelais entweder per Lautsprecher oder mit einem Relais erzeugt, das keine Last schaltet. Fernmelderelais . Flachrelais und Rundrelais in einer Telefonanlage von 1975 In den elektromechanischen Vermittlungsstellen und Telefonanlagen wurden Relais in großem Umfang eingesetzt. Sie dienten der logischen Ablaufsteuerung beim Auf- und Abbau der Wählverbindungen. Dabei waren den Teilnehmern in der Teilnehmerschaltung, sowie dem Koppelfeld, das meist aus Wählern bestand, Relais fest zugeordnet. Zu den wichtigsten Vertretern dieser Art von Relais, die heute nur noch sehr vereinzelt anzutreffen sind, zählen das Flachrelais, das Rundrelais und das ESK-Relais. Drehspulrelais . Das Drehspulrelais ist ein mit einem Dauermagneten polarisiertes Spezialrelais für kleine Leistungen. Der Aufbau entspricht einem Drehspulmesswerk mit einer drehbar gelagerten Spule, außen liegenden Permanentmagneten und einer Rückzugfeder. Statt eines Zeigers vor einer Anzeigeskale werden bei dem Drehspulrelais Kontakte bei bestimmten Drehwinkeln der Drehspule ausgelöst. Prinzipbedingt durch den Dauermagneten können Drehspulrelais nur Gleichgrößen wie Gleichspannung erfassen, weshalb sie in Wechselspannungsanwendungen mit Brückengleichrichtern kombiniert werden. Anwendung fand das Drehspulrelais in verschiedenen Formen des elektrischen Netzschutzes in elektrischen Energienetzen wie dem Distanzschutzrelais. Bei Überschreiten bestimmter, vorab am Drehspulrelais eingestellter Grenzwerte wurden automatisch entsprechende Warn- und Abschaltkontakte ausgelöst, welche in Umspannwerken die zugeordneten Leistungsschalter auslösen. Weitere Relaistypen. Quecksilberschalter (Pfeil) in einem Stromstoßrelais Tauchankerrelais in der erforderlichen vertikalen Betriebslage Relais im weiteren Sinne. Diese Relais sind zusätzlich mit einer mehr oder weniger aufwändigen Mechanik oder Elektronik versehen. Schrittschaltrelais wurden zur Steuerung in historischen Telefonanlagen, Ampelschaltungen oder auch Waschautomaten benutzt. Zeitrelais gibt es in elektronischer oder elektromechanischer Ausführung, sie werden zur zeitlichen Ablaufsteuerung in Maschinen und Geräten eingesetzt. Eine Form des Zeitrelais ist das Impulsrelais. Es schaltet nach Erhalt eines Aktivierungsimpulses den Kontakt für eine definierte Zeitspanne, arbeitet also analog zu einer monostabilen Kippstufe. Ein typisches Beispiel ist ein Treppenhausschalter. Ein Wischerrelais (siehe auch Wischkontakt) ist ein Impuls- oder ein bistabiles Relais, das speziell auch auf sehr kurze („gewischte“) Impulse anspricht. Überwachungsrelais melden mithilfe eines Sensors die Über- oder Unterschreitung bestimmter voreingestellter Werte. So können beispielsweise Temperaturen, Flüssigkeitsstände, Spannungen, Asymmetrien in Drehstromnetzen mittels Asymmetrierelais oder beliebige andere physikalisch messbare Größen überwacht werden. Kennwerte. In der folgenden Tabelle sind die wichtigsten Kennwerte aufgelistet, über die ein Relais spezifiziert wird. Darüber hinaus ist natürlich noch eine Maßzeichnung, Anschlussbelegung usw. interessant. Die Beispiele betreffen ein typisches 12V-KFZ-Relais. Normierte Kennzeichnung der Anschlüsse. Haben Relais mehrere Betätigungs-Spulen, so werden die weiteren Spulen mit A3/A4 usw. bezeichnet. Die vordere Zahl der Kontaktbezeichnung wird bei einem Relais mit mehreren Kontakten numerisch erhöht. Die hintere Ziffer gibt die Art des Relais-Kontaktes an. So bezeichnet z. B. 53/54 den 5. Kontakt, der ein Schließer ist. Schalten von Relais mit Transistoren. Bei der Ansteuerung der Relaisspule mit einem Transistor ist zu beachten, dass durch Selbstinduktion beim Abschalten des Stromes durch die Spule des Relais eine hohe Spannung mit entgegengesetzter Polarität entsteht. Diese Spannung überschreitet die Nennspannung des Relais deutlich und kann durch Überschreiten der maximalen Sperrspannung des Transistors diesen zerstören. Um die Zerstörung des Schalttransistors (T1 in der Abbildung) zu verhindern, schließt man diese Gegenspannung durch eine Freilaufdiode (D1 in der Abbildung) kurz bzw. begrenzt sie auf die Vorwärtsspannung der Diode. Allerdings führt das dazu, dass das Magnetfeld in der Spule langsamer zusammenbricht und sich die Schaltzeit des Relais deutlich verlängert. Die Nachteile hinsichtlich der Schaltzeit der Variante A löst man durch Hinzufügen einer Zenerdiode (ZD 1 in der Abbildung, Variante B), deren Zenerspannung als Richtwert ungefähr der Nennspannung des Relais entsprechen sollte – das Magnetfeld in der Spule kann deutlich schneller zusammenbrechen. Dabei ist jedoch zu beachten, dass die Sperrspannung des Schalttransistors immer noch größer als Betriebsspannung plus Zenerspannung sein muss, um seine Zerstörung zu verhindern. Es gibt noch weitere Schutzschaltungen, zum Beispiel mit parallelem Schutzwiderstand oder mit auf die Induktivität der Spule abgestimmtem RC-Glied (snubber). Diese Maßnahmen arbeiten polaritätsunabhängig und sind auch für Relais mit Wechselspannungs-Betätigung geeignet. Einige Relaistypen haben bereits eine Freilaufdiode oder einen Schutzwiderstand eingebaut. Weiterhin gibt es spezielle, zum Schalten induktiver Lasten geeignete Schalttransistoren, die ihrerseits eine Begrenzerdiode eingebaut haben (z. B. der Darlington-Transistor 2SD1843). Telegraphie. Um das Jahr 1820 herum fokussierte sich die Forschung zur elektronischen Datenübertragung auf den Elektromagnetismus. Frühe Modelle wurden von André-Marie Ampère, Pierre-Simon Laplace und vielen anderen entworfen. Bekannt wurde z. B. Joseph Henry 1835, der die Nachrichtenübermittlung von seinem Labor zu seinem Haus selbst entwickelte, oder Charles Wheatstone, der 1837 zusammen mit William Fothergill Cooke die Eisenbahntelegraphie in England einführte. Samuel Morse verbesserte nach Korrespondenz mit J. Henry das Relais so, dass es auch auf schwächere Impulse reagierte und setzte es als Signalverstärker ein. Die Idee eines Telegraphen existierte zwar schon seit Mitte des 18. Jahrhunderts, aber das Relais war letztendlich der Schlüssel zum Erfolg. Es musste alle 30 km in den Signalweg der Telegraphenleitungen eingefügt werden, um die ankommenden schwachen Signale wieder zu regenerieren. Damit war die Grundlage geschaffen, Impulse über weite Strecken zu übertragen. Die erste Demonstration des Telegraphen fand 1844 zwischen Washington, D.C. und Baltimore statt. In Anlehnung an die Relaisstationen der Post, wo die Postreiter ihre Pferde gegen frische tauschen konnten, taufte man das neue Gerät "Relais". Fernsprechvermittlung. Einen wesentlichen Impuls zur weiteren Verbreitung des Relais war die Einführung der Teilnehmerselbstwahl in der Fernsprechvermittlungstechnik Ende des 19. Jahrhunderts. Die erste Selbstwähleinrichtung in Deutschland wurde am 10. Juli 1908 in Hildesheim für den Ortsverkehr mit 900 Teilnehmern in Betrieb genommen. Der nationale Fernsprechverkehr wurde ab 1923 nach und nach automatisiert und wäre ohne den massiven Einsatz der Relaistechnik nicht denkbar gewesen. Relais am Beginn der Computerentwicklung. Das Relais ermöglichte auch die Entwicklung des Computers, der erstmals 1941 von Konrad Zuse unter dem Namen „Z3“ mit 2.000 Relais für das Rechenwerk und den Speicher gebaut wurde. Relais wurden in der Computertechnik allerdings schon Mitte der 1940er Jahre weitgehend durch Elektronenröhren ersetzt. Später wurde die Funktion von Transistoren und Integrierten Schaltkreisen (IC) übernommen. Ritterorden. Die ersten geistlichen Ritterorden sind während der Kreuzzüge entstandene Ordensgemeinschaften, die ursprünglich zu Schutz, Geleit, Pflege der Pilger ins Heilige Land und Verteidigung der heiligen Stätten gegen den Islam gegründet wurden. Voraussetzungen für die Ordensmitglieder waren ursprünglich Armut, Keuschheit, Gehorsam und Waffendienst. Überblick. -- DOCMOaudiatur et altera pars 21:55, 26. Okt. 2015 (CET): ist nicht ausreichend durch Quellen belegt; insbesondere der erste Absatz. Bernhard von Clairvaux bezeichnete die Ordensritter als „Ritter neuen Typs“, da sie die Kampfkraft des, in Teilen, dekadenten Ritterstandes mit der Disziplin und der Enthaltsamkeit der Mönchsorden verbanden. Während die einzelnen Mitglieder der Armut verpflichtet blieben, wurden die Orden durch Erbschaften, Schenkungen und Eroberung mit zu den reichsten Organisationen ihrer Zeit. Der Templerorden war die älteste Institution, die seit ihrem Beginn als ritterlicher Orden bezeichnet werden kann. Der bereits 1048 gegründete und 1113 vom Papst bestätigte Johanniter-/Malteserorden ist zwar älter als der Templerorden; er wurde aber erst in einem langsamen Prozess in den 1130er Jahren aus einem reinen Hospitalorden zum Ritterorden, als seine Ritter zum Schutz der Pilger durch Burgenübernahme und Landesausbau zu Grundherren wurden, die dadurch militärische Aufgaben zu erfüllen hatten. Dafür rekrutierten sie oft dem Ritterstand angehörige Adelige, bis sie schließlich, durch die Eigenrekrutierung von waffenfähigen Brüdern, zu einer gleichermaßen karitativen und militärischen Gemeinschaft wurden. Die Orden unterschieden zwischen Ritterbrüdern, die mit einer Ahnenprobe ihre adelige Abstammung nachzuweisen hatten, Priesterbrüdern (Kleriker), Laienbrüdern, die auch Waffendienst leisteten und in einigen Fällen Donaten. Geistliche Orden im Sinne des Kirchenrechts wurden diese Gemeinschaften nur durch päpstliche Anerkennung einer eigenen verbindlichen Ordensregel und durch die Lösung aus der kirchlichen Diözesanorganisation, die Exemtion (Befreiung von der Zehntabgabe und der kirchlichen Strafgewalt). Einige Ritterorden wie z. B. die Templer existieren als kirchlich anerkannte Gemeinschaften nicht mehr. Daneben besteht eine Vielzahl von katholischen, evangelischen (Bruderschaften) und ökumenischen Ritterorden bis in die Gegenwart fort. Während manche Ritterorden wie der Johanniter- bzw. Malteserorden oder die Grabesritter noch heute internationale Bedeutung haben und sogar wie der Malteserorden völkerrechtlich anerkannt sind, haben andere nur historische, nationale oder regionale Bedeutung. Neben den geistlichen Ritterorden entstanden ab der Mitte des 14. Jahrhunderts auch nicht-kirchliche höfische Ritterorden, mittels derer sich die Monarchen eine zuverlässige Hausmacht verschaffen wollten. Als politisches Gegengewicht zu den mächtiger werdenden Landesfürsten bildeten sich außerdem ab dem Spätmittelalter, vor allem in Südwestdeutschland, diverse Adelsgesellschaften und Ritterbünde. Ritterorden als Gemeinschaften verleihen ihren Mitgliedern zwar Orden und Ehrenzeichen, ihr Hauptzweck ist aber eine ideelle, z. B. karitative Aufgabe. Die hier behandelten historischen Ritterorden grenzen sich auch deshalb scharf ab gegen nicht anerkannte zeitgenössische Orden mit ähnlich klingenden Bezeichnungen oder Ehrenzeichen. Rittergesellschaften. Ritterbünde sind keine Ritterorden im klassischen Sinne. Sie sind eher als politische oder wertorientierte Interessengemeinschaft zu sehen. Die meisten aktuellen Ritterbünde sind heute nach dem Vereinsrecht geregelt und werden als solche angesehen. Mittelalterliche Ritterbünde. Im späten Mittelalter entstanden, vor allem in Südwestdeutschland, diverse (reichsritterliche) Adelsgesellschaften. Als politische Interessenverbände versuchten sie – mit unterschiedlichem Erfolg, aber in Form der Reichsritterschaft bis zum Ende des Alten Reiches – ein Gegengewicht zur aufstrebenden Macht der Städte und Landesfürsten zu bilden. Moderne Ritterbünde. Mit der Romantik kam es zur Wiederbelebung des mittelalterlichen Ritterideals. 1790 gründete der österreichische Hofrat Anton David Steiger als "„Hainz am der Wilde“" die „Wildensteiner Ritterschaft auf blauer Erde“. Die Altritterliche Gesellschaft wurde 1823 auf Betreiben von Fürst Metternich aufgelöst. Vermutlich trafen sich die Mitglieder fortan im Geheimen. Beim Wiener Kongress wurde infolge der Mediatisierung von Fürstentümern u.a. auf Initiative von Joseph von Laßberg und Werner von Haxthausen der geheime Ritterbund Adelskette gegründet. Mitte des 19. Jahrhunderts entstanden vermehrt Ritterbünde in Bayern und Österreich; 1884 sollen 32 derartige Vereinigungen existiert haben. Nach der Auflösung der meisten Ritterorden in der Zeit des Nationalsozialismus kam es in den 1950er Jahren zu einer Wiederbelebung einiger Bünde sowie zu Neugründungen, vor allem in Deutschland (derzeit 20 Bünde) und Österreich (etwa 21 Bünde). Rechtswissenschaften. Als Rechtswissenschaften werden jene Wissenschaften bezeichnet, deren Erkenntnisgegenstand das Recht ("Jus", Plural: "Jura") ist. Oft wird auch die Bezeichnung "Rechtswissenschaft" (im Singular) verwendet, und zwar meist dann, wenn von der zentralen Rechtswissenschaft, der "Rechtsdogmatik", die Rede ist, die oft mit der Rechtswissenschaft schlechthin gleichgesetzt wird. Dabei wird jedoch nicht berücksichtigt, dass sich neben der Rechtsdogmatik auch andere Disziplinen dem Recht widmen, die gänzlich verschiedene Methoden und Forschungstraditionen aufweisen. Richterskala. Charles Richter, Miterfinder und Namenspatron der Richterskala Die Richterskala ist eine der gebräuchlichen Magnitudenskalen, die in der Seismologie zum Vergleich der Stärke (Energiefreisetzung) von Erdbeben bis zu einem Wert von 10 herangezogen werden. Sie basiert auf Amplitudenmessungen von Seismogrammaufzeichnungen, die in relativ geringer Distanz von wenigen hundert Kilometern zum Epizentrum gewonnen wurden. Sie ist daher auch unter dem Begriff Lokalbeben-Magnitude bekannt. Für die Bestimmung der Stärke von Erdbeben werden heutzutage Aufzeichnungen von Messgeräten genutzt, die auf der gesamten Erdoberfläche verteilt sind. Der daraus ermittelte Wert wird meist auf der Momenten-Magnituden-Skala als Momenten-Magnitude formula_1 angegeben. Fälschlich wird in der Presse dabei häufig von Werten der Richterskala gesprochen. Entstehung. Die Skala wurde von Charles Francis Richter und Beno Gutenberg am California Institute of Technology 1935 entwickelt und anfänglich als ML-Skala (Magnitude Local) bezeichnet. In seiner grundlegenden Veröffentlichung "An instrumental Earthquake Magnitude Scale" im "Bulletin of the Seismological Society of America" wandte Charles Francis Richter die erstmals von K. Wadati 1931 publizierte grundlegende Idee einer instrumentellen Erdbebenskala auf kalifornische Erdbeben an. Grundlagen. Aufgrund ihrer Definition ist die Richterskala nach oben unbegrenzt, die physischen Eigenschaften der Erdkruste machen aber ein Auftreten von Erdbeben der Stärke 9,5 oder höher nahezu unmöglich, da das Gestein nicht genug Energie speichern kann und sich vor Erreichen dieser Stärke entlädt. Die häufig in den Medien verwendete Bezeichnung „nach oben offen“ soll die instrumentelle Richterskala von den Intensitätsskalen abgrenzen, mit denen häufig Stärke und Zerstörungskraft eines Erdbebens charakterisiert werden. Die meisten Magnitudenskalen erreichen im oberen Wertebereich eine Sättigung: Wächst die beim Beben freigesetzte Energie weiter an, ändert sich die Magnitude dann nur noch wenig und die Skala verliert ihre Linearität. Auch die Richterskala unterliegt diesem Phänomen, sie ist für Angaben oberhalb der Magnitude 6,5 daher nicht geeignet. Darüber hinausgehende Werte beziehen sich in der Regel auf andere Magnitudenskalen. Ableitung. wobei "A"max den maximalen Ausschlag in Mikrometer (μm) angibt, mit der ein kurzperiodisches Standardseismometer (Wood-Anderson-Seismograf) ein Beben in einer Entfernung von 100 km zum Epizentrum aufzeichnen würde. Der Bezug formula_3 muss zwecks Korrektur gegebenenfalls auf die Verhältnisse für Beben in abweichenden Entfernungen angepasst werden. Dazu wird die Dämpfung der Amplitude berücksichtigt, die wiederum von der regionalen Geschwindigkeits- und Dämpfungsstruktur, vom Alter der Erdkruste und deren Zusammensetzung, von der Herdtiefe sowie von den Wärmeflussbedingungen abhängt. Streng genommen sind diese Kalibrierungsfunktionen nach Richter nur für Südkalifornien gültig und müssen für andere Regionen der Erde gesondert bestimmt werden. Wegen des dekadischen Logarithmus bedeutet der Anstieg der Magnitude um einen Punkt auf der Skala einen etwa zehnfach höheren Ausschlag (Amplitude) im Seismogramm und näherungsweise die 32-fache Energiefreisetzung (exponentielles Wachstum) im Erdbebenherd. Eine Magnitude von zwei oder weniger wird als Mikroerdbeben bezeichnet, da es von Menschen oft nicht wahrgenommen werden kann und nur von lokalen Seismografen erfasst wird. Beben mit einer Stärke von etwa 4,5 und höher sind stark genug, um von Seismografen auf der ganzen Welt erfasst zu werden. Allerdings muss die Stärke über 5 liegen, um als mäßiges Erdbeben angesehen zu werden. Einteilung der Skalenwerte. Den Magnitudenwerten lassen sich typische Effekte im Bereich des Epizentrums zuordnen. Es ist zu beachten, dass die Intensität und dadurch die Bodeneffekte nicht nur von der Magnitude abhängen, sondern auch von der Distanz zum Epizentrum, der Tiefe des Erdbebenherdes unter dem Epizentrum und den lokalen geologischen Bedingungen. Bezug zu anderen Skalen. Trotz des grundlegend anderen Ansatzes der Richterskala wird häufig versucht, diese mit den Intensitätsskalen, wie etwa der modifizierten und mehrfach weiterentwickelten Mercalliskala des Italieners Giuseppe Mercalli (1850–1914), in Bezug zu setzen. Auf einer weiteren Intensitätsskala, der so genannten MSK-Skala (Medwedew-Sponheuer-Karnik-Skala), wird die Stärke eines Bebens beispielsweise in zwölf Stärkegraden angegeben. Die Abstufung orientiert sich sowohl an subjektiven als auch an objektiven Kriterien. Seit geraumer Zeit wird in vielen Fällen auch die Momenten-Magnituden-Skala (Abkürzung MW) angegeben, deren Bestimmungsgrößen auf den physikalischen Parametern im Erdbebenherd beruhen. Der logarithmische Zusammenhang zwischen Energie und Magnitude lässt sich näherungsweise zusammenfassen mit wobei "M" die Magnitude und "W" die äquivalente (explosive) Energie in Tonnen TNT ist. Geschichte der Raumfahrt. Die Geschichte der Raumfahrt beginnt im frühen 20. Jahrhundert. Visionäre und Vordenker. Der Russe Konstantin Ziolkowski gilt als „Vater der modernen Raumfahrttheorie“. Er veröffentlichte 1903 in dem russischen Wissenschaftsmagazin "Wissenschaftliche Rundschau" unter dem Titel: "„Erforschung des Weltraums mittels Reaktionsapparaten“" erstmals die theoretischen Effekte eines Raketenantriebs als Raketengrundgleichung zur Grundlage der heutigen Raumfahrttechnik. Er erdachte unter anderem die Flüssigkeitsrakete sowie die Mehrstufenrakete und befasste sich darüber hinaus auch mit Fragen des Betriebs von Raumstationen, einer möglichen industriellen Nutzung des Weltraums und seiner Ressourcen. Der US-Amerikaner Robert Goddard (1882–1945) stellte um 1910 erste Überlegungen zum Bau von Raketenmotoren und über Raumflüge zum Mond und zum Mars an. Er wurde wegen seiner Visionen als Phantast abgetan. 1926 konnte er eine selbstentwickelte Flüssigkeitsrakete erstmals erfolgreich testen und erzielte auch einige Erfolge mit seinen Raketen. Gleichwohl geriet er in Bezug auf die Raumfahrt fast vollständig in Vergessenheit. Erst posthum – im Zuge der Raketenentwicklung nach dem Zweiten Weltkrieg – wurde ihm eine angemessene Anerkennung zuteil; seitdem gilt er als „Vater der Raketentechnik“. 1923 veröffentlichte der Siebenbürger Hermann Oberth (1894–1989) sein bekanntestes Werk "Die Rakete zu den Planetenräumen". Oberth legte mit diesem Buch die theoretischen und technischen Grundlagen für Raketen und Raumfahrt dar; das Buch wurde aber in den meisten Kreisen nicht ernst genommen und als utopische Literatur abgetan. Oberth experimentierte mit dem Bau von Raketen und erkannte, dass nur Flüssigtreibstoff genügend Leistung entwickelt, um große Höhen zu erreichen. Ab den 1940er Jahren publizierte er ein Werk zur Optimierung von mehrstufigen Raketen. 1955 stieß Oberth in Huntsville (Alabama)/USA zu seinem ehemaligen Schüler Wernher von Braun, der zum Leiter des amerikanischen Raketenprogramms aufgestiegen war (siehe auch Apollo-Programm). Oberths Schüler Max Valier griff diese Ideen in Innsbruck, Wien und München auf und wurde darüber wissenschaftlicher Autor. Mit Unterstützung Oberths veröffentlichte er 1924 das Buch "Der Vorstoss in den Weltenraum" (sechs Auflagen bis 1930) und beschrieb – auch für Laien verständlich – ein Entwicklungsprogramm zur Raketentechnik. Vom Prüfstand über Raketenfahrzeuge und Flugzeuge führte es bis zur Raumrakete. Seine Experimente folgten diesem Weg, auch mit Fritz von Opel (1899–1971), erfolgreich mit Raketenantrieben für Autos, Schienenfahrzeuge und Flugzeuge, mit diversen Antriebsarten und Brennstoffen. Valier starb 1930 bei Versuchen mit Flüssigtreibstoff, als eine Brennkammer auf dem Prüfstand explodierte; er gilt als erstes Opfer der Raumfahrt. In den späten 1920er-Jahren gab es in Deutschland durch den Verein für Raumschiffahrt und Fritz Langs Stummfilm "Frau im Mond" einen Boom des Raumfahrtgedankens. Dies führte zur Errichtung des Raketenflugplatzes Berlin in Berlin-Reinickendorf, der für die ersten praktischen Versuche mit Raketentechnik in Deutschland genutzt wurde. Zu den Raumfahrtpionieren zählt auch Eugen Sänger (1905–1964). 1923 regte ihn Oberths Buch zu speziellen Studien in Graz an (Flugzeugbau und Konstruktion, TU Graz). Wegen Widerständen einiger Professoren änderte er seine Dissertation „Raketenflugtechnik“ (1929) in Richtung Flugzeugbau. Treibstoff-Experimente führten zum Buch „Raketenflugtechnik“ (1933) – eines der Standardwerke der Raumfahrtliteratur. Zur Zeit des Nationalsozialismus 1936 wechselte Sänger an die Deutschen Versuchsanstalt für Luftfahrt (DVL) in Berlin-Adlershof (das Gelände gehörte später in der DDR zur Akademie der Wissenschaften; noch heute sind auf dem entsprechenden Areal des WISTA die denkmalgeschützten Versuchsaufbauten, wie ein Windkanal zu sehen) und erforschte den minimalen Energieaufwand für erdnahe Umlaufbahnen. Das Konzept war die Vorlage einer Studie des Sänger–Raumgleiters, der zwischen 1961 und 1974 entwickelt und als Sänger-II-Projekt für eine europäische Raumfähre aus wirtschaftlichen Gründen 1995 letztendlich eingestellt wurde. Die Weiterentwicklung vom Flugzeug zum Raumflugzeug sollte energetisch günstig und auch ein Ausweg aus dem Rüstungswettlauf sein. So gründete Sänger die Internationale Astronautische Föderation IAF, förderte die internationale Raumfahrt-Kooperation und wurde 1962 an den neuen Lehrstuhl „Elemente der Raumfahrttechnik“ der TU Berlin berufen, wo er 1964 während einer Vorlesung starb. Raketen und Raketenflugzeuge im Zweiten Weltkrieg. Wernher von Braun wurde ab 1929 ein Mitarbeiter Oberths und ab 1937 der technische Leiter des Entwicklungsprogramms für militärische Raketen in Kummersdorf sowie später in der Heeresversuchsanstalt Peenemünde. 1933 stellte von Braun in Kummersdorf die Rakete "Aggregat 1" (A1) fertig, die aufgrund einer Fehlkonstruktion nicht flugfähig war. Das Nachfolgemodell, die A2, startete erfolgreich und erreichte bereits einige Kilometer Höhe. Die A3 (1936 entwickelt) war bereits so groß, dass zu ihrem Test ein Umzug nach Peenemünde in diese HVA zwingend erforderlich wurde, der Test schlug jedoch fehl. 1942 schließlich war die erste A4 fertiggestellt. Nach einem fehlgeschlagenen Startversuch hob die A4 – auch als „V2“ für "Vergeltungswaffe 2" bekannt – schließlich im März 1942 vom Boden ab. Über die nächsten Monate wurde die Flugleistung der A4 kontinuierlich gesteigert, bis sie schließlich im Oktober 1942 eine Höhe von 90 km erreichte. Sie war damit als Waffe einsatzbereit und wurde als Kriegsgerät zuerst gegen London eingesetzt. Auch eine Höhe von 184 km wurde erreicht und damit das erste von Menschenhand geschaffene Objekt über die Definitionsgrenze des Weltraums in 100 km Höhe befördert. Im Verlauf des Zweiten Weltkriegs entstanden mehrere Raketenflugzeuge, deren militärischer Erfolg jedoch eher gering war. So wurde in der Sowjetunion bereits 1942 die Bolchowitinow BI-1 zur Serienreife geführt und 1943 in Deutschland die Messerschmitt Me 163, deren Entwickler auf den Erfahrungen mit der Lippisch-Ente aufbauen konnten. Die noch 1945 getestete Bachem Ba 349 startete ähnlich den heutigen Großraketen in senkrechter Richtung, war aber trotzdem ein Flugzeug, weil der notwendige Auftrieb in der Flugphase durch Tragflächen erzeugt wurde. Während die Sowjetunion ihr eigenes beginnendes Programm um etwa 3500 deutsche Facharbeiter und Ingenieure erweiterten, wurden von den USA mit Wernher von Braun und dem Großteil seiner engsten Mitarbeiter lediglich die Spitze der HVA Peenemünde in die Vereinigten Staaten gebracht. Während eines Zeitraums von sechs Wochen nach dem Kriegsende transportierten die Amerikaner jedoch fast den kompletten Raketenbestand aus dem KZ Mittelbau-Dora ab, das in der durch die Konferenz von Jalta der Sowjetunion zugesprochenen Besatzungszone lag. Sputnik und der Beginn der bemannten Raumfahrt. Sergei Pawlowitsch Koroljow begann in den 1930er-Jahren in der Sowjetunion mit dem Bau von Raketen. Im Zuge des Großen Terrors wurde auch er verhaftet, erst nach seiner Freilassung 1944 konnte er wieder an Raketenentwicklungen mitarbeiten. Er wurde später der Chefkonstrukteur des sowjetischen Raketenprogramms. Koroljows Name wurde lange vor der Öffentlichkeit geheim gehalten – offizielle Verlautbarungen sprachen nur von „dem Chefkonstrukteur“. Sein erster großer Erfolg war Sputnik 1, der erste künstliche Erdsatellit. Er wurde am 4. Oktober 1957 in die Erdumlaufbahn geschossen und sendete fortwährend Funksignale. Dieses Ereignis fand weltweite Beachtung und versetzte dem Westen den so genannten Sputnik-Schock. Das Gewicht des Sputnik-Satelliten – über 80 Kilogramm – ließ keinen Zweifel am militärischen Potential der Trägerrakete: Die UdSSR besaß nun Interkontinentalraketen. In den USA wurde die Raumfahrt zunehmend zum Politikum und Wahlkampfthema. Präsidentschaftskandidat John F. Kennedy kommentierte den Sputnik-Start mit den Worten: „Falls die Sowjets den Weltraum kontrollieren, dann können sie die Erde kontrollieren, so wie in den vergangenen Jahrhunderten diejenige Nation die Kontinente beherrschte, die auch die Weltmeere kontrollierte.“ Die sowjetische Raumfahrt schritt weiter zügig voran, und Sputnik 2 brachte noch im selben Jahr mit der Hündin Laika das erste Lebewesen in eine Erdumlaufbahn. Mit Sputnik 5 wurden 1960 sogar zwei Hunde in den Orbit befördert "und" auch sicher auf die Erdoberfläche zurückgebracht. Ein nächster großer Schritt erfolgte am 12. April 1961, als Juri Gagarin mit der Wostok 1 als erster Mensch die Erde umkreiste. Der erste US-Amerikaner im Weltall, Alan Shepard, führte einige Wochen später am 5. Mai 1961 im Rahmen des Mercury-Programms lediglich einen 15-minütigen suborbitalen Flug durch; er erreichte also nicht die Umlaufbahn um die Erde. Die erste Frau im Weltraum war die Kosmonautin Walentina Tereschkowa, die am 16. Juni 1963 an Bord von Wostok 6 zu ihrem dreitägigen Flug startete. Der erste Weltraumausstieg, also das Verlassen eines Raumschiffs, nur geschützt durch einen Raumanzug, gelang schließlich Alexei Archipowitsch Leonow am 2. März 1965. Leonow kam nur knapp mit dem Leben davon. Der UdSSR gelang 1959 mit Lunik 3 die erste Mondumrundung, die das erste Foto der – von der Erde aus nicht sichtbaren – Mondrückseite lieferte, sowie im selben Jahr die erste harte Mondlandung mit Lunik 2, bei der der Satellit zerstört wurde. 1966 gelang die erste weiche Mondlandung, also das unversehrte Aufsetzen des Flugkörpers auf der Mondoberfläche, mit Luna 9. Mit Luna 16 und Luna 20 gelang es auch, Mondgestein zurück zur Erde zu bringen, und 1970 erfolgte die Fahrt des ersten unbemannten Roboterfahrzeugs auf dem Mond (Lunochod 1). Im selben Jahr glückte auch mit Venera 7 die erste weiche Landung auf der Venus. Die Aufholjagd der USA und die Reise zum Mond. Am 25. Mai 1961 hielt US-Präsident John F. Kennedy seine berühmte Rede, in der er versprach, "„noch vor Ende dieses Jahrzehnts einen Menschen auf dem Mond zu landen und sicher zur Erde zurückzubringen“." 1962 gelang es den USA schließlich, mit John Glenn den ersten US-Amerikaner sicher in den Orbit und zurück zu bringen. Das Mercury-Programm erhielt nun einen Nachfolger, das Gemini-Programm. Im Rahmen dieses Programms wurden verschiedene Techniken erprobt, die alle für die spätere Mondlandung notwendig sein würden. Ein wichtiger Schritt waren die Missionen Gemini 6 und 7, die kurz aufeinanderfolgend gestartet wurden, um die Annäherung zweier Raumfahrzeuge zu erproben – ein Ankopplungsmanöver fand allerdings nicht statt, dies wurde erstmals mit Gemini 8 erfolgreich durchgeführt. Als Trägersystem für die Apollo-Missionen wurde die Saturn-Rakete entwickelt, die am 9. November 1967 ihren Jungfernflug hatte. Mit der Apollo-7-Mission wurde das vollständige System erstmals in der Erdumlaufbahn im bemannten Einsatz getestet, und schon mit der Apollo-8-Mission 1968 wurde erstmals der Mond umrundet. "That’s one small step for [a] man, one giant leap for mankind." () (Ein kleiner Schritt für einen Menschen, aber ein gewaltiger Sprung für die Menschheit). Am 7. Dezember 1972 fand mit Apollo 17 die bisher letzte bemannte Reise zum Erdtrabanten statt. Weitere wichtige Schritte. Nach dem Ende des Apollo-Programms verließ kein Mensch mehr die unmittelbare Nähe der Erde. Schwerpunkte der bemannten Raumfahrt waren die Entwicklung von wiederverwendbaren Transportsystemen (Space Shuttle, Buran) und Raumstationen in einer Erdumlaufbahn. Die ersten Raumstationen wurden Anfang der 1970er-Jahre gestartet (1971 Saljut 1 und 1973 Skylab). Im Februar 1986 startete die Sowjetunion das Basismodul der Raumstation Mir (‚Frieden‘ oder ‚Welt‘), die später weiter ausgebaut wurde und mit einer Betriebsdauer von 15 Jahren die bislang am längsten betriebene Raumstation war. Seit dem November 2000 ist die Internationale Raumstation (ISS) permanent bemannt, der weitere Ausbau der Station wurde aber nach dem Columbia-Unglück vorläufig eingestellt und die Besatzung bis zum Jahr 2006 auf zwei Personen reduziert. Im April 1981 erfolgte mit dem US-amerikanischen Space Shuttle Columbia der erste Start einer Raumfähre. Zwei tragische Unfälle trübten die ansonsten gute Erfolgsbilanz der Shuttles: Die Zerstörung der Challenger am 28. Januar 1986 kurz nach dem Start und der Columbia am 1. Februar 2003 beim Wiedereintritt. Nach einer Unterbrechung von zweieinhalb Jahren wurde mit dem Start der Raumfähre Discovery am 26. Juli 2005 das Shuttle-Programm wieder aufgenommen. 2011 wurde das Shuttle Programm mit dem Flug der Atlantis jedoch endgültig beendet. Am 15. Oktober 2003 gelang es der Volksrepublik China mit dem Raumschiff Shenzhou 5 als dritter Nation nach der Sowjetunion und den USA, mit einem eigenen Raumfahrtsystem Menschen ins All zu bringen. Am 12. November 2014 gelingt mit der von Rosetta abgesetzten Sonde Philae erstmals die weiche Landung auf einem Kometen. Robert Goddard. Goddard an der Tafel der Clark University 1924 Ein Film über das Leben und die Raketen Robert Goddards (englisch) Das Team von Robert Goddard nach einem Rakententest in New Mexico 1932 Robert Hutchings Goddard (* 5. Oktober 1882 in Worcester, Massachusetts, USA; † 10. August 1945 in Baltimore, Maryland) war ein amerikanischer Wissenschaftler und Raketenpionier. Seine volle Bedeutung für die Technik und Raumfahrt wurde aber erst posthum anerkannt. Robert war das einzige überlebende Kind von Fannie Louise Hoyt und Nahum Danford Goddard. Bereits als Kind interessierte er sich für das Weltall, nachdem er den utopischen Roman von H. G. Wells "The War of the Worlds" (Krieg der Welten) gelesen hatte. Als Kind litt er unter Tuberkulose und hatte viel zum Lesen, weil er manchmal nicht zur Schule gehen konnte. Er besuchte das Worcester Polytechnic Institute, das er 1908 mit dem Bachelor of Science (B.S.) abschloss. Danach studierte Goddard Physik an der Clark University in Worcester (Massachusetts), erhielt 1910 dort den Master und promovierte im Jahr darauf. 1912 ging er in das "Palmer Physical Laboratory" der Princeton University. Später unterrichtete er als Teilzeit-Lehrer in Physik an der Clark University und 1923 wurde er dort Leiter des Physiklabors. 1920 publizierte das Smithsonian Institut seine zukunftsträchtige Abhandlung „Methods for Reaching Extreme Altitudes“ (Methoden um extreme Höhen zu erreichen), in der er behauptete, dass Raketen genutzt werden könnten, um Nutzlasten auf den Mond zu schicken. Die Presse fand es absurd, dass Raketen jemals den Mond erreichen können, machten sich über seine Veröffentlichung lustig und titulierten ihn „Moon Man“ (Mondmann). Um weiterer Beobachtung zu entgehen, zog Goddard schließlich nach New Mexico, wo er seine Forschung im stillen Kämmerlein durchführen konnte. Zu seinen Lebzeiten zog seine Arbeit kaum ernsthafte Aufmerksamkeit auf sich. Bis 1914 hatte Goddard bereits zwei US Patente (#1,103,503 und #1,102,653) erhalten: eins für eine Rakete mit flüssigem Brennstoff und das andere für eine zwei- oder dreistufige Rakete mit festem Brennstoff. Bis dahin wurde der Antrieb mit verschiedenen Sorten Schießpulver erzeugt. 1924 heiratete er Esther Christine Kisk. Ähnlich wie Hermann Oberth machte sich auch Robert Goddard frühzeitig Gedanken über Raumflüge zum Mond und zum Mars. Wegen seiner kühnen Raumflugvisionen wurde er jedoch als Phantast abgetan und geriet in Bezug auf die Raumfahrt fast völlig in Vergessenheit. Erfolgreicher war Goddard im Bereich der Raketenentwicklung. Er entwickelte bereits um 1918 militärische Feststoffraketen und auch den Prototyp der Bazooka, einer Panzerabwehrrakete. Die Bazooka wurde erst nach dem Ende des Ersten Weltkriegs fertiggestellt und kam so erst im Zweiten Weltkrieg zum Einsatz. Er entwickelte nicht nur die mathematischen Grundlagen des Raketenantriebs und eine praktikable Technik von Raketentests (Triebwerks-Prüfstand etc.), sondern bewies auch, dass Raketenantriebe im Vakuum Schub produzieren können, was die Raumfahrt erst möglich macht. Ab 1916 beschäftigte sich Goddard mit der Entwicklung von Flüssigkeitsraketen. Die Smithsonian Institution (siehe auch SAO) unterstützte ihn dabei finanziell. Der erste Brennversuch eines Raketenmodells fand am 6. Dezember 1925, ein erster erfolgreicher Raketenstart am 16. März 1926 statt. Obwohl diese Rakete nur 2,5 Sekunden in der Luft war, lediglich 50 m weit und nur knapp 14 m hoch flog, bewies diese, dass Goddards Raketenträume Wirklichkeit werden können. Am 17. Juli 1929 startete Goddard die erste flüssigkeitsgetriebene Rakete mit einer wissenschaftlichen Nutzlast. An Bord waren ein Barometer, ein Thermometer und eine Kamera. Die Rakete erreichte eine Höhe von 27 Metern. Aufgrund des großen Lärms beim Start bekam er damals einige Probleme mit den Behörden und es wurde ihm ein Startverbot für seine Raketen in Massachusetts erteilt. Durch die darauf folgenden Zeitungsberichte wurde Charles Lindbergh auf Goddard aufmerksam und gewann Daniel Guggenheim dafür, seine Raketenversuche zu unterstützen. Robert H. Goddard auf einer US-amerikanischen Briefmarke (1964) Ab Oktober 1930 arbeitete Goddard in Roswell und erreichte dort mit seinem fünften Raketenstart neue Bestwerte. Die Rakete erreichte eine Höhe von 610 Metern und flog mit etwa 800 km/h. Dabei und bei den folgenden Starts wurde Goddard das Problem der Flugstabilisierung bewusst. Nach knapp drei Jahren Pause startete er am 8. März 1935 eine Rakete, die als erste mit einer Geschwindigkeit von 1125 km/h die Schallmauer durchbrach. Am 28. März 1935 schaffte er mit einem weiteren Start einer kreiselstabilisierten Rakete den Durchbruch. Die Rakete erreichte eine Höhe von 1460 Metern und flog fast 4000 Meter weit. Goddard starb 1945 im Alter von 62 Jahren an Kehlkopfkrebs. Erst im Zuge der weiteren Raketenentwicklung nach dem Zweiten Weltkrieg wurde ihm die verdiente Anerkennung zuteil – unter anderem durch die Namensgebung des Goddard Space Flight Center. Der Mondkrater Goddard ist nach ihm benannt, ebenso eine am 26. März 2007 veröffentlichte Version der Software Autodesk Inventor. Republik. Das Wort Republik (von ‚öffentliche Sache‘) steht zunächst für das Gemeinwesen und Gemeinwohl. Als Staatsform versteht man darunter (seit der römischen Antike und insbesondere der Französischen Revolution) in erster Linie das Gegenmodell zur Monarchie. Nach modernem, westlichem Verständnis ist die Republik eine Herrschaftsform, „"bei der das Staatsvolk höchste Gewalt des Staates und oberste Quelle der Legitimität ist"“ (vgl. auch das Prinzip der Volkssouveränität). In den frühromantischen Schriften Friedrich Schlegels hingegen, also etwa zur Zeit der Französischen Revolution, wird der Republikanismus, das heißt die Orientierung der Politik am Gemeinwohl, durchaus als mit einer Monarchie vereinbar betrachtet. Heute wird Republik allgemein als Nicht-Monarchie und Nicht-Despotie gesehen, obwohl viele nominelle Republiken aus westlicher Sicht als Diktaturen qualifiziert und despotisch regiert werden. Im engeren Sinne kennzeichnet sie einen Staat mit gewähltem, also gemeinschaftlich bestimmtem, nicht notwendigerweise demokratischem Staatsoberhaupt – in der Regel bezeichnet als Staatspräsident –, nach dessen Amtszeit­ablauf mit denselben Mitteln ein Nachfolger zu bestimmen ist (personelle Diskontinuität). Hierbei steht es dem scheidenden Amtsinhaber nicht zu, einen Nachfolger zu benennen. Dies definiert die Republik vor allem formell und personell. In einem weiteren Sinne erfordert die Republik, dass es keine Staatsgewalt aus eigenem Recht gibt, also auch nicht aus einem rein institutionellen Grund oder neben beziehungsweise über der gemeinschaftlich verfassten Staatsgewalt (enumeratives Merkmal). Trotz einer gewissen Nähe zu Demokratie und Rechtsstaatlichkeit zeigt der Blick auf kollektiv ausgestaltete Regierungssysteme und monokratische Präsidentschaften, dass die Republik ein eigenständiges Staatsstrukturmerkmal ist. Die weltweit kleinste Republik ist Nauru, die flächenmäßig größte ist Russland, die älteste bestehende Republik ist San Marino. Antike. Dabei muss beachtet werden, dass sich das damalige Verständnis dieser Herrschaftsformen vom heutigen, demokratischen unterschied. Die Republik als politisches Konzept zur Lenkung des Gemeinwesens und als Bezeichnung desselben taucht "erstmals" mit der antiken Römischen Republik auf. Ihre Entstehung hat die Republik im Wesentlichen dem auch heutzutage noch zu beobachtenden Phänomen zu verdanken, dass große oder gar uneingeschränkte Macht in den Händen eines Einzelnen nicht selten zum Zweck persönlicher Bereicherung eingesetzt wird, einhergehend mit Unterdrückung und Ausbeutung der Beherrschten. Eine solche Situation führte ca. 500 v. Chr. zum Aufstand der Bevölkerung Roms gegen die Königsherrschaft und zur Vertreibung des letzten römischen Königs Lucius Tarquinius Superbus. Es wurde beschlossen, fortan niemals wieder einen König (lat. "rex") zu dulden. An seiner statt wurden Konsuln (v. lat. "consules" „Befrager des Volks od. Senates“) zur Führung des Gemeinwesens bestimmt, deren Macht mehrfach begrenzt war: Zum einen wurden sie vom römischen Volk lediglich für ein Jahr gewählt (Prinzip der Annuität). Zum anderen wurden für jede Amtsperiode zwei Konsuln bestimmt (Prinzip der Kollegialität), wenngleich jeder mit voller Gewalt ausgestattet war. Zunehmend wurden die Konsuln ermächtigt, für gewisse Aufgaben Gehilfen einzusetzen. Parallel zur Römischen Republik entwickelte sich die Attische Demokratie in Griechenland, die von 461 bis 322 v. Chr. bestand. Neuzeit. a>s Gemälde von 1848 mit der personifizierten Republik, die nährt und lehrt. Niccolò Machiavelli unterschied die Staaten der Welt ausschließlich in Republiken und Fürstentümer. Zu Zeiten der Amerikanischen und der Französischen Revolution wurde die Republik als Gegenmodell zur unmittelbaren Demokratie verstanden. Ihr sollten die Prinzipien der Repräsentation sowie die Trennung von gesetzgebender und ausführender Gewalt anhaften. In der Lehre Rousseaus sollte das kein Widerspruch zur Monarchie sein: So verweist er in einer nicht in jede Übersetzung übernommenen Fußnote seines "Gesellschaftsvertrages" explizit darauf, dass auch eine Monarchie republikanisch sein kann. Für Rousseau ist das entscheidende Kriterium einer "republikanischen" Regierung ihre Gesetzmäßigkeit und Legitimität. Jedwede Form der Willkür und Despotie erachtet er als nicht republikanisch. Mit der Etablierung des Begriffs der repräsentativen Demokratie lösten sich die demokratischen Elemente vom Republikbegriff. Dieser beschränkt sich heute auf die "Abschaffung der Monarchie" und die "Ausrichtung des Gemeinwesens nach dem Gemeinwohl". Formen der Republik. Die innere Ausgestaltung einer Republik variiert von Staat zu Staat. Häufig kommen Republiken mit demokratischer Regierung vor, so zum Beispiel die Bundesrepublik Deutschland. Das muss aber nicht so sein. Das Merkmal "republikanisch" sagt nur aus, dass kein Monarch den Staat regiert. Sämtliche anderen Herrschaftsformen und Regierungssysteme sind denkbar. Die Mitbestimmung des Volkes bei der staatlichen Willensbildung ist nicht zwingend notwendig. Im Gegensatz dazu können auch Monarchien sehr demokratisch sein. So zum Beispiel ist das Vereinigte Königreich eine konstitutionelle Monarchie, die demokratisch-parlamentarisch regiert wird. Trotz Demokratie handelt es sich "nicht" um eine Republik. Mit der Bezeichnung der Staatsform wird keine Aussage zur Qualität der vorherrschenden demokratischen Mitbestimmung getroffen. Demokratische Republik. Sowohl das Staatsoberhaupt als auch die Volksvertreter werden in einer demokratischen Republik auf Zeit vom Wahlvolk direkt oder indirekt gewählt. Die meisten demokratischen Republiken haben ein repräsentatives demokratisches Regierungssystem. Präsidialrepublik. Bei einer Präsidialrepublik hat ein durch eine (quasi-)direkte Volkswahl gewählter Staatspräsident als Staatsoberhaupt "und" Regierungschef die Regierungsgewalt inne. Es herrscht ein System der strikten Gewaltenteilung vor. Dieses System gibt es z. B. in den USA und in fast allen lateinamerikanischen Staaten. Semipräsidialrepublik. Für das semipräsidentielle Regierungssystem existiert eine zweiköpfige Exekutive, aus Präsident und Regierungschef (Premierminister, Kanzler oder Ministerpräsident), wie sie für ein parlamentarisches Regierungssystem (siehe unten) typisch ist. Allerdings haben in Gegensatz zu diesem Regierungssystem beide signifikante Macht. Dieses System gibt es z. B. in Frankreich oder der Ukraine. Parlamentarische Republik. In einem parlamentarischen Regierungssystem existiert eine starke Gewaltenverschränkung. So wählt das Parlament einen vom Vertrauen der Parlamentsmehrheit abhängigen Regierungschef. Der wird trotzdem durch einen entweder auch durch das Parlament oder direkt durch das Volk gewählten schwachen Präsidenten kontrolliert. Dieses System gibt es in vielen europäischen Staaten, u. a. in Deutschland. System der Parlamentsgebundenen Exekutivgewalt. In einem System der Parlamentsgebundenen Exekutivgewalt gibt es eine noch stärkere Gewaltenverschränkung, da hier das Parlament den vom Vertrauen der Parlamentsmehrheit abhängigen Regierungschef wählt, der aber gleichzeitig auch Staatsoberhaupt ist. Ein derartiges System findet sich beispielsweise in Südafrika. Republik im deutschen Verfassungsrecht. Schon die Weimarer Reichsverfassung (WRV) schrieb das republikanische Prinzip als Staatsform verbindlich fest, sowohl für den Gesamtstaat (Art. 1 Abs. 1 WRV:) wie für die einzelnen Länder (Art. 17 Abs. 1 WRV:) – es symbolisierte die Abkehr vom Kaiserreich, stellt aber auch eine Absage an den Typus der Räterepublik dar. Der republikanische Gedanke wurde ins Grundgesetz für die Bundesrepublik Deutschland übernommen. Das republikanische Prinzip taucht explizit allerdings nur in Abs. 1 auf: „Die Bundesrepublik Deutschland ist ein demokratischer und sozialer Bundesstaat.“ Dabei hat der Wortbestandteil „Republik“ in Artikel 20 Absatz 1 einen normativen Charakter. In Verbindung mit der Ewigkeitsgarantie aus Abs. 3 des Grundgesetzes ist die Monarchie auf Dauer offiziell ausgeschlossen, aber nicht uneinführbar. Ähnlich die Lage in den Bundesländern durch Abs. 1 Satz 1 GG. Volksrepublik. Eine "Volksrepublik" ist ein Staat mit einer (nach dem Verständnis der entsprechenden Regierungen) sozialistischen oder kommunistischen Regierungsform. Die Mitglieder der Regierung werden in der Regel nach bürokratischem Schema ausgewählt. Ein meist unverzichtbares Kriterium ist die Angehörigkeit zur Gesellschaftsschicht der "Werktätigen" beziehungsweise Proletarier. Das heißt, Mitgliedern eines Adelsstandes, des Klerus oder eines wohlhabenden Bürgertums, die sogenannte Bourgeoisie, ist normalerweise der Zugang zu politischen Ämtern verwehrt. Kommunistische Ein-Parteien-Staaten mit dieser Regierungsform bezeichnen ihr Herrschaftsmodell selbst häufig als "Diktatur des Proletariats". Beispiele sind: die Volksrepublik Nordkorea und die Volksrepublik China. Räterepublik. Eine "Räterepublik" bezeichnet allgemein ein Herrschaftssystem, bei dem die Herrschaft vom Volk über direkt gewählte "Räte" ausgeübt wird. Beispiele für diese Herrschaftsform waren die Münchner Räterepublik oder die Union der Sozialistischen Sowjetrepubliken (Sowjet russisch für Rat). Sozialistische Republik. Einige kommunistisch regierte Länder bezeichnen bzw. bezeichneten sich auch als „sozialistische Republik“, dazu zählten die Union der Sozialistischen Sowjetrepubliken, die Sozialistische Föderative Republik Jugoslawien und die Sozialistische Föderative Republik Birma sowie heute noch die Sozialistische Republik Vietnam, die Sozialistische Republik Laos, die Demokratische Sozialistische Republik Sri Lanka und die Sozialistische Republik Kuba. Aristokratische Republik. In einer aristokratischen Republik, einer durch den Adel (Adelsrepublik), das wohlhabende Bürgertum (Patrizier) oder bestimmte Stände (Ständeordnung) getragenen Regierungsform, wählt eine privilegierte Minderheit die Regierung. Fast alle heute in Europa anzutreffenden demokratischen Regierungsformen basieren auf landesspezifischen aristokratischen Vorläufermodellen, bei denen Adel, wohlhabendes Bürgertum oder Kirchenvertreter ein Mitbestimmungsrecht bei der Steuererhebung, Fragen der Gewaltenteilung oder Herrscherwahl hatten. Der Übergang von aristokratischen zu demokratischen Regierungsformen vollzog sich meist in der Form, dass zunächst allen Bürgern ein Wahlrecht zugestanden wurde, später dann Unterschiede in der Stimmgewichtung (Zensuswahlrecht), oder Ausschlüsse von Bürgerrechten für einzelne Bevölkerungsgruppen (Sklaven, Frauen, Angehörige ethnischer, sprachlicher oder religiöser Minoritäten) aufgehoben wurden. Beispiele der Vergangenheit sind die Attische Demokratie, die Römische Republik, die Republik Venedig, die Adelsrepublik Polen-Litauen, die Schweiz in unterschiedlicher kantonaler Ausprägung seit Beginn ihrer staatlichen Konstituierung bis zum Beginn der Helvetischen Republik sowie die Republik der Sieben Vereinigten Niederlande. Konstitutionelle Republik. Die Staatsform der konstitutionellen Republik soll Gefahren der reinen Mehrheitsherrschaft in einer Demokratie vorbeugen, indem Minoritätsrechte vor der „Tyrannei der Mehrheit“ durch machtbeschränkende Maßnahmen für Regierungsorgane schützen sollen. Eine konstitutionelle Republik ist so konzipiert, dass „keine Person oder Gruppe zu absoluter Macht gelangen kann.“ Staatsoberhaupt und bedeutende Beamte sind gewählte Vertreter des Volkes und handeln entsprechend existierendem konstitutionellen Recht (Verfassung), welches die Beschränkung der Macht der Regierung über die Bürger garantiert. In einer konstitutionellen Republik sind die exekutiven, legislativen und judikativen Organe strikt voneinander getrennt, sodass kein Individuum und keine Gruppe absolute Macht erlangen kann. Diktatorische Republik. Die Regierungsform einer Republik wird Diktatur genannt, wenn das Staatsoberhaupt faktisch auf Lebenszeit regiert und die Regierung auf einer Zwangsherrschaft beruht. Häufig werden auch Volksrepubliken zu den diktatorisch regierten Republiken gezählt. Die Abgrenzung der Diktatur zur demokratischen Republik ist oft mit noch größeren Schwierigkeiten verbunden, da nahezu alle Diktatoren vorgeben, im Namen des Volkes zu handeln oder von ihm dazu legitimiert worden zu sein. Es ist – außer in einigen Volksrepubliken – bisher keine Staatsverfassung bekannt, die sich selbst offen als diktatorisch bezeichnet. Die Frage danach, ob ein Staat diktatorisch regiert wird, lässt sich daher nur aus den tatsächlichen Umständen herleiten. Da sich diese Umstände meist nur subjektiv beurteilen lassen, gehen die Meinungen über das Vorliegen einer Diktatur teilweise stark auseinander. Bundesrepublik. Eine Bundesrepublik (Bundesstaat) ist eine föderale Republik, ein Zusammenschluss ("Verbund") mehrerer teilsouveräner Gliedstaaten. Das heißt aber nicht, dass es einem der Gliedstaaten ohne Weiteres erlaubt wäre, aus einer Bundesrepublik auszutreten, was eine Bundesrepublik beziehungsweise einen föderativen Gesamtstaat von einem Staatenbund (auch "Konföderation" genannt) unterscheidet. Islamische Republik. Staaten mit hohem islamischen Bevölkerungsanteil nennen die Staatsform ihres politischen Systems oft Islamische Republik, wodurch eine Rücksichtnahme auf islamische, traditionelle, religiöse Wertvorstellungen ausgedrückt werden soll. Eine islamische Republik wird nach islamischen Prinzipien regiert etwa gemäß der Scharia. Abgrenzung Republik / Demokratie. Die Begriffe "Republik" und "Demokratie" werden häufig gleichbedeutend verwendet, streng genommen beziehen sie sich jedoch auf unterschiedliche Sachverhalte. Republik bezeichnet als Gegensatz zur Monarchie eine Staatsform, in der das Staatsoberhaupt nicht dynastisch, sondern über das Staatsvolk legitimiert ist; dagegen bezeichnet eine Demokratie als Gegensatz zur Diktatur ein System, in dem auch die tatsächliche Staatsgewalt vom Volk ausgeht und politische Entscheidungen nach dem Mehrheits­prinzip getroffen werden. Über diese Unterscheidung hinaus wird häufig noch ein erweiterter Demokratiebegriff gebraucht, in dem auch Aspekte wie individuelle Grundrechte, die freie Marktwirtschaft oder eine offene Gesellschaft einbezogen werden. Hierfür wird häufig der Begriff "westliche" oder "liberale Demokratie" (ursprünglich in Abgrenzung zu den sozialistischen „Volksdemokratien“) verwendet. Zugleich spricht man in diesem Zusammenhang aufgrund der bürgerlich-antiaristokratischen Tradition dieser Werte auch von "republikanischen Prinzipien", obwohl auch die genannten parlamentarischen Monarchien sich an ihnen orientieren. Die Republikanische Partei ist eine der beiden großen Parteien in den USA (Poster von 1900). Eine andere Unterscheidung zwischen den Begriffen "Demokratie" und "Republik" fand sich in der Frühphase der USA. Die damaligen "Demokraten" wollten in möglichst kleinen Wahlkreisen ihre Geschicke weitgehend selbst bestimmen. Sie hielten die direkte Demokratie der griechischen "polis" für ideal. Daher strebten sie an, möglichst alle Macht bei den Staaten zu lassen und den Bund damit eher schwach und lose zu halten. Die "Föderalisten", die als Vorläufer der Republikanischen Partei angesehen werden, befürworteten hingegen einen starken Bundesstaat. Ihr Hauptargument gegen die direkte Demokratie war die Gefahr der Bildung von Kleingruppen, die ihre eigenen kurzfristigen Interessen über die des langfristigen Gemeinwohls stellten. Die Gefahr, dass solch eine Gruppe sich durchsetzte, war nach Ansicht der Föderalisten bei einer nur kleinen Wählerschaft erheblich größer (vgl. Federalist Paper No. 10). Im Bürgerkrieg verteidigten die Republikaner unter Abraham Lincoln daher die Union gegen die Konföderierten der Südstaaten, wo vor allem Demokraten an der Macht waren. Freistaat. In Deutschland wurde ab dem 17. und 18. Jahrhundert – als die Übersetzung des lateinischen Wortes für Republik („"libera res publica"“) – verschiedentlich auch der Begriff "Freystaat" verwendet. So erklärte sich die Freie und Hansestadt Lübeck in ihrer Verfassung von 1848 zum "Freistaat". Die Weimarer Reichsverfassung (1919) verwendet den Begriff als Synonym für Republik, wenn sie in Art. 17 bestimmt: „Jedes Land muss eine freistaatliche Verfassung haben.“ Dementsprechend wurde in der Weimarer Republik der Begriff des Freistaats in vielen Landesverfassungen im Deutschen Reich aufgegriffen. In der Bundesrepublik Deutschland sehen sich die deutschen Länder Bayern, Sachsen und Thüringen in der Tradition des Begriffs und führen diese Bezeichnung als offiziellen Namensbestandteil, um damit auf ihre republikanische Tradition (seit der Novemberrevolution 1918/19) hinzuweisen. Radar. Radar ist die Abkürzung für "Radio Detection and R'"anging" (frei übersetzt: „Funkortung und -abstandsmessung“), zwischenzeitlich "Radio Aircraft Detection and R'"anging" (frei übersetzt: „funkbasierte "Flugzeug"ortung und -abstandsmessung“) und ist die Bezeichnung für verschiedene Erkennungs- und Ortungsverfahren und -geräte auf der Basis elektromagnetischer Wellen im Radiofrequenzbereich (Funkwellen). Der Begriff "Radar" hat in der Vergangenheit die ursprüngliche deutsche Bezeichnung „Funkmeß“ ersetzt. Allgemeines. Ein Radargerät ist ein Gerät, das elektromagnetische Wellen gebündelt als sogenanntes Primärsignal aussendet, die von Objekten reflektierten „Echos“ als Sekundärsignal empfängt und nach verschiedenen Kriterien auswertet. So können Informationen über die Objekte gewonnen werden. Meist handelt es sich um eine Ortung (Bestimmung von Entfernung und Winkel). Es gibt je nach Einsatzzweck unterschiedliche Radarprinzipien wie das Wetterradar, das harmonische Radar und das Überhorizontradar. Die aus dem Deutschen kommende ursprüngliche Bezeichnung "Funkmeßtechnik" (kurz "Funkmeß") wurde nach dem Zweiten Weltkrieg in der Bundesrepublik Deutschland durch den Begriff "Radar" ersetzt. In der DDR wurde in der Fachsprache weiterhin von "Funkmeßtechnik" gesprochen. Entdeckung. a>, die das Radar eines französischen Kriegsschiffs schützt (1998) 1886 stellte Heinrich Hertz beim experimentellen Nachweis elektromagnetischer Wellen fest, dass Radiowellen Die ersten Versuche zur Ortung mit Hilfe von Radiowellen führte der deutsche Hochfrequenztechniker Christian Hülsmeyer 1904 durch. Er fand heraus, dass von Metallflächen zurückgeworfene elektrische Wellen verwendet werden können, um entfernte metallische Objekte zu detektieren. Sein Telemobiloskop zur Erkennung von Schiffen gilt als Vorläufer heutiger Radarsysteme und wurde am 30. April 1904 zum Patent angemeldet. Der Nutzen der Radartechnik wurde jedoch zunächst nicht erkannt und so geriet die Erfindung vorläufig in Vergessenheit. Entwicklung moderner Radarsysteme im Zweiten Weltkrieg. Der schottische Physiker Sir Robert Alexander Watson-Watt, FRS FRAeS (1892–1973) gilt als einer der Erfinder des Radars. Watson-Watt war zunächst Assistent am Institut für Naturphilosophie des University College in Dundee, damals Teil der Universität St Andrews. Ab 1936 war er Direktor im britischen Luftfahrtministerium. Er forschte über die Reflexion von Radiowellen in der Meteorologie. 1919 ließ er sich ein Verfahren zur Ortung von Objekten mittels Radiowellen (Radar) patentieren, das nach Weiterentwicklungen (Entwicklung des Sicht- oder Kurzzeitpeilers; Watson-Watt-Peiler) 1935 erstmals zur Radarortung von Flugzeugen im Meterwellenbereich eingesetzt werden konnte. Am 26. Februar 1935 gelang dem Wissenschaftler der Versuch, den testweise den Ort Daventry anfliegenden Bomber des Typs Handley Page H.P.50 mittels Radar zu entdecken. Watson-Watt war maßgeblich an der Entwicklung der britischen Radaranlagen im Zweiten Weltkrieg beteiligt. Der Durchbruch der Radartechnik folgte erst kurz vor und während des Zweiten Weltkrieges. Die militärische Aufrüstung in dieser Zeit führte dazu, dass ab Mitte der 1930er Jahre in mehreren Ländern parallel intensiv an der Entwicklung von Radargeräten geforscht wurde. Insbesondere die Deutschen und die Briten leisteten sich in der Folge ein Wettrennen in der Entwicklung von Radarsystemen. Aber auch in den USA, in der Sowjetunion sowie in Frankreich, Japan, Italien und den Niederlanden standen zu Beginn des Krieges 1939 Radaranlagen zur Auf deutscher Seite hatte Rudolf Kühnhold als wissenschaftlicher Direktor der Nachrichten-Versuchsabteilung der Reichsmarine entscheidenden Anteil an der Entwicklung. Ein von ihm entwickeltes Radargerät, welches zur Tarnung "DeTe-Gerät" (Dezimeter-Telegraphie) genannt wurde, wurde 1934 erstmals im Kieler Hafen zur Erkennung von Schiffen getestet. Die Briten führten am 26. Februar 1935 einen ersten Feldversuch durch, bei dem Flugzeuge bis zu einer Entfernung von 13 km verfolgt werden konnten. Im September 1935 präsentierte die GEMA aus Berlin als erste ein voll funktionsfähiges Funkmessgerät. Neben der GEMA, die Systeme wie Freya, Mammut, Wassermann und Seetakt entwickelte, war auch Telefunken mit den Systemen Würzburg und Würzburg-Riese maßgeblich an der deutschen Radartechnik beteiligt. Am 18. Dezember 1939 erfolgte der erste radargeleitete Abfangeinsatz, als bei dem Luftgefecht über der Deutschen Bucht 24 britische Bomber einen Angriff auf Wilhelmshaven flogen, der abgewehrt werden konnte. Das deutsche Abwehrsystem gegen Bombergeschwader, die Kammhuber-Linie, führte über eine Länge von mehr als 1000 km von Dänemark bis Nordfrankreich. Die Briten errichteten ab 1936 mit Chain Home ebenfalls eine Kette von Radarstationen an der Ostküste, die auf einer anderen Wellenlänge als die der Deutschen arbeitete und daher von diesen zunächst nicht erkannt wurde. Ein Meilenstein in der Radarentwicklung war Anfang 1940 die Erfindung des Magnetrons an der Universität Birmingham, das das Kerngerät aller späteren Radaranwendungen werden sollte. Ende Januar 1943 setzen die Briten bei einem Angriff auf Hamburg erstmals ein mobiles Radarsystem in Flugzeugen ein, das zur Navigation verwendet wurde (H2S). Beide Seiten entwickelten sogenannte Düppel, einfache Metallfolienstreifen, um die gegnerischen Radarsysteme zu stören. Schnell wurden jedoch verbesserte Systeme entwickelt, die diese Störer herausfiltern konnten. Forschung nach dem Zweiten Weltkrieg. In Deutschland kam die Forschung auf dem Gebiet Radar nach dem Krieg vollständig zum Erliegen. Die Alliierten verboten diese bis 1950. Erhebliche Fortschritte machte die Forschung in der Folgezeit insbesondere in den USA, wo zahlreiche neue theoretische Ansätze und innovative Bauteile wie Halbleiter und Mikroprozessoren entwickelt wurden. Als ein Beispiel sei das Synthetic Aperture Radar aus dem Jahr 1951 genannt. Auch an Bord von zivilen Flugzeugen und Schiffen gehören Bordradare zur Standardausrüstung. Eine der ersten und bis heute wichtigsten zivilen Anwendungen ist die Überwachung des Luftverkehrs mittels Air Traffic Control (ATC). Bereits Ende der 1970er Jahre entstanden erste Systeme von Abstandswarnradaren für den Automobilbereich. In der Raumfahrt wird Radartechnik seit Mitte der 1990er vor allem zur Vermessung der Erde und anderer Planeten genutzt. Zur Erfassung von Wetterdaten werden zudem Einsatzgebiete. Nach dem Zweiten Weltkrieg kam auch die Lenkung radargesteuerter Waffen wie Flugabwehrraketen dazu. Außerdem wurde das Radar auch für die zivile Schiff- und Luftfahrt eingesetzt. Die heutige Passagierluftfahrt wäre ohne Luftraumüberwachung durch Radar nicht denkbar. Auch Satelliten und Weltraumschrott werden heute durch Radar überwacht. Als die Radargeräte leistungsfähiger wurden, entdeckte auch die Wissenschaft diese Technik. Wetterradargeräte helfen in der Meteorologie oder an Bord von Flugzeugen bei der Wettervorhersage. Mittels großer Stationen können vom Boden aus Radarbilder vom Mond, der Sonne sowie einigen Planeten erzeugt werden. Umgekehrt kann auch die Erde vom Weltraum aus durch satellitengestützte Radargeräte vermessen und erforscht werden. Einteilung und Funktionsweise. Datei:Structure_radar.svg| rect 94 157 223 177 Impulsradar rect 153 80 305 101 Primärradar rect 312 15 451 40 Radargerät rect 390 79 563 101 Sekundärradar rect 478 221 582 258 Dauerstrichradar rect 347 156 568 177 Unmoduliertes Dauerstrichradar (CW-Radar) rect 325 221 444 258 Frequenzmoduliertes Dauerstrichradar (FMCW-Radar) rect 17 220 107 257 Pulskompressionsverfahren Aktive Radargeräte werden in "bildgebend" und "nicht bildgebend" eingeteilt. Ferner unterscheidet man zwischen Impuls- und Dauerstrichradargeräten sowie zwischen "mono"- und "bistatischen" Anlagen; bei letzteren sind Sender und Empfänger räumlich getrennt, was auf astronomische Entfernung eine höhere Empfindlichkeit erlaubt. Radarsender sind mittels Peilempfängern erkenn- und ortbar. Als Primärradar werden Pulsradar-Geräte bezeichnet, die ausschließlich das passiv reflektierte Echo des Zieles auswerten. Es lassen sich neben der Entfernung auch die radiale Geschwindigkeit der Objekte und deren ungefähre Größe ermitteln. Auswertung reflektierter Oberwellen erlaubt Rückschlüsse auf den Flugzeugtyp. Ein Sekundärradar umfasst ebenfalls ein Impulsradargerät, jedoch befinden sich an den Zielobjekten Transponder, die auf die Pulse reagieren und ihrerseits ein Signal zurücksenden. Hierdurch erhöht sich die Reichweite, die Objekte sind identifizierbar und können ggf. weitere Daten zurücksenden. Peilempfänger, die die Quelle von Funkwellen (von Radar- und anderen Geräten und deren Störabstrahlung) zu militärischen Zwecken orten können, nennt man auch passives Radar. Ein passives Radar ist daher nicht anhand seiner Funkwellenaussendung zu entdecken. Eine weitere Art von Radargeräten die nur schwer zu entdecken sind, ist das Rauschradar welches lange Pulse aussendet welche wie zufällige Störstrahlung aussehen. Entfernungsbestimmung mit dem Impulsverfahren. Entfernungsbestimmung mit dem Impulsverfahren. Das Pulsradargerät sendet einen Impuls und misst die Zeit bis zum Empfang des Echos. Die Gruppengeschwindigkeit formula_4 ist näherungsweise gleich der Lichtgeschwindigkeit im Vakuum, da der Brechungsindex von Luft für Radiowellen sehr nahe an 1 ist. Je nach Reichweite des Radargerätes wird nach einem gesendeten Impuls einige Mikro- bis Millisekunden lang empfangen, bevor der nächste Impuls ausgesendet wird. Auf dem klassischen Radarschirm beginnt die Auslenkung mit dem Sendeimpuls. Die Ausbreitungsgeschwindigkeit der elektromagnetischen Wellen im Raum ist maßstabsgerecht mit der Anzeige. Wird ein Echo empfangen, dann ist der Abstand des Echoimpulses auf dem Sichtgerät ein Maß für die Entfernung des reflektierenden Objektes (hier: des Flugzeugs) Pulserzeugung. Um in Pulsradar-Geräten die hohen Sendeleistungen im Megawattbereich zu erzeugen, welche zur Ortung z. B. über einige 100 km nötig sind, werden auch heute Magnetrons verwendet. Dazu wird ein Magnetron z. B. mittels Trigatron, Thyratron oder neuerdings auch Halbleiterschaltern gepulst betrieben. Da sich die Sendefrequenz eines Magnetrons in Abhängigkeit von Temperatur und Betriebszustand ändern kann, wird bei Messungen der relativen Radialgeschwindigkeit die Frequenzreferenz beim Empfang aus der Sendefrequenz abgeleitet (siehe pseudokohärentes Radar). Stationäre Pulsradargeräte erreichten Leistungen bis zu 100 MW als Spitzenimpulsleistung. Moderne Radargeräte benötigen für Reichweiten von mehreren 100 km sehr viel weniger Energie und senden teilweise Pulse mit einer Pulsleistung unter einem Megawatt. Bei der Verwendung vieler kleiner, in Verbund arbeitender Sender oder bei Geräten mit aktiven Phased-Array-Antennen kann auf die Röntgenstrahlen aussendenden Schaltröhren verzichtet werden. Richtungsbestimmung. Dreht man die Antenne eines Pulsradars, erhält man ein "Rundsichtradar". Die scharfe Richtcharakteristik der Antenne wirkt sowohl beim Senden als auch beim Empfang. Aus der Abhängigkeit der Stärke des Echos von der Orientierung der Antenne kann sehr genau die Richtung bestimmt werden. Bekannteste Anwendungsgebiete eines solchen Rundsichtradars sind Luftraumüberwachung und Wetterradar. Ein Flughafen-Rundsicht-Radar (ASR, "Airport Surveillance Radar") kombiniert meist ein Primärradar mit einem Sekundärradar. Neben der allgemeinen Luftraumüberwachung hat es vor allem die Aufgabe dem Anfluglotsen ein genaues Bild der Luftlage rund um den Flughafen zu liefern. Die Reichweite eines ASR beträgt üblicherweise 60 sm. Ein Anflugradar besteht aus jeweils einer waagerecht und einer senkrecht bewegten Antenne und ermöglicht, Anflugwinkel, Anflugrichtung und Anflughöhe landender Flugzeuge zu bestimmen. Der Pilot erhält die Korrekturhinweise über Funk vom Bodenpersonal oder er hat ein Anzeigeinstrument an Bord, welches Abweichungen passiv anhand der empfangenen Radarimpulse angibt. Solche Instrumentenlandungen oder Blindlandungen sind besonders bei schlechter Sicht oder bei aus militärischen Gründen unbefeuerter oder getarnter Landebahn von Bedeutung. Kurz vor dem Aufsetzen ist jedoch Bodensicht erforderlich. Das bodengestützte STCA-System (Short Term Conflict Alert) zur Kollisionsvermeidung verwendet das Luftraumüberwachungsradar. Es berechnet aus der Flugspur (Track) von Luftfahrzeugen die Wahrscheinlichkeit eines nahen Vorbeifluges (near miss) oder gar Zusammenstoßes und warnt optisch und akustisch den Fluglotsen. Das Schwenken des Abtaststrahles eines Impulsradars kann statt durch die Ausrichtung der Antenne auch elektronisch durch phasengesteuerte Antennenarrays bewirkt werden. Damit können in schnellem Wechsel mehrere Objekte angepeilt und quasi simultan verfolgt werden. Das Synthetic Aperture Radar erreicht eine hohe, entfernungsunabhängige Auflösung in Azimut. Die erforderliche Aperturgröße wird rechnerisch aus der realen Apertur einer kleinen, bewegten Antenne zusammengesetzt. Dazu muss die Bewegung der Antenne relativ zu dem beobachteten (starren) Objekt genau bekannt und die Phase der ausgesendeten Impulse kohärent zueinander sein. Erdsatelliten und Raumsonden verwenden solche Systeme zur Vermessung von Geländeprofilen. Radarantennen. Älteres Impulsmagnetron eines Radarsenders (ca. 9 GHz, 7 kW, Impulsdauer 0,1 bis 1 µs), links unten isolierter Heiz- und Kathodenanschluss, rechts oben Hohlleiterflansch Die Antenne ist eines der auffälligsten Teile der Radaranlage. Die Antenne sichert durch das Antennendiagramm und ggf. eine Drehbewegung die erforderliche Verteilung der Sendeleistung im Raum. Die Antenne wird meist im Zeitmultiplexbetrieb verwendet. Während der Empfangszeit empfängt sie dann die reflektierte Energie. Modernere Radargeräte mit Multifunktionseigenschaften verwenden immer eine Phased-Array-Antenne, ältere Gerätesysteme meist die Parabolantenne, die zur Erzeugung eines Cosecans²-Diagramms von der idealen Parabolform abweicht. Radarsender. Eine in älteren Radargeräten, jedoch auch heute verwendete Senderbauart sind selbstschwingende Impuls-Oszillatoren, die aus einem Magnetron bestehen. Das Magnetron wird durch einen Hochspannungsimpuls gespeist und erzeugt einen Hochfrequenz-Impuls hoher Leistung (0,1…10 µs, Leistung einige kW bis einige MW). Der Hochspannungsimpuls für das Magnetron wird durch einen Modulator (Schaltröhre oder heute auch Halbleiterschalter mit MOSFET) bereitgestellt. Dieses Sendesystem wird auch POT (Power-Oszillator-Transmitter) genannt. Radargeräte mit einem POT sind entweder nicht kohärent oder pseudokohärent. Ein in moderneren Radargeräten verwendetes Konzept ist der PAT (Power-Amplifier-Transmitter). Bei diesem Sendersystem wird in einem Generator der fertige Sendeimpuls mit kleiner Leistung erzeugt und dann mit einem Hochleistungsverstärker (Amplitron, Klystron, Wanderfeldröhre oder Halbleiter-Sendermodulen) auf die nötige Leistung gebracht. Radargeräte mit einem PAT sind in den meisten Fällen vollkohärent und können deshalb besonders gut zur Erkennung von bewegten Objekten durch Ausnutzung der Doppler-Frequenz eingesetzt werden. Empfänger. Der Empfänger nutzt meist die Sendeantenne und muss daher vor dem Sendeimpuls geschützt werden, Das geschieht mit Zirkulatoren, Richtkopplern und Nulloden. Der Empfang erfolgt mit dem Überlagerungsprinzip, früher wurde als Oszillator ein Reflexklystron verwendet, zur Mischung und Demodulation dienten koaxial aufgebaute, in Hohlleiter eingeschraubte Spitzendioden. Heutige Empfänger arbeiten vollständig mit Halbleitern und sind in Streifenleitertechnik aufgebaut. Dauerstrichradar (CW-Radar). Ein CW-Radar (CW für engl. "continuous wave" - Dauersender) konstanter Frequenz kann keine Entfernungen messen, aber über die Richtwirkung seiner Antenne den Azimut zu einem Ziel. Es wird zur Geschwindigkeitsmessung genutzt. Dabei wird die über eine Antenne abgestrahlte Frequenz vom Ziel (beispielsweise einem Auto) reflektiert und mit einer gewissen Doppler-Verschiebung, also geringfügig geändert, wieder empfangen. Da nur bewegte Objekte erkannt werden, fehlen störende Einflusse von Festzielen. Durch einen Vergleich der gesendeten mit der empfangenen Frequenz (Homodyne Detektion) kann die radiale Geschwindigkeitskomponente bestimmt werden, die um einen Kosinusfaktor kleiner ist als der Betrag des Geschwindigkeitsvektors. Moduliertes Dauerstrichradar (FMCW-Radar). Industriell gefertigtes 61-GHz-FMCW-Radar zur Entfernungsmessung Eine weiterentwickelte Art sind die FMCW (frequency modulated continuous wave) Radargeräte, auch „Modulated CW-Radar“ oder „FM-Radar“. Sie senden mit einer sich ständig ändernden Frequenz. Die Frequenz steigt entweder linear an, um bei einem bestimmten Wert abrupt wieder auf den Anfangswert abzufallen (Sägezahnmuster), oder sie steigt und fällt abwechselnd mit konstanter Änderungsgeschwindigkeit. Durch die lineare Änderung der Frequenz und durch das stetige Senden ist es möglich, neben der Differenzgeschwindigkeit zwischen Sender und Objekt auch gleichzeitig deren absolute Entfernung voneinander zu ermitteln. „Radar-Fallen“ der Verkehrspolizei arbeiten auf diese Weise und lösen bei Geschwindigkeitsüberschreitung bei einer bestimmten Entfernung zum Ziel den Fotoblitz aus. Radar-Höhenmesser von Flugzeugen und Abstandswarngeräte in Autos arbeiten nach diesem Prinzip. Neuerdings wird diese Technologie auch im Sportbootbereich eingesetzt, beispielsweise unter der Bezeichnung „Broadband Radar“. Eine Nutzung dieses „Broadband Radar“ auf Flugplätzen ist nicht möglich, da die Dopplerfrequenz von Flugzeugen zu groß ist und dadurch Messfehler von bis zu mehreren Kilometern entstehen. FMCW-Radare werden außerdem in industriellen Anwendungen zur Abstandsmessung und zur Messung von Füllstandshöhe in Tanks eingesetzt. Gesundheitsschäden durch Radar. Die in den Schaltröhren entstehende Röntgenstrahlung war bis mindestens in die 1980er Jahre bei militärischen Radaranlagen häufig unzureichend abgeschirmt. Darüber hinaus mussten Wartungs- und Justierarbeiten oft am geöffneten Gerät durchgeführt werden. Dies führte zu Strahlenschäden bei vielen Bedienungs- und Wartungssoldaten bei der NVA und der Bundeswehr. Eine große Zahl von Soldaten, vor allem ehemalige Radartechniker, erkrankte dadurch später an Krebs, viele sind bereits in relativ jungem Alter verstorben. Die Zahl der Geschädigten ("Radaropfer") beträgt mehrere Tausend. Grundsätzlich wurde der Zusammenhang von der Bundeswehr anerkannt und in vielen Fällen eine Zusatzrente gezahlt. Ramsee. Ramsee war ein Ort zwischen Andechs und Wartaweil, 40 km südwestlich von München am Ammersee in Bayern, Deutschland. Geschichte. Ramsee wird erstmals 1223 unter Sifrious de Ramesoue, Ministeriale der Grafen, als Zeuge erwähnt. Erst 1280 wird das Dorf im herzöglichen Urbar verzeichnet. 1445 erscheint Ramsee dann im Herdstättenverzeichnis. Um 1800 zählt Ramsee 6 Häuser und 42 Einwohner. 1849 brennen drei Gebäude und später noch eine Sölde ab. 1852 wird das gesamte Dorf von dem Klostergutbesitzer Felix Christian Wieninger aufgekauft. Sieben Jahre später verkauft er das Dorf mit Gewinn an den Staat weiter, welcher es bis auf die Kirche abreißen lässt und einen Wald pflanzt. 1864 wird das letzte Gebäude, die Kirche, abgerissen. 1937 wird das Ramsauer Gebiet Herrsching zugeteilt. Überreste. Heute deutet abgesehen von einem Gedenkstein am Standort der früheren Kirche, einer Zisterne und einigen Mulden (vermutlich Reste früherer Kelleranlagen) nichts mehr auf seine Existenz hin. Über die Ursachen wird spekuliert, Experten sind der Ansicht, dass der Ort einem Feuer zum Opfer gefallen sei. Schließlich ranken sich noch Geschichten um seltsame Erlebnisse, die an der Brücke zwischen Ramsee und Andechs stattgefunden haben sollen. Relation (Mathematik). Eine Relation („Beziehung“, „Verhältnis“) ist allgemein eine Beziehung, die zwischen Dingen bestehen kann. Relationen im Sinne der Mathematik sind ausschließlich diejenigen Beziehungen, bei denen stets klar ist, ob sie bestehen oder nicht. Zwei Gegenstände können also nicht „bis zu einem gewissen Grade“ in einer Relation zueinander stehen. Damit ist eine einfache mengentheoretische Definition des Begriffs möglich: Eine Relation formula_1 ist eine Menge von formula_2-Tupeln. Dinge, die in der Relation formula_1 zueinander stehen, bilden ein formula_2-Tupel, das ein Element von formula_1 ist. Wenn nicht ausdrücklich etwas anderes angegeben ist, versteht man unter einer Relation eine zweistellige oder binäre Relation, also eine Beziehung zwischen je zwei Elementen formula_6 und formula_7; diese bilden dann ein geordnetes Paar formula_8 Stammen dabei formula_6 und formula_7 aus verschiedenen Grundmengen formula_11 und formula_12, so heißt die Relation "heterogen" oder „Relation "zwischen" den Mengen formula_11 und formula_12.“ Wenn die Grundmengen übereinstimmen (formula_15), dann heißt die Relation "homogen" oder „Relation "in" bzw. "auf" der Menge formula_11.“ Wichtige Spezialfälle, zum Beispiel Äquivalenzrelationen und Ordnungsrelationen, sind Relationen "auf" einer Menge. Zweistellige Relation. Eine zweistellige Relation formula_1 zwischen zwei Mengen formula_11 und formula_12 ist eine Teilmenge des kartesischen Produkts formula_20 Die Menge formula_11 wird als "Vorbereich" oder "Quellmenge" der Relation formula_1 bezeichnet, die Menge formula_12 als "Nachbereich" oder "Zielmenge". Manchmal ist diese Definition jedoch nicht präzise genug und man bezieht die Quell- und Zielmenge in die Definition mit ein, obige Teilmenge wird dann der Graph formula_25 der Relation genannt. Eine zweistellige Relation formula_1 ist dann definiert als Tripel Die Kenntnis von Quelle und Zielmenge ist insbesondere dann von Bedeutung, wenn man Funktionen als spezielle (sogenannte funktionale) Relationen betrachtet. Mehrstellige Relation. Allgemeiner ist eine formula_2-stellige Relation formula_1 eine Teilmenge des kartesischen Produkts von formula_2 Mengen formula_32 Die ausführlichere Definition lässt sich auch auf formula_2-stellige Relationen verallgemeinern und man erhält dann das formula_36-Tupel Erläuterungen und Schreibweisen. Das kartesische Produkt zweier Mengen formula_11 und formula_12 ist die Menge aller geordneten Paare von formula_6 und formula_42 wobei formula_6 irgendein Element aus der Menge formula_11 und formula_7 eines aus formula_12 darstellt. Bei dem geordneten Paar ist die Reihenfolge wichtig, d. h. formula_47 unterscheidet sich von formula_48 im Gegensatz zum ungeordneten Paar formula_49 das identisch ist mit formula_50 Für formula_51 schreibt man auch formula_52 um zu verdeutlichen, dass jene Beziehung "zwischen" den Objekten besteht (wie in formula_53). Relationen und Funktionen. Eine Funktion ist eine spezielle, nämlich eine linkstotale und rechtseindeutige (zweistellige) Relation formula_54 (siehe unten). Bei der ausführlicheren Definition formula_55 kann, weil formula_11 durch formula_57 eindeutig bestimmt ist (linkstotal), auch formula_11 weggelassen und einfacher formula_59 genommen werden. An Stelle von formula_60 bzw. formula_61 wird dann formula_62 und für formula_63 bzw. formula_64 auch formula_65 oder formula_66 geschrieben. Eine Relation formula_67 entspricht auf eindeutige Weise einer Funktion formula_68 Diese Funktion ist auch als Indikatorfunktion oder charakteristische Funktion der Teilmenge formula_69 bzw. formula_70 bekannt, wobei formula_71 durch formula_72 ersetzt werden kann. formula_69 lässt sich ebenso als eine Abbildung formula_74 von formula_11 in die Potenzmenge von formula_12 auffassen, formula_77 man spricht dann oft von einer Korrespondenz. Verkettung von Relationen . Als Verallgemeinerung des bekannteren Konzepts der Verkettung von Funktionen können sogar zwei beliebige Relationen formula_69 und formula_79 miteinander verkettet werden. Das Ergebnis ist das "relative Produkt" oder "Relationenprodukt" Dabei kann auch die einfachste Relation, die in jedem kartesischen Produkt enthalten ist, die "leere Relation" formula_81 (leere Menge) auftreten, nämlich wenn formula_82 ist. Beispiel: Die Relation „Schwägerin sein von“ ist die Vereinigungsmenge Homogene Relationen. Ist formula_83 also formula_84 dann nennt man die Relation "homogen". Manche Autoren definieren eine allgemeine Relation bereits als homogene Relation, denn eine allgemeine Relation formula_69 ist auch immer homogen: formula_86 Eine spezielle homogene Relation in einer Menge formula_11 ist die "Gleichheits-" oder "Identitätsrelation" Wenn formula_11 bereits bekannt ist, wird sie einfach mit formula_90 bezeichnet, man nennt sie auch die "Diagonale" formula_91 oder formula_92 Eine weitere spezielle homogene Relation ist die "Allrelation" oder "Universalrelation" Im Fall einer homogenen Relation formula_99 ist die Verkettung formula_100 ebenfalls eine homogene Relation, sodass die homogenen Relationen in formula_11 eine Halbgruppe mit der multiplikativen Verknüpfung formula_102 und dem neutralen Element formula_90 bilden. Somit kann formula_104 und können allgemeiner Potenzen formula_105 für formula_106 definiert werden, wobei formula_107 ist. Das kann zu Verwechslungen mit dem kartesischen Produkt formula_108 mit formula_109 führen. Die Bedeutung ergibt sich jeweils aus dem Sinnzusammenhang. formula_90 wird daher auch "Einsrelation" genannt. Zudem besitzt jede Halbgruppe homogener Relationen mit der leeren Relation noch ein absorbierendes Element, sodass diese ebenso als "Nullrelation" Umkehrrelation. Die "Umkehrrelation" (auch "konverse" Relation, "Konverse" oder "inverse" Relation genannt) ist für eine Relation formula_69 definiert als Beispiel 1: Die Umkehrrelation der Relation „Ehemann sein von“ ist die Relation „Ehefrau sein von“. Beispiel 2: Die Umkehrrelation der Relation „kleiner als“ ist die Relation „größer als“. Beispiel 3: Die Umkehrrelation der Relation „liefert an“ ist die Relation „wird beliefert von“. Beispiel. Alle möglichen Kombinationen von den Elementen aus der Menge formula_114 und formula_115, sowie eine zwischen formula_11 und formula_12 definierte Relation formula_118 Übersicht über die Eigenschaften. Die folgenden Relationen sind für Funktionen (dargestellt als spezielle Relationen) wichtig. Im Allgemeinen besteht hier die Relation formula_69 zwischen zwei verschiedenen Mengen formula_120 der Fall formula_15 ist natürlich auch möglich. Alternative Sprechweisen. Eine rechtseindeutige bzw. funktionale Relation nennt man auch "partielle Funktion". Wenn diese auch "linkstotal" – also eine "Funktion" – ist, dann sagt man zur Verdeutlichung auch "totale Funktion". Übersicht über Funktionseigenschaften bei Relationen. Eine Relation ist also genau dann eine (totale) Funktion, wenn sie linkstotal und rechtseindeutig ist. Die Eigenschaften surjektiv, injektiv und bijektiv werden in der Regel für Funktionen gebraucht. Z. B. ist eine Funktion (und auch eine beliebige Relation) formula_1 genau dann bijektiv, wenn sie surjektiv und injektiv ist, also wenn ihre Umkehrrelation formula_157 eine Funktion ist. Umkehrfunktion. Eine Abbildung bzw. Funktion nennt man auch Eine Funktion ist als Relation immer umkehrbar, als Funktion ist sie dagegen genau dann umkehrbar, wenn ihre Umkehrrelation auch wieder eine Funktion ist, also wenn es eine "Umkehrfunktion" von ihr gibt. Homogene Relationen. Die in den folgenden Tabellen gegebenen Beispiele beziehen sich bei Verwendung von Gleichheitszeichen "=", Kleinerzeichen "<" und Kleinergleich-Zeichen "≤" auf die gewöhnliche Anordnung reeller Zahlen. Nichttransitivität (d. h. die Relation ist nicht transitiv), Intransitivität und negative Transitivität sind jeweils voneinander verschieden. Zusammenhang der Eigenschaften binärer Relationen Klassen von Relationen. Zusammenhänge zwischen verschiedenen zweistelligen Relationen Relationszeichen. mit formula_205. für alle formula_218. Für komplexe Zahlen existieren obige Ordnungsrelationen nicht. Mathematiker verwenden das Zeichen ≤ auch für abstrakte Ordnungsrelationen (und ≥ für die zugehörige Umkehrrelation) während "<" keine Ordnungsrelation im Sinne der mathematischen Definition ist. Für Äquivalenzrelationen werden "symmetrische" Symbole wie ≈, ~, ≡ bevorzugt. Kategorientheorie. Die Morphismen sind also mengenindizierte Matrizen, und ihre Komposition geschieht wie bei der Matrixmultiplikation. Im Sonderfall formula_219 formula_232 ist formula_233, d. h. die Kategorie der Relationen. Anwendung. Operationen auf ganzen Relationen werden in der relationalen Algebra untersucht. In der Informatik sind Relationen bei der Arbeit mit relationalen Datenbanken wichtig. Reelle Zahl. Die reellen Zahlen bilden einen in der Mathematik bedeutenden Zahlenbereich. Er ist eine Erweiterung des Bereichs der rationalen Zahlen, der Brüche, womit die Maßzahlen der Messwerte für übliche physikalische Größen wie zum Beispiel Länge, Temperatur oder Masse als reelle Zahlen aufgefasst werden können. Die reellen Zahlen haben gegenüber den rationalen Zahlen besondere topologische Eigenschaften. Diese bestehen unter anderem darin, dass für jedes „stetige Problem“, für das in einem gewissen Sinne beliebig gute, nahe beieinander liegende näherungsweise Lösungen in Form von reellen Zahlen existieren, auch eine reelle Zahl als exakte Lösung existiert. Daher können sie in der Analysis, der Topologie und der Geometrie vielseitig eingesetzt werden. Beispielsweise können Längen und Flächeninhalte sehr vielfältiger geometrischer Objekte sinnvoll als reelle Zahlen, nicht aber etwa als rationale Zahlen definiert werden. Wenn in empirischen Wissenschaften mathematische Konzepte – wie zum Beispiel Längen – zur Beschreibung eingesetzt werden, spielt daher auch dort die Theorie der reellen Zahlen oft eine wichtige Rolle. Einteilung der reellen Zahlen. Die rationalen Zahlen sind diejenigen Zahlen, die sich als Bruch ganzer Zahlen darstellen lassen. Eine Zahl heißt irrational, wenn sie reell, aber nicht rational ist. Die ersten Beweise, dass die Zahlengerade irrationale Zahlen enthält, wurden von den Pythagoräern geführt. Irrationale Zahlen sind beispielsweise die Kreiszahl formula_12 (Pi), die Eulersche Zahl formula_13 oder die nicht ganzzahligen Wurzeln aus ganzen Zahlen wie formula_14 oder formula_15. Eine die rationalen Zahlen umfassende Teilmenge der reellen Zahlen ist die Menge der (reellen) algebraischen Zahlen, d. h. der reellen Lösungen von Polynomgleichungen mit ganzzahligen Koeffizienten. Diese Menge umfasst unter anderem sämtliche reellen formula_16-ten Wurzeln aus rationalen Zahlen für formula_17 und deren endliche Summen, aber nicht nur diese (z. B. Lösungen geeigneter Gleichungen 5. Grades). Ihr Komplement ist die Menge der (reellen) transzendenten Zahlen. Notation für häufig verwendete Teilmengen der reellen Zahlen. Ist formula_18, dann bezeichnet Besonders häufig wird diese Schreibweise mit formula_24 verwendet, um die Menge formula_25 der positiven reellen Zahlen oder die Menge formula_26 der nichtnegativen reellen Zahlen zu bezeichnen. Gelegentlich finden sich für den Spezialfall formula_24 auch die Bezeichnungen formula_28 oder formula_29. Hierbei ist jedoch Vorsicht geboten, da bei formula_28 bei manchen Autoren die Null eingeschlossen ist, bei anderen nicht. Konstruktion der reellen aus den rationalen Zahlen. Die Konstruktion der reellen Zahlen als Zahlbereichserweiterung der rationalen Zahlen war im 19. Jahrhundert ein wichtiger Schritt, um die Analysis auf ein solides mathematisches Fundament zu stellen. Die erste exakte Konstruktion geht wohl auf Karl Weierstraß zurück, der die reellen Zahlen über beschränkte Reihen mit positiven Gliedern definierte. Konstruktion der reellen Zahlen aus der euklidischen Geometrie. Ausgehend von rein geometrischen Begriffen wie Punkte, Geraden und Ebenen lassen sich reelle Zahlen als Verhältnisse von Streckengrößen definieren. Ausgangspunkt ist dabei z. B. Hilberts Axiomensystem der euklidischen Geometrie. Neben den geometrischen Axiomen ist dabei besonders als „Axiom des Messens“ eine Variante des archimedischen Axioms von Bedeutung und ein „Vollständigkeitsaxiom“, das besagt, dass man keine Punkte hinzu nehmen kann, ohne dass die Axiome verletzt werden. Axiomatische Einführung der reellen Zahlen. Die Konstruktion der reellen Zahlen als Zahlbereichserweiterung der rationalen Zahlen wird in der Literatur oft in vier Schritten vorgenommen: Von der Mengenlehre über die natürlichen, die ganzen, die rationalen schließlich zu den reellen Zahlen wie oben beschrieben. Eine direkte Möglichkeit, die reellen Zahlen mathematisch zu erfassen, ist, sie durch Axiome zu beschreiben. Dazu benötigt man drei Gruppen von Axiomen – die Körperaxiome, die Axiome der Ordnungsstruktur sowie ein Axiom, das die Vollständigkeit garantiert. Wenn man die reellen Zahlen axiomatisch einführt, dann ist die Konstruktion als Zahlbereichserweiterung ihr „Existenzbeweis“, genauer: Die Konstruktion in vier Schritten aus der Mengenlehre beweist, dass ein Modell für die durch die Axiome beschriebene Struktur in der Mengenlehre, von der die Konstruktion ausging, vorhanden ist. Mächtigkeiten. Die Mächtigkeit von formula_1 wird mit formula_51 ("Mächtigkeit des Kontinuums") bezeichnet. Sie ist "größer" als die Mächtigkeit der Menge der natürlichen Zahlen, die als kleinste unendliche Mächtigkeit formula_52 heißt. Die Menge der reellen Zahlen ist deshalb überabzählbar. Ein Beweis für ihre Überabzählbarkeit ist Cantors zweites Diagonalargument. Informell bedeutet „Überabzählbarkeit“, dass jede Liste formula_53 reeller Zahlen unvollständig ist. Da die Menge der reellen Zahlen gleichmächtig zu der Potenzmenge der natürlichen Zahlen ist, gibt man ihre Mächtigkeit auch mit formula_54 an. Die eingangs genannten "weniger umfassenden" Erweiterungen der Menge der natürlichen Zahlen sind dagegen gleichmächtig mit den natürlichen Zahlen, also "abzählbar". Für die rationalen Zahlen lässt sich dies durch Cantors erstes Diagonalargument beweisen. Selbst die algebraischen Zahlen sind abzählbar. Die Überabzählbarkeit entsteht also erst durch die Hinzunahme der transzendenten Zahlen. In der Mengenlehre wurde nach Cantors Entdeckungen die Frage untersucht: „Gibt es eine Mächtigkeit zwischen „abzählbar“ und der Mächtigkeit der reellen Zahlen, zwischen formula_52 und formula_51?“ – Oder, für die reellen Zahlen formuliert: „Ist jede überabzählbare Teilmenge der reellen Zahlen gleichmächtig wie die Menge aller reellen Zahlen?“ Die Vermutung, dass die Antwort auf die erste Frage „Nein!“ und auf die zweite Frage „Ja“ lautet, wird als Kontinuumhypothese (CH) bezeichnet, kurz formuliert als formula_57 = formula_51 und formula_59. Es konnte gezeigt werden, dass die Kontinuumhypothese unabhängig von den üblicherweise verwendeten Axiomensystemen wie der Zermelo-Fraenkel-Mengenlehre mit Auswahlaxiom (ZFC) ist, d. h., sie kann im Rahmen dieser Systeme weder bewiesen noch widerlegt werden. Topologie, Kompaktheit, erweiterte reelle Zahlen. Die übliche Topologie, mit der die reellen Zahlen versehen werden, ist diejenige, die aus der Basis der offenen Intervalle erzeugt wird. In dieser Form geschrieben ist es die Ordnungstopologie. Offene Intervalle in den reellen Zahlen lassen sich aber auch durch Mittelpunkt und „Radius“ darstellen: formula_62 also als offene Kugeln bezüglich der durch die Betragsfunktion definierten Metrik formula_64 Die von den offenen Intervallen erzeugte Topologie ist also gleichzeitig die Topologie dieses metrischen Raums. Da die rationalen Zahlen in dieser Topologie dicht liegen, reicht es, sich bei den Intervallgrenzen bzw. den Mittelpunkten und Radien der Bälle, die die Topologie definieren, auf rationale Zahlen formula_65 zu beschränken, die Topologie genügt daher beiden Abzählbarkeitsaxiomen. Im Gegensatz zu den rationalen Zahlen sind die reellen Zahlen ein lokalkompakter Raum; zu jeder reellen Zahl formula_66 lässt sich also eine offene Umgebung angeben, deren Abschluss kompakt ist. So eine offene Umgebung ist einfach zu finden; jede beschränkte, offene Menge formula_67 mit formula_68 leistet das Gewünschte: nach dem Satz von Heine-Borel ist formula_69 kompakt. Der reelle Zahlenkörper ist nur "lokalkompakt", aber nicht "kompakt". Eine verbreitete Kompaktifizierung sind die sogenannten "erweiterten reellen Zahlen" formula_70 wobei die Umgebungen von formula_71 durch die Umgebungsbasis und die Umgebungen von formula_74 durch die Umgebungsbasis definiert werden. Diese Topologie genügt weiterhin beiden Abzählbarkeitsaxiomen. formula_77 ist homöomorph zum abgeschlossenen Intervall [0,1], beispielsweise ist die Abbildung formula_78 ein Homöomorphismus formula_79 und alle kompakten Intervalle sind mittels affin-linearer Funktionen homöomorph. Bestimmt divergente Folgen sind in der Topologie der erweiterten reellen Zahlen konvergent, beispielsweise handelt die Aussage in dieser Topologie von einem echten Grenzwert. Mit formula_81 für alle formula_82 sind die erweiterten reellen Zahlen weiterhin totalgeordnet. Es ist allerdings nicht möglich, die Körperstruktur der reellen Zahlen auf die erweiterten reellen Zahlen zu übertragen, beispielsweise hat die Gleichung formula_83 keine eindeutige Lösung. Resonanz (Luhmann). Resonanz ist in der soziologischen Systemtheorie (Niklas Luhmann) eine Übertragungsmöglichkeit (für Prozesse) zwischen miteinander verbundenen Systemen bzw. von direkt benachbarten Systembestandteilen innerhalb eines Systems aufgrund der Gleichartigkeit beider. Die Resonanz vollzieht sich derart, dass das zeitliche Verhalten in der einen Zone auf die andere übergeht bzw. übergehen kann. Zum Beispiel richten sich betriebliche Urlaubspläne nach den Schulferien eines Bundeslandes. Im Allgemeinen wird diese Übertragung desto besser, je ähnlicher die beiden Instanzen einander sind, und desto geringer, je unähnlicher. Hier spielt die Zusammenführbarkeit (Angepasstheit von Botschaft und deren Medium) die entscheidende Rolle. Leichte Wiederholbarkeit (= energieverlustlose Übertragung) und das Maß des übertragenen sozialen Druckes beeinflussen einander. Richard Adams. Richard George Adams (* 9. Mai 1920 in Newbury, England), besser bekannt als Richard Adams, ist ein britischer Schriftsteller. Sein im Jahr 1972 erschienener Roman "Unten am Fluss" über eine Gruppe Wildkaninchen, die auf der Suche nach einer neuen Heimat sind, wurde zu einem weltweiten Bestseller. Leben. Richard Adams wurde am 9. Mai 1920 in Newbury geboren. Nach seinem Einsatz in der britischen Armee im Zweiten Weltkrieg von 1940 bis 1946 schloss er im Jahr 1948 sein Studium der neueren Geschichte am Worcester College an der Universität von Oxford mit einem Master-Abschluss ab. Von 1948 bis 1974 arbeitete er als Beamter für das Ministry of Housing and Local Government, einen Vorläufer des späteren britischen Umweltministeriums, in London. Zur Entstehungsgeschichte von "Unten am Fluss" siehe den entsprechenden Abschnitt des Artikels über "Unten am Fluss". Nach dem kommerziellen Erfolg von "Unten am Fluss" gab Richard Adams nach der Veröffentlichung seines nächsten Werks "Shardik" im Jahr 1974 seinen ursprünglichen Beruf auf und wurde hauptberuflicher Schriftsteller. Als Präsident der "Royal Society for the Prevention of Cruelty to Animals" und Kandidat der unabhängigen Konservativen engagierte er sich außerdem für Tierschutz und die Einstellung der Fuchsjagd in England. Aus steuerlichen Gründen zog er später auf die Isle of Man. Heute lebt er zusammen mit seiner Ehefrau Elizabeth in Whitchurch, weniger als 20 Kilometer von seiner Geburtsstadt entfernt. Römischer Kalender. Der römische Kalender bestand aus mehreren lokalen Kalendern mit zunächst lunarem Charakter, die im römischen Reich immer wieder modifiziert und an das lunisolare Kalenderprinzip angepasst wurden. Die Herkunft der zahlreichen Kalenderformen ist zwar nicht sicher geklärt, jedoch zeigen Form, Stil und Länge der Schaltmonate deutlich etruskisch-latinische Merkmale, wobei in der Frühzeit der etruskische Einfluss dominierte. Zeitgenössische Kalendertexte aus der Gründungszeit Roms fehlen. Der älteste Nachweis eines Kalenders ist mit den Fasti Antiates maiores erst ab dem Jahr 173 v. Chr. belegt. Die Auswertungen der erst relativ spät schriftlich fixierten Überlieferungen macht die Annahme wahrscheinlich, dass die Etrusker zunächst regionale Mondkalender mit einem 354-tägigen Jahr einführten, die von den Römern später auf 355 Tage erweitert wurden. Andere äußere Einflüsse auf die Kalendergestaltung können ebenfalls nicht ausgeschlossen werden. Die für den römischen Kalender zweifelsfrei unhistorisch-römische Tradition wies dessen Einführung Roms legendärem Stadtgründer Romulus zu. Frühe Kalenderreformen. Schon um das Jahr 713 v. Chr. soll gemäß Überlieferung der römische Kalender durch Numa Pompilius, den legendären zweiten der sieben Könige Roms, reformiert worden sein. Da es keine zeitgenössischen Quellen gibt und die spätere Überlieferung stark ausgeschmückt ist, lässt sich nicht erkennen, ob es diesen König überhaupt gegeben hat. Die Darstellungen, die auf literarischen Schilderungen wie denen des Titus Livius oder Plutarchs beruhen, sind zu großen Teilen legendär und nicht historisch. Viele Einzelheiten sollten ätiologisch spätere Verhältnisse erklären. Es gilt zudem als wahrscheinlicher, dass der fünfte König, Lucius Tarquinius Priscus, für diese Reform verantwortlich war. Censorinus berichtet, dass der zunächst auf einem 354-tägigen Mondjahr basierende zwölfmonatige römische Kalender gegenüber dem Sonnenjahr eine Differenz von etwa elf Tagen auswies und gemäß Überlieferung spätestens mit Beginn der um 450 v. Chr. in Rom entstandenen Sammlung der Zwölftafelgesetze – zwölf hölzerne Tafeln auf dem Forum Romanum – von einem für die Kalenderänderung zuständigen Ausschuss modifiziert worden sein soll. Struktur des römischen Kalenders. Sonnenfinsternis vom 14. März 190 v. Chr. Die früheste zeitgenössische Erwähnung ist unter Konsul Marcus Fulvius Nobilior um 189 v. Chr. belegt. Nobilior gab an, dass der römische Kalender mit dem romuleischen Jahr zunächst nur zehn Monate beinhaltete. Marcus Terentius Varro (um 116 v. Chr.) stützte sich auf die „zehnmonatige Überlieferung“, wobei er den Monatsnamen Ianuarius auf den Gott Ianus zurückführte. Dagegen steht die Aussage vom Tribun Gaius Licinius Macer (um 73 v. Chr.), der berichtet, dass der römische Kalender von jeher zwölf Monate umfasste. Gaius Suetonius Tranquillus berief sich im ersten Jahrhundert n. Chr. in seinen Werken wiederum auf andere überlieferte Quellen, die von „zehn Monaten im ersten römischen Kalender“ berichten. Censorinus entschied sich in seinen Schriften für die „zehnmonatige Überlieferung“, obwohl er selbst ursprünglich von einem zwölfmonatigen numanischen Lunarkalender ausging. Es ist daher unsicher, ob es die „zehn Monate“ in der ältesten Form des römischen Kalenders gegeben hatte und welchen Zeitraum sie umfassten. Eine Kenntnis über die genaue Länge eines Sonnenjahres ist für die Frühzeit des römischen Reiches bis heute unbelegt. Titus Livius vermerkte für die Zeit kurz nach dem zweiten punischen Krieg eine Sonnenfinsternis für den 11. Quintilis 190 v. Chr., die nach dem System des späteren julianischen Kalenders jedoch am 14. März stattfand. Der Frühlingspunkt fiel in diesem Jahr auf den 21. Quintilis. In dieser Epoche lag die Differenz zwischen den römischen Kalenderangaben und dem tatsächlichen Ereignis somit bei etwa vier Monaten. Mondfinsternis vom 21. Juni 168 v. Chr. Im Jahr 168 v. Chr. fiel eine von Sulpicius Galus vorher angekündigte Mondfinsternis auf den 3. September des römischen Kalenders, was dem 21. Juni im julianischen Kalendersystem entspricht; der Frühlingspunkt lag in diesem Jahr auf dem 3. Iunius. Der Abstand zwischen der Angabe im römischen Kalender und dem Datum des tatsächlichen Ereignisses hatte sich im Vergleich von 190 v. Chr. auf nunmehr etwa zweieinhalb Monate reduziert. Vor diesem Hintergrund können sich die „zehn Monate“ auch auf zehn Zeitabschnitte eines Naturjahres bezogen haben, welches durch Wiederkehr bestimmter Auffälligkeiten in die jeweiligen zehn Jahresperioden unterteilt war. In diesem Zusammenhang besteht die Möglichkeit, dass spätere Autoren die zehn Zeitabschnitte als „zehn Monate“ übersetzt hatten. Ob im weiteren Verlauf eine Einführung eines auf zwölf Monate erweiterten Kalenders stattfand oder die bereits verwendeten zwölf Monate anders verteilt wurden, bleibt daher unklar. Der nach Julius Caesar benannte julianische Kalender löste 45 v. Chr. den römischen Kalender ab. Aus dem römischen Kalender leiten sich die religiösen Festtage Kalenden, Nonen, Iden und Terminalien her. Auch in vielen anderen Kulturen ist die Frühlingsgleiche der Jahresbeginn, beispielsweise das "Pessachfest" des jüdischen Kalenders, das nicht Jahresbeginn ist, nur Beginn der Monatsnummerierung. Das "Osterdatum" bezieht sich ebenso auf die Frühlingsgleiche beziehungsweise der Stellung des Mondes dazu. Jahreszählung. In der Frühzeit der Römischen Republik wurden die Jahre nicht gezählt, sondern nach den regierenden Konsuln benannt. Seit dem 4. vorchristlichen Jahrhundert war eine Zählung ab der Einweihung des Jupitertempels im Jahre 507 v. Chr. üblich. Erst später wurden die Jahre „von der Gründung der Stadt Rom an“ (lat. "ab urbe condita", a. u. c.) im Jahre 753 v. Chr. gezählt. Im Römischen Kaiserreich wurden die Jahre zusätzlich noch per Anno Diocletiani (A. D.) gezählt, d. h. ab der Regierungsübernahme durch Kaiser Diokletian im Jahr 284; diese Abkürzung ist nicht identisch mit dem seit 525 n. Chr. gebräuchlichen Anno Domini (auch A. D.), und darf nicht verwechselt werden. Des Weiteren ist a. d. die Abkürzung für "ante diem", „Tage vor“. Erste lunisolare Tetraeteris. Der genaue Zeitraum der Einführung der ersten lunisolaren Schaltregel ist in keiner zeitgenössischen Quelle belegt. Censorinus, Varro und Macrobius erwähnen in ihren Überlieferungen den vierjährigen Schaltzyklus (griechisch Tetraeteris) von 1465 Tagen, als er bereits bei Einführung der Zwölftafelgesetze fest verankert war. Die neu eingerichtete lunisolare Tetraeteris sah vor, dass im zweiten Jahr der Vierjahresperiode 22 Tage und im vierten Jahr 23 Tage als Schaltmonat eingebaut werden sollten. Daraus ergaben sich die jeweiligen Jahreslängen von 355, 377, 355 und 378 Tagen. Die zusätzlichen Schaltmonate wurden mit Februarius verbunden und zwischen die Feste der Terminalia (23. Februarius) und des Regifugiums (24. Februarius) gesetzt. In der Praxis bedeutete dies, dass der normale Monat Februarius nach dem Terminalia-Fest abgebrochen wurde und sofort danach die jeweiligen Schaltmonate von 22 oder 23 Tagen begannen. An die Schaltmonate schlossen unmittelbar die Festlichkeiten des Regifugiums und die restlichen Tage des Februarius an, weshalb die Schaltmonate so eine tatsächliche Dauer von 27 oder 28 Tagen hatten. Gegenüber vier Sonnenjahren war der Vierjahreszyklus jedoch etwa vier Tage zu lang. Der römische Kalender verschob sich aufgrund seiner Überlänge zunächst alle vier Jahre etwa um vier Tage und wanderte bei Nichtberücksichtigung einer weiteren Schaltung im Verlauf langsam durch die Jahreszeiten. Zweiter Schaltzyklus im dritten Octennium. Nach 24 Jahren (dreifaches Octennium; lateinisch: "tertio quoque octennio") bestand nach den Ausführungen von Macrobius die Möglichkeit einer weiteren Schaltung. Dazu wurde im Verlauf der sechsten lunisolaren Tetraeteris der erste Schaltmonat von 22 Tagen um einen Tag reduziert, der 23-tägige Schaltmonat im vierten Jahr entfiel ersatzlos. In der Gesamtrechnung konnten so die planmäßigen Schaltmonate um 24 Tage gekürzt werden. Die vier jeweiligen Jahreslängen betrugen in diesem Schaltzyklus 355, 376, 355 und 355 Tage, mithin insgesamt 1441 Tage. Der 24-jährige Zeitraum umfasste somit 8766 Kalendertage, was durchschnittlich der späteren julianischen Jahreslänge von 365,25 Tagen entsprach. Monatsgrößen. Der Jahresbeginn, ursprünglich am 1. März, wurde seit dem Jahre 153 v. Chr. auf den 1. Januar verschoben. Damit verloren auch die "Zählmonate" (Quintilis lat. „der fünfte“, Sextilis lat. „der sechste“, September, lat. „der siebte“, Oktober, „der achte“, November, „der neunte“, Dezember, „der zehnte“) ihre namensgebenden Positionen. Wochen: der Nundinalzyklus. Die Römische Republik verwendete (wie auch die Etrusker) nicht die siebentägige Woche, sondern eine achttägige Woche, die „Marktwoche“. Der lateinische Begriff "Nundĭnae" (neuntägig) bezeichnete sowohl die Art dieses Wochenrhythmus als auch den darin eingebetteten Markttag selbst. Die verwirrende Bezeichnung "neuntägig" bei einer Länge von eigentlich nur acht Tagen ergibt sich aus der im alten Rom üblichen Zählung, bei der die beiden Markttage mit in die Zählung einbezogen wurden. Zwischen den einzelnen Marktagen (Nundinales dies) lagen also nur sieben Tage. Dieser Marktrhythmus wird auch "Nundinalzyklus" genannt. Die Tage einer Marktwoche wurden im Kalender fortlaufend, beginnend mit dem 1. Januar, mit den Buchstaben „A“ bis „H“ gekennzeichnet "(Nundinalbuchstaben)". Da die Jahreslänge kein Vielfaches von 8 Tagen ist, wechselte der Buchstabe für den Markttag jedes Jahr. Wenn zum Beispiel der Buchstabe für die Markttage in einem Jahr „A“ war und das Jahr 355 Tage lang war, dann wechselte der Buchstabe im nächsten Jahr auf „F“, so dass sich der Rhythmus beim Jahreswechsel nicht änderte. Der Nundinalzyklus bildete einen grundlegenden Rhythmus des römischen täglichen Lebens. Der Markttag war der Tag, an dem die Menschen vom Land in die Stadt kamen, und der Tag, an dem die Stadtbewohner ihre Lebensmittelgeschäfte für die nächsten 8 Tage tätigten. Deshalb wurde im Jahr 287 v. Chr. ein Gesetz erlassen (die Lex Hortensia), das die Abhaltung von Komitien (Volksversammlungen) an Markttagen verbot, Gerichtsversammlungen jedoch erlaubte. In der späten Republik entstand der Aberglaube, dass es Unglück brächte, das Jahr mit einem Markttag anzufangen (d. h. wenn der Markttag auf den 1. Januar mit dem Nundinalbuchstaben „A“ fiel), und die Pontifices, die in jedem Jahr die Nundinalbuchstaben bestimmten, unternahmen Schritte, um dies zu vermeiden. Weil in der Römischen Republik der Nundinalzyklus mit seiner Länge von 8 Tagen absolut feststand, ist die Information über die Daten der Markttage eines der wichtigsten Hilfsmittel, um heute das dem vorjulianischen römischen Datum entsprechende Julianische Datum zu bestimmen. Im frühen Reich wurde der römische Markttag gelegentlich geändert. Die Details darüber sind unklar, eine wahrscheinliche Erklärung besteht darin, dass er um einen Tag verschoben wurde, wenn er auf denselben Tag wie das Fest Regifugium (24. Februar) fiel, ein Ereignis, das in jedem Julianischen Schaltjahr vorkommen konnte. Wenn das zufällig der Markttag war, wurde er auf den nächsten Tag verschoben, der der Schalttag war. Der Nundinalzyklus wurde schließlich durch die ältere siebentägige Woche ersetzt. Sie setzte sich während der frühen Reichsperiode durch, nachdem der Julianische Kalender in Kraft getreten war. Das System der Nundinalbuchstaben wurde dabei an die neue Wochenlänge angepasst, so dass daraus die Sonntagsbuchstaben entstanden. Eine Zeit lang existierten die siebentägige Woche und der Nundinalzyklus nebeneinander. Als jedoch im Jahr 321 die christliche Woche mit dem Sonntag als offiziellem Ruhetag von Konstantin dem Großen offiziell eingeführt wurde, entfiel der Gebrauch des Nundinalzyklus. Tage im Monat. Der römische Kalender kannte keine „durchlaufende“ Woche, wie sie heute üblich ist. Ebenso wurden die Tage im Monat nicht fortlaufend gezählt. Allerdings gab es in der Zeit der römischen Republik eine durchlaufende Zählung von A bis H, dann wieder bei A beginnend, die jeweils am 1. Januar begann und durch das ganze Jahr verfolgt wurde, um so eine gewisse Konsistenz zu haben. Zudem hatte jeder Tag einen bestimmten Tagescharakter, der die offiziellen Aktivitäten insbesondere der Magistraten regelte. So ist die vollständige Bezeichnung des 1. Januars „"A Kal.Ian.F"“. Der „neunte Tag nach den Iden“ wurde nach der Kalenderreform von anderen Ereignissen namentlich teilweise überdeckt, behielt jedoch hinsichtlich seiner Bedeutung weiterhin Gültigkeit. In den Monaten März, Mai, Juli und Oktober waren die "Nonae" am siebten Monatstag und die "Iden" am 15. Tag. Alle anderen Monate hatten die "Nonae" am fünften und die "Iden" am 13. Tag. Die ursprüngliche Entsprechung dieser Tage mit speziellen Mondphasen ("Kalendae" am Neumond, "Nonae" am zunehmenden Halbmond, "Iden" am Vollmond, "Terminaliae" am abnehmenden Halbmond) ging schnell verloren. Die "Iden" sind von den „Iden des März“, an denen Julius Caesar ermordet wurde, bekannt. Bei der römischen Zählweise unterschieden sich demnach die Monate zu 29 von denen zu 31 Tagen nur durch die Anzahl der Tage von den Kalenden bis zu den Nonen; die weitere Zählung war – abgesehen von der im Februar – gleich und relativ einfach. Komplizierter wurde sie allerdings durch Caesars Kalenderreform, da die Nonen und Iden der bisherigen 29-Tage-Monate und des Februars, vorwärts gezählt, an ihren alten Positionen verblieben, statt entsprechend der neuen Monatslänge (30 oder 31 Tage, Februar 29/30 Tage) verschoben zu werden. Daten, die vor den Nonen liegen, werden in normalen Monaten von 5 + 1 abgezogen, in den Monaten März, Mai, Juli und Oktober (MOMJUL) von 7 + 1 abgezogen, da ja die Nonen auf den 5. oder 7. eines Monats fallen können. Daten, die vor den Iden liegen, werden von 13 + 1 abgezogen, in den Monaten März, Mai, Juli und Oktober (MOMJUL) von 15 + 1, da eben die Iden auf den 13. oder 15. fallen können. Daten vor den Kalenden (1. jedes Monats) werden von der um 2 vermehrten Tageszahl unseres Monats abgezogen. Beispiel: Unser 21. April ist nach römischer Rechnung: 30 Tage des April + 2 = 32 Tage − 21 = 11 Tage vor den Kalenden des Mai. Einzelnachweise. ! Reisbohne. Die Reisbohne ("Vigna umbellata") ist eine Pflanzenart aus der Unterfamilie Schmetterlingsblütler (Faboideae) innerhalb der Familie der Hülsenfrüchtler (Fabaceae oder Leguminosae). Diese weltweit gesehen unbedeutende Nutzpflanze ist nahe verwandt zu einer Reihe anderer „Bohnen“ genannter Feldfrüchte. Der deutsche Trivialname ist eine Übersetzungen des englischen („Rice Bean“), wodurch die dem Reis ähnliche Zubereitungsweise ausdrückt wird. Vorkommen. Die Wildform der Reisbohne tritt vom zentralen China bis Südostasien, südlich vom Himalaja bis Malaysia auf. Im gleichen Gebiet wurden traditionell auch die Kulturformen angebaut. Heute wird sie auch auf vielen tropischen Inseln des Pazifik sowie in Afrika genutzt. Die Niederschläge können zwischen 700 und 1700 mm liegen. Beschreibung. Die Reisbohne ist eine sehr schnell wachsende und sehr früh reifende, einjährige krautige Pflanze. Sie wächst aufrecht bis leicht hängend und erreicht Wuchshöhen von etwa 30 bis 70 cm oder stärker wachsende Sorten mit windenden oder liegenden Stängeln, die bis zu 3 Metern lang werden können. Die Stängel besitzen steife, kurze weiße Haare (Trichome). Die Laubblätter besitzen meist 2 bis 15, selten bis zu 37 cm langen Stiele und dreiteilige Blattspreiten. Die lang-ovalen bis lanzettlichen Teilblätter sind 5 bis 10 cm lang und 2,5 bis 6 cm breit. Die Blattränder sind meist glatt oder die seitlichen Teilblätter können auch leicht dreigelappt sein. Die Nebenblätter sind 8 bis 12 mm groß. Die achselständig auf 5 bis 20 cm langen Stielen stehenden traubigen Blütenstände enthalten, jeweils zu zweit bis dritt auf einem Nodium zusammengefasst insgesamt fünf bis 20 Blüten. Die Tragblätter sind etwa 2,5 bis 3,0 mm lang und die Deckblätter an der Basis der Kelchblätter sind 3 bis 3,5 mm lang. Die zwittrigen Blüten sind zygomorph. Der flaumig behaarte Kelch ist etwa 4 mm lang mit fünf etwa 2 mm langen Kelchzähnen. Die fünf Kronblätter sind (hell)gelb. Die gebogene Fahne ist 9 bis 12 mm groß. Es erfolgt meist Selbstbefruchtung. Die langen, schlanken, unbehaarten Hülsenfrüchte weisen eine Länge von 6 bis 12 cm und einen Durchmesser von etwa 0,5 cm auf. Die reifen Hülsenfrüchte platzen leicht auf. Jede Hülsenfrucht enthält meist sechs bis acht, höchstens zwölf Samen. Die länglich rechteckigen, mit typischen Abrundungen an den Ecken, Samen sind etwa 5 bis 10 mm lang und 2 bis 5 mm dick. Das Tausendkorngewicht schwankt zwischen meist 30 und 120 höchstens bis 230 Gramm. Die Farbe der Bohnensamen variiert zwischen gelb, leuchtend rotbraun und schwarz, auch gesprenkelte Formen mit konkav länglichem, weißem Nabel gibt es und in Indien kommen vereinzelt auch grüne und grüngefleckte Samen vor. Nutzung. Temperaturen um 30 °C, gute Wasserversorgung und lehmiger Boden bieten die besten Voraussetzungen für schnelles Wachstum und Reife; die Reisbohne gedeiht aber auch bei tieferen Temperaturen und kann ebenso Trockenheit überdauern. Man kann junge Sprossen, die Blätter, die frischen Hülsen, die frischen Bohnen (= Samen) und die getrockneten Bohnen als menschliche Nahrung verwenden; letztere stellen den traditionellen Verwendungszweck dar. Daneben dient die Reisbohne als Futterpflanze (frisch oder getrocknet (Heu)) und zur Gründüngung. Dabei spielt das Vorhandensein der stickstofffixierenden Wurzelknöllchen eine große Rolle. Systematik. Die Erstveröffentlichung als "Dolichos umbellatus" erfolgte 1794 in "Trans. Linn. Soc.", 2, 339 durch Carl Peter Thunberg. Der aktuell gültige Name wurde 1968 von Jisaburō Ōi & Hiroyoshi Ōhashi in "J. Jap. Bot.", 44, 31 veröffentlicht. Synonyme für "Vigna umbellata" (Thunb.) Ohwi & H.Ohashi sind: "Phaseolus calcaratus" Roxb., "Vigna calcarata" (Roxb.) Kurz, "Phaseolus pubescens" Bl., "Phaseolus ricciardus" Ten., "Dolichos umbellatus" Thunb., "Adzukia umbellata" (Thunb.) Ohwi. "Vigna umbellata" gehört zur Untergattung "Ceratotropis" in der Gattung "Vigna". Roland Freisler. Roland Freisler (* 30. Oktober 1893 in Celle; † 3. Februar 1945 in Berlin) war ein deutscher Jurist, dessen berufliche Karriere in der Weimarer Republik begann und im Verlauf der Diktatur des Nationalsozialismus zu ihrem Höhepunkt gelangte. Von August 1942 bis zu seinem Tod war er Präsident des ab 1934 bestehenden Volksgerichtshofes, des höchsten Gerichts des NS-Staates für politische Strafsachen. Freisler gilt als bekanntester und zugleich berüchtigtster Strafrichter im nationalsozialistischen Deutschland. Er war verantwortlich für etwa 2600 Todesurteile in den von ihm geführten Verhandlungen, darunter viele Schauprozesse mit von vornherein festgelegten Urteilen. Beispielhaft dafür sind der 1943 unter Freislers Vorsitz geführte Prozess gegen die Mitglieder der Widerstandsgruppe Weiße Rose, in dem er die Geschwister Hans und Sophie Scholl neben anderen zum Tode verurteilte, sowie die Prozesse gegen die Verschwörer des Hitler-Attentats vom 20. Juli 1944. Bedingt durch sein jähzorniges Auftreten und eine Prozessführung, die die Angeklagten oft erniedrigte, gilt Freisler als ein personifiziertes Beispiel für die Rechtsbeugung der Justiz im Dienst des NS-Regimes. Herkunft, Erster Weltkrieg und Kriegsgefangenschaft. Im Unterschied zu fast allen anderen prominenten Personen der nationalsozialistischen Führungselite ist über das Privatleben Roland Freislers nur wenig bekannt. Sein Vater war der aus Klantendorf (heute Kujavy), Bezirk Neutitschein in Mähren, stammende Studienrat und Diplom-Ingenieur Julius Freisler (1862–1937); seine Mutter, Florentine Schwerdtfeger (1863–1932), stammte aus Celle. Die Freislers hatten noch einen zweiten, 1895 geborenen Sohn namens Oswald. Roland Freisler besuchte das Wilhelmsgymnasium in Kassel bis zum Abitur im Jahr 1912. 1912 begann Freisler in Jena ein Jurastudium, unterbrach dieses aber nach Ausbruch des Ersten Weltkriegs, um sich als Kriegsfreiwilliger zu melden. In Jena war Freisler zeitweiliges Mitglied der Studentenverbindung SBV! Alemannia Jena im Schwarzburgbund. Aus ihr wurde er ausgeschlossen, nachdem ein Alter Herr und Freisler versucht hatten, die Alemannia in eine Studentenverbindung des Wingolfs umzuwandeln. 1915 geriet er an der Ostfront in russische Kriegsgefangenschaft. Den Rest des Kriegs war er in einem Offizierslager in der Nähe von Moskau interniert. Nach der Oktoberrevolution und dem Frieden von Brest-Litowsk wurden die Lager einer deutschen Selbstverwaltung übergeben. Freisler wurde zu einem der Lagerkommandanten ernannt. Obwohl die Gefangenen 1918 in die Heimat entlassen wurden, blieb Freisler noch zwei Jahre länger in Sowjetrussland. Warum er erst so spät nach Deutschland zurückkam und was er in den zwei Jahren in der Sowjetunion machte, ist nicht bekannt. Es gab Gerüchte, dass er die russische Sprache erlernt habe und in dieser Zeit Anhänger des Bolschewismus gewesen sei. Rückkehr nach Deutschland, Promotion und Zeit als Rechtsanwalt. 1920 kehrte er nach Deutschland zurück und wurde 1922 an der Universität Jena in Jura nach Vorlage einer Dissertation zum Thema „Grundsätzliches über die Betriebsorganisation“ promoviert. 1924 war er für ein halbes Jahr Gerichtsassessor am Homberger Amtsgericht. Freisler eröffnete 1924 eine Anwaltskanzlei in Kassel und vertrat als Verteidiger straffällig gewordene Angehörige der NSDAP, der er 1925 beigetreten war. Als Stadtverordneter lieferte er sich Rededuelle mit linken Stadtverordneten. Am 24. März 1928 heiratete Freisler Marion Russegger. Sie hatten zwei Söhne, Harald und Roland. Beginn der politischen Karriere. 1931 war er zusammen mit Hans Frank Verteidiger im Verfahren gegen die Rädelsführer des Kurfürstendamm-Krawalls von 1931, SA-Führer Wolf-Heinrich von Helldorff und seinen Stabschef Karl Ernst. Nach der Machtergreifung ging seine Karriere im März 1933 steil nach oben. Freisler war ab 1933 Mitglied des Reichstages und wurde Ministerialdirektor im preußischen Justizministerium und Leiter der Personalabteilung, wenige Monate später dann Staatssekretär und Preußischer Staatsrat. Als das preußische Justizministerium im Reichsministerium der Justiz aufging, wurde Freisler als Staatssekretär übernommen. In seiner Tätigkeit in Justizbehörden missachtete Freisler im Einklang mit der Justizpolitik der NSDAP zentrale Grundsätze des Rechtsstaats, beispielsweise im Jahr 1938 im Rahmen eines Strafprozesses das Prinzip „nulla poena sine lege“ („Keine Strafe ohne Gesetz“). Nach diesem Grundpfeiler jeder rechtsstaatlichen Ordnung darf niemand aufgrund einer Gesetzeslage abgeurteilt werden, die es zur Tatzeit noch nicht gegeben hat. Zwei Brüder, Walter und Max Götze, hatten zwischen 1934 und 1938 durch eine Überfallserie mittels Autofallen Berlin und Umgebung unsicher gemacht. Dabei war es auch zu zwei Morden gekommen, die nachweislich nur Walter Götze begangen hatte. Somit wäre Max Götze nach geltender Gesetzeslage mit einer langjährigen Zuchthausstrafe davongekommen. Freisler informierte Hitler darüber, der verlangte, in diesem Fall die Todesstrafe zu verhängen. Daraufhin sorgte Freisler zusammen mit dem Reichsjustizminister in aller Eile dafür, dass ein passendes Gesetz in zwei Tagen durchgebracht und im "Reichsgesetzblatt" vom 23. Juni 1938 mit Wirkung vom 1. Januar 1936 veröffentlicht wurde. Am 24. Juni wurde daher auch Max Götze aufgrund dieses Gesetzes in neun Fällen zum Tode verurteilt. Freisler war an der Entwicklung eines neuen nationalsozialistischen Strafrechtes an führender Stelle beteiligt. In diesem Zusammenhang wurde er auch Leiter der Abteilung Strafrecht in der Akademie für Deutsches Recht, die ein neues Volksgesetzbuch im nationalsozialistischen Sinne herausgeben wollte. An der nationalsozialistischen Strafrechtsreform, insbesondere der Formulierung der Tatbestände der Tötungsdelikte entsprechend der Tätertypenlehre (Gesetz zur Änderung des Reichsstrafgesetzbuches vom 4. September 1941 – RGBl. I 1941, S. 549), hatte er maßgeblichen Anteil. Er verblieb bis zu seiner Berufung zum Volksgerichtshof 1942 im Reichsjustizministerium und vertrat es u. a. in der Funktion als Staatssekretär bei der Wannseekonferenz. Ernennung zum Präsidenten des Volksgerichtshofs. Am 20. August 1942 wurde Freisler von Adolf Hitler als Nachfolger Otto Thieracks, der zum Reichsjustizminister befördert worden war, zum Präsidenten des Volksgerichtshofs ernannt. Der Volksgerichtshof war 1934 zur Verhandlung von Hochverrats- und Landesverratssachen errichtet worden. Später wurde die Zuständigkeit auf andere Staatsschutzdelikte erweitert. Unter Freisler stieg die Anzahl der Todesurteile stark an: Ungefähr 90 Prozent aller Verfahren endeten mit einer oft bereits vor Prozessbeginn feststehenden Todesstrafe oder mit lebenslanger Haftstrafe. Zwischen 1942 und 1945 wurden mehr als 5000 Todesurteile gefällt, davon über 2600 durch den von Freisler geführten Ersten Senat des Gerichts. Damit war Freisler in den drei Jahren seines Wirkens am Volksgerichtshof für ebenso viele Todesurteile verantwortlich wie alle anderen Senate des Gerichts zusammen in der gesamten Zeit des Bestehens des Gerichts von 1934 bis 1945. Daher haftete ihm schon bald der Ruf eines „Blutrichters“ an, als Hitler nach dem Attentat vom 20. Juli 1944 entschied, dass die an der Verschwörung Beteiligten vor den Volksgerichtshof gestellt werden sollten. Hitler ging es dabei auch darum, den Verschwörern „keine Zeit zu langen Reden“ zu lassen. „Aber der Freisler wird das schon machen. Das ist unser Wyschinski“ – ein Hinweis auf Stalins berüchtigten Chefankläger in den Moskauer Prozessen, den Schauprozessen der Stalinschen Säuberungen in den Jahren 1936 bis 1938. Trotzdem stellte Freisler keine Ausnahme von Hitlers Abneigung gegenüber Juristen dar. So wurde er von Hitler bei dessen Tischmonologen im Führerhauptquartier als Bolschewik bezeichnet. Grundsätzliche Vorgehensweise. a>es und dessen Umfeld nach dem Hitler-Attentat vom 20. Juli 1944 In allen Prozessen des Volksgerichtshofs zeigte Freisler eine ausgeprägte Voreingenommenheit im Sinne des NS-Staates und dessen Ideologie. Seine Prozessführung lag jenseits der Prozessordnung und des Verhaltenscodex für Richter und stellte dementsprechend eine schwere Form der "Rechtsbeugung" dar. Als fanatischer Nationalsozialist wollte er so urteilen, „wie der Führer selbst den Fall beurteilen würde“. Der hatte u. a. gesagt: „Jeder soll wissen, wenn er die Hand zum Schlag erhebt, der sichere Tod sein Los ist.“ Freislers lautstarke Entgleisungen machten es für Tontechniker schwierig, Antworten von Angeklagten aufzunehmen: Er schrie in Verhandlungen mitunter derart, dass die Empfindlichkeit der Mikrofone auf ein entsprechend geringeres Niveau eingestellt werden musste. Der Volksgerichtshof war für Freisler ausdrücklich ein „politisches Gericht“. In den Verhandlungen erniedrigte er die Angeklagten, er hörte ihnen kaum ruhig zu und unterbrach sie. Außerdem brüllte er sie an und führte den Prozess besonders unsachlich. Diese bewusste und gezielte Demütigung der Angeklagten geschah sowohl auf verbale Weise durch Freisler selbst als auch in nonverbaler Art durch die Umstände vor und während der Verhandlungen; so wurden z. B. einigen Angeklagten Hosenträger und Gürtel abgenommen. Da sie als Angeklagte vor dem Gericht stehen mussten, waren sie gezwungen, ständig ihre Hosen festzuhalten. Freislers reisender Volksgerichtshof arbeitete auch in Österreich, das 1938 von NS-Deutschland annektiert worden war. In den Jahren 1943/1945 verurteilte Freisler in drei Prozessen 31 slowenische und kommunistische Widerstandskämpfer zum Tode. Umgang mit Angeklagten der „Weißen Rose“. Freisler leitete den Schauprozess gegen die Mitglieder der Widerstandsgruppe Weiße Rose im Februar 1943, zu dem die Mitglieder des Ersten Senats eigens von Berlin nach München geflogen wurden. Im zweiten Prozess gegen Mitglieder der Weißen Rose (April 1943) schrie er gleich zur Eröffnung den Angeklagten entgegen, dass der Nationalsozialismus gegen solche „Verräter“ überhaupt kein Strafgesetzbuch benötige. Er werde „ganz ohne Recht“ kurzen Prozess machen. Freisler korrigierte sich und verbesserte: „ganz ohne Gesetz“. Als ihm ein Beisitzer dennoch wortlos das Strafgesetzbuch hinüberreichte, schleuderte er es augenblicklich in Richtung der Anklagebank, wo sich Angeklagte duckten, um nicht am Kopf getroffen zu werden. Umgang mit Graf Schwanenfeld. Ulrich-Wilhelm Graf von Schwerin von Schwanenfeld vor dem Volksgerichtshof, 1944 Freisler: "„Sie müssen mit dem Polenfeldzug ein besonderes Erlebnis gehabt haben. Sind Sie nicht auch gerade eingesetzt gewesen in Westpreußen?“" Freisler: "„Sie haben also Ihre eigene Heimat als Soldat unseres Führers befreien dürfen.“" Graf Schwerin: "„Herr Präsident, was ich an politischen Erfahrungen persönlich gemacht habe, hat für mich mancherlei Schwierigkeiten in der Folge gehabt, weil ich ja sehr lange für das Deutschtum in Polen gearbeitet habe und aus dieser Zeit heraus ein vielfaches Hin und Her in der Einstellung den Polen gegenüber praktisch erlebt habe. Das ist eine...“" Freisler: "„Jedenfalls ist das Hin und Her etwas, was Sie dem Nationalsozialismus zur Last legen können?“ Graf Schwerin: "„Ich dachte an die vielen Morde...“" Graf Schwerin: "„Die im In- und im Ausland...“" Freisler: "„Sie sind ja ein schäbiger Lump! Zerbrechen Sie unter der Gemeinheit? Ja oder nein, zerbrechen Sie darunter?“" Freisler: "„Ja oder nein, auf eine klare Antwort!“" Freisler: "„Sie können auch gar nicht mehr zerbrechen, Sie sind ja nur noch ein Häufchen Elend, das vor sich keine Achtung mehr hat.“" Graf Schwerin von Schwanenfeld, der einleitend von Freisler auch absichtlich falsch mit „Schwaneburg“ angeredet worden war, ist einer von ca. 200 Menschen, die im Zusammenhang mit der Verschwörung des 20. Juli angeklagt und hingerichtet bzw. in den Freitod getrieben wurden. Umgang mit Erwin von Witzleben. Dem 62-jährigen General Erwin von Witzleben, der nicht nur in den Tagen seiner Haft abgemagert war, sondern dem durch die Gestapo auch die Hosenträger weggenommen worden waren, schleuderte Freisler entgegen: „Was fassen Sie sich dauernd an die Hose, Sie schmutziger, alter Mann?“ Reaktionen von Angeklagten auf Freisler. Der Prozess gegen die Verschwörer des 20. Juli begann am 7. August 1944 und wurde in wichtigen Teilen täglich von Kameraleuten der NS-Wochenschau gefilmt. Die Aufnahmen liegen dem Film „Verräter vor dem Volksgerichtshof“ zugrunde, der in deutschen Kinos gezeigt werden sollte. Neben den Prozessmitschriften ist auch aus diesen Filmdokumenten zu erkennen, dass es Freisler mehrfach mit ungebrochenen Angeklagten zu tun hatte, die ihre Würde nie verloren haben. Dies erweist sich besonders an der Entscheidung von Propagandaminister Joseph Goebbels, aus diesem Grund den Film doch nicht in den Kinos zu zeigen. Die wohl deutlichsten Worte, welche sich Freisler im August 1944 noch im Gerichtssaal des Berliner Kammergerichtes hat anhören müssen, stammen aus dem Mund von Caesar von Hofacker und Erwin von Witzleben. Hofacker, der als führende Gestalt des Widerstandes in Frankreich galt, unterbrach Freisler, nachdem ihn dieser mehrfach unterbrochen hatte: „Sie schweigen jetzt, Herr Freisler! Denn heute geht es um meinen Kopf. In einem Jahr geht es um Ihren Kopf!“ Und die Schlussworte, die General Witzleben an Freisler richtete, sollen gewesen sein: „Sie können uns dem Henker überantworten. In drei Monaten zieht das empörte und gequälte Volk Sie zur Rechenschaft und schleift Sie bei lebendigem Leib durch den Kot der Straßen.“ Tod. Freisler kam bei dem schweren US-Luftangriff auf Berlin vom 3. Februar 1945 ums Leben, als er auf dem Weg in den Luftschutzkeller des Volksgerichtshofs in der Bellevuestraße 15 von einem Bombensplitter getroffen wurde. Dagegen steht die autobiografische Darstellung durch den späteren Richter am Bundesverfassungsgericht Fabian von Schlabrendorff, Freisler sei in seinem Beisein durch einen herabstürzenden Balken im Schutzraum erschlagen worden, in Widerspruch zu Darstellungen in der historischen Fachliteratur, wenn sie auch lange Zeit weiter wiederholt wurde. Bei seinem Tod hielt Freisler noch die Akte von Schlabrendorffs in der Hand. Ein von der Straße herbeigerufener Arzt stellte nur noch seinen Tod fest; es war der Bruder Rüdiger Schleichers, den Freisler am Tag zuvor zum Tode verurteilt hatte. Freislers Tod rettete unter anderem von Schlabrendorff das Leben. Roland Freisler ist, ebenso wie seine 1997 verstorbene Frau, auf dem Berliner Waldfriedhof Dahlem im Grab seiner Schwiegereltern beigesetzt. Der Name Freisler ist auf dem Grabstein nicht genannt. Der Umgang der Bundesrepublik mit dem Nachlass Freislers. 1958 wurde von einer Spruchkammer in Berlin eine Sühnegeldstrafe von 100.000 D-Mark über den Nachlass Freislers verhängt. Sie wurde mit der früheren Beschlagnahme zweier Grundstücke verrechnet. Die Witwe Marion Freisler hatte gegen diese Entscheidung Einspruch erhoben, weil die Grundstücke aus ihrer Mitgift bezahlt worden seien. In der Spruchkammerentscheidung wurde dagegen festgestellt, dass die Zahlungen für die Grundstücke mit den Gehaltszahlungen Freislers korrespondierten. Zudem stellte sich heraus, dass die Witwe bei der Eheschließung mittellos gewesen war. 1985 wurde bekannt, dass Marion Freisler eine Kriegsopferfürsorge-Rente nach dem Bundesversorgungsgesetz und ab 1974 zusätzlich einen Berufsschadensausgleich bezog. Diese Ausgleichszahlung wurde damit begründet, dass im Falle Freisler unterstellt werden müsse, dass er, wenn er den Krieg überlebt hätte, als Rechtsanwalt oder Beamter des höheren Dienstes ein höheres Einkommen erzielt hätte. Trotz des erheblichen öffentlichen Aufsehens über diese Entscheidungen blieb es bei dieser Rentenzahlung für Frau Freisler, da die Argumentation gesetzeskonform war. Erst im Jahr 1997, nach dem Tod von Frau Freisler, wurde das Bundesversorgungsgesetz dahingehend ergänzt, dass Leistungen bei Verstößen gegen die Grundsätze der Menschlichkeit oder Rechtsstaatlichkeit versagt werden können. Schriften. Freislers Werke propagieren einen "völkischen Führerstaat" sowie rassistische Theorien und werden zur nationalsozialistischen Propaganda gezählt. Einzelnachweise. * Rumba. Die Rumba ist ein Paartanz kubanischer Herkunft, der etwa seit dem letzten Drittel des 20. Jahrhunderts in vielen Industrieländern zu den Gesellschafts- und Turniertänzen zählt. Rumba wurde vom World Dance Council zum Tanz des Jahres 2013 erklärt. Geschichte. Zu den bekanntesten Vorläufern der Rumba zählt, wie auch beim Tango, die Habanera. Sie wurde in Argentinien zur Milonga (einer Vorläuferin des Tango), während sie in Kuba den Bolero beeinflusste, der mit den auf der Son-Clave basierenden Guarachas und Guajiras das Repertoire der alten kubanischen Trova ausmachte. Miguel Matamoros schuf in den 1920er Jahren den langsameren, ebenfalls auf der Son-Clave beruhenden "Bolero-Son" und damit die musikalische Grundlage der Rumba. Eine Verwandtschaft mit der afrokubanischen Rumba ist nicht anzunehmen. Das Wort „Rumba“ steht im Spanischen der Karibik auch allgemein für ein nächtliches Fest oder gemeinsames Musizieren. Als Modetanz kam die Rumba um 1930 in New York auf, als Don Azpiazús Version von "El manisero" zum Hit wurde. Rhythmisch vereinfacht gelangte sie Anfang der 1930er Jahre auch nach Europa. Die Nationalsozialisten verboten die Rumba als entartete Kunst, aber auch in anderen Ländern ließ das Interesse nach. Nach dem Zweiten Weltkrieg wurde die Rumba wiederentdeckt, allerdings in zwei vollkommen unterschiedlichen Variationen. Zum einen die amerikanisch beeinflusste "Square-" oder "Carrée-Rumba", zum anderen die vom in England lebenden Franzosen Pierre Lavelle propagierte "„Rumba im kubanischen Stil“". Dies führte in den Jahren 1956 bis 1958 und 1961 bis 1963 zu heftigen Auseinandersetzungen zwischen England und Frankreich, den sogenannten „Rumbakriegen“, bei denen beide Schulen „ihre“ Rumba international etablieren wollten. Man einigte sich schließlich darauf, beide Varianten zuzulassen. So wurden die langsame Rumba unter dem Namen "Square-Rumba" in das Welttanzprogramm und die schwierigere "Kubanische Rumba" 1964 ins Turniertanzprogramm aufgenommen. Im internationalen Tanzsport hat sich mittlerweile der „kubanische Stil“ durchgesetzt (die Bezeichnung sollte nicht darüber hinwegtäuschen, dass es sich auch hier um eine stark europäisierte Form handelt, die sich vom kubanischen, dort "Son" oder "Bolero Son" genannten Vorbild in ihrer Charakteristik stark unterscheidet). Inzwischen wird die Square-Rumba in Europa kaum noch unterrichtet – bei Tanzschulanfängern in den USA ist sie jedoch meist noch weit verbreitet. Historisch abzugrenzen von der Rumba ist der Cha-Cha-Cha, der als künstlerischer Turniertanz tanztechnisch zwar zahlreiche Ähnlichkeiten zur Rumba aufzuweisen hat, aber vom Mambo abstammt. Ferner abzugrenzen von der Rumba ist die Rumba-Flamenco, die zusammen mit anderen Flamencotänzen andalusisch-maurische Ursprünge hat. Charakteristik und Musikalität. Artem Gaylit und Elizaveta Shibaeva, Weißrussland, bei der Austrian Open Championships Vienna, 2012 Die besondere künstlerische Charakteristik der Rumba liegt im Spiel zwischen Mann und Frau. In einer gut getanzten Rumba wird intensiv umeinander geworben; im künstlerischen Kontrast dazu werden beide Partner ab und zu fahnenflüchtig und müssen vom anderen zur Rückkehr gelockt werden. Im Vordergrund steht die nonverbale Kommunikation zwischen Mann und Frau. Im Idealfall fühlt sich das Publikum dazu eingeladen, an dieser Kommunikation teilzuhaben, und nimmt am spannenden Flirt zwischen den Tänzern Anteil. Die Herabsetzung des Tempos in den letzten Jahren – aktuell werden auf Turnieren 23 bis 28 Viervierteltakte pro Minute getanzt – hat dazu geführt, dass die Tänzer Details der Musik in ihren Tanz einbeziehen können. Die Musik gibt diese Details in Form komplexer Rhythmen vor, die von zahlreichen Perkussions-Instrumenten erzeugt werden. Die zwischen den Beats liegenden Percussions werden vor allem für schön ausgetanzte Körperbewegungen genutzt. Hervorzuheben sind hierbei die für Rumba so charakteristischen Hüftbewegungen sowie Verdrehungen des Körpers, bei denen sich Körperteile gegen andere Körperteile wie beim Auswringen eines Schwamms verwinden. Beides unterstützt künstlerisch den werbenden, erotischen Charakter der Rumba. Anzumerken ist, dass die Rumba zwar im Tempo herabgesetzt wurde, dass sich allerdings einige Elemente, zum Beispiel Drehungen, deutlich beschleunigt haben, um zwischen diesen Momenten blitzschneller Körperbewegung die Ruhe des Flirts zeigen zu können. Robert Musil. Robert Musil (, Familienname auf der 1. Silbe betont; * 6. November 1880 in Klagenfurt am Wörthersee; † 15. April 1942 in Genf, 1917 bis 1919 "Robert Edler von Musil") war ein österreichischer Schriftsteller und Theaterkritiker. Musils Werk umfasst Novellen, Dramen, Essays, Kritiken und zwei Romane, den Bildungsroman "Die Verwirrungen des Zöglings Törleß" und sein unvollendetes Magnum Opus "Der Mann ohne Eigenschaften". Vor 1918. Geburtshaus Robert Musils mit Gedenktafel Robert Musil war der einzige Sohn des Ingenieurs und Hochschulprofessors Alfred Musil und seiner Ehefrau Hermine Bergauer. Zwischen 1892 und 1897 besuchte Musil Schulen in verschiedenen Städten, unter anderen in Steyr, wohin sein Vater versetzt wurde. Musils letzte Ausbildungsstätte war die k.u.k. Technische Militärakademie in Wien. Er brach aber die Offizierslaufbahn ab und begann ein Maschinenbaustudium an der Deutschen Technischen Hochschule Brünn. Dort lehrte seit 1890 Musils Vater. 1901 absolvierte Musil sein Examen als Ingenieur. Im selben Jahr begann er seinen zweijährigen Wehrdienst im Infanterieregiment „Freiherr von Heß“ Nr. 49, stationiert in Brünn. Anschließend arbeitete Musil von 1902 bis 1903 als wissenschaftlicher Mitarbeiter an der Technischen Hochschule Stuttgart. Ab 1903 studierte Musil Philosophie und Psychologie an der Friedrich-Wilhelms-Universität in Berlin und schloss in dieser Zeit Freundschaft mit Alfred Kerr und Franz Blei. Unter seinen Studienkollegen waren auch die späteren Begründer der Gestalttheorie Kurt Koffka und Wolfgang Köhler. Der Einfluss gestalttheoretischen Denkens sollte in seinem gesamten literarischen Werk spürbar werden. 1906 entwickelte er den Musilschen Farbkreisel. Der Philosoph Carl Stumpf promovierte Robert Musil, der am 31. Januar 1908 seine Dissertation zum Thema "Beitrag zur Beurteilung der Lehren Machs" eingereicht hatte. Die Arbeit erhielt von Stumpf die Note "laudabile". Im Rigorosum, das am 27. Februar 1908 stattgefunden hatte, schloss sich der Philosoph Alois Riehl als Korreferent der Benotung an. Die Möglichkeit einer Habilitation, die Musil danach angeboten wurde, lehnte er zugunsten einer freiberuflichen Schriftstellerexistenz ab. 1910 zog er nach Wien und wurde Bibliothekar an der Technischen Hochschule Wien. Am 15. April 1911 heiratete Musil Martha Marcovaldi, geborene Heimann (1874–1949). Bis zum Kriegsanfang war er als Mitarbeiter bei mehreren Zeitungen tätig. 1914 druckte die "Neue Rundschau" Musils kriegsbegeisterten Essay „Europäertum, Krieg, Deutschtum“ ab. Am Ersten Weltkrieg nahm er als Reserveoffizier teil und beendete ihn im Rang eines Landsturmhauptmanns mit mehreren Auszeichnungen. Er war an der Dolomitenfront, dann an der Isonzofront stationiert. Am 22. September 1915 wurde er nahe Trient knapp von einem Fliegerpfeil verfehlt, den ein italienisches Flugzeug abgeworfen hatte. Er beschrieb diese existentielle Erfahrung in der Hauptszene seiner berühmten Erzählung "Die Amsel". 1916–1917 war Musil in Bozen Herausgeber der Tiroler "Soldaten-Zeitung", 1918 im Wiener KPQ der "Heimat". Beide waren militärische Propagandablätter der Regierung. Am 22. Oktober 1917 wurde Musils Vater mit dem erblichen Adelstitel "Edler von Musil" ausgezeichnet. Wohnhaus Robert Musils in der Rasumofskygasse 20 in Wien (1921–1938) 1918–1938. Ab 1918 etablierte sich Musil als freier Schriftsteller. Im Frühjahr 1920 lernte Musil in Berlin seinen späteren Verleger Ernst Rowohlt kennen. Ab 1921 war Musil auch Theaterkritiker. Sein 1921 vollendetes großes Schauspiel "Die Schwärmer", das ihm 1923 den Kleist-Preis einbrachte, von Kritikern aber als Lesedrama bezeichnet wurde, kam erst 1929 in einer vom Regisseur drastisch zusammengestrichenen Fassung an einer Berliner Vorstadtbühne zur Uraufführung. Musil hatte vergeblich versucht, sie zu verhindern, und deshalb auch nicht der Bitte entsprochen, eine von ihm selbst gekürzte Bühnenfassung zur Verfügung zu stellen. Sein zweites Stück, die Komödie "Vinzenz und die Freundin bedeutender Männer" war bei weitem erfolgreicher. Von 1923 bis 1928 war Musil 2. Vorsitzender des "Schutzverbandes deutscher Schriftsteller in Österreich" (neben dem 1. Vorsitzenden Hugo von Hofmannsthal). Nach dem Kleist-Preis 1923 wurden ihm 1924 der Kunstpreis der Stadt Wien und 1929 der Gerhart-Hauptmann-Preis verliehen. Ab 1931 lebte Musil wieder in Berlin. Dort gründete in dieser Zeit Curt Glaser mit Gleichgesinnten eine Musil-Gesellschaft zur finanziellen Unterstützung des Autors. 1933 erfolgte wieder ein Umzug nach Wien. 1934 wurde die Berliner Musil-Gesellschaft aufgelöst, aber in Wien neu gegründet. Hier wohnte er in der Rasumofskygasse 20 in Wien Landstraße (3. Bezirk), heute mit einem Gedenkraum. Mit 56 Jahren erlitt Musil 1936 einen Schlaganfall, von dem er sich nie mehr völlig erholte. 1938–1942. Mit dem Anschluss Österreichs 1938 an das nationalsozialistische Deutsche Reich wurde die Situation für ihn unhaltbar. Er emigrierte mit seiner Frau schließlich in die Schweiz, zuerst nach Zürich. Die Suche nach einem besseren Exilland gestaltete sich schwierig. Auf den Vorschlag von Hans Mayers, sich um ein Visum in Kolumbien zu bemühen, soll er geantwortet haben: „In Südamerika ist Stefan Zweig.“ Nachdem Musils Werke bereits nach der Machtergreifung 1933 in Deutschland verboten worden waren, durften seine Bücher nach 1938 auch in Österreich nicht mehr verkauft werden. Aus finanziellen Gründen zog das Ehepaar Musil dann nach Genf, in die Nähe von Chêne-Bougeries, Kanton Genf. Sie lebten dort in äußerst desolaten Verhältnissen. Finanzielle Unterstützung erfuhren sie durch den Genfer Pfarrer Robert Lejeune sowie das schweizerische "Hilfswerk für deutsche Gelehrte". Am 15. April 1942 starb Robert Musil an einem ischämischen Schlaganfall („Hirninfarkt“), am Chemin des Clochettes 1 in Genf. Seine Asche wurde in einem Wald bei Genf verstreut. Wirkung und Rezeption. Bekannt ist Robert Musil vor allem als Autor des unvollendeten Romans "Der Mann ohne Eigenschaften". Der Roman hatte sich von den ersten autobiografischen Entwürfen noch kurz nach dem Ersten Weltkrieg über verschiedene Romanprojekte Mitte der 1920er Jahre zu Musils Lebenswerk entwickelt, in das nach und nach sämtliche literarischen Anstrengungen eingingen. Über dieser Arbeit wurden nach dem Erfolg des Erstlingswerks "Die Verwirrungen des Zöglings Törleß" von 1906 bis 1930 Musils literarische und journalistische Publikationen immer seltener, die Produktion von Essays versiegte in dieser Zeit vollständig: Nachdem Ernst Rowohlt sich bereit erklärt hatte, Musil regelmäßige Vorschüsse auf den entstehenden Roman zu zahlen, mit denen sich ein bescheidener Lebensunterhalt bestreiten ließ, gab Musil seine journalistische Tätigkeit auf (die er als lästigen Brotberuf betrachtet hatte), literarische Veröffentlichungen kamen nur noch unter großem finanziellen Druck bzw. aus dem Bedürfnis zustande, sich dem literarischen Publikum nach Jahren in der Versenkung wieder in Erinnerung zu rufen. Der Roman wurde nach Erscheinen des ersten Teilbands 1930 von der Kritik hoch gelobt, verschaffte Musil jedoch keinen großen Publikumserfolg wie noch sein erster Roman, woran auch prominente Fürsprecher wie Thomas Mann nichts zu ändern vermochten. Die Arbeiten an der Fortsetzung waren für Musil nun zunehmend von finanziellen und arbeitsökonomischen Nöten geprägt, die ihn vom Lesepublikum noch weiter entfernten. Das Romanprojekt wuchs immer stärker in die Tiefe: Musil häufte in Entwürfen, Konzepten, Varianten und Korrekturschriften ein in seinem Nachlass etwa 6.000 Seiten umfassendes, komplexes System von Notizen an – und die Produktion publikationsfertiger Texte schritt immer langsamer voran. Auf Druck des Verlegers, der schließlich nicht mehr bereit war, Vorschüsse auf den Abschluss des Projekts zu zahlen, erschien 1932 noch eine Zwischenfortsetzung, deren Echo in der literarischen Welt aber bereits wesentlich geringer ausfiel als noch bei Publikation des ersten Teils. Eine Reihe weiterer Kapitel zog der Autor zurück, nachdem sie schon an den Verlag gegangen waren (die sog. "Druckfahnenkapitel"). In den letzten zehn Jahren seines Lebens geriet Musil fast vollständig in Vergessenheit und publizierte trotz unablässiger Arbeit am "Mann ohne Eigenschaften" keine weiteren Teile des Romans. Als er 1942 im Genfer Exil plötzlich starb, hatte er seit mehreren Wochen nur noch ein einziges Kapitel („Atemzüge eines Sommertags“) bearbeitet, das bei seinem Tod noch auf dem Schreibtisch lag. In der literarischen Beilage der Times vom 28. Okt. 1949 wird Musil als "the most important novelist writing in German in this half-century" beschrieben, der zugleich "the least known writer of the age" sei. In den 1950er Jahren besorgte Adolf Frisé eine Neuedition des Romanfragments und trug so maßgeblich zu dessen Wiederentdeckung bei. Heute gilt der Roman als eines der größten Werke der Moderne und ist als „literaturwissenschaftliches Prestigeobjekt“ Gegenstand intensiver Erforschung. Volker Schlöndorff verfilmte 1965 Musils Erstling unter dem Titel "Der junge Törless". Der Film lud Musils Stoff intensiv mit Fragen nach der deutschen Schuld in der Zeit des Nationalsozialismus auf und wurde ein erster großer Erfolg des Neuen Deutschen Films. In der Folge war auch Musils "Die Verwirrungen des Zöglings Törleß" lange Zeit eine häufig im Schulunterricht verwendete Lektüre. Im engeren Rahmen der deutschsprachigen Literatur seiner Zeit stellt man Musil nicht selten in eine Reihe mit Hermann Broch, Franz Kafka, Thomas Mann, Elias Canetti und anderen, deren Schreibenergie sich oft ähnlich der Musilschen aus Zusammenbruchserfahrungen nährte, die so persönlich wie epochal waren. In der zeitgenössischen österreichischen Literatur bezeugen unter anderem Gerhard Amanshauser, Rudolf Bayr, Thomas Bernhard, Alois Brandstetter, Andreas Okopenko, Michael Scharang, Franz Schuh und Julian Schutting auf verschiedene Weise das Fortwirken seines Werkes und nehmen in ästhetisch-politischer Hinsicht Standpunkte Musils ein. Forschung. 1970 gründete Marie-Louise Roth an der Universität des Saarlandes die ständige Arbeitsstelle zur Robert-Musil-Forschung, die heutige „Arbeitsstelle für Österreichische Literatur und Kultur/Robert-Musil-Forschung“ (Abk. AfÖLK). 1974 gründete sie in Wien die „Internationale Robert-Musil-Gesellschaft“ (Abk. IRMG) mit dem damaligen österreichischen Bundeskanzler Bruno Kreisky als Schirmherrn. Roth war Präsidentin der IRMG von 1974 bis 2001, ab 2001 deren Ehrenpräsidentin. Seit 2009 befindet sich der Sitz der Gesellschaft am Robert-Musil-Institut der Universität Klagenfurt. Präsident ist Klaus Amann, Geschäftsführer Walter Fanta. Erinnerungsstätten. In Klagenfurt (Bahnhofstraße 50) gibt es das Robert Musil Literatur-Museum. Außerdem ist in der Rasumofskygasse 20 in Wien Landstraße (3. Bezirk) ein Robert-Musil-Gedenkraum zu besichtigen. Gedenktafeln bzw. Gedenksteine finden sich in Klagenfurt, Berlin-Charlottenburg und Genf. Benennungen. 1956 wurde in Wien-Ottakring (16. Bezirk) der Musilplatz nach ihm benannt. Weitere Benennungen (Straßen, Gassen, Wege und Plätze) gibt es u. a. innerhalb Österreichs in Eisenstadt, Traiskirchen, Graz-Liebenau, Villach, Wels, Marchtrenk, Kapfenberg und Klagenfurt, ferner in Hamburg. Werke. Verzeichnis aller Werke siehe Wikisource Raumstation. Die russische Raumstation Mir im Jahr 1998 Skylab, die bislang einzige US-amerikanische Raumstation, im Jahr 1974 Raumstationen sind Raumflugkörper, die sich meist im Orbit eines Himmelskörpers befinden und es Menschen ermöglichen, lange Zeit auf ihnen zu leben. Sie sind, da sie selbst nicht über einen Antrieb zur Fortbewegung oder Landevorrichtungen verfügen, auf Raumfahrzeuge für Transporte angewiesen. Neben den Raumstationen werden Raumlabore eingesetzt, die eine Unterform der Raumstation darstellen. Probleme. Technisch herausfordernd beim Betrieb einer Raumstation ist vor allem die Versorgung der Besatzung. Aufgrund der hohen Kosten für Transporte mussten Systeme entwickelt werden, die den Betrieb einer Raumstation weitgehend autark erlauben, d.h. in einem geschlossenen Kreislauf. Besonders bei der Aufbereitung von Wasser und Luft wurden dabei große Fortschritte erzielt. Die Umlaufbahn um die Erde ist in 300 Kilometern Höhe nicht stabil, da eine sehr dünne Erdatmosphäre die Raumstationen ständig abbremst. Ohne regelmäßigen Schub in höhere Umlaufbahnen würden Raumstationen daher nach einigen Monaten oder Jahren wieder in die Erdatmosphäre eintreten. Auch die Gravitation anderer Himmelskörper könnte die Umlaufbahn einer Raumstation stören. Raumstationen benötigen daher eine ständige Versorgung, besonders von Treibstoff zur Kurskorrektur. Die Raumstationen im Einzelnen. Die erste Raumstation war 1971 die sowjetische Saljut 1. Eine der bedeutendsten Raumstationen war die sowjetische Station Mir, die fast 15 Jahre lang schrittweise ausgebaut und genutzt wurde. Mit der ISS ist heute eine Raumstation in internationaler Kooperation permanent bemannt. ! Name || Start || Absturz || align="center" | Anzahl Langzeitbesatzungen || Besetzte Tage || Masse in kg|| Bemerkung Geplante Raumstationen. Der im Juni 2012 mit Shenzhou 9 zum ersten mal bemannten Raumstation Tiangong 1 sollen gemäß der Planung der chinesischen Raumfahrtorganisation CNSA im Jahr 2016 Tiangong 2 und bis 2022 eine größere Raumstation folgen. Mögliche zukünftige Entwicklung. Zukünftige Raumstationen könnten in größerer Entfernung zur Erde in einem der Lagrange-Punkte des Erde-Mond-Systems positioniert werden. Die Lagrange-Punkte L4 und L5 ermöglichen der Raumstation einen wesentlich stabileren Orbit, was die nötigen Kurskorrekturen und damit den Treibstoffverbrauch erheblich reduzieren würde. Allerdings ist die Intensität der kosmischen Strahlung in einer größeren Entfernung zur Erde erheblich größer, weil dort der Schutz durch die Magnetosphäre der Erde fehlt. Für eine solche Raumstation wäre es also notwendig, besondere Vorkehrungen zum Strahlenschutz zu treffen. Ein mögliches Konzept für zukünftige Raumstationen wären zum Beispiel die O’Neill-Kolonien. Römer (Frankfurt am Main). Der Römer ist seit dem 15. Jahrhundert das Rathaus der Stadt Frankfurt am Main und mit seiner charakteristischen Treppengiebelfassade eines ihrer Wahrzeichen. Das mittlere der ursprünglich drei eigenständigen Gebäude am Römerberg ist das eigentliche Haus zum Römer. Unter „Römer“ wird schon seit Jahrhunderten der gesamte Rathauskomplex verstanden. Warum das zentrale Gebäude „Römer“ heißt, ist unbekannt; es existieren verschiedene, sich widersprechende Deutungen. Als die Verwaltung der Stadt im 14. Jahrhundert ein neues Domizil brauchte, kaufte der Rat am 11. März 1405 die beiden repräsentativen Bürgerhäuser mit den Namen Römer und Goldener Schwan und machte sie zum Amtssitz mitten im Zentrum der damaligen Stadt. Neben dem Kaiserdom St. Bartholomäus zählten sie als Ort der meisten Wahlen zum römisch-deutschen König bzw. Königswahlen und -krönungen und damit zu den bedeutendsten Gebäuden in der Geschichte des Heiligen Römischen Reiches Deutscher Nation. Über fast fünf Jahrhunderte dehnte sich der Rathauskomplex durch Zukäufe von den ursprünglich zwei auf schließlich elf baulich miteinander verbundene Bürgerhäuser aus, die nach und nach zu Diensträumen umgenutzt wurden. Erst Ende des 19. Jahrhunderts kam es nach Entwürfen von Max Meckel, Franz von Hoven und Ludwig Neher zu einem großangelegten Neubau, der das Äußere der Anlage bis heute prägt. Im Inneren finden sich heute Reste historistischer, jedoch überwiegend schlichte Raumprogramme der Nachkriegszeit, nachdem fast alle Gebäude bei den Luftangriffen im Zweiten Weltkrieg ausbrannten. Vier der heute noch elf als eigenständig abzugrenzenden Teilbauten sind zudem auch äußerliche Neuschöpfungen aus den frühen 1950er Jahren in der Nachfolge vollständig zerstörter Fachwerkbauten. Vorgeschichte (1288 bis 1405). Plan der Altstadt mit Rathaus am Dom, um 1370 Altes Rathaus am Dom, Federzeichnung von 1405 Das ursprüngliche Rathaus der Stadt befand sich dort, wo heute der Turm des Domes steht (vgl. Plan) und fand urkundlich zuerst am 25. Mai 1288 als "„domus consilii Frankenvordensis“" Erwähnung. Die örtliche Nähe von Kirche, Rathaus und Marktplatz war im Städtebau des Mittelalters üblich und findet sich auch heute noch in zahlreichen deutschen Städten. Am 20. Juni 1329 gestatte Kaiser Ludwig IV. laut einer in Pavia ausgestellten Urkunde den Frankfurter Bürgern, "„das sie ein ander rathuse mügen pawen und machen ze Frankfurt, wo sie dunchet, daz ez in und der stat aller nützlichest sei“". Dass nun trotz kaiserlicher Erlaubnis fast ein Dreivierteljahrhundert lang nichts geschah, liegt in den Rückschlägen begründet, die Frankfurt in der zweiten Hälfte des 15. Jahrhunderts durchzumachen hatte. Hierzu zählen insbesondere die Naturkatastrophe des Magdalenenhochwassers 1342, der Schwarze Tod 1349, die Fehden mit der benachbarten Ritterschaft, der Zünfteaufstand der Jahre 1355 bis 1368 sowie die Niederlage bei Kronberg 1389, die den Bevölkerungszuwachs des 13. Jahrhunderts stagnieren ließen und die städtischen Finanzen ausmergelten. Über die Veränderungen am alten Rathaus gaben die 1348 einsetzenden Serien der städtischen Rechnungsbücher Auskunft, die zwar im Zweiten Weltkrieg verbrannten, in Auszügen jedoch in der Literatur überliefert sind. Sie beschreiben ihrer Natur entsprechend vor allem handwerkliche Arbeiten wie das Einsetzen von damals noch luxuriösen Fenstergläsern, das Gießen von Glocken, um die Ratssitzungen einzuläuten, oder auch triviale Ausgaben wie die Bezahlung von Brennholz. Einen Eindruck vom Erscheinungsbild des alten Rathauses vermögen sie allerdings nicht zu liefern. Die einzige, allerdings sehr schematische bildliche Darstellung des Baus stammt aus dem (ebenfalls im Original verlorenen) städtischen Bedebuch von 1405, die einen von einer steinernen Mauern und Zinnen umsäumten Hof zeigt (vgl. Bild). Bei dem Judenpogrom 1349, bei dem praktisch die gesamte damalige jüdische Bevölkerung Frankfurts ermordet wurde, soll das damit verbundene Feuer, das den Dom und das gesamte südlich angrenzende alte Judenviertel der Stadt vernichtete, angeblich vom alten Rathaus ausgegangen sein, und dieses ebenfalls zu großen Teilen zerstört haben. Diese Überlieferung des Stadtchronisten Achilles Augustus von Lersner aus dem frühen 18. Jahrhundert ist jedoch nicht historisch zu belegen und auch insofern als eher legendär einzustufen, als die städtischen Rechnungsbücher für die Folgejahre keinerlei Ausgaben für Reparaturen verzeichnen, die ansonsten in großer Akribie dokumentiert wurden. Ende des 14. Jahrhunderts war das alte Rathaus endgültig zu klein und baufällig geworden, Frankfurt mit knapp 10.000 Einwohnern nach mittelalterlichen Verhältnissen eine größere Stadt. Ab 1401 begann man daher mit der Vorbereitung eines Neubaus am Römerberg. Ein Baumeister wurde berufen, ein Modell gefertigt, Baumaterialien auf den Römerberg geschafft und sogar schon Steinquader behauen. Durch den erfolgreichen Verlauf der Verhandlungen mit den Besitzern zweier Privathäuser am Römerberg konnte der Neubau jedoch kurz vor seiner Grundsteinlegung doch noch vermieden werden. Abschrift des Kaufvertrages von 1405 Die Besitzstandsverhältnisse dort waren vergleichsweise übersichtlich: den Gebrüdern "Konz" und "Heinz zum Römer" gehörten zwei Drittel der beiden Häuser, namentlich das eigentliche Haus zum Römer und der westlich angrenzende Goldene Schwan, das letzte Drittel gehörte der Witwe des "Hensel zum Römer". Ein noch heute erhaltener Vertrag vom 11. März 1405 besiegelte das Geschäft (vgl. Abschrift); die Gebrüder erhielten für ihren Anteil 600 Gulden und eine jährliche Leibrente von 40 Gulden, die Witwe 200 Gulden und eine Leibrente von 25 Gulden bis zum Tode ihrer Tochter. Mit also insgesamt 800 "„Gulden guter Franckenfurter werünge bereids [baren] geltes“" und jährlichen Leibrenten von 65 Gulden, die in der kurzlebigen Zeit keine große Haushaltsbelastung darstellten, hatte der Rat mit zwei Häusern in solch idealer Lage ein außerordentlich gutes Geschäft gemacht. Der Umzug ins neue Rathaus zog sich über knapp zwei Jahre hin, das alte Rathaus am Dom wurde von den städtischen Bediensteten nachweislich 1407 zuletzt genutzt. 1414 endeten die sich seit dem frühen 14. Jahrhundert hinziehenden Streitigkeiten um das Grundstück am Dom, um dem Neubau des Domturmes Platz machen zu können. Am 31. Mai desselben Jahres verkaufte die Stadt das Grundstück an die für den Neubau des Domturmes zuständige Baufabrik, trotz eines Kaufangebotes von 350 Pfund, für nur 200 Pfund. Das alte Rathaus muss zwischen 1414 und 1415 abgerissen worden sein, da am 6. Juni 1415 auf seinem ehemaligen Grundstück der Grundstein für den neuen Domturm gelegt wurde. Das Rathaus am Römerberg bis zum Ausgang des Mittelalters (1405 bis 1500). Durch die Goldene Bulle Kaiser Karls IV. war Frankfurt 1356 als rechtmäßiger Ort für die Königswahlen im Reich bestätigt worden, nachdem seit 1147 schon 14 von 20 Königswahlen hier stattgefunden hatten. Mit den beiden Häusern am Römerberg besaß die Stadt nun zwei für die Zeit große und repräsentative Gebäude, die den Wahlen, aber auch den oft hier stattfindenden Reichstagen eine angemessenene Umgebung boten. Des Weiteren stand für die gewachsene Stadtverwaltung endlich ausreichend Raum zur Verfügung, und nicht zuletzt sollte es wirtschaftlichen Zwecken dienen. Dies war durch die Lage der neuen Gebäude nun optimal gewährleistet: damals wie heute Mittelpunkt der Stadt, war der Römerberg mit der östlich dahinter liegenden, von verschiedensten Handwerkern und Händlern dominierten Altstadt Zentrum des Handels, insbesondere während der regelmäßig stattfindenden Messen. Zusätzlich diente der nahegelegene Main als eine der wichtigen Verkehrsstraßen der Zeit dem Personen- und Warenverkehr. Von den Umbauten bis zum Erwerb von Frauenrode (1405 bis 1423). Besitz der Stadt am Römer 1405 Die auf dem Römerberg für den geplanten Neubau aufgeschichteten Baumaterialien wurden in den nun folgenden, sich von 1405 bis 1408 hinziehenden Umbau der beiden Häuser einbezogen. Über die Details ist nichts zusammenhängend überliefert. Die sich ergebenden Änderungen müssen daher aus den Rechenmeister- und Baumeisterbüchern zusammengesetzt werden. Die Arbeiten am Haus zum Römer begannen im Jahr 1405 mit einer nahezu vollständigen Entkernung, als man laut einem Rechenmeisterbucheintrag vom 20. Juni 1405 sämtliche Fußböden des Hauses herausbrach. Aus den beiden ehemaligen Obergeschossen entstand im Wesentlichen eine große Kaufhalle, die in späteren Zeiten als "Kaisersaal" bekannt wurde; dahinter die "große Ratsstube", das spätere Wahlzimmer der Kurfürsten. Äußerlich erhielt das Haus die drei bis heute erhaltenen spitzbogigen Eingangsportale sowie neue Fenster. Informationen über die Umbaumaßnahmen an den Obergeschossen des Goldenen Schwans sind nicht überliefert. Die jedoch wichtigste Änderung war der Bau eines Kreuzrippengewölbes in den Erdgeschossen beider Bauten. Es ist bis heute erhalten und besser als "Römer-" bzw. "Schwanenhalle" bekannt. Das Werk des zuständigen Baumeisters "Friedrich Königshofen" stürzte jedoch kurz nach Fertigstellung am 24. Oktober 1405 ein, wodurch dieser beim Rat der Stadt in Ungnade fiel. Erst nach langen Verhandlungen und gegen eine Zahlung von 109 Gulden verzichtete er am 13. Oktober 1406 in einer bis heute erhaltenen Urkunde auf weitere Ansprüche gegen die Stadt. Nun wurde der zunächst unter Königshofen tätige Baumeister "Wigel Sparre" berufen, der die Römerhalle zwischen November 1405 und Februar 1406 fertigstellte. Die danach begonnene Schwanenhalle wurde erst gegen Ende der Umbauarbeiten 1407 fertig gestellt. 1408 leistete man nur noch Detailarbeiten wie das Pflastern des Hallenbodens oder das Verputzen des Gewölbes. Dass die Stadt beim zweiten Anlauf zum Bau desselbigen offenbar auf eine äußerst massive Bauweise besonderen Wert legte, stellte dieses eindrucksvoll knapp 550 Jahre später unter Beweis, als es eine der wenigen Räumlichkeiten des Rathauskomplexes war, die den Bombenhagel des Zweiten Weltkriegs unbeschadet überstand. Im Verlaufe des Jahres 1407 bezogen die städtischen Bediensteten das neue Rathaus am Römerberg. Nur wenig später begann 1414 die Nutzung zu Zwecken des Handels, insbesondere während der Frankfurter Messe. Zu dieser Zeit wurden die Gewölbe der Gebäude als Kaufhaus verwendet und jeder Fuß zum Preis von einem Schilling vermietet. Dieser Nutzungszweck blieb dem Römerkomplex bis zum völligen Niedergang des klassischen Messgeschäfts 1846 erhalten. Folio 1 recto des "Fetterschen Wappenbuchs", 1583 Um 1415 wurde das Wahlzimmer der Kurfürsten auf kunsthistorisch bedeutsame Weise ausgemalt. Diese Bemalung wurde 1477 von Conrad Fyoll zusammen mit seinen Söhnen "Conrad" und Hans restauriert und schließlich 1583 übermalt, allerdings im selben Jahr im sogenannten "Fetterschen Wappenbuch" dokumentiert (vgl. Bild), das sich bis in die Gegenwart erhalten hat. Die Zuschreibung der Abzeichnungen an den namensgebenden Glasmaler "Johann Vetter" ist umstritten. Die Urheberschaft an der Ausmalung von 1415 wurde dagegen nie geklärt und dürfte spätestens nach den Kriegszerstörungen an dem Römerbauten für immer im Dunkeln liegen. Dem Buch nach zeigten die Wandbilder Wappen und Porträts verschiedener mittelalterlicher Stände, die in einem für die Zeit zwar typischen, aber äußerst frühen Quaternionensystem angeordnet waren, d. h. man stellte je vier Vertreter eines Standes in für denselbigen als repräsentativ geltenden Gruppen dar. Dies ist kunsthistorisch insofern bemerkenswert, als es sich hier um eine der frühesten Quaternionendarstellungen überhaupt gehandelt haben dürfte, die unzweifelhaft auch Einfluss auf alle nachfolgenden Darstellungen dieser Art ausübte. Vom Erwerb von Frauenrode bis zum Ende des Mittelalters (1424 bis 1500). Römergasse mit Archivturm von Frauenrode, vor 1900 Nur wenig später kam es bereits zu einer ersten Erweiterung des Rathauses: am 5. November 1424 erwarb der Rat der Stadt das westlich des Goldenen Schwans gelegene "Haus Frauenrode" vom Liebfrauenstift für 200 Gulden. Ein sehr niedriger Preis, der sich aus der über das Geschäft ausgestellten Urkunde jedoch erklärt – demnach war es so baufällig, dass nach Meinung des Stifts eine Reparatur nicht mehr lohnte. So erfolgte dann auch 1436 der völlige Abriss des Gebäudes, an den sich bis 1439 Neubauten anschlossen. Sie entstanden auf der alten Parzelle um den in der Mitte gelegenen, zur damaligen "Widdergasse" (späteren "Wedelgasse", heutigen "Bethmannstraße") gewandten Hof. Im östlichen Teil wurde unter der Leitung des Baumeisters Eberhard Friedberger 1436 und 1437 ein steinerner Archivturm (vgl. Bild) errichtet, den man mit Schiefer deckte und in seinen Gewölben mit vier gemalten Adlern schmückte. Da Städte zu jener Zeit ihre gesamten Privilegien wie beispielsweise das Marktrecht auf beschriebenes Pergament und Papier stützten, war ein derartiges Archiv spätestens seit der Goldenen Bulle geradezu lebenswichtig. Dies wird noch deutlicher, wenn man bedenkt, dass die fast völlig aus hölzernen Fachwerken aufgebauten Städte regelmäßig von Feuersbrünsten heimgesucht wurden. Als Notbehelf hatte man bis dato alle wichtigen Dokumente und Privilegien im Gewölbe des 1808 abgebrochenen Festungsturms am Leonhardstor eingelagert. Besitz der Stadt am Römer, 1439 Auf dem westlichen Teil des Grundstücks wurde ab Anfang 1438 das eigentliche Haus mit der so genannten "neuen Ratsstube" erbaut. In diesem über die verschiedenen Jahrhunderte in der Ausstattung immer wieder veränderten Raum tagte der für das politische Agieren der Stadt wichtige Rat bis zum Ende der reichsstädtischen Zeit 1806. Kunsthandwerkliche Arbeiten im Raum wie Öfen, Wandmalereien oder später auch Stuckaturen haben sich im Rahmen des Zeitgeschmacks über die Jahrhunderte immer wieder verändert oder wurden komplett neu gefertigt. Auch zeigen sich in der Schaffung der neuen Ratsstube die Folgen der Goldenen Bulle: die nur knapp ein Vierteljahrhundert zuvor bezogene Ratsstube im Haus zum Römer diente von nun an im Wesentlichen als repräsentatives Wahlzimmer für die Kurfürsten. Damit waren die Umbauten und Integration von Frauenrode in den Rathauskomplex im Wesentlichen abgeschlossen. Das Äußere des Römers wurde zunehmend repräsentativer gestaltet, auch wenn aus jener Zeit keinerlei bildliche Darstellungen überliefert sind: so brachte man 1441 an der Fassade eine große Laterne mit 73 Scheiben aus venezianischem Glas an. 1452–1454 kam eine bereits seit 1448 geplante Uhr zur Ausführung, die Zeiger sowohl an der Fassade zum Römerberg als auch nach innen in den Kaisersaal besaß. Nicht nur technisch, wofür der Uhrmacher "Hans Hochgesang" verantwortlich zeichnete, sondern auch künstlerisch muss es sich um ein beachtliches Werk gehandelt haben. Alleine 200 Gulden erhielt der Maler Sebald Fyoll für figürliche Malereien, der Goldschmied "Hans Hug" arbeitete an geschnitzten Modellen für gegossene Drachen- und Löwenköpfe sowie einem Gehäuse mit plastischen Wildemannsdarstellungen. 1470 wurde die Uhr von Hochgesang und einem ganzen Stab von Künstlern, 1483 von Hug erneut verbessert, wobei in den Bau- und Rechenmeisterbüchern auch ein Astrolabium sowie ein Sonnenzeiger erwähnt wurde. Schuppenvorbau im Krönungsdiarium Matthias, 1612 Der Vorbau bestand demnach im Wesentlichen aus mit Blei gedeckten Holz und endigte in drei Spitzbögen mit reicher gotischer Verzierung, die den eigentlichen Portalen des Römers vorangestellt waren. Acht längliche Fenster aus insgesamt 500 Einzelscheiben Glas, ein für die Zeit ungeheurer Luxus, erhellten den Anbau großzügig. Bei den Verzierungen handelte es sich im Wesentlichen um teils vergoldete Blumen, Wimperge und Wappen, teils in Malerei, teils plastisch gearbeitet. Die Wappen waren oben auf den Spitzbögen angebracht und zeigten die Heraldik des Königs, des Kaisers und der Stadt Frankfurt. Bemalt wurde der Bau von den bekannten Malern "Thomas von Straßburg" und "Hans Caldenbach", für den Kunstguss wurden der Orgelbauer Leonhard Mertz und Büchsenmeister "Jörg Ossenbrommer", "Kellerhenne" und "Anthonius am Stege" herangezogen. Künstlerischer Leiter war der Goldschmied und Miniator Hans Dirmstein. Gemäß der 23 Einzelposten umfassenden Kostenrechnung beliefen sich die Gesamtkosten auf knapp 625 Gulden, weitere bemerkenswerte, darin zu findende Posten waren u. a. 104 Zentner Blei und 323 Pfund Zinn. Das Rathaus in der frühen Neuzeit (1500 bis 1806). Nach dem Ausgang des Mittelalters war die Machtposition der Städte Anfang des 16. Jahrhunderts generell wieder am Sinken. Frankfurt nahm jedoch aus verschiedenen Gründen eine Sonderposition ein: zur schon im Mittelalter bedeutenden Warenmesse kam kurz nach der Erfindung des Buchdrucks durch Johannes Gutenberg im nahen Mainz die nicht minder bedeutende Buchmesse hinzu und die Bevölkerungszahl wuchs nach dem Bekenntnis der Stadt zur Reformation 1530 auch durch die Zuwanderung von Glaubensflüchtlingen überproportional an – von etwa 10.000 um 1500 über knapp 20.000 um 1600 auf rund 40.000 bis zum Ende der reichsstädtischen Zeit 1806. Wirklich geschichtsbestimmend für die Stadt war aber, dass man, beginnend mit der Krönung von Kaiser Maximilian II. 1562, nicht länger an der in der Goldenen Bulle fixierten Trennung des Wahlortes vom Krönungsort festhielt. Somit war Frankfurt nicht nur Wahl-, sondern auch Krönungsstätte der Kaiser des Heiligen Römischen Reiches Deutscher Nation geworden. Die Auswirkungen auf das Rathaus der Stadt, das alleiniges Zentrum der städtischen Politik und Verwaltung war, bedeuteten daher nicht mehr nur ein stetiges Wachsen der Verwaltung analog den Bevölkerungszahlen, sondern auch zunehmend die Bereitstellung repräsentativer Räumlichkeiten für die Reichsobersten. Umbauten und Erweiterungen des 16. und 17. Jahrhunderts (1500 bis 1699). So erwarb der Rat 1510 für 300 Gulden das westlich an Haus Frauenrode anstoßende, an der damaligen "Römergasse" gelegene "Haus Viole" von Jakob Heller (vgl. Bild), einem der zu dieser Zeit bedeutendsten Patrizier der Stadt. Da Heller sich, wie so oft, großzügig zeigte und noch 50 Gulden für die Pläne des Rates stiftete, das Haus durch einen Neubau für städtische Ämter und eine Bibliothek zu ersetzen, verringerte sich der Preis entsprechend. Einer Jahreszahl an einem Wappenadler nach erfolgte der Neubau im Jahre 1511. Er beseitigte die östliche Brandmauer und ermöglichte den städtischen Bediensteten ab diesem Zeitpunkt den Zugang zur Viole auch über Haus Frauenrode, ohne auf die Straße treten zu müssen. Die in einem feuerfesten Gewölbe des Erdgeschosses untergebrachte Bibliothek wurde durch Stiftungen von Frankfurter Bürgern vermehrt und blieb bis 1668 im Haus. In jenem Jahr wurde sie mit der Bibliothek des Barfüsser-Klosters vereinigt, das sich damals dort befand, wo heute die Paulskirche steht. Später ging daraus die Frankfurter Stadtbibliothek hervor. 1542 kaufte der Rat auch das südlich an die Viole anstoßende "Haus Schwarzenfels" von Justinian von Holzhausen (vgl. Bild) für 640 Gulden. Letzterer stammte wie der Vorbesitzer des Nachbarhauses aus einem bedeutenden Frankfurter Patriziergeschlecht und hatte engste Verflechtungen mit der städtischen Politik und Diplomatie. So vertrat er die Stadt im selben Jahr auf dem Reichstag zu Nürnberg, nur ein Jahr später hatte er gar das Amt des "Älteren Bürgermeisters" inne. Mit ihrem neuesten Erwerb besaß die Stadt nun alle westlich an den Römer anstoßenden Gebäude. Schwarzenfels teilte die östliche Brandmauer mit dem "Haus Silberberg", das wiederum an das südlich des Hauses zum Römer gelegene "Haus Alt-Limpurg" anschloss. Beide Häuser waren zu jener Zeit im Besitz der gleichnamigen Ganerbschaft Alt-Limpurg. Als man eine völlig neue Brandmauer zwischen Schwarzenfels und Silberberg errichtete, was auf einen Neubau kurz nach dem Erwerb schließen lässt, beteiligte sich die Ganerbschaft mit 135 Gulden an den Baukosten. Genauere Details dieses Neubaus, der vermutlich vor allem das zuvor gekaufte Haus Viole in seiner Nutzfläche vergrößerte, bleiben allerdings im Dunkeln. Als Frankfurt 1562 auch Krönungsstätte wurde, war dies offenbar sofort Anlass für weitere Baumaßnahmen am Frankfurter Rathaus, um die Interieurs dem Zeitgeschmack und der neuen Bedeutung gerecht zu gestalten. Aufgrund der schlechten Dokumentation bleibt nur festzuhalten, dass der Goldene Schwan bis 1563 einen neuen Dachstuhl erhielt und das Wahlzimmer der Kurfürsten mit größeren Fenstern ausgestattet wurde. Festzumachen war dies bis zur Zerstörung im Zweiten Weltkrieg auch an einer Kartusche an einem zum Römerhof hin gewandten Fensterpfeiler mit der Jahreszahl 1562. Der Quaternionenzyklus des Zimmers hatte über die Jahre indes so gelitten, dass man ihn 1583 übertünchen ließ. Dem Schmuck der Wände dienten bis 1731 nun vor allem Ölbilder, die Maler zur Erlangung des Meisterrechts anfertigten. Besitz der Stadt am Römer, 1596 Die rasante Bevölkerungsentwicklung machte binnen weniger Jahrzehnte neue Erweiterungen des Rathauses notwendig. Der Rat erwarb daher am 18. Dezember 1596 das dem Goldenen Schwan östlich benachbarte Haus "Wanebach" sowie das nördlich an das Haus zum Römer grenzende Haus "Löwenstein". Für den Vorbesitzer, den Handelsmann "Ludwig Clar", war der Kaufpreis von 18.000 Gulden ein gutes Geschäft, hatte er das Haus doch erst kurz zuvor zum selben Preis erworben und erhielt nun zusätzlich zur Kaufsumme noch verschiedene Vergünstigungen. Damit erstreckte sich das Rathaus bereits auf sieben Einzelgebäude (vgl. Plan). Die in den Jahren 1597 bis 1604 nachfolgenden Bauarbeiten zur Integration der beiden Zukäufe waren sehr aufwändig, da sie von der bisherigen Anlage völlig abweichende Geschosshöhen hatten. Römerkomplex auf dem Merian-Plan, 1628 In der Brandmauer zwischen dem Goldenen Schwan und Wanebach schuf man an der Stelle, wo sie auf die Nordwand des Kaisersaales stieß, eine Verbindung zwischen den Obergeschossen. Dahinter wurde ein Verbindungsgang zu der alten Treppe geschaffen, die zwischen Haus Löwenstein und dem Haus zum Römer vom Römerberg direkt zum Kaisersaal führte. Sie blieb ebenso wie eine weitere Treppe hinab zum Hinterhof des Hauses Wanebach allerdings nur bis zum Bau der Kaisertreppe 1741 erhalten. Das Erdgeschoss des Hauses Löwenstein wurde als Halle für Messezwecke, die Obergeschosse ebenso wie später die des Hauses Wanebach als Wohnungen für städtische Beamte eingerichtet. An der Fassade vergrößerte man die Fenstereinfassungen und ersetzte die alten Spitzbogentore durch Rundbogentore, wodurch das Gebäude wohl als das erste der Häusergruppe am Römerberg seinen noch ganz gotischen Charakter einbüßte. 1603 und 1604 beschloss die Neuerrichtung von Haus Wanebach die Bautätigkeit. Nach seinem Abbruch, der offenbar nur Teile eines älteren Verbindungstraktes zwischen Vorder- und Hinterhaus aussparte, wurde es als Fachwerkbau auf einem steinernen Erdgeschoss neu erbaut. Dabei erhielt es auch seine offenen Galerien im Renaissancestil, die dem später als "Wanebachhöfchen" bezeichneten Innenhof sein pittoreskes Antlitz gaben. Um es von Süden her zugänglich zu machen, hatte man bereits zuvor ein großes spitzbogiges Tor in die Nordwand der Römerhalle gebrochen. Kaisersaal im Krönungsdiarium Mathias, 1612 1612 endlich erhielt auch der Kaisersaal in Anbetracht der immer pompöseren Krönungsfeierlichkeiten ein völlig neues Gepräge, das sich zumindest von seinen Proportionen bis heute erhalten hat. Die seit 1405 bestehende Flachdecke wurde entfernt und durch die bekannte, gewölbte Bretterdecke ersetzt, die der Maler "Johan Hoffmann" mit in jener Zeit beliebten Groteskverzierungen schmückte. Die Fenster des hierfür hinzugezogenen, zuvor eigenständigen Dachgeschosses wurden vermauert und die Saalfenster der Wölbung entsprechend vergrößert. Das Krönungsdiarium aus demselben Jahr zeigt das Ergebnis dieser Arbeiten (vgl. Bild). Die letzte große Baumaßnahme im 17. Jahrhundert stellte die Barockisierung des Schuppenvorbaus von 1483 dar. 1650 und 1651 wurde sie im Wesentlichen durch den Schreinermeister "Friedrich Unteutsch", die Maler "Johann Lorenz Müller" und "Hans Jacob Schöffer" sowie eine Handvoll weiterer Künstler und Handwerker durchgeführt. Sie dehnten den Vorbau nicht nur auf das sich nun in Stadtbesitz befindliche Haus Löwenstein aus, sondern versahen ihn auch mit neuen Giebeln, Wappen und ornamentalen Schmuck. Römer im Krönungsdiarium Leopold I., 1658 Anschließend bemalten "Philipp Hummel" und "Heinrich Schäfer" die Fassaden der Häuser Römer, Löwenstein und Alt-Limpurg einheitlich mit noch renaissancetypischen Roll- und Bandelwerk, was dem Rat 100 Gulden wert war. Die erstmals einheitliche Gestaltung war nur dadurch möglich, dass die Ganerbschaft Alt-Limpurg, der immer noch das gleichnamige Haus gehörte, hierzu ihr Einverständnis gab. Der Sinn dieser Maßnahme mag neben einer Anpassung an den Zeitgeschmack vor allem darin gelegen haben, die Dreigiebelfassade stilistisch den angrenzenden Privathäuser "Frauenstein" und "Salzhaus" anzupassen, die bereits Anfang des 17. Jahrhunderts prächtige Renaissance-Schaufassaden erhalten hatten. Nach Abschluss dieser Arbeiten präsentierte sich der Römer äußerlich so, wie er auf dem bekannten Bild aus dem Krönungsdiarium Kaiser Leopolds I. 1658 dargestellt wird (vgl. Bild). Vom 18. Jahrhundert bis zum Ende der reichsstädtischen Zeit (1700 bis 1806). Krönungsmahl Josephs II. im Kaisersaal, 1762 Im Zeitalter des Absolutismus hinterließ der sich immer weiter aufschaukelnde Pomp an europäischen Fürstenhöfen nicht nur im Profanbau der Stadt, sondern auch am und im Frankfurter Rathaus seine Spuren. Es ist kennzeichnend, dass praktisch alle baulichen Veränderungen des 18. Jahrhunderts am Römer ausschließlich den repräsentativen, für die Abwicklung der Kaiserkrönungen nötigen Räumlichkeiten dienten, während es in dieser Zeit zu keinerlei Erweiterungen oder größeren Ausbauten der Amtsräume kam. Insgesamt sechs Kaiserwahlen- und Krönungen erlebte die Stadt in diesem Jahrhundert, von denen Johann Wolfgang von Goethe insbesondere die Kaiser Josephs II. (vgl. Bild) in seinem Werk Dichtung und Wahrheit eindrücklich dokumentierte. 1702 errichtete man ein Glockentürmchen auf dem Haus zum Römer, das sich in seinem Aussehen bis heute erhalten und nur wenig gewandelt hat. Als die Krönungsfeierlichkeiten für Joseph I. 1705 nahten, wurde das Kurfürstenzimmer im Sinne des Zeitgeschmacks überarbeitet, indem man das alte Holzgetäfel herausbrach und durch Tapeten ersetzte. Erst die Wahl und Krönung Karls VI. 1711 brachte aber auch dem Kaisersaal ein völlig neues Aussehen, das ihn innerlich erneut ein Stück seinem heutigen Zustand annäherte. Nach dem Austausch der offenbar heruntergekommenen und mittlerweile unzeitgemäßen Täfelung wurden nämlich Wandnischen geschaffen, die der Maler "Johann Conrad Unsinger" für 500 Gulden mit illusionistischen Büstenporträts ausmalte, die die Könige und Kaiser ab Konrad I. darstellten. Obgleich vermutet werden kann, dass der Kaisersaal bereits zuvor mit Herrscherporträts geschmückt wurde, gab es in den mittelalterlichen Bau- und Rechenmeisterbüchern zumindest keinen direkt Hinweis darauf, dass sie vor der Tätigkeit Unsingers zur Ausführung gekommen wäre; ebenso fehlen bildliche Darstellungen einer solchen Kaisergalerie in allen vorhergehenden Krönungsdiarien. Barockfassade des Goldenen Schwans, um 1900 Bereits 1731 setzte unter der Leitung des Stadtbaumeisters Johann Jakob Samhaimer, der u. a. auch für den Bau der Hauptwache verantwortlich zeichnete, erneut eine Phase reger Bautätigkeit ein. Zunächst war nur eine Erneuerung des Daches des Goldenen Schwans, der Fassade desselbigen zum Römerhöfchen sowie eine Vergrößerung der Eingänge zum Kurfürstenzimmer geplant, doch noch während der Bauarbeiten stellt man fest, dass weite Teile der Holzkonstruktion seit dem letzten Umbau von 1562 baufällig geworden waren. Daher erneuerte man bis Ende 1731 auch noch die gesamte, zum heutigen Paulsplatz gewandte Fassade im Stil der Zeit (vgl. Bild), in dem sie sich im Wesentlichen, einschließlich einer auf jenes Jahr datierenden Inschrifttafel, bis heute erhalten hat. Beim völligen Neubau des Daches hatte man das Vorzimmer des eigentlichen Kurfürstenzimmers mit einer großen, Rotunde genannten Kuppel mit Helmabschluß versehen, in die sich der Raum nach oben hin öffnete. Im selben Jahr wurde auch das dem Geschmack der Zeit entgegenstehende gotische Dach des Archivturms von Haus Frauenrode durch ein barockes Mansarddach ersetzt. 1732 und 1733 wurde die Rotunde von den Kunst- und Historienmalern Georg und Christian Leinberger ebenso wie die Flachdecke des Kurfürstenzimmers mit prächtigen Fresken ausgemalt. Für letzteres schufen sie zudem noch fünf Supraportengemälde mit allegorischen Darstellungen den kaiserlichen Wahlinsignien. Ein weiterer, nur mit seinem Familiennamen "Hennicke" bekannter Mainzer Künstler schmückte in jenen Jahren wohl nach Vorlagen von "Batolomeo Remola" neben den beiden vorgenannten Räumen auch viele Amtsräume des Römers mit meisterlichen Stuckaturen aus. Dem Rat war die Tätigkeit Hennickes 800 Gulden, die der Gebrüder Leimberger sogar die stolze Summe von 1.200 Gulden wert. Doch damit nicht genug: weitere Vergoldungs- und Stuckarbeiten, neue Öfen aus Dresdner Porzellan, ein Nussbaumgetäfel, eine neue Uhr, Wandleuchter aus reinem Silber, Mobiliar, Tapeten, Vorhänge sowie das lebensgroße Porträt des regierenden Kaisers einzig zur vollendeten Gestaltung der beiden Räume summierten sich gegen Ende 1734 auf die ungeheure Summe von 20.000 Gulden. Römerberg mit Römer 1745, zeitgenössischer Kupferstich Kaisertreppe im Krönungsdiarium Karls VII., 1742 In Anbetracht der bevorstehenden Krönung Kaiser Karls VII. kam es 1741 erneut zu kleineren, nicht erwähnenswerten Reparaturen, u. a. wurden die Bemalung der Fassade zum Römerberg aus den 1650er Jahren zu Gunsten einer monotonen Fassung überstrichen. Wirklich bedeutsam war allerdings die Erneuerung der bis dato noch völlig mittelalterlichen, steilen Treppe, die vom Römerberg zwischen den Häusern zum Römer und Löwenstein in den Kaisersaal führte. Schon im 19. Jahrhundert hatten sich aus dem Jahr 1742 keine vollständigen Rechnungen erhalten, doch die Tatsache, dass man den Schlossermeistern "Alb" und "Diestmann" alleine für das eiserne Geländer sowie die Tür zur Treppe 540 Gulden bezahlte, lässt jene in Anbetracht der Vielzahl der an der "Kaisertiege" beteiligten Künstler und Handwerker wenigstens im mittleren vierstelligen Bereich vermuten. Neben den Maurern "Springer" und "Jähnisch", den Steinmetzen "Arzt Barba" und "Scheidel", dem Bildhauer "Aufmuth" und dem Stuckateur "Jäger" war außerdem noch der Schweizer Maler Giovanni Battista Innocenzo Colombo am Bau der Treppe beteiligt (vgl. Bild). Er schmückte die Decke in nur vier Wochen mit einem großen Fresko, die Seiten der Treppe mit illusionistischer Architekturmalerei aus, um den in seiner Kubatur immer noch von mittelalterlicher Enge bestimmten Raum künstlich zu vergrößern. Obgleich der Römerberg und das Rathaus in der zweiten Hälfte des 18. Jahrhunderts noch vier pompöse Krönungen erlebten, veränderte sich von nun an bis zum Ende des Heiligen Römischen Reiches Deutscher Nation 1806 kaum noch etwas am Römer. Wohl bereits unter der Wirkung des aufkeimenden Klassizismus wurden 1790 einige Räume im Rathaus neu geweißt und dabei die erst wenige Jahrzehnte alten Bilder Colombas im Bereich der Kaisertreppe übermalt, um 1800 verschwanden auch die Schuppenvorbauten vor dem Haus zum Römer und Haus Löwenstein. Vom Ende der reichsstädtischen Zeit bis zur Römerbau-Kommission (1800 bis 1885). Nach dem Niedergang des deutschen Kaisertums hatten viele der Räumlichkeiten des Römers wie der Kaisersaal oder das Kurfürstenzimmer praktisch über Nacht ihre Funktion verloren. Auch entsprachen sie in ihrer pompösen Ausstattung längst nicht mehr dem vergleichsweise schlichten Zeitgeschmack. Der Respekt vor der historischen Bedeutung war dennoch zu groß, als dass man sie dem neuen Stil gerecht angepasst und somit ihres Wertes beraubt hätte – was andernorts gerade im Profanbau nicht selten geschah; ein gutes Beispiel hierfür ist der 1789 erfolgte Abriss des bedeutendsten gotischen Patrizierhauses der Stadt, der Großen Stalburg am Kornmarkt. Wenigstens der Rat, wenige Jahre später der Senat des Großherzogtums Frankfurt bzw. der Freien Stadt Frankfurt und nach 1866 endlich der Magistrat sah die neue Raumsituation praktisch und verlegte seinen Sitzungsraum nach fast 400 Jahren aus Haus Frauenrode in das wohl wesentlich prächtigere Kurfürstenzimmer. Die ersten Jahrzehnte des 19. Jahrhunderts waren von rein bestandserhaltenden Maßnahmen wie etwa Ausbesserungen an Dachstühlen, Mauerwerken und Fußböden oder der Beseitigung letzter mittelalterlicher Reste wie der hölzernen Kaufläden in der Römer- und Schwanenhalle geprägt. All dies konnte den Verfall des Römers aber auf Dauer nicht verhindern, befand er sich doch inmitten der unter ihrem zunehmenden Bedeutungsverlust leidenden Altstadt, der vor allem im Niedergang der Frankfurter Messe sowie der Schaffung neuer, großzügiger Wohnquartiere vor den nun niedergelegten mittelalterlichen Wallanlagen einsetzte. Zwar gereichten die heftigen politischen Umstürze des 19. Jahrhunderts, über die französische Besetzung, die Rolle als faktischer Hauptstadt des deutschen Bundes bis hin zum Ort des ersten deutschen Parlaments 1848 der Stadt durch geschicktes politisches Agieren noch eher zum Vor- denn zum Nachteil. Doch spätestens die Annexion durch Preußen 1866, wodurch Frankfurt zu einer kreisfreien Provinzstadt degradiert wurde, machte wohl auch dem letzten klar, dass die alten Zeiten der vollkommenen Selbstständigkeit endgültig vorüber waren. Ebenso bot der Römer zusammen mit der Altstadt um 1870 einen desolaten Anblick (vgl. Bild), der kaum vermuten ließ, dass weniger als 100 Jahre zuvor dort noch Krönungen von Kaisern begangen wurden. Erst im wilhelminischen Kaiserreich wuchsen zusammen mit dem Nationalismus als geistiger Bewegung und dem Historismus in Architektur und Kunst wieder die Bestrebungen, an diesem Zustand ernsthaft etwas zu ändern. Im Kaisersaal war seit der Jahrhundertwende ein Teil der städtischen Bibliothek untergebracht. Der Frankfurter Historiker Anton Kirchner beklagte 1818: "„Freilich finden wir jetzt die Nischen mit den Bildnissen der Kaiser, von Konrad dem Ersten an, hinter hohen Bücherschränken versteckt, ein Mißstand, dem bald ein eigner Büchersaal abhelfen wird.“" Als 1825 dann der Neubau der Stadtbibliothek eröffnete und man die Bestände des Kaisersaals ihrer neuen Bestimmung zugeführt hatte, zeigten sich einige Schäden dieser Zweckentfremdung. Daher beschloss man eine Renovierung, für die zunächst 2.500 Gulden veranschlagt, in den Jahren 1827 und 1828 aber tatsächlich nur 1.920 Gulden benötigt wurden. Die Arbeiten fanden unter dem für die Zeit erstaunlich modern-denkmalpflegerischen Grundsatz statt, den "„historisch denkwürdigen Saale im alten Zustande zu erhalten, ohne ein neues Kunstwerk zu schaffen“". Der Boden aus rotem Sandstein mit Dielenbelag wurde ausgebessert, ebenso das Holzwerk der Lambrien. Die 50 Kaiserporträts, die sich als gemalte Büsten in teils erhabenen, teils nur gemalten Nischen an den Wänden befanden, wurden durch die Maler Michael Anton Fuetscher und "Johann Daniel Schultze" restauriert, zwei noch fehlende Porträts der Kaiser Leopold II. und Franz II. von Karl Thelott neu gefertigt. Der Saal blieb nur knapp 10 Jahre in diesem Zustand – am 10. September 1838 trat das Städelsche Kunstinstitut mit der Idee an die Stadt, die gemalten Porträts durch gerahmte Ölbilder zu ersetzen. Schnell waren Stifter aus allen Gesellschaftsschichten und selbst international – vom Kaiser von Österreich über Vereine und Künstlergesellschaften bis hin zu einzelnen Privatleuten für die insgesamt 52 zu schaffenden Bilder gefunden, am 5. Juli 1842 wurden die Pläne endgültig vom Senat der Stadt bewilligt. Parallel zur Schöpfung der Bilder, deren letztes 1853 fertiggestellt war, wurde auch der Kaisersaal erneut umgebaut. Um die zukünftigen Bilder besser zu Geltung zu bringen, wurden die westlichen, zum Hof gelegenen Fenster des Raumes wesentlich vergrößert, ebenso die Fenster zum Römerberg; die sich gefährlich senkende Decke wurde ebenso wie der Fußboden ausgebessert und weite Teile des Raums erneut angestrichen und teilvergoldet. Bereits im April 1846, als alle den Raum verändernden Maßnahmen abgeschlossen, aber noch nicht alle Bilder eingesetzt worden waren, erließ man allgemeine Öffnungszeiten für den Raum, was seinen bereits damals zunehmend musealen Charakter unterstreicht. Für all diese Maßnahmen, die den Kaisersaal dem heutigen Zustand am nächsten brachten, gab die Stadt rund 15.000 Gulden aus, die externen Stifter der Bilder noch einmal um 30.000 Gulden. 1842 sollte Haus Löwenstein eigentlich massiv umgebaut werden, um neuen Platz zu schaffen, was die Ständige Bürgerrepräsentation jedoch ablehnte – der Erwerb weiterer Häuser für Amtszwecke sei Um- oder gar Neubauten vorzuziehen. So kamen 1843 die nördlich des Hauses Löwenstein gelegenen Bürgerhäuser "Frauenstein" und das Salzhaus in städtischen Besitz. Für erstes bezahlte man der Besitzerin "Anna Philippina Menschel" 30.000 Gulden, für letzteres der verwitweten "Sara Catharina Lindheimer" 32.000 Gulden. Beide Häuser waren zum Zeitpunkt des Kaufs in einem völlig heruntergekommenen Zustand (vgl. Bild). Da der Streit über die Zukunft der Römers in den Ausschüssen und Beratungen jedoch weiter schwelte, kam es trotz einer Nutzung der beiden Zukäufe jedoch zunächst nicht zu deren dringend benötigter Renovierung. Die Erdgeschosse wurden sogar an Privatleute vermietet, was frühe Fotografien der Zeit durch entsprechende großflächige Werbeschilder sowie Adressbücher bezeugen. In den 1860er Jahren war man so weit, dass man fast das gesamte Rathaus zugunsten eines Neubaus abgerissen und nur die Erdgeschosshallen des Goldenen Schwans und des Römers sowie den Kaisersaal und das Kurfürstenzimmer konserviert hätte. Dem radikalen Plan versagte dieses Mal der Senat die Zustimmung, "„weil damit die durch die Pietät gebotene unveränderte Erhaltung derjenigen Räume, welche nicht allein für Frankfurt, sondern für das gesamte deutsche Vaterland einen geschichtlichen Werth haben, unvereinbar wäre“". Aufgrund der Annexion durch Preußen 1866, die nicht nur das Ende der freien Stadt, sondern anfänglich auch Repressalien und hohe Reparationszahlungen bedeutete, schliefen alle Restaurationsbestrebungen nun für fast 20 Jahre ein. Renaissance-Treppenturm im Römerhöfchen, vor 1889 Seit Mitte der 1870er Jahre setzte die vor allem von den französischen Reparationszahlungen getragene Gründerzeit auch in Frankfurt am Main ein. Wohl mit nicht unerheblicher Unterstützung dieser Gelder erwarb die Stadt 1878 das südlich an das Haus Römer grenzende "Alt-Limpurg" sowie das westlich davon gelegene "Silberberg" für den hohen Betrag von 214.000 Mark von der Ganerbschaft Alt-Limpurg. Damit gehörten alle fünf mit dem Giebel zum Römerberg gerichteten, sowie die sechs westlich davon gelegenen Häuser zum Rathauskomplex. Als 1883 die Frankfurter Stadtverordneten ihren Sitzungssaal in den Zukauf verlegten, wurde das Haus Alt-Limpurg innerlich stark verändert. Während man die auch als "Geschlechterstube" bezeichneten Räume des Erdgeschosses nur restaurierte und somit in ihrem alten Zustand mit prachtvollen Stuckdecken beließ, wurden die beiden Stockwerke darüber zusammengefasst und in Neorenaissanceformen umgestaltet. Zusammen mit verschiedenen Reparaturen, auch am aus dem Jahre 1627 stammenden Treppenturm an der westlichen Hofseite des Hauses (vgl. Bild), gab man dafür knapp 50.000 Mark aus. Trotz der nun künstlerisch ansprechenden Räumlichkeiten verblieb der Sitz der Stadtverordnetenversammlung letztlich nur bis 1919 dort. Länger hielt sich die bis tief ins 20. Jahrhundert noch gängige Frankfurter Redensart "„Ruhe im Hause Limpurg!“" – als Anspielung auf den Ordnungsruf, wenn eine Diskussion wieder einmal lauter geworden war. Von den Umbauten unter der Römerbau-Kommission bis zur Zeit des Nationalsozialismus (1885 bis 1933). Wenige Jahre später trat am 24. Juni 1885 unter dem Vorsitz des Oberbürgermeisters Johannes Miquel erstmals die Römerbau-Kommission zusammen, die endlich Bewegung in die seit Jahren verfahrene Bausituation des Rathauses bringen sollte. Zu den bekannteren Persönlichkeiten des insgesamt 23 Mitglieder umfassenden Ausschusses zählten der Gründer und damalige Leiter des Historischen Museums, Otto Cornill, der Frankfurter Maler Carl Theodor Reiffenstein, der Leiter der Kunstgewerbeschule, Professor Ferdinand Luthmer, Stadtbauinspektor Adolf Koch sowie die Frankfurter Architekten Alexander Linnemann, Ludwig Neher, Franz von Hoven, Oskar Sommer und Theodor Schmidt (Architekt). Bereits Anfang 1886 war man sich, entgegen manchen Plänen der vergangenen Jahrzehnte, einig, dass größtmögliche Substanzerhaltung Hauptziel aller Anstrengungen sein sollte. Haus Frauenstein und Salzhaus nach der Renovierung, Autochrom von 1900 Nachdem der Maler Karl Julius Grätz noch 1885 die knapp 100 Jahre zuvor übertünchten Gemälde der barocken Kaisertreppe wiederhergestellt und man selbige in ihrer Substanz renoviert hatte, ging man 1887 und 1888 zunächst die dringend nötige Renovierung der Häuser Frauenstein und Salzhaus an (vgl. Bild). Von der prachtvollen, aus dem 18. Jahrhundert stammenden Bemalung des Hauses Frauenstein waren nur noch Fragmente auf der Fassade auszumachen, das vollständig mit Eichenholzschnitzereien verzierte Salzhaus zeigte überall Senkungen und schwere Witterungsschäden. Die gemalten Partien der Fassaden fertigte der sich bei der Renovierung der Kaisertreppe offenbarte bewährte Grätz anhand der erhaltenen Reste völlig neu mit modernen Mineralfarben, beim Salzhaus wurden die beschädigten Teile der Schnitzfassade mit einer speziellen Holzpaste gekittet und, wo nötig, auch nachgeschnitzt. Ebenso wurden die sandsteinernen, mit jahrhundertealter Ölfarbe verunreinigten Erdgeschosse aus Mainsandstein gereinigt und die Balken sowie Dächer der im Kern reinen Fachwerkbauten erneuert. Bei der sich 1889 anschließenden Erneuerung des Fachwerkhauses Wanebachs tauschte man ebenfalls den Großteil der Balkenlagen aus, ohne ihre Abfolge zu ändern, und verputzte die anschließend mit neuen Ziegeln ausgemauerten Gefache; ferner wurde noch das Dach dahingehend verbessert, dass man seinen Abfallwinkel an den der umgebenden Römergebäude anpasste. Bis 1891 beseitigte man unter Stadtbauinspektor "Rügemer" auch die Mauer, die die Römerwachen der Häuser Frauenrode und Goldener Schwan von Hof des Häuser Silberberg und Alt-Limpurg trennte. Der zu letzterem Haus gehörige Treppenturm wurde nun auch den neuen räumlichen Verhältnissen entsprechend nach Norden hin in Neorenaissanceformen ergänzt. Für die Zusammenlegung der Höfe gab man 13.089 Mark, für die Ergänzung des Treppenturms nochmals 5.000 Mark aus. Max Meckels Siegerentwurf, Oktober 1889 Die ursprüngliche schlichte Fassade mit gotischen Stufengiebeln entsprach mittlerweile nicht mehr den ästhetischen Erwartungen und dem Repräsentationsbedürfnis der Bürgerschaft und konnte auch national nicht mehr mit den teils pompösen Rathausneubauten der Kaiserzeit konkurrieren. In der Römerbau-Kommission herrschte lange Uneinigkeit darüber, an welchem, wenn überhaupt bildlich überlieferten historischen Zustand man sich für die Wiederherstellung zu orientieren habe. So schrieb man Anfang 1889 einen Wettbewerb aus, dessen Preisgericht im Oktober desselben Jahres den schlicht "Dreigiebel" genannten Entwurf des das Amt eines Diözesanbaumeisters bekleidenden Architekten Max Meckel und des Malers Peter Becker zum Sieger kürte. Zwischenentwurf mit kaiserlichen Lob, 1890 Der Römerbau-Kommission war diese erste Fassung jedoch einstimmig zu überladen und wohl auch zu teuer, so dass man Meckel praktisch direkt im Anschluss an die Wettbewerbsentscheidung um mehrere vereinfachte Überarbeitungsentwürfe bat. Meckel kam der Bitte bis Februar 1890 nach (vgl. Bild), weitere Beratungen innerhalb der Kommission schlossen sich an, und im Oktober 1891 schließlich wurde der ausgewählte Entwurf mit einem Kostenvoranschlag von 373.100 Mark der Stadtverordnetenversammlung zur Verabschiedung vorgelegt. Der im Wesentlichen noch heute zu sehende, in den Jahren 1896 bis 1900 unter der Bauleitung des Frankfurter Architekten Claus Mehs ausgeführte Entwurf im reinen neogotischen Stil veränderte trotz einer letztlich gegenüber dem Urzustand beibehaltenen Fassadengliederung und einem gegenüber dem Ursprungsentwurf stark reduzierten ikonographischen Programm einiges. Neben zahllosen Detailveränderungen wurde dem zentralen Haus Römer der bekannte Balkon hinzugefügt, die Stufengiebel, Fenstergewände sowie die Portale an allen Häusern gotisiert und die erneuerte Uhr mit einer reichen Fialenbekrönung versehen. Die ikonographische Gestaltung – die eigens eine von Oberbürgermeister Adickes eingesetzte Kommission abweichend von den ursprünglichen Vorschlägen Meckels erarbeitet hatte – erstreckte sich auf die Figur der Francofurtia an der Südostecke des Hauses Alt-Limpurg, den Frankfurter Adler unter der Giebelspitze des Hauses zum Römer, die Figuren der Kaiser Friedrich I., Ludwig IV., Karl IV. und Maximilian II. sowie die Wappen alter Frankfurter Patrizierfamilien am Balkon bzw. von eng mit Frankfurter im Mittelalter verbundenen Städten unterhalb der Fenster des Hauses Löwenstein. Für die Gestaltung und Ausmalung des Ratskellers wurde ein Wettbewerb aus egschrieben, den Joseph Kaspar Correggio gewann, die Arbeiten wurden 1904–05 ausgeführt und sind im Großen und Ganzen bis heute erhalten. Haus Silberberg an der Limpurger Gasse, nach 1900 Meckels Wirken erstreckte sich allerdings nicht nur auf die bekannte Dreigiebelfassade, sondern auch auf eine Umgestaltung des Kaisersaals, eine erneute Veränderung des Sitzungssaals der Stadtverordneten im Haus Alt-Limpurg sowie die Freilegung der Fachwerke des Hauses Silberberg. Der Kaisersaal hatte sich trotz der Umbauten zu Mitte des 19. Jahrhunderts bis dato noch Reste seiner originalen, tatsächlich „kaiserlichen“ Ausstattung wie etwa der barocken Eingangstüren zum Kürfürstenzimmer bzw. zur Kaisertreppe bewahrt, die nun auch einer Stilbereinigung zum Opfer fielen. Bauliche Veränderungen auf dem Ravenstein-Plan von 1862 Römerhöfchen vor den Renovierungen, um 1890 Die tiefgreifendste aller Baumaßnahmen, der Bau des Neuen Rathauses, wurde erst nach langen vorangegangenen Beratungen in der Römerbau-Kommission durch Beschluss der Stadtverordnetenversammlung am 24. April 1900 endgültig besiegelt, die dafür Geldmittel in Höhe von rund 5,5 Millionen Mark bewilligte. Ihm war 1897 ein Wettbewerb vorausgegangen, der eine Kombination der Entwürfe der Frankfurter Architekten Franz von Hoven und Ludwig Neher zum Sieger kürte. 1898 hatte man die Verlängerung der "Bethmannstraße" vom "Großen Hirschgraben" durch die westlich anschließenden Häuserblocks gebrochen und bis an die Kreuzung dieser mit dem "Großen Kornmarkt" bzw. der "Buchgasse" herangeführt. Nun fielen gleich mehrere dutzend Häuser (offiziell wurden 19 Grundstücke für rund 2,8 Millionen Mark gekauft) sowie die drei westlichsten, zum Rathaus gehörenden Teilbauten Frauenrode mit dem mittelalterlichen Archivturm, Viole und Schwarzenfels der Abrissbirne zum Opfer, um Platz für den Rathausneubau zu machen. Die die abgerissenen Bauten trennenden Straßenzüge Römergasse, "Kälbergasse" und "Hinter dem Römer" wurden völlig aufgegeben, die einst nur bis an die Rückseite des Hauses "Klein-Limpurg" reichende "Limpurger Gasse" entlang dem Neubau bis an die Buchgasse geführt (vgl. Plan). Auf der Parzelle von Frauenrode entstand der neue "Bürgersaalbau" mit dem "Ratskeller" im Erdgeschoss, westlich und südlich davon, begrenzt durch die Buch- und Limpurger Gasse der schlicht betitelte "Südbau" mit zwei Türmen, nördlich davon der entsprechend betitelte "Nordbau" zwischen Großer Kornmarkt, "Barfüßergasse" und "Paulsplatz". Nord- und Südbau verband man mit einer Brücke, der die Frankfurter Bürger, die im Nordbau ihre Steuern bezahlten, wegen der hohen Abgaben den Namen "Seufzerbrücke" in Anlehnung an das venezianische Original gaben. Auch die zwei Türme des Südbaus bekamen Spitznamen: Der große wurde nach dem groß gewachsenen Oberbürgermeister Langer Franz genannt und der kleine nach einem zeitgenössischen Schlager Kleiner Cohn. Der große Rathausturm entstand äußerlich als Kopie des 1769 abgerissenen Sachsenhäuser Brückenturms, der kleine als Kopie des berühmten Salmensteinschen Hauses; dieses war um 1350 auf der mittelalterlichen Stadtmauer im Bereich des heutigen Wollgrabens/Börneplatzes erbaut worden. Auch die anderen Neubauten wurden architektonisch vom Historismus geprägt: Während der Südbau und der Ratskeller im neogotischen und der darüber liegende Bürgersaalbau im Stil der Neorenaissance entstand, war der Nordbau eher von neobarocken Formen beeinflusst. Die Innenausstattung geriet nicht minder prächtig und bezog wie auch am Außenbau als wertvoll erachtete Originalteile aus den zuvor abgerissenen alten Rathausteilen und Privatbauten, insbesondere des "Clesernhofes", mit ein. Römerhöfchen nach den Renovierungen, um 1905 Das Römerhöfchen erreichte einen nun pittoresken Endzustand – die Ostseite mit dem Treppenturm am Hause Alt-Limpurg lag, wie zuvor beschrieben, bereits seit 1891 frei, seit 1900 war auch durch die Fachwerkfreilegung bzw. Ergänzung am Haus Silberberg die Südseite wieder in den ursprünglichen Zustand zurückversetzt. 1904 kam ein von Gustav D. Manskopf gestifteter und von Joseph Kowarzik geschaffener Brunnen mit Herkulesfigur sowie eine erneuerte und bemalte West- bzw. Nordwestseite hinzu, die sich durch den Rathausneubau ergab. Der aus dem 16. Jahrhundert stammende, westliche Treppenturm wurde dabei erhalten, renoviert und mit einer Uhr versehen. Einzig die zum Hof zeigende Südfassade des Goldenen Schwans mit den Fenstern des Kurfürstenzimmers sowie der darüber befindlichen Sonnenuhr verblieb in ihrem alten, barocken Zustand. Grundriss nach Abschluss der Neubauten, 1908 Während man 1883 die im Erdgeschoss des Hauses Alt-Limpurg befindliche Geschlechterstube noch in ihrem überkommenen, praktisch mittelalterlichen Zustand belassen hatte, hatte man 1908 wohl in Anbetracht der gewaltigen bereits durchgeführten Umbauten auch hier nur noch wenig Achtung vor dem überkommenen Charakter und führte auch hier idealisierte Neugestaltung durch, die wenig von der ursprünglichen Substanz beließ. Nachdem der Magistrat seit dem Umbau vom Kurfürstenzimmer in den für ihn eigens gebauten Sitzungssaal im zweiten Obergeschoss des Rathaussüdbaus umgezogen war, tagte die Stadtverordnetenversammlung zunächst weiter in ihrem angestammten Sitzungssaal im Haus Alt-Limpurg. Als sich 1919 die Zahl der Stadtverordneten durch Gesetzesänderungen wesentlich vergrößerte, war dieser jedoch zu klein geworden, und man wechselte in den Bürgersaal über, der mit rund 150 Sitzen ausreichend Platz für die Volksvertreter bot. Nationalsozialismus und die Zerstörung im Zweiten Weltkrieg (1933 bis 1945). Nach der nationalsozialistischen Machtergreifung war durch die am 15. Dezember 1933 verabschiedete neue preußische Gemeindeverfassung das seit 1867 gültige kommunale System von Oberbürgermeister und Bürgermeister, Magistrat und Stadtverordnetenversammlung binnen kürzester Zeit beseitigt worden. Nach dem nun herrschenden Führerprinzip gab es die Stadtverordnetenversammlung nicht mehr, was vor dem Hintergrund des Verbots praktisch aller politischen Parteien außer der NSDAP ohnehin obligatorisch war, der Magistrat bestand nun größtenteils aus handverlesenen Mitstreitern des überzeugten Nationalsozialisten und Oberbürgermeisters Friedrich Krebs. Somit blieb auch der historistische Bürgersaal der Stadtverordneten ab 1933 nur noch Fassade – im selben Jahr wurde in ihm eine Hitlerbüste aufgestellt und Hakenkreuzflaggen an den Wänden entrollt. 1938 verschwand anlässlich eines Besuchs von Adolf Hitler auch das gesamte Mobiliar aus dem Saal, das bis dato noch entfernt an die einstige Funktion erinnert hatte. Der Gleichschaltung unterliegende Literatur aus demselben Jahr begründete dies damit, dass der "„Bürgersaal seiner ursprünglichen Bestimmung nach […] der Festsaal der Stadt“" sei. Ansonsten wurde in jenen Jahren außer der 1936 erfolgten Einweihung eines Ehrenmals für die im Ersten Weltkrieg gefallenen 980 Mitarbeiter der Stadtverwaltung am Römer selbst wenig verändert. Selbst bei Besuchen von Persönlichkeiten aus der nationalsozialistischen Führungsriege standen die prachtvollen und historisch bedeutsamen Innenräume des Römers zumeist nicht auf dem Terminplan, hatte die durch sie bewahrte Erinnerung an die Zeit der Kaiser und einer bürgerlichen Vergangenheit doch nur wenig mit dem angestrebten völkischen Führerstaat gemeinsam. Im Zweiten Weltkrieg zeichnete sich schnell ab, dass Frankfurt Ziel von Luftangriffen werden würde. Da die kunsthistorisch bedeutsamsten Werte des Römers jedoch immobil waren, konnte nur ein Bruchteil durch Auslagerung gesichert werden: die Kaiserporträts des Kaisersaals wurden sämtlich ausgebaut, ebenso die geschnitzte Holzverkleidung des Salzhauses abgenommen, was jedoch nur zum Teil möglich war, da viele geschnitzte Partien tragende Teile des Fachwerkhauses darstellten. Im Rahmen des geheimen "„Führerauftrags Farbphotographie“" hatte das Reichsministerium für Volksaufklärung und Propaganda 1943 eine Liste von als wertvoll erachteten Denkmälern in ganz Deutschland ausgegeben, deren Fresken und Stuckaturen binnen kürzester Zeit mit frühen Agfacolor-Farbfilmen erfasst werden sollten. Hierzu zählten im Römer auch die meisten Werke aus der Hand von Baptist Innocenz Colomba und Christian Leimberger, die der anerkannte Frankfurter Fotograf Paul Wolff noch im selben Jahr dokumentierte. Bereits am 4. Oktober 1943 traf der erste schwere Angriff die Stadt, der am Römer jedoch nur einige Dächer beschädigte. Erst knapp sechs Monate später schlug die Schicksalsstunde Frankfurts, als ein Großangriff in der Nacht des 22. März 1944 praktisch die gesamte Altstadt zerstörte und einen gewaltigen Feuersturm entfesselte, der noch über mehr als 100 Kilometer sichtbar war. Gemäß einem aus demselben Jahr stammenden Schadensplan (vgl. Bild) wurde der Rathauskomplex von vier schweren Sprengbomben direkt getroffen, zahllose Brandbomben entzündeten die beschädigten Dächer, übergreifende Großfeuer aus der brennenden Altstadt taten ein Übriges. Alle Fachwerkteilbauten, d. h. die Häuser Frauenstein, Salzhaus, Wanebach und Silberberg, verbrannten restlos, die reinen Steinbauten Alt-Limpurg, Löwenstein, Römer und Goldener Schwan innerlich vollkommen aus. Aufgrund der nun fehlenden inneren Stabilität stürzte der Giebel des Hauses Römer zudem bis auf Höhe der Fensterfront des Balkons ein. Zu den kunsthistorisch schmerzhaften Totalverlusten an Innenausstattung zählten die Geschlechterstube im Haus Alt-Limpurg, die Kaisertreppe, der Kaisersaal, das Kurfürstenzimmer sowie sein Vorzimmer mit Rotunde. Die historistischen Anbauten dagegen wurden größtenteils nur in den Dächern und in den oberen Geschossen beschädigt. Weitestgehend erhalten blieben ferner die sandsteinernen Erdgeschosse der drei Fachwerkhäuser, die Umfassungsmauern der vier Steinbauten, die massiven Gewölbe der Römer- und Schwanenhalle in den gleichnamigen Häusern sowie das Renaissance-Treppentürmchen im ansonsten völlig verwüsteten Römerhöfchen. Wiederaufbau und Gegenwart (1945 bis heute). Der umstrittene Salzhausneubau, August 2011 Noch 1945 zog man direkt nach Kriegsende Notdächer aus Rundhölzern, teils mangels Materials sogar aus Fahnenstangen über den Ruinen ein, um sie vor der weiteren Einwirkung der Witterung zu schützen. 1947 erhielt der vergleichsweise gering beschädigte historistische Südbau bereits ein massives Zementflachdach, gleichzeitig begannen Sicherungsmaßnahmen an den teils völlig frei zur Straße hin stehenden Fassaden der ausgebrannten Häuser, da diese aufgrund mangelnder innerer Stabilität umzustürzen drohten. Ein Jahr später war der Nordbau – passend zur Einweihung der ebenfalls wieder aufgebauten Paulskirche – unter Verwendung eines Flachdaches weitestgehend instand gesetzt, ebenso der neue Dachstuhl des Bürgersaalbaus, der, abgesehen vom historistischen Dachreiter, in der alten Form wiedererstand. Nach Abschluss der vorgenannten grundlegenden Sicherungsarbeiten beauftragte der Magistrat im Sommer 1950 die Bauverwaltung mit dem Innenausbau, sowie den Arbeiten am insbesondere aus kunsthistorischer Sicht wesentlich problematischeren, da wirklich historischen und auch fast völlig zerstörten Teils zum Römerberg hin. Entsprechend dem Vorschlag des damaligen Hochbaudezernenten "Wolf" wurde einzig die Aufstockung des Rathaussüdbaus von der Bauverwaltung selbst durchgeführt, der Rest der Projektierung aber ausgeschrieben. Dies geschah bereits explizit unter dem Aspekt, moderne architektonische Lösungen für den Wiederaufbau zu finden, und keine völlige Rekonstruktion anzustreben. Den Plänen der Architektengemeinschaft von "Otto Apel", "Rudolf Letocha", "William Rohrer" und "Martin Herdt", denen aus fünf verschiedenen Entwürfen letztlich der Vorzug gegeben wurde, zeichnete sich vor allem dadurch aus, die Gebäude beim Wiederaufbau innerlich zu einem einzigen Komplex zusammenzufassen, und im Bürgersaalbau im Bereich des ehemaligen Bürgersaals ein zusätzliches Stockwerk einzuziehen. Damit sollte zum einen das schon seit Jahrhunderten berüchtigte Gängewirrwarr im Inneren des Rathauses, bedingt durch die Zusammenfassung architektonisch völlig verschiedener Bauten, ein Ende haben. Schon Anton Kirchner fand Anfang des 19. Jahrhunderts hier befindliche "„Treppen, Vorplätze, Säle und Zimmer in ziemlich labyrinthischer Mischung“". Ferner sollten durch das zusätzliche Stockwerk im Bürgersaalbau Magistrat und Stadtverordnetenversammlung zukünftig an einem Ort untergebracht werden können. Ein echter Diskurs zwischen Bürgerschaft, Presse, Politik und Architekten entbrannte dagegen um die Wiederherstellung der Häuser Frauenstein, Wanebach und Salzhaus. Bei allen Bauten waren die steinernen, reich verzierten Erdgeschosse noch vorhanden, beim Salzhaus nicht unwesentliche Teile der Schnitzfassade gerettet worden, die Quellenlage bezüglich der Fassadenmalereien aufgrund der erst einige Jahrzehnte zurückliegenden Restaurierungen vergleichsweise gut. Auf der anderen Seite stand eine Architektenschaft und auch große Teile der Politik, die Historizismen jeglicher Art gegenüber ablehnend eingestellt waren, und eine immer noch große Material- und Finanzknappheit. Die Mehrzahl der zunächst vorgelegten Entwürfe sah dem Zeitgeschmack entsprechende und billig zu errichtende kubistische Bauten vor, gegen die man sich seitens der Politik aber bereits im Januar 1951 zugunsten von Giebelbauten entschied, um die Symmetrie der Erscheinung zum Römerberg hin zu wahren. Der Streit um einen originalgetreuen Wiederaufbau insbesondere des Salzhauses zog sich noch bis in den Mai 1951, als das Gesamtprojekt nach einigen Änderungen endgültig von der Stadtverordnetenversammlung bewilligt wurde. Der Kompromiss waren letztlich die bis heute zu sehenden, für die Zeit ungewöhnlich reichen Eisenbetonbauten mit Kalksteinverkleidung und Glasmosaiken, in die Teile der geretteten Schnitzfassade des Salzhauses mit einbezogen wurden. Bereits 1952 waren die Wiederaufbauarbeiten im Wesentlichen abgeschlossen. Die Häuser Römer, Goldener Schwan, Löwenstein und Alt-Limpurg wurden äußerlich unverändert restauriert; dies geschah teils allerdings unter Veränderung des historischen Grundrisses und unter Verwendung moderner Fenster- und Dachformen. Die verbrannten Fachwerkobergeschosse des Hauses Silberberg ersetzte man durch einen steinernen, gegenüber den Lösungen beim Salzhaus und Haus Frauenstein jedoch in reinen Zweckformen errichteten Massivbau auf dem weitgehend unbeschädigten Erdgeschoss. Auch die Innenräume wurden neu eingerichtet. Die Werte Transparenz und Bescheidenheit wurden in den Vordergrund gestellt. Besonders gut lässt sich das an der Treppe im Haus Löwenstein oder dem neuen Wanebachhöfchen erkennen. Der Kaisersaal wurde in vereinfachten Formen unter Einbeziehung der geretteten Bildnistafeln der deutschen Kaiser wiederhergestellt, auf eine Wiederherstellung totalzerstörter Räume wie etwa des Kurfürstenzimmers wurde trotz der Rettung großer Teile des Mobiliars und vieler Einzelkunstwerke verzichtet. Abgesehen von der gemeinsamen Unterbringung von Magistrat und Stadtverordnetenversammlung im Bürgersaalbau änderte sich innerlich von den Nutzungen jedoch nur wenig. 1955 erfolgte die feierliche Wiedereröffnung der Römers durch den damaligen Bundespräsidenten Theodor Heuss. Insgesamt sind die Wiederaufbauleistungen vor dem Hintergrund der finanziellen Nöte, der Materialknappheit, und der Kürze der Zeit, in der sie durchgeführt wurden, größtenteils als beispielhaft anzusehen. Während andere Städte ihre historischen Rathäuser bei teils ähnlichen Zerstörungsgraden völlig aufgaben, hat Frankfurt es durch die Symbiose aus Rekonstruktion und Neubauten geschafft, den historischen Charakter des nicht nur für die Stadtgeschichte und das Bild des Römerberges so wichtigen Baudenkmals zumindest äußerlich zu wahren. Seufzerbrücke, als einzige oberirdische Verbindung Kritisch zu betrachten ist allerdings die bis heute nicht wiederhergestellte Dachlandschaft der Rathausneubauten und insbesondere der zwei zugehörigen Türme, wodurch diese auf den zweiten Blick seltsam gekappt wirken. Die Freunde Frankfurts haben seit einiger Zeit das Vorhaben auf ihrer Agenda, die Dachaufbauten der Türme Kleiner Cohn und Langer Franz zu rekonstruieren, und sammeln hierfür Spenden. Auch im Grunde bis in die Gegenwart nicht gelöst ist die Frage nach der Verwendung der Salzhausfassade, von der erheblich größere Teile 1943 gerettet wurden und im städtischen Lapidarium einer Verwendung harren, als an dem unbestritten qualitätvollen Nachkriegsbau zu sehen sind. Die Fassade zum Römerberg ist in den letzten Jahrzehnten noch zweimal erneuert worden: in den Jahren 1974 und 2005 erlangte sie weitestgehend wieder ihr neogotisches Aussehen von 1900, einzig der kriegszerstörte Baldachin über der Uhr des Hauses Römer ist bis heute nicht ersetzt worden. Auch im Innern veränderte sich einiges, so konnte 1988 der umgebaute Saal der Stadtverordnetenversammlung fertiggestellt werden. Der Römer ist heute trotz regelmäßiger Touristenströme in den Kaisersaal jedoch kein Museum, sondern wird von der Stadt in vielfältiger Weise genutzt. Der weitaus größte Teil des Inneren dient Amtsräumen für die Stadtverwaltung; die zunächst für die Mitarbeiter derselben gedachte Kantine im historistischen Ratskeller ist seit ihrer Privatisierung seit einigen Jahren auch wieder der Öffentlichkeit zugänglich. Der Oberbürgermeister und Bürgermeister haben ihre Dienstzimmer in den Obergeschossen des Goldenen Schwans, wo die Frankfurter Stadtobersten schon seit 1405 gesessen haben. Auch ist im Römer ein beliebtes Standesamt untergebracht; die Trausäle befinden sich im ersten und zweiten Obergeschoss des Hauses Löwenstein. Im Erdgeschoss des Salzhauses ist ein Informationszentrum für Touristen untergebracht. Architektur. Der gesamte dreistöckige Gebäudekomplex umfasst eine Grundfläche von etwa 10.000 m² und besteht heute aus neun zusammenhängenden Häusern, die sechs Innenhöfe einschließen. Die Fassade mit dem heutigen Haupteingang liegt am Römerberg. Weitere umgebende Straßen sind die "Limpurgergasse" im Süden, die "Buchgasse", sowie die "Berliner Straße" im Norden. Die Bethmannstraße teilt den Südbau vom Nordbau. Dreigiebelfassade. Die berühmte Dreigiebel-Front spiegelt die Geschichte der Stadt und des Reichs wider. So sieht man an der linken Hauskante von "Alt-Limpurg" (ehemals "Haus Laderam" im Besitz der Hartrad) die Francofurtia, die weibliche Verkörperung der Stadt. Am mittleren Haus "Römer" sind vier Kaiser, zwei Stadtwappen, ein Zifferblatt sowie eine Tafel mit den wichtigsten Informationen zum Haus dargestellt. Die vier Kaiser sind im Einzelnen: Friedrich Barbarossa, der erste in Frankfurt gewählte König (1152), Ludwig der Bayer, der die Messerechte der Stadt ausweitete (1330) und ihr eine Stadterweiterung erlaubte (1333), Karl IV., der in der Goldenen Bulle Frankfurt als Wahlort festschrieb (1356) und Maximilian II., der erste im Frankfurter Dom gekrönte Herrscher (1562). Der rechte Giebel schließlich gehört zum "Haus Löwenstein". Wie die neogotische Fassade wurde auch der Balkon erst nach dem Umbau von 1900 angebaut. Er ersetzte einige Holzvordächer, die so genannten "Schoppen". Der Balkon wird heute wie damals als repräsentative Bühne für Staatsbesuche und Ähnliches benutzt. So traten beispielsweise 2003 die Weltmeisterinnen des Damenfußballs und 2002 die Vize-Weltmeister des Herrenfußballs auf. Einen anderen Weg ging man nach dem Zweiten Weltkrieg bei der Fassadengestaltung der beiden nordöstlichen, 1944 nahezu vollständig zerstörten Häuser "Frauenstein" und "Salzhaus". Die Architekten entwarfen unter Beibehaltung der historischen Maßstäbe und Bauvolumina eine moderne Fassade. Sie akzeptierten den unwiederbringlichen Untergang der historischen Altstadt und entschieden sich für einen bewussten Neuanfang. Als Zeichen dafür steht das Mosaik des Phönix aus der Asche. Drei der geretteten Relieftafeln des "Salzhauses" wurden in die Fassade eingegliedert und führen dem Betrachter den Verlust vor Augen. Balkon. Da Frankfurt Sitz des Deutschen Fußballbundes ist, wurde der Balkon des Römers zum Ort, auf dem sich die Fußballnationalmannschaften der Männer und Frauen nach ihrer Rückkehr von erfolgreichen Turnieren (Platz 1–3) den Fans präsentieren. 2006 fand die Feier der Männermannschaft erstmals in Berlin statt. Auch die ortsansässigen Fußballvereine Eintracht Frankfurt, FSV Frankfurt und FFC Frankfurt feiern ihre Triumphe immer auf dem Balkon. Römer- und Schwanenhalle. Diese beiden Hallen sind die ältesten noch erhaltenen Räume im Gebäudekomplex. Sie blieben in 600 Jahren nahezu unverändert. Schon bei der Ostermesse von 1415 wurde an jeder der beiden Türen zum Römerberg und zum Paulsplatz hin eine Fahne aufgesteckt, um anzuzeigen, dass in den Hallen Waren feilgeboten wurden. Jahrhundertelang dienten die Hallen zum Anbieten von Messewaren, erst 1846 wurde die letzte Bude entfernt. Insbesondere Gold- und Silberschmiede boten ihre Waren unter diesem Gewölbe an. Auch kurz nach dem Zweiten Weltkrieg wurden sie wieder in dieser Weise benutzt, da die massiv gebauten Hallen den Krieg fast unbeschädigt überstanden haben. Die beiden Hallen liegen im Erdgeschoss der Häuser "Römer" und "Goldener Schwan" und sind heutzutage direkt über den Haupteingang am Römerberg zu erreichen. Kaisersaal. Der wohl bekannteste Saal des Römers befindet sich oberhalb der Römerhalle im zweiten Obergeschoss. Hier fanden im Heiligen Römischen Reich seit 1612 die Krönungsbankette nach der Kaiserwahl statt. Heute ist der Kaisersaal vor allem berühmt durch die Bilder aller 52 Kaiser des Heiligen Römischen Reichs. Es ist die einzige Sammlung dieser Art. Die Anfänge des Frankfurter Kaisersaals reichen bis in das 15. Jahrhundert zurück. Im Jahre 1711 wurde der Saal mit gemalten Brustbildern der deutschen Kaiser ausgeschmückt, in Form von bronzefarbenen Büsten auf Postamenten. Spätestens seit dieser Zeit trug er den Namen Kaisersaal. Nachdem er schon längere Zeit als Depot der Frankfurter Stadtbibliothek gedient hatte, war der Kaisersaal im Römer 1825 stark reparaturbedürftig. Nach wie vor befanden sich in den spitzbogenförmigen Nischen die Kaiser als Bronzeportraits. Der Magistrat bewilligte 2500 Gulden zur Sanierung des Saales. Dabei wurden die noch fehlenden Bildnisse der Kaiser Leopold II. und Franz II. in Farbe ergänzt. Wenige Jahre später machte sich die Administration des Städelschen Kunstinstituts den Kaisersaal zu einem „patriotischen“ Anliegen. Sie schlug am 10. September 1838 vor, den Saal mit neu zu malenden Bildnissen auszustatten. Der Senat der Freien Stadt Frankfurt stimmte diesem Vorschlag zu. Die künftigen Porträts der Kaiser sollten dem wirklichen Aussehen der Herrscher entsprechen. Mit der Ausführung wurden die besten Maler der Zeit beauftragt. Die Finanzierung der 51 Bildnisse sollte durch Stifter geschehen. Tatsächlich gelang es, Privatpersonen, Fürsten, bürgerliche Vereine, Städte Stiftungen und Gruppen für das Unternehmen zu begeistern. Wichtigster Stifter war das österreichische Kaiserhaus mit neun Bildern. Etwas mehr als die Hälfte der Bilder wurde von Frankfurter Personen und Institutionen bezahlt. Bereits im Januar 1841 hatten 22 Porträts ihre Aufstellung gefunden. Die übrigen Bilder folgten in größeren Zeitabständen, bis die Kaisergalerie im Kaisersaal 1853 mit dem Bild Karls des Großen von Philipp Veit ihren Abschluss fand. Die Bildnisse gehen von Karl dem Großen bis Franz II. Alle Kaiser bis auf die Karolinger sind in etwa lebensgroßen Ganzfiguren dargestellt; die Bilder haben eine Höhe von ca. 280 cm und eine Breite von ca. 80 cm. Mit Ausnahme der Erstversion von Ludwig IV., dem Bayern, gehören die Gemälde zum Inventar des Historischen Museums Frankfurt. Eine Besonderheit ist das Doppelporträt mit Arnulf von Kärnten (887-899) und seinem Sohn Ludwig IV., das Kind (900-911). Die vier Könige des Interregnums, also Konrad IV., Wilhelm von Holland, Richard von Cornwall und Alfons X. von Kastilien wurden nicht in die Kaisergalerie aufgenommen. Hingegen ist der Gegenkönig Günther von Schwarzburg Mitglied der Galerie, wohl weil er als einziger der Herrscher in Frankfurt begraben liegt. Im Sockelfeld war zunächst nur der Name des Kaisers eingetragen. Später wurden Wahlsprüche und Devisen der Kaiser von anderer Hand auf den Abschnitt gemalt. Einzelnachweise. Frankfurt am Main Grigori Jefimowitsch Rasputin. Grigori Jefimowitsch Rasputin (, wiss. Transliteration '; * in Pokrowskoje, Gouvernement Tobolsk; † in Petrograd) war ein russischer Wanderprediger, dem Erfolge als Geistheiler nachgesagt wurden. Zusammenfassung. Rasputin wurde am im Dorf Pokrowskoje am linken Ufer der Tura, 80 km östlich der Stadt Tjumen in Westsibirien als Bauernsohn geboren. Im Alter von 17 Jahren begann er eine fünfzehnjährige Zeit als Pilger, um Näheres über Religion zu lernen. Ab 1901 blieb er einige Zeit in seinem Heimatdorf und machte sich dann 1903 nach St. Petersburg auf. Berühmt wurde Rasputin, weil er an den Zarenhof gerufen wurde, in der Hoffnung, die Blutungen des an Hämophilie leidenden Zarensohns Alexei durch Gebet zum Stillstand zu bringen. Zeitzeugen, wie auch Ärzte und Kritiker, bestätigten, dass Rasputin einen damals unerklärlichen Einfluss auf den Zarensohn und dessen lebensgefährliche Blutungen besaß. Diese Fähigkeit Rasputins brachte die Zarin Alexandra zur Überzeugung, dass Rasputin ein Heiliger war, der ihr von Gott geschickt worden sei, um ihren Sohn zu beschützen. Für die Zarin war die Ankunft Rasputins die Antwort Gottes auf ihre leidenschaftlichen Gebete. Dem späteren Innenminister Alexander Protopopow erklärte sie, dass Rasputin mit seinen Heilkräften ihr Sicherheit zurückgegeben und dadurch ihre Schlaflosigkeit beendet habe. Daher wies die Zarin jede Kritik an Rasputin stets strikt zurück. Trotz dieses hohen Ansehens bei der Zarin hat Rasputin den Zarenpalast nach anfänglich häufigen Besuchen bald nur noch selten betreten. Da die Erkrankung des Zarensohnes geheimgehalten wurde, blieb in der Öffentlichkeit das Ansehen, das der „ungebildete Bauer Rasputin“ bei der Zarenfamilie, besonders bei der Zarin, genoss, unerklärlich. Zusammen mit Rasputins manchmal recht seltsamem Verhalten gab dies Anlass zu Klatsch und auch Verleumdungen aller Art. Rasputin wurde stets ein sehr unmoralischer Lebenswandel mit permanenten Sexorgien vorgeworfen. Bei Rasputin kamen Eskapaden zwar vor, etliches würde bei einem Priester auch nie geduldet, die meisten Vorwürfe waren aber frei erfunden. Anders als oft berichtet betrafen sie nie Frauen der höheren Gesellschaft oder gar des Zarenhofes. Am Zarenhof wurde diese „dunkle“ Seite Rasputins nie wahrgenommen. Am 29. Juni 1914 wurde Rasputin bei einem Angriff mit einem Dolch in seinem Geburtsort Pokrowskoje schwer verletzt. Nach diesem Attentat begann Rasputin sich öffentlich zu betrinken, und so gab es im Winter 1915 einen landesweiten Skandal. Rasputin hatte am 25. März 1915 im Lokal „Jar“ in Moskau stark alkoholisiert herumgepöbelt, was landesweit von der Presse verbreitet wurde. Während des Ersten Weltkrieges zeigte sich nach anfänglichen militärischen Erfolgen, dass das damalige Russland mit seinem unmodernen Militär, schwach ausgebauten Eisenbahnsystem und seinem gering entwickelten Industriesektor der deutschen Militärmacht nicht gewachsen war. Bei der Suche nach Schuldigen für die militärischen Niederlagen wurde Rasputin zum Sündenbock für die katastrophale Lage des russischen Reiches, obwohl sein politischer Einfluss in Wirklichkeit sehr gering war. Am 17. Dezember 1916 wurde Rasputin unter Führung von engen Verwandten des Zaren Nikolaus II. ermordet. In den meisten Veröffentlichungen über Rasputin wird als Todestag der 16. Dezember 1916 angegeben, es ist inzwischen aber klar, dass Rasputin in der Nacht vom 16. auf den 17. Dezember weit nach Mitternacht starb. Rasputin vor seiner St. Petersburger Zeit. Rasputins Eltern, Jefim Jakowitsch und Anna Wasiljewna, waren Bauern und besaßen eigenes Land sowie mehrere Kühe und Pferde. Die Familie gehörte zu den eingesessenen Bauern des Dorfes mit einigem Vermögen und respektablem Ansehen. Rasputin hatte eine Schwester und einen Bruder, die früh starben. Sein Bruder starb an einer Lungenentzündung und die Schwester, die an Epilepsie litt, ertrank bei einem Anfall im Fluss, an dem sie Wäsche wusch. Auch die Mutter starb recht früh. Am Ort gab es kaum Möglichkeiten zur Schulbildung. Lesen und Schreiben brachte sich Rasputin ansatzweise später selbst bei. Als Jugendlicher galt er als „Tunichtgut“; als er siebzehn war, lagen im Jahr 1886 mehrere Anzeigen gegen ihn bei der Polizei in Tobolsk vor. Ihm wurde Trunksucht, Mädchenschändung und Diebstahl vorgeworfen. Es kam zu keiner Verurteilung, aber in diesen polizeilichen Ermittlungen ist die erste offizielle Beschreibung Rasputins enthalten: 1,82 Meter groß, helle strähnige Haare, längliches Gesicht und ein dunkelrötlicher Vollbart. 1) Im Alter von etwa acht Jahren, demnach etwa im Jahr 1877, stürzen der kleine Grigori und sein Bruder Michail beim Spielen in den Fluss Tura. Michail findet dabei den Tod durch Ertrinken, Grigori aber wird gerettet und erkrankt an Lungenentzündung. Im Fieberwahn dann erscheint ihm eine schöne blonde Frau in einem weißblauen Kleid und befiehlt ihm, dass er wieder gesund werden solle. Der herbeigerufene Dorfpope wertet das Erlebnis als Erscheinung der Gottesmutter 2) Die zweite Marienerscheinung erfolgte im Alter von 18 Jahren, folglich 1887. Als der junge Rasputin auf das Feld geht, um zu pflügen, geschieht laut den Erinnerungen seiner Tochter Maria Rasputin Folgendes: Eine Fülle gleißenden Lichts breitet sich vor ihm aus, himmlische Musik erklingt, und er erkennt die Gottesmutter von Kasan, die sich auf ihn zubewegt. Sie trägt eine goldene Krone auf dem Haupt, ist umgeben von einem pulsierenden Heiligenschein in leuchtenden Farben und hat ein schneeweißes, schimmerndes Kleid, das mit Gold und Silber bestickt und mit zahlreichen Edelsteinen verziert ist, darüber ein Mantel aus Purpur. Nach einem Dankgebet fragt er sie, wie er ihr dienen darf, doch sie schweigt darauf. Kurz bevor sie verschwindet jedoch spricht sie zu ihm, dass er ihre Erscheinung geheim halten solle. 3) Die dritte Erscheinung, die nur unzureichend verbürgt ist, soll etwa 1891 erfolgt sein: Nachdem Rasputin am 14. Februar 1891 in Kasan wegen Meineides zu einer Prügelstrafe verurteilt wurde, trat er noch im selben Jahr eine Pilgerfahrt zum Marienheiligtum der Gottesmutter von Abalak (Abalackaja) an. Anlass dafür soll, was eine logische Schlussfolgerung wäre, die dritte Marienerscheinung gewesen sein: Erneut bei der Feldarbeit erscheint ihm die Gottesmutter. Im Glanz der Sonne wiegt sie sich hin und her und ermahnt ihn zur Umkehr. Auch in der Folgezeit ist seine Spiritualität stark geprägt von Erlebnissen mit der Gottesmutter, besonders in Träumen. a> (1910), eine Kleinstadt. Dort hielt sich Rasputin 1898 drei Monate im Kloster auf. Vom Jahr 1886 bis zum Jahr 1901 war Rasputin nur sporadisch zu Hause. 15 Jahre lang war er meist auf Pilgerreise, auf der Suche nach Erleuchtung und Wahrheit, wie er selbst erklärte. Bei seiner letzten und weitesten Pilgerreise, die vier Jahre dauerte, wanderte er bis zum Berg Athos in Griechenland. Rasputin unternahm seine weiteste Pilgerreise, die ihn nach Jerusalem führte, erst später während seiner St. Petersburger Zeit. Am 22. Februar 1887 heiratete Rasputin Praskowja Fjodorowna Dubrowina, die während seiner Reisen auf dem Bauernhof der Eltern zurückblieb. Im Jahr 1895 wurde sein Sohn Dimitrij, 1898 seine Tochter Matrjona (Maria) und 1900 seine Tochter Warwara geboren. Rasputin plante in seinem Haus einen Andachtsraum einzurichten und dort das Wort Gottes so zu verkünden, wie er es verstand. Daraufhin wurde er vom Dorfpfarrer Pjotr Ostroumow 1901 beim Bischof Antonij von Tobolsk wegen Sektengründung und Schmähung der wahren Kirche angeklagt. Es wurde eine offizielle Untersuchung eingeleitet, bei der aber keine Anhaltspunkte für den Vorwurf gefunden wurden, dass Rasputin während seiner Gottesdienste Orgien veranstalte. Es wurde Rasputin aber untersagt, in seinem Andachtsraum weiter Gottesdienste zu feiern. Diese Untersuchung wurde dokumentiert und in späteren Jahren immer wieder zitiert, um das Sektierertum Rasputins zu belegen. Richtig ist jedoch, dass Rasputin sich schon damals von der Art der Gottesdienste losgesagt hatte, wie sie die offizielle Kirche abhielt. Auch wird behauptet, dass er schon im Jahr 1903 erste Heilerfolge hatte. Dadurch erwarb er sich in Pokrowskoje eine beträchtliche Zahl von Anhängern. Es wurde auch schon zu dieser Zeit der Vorwurf des unsittlichen Lebenswandels erhoben. Rasputin wurde in seinem Heimatort zu einer umstrittenen Person. Bald wurde es dem Pilger Rasputin in seinem Heimatort wieder zu eng. Wie seine Tochter Maria später schrieb, wollte ihr Vater noch mehr über die Kunst des Heilens lernen und brach deshalb im Jahr 1903 zu Johann von Kronstadt in St. Petersburg auf, dem damals berühmtesten Theologen und „Heiler“ des Zarenreichs. Schneller gesellschaftlicher Aufstieg (1903–1905). Sankt Petersburg Ende des 19. Jahrhunderts Im Jahr 1903 fand in St. Petersburg eine große religiöse Veranstaltung von Kirchenvertretern aus ganz Russland statt. Zu dieser Versammlung wanderte Rasputin, um von Johann von Kronstadt zu lernen. Recht schnell war Rasputin, obwohl unbekannt, in den höchsten Kirchenkreisen – besonders bei Johann von Kronstadt, dem Beichtvater des Zaren – hoch geachtet und erhielt Zugang zur höheren Gesellschaft. Es gibt verschiedene Darstellungen über den schnellen gesellschaftlichen Aufstieg Rasputins, der ihm trotz der Tatsache gelang, dass er kaum lesen und schreiben konnte und keine anerkannte religiöse Ausbildung hatte. Belegt ist, dass Rasputin ein Empfehlungsschreiben eines Geistlichen aus Kiew beim Bischof Theophan vorlegen konnte, der ihn empfing, von seiner Person sehr beeindruckt war und ihn förderte. Johann von Kronstadt wurde auf Rasputin während einer Messe aufmerksam. Rasputins Tochter Maria beschrieb die „Erwählung“, wie sie ihr von ihrem Vater erzählt wurde: Gemäß der eigenen Aussage Rasputins soll Johann von Kronstadt zu ihm gesagt haben: 'Mein Sohn, ich habe deine Gegenwart gespürt. Du trägst den Funken des wahren Glaubens in dir.' Inwieweit diese Darstellung stimmt, lässt sich nicht nachprüfen; sicher ist, dass Johann von Kronstadt Rasputin in das Kloster einführte, in dem die führenden religiösen Vertreter für die Versammlung untergebracht waren; dass Rasputin dort die Bekanntschaft mit hohen religiösen Würdenträgern machte und für den Rest der Versammlungszeit in diesem Kloster wohnte. Auch wird Johann von Kronstadt nachgesagt, dass er während seiner Meditationen die Nähe von überragenden Menschen spüren konnte. Die Zeit bis zum Ruf an den Zarenhof (1905–1907). a> (von der Newa aus aufgenommen) Rasputin etablierte sich nun schnell in den Salons der verschiedenen Gesellschaften St. Petersburgs. Mit seinem Wirken in St. Petersburg verloren bald all die vielen anderen Wunderheiler und mystischen Prediger an Einfluss in den Salons. Rasputin wurde zum Star und zum Liebling einflussreicher Damen, die Wunderdinge von ihm erwarteten. Aber auch wichtige Personen in Gesellschaft und Politik gehörten bald zu seinem Freundeskreis. Am 15. Oktober 1906 wurde Rasputin von Zar Nikolaus II. in seinem Palast empfangen. Ein erklärter Gegner Rasputins, Pater Georgi Schawelski, Generalkaplan des russischen Heeres und der Flotte, beschrieb Rasputin so: „Auf exaltierte Personen, die über keinerlei Beobachtungsgaben verfügten, konnte Rasputin in der Tat einen starken Eindruck machen. Seine ganze Persönlichkeit, seine Worte, seine Redensarten hatten etwas Geheimnisvolles an sich. Er hatte tiefliegende, stechende, ja fast erschreckende Augen, eine enge Stirn, wirres Haar, einen ungepflegten Bart, sein Reden war abgehackt, undeutlich, rätselhaft mit pausenlosen Anspielungen und Verweisungen auf Gott; er bewegte sich lebhaft; in seinen Urteilen war er kühn, mutig und duldete keine Widerrede. Dabei sprach er autoritär und nahm keine Rücksicht auf die Person des Gesprächspartners. All das überraschte die einen, schlug aber andere in seinen Bann. Ohne Zweifel hob sich Rasputin von der Masse ab. Man konnte ihn nicht übersehen.“ Soweit die Aussage eines Gegners Rasputins. Zusammentreffen mit Anna Wyrubova (1907). Bedeutsam für die weitere Zukunft wurde sein Zusammentreffen mit der Hofdame Anna Tanejewa im Jahr 1907. Anna Tanejewa war eine enge Vertraute der Zarin und sollte auf deren Wunsch den erfolgreichen Marineoffizier A. W. Wyrubow heiraten. Anna Tanejewa war sich unsicher und fragte Rasputin, was er von dieser Heirat halte. Rasputin riet von der Hochzeit ab, da sie ihr nur Unglück bringen würde. Die Heirat fand trotzdem am 30. April 1907 statt. Die Ehe hielt aber nur einen Monat. Anna Wyrubova wurde von ihrem Ehemann brutal zusammengeschlagen und flüchtete zu ihren Eltern. Aufgrund seiner psychischen Probleme verbrachte der Ehemann lange Zeit im Krankenhaus, ohne dass Besserung eintrat, und die Ehe wurde nach einem Jahr geschieden. Für Anna Tanejewa, die nun Wyrubova hieß, stand damit die Heiligkeit von Rasputin ein für alle Mal fest, und auch sie förderte Rasputin beim Zutritt in die Salons der St. Petersburger Gesellschaft. Die Blutung des Zarewitschs im Jahr 1907. Im Herbst des Jahres 1907 hatte der Zarewitsch einen kleinen Unfall, der aber durch die Bluterkrankheit des Jungen bedrohliche Ausmaße annahm. Der erste Unfall hatte sich im Jahr 1906 ereignet und war glimpflich verlaufen, aber nun konnten die Ärzte die innere Blutung nicht stillen, sondern nur die Schmerzen durch Morphin lindern. Nachdem die Ärzte der Zarenfamilie erklärt hatten, dass sie für den Zarensohn nichts mehr tun könnten, empfahl die Großfürstin Anastasia als letzte Möglichkeit, Rasputin zu holen, über den so viele Wunderdinge gesagt wurden. Das Zarenpaar willigte ein, und so wurde Rasputin über einen Hintereingang – beim Eintritt über den Vordereingang hätten erst viele Formulare des Staatssicherheitsdienstes ausgefüllt werden müssen – in den Palast gebracht. Es gibt viele Interpretationen, was damals im Zarenpalast geschah. Auf jeden Fall kam die Blutung des Zarensohns nach dem Eintreffen Rasputins schnell zum Stillstand, und die Komplikationen verschwanden in einer für die Ärzte unverständlich kurzen Zeit. Der Palastkommandant, Generalmajor Wojejkow, beschrieb die Sache so: „Vom ersten Augenblick an, da Rasputin am Krankenbett des Thronfolgers erschien, trat Besserung in dessen Zustand ein; offenbar genügte es, dass Rasputin einige Gebete gemurmelt und auf Alexej eingeredet hat…“. Ähnlich wurde die Situation auch von der Hofdame Lili Dehn beschrieben. Für die Zarin, die seit der ersten Blutung täglich gebetet hatte, war Rasputin der ihr von Gott geschickte Heilige und Helfer. Sie glaubte an seine – auch anderswo geäußerte – Aussage „Vertraue in meine Gebete; vertraue in meine Hilfe und dein Sohn wird leben.“ Großfürstin Olga Alexandrowna (links) mit ihrem Ehemann Peter Friedrich Georg von Holstein-Gottorp, 1901 Darstellung durch die Zarenschwester Olga Alexandrowna „Aleksej war knapp drei Jahre alt und beim Spielen im Park von Zarskoje Selo gestürzt. Er weinte nicht einmal, sein Bein zeigte keine größere Wunde, doch der Sturz hatte innere Blutungen in Gang gesetzt, und innerhalb weniger Stunden litt er unter größten Schmerzen… Es war die erste Krise von so vielen, die folgen sollten. Das arme Kind lag da, den kleinen Körper gekrümmt vor Schmerzen, das Bein schrecklich geschwollen, unter den Augen dunkle Ränder. Die Ärzte waren schlicht nutzlos. Sie schauten angstvoller als wir und flüsterten ständig untereinander. Es gab anscheinend nichts, was sie tun konnten, und es vergingen Stunden, bis sie alle Hoffnung aufgaben. Nun sandte Alicky (die Zarin) eine Nachricht an Rasputin nach Petersburg. Er kam nach Mitternacht in den Palast. Am Morgen traute ich meinen Augen nicht: der Kleine war nicht nur am Leben, sondern gesund. Er saß aufrecht im Bett, das Fieber war weg, die Augen waren klar und hell – und keine Spur mehr von der Schwellung am Bein! Der Schrecken des Vorabends wurde zu einem unglaublichen fernen Albtraum. Ich erfuhr von Alicky, dass Rasputin das Kind nicht einmal berührt hatte, sondern nur am Fußende des Bettes gestanden und gebetet hatte. Natürlich kamen einige Leute sofort auf die Idee, dass Rasputins Gebete einfach mit der Genesung meines Neffen zusammengetroffen wären. Zum einen würde jeder Arzt Ihnen erzählen, dass solch eine ernste Erkrankung nicht innerhalb von wenigen Stunden geheilt werden kann. Davon abgesehen, würde der Zufall als Erklärung, sagen wir, ein- oder zweimal ausreichen, aber ich konnte schon nicht mehr zählen, wie oft dies vorkam.“ Soweit Olga Alexandrowna, die Zarenschwester. Zu Gast am Zarenhof (1907). Nach dieser Heilung des Zarewitschs wurde Rasputin zunächst jeden Abend im Hof eingeladen. Insbesondere die Kinder mochten diesen so andersartigen Menschen. Zunächst kam er, um Aufsehen zu vermeiden, durch den Hintereingang des Palastes; dann, als Gerüchte über diese Besuche aufkamen, kam er über den Vordereingang. Die Gerüchte wurden aber immer lauter und gewagter. Beim Hofklatsch wurde Rasputin bereits der Titel des „kaiserlichen Lampenputzers“ verliehen und das Ansehen, das Rasputin am Hof genoss, einem intimen Verhältnis mit der Zarin zugeschrieben. So wurde dann festgelegt, dass Rasputin den Palast nur noch in Ausnahmefällen betreten sollte, zum Beispiel bei Blutungen des Zarensohns, und diese Blutungen traten auch noch oft auf. Der Zar schränkte die Treffen mit Rasputin auf ein Minimum ein, und die Zarin traf sich mit Rasputin im Haus der Hofdame Anna Wyrubova. Allerdings gab auch dies weiteren Gerüchten Auftrieb. Gesellschaftlicher Abstieg (1908–1912). Bald darauf begannen öffentliche Beschuldigungen über sexuelle Entgleisungen Rasputins. Der Zar wollte Gewissheit und beauftragte im Frühjahr 1908 seinen Palastkommandanten, General Djadjulin, die Sache zu untersuchen. Djadjulin veranlasste seinerseits den Staatssicherheitsdienst, die Sache Rasputin zu behandeln. Das Ergebnis der Nachforschungen lautete, Rasputin könnte seine sexuellen Triebe nicht im Zaum halten. In seiner Heimat hätte er Frauen verführt, und in St. Petersburg triebe er sich mit leichten Mädchen herum. Dieses Untersuchungsergebnis wurde an den Ministerpräsidenten Stolypin weitergeleitet, der dem Zaren dieses Ergebnis präsentierte. Der Zar weigerte sich, Konsequenzen zu ziehen, da er ihn wegen seines Sohnes brauchte. Was Rasputin ansonsten machte, schien den Zaren nicht zu interessieren. Der Ministerpräsident Stolypin ließ die Untersuchung aber weiterlaufen. Es kamen weitere Einzelheiten zu der Anklage hinzu. Der Ministerpräsident Stolypin wollte Rasputin nun unbedingt wieder nach Sibirien abschieben. Für Rasputin wurde die Lage unangenehm, und er reiste Mitte des Jahres 1908 in seine Heimat nach Pokrowskoje ab. Das Jahr 1909 verbrachte Rasputin teilweise in seiner Heimat in Pokrowskoje und teilweise beim bekannten Mönch Iliodor (bürgerlich Sergei Trufanow, 1880–1952) in dessen Kloster in Zarizyn (heute Wolgograd), den er mehrmals besuchte. Im Sommer 1909 machte der bekannte Mönch Iliodor einen Gegenbesuch bei Rasputin in Pokrowskoje. Etliche Tage lebte er in Rasputins Haus. Dort scheint er heimlich das Haus durchsucht zu haben; auf jeden Fall stahl er einen Brief der Zarin an Rasputin, dessen Inhalt zu beliebigen Unterstellungen benutzt werden konnte, denn der wahre Grund für die Stellung Rasputins bei der Zarin, nämlich seine anscheinende Fähigkeit, bei ihrem Sohn Blutungen zu stillen, durfte nicht bekannt werden. Aber noch behielt Iliodor den Inhalt dieses Briefes für sich. Zu Beginn des Jahres 1910 kehrte Rasputin nach St. Petersburg zurück. Bald sah er sich wieder Beschuldigungen und Klagen ausgesetzt. So sprachen in der Theologischen Akademie beim Bischof Theophan, dem Beichtvater des Zaren und einem Förderer Rasputins, zwei Frauen vor, die behaupteten, von Rasputin sexuell belästigt worden zu sein. Eine davon, Chionija Berladskaja, erklärte, Rasputin habe sie in einem Eisenbahnwagen sexuell missbraucht, nachdem sie mit ihm gebetet hätte. Rasputin wurde vom Bischof vorgeladen, und da Rasputin diesem keine Erklärung vorbringen konnte, ersuchte Theophan um eine Audienz beim Zaren. Er wurde jedoch nicht vom Zaren, sondern von der Zarin empfangen. Er erklärte ihr, dass sich seiner Meinung nach Rasputin in einem Zustand geistiger Verwirrung befände. Die Zarin wollte aber von der Sache nichts hören und verwies den Bischof des Palastes. Aufgrund dieses Streits um die Person Rasputins ging die Zarin gegenüber Bischof Theophan, der bis dahin ihr Beichtvater war, auf Distanz. Nach Aussagen von Anna Wyrubova sagte die Zarin zum Bischof: „…Gehen Sie, oder ich vergesse, dass Sie mein Priester gewesen sind. Und ich möchte das nicht vergessen.“ Bald darauf verließ Bischof Theophan St. Petersburg. Wahrscheinlich aufgrund des stetigen Stresses wegen der Sorge um die Gesundheit ihres Sohnes wurde die Zarin inzwischen immer wieder von einem Nervenleiden heimgesucht. Die Ärzte waren machtlos, und sie musste die Zeit bis zum Abklingen des Leidens im Rollstuhl zubringen. Die Zarin hatte andere Sorgen als die Eskapaden Rasputins in einem Eisenbahnwaggon. Im Frühjahr und Sommer des Jahres 1910 begannen sich nun einige Zeitungen auf Rasputin einzuschießen und veröffentlichten ganze Serien über die wirklichen oder auch nur angeblichen Verfehlungen des Gottesmanns Rasputin, wobei der Hauptgrund für diesen Feldzug nicht nur in der Entrüstung über das Verhalten Rasputins, sondern auch dem Kampf gegen den vermeintlichen Einfluss dieses obskuren Rasputins galt. Auch versuchten die Kommunisten über die Person Rasputin das Ansehen der Zarenfamilie zu untergraben. Ministerpräsident Stolypin fordert den Zar bei einer Audienz noch einmal auf, Rasputin abzuschieben. Indessen wirbelten Affären aus dem Umkreis des Thrones weiteren Staub auf. Bei einer davon wunderte sich die Hofdame Sophija Tjutschewa darüber, dass Rasputin angeblich die Zarentöchter abends regelmäßig in ihrem Zimmer aufsuchte, während sie schon im Nachthemd waren. Ist dies nicht für Zarentöchter unwürdig? Nachdem die Zarin gegenüber dieser Anfrage gar nicht reagierte, sprach Tjutschewa beim Zaren vor. Nach ihrer Aussage antwortete der Zar: „Und was würden Sie sagen, wenn ich Ihnen gestehen würde, dass ich diese schwierigen Jahre nur dank seinen Gebeten überlebte?“ Tjutschewa blieb jedoch bei ihren Einwänden gegen Rasputin, den sie selbst noch nie am Hof gesehen hatte. Tjutschewa startete einen regelrechten Feldzug gegen das ihrer Meinung nach verderbliche Treiben Rasputins am Hof. Um den Streit zu beenden, wurde Tjutschewa deshalb vom Zaren zunächst für zwei Monate vom Dienst am Zarenhof beurlaubt. Daraufhin quittierte Frau Tjutschewa ihren Dienst und erzählte überall herum, sie sei entlassen worden, weil sie den Herrschern die Vertraulichkeiten enthüllt habe, die sich Rasputin mit den Zarentöchtern gestatte. So wurde bald, mit Bezug auf Frau Tjutschewa, die Behauptung weitererzählt, Rasputin sei der geistige Führer der Zarenfamilie, er sei ein ständiger Besucher des Zarenhofes und würde die Zarentöchter baden. Anna Wyrubova beschrieb ihre Erfahrungen mit dem allgemeinen Klatsch so: „… Als ich einmal in Moskau weilte, musste ich von meinen Verwandten …anhören, dass Rasputin fast täglich im Schloss weile, die Großfürstinnen bade und dergleichen mehr, wobei Fräulein Tjutschewa stets als Kronzeugin für alle diese Vorgänge genannt wurde.“ Besonderes Gewicht bekamen die Anklagen auch dadurch, dass Frau Tjutschewa einer sehr angesehenen und einflussreichen Familie entstammte. Als Reaktion auf diese öffentlichen Anschuldigungen wurde vom Zaren festgelegt, dass Rasputin den Palast nicht mehr betreten solle. Weitere Treffen fanden nun im Haus von Anna Wyrubova statt. Im August des Jahres 1910 erfolgte kurz nach einer erneuten Rückkehr Rasputins aus seiner Heimat der erste Mordversuch. Fünf Männer versuchten, Rasputin mit einem Auto zu überfahren. Der Vorfall wurde nie aufgeklärt. Ministerpräsident Stolypin wollte nun endlich Rasputin aus St. Petersburg weghaben und sprach beim Zaren vor. Der schlug eine Unterredung zwischen Stolypin und Rasputin vor, die dann auch stattfand. Stolypin beschrieb Rasputin gegenüber dem Dumapräsidenten Rodsjanko als einen Menschen, der bei jeder Gelegenheit die Bibel zitiere, händeringend in seinen Bart brumme und erkläre, er habe sich keine einzige der Abscheulichkeiten zuschulden kommen lassen, die man ihm vorwerfe. Stolypin schrieb weiter: „Ich spürte eine unüberwindliche Abneigung in mir aufkommen. Dieser Mann hatte eine gewaltige magnetische Kraft und löste in mir eine starke Gemütsbewegung aus, und sei es nur eine des Widerwillens. Ich beherrschte mich, erhob die Stimme und hielt ihm entgegen, dass sein Schicksal mit den Dokumenten, die ich besitze, sich in meiner Hand befinde.“ Um Zeit zu gewinnen, einigte man sich mit Rasputin darauf, dass er Anfang des Jahres 1911 seine schon früher gewünschte Reise nach Jerusalem antrat. Er schrieb über diese Reise ein Buch, bei dem die extreme Naivität, Einfachheit und Lauterkeit auffällt. Mitte des Jahres 1911 kam er nach St. Petersburg zurück und bezog bei einem Freund, dem Journalisten Georgi Sasonow, Quartier. Eine eigene Wohnung hatte Rasputin noch immer nicht. Im Herbst des Jahres 1911 war die Stelle des Bischofs von Tobolsk neu zu besetzen. Dies war eine wichtige Position und mit Macht und Einfluss in der Kirchenleitung Russlands, dem Heiligen Synod, verbunden. Der Heilige Synod bestimmte den berühmten Mönch Iliodor als Kandidaten und erwartete, dass der Zar – als Oberhaupt der russischen Kirche – diesem Vorschlag wie üblich formal zustimmen würde. Über das Weitere gibt es verschiedene Darstellungen, darunter eine von Maria Rasputin. Sicher ist, dass der Zar Rasputin zu der Sache befragte. Iliodor war ihm aufgrund früherer Ereignisse suspekt, und Rasputin, der ja aus dieser Gegend kam, empfahl dem Zaren den früheren Bekannten Barnabas, der in einem Kloster Gärtner war, in dem Rasputin die Pferde versorgt hatte. Der Zar ließ Barnabas holen, war von ihm überzeugt und ernannte diesen statt den vorgeschlagenen Iliodor zum Bischof. Diese Entscheidung des Zaren wurde nun vom Heiligen Synod mit ungläubigem Erstaunen aufgenommen. Nach Vorstellung der Kirchenleitung, wie auch der daran beteiligten politischen Kräfte, war diese Entscheidung das Resultat einer Intrige Rasputins. Diese Entscheidung bedeutete aber auch einen Bruch zwischen Rasputin und dem Mönch Iliodor, der von nun an zu einem erbitterten Feind Rasputins wurde. Aufgrund der anhaltenden Vorwürfe wurde Rasputin ins bischöfliche Palais von St. Petersburg geladen. Das Treffen ereignete sich in der Dienstwohnung von Bischof Hermogen in Anwesenheit anderer Geistlicher. Anwesend waren unter anderem Mitja Koljaba, der früher auch einmal bei der Zarin als Hellseher und Heiler aufgetreten war und sich nun von Rasputin ausgestochen fühlte, sowie Iliodor, der sich von einem glühenden Anhänger Rasputins in einen genauso glühenden Gegner Rasputins gewandelt hatte. Rasputin sollte beim Bischof seine Schandtaten präsentiert bekommen, einschließlich einer angeblichen sexuellen Beziehung zur Zarin und Vergehen an Frauen, die bei ihm geistlichen Beistand gesucht hatten. Der Bischof wollte ihn, falls er keine Entschuldigungen vorbringen könne, kraft seines Amtes verpflichten, St. Petersburg zu verlassen. Allerdings entwickelte sich eine kräftige Schlägerei in der Wohnung des Bischofs. Rasputin gelang dank seiner großen Körperkräfte, am Kopf schwer blutend, die Flucht. Aufgrund dieses Vorfalls verbannte der Zar, mit der Verfügung vom 3. Januar 1912, den Bischof Hermogen in die Provinz nach Grodo, Iliodor wurde der Rang eines Abtes aberkannt, und er sollte in ein weitab gelegenes Kloster im Kreis Wladimir ziehen. Der Fall zog kirchenintern schwere Verstimmungen nach sich und löste in der Öffentlichkeit einen Skandal aus. Es wurde dem Zar das Recht abgesprochen, eigenmächtig derart rigoros gegen einen Bischof vorzugehen, denn nach kanonischem Brauch hätte dieser Fall von einem Konzil behandelt werden müssen. Selbst der deutsche Kaiser Wilhelm II. schickte einen Brief, um den Zaren zu tadeln. Er schrieb: „…Doch diese eure Neigung stellt Euch auf eine Ebene mit dem Pöbel. Seid auf der Hut… Der Name der Zarin wird in einem Atemzug mit dem irgendeines suspekten Emporkömmlings genannt! Das ist unmöglich.“ Übrigens war dieser Brief typisch für die Besserwisserei des deutschen Kaisers gegenüber dem Zaren, die diesen so oft kränkte. Immerhin war der deutsche Kaiser dem Zaren familiär verbunden. Im Januar des Jahres 1912 veröffentlichte Iliodor nun den Brief, den er im Hause Rasputins im Jahr 1909 gestohlen hatte, und leitete aus dessen Inhalt, garniert mit vielen anderen angeblichen Erkenntnissen, eine sexuelle Beziehung Rasputins zu der Zarin ab, die ihm angeblich hörig sei. Der Inhalt des Briefes wurde von der St. Petersburger Gesellschaft nach Belieben abgeschrieben und noch weiter ausgeschmückt. Solche Zettel wanderten als angebliche authentische Abschriften durch die St. Petersburger Salons. Immer weitere angebliche Briefe, die schließlich vollständig erfunden waren, tauchten in den Salons auf. Die Situation verschlimmerte sich noch dadurch, dass die Zarin, wie auch der Zar, sehr zurückgezogen lebte, und dass ihr gegenüber, als Deutsche, viele Personen der russischen Gesellschaft ohnehin feindselig eingestellt waren. Die Zarin erlitt einen Herzanfall und forderte Rechenschaft von Rasputin, der in Pokrowskoje weilte. Rasputin antwortete mit einem Telegramm: „Liebste Mama! Was für ein Hund, dieser Iliodor! Ein Dieb! Stiehlt Briefe! Schweinerei! Muss sie aus dem Schrank geklaut haben. Der will sich Pope nennen – und dient dabei dem Teufel. Denke daran. Er hat lange Zähne, der Dieb. Grigori.“ Rückkehr nach Pokrowskoje (Frühjahr 1912). Die „Sache Rasputin“ drohte überzukochen. Sowohl Ministerpräsident Kokowzow wie auch der Dumapräsident Rodsjanko sprachen im Februar beim Zaren vor, und in der Duma gab es eine von 49 Unterzeichnern unterstützte Anfrage an den Innenminister Makarow bezüglich einer vom Zaren angeordneten unrechtmäßigen Beschlagnahme der Rasputin feindlich gesinnten Presseorgane. Der Zar hatte zeitweilig eine Berichterstattung über Rasputin verboten und zuwiderhandelnde Zeitungen geschlossen. Nach all diesen Anschuldigungen wurde vom Zaren kurz nach Ostern festgelegt, dass Rasputin St. Petersburg verlassen und nicht mehr betreten solle. Der Zar wollte sich von Rasputin endgültig trennen, und er machte Rasputin klar, dass er ihn nicht mehr in St. Petersburg halten könne. Dieser Entschluss fiel auch deshalb leichter, weil der Zarewitsch schon über ein Jahr keine ernsthafte Verletzung mehr hatte, welche Rasputins Hilfe bedurft hätte (mit höherem Alter wird das Risiko bei Blutern geringer), und so kehrte Rasputin im Frühjahr 1912 wieder zurück nach Pokrowskoje. Die Blutung des Zarewitschs im Oktober 1912. Im Oktober des Jahres 1912 machte die Zarenfamilie eine Jagdpartie in Bialowieza und Spała (heute in Polen). Beim Aussteigen aus einem Ruderboot stürzte der Zarewitsch am 2. Oktober. Die Blutungen erschienen zunächst nicht weiter schwer, nicht anders als bei anderen kleineren Blutungen, aber diesmal blieben alle Maßnahmen der Ärzte, die Blutung zu stoppen, erfolglos. Zwar wurden weitere Ärzte, der Chirurg Ostrowskij und der Kinderarzt Rauchfuss, aus Russland herbeigerufen, aber auch sie konnten nicht helfen. Der Zustand des Zarewitschs verschlechterte sich immer weiter. Das Fieber stieg auf 39,5 Grad, der Puls stieg auf 144 Schläge, man versuchte die Schmerzen mit Morphium zu dämpfen, und das Bein schwoll immer weiter an. Die Hofdame Anna Wyrubowa beschrieb die Situation folgendermaßen: „Die nächsten Wochen wurden zu einer endlosen Tortur für den Jungen und für alle von uns, die wir seine ständigen Schmerzensschreie hören mussten. Am 10. Oktober erklärten die Ärzte, die Lage sei aus medizinischer Sicht aussichtslos geworden, und dem Zarewitsch wurden die Sterbesakramente der orthodoxen Kirche erteilt. Völlig abweichend von den Gepflogenheiten des Hofes wurde eine Meldung über den schlechten Gesundheitszustand des Zarensohnes veröffentlicht. In dieser Situation beauftragte nun die Zarin die Hofdame Anna Wyrubowa, Rasputin zu Hilfe zu rufen, zu dem der Zar die Verbindung abgebrochen hatte. Das Telegramm wurde am 11. Oktober abgeschickt und lautete, nach Aussagen von Maria Rasputin, die es ihrem Vater vorlas, folgendermaßen: „Ärzte hoffnungslos. Unsere einzige Hoffnung sind Ihre Gebete.“ Rasputins Tochter Maria erzählte, was nach der Ankunft des Telegramms bei Rasputin passierte. „Rasputin sagte, er werde jetzt versuchen, den schwierigsten, geheimnisvollsten aller Riten durchzuführen… Rasputin kniete vor die Ikone der Gottesmutter Maria und verfiel danach in eine Art Schwächezustand. Dann begann er sein Gebet: '…Heile Deinen Sohn Alexej, wenn es dein Wille ist. Verleih ihm meine Kraft, Gott, auf dass sie seiner Genesung diene…' – Vater sah so sonderbar aus – so krank, dass mich Furcht ergriff… Schließlich versagte ihm die Stimme, und er musste einhalten. Sein Gesicht, das weiß war wie ein Laken, war von Anstrengung entstellt, sein Atem ging stoßweise. Der Schweiß rann ihm von der Stirn über die Wangen. Seine gläsernen Augen blickten leer. Er stürzte rücklings auf den Boden, das linke Bein angezogen. Es schien, als wehrte er sich gegen einen Todeskampf. Ich glaubte, dass er sterben würde, zwang mich aber, den Raum zu verlassen. Dann brachte ich meinem Vater Tee. Er war noch immer bewusstlos. Ich kniete an seiner Seite nieder und betete. Nach einer Ewigkeit schlug er die Augen auf und lächelte. Gierig trank er den erkalteten Tee. Nach wenigen Augenblicken war er wieder ganz zu sich gekommen. Er weigerte sich jedoch, über das Vorgefallene zu sprechen, und sagte nur: 'Gott hat die Genesung gewährt'“. Rasputin telegraphierte folgende Antwort an die Zarin: „Habe keine Angst. Gott hat deine Tränen gesehen und deine Gebete erhört. Dein Sohn wird leben. Die Ärzte sollen ihn nicht weiter quälen.“ Tatsächlich stabilisierte sich der Zustand des Zarewitschs und verbesserte sich in den darauffolgenden Tagen langsam wieder. Die innere Blutung war ausgestanden. Es dauerte aber noch mehrere Monate, bis der Zarewitsch sich von den Strapazen erholte. Von nun an stand für die Zarin wie auch für ihre Vertraute Anna Wyrubowa unumstößlich fest, dass nur Grigori Rasputin mit seinen gottgegebenen Heilkräften die Krankheit des Zarewitschs beherrschen könne. Aus Dankbarkeit und auch, um die Heilung des Zarewitschs weiter zu begleiten, durfte Grigori Rasputin wieder nach St. Petersburg zurückkehren. Im Dezember 1912 wurde die gesamte Familie Rasputin von der Zarin im Haus von Anna Wyrubowa empfangen. Der Zar fehlte bei dieser Begegnung. Die Zeit bis zum Kriegsbeginn (1913–1914). Nach der Genesung des Zarewitschs von einer vor der Bevölkerung geheim gehaltenen Krankheit, der angeblichen Beteiligung des Wunderheilers Rasputin und dessen Rückkehr nach St. Petersburg, kochte die Gerüchteküche wieder über. Gerade weil eine klare Erklärung fehlte, konnte jede Geschichte nach allen Richtungen ausgeschmückt werden. Rasputin wird erneut zum Zarensohn gerufen Im Frühjahr 1913 unternahm die Zarenfamilie eine Reise nach Liwadija-Palast in Jalta. Der Zarewitsch konnte aufgrund seines Anfalls vom Vorjahr immer noch nicht richtig gehen und stürzte wieder. Es zeigte sich wieder ein schmerzhafter Bluterguss am Knie, der sich ausweitete. Da Rasputin nicht weit entfernt weilte, fragten die Eltern nicht weiter nach den Ärzten, sondern holten sofort Rasputin. Rasputin versank in ein Gebet und erklärte anschließend, der Zarewitsch solle ein paar Tage im Bett verbleiben, dann werde der Bluterguss wieder verschwinden, der Ärzte bedürfe es nicht. In der Tat ging der Bluterguss zurück. Die Ärzte behaupteten, dies sei bei einem solchen Bluterguss eigentlich normal, während die Zarin sich von der göttlichen Heilkraft Rasputins erneut bestätigt fühlte. Erste Einmischung in die Politik (1913) Im Frühjahr 1913 mischte sich Rasputin das erste Mal öffentlich in politische Angelegenheiten ein. Österreich hatte 1908 Bosnien-Herzegowina annektiert, und die Frage war, ob dies für Russland ein Kriegsgrund sei. Der Oberbefehlshaber des russischen Heeres, Großfürst Nikolai Nikolajewitsch Romanow, einen Anhänger des Panslavismus, drängte auf einen Krieg, während Rasputin den Zaren überzeugen wollte, sich zurückzuhalten. Auch gab er dem Journalisten Rasumowski ein Interview. Er erklärte: „Der Krieg ist eine schlechte Sache …. Mögen die Deutschen und die Türken sich gegenseitig zerfleischen: sie sind blind, denn es ist zu ihrem Unglück.“ Der Zar reiste im Mai 1913 nach Berlin, und die Sache wurde erst einmal aufgeschoben. Diese beginnenden politischen Äußerungen Rasputins geschahen aber in einer sehr heiklen politischen Konstellation. Es gab stets Streit zwischen dem Zaren, der sich als die entscheidende Instanz ansah, und der Duma, die auf größere Zuständigkeiten pochte. Zwar machten die Minister Politik, sie waren jedoch vom Zaren abhängig. Wenn jetzt diese etwas obskure Gestalt Rasputin an den Politikern vorbei direkt beim Zaren vorsprach, so war dies für die russischen Politiker ein sehr beunruhigender Vorgang. Beim Attentat am Sonntag wurde Rasputin in seinem Heimatort von der aus Sysran stammenden und aus Zarizyn nach Pokrowskoje gekommenen Kleinbürgerin Chinija Gussewa (* 1881) niedergestochen und lebensgefährlich verletzt. Bei dem Angriff wurde der Darm aufgeschlitzt. Rasputin wurde zu Hause operiert, und es galt als Glücksfall, dass er diesen Angriff überlebte. Rasputin blieb vom 3. Juli bis zum 18. oder 20. August im Krankenhaus von Tjumen, während in Europa am der Erste Weltkrieg begann. Rasputin beschuldigte den Mönch Iliodor, Gussewa angeleitet zu haben, konnte dafür aber keine Beweise liefern. Tatsächlich kannten sich die beiden: Iliodor hatte nach 1908 zeitweise im Haus der Gussews in Zarizyn gelebt, und wurde später zweimal an seinem Wohnort ab 1912 bei der Staniza Mariinskaja (heute Oblast Rostow) besucht. Gussewa wurde in eine psychiatrische Heilanstalt in Tomsk eingewiesen. Nach der Februarrevolution 1917 wurde sie auf persönliche Veranlassung des Chefs der Übergangsregierung Alexander Kerenski entlassen; über ihr weiteres Leben ist nichts bekannt. Iliodor floh vor einer möglichen Untersuchung zunächst nach Christiania, 1916 in die Vereinigten Staaten, wo er 1952 starb. 1917 veröffentlichte er unter seinem bürgerlichen Namen Sergei Trufanow ein Buch über Rasputin ("Swjatoi tschort," „Der heilige Teufel“). Rasputin schickte Telegramme an den Zaren, um ihn vor dem Krieg zu warnen, die – nach Aussagen von Anna Wyrubowa – den Zaren sehr verärgerten. Rasputin schickte ungefähr 20 Telegramme. Das letzte Telegramm zerriss der Zar. Nach Ansicht des Zaren hatte Rasputin mit diesen Telegrammen das Gebot der Nichteinmischung in die politischen Angelegenheiten des Zaren übertreten. Das Telegramm war recht chaotisch und lautete: „Ich glaube, ich hoffe auf Frieden, sie bereiten eine große Freveltat vor, wir sind nicht die Schuldigen, ich kenne all Ihre Qualen, es ist sehr hart, dass wir uns nicht sehen, die Umgebung hat im Herzen insgeheim davon profitiert, konnten sie uns helfen?“. Einfluss auf den Kriegsbeginn wie auch den weiteren Verlauf des Krieges hatte Rasputin eben nicht. Von den Folgen dieses Attentats erholte sich Rasputin nie mehr richtig, während der Druck auf ihn in der nächsten Zeit immer weiter zunahm. Auch kamen nach dem Attentat immer wieder körperliche Schmerzen auf. Rasputin, der in seinen ersten Jahren in St. Petersburg keinen Alkohol getrunken hatte, suchte immer stärker Zuflucht beim Alkohol und betrank sich nun oft öffentlich bis zur Besinnungslosigkeit. Nach Aussagen seiner Tochter Maria wie auch des Staatssicherheitsdienstes wurde der Alkohol für ihn immer mehr zu einem Ventil gegen den immer stärkeren Druck der Öffentlichkeit. Auch wurden seine Besuche bei Prostituierten immer häufiger, was vom Staatssicherheitsdienst protokolliert und dann in den Salons breitgetreten und ausgeschmückt wurde. Rasputin während der Kriegszeit (1914–1916). Rasputin war bis Ende August 1914 im Krankenhaus in Tjumen und kam dann so schnell wie möglich nach St. Petersburg. Enttäuscht darüber, dass er mit seinen Warnungen vor dem Krieg keinen Anklang fand – auch der Zar wollte von seinen Warnungen nichts wissen und die Zarin nahm den Kriegsbeginn fatalistisch hin – kehrte er Anfang November 1914 in seine Heimat zurück. Aber schon am 15. Dezember 1914 kam er wieder nach St. Petersburg zurück. Die letzten zwei Jahre seines Lebens begannen. Am 2. Januar 1915 wurde die Hofdame Anna Alexandrowna Wyrubowa bei einem Zugunglück schwer verletzt. Man brauchte mehrere Stunden, um sie aus dem Wrack zu befreien; Beine und Wirbelsäule waren verletzt. Wyrubowa war ohnmächtig und wurde in die Zarenresidenz in Zarskoje Sjelo gebracht. Dort bekam sie die Sterbesakramente. Wieder einmal wurde Rasputin gerufen, und nach einem langen Gebet sprach Rasputin Wyrubowa an, und diese wachte auf. Ob Zufall oder nicht, für die anwesende Zarin, wie auch für Wyrubowa, hatten sich wieder einmal Rasputins Heilkräfte gezeigt. Auf jeden Fall eilte Rasputin daraufhin sofort in ein Nebenzimmer und wurde dort selbst ohnmächtig. Seit dem Attentat im Juni 1914 war und blieb er selbst geschwächt. Wyrubowa erholte sich langsam wieder, aber es dauerte noch ein halbes Jahr, bis sie das Bett verlassen konnte. Sie konnte nie mehr ohne Krücken gehen. Am 10. Januar schrieb Rasputin an Anna Wyrubowa folgendes Telegramm: „Obwohl ich nicht in deinem Körper präsent war, so war ich doch im Geist mit dir (englisch: In spirit I rejoiced with you). Meine Gefühle sind die Gefühle von Gott ….“ In der ersten Jahreshälfte 1915 war von Rasputin durch öffentliche Ausfälle und Skandale die Rede. Früher trank Rasputin heimlich, nun betrank er sich öffentlich, und wenn er abends erst einmal zu trinken begann, gab es kein Halten mehr. Einen Höhepunkt erreichten seine Ausfälle am 25. März 1915 im Restaurant Jar in Moskau. Rasputin, völlig betrunken, belästigte die Sängerinnen, stieg auf den Tisch, um mitzutanzen, machte sich über die Zarin lustig und machte alle Dummheiten eines Betrunkenen. Der Staatssicherheitsdienst und die Presse schrieben alles mit, und der Skandal war landesweit. Rasputin wurde vom Zaren und der Zarin zu seinem Verhalten befragt, er versprach Besserung. Trotzdem war sein Verbleiben in St. Petersburg nicht mehr möglich. Im Juni 1915 reiste Rasputin wieder nach Pokrowskoje in seine Heimat zurück. Nach anfänglichen Kriegserfolgen folgten für das russische Heer katastrophale Niederlagen. Die deutsche Kriegsindustrie war der russischen um Längen überlegen, und die „Strategie“, die deutsche Armee durch russische Soldatenmassen zu überrennen, erwies sich angesichts der neuen Waffen als Illusion der Generäle. Mit zunehmender Kriegsdauer zeigte sich der katastrophale Mangel von Munition und Waffen immer mehr. Ab 1915 wurde zudem die Versorgungslage der Bevölkerung – zu viele Bauern waren eingezogen – immer schlechter. Es wurde nach Verantwortlichen gesucht. Die innenpolitische Lage spitzte sich zu, und ab dem 28. August des Jahres 1915 übernahm der Zar selbst den Oberbefehl über die russischen Truppen und lebte daraufhin vorwiegend in Mogiljow im Hauptquartier der Armee. Der abgesetzte Großfürst Nikolai, ein Onkel des Zaren und Vorsitzender des „Verbandes echt russischer Leute“, intrigierte von dieser Zeit an voller Erbitterung gegen den Zaren und die Zarin. Nach drei Monaten in seiner Heimat bekam Rasputin wieder die Erlaubnis, nach St. Petersburg zurückzukehren, und traf am 28. September 1915 wieder in der Hauptstadt ein. Die Zarin traf Rasputin zu Beginn des Krieges, bei einer stabilen Gesundheit des Zarensohnes, sehr selten. Die Zarin beschäftigte sich mit karitativen Tätigkeiten. Und erst durch die folgende Krise des Zarensohnes kam die Zarin zur Überzeugung, dass Rasputin es sei, der Russland aus seiner schweren Krise herausführen könne. Ende des Jahres 1915 ließ der Zar seinen Sohn in sein Hauptquartier kommen. Durch heftiges Niesen bekam der Zarewitsch am 3. Dezember jedoch Nasenbluten, das sich nicht stoppen ließ. Ohnehin war Nasenbluten bei Blutern besonders gefährlich. Andere offene Blutungen behandelte man mit Schlammbädern, was bei Nasenbluten nicht ging. Am 5. Dezember wurde der Zarewitsch wieder zurück zum Zarenpalast gebracht. Die Hofdame Anna Wyrubova beschrieb die Situation folgendermaßen: „Ich kann niemals mehr vergessen, wie die ängstliche, arme Mutter die Ankunft ihres kranken, vielleicht sterbenden Sohnes erwartete. Auch kann ich nicht das wächserne, totenbleiche kleine Gesicht des Kindes vergessen, als es mit unendlicher Sorgfalt in den Palast getragen und auf sein kleines weißes Bett gelegt wurde….Es schien für uns alle, die wir um das Bett versammelt waren, dass die letzte Stunde für das unglückliche Kind geschlagen habe.“ Die Ärzte am Zarenhof versuchten weiter die Blutung zu stoppen, hatten aber auch keinen Erfolg. Wieder einmal wurde Rasputin geholt. Er kam in den Palast, machte ein großes Kreuzzeichen, betete, erklärte nach kurzer Zeit, dass kein Grund zur Sorge bestehe, und ging wieder. Kurz darauf schlief der Zarensohn ein. Am nächsten Morgen hatte er keine Probleme mehr. Anna Wyrubowa schrieb über diese „Heilung“, dass die behandelnden Ärzte Derewenko und Fedoroff ihr gegenüber erklärten, die Heilung sei sicher eine Tatsache, sie könnten sie aber nicht erklären. Ein weiteres Problem trat beim Zarensohn im April 1916 auf. Seit einigen Tagen breitete sich ein Bluterguss im Arm aus. Die Zarin telegrafierte an Rasputin, der aktuell in seiner Heimat weilte, und bekam als Antwort: „Er wird genesen.“ Und tatsächlich, bald darauf verschwand der Bluterguss. Unabhängig von der Meinung der Ärzte war dies wieder ein Anlass für die Zarin, ihrem Freund für seinen Beistand zu danken. Versuch zum Attentat im Jahr 1915 Um die Probleme mit Rasputin zu beenden, wurde im Herbst 1915 ein Mord geplant. Nach mehreren fehlgeschlagenen Mordversuchen musste deren Auftraggeber, Innenminister Alexei Chwostow, am 3. März 1916 zurücktreten. Nach diesem Rücktritt publizierte einer der Helfer Chwostows, sein ehemaliger Untergebener Bjeljetzkij, einen Bericht mit allen Mordversuchen Chwostows auf Rasputin in der Börsenzeitung, was die Regierung schwer diskreditierte. In vielen europäischen Zeitungen wurde über die Mordanschläge ausführlich berichtet. „Das Leben dieses Mannes ist ein permanenter Skandal. In Petrograd spricht man nur noch davon. Er versucht gar nicht mehr, sich zu verstecken, so als wäre er sicher, immer straflos auszugehen. Zu seinem Namenstag hatte er einige Damen aus der besten Gesellschaft eingeladen. Der Alkohol floss in Strömen. Schon von der Straße her war sein donnerndes Lachen inmitten von lauten, mehr oder weniger alkoholisierten Gesprächsfetzen zu hören. Um den Abend etwas pikanter zu gestalten, hatte er junge Mädchen vom Lande kommen lassen, die ihm völlig zu Willen waren. Denn der schätzt Unzucht und Orgien über alles! Statt daran Anstoß zu nehmen, machten die feinen Damen hemmungslos mit. Von diesem Spektakel entsetzt, weigerten sich die Zigeuner-Musikanten zu spielen und gingen nach Hause. Im Flur standen Polizisten Wache. Schließlich wurden die Ehemänner dieser jungen Damen verständigt, zumeist Offiziere. Im Morgengrauen stürmten sie mit gezogenem Degen ins Haus und wollten Rasputin erledigen. Doch widersetzten sich die Polizisten. Der Gastgeber nutzte die Gelegenheit, um über die Dienstbotentreppe mit seinen Gespielinnen zu entkommen. Die Offiziere fanden in der Wohnung nur ein paar Lakaien und einige „junge Mädchen“ in einem bedauernswerten Zustand. Und dieser Mensch wird bei Hofe empfangen! Die Kaiserin macht alles, was er will! Er sucht sich die Minister aus! Das ist doch zum Auswachsen!“ Der französische Botschafter am Zarenhof, Maurice Paléologue, meldete folgende „Erkenntnisse“ über Rasputin: „… In Zarazin schändete er eine Nonne, die er zu beschwören unternommen hatte. In Kasan, an einem hellen Juniabend, war er betrunken und verließ ein öffentliches Haus, indem er ein nacktes Mädchen vor sich hertrieb, das er mit seinem Gürtel durchpeitschte, was in der Stadt ein höchst unliebsames Aufsehen erregte. – In Tobolsk verführte er die sehr fromme Gattin eines Ingenieurs….“. So ging es im Stile einer Seifenoper weiter, jeden Tag etwas Neues. Über die sibirische Bevölkerung schrieb der französische Botschafter: „Durch die Taten, die Rasputin unaufhörlich wiederholte, wuchs das Ansehen seiner Heiligkeit von Tag zu Tag. In den Straßen kniete man auf seinem Weg nieder; man küsste seine Hände, man berührte den Rand seiner Tulupa.“ In den 15 Monaten vom September 1915 bis zur Ermordung Rasputins im Dezember 1916 war nun der Zar überwiegend im Armeehauptquartier in Mogiljow, während die Zarin und Rasputin, der bald wieder aus Sibirien zurückkam, in St. Petersburg blieben. Dies heizte die Gerüchteküche insoweit an, dass die Zarin als Deutsche während des Krieges gegen Deutschland stets der Unterstellung ausgesetzt war, insgeheim auf der anderen Seite zu stehen, während Rasputin aus seiner tiefen Ablehnung dieses Krieges nie einen Hehl gemacht hatte, und man ihm ohnehin alles zutraute. Entscheidungen fällen konnte zwar nur der Zar, der aber in ausgiebigem Briefkontakt mit der Zarin blieb. Ab der erneuten „Heilung“ des Zarensohnes durch Rasputin im Dezember 1915 begann die Zarin Rasputin zu ermuntern, zu allen politischen Fragen Stellung zu nehmen. Nach Meinung der Zarin war es allein Rasputin, der Russland zum Sieg führen könne. Rasputin hatte ihr schon vor vielen Jahren gesagt, dass ihr Sohn gesund werden würde, und sein Zustand hatte sich doch jetzt wirklich prächtig entwickelt. Die Zarin glaubte, dass nun, in der gegenwärtigen russischen Katastrophe, Rasputin für ganz Russland zuständig wäre. Für den Zaren war jedoch Rasputin ein Mensch, den er zwar wegen seiner Heilkräfte für seinen Sohn brauchte, in der Politik wollte der Zar Rasputin aber nicht sehen, und die Probleme, die ihm Rasputin schuf, waren dem Zaren sehr bewusst. Deshalb befahl er Rasputin mehrmals, wieder in seine Heimat zurückzukehren. Inwieweit der Zar trotzdem von den Briefen der Zarin beeinflusst wurde, darüber kann man spekulieren, auch waren die durch die Zarin weitergeleiteten Ratschläge in der Regel nicht schlecht, Gerüchten waren jedoch auf jeden Fall Tür und Tor geöffnet, und einen Schuldigen für die katastrophale Lage des Reiches hatte man auch gefunden. Wie der Zar über die Ratschläge Rasputins dachte, lässt sich aus folgenden Beispielen ablesen. Über die Vorschläge Rasputins für Ministerposten schrieb der Zar im Oktober 1916: „Du musst zugeben, dass die Ideen unseres Freundes manchmal sonderbar sind…“. Und in einem späteren Brief schrieb er: „Mir platzt der Kopf von all diesen Namen… Die Meinungen unseres Freundes sind manchmal sehr merkwürdig….“. Im November, einen Monat vor dem Mord an Rasputin, schrieb dann der Zar: „Es ist gefährlich, Protopopow im Innenministerium zu haben… Ich bitte Dich, zieh unseren Freund nicht in diese Angelegenheit hinein. Die Verantwortung liegt bei mir.“ Als im Herbst 1916 der Zar den Ministerpräsidenten Stürmer absetzte, schrieb ihm die Zarin, es schnüre ihr die Kehle zu, Stürmer sei ein so loyaler, zuverlässiger, rechtschaffener Mann. Immerhin wurde Stürmer ihr von Rasputin empfohlen, aber der Zar, der manches neutraler sah, ging über diese Einwände hinweg. Am 13. Dezember, vier Tage vor Rasputins Tod, schrieb die Zarin an den Zaren: „Warum verlässt Du Dich nicht vermehrt auf unseren Freund, der uns durch Gott den Weg zeigt?“ Es waren diese letzten 15 Monate mit dem abwesenden Zaren und einem Rasputin, der sich oft nicht mehr unter Kontrolle hatte und von der Zarin stets nach seiner Meinung befragt wurde, die das Bild Rasputins in der Nachwelt entscheidend prägten. Im Jahr 1916 eskalierte die Kriegskatastrophe. Das Land war den Anforderungen eines Krieges nicht gewachsen. Es häuften sich die militärischen Niederlagen. Zwei Mio. Tote, vier Mio. Verletzte, keine Perspektive. So hatten es sich die Politiker in ihrer anfänglichen Kriegsbegeisterung nicht vorgestellt. Die Niederlagen wurden auch nie mit den realen Transportproblemen, der schlechten Ausrüstung der Armee und fehlender Rüstungsindustrie begründet, sondern man suchte die Schuld bei dunklen Kräften und Spionen. Auch die Versorgungslage der Städte verschlechterte sich immer mehr. Die Arbeiter in St. Petersburg litten Hunger und demonstrierten gegen die hohen Brotpreise und weitere Truppenaushebungen. Es wurde nach einem Schuldigen gesucht, und die politische Klasse war sich im Herbst 1916 weitgehend einig: Schuldig war Rasputin mit seinem Einfluss auf die Zarin und den Zaren. Nicht nur Rasputin musste weg, egal wie, Michail Rodsjanko, Georgi Jewgenjewitsch Lwow und Michail Wassiljewitsch Alexejew wollten die Tsarina in die Krim, nach England oder in eine Irrenanstalt schicken. In dieser Situation sprachen sich die Mitglieder der kaiserlichen Familie ab, um unter der Leitung der Zarenmutter Maria Fjodorowna den Zaren zu überzeugen, dass Rasputin wieder nach Sibirien zurückmüsse. Die Zarenmutter fuhr zu ihrem Sohn ins Hauptquartier, konnte aber nichts erreichen, wie auch der Schwager des Zaren, Alexander Michajlowitsch. Der Zar war der Meinung, er habe niemandem Rechenschaft über Rasputin abzulegen. Ob er Empfehlungen von irgendjemand befolge oder nicht, das sei allein seine Sache. Dem Grafen Fredericks erklärte er seine Sichtweise folgendermaßen: „Rasputin ist ein einfacher russischer Mönch, sehr religiös und fromm. Die Zarin mag seine Aufrichtigkeit, sie glaubt an die Kraft seiner Gebete… für Alexej, aber das ist unsere Privatangelegenheit. Es ist erstaunlich, wie gern sich die Menschen in Dinge einmischen, die sie nichts angehen.“ In der Tat stand der Zar den personellen Vorschlägen von Rasputin recht kritisch gegenüber, er wollte sie nicht. Er sah in Rasputin hauptsächlich den Helfer für seinen Sohn, aber darauf kam es jetzt nicht mehr an. Die Duma in Sankt Petersburg Im November 1916 gab es in der Duma wegen des angeblichen Verräters und politischen Drahtziehers Rasputin tumultartige Szenen, und auch der Zar wurde massiv angegriffen. Es wurden Zettel verteilt mit angeblichen Befehlen Rasputins an den Zaren. Für das russische Parlament gab es zu dieser Zeit nur noch das Thema „Rasputin“. Der Vorsitzende der Städtevertreterversammlung, der Fürst Lwow, forderte die Duma sogar auf, die Geschicke des Landes selbst in die Hand zu nehmen, da der Zar, von Rasputin abhängig, dazu offensichtlich nicht mehr fähig sei. Dies war eigentlich die Aufforderung zum Staatsstreich. Auch der „monarchistische“ Abgeordnete Wladimir Purischkewitsch, ein treuer Anhänger des vom Zaren als Oberbefehlshaber abgesetzten Großfürsten Nikolai Nikolajewitsch, wetterte in einer flammenden Rede: „Finstere Kräfte sind es, die das Land regieren und den Willen des Herrschers in Fesseln legen.“ Und er nannte gleich die „finsteren“ Kräfte beim Namen: „Dies alles geht von Rasputin aus. Die Existenz des Reiches ist bedroht.“ Zwei Monate später war Wladimir Purischkewitsch einer der Mörder Rasputins. Daraufhin löste die Zarin die Dumasitzung, rechtlich zweifelhaft, auf. Die Zarin berief sich dabei auf die akute Gefahr eines Staatsstreiches. Das Parlament setzte aber die Sitzungen in Moskau fort, während im Hintergrund bereits die Planungen für den Mord an Rasputin begannen. Der Mord an Rasputin. Fürst Felix Jussupow und seine Gemahlin Irina Es war der Polizei bekannt, dass ein Attentat unmittelbar bevorstand. Von verschiedenen Seiten kamen Hinweise, und auch Rasputin selbst wurde am Tag des Attentats noch telefonisch gewarnt. Wie sich später zeigte, gab es neben den Attentätern auch noch eine ganze Gruppe von Mitwissern in der höheren Gesellschaft Petersburgs, darunter etliche Mitglieder des Romanow-Clans. Auch der britische Geheimdienst wusste genau Bescheid. Das bevorstehende Attentat war Gesprächsstoff für weite Teile der St. Petersburger Gesellschaft. Es wurde Rasputin dringend empfohlen, sein Haus nicht mehr zu verlassen, und der Personenschutz für Rasputin wurde weiter verstärkt. Rasputin traute sich kaum noch aus dem Haus, nahm dann aber eine Einladung von Felix Jussupow an. Felix Jussupow war der Ehemann einer Nichte des Zaren und einer der wenigen Menschen der höheren Gesellschaft Petersburgs, denen Rasputin noch vertraute. Jussupow war über längere Zeit ein ständiger Besucher Rasputins, und Rasputin betrachtete ihn als seinen Freund. Große-Petrowski-Brücke zur Krestowski-Insel, wo Rasputins Leiche in der Kleinen Newka versenkt wurde und wieder auftauchte Rasputin wurde am ermordet. Die Haupttäter waren Des Weiteren waren der Hauptmann A. S. Suchotin des Preobraschenskij-Regiments und der Sanitätsarzt Dr. S. S. Lasowert beteiligt. Auch unterstützten Mitarbeiter des englischen Geheimdienstes, die die Abneigung Rasputins gegen den Krieg fürchteten, die Attentäter. Über den Mord an Rasputin ist in fast allen Büchern eine merkwürdige Geschichte nachzulesen. Sie basiert auf der Beschreibung der Tat durch den Attentäter Jussupow. Die Darstellung Jussupows ist allerdings weitgehend falsch, denn sie steht nicht im Einklang mit den Obduktionsergebnissen an Rasputin. So habe Rasputin Unmengen von mit Zyankali vergiftetem Kuchen und Madeirawein vertilgt, ohne sich daran zu vergiften. Erstens konnte bei der Obduktion der Leiche Rasputins kein Zyankali in seinem Magen festgestellt werden, zweitens hatte er seit dem Attentat von 1914 aufgrund von Magenproblemen nichts Süßes mehr gegessen oder getrunken. Offensichtlich wollten die Mörder Rasputins ihren Mord als eine große vaterländische Tat erscheinen lassen. Eine polizeiliche Untersuchung der Tat hat es nur in Ansätzen gegeben, sie wurde vom Zaren gestoppt. Aufgrund der Obduktion Rasputins ergeben sich andere Fakten. Der Körper zeigt Folgen schwerer Misshandlung. Es liegt die Vermutung nahe, dass die Täter durch diese Misshandlungen, die sich bis zur Folter steigerten, aus Rasputin Geständnisse und vielleicht auch Details einer vermuteten intimen Beziehung zur Zarin herauspressen wollten. Die Mörder Rasputins wurden schnell gefunden; sie gingen jedoch aufgrund massiven Drucks wesentlicher Teile des Romanow-Clans weitgehend straffrei aus. Der Großfürst Alexander Michailowitsch hatte beim Zaren vorgesprochen. Er legte ihm einen Brief mit der Forderung nach Straffreiheit der Attentäter aus der Romanowfamilie vor. Diese Forderung war von fast allen Mitgliedern der Romanowfamilie unterzeichnet. Großfürst Alexander Michailowitsch drohte dem Zaren mit der Absetzung durch die eigene Familie, sollte seinen Forderungen nicht stattgegeben werden. Der Palast der Jussupows, in dem der Mord stattfand Der Zar bestand jedoch darauf, dass Felix Jussupow wenigstens auf sein Landgut zurückmusste, und der Großfürst Dimitri musste in ein Regiment an der persischen Grenze wechseln. Die übrigen Attentäter wurden nicht behelligt. Dies hieß aber auch, dass Wladimir Purischkewitsch, dessen Teilnahme an der Ermordung Rasputins allgemein bekannt war, weiterhin ein führender Parlamentarier in der russischen Duma blieb. Die Ereignisse nach der Ermordung Rasputins begünstigten den Sturz des Zaren weniger als drei Monate nach dem Mord. Für die Bauern, die mehr als drei Viertel der Bevölkerung ausmachten, war Rasputin einer der ihren, der nun von den Adligen ermordet wurde, ohne dass der Zar die Schuldigen bestrafte. Die Autorität des Zaren bei den Bauern litt also schwer: Er war nicht mehr der Vater der russischen Bauern, sondern mehr ein Vertreter des russischen Adels, der einen der ihren ermordete. Für die Gegner Rasputins, seien es weite Teile der Familie Romanow wie auch für große Teile der politischen Klasse Russlands, war ein Zar, der Rasputin ermorden ließ, ohne die Schuldigen drakonisch zu bestrafen, ja sogar hinnahm, dass einer der Mörder, Wladimir Purischkewitsch, weiterhin im Parlament Reden hielt, ein zahnloser Tiger, der keinen Respekt mehr verdiente und vor dem sich auch kein Intrigant mehr zu fürchten brauchte. Und schließlich machte im mystischen Russland noch die Warnung die Runde, welche Rasputin gegenüber der Zarenfamilie oft ausgesprochen hatte und die in größeren Kreisen bekannt war: „Wenn ich sterbe oder wenn ihr mich fallen lasst, werdet ihr euren Sohn und die Krone verlieren, bevor sechs Monate vergangen sind.“ Die Person Rasputin. Gorochovaia 64; das Apartment Rasputins, das er 1913 bezog, lag aber am Innenhof Es gibt viele Beschreibungen von dem besonderen Charisma Rasputins. Ob bei Anhängern oder bei Gegnern, immer wieder wird von seiner besonderen Ausstrahlungskraft und seinen Suggestionskräften berichtet. Dieses Charisma Rasputins ist auch in der Hinsicht von Belang, dass es viel zu der Verteufelung Rasputins als des leibhaftigen Bösen beitrug. Es folgen Berichte einiger Zeitgenossen. Der Sicherheitschef des Zarenpalasts, General Dedjulin, schrieb als Stellungnahme zu Rasputin: „Rasputin ist ein begabter Bauer, unehrlich, intelligent und mit Suggestionskräften ausgestattet, die er auszuschöpfen versteht…“ Die Hofdame Lili Dehn schreibt über ihr erstes Zusammentreffen mit Rasputin: „Ich war vom ersten Augenblick an getroffen von seiner unheimlichen Erscheinung. Zuerst schien er wie ein typischer Bauer, aber die Augen hielten die meinen gefangen, sie strahlten wie aus Stahl (…) Ich war zugleich angezogen, angewidert, beunruhigt und wieder beruhigt, darüber hinaus schafften seine Augen ein Gefühl des Schreckens und des Widerwillens. (…) Als die Zarin erschien, grüßte sie mich mit den Worten .“ Die Schauspielerin Vera Jurenewa erzählt: „… Dann gingen wir zu Rasputin. Das war ein phantastischer Mensch. Er wohnte gleich neben dem Restaurant „Wien“, in der Gorochowaja-Straße (…) Seine Augen saugten sich an mir fest, ich erinnere mich noch physisch an dieses Gefühl (…) Immer mehr Frauen kamen. Munja lief mit dem Eifer einer Dienerin zur Tür, um zu öffnen. Dann sagte er zu ihr: „Schreib“. Und begann zu reden – über Sanftmut und die Seele. Ich versuchte es mir zu merken, schrieb es zu Hause sogar auf, aber es war nicht mehr das Richtige (…) Als er sprach, bekamen alle glühende Augen (…) Ich war wie berauscht.“ Rasputins Freund Aron Simanowitsch beschrieb Rasputins Wirkung so: „Rasputin liebte es, seine Gesprächspartner zu erbauen, und er beschränkte sich dabei auf kurze Formeln, die oft schwer zu begreifen waren, doch so vorgetragen, dass sich seine Überzeugung vom Wert seiner Botschaft auf die anderen übertrug.“ Keine besondere Ausstrahlung sah Zarenschwester Olga. Sie schrieb: „Ich glaube nicht, dass in seinem Wesen irgendetwas Unwiderstehliches war. Wenn überhaupt irgendetwas, dann fand ich ihn ziemlich primitiv. Seine Stimme war sehr rau und grob, und es war fast unmöglich, eine Unterhaltung mit ihm zu führen.“ Ministerpräsident Stolypin, der im Jahr 1910 Rasputin aus St. Petersburg ausweisen wollte und deshalb ein Gespräch mit ihm hatte, beschrieb seinen Eindruck über Rasputin gegenüber dem späteren Parlamentspräsidenten Rodsjanko so: „Ich spürte eine unheimliche Abneigung in mir aufkommen. Dieser Mann hatte eine gewaltige magnetische Kraft und löste in mir eine starke Gemütsbewegung aus, und sei es eine des Widerwillens.“ „Dunkles, langes und unfrisiertes Haar, schwarzer Vollbart, hohe Stirne, eine breite, hervortretende Nase, kräftiger Mund. Doch der ganze Gesichtsausdruck ist in den flächsern-bläulichen Augen konzentriert, glänzend und tief liegend, merkwürdig magnetisch anziehend. …. Wenn er beim Sprechen auflebt, laden sich seine Pupillen förmlich magnetisch auf….“ Rasputins Aufdringlichkeit wird oft beschrieben. Die „normalen“ Umgangsformen waren nicht unbedingt Rasputins Sache. Sein Bekannter Wladimir Bontsch-Brujewitsch beschreibt eine Situation im Salon in der Aristokratenfamilie Ixkuel: „Als er anderen Gästen vorgestellt wurde, stellte er sogleich die Frage: „Verheiratet? – Und dein Mann? Warum bist du allein gekommen? Wenn ihr zusammenwärt, könnte ich sehen, wie es euch geht.“ „Es war seine Neugierde – ungezügelt und peinlich. … Rasputin begann mir mit den impertinentesten Fragen zuzusetzen. War ich glücklich? Liebte ich meinen Ehemann? Warum hatte ich keine Kinder? Er hatte kein Recht, mir solche Fragen zu stellen, also antwortete ich ihm nicht. Ich fürchte, Nicki und Alicki fühlten sich ziemlich unbehaglich. Ich erinnere mich noch, wie erleichtert ich war, als ich den Palast abends verließ, und ich sagte , als ich meinen Privatwaggon im Zug nach St. Petersburg bestieg.“ Eine weitere Begegnung beschrieb sie so: „Rasputin stand auf, legte seinen Arm um meine Schultern und begann meinen Arm zu streicheln. Ich entfernte mich sofort von ihm, ohne etwas zu sagen. …. Ich hatte genug von dem Mann. Ich verabscheute ihn mehr denn je.“ Rasputin und die Zarenfamilie. „Die Untersuchung des Einflusses von Rasputin auf die Zarenfamilie war intensiv. … Die königliche Familie glaubte, dass sie Beweise von Rasputins Heiligkeit in seiner psychischen Kraft über einige Personen des Zarenhofes sah. So beim zurück ins Leben holen der bewusstlosen und hoffnungslos verwundeten Frau Wyrubova, deren Fall beschrieben wurde; auch in dem zweifelsfrei heilenden Einfluss auf die Gesundheit des Thronfolgers. Auch betrachtete die Zarenfamilie eine ganze Reihe von erfüllten Vorhersagen als Beweise für Rasputins Heiligkeit.“ Nach heutigen Erkenntnissen gilt diese Aussage für die Zarin, für den Zaren nicht. Der Zar brauchte Rasputin wegen seines Sohnes, bei politischen Einmischungen reagierte er ärgerlich und er betrachtete Rasputin auch nicht als Heiligen. So kühlte die Stimmung zwischen beiden zu Beginn des Krieges, gegen den Rasputin Sturm lief, zeitweilig sehr ab. Beschuldigungen Rasputins durch seine Gegner. Rasputin wurde nicht nur von seinen Gegnern in der Politik, sondern auch von weiten Teilen der Presse des schwersten persönlichen Fehlverhaltens bezichtigt. Zeitweise wurden ganze Serien von Artikeln über ihn in den Zeitungen geschrieben. Diese Vorwürfe wurden nicht erst mit der Abwesenheit des Zaren während des Ersten Weltkrieges auf Rasputin erhoben, sondern bereits 1907 nach der ersten Geistheilung am Zarewitsch. Es gab nur wenige Verfehlungen, die Rasputin nicht zugetraut wurden. Der Grund dafür lag auch im problematischen Verhältnis zwischen der Zarenfamilie und der Öffentlichkeit: Die Bluterkrankheit des Zarewitschs wurde als Staatsgeheimnis behandelt, so dass die Anwesenheit Rasputins am Hof kaum erklärbar war. So erschien er nur selten im Zarenpalast, meist traf er sich mit der Zarin im Haus der Hofdame Anna Alexandrowna Wyrubowa. Da jedoch sowohl die Zarin als auch Rasputin unter ständiger Beobachtung standen, blieben diese Treffen nicht geheim, sondern wurden von den Medien aufgenommen und bildeten Grundlage für Gerüchte in allen politischen Lagern. Konservative Zeitungen entrüsteten sich, während links orientierte Blätter die Zarin zur Zielscheibe von Hohn und Spott machten. Da der Öffentlichkeit die Krankheit des Zarensohns unbekannt war, erschien die Verehrung Rasputins als ein „von Gott geschickter Heiliger“ durch die Zarin als bedenklich. Aufgrund dieser permanenten Vorwürfe musste Rasputin St. Petersburg auf Anweisung des Zaren mehrmals verlassen und in sein Heimatdorf Pokrowskoje zurückkehren. Wenn er aber auf Verlangen der Zarenfamilie wieder zurückkehrte, war der Hof massiver Kritik ausgesetzt, der nicht begegnet werden konnte, ohne die Krankheit des Zarewitschs öffentlich zu machen. Im Russland der Zeit Rasputins wurde Sektenzugehörigkeit als schwere Verfehlung beurteilt, und immer wieder wurde Rasputin vorgeworfen, der Sekte der Chlysten anzugehören. Dieser Vorwurf wurde bereits in seiner Heimat in Pokrowskoje gegen ihn erhoben und ganz offiziell beim zuständigen Bischof in Tjumen vorgebracht. Rasputins spätere Gegner in Petersburg stützten sich häufig auf diese Anschuldigungen. „Ich hatte in meiner Seele das Bedürfnis, etwas zu finden, das dem Menschen das wahre Heil bringen könnte. Ich suchte nach Beispielen bei unseren Popen, aber das alles genügte mir nicht. Nur Singen und lautes Beten wie einer, der regelmäßig Holz hackt – das konnte doch nicht alles sein.“ Bis zur Zeit des ersten Attentats trank Rasputin keinen Alkohol. Nach dem Anschlag von Juni 1914 begann er jedoch und glitt in den Alkoholismus ab. Im letzten Lebensjahr Rasputins wurden seine Alkoholexzesse auch von seinen Gegnern provoziert, um Skandale zu inszenieren. Es wird auch behauptet, dass bei vielen der Skandale nicht er selbst, sondern ein Doppelgänger anwesend war, der als Provokateur von Rasputins Feinden bezahlt wurde. Nach Aussagen seiner Tochter Maria und dem beobachtenden Staatssicherheitsdienst wurde der Alkohol für Rasputin zu einem Ventil für den Druck permanenter öffentlicher Anschuldigungen, seiner gesundheitlichen Probleme seit dem Attentat vom Jahr 1914 und der Angst vor weiteren Anschlägen. Immer wieder wurde Rasputin sexueller Orgien bezichtigt. Diese Anschuldigungen wurden häufig in Verbindung mit seiner angeblichen Mitgliedschaft in der Chlystischen Sekte erhoben. Verschiedene Berichte bezogen sich auf seine vermeintlichen Suggestionskräfte, die er dazu nutze, um Frauen gefügig zu machen und zu missbrauchen. Ein Beispiel für seine Zudringlichkeiten bei einer Bittstellerin wurde durch den Sicherheitsdienst am 3. November 1915 beschrieben. Bereits im Jahr 1910 sprach der Bischof Theophan bei der Zarenfamilie wegen Verfehlungen Rasputins vor. Die meisten Vorwürfe wurden allerdings nicht belegt und hielten einer Überprüfung nicht stand. Nach dem Sturz der Zarenfamilie wurde eine Untersuchung angestrengt, die sich auch mit Rasputins Sexualleben befasste. Wladimir Michailowitsch Rudnew, Leiter einer 1917 eingesetzten Untersuchungskommission der russischen Regierung, die alle Verdächtigungen auf ihren Wahrheitsgehalt überprüfte und umfangreiches Material des russischen Staatssicherheitsdienstes zur Verfügung hatte, kam zu dem Ergebnis, dass Rasputin keinesfalls intime Beziehungen zu „Damen der Gesellschaft“ gehabt habe, jedoch zu Prostituierten, Tänzerinnen und „Bittstellerinnen“. „… und doch soll der kleine Raum mit der Holzpritsche, nach Vaters Verleumdern zu urteilen, die furchtbare Lasterhöhle gewesen sein, wo er die armen kleinen Mädchen vergewaltigte, die Hilfe suchend zu ihm kamen … So sei denn ein für allemal festgestellt, dass die … Bacchanalien in unserem Haus niemals stattgefunden haben. Vater war … ein kräftiger Mensch in seinen besten Jahren. Ständig von Anbeterinnen umschwärmt, wäre er kein Mann gewesen, wenn er nicht gelegentlich den Reizen dieser oder jener erlegen wäre. Aber nie und nimmer ist, dies kann ich mit Bestimmtheit versichern, etwas Derartiges bei uns zu Hause geschehen.“ Der Vorwurf der politischen Einflussnahme wurde verstärkt ab September 1915 erhoben, während des katastrophal verlaufenden Krieges. Zu dieser Zeit befand der Zar sich nicht in Petersburg, sondern an der Front. Die Zarin leitete jedoch Vorschläge von Rasputin an ihren Mann weiter, so dass der Eindruck entstand, dieser mache sich die Position des Wunderheilers zu Eigen. Vermutlich hielt sich der Einfluss Rasputins aber in Grenzen, da der Zar den Vorschlägen nicht aufgeschlossen war. Um den Geheimnisverrat Rasputins an den deutschen Kriegsgegner rankten sich die wildesten Gerüchte. Eines davon war, dass Rasputin eine Standleitung nach Deutschland unterhielte, um täglich Kriegsgeheimnisse zu verraten. Der französische Botschafter Maurice Paléologue, der Rasputin selbst beschatten ließ, kam jedoch zu der Schlussfolgerung, dass Rasputin nichts von einem Spion an sich habe. Er beschrieb ihn als „einen Bauerntölpel, einen ungehobelten Naturburschen von krasser Unwissenheit“, der durch seine unbedachten Äußerungen die Regierungsautorität untergrabe. Auch seine abweichende Einstellung zu Juden war Stoff für Gerüchte und Vorwürfe. Während sich weite Teile der russischen Führungsschicht in antisemitischer Hetze ergingen, vertrat er den Standpunkt, Juden und Christen hätten den gleichen Gott. Da zudem sein Sekretär Aron Sinimowitsch Jude war, wurde er häufig als „Judenfreund“ bezeichnet. Gelegentlich wurde ihm auch seine ablehnende Haltung zum Thema Krieg vorgeworfen. Er hielt den Ersten Weltkrieg für ein Verbrechen, das zum Verderben Russlands führen werde. Rasputin schrieb Telegramme an den Zaren, die erhalten sind, in denen er in drastischer Form vor dem Krieg warnte. Ein daraus entstehender Einfluss kann allerdings nicht nachgewiesen werden. Bedeutung des Namens „Rasputin“. Der Name „Rasputin“ gibt Anlass zu Spekulationen, da die Übersetzung etwa „liederlich“ lautet. Ein Bezug zu seiner Persönlichkeit wurde deswegen an vielen Stellen vermutet. Es wurde vermutet, dass es sich um einen später erhaltenen Bei- oder Spottnamen handele. Dieser Name steht aber bereits im Taufschein Rasputins. Der Name Rasputin war in seinem Heimatdorf nicht ungewöhnlich. Rasputins Briefe. Es gibt einige Briefe Rasputins. Bei manchen warnt er den Zaren vor dem Krieg, die anderen sind „Abschiedsbriefe“ kurz vor seiner Ermordung. Sie sind für die Person Rasputin sehr aufschlussreich, und deshalb werden hier einige Briefe aufgenommen. „Kümmern Sie sich nicht zu sehr um den Krieg. Der Augenblick, ihm [gemeint ist wahrscheinlich Deutschland] eine Tracht Prügel zu verabreichen, kommt noch. Jetzt ist der Zeitpunkt noch nicht günstig. Die Leiden werden belohnt werden.“ „Mein Freund, ich wiederhole dir abermals: Eine furchtbare Gefahr bedroht Russland. Eine Katastrophe, ein Leid ohne Ende. Es ist Nacht. Kein Stern mehr am Himmel. Ein Ozean von Tränen! Ein Ozean von Blut! Was kann ich noch sagen? Ich finde keine Worte. Ein Schrecken ohne Ende. Ich weiß, dass sie alle den Krieg von dir fordern, auch die Treuesten. Sie machen sich nicht klar, dass sie dem Abgrund entgegenrasen. Du bist der Zar, der Vater unseres Volkes. Lass nicht den Wahnsinn triumphieren. Lass die toll Gewordenen nicht in den Abgrund stürzen und uns mitreißen. Vielleicht werden wir Deutschland erobern. Aber was soll aus Russland werden? Wenn ich nachdenke, weiß ich, dass unser Vaterland nie ein Martyrium gelitten hat wie das, was uns erwartet. Russland wird im eigenen Blut ertrinken. Unendliche Leiden und Trauer. Grigori.“ „Meine Lieben, Teuren: Verhängnis droht. Großes Unglück zieht heran. Das Antlitz der barmherzigen Mutter Gottes hat sich verfinstert, und der Geist in der nächtlichen Stille erregt. Und die Stille ist dahin. Aber furchtbar ist der Zorn; und wohin fliehen? Es steht geschrieben: Bleibt wach, da ihr weder den Tag noch die Stunde kennet. Für unser Land ist die Zeit gekommen. Das Blut erfriert vor Grauen. Es gibt soviel Blut und Schmerzensrufe. Dunkel ist die Nacht des schweren Leidens. Ich kann nichts sehen. Meine Stunde wird bald schlagen. Ich habe keine Angst, weiß aber, dass diese Stunde bitter sein wird. Ich werde große Martern erdulden. Es wird den Menschen verziehen werden. Ich werde aber das Reich erben. Du wirst in deinem Nest Mitleid mit mir haben. Die Jungen werden viel sehen. Du brauchst aber nicht lange zu beten, und Gott wird dir Kraft geben. Ich trauere um euch und um unsere Lieben. Ihr Leidensweg ist Gott bekannt. Menschen ohne Zahl werden zugrunde gehen. Viele Märtyrer werden sterben, Brüder von Brüdern den Tod empfangen. Großes Unglück wird hereinbrechen. Die Erde wird erzittern. Hunger, Seuchen werden kommen und Zeichen der ganzen Welt erscheinen. Betet, das wird euch Heil bringen, und durch die Gnade des Erlösers und den Schutz der Fürbitterin wird wieder Freude über Euch kommen. Grigori.“ „Ich schreibe und ich lasse hinter mir diesen Brief in St. Petersburg. Ich fühle, dass ich vor dem ersten Januar mein Leben verlieren werde. Ich möchte dem russischen Volk, dem Zar, der Zarin, ihren Kindern, allen Russen, bekannt machen, was sie verstehen müssen. Falls ich von gewöhnlichen Attentätern ermordet werde, besonders durch meine Brüder, die russischen Bauern, dann hast Du, der Zar, nichts zu befürchten für Deine Kinder. Sie werden über Hunderte von Jahren Russland regieren. Falls ich jedoch von Bojaren, von Adligen, ermordet werde, falls sie mein Blut vergießen werden, dann werden ihre Hände 25 Jahre lang befleckt sein mit meinem Blut, und sie werden mein Blut nicht abwaschen können. Sie werden Russland verlassen müssen. Brüder werden Brüder ermorden. Sie werden einander töten, und sie werden einander hassen. 25 Jahre lang werden keine Adligen im Land sein. Zar von Russland, wenn Du die Glocke hörst, die Dir sagt, dass Grigori ermordet wurde, dann musst Du Folgendes wissen: Wenn es Deine Verwandten waren, die meinen Tod verursacht haben, dann wird niemand aus Deiner Familie, kein Kind Deiner Verwandten, noch länger als zwei Jahre am Leben bleiben. Sie werden getötet durch das russische Volk. Ich gehe, und ich fühle in mir den göttlichen Auftrag, dem russischen Zaren zu sagen, wie er leben muss, wenn ich verschwunden bin. Du musst nachdenken und klug handeln. Denke an Deine Sicherheit und erzähle Deinen Verwandten, dass ich mit meinem Blut für sie bezahlt habe. Ich werde getötet werden. Ich bin nicht länger unter den Lebenden. Bete, bete, sei stark und denke an Deine gesegnete Familie - Grigori.“ Schlussbemerkung zu Grigori Rasputin. "„Man hat Rasputin alle möglichen Beinamen zugelegt. Man schalt ihn einen ‚Pferdedieb‘, den ‚Sohn eines Zuchthäuslers‘, einen ‚Trunkenbold‘, ‚dreckigen Muschik‘, ‚Verräter‘, ‚Spion‘, ‚Mädchenschänder‘, ‚Hypnotiseur‘, einen ‚tollen Mönch‘ und einen ‚heiligen Teufel‘. In Wirklichkeit war er nichts als ein Prügelknabe für andere, das wäre der einzige passende Spitzname gewesen.“" So schrieb die älteste Tochter Rasputins, Maria, in ihrem Buch „Mein Vater Rasputin“. Musik. Rasputin wurde 1978 von Boney M. als „Lover of the Russian Queen“ besungen, was von der finnischen Metalband Turisas gecovert wurde. Die deutsche Version des Boney M.-Hits "Rasputin, Kavalier der Königin" wurde von Gilla interpretiert. Die schwedische Metalband Therion widmete ihm auf dem Album „Sirius B“ (2004) einen ganzen Song namens „The Khlysti Evangelist“ (Siehe auch Chlysten). Auch die Band Samsas Traum erwähnt ihn und greift dabei die von Boney M verwendete Bezeichnung auf: "Hey hey Rasputin, leader of the Russian Queen!" (aus: Ein Fötus wie du, 2003). sowie das Musical "Rasputin" von Michael Rapp und Ozzy Osbourne. Außerdem ist er auf dem Cover des Type O Negative-Albums "Dead Again" aus dem Jahr 2007 und dem Cover des 1999er Albums Twisted Tenderness der Gruppe Electronic zu sehen. Der Rockmusiker Jon Symon trat vor allem in den 1970er Jahren unter seinem Künstlernamen Rasputin auf. Spiele. In (Japan 2004 von Nautilus) für die PlayStation 2 muss der Spieler Rasputin besiegen, der sich das Vertrauen der russischen Zarenfamilie erschlichen hat und vorhat, den Zaren zu ermorden, um selbst über Russland zu herrschen. Auch in Shin Megami Tensei’s „Devil Summoner – Raidou Kuzunoha vs. The Soulless Army“ ist Rasputin vertreten, wo er Dämonen durch Matroschkas beschwört. RSA-Kryptosystem. RSA (Rivest, Shamir und Adleman) ist ein asymmetrisches kryptographisches Verfahren, das sowohl zur Verschlüsselung als auch zur digitalen Signatur verwendet werden kann. Es verwendet ein Schlüsselpaar, bestehend aus einem privaten Schlüssel, der zum Entschlüsseln oder Signieren von Daten verwendet wird, und einem öffentlichen Schlüssel, mit dem man verschlüsselt oder Signaturen prüft. Der private Schlüssel wird geheim gehalten und kann nur mit extrem hohem Aufwand aus dem öffentlichen Schlüssel berechnet werden. Geschichte. Nachdem Whitfield Diffie und Martin Hellman eine Theorie zur Public-Key-Kryptografie veröffentlicht hatten, versuchten die drei Mathematiker Rivest, Shamir und Adleman, am MIT, die Annahmen von Diffie und Hellman zu widerlegen. Nachdem sie den Beweis bei verschiedenen Verfahren durchführen konnten, stießen sie schließlich auf eines, bei dem sie keinerlei Angriffspunkte fanden. Hieraus entstand dann 1977 RSA, das erste veröffentlichte asymmetrische Verschlüsselungsverfahren. Der Name RSA steht für die Anfangsbuchstaben ihrer Familiennamen. Bereits Anfang der 1970er Jahre war in den Government Communications Headquarters von Ellis, Cocks und Williamson ein ähnliches asymmetrisches Verfahren entwickelt worden, welches aber keine große praktische Bedeutung erlangte und aus Geheimhaltungsgründen nicht wissenschaftlich publiziert wurde. RSA konnte daher 1983 zum Patent angemeldet werden, obgleich es nicht das erste Verfahren dieser Art war. Das Patent erlosch am 21. September 2000. Verfahren. Das Verfahren ist mit dem Rabin-Verschlüsselungsverfahren verwandt. Da es deterministisch arbeitet, ist es anfällig für einfache Angriffe. In der Praxis wird RSA daher mit dem Optimal Asymmetric Encryption Padding kombiniert. Einwegfunktionen. Funktionen, bei denen eine Richtung leicht, die andere schwierig zu berechnen ist, bezeichnet man als "Einwegfunktionen" (engl. "one-way function"). Beispielsweise ist nach aktuellem Wissensstand die Faktorisierung einer großen Zahl, also ihre Zerlegung in ihre Primfaktoren, sehr aufwändig, während das Erzeugen einer Zahl durch Multiplikation von Primzahlen recht einfach ist. Spezielle Einwegfunktionen sind "Falltürfunktionen" (engl. "trapdoor one-way function"), die mit Hilfe einer Zusatzinformation auch rückwärts leicht zu berechnen sind. Die Verschlüsselung und die Signatur mit RSA basiert auf einer Einwegpermutation mit Falltür (engl. "trapdoor one-way permutation", kurz "TOWP"), einer Falltürfunktion, die gleichzeitig bijektiv, also eine Permutation, ist. Die Einwegeigenschaft begründet, warum die Entschlüsselung (bzw. das Signieren) ohne den geheimen Schlüssel (die Falltür) schwierig ist. Erzeugung des öffentlichen und privaten Schlüssels. Die Zahlen formula_19, formula_20 und formula_12 werden nicht mehr benötigt und können nach der Schlüsselerstellung gelöscht werden. Es ist jedoch relativ einfach, diese Werte aus formula_5, formula_6 und formula_3 zu rekonstruieren. Aus Effizienzgründen wird formula_5 klein gewählt, üblich ist die 4. Fermat-Zahl formula_26. Kleinere Werte von formula_5 können zu Angriffsmöglichkeiten führen, etwa in Form des von Johan Håstad publizierten „Broadcast“-Angriffs, bei dem der Versand einer Nachricht an mehrere Empfänger zu einer Dechiffrierung über den chinesischen Restsatz führen kann. Bei Wahl eines formula_6 mit weniger als einem Viertel der Bits des RSA-Moduls kann formula_6 – sofern nicht bestimmte Zusatzbedingungen erfüllt sind – mit einem auf Kettenbrüchen aufbauenden Verfahren effizient ermittelt werden. Verschlüsseln von Nachrichten. Um eine Nachricht formula_45 zu verschlüsseln, verwendet der Absender die Formel und erhält so aus der Nachricht formula_45 den Geheimtext formula_48. Die Zahl formula_45 muss dabei kleiner sein als der RSA-Modul formula_3. Beispiel. Es soll die Zahl 7 verschlüsselt werden. Der Nachrichtenabsender benutzt den veröffentlichten Schlüssel formula_37, formula_35 und rechnet Das Chiffrat ist also formula_54. Entschlüsseln von Nachrichten. Der Geheimtext formula_48 kann durch modulare Exponentiation wieder zum Klartext formula_45 entschlüsselt werden. Der Empfänger benutzt die Formel mit dem nur ihm bekannten Wert formula_6 sowie formula_3. Beispiel. Für gegebenes formula_54 wird berechnet Der Klartext ist also formula_62. Signieren von Nachrichten. Um eine Nachricht formula_45 zu signieren, wird vom Sender auf die Nachricht die RSA-Funktion mit dem eigenen privaten Schlüssel formula_6 angewendet. Zum Prüfen wendet der Empfänger auf die Signatur formula_65 mit Hilfe des öffentlichen Schlüssels des Senders formula_5 die Umkehrfunktion an und vergleicht diese mit der zusätzlich übermittelten unverschlüsselten Nachricht formula_45. Wenn beide übereinstimmen, ist die Signatur gültig und der Empfänger kann sicher sein, dass derjenige, der das Dokument signiert hat, auch den privaten Schlüssel besitzt und dass niemand seit der Signierung das Dokument geändert hat. Es wird also die Integrität und Authentizität garantiert, vorausgesetzt, der private Schlüssel ist wirklich geheim geblieben. Aufgrund der Homomorphieeigenschaft von RSA kann mit diesem Verfahren nur eine Nachricht signiert werden. Liegen nämlich zwei Signaturen formula_68, formula_69 vor, so kann ein Angreifer daraus durch Multiplizieren die Signatur der Nachricht formula_70 berechnen. Dieses Problem kann umgangen werden, indem nicht die Nachricht selbst signiert wird. Stattdessen wird mit einer zusätzlich zum Signaturverfahren spezifizierten kollisionsresistenten Hashfunktion formula_71 der Hash-Wert formula_72 der Nachricht berechnet. Dieser wird mit dem privaten Schlüssel signiert, um die eigentliche Signatur zu erhalten. Der Empfänger kann die so erhaltene Signatur mit dem öffentlichen Schlüssel verifizieren und erhält dabei einen Hashwert formula_73. Diesen vergleicht er mit dem von ihm selbst gebildeten Hashwert formula_72 der ihm vorliegenden Nachricht formula_45. Wenn die beiden Hash-Werte übereinstimmen, kann mit hoher Wahrscheinlichkeit davon ausgegangen werden, dass die Nachricht fehlerfrei übertragen wurde und nicht gefälscht ist. Auch diese Modifikation erfüllt allerdings nicht die modernen Sicherheitsanforderungen, daher werden Verfahren wie RSA-PSS verwendet um mit RSA zu signieren. RSA mit dem Chinesischen Restsatz. Mit Hilfe des Chinesischen Restsatzes können Nachrichten effizienter entschlüsselt oder signiert werden. Weil der Modul formula_3 sehr groß ist, sind auch die im Rechner verwendeten Bitdarstellungen der Zahlen sehr lang. Der Chinesische Restsatz erlaubt es, die Berechnungen statt in einer Gruppe der Größe formula_3 gleichzeitig in den zwei kleineren Gruppen der Größe formula_19 und formula_20 auszuführen und das Ergebnis danach wieder zusammenzusetzen. Da hier die Zahlen wesentlich kleiner sind, ist diese Berechnung insgesamt schneller. Diese Variante wird nach der englischen Bezeichnung des Chinesischen Restsatzes CRT (Chinese remainder theorem) auch CRT-RSA genannt. Eine Signatur einer Nachricht formula_45 wird dann wie folgt durchgeführt. Aus der letzten Gleichung sieht man sofort, dass formula_91 und formula_92. Die Signatur formula_93 stimmt also sowohl formula_94 als auch formula_95 mit formula_96 überein, daher ist nach dem Chinesischen Restsatz formula_97. RSA ist kein Primzahltest. Wenn formula_7 Primzahlen sind, funktioniert das RSA-Verfahren. Umgekehrt kann aber aus dem funktionierenden RSA-Verfahren nicht geschlossen werden, dass der Modul formula_3 aus zwei Primzahlen formula_19 und formula_20 zusammengesetzt ist, denn bei Carmichael-Zahlen funktioniert das Verfahren, obwohl Carmichael-Zahlen nicht der Standardform entsprechen. Sicherheit. Public-Key-Verschlüsselungs-Verfahren wie RSA werden in der Praxis immer als hybride Verfahren in Verbindung mit symmetrischen Verfahren verwendet. Bei der Analyse der Sicherheit im praktischen Einsatz müssen die Sicherheit des Public-Key-Verfahrens und die praktische Sicherheit des Gesamtsystems betrachtet werden. Angriffe auf das RSA-Verfahren erfolgen oft über Seitenkanäle. Das Gesamtsystem kann unsicher sein, wenn nur eine Komponente, beispielsweise ein Computer, kompromittiert wurde. Beziehung zwischen RSA und dem Faktorisierungsproblem. Die Beziehung formula_117 ist trivial, denn wenn man den privaten Schlüssel hat, kann man damit wie oben jeden beliebigen Geheimtext entschlüsseln. Ob die Umkehrung gilt, ist zurzeit unbekannt. Auch die Beziehung formula_118 ist trivial, denn wenn man formula_119 faktorisiert hat, kann man damit leicht formula_120 berechnen, und dann mit dem euklidischen Algorithmus zu gegebenem öffentlichen Schlüssel den zugehörigen privaten Schlüssel effizient berechnen, wie in der Schlüsselerzeugung. Für die Beziehung formula_121 ist schon lange ein "probabilistischer" Polynomialzeitalgorithmus bekannt. Vor kurzem wurde gezeigt, dass sich diese Reduktion im balancierten RSA (d. h. formula_19 und formula_20 haben gleiche Bitlänge) auch "deterministisch" durchführen lässt. Der Beweis verwendet das Coppersmith-Verfahren zur Bestimmung von Nullstellen eines irreduziblen bivariaten Polynoms mit ganzzahligen Koeffizienten, welches sich auf eine Gitterbasenreduktion zurückführen lässt. Da alle gängigen Implementierungen balanciertes RSA verwenden, ist in der Praxis das Brechen des geheimen Schlüssels nur mit der Kenntnis des öffentlichen Schlüssels genau so schwer wie das Faktorisieren von formula_3. Wegen formula_125 ist im Fall der zusätzlichen Kenntnis eines Geheimtexts die Schwierigkeit des Faktorisierungsproblems von zentralem Interesse. Schwierigkeit des Faktorisierungsproblems. Man möchte formula_119 für sehr große Primzahlen formula_19 und formula_20 faktorisieren. Diese Primfaktorzerlegung ist für große Zahlen mit den heute bekannten Verfahren praktisch nicht durchführbar. Es ist aber nicht bewiesen, dass es sich bei der Primfaktorzerlegung um ein prinzipiell schwieriges Problem handelt. Mit dem Quadratischen Sieb wurde 1994 die Zahl RSA-129 mit 129 Dezimalstellen in 8 Monaten von ca. 600 Freiwilligen faktorisiert. Mit der Methode des Zahlkörpersiebs wurde im Jahr 2005 von Wissenschaftlern der Friedrich-Wilhelms-Universität Bonn die im Rahmen der RSA Factoring Challenge von RSA Laboratories vorgegebene 200-stellige Dezimalzahl RSA-200 in ihre zwei großen Primfaktoren zerlegt. (Die ersten RSA-Zahlen bis RSA-500 wurden entsprechend der Anzahl der Dezimalstellen benannt, weitere RSA-Zahlen nach der Anzahl der Binärstellen.) Die Faktorisierung begann Ende 2003 und dauerte bis Mai 2005. Unter anderem kam ein Rechnerverbund von 80 handelsüblichen Rechnern an der Universität Bonn zum Einsatz. Im November 2005 zahlten RSA Laboratories für die Faktorisierung von RSA-640, einer Zahl mit 640 Bits bzw. 193 Dezimalstellen, eine Prämie von 20.000 US-Dollar. Obwohl mittlerweile für das Faktorisieren der RSA-Challenge-Zahlen keine Prämien mehr gezahlt werden, wurde im Dezember 2009 die Zahl RSA-768 faktorisiert. Für die Faktorisierung von RSA-1024 (309 Dezimalstellen) oder gar RSA-2048 (617 Dezimalstellen) waren 100.000 $ bzw. 200.000 $ ausgelobt; die RSA Laboratories haben im Mai 2007 das RSA Factoring Challenge beendet, nachdem die o. g. Wissenschaftler der Universität Bonn im selben Monat eine 1039-Bit Mersennezahl (312 Dezimalstellen) faktorisiert hatten. Aufgrund der ungleichen Stellenzahl der Faktoren war das aber wesentlich leichter, als eine RSA-Zahl gleicher Länge zu faktorisieren. Die wachsende Rechenleistung moderner Computer stellt für die kurzfristige Sicherheit von RSA im Wesentlichen kein Problem dar, zumal diese Entwicklung vorhersehbar ist: Der Nutzer kann bei der Erzeugung seines Schlüssels darauf achten, dass der während der Dauer der beabsichtigten Verwendung nicht faktorisiert werden kann. Nicht vorhersehbare Entwicklungen wie die Entdeckung deutlich schnellerer Algorithmen oder gar Schaffung eines leistungsfähigen Quantencomputers, der die Faktorisierung von Zahlen durch Verwendung des Shor-Algorithmus' effizient durchführen könnte, bergen zumindest für die mittel- und langfristige Sicherheit der verschlüsselten Daten gewisse Risiken. Zum konkreten Sicherheitsniveau bestimmter Schlüssellängen gibt es unterschiedliche Aussagen. Laut Bundesnetzagentur sind für RSA-basierte Signaturen bis Ende 2020 Schlüssel mit einer Mindestlänge von 1976 Bit geeignet (Empfehlung 2048 Bit). Für Signaturverfahren nach den Anforderungen aus Abs. 1 bis 3 SigG, „für die die besten bekannten Angriffe auf dem Problem der Faktorisierung großer Zahlen oder auf dem Problem der Berechnung diskreter Logarithmen in endlichen Körpern beruhen (RSA und DSA), werden Schlüssellängen von mindestens 3 000 Bit verpflichtend werden“, um perspektivisch mindestens ein Sicherheitsniveau von 120 Bit zu etablieren. Schwierigkeit des RSA-Problems. In einigen Spezialfällen kann man das RSA-Verfahren brechen, ohne das Faktorisierungsproblem gelöst zu haben. Der Angriff von Wiener bei balanciertem RSA löst das RSA-Schlüsselproblem effizient unter der Annahme, dass der private Schlüssel nur eine geringe Bitlänge aufweist, genauer formula_129. Wiener verwendete dabei die Tatsache, dass unter der Abschätzung für formula_6 der Bruch formula_131 (für eine ganze Zahl formula_132) in der Kettenbruchentwicklung von formula_133 auftaucht. Die Schranke wurde mit Mitteln der Gitterbasenreduktion auf formula_134 verbessert. Auch das RSA-Problem kann unter einigen Annahmen effizient ohne Faktorisieren gelöst werden. Der Angriff von Håstad ermittelt einen Klartext, der mit kleinem Verschlüsselungsexponent (etwa formula_135) für mehrere Empfänger vor dem Verschlüsseln speziell aufbereitet wurde, etwa wenn die Nummer des Empfängers in den Klartext codiert wurde. Dieser Angriff verwendet die Coppersmith-Methode, um kleine Nullstellen eines Polynoms in einer Unbestimmten zu berechnen, welche wiederum auf Gitterbasenreduktion beruht. Angriffe gegen das unmodifizierte RSA-Verfahren. In der Praxis wird das RSA-Verfahren wie oben beschrieben nicht eingesetzt, da es mehrere Schwächen hat. Die RSA-Verschlüsselung ist deterministisch. Das erlaubt es einem Angreifer, einen Klartext zu raten, ihn mit dem öffentlichen Schlüssel zu verschlüsseln und dann mit einem Chiffrat zu vergleichen. Da der Angreifer eine große Tabelle solcher Klartext-Chiffratpaare anlegen kann, darf der Klartext nicht leicht zu raten sein. Das bedeutet, dass unmodifiziertes RSA nicht IND-CPA sicher ist, heute eine Mindestanforderung an public-key Verschlüsselungsverfahren. Wenn der Klartext formula_45 und der Verschlüsselungsexponent formula_5 so klein sind, dass formula_138 ist, dann kann ein Angreifer die formula_5-te Wurzel von formula_48 ziehen und das Chiffrat auf diese Weise entschlüsseln. Wurzelziehen ist nur modulo einer großen Zahl schwierig, in diesem Fall kann formula_48 aber als in den ganzen Zahlen liegend betrachtet werden. Wenn dieselbe Nachricht formula_45 zu mehreren Empfängern geschickt wird, die zwar alle unterschiedliche (und teilerfremde) Moduli formula_143 benutzen, aber als öffentlichen Schlüssel den gleichen Exponenten formula_5, dann kann aus formula_5 Nachrichten formula_146 mit dem Chinesischen Restsatz formula_147 berechnet werden. Weil formula_148 (nach Voraussetzung ist formula_149 für alle formula_150), kann diese Zahl wieder als in den ganzen Zahlen liegend aufgefasst werden und Wurzelziehen ist dort einfach. Dieser Angriff wird nach seinem Entdecker Johan Håstad als „Håstads Angriff“ bezeichnet. Da die RSA-Funktion formula_151 multiplikativ ist (d. h. formula_152 gilt), kann man aus jedem Chiffrat formula_153 ein weiteres gültiges Chiffrat formula_154 erzeugen. Wenn man den Besitzer des zugehörigen geheimen Schlüssels davon überzeugen kann, diese Zahl zu entschlüsseln oder zu signieren, kann man aus dem Ergebnis formula_155 leicht formula_45 gewinnen. Dieselbe Eigenschaft erlaubt auch einen Angriff auf das Signaturverfahren. Aus bekannten Klartext-Signaturpaaren formula_157 lassen sich weitere gültige Signaturen Padding. Um solche Angriffe zu verhindern, werden bei RSA-Verschlüsselung und RSA-Signatur so genannte Padding-Verfahren eingesetzt. Standards für Padding-Verfahren für RSA werden z. B. in 1 oder ISO 9796 definiert. Diese nutzen aus, dass die Länge des Klartextes bzw. Hash-Wertes deutlich kleiner als die Länge von formula_3 ist, und fügen dem Klartext bzw. dem Hash-Wert vor der Verschlüsselung oder Signatur eine Zeichenfolge R mit vorgegebener Struktur an, die unter mehreren möglichen zufällig gewählt wird und dadurch das Chiffrat randomisiert. Es wird also die RSA-Funktion nicht auf die Nachricht formula_161 oder auf den Hash-Wert formula_162 angewendet, sondern auf den Klartext (bzw. seinem Hashwert) mit angehängtem R. In der Regel enthält formula_163 eine Angabe über die Länge der Nachricht oder des Hash-Wertes oder eine eindeutige Zeichenfolge, die den Beginn von formula_163 kennzeichnet. Dies erleichtert nicht nur die Dekodierung, sondern erschwert auch Angriffe. Padding-Verfahren können für die Berechnung von formula_163 auch Zufallszahlen und Hashfunktionen verwenden. Einige moderne Paddingverfahren – beispielsweise das Optimal Asymmetric Encryption Padding (OAEP) oder das Probabilistic Signature Scheme (PSS) – verwenden kryptographische Hashfunktionen um den Klartext vor der Verschlüsselung weiter zu randomisieren und sind unter idealisierenden Annahmen an die verwendete Hashfunktion beweisbar sicher unter der RSA-Annahme. Chosen-Ciphertext-Angriff. Daniel Bleichenbacher stellte 1998 einen Angriff auf die in 1 v1 spezifizierte RSA-Verschlüsselung vor. Dabei nutzte er aus, dass PKCS#1 v1 ein Nachrichtenformat vorgibt und einige Implementierungen nach dem Entschlüsseln Fehlermeldungen ausgeben, falls dieses Format nicht eingehalten wurde. Um den Angriff gegen ein Chiffrat formula_48 durchzuführen, wählt man eine Zahl formula_93 und berechnet daraus ein neues Chiffrat formula_168. Bei dem Nachrichtenformat sind die ersten zwei Bytes 00 und 02, wenn also keine Fehlermeldung kommt, weiß man, dass sowohl bei der ursprünglichen Nachricht formula_45 als auch bei der neuen Nachricht formula_170 die ersten beiden Bytes 00 02 sind. Mehrfache Wiederholung mit geschickt gewählten formula_93 erlauben es, nach und nach den gesamten Klartext aufzudecken. RSA nach 1 ab Version 2 ist immun gegen diesen Angriff. Sicherheit der symmetrischen Verfahren. RSA wird in der Regel in Hybridverfahren mit symmetrischen Verschlüsselungsverfahren kombiniert. Dabei wird zufällig ein Sitzungsschlüssel für eine symmetrische Verschlüsselung generiert, der dann per RSA verschlüsselt und zusammen mit der Nachricht übertragen wird. Bei der Signatur wird nicht die gesamte Nachricht, sondern nur ein Hash-Wert signiert. Der Hash-Wert bzw. der symmetrische Schlüssel ist dabei relativ kurz, auf jeden Fall kürzer als der RSA-Modulus formula_3. Daher kann der symmetrische Schlüssel mit einer einzigen RSA-Verschlüsselung verschlüsselt werden. Für die Sicherheit von RSA sind Primzahlen mit mehreren hundert Dezimalstellen (mindestens 2048 Bit) erforderlich. Daher können symmetrische Schlüssel jeder üblichen Länge verschlüsselt werden. Als sehr sicher eingestufte Algorithmen zur symmetrischen Verschlüsselung gelten 3DES und AES. Diese verwenden 112, 128, 168 oder maximal 256 Bit. Dies entspricht bei 256 Bit etwa 77 Dezimalstellen. Damit ist ein Brute-Force-Angriff faktisch auszuschließen. Eine sichere Hashfunktion wie SHA-256 erzeugt Funktionswerte mit einer Länge von ebenfalls 256 Bit. Damit lassen sich Signaturverfahren mittels RSA realisieren, die nur einen Verschlüsselungsschritt benötigen. Die Sicherheit und die Performance des Gesamtsystems werden durch die Sicherheit des Public-Key-Verfahrens limitiert, sofern nur als sicher eingestufte Algorithmen verwendet werden und die Wahl des Schlüssels als hinreichend zufällig betrachtet werden kann. Vorarbeiten. A=01 B=02 C=03 usw. (00 = Leerzeichen) Darüber hinaus sei angenommen, dass jeweils drei Zeichen zu einer Zahl zusammengefasst werden. Die Buchstabenfolge AXT wird also zu 012420. Die kleinste zu verschlüsselnde Zahl ist dann 000000 (drei Leerzeichen), die größte 262626 (ZZZ). Der Modulus formula_9 muss also größer als 262626 sein. Klartext: W I K I P E D I A Kodierung: 23 09 11 09 16 05 04 09 01 Schlüsselerzeugung. formula_177 formula_178 formula_179 (zufällig, teilerfremd zu formula_12) formula_181 (das multiplikative Inverse zu formula_182 mit Hilfe des erweiterten euklidischen Algorithmus) Öffentlicher Schlüssel: formula_179 und formula_184 Privater Schlüssel: formula_181 und formula_184 Verschlüsselung. Cn = Kne mod N für n=1,2,3(...) C1 = 2309111721 mod 263713 = 001715 C2 = 0916051721 mod 263713 = 184304 C3 = 0409011721 mod 263713 = 219983 Entschlüsselung. Kn = Cnd mod N für n=1,2,3(...) K1 = 0017151373 mod 263713 = 230911 K2 = 1843041373 mod 263713 = 091605 K3 = 2199831373 mod 263713 = 040901 Signatur. C1 = 2309111373 mod 263713 = 219611 C2 = 0916051373 mod 263713 = 121243 C3 = 0409011373 mod 263713 = 138570 Verifikation. K1 = 2196111721 mod 263713 = 230911 K2 = 1212431721 mod 263713 = 091605 K3 = 1385701721 mod 263713 = 040901 Die Berechnung der modularen Exponentiation kann durch binäre Exponentiation (Square-and-multiply) beschleunigt werden. Dabei wendet man nach jedem Rechenschritt auf die zu handhabenden Zahlen die Modulo-Operation „mod“ an, um die Zwischenergebnisse möglichst klein zu halten. Aus dem Klartext „7“ erhalten wir somit den Geheimtext „2“. Hybride Verfahren. RSA ist im Vergleich zu Verfahren wie 3DES und AES mindestens um den Faktor 1000 langsamer. In der Praxis wird RSA daher meist nur zum Austausch eines Schlüssels für die symmetrische Verschlüsselung benutzt. Für die Verschlüsselung der Daten werden dann symmetrische Verfahren eingesetzt. Damit sind die Vorteile beider Systeme vereint: einfacher Schlüsselaustausch und effiziente Verschlüsselung. Romanische Sprachen. Die romanischen Sprachen gehören zum (modernen) italischen Zweig der indogermanischen Sprachen. Die Gruppe der romanischen Sprachen bietet insofern eine Besonderheit, da es sich um eine Sprachfamilie handelt, deren gemeinsame Vorläufersprache das Latein (bzw. das Vulgärlatein) war, das in seiner Geschichte und schriftlichen Überlieferungen belegbar ist. Es gibt etwa 15 romanische Sprachen mit rund 700 Mio. Muttersprachlern, 850 Mio. inklusive Zweitsprechern. Die sprecherreichsten romanischen Sprachen sind Spanisch, Portugiesisch, Französisch, Italienisch und Rumänisch. Geschichte der romanischen Sprachen. Im Gegensatz zu den meisten anderen Sprachgruppen ist die Ursprache des Romanischen gut bezeugt: Es handelt sich um das "gesprochene" Latein der Spätantike (Volkslatein oder Vulgärlatein). Das Lateinische selbst gilt nicht als romanische Sprache, sondern wird zusammen mit der oskisch-umbrischen Sprache zu den italischen Sprachen gerechnet, von denen mit den romanischen Sprachen nur das Lateinische heute noch „Nachkommen“ hat. Die Romanisierung begann als Ausbreitung der lateinischen Sprache in den durch das Römische Reich verwalteten Gebieten. Diese räumliche Ausweitung erreichte um 200 n. Chr. einen Höhepunkt. Gebiete, in denen nur noch Relikte des Lateinischen vorhanden sind, nennt man verlorene (untergetauchte) Romania, "Romania submersa". Man denke etwa an lateinische Reliktwörter im Altbairischen oder die Formulierung "Mi bringt mi koana aus’n Heisl" (dt. „Mich bringt (mich) keiner aus dem Häuschen“), die hinsichtlich der Satzstellung und der Verwendung des Personalpronomens etwa direkt in das spanische "Te lo diré a ti" oder das französische "Moi je le dirai à toi" übertragen werden könnte (klitische Dopplungsstrukturen). Hingegen wird als gedachte Fortsetzung einer alten Romania von einer "Romania continua" gesprochen. Von einer neuen Romania, "Romania nova", wird gesprochen, wenn durch Kolonisation romanische Sprachen verbreitet worden sind. Waren die sich aus der indogermanischen Ursprache entwickelnden altindogermanischen Sprachen, so das Sanskrit und dann in abnehmendem Grade das Griechische sowie das Latein, von einem synthetischen Sprachbau, kam es über die Entwicklung vulgärlateinischer Dialekte und Sprachen verstärkt zu einem analytischen Sprachbau. Diese Veränderung hatte weitreichende Folgen. Während bei mehr oder weniger reinen synthetischen Sprachen die Wortstellung frei ist und dadurch einen flexiblen Ausdruck gewährleistet, müssen in den analytischen Sprachen die Beziehungen durch Wortstellungen ausgedrückt werden. Hierzu schufen die Sprecher im Zuge dieser Hinwendung zum analytischen Sprachaufbau der romanischen Sprachen nunmehr Artikel vor den Substantiven, Personalpronomina vor den Verben, führten Hilfsverben in die Konjugation ein, ließen Präpositionen die Kasus ersetzen und führten Adverbien zur Komparation der Adjektive ein und vieles andere mehr. Morphologisch sind die romanischen Verben zumeist von analytischer Form. In der Morphologie der Nomen aber war die Entwicklung eine andere, es kam zu einem weitreichenden Verlust der Kasus – eine Entwicklung, die schon im Vulgärlatein nachweisbar ist, wo lateinische Kasusendungen regelmäßig durch Präpositionen ersetzt wurden. Diese Entwicklung hin zu den romanischen Sprachen ergab eine völlig andere Syntax. Obgleich die Verbformen noch stark markiert sind, das Prädikat also seine kompakte Stellung behielt, wurden die syntaktischen Beziehungen zwischen den Satzgliedern nicht mehr durch die Kasus, sondern durch Präpositionen und die starrere Wortstellung ausgedrückt. Für den Sprecher wurden dadurch die Satzstellungsregeln einfacher, denn syntaktisch zusammengehörende Einheiten verbleiben nebeneinander stehen. Romanische Sprachen nach Untergruppen. Das romanische Sprachareal in Europa und dessen Hauptgruppen Die romanischen Sprachen lassen sich nach teilweise systemlinguistischen, teilweise geographischen Kriterien in mehrere Untergruppen einteilen. Bei der folgenden Liste der romanischen Sprachen ist zu beachten, dass bei vielen romanischen Idiomen die Aufzählung schwierig ist, da sie je nach Quelle mal als eigenständige Sprachen, mal als Dialekte geführt werden. Das hängt damit zusammen, dass sie nicht über "eine" einheitliche Standardsprache verfügen, sondern überwiegend neben einer anderen Standardsprache vor allem in informellen Kontexten verwendet werden (Diglossie). Mit Ausnahme des Sephardischen und des Anglonormannischen handelt es sich bei den hier aufgezählten um Sprachformen, die sich direkt und in ungebrochener zeitlicher Kontinuität aus dem gesprochenen Latein entwickelt haben. Sie bilden in Europa mit Ausnahme des Rumänischen auch ein räumliches Kontinuum. Man spricht aufgrund der zeitlichen und räumlichen Kontinuität auch von "Romania continua". Die wichtigste Unterscheidung unter den romanischen Sprachen auf dem Gebiet der historischen Lautlehre und Morphologie ist die zwischen ost- und westromanischen Sprachen. Zum Westromanischen werden das gesamte Iberoromanische und Galloromanische sowie die norditalienischen Varietäten und die "rätoromanischen Sprachen" (Bündnerromanisch, Ladinisch und Furlanisch) gerechnet; zum Ostromanischen das Italienische (mit Ausnahme der norditalienischen Varietäten) und das Balkanromanische. Das Sardische wird meist ganz von dieser Unterscheidung ausgenommen, da es keiner der beiden Gruppen klar zugeordnet werden kann. Die heutige Ausbreitung romanischer Sprachen in Europa Galloromanische Sprachen. Die Abgrenzung des Galloromanischen zum Iberoromanischen und zum Italoromanischen innerhalb des romanischen Dialektkontinuums ist nicht eindeutig. Das Katalanische nimmt eine Übergangsstellung zwischen Galloromanisch und Iberoromanisch ein, die "galloitalienischen" Varietäten haben rein systemlinguistisch betrachtet mehr mit dem Galloromanischen gemeinsam als mit dem übrigen Italoromanischen, zu dem sie aus geographischen und kulturgeschichtlichen Gründen meist gezählt werden. Die enge Verzahnung mit dem Romanischen des heutigen Frankreichs wird aber beispielsweise in den gallischen/keltischen Reliktwörtern des "Galloitalienischen" deutlich, die zum größten Teil auch im keltischen Reliktwortschatz der Transalpina zu finden sind. Rätoromanische Sprachen. Unter der Bezeichnung alpenromanische oder rätoromanische Sprachen werden manchmal das Furlanische, das Bündnerromanische und das Ladinische zusammengefasst. Sie sind von den galloitalienischen Idiomen gleichsam abgesondert worden, nachdem diese bzw. ihre Sprecher sich mehr südlich an den zentralitalienischen Mundarten orientierten. Sardisch. Das Sardische auf Sardinien lässt sich keiner der Untergruppen zuordnen. Es besitzt derzeit keine einheitliche Standardsprache, muss jedoch aufgrund seines Systemabstandes zu den übrigen romanischen Sprachen auf alle Fälle als eigenständige Sprache klassifiziert werden. Balkanromanische Sprachen. Zur balkanromanischen Sprachgruppe gehört als einzige Standardsprache das Rumänische (die von der rumänischen Schriftsprache überdachten Dialekte werden auch als Dakorumänisch zusammengefasst). Auch in Moldawien wird, nach einer Änderung des Artikels 13 der Verfassung, wieder Rumänisch an Stelle von Moldauisch gesprochen. Kreolsprachen auf romanischer Grundlage. Manche Linguisten rechnen auch die romanisch-basierten Pidgins und Kreolsprachen zu den romanischen Sprachen. "Siehe auch:" Liste der Kreolsprachen Sprachvergleich. Auch die folgende Übersicht macht Ähnlichkeiten, aber auch Unterschiede im Wortschatz anhand einiger Beispielwörter deutlich. Die aktuelle Situation der romanischen Sprachen in Europa. Romanische Sprachen und ihre Dialekte im Jahre 2014 in Europa Plansprachen auf teilweise romanischer Grundlage. Die allermeisten Plansprachen sind eine reformierte romanische Sprache oder eine Synthese aus mehreren romanischen Sprachen. Unter der sogenannten naturalistischen Richtung versteht man eben solche Plansprachen. Das bekannteste und wichtigste Beispiel ist die Latino sine flexione von 1903 oder die spätere Interlingua von 1951. Aber auch das Esperanto der sogenannten autonomen Richtung hat seinen Wortschatz zu mehr als drei Vierteln aus dem Lateinischen und romanischen Sprachen, vor allem dem Französischen. Einzelnachweise. ! Rumänien. Rumänien (;) ist eine semipräsidentielle Republik im Grenzraum zwischen Mittel- und Südosteuropa. Das Land liegt am Schwarzen Meer und erstreckt sich in westlicher Richtung über den Karpatenbogen bis zur Pannonischen Tiefebene. Rumänien grenzt an fünf Staaten: im Süden an Bulgarien, im Westen an Serbien und Ungarn, im Norden sowie im Osten an die Ukraine und im Osten an Moldawien. Der moderne rumänische Staat entstand 1859 durch die Vereinigung der Fürstentümer Moldau und Walachei. Nach 1945 war Rumänien während des Kalten Kriegs Teil des Warschauer Pakts. Seit 1989 hat sich Rumänien politisch den westeuropäischen Staaten angenähert und wurde Mitglied der NATO (2004) sowie der Europäischen Union (2007). Mit 238.391 km² verfügt Rumänien über die neuntgrößte Fläche und mit etwa 20,1 Millionen Einwohnern über die siebtgrößte Bevölkerung aller Mitgliedstaaten der Europäischen Union. Die rumänische Hauptstadt Bukarest ist mit 1,9 Millionen Einwohnern die sechstgrößte Stadt der EU, knapp vor Wien (1,75 Millionen) und Budapest (1,73 Millionen). Name des Landes. Der rumänische Begriff "România" (Rumänien) kommt von "român" (Rumäne), was seinerseits eine Ableitung des lateinischen "romanus" (Römer, römisch) ist. Im 16. Jahrhundert berichteten italienische Reisende, dass die Bewohner auf dem Gebiet des heutigen Rumäniens sich selbst "Römer" nannten. In einem Brief des Kaufmanns Neacșu von 1521 wird das Fürstentum Walachei als "Rumänisches Land" (rumänisch: Țara românească) bezeichnet. Die moderne Entsprechung "România" ist seit dem frühen 19. Jahrhundert gebräuchlich. Historische Dokumente weisen die Schreibweisen "rumân" und "român" zur Bezeichnung der Rumänen auf, die ursprünglich synonym verwendet wurden. Im 17. Jahrhundert nahm die vorherrschende Sprechform "rumân" die Bedeutung "Leibeigener" an, während "român" seine Bedeutung als Bezeichnung der Rumänen beibehielt. Nach der Abschaffung der Leibeigenschaft Mitte des 18. Jahrhunderts ging die Form "rumân" allmählich aus der Sprache verloren, ist im Deutschen aber bis heute Wortstamm von "Rumänien". Topografie. Rumänien liegt in der Übergangszone zwischen Mittel-, Süd- und Osteuropa. Die Staatsgrenzen sind insgesamt 3150 km lang. Davon entfallen 1817 km auf Flüsse, vor allem auf die Donau, die Rumänien nach Süden gegen Bulgarien und nach Südwesten gegenüber Serbien abgrenzt. Die rumänische Küstenlinie am Schwarzen Meer ist 225 km lang. Die Grenze zwischen Rumänien und der Ukraine im Norden und Osten wird durch Moldawien unterbrochen. Eine weitere Außengrenze besteht im Westen zu Ungarn. Rumäniens Landschaft wird etwa zu je einem Drittel von Gebirge, Hochland und Ebene eingenommen. Der prägende Gebirgszug des Landes sind die Karpaten, welche die drei historischen Regionen Moldau, Transsilvanien und Walachei voneinander trennen. Das geografische Zentrum Rumäniens ist das Siebenbürgische Hochland, das im Westen vom Apuseni-Gebirge und ansonsten vom Karpatenbogen umschlossen wird. Die Ostkarpaten bilden die Grenze zum Moldauer Hochland, das im Nordosten Rumäniens liegt. Die Südkarpaten wiederum trennen Siebenbürgen von der Walachischen Tiefebene. Diese Region lässt sich in die Kleine Walachei (Oltenien) im Westen sowie die Große Walachei (Muntenien) unterteilen, welche die zentralen und östlichen Anteile umfasst. Die Walachei wird nach Westen durch das Banater Gebirge abgegrenzt. Dieses bildet zusammen mit dem Apuseni-Gebirge und Poiana-Ruscă-Gebirge die sogenannten "Rumänischen Westkarpaten". Diese grenzen die zentralen Regionen Rumäniens zur Pannonischen Tiefebene ab. Hier befinden sich die historischen Regionen Banat (Südwesten), Kreischgebiet (Westen) und Maramureș (Nordwesten). Im Norden Rumäniens liegt die Bukowina. Im Osten des Landes grenzt die Dobrudscha ans Schwarze Meer. Geologie. Fast die gesamte südliche Hälfte der Karpaten befindet sich auf rumänischem Staatsgebiet. Das Gebirge bildete sich während der Alpidischen Orogenese im Trias und gehört zu einem Gebirgssystem, das sich von den Alpen bis zum Himalaya erstreckt. Zehn Gipfel der Karpaten erreichen Höhen von über 2500 m. Höchster Punkt der Südkarpaten und ganz Rumäniens ist der Moldoveanu mit 2544 m. Die Ostkarpaten erreichen am Pietros 2303 m, die rumänischen Westkarpaten am Curcubăta Mare-Gipfel 1848 m. Die Südkarpaten sind am massivsten, während Ost- und Westkarpaten von Senken und Pässen durchzogen sind. Teile der Ostkarpaten sind vulkanisch, der Rest der rumänischen Karpaten besteht aus Schiefer und Kalkstein. Das Siebenbürgische Hochland ist zwischen 300 m und 700 m, das Moldauische Hochland 300 m und 500 m hoch. Das kleine Dobrudscha-Hochland erreicht an seinem höchsten Punkt 467 m. Die Pannonische und Walachische Tiefebene (Campia Romana) bleiben unterhalb der Grenze von 200 m. Hydrologie. Der bedeutendste Fluss Rumäniens ist die Donau (), die mehr als tausend Kilometer durch oder an Rumänien entlang fließt. Sie stellt einen der wichtigsten Verkehrswege des Landes dar. Die Donau bildet den größten Teil der rumänischen Südgrenze zwischen dem rumänischen Teil des Banats und Serbien beziehungsweise der Walachei und Bulgarien. Im großen Donaudelta mündet der Fluss ins Schwarze Meer. Die übrigen wichtigen Flüsse Rumäniens gehören direkt oder indirekt zum Einzugsgebiet der Donau und entwässern die Ostkarpaten. Die Theiß grenzt Rumänien teilweise nach Norden zur Ukraine ab, der Pruth die rumänische Region Moldau nach Nordosten zu Moldawien. Der Sereth fließt durch Moldau, der Olt durch die Walachei, der Mureș (Nebenfluss der Theiß) durch Siebenbürgen. Rumäniens Seen machen 1,1 Prozent der Landesfläche aus. Insgesamt gibt es über 3400 Seen. Am größten sind die Lagunen Razim mit 41.500 ha und Sinoie mit 17.100 ha. Klima. Rumänien gehört zur gemäßigten Klimazone im Bereich der Westwindzone. Durch die natürliche Barriere der Karpaten unterscheiden sich die einzelnen Landesteile allerdings klimatisch voneinander. Siebenbürgen (westlich des Karpatenbogens) ist noch vom maritimen Klima der atlantischen Winde geprägt. Die Karpaten verhindern jedoch, dass diese Luftmassen den Osten und Süden des Landes erreichen. In der Moldau (östlich der Karpaten) herrscht ein kontinentales Klima vor. Diese Region ist kalten Luftströmen aus der Ukraine ausgesetzt. In der Walachei (südlich der Karpaten) existieren mediterrane Einflüsse; in noch stärkerem Ausmaß trifft dies auf die Dobrudscha zu. Die jährlichen Durchschnittstemperaturen variieren innerhalb Rumäniens zwischen 11 °C im Süden und 8 °C im Norden. Kältester Monat ist gewöhnlich der Januar, wärmster Monat der Juli. Im Winter betragen die durchschnittlichen Temperaturen 0 °C an der Schwarzmeerküste und −15 °C im Hochgebirge. Im Sommer steigen die durchschnittlichen Temperaturen in den tieferen Regionen des Landes auf mehr als 25 °C. Die tiefste jemals gemessene Temperatur wurde mit −38,5 °C am 25. Januar 1942 in Bod festgestellt, die höchste mit 44,5 °C am 10. August 1951 bei Brăila. Die Niederschläge sind tendenziell am stärksten im Nordwesten Rumäniens und am schwächsten im Südosten. Die höchsten jährlichen Niederschlagsraten treten mit 1000 mm im Hochgebirge auf, die geringsten mit 300–400 mm an der Schwarzmeerküste. Diese kommt auf 2286 Sonnenstunden im Jahr gegenüber nur 1500 in den Gebirgsregionen Rumäniens. Natur. Rumänien ist zu 27 % von Wald bedeckt. Die Waldzone endet bei 1800 Meter, darüber befinden sich Bergweiden. Innerhalb der Nadelwaldzone (1400–1800 m) wachsen Fichten, Tannen, Kiefern, Eiben und Lärchen. Im Buchenwald (400–1400 m) dominieren zwar Buchen, doch kommen daneben auch Hainbuchen, Ulmen, Eschen und Birken vor. Die unterste Waldzone ist der Eichenwald (150–400 m), wo sich neben Eichen auch Ahorne, Platanen, Weiden, Pappeln und Linden finden lassen. Im Bărăgan (Teil der Walachischen Tiefebene) und in der Dobrudscha existieren Steppenlandschaften, von denen allerdings große Teile landwirtschaftlich genutzt werden. Ansonsten kommen hier neben vereinzelten Laubbäumen Rosen, Prunus und Weißdorne vor. Im Donaudelta befindet sich eine Sumpflandschaft, die durch Schilfrohr, Rohrkolben, Wasserschierling und Seerosen geprägt ist. Rumäniens Tierwelt umfasst 3600 Arten, bei denen es sich teilweise um in Europa weit verbreitete Gattungen handelt, teilweise aber auch um nur hier vorkommende. Dazu zählen in den Karpaten die Gämse, Bartgeier, Braunbär (ca. 6600 Exemplare), Wolf (ca. 3100),Luchs (ca. 1500) und der Otter. Daneben finden sich in den höher gelegenen Waldregionen Rumäniens Tiere, die im Rest Europas häufiger vorkommen, wie Steinadler, Mönchsgeier, Rothirsch und Rotfuchs, in tiefer gelegenen Laubwäldern Dachs, Reh und Wildschwein. In der Walachischen Tiefebene finden sich kleine Populationen der Großtrappe. Das Donaudelta bietet Heimat für zahlreiche Arten von Fischen, Amphibien und Zugvögeln. Dazu zählt der in Europa nur hier vorkommende Rosapelikan. Daneben leben hier unter anderem der Purpurreiher und der wegen seines Kaviars bekannte Stör. a> ist ein Lebensraum für viele Tier- und Pflanzenarten. Im Schwarzen Meer (Dobrudscha) ist der Gemeine Delfin zuhause. Naturschutz. Als Mitglied der EU ist Rumänien auch zur Umsetzung des NATURA–2000–Schutzgebietnetzes verpflichtet. Zahlreiche Nationalparks existierten bereits oder wurden nach dem EU-Beitritt des Landes eingerichtet. In Rumänien existieren derzeit 148 Vogelschutzgebiete und 383 FFH-Gebiete, die nach "NATURA 2000" als besondere Schutzgebiete eingestuft werden. Das entspricht 23,4 % der rumänischen Landfläche. Deutschland hat im Vergleich 22,6 % (Stand: 12/2013) seiner Fläche nach diesem Kriterium ausgewiesen. Das Donaudelta ist Teil des UNESCO-Weltkulturerbes und beherbergt das größte Schilfrohrgebiet der Welt. Rumänien besitzt mehr biogeografische Regionen als jedes andere EU-Land, aber die Landschaften werden zunehmend von der boomenden und modernisierten Landwirtschaft und dem Städtewachstum beeinflusst. Das nationale Budget im Sektor des Biodiversitätsschutz ist sehr gering und es fehlt vielfach an Bewusstsein über Sinn und Zweck von EU-Naturschutz-Richtlinien. Im Oktober 2007 bekam die Regierung in Bukarest eine schriftliche Verwarnung der Europäischen Kommission, da das Land seine Gesetze zur Erhaltung der Biodiversität nicht eingehalten habe. Konkret ging es um bestimmte Schutzzonen für Zugvögel. Herrenlose Hunde bilden ein Problem, da sie auch Menschen angreifen, wenn sie hungrig sind. Allein in Bukarest schätzt man ihre Zahl auf 60.000. Illegaler Holzschlag, dem keine Wiederaufforstung folgt, bedroht zunehmend den Waldbestand. Grund sind die internationale Nachfrage nach billigem Holz, große ausländische Holzverarbeitungsfirmen vor allem aus Österreich, die die Holzwirtschaft bestimmen und ein pyramidenförmiges System, in dem alle Beteiligten vom Förster über die Verarbeiter bis zum Politiker von den illegalen Einnahmen profitieren. NGOs wie "Plantam Fapte Bune" versuchen gegen diese Entwicklung zu steuern. Demografie. Nach dem Zweiten Weltkrieg nahm die Bevölkerung Rumäniens kontinuierlich zu und überschritt schließlich die Grenze von 23 Millionen Einwohnern. Seit der Revolution von 1989 ist diese Zahl aber infolge eines Geburtendefizits leicht gesunken. Nach dem Ergebnis einer Volks- und Wohnungszählung vom 20. Oktober 2011 lebten in Rumänien 20,12 Millionen Menschen, somit ist die Bevölkerungsanzahl seit der Aufnahme von 2002 um 7,2 Prozent gefallen (−1.559.333 Menschen). Auf tausend Rumänen kommen jährlich 11,8 Todesfälle, aber nur 9,4 Geburten, was eine Wachstumsrate der Bevölkerung von −0,27 Prozent bedeutet. Die rumänische Fruchtbarkeitsrate von 1,3 Kindern pro Frau liegt damit deutlich unterhalb der Nettoreproduktionsrate. Dies hat auch Auswirkungen auf die rumänische Altersstruktur, nach der – für Europa typisch – nur 15 Prozent der Einwohner jünger als 15 Jahre alt sind. Weitere 16,1 Prozent der Bevölkerung sind älter als 65, 1,3 Prozent älter als 85, wobei diese Werte angesichts der zunehmenden Lebenserwartung (72 Jahre) mittelfristig steigen werden. Ebenfalls zur Abnahme der Bevölkerung hat beigetragen, dass Rumänien aufgrund seiner wirtschaftlichen Probleme seit 1945 ein Auswanderungsland gewesen ist, auch wenn sich diese Entwicklung durch die Stärkung der Wirtschaft seit 2002 abschwächt. 2011 wurden etwa 727.500 Personen, die schon länger als ein Jahr im Ausland lebten, registriert. 46,2 Prozent davon waren 20–34-jährige und etwa 24,8 Prozent waren 35–44-jährige. Die Mehrheit dieser Menschen sind nach Italien (46,9 %), nach Spanien (23,5 %), England (5,5 %), Deutschland (4,5 %), Frankreich (3,2 %) und nach Griechenland (2,2 %) für länger als ein Jahr umgezogen. Etwa 31,2 Prozent sind aus der Region Moldau – den Kreisen Bacău, Galați, Iași, Neamț – und dem Kreis Suceava im Süden der Bukowina, die wenigsten der im Ausland lebenden Menschen (2,8 %) stammen aus den Kreisen Călărași, Covasna, Giurgiu, Harghita und Ilfov. Rumänien hat eine für EU-Verhältnisse leicht unterdurchschnittliche Bevölkerungsdichte von 84,4 Einwohnern pro km². In Bezug auf die einzelnen Landesteile verteilt sich die Bevölkerung relativ ungleichmäßig. Am wenigsten dicht besiedelt ist das Banat mit 56 Einwohnern pro km². Ebenfalls unter dem rumänischen Durchschnitt liegen die Dobrudscha (57,6), das südliche Siebenbürgen (68,9), die Kleine Walachei (71,8) und das nördliche Siebenbürgen (72,4). Relativ dicht besiedelt ist die Moldau (90,5), besonders stark die Große Walachei einschließlich der Hauptstadtregion (kombiniert 103,2). Gemessen am europäischen Durchschnitt ist der urbane Anteil der rumänischen Bevölkerung mit 54 Prozent im Verhältnis zur ruralen ausgewogen. Allerdings ist der Altersdurchschnitt in den ländlichen Gebieten durch die Abwanderung junger Rumänen in die Städte deutlich höher. Nach 1990 haben sich verstärkt Einwohner in stadtnahen Gebieten niedergelassen. Als Reaktion auf diese Entwicklung sind seit 2005 mehrere Metropolregionen gegründet worden. Im Zusammenhang mit dem Beitritt Rumäniens zur EU im Jahre 2007 haben sich die Migrationsprozesse in, aus und nach Rumänien erheblich verstärkt. Ethnien und Sprachen. Die historischen Siedlungsgebiete der deutschen Minderheit in Rumänien um 1918 Die Rumänen wurden 2011 mit 88,9 Prozent als die deutlich größte Bevölkerungsgruppe des Landes registriert. Daneben existieren aber zahlreiche autochthone Minderheiten, die teilweise regional die Mehrheit stellen. Dies gilt insbesondere für die Ungarn mit 6,5 Prozent (etwa 1,2 Millionen Menschen). Ihre Hauptsiedlungsgebiete befinden sich im Südosten Siebenbürgens, dem Szeklerland, sowie im Grenzgebiet zu Ungarn. Das Verhältnis zwischen Rumänen und Ungarn ist historisch vorbelastet, da beide Anspruch auf die gemeinsamen Siedlungsgebiete erhoben haben. Seit der Revolution von 1989 hat sich die Beziehung zwischen Rumänen und Ungarn allerdings entspannt. Die Demokratische Union der Ungarn in Rumänien, eine ethnische Sammelpartei, ist seitdem mehrfach Teil der nationalen Regierungskoalition gewesen. Die drittgrößte Bevölkerungsgruppe in Rumänien sind die Roma mit 3,3 Prozent (etwa 621.000 Menschen), welche keine regionalen Schwerpunkte bewohnen. Sie sind sozial und wirtschaftlich häufig schlechter als die übrigen Gruppen gestellt. Der bis Mitte des 20. Jahrhunderts hohe Anteil der Deutschsprachigen ist auf 0,2 Prozent (Stand 2011) gesunken. Dabei handelt es sich vor allem um Siebenbürger Sachsen und Donauschwaben (Banat und Nordwesten bei Satu Mare). Über 200.000 Menschen wurden allein zwischen 1968 und 1989 durch die Bundesregierung „freigekauft“. Der Altersdurchschnitt der in Rumänien verbliebenen ist jedoch relativ hoch, so dass die Gesamtzahl der Rumäniendeutschen von unter 50.000 Menschen weiter sinken wird. Daneben existieren zahlreiche weitere Minderheiten: Ukrainer (0,3 %) in der Bukowina und Maramureș; Russisch-Lipowaner (0,2 %), Türken (0,2 %) und Tataren (0,1 %) in der Dobrudscha; Serben (0,1 %), Slowaken (0,1 %) und Tschechen (unter 0,1 %) im Banat. Bei Parlamentswahlen werden für insgesamt 18 Minderheiten unabhängig von den abgegebenen Stimmen jeweils ein Sitz in der Abgeordnetenkammer ausgewiesen. Die Verteilung der Sprachen entspricht weitgehend den einzelnen Nationalitäten. Amtssprache Rumäniens ist laut Verfassung Rumänisch "(limba română)", eine der ostromanischen Sprachen, das von 91 Prozent der Bevölkerung des Landes gesprochen wird. Ungarisch nimmt mit 6,7 Prozent regional ebenfalls eine bedeutende Rolle ein. In den Regionen, in denen jeweils eine der Minderheitensprachen von mehr als 20 Prozent der Bevölkerung gesprochen wird, ist diese offizielle Zweitsprache in Verwaltung, Gerichten und Schulen. Die häufigsten Fremdsprachen in Rumänien sind Englisch und Französisch, in Siebenbürgen und im Banat auch Deutsch. Religionen. Rumänien hat als säkulares Land keine Staatsreligion. 86,7 Prozent der Bevölkerung bekennen sich zur rumänisch-orthodoxen Kirche. Diese ist eine autokephale Kirche innerhalb der osteuropäischen Orthodoxie. Die ethnische und sprachliche Teilung Rumäniens setzt sich in der Kirchenzugehörigkeit fort, da die Ungarn vorzugsweise anderen Konfessionen als der rumänisch-orthodoxen Kirche angehören. Protestanten machen insgesamt 6,7 Prozent der Bevölkerung aus. Knapp die Hälfte von ihnen gehören der reformierten Kirche an, die übrigen sind Pfingstler, Baptisten, Siebenten-Tags-Adventisten, Unitarier (Unitarische Kirche Siebenbürgen), Lutheraner (Evangelisch-lutherische Kirche in Rumänien und Evangelische Kirche A. B. in Rumänien) oder Evangelikale. Ungarn und Deutsche in Siebenbürgen sind vor allem in den traditionellen protestantischen Kirchen vertreten, während die Rumänen (sofern sie nicht orthodoxen Glaubens sind) neueren protestantischen Freikirchen angehören. Insgesamt 5,6 Prozent der Bevölkerung sind Katholiken, wovon knapp ein Prozent auf die mit Rom unierte Rumänische griechisch-katholische Kirche entfällt. Der Großteil der Katholiken in Rumänien wird von den ethnischen Ungarn gestellt. Die in der Moldau lebenden Tschangos sind katholisch, ebenso wie die Mehrheit der Donauschwaben. Muslime in Rumänien machen 0,3 Prozent der Bevölkerung aus, wobei es sich vor allem um Türken und Tataren in der Dobrudscha handelt. Von den vor 1945 ursprünglich zahlreichen Juden in Rumänien ist nur eine kleine Minderheit (unter 0,1 Prozent) übrig geblieben. Die Anzahl der Konfessionslosen liegt trotz der langen kommunistischen Herrschaft nur bei 0,2 Prozent. Antike. Das Gebiet des heutigen Rumänien wurde laut Herodot mindestens seit dem 5. Jahrhundert v. Chr. von den thrakischen Völkern der Geten und Daker besiedelt. In den folgenden Jahrhunderten kam es regelmäßig zu militärischen Konflikten zwischen den "Geto-Dakern" einerseits und den jeweiligen Völkern südlich der Donau (Odrysen, Makedonen, Römer). Seine größte Ausdehnung erreichte das Dakerreich unter König Burebista (60–44 v. Chr.) durch die Vereinigung mehrerer Stämme. Nach seinem Tod zerfiel der Stammesverbund wieder. Unter König Decebal kam es zur erneuten Vereinigung der dakischen Stämme. Dieser fiel 85 n. Chr. in die römische Provinz Moesia ein. Erst zwischen 101 und 106 wurde er von Kaiser Trajan in zwei Feldzügen nördlich der Donau besiegt. Decebals Herrschaftsgebiet wurde als Provinz Dacia mit der Hauptstadt Sarmizegetusa ins Römische Reich eingliedert, seine Bevölkerung romanisiert. Die Provinz umfasste in etwa das heutige Siebenbürgen, das Banat und Oltenien. Aufgrund seiner Goldvorkommen war Dacia für die Römer interessant, militärisch war die Provinz allerdings von Anfang an starkem Druck durch die Nachbarvölker ausgesetzt. Daher wurde sie unter Kaiser Aurelian bis 275 wieder aufgegeben und Teile ihrer Bevölkerung südlich der Donau angesiedelt. Während der Völkerwanderung wurde das Gebiet des heutigen Rumäniens nacheinander von Goten, Hunnen, Gepiden, Slawen, Awaren und Bulgaren durchstreift. Das Schicksal der romanisierten Bevölkerung in der früheren Provinz Dacia und der damit zusammenhängende Ursprung des rumänischen Volks ist unter modernen Historikern umstritten: Die dako-romanische Kontinuitätstheorie besagt, dass auch nach der Aufgabe der Provinz dauerhaft eine dakisch-romanische Bevölkerung nördlich der Donau verblieben sei, aus der zwischen dem 6. und 10. Jahrhundert die heutigen Rumänen hervorgegangen seien. Dem gegenüber steht die Migrationsthese, der zufolge die Ethnogenese der Rumänen südlich der Donau stattgefunden habe und diese Bevölkerungsgruppe erst nach dem Ungarneinfall (9. Jahrhundert) von Bulgarien aus nach Siebenbürgen eingewandert sei. Die zwei Thesen beantworten die Frage nicht, inwieweit diese Bevölkerung sich dem Assimilationsdruck im bulgarischen Reich widersetzt hat. Mittelalter. Ab Mitte des 6. Jahrhunderts gehörten weite Teile des heutigen Rumäniens zum bulgarischen Reich. Auch die Christianisierung der örtlichen Bevölkerung sowie die Einführung des kyrillischen Alphabets, das bis 1862 in Rumänien verwendet wurde, fand in diesem Zeitraum statt. In Siebenbürgen existierten im 12. und 13. Jahrhundert von Rumänen gebildete politische Einheiten, die aber vom ungarischen Árpáden-Reich abhängig waren. Jenseits der Karpaten etablierte der rumänische Adlige Basarab I. im frühen 14. Jahrhundert das Fürstentum Walachei. War Basarab zunächst nur ein ungarischer Vasall, so wurde er 1330 nach seinem Sieg über den König von Ungarn faktisch unabhängig. Auf ähnliche Weise wurde das Fürstentum Moldau geschaffen, als der Adlige Bogdan I. seine Unabhängigkeit 1365 militärisch gegen Ungarn behauptete. Die beiden rumänischen Fürstentümer grenzten sich zusätzlich vom katholischen Ungarn ab, indem zwei orthodoxe Metropolien in Argeș (1359) beziehungsweise Suceava (1401) eingerichtet wurden. Siebenbürgen erlangte als Fürstentum innerhalb Ungarns ebenfalls eine gewisse Autonomie. Hier ging die Macht jedoch von den Ungarn und den eingewanderten Siebenbürger Sachsen aus, während die orthodoxe rumänische Bevölkerung seit 1366 – und verschärft seit 1437 – rechtlich schlechter gestellt war. Seit dem späten 14. Jahrhundert war die Walachei außenpolitisch durch die Nachbarschaft zum expandierenden Osmanischen Reich geprägt. Bedeutende Fürsten dieser Zeit waren Mircea cel Bătrân (Mircea der Alte, 1386–1418) und Vlad III. Drăculea (1456–1462, 1476), die teilweise militärische Erfolge gegen die Türken verbuchen konnten. Moldau musste sich während dieser Epoche sowohl gegen den Einfluss Ungarns als auch Polens wehren. Unter dem Fürsten Ștefan cel Mare (Stephan der Große, 1457–1504) nahm auch Moldau zeitweilig erfolgreich am Abwehrkampf gegen die Türken teil. Gegen Ende des 15. Jahrhunderts wurden die beiden rumänischen Fürstentümer allerdings dem Osmanischen Reich gegenüber tributpflichtig, auch wenn sie ihre politische und religiöse Autonomie bewahrten. Frühe Neuzeit. Mitte des 16. Jahrhunderts verschwand das Königreich Ungarn als unabhängige politische Macht. Dies führte dazu, dass das Fürstentum Siebenbürgen faktisch eigenständig wurde. Für Moldau und Walachei bedeutete der Niedergang Ungarns, dass sie politisch noch stärker dem Druck des Osmanischen Reiches ausgesetzt waren und schließlich zu dessen Vasallen wurden. Den Versuch einer antitürkischen Politik unternahm Mihai Viteazul (Michael der Tapfere, 1593–1601), der im Jahr 1600 von Mai bis September die drei von Rumänen bewohnten Fürstentümer geführt hatte. Diese Machtkonzentration dauerte aber nur vier Monate, da sie sowohl von den Nachbarstaaten als auch den internen Eliten abgelehnt wurde. Das Osmanische Reich sicherte sich mit der Dobrudscha, dem Budschak (1538) und dem Banat (1551) weitere teilweise rumänisch besiedelte Territorien. Im 17. und 18. Jahrhundert trat die Habsburgermonarchie dem türkischen Herrschaftsanspruch entgegen. Die Situation der rumänischen Fürstentümer verschlechterte sich dadurch, da die Habsburger Siebenbürgen (1711), das Banat (1718), Oltenien (1718–1739) und die Bukowina (1775) unter ihre Kontrolle brachten. Nach dem Niedergang Polens übte das Russische Reich, das sich 1812 in Bessarabien festsetzte, als dritte ausländische Großmacht Einfluss auf die rumänischen Fürstentümer aus. Auch die Innenpolitik Moldaus und der Walachei waren durch die außenpolitische Lage betroffen, da das Osmanische Reich griechischstämmige "Phanarioten" als Fürsten einsetzte. Unabhängigkeit. a> – erster rumänischer König von 1881 bis 1914 Die Vertreter der Revolution von 1848 forderten eine Vereinigung der Fürstentümer Rumäniens, wozu sich nach der Schwächung Russlands infolge des Krimkrieges eine außenpolitische Gelegenheit bot. 1859 wurde Alexandru Ioan Cuza (1859–1866) sowohl zum Fürsten der Walachei als auch Moldaus gewählt. Am 24. Dezember 1861 schuf er eine Realunion durch die Proklamation des Fürstentums Rumänien (das sogenannte „Altreich“) mit der Hauptstadt Bukarest. Aufgrund innenpolitischer Konflikte wurde Cuza 1866 mit Billigung der Großmächte durch die Adligen zur Abdankung gezwungen und durch den deutschen Prinzen Carol I. (Karl I., 1866–1914) aus der Dynastie Hohenzollern-Sigmaringen ersetzt. Im Russisch-Osmanischen Krieg 1877–1878 unterstützten die Rumänen Russland, woraufhin ihre Unabhängigkeit auf dem Berliner Kongress bestätigt wurde. Zusätzlich erhielt Rumänien die Dobrudscha gegen die Abtretung des südlichen Bessarabiens an Russland. Am 26. März 1881 wurde das neue Königreich Rumänien ausgerufen. 1907 kam es zu einem Bauernaufstand. 1913 kämpfte Rumänien im Zweiten Balkankrieg gegen Bulgarien und sicherte sich im Frieden von Bukarest die südliche Dobrudscha. Bei Ausbruch des Ersten Weltkriegs 1914 wollte Carol I. Partei zugunsten der Mittelmächte ergreifen, setzte sich aber innenpolitisch nicht durch. Unter seinem Neffen und Nachfolger Ferdinand I. (1914–1927) trat Rumänien im Sommer 1916 der Entente bei. Auf dem damit eröffneten neuen Kriegsschauplatz eroberten die Rumänen zunächst Teile Siebenbürgens, wurden aber bald zurückgedrängt. Bis Dezember 1916 eroberten und besetzten die Mittelmächte in einer Gegenoffensive die Walachei, woraufhin Ferdinand I. und die Regierung in die Moldau fliehen mussten. Nach dem Ende des Ersten Weltkriegs schlossen sich am 1. Dezember 1918 (Nationalfeiertag) die mehrheitlich rumänisch besiedelten Territorien Russlands und Österreich-Ungarns Rumänien an. Dies führte 1919 zum Ungarisch-Rumänischen Krieg, der mit der Besetzung Budapests durch die Rumänen endete. In den Friedensverträgen von Versailles 1919 und Trianon 1920 wurden Rumäniens neue Grenzen anerkannt: Vom untergegangenen Österreich-Ungarn erhielt es Siebenbürgen, das östliche Kreischgebiet, die Bukowina und zwei Drittel des Banats; vom bolschewistischen Russland zusätzlich Bessarabien. Großrumänien. Nach dem Ersten Weltkrieg hatten sich Staatsfläche und Bevölkerungszahl des neuen „Großrumäniens“ verdoppelt, wodurch es von einem relativ einheitlichen Nationalstaat zu einem Vielvölkerstaat geworden war. Etwa ein Viertel der rumänischen Staatsbürger gehörten einer der nationalen Minderheiten wie Ungarn, Deutschen, Ukrainern oder Bulgaren an. Wie andere Staaten Europas war auch Rumänien in der Zwischenkriegszeit von politischer Instabilität gekennzeichnet. 1927 wurde Kronprinz Carol zum Thronverzicht gezwungen und sein minderjähriger Sohn Mihai I. (Michael I., 1927–1930, 1940–1947) wurde König. Sein Vater bestieg jedoch 1930 doch noch als Carol II. (Karl II., 1930–1940) den Thron. Dieser errichtete 1938 eine Königsdiktatur mit der Begründung, eine Beteiligung der faschistischen Eisernen Garde an der Regierung zu verhindern. Rumänien wandte sich außenpolitisch in den 1930er Jahren dem nationalsozialistischen Deutschland zu. Nach Ausbruch des Zweiten Weltkriegs und der sich daran anschließenden territorialen Neuordnung Europas (siehe auch Hitler-Stalin-Pakt, Wiener Schiedsspruch) verlor Rumänien große Gebiete seines Staatsgebietes: Im Sommer 1940 fielen an die Sowjetunion die Nordbukowina, das Herza-Gebiet und Bessarabien; an Bulgarien die Süddobrudscha; an Ungarn das nördliche Siebenbürgen (Zweiter Wiener Schiedsspruch). Carol II. ging nach diesen Verlusten ins Exil. General Ion Antonescu baute eine faschistische Militärdiktatur auf und trat den Achsenmächten bei. Während des Zweiten Weltkriegs beteiligte sich Rumänien 1941 am zunächst erfolgreichen deutschen Feldzug gegen die Sowjetunion, wodurch die ein Jahr zuvor verlorenen Gebiete wieder rumänisch wurden. Innenpolitisch wurden Juden und Roma vom Antonescu-Regime verfolgt und ermordet. Die erfolgreiche Offensive der Sowjetunion im August 1944 führte zum Sturz Antonescus und zum Frontwechsel Rumäniens. Nach Ende des Zweiten Weltkriegs erhielt es zwar Nordsiebenbürgen von Ungarn zurück, doch kamen Bessarabien, das Herza-Gebiet und die Nordbukowina wieder unter sowjetische Herrschaft. Der Hauptteil dieses Gebietes bildet heute den eigenständigen Staat Moldawien, der Rest ist Teil der Ukraine. Im Zweiten Weltkrieg verlor Rumänien rund 378.000 Soldaten und Zivilisten. Die rumänische Regierung war im Rahmen des NS-Völkermords an der Ermordung von etwa 270.000 rumänischen Juden aktiv beteiligt. Volksrepublik. Nach dem Zweiten Weltkrieg geriet Rumänien unter sowjetischen Einfluss. Die Eliten des alten Systems und politische Gegner wurden enteignet, verschleppt oder ermordet. 1947 wurden alle bürgerlichen Parteien verboten, König Mihai I. wurde abgesetzt. Die Sozialdemokraten wurden mit der zuvor unbedeutenden "Partidul Comunist din România" (PCR) zwangsvereinigt, woraus ab März 1948 die "Partidul Muncitoresc Român" (PMR,) hervorging. Diese rief die "Volksrepublik Rumänien" aus, in der Gheorghe Gheorghiu-Dej der bestimmende Mann war. 1948 erfolgte eine letzte territoriale Abtretung, als die Schlangeninsel der Sowjetunion übergeben wurde. Staat und Wirtschaft Rumäniens wurden systematisch nach kommunistischen Vorstellungen umgeformt: 1948 wurde die Industrie verstaatlicht, ab 1950 auch die Landwirtschaft. Mitte der 1950er Jahre verbesserte sich die wirtschaftliche Versorgungslage in Rumänien, was die innenpolitische Lage stabilisierte. Um den ethnischen Gegensatz mit den Ungarn innerhalb Rumäniens abzuschwächen, wurde 1952 in deren Hauptsiedlungsgebiet das autonome Szeklerland eingerichtet. Außenpolitisch strebte Gheorghiu-Dej eine vorsichtige Eigenständigkeit gegenüber der Sowjetunion an, dennoch trat Rumänien 1949 dem Rat für gegenseitige Wirtschaftshilfe und 1955 dem Warschauer Pakt bei. Sozialistische Republik. Die rumänische Revolution im Dezember 1989 Am 21. August 1965 wurde unter der Führung der sich nun "Partidul Comunist Român" (PCR) nennenden Rumänischen Kommunistischen Partei die "Sozialistische Republik Rumänien" ausgerufen. Führender Mann des Landes wurde Nicolae Ceaușescu, der nach dem Tod von Gheorghiu-Dej das Amt des Generalsekretärs der Kommunistischen Partei übernommen hatte. Ceaușescu emanzipierte sich und im Mai 1967 warf er Moskau vor, die rumänische Kommunistische Partei unterwandern zu wollen. Im März 1968 zog er seine Verhandlungsdelegation vom Budapester Konsultativtreffen der kommunistischen Parteien zurück, weil der syrische Kommunistenführer Chalid Bakdasch Rumäniens Missionschef einen „Chauvinisten“ genannt hatte. Obwohl die Außenpolitik Ceaușescus den sowjetischen Nachbarn reizte, einen innenpolitischen Vorwand zum Eingreifen wie in der Tschechoslowakei fanden die Sowjets in Rumänien nicht. Die Diktatur der Kommunistischen Partei, ihre „führende Rolle“, war unangefochtener als in den meisten anderen Ostblockstaaten. Weiterhin betonte Ceaușescu demonstrativ die nationale Eigenständigkeit Rumäniens von der Sowjetunion, und unternahm mehrere radikale Einschnitte in Wirtschaft und Gesellschaft: Gesetze zur Förderung des Kinderreichtums und ein Abtreibungsverbot sollten die Bevölkerungszahl Rumäniens steigern. Mittels ausländischer Kredite und durch die Umsiedlung von Teilen der Landbevölkerung in die Städte sollte das agrarisch geprägte Land mehr industrialisiert werden. Diese Maßnahmen führten jedoch nach einigen vielversprechenden Anfängen nicht zum gewünschten Erfolg, sondern seit den späten 1970er Jahren vielmehr zu einer Versorgungskrise. Der Zusammenbruch der Volkswirtschaft und die mangelnde Bonität Rumäniens zwangen das Regime schließlich zum Export von Grundversorgungsgütern, die nun im Land selbst immer rarer wurden. Dennoch bewahrte Ceaușescu seine Macht zunächst durch die Geheimpolizei Securitate und einen sehr ausgeprägten Personenkult. Nach dem Mauerfall und der Wende 1989 in der DDR und den anderen Staaten des Ostblocks kam es zur Rumänischen Revolution. Demonstranten forderten das Ende des mit Gewalt regierenden Ceaușescu-Regimes. Die Securitate setzte daraufhin Schusswaffen ein, während Teile der regulären Armee dem Regime die Unterstützung verweigerten und Widerstand leisteten, was zu Straßenkämpfen mit mehr als 1000 Todesopfern führte. Nachdem sich die Armeeführung mit den Demonstranten verbündet hatte, wurde Ceaușescu am 25. Dezember 1989 vor ein Militärgericht gestellt und nach einem kurzen Schauprozess zusammen mit seiner Frau standrechtlich erschossen. Rumänien seit 1990. In der nachkommunistischen Zeit konnte sich Rumänien nur langsam von den Folgen jahrzehntelanger Diktatur und Misswirtschaft erholen. Vorherrschende Partei in den Jahren nach der Revolution wurde die sozialdemokratische PSD (Partidul Social Democrat) unter dem neuen Staatspräsidenten Ion Iliescu. Die PSD rekrutierte sich größtenteils aus den alten kommunistischen Eliten. Dennoch verfolgte Rumänien fortan einen demokratischen und marktwirtschaftlichen Kurs. Außenpolitisch orientierte es sich nach Westen. 1996 wurde Emil Constantinescu neuer Staatspräsident, seine Partei, die christdemokratische PNȚ-CD, wurde stärkste Kraft im Parlament. Sie scheiterte jedoch bei den Wahlen 2000 an der Fünfprozenthürde, was eine Rückkehr der PSD an die Regierung ermöglichte. Iliescu wurde wieder Staatspräsident, Adrian Năstase neuer Ministerpräsident. Im Jahr 2004 trat Rumänien der NATO bei. Bei den Präsidentschaftswahlen 2004 setzte sich Traian Băsescu durch, der sich auf eine Mitte-rechts-Koalition stützte. 2007 wurde Rumänien Teil der Europäischen Union. Im selben Jahr kam es zu einem Machtkampf zwischen Băsescu und dem Ministerpräsidenten Călin Popescu-Tăriceanu von der nationalliberalen PNL. Băsescu wurde zeitweilig vom Parlament suspendiert, kehrte aber nach einem für ihn positiven Referendum in sein Amt zurück. Die Parlamentswahlen in Rumänien 2008 fanden erstmals entkoppelt von den Präsidentschaftswahlen statt. Die PSD und die neu gegründete PD-L gingen daraus als Sieger hervor, woraufhin sie eine Regierung unter Emil Boc bildeten. Staatskrise seit 2011. Harte Sparmaßnahmen führten zu Protesten und schließlich zu einem Misstrauensvotum im Parlament. Das Kabinett Boc II trat zurück. Der frühere Außenminister Teodor Baconschi behauptete, durch die Manipulation einzelner Abgeordneter seien einige zum Oppositionsbündnis übergetreten. Staatspräsident Traian Băsescu ernannte Anfang Februar 2012 Mihai Răzvan Ungureanu zum Premierminister und beauftragte ihn mit der Regierungsbildung. Nach weniger als drei Monaten im Amt scheiterte Ungureanus Regierung an einem erfolgreichen Misstrauensvotum im Parlament, das von den Parteien Partidul Social Democrat (PSD) und Partidul Național Liberal (PNL) eingebracht wurde. Im Februar 2011 formten die Sozialdemokratische Partei Rumäniens, die National-Liberale Partei unter Crin Antonescu, und die Konservative Partei unter Daniel Constantin die Koalition "Uniunea Social Liberală" (USL,). Victor Ponta, Leiter der USL, wurde am 27. April 2012 von Staatspräsident Traian Băsescu mit der Bildung eines Kabinetts beauftragt. Băsescu bezeichnete die Ernennung von Ponta als normalen Ablauf des politischen Lebens eines demokratischen Staates und äußerte seine Zuversicht für die Überwindung der politischen Krise. Ponta sollte die Regierungsgeschäfte einstweilen bis zur Parlamentswahl im Spätherbst führen. Ende Juni 2012 wurde ein Amtsenthebungsverfahren gegen den rumänischen Präsidenten Traian Băsescu eingeleitet, in dem ihm massive Verfassungsverstöße vorgeworfen wurden. Die Abstimmung im Parlament führte zur Suspendierung des Präsidenten. Die Amtsgeschäfte führte indes der nationalliberale Senatspräsident Crin Antonescu. Beim EU-Gipfel am 28. und 29. Juni 2012 nahm Ponta als Vertreter Rumäniens teil, entgegen einer Entscheidung des Verfassungsgerichts, das Präsident Băsescu das Recht zugesprochen hatte, Rumänien wie bisher auch beim Gipfel zu vertreten, indem es urteilte, Traian Băsescu habe seine Befugnisse nicht überschritten. Eine Volksabstimmung zur Amtsenthebung verfehlte Ende Juli die notwendige Wahlbeteiligung, sodass Băsescu in sein Amt zurückkehren konnte. Bei den Präsidentschaftswahlen 2014 wurde Klaus Johannis, der Bürgermeister von Hermannstadt, zum Nachfolger Băsescus gewählt. Er setzte sich in einer Stichwahl gegen Ministerpräsident Ponta durch. Politisches System. Rumänien ist eine repräsentative Demokratie mit einem semipräsidentiellen Regierungssystem. Staatsoberhaupt ist der Präsident ("președinte"), Regierungschef ist der Premierminister ("Prim-ministru"). Die gesetzgebende Gewalt liegt bei einem Zweikammerparlament. Sitzverteilung im rumänischen Parlament seit 2008 Der Präsident wird direkt vom Volk gewählt. Erhält kein Kandidat im ersten Durchgang eine absolute Mehrheit, wird eine Stichwahl durchgeführt. Die Amtszeit des Präsidenten beträgt fünf Jahre, wobei die Möglichkeit zur einmaligen Wiederwahl besteht. Als Staatsoberhaupt ernennt der Präsident den Ministerpräsidenten und ist Oberbefehlshaber der Streitkräfte. Amtierender Präsident Rumäniens ist Klaus Johannis (Ergebnis der Präsidentschaftswahl in Rumänien vom 2. und 16. November 2014). Das Parlament ist für die nationale Gesetzgebung zuständig. Es besteht (Stand: Mai 2012) aus zwei Kammern: der Abgeordnetenkammer mit derzeit 402 Parlamentariern ("Camera Deputaților") und dem Senat ("Senatul") mit 176 Senatoren Die Mitglieder werden in einem gemischten Personen- und Verhältniswahlrecht gewählt. Eine Legislaturperiode dauert vier Jahre. Parteien ziehen nur in das Parlament ein, wenn sie die Sperrklausel von fünf Prozent aller abgegebenen Stimmen übertreffen. Insgesamt sind achtzehn Sitze für Abgeordnete von Minderheitenparteien reserviert. Seit den Wahlen vom November 2008 bildeten zunächst die konservative Partidul Democrat Liberal (PD-L) und die sozialdemokratische Partidul Social Democrat (PSD) eine Regierung unter Ministerpräsident Emil Boc. Die Opposition wurde von der liberalen Partidul Național Liberal (PNL) sowie die Demokratischen Union der Ungarn in Rumänien (UDMR) gebildet. Die nationalistische Partidul România Mare verfehlte den Wiedereinzug ins Parlament. Ende 2009 brach die Koalition aus PD-L und PSD auseinander; seitdem regieren die PD-L und die UDMR in einer Minderheitsregierung, erneut unter Führung von Emil Boc. Außen- und Sicherheitspolitik. Rumänien ist in die bedeutenden europäischen und transatlantischen Staatenbünde integriert. Es trat am 1. Januar 2007 unter Auflagen der Europäischen Union bei. Die EU verlangt allerdings von Rumänien, dass es die Korruption bekämpft, eine unabhängige Justiz aufbaut und funktionierende Behörden schafft. Im Zuge der NATO-Osterweiterung wurde Rumänien am 29. März 2004 Mitglied der NATO und ist seitdem in die transatlantische Sicherheitsstruktur eingebunden. 2004 und 2005 war Rumänien nichtständiges Mitglied im UN-Sicherheitsrat, im Juli 2004 und im Oktober 2005 führte es den Vorsitz. Die Armata Română (Rumänische Armee) sind die Streitkräfte Rumäniens. Sie setzt sich aus 75.000 Berufssoldaten und 15.000 zivilen Mitarbeitern zusammen. Das Verteidigungsbudget macht ungefähr zwei Prozent des Bruttoinlandprodukts aus. Rumänien nahm an den NATO-Missionen in Bosnien und Herzegowina (SFOR) und dem Kosovo (KFOR) teil. Außerdem unterstützt die Armee die militärischen Operationen der Vereinigten Staaten in Afghanistan und dem Irak. Die rumänische Regierung hat allerdings angekündigt, ihre Truppen aus dem Irak abzuziehen. Gesundheitspolitik. Das Gesundheitswesen war bis 1996 staatlich gelenkt. Danach wurde eine Pflicht-Krankenversicherung eingeführt, über die ein Großteil ärztlicher Leistungen sowie Arzneimittel zur Behandlung chronischer Erkrankungen abgedeckt werden. Der derzeitige Beitragssatz von etwa zwölf Prozent wird paritätisch von Arbeitgebern und Arbeitnehmern finanziert. Kinder und Jugendliche, Behinderte, Veteranen und Arbeitslose sind beitragsbefreit. Die 42 regionalen Krankenkassen schließen mit den Leistungserbringern (Krankenhäuser, Ambulanzen, Gesundheitszentren) Verträge ab. Seit 2004 gibt es private Zusatzversicherungen. Nach Angaben des nationalen Statistikbüros machen „Selbstzahlungen“ 30 Prozent der Gesamtausgaben für Gesundheit aus. Der Anteil der Gesundheitsausgaben am Bruttoinlandsprodukt liegt unter vier Prozent (Deutschland: 10,7 Prozent). Die Ausgaben für Gesundheit pro Einwohner betragen jährlich etwa 120 Euro (Deutschland: 2900 Euro). 2007 wanderten vor allem wegen der niedrigen Bezahlung etwa 4000 und damit jeder zehnte Mediziner aus. Menschenrechte. Im Zuge der Beitrittsverhandlungen zur Europäischen Union stellte die Europäische Kommission 2005 fest, dass Rumänien beim Schutz der Menschenrechte Fortschritte gemacht habe. Allerdings ist vor allem der Umgang mit Minderheiten durch den rumänischen Staat und die rumänische Bevölkerung immer noch teilweise problematisch. So kommt es nach wie vor zu Diskriminierungen und Übergriffen gegen Angehörige der Volksgruppe der Roma. Allerdings wurden Hunderttausende von Roma, die aus anderen EU-Ländern – vor allem Frankreich – nach Rumänien zurückgeschafft wurden, anstandslos wieder eingegliedert. Auch ist die Situation in Institutionen für psychisch kranke Menschen nach wie vor unbefriedigend. Amnesty International weist darauf hin, dass Todesfälle in psychiatrischen Anstalten weder effektiv noch unparteiisch untersucht wurden. Auch leiden laut Amnesty International nach wie vor Menschen mit von heterosexueller Orientierung abweichender sexueller Identität unter Diskriminierung und Intoleranz. Kreise. Die historischen Regionen haben in Rumänien keine administrative Bedeutung. Der Staat ist in 41 Kreise („județ“, Pl.: „județe“) sowie die Hauptstadt Bukarest unterteilt. Diese zentralistische Verwaltungsgliederung wurde nach dem Vorbild der französischen Départements im 19. Jahrhundert geschaffen. In den ersten Jahren der kommunistischen Herrschaft wurde diese Ordnung verändert, doch kehrte Rumänien 1968 zum ursprünglichen System zurück. Davon abweichend wurden 1981 die Kreise Ialomița und Ilfov in die Kreise Călărași, Giurgiu, Ialomița und Ilfov neu organisiert. Bis 1995 war Ilfov kein selbstständiger Kreis, sondern von Bukarest abhängig. Im Durchschnitt haben die rumänischen Kreise (inklusive der Hauptstadt) etwas mehr als 500.000 Einwohner auf 5676 km². Verglichen mit föderalistischen Verwaltungsstrukturen in Deutschland oder den USA, wo einzelne Verwaltungseinheiten andere der gleichen Ebene um mehr als das Zehnfache an Größe übertreffen, weichen die Zahlen in Rumänien nur gering voneinander ab. Abgesehen von der Hauptstadtregion reicht die Bevölkerungsanzahl in den Kreisen von etwa 222.000 (Covasna) bis 829.000 (Prahova). Der flächenmäßig größte Kreis ist Timiș mit 8697 km², der kleinste Ilfov mit 1593 km². Letzterer umgibt Bukarest und ist deutlich kleiner als die übrigen Verwaltungseinheiten. Bereits der zweitkleinste Kreis Giurgiu erstreckt sich über 3526 km². Parallel existieren in Rumänien acht Planungsregionen. Diese wurden 1998 im Zuge der Vorbereitung auf den EU-Beitritt geschaffen. Sie haben keine realen Befugnisse und sind somit auch keine juristischen Verwaltungseinheiten. Die Planungsregionen sind allerdings für die Zuteilung von EU-Fördergeldern sowie für statistische Erhebungen von Bedeutung. 2013 wurde in Rumänien ein umfassender Prozess der Dezentralisierung und Regionalisierung mit dem Ziel einer Modernisierung des öffentlichen Verwaltungssystems in Gang gesetzt. Im November 2013 leitete die Rumänische Regierung das "Dezentralisierungsgesetz" dem Rumänischen Parlament zu. Dieses legte den Gesetzesentwurf dem Verfassungsgerichtshof vor, der es als verfassungswidrig erklärte. Städte. Die mit Abstand größte Stadt Rumäniens ist die Landeshauptstadt Bukarest, in der über 1,9 Millionen Einwohner leben, was sie zur insgesamt sechstgrößten Stadt innerhalb der Europäischen Union macht. Sie ist daneben das Zentrum der Großen Walachei (Muntenien). Insgesamt haben 20 Städte Rumäniens mehr als 100.000, weitere 21 Städte mehr als 50.000 Einwohner. Infrastruktur. Die Infrastruktur Rumäniens hat gewisse Probleme. Rumänien wird von den paneuropäischen Verkehrskorridoren Nr. 4 und Nr. 9 durchquert sowie von Nr. 7 (Wasserweg Donau) in seinem Süden begrenzt. Investitionen in den Eisenbahnverkehr sowie den Zustand der Straßen sind dringend nötig. Obwohl Rumänien seit 1. Januar 2007 Mitglied der EU ist und dadurch Geld zur Verbesserung und zum Ausbau der Infrastruktur bei der EU beantragt werden kann, geschieht dies nur sehr zögerlich. Der mögliche Rahmen wird bei weitem nicht ausgeschöpft. Ursache ist die ineffiziente Verwaltung welche die Infrastrukturprojekte nicht in angemessener Zeit vorantreibt. Flugverkehr. Es existieren zwei Flughäfen bei Bukarest, weiterhin je einer bei Arad, Baia Mare, Craiova, Sibiu, Târgu Mureș, Constanța, Cluj-Napoca, Timișoara, Oradea, Bacău, Suceava und Iași. Einheimische Fluggesellschaften sind TAROM, Carpatair und die Billigfluggesellschaft Blue Air. Straßenverkehr. Neben den relativ gut ausgebauten Autobahnen (Tempolimit: 130 km/h) und größeren Nationalstraßen sind die übrigen Straßen vor allem in grenznahen und/oder ländlichen Regionen teilweise immer noch sehr marode und mit westeuropäischen Verhältnissen kaum vergleichbar, obwohl seit 2007 viele Straßen ausgebaut bzw. renoviert wurden. Ein extremes Beispiel ist der Prisloppass an der Grenze zur Ukraine. Die Hauptstraßen führen meist direkt durch Ortschaften, in denen es häufig vor Schulen und Zebrastreifen Bremsschwellen gibt. Neu asphaltierte Straßen sind aufgrund der Hitze des Sommers oft sehr wellig, was zum Aufschaukeln führt. Die geltenden Tempolimits werden von der einheimischen Bevölkerung vielfach ignoriert, hinzu kommen Gefahren durch langsame und unbeleuchtete Pferdefuhrwerke, die auf den Straßen im ländlichen Raum zahlreich unterwegs sind. Dementsprechend verzeichnet Rumänien von allen EU-Staaten nach Lettland die zweithöchste Anzahl an Verkehrstoten relativ zur Gesamtbevölkerung (Stand: 2014). Auf der Hauptverbindung zwischen Ungarn und Bulgarien (Europastraßen E 68, E 70, E 81 Szeged (Ungarn)–Arad–Deva–Sibiu–Bukarest–Russe (Bulgarien)) ist eine maximale Durchschnittsgeschwindigkeit von 50 bis 60 km/h möglich. Die Europastraße E 70/E 79 (Calafat–Craiova–Drobeta Turnu Severin–Timișoara–Arad), die als Alternative zur viel befahrenen Strecke durch die Karpaten dienen könnte, wird zurzeit (Oktober 2009) auf der ganzen Strecke ausgebaut. Die zahlreichen Baustellen sind, mit Ampeln abgesichert, einspurig passierbar, deshalb sinkt hier die Durchschnittsgeschwindigkeit auf ca. 30 bis 40 km/h. Das rumänische Tankstellen- und Werkstättennetz ist gut ausgebaut, Vulkanisier-Services sind weit verbreitet. Auf Europastraßen sind die Zapfsäulen meist rund um die Uhr geöffnet. Daneben gibt es zahlreiche Raststätten und Mini-Markets, die immer geöffnet haben. Eisenbahn. Große Teile des Streckennetzes und des rollenden Materials der Rumänischen Staatsbahn (CFR) haben einen starken Modernisierungsbedarf, wobei es in den letzten Jahren punktuelle Verbesserungen gab. So werden seit Anfang 2003 im Fernverkehr moderne Desiro-Züge (CFR-Baureihe 96) unter dem Namen „Săgeata Albastră“ („Blauer Pfeil“) eingesetzt. Kommunikation. In Rumänien verfügten 2011 laut Eurostat 47 Prozent der Haushalte über einen Internetzugang, etwa 31 Prozent der Haushalte über einen Breitbandinternetanschluss, das war der niedrigste Wert in allen 27 EU-Staaten. 2012 stieg die Anzahl der Haushalte mit Internetzugang auf 54 Prozent. Medien. Im Fernsehbereich ist der private Kanal ProTV seit langem Marktführer, vor dem Privatkanal Antena 1 und dem öffentlich-rechtlichen Fernsehen TVR 1. Im Hörfunkbereich bietet das öffentlich-rechtliche Radio Romania zahlreiche landesweite und regionale Programme an. Die führenden überregionalen Tageszeitungen gehören meist wohlhabenden rumänischen Unternehmern, die vorher oft hohe politische Ämter besaßen. Nach der Wende waren der Schweizer Ringier-Verlag und der deutsche WAZ-Konzern an vielen Zeitungs- und Zeitschriftenverlagen beteiligt. Titelkopf der deutschsprachigen Tageszeitung aus Bukarest Wichtigste deutschsprachige Publikationen sind die täglich erscheinende "Allgemeine Deutsche Zeitung für Rumänien" (ADZ) in Bukarest und die wöchentliche "Hermannstädter Zeitung" (HZ) in Hermannstadt. Die deutschsprachige Presse im Gebiet des heutigen Rumäniens existiert bereits seit mehreren Jahrhunderten. Schon 1778 wurde im von Deutschen gegründeten Hermannstadt eine erste Zeitschrift für Siebenbürgen aus der Taufe gehoben. Mehrere Lokalstudios von Radio Romania und Televiziunea Română (TVR) produzieren deutschsprachige Hörfunk- und TV-Programme. Dazu gehören beispielsweise Radio Neumarkt, der Deutsche Dienst von Radio Rumänien International oder die Fernsehsendung „Deutsch um 1“ bei TVR 1. Wirtschaft. Zu den Bodenschätzen Rumäniens gehören Erdgas, Kohle (vor allem Braunkohle), Salz, Gold und Erdöl. Das Land wird zu 41 Prozent durch Ackerland genutzt, zu 29 Prozent durch Wald, zu 21 Prozent durch Weide und zu 3 Prozent durch permanente Saat. Die übrigen geschätzten 6 Prozent treffen auf andere Ländereien zu. Rumänien erwirtschaftete im Jahr 2010 ein Bruttoinlandsprodukt (BIP) von etwa 161,629 Mrd. US$, was einem BIP pro Kopf von 7.542 US$ entspricht. Im Vergleich mit dem BIP der EU, ausgedrückt in Kaufkraftstandards, erreichte Rumänien 2006 einen Index von 38,4 (EU-27 = 100). Trotz der positiven volkswirtschaftlichen Gesamtentwicklung in den Jahren von 2001 bis 2008 (BIP-Wachstum von durchschnittlich 6 Prozent) bedarf die rumänische Wirtschaft weiterer Reformen. Im Krisenjahr 2009 verringerte sich die Wirtschaftsleistung des Landes um erhebliche 6,6 Prozent. Im darauffolgenden Jahr 2010 schrumpfte die Wirtschaft um weitere 1,1 Prozent, erholte sich jedoch 2011 (+ 2,2 Prozent). Die rumänische Wirtschaft entwickelte sich im Gesamtjahr 2012 schlechter als erwartet. Nach vorläufigen Berechnungen wuchs die rumänische Wirtschaft real um 0,2 Prozent. Der durchschnittliche Bruttolohn erreichte im Jahr 2007 einen Betrag von 781 € (Euro zu Kaufkraftparität). Laut Schätzungen lag der Anteil des Dienstleistungssektors am BIP 2011 bei 50 Prozent, der Anteil des Industriesektors bei 37,8 Prozent und der Landwirtschaftssektor bei 12,3 Prozent des BIP. Im Jahr 2004 waren mit 22,6 Prozent Rekordzuwächse im Landwirtschaftssektor zu verzeichnen. Die jährliche Teuerungsrate ging in Rumänien seit der ersten Welle der EU-Erweiterung 2004 von 9,6 Prozent auf 8,6 Prozent im Jahr 2005 und auf 6,1 Prozent 2010 zurück. Obwohl die Wirtschaft 2005 weiterhin wuchs und auch das Exportvolumen gesteigert werden konnte, hatte Rumänien 2005 eine Steigerung des Außenhandelsdefizits gegenüber dem Vorjahr um 3 Mrd. Euro zu verzeichnen, was mit der im Verhältnis zur Produktionsleistung überproportional gestiegenen Nachfrage nach Importgütern zu erklären ist, die durch Erleichterungen bei der Kreditvergabe möglich wurde. "Das hieraus resultierende Leistungsbilanzdefizit belief sich auf rund 9 Prozent des Bruttoinlandsprodukts." Im Juli 2011 hat Rumänien das Zahlungssystem TARGET2 für den Euro-Transfer lanciert. Seit 2005 gilt eine Einheitssteuer von 16 Prozent. Infolge der Finanzkrise geriet auch Rumänien Ende 2008 in finanzielle Schwierigkeiten. Mitte März 2009 beschloss der Internationale Währungsfonds (IWF) Hilfen von knapp 13 Milliarden Euro in einem zweijährigen Stand-by-Kredit für Rumänien bereitzustellen, ergänzt um 5 Milliarden Euro aus dem Notfallfonds der Europäischen Kommission und zusätzlichen 2 Milliarden Euro von weiteren internationalen Organisationen. Privatisierung und Beschäftigung. Die Privatisierung der staatlichen Betriebe wird fortgesetzt. Im Juli 2004 erhielt der österreichische Energieversorger OMV die Aktienmehrheit an dem rumänischen Öl- und Erdgaskonzern PETROM (60.000 Mitarbeiter). Ende 2005 erhielt die österreichische Erste Bank den Zuschlag für eine Beteiligung von 61,88 Prozent an der größten rumänischen Bank, der Banca Comercială Română (BCR). Der Kaufpreis von 3,75 Mrd. EUR war bisher die mit Abstand größte Direktinvestition in Rumänien. Nach Zahlen der Wirtschaftskammer wurden bisher rund 30 Prozent aller ausländischen Investitionen in Rumänien von österreichischen Firmen getätigt. Betrug die Erwerbslosenquote im Jahr 2005 noch 5,9 Prozent, waren es im September 2007 nur noch 3,9 Prozent. Der Staat schreibt einen gesetzlichen Mindestlohn von etwa 150 Euro vor. Nach wie vor suchen aber viele Rumänen Arbeit im Ausland, vorzugsweise in den Mittelmeerländern Italien und Spanien. Industrie. Die Industrie trägt zu beinahe 35 Prozent zum Bruttoinlandsprodukt bei und beschäftigt etwa 20 Prozent aller Arbeitskräfte. Hergestellt werden in Rumänien vor allem Elektronik wie Computer, Telekommunikationsausrüstungen, Unterhaltungselektronik und Halbleiter; daneben Fahrzeuge wie die Marke "DACIA" Automobile Dacia, Schiffe, wie der Helikopterträger "Karel Doorman", mit 204 m das größte Schiff der Niederländischen Navy von Damen Shipyards Group in Galați gebaut, verschiedene Flugzeuge und Hubschrauber bei Întreprinderea Aeronautică Română (IAR), moderne Panzer wie der TR-85M1, Produkte der chemischen Industrie, Stahl, Medikamente bedingt durch eine sehr starke Pharmaindustrie und Produkte der Leichtindustrie wie Textilien, Schuhe oder Lebensmittel. Seit 2013 wächst die Industrieproduktion in Estland und Rumänien wie in keinem anderen EU-Land und Deutschland ist Rumäniens Handelspartner Nummer eins (Stand: Dezember 2014). Tourismus. 2003 erwirtschaftete der Tourismus 780 Millionen Dollar, 14 Prozent mehr als 2002. Die Zahl der Gäste betrug 5,6 Millionen (davon 1,1 Mio aus dem Ausland), was einem Zuwachs von 15,5 Prozent entsprach. Zum Herbst des Jahres 2004 war der Baustart für das erste von zwei touristischen Großprojekten geplant. Nach einem Fossilienfund entsteht im Kreis Hunedoara ein Dinosaurierpark. Der Baubeginn des zweiten Großprojekts – des Themenparkes Dracula-Park bei Sighișoara (Schäßburg) – wurde bisher von einer Bürgerinitiative verhindert und soll jetzt in der Nähe von Bukarest entstehen. Mit dem 1. Juli 2005 erfolgte eine Währungsumstellung. Der Kurs beträgt (Stand Januar 2009) 4,22 Lei = 1 Euro. Es wurden neue Geldscheine und auch Münzen in Umlauf gebracht, die alten Zahlungsmittel haben ihre Gültigkeit verloren (2007). In Rumänien besteht seit Januar 2005 eine Vignettenpflicht für PKW und LKW auf allen Straßen. Die Vignetten („Rovinieta“) sind an den Grenzübergängen und den meisten Tankstellen von OMV, Rompetrol und Petrom erhältlich. Bei der Ausreise wird an der Grenze oft kontrolliert, ob die Rovinieta und der dazugehörige Kaufbeleg vorhanden und gültig sind. Der Preis der Vignette richtet sich seit 2008 nicht mehr nach der Abgaseinstufung (Euronorm), sondern wird pauschal erhoben. Die Preise für PKW betragen 2008 für die Jahresvignette 28 Euro, für eine 30-Tages-Vignette 7 Euro und für die 7-Tages-Vignette 3 Euro. Die Vignette wird bisher nicht gelocht oder gestempelt, daher muss der Kassenbeleg unbedingt aufgehoben werden. Staatshaushalt. Der Staatshaushalt umfasste 2009 Ausgaben von umgerechnet 63,3 Mrd. US-Dollar, dem standen Einnahmen von umgerechnet 51,4 Mrd. US-Dollar gegenüber. Daraus ergibt sich ein Haushaltsdefizit in Höhe von 7,3 % des BIP. Die Staatsverschuldung betrug 2009 39,0 Mrd. US-Dollar oder 24,0 % des BIP. Korruption als strukturelle Erscheinung. Protest in Bukarest am 15. Januar 2012, „Stop corupției!“, Korruption auf vielen Ebenen ist Alltag in Rumänien. Korruption und Amtsmissbrauch gelten in dem Land als gravierendes Problem. Die Kultur der Korruption ist tief in den moralischen, konzeptuellen und praktischen Einstellungen eines bedeutenden Teils der rumänischen Bevölkerung verwurzelt und wird in vielen Fällen noch als normale Problemlösungsstrategie angenommen. Gründe hierfür sind die verbreitete Armut der Bevölkerung und die Unterbezahlung der öffentlich Bediensteten: Besonders von orthodoxen Priestern, Behördenmitarbeitern, Krankenhausangestellten und Lehrern werden Geldbeträge als Zusatzeinkommen eingefordert. Die Gesetzeslage ist immer noch instabil; Abgeordnete verweisen darauf, EU-Stellen hätten sie zu Antikorruptionsgesetzen gezwungen und verhindern in der Folge deren Umsetzung. Auch die Selbstbereicherungsmentalität der politischen und wirtschaftlichen Eliten spielt eine große Rolle. Gemäß Umfragen glauben 96 Prozent der Rumänen, dass Korruption zu den schwerwiegendsten Problemen im Land gehöre. Ein Drittel der Befragten konnte Beispiele für die Zahlung von eigenen Schmiergeldern in den letzten 12 Monaten angeben. Die rumänische Sprache kennt 30 Redewendungen für die Umschreibung von Schmiergeld. Bereits in den ältesten rumänischen Texten kamen die ursprünglich slawischen und türkischen Begriffe "bacșiș", "ciubuc", "șperț", "șpagă" und "mită" vor. Rumänien lag 2012 im Korruptionswahrnehmungsindex von Transparency International im weltweiten Vergleich auf Platz 66, vor Italien (72. Platz), Bulgarien (75. Platz) und Griechenland (94. Platz). Zwar ist der innenpolitische Wille und der außenpolitische Druck – besonders durch die Europäische Union – für Reformen vorhanden, jedoch sind die Sicherheitsbehörden und die Justiz dabei strukturelle Gründe für das Phänomen und mit ihrer Aufgabe oftmals überfordert oder selbst Teil des Problems. Kultur. Die rumänische Kultur zeichnet sich sowohl in ihren verschiedensten historischen Erscheinungsformen als auch in ihrer gegenwärtigen Struktur durch eine in Europa einzigartige Vielfalt aus. Die Originalität der rumänischen Kultur hängt sowohl in ihren traditionellen als auch in ihren modernen Formen mit ihrer Fähigkeit zusammen, die verschiedensten Einflüsse aufzunehmen und sie in einer kreativen Synthese miteinander zu verbinden. Die Grenzlage des Landes zwischen Okzident und Orient, die zahlreichen ethnischen und religiösen Minderheiten und die ausgeprägten geographischen Unterschiede zwischen den verschiedenen Kulturlandschaften haben in dieser Hinsicht eine bedeutende Rolle gespielt. Rumänien teilt die traditionelle Kultur (Rumänische Kultur) mit der von Moldawien. Im Jahr 2007 war Sibiu ("Hermannstadt") Kulturhauptstadt Europas. Das zivilgesellschaftliche Stiftungswesen ist bislang schwach entwickelt. Architektur. Zu den kulturellen Hauptattraktionen Rumäniens zählen diejenigen Kulturdenkmäler, die nach der Wende von 1989 in die UNESCO-Liste aufgenommen wurden: die Moldauklöster mit Außenmalereien; Kloster Horezu; die Kirchenburgen in Siebenbürgen; die Altstadt von Sighișoara; die dakische Festungsanlage in den Bergen Orășties; die Holzkirchen in der Maramureș. Im Jahr 2005 wurde auch das Ritual der Călușari in die UNESCO-Liste des immateriellen Weltkulturerbes aufgenommen. Die Schwarze Kirche (Brașov) ist der östlichste gotische Dom Europas und zugleich der bedeutendste gotische Kirchenbau in Südosteuropa. Der Parlamentspalast in Bukarest ist das größte Gebäude Europas und eines der größten der Welt. Das Gebäude seit 1997 als Sitz der rumänischen Abgeordnetenkammer ist nach dem Pentagon das zweitgrößte Verwaltungsgebäude der Welt. Stilistisch wird der Parlamentspalast zum Neoklassizismus gerechnet. Auf der Rückseite des Gebäudes ist das Nationalmuseum für Moderne Kunst untergebracht. Bemerkenswert bezüglich moderner Architektur in Rumänien sind folgende Gebäude: der Staatliche Zirkus Bukarest (Zirkus Globus), die Internationale Messe ("Complexul Expozițional Romexpo"), Sala Palatului (mit mehr als 4000 Plätzen eines der größten Show-, Theater-, und Kongresssäle der Welt), sowie das futuristische Nationaltheater Bukarest Ion Luca Caragiale; mit 7 Sälen, dem "Großen Saal" (Sala Mare) mit 900 Plätzen, ist es das größte und modernste Theater Europas. Film. Nach 1989 hat die Filmindustrie eine spektakuläre Entwicklung genommen, die sich in zahlreichen internationalen Auszeichnungen für rumänische Produktionen niederschlug (u. a. 2004 Goldener Bär für Kurzfilm für Cristi Puiu; 2005 Caméra d’or Cannes für Corneliu Porumboiu; 2007 Goldene Palme in Cannes für Cristian Mungiu; 2010 Silberner Leopard/Premio speciale della giuria, Locarno für Marian Crișan; 2012 Preis für das beste Drehbuch/Prix du scénario und Beste Darstellerin für die beiden Hauptdarstellerinnen des Films Hinter den Hügeln von Cristian Mungiu, Cannes; 2013 Goldener Bär für Călin Peter Netzer). Die Filmkritiker sprechen daher von einer „rumänischen Welle“ in der internationalen Filmindustrie. Literatur. Auf der Frankfurter Buchmesse 2003 und auf der Pariser Buchmesse 2013 war Rumänien Gastland. Einer der bedeutendsten rumänischen Schriftsteller der Gegenwart ist Mircea Cărtărescu. Er erhielt u. a. den Internationalen Literaturpreis – Haus der Kulturen der Welt 2012. In Rumänien füllen sich bei Literaturlesungen teilweise Stadien. Die international bekanntesten rumänischen Bühnenautoren sind die beiden rumänisch-französischen Autoren Eugène Ionesco und Matei Vișniec. In der Lyrik traten im 20. Jahrhundert u. a. der Mitbegründer des Dadaismus Tristan Tzara sowie Mircea Dinescu hervor. Der Dichter Nichita Stanescu (1933–1983) war 1980 für den Nobelpreis nominiert. Wissenschaft und Forschung. Das rumänische Forschungssystem hat von der sozialistischen Zeit große strukturelle Probleme geerbt, die in den vergangenen zwei Jahrzehnten nur langsam und unzureichend beseitigt wurden. Unter den staatlichen Forschungseinrichtungen ist vor allem das Institut für Atomphysik (Institutul de Fizică Atomică Măgurele) bekannt, das an dem ELI (Extreme Light Infrastructure) Projekt der Europäischen Union beteiligt ist, in dessen Rahmen bis 2015 der stärkste Laser der Welt gebaut werden soll. Neben den staatlich finanzierten Forschungsinstituten entwickelten sich langsam auch unabhängige Einrichtungen. Der ehemalige Kultus- und Außenminister Andrei Pleșu erhielt 1993 den New Europe Prize for Higher Education and Research, der ihm ermöglichte, in Bukarest mit Unterstützung des Wissenschaftskollegs zu Berlin und 5 weiterer Forschungsinstitute (Center for Advanced Study in the Behavioral Sciences, Stanford, Institute for Advanced Study, Princeton, National Humanities Center, Research Triangle Park, The Netherlands Institute for Advanced Study in Humanities and Social Sciences, Wassenaar, The Swedish Collegium for Advanced Study in the Social Sciences, Uppsala) das bekannte New Europe College zu gründen. Im Bereich der Philosophie ist vor allem die Rumänische Gesellschaft für Phänomenologie (Societatea Română de Fenomenologie) auf internationaler Ebene präsent. Das private Institut MB Telecom erhielt 2009 und 2013 auf der Internationalen Messe für Erfindungen in Genf das Grand Prix (als erster Teilnehmer in der Geschichte dieser Messe, der die höchste Auszeichnung zweimal zugesprochen bekam). Außergewöhnlich ist das IAR 111 Projekt (ein Überschallflugzeug), eine Mitarbeit zusammen mit "Arca Space Corporation", welche dereinst Weltraumtouristen oder Raketen ins All transportieren soll. Sport. Organisierter Fußball in Rumänien wird seit 1909 in der "Divizia A" (seit 2006: Liga 1) gespielt, der höchsten nationalen Spielklasse. Im gleichen Jahr ist auch der rumänische Fußballverband Federația Română de Fotbal gegründet worden. Seit der kommunistischen Ära wird der nationale Fußball von Steaua Bukarest und Dinamo Bukarest dominiert, die 25 beziehungsweise 18 Meistertitel gewonnen haben, sowie dem 14-maligen Pokalsieger Rapid Bukarest. Den bisher größten internationalen Erfolg einer rumänischen Mannschaft errang Steaua Bukarest mit dem Europapokal der Landesmeister 1986. 2:0 endete die Finalpartie im Estadio Ramon Sanchez Pizjuan zu Sevilla gegen den favorisierten spanischen Champion FC Barcelona. Im Elfmeterschießen stellte der deutschstämmige Tormann Helmuth Duckadam einen Rekord für die Ewigkeit auf als er alle 4 Elfmeter der Spanier erfolgreich parieren konnte. Im Februar 1987 gewann Steaua Bukarest im Louis II Stadion zu Monaco auch den europäischen Supercup nach einem 1:0 durch ein Gheorghe Hagi-Tor gegen Dynamo Kiew. Gegenwärtig (2014/15) steht die rumänische Liga auf Platz 16 der UEFA-Fünfjahreswertung. Die Rumänische Fußballnationalmannschaft nahm bisher an sieben Fußball-Weltmeisterschaften und vier Fußball-Europameisterschaften teil. Die beste Platzierung war das Erreichen des Viertelfinales bei der WM 1994 und der EM 2000. Bekanntester rumänischer Spieler dieser Ära war Gheorghe Hagi, der anlässlich des UEFA-Jubiläums vom rumänischen Verband zum besten nationalen Spieler der letzten fünfzig Jahre benannt wurde. Der erfolgreichste Liga 1 Spieler aller Zeiten ist Marius Lăcătuș, der 10-maliger Meister und 7-maliger Pokalsieger mit Steaua Bukarest wurde. Am 9. Mai 2012 fand, für das erste Mal in der Sportgeschichte Rumäniens, das UEFA Europa League-Finale in Bukarest statt. Für diesen Zweck hat das Gastland 234 Mio. Euro in den Bau eines neuen Stadions, der Arena Națională, investiert. Rumänien nimmt seit 1900 an Olympischen Spielen teil. Im ewigen Medaillenspiegel gehört es mit 86 Goldmedaillen, die weit überwiegend bei Sommerspielen gewonnen wurden, zu den zwanzig erfolgreichsten Nationen. Am erfolgreichsten schnitt die rumänische Mannschaft bei den Spielen 1984 in Los Angeles ab, an denen sie als einziges Team des Ostblocks teilnahm und 20-mal Gold holte. Einzige Medaille bei Winterspielen war Bronze im Zweier-Bob bei den Spielen 1968 in Grenoble. Rumänische Turnerinnen haben große Erfolge errungen: Nadia Comăneci gewann 1976 und 1980 insgesamt fünfmal Gold, Simona Amânar 1996 und 2000 insgesamt dreimal. Die Rumänische Rugby-Union-Nationalmannschaft ist eine der stärksten Europas außerhalb der Six Nations und hat bisher an jeder Weltmeisterschaft teilgenommen. In den frühen 1970er Jahren war Ilie Năstase ein erfolgreicher Tennisspieler, der zwei Grand-Slam-Titel gewann und die Weltrangliste anführte. Die rumänische Mannschaft erreichte zwischen 1969 und 1972 dreimal das Finale des Davis Cups. Seit 1993 werden in Bukarest die Romanian Open abgehalten. Ab Sommer 2014 findet ebenso ein WTA Turnier für Damen unter der Schirmherrschaft von Ion Tiriac und Ilie Nastase statt. Zu den bekanntesten Tennisspielern, denen nach 1989 der Einstieg in die TOP 100 gelungen ist, zählen bei den Herren: Andrei Pavel, Horia Tecău (2010, 2011 und 2012 Wimbledon-Finalist im Doppel; 2012 gewann den Australian Open-Titel im Mixed und das Cincinnati Masters im Doppel), Victor Hănescu, Adrian Ungur; bei den Damen: Irina-Camelia Begu, Alexandra Cadanțu, Sorana Cîrstea, Monica Niculescu, Simona Halep, wobei Halep, die aktuelle Nummer 3 der WTA-Rangliste ist und als kommenden Tennisstar nach dem Roland-Garros Finale 2014 gilt. In den 1960er und 1970er Jahren hatte Rumänien große Erfolge im Hallenhandball, die Nationalmannschaft wurde viermal Weltmeister: 1961, 1964, 1970 und 1974. Danach konnte an diese Erfolge nicht mehr angeknüpft werden. Auf Vereinsebene konnte das Männerteam von Steaua Bukarest im Jahre 1968 und 1977 den Landesmeistercup für sich entscheiden. 2006 triumphierte man im Challenge-Cup. Fechten hat eine lange Tradition in Rumänien, die sich durch eine große Verbreitung auszeichnet. 48 Klubs sind dem rumänischen Fechtverband beigetreten und mit 46 Gold-, 62 Silber- und 83 Bronzemedaillen haben die rumänischen Fechter auf internationalem Parkett bei Olympiaden, WM oder EM ihr Können unter Beweis gestellt. Rumänien ist WM-Zweiter im Männervolleyball 1966 gewesen. Zwei weitere Male wurde Rumänien WM-Dritter. 1963 bei der zweiten EM, die in Rumänien stattfand, gewann man den Titel im Männerwettbewerb. Bereits 1955 bei der ersten EM in Rumänien konnte man das Turnier als Finalist abschließen. Ebenso 1959 in der Tschechoslowakei. Als EM-Dritter schloss man die EM zweimal weiter ab, ehe man 1980 in Moskau die olympische Bronzemedaille erringen konnte. Rapid Bukarest gewann den Wettbewerb der Männer für Meistervereine in den Jahren 1961, 1963 und 1965. Dinamo Bukarest entschied diesen Titel ebenfalls dreimal für sich: 1966, 1967 und 1981. Die Finale des wichtigsten europäischen Männervolleywettbewerbs für Vereine 1966 und 1967 konnten jeweils Dinamo und Rapid unter sich ausmachen. Russische Sprache. Die russische Sprache (Russisch, früher auch Großrussisch genannt; im Russischen:, deutsche Transkription: "russki jasyk", wissenschaftliche Transliteration gemäß ISO 9:1968,) ist eine Sprache aus dem slawischen Zweig der indogermanischen Sprachfamilie. Mit insgesamt etwa 280 Millionen Sprechern, davon ca. 160 Millionen Muttersprachlern, ist sie die am meisten verbreitete Sprache in Europa und gilt als eine der Weltsprachen. Sie spielt die Rolle der Lingua franca im postsowjetischen Raum und hat in mehreren seiner Staaten den Status einer Amtssprache. Die eng mit dem Weißrussischen, Ukrainischen (früher auch als "Kleinrussisch" bezeichnet) und Russinischen verwandte Sprache wird mit dem kyrillischen Alphabet geschrieben, wobei es bestimmte russische Erscheinungsformen gibt. Die russische Standardsprache beruht auf den mittelrussischen Mundarten der Gegend um Moskau. Sie ist die Originalsprache zahlreicher bedeutender Werke der Weltliteratur. Die Wissenschaft, die sich mit der russischen Sprache und der umfangreichen russischen Literatur beschäftigt, heißt Russistik. Verbreitung. Russisch wird (Stand 2006) von etwa 163,8 Millionen Menschen als Muttersprache gesprochen, von denen etwa 130 Millionen in Russland leben, weitere 26,4 Millionen in den GUS-Staaten und den baltischen Staaten, also in Nachfolgestaaten der Sowjetunion. Weitere etwa 7,4 Millionen Menschen leben in Ländern mit starker Immigration aus Russland und anderen Nachfolgestaaten der Sowjetunion, vor allem in Deutschland und anderen europäischen Ländern sowie den USA und Israel. Es ist Amtssprache in Russland, Weißrussland (zusammen mit Weißrussisch) und offizielle Sprache in Kasachstan (mit Kasachisch als Amtssprache), Kirgisistan (mit Kirgisisch als Amtssprache). In manchen Oblasten der Südostukraine ist sie die regionale Amtssprache, wobei dieser Status politisch umstritten ist. Auch in Tadschikistan genießt Russisch einen offiziellen Status. Es ist auch eine der Amtssprachen in den separatistischen Regionen Transnistrien (zusammen mit Ukrainisch und Moldauisch), Südossetien (zusammen mit Ossetisch) und Abchasien (zusammen mit Abchasisch). Dort ist es sowohl Muttersprache eines Teiles der Bevölkerung als auch Sprache eines großen Teils des öffentlichen Lebens. Daneben gibt es russischsprachige Minderheiten in allen GUS-Staaten und im Baltikum sowie zum Teil erhebliche Zahlen von russischsprachigen Emigranten in westlichen Industrieländern. In Finnland ist Russisch mit 49.000 und damit knapp 1 % Sprechern die größte Minderheitssprache. In Deutschland, wo die größte Zahl russischer Muttersprachler außerhalb der ehemaligen Sowjetunion lebt, ist Russisch mit rund drei Millionen Sprechern die nach Deutsch (und noch vor Türkisch) am zweithäufigsten gesprochene Sprache. (Siehe hierzu Russischsprachige Bevölkerungsgruppen in Deutschland.) In Israel bilden die etwa eine Million russischsprachigen Einwanderer etwa ein Sechstel der Bevölkerung und damit die drittgrößte Sprechergruppe nach denen des Hebräischen und Arabischen. In den Vereinigten Staaten leben über 700.000 russische Muttersprachler, davon über 200.000 in New York, und in Kanada rund 160.000, jedoch gibt es in beiden Ländern viele deutlich größere Sprachminderheiten. Die russische Sprache ist ebenso eine verbreitete Sprache für Wissenschaft, Kunst und Technik. Russisch ist die vierthäufigste Sprache, aus der Bücher in andere Sprachen übersetzt werden, und die siebthäufigste Sprache, in die Bücher übersetzt werden. 2013 wurde Russisch zur zweithäufigsten Sprache des Internets. Geschichte. "Der Apostel" (1563), das erste gedruckte Buch auf Russisch Russisch entwickelte sich aus der altostslawischen (altrussischen) Sprache, die in der Kiewer Rus und ihren Nachfolgefürstentümern gesprochen wurde. Im späten Mittelalter spaltete sich diese aufgrund der politischen Teilung der Rus in die (ost-)russische und die ruthenische (westrussische) Sprache auf, die eine wichtige Rolle im Großfürstentum Litauen spielte. Im Gegensatz zum Ruthenischen wurde Russisch signifikant von der Liturgiesprache Kirchenslawisch beeinflusst und weist heute infolge dieser Entwicklung einige Gemeinsamkeiten mit südslawischen Sprachen auf. Im 18. Jahrhundert wurde die russische Literatursprache von Schriftstellern wie Antioch Kantemir, Michail Lomonossow und Wassili Trediakowski reformiert, im 19. Jahrhundert wurde sie vor allem vom Nationaldichter Alexander Puschkin geprägt und bekam ihr modernes stilistisches Gesicht. Die russische Rechtschreibreform von 1918 änderte gewisse Aspekte der Schreibweise und beseitigte einige archaische Buchstaben des russischen Alphabets. Durch den Sieg im Zweiten Weltkrieg gewann die Sowjetunion erheblich an Prestige und weltpolitischem Gewicht, womit auch das Russische einen starken Bedeutungszuwachs und den vorläufigen Höhepunkt seiner Verbreitung erlebte. Russisch wurde in Ländern des Ostblocks als erste Fremdsprache an Schulen unterrichtet. Nach dem Ende des Realsozialismus ist die Bedeutung der russischen Sprache in Ostmitteleuropa stark gesunken. In den vergangenen Jahren ist jedoch wieder ein Trend hin zum häufigeren Erlernen der russischen Sprache feststellbar. Alphabet. Russisch wird mit dem russischen Alphabet geschrieben (russ. русский алфавит/"russki alfawit" oder русская азбука/"russkaja asbuka"), das dem (alt)kyrillischen Alphabet (russ. кириллический алфавит/"kirillitscheski alfawit" oder кириллица/"kirilliza") entstammt. Seit der letzten Rechtschreibreform im Jahre 1918 besteht das russische Alphabet aus 33 Buchstaben. Davon dienen 10 Buchstaben zur Wiedergabe der Vokale, und zwar: а, е, ё, и, о, у, ы, э, ю und я. Die übrigen 23 Buchstaben werden zur Wiedergabe von Konsonanten verwendet, wobei die Buchstaben ъ und ь nicht zur Nachbildung bestimmter, eigenständiger Laute, sondern als Indikatoren für die Härte oder Weichheit vorangehender Konsonanten dienen ("mehr dazu siehe unter:" Russische Phonetik). Phonetik und Phonologie. Die phonetische Struktur der modernen russischen Standardsprache zählt 42 bedeutungsunterscheidende Einzellaute (Phoneme), die sich wiederum in 6 Vokal- und 36 Konsonantenlaute aufteilen lassen. Das umfangreiche Phoneminventar des Russischen erklärt sich durch eine für slawische Sprachen typische Besonderheit der Aussprache, und zwar werden die meisten russischen Konsonanten sowohl "hart" als auch "weich" (palatalisiert) ausgesprochen. Hierbei handelt es sich aber nicht um Allophone, sondern um einzelne Phoneme, denn jede dieser Aussprachevarianten ist bedeutungsunterscheidend. Einige russische Dialekte haben einen spezifischen Phonembestand, in dem einige Konsonanten vorwiegend hart beziehungsweise palatalisiert oder etwas anders (z. B. guttural) ausgesprochen werden. Die Aussprache russischer Vokale und Konsonanten variiert in Abhängigkeit davon, welche Position sie in einem Wort einnehmen. Dabei unterscheidet man bei Vokalen zwischen einer "betonten" und einer "unbetonten" Position. So wird beispielsweise das „o“ als [ɔ] in betonter und als [a] oder a> in unbetonter Position ausgesprochen. Die Aussprache vieler russischer Konsonanten wird wiederum durch andere, ihm nachfolgende Konsonanten bestimmt. So werden unter anderem alle stimmhaften Konsonanten nicht nur am Wortende stimmlos ausgesprochen, sondern auch dann, wenn sie einem anderen stimmlosen Konsonanten vorangehen. Im Unterschied zum Deutschen ist die Länge der Vokale im Russischen weder bedeutungsunterscheidend (wie z. B. in "Wall" – "Wahl") noch für die richtige Aussprache eines Wortes ausschlaggebend. Die betonten Vokale werden in der Regel halblang ausgesprochen. Die unbetonten Vokale sind dagegen kurz und unterscheiden sich häufig von den entsprechenden betonten Vokalen auch qualitativ. So wird das unbetonte o stets zu einem (kurzen) a (sog. аканье); das unbetonte e oder я geht deutlich in Richtung i (иканье). Beispiele: молоко (Milch) /məlaˈkɔ/ пятнадцать (fünfzehn) /pʲitˈnatsɨtʲ/ земля (Land) /zʲimˈlʲa/. Sowohl Doppelvokale als auch zwei unterschiedliche, aufeinander folgende Vokale werden in der Regel als einzelne Laute ausgesprochen (wie z. B. in "Kooperation," "aktuell," "Museum," "geimpft"). Ausnahmen hierfür sind die mit dem й (и краткое = kurzes i, vergleichbar mit deutschem j) gebildeten Diphthonge: ой (betont) = wie eu/äu im Deutschen, ай = ei/ai im Deutschen. Auch wird die Verbindung ао/ау gelegentlich in Fremdwörtern zu einem Diphthong: Фрау (Frau als Anrede einer dt. Staatsbürgerin). Das е (je) wird vor palatalisierten Konsonanten in der Regel zu einem geschlosseneren Vokal [e]: кабинет (Studien-, Arbeitszimmer) /kabʲiˈnʲɛt/, hingegen в кабинете (im Arbeitszimmer) /fkabʲiˈnʲetʲɛ/ Andere Beispiele hierfür: университет (Universität), газета (Zeitung). Vokale. Die russische Sprache besitzt in der betonten Silbe 6 Monophthonge (ɨ wird aber oft als ein Allophon des i beachtet). In unbetonten Silben entfällt in der Aussprache allerdings die mittlere Reihe mit "e" und "o", da "e" entweder mit "i" (so meist) oder "a" (in Flexionsendungen) und "o" immer mit "a" zusammenfällt. In Folge davon sind zum Beispiel bei Adjektiven die feminine Form (geschrieben -ая ("-aja")) und die neutrale Form (geschrieben -ое ("-oje")) lautlich meist nicht zu unterscheiden. Die Schrift lässt davon nichts erkennen; es gibt auch Dialekte, in denen die unbetonten Vokale zum Teil noch besser als in der Standardsprache differenziert werden. Konsonanten. Das Russische Alphabet hat 36 Konsonanten. Davon treten 16 in Paaren mit einem palatalisierten und einem nicht palatalisierten Laut auf. Die Laute, und verfügen über kein genaues Gegenstück. Die Tabelle enthält von jedem Konsonantenpaar nur die nicht palatalisierte Variante. Tonalität. Russisch ist eine nicht tonale Sprache, das heißt die Tonhöhe der Vokale hat keinen Einfluss auf die Bedeutung eines Wortes. Wie auch im Deutschen wird im Russischen innerhalb oder am Ende eines Satzes eine unterschiedliche Stimmhöhe benutzt, um etwa einen Aussagesatz von einem Frage- oder Ausrufesatz kenntlich zu machen. Es gibt hierfür im Russischen sieben verschiedene Intonationskonstruktionen (интонационные конструкции), die mit ИК-1 bis ИК-7 bezeichnet werden und verschiedene Arten von Aussage- und Fragesätzen kennzeichnen. In tonalen Sprachen hingegen ändert der Ton die Bedeutung einzelner Wörter. Wortbetonung. Die Betonung eines Wortes (der Wortakzent) hat im Russischen eine wichtige und häufig eine sinnunterscheidende Bedeutung. Falsch betonte Wörter können zu Verständnisschwierigkeiten führen, insbesondere dann, wenn sie aus dem sprachlichen Kontext isoliert oder einzeln ausgesprochen werden. In der sprachwissenschaftlichen Literatur wird die russische Wortbetonung unter anderem als „frei“ und „beweglich“ bezeichnet. So werden zum Beispiel durch die Verlagerung der Betonung innerhalb einiger russischer Wörter ihre unterschiedlichen Flexionsformen gebildet. Grammatik. Wie die meisten slawischen Sprachen ist auch das Russische stark flektierend. In einer flektierenden Sprache ändert sich die Gestalt eines Wortes innerhalb diverser grammatischer Kategorien, und zwar einerseits durch Hinzufügung von Affixen ("schwache" oder "äußere Flexion") oder durch Veränderung des Wortstammes ("starke" oder "innere Flexion"). Für das Russische sind beide Flexionsarten charakteristisch. Im Falle der starken Flexion verändert sich der Stamm vieler russischer Wörter bei deren Beugung (Deklination, Konjugation) und Komparation, und zwar durch Ablaut ("z. B.:" мыть – мою, жевать – жуёт), Konsonantenwechsel ("z. B.:" возить – вожу) oder durch Hinzufügen oder Wegfall der Stammvokale ("z. B.:" брать – беру, один – одна). Dabei können die Attribute der schwachen und der starken Flexion jeweils einzeln oder in Kombination miteinander auftreten (z. B.: жечь – жёг – жгу). Wortarten und deren grammatische Kategorien. Wie im Deutschen werden im Russischen Substantive, Adjektive und Pronomen nach Kasus, Genus und Numerus gebeugt und Adverbien nur gesteigert. Russische Verben werden hingegen nicht nur nach Tempus und Numerus, sondern in der Vergangenheitsform auch nach Genus gebeugt. Wie im Deutschen werden im Russischen auch Eigennamen (Personen-, Städte-, Ländernamen u. ä.) und Zahlwörter gebeugt. Dafür kennt das Russische weder bestimmte noch unbestimmte Artikel. Für die Anzeige von Kasus, Genus und Numerus treten stattdessen zahlreiche Suffixe auf. Bei einer kleinen Gruppe russischer Wörter können grammatische Kategorien durch Verlagerung der Wortbetonung von einer auf die andere Silbe gebildet werden ("mehr dazu siehe unter:" Wortbetonung in der russischen Sprache). Weitere Wortarten im Russischen sind Präpositionen, Konjunktionen, Fragewörter, Interjektionen, Frage- und Modalpartikeln sowie die Verbpartikel „бы“. In einem Satz bleiben sie, außer den Fragewörtern кто, что, чей und какой, immer ungebeugt. Substantive. Das Russische kennt drei grammatische Geschlechter und sechs grammatische Fälle (Kasus). Wie in anderen slawischen Sprachen existiert auch im Russischen eine Kategorie der Belebtheit. So wird bei der Deklination innerhalb der grammatischen Geschlechter weiterhin nach belebten (d. h. Lebewesen) und unbelebten (d. h. Sachen) Substantiven unterschieden. Dies bezieht sich jedoch nur auf die Akkusativbildung. Entscheidend hierbei ist das grammatikalische Geschlecht des Substantivs, nicht das tatsächliche Geschlecht des bezeichneten Lebewesens. Bei grammatikalisch maskulinen oder sächlichen Substantiven, die etwas Belebtes bezeichnen, folgt im Akkusativ die Endung des jeweiligen Genitivs. Dies trifft auch auf belebte Feminina im Plural zu. Bei allen unbelebten Maskulina und Neutra fallen hingegen Akkusativ und Nominativ zusammen. Die Kategorie der Belebtheit hat schließlich im Russischen keine Relevanz für Feminina im Singular, da diese eine gesonderte Akkusativform (-y) haben. Verben. Eine Besonderheit der russischen Verben besteht darin, dass sie zwei unterschiedliche Formen haben, um eine Handlung im Zeitgeschehen als vollendet oder unvollendet zu spezifizieren. In der sprachwissenschaftlichen Literatur wird diese verbale Kategorie als Aspekt bezeichnet ("mehr dazu siehe unter:" Der Aspekt in den slawischen Sprachen, Verlaufsform). Tempus. Im Unterschied zu anderen indogermanischen Sprachen, zum Beispiel dem Deutschen, gibt es in der russischen Standardsprache anstatt sechs nur drei Zeiten. Die Vergangenheitsform wird häufig analog zur deutschen Grammatik als Präteritum bezeichnet. Diese Bezeichnung ist lediglich auf die Art und Weise, wie die Vergangenheitsform russischer Verben gebildet wird, zurückzuführen. Diese erfolgt ausschließlich durch Änderung der Gestalt eines Verbs, wie etwa durch Anhängen spezifischer Suffixe. Die Zeitformen, die im Deutschen durch die Nutzung der Hilfsverben "„haben“" oder "„sein“" gebildet werden, entfallen komplett. Syntax (Satzbildung). Außerdem muss ein vollständiger russischer Satz nicht unbedingt ein Subjekt und ein Prädikat besitzen (es darf jedoch nicht beides fehlen). Fehlt das Subjekt, so wird es in der deutschen Übersetzung durch das Personalpronomen ergänzt, das vom Prädikat festgelegt ist. Bsp. "„Иду домой.“ "- „Ich gehe nach Hause.“ wörtlich: „Gehe nach Hause.“ In Sätzen ohne Prädikat wird im Deutschen die vom Subjekt geforderte Präsensform von „sein“ benutzt. Bsp." „Он врач“"- „Er ist Arzt.“ wörtlich: „Er Arzt.“ Dialekte. Man unterscheidet im europäischen Teil Russlands drei sprachlich unterschiedliche Gebiete: Nord-, Mittel- und Südrussland. Die Gebiete unterteilen sich ferner in einzelne Dialekte. Generell sind die Dialekte im Russischen aber trotz großer Entfernungen weitaus weniger ausgeprägt als etwa im deutschen oder französischen Sprachraum. Unterschiede in der Aussprache liegen nirgendwo im russischen Sprachraum so weit auseinander, dass sich zwei Sprecher nicht verstehen könnten. Nordrussisch. Nordöstlich einer Linie vom Ladogasee über Nowgorod und Jaroslawl bis Joschkar-Ola. Diese Mundart kennzeichnet sich durch ein klar ausgesprochenes unbetontes „o“ ("оканье" – Okanje), ein gutturales „g“ und ein hartes „t“ als Verbalendung. Mittelrussisch. Die Nördliche Grenze verläuft von Sankt Petersburg über Nowgorod und Iwanowo bis Nischni Nowgorod und Tscheboksary, die südliche von Welikije Luki über Moskau bis Pensa. Dieses Gebiet zeigt sowohl nördliche als auch südliche Sprachzüge. Im Westen ist das unbetonte „o“ ein „o“, im Osten ein „a“ ("аканье" – Akanje). Südrussisch. Im Bereich südlich von Welikije Luki über Rjasan bis Tambow. Hier spricht man das unbetonte „o“ als „a“, ein frikatives „g“ und ein weiches „t“ als Verbalendung. Mischsprachen. Es gab und gibt einige natürlich entstandene Mischsprachen mit dem Russischen. Bekannteste Vertreter sind die Mischungen mit den nah verwandten Sprachen Ukrainisch (Surschyk) und Weißrussisch (Trassjanka). Innerhalb der Sowjetunion vermischte es sich einst auch mit den isolierten Sprachen sibirischer und asiatischer Völker Russlands. An dessen Arktis-Grenzen zu Norwegen wurde häufig Russenorsk gesprochen, nach der Oktoberrevolution 1917 kam die Sprache außer Gebrauch. Im Fernen Osten wiederum brachte der Kontakt mit Chinesen Kjachta-Russisch hervor. Diese Mischsprachen sind heute weitgehend außer Gebrauch geraten. Russische Lehnwörter im Deutschen. Das Russische hat eine ganze Reihe von Wörtern aus dem Deutschen entlehnt ("siehe:" Deutsche Wörter im Russischen). Darüber hinaus sind auch einige russische Wörter in die deutsche Sprache eingegangen ("siehe auch:" Sprachgebrauch in der DDR). Lehnübersetzungen sind unter anderem Kulturhaus (дом культуры) und Ziel"stellung" statt Ziel"setzung" (целевая установка). Ribnitz-Damgarten. Ribnitz-Damgarten ist eine Stadt im Landkreis Vorpommern-Rügen in Mecklenburg-Vorpommern (Deutschland). Sie ist außerdem Verwaltungssitz des gleichnamigen Amtes, dem weitere drei Gemeinden angehören. Die Stadt ist eines der 18 Mittelzentren des Landes und führt seit 2009 die Bezeichnung Bernsteinstadt vor ihrem Namen. Historisch gehört der Stadtteil Ribnitz zu Mecklenburg, Damgarten zu Vorpommern. Die Ortsteile werden durch den Fluss Recknitz getrennt. Geografie. Die Stadt liegt zwischen den Hansestädten Rostock und Stralsund an der Mündung des Flusses Recknitz in den Ribnitzer See (Südteil des Saaler Boddens). Östlich der Recknitz in Vorpommern liegt Damgarten und westlich des Flusses, also in Mecklenburg, liegt Ribnitz. Nachbargemeinden. An Ribnitz-Damgarten grenzen folgende Gemeinden (in Uhrzeigerrichtung, von Norden beginnend): Saal, Ahrenshagen-Daskow, Stadt Marlow, Gelbensande und Dierhagen. Ribnitz (1233–1950). Entstanden ist Ribnitz aus der Ortschaft Rybanis ("Ryba" bedeutet „Fisch“), welche in der sumpfigen Recknitzniederung lag. Der Übergang über die Recknitz wird auch "Mecklenburger Pass" genannt. Auf der Ribnitzer Seite befindet sich unmittelbar am Fluss das "Pass-Gehöft". Zum Schutz des wichtigen Flussüberganges über die Recknitz ließen die mecklenburgischen Fürsten in Flussnähe um 1200 eine Burg errichten, die der Keim des späteren Ribnitzer Ortskerns wurde. Bis in das 14. Jahrhundert gehörte der Ort noch zur Herrschaft Rostock, danach zum Fürstentum, später (Groß-)Herzogtum Mecklenburg. Ribnitz wird erstmals in einer Urkunde aus dem Jahre 1233 erwähnt. Im Jahr 1323 wurde das Klarissenkloster Ribnitz vom mecklenburgischen Fürsten Heinrich II. gegründet. Bis zum Ende des Dreißigjährigen Krieges im Jahr 1648 bildet die Recknitz zwischen Ribnitz und Damgarten die Grenze zwischen dem Herzogtum Mecklenburg und dem Herzogtum Pommern, danach bis zum Jahr 1815 zwischen Mecklenburg und Schwedisch-Pommern. Ein weiterer wirtschaftlicher Aufschwung der Stadt Ribnitz begann 1934 unter anderem mit dem Bau kriegswichtiger Produktionsanlagen wie der Walther-Bachmann-Flugzeugbau KG. Damgarten (1258–1950). Entstanden ist die Damgarten aus einer Grenzburg und der daneben entstehenden Ortschaft „Damgor“ („Dam“ bedeutet „Eiche“), die östlich der sumpfigen Recknitzniederung lagen. Als Damgartener Stadtgründer gilt der Fürst Jaromar II. von Rügen. Der Übergang über die Recknitz nach Ribnitz in Mecklenburg wurde auch "Mecklenburger Pass" genannt. Damgarten erhielt das Lübisches Recht 1258 vom Rügenfürsten Jaromar II. Bis zum Ende des Dreißigjährigen Krieges im Jahr 1648 bildet die Recknitz zwischen Ribnitz und Damgarten die Grenze zwischen dem Herzogtum Pommern und dem Herzogtum Mecklenburg. Danach bis zum Jahr 1815 zwischen Schwedisch-Pommern und Mecklenburg. 1809 kam es beim Durchzug der Freischärler unter Major Ferdinand von Schill zu vereinzelten Scharmützeln mit den napoleontreuen mecklenburgischen Regimentern. Nach 1815 fiel Schwedisch Pommern mit Damgarten an das Königreich Preußen und gehörte anschließend zur Provinz Pommern. Seit 1888 verfügt Damgarten über einen Bahnanschluss an der Bahnstrecke Stralsund–Rostock. Im Jahr 1934 wurde bei Damgarten ein Fliegerhorst bei Pütnitz gebaut. Der Flugplatz Pütnitz war nach dem Zweiten Weltkrieg einer der bedeutendsten Standorte der in der DDR stationierten sowjetischen Luftstreitkräfte. Bis 1991 war die 16. Jagdfliegerdivision der Gruppe der Sowjetischen Streitkräfte in Deutschland in Damgarten stationiert. Ribnitz-Damgarten (seit 1950). Die Doppelstadt Ribnitz-Damgarten entstand 1950 durch Zusammenlegung der beiden Städte Ribnitz (in Mecklenburg) und Damgarten (in Pommern). Beide Stadtvertretungen hatten sich gegen den Zusammenschluss der Städte ausgesprochen. Die damals Regierenden wollten jede Erinnerung an Pommern und die damit verbundene historische mecklenburgisch-pommersche Grenze auslöschen. Offiziell wurde die Notwendigkeit einer größeren Kreisstadt für den 1952 gebildeten Kreis Ribnitz-Damgarten vorgeschoben. Die Recknitz bildet die natürliche Grenze zwischen Mecklenburg und Pommern. Die beiden Stadtteile Ribnitz und Damgarten werden durch die breite sumpfige Flussniederung getrennt. Der Übergang über die Recknitz wird auch "Mecklenburger Pass" genannt. Auf der mecklenburgischen Seite befindet sich unmittelbar am Fluss das "Pass-Gehöft". Nach der politischen Wende wurden ab 1991 die historischen Stadtkerne von Ribnitz mit dem Kloster und von Damgarten im Rahmen der Städtebauförderung gründlich saniert. Religion. Den historischen Gegebenheiten in Mecklenburg und Pommern entsprechend ist die vorwiegende christliche Konfession der Protestantismus. Während die Kirchgemeinde Ribnitz St. Marien zur Evangelisch-Lutherische Landeskirche Mecklenburgs gehört, zählt die Kirchgemeinde St. Bartholomäus in Damgarten zur Pommerschen Evangelischen Kirche. Weitere in Ribnitz-Damgarten vertretene Kirchen sind die römisch-katholische Maria-Hilfe der Christen St. Klara sowie die neuapostolische Kirchgemeinde Ribnitz. Wappen. Das Wappen wurde am 27. Januar 1993 durch das Innenministerium genehmigt und unter der Nr. 64 der Wappenrolle von Mecklenburg-Vorpommern registriert. Blasonierung: „Gespalten; vorn in Silber ein hersehendes, rot gekleidetes, gold behaartes und gekröntes Brustbild eines Mannes mit goldbesäumtem blauem Umhang, hinten in Blau ein aufgerichteter, rot gezungter goldener Greif.“ Das Wappen wurde von dem Ribnitz-Damgartener "Frank Rose" gestaltet. Auf der heraldisch rechten Seite des Wappens ist der Damgartener Stadtgründer Jaromar II. von Rügen zu sehen. Der Greif auf der linken Seite ist das Wappentier der Fürsten der historischen Herrschaft Rostock, zu welcher Ribnitz gehörte. Später hatte man ein Wappen mit dem mecklenburgischen Stierkopf, flankiert von zwei Fischen, was auf den slawischen Namen "Rybanis" – Fischort hinweist. Flagge. Die Flagge der Stadt Ribnitz-Damgarten ist quer zur Längsachse des Flaggentuchs von Rot – Weiß – Blau – Gelb gestreift. Der rote und der gelbe Streifen nehmen je ein Achtel, der weiße und der blaue Streifen nehmen je drei Achtel der Länge des Flaggentuchs ein. In der Mitte des weißen Streifens liegt die Figur aus dem vorderen Feld des Stadtwappens. In der Mitte des blauen Streifens liegt die Figur aus dem hinteren Feld des Stadtwappens. Die Wappenfiguren nehmen jeweils die Hälfte der Höhe des Flaggentuchs ein. Die Länge der Flagge verhält sich zur Höhe wie 3:2. Städtepartnerschaft. Seit 1990 pflegt Ribnitz-Damgarten eine Partnerschaft mit der niedersächsischen Stadt Buxtehude und seit 2008 mit der polnischen Stadt Sławno in der Woiwodschaft Westpommern. Bauwerke. Fachwerkhaus in der Ribnitzer Altstadt Der sogenannte "Moischenstein" befindet sich im Schilfgürtel der Uferzone des südlichen Saaler Boddens. Das Flur- und Rechtsdenkmal aus dem 13. Jahrhundert war der Grenzstein zwischen Mecklenburg und Pommern. Heute besitzt der Stein für die Stadt Ribnitz-Damgarten noch eine juristische Funktion hinsichtlich des Umfangs ihrer Fischereirechte im westlichen Teil des Saaler Boddens. Neben dem heute größtenteils eingesunkenen Steinmal, dessen Oberfläche sich herzförmig zeigt, befindet sich ein Hochstand und ein imitierter Grenzpfahl. Wirtschaft und Infrastruktur. a> befindet sich im ehemaligen Klarissenkloster in Ribnitz. Stadtarchiv (links) und Stadtbibliothek (rechts) 46 an der B 105 zwischen Altheide und Borg bei Ribnitz-Damgarten Tourismus. Seit dem 28. April 2009 hat die Stadt die offizielle Bezeichnung „Bernsteinstadt“. Die Stadt trägt diesen Titel vor allem wegen des im Stadtteil Ribnitz liegenden „Deutschen Bernsteinmuseums“ und der im Stadtteil Damgarten angesiedelten Bernstein-Schau-Manufaktur. Neben zahlreichen Geschäften, die Bernsteinprodukte anbieten, ist der Beiname „Bernsteinstadt“ aber auch als regionaler Bezug auf die etwa 10 km entfernt liegende Ostsee zu werten. Die Stadt bezeichnet sich ebenfalls als „Das Tor zum Fischland“, da sie das letzte Mittelzentrum auf dem Weg zur Ostsee-Halbinsel „Fischland-Darß-Zingst“ ist. Bis 1948 gab es in Ribnitz den patentrechtlich geschützten „Fischland-Schmuck“. Es handelt sich um mit Meeresmotiven (Fische, Seesterne etc.) verzierte Silberarbeiten, denen ausgesuchte, polierte Bernsteine eingesetzt sind. Der Betrieb wurde 1948 verstaatlicht, nahm die Produktion mitsamt der Markenrechte jedoch in Lübeck, später Travemünde, wieder auf. Seither wird der Schmuck von der Ostsee-Küste als Ostsee-Schmuck bezeichnet. Das Bernsteinmuseum befindet sich in der historischen Klosteranlage im Südosten der Stadt. Das Kloster Ribnitz zeigt Kunstschätze und eine Ausstellung zur Geschichte des einstigen Klarissenklosters und späteren evangelischen adligen Damenstiftes. Seit 2013 führt Ribnitz-Damgarten den Titel "Staatlich anerkannter Erholungsort". Bildung. Im Ortsteil Damgarten befindet sich das nach dem Volkskundler Richard Wossidlo benannte Richard-Wossidlo-Gymnasium. Des Weiteren gibt es verschiedene Grund-, Haupt- und Realschulen sowie eine Volkshochschule. Ein privates „Bildungszentrum“ ist von bedeutender überörtlicher Bedeutung, und der Beruflichen Schule des Kreises Nordvorpommern im Stadtteil Damgarten wird im Zuge der Reformierung der Schulstandorte in Mecklenburg-Vorpommern in der nächsten Zeit eine größere Bedeutung zukommen. Bahn und Bus. Bahn: Mit den Bahnhöfen "Ribnitz-Damgarten West" und "Ribnitz-Damgarten Ost" ist die Stadt an die Bahnstrecke Stralsund–Rostock angeschlossen. An beiden Bahnhöfen hält alle zwei Stunden der von der DB Regio betriebene Regionalexpress Rostock – Sassnitz. Am Westbahnhof fahren außerdem alle zwei Stunden die Intercity-Züge der DB Fernverkehr auf der Linie Karlsruhe – Frankfurt (Main) – Hamburg – Stralsund. Zwischen 1895 und 1965 fuhren vom Bahnhof Damgarten die Züge der schmalspurigen Franzburger Kreisbahnen über Barth nach Stralsund. Weitere Bahnhöfe in Damgarten lagen am Hafen und am Stadtwald. Die ehemalige Bahntrasse parallel zum Templer Bach und im Norden von Damgarten neben der Saaler Chaussee wird heute als Radweg benutzt und ist noch gut erkennbar. Bus: Den Busverkehr in der Region organisiert die Verkehrsgemeinschaft Nordvorpommern. Den innerstädtischen ÖPNV übernimmt dabei die Buslinie 201 von Damgarten nach Ribnitz (Drei Linden). Die Buslinie ist dabei am Bahnhof "Ribnitz-Damgarten West" mit den Zügen der Deutschen Bahn verknüpft und erschließt neben Damgarten auch die Boddenklinik, die Ribnitzer Innenstadt und die Wohngebiete im Ribnitzer Westen. Der Bahnhof "Ribnitz-Damgarten Ost" wird vom Stadtverkehr nicht bedient. Von Bedeutung sind auch die Buslinien 202 über Graal-Müritz nach Hohe Düne und 210 über Dierhagen, Fischland und Darß nach Barth. Teilweise führen die Busse auch Fahrradanhänger mit. Straßenverkehr. Die nächstgelegenen Autobahnanschlussstellen sind "Sanitz" an der A 20 und "Rostock-Ost" an der A 19. Ribnitz-Damgarten liegt am Abschnitt Rostock – Stralsund der B 105. Jedoch werden Damgarten und seit dem 2. November 2004 auch Ribnitz auf Ortsumgehungen umfahren. Persönlichkeiten. Zu Persönlichkeiten der früheren Städte vor deren Zusammenschluss von 1950 siehe bei den Stadtteilen. Rho. Das Rho (griechisches Neutrum, Majuskel Ρ, Minuskel ρ oder ϱ) ist der 17. Buchstabe des griechischen Alphabets und hat nach dem milesischen Prinzip einen numerischen Wert von 100. Am Anfang eines altgriechischen Wortes ist es immer aspiriert/"behaucht" z.B. ῥέω (rheo) "fließen". Roskilde. Die dänische Stadt Roskilde liegt auf der Ostseeinsel Sjælland (Seeland) etwa 30 km von Kopenhagen entfernt und ist seit der Verwaltungsreform von 2007 eine Stadt in der Region Sjælland (Region Seeland). Der Name soll sich von „Roars Kilde“ = „Roars Quelle“ herleiten. König Roar ist eine Sagengestalt. Roskilde war einst die Königsstadt und spielte in der Geschichte Dänemarks eine wichtige Rolle. International bekannt ist die Stadt vor allem durch das jährlich stattfindende Roskilde-Musikfestival. Geographie. Der Stadtkern zieht sich an einem Hang zwischen dem Roskildefjord und der Bahnstrecke Kopenhagen–Fredericia hin. Das Zentrum liegt zwischen dem Bahnhof und dem Dom. Die wichtigste Einkaufsstraße ist die Fußgängerzone, die aus dem Straßenzug Algade-Stændertorv-Skomagergade besteht. Der Dom liegt in der Nähe des Stændertorv, dem zentralen Marktplatz („Ständemarkt“) mit Wochenmarkt am Mittwoch und Sonnabend. Geschichte. Roskilde wurde im Jahr 998 wahrscheinlich als Nachfolger des nahe gelegenen Gammel Lejre gegründet. Nach Adam von Bremen hieß es "Roschald". Bis zur dänischen Reformation 1536 war die Stadt Sitz der Bischöfe von Seeland und bis 1443 auch Hauptstadt Dänemarks. 1658 wurde hier der Frieden von Roskilde vereinbart. 1972 wurde Roskilde Universitätsstadt. Seit 2007 ist die „alte“ Roskilde Kommune mit den Gemeinden Gundsø Kommune und Ramsø Kommune zur „neuen“ Roskilde Kommune zusammengefasst worden. Die neue Gemeinde hat Einwohner mit einer Fläche von 212 km² (Stand:). Sie ist Teil der Region Sjælland. Bauwerke. Übersichtsplan zur Topographie der mittelalterlichen Stadt Roskilde Der Dom zu Roskilde wurde 1995 von der UNESCO zum Weltkulturerbe erklärt. 1170 im romanischen Stil begonnen und seit 1200 im gotischen Stil umgebaut, ist er der letzte Ruheort von 20 dänischen Königen und 17 Königinnen. Aus diesem Grund wurden dem Gebäude auch mehrere königliche Mausoleen zugefügt, die im Laufe der Zeit die Gestalt des Gebäudes veränderten. Die beiden Westtürme stammen aus dem 14. Jahrhundert. Zu den kostbarsten Stücken der reichhaltigen Innenausstattung gehören das vergoldete Antwerpener Retabel (um 1550–1560) und das kunstvoll geschnitzte Chorgestühl (1420). Das Palais neben der Kathedrale ist seit 1923 wieder Bischofssitz. Der 1847 gebaute Bahnhof hat Anklänge an die Galleria Borghese in Rom. Archäologie. Im Schlick des teilweise nur einen Meter tiefen Fjords von Roskilde befindet sich einer der bedeutendsten Fundorte für Schiffswracks. Insbesondere die Überreste zahlreicher Drachenboote (Langschiffe) aus der Wikingerzeit kamen hier zu Tage. 1962 fand man fünf Wikingerschiffe. 1996, als es längst ein Museum für die Schiffsfunde gab und dieses ausgebaut wurde, wurden neun weitere Schiffe entdeckt. Eines davon ist 36 m lang und damit der längste Drachenbootfund überhaupt. Südwestlich des Ortes liegt das Ganggrab bei Øm, eines der besterhaltenen in Dänemark. Wikingerschiffshallen von Roskilde. Im Wikingerschiffsmuseum Roskilde werden die Funde konserviert und teilweise ausgestellt. Mit Hilfe des Computers werden dann 3D-Modelle angefertigt. Wissenschaftler und Handwerker erforschen und erproben die alten Herstellungstechniken und fertigen danach seetüchtige Rekonstruktionen der Schiffe an; z. B. der Nachbau der "Skuldelev 2", dem 1962 gefundenen 28 m messenden Langschiff. Er wurde 2004 vollendet und stach als Havhingsten fra Glendalough in See. Regelmäßige Veranstaltungen. Die Stadt ist im Ausland unter anderem wegen des jährlich stattfindenden Roskilde-Musikfestivals bekannt, das alljährlich etwa 100.000 Menschen anzieht und zu den größten europäischen Musikfestivals zählt. Ansässige Unternehmen. Das Unternehmen Nycomed hat hier einen Standort. Öffentliche Einrichtungen. Sct. Hans Hospital etwa im Jahre 1870 Seit 1816 liegt das 1769 in Kopenhagen gegründete Sct. Hans Hospital, ein psychiatrisches Krankenhaus, in Roskilde. Bildung. Im Zuge der Studentenbewegung von 1968 und den Forderungen nach stärkeren studentischen Einflussmöglichkeiten auf das Bildungswesen wurde – zunächst als experimentelle Umsetzung dieser Ideen – die Universität Roskilde ("Roskilde Universitetscenter" ("RUC")) ersonnen. 1972 wurde diese als besonders fortschrittlich und innovativ geplante Einrichtung eröffnet, die den „klassischen“ universitären Lehr- und Lernmethoden ein neues Konzept entgegensetzen sollte. Das grundlegende Prinzip besteht in einer aktiven Gestaltung des Lehrbetriebes durch die Studierenden und deren eigenständigem und selbstverantwortlichem Umgang mit ihrer Ausbildung. Weitere Kernkomponenten sind hierbei Kleingruppenarbeit, Interdisziplinarität und Diskussion zur demokratischen Entscheidungsfindung. Seit 2009 gibt es in Roskilde eine Demokratische Schule (Den Demokratiske Skole). Roskilde-Festival. Das Roskilde-Festival ist ein seit 1971 jährlich stattfindendes Musikfestival bei Roskilde in Dänemark. Das viertägige Festival auf der Insel Seeland zählt mit bis zu 115.000 Teilnehmern zu den größten Europas. Die Veranstaltung wird von bis zu 25.000 unbezahlten Freiwilligen aufgebaut, organisiert und betreut. Das musikalische Hauptaugenmerk liegt auf weniger bekannten internationalen und skandinavischen Musikern aus verschiedenen Genres, hauptsächlich Rock, Pop, Metal, Electronic und Weltmusik, ergänzt durch wenige bekannte Headliner. Der gesamte Gewinn des Festivals fließt an den "Foreningen Roskildefonden", welcher das Geld an humanitäre, kulturelle und andere gemeinnützige Organisationen wie Amnesty International, Ärzte ohne Grenzen, Human Rights Watch und viele dänische Organisationen weitergibt. Geschichte. Das erste Roskilde-Festival fand am 28. und 29. August 1971 unter dem Namen "SOUND FESTIVAL" statt. Es war inspiriert durch Festivals und Jugendversammlungen wie Newport, Isle of Wight und Woodstock. Es war vor allem durch schlechtes Management und großen Enthusiasmus gekennzeichnet. Es gab nur eine Bühne, auf der etwa 20 Bands aus den Bereichen Folk, Jazz, Rock und Pop auftraten. Das Festival dauerte zwei Tage und hatte etwa 10.000 Besucher pro Tag. Veranstalter waren damals ein Musikagent aus Kopenhagen und eine Gruppe lokaler Gymnasiasten. Aufgrund der harten körperlichen Arbeit im Zusammenhang mit dem Festival hatten diese aber kein Interesse, das Festival im darauf folgenden Jahr wieder zu veranstalten. Freiwilligenarbeit. Die lokale Organisation "Foreningen Roskildefonden" arbeitete seit den 1930er Jahren in der Umgebung von Roskilde an der Etablierung von Einrichtungen für Kinder und Jugendliche sowie an der Organisation von Stadtfesten. Dieser Verband wurde vom Roskilder Stadtrat gebeten, die Idee von einem Festival in Roskilde zu übernehmen und in Zusammenarbeit mit einer Aktiengesellschaft, die einzig für diesen Zweck gegründet wurde, das Festival zu organisieren. 1972 wurde das Festival unter dem Namen "Fantasy" erneut abgehalten. Es dauerte diesmal drei Tage und zog etwa 15.000 Besucher pro Tag an. Es gab eine Bühne auf der 25 Bands auftraten. Das Festival wurde überwiegend von freiwilligen Helfern organisiert. Im Laufe der 1970er entwickelte sich das Festival. Eine Basisstruktur entstand, in der die freiwilligen Helfer zur wichtigsten Arbeitskraft wurden. Das Roskilde-Festival ist eine nicht profitorientierte Veranstaltung. Alle Überschüsse werden humanitären Zwecken gespendet. Das Festival entwickelte sich über die Jahre und das Spendenaufkommen bis 2010 betrug mehr als 13 Millionen Euro. Unter den Organisationen, die unterstützt wurden, befinden sich "War Victims in Iraq", Ärzte ohne Grenzen, Amnesty International, Save the Children und WWF. Darüber hinaus wird jedes Jahr ein gesellschaftspolitisches Thema ausgewählt, das bei Kunstbeiträgen oder Aktivitäten eingearbeitet wird. Neben den 25.000 Helfern, die jedes Jahr den Festivalablauf unterstützen, wird das Festival hauptsächlich von der Gruppe "Klub 100" geplant, organisiert und koordiniert. In diesem Klub arbeiten ca. 400 Mitarbeiter auf freiwilliger Basis. Der Name entstand aus der Tatsache, dass die Mitarbeiter jährlich mehr als zehn Tage und somit mindestens 100 Stunden für die Planung des Festivals zur Verfügung stellen. Die ehrenamtlichen Mitarbeiter des Klub 100 werden mit gemeinsamen Abendessen, Büroausflügen und anderen Veranstaltungen entschädigt. Das Roskilde Festival hat 25 bezahlte Mitarbeiter, die als Sektionsleiter die Verantwortung zu Getränken, Musik und Camping haben. Symbol und Logo des Festivals. 1978 erwarben die Organisatoren vom britischen Unternehmen "Revelation Staging" die "Canopy Scene", eine orangefarbene Musikbühne, mit der die Rolling Stones vorher auf Europatournee waren. Seitdem stellte die "Canopy Scene" mit ihren charakteristischen Bögen das bekannte Symbol und Logo des Festivals dar. Die orangefarbene Musikbühne "Canopy Scene" Das Festival begann verstärkt junge Bands von internationaler Bekanntheit einzuladen. So spielten 1978 Bob Marley and The Wailers zusammen mit 40 weiteren Bands auf mittlerweile drei Bühnen, vor einem Publikum von bis zu 36.500 Besuchern pro Tag. Neue elektronische Klänge. In den 1990er Jahren wurden neue Töne auf dem Festival etabliert. So wurde 1991 das erste Mal der "Club Roskilde" veranstaltet, bei dem Festivalbesucher an einem Abend des Festivals zu elektronischer Musik tanzen konnten. 1995 bekam die elektronische Musik dann eine eigene Bühne. So klangen 1995 Grooves und Beats über alle Tage des Festivals aus dem neuen Deeday-Zelt. In den darauf folgenden Jahren wurde durch die Etablierung der Chill-out-Zone und der Roskilde Lounge noch mehr Raum für elektronische Musik geschaffen. Seitdem traten Künstler wie Fatboy Slim, The Prodigy, Basement Jaxx und Chemical Brothers auf der Hauptbühne auf. Teilnehmerbegrenzung. In den 1990er Jahren wurde die Anzahl der zum Kauf angebotenen Tickets begrenzt und später sogar reduziert. Durch die stetig steigende Beliebtheit des Festivals war die Teilnehmerzahl auf bis zu 125.000 gestiegen. Neben 90.000 verkauften Eintrittskarten kamen noch ca. 25.000 freiwillige Helfer, 5000 Medienleute und 3000 Künstler hinzu. Um die Qualität des Festivals zu wahren, entschied die Festivalleitung, die Teilnehmerzahl zu begrenzen. Die Entfernung vom hintersten Teil des Campingareals zu den Bühnen schien der Festivalleitung unzumutbar geworden zu sein. Das Festival war so groß geworden, dass die Festivalleitung 1994 beschloss, das Festivalareal Richtung Westen zu erweitern. Fortan wurde das Festivalgelände durch die Bahnstrecke in zwei Teile geteilt. 1996 bekam das Festival eine eigene Bahnstation, die die Anreise der Besucher vereinfachen sollte. Im Jahre 1997 kam ein weiteres Zelt namens "Roskilde Ballroom" dazu. Das als „feuchtestes“ bekannte Festival, 2007 Festivalradio und Nacktlauf. Seit 1998 hat das Festival mit dem "Roskilde Festival Radio" eine eigene Radiostation, die auf UKW 92,3 MHz an neun Tagen während des Großereignisses sendet. Das Programm wird von dem Zusammenschluss der dänischen Hochschulradiosender ("De Danske Studenterradioer", kurz DDS) produziert. Studentische Reporter berichten live vom Festival und geben geplante Aktivitäten und Programmänderungen bekannt. Vom Roskilde Festival Radio wird auch der sogenannte "Nacktlauf" ("Nøgenløb"), ein Wettrennen mit ausschließlich nackten Teilnehmern, organisiert. Das Rennen wird jedes Jahr am Samstag während des Festivals ausgetragen und erregt große mediale Aufmerksamkeit. Todesfälle im Jahre 2000. Am 30. Juni 2000 kam es auf dem Roskilde-Festival während des Auftritts der Band Pearl Jam zu einem Unglück, bei dem neun Menschen starben. Sie verloren auf matschigem Untergrund den Halt, stürzten und wurden vom nachdrängenden Publikum erstickt. Die Festivalleitung entschied im Anschluss dennoch, das Festival fortzusetzen. Die Leitung begründete diese Entscheidung mit der Erklärung, es erscheine „unverantwortlich, die 90.000 schockierten Menschen einfach nach Hause zu schicken, noch dazu ohne zu wissen, ob Freunde unter den Toten waren“. Vor der Hauptbühne wurde eine Gedenkzeremonie mit dem Bischof Jan Lindhardt aus Roskilde abgehalten. In der Folge wurden schwere Vorwürfe erhoben, in denen auf Sicherheitsmängel hingewiesen wurde. Insbesondere die Rekrutierung von minderjährigen Ordnern, die als Gegenleistung für kostenlosen Festivalzutritt Sicherheitsfunktionen hätten ausüben sollen, wurde als „skandalös“ beschrieben. Auftritt der Gruppe Junior Senior, 2005 Heute erinnern auf dem Festivalgelände neun Birken und ein Gedenkstein mit der Aufschrift "How fragile we are" an das Unglück. Seit dem Unfall wurden die Sicherheitsvorkehrungen verbessert: Unter anderem wurden abgesperrte Sicherheitszonen vor den beiden größten Bühnen eingerichtet, größere Teile des Platzes vor der Hauptbühne wurden asphaltiert, die Zahl der "Crowd Safety Guards" wurden verstärkt und ihre Schulung verbessert, es wurden Merkblätter ans Publikum herausgegeben und Sicherheitshinweise auf den Monitoren eingeführt. 2000 bis heute. Im Jahre 2000 entschied die Festivalleitung, auf die immer früher anreisenden Festivalbesucher zu reagieren, indem ein viertägiges "Warm-up" eingeführt wurde. Bei dem Warm-up wird das Campingareal schon vier Tage vor dem eigentlichen Festivalgelände geöffnet und es werden verschiedene Attraktionen angeboten. So gibt es unter anderem einen Skatepark, ein Kino, eine Campingbühne und zahlreiche Events. 2006 sind außerdem noch ein Badesee und ein Angelsee hinzugekommen. Am letzten Tag des Festivals 2011 kam es zu einem tödlichen Unfall einer Deutschen, die vom 30 Meter hohen Tuborg-Turm in den Tod stürzte. Das Roskilde-Festival 2013 fand vom 29. Juni bis zum 7. Juli 2013 statt. Als Headliner traten u.a. Rihanna und Kraftwerk mit einer 3D-Show unter freiem Himmel auf. Dazu wurden 70.000 Besucher mit entsprechenden Brillen ausgestattet. Beim Roskilde-Festival 2014 konnten u.a. erstmals die Rolling Stones als Headliner gewonnen werden, die damit nach fast 40 Jahren wieder auf die ursprünglich zu ihrem eigenen Tour-Equipment gehörende "Orange Stage" zurückkehrten. Um den politischen Anspruch des Festivals zu unterstreichen, luden die Veranstalter zwei Aktivistinnen der russischen Punk-Gruppierung Pussy Riot ein. Nadja Tolokonnikova und Mascha Aljoschina nutzten die Möglichkeit auf der "Gloria Stage", um für ihre Ziele zu werben. Am 6. März 2015 wurde bekanntgegeben, dass Sir Paul McCartney seinen einzigen europäischen Festivalgig 2015 in Roskilde spielen will. Ebenfalls Headliner sollen sein: Muse und Pharrell Williams. Bühnen. Konzert auf der Roskilde Arena Das Festival hat heute sieben Bühnen. Russellsche Antinomie. Die Russellsche Antinomie ist ein von Bertrand Russell und Ernst Zermelo entdecktes Paradoxon der naiven Mengenlehre, das Russell 1903 publizierte und das daher seinen Namen trägt. Begriff und Problematik. Oft wird die Russellsche Klasse auch als „Menge aller Mengen, die sich nicht selbst als Element enthalten“ definiert; das entspricht der damaligen Mengenlehre, die noch nicht zwischen Klassen und Mengen unterschied. Die Russellsche Antinomie ist aber im Gegensatz zu den älteren Antinomien der naiven Mengenlehre (Burali-Forti-Paradoxon und Cantorsche Antinomien) rein logischer Natur und unabhängig von Mengenaxiomen. Daher hat sie besonders stark gewirkt und schlagartig das Ende der naiven Mengenlehre herbeigeführt. Geschichte und Lösungen. Russell löste das Paradoxon bereits 1903 durch seine Typentheorie; in ihr hat eine Klasse stets einen höheren Typ als ihre Elemente; Aussagen wie „eine Klasse enthält sich selbst“, mit der er seine Antinomie bildete, lassen sich dann gar nicht mehr formulieren. Er versuchte also, da er an Freges Abstraktionsprinzip festhielt, das Problem durch eine eingeschränkte Syntax der zulässigen Klassen-Aussagen zu lösen. Die eingeschränkte Syntax erwies sich aber als kompliziert und unzulänglich zum Aufbau der Mathematik und hat sich nicht dauerhaft durchgesetzt. Parallel zu Russell entwickelte Zermelo, der die Antinomie unabhängig von Russell fand und schon vor Russells Publikation kannte, die erste axiomatische Mengenlehre mit uneingeschränkter Syntax. Das Aussonderungsaxiom dieser Zermelo-Mengenlehre von 1907 gestattet nur noch eine eingeschränkte Klassenbildung innerhalb einer gegebenen Menge. Er zeigte durch einen indirekten Beweis mit dieser Antinomie, dass die Russellsche Klasse keine Menge ist. Sein Lösungsweg hat sich durchgesetzt. In der erweiterten Zermelo-Fraenkel-Mengenlehre (ZF), die heute als Grundlage der Mathematik dient, stellt zusätzlich das Fundierungsaxiom sicher, dass keine Menge sich selbst enthalten kann, so dass hier die Russellsche Klasse identisch mit der Allklasse ist. Dieser Satz bedeutet in der prädikatenlogischen Sprache: Es gibt keine Menge aller Mengen, die sich selbst nicht als Element enthalten. Er gilt in allen modernen axiomatischen Mengenlehren, die auf der Prädikatenlogik erster Stufe aufbauen, zum Beispiel in ZF. Er gilt auch in der Neumann-Bernays-Gödel-Mengenlehre, in der aber die Russellsche Klasse als echte Klasse existiert. In der Klassenlogik von Oberschelp, die eine nachweislich widerspruchsfreie Erweiterung der Prädikatenlogik erster Stufe ist, können zudem beliebige Klassenterme zu beliebigen definierenden Aussagen gebildet werden; speziell ist dort auch die Russellsche Klasse ein korrekter Term mit beweisbarer Nichtexistenz. In diese Klassenlogik können Axiomensysteme wie die ZF-Mengenlehre eingebunden werden. Da der Satz in einem direkten Beweis abgeleitet wurde, ist er auch in der intuitionistischen Logik gültig. Varianten der Russellschen Antinomie. Die Grelling-Nelson-Antinomie von 1908 ist ein durch die Russellsche Antinomie inspiriertes semantisches Paradoxon. Es gibt zahlreiche populäre Varianten der Russellschen Antinomie. Am bekanntesten ist das Barbier-Paradoxon, mit dem Russell selbst 1918 seinen Gedankengang veranschaulichte und verallgemeinerte. Currys Paradoxon von 1942 enthält als Spezialfall eine Verallgemeinerung der Russellschen Antinomie. Rigveda. Der Rigveda (Vedisch, Sanskrit, m., ऋग्वेद, "veda" = Wissen, = Verse) ist der älteste Teil der vier Veden und zählt damit zu den wichtigsten Schriften des Hinduismus. Häufig wird der Begriff für die Rigvedasamhita, den Kern des Rigveda, verwendet, wenngleich dieser eigentlich eine größere Textsammlung umfasst. Die Rigvedasamhita ist eine Sammlung von 1028 (nach anderen Zählungen 1017) Hymnen, eingeteilt in zehn Bücher, "Mandalas" (Liederkreise) genannt. Zu den vier Veden gehören neben dem Rigveda noch Samaveda, Yajurveda sowie Atharvaveda. Alle hinduistischen Religionen akzeptieren die Unantastbarkeit dieser vier Veden, jedoch rechnen einzelne Glaubensrichtungen individuell oft noch weitere Schriften hinzu. Der gesamte Rigveda besteht wie alle Veden aus mehreren Textschichten, von denen die Samhitas mit den Hymnen die älteste bilden. Die Brahmanas, die folgende Textschicht, bestehen vor allem aus Ritualtexten. Dann kommen die Aranyakas genannten Waldtexte, und schließlich die Upanishaden, welche größtenteils philosophische Abhandlungen enthalten. Während die Sprache der Hymnen vedisch ist, sind die letzten Schichten in Sanskrit geschrieben. Historischer und geographischer Kontext. Die Entstehungszeit der Rksamhita liegt im Dunklen und ist daher seit jeher Gegenstand von Spekulationen. Diese reichen von der Mitte des ersten Jahrtausends v. Chr. bis zurück ins Pleistozän. Nach dem derzeitigen Stand der Indogermanistik und Indologie erscheint eine Entstehungszeit in der zweiten Hälfte des zweiten Jahrtausends v. Chr. als wahrscheinlich, wobei die Bücher II bis IX früher entstanden sind als Buch I und X. Einzelne Hymnen können noch einige Jahrhunderte älter sein. Dichter dieser aus priesterlichen Familien stammenden Hymnen sind Menschen eines Volkes, die sich Arier nannten. Ihre Sprache ist dem Avestischen und Altiranischen verwandt; auch inhaltlich berühren sich die Gedichte des RV und die älteste sakrale Poesie des Iran. Während der Entstehungszeit des Rigveda sollen die Indoarier in das Industal, den heutigen Punjab, eingewandert sein. In Afghanistan und im westlichen Punjab war das von der Viehzucht abhängige Volk auf Regen sowie auf Wasser aus Flüssen, insbesondere zur Zeit der Schneeschmelze, angewiesen. Daher werden in vielen Hymnen immer wieder der lebensspendende Regen und seine Bringer, die Sturmgötter, die "Maruts", besungen. Geographie des Gebietes, in dem der Rigveda entstanden ist; der rigvedische Name Sindhu entspricht dem heutigen Indus In RV 10,75 "An die Flüsse" werden 18 Flussläufe, interessanterweise in der Reihenfolge von Osten nach Westen, dann von Norden nach Süden, mit ihren rigvedischen Namen aufgelistet. Unter ihnen sind es vor allem der Sindhu (Indus) und seine Nebenflüsse, die von den Sängern wegen ihrer Wassermenge gepriesen werden. Die vedischen Stämme sollen Halbnomaden gewesen sein, die über Ochsenkarren, Pferdegespanne und Bronzewaffen verfügten. Die Opferzeremonien erfolgten in der freien Natur. Im Gegensatz zum späteren Hinduismus sollen sie nicht über Götterbilder oder Statuen verfügt haben. Gliederung und Inhalt. Während der erste Liederkreis die Werke von 15 Rishis enthält, stellen die Mandalas oder Liederkreise zwei bis sieben das Traditionsgut bestimmter Familien oder Clans dar, die die Dichtkunst generationsweise weitergaben. Diese sogenannten 'Familienliederkreise' enthalten den ältesten Kern des Rigveda. Die Liederkreise eins und zehn gelten entsprechend als jünger. Der neunte Liederkreis befasst sich ausschließlich mit Liedern, die mit der Herstellung des Somatrankes und des Somaopfers verknüpft sind. Beim zehnten Liederkreis sind Gruppenlieder und Einzellieder zusammengefasst, die sich nicht eindeutig zuordnen lassen oder zu bestimmten, besonderen Anlässen gedichtet wurden.Rigveda auf Papier, frühes 19. Jh., Sanskrit mit roten Betonungszeichen für den vedischen Tonakzent Der Rigveda enthält jene Texte, die für den "Hotri" („Rufer“), einen der Priester im vedischen Opferkult, von Bedeutung sind. Es sind Loblieder an Götter wie Agni, Indra oder Varuna. Diese gab es, unter ähnlichen oder ganz unterschiedlichen Namen, auch bei anderen Völkern der indoeuropäischen bzw. indogermanischen Sprachgruppe. Nach dem Shatapatha Brahmana besteht der Rigveda aus 432.000 Silben, was der Anzahl der "muhurtas" (1 Tag hat 30 "muhurtas") in 40 Jahren entspricht. Diese Aussage betont die den Veden zugrundeliegende Philosophie einer Verbindung zwischen Astronomie und Religion. Gottheiten. Im Mittelpunkt der Rigveda-Religion stehen das Feuer- und das Tieropfer. Daher sind die ersten Hymnen eines jeden Liederkreises an Agni gerichtet, den Gott des Feuers, der als Götterbote die Götterschar zum Opferplatz führt (Beispiel: RV 1,1.). Die meisten Hymnen jedoch gelten Indra, der durch seine Großtaten das Wasser befreite und die Sonne, den Himmel und die Morgenröte zum Vorschein brachte (Beispiel: RV 1, 32). Er raubte einst das Soma und befreite die Kühe. Er gilt als großer Trinker von Soma, welches ihm unwiderstehliche Stärke verleiht. Ushas, die Morgenröte und Himmelstochter, welche die Dunkelheit vertreibt (Beispiele: RV 7,75-81); Surya, der Sonnengott (Beispiel: RV 1,50); Vayu, der Windgott (Beispiel: RV 1,134 und 135); Parjanya, der Regengott, welcher zusammen mit den Maruts, den Gewitterstürmen, den belebenden Regen bringt (Beispiel: RV 5,83,4). Soma, der Trank und die Pflanze werden bisweilen als Gottheiten angesprochen (RV 9. Liederkreis). Mitra, der Gott des Vertrages, wacht über die Heiligkeit des Vertragswortes; Varuna, der Gott des Wahrheitswortes, ist der Erhalter von Recht und Ordnung im Kosmos, auf Erden und in der Gesellschaft; Aryaman, der Gott des Gastvertrages, wacht über die Gastfreundschaft. Zu den Schutzgöttern, die in der Not angerufen werden, zählen die göttlichen Zwillinge, die Ashvins. Sie werden in etlichen Hymnen um Hilfe angerufen oder es wird ihnen für wunderbare Errettungen und Heilungen gedankt (Beispiel: RV 1,157,4 oder RV 1,158,3). Oft werden in den einzelnen Hymnen mehrere Gottheiten zusammen angerufen, und es gibt einzelne Hymnen, die sich an alle Götter wenden (Beispiele: RV 7,34 - 55). Einzelne Hymnen. Diese Idee des Purushas wird in den Upanischaden, die viele Jahrhunderte später entstanden sind, weiter ausgeführt. Dies wird im gesamten Rigveda nur hier so deutlich ausgesprochen. Obwohl es ein spätes Buch ist, kann man davon ausgehen, dass zu dieser Zeit das Kastensystem im sozialen Leben noch nicht voll entwickelt war. Bemerkenswert ist hier die mythologische Legitimation von sozialen Schichtungen. Wissensweitergabe. Die Texte des Rigveda sind mündlich, ohne die Kenntnis von Schrift, verfasst und über mindestens drei Jahrtausende so von Vater zu Sohn und von Lehrer zu Schüler überliefert worden. Der Glaube, dass nur das exakt rezitierte Dichterwort die in ihm wohnende Kraft hervorbringt, hat eine sonst nirgendwo zu findende, getreue Überlieferung bewirkt, welche die der klassischen oder biblischen Texte bei weitem übertrifft. Die Genauigkeit ist so groß, dass man von einer Art Tonaufnahme von etwa 1000 v. Chr. sprechen kann. Das Wissen der Veden galt als Macht, weshalb man sie nicht verschriftlichte, selbst als es die Schrift schon gab, da man befürchtete, diese Macht könne in falsche Hände geraten. Kommentare und Übersetzungen. Im 14. Jahrhundert schrieb Sayana als einer der ersten einen ausführlichen Kommentar zum Rigveda. Geläufigste Ausgabe (in lateinischer Umschrift) ist die von Th. Aufrecht (Leipzig 1861 - 1863). Deutsche Übersetzungen: Hermann Graßmann (Leipzig 1876, Zwei Bände, metrisch, unveränderter Nachdruck: Minerva-Verlag, Frankfurt am Main 1990), Alfred Ludwig (Prag 1876 - 1888, sechsbändig, Prosa) und Karl Friedrich Geldner (1923). Inzwischen liegt eine Gesamtübersetzung ins Russische von Tatjana Elizarenkova (Moskau 1989–1999) vor, in der die neuere Forschungsliteratur bis ca. 1990 berücksichtigt ist. Rhein-Lahn-Kreis. Der Rhein-Lahn-Kreis ist eine Gebietskörperschaft in der Rechtsform eines Landkreises im nördlichen Rheinland-Pfalz und liegt zwischen Koblenz und der Landeshauptstadt Mainz. Sitz der Kreisverwaltung ist Bad Ems, die größte Stadt ist Lahnstein. Der Kreis entstand im Jahr 1969 im Rahmen der rheinland-pfälzischen Gebiets- und Verwaltungsreform aus den gleichzeitig aufgelösten Landkreisen Loreleykreis (mit Sitz in Sankt Goarshausen) und Unterlahnkreis (mit Sitz in Diez). Geographie. Die Fläche des Rhein-Lahn-Kreises beträgt 782,34 Quadratkilometer. Lage. Der Landkreis umfasst einerseits die Landschaft rechts des Mittelrheins zwischen den Städten Kaub und Lahnstein (etwa Strom-km 544–587) und andererseits die Ausläufer des südlichen Westerwalds, des nordwestlichen Taunus und des westlichen Hintertaunus, wo er mit etwa seine größte Höhe (beim Römerkastell Holzhausen an der Haide am Grauen Kopf) erreicht. Größter Fluss ist neben dem Rhein die Lahn, die von Limburg an der Lahn kommend im Nordosten das Kreisgebiet betritt, dann in Richtung Westen den Kreis durchfließt und bei Lahnstein in den Rhein mündet. Für die deutsche Territorialgeschichte bedeutende Siedlungen im Kreisgebiet sind die Städte Nassau und Katzenelnbogen. Nachbarkreise. Der Rhein-Lahn-Kreis grenzt im Uhrzeigersinn im Nordosten beginnend an die Landkreise Limburg-Weilburg und Rheingau-Taunus-Kreis (beide in Hessen) sowie an die Landkreise Mainz-Bingen, Rhein-Hunsrück-Kreis und Mayen-Koblenz, an die kreisfreie Stadt Koblenz und an den Westerwaldkreis. Geschichte. Das Gebiet des heutigen Rhein-Lahn-Kreises gehörte im Mittelalter zu großen Teilen zum Herrschaftsbereich der Abtei Prüm und war vor 1800 in viele Herrschaftsgebiete zersplittert. Die meisten Gebiete wurden 1806 Bestandteil des Herzogtums Nassau. Ausgenommen war zunächst das französisch verwaltete Pays réservé, das im Wesentlichen identisch war mit dem Gebiet der Niedergrafschaft Katzenelnbogen. Dieses Gebiet wurde erst nach dem Wiener Kongress nassauisch. Nassau wurde 1866 von Preußen annektiert und als Regierungsbezirk Wiesbaden Teil der preußischen Provinz Hessen-Nassau. Preußen schuf im Rhein-Lahn-Gebiet mit Wirkung ab 1. April 1886 den Kreis Sankt Goarshausen und den Unterlahnkreis mit Sitz in Diez. Nach dem Zweiten Weltkrieg lagen beide Kreise in der Französischen Besatzungszone und wurden so von den Hessen-Nassauischen Verwaltungsstrukturen getrennt. Sie wurden als Teil des neu gebildeten Regierungsbezirks Montabaur dem Land Rheinland-Pfalz zugeschlagen. 1968 wurden sie dem Regierungsbezirk Koblenz zugeordnet. Der "Landkreis Sankt Goarshausen" wurde 1962 in Loreleykreis umbenannt und bei der Kreisreform, die am 7. Juni 1969 in Kraft trat, zusammen mit dem Unterlahnkreis zum neuen "Rhein-Lahn-Kreis" vereinigt; Kreisstadt wurde Bad Ems; erster Landrat war Rudolf Rumetsch. Am 16. März 1974 wurde dem Landkreis die Gemeinde Arzbach aus dem ehemaligen Unterwesterwaldkreis angegliedert, die jedoch bereits zwei Jahre zuvor der Verbandsgemeinde Bad Ems zugeordnet worden war. Bevölkerung. Per zählte der Rhein-Lahn-Kreis  Einwohner. Die Bevölkerungsdichte bezifferte sich am Stichtag auf  Einwohner pro Quadratkilometer. Ende 2013 gab es im Landkreis mehr Frauen (50,8 Prozent) als Männer (49,2 Prozent). Der Altersquotient übertrifft mit 37,2 Prozent den Jugendquotienten (29,7 Prozent). Der Ausländeranteil (gemeldete Einwohner ohne deutsche Staatsangehörigkeit) belief sich am 31. Dezember 2013 auf 5,3 Prozent (6.479 Personen). Zu den am stärksten vertretenen Nationalitäten zählen vornehmlich Einwohner aus der Türkei, Polen, Italien, Rumänien, Serbien, Russland, dem Kosovo, Kroatien, Bulgarien und Österreich. Im März 2015 verzeichnete der Landkreis eine Arbeitslosenquote von 4,6 Prozent (2.998 Personen). Landrat. Seitdem der bisherige Landrat Günter Kern (SPD) zum 1. Februar 2014 als Staatssekretär in das Ministerium des Innern, für Sport und Infrastruktur Rheinland-Pfalz wechselte, ist die Position des Landrates vakant. Die Amtsgeschäfte führt derzeit die Erste Beigeordnete Gisela Bertram. Im Rahmen der Kommunalwahlen am 25. Mai 2014 wurde Frank Puchtler (SPD) mit 55,5 Prozent zum neuen Landrat gewählt. Straßenverkehr. Kfz-Kennzeichen ist "EMS". Seit dem 8. Juli 2013 werden zudem wieder "DIZ" (ehemals Unterlahnkreis mit Sitz in Diez) sowie "GOH" (ehemals Loreleykreis mit Sitz in Sankt Goarshausen) vergeben. Das Kreisgebiet wird von mehreren Bundesstraßen, Landesstraßen und Kreisstraßen erschlossen, darunter die rechtsrheinische B 42, die B 54 im Aartal von Diez nach Wiesbaden, ferner die B 260 von Lahnstein bis nach Wiesbaden, die B 274 von Holzhausen a. d. Haide bis Sankt Goarshausen und die B 417 von Nassau nach Diez. Zwischen Eppenrod und Nentershausen (Westerwald), knapp westlich der "Anschlussstelle Diez" der Bundesautobahn 3, führt diese auf dem Weg von Frankfurt nach Köln durch einen Nordostzipfel des Kreisgebietes, wenn auch nur für wenige Hundert Meter, und dient so dem Anschluss des Rhein-Lahn-Kreises an das Autobahnnetz. Eisenbahnverkehr. Die Nassauische Rhein- und Lahn-Eisenbahn-Gesellschaft, ab 1861 Nassauische Staatsbahn, erbaute die erste Bahnlinie in diesem Gebiet von Oberlahnstein im Lahntal aufwärts unter erheblichen Schwierigkeiten 1858 bis Bad Ems, 1860 weiter bis Nassau und 1862 schließlich bis Limburg. Im selben Jahr erreichte auch die von Wiesbaden rheinabwärts führende Strecke die Station Oberlahnstein und 1864 Niederlahnstein. Hier fand sie 1869 den Anschluss an die Rheinische Eisenbahn-Gesellschaft weiter nach Neuwied–Köln. Den Übergang über den Rhein von Niederlahnstein nach Koblenz und die Umgehung von Oberlahnstein fügte erst 1879 die Preußische Staatsbahn hinzu. Diese Gesellschaft nahm auch 1870 die Aartalbahn Diez–Zollhaus in Betrieb, die 1894 in Richtung Bad Schwalbach verlängert wurde. Im Jahre 1888 entstand der Bahnhof Diez Ost durch eine Verlegung der Trasse zwischen Limburg und Staffel, auf der die Züge in den Westerwald nach Westerburg und Montabaur fuhren. In den Jahren 1900 bis 1903 wurde der Landstrich zwischen Rhein und Lahn von der Nassauischen Kleinbahn AG durch drei Schmalspurbahnen erschlossen. Das Netz von 77 km Länge hatte seinen Mittelpunkt in Nastätten, von wo aus die Staatsbahnlinien in Braubach, Sankt Goarshausen und Zollhaus zu erreichen waren. Wenige Jahre lang verkehrten die Kleinbahnzüge sogar von Braubach bis Oberlahnstein. Diese – damals selbstständige – Stadt war von 1933 bis 1956 durch eine Linie der Coblenzer Straßenbahn AG mit Koblenz über Niederlahnstein verbunden, das schon 1902 an das Straßenbahnnetz angeschlossen worden war. Das Gesamtnetz der normalspurigen Eisenbahnen mit Personenverkehr im heutigen Kreisgebiet erreichte im Jahre 1894 mit 110 km seine größte Ausdehnung; dazu kam bis 1903 noch das gesamte Schmalspurnetz der Nassauischen Kleinbahn AG im Umfang von 77 km. Hier kam es schon am Ende des Ersten Weltkrieges (1917–1920) zu ersten Betriebseinstellungen. Bis 1952/53 wurde noch ein recht bescheidener schmalspuriger Personenverkehr angeboten. Hingegen blieb das Bundesbahnnetz, bis auf 13 km der „Aartalbahn“ und die 3 km lange Verbindungsbahn bei Oberlahnstein, voll in Betrieb. Neben der Deutschen Bahn AG bedient seit Dezember 2004 auch die Vectus Verkehrsgesellschaft – vor allem im Lahntal (Lahntalbahn) – den Personenverkehr. Der Rhein-Lahn-Kreis ist Mitglied im Verkehrsverbund Rhein-Mosel (VRM), dessen ÖPNV-Tarifgebiet einen großen Teil des nördlichen Rheinland-Pfalz umfasst. Städte, Verbands- und Ortsgemeinden. Der Rhein-Lahn-Kreis umfasst eine verbandsfreie Gemeinde und 137 Ortsgemeinden, von denen letztere sieben Verbandsgemeinden zugehörig sind. Die größte Stadt ist Lahnstein mit  Einwohnern, die kleinste Ortsgemeinde ist Ehr mit  Einwohnern. Im Folgenden sind die verbandsfreie Gemeinde und die Verbandsgemeinden mit ihren verbandsangehörigen Ortsgemeinden mitsamt Einwohnerzahlen per aufgelistet. (Die Verwaltungssitze der Verbandsgemeinden sind mit einem Stern markiert.) Listen zu dem Begriff „Gebietsveränderungen“ siehe Gebietsreformen in Rheinland-Pfalz Kfz-Kennzeichen. Bei der Bildung des neuen Landkreises wurde am 7. Juni 1969 das Unterscheidungszeichen "EMS" zugeteilt. Es wird bis heute ausgegeben. Seit dem 8. Juli 2013 sind im Rahmen der Kennzeichenliberalisierung auch die früheren, vom 1. Juli 1956 bis 6. Juni 1969 ausgegebenen Unterscheidungszeichen "DIZ" (Diez) und "GOH" (Sankt Goarshausen) wieder erhältlich. Roter Zwerg. Rote Zwerge sind die kleinsten Sterne, in deren Zentrum Wasserstoffbrennen (Kernfusion von 1H) stattfindet. Etwa drei Viertel aller Sterne sind Rote Zwerge. Sie leuchten so lichtschwach, dass kein einziger von der Erde aus mit bloßem Auge gesehen werden kann. Merkmale. Rote Zwerge sind Hauptreihensterne am kühlen (d. h. in üblicher Darstellung des Hertzsprung-Russell-Diagramms unteren) Ende der Hauptreihe. Aus historischen Gründen werden sie manchmal auch als späte Hauptreihensterne bezeichnet, weil früher irrtümlich angenommen wurde, dass Sterne sich im Verlauf ihrer Entwicklung zu Spektralklassen kühlerer Oberflächentemperatur entwickeln würden. Der Begriff des Roten Zwerges ist keine präzise wissenschaftliche Kategorie, sondern wird umgangssprachlich benutzt. Anders als bei der unteren Massegrenze, die durch die Mindestvoraussetzung für den physikalischen Prozess des Wasserstoffbrennens im Kern gegeben ist (und somit Rote Zwerge gegen Braune Zwerge abgrenzt), besteht keine definitorische Einigkeit über die genaue Abgrenzung zu heißeren Sternen. Sicher gehören alle Hauptreihensterne der Spektralklasse M zu den Roten Zwergen, gelegentlich werden auch Sterne bis zum mittleren K-Typ (K5) dazugerechnet. Andere in der Literatur benutzte Kriterien sind eine Effektivtemperatur von ca. 2500 bis 4000 K, eine absolute Helligkeit von weniger als MV = +7,5, oder das Auftreten von molekularen Absorptionsbanden im Spektrum. In jedem Fall beinhaltet die so definierte Klasse die Mehrheit aller Sterne, etwas variierend je nach genauer Definition. Grob kann man allerdings sagen, dass etwa drei Viertel aller Sterne Rote Zwerge sind. Die Masse von Roten Zwergen beträgt somit zwischen etwa 7,5 und je nach Definition einem oberen Grenzwert zwischen etwa 40 und 60 Prozent der Sonnenmasse. Bei einer kleineren Masse käme keine Wasserstofffusion zustande, es läge ein Brauner Zwerg vor. Die Masse eines typischen Roten Zwerges der Spektralklasse M beträgt in etwa 10 Prozent der Sonnenmasse und der Radius ca. 15 Prozent des Sonnenradius. Bedingt durch die geringe Masse verläuft bei Roten Zwergen die Umwandlung von Wasserstoff in Helium (Kernfusion durch die Proton-Proton-Reaktion) im Vergleich zu schwereren Sternen wie der Sonne pro Masseneinheit wesentlich langsamer. Daher beträgt die Leuchtkraft von Roten Zwergen nur etwa 0,01 % bis 5 % der der Sonne. Da die Oberfläche eines Roten Zwerges zwar kleiner als die der Sonne ist, aber nicht in gleichem Maße wie die Energieerzeugung, liegt auch die Energieabstrahlung pro Oberflächeneinheit unter der der Sonne. Damit errechnet sich nach dem (für Sterne näherungsweise anwendbaren) Planckschen Strahlungsgesetz eine niedrigere Oberflächentemperatur, und Strahlung wird überwiegend als langwelliges Licht und als Infrarotstrahlung emittiert. Tatsächlich liegen die Oberflächentemperaturen von Roten Zwergen zwischen 2200 und 3800 Kelvin (Sonne etwa 5800 Kelvin). Damit erscheinen sie im direkten Vergleich zur Sonne rötlicher (deshalb der Name), aber nicht wirklich rot, ihr Licht ähnelt für das menschliche Auge dem von Glühlampen (2300–2900 K) und ist für die heißeren der Roten Zwerge sogar deutlich weißer. Weitere Entwicklung. Es wird angenommen, dass Rote Zwerge mit einer Masse von weniger als 35 % der Sonnenmasse bzw. mit einer späteren (numerisch höheren) Spektralklasse als M3,5 vollständig konvektiv sind. Dies bedeutet, dass aufgrund der Lichtundurchlässigkeit des dichten Sterneninneren im Inneren entstandene Photonen die Oberfläche nicht erreichen, sondern die Energie durch Konvektion vom Kern zur Oberfläche weitergeleitet wird. Somit sammelt sich Helium nicht im Kern an, wie es bei schwereren Hauptreihensternen der Fall ist. Deshalb können sie prozentual mehr Wasserstoff verschmelzen, bevor sie die Hauptreihe verlassen. Dies ist ein Faktor für die lange Lebenszeit der Roten Zwerge. Diese reicht, abhängig von der Masse (je geringer, desto länger ist die Aufenthaltsdauer in der Hauptreihe), von mehreren 10 Milliarden bis zu Billionen von Jahren. Da bereits der untere Wert größer ist als das Weltalter (ca. 13,5 Milliarden Jahre), hat bisher kein Roter Zwerg die Hauptreihe verlassen, während laufend neue entstehen. Dies erklärt den großen Anteil der Roten Zwerge an der Gesamt-Sternanzahl. Wenn der Wasserstoff im Inneren zu Helium fusioniert und erschöpft ist, schrumpft der Stern. Die gravitative Energie, die dadurch frei wird, wird in Wärme umgewandelt und ebenfalls durch Konvektion nach außen geleitet. Für einige Zeit funktioniert noch das sogenannte Schalenbrennen von Wasserstoff zu Helium. Danach erreicht der Rote Zwerg das Stadium einer Sonderform des Weißen Zwerges, der überwiegend aus Helium besteht und kaum schwerere Elemente enthält (nämlich die praktisch unveränderte bei der Sternentstehung vorhandene Menge). Da bisher wegen des zu geringen Weltalters kein Roter Zwerg dies Stadium auf normalem Weg erreichen konnte, werden solche speziellen Weißen Zwerge nicht beobachtet, sondern ihre Eigenschaften nur in der Theorie beschrieben. Rote Zwerge werden nicht zu Roten Riesen, da eine Fusion von Helium aufgrund der geringen Masse nicht möglich ist. Beobachtung. Rote Zwerge sind sehr lichtschwach. Daher kann kein einziger von ihnen mit bloßem Auge gesehen werden. Der dem Sonnensystem nächstgelegene Stern ist der Rote Zwerg Proxima Centauri vom Spektraltyp M5 mit einem derzeitigen Abstand von 4,24 Lichtjahren und einer scheinbaren Helligkeit von 11,01m. Von den 30 nächstgelegenen Sternen sind 20 Rote Zwerge. Einige Rote Zwerge zeigen in unregelmäßigen Abständen starke Flares, welche die Helligkeit des Sterns selbst weit übertreffen können. Diese werden als Veränderliche Sterne der Klasse UV-Ceti bezeichnet. Können dagegen nur Sternflecken auf der Oberfläche des Roten Zwerges nachgewiesen werden, so gehören sie zu den BY-Draconis-Sternen. Beides sind Folgen eines aktiven Dynamos, der aufgrund eines konvektiven Energietransports in Kombination mit einer differentiellen Rotation zu einer stellaren Aktivität führt. Diese erscheint bei den Roten Zwergen besonders ausgeprägt, da aufgrund ihrer geringen absoluten Helligkeit die Phänomene der stellaren Aktivität starke relative Helligkeitsänderungen zeigen. Wegen ihrer geringen Helligkeit können einzelne Rote Zwerge kaum über große intergalaktische Distanzen beobachtet werden. Altersbestimmungen durch Rote Zwerge. Die Tatsache, dass Rote Zwerge und andere Zwergsterne lange auf der Hauptreihe verweilen, während massivere Sterne diese schon verlassen haben, erlaubt die Schätzung des Alters von Sternhaufen. Dabei wird versucht, die Grenzmasse der Sterne zu finden, die sich noch auf dem Hauptast befinden. Dadurch lässt sich der untere Wert des Alters der Sterne feststellen. Ebenso kann dadurch das Zeitalter der Bildung von Formationen in der Milchstraße, wie dem galaktischen Halo und der galaktischen Scheibe bestimmt werden. Astronomische Bedeutung. Momentan spielen Rote Zwerge nur eine minimale Rolle im Energiehaushalt des Universums, obwohl rote Hauptreihensterne vermutlich die am meisten verbreitete Sternengattung sind. Dadurch, dass sie so häufig vorkommen und so lichtschwach sind, erscheinen sie recht unauffällig. Es wird angenommen, dass sie bedingt durch ihre sehr lange Lebenszeit und die gegen Ende des Wasserstoffbrennens zunehmende Leuchtkraft langfristig eine große Rolle spielen werden. In Zukunft wird es einen generellen Rückgang der Entstehung neuer Sterne geben. Die Roten Zwerge werden selbst zu einem Zeitpunkt, wenn der Rest weitgehend nur noch aus „toter Materie“ in Form von Schwarzen Löchern, Neutronensternen und verblassenden Weißen Zwergen besteht, noch als selbstleuchtende Objekte im Universum existieren. Es wurde noch kein sterbender Roter Zwerg entdeckt, da das Universum erst 13,7 Milliarden Jahre alt ist. Dies könnte ein mögliches Indiz für die Endlichkeit des Universums sein. Ein Rätsel, das bis heute noch nicht gelöst ist, ist das Fehlen von roten Sternen, die keine Metalle enthalten (andere Elemente als Wasserstoff und Helium). Die erste Generation von Sternen dürfte nach der Urknall-Theorie nur aus Wasserstoff, Helium und Spuren von Lithium bestehen. Entstanden zu dieser Zeit Rote Zwerge, müssten sie heute noch existieren. Jedoch wurde kein Roter Zwerg gefunden, der nur aus den genannten Elementen besteht. Die bevorzugte Erklärung dafür ist, dass ohne schwere Elemente nur große und bis heute unbeobachtete Sterne der Sternpopulation III entstehen konnten, die ihren Energievorrat schnell aufbrauchten. Dabei hinterließen sie Elemente, aus denen sich Rote Zwerge bilden konnten. Eine andere Möglichkeit wäre, dass Rote Zwerge ohne Metalle dunkel und selten seien. Da dies dem Evolutionsmodell von Sternen widerspricht, wird diese Theorie als unwahrscheinlich betrachtet. Planeten. Seit 2005 wurden zahlreiche Planeten entdeckt, die Rote Zwerge umkreisen. Lebenszone. Die Bewohnbarkeit von Planeten Roter Zwerge ist Thema einiger Diskussionen. Trotz ihres häufigen Vorkommens und der langen Lebenszeit dieser Sterne gibt es mehrere Faktoren, die das Leben auf einem solchen Planeten schwierig machen könnten. Erstens müssten Planeten sehr nahe am Hauptstern sein, etwa im Bereich zwischen 0,04 und 0,2 AE vom Stern entfernt, um sich in der Ökosphäre zu befinden. Ein Planet müsste sozusagen auf Tuchfühlung zu seinem Mutterstern gehen, um genügend Licht und Wärme zu erhalten. Infolge dieser Nähe würde der Planet jedoch durch die Gezeitenkräfte eine gebundene Rotation um den Stern vollführen. Das bedeutet, dass eine Seite des Planeten immer dem Stern zugewandt wäre und auf der anderen immerwährende Nacht herrschte. Das könnte enorme Temperaturunterschiede zwischen Tag- und Nachtseite bewirken. Unter solchen Bedingungen könnte es schwierig sein, dass sich Leben entwickelt. Andererseits besagen neuere Theorien, dass eine dichte Atmosphäre oder ein großer, den Planeten umspannender Ozean möglicherweise die vom Stern empfangene thermische Energie um den gesamten Planeten transportieren könnten. Solche weltumspannenden Ozeane wurden in einer Analyse von Joshi aus dem Jahr 2003 als möglich angesehen. Es ist anzunehmen, dass auf der hellen Seite solcher Planeten hohe Niederschlagsmengen auftreten würden, aber trotz ausgeprägter stationärer Konvektionsprozesse nur vergleichsweise geringe Windgeschwindigkeiten von ungefähr 10–20 m/s. Die dunkle Seite wäre in diesem Szenario wahrscheinlich bis auf die Gebiete in der Nähe der Dämmerungszone (Übergang zwischen Tag- und Nachtseite des Planeten) sehr regenarm. Die Reichweite hinge dabei von der Stärke und Geschwindigkeit der atmosphärischen Strömungen ab. Die Niederschlagsmenge auf der Nachtseite würde mit wachsendem Abstand zur Dämmerungszone rasch sinken. Die Temperaturunterschiede zwischen Tag- und Nachtseite sind von der Wassermenge des Planeten abhängig. Bei einem trockenen Planeten wären die Unterschiede größer als bei einem Planeten mit viel Wasser. Ein anderes potentielles Problem ist, dass Rote Zwerge den Großteil ihrer Strahlung im infraroten Bereich aussenden. Irdische Pflanzen verwenden jedoch hauptsächlich Energie aus dem sichtbaren Bereich des Lichtspektrums, allerdings gibt es Purpurbakterienarten, die theoretisch mit langwelligem Licht für ihre Photosynthese auskommen könnten. Für potenzielle Wasserpflanzen kommt erschwerend dazu, dass Wasser für langwelliges Licht stark absorbierend ist. Schon in geringer Wassertiefe herrscht komplette Dunkelheit. Das vielleicht größte Problem wäre die Variabilität des Sternes. Rote Zwerge sind oft von Sternflecken („Sonnenflecken“) bedeckt, wodurch die Sternenstrahlung monatelang um bis zu 40 % verringert wird. Andererseits können einige Rote Zwerge gewaltige Flares ausstoßen, die die Helligkeit des Sterns innerhalb von Minuten verdoppeln können. Auch durch diese Veränderlichkeit könnten sich für das Leben in der Nähe eines Roten Zwerges Schwierigkeiten ergeben. Genauere Untersuchungen beziehen Eigenschaften der Planeten in die Betrachtungen mit ein. Hier ergibt sich gerade durch die Infrarotstrahlung eine um bis zu 30 % vergrößerte habitable Zone für Planeten, die zumindest zum Teil mit Wassereis oder Schnee bedeckt sind. Grund hierfür ist, dass Wassereis im infraroten Spektrum mehr Strahlungsenergie absorbiert als im Bereich des sichtbaren Lichts, was zu einer stärkeren Aufheizung des Planeten führt. Rheingau-Taunus-Kreis. a> eines der bedeutenden Gedenkbauwerke Deutschlands (Aufnahme von 2014 nach der Sanierung) Der Rheingau-Taunus-Kreis ist ein Landkreis im Regierungsbezirk Darmstadt in Hessen. Kreisstadt ist Bad Schwalbach, die zwei Verwaltungsaußenstellen befinden sich in Rüdesheim am Rhein und Idstein. Der Kreis entstand 1977 aus einem Zusammenschluss von Rheingaukreis und Untertaunuskreis. Eine Besonderheit stellt dar, dass von der Einwohnerzahl her gesehen die Kreisstadt Bad Schwalbach nur die siebtgrößte Gemeinde des Landkreises ist. Lage. Das Kreisgebiet umlagert die Westhälfte des Taunushauptkamms, wobei der ehemalige Kreisteil Untertaunus sich nördlich von Wiesbaden im westlichen Hintertaunus erstreckt. Am Ostrand des Kreisgebietes, schon in Nähe des Großen Feldbergs, liegt der hohe Windhain als höchste Erhebung. Südwestlich des Untertaunus und jenseits des tief eingeschnittenen Walluftals gruppiert sich der Rheingau nördlich und südlich um das Rheingaugebirge mit Siedlungsschwerpunkt und Weinanbau in Rheinufernähe und im Taunusvorland. Nördlich davon erstrecken sich im Rheingaugebirge und im Wispertaunus ausgedehnte Waldgebiete, die zu den größten in Hessen zählen. Der Rhein bildet die südliche und südwestliche Kreis- und Landesgrenze. Der westlichste Teil des Kreises gehört zum Welterbe Kulturlandschaft Oberes Mittelrheintal. Flächennutzung. Die Waldfläche erreicht als Nutzungsart mit 55,7 Prozent einen in Hessen weit überdurchschnittlichen Anteil. Die Größe der Wasserfläche ist bemerkenswert und übertrifft mit knapp 15 Quadratkilometern die Fläche des Edersees um fast 30 Prozent. Geschuldet ist dieser Reichtum an Wasserflächen dem Anteil des Rheingau-Taunus-Kreises am Inselrhein, der in Höhe des Rheingaus eine Breite von stellenweise 1000 Metern erreicht. Die Kreisgrenze liegt in der Mitte des historischen Hauptfahrwassers. Nachbarkreise. Nachbarkreise sind im Uhrzeigersinn im Norden beginnend die Landkreise Limburg-Weilburg, Hochtaunuskreis und Main-Taunus-Kreis und die kreisfreie Stadt Wiesbaden (alle in Hessen). Im Süden und Südwesten bildet der Rhein die natürliche Grenze zum Land Rheinland-Pfalz. Dort liegt links des Rheins der Landkreis Mainz-Bingen. Im Nordwesten grenzt er an den rheinland-pfälzischen Rhein-Lahn-Kreis. Geschichte. Der ehemals fränkische Rheingau gehörte von 983 bis 1803 zum Erzstift Mainz und kam dann an das Herzogtum Nassau. Der Untertaunus gehörte westlich der Aar zur Niedergrafschaft Katzenelnbogen und im Übrigen zum Fürstentum Nassau. Nach einem das ehemalige Pays réservé betreffenden Gebietstausch mit Kurhessen im Jahr 1816 war das ganze heutige Kreisgebiet Teil des Herzogtums Nassau. Infolge des Deutschen Krieges von 1866 wurde Nassau vom Königreich Preußen annektiert. Es entstand die Provinz Hessen-Nassau. 1867 wurde die Provinz in Kreise eingeteilt und es entstanden so der Rheingaukreis mit Kreissitz in Rüdesheim am Rhein und der Untertaunuskreis mit Kreissitz in Langenschwalbach, heute Bad Schwalbach. Sie bestanden auch weiter, als das Gebiet nach dem Zweiten Weltkrieg zum Land Hessen kam. Im Rahmen der Gebietsreform in Hessen wurden beide Kreise am 1. Januar 1977 zum Rheingau-Taunus-Kreis vereinigt. Die frühere Gemeinde Niedernhausen mit dem Ortsteil Königshofen kam aus dem Main-Taunus-Kreis hinzu und wurde mit Gemeinden im Untertaunuskreis zu einer Gemeinde mit dem Namen "Niedernhausen" zusammengeschlossen. Kreisstadt wurde das zentral gelegene Bad Schwalbach. Landräte. Seit dem 5. Juli 2005 ist Burkhard Albers (SPD) Landrat des Rheingau-Taunus-Kreises. In einer Stichwahl am 10. April 2011 wurde er mit 60,2 Prozent der Stimmen im Amt bestätigt. Partnerschaften. Der Rheingaukreis bzw. der Rheingau-Taunus-Kreis pflegt seit 1972 eine Patenschaft mit dem Bezirk Wilmersdorf bzw. seit 2001 Charlottenburg-Wilmersdorf in Berlin, die 1991 zur Partnerschaft wurde. Dazu gehört auch seit 1984 der Weinberg im Stadion Wilmersdorf mit Rebstöcken aus dem Rheingau. Je 100 Reben der Sorten Weißer Riesling und Ehrenfelser werden von den Winzern aus dem Rheingau gekeltert. Aus diesen wird die Wilmersdorfer Rheingauperle, die zu besonderen Anlässen gereicht wird. Erste Ernte war im Herbst 1986. Wer zwischen Mitte Mai und Mitte September nach Berlin reist, kann die Rheingau-Winzer auf dem Rüdesheimer Platz, dem Zentrum des Rheingauviertels in Berlin-Wilmersdorf mit ihrem Weinbrunnen erleben. Wirtschaft. Der internationale Bekanntheitsgrad der Region beruht auf dem Qualitätsweinbau im Rheingau in Verbindung mit der Rheinromantik. Rheingauer Spitzenweine, insbesondere der Riesling-Weißwein, genießen Weltruf. Daneben ist Assmannshausen für seinen Spätburgunder-Rotwein bekannt. Die Verbindung von Weinkultur und Rheinromantik ist ein wesentlicher Motor für den Tourismus, der sowohl Tagesausflügler aus dem Rhein-Main-Gebiet als auch Urlaubsreisende anzieht. Damit ist er ein wichtiger Wirtschaftszweig der Region, dessen Schwerpunkt Rüdesheim, Assmannshausen und das Niederwalddenkmal sind. Für den Großteil des Landkreises, der nicht zum Weinanbaugebiet Rheingau zählt, wurde der Naturpark Rhein-Taunus ins Leben gerufen mit dem Ziel, den Menschen eine naturnahe Erholung zu ermöglichen. Der Untertaunus ist hingegen durch allgemeine Landwirtschaft und kleine und mittlere Gewerbebetriebe geprägt. Viele Bewohner aus beiden Kreisteilen pendeln nach Wiesbaden und Frankfurt am Main. Im Kreisgebiet gibt es drei Hochschulen; in Geisenheim befindet sich die Hochschule Geisenheim, in Idstein die Hochschule Fresenius und im Oestrich-Winkeler Stadtteil Oestrich die EBS Universität für Wirtschaft und Recht. Verkehr. Rheinpegel an der Bundesstraße 42 bei Stromkilometer 513. Die Anzeige am Pegelstab reicht bis 6,00 Meter. Bei 5,46 Meter wird hier die Fahrbahn überspült, bei 6,08 Meter steht die Leitplanke unter Wasser. Im Jahr 1988 wurde hier ein Pegel von 5,80 Meter erreicht. Der Rhein bei Erbach im Rheingau mit der größten Rheininsel Mariannenaue Die einzige Bundesautobahn die durch den Landkreis führt, ist im Osten die A 3. Sie durchquert ihn im Abschnitt Köln–Frankfurt am Main von Norden nach Süden mit den Anschlussstellen Idstein und Wiesbaden/Niedernhausen. Die A 66 geht an der Anschlussstelle Wiesbaden-Frauenstein in die Bundesstraße 42 über, die bis Erbach (Rheingau) vierstreifig ausgebaut ist. Von da an verläuft sie, außer in der Ortsdurchfahrt Rüdesheim, als Umgehungsstraße am Rhein entlang Richtung Koblenz. Sie liegt auf einem aufgeschütteten Fahrdamm im Überschwemmungsgebiet, ist aber bei Hochwasser dennoch von Überflutung bedroht. Die erste überflutete Stelle ist ein kurzes Stück mit abgesenkter Fahrbahn zwischen Oestrich und Mittelheim. Weitere Bundesstraßen im Kreisgebiet sind die B 8, B 54, B 260, B 275 und B 417. Entlang der A 3 führt seit 2002 die Trasse der Schnellfahrstrecke Köln–Frankfurt ohne Halt durch den Kreis. Nächstgelegene ICE-Haltestellen sind Wiesbaden Hbf, Mainz Hbf, Frankfurt (Main) Hbf, Limburg Süd und Koblenz Hbf. Das Kreisgebiet wird durch zwei Bahnlinien erschlossen, zum einen durch die Rechte Rheinstrecke, die den Rheingau mit Wiesbaden und Koblenz verbindet, und zum Anderen die Main-Lahn-Bahn zwischen Frankfurt bzw. Wiesbaden und Limburg mit vier Haltestellen im Kreis. Die Aartalbahn, die die Kreisstadt Bad Schwalbach mit Wiesbaden verbunden hat, ist seit 1983 bis auf einen Museumsbahnbetrieb der Nassauischen Touristik-Bahn stillgelegt. Im Süden und Westen hat der Rheingau-Taunus-Kreis Anteil am Rhein als einer internationalen Wasserstraße. Die Kreisgrenze liegt im Prinzip in der Mitte der Fahrrinne und schließt so einige Inseln mit ein. Die größte dieser Inseln ist die Mariannenaue bei Erbach und Hattenheim. Die einzige Rheinbrücke im Kreisgebiet, die Hindenburgbrücke, wurde im Zweiten Weltkrieg zerstört und nicht wieder aufgebaut. Autofähren über den Rhein gibt es von Oestrich-Winkel nach Ingelheim, von Rüdesheim nach Bingen und von Lorch nach Niederheimbach. Bei Rüdesheim gibt es einen Schutzhafen mit Wasserschutzpolizeistation. Anlegestellen für die Linienschifffahrt der Köln-Düsseldorfer befinden sich in Eltville, Rüdesheim, Assmannshausen und Lorch. Daneben bieten mehrere hier ansässige Unternehmen fahrplanmäßige Ausflugsfahrten an. In Rüdesheim befinden sich zudem mehrere Liegeplätze für Kabinenschiffe, die auf Flusskreuzfahrt hier festmachen. Die "Rheingau-Taunus-Verkehrsgesellschaft" (RTV) ist die lokale Nahverkehrsgesellschaft des Rheingau-Taunus-Kreis. Sie ist Gesellschafterin des Rhein-Main-Verkehrsverbundes. Gesundheitseinrichtungen. Im Rheingau-Taunus-Kreis gibt es mehrere Krankenhaus-Standorte. Ein Kreiskrankenhaus befindet sich jeweils in Bad Schwalbach und in Idstein. In Rüdesheim am Rhein steht das katholische Krankenhaus St. Josef. Bei Eltville sind die Klinik für Psychiatrie und Psychotherapie Eichberg und die Klinik für Kinder- und Jugendpsychiatrie Rheinhöhe gelegen und in Kiedrich gibt es das St. Valentinus-Krankenhaus. In Idstein liegt die Behinderten- und Jugendhilfeeinrichtung Kalmenhof. Der Rettungsdienst im Kreisgebiet wird im Auftrag des Kreises durch den Malteser Hilfsdienst, das Deutsche Rote Kreuz und den Arbeiter-Samariter-Bund durchgeführt und von der Zentralen Feuerwehr- und Rettungsleitstelle in Bad Schwalbach koordiniert. Über Rettungswagen verfügen die Rettungswachen in Die Standorte der Notarzteinsatzfahrzeuge sind Bibliotheken. Einige Rheingau-Taunus-Bibliotheken (Stadtbücherei Bad Schwalbach, Mediathek Eltville am Rhein, Stadtbücherei Geisenheim, Gemeindebücherei Kiedrich und Gemeindebücherei Walluf) haben als erste öffentliche Bibliotheken in Hessen ein Verbundnetzwerk geschaffen, in welchem ein Fernleihsystem zwischen den teilnehmenden Bibliotheken integriert ist. Auch wurde ein gemeinsamer Online-Verbundkatalog erstellt. Das Bibliotheksportal des Rheingau-Taunus-Kreises wird als Biporta bezeichnet. Kfz-Kennzeichen. Am 15. Januar 1980 wurde dem gesamten Landkreis das seit 1956 für den Rheingaukreis von dessen Kreisstadt Rüdesheim am Rhein hergeleitete Unterscheidungszeichen "RÜD" zugewiesen. Zuvor wurde im Untertaunus das Kürzel "SWA" des ehemaligen Untertaunuskreises weitergenutzt. Seit dem 15. August 2013 ist im Zuge der Kennzeichenliberalisierung neben "RÜD" auch "SWA" wieder erhältlich. Risotto. Der oder das Risotto (oder süditalienisch) ist ein norditalienisches Breigericht aus Reis, das in vielen Variationen zubereitet wird. Kennzeichnend für fast alle Zubereitungsarten ist, dass Mittelkornreis mit Zwiebeln und Fett angedünstet wird und in Brühe gart, bis das Gericht sämig, die Reiskörner aber noch bissfest sind. Je nach Rezept kommen noch Wein, Pilze, Meeresfrüchte, Fleisch, Gemüse, Gewürze und Käse (meist Parmesan) hinzu. Reis ist seit der Renaissance in Italien bekannt und wird vorwiegend in der Poebene angebaut. Die bekanntesten für Risotto geeigneten Sorten sind "Arborio", "Vialone", Maratelli und "Carnaroli". Bruchreis, der häufig als "Milchreis" verkauft wird, ist nicht geeignet, da er bei der Zubereitung nicht die gewünschte Konsistenz erhält. Langkornreis ist, unabhängig von der Qualität, für Risotto kaum geeignet, da er bissfest gegart zu wenig der für die sämige Konsistenz verantwortlichen Stärke freisetzt. Risotto wird wie Pasta als erster Hauptgang ("primo piatto") oder als Beilage zu einem Schmorgericht wie z. B. "Risotto alla milanese" zu Kalbshaxe (Ossobuco alla milanese) serviert. Grundrezept. Zur Zubereitung werden gehackte Zwiebeln in Fett glasig gedünstet, trockener Reis hinzugefügt und etwas angeschwitzt. Dann wird mit heißer Fleisch- oder Geflügelbrühe abgelöscht, oft auch zu Anfang mit Wein. Während der Garzeit muss immer wieder kochend heiße Flüssigkeit zugegeben und umgerührt werden. Der fertige Risotto soll je nach Rezept noch mehr oder weniger suppig sein, der Reis außen cremig und innen bissfest. Zum Abschluss wird etwas Butter und bei den meisten Rezepten frischer Parmesan hinzugegeben. Risotto bianco. "Risotto bianco" (weißer Risotto als Beilage) wird nach Grundrezept zubereitet. Zu den Zwiebeln kommt zusätzlich etwas frischer Salbei, abgelöscht wird mit einem Glas Weißwein. Der Risotto wird mit Butter und Parmesan vollendet. Risotto alla milanese. "Risotto alla milanese" (der klassische Safranreis nach Mailänder Art) wird mit Safranfäden gefärbt, zum Anschwitzen der Zwiebeln wird Rinderknochenmark verwendet, was dem Gericht zusammen mit dem Safran sein typisches Aroma verleiht. Weitere Zutaten sind Butter und Parmesan am Schluss. Darüber, ob Wein verwendet werden sollte, sind die Meinungen geteilt. Wenn ja, ist die traditionelle Methode, den angedünsteten Reis mit einem Glas Rotwein (in modernen Rezepten auch Weißwein) abzulöschen, bevor die Brühe hinzugefügt wird. Als beste Brühe gilt die, die bei der Zubereitung von Bollito misto, einem üppigen Siedefleisch aus Huhn, Rind und Kalb entsteht. Zur Entstehung des Risotto alla milanese gibt es verschiedene Legenden. So soll einem Glaskünstler beim Bemalen der Fenster des Mailänder Doms etwas Safranfarbe in den Reistopf gefallen sein oder durch das Färben mit Safran sei versucht worden, den mit Blattgold überzogenen Reis der Reichen zu imitieren. Risotto agli asparagi. "Risotto agli asparagi" (Risotto mit Spargel) wird meist mit grünem Spargel zubereitet. Die Spitzen werden abgeschnitten, die Stangen ohne Spitzen in Salzwasser gekocht und der Kochsud anstelle von Brühe für den Risotto verwendet (die Stangen selbst finden in dem Risotto keine Verwendung). Die Spargel-Spitzen werden anschließend und kürzer gekocht. Sie werden zum Ende der Zubereitung nach der Butter und dem Parmesan in den Risotto gegeben. Risotto nero. "Risotto nero" (schwarzer Risotto) wird mit kleinen Tintenfischen zubereitet. Die Farbe erhält er von deren Tintenbeuteln. Die geputzten Tintenfische werden in Streifen geschnitten mit Zwiebeln, Knoblauch und Petersilie in Olivenöl gedünstet, mit Weißwein abgelöscht und gegart. Anschließend wird der Reis und die Tinte hinzugefügt. Die weitere Zubereitung erfolgt nach dem Grundrezept. Als Flüssigkeit wird Fischfond verwendet. Statt Butter und Käse wird am Schluss nur reichlich schwarzer Pfeffer hinzugegeben. Als Beilage kann Risotto nero auch nur mit Tinte – ohne Tintenfische – zubereitet werden. In manchen Fischgeschäften ist Tinte abgepackt erhältlich. Risotto ai funghi. "Risotto ai funghi" (Risotto mit Pilzen) wird wie Risotto bianco zubereitet. Statt Salbei werden geschnittene Steinpilze oder andere Speisepilze mit den Zwiebeln angedünstet und mit Weißwein abgelöscht. Es können auch Trockenpilze verwendet werden. Risi e bisi. "Risi e bisi" (Reis mit Erbsen; auch "Risibisi" oder "Risi-Pisi" genannt) ist ein Klassiker der venezianischen Küche, der jährlich am St.-Markus-Tag dem Dogen als erster Gang serviert wurde. Zur Zubereitung werden Speck, Zwiebeln und Petersilie in einer Mischung aus Olivenöl und Butter angeschwitzt, die jungen Erbsen und wenig starke Fleischbrühe (evtl. mit Fleischextrakt) hinzugegeben und alles eine kurze Zeit gedünstet. Dann wird mit kochender Fleischbrühe aufgefüllt, der Reis dazugegeben und gegart. Nach dem Abschmecken mit Salz, Pfeffer und Zucker werden noch Butter und Parmesan untergemischt. Sehr junge Erbsen können mit den Schoten verwendet werden. Réunion. Flagge Frankreichs Flagge Frankreichs 125px Flagge des Regionalrats ! colspan="2" | Wappen von RéunionWappen von La Réunion La Réunion oder kurz Réunion (volle französische Bezeichnung "Île de la Réunion", deutsch etwa „Insel der Zusammenkunft“) ist eine Insel im Indischen Ozean, die politisch ein Übersee-Département sowie eine Region Frankreichs bildet und damit zur Europäischen Union gehört. Bis 1794 hieß die Insel "Île Bourbon", unter Napoleon "Île Bonaparte", dann bis 1848 wieder "Île Bourbon". Lage. Réunion liegt knapp 700 km östlich von Madagaskar und gehört mit dem 200 km entfernten Mauritius sowie Rodrigues zu den Maskarenen, einer Inselgruppe, die 1511 von Pedro Mascarenhas entdeckt wurde. Größe. Die Insel hat eine Fläche von 2503,7 km². Sie ist in ihrem Umriss nahezu oval und hat einen Durchmesser von 50 bis 70 km. Das entspricht ungefähr der Fläche des Saarlandes. Geologie. Die Insel ist vor etwa drei Millionen Jahren entstanden, als der Vulkan Piton des Neiges aus dem Indischen Ozean aufstieg. Eine Vulkankette, deren höchste Gipfel der Piton des Neiges (3070 m) und der noch aktive Piton de la Fournaise (2631 m) sind und die durch Hot-Spot-Vulkanismus entstanden ist, verläuft quer über die ganze Insel. Im Inneren von La Réunion befinden sich außerdem drei Talkessel, die Cirques Salazie, Cilaos und Mafate. Letzterer ist sehr abgelegen und nur zu Fuß oder per Hubschrauber zu erreichen. Der ursprünglich vierte große Talkessel Marsouins wurde durch Lava aufgefüllt und bildet heute den Forêt de Bélouve. Das Plateau de Bébour erstreckt sich östlich des Piton des Neiges, südlich des Cirque de Salazie. Es wurde allerdings durch ungewöhnlich starke Erosion, bedingt durch örtlich begrenzte, extreme Niederschläge (um 5000 mm jährlich) schräg verschüttet. Wasserundurchlässige Schichten leiten sie bis zur Quelle des Marsouin im Takamaka-Tal, wo das einzige Speicherwasserkraftwerk der Insel 1964 in Betrieb ging. Es trägt den Namen des auf den Maskarenen endemischen Baums Takamaka ("Calophyllum tacamahaca", frz. "Takamaka des Hauts"). Der Piton de la Fournaise zählt mit mehr als einer Eruption pro Jahr zu den aktivsten Vulkanen der Welt und steht daher unter permanenter Überwachung. Da der aktive Vulkan im Westen an den Piton des Neiges grenzt, fließt seine Lava immer in Richtung Osten, hinunter zum Indischen Ozean. Klima. Das Klima auf Réunion ist tropisch-sommerfeucht, mit einer Regenzeit in den Monaten Dezember bis März. Es gibt auf der Insel sehr verschiedene Mikroklimata. Die Ostküste ist sehr regenreich, die Westküste weist teilweise ein Steppenklima auf. An keinem Ort der Erde fällt innerhalb eines oder weniger Tage mehr Regen als auf La Réunion. An der Ostküste wurden am 15. und 16. März 1952 insgesamt 1870 mm Niederschlag in 24 Stunden gemessen. 2007 wurden innerhalb von drei Tagen 3929 mm Regen gemessen – jeweils Weltrekord für die genannten Zeitspannen. Zum Vergleich: Österreich hat einen durchschnittlichen Jahresniederschlag von rund 1170 mm und Deutschland von etwa 700 mm. Trotz der hohen Niederschlagsmenge scheint auf Réunion die Sonne im Mittel 2000 Stunden im Jahr. Die Durchschnittstemperatur an der Küste beträgt im Sommer (Dezember bis März) 30 Grad Celsius. Im Winter werden 20 Grad Celsius gemessen. In der Höhe kann die Temperatur bis auf 15 Grad sinken. Zyklone. Jährlich entstehen im Indischen Ozean etwa zwölf Zyklone, die im Schnitt drei Wochen lang anhalten. Jedoch längst nicht alle treffen auf die Insel. Die Zyklone können La Réunion insoweit gefährlich werden, weil sie viel Wind, Regen und hohen Seegang mit sich bringen. Im Zentrum eines Zyklons beträgt die Windgeschwindigkeit bis zu 300 km/h. Der Zyklon, der die meisten Menschenleben kostete, war im Jahre 1948. 165 Menschen wurden in ihren Häusern verschüttet. Meteorologen verfolgen ständig die Bewegungen auf dem Meer rund um die Insel und geben entsprechende Warnungen heraus, falls Gefahr besteht. Gefahrstufe Orange bedeutet, dass in den nächsten 24 Stunden Gefahr besteht. Schulen werden geschlossen, aber das wirtschaftliche Leben läuft normal weiter. Alarmstufe Rot wird bei sofortiger Gefahr einige Stunden vorher ausgegeben. Es ist strikt verboten, sich draußen oder gar in den Bergen oder am Meer aufzuhalten. Nach dem Zyklon gibt es eine so genannte "Phase der Vorsicht". Der Zyklon zerstreut sich, aber es bleiben immer noch Risiken für die Bevölkerung. Die wirtschaftlichen Aktivitäten werden wieder aufgenommen, Schulen bleiben noch geschlossen. Ökologie. Der größte Teil der Insel wird landwirtschaftlich genutzt oder ist von Menschen besiedelt. Ein Drittel der Insel ist noch von einheimischen Pflanzen bewachsen, gut 800 Endemiten sind bekannt. Durch die Einfuhr europäischer Tierarten wie Ratten, Katzen, Hunde und Schweine sind auf Réunion einige Tierarten wie der Dodo ausgestorben. Vor der Besiedlung lebten zahlreiche Schildkröten auf der Insel. Nachdem man sie im letzten Jahrhundert ausgerottet hatte, kehren sie nun langsam von den Nachbarinseln zurück und legen ihre Eier in den Sand der geschützten Strände. Auf einer Fläche von rund wurde im März 2007 ein Nationalpark auf Réunion gegründet. Er ist sehr vielfältig und bietet alpines Berggelände, Hochebenen, Urwald, Flüsse und Sandstrände. Die Pflanzenvielfalt entstand unter anderem durch Isolationen in dem tief zerklüfteten Landschaftsrelief der vulkanischen Berge. Die Kernzone von, rund der Inseloberfläche, wurde am zum Weltnaturerbe erklärt. Die Meeresfauna um Réunion umfasst mehrere Korallenarten und eine reiche Fischwelt im offenen Ozean. Die Flachwasser- und Saumriffe sind stark bedroht und einer strikten, gestaffelten Nutzung unterworfen. Im flachen Wasser der Insel leben Seesterne, Krabben, Einsiedlerkrebse, Kofferfische, Schmetterlingsfische und Doktorfische. Jenseits der Korallenriffe entlang der Riffkanten sowie im offenen Meer leben Barsche, Meeresschildkröten, Rochen, Thunfische, Speerfische und Haie. Bevölkerung. Auf Réunion lebten am Einwohner, was einer Bevölkerungsdichte von Einwohner pro km² entspricht. Für die nächsten Jahrzehnte wird mit einem rapiden Wachstum der Bevölkerung gerechnet. Herkunft der Einwohner. Bis zur Mitte des 17. Jahrhunderts war Réunion unbewohnt. Im Zuge der französischen Kolonialisierung kamen französische Siedler auf die Insel, die für die Plantagenwirtschaft (Bourbon-Vanille, Zuckerrohr) Sklaven aus Madagaskar, Ostafrika und Indien dorthin verschleppten. Mit dem Ende der Sklaverei auf Réunion 1848 erhielten ca. 60.000 freie Sklaven den Status der ca. 35.000 Bürger. Billige Arbeitskräfte für die Landwirtschaft wurden nunmehr aus Indien, Afrika und China angeworben. Die Nachkommen der einstigen kolonialen Siedler und Sklaven bilden eine verhältnismäßig homogene Gesellschaft und werden zusammen als Kreolen "(créoles)" bezeichnet. Als identitätsstiftend für alle Réunionaisen wird heute die als "Métissage" bezeichnete Vermischung und das friedliche Zusammenleben aller Bevölkerungsgruppen betrachtet. Aus Madagaskar und Ostafrika stammende Menschen werden "Cafres" genannt, die später angekommenen Inder, je nach Glaubensbekenntnis "Zarabes" (sunnitische Muslime aus Gujarat) oder "Malbars" (Tamilen, Hindus und Christen). Die "Sinoi" kamen einst aus China, die "P’tits blancs" oder "Yabs" sind Abkommen verarmter französischer kolonialer Siedler, die "grands blancs" Abkommen der französischen Großgrundbesitzer. Mit diskriminierendem Beigeschmack werden die aus Frankreich kommenden bzw. stammenden Franzosen als "Les Zoreils" bezeichnet. Häufiger wird daher das neutrale "Les Métros" genutzt, das auf die „Metropole“, das europäische Frankreich, anspielt. Weil die französische Verfassung das Sammeln ethnischer Daten verbietet, gibt es nur Schätzungen. Danach sind heute etwa 45 % der Bevölkerung mit Europäern vermischte Nachfahren madagassischer und afrikanischer Sklaven, etwa 25 % indischer (etwa 24 % "Malbars" und etwa 1 % "Zarabes"), etwa 25 % europäischer und etwa 3 % chinesischer Herkunft. Sprachen. Die Mehrheit der Bevölkerung der Insel spricht eine lexikalisch auf dem Französischen basierende eigene Kreolsprache, das Réunion-Kreolische. Einzige Amtssprache und überwiegende Schriftsprache ist das Französische. Das Kreolische auf Réunion ist nah verwandt mit den ebenfalls französisch-basierten Bourbonnais-Kreolsprachen von Mauritius und den Seychellen, da die Inseln alle zumindest anfangs von Frankreich kolonialisiert wurden. Die Sprecher der kreolophonen Inseln des Indischen Ozeans können sich mit etwas Übung gegenseitig verstehen, dennoch nimmt das Réunion-Kreolische eine Sonderstellung ein, da es durch den ständigen und andauernden Kontakt zum französischen Standard diesem in vielen Strukturen noch näher ist als die anderen Kreolsprachen. Manche Linguisten betrachten es deshalb als nicht vollständig kreolisiert oder „Halb-Kreol“; die Übergänge zwischen eindeutig kreolischer Ausdrucksweise und einem nur regional gefärbten Französisch sind von Sprecher zu Sprecher oft unterschiedlich. Vereinzelt werden noch asiatische und afrikanische Sprachen verwendet wie Tamil, Gujarati, Chinesisch und Malagasy, welche von den ehemaligen Plantagenarbeitern aus Südasien, China und Afrika bzw. deren Nachfahren bewahrt oder neu erlernt wurden. Sie spielen jedoch im öffentlichen Leben kaum eine Rolle und bleiben auf den familiären, kulturellen oder religiösen Bereich der jeweiligen Bevölkerungsgruppen beschränkt. Religionen. Die große Mehrheit der Bevölkerung bekennt sich zum Christentum, überwiegend zum römisch-katholischen Glauben (), unter den Indern gibt es Hindus und Muslime, unter den Chinesen Buddhisten. Geschichte. Die zu diesem Zeitpunkt noch unbewohnte Insel wurde erstmals von arabischen Seefahrern gesichtet, die ihr den Namen "Dina Maghrabin" („West-Insel“) gaben. Der portugiesische Seefahrer Pedro Mascarenhas landete dort am 9. Februar 1507, dem Namenstag der heiligen Apollonia. Darauf erschien die Insel unter dem Namen "Santa Apolonia" auf den Karten der Portugiesen. Um 1520 begann man eingedenk ihres Entdeckers, Réunion mit den benachbarten Inseln Mauritius und Rodrigues begrifflich zum Archipel der Maskarenen zusammenzufassen. Zu Beginn des 17. Jahrhunderts wurde die spätere "Île de La Réunion" zur Zwischenstation englischer und niederländischer Schiffe, die nach Indien unterwegs waren. Schließlich landeten Franzosen auf der Insel, die sie 1640 im Namen des Königs Ludwig XIII. zu einer französischen Besitzung erklärten: Der König stammte aus dem Adelsgeschlecht Bourbon und folglich wurde die Insel "Île Bourbon" (Bourbon-Insel) getauft. Die ersten dauerhaften Siedler ließen sich um 1665 nieder. Der Gouverneur der Insel von 1735 bis 1745, Bertrand François Mahé de La Bourdonnais, trug entscheidend zur weiteren Entwicklung der Île Bourbon bei. Am 19. März 1793 wurde die Insel im Zuge der Französischen Revolution in "La Réunion" umbenannt. Der neue Name bezieht sich auf die Vereinigung von Revolutionären aus Marseille mit der Nationalgarde in Paris am 10. August 1792 und den nachfolgenden Sturm auf die Tuilerien. Nach der Entscheidung Napoleons I. zur offiziellen Wiederaufnahme der Sklaverei auf der Insel nannte sie sich ihm zu Ehren "Île Napoléon", doch als die Briten 1810 die Insel besetzten, benutzten sie wieder den alten Namen "Bourbon", der auch nach dem Sturz Napoleons und der Rückgabe der Insel an Frankreich im Pariser Friedens- und Freundschafts-Tractat vom Mai 1814 bzw. im Wiener Kongress 1815 bis zum Ende der Bourbonen-Epoche durch die französische Februarrevolution von 1848 und der endgültigen Abschaffung der Sklaverei auf der Insel galt. Seither heißt die Insel wieder "Réunion". An den alten Namen erinnert nur noch die Bourbon-Vanille. 1946 wurde Réunion ein französisches Überseedépartement "(département d’outre-mer)" und 1982 auch eine französische Überseeregion "(région d’outre-mer)". Wirtschaft. Im Jahr 2006 lag das regionale Bruttoinlandsprodukt je Einwohner, ausgedrückt in Kaufkraftstandards, bei 66,8 % des Durchschnitts der EU-27. Die durchschnittliche wirtschaftliche Zuwachsrate beträgt 8 % pro Jahr. Wichtigster Wirtschaftszweig ist noch immer die Landwirtschaft, vor allem die Produktion von Rohrzucker und Rum, daneben verschiedener Früchte, beispielsweise Bananen, Ananas, Litschis und Vanille. Allerdings ist La Réunion wirtschaftlich stark vom Mutterland Frankreich und von der EU abhängig: Die Einfuhren nach Réunion überstiegen im Jahr 2007 die Ausfuhren um das Fünfzehnfache. Der Tourismus entwickelt sich langsam, steht aber weiter im Schatten von Mauritius, das über mehr Badestrände verfügt und wegen der weiter verbreiteten englischen Sprache von nicht-französischen Touristen bevorzugt wird. Reisende kommen vor allem aus dem europäischen Frankreich, Mayotte und Mauritius und konzentrieren sich auf Wander- oder Sporturlaub. Die Saumriffe sind stark bedroht, einer reglementierten, strikt gestaffelten Nutzung unterworfen und - zonal eingeschränkt - Ziel von Sporttauchern. Seit August 2010 sind im Inneren der Insel die Vulkanlandschaften der Cirques und Remparts, insgesamt etwa 40 % der Fläche der Insel, als UNESCO-Weltnaturerbe klassifiziert. Réunion will bis 2025 seinen elektrischen Strom vollständig selbst produzieren. Schon heute deckt die Insel 36 % ihres Energiebedarfs aus erneuerbaren Energiequellen. Arbeitslosigkeit und Unruhen. In den Randzonen der Städte haben sich – wie auch in Frankreich – soziale Ballungsräume gebildet, in Chaudron kam es 1991 und 1994 zu Ausschreitungen. Im Februar 2012 kam es in mehreren Nächten in Folge zu heftigen Ausschreitungen mit Molotow-Cocktails und Tränengas. Dabei wurden zahlreiche Sicherheitskräfte verletzt und annähernd 100 Demonstranten vorläufig festgenommen. Bei den Unruhen, die sich auf mehrere Städte der Insel ausgeweitet hatten, wurden zahlreiche Geschäfte und öffentliche Einrichtungen geplündert. Ausgangspunkt waren Proteste von Lastwagenfahrern, die mit Barrikaden vor einem Erdöldepot gegen hohe Benzinpreise protestiert hatten. Die Proteste auf Réunion richteten sich gegen die Verteuerung der Lebenshaltungskosten. Die Arbeitslosenquote belief sich 2008 auf mehr als 30 % und stellt damit die höchste Arbeitslosenzahl Frankreichs dar. Noch zehn Jahre zuvor betrug die Rate 40 %. Zudem lag 2012 die Jugendarbeitslosigkeit auf der Insel bei ca. 60 %. Rundfunk. Der lokale Rundfunk wird seit 2008 von (gehört zu Radio France d’Outre-Mer (RFO)) betrieben und steht auch im Internet als Live-Stream zur Verfügung. Auch einige private Rundfunkanbieter sind per Internet-Live-Stream zu empfangen. Verkehr und Infrastruktur. 1878 wurde mit dem Bau einer meterspurigen Eisenbahnlinie zwischen Saint-Benoît und Saint-Pierre über Saint-Denis begonnen und diese 1882 mit 127 km Streckenlänge in Betrieb genommen. In den 1960er-Jahren wurde sie stillgelegt. Wegen der zunehmenden Verkehrsbelastung auf der Küstenstraße wurde der Bau einer neue Regional-Stadtbahn, genannt "Tramtrain", von Saint-Benoît bis Saint-Paul diskutiert. Sie hätte innerstädtisch als Straßenbahn und außerhalb wie ein Regionalzug verkehren sollen. Ein oder mehrere Tunnels hätten dabei das Bergmassiv zwischen Saint-Denis und La Possession durchqueren sollen. Das Projekt wurde im Jahre 2010 zu Gunsten eines Ausbaus des Busnetzes aufgegeben. Hauptverkehrslinie der Insel ist die Ringstraße, welche die größten Siedlungen entlang der Küste miteinander verbindet. Die geographisch bedingte Konzentration des Verkehrs auf diese Ringstraße führt zusammen mit der hohen Autodichte zu großen Verkehrsproblemen. Im Nordwesten und im Süden ist die Strecke zweispurig ausgebaut und zum Teil auf einem künstlichen Plateau vor der Steilküste angelegt. Um die alltäglichen Verkehrsstaus zwischen St. Paul und Etang Salé zu entspannen, wird zwischen dem Westen und dem Süden der Insel eine weitere, vierspurige Trasse gebaut – die "Route des Tamarins". Diese Straße soll streckenweise überdacht und mit Photovoltaikanlagen ausgestattet werden. Mit Kosten von über einer Milliarde Euro gilt diese Konstruktion als eine der teuersten Straßenbauten der Europäischen Union. Die Strecke ist bis Étang Salé eröffnet (Stand November 2009). Zwischen Saint-Benoît und Saint-Pierre wird La Réunion von einer Verbindungsstraße in südwestlicher Richtung durchquert – diese Strecke führt über die Hochebene zwischen den beiden Vulkanmassiven. Der internationale Flughafen Réunion befindet sich zehn Kilometer östlich von Saint-Denis im Norden der Insel. Er ist nach dem Jagdflieger Roland Garros benannt, der auf La Réunion geboren wurde. Im Süden der Insel befindet sich der Flughafen Pierrefonds, der der Insel unter anderem gute Verbindungen nach Mauritius bietet. Zwischen Le Port und St-Paul stand auf der "Plaine Chabrier" eine über 427 m hohe Längstwellen-Sendeantenne des OMEGA-Funknavigationssystems. Sie wurde 1999 durch Sprengung abgerissen. Verwaltung. Réunion ist ein französisches Überseedépartement "(département d’outre-mer)" und gleichzeitig eine französische Überseeregion "(région d’outre-mer)". Die Amtssprache ist Französisch. Das Département und die Region sind territorial identisch, der Generalrat des Départements und der Regionalrat bestehen jedoch als separate Selbstverwaltungsorgane und üben jeweils diejenigen Kompetenzen aus, die in Frankreich in die Zuständigkeit der Départements bzw. der Regionen fallen. Die in die Zuständigkeit des französischen Zentralstaates fallenden Angelegenheiten wiederum unterstehen dem Präfekten. Bis 2005 wurden auch die nicht zu Réunion gehörenden Îles éparses (Bassas da India, Europa, Îles Glorieuses, Juan de Nova und Tromelin) vom Präfekten von Réunion verwaltet. Seit 1972 hat Réunion durch weitere Rechte eine größere Unabhängigkeit von Frankreich bekommen. Seit 1997 ist die Insel außerdem eine sogenannte "région ultrapériphérique", ein Gebiet in äußerster Randlage der Europäischen Union. Die Hauptstadt Réunions ist Saint-Denis, mit etwa 145.000 Einwohnern auch die größte Stadt der Insel. Da Réunion ein französisches Überseedépartement ist, ist der Euro dort offizielles Zahlungsmittel. Aufgrund der Lage von Réunion in der Zeitzone MEZ +3 war die Insel der erste Punkt auf der Erde, wo am 1. Januar 2002 offiziell mit dem Euro eingekauft werden konnte. Bildungswesen. Die Universität La Réunion besuchen etwa 12.000 Studierende, verteilt sich auf die Standorte Saint-Denis, Le Tampon und Saint-Pierre. Gesundheit. Ab Dezember 2005 grassierte auf Réunion eine schwere Chikungunya-Epidemie. Diese erreichte im Februar 2006 ihren Höhepunkt, um bis Ende 2006 langsam abzuklingen. Nach Angaben der Behörden wurden 266.000 Personen und damit etwa ein Drittel der Bevölkerung infiziert. Bei 254 Todesfällen im Jahr 2006 wurde das Chikungunyafieber als Ursache vermutet. Von den vermuteten Todesfällen waren überwiegend ältere Menschen (über 70 Jahre) betroffen. Die Epidemie auf La Réunion wurde dadurch begünstigt, dass das Virus dort bislang unbekannt war und die Bevölkerung zuvor keine Immunität besaß. Sport. Am 4. Juni 2010 trug die französische Fußballnationalmannschaft im Vorfeld der WM in Südafrika ein Testspiel im Stade Michel Volnay in Saint-Pierre gegen China aus. Musik. Es gibt zwei Musikgenres aus Réunion: Sega und Maloya. Richard Stallman. Richard Matthew Stallman (* 16. März 1953 in Manhattan, auch unter den Initialen rms bekannt) ist ein US-amerikanischer Aktivist und Programmierer. Er setzt sich für Freiheiten von Software-Endnutzern ein: die Freiheiten der Kontrolle und Kollaboration sollen den Nutzern nicht entzogen werden. Software soll so verbreitet werden, dass Nutzer beim Empfang der Software gleichzeitig die Freiheiten mitempfangen, die Software ausführen, analysieren, verbreiten und abändern zu dürfen. Software, welche diese Freiheiten sicherstellt, als Freiheits-Rechte, die zusammen mit dem Empfang der Software mitempfangen (gewährt) werden, nennt Stallman "Freie Software". Für Stallman ist dies eine ethische Notwendigkeit. Durch die Gründung des GNU-Projekts und die Entwicklung des GNU C Compilers, des GNU Debuggers, verschiedener Werkzeuge der GNU coreutils und des Editors GNU Emacs galt er als einer der einflussreichsten und produktivsten Programmierer. Seit 2008 trägt er nicht mehr aktiv zur Programmierung von Software-Projekten bei, sondern ist mehr als Befürworter und Verfechter rund um Freiheitsrechte bei Software involviert (durch Präsentationen, Kampagnen usw.). Allgemein. Das zentrale Ziel Stallmans ist, dass, wenn Softwarenutzer (womit auch Entwickler gemeint sind) eine Software erhalten, diese Software ihren Nutzern Freiheitsrechte gewähren soll: Gemeint sind damit die "Vier Freiheiten", Software beliebig auszuführen, zu untersuchen, zu teilen (kopieren) und zu modifizieren und auch Modifikationen weitergeben zu können. Software, welche diese Freiheiten (über ihre Lizenz) rechtlich gewährleistet, wird Freie Software (Free Software) genannt. Stallman ist gegen proprietäre Software, die den Nutzern diese Freiheiten entzieht, z. B. durch restriktive Endbenutzer-Lizenzverträge, Geheimhaltungsverträge, Produktaktivierungen, Dongles, Kopiersperren, proprietäre Formate oder den Vertrieb von binären ausführbaren Programmen ohne Source code, und ihre Nutzer somit in die Abhängigkeit von Unternehmen zwingt, welche die Benutzer und den Markt über diese Einschränkungen zu kontrollieren und zu monopolisieren versuchen. Stallman fördert aktiv das soziale und ethische Grundprinzip hinter den gewährten Freiheiten von Freier Software, nämlich, dass Freie Software — und damit auch ihre Entwickler — die Freiheit und Gemeinschaft der Endnutzer schätzen und respektieren (im Bereich der Computer-Nutzung und der Datenverarbeitung); eben weil die Nutzungsbedingungen von Freier Software solche sind, dass es Nutzern ermöglicht wird, ein Umfeld der Unabhängigkeit, Gemeinschaft, Zusammenarbeit, Solidarität und des Austauschs zu schaffen und zu gestalten. Diese Werte sind auch im GNU Project und der Free Software Foundation (welche Stallman gegründet hat) vertreten. Im September 1983 gründete Stallman das GNU-Projekt mit dem Ziel, ein unixähnliches Betriebssystem zu schaffen, welches sicherstellt, dass die Benutzer die "Vier Freiheiten" haben. Er ist leitender Architekt und Organisator des GNU Projekts und entwickelt eine Reihe seiner weit verbreiteten Bestandteile, darunter die GNU Compiler Collection, den GNU Debugger sowie verschiedene Werkzeuge der GNU coreutils und den Editor GNU Emacs. Stallman ist der wichtigste Autor von Lizenzen für Freie Software, welche rechtlich sicherstellen, dass die Endnutzer die Vier Freiheiten haben. Die GNU-Software verwendet solche Lizenzen, z. B. die GNU General Public License (GPL); diese Lizenzen können aber von jedem verwendet werden, um die Freiheits-Rechte von Endnutzern bzgl. der Verwendung einer Software sicherzustellen. Die GPL ist die verbreitetste Lizenz für Freie Software. Stallman hat das Konzept des Copyleft erschaffen, welches in manchen Software-Lizenzen (wie GPL) Anwendung findet, damit Freie Software (mit ihren Endnutzer-Freiheiten) nicht als ein Teil proprietärer Software verwendet werden kann, welche die Freiheiten (Nutzung, Verbreitung, Änderung) wieder wegnehmen würde. Mit dem Start des GNU-Projektes initiierte er eine Bewegung für Freie Software, im Oktober 1985 gründete er die Free Software Foundation. Stallman verwendet das Wort „frei“ („free“) fast immer, um sich auf Freiheit und eben nicht auf Preis zu beziehen. Beispiele sind „Freie Software“ und „Freie Werke“, worunter Stallman Werke meint, bei denen die Nutzer frei sind, sie zu kopieren und vertreiben, und auch frei sind, sie zu untersuchen und zu ändern. Wenn er von monetären Kosten spricht, verwendet Stallman stattdessen meist die Wörter „gratis“ oder „keine Kosten“ („zero price“). Seit Mitte der 1990er-Jahre ist Stallman hauptsächlich politisch tätig, als Befürworter und Verfechter von freiheits-respektierender Free Software sowie in Kampagnen gegen Softwarepatente, Digitale Rechteverwaltung und exzessive Ausdehnung des Urheberrechts, die er als freiheits-gefährdende Entwicklungen für Entwickler, Softwarenutzer und die Gesellschaft als Ganzes ansieht. MIT und GNU-Projekt. Stallman arbeitete Anfang der 1970er-Jahre im "AI Lab" (Abteilung für Künstliche Intelligenz) des Massachusetts Institute of Technology zusammen mit einer Gruppe von Programmierern, die sich selbst als Hacker bezeichneten. Ihre Hackergemeinschaft lebte eine sehr rigorose Philosophie des unbegrenzten Informationsflusses. In den folgenden Jahren gab es in der Softwarebranche einen aus Stallmans Sicht entscheidenden Wandel: Viele Firmen begannen, Software nicht mehr in der bis dahin weitgehend üblichen Form von Quelltexten auszuliefern, sondern in Form eines rein maschinenlesbaren Formates, dem sogenannten binären Format. Auch statteten von nun an einige Firmen ihre Software mit Lizenzen aus, die es den Anwendern verboten, die Programme weiterzuverteilen oder die Programme selbst zu verändern. Stallman empfand diesen Verlust der Kontrolle von Benutzern über ihre eingesetzte Software als eine Einschränkung ihrer Freiheit. Um dem Trend entgegenzusteuern, schuf er 1989 eine Lizenz, die unter dem Namen GNU General Public License (GNU GPL) bekannt wurde. Diese Lizenz garantiert Anwendern weitgehende Rechte über ihre Software und stellt sicher, dass die gleichen Rechte auch in Zukunft und für sämtliche Erweiterungen, die von Dritten an dieser Software vorgenommen wurden, ebenfalls gelten (Copyleft-Prinzip). Er kündigte 1984 seine Stelle am MIT und arbeitete mehrere Jahre lang daran, ein Betriebssystem zu programmieren, das vollständig aus freier Software bestehen sollte. Zu dem Zweck veröffentlichte er 1985 sein GNU Manifesto, in dem er die Grundzüge des Systems, das GNU heißen sollte, festlegte. Der Name GNU ist ein rekursives Akronym ("G"NU is "N"ot "U"nix), was einerseits auf die Unix-Kompatibilität, andererseits auf die Abgrenzung zu allen unfreien Unix-Varianten hinweisen sollte. In dieser Zeit entwickelte er unter anderem die erste Version von GNU Emacs (ein komplexer, programmierbarer Texteditor), den GNU Debugger (GDB), den ersten freien plattformübergreifenden C-Compiler (heute gcc) sowie verschiedene für eine Unix-Umgebung benötigte Hilfsprogramme. Heute. Trotz seiner zahlreichen Beiträge zur freien Software ist Richard Stallman eine umstrittene Person. Er vertritt klar seine Positionen und politischen Ideale und grenzt die Freie-Software-Bewegung deutlich von der Open-Source-Bewegung ab. Er kritisiert an der Open-Source-Bewegung, dass sie zum Zwecke größerer Akzeptanz in der Wirtschaft die Freiheit als argumentative Grundlage vernachlässige und sich nur auf Vorteile im Entwicklungsmodell oder die technische Überlegenheit der einzelnen Programme beschränke. Im Gegenzug kritisiert ihn die Open-Source-Bewegung daher als zu radikal. Bei der Entwicklung von Software arbeiten diese beiden Bewegungen jedoch meist sehr eng zusammen. In letzter Zeit engagiert sich Richard Stallman sehr gegen die Verbreitung von Digital-Rights-Management-Systemen und die Einrichtung von Softwarepatenten innerhalb der Europäischen Union und reist daher oft quer durch Europa, aber auch nach Asien und Südamerika, um Vorträge über diese Themen zu halten. Des Weiteren kritisiert er, dass bei Verwendung von JavaScript in Webseiten für den Benutzer nicht leicht erkennbar ist, ob es sich dabei um freie oder nicht-freie Software handelt. Den Nutzern sei aufgrund der „Stille des Browsers“ gar nicht bewusst, dass viele nicht-freie Programme im Web-Browser ausgeführt würden. In einem Interview im Januar 2010 sagte er, er nutze explizit ein "Lemote Yeeloong" Netbook mit gNewSense als Betriebssystem. Der Grund dafür ist, dass beides ausschließlich aus freier Software besteht. Er war bis Ende Februar 2011 Mitarbeiter des südamerikanischen Nachrichten- und Kulturkanals teleSUR. Oktober 2011 zitierte er zum Tode von Steve Jobs die Aussage von Chicagos Bürgermeister Harold Washington über dessen korrupten Vorgänger Richard J. Daley: „Ich freue mich nicht darüber, dass er tot ist, aber ich bin froh, dass er weg ist.“, ein Kommentar, der von der Öffentlichkeit teils positiv und teils negativ aufgenommen wurde. Freie-Software-Bewegung. Stallman ist der Begründer der Freie-Software-Bewegung. Er schrieb wegweisende Grundlagentexte zur Idee der freien Software und war maßgeblicher Autor der damit verbundenen Copyleft-Lizenzen. Er legt Wert auf die ursprüngliche Wortwahl und die genaue Bezeichnung diverser Sichtweisen und Projekte, weil damit untrennbar ihre ursprünglich zugrundeliegenden Ideale verbunden seien. So legt er zum Beispiel großen Wert darauf, weiterhin von "Freier Software" statt "Open Source" zu sprechen, da nicht die bloße Quelloffenheit, sondern die zusätzlichen Freiheiten, die die Software dem Benutzer gibt, das ursprüngliche Anliegen gewesen sei. Dies werde mit einer einseitigen Fokussierung auf das Offenliegen des Quellcodes verdeckt (siehe Kapitel Begriffsproblem im Artikel Open Source). Des Weiteren spricht er von den so geschaffenen “Freien Betriebssystemen” als "GNU/Linux" und nicht nur von "Linux" (siehe Linux-Namensstreit). Reich (Biologie). Das Reich "(Regnum)" war lange Zeit die höchste Klassifikationskategorie der Lebewesen. Ursprünglich wurde in der Taxonomie nur zwischen Tieren "(Animalia)" und Pflanzen "(Plantae)" unterschieden. Später kamen einzellige Organismen unter dem Namen Protisten "(Protista)" dazu. Danach trennte man die Pilze "(Fungi)" von den Pflanzen. Schließlich wurde Mitte des 20. Jahrhunderts eine fundamentale Unterscheidung zwischen einzelligen Lebewesen mit Zellkern, Eukaryoten "(Eukaryota)" und solchen ohne Zellkern, Prokaryoten "(Prokaryota = Monera)" eingeführt. Als letzte bekamen die Archaeen "(Archaea)" ein eigenes Reich. Die Protisten wurden nochmals differenziert in Stramenopile (oder Chromisten) und Protozoen. Durch Untersuchungen der Nukleinsäuren kam man in den letzten Jahren des 20. Jahrhunderts zu einer neuen Einteilung, wobei man die Domäne als höchste Kategorie einführte, um den fundamentalen Unterschied zwischen Archaebakterien (nun Archaeen "(Archaea)" genannt) und Eubakterien (nun schlicht als Bakterien "(Bacteria)" bezeichnet) auch taxonomisch zu dokumentieren. Die Lebewesen wurden in drei Domänen eingeteilt: "Bacteria", "Archaea" und "Eucarya". Das Reich kann noch in Unterreiche "(Subregna)" untergliedert werden. Die folgende Hierarchiestufe ist der Stamm "(Phylum)" beziehungsweise die Abteilung "(Divisio)". Reduktion (Chemie). Eine Reduktion ist eine chemische Teilreaktion, bei der Elektronen von einem Teilchen (Atom, Ion oder einem Molekül) aufgenommen werden. Die Oxidationszahl des Teilchens wird dabei kleiner. Sie tritt immer zusammen mit einer Oxidation auf. Beide Phänomene zusammen werden als Redoxreaktion bezeichnet. Geschichte. Historisch wurde die Reduktion als ein Entzug von Sauerstoff aus einem Oxid betrachtet. Reduktion (von lat. reductio = Zurückführung) war damit eine Reaktion, bei der eine Oxidation rückgängig gemacht wurde. Oxidation wurde als Vereinigung einer Verbindung oder eines Elements mit Sauerstoff definiert und beruhte auf den Erkenntnissen von Antoine Laurent de Lavoisier. Oxide edler Metalle, wie Silber(I)-oxid, zerfallen beim blossen Erhitzen. Aus Silber(I)-oxid bildet sich Sauerstoff und elementares Silber. Wird Kupfer(II)-oxid im Wasserstoffstrom erhitzt, so entsteht metallisches Kupfer und Wasser. Wasserstoff wirkt hier als Reduktionsmittel und entzieht dem Kupfer(II)-oxid Sauerstoff. Heute gilt eine breitere Sichtweise, die nicht auf Reaktionen von sauerstoffhaltige Verbindungen begrenzt ist und die klassische Betrachtung integriert hat. Allgemeine Definition. Ox reagiert als Elektronenakzeptor, Ox und Red bilden ein sogenanntes Redox-Paar. Die Elektronen stammen von einem zweiten Redox-Paar bei dem eine Oxidation erfolgt. Während im Bereich der Elektrochemie, wie bei einer Elektrolyse oder einer Galvanischen Zelle, der Elektronentransfer zwischen den zwei Redox-Paaren eine messbare Größe ist, lässt sich in anderen Fällen die Reduktion nur über die damit verbunden Erniedrigung der Oxidationszahl von Ox erkennen. Betrachtet man eine Reduktion als Gleichgewichtsreaktion, ist die Rückreaktion eine Oxidation. Solche Gleichgewichte liegen beispielsweise in einem nicht genutzten Akkumulator vor. Während beim Entladen die Teilreaktion in die eine Richtung verläuft, führt das Laden zu einer Umkehrung der Reaktionsrichtung. Obwohl eine Reduktion nie ohne Oxidation erfolgt und daher eine Redoxreaktion vorliegt, wird oft eine Reaktion aus der Perspektive des gewünschten Produkts betrachtet. So wird von Reduktion von Eisenerz zum elementaren Eisen oder einer kathodischen Reduktion von Aluminiumoxid zu Aluminium gesprochen. Aufnahme von Elektronen - Verringerung der Oxidationszahl. Wird ein Eisennagel in eine wässrige Kupfer(II)-sulfatlösung gestellt, bildet sich ein rotbrauner Belag von metallischem Kupfer auf dem Nagel. Das Kupfer wird dabei reduziert, das Eisen zu Fe2+-Ionen oxidiert. Das Eisen, das während der Redoxreaktion selbst oxidiert wird, nennt man in diesem Zusammenhang auch Reduktionsmittel, weil seine Anwesenheit die Reduktion des Kupfers erst ermöglicht. Reduktion bedeutet dabei immer ein Absinken der Oxidationszahl durch Aufnahme von Elektronen. Oxidation bedeutet dagegen die Abgabe von Elektronen und somit eine Erhöhung der Oxidationszahl. In diesem Fall entsprechen die Ladungen der Teilchen ihrer Oxidationszahl. Die thermische Zersetzung von Silber(I)-oxid mit den Oxidationsstufen formula_20 ist auch eine Reaktion, bei der Elektronen übertragen werden. Bei der Umsetzung von Kupferoxid mit Wasserstoff wird Kupfer reduziert. Als Reduktionsmittel agiert hier Wasserstoff. Die Oxidationsstufe der Sauerstoffatome bleibt in der Reaktion unverändert, die Atome wechseln jedoch ihren Bindungspartner. Die formal entstehenden H+-Ionen kombinieren mit den formal unverändert vorhandenen O2−-Ionen zum Reaktionsprodukt Wasser mit den Oxidationsstufen formula_33. Addition von Wasserstoff. In dieser Reaktion wird Wasserstoff formal oxidiert und die Elektronen formal freigesetzt. Die Gesamtreaktion ist eine Redoxreaktion, aus der Perspektive des Edukts 2-Buten erfolgt eine Reduktion der Verbindung zu "n"-Butan. Oft wird diese Reaktion als Additionsreaktion betrachtet. Aus diesem Blickwinkel sind die Änderungen von Oxidationsstufen irrelevant. Reduktionen sind in der Biochemie wichtig. In vielen Stoffwechselwegen einer Zelle findet eine Reduktion durch Übertragung von Wasserstoff statt. Coenzyme wie NADH, NADPH oder FADH sind befähigt, formal ein Hydridion oder Wasserstoff auf eine andere Verbindung zu übertragen. Redoxreaktion. Eine Redoxreaktion (gesprochen: redóksreaktion; eigentlich: Reduktions-Oxidations-Reaktion) ist eine chemische Reaktion, bei der ein Reaktionspartner Elektronen auf den anderen überträgt. Hierbei findet also eine Elektronenabgabe (Oxidation) durch einen Stoff sowie eine Elektronenaufnahme (Reduktion) statt. Redoxreaktionen sind von grundlegender Bedeutung in der Chemie: Viele Stoffwechsel- und Verbrennungsvorgänge, technische Produktionsprozesse und Nachweisreaktionen basieren auf solchen Elektronenübertragungsreaktionen. Reaktionsablauf. Um zu bestimmen, welcher Stoff in einer Reaktion oxidiert und welcher reduziert wird, können die Oxidationszahlen herangezogen werden. Spezialfälle. Bei einer "Komproportionierung" (oder auch: Synproportionierung) reagieren Verbindungen, die ein Element in "niedriger" Oxidationsstufe (Reduktionsmittel) enthalten, zusammen mit Verbindungen, in denen das betreffende Element in "höherer" Oxidationsstufe (Oxidationsmittel) vorliegt, zu einer Verbindung mit "mittlerer" Oxidationsstufe. Man spricht von einer "Disproportionierung", wenn bei einer chemischen Reaktion Elemente mit mittlerer Oxidationsstufe in solche mit einer niedrigen und einer höheren übergehen. Diese Reaktionen verlaufen häufig unter dem Einfluss eines Katalysators (Stoff, der eine chemische Reaktion beschleunigt, ohne sich dabei zu verändern) ab. Beispiele. Die Reaktion von Wasserstoff mit Sauerstoff (Knallgas), bei der Wasser (H2O) entsteht, wird Knallgasreaktion genannt. Jede Verbrennung stellt eine Redoxreaktion dar. So auch das Verbrennen von Benzin, Diesel und Kerosin in Kraftfahrzeugen, Schiffen und Flugzeugen. Kraftstoffe, die viel Energie freisetzen, können als Raketentreibstoff verwendet werden. In der Pyrotechnik wird ebenfalls auf Oxidations- und Reduktionsmittel für verschiedene Feuerwerkseffekte gesetzt. Bei Explosivstoffen kommt es zu einer schlagartig exothermen Redoxreaktion, bei der Gas frei wird, sich temperaturbedingt stark ausdehnt und somit die Sprengkraft bewirkt. Metalloxidbildung. Sauerstoff hat in diesem Fall das Bestreben, durch Aufnahme von zwei Elektronen eine stabile Valenzelektronenschale mit insgesamt acht Elektronen aufzubauen (Oktettregel). Das Metall wiederum kann durch Abgabe der Elektronen teilbesetzte Schalen auflösen und so die nächstniedrigere stabile Elektronenkonfiguration erreichen. Wird Eisen oxidiert, so entsteht der aus dem Alltag bekannte Rost. Beim aktiven kathodischen Korrosionsschutz werden wiederum Redoxreaktionen ausgenutzt. Großtechnische Redoxvorgänge. Die Verbrennung von fossilen Energieträgern wie Kohle, Erdöl, Erdgas wird in Wärmekraftwerken genutzt, um elektrische Energie zu erzeugen. Zahlreiche Reaktionen aus dem Themenbereich der Metallurgie sind klassische Beispiele für technisch bedeutsame Redoxreaktionen in der Industrie. Hochofenprozess. Beim Hochofenprozess wird Eisen mit Koks reduziert. Als Nebenreaktion entsteht unter anderem das starke Reduktionsmittel Kohlenmonoxid, welches bei Sauerstoffmangel im Hochofen nicht sofort zu Kohlenstoffdioxid weiter reagiert. Thermitverfahren. Zur Herstellung von zahlreichen Metallen aus ihren Oxiden kann Aluminium als Reduktionsmittel verwendet werden, wenn die Metalle edler als Aluminium sind. Das Verfahren, bei dem Aluminiumpulver oder -späne eingesetzt werden, heißt aluminothermisches Verfahren. Eine Mischung aus Eisenoxid und Aluminium wird Thermit genannt und wird beispielsweise zum Zusammenschweißen von Eisenbahnschienen und für Brandbomben verwendet. Lebensmittel. Bei der Herstellung von Margarine werden Pflanzenöle katalytisch hydriert (Fetthärtung). Die Umrötung von Fleisch durch Pökelsalze ist ebenfalls eine Redoxreaktion. Es kommt zur Ausbildung stabiler Komplexe leuchtend roter Farbe (Nitrosylmyoglobin und Nitrosylmetmyoglobin). Fetthaltigen Lebensmitteln werden Antioxidantien zugesetzt um Oxidationsschäden am Produkt (und damit ein Ranzigwerden) zu verhindern. Stattdessen werden die zugesetzten Antioxidantien oxidativ angegriffen. Analytik. Zahlreiche Analysemethoden basieren auf Redoxprozessen. Klassische Nachweisreaktionen oder Trennungsgänge basieren zum Teil auf Redoxreaktionen. Ebenso moderne elektrochemische Analysemethoden und die quantitative Redoxtitration. Synthesechemie. Im Haber-Bosch-Verfahren wird Ammoniak aus den Elementen Stickstoff und Wasserstoff hergestellt. Dies ist unter anderem ein wichtiges Vorläuferprodukt für die Gewinnung von Stickstoffdünger und somit für die Landwirtschaft von enormer Bedeutung. Biochemie. Viele zellbiologische Prozesse beinhalten Redox-Reaktionen. Häufig beteiligt sind die Coenzyme NAD, NADP und FAD, die Reduktionsmittel in Form von Hydridionen übertragen. Diese Reduktionsäquivalente dienen oft dazu, Energie durch Substratkettenphosphorylierung oder oxidative Phosphorylierung in Form von GTP bzw. ATP umzuwandeln. Alkoholische Gärung. Organismen wie die Bäckerhefe können während der alkoholischen Gärung Zucker zu Trinkalkohol und Kohlenstoffdioxid umwandeln um daraus Energie zu gewinnen. Methanbildung. Archaeen aus der Gruppe der Methanbildner können unter Sauerstoffabschluss Methan aus Kohlenstoffdioxid herstellen. Der Vorgang wird Methanogenese genannt. Elektrochemie. Die "Elektrochemie" ist das Teilgebiet der physikalischen Chemie, welches sich mit dem Zusammenhang zwischen elektrischen und chemischen Vorgängen befasst. Wenn daher eine Redoxreaktion durch einen elektrischen Strom erzwungen wird oder einen solchen liefert, so ist dies ein elektrochemischer Vorgang. Die für die Elektrochemie entscheidenden Vorgänge laufen dabei an der Phasengrenze ab. Die Elektrochemie ist also die Wissenschaft der Vorgänge zwischen einem Elektronenleiter (Elektrode) und einem Ionenleiter (Elektrolyt). Von zentraler Bedeutung ist die Nernst-Gleichung, welche die Konzentrationsabhängigkeit des Elektrodenpotentials beschreibt. Dies lässt sich mithilfe der Redox-Titration analytisch nutzen um Ionen in Lösung zu bestimmen. Theoretisch wird die Übertragung von Außenelektronen in Lösung durch die Marcus-Theorie beschrieben. Galvanische Elemente, Akkumulatoren und Elektrolyse. Wird die Redoxreaktion durch eine von außen angelegte elektrische Spannung erzwungen, nennt man diesen Vorgang Elektrolyse – wird durch die chemische Reaktion geeigneter Substanzen eine messbare Spannung hervorgerufen, so liegt ein galvanisches Element vor. Diese Spannungen (Redoxpotentiale) sind charakteristisch für die jeweiligen Reaktionen und auf einer Skala dokumentiert, der elektrochemischen Spannungsreihe. Hier wird die "Stärke" eines Oxidations- oder Reduktionsmittels "messbar". ROT13. ROT13 ersetzt jeden Buchstaben durch seine Entsprechung 13 Stellen weiter im Alphabet. Im gezeigten Beispiel wird „HELLO“ zu „URYYB“. ROT13 (engl. "rotate by 13 places", zu Deutsch in etwa „rotiere um 13 Stellen“) ist eine Caesar-Verschlüsselung (auch Verschiebechiffre genannt), mit der auf einfache Weise Texte verschlüsselt werden können. Dies geschieht durch Ersetzung von Buchstaben – bei ROT13 im Speziellen wird jeder Buchstabe des lateinischen Alphabets durch den im Alphabet um 13 Stellen davor bzw. dahinter liegenden Buchstaben ersetzt. Der Name "ROT13" stammt aus dem Usenet in den frühen 1980er Jahren. ROT13 ist nicht zur sicheren Verschlüsselung gedacht, es wird im Gegensatz dazu sogar oft als Beispiel für eine schwache, unsichere Verschlüsselung genannt. Vielmehr dient ROT13 dazu, einen Text unlesbar zu machen, also zu verschleiern, so dass eine Handlung des Lesers erforderlich ist, um den ursprünglichen Text lesen zu können. ROT13 lässt sich daher mit Lösungen von Rätseln in Zeitschriften vergleichen, die kopfüber gedruckt werden, damit sie nicht sofort versehentlich gelesen werden können. ROT13 selbst benutzt nur die 26 Buchstaben des lateinischen Alphabets, aber es gibt komplexere Methoden, die auch Zahlen und Sonderzeichen beachten. Namensgeschichte und Verwendung im Internet. Der Name ROT13 für den relativ trivialen Algorithmus trat Vermutungen zufolge ursprünglich in der Newsgroup "net.jokes" auf. Es gab dort Versuche, die Leser vor möglicherweise anstößigen Witzen besonders zu bewahren, jedoch wurde eine einzelne Kategorie abgelehnt, da kein spezieller Platz für diese eher abgelehnten Beiträge geschaffen werden sollte. Somit wurde das einfache Verfahren ROT13 benutzt, um Leser vor dieser Art von Witzen direkt zu schützen. Es wurden auch die Pointen der Witze verschlüsselt, so dass sie nicht unabsichtlich zu früh gelesen werden konnten. Das Verfahren wurde seitdem in verschiedenen Bereichen zum Schutz der Leserschaft verwandt, so dass die Leser nicht unbeabsichtigt etwas lesen, was sie nicht lesen wollen; abgesehen vom oben genannten Versuch eines "freiwilligen Jugendschutzes" beispielsweise zum Schutz vor Spoilern (etwa inhaltliche Beschreibung eines Films). Einige E-Mail-Programme, Texteditoren und viele Newsreader bieten eine ROT13-Funktion an. Algorithmus. ROT13 hat gegenüber anderen Verschiebechiffren (ROT-formula_1, also gegenüber einer Verschiebung um "n" ≠ 13 Stellen des Alphabets) den Vorteil, dass die Ver- und Entschlüsselung identisch abläuft, also mathematisch eine Involution vorliegt. Wird ein bereits einmal verschlüsselter Text erneut verschlüsselt, so wird er also entschlüsselt. Verbreitet ist deshalb auch der Witz von „doppelt ROT13-verschlüsselten“ Inhalten (manchmal auch ROT-26 genannt). Aufgrund der Einfachheit des Algorithmus lassen sich verschlüsselte Texte sowohl manuell – beispielsweise anhand einer Tabelle – als auch durch simple Programme relativ einfach und schnell entschlüsseln. Bei UNIX-Systemen existiert standardmäßig ein Kommandozeilenprogramm namens codice_1 (für engl. "transliterate"), die zur Ver- und Entschlüsselung benutzt werden kann. Eine Methode für automatische Entschlüsselung wurde in zahlreiche Newsreader eingebaut. Da ROT13 Buchstaben des Alphabets jeweils nur wieder mit Buchstaben ersetzt, verursachte dieses Verfahren bei Newsreadern keine Fehler wie andere einfache Verschlüsselungen, bei denen die Buchstaben auch durch Sonderzeichen ersetzt wurden, mit denen die Software nicht zurechtkam. Es wird jeweils der oben stehende Buchstabe durch den darunter stehenden ersetzt – sowohl für Verschlüsselung als auch für Entschlüsselung. Beispiel. Was macht ein Ostfriese mit einem Messer in der Hand auf dem Deich? Was macht ein Ostfriese mit einem Messer in der Hand auf dem Deich? ROT13 als Verschlüsselungstechnik. ROT13 ist ein Sonderfall der historischen Verschlüsselungsmethode, die der römische Feldherr Gaius Iulius Caesar vor mehr als 2000 Jahren benutzte und die unter dem Namen "Caesar-Verschlüsselung" bekannt ist. ROT13 ist eine feste Caesar-Verschiebung um 13 Buchstaben (entspricht dem Schlüssel M) und ist daher keinesfalls als sichere Verschlüsselung geeignet. Mit einfachsten kryptoanalytischen Methoden wie der Untersuchung der Buchstabenhäufigkeit oder der Analyse bezüglich häufiger Buchstabenkombinationen kann diese Methode sehr schnell entlarvt und gebrochen werden. Der einzige Zweck von ROT13 ist also der, dass der Empfänger einer Nachricht die "bewusste" Entscheidung treffen muss, den verschlüsselten Abschnitt zu lesen. Da ROT13 eine offenkundig unsichere Verschlüsselungsmethode ist, wurde diese Bezeichnung zum Schlagwort für unsichere Verschlüsselungen. Ironischerweise besitzt die (heute veraltete) DES-Verschlüsselung vier sogenannte "schwache" Schlüssel. Genauso wie bei ROT13 erzeugt die "Verschlüsselung" eines Geheimtexts wiederum den Klartext, falls Ver- und Entschlüsselung mit demselben schwachen Schlüssel geschehen. ROT13-Variationen. Da es in einigen Fällen auch sinnvoll ist, dass Zahlen nicht auf den ersten Blick erkannt werden können, wurde zudem ein Verfahren namens ROT18 entwickelt, welches bei den Großbuchstaben die Ziffern von 0 bis 9 einbezieht, bei den Kleinbuchstaben aber mit ROT13 identisch ist. ROT18 wird allerdings von keinem gängigen E-Mail-Programm oder Newsreader unterstützt. Alternativ gibt es das Verfahren ROT5, das die Zahlen extra behandelt und sie um fünf Stellen weiterschiebt. Der noch weniger verbreitete ROT47-Algorithmus wiederum wendet das von ROT13 bekannte Verfahren auf alle ASCII-Zeichen zwischen 33 („!“) und 126 („~“) an. Einzelnachweise. Rot13 Rechtsform. Rechtsform () ist der durch Gesetze zwingend vorgeschriebene rechtliche Rahmen von Gesellschaften, mit dem einige gesetzlich vorgegebene Strukturmerkmale verbunden sind und mit dem Gesellschaften am Wirtschaftsleben teilnehmen. Allgemeines. Der Begriff "Rechtsform" wird im Gesetz zwar gebraucht (HGB, sehr häufig im UmwG), eine Legaldefinition gibt es indes nicht. Mit einer Rechtsform verbindet das Gesetz national wie international unterschiedliche Grundstrukturen hinsichtlich bestimmter Mitgliedschafts- und Haftungsformen. Es steht ein geschlossener Katalog von Rechtsformen zur Verfügung (Typenzwang), der nicht beliebig erweitert werden kann. Es ist daher nicht möglich, eine neue Rechtsform zu konstruieren und mit dieser am Markt aufzutreten. Allerdings bietet das Gesetz Spielraum für eine individuelle Gestaltung der gesetzlich vorgegebenen Grundstrukturen. Dieser Spielraum erlaubt Mischformen (wie die GmbH & Co. KG oder die AG & Co. KGaA). Bereits im Januar 1986 hatte der EuGH die Möglichkeit eingeräumt, die geeignete Rechtsform für die Ausübung der Tätigkeiten in einem anderen Mitgliedstaat frei zu wählen. Im September 2003 entschied der EuGH schließlich, dass die in einem EU-Mitgliedsstaat gegründete Rechtsform in einem anderen EU-Staat anerkannt werden muss, wenn sie dorthin ihren Sitz verlegt. So gelangen ausländische Rechtsformen nur über den Weg der Sitzverlegung auch nach Deutschland und umgekehrt. Der Mindestinhalt des Gesellschaftsvertrages erfasst nicht die Einigung über die Rechtsform als OHG, KG oder BGB-Gesellschaft. Das folgt aus dem Rechtsformzwang bei Personengesellschaften nach § Abs. 1, Abs. 1 HGB. Bei Kapitalgesellschaften ist hingegen die Rechtsform bereits Teil des Mindestinhalts (Abs. 3 AktG, Abs. 1 GmbHG). Rechtsformwahl. Wer ein Unternehmen gründet, muss sich zunächst für eine Rechtsform entscheiden. Die Rechtsformwahl ist ein typisch betriebswirtschaftliches Entscheidungsproblem, weil sich aus den unterschiedlichen Merkmalsausprägungen einzelner Rechtsformen weitreichende betriebswirtschaftliche Konsequenzen ergeben können. Die Wahl der Rechtsform wirkt sich auf mitgliedschafts- und haftungsrechtliche sowie steuerliche Überlegungen aus. Hierzu gehören die Haftung der Gesellschafter und deren Recht zur Geschäftsführung, Betriebsgröße, Kapitalbedarf, Börsenfähigkeit, Aufnahme neuer Mitgesellschafter, Rechnungslegung, Publizitätspflichten, Mitbestimmungs- (ausgeschlossen bei OHG und KG), Konzern- (AG und SE als europaweite Holding) oder gewerberechtliche Fragen als Entscheidungskriterien. Während bei Personengesellschaften mindestens ein Gesellschafter auch mit seinem gesamten privaten Vermögen für die Verbindlichkeiten der Gesellschaft haftet (Ausnahme: GmbH & Co. KG), ist die Haftung bei Kapitalgesellschaften begrenzt (z. B. auf die jeweiligen Einlagen der Gesellschafter). Wird eine natürliche Person unternehmerisch tätig, so haftet sie mit ihrem Gesamtvermögen. Es können jedoch auch Ein-Personen-GmbHs gegründet werden, in denen ein Gesellschafter alle Anteile besitzt. In den einzelnen Staaten gibt es aus Gründen der Rechtssicherheit und des Gläubigerschutzes einen geschlossenen Katalog von möglichen Rechtsformen, unter denen der Gründer sich für eine entscheiden kann. Die gesetzlich vorgesehenen Rechtsformen besitzen einen Rechtsrahmen, an den sich ein Gründer bei der Errichtung des Gesellschaftsvertrages orientieren muss (Rechtsformzwang). Diese Rechtsformwahl ist bei bestimmten Geschäftstätigkeiten allerdings gesetzlich eingeschränkt. Eine bestimmte Rechtsform ist vorgeschrieben bei Versicherungsgesellschaften (nur in der Rechtsform der AG, VvAG, SE oder Anstalten des öffentlichen Rechts und Körperschaften des öffentlichen Rechts; Abs. 1 VAG), für private Bausparkassen (AG; § 2 Abs. 1 BauspG); bei Pfandbriefbanken hielt man die bisher einschränkende Vorgabe einer zulässigen Rechtsform (AG und KGaA für Hypothekenbanken) für nicht mehr erforderlich. Kapitalanlagegesellschaften dürfen nur in der Rechtsform der AG oder GmbH geführt werden (§ 6 Abs. 1 Satz 2 InvestmentG). Nach Abs. 1 KWG ist für Kreditinstitute im Sinne des Abs. 1 KWG lediglich die Rechtsform des Einzelkaufmannes ausgeschlossen, alle übrigen Rechtsformen sind zulässig (OHG und KG nennen sich „Privatbankiers“, AG und KGaA „Aktienbanken“). Nach HGB müssen jedoch alle Kreditinstitute, auch wenn sie nicht in der Rechtsform einer AG betrieben werden, ihren Jahresabschluss nach den Vorschriften für große Kapitalgesellschaften aufstellen. Arten. In Deutschland sind 14 Rechtsformen (ohne Mischformen) zulässig. Jeder Zusammenschluss von natürlichen Personen zu einer Gesellschaft löst eine Entscheidung auch über deren Rechtsform aus. In Deutschland und international wird generell zwischen Rechtsformen des Privatrechts ("private law") und öffentlichen Rechtsformen ("public law") unterschieden. Änderung der Rechtsform. Die einmal gewählte Rechtsform muss nicht auf Dauer beibehalten werden. Man unterscheidet den Rechtsformwechsel kraft Gesetzes und die Umwandlung. Bereits bestehende Unternehmen einer bestimmten Rechtsform können diese im Rahmen des Umwandlungsgesetzes nachträglich ändern. Die Umwandlung stellt insoweit einen Rechtsformwechsel dar, der zu den Umwandlungen ohne Vermögensübertragung gehört. Die betreffenden Rechtsträger bestehen identitätswahrend fort (§§ 190 bis 304 UmwG), ein Rechtsträger kann nach § 190 Abs. 1 UmwG durch Formwechsel eine andere Rechtsform erhalten. Dabei sieht das Umwandlungsrecht strenge Rechtsformwechsel vor; so darf nach § 258 Abs. 1 UmwG die eingetragene Genossenschaft nur die Rechtsform einer Kapitalgesellschaft erlangen. Rechtsformen international. Auch die Rechtsordnungen anderer Staaten kennen Rechtsformen, in denen die dort ansässigen Unternehmen geführt werden können. Teilweise sind ausländische Rechtsformen den deutschen ähnlich, allerdings gibt es auch erhebliche Abweichungen. In Österreich und der Schweiz sind die Rechtsformen den deutschen sehr ähnlich. Die häufigste Rechtsform in Großbritannien ist die Limited, von der es als Unterarten die der GmbH sehr ähnlichen Private Limited Company by Shares (Ltd.) und die der AG ähnelnden Public Limited Company (plc) gibt. Einzelunternehmen heißen "Sole Proprietorship", OHGs heißen "Partnership". In den USA ist die häufigste Rechtsform die dem Einzelunternehmen entsprechende "Sole Proprietorship", gefolgt von der "Limited Partnership" und der "Limited Liability Company" (LLC) als Pendant zur GmbH und die Corporation (Corp.) als AG. Deutschland. Im Jahre 2012 lag dem Statistischen Bundesamt zufolge der Anteil der Kapitalgesellschaften an allen Rechtsformen bei 16,4 % (davon 96 % GmbH, 1,5 % AG), Personengesellschaften bei 13,0 % (davon 48,2 % BGB-Gesellschaft, 30,9 % GmbH & Co. KG). Eine Sonderform von juristischen Personen nehmen Gewerkschaften und Politische Parteien ein, sofern sie keine eingetragenen Vereine sind. Sie gelten dennoch als rechtsfähig. Österreich. Diese Gebilde können als Körperschaftsteuersubjekte in Betracht kommen. China. In China gibt es, wie in Deutschland, eine generelle Trennung zwischen Personengesellschaften wie zum Beispiel dem Gewöhnlichen Partnerschaftsunternehmen und Kapitalgesellschaften. Seit über 20 Jahren ist Equity Joint Venture der am weitesten verbreitete Typ ausländischer Investments in China. Equity Joint Ventures sind Kapitalgesellschaften, die der Rechtsform nach einer deutschen GmbH gleichen. Mindestens ein chinesischer und ein ausländischer Partner bringen finanzielle, materielle oder immaterielle Mittel in das Gemeinschaftsunternehmen ein. Die Gesellschaft muss zudem ein festgelegtes, behördlicherseits zu genehmigendes gemeinsames Unternehmensziel verfolgen. Im Gegensatz zu der mit deutlich weniger Kapitaleinsatz verbundenen Representative-Office-Variante hat ein Equity Joint Venture mehr Rechte. So darf das Unternehmen Landnutzungsrechte kaufen, unabhängig chinesisches Personal anstellen, Gebäude bauen usw. Japan. In Japan existiert neben der Kabushiki kaisha (Aktiengesellschaft), der Gōdō kaisha (Hybridgesellschaft), der Yūgen Sekinin Jigyō Kumiai (japanische Version einer Limited Liability Partnership) und der Gōshi-gaisha (Kommanditgesellschaft) noch die Sōgo-gaisha (Gesellschaft auf Gegenseitigkeit) für Versicherungsunternehmen. Die "Yūgen-gaisha", die 1940 nach dem Vorbild der deutschen GmbH geschaffen wurde, können seit 2006 nicht mehr gegründet werden. Auf bestehende GmbHs werden die Regelungen bezüglich Aktiengesellschaften angewendet. Südafrika. Der "Companies Act" von 1973 sieht in Südafrika die "Share Capital"-Rechtsformen der "Public Company" (plc.) und der "Private Company (PTY) Ltd." (mit bis zu 50 Aktionären), bei denen nur das Gesellschaftsvermögen haftet, und alle übrigen Gesellschaftsformen mit vollhaftenden Gesellschaftern ("Close Corporation", CC), "Partnership" und "Trust" vor. Vereinigte Staaten. siehe Gesellschaftsrecht der Vereinigten Staaten Internationaler Rechtsformvergleich. Wichtige deutsche Rechtsformen der OHG, KG, GmbH und AG lassen sich in ihren Grundstrukturen mit internationalen Rechtsformen vergleichen. Reproduktion. Als Reproduktion wird ein Vorgang bezeichnet, bei dem etwas vervielfältigt wird, sowie häufig auch die im Ergebnis dessen entstandene Kopie. Insbesondere im Zusammenhang mit sozialen Systemen wird unter Reproduktion neben der Neuerstellung auch die Aufrechterhaltung eines Zustandes verstanden. Kann ein System mehr als eine Nachbildung (Kopie, Replikat) seiner selbst erzeugen, ist Wachstum bzw. Vermehrung möglich. Deren Geschwindigkeit wird auch als Reproduktionsrate gemessen. Setzt sich das Wachstum bzw. die Vermehrung ungehindert fort, kommt es zu exponentiellem Wachstum. Soziologie. Unter 'Reproduktion' versteht man in der Soziologie im Zusammenhang mit sozialen Systemen (soziale Reproduktion) neben der Neuerstellung auch die Aufrechterhaltung eines Zustandes ("Reproduktion des Status quo" in im Prinzip dynamischen Systemen). Biologie. Bei Lebewesen spricht man von Vermehrung, von vegetativer Vermehrung oder von generativer Vermehrung, geschlechtlicher Fortpflanzung und Fortpflanzung. Raytracing. Raytracing (dt. Strahlverfolgung oder Strahlenverfolgung, in englischer Schreibweise meist "ray tracing") ist ein auf der Aussendung von Strahlen basierender Algorithmus zur Verdeckungsberechnung, also zur Ermittlung der Sichtbarkeit von dreidimensionalen Objekten von einem bestimmten Punkt im Raum aus. Ebenfalls mit Raytracing bezeichnet man mehrere Erweiterungen dieses grundlegenden Verfahrens, die den weiteren Weg von Strahlen nach dem Auftreffen auf Oberflächen berechnen. Prominenteste Verwendung findet Raytracing in der 3D-Computergrafik. Hier ist der grundlegende Raytracing-Algorithmus eine Möglichkeit zur Darstellung einer 3D-Szene. Erweiterungen, die den Weg von Lichtstrahlen durch die Szene simulieren, dienen, ebenso wie das Radiosity-Verfahren, der Berechnung der Lichtverteilung. Weitere Anwendungsgebiete von Raytracing sind die Auralisation und Hochfrequenztechnik. Ursprung und Bedeutung. Vor der Entwicklung von Raytracing bestand das junge Gebiet der 3D-Computergrafik im Wesentlichen aus einer Reihe von „Programmiertricks“, die versuchten, die Schattierung von beleuchteten Objekten nachzuahmen. Raytracing war der erste Algorithmus auf diesem Gebiet, der einen gewissen physikalischen Sinn ergab. Das erste mit Raytracing berechnete Bild wurde 1963 an der University of Maryland auf einem oszilloskopartigen Bildschirm ausgegeben. Als Entwickler des Raytracing-Algorithmus gelten oft Arthur Appel, Robert Goldstein und Roger Nagel, die den Algorithmus Ende der 1960er Jahre veröffentlichten. Weitere Forscher, die sich zu dieser Zeit mit Raytracing-Techniken beschäftigten, waren Herb Steinberg, Marty Cohen und Eugene Troubetskoy. Raytracing basiert auf der geometrischen Optik, bei der das Licht als eine Gruppe von Strahlen verstanden wird. Die beim Raytracing verwendeten Techniken wurden bereits wesentlich früher, unter anderem von Linsenherstellern, verwendet. Heute verwenden viele Renderer (Computerprogramme zur Erzeugung von Bildern aus einer 3D-Szene) Raytracing, eventuell in Kombination mit weiteren Verfahren. Einfache Formen des Raytracings berechnen nur die direkte Beleuchtung, also das direkt von den Lichtquellen eintreffende Licht. Raytracing wurde seit seiner ersten Verwendung in der Computergrafik jedoch mehrmals wesentlich erweitert. Höher entwickelte Formen berücksichtigen auch das indirekte Licht, das von anderen Objekten reflektiert wird; man spricht dann von einem globalen Beleuchtungsverfahren. Der Begriff "Raycasting" bezeichnet meist eine vereinfachte Form des Raytracings, wird teilweise aber auch synonym dazu gebraucht. Grundprinzip. Die Erzeugung eines Rasterbildes aus einer 3D-Szene wird "Rendern" oder "Bildsynthese" genannt. Voraus geht die Erstellung einer solchen Szene vom Benutzer mit Hilfe eines 3D-Modellierungswerkzeugs. Daneben wird beim Raytracing auch die Position eines "Augpunktes" sowie einer "Bildebene" angegeben, die zusammen die Perspektive angeben, aus der die Szene betrachtet wird. Der Augpunkt ist ein Punkt im Raum, der der Position einer virtuellen Kamera oder eines allgemeinen Beobachters entspricht. Die Bildebene ist ein virtuelles Rechteck, das sich in einiger Entfernung zum Augpunkt befindet. Sie ist die dreidimensionale Entsprechung des zu rendernden Rasterbildes im Raum. Rasterförmig verteilte Punkte auf der Bildebene entsprechen den Pixeln des zu erzeugenden Rasterbildes. Verdeckungsberechnung. Raytracing ist in erster Linie ein Verfahren zur Verdeckungsberechnung, also zur Ermittlung der Sichtbarkeit von Objekten ab dem Augpunkt. Das Grundprinzip ist recht einfach. Raytracing arbeitet mit einer Datenstruktur, "Strahl" genannt, die den Anfangspunkt und die Richtung einer Halbgeraden im Raum angibt. Es wird für jedes Pixel die Richtung des Strahls berechnet, der vom Augpunkt aus zum entsprechenden Pixel der Bildebene weist. Für jedes Primitiv der Szene wird nun mittels geometrischer Verfahren der eventuelle Schnittpunkt, bei dem der Strahl auf das Primitiv trifft, ermittelt. Dabei wird gegebenenfalls die Entfernung vom Augpunkt zum Schnittpunkt berechnet. Der „Gewinner“, also das vom Augpunkt aus sichtbare Primitiv, ist dasjenige mit der geringsten Distanz. Das Prinzip der Aussendung der Strahlen vom Augpunkt aus ähnelt dem Aufbau einer Lochkamera, bei der ein Objekt auf einem Film abgebildet wird. Beim Raytracing sind allerdings „Film“ (Bildebene) und „Loch“ (Augpunkt) vertauscht. Ähnlich wie bei der Lochkamera bestimmt der Abstand zwischen Bildebene und Augpunkt die „Brennweite“ und damit das Sichtfeld. Da die Strahlen nicht wie in der Natur von den Lichtquellen, sondern vom Augpunkt ausgehen, spricht man auch von "Backward Ray Tracing". Raytracing beschäftigt sich mit der Frage, "woher" das Licht kommt. Einige Veröffentlichungen nennen das Verfahren allerdings "Forward Ray Tracing" oder "Eye Ray Tracing." Schnittpunkttests. Der oben erwähnte Test auf einen eventuellen Schnittpunkt von Strahl und Primitive ist das Herzstück des Raytracings. Solche Tests lassen sich für eine Vielzahl von Primitiventypen formulieren. Neben Dreiecken und Kugeln sind unter anderem Zylinder, Quadriken, Punktwolken oder gar Fraktale möglich. Bei Kugeln ist der Schnittpunkttest eine relativ kurze und einfache Prozedur, was die Popularität dieser Objekte auf Raytracing-Testbildern erklärt. Viele Renderprogramme lassen jedoch aus Gründen der Einfachheit nur Dreiecke als Primitiven zu, aus denen sich jedes beliebige Objekt näherungsweise zusammensetzen lässt. Seit Kurzem werden auch komplexere Geometrien für den Schnittpunkttest wie etwa NURBS verwendet. Vorteilhaft dabei ist ein Maximum an Präzision, da die Fläche nicht wie sonst üblich in Dreiecke unterteilt wird. Der Nachteil ist eine erhöhte Renderzeit, da der Schnittpunkttest mit komplexen Freiformflächen sehr viel aufwändiger als mit einfachen Dreiecken ist. Eine hinreichende Annäherung an die Genauigkeit von NURBS ist zwar auch mit Dreiecken möglich, in diesem Fall muss aber eine sehr große Anzahl gewählt werden. Shading. Bei der Ermittlung des nächsten Primitivs wird nicht nur der Schnittpunkt und seine Distanz zum Augpunkt, sondern auch die Normale des Primitivs am Schnittpunkt berechnet. Damit sind alle Informationen vorhanden, um die zum Augpunkt reflektierte „Lichtstärke“ und somit die Farbe zu ermitteln. Dabei werden auch die Beschreibungen der Lichtquellen der Szene genutzt. Den Berechnungen liegen lokale Beleuchtungsmodelle zugrunde, die die Materialbeschaffenheit eines Objekts simulieren. Diesen Teil des Renderers, der für die Ermittlung der Farbe zuständig ist, nennt man "Shader". Beispielcode. Prozedur Bild_Rendern Strahl.Richtung:= [3D-Koordinaten des Pixels der Bildebene] − Augpunkt Farbe des (x,y)-Pixels:= "Farbe_aus_Richtung"(Strahl) Funktion Farbe_aus_Richtung(Strahl) Schnittpunkt:= "Nächster_Schnittpunkt"(Strahl) Farbe_aus_Richtung:= Hintergrundfarbe Farbe_aus_Richtung:= "Farbe_am_Schnittpunkt"(Strahl, Schnittpunkt) Funktion Nächster_Schnittpunkt(Strahl) Schnittpunkt:= "Teste_Primitiv"(Primitiv, Strahl) Nächster_Schnittpunkt:= Schnittpunkt Jeder Raytracer, unabhängig von der verwendeten Raytracing-Variante, folgt einer ähnlichen Struktur, die noch einen Schnittpunkttest ("Teste_Primitiv") und einen Shader ("Farbe_am_Schnittpunkt") enthält. Beschleunigungstechniken. Bei der Bestimmung des ersten Primitivs, auf das ein Strahl trifft, kann, wie im weiter oben aufgeführten Beispielcode, jedes Primitiv der Szene gegen den Strahl getestet werden. Dies ist jedoch nicht grundsätzlich erforderlich, wenn bekannt ist, dass gewisse Primitive sowieso nicht in der Nähe des Strahls liegen und daher nicht getroffen werden können. Da Schnittpunkttests die größte Laufzeit beim Raytracing beanspruchen, ist es wichtig, so wenig Primitive wie möglich gegen den Strahl zu testen, um die Gesamtlaufzeit gering zu halten. Bei den Beschleunigungsverfahren wird die Szene meist in irgendeiner Form automatisch aufgeteilt und die Primitiven diesen Unterteilungen zugewiesen. Wenn ein Strahl durch die Szene wandert, so wird er nicht gegen die Primitiven, sondern zunächst gegen die Unterteilungen getestet. Dadurch muss der Strahl nur noch gegen die Primitive derjenigen Unterteilung getestet werden, die der Strahl kreuzt. Es wurde eine Vielzahl derartiger Beschleunigungstechniken für Raytracing entwickelt. Beispiele für Unterteilungsschemas sind Voxelgitter, BSP-Bäume sowie Bounding Volumes, die die Primitiven umschließen und eine Hierarchie bilden. Mischformen dieser Techniken sind ebenfalls populär. Auch für Animationen gibt es spezielle Beschleunigungstechniken. Die Komplexität dieser Techniken lassen einen Raytracer schnell zu einem größeren Projekt anwachsen. Keine Technik ist generell optimal; die Effizienz ist szenenabhängig. Dennoch reduziert jedes Beschleunigungsverfahren die Laufzeit enorm und macht Raytracing erst zu einem praktikablen Algorithmus. Auf Kd-Bäumen basierende Unterteilungen sind für die meisten nicht-animierten Szenen die effizienteste oder nahezu effizienteste Technik, da sie sich mittels Heuristiken optimieren lassen. Mehrfach festgestellt wurde, dass die asymptotische Laufzeit von Raytracing in Abhängigkeit von der Anzahl der Primitiven logarithmisch ist. Es wurde gezeigt, dass auf modernen Rechnern nicht die Prozessorleistung, sondern Speicherzugriffe die Geschwindigkeit des Raytracings begrenzen. Durch sorgfältige Nutzung von Caching durch den Algorithmus ist es möglich, die Laufzeit wesentlich zu verringern. Ebenfalls möglich ist die Nutzung der SIMD-Fähigkeit moderner Prozessoren, die parallele Berechnungen ermöglicht, sowie speziell darauf optimierter Unterteilungsschemata. Damit ist das gleichzeitige Verfolgen mehrerer, in „Paketen“ zusammengefasster, Strahlen möglich. Grund dafür ist, dass die vom Augpunkt ausgesendeten Strahlen meist sehr ähnlich sind, also meist die gleichen Objekte schneiden. Mit dem Befehlssatz SSE etwa können vier Strahlen gleichzeitig auf einen Schnittpunkt mit einem Primitiv getestet werden, was diese Berechnung um ein Vielfaches beschleunigt. Auf entsprechenden Hardwareimplementationen – zum Beispiel auf FPGAs – können auch größere Pakete mit über 1000 Strahlen verfolgt werden. Allerdings büßen Caching- und SIMD-Optimierungen bei erweiterten Formen des Raytracings viel von ihrem Geschwindigkeitsvorteil ein. Weiterhin ist es möglich, den gesamten Raytracing-Vorgang zu parallelisieren. Dies lässt sich etwa dadurch trivial bewerkstelligen, dass verschiedene Prozessoren bzw. Maschinen unterschiedliche Ausschnitte des Bildes rendern. Lediglich gewisse Beschleunigungstechniken oder Erweiterungen müssen angepasst werden, um parallelisierungstauglich zu sein. Speicherbedarf. Das grundlegende Raytracing-Verfahren benötigt kaum Speicher. Jedoch belegt die Szene selbst, die sich heutzutage bei komplexen Szenen oft aus mehreren Millionen Primitiven zusammensetzt, sehr viel Speicher und kann mehrere Gigabyte umfassen. Hinzu kommt der mehr oder weniger hohe zusätzliche Speicherbedarf der Beschleunigungstechniken. Da solch große Szenen nicht vollständig in den Arbeitsspeicher des Rechners passen, wird häufig Swapping nötig. Bei größeren Objekten, die mehrmals in der Szene vorhanden sind und sich nur durch ihre Position und Größe unterscheiden (etwa bei einem Wald voller Bäume), muss nicht die gesamte Geometrie neu gespeichert werden. Durch diese "Instancing" genannte Technik lässt sich bei bestimmten Szenen erheblich Platz einsparen. Erweiterungen. Einer der Gründe für den Erfolg des Raytracing-Verfahrens liegt in seiner natürlichen Erweiterbarkeit. Das oben beschriebene primitive Verfahren ist für die heutigen Anforderungen der Bildsynthese unzureichend. Mit steigender Rechenleistung und zunehmender Inspiration aus der Physik – vor allem der Optik und der Radiometrie – kamen mehrere Erweiterungen und Varianten auf, von denen einige hier kurz vorgestellt werden sollen. Grundsätzlich gilt, dass mit jeder Erweiterung die erreichbare Qualität der gerenderten Bilder sowie der relative Zeitbedarf stark anstieg und mit Path Tracing das Maximum erreichte. Erst nachfolgende Entwicklungen zielten darauf ab, den Zeitaufwand von Path Tracing zu verringern, ohne an Qualität einzubüßen. Schatten. Aufgrund der Flexibilität des Raytracing-Algorithmus ist es möglich, Lichtstrahlen nicht nur vom Augpunkt, sondern auch von beliebigen anderen Punkten des Raums auszusenden. Wie Arthur Appel bereits 1968 demonstrierte, kann dies dazu benutzt werden, Schatten zu simulieren. Ein beliebiger Punkt einer Oberfläche befindet sich genau dann im Schatten, wenn sich zwischen ihm und der Lichtquelle ein Objekt befindet. Indem vom Schnittpunkt an der Oberfläche ein "Schattenstrahl" in Richtung der Lichtquelle ausgesendet wird, lässt sich bestimmen, ob ein Objekt dessen Weg kreuzt. Ist dies der Fall, so befindet sich der Schnittpunkt im Schatten und es wird als Helligkeit des Strahls 0 zurückgegeben. Im anderen Fall findet normales Shading statt. Rekursives Raytracing. Eines der ersten mit rekursivem Raytracing berechneten Bilder, aus der Veröffentlichung von Turner Whitted 1980 Raytracing lässt sich nicht nur auf einfache lichtundurchlässige, sondern auch auf durchsichtige und spiegelnde, reflektierende Objekte anwenden. Dabei werden weitere Lichtstrahlen von den Schnittpunkten ausgesendet. Bei spiegelnden Flächen etwa muss dabei lediglich die Richtung des von der Fläche ausgehenden Strahls gemäß dem Reflexionsgesetz (Einfallswinkel ist gleich Reflexionswinkel) berücksichtigt und ein entsprechender "Reflexionsstrahl" errechnet werden. Bei lichtdurchlässigen Objekten wird ein Strahl gemäß dem Snelliusschen Brechungsgesetz ausgesendet, diesmal ins Innere des betreffenden Objektes. Generell reflektieren transparente Objekte auch einen Teil des Lichts. Die relativen Farbanteile des reflektierten und des gebrochenen Strahls lassen sich mit den Fresnelschen Formeln berechnen. Diese Strahlen werden auch "Sekundärstrahlen" genannt. Da die Sekundärstrahlen auf weitere Objekte fallen können, wird der Algorithmus rekursiv aufgerufen, um mehrfache Spiegelungen und Lichtbrechungen zu ermöglichen. Die hierarchische Gesamtheit der Aufrufe wird auch "Renderbaum" genannt. "Rekursives Raytracing" wurde um 1980 von Kay und Whitted entwickelt. Funktion Farbe_am_Schnittpunkt(Strahl, Schnittpunkt) Wenn Schnittpunkt.Gewinner.Material = spiegelnd oder transparent dann Reflektierter_Anteil:= "Fresnel"(Strahl, Schnittpunkt) Farbe:= Reflektierter_Anteil × "Farbe_aus_Richtung"(Reflexionsstrahl) + Gebrochener_Anteil × "Farbe_aus_Richtung"(Gebrochener Strahl) SchattenSchnittpunkt:= "Nächster_Schnittpunkt"(Schattenstrahl) Farbe:= Farbe + "Direkte_Beleuchtung"(Strahl, Lichtquelle) Farbe_am_Schnittpunkt:= Farbe Der Rest des Programms kann wie beim einfachen Raytracing bleiben. Die hier aufgerufene Funktion "Farbe_aus_Richtung" kann wiederum "Farbe_am_Schnittpunkt" aufrufen, woraus der rekursive Charakter des Verfahrens deutlich wird. Diffuses Raytracing. Rekursives Raytracing ermöglicht neben Lichtbrechung und -reflexion die Simulation von harten Schatten. In Wirklichkeit haben Lichtquellen jedoch eine bestimmte Größe, was dazu führt, dass Schatten weich und verschwommen wirken. Dieser Effekt, sowie Antialiasing, glänzende Reflexion und mehr, lassen sich mit "diffusem Raytracing" (auch "stochastisches Raytracing" oder "distributed ray tracing" genannt) simulieren, das 1984 von Cook u. a. veröffentlicht wurde. Die Idee ist, in verschiedenen Situationen statt eines Strahls mehrere Strahlen auszusenden und aus den errechneten Farben den Mittelwert zu bilden. Beispielsweise lassen sich weiche Schatten mit Kern- und Halbschatten erzeugen, indem die Richtungen der Schattenstrahlen zufällig verteilt die Oberfläche der Lichtquelle abtasten. Der Nachteil ist, dass dabei Bildrauschen entsteht, wenn zu wenig Strahlen verwendet werden. Es gibt jedoch Möglichkeiten wie Importance Sampling, die das Rauschen reduzieren. Path Tracing und Light Ray Tracing. Globale Beleuchtung mittels Raytracing. Deutlich zu sehen sind Effekte wie die Kaustik unter der Glaskugel und das „Abfärben“ der Wände auf andere Flächen. Obwohl diffuses Raytracing zahlreiche Effekte ermöglicht, ist es immer noch nicht in der Lage, die globale Beleuchtung mit Effekten wie diffuser Interreflexion und Kaustiken (durch Bündelung von Licht erzeugte helle Lichtflecken) zu simulieren. Dies liegt daran, dass zwar bei spiegelnden Reflexionen, nicht jedoch bei diffusen Oberflächen Sekundärstrahlen ausgesendet werden. In seiner 1986 veröffentlichten Publikation beschrieb James Kajiya die Rendergleichung, die die mathematische Basis für alle Methoden der globalen Beleuchtung bildet. Die von einem Strahl beigetragene „Helligkeit“ wird dabei radiometrisch korrekt als Strahldichte interpretiert. Kajiya zeigte, dass zur globalen Beleuchtung Sekundärstrahlen von allen Oberflächen ausgesendet werden müssen. Daneben wies er auch darauf hin, dass ein Renderbaum den Nachteil hat, dass zu viel Arbeit für die Berechnungen in großer Hierarchietiefe verschwendet wird und es besser ist, jeweils einen einzigen Strahl auszusenden. Diese Methode ist heute als "Path Tracing" bekannt, da ein Strahl sich vom Augpunkt aus seinen „Weg“ durch die Szene sucht. Path Tracing hat eine rigorose mathematische und physikalische Basis. Falls beim Path Tracing der von einer diffusen Oberfläche ausgesandte Sekundärstrahl eine Lichtquelle direkt trifft, so wird dieser Helligkeitsanteil üblicherweise ignoriert. Der Anteil der direkten Beleuchtung wird stattdessen weiterhin per Schattenstrahl berechnet. Alternativ kann die direkte Beleuchtung berechnet werden, indem nur ein Sekundärstrahl gemäß dem lokalen Beleuchtungsmodell ausgesendet wird und, falls dieser eine Lichtquelle direkt trifft, deren Strahldichte zurückgegeben wird. Welche dieser beiden Methoden effizienter ist, hängt vom lokalen Beleuchtungsmodell der Oberfläche sowie vom von der Oberfläche betrachteten Raumwinkel der Lichtquelle ab. Die konzeptuell einfachere Variante des Path Tracing, bei der keine Schattenstrahlen ausgesandt werden, ist als "Adjoint Photon Tracing" bekannt. Obwohl Path Tracing die globale Beleuchtung simulieren kann, nimmt die Effizienz des Verfahrens bei kleinen Lichtquellen ab. Insbesondere Kaustiken und deren Reflexionen sind mit Path Tracing sehr verrauscht, sofern nicht sehr viele Strahlen ausgesendet werden. Deshalb werden meist andere, auf Path Tracing basierende Verfahren oder Erweiterungen verwendet. "Light Ray Tracing" ist eine seltene Variante, bei der die Lichtstrahlen nicht vom Augpunkt, sondern von den Lichtquellen ausgesendet werden. Die Pixel, die vom Strahl auf der Bildebene getroffen werden, werden eingefärbt. Dadurch lassen sich bestimmte Effekte wie Kaustiken gut, andere Effekte jedoch nur sehr ineffizient simulieren, da viele Strahlen die Bildebene verfehlen. Weitere Entwicklungen. Da sich einige Effekte nur vom Augpunkt, andere nur von den Lichtquellen aus gut simulieren lassen, wurden Algorithmen entwickelt, die beide Methoden kombinieren. Das Ziel ist es, Szenen mit beliebig komplexer Lichtverteilung und -reflexion effizient rendern zu können. Computergrafik. Raytracing-Berechnungen gelten als sehr zeitintensiv. Raytracing wird daher vornehmlich bei der Erzeugung von Darstellungen eingesetzt, bei denen eher die Qualität als die Berechnungszeit im Vordergrund steht. Ein Bild mit Raytracing zu berechnen, kann abhängig von der verwendeten Technik, der Szenenkomplexität, der verwendeten Hardware und der gewünschten Qualität beliebig lange – in der Praxis oft mehrere Stunden, in Einzelfällen sogar mehrere Tage – dauern. In Bereichen wie der Virtuellen Realität, in der räumliche Darstellungen in Echtzeit berechnet werden müssen, konnte sich Raytracing daher bisher nicht durchsetzen. Computeranimationsfilme werden überwiegend mit dem REYES-System erzeugt, bei dem Raytracing-Berechnungen so weit wie möglich vermieden werden. Gelegentlich wurde Raytracing von der Demoszene genutzt. Gegenüber üblichen Echtzeitrenderern auf Z-Buffer-Basis hat Raytracing jedoch mehrere Vorteile: eine einfache Implementierung mit überschaubarer Komplexität, eine im Gegensatz zur Grafikpipeline hohe Flexibilität sowie die leichtere Austauschbarkeit der Shader und dadurch eine erleichterte Implementierung neuer Shader. Die Geschwindigkeit von Raytracing muss daher in Relation zur erreichten Bildqualität gesetzt werden. Für die anspruchsvollen Qualitätsanforderungen der realistischen Bildsynthese gibt es, insbesondere bei komplizierten Szenen mit beliebigen Materialien, keine Alternative zu Raytracing. Es existieren Bestrebungen, echtzeitfähige Raytracer für komplexe Szenen zu implementieren, was bereits unter bestimmten Voraussetzungen mit prozessor- und speicheroptimierten Softwarelösungen gelungen ist. Auf Hardware optimierte Implementierungen von Raytracing zeigen, dass die künftige breite Nutzung von Raytracing im Echtzeitbereich denkbar ist. Mit diesen Anwendungen beschäftigen sich Projekte wie die OpenRT-Programmierschnittstelle und diverse Implementierungen für programmierbare Grafikprozessoren (GPGPU). Außerdem wurden spezielle Architekturen für hardwarebeschleunigtes Raytracing entwickelt. Weitere Anwendungsgebiete. Raytracing von Funksignalen durch die Erdatmosphäre. Die Signale werden links in zwei unterschiedlichen Winkeln gesendet und erreichen rechts den Empfänger. Das Raytracing-Prinzip kann auf beliebige Anwendungsbereiche ausgeweitet werden, bei denen die Ausbreitung von Wellen in einer Szene simuliert werden soll. Strahlen repräsentieren dabei stets die Normalenvektoren zu einer Wellenfront. In der Auralisation und Hochfrequenztechnik versucht man, die Auswirkungen einer Szene auf die Akustik beziehungsweise auf ein elektromagnetisches Feld zu simulieren. Das Ziel ist es, für bestimmte Frequenzen den Energieanteil zu berechnen, der von einem Sender zu einem Empfänger über die verschiedenen möglichen Wege durch die Szene übertragen wird. In der Akustik ist Raytracing neben der Spiegelschallquellenmethode und der Diffusschallberechnung eine Möglichkeit zur Lösung dieses Problems. Zur Simulation müssen die Materialeigenschaften der verschiedenen Körper sowie die Dämpfung des Schalls durch die Luft berücksichtigt werden. Eine Möglichkeit zum Auffinden der Übertragungswege besteht darin, Strahlen von einer Quelle isotrop (in alle Richtungen) auszusenden, eventuell mit Energieverlust an den Gegenständen zu reflektieren und die Gesamtenergie der auf den Empfänger auftreffenden Strahlen zu ermitteln. Diese Methode wird Ray launching genannt. Strahlen können auch eine bestimmte „Form“ – etwa die einer Röhre – haben, um punktförmige Empfänger simulieren zu können. Der Nachteil dieser Methode ist ihre Langsamkeit, da viele Strahlen nie den Empfänger erreichen und für präzise Statistiken eine hohe Anzahl vonnöten ist. Ein weiteres Problem ergibt sich dadurch, dass die Wellenlänge oft nicht gegenüber den Abmessungen der Körper innerhalb einer Szene vernachlässigbar ist. Sofern die Beugung von Strahlen nicht berücksichtigt wird, kann es daher zu merklichen Fehlern in der Simulation kommen. Richard Wagner. Wilhelm Richard Wagner (* 22. Mai 1813 in Leipzig; † 13. Februar 1883 in Venedig) war ein deutscher Komponist, Dramatiker, Dichter, Schriftsteller, Theaterregisseur und Dirigent. Mit seinen Musikdramen gilt er als einer der bedeutendsten Erneuerer der europäischen Musik im 19. Jahrhundert. Er veränderte die Ausdrucksfähigkeit romantischer Musik und die theoretischen und praktischen Grundlagen der Oper, indem er dramatische Handlungen als Gesamtkunstwerk gestaltete und dazu die Libretti, Musik und Regieanweisungen schrieb. Er gründete die ausschließlich der Aufführung eigener Werke gewidmeten Festspiele in dem von ihm geplanten Bayreuther Festspielhaus. Seine Neuerungen in der Harmonik beeinflussten die Entwicklung der Musik bis in die Moderne. Kritiker sehen Wagner unter Verweis auf seine Schrift "Das Judenthum in der Musik" als einen Verfechter des Antisemitismus. Kindheit und Jugendzeit (1813–1830). Richard Wagners Geburtshaus in Leipzig um 1885 (1886 abgebrochen) Richard Wagner wurde als neuntes Kind des Polizeiaktuarius Carl Friedrich Wagner (1770–1813) und der Bäckerstochter Johanna Rosine Wagner, geb. Pätz (1774–1848) in Leipzig (im Gasthof "Zum roten und weißen Löwen") geboren und am 16. August in der Thomaskirche auf den Namen Wilhelm Richard Wagner evangelisch getauft. Am 23. November 1813, sechs Monate nach Richards Geburt, starb sein Vater an Typhus. Am 28. August 1814 heiratete Wagners Mutter den Maler, Schauspieler und Dichter Ludwig Geyer (1779–1821), der von Carl Friedrich Wagner sehr geschätzt worden war und sich nach dessen Tod der Familie angenommen hatte. Spekulationen, wonach Geyer der leibliche Vater Richard Wagners gewesen sei, sind heute klar widerlegt. Nirgendwo in Wagners schriftlichen und mündlichen Äußerungen gibt es Belege dafür, dass Richard selbst an seiner Abstammung von Carl Friedrich Wilhelm Wagner gezweifelt habe. In ihrem Tagebuch notierte Richard Wagners zweite Ehefrau Cosima am 26. Dezember 1878: „Dann sagt Richard, (Sohn) Fidi, dem er seine Kappe immer zur Aufbewahrung zugeworfen, habe prachtvoll ausgesehen, seinem Vater Geyer ähnlich gesehen. Ich: ‚Vater Geyer ist gewiß dein Vater gewesen.‘ Richard: ‚Das glaube ich nicht.‘ ‚Woher dann die Ähnlichkeit?‘ Richard: ‚Meine Mutter hat ihn damals geliebt, Wahlverwandtschaften.‘“ Wie Fotografien eindeutig belegen, weist der Bruder Albert, Carl Friedrich Wilhelm Wagners ältester Sohn, eine geradezu frappierende Ähnlichkeit mit Richard auf. Noch 1814 übersiedelte die Familie nach Dresden. Am 26. Februar 1815 wurde Richards Halbschwester Cäcilie geboren. Seine älteren Geschwister hießen Albert, Gustav, Rosalie, Julius, Luise, Klara, Theresia und Ottilie. Im Jahr 1817 wurde Richard – noch unter dem Namen Richard Geyer – eingeschult. Zwei Jahre später erkrankte der Stiefvater Ludwig Geyer und starb am 30. September 1821 in Dresden. Danach nahmen mehrere Verwandte das Kind in Betreuung. So kam Richard im Oktober 1821 zum Bruder seines Stiefvaters Karl nach Eisleben, wo auch schon sein Bruder Julius aufgenommen worden war, und lebte dort für ein Jahr unter dem Namen Richard Geyer. Ab dem 2. Dezember 1822 besuchte er die Kreuzschule in Dresden. Im Jahr 1826 übersiedelte die Familie nach Prag, weil Richards Schwester Rosalie dort ein Engagement als Theaterschauspielerin erhielt. Richard blieb in Dresden und war bei der Familie Dr. Böhme untergebracht; er besuchte seine Familie aber mehrmals in Prag. Ab Weihnachten 1827 war er wieder mit seiner zurückgekehrten Familie in Leipzig. Hier besuchte er von 1828 bis 1830, jetzt unter dem Namen Richard Wagner, die Nikolaischule sowie die Thomasschule zu Leipzig. Der vaterlose Knabe fand in dieser Zeit ein Vorbild in seinem Onkel Adolph Wagner, einem Philologen, der sich als Übersetzer der Werke von Sophokles einen Namen gemacht hatte und mit Goethe korrespondierte. Richard las in dessen umfangreicher Bibliothek Shakespeare und die Romantiker, zum Beispiel E. T. A. Hoffmann, und schrieb schon als Schüler sein erstes dramatisches Werk, "Leubald" (1826–1828), ein großes Trauerspiel in fünf Akten im Stile Shakespeares. Mit 16 Jahren erlebte Wagner in Leipzig erstmals Beethovens Oper "Fidelio" mit Wilhelmine Schröder-Devrient in der Titelrolle. Von nun an stand für ihn fest, dass er Musiker werden wollte. Er verfasste kurz darauf erste Sonaten und ein Streichquartett (1829) sowie mehrere Ouvertüren (1830). Sturm und Drang (1831–1834). Ab 1831 studierte Wagner an der Universität Leipzig Musik, außerdem nahm er Kompositionsunterricht beim Thomaskantor Christian Theodor Weinlig, dem er sogleich seine Klaviersonate in B-Dur widmete. Dieses Werk erschien bereits ein Jahr später gedruckt durch den Verlag Breitkopf & Härtel. Davon und auch vom Erfolg der ersten Aufführung seiner Konzertouvertüre in d-Moll im Jahr 1832 in Leipzig angespornt, komponierte Wagner weitere Konzertstücke, unter anderem die C-Dur-Symphonie, die noch im selben Jahr im Prager Konservatorium uraufgeführt wurde. Angeregt durch die Spätromantik, insbesondere von E. T. A. Hoffmann und einem Stoff aus Ritterzeit und Ritterwesen, hatte er den Plan zu seiner ersten Oper unter dem Titel "Die Hochzeit" verfasst. Er dichtete den Text und begann mit der Komposition der ersten Nummern dieses „Nachtstücks von schwärzester Farbe“ (R. W.), dessen übertriebene Schauerromantik bei seiner Schwester Rosalie jedoch wenig ankam. Daraufhin vernichtete Wagner den Textentwurf, von der Partitur blieben Teile erhalten (WWV 31). Wagner war beim Corps Saxonia Leipzig aktiv, allerdings nicht lange. Wagner selbst schrieb, dass er freiwillig das Corps verlassen habe, vor allem aus Enttäuschung über die apolitische Haltung der Leipziger Landsmannschafter (= Corpsstudenten) zum Aufstand der Polen. Die „schmerzliche Trauer“ Wagners über die polnische Niederlage bei Ostrolenka hätten die Landsmannschafter nicht geteilt. Im Zuge der Polenschwärmerei herrschten unter den damaligen Studenten große Sympathien zum Nachbarvolk. Der Schriftsteller und Publizist Heinrich Laube beeindruckte Wagner 1833 mit den Ideen des Jungen Deutschlands, einer revolutionär orientierten literarischen Bewegung des Vormärz. Gleichzeitig begann Wagner mit der Komposition der Oper "Die Feen", nachdem er sein erstes Engagement als Chordirektor des Würzburger Theaters erhalten hatte. In Laubes "Zeitung für die elegante Welt" erschien bald darauf sein Aufsatz "Die Deutsche Oper". Als musikalischer Leiter der Sommersaison in Bad Lauchstädt und des Theaters in Magdeburg lernte er die Schauspielerin Minna Planer kennen und verliebte sich leidenschaftlich in sie. Wagners erste selbstständige musikalische Einstudierung betraf nach seiner Aussage Adolf Müller seniors Musik zu Johann Nestroys Posse "Lumpazivagabundus" (1833). Erste Theatererfahrungen (1835–1841). Wagner arbeitete 1835 an der Oper "Das Liebesverbot" und leitete die zweite Magdeburger Spielzeit. Am 29. März 1836 fand unter desolaten Bedingungen die Uraufführung der Oper "Das Liebesverbot oder Die Novize von Palermo" in Magdeburg statt. Über Berlin reiste Wagner nach Königsberg. Am 24. November heiratete er Minna Planer, die dort als Schauspielerin engagiert war, in der Tragheimer Kirche. Am 1. April 1837 wurde er Musikdirektor in Königsberg. Der Theaterbetrieb brach allerdings kurz darauf wegen Bankrotts der Direktion zusammen. Wagner war gewohnt, über seine Verhältnisse zu leben und ansässige Bürger um Darlehen zu bitten, die er nicht zurückzahlen konnte. Im Juni 1837 erlangte er eine Kapellmeisterstelle in Riga, wo er sich zunächst vor seinen deutschen Gläubigern in Sicherheit bringen konnte. Im Juli verließ ihn seine Frau Minna mit einem Kaufmann namens Dietrich; sie kehrte im Oktober aber reumütig wieder zu ihm nach Riga zurück. Hier entstanden der Text und der Beginn der Partitur seiner ersten Erfolgsoper "Rienzi". Wagner lernte hier auch Wilhelm Hauffs Märchen vom "Gespensterschiff" mit dem Holländer-Stoff kennen. Mit dem Theaterdirektor Karl von Holtei plante er ein Singspiel unter dem Titel "Die glückliche Bärenfamilie", sperrte sich aber bald gegen den Theaterbetrieb. In dieser Zeit ging die Epoche der Wanderbühnen zu Ende, die zunehmend Stadttheatern mit festem Personal weichen mussten. Bereits 1839 verlor Wagner seine Stellung in Riga wieder. Aus Furcht vor seinen Gläubigern überschritten seine Frau und er heimlich die russisch-ostpreußische Grenze und fuhren auf dem kleinen Segelschiff "Thetis" nach London. Die stürmisch verlaufende, mehrfach in norwegischen Häfen unterbrochene und schließlich über vier Wochen dauernde Seefahrt, bei der das Schiff beinahe kenterte, brachte Inspirationen für den "Fliegenden Holländer". Nach kurzem Aufenthalt in London reiste das Paar über Boulogne-sur-Mer, wo Wagner den führenden Pariser Opernkomponisten Giacomo Meyerbeer persönlich kennenlernte, weiter nach Paris. Wagner verbrachte mit Minna die Jahre 1840 und 1841 unter ärmlichen wirtschaftlichen Bedingungen in Paris. Er vollendete dort "Rienzi" (1840) und schrieb und komponierte den "Fliegenden Holländer" (1841). Meyerbeer erkannte seine Begabung und förderte ihn, doch war er von Wagners „Pumpgenie“ (Thomas Mann) weniger begeistert. In Paris befanden sich die führenden Theater der Welt. Gelehrig nahm Wagner Anregungen der Grand opéra oder des Melodrams auf. Um sich und seine Frau ernähren zu können, verfasste er Artikel für diverse Journale und erledigte musikalische Lohnarbeiten. Er lernte Heinrich Heine und Franz Liszt kennen. Aus Geldnot musste er sogar den Prosaentwurf zum "Fliegenden Holländer" unter dem Titel "Le vaisseau fantôme" für 500 Francs an die Pariser Oper verkaufen, die den Kompositionsauftrag an ihren Hauskomponisten Pierre-Louis Dietsch vergab – was Wagner indes nicht davon abhielt, seine Idee selbst auszuführen und in Musik zu setzen. In Paris setzte er sich mehr und mehr mit den politischen Vorgängen in Frankreich auseinander. Während ihn in jungen Jahren die Gräuel der Französischen Revolution „mit aufrichtigem Abscheu gegen ihre Helden“ erfüllt hatten, wie er in "Mein Leben" schrieb, reagierte er ganz anders, als Lafayette die liberale Opposition in Paris anführte. „Die geschichtliche Welt begann für mich von diesem Tage an; und natürlich nahm ich volle Partei für die Revolution, die sich mir nun unter der Form eines mutigen und siegreichen Volkskampfes, frei von allen den Flecken der schrecklichen Auswüchse der ersten französischen Revolution darstellte.“ In diese Zeit fiel auch die Beschäftigung mit Ludwig Feuerbachs religionskritischer Philosophie und den Theorien des französischen Frühsozialisten und frühen Theoretikers des modernen Anarchismus, Pierre-Joseph Proudhon. Vor allem die Formulierung Proudhons zur Frage: „Was ist Eigentum?“ sollte Wagner zeitlebens beschäftigen: „Solange Eigentum Privilegien birgt, solange bedeutet privilegiertes – also erpresserisches – Eigentum Diebstahl.“ Diese Einstellung wurde vor allem in seinem Nibelungendrama ein roter Faden. Dresdner Jahre (1842–1849). Das alte Dresdner Hoftheater zur Zeit Richard Wagners Im Frühjahr 1842 erhielt Wagner von der Dresdner Hofoper die Nachricht, dass man seine neue Oper "Rienzi" aufführen wolle. Nachdem ihm in Paris nicht gelungen war, künstlerische Pläne voranzubringen und dort Erfolg zu haben, verließ er die Stadt im April 1842 und siedelte sich in Dresden an. Den Juni verbrachte er in Teplitz-Schönau, wo er schon 1834 und 1836 gewesen war. Auf dem Schreckenstein entstand der erste "Tannhäuser"-Entwurf. Die Uraufführung des "Rienzi" fand am 20. Oktober in Dresden statt. Sie war ein großer Erfolg und bedeutete den künstlerischen Durchbruch des jungen Wagner. Etwa zur gleichen Zeit wurde Franz Liszt Hofkapellmeister in Weimar. Wagner wurde 1843 zum Königlich-Sächsischen Kapellmeister an der Dresdner Hofoper ernannt und konnte dort auch am 2. Januar seine Oper "Der fliegende Holländer" zur Uraufführung bringen. Wenig später übernahm er auch zusätzlich die Leitung der Dresdner Liedertafel, in deren Auftrag er das monumentale Chorwerk "Das Liebesmahl der Apostel" komponierte; die Uraufführung am 6. Juli 1843 in der Frauenkirche im Rahmen des Zweiten Allgemeinen Dresdner Männergesangsfestes war durch und durch ein Erfolg. Wagner distanzierte sich aber in der Folge davon, weitere oratorische Werke zu komponieren, und führte das Werk zu Lebzeiten nicht mehr auf. Kurz darauf überredete er seinen Freund Ferdinand Hiller, die Leitung der Dresdner Liedertafel zu übernehmen. Es entstanden Freundschaften mit Anton Pusinelli und August Röckel, mit dem er vor allem Gespräche über Politik führte. Wagner arbeitete 1844 weiter an der Oper "Tannhäuser und der Sängerkrieg auf (der) Wartburg". Im Juli 1845 hielt er sich in Marienbad auf und entwarf dort in einer ersten Inhaltsskizze die Handlung zu den "Meistersingern von Nürnberg". Er beschäftigte sich intensiv mit den deutschen Sagen, vor allem dem Nibelungen- und dem Gral-Mythos, und begann mit der Konzeption seiner Oper "Lohengrin". In Dresden leitete er am 19. Oktober die Uraufführung seines "Tannhäuser". Wagner dirigierte 1846 Beethovens 9. Symphonie – wobei er u. a. den jungen Hans von Bülow tief beeindruckte – und begann im Sommer, während eines dreimonatigen Urlaubs in Graupa nahe Dresden, mit der Komposition des "Lohengrin". Am 9. Januar 1848 verstarb Wagners Mutter in Leipzig. Im Frühjahr 1848 besuchte Franz Liszt Wagner erstmals in Dresden, wenig später kam es zu einem Gegenbesuch bei Liszt in Weimar, womit eine lange Freundschaft begann. Um sich Anregungen für eine Theaterreform zu holen, reiste Wagner im Sommer 1848 nach Wien. Anschließend schloss er sich in Dresden den im Zuge der Märzrevolution verstärkten republikanischen Reformbestrebungen in Sachsen an und lernte dabei auch den russischen Anarchisten Michail Bakunin kennen. Wagner bemühte sich um eine Theaterreform am Hoftheater und entwickelte seine Idealvorstellungen über den Stellenwert der Kunst in der Gesellschaft. Er veröffentlichte einige Beiträge in den "Volksblättern" seines Freundes August Röckel, u. a. die Schrift "Die Revolution". Zur gleichen Zeit entstand seine Abhandlung "Die Wibelungen": "Weltgeschichte aus der Sage", eine Vorstufe zu seinem Hauptwerk "Der Ring des Nibelungen", dessen Konzeption mit dem "Siegfried" gleichzeitig entstand, ebenso wie die Konzeption eines Musikdramas "Jesus von Nazareth", wobei er Jesus vor allem als Sozialrevolutionär sah. Im Frühjahr 1849 beteiligte er sich aktiv am Dresdner Maiaufstand. Nach der Niederschlagung der Volksunruhen wurde er wie auch seine Freunde Gottfried Semper und August Röckel von der Polizei steckbrieflich gesucht und sah sich gezwungen zu fliehen. Im Freundes- und Mitarbeiterkreis spielte er seine Beteiligung am Dresdner Aufstand herunter. Sein späterer Mitarbeiter Hermann Zumpe (tätig in Bayreuth von 1873 bis 1875) zitiert die folgende Beschreibung von Wagners Rolle: „Aus seinem (Wagners) Munde bei einem Gartenfest in Wahnfried: Semper auf dem Balkon in einer Rede begriffen, Wagner erschrocken unter dem Volk, springt hinauf, um Semper vom Balkon zu reissen – da erblickt man ihn und –: Mit gefangen etc.“ Zürcher Jahre (1849–1858). Wagner floh mit falschem Pass zunächst in die Schweiz und blieb nach einem kurzen Aufenthalt in Paris dauerhaft in Zürich im Exil. Dort entstanden in den Folgejahren die "Zürcher Kunstschriften", unter anderen "Die Kunst und die Revolution, Das Kunstwerk der Zukunft" und seine große musiktheoretische Schrift "Oper und Drama". In einem regen Briefaustausch mit seinen Freunden Franz Liszt, August Röckel und Theodor Uhlig entwickelte und erklärte er seine zukünftigen künstlerischen Ambitionen. Mit seinem neuen Opernentwurf "Wieland der Schmied" versuchte Wagner in Paris erneut sein Glück, allerdings vergeblich. Er lernte die junge Jessie Laussot kennen, die in unglücklicher Ehe gebunden war, und folgte ihr nach Bordeaux, in der Absicht, sein bisheriges Leben hinter sich zu lassen und mit ihr nach Griechenland zu fliehen. Nach einigen Wochen beendete er die Affäre und kehrte zu seiner Frau nach Zürich zurück. In Weimar fand am 28. August 1850 in Abwesenheit Wagners die Uraufführung von "Lohengrin" unter der Leitung von Franz Liszt statt. Mathilde Wesendonck, 1860, nach einem Porträt von C. Dorner Wagner lernte 1852 Otto und Mathilde Wesendonck kennen und begann nach einer Kur in der Wasserheilanstalt Albisbrunn, südlich von Zürich gelegen, mit der Dichtung zum "Ring des Nibelungen". Er lernte Georg Herwegh kennen, einen Weggenossen von Karl Marx, der ein reger Diskussionspartner und Wanderfreund wurde. Wagner unternahm ausgedehnte Bergtouren, unter anderem eine mehrwöchige Fußwanderung nach Italien. In der Einsamkeit der Hochgebirgslandschaften und erhabenen Gletscher sah er die idealen Szenenbilder für seinen "Ring". Am 16. Februar 1853 las Wagner erstmals öffentlich seine komplette Ring-Dichtung an vier Abenden im Hotel Baur au Lac in Zürich. Im Mai 1853 gab Wagner enthusiastisch aufgenommene Konzerte mit Ausschnitten aus eigenen Werken in Zürich. Im Juli besuchte ihn Liszt; bei dieser Gelegenheit kam es zum Bruderschaftstrunk mit Liszt und Herwegh. Wagner reiste im September erneut nach Italien, wo ihm in einem Hotel in La Spezia im Halbschlaf die Ur-Idee zum musikalischen Beginn des "Rings des Nibelungen" kam, und konzipierte das "Rheingold"-Vorspiel. Am 10. Oktober war Wagner bei Liszt in Paris und sah zum ersten Mal dessen Tochter Cosima, die zu diesem Zeitpunkt 15 Jahre alt war. Im Herbst 1854 vollendete Wagner die "Rheingold"-Komposition, an der er seit Oktober 1851 mit zahlreichen Unterbrechungen gearbeitet hatte. Richard Wagner las 1854 auf Empfehlung von Herwegh Schopenhauers Hauptwerk "Die Welt als Wille und Vorstellung". Im selben Jahr begann er mit der Konzeption von "Tristan und Isolde". Die Oper wurde grundlegend von der Philosophie Schopenhauers beeinflusst. 1855 gab Wagner mehrere Konzerte in London, 1856 richtete er ein Gnadengesuch an den sächsischen König. Zwischenzeitlich lebte er auf dem sogenannten „Grünen Hügel“ neben der Villa Wesendonck in Zürich, arbeitete an "Siegfried" und später an "Tristan und Isolde" und vertonte – als musikalische Studien zum "Tristan" – fünf Gedichte von Mathilde Wesendonck ("Wesendonck-Lieder"). Am 18. August 1857 wurden Hans von Bülow und Cosima in Berlin getraut und unternahmen ihre Hochzeitsreise zu Wagner nach Zürich. Wagners Affäre mit Mathilde Wesendonck spitzte sich 1858 zu: Nachdem Minna die Beziehung ihres Mannes zur verheirateten Mathilde Wesendonck aufgedeckt und einen Eklat provoziert hatte, trennte sich Wagner von seiner Frau. Er reiste nach Venedig, wo er den zweiten Akt des "Tristan" komponierte. Seine Frau übersiedelte nach Dresden. Wanderjahre (1859–1865). Im Frühjahr 1859 musste Wagner aus politischen Gründen das damals unter österreichischer Verwaltung stehende Venedig verlassen. Er begab sich nach Luzern und vollendete im Hotel Schweizerhof den "Tristan". Danach ging er wieder nach Paris, wohin Minna ihm nachfolgte. In Fürstin Pauline von Metternich und Marie von Kalergis (später Fürstin Muchanoff) fand er neue Mäzene, die ihm Konzerte in Paris und Brüssel ermöglichten. Im August 1860 konnte Wagner nach einer Teilamnestie durch den sächsischen König wieder deutschen Boden betreten. Wagner studierte 1861 an der Opéra Garnier in Paris eine neue, französische Fassung seines "Tannhäuser" ein, für die er die erste Szene neu komponiert und ein Ballett eingefügt hatte. Trotzdem entsprach das Ergebnis nicht den vorgefassten Erwartungen einiger Pariser Publikumsclubs, so dass es zum Tannhäuser-Skandal kam. Auch hatte der Dirigent der Aufführung, Pierre-Louis Dietsch, nach Wagners Meinung die Produktion sabotiert. Nach der dritten durch Zwischenrufe gestörten Aufführung zog Wagner sein Werk zurück. Er verließ Paris und hielt sich in Karlsruhe, Venedig und Wien auf, kehrte dann einige Wochen später wieder nach Paris zurück, um im Auftrag des Musikverlegers Franz Schott aus Mainz mit seiner neuen Arbeit "Die Meistersinger von Nürnberg" zu beginnen. Anfang 1862 siedelte er nach Biebrich um, um die Musik zu den "Meistersingern" zu komponieren. Ein neues Zusammentreffen mit Minna Anfang 1862 in Biebrich führte zur endgültigen Trennung des Ehepaars. Im gleichen Jahr erließ der König von Sachsen eine vollständige Amnestie, worauf Wagners Freund und Gönner Wendelin Weißheimer ihm erstmals wieder ein Konzert in Leipzig, seiner Heimatstadt, ermöglichte. In Weimar sah Wagner Franz Liszt wieder. Im Juli traf er sich mit den Bülows, danach blieb er in Wien und wohnte einige Monate in Penzing, um die geplante Uraufführung seines "Tristan" zu begleiten, zu der es aber wegen zahlreicher Schwierigkeiten nicht kam. Im Wiener Musikverein gab er im Beisein der Kaiserin Elisabeth einige umjubelte Konzerte, erstmals mit Ausschnitten aus seinem "Ring". Im Jahr 1863 gab Wagner Konzerte in Sankt Petersburg, Moskau, Budapest, Prag und Karlsruhe, die künstlerisch erfolgreich waren, jedoch nicht die erwarteten Einnahmen brachten. Am 28. November bekannten sich Wagner und Cosima in Berlin gegenseitig ihre Liebe. Im Frühjahr 1864 flüchtete Wagner vor Steuerfahndung und Gläubigern aus Wien und besuchte Eliza Wille in Mariafeld bei Zürich. Der junge König Ludwig II. von Bayern Letzte Rettung aus größter finanzieller Not und persönlicher Verzweiflung ergab sich für Wagner indirekt dadurch, dass er am 4. Mai 1864 von König Ludwig II. in München empfangen wurde, der wenige Wochen zuvor im Alter von 18 Jahren die Regentschaft vom verstorbenen Vater Maximilian übernommen hatte. Wagner war nicht nur der Lieblingskomponist des Königs, sondern wurde auch sein „väterlicher“ Freund und Berater. Der König blieb bis zum Tode Wagners dessen Mäzen. In dieser exponierten Stellung nahm Wagner Einfluss auf politische Entscheidungen des jungen Königs und verfasste verschiedene politische Schriften. Im Juni und Juli des gleichen Jahres weilte Cosima bei Wagner im Haus Pellet am Starnberger See, wo sie ihre Liebesbeziehung besiegelten. Der König stellte ihm in der Brienner Straße in München als Wohnsitz ein Haus zur Verfügung. Am 10. April 1865 wurde in München Isolde geboren, das erste gemeinsame Kind von Cosima (noch eine verheiratete "von Bülow") und Richard Wagner. Am 10. Juni fand die Uraufführung von "Tristan und Isolde" in München statt. Am 17. Juli begann Wagner seine Autobiographie "Mein Leben" zu diktieren. Wegen heftiger Proteste der Bevölkerung und der Regierung, die Wagner und Ludwig II. Verschwendungssucht vorhielten, verließ Wagner Bayern im Dezember in Richtung Schweiz. Er mietete vorübergehend ein Landhaus bei Genf, begann sich dort einzurichten und die Komposition des ersten Akts der "Meistersinger" fortzusetzen. Auf der Suche nach einem dauerhaften Wohnsitz reiste er Anfang 1866 nach Toulon, Lyon und Marseille. Asyl in Tribschen (1866–1871). Inzwischen war seine Frau Minna am 25. Januar 1866 in Dresden gestorben. Ende März mietete Wagner das bei Luzern gelegene Landhaus Tribschen und zog am 15. April dort ein. Die unterbrochene Kompositionsarbeit an den "Meistersingern" wurde wieder aufgenommen. Am 22. Mai erhielt er überraschenden Besuch von König Ludwig und Paul von Thurn und Taxis. Ludwig wollte als König abdanken und bei Richard Wagner bleiben, der den jungen König jedoch überzeugen konnte, nach München zurückzukehren. Wenige Monate später zog Cosima mit ihren beiden Bülow-Kindern Daniela und Blandine und der Wagner-Tochter Isolde bei ihm ein. Richards und Cosimas gemeinsames zweites Kind Eva wurde dort am 17. Februar 1867 geboren. Die Uraufführung der "Meistersinger" fand am 21. Juni 1868 in München statt. Am 8. November kam es in Leipzig zur ersten Begegnung mit Nietzsche. Ab dem 16. November lebte Cosima endgültig bei Wagner und begann am 1. Januar 1869 ihr Tagebuch zu schreiben. Friedrich Nietzsche, seit kurzem Professor in Basel, kam nun regelmäßig (insgesamt 23 Mal) als Gast nach Tribschen und war auch zugegen, als am 6. Juni 1869 Siegfried, Cosimas und Richards drittes Kind, geboren wurde. Am 22. September fand auf Veranlassung König Ludwigs, jedoch gegen den Willen Wagners, in München die Uraufführung von "Das Rheingold" statt. Auch die Uraufführung der "Walküre" erfolgte ohne Wagners Zustimmung, der den "Ring" nur vollständig aufführen wollte, am 26. Juni 1870 in München. Am 18. Juli 1870 wurde die Ehe Cosimas und Hans von Bülows geschieden, am 25. August wurden Cosima und Richard Wagner in der protestantischen Kirche von Luzern getraut. Am 25. Dezember 1870 fand die Uraufführung des "Siegfried-Idylls" als Geburtstagsgeschenk für Cosima auf der Treppe in Wagners Haus in Tribschen statt. Wagner wählte 1871 Bayreuth als Festspielort und kündigte erstmals Festspiele zur Aufführung des Ring des Nibelungen an. Im April reiste er mit Cosima über Bayreuth nach Berlin, wo sie von Otto von Bismarck empfangen wurden. Eine finanzielle Unterstützung der geplanten Festspiele durch das Deutsche Kaiserreich konnte Wagner nicht erreichen. Zur Finanzierung der Festspiele wurden ab 1872 Wagnervereine gegründet und Patronatsscheine verkauft; eine wesentliche Rolle spielte hier Marie Gräfin Schleinitz, die Wagner 1863 kennengelernt hatte und ihn zeitlebens enthusiastisch förderte. Die Bayreuther Jahre (1872–1881). Wagner verließ im Frühjahr 1872 mit Cosima und den Kindern Tribschen, um nach Bayreuth zu ziehen, zunächst ins Hotel Fantaisie neben dem gleichnamigen Schloss in Donndorf, etwa sieben Kilometer westlich von Bayreuth, dann in eine Stadtwohnung. Am 22. Mai konnte er den Grundstein für sein Festspielhaus legen. Er war 1873 oft auf Konzertreisen, um Geld für seine Festspielstiftung einzuspielen. Bruckner und Nietzsche waren zu Besuch in Bayreuth. Am 2. August 1873 fand das Richtfest des Festspielhauses statt. In diesem Jahr hatte Friedrich Nietzsche seine ersten schweren Krankheitsanfälle. Auch Wagner war von den vielfältigen Belastungen seiner Arbeit zunehmend angegriffen und hatte in den letzten zehn Lebensjahren unter regelmäßigen Herzanfällen zu leiden. Im Dezember 1873 wurde ihm der Königliche Maximiliansorden für Kunst und Wissenschaft verliehen, der ihm bereits 1864 zugedacht war und den er damals aus politisch-persönlichen Überlegungen nicht angenommen hatte. Am 28. April 1874 bezogen Cosima und Richard Wagner das Haus Wahnfried. Die Partitur des "Ring des Nibelungen" wurde am 21. November 1874 beendet und König Ludwig gewidmet, der – nach längerem Zögern – mit einer zusätzlichen finanziellen Unterstützung das Festspielunternehmen rettete, als Wagners eigene Mittel und eingehende Spenden zu versiegen drohten. Das Festspielhaus war 1875 so weit fertiggestellt, dass bereits die Proben beginnen konnten. Im Bayreuther Festspielhaus hatte Wagner ein „unsichtbares Orchester“ anlegen lassen, indem der Orchestergraben mit einer Abdeckung zum Publikum hin abgeschirmt wurde („mystischer Abgrund“). Dadurch konnte die Konzentration der Zuschauer einzig auf die dramatische Handlung und die akustische Wahrnehmung der Musik gerichtet werden, ohne dass deren Tonerzeugung sichtbar wurde. Wie sich zeigte, war durch diese Einrichtung aber auch eine besondere Klangqualität erreicht worden. Die einzigartige Akustik des Hauses beruht außerdem darauf, dass der Raum ein Holzbau ist und der Zuschauerraum keine Logen an den Seiten hat. Die Sitze sind ungepolstert, so dass weniger Schall geschluckt wird. Die Idee zu dieser Anlage des Festspielhauses geht zurück auf das Theater in Riga, wo Wagner in einer Art Scheune dirigieren musste, die durch eine Bretterwand unterteilt war, von deren Akustik er jedoch begeistert war. In Anwesenheit Kaiser Wilhelms I. begannen am 13. August 1876 die ersten Bayreuther Festspiele mit der vollständigen Aufführung des "Ring des Nibelungen". Im September reiste Wagner nach Italien und hatte eine letzte Begegnung mit Nietzsche in Sorrent. In den Jahren 1877 bis 1879 arbeitete Wagner in seinem Haus Wahnfried am "Parsifal". Während eines London-Aufenthalts wurde er von Königin Victoria von Großbritannien empfangen. Am 31. Dezember 1879 verreiste Wagner erneut nach Italien und hielt sich im Folgejahr überwiegend in Neapel, Ravello, Siena und Venedig auf. Dort entstanden auch seine sogenannten „Regenerationsschriften“ ("Religion und Kunst"), die in den von Hans von Wolzogen herausgegebenen "Bayreuther Blättern" veröffentlicht wurden. Im November 1881 reiste der gesundheitlich angeschlagene Wagner wegen des günstigeren Klimas mit seiner Familie nach Sizilien und vollendete am 13. Januar 1882 in Palermo den "Parsifal", der im selben Jahr bei den zweiten Bayreuther Festspielen am 26. Juli uraufgeführt wurde. Zuvor gab es in München eine Privataufführung des Parsifal-Vorspiels für König Ludwig; es war ihre letzte Begegnung. Tod in Venedig 1883. Am 16. September 1882 reiste Wagner mit seiner Familie abermals nach Venedig, wo er auch mehrere Wochen mit Franz Liszt zusammen war. Am 25. Dezember gab er als Geburtstagsgeschenk für Cosima letztmals ein gemeinsames Konzert im Teatro La Fenice; er dirigierte seine Jugendsymphonie in C-Dur. Am 13. Februar 1883 hielt er sich in dem von ihm und seiner Familie bewohnten Seitenflügel des Palazzo Vendramin-Calergi auf. Gegen 15 Uhr wartete die Familie bei Tisch auf Wagner, der trotz Herzkrämpfen in seinem Arbeitszimmer an einem Aufsatz "Über das Weibliche im Menschlichen" schrieb. Das Hausmädchen fand ihn zusammengesunken an seinem Schreibtisch über den Worten „Gleichwohl geht der Prozeß der Emanzipation des Weibes nur unter ekstatischen Zuckungen vor sich. Liebe – Tragik“. Er sagte noch: „Meine Frau und der Doktor“, bevor er in Bewusstlosigkeit fiel und gegen 15:30 Uhr in Cosimas Armen starb. Der Bildhauer Augusto Benvenuti nahm am 14. Februar die Totenmaske ab. Am 16. Februar wurde Wagners einbalsamierter Leichnam, begleitet von seiner Familie und einigen Freunden, in zwei Sonderwagen, die dem Zug aus Venedig angehängt waren, über München nach Bayreuth überführt. Nach der Ankunft am Sonntag, dem 18. Februar, in Bayreuth wurde der Sarg unter den Klängen des Trauermarsches aus "Götterdämmerung" unter der Anteilnahme der Bayreuther Bevölkerung vom Bahnhof zur Villa Wahnfried geleitet und in der vorbereiteten Gruft im Garten beigesetzt. Intention Wagners. Wagner wollte die aus seiner Sicht „dekadenten“ Theater reformieren, mit Hilfe seiner Kunst zu einer besseren Volkserziehung beitragen und somit die Welt verbessern. Bereits in jungen Jahren war er von der Idee beherrscht, Musik und Drama zu verknüpfen ("Das Kunstwerk der Zukunft", "Oper und Drama") und in Anlehnung an die Tradition der griechischen Tragödien eine neue Kunstrichtung zu begründen. In seinen Schriften hat er immer wieder beschrieben, wie mit Hilfe von Musik dramatische Handlungen zu „Botschaften“ werden können und die Musik (das weiblich „gebärende Element“) der Dichtung (der männlich „zeugende Samen“) zusätzliche Ausdruckskraft verleiht. Seine Konzeption vertrat er mit Vehemenz und arbeitete zielstrebig darauf hin, seine Kunstidealvorstellung (in Form von Festspielen an einem Ort der Muße) zu verwirklichen. In König Ludwig II. fand er einen Gleichgesinnten, so dass beide ihre Kunstideale (Festspielhaus, Musikschule, Kunsterziehung) in München realisieren wollten. Dieses Vorhaben scheiterte jedoch und konnte erst später in Bayreuth verwirklicht werden. Dort entwickelte sich Wagners Festspielkonzept vor allem mit seinem Bühnenweihfestspiel "Parsifal" zu einem „Religionsersatz“ durch die Kunst ("Religion und Kunst"). Musik. Wagners Werke sind ein Höhepunkt der romantischen Musik und beeinflussten viele Zeitgenossen und spätere Komponisten erheblich. Vor allem der "Tristan" brachte die Musiksprache des 19. Jahrhunderts weit voran und gilt vielen als Ausgangspunkt der Modernen Musik. Das betrifft vor allem die Harmonik. Während in der Epoche der Klassik bis zum Tode Beethovens die Melodik der vorrangige Bereich der Erfindungskraft war und als persönliche Sprache der Komponisten betrachtet wurde, tritt mit Wagner und Liszt die Harmonik in den Vordergrund. Mit dem "Tristan", dessen erster Akt 1857 komponiert wurde, führte Wagner sie weit über den Stand hinaus, auf dem Brahms noch 1892 in seinen späten Klavierstücken op. 117 bis 119 blieb. Sie ist das Gebiet, auf dem Wagners Phantasie sich entfaltet, einen charakteristischen Personalstil entwickelt und durch die jeweilige dramatische Situation des Geschehens in Grenzen gehalten wird, sich also nicht im Unendlichen verliert. Wagners Einfluss auf die Musikgeschichte zeigt sich zum Beispiel darin, dass mehr als 100 Jahre nach der Komposition des Werkes die komplexen harmonischen Verläufe des Tristan-Akkords analysiert und unterschiedlich interpretiert wurden und von der Krise der modernen Harmonielehre die Rede war. Das sahen auch viele zeitgenössische Komponisten so. Ein besonderer Verehrer Wagners war z. B. Anton Bruckner, der durch Wagners Tod zum Trauersatz seiner siebten Sinfonie inspiriert wurde. Von Wagner hat er aber nur die Harmonik und die extreme Länge seiner Kompositionen übernommen, während seine Formen durch ihre klaren Kanten in großem Gegensatz zu den fließenden Übergängen Wagners stehen. Hier brachte erst das neue Jahrhundert mit der Zwölftontechnik Arnold Schönbergs eine echte Weiterentwicklung. Dieser Bewertung wird gelegentlich entgegengehalten, dass schon Komponisten vor Wagner bedeutende harmonische Neuerungen in die Musik eingeführt haben. Dies gilt etwa für Frédéric Chopin, dessen gewagte Chromatik bzw. Harmonik – etwa in einigen Préludes und Nocturnes – seine Zeitgenossen überraschte. Tristan und Isolde – Vorspiel Bei Wagners Einfluss, dem sich viele zu entziehen versuchten, kann zudem nicht von einer kontinuierlichen, gleichförmigen Entwicklung gesprochen werden. Komponisten wie etwa Pjotr Iljitsch Tschaikowski und Antonín Dvořák bewegten sich noch in „traditionellen“ harmonischen Bahnen, während Richard Strauss und Gustav Mahler die wagnersche Tonsprache übernahmen. Gattungsgeschichtlich liegt Wagners Bedeutung in der Weiterentwicklung der sogenannten Nummernoper zum Musikdrama. Während etwa Webers "Freischütz" eine Abfolge einzelner Nummern (Arien, Duette, Chöre etc.) ist, die durch gesprochene Rezitative miteinander verbunden werden, herrscht bei Wagner – vor allem in seinen reifen Werken – die sogenannte „unendliche Melodie“. Das Orchester beginnt am Anfang eines Aktes zu spielen und hört am Aktende auf; gesprochen wird nicht. Es gibt keine Arien mehr, sondern – gesungene – Erzählungen bzw. Monologe, Dialoge etc. Sie stehen aber nicht isoliert neben- bzw. nacheinander, sondern werden miteinander durch die Orchestermusik verwoben. Dabei bedient sich Wagner der Leitmotivtechnik, d. h., er ordnet einer bestimmten Person, einem Gegenstand oder einem Gefühl (Liebe, Sehnsucht, Wut) ein bestimmtes musikalisches Motiv zu, das immer dann zu hören ist, wenn die Person, der Gegenstand oder das Gefühl auftaucht. Wagner wollte „Gedachtes“ und „Gefühltes“ musikalisch ausdrücken und bewirkte mit einer solchen „absichtsvollen Musik“ eine bis dahin nicht gekannte „psychologische Wirkung“ beim Zuhörer. Mit der Leitmotivtechnik im "Ring des Nibelungen" und bei "Tristan und Isolde" ist ihm dies eindrucksvoll gelungen. In zwei Fällen soll Wagners Musik Emotionen ausgelöst haben, die zum Tode führten – 1911 beim Tod von Felix Mottl während des 2. Aktes des "Tristan" und 1968 beim Herztod des Dirigenten Josef Keilberth, ebenfalls im 2. Akt des "Tristan". Wagner als Persönlichkeit. Wagner hatte „sein Herz auf der Zunge“ und gewann viele Freunde, die sich für ihn und seine Kunst einsetzten, zum Beispiel Franz Liszt, Otto von Wesendonck und Julie Ritter. Er konnte charmant sein und beanspruchte für sich und seine Kunst, von der „Gesellschaft“ unterstützt zu werden (es gab damals noch keine Tantiemen für Wiederaufführungen von Kunstwerken). Seine finanziellen Probleme sah er als „lächerliche Schulden“, denen man in der Zukunft erheblich größere „Aktiva“ gegenüberstellen könne. Erst durch König Ludwig II. konnte dieser „Anspruch“ erfüllt werden, wobei Wagner es immer als Priorität ansah, seine Festspielidee verwirklichen zu können. Cosima Wagner verstand es, ihr Idol und ihren späteren Ehemann „ins rechte Licht“ zu setzen, beispielsweise durch den „Hausbiographen“ Carl Friedrich Glasenapp, der noch zu Wagners Lebzeiten eine mehrbändige Biographie zu schreiben begann. Seine Autobiographie diktierte Wagner seiner Frau Cosima und schenkte den ersten Privatdruck seinem „Freund“ König Ludwig II. Erst im Jahre 1911 wurde die Autobiographie veröffentlicht. Wagner wurde von verschiedenen Malern porträtiert, darunter Franz von Lenbach und Pierre-Auguste Renoir (1882). Rezeption und Kritik. Wie kaum ein anderer Künstler hat Wagner polarisiert, und bis in die Gegenwart beschäftigen sich Interpreten unterschiedlicher Disziplinen mit seinem vielschichtigen Werk. Neben Komponisten, die Wagner ablehnten, wie Brahms und Tschaikowski, gab es Kritiker wie Nietzsche – und später Adorno –, die nicht nur auf die Gefahren des „sinnbetörenden Rausches“ hinwiesen, sondern sich mit den Wirkungen Wagners auf die Musik der Zukunft, ja der gesamten Kultur auseinandersetzten. Friedrich Nietzsche. Zunächst hatte Friedrich Nietzsche in seiner frühen Schrift "Die Geburt der Tragödie aus dem Geiste der Musik" Wagner noch als Erneuerer deutscher Kultur gefeiert und ihm in seinen "Unzeitgemäßen Betrachtungen" einen eigenen Essay "Richard Wagner in Bayreuth" gewidmet. Nachdem er sich in "Menschliches, Allzumenschliches" (1878–1880) von seinem früheren Abgott schrittweise gelöst hatte, publizierte er später etliche kritische, ja hämische Schriften, in denen er Wagner vor allem nach dessen "Parsifal" zudem der Dekadenz, des „undeutschen“ Wesens und der Sinnbenebelung bezichtigte und über das geistige Niveau der sogenannten Wagnerianer in Bayreuth spottete. Nietzsche gab allerdings halb ironisch zu, dass man schon aus psychologischen Gründen auf Wagner nicht verzichten könne, wenngleich Georges Bizets helle, südliche und diesseitige Welt der schweren und schwülen Atmosphäre Wagners vorzuziehen sei. Nietzsches Kritik an Wagner ist vielschichtig, und obwohl sie sich vor allem am Spätwerk (dem "Parsifal") entzündete, bezog er sie nun auch auf frühere Werke und den "Ring", den er in den "Unzeitgemäßen Betrachtungen" noch gefeiert hatte. Als ehemaliger „Schüler“ Schopenhauers ("Schopenhauer als Erzieher"), der sich später gegen den Pessimismus seines Lehrers stellte, analysierte Nietzsche dessen Einfluss auf Wagner. Habe Wagner als revolutionärer Denker zunächst in Verträgen, Gesetzen, Institutionen das Übel der Welt erblickt – das Vertragsmotiv im "Ring" –, änderte sich später sein Weltbild, und das christliche Motiv der Erlösung trat in den Mittelpunkt. Viele Figuren Wagners sollten fortan „erlöst“ werden. Wagners „Schiff“ sei nach der „Götterdämmerung der alten Moral“ lange Zeit „lustig auf dieser Bahn“ (des Optimismus) gelaufen, bis es auf das „Riff“ der schopenhauerschen Philosophie gefahren sei. Er habe dann den "Ring" ins Schopenhauersche übersetzt: Alles auf der Welt laufe schief, und alles gehe zugrunde. So sei nur das Nichts, die Auslöschung, die „Götterdämmerung“ die Erlösung – und dieses Nichts werde von Wagner nun unaufhörlich gefeiert. Kurz vor seinem Zusammenbruch im Januar 1889 zog Nietzsche in seinen Spätwerken "Ecce homo", "Götzen-Dämmerung" und "Der Fall Wagner" eine brennglasartige Bilanz seines Denkens. In seinem letzten Werk, "Nietzsche contra Wagner", das er zu Weihnachten 1888 veröffentlichte, setzte er sich schonungslos mit Wagner, den Deutschen und deren "décadence" auseinander. Thomas Mann. In seinem später als Essay erschienenen Vortrag "Leiden und Größe Richard Wagners", den er 1933 zum 50. Todestag Wagners in München hielt, analysierte er das wagnersche Lebenswerk und setzte sich derart kritisch mit der Persönlichkeit und der Musik Wagners auseinander, dass es zu einem inszenierten Protest gegen den Schriftsteller kam. Dieser „Protest der Richard-Wagner-Stadt München“, der am 16./17. April 1933 in den "Münchener Neuesten Nachrichten" erschien und u. a. von Hans Knappertsbusch, Richard Strauss und Hans Pfitzner unterzeichnet war, bestärkte Thomas Mann in dem Entschluss, nicht nach Deutschland zurückzukehren. Die Verfasser warfen Thomas Mann vor, von den Idealen der "Betrachtungen eines Unpolitischen" abgerückt zu sein, mit „ästhetisierendem Snobismus“ das „tiefste deutsche Gefühl“ zu beleidigen und den „großen deutschen Meister“ zu verunglimpfen. Richard-Wagner-Gedenkstätten. Gedenktafel zum Aufent­halt Wagners in München Antisemitismus im Umfeld Wagners. Die Bewertung von Richard Wagners Antisemitismus ist bis heute von verschiedenen Perspektiven und Interpretationen seines Wirkens und seiner Werke geprägt, die in nicht unwesentlichem Maße seine eigene Ambivalenz im Verhältnis zum Judentum, zur Religion im Allgemeinen und zur politischen Landschaft seiner Zeit widerspiegelt. Wagner griff antijudaistische und frühantisemitische Stereotype und Reflexe auf, die er vorfand. Sie werden auch auf Martin Luthers Judenschriften zurückgeführt. Antisemitismus gehörte in Wagners Umfeld zum „guten Ton“, vor allem während der Zeit mit Cosima, die eine extreme antisemitische Einstellung hatte. Wagner gab antisemitische Stereotype jedoch nicht nur wieder, sondern entwickelte sie mit Schriften wie "Das Judenthum in der Musik" auch weiter. Wagner hatte großen Einfluss auf den englischen Schriftsteller Houston Stewart Chamberlain, Verfasser der "Grundlagen des neunzehnten Jahrhunderts", eines Werks, dessen schwärmerischer Germanenkult von antisemitischem und rassistischem Gedankengut durchzogen ist. Chamberlain heiratete 1908 Wagners zweite Tochter Eva und gilt als einer der ideologischen Wegbereiter des nationalsozialistischen Antisemitismus. Er versuchte mit seinen Schriften, auch Wagners Werke im Sinne des Nationalsozialismus umzudeuten. Wagners Antisemitismus. Wagners Weltbild, in dem sich künstlerische und politisch-agitatorische Ambitionen vermischten, war geprägt von einer pauschalen Sehnsucht nach Aufbruch, Umsturz und Revolution, nach einer meist nicht näher definierten neuen Kunst und Gesellschaft durch Untergang des Bestehenden (siehe: "Die Kunst und die Revolution"). Seine Motivation war eine sich stets wandelnde Mischung aus humanistisch-aufklärerischer Revolution gegen Aristokratie, romantischer Aspekte wie der Rückkehr zur Natur und der Ablehnung der Industrialisierung sowie nationalistischer Phantasien von der totalen Einheit einer Rasse oder eines Volkes. Rattner führt weiter aus, dass Wagners Antisemitismus – auch der von Cosima Wagner – eine Beihilfe zur Integration in die „vornehme Welt“ gewesen sei. Mit dem dauernden Sichaufreizen am Judentum „vollzog das Ehepaar Wagner ein Ritual“. Beide hätten sich dabei gegenseitig ihr „Wohlgeborensein“, ihre „Deutschheit“ und zumindest ihre „rassische Aristokratie“ versichert. Zwei ehrgeizige, auf Perfektionismus bedachte Charaktere hätten sich im Antisemitismus zur wechselseitigen und absoluten Selbstbestätigung vereinigt. Richard Wagners von Freunden und Bekannten häufig beschriebene Ruhmsucht, sein Hang zu Luxus, Verschwendung und Blendwerk waren ausgerechnet die Eigenschaften, die er häufig den Juden vorwarf. Er gehörte wie seine Geschwister zum Theatermilieu, das sich damals vom fahrenden Volk zu emanzipieren und bürgerliche Anerkennung zu erwerben versuchte. Die jüdische Emanzipation im Zuge der Gewerbefreiheit und der Auflösung der Berufsverbote und Zünfte wurde von anderen Unterprivilegierten als bedrohliche Konkurrenz gesehen. Blieben finanzieller Erfolg und Anerkennung aus, so wähnte Wagner sich nicht selten als Opfer angeblicher jüdischer Gegnerschaft. Die missgünstige Geringschätzung und Diffamierung von jüdischen Komponisten wie Giacomo Meyerbeer und Felix Mendelssohn Bartholdy versuchte er mit Schriften wie "Das Judenthum in der Musik" und dem darauf aufbauenden "Brief an Gräfin Muchanow" in eine allgemeinere Theorie zu bringen – wie Kritiker anführen, um diese persönliche Motivation zu überdecken. In diesem Zusammenhang wird auch der musikalische Einfluss Mendelssohns auf Wagner diskutiert. So waren einige Frühwerke Wagners, wie etwa die "Columbus-Ouvertüre", teilweise von Kompositionen Mendelssohns angeregt worden. Trotz persönlicher Vorbehalte rühmte Wagner Mendelssohns Musik; dessen "Hebriden-Ouvertüre" bezeichnete er 1879 in den "Bayreuther Blättern" als „eines der schönsten Musikwerke, die wir besitzen“. Wagners Einsatz für den Tierschutz am Ende seines Lebens hatte auch antisemitische Anklänge. Angelehnt an Schopenhauer hielt er Schächtung und Vivisektion für zwei Seiten einer Medaille und Ausdruck einer „Jüdischen Medizin“. Wagner unterstützte unter anderem in einem offenen Brief Anliegen der Tierschutzbewegung im Kaiserreich. Wagner betonte, die Menschheit könne durch Verzicht auf Fleischgenuss zu einem höheren moralischen Dasein gelangen, wurde selbst aber nicht Vegetarier. Wagners Schriften und Äußerungen über und gegen Juden umfassen ein weites Spektrum. Dieses reicht von niedersten, affektiven Tiraden über die angesprochenen Theorien bis hin zu fast versöhnlichen Tönen und – wie einige Historiker und Musikkritiker meinen – zu einer Identifizierung mit der Außenseiterrolle der Juden als jemand, der sich selbst oft als Außenseiter empfand. Wagner pflegte Freundschaften zu jüdischen Landsleuten wie seinem Helfer Carl Tausig, Joseph Rubinstein, Angelo Neumann und der berühmten Sängerin Lilli Lehmann. Bemerkenswert ist, dass er am Ende seines Lebens die "Parsifal"-Uraufführung Hermann Levi anvertraute, der Sohn eines Rabbiners war und ebenfalls zu seinem Freundeskreis zählte. Der Musikkritiker Joachim Kaiser hat verschiedentlich darauf hingewiesen, dass sich antisemitische Äußerungen in dem, was Wagner wirklich wichtig war, nämlich seinen musikdramatischen Werken, nicht nachweisen lassen, wenngleich – etwa von Saul Friedländer und Theodor W. Adorno – die Auffassung vertreten wurde, einige Figuren wie Mime und Alberich aus dem "Ring" zeigten Züge von Judenkarikaturen. In seiner Studie "Sixtus Beckmesser" (Aufbau Verlag, Berlin 1989) vertritt der Essayist Bernd Leistner die Ansicht, dass Wagner auch den Beckmesser als Karikatur anlegte. Ein Kongress mit dem Ziel einer wissenschaftlichen Aufarbeitung des Themas "Wagner und die Juden" fand erstmals im Festspielsommer 1998 in Bayreuth unter Beteiligung von Wissenschaftlern aus Deutschland, Israel und den USA statt; die Beiträge und z. T. sehr kontroversen Diskussionen wurden unter der Herausgeberschaft von Dieter Borchmeyer u. a. publiziert. Die Wagner-Bewegung im Kaiserreich. An Wagners Antisemitismus knüpfte der „Bayreuther Kreis“ um Cosima Wagner an, der in der Villa Wahnfried tagte. Zu diesem gehörten sowohl Rassentheoretiker wie Arthur de Gobineau und Houston Stewart Chamberlain als auch Künstler und rechte Aktivisten. So waren im Umfeld des Kreises etwa der Maler Hans Thoma oder der Schriftsteller Julius Langbehn aktiv. Der Bayreuther Kreis schaffte es durch Denunziation jüdischer Künstler wie Hermann Levi, Alexander Kipnis oder Ottilie Metzger-Lattermann, antisemitische Ressentiments unter Intellektuellen zu verbreiten. Durch dieses Engagement wurde im Kaiserreich eine Art Wagner-Bewegung ausgelöst, die sich in der Gründung zahlreicher Kulturvereine zeigte. Hier wurde Wagner-Begeisterung mit Judenfeindlichkeit und Nationalismus verbunden. Durch Hofprediger Adolf Stoecker sowie Philipp zu Eulenburg, Cosima Wagner und Chamberlain konnte selbst der Kaiser Wilhelm II. für die Unterstützung der Wagner-Bewegung gewonnen werden. Wagner und Hitler. "Verstummte Stimmen" im Richard-Wagner-Park in Bayreuth Die tradierte Wagner-Rezeption beschwichtigt, Wagners journalistischer Antisemitismus wäre eine Randnotiz geblieben, hätte ihn nicht das nationalsozialistische Regime unter Adolf Hitler vereinnahmt. Es hatte ihn zum deutschen Komponisten par excellence stilisiert und in seinem Niedergang Wagners Musiktheater für einen mortalen Endzeitkult missbraucht. Während seiner Wiener Zeit ging Hitler regelmäßig in die Oper und beschäftigte sich intensiv mit Wagner. Als Vorbild eigener Lebensvisionen war Wagner für ihn ein vergöttertes Idol. Wie Joachim Fest beschreibt, machte die eingebildete Nachfolge die „Verführung durch den romantischen Geniebegriff deutlich“, welcher in Wagner seine Erfüllung und Entgleisung gefunden habe. Die eskapistischen Träume des scheiternden, im Männerheim lebenden Künstlers Hitler entzündeten sich am Genie Wagners. Hitler erklärte später, mit Ausnahme Wagners keine Vorläufer gehabt zu haben, und bezeichnete Wagner als „größte Prophetengestalt, die das deutsche Volk besessen“ habe. In seiner Broschüre "Das Judenthum in der Musik" (1869) schrieb Richard Wagner ohne notwendigen Bezug auf die musiktheoretische Polemik vom „natürlichen Widerwillen gegen jüdisches Wesen“ und „Der Jude ist nach dem gegenwärtigen Stande der Dinge dieser Welt wirklich bereits mehr als emanzipiert: er herrscht, und wird solange herrschen, als das Geld die Macht bleibt, vor welcher alles unser Thun und Treiben seine Kraft verliert“. An die Juden gerichtet, schloss er mit den Worten: „Aber bedenkt, dass nur Eines eure Erlösung von dem auf euch lastenden Fluche sein kann: die Erlösung Ahasvers, – der U n t e r g a n g ! “ (so gesperrt im Original). Richard Wagner hatte diesen Text bereits 1850 in der "Neuen Zeitschrift für Musik" unter dem Pseudonym „K. Freigedank“ publiziert. Er trat damit 1869 wieder an die Öffentlichkeit, diesmal unter eigenem Namen und mit einem Anhang (S. 31–57), der den ursprünglichen Aufsatz an Judenhass und Demagogie übertrifft. Darin heißt es gegen Ende in tückischer Resignation, doch gleichwohl appellativ: „Ob der Verfall unserer Cultur durch eine gewaltsame Auswerfung des zersetzenden fremden Elementes aufgehalten werden könne, vermag ich nicht zu beurtheilen, weil hierzu Kräfte gehören müssten, deren Vorhandensein mir unbekannt ist.“ Es ist unwahrscheinlich, dass Hitler diese Schrift nicht gekannt hat. Jedenfalls hat sich der gescheiterte Künstler Hitler, dem Massenerschütterer und Großmeister des Musiktheaters verfallen, zum Vollstrecker seines Propheten gemacht. Das auf die Juden gemünzte Begriffspaar „Dämon“ und „Verfall“ tauchte zuerst bei Wagner auf. Alfred Rosenberg griff es in einer antisemitischen Schrift von 1923 auf: „Als eines der Vorzeichen dieses kommenden Kampfes […] steht die Erkenntnis des Wesens des Dämons unseres heutigen Verfalls […]“ Hitler wurde dem „Bayreuther Kreis“ 1919 durch den Musikkritiker Dietrich Eckart bekannt. Dank ihm lernte Hitler im Jahre 1923 Cosima und Winifred Wagner in Bayreuth kennen und nahm später als „Führer“ per Verfügung Einfluss auf die Festspiele hinsichtlich des Programms und der Regie, z. B. bei "Parsifal". Als ehemaliger Postkartenmaler Ideen zum Bühnenbild eines der höchstrangigen Musikfestivals in Deutschland beizusteuern verschaffte Hitler persönliche Genugtuung und das Gefühl der Anerkennung beim deutschen Bürgertum. Das Thema Wagner und Hitler wird seit Jahrzehnten publizistisch behandelt, beispielsweise von Hartmut Zelinsky und Joachim Köhler. Dieser versuchte in seinem Buch "Wagners Hitler", den Einfluss der wagnerschen Gedankenwelt auf Hitler und dessen Handeln nachzuweisen. Auch Thomas Mann beschäftigte sich immer wieder mit der Thematik: „Es ist viel Hitler in Wagner.“ Im Jahr 2012 wurde die Wanderausstellung „Verstummte Stimmen. Die Bayreuther Festspiele und die Juden 1876 bis 1945“ im Bayreuther Rathaus und im Park vor dem Festspielhaus in Bayreuth neben der Wagner-Büste aufgestellt. Durch die Ausstellung wird an frühere jüdische Mitwirkende bei Wagner-Festspielen erinnert, die von Nationalsozialisten vertrieben oder ermordet wurden. Wagner und Israel. In Israel ist Wagner immer noch heftig umstritten. Die öffentliche Aufführung von Wagners Werken ist praktisch nicht möglich. So führte die von Daniel Barenboim dirigierte Aufführung des Vorspiels zu "Tristan und Isolde" im Juli 2001 zu einem Eklat, einer Kritik des Wiesenthal-Zentrums und des damaligen Jerusalemer Bürgermeisters Ehud Olmert. Bereits vorher hatten Proteste von Holocaust-Überlebenden andere Wagner-Aufführungen verhindert. Am 14. November 2010 wurde die erste Wagner-Gesellschaft in Israel gegründet. In der Wagner-Festspielstadt Bayreuth spielte das Israel Chamber Orchestra im Juli 2011 das "Siegfried-Idyll". Der Tabubruch, dass ein israelisches Orchester seine Musik spielt, bewirkte geteilte Reaktionen. Auch einen für den 18. Juni 2012 an der Universität Tel Aviv geplanten Konzertabend mit Werken Wagners sagte die Universität im Vorfeld ab, da die Veranstaltung „eine rote Linie“ überschreiten und die „Gefühle der israelischen Öffentlichkeit im Allgemeinen und der Holocaust-Überlebenden im Besonderen verletzen“ würde. Werke. a> im Garten des Castell Púbol Insgesamt sind nach dem Wagner-Werk-Verzeichnis (WWV) einschließlich aller Gelegenheitskompositionen und Widmungsblätter, jedoch ohne die Schriften Wagners, 113 Werke verzeichnet. Schriften. Wagner hat neben den Inhaltsentwürfen, Textfassungen und Analysen seiner Musikdramen zahlreiche musiktheoretische, philosophische, politische und belletristische Schriften verfasst und sie mit seinen Musikdramen ab 1871 in seiner Sammlung "Sämtliche Schriften und Dichtungen" herausgegeben, die – einschließlich der Autobiographie "Mein Leben" – 16 Bände umfasst. Wagner war schriftstellerisch produktiver als die meisten anderen Komponisten, und in seinem schriftstellerischen Oeuvre verarbeitete er Ideen und Eindrücke aus seiner breit gefächerten Lektüre. Seine Schriftzeugnisse belegen, „dass Wagner ein Durchlauferhitzer mit dem Ziel der kreativen Anverwandlung und rücksichtslosen Vereinnahmung war“. Zudem hat er tausende Briefe geschrieben. Die meisten seiner Schriften gelten als stilistisch verunglückt und zeichnen sich nicht durch stringente Gedankenführung aus. Neben trocken deduzierendem Stil und Kanzleiprosa finden sich hymnische Episoden und Gedankenblitze. Gregor-Dellin urteilt in seiner Wagner-Biographie, die Schriften seien mit „Reisszwecken gespickt, ein unverdaulicher Brei, Kanzleiprosa“, und Ludwig Reiners griff für Beispiele schlechter Prosa immer wieder auf Texte Wagners zurück. Für den ebenso kritischen wie begeisterten Verehrer Thomas Mann enthalten die Schriften „sehr Wahres und Falsches ineinander geschlungen“ und „höchste Sachkunde neben peinlicher Mitrederei“. Man könne aus Wagners Schriften nicht viel über den Verfasser lernen. „Wagners siegreiches Werk beweist nicht seine Theorie, sondern nur sich selbst.“ Wie auch immer man die Schriften beurteilt, so können sie doch als Nährboden betrachtet werden, aus dem seine musikdramatischen Werke hervorgegangen sind. Zugleich machen sie deren geistigen Hintergrund verständlich. Wagners Autobiographie "Mein Leben", die zu seinen Lebzeiten nur im Privatdruck in etwa 25 Exemplaren für enge Freunde erschien, gilt als kulturhistorisches Dokument des 19. Jahrhunderts, ebenso wie die Tagebuchaufzeichnungen Cosima Wagners, die sie von 1869 bis zum Tod ihres Gatten führte. Darin ist viel Privates, „Nebensächliches“ mitgeteilt, aber auch zahlreiche Aussprüche und Gespräche Wagners bis hin zu seinen Träumen. Würdigung. Zum 200. Geburtstag Richard Wagners wurden 2013 eine 10-Euro-Gedenkmünze und eine Briefmarke zu 58 Eurocent jeweils mit seinem Bildnis herausgegeben. Ring (Algebra). Ein Ring ist eine algebraische Struktur, in der, ähnlich wie in den ganzen Zahlen formula_1, Addition und Multiplikation definiert und miteinander bezüglich Klammersetzung verträglich sind. Die Ringtheorie ist ein Teilgebiet der Algebra, das sich mit den Eigenschaften von Ringen beschäftigt. Namensgebung. Der Name "Ring" bezieht sich nicht auf etwas anschaulich Ringförmiges, sondern auf einen organisierten Zusammenschluss von Elementen zu einem Ganzen. Diese Wortbedeutung ist in der deutschen Sprache ansonsten weitgehend verloren gegangen. Einige ältere Vereinsbezeichnungen (wie z. B. Deutscher Ring, Weißer Ring, Maschinenring) oder Ausdrücke wie „Verbrecherring“ weisen noch auf diese Bedeutung hin. Das Konzept des Ringes geht auf Richard Dedekind zurück; die Bezeichnung "Ring" wurde allerdings von David Hilbert eingeführt. In speziellen Situationen ist neben der Bezeichnung "Ring" auch die Bezeichnung "Bereich" geläufig. So findet man in der Literatur eher den Begriff "Integritätsbereich" statt "Integritätsring". Definitionen. Je nach Teilgebiet und Lehrbuch (und zum Teil je nach Kapitel) wird unter einem Ring etwas unterschiedliches verstanden. Ebenfalls leicht abweichend sind dann die Definitionen von Morphismen sowie Unter- und Oberstrukturen. Mathematisch ausgedrückt handelt es sich bei diesen unterschiedlichen Ringbegriffen um unterschiedliche Kategorien. Ring. Ein "Ring" formula_2 ist eine Menge formula_3 mit zwei zweistelligen Operationen formula_4 und formula_5, sodass Das neutrale Element formula_11 von formula_12 heißt "Nullelement" des Rings formula_3. Ein Ring heißt "kommutativ", falls er bezüglich der Multiplikation kommutativ ist, ansonsten spricht man von einem nicht-kommutativen Ring. Ring mit Eins (unitärer Ring). Hat die Halbgruppe formula_14 zusätzlich ein (beidseitiges) neutrales Element formula_15, ist also ein Monoid, dann nennt man formula_2 einen "Ring mit Eins" oder "unitären Ring". Ringe mit nur links- oder nur rechtsneutralem Element gelten in der Ringtheorie nicht als unitär. Manche Autoren verstehen unter einem Ring grundsätzlich einen (kommutativen) Ring mit Eins. In der Kategorie der Ringe mit Eins muss die Eins auch bei Ringhomomorphismen erhalten bleiben. Kommutativer Ring mit Eins. In der kommutativen Algebra werden Ringe als "kommutative Ringe mit Eins" definiert. Ringhomomorphismus. Für zwei Ringe formula_3 und formula_18 heißt eine Abbildung Der Kern formula_23 eines Ringhomomorphismus ist ein zweiseitiges Ideal in formula_3. Isomorphismus. Ein Isomorphismus ist ein bijektiver Homomorphismus. Die Ringe formula_3 und formula_18 heißen "isomorph", wenn es einen Isomorphismus von formula_3 nach formula_18 gibt. In diesem Fall ist auch die Umkehrabbildung ein Isomorphismus; die Ringe haben dann dieselbe Struktur. Beispiel. ist ein Homomorphismus von Ringen, aber kein Homomorphismus von "Ringen mit Eins". Unter- und Oberring. Eine Untermenge formula_32 eines Ringes formula_3 heißt "Unterring" von formula_3, wenn formula_32 zusammen mit den beiden auf formula_32 eingeschränkten Verknüpfungen von formula_3 wieder ein Ring ist. formula_32 ist genau dann ein Unterring von formula_3, wenn formula_32 eine Untergruppe bezüglich der Addition ist und formula_32 abgeschlossen bzgl. der Multiplikation ist, d. h. Auch wenn formula_3 ein Ring mit Eins ist, so muss die Eins nicht notwendigerweise in formula_32 enthalten sein. formula_32 kann auch ein Ring ohne Eins sein – etwa formula_48 – oder eine andere Eins haben. In der Kategorie der Ringe mit Eins wird von einem Unterring verlangt, dass er ebenfalls das Einselement enthält (dafür ist es zwar notwendig, aber nicht immer hinreichend, dass der Unterring ein auf diesen bezogen multiplikativ neutrales Element enthält). Der Durchschnitt von Unterringen ist wieder ein Unterring, und der von formula_49 "erzeugte Unterring" wird definiert als der Durchschnitt aller formula_50 umfassenden Unterringe von formula_3. Ein Ring formula_18 heißt "Oberring" oder "Erweiterung" eines Ringes formula_3, wenn formula_3 ein Unterring von formula_18 ist. Ideal. Ist formula_57 sowohl Links- als auch Rechtsideal, so heißt formula_57 "zweiseitiges Ideal" oder auch nur "Ideal." Enthält in einem Ring mit Eins ein (Links-, Rechts-)Ideal die Eins, so umfasst es ganz formula_3. Da formula_3 auch ein Ideal ist, ist formula_3 das einzige (Links-, Rechts-)Ideal, das die Eins enthält. formula_3 und formula_71 sind die sogenannten "trivialen Ideale." Jedes Ideal formula_57 von formula_3 ist auch ein Unterring von formula_3, ggfs. ohne Eins. In der Kategorie der Ringe mit 1 gilt formula_57 dann nicht als Unterring. Faktorring. Ist formula_57 ein Ideal in einem Ring formula_3, dann kann man die Menge der Nebenklassen bilden. Die Verknüpfung formula_4 lässt sich wegen ihrer Kommutativität immer auf formula_80 fortsetzen; die Verknüpfung formula_5 jedoch nur, wenn formula_57 ein "zweiseitiges" Ideal in formula_3 ist. Ist dies der Fall, dann ist formula_80 mit den induzierten Verknüpfungen ein Ring. Er wird "Faktorring" formula_80 genannt – gesprochen: formula_3 modulo formula_57. der einem Element formula_89 seine Nebenklasse formula_90 zuordnet, hat formula_57 zum Kern. Grundring. In einem Ring mit Eins wird der von formula_15 erzeugte Unterring als der "Grundring" bezeichnet. Aus der Mächtigkeit des Grundringes ergibt sich die Charakteristik des Ringes. Polynomring. Ist formula_3 ein kommutativer Ring mit Eins, so kann der Polynomring formula_94 gebildet werden. Dieser besteht aus Polynomen mit Koeffizienten aus formula_3 und der Variablen formula_96 zusammen mit der üblichen Addition und Multiplikation für Polynome. Eigenschaften von formula_3 übertragen sich zum Teil auf den Polynomring. Ist formula_3 nullteilerfrei, faktoriell oder noethersch, so trifft dies auch auf formula_94 zu. Matrizenring. Ist formula_3 ein Ring mit Eins, so kann zu gegebenem formula_101 der Matrizenring formula_102 gebildet werden. Dieser besteht aus den quadratischen Matrizen mit Einträgen aus formula_3 mit der üblichen Addition und Multiplikation für Matrizen. Der Matrizenring ist wiederum ein Ring mit Eins. Jedoch ist der Matrizenring für formula_104 weder kommutativ noch nullteilerfrei, selbst wenn formula_3 diese Eigenschaften hat. Teiler und Nullteiler. Von zwei Elementen formula_106 heißt formula_107 "linker Teiler" (Linksteiler) von formula_108, falls ein formula_109 mit formula_110 existiert. Dann ist auch formula_111 "rechtes Vielfaches" von formula_107. Entsprechend definiert man "rechten Teiler" (Rechtsteiler) und "linkes Vielfaches". In kommutativen Ringen ist ein linker Teiler auch ein rechter und umgekehrt. Man schreibt hier auch formula_113, falls formula_107 ein Teiler von formula_111 ist. Alle Elemente von formula_3 sind (Rechts- bzw. Links-) Teiler der Null. Der Begriff des (Rechts- bzw. Links-) Nullteilers hat eine andere Definition. Wenn formula_11 nach dieser als Nullteiler zählt, gilt der Satz: Ein Element ist genau dann (Rechts- bzw. Links-) Nullteiler, wenn es nicht (rechts- bzw. links-) kürzbar ist. Invertierbarkeit, Einheit. Existiert in einem Ring formula_3 mit Eins zu einem Element formula_119 ein Element formula_89, so dass formula_121 (bzw. formula_122) gilt, so nennt man formula_89 ein "Linksinverses" (bzw. "Rechtsinverses") von formula_119. Besitzt formula_119 sowohl Links- als auch Rechtsinverses, so nennt man formula_119 "invertierbar" oder "Einheit" des Ringes. Die Menge der Einheiten eines Ringes formula_3 mit Eins wird gewöhnlich mit formula_128 oder formula_129 bezeichnet. formula_128 bildet bezüglich der Ringmultiplikation eine Gruppe – die "Einheitengruppe" des Ringes. Ist formula_131, so ist formula_3 ein Schiefkörper, ist formula_3 darüber hinaus kommutativ, so ist formula_3 ein Körper. In kommutativen Ringen mit Eins (insbesondere Integritätsringen) definiert man alternativ die Einheiten auch als diejenigen Elemente, die die Eins teilen. Dass formula_119 die Eins teilt, heißt nämlich dass es formula_89 gibt mit formula_137. Assoziierte Elemente. Zwei Elemente formula_107 und formula_111 sind genau dann "rechts assoziiert", wenn es eine Rechtseinheit formula_119 gibt, sodass formula_141. "Links assoziiert" bei formula_142 mit einer Linkseinheit formula_119. Wenn in einem kommutativen Ring mit Eins die Elemente formula_144 in der Beziehung formula_113 und formula_146 stehen, dann sind formula_107 und formula_111 zueinander "assoziiert". Die Seitigkeit (links, rechts) kann also weggelassen werden. Irreduzibilität. Ein Element formula_149, das weder Linkseinheit noch Rechtseinheit ist, heißt "irreduzibel", falls es keine Nicht-Linkseinheit formula_107 und keine Nicht-Rechtseinheit formula_111 mit formula_152 gibt, wenn also aus der Gleichung folgt, dass formula_107 Linkseinheit oder formula_111 Rechtseinheit ist. Im kommutativen Ring genügt es zu fordern, dass aus formula_152 stets formula_156 oder formula_157 folgt. Primelement. Ist formula_158 weder Linkseinheit noch Rechtseinheit, dann heißt formula_158 "prim" (oder "Primelement"), falls für alle formula_160 mit formula_161 und formula_162 folgt, dass es formula_163 gibt mit formula_164. Ist formula_165 eine Nichteinheit ungleich 0, dann heißt formula_165 "prim" (oder "Primelement"), falls gilt: Aus formula_167 folgt formula_168 oder formula_169 (s. auch "Hauptartikel:" Primelement). In einem nullteilerfreien Ring ist jedes Primelement irreduzibel. Einzelnachweise. ! Religionswissenschaft. Die Religionswissenschaft ist eine Geisteswissenschaft oder auch Kulturwissenschaft, die Religion empirisch, historisch und systematisch erforscht. Dabei befasst sie sich mit allen konkreten Religionen, religiösen Gemeinschaften sowie (religiösen) Weltanschauungen und Ideologien der Vergangenheit und Gegenwart. Zu ihren Subdisziplinen zählen beispielsweise die Religionsgeschichte, Religionsphänomenologie, Religionssoziologie, Religionspsychologie, Religionsethnologie, Religionsökonomie, Religionsgeographie u. a. Zur universitären Theologie bestehen Berührungspunkte in allen theologischen Bereichen: kirchengeschichtlichen, exegetischen, systematischen und praktischen. Die Theologien verschiedener Religionen sind darüber hinaus auch Objekte der Religionswissenschaft. Etabliert hat sich inzwischen die von manchen so genannte „Angewandte“ (Wolfgang Gantke) beziehungsweise „Praktische Religionswissenschaft“ (Udo Tworuschka). Was genau eine Religion ist oder eine Handlung als klar religiös bestimmt, konnte bisher nur vorläufig bestimmt werden (siehe Religionsdefinition). Die Religionswissenschaft arbeitet in der Regel mit auf ihre jeweiligen Fragestellungen zugeschnittenen Arbeitsdefinitionen. Im deutschsprachigen Raum wird das Fach oftmals durch Attribute wie "„allgemein“" oder "„vergleichend“" näher bestimmt und häufig mit dem Fach Religionsgeschichte assoziiert. Zum Beispiel nannte sich der Dachverband der Religionswissenschaft in Deutschland 50 Jahre lang „Deutsche Vereinigung für Religionsgeschichte“ und wurde 2005 in Deutsche Vereinigung für Religionswissenschaft umbenannt. Religionswissenschaftliche Untersuchungsebenen. Eine Untersuchung von Glaubensinhalten auf der Sachebene, also eine Suche nach transzendenter Wahrheit, nimmt die Religionswissenschaft nicht vor. Sie ordnet, klassifiziert, vergleicht und analysiert die Erscheinungsformen und Elemente verschiedener Religionen. Die geschichtswissenschaftliche Arbeit (Religionsgeschichte) und die Feldforschung (Religionsethnologie) sind hierfür wesentliche Grundlagen. Anschließende Vergleiche und Analysen werden mit Methoden durchgeführt, die anderen Disziplinen entlehnt sind; so entstehen kulturtheoretische, religionssoziologische, religionspsychologische usw. Zugänge zum Material. Dagegen sind Religionsphilosophie und Religionstheologie ausdrücklich nicht Teil der Religionswissenschaft, da sie normative Elemente enthalten. Eine große Rolle spielen die Philologien von Sprachen, in denen Heilige Schriften abgefasst sind oder in denen religiöses Leben stattfindet; beispielsweise Gräzistik, Latinistik, Semitistik, Arabistik, Sinologie, Keilschriftforschung, Indologie. Außerdem sind Fächer von Bedeutung, die sich auf eine einzelne Religion oder einen bestimmten Kulturkreis spezialisieren (oft identisch mit den entsprechenden Philologien): Keltologie, Judaistik, Buddhismuskunde, Islamwissenschaft, Afrikanistik, Orientalistik, Tibetologie. Weitere Fächer, die mit der Religionswissenschaft im interdisziplinären Austausch stehen, sind Geschichte, Archäologie, Volkskunde, Ethnologie/Völkerkunde, Anthropologie und andere Kulturwissenschaften. Vor dem Hintergrund von religiösen Konflikten bestehen auch Beziehungen zur Friedens- und Konfliktforschung bzw. der Politikwissenschaft. Seit den 1990ern spielen auch Disziplinen der Neurowissenschaften eine Rolle. Theologien sind grundsätzlich Teil des Gegenstandes, nicht der Methode der Religionswissenschaft. Im Rahmen von innerhalb des Faches umstrittenen Ansätzen wie Praktischer bzw. Angewandter oder Interkultureller Religionswissenschaft spielen die Theologien auch als Dialogpartner eine Rolle. Gleichzeitig bedienen sich die christlichen Theologien – wie auch viele andere Disziplinen – religionswissenschaftlicher Methoden, soweit es die Erforschung ihrer historischen Grundlagen betrifft. Soweit Religionswissenschaft an theologischen Fakultäten angesiedelt ist, wird sie oft im Sinne von Missionswissenschaft, Religionsgeschichte oder im Dienste einer Universaltheologie als Hilfsdisziplin betrachtet. Geschichte des Faches. Es handelt sich um eine junge Wissenschaft mit „Vorläufern“ in aufklärerischen Krisenzeiten (Antike, Humanismus). Im strengen Sinne entstand sie während der neuzeitlichen Aufklärung, insbesondere in England, den Niederlanden, Deutschland und Skandinavien. Erst ab dem Anfang des 20. Jahrhunderts etablierte sie sich als eigenständiges Fach an den Universitäten; in Deutschland erstmals 1912 mit der Gründung des Religionswissenschaftlichen Instituts Leipzig. Zunächst wurde sie an theologischen Fakultäten gelehrt und betrieben. Dies ging auf die Rektoratsrede Adolfs von Harnack von 1901 zurück. Erster Lehrstuhlinhaber war der spätere Erzbischof von Schweden und Friedensnobelpreisträger Nathan Söderblom. In den letzten Jahrzehnten aber entwickelte sich die Religionswissenschaft an den meisten Universitäten zu einer von den Theologien unabhängigen Wissenschaft, was einen Einzug in die philosophischen und kulturwissenschaftlichen Fakultäten zur Folge hatte. Hierbei ist und war vor allem die Diskussion der Methodik des Faches als eigentlicher Grund der Entwicklung zu einer eigenständigen Disziplin verantwortlich. Methode der Religionswissenschaft. Im Allgemeinen lassen sich innerhalb der bestehenden Religionswissenschaft mehrere Traditionslinien ausmachen. Hamid Reza Yousefi unterteilt sie in zwei Linien, die grundsätzlich verschiedene Antworten auf die Frage geben, was Religionswissenschaft ist bzw. nicht ist, eine phänomenologische und eine philologische Richtung. Während Religionsphänomenologen die Kategorie des Heiligen nicht preisgeben und faktisch eine Religionswissenschaft des Verstehens betreiben, distanzieren sich philologisch ausgerichtete Religionswissenschaftler von dieser methodischen Tätigkeitsform und halten an der Religionswissenschaft als einer ‚reinen’ Wissenschaft fest. Um diese Linien miteinander zu versöhnen, entwickelt Yousefi das Konzept einer interkulturellen Religionswissenschaft. Ihm geht es „um den gesellschaftlichen Auftrag der Religionswissenschaft“ und die Beantwortung der Frage, „wozu überhaupt Religionswissenschaft.“ Er schlägt eine pluralistische Methodenkombination vor, in der hermeneutische und empirische Ausrichtungen ineinander greifen und aufeinander aufbauen. Deutschland. In der deutschen Hochschulpolitik ist die Religionswissenschaft als Kleines Fach eingestuft. Österreich. In Österreich kann Religionswissenschaft in Wien und Graz studiert werden. In Graz ist es seit dem Wintersemester 2006/07 möglich, ein Masterstudium (Master of Arts) der Religionswissenschaften zu absolvieren. In Wien bietet dies die Katholisch-Theologische Fakultät der Universität in Zusammenarbeit mit der Evangelisch-Theologischen Fakultät und anderen Fakultäten seit dem Wintersemester 2008/09 an. Schweiz. Zurzeit wird die Religionswissenschaft an den Schweizer Universitäten deutlich ausgebaut. Religionswissenschaft mit deutschem oder französischsprachigem Bachelor- oder Masterabschluss kann studiert werden in Basel (dt.), Bern (dt.), Freiburg (dt./frz.), Genf (frz.), Lausanne (frz.), Luzern (dt.) und Zürich (dt.). Ribonukleinsäure. Verknüpfung der Nukleinbasen (C, G, A und U) über ein Zucker- (grau) und Phosphatrückgrat (türkis) zur RNA Ribonukleinsäure (RNS) ist eine Nukleinsäure, die sich als Polynukleotid aus einer Kette von vielen Nukleotiden zusammensetzt. Im wissenschaftlichen Sprachgebrauch wird Ribonukleinsäure mit der englischen Abkürzung RNA ("ribonucleic acid") benannt, oft auch im Deutschen. Eine wesentliche Funktion der RNA in der biologischen Zelle ist die Umsetzung von genetischer Information in Proteine (siehe Proteinbiosynthese, Transkription und Translation), in Form der mRNA fungiert sie hierbei als Informationsüberträger. Daneben erfüllen spezielle RNA-Typen weitere Aufgaben; bei RNA-Viren macht sie sogar das Genom selbst aus. Weiterhin bestehen auch Teile der für die Umsetzung dieser Information verantwortlichen Zellbestandteile aus RNA: Bei der Reifung der mRNA sind snRNA und snoRNA beteiligt, die katalytischen Bestandteile der Ribosomen bildet die rRNA, und die tRNA transportiert die Bausteine für die Proteine. Ferner sind spezielle RNAs an der Genregulation beteiligt. Aufbau und Unterschied zur DNA. RNA und DNA im Vergleich Vom Aufbau her ist die RNA der DNA ähnlich. RNA-Moleküle sind – im Gegensatz zur doppelsträngigen DNA – in der Regel einzelsträngig, können allerdings in kurzen Strecken mit komplementären Basensequenzen (A-U, G-C) charakteristische Rückfaltungen ausbilden, die intramolekular den Eindruck einer Doppelstrang-Helix erwecken. Beide sind Polynukleotide, bei denen die Nukleobasen an Zuckern über Phosphorsäurediester miteinander verknüpft sind. Die Einzelsträngigkeit erhöht die Zahl der Möglichkeiten für dreidimensionale Strukturen der RNA und erlaubt ihr chemische Reaktionen, die der DNA nicht möglich sind. Jedes Nukleotid besteht bei der RNA aus einer Ribose (d. h. einer Pentose: einem Zucker mit fünf C-Atomen), einem Phosphatrest und einer organischen Base. Die Ribose der RNA ist mit derjenigen der DNA identisch, bis auf eine Hydroxygruppe (statt eines Wasserstoff-Atoms, altgr. Hydrogenium) an der 2'-Position im Pentose-Ring (daher auch Desoxyribonukleinsäure, DNA). Dieser Unterschied macht die RNA weniger stabil im Vergleich zur DNA, da er eine Hydrolyse durch Basen ermöglicht: Die OH-Gruppe an der 2'-Position des Zuckers wird durch ein negativ geladenes Hydroxidion einer Base ihres Protons beraubt und der dann zurückgebliebene Sauerstoff geht eine Ringbindung mit dem Phosphor ein, wodurch die Bindung zum nächsten Nukleotid gelöst wird. Die RNA wird so in ihre Nukleotide zerlegt. In der RNA kommen die folgenden organischen Basen vor: Adenin, Guanin, Cytosin und Uracil. Die ersten drei Basen kommen auch in der DNA vor. Uracil dagegen ersetzt Thymin als komplementäre Base zu Adenin. Vermutlich nutzt RNA Uracil, da dieses energetisch weniger aufwändig herzustellen ist (keine Methyl-Substituierung). Als Sekundärstrukturen sind bei der RNA vor allem Hairpin-, Stemloop- und Loop-Strukturen bekannt, eine Helix-Konformation ist aber ebenfalls möglich, wobei Hairpin- und Stemloop-Strukturen sowohl Einzelstrang- als auch Doppelstrangbereiche aufweisen. Die Loop-Strukturen bezeichnen einzelsträngige Schlaufenstrukturen innerhalb eines Moleküls. RNA kann, wie DNA ebenfalls als doppelsträngiges Molekül vorliegen. Sie weist dabei die typischen Merkmale einer Watson-Crick-Helix auf: antiparallele Anordnung der RNA-Stränge und rechtsgewundene Helix. Sie nimmt dabei die Form einer A- oder A´-Helix an (Vgl. DNA). Die A-RNA wird auch als RNA-11 bezeichnet, homolog zur A´-RNA, die als RNA-12 bezeichnet wird. Hierbei gibt die Zahl nach dem Spiegelstrich die Anzahl der Basenpaare je Helixwindung wieder. A´-RNA kommt häufig bei hohen Salzkonzentrationen vor (über 20 %). A-RNA: 11 Basenpaare pro Helixwindung, Ganghöhe 2,7 nm bis 2,8 nm, Neigungswinkel zur Helixachse ca. 14° A´-RNA: 12 Basenpaare pro Helixwindung, Ganghöhe 3 nm, Neigungswinkel zur Helixachse 16° bis 19° Das in Lebewesen vorkommende Enantiomer der RNA ist die D-RNA. Sie ist aus D-Ribonukleotiden aufgebaut. Die Chiralitätszentren liegen in der D-Ribose. Durch Verwendung von L-Ribose, bzw. L-Ribonukleotiden lässt sich L-RNA synthetisieren. Diese ist vergleichsweise stabiler gegenüber dem enzymatischen Abbau durch RNasen. Synthese von RNA. Das Enzym RNA-Polymerase katalysiert an der DNA durch den Prozess der Transkription aus Nukleosidtriphosphat (NTP) die RNA. Dafür setzt sich die RNA-Polymerase an eine Promotor genannte Nukleotid-Sequenz der DNA (Transkriptionsinitiation). Dann trennt sie die DNA-Doppelhelix durch Lösen der Wasserstoffbrücken in einem kurzen Bereich in zwei DNA-Einzelstränge auf. Am codogenen Strang der DNA lagern sich durch Basenpaarung komplementäre Ribonukleotide an. Sie werden unter Eliminierung eines Pyrophosphat durch eine esterartige Bindung zwischen Phosphorsäure und Ribose miteinander verknüpft. Die Ableserichtung der DNA verläuft vom 3'-Ende zum 5'-Ende, die Synthese der komplementären RNA dementsprechend 5'→3'. Die Öffnung der DNA-Doppelhelix erfolgt nur in einem kurzen Bereich, so dass der bereits synthetisierte Teil der RNA aus dieser Öffnung heraushängt und zwar mit dem 5'-Ende der RNA voran. Die Synthese der RNA wird an einem Terminator genannten DNA-Abschnitt beendet. Danach wird das RNA-Transkript entlassen und die RNA-Polymerase löst sich von der DNA. RNA kann per Phosphoramidit-Synthese künstlich erzeugt werden. Biologische Bedeutung. Die folgenden RNA-Klassen werden allgemein als nichtcodierende Ribonukleinsäuren bezeichnet. Die DNA ist hier das permanente Speichermedium für die genetische Information, die RNA dient als Zwischenspeicher. Darüber hinaus nutzen einige Viren RNA als Replikationsintermediat (z. B. Retroviren und Hepadnaviren). Abbau von RNA. Da ständig neue RNA gebildet wird und da zu unterschiedlichen Zeitpunkten verschiedene Transkripte benötigt werden (differentielle Genexpression), darf die RNA in der Zelle nicht zu stabil sein, sondern muss auch einem Abbau unterliegen. Dies geschieht mit Hilfe von RNasen, Enzymen, die die Verbindungen des Zucker-Gerüstes der RNA trennen und somit die Monomere (bzw. Oligomere) bilden, welche wieder zur Bildung neuer RNA verwendet werden können. Wann eine RNA abgebaut werden soll, wird dabei vor allem (aber nicht ausschließlich) durch die Länge des Poly-A-Schwanzes bestimmt, der mit zunehmender Verweildauer der RNA im Cytoplasma sukzessive verkürzt wird. Sinkt die Länge dieses Schwanzes unter einen kritischen Wert wird die RNA schnell degradiert. Zusätzlich können die RNAs stabilisierende oder destabilisierende Elemente enthalten, die eine weitere Regulation ermöglichen. Zumindest bei der mRNA von Eukaryoten findet der RNA-Abbau nicht irgendwo im Cytoplasma statt, sondern in den so genannten „P-Bodies“ (Processing Bodies), die sehr reich an RNasen und anderen, am RNA-turnover (-Abbau)-beteiligten Enzymen sind. Zusammen mit „Stress-Granules“ dienen diese Körper weiterhin der kurzzeitigen Lagerung von mRNA und demonstrieren so wiederum die enge Verknüpfung des RNA-Metabolismus (hier Translation und RNA-Abbau). Die RNA-Welt-Hypothese. Die RNA-Welt-Hypothese besagt, dass RNA-Moleküle die Vorläufer der Organismen waren. Die Hypothese lässt sich ableiten aus der Fähigkeit der RNA zur Speicherung, Übertragung und Vervielfältigung genetischer Informationen, sowie aus ihrer Fähigkeit, als Ribozyme Reaktionen zu katalysieren. In einer Evolutionsumgebung würden diejenigen RNA-Moleküle gehäuft vorkommen, die sich selbst bevorzugt vermehren. Regulärer Ausdruck. Ein regulärer Ausdruck (, Abkürzung oder) ist in der theoretischen Informatik eine Zeichenkette, die der Beschreibung von Mengen von Zeichenketten mit Hilfe bestimmter syntaktischer Regeln dient. Reguläre Ausdrücke finden vor allem in der Softwareentwicklung Verwendung. Neben Implementierungen in vielen Programmiersprachen verfügen auch viele Texteditoren über reguläre Ausdrücke in der Funktion „Suchen und Ersetzen“. Ein einfacher Anwendungsfall von regulären Ausdrücken sind Wildcards. Reguläre Ausdrücke können als Filterkriterien in der Textsuche verwendet werden, indem der Text mit dem Muster des regulären Ausdrucks abgeglichen wird. Dieser Vorgang wird auch Pattern Matching genannt. So ist es beispielsweise möglich, alle Wörter aus einer Wortliste herauszusuchen, die mit "S" beginnen und auf "D" enden – ohne die dazwischenliegenden Buchstaben oder deren Anzahl explizit vorgeben zu müssen. Der Begriff des regulären Ausdrucks geht im Wesentlichen auf den Mathematiker Stephen Kleene zurück. Dieser benutzte eine fast identische Notation, die er „reguläre Mengen“ nannte. Theoretische Grundlagen. Reguläre Ausdrücke beschreiben eine Familie von formalen Sprachen und gehören damit zur theoretischen Informatik. Diese Sprachen, die regulären Sprachen, befinden sich auf der untersten und somit ausdrucksschwächsten Stufe der Chomsky-Hierarchie (Typ 3). Sie werden erzeugt durch reguläre Grammatiken. Zu jedem regulären Ausdruck existiert ein endlicher Automat, der die vom Ausdruck spezifizierte Sprache akzeptiert. Ein entsprechender (nichtdeterministischer) endlicher Automat kann mit der "Thompson-Konstruktion" aus einem regulären Ausdruck konstruiert werden. Daraus folgt die relativ einfache Implementierbarkeit regulärer Ausdrücke. Umgekehrt existiert zu jedem endlichen Automaten ein regulärer Ausdruck, der die vom Automaten akzeptierte Sprache beschreibt. Ein entsprechender regulärer Ausdruck kann mit "Kleenes Algorithmus" aus einem nichtdeterministischen endlichen Automaten konstruiert werden. Kleenes Algorithmus erzeugt meist sehr lange reguläre Ausdrücke. Die "Zustands-Elimination" liefert in der Praxis meist kürzere reguläre Ausdrücke. Im worst-case liefern jedoch beide Algorithmen reguläre Ausdrücke der Länge formula_1, wobei formula_2 die Anzahl der Zeichen des zugrundeliegenden Alphabets und formula_3 die Anzahl der Zustände im Automaten bezeichnen. Syntax. Die Syntax definiert genau, wie reguläre Ausdrücke aussehen. Für Alternative wird statt formula_13 auch das Symbol formula_14 verwendet. Man schreibt dann formula_15. Für die Verkettung (Konkatenation) gibt es alternativ auch ein Operatorsymbol; man schreibt dann formula_16. Man kann auch zusätzliche Konstanten und Operationen erlauben, sofern sich ihre Wirkung auch mit den oben genannten Grundregeln beschreiben ließe. So findet man in der Literatur unter anderem auch formula_17 als regulären Ausdruck oder die positive Kleenesche Hülle formula_18, die als Abkürzung von formula_19 betrachtet werden kann. Gibt man eine Rangfolge der Operatoren an, kann man auf einige Klammern verzichten. Die Rangfolge ist üblicherweise "Kleene-Stern" vor "Konkatenation" vor "Alternative". Statt formula_20 genügt dann die Schreibweise formula_21. Die Anzahl der verschachtelten *-Operatoren wird als Sternhöhe bezeichnet. Semantik. Die Semantik regulärer Ausdrücke definiert genau, welche formale Bedeutung die Syntax regulärer Ausdrücke hat. Ein regulärer Ausdruck beschreibt eine formale Sprache, also eine Menge von Wörtern (Zeichenketten). Die Definition der Semantik lässt sich analog zur Syntaxdefinition beschreiben. Dabei bezeichnet formula_22 die formale Sprache, die durch den regulären Ausdruck formula_23 spezifiziert wird. Enthält die Syntaxdefinition regulärer Ausdrücke auch die Konstante formula_17, so ist deren Bedeutung definiert als formula_34, also die Sprache, die nur das leere Wort formula_35 enthält. Das leere Wort ist ein Wort einer formalen Sprache (formula_36) und somit kein regulärer Ausdruck. Die Sprache, die nur das leere Wort enthält, lässt sich aber auch ohne die Konstante formula_17 durch einen regulären Ausdruck beschreiben, zum Beispiel: formula_38. Es wird jedoch nicht immer optisch zwischen einem regulären Ausdruck und der zugehörigen Sprache unterschieden, sodass man statt formula_39 auch formula_40 als regulären Ausdruck für die Sprache formula_41 verwendet, ebenso kann die Unterscheidung zwischen formula_5 und formula_43 sowie zwischen formula_17 und formula_35 entfallen. Anwendung regulärer Ausdrücke. Ken Thompson nutzte diese Notation in den 1960ern, um "qed" (eine Vorgängerversion des Unix-Editors "ed") zu bauen und später das Werkzeug grep zu schreiben. Seither implementieren sehr viele Programme und Bibliotheken von Programmiersprachen Funktionen, um "reguläre Ausdrücke" zum Suchen und Ersetzen von Zeichenketten zu nutzen. Beispiele dafür sind die Programme sed, grep, emacs und Bibliotheken der Programmiersprachen Perl, C, Java, JavaScript, Python, PHP, Ruby und das .NET-Framework. Auch die Textverarbeitung und die Tabellenkalkulation des Office-Paketes OpenOffice.org bieten die Möglichkeit, mit regulären Ausdrücken im Text zu suchen. Zwischen verschiedenen Regexp-Implementierungen gibt es Unterschiede in Funktionsumfang und Syntax. In Programmiersprachen haben sich überwiegend die "Perl Compatible Regular Expressions" (PCRE) durchgesetzt, die sich an der Umsetzung in Perl 5.0 orientieren. Daneben wird bei POSIX.2 zwischen „grundlegenden“ regulären Ausdrücken "(basic regular expressions)" und „erweiterten“ regulären Ausdrücken "(extended regular expressions)" unterschieden. Einige Programme, zum Beispiel der Texteditor Vim, bieten die Möglichkeit, zwischen verschiedenen Regexp-Syntaxen hin- und herzuschalten. Reguläre Ausdrücke spielen eine wichtige Rolle bei der lexikalischen Analyse von Quelltexten, beispielsweise in Compilern oder zur Syntaxhervorhebung in Editoren. Ein lexikalischer Scanner zerlegt den Quelltext mithilfe von regulären Ausdrücken in sogenannte "Tokens" (Schlüsselwörter, Operatoren, …). Da es sich bei den meisten Programmiersprachen um kontextfreie Sprachen handelt, sind reguläre Ausdrücke nicht mächtig genug, um deren Syntax zu beschreiben. Daher wird die bei Compilern folgende syntaktische Analyse in der Regel von einem separaten Programm, dem Parser, erledigt. Reguläre Ausdrücke spielen auch in der Bioinformatik eine Rolle. Sie kommen in Proteindatenbanken zum Einsatz, um Proteinmotive zu beschreiben. Der reguläre Ausdruck codice_1 beschreibt zum Beispiel eine Proteindomäne in PROSITE. Der obige reguläre Ausdruck besagt Folgendes: Am Anfang wähle die Aminosäure Tryptophan (Einbuchstabencode W), dann wähle 9 bis 11 Aminosäuren frei aus, dann wähle entweder V, F oder Y, dann wähle entweder F,Y oder W, dann wieder 6 bis 7 Aminosäuren frei, dann entweder G,S,T,N oder E, dann entweder G,S,T,Q,C oder R, dann F,Y oder W, dann R dann S dann A dann P. Reguläre Ausdrücke in der Praxis. Die meisten heutigen Implementierungen unterstützen Erweiterungen wie zum Beispiel Rückwärtsreferenzen "(backreferences)." Hierbei handelt es sich nicht mehr um reguläre Ausdrücke im Sinne der theoretischen Informatik, denn die so erweiterten Ausdrücke beschreiben nicht mehr notwendigerweise Sprachen vom Typ 3 der Chomsky-Hierarchie. Die folgenden Syntaxbeschreibungen beziehen sich auf die Syntax der gängigen Implementierungen mit Erweiterungen, sie entsprechen also nur teilweise der obigen Definition aus der theoretischen Informatik. Eine häufige Anwendung regulärer Ausdrücke besteht darin, spezielle Zeichenketten in einer Menge von Zeichenketten zu finden. Die im Folgenden angegebene Beschreibung ist eine (oft benutzte) Konvention, um Konzepte wie "Zeichenklasse", "Quantifizierung", "Verknüpfung" und "Zusammenfassen" konkret zu realisieren. Hierbei wird ein regulärer Ausdruck aus den Zeichen des zugrunde liegenden Alphabets in Kombination mit den Metazeichen codice_2 (teilweise kontextabhängig) gebildet, bei manchen Implementierungen auch codice_3. Die Meta-Eigenschaft eines Zeichens kann durch ein vorangestelltes Backslash-Zeichen aufgehoben werden. Alle übrigen Zeichen des Alphabets stehen für sich selbst. Zeichenliterale. Diejenigen Zeichen, die direkt (wörtlich, literal) übereinstimmen müssen, werden auch direkt notiert. Je nach System gibt es auch Möglichkeiten, das Zeichen durch den Oktal- oder Hexadezimalcode (codice_4 bzw. codice_5) oder die hexadezimale Unicode-Position (codice_6) anzugeben. Ein Zeichen aus einer Auswahl. Mit eckigen Klammern lässt sich eine "Zeichenauswahl" definieren (codice_7 und codice_8). Der Ausdruck in eckigen Klammern steht dann für "genau ein" Zeichen aus dieser Auswahl. Innerhalb dieser Zeichenklassendefinitionen haben einige Symbole andere Bedeutungen als im normalen Kontext. Teilweise ist die Bedeutung eines Symbols vom Kontext abhängig, in dem es innerhalb der Klammern auftritt. Beispielsweise bedeutet ein Zirkumflex codice_9 am Anfang einer Zeichenklassendefinition, dass die Zeichenklasse negiert/invertiert wird (im Sinne der Komplementbildung). Steht ein Zirkumflex jedoch irgendwo sonst in der Definition, ist es literal zu verstehen. Ebenfalls kontextabhängig ist die Bedeutung des Bindestrich-Zeichens (codice_10). Zudem unterscheiden sich hier die Regexp-Engines (zum Beispiel POSIX und PCRE) in einigen Punkten voneinander. Steht ein Bindestrich codice_10 zwischen zwei Zeichen in der Klassendefinition, zum Beispiel codice_12, so ist er als Bis-Strich zu verstehen, das heißt als Beschreibung eines Zeichenintervalls oder Zeichenbereichs bezüglich der ASCII-Tabelle. Das genannte Beispiel wäre äquivalent zu codice_13. Am Anfang oder Ende einer Zeichenklasse stehende Bindestriche werden literal interpretiert. Vordefinierte Zeichenklassen. Ein Punkt (codice_27) bedeutet, dass an seinem Platz ein (fast) beliebiges Zeichen stehen kann. Die meisten RegExp-Implementierungen sehen standardmäßig "Newline" (Zeilenumbruch) nicht als beliebiges Zeichen an, jedoch kann in einigen Programmen mithilfe des sogenannten "Single-Line"-Modifiers codice_28 (zum Beispiel in codice_29) ebendies erreicht werden. Quantoren. Quantoren (englisch "quantifier", auch "Quantifizierer" oder "Wiederholungsfaktoren") erlauben es, den vorherigen Ausdruck in verschiedener Vielfachheit in der Zeichenkette zuzulassen. Die Quantoren beziehen sich dabei auf den vorhergehenden regulären Ausdruck, jedoch nicht zwangsläufig auf die durch ihn gefundene Übereinstimmung. So wird zwar zum Beispiel durch codice_53 ein „a“ oder auch „aaaa“ vertreten, jedoch entspricht codice_54 nicht nur sich wiederholenden "gleichen" Ziffern, sondern auch Folgen gemischter Ziffern, beispielsweise „072345“. Soll eine Zeichenkette "nur" aus dem gesuchten Muster bestehen (und es nicht nur enthalten), so muss in den meisten Implementierungen explizit definiert werden, dass das Muster vom Anfang (codice_57 oder codice_9) bis zum Ende der Zeichenkette (codice_59, codice_60 oder codice_61) reichen soll. Andernfalls erkennt zum Beispiel codice_56 auch bei der Zeichenkette „1234507“ die Teilzeichenkette „12345“. Aus dem gleichen Grund würde beispielsweise codice_63 immer einen Treffer ergeben, da jede Zeichenfolge – selbst das leere Wort „“ – mindestens 0-mal das Zeichen „a“ enthält. Quantoren sind standardmäßig „gierig“ (englisch "greedy") implementiert. Das heißt, ein regulärer Ausdruck wird zur größtmöglichen Übereinstimmung aufgelöst. Da dieses Verhalten jedoch nicht immer so gewollt ist, lassen sich bei vielen neueren Implementierungen Quantoren als „genügsam“ oder „zurückhaltend“ (englisch "non-greedy", "reluctant") deklarieren. Zum Beispiel wird in Perl hierfür dem Quantor ein Fragezeichen codice_64 nachgestellt. Die Implementierung von genügsamen Quantoren ist vergleichsweise aufwändig (erfordert Backtracking), weshalb nicht alle Implementierungen diese unterstützen. Possessives Verhalten. Eine Variante des oben beschriebenen gierigen Verhaltens ist das "possessive Matching". Da hierbei jedoch das Backtracking verhindert wird, werden einmal übereinstimmende Zeichen nicht wieder freigegeben. Aufgrund dessen finden sich in der Literatur auch die synonymen Bezeichnungen "atomic grouping", "independent subexpression" oder "non-backtracking subpattern". Die Syntax für diese Konstrukte variiert bei den verschiedenen Programmiersprachen. Ursprünglich wurden solche Teilausdrücke "(Subpattern)" in Perl durch codice_71 formuliert. Daneben existieren seit Perl 5.10 die äquivalenten, in Java bereits üblichen possessiven Quantoren codice_72, codice_73, codice_74 und codice_75. Gruppierungen und Rückwärtsreferenzen. Etwa erlaubt codice_80 ein „abc“ oder ein „abcabc“ etc. Einige Implementierungen speichern die gefundenen Übereinstimmungen von Gruppierungen ab und ermöglichen deren Wiederverwendung im regulären Ausdruck oder bei der Textersetzung. Diese werden "Rückwärtsreferenzen" (englisch "back references") genannt. Häufig wird dazu die Schreibweise codice_81 oder codice_82 verwendet, wobei "n" die Übereinstimmung der "n"-ten Gruppierung entspricht. Eine Sonderstellung stellt dabei "n"=0 dar, das meist für die Übereinstimmung des gesamten regulären Ausdrucks steht. Interpreter von regulären Ausdrücken, die Rückwärtsreferenzen zulassen, entsprechen nicht mehr dem Typ 3 der Chomsky-Hierarchie. Mit dem Pumping-Lemma lässt sich zeigen, dass ein regulärer Ausdruck, der feststellt, ob in einer Zeichenkette vor und nach der codice_85 die gleiche Anzahl von codice_86 steht, keine reguläre Sprache ist. Daneben gibt es auch noch Gruppierungen, die keine Rückwärtsreferenz erzeugen (englisch "non-capturing"). Die Syntax dafür lautet in den meisten Implementierungen codice_87…codice_79. Regexp-Dokumentationen weisen darauf hin, dass die Erzeugung von Rückwärtsreferenzen stets vermieden werden soll, wenn kein späterer Zugriff auf sie erfolge. Denn die Erzeugung der Referenzen kostet Ausführungszeit und belegt Platz zur Speicherung der gefundenen Übereinstimmung. Zudem lassen die Implementationen nur eine begrenzte Anzahl an Rückwärtsreferenzen zu (häufig nur maximal 9). Mit dem regulären Ausdruck codice_89 können Folgen von durch Bindestriche getrennten Zahlenfolgen gefunden werden, ohne dabei die letzte durch einen Bindestrich getrennte Zahlenfolge als Rückreferenz zu erhalten. Ein Datum im Format codice_90 soll in das Format codice_91 überführt werden. Alternativen. Man kann alternative Ausdrücke mit dem codice_94-Symbol zulassen. Look-around assertions. Perl Version 5 führte zusätzlich zu den üblichen regulären Ausdrücken auch "look-ahead" und "look-behind assertions" (etwa „vorausschauende“ bzw. „nach hinten schauende“ Annahmen/Behauptungen) ein, was unter dem Begriff "look-around assertions" zusammengefasst wird. Diese Konstrukte erweitern die regulären Ausdrücke um die Möglichkeit, kontextsensitive Bedingungen zu formulieren, ohne den Kontext selbst zu matchen. Das heißt, möchte man alle Zeichenfolgen „Sport“ matchen, denen die Zeichenfolge „verein“ folgt, ohne dass jedoch die gematchte Zeichenfolge die Zeichenfolge „verein“ selbst enthält, wäre dies mit einer "look-ahead assertion" möglich: codice_115. Im Beispielsatz „Ein Sportler betreibt Sport im Sportverein.“ würde jener reguläre Ausdruck also nur das letzte Vorkommnis von „Sport“ matchen, da nur diesem die Zeichenfolge „verein“ folgt; er würde jedoch nicht die komplette Teilzeichenkette „Sportverein“ matchen. Aufgrund der Eigenschaft, dass der angegebene Kontext (im Beispiel „verein“) zwar angegeben wird, jedoch kein expliziter Bestandteil der gematchten Zeichenkette (hier „Sport“) ist, wird im Zusammenhang mit "assertions" meist das Attribut "zero-width" mitgenannt. Die vollständigen Bezeichnungen lauten somit – je nachdem ob ein bestimmter Kontext gefordert (positiv) oder verboten (negativ) ist – "zero-width positive/negative look-ahead/behind assertions." Die Bezeichnungen der Richtungen rühren daher, dass Regexp-Parser eine Zeichenkette immer von links nach rechts abarbeiten. Look-arounds werden nicht nur von Perl und PCRE, sondern unter anderem auch von Java, .NET und Python unterstützt. Javascript interpretiert seit Version 1.5 positive und negative Look-Aheads. Bedingte Ausdrücke. Relativ wenig verbreitet sind "bedingte Ausdrücke." Diese sind unter anderem in Perl, PCRE und dem.NET-Framework einsetzbar. Python bietet für solche Ausdrücke im Zusammenhang mit "look-around assertions" nur eingeschränkte Funktionalität. Rotes Meer. Das Rote Meer ("al-Bahr al-ahmar"; "Arabischer Golf"; "Yam Suf"; Tigrinya ቀይሕ ባሕሪ "QeyH baHri", (übersetzt Erythraeisches Meer, in der römischen Antike unter diesem Namen bekannt)) ist ein schmales, 2240 km langes, bis 2604 m tiefes Nebenmeer des Indischen Ozeans zwischen Nordost-Afrika und der Arabischen Halbinsel. Der Rauminhalt des Meeres beträgt 200.000 km³, die Oberfläche etwa 438.000 km² bei einer durchschnittlichen Wassertiefe von 538 m. Geologie. Das Rote Meer markiert eine geologisch hochaktive Spreizungszone mit aufquellendem Magma (analog dem Mittelatlantischen Rücken) und bewirkt dadurch das Auseinanderdriften der Afrikanischen und der Arabischen Platte seit 130 Millionen Jahren. Die Ausbildung einer Senke verdeutlichte sich „erst“ vor 38 Millionen Jahren im Oligozän, setzt sich im Ostafrikanischen Graben fort und wird in vielen Millionen Jahren zu einem neuen Ozean führen. Zurzeit wird das Meer jedes Jahr im Norden um 0,8 cm, im Süden um 1,6 cm breiter. Nach mehrfacher Isolierung vom Indischen Ozean, vorübergehender Verbindung mit dem Mittelmeer und sogar Austrocknung erreichte das Rote Meer seinen jetzigen Zustand erst vor knapp 5000 Jahren. Zum Indischen Ozean, genauer gesagt zum Golf von Aden, verengt sich das ansonsten bis 360 km breite Meer bei Bab al-Mandab ("arab.:" „Tor der Tränen“) auf nur noch 29 km und ist mit dem Arabischen Meer verbunden, das ein Teil des Indischen Ozeans ist. Zudem liegt an dieser Enge der Meeresboden nur 130 m unter dem Wasserspiegel. Diese Schwelle behindert den Wasseraustausch enorm, was zur Folge hat, dass das Rote Meer einen ungewöhnlich hohen Salzgehalt von 4,2 %, also 42 g/l, (normal ~ 3,5 %; in der Nordsee bei Sylt 3,0 % bis 3,2 %) und relativ wenige Nährstoffe sowie einen Tidenhub von lediglich einem halben bis einem Meter aufweist. Dadurch kommt es wiederum zu vermindertem Planktonwachstum, was Taucher wegen der oft ausgezeichneten Sichtweite zu schätzen wissen, auch wegen über 2000 km Korallenriffen. Neben Korallengärten und -wänden ziehen einige berühmte Wracks die Unterwasserfreunde an. Von gelegentlich auftretenden Wasserzuflüssen durch Wadis abgesehen ist es das einzige Meer, in das keine Flüsse münden. Dies erklärt zudem die gute Sicht unter Wasser, da sich im Wasser wenige Schwebstoffe befinden. An der Schwelle bei Bab al-Mandab steigt 16 °C kühles Tiefenwasser aus dem Golf von Aden auf, was eine biologische Barriere für manche Arten darstellt. Dies ist eine Erklärung, warum es im ganzen Roten Meer keine Seeschlangen gibt. Bereits in der Antike gab es verschiedene Kanalprojekte, welche das Mittelmeer mit dem Roten Meer verbanden. Der im 19. Jahrhundert fertiggestellte Sueskanal ist die aktuelle künstliche Verbindung zwischen dem Roten Meer und dem Mittelmeer. "Siehe auch:" Lessepssche Migration. Namensgebung. Die Namensgebung stammt aus dem althergebrachten System der Bezeichnung von Himmelsrichtungen durch Farben. Erstmals ist der Name zur Zeit der Achaimeniden bezeugt: Für jenes iranische Volk lag dieses Meer im Süden, der durch die Farbe Rot symbolisiert wurde. Also bedeutete rotes Meer „Südsee“ (und analog das Schwarze Meer „Nordsee“). Herodot nannte dieses Meer im Zusammenhang mit dem Kanalbau des Necho II. auch den „arabischen Meerbusen“: Für die spätere Kanalerweiterung, die in mehreren Windungen vom Isthmus bei Ismailia bis zum Ende des schmalen Meerstreifens bei Sues in den „arabischen Busen“ führte, gab er als Distanz 1.000 Stadien an und fügte hinzu, „dass der arabische Busen das ist, was man auch das rote Meer nennt“. Gelegentlich wird zur Namenserklärung die Blaualge "Trichodesmium erythraeum" mit ihrer rötlich-orangen Chlorophyll-Variante herangezogen: Während periodisch auftretender Algenblüten kann sie ganze Teppiche an der Wasseroberfläche ausbilden. In Reisehandbüchern wird des Öfteren über den rötlichen Schimmer von Meer und Bergketten bei Sonnenaufgang erzählt. Möglich auch, dass die Bezeichnung „Rotes Meer“ von einer Übersetzung aus dem Altgriechischen stammt. Die alten Griechen bezeichneten die Gebiete südlich von Oberägypten „Erythraia“ ("erythros" altgr. „rot“), wohl wegen der Rotfärbung der dortigen Erde und des dort häufig vorkommenden roten Sandsteins. Das Erythräa vorgelagerte Meer wurde demnach das „Erythräische Meer“ genannt, ein Name, der später auf das heutige „Rote Meer“ ausgedehnt wurde. Die Römer übersetzten die Bezeichnung „erythros“ wortwörtlich mit „rot“. Das heutige Land Eritrea wurde nach der italienischen Schreibung dieses Wortes benannt. Eine weitere Erklärung geht auf das Volk der Himyaren zurück, das in der Antike im südwest-arabischen Raum herrschte. Der Name „Himjar“ ist auf das Wort „chumr“ zurückzuführen, das mit „rot“ oder „die Roten“ übersetzt werden kann. Dementsprechend wurde aus dem „Meer der Himjaren“ das „Meer der Roten“. Im Laufe der Zeit wurde daraus „Das Rote Meer“. Im frühen 16. Jahrhundert war es üblich, das Rote Meer auf Seekarten rot einzufärben. Biologische Vielfalt. Intaktes Korallenriff nördlich von Marsa Alam Vorherrschend sind Saumriffe nur wenige dutzend bis hunderte Meter vor der Küste oder in Inselnähe. An einigen wenigen flachen Stellen erheben sich Fleckriffe, wie im Nordosten von Hurghada, vor Safaga, südlich von Ras Ghalib (auch Marsa Ghalib, Port Ghalib) – wie das Elphinstone-Riff – und südlich von Marsa Alam. Ferner gibt es drei Riffgruppen weit vor der Küste, die von tiefem Wasser umgeben sind: nordöstlich von Al-Qusair (auch El Quseir) die Brother Islands (Al-Akhawein), südöstlich von Marsa Alam das Daedalus Riff (Abu el-Kizan) und an der Grenze zum Sudan, auf der Höhe von Al Shalaten, St. Johannes-Insel (Geziret Zabargad) und Rocky Island. Auf Grund der topographischen Verbreitungsbarrieren und besonderen ökologischen Situation mit stark wechselnden Bedingungen entwickelte sich eine Spielwiese der Evolution und viele Arten kommen endemisch vor. Aber es finden sich auch fast alle Arten aus dem gesamten Indopazifik, wenngleich die Faunenzusammensetzung ungewöhnlich stark differiert. Man findet Schildkröten, seltener den Weißspitzen-Hochseehai, Weißspitzen-Riffhai, Grauen Riffhai und Manta. Die raren Walhaie kommen meist nur in relativ kleinen Exemplaren von max. 5–6 m vor, die kaum noch zählbare Population der Gabelschwanz-Seekühe scheint vor dem Zusammenbruch zu stehen. Nicht vergessen sollte man in der Aufzählung Napoleon-Lippfische, Büffelkopf-Papageifische (beide werden zuweilen verwechselt), Doktor-, Kaiser-, Rotfeuer-, Kugel- und Igelfische, Blaupunktstachelrochen, Kraken und viele mehr. Muränen, teils außerordentlich große Exemplare, sieht man vor allem Ende August bis Anfang September (vermutlich die Laichzeit) ungewöhnlicherweise auch tagsüber in freiem Wasser dahinschlängeln. Auffallend ist insgesamt die geringere Artenvielfalt als in tropischen Gebieten. Häufig trifft man bei Bootsfahrten, in seltenen Glücksfällen beim Schnorcheln und Tauchen auf den Großen Tümmler und den Spinner-Delfin. Die Artenvielfalt der Vögel ist naturgemäß gering, von einigen Kulturfolgern abgesehen. Trotzdem finden sich einige ornithologisch interessante Vertreter. So lassen sich Palm- ("Streptopelia senegalensis", engl. Laughing Dove) und Türkentauben ("Streptopelia decaocto", engl. Collared Dove), die Große Raubseeschwalbe ("Sterna caspia", engl. Caspian Tern) und die Rußseeschwalbe ("Sterna fuscata", engl. Sooty Tern) sehen. Der Küstenreiher ("Egretta gularis", engl. Western Reef Heron, bis 55 cm) präsentiert sich in einer schwarzen, einer weißen und einer Mischversion, ferner sind Strandläufer (engl. sandpiper) und Sperber ("Accipiter nisus", engl. Sparrowhawk) zu beobachten. Vor allem im nördlichen Bereich des Roten Meeres können die ebenfalls raren Eisvögel ("Alcedinidae", engl. kingfisher) an der Meeresküste beim Sturzfischen gesichtet werden, während der Afrikanische Schwarzstorch ("Ciconia nigra", engl. Black Stork) sich eher im südlichen Teil sehen lässt. Eine Besonderheit ist die endemische Weißaugenmöwe. Mit Glück sind Fischadler ("Pandion haliaetus", bis 50 cm; rüttelt manchmal wie ein Bussard über dem Riff) mit auffallend weißer Unterseite bei der Jagd über dem Riff zu beobachten. Wer Anfang bis Mitte Oktober in dieser Gegend weilt, kann den Flug von unzähligen Zugvögeln nach Süden beobachten – ein atemberaubendes Schauspiel. Über Nacht sind dann oft sämtliche Bäume der Umgebung besetzt. Retour geht es wieder Mitte bis Ende März. Umweltschäden. Vor Hurghada haben zum einen der Massentourismus, der sich rasant nach Süden ausbreitet, zum anderen das Einleiten ungeklärter Abwässer, wildes Ankern und die Korallenbleiche viele Korallen irreversibel stark beschädigt oder ganz vernichtet. Es wird davon ausgegangen, dass die Zerstörung selbst in den südlichsten Teilen, an der Grenze zum Sudan, rasch voranschreiten wird. Massenhafte Tauchsafaris haben dabei einen erheblichen Anteil. Das illegale Fischen an geschützten Korallenriffen ist üblich, selbst Fleisch von Meereskühen und Haifischen wird gelegentlich in Hurghada angeboten. So hat es noch vor wenigen Jahren am Elphinstone Dutzende von Weißspitzen-Hochseehaien gegeben, während hier jetzt höchstens zwei oder drei zu sehen sind, an anderen Stellen gar keine mehr. Die Population der Gabelschwanzseekühe scheint vor dem Zusammenbruch zu stehen. Die HEPCA (Hurghada Environmental Protection and Conservation Association) ist eine 1992 gegründete Nichtregierungsorganisation, die sich des Schutzes des ägyptischen Meeresteils mit sämtlichen Tieren über und unter Wasser angenommen hat. Dazu gehören u. a. die Installation von über 1000 Mooring-Bojen, um Schäden durch wildes Ankern zu vermeiden (siehe Weblinks.) Am Dolphin House hat die Beschränkung der Boote und die Einrichtung von Schutzzonen einiges bewirkt. Einige Tauchunternehmen vor Ort fordern, die Anzahl der Tauchboote am selben Ankerplatz zu begrenzen, um die Störung der angestammten Tiere durch Taucher zu reduzieren und zu vermeiden, dass durch mehrere miteinander vertäute Schiffe bei Seegang Korallenblöcke herausgerissen werden. Am 19. Juni 2010 wurde bekannt, dass durch ein Leck an einer Ölplattform nahe Hurghada eine bisher unbestimmte Menge Öl ausgelaufen ist (offizielle Stellen sprechen von 20–40 Barrel, Umweltschützer gehen von einer weit höheren Verschmutzung aus), das nach Auskunft des verantwortlichen Ölkonzerns das Küstengebiet auf einer Länge von 160 km verschmutzte. Ein nach offiziellen Angaben ca. 20 Meilen langer Ölteppich trieb vor Hurghadas Küste. Am 25. Juni 2010 verlautbarte das ägyptische Erdölministerium, dass der Ölteppich vermutlich nicht von einem Leck an einer Bohrinsel verursacht wurde, sondern von einem Öltanker, der bei der Reinigung auf hoher See Ölrückstände verlor. Rosengewächse. Die Rosengewächse (Rosaceae) sind eine Pflanzenfamilie der Kerneudikotyledonen. Die Familie ist weltweit verbreitet, mit Schwerpunkt auf der Nordhalbkugel. Die Vertreter sind krautige Pflanzen, Sträucher oder Bäume und haben meist auffällige, zwittrige Blüten mit doppelter Blütenhülle und einem deutlich ausgeprägten Blütenbecher. Zur Familie gehören neben den namensgebenden, als Zierpflanzen genutzten Rosen ("Rosa") auch viele bekannte Obstarten wie Apfel, Birne, Brombeeren, Himbeere sowie das Steinobst mit Kirschen, Zwetschge, Pflaume, Mandel usw. Vegetative Merkmale. Die Vertreter der Rosengewächse sind Bäume, Sträucher oder krautige Pflanzen, wobei die strauchige Wuchsform als die ursprüngliche innerhalb der Familie angesehen wird. Große Bäume mit Wuchshöhen von 25 bis 30 Meter sind selten und treten nur in wenigen Gattungen (wie "Eriobotrya, Sorbus, Prunus") auf. Holzige Pflanzen können immergrün oder laubwerfend sein. Manche Sippen besitzen Sprossdornen. Stacheln sind in manchen Gattungen häufig, besonders bei "Rosa" und "Rubus". Krautige Vertreter sind meist ausdauernd und bilden unterirdische, vertikale Rhizome oder horizontale Wurzelstöcke als Überdauerungsorgane. Die Laubblätter sind meist wechselständig. Bei der Blattform gilt das einfache Blatt als die in der Familie ursprüngliche Form, zusammengesetzte Blätter gelten als abgeleitet. Zusammengesetzte Blätter sind meist paarig oder unpaarig gefiederte Blätter und kommen in rund 30 Gattungen vor. Gegenständige Blätter kommen nur in den Gattungen "Coleogyne, Rhodotypos" und "Lyonothamnus" vor. Das Vorhandensein von Nebenblättern gilt als ursprüngliches Merkmal. Bei den Spiraeoideae kam es in mehreren Entwicklungslinien unabhängig voneinander zum Verlust der Nebenblätter. Die Nebenblätter sind häufig am Grund mit dem Blattstiel verwachsen. Am apikalen Ende des Blattstiels sitzen meist zwei Drüsen. Der Blattrand ist häufig gesägt, selten ganzrandig. Bei einigen Gattungen wurden Wasserspalten beziehungsweise Guttation beobachtet. Im Holz besteht das Grundgewebe vorwiegend aus Fasertracheiden, seltener auch aus Libriformfasern. Blütenstände und Blüten. Die Blüten stehen vorwiegend in traubigen oder rispigen Blütenständen, Ähren, Köpfchen und einzeln stehende Blüten sind selten. Die Blüten sind radiärsymmetrisch und meist zwittrig, nur selten durch Reduktion eingeschlechtlich. Ein Blütenbecher (Hypanthium) ist stets vorhanden und unterschiedlich stark ausgeprägt. In der Regel ist eine doppelte Blütenhülle vorhanden, Kelch und Krone sind meist fünfzählig. Die Kelchblätter sitzen am Rand des Blütenbechers und sind eher klein. Manchmal wird auch ein Außenkelch gebildet. Die Kronblätter sind meist auffällig, die vorwiegende Farbe ist weiß, in einigen Gruppen auch gelb. Das Fehlen der Kronblätter wie beispielsweise bei der Gattung "Sanguisorba" ist ein abgeleitetes Merkmal und tritt meist bei windbestäubten Gruppen auf. Bei den Staubblättern gilt eine Zahl von über 10 bis viele als ursprünglich (sekundäre Polyandrie), sekundär gibt es auch weniger. Häufig sind es rund 20. Sie sind stets frei und nicht miteinander verwachsen. Von den Fruchtblättern sind sie meist durch einen Nektar absondernden Diskus getrennt. Die Pollenkörner sind bei der Freisetzung zweizellig und treten einzeln als Monaden aus. Sie sind eher kugelig, im Allgemeinen tricolporat (weisen drei Keimfurchen/-poren auf) und mit langen Furchen. Bei den Fruchtblättern gilt die Zahl von eins bis fünf als ursprünglich, es können auch viele sein. Die Fruchtblätter sind frei (apokarp) oder unecht verwachsen. Sie sitzen dem Blütenboden auf (etwa Erdbeeren) oder sie sind vom vertieften Blütenbecher umgeben (etwa Rosen) oder mit diesem verwachsen (etwa Äpfel). Es gibt alle Übergänge von oberständigem zu unterständigem Fruchtknoten. Pro Fruchtblatt gibt es meist zwei anatrope Samenanlagen, die ein oder zwei Integumente besitzen, seltener - bei ursprünglichen Sippen, auch mehrere Samenanlagen. Der Embryosack entwickelt sich nach dem Polygonum-Typ, der Embryo nach dem Asterad-Typ. Die Griffel sind mit Ausnahme einiger Vertreter der Tribus Pyreae frei. Die für die meisten Arten zutreffende Blütenformel lautet somit: formula_1 Früchte und Samen. Die Früchte der Rosengewächse sind sehr vielgestaltig. In der Vergangenheit wurden die Früchte und die mit ihnen zusammenhängende Blütenmorphologie als Hauptmerkmal zur systematischen Gliederung der Familie verwendet, während neuere molekulargenetischen Untersuchungen die Gruppenbildung anhand der genetischen Übereinstimmungen zwischen den Arten vornehmen. In der Bestimmungsliteratur finden sich dementsprechend die vier Unterfamilien Spiraeoideae, Rosoideae, Maloideae und Prunoideae, während neue Fachliteraturen zur Genetik oder zum Sekundärstoffwechsel der Rosaceae parallel zu dieser klassischen Systematik die aktualisierten Zuordnungen verwenden. Die Samen besitzt häufig eine feste, teilweise dickwandige Samenschale. Sie wird aus den sog. Integumenten der Samenanlage gebildet. Die Samenschale schützt den Embryo, der hauptsächlich aus den beiden flachen bis dicken Keimblättern besteht. In den reifen Samen der Rosaceae ist nur manchmal ein zusätzliches Nährgewebe (Endosperm) erhalten bzw. nur mehr eine dünne Schicht. Chromosomenzahlen. Die Chromosomengrundzahlen der Rosaceae betragen x = 7, 8, 9, 15, und 17. Als ursprünglich werden 7 oder 9 angesehen. Die Grundzahl 8 hat sich bei den Rosoideae einmal und bei den Spiraeoideae mehrfach entwickelt, die Grundzahl 17 einmal bei den Pyreae. Inhaltsstoffe. Die Rosaceae sind reich an Gerbstoffen, die diffus im Gewebe verteilt sind oder in Gerbstoff-Idioblasten vorkommen. Es sind überwiegend kondensierte Gerbstoffe (Proanthocyanidine), in der Unterfamilie Rosoideae kommen auch in größerem Ausmaß Gallo- und Ellagitannine vor. Die monomeren Vorstufen der Gerbstoffe wie Catechine und Flavonolglykoside des Kaempferols und Quercetins kommen ebenfalls vor. Ellagsäure kommt nur bei den Rosoideae vor. In den Cuticularwachsen sind pentazyklische Triterpene wie Oleanolsäure und Ursolsäure weit verbreitet. In der Rinde finden sich häufig Triterpenalkohole (wie Lupeol, Betulin). Als Pseudosaponine werden Triterpensäuren, die über die Carboxygruppe mit Zuckern verestert sind, bezeichnet. Ein Beispiel ist Tormentol. Echte Saponine kommen ebenfalls vor. Die Samen sind meist stärkefrei und speichern dafür Proteine und fettes Öl. Weit verbreitet innerhalb der Familie sind cyanogene Glykoside wie Amygdalin oder Prunasin. Sorbitol wird in den Blättern und Früchten vieler Vertreter als Kohlenhydrat-Reservestoff gespeichert, fehlt allerdings bei vielen Vertretern der Rosoideae. Sorbitol ist auch vielfach das im Phloem transportierte Kohlenhydrat. Bei den Kernobstgewächsen sind die Wände der Samenschalen-Epidermis häufig stark verschleimt, besonders bei der Quitte ("Cydonia oblonga"). In den Früchten sind Fruchtsäuren in teils hohen Konzentrationen vertreten, besonders Äpfel- und Zitronensäure, teils auch Bernsteinsäure, sowie auch Ascorbinsäure (Vitamin C). Bestäubung. Der Großteil der Rosengewächse besitzt Scheiben- und Schalenblumen, bei denen die einzelne Blüte relativ groß ist und als Bestäubungseinheit fungiert. Seltener sind Pinselblumen vertreten, hier sind die Einzelblüten relativ klein und stehen in köpfchen- oder ährenartigen Blütenständen zusammen. Dieser Blumentyp kommt vor allem bei den Sanguisorbeae vor. Als Bestäuber fungieren vor allem Fliegen und kurzzungige Bienen. Weniger Bedeutung als Bestäuber haben langzungige Bienen, Käfer und Schmetterlinge. Einige Gattungen der Sanguisorbeae sind windbestäubt. Fremdbestäubung wird in vielen Arten durch eine mehr oder weniger ausgeprägte Vorweiblichkeit (Protogynie) erreicht, die meisten sexuell reproduzierenden Arten sind zudem selbstinkompatibel. Polyploidie und Fortpflanzungsökologie. In rund einem Drittel der Gattungen gibt es Polyploidie. Häufig kommt Polyploidie in den artenreichen Gattungen vor. Beispiele sind "Alchemilla" (1000 Arten, bis 28-ploid), "Potentilla" (bis 16-ploid), "Rosa" und "Rubus". In einigen Gattungen hat sich Apomixis entwickelt, sie ist meist mit Polyploidie gekoppelt. Die häufigste Form der Apomixis ist die Aposporie, bei der sich der Embryosack aus einer unreduzierten vegetativen Zelle entwickelt. Selten tritt auch Diplosporie auf, bei der sich der Embryosack aus einer unreduzierten generativen Zelle, die von der Embryosackmutterzelle abstammt, entwickelt. Für den Samenansatz sind dennoch meist eine Bestäubung und eine Befruchtung des Endosperms nötig. Von daher ist es im Prinzip auch möglich, dass die unreduzierte Eizelle befruchtet wird und so eine Erhöhung der Chromosomenzahl stattfindet. Ein großer Teil der polyploiden Rosengewächse ist im Gegensatz zu den übrigen Vertretern der Familie selbstkompatibel, eine Pflanze kann sich also selbst bestäuben. Hybridisierung tritt bei den Rosengewächsen häufig auf, bei den Pyreae sogar über Gattungsgrenzen hinweg. Die mit der Hybridbildung häufig einhergehende Apomixis führte dazu, dass sich in manchen Gattungen diploid-triploid-tetraploide Netzwerke von Arten bildeten. Hybride wurden durch Polyploidisierung fruchtbar, bzw. triploide Sippen können sich apomiktisch fortpflanzen. Ausbreitungsökologie. Es gibt bei den Rosengewächsen vier Hauptarten der Ausbreitung der Diasporen, die in engem Zusammenhang mit den Fruchttypen stehen: Fleischige Früchte werden von Tieren gefressen, die Samen wieder ausgeschieden (Endozoochorie). Bei Bäumen sind dies meist Vögel, Fledermäuse oder andere Säugetiere, bei Erdbeeren dürften es Schnecken sein, bei "Aremonia" wird aufgrund des Vorhandenseins von Elaiosomen Ameisenausbreitung (Myrmekochorie) vermutet. Epizoochorie kommt bei Arten vor, die an Hypanthium oder Griffel Haken ausgebildet haben. Es gibt auch Samenausschleuderer und selten Anemochorie (etwa "Dryas" und "Geum"). Symbiosen. Vesikulär-arbuskuläre Mykorrhiza kommt bei den Rosengewächse etwa gleich häufig vor wie bei allen Rosopsida, während Ektomykorrhiza nur bei wenigen verholzten Arten der Dryadoideae, Pyreae, bei "Prunus" und "Rosa" nachgewiesen wurde. Die Dryadoideae gehen mit den stickstofffixierenden Bakterien der Gattung "Frankia" eine Symbiose ein. Verbreitung und Standorte. Die Vertreter der Rosaceae sind weltweit verbreitet. Von den Gattungen sind lediglich drei kosmopolitisch, nämlich "Prunus, Alchemilla" und "Rubus", wobei allerdings nur bei "Prunus" gesichert ist, dass sie natürlicherweise, ohne menschlichen Einfluss auf allen Kontinenten vorkommt. 16 Gattungen sind über die ganze temperate Zone der nördlichen Hemisphäre verbreitet, wovon die meisten auch in die mediterranen oder sogar tropischen Klimate, hier meist in der montanen Höhenstufe weiter südlich reichen. "Geum" und "Agrimonia" reichen auch auf die Südhalbkugel. Lediglich zwei Gattungen kommen nur auf der Südhalbkugel vor, "Acaena" und "Oncostylis". Die meisten endemischen Gattungen gibt es mit 20 in Asien und 17 in Nordamerika, nur wenige in Südamerika (3), Afrika (5) und Europa (1). Rosengewächse wachsen an einer Vielzahl von Standorten, von Halbwüsten bis zu Tiefland-Regenwäldern und offener, alpiner Vegetation. Eine große Anzahl von Arten ist auf bewaldeten Berghängen mittlerer Seehöhe und gemäßigter Breite zu finden. Bedeutung. a> ("Rubus chamaemorus") wird in Nordeuropa als Wildobst gesammelt Die Familie beherbergt viele Zier- und Nutzpflanzen. Als Obst genutzte Arten sind besonders: Quitte ("Cydonia oblonga"), Japanische Wollmispel ("Eriobotrya japonica"), Garten-Erdbeere ("Fragaria" ×"ananassa"), Wald-Erdbeere ("Fragaria vesca"), Kultur-Apfel ("Malus domestica"), Mispel ("Mespilus germanicus"), Aprikose bzw. Marille ("Prunus armeniaca"), Süß-Kirsche ("Prunus avium"), Sauer-Kirsche ("Prunus cerasus"), Zwetschge, Pflaume und Mirabelle (Unterarten von "Prunus domestica"), Schlehdorn ("Prunus spinosa"), Birne ("Pyrus communis"), Moltebeere ("Rubus chamaemorus"), Brombeeren ("Rubus fruticosus" agg.), Himbeere ("Rubus idaeus") und Süße Eberesche ("Sorbus aucuparia" var. "edulis"). Etliche Arten werden auch zu Heilzwecken verwendet. Hier herrschen Gerbstoffdrogen vor: Rhizom von "Potentilla erecta", Blätter von Brombeere, Frauenmantel und Odermennig. Systematik. Die Rosaceae sind innerhalb der Ordnung der Rosenartigen (Rosales) die Schwestergruppe aller anderen Familien der Rosales. In die Familie Rosaceae werden rund 90 Gattungen mit insgesamt etwa 3000 Arten gestellt. In der Vergangenheit dienten vor allem die Früchte als Hauptmerkmal zur systematischen Gliederung der Familie, während man heute versucht, auch molekulargenetische Übereinstimmungen zwischen den Gattungen in der Systematik zu berücksichtigen. Als Folge der Neuerung wurden die alten Unterfamilien-Bezeichnungen "Prunoideae" und "Maloideae" in der entsprechenden Fachliteratur teilweise ausrangiert; die zugeordneten Pflanzen wurden in die Triben Pyrinae (Kernobstgewächse, Spiraeoideae) und Prunus (Steinobstgewächse, Spiraeoideae) verschoben. Damit bilden die Stein- und Kernobstgewächse nach der neueren Sichtweise keine eigenen Unterfamilien mehr. Auf Laien kann diese Gleichzeitigkeit zwei verschiedener Systematiken verwirrend wirken; sie verfolgen jedoch eine jeweils eigene Zielsetzung und können daher nicht als richtig oder falsch bewertet werden, sondern nur nach ihrem praktischen Nutzen im Hinblick auf eine Aufgabenstellung: Die morphologische Systematik dient vorrangig der Orientierung über die Anatomie der Pflanzen und der Pflanzenbestimmung, während man sich von der molekularen Sichtweise validere Erkenntnisse über die phylogenetischen Verwandtschaftsverhältnisse der Rosaceae erhofft. Die hier aufgeführten Gruppen folgen den molekulargenetischen Verwandtschaftsverhältnissen und sind jeweils natürliche Verwandtschaftsgruppen (monophyletisch). Trotzdem sind die genaueren Verwandtschaftsbeziehungen zwischen den Unterfamilien und besonders zwischen den Triben der Spiraeoideae noch nicht ausreichend bekannt. Die traditionelle Untergliederung in die vier Unterfamilien Prunoideae, Pyrinae, Spiraeoideae und Rosoideae geht auf Wilhelm Olbers Focke 1888 zurück. Die Gliederung in Triben stammt in weiten Teilen von Maximowicz für Spiraeoideae (1879), Focke für Rosoideae (1888) und Koehne für Maloideae (heute:Pyrinae)(1890), die Prunoideae wurden nie in Triben unterteilt. Eine Gliederung der Familie von Hutchinson (1964) in 20 Triben ohne Unterfamilien konnte sich nicht durchsetzen. Die Revision der Familie 2007 mit der Eingliederung der bisherigen Unterfamilien Prunoideae und Pyrinae in die Spiraeoideae, sowie der Aufstellung einer neuen Unterfamilie Dryadoideae hatte die Bildung monophyletischer Taxa zum Ziel. Fossilgeschichte. Die Rosaceae sind seit dem Eozän durch zahlreiche Fossilien aus Nordamerika und Europa gut belegt. Ab dem Neogen gibt es auch Funde aus Asien, der Arktis, Nordafrika und einigen Gondwana-Gebieten. Gut untersuchte Funde stammen aus den Okanagan Highlands (Rocky Mountains) aus dem frühen bis mittleren Eozän. Hier gibt es rezente Gattungen, die bereits im Eozän voll entwickelt sind, Arten, die rezenten Gattungen ähneln und ausgestorbene Gattungen, die in ihren Merkmalen höheren Taxa ähneln. Beispiele für letztere sind "Paleorosa" und "Stonebergia". Auch die Gattung "Prunus" ist reichlich vertreten mit Fossilien, die heutigen Vertretern bereits sehr ähneln. Von "Paleorosa" ist der älteste in situ Rosaceen-Pollen bekannt. Die morphologischen Merkmale der Gattung stehen zwischen den klassischen Unterfamilien Pyrinae und Spiraeoideae. Die Früchte von "Quintacava" ähneln den Kernobstgewächsen. Heute weitverbreitete Gattungen, die ebenfalls seit dem Eozän belegt sind, sind beispielsweise "Rubus", "Crataegus" und "Sorbus". Im Neogen sind die Rosengewächse in Europa ein wichtiges Florenelement. Weit verbreitete Gattungen sind hier "Rosa", "Crataegus", "Rubus", "Mespilus", "Sorbus" und "Prunus". Einzelnachweise. D. Frohne, U. Jensen: "Systematik des Pflanzenreichs unter besonderer Berücksichtigung chemischer Merkmale und pflanzlicher Drogen". 4. Auflage, G. Fischer, Stuttgart, Jena, New York 1992, S. 147ff. ISBN 3-437-20486-6 Bayreuther Festspiele. Dirigenten und Bühnenkünstler in Bayreuth um die Jahrhundertwende Die Bayreuther Festspiele oder Richard-Wagner-Festspiele sind ein Musiktheaterfestival, das den zehn letzten Opern Richard Wagners (1813–1883) gewidmet ist. Das Festival findet seit 1876 mit Unterbrechungen, seit 1951 alljährlich statt, im eigens dafür vom Komponisten gemeinsam mit dem Architekten Otto Brückwald (1841–1917) geschaffenen Festspielhaus auf dem Grünen Hügel in Bayreuth. Die Festspiele dauern in der Regel vom 25. Juli bis 28. August. Geschichte bis 1944. Richard Wagner wünschte sich ein Theater an dem er als Komponist, Textdichter, Dramaturg und Intendant seine Vorstellungen vom Gesamtkunstwerk verwirklichen konnte. Dieses sollte sich abseits der Metropolen, – ohne Ablenkung und ohne die Kompromisse eines Repertoirebetriebs – voll und ganz der Darbietung seiner Werke widmen können. 1871 entschied er sich für Bayreuth als Standort. Zur Finanzierung der von ihm auf 300.000 Taler geschätzten Kosten für den Bau eines Festspielhauses und die erste Saison gründete er einen "Patronatsverein", der unter der Leitung von Marie Gräfin von Schleinitz, einer Freundin von Wagners Frau Cosima Wagner, Anteilsscheine für jeweils 300 Taler ausgab. Der Käufer erhielt einen Sitzplatz pro Vorstellung und alle Patrone bestimmten zusammen über die weiteren 500 Sitzplätze. Dies gilt als Erfindung des Fundraisings. Weitere Vereine gründeten sich in verschiedenen deutschen Städten. Jedoch konnten bis Frühjahr 1873 nur 340 Patronatsscheine abgegeben werden. Das Richtfest des Festspielhauses fand im Oktober 1873 statt, ohne dass die Finanzierung gesichert war. Anfang 1874 musste der Bau stillgelegt werden, woraufhin König Ludwig II. von Bayern, der mit Wagner und seinem Projekt eng verbunden war, ein Darlehen aus seinem privaten Vermögen über 100.000 Taler zur Verfügung stellte. Die Inszenierungen hielten sich bis zum Zweiten Weltkrieg buchstabengetreu an die Regieanweisungen im Originaltext und prägten eine orthodoxe Aufführungspraxis, die auch auf andere Opernhäuser Einfluss hatte. Ein durchgehendes Prinzip der Festspiele war ein systematischer Antisemitismus bei der Besetzung sowohl der Sänger als auch der Orchestermusiker. Die Auswertung der Archive ergab, dass auch „in anderen Opernhäusern […] Juden diskriminiert“ wurden. „Aber der erbittert judenfeindliche ideologische Rahmen, den Wagner selbst, seine Frau Cosima oder sein Schwiegersohn Houston Stewart Chamberlain lieferten, den gab es woanders nicht. Dieses klare jüdische Feindbild gab es nur in Bayreuth,“ fasste Hannes Heer 2012 seine Forschung zusammen. Dennoch traten viele bedeutende jüdische Künstler, etwa der Hofkapellmeister Hermann Levi als Dirigent der Parsifal-Uraufführung 1882 oder der österreichisch-amerikanische Bass-Bariton Friedrich Schorr, regelmäßig bei den Bayreuther Festspielen auf. Schorr war etwa von 1925 bis 1931 als Wotan, Hans Sachs und Fliegender Holländer engagiert. Eine enge künstlerische Zusammenarbeit verband Richard Wagner zudem mit dem deutsch-jüdischen Opernimpressario Angelo Neumann, der die Bayreuther Festspiele auf Theatertourneen durch ganz Europa bekannt machte. Richard Wagner. Die ersten Festspiele begannen am 13. August 1876; sie boten die Uraufführung des kompletten "Rings des Nibelungen". Zu den Gästen gehörten Franz Liszt, Anton Bruckner, Karl Klindworth, Camille Saint-Saëns, Peter Tschaikowski, Edvard Grieg, Lew Tolstoi, Paul Lindau, Friedrich Nietzsche und Gottfried Semper, ferner Kaiser Wilhelm I., Kaiser Pedro II. von Brasilien und König Karl von Württemberg. König Ludwig hatte vom 6. bis zum 9. August die Generalproben besucht und kehrte erst zum dritten und letzten Aufführungszyklus zurück, wobei er sich allen öffentlichen Huldigungen entzog. Der künstlerische Erfolg der Premiere wurde durch einige bühnentechnische Pannen beeinträchtigt, so dass Wagner sich weigerte, vor das applaudierende Publikum zu treten. Wegen des finanziellen Misserfolgs – es verblieben Schulden in Höhe von 148.000 Mark – konnten die nächsten Festspiele erst 1882 (mit der Uraufführung von "Parsifal") durchgeführt werden. Wagner beabsichtigte, wie er in einem Brief an Ludwig II. schrieb, nach und nach alle seine Werke in seinem Festspielhaus „in der Weise aufzuführen, dass diese Aufführungen als Muster der Korrektheit meiner nächsten Nachwelt überliefert werden können“. Wenige Monate darauf starb Wagner. Bis kurz vor seinem Tod trug er sich mit dem Gedanken, "Tannhäuser" und den "Fliegenden Holländer" umzuarbeiten, um sie „bayreuthwürdig“ zu machen. Eine Aufführung seiner Frühwerke ("Das Liebesverbot", "Die Feen", "Rienzi") untersagte er zwar nicht, bekundete aber auch kein Interesse daran. Bis heute ist es in Bayreuth üblich, nur die zehn Hauptwerke von "Holländer" bis "Parsifal" zu spielen. Cosima Wagner. Unter der Leitung von Wagners Witwe Cosima fanden die Festspiele zunächst unregelmäßig statt. Immer wieder musste aus wirtschaftlichen Gründen – der Festspielbetrieb war ein reines Privatunternehmen der Familie Wagner – ein Jahr pausiert werden, um finanzielle Engpässe zu überwinden. Auch war die Publikumsnachfrage nicht immer ausreichend, teilweise wurde vor nur mäßig gefülltem Haus gespielt. Erst als ab 1883 Adolf von Groß, ein Freund der Familie Wagner, die Finanzverwaltung übernahm und eine „strikte Ausgabendisziplin“ einführte, konnten die Festspiele finanziell gesichert werden. Die Kredite aus dem Privatvermögen des bayerischen Königshauses wurden bis 1906 zurückgezahlt und das beträchtliche Vermögen der Familie Wagner entstand. Siegfried Wagner. Die Festspiele selbst entwickelten sich im Wechsel zwischen künstlerischer Stagnation und Innovation. Cosima Wagner, die ab 1886 selbst Regie führte, hatte eine strenge Vorstellung von Werktreue. 1908 übergab sie auf dringendes Anraten ihrer Ärzte die Leitung der Festspiele ihrem Sohn Siegfried Wagner, der schrittweise eine Modernisierung der Aufführungen ermöglichte. Der Erste Weltkrieg erzwang 1914 eine Unterbrechung der laufenden Saison; die Rückerstattung des Preises für gelöste Karten verursachte ein hohes Defizit. 1921 nahm eine neue "Deutsche Festspiel-Stiftung" mehr als 5 Millionen Mark aus dem Verkauf von Patronatsscheinen ein. Die 22 entwertete dieses Vermögen jedoch, so dass erst nach zehnjähriger Pause, am 22. Juli 1924, die Festspiele unter Leitung von Siegfried Wagner wieder eröffnet werden konnten. Die "Meistersinger"-Premiere geriet zu einer unverhohlen nationalistischen Veranstaltung; unter den Gästen waren Erich Ludendorff und Heinrich Claß. Der Schlussapplaus nach dem 3. Akt mündete in das vom Publikum stehend gesungene Deutschlandlied. In seinem Testament von 1929 legte Siegfried Wagner fest, dass die Festspiele dauerhaft in der Verantwortung der Familie Wagner liegen sollen und nur Werke Richard Wagners in Bayreuth aufgeführt werden dürfen. Würden diese Auflagen nicht erfüllt, fällt das Festspielhaus an die Stadt Bayreuth, die ihrerseits an diese Auflagen gebunden sein wird. Ob die Verfügung bezüglich des Ausschlusses anderer Werke noch bindend ist, wurde wiederholt diskutiert. Winifred Wagner. Problematisch waren auch die Festspiele zu Anfang der 1930er-Jahre: 1930 starb der Festspielleiter Siegfried Wagner 61-jährig an einem während der Probenzeit erlittenen Herzinfarkt, die Festspiele wurden von seiner Witwe Winifred Wagner übernommen. Auch zwischen dem neuen Dirigenten Arturo Toscanini und den beiden anderen Dirigenten der Jahre 1930 und 1931 Karl Muck und Wilhelm Furtwängler kam es immer wieder zu Spannungen und Eifersüchteleien. Toscanini widerrief kurz vor Beginn der Proben für die Festspiele des Jahres 1933 seine Zusage, da nach der Machtübernahme der Nationalsozialisten in Deutschland eine ausländer- und vor allem judenfeindliche Stimmung herrschte. Die Nähe von Winifred Wagner zu Reichskanzler Adolf Hitler stellte sicher, dass die Festspiele ab 1933 staatlich finanziert und aller Sorgen enthoben waren. Dies trug wesentlich dazu bei, dass im Jahr 1945 „Wagner an der Kulturbörse unter Null gehandelt“ wurde (Zitat Hans Mayer). Thomas Mann bezeichnete Bayreuth als Hitlers Hoftheater. Hitler hatte Bayreuth zuletzt 1940 besucht. Ab diesem Zeitpunkt wurden auf Anordnung Hitlers sogenannte "Kriegsfestspiele" durchgeführt. Die NS-Organisation Kraft durch Freude mit ihrer Abteilung "Urlaub und Reisen" übernahm den Kartenverkauf. Leiter dieser Abteilung war Bodo Lafferentz, der 1943 durch Heirat mit Verena Wagner Winifreds Schwiegersohn wurde. Lafferentz übernahm die Zuteilung der Karten, die vor allem verwundete Soldaten mit ihrem Pflegepersonal sowie Rüstungsarbeiter erhielten. Ab 1941 wurden die Festspiele immer mehr durch den Krieg beeinflusst. Da in der ersten Festspielwoche 1941 bereits ab ca. 21 Uhr totale Verdunkelung angeordnet war, begannen die Aufführungen schon kurz nach Mittag. 1944 standen nur noch die Meistersinger von Nürnberg auf dem Programm. Die letzte der zwölf Aufführungen des Jahres fand am 9. August statt. Es war die vorletzte Opernaufführung im Dritten Reich, die letzte war die öffentliche Generalprobe der Die Liebe der Danae von Richard Strauss im Salzburger Festspielhaus am 16. August 1944. Nachkriegsgeschichte – „Neubayreuth“. Im Rahmen der Entnazifizierung konzentrierte sich das Verfahren vor der Spruchkammer Bayreuth auf die Person Winifred Wagners, statt die Verstrickungen des gesamten Festspielbetriebs zu untersuchen. In der Anklage wurde sie als "Hauptschuldige" eingeordnet, die erste Instanz stufte sie als "Belastete" ein und verhängte schwere Auflagen, die die Fortführung der Festspiele kaum möglich gemacht hätten. In der Berufungsinstanz wurde sie dann als "Mitläuferin" eingestuft und nachdem sie rechtsverbindlich zugunsten ihrer Söhne Wieland und Wolfgang Wagner auf die Leitung der Festspiele verzichtet hatte, nur mit geringen Auflagen belegt, die für sie keine größeren und für die Festspiele keinerlei Einschränkungen darstellten. So war der Weg frei für die Wiederaufnahme der Festspiele. 1949 wurde die Gesellschaft der Freunde von Bayreuth gegründet, die sich zum Ziel setzte, für die Wiederaufnahme Geldspenden einzuwerben. Bereits an Pfingsten 1950 standen 400.000 DM bereit. Bei diesem Neuanfang lag die gemeinsame künstlerische und organisatorische Leitung bei den Enkeln Wieland und Wolfgang Wagner. Ihnen gelang es, jährliche Festspiele – mit meist einer Neuinszenierung pro Saison – zu etablieren. Die ersten Nachkriegsfestspiele begannen am 30. Juli 1951 mit einer viel beachteten Inszenierung des "Parsifal" durch Wieland Wagner. Spielplan. Auf dem Spielplan steht seither traditionell eine wechselnde Auswahl aus den Hauptwerken Richard Wagners: "Der fliegende Holländer", "Tannhäuser", "Lohengrin", "Der Ring des Nibelungen" (mit den vier Teilen "Das Rheingold", "Die Walküre", "Siegfried", "Götterdämmerung"), "Tristan und Isolde", "Die Meistersinger von Nürnberg" und "Parsifal". Gelegentlich wurde auch Beethovens 9. Sinfonie im Festspielhaus aufgeführt. Richard Wagner selbst hatte dieses Werk am 22. Mai 1872 im Markgräflichen Opernhaus dirigiert, aus Anlass der Grundsteinlegung für das Festspielhaus. Im Rahmen der Festspiele erklang die 9. Sinfonie unter Leitung von Richard Strauss (1933), Wilhelm Furtwängler (1951, 1954), Paul Hindemith (1953), Karl Böhm (1963) und Christian Thielemann (2001). Zum 100. Todestag von Richard Wagners Schwiegervater Franz Liszt wurde 1986 dessen Faust-Sinfonie aufgeführt. Inszenierungen und Beteiligte. Verschiedentlich gingen neue Impulse für Oper und Musiktheater von Bayreuth aus, so ab 1951 durch die Inszenierungen von Wieland Wagner, der mit seiner radikalen „Entrümpelung“ der Bühne einen ästhetischen Neuanfang wagte, der stilbildend bis in die 1970er-Jahre wirkte. 1976 geschah durch die "Ring"-Inszenierung von Patrice Chéreau zum 100-jährigen Jubiläum der Festspiele ("Jahrhundert-Ring") erneut eine umfassende stilistische Veränderung und Erneuerung, die zunächst auch heftige Verstörung und Proteste hervorrief, später aber als richtungweisend und künstlerisch überragend anerkannt wurde. Musikalisch gelten die Festspielaufführungen – insbesondere bezogen auf Chor und Orchester – als weltweit außerordentlich, was auch mit der architektonischen und akustischen Besonderheit des Gebäudes (s. a. mystischer Abgrund) zu tun hat. Die Solisten werden für die jeweilige Saison eingeladen, wobei in den Anfangsjahren die Ehre der Einladung und die darauf folgenden Aufträge kompensierten, dass sie in der Regel weit unterhalb ihrer Normalverdienste bezahlt wurden. Astrid Varnay wird zitiert mit den Worten: „In Bayreuth wird gearbeitet, das Geld verdienen wir woanders.“ Dieser Grundsatz geht auf Richard Wagner selbst zurück, der erklärte: „Die Sänger und Musiker erhalten von mir nur Entschädigungen, keine Bezahlung. Wer nicht aus Ehre und Enthusiasmus zu mir kommt, den lasse ich wo er ist.“ Dieser Grundsatz wurde in den folgenden Jahrzehnten aufgeweicht, so dass „kein Künstler alleine Neubayreuth zuliebe auf eine gerechte Entlohnung verzichtet“ (Michael Karbaum). Machten Anfang der 1950er Jahre die Personalkosten noch knapp unter 50 % des Gesamtetats aus, wurden in den 1970er Jahren 78–80 % für Gehälter und Gagen ausgegeben, was den Maßstäben anderer großer Bühnen oder Festspiele entspricht. Vorstellungen und Besucher. Jährlich finden 30 Vorstellungen statt. Besonderheiten der Bayreuther Festspiele sind der Beginn der Vorstellungen bereits am Nachmittag und die einstündigen Pausen, die wegen der Länge von Wagners Werken eingeführt wurden. Die lange im Voraus ausverkauften 30 Vorstellungen können von ca. 58.000 Zuschauern gesehen werden. Dieser Zahl gegenüber steht eine Nachfrage von bis zu 500.000 Kartenbestellungen, so dass mit Wartezeiten von zehn und mehr Jahren gerechnet werden muss. In der Folge entwickelte sich ein Schwarzmarkt mit Festspieltickets, dem wiederum durch personalisierte Eintrittskarten und Kontrollen begegnet werden sollte. Für die Meistersinger des Jahres 1996 ist der Zorn Wolfgang Wagners über einen Kartenverkauf zum Zehnfachen des Normalpreises überliefert. Diese intransparente Entwicklung war das Resultat der Kartenvergabepraxis der Wagner-Familie, zumindest bis zum Ende der Ära Wolfgang Wagner: Niemand wusste, wie viel reguläre Karten in den freien Verkauf gingen und wie viele Günstlinge, Sponsoren und Freundeskreise auf der Zuteilungsliste der Wagner-Familie standen. Unklar war damit auch, wer wirklich die Aufführungen besuchte oder die zugeteilten Karten gewinnbringend weiterverkaufte. Erst 2011 wurde bekannt, dass nur rund 40 % der Karten in den freien Verkauf kamen, die Mehrheit wurde in Form von Kontingenten besonderen Zielgruppen zur Verfügung gestellt. Der größte Empfänger war mit 14.000 Karten pro Jahr der Mäzenatenverein der Festspiele Gesellschaft der Freunde von Bayreuth, weitere Kontingente gingen an Firmensponsoren, die Stadtverwaltung Bayreuths, den Bezirk Oberfranken und die Bayerische Staatskanzlei. Wagner-Freundeskreise und Musikerorganisationen wurden genauso bedacht wie Journalisten (1000 Tickets zuzüglich eines gesonderten Kontingents für den Bayerischen Rundfunk). Zwanzig Reiseveranstalter erhielten ebenfalls Kartenzuteilungen, die sie zu Paketen mit Unterkunft und Gastronomie bündelten. Der Bundesrechnungshof kam 2011 zum Ergebnis, dass die Vergabe dieser Kontingente „mit den Förderzielen des Bundes nicht vereinbar“ sei. Als Reaktion auf die Kritik beendeten die Festspiele 2012 die Tradition, ursprünglich zwei, ab 2010 eine Vorstellung exklusiv für Mitglieder des DGB Bayern anzubieten, um dessen Verdienste für die Neubegründung der Festspiele nach dem Zweiten Weltkrieg zu würdigen. Die Karten für diese Vorstellungen waren laut Medienberichten in der Vergangenheit in besonders hohem Maß auf dem Schwarzmarkt angeboten worden, so dass die eigentliche Zielgruppe nur bedingt erreicht wurde. 2012 wurde die Kartenvergabe vollkommen neu geregelt: Ab sofort kamen 65 % der Karten in den freien Verkauf, weshalb der Richard-Wagner-Verband wie alle 138 Wagner-Verbände keine Kontingente mehr zur Verfügung hat. Auch Reisebüros bekommen keine Tickets mehr. Weiterhin bevorzugt behandelt wird die Mäzenatenvereinigung Gesellschaft der Freunde von Bayreuth. Der reguläre Eintrittskartenpreis lag im Jahr 2012 wie seit Jahren unverändert zwischen 15 und 280 Euro je nach Platzkategorie. Außerdem stand noch eine geringe Anzahl von Plätzen mit eingeschränkter Sicht auf die Bühne (zum Preis von 15 Euro) und für Hörplätze (zum Preis von 8 Euro) zur Verfügung. 2014 bewegt sich die Preisspanne von 45 bis 320 Euro (Plätze mit Sichteinschränkung für 25 und 10 Euro). Im Verhältnis zur allgemein hohen künstlerischen Qualität gelten die Preise, auch verglichen mit anderen Festivals, als äußerst maßvoll. Allerdings ist die Mitgliedschaft bei den Freunden von Bayreuth mit weiteren Kosten verbunden; sie gilt aber als notwendig, um überhaupt regelmäßigen Zugang zu Eintrittskarten zu bekommen. Auf dem Schwarzmarkt werden Aufschläge von bis zu 700 Prozent auf den regulären Eintrittspreis bezahlt. Inzwischen werden für einen Teil der Vorstellungen Eintrittskarten auch online verkauft, in der Saison 2013 zunächst für eine Vorstellung, die in wenigen Minuten ausverkauft war. Im Jahrgang 2014 wurden Kartenkontingente für elf Vorstellungen zum Online-Kauf angeboten und weitestgehend am gleichen Tag verkauft. Seit der Saison 2015 wird die Hälfte aller Karten online verkauft. Innerhalb von vier Stunden waren alle verfügbaren Karten vergeben, aber der Ticketshop blieb weiterhin geöffnet um Rückläuferkarten anzubieten. Karten für die Saison 2016 können erstmals schon während der Saison 2015 bestellt werden. Der Richard-Wagner-Verband vergibt jährlich Stipendien, vornehmlich um Studierenden einen unentgeltlichen Besuch der Aufführungen zu ermöglichen. Auch damit wird versucht, der Idealvorstellung Richard Wagners, dass jedem ernsthaft Interessierten ungeachtet seiner finanziellen Möglichkeiten der Besuch der Festspiele ermöglicht werden sollte, gerecht zu werden. Organisation. Träger des Bayreuther Festspielhauses ist seit 1973 die Richard-Wagner-Stiftung Bayreuth. Stiftungsmitglieder sind die Bundesrepublik Deutschland, der Freistaat Bayern, die Stadt Bayreuth, die Gesellschaft der Freunde von Bayreuth, die Bayerische Landesstiftung, die Oberfrankenstiftung, der Bezirk Oberfranken und Mitglieder der Familie Wagner. Geschäftsführer des Stiftungsrates ist der Oberbürgermeister der Stadt Bayreuth (derzeit Brigitte Merk-Erbe). Die Festspiele werden seit 1986 von der "Bayreuther Festspiele GmbH" durchgeführt. Der Etat der Festspiele beträgt 16 Millionen Euro pro Jahr (Stand: 2012). Der Bund, das Land Bayern und die Stadt Bayreuth bezuschussen den Festspielbetrieb jährlich mit sieben Millionen Euro. Katharina Wagner (l.) und Eva Wagner-Pasquier (r.) bei der Premiere der Bayreuther Festspiele 2009 Künstlerischer Leiter der Festspiele war seit der Wiedereröffnung 1951 und bis zu seinem Rücktritt am 31. August 2008 Wolfgang Wagner (bis 1966 gemeinsam mit seinem Bruder Wieland). Durch die Diskussion über seine möglichen Nachfolger (Nike Wagner, Eva Wagner-Pasquier und Wieland Lafferentz oder Gudrun Wagner und Katharina Wagner) ist seine Person in den 1990er- und 2000er-Jahren häufig in den Medien aufgetaucht. 2001 fiel die Entscheidung entgegen dem Willen Wolfgang Wagners zugunsten von Eva Wagner-Pasquier aus, die jedoch kurze Zeit nach der Wahl auf das Amt verzichtete, da sich Wolfgang Wagner auf seinen Vertrag auf Lebenszeit berief und seinen Posten nicht freiwillig aufgeben wollte. Nach dem plötzlichen Tod von Gudrun Wagner im November 2007, Wolfgang Wagners Ehefrau und persönlicher Mitarbeiterin, war angesichts des hohen Alters des Festspielleiters die Nachfolgefrage wieder aktuell. Im April 2008 hat Wolfgang Wagner selbst eine Nachfolgelösung, bestehend aus seinen beiden Töchtern (die Halbschwestern Eva und Katharina), ins Gespräch gebracht und seinen Rücktritt angekündigt, falls der Stiftungsrat sich für die beiden als gemeinsames Leitungsteam der Bayreuther Festspiele aussprechen würde. Nachdem sowohl Katharina Wagner als auch Eva Wagner-Pasquier ihre Bereitschaft zur Kooperation signalisiert hatten, erklärte Wagner in einem Brief an den Stiftungsrat, zum 31. August 2008 sein Amt als Festspielleiter niederzulegen. Eine Woche vor Ablauf der Bewerbungsfrist und dem Zusammentreten des Stiftungsrates zur Neubesetzung am 1. September 2008 bewarb sich auch Nike Wagner, die Leitung der Festspiele gemeinsam mit den renommierten Kulturmanager Gerard Mortier zu übernehmen. Der Stiftungsrat wählte in dieser Sitzung die beiden Töchter Wolfgang Wagners, Katharina Wagner und Eva Wagner-Pasquier, zu neuen Leiterinnen der Bayreuther Festspiele. Nach dem Ende ihres Vertrags von 2008 wird Eva Wagner-Pasquier aus der Leitung ausscheiden, Katharina Wagner wird die Festspiele ab der Saison 2015 allein führen. Ihr zur Seite steht Geschäftsführer Heinz-Dieter Sense. Am 29. Juni 2015 wurde bekannt, dass Christian Thielemann bereits am 15. März 2015 und mit Wirkung bis zum Jahre 2020 zum Musikdirektor der Bayreuther Festspiele berufen wurde, eine Position, die es bislang noch nicht gab. Bereits seit 2010 war Thielemann musikalischer Berater der Festspielleitung und möchte in dieser neuen Position seine Erfahrungen weitergeben und soll sich grundsätzlich mit allen musikalischen Belangen des Hauses befassen. Bei einer Pressekonferenz der Festspiele am 25. Juli 2015 wurde bekannt, dass hierbei Thielemanns Aufgaben seien, das Klangbild der Bayreuther Festspiele mit zu prägen, die Orchesterbesetzung auszuwählen und einen Stamm von Assistenten aufzubauen. Zudem wird er in dieser Funktion die Künstlerische Geschäftsleitung beraten und international Solisten besorgen. Inszenierungen. Farbig markiert sind die Wirkungszeiten der jeweiligen Festspielleiter, bezogen auf das Jahr der Premiere. Planungen für die kommenden Festspiele. Für das Jahr 2016 war Jonathan Meese für ein Gesamtkonzept (Regie, Bühnenbild, Kostüme) des Parsifals engagiert, er wurde von seinem Vertrag am 14. November 2014 von der Festspielleitung entbunden. Als offizielle Begründung wurde ein unschlüssiges Finanzkonzept angegeben. „Blaue Mädchen“. Als „Blaue Mädchen“ wurden die Türsteherinnen des Festspielhauses in Bayreuth bezeichnet. Der Name entstand aus der bis 2008 traditionell blauen Farbe ihrer Uniform. Seit dem Festspielsommer 2009 sind sie jedoch einheitlich grau gekleidet. In früher Zeit waren es vorzugsweise unverheiratete junge Damen aus der näheren Umgebung von Bayreuth, heute dominieren Studentinnen der theater- und operbezogenen Studiengänge aus Bayreuth, Deutschland, Europa und der Welt. Sie haben die Möglichkeit, sich in ihrem Dienst annähernd alle 30 Aufführungen einer Festspielsaison der Richard-Wagner-Festspiele anzuschauen und anzuhören. Ab der Saison 2015 sind auch erstmals männliche „Blaue Mädchen“ im Einsatz. Fotografie. Von 1952 bis 1987 nahm Siegfried Lauterwasser als Bühnenfotograf die Inszenierungen der Bayreuther Festspiele auf. Radio. Am 18. August 1931 übertrug die Deutsche Stunde in Bayern erstmals eine Aufführung live aus dem Festspielhaus: "Tristan und Isolde", dirigiert von Wilhelm Furtwängler. Angeschlossen waren über 200 europäische, amerikanische und afrikanische Sender; es war die „erste Weltsendung in der Geschichte des Rundfunks“. Public Viewing und Internet. 2008 fand als Live-Übertragung aus dem Festspielhaus das erste Public Viewing einer Aufführung der Bayreuther Festspiele statt. Bei den Bayreuther Festspielen 2010 war das erste Public Viewing für Kinder am Vormittag mit der Filmaufführung der Kinderoper "Tannhäuser und der Sängerkrieg auf Wartburg" sowie dem interaktiven Wagner-Erlebnisparcours und Rahmenprogramm für Kinder im Anschluss. Die Aufführungen konnten auch als Livestream im Internet verfolgt werden. Nachdem sich der Sponsor Siemens zurückzog, gab es 2012 kein "Public Viewing" auf dem Volksfestplatz. Stattdessen wurde am 11. August eine Vorstellung des Parsifal live in über hundert Kinos gezeigt. Das Pausenprogramm mit Einblicken hinter die Kulissen und Interviews wurde moderiert von Katharina Wagner, Klaus Florian Vogt und Axel Brüggemann. 2013 wurde in ähnlicher Weise eine Aufführung des Fliegenden Holländers, 2014 eine des Tannhäusers und 2015 eine des Tristans in der Inszenierung von Katharina Wagner im Kino übertragen. Für 2016 ist eine Übertragung der neuen Parsifal-Produktion geplant. Einführungsvorträge. Seit Wiederaufnahme der Festspiele nach dem Zweiten Weltkrieg im Jahr 1951 gibt es an den Aufführungstagen jeweils Einführungsvorträge zu den an den gleichen Tagen stattfindenden Vorstellungen. Als Referenten dieser von Wieland Wagner vorgeschlagenen Veranstaltungsreihe wirkten zunächst Erich Rappl und ab 1998 Stefan Mickisch. Seit einigen Jahren finden zwei Einführungsvorträge zu jeder Vorstellung statt, Referenten sind bzw. waren Stefan Mickisch und Detlev Eisinger (in dieser Funktion von 2002 bis einschl. 2008). Oft werden mehr als 10.000 Zuhörer pro Saison gezählt. An einzelnen Tagen werden auch Vorträge in englischer und französischer Sprache angeboten. Ab dem Jahr 2009 wird einer der Einführungsvorträge im Haus Wahnfried vom Leiter des Museums gehalten. Zusätzlich gibt es inszenierungsbezogene Einführungsvorträge im Festspielhaus, die aber für Personen reserviert sind, die eine Eintrittskarte für die jeweilige Aufführung besitzen. Seit 2013 werde auch allgemein zugängliche Einführungsvorträge jeweils zwei Stunden vor Vorstellungsbeginn in der Walhall-Lounge direkt auf dem Festspielgelände angeboten. Richard Wagner für Kinder. 2009 wurde auf der Probebühne IV des Festspielhauses eine etwa einstündige, für Kinder von sechs bis zehn Jahren konzipierte Bearbeitung des "Fliegenden Holländers" gespielt (Textfassung: Alexander Busche; Einrichtung für 19 Musiker / musikalische Leitung: Christoph Ulrich Meier; Regie: Alvaro Schoeck, Bühnenbild: Merle Vierck; Kooperationspartner: Hochschule für Musik „Hanns Eisler“ Berlin). 2010 wurde eine "Tannhäuser"-Bearbeitung gespielt, 2011 ein Ring für Kinder, 2012 eine kindgerechte Fassung der Meistersinger von Nürnberg (Regie: Eva-Maria Weiss; musikalische Leitung: Hartmut Keil), 2013 (Regie: Michael Höppner; musikalische Leitung: Boris Schäfer) eine von Tristan und Isolde, 2014 ein Lohengrin (Regie: Maria-Magdalena Kwaschik; musikalische Leitung: Boris Schäfer) und 2015 Parsifal in einer Fassung von Katharina Wagner (Regie: Tristan Braun; musikalische Leitung: Boris Schäfer). Für 2016 ist eine Holländer-Produktion geplant. Die 10 Aufführungen finden in den ersten zwei Festspielwochen statt (25. Juli – 10. August) und werden seit 2009 auf der Probebühne IV gezeigt. Das Kinderfestspielorchester ist das Brandenburgische Staatsorchester Frankfurt (Oder). Eine Besonderheit ist die Mitwirkung von Kindern in der Produktion durch Kostümwettbewerbe oder als Statisten auf der Bühne. Radom. Radom ist eine kreisfreie Großstadt der Woiwodschaft Masowien im zentralen, leicht südöstlichen Teil Polens – rund 100 Kilometer südlich der Landeshauptstadt Warschau zwischen der Weichsel und dem Fuß des Heiligkreuzgebirges. Radom hat sieben Hochschulen und ist bedeutender Verkehrsknotenpunkt der Linien Warschau–Krakau sowie Łódź–Lublin. Wirtschaft. Die metallverarbeitende Industrie, die bis 1989 das wirtschaftliche Bild Radoms bestimmte, existiert in dieser Form nicht mehr, so dass Radom als Industriestadt von relativ hoher Arbeitslosigkeit betroffen ist. Geschichte. Radom wurde 1155 zum ersten Mal urkundlich erwähnt. Die Blütezeit der Stadt lag am Ende des 15. Jahrhunderts, als der polnische König Kasimir IV. die Stadt zu seiner Residenz machte. Mit der Dritten Teilung Polens 1795 wurde Radom Österreich zugeschlagen. 1809 bis 1815 gehörte es zum Herzogtum Warschau und danach zum Königreich Polen, das unter russischer Herrschaft stand. a>, das Deutschen verbietet, das Ghetto zu betreten (1941) Im September 1939 fand im Raum Radom eine Kesselschlacht statt, in der technisch unterlegene polnische Truppen von deutschen Panzerverbänden aufgerieben wurden. Während der deutschen Besatzung betrieben die Deutschen hier ein Außenlager des KZ Majdanek, das KZ Skolna sowie ein Sammellager, das Ghetto Radom mit 30.000 Bewohnern. Zu den verantwortlichen Offizieren gehörten unter anderem Karl Oberg, Erich Kapke, Fritz Katzmann, Wilhelm Bluhm, Hermann Weinrich und Herbert Böttcher, die später als Kriegsverbrecher verurteilt wurden. Im Umfeld von Radom errichtete die Wehrmacht 1940 den Truppenübungsplatz Mitte. Hierfür wurden etliche Dörfer der Umgebung abgesiedelt. Zivilverwalter der Stadt war der Nationalsozialist Fritz Schwitzgebel aus Saarbrücken. 1939–1945 war Radom Sitz des Distrikts Radom im Generalgouvernement. Ende 1943 übernahm die DAW Deutsche Ausrüstungswerke polnische Häftlinge im Generalgouvernement sowie die Industriebetriebe in Radom. Am 16. Januar 1945 wurde Radom von der Roten Armee eingenommen. Die an ihrem Wohnort gebliebenen Deutschen wurden teilweise vertrieben oder ermordet. Die Arbeitsfähigen mussten in den Industriewerken in Radom oder auch in der Landwirtschaft Zwangsarbeit verrichten. Im Frühjahr 1945 wurden die arbeitsfähigen deutschen Männer zu Trupps zusammengestellt und zur Zwangsarbeit in sowjetische Lager verbracht. 1976 kam es in Radom zu Arbeiterunruhen, die von Sicherheitskräften niedergeschlagen wurden. Evangelisch-Augsburgische Gemeinde Radom. Zu Beginn des 19. Jahrhunderts siedelten sich in und um Radom evangelische Deutsche an. So gründeten sie um 1815 die pommerschen Dörfer Pelagiów und Soltyków. Später folgten noch nachstehende Kolonien: Blonie und Zabierzów 1838, Małe Studnie und Bobrowniki 1839, Józefów bei Radom und Bartodzieje 1842, Polesie, Pająków und Leokadiów nach 1870. Bis zum Jahr 1826 hatten die Evangelischen in und um Radom weder Kirche, Pfarrhaus noch einen eigenen Pastor. Zur Befriedigung ihrer religiösen Bedürfnisse suchten sie entweder die lutherische Kirche in Wengrow auf oder die dortigen Pastoren Goburek bzw. Haupt kamen nach Radom zu Hauptgottesdiensten oder zur Verrichtung von Amtshandlungen. Aber infolge der weiten Entfernung und schlechten Wege war dieser Zustand auf Dauer untragbar. Und so wünschten hier die Evangelischen die Bildung eines neuen Kirchspiels. Die evangelisch-augsburgische Gemeinde entstand am 30. September 1826. 1827 kaufte die Gemeinde eine ehemalige Benediktinerkirche, die zur Zeit ein Theater war. Die Gebäude wurde zu einer evangelischen Kirche umgebaut. Am 15. August 1828 wurde die Kirche eingeweiht. 1827 wohnten in der Stadt 1442 Lutheraner und 21 Reformierte. Pastor Julius Krauze eröffnete in Radom eine evangelische Schule, die am 8. Januar 1843 in eine Elementarschule umgewandelt wurde. 1834 wurde der evangelische Friedhof gegründet. 1887 schenkte Frau Pastor Wüstehube der Gemeinde eine Orgel. In der Zeit 1893–1895 wurde die Kirche um- und ausgebaut. Die Ausgaben wurden größtenteils durch freiwillige Gaben bestritten. Leokadiów, das größte Kantorat der Gemeinde, besaß einen geräumigen Betsaal mit einem Glockenturm. 1938 wurde der Betsaal niedergebrannt. Im Ersten Weltkrieg wurden die Eingepfarrten fast alle nach Russland verschleppt. 1918–1920 kehrten die meisten von ihnen wieder zurück. Im Zweiten Weltkrieg (1944) wurde die Kreishauptmannschaft, im ganzen mehr aIs 4000 evangelische Deutsche, unter Leitung des Kreishauptmanns Dr. Rubehn nach Deutschland evakuiert. Trotz des Zweiten Weltkriegs und seiner Folgen besteht die Gemeinde bis heute. Am 23. September 2001 konnte das 175-jährige Jubiläum der Gemeindegründung gefeiert werden. Sehenswürdigkeiten. Sehenswert sind aus der älteren Zeit das Kloster der Bernardiner, gestiftet vom polnischen König Kasimir IV. Jagiello im 15. Jahrhundert, die spätmittelalterliche Johannes-Pfarrkirche mit Kapelle der Familie Kochanowski sowie die barocke Dreifaltigkeitskirche. Die älteste Kirche der Stadt, die Wenceslaus-Kirche aus dem 13. Jahrhundert, wurde erst in den letzten Jahren saniert, wobei das Innere modern ausgestattet wurde. Sehr wichtig für die polnische Baukunst des 19. Jahrhunderts sind das Gebäude der ehemaligen Woiwodschaftsverwaltung nach Plänen von Antonio Corazzi, ein Prachtwerk des Spätklassizismus, und das Rathaus im Stile der italienischen Neorenaissance, erbaut nach Plänen von Marconi. In ungeraden Jahren, Ende August bzw. Anfang September, findet in Radom eine internationale Flugschau (Air-Show) statt. Bedeutende Einrichtungen. Sendeanlage für Langwellenfunkdienste (nicht Rundfunk) im Westen der Stadt. Rhea (Mythologie). Rhea (oder "Rheia") ist eine Gestalt aus der griechischen Mythologie und eine der Titaninnen. Ihr Name bedeutet vermutlich „fließen“ oder „erleichtern“. So war sie auch Göttin der Behaglichkeit, der Fruchtbarkeit, der Mutterschaft und Grund der Empfängnis. Vorfahren und Nachkommen. Rhea ist die Tochter der Gaia und des Uranos sowie die Gemahlin ihres Bruders Kronos, mit dem sie gemeinsam den ewigen Fluss der Zeit und der Generationen bestimmt. Nach einer Prophezeiung wurde vorhergesagt, dass Kronos dereinst durch eines seiner Kinder abgesetzt werde. Aus diesem Grunde verschlang er alle Kinder, die Rhea ihm gebar. Als Rhea wiederum schwanger war, versuchte sie Zeus, ihren neugeborenen Sohn vor Kronos zu verbergen. Sie versteckte ihn in einer Höhle auf Kreta und ließ ihn von den Kureten bewachen. Da Kronos von der Geburt wusste, präsentierte sie ihm statt des Kindes einen in Windeln gewickelten Stein, den dieser sofort gierig verschlang. Gemeinsam mit Kronos zeugte sie zuvor die Gottheiten Hestia, Demeter, Hera, Hades und Poseidon, die alle von ihrem Vater verschlungen wurden. Als Zeus herangewachsen war, stürzte er seinen Vater Kronos und wurde selbst zum Herrscher des nächsten Göttergeschlechtes. Gaia stellt in der Mythologie die Große Erdmutter, die Urmutter aller Götter, dar. Sowohl Gaia als auch Rhea sowie deren Tochter Hera schenken Söhnen das Leben, die ihre Väter entmachten oder zumindest einen Versuch unternehmen, sie zu stürzen.. Bei den Römern wurde die Gottheit als Kybele bezeichnet. Rhea wird daher manchmal mit dieser oder mit Demeter gleichgesetzt, quasi wie eine Reinkarnation der personifizierten Muttergöttin oder der Erde, da Rhea wiederum als Mutter der Götter und Menschen gilt. Rhea-Mythen. Es spricht einiges dafür, dass es sich um immer dieselbe Göttin in anderer Gestalt handelt oder dasselbe Ritual mit Personen in gleichen Funktionen. Insofern können Gaia, Rhea und Demeter/Hera als Vertreterinnen und Verkörperungen der Großen Göttin angesehen werden und die scheinbaren Inzeste und Bluttaten als Andeutungen matriarchalischer Rituale. Für diese These spricht auch, dass Rhea – wie die Große Göttin/Erdmutter in anderen Mythologien auch – in einer dreifachen Gestalt auftritt, bzw. vertreten wird: als Amaltheia, der Amme des Zeus, als Io, seiner Geliebten, und als der Rachegöttin Adrasteia, auch Nemesis genannt. Den Orphikern zufolge soll Rhea mit ihrem Gatten Kronos auf der Insel der Seligen herrschen, wo das Goldene Zeitalter anhält. Der Analytischen Psychologie in der Tradition Carl Gustav Jungs gilt Rheia als besonders deutliche Ausprägung des sog. Mutterarchetyps. Nach der Göttin sind der Mond Rhea des Saturn und der paläozoische Rhea-Ozean benannt. Rhea in den bildenden Künsten. Rhea wird meist mit anderen Göttern kombiniert, wie mit Demeter. Oft ist sie als Göttermutter dargestellt, dann meist sitzend auf einem Omphalos. Einige Darstellungen beschäftigen sich auch mit der Gigantomachie; hier findet man Rhea auf Seiten der Götter. Rohrkolben. Die Rohrkolben ("Typha"), regional auch als Kanonenputzer, Lampenputzer oder Schlotfeger bezeichnet, sind eine der beiden Gattungen der Familie der Rohrkolbengewächse (Typhaceae) innerhalb der Ordnung der Süßgrasartigen (Poales). Sie sind Wasser- und Sumpfpflanzen, welche in Feuchtgebieten dichte Bestände entwickeln können. Besonderes Kennzeichen der Rohrkolben ist der auffallend zweiteilige Blütenstand aus einem rein weiblichblütigen und darüber befindlichem rein männlichblütigen Kolben. Beschreibung. Schematische Darstellung der Einzelblüten und des Blütenstandes der Rohrkolben Die Flugsamen werden mit dem Wind fortgetragen. Erscheinungsbild und Laubblätter. Rohrkolben-Arten sind sommergrüne, ausdauernde krautige Pflanzen. Es sind Wasser- und Sumpfpflanzen (Hydrophyten, Helophyten) mit kräftigen unterirdisch kriechenden Rhizomen. Sie sind in der Lage, dichte Bestände zu entwickeln (Polykormone). An den stets unbehaarten Stängeln sind die Blätter wechselständig und streng zweizeilig (distich) angeordnet. Die ungestielten, einfachen Laubblätter wachsen steif aufrecht, können eine Länge von bis zu 4 Meter erreichen, sind linealisch grasartig und bestehen aus einem schwammartig-zusammendrückbaren Schwimmgewebe. Die parallelnervigen Blattspreiten sind nach außen gewölbt und innen flach, so dass sich im Querschnitt ein Halbkreis ergibt – im Gegensatz zu den Igelkolben mit dreieckigem Blattquerschnitt. Die Blattscheiden sind stets offen. An den Scheidenmündungen im Übergang zur Spreite sind keine Blatthäutchen (Ligulae) entwickelt. Blütenstände, Blüten und Früchte. Rohrkolben-Arten sind einhäusig getrenntgeschlechtig (monözisch). Der Gesamtblütenstand (Infloreszenz) der Rohrkolben besteht aus einem dickeren, rein weiblichblütigen und einem darüber befindlichen, durch einen artspezifisch langen Sprossabschnitt getrennten, dünneren rein männlichblütigen Teilblütenstand. Diese sind als walzenförmige oder kugelige Kolben ausgebildet, in denen die Einzelblüten dicht gedrängt stehen. Der Blütenstand ist nie von Hochblättern (Brakteen) durchsetzt – im Gegensatz zu den Arten der Igelkolbengewächse. Die eingeschlechtigen, dreizähligen Einzelblüten sind spelzenlos. Die weibliche Blüte besteht aus der Blütenhülle (a) (Perigon), die ist zu einem dichten Haarkranz reduziert und einem gestielten Fruchtknoten (c) mit spatelförmiger Narbe (d). Die auf einem Stiel sitzenden zwei bis fünf Staubblätter (b) der einzelnen männlichen Blüten sind von wenigen Hüllborsten (a) umgeben. Die Blütezeit der Rohrkolben erstreckt sich von Mai bis August. Die Verbreitungseinheit (Diaspore) wird aus der Achäne, eine einsamige Nussfrucht und den Perigonhaaren gebildet. Ökologie. Die "Typha"-Arten werden durch den Wind bestäubt (Anemogamie). Die Ausbreitung der Diasporen erfolgt durch den Wind (Anemochorie) und durch Wasser (Hydrochorie). Dabei dienen die feinen Perigonhaare als Flug- oder Schwimmorgane. Bei den meisten Arten verlassen die Samen die Fruchthülle bei längerem Kontakt mit dem Wasser, sinken ab und keimen unter Wasser (anaerob). Bei einigen Arten verbleiben sie in der Fruchthülle und keimen an der Luft unter aeroben Bedingungen. Die vegetative Ausbreitung erfolgt über Rhizome. Die "Typha"-Arten können an geeigneten Standorten dichte artenarme Bestände, sogenannte Röhrichte entwickeln. Die "Typha"-Arten sind an feuchte bis nasse, zum Teil brackige und zeitweise überflutete Lebensräume angepasst. Sie besiedeln Gewässerufer, Sümpfe und Moore. Verbreitung. "Typha"-Arten sind weltweit von den gemäßigten Zonen bis in die Tropen verbreitet (kosmopolitisch) und häufig. Die "Typha"-Arten sind unterschiedlich verbreitet. Eine weite Verbreitung hat beispielsweise der Breitblättrige Rohrkolben ("Typha latifolia"). Er kommt in den gemäßigten Zonen der Nordhalbkugel bis nach Südamerika sowie in Teilen Afrikas vor. Andere "Typha"-Arten besiedeln nur ein eingeschränktes Areal. "T. capensis" beschränkt sich ausschließlich auf ein Gebiet von Uganda bis Südafrika oder "Typha davidiana" nur auf China. Systematik. Der Gattungsname "Typha" leitet sich vom Griechischen Wort "týphos" für Rauch ab. Es wird damit auf die braune rauchähnliche Farbe der Fruchtkolben Bezug genommen. Die genaue Platzierung der Gattung innerhalb der Ordnung Poales war lange umstritten. So wurde von einigen Autoren die Gattung Igelkolben in die Familie der Rohrkolbengewächse aufgrund ihrer morphologischen Ähnlichkeit mit aufgenommen, von anderen Autoren wurde die Beibehaltung eigenständiger, monogenerischer Familien (Typhaceae und Sparganiaceae) vorgezogen. Nach der strikt phylogenetisch orientierten APG III sind die Igelkolben jedoch Teil der Rohrkolbengewächse. Verwendung. Rohrkolben werden zur Reinigung von Abwässern in Kläranlagen eingesetzt und zur Entgiftung von Böden und Schlämmen. Diese naturnahen Verfahren werden unter dem Fachbegriff „Phytosanierung“ zusammengefasst, bei denen die komplexen Fähigkeiten von Pflanzen und der mit ihnen im Wurzelraum vergesellschafteten Mikroorganismen genutzt werden. Rohrkolben qualifizierten sich wegen ihrer hohen Primärproduktion zur Kultivierung. Sie gewinnen an Bedeutung als nachwachsender Rohstoff zum Beispiel für Dämmmaterial, als Torfersatz oder Bau- und Heizmaterial. Rohrkolben-Arten werden als dekorative Bepflanzung von Teichen in Parks und Gärten eingesetzt. Die getrockneten Blütenstände werden in der Floristik verwendet. Alle Pflanzenteile sind essbar. Besonders die stärkereichen Rhizome können wie Gemüse gekocht werden. Lange bevor andere Getreidearten von den Menschen nutzbar gemacht wurden, wurden offenbar schon vor 30.000 Jahren die stärkehaltigen Wurzelstöcke zu Mehl verarbeitet. Aus den Erträgen eines Hektars Sumpfland können bis zu 8 Tonnen Mehl gewonnen werden. Baustoff. In den 2000er Jahren entwickelte der Architekt Wolfgang Theuerkorn aus Typha angustifolia einen Dämmstoff, indem er Streifen der Blätter mit Magnesit zu Platten verklebte und zunächst bei der Sanierung eines historischen Fachwerkhauses in Nürnberg einsetzte. Inzwischen wurden etliche weitere Gebäude mit den 5 bis 10 Zentimeter starken, diffusionsoffenen Platten gedämmt, die in einer kleinen Fabrik im bayerischen Schönau (Rottal) hergestellt werden. Das Fraunhofer-Institut für Bauphysik in Holzkirchen (Oberbayern) errichtete zum Langzeittest eine Hütte. Heraldische Darstellung. Das Wappen der Stadt Kolbermoor im bayerischen Alpenvorland zeigt drei Rohrkolben im Moor stehend samt der Andeutung des Flusses Mangfall. Das Wappen weist auf die Geschichte und die Bedeutung des Moors hin, aufgrund dessen Erschließung zum Torfabbau die Stadt ihre Entwicklung verdankt. Auch der Ortsnahme bezieht sich direkt auf die Rohrkolben. Rhein-Main-Gebiet. Das Rhein-Main-Gebiet, auch Metropolregion Frankfurt/Rhein-Main, ist eine der elf europäischen Metropolregionen in Deutschland, die von der Ministerkonferenz für Raumordnung definiert wurden. Es ist benannt nach den beiden Flüssen Main und Rhein und liegt im Süden Hessens sowie Teilen der angrenzenden Länder Rheinland-Pfalz "(Rheinhessen)" und Bayern "(Unterfranken)". Kern der Metropolregion ist der städtische Ballungsraum Rhein-Main. Die Metropolregion hat 5,5 Millionen Einwohner, der Ballungsraum Frankfurt/Rhein-Main etwa 2,2 Millionen. Kernstädte. Die Region stellt ein polyzentrisches Verdichtungsgebiet dar, dessen wirtschaftlich und politisch wichtigste Städte Frankfurt am Main, Wiesbaden, Mainz und Darmstadt sind. Funktionaler und geografischer Mittelpunkt ist die Stadt Frankfurt am Main. Andere städtische Zentren der Region sind Rüsselsheim am Main, Bad Homburg vor der Höhe, Offenbach am Main, Hanau, Aschaffenburg sowie, je nach Definition der Ausdehnung, Marburg, Gießen, Limburg an der Lahn, Fulda und Wetzlar. Abgrenzung. Lage der Metropolregionen in Deutschland (Rhein-Main-Region gelb unterlegt) Metropolregion Frankfurt/Rhein-Main. Der Lahn-Dill-Kreis ist hier nicht enthalten, weil er nicht Mitglied im IHK-Forum Rhein-Main ist und nicht Teil der europäischen Metropolregion Frankfurt/Rhein-Main ist, obwohl er historisch zum Rhein-Main-Gebiet gehört und aktuell dazugerechnet werden kann. Der Kreis Bergstraße und die Stadt Worms liegen im Überschneidungsbereich zur benachbarten Metropolregion Rhein-Neckar. Pendlerverflechtungen. Die Abteilung „Rhein-Mainische Forschung“ (1925–2005 an den Geografischen Instituten der Universität Frankfurt beheimatet) grenzt die Region auf der Basis von Pendlerverflechtungen ähnlich ab – Kernstädte der Region sind hier Frankfurt, Wiesbaden, Offenbach, Darmstadt und Hanau in Hessen sowie Aschaffenburg in Bayern und Mainz in Rheinland-Pfalz. Mit insgesamt etwa 4,9 Millionen Einwohner auf ungefähr 11.000 km² Fläche umfasst die Region nach dieser Abgrenzung auch den Regierungsbezirk Darmstadt, den Landkreis Limburg-Weilburg (Regierungsbezirk Gießen) sowie den Landkreis Aschaffenburg und den Landkreis Miltenberg aus Bayern sowie den Landkreis Mainz-Bingen, die Stadt Worms und den Landkreis Alzey-Worms aus Rheinland-Pfalz. Die Erweiterung des IHK-Forums im Norden um die IHK-Bezirke Gießen-Friedberg ist aus Sicht der Wissenschaftler wenig sinnvoll, da sich aus diesen Landkreisen nur wenige Verflechtungen mit dem Kern der Region nachweisen lassen. Larger Urban Zone. In der so abgegrenzten Region mit zusammen 4305 Quadratkilometern leben 2.574.812 Einwohner (2012) Zur Metropolregion gehören auch die Stadtregionen DE020C Wiesbaden mit 462.098 Einwohnern, DE025C Darmstadt mit 439.084 Einwohnern und DE037C Mainz mit 403.849 Einwohnern Regionalverband FrankfurtRheinMain. Dieses Gebiet zählt etwa 2,2 Millionen Einwohner auf 2.500 km² Fläche. S-Bahn Rhein-Main. Der Ballungsraum, der in etwa der Ausdehnung des S-Bahn-Netzes entspricht, reicht von der Gegend um Wiesbaden und Mainz im Westen bis Aschaffenburg im Osten sowie von Friedberg und Bad Nauheim im Norden bis Darmstadt im Süden. Dieses Gebiet zählt 3,4 Millionen Einwohner auf 5.500 km² Fläche. Rhein-Main-Verkehrsverbund. Der Einzugsbereich des Rhein-Main-Gebiets ist sehr groß. Etwa 350.000 Pendler kommen jeden Tag in den Frankfurter Raum, die zum Teil weit mehr als 100 Kilometer von ihrem Arbeitsplatz entfernt wohnen. Der Pendler-Einzugsbereich umfasst den ganzen Odenwald, die Südpfalz, die Rhön, den Taunus, den Westerwald, die Region Marburg/Gießen/Wetzlar und die Kurpfalz. Der Rhein-Main-Verkehrsverbund (RMV) ist deshalb nicht zufällig der drittgrößte deutsche Verkehrsverbund. Wirtschaft. Die zentrale und verkehrsgünstige Lage in Südwestdeutschland förderte schon Mitte des 19. Jahrhunderts die Industrialisierung der Region. Unternehmen aus vielen Branchen haben hier ihren Sitz und beschäftigen in der Region etwa 1,8 Millionen Arbeitnehmer. In der Frankfurter Innenstadt überwiegen Banken und Investmentgesellschaften. Im weiteren Umfeld haben sich weitere Dienstleistungen etabliert, wobei die Automobilindustrie eine Schlüsselrolle einnimmt. Viele davon haben eine Europa- oder Deutschlandzentrale, oft mit Forschungs- und Designzentren. Auch die Bau- und Immobilien-Wirtschaft zählt mit einem Anteil von 18 Prozent an der regionalen Bruttowertschöpfung zu den wirtschaftlichen Schwergewichten der Region. Als Wissenschaftsstädte, mit Sitz von Bundesbehörden und Versicherungsunternehmen, haben sich Darmstadt und Wiesbaden etabliert. Der Logistikbereich ist besonders durch den Flughafen Frankfurt am Main und die zentrale Anbindung an das Autobahn- und Eisenbahnnetz stark begünstigt. Das Frankfurter Kreuz und der Frankfurter Hauptbahnhof sind jeweils die verkehrsreichsten in Europa. In wenigen Stunden Fahrt sind München, Hamburg, die Benelux-Staaten, Paris, die Schweiz, Österreich, Tschechien, Polen und Berlin zu erreichen. Weitere wichtige Bahnhöfe im Fernverkehr sind Mainz Hbf, Frankfurt Süd und Frankfurt Flughafen Fernbahnhof. Über den Frankfurter Flughafen sind viele Flugziele weltweit als Direktflug erreichbar. Die Infrastruktur im Rhein-Main-Gebiet gilt als sehr gut ausgebaut. Naturraum. Die landschaftliche Attraktivität der Region ergibt sich aus dem Gegensatz zwischen den Ebenen der beiden namensgebenden Flüsse und den die Region begrenzenden Mittelgebirgen. Die Untermainebene ist der nördliche Ausläufer der Oberrheinischen Tiefebene, die etwa von Basel bis Frankfurt reicht. Der Mittelrhein durchbricht in einem engen, teilweise schluchtartigen Tal das Rheinische Schiefergebirge. Außer den beiden genannten Strömen sind Nidda, Kinzig und Nahe wichtige Flüsse der Region, an ihrem Nordrand außerdem die Lahn. Fünf Mittelgebirge begrenzen die Region: Taunus, Vogelsberg, Spessart, Odenwald und Hunsrück. Der Südhang des Taunus (Rheingau) und der Westhang des Odenwalds (Bergstraße) gehören klimatisch zu den mildesten Gegenden in Deutschland. Der Rheingau, das linksrheinische Gebiet Rheinhessen sowie das unterfränkische Maintal sind Weinbaugebiete. Die Landwirtschaft in der Wetterau im Norden der Region verfügt über Böden, die zu den ertragsreichsten in Deutschland zählen. Im dicht besiedelten Kernraum der Region um Frankfurt dienen die Freiflächen mehr der Naherholung als der Landwirtschaft. Typisch für das dortige Landschaftsbild sind Streuobstwiesen, deren Erträge meist zur Produktion des Frankfurter Apfelweins dienen. Geschichte. Eine bis heute gültige Besonderheit der Region ist, dass es niemals in der Geschichte eine territoriale Einheit des Rhein-Main-Gebiets gab. Der tausendjährigen Kleinstaaterei verdankt die Region ihre kulturelle Vielfalt, aber auch die im Gegensatz zu konkurrierenden Metropolregionen fehlende Kooperation und Koordination. Antike und Mittelalter. In römischer Zeit lag die Region an der Grenze des Imperiums. Mainz war unter dem Namen "Mogontiacum" Hauptstadt der Provinz Obergermanien, der Limes schützte die Reichsgrenze und verlief über den Kamm des Taunus und quer durch die Wetterau. Außer Mainz gab es zahlreiche römische Kastelle in der Region (Hofheim, Höchst, Frankfurt, Kleiner Feldberg, Saalburg, u. a.) sowie die Stadt Nida (bei Frankfurt-Heddernheim). Wiesbaden war schon damals ein wichtiger Badeort "(Aquae Mattiacorum)". Bereits in der spätrömischen Antike (seit 343) wurde Mainz zu einem Bischofssitz, der im frühen Mittelalter einer der wichtigsten des fränkischen, später Deutschen Reichs wurde. Fränkische Könige (Merowinger, später Karolinger) errichteten Königshöfe, u. a. in Frankfurt und Ingelheim. Das Kloster Lorsch wurde durch Landschenkungen eines der mächtigsten in Deutschland. Durch die günstige Verkehrslage konnte die Region Handelsverkehr an sich ziehen, wichtige Straßen entstanden, so die Via Regia. Im späten Mittelalter löste Frankfurt Mainz als wichtigste Stadt der Region ab. Frankfurt, Friedberg (Hessen), Wetzlar und Gelnhausen (Letzteres mit Kaiserpfalz der Staufer) waren Freie Reichsstädte. Die Erzbischöfe von Mainz waren Erzkanzler des Reichs und einer der sieben Kurfürsten. Frankfurt verdankte seinen Aufstieg der Rolle als bedeutende Messestadt und als Wahl-, später auch Krönungsstätte der deutschen Kaiser. 19. Jahrhundert. Hessischer Landtag in Wiesbaden, ehemals nassauisches Stadtschloss Nach dem Preußisch-Deutschen Krieg 1866 annektierte Preußen alle genannten Territorien außer dem Großherzogtum Hessen und dem Königreich Bayern, die kleinere Gebietsteile abtreten mussten. Die territoriale Zersplitterung bestand allerdings weiter, da das Großherzogtum Hessen durch das Stadtgebiet Frankfurt und den anschließenden Kreis Hanau in zwei Teile geteilt blieb. 20. Jahrhundert. Die eigentliche Geschichte der „Region Rhein-Main“ oder des „Rhein-Main-Gebietes“ im Wortsinn beginnt gegen Ende des 19. Jahrhunderts, als zum ersten Mal über einen regionalen Zusammenhang debattiert und der Begriff "Rhein-Main-Gebiet" geprägt wurde. Damals wie heute blieb die Region als solche jedoch in ihren Grenzen unbestimmt. In den 1920er Jahren gab es erste Versuche, einer regionalen Kooperation den Weg zu ebnen und Funktionen in der Region zu verteilen – Zeugnis dieses Versuches ist der Plan eines „Rhein-Mainischen Städtekranzes“, der vom damaligen Frankfurter OB Ludwig Landmann direkt nach seinem Amtsantritt 1924 vorgestellt wurde. Landmann sah das Rhein-Main-Gebiet mit Frankfurt im Zentrum eines südwestdeutschen Einzugsgebietes, für das im Rahmen der Diskussionen um die sogenannte Reichsreform sogar Frankfurter Planungen für ein eigenes neues Reichsland „Rheinfranken“ lanciert wurden. Die Bedeutung, die der Region in den späten 1920er Jahren beigemessen wurde, zeigt auch die Gründung einer eigenen Forschungsabteilung „Rhein-Mainische Forschung“ am Geografischen Institut der Universität Frankfurt. Mit dem „Rhein-Mainischen Atlas“ legte diese 1929 nicht nur den ersten deutschen Regionalatlas überhaupt vor, sondern definierte erstmals Grenzen der Region: Diese reichte von Kassel im Norden und Aschaffenburg im Osten bis nach Koblenz im Westen und Saarbrücken im Süden. In der Zeit des Nationalsozialismus wurde die Region kurzzeitig politisch im NS-Gau Hessen-Nassau zusammengefasst – dieser hatte nur kurz Bestand, ist aber die erste politische Institutionalisierung des Rhein-Main-Gebietes. 1945 wurde die Grenze zur später auf Kosten der britischen und amerikanischen Zone eingerichteten Französische Besatzungszone von den Alliierten willkürlich im Rhein festgelegt. Die Besatzungsmächte gründeten in der Folge die noch heute bestehenden Bundesländer jeweils auf ihrem Territorium. Durch die (französische) Gründung des neuen Landes Rheinland-Pfalz wurde Rheinhessen von Hessen abgetrennt, die Region (und sogar das Stadtgebiet von Mainz) wurde erneut administrativ geteilt. Die ungelöste Rhein-Main-Frage. Mit Aufkommen der Regionalplanung in Deutschland begann auch im Rhein-Main-Gebiet, vor allem in der engeren Stadtregion Frankfurt, eine Phase der Institutionalisierung. Durch starke Suburbanisierung wurde eine Lösung der anstehenden Probleme im regionalen Maßstab immer dringender. Während der 1960er Jahre wurde lange um Stadtkreis- und Regionalstadtmodelle gerungen, die stets den Wegfall administrativer Ebenen mit sich gebracht hätten. 1975 wurde als Kompromiss der Umlandverband Frankfurt (UVF) per Landesgesetz ins Leben gerufen – dieser war ein sogenannter Mehrzweckpflichtverband und sollte zahlreiche Aufgaben übernehmen: Zum einen sollte er für die 43 Mitgliedskommunen die Flächennutzungsplanung im Rahmen eines gemeinsamen Flächennutzungsplans übernehmen. Dazu kamen zahlreiche Trägerschaftsaufgaben, z. B. der Wasserver- und Abwasserentsorgung, der Abfallentsorgung, regionaler Freizeiteinrichtungen u. a. Der UVF konnte seinen Aufgaben allerdings nicht überall nachkommen, da ihm zahlreiche Einrichtungen nicht wie vorgesehen überlassen wurden. Der Umlandverband geriet schnell in die Kritik. Diese gipfelte 1995 im sogenannten „Jordan-Papier“ des SPD-Bezirks Hessen-Süd, mit dem eine Neuordnung des Regierungsbezirk Darmstadt durch Regionalkreise vorgeschlagen wurde. 1999 griff die neu gewählte CDU/FDP-Landesregierung unter Roland Koch die Kritik am Umlandverband auf und schuf im Jahr 2000 mit dem Ballungsraumgesetz eine neue Regionalstruktur: Der Umlandverband Frankfurt wurde durch den Planungsverband Ballungsraum Frankfurt Rhein-Main abgelöst, das Aufgabenspektrum auf die Planung reduziert und das Verbandsgebiet (Ballungsraum) von 43 auf 75 Kommunen erweitert. Sämtliche Trägerschaftsaufgaben des UVF sollten sich freiwillig in der Region organisieren und von einem „Rat der Region“, gebildet aus Oberbürgermeistern und Landräten, gelenkt werden. Auf eine demokratische Legitimation dieses Konstruktes wurde verzichtet, das Parlament des Umlandverbandes wurde durch die Verbandskammer des Planungsverbandes ersetzt. Im Vergleich zu anderen Regionalisierungen bleibt die Abgrenzung des Ballungsraumes jedoch deutlich hinter den tatsächlichen wirtschaftlichen Verflechtungen der Kernstädte mit ihrem Umland zurück. Mittlerweile hat die Landesregierung von ihrem Recht, regionale Kooperation zu verordnen zweimal Gebrauch gemacht: Zum einen wurde so die Wirtschaftsförderung Region FrankfurtRheinMain als Gemeinschaftsunternehmen einiger Kernstädte sowie einiger Landkreise gegründet (2005). Diese soll sich um die einheitliche Vermarktung bzw. Präsentation der Region bemühen. Derzeit läuft noch die von der Landesregierung festgelegte Frist zur Bildung eines Kulturzweckverbands – da jedoch einige Kommunen eine Umverteilung von Geldern zu Gunsten der Kernstadt Frankfurt und ihres kulturellen Angebots vermuten, lehnen zahlreiche betroffene Kommunen diesen Verband strikt ab. Die Städte Hanau und Offenbach haben Klagen vor dem hessischen Verwaltungsgerichtshof eingereicht. Hessisches Regionalkreismodell der SPD, 2004 Das Ballungsraumgesetz wurde von Beginn an heftig kritisiert, z. B. aufgrund eines Eingriffsrechts der Landesregierung, mit dem diese regionale Kooperation per Erlass initiieren kann und wegen der fehlenden demokratischen Legitimation. In der Folge wurden zahlreiche Initiativen gestartet, die eine Neuordnung der Region versuchten: So wurde von der Frankfurter Oberbürgermeisterin Petra Roth ein „Stadtkreismodell“ vorgelegt, das den Zusammenschluss von Frankfurt mit seinen Nachbargemeinden in einem Kreis vorsah. Die SPD Hessen legte ein Konzept vor, mit dem Hessen insgesamt in vier Regionalkreise unterteilt werden sollte. Keines der Konzepte konnte sich jedoch bislang durchsetzen, so dass die Region Rhein-Main nach wie vor politisch fragmentiert ist. Das Ziel einer „vereinten“ Region verfolgen auch zahlreiche Initiativen in der Region: Dazu gehörte z. B. die "Metropolitana", hervorgegangen aus einer Artikelserie der Frankfurt Rundschau (2000–2001), die sich als Verein formierte und später mit der Wirtschaftsinitiative FrankfurtRheinMain fusionierte. Auch mit Hilfe einer Bauausstellung – vergleichbar der "IBA Emscher Park" im Ruhrgebiet – sollte das Regionalbewusstsein in der Region mehrfach befördert werden. Eine IBA wurde bereits in Zusammenhang mit der Metropolitana diskutiert, im Jahr 2004 wurde die Idee aufgegriffen und ein Frankfurter Architektur- und Planungsbüro mit einer Machbarkeitsstudie beauftragt, die 2005 vorgelegt werden sollte. Zu den Initiativen, die sich um eine (politische) Stärkung der Region bemühen, ist auch das IHK Forum Rhein-Main zu zählen. Problematisch an diesem losen Verbund verschiedener IHKn ist allerdings der voluntative Charakter: Da sich das IHK-Forum in den vergangenen Jahren deutlich vergrößert hat, ist auch der regionale Bezug zum Rhein-Main mittlerweile verwässert. Als Bürgerinitiative formierte sich Anfang 2004 die Regionalwerkstatt Rhein-Main. Unter Führung der Wirtschaftsinitiative FrankfurtRheinMain wurden im Rahmen eines Workshops Ideen zu Zukunft der Region gesammelt. Obwohl die Resonanz anfangs groß war, gelang es den Organisatoren nicht, die Begeisterung für die Idee einer Region Rhein-Main weiter zu tragen, so dass die Initiative im Sand verlief. Kirchliche Zuständigkeiten. Mit Ausnahme des bayerischen Gebietsanteils und des Frankfurter Stadtteils Bergen-Enkheim und des Main-Kinzig-Kreises gehört das Rhein-Main-Gebiet zur Evangelischen Kirche in Hessen und Nassau. Main-Kinzig und Bergen-Enkheim gehören zur Evangelischen Kirche von Kurhessen-Waldeck. Aschaffenburg und Miltenberg gehören zur Evangelisch-Lutherischen Kirche in Bayern. Die Stadt Wetzlar und große Teile des Lahn-Dill-Kreises gehören zur Evangelischen Kirche im Rheinland. Bei der katholischen Kirche haben vier Diözesen Anteil an der Region, nämlich Mainz an den früher zu Hessen-Darmstadt gehörenden Gebieten, Limburg an den früher zu Nassau, Frankfurt und Hessen-Homburg gehörenden Gemeinden und Fulda an den früher kurhessischen Orten. In dieser Hinsicht ist die Stadt Frankfurt dreigeteilt. Die beiden bayerischen Landkreise um Aschaffenburg gehören zum Bistum Würzburg. Wichtigste Sehenswürdigkeiten. a> bei seiner Eröffnung „das schönste Kurhaus der Welt“. Einzelnachweise. RheinMainGebiet Remittende. Als Remittenden (lat. ' „zurückschicken“) werden meist Bücher, seltener auch andere Waren bezeichnet, die der Handel an den Verlag zurückschickt. Gründe dafür können Mängel an einzelnen Büchern sein, die Aufhebung des gebundenen Ladenpreises durch den Verlag oder vereinbarte Konditionen der Buchhandlung mit dem Verlag, die die Rücksendung und Erstattung eines Prozentsatzes des Jahresbezugs erlauben. Auch Barsortimente erlauben in der Konditionsgestaltung mit den Buchhandlungen die Remission eines Prozentsatzes des Jahresbezugs. Bei remittierten Büchern, die "lieferbar und neuwertig" sind, bleibt die Buchpreisbindung erhalten. Sind die Remittenden beschädigt, spricht man von Mängelexemplaren, die zu reduzierten Preisen verkauft werden dürfen. Scheinmängelexemplare umgehen die Preisbindung, indem Bücher ohne tatsächlichen Mangel als Mängelexemplare klassifiziert und verkauft werden. Links und rechts. Links und rechts ist eine Zuordnungsbeschreibung der zwei durch die Vertikale getrennten Seiten aus der Perspektive des Betrachters. Damit verbunden sind zwei gleichnamige einander entgegengesetzte Richtungsangaben. In der Konnotation abweichend meint die Bezeichnung bei der Oberfläche von Stoffen die Außen- (rechts) und die Innenseite (links) (s. Bekleidung, Textilien, Lochung). In einer aufrechten Position mit Blickrichtung Norden befindet sich links der Westen und rechts der Osten. Händigkeit. Die rechte und linke Hand sind nicht identisch, auch wenn sie gleich groß sind. Sie unterscheiden sich in ihrer Händigkeit. Sie sind chiral. Die Gesetze der Physik sind weitgehend, aber nicht vollständig symmetrisch, was links und rechts angeht. Man kann ein physikalisches Experiment durchführen, bei dem Unterschiede zwischen beiden Richtungen bei der Messung zur Festlegung von links und rechts dienen können. Diese Spiegelsymmetrie wird als Paritätsverletzung bezeichnet. Sie tritt nur im Zusammenhang mit der schwachen Wechselwirkung auf. Objekte. Für Objekte kann eine linke und rechte Seite definiert werden, dabei stellt sich häufig die Frage, ob dies vom Standpunkt des Betrachters oder einem anderen Standpunkt aus gesehen wird. Lebewesen. Unter den Lebewesen haben die Bilateria (Zweiseitentiere) eine linke und eine rechte Körperhälfte, die zueinander weitgehend spiegelsymmetrisch sind. Ihre Symmetrie ist jedoch nicht vollständig – so gibt es Asymmetrien in der Anordnung innerer Organe wie Herz und Leber und in der Geometrie der Schneckenhäuser. Flüsse. Die talwärtige Blickrichtung von der Quelle zur Mündung legt das linke und das rechte Ufer eines Flusses fest. Schriftstücke, Bilder und Karten. Bei Schriftstücken, Bildern und Karten definiert der Standpunkt des Betrachters die linke und rechte Seite. So werden Personen oder Gegenstände auf Bildern im deutschen Sprachraum meistens „von links nach rechts“ (8239;r.) benannt. In vielen Sprachen schreibt man wie im Deutschen von links nach rechts. In anderen Sprachen, zum Beispiel im Hebräischen und im Arabischen, wird von rechts nach links geschrieben. Die Indischen Ziffern schreibt man in Schriften beiderlei Schreibrichtung jeweils mit der Einerstelle rechts und jeder weiteren Stelle links davon. Auf einer Landkarte befindet sich meistens oben Norden, unten Süden, links Westen und rechts Osten. Karten der Nordpolregion oder der Antarktis werden so orientiert, dass der vom mittigen Pol ausgehende Nullmeridian senkrecht nach unten bzw. - vom Südpol - nach oben weist. Damit liegt auf jeder dieser Pol-Karten die West-Hemisphäre links und die östliche rechts. Orientierungspläne etwa von Gebäudegängen, Messegeländen, Einkaufszentren, Wohnsiedlungen werden als vertikale Tafel günstig so orientiert, dass rechts am Plan beim parallelen Blick über die oder neben der Tafel vorbei auch rechts in der Natur entspricht - ein Nordpfeil am Plan weist dann im Allgemeinen nicht nach oben. Röntgenbilder, fotografischer Film. Bei medizinischer Behandlung am menschlichen Körper darf mit hoher Sicherheit keine Verwechslung der Seiten vorkommen. So wird grundsätzlich auf jedem Röntgenbild markiert, welche Körperseite, oder Extremitäten welcher Seite abgebildet werden. Durch die Chiralität der Anfangsbuchstaben L und R - im Deutschen - eignen sich diese grafisch optimal zur Anzeige sowohl der Körper(teil)seite als auch der korrekten Betrachtungsrichtung des Röntgenbilds, das auf beidseitig beschichtetem Film vorliegt. Der Röntgenstrahlenkegel läuft etwa von oben durch eine Hand oder einen Lungenflügel hindurch auf eine (lichtdichte) Röntgenfilmkassette, auf diese wird dazu der Markierungsbuchstabe ("Bleizeichen", aus Messing oder NiRo) für die entsprechende Körperseite gelegt. Dieser Buchstabe ist dann aus Betrachtungsrichtung (wie Belichtungsrichtung von oben) grafisch seitenrichtig lesbar. Bei Durchleuchtung der Lunge des stehenden Menschen also Bestrahlung von hinten und gleichzeitiger Betrachtung am Fluoreszenzschirm von vorne wird das Bild jedoch aus der Gegenrichtung betrachtet. Wird ein Röntgenbild in dieser Projektionsart angefertigt, ist der Buchstabe umzudrehen, oder ein Aufsteckbuchstabe in Spiegelschrift zu verwenden, damit er bei üblicher Betrachtung "gegen den Röntgenstrahl" seitenrichtig erscheint. Kleinbildfilm wird durch das Objektiv auf der Schichtseite belichtet und als Diapositiv oder negativ genau im umgekehrten Strahlengang auf Leinwand oder Papierbild projiziert ("vergrößert"). Links und rechts, genauso wie oben und unten sind in Natur und auf Film, bzw. Film und Leinwand (Bild) vertauscht, jeweils aus Sicht des Fotografen hinter der Kamera oder des Projektorbedieners. Diese Abbildung entspricht jeweils einer Drehung um 180° in der optischen Achse. Kleinbildflme sind mitunter an den Randstreifen so mit Aufnahmenummern versehen, dass sie mit dem Negativ seitenrichtig zu lesen sind, wenn nicht wie bei Rollei 35 die Filmeinlegerichtung unüblich orientiert ist. Fahrzeuge. Bei Fahrzeugen definiert die hauptsächliche Fahrtrichtung die linke und rechte Seite, beispielsweise fährt man auf der in Fahrtrichtung rechten Seite der Fahrbahn (Rechtsfahrgebot), es befindet sich das Lenkrad von Kraftfahrzeugen in Deutschland auf der linken Seite (um den Gegenverkehr besser beurteilen zu können; nur LKW des mittleren 20. Jahrhunderts hatten auch in rechts fahrenden Ländern das Lenkrad rechts, um sich am rechten Straßenrand zu orientieren), es gilt der Vorrang rechts vor links. Bei Wasserfahrzeugen bezeichnet man rechts als "Steuerbord" (weil das Steuerruder der Galeere ursprünglich rechts war, mittig am Heck ist eine neuere Erfindung) und links als "Backbord", entsprechend gilt allerdings nur für motorisierte Wasserfahrzeuge untereinander eine Vorfahrtsregel Steuerbord vor Backbord. Personen. Bei Personen definiert der Standpunkt der beschriebenen Person die linke und die rechte Seite. Somit ist das linke Auge das linke Auge in Blickrichtung der beschriebenen Person, obwohl dies für einen gegenüberstehenden Betrachter rechts liegt. Dies gilt auch für alle anderen Organe; z. B. befindet sich die Leber des Menschen auf der rechten Seite, obwohl diese in anatomischen Darstellungen auf der linken Seite eingezeichnet ist. Spiegel, Videotelefonie, Selbstporträt, Spiegelreflexkamera. Sehe ich mich selbst im Spiegel, sehe ich meine rechte Gesichtsseite auch im virtuellen Spiegelbild rechts. Dieses Spiegelbild ist seitenvertauscht zur Direktansicht, das andere Personen von mir gewinnen, die mir ins Gesicht sehen. Das macht Kommunikation missverständlich, wenn man das Gegenüber mit Fingerzeig oder Worten dezent darauf hinweisen will: „Du hast auf deiner rechten Wange einen Gulaschspritzer.” Erst 2 Spiegel, die sich einem von einer senkrechten Achse um 90° öffnen, bilden das eigene Gesicht (und auch andere Personen neben einem) durch doppelte Spiegelung seitenrichtig ab. Die Trennfuge der Spiegelkanten läuft mitten durch das Gesicht, wenn nicht der Winkel der Spiegel zueinander etwas in Richtung spitzer verkleinert wird, wodurch man umso mehr Teile seines Gesichts zweimal sehen kann, je breiter die Spiegel sind. Ein mehrflächiges Pentaprisma am Kopf einer Spiegelreflexkamera macht nichts anderes, da das Bild am waagrechten Bildschirm durch den Umlenkspiegel gegenüber dem von hinten gesehenen Bild in der Filmebene schon oben-unten vertauscht erscheint. Betrachtet man bei Videochat oder -telefonie, etwa via Skype, über eine Kamera – meist am oberen Bildschirmrand platziert – sein eigens Bild am Bildschirm, so erwartet man sein eigenes Spiegelbild, weshalb Hard- oder Software dem Empfänger das aufgenommene Bild übermitteln, jedoch beim Absender gespiegelt darstellen. Rücke ich also vor dem Bildschirm nach rechts, rückt auch mein Bild hin zur rechten Bildschirmseite. So verhalten sich auch (und nur die) bildschirmseitigen Frontkameras von Smartphones und Tablets, sowie die zusätzlichen Frontbildschirme, die manche Digitalkameras für Selbstporträts auf ihrer Objektivseite aufweisen. Heraldik. Im Gegensatz zu Bildern definiert in der Heraldik der Standpunkt des Schildträgers die linke und rechte Seite eines Wappens. Es ist also beispielsweise bei in Büchern abgebildeten Wappen diejenige Wappenseite die linke, welche sich vom Betrachter der Buchseite aus gesehen rechts der Wappenmitte befindet. Der Ausdruck gehört zur Fachsprache der Blasonierung (Wappenbeschreibung). Türen. Bei Schrank- und Durchgangstüren, sowie Fenstern definiert in Deutschland vereinbarungsgemäß die Bandseite ihre Seitigkeit. Und zwar von dem Raum aus gesehen, nach dem sich die Türe hin öffnet. Die Band- oder auch Anschlagsseite einer Tür ist diejenige, an der sich ihre Bänder (auch Angeln oder Scharniere genannt) befinden, die also der sich öffnenden Kante mit Griff und Schloss gegenüberliegt. Ausgehend von dieser Betrachtung werden auch die jeweils zugehörigen unsymmetrischen Türbeschläge (Bänder, Schlösser, Griffe (Türdrücker, Oliven, Schließer), etc.) als rechts- oder linksseitig bezeichnet. Nach der europäischen DIN-Norm wird ein Schloss, das zu einer links gebandeten Türe passt, als linkes Schloss bezeichnet. In der schweizerischen Norm des VSSM wird dasselbe Schloss allerdings als rechtes Schloss bezeichnet. DIN: linkes Band, linkes Schloss, linke Tür; jedoch VSSM: linkes Band, rechtes Schloss, linke Tür. Die an Zimmertüren häufig verwendeten Einschraubbänder sind jedoch ohnedies symmetrisch, Einstemmschlösser durch Wenden der Schliessfalle (der schräg federnd herausragende Teil) um ihre waagrechte Achse trotz chiralem Innenleben vor dem Einbau auf rechts oder links einstellbar und so arretierbar. Bekleidung, Textilien, Lochung. Bei Kleidungsstücken bezeichnet rechts die nach außen sichtbare Oberfläche, während links die Innenseite bezeichnet. Von Bedeutung sind rechts und links auch beim Stricken, bei vielen – etwa einseitig bedruckten oder behandelten, mustergewebten, Samt-Stoffen, geknüpften Teppichen, auch geprägtem und nicht gratfrei gestanztem Lochblech oder Holzfaserplatte, kalandrierter Kunststofffolie, Papier, als Zwilling gewalzter Alufolie. Theater. Am Theater werden links und rechts stets als vom Zuschauer aus gesehen definiert und als Bühnenlinks bzw. Bühnenrechts bezeichnet. Für den Darsteller bedeutet das eine Umkehrung der Richtungen: das Bühnenlinks wird vom Zuschauer als links gelegen gesehen und darum auch für den Darsteller als links bezeichnet. Diese den Darsteller betreffende Umkehrung der Richtungen unter Verwendung der Bezeichnungen links und recht findet allerdings keine Anwendung, da immer wieder Missverständnisse aufgetreten sind, wenn während der Proben vom Regiepult im Zuschauerraum Spielanweisungen gegeben wurden und auch während Vorstellungen sichergestellt werden musste, Irrtümer der Darsteller hinsichtlich des szenisch „richtigen“ Auftritts auszuschließen. Aus diesem Grunde gibt es an Opernhäusern bzgl. der Bühnenseiten die Bezeichnungen links und rechts nicht mehr. An der Staatsoper Unter den Linden Berlin heißen sie „Berlin“ und „Charlottenburg“, am Richard-Wagner-Festspielhaus Bayreuth „West“ und „Ost“, am Staatstheater am Gärtnerplatz München „Klenzestraße“ und „Reichenbachstraße“ und am Teatro Real Madrid „Calle Felipe V“ und „Calle Carlos III“, um nur einige zu nennen. Eisenbahnstrecken. Bei Eisenbahnstrecken sind Bahnlinks und Bahnrechts in Blickrichtung der aufsteigenden Kilometrierung definiert. Üblich sind auch die Begriffe „links der Bahn“ sowie „rechts der Bahn“. Politik. In der Politik stehen links und rechts für politische Grundhaltungen; siehe auch politisches Spektrum. Rechts. Das indogermanische "reg" als sprachgeschichtliche Wurzel stand eigentlich für "geradeaus", "aufrichten", "recken", "geraderichten" und wurde auch für das Gute, Wahre und Vollkommene angewandt. Die Verwendung derselben Wortwurzel für die Richtung „rechts“, "richtig" und das Recht existiert unter anderem auch im Englischen ("right"), im Französischen ("droit"), im Spanischen ("derecha"), in den slawischen Sprachen (Polnisch: "prawo", Tschechisch: "pravo", Russisch: "право") und im Persischen ("rast"). Links. Das neuhochdeutsche "link(s)" geht zurück auf mittelhochdeutsch "linc, lenc"; die ursprüngliche Bedeutung war „ungeschickt“ (vgl. „linkisch“). "Jemanden linken", "eine Linke drehen" heißt ugs. "betrügen". Andere Ausdrücke sind im Lauf der Jahrhunderte ungebräuchlich geworden oder nur mundartlich erhalten geblieben (mittelhochdeutsch "lerc/lerz, tenc, winster"). Relation. Als Relation (‚das Zurücktragen‘), Beziehung, wird im Allgemeinen ein Verhältnis zwischen einem Seienden oder Ereignis zu einem oder mehreren anderen bezeichnet. "Im einzelnen gibt es einseitige und wechselseitige Beziehungen." Der Begriff der Relation steht im engen Zusammenhang mit den Begriffen Struktur und System. In der Systemtheorie versteht man unter der Struktur eines Systems die Menge aller Relationen zwischen den einzelnen Elementen des Systems. Beim Begriff Relation muss man zwischen konstruierten Beziehungen "(relatio rationis)" und realen Beziehungen "(relatio in natura)" unterscheiden. Von realen Beziehungen spricht man, wenn Objekte sich in irgendeiner Form tatsächlich aufeinander beziehen. Von konstruierten (gedachten) Beziehungen spricht man, wenn Objekte in Beziehung gesetzt werden, etwa hinsichtlich ihrer Größe, Lage, Existenzdauer oder anderer Daten. In der Logik wird die Bezeichnung Relation oft synonym zum Begriff mehr-, insbesondere zweistelliges Prädikat verwendet. Klassifikation von Relationen. Relationen werden in der Regel nach den Merkmalen der Reflexivität, Symmetrie (auch Antisymmetrie und Asymmetrie) und Transitivität eingeteilt. Für die wissenschaftliche Forschung ist es darüber hinaus bedeutsam, partikuläre oder vollständige, punktuale, ein- oder mehrdimensionale sowie stellenmäßig bestimmte oder unbestimmte Relationen zu unterscheiden. Von besonderer Bedeutung ist die Unterscheidung in "äußere" und "innere" Relationen: von "inneren Relationen" spricht man dann, wenn alle zueinander in Relation stehenden Objekte zueinander in demselben Referenzsystem definiert sind und eine Änderung des Referenzsystems die Relation zwischen den Objekten nicht verändert. Innere Relationen sind also invariant gegenüber Transformationen des Referenzsystems. Brasilianischer Pfefferbaum. Der Brasilianische Pfefferbaum ("Schinus terebinthifolius"), auch Weihnachtsbeere genannt, gehört zur Familie der Sumachgewächse (Anacardiaceae). Beschreibung. Der Brasilianische Pfefferbaum wächst als Strauch oder kleiner Baum und erreicht Wuchshöhen von bis zu 9 Metern. Er hat eine rundliche Krone und grünlich-bronzefarbene, gefiederte Blätter. Die winzigen, gelblich-weißen Blüten sind in Rispen angeordnet und werden im Sommer gebildet. Aus ihnen entwickeln sich später kleine grüne Beeren, die sich während der Reife zu den auffälligen, roten, lange haltbaren Früchte entwickeln und in dichten Rispen beisammenstehen. Das glänzende Laub verströmt einen pfeffrigen Geruch, wenn man es reibt oder bricht. Pharmakologie. "Schinus terebinthifolius" enthält 3,3 bis 5,2 % ätherisches Öl. Dieses besteht vor allem aus den Monoterpenen α- und β-Phellandren, Limonen, p-Cymol, Silvestren, Myrcen, α-Pinen, trans-Terpin, Perillaaldehyd, 3-Caren und Carvacrol. Außerdem enthalten die Früchte Cardanole, ihre Konzentration schwankt zwischen 0,03 % (in Réunion) und 0,05 % (in Florida). Einige Zeit nach dem Verzehr können Schleimhautreizungen auftreten. Hauttests mit Cardanol erwiesen starke hautreizende Wirkung mit langer Latenzzeit. Vermutlich können von den Früchten ausgehende Dämpfe Kopfschmerzen, Schwellungen der Augenlider und Atmungsdepressionen hervorrufen. Obwohl nach Schwenker & Skopp nach Selbstversuchen und Verwendung als Gewürz keine Reizwirkung von der Pflanze ausging, sollte sie als giftig betrachtet werden. Verwendung. Die Früchte dieser brasilianischen Gewürzpflanze werden unter der Bezeichnung „Rosa Pfeffer“, „Rosé Pfeffer“ oder „Rosa Beeren“ als Gewürz verwendet, sie sind jedoch kein echter Pfeffer, sondern werden buntem Pfeffer (schwarz, weiß und grün) aus optischen Gründen anstelle des verderblichen roten Pfeffers beigemischt. Sie sind von mild aromatischem Geschmack. Die Früchte werden gerne als Weihnachtsschmuck verwendet, darauf beruht auch der Zweitname „Weihnachtsbeere“. Verbreitung. Der Brasilianische Pfefferbaum ist in Mittel- und Südamerika beheimatet. In den USA ist die 1840 als Zierpflanze nach Florida importierte Art heute unerwünscht, da sie verwildert und natürliche Biotope überwuchert. Große Gebiete der Everglades sind heute reine Pfefferbaum-Bestände und es wird mit Millionen Dollar Einsatz versucht, Bereiche wieder von dieser Pflanze zu befreien. Der Besitz oder die Pflanzung ist in Florida strafbar. Die Bäume sind frostempfindlich und benötigen eine Mindesttemperatur von 5 °C. REXX. REXX ("Restructured Extended Ex'"ecutor") ist eine von Mike Cowlishaw bei IBM entwickelte Skriptsprache. Herkunft. REXX stammt aus dem Großrechnerbereich. Mike Cowlishaw hatte es in den 1980er Jahren als Nachfolger der Skriptsprache EXEC 2 unter VM zuerst implementiert (der Unterschied zwischen dem relativ simplen und nicht sehr mächtigen EXEC-2 und REXX ist ähnlich groß wie der zwischen der MS-DOS Batch-Sprache und BASIC). REXX steht dabei für „Restructured EXtended eXecutor“ (Language). REXX wurde auf TSO und andere Umgebungen wie 2 portiert. Eine angepasste Version – genannt ARexx – erfreut sich seit 1987 auch auf dem Amiga großer Beliebtheit, da beinahe jedes wichtige Programm damit „fernsteuerbar“ ist. Mittlerweile sind auch Interpreter für fast alle Umgebungen bis hin zum Palm OS erhältlich. 1996 wurde REXX zum ANSI-Standard (ANSI X3.274-1996 „Information Technology – Programming Language REXX“). REXX kann besonders leicht erweitert werden, indem dynamische Programmbibliotheken zum eigentlichen Interpreter hinzugeladen werden. Insbesondere unter OS/2 ist eine Vielfalt solcher Bibliotheken mit mathematischen, Datenbank-, Socket- und System-Funktionen verfügbar, die wie normale REXX-Funktionen angesprochen werden können. REXX ist in der Regel eine interpretierte Sprache, aber für Linux und für IBM-Großrechner-Betriebssysteme sind auch REXX-Compiler verfügbar. Alles ist ein String. Durch Anhängen zweier Nullen wird codice_1 mit 100 „multipliziert“; das Ergebnis, die Zeichenkette codice_2, kann sofort wieder als Zahl verwendet werden. Ausgegeben wird codice_3. Folgerichtig ist die Arbeit mit Strings in Rexx sehr einfach. Die obige Verkettungsoperation kann auch als geschrieben werden. Ein oder mehrere Leerzeichen zwischen codice_1 und codice_5 führen hingegen dazu, dass bei der impliziten Verkettung ein Leerzeichen eingefügt wird, was unerwünscht ist, wenn das Ergebnis eine Zahl sein soll. gibt codice_6 aus. Im Normalfall rechnet Rexx auf neun Dezimalstellen genau; durch Angabe einer höheren Anzahl kann jedoch fast beliebig genau gerechnet werden. Diese wenig hardwarenahe Methode von Rexx führt dazu, dass arithmetische Operationen vergleichsweise langsam ausgeführt werden. Auswertungslogik. 1. Wenn das zweite Token mit einem Gleichheitszeichen beginnt, handelt es sich um eine Wertzuweisung eine gültige Anweisung ist, die der Variablen "IF" den Wert "1" zuweist! zwar ein gültiger logischer Ausdruck, der prüft, ob die Variable if exakt den Wert 1 hat; als eigenständige Anweisung ergibt sie jedoch einen Syntaxfehler, weil der zuzuweisende Wert "= 1" eben "kein" gültiger Ausdruck ist. 2. Ist das zweite Token ein Doppelpunkt, handelt es sich um eine Marke Man könnte erwarten, dass codice_7 zur Standardausgabe ausgegeben wird. Das Schlüsselwort codice_8 fungiert hier jedoch nur als Marke; der Ausdruck codice_9 bildet Gemäß Regel 4 (siehe unten) wird also codice_10 aufgerufen und codice_7 zur Ausführung an die Umgebung übergeben. (Es ginge natürlich auch ohne die Funktion codice_10; dies nur als sehr einfaches Beispiel für einen Funktionsaufruf) Es ist auch möglich, mit codice_13 eine bestimmte Marke anzusteuern; dies ist eher unüblich und nur in bestimmten Fällen sinnvoll, z. B. als Alternative zu sehr großen codice_14-Anweisungen. 3. Wenn das erste Token ein Schlüsselwort ist, erfolgt die Auswertung entsprechend dieser Schlüsselwortanweisung Solche Schlüsselwörter sind z. B. codice_15, codice_16, codice_8. Man beachte, dass die Auswertung der Schlüsselwörter erst an dritter Stelle günstig im Hinblick auf zukünftige Erweiterungen ist. Zukünftige Versionen der Sprache können so neue Schlüsselwörter einführen, ohne dass existierende Programme überarbeitet werden müssen, sowohl Variablen als auch Marken können ihren Namen behalten. 4. In jedem anderen Fall wird die Anweisung als Ausdruck ausgewertet und das Ergebnis an die Umgebung übergeben Im ersten Fall ist codice_18 eine Variable; wurde ihr kein Wert zugewiesen, so ist ihr Wert codice_19 (ihr Name in Großbuchstaben), und es wird codice_19 an die Umgebung übergeben und ausgeführt. Im zweiten Fall wird garantiert codice_18 übergeben und ausgeführt. Es könnte natürlich sein, dass eine zukünftige Rexx-Version ein Schlüsselwort codice_18 einführt. Um sicherzugehen, dass das Programm auch dann noch funktioniert, kann z. B. durch erzwungen werden, dass die Anweisung als Ausdruck (Verkettung der Variablen mit dem Leerstring) erkannt wird; oder man verwendet einfach die Variante, das Kommando als Stringkonstante zu übergeben. Rekursion. Als Rekursion (‚zurücklaufen‘) bezeichnet man in einem allgemeinen Sinn die Eigenschaft von Regeln, dass sie auf das Produkt, das sie erzeugen, von neuem angewandt werden können, wodurch potenziell unendliche Schleifen entstehen. In Mathematik, Logik und Informatik kann dies spezieller so ausgedrückt werden, dass eine Funktion in ihrer Definition selbst nochmals aufgerufen wird "(rekursive Definition)". Wenn man mehrere Funktionen durch wechselseitige Verwendung voneinander definiert, spricht man von "wechselseitiger Rekursion". Nicht jede rekursive Definition ist eine Definition im eigentlichen Sinn, denn die zu definierende Funktion braucht nicht wohldefiniert zu sein. Jeder Aufruf der rekursiven Funktion muss sich durch Entfalten der rekursiven Definition in endlich vielen Schritten auflösen lassen. Ist dies nicht erfüllt, so spricht man von einem infiniten Regress (in der Informatik auch als Endlosschleife bezeichnet). Rekursion ist eine Problemlösungsstrategie, sie führt oft zu eleganten Darstellungen. Das Grundprinzip der Rekursion ist das Zurückführen einer allgemeinen Aufgabe auf eine einfachere Aufgabe derselben Klasse. Die rekursive Programmierung ist Bestandteil vieler Programmiersprachen. Prozeduren oder Funktionen können sich dabei selbst aufrufen. Rekursion und Iteration sind im Wesentlichen gleichmächtige Sprachmittel. Definition. Das Grundprinzip der rekursiven Definition einer Funktion "f" ist: Der Funktionswert "f"("n"+1) einer Funktion "f": N0 → N0 ergibt sich durch Verknüpfung bereits berechneter Werte "f"("n"), "f"("n"-1), … Falls die Funktionswerte von "f" für hinreichend viele Startargumente bekannt sind, kann jeder Funktionswert von "f" berechnet werden. Bei einer rekursiven Definition einer Funktion "f" ruft sich die Funktion so oft selbst auf, bis eine durch den Aufruf der Funktion veränderte Variable einen vorgegebenen Zielwert erreicht oder Grenzwert überschritten hat (Terminierung, Abbruchbedingung). Die Definition von rekursiv festgelegten Funktionen ist eine grundsätzliche Vorgehensweise in der funktionalen Programmierung. Ausgehend von einigen gegebenen Funktionen (wie z. B. der Summenfunktion) werden neue Funktionen definiert. Mit diesen können weitere Funktionen definiert werden. Ein Spezialfall der Rekursion ist die primitive Rekursion, die stets durch eine Iteration ersetzt werden kann. Bei einer solchen Rekursion enthält der Aufrufbaum keine Verzweigungen, das heißt, er ist eine Aufrufkette: das ist immer dann der Fall, wenn eine rekursive Funktion sich selbst jeweils nur einmal aufruft. Der Aufruf kann dabei am Anfang ("Head Recursion", siehe Infiniter Regress) oder am Ende ("Tail Recursion" oder Endrekursion) der Funktion erfolgen. Umgekehrt kann jede Iteration durch eine primitive Rekursion ersetzt werden, ohne dass sich dabei die Komplexität des Algorithmus ändert. Formen der Rekursion. Die häufigste Rekursionsform ist die "lineare Rekursion", bei der in jedem Fall der rekursiven Definition höchstens ein rekursiver Aufruf vorkommen darf. Die Berechnung verläuft dann entlang einer Kette von Aufrufen. Die primitive Rekursion ist ein Spezialfall der linearen Rekursion. Hier definiert man Funktionen auf den natürlichen Zahlen, wobei in jedem rekursiven Aufruf dessen erster Parameter um Eins ab- oder zunimmt. Jede primitiv-rekursive Definition kann unter Zuhilfenahme eines Stapels durch eine Schleife (Programmierung) (z. B. For-Schleife oder While-Schleife) ersetzt werden. Die "endständige" oder "repetitive" Rekursion ("Tail Recursion" oder Endrekursion) bezeichnet den Spezialfall der linearen Rekursion, bei der jeder rekursive Aufruf die letzte Aktion des rekursiven Aufrufs ist. Endrekursionen lassen sich unmittelbar durch While-Schleifen ersetzen und umgekehrt. Unter "verschachtelter" Rekursion versteht man eine Rekursion, bei welcher rekursive Aufrufe in Parameterausdrücken rekursiver Aufrufe vorkommen. Diese Rekursionsform gilt als außerordentlich schwer zu durchschauen. "Kaskadenförmige" Rekursion bezeichnet den Fall, in dem mehrere rekursive Aufrufe nebeneinander stehen. Die rekursiven Aufrufe bilden dann einen Baum. Kaskadenförmige Rekursion gilt als elegant, kann aber ohne weitere Maßnahmen einen exponentiellen Berechnungsaufwand nach sich ziehen. Sie wird gerne als Ausgangspunkt für die Ableitung einer anderen effizienteren Formulierung gebraucht. Die "wechselseitige" Rekursion bezeichnet die Definition mehrerer Funktionen durch wechselseitige Verwendung voneinander. Sie lässt sich auf die gewöhnliche Rekursion einer tupelwertigen Funktion zurückführen. Rekursive Grafiken. Nicht nur Funktionen, sondern auch Punktmengen können rekursiv definiert werden (Fraktale). Deren graphische Darstellung liefert ästhetisch ansprechende, "natürlich" aussehende Gebilde. Ein Beispiel ist der rekursive Pythagoras-Baum. Der Algorithmus wird dann bis zu einer vorgegebenen "Rekursionstiefe" entfaltet. Bei Rekursionstiefe eins entsteht ein Dreieck mit je einem Quadrat über den drei Seiten. Das sieht wie die Illustration zum Satz des Pythagoras aus - daher der Name. Je höher die Rekursionstiefe, desto mehr ähnelt das Gebilde einem Baum. Rekursion in der Grammatik. i. S → NP VP (ein Satz besteht aus einer Nominalphrase und einer Verbalphrase) ii. VP → V NP* (eine Verbalphrase besteht aus einem Verb und null bis vielen Nominalphrasen) iii. VP → V S (eine Verbalphrase besteht aus einem Verb und einem Nebensatz als Objekt des Verbs) Diese Grammatik lässt die Wahl, ob die Ausbuchstabierung von "VP" mit Regel ii. oder iii. erfolgen soll. Für den Fall, dass die Schritte i. und dann iii. aufgerufen werden, ergibt sich eine Rekursion: Als Produkt von Regel iii. erscheint das Symbol S, das wiederum den Start für Regel i. darstellt. Rekursion in mathematischer Darstellung. Um eine gleichwertige rekursive Definition der Summenfunktion zu erhalten, bestimmen wir zunächst den einfachen Fall, den "Rekursionsanfang". Im Beispiel handelt es sich um den Funktionswert für formula_5. Es handelt sich hierbei um eine lineare Rekursion, denn in jedem der beiden Fälle (Rekursionsanfang und Rekursionsschritt) gibt es höchstens einen sum-Aufruf. Es ist sogar eine primitive Rekursion. Bei der dargestellten Definition handelt es sich um keine Endrekursion, denn nach dem rekursiven Aufruf formula_14 muss noch formula_2 addiert werden. Es gibt auch eine Charakterisierung der Summenfunktion ohne Rekursion: die Gaußsche Summenformel besagt, dass Ein anderes klassisches Beispiel für eine rekursive Funktion ist die Fibonacci-Folge Die Fibonacci-Funktion formula_22, die jedem formula_2 die formula_2-te Fibonacci-Zahl zuordnet, hat die einfachen Fälle formula_25 und formula_26 und genügt der Rekursionsgleichung Die Berechnung für formula_31 wird hier mehrfach durchgeführt. Das deutet an, dass es Potential für Optimierungen gibt. Auch für die Fibonacci-Funktion gibt es einen gleichwertigen geschlossenen Ausdruck. Allgemeines: Iterative und rekursive Implementierung. Im Fall von primitiv-rekursiven Funktionen steht es dem Programmierer frei, eine iterative oder eine rekursive Implementierung zu wählen. Dabei ist die rekursive Umsetzung meist eleganter, während die iterative Umsetzung effizienter ist (insbesondere weil der Stack weniger beansprucht wird und der Overhead für den wiederholten Funktionsaufruf fehlt); siehe auch das Programmierbeispiel unten. Manche Programmiersprachen (zum Beispiel in der Funktionalen Programmierung) erlauben keine Iteration, sodass immer die rekursive Umsetzung gewählt werden muss. Solche Sprachen setzen häufig zur Optimierung primitive Rekursionen intern als Iterationen um (einige Interpreter für LISP und Scheme verfahren so). Es ist zu beachten, dass eine naive Implementierung bei manchen Funktionen (z. B. den Fibonacci-Zahlen) bedingt, dass Teillösungen mehrfach berechnet werden. Abhilfe schafft in diesem Beispiel die Memoisation, die auf der Wiederverwendung bereits berechneter Zwischenlösungen beruht. Die Rekursion ist ein wesentlicher Bestandteil einiger Entwurfsstrategien für effiziente Algorithmen, insbesondere der Teile-und-herrsche-Strategie ("Divide and Conquer"). Andere Ansätze (zum Beispiel sogenannte Greedy-Algorithmen) verlangen ein iteratives Vorgehen. Rekursion und primitiv-rekursive Funktionen spielen eine große Rolle in der theoretischen Informatik, insbesondere in der Komplexitätstheorie und Berechenbarkeitstheorie ("siehe" Lambda-Kalkül und Ackermannfunktion). Im Compilerbau ist der rekursive Abstieg ("Recursive Descent") eine Technik, bei der eine Sprache rekursiv "geparst" wird. iterative Implementierung. Im folgenden Beispiel wird eine Zeichenkette von Offset 0 bis Offset n "implementativ iterativ" durchlaufen. Die Abbruchbedingung ist erfüllt, wenn der Iterator auf den Nullterminator der Zeichenkette stößt. rekursive Implementierung. Jedoch lässt sich die Iteration einer Zeichenkette auch "implementativ rekursiv" darstellen, auch wenn die Aufgabenstellung nicht implizit "rechnerisch rekursiv" ist. Programmierbeispiel: Fakultätsberechnung. Das Beispiel zeigt eine beliebte und einfache Implementierung der Fakultätsberechnung mittels Pseudocode. Der rekursiven Variante wird hier zur Verdeutlichung eine iterative Variante gegenübergestellt. Dabei ist formula_2 die Zahl, deren Fakultät berechnet werden soll. codice_1 codice_2 Lösen von Rekursionen. Beim Lösen einer Rekursion sucht man zum einen den Laufzeitaufwand, zum anderen die explizite Form der Rekursion. Der Aufwand kann als asymptotische Θ- bzw. Ο-Schranke mittels Mastertheorem bzw. Substitutionsmethode bestimmt werden. Auch das "geschickte Raten" mit anschließender Induktion bietet eine Möglichkeit, eine Oberschranke der Laufzeit zu ermitteln. Die explizite Form (oder auch geschlossene Form genannt) der Rekursionsgleichung lässt sich beispielsweise durch die Erzeugende-Funktion finden. Eine zweite Möglichkeit bietet das "Ableiten" durch Differenzenbildung aufeinanderfolgender Funktionswerte der Rekurrenz. Rekursives Akronym. Als rekursives Akronym bezeichnet man eine Abkürzung, die in der Erklärung ihrer Bedeutung rekursiv auf sich selbst verweist, d. h. paradoxerweise ihre eigene Abkürzung als Teil des ausgeschriebenen Begriffs enthält (siehe Konstruktionsmethoden). Rekursive Akronyme sind normalerweise Initialwörter. Der Begriff wird auch für Abkürzungen gebraucht, die eigentlich keine Akronyme sind. Die meisten rekursiven Akronyme treten in Projekten der freien Software auf. Konstruktionsmethode 2. Rekursive Akronyme sind nicht zu verwechseln mit einem Apronym oder Backronym. Keine „echten“ Rekursionen. Einige eng verwandte Phänomene sind streng genommen keine rekursiven Akronyme. Meist kommt die Abkürzung zwar im ausgeschriebenen Begriff als Wort vor. Sie ist allerdings nicht sich selbst gemeint, sondern ein echtes Wort mit gleicher Schreibweise. Bei anderen wird die Rekursion durch eine nachträglich von Dritten gefundene alternative Deutung der Buchstaben erzeugt. Rüsseltiere. Die Ordnung der Rüsseltiere (Proboscidea) wurde nach dem auffälligsten Merkmal, dem Rüssel (lat. "proboscis"), benannt. Ihre einzigen heute noch lebenden Vertreter sind die Elefanten. Allgemein. Die Rüsseltiere unterscheiden sich nicht nur durch den überaus langen Rüssel, sondern auch durch ihren Körperbau und ihre charakteristische Bezahnung (Stoßzähne bzw. große Mahlzähne) von allen anderen Landsäugern. Besonders markant ist die Rüsselbildung, welche anfänglich kaum vorhanden war. Später entwickelte sich der Rüssel, der bei heutigen Tieren aus bis zu 150.000 längs, zirkular oder schräg verlaufenden Muskelfasern einer Vielzahl verschiedener Muskeln besteht, zu einem feinfühligen Greiforgan, welches das Erreichen der Blätter auf höheren Bäumen ebenso ermöglichte wie das Abreißen von Grasbüscheln in den Steppen. Schädel und Skelett. Besondere skelettanatomische Merkmale sind die säulenförmigen Gliedmaßen, die senkrecht unter dem Körper stehen, wobei die oberen und unteren Partien der Extremitäten einen Winkel von 180° bilden. Dies unterscheidet die Rüsseltiere von zahlreichen anderen Säugetieren, deren Beine in einem leichten Winkel angeordnet sind. Die deutlich vertikale Stellung, die möglicherweise schon im Eozän vollständig ausgebildet war, unterstützte dabei die enorme Gewichtszunahme der frühen Vertreter dieser Ordnung. Weiterhin besitzen die Langknochen keine Knochenmarkhöhle, sondern der Raum ist mit Spongiosa gefüllt, was den Beinen eine größere Festigkeit gibt. Die Blutbildung findet dabei in den Zwischenräumen statt. Als weitere Besonderheit an den Füßen besitzen Rüsseltiere einen sechsten „Zeh“, der jeweils hinter dem Daumen bzw. dem großen Zeh ansetzt (Die Ansatzstelle befindet sich jeweils am oberen (proximalen), nach hinten innen zeigenden Gelenkende des Metacarpus I (Daumen) beziehungsweise des Metatarsus I (großer Zeh) und aus Knorpelmaterial besteht, das teilweise verknöchert ist. Er dient zur Unterstützung der anderen Zehen bei der Stabilisierung des hohen Körpergewichtes. Er ist schon bei den Deinotherien nachweisbar und geht so bis ins frühe Miozän zurück. Die Entwicklung dieser anatomischen Besonderheit hängt mit der enormen Körpergrößenzunahme der Rüsseltiere in jener Zeit zusammen, die verbunden ist mit der Abkehr von der eher amphibischen Lebensweise der frühen Probodscidea-Vertreter hin zu einer rein terrestrischen. Eine andere Besonderheit weist der sehr große Kopf der Rüsseltiere auf, dessen Schädeldach aus luftgefüllten Hohlräumen besteht. Diese bienenwabenartig geformten Hohlräume, die durch dünne Knochenplättchen voneinander getrennt sind, verringern nicht nur das Gewicht des gesamten Schädels, sondern ermöglichten gleichzeitig auch einen enormen Zuwachs an Volumen der Schädeloberfläche. Dieser Volumenzuwachs war notwendig, um einerseits über die mächtige Nackenmuskulatur den Halt des Kopfes inklusive der evolutiv immer größer werdenden Stoßzähne zu gewährleisten, andererseits aber auch um der kräftigen Kaumuskulatur für den massiven Unterkiefer als Ansatzfläche zu dienen. Die Entwicklung eines derartigen luftgefüllten Schädels begann stammesgeschichtlich schon sehr früh bei den Rüsseltieren und ist bei einigen Vertretern schon im Oligozän, möglicherweise auch schon im späten Eozän nachgewiesen. Gebiss. Das ursprüngliche permanente Rüsseltiergebiss besaß noch die vollständige Bezahnung der relativ altertümlichen tertiären Säugetiere mit drei Schneidezähnen, einem Eckzahn, vier Prämolaren und drei Molaren je Kieferast. Im Laufe der stammesgeschichtlichen Evolution reduzierte sich die Zahnanzahl kontinuierlich bis zu den heutigen Elefanten, die nur einen Schneidezahn im Oberkiefer (Stoßzahn) und drei Molaren je Kieferbogen aufweisen, wovon aber nur jeweils ein Molar im Ober- und im Unterkiefer in jeder Kieferhälfte zur Verfügung steht. Diese werden beim Kauen der Pflanzennahrung stark abgenutzt, können jedoch bei den heutigen Elefanten fünf Mal nachgeschoben werden, umfassen also sechs Generationen. Diese sechs Generationen beinhalten drei Milchprämolaren (diese werden von einigen Experten aufgrund der starken Ähnlichkeit zu den Molaren auch als Milchmolaren angesprochen, sind aber aus ontogenetischer Sicht Prämolaren) und drei Dauermolaren. Der Zahnwechsel erfolgt dabei horizontal, indem sich ein neuer Zahn erst von hinten herausschiebt, wenn der vordere weitgehend abgekaut ist. Dieser horizontale Zahnwechsel, der sich von dem vertikalen der meisten andern Säugetiere deutlich unterscheidet, entstand durch die Verkürzung des Kiefers in der Rüsseltierevolution, so dass nicht mehr alle Zähne gleichzeitig Platz fanden. Erstmals aufgetreten ist dieses Merkmal im mittleren Oligozän. Auch die Stoßzähne des Oberkiefers fallen bei den jungen Elefanten nach dem ersten Jahr aus, werden dann aber durch ständig wachsende ersetzt. Zur systematischen Einteilung der Rüsseltiere wird hauptsächlich der Aufbau der Molaren herangezogen. Die Kaufläche dieser Mahlzähne ist sehr vielgestaltig und der jeweiligen Lebensweise der Tiere angepasst. Sie kann höckerige Strukturen (bunodont) aufweisen, wie bei einigen sehr frühen Rüsseltieren, oder aus einzelnen Querleisten aufgebaut sein (lophodont bis zygodont), die teilweise durch verschieden starke Abnutzung härterer und weicherer Stellen eine dachartige Struktur ausbilden wie bei den Stegodonten bzw. lamellenartig geformt sein wie bei den Mammuts und den heutigen Elefanten. Stoßzähne. Markantestes Skelettelement sind die Stoßzähne, die gerade, gedrillt, nach oben oder unten gebogen, schaufelförmig, dem Ober- oder Unterkiefer oder beiden entspringend, weit auseinander oder eng zusammenstehend, und in den verschiedensten Längen (bis zu 4 m) und Stärken vorhanden waren. Die Stoßzähne sind eine Bildung der Schneidezähne, die anfänglich noch recht klein und weitgehend senkrecht im Kiefer standen, später in Verbindung mit der allgemeinen Reduktion der Zahnanzahl im Gebiss der Rüsseltiere aber einen übergroßen Wuchs erreichten. Dabei entstanden die Stoßzähne des Oberkiefers aus den zweiten Schneidezähnen (I2) des jeweiligen Kieferastes, während der Ursprung der Unterkieferstoßzähne unter Experten lange diskutiert, mittlerweile aber der erste Schneidezahn (I1) des Kieferastes identifiziert wurde. Heute leben nur noch die Elefanten mit ihren beiden Stoßzähnen im Oberkiefer. Ökologie. Die Anpassungen der Stoß- und besonders der Backenzähne ermöglichten den Rüsseltieren die Erschließung verschiedener pflanzlicher Nahrungsquellen, von den Sumpfpflanzen, die dem frühen "Moeritherium" als Nahrung dienten, über Blätter und Zweige, die mit den Rüsseln abgerissen wurden, oder Rinden, die wie bei den Deinotherien mit den Stoßzähnen abgeschält werden konnten, bis zu den Gräsern der Savannen und Steppen, welche u. a. die Mammuts bevorzugten und die besonders intensiv gekaut werden müssen. Ein zotteliges Haarkleid schützte einige nördliche Arten der Mammutiden („Echte Mastodonten“) und Mammuts vor der Kälte der Eiszeit. Die beiden riesigen gebogenen Stoßzähne des Mammuts scheinen auch als Schneepflug zur Nahrungssuche unter der Schneedecke wertvolle Dienste geleistet zu haben. Zwergbildungen bei Stegodonten und Elefanten (siehe: Zwergelefant) ermöglichten über lange Zeiträume hinweg das Überleben auch auf kleineren Inseln des Mittelmeerraums und in Indonesien. Daneben haben Rüsseltiere auch Einfluss auf ihr unmittelbares Biotop. Durch das Entrinden von Bäumen, Fressen von Blättern, Abknicken von Zweigen und Ästen, das Herausreißen von Büschen und kleinen Bäumen oder das Spalten größerer wirken sie zusammen mit anderen Megaherbivoren stark auf die Landschaft ein. Das gilt nicht nur für die heutigen Elefanten in den Savannen Ost- und Südafrikas, sondern sicher auch für die Mammuts der Mammutsteppe. Dabei ist dies offensichtlich ein Verhalten, das schon sehr früh im Rüsseltier-Stammbaum auftrat und bis ins frühe Miozän oder gar Oligozän zurückreicht, als u. a. mit den Deinotherien die ersten größeren Rüsseltiere mit sehr großen Stoßzähnen auftraten, deren überlieferten Abnutzungsspuren und Beschädigungen auf solche Handlungsweisen schließen lassen. Verbreitung. Die Rüsseltiere entstanden zweifellos in Afrika. Dies geschah zu einer Zeit, als dieser Kontinent noch nicht über Landbrücken mit anderen Erdteilen verbunden war. Solche Landbrücken entstanden erst im unteren Miozän vor mehr als 20 Millionen Jahren, als sich der nördlich gelegene Tethys-Ozean schloss und so eine Verbindung zum heutigen Eurasien entstand. Zu den ersten Auswanderern gehörten die Mammutiden und die Gomphotherien, die erstmals eurasischen Boden betraten. Einige Vertreter, wie z. B. "Zygolophodon" oder "Gomphotherium", erreichten über Nordasien sogar den nordamerikanischen Kontinent und bildeten eigenständige Entwicklungslinien. Den ersten Auswanderern folgten die Deinotherien, allerdings verbreiteten sie sich nicht so weit, wie die Mastodonten und Gomphotherien, sondern blieben auf Eurasien beschränkt. Die erste Auswanderungswelle erfolgte dabei vor rund 20 bis 22 Millionen Jahren. Das Auftreten der Rüsseltiere außerhalb Afrikas wird als "Proboscidean datum event" bezeichnet, wobei dieses ursprünglich als singulär angesehene Ereignis nach neueren Untersuchungen aus mindestens sechs einzelnen Phasen bestand. Im Zuge der Bildung des Isthmus von Panama und der Entstehung einer geschlossenen amerikanischen Landmasse im Pliozän vor 3 Millionen Jahren kam es zum Großen Amerikanischen Faunenaustausch, wobei letztendlich einige Vertreter der Gomphotherien auch Südamerika besiedelten. Die Rüsseltiere besiedelten somit einen Großteil der Alten und Neuen Welt, lediglich den Australischen Kontinent und die meisten weit vom Festland entfernten Inseln, wie Madagaskar und Neuguinea haben sie niemals erreicht. Dabei umfasste ihr Lebensraum sowohl tropische als auch arktische Lebensräume, wobei sie meistens Tiefländer, einige Arten wie "Cuvieronius" aber auch gebirgige Hochländer erschlossen. Noch bis ins späte Pleistozän waren sie mit vier Familien über Amerika, Eurasien und Afrika verbreitet. Heute findet man sie nur noch in Afrika und Südasien in Form der Elefanten. Evolutionstrends. Rüsseltiere sind eine relativ alte Ordnung der Säugetiere, erste Vertreter traten bereits im Paläozän vor mehr als 60 Millionen Jahren auf. Dabei kann die stammesgeschichtliche Entwicklung grob in drei Stufen eingeteilt werden, verbunden mit einer jeweiligen Auffächerung in zahlreiche Gattungen und Arten sowie Anpassung an unterschiedliche ökologische Nischen (adaptive Radiation). Generelle Trends in der Evolution der Rüsseltiere sind eine markante Größenzunahme – die ältesten Formen waren weniger als einen Meter groß, während spätere Formen bis zu mehr als 4 Meter Schulterhöhe erreichten –, Vergrößerung des Schädels, vor allem des Schädeldaches als Ansatzstelle für eine mächtige Nacken- und Kaumuskulatur, verbunden mit der Verkürzung des Kieferbereiches, Verkürzung des Halsbereiches, Ausbildung eines Rüssels, Hypertrophie der jeweils zweiten bzw. ersten Schneidezähne mit Ausbildung großer Stoßzähne ebenso wie die Tendenz zur Bildung großer Molaren bei gleichzeitigem Verlust der vorderen Prämolaren und weitgehend auch des vorderen Gebisses sowie die Änderung des Zahnaustausches vom für Säugetiere typischen vertikalen hin zum horizontalen Wechsel. Weiterhin bedeutend ist, dass frühere Rüsseltiere eher Blattfresser ("browser") waren, während die späteren Formen stärker auf Grasnahrung ("grazer") spezialisiert waren. Erste Radiation. Die erste Radiation erfolgte vor 61 bis etwa 24 Millionen Jahren. Die Vertreter dieser urtümlichsten Rüsseltiere hatten noch deutlich bunodont aufgebaute Zähne mit maximal vier Querleisten am dritten Molaren, die jeweils einen hohen Zahnschmelzhöcker an den Enden aufwiesen. Einige Formen besaßen auch noch einen Eckzahn je Kieferast. Charakteristisch ist der hier noch vorkommende vertikale Zahnwechsel, so dass alle Zähne gleichzeitig in Gebrauch waren. Als ältestes Rüsseltier gilt derzeit "Eritherium", das 2009 erstmals beschrieben wurde. Es war ein nur 3 bis 8 kg schweres Tier mit drei Leisten auf dem letzten Molar und lebte im nördlichen Afrika. "Phosphatherium", das 1996 in Marokko ausgegraben wurde, lebte vor etwa 55 Millionen Jahren und war kaum größer als ein Fuchs. Es hatte rein äußerlich wenig mit späteren Rüsseltieren gemeinsam, sein Zahnbau, der dem von "Eritherium" ähnelte aber stärker ausgebildete Leisten zwischen den Zahnhöckern besaß und so eine Tendenz zur Lophodontie aufweist, verrät jedoch die enge Verwandtschaft. Eine noch stärkere Tendenz zu diesen Zahnformen zeigen u. a. "Numidotherium" und "Daouitherium", welche etwa gleich alt sind. "Moeritherium" aus dem Eozän Nordafrikas war ein weiteres frühes Mitglied der Rüsseltiere. Es war etwa so groß wie ein Tapir (etwa 110 cm), und besaß einen schweineähnlichen Kopf mit einer verlängerten Nasen-Oberlippe sowie leicht verlängerten Schneidezähnen im Ober- und Unterkiefer. Neben Elefantenmerkmalen trug der Schädel auch gemeinsame Merkmale mit dem der Seekühe. Des Weiteren zeichnete sich die Gattung durch einen sehr langen Körper aus. Mit "Barytherium" fand die erste enorme Körpergrößenzunahme innerhalb der Rüsseltier-Linie statt. Die Tiere erreichten eine Schulterhöhe von 2,5 bis 3 Meter und besaßen insgesamt acht Stoßzähne, je zwei pro Kieferast. Ebenfalls in die erste Radiationsphase gehören die Deinotherien (Deinotheriidae), die erstmals im mittleren Oligozän erschienen und eine frühe Abspaltung darstellen. Charakteristisch für diese Rüssseltiergruppe sind die Stoßzähne, die sich nur im Unterkiefer befanden und abwärts gebogen waren. Sie dienten als Werkzeuge zum Abschaben von Baumrinde. Die frühen Formen, wie "Chilgatherium" und "Prodeinotherium" waren noch relativ klein, während "Deinotherium" im Pliozän und Pleistozän teilweise bis zu 4 Meter Schulterhöhe erreichte. Sie stellten eine der ersten erfolgreichen Rüsseltiergruppen dar und starben in Europa im Mittleren Pliozän (Piacenzium), in Afrika im Unteren Pleistozän, vor rund einer Million Jahren aus. Einige Autoren stellen die Zugehörigkeit der Deinotherien zu den Rüsseltieren aufgrund der Zahn- und Gebissmorphologie in Frage und möchten sie eher in näherer Verwandtschaft zu den Seekühen stellen, diese Auffassung wird aber nur wenig geteilt. "Palaeomastodon" und "Phiomia" waren weitere sehr frühe Rüsseltiergattungen aus dem Eozän und Oligozän Nordafrikas. Sie gehören ebenfalls noch zu Vertretern der ersten Radiation, sind aber mit den späteren Rüsseltierarten schon deutlich näher verwandt als mit den früheren. Es bereitet derzeit noch Probleme, die frühen Formen mit diesen beiden Gattungen zu verbinden, da offensichtlich noch Zwischenglieder fehlen. Wahrscheinlich umfasst "Phiomia" die Schwesterlinie zu den späteren "Gomphotherien" (Gomphotheriidae), während "Palaeomastodon" jene der Mammutiden (Mammutidae) darstellt. Die Mammutidae stellen die letzte Gruppe innerhalb der ersten Radiation dar. Ihre Entwicklungslinie begann laut molekulargenetischen Untersuchungen bereits vor wenigstens 26 Millionen Jahren. Die Molaren sind zygodont mit maximal vier Schmelzleisten auf dem letzten Zahn. Der spezielle Aufbau der Backenzähne kennzeichnet sie als weitgehende Blattfresser. Weiterhin waren diese Rüsseltiere durch zwei Stoßzähne im Oberkiefer charakterisiert, während ältere Formen ebenfalls zwei kleinere Stoßzähne im Unterkiefer hatten, die im Laufe der weiteren Evolution erst reduziert und später verloren gingen. Die älteste Gattung stellt "Losodokodon" aus dem Oberen Oligozän dar, die aber nur anhand einiger Backenzähne aus Kenia überliefert ist. Über einen häufigeren Nachweis verfügt "Eozygodon", während die bekannteste Gattung "Mammut" ist, zu der u. a. auch das Amerikanische Mastodon ("Mammut americanum") gehört, das zeitgleich mit den Vertretern der späteren Gattung "Mammuthus" lebte und gegen Ende der letzten Eiszeit im oberen Pleistozän ausstarb. Der Gattungsname "Mammut" führt häufig zur Verwirrung, da dessen Vertreter mit den eigentlichen Mammuts, deren Gattungsname "Mammuthus" lautet, nicht näher verwandt sind. Zweite Radiation. Die zweite Radiationsphase erfolgte im Miozän. Bei den Vertretern dieser Gruppe ist erstmals der horizontale Zahnwechsel nachweisbar, der durch die Verkürzung der Kieferknochen entstand. Bemerkenswert ist, dass die Mammutiden zwar in die erste Radiationsphase gehören, die späteren Vertreter wie "Mammut" das Merkmal des horizontalen Zahnwechsels aber ebenfalls besaßen. Weitere Merkmale in dieser Radiationsphase sind die deutlich hochkronigeren Backenzähne und die Entwicklung von bunodonten über lophodonte zu zygodonten Molaren mit einer teils deutlich dachartigen Struktur der einzelnen Zahnleisten, wobei sich die Zahl dieser Leisten des hintersten Molars auf sechs erhöhte. Möglicherweise an der Basis der zweiten Radiation stand "Eritreum" aus dem späten Oligozän Nordostafrikas, das in seiner Zahnmorphologie noch zwischen "Phiomia" bzw. "Palaeomastodon" und den späteren Rüsseltieren vermittelte, aber schon den horizontalen Zahnwechsel aufwies. Die wichtigsten Gruppen der zweiten Radiationsphase sind die Gomphotherien (Gomphotheriidae) und die Stegodonten (Stegodontidae), zwei Rüsseltierfamilien, die ursprünglich zusammen mit den Mammutiden zur Überfamilie der Mastodonten (Mastodontoidea) zusammengefasst wurden. Der Begriff Mastodon wird aber heute nur noch als Bestandteil eines Gattungsnamen oder umgangssprachlich für das Amerikanische Mastodon gebraucht. Die bedeutendste Rüsseltierlinie stellten die Gomphotherien (Gomphotheriidae) dar. Diese waren eine sehr erfolgreiche Gruppe der Rüsseltiere, da sie sich aufgrund der starken Ausbreitung offener Landschaften im Miozän und der Umstellung auf Grasnahrung in zahlreiche Gruppen aufspalteten. So stellen sie heute fast die Hälfte aller bekannten Taxa, die sich in mehrere Unterfamilien aufteilen. Allgemein handelte es sich bei den Gomphotherien um Rüsseltiere mit vier Stoßzähnen, je zwei im Ober- und im Unterkiefer. Ein weiteres Merkmal sind ein bunodonter bis lophodonter Zahnbau der Molaren, wobei die Milchzähne und die ersten beiden Dauermolaren drei Schmelzleisten besaßen – weswegen sie ursprünglich auch als trilophodonte Gomphotherien bezeichnet wurden –, während der letzte Backenzahn vier, fünf und mehr Rippen hatte. Zur Unterteilung der Gomphotherien werden teilweise auch die Stoßzähne herangezogen. So wiesen die Gomphotheriinae mit "Gomphotherium" im Oberkiefer zwei deutlich nach unten gerichtete Stoßzähne auf, während jene des Unterkiefers langgestreckt und abgeflacht waren. Die Choerolophodontinae hatten dagegen kurze, deutlich reduzierte Unterkieferstoßzähne während die Rhynchotheriinae der ersten Gruppe ähnelten, aber seitlich abgeflachte Unterkieferstoßzähne aufwiesen. Diese wurden im späteren Verlauf, wie "Stegomastodon" und "Cuvieronius" zeigen, zusätzlich noch deutlich reduziert. Bemerkenswert sind die Amebelodontinae wie "Platybelodon" aus Asien und "Amebelodon" aus Nordamerika, die mit stark verlängerten und verbreiterten, schaufelartig umgebildeten Unterkieferstoßzähnen ausgestattet waren, während die Oberkieferstoßzähne nur eine geringe Größe aufwiesen. Einige der zu den Gomphotherien gezählten Arten überlebten bis ins späte Pleistozän. Deutlich weiter entwickelt als die Gomphotherien waren "Tetralophodon" und "Anancus", die im mittleren bzw. im späten Miozän erstmals auftraten. Ursprünglich wurden sie als tetralophodonte Gomphotherien bezeichnet, da ihre Milchzähne und die vorderen Dauermolaren je vier Schmelzleisten besaßen. Gegenwärtig werden sie aber aufgrund modernerer Schädelmerkmale in die nähere Verwandtschaft zu den Stegodonten (Stegodontidae) und Elefanten (Elephantidae) gestellt und der Überfamilie Elephantoidea zugewiesen. Beide Gattungen wiesen stark reduzierte Unterkieferstoßzähne auf, die teils nur noch im Milchgebiss ausgeprägt waren. Die zweite große Gruppe innerhalb der zweiten Radiationsphase umfasste die Stegodonten, die sich im mittleren Miozän vor etwa 15 Millionen Jahren in Nordasien aus Gomphotherien mit bunodonten Molaren entwickelten. Die älteste Form ist "Stegolophodon". Aus dieser entstanden dann die späteren Gattungen, wie "Stegodon", die typische gerippte und häufig sehr hochkronige Molaren besaßen. In der Regel hatten die Stegodonten nur obere Stoßzähne, während die unteren in den verkürzten Unterkiefern weitgehend reduziert oder nicht mehr ausgebildet waren. Diese Rüsseltiergruppe war über einen Großteil Eurasiens verbreitet, im späten Miozän und frühen Pliozän kam sie auch in Afrika vor während sie Amerika aber nicht erreichte. Dritte Radiation. Die dritte Radiationsphase begann im späten Miozän vor 7 Millionen Jahren und umfasste die Gruppe der Elefanten (Elephantidae), die einzige Rüsseltierfamilie, die bis heute überlebt hat. In dieser Phase wurde der Schädel weiter verkürzt und die Stirn erhöht. Die Molaren wurden weiter verlängert und waren nun deutlich lamellenartig aufgebaut, wobei die Anzahl der Lamellen von acht bis 30 variierte. Dabei waren die Lamellen deutlich flach ausgebildet und nicht mehr so prominent erhöht wie bei den vorhergehenden Rüsseltiergruppen. Außerdem kam es zu einem Rückgang der Zahnschmelzdicke je Lamelle. Alle diese Merkmale zeigen, dass diese Rüsseltiere sehr gut an Grasnahrung angepasst waren. Die älteste Form war "Primelephas", welcher sich vor etwas mehr als 7 Millionen Jahren in Afrika aus "Stegodon" entwickelte. Aus ihm gingen die heutigen Gattungen "Loxodonta" und "Elephas" hervor. Die Trennung der beiden Gruppen fand schon sehr früh in der Entwicklung von "Primelephas" statt und sollte nach Genanalysen bereits vor 7,6 Millionen Jahren abgeschlossen sein. Nur wenig später, vor 6,7 Millionen Jahren, spalteten sich "Elephas" und "Mammuthus" ab. Während "Loxodonta" weitgehend auf dem afrikanischen Kontinent beschränkt blieb, erreichten "Elephas" und "Mammuthus" vor rund 3 Millionen Jahren auch Eurasien, während einige Vertreter von "Mammuthus" als einzige Elefanten vor knapp 2 Millionen Jahren auch erstmals Amerika betraten. Aufgrund der Verbreitung und Anpassung an das kühlere bis kalte Klima des nördlichen Eurasiens während des Pleistozäns zeichneten sich beide Gattungen durch eine recht hohe Radiation mit zahlreichen Arten aus. Während alle Elefanten eine sehr große Körpergröße aufwiesen, brachte "Mammuthus" mit dem Steppenmammut ("Mammuthus trogontherii") die vermutlich größte bisher bekannt Rüsseltierart hervor, deren Schulterhöhe bei teilweise über 4,5 Meter lag. Im Neogen, besonders im Pleistozän, fand eine weltweite Verbreitung der Rüsseltiere auf alle Kontinente, außer Australien und Antarktika, mit zahlreichen Arten statt. Diese Verbreitung kann nur durch die Annahme ausgedehnter Wanderungen über Landbrücken, die sich vor ca. 20 Millionen Jahren zwischen Afrika und Eurasien gebildet haben, stattgefunden haben. Am Ende des Pleistozän, also bis vor etwa 12.000 Jahren lebten noch 7 Gattungen von Rüsseltieren: "Stegodon", "Stegomastodon" (inkl. "Haplomastodon"), "Cuvieronius", "Mammut", "Mammuthus", "Elephas" und "Loxodonta". Nur die letzten beiden überlebten bis heute. Dabei ging mit dem Aussterben der meisten Rüsseltiergattungen, aber auch anderer großer Säugetiere bis zum Beginn des Holozäns, möglicherweise die Ausbreitung des modernen Menschen ("Homo sapiens") einher. Allerdings können neben dem Menschen auch die starken Klimaschwankungen der Warm- und Kaltzeiten als Ursache angesehen werden. Über die Gründe der sogenannten Quartären Aussterbewelle wird stark diskutiert. Heute gibt es nur noch drei Arten der Rüsseltiere, die zwei Gattungen angehören. Dabei umfasst "Loxodonta" den Afrikanischen Elefanten ("Loxodonta africana") und den Waldelefanten ("Loxodonta cyclotis"), während "Elephas" den Asiatischen Elefanten ("Elephas maximus") einschließt. Externe Systematik. Die nächsten lebenden Verwandten der Rüsseltiere sind die Seekühe. Diese bilden zusammen mit den ausgestorbenen Desmostylia und Embrithopoda das Taxon der Tethytheria. Ebenfalls relativ nahe verwandt sind die Schliefer, die die Außengruppe der Tethytheria bilden und mit diesen gemeinsam das Taxon der Paenungulata formen. Interne Systematik. Es sind heute ca. 160 Arten der Rüsseltiere bekannt, davon mehr als 130 aus Afrika, Asien und Europa, die sich auf rund 40 Gattungen und mehr als 10 Familien verteilen. Allerdings sind heute alle bis auf die Elefanten ausgestorben. Einige Arten wurden erst in der Zeit nach dem Jahr 2000 entdeckt, darunter vor allem Vertreter der ältesten Rüsseltiere, wie das "Eritherium" oder das "Daouitherium". Generell lassen sich zwei große Formengruppen (Unterordnungen) unterscheiden: Plesielephantiformes und Elephantiformes, die anhand der Zahnmorphologie unterschieden werden. So besitzen Plesielephantiformes nur zwei Leisten (bilophodont) auf den ersten beiden Dauermolaren, während Elephantiformes drei, vier (tri- und tetralophodont) oder mehr besitzen. Dabei ist die Stellung der Deinotherien innerhalb der Plesielephantiformes problematisch, da sein zweiter Molar zwar biliphodont ist, dies aber möglicherweise kein ursprüngliches sondern ein abgeleitetes Merkmal darstellt. Innerhalb der Elephantiformes gibt es noch die Teilordnung Elephantimorpha, deren Hauptmerkmal der horizontale Zahnwechsel ist. Vor allem stammesgeschichtlich ältere Gattungen sind teilweise in ihrer Stellung unsicher, ebenso einige fortgeschrittenere, wie "Eritreum", das wohl am Übergang zu den Elephantimorpha steht. Aber auch bei stammesgeschichtlich jüngeren Formen, vor allem der Gomphotherioidea gibt es noch taxonomische Unklarheiten. So wurden ursprünglich "Anancus" und "Tetralophodon" den Gomphotherien zugeordnet, in jüngere Zeit revidierte man diese Zuweisung wieder und stellte beide zu den moderneren Elephantoidea. Die Gliederung basiert auf den Bearbeitungen von Jeheskel Shoshani und Pascal Tassy 2005 unter Berücksichtigung neuer Ergebnisse. In einer Studie aus dem Jahr 2012 erfolgte eine erneute Revision der Gomphotherien, insbesondere der südamerikanischen Vertreter, die einige Unklarheiten aus vorangegangenen Bearbeitungen beseitigte. Schweden. anerkannte Minderheitensprachen: Jiddisch, Romani, Svenskt teckenspråk (schwedische Gebärdensprache) Das Königreich Schweden (oder einfach "Sverige") ist eine parlamentarische Monarchie in Nordeuropa. Das Staatsgebiet umfasst den östlichen Teil der Skandinavischen Halbinsel und die Inseln Gotland und Öland. Schweden ist Mitglied des Nordischen Rates und seit 1995 der Europäischen Union, anders als Norwegen und Dänemark jedoch nicht Mitglied der NATO und damit militärisch bündnisfrei. Geographie. Schweden grenzt an das Kattegat, die Staaten Norwegen und Finnland sowie die Ostsee. Zu Schweden gehören etwa 221.800 Inseln, Gotland (2994 km²) und Öland (1347 km², beide in der Ostsee) sowie Orust (346 km², nördlich von Göteborg) sind die drei größten. Die längste Ausdehnung von Norden nach Süden beträgt 1572 km, von Osten nach Westen 499 km. Die Landgrenze zu Norwegen ist 1619 km lang, die zu Finnland 586 km. Während weite Teile des Landes flach bis hügelig sind, steigen entlang der norwegischen Grenze die Gebirgsmassive der Skanden bis auf über 2000 m Höhe an. Der höchste Gipfel ist der Kebnekaise mit 2111 m. Über das Land verteilt gibt es 28 Nationalparks. Die flächenmäßig größten befinden sich im Nordwesten des Landes. Topografie. Süd- und Mittelschweden (Götaland und Svealand), das nur zwei Fünftel von Schweden umfasst, ist von Süden nach Norden in drei Großlandschaften aufgeteilt, Nordschweden (Norrland), welches die restlichen drei Fünftel umfasst, ist von Westen nach Osten in drei Landschaften geteilt. Die längsten Flüsse Schwedens sind Klarälven, Torne älv, Dalälven, Ume älv und Ångermanälven. Die größten Seen sind Vänern, Vättern, Mälaren und Hjälmaren. Süd- und Mittelschweden. Der südlichste Teil, die historische "Provinz Schonen" (Skåne), ist eine Fortsetzung der Tiefebene Norddeutschlands und Dänemarks. In Schonen liegt der tiefste Punkt Schwedens (ausgenommen Gewässer) mit 2,4 Metern unter dem Meeresspiegel und der südlichste Punkt Schwedens, Smygehuk. Nördlich davon erstreckt sich das "Südschwedische Hochland", eine Hochebene umgeben von einer Hügellandschaft mit einer großen Anzahl von langgestreckten Seen, die durch eiszeitliche Erosion entstanden sind. Die dritte Großlandschaft ist die "Mittelschwedische Senke", eine flache, zerklüftete Landschaft mit großen Ebenen, Horsten, Tafelbergen, Fjorden und einer Reihe von Seen. Nordschweden. Der Westen "Nordschwedens" ist durch das Skandinavische Gebirge geprägt, das die Grenze zu Norwegen bildet. Die Gebirgskette weist Höhen zwischen 1.000 und 2.000 Metern über dem Meeresspiegel auf. Im Skandinavischen Gebirge liegt auch Schwedens höchster Berg, der 2.104 m hohe Kebnekaise. Im Dreiländereck Norwegen/Schweden/Finnland befindet sich mit Treriksröset Schwedens nördlichster Punkt. Nach Osten hin schließt sich das "Vorland" an, Schwedens ausgedehnteste Großlandschaft. Entlang des Gebirges erstrecken sich große Hochlandebenen auf einer Höhe von 600 bis 700 Metern über dem Meeresspiegel, die in ein welliges Hügelland übergehen, das nach Osten abfällt. In dieser Landschaft befinden sich auch die großen Erzvorkommen (Eisen, Kupfer, Zink, Blei) Schwedens. Die großen Flüsse Schwedens, die ihren Ursprung im Skandinavischen Gebirge haben, fließen beinahe parallel in tiefen Talgängen in Richtung Ostsee. Entlang der Ostseeküste erstreckt sich die ebene Küstenlandschaft, die zwischen Härnösand und Örnsköldsvik von einem bis an die Ostseeküste reichenden Ausläufer des Vorlandes (Höga Kusten, Nationalpark) unterbrochen wird. Geologie. Skandinavien – Norwegen, Schweden und Finnland im Winter Große Teile Schwedens bestehen aus Urgestein, wie Gneis und Granit. In Jämtland und Teilen von Mittel- und Südschweden (so auch auf den Inseln Öland und Gotland) findet man stellenweise umfangreiche Schichten aus dem Silur. Die skandinavische Halbinsel war während der Eiszeiten zeitweise vollständig von Eis bedeckt. Der Druck und die Bewegung der Eismassen hat die Landschaft in vielen Teilen wesentlich mitgestaltet. Durch den großen skandinavischen Gletscher der letzten Eiszeit "(Weichseleiszeit)" ist die heutige Landschaft Schwedens mit den zahlreichen Seen, Flüssen (siehe auch Liste der Flüsse in Schweden) und Wasserfällen (siehe auch Liste der Wasserfälle in Schweden) entstanden. Die damit einhergehende Abschleifung und Aushöhlung hat neben den Moränen die charakteristischen Ablagerungen aus Kieseln und runden Steinen hinterlassen, die in Schweden "åsar" (dt. Os) genannt werden. Ein auch heute noch wichtiger Faktor ist die Landhebung. Das Abschmelzen der Eismassen, die die Erdkruste niedergedrückt hatten, hat seit der letzten Eiszeit (ungefähr 10.000 v. Chr.) zu einer Landhebung von 800 m geführt. Heutzutage beträgt die Landhebung bis zu 10–11 mm jährlich im Höga Kusten, in der Stockholmer Gegend sind es jährlich etwa 6 mm. Klima. Schwedens Klima ist für seine geographische Lage ziemlich mild. Es wird vor allem durch die Nähe zum Atlantik mit dem warmen Golfstrom bestimmt. Große Teile Schwedens haben daher ein feuchtes Klima mit reichlich Niederschlag und relativ geringen Temperaturunterschieden zwischen Sommer und Winter. Kontinental beeinflusstes Klima mit geringeren Niederschlägen und höheren Temperaturunterschieden findet man im Inneren des Südschwedischen Hochlandes und in einigen Teilen des Vorlandes des Skandinavischen Gebirges. Polares Klima kommt nur im nördlichen Hochgebirge vor. Die Durchschnittstemperatur für den Januar beträgt 0 °C bis −2 °C im Süden und −12 °C bis −14 °C im Norden (ausgenommen das Hochgebirge), die Durchschnittstemperatur für den Juli beträgt 16 °C bis 18 °C im Süden und 12 °C bis 14 °C im Norden. Kälterekorde wurden am 2. Februar 1966 in Vuoggatjålme, Gemeinde Arjeplog mit −52,6 °C, beziehungsweise am 13. Dezember 1941 in Malgovik, Gemeinde Vilhelmina mit −53 °C gemessen. Da sich Schweden zwischen dem 55. und 69. Breitengrad erstreckt und ein Teil nördlich des Polarkreises liegt, ist der Unterschied zwischen dem langen Tageslicht im Sommer und der langen Dunkelheit im Winter beträchtlich. Flora und Fauna. In Nordschweden prägen die ausgedehnten borealen Nadelwälder das Bild. Je südlicher man kommt, desto häufiger gibt es Mischwälder. Als markanter Grenzraum für Flora und Fauna gilt der so genannte "limes norrlandicus". In Südschweden mussten die Laubwälder dem Ackerbau Platz machen oder wurden wegen des schnelleren Wachstums durch Nadelwälder ersetzt. Auf den Inseln Gotland und Öland findet man, bedingt durch das Klima und die geologischen Voraussetzungen, eine beeindruckende und vielfältige Flora vor. Hier gibt es eine einzigartige Mischung, unter anderem Pflanzen, die sonst in Europa nur im Balkanraum vorkommen. Besonders erwähnenswert sind die zahlreichen Orchideenarten. Das Wildschwein ist im südlichen Schweden inzwischen wieder stark verbreitet, obwohl es im 18. Jahrhundert vollständig ausgerottet worden war. Es konnte sich jedoch nach Ausbrüchen von Wildschweinen aus in den 1940er Jahren angelegten Wildgehegen in den 1970er Jahren wieder eine lebensfähige wilde Population entwickeln, die heute rund 80.000 – 100.000 Tiere umfasst. Die Population wuchs seit den 1990er Jahren um jährlich 13 % an und nimmt auch heute noch zu. Zudem findet nach wie vor eine Ausbreitung in Richtung Norden statt, und so kommt das Wildschwein heute bis nach Dalarna und Hälsingland vor. Inzwischen werden in Schweden jährlich rund 25.000 Wildschweine erlegt. Wie das Wildschwein ist auch der Rothirsch in Schweden vornehmlich in der südlichen Landeshälfte verbreitet. Er kommt vor allem in Götaland vor, isolierte Populationen gibt es aber auch in Dalarna, Jämtland und sogar Västerbotten. Die meisten Bestände beruhen auf gezielten Aussetzungen, nur in Schonen gibt es noch einen ursprünglichen Bestand. Das Reh ist im Vergleich zum Rothirsch etwas weiter verbreitet und kommt nordwärts bis Dalarna flächendeckend und zahlreich vor. Gebiete weiter nördlich sind nur äußerst spärlich vom Reh besiedelt. Besonders bekannt ist Schweden für die größte Zahl an Elchen in Europa. Sie stellen eine recht große Gefahr im Straßenverkehr dar – 2006 wurden 4.957 Verkehrsunfälle mit Elchen gezählt. Die Elche richten auch großen Schaden in Waldpflanzungen an. In der Jagdsaison im Herbst wird bis zu einem Viertel des Elchbestands erlegt. Der Bestand ist durch die hohe Reproduktionsrate nicht gefährdet. Raubtiere wie Braunbären, Wölfe und Luchse sind in den letzten Jahren dank strenger Umweltbestimmungen wieder auf dem Vormarsch. Die vielen Seen und langen Küsten bieten viel Lebensraum für Wassertiere: Süß- und Salzwasserfische gibt es reichlich, und auch Biber und Robben sind häufig anzutreffen. Schweden richtete 1909 als erstes Land in Europa Nationalparks ein. Mittlerweile sind 11 % des Landes durch Naturschutzgebiete oder -reservate sowie 29 Nationalparks geschützt. Sollte die Einrichtung von zwölf neuen Nationalparks und die Erweiterung von sieben bereits bestehenden beschlossen werden, würde der Anteil der geschützten Fläche auf 11,5 % steigen. Bevölkerung. Schweden hat etwa 9,573 Millionen Einwohner. 90,8 Prozent sind ethnische Schweden, 2,5 Prozent sogenannte Schwedenfinnen (ganz Finnland war jahrhundertelang ein Teil Schwedens). Finnen bilden in Tornedalen eine starke Gruppe, die meisten leben jedoch in Mittelschweden. Nach dem Zweiten Weltkrieg kamen viele „Einwanderer“ ("invandrare") aus Finnland nach Schweden, wobei die schwedischsprechende Minorität überrepräsentiert war; die Kinder der finnischsprechenden Gastarbeiter sprechen oft noch Finnisch als Muttersprache. Heute leben noch etwa 20.000 Samen in Schweden. Die meisten sind assimiliert: Nur noch wenige beschäftigen sich mit der Rentierzucht (200 hauptberuflich, 3000 nebenberuflich), während Jagd und Fischerei, die traditionellen samischen Erwerbszweigen, keine Rolle mehr spielen. Die Rentierzucht begann erst Mitte des 17. Jahrhunderts, als das Kriegsengagement Gustavs II. Adolfs immer mehr Steuergelder verzehrte und man auf der Suche nach neuen Einnahmequellen war. Er machte daraufhin auch die Samen steuerpflichtig. Da die traditionelle Jagd auf Rene nicht genug einbrachte, begann man, die Rene zu zähmen und zu züchten. Etwa 14 Prozent der schwedischen Bevölkerung wurden im Ausland geboren. Die größte Gruppe sind hierbei noch immer Menschen aus Finnland mit 175.000 Personen. Weitere große Gruppen stellen Personen aus dem Irak (109.000), dem ehemaligen Jugoslawien (72.000, hinzu kommen 55.000 Personen aus Bosnien-Herzegowina), Polen (63.000) und dem Iran (57.000). Einen beachtlichen Anteil mit etwa 90.000–120.000 stellen die christlichen Aramäer (auch bekannt als Assyrer, Suryoye oder Chaldäer). Allein im Umkreis der Stadt Södertälje, südwestlich von Stockholm, leben etwa 20.000. Sie stammen meist aus der Türkei und Syrien, aber auch aus dem Irak, Iran und dem Libanon. Die meisten von ihnen gehören der Syrisch-Orthodoxen Kirche an. Im Jahr 2008 waren 562.100 ausländische Staatsbürger in Schweden registriert, dies macht ca. 6 Prozent der Bevölkerung des Landes aus. Finnische Staatsbürger stellten auch hier wiederum mit 77.000 Personen die größte Gruppe dar. In den Grenzgebieten zu Norwegen und Dänemark leben auch Norweger (35.000) und Dänen (39.000). Größte nichtskandinavische Gruppe sind die Iraker (48.000), diese kamen meist in den 1990er Jahren aufgrund der liberalen Asylpolitik des Landes und ließen sich in Schweden nieder. Es leben auch einige Tausend Polen und Deutsche in Schweden, meist in den südlichen Landesteilen. Letztere sind auch im Gesundheitssektor als „Gastarbeiter“, beispielsweise als Ärzte, Zahnärzte und Krankenschwestern und Krankenpfleger, tätig. Die Geburtenrate von 1,85 Kindern pro Frau (2006) liegt einerseits unter der Reproduktionsschwelle von 2,1 Kindern pro Frau, andererseits weit über dem EU25-Durchschnitt, der im Jahr 2005 bei 1,52 Kindern pro Frau lag. Sprache. Seit dem 1. Juli 2009 ist Schwedisch nicht mehr de facto sondern de jure Amtssprache. In Tornedalen, entlang der schwedisch-finnischen Grenze, wird von ungefähr der Hälfte der Bevölkerung Tornedalfinnisch "(Meänkieli)" gesprochen. Samisch wird noch von einigen Tausend Menschen als Hauptsprache benutzt. Alle schwedischen Samen verwenden jedoch auch die schwedische Sprache. In Schweden haben Finnisch, Tornedalfinnisch, Jiddisch, Romani, Samisch und die schwedische Gebärdensprache "Svenskt teckenspråk" den Status anerkannter Minderheitensprachen. Fast 80 % der schwedischen Bevölkerung sprechen Englisch als Fremdsprache, da Englisch zum einen die erste Fremdsprache an den Schulen darstellt und zum anderen im Fernsehen sehr stark vertreten ist (Spielfilme werden üblicherweise nicht synchronisiert, sondern nur untertitelt). Als zweite Fremdsprache wählt die Mehrheit der Schüler Spanisch. Auch Deutsch und Französisch werden als zweite Fremdsprache angeboten; Deutsch war wie auch im restlichen Skandinavien bis etwa 1945 die erste Fremdsprache. Die norwegische Sprache wird aufgrund starker Ähnlichkeiten zum Schwedischen zumeist verstanden; für das Dänische trifft das in geringerem Maße zu, insbesondere außerhalb der ehemals dänischen Landesteile Halland, Blekinge und Schonen. Religion. 2009 gehörten 71,3 % der schwedischen Bevölkerung der evangelisch-lutherischen Schwedischen Kirche an, die von 1527 bis 1999 Staatskirche war. Seit 2000 ist die Mitgliederzahl deutlich rückläufig. Die zweitgrößte Religionsgemeinschaft, die der Muslime, lässt sich zahlenmäßig nur schwer einschätzen, ihre Mitgliederzahl liegt bei ungefähr 250.000 (2,7 %). Die römisch-katholische Kirche hat 150.000 Mitglieder (1,6 %) und die christlich-orthodoxe Kirche etwa 100.000 (1,1 %). Freikirchliche Gruppen sind vor allem im Raum Jönköping, in Bohuslän und in Västerbotten stärker vertreten. Daneben gibt es in Schweden etwa 23.000 Zeugen Jehovas (0,25 %), und etwa 10.000 Menschen gehören einer jüdischen Gemeinde (0,1 %) an. Daneben existiert in Stockholm eine mandäische Gemeinde mit eigenem Gotteshaus. Bildungssystem. Das schwedische Bildungssystem umfasst vier Teilbereiche: Vorschule, Schule, Hochschulen und Universitäten sowie Erwachsenenbildung. Die Schulpflicht beträgt neun Jahre (7. bis 16. Lebensjahr), der sich ein freiwilliger dreijähriger Gymnasiumsbesuch anschließt. Etwa 30 % eines Jahrganges beginnt innerhalb von fünf Jahren nach dem Abschluss des Gymnasiums ein Studium. Soziales Leben. Das „schwedische Modell“, ein Begriff vor allem der 1970er-Jahre, bezieht sich auf den Wohlfahrtsstaat, ein umfassendes System sozialer Sicherheit und sozialer Fürsorge, das das Ergebnis einer einhundertjährigen Entwicklung ist. Zwischen 1890 und 1930 wurden teilweise die Grundlagen für ein Sozialsystem geschaffen, aber erst ab den 1930er-Jahren, insbesondere nach der Regierungsübernahme der Sozialdemokratischen Arbeiterpartei 1932, wurde der Aufbau des Wohlfahrtsstaates als politisches Projekt vorangetrieben. Das schwedische Sozialsystem erfasste schließlich alle, vom Kleinkind (über die kommunale Kinderfürsorge) bis zum Rentner (über die kommunale Altenfürsorge). Erst im letzten Jahrzehnt kam es zu einschneidenden Veränderungen. Eine schwere Wirtschaftskrise zu Beginn der 1990er-Jahre führte zu einer Kürzung von Sozialleistungen und die erwartete demographische Entwicklung führte zu einem radikalen Umbau des Rentensystems, das nun an die wirtschaftliche Entwicklung gekoppelt ist. Geschichte. Schweden und Norwegen um 1888 Die skandinavische Halbinsel wird erstmals in der "Naturalis historia" Plinius’ des Älteren aus dem Jahr 79 erwähnt. Er schreibt über "Scatinavia", eine große Insel, auf der das Volk der Hillevionen lebt. Manche sehen darin die erste Erwähnung der Schweden. Im Jahr 98 findet sich in Tacitus’ "Germania" eine Erwähnung der Suionen (Absatz 44), die angeblich „im Ozean selbst“ leben und eine mächtige Flotte haben. Auf der Weltkarte des Ptolemäus um 120 ist Skandinavien erstmals kartographisch erfasst. Im fünften Jahrhundert beschrieb Prokop die Insel Thule im Norden, die zehnmal größer als Britannien sei und auf der im Winter 40 Tage lang keine Sonne scheine. Während des frühen Mittelalters (um 800 bis 1000) beherrschten Wikinger die europäischen Meere und Küstengegenden. Schwedische Wikinger, auch Waräger genannt, orientierten sich vor allem Richtung Osten, nach Russland. Ab dem neunten Jahrhundert wirkten die auch Rus genannten Schweden am Aufbau der Kiewer Rus mit. Der erste Kontakt mit dem Christentum entstand durch die Missionstätigkeiten des heiligen Ansgars, des Erzbischofs von Hamburg und Bremen. Er unternahm um 830 und 853 zwei Missionsreisen nach Birka, dem wichtigsten Handelsplatz der Wikinger im Mälaren, die allerdings keinen Erfolg hatten. Im Jahr 1008 ließ Olof Skötkonung, König von Schweden, sich jedoch taufen. Doch bis ins 12. Jahrhundert waren weite Teile der Bevölkerung heidnisch. So wurde 1160 König Erik IX. von anti-christlichen Adligen nach dem Besuch der Messe ermordet. Im Jahr 1397 bildete die dänische Königin Margarethe I. die Kalmarer Union. Durch Erbschaft und Heirat hatte sie zuvor die norwegische und schwedische Krone erlangt. Diese Vereinigung dreier Reiche unter dänischen Unionskönigen blieb bis 1523 bestehen, auch wenn die Durchsetzung der Zentralmacht letztlich nicht gelang. Die Kalmarer Union wurde immer mehr von inneren Kämpfen, besonders zwischen königlicher Zentralmacht und Hochadel, geprägt. Zu gewissen Zeiten waren die Unionskönige auch in Schweden anerkannt, aber dazwischen regierten der schwedische König Karl Knutsson (1448–57, 1464–65 und 1467–70) beziehungsweise schwedische Reichsverweser. Der Konflikt kulminierte unter dem Reichsverweser Sten Sture dem Jüngeren. Der dänische Unionskönig Christian II. besiegte seine schwedischen Widersacher 1520 und ließ im November desselben Jahres etwa hundert Oppositionelle im sogenannten Stockholmer Blutbad hinrichten. Dies führte zum Aufruhr des Gustav Wasa, der 1521 zum Reichsverweser ernannt wurde, und dem endgültigen Zusammenbruch der Kalmarer Union. Im Jahr 1523 wurde Gustav I. Wasa zum König gewählt. Nach dem Volksaufstand litt das schwedische Reich unter hohen Schulden und Gustav I. sah sich nach Möglichkeiten zur Verbesserung der finanziellen Lage um. Dafür vergab er unter anderem ein Fischereimonopol an die Gävlefischer. Die Brüder Olavus und Laurentius Petri hatten in Deutschland Bekanntschaft mit Martin Luther gemacht. Die Opposition des Luthertums zu Klöstern schuf eine Gelegenheit zur Auffrischung der finanziellen Situation. Aus diesem Grund unterstützte der König die Gebrüder Petri. Da die Bevölkerung zunächst nicht in Kontakt mit dem protestantischen Gedankengut kam, wurde die Reformation schrittweise eingeführt. Viele Traditionen, die im deutschen Protestantismus aufgehoben werden sollten, wurden beibehalten. 1544 wurde Schweden zum evangelischen Reich erklärt. Vor allem das 17. Jahrhundert der schwedischen Geschichte ist geprägt von Versuchen seitens des Königshauses, eine Hegemonialstellung in Europa zu erlangen. Durch den Bürgerkrieg in Russland konnte Schweden die Kontrolle über Estland erlangen. Von 1611 bis 1613 fochten Dänemark und Schweden den Kalmarkrieg aus, der zu einem Sieg der Dänen und der Abgabe der Finnmark an das unter dänischer Herrschaft stehende Norwegen führt. Später schaltete sich Gustav II. Adolf aktiv in den Dreißigjährigen Krieg ein und eroberte weite Teile Norddeutschlands, darunter Vorpommern, das Erzbistum Bremen und das Bistum Verden. 1632 fiel er allerdings in der Schlacht bei Lützen. 1648 erlangte Schweden im Westfälischen Frieden große Küstengebiete auf dem Boden des Heiligen Römischen Reichs. Nach einem Krieg gegen Dänemark kam 1658 im Frieden von Roskilde das heutige Südschweden einschließlich des wichtigen Schonen hinzu. Ein jähes Ende fanden die Großmachtträume unter Karl XII., der im Großen Nordischen Krieg von den Russen und den Dänen geschlagen wurde. Schweden musste daraufhin seine Besitzungen im Baltikum abgeben. In diese Zeit fallen auch verschiedene Kolonialisierungsbestrebungen außerhalb Europas. Diese umfassten die Gründung von schwedischen Niederlassungen und Kolonien in Nordamerika (1638–1655) und Westafrika (1650–1659), scheiterten letztlich aber. Erst nach dem Verlust Finnlands an das russische Zarenreich 1809 und den Napoleonischen Kriegen, in deren Folge Schweden von Dänemark das Königreich Norwegen abgetreten bekam, endete die schwedische Verwicklung in Kriege und größere Kampfhandlungen. Die so oft beschworene schwedische Neutralitätspolitik nahm ihren Anfang. Sie war bis ins 20. Jahrhundert hinein jedoch nie eine offizielle politische Doktrin, sondern mehr Ausdruck pragmatischer Politik. So war man durchaus versucht (und hatte jeweils auch bereits mobilisiert), in der Schleswig-Holsteinischen Erhebung (1848–1851) und im Deutsch-Dänischen Krieg (1864) um das Herzogtum Schleswig und Südjütland auf Seiten Dänemarks einzugreifen sowie Norwegens Unabhängigkeitserklärung von Schweden 1905 militärisch zu verhindern. Weitere Krisensituationen ergaben sich für Schweden insbesondere im Zweiten Weltkrieg, als man im sogenannten Winterkrieg zwischen Finnland und der Sowjetunion 1939/40 Finnland mit Freiwilligen und Hilfsgütern unterstützte, sowie nach dem Unternehmen Weserübung. Politisches System. Schweden ist eine parlamentarisch-demokratische Monarchie. Staatsoberhaupt ist seit 1973 König Carl XVI. Gustaf. Die Aufgaben des Staatsoberhauptes sind rein repräsentativ und zeremoniell; der König hat keine politischen Machtbefugnisse und nimmt nicht am politischen Leben teil. Das Einkammer-Parlament, der Reichstag (schwed. "Riksdag") hat 349 Abgeordnete und wird alle vier Jahre neu gewählt. Die acht im Reichstag vertretenen Parteien sind die konservative Moderate Sammlungspartei "(Moderata samlingspartiet, M)", die Liberale Partei "(Liberalerna, L)", die Zentrumspartei "(Centerpartiet, C)", die Christdemokraten "(Kristdemokraterna, KD)", die Grünen "(Miljöpartiet de Gröna, MP)", die Sozialdemokratische Arbeiterpartei Schwedens "(Sveriges socialdemokratiska arbetareparti, S)", die Linkspartei "(Vänsterpartiet, V)" und die Schwedendemokraten "(Sverigedemokraterna, SD)". Der Reichstag ernennt den Ministerpräsidenten "(statsminister)", der seinerseits die weiteren Minister (schwed. "statsråd") seiner Regierung ernennt. Schweden ist in 21 Provinzen (schwed. "län") gegliedert. Die staatlichen Verwaltungsaufgaben auf regionaler Ebene werden von einem Regierungspräsidenten (schwed. "landshövding") und einer Provinzialregierung (schwed. "länsstyrelse") wahrgenommen. Im Gegensatz zu den meisten Demokratien hat Schweden ein politisches System (dessen Ursprünge in den Verwaltungsreformen des Axel Oxenstierna liegen), in dem die Minister, also die Regierung, die ausführenden Organe nicht direkt steuern dürfen (Ostnordische Verwaltungsform, auch in Finnland gebraucht). Vielmehr sind es die unabhängig agierenden Zentralämter (schwed. "ämbetsverk") (beispielsweise Trafikverket, Skolverket – es gibt ungefähr 200 in unterschiedlicher Größe), welche die Aufgaben erfüllen, die in anderen Ländern von Ministerien oder Landesverwaltungen realisiert werden. Demgegenüber haben die Ministerien die Aufgabe, Gesetzesvorlagen auszuarbeiten und im besten Fall die Möglichkeit, die Arbeit der Zentralämter durch Verordnungen zu beeinflussen. Die kommunale Selbstverwaltung geschieht auf zwei Ebenen: den (seit 2003) 290 Gemeinden (schwed. "kommun") und den Provinziallandtagen (schwed. "landsting"), welche eine Art Kommunenverbund darstellen (nicht zu verwechseln mit den staatlichen "länsstyrelse"). Die Gemeinden nehmen die kommunalen Aufgaben, wie unter anderem das Schulwesen, soziale Dienstleistungen, Kinder- und Altenbetreuung sowie die kommunale Infrastruktur wahr, jedoch werden die Rahmenbedingungen von den zentralen Behörden, beispielsweise Skolverket, bestimmt. Die Provinziallandtage hingegen sind für diejenigen Bereiche der kommunalen Selbstverwaltung zuständig, die die Kraft einzelner Gemeinden übersteigen, wie unter anderem das Gesundheitswesen und die Krankenpflege, den Regionalverkehr und die Verkehrsplanung. Die Gemeinden und die Provinziallandtage finanzieren ihre Tätigkeit durch die Erhebung von Einkommenssteuern, mit Abgaben und staatlichen Zuschüssen. In Schweden gilt das Öffentlichkeitsprinzip, das heißt, dass behördliche Schriftstücke mit geringen Ausnahmen der Presse und allen Privatpersonen zugänglich sind. Niemand muss angeben, warum er ein Schriftstück einsehen möchte, noch muss man sich ausweisen. Es ist seit 1766 verfassungsrechtlich garantiert und ist damit die weltweit älteste Verfassungsregelung zur Informationsfreiheit. Auch auf dem Gebiet des Datenschutzes, des Gegenstücks zur Informationsfreiheit, gehört Schweden zu den Vorreitern: Während das weltweit erste Datenschutzgesetz 1970 in Hessen verkündet wurde, trat das weltweit erste "nationale" Datenschutzgesetz 1973 in Schweden in Kraft. Eine weitere skandinavische Besonderheit ist das System der Ombudsmänner (schwed. "ombudsman"). Sie sollen die Rechte des Einzelnen beim Kontakt mit den Behörden schützen und die Befolgung wichtiger Gesetze sicherstellen. Bürger, die meinen, ungerecht behandelt worden zu sein, können sich an die Ombudsmänner wenden, die den Fall untersuchen und eventuell als Sonderankläger vor Gericht bringen. Gleichzeitig sollen sie in Zusammenarbeit mit den Behörden die Lage in ihren jeweiligen Bereichen erfassen, Aufklärungsarbeit betreiben und Vorschläge für Gesetzesänderungen machen. Neben den Justizombudsmännern gibt es einen Verbraucherombudsmann, einen Kinderombudsmann und einen Diskriminierungsombudsmann. Schweden galt lange Zeit als sozialdemokratisches Musterland; es wurde von vielen europäischen Linken als gelungenes Beispiel für einen "dritten Weg" zwischen Sozialismus und Marktwirtschaft gesehen. Das hat sich spätestens seit den Reformen in den 1990er Jahren geändert. Am 14. September 2003 wurde in Schweden über die Einführung des Euro als Landeswährung abgestimmt. Die Einführung war im Vorfeld kontrovers diskutiert worden, und letztlich setzten sich die Euro-Skeptiker durch (Wahlbeteiligung: 81,2 %, Wahlausgang: 56,1 % dagegen, 41,8 % dafür, 2,1 % Enthaltungen, 0,1 % ungültig). Die Skeptiker sahen in der Euro-Einführung eine Bevormundung der schwedischen Währungspolitik durch die Europäische Zentralbank (EZB). Vor 2013 soll es nach der Ankündigung der schwedischen Regierung kein weiteres Referendum zur Einführung des Euro geben. Die Abstimmung wurde durch die Ermordung der schwedischen Außenministerin Anna Lindh schwer überschattet. Die Reichstagswahlen 2014 gewann keine der beiden großen Blöcke. Eine am 2. Oktober 2014 stattfindende Vertrauensabstimmung im Parlament gewann Stefan Löfven "(Sveriges socialdemokratiska arbetareparti)" und trat damit die Nachfolge von Fredrik Reinfeldt als Staatsminister (Ministerpräsident) an. Obgleich die rot-grüne Regierung Löfven über keine Mehrheit verfügt, wurde die Wahl möglich, weil sich sowohl die bürgerliche Opposition als auch die sozialistische Linkspartei der Stimme enthielt. Nachdem der Haushaltsentwurf der Regierung am 3. Dezember 2014 gescheitert war, weil die Oppositionsparteien gegen diesen Entwurf mehr Stimmen als die Regierung erreichten, kündigte Löfven Neuwahlen zum 22. März 2015 an.[6] Auf einer Pressekonferenz gab Löfven am 27. Dezember 2014 bekannt, dass in einem "Dezemberabkommen" der rot-grünen Minderheitsregierung mit den vier Oppositionsparteien der Bürgerlichen Allianz vereinbart wurde, dass diese bei der nächsten Abstimmung über das Budget 2015 den Vorschlag der Regierung nicht ablehnen werden. Die bereits angekündigten, aber offiziell erst am 29. Dezember 2014, also drei Monate nach der letzten Parlamentswahl auszurufenden Neuwahlen fanden daher nicht statt. Schweden wurde 2006 von Human Rights Watch aufgrund seines Mitwirken an der Überstellung des asylsuchenden Mohammed al-Zari nach Ägypten, der Missachtung des absoluten Folterverbots bezichtigt. Bei der Europawahl 2004 errang die Junilistan aus dem Stand 14,5 % der Stimmen und entsendet erstmals drei von 19 schwedischen Abgeordneten ins Europaparlament. Bei der Europawahl 2009 errang die schwedische Piratpartiet (eine Piratenpartei) aus dem Stand 7,1 % der Stimmen und entsendet erstmals einen der 18 schwedischen Abgeordneten ins Europaparlament. Die PP wurde damit fünftstärkste Partei, nach den Parteien Arbetarepartiet-Socialdemokraterna (24,6 %), Moderata samlingspartiet (18,8 %), Folkpartiet liberalerna (damaliger Parteiname der Liberalerna) (13,6 %) und Miljöpartiet de gröna (10,8 %). Das bemerkenswert hohe Ergebnis der Piratenpartei, deren Hauptforderung „ein reformiertes Urheberrecht“ ist, wird auf die hohe Aufmerksamkeit der schwedischen Bevölkerung auf die Verurteilung von vier Verantwortlichen des Torrent-Portals The Pirate Bay zu Haftstrafen Mitte April 2009 zurückgeführt. Bei der Europawahl 2014 errang die schwedische Feministiskt initiativ aus dem Stand 5,3 % der Stimmen und entsendet erstmals einen der 20 schwedischen Abgeordneten ins Europaparlament. Der Demokratieindex der Zeitschrift The Economist weist Schweden nach Norwegen als das zweitdemokratischste Land der Welt aus. Staatliche Verwaltungsgliederung. Die staatliche Verwaltung Schwedens ist derzeit in 21 Provinzen "(län)" unterteilt. Diese lehnen sich teilweise an die historischen Provinzen "(landskap)" an, in die das Reich bis 1634 eingeteilt war, was sich in der Namensgebung der Provinzen spiegelt. Mehr oder weniger deckungsgleich sind Gotland, Skåne, Blekinge, Östergötland, Värmland, Dalarna und Jämtland; in anderen Fällen sind die historischen Provinzen in mehrere heutige Provinzen aufgeteilt (z. B. das alte Småland) oder aber sind mehrere historische Landschaften in einer einzigen Provinz zusammengefasst (z. B. im Fall des heutigen Västra Götalands län). Eine Reform dieses Systems steht jedoch bevor und hat in Västra Götaland und Skåne bereits begonnen, wo mehrere Provinzen zu einer Großprovinz zusammengefasst wurden. Diese Entwicklung wird sich fortsetzen und soll bis 2014 abgeschlossen sein; das Ziel ist, dass Schweden dann in 8–10 Großprovinzen eingeteilt ist. Kommunale Verwaltungsgliederung. Die kommunale Selbstorganisation findet auf der Ebene der Provinziallandtage und der Gemeinden statt; dabei sind die Provinziallandtage derzeit für das Gesundheitswesen, die Kulturpflege und gemeinsam mit den Gemeinden für den öffentlichen Nahverkehr zuständig. Provinziallandtage und Regionen "(sekundärkommuner)". Derzeit decken sich die Gebiete der Provinziallandtage/Regionen mit den zugehörigen Provinzen; jede Provinz hat einen Provinziallandtag. In den Provinzen, in denen es zu einer Zusammenschlagung der Provinziallandtage zu Regionen gekommen ist (Västra Götaland, Skåne) hat man auch die Provinzen entsprechend zusammengefasst. Ebenfalls Regionen gebildet haben 2010 Halland und Gotland. Diese Regionen werden wohl permanent verbleiben; die Zusammenfassung der Provinziallandtage im Übrigen ist jedoch ein Prozess, der sich fortsetzen wird; welche Provinziallandtage zu welchen Regionen zusammengefasst werden ist jedoch vor allem in Mittelschweden noch unklar; ein Beschluss dazu wird 2014 erwartet. Ab 2015 soll dann die neue Gliederung in Kraft treten; dabei darf eine Provinz ein oder mehrere Provinziallandtage/Regionen enthalten, eine Provinzgrenze wird jedoch nicht quer durch einen Provinziallandtag verlaufen. Gemeinden "(primärkommuner)". Die Gemeinden stellen die Verwaltungseinheit unter den Provinziallandtagen dar. In Schweden gibt es 290 Gemeinden. Polizei und Militär. Die schwedische Polizei "(Polisen)" verfügt über ca. 26.000 Mitarbeiter, davon mehr als 18.000 Polizisten. Neben dem Reichspolizeiamt "(Rikspolisstyrelsen)" gibt es 21 Polizeibehörden "(Polismyndigheter)" in den Provinzen des Landes. Die schwedische Sicherheitspolizei "(Säkerhetspolisen)" ist ein Nachrichtendienst mit polizeilichen Befugnissen. Die schwedischen Streitkräfte (schwedisch "Försvarsmakten") bestehen aus den vier Teilstreitkräften Die schwedische Armee ist formell als Verwaltungsbehörde organisiert. Als solche untersteht sie direkt der schwedischen Regierung und nicht, wie in vielen anderen Staaten, dem Verteidigungsminister. Den Oberbefehl sowohl in Friedens- als auch in Kriegszeiten führt ein Vier-Sterne-General mit dem Titel "Överbefälhavaren". Die elf- bis siebzehnmonatige Wehrpflicht wurde am 1. Juli 2010 ausgesetzt, nachdem seit Ende des Kalten Krieges bereits immer weniger Soldaten eingezogen wurden (45.000 Wehrdienstleistende im Jahr 1975 gegenüber 15.000 Wehrdienstleistenden im Jahr 2003). In Krisenzeiten kann die Regierung die allgemeine Wehrpflicht, aus Gründen der Gleichstellung auch für Frauen, per Beschluss wieder einführen. Der Verteidigungshaushalt beträgt umgerechnet etwa 4,2 Milliarden Euro (40 Mrd. SEK, Stand: 2010), worin alle laufenden Aufwendungen für die Streitkräfte und Ausgaben für Forschung und Entwicklung sowie die Materialbeschaffung enthalten sind. Europapolitik. Aufgrund des Kalten Krieges sah Schweden einen Beitritt zu den Europäischen Gemeinschaften vor 1989 als unvereinbar mit seiner Neutralitätspolitik an. 1995 trat Schweden in der vierten Erweiterungsrunde der EU bei. Die schwedische Regierung setzt sich für eine EU ein, die transparent arbeitet, Gleichberechtigung fördert und eine friedliche Globalisierung als Priorität versteht. Das Land sprach sich für die Erweiterung um die Länder Mittel- und Osteuropas, darunter auch die baltischen Staaten aus. Ferner gehört Schweden zu den stärksten Befürwortern eines EU-Beitritts der Türkei. Vom 1. Juli bis zum 31. Dezember 2009 hatte Schweden die Präsidentschaft des Europäischen Rates inne. Wirtschaft. Noch in der ersten Hälfte des 19. Jahrhunderts war Schweden ein ausgeprägter Agrarstaat, in dem 90 % der Bevölkerung von der Landwirtschaft lebten. Erst in der zweiten Hälfte des 19. Jahrhunderts setzte eine umfassende Industrialisierung ein, die bis zur Weltwirtschaftskrise von 1929 die Grundlagen für eine moderne Industriegesellschaft legte. Die Industrialisierung basierte anfänglich auf gutem Zugang zu Rohstoffen und der Verarbeitung dieser Ressourcen an Ort und Stelle (beispielsweise Eisenerz mit Hütten in Svealand, unendliche Wälder im Norden, „unendliche“ Sägewerke an der Norrländischen Küste). Erst in den 1890er-Jahren bildete sich eine sehr fortschrittliche Werkstattindustrie, vor allem in Mittelschweden, heraus (beispielsweise Nobel AB, ASEA (heute ABB), Bahco, LM Ericsson, Alfa Laval, SKF). Nach dem Zweiten Weltkrieg wurde Schweden zu einer der führenden Industrienationen der Welt. Die Entwicklung erreichte in der Mitte der 1960er-Jahre ihren Höhepunkt, seit den 1970er-Jahren geht die Anzahl der Beschäftigten in der Industrie zurück, während der Dienstleistungsbereich wächst. 2000 betrug der Anteil der Landwirtschaft am BIP nur noch 2 % und der des sekundären Sektors 28 %, während 70 % des BIP durch den tertiären Sektor erwirtschaftet wurden. Die offizielle Arbeitslosenquote in Schweden beträgt 9,5 % (Juni 2010) – die Zahl ist aber umstritten, da eine große Anzahl von Arbeitslosen in der Statistik als Studenten oder Langzeitkranke aufgeführt werden. Die im September 2006 gewählte liberal-konservative Regierung hat vor, die Statistik an internationale Normen anzupassen, um realistische Vergleiche mit anderen Ländern vornehmen zu können. Land- und Forstwirtschaft. Die schwedische Landwirtschaft ist durch die geologischen Voraussetzungen und das Klima geprägt. 10 % der Staatsfläche werden landwirtschaftlich genutzt. 90 % der Anbaufläche befinden sich in Süd- und Mittelschweden. Ein Großteil der Landwirtschaftsbetriebe sind in Familienbesitz. Angebaut werden vor allem Getreide, Kartoffeln und Ölpflanzen. Mehr als die Hälfte der landwirtschaftlichen Einnahmen (58 %) wird aber durch die Tierhaltung erwirtschaftet, hier vor allem durch die Milchproduktion. Die Landwirtschaftssubventionen der EU belaufen sich auf 24 % der Einnahmen. Drei Viertel der landwirtschaftlichen Betriebe verfügen auch über Wald und verbinden Landwirtschaft mit Forstwirtschaft. Die Forstwirtschaft ist von einiger Bedeutung, da Schweden eines der waldreichsten Länder der Erde ist; 56 % der Staatsfläche ist von Wald bedeckt. Bergbau und Industrie. Schweden ist reich an Bodenschätzen, die schon ab dem Mittelalter abgebaut wurden. Eisenerz wird, nach der Eisen- und Stahlkrise der 1970er-Jahre, nur noch in Norrland (Kiruna, Gällivare-Malmberget) abgebaut und exportiert. Kupfer, Blei und Zink übersteigen den Eigenbedarf um das Mehrfache und werden ebenfalls exportiert, während Silber zu 60 % und Gold zu 80 % den Eigenbedarf decken. Größere Erzreserven sind vorhanden, deren Abbau ist aber zurzeit unwirtschaftlich. Was die schwedische Industrie auszeichnet, ist der verhältnismäßig hohe Anteil von Großunternehmen. Nach einer Krise am Beginn der 1990er-Jahre (mit einem Produktionsrückgang von 10 % innerhalb von zwei Jahren) hat sich die Industrie wieder erholt. Die größten Industriezweige sind Fahrzeugbau (1996: 13 % der industriellen Wertschöpfung) mit Unternehmen wie Volvo, Scania, Saab Automobile, Saab AB (Flugzeuge und Raumfahrttechnik) und andere, die Holz- und Papierindustrie (ebenfalls 13 % der industriellen Wertschöpfung) mit vier Großunternehmen, der Maschinenbau (12 % der industriellen Wertschöpfung) mit Unternehmen wie Electrolux, SKF, Tetra-Pak und Alfa Laval und die Elektro- und Elektronikindustrie (10 % der industriellen Wertschöpfung) mit den dominierenden Unternehmen Ericsson und ABB. Seit 2006 finden in ganz Schweden mit Schwerpunkt auf dem hohen Norden verstärkte Anstrengungen bei der Suche nach Erzen statt. Die Samen befürchten dabei erhebliche negative Auswirkungen des Bergbaus auf die Rentierwirtschaft und die empfindliche Natur Hauptenergiequellen. Elektrische Energie wird in Schweden vor allem durch Wasserkraft und Kernenergie produziert: im Jahr 2001 stammten 50,8 % aus Wasserkraftwerken an den großen Flüssen (Luleälv, Indalsälv, Umeälv und Ångermanälv) im Norden des Landes und etwa 43 % aus Kernkraftwerken. Nur ungefähr 4 % der Stromproduktion stammt aus fossilen Energieträgern. Auch am Primärenergieverbrauch hat die Wasserkraft einen erheblich Anteil: 2011 lieferte sie rund 15 %. Unter den Mitgliedstaaten der Europäischen Union trägt Schwedens Wasserkraft am meisten zur Versorgung aus erneuerbaren Energiequellen bei: Im Jahre 2011 wurden 66 TWh erzeugt – das entspricht mehr als 20 % der insgesamt in den EU-Ländern erzeugten Energie aus Wasserkraft. 2015 kündigte die Regierung an, vollständig aus der Nutzung fossiler Energieträger aussteigen zu wollen, um die Energiewende sowie den Klimaschutz voranzubringen. Zugleich sollen erneuerbare Energien, Energieeffizienzmaßnahmen, Speicher und nachhaltige Verkehrslösungen stärker gefördert werden. Atomausstieg. Nach der partiellen Kernschmelze in Three Mile Island in den USA (1979) wurde in Schweden eine Volksabstimmung gegen Kernenergie erfolgreich durchgeführt. Das hatte zur Folge, dass das Parlament 1980 entschied, keine weiteren Kernkraftwerke mehr zu bauen und die zwölf vorhandenen bis 2010 abzuschalten. Dieser Ausstiegsplan wurde nur teilweise vollzogen. 1997 nahm der Schwedische Reichstag die Vorlage über „eine nachhaltige Energieversorgung“ an. Diese bestimmte unter anderem, einen der Reaktoren am Standort Barsebäck vor dem 1. Juli 1998 und den zweiten vor dem 1. Juli 2001 stillzulegen, allerdings unter der Voraussetzung, dass deren Stromproduktion kompensiert werden kann. Der frühere Beschluss, alle Reaktoren bis 2010 stillzulegen, wurde aufgehoben. Barsebäck Block 1 wurde schließlich am 30. November 1999 stillgelegt, Barsebäck Block 2 am 1. Juni 2005. Der Verzicht auf die Nutzung der Kernenergie wird in Schweden kontrovers diskutiert. Die Industrie befürchtet den Verlust einer preiswerten Stromerzeugung und damit eine Beeinträchtigung ihrer internationalen Wettbewerbsfähigkeit. Zudem betonen Kritiker, dass ein Verzicht auf die Kernenergienutzung ohne über ausreichende andere und verlässliche Stromerzeugungstechniken zu verfügen erhebliche negative Folgen für die schwedische Volkswirtschaft haben könne. Die Leistung der drei noch in Betrieb befindlichen Kernkraftwerke ist in den letzten Jahren erheblich gesteigert worden. Diese Steigerung ermöglichte die Kompensation des 2005 abgeschalteten Kernkraftwerks Barsebäck. Eine Ausnutzung von vorhandenen weiteren großen Wasserkraftpotenzialen ist nicht möglich. Der Schwedische Reichstag beschloss 1998, aus Naturschutzgründen keine weiteren Ausbauten von Gewässern zuzulassen. Per Gesetz geschützt sind die Flüsse Kalixälv, Piteälv, Torneälv und Vindelälv. Die Betreiber von Kernkraftwerken gehen von einer Nutzungszeit der bestehenden Anlagen etwa bis zum Jahr 2050 aus. Diesbezüglich gab es 2004 einen Beschluss des Parlaments, dass ein Ausstieg „in den nächsten 30 bis 40 Jahren“ anzustreben sei. Im Januar 2008 sprach sich Jan Björklund, der Vorsitzende der liberalen Partei Schwedens, für einen Neubau von vier weiteren Reaktoren aus. Eine Umfrage ergab, dass 40 % der Schweden diesen Plänen zustimmen, wohingegen 42 % lediglich den Betrieb der derzeitigen Anlagen befürworten, nicht aber einen Neubau weiterer Anlagen. Am 5. Februar 2009 beschloss der Schwedische Reichstag den Neubau von zehn Reaktoren in den drei bestehenden Kraftwerken. November 2014 erklärte der Direktor des Staatskonzerns Vattenfall, Magnus Hall, alle Pläne zum Ausbau der Atomenergie in Schweden auf Eis gelegt zu haben – einer Übereinkunft der rot-grünen Regierung folgend. 2015 soll eine parlamentarische Energiekommission auf Initiative von Energieminister Ibrahim Baylan ein neues Zukunftskonzept zur Versorgung Schwedens mit nachhaltiger Energie erarbeiten. Mittelfristig sollen 3 Kernkraftwerksblöcke geschlossen werden. Vattenfall kündigte an, zwei Blöcke im Kernkraftwerk Ringhals 2018 bzw. 2020 schließen zu wollen, während EON einen Betrieb von Oskarshamn 2 gegen 2020 aufgrund wirtschaftlicher Probleme einstellen will, da sich eine notwendige Modernisierung nicht lohne. Ölausstieg. Um die Ziele zu erreichen sollen bis zum Jahr 2020 mindestens 75 Prozent aller neuen Gebäude in Niedrigenergiebauweise errichtet werden. Bestehende Häuser sollen modernisiert und auf Fern bzw. Nahwärme, Biokraftstoffe oder Wärmepumpenheizungen umgerüstet werden. Im Jahr 2013 war Schweden das Land, in dem die Energiewende weltweit am weitesten vorangeschritten war. Dienstleistungen. Der Dienstleistungsbereich erwirtschaftet heute 70 % des BIP, was sich vor allem darauf zurückführen lässt, dass der öffentliche Sektor in den letzten Jahrzehnten so stark gewachsen ist. Dennoch steht der private Dienstleistungsbereich für mehr als zwei Drittel der Produktion. Außenhandel. Schwedens Wirtschaft ist stark vom internationalen Handel abhängig. Die wichtigsten Exportländer sind die USA (11,9 % des Exportes im ersten Quartal 2004), Deutschland (10,2 %), Norwegen (8,3 %) und Großbritannien (7,8 %). Die wichtigsten Exportprodukte sind Maschinen (15,5 % des Exportes im ersten Quartal 2004), Elektro- und Elektronikprodukte (14,9 %) und KFZ und KFZ-Bestandteile (14,4 %). Die wichtigsten Importländer sind Deutschland (19 % des Importes im ersten Quartal 2004), Dänemark (8,8 %) und Großbritannien (8 %). Die wichtigsten Importprodukte sind Elektro- und Elektronikprodukte (16,8 % des Importes im ersten Quartal 2004), Maschinen (11,4 %) und KFZ und KFZ-Bestandteile (11,3 %). Vergleichsweise hoch ist der Anteil ausländischer Direktinvestitionen in Schweden. Das kann darauf zurückgeführt werden, dass die schwedische Wirtschaft von einer kleinen Anzahl international tätiger Konzerne dominiert wird. Etwa 50 Konzerne kommen für zwei Drittel des schwedischen Exportes auf. Schweden ist der zehntgrößte Rüstungsexporteur der Welt. Fremdenverkehr. Der Fremdenverkehr trägt mit etwa 3 % (3,3 Mrd. Euro, 2000) zu Schwedens BIP bei. Vier Fünftel der Touristen sind Inländer und nur ein Fünftel kommt aus dem Ausland. Von den Auslandstouristen kamen 1998 23 % aus Deutschland, 19 % aus Dänemark, 10 % aus Norwegen und je 9 % aus Großbritannien und den Niederlanden. Staatshaushalt. Der Staatshaushalt umfasste 2009 Ausgaben von umgerechnet 221,1 Milliarden US-Dollar, dem standen Einnahmen von umgerechnet 217,9 Mrd. US-Dollar gegenüber. Daraus ergibt sich ein Haushaltsdefizit in Höhe von 0,8 % des BIP. Die Staatsverschuldung betrug 2009 144,1 Mrd. US-Dollar oder 35,8 % des BIP. Eisenbahn. Schweden besitzt ein gut ausgebautes Eisenbahnnetz, das vor allem im dichter besiedelten Süden die wichtigsten Städte miteinander verbindet. Größter Anbieter sind die Statens Järnvägar (SJ). Daneben existieren mehrere kleinere Eisenbahngesellschaften mit lokaler Bedeutung. In den letzten Jahren ist das Eisenbahnnetz aus ökonomischen Gründen verkleinert worden. Das betraf beispielsweise die Inlandsbahn nach Nordschweden. Von Bedeutung ist der Hochgeschwindigkeitsverkehr mit dem modernen SJ X2, der Stockholm, Göteborg, Malmö/Kopenhagen und mehrere kleinere Städte miteinander verbindet. Schweden ist mit Dänemark zwischen Malmö und Kopenhagen über die Öresundverbindung verbunden. Größter Logistikanbieter im Schienengüterverkehr ist die Green Cargo AB. Straße. Schweden besitzt ein sehr gut ausgebautes Straßennetz mit einer guten Infrastruktur an Raststätten, das auf stärker frequentierten Strecken autobahnartig ausgebaut wird. Autobahnen "(motorväg)" verbinden hauptsächlich die drei Ballungsregionen um Stockholm, Göteborg und Malmö. Über die Öresundbrücke verläuft eine mautpflichtige Autobahn. Weit verbreitet sind bei Fernstraßen dreispurige Straßen, wobei die mittlere Spur als Überholspur jeweils einer Richtung benutzt wird. Diese Straßen bieten, kostengünstiger als Autobahnen, erheblich mehr Sicherheit als gewöhnliche Landstraßen. Landstraßen und kleinere Wege sind in ganz Schweden oft unbefestigt. Bis 1967 herrschte in Schweden Linksverkehr. (Siehe Hauptartikel "Dagen H", der 3. September 1967, an dem der Rechtsverkehr eingeführt wurde) Überlandbus. Überlandbusse stellen ein beliebtes Verkehrsmittel dar, weil sie preisgünstig sind und ein engmaschiges Netz anbieten. Flugverkehr. Von großer Bedeutung bei den längeren Inlandsverbindungen beispielsweise nach Nordschweden ist der Flugverkehr. Fast jede Mittel- und Großstadt verfügt über einen Verkehrsflughafen. Die größten Flughäfen sind die Flughäfen Stockholm-Arlanda, Göteborg-Landvetter, Stockholm-Skavsta sowie der Flughafen Malmö. Schifffahrt. Als Land mit einer langen Küstenlinie und vielen natürlichen Seehäfen hat Schweden traditionell eine weit entwickelte Schifffahrt. Insbesondere die Küstenschifffahrt und die Fährverbindungen besitzen eine hohe Bedeutung. Wichtige Häfen befinden sich in Göteborg, in Malmö, in Helsingborg, in Trelleborg, in Karlshamn, in Karlskrona und im Raum Stockholm. Marktführer der Personen- und Fahrzeugbeförderung mit Fähren ist die Stena Line. Radio und Fernsehen. Die öffentlich-rechtliche Fernsehgesellschaft Sveriges Television AB (SVT) sowie Sveriges Radio haben ihren Sitz in Stockholm. Dort befindet sich auch seit Anfang der 90er Jahre das private TV4, während das Ende der 1980er-Jahre gegründete private TV3 in London ihren Sitz fand, um das damalige Monopol von SVT zu umgehen. Nachdem in den 80er Jahren Kabelfernsehen eingeführt wurde und somit auch ausländische Privatsender in Schweden zu sehen waren, wurden ab 1990 auch schwedische Anbieter für privates Radio und Fernsehen zugelassen. Printmedien. Überregionale Tageszeitungen sind die in Stockholm erscheinenden Dagens Nyheter, Svenska Dagbladet und Dagens Industri. Zu weiteren Printmedien siehe auch die Liste von Zeitungen. Musik. Seit ABBA gilt schwedische Popmusik als Exportschlager. Doch selbst Chormusik aus Schweden – die von traditioneller Folklore über die beliebten Trinklieder bis zu klassischer Chorliteratur eine große Bandbreite bietet – hat in Deutschland eine Anhängerschaft, die zur Gründung einiger speziell darauf ausgerichteter Chöre geführt hat: Unter anderem „De tokiga trollen" aus Leverkusen, „Schwedischer Chor München"„Swensk Ton" in Frankfurt oder „Der Schwedische Chor in Stuttgart". Volksmusik. Zu den ältesten Volksmelodien dürften die Weisen der schwedischen Kuhhirtinnen gehören "(vallåt)". Die Melodien sind Signalrufe für andere Kuhhüterinnen, die verschiedene Bedeutungen haben können (verlorenes Tier, wiedergefundenes Tier usw.) oder direkte Anweisungen an die Herde (Rast, Schlaflieder, Weidelieder usw.). Ob die Melodiefolgen durch Musikinstrumente (Kuhhörner, Luren) geprägt sind oder von Anfang an gesungen wurden, kann nicht mit Sicherheit bestimmt werden. Viele Hirtenweisen sind in die Tanzmusik übergegangen oder dienten als Quelle für die nationalromantische klassische Musik (Alfvén, Atterberg). In der Tanzmusik, die sich wohl vor allem im Barock entwickelte, dominieren die Geige (Spielmannsmusik), die sich seit Ende des 17. Jahrhunderts in Schweden verbreitete, und die Tanzformen der Polka (ursprünglich aus Böhmen), des Menuetts und der Polska. Dabei ist man sich nicht einig, inwieweit die Tanzform der Polska teilweise bereits als Bauerntanz vor polnischen Einflüssen im 16. und 17. Jahrhundert existierte. Vor dem allgemeinen Gebrauch der Geige waren die Schlüsselfidel (schwedisch "nyckelharpa", seit dem Spätmittelalter gebräuchlich) und die Sackpfeife übliche Volksinstrumente. Die nyckelharpa konnte sich als Instrument bis in die Gegenwart halten. Nach technischen Weiterentwicklungen (chromatische Nyckelharpa) erlebt sie heute einen neuen Aufschwung auch außerhalb der Volksmusik, beispielsweise in der Musik der Mittelalterszene. Die schwedische Volksmusik geriet durch die pietistischen und frömmlerischen Bewegungen auf dem Lande im Laufe des 19. Jahrhunderts in starke Bedrängnis. Instrumente der Volksmusik galten als Troll- und Teufelszeug. Entscheidend zum Überleben der Volksmusik beigetragen hat der Maler Anders Zorn, der unterhalb des Gesundaberges am Siljanssee nahe seinem Heimatort Mora in Dalarna seit 1906 Volksmusikwettbewerbe durchführte. Auf diese Weise gelang es ihm, die alten Melodien und Instrumente wieder populär zu machen. Eine ähnliche Gefährdung erlebte die samische Volksmusik, der Joik und die Samentrommel, die während der Zeit der Missionierung im 17. und 18. Jahrhundert als Teufelsmusik verpönt waren. Die Trommeln wurden systematisch eingesammelt. Der Joik ist ein Lied, das im Text und lautmalerisch in der Melodie die Natur, Tiere, Menschen, freudvolle oder traurige Ereignisse beschreibt. Die Trommeln wurden im Rahmen von schamanistischen Bräuchen verwendet (Wahrsagen, Opfer, Voraussagen usw.). Bekannte zeitgenössische Volksmusiker und Sänger sind z. B. Ulrika Bodén, Emma Härdelin, Lena Willemark, Anders Norudde und Benny Andersson. Kunstmusik. Johan Helmich Roman (1694–1758) gilt als eigentlicher Vater der schwedischen Kunstmusik. Roman orientierte sich an Georg Friedrich Händel, schrieb Tafelmusik "(Drottningholmsmusiken)", aber auch die erste schwedischsprachige Messe "(Then svenska messan)". Unter Gustav III. erlebte die Oper eine erste Blütezeit (damals entstanden auch Werke mit betont nationalen Inhalten wie etwa Johann Gottlieb Naumanns „Gustav Vasa“). Franz Berwald (1796–1868) und Adolf Fredrik Lindblad (1801–1878) gehören zu den ersten bedeutenden Sinfonikern, die an die deutsche Klassik und Romantik anknüpfen. Für beide ist Beethoven das große Vorbild. Berwald erlangte mit seinen Sinfonien auch internationale Anerkennung und schrieb erste Tondichtungen (Älvalek). Lindblad erlangte vor allem wegen seiner Chorwerke und Lieder große Beliebtheit. Ludvig Norman (1831–1855) dominierte als Sinfoniker die Mitte des 19. Jahrhunderts. Seine Symphonien schließen an die romantische Musik Niels Wilhelm Gades an und stehen der deutschen Romantik Schumanns und Mendelssohns nahe. Ivar Hallström folgte mit seinen Opern (Den Bergtagna) und Balletten französischen Vorbildern. Dagegen schloss sich Andreas Hallén der neudeutschen Schule an mit seinen Tondichtungen „Die Toteninsel“ oder seiner Oper „Harald Viking“, in der Anklänge an Wagners Werk unverkennbar sind. Die Volksmusik und ihr reicher Melodienschatz wurde von August Söderman „wiederentdeckt“. Mit seinen Tanzsuiten, seiner Schauspielmusik und Chorwerken versucht er eine nationale schwedische Musiksprache zu finden. Seine Versuche wurden zur Inspirationsquelle der Spätromantiker. Die Musik der Jahrhundertwende wurde von mehreren großen Persönlichkeiten geprägt, denen es gelang, eine nationale schwedische aber auch sehr persönliche Musiksprache zu schaffen: Wilhelm Stenhammar, Hugo Alfvén und Wilhelm Peterson-Berger. Wilhelm Stenhammar ist von den dreien der „klassischste“ und der überlegene Beherrscher der musikalischen Großformen (Sinfonien, Klavierkonzerte, Kantaten). Brahms und Wagner sind für seine Musiksprache Vorbilder. Hugo Alfvén schuf mit seinen Rhapsodien (Midsommarvaka, Uppsala rapsodi, Dalarapsodi), die schwedische Volksmusik als Motive verwenden, eine nationale schwedische Musiksprache. Wilhelm Peterson-Berger schuf bedeutende Sinfonien, Opern (Arnljot) und Klavierwerke (Frösöblomster, I Somras), in denen er großartige Naturstimmungen in Klang und Melodie umsetzt. Auch er steht Wagner nahe, aber auch Edvard Grieg und klingt zuweilen überraschend modern und erinnert in seinen Klängen an den Impressionismus Debussys, den er eigentlich ablehnte. Die Spätromantik ist intensiv und dauert bis um 1950 an. Dominante Musikerpersönlichkeit dieser Zeit ist Kurt Atterberg mit seinen Sinfonien, deren Musiksprache sich an Richard Strauss orientiert. Auch Atterberg gelingen ungewöhnliche Klangfarben zur Schilderung von Naturstimmungen, die zum Teil sein Vorbild Strauss an Raffinesse noch übertreffen. In den 1930er-Jahren beginnt eine Gruppe von Komponisten, die sogenannten „30-talisterna“, an neuere Musikströmungen anzuknüpfen mit neoklassizistischen Werken (Lars-Erik Larsson, Gunnar de Frumerie, Dag Wirén). Hilding Rosenberg wird mit seinen gewaltigen Sinfonien, die sich inhaltlich mit komplexen geistigen Zusammenhängen auseinandersetzen (Johannesapokalypse), zum großen Neuerer der Sinfonik. Karl-Birger Blomdahl setzt mit seiner Weltraumoper „Aniara“ (1959) neue Maßstäbe für die Entwicklung der modernen Musik in Schweden, in dem er auch elektronische Klänge (Tonband) einführt, obwohl die Musik sich zu einem großen Teil noch sehr konservativ an der neoklassizistischen Tonsprache der 1940er-Jahre orientiert. Heute ist Schweden international für seine Popmusik bekannt. Bands wie ABBA, Roxette, Ace of Base und Army of Lovers sind weltbekannt. Film. Um 1910 begann man mit der regelmäßigen Produktion von Spielfilmen. Der schwedische Film erreichte bald eine Qualität, die ihn international bekannt machte. Die Regisseure Victor Sjöström und Mauritz Stiller sowie die Schauspielerin Greta Garbo erlangten Weltruhm. Aber mit der Einführung des Tonfilmes und der damit verbundenen Begrenzung auf den kleinen, schwedischsprachigen Markt sank der Film auf ein provinzielles Niveau ohne künstlerischen Anspruch ab. Mit Ingrid Bergman hatte Schweden allerdings bereits den zweiten großen Hollywoodstar. Erst nach dem Zweiten Weltkrieg erlebte der schwedische Film selbst einen neuerlichen künstlerischen Aufschwung, zuerst im Dokumentarfilm, beispielsweise Arne Sucksdorffs 1948 mit dem Oscar ausgezeichneten Film „Menschen in der Stadt“, und danach als Autorenfilm mit Ingmar Bergman, Jan Troell und Bo Widerberg als herausragende Persönlichkeiten. Bergman erreichte mit Filmen wie Wilde Erdbeeren, Szenen einer Ehe, Das siebente Siegel, Herbstsonate und Fanny und Alexander einen weltweit legendären Status. Auch schwedische Kinder- und Jugendfilme, zumeist von Olle Hellbom nach einer Vorlage von Astrid Lindgren verfilmt, erlangten internationale Aufmerksamkeit. Die Schaffung des Schwedischen Filminstitutes in den 1960er-Jahren trug zu einer Qualitätssicherung bei, die bis heute andauert. Sport. "Idrott" (Leibesübungen) haben in Schweden eine lange Tradition. Schon in den Höhlenzeichnungen wurden Skiläufer und Schwimmer abgebildet. Olaus Magnus beschreibt Leibesübungen als Teil der nationalen Identität im 15. Jahrhundert. Bei den Olympischen Spielen 1912 (in Stockholm) war Schweden zusammen mit den USA das mit Abstand erfolgreichste Land. Um vor allem gegenüber den Nachbarn Dänemerk, Norwegen und Finnland zu glänzen sowie die Überlegenheit der Schwedischen Gymnastik gegenüber dem Sport zu demonstrieren, gab es erhebliche Investitionen in die Förderung des Spitzensports. Durch das Einmischen des amerikanischen Präsidenten Theodore Roosevelt in die Olympischen Spiele 1908 waren zudem die Spiele so politisiert, dass es wichtig wurde zu gewinnen. Schweden umging die Amateurbedingungen der Zeit, indem es die Männermannschaft (sofern die Männer interessiert waren) zu sechs Monaten Wehrdienst einzog und insofern den Staatsamateur erfand. In Schweden erfreuen sich heute Mannschaftssportarten wie Eishockey, Handball, Innebandy, Bandy oder Fußball großer Beliebtheit, da sich hiermit die nationale Identität besser darstellen lässt als durch Individualsportarten - zumal das Herausstellen des Individuums nicht dem schwedischen Nationalcharakter entspricht. Daneben sind insbesondere Wintersportarten (speziell Langlauf) populär. Das Eishockeyteam Schwedens gehört zu den besten der Welt. Unter anderem spielen Spieler wie Peter Forsberg, Markus Naslund, Mats Sundin, Henrik Zetterberg, Nicklas Lidström, Daniel Alfredsson für das „Tre Kronor“-Team. Bei den Olympischen Winterspielen 2006 in Turin holten sie die Goldmedaille im Finale gegen den Erzrivalen Finnland. Das bedeutete zugleich den achten Weltmeistertitel für das schwedische Team. Die Damenauswahl konnte bei diesen Olympischen Spielen mit einem Sieg gegen die USA zum ersten Mal ein rein nordamerikanisches Finale verhindern. Im Endspiel scheiterte das Team aber an Kanada. Die erfolgreichsten schwedischen alpinen Skiläufer sind Ingemar Stenmark, Pernilla Wiberg und Anja Pärson. Die bekanntesten Schweden im nordischen Skisport sind die Langläufer Gunde Svan, Thomas Wassberg und Torgny Mogren sowie der Skispringer Jan Boklöv, der als Erfinder des sogenannten V-Stils gilt. Magdalena Forsberg ist die erfolgreichste Biathletin in der Geschichte des Weltcups. Schweden dominierte vor dem Zweiten Weltkrieg gemeinsam mit Österreich die Herrenkonkurrenz im Eiskunstlauf. Ulrich Salchow ist mit zehn Weltmeisterschaftstiteln bis heute unangefochten der erfolgreichste Eiskunstläufer bei Weltmeisterschaften. Gillis Grafström ist mit drei Olympiasiegen und einer Silbermedaille der erfolgreichste Eiskunstläufer bei Olympischen Spielen. Im Fußball stand Schweden 1958 bei der Fußball-Weltmeisterschaft im eigenen Land im Finale gegen Brasilien. 1950 und 1994 erreichte die Mannschaft Platz 3. Zuletzt spielten für das Nationalteam viele internationale Stars wie Henrik Larsson und Fredrik Ljungberg, derzeit noch Zlatan Ibrahimović und Olof Mellberg. An der Weltmeisterschaft 2006 in Deutschland nahmen sie ebenfalls teil, schieden aber im Achtelfinale nach einer Niederlage gegen Deutschland aus. Für die Weltmeisterschaft 2010 konnte sich Schweden aber nicht qualifizieren. Die Frauen-Nationalmannschaft gehört zu den besten der Welt und die schwedische Damallsvenskan gilt neben der deutschen Bundesliga als stärkste Liga Europas. 1954, 1958, 1990 und 1999 war die schwedische Männer-Handballnationalmannschaft Weltmeister. Europameister wurden das Land 1994, 2000 und 2002. 1992, 1996 und 2000 belegte das schwedische Handballteam jeweils den zweiten Platz bei den Olympischen Spielen. Aktuelle schwedische Nationalspieler sind unter anderem Stefan Lövgren, Marcus Ahlm, Pelle Linders, Kim Andersson, Mattias Andersson und Henrik Lundström. Der Schwede Magnus Wislander wurde zum Welt-Jahrhundert-Spieler gekürt. Im Tennis hat Schweden einige der weltbesten Spieler hervorgebracht. Dazu gehören der fünfmalige Wimbledonsieger Björn Borg (elf Grand Slam Titel), sowie Mats Wilander (sieben Grand Slam Titel) und Stefan Edberg (sechs Grand Slam Titel). Auch im Tischtennis kamen einige Weltklassespieler aus Schweden, so u. a. Jan-Ove Waldner (zweifacher Weltmeister) und Mikael Appelgren. Die Nationalmannschaft gehörte seit den 1980er Jahren zu den besten der Welt, konnte u. a. 1989, 1991 und 1993 dreimal in Folge die Weltmeisterschaft gewinnen und ist mit 14 Titeln Rekordeuropameister. Die letzten großen internationalen Erfolge (Weltmeister 2000, Europameister 2002) liegen jedoch inzwischen schon längere Zeit zurück. In der Mannschaftssportart Unihockey "(innebandy)" gewann das schwedische Herrenteam sechs der bisher sieben ausgetragenen Weltmeisterschaften; die schwedischen Damen gewannen zweimal den Weltmeistertitel. Neben Finnland und der Schweiz gehört Schweden zu den Gründungsvätern des Unihockey-Weltverbandes IFF. Auch im Motorsport gab es einige erfolgreiche Schweden wie z. B. die beiden Rallye-Weltmeister Björn Waldegard und Stig Blomqvist sowie in der Formel 1 den zweimaligen Vizeweltmeister Ronnie Peterson. Im Speedway gewannen Tony Rickardsson, Ove Fundin, Per Jonsson, Anders Michanek und Björn Knutsson insgesamt 14 Goldmedaillen für Schweden in der Speedway-Einzelweltmeisterschaft. Tony Rickardsson ist mit sechs WM-Titeln der erfolgreichste Speedwayfahrer aller Zeiten. Erik Stenlund und Per-Olof Serenius wurden jeweils Eisspeedway-Weltmeister. Anders Michanek gewann 1977 zudem noch die Langbahn-Weltmeisterschaft. Typisch schwedische Feste und Bräuche. Am 6. Januar wird "Trettondedag jul" (dreizehnter Weihnachtstag, auch "Trettondag jul") begangen. Dieser Tag entspricht dem deutschen Dreikönigstag und ist im hauptsächlich protestantischen Schweden ein staatlicher Feiertag. Am "Tjugondedag jul" (zwanzigster Weihnachtstag, auch "Tjugondag jul") oder "Tjugondag Knut" (13. Januar) ist die Weihnachtszeit vorbei. Es finden gelegentlich Abschlussfeste mit Weihnachtsbaumplünderung statt. Die Kerzen und der Schmuck werden entfernt und der Baum hinausbefördert. "Påsk" (Ostern) wird im ganzen Land gefeiert – bis in die 1970er Jahre hinein war der Karfreitag ein stiller Tag mit geschlossenen Geschäften und Trauermusik im Radio, heute ist das außer in strikt religiösen Kreisen Vergangenheit. Am Karsamstag laufen die Kinder als "Osterhexen (påskhäxor)" verkleidet herum, um Süßigkeiten oder Geld einzusammeln. Karfreitag und Ostermontag sind gesetzliche Feiertage. Der "Valborgsmässoafton" wird am 30. April gefeiert und entspricht der deutschen Walpurgisnacht. Das Volk versammelt sich um große Lagerfeuer. Es werden Reden über den Frühling gehalten und Frühlingslieder gesungen. Vor allem in den beiden alten Universitätsstädten Lund und Uppsala ist "Valborg" oder "Siste april" am Abend vor dem 1. Mai ein wichtiges Studentenfest. In Uppsala beginnt das Fest nach einem Sektfrühstück bereits um 10 Uhr, wenn selbstgebaute fantasievolle Boote beim Wettrennen durch den "Fyrisån" gesteuert werden. Im Anschluss an das feierliche Mützenaufsetzen um 15 Uhr zieht man im "champagne-galopp" den Carolinahügel hinunter bis in die überfüllten Studentenkneipen, wo ausgelassene Trinkgelage beginnen. Die Studenten feiern den beginnenden Frühling oft bis in die frühen Morgenstunden in den Parks und Straßen der Stadt mit Spielen, Picknick und übermäßigem Alkoholgenuss. Der 6. Juni, "Svenska flaggans dag", ist der offizielle Nationalfeiertag Schwedens. Ursprünglich als „Flaggentag“ 1916 ins Leben gerufen, ist der 6. Juni seit 1983 „Nationaltag“ und erst seit 2005 auch gesetzlicher Feiertag. Dieser Nationaltag wird jedoch nicht richtig gefeiert und unter der Bevölkerung als weithin unbedeutend empfunden. Das "Midsommarfest" wird an der ersten Nacht zum Samstag nach dem 21. Juni gefeiert. Die Heftigkeit des Feierns dieses Wochenendes ist nur mit Weihnachten vergleichbar. Wenn am Johannisabend Ende Juni das Sonnenlicht im Norden 24 Stunden lang zu sehen ist und im Süden nur wenige Stunden lang in blauen Dämmerschein übergeht, ist Schweden am schönsten. Der Feiertag ist eine uralte Tradition und wurzelt in den vorgeschichtlichen Sommersonnenwendfeiern. Um den mit Birkenreisig und Blumen geschmückten Maibaum, das vielleicht bekannteste schwedische Nationalsymbol, wird überall in Schweden getanzt und gesungen. Im ganzen Land herrscht ausgelassene Feststimmung. Im August kamen früher die ersten frischen Krebse auf den Markt. Das dazugehörige Fest wird "Kräftskiva" genannt und kann zu beliebigem Zeitpunkt stattfinden. Man isst, so viel man schafft, von den in einem kräftigen Dillsud gekochten Krebsen und trinkt dazu Schnäpse. Als Schmuck dienen Girlanden und lustige Hüte. In Nordschweden gibt es zum Ende des Sommers noch das "Surströmmingsskiva". Der Verzehr der in einer Dose vorgegorenen Heringe mit Kartoffeln oder tunnbröd (Dünnbrot – eine Vorstufe des Knäckebrots aus Norrland) erfordert aber unempfindliche Geruchsnerven. Das "Luciafest" beginnt am Morgen des 13. Dezembers und ist in Schweden der Tag der Lichterkönigin. Die älteste Tochter erscheint als Luciabraut in einem weißen Kleid und einem Kranz aus Preiselbeerzweigen und brennenden Kerzen auf dem Kopf. Die „Lussebrud“ weckt die Familie und serviert das Frühstück am Bett. Im ganzen Land werden Schulen und Arbeitsstätten in den frühen Morgenstunden von magisch schimmernden Luciazügen besucht. Junge Mädchen in fußlangen weißen Gewändern mit Kerzen auf dem Kopf und in den Händen werden von weißgekleideten jungen Männern begleitet, den „Sternjungen“, die bei dieser Gelegenheit einen langen, spitzen, mit einem Stern gekrönten Hut tragen. Zusammen singen sie die traditionellen Gesänge, die zur Vorweihnachtszeit und zu Weihnachten gehören. Von diesem Tag an und über die gesamte Weihnachtszeit hinweg isst man ein besonderes, mit Safran gewürztes und gefärbtes, Hefegebäck "(Lussekatter)". Sonstiges. In der Nähe von Kiruna in Esrange wird ein Raketenstartplatz für den Start von Höhenforschungsraketen betrieben. Siehe auch. Panoramafoto vom Fluss Österdalälven bei Idre nahe der Grenze zu Norwegen Spezialeffekt. Als Spezialeffekt (), auch (von englisch lautmalerisch „ef-eks“) bzw. kurz SPFX oder SFX (doppeldeutig mit SFX – sound effects), wird eine mechanische oder chemische Technik bezeichnet, um bestimmte außergewöhnliche Erscheinungen, wie etwa Explosionen, in Theater oder Film zu erzeugen. Im Gegensatz zu den Visuellen Effekten (VFX) werden Spezialeffekte direkt am Drehort erzeugt und gefilmt. Damit ist das gewünschte Ergebnis sofort überprüfbar. Anwendungsbereiche. Die Spezialeffekte sind eng verbunden mit anderen Institutionen wie zum Beispiel Stunttechnik und Maske. Der Übergang ist oft fließend. Bei vielen Spezialeffekten werden die gewünschten Ereignisse durch ähnlich wirkende Effekte simuliert, zum Beispiel zerbrechendes Glas (Filmglas), Blut (Filmblut), Schnee. Oft werden die gewünschten Ereignisse auch künstlich nachgestellt oder wirklich durchgeführt, zum Beispiel Regen, Feuer, Explosionen, einstürzende Gebäude oder Brücken. Bei der Körperbemalung ("bodypainting") bezeichnet man Spezialeffekte als die Kunstform, bei der dem Körper außer Farbe durch Pinsel, Schwamm und/oder Airbrush aufgetragen zusätzliche „Anbauten“ wie Latex-Masken, Perücken oder Ähnliches als Erweiterung zum Gesamtkunstwerk dienen. Funktionen der Spezialeffekte. Grundsätzlich erhöhen alle Effekte die sinnlichen Realitätseindrücke (vor allem optisch und auditiv), allerdings können sie auch zu deren parodistischer Überzeichnung eingesetzt werden. So zielen Spezialeffekte nicht nur auf die Steigerung der Erlebnisintensität des Zuschauers ab, sondern können durch Verweis auf sein Fiktionsbewusstsein den Zuschauer auch auf Distanz halten. In Genres wie z. B. Horror- oder Science-Fiction-Film werden Spezialeffekte zur Erzeugung von Schockbildern verwendet. Sie ziehen die Aufmerksamkeit der Zuschauer auf sich, indem sie das Besondere des Schreckens zeigen. Liste der Städte in Deutschland. Die Liste der Städte in Deutschland enthält eine vollständige Auflistung aller 2060 Städte in Deutschland in alphabetischer Reihenfolge (Stand: 1. Januar 2015). Es sind nur die (verwaltungsrechtlich selbstständigen) Gemeinden (Kommunen) aufgeführt, die das Stadtrecht besitzen. Weblinks. ! Deutschland, Städte Sergei Michailowitsch Eisenstein. Sergei Michailowitsch Eisenstein (, wiss. Transliteration "Sergej Michajlovič Ėjzenštejn"; *  in Riga, heute Lettland; † 11. Februar 1948 in Moskau) war ein sowjetischer Regisseur. Seine berühmtesten Werke sind die Revolutionsfilme "Panzerkreuzer Potemkin" und "Oktober". Leben. Sein Vater war der Rigaer Stadtarchitekt und Staatsrat Michail Eisenstein, der im Zentrum Rigas Jugendstilbauten errichtete. Der Vater war deutsch-jüdischer und schwedischer Abstammung, die Mutter, Julia Konezkaja, war Russin. Der in großbürgerlichen Verhältnissen aufgewachsene Sergei Eisenstein studierte am Petrograder Institut für Zivilingenieure. Doch er merkte schnell, dass Theater seine große Leidenschaft ist. 1918 wurde er zur Roten Armee einberufen und wirkte bei einem Agitpropzug als Karikaturenzeichner. 1920 wechselte er in das Armeetheater, doch noch im selben Jahr wurde er zum Studium für japanische Sprache nach Moskau delegiert. Dies brach er ab und stieg als Bühnenbildner im Proletkult-Theater ein. Dort nahm er an Regiekursen des extremen Theatererneuerers Wsewolod Meyerhold teil. Er setzte seine künstlerische Laufbahn fort und sammelte Filmerfahrungen, die er in der Bühnenarbeit einsetzte (erstmals verwendete Eisenstein filmische Sequenzen auf der Bühne 1923 in einer Inszenierung von Ostrowskis "Eine Dummheit macht auch der Gescheiteste"). Mit dem Konzept der Attraktionsmontage begründete er zuerst theoretisch, dann in seinen Filmen den Versuch einer eigenständigen, revolutionär geprägten Kunstform. 1929 ging er zum Studium der neuen Filmtechnik und um Geld zu verdienen, drehte er zwei Filme im Ausland (Frauennot-Frauenglück, La Romance sentimentale). Danach bestritt er die Teilnahme an diesen Filmen. Auf Einladung der Paramount, ging er nach Hollywood und hielt Vorlesungen an den größten Universitäten Europas und der USA. Später unterrichtete er an der Moskauer Filmhochschule und schrieb einige Bücher. Seinen internationalen Durchbruch als Regisseur hatte er mit dem Revolutionsfilm "Panzerkreuzer Potemkin", der heute genauso zu den wegweisenden Klassikern der Filmgeschichte gezählt wird wie seine Filme "Oktober" und "Iwan der Schreckliche". Seine späteren Filme wurden teilweise Opfer der sowjetischen Zensur. Ab 1934 war Eisenstein mit der Journalistin und Filmkritikerin Pera Ataschewa (1900–1965) verheiratet. Während der Stalinschen Säuberungen 1937/38 bereitete die Geheimpolizei NKWD einen Schauprozess mit ihm als Angeklagten vor, doch kam es nicht zu dem Verfahren. Die Akten darüber wurden in den 1990er Jahren entdeckt. Eisenstein arbeitete mit dem russischen Komponisten Sergei Prokofjew für zwei seiner Filme zusammen: "Alexander Newski" und "Iwan der Schreckliche" (Teil I und Teil II). Letzterer war als Dreiteiler geplant, jedoch konnte Eisenstein nur die ersten beiden Teile fertigstellen. Während der erste Teil von "Iwan der Schreckliche" 1945 noch mit dem Stalinpreis ausgezeichnet wurde, unterlag der zweite Teil wegen der nicht ausreichend linientreuen Umsetzung sowjetischer Geschichtsbilder einem Aufführungsverbot. Stalin persönlich verlangte eine "Nachbearbeitung". Gemeinsam mit Premierminister Wjatscheslaw Molotow gab Stalin Eisenstein dafür konkrete Anweisungen. So bemängelte er, dass Eisenstein den Zaren als unentschlossenen Herrscher so wie Hamlet dargestellt habe. Überdies sei die Opritschnina nicht als "fortschrittliche Kraft" gezeigt. Zudem arbeitete Eisenstein seit seinem Film "Streik" mit dem Kameramann Eduard Tisse zusammen; und die Musik für "Oktober" schrieb Edmund Meisel, eine spätere Musikbegleitung wurde zusammengestellt aus Sinfonien von Dimitri Schostakowitsch. Am 11. Februar 1948 erlag Sergei Eisenstein einem Herzinfarkt, während er an einem Text zur Geschichte des sowjetischen Films arbeitete. Seine zahlreichen filmtheoretischen Schriften wurden erst ab den 1960er Jahren und nur in Teilen veröffentlicht, ebenso wie seine Memoiren. Eisenstein setzte sich kritisch mit der Ausdruckskunde Ludwig Klages’ auseinander. Eisenstein gilt, obwohl unter schwierigen Umständen tätig, theoretisch wie handwerklich (insbesondere durch seine innovative Montagetechnik) als einer der größten Regisseure und Visionäre der Filmgeschichte. Seine Werke hinterließen bleibenden Eindruck und werden bis heute oft zitiert. Für seine Verdienste erhielt Eisenstein 1941 und 1946 den Stalinpreis. Filme über Sergei Eisenstein. Das staatliche russische Filmarchiv Gosfilmofond Russlands wollte im Jahr 2015 die Unterstützung für das Projekt von Peter Greenaway einstellen, wenn er nicht die Hinweise auf die Homosexualität Eisensteins aus dem Skript streiche. Steven Soderbergh. Steven Soderbergh bei den Filmfestspielen von Venedig 2009 Steven Andrew Soderbergh (* 14. Januar 1963 in Atlanta, Georgia) ist ein US-amerikanischer Filmregisseur, Filmproduzent und Drehbuchautor. Unter dem Pseudonym "Peter Andrews" arbeitet er auch als Kameramann, hauptsächlich in seinen eigenen Filmen, auch taucht er öfter im Abspann für den Schnitt als "Mary Ann Bernard" auf. Sein Film "Sex, Lügen und Video" erhielt 1989 bei den Internationalen Filmfestspielen von Cannes die Goldene Palme. Damit war Soderbergh der jüngste Filmemacher, der diesen wichtigen Preis verliehen bekam. Ebenso erhielt er für "Traffic – Macht des Kartells" 2001 den Oscar. Nach Videoproduktionen drehte er Independentfilme "(Sex, Lügen und Video", 1989; "Kafka", 1991). Das Spiel mit Zeit- und Handlungsebenen wurde zu einem Markenzeichen seiner späteren Filme "(Out of Sight", 1998, "Traffic – Macht des Kartells", 2000; "Ocean’s Eleven", 2001). Leben. Steven Soderbergh wurde als fünftes von sechs Kindern in Atlanta (Georgia) im Osten der Vereinigten Staaten geboren. Sein Vater, Peter Andrew Soderbergh, war Professor für Erziehungswissenschaft, seine Mutter, Mary Ann Soderbergh, arbeitete früher als Psychologin. Sein Großvater väterlicherseits war ein schwedischer Immigrant aus Stockholm. Drei Monate nach seiner Geburt siedelte die Familie nach Austin (Texas), 1967 nach Pittsburgh (Pennsylvania) und 1973 nach Charlottesville (Louisiana) um. 1977 erfolgte schließlich der Umzug nach Baton Rouge, Louisiana. Soderberghs Vater wurde Dekan des Fachbereichs Erziehungswissenschaft an der "Louisiana State University". 1979 trennten sich seine Eltern. Steven Soderbergh war ein begabter Baseballspieler, entdeckte dann aber seine Liebe zum Film. Während der Schulzeit schrieb er sich in die Animationsfilmklasse ein und begann bereits im Alter von 13 Jahren, erste Kurzfilme mit einer Super-8-Kamera, die er an der Universität ausgeliehen hatte, zu drehen. In seiner Jugend sah er den Film "Der weiße Hai" von Steven Spielberg 28-mal und "American Graffiti" von George Lucas 14-mal. Die Einstellungen und Schnitte der Filme lernte er praktisch auswendig. Nach seinem Schulabschluss verdingte sich der damals 18-Jährige als Cutter in Los Angeles bei der Fernsehserie "Games People Play". Er kehrte jedoch schon bald unzufrieden nach Baton Rouge zurück, wo er Drehbücher schrieb und weitere kleine Eigenproduktionen drehte. Über einen Freund wurde er auf die Rockband Yes aufmerksam, die nach einem Regisseur Ausschau hielt, der ihre Tournee auf Film festhalten könnte. Soderbergh bekam den Job und filmte die Gruppe bei ihren Auftritten. Das Ergebnis gefiel der Band so gut, dass sie ihn bat, einen weiteren Film über sie zu drehen. Soderbergh willigte ein und es entstand der Konzertfilm '. 1986 wurde der Film für die Grammy Awards als Bestes Musik-Langvideo nominiert. 1988 heiratete Soderbergh die Schauspielerin Betsy Brantley, 1994 erfolgte die Scheidung. Es gibt eine gemeinsame Tochter. a> und Soderbergh im Dezember 2001 1989 folgte der Independentfilm "Sex, Lügen und Video", zu dem er in gerade mal acht Tagen das Drehbuch verfasst hatte. Der Film wurde 1989 mit Beifall und Lob auf den Internationalen Filmfestspielen von Cannes vorgeführt und gewann die Goldene Palme. Danach folgten finanziell wenig erfolgreiche Filme wie "Kafka" (1991) und "König der Murmelspieler" (1993). Den kommerziellen Durchbruch brachte ihm 1998 die Gaunerkomödie "Out of Sight", die nach einer Vorlage von Elmore Leonard entstand. Für "Traffic – Macht des Kartells" (2000) erhielt Soderbergh den Oscar für die beste Regie. Seitdem drehte er einige künstlerisch anspruchsvolle Filme, die er mit Top-Stars wie Brad Pitt, George Clooney und Julia Roberts besetzen konnte, was auch seinen kommerziellen Erfolg steigerte. Im Jahr 2000 gründeten Soderbergh und George Clooney zusammen die Produktionsfirma Section Eight Productions, mit der sie fortan Filme produzierten. 2006 verließ Clooney die Firma. Mit der Gaunerkomödie "Ocean’s Eleven" (2001) gelang Soderbergh sein größter kommerzieller Erfolg. Der Film spielte weltweit 451 Millionen US-Dollar ein. Bei den Fortsetzungen "Ocean’s 12" (2004) und "Ocean’s 13" (2006) führte er ebenfalls Regie. Daneben entstanden auch immer wieder eher anspruchsvolle Filme wie "The Good German – In den Ruinen von Berlin" (2006) oder "Che – Revolución"/"Che – Guerrilla" (2008), die trotz Kritikerlob an den Kinokassen floppten. Soderbergh dreht seit 2008 seine Filme mit digitalen Kinokameras. Nach den Box-Office-Erfolgen "Contagion" (2011) und "Magic Mike" (2012), entstand 2013 mit "Side Effects" Soderberghs bislang letzter Kinofilm. Bereits vor Erscheinen kündigte der Regisseur an, sich danach auf unbestimmte Zeit aus dem Filmgeschäft zurückziehen zu wollen. Soderbergh begründete dies unter anderem mit immer komplizierteren Arbeitsbedingungen in Hollywood sowie zu starker Beanspruchung durch seine Arbeit. Ende April 2013 hielt Soderbergh als Gastredner beim San Francisco International Film Festival eine vielbeachtete Rede zur „Lage des Films“, in der er neben der immer stärkeren Fokussierung der Studios auf die Produktion von Tentpole-Releases mit möglichst leichtverständlicher Handlung auch die massiv gestiegenenen Marketingkosten und zunehmende Diskrepanz zwischen Filmemachern und Filmproduzenten kritisierte. Nachdem mehrere Filmstudios die Produktion abgelehnt hatten, drehte Soderbergh die Biografie des Entertainers Liberace als Fernsehfilm "Liberace – Zu viel des Guten ist wundervoll" für den Pay-TV-Sender HBO mit Michael Douglas und Matt Damon in den Hauptrollen. Der Film wurde mit 11 Emmys ausgezeichnet (u.a. als "Beste Miniserie oder Fernsehfilm" und "Bester Hauptdarsteller in einer Miniserie oder einem Fernsehfilm") und kommt in Europa in die Kinos. 2014 inszenierte er die Fernsehserie "The Knick". An "Magic Mike XXL" aus dem Jahr 2015 ist er als Kameramann und Cutter sowie Ausführender Produzent beteiligt. Stanley Kubrick. Stanley Kubrick (; * 26. Juli 1928 in New York City; † 7. März 1999 im Childwickbury Manor bei London) war ein US-amerikanischer Regisseur, Produzent und Drehbuchautor. Seine Filme werden vor allem für ihre tiefe intellektuelle Symbolik und ihre technische Perfektion gelobt. Kubrick versuchte das Medium selbst zu erforschen, indem er jedes Genre analytisch zerlegte, um seine Bestandteile zu etwas Neuem zusammenzusetzen. Der Regisseur war aber auch berüchtigt dafür, jede Szene bis ins kleinste Detail zu perfektionieren und die Schauspieler dabei oft bis an ihre psychischen und physischen Grenzen zu führen. Zwischen Ordnung und Chaos oszillieren alle Filme Kubricks und ergeben so eine filmische Conditio humana. Die Hauptthemen seiner Filme sind die Unnahbarkeit der Realität und das Scheitern der Menschlichkeit, ausgedrückt durch das einfache Akzeptieren, das Ignorieren oder das Ringen der Protagonisten mit ihren dunklen, inneren Kräften – auch ihren Trieben. Authentizität, Kälte, Ehrlichkeit, Realität, Traum, Triebe – dies sind die wohl wichtigsten Schlagwörter im Zusammenhang mit Kubricks Werken. Filmschaffende und -kritiker zählen ihn zu den bedeutendsten Filmemachern aller Zeiten. Leben und künstlerisches Wirken. Kubrick als Kleinkind mit seinem Vater Jacques Stanley Kubrick wurde am 26. Juli 1928 in Bronx, New York, geboren und war das erste von zwei Kindern. Seine Eltern Jacques, ein Chirurg, und Gertrude, geborene Perveler, stammten aus jüdischen Familien, alle Großeltern waren aus dem österreichischen Galizien eingewandert. 1934 kam Kubricks jüngere Schwester Barbara zur Welt. Anfänge und Durchbruch. a>, das im "Look" veröffentlicht wurde Seine frühe Leidenschaft waren exzessive Lektüre, das Kino und das Schachspiel. Ab 1941 besuchte er die Taft High School, wo er Fotograf der Schülerzeitung war. Nach dem Schulabschluss begann er seine Karriere als Fotograf. Nachdem er zunächst Amateurfotos an das New Yorker Magazin "Look" verkauft hatte, bekam er mit 18 Jahren dort schließlich eine Festanstellung. Eine Fotogeschichte über einen Boxer, die er verfasste, führte ihn tiefer in die behandelte Materie ein. Als Fotograf war er mit investigativer Berichterstattung vertraut; dementsprechend inszenierte er 1950 seinen ersten Dokumentarfilm "Day of the Fight", eine, obwohl nur 16 Minuten lange, damals aufsehenerregende Studie über individuelle Leistungen im Boxring. Motiviert durch den Erfolg und die Anerkennung, die ihm durch das Erstwerk zugekommen waren, drehte er anschließend den Dokumentarfilm "Flying Padre" und den wenig geglückten Gewerkschafts-Werbefilm "The Seafarers". Seine ersten, überwiegend mit geliehenem Geld finanzierten Spielfilme "Fear and Desire" (1953), ein allegorisches, zeitlich und geographisch unbestimmtes Kriegsdrama, und "Der Tiger von New York (Killer’s Kiss)" (1955), den er an United Artist verkaufte, zogen hingegen bereits die Aufmerksamkeit Hollywoods auf sich. "Der Tiger von New York" ist Kubricks letzter Film mit Happyend. Filmkennern wurde er mit dem klassischen Film noir "Die Rechnung ging nicht auf (The Killing)" ein Begriff, bevor ihm mit "Wege zum Ruhm" (mit Kirk Douglas in der Hauptrolle), der als einer der besten Antikriegsfilme gilt, der endgültige Durchbruch gelang. Der während des Ersten Weltkriegs spielende Film "Wege zum Ruhm" (Originaltitel: "Paths of Glory"), thematisiert die Grausamkeit und die Sinnlosigkeit des Krieges nur am Rande. Er ist durchaus ein antimilitaristischer Film, vor allem aber eine bitterböse Parabel auf Herrschaftsstrukturen und ein Bekenntnis gegen die Todesstrafe. In diesen Filmen finden sich bereits fast alle wesentlichen Stilelemente Kubricks: die zwischen Distanz und Involviertsein wechselnde Kamera, die sich für Handlungsabläufe mehr zu interessieren scheint als für die Motive der Handelnden; die Reduktion der Charaktere auf Spielfiguren auf einem symbolischen Schachbrett; die emotionale und moralische Gleichmütigkeit der Erzählung. Der passionierte Schachspieler Kubrick plante nach eigenen Angaben viele Filme und die handelnden Figuren analog zu den Konflikten und Bewegungen auf einem Schachbrett. Kirk Douglas war von der Zusammenarbeit mit Kubrick so beeindruckt, dass er ihn als Regisseur des Monumentalfilms "Spartacus" engagierte, nachdem der ursprüngliche Regisseur, Anthony Mann, nach wenigen Drehtagen gefeuert worden war. Der 32-jährige Kubrick meisterte sowohl den Umgang mit den Hollywood-Stars als auch die aufwändigen Massenszenen hervorragend, auch wurde der Film zu einem Kassenerfolg, der Kubrick die finanziellen Mittel für seine folgenden Filme lieferte. Er selbst war jedoch aufgrund seines geringen Einflusses auf Drehbuch und Produktionsbedingungen sehr unzufrieden, weswegen er "Spartacus" als ein „notwendiges Übel“ bezeichnete. Kubrick nahm sich vor, nie wieder einen Film zu drehen, bei dem er nicht von der Drehbucherstellung bis zum Schnitt volle Kontrolle über die Produktion haben würde. Er verließ das System von Hollywood und blieb dort bis zum Ende seines Lebens ein öffentlichkeitsscheuer Außenseiter. Rückzug nach England und die ersten "Kubrick-Filme". In den Jahren 1948 bis 1951 war Kubrick mit seiner Jugendliebe Toba Metz verheiratet und anschließend von 1954 bis 1957 mit der österreichischen Balletttänzerin Ruth Sobotka. Bei den Dreharbeiten zu "Wege zum Ruhm" lernte er Christiane Harlan kennen, die er 1957 heiratete. Zusammen mit ihr, den beiden gemeinsamen Töchtern Anya (1959–2009) und Vivian (* 1960) sowie seiner Stieftochter Katharina (* 1953) zog er in den frühen 1960ern nach England. Dort ließ er sich zunächst in der Nähe der Elstree-Studios bei London nieder; später kaufte er das Anwesen Childwickbury Manor im District St. Albans, wo er in den ehemaligen Stallungen Studio- und Schnitträume einrichtete. Für die Presse und in Hollywood galt er als jemand, der extrem zurückgezogen lebte; Bekannte erzählten allerdings, dass er den größten Teil seiner Zeit in der Umgebung von Familie, Freunden und Bekannten verbrachte. Sein erster in England gedrehter Film war "Lolita" (1962). Kubrick arbeitete eng mit dem Autor des Romans, Vladimir Nabokov, zusammen. Das mehrere hundert Seiten umfassende Drehbuch, das Nabokov selbst schrieb, veränderte Kubrick entscheidend, so dass die als Skandalbuch rezipierte Handlung verfilmt werden konnte, ohne dass der Film weltweit auf dem Index landete. Bei den Arbeiten zu Lolita entdeckte der Regisseur den Schauspieler Peter Sellers. Sellers verkleidet sich in seiner Rolle als Quilty in „Lolita“ bereits als Schulpsychologe Dr. Zemph, um Humbert zu täuschen. Kubrick fragte an, ob Sellers in seinem nächsten Film ' gleich vier Rollen übernehmen könne. Dieser sagte zu, spielte anschließend jedoch „nur“ drei Rollen in dem Film. Die vierte, den Flieger des Bombers, übernahm Slim Pickens. Sellers wollte sie nicht spielen und brach sich bei einem Versuch prompt ein Bein. "Dr. Seltsam oder: Wie ich lernte, die Bombe zu lieben" (1964) – wie diverse andere Kubrick-Filme auch – wird von vielen als einer der großartigsten Filme aller Zeiten angesehen. Das große Risiko, die Konfrontation zu Zeiten des Kalten Kriegs als schwarze und absurde Komödie aufzuführen und das Endspiel von Comic-Figuren ausführen zu lassen, zahlte sich am Ende aus. Der Film kann auch als intelligente Antwort auf die James-Bond-Filme gesehen werden. Ebenso berühmt wurden seine nächsten beiden Filme, ' (1968) und "Uhrwerk Orange" (1971). Alle drei Filme provozierten durch eine ironische Theatralisierung bei ihrem Erscheinen heftige öffentliche Kontroversen und werden in der Filmwissenschaft immer noch diskutiert, sowohl in Bezug auf Themen und Handlung als auch der in ihnen enthaltenen Symbolik. Der Film "Barry Lyndon" (1975), nach dem Roman von William Makepeace Thackeray (1844), hingegen war ein kommerzieller Misserfolg. Kubricks beeindruckendes, aber elitäres Unternehmen, die Schönheit barocker Malerei und Musik filmisch erlebbar zu machen und das Leben jener Zeit anhand der fiktiven Biographie Barry Lyndons authentisch wiederzugeben, durch natürliches Kerzenlicht in allen Innenaufnahmen, ging offenbar am Geschmack eines breiten Publikums vorbei. Der Film beeinflusste aber Regisseure, die sich diesem Thema später widmeten. Das spätere Werk. Nach "Barry Lyndon" nahm Kubricks Produktionstempo ab. In den letzten 25 Jahren seines Lebens produzierte er nur noch drei weitere Filme. Allerdings waren sein Ruhm und das ihn umgebende „Mysterium“ derart groß, dass jede Veröffentlichung weltweit mit großen Erwartungen aufgenommen wurde. Wichtiger für Kubrick und wohl einmalig in der Geschichte Hollywoods war, dass er bei jedem Film weitgehend freie Hand und ein beinahe unbeschränktes Zeitbudget von den großen Studios bekam. Mit Jack Nicholson drehte Kubrick den Film "Shining" (1980), eine Adaption des Buches von Stephen King. Insbesondere King-Fans waren unzufrieden mit dem Film, obgleich Kubrick buchstäblich Fluten von Blut entfesselte, da er sich die Handlung des Buches betreffend große Freiheiten herausnahm. Im Zentrum des Films steht der Entwurf eines luxuriösen Raumes der Moderne. In dem Film wird Geschichte zur ewigen Wiederkehr des Gleichen: der Gewalt, der keine Ordnung widerstehen kann. King selbst bezeichnete Kubricks "Shining" als schlechteste Verfilmung eines seiner Bücher. Obwohl nicht so enthusiastisch von der zeitgenössischen Kritik rezipiert wie frühere Werke, gilt "Shining" mittlerweile als Klassiker des Mystery-Thrillers. Der im Vietnamkrieg spielende Film "Full Metal Jacket" (1987) war Kubricks einziger Film, der aus seiner Sicht zu spät kam. Trotz strengster Geheimhaltung wurde kurz vor Fertigstellung des Films das Thema in der Öffentlichkeit bekannt. Daraufhin stellte Oliver Stone seinen Film "Platoon" schneller als geplant fertig und brachte ihn wenige Wochen vor "Full Metal Jacket" in die Kinos. In Deutschland war die Kinopremiere von "Full Metal Jacket" ein halbes Jahr nach der von "Platoon". Nachdem Kubrick "Full Metal Jacket" fertiggestellt hatte, arbeitete er unter dem Arbeitstitel "Aryan Papers" an einer Verfilmung des Romans "Lügen in Zeiten des Krieges" von Louis Begley und der Science-Fiction-Geschichte "A.I." Als Steven Spielberg 1993 "Schindlers Liste" veröffentlichte, verwarf Kubrick sein Projekt "Aryan Papers", um nicht in eine ähnliche Situation zu kommen, wie sie sich bei "Full Metal Jacket" ergeben hatte. Er ging davon aus, dass das Publikum auf absehbare Zeit vermutlich keinen weiteren Film zum Thema Holocaust würde sehen wollen. Kubrick arbeitete zunächst weiter an "A.I." und begann parallel dazu mit den Arbeiten für eine Verfilmung der "Traumnovelle" von Arthur Schnitzler, die er schon seit Ende der 1960er Jahre geplant hatte. Da er schließlich befürchtete, dass die Geschichte eines Roboters, der ein echter Mensch werden möchte, in seinen Händen zu philosophisch werden könnte, übertrug er das Projekt Steven Spielberg und widmete von da an seine volle Aufmerksamkeit der Bearbeitung der "Traumnovelle". Nach zwei Jahren Drehzeit legte Kubrick am 5. März 1999 die fertig geschnittene Fassung der Verfilmung unter dem Titel "Eyes Wide Shut" (1999) vor. In dieser Zeit gab sich ein Hochstapler namens Alan Conway als Kubrick aus, während der echte Kubrick mit den Dreharbeiten beschäftigt war. Diese Geschichte wurde 2006 unter dem Titel "Colour Me Kubrick" mit John Malkovich verfilmt. Am 7. März 1999 verstarb Stanley Kubrick in seinem Haus an den Folgen eines Herzinfarkts. Kubricks Erbe. Steven Spielberg veröffentlichte 2001 das von Kubrick an ihn übertragene Filmprojekt "A. I. – Künstliche Intelligenz". Immer wieder befasste sich Kubrick mit der Lebensgeschichte des französischen Kaisers Napoleon Bonaparte. In seinem Nachlass fanden sich alle Unterlagen zur Realisierung eines aufwendigen Napoleon-Films, Fotos von Drehorten und sogar Vereinbarungen mit der rumänischen Armee zur Stellung von Komparsen. Wegen der enormen Kosten kam das Projekt jedoch nie zustande. Kubricks Schwager und ehemaliger Produzent Jan Harlan hat alle Unterlagen zusammengestellt und hofft, dass Kubricks Napoleon-Projekt doch noch realisiert werden kann. Für die Veröffentlichung seiner Filme auf Datenträgern für die private Vorführung (VHS, DVD) hatte Kubrick vertraglich festgelegt, dass sie ausschließlich im Seitenverhältnis 4:3 (entspricht rund 1,33:1) erfolgen dürfen. Nur ', der auf 65-Millimeter-Film gedreht worden war, wurde auf DVD im ursprünglichen Filmformat 2,20:1 veröffentlicht. Kubricks fünf letzte Filme "A Clockwork Orange, Barry Lyndon, The Shining, Full Metal Jacket" und "Eyes Wide Shut" sind alle im englischen Vollbildformat von 1,37:1 gedreht (das entspricht ungefähr dem klassischen 4:3-TV-Bildschirm); für die Projektion in Kinos wurde das Bild jedoch schon beim Dreh so komponiert, dass auch eine Breitwand-Darstellung von 1,85:1 möglich ist. Mittlerweile sind diese Filme als HD-Transfer auf BluRay-Disc erhältlich; dabei wurde das Kinoformat 1,85:1 verwendet, mit Ausnahme von "A Clockwork Orange", der im Format 1,66:1 vorliegt. Der Perfektionist Kubrick. Kubrick war dafür berühmt und berüchtigt, jede Szene so oft wiederholen zu lassen, bis sie in seinen Augen perfekt war. Als berühmtes Beispiel gilt eine Szene aus seinem Film "Shining", in der Shelley Duvall einen Stapel von über dreihundert Blatt Papier findet, auf denen immer wieder derselbe Satz steht: "All work and no play makes Jack a dull boy". Kubrick weigerte sich, für die einzelnen Seiten Kopien zu verwenden, selbst bei Seiten, die man unmöglich genau sehen konnte. Mehrere Schreiber waren damit beschäftigt, jede Seite im Original zu tippen. Im Making-of zum Film "Shining" wird die Härte gegenüber der jungen Shelley Duvall sichtbar, die Kubrick gezielt einsetzt, damit sie sich besser in ihre Rolle hineinversetzen kann. Filmdokumentation. Kubricks Leben und Werk ist im Jahr 2001 mit der Filmdokumentation "Stanley Kubrick – Ein Leben für den Film" gewürdigt worden, für die sich zahlreiche Schauspieler, Regisseure und andere Weggefährten von Jan Harlan interviewen ließen. Tom Cruise, Hauptdarsteller von Kubricks letztem Film "Eyes Wide Shut", ist dabei der durchgehende Off-Kommentator. "Stanley Kubrick’s Boxes" (2008) ist eine Dokumentation von Jon Ronson über die Hinterlassenschaft des Ausnahmekünstlers: tausende Kisten, die Kubrick teilweise sogar extra produzieren ließ, mit Fotos, Briefen, Notizen, Zeitungsausschnitten usw., alles akribisch sortiert und archiviert, zeigen die Detailverliebtheit des Workaholic Stanley Kubrick. In dem Film "Kubrick, Nixon und der Mann im Mond" wird die Behauptung aufgestellt, dass Kubrick an einer Vortäuschung der ersten Mondlandung beteiligt war. Die Mitwirkenden Buzz Aldrin, Henry Kissinger, Donald Rumsfeld, Alexander Haig und Lawrence Eagleburger gaben dem Film den Anschein von Seriosität. Erst im Abspann der Mockumentary wird aufgelöst, dass es sich bei dem Film um keine echte Dokumentation handelt. Vielmehr wurden frei erfundene Behauptungen gezielt mit wahren Tatsachen vermischt, um den Zuschauer zu manipulieren und ihn im Unklaren darüber zu lassen, welche Aspekte zutreffend sind. Ausstellung. Zu Kubricks Gesamtwerk hat das Deutsche Filmmuseum in Frankfurt am Main eine Ausstellung entwickelt, in der zahlreiche Objekte aus Kubricks umfangreichem Nachlass (unter anderem Fotos, Briefe, Originalrequisiten, Kostüme und Drehbücher) präsentiert werden. Zustande gekommen ist diese Ausstellung in Kooperation mit Kubricks Witwe Christiane Kubrick und seinem langjährigen engen Mitarbeiter und Schwager Jan Harlan. Sie wurde im Frühjahr 2004 erstmals in Frankfurt gezeigt und befindet sich seither auf internationaler Tournee. Weitere Präsentationen fanden in Berlin (2005), Melbourne (2006), Gent (2006), Zürich (2007), Rom (2007), Paris (2011), Amsterdam (2012), Los Angeles (2012), São Paulo (2013), Krakau (2014), Toronto (2014/15) und Monterrey (2015) statt. Filmsammlungen auf Blu-ray. In der "Stanley Kubrick – Visionary Filmmaker Collection", die Warner 2011 vorlegte, waren außerdem die Filme "Lolita" und "Barry Lyndon" enthalten. 2014 veröffentlichte Warner unter dem Titel "Stanley Kubrick – The Masterpiece Collection" die bisher umfassendste Sammlung. Auf zehn Blu-ray-Discs befinden sich acht Spielfilme und fünf Dokumentationen. Außerdem liegt dieser Edition ein Fotobuch mit 78 Seiten bei. Der zusätzliche Spielfilm ist "Dr. Seltsam". Die Dokumentationen heißen (jeweils mit Produktionsjahr und Minutenlänge in Klammern): "Eine Erinnerung an Stanley Kubrick" (2014, 83), "Stanley Kubrick im Fokus" (2012, 29), "Es war einmal … Uhrwerk Orange" (2011, 52), "Oh, du glücklicher Malcolm!" (2006, 85) und "Stanley Kubrick – Ein Leben für den Film" (2001, 142). Soziologie. Soziologie (lat. ' ‚Gefährte‘ und -logie) ist eine Wissenschaft, die sich mit der empirischen und theoretischen Erforschung des sozialen Verhaltens befasst, das heißt die Voraussetzungen, Abläufe und Folgen des Zusammenlebens von Menschen untersucht. Als systematisch-kritische Wissenschaft des Sozialen ging die Soziologie aus dem Zeitalter der Aufklärung hervor und nimmt als Sozialwissenschaft eine Mittelstellung zwischen Natur- und Geisteswissenschaften ein. Ihren Namen erhielt sie von Auguste Comte, bevor sie sich in der zweiten Hälfte des 19. Jahrhunderts als eigenständige universitäre Disziplin durchsetzte. Ferdinand Tönnies, Georg Simmel und Max Weber gelten als Begründer der deutschsprachigen Soziologie. Gegenstand und Definition. Die Soziologie bildet den aus den Geisteswissenschaften entstandenen Kern der Sozialwissenschaften. Während andere sozialwissenschaftliche Disziplinen wie die Politikwissenschaft oder die Wirtschaftswissenschaften bestimmte Bereiche des Sozialen unter spezifischen Aspekten (Politik: legitime Machtausübung; Wirtschaft: Knappheit) untersuchen, erforscht die Soziologie alle Aspekte des sozialen Zusammenlebens der Menschen in Gemeinschaften und Gesellschaften. Sie fragt nach Sinn und Strukturen des sozialen Handelns (Handlungstheorie) sowie nach den die Handlungen regulierenden Werten und Normen. Ihre Untersuchungsobjekte sind die Gesellschaft als Ganzes ebenso wie ihre Teilbereiche: soziale Systeme, Institutionen, Organisationen und Gruppen. Überdies befasst sich die Soziologie mit der gesellschaftlichen Integration und Desintegration, mit sozialer Ungleichheit, sozialen Konflikten und sozialem Wandel. Weitere Themen, mit denen sich die Soziologie beschäftigt, sind Sozialstrukturen, Arbeit, Geschlechter, soziale Netzwerke, Gruppen, Kommunikationsmittel (Massenmedien), Migration, Alltag, Technik und Lebenswelt. Für viele dieser Themen haben sich spezielle Soziologien etabliert (siehe unten), andere – wie etwa die allgemeine Frage nach den Wechselwirkungen von Handeln und Struktur – sind Thema der allgemeinen Soziologie. Fragestellungen der Soziologie überschneiden sich häufig mit solchen der Sozialpsychologie und anderer Sozial- und Geisteswissenschaften, teilweise auch mit denen von Naturwissenschaften wie zum Beispiel der Neurobiologie. Eine facheinheitliche Definition von "Soziologie" existiert nicht. Eine verbreitete Definition stammt von Max Weber, fokussiert auf das „soziale Handeln“. Geschichte. Als eigenständige Wissenschaft wurde die Soziologie erst seit Ende des 19. Jahrhunderts anerkannt. Sie löste sich in dieser Zeit als Einzelwissenschaft von der Philosophie, Wirtschaftswissenschaft, Staatslehre und Völkerkunde. Ihre Entstehungsgeschichte ist eng mit der Entwicklung der Bürgerlichen Gesellschaft im Europa des 19. Jahrhunderts sowie mit der fortschreitenden Industrialisierung verbunden. Vorläufer der Soziologie sind in der Geschichtswissenschaft, der Nationalökonomie, aber auch im Journalismus und in den Policeywissenschaften zu sehen. Denker am Anfang und in der Mitte des 19. Jahrhunderts wie Henri de Saint-Simon, Karl Marx und Herbert Spencer werden heute auch als soziologische Klassiker betrachtet. Der Namensgeber der Soziologie war Auguste Comte mit seinem 1851–1854 erschienen vierbändigen Werk "Système de politique positive, ou Traité de sociologie, instituant la religion de l’humanité". Seitdem versucht sie, teils in Fortentwicklung, teils im Gegensatz zu älteren Autoren, die sich ebenfalls mit den sozialen Wechselwirkungen beschäftigten – wie etwa schon in der Antike Xenophon im 4. Jahrhundert v. Chr., Polybios zwei Jahrhunderte später, Ibn Chaldun im 14. Jahrhundert, Giambattista Vico am Anfang und Adolph Freiherr Knigge am Ende des 18. Jahrhunderts – ihren Anspruch nach einem „ihr eigenen Erkenntnisgegenstand“ zu formulieren. Für Comte ist dieser Gegenstand die „soziale Physik“ ("physique sociale"), die er nach Gesetzen der sozialen Statik und sozialen Dynamik unterscheidet. Für Émile Durkheim ist es der „Soziale Tatbestand“ ("fait social") bzw. – in der Übersetzung René Königs – „soziologische Tatbestand“, der außerhalb des individuellen Bewusstseins existiert und von zwingendem Charakter ist. Für Ferdinand Tönnies bilden die „sozialen Wesenheiten“, das heißt die auf dem „Willen zur sozialen Bejahung“ beruhenden sozialen Verbindungen, den spezifischen soziologischen Gegenstand. Für Max Weber ist es das „soziale Handeln“ (siehe oben). Soziologisches Verstehen, soziologische Erklärung. In der Soziologie als Wissenschaft des Sozialen sind Theorie und Erfahrung aufeinander bezogen. Empirisch gehaltvoll sowie den Regeln der Logik folgend, zielt sie darauf, das Beobachtete zu verstehen und dafür Erklärungen mit Hilfe allgemeiner Sätze (Axiome) zu entwickeln. Dem entspricht die Dualität der Untersuchungsansätze: hermeneutisch interpretierende einerseits und kausalanalytische Verfahren andererseits, wobei erstere die Teilnehmerperspektive, letztere die Beobachterperspektive einnehmen. Soziologische Theorien in Konkurrenz. Soziologische Theorien folgten dabei nie „demselben“ Paradigma, d. h. sie bezogen sich in ihrem wissenschaftlichen Ansatz nicht auf nur eine bestimmte Denkweise. Dies liegt an ihrem theoretischen Schwierigkeitsgrad – ihr Gegenstand ist hochkomplex. Hinzu kommt: Bereits methodologisch, aber auch häufig aus moralischen Gründen verbietet sich meist das – oft klärende – Experiment; die stattdessen mögliche Befragung impliziert konzeptionelle und Interpretations­probleme: Beispielsweise bringen Interviewer subjektive Aspekte ein, werden angeschwindelt, in Einzelfällen fälschen sie sogar die Aussagen. Die Soziologie bleibt also immer auch auf Beobachtungen angewiesen. Auch erscheinen je nach den konkreten Fragen die Paradigmata unterschiedlich erfolgversprechend, wenn die Ergebnisse darstellungslogisch ‚einfach‘ und sachlich, finanzierungsbedingt schnell oder kostensparend sein sollen. (1) Gehen Theorien axiomatisch davon aus, dass „einzelne Akteure sozial handeln“ (pauschal: „die Menschen machen die Gesellschaft“), und man könne auf dieser Grundlage alle soziologischen Fragen behandeln, so brauchen sie eine biologische, anthropologische und besonders eine biosoziologische Fundierung zu so hochkomplexen personalen Handlungsgrundlagen wie dem Willen oder der Rationalität eines Akteurs. Solche Theorien sind insofern problematisch, als sozial handelnde Akteure sowohl handelnde Subjekte als auch Objekte des sozialen Handelns anderer Akteure sind – anders als die forschenden Subjekte in den Naturwissenschaften (vgl. dazu die selbsterfüllende Prophezeiung). (2) Gehen Theorien stattdessen von axiomatisch zu Grunde gelegten „überpersönlichen Einheiten“ aus, pauschal: „nicht die Individuen geben den Ausschlag“, (z. B. von Einheiten wie den einzelnen „Gesellschaften“, den sechs Residuen, den „vier grundsätzlich möglichen“ Kommunikationsweisen, den beiden Geschlechtern oder „der einen Menschheit“), so müssen deren sozialphilosophische Ausgangsdefinition je und je axiomatisch fundiert sein. Dies erweist sich als äußerst schwierig. Hinzu kommen Abgrenzungsprobleme zwischen zum Beispiel Kollektiven, Motiven, Systemen, Frau und Mann oder Menschen und Nichtmenschen (etwa Tieren oder Robotern). Diese beiden Hauptkonzepte und ihre Überschneidungen sind die Grundlagen für die große Anzahl unterschiedlicher soziologischer Theorien ("siehe unten" die Beispiele unter "Makrosoziologie" und "Mikrosoziologie"). Hinzu kommt, dass „bei eingeschränkten Fragestellungen“ im soziologischen Alltag Forscher verschiedener wissenschaftstheoretischer Ausrichtung – dank eines in der Soziologie entwickelten umfangreichen mathematischen bis sozialhistorischen Methodenbaukastens – ähnliche bis gleiche, sowohl verlässliche, als auch gültige Befunde erheben. In der Praxis verzichten viele Soziologen häufig darauf, einen einzigen epistemologischen Standpunkt einzunehmen und arbeiten je nach Fragestellung und Ressourcen mit verschiedenen Theorien und Methoden. Gesellschaft. Der Begriff "Gesellschaft" bezieht sich auf eine Summe von Beziehungen und Verhältnissen zwischen den einzelnen Menschen. Nicht gemeint ist die bloße räumliche und mengenmäßige Anzahl von Individuen, sondern deren Sozialität. Damit sind Strukturen aus relativ stabilen Verhaltensmustern bezeichnet, die ihren Ursprung im interaktiven menschlichen Handeln haben und in diesem Bereich ihre Wirkung erzielen. Als allgemeinster Begriff von Gesellschaft wird „das jeweilig umfassendste System des menschlichen Zusammenlebens“ bezeichnet. Über spezifischere Merkmale für eine Gesellschaft besteht in der Soziologie keine Einigung. Der Prozess, der aus Individuen Gesellschaftsmitglieder macht, wird „Vergesellschaftung“ genannt. Institutionen wie der Staat, die Familie, das Recht oder die Erziehung werden heute als Unterkategorien (auch: Subsysteme) der Gesellschaft begriffen. Die Unterscheidung zwischen Staat und Gesellschaft begründete den Beginn der Soziologie. Die Begriffe „das Soziale“ bzw. „Sozialität“ meinen den Forschungsgegenstand der Soziologie und entsprechen in ihrer Bedeutung dem Begriff der „Gesellschaft“. Soziales Handeln. Der Begriff Handeln bedeutet in der Soziologie nach Max Weber ein „Handeln“, das für den Handelnden mit „Sinn“ verbunden ist. Laut Max Weber definiert sich „soziales Handeln“ dadurch, dass es auf Andere bezogen, sinnhaft am Verhalten Anderer orientiert ist. Sozialer Tatbestand. Ein „sozialer Tatbestand“ ("fait social") ist nach Émile Durkheim „jede mehr oder minder festgelegte Art des Handelns, die die Fähigkeit besitzt, auf den Einzelnen einen äußeren Zwang auszuüben; oder auch, die im Bereiche einer gegebenen Gesellschaft allgemein auftritt, wobei sie ein von ihren individuellen Äußerungen unabhängiges Eigenleben besitzt.“ Integration – Desintegration. Seit Auguste Comte wird in der Soziologie gefragt: Was trennt, was verbindet die Menschen, was sorgt für Fortschritt und zugleich Ordnung? Dieses Thema wurde vor allem im Strukturfunktionalismus – so von Talcott Parsons – behandelt. Gegenwärtig [2008] wird unter anderem die Desintegrationstheorie von Wilhelm Heitmeyer stark rezipiert. Sozialer Wandel. Mit dem sozialen Wandel als der umfassenden Veränderung von relativ stabilen Sozialstrukturen befasst sich die Soziologie seit ihrer Entstehungszeit; er spielt bereits im Denken Henri de Saint-Simons und Marx’ eine bedeutsame Rolle. Seine konzeptionelle Fassung erhielt er durch Ogburns Schrift "Social Change" (1922). In neuerer Zeit steht der soziale Wandel im Fokus von Modernisierungstheorien. Soziale Norm. Soziale Normen sind Verhaltenserwartungen an Individuen und Gruppen in spezifischen sozialen Situationen mit unterschiedlich starken Verbindlichkeiten, die durch positive und negative Sanktionen durchgesetzt werden (siehe auch Soziale Erwünschtheit). Die Normgebundenheit sozialen Verhaltens ist ein frühes Thema der Soziologie. Mit ihr haben sich insbesondere Émile Durkheim und Talcott Parsons, in der deutschen Nachkriegssoziologie Ralf Dahrendorf und Heinrich Popitz beschäftigt. Gliederung nach den untersuchten Einheiten. Eine häufig vorzufindende Unterteilung der Soziologie unterscheidet zwischen Unzufrieden mit dieser wissenschaftstheoretisch strengen Alternative sind Vertreter eines als „Mesosoziologie“ bezeichneten Blicks auf intermediäre Ebenen (Betonung des „Hin und Her“) und eines neuerdings als „Makro-Mikro-Soziologie“ bezeichneten Ansatzes, der prozessanalytisch Einseitigkeiten ausschließlicher Makro- und Mikro-Betrachtung zu überwinden beansprucht (Betonung des „weder – noch“). Mesosoziologie (Gruppe, Figuration, Organisation, Institution, Situation, Ritual, Subsystem u. a.). Diese Theorie mittlerer Reichweite (vgl. Robert K. Merton) umschreibt z. B. die Soziologie der Institutionen, Rituale und Organisationen, Soziale Gruppen bzw. die Verbindung zwischen Mikro- und Makrosoziologie. Makro-Mikro-Soziologie. Hier wird für den Ansatz von Norbert Elias, die Figurationssoziologie (auch Prozesssoziologie), eine über die Akteuranalyse hinausgehende strömungsstrukturelle (figurative) Grundlegung beansprucht, die jedoch makrosoziologische Reifizierungen der Gesamtgesellschaft ablehnt. Ein zweiter Ansatz ist die Sozialisationstheorie von Klaus Hurrelmann, die Persönlichkeitsentwicklung als einen permanenten produktiven Prozess der Verarbeitung von innerer Realität (Körper, Psyche) und äußerer Realität (soziale und physische Umwelt) konzipiert. Gliederung nach der Reichweite der Theoreme. Ferner lassen sich Themenbereiche der Soziologie auch danach unterscheiden, ob sie der „allgemeinen“ Soziologie zuzurechnen sind, also generelle Gültigkeit beanspruchen, oder ob es sich dabei um Themen einer „speziellen“ Soziologie handelt. Theoretisch gehören die soziologischen „Methoden“ zur allgemeinen Theorie, in der Hochschulpraxis werden sie aber oft gesondert betrieben. Allgemeine Soziologie. Zur „Allgemeinen Soziologie“ werden gemeinhin die für alle theoretischen Fragen wichtigen Ansätze gerechnet. Dazu gehören auch Sachgebiete wie das Verhältnis von Akteur und Gesellschaft oder Person und sozialem System, sowie die Struktur und der Wandel von Gesellschaften bzw. sozialen Systemen. Auch die Methoden der empirischen Forschung lassen sich hier einordnen. Hauptthemen der Allgemeinen Soziologie sind beispielsweise: Devianz, Eliten, Funktionale Differenzierung, Gruppen, Herrschaft, Kommunikation, Macht, Sozialisation, Soziales Handeln, soziale Interaktion, Klassen, soziale Mobilität, soziale Rollen, sozialer Tausch, soziale Ungleichheit, sozialer Wandel, Sozialstruktur, Technik. Spezielle Soziologien. „Spezielle Soziologien“ – informell auch „Bindestrichsoziologien“ genannt – befassen sich mit den Strukturen und Prozessen gesellschaftlicher Teilsysteme oder institutioneller Bereiche der Gesellschaft. Zu den wichtigsten speziellen Soziologien gehören Arbeitssoziologie, Wirtschaftssoziologie, Familiensoziologie und Politiksoziologie. Durch die zunehmende Differenzierung auch der Soziologie selbst bilden sich laufend weitere spezielle Soziologien. a> – vor der computergestützten Auswertung das Alltagsutensil der quantitativen Forschung. Empirische Sozialforschung. Um eine der Soziologie angemessene Methodik der empirischen Erforschung sozialer Tatbestände wurde seit den Anfängen der Disziplin im sogenannten Methodenstreit gerungen. Oft werden Kombinationen dieser drei Ansätze angewandt ("mixed methods"). Die sogenannte Objektive Hermeneutik beansprucht dagegen, eine umfassende Forschungsmethodologie der Sozialwissenschaften zu formulieren, die gleichermaßen für quantifizierende Daten wie für natürlich protokollierte Ausdrucksgestalten der konkreten Lebenspraxis (wobei Protokolle per se schon „historisch“ sind) Anwendung findet. Die oben genannte Methodenunterscheidung wird von dieser Methodologie kritisiert und abgelehnt. Reine und angewandte Soziologie. Obwohl der Unterschied zwischen einer reinen Theorie und ihrer Anwendung in vielen Wissenschaften gemacht wird und in den Bereich alltäglicher Vorverständnisse auch der Soziologie gehört, gibt es hier einen strengen und einen weniger festgelegten Gebrauch. Im strengen Sinne hat Ferdinand Tönnies zwischen einer axiomatisch abgestützten und begrifflich entfalteten „Reinen Soziologie“ und einer von dorther ausgehenden „Angewandten Soziologie“ unterschieden, bei der diese Begriffe deduktiv an historische soziale Prozesse angelegt werden. Im ersten Fall bewegt man sich demnach im „Reich der Ideen“, im zweiten im „Reich der Wirklichkeit“. Im weniger strengen Sinne versteht man unter angewandter Soziologie die Handhabung theoretischer Grundlagen zur Bearbeitung von Forschungsaufträgen. Der Erfolg einer soziologischen Theorierichtung ist dabei nicht nur von der intellektuellen Tüchtigkeit und wissenschaftlichen Bedeutung ihrer Begründer abhängig, sondern – wissenschaftssoziologisch gesehen – durchaus auch von der Nachfrage nach soziologischer Beratung durch den Markt beziehungsweise durch soziale Verbände oder die Politik, selten aber nachhaltiger auch durch soziale Bewegungen. Markt- und Wahlforschung bieten die lukrativsten Aufträge für Soziologen, was die Entwicklung der quantitativen Methoden (Statistik) und der an die Naturwissenschaften angelehnten Theorieansätze relativ begünstigt. Denn die Fragen sind meist eingeschränkt und auf die allernächste Zukunft bezogen. Viele "ceteris paribus"-Bedingungen können also vorausgesetzt werden, ohne die Ergebnisse stark zu beeinträchtigen. Hier kam es, zuerst in den USA (seit den späten 1940er Jahren auch in Deutschland) zur Gründung von Umfragefirmen und Meinungsforschungsinstituten. Einige spezielle Teilgebiete (Militär-, Medizin-, Sport- und Katastrophensoziologie) fragen soziologische Beratung nach, nicht aber die Industriesoziologie, seit das Fach in Deutschland in den 1970er Jahren aus den wirtschafts- und sozialwissenschaftlichen Fakultäten (Fachbereichen) in die philosophischen umgezogen ist; die Organisationssoziologie wird nun vor allem in den USA fortgeführt. Eine beratende Funktion hat oftmals auch die Rechtssoziologie, die u. a. im Vorfeld geplanter Gesetze Wirkungs- und Evaluationsforschung betreibt; sie kann auch in Bereichen mit „weichen“ Rechtsverhältnissen (Arbitragen, Treu und Glauben, „nach billigem Ermessen“) für eine Strukturierung sorgen. Sozialräumliche Strukturen werden zu Planungszwecken von der Gemeinde- bzw. Stadtsoziologie untersucht. Brotlose Künste sind hingegen zahlreiche spezielle Soziologien, die sich schlecht vermarkten lassen und quantitativen Methoden wenig zugänglich sind, etwa die Kunst-, Literatur- oder Religionssoziologie. Also ist deren Forschungsfortschritt stark von der Forschungsfreiheit der Universitätssoziologie, von den Motiven der Wissenschaftler selbst und von den relativ geringen Drittmittelzuschüssen gemeinnützig denkender Förderer (Mäzene) abhängig. Diktaturen lehnen eine – vor allem die Mentalität der Bevölkerung berücksichtigende und darüber Auskunft gebende – Soziologie ab; bei besonderem (dann oft geheimem) Beratungsbedarf erlauben auch sie vorübergehend soziologische Fragestellungen (beispielsweise in der DDR der 1980er Jahre im Bereich der angewandten Stadt- und Jugendsoziologie). Bedeutende Soziologen. Einige besonders bedeutsame soziologische Denker seit ihrem Begründer Auguste Comte seien hier aufgeführt. Eine solche Liste ist selbstverständlich anfechtbar. sowie die Liste von 150 soziologischen Klassikern auf Wikibooks. Zeitgenössische soziologische Ansätze. Hier kann nur eine Auswahl angesprochen werden. Sanktion. Eine Sanktion (; aus neulateinisch ‚Heilung, Anerkennung, Bestätigung, Billigung, Strafandrohung‘ zu ‚heiligen, durch Weihe unverbrüchlich festsetzen, gesetzlich bekräftigen, bei Strafe verbieten‘) dient dazu, Verbindlichkeit herzustellen. Der Begriff hat in verschiedenen Wissenschaften unterschiedliche Bedeutung. Recht. Im Rechtssystem der Monarchie war die Sanktion vor allem die Genehmigung eines Gesetzesbeschlusses des Parlaments durch den Monarchen (Erteilung der Gesetzeskraft). Der Monarch hatte das Recht, die Sanktion zu verweigern; ohne sie konnte der Parlamentsbeschluss amtlich nicht publiziert werden und nicht in Kraft treten. Ansonsten sind mit Sanktionen in der Regel durch Gesetze angedrohte Strafmaßnahmen gemeint, die darauf ausgerichtet sind, konkretes Fehlverhalten zu unterbinden und damit Rechtsnormen durchzusetzen. Im Strafrecht dienen Sanktionen gemäß den Strafzwecktheorien dazu, den durch das missbilligte Verhalten gestörten Rechtsfrieden wiederherzustellen. Zusätzlich sollen potentielle Straftäter hierdurch mittels Abschreckung von eigener Delinquenz abgehalten werden. Sanktionen dienen hier also auch der Kriminalprävention. Im Privatrecht dienen beispielsweise Vertragsstrafen diesem Zweck. Im Sozialrecht existieren Sanktionen in Form von Leistungskürzungen (z. B. Sperrzeit im Arbeitslosengeld, Sanktionen im Arbeitslosengeld II). Im Völkerrecht bedient sich der UN-Sichheitsrat z. B. Wirtschaftssanktionen, um andere Staaten zur Einhaltung seiner Beschlüsse zu bewegen. Soziologie. Der Wortbedeutung nach, wie auch im soziologischen Verständnis, können Sanktionen grundsätzlich positiver oder negativer Art sein: Eine positive Sanktion ist eine – nicht zwangsläufig materielle – „Belohnung“; eine negative Sanktion eine „Bestrafung“. In der Soziologie werden Formen der Organisation von sozialen Prozessen damit bezeichnet, siehe Soziale Sanktion. Sanktionierung in der Taxonomie. Durch die Sanktionierung werden wissenschaftliche Namen von Pilzen gegenüber älteren, gleichlautenden Homonymen und konkurrierenden (anderslautenden) Synonymen geschützt. Dazu muss der Name in einem der drei im Internationalen Code der botanischen Nomenklatur genannten Werken vom jeweiligen Autor akzeptiert worden sein. Wurde der Name eines Rost- (Uredinales), Brand- (Ustilaginales) oder Bauchpilzes (Gasteromycetes) in C.H. Persoons akzeptiert, so gilt dieser Name als sanktioniert. Für alle anderen Pilze sind die beiden Werke und von E.M. Fries maßgeblich. Scanner (Datenerfassung). Ein Scanner (engl. "to scan" ‚abtasten‘) oder Abtaster ist ein Datenerfassungsgerät, das ein Objekt auf eine systematische, regelmäßige Weise abtastet oder vermisst. Das Scannen ist ein optomechanischer Vorgang. Die Hauptidee ist, mit relativ begrenzten Messinstrumenten durch eine Vielzahl von Einzelmessungen ein Gesamtbild des Objekts zu erzeugen. Der Scanner nimmt die analogen Daten der physikalischen Vorlage mit Hilfe von Sensoren auf und übersetzt diese anschließend mit D-Wandlern in digitale Form. So können sie z. B. mit Computern verarbeitet, analysiert oder visualisiert werden. Geschichte. Russell Kirsch von NBS hatte schon 1957 den Digital-Scanner entwickelt. Das allererste derart gescannte Bild war ein Babyfoto seines neugeborenen Sohns Walden, 176 mal 176 Pixel. 3D-Scanner. Dreidimensionale Vorlagen lassen sich nur mit einem 3D-Scanner einlesen. Man verwendet solche Geräte meistens zum Katalogisieren oder Archivieren von Objekten. Der Nachteil ist, dass die Abtasteinrichtung oft fest montiert sein muss bzw. bei Handscannern Referenzpunkte auf dem Objekt aufgeklebt werden müssen. Buchscanner. Ein Buchscanner wird primär zum Einlesen gebundener Schriftdokumente benutzt. Spezielle Ausführungen erlauben auch das Scannen von losen Dokumenten, Urkunden und Landkarten. Diascanner. Der Scannertyp wird im professionellen und semiprofessionellen Bereich verwendet und wird in zwei Ausführungen angeboten: zum einen als reiner Filmscanner, bei dem mittels spezieller Vorrichtungen die Diapositive und Negative in den Scanner geführt werden, zum anderen als Hybridgerät, bei dem ein Flachbettscanner einen besonderen Durchlichtaufsatz erhält. Für beide Ausführungen gibt es sowohl einfache als auch hochwertige Geräte, die sich neben der Pixeldichte auch im Dichteumfang stark unterscheiden. Die optische Auflösung hochwertiger Geräte beträgt ca. 3000 ppi bis 4000 ppi. Außerdem arbeiten diese auch mit einem speziellen Ausleuchtungsverfahren, um die sonst üblichen Streu- und Nebeneffekte beim Einscannen der stark reflektierenden Vorlagen zu eliminieren. Siehe auch bei Dia-Scan. Dokumentenscanner. Für die Erfassung größerer Mengen von Schriftgut werden Flachbettscanner mit ADF (Automatic Document Feeder), Einzugsscanner oder spezielle Hochgeschwindigkeitsscanstraßen als Dokumentenscanner eingesetzt. Durchlichtscanner. Durchlichtscanner werden für transparente Vorlagen wie Filme, Dias, Röntgenbilder verwendet. Es gibt Geräte mit im Deckel integrierter oder auch externer Lichtquelle. Faxgeräte. Jedes Faxgerät besitzt für seine Senderichtung einen Einzugscanner. Dabei ist eine Zeile aus lichtempfindlichen CCD-Sensoren (oder Sensoren anderer Technologie) fest im Gerät eingebaut. Die Vorlage wird daran entlanggeführt. Beim Fax wird reiner Schwarzweißbetrieb verwendet, also weder Farbe noch Graustufen erkannt. Einzugsscanner. Der Einzugsscanner ist genau so aufgebaut wie ein Faxgerät (siehe oben), allerdings heutzutage zusätzlich mit Graustufen und Farberkennung. Der offensichtliche Nachteil der Einzugsscanner ist die ausschließliche Verarbeitung von Einzeldokumenten bzw. Stapeln davon. Bücher lassen sich nicht einscannen. Außerdem kann es beim Einzug glatter Vorlagen, wie z. B. Fotos, zu unangenehmen Randverzerrungen kommen. Sie kommen hauptsächlich im Enterprise-Bereich als Dokumentenscanner zum Einsatz. Belegleser. Zum Lesen meist kleinerer Dokumente (Beispiel: von Hand durch Ankreuzen ausgefüllte Formulare), sonst in der Technik wie Dokumentenscanner oder Einzugsscanner. Filmscanner. Im Gegensatz zu Durchlicht-Flachbettscannern kommt ein Filmscanner bei der Filmabtastung von photographischem Material wie Film-Negativen, Dias sowie Kinofilmen für Fernseh- und Kinozwecke zur Anwendung. Siehe hierzu auch Filmabtaster. Flachbettscanner. Der Flachbettscanner, das heute gebräuchlichste Bilderfassungsgerät, arbeitet nach dem gleichen Prinzip wie ein Kopiergerät. Die Vorlage wird auf eine Glasscheibe gelegt, sie bleibt immer am gleichen Platz, die lichtempfindlichen Sensoren werden während des Abtastens unter der Glasscheibe entlanggeführt. Diese Methode erlaubt es, neben Fotos und Bildern auch sperrige Vorlagen wie Bücher abzutasten. Um ein scharfes Bild zu erreichen, muss die Vorlage ganz flach auf der Glasplatte aufliegen. Das bereitet aber bei manchen Vorlagen Probleme. Kostengünstige Flachbettscanner können Vorlagen bis zu DIN A4 abtasten. Großformatscanner. Bei Vorlagengrößen von mehr als A2 spricht man von Großformatscannern, die als Durchzug-, Flachbett- oder Trommelscanner angeboten werden. Bei Durchzugscannern gibt es zwei konkurrierende Systeme, CCD und CIS. CCD arbeitet mit mehreren kleinen Kamerasensoren (daher der Name). Vergleichbar mit Panoramabildern wird das Bild der Kameras zu einem Gesamtbild verrechnet. Das von der Vorlage reflektierte Licht wird dabei über Spiegel und Linsen auf dem Sensor gebündelt. CIS (Contact Image Sensor) arbeitet mit Sensorstreifen, auf die das von der Vorlage reflektierte Licht direkt auftrifft. Da in der CIS-Technik mehrere Sensorstreifen die gesamte Scannbreite abdecken, ist eine Bündelung des Lichts durch Linsen nicht nötig und es treten weniger Fehler auf (kein Versatz zwischen den Kameras, geringe Verzerrungen und keine Farbsäume). Dafür ist die CIS-Technik bei Unebenheiten der Scannvorlage anfällig für Unschärfen. Handscanner. Handscanner mit Schnittstellenkarte für den XT-Bus Wie es der Name sagt, muss man den Handscanner von Hand über die Vorlage ziehen. Man darf den Scanner nicht zu schnell über die Vorlage ziehen (weil ein bestimmter Grenzwert für die übertragene Datenmenge nicht überschritten werden kann) und sollte dabei auch keine seitlichen Abweichungen von der Geraden ausführen, was durch parallel zur (eindimensionalen bzw. linearen) Abtastzeile gelagerte Walzen unterstützt wird. Geräte der ersten Generation waren günstige Alternativen zu herkömmlichen Scannern. Um eine A4-Seite einzuscannen, muss man mehrmals scannen und per Software zusammensetzen, da die Geräte zu schmal sind. Die Rolle erfasste in Zusammenhang mit einem Impulsgeber auch den zurückgelegten Weg über der Vorlage und damit die zweite Dimension. Handscanner waren Anfang bis Mitte der 1990er Jahre populär, sind aber wegen ihrer Nachteile und der stark gefallenen Preise für Flachbettscanner längst vom Markt verschwunden. Heutige Geräte erlauben das Erfassen von ganzen DIN A4 Seiten mit einer Scanbewegung. Die mögliche Geschwindigkeit hat sich wesentlich gesteigert auf je nach Farbeinstellung bis zu 2 bis 4 Sekunden pro Seite. Sie sind batteriebetrieben und speichern auf microSD oder schicken die Daten gleich über Bluetooth oder WLAN an das gewünschte Gerät. Man spricht auch von "mobilen (Dokumenten-)Scannern", worunter aber auch kleine, mobile Einzugsscanner zu verstehen sind; oder gegenüber diesen als Unterscheidungsmerkmal von "Buchscannern", da man nicht nur einzelne Blätter bearbeiten kann. Sie sind heute meist Zusatzgeräte um unterwegs damit zu arbeiten. Zwischendurch wurden in der Hand zu haltende Scanner entwickelt, die einzelne Zeilen einscannen konnten und eine OCR-Software integriert hatten. Sie werden auch "digitale Textmarker" genannt und sind noch erhältlich. Es gibt ähnliche Geräte mit eingebauter Übersetzungs-Software. Radar. Auch die rotierende, horizontal stark bündelnde Antenne eines Rundsichtradars wird gelegentlich als Scanner bezeichnet. Zusammen mit der Darstellung auf vektororientierten Bildschirmen gehört Radar ebenfalls zu den bildgebenden Verfahren. Réseauscanner. Scanner für Anwendungen in der Photogrammetrie wie Réseauscanner Scanner in der Medizin. In der Medizin gibt es verschiedene Scanner, wie z.B. Trommelscanner. Dies ist einer der ältesten Scannertypen, der aber auch heute noch die exaktesten Ergebnisse liefert. Auflösung (ca. 12.000 ppi), Tempo und Qualität bleiben von anderen Gerätearten unerreicht. Die Trommelscanner des früheren Weltmarktführers Heidelberger Druckmaschinen sind mit der Spezial-Software SilverFast weiterhin an modernen Computer-Systemen einsetzbar. Beim Trommelscanner wird die Vorlage auf einer rotierenden Trommel befestigt, an der sich das Beleuchtungs- und Abtastungssystem linear vorbeibewegt, so dass die Vorlage schraubenförmig abgetastet wird. Da die Lichtquelle und das Abtastungssystem immer in der gleichen Lage zum Papier sind, kann mit einfachen Mitteln eine hervorragende Qualität erreicht werden. Zusätzlich haben Trommelscanner anstelle der normalen CCD-Sensoren hochempfindliche Photomultiplier zum Einlesen der Daten. Nachteilig ist, dass sie viel kosten und sehr groß sind. Eine frühe Anwendung von Trommelscannern war die Bildtelegrafie. Arbeitsweise eines Scanners. Scanner arbeiten in der Regel nach folgendem Prinzip: Die Bildvorlage wird beleuchtet, und das reflektierte Licht wird über eine Stablinse, welche das reflektierte Licht bündeln und das Streulicht eliminieren soll, an einen optoelektronischen Zeilensensor geleitet (schneller Scan, englisch: "fast scan"). Die analogen Lichtsignale werden pixelweise durch Analog-Digital-Wandlung in Digitalsignale umgewandelt, während gleichzeitig entweder die Vorlage oder die Sensoroptik schrittweise senkrecht zur Sensorausdehnung bewegt wird (langsamer Scan, englisch: "slow scan"). Bei der Abtastung mit einem Flächensensor kann die gesamte Vorlage oder flächenhafte Teile der Vorlage gleichzeitig gescannt werden. Durch erneuten Scanvorgang nach Verschiebung der Sensoren im Subpixelbereich kann die Bildauflösung und unter Umständen auch die fotografische Auflösung erhöht werden. Scan mit Farbfiltern. Bestimmte Farbwerte werden durch getrenntes Abtasten der Grundfarben (meist Rot, Grün und Blau) mittels Vorschalten von Farbfiltern und gegebenenfalls durch softwaremäßige, additive Farbmischung ermittelt. Dieses Filterverfahren benötigt für jede Primärfarbe einen Scandurchlauf, wenn alle Sensorelemente für den Scan eingesetzt werden. Alternativ werden auch Bayer-Sensoren oder andere Farbsensoren eingesetzt, bei denen alle Sensorelemente mit jeweils einem festen Farbfilter in einer bestimmten Farbreihenfolge versehen werden. Dadurch kann der Scan in einem Durchlauf durchgeführt werden (siehe auch CCD). Scan mit farbigen Lichtquellen. Beim Einsatz von mehreren farbigen und schaltbaren Lichtquellen wird nur ein Scandurchlauf benötigt, da die Farbtrennung durch die Lichtquellen selbst gegeben ist. Die Sensoren messen während einer Messung zum Beispiel mit der Beleuchtung durch preisgünstige Leuchtdioden nur das Licht einer bestimmten Wellenlänge (siehe auch CIS). Alternativ können auch farbige Lichtquellen mit kontinuierlichem Lichtspektrum eingesetzt werden. Scan mit weißer Lichtquelle. Im Prismenverfahren wird die Vorlage mit weißem Licht beleuchtet. Das reflektierte Licht wird durch ein Prisma geführt, das die Farbanteile aufspaltet. Diese werden von nebeneinanderliegenden optischen Sensoren erfasst. Auch bei dieser Technik ist nur ein Scanvorgang erforderlich. Scannereigenschaften. Einfache Scanner mit Einzelblatteinzug verarbeiten ca. zehn Seiten pro Minute. Hochleistungsscanner mit einer Mechanik zum Umblättern erfassen pro Minute 40 Seiten eines Buches. Qualitätsmerkmale. Die Qualität von Scannern kann häufig mittels eines sogenannten Hohlraum-Effekts (englisch "cavity effect") abgeschätzt werden. Dabei werden Würfel aus schwarzer Pappe mit ca. zehn Zentimetern Kantenlänge und einem Loch von ca. fünf Millimetern Durchmesser auf der Lochseite gescannt. Die Lochseite kann dadurch modifiziert werden, dass sie außen aus weißer Pappe besteht. Das Loch stellt näherungsweise einen Hohlraumstrahler dar, der praktisch kein sichtbares Licht aussendet. Im Scan dürfte daher an der Stelle des Loches kein Signal vorhanden sein. Letzteres kommt dadurch zustande, dass Licht aus der Umgebung des Loches in den Bildwandler des Scanners gestreut wird und stellt den "Hohlraum-Effekt" dar. Das Rauschen ist im Wesentlichen ortsunabhängig und hat daher einen konstanten Pegel. Die folgenden acht Beispielbilder illustrieren diese Effekte. Die ersten vier stellen Originalmessungen dar, wohingegen die nächsten vier Bilder mit einer Gammakorrektur versehen sind formula_1. Auf der linken Seite ist jeweils ein guter Scan und auf der rechten Seite ein schlechter Scan dargestellt. Die oberen Bilder zeigen einen gelochten Würfel vollständig aus schwarzer Pappe und die unteren einen mit einer weißen gelochten Außenfläche. In den unteren beiden rechten Bildern sind deutliche Bildfehler zu erkennen. Im oberen rechten Bild, das mit schwarzer Pappe gescannt worden ist, ist im Loch deutlich das Bildrauschen zu erkennen. Im unteren rechten Bild ist dieses Rauschen in der Bildmitte noch erkennbar, wird aber durch Falschlicht überstrahlt, das zur Lochmitte hin schwächer wird. Selbstorganisation. Als Selbstorganisation wird in der Systemtheorie hauptsächlich eine Form der Systementwicklung bezeichnet, bei der die formgebenden, gestaltenden und beschränkenden Einflüsse von den Elementen des sich organisierenden Systems selbst ausgehen. In Prozessen der Selbstorganisation werden höhere strukturelle Ordnungen erreicht, ohne dass erkennbare äußere steuernde Elemente vorliegen. Im politischen Gebrauch bezeichnet Selbstorganisation die Gestaltung der Lebensverhältnisse nach flexiblen, selbstbestimmten Vereinbarungen und ähnelt dem Autonomiebegriff. Konkret eingesetzt wird der Begriff bei sich selbst organisierenden Karten. Geschichte. In sozialen Systemen lässt sich beobachten, wie Ordnung – unabhängig von den Handlungen eines Organisators – aus dem System selbst heraus entsteht. Diese Erscheinung wird als Selbstorganisation bezeichnet. Die Selbstorganisation ist ein nicht nur in der Systemtheorie populärer Begriff. Ihm kommt sowohl in sozialen als auch in natürlichen, physikalischen, biologischen, chemischen oder ökonomischen Systemen Bedeutung zu. Auch geht das Konzept der Rätedemokratie und ihrer sozio-politischen Ansätze davon aus, dass die zur Selbstorganisation erforderlichen Handlungsspielräume gegen bestehende Formen der Fremdbestimmung erkämpft werden müssen. Diesem Ansatz zufolge können die Menschen nur dann ihr Leben selbst in die Hand nehmen, wenn sie auch die Produktionsmittel kontrollieren und nicht hierarchischen Organisationen unterworfen sind. Die Vor- oder Urgeschichte der Selbstorganisation umfasst den Zeitraum vom griechisch-römischen Altertum bis etwa zur Mitte des zwanzigsten Jahrhunderts. Schon im alten Griechenland spekulierten Philosophen über Chaos und Turbulenz als Ursache von Ordnung. In der Philosophie des Aristoteles könnte man Selbstorganisation auch als Entelechie bezeichnen. Die platonisch orientierte Naturphilosophie Isaac Newtons (, 1687) nimmt schon im Ersten Bewegungsgesetz an, dass die Materie absolut passiv ist. Sie ist deshalb auch zu keiner Selbstbewegung und Selbstorganisation fähig. Aktive Ursachen materieller Veränderungen sind hier die immateriellen "Kräfte der Natur". In den Naturwissenschaften des achtzehnten, neunzehnten und frühen zwanzigsten Jahrhunderts dominierten dagegen materialistisch-mechanistische Denkweisen, die sich unter anderem auch in Darwins Evolutionstheorie widerspiegeln. Die eigentliche Entstehungsgeschichte der Selbstorganisation beginnt jedoch erst in der zweiten Hälfte des 20. Jahrhunderts. Der relativ späte Zeitpunkt hat mehrere Ursachen, zunächst verhinderte das vorherrschende mechanistische Paradigma das notwendige Umdenken, außerdem wurden mit Selbstorganisation in Verbindung stehende Phänomene ignoriert. Gegenwärtig kann noch nicht von einer Theorie selbstorganisierender sozialer Systeme oder von empirisch getesteten Hypothesen gesprochen werden. Der universellen Anwendbarkeit verdankt der Begriff der Selbstorganisation seine breite Resonanz. Selbstorganisation in der Systemtheorie. Selbstorganisation ist das spontane Auftreten neuer, stabiler, effizient erscheinender Strukturen und Verhaltensweisen (Musterbildung) in offenen Systemen. Das sind Systeme, die sich fern vom thermodynamischen Gleichgewicht befinden, die also Energie, Stoffe oder Informationen mit der Außenwelt austauschen. Die Selbstorganisation ist jedoch auch bei exothermen Prozessen und Prozessen im thermischen Gleichgewicht allgegenwärtig, in der Welt der Elementarteilchen, der Physik und der Chemie, im Weltall bei der Entstehung der Sterne und Planeten, in der Evolution, der Biologie bis hin zu den anfangs genannten Sozialsystemen Emergente Systeme entstehen von selbst aus ihren Elementen durch die Wechselwirkungen zwischen ihnen. In Physik und Chemie sind dies unmittelbar die Kräfte der Naturgesetze. Die Systeme haben zusätzlich zu ihren komplexen Strukturen auch neue Eigenschaften und Fähigkeiten, die die Elemente nicht haben. Ein selbstorganisiertes System verändert seine grundlegende Struktur abhängig von seinem Entwicklungsprozess und seiner Umwelt. Die interagierenden Teilnehmer (Elemente, Systemkomponenten, Agenten) handeln nach einfachen Regeln und erschaffen dabei aus Chaos Ordnung, ohne eine Vision von der gesamten Entwicklung haben zu müssen. Ein einfacher Fall von (physikalischer) Selbstorganisation ist z. B. das Auftreten von Konvektionszellen beim Erhitzen von Flüssigkeiten (Bénard-Experiment). Das Konzept der Selbstorganisation findet man in verschiedenen Wissenschaftsbereichen wie z. B. Chemie, Biologie (Gerichtete Faltung und Assoziation von Proteinen, Helix-Bildung der DNA, …), Soziologie usw. Selbstorganisation in der Betriebswirtschaftslehre. Selbstorganisation im unternehmerischen Handeln verlagert einen Teil der hierarchischen Funktionen in die unterlagerten Organisationseinheiten. Solches Vorgehen erfordert einen Paradigmenwechsel, der alle Beteiligten neu herausfordert. Selbstorganisation in Schule und Unterricht. Im Zuge der Schülerorientierung wurden seit den 1970er Jahren Unterrichtskonzepte entwickelt, die Selbstorganisation in der Lernergruppe fördern. Hier ist das Konzept kooperatives Lernen zu nennen. Ferner wird in der Methode Lernen durch Lehren die Klasse als "neuronales Netz" behandelt. Dabei sollen – in Analogie zu neuronalen Ensembles – durch intensive und langfristige Interaktionen zwischen den Lernenden stabile Verbindungen entstehen, die Gruppe lernt also. Darüber hinaus sollen diese "neuronalen Netze" kollektiv Wissen konstruieren. Selbstorganisation in der Kinder- und Jugendarbeit. Prozesse jugendlicher Selbstorganisation, wie sie sich zum Beispiel in selbstverwalteten Jugendhäusern und Jugendräumen zeigen, stellen eine zentrale Form offener Kinder- und Jugendarbeit dar, in der pädagogische Fachkräfte entweder keine Rolle spielen oder doch nur die Funktion von Begleitern, Beratern oder Moderatoren (z. B. bei Konflikten Jugendlicher mit ihrer Umwelt, etwa den Nachbarn des selbstorganisierten Jugendraumes) wahrnehmen. Selbstorganisation in Naturwissenschaft und Technik. Das emergente Verhalten eines selbstorganisierenden Systems zeigt oft sehr gute Eigenschaften bezüglich der Skalierbarkeit und der Robustheit gegenüber Störeinflüssen oder Parameteränderungen, weshalb sich selbstorganisierende Systeme gut als Paradigma für zukünftige komplexe technische Systeme eignen. Allerdings gibt es keinen einfachen Algorithmus, um die notwendigen lokalen Regeln für ein erwünschtes globales Verhalten zu erzeugen. Bisherige Ansätze bauen zum Beispiel auf manuellem Versuch und Irrtum auf und erwarten ein grundsätzliches Systemverständnis durch den Ingenieur. Als andere Alternative werden oft existierende Systeme in der Natur kopiert, was jedoch das Vorhandensein eines geeigneten Beispiels voraussetzt. Ein naturinspiriertes Beispiel ist die Ausnutzung eines Effekts, der in der Natur bei sog. Rippelmarken in Dünen auftritt. Dieser Effekt wird beim Schichtwachstum ausgenutzt. Quantenpunkte wachsen so. Aktuelle Forschung zielt auf die Anwendung von evolutionären Algorithmen zum Entwurf eines selbstorganisierenden Systems. In den letzten Jahren wird der Begriff der Selbstorganisation vermehrt auch für Technologien zur Herstellung und Modifizierung von MEMS und NEMS verwendet, besser bekannt als Bottom-up-Verfahren. Hier findet Selbstorganisation auf molekularer oder nanokristalliner Ebene statt und kann biologisch, chemisch oder physikalisch erfolgen. Selbstregulation. Der Begriff Selbstregulation oder "Selbstregulierung" bezeichnet das Verändern eigener Gedanken, Gefühle, Motive und Handlungen aufgrund von Selbsterkenntnis oder Reflexion. Es erfordert das Wahrnehmen und Fähigkeiten zum Ändern und deren zielgerichtetes Anwenden. Selbstregulation wird häufig als Synonym für Volition oder Willenskraft verwendet. Das Prinzip der Selbstregulierung wurde aus den Paradigmen der Homöostase und Kybernetik unter anderem durch Frederick Kanfer, Paul Karoly und Albert Bandura in den 1970er Jahren entwickelt. Im Gegensatz zur "Steuerung", beschreibt der Begriff "Regulierung" lernfähige Systeme, die sich durch Feedback an veränderte Rahmenbedingungen anpassen und trotz dieser "Störungen" (Soll-Ist-Abweichungen) ihr (selbst gesetztes) Ziel erreichen können. Eine Fremdsteuerung durch Andere als den Handelnden erlaubt keine Regulierung, weil das Feedback allenfalls mittelbar den Steuernden erreicht. Physiologie und Psychologie. Das Grundprinzip der Regelung (im Vergleich zur Steuerung) basiert auf der Rückmeldung der Abweichung des Sollwertes vom Istwert, damit das System das angesteuerte Ziel erreichen kann. Rainer Klinke und Co-Autoren veranschaulichen diesen Zusammenhang an folgendem Beispiel: Mit Steuerung ist das gemeint, was ein Seemann macht, wenn er das Schiff in die Himmelsrichtung steuert, in der das Ziel liegt. Das ist allerdings nur in dem wenig realistischen Fall möglich, in dem keine störenden Hindernisse, Strömungen und veränderte Windrichtungen auftreten. Vielmehr muss der Kapitän wiederholt die tatsächliche mit der gewünschten Position vergleichen und so den Kurs korrigieren. Diese Ergänzung der Steuerung durch Rückmeldung des Erreichten nennt man Regelung. Erfolgt die Vorgabe des Sollwertes von außen, muss sich das System durch eine Verhaltensänderung anpassen, es muss lernen. Eine andere Form des Lernens liegt vor, wenn Systeme ihre Sollwerte aus der Veränderung des Umfeldes ableiten. Dazu benötigen sie einen Speicher bzw. ein Gedächtnis für Erfahrungen, den sie für künftiges Verhalten nutzen. Somit umfasst der Begriff Selbstregulierung nach Eran Magen und James Gross die Fähigkeiten, Beispiele für die praktische Anwendung dieses Prinzips auf menschliches Verhalten sind die Konzepte der Volition in der Psychologie und im Management (siehe Volition (Psychologie) und Volition (Management)). Modell der Selbstregulation nach Kanfer. Frederick Kanfer geht davon aus, dass Selbstregulation immer dann einsetzt, wenn eine Person ein Ziel erreichen will und auf diesem Weg Hindernisse auftreten, oder wenn ein gewohnter Verhaltensfluss unterbrochen wird. In beiden Fällen richtet der Betroffene seine Aufmerksamkeit auf sein Verhalten. S. 37-38. Die Hauptkomponenten des Selbstregulationsmodells nach Kanfer sind: S. 38 Dieser Prozess kann mehrfach durchlaufen werden, bis eine Reaktion den persönlichen Standards entspricht. Dieses – ursprünglich lineare – Modell wurde seit 1970 mehrfach überarbeitet. Es wurden Feedback-Schleifen (Vergleich von Reaktion, Konsequenzen und Situation mit Standards bzw. früheren Erfahrungen) eingeführt, somit handelt es sich nicht mehr um ein rein sequentielles Modell. Zudem wurde die Rolle von Attributions­prozessen (d. h. der Einschätzung der Person, ob das Problem überhaupt durch ihr Verhalten beeinflussbar ist) sowie von Erwartungen und Befürchtungen (Antizipation) mit berücksichtigt. S. 37–41. Ein Spezialfall der Selbstregulation ist die Selbstkontrolle. Diese wird nach Kanfer angewandt, wenn es sich um Verhaltensalternativen handelt, die für die Person konflikthaft sind, und sie – ohne äußeren Druck – die Verhaltensalternative mit der geringeren Auftretenswahrscheinlichkeit wählt (z. B. Ablehnen einer Zigarette trotz Verlangen danach). Hierbei wird nicht ein Persönlichkeitsmerkmal („Willenskraft“) beschrieben, sondern ein spezifisches Verhalten in einer bestimmten Situation. Bei der Auslösung und der Aufrechterhaltung des Verhaltens spielen jedoch sowohl innere Aspekte (wie z. B. Motivation, körperliche Faktoren) als auch Umgebungsfaktoren (z. B. gesellschaftliche Normen) eine große Rolle. S. 41–43. Das Modell der Selbstregulation bildet eine wichtige theoretische Basis der von Kanfer entwickelten Selbstmanagement-Therapie. S. 43. Pädagogik. Selbstregulation ist ein Begriff, der in der Pädagogik der 1970er Jahre eine zentrale Rolle spielte (Gerhard Bott: Erziehung zum Ungehorsam (Film, 1969); Terror aus dem Kinderladen (Film, 1972); A. S. Neill; siehe Literatur). Das Konzept beinhaltete, dass Kinder sich ohne bedeutende Einwirkungen durch Erziehende zum gesellschaftsfähigen Individuum entwickeln. Erziehende sind nur noch zuständig, wenn es um den Schutz des Kindes geht. Autorität dagegen, die die Erziehung in die Hand nimmt, ist nicht mehr von Bedeutung oder unerwünscht, da sich Kinder frei und selbständig zum Individuum entwickeln bzw. selbst herausfinden, wie sie sich in der Welt zurechtfinden. Auch soziale Regeln werden in Gruppenprozessen und ohne Einwirkung des Erziehenden formuliert. Der Erziehende sollte oder darf nicht mehr als derjenige auftreten, der Erziehungsprozesse steuert und die Ziele vorgibt. Beispiele für diese Form der Erziehung waren die „Kinderläden“. Das waren Einrichtungen die Kinder meist im Alter zwischen 3 und 6 Jahren aufnahmen. Kinderläden waren meist eingetragene Elternvereine, die die Erziehungskonzepte zusammen mit den dort arbeitenden Erziehern entwickelten. Signal. Ein Signal (‚dazu bestimmt‘, ‚ein Zeichen‘) ist ein Zeichen mit einer bestimmten Bedeutung, die das Signal durch Verabredung oder durch Vorschrift erhält. Eine Information kann durch ein Signal transportiert werden. Dazu benötigt man einen Sender und einen Empfänger (vgl. das Funksignal in der Nachrichtentechnik). Ohne technische Hilfsmittel kommt man bei der direkten menschlichen Kommunikation aus, dort können (oft nonverbale) Signale verschiedene Aufforderungen bedeuten. Allgemeines. Ein Signal enthält im Allgemeinen eine Bedeutung und kann zur Übertragung einer Nachricht genutzt werden. Es ist nur dann von Nutzen, wenn der Empfänger einen definierten Sinn darin erkennt, über einen geeigneten Sensor verfügt und den Informationsgehalt entsprechend auswerten kann. Ein Gerät oder Gegenstand zur Signalerzeugung ist ein "Signalgerät" (Signalmittel). Wird ein Signal zur Auswertung von Information genutzt, nennt man es "Nutzsignal". Behindert es die Übertragung nützlicher Information, so heißt es "Störsignal": In diesem Fall enthält es selbst keine verwertbare Information. Die Abgrenzung von "technischen" und "nicht-technischen" Signalen ist nicht in jedem Fall vollkommen eindeutig herzustellen. Ein nicht-technisches Signal aus dem Bereich Verkehrswesen ist ein Polizist, der mit Handzeichen den Verkehr regelt. Und ein technisches Signal aus dem Bereich Kommunikation ist das Signal in der Telefonleitung. "Lichtsignal" und "Tonsignal" lassen sich nach den verschiedenen Quellen eindeutig voneinander unterscheiden. Bekannte Quelle für ein Lichtsignal ist die Beleuchtung für Notausgänge (Piktogramm). Allgemein ist ein Signal im technisch-physikalischen Zusammenhang eine Wirkung, welche von einem physikalischen Objekt ausgeht und sich mathematisch als eine Funktion beschreiben lässt (beispielsweise ein elektrischer Spannungsverlauf über der Zeit). Signal in der Nachrichtentechnik. Ein Fachgebiet, das sich mit dem Begriff "Signal" besonders auseinandersetzt, ist die Nachrichtentechnik, ein Bereich der Elektrotechnik. Von einem Signal spricht man, wenn man einer messbaren physikalischen Größe wie z. B. einer elektrischen Spannung, einem Schalldruck oder einer Feldstärke eine Information zuordnet. Diese Information kann aus der Messung eines physikalischen Prozesses stammen, wie zum Beispiel der Messung einer Temperatur. Die Information kann einem Signal auch durch ein technisches Modulationsverfahren aufgeprägt werden, um durch ein Signal beliebige Informationen an eine geeignete Empfangseinrichtung zu übertragen. Im Allgemeinen ändern Signale ihren Betrag als Funktion der Zeit und einer weiteren informationstragenden Größe. Weiterhin sind Signale in allgemeiner Darstellung dimensionslos, haben also keine bestimmte Maßeinheit. Die Zuordnung der Information zu einem Signal ist zunächst willkürlich, sodass die Information im Allgemeinen nur sinnvoll ausgewertet werden kann, wenn die Eigenschaften der Quelle des Signals bekannt sind. Eine analoge Informationsübertragung kann durch Modulation einer hochfrequenten Trägerwelle erfolgen, sodass das Signal durch Veränderung der Amplitude oder der Frequenz der Trägerwelle entsteht; man spricht dann von Amplitudenmodulation bzw. Frequenzmodulation. Signale, die keinen kontinuierlichen Zeitverlauf besitzen, nennt man "zeitdiskret". Falls in physikalischen Systemen die Zeit kontinuierlich abläuft, sind nur die von einem Messsystem beobachteten Zustandsgrößen (Werte des Signales zu bestimmten Zeitpunkten) zeitdiskret. Kann die messbare Größe nur endlich viele Werte annehmen, im Extremfall nur zwei wie, oder, so spricht man von einem "wertdiskreten" oder n-nären (im Falle von zwei Werten binären) Signal. Ein gleichzeitig zeitdiskretes und wertdiskretes Signal wird als Digitalsignal bezeichnet. Im Gegensatz dazu bezeichnet man als Analogsignal ein Signal, dessen informationstragende Größe stetig veränderliche Werte annehmen kann. Beispiele für Signale in der Nachrichtentechnik sind das Zeitsignal oder in der Fernseh- und Videotechnik das Fernsehsignal. Theoretisches Modell. Das Modell eines Signals ist die reelle Funktion, die jedem Punkt der reellen Achse als Zeitstrahl einen reellen Wert zuweist. Möchte man auch räumliche Aspekte oder Variationen in weiteren Parametern in den Signalbegriff einbeziehen, wie es in der digitalen Bildbearbeitung geschieht, so modelliert man das Signal als Funktion mit dem linearen Raum ℝd oder einer Teilmenge davon als Definitionsbereich. Den Fall "d" = 1 assoziiert man mit zeitabhängigen Signalen, den Fall "d" = 2 mit ortsabhängigen Signalen. Die Zielmenge muss ebenfalls nicht auf eine Dimension eingeschränkt zu bleiben. Verfolgt man die Entwicklung mehrerer Größen gleichzeitig, so bildet das "N"-Tupel der Messwerte einen Punkt in einem linearen Raum ℝ"N". Ist der Definitionsbereich diskret, besteht er also aus isolierten Punkten, so nennt man das Signal ebenfalls "diskret". Für die Signaltheorie relevant sind dabei endliche Mengen und reguläre Gitter im ℝ"d", wie z. B. die Menge ℤ"d" oder skalierte Varianten davon. (Jedes reguläre Gitter im ℝ"d" ist gegeben durch einen Aufpunkt O, meist der Nullpunkt, und eine Basis, meist eine skalierte Instanz der kanonischen Basis.) Ist zusätzlich zum diskreten Definitionsbereich der Wertevorrat eine endliche Menge, z. B. eine endliche Teilmenge des ℝ"N", so nennt man das Signal "digital", denn die endlich vielen Elemente können durch Bitfolgen aus "M" für ein genügend großes "M "aufgezählt werden. Ein "elementares" digitales Signal ist eine Funktion auf einem Gitter, die in die Menge bzw. die der Wahrheitswerte oder die der Zustände abbildet. Über Tupel, d. h. Bitfolgen, von "elementaren digitalen Signalen" kann jede Form von digitalen Daten kodiert werden. Tontechnik. Für die Übertragung eines (elektrischen) Tonsignals im Sinne der Tontechnik hat der Lautsprecher weltweite Verbreitung gefunden. Mehrere Tonsignale lassen sich ggf. als Akkord (unterschiedliche Signale gleichzeitig) oder als Melodie (Abfolge von Signalen) wahrnehmen. Quellen für Tonsignale sind: Mikrofon mit Verstärker, Musikinstrument, Tonwiedergabegeräte (z. B. CD-Spieler, Plattenspieler etc.), Synthesizer (z. B. Soundkarte). Messtechnik. Als Messsignal bezeichnet man eine physikalische Größe, die der zu messenden Größe eindeutig zugeordnet ist. Das Messsignal ist in der Regel zeitlich veränderlich. Im Zusammenhang mit einer Messeinrichtung unterscheidet zwischen deren Eingangs- und Ausgangssignal. Das Ausgangssignal kann eine Anzeige sein oder ein vorzugsweise elektrisches Signal in Form eines Analog- oder Digitalsignals. Beispiel: Wenn die Frequenz einer akustischen Schwingung zu messen ist, wird das Messsignal eine elektrische Wechselspannung sein. Militär. Im Militärwesen verwendet man Signale, um freundlichen oder feindlichen Truppen Informationen zukommen zu lassen; siehe auch: Erkennungssignal, Signalmittel, Flaggensignal, Schamade. Optische Telegraphie. Im frühen 19. Jahrhundert wurde optisch telegrafiert, d. h. die Information wurde durch die Stellung von Telegrafenarmen übertragen. Sicherheit. Als Notsignal oder Warnsignal werden im Gebirge oder auf See Signalraketen verwendet, aber auch der Morse-Code für SOS "kurz-kurz-kurz lang-lang-lang kurz-kurz-kurz". "Signalwesten" werden in verschiedenen Berufsbereichen getragen, um Fußgänger in besonderen Situationen deutlich sichtbar zu machen: am Flughafen oder am Hafen, in Baustellen oder bei einer Panne am Fahrzeug. Signale für die Wahrnehmung durch den Menschen. Signale für die Wahrnehmung durch den Menschen sind so beschaffen, dass einer der Sinne des Menschen diese wahrnehmen kann, beispielsweise als Signalfarbe oder Klingelton. Sie können einen bestimmten Zweck haben, z. B. als Warnsignal oder eine Information enthalten wie z. B. über die "freie Fahrt" an einer grün leuchtenden Verkehrsampel. In diesem Sinne werden in der Schweiz die Verkehrszeichen als Strassensignale bezeichnet. Signale für die Wahrnehmung durch den Menschen können im Ursprung elektrotechnisch, chemischen oder körpersprachliche generiert sein. z. B. bei einer Geste. Konditionierung. Auch im Umgang zwischen Mensch und Tier sind Signale üblich (vgl. Dressur), so zum Beispiel bei Hund oder Pferd. Hierbei müssen die Schritte des Signalerkennens, der Signalauswertung und einer entsprechend antrainierten Reaktion vorher geübt werden. Sozialwissenschaften. Ein "politisches Signal" ist eine Handlung, von deren Vorbild- und anderer Wirkung oder deren kulturell implizierten Bedeutungen eine Beeinflussung der Akteure eines politischen Systems erwartet wird. Biologie. In Lebewesen findet die Signalübertragung hauptsächlich durch Botenstoffe und elektrische Ladungen (Nervenzellen) statt. Speicher. Ein Speicher (v. lat.: "spicarium" Getreidespeicher, aus "spica" Ähre), je nach Zusammenhang auch Lager, Depot, Ablage, Puffer, Vorrat oder Reserve genannt, ist ein Ort oder eine Einrichtung zum Einlagern von materiellen oder immateriellen Objekten. Grundlagen. Speicher können natürlichen Ursprungs sein oder vom Menschen künstlich geschaffen werden. Zumeist erfolgt eine Speicherung vom Menschen zeitlich befristet mit der Absicht oder zumindest der Option, das Eingelagerte zu einem späteren Zeitpunkt wieder für den Gebrauch zu entnehmen. Solche oft auch "Zwischen"speicher, Puffer oder Vorrat bezeichneten Speicher dienen zum Ausgleich von zeitlichen Unterschieden zwischen Zufluss/Angebot und Abfluss/Nachfrage. Seltener erfolgt eine Speicherung unbefristet oder endgültig. Für solche Speicher ist im Sprachgebrauch der Begriff (End-)Lager oder Ablage üblicher. Theoretische Grundlagen. Die gespeicherte Menge und somit der Füllstand des Speichers, ergibt sich mathematisch als zeitliches Integral über die Differenz aus Zuflussrate und Abflussrate im Zeitintervall formula_1 Wird die Speicherkapazität (d. h. der maximal mögliche Füllstand) überschritten, kommt es ggf. zu einem Überlauf. Ein Speicher ist ein wichtiges Element in der Regelungstechnik. Es kann zur Glättung verwendet werden. Bei einem System mit mehreren Speichern gleicher Art kann es zu Schwingungen kommen. Politische Stabilität. Politische Stabilität ist die staatliche oder regionale Beständigkeit der öffentlich wirksamen Gesellschaft. Instabile Politiksituationen sind z. B. durch Revolutionen, Unruhen durch Armut, Hunger oder Ungerechtigkeit, massive Korruption oder offensichtlichen Wahlbetrug, schwere Wirtschaftskrisen und hohe Arbeitslosigkeit und manchmal auch durch Gleichstand an Parlamentssitzen verursacht. Stau (Wasserstraßen). Ein Stau (griechisch: στάσις = stasis für stehen, Station) bezeichnet die Störung eines Verkehrs- oder Transportflusses über einen Transportweg, zum Beispiel Kanal. Mögliche Störungen sind z. B. Engstellen oder sonstige Verkehrsbehinderungen; von Stau spricht man allgemein, sobald der Fluss erheblich behindert ist oder vollständig zum Erliegen kommt. Die Eigenschaften des Transportweges beziehungsweise Kanals wie Kapazität und die Verkehrslenkung einerseits und die Eigenschaften des Transportgutes andererseits sind dabei von großer Bedeutung. Der Transport ist normalerweise gekennzeichnet durch eine fortgesetzte Belegung und gleichzeitige Freigabe von (Kanal-)Ressourcen. Dieser Vorgang ist bei einem Stau gestört. Folge ist eine fortgesetzte weitere Belegung, aber ohne entsprechende Freigabe. Der Stau ist daher ein selbstverstärkender Vorgang, der durch plötzliches Entstehen z. B. auf Wasserwegen seine Gefährlichkeit ausmacht. Ursachen von Stau auf Wasserstraßen. Ein Stau kann gewollt oder ungewollt sein. Beispiele für einen gewollten Stau ist der Wasserstau an einer Staustufe oder einer Stauanlage: größtenteils zur Stromerzeugung, gelegentlich auch zur Bewässerung. Weitere Engstellen sind Schleusen und Schiffshebewerke. Ebenso kann der Kreuzungsverkehr mehrerer Verkehrsarten (Fluss zu Schiene/Straße) an beweglichen Brücken durch Blockabfertigung einen Schiffsstau verursachen. Arten von Stau. Man unterscheidet zwischen Wasserstau und Schiffsstau. Ein Wasserstau kann, wie oben beschrieben, gewollt oder durch Treibgut oder Umweltverschmutzung fahrlässig verursacht sein. Ein Schiffsstau ist immer von dem Verhalten der Verkehrsteilnehmer bzw. vom Einsatz der Schiffe durch die Reedereien abhängig. Auch Havarien tragen zur Störung im Verkehrsfluss der Schiffe bei. Flüsse sind meistens nicht durchgängig barrierefrei, sodass Schiffe geschleust werden müssen. Hier entstehen wegen der begrenzten Aufnahmemöglichkeit in der Schiffsschleuse Rückstaus wartender Schiffe, die sich auch nachteilig auf den Verkehrsfluss auswirken. Ein Schiffsstau kommt wegen der großen zur Verfügung stehenden Verkehrsfläche sehr selten vor, außerdem besteht auf den Binnenwasserstraßen ein effektives Verkehrslenkungssystem, das die Schiffsführer frühzeitig auf Behinderungen aufmerksam macht. Symbiose. Symbiose (von griechisch "sýn" ‚zusammen‘ sowie "bíos" ‚Leben‘) bezeichnet in Europa die Vergesellschaftung von Individuen zweier unterschiedlicher Arten, die für beide Partner vorteilhaft ist. Ausgehend von seinen Arbeiten an Flechten schlug Anton de Bary 1878 auf der 51. "Versammlung Deutscher Naturforscher und Ärzte" in Kassel vor, die Bezeichnung "Symbiose" für jegliches Zusammenleben von artverschiedenen Organismen, also auch für den Parasitismus, in die Biologie einzuführen. In diesem weitgefassten Sinn wird die Bezeichnung "Symbiose" (englisch "symbiosis") noch immer in der US-amerikanischen Literatur für sämtliche Formen des coevolutionär entstandenen Zusammenlebens, vom Mutualismus über den Neutralismus bis hin zum Parasitismus verwendet. In Europa wurde die Bezeichnung "Symbiose" dagegen für den eingangs definierten engeren Begriff verwendet. Bei Symbiosen zwischen Lebewesen, die sich durch ihre Größe erheblich unterscheiden, bezeichnet man den größeren Partner oft als "Wirt", den kleineren als "Symbiont". Häufigkeit von Symbiosen. Der größte Teil der Biomasse auf der Erde besteht aus symbiotischen Systemen, da ein großer Teil der Bäume und Sträucher auf Bestäubung durch andere Spezies angewiesen ist. Hinzu kommen die Flechten, eine symbiotische Lebensgemeinschaft zwischen einem Pilz und Grünalgen oder Cyanobakterien. Viele im flachen Wasser lebende sessile wirbellose Meerestiere wie Feuerkorallen, die meisten Blumentiere sowie die Riesenmuscheln leben mit Fotosynthese betreibenden Zooxanthellen zusammen. Ein weiteres Beispiel sind die Magen- und Darmbakterien der Tiere, die etwa bei Wiederkäuern den Aufschluss zellulosereicher Pflanzennahrung ermöglichen. Unterscheidung nach der Art des erzielten Nutzens. Eine Unterscheidung von Symbioseformen ergibt sich aufgrund der Art des erzielten Nutzens für die beiden beteiligten Arten. Endosymbiontentheorie. Die Endosymbiontentheorie besagt, dass die Mitochondrien und Chloroplasten, Zellorganellen in Eukaryoten (Pflanzen, Tiere und Pilze), zu einem frühen Zeitpunkt der Evolution aus endosymbiotisch lebenden Prokaryoten (aerobe, chemotrophe Bakterien bzw. Cyanobakterien) entstanden sind. Hierfür sprechen die Übereinstimmungen im strukturellen Aufbau und in den von den Wirtszellen abweichenden, aber mit den Prokaryoten übereinstimmenden, biochemischen Merkmale (z. B. Aufbau der Ribosomen und, soweit vorhanden, der DNA). Des Weiteren vermehren diese Zellorganellen sich durch Teilung, genau wie Bakterien es tun. Symbiogenese. Die Aufnahme von Endosymbionten ist ein Beispiel dafür, dass symbiotische Lebensgemeinschaften im Laufe der Evolution so eng werden können, dass es sinnvoll ist, diese als neu gebildete biologische Arten zu betrachten. Dieses Entstehen einer neuen Art durch Verschmelzung von Symbionten wird als Symbiogenese bezeichnet. Die Bedeutung der Symbiogenese wurde in neuerer Zeit durch die US-amerikanische Evolutionsbiologin Lynn Margulis stark betont. Nach ihrer (stark umstrittenen) Theorie gehört Symbiogenese zu den wichtigsten artbildenden Mechanismen überhaupt. Wissenschaftliche Beschreibung. Zur wissenschaftlichen Beschreibung und Modellierung symbiotischer Systeme kommen in der Biologie Systeme gewöhnlicher Differentialgleichungen, gelegentlich aber auch kompliziertere mathematische Strukturen zum Einsatz. falls ein Effekt der Symbiose in einer Veränderung der intrinsischen Wachstumsrate der beteiligten Populationen besteht falls der primäre Effekt in einer Anpassung der Kapazitäten liegt. Mischformen dieser beiden simplifizierenden Grenzfälle sind selbstverständlich möglich und dürfen in der Natur regelhaft vermutet werden. System. Als System (altgr. ', ‚aus mehreren Einzelteilen zusammengesetztes Ganzes‘) wird allgemein eine Gesamtheit von Elementen bezeichnet, die so aufeinander bezogen oder miteinander verbunden sind und in einer Weise interagieren, dass sie als eine aufgaben-, sinn- oder zweckgebundene Einheit angesehen werden können, als strukturierte systematische Ganzheit. In unterschiedlichen Fachgebieten werden darüber hinaus spezifischere Begriffsverwendungen vorgeschlagen, diskutiert und angewendet. Begriffsgeschichtlich tritt neben die Verwendung der Bezeichnung „System“ für funktionale Gebilde wie Sonnensysteme oder Tonsysteme die Verwendung für (Grimm’sches Wörterbuch). Ein hierzu ähnlicher Begriff ist "Konstrukt" (vgl. auch die Theorie des "Sozialkonstruktivismus"). Antike. Die griechischen Ausdrücke σύστημα, σύσταμα, σύστεμα fanden Gebrauch als „Oberbegriff für alle verbandlichen Organisationen, die öffentlichen Gemeinwesen mit eingeschlossen“. An den musiktheoretischen Gebrauch knüpft Platon in seinem späten Dialog "Philebos" an. Er spricht von den vielen „Verbindungen“, welche aus den „Zwischenräumen“ der Töne entstehen und von ebenfalls in Zahlen messbaren „ähnlichen Verhältnissen“ in den Bewegungen des Leibes; zugleich müsse man dabei bedenken, was darin „Eines und Vieles“ ist; durch dieseart Überlegung gelange man zur „Einsicht“, die wegen der Unendlichkeit jedes Begriffs und Dinges aber nie abschließbar sei. Der pseudo-platonische Dialog "Epinomis" bezieht den Terminus „σύστημα“ auf die Zahlen, mit welchen die Gesetze der Sternbahnen erfassbar sind. Neuzeit. Seit dem 16. Jahrhundert wird der Systembegriff in verschiedenen Zusammenhängen verwendet, so z. B. bezogen auf die Sphäre der Politik zuerst durch Thomas Hobbes im Sinne einer "political entity". Systembegriff der Systemtheorie. Als "Systemtheorie" werden Forschungsrichtungen diverser Fachrichtungen zusammenfassend bezeichnet, die komplexe Zusammenhänge durch allgemeine Theorien zum Funktionieren von Systemen überhaupt beschreiben. Als erster definierte um 1950 Ludwig von Bertalanffy (1901 - 1972) Systeme als Interaktionszusammenhänge, die sich von ihrer Umwelt abgrenzen, die wiederum aus anderen Interaktionszusammenhängen besteht. Gemäß in diesem Kontext verbreiteter Grundideen lassen sich Systeme als sich selbst organisierende Funktionseinheiten verstehen, die ihr Weiterfunktionieren selbst produzieren (vgl. Autopoiesis) und sich in spezifischer Weise von ihrer Umwelt differenzieren, etwa durch Ausprägung spezifischer Unterscheidungsweisen. Ein Beispiel: Seefahrer setzten bestimmte Tiere auf einer Insel aus, um sie später dort jagen zu können. Dadurch gerät das bis dahin auf der Insel bestehende System aus Tieren und Pflanzen „durcheinander“; ein neues System entsteht. Manchmal entstehen Endemiten (= Pflanzen oder Tiere, die nur in einer bestimmten, räumlich klar abgegrenzten Umgebung vorkommen). Systembegriff der strukturalen Linguistik. Der strukturalen Linguistik (→ Strukturalismus) liegt die Auffassung zugrunde, dass sprachliche Einzelelemente nicht jeweils durch sich selbst in ihrer Bedeutung begründet sind, sondern durch ihre Relationen zu anderen Elementen – wobei deren Ganzheit als "System" mit unter anderem dieser allgemeinen Eigenschaft beschrieben wird. Leittechnik. Für Leittechnik definiert IEC 60050-351 ein System als Sergio Leone. Sergio Leone (* 3. Januar 1929 in Rom, Italien; † 30. April 1989 ebenda) war ein italienischer Filmregisseur. Besondere Bekanntheit erlangte er durch seine Arbeiten im Bereich der Italo-Western. Mit den epischen Westernfilmen "Zwei glorreiche Halunken" und "Spiel mir das Lied vom Tod" konnte er in den späten 1960er Jahren seine größten Erfolge verbuchen. Kindheit und Jugend. Sergio Leone wurde am 3. Januar 1929 als Sohn des Filmpioniers Vincenzo Leone („Roberto Roberti“) und der Schauspielerin Edvige Valcarenghi („Bice Walerian“) geboren. Sein Vater war seit 1911 im Filmgeschäft tätig und wurde in Italien vor allem durch seine Zusammenarbeit mit dem Stummfilmstar Francesca Bertini bekannt. Er sympathisierte mit den Kommunisten und zog sich unter dem Eindruck des Faschismus weitgehend von der Außenwelt zurück. Leones Vater begann ab 1939 damit, wieder Filme zu drehen. Da Vincenzo Leone den kleinen Sergio regelmäßig zu seiner Arbeit mitnahm, war dieser bereits von Kindesbeinen an mit allen Aspekten der Filmherstellung vertraut. Erste Schritte im Filmgeschäft. Ab Mitte der 1940er Jahre arbeitete Leone in den unterschiedlichsten Positionen im italienischen Studiosystem. Als Statist, Regieassistent, Regisseur des zweiten Kamerateams oder Autor von Drehbüchern wirkte Leone bei einer Vielzahl von italienischen Filmen mit. Meist handelte es sich um künstlerisch eher anspruchslose Filme im Stile des damals sehr populären Peplum. Allerdings war Leone als Komparse und Regieassistent auch an dem Filmklassiker "Fahrraddiebe" (1948) beteiligt. Bei dem amerikanischen Monumentalfilm "Quo Vadis" (1951), der in Rom gedreht wurde, fungierte er als einer der Regisseure des zweiten Aufnahmeteams. Dieselbe Funktion hatte er 1959 auch bei "Ben Hur" inne, dem aufwändigsten Filmprojekt der 1950er Jahre. Auch dieses Hollywood-Epos wurde in Italien gedreht. Als Regisseur war Leone später stark vom amerikanischen Kino beeinflusst und vor allem an epischen, publikumswirksamen Filmen interessiert. 1959 war Sergio Leone als (ungenannter) Co-Regisseur bei "Die letzten Tage von Pompeji" tätig, einem von Mario Bonnard inszenierten, zeittypischen Sandalenfilm. Streifen dieser Art wurden damals in Italien in großer Zahl produziert. Leone hatte bei "Die letzten Tage von Pompeji" bemerkenswerterweise mehrere Mitarbeiter, die später zu den führenden Regisseuren des Italo-Western wurden: Duccio Tessari war Regieassistent, Sergio Corbucci und Enzo Barboni agierten als Regisseur bzw. Kameramann des zweiten Kamerateams. Auch wenn "Die letzten Tage von Pompeji" eine Billig-Produktion war, lernte Leone bei der Herstellung des Films viel über die Filmfinanzierung. 1961 absolvierte der 32-jährige Sergio Leone mit "Der Koloß von Rhodos", einem weiteren Sandalenfilm italienischer Prägung, sein eigentliches Regiedebüt. Verglichen mit den späteren Werken des Regisseurs ist dieser Film nach allgemeinem Tenor von geringer Bedeutung. Leone selbst räumte ein, er habe den Film nur gedreht, um seine Hochzeitsreise zu finanzieren. Dies führte dazu, dass dieser Film in Gesamtdarstellungen von Sergio Leones Werk nur rudimentär behandelt oder sogar ausgelassen wird. Dennoch lassen sich bereits einige Charakteristika seines späteren Schaffens erkennen. Dollar-Trilogie. Während in den frühen 1960er Jahren die Nachfrage nach Sandalenfilmen langsam verebbte, war Leone schon mit der Vorbereitung seines nächsten Filmes befasst. Er orientierte sich diesmal in einer völlig anderen Richtung und bereitete die Produktion eines Western vor. Leone war von diesem Genre begeistert und glaubte daran, dass auch europäische Westernfilme erfolgreich sein konnten, obwohl bis dato alle bedeutenden Western aus den USA gekommen waren. Seit 1962 liefen im deutschsprachigen Raum allerdings mit großem Erfolg die Filme der Karl-May-Reihe. In Italien waren bereits vor Leone Western produziert worden (ungefähr 25), doch blieben diese in kommerzieller wie künstlerischer Hinsicht bedeutungslos. Es war Leone, der mit "Für eine Handvoll Dollar" (1964) das Genre des Italo-Western in der heute bekannten Form begründete. Bei der Ausarbeitung des Drehbuchs orientierten sich er und seine Co-Autoren an Akira Kurosawas Film "Yojimbo – Der Leibwächter" (1961). Die Hauptfigur von Kurosawas Film, einen Samurai-Krieger, transformierte Leone in einen Westernhelden. Kurosawa und sein Co-Autor strengten einen Copyright-Prozess an und erhielten unter anderem 15 % der weltweiten Einnahmen des Leone-Films. Da Sergio Leone nur ein geringes Budget zur Verfügung stand (200.000 Dollar), konnte er keinen etablierten amerikanischen Star wie Henry Fonda oder James Coburn für die Hauptrolle von "Für eine Handvoll Dollar" engagieren. Auf der Suche nach einem bezahlbaren US-Schauspieler stieß Leone auf den relativ unbekannten TV-Darsteller Clint Eastwood, der schließlich für 15.000 Dollar verpflichtet wurde. Der 34-jährige Eastwood trat in der Rolle eines mysteriösen Revolvermannes auf, der in einem abgelegenen Dorf in New Mexico zwei verfeindete Clans gegeneinander ausspielt und sich dabei durch seine phänomenalen Schießkünste auszeichnet. "Für eine Handvoll Dollar" galt zunächst als obskur und wurde von den Kritikern entweder verrissen oder überhaupt nicht beachtet. Der Film entwickelte sich jedoch zu einem sensationellen Kassenerfolg. In der Rolle des zynischen „Fremden ohne Namen“ (tatsächlich trug er den Rollennamen „Joe“), der seinen Gegnern in einem Poncho mit aufreizender Lässigkeit gegenübertritt, wurde Clint Eastwood zu einem internationalen Star. Unzählige Westerndarsteller orientierten sich in den Folgejahren an dem von Eastwood und Leone geschaffenen Charaktertypus. Leone selbst hielt nicht allzu viel von den schauspielerischen Fähigkeiten seines Hauptdarstellers: „Er hat zwei Gesichtsausdrücke: einen mit und einen ohne Hut.“ Um den Eindruck zu erzeugen, "Für eine Handvoll Dollar" sei ein amerikanischer Film, hatten sich Leone und seine Mitarbeiter englische Pseudonyme zugelegt (Leone agierte beispielsweise als „Bob Robertson“ – eine Hommage an seinen Vater, der als Roberto Roberti bekannt gewesen war). Bei "Für ein paar Dollar mehr" (1965) wurden im Vorspann dagegen die richtigen Namen der Filmemacher genannt. Für diesen zweiten Film seiner – später so genannten – „Dollar-Trilogie“ stand Leone ein sehr viel höheres Budget (600.000 Dollar) zur Verfügung. Lee Marvin, Charles Bronson oder Henry Fonda sollten die zweite Hauptrolle neben Clint Eastwood spielen, konnten aber nicht verpflichtet werden, weshalb Leone den 40-jährigen Lee van Cleef engagierte, der bis dahin in zahlreichen Hollywood-Western (Zwölf Uhr mittags) in kleineren Nebenrollen aufgetreten war. Eastwood trat erneut als unrasierter Revolvermann in Erscheinung und spielte einen Kopfgeldjäger, der mit seinem „Kollegen“ (Van Cleef) eine Gaunerbande zur Strecke bringt. Wie schon der Vorgängerfilm wurde auch "Für ein paar Dollar mehr" hauptsächlich in der Gegend von Almeria in Spanien gedreht, und wie "Für eine Handvoll Dollar" wurde er zu einem großen Kassenerfolg. Leone war als Regisseur nun so etabliert, dass ihm für den letzten Teil der „Dollar-Trilogie“ ein Budget von 1,2 Millionen Dollar bewilligt wurde, was die Produktion eines epischen Westernfilms mit aufwändigen Szenenaufbauten und einer großen Zahl an Statisten ermöglichte. (Alle Filme, die Leone ab da an drehte, hatten eine Überlänge von mindestens 2 ½ Stunden.) In "Zwei glorreiche Halunken" (1966) war Clint Eastwood erneut als Kopfgeldjäger im Poncho zu sehen und jagte neben Lee van Cleef (als sadistischem Bösewicht) und Eli Wallach (als mexikanischem Banditen) hinter einem Goldschatz her, der in den Wirren des Bürgerkriegs verlorenging. Leones dritter Western wurde zu einem riesigen Kassenerfolg und avancierte im Lauf der Jahrzehnte zu einem beliebten Kultfilm. In der Internet Movie Database rangiert er auf der Liste der besten Filme auf Platz 6 und gilt dort als bester Western aller Zeiten (Januar 2015). Bedeutung der Dollar-Trilogie. Der enorme finanzielle Erfolg der relativ günstig produzierten „Dollar“-Filme löste die Italowestern-Welle aus, die in der zweiten Hälfte der 1960er Jahre ihren Höhepunkt hatte und hunderte von Filmen unterschiedlichster Qualität hervorbrachte. Fast alle Italowestern waren Billigproduktionen, die sich an den Werken Leones orientierten, welcher das Genre stilistisch und thematisch nachhaltig prägte. Typischerweise traten in den Italowestern zynische, unrasierte Revolvermänner in Erscheinung, die im amerikanisch/mexikanischen Grenzgebiet gegen sadistische Schurken kämpften. Explizite Gewaltdarstellungen und Folterszenen prägten das Genre, die Protagonisten wurden häufig (auch bei Leone) schwer misshandelt. Die gängigen Themen der amerikanischen Western (Landbesiedelung, Krieg gegen die Indianer etc.) wurden in den Italowestern kaum behandelt. Zahlreiche Filme waren, korrespondierend mit dem Zeitgeist der späten 1960er Jahre, als „Revolutions-Western“ konzipiert und zeigten den Kampf der mexikanischen Landbevölkerung gegen ihre Unterdrücker. Da viele der Filme in Spanien gedreht wurden, konnten die südländisch aussehenden spanischen Statisten leicht als Mexikaner ausgegeben werden. Anfang der 1970er Jahre wurde durch die enorm erfolgreichen Klamauk-Western mit Bud Spencer und Terence Hill, in denen die Klischees dieses Sub-Genres persifliert wurden, das Ende des Italowesterns eingeläutet. Bis Mitte der 1970er Jahre entstanden noch einige ernsthafte Filme wie zum Beispiel Keoma – Das Lied des Todes (1976) mit Franco Nero, dem wohl profiliertesten italienischen Star dieses Genres. Obwohl sich Regisseure wie Sergio Corbucci (Django) oder Duccio Tessari (Eine Pistole für Ringo) ebenfalls im Italowestern profilieren konnten, blieb Sergio Leone in kommerzieller wie künstlerischer Hinsicht die bestimmende Figur. Die ersten drei Western von Sergio Leone revolutionierten den Inszenierungsstil des gesamten Genres und wirkten stilbildend nicht nur für den Italowestern. Der amerikanische Westernfilm, der Mitte der 1960er Jahre in seinen Konventionen erstarrt war, orientierte sich ab der zweiten Hälfte der 1960er Jahre deutlich an den viel zeitgemäßeren italienischen Western. Filme wie Die gefürchteten Vier (1966), Hängt ihn höher (1968), Das Wiegenlied vom Totschlag (1970) oder Chatos Land (1971 – dies war eine englische Produktion) orientierten sich am harten, zynischen Grundton des Italowesterns. Mitarbeiter und Darsteller. Sergio Leone arbeitete ab Mitte der 1960er Jahre mit einem festen Mitarbeiterstab, der an den meisten seiner Filme beteiligt war. Kameramann Tonino Delli Colli (1922–2005) sorgte für den speziellen Look der Leone-Filme, der unter anderem durch den Wechsel zwischen opulenten Landschaftspanoramen und ungewöhnlichen Großaufnahmen der Darstellergesichter geprägt war. Delli Colli und Leone waren auch darauf spezialisiert, aufwändige Kamerabewegungen zu arrangieren (Kamerafahrt über das Dach des Bahnhofsgebäudes in "Spiel mir das Lied vom Tod"). Cutter bei allen Leone-Filmen ab "Zwei glorreiche Halunken" war Nino Baragli (1925–2013), der zusammen mit Leone für die komplexen Szenenmontagen verantwortlich zeichnete („Triello“ am Schluss von "Zwei glorreiche Halunken"). Als Produktionsdesigner und Kostümbildner war Carlo Simi (1924–2000) für die Ausstattung der Leone-Filme zuständig, die meist durch eine besondere Opulenz geprägt war. Von elementarer Bedeutung für Sergio Leones Filme war die Musik von Ennio Morricone (* 1928), einem Klassenkameraden des Regisseurs aus Kindertagen. Nachdem sich Leone und Morricone – der als Trompeter, Arrangeur, Komponist und Dirigent tätig war – jahrelang aus den Augen verloren hatten, trafen sie sich wieder, als Leone einen geeigneten Komponisten für "Für eine Handvoll Dollar" suchte. Morricone, der seit 1961 als Filmkomponist arbeitete, schuf für Leone Soundtracks, die sich fundamental von den traditionellen symphonischen Westernsoundtracks unterschieden und durch den Einsatz unkonventioneller Instrumente (Maultrommel) und Soundeffekte (Kojotengeheul) auffielen. Morricone stellte seine Musik in der Regel bereits vor den Dreharbeiten fertig, was Leone die Möglichkeit gab, Szenen oder Kamerabewegungen genau auf sie abzustimmen. Als Komponist zeichnete er ab 1964 für jeden Leone-Film für die Musik verantwortlich. Ennio Morricone stieg zu einem der bekanntesten und international gefragtesten Filmkomponisten auf und schuf Melodien, die über das Kino hinaus zu einem Teil der Populärkultur wurden ("Lied vom Tod", "Nobody-Thema"). Er zeichnet bis heute (Stand 2012) für mehr als 500 Soundtracks verantwortlich; seine Musik wurde so populär, dass er sie seit Jahren mit großer Orchesterbegleitung live aufführt. Zahlreiche Komponisten wie zum Beispiel Bruno Nicolai orientierten sich bei ihren Italo-Western-Soundtracks an Morricones Arbeiten. Sergio Leone, der stark vom amerikanischen Kino geprägt war, verpflichtete für seine Filme vor allem US-Schauspieler. Eine Ausnahme war der Italiener Gian Maria Volonté (1933–1994), der in den ersten beiden Dollar-Filmen als Schurke auftrat. Hauptdarsteller der Dollar-Trilogie war Clint Eastwood (* 1930), der als Zigarillo rauchender Revolvermann zu einer Ikone der Popkultur wurde und es vom TV-Cowboy ("Rawhide") zum internationalen Filmstar brachte. Als Darsteller, Regisseur und Produzent zählt Eastwood seit Jahrzehnten zu den führenden Hollywood-Persönlichkeiten. Lee van Cleef (1925–1989) avancierte durch die Leone-Filme zu einem der populärsten Stars des Italo-Westerns und spielte häufig abgeklärte Kopfgeldjäger und ähnliche Figuren. Charles Bronson (1921–2003) wurde 1968 durch "Spiel mir das Lied vom Tod" zum internationalen Action-Star. Nachdem sich Sergio Leone mit seinen ersten Filmerfolgen einen guten Ruf erworben hatte und seine Budgets größer geworden waren, konnte er auch renommierte amerikanische Charakterdarsteller wie Eli Wallach (1915–2014), Henry Fonda (1905–1982), Jason Robards (1922–2000) oder Rod Steiger (1925–2002) verpflichten. In den 1980er Jahren arbeitete er mit Robert De Niro (* 1943) zusammen. Amerika-Trilogie (oder auch „Once-upon-a-time-Trilogie"). Nachdem "Zwei glorreiche Halunken" zu einem großen Erfolg geworden war, avancierte Leone endgültig zu einem internationalen Star-Regisseur und erhielt die Chance, in Hollywood zu arbeiten. Er wollte jedoch zunächst keine Western mehr drehen, sondern plante die Produktion eines epischen Gangsterfilms. Da die Studios dieses Genre für nicht mehr zeitgemäß hielten, erklärte sich Leone dazu bereit, einen weiteren Western zu inszenieren. Mit seinen Drehbuchautoren Bernardo Bertolucci, Dario Argento (beide wurden später selbst als Regisseure bekannt) und Sergio Donati erarbeitete er die epische, opernhafte Geschichte von "Spiel mir das Lied vom Tod" ("C’era una volta il West"/"Once Upon A Time In The West") (1968), einer Prestigeproduktion, für die ihm ein Budget von fünf Millionen Dollar bewilligt wurde. Es war die erste von nur zwei US-Produktionen Leones. "Spiel mir das Lied vom Tod" entstand in Amerika, Spanien und Italien und war mit amerikanischen Darstellern wie Henry Fonda, Charles Bronson und Jason Robards besetzt. Die italienische Star-Schauspielerin Claudia Cardinale komplettierte das Hauptdarsteller-Quartett. Da der Film von der amerikanischen Gesellschaft Paramount produziert wurde und drei amerikanische Stars in den Hauptrollen zu sehen waren, kann dieser Film genau genommen kaum noch als Italo-Western bezeichnet werden. Allerdings waren alle kreativen Schlüsselpositionen (Drehbuch, Kamera, Ausstattung, Musik, Schnitt) mit Leones italienischem Team besetzt. "Spiel mir das Lied vom Tod" zeigte Charles Bronson in der Rolle eines mundharmonikaspielenden Revolvermannes, der einen sadistischen Schurken (Henry Fonda) zur Strecke bringt, wurde zu einem riesigen Erfolg und ging als Klassiker und Kultfilm in die Filmgeschichte ein. In den USA lief der Film in einer stark gekürzten Fassung, durch die die künstlerische Vision Leones erheblich beeinträchtigt wurde, und fiel an den Kinokassen durch. (Auch mit seinen nächsten Filmen konnte sich Leone in den USA nicht mehr durchsetzen.) Vor allem in Europa konnte der Regisseur mit "Spiel mir das Lied vom Tod" dagegen große Erfolge feiern, in Deutschland avancierte der Western mit 13 Millionen Zuschauern zu einem der erfolgreichsten Kinofilme und lief teils jahrelang in den Kinos. Ennio Morricone schrieb für "Spiel mir das Lied vom Tod" einen der wohl bekanntesten Soundtracks der Kinogeschichte. Mit "Spiel mir das Lied vom Tod" hatte Sergio Leone seinen Karrierehöhepunkt erreicht. Bis zu seinem Tod im Jahr 1989 inszenierte er nur noch zwei Filme, die beide an den Kinokassen ohne große Resonanz blieben. Bei seinem Projekt "Todesmelodie" ("Giù La Testa"; Arbeitstitel des Drehbuchs war "Es war einmal … die Revolution") (1971) wollte Leone zunächst nur als Produzent im Hintergrund agieren; als Regisseur vorgesehen waren Peter Bogdanovich oder Sam Peckinpah. Nachdem die Regie schließlich von seinem ehemaligen Assisten Gian Carlo Santi übernommen worden war, kam es bei den Dreharbeiten zu Differenzen mit den Darstellern, weshalb Leone selbst auf den Regiestuhl wechselte. "Todesmelodie" stand in der Tradition zahlreicher „Revolutions-Western“, die in den späten 1960er Jahren entstanden waren. Rod Steiger (als mexikanischer Bandit) und James Coburn (als irischer Sprengstoffspezialist) führen hier einen Banküberfall durch und werden unfreiwillig zu Helden der mexikanischen Revolution. Verglichen mit den anderen Western Leones war dieser Film – der zweite Teil der sogenannten „Amerika-Trilogie“ – kommerziell nicht erfolgreich und geriet bald in Vergessenheit. Nach "Todesmelodie" war Leone jahrelang nur noch als Filmproduzent tätig, so auch 1973 bei der Westernkomödie "Mein Name ist Nobody", bei dem er außerdem als Ideenlieferant und Co-Autor fungierte. Terence Hill in der Titelrolle des Nobody spielte hier eine ganz ähnliche Figur wie in seinen erfolgreichen Spaß-Western mit Bud Spencer – den sympathischen Abenteurer, der schneller zieht als andere. Ihm zur Seite stand Henry Fonda in der Rolle von Jack Beauregard, einem legendären Revolvermann fortgeschrittenen Alters, den der namenlose Nobody als Fan bewundert. Obwohl Leones früherer Regie-Assistent Toninio Valerii offiziell als Regisseur des Films angegeben war, wurden offenbar zahlreiche Szenen von Sergio Leone inszeniert. Als Soundtrack-Komponist fungierte wie immer Ennio Morricone, der mit der Titelmelodie eines seiner wohl bekanntesten Musikstücke schuf. Ab 1972 bereitete Sergio Leone sein Gangster-Epos "Es war einmal in Amerika" vor, das auf Harry Greys Buch "The Hoods" basierte und den dritten Teil seiner Amerika-Trilogie darstellte. Nach aufwändigen Vorbereitungsarbeiten kam die fast vierstündige Gangster-Saga 1984 schließlich ins Kino. Der Film erzählt auf drei Zeitebenen (1922/1932/1968) das Leben des jüdischen Gangsters Noodles (Robert De Niro), der während der Prohibitionszeit an der Seite seines Freundes Max (James Woods) Karriere macht, diesen dann aber an die Polizei verrät. Das hochbudgetierte Epos (30 Millionen Dollar) fand mit seiner komplexen Erzählstruktur im Kino kein Publikum und wurde erfolglos umgeschnitten und gekürzt. Der Film wurde von der Kritik allerdings rehabilitiert und gilt seit langem als einer der großen Klassiker der 1980er Jahre. Sergio Leone konnte jedoch nie die von ihm geplante Schnittfassung des Films erstellen. Unter Leitung von Martin Scorsese wurde der Film restauriert und 2012, bei den Filmfestspielen von Cannes, in einer um 25 Minuten verlängerten Fassung präsentiert. Sergio Leone starb 1989 im Alter von 60 Jahren an einem Herzinfarkt, als er gerade an einem Film über die Belagerung Leningrads im Zweiten Weltkrieg arbeitete. Der stark übergewichtige Regisseur hatte bereits zuvor Herzinfarkte erlitten. Einfluss auf andere Filmemacher. Noch heute beschreiben viele Regisseure Leone als ihr großes Idol. In einem Interview sagte James Woods, dass die Arbeit mit Sergio Leone der Höhepunkt seiner Filmkarriere gewesen sei. Quentin Tarantino ist bekennender Liebhaber seiner Filme und lässt auch viele für Sergio Leone typische Kameraeinstellungen in seine eigenen Filme einfließen. Clint Eastwood widmete Leone seinen Oscar für die beste Regie von "Erbarmungslos" ("Unforgiven", 1992), obwohl er einige Streitigkeiten mit ihm gehabt hatte. Systemtheorie. Systemtheorie ist eine interdisziplinäre Betrachtungsweise, in der grundlegende Aspekte und Prinzipien von Systemen zur Beschreibung und Erklärung unterschiedlich komplexer Phänomene herangezogen werden. So vielfältige Gegenstandsbereiche und Modelle wie das Sonnensystem, biologische Zellen, der Mensch, eine Familie, eine Organisation, ein Staat aber auch Maschinen und Computernetzwerke können als Systeme aufgefasst und systemtheoretisch beschrieben werden. Kognitive Prozesse des Erkennens und Problemlösens, die auf Konzepte der Systemtheorie Bezug nehmen, werden oft unter dem Begriff Systemdenken zusammengefasst. Die Analyse von Strukturen, Dynamiken und Funktionen soll eine umfassendere Sicht ermöglichen und realistischere Vorhersagen über das Systemverhalten erlauben. Systemtheoretische Begriffe werden in den verschiedensten wissenschaftlichen Disziplinen angewandt. „Die Systemtheorie hat von Anfang an das Ziel verfolgt, der Zersplitterung des Wissens in den wissenschaftlichen Disziplinen entgegenzuwirken.“ Die Systemtheorie ist sowohl eine allgemeine und eigenständige Disziplin als auch ein weitverzweigter und heterogener Rahmen für einen interdisziplinären Diskurs, der den Begriff "System" als Grundkonzept führt. Es gibt folglich sowohl eine allgemeine „Systemtheorie“ als auch eine Vielzahl unterschiedlicher, zum Teil widersprüchlicher und konkurrierender Systemdefinitionen und -begriffe. Es hat sich heute jedoch eine relativ stabile Reihe an Begriffen und Theoremen herausgebildet, auf die sich der systemtheoretische Diskurs bezieht. Geschichte. Der Begriff "Allgemeine Systemtheorie" geht auf den Biologen Ludwig von Bertalanffy zurück. Seine Arbeiten bilden zusammen mit der Kybernetik (Norbert Wiener, William Ross Ashby) die grundlegenden Überlegungen dieses Wissenschaftsansatzes. Weitere wichtige Theorien stammen von Humberto Maturana und Francisco Varela (Autopoiesis), Stuart Kauffman (Selbstorganisation) und Alfred Radcliffe-Brown (Strukturfunktionalismus) sowie Talcott Parsons (Strukturfunktionalismus oder Systemfunktionalismus) und Niklas Luhmann (soziologische Systemtheorie). Kulturgeschichtlich geht der Systembegriff bis auf Johann Heinrich Lambert zurück und wurde unter anderem von Johann Gottfried Herder übernommen und ausgearbeitet. Dies vollzieht sich vor allem an der Frage, wie man lebende Organismen und deren Selbsterhaltung und -organisation verstehen kann. Die moderne Systemtheorie beruht auf unabhängig voneinander entwickelten Ansätzen, die später synthetisiert und erweitert wurden: Der Begriff Systemtheorie bzw. Systemlehre stammt von Ludwig von Bertalanffy (vgl. '). Von Bertalanffy spricht von offenen Systemen und entwickelt den Begriff der organisierten Komplexität, der den dynamischen Austausch mit der Umwelt beschreiben soll. Erst mit der Ausformulierung des Informations­begriffes ließ sich dieses Konzept jedoch weiter generalisieren. Bereits 1948 hatte Norbert Wiener mit ' (Kybernetik) einen ebenfalls zentralen Ausdruck geprägt, der heute mit dem Systembegriff eng verbunden ist. Ein weiteres verwandtes Konzept ist die Tektologie Alexander Bogdanows. Kybernetik. Die Kybernetik behandelt operationell geschlossene Mechanismen. Sie wurde als Regelungs- und Kommunikationstheorie konzipiert. Der Fokus der Kybernetik liegt auf Regelung und Steuerung. Deshalb kommen in der Kybernetik als Systeme in erster Linie geregelte Mechanismen in Betracht. Die Regelung beruht immer auf Prozessen, die mit der mathematischen Systemtheorie der Technik beschrieben werden können. Bertalanffy hat sich gegen die Vermischung seiner Systemlehre und der Kybernetik ausgesprochen, weil er das mechanistische Denken der Kybernetik für die Beschreibung von Leben als nicht adäquat erachtete. Generelle Erweiterungen der Kybernetik. Als Systemtheorie 2. Ordnung bezeichnet man Systemtheorien, die in folgendem Sinne selbstbezüglich sind: Mit der jeweiligen Systemtheorie wird der Systemtheoretiker, der die Theorie macht, beschrieben. Der Kernbegriff ist deshalb „die Beobachtung des Beobachters“. Als Autopoiesis bezeichnet Humberto Maturana sowohl seine Systemtheorie wie auch den wesentlichen Prozess, den er mit seiner Theorie beschreibt, nämlich das Leben. Maturana beschreibt, grob gesehen, das Gleiche wie von Bertalanffy in seiner Systemlehre, er argumentiert aber kybernetisch: er spricht von lebenden (autopoietischen) Maschinen, die operationell geschlossen sind. Als Selbstorganisation bezeichnet man Prozesse, die wie die Autopoiese zu höheren strukturellen Ordnungen führen, ohne dass ein steuerndes Element erkennbar ist. Ein Beispiel ist der Laserstrahl, anhand dessen die Theorie von Hermann Haken auch entwickelt wurde. Der Radikale Konstruktivismus wurde von Ernst von Glasersfeld entwickelt. Er hat dabei auf die Arbeiten von Jean Piaget zurückgegriffen. Die Denkweise von Piaget war konstruktivistisch und epistemologisch. Ernst von Glasersfeld argumentiert insbesondere auch mit der operationellen Geschlossenheit von Systemen. Als ' bezeichnet man die Modellierung mit Regelkreisen. Bekannt gemacht hat das Verfahren Jay Wright Forrester durch das Weltmodell World3, anhand dessen in der -Publikation ' ("Die Grenzen des Wachstums", Dennis L. Meadows 1972) der globale Rohstoffverbrauch prognostiziert wurde. Soziologische Systemtheorie. Die soziologische Systemtheorie versteht sich als eine Universaltheorie im Sinne eines umfassenden und kohärenten Theoriegebäudes für alle Formen von Sozialität. Der soziologische Systembegriff geht auf Talcott Parsons zurück. Parsons betrachtet dabei Handlungen als konstitutive Elemente sozialer Systeme. Er prägte den Begriff der strukturell-funktionalen Systemtheorie. Niklas Luhmann erweitert die Theorie Parsons und verwendet nicht mehr den Handlungsbegriff, sondern den sehr viel allgemeineren Begriff der Operation – siehe Systemtheorie (Luhmann). Theorie komplexer Systeme. Die neueste Strömung ist die Theorie komplexer Systeme. Ein komplexes System ist dabei ein System, dessen Eigenschaften sich nicht vollständig aus den Eigenschaften der Komponenten des Systems erklären lassen. Komplexe Systeme bestehen aus einer Vielzahl von miteinander verbundenen und interagierenden Teilen, Entitäten oder Agenten. Komplexe Systeme sind von der Welt der Elementarteilchen bis hinauf zur menschlichen Gesellschaft weit verbreitet, ja geradezu dominant. Sie entstehen überwiegend durch Prozesse der spontanen Selbstorganisation und sind meist einer Theorie auf der Basis bekannter mathematischer Funktionen nicht zugänglich. Beispiele sind die Bildung der Atomkerne, der Atome, die Umwandlung von Stoffen von einem Aggregatzustand in einen anderen, die Kristallisation, chemische Reaktionen, die Evolution, die geistigen Prozesse im Gehirn, die Entwicklung der Sozialsysteme usw. In der belebten Natur sind offene Systeme dominant, die die Zufuhr von Energie benötigen, in der unbelebten Natur bilden sich komplexe Systeme meist spontan unter Abgabe von Energie oder auch im thermischen Gleichgewicht. Die Theorie der Komplexen adaptiven Systeme beruht vorwiegend auf den Arbeiten des Santa Fe Institute. Diese neue Komplexitätstheorie, die Emergenz, Anpassung und Selbstorganisation beschreibt, basiert auf Agenten und Computersimulationen, die Multiagentensysteme (MAS) einschließen, die zu einem wichtigen Instrument bei der Erforschung von sozialen und komplexen Systemen wurden. Verwandte Gebiete. Diese vier Hauptrichtungen haben Vorläufer, Unterabteilungen, Entwicklungen, Anwendungen in den Fachdisziplinen. Chaostheorie. Die Chaosforschung beschäftigt sich mit bestimmten nichtlinearen dynamischen Systemen, die eine Reihe von Phänomenen aufweisen, die man Chaos (genauer: "chaotisches Verhalten") nennt. Eines dieser Phänomene ist der Schmetterlingseffekt, der besagt, dass kleine Änderungen unerwartet große Effekte haben können. Chaotische Systeme sind zum Beispiel Wetter, Klima, Plattentektonik, turbulente Strömungen, Wirtschaftskreisläufe, Internet und das Bevölkerungswachstum. Katastrophentheorie. Die Katastrophentheorie ist ein Zweig der Mathematik, der sich mit den Verzweigungen von dynamischen Systemen beschäftigt und beschreibt plötzliche Veränderungen, die sich aus kleinen Veränderungen von Umständen ergeben. Konnektionismus. Der Konnektionismus versteht ein System als Wechselwirkungen vieler vernetzter einfacher Einheiten. Die meisten konnektionistischen Modelle beschreiben die Informationsverarbeitung in Neuronen­netzen. Sie bilden eine Brücke zwischen biologischer Forschung und technischer Anwendung. Modellierung. Um Systeme in Modellen beschreiben zu können, spielen Bereiche aus Mathematik und Informatik eine Rolle. Wenn ein System quantitativ beschrieben werden kann und weitere Voraussetzungen erfüllt sind (insbesondere die Differenzierbarkeit der beschreibenden Funktionen), dann werden häufig Differentialgleichungs­systeme für die mathematische Modellierung herangezogen. Fehlen diese Voraussetzungen, dann muss die Beschreibung auf einer abstrakteren Ebene erfolgen. Für eine formale Beschreibung mit begrifflichen Mitteln dient in der Mathematik die formale Begriffsanalyse, ein Teilgebiet der Ordnungstheorie. Auf Seite der Informatik beschäftigt sich die Ontologie damit, Systeme formal mit begrifflichen Mitteln zu beschreiben. Grundlagen dazu liegen auch in der philosophischen Ontologie. Soziologische Systemtheorie. Als soziologische Systemtheorie wird eine auf systemtheoretischen Diskursen und Begriffen basierende Theorie der Sozialität als Teil einer allgemeinen Soziologie bezeichnet. Die soziologische Systemtheorie hat dabei den Anspruch, eine Universaltheorie im Sinne eines umfassenden und kohärenten Theoriegebäudes für alle Formen von Sozialität (z. B. Zweierbeziehungen, Familien, Organisationen, Funktionssysteme, Gesellschaft) zu sein. Damit umfasst sie auch sich selbst als Gegenstand ihrer Theorie, operiert also selbstbezüglich (selbstreferentiell). Als wichtigste Vertreter gelten Talcott Parsons (strukturfunktionalistische Theorie des Handlungssystems) und Niklas Luhmann (funktionalstrukturalistische Theorie sozialer Kommunikationssysteme, siehe Systemtheorie (Luhmann)). Funktionalismus und Systemerhaltung. Die Ursprünge der Systemtheorie liegen in den USA. 1954 wurde die Society for General Systems Research (heute: International Society for the Systems Sciences) gegründet, in deren Jahrbuch "General Systems" die ersten grundlegenden Arbeiten zu einer Allgemeinen Systemtheorie publiziert wurden. Es gab zwei Hauptströmungen: den Struktur- oder Bestandsfunktionalismus und die Theorie Parsons, für die sich die Bezeichnung Systemfunktionalismus nicht durchgesetzt hat. Parsons wird häufig unter Strukturfunktionalismus subsumiert, was er jedoch selbst (wie auch sein Student Niklas Luhmann) zurückweist. Tatsächlich unterscheidet sich seine Theorie auch fundamental vom Strukturfunktionalismus. Ausgehend von ethnologischen und anthropologischen Fragestellungen untersuchte der Strukturfunktionalismus (Alfred R. Radcliffe-Brown, Bronisław Malinowski, Edward E. Evans-Pritchard) die Frage, wie Strukturen das Verhalten von Individuen innerhalb einer Gesellschaft determinieren. Dabei wurden alle gesellschaftlichen Strukturen auf ihre Funktion hin befragt. Als Struktur wird dabei die Gesamtheit der sozialen Beziehungen und Interaktionen im sozialen Netzwerk einer Gesellschaft verstanden. Diese Strukturen einer Gesellschaft werden als äußerst stabil und als nur durch externe Faktoren wandelbar angesehen. In diesem Sinne suchte der Strukturfunktionalismus nach den Bestandsvoraussetzungen sozialer Systeme und gesellschaftlicher Strukturen. Die Ergebnisse waren im Wesentlichen Listen mit Bestandsvoraussetzungen und Variablen. Die Limitierung auf segmentäre Gesellschaften, wie etwa Stämme, wurde damit begründet, dass man einen isolierbaren begrenzbaren Forschungsgegenstand brauchte, um überhaupt Aussagen treffen zu können. Systemtheorie bei Parsons. Der soziologische Systembegriff geht auf Talcott Parsons zurück. Parsons betrachtet dabei Handlungen als konstitutive Elemente sozialer Systeme. Er prägte den Begriff der strukturell-funktionalen Systemtheorie. Der Begriff "Struktur" bezieht sich dabei auf diejenigen Systemelemente, die von kurzfristigen Schwankungen im System-Umwelt-Verhältnis unabhängig sind. "Funktion" dagegen bezeichnet den dynamischen Aspekt eines sozialen Systems, also diejenigen sozialen Prozesse, die die Stabilität der Systemstrukturen in einer sich ändernden Umwelt gewährleisten sollen. Die strukturell-funktionale Theorie beschreibt also den Rahmen, der Handlungsprozesse steuert. Ist die Struktur eines Systems bekannt, kann in funktionalen Analysen angegeben werden, welche Handlungen für die Systemstabilisierung funktional oder dysfunktional sind. Handlungen werden also nicht isoliert betrachtet, sondern im Kontext der strukturellen und funktionalen Aspekte des jeweiligen Sozialsystems. AGIL-Schema. Einzelne Handlungen werden also nicht isoliert, sondern im Rahmen eines strukturellen und funktionalen Systemzusammenhanges betrachtet. Handlungen sind dabei Resultate eben jenes Systemzusammenhanges, der durch diese Handlungen gestiftet wird (handlungstheoretische Systemtheorie). Parsons beschreibt den Zusammenhang zwischen System und Systemelementen also als rekursiv und berücksichtigt damit wechselseitige Ermöglichungs-, Verstärkungs- und Rückkopplungsbedingungen. Erweiterung und Neuformulierung durch Luhmann. Niklas Luhmann erweitert die Theorie Parsons und verwendet nicht mehr den Handlungsbegriff, sondern den sehr viel allgemeineren Begriff der "Operation". Systeme entstehen, wenn Operationen aneinander anschließen. Die Operation, in der soziale Systeme entstehen, ist Kommunikation. Wenn eine Kommunikation an eine Kommunikation anschließt (sich auf diese zurückbezieht und sie zugleich weiter führt), entsteht ein sich selbst beobachtendes soziales System. Kommunikation wird durch Sprache und durch symbolisch generalisierte Kommunikationsmedien (Geld, Wahrheit, Macht, Liebe) wahrscheinlich gemacht. Die Besonderheit in der Sichtweise Luhmanns besteht darin, dass Kommunikation – als die Operation sozialer Systeme – nicht als Handeln gesehen wird, das durch einzelne Menschen vollzogen wird. Im Besonderen geht es nicht um Einwirkungen von Mensch zu Mensch, die ein Beobachter als Kausalität (Monokausalität, Multikausalität oder Kausalkette) feststellen kann. Ebenso wenig geht es um Informationsübertragung, die als Metapher aufgefasst werden kann. Der Begriff "Kommunikation" beschreibt eine Operation, in der "soziale Systeme" entstehen. Kommunikation kann nur an Kommunikation anschließen, und auf diese Weise verlaufen diese Operationen simultan und parallel zu den Operationen anderer Systeme (z. B. den Gedanken als Operationen psychischer Systeme, synonym Bewusstseinssysteme). Auch Personen bestehen nicht als Handelnde, sondern als von der Kommunikation konstruierte Einheiten („Identifikationspunkte“). Gesellschaft ist das umfassende System, das sich in Funktionssysteme ausdifferenziert. Auf diese Weise entstehen unter anderem das Recht, die Wirtschaft, die Wissenschaft, die Politik, die Religion als funktional ausdifferenzierte Systeme. Diese Systeme – nicht die Menschen – beobachten unter Verwendung spezifischer Unterscheidungen (Recht/Unrecht im Rechtssystem, wahr/falsch im Wissenschaftssystem, Allokation/Nichtallokation im Wirtschaftssystem, Immanenz/Transzendenz im Religionssystem oder Regierung/Opposition im politischen System). Diese Unterscheidungen oder Codes bilden den Rahmen, innerhalb dessen das Teilsystem Formen ausbilden kann. Der Code sorgt für die operative Schließung des Systems. Für die Offenheit des Systems sorgen Programme, nach denen für die eine oder andere Seite einer Entscheidung optiert wird. Als Beispiel für ein Systemprogramm können etwa Theorien in der Wissenschaft genannt werden, die über eine Zuordnung zu einer der beiden Seiten wahr/falsch entscheiden. Systemdenken (Systemtheorie). Klassische und fachliche Sichtweisen können als Mittel zur Reduktion von Komplexität in größeren Systemen angesehen werden; dazu gehören: einfache Mechanik, einfache Regeln, lineares und kategorisches Denken (die durchaus für Teillösungen in sehr kleinen Bereichen verwendet und ggf. auch auf andere Systeme übertragen werden). In vielen Fällen ist jedoch eine vielgestaltigere, dynamischere Sichtweise angebracht, ohne dabei jedoch Effektivitätsprinzipien zu vernachlässigen. Sōgo Ishii. Sōgo Ishii (jap., "Ishii Sōgo"; * 15. Januar 1957 in Präfektur Fukuoka) ist ein japanischer Filmregisseur. Im Vor- und Abspann wird er manchmal als "Sohgo Ishii" oder "Toshihiro Ishii" aufgelistet. 1986 drehte er mit den Einstürzende Neubauten den Kurzfilm "½ Mensch". Typische Stilmittel Ishiis sind Kameraführungen à la Shinya Tsukamoto (sehr experimentelle hektische Kameraführung und schnelle Schnitte). Durch sein großes Interesse an Musik widmet sich Ishii nicht nur der Spielfilmkunst, sondern hat auch schon für viele Punkrock Bands Videoclips gedreht. Steven Spielberg. Steven Allan Spielberg, KBE (* 18. Dezember 1946 in Cincinnati, Ohio) ist ein US-amerikanischer Filmregisseur, Filmproduzent, Drehbuchautor und Schauspieler. Gemessen am Einspielergebnis seiner Filme ist er der bis heute erfolgreichste Regisseur und Produzent. Zu seinen bekanntesten Filmen, die oft von Träumen, Ängsten und Abenteuern geprägt sind, gehören u. a. "Der weiße Hai" (1975), "E.T. – Der Außerirdische" (1982), "Jurassic Park" (1993), "Schindlers Liste" (1993), "Der Soldat James Ryan" (1998), "Minority Report" (2002) und die vierteilige "Indiana-Jones"-Reihe (1981–2008). Spielberg wurde bereits fünfzehn mal für den Oscar nominiert und konnte ihn davon dreimal gewinnen. Er ist mehrfacher Golden-Globe- und Emmypreisträger. Laut Forbes hat Spielberg ein Vermögen von 3,4 Milliarden US-Dollar. Herkunft. Steven Spielbergs Vorfahren waren um 1835 aus Ungarn in die heutige Steiermark in Österreich eingewandert und hier einem Grafen von Spielberg unterstellt. Dies bestätigte der Regisseur 1998 in einem im Spiegel veröffentlichten Interview. Der Filmregisseur verdankt somit seinen Familiennamen der Stadtgemeinde Spielberg. Heute trägt der Hauptplatz von Spielberg den offiziellen Namen "Steven-Spielberg-Platz". Im Alter von 60 Jahren erfuhr Steven Spielberg, dass seine Wurzeln in der Ukraine liegen. Kindheit und Regiedebüt. Steven Allan Spielberg wurde am 18. Dezember 1946 als Kind jüdischer Eltern in Cincinnati, Ohio geboren. Sein Vater war der Elektroingenieur Arnold Spielberg, seine Mutter war Leah Posner, die bis zu ihrer Heirat 1945 als Konzertpianistin tätig war. Er hat drei jüngere Schwestern: Anne (*1949), Susan (1953) und Nancy (1956). Seine Kindheit verbrachte er in New Jersey, später in Arizona. Spielberg wuchs wohlbehütet auf, war ein durchschnittlicher Schüler und in sozialer Hinsicht eher ein Einzelgänger, da er auf Grund seiner Dyslexie in der Schule häufig gehänselt wurde. Durch sein Talent beim Fotografieren brachte er es aber zu einer Verdienstmedaille bei den Pfadfindern. Schon als Zehnjähriger filmte Spielberg mit einer 8-mm-Kamera, die er von seinem Vater bekam, da er die Qualität der Familienfilme kritisiert hatte. Sein Vater ermöglichte es als Kriegsveteran, dass sein Sohn unter anderem mit ausrangierten Militärflugzeugen drehen konnte. Schon damals interessierte er sich sehr für den Zweiten Weltkrieg, auch weil sein Vater Offizier und Pilot der United States Air Force war. Einer seiner ersten Aufnahmen ist der Film über die Kollision zweier Züge. Mit dreizehn Jahren gewann er mit dem 40-minütigen Kriegsfilm "Escape to nowhere" (1960) einen Filmwettbewerb. 1963 folgte sein 140 Minuten langer Abenteuerfilm "Firelight". Das Filmmaterial für seine erste Produktion, einen 8-mm-Western von vier Minuten, verdiente er mit dem Kalken der Zitruspflanzen in der Nachbarschaft. Das Haus in "E.T." ist laut eigener Aussage eine „ziemlich genaue Rekonstruktion des Hauses, in dem er als Kind wohnte“. Ebenso war E.T. ein Teil seiner Kindheit, ein Traum in seiner Jugend und sein imaginärer Freund an problemvollen Tagen wie z.B. der Scheidung seiner Eltern. Dadurch ist auch heute für Spielberg die Bedrohung der Familie und ihrer Werte eine immer vorhandene Problematik in seinen Filmen. Genauso seien Horror-Szenen aus "Poltergeist" durchaus autobiographisch zu verstehen. In Arizona hatte man damals meist sternenklare Nächte und als Kind (und auch bis heute) begeisterte er sich für Astronomie und UFOs. Für "Firelight" von 1964 mietete sein Vater einen Kinosaal in Scottsdale. Nach Produktionskosten von 500 Dollar erzielte er damit 600 Dollar Einnahmen. Danach zog die Familie nach Kalifornien, wo die Eltern sich bald scheiden ließen. Filmkarriere. Spielberg bewarb sich zweimal an der University of Southern California um ein Filmstudium, wurde aber beide Male abgelehnt. Schließlich begann er ein Studium der englischen Literatur an der California State University, Long Beach. Das Studium konnte er aufgrund seiner Filmkarriere erst im Jahr 2002 abschließen. 1969 wurde Spielbergs 35-mm-Kurzfilm "Amblin’" zu seiner Eintrittskarte nach Hollywood, als der Streifen auf dem Atlanta Film Festival gezeigt wurde. Der erst 22-Jährige erhielt einen Siebenjahresvertrag in der Fernsehabteilung von Universal Pictures, bei der er vier Jahre lang hauptsächlich Fernsehfilme und Serien drehte. Gleich als erstes drehte er eine Episode für Rod Serlings "Night Gallery" mit Joan Crawford. Danach inszenierte er einzelne Serienfolgen, beispielsweise für "Dr. med Marcus Welby" oder "Columbo". Aufsehen erregte er mit dem Fernsehfilm "Duell", welcher in Europa in den Kinofilmverleih kam. Mit seinem ersten Spielfilm "The Sugarland Express" hatte er zwar einen finanziellen Misserfolg und sein (nicht erfolgreiches) Kinodebüt, jedoch hat er von vielen Kritikern sehr gute Noten bekommen. Bereits im Alter von 27 Jahren begeisterte er mit seinem ersten Kinofilm die internationalen Kritiker, die ihn schon bald als Wunderkind bezeichneten. Schon sein zweiter Kinofilm "Der weiße Hai" wurde 1975 ein großer kommerzieller Erfolg und zum bis dato gewinnträchtigsten Film aller Zeiten, trotz vieler Schwierigkeiten wie dem Wetter oder problematischer Filmtechnik. Erst nach einigen Jahren gilt der "Der weiße Hai" als der erste moderne Blockbuster in der Filmgeschichte. Finanziell wurde er erst zwei Jahre nach dem Release von "Der weiße Hai" mit George Lucas Film "Krieg der Sterne" übertroffen. Es folgten dutzende Kinohits, so zum Beispiel die "Unheimliche Begegnung der dritten Art" oder die "Indiana-Jones"-Tetralogie, bei welchem er zusammen mit George Lucas die Figur Indiana Jones entwickelt hat und durch ihre gemeinsamen Faszination das Genre des Films noch mehr belebt wurde. Seinen eigenen Rekord brach er dann 1982 mit "E. T. – Der Außerirdische", der ein noch höheres Einspielergebnis erzielte und elf Jahre lang der umsatzstärkste Film der Kinogeschichte war. Sein Film "Poltergeist" aus dem Jahr 1982 und die Fernsehreihe "Twilight Zone" aus dem Jahr 1983 ergänzten sein vorhandenes Image als Disney-Erbe. Die Filmindustrie hielt Steven Spielberg nach einigen fatalen Fehlschlägen und wenig Erfolg wie z.B. durch "1941 – Wo bitte geht’s nach Hollywood" (1979), "Always" (1989) und Peter Pans Sequel "Hook" (1991) für ausgedient. In den späten 80er Jahren war Spielberg überwiegend als Produzent tätig und wandte sich gleichzeitig vermehrt der Produktion von Fernsehsendungen zu. Spielbergs erfolgreichstes Jahr kam allerdings 1993: In diesem Jahr wurden sowohl der Blockbuster und zugleich sein Comeback "Jurassic Park" als auch "Schindlers Liste" veröffentlicht. Während "Jurassic Park" erneut alle finanziellen Rekorde und die Box-Office Rekorde brach und mit 920 Mio. eingespielten Dollar über fünf Jahre lang als erfolgreichster Film der Welt galt, war "Schindlers Liste" auch ein Kritikererfolg. In diesem Film setzt sich Spielberg erstmals offen mit seiner jüdischen Identität und der Judenverfolgung in Europa auseinander und konnte diesen mit einfachen Dreharbeiten, keinerlei Kranfahrten und der Benutzung von Handkameras erfolgreich inszenieren. Seine Eltern, Arnold Spielberg und Leah Posner, sind Nachfahren jüdischer Flüchtlinge, die aus Furcht vor russischen Pogromen nach Amerika auswanderten. Diese Geschichte verarbeitete er zudem verschlüsselt in dem von ihm produzierten Zeichentrickfilm "Feivel, der Mauswanderer". Anfang 1994 wurde "Schindlers Liste" mit sieben Oscars ausgezeichnet, unter anderem in den Kategorien Regie und Bester Film, die beide an Spielberg gingen. Sein Image als großer kleiner Junge und Märchenonkel, das ihm seit "E.T." anhing, konnte er damit endgültig abstreifen. Die meiste Zeit seiner bisherigen Filmkarriere verbrachte Spielberg mit handwerklich begabten und technisch brillanten Unterhaltungsfilmen. Anfang 2007 begann Spielberg seine Arbeit am (als Trilogie geplanten) "Die Abenteuer von Tim und Struppi", einer 3D-Adaption. Spielberg arbeitete dabei erstmals mit Peter Jackson zusammen. Der erste Teil wurde von Spielberg inszeniert und von Jackson produziert, beim zweiten soll Jackson Regie führen. 2013 leitete er die Wettbewerbsjury der 66. Internationalen Filmfestspiele von Cannes. Privates. Spielberg heiratete 1985 die Schauspielerin Amy Irving, mit der er einen gemeinsamen Sohn hat. Nach der Scheidung heiratete er 1991 die Schauspielerin Kate Capshaw, die er bei den Dreharbeiten zu "Indiana Jones und der Tempel des Todes" kennen gelernt hatte. Das Paar hat drei leibliche und zwei adoptierte Kinder. Kate Capshaw brachte ihre Tochter Jessica Capshaw mit in die Ehe. Seine Patenkinder sind Drew Barrymore und Gwyneth Paltrow. Zusammen mit Kate Capshaw und den fünf Kindern lebt er in Hollywood. Zu seinem beruflichen Freundeskreis zählen Regisseure wie George Lucas, Robert Zemeckis, Barbra Streisand, Richard Attenborough, Chris Columbus, Peter Jackson und Barry Levinson sowie die Schauspieler Tom Hanks und Tom Cruise und der Komponist John Williams. Produktionsfirma. Seine eigene Filmproduktionsfirma Amblin Entertainment, die er nach seinem Kurzfilm "Amblin" benannte, entstand 1982 noch auf dem Gelände der "Universal Studios". 1994 gründete er mit seinen Freunden Jeffrey Katzenberg und David Geffen das unabhängige Filmstudio DreamWorks SKG, das allerdings 2005 wegen finanzieller Probleme an Paramount Pictures verkauft wurde. Ihr erster Film Release „The Peacemaker“ (1997) war für die Zuschauer weniger spektakulär. Im Oktober 2005 wurde bekannt, dass er mit Electronic Arts einen Exklusiv-Vertrag über die Entwicklung dreier Computerspiele geschlossen hat. Zusammenarbeit und Freundschaft mit John Williams. Eine enge Freundschaft verbindet Steven Spielberg seit 1974 mit dem amerikanischen Filmmusikkomponisten John Williams. Spielberg betont immer wieder, dass Williams der größte musikalische Geschichtenerzähler überhaupt sei. Aus der Zusammenarbeit zwischen Spielberg und Williams entstanden bislang 26 Werke, deren erstes der Film „Sugarland Express“ war. Mit Ausnahme von "Die Farbe Lila" (1985) hat Williams für alle unter der Regie von Spielberg entstandenen Filme die Musik komponiert - einschließlich "Lincoln", der Anfang 2013 in den deutschen Kinos zu sehen war. Im Jahr 2015 arbeitet Spielberg, aufgrund gesundheitlicher Probleme Williams, erstmals wieder mit einem anderen Komponisten zusammen: Thomas Newman schrieb die Musik für "Bridge of Spies – Der Unterhändler". Einflüsse und Merkmale. Spielbergs Entwicklung ist vor allem von Filmemachern wie Stanley Kubrick, Walt Disney, Alfred Hitchcock, John Ford, Frank Capra, David Lean, Orson Welles und Akira Kurosawa beeinflusst; zu vielen von ihnen hatte er persönlichen Kontakt. Aber auch seine Begeisterung für Zeichentrickfilme, Comics, Bilder von Norman Rockwell und besonders das Fernsehen haben in seinen Arbeiten sichtbare Spuren hinterlassen. Vor jedem neuen Filmdreh schaut sich Spielberg nach eigenen Angaben immer die Filme "Die sieben Samurai", "Lawrence von Arabien", "Ist das Leben nicht schön?" und "Der schwarze Falke" an. Als Fan der Fernsehserie "Twilight Zone" produzierte er einen Kinofilm zur Serie. Als bekennender Trekkie teilt Spielberg die völkerverbindende Sicht der Fernsehserie "Raumschiff Enterprise" und spielte in seinen Filmen darauf an, zuletzt mit dem Vulkanier-Gruß zwischen einer Afroamerikanerin und einem Latino in "Terminal" oder von Marty McFly (gespielt von Michael J. Fox) in "Zurück in die Zukunft". Zu den typischen Markenzeichen von Spielberg-Filmen gehört hauptsächlich die Befriedigung der Interessen und Wünsche des Massenpublikums sowie präzise Beobachtung von Alltagssituationen, Konfrontation amerikanischer Durchschnittstypen mit höchst außergewöhnlichen Ereignissen, eine einerseits kindlich naive, andererseits ernsthaft humanistische Botschaft der Versöhnung, eindrucksvolle Licht- und Spezialeffekte wie Feuerwerke, die in Filmen wie "Unheimliche Begegnung der dritten Art" und "1941 – Wo bitte geht’s nach Hollywood" zu sehen sind. Viele ungewohnte Perspektiven, ein zumeist durchchoreographiertes Verhältnis zwischen Kameraführung und Schauspielern sowie eine Inszenierung, die intensiv an die Gefühle der Zuschauer appelliert (Suspense, Lachen, Gruseln, auch Ekel und Weinen), sind weitere spezifische Merkmale Spielbergs. Die meisten seiner Filme sind durch seine technische Vorliebe, sehr gute Beherrschung des filmischen Handwerks und viel Bewegung (Stunts) geprägt. Dadurch fällt es ihm mit seiner Imagination leicht, das Publikum zu manipulieren und die Zuschauer in die Actionszenen hineinzuziehen. Das Verknüpfen von Angst und Staunen wie bei "E.T." durch Auftreten des Mutterschiffes und bei "Jurassic Park" durch Auftreten der Dinosaurier, soll den Zuschauer ständig in Spannung halten. Bei Spielberg sind in vielen Filmen, besonders den Kriegsfilmen, melodramatische Effekte zu entdecken, die oft durch starkes Gegenlicht, Rauch und Nachtszenen zum Vorschein kommen. Auffallend ist auch, dass in seinen Filme Kinder selten sterben und häufig im Zentrum der Handlung stehen – und zwar in Genres, in denen dies zuvor untypisch war: Kriegsfilm (Das Reich der Sonne), Science-Fiction ("E.T.", "Jurassic Park") und Utopie "(A.I. – Künstliche Intelligenz)". Ein weiteres Merkmal von Spielberg ist, dass er der Weiterentwicklung seiner Filmfiguren keinen großen Raum lässt und eher an technischen Film- und Hilfsmitteln interessiert ist. Bis heute bleibt Spielberg seinem Prinzip treu, im Wechsel sowohl anspruchsvolle als auch hauptsächlich unterhaltende Filme zu drehen: Im Juni 2005 kam die Neuverfilmung von "Krieg der Welten" in die Kinos; "München" (2005) ist ein Film über den umstrittenen Rachefeldzug des israelischen Geheimdienstes Mossad nach dem palästinensischen Angriff auf die Olympischen Sommerspiele 1972, bei dem elf israelische Sportler getötet wurden. Seit vielen Jahren arbeitet er mit der Produzentin Kathleen Kennedy, dem Filmkomponisten John Williams und dem Cutter Michael Kahn zusammen. Seit "Schindlers Liste" ist Janusz Kamiński sein fester Kameramann. Gesellschaftliches Engagement. 1994 entstand auf Spielbergs Initiative die Survivors of the Shoah Visual History Foundation – eine gemeinnützige Organisation, die Aussagen von Überlebenden der Shoah für Bildungszwecke archiviert. Dafür wurde er am 10. September 1998 mit dem Großen Bundesverdienstorden mit Stern der Bundesrepublik Deutschland ausgezeichnet. Spielberg fördert durch persönliches und finanzielles Engagement den Nachwuchs in Hollywood, zum Beispiel an den Universitäten, die ihn damals abgelehnt hatten. Ein erneuter Generationswechsel kündigt sich an, und so sind es u. a. Spielberg-Filme, die nun Jungtalente der MTV-Generation dazu bringen, Regisseur werden zu wollen. Ein weiteres seiner vielen Stiftungsprojekte ist die "Starbright Foundation", die schwer kranken Kindern hilft. Auch im Wahlkampf um die US-Präsidentschaft machte Spielberg seinen inzwischen erheblichen gesellschaftspolitischen Einfluss geltend – durch aktive Unterstützung demokratischer Kandidaten wie John Kerry und zuvor Bill Clinton. Auf Antrag von Kindern erhielt er die internationale Auszeichnung als Kavalier des Ordens des Lächelns. Im November 2015 wurde ihm von Präsident Barack Obama die Presidential Medal of Freedom verliehen. Auszeichnungen (Auswahl). Der Asteroid (25930) Spielberg wurde nach ihm benannt. Order of the British Empire. Im Jahr 2001 wurde Spielberg von Queen Elizabeth zum Knight Commander (ehrenhalber) des Order of the British Empire ernannt. Da er kein Untertan der britischen Königin ist, wurde er allerdings nicht zum Ritter geschlagen und darf seinem Namen kein "Sir" voranstellen (wohl aber die Abkürzung "KBE" hinter seinem Namen anfügen). Liste der Biografien/C. C. __NOEDITSECTION__ C Liste der Biografien/D. __NOEDITSECTION__ D. D Liste der Biografien/E. E. __NOEDITSECTION__ E Liste der Biografien/F. __NOEDITSECTION__ F. F Liste der Biografien/G. __NOEDITSECTION__ G. G Liste der Biografien/H. H. __NOEDITSECTION__ H Liste der Biografien/I. __NOEDITSECTION__ I. I Liste der Biografien/J. __NOEDITSECTION__ J. J Liste der Biografien/K. __NOEDITSECTION__ K. K Liste der Biografien/L. __NOEDITSECTION__ L. L Liste der Biografien/M. __NOEDITSECTION__ M. M Liste der Biografien/N. __NOEDITSECTION__ N. N Liste der Biografien/O. __NOEDITSECTION__ O. O Liste der Biografien/P. P. __NOEDITSECTION__ P Liste der Biografien/Q. __TOC__ Q. __NOEDITSECTION__ Qw. Q Liste der Biografien/R. __NOEDITSECTION__ R. R Liste der Biografien/S. __NOEDITSECTION__ S. S Liste der Biografien/T. __NOEDITSECTION__ T. T Liste der Biografien/U. __NOEDITSECTION__ U. U Liste der Biografien/V. __NOEDITSECTION__ V. V Liste der Biografien/W. __NOEDITSECTION__ W. W Liste der Biografien/X. __TOC__ X. __NOEDITSECTION__ Xz. X Liste der Biografien/Y. Y. __NOEDITSECTION__ Y Liste der Biografien/Z. __NOEDITSECTION__ Z. Z Satanismus. a> wird häufig verwendet, um Satanismus zu vertreten. Satanismus ist eine Bewegung, deren Existenz als literarische Strömung seit dem 17. und als religiöse Bewegung seit dem frühen 18. Jahrhundert belegt ist; unter dem Begriff werden geistige Strömungen zusammengefasst, die nicht unbedingt miteinander in Verbindung stehen. Man unterscheidet in der Regel zwei Richtungen des Satanismus. Der „traditionelle“ (theistische) Satanismus beinhaltet das Verehren von Gottheiten. Darin gilt das Kriterium, dass die Figur Satans mehr oder weniger im Mittelpunkt steht. Beim „modernen“ Satanismus hingegen wird ein atheistischer und rationalistischer Standpunkt vertreten. Kleinster gemeinsamer Nenner zahlreicher Richtungen des modernen Satanismus ist hierbei der Anthropozentrismus, im Besonderen die Betonung der Freiheit des Menschen. Damit steht der Satanismus vor allem im Gegensatz zu religiösen Strömungen, die die Vorherbestimmung und Unvollkommenheit des Menschen betonen. Eine Vermischung des traditionellen Satanismus und modernen Satanismus ist trotz alldem möglich. In der Öffentlichkeit wird Satanismus vor allem als Gegenstand von Schauergeschichten, Sensationsjournalismus und Verschwörungstheorien wahrgenommen. Ursprünge. Der Begriff Satanismus bezieht sich etymologisch auf Satan und damit auf den Kulturraum der monotheistischen Religionen Judentum, Christentum und Islam. Allerdings geht die Idee einer dualistisch angelegten Welt, in der ein Kampf zwischen Gut und Böse ausgefochten wird, auf ältere Religionen wie zum Beispiel den Zoroastrismus zurück. Im Zentrum dieses Glaubens steht der Schöpfergott Ahura Mazda gegen Ahriman. Gnostische Strömungen übernahmen diesen Dualismus. Ein Motiv des modernen Satanismus – die Vergöttlichung des Menschen "(„Deus est homo“)" – findet sich etwa auch bei gnostischen Schlangenkulten der Antike (Ophiten). Sie schimmert in dem Satz „Ihr werdet sein wie Gott und wissen, was gut und böse ist“ durch. Judentum. Satan (hebr. שטן) bedeutet ‚Anfeinder‘, ‚Gegner‘ und ‚Widersacher‘. Seine Funktion im Buch Hiob gleicht der eines Staatsanwalts. Satan kann durchaus eine positive Rolle übernehmen. Seine theologisch untergeordnete Funktion wird dadurch sichtbar: Er handelt immer im Auftrag JHWHs, des jüdischen Gottes. Im Judentum ist Satan derjenige, der die Seite der Anklage am Richterstuhl Gottes vertritt. Diese Auffassung lebt weiter in der Person des Advocatus diaboli, der diese Funktion bei Verhandlungen am Stuhl Petri ausführt. Im Buch Hiob wird Satan als einer der Söhne Gottes bezeichnet, der in der Hierarchie der Engel so weit oben stand, dass er Zutritt zu Gottes Hofstaat hatte. Eine polarisierende Deutung der Welt als ein Kampf Gut gegen Böse entstand später aus anderen religiösen Strömungen (persische und babylonische Religionen) in der jüdischen Kultur und war zunächst wenig bedeutsam. Theologisch relevant wurde sie mit dem aufkommenden Christentum. Satan wurde erst in späteren jüdischen Mythologien wie dem, nach Otto Eissfeldt auf vor 63 v. Chr. datierten, apokryphen Äthiopischen Buch Henoch als gefallener Engel beschrieben, der sich zusammen mit seinen Anhängern gegen Gottes Willen auflehnte und zur Strafe auf die Erde verbannt wurde (1. Henoch 52,3; 53,6). Christentum. Der Begriff des Teufels im Neuen Testament ist ursprünglich griechisch Διάβολος, "Diàbolos", ‚der Verleumder‘, ‚Durcheinanderwerfer‘, ‚Verwirrer‘, was sich von Διά-βαλλειν, "dia-balläin", ‚durcheinanderwerfen‘, herleitet, seltener die griechische Umschrift des hebräischen Wortes "Satan" mit Σατανας, "Satanás". Das Wort personifiziert das Böse in seiner religiösen Funktion des Versuchers, wie es beispielhaft das Bild der Schlange im Paradies darstellt. Im Christentum wird der Teufel als Gegner und Widersacher (hebräisch: "Satan") des christlichen Gottes angesehen. Während im Laufe der Jahrhunderte alle nichtchristlichen („heidnischen“) Religionen in Europa von den Christen verdrängt wurden, erhielt der Teufel eine Vielzahl von Beinamen und neuen Gesichtern, da man die alten Gottheiten zu Feinden Gottes erklärte: eine der bekannteren Darstellungen ist die des bocksbeinigen Hirtengottes Pan. Gnosis. In einigen neo-gnostischen Strömungen wird Satan mit dem römischen Gott Lucifer (‚Lichträger‘ von "lux, lucis" "Licht" und "ferre" "tragen") gleichgesetzt. Islam. Dem Islam ist die Vorstellung vom Iblis, einem Schaitan (arab.: الشيطن), also einem von Allah abgewandten Dschinn, als Widersacher Gottes oder eine Art Kräfte-Gegenpols fremd. Das Prinzip Gut gegen Böse als Gegenkräfte ist hier nicht anwendbar. Denn nur Allah ist der absolut Mächtige, Iblis ist einzig Versucher der Menschen, dem Allah eine Frist gesetzt hat. Iblis ist nicht allmächtig, doch gefährlich für die Menschen, solange sie wanken und sich Allah nicht vertrauensvoll zuwenden: „Der Satan stachelt zwischen ihnen (zu Bosheit und Gehässigkeit) auf. Er ist dem Menschen ein ausgemachter Feind.“ Folglich gibt es im Islam in der Regel keine Sekten oder Glaubensrichtungen, die sich mit Satan auseinandersetzen. Nach der siebten Sure wurde Satan aus Feuer, Adam aus Ton geschaffen. Die Sure weist mehrere Satane den Ungläubigen zu, welche die Ungläubigen beschützen und zu Irrtümern verführen sollen. Die über Satan verhängte Todesstrafe, weil er im Paradies Adam und Eva verführte, wurde ausgesetzt und findet nach islamischer Vorstellung erst beim Jüngsten Gericht statt. Die symbolische Steinigung Satans nach der Rückkehr vom Berg Arafat in Mina östlich von Mekka ist eins der traditionellen Rituale der islamischen Pilgerfahrt. Satanismus in der Literatur. Anfänglich war Satanismus eine von England ausgehende literarische Strömung, die sich mit dem Bösen integrativ auseinandersetzte. Als Begründer gilt John Milton (1608–1674). Seine Dichtung "Paradise Lost" (1667), in der erstmals in der Literaturgeschichte ein Satan beschrieben wird, der dem Menschen seine Potentiale bewusst machen soll, zu Wissen und Göttlichkeit zu gelangen, enthält den Satz: "Better to reign in hell than to serve in heaven" („Lieber in der Hölle herrschen als im Himmel dienen“). Die bekanntesten Vertreter sind der englische Dichter William Blake (1757–1827) sowie die französischen Dichter Marquis Donatien Alphonse François de Sade (1740–1814) und Charles Baudelaire (1821–1867). Baudelaire sah nach dem Sündenfall „keine direkte Verbindung mehr nach oben“ und das Heil in einer "hyperconscience dans le mal" (‚Überbewusstsein im Bösen‘) „vor allem bezüglich der Sexualität“; seine manichäische Haltung zum Bösen mit seiner Ästhetik des Hässlichen fand 1857 Ausdruck im Gedichtband "Les Fleurs du Mal" (dt. "Die Blumen des Bösen"). Marquis de Sades Hauptwerk dieser Richtung "Les 120 Journées de Sodome ou l’École du Libertinage" (dt. "Die 120 Tage von Sodom") wurde erst 1904 herausgeben, aber bereits im Jahr 1785 verfasst. In England griff Lord Byron (1788–1824) diese Ideen mit "Childe Harold’s Pilgrimage" 1812 und "Der Korsar" 1814 auf; sein von Miltons Satan inspiriertes Drama "Cain" aus dem Jahr 1821 gilt als das erste satanistische Werk der Weltliteratur. E.T.A. Hoffmann (1776–1822) als Hauptvertreter der sogenannten Schwarzen Romantik in Deutschland ist Autor des 1815/16 herausgegebenen fantastischen Romans "Die Elixiere des Teufels". 1865 erregte Giosuè Carducci (1835–1907), der spätere italienische Literatur-Nobelpreisträger von 1906, mit seiner "Inno a Satana" (Hymne an Satan) Aufsehen. In seinem Roman "Demian" thematisiert Hermann Hesse den Satanismus und lässt einen Protagonisten unter anderem aussprechen: „Also müsse man entweder einen Gott haben, der auch Teufel sei, oder man müsse neben dem Gottesdienst auch einen Dienst des Teufels einrichten.“ Und: „Ich habe Kulte begangen, für die ich Jahre von Zuchthaus absitzen müßte, wenn man davon wüßte.“ Satanismus in der medialen Darstellung. Mediale Darstellungen von Satanismus stützen sich oft auf verbreitete Klischees wie Tier- und Menschenopfer beziehungsweise Ritualmorde im Zusammenhang mit Schwarzen Messen, ohne dafür konkrete Beweise vorlegen zu können. Bei diesen Berichten werden auch okkultistische Gruppierungen ohne Bezug zum Satanismus, wie der Ordo Templi Orientis, genannt. Teilweise werden auch Kriminalfälle wie der Mordfall von Sondershausen als satanistisch motiviert dargestellt. Häufig werden auch „sexuelle Ausschweifungen“ und „perverse“ sexuelle Praktiken als Bestandteil von Satanismus und satanischen Messen angesehen. Die Schwarze Messe im "The Black Book of Satan" des Order of Nine Angles (ONA) beispielsweise beinhaltet Hostienfrevel durch Ejakulation auf die Hostie und eine Orgie. In "The Black Book of Satan III" ist auch eine zusätzliche Version für Homosexuelle zu finden. Toleranz gegenüber Homosexualität zeigen auch Äußerungen von Peter H. Gilmore und Anton Szandor LaVey von der Church of Satan, für die das Sexualleben des Einzelnen ausschließlich dessen Privatsache ist und die Mitgliedschaft von Homosexuellen wie Oliver Fehn und Marc Almond. Im Gegensatz dazu stehen wiederum die homophoben Ansichten von Kerry Bolton und entsprechende Äußerungen zahlreicher Black-Metal-Musiker. Ab 1885 veröffentlichte der Franzose Léo Taxil die Verschwörungstheorie, die Freimaurer wären in Wahrheit Satanisten. In ihren Logenhäusern würden sie regelmäßig sexualmagische Orgien und Schwarze Messen zelebrieren, ihr oberster Chef erhalte seine Anweisungen von Luzifer persönlich. Diese und andere wüste Behauptungen verbreitete er in mehreren Büchern und in der Broschürenserie "Le Diable au XIXe siècle" („Der Teufel im 19. Jahrhundert“), von der 240 Titel erschienen. 1897 gestand Taxil öffentlich ein, dass er sich den ganzen Schwindel nur ausgedacht hatte. In den 1980er und 1990er Jahren war in den Vereinigten Staaten die Annahme verbreitet, Kinder würden in großer Zahl von Mitgliedern satanistischer Sekten rituell missbraucht. Auslöser war 1980 der Bestseller "Michelle Remembers", in dem die Autorin angab, mittels Hypnotherapie Erinnerungen an Vergewaltigungen und Folterungen zurückerlangt zu haben, die sie seit ihrem fünften Lebensjahr von Mitgliedern der Church of Satan erlitten habe. 1987 schockierte ein Prozess die amerikanische Öffentlichkeit, in dem es um einen Satanistenring von 100 Lehrern und Erziehern ging, die insgesamt 360 Kinder der "McMartin Preschool" in Manhattan Beach, Kalifornien, missbraucht haben sollten. In der zweiten Hälfte der 1980er Jahre wurden immer mehr Fälle ritueller Gewalt an Einrichtungen der Kinderbetreuung aktenkundig: Lehrer, Sozialarbeiter, Therapeuten und Polizisten, die in Fortbildungsseminaren über rituelle Gewalt geschult worden waren, entdeckten mittels suggestiver Befragungsmethoden immer neue Fälle. Es entstand eine anti-satanistische „Moral Panic“, eine Massenhysterie, vergleichbar dem Hexenglauben des europäischen Mittelalters. Die Annahme, es gäbe ein großes Netzwerk satanistischer Gruppen, die rituelle Gewalt an Kindern ausüben und jährlich bis zu 60.000 Menschen töten würden, wurde von einer breiten Koalition von fundamentalistischen Christen, Feministinnen, Ärzten, Polizisten und Sozialarbeitern getragen. Seitdem die Angeklagten im McMartin-Prozess wegen erwiesener Unschuld freigesprochen worden waren und der Wahrheitsgehalt von "Michelle Remembers" in Zweifel gezogen worden war, ging der Glaube an massenhaften satanistischen Kindesmissbrauch Mitte der 1990er Jahre rasch wieder zurück. Heute werden die Berichte darüber auf Erinnerungsverfälschungen, Verschwörungstheorien und den Einfluss von Kinofilmen wie "Rosemaries Baby" oder "Der Exorzist" zurückgeführt. Symbol des Order of Nine Angles Allerdings wird rechtsextremes und rechtsesoterisches Gedankengut seit den 1990er Jahren von einzelnen Gruppierungen mit satanischen Inhalten verknüpft. Vorreiter war hier der ONA, der Adolf Hitler in seiner "Mass of Heresy" anruft und den Nationalsozialismus als „(neben traditionellem Satanismus) einzig wahre Häresie“ bezeichnet, die nach einer „Revolution der Seele, einem Triumph des Willens und einer Rückkehr von rassischem Stolz und [rassischer] Pflicht“ rufe. In dessen Tradition stehen unter anderem die Gruppierungen The Black Order und Order of the Left Hand Path/Ordo Sinistra Vivendi von Kerry Bolton, der ein Adept des ONA war Fraternitas Loki, The Joy of Satan und der White Order of Thule. Der Schwarze Orden von Luzifer des Schweizers Sartorius, der seine Wurzeln im Gegensatz zum ONA im „modernen“ Satanismus von LaVey und Aquino hat, beruft sich wiederum auf die Ansichten Karl Maria Wiliguts. Geschichte. Die Anfänge des Satanismus werden im manichäisch-gnostischen Dualismus gesehen, der eine prinzipielle „Gleichrangigkeit von Gott und Teufel“ annahm. Einige gnostische Gruppierungen sollen Satan angebetet haben, damit er ihnen nicht schade. Für einen real existierenden Satanismus in Mittelalter und Frühneuzeit vor dem Hintergrund der Verfolgung von Ketzern und der zahlreichen Hexenverbrennungen dieser Epoche gibt es zum gegenwärtigen Zeitpunkt der Forschung keinerlei Anhaltspunkte. Die Annahme eines im Sinne des Satanismus organisierten Hexenkultes wird von Historikern meist abgelehnt. Es finden sich jedoch Hinweise auf einen echten Satanismus im Prozess gegen Gilles de Rais, in dem sich „das Destruktive des Satanismus in extremer Weise konzentriert hat […], auch wenn die Quellen über ihn von keinen ausgedehnten Teufels-Ritualen berichten“. In der Zeit der Romantik versuchte Robert Southey, seinen Gegner Lord Byron zu diskreditieren, und prägte in diesem Zusammenhang das Schlagwort der "Satanic School". Eine erste Erscheinung des Satanismus ist ansatzweise der Hellfire Club im England des 18. Jahrhunderts. Satanistische Tendenzen finden sich „[u]nbestreitbar […] im Okkultismus des 19. Jahrhunderts, offenbar als Reaktion auf den als banal empfundenen, fortschrittsgläubigen Materialismus dieser Epoche, der die orthodoxe Gläubigkeit weitgehend ablehnte, aber dennoch ‚dunkle Mysterien‘ verlangte“. Frankreich, das mit Individuen wie Éliphas Lévi eine Pionierrolle für den Okkultismus hatte, wird als „Brutstätte des modernen Satanismus“ angesehen und der Dichter Baudelaire als wichtige Figur dieses modernen Satanismus und „vielleicht […] erste voll bewußte Persönlichkeit in der Geschichte des Satanskultes“ bezeichnet, wobei die Bezeichnung als „moderner Satanismus“ hier noch eine andere Bedeutung hat als bei LaVeys späterer Auslegung. Im 20. Jahrhundert gründeten sich zahlreiche weitere Vereinigungen. Der britische Magier Aleister Crowley wird oftmals als Satanist eingestuft, war allerdings ein wichtiger Vorreiter des modernen Satanismus. Die Verbindung von Satanismus und der auf Crowley zurückgehenden neureligiösen Bewegung Thelema wurde durch den britischen Schriftsteller Dennis Wheatley geprägt. Anton Szandor LaVey gründete 1966 die Church of Satan und machte Satanismus als Erster öffentlich zu einem eigenständigen achristlichen Religionssystem. Seine "Satanische Bibel" (1968) wurde inhaltlich in großen Teilen bereits von Crowley und dem sozialdarwinistischen Buch "Might is Right" (1896), dessen unbekannter Autor unter dem Pseudonym Ragnar Redbeard firmiert, vorweggenommen. Satan „ist hier nicht der mittelalterliche Gottseibeiuns mit der Mistgabel, sondern das Prinzip ‚Lust‘ und ‚unbedingte Freiheit‘ – das auf links gedrehte ‚peace, love and happiness‘ von LaVeys Hippie-Nachbarn im San Francisco der sechziger Jahre“ Stattdessen vertritt diese Kirche eine atheistische Philosophie und bestreitet die „Wirklichkeit einer jeglichen spirituellen Existenz“; die von ihr aufgegriffenen Aspekte der Ritualmagie werden entsprechend als „selbst-veränderndes Psychodrama […], um sich von aufgestauten Gefühlen zu befreien“ und „fast ein Ersatz für Psychotherapie“ erklärt, das keine Glaubenselemente enthalte. Er „wollte, dass Satanismus ein Werkzeug ist, um das Leben eines jeden Satanisten zu verbessern“, und die Church of Satan „sollte das Mittel sein, um diese Philosophie so originalgetreu wie möglich zu verbreiten“. Andere Strömungen innerhalb des Satanismus lehnen LaVeys Auslegung ab, weil sie „sehr menschlich“ sei, besage, dass „die einfachste Hausfrau Satanist sein kann“ und es für die meisten Personen sehr einfach sei, den Inhalten zuzustimmen, sie „nahezu universell lesbar“ seien, und erkennen sie nicht als satanistisch an. LaVey habe nie die dunkle Seite des Lebens praktisch zu erfahren oder Böses zu praktizieren versucht. Stattdessen verbreite die CoS „eigentlich nichts anderes als magisch verbrämten Hedonismus. Aus Crowleys tiefsinnigem ‚Do what thou wilt‘ mache sie ein plattes ‚Do as you like‘. Die Satanskirche wendet sich gegen Puritanismus in jeder Form, aber auch gegen Mystik und Drogengebrauch (sehr zum Unterschied von Crowley). Ihre Sozialmoral ist machiavellistisch, ihr Weltbild kynisch-epikuräisch. Bei ihrer Magie handelt es sich um ein geschickt zusammengestelltes Arsenal von Techniken der Verhaltenstherapie, die LaVey ungeniert zu Höchstpreisen vermarktet.“ Die Church of Satan fand zahlreiche prominente Unterstützer und Anhänger und ist „längst Pop“. Entsprechend gilt es als „‚Verdienst‘ der Church of Satan, dem Satanismus den Nimbus des Elitären genommen und ihn im gottlosen Kapitalismus verankert zu haben, weshalb die magische Konkurrenz sie gern als okkulten Drive-in belächelt“. Von der Church of Satan spaltete sich 1975 nach internen Streitigkeit der Temple of Set ab, der von traditionellen Satanisten ebenfalls nicht anerkannt wird. Obwohl sich herausstellte, dass „Legende und Wirklichkeit in LaVeys bunter Biographie nicht übereinstimmen“, wurde der Mythos um seine Person dadurch „kaum angekratzt“. Nach LaVeys Tod 1997 kam es zu vier Jahre andauernden Streitigkeiten um seine Nachfolge; der Journalist Lawrence Wright äußerte, die Church of Satan habe keine Zukunft, „es sei denn, es käme eine Figur mit ähnlichem Charisma daher“. 2001 wurde Peter H. Gilmore der neue Hohepriester der Kirche. In den 1970er Jahren soll der Order of Nine Angles gegründet worden sein. Dieser bezeichnete sich als erste Gruppierung in seinen Schriften als Vertreter eines traditionellen Satanismus. Diese Bezeichnung steht nicht für Satanismus im traditionellen Sinne der Verehrung eines realen Satans, sondern für eine vom ONA behauptete geheime Tradition über mehrere Generationen; diese Behauptung wird jedoch angezweifelt. Für den ONA geht traditioneller Satanismus weit über die Befriedigung des Lustprinzips hinaus und beinhaltet Selbstbeherrschung, Selbstüberwindung und kosmische Weisheit. Seine Vorstellung von Satanismus ist pragmatisch mit einem Schwerpunkt auf der Evolution des Individuums durch gefährliche Situationen. Die Bezeichnung als „traditioneller Satanismus“ wird aber auch unabhängig vom ONA von zahlreichen theistischen Satanisten verwandt, andere bevorzugen die Bezeichnung „theistischer Satanismus“, auch zur Abgrenzung vom ONA. Satanismus in Musik und Subkulturen. Vielen Subkulturen und Musikrichtungen wird nachgesagt, ihre Szenegänger würden dem Satanismus frönen, wobei entweder den Musikern ein Pakt mit dem Teufel oder die Verwendung von Rückwärtsbotschaften vorgeworfen wird oder man sich darunter unwissentlich Jugendsatanismus vorstellt. Dies ist jedoch in den allermeisten Fällen vollkommen falsch. Die Gothic-Subkultur findet sich wohl am häufigsten mit diesem Vorurteil konfrontiert. Das Kokettieren der Goths mit satanischer und dunkler Ästhetik – Petruskreuze (das auf dem Kopf stehende Kreuz ist nicht zwangsläufig antichristlich), Pentagramme und andere okkulte Symbole als Schmuck, schwarze Gewänder, düstere Musik – wird als Ausdruck einer Geisteshaltung oder gar Bestätigung für kultische Aktivitäten überbewertet. Die evangelische Informationsstelle Relinfo urteilt im Zusammenhang mit den Gruftis, einer Splitterkultur der Gothic-Szene: „Zwar trifft es zu, dass manch ein ‚Gruftie‘ sich satanistisch weiterbildete und/oder von satanistischen Zirkeln angeworben wurde, den meisten ‚Grufties‘ war Satan aber kein Anliegen. Ihr Outfit und ihre Praktiken entsprangen vielmehr einer morbiden Grundstimmung, die das einigende Element der ‚Gruftie‘-Szene darstellte. Inzwischen sind die Grufties im Gegensatz zum Jugendsatanismus praktisch verschwunden, was deutlich belegt, dass der Zusammenhang der beiden Phänomene ein gar so enger nicht gewesen sein kann.“ Die Texte der Musik der Gothic-Kultur geben hier mehr Aufschluss über eine introvertierte Gefühlswelt von Melancholie und Weltschmerz. Auch die Metal-Subkultur bedient sich stellenweise satanistischer Symbole. Mit welcher Häufigkeit und Ernsthaftigkeit, hängt ausgesprochen stark davon ab, in welcher Subszene des Metal man sich bewegt. In den meisten Subszenen werden, entgegen allen Vorurteilen, tatsächlich nur sehr selten satanistische Symbole verwendet, und entsprechendes Gedankengut ist mitunter gar nicht präsent. Meist dient satanische Symbolik im Metal ausschließlich der Provokation und Rebellion und der Betonung der eigenen Freiheit. In der Subszene des Death Metal ist eine antichristliche bis satanische Symbolik vereinzelt vorzufinden, was in erster Linie jedoch mit dem Ziel einer künstlerisch inspirierten (manchmal auch kommerziell kalkulierten) Provokation geschieht. Die Black-Metal-Szene hingegen ist über den Satanismus definiert. Satanismus findet sich auch in der Industrial-Subkultur, wo sich einzelne Musiker mit Okkultismus und Satanismus beschäftigen; einige Musiker wie Reverend Thomas Thorn (The Electric Hellfire Club) und Boyd Rice sind Mitglieder der Church of Satan. Sprichwort. Sprichwörter sind traditionell-volkstümliche Aussagen betreffend ein Verhalten, eine Verhaltensfolge oder einen Zustand, die zumeist eine Lebenserfahrung darstellen. Sprichwörter sind wie die Redewendungen ein wichtiger Teil des Thesaurus in fast jeder Sprache. In der Sprachwissenschaft wird die Kunde von den Sprichwörtern nach dem griechischen Wort παροιμἰα "(paroimía)" als wissenschaftliche Disziplin Parömiologie genannt. Definition. Die Abgrenzung vom Sprichwort mit seinem unbekannten Autor zum Zitat und zum „geflügelten Wort“, deren Herkunft nachweisbar ist, ist nicht immer eindeutig. In der Linguistik wird der Wiederholungs- und Unveränderlichkeitsaspekt manchmal mit einem Terminus von Eugenio Coseriu als „wiederholte Rede“ ("discurso repetido"), gefasst. Zitate sind zunächst einmal individuelle Erfindungen, die aber sprichwörtlich werden können. Bei immer mehr geflügelten Worten geht das Zitatbewusstsein verloren. Das gilt besonders für viele aus der Bibel stammende Wendungen. Auffällig ist, dass in protestantischen Gesellschaften mehr auf die Bibel angespielt wird als in katholischen. Auch manche Buch- und Filmtitel haben mittlerweile schon sprichwörtlichen Charakter angenommen. Sogar gekürzte Refrains aus Volksliedern oder Schlagern werden bereits für Sprichwörter gehalten. Formen. Ein dem Sprichwort ähnelndes Zitat wird als geflügeltes Wort bezeichnet. Nach André Jolles gehören Sprichwort und geflügeltes Wort zu den sogenannten einfachen Formen. Das Sprichwort im Mittelalter. In der Kultur des Mittelalters wird das Sprichwort in allen Lebensbereichen als Ausdrucksmittel geschätzt. Seit dem 12. Jahrhundert empfehlen zahlreiche Lehrwerke der Rhetorik das Sprichwort als Stilmittel zur Unterstützung der Beweiskraft didaktischer Schriften. Mittelalterliche Predigten setzen häufig Sprichwörter neben Schriftwörter. Erkenntnistheoretisch entspricht das Sprichwort den Tendenzen des scholastischen Realismus und dessen architektonischem Idealismus. Da es das Allgemeine, Universelle als das einzig Wirkliche und Beweiskräftige ansieht ("universale ante rem"), erlaubte es dem mittelalterlichen Menschen, im Alltag gleich wie in seiner Theologie zu denken. Aus diesem Grund bezeichnet Johan Huizinga das Sprichwort sogar als das der mittelalterlichen Geisteskultur wesensgemäßeste sprachliche Ausdrucksmittel. Nur im Spätmittelalter, etwa in den Werken Geoffrey Chaucers, wird Skepsis gegenüber abstrakten sprachlichen Formen wie dem Sprichwort deutlich. Unveränderliche Formulierung. Ein Sprichwort hat die Form einer festen und unveränderlichen Formulierung. Darin unterscheidet es sich von der Redewendung. Reimform. Oft wird die Form des Sprichworts durch Stabreim, End- oder Binnenreim noch besonders gefestigt. Generalisierende Form. Mit dem imperativischen Anspruch „"Jeder kehre vor seiner eigenen Tür!"“, „"Man soll …"“, „"Man muss …"“ oder „"Man darf …"“ hat das Sprichwort eine generalisierende Form angenommen. Es drückt in der Regel einen allgemein gültigen Satz aus, der entweder eine Herkunft. Zwar gilt es als Merkmal des echten Sprichwortes, dass sein Autor unbekannt ist, doch beruhen manche vermeintlichen Sprichwörter nicht auf verallgemeinerten gesellschaftlichen Erfahrungen, sondern haben ihren Ursprung bei lateinischen Autoren oder in der Bibel. Die Mehrzahl der Letzteren fand durch Martin Luthers Übersetzung Eingang in die deutsche Sprache. Abwandlungen und Weiterentwicklungen. Viele Sprichwörter sind im Laufe der Zeit verändert, vermischt und oft auch inhaltlich weiterentwickelt worden. Diese Sprichwort-Fortentwicklungen sind in der Forschung noch nicht hinlänglich aufgearbeitet worden. Viele Abwandlungen sind spöttisch gemeint und wollen dadurch auch die Trivialität der Aussage des Originals hervorheben oder karikieren. Weitere bildhafte Beispiele finden sich im Artikel über Katachrese (Bildbruch). Stuttgart. Das für Öffentlichkeitsarbeit verwendete Logo der Stadt Stuttgart ist die Hauptstadt des deutschen Landes Baden-Württemberg und mit über 610.000 Einwohnern dessen größte Stadt. Die sechstgrößte Stadt Deutschlands bildet das Zentrum der rund 2,7 Millionen Einwohner zählenden Region Stuttgart. Zudem ist sie Kernstadt der siebtgrößten Agglomeration Deutschlands sowie der europäischen Metropolregion Stuttgart (etwa 5,3 Millionen Einwohner), der fünftgrößten in Deutschland. Stuttgart hat den Status eines Stadtkreises und ist in 23 Bezirke gegliedert. Als Sitz der baden-württembergischen Landesregierung und des Landtags sowie zahlreicher Landesbehörden ist Stuttgart das politische Zentrum des Landes (siehe auch "Liste der Behörden und Einrichtungen in Stuttgart"). Es ist Sitz des Regierungspräsidiums Stuttgart, das den gleichnamigen Regierungsbezirk verwaltet. In Stuttgart tagt das Regionalparlament der Region Stuttgart, einer der drei Regionen im Regierungsbezirk Stuttgart. Darüber hinaus ist Stuttgart Sitz des evangelischen Landesbischofs von Württemberg (Evangelische Landeskirche in Württemberg) und Teil der katholischen Diözese Rottenburg-Stuttgart. Die Stadt ist ein wichtiger Finanzplatz in Deutschland. Das Stuttgarter Stadtbild wird durch viele Anhöhen (teilweise Weinberge), Täler (insbesondere der Stuttgarter Talkessel und das Neckartal) und Grünanlagen (unter anderem Rosensteinpark, Schlossgarten) geprägt. Geographische Lage. Blick von der Weinsteige zum Höhenpark Killesberg Stuttgart (im lokalen schwäbischen Dialekt "Schduegerd") liegt im Zentrum des Landes Baden-Württemberg. Die Kernstadt befindet sich "„zwischen Wald und Reben“" im sogenannten „Stuttgarter Kessel“, einem vom nordostwärts dem Neckar zufließenden Nesenbach und seinen Nebenbächen, vor allem dem Vogelsangbach, geschaffenen Talkessel. Die Stadtteile reichen im Norden bis in das Neckarbecken, im Westen bis in den Glemswald und auf das Gäu, im Osten bis zu den Ausläufern des Schurwaldes und im Süden bis auf die Filderebene und zu den Ausläufern des Schönbuchs. Im Südosten fließt der Neckar bei den Stadtbezirken Hedelfingen/Obertürkheim von Esslingen am Neckar kommend in das Stadtgebiet und verlässt es im Stadtbezirk Mühlhausen im Nordosten wieder. Das Stadtgebiet erstreckt sich über eine Höhendifferenz von fast 350 m, was eine Besonderheit unter den Großstädten darstellt: die Höhe reicht von bei der Neckarschleuse Hofen bis auf der Bernhartshöhe nahe dem Autobahnkreuz Stuttgart. Zu den markantesten Erhebungen gehören der Birkenkopf () am Rand des Talkessels, der Württemberg () über dem Neckartal und der Grüne Heiner () an der nordwestlichen Stadtgrenze. Raumplanung. Die Stadt Stuttgart ist eines von 14 Oberzentren in Baden-Württemberg. Sie ist das Oberzentrum der Region Stuttgart, die ihrerseits mit der Stadt Stuttgart und ihren fünf Landkreisen insgesamt 2,67 Millionen Einwohner beherbergt. Backnang, Bietigheim-Bissingen/Besigheim, Böblingen/Sindelfingen, Esslingen am Neckar, Geislingen an der Steige, Göppingen, Herrenberg, Kirchheim unter Teck, Leonberg, Ludwigsburg/Kornwestheim, Nürtingen, Schorndorf, Vaihingen an der Enz und Waiblingen/Fellbach. Die Stadt Stuttgart fungiert neben ihrem Stadtgebiet für die Städte Leinfelden-Echterdingen und Filderstadt, – beide im Landkreis Esslingen gelegen – sowie für die Städte Ditzingen, Gerlingen und Korntal-Münchingen – alle drei im Landkreis Ludwigsburg gelegen – als Mittelzentrum. Die Stadt Stuttgart ist das Zentrum der künftigen Metropolregion Stuttgart und eines der drei Oberzentren innerhalb dieser. Die Metropolregion Stuttgart beherbergt insgesamt 3,46 Millionen Einwohner. Nachbargemeinden. Fellbach, Kernen im Remstal (alle Rems-Murr-Kreis), Esslingen am Neckar, Ostfildern, Neuhausen auf den Fildern, Filderstadt und Leinfelden-Echterdingen (alle Landkreis Esslingen), Sindelfingen und Leonberg (Landkreis Böblingen) sowie Gerlingen, Ditzingen, Korntal-Münchingen, Möglingen, Kornwestheim und Remseck am Neckar (alle Landkreis Ludwigsburg). Somit grenzen vier der fünf Landkreise der "Region Stuttgart" an den "Stadtkreis Stuttgart". Stadtgliederung. Das Stadtgebiet der Landeshauptstadt Stuttgart ist verwaltungsmäßig in fünf „innere“ und 18 „äußere“ Stadtbezirke aufgeteilt. Die Stadtbezirke haben einen Bezirksbeirat und einen Bezirksvorsteher, der in den inneren Stadtbezirken nur ehrenamtlich tätig ist. Die Stadtbezirke gliedern sich weiter in Stadtteile. Die Zahl der Stadtteile wurde durch die Änderung der Hauptsatzung vom 1. Juli 2007 und 1. Januar 2009 vergrößert. Seitdem besteht das Stadtgebiet von Stuttgart aus 23 Stadtbezirken und 152 Stadtteilen (Stadtbezirke auf der Stadtkarte sind anklickbar). Klima. Durch die Lage im breiten Talkessel und die dichte Bebauung Stuttgarts gibt es ein vergleichsweise warmes und zuweilen schwüles Klima. Die Höhenzüge Schwarzwald, Schwäbische Alb, Schurwald sowie der Schwäbisch-Fränkische Wald schatten zusätzlich die gesamte Region von Winden ab. Aufgrund dessen ist an den Hängen Stuttgarts sogar Weinbau möglich – siehe den Artikel Weinbau in Stuttgart. Die Jahresdurchschnittstemperatur beträgt in Stuttgart 10,8 °C. Im Winter bleibt die im Talkessel liegende Innenstadt meist schnee- und eisfrei. Auch starke „gefühlte“ Winde sind in der Innenstadt wegen der dichten Bebauung eher selten. Um trotz der immer wieder auftretenden Inversionswetterlage dennoch genug Frischluft im Kessel zu haben, sind viele Stellen an den Hanglagen – vor allem in Stuttgart-West – unbebaut und dienen als Frischluftschneisen. Auch das im Westen auf der Höhe liegende Waldstück Rot- und Schwarzwildpark dient der tiefer liegenden Innenstadt als Frischluftlieferant. Um die Luftreinhaltung zu optimieren und die Feinstaubwerte zu reduzieren, wurde 2005 ein Durchfahrtsverbot für Lkw erlassen, das jedoch im Zusammenhang mit der Einführung der Feinstaub-Verordnung am 1. März 2008 wieder aufgehoben werden musste. Seit März 2010 ist ein neues Lkw-Durchfahrtsverbot in Kraft. Die Leelage der Region Stuttgart ist Ursache dafür, dass sie zu den niederschlagsarmen Regionen in Deutschland zählt. Die Wolken regnen sich an der Schwäbischen Alb und dem Schwarzwald ab, und es gelangt nur relativ trockene Luft nach Stuttgart. Steigende Bevölkerungszahlen führten schließlich zu Trinkwassermangel Anfang des 20. Jahrhunderts, worauf 1917 die erste Fernleitung aus dem Donauried über die Alb in Betrieb ging (Landeswasserversorgung). 1959 folgte die Bodensee-Wasserversorgung. Natur. Auf der Markung der Landeshauptstadt Stuttgart befinden sich folgende Naturschutzgebiete: Nach der Schutzgebietsstatistik der Landesanstalt für Umwelt, Messungen und Naturschutz Baden Württemberg (LUBW) stehen 1353,19 Hektar der Stadtfläche unter Naturschutz, das sind 6,53 Prozent. Einwohnerentwicklung. Stuttgart überschritt 1875 die Grenze von 100.000 Einwohnern und wurde damit die erste Großstadt auf dem Gebiet des heutigen Landes Baden-Württemberg. 1905 hatte die Stadt 250.000 Einwohner, bis 1950 verdoppelte sich diese Zahl auf 500.000. Im Jahr 1962 erreichte die Bevölkerungszahl mit 640.560 ihren historischen Höchststand. Am 31. Dezember 2008 betrug die amtliche Einwohnerzahl für Stuttgart nach Fortschreibung des Statistischen Landesamtes Baden-Württemberg 600.068 (nur Hauptwohnsitze und nach Abgleich mit den anderen Landesämtern). Damit liegt die Stadt in der Liste der Großstädte in Deutschland an sechster Stelle und ist nach München und Frankfurt die drittgrößte Stadt "Süddeutschlands" (im weiteren Sinne, einschließlich Südhessens). Der Anteil der Bevölkerung mit Migrationshintergrund betrug gemäß Zensus 2011 38,6 %. Somit hatte Stuttgart den zweithöchsten Anteil aller bundesdeutschen Großstädte – nach Frankfurt am Main mit 44,2 % und vor Nürnberg mit 36,4 %. Bei den unter Fünfjährigen lag dieser Anteil in Stuttgart 2007 bei 64 %. Sprache. Stuttgart gehört zum niederschwäbischen Sprachraum. Religionen und Weltanschauungen. Im Jahr 2014 bekannten sich 26,2 % zum protestantischen und 24,0 % zum katholischen Glauben, die verbleibenden 49,8 % gehörten anderen Religionen an oder waren konfessionslos. Die Anzahl der Protestanten hat seit 2005 abgenommen und betrug Ende 2014 152.000. Evangelische Kirchen. 1534 wurde im Herzogtum Württemberg die Reformation eingeführt. Damit entstand die Evangelische Landeskirche in Württemberg, die bis heute besteht und in Stuttgart ihren Sitz hat. Zu dieser Landeskirche gehören heute alle evangelischen Gemeindeglieder der Stadt, sofern sie nicht Mitglied einer Evangelischen Freikirche oder der Evangelisch-reformierten Gemeinde Stuttgart sind. Letztgenannte gehört zur Evangelisch-reformierten Kirche, die in Leer (Ostfriesland) ihren Sitz hat. Die (lutherischen) Kirchengemeinden der Stadt gehören heute zum Kirchenkreis Stuttgart, der am 1. Januar 2008 durch Vereinigung der Kirchenbezirke Stuttgart, Bad Cannstatt, Degerloch und Zuffenhausen entstanden ist. Der Kirchenkreis Stuttgart ist Teil der Prälatur („Sprengel“) Stuttgart, die ebenfalls in Stuttgart ihren Sitz hat. In Stuttgart sind auch viele Freikirchen vertreten, von denen das Gospel Forum (früher Biblische Glaubensgemeinde) die größte ist. Römisch-katholische Kirche. Seit dem 18. Jahrhundert besiedelten auch wieder Katholiken die Stadt. An der Wende vom 18. zum 19. Jahrhundert erhielten diese wieder eine eigene Kirche: die heutige Domkirche St. Eberhard, die von 1808 bis 1811 erbaut wurde und heute Konkathedrale der Diözese Rottenburg-Stuttgart ist. In den folgenden Jahrzehnten zogen weitere Katholiken in die Stadt. 2006 wurden die bis dahin existierenden vier Stuttgarter Dekanate zu einem Stadtdekanat Stuttgart zusammengefasst. Den ersten Neubau einer katholischen Kirche nach der Reformation stellt die Marienkirche im Stuttgarter Süden dar. Sie wurde in der zweiten Hälfte des 19. Jahrhunderts im Stil der Neugotik erbaut Anglikanische und Alt-Katholische Kirche. Am Katharinenplatz hat die alt-katholische Gemeinde ihre Pfarrkirche. In der neogotischen Katharinenkirche feiert die anglikanische Gemeinde ihre Gottesdienste. Zwischen beiden Kirchen besteht seit 1931 volle Kirchengemeinschaft. Neuapostolische Kirche. Seit dem 19. Jahrhundert ist die Neuapostolische Kirche in Stuttgart vertreten. Im Oktober 1897 wurden erste Gottesdienste der Neuapostolischen Kirche im Stadtgebiet durchgeführt und die heutige Gemeinde Stuttgart-West gegründet. In den folgenden Jahren wurden weitere Gemeinden im Stadtgebiet gegründet und für diese entsprechende Kirchengebäude erstellt. Die größten Kirchengebäude der Neuapostolischen Kirche in Stuttgart befinden sich in der Einkornstraße (Gemeinde Stuttgart-Ost), sowie in der Immenhofer Straße (Gemeinde Stuttgart-Süd). Bedingt durch den demographischen Wandel der Gesellschaft und der steigenden Zahl inaktiver Kirchenmitglieder schrumpft die Zahl der Gemeinden im Stadtgebiet. Im Jahr 2008 bestanden 27 Gemeinden im Stadtgebiet, derzeit sind es noch 19 Gemeinden. Sie sind gemeinsam mit den Gemeinden in der Region in fünf rechtlich unselbständige Bezirke aufgeteilt. Des Weiteren befindet sich in der Stuttgarter Heinestraße die Verwaltung für die Gebietskirche Süddeutschland, die aus den beiden Bundesländern Baden-Württemberg und Bayern, sowie weiteren rund 20 Missionsländern besteht. Freikirchen. In Stuttgart sind außer den bereits angeführten Konfessionen auch Gemeinden fast aller bekannten Freikirchen zu finden, so die Siebenten-Tags-Adventisten, die Kirche Jesu Christi der Heiligen der Letzten Tage, die Apostolische Gemeinschaft, die Baptisten, die Heilsarmee und die Methodisten. Judentum. In Stuttgart wie in ganz Württemberg durften 1498 bis 1805 keine Juden dauerhaft wohnen und arbeiten, nachdem Eberhard I. ihre Vertreibung oder Gefangennahme testamentarisch verfügt hatte. Allerdings wurde das Verbot immer wieder durchbrochen, so unterhielt der württembergische Hof zur Finanzierung seines Staatshaushalts sogenannte Hoffaktoren, darunter Joseph Süß Oppenheimer, der Opfer eines antisemitischen Justizmords wurde, Mardochai Schloß und Karoline Kaulla. 1828 wurden die Lebensbedingungen der Juden durch das Gleichstellungsgesetz erheblich verbessert. 1832 wurde offiziell die jüdische Gemeinde gegründet, 1837 die erste Synagoge eingeweiht, die 1861 durch einen Neubau im orientalischen (maurischen) Stil in der Hospitalstraße ersetzt wurde. Während der Zeit des Nationalsozialismus 1938 wurde die Synagoge in den Novemberpogromen zerstört. Viele Juden konnten vor der Verfolgung ins Ausland fliehen; mindestens 1200 Mitglieder der ursprünglich 4500 Mitglieder zählenden Gemeinde (1933) wurden jedoch im Holocaust ermordet. Die neue Synagoge am gleichen Ort entstand 1952 als einer der ersten Synagogenneubauten der Bundesrepublik nach dem Krieg. Die Synagoge in der Hospitalstraße 36 ist Zentrum der Israelitischen Religionsgemeinschaft Württembergs, die das ganze Territorium der ehemaligen Staaten Württemberg und Hohenzollern umfasst. Vor allem durch die Zuwanderung von Juden aus Osteuropa wuchs die Gemeinde seit 1990 stark an. Heute hat die jüdische Gemeinde etwa 4000 Mitglieder, von denen jedoch nur ein geringer Teil ihren Glauben praktiziert. Islam. Vor allem durch die Einwanderung aus der Türkei, aus Bosnien und den arabischen Ländern seit der Gastarbeiterzeit hat Stuttgart heute eine muslimische Bevölkerung von etwa 65.000 Menschen. Diesen stehen 21 Moscheen unterschiedlicher religiöser Strömungen zur Verfügung. Des Weiteren gibt es in Bad Cannstatt ein Cemevi der Aleviten. Buddhismus. Das Buddhistische Zentrum Stuttgart wurde unter diesem Namen 1986 gegründet. Praktiziert wird der Buddhismus im Stuttgarter Bohnenviertel gemäß der Tradition des Diamantweg der Karma-Kagyü-Linie. Das Zentrum ist eines von über 600 Zentren weltweit und steht unter der spirituellen Leitung des 17. Karmapa Trinley Thaye Dorje und Lama Ole Nydahl. Humanisten, Konfessionsfreie. Nichtreligiöse Menschen sind im landesweiten Verband "Die Humanisten Baden-Württemberg", einer Weltanschauungsgemeinschaft und Körperschaft des öffentlichen Rechts, zusammengeschlossen. Das Humanistische Zentrum Stuttgart bildet den Sitz des Landesverbandes und hat unter anderem eine Kindertagesstätte, deren Träger der Landesverband ist. Außerdem organisieren die Humanisten eine Jugendgruppe, führen Jugendfahrten sowie Kultur- und Bildungsveranstaltungen durch und bieten Namens- und Jugendfeiern, weltliche Hochzeits- und Trauerfeiern an. Der Landesverband ist Mitglied im Humanistischen Verband Deutschlands. Interreligiöser Dialog. Dem jüdisch-christlichen Dialog widmet sich die "Gesellschaft für Christlich-Jüdische Zusammenarbeit Stuttgart". Stuttgart war bis 2007 der Sitz des Dachverbandes christlich-islamischer Dialogorganisationen, des Koordinierungsrats des christlich-islamischen Dialogs (KCID). Auf örtlicher Ebene sind zwei seiner Mitgliedsorganisationen tätig. 1650 eröffnete eine erste Buchhandlung. 1686 entstand das erste Gymnasium. 1688 tauchten im Rahmen des Pfälzischen Erbfolgekriegs französische Truppen unter General Melac vor den Toren der Stadt auf. Dank der Diplomatie der regierenden Herzoginwitwe Magdalena Sibylla blieb Stuttgart das Schicksal Heidelbergs erspart, das in diesem Krieg zerstört wurde. Herzog Eberhard Ludwig verlegte 1718 seine Residenz nach Ludwigsburg, wo das 1704 bis 1733 erbaute Barockschloss entstand. Erst unter Herzog Karl Alexander erlangte Stuttgart wieder seine alte Stellung als Hauptresidenz zurück. Nach dem Tod des Herzogs Karl Alexander vollzog sich der antisemitische Justizmord an dessen Finanzberater Joseph Süß Oppenheimer. 1744 wurde Herzog Carl Eugen für mündig erklärt. 1746 legte dieser den Grundstein zur Errichtung des Neuen Schlosses. Weitere Bauprojekte umfassten die Schlösser Solitude und Hohenheim. Außerdem wurde mit der Errichtung der Hohen Karlsschule Stuttgart am Ende des 18. Jahrhunderts kurzzeitig Universitätsstandort. Ein berühmter Zögling dieser Anstalt war Friedrich Schiller, der dort Medizin studierte. Dennoch war Stuttgart noch am Ende des 18. Jahrhunderts eine sehr provinzielle Stadt mit engen Gassen, Viehhaltung, ackerbautreibender Bevölkerung und etwa 20.000 Einwohnern, wobei hierbei Bedienstete bei Hofe und das Militärpersonal der Württembergischen Armee nicht eingerechnet sind. Aus Gründen der Sparsamkeit und aus Angst vor der Entstehung revolutionären Gedankenguts wurde die Hohe Karlsschule bereits 1794 unter Herzog Ludwig Eugen wieder aufgelöst. Hauptstadt des Königreichs Württemberg. a> (Westseite) auf einem Foto von 1881. 1806 erlangte Stuttgart im Zuge der Napoleonischen Kriege und der Gründung des Rheinbunds eine Rangerhöhung. Die bisherige Residenzstadt des altwürttembergischen Herzogtums stieg nun zur Hauptstadt des um die Gebiete Neuwürttembergs erweiterten Königreichs Württemberg auf. Nachdem die Existenz des neuen württembergischen Staates mit dem Abschluss des Wiener Kongresses 1815 endgültig bestätigt worden war, erlebte Stuttgart im 19. Jahrhundert seinen allmählichen Aufstieg von der bisherigen Enge einer vom evangelischen Pietismus geprägten Kleinstadt zur gemischtkonfessionellen Metropole Württembergs. Das erste Cannstatter Volksfest fand 1818 statt, und 1820 entstand die Grabkapelle auf dem Württemberg an der Stelle der alten württembergischen Stammburg. Am Anfang des 19. Jahrhunderts entstanden Bauwerke wie das Schloss Rosenstein, das Wilhelmspalais, die Staatsgalerie und der Königsbau. Bildungseinrichtungen wie die 1818 gegründete Ackerbauschule, die 1829 gegründete Vereinigte Real- und Gewerbeschule sowie die 1857 gegründete Stuttgarter Musikschule gehen auf das frühe und mittlere 19. Jahrhundert zurück. Die Tradition Stuttgarts als Stadt der Literatur wurde im 19. Jahrhundert durch zahllose Schriftsteller repräsentiert, die dort wohnten. Namen wie Wilhelm Hauff, Ludwig Uhland, Gustav Schwab und Eduard Mörike sind von überregionaler Bedeutung. Beim Landesfest zum 25. Regierungsjubiläum König Wilhelms I. am 28. September 1841 gab es einen Umzug durch Stuttgart mit 10.390 Teilnehmern sowie 200.000 Zuschauern. Die erst 1863 fertiggestellte Jubiläumssäule von Johann Michael Knapp erinnert noch heute an dieses Ereignis. Am 22. Oktober 1845 fuhr die erste württembergische Eisenbahn von der Oberamtsstadt Cannstatt nach Untertürkheim, ab 15. Oktober 1846 auch durch den Rosensteintunnel bis nach Stuttgart (Alter Centralbahnhof beim Schlossplatz). Ende Mai 1849 nach der Ablehnung der Reichsdeputation durch den preußischen König Friedrich Wilhelm IV. übersiedelte die Frankfurter Nationalversammlung auf Einladung des württembergischen Justizministers Friedrich Römer nach Stuttgart. Das sogenannte Rumpfparlament tagte allerdings nur bis zum 18. Juni, als es gewaltsam aufgelöst wurde. Internationale Beachtung fand das im Jahre 1857 abgehaltene Zwei-Kaiser-Treffen. Im Zuge der beginnenden Industrialisierung wuchs die Einwohnerzahl des heutigen Stuttgarts stetig an. 1834 zählte Stuttgart 35.200 Einwohner, 1852 wurde die 50.000-Einwohner-Marke überschritten, 1864 lebten in Stuttgart 69.084 Einwohner, und im Jahr der Reichsgründung, 1871, hatte die Stadt 91.000 Einwohner. 1874 wurde Stuttgart mit der Überschreitung der 100.000-Einwohner-Marke zur Großstadt. Diese Zahl verdoppelte sich, auch durch Eingemeindungen, bis kurz nach der Jahrhundertwende (1901: etwa 185.000, 1904: etwa 200.000). Ausmaß und Tempo des Einwohnerwachstums in der zweiten Hälfte des 19. Jahrhunderts waren innerhalb des heutigen Stadtgebiets sehr unterschiedlich. Enormes Wachstum war von 1851 bis 1900 in der Residenzstadt (+248 %) nebst Gaisburg (+428 %) und in (Bad) Cannstatt (+298 %) zu verzeichnen. Zu Wachstumsmagneten entwickelten sich auch die aufkommenden Industriestandorte entlang der neuen Eisenbahnlinien Cannstatt–Untertürkheim–Obertürkheim–Esslingen und Cannstatt–Stuttgart–Feuerbach–Zuffenhausen–Ludwigsburg. Ab 1879 kam die Gäubahn Stuttgart–Freudenstadt hinzu, und in Vaihingen und Rohr setzte nun auch ein sprunghaftes Bevölkerungswachstum ein. Schließlich kam es mit der Umgehungstrecke Untertürkheim–Kornwestheim (Schusterbahn) auch in Münster Ende des 19. Jahrhunderts zu einem starken Wachstum der Einwohnerzahlen. In den 1880er und 1890er Jahren legte Gottlieb Daimler (1834–1900) in Cannstatt bei Stuttgart die Grundlagen für die ersten Automobile. 1887 gründete er dort die Daimler-Motoren-Gesellschaft. Nach einem Brand der Werksanlagen entstand ab 1903 auf Untertürkheimer Gemarkung das neue Motorenwerk, wo jetzt auch wieder der Konzernsitz der heutigen Daimler AG ist. Im Jahr 1907 fand in Stuttgart ein Internationaler Sozialistenkongress statt. An der Eröffnung nahmen 60.000 Menschen teil. Im Jahr 1914 wurde am nördlichen Ende der Innenstadt mit dem Bau des heutigen Bahnhofsgebäudes nach dem Entwurf des Architekten Paul Bonatz begonnen. Im Ersten Weltkrieg kam es zu Luftangriffen auf die Stadt: Am 22. September 1915 fielen die meisten Bomben, nämlich 29, im Bereich des Bahnhofs und der nahegelegenen Rotebühlkaserne, dabei wurden drei Soldaten getötet und 43 verletzt. Ebenso starben vier Zivilisten. Beim zweiten großen Angriff am 15. September 1918 starben beim Einsturz eines Hauses in der Heusteigstraße, der durch vorangegangenen Pfusch am Bau mitverursacht wurde, elf Menschen. Hauptstadt des Volksstaates Württemberg. a>schein der württembergischen Landeshauptstadt Stuttgart 1921 Am 30. November 1918 wurde das Königreich Württemberg im Zuge der Ereignisse der Novemberrevolution in den deutschen Ländern, nach dem Verzicht König Wilhelms II. auf die Krone (Revolutionäre stürmten seine Residenz, das Wilhelmspalais), zum freien Volksstaat Württemberg innerhalb der Weimarer Republik. Am 26. April 1919 gab sich das Land eine neue Verfassung, die in überarbeiteter Form endgültig am 25. September 1919 von der Verfassunggebenden Landesversammlung verabschiedet wurde. 1920 war die Stadt für wenige Tage Sitz der Reichsregierung (siehe Kapp-Putsch). Metropole im NS-Gau Württemberg-Hohenzollern. Kundgebung auf dem Stuttgarter Marktplatz beim Deutschen Wandertag 1938 Durch die Gleichschaltung der württembergischen Verwaltung und die Zentralisierung Deutschlands zu Beginn der NS-Diktatur 1933 wurde Stuttgart in seiner Stellung als Landeshauptstadt politisch zwar bedeutungslos, blieb aber das kulturelle und wirtschaftliche Zentrum im mittleren Neckarraum. Württemberg wurde mit den Hohenzollernschen Landen zum "Gau der NSDAP Württemberg-Hohenzollern" zusammengefasst. Während der Nazizeit führte die Stadt den Ehrentitel "„Stadt der Auslandsdeutschen“" (siehe Stadt-Ehrentitel der NS-Zeit). Die Gestapo übernahm das Hotel Silber in der "Dorotheenstraße", in dem politische Gegner des Regimes inhaftiert und gefoltert wurden. „Das Silber“ wurde auch für zahlreiche Prominente Durchgangslager in Konzentrationslager bzw. zur Ermordung, zum Beispiel für Eugen Bolz, Kurt Schumacher oder Lilo Herrmann. Der Letzteren errichtete 1988 eine Studenten- und Bürgergruppe zwischen den "Kollegiengebäuden" in der "Keplerstraße" einen Gedenkstein. Das NS-Gewaltregime benutzte weiterhin das Landgericht in der "Archivstraße 12A" als zentrale Hinrichtungsstätte im südwestdeutschen Raum, in dem mindestens 419 Menschen das Leben genommen wurde. Daran erinnert ein Mahnmal im Lichthof. Beim Novemberpogrom 1938 wurden die Alte Synagoge niedergebrannt und die Friedhofskapelle der Jüdischen Gemeinde zerstört. Der Großteil der männlichen jüdischen Bürger Stuttgarts wurde unmittelbar danach von der Gestapo verhaftet und in das Polizeigefängnis Welzheim oder in das KZ Dachau verbracht. Seit dem Jahre 1947 erinnert auf dem israelitischen Teil des "Pragfriedhofs" an der "Friedhofstraße 44" ein Mahnmal von dem Bildhauer K. Löffler an die 2498 in der Shoa umgekommenen Juden Württembergs. An die Deportation der Stuttgarter Juden nach 1939 erinnert das Mahnmal am Nordbahnhof. Bis zum Verbot der Auswanderung am 1. Oktober 1941 konnten nur rund 60 Prozent der deutschen Juden fliehen. Die dann noch in Württemberg und Hohenzollern lebenden Juden wurden während des Krieges gezwungen, in sogenannte Judenwohnungen bzw. jüdische Zwangsaltersheime umzuziehen, dann wurden sie von der Gestapo (Stapoleitstelle Stuttgart) auf dem Messegelände Killesberg „konzentriert“. Am 1. Dezember 1941 fuhr der erste Transportzug mit rund 1000 Menschen nach Riga, wo sie ermordet wurden. Bis in die letzten Kriegswochen folgten weitere Züge mit rund 2500 Juden aus der Region. Lediglich 180 dieser württembergischen KZ-Häftlinge überlebten. Gegen Ende des Zweiten Weltkrieges wurden weite Teile der Stadt bei den anglo-amerikanischen Luftangriffen auf Stuttgart zerstört. Der schwerste Angriff erfolgte am 12. September 1944 durch die britische Royal Air Force auf die Stuttgarter Altstadt. Dabei wurden 75 schwere Luftminen, 4300 Sprengbomben und 180.000 Brandbomben abgeworfen. Dem anschließend entstehenden Feuersturm fielen mehr als 1000 Menschen zum Opfer. Insgesamt wurde Stuttgart 53-mal angegriffen. Dabei wurden 68 % aller Wohngebäude und 75 % der industriellen Anlagen zerstört. Insgesamt wurden in Stuttgart 4477 Menschen getötet und 8908 Menschen verletzt. Am 22. April 1945 wurde Stuttgart von französischen und amerikanischen Truppen besetzt. Nachkriegsentwicklungen. Am 8. Juli 1945 übergaben die französischen Besatzungstruppen Stuttgart nach mehrfacher Aufforderung an US-Soldaten; ab dann gehörte die Stadt zur amerikanischen Besatzungszone. Stuttgart war die Hauptstadt des von 1945 bis 1952 bestehenden Landes Württemberg-Baden. Die Militärverwaltung richtete in Stuttgart DP-Lager ein zur Unterbringung sogenannter Displaced Persons (DP). Die meisten DPs waren ehemalige Zwangsarbeiter aus Mittel- und Osteuropa in den Industriebetrieben der Region. Das DP-Lager "Stuttgart-West" beherbergte ausschließlich mehr als 1400 jüdische Überlebende des Holocaust. Das Lager wurde 1949 geschlossen, die verbliebenen DPs wurden in ein DP-Lager in Heidenheim an der Brenz verlegt. Die Bewerbung der Stadt im Jahre 1948 als neue Hauptstadt der noch zu gründenden Bundesrepublik scheiterte in erster Linie an den finanziell hohen Belastungen (eine Million DM jährlich für Mieten). Neben Stuttgart hatten sich auch die Städte Frankfurt am Main, Kassel und Bonn beworben; eine Kommission des Parlamentarischen Rates hatte zuvor alle Städte auf ihre Eignung geprüft. In den Nachkriegsjahren wurde insbesondere auf Betreiben des neuen Oberbürgermeisters Arnulf Klett beim Wiederaufbau auf historische Rekonstruktionen, vor allem am ehemals historischen Stuttgarter Marktplatz, weitgehend verzichtet. Große Teile der Ruinen der Stadt kamen daher auf den Trümmerberg Birkenkopf. Die Idee war, eine autogerechte Stadt zu schaffen. So wurden auch ganze Straßenzüge und Plätze abgerissen, die nicht oder kaum beschädigt waren. Im 150. Todesjahr von Friedrich Schiller wurden 1955 die letzten Reste seiner alma mater, der Hohen Karlsschule in der Nähe des Neuen Schlosses, abgetragen, um für die Verbreiterung der Bundesstraße 14 (Konrad-Adenauer-Straße) Platz zu schaffen. Hauptstadt des Landes Baden-Württemberg. Am 25. April 1952 wurde Württemberg-Baden mit dem Land Baden und dem Land Württemberg-Hohenzollern vereinigt. Seither ist Stuttgart die Hauptstadt des Bundeslandes Baden-Württemberg. Die Bevölkerung, die in den letzten Kriegsjahren vor allem durch Evakuierung, Flucht und Luftangriffe um fast die Hälfte zurückgegangen war (April 1942: etwa 498.000, April 1945: etwa 266.000), wuchs durch den Zustrom Heimatvertriebener aus den ehemals deutschen Ostgebieten in den späten 1940er und den 1950er Jahren wieder massiv an. 1962 erreichte die Stadt mit etwa 640.000 ihren bisher höchsten Einwohnerstand. In den späten 1950er und frühen 1960er Jahren kamen als Folge des Arbeitskräftemangels und des Wirtschaftswunders im Nachkriegs-Westdeutschland auch die ersten Gastarbeiter in die Region Stuttgart. Diese stammten zunächst vorwiegend aus Italien, später auch aus Griechenland und ein Großteil aus dem damaligen Jugoslawien, ab den 1970er Jahren auch aus der Türkei. Große Medienereignisse waren die Staatsbesuche des französischen Staatspräsidenten Charles de Gaulle am 9. September 1962 sowie der britischen Königin Elisabeth II. am 24. Mai 1965 in Stuttgart. Die Königstraße mit Blick auf den Hauptbahnhof im August 1965 Die zwischen 1959 und 1963 in Stammheim errichtete Justizvollzugsanstalt Stuttgart wurde 1975 im Zuge des am Oberlandesgericht Stuttgart abgehaltenen Stammheim-Prozesses gegen führende Mitglieder der linksextremistischen Terrororganisation RAF um einen Hochsicherheitstrakt erweitert. Andreas Baader, Ulrike Meinhof, Gudrun Ensslin und Jan-Carl Raspe waren von 1975 bis zu ihren Suiziden am 9. Mai 1976 (Meinhof) bzw. 18. Oktober 1977 (Todesnacht von Stammheim) in diesem Teil des Gefängnisses von Stuttgart-Stammheim inhaftiert. (siehe auch Deutscher Herbst). Am 1. Oktober 1978 begann die S-Bahn in Stuttgart auf drei Strecken mit dem planmäßigen Betrieb. 1979 wurden 178 Millionen Fahrgäste befördert. Die Zahl stieg bis 2002 auf etwa 300 Millionen an. (Siehe hierzu auch "Verkehr") Vom 17. bis zum 19. Juni 1983 versammelten sich in Stuttgart die Staats- und Regierungschefs der EG zu einem Gipfeltreffen. Die Leichtathletik-Europameisterschaften wurden 1986 im Neckarstadion ausgetragen. Ein weiteres mediales Großereignis war der Besuch Michael Gorbatschows am 14. Juni 1989, als dessen Höhepunkt ein großer Empfang im Neuen Schloss stattfand. 1993 war Stuttgart Gastgeber der Internationalen Gartenbauausstellung und der Leichtathletik-Weltmeisterschaften. Eine Bewerbung der Stadt um die Olympischen Spiele 2012 scheiterte 2003 bereits in der nationalen Vorauswahl, als sich das NOK für Leipzig entschied. 2006 war Stuttgart, wie auch schon 1974, einer der Austragungsorte der Fußballweltmeisterschaft, unter anderem fand hier das Spiel um Platz 3 statt. Im Sommer 2010 gerät die Stadt wegen der Proteste gegen das Bahnprojekt Stuttgart 21 ins Blickfeld einer breiten Öffentlichkeit. Ein Bürgerbegehren in der Stadt gegen das Projekt war schon 2007 als "rechtlich nicht zulässig" abgelehnt worden, auch wenn das "Quorum" von 20.000 Unterschriften mit über 61.000 deutlich übertroffen wurde. Seit den 1950er Jahren ist Stuttgart die zweitgrößte Stadt Süddeutschlands (vor Nürnberg). Im eigenen Bundesland liegt Stuttgart mit einigem Abstand vor Karlsruhe und Mannheim. Eingemeindungen. Stuttgarts heutiger Gebietsstand ist das Ergebnis mehrerer Eingemeindungswellen. Der Bereich des inneren Stadtgebiets war mit der Eingemeindung von Gaisburg (1901) zu Beginn des 20. Jahrhunderts im Wesentlichen abgeschlossen; die spätere Eingemeindung Kaltentals (1922) und die Zuordnung des Frauenkopfs (von Rohracker 1948) rundeten schließlich die Gebietsfläche des inneren Stadtgebiets ab. Alle Eingemeindungen ab 1905 bildeten dann nach und nach die Gebietsflächen des äußeren Stadtgebiets. Am 1. April 1942 waren die Eingemeindungen mit der zwangsweisen Zuordnung Stammheims und der südlichen Fildervororte abgeschlossen. In der Nachkriegszeit kamen, auch während der großen Gebietsreform in Baden-Württemberg Mitte der 1970er Jahre, keine weiteren Eingemeindungen hinzu. Politik. In Zeiten der Grafschaft beziehungsweise des Herzogtums Württemberg wurde die Verwaltung der Stadt Stuttgart von einem "Vogt" geleitet. Dieser wurde vom Graf beziehungsweise Herzog in sein Amt eingesetzt und konnte von diesem auch nach Belieben entlassen werden. Nach Aufteilung der Verwaltung in ein Stadtoberamt und ein Amtsoberamt (für das Umland) wurden beide Behörden jeweils von einem "Stadtoberamtmann" beziehungsweise Amtsoberamtmann geleitet. Ab 1811 erhielt der leitende Verwaltungsbeamte der Stadt die Bezeichnung "Stadtdirektor". Nach Einführung des Selbstverwaltungsrechts der Gemeinden im zum Königreich erhobenen Württemberg im Jahre 1819 erhielten die Städte und Gemeinden ein gewisses Mitspracherecht bei der Bestellung des Ortsvorstehers, der künftig die Bezeichnung "Schultheiß", in Städten "Stadtschultheiß" trug. Oberbürgermeister war seinerzeit in Württemberg lediglich eine besondere Bezeichnung, die der König verleihen konnte. Sie wurde nicht allen Stadtschultheißen in Stuttgart verliehen. Erst mit Inkrafttreten der Württembergischen Gemeindeordnung von 1930 wurde der Titel Oberbürgermeister offiziell für alle Städte mit mehr als 20.000 Einwohnern eingeführt. Nach 1918 verlor die Stadt mit der Auflösung des Königreichs Württemberg ihre Bedeutung als Residenzstadt; sie wurde Hauptstadt des Volksstaates Württemberg innerhalb des als Weimarer Republik bezeichneten Deutschen Reiches. Während des Kapp-Putsches im März 1920 war Stuttgart für einige Tage Sitz der Reichsregierung. Nach dem Zweiten Weltkrieg war Stuttgart erst Hauptstadt des Landes Württemberg-Baden und ist seit 1952 Hauptstadt Baden-Württembergs. Gemeinderat. Schon sehr frühzeitig nach Kriegsende fanden in der amerikanisch besetzten Zone die ersten Gemeinderatswahlen statt. In Stuttgart fiel der Wahltag auf den 26. Mai 1946. Noch vor Ablauf der zweijährigen Wahlperiode fand am 7. Dezember 1947 die zweite Gemeinderatswahl, mit einer sechsjährigen Wahlperiode, statt. Von 1947 bis 1971 wurde jeweils im 3-Jahre-Abstand die Hälfte des Gemeinderats (30) gewählt („rollierendes System der Erneuerungswahlen“). Die Amtszeit der Gemeinderäte betrug sechs Jahre. Seit 1975 wird der gesamte Gemeinderat für fünf Jahre gewählt. Das Wahlsystem in Stuttgart ist ein Verhältniswahlsystem, bei dem der Wähler durch das Kumulieren (Stimmenhäufung auf einen Kandidaten bis zu drei Stimmen) und das Panaschieren (Zusammenstellen der Namen aus verschiedenen Listen) sehr weitreichende Einflussmöglichkeiten bei der Stimmabgabe hat. Insgesamt stehen jedem Wähler so viele Stimmen zur Verfügung wie Gemeinderäte zu wählen sind (60). Bei der Sitzverteilung kommt seit 2014 das Sainte-Laguë-Verfahren zum Einsatz. Eine Sperrklausel existiert nicht. Im aktuellen Gemeinderat bilden SÖS und Die Linke zusammen mit den beiden Räten von der Piratenpartei und der Studentischen Liste die Fraktionsgemeinschaft SÖS-LINKE-PluS. Fraktionsstatus hat man gemäß der Geschäftsordnung des Stuttgarter Gemeinderates ab vier Mandaten. Der Stadtrat der Stadtisten (1) bildet mit SÖS-LINKE-PluS eine „Zählgemeinschaft“. Damit sind Mandatsträger, die keiner Fraktion angehören, in den beschließenden Ausschüssen vertreten. Die AfD erhielt im Januar durch den Übertritt eines FDP-Stadtrates Fraktionsstatus, die FDP verlor ihn. Stadtoberhäupter. Am 21. Oktober 2012 wurde Fritz Kuhn zum Oberbürgermeister gewählt. Er hat das Amt am 7. Januar 2013 übernommen. Jugendräte. In 21 der 23 Stadtbezirke gibt es – teilweise seit 1995 – Jugendräte. Aktuell sind diese in 17 Parlamenten konstituiert, die oberen Neckarvororte Hedelfingen, Obertürkheim, Untertürkheim und Wangen sowie die Bezirke Birkach und Plieningen haben gemeinsame Jugendräte. In den beiden Bezirken Münster und Sillenbuch, in denen sich nicht genügend Kandidaten fanden, haben sich sogenannte Projektgruppen gebildet. Wahlberechtigt und wählbar sind alle Jugendlichen zwischen 14 und 18 Jahren, die seit mindestens drei Monaten im Stadtbezirk wohnen. Die Anzahl der Sitze richtet sich nach der Einwohnerzahl. Die Amtszeit beträgt zwei Jahre, die letzten Wahlen fanden vom 22. Februar bis 12. März 2010 statt. Jedes der 17 Jugendratsgremien entsendet drei, jede der beiden Projektgruppen einen Delegierten in den Stuttgarter Gesamtjugendrat. Wappen. Blick vom Stuttgarter Fernsehturm auf die Innenstadt Das Wappen der Stadt Stuttgart zeigt ein steigendes schwarzes Pferd – das sogenannte „Stuttgarter Rössle“ – in goldenem Feld. Das Wappen ist in seiner heutigen Form seit dem 11. April 1938 im amtlichen Gebrauch. Die Stadtfarben sind Schwarz-Gelb. Die Stadtflagge wurde am 10. Juli 1950 vom württemberg-badischen Ministerrat verliehen. Die erste noch erhaltene Abbildung des Stuttgarter Stadtwappens stammt aus dem Stadtsiegel des Jahres 1312. Sie zeigt zwei ungleich große (heraldisch) nach rechts schreitende Pferde im früh- und hochgotischen Dreieckschild. Im Stadtsiegel von 1433 wurde die Form des Stadtwappens geändert. Der Wappenschild zeigt ein (heraldisch) nach rechts galoppierendes Pferd im spätgotischen Rundschild. Diese Wappenform diente im Wesentlichen als amtliches Stuttgarter Stadtwappen bis ins 19. Jahrhundert. Dabei wurde die Darstellung des Pferdes im Laufe der Jahre mehrfach geändert. Es wurde schreitend, laufend, galoppierend, springend, steigend und aufgerichtet dargestellt. 1938 setzte sich die heutige Form durch. Ursprünglich war seine Grundfarbe Silber, erstmals 1699 nach einem Wappenbuch Gold. Diese Farbe setzte sich allmählich in Anlehnung an die württembergischen Hausfarben in der zweiten Hälfte des 19. Jahrhunderts durch. Es handelt sich um ein „redendes“ Wappen, das heißt, das ursprüngliche Gestüt, auf das die Stadt zurückgehen soll, wird hier versinnbildlicht. Der Sportwagenhersteller Porsche – beheimatet in Stuttgart-Zuffenhausen – führt das Stadtwappen in leicht abgeänderter Form in seinem Firmenlogo. Die Ähnlichkeit des Wappens mit dem des italienischen Sportwagenherstellers Ferrari ist hingegen zufällig: Es geht zurück auf Francesco Baracca, den erfolgreichsten italienischen Jagdflieger im Ersten Weltkrieg. Dieser schmückte seinen Flieger mit einem aufbäumenden Pferd, das er von dem Wappen des Kavallerieregiments, in dem er zuvor gedient hatte, dem „Reggimento Piemonte Reale Cavalleria“, abgeleitet hatte. Die Mutter Baraccas gab Enzo Ferrari die Anregung, das Symbol als Glücksbringer auf seinen Autos zu verwenden. Dies setzte Ferrari ab 1932 in die Tat um. Das schwarz gehaltene Pferd unterlegte er dabei mit der gelben Wappenfarbe seiner Heimatstadt Modena. In dieser Zusammensetzung entstand ein Wappen, das mit jenem Stuttgarts große Ähnlichkeiten aufweist. "Siehe auch:" Liste der Wappen der ehemaligen Städte und Gemeinden in Stuttgart Städtepartnerschaften. Im Zuge der deutsch-französischen Freundschaft ist der Stadtbezirk Zuffenhausen schon seit 1977 mit der französischen Stadt La Ferté-sous-Jouarre verbunden, Vaihingen seit 1985 mit Melun. Bad Cannstatt unterhält zudem seit 1996 eine Partnerschaft zu dem ähnlich mineralwasserreichen Újbuda, dem XI. Bezirk von Budapest, Ungarn. Diese Städte finden sich in nach ihnen benannten Wegen oder Brücken wieder. Oper, Theater und Ballett. Die Staatstheater Stuttgart sind mit ihren Sparten Oper Stuttgart, Stuttgarter Ballett und Schauspiel Stuttgart der größte Drei-Sparten-Theaterbetrieb der Welt. Die Hauptspielstätten befinden sich im Oberen Schlossgarten und wurden 1909 bis 1912 vom Münchner Architekten Max Littmann als Königliche Hoftheater erbaut: Weitgehend original erhalten ist das Opernhaus (früher „Großes Haus“), das Schauspielhaus (früher „Kleines Haus“) wurde im Zweiten Weltkrieg zerstört und 1959 bis 1962 durch einen Neubau nach Entwürfen von Hans Volkart an gleicher Stelle ersetzt. Darüber hinaus gehören das Kammertheater (eröffnet 1983) und die Studiobühne Nord (eröffnet 2010) zu den Spielstätten der Staatstheater. An den Staatstheatern finden pro Spielzeit insgesamt fast tausend Aufführungen statt. Die Oper Stuttgart wurde insgesamt sechsmal zum Opernhaus des Jahres gewählt. Das Stuttgarter Ballett ist eine der weltweit führenden Ballett-Kompagnien. Die Schauspielbühnen Stuttgart bestehen aus den Spielstätten "Das Alte Schauspielhaus" sowie "Komödie im Marquardt". Das Alte Schauspielhaus wurde 1909 auf dem Gelände einer ehemaligen Kaserne errichtet und war bis zur Wiedereröffnung des Kleinen Hauses der Staatstheater 1962 das renommierteste Theater der Stadt. Die Komödie im Marquardt wurde 1951 im ehemaligen Hotel Marquardt gegründet und dient in erster Linie der komödiantischen Unterhaltung. Die Schauspielbühnen in Stuttgart sind die Sprechtheater mit den höchsten Zuschauerzahlen in Baden-Württemberg und gehören damit zu den Top fünf der deutschen Sprechtheater. Seit über 20 Jahren besteht das „FITZ“ – Zentrum für Figurentheater im Kulturareal „Unterm Turm“, in dem sich auch seit 2003 das JES – Junges Ensemble Stuttgart – befindet. Weiterhin findet man hier das Theater tri-bühne. Im Jugend- und Kulturzentrum Forum 3 hat das freie „Forum Theater“ seinen Sitz. Dramatisch–theatralische Inhalte sind hier in erster Linie zu sehen. Das Friedrichsbau Varieté wurde 1994 in einer Rotunde im Neubau des Friedrichsbaus auf historischem Grund wieder ins Leben gerufen, nachdem der prunkvolle Jugendstilbau im Zweiten Weltkrieg vollständig ausgebrannt war. Nach Kündigung durch den Eigentümer L-Bank zog das Theater im Jahr 2014 an den Pragsattel. Einen bundesweit einzigartigen und besonderen Stellenwert hat in Stuttgart die Kunst der Pantomime. Dieses begründet sich durch das Pantomimetheater Makal City Theater GmbH, das als Gastspiel- und Tourneetheater zu sehen ist, sowie das Internationale Pantomimetheater, das mit ganzjährigen Pantomime-Veranstaltungen und Aufführungen mit Schwarzem Theater seine Heimat im Stuttgarter Osten hat. Darüber hinaus bietet sich dort die Möglichkeit, die Kunst des Pantomimespiels auf professionellem Niveau zu erlernen. Begründer der Pantomime in Deutschland ist der Meisterpantomime Peter Makal „"Ambassador of Art"“. Das überregional bekannteste literarische Kabarett Stuttgarts ist das Renitenz-Theater. Es wurde 1961 gegründet und ist damit die älteste Kabarettbühne der Stadt. Die Puppenspieler im „Theater am Faden“ lassen seit 1972 die Puppen und Marionetten tanzen, die sie oft selbst hergestellt haben. Weitere Figurentheater sind das „Theater in der Badewanne“ im Höhenpark Killesberg sowie das „Theater Tredeschin“ in der Haußmannstraße. Als Stabpuppentheater bezeichnet sich das „Theater La-Plapper-Papp“ seit 1960. Das Theater der Altstadt im Westen ist in der Rotebühlstraße zu finden, nachdem der erste Holzbau bereits 1969 und somit elf Jahre nach Bau ausgebrannt war. Nellys Puppen-Theater spielt mit Puppen und Marionetten für Kinder ab drei Jahren. Im selben Haus spielt das Theater am Olgaeck, das einen Schwerpunkt auf den kulturellen Austausch mit Osteuropa setzt. Das Theaterhaus Stuttgart führte ab 1984 im Stadtteil Wangen sein Dasein – seit 2000 am Pragsattel, hier wird auch jährlich der Stuttgarter Theaterpreis vergeben. Seit 2008 hat das Theaterhaus mit Gauthier Dance eine feste Ballettkompanie. Eine Plattform für die freischaffende Tanz- und Performancekunst in Stuttgart bietet das Produktionszentrum Tanz und Performance im alten Felsenkeller in Stuttgart Feuerbach. Der „Treffpunkt Rotebühlplatz“ ist vorwiegend für Tanz, Theater, das internationale Solo-Tanz-Theater-Festival und Neue Musik bekannt. Die Staatliche Hochschule für Musik und Darstellende Kunst Stuttgart unterhält in Bad Cannstatt das Wilhelma-Theater. Unweit des Wilhelma-Theaters liegt seit 2008 das Theaterschiff an der Anlegestelle Mühlgrün in Bad Cannstatt. Auf dem umgebauten Binnenfrachtschiff sind hauptsächlich Komödien und Kabarett zu sehen. In der Werastraße findet man das „Wortkino“. Schwäbisches Volkstheater spielen neben anderen das „Boulevärle“, das „Stuttgarter Komödle“, „d'Scheureburzler“ und das „Neugereuter Theäterle“. Im SI-Centrum sind zwei Musical-Theater untergebracht – das „Palladium Theater“ und das „Apollo Theater“. Hier gab es unter anderem die Deutschland-Premieren von "Miss Saigon" (1999), "Tanz der Vampire" (2000), "Die Schöne und das Biest" (2000), "42nd Street" (2004), "Wicked – Die Hexen von Oz" (2010) und "Rebecca" (2013) zu sehen. Museen. Staatliches Museum für Naturkunde im Schloss Rosenstein In Stuttgart befinden sich fünf der elf staatlichen Museen Baden-Württembergs, so die Alte und Neue Staatsgalerie. Eröffnet um 1843 und 1984 um den Neubau erweitert, genießt die Staatsgalerie europäische Aufmerksamkeit. Kunst vom 14. Jahrhundert bis in die Moderne ist in den architektonisch interessanten Räumlichkeiten zu betrachten, darunter Werke von Cranach dem Älteren, Rubens, Rembrandt, Monet, Renoir, Cézanne, Picasso und Beuys. Im Alten Schloss ist das Landesmuseum Württemberg beherbergt. 1862 von Wilhelm I., König von Württemberg, gegründet, reichen seine Wurzeln jedoch bis ins 16. Jahrhundert zurück, in dem die damaligen Herzöge alles was selten, kostbar und ungewöhnlich war, sammelten. Es wird die Landesgeschichte von der Steinzeit bis in die Neuzeit dargestellt. Neben der Zentrale gibt es zwei weitere Zweigstellen in Stuttgart sowie acht Zweigstellen in Baden-Württemberg. Das Haus der Geschichte Baden-Württemberg wurde 1987 gegründet. Es erhielt im Jahr 2002 auf der Stuttgarter Kulturmeile einen eigenen Museumsbau. Landesgeschichte, landestypische Gegenstände und ein Themenpark, der Probleme der Gegenwart in einen historischen Kontext stellt, sind die drei wichtigsten Themenbereiche. Das Haus der Geschichte unterhält fünf Zweigstellen im Land. Natur- und Fossilkunde sind die Eckpfeiler des Staatlichen Museums für Naturkunde Stuttgart, das im Rosensteinpark zwei Zweigstellen unterhält: Das Museum am Löwentor und das Museum Schloss Rosenstein. Ersteres widmet sich den zahlreichen Fossilfunden Baden-Württembergs. Ein großer Teil der Ausstellung beinhaltet alles rund um Dinosaurier. Das seit 1954 im Schloss Rosenstein untergebrachte Naturkundemuseum wurde 1791 als „Naturaliensammlung“ gegründet. Die biologische Schausammlung ist ein Publikumsmagnet und die naturwissenschaftliche Sammlung eine der bedeutendsten Europas. Museum für Völkerkunde ist das Linden-Museum. Seine Ursprünge sind im Jahr 1882 zu suchen, seit 1911 besteht es in einem eigenen Bau. Das Linden-Museum ist eines der größten Völkerkundemuseen Europas und informiert über Afrika, Orient, Südasien, Ostasien, Südsee, Nordamerika und Südamerika. Besondere Beachtung verdient die Dauerausstellungen zu den außereuropäischen Ethnien. Neben diesen staatlichen gibt es viele weitere Museen in der Landeshauptstadt. Besonders erwähnenswert ist davon das Mercedes-Benz Museum. Mit knapp 550.000 Besuchern im Jahr 2009 ist es das meistbesuchte Museum der Stadt. Seit 1923 besteht die Fahrzeugsammlung des Unternehmens. Im Jahr 2006 wurde die Mercedes-Benz-Welt eröffnet. Auf ihrem Weg durch das von UN Studio entworfene Museum erleben die Besucher eine Zeitreise durch die 120-jährige Automobilgeschichte. Historische Fahrzeuge vom ersten Auto der Welt über die legendären Silberpfeile bis zur Gegenwart der Marke Mercedes-Benz sind zu betrachten. Ebenfalls neuen Ursprungs ist das städtische Kunstmuseum Stuttgart. Im März 2005 wurde es als „Nachfolgemuseum“ der Galerie der Stadt Stuttgart eröffnet. Bereits im ersten Jahr nach der Eröffnung des Hauses wurde es mit 330.000 Besuchern zum zweitgrößten Anziehungspunkt für Besucher. Seine exponierte Lage in der Fußgängerzone Königsstraße trägt ebenso dazu bei wie die außergewöhnliche Architektur eines die Ausstellungsräume umhüllenden strengen Glaskubus. Moderne Kunst zählt im Wesentlichen zur Sammlung. Es beherbergt die bedeutendste Sammlung von Werken Otto Dix. Museen privater Vereine oder Firmen sind in einer Vielzahl zu finden, so zum Beispiel das im Jahr 1976 eröffnete Porsche-Museum in Zuffenhausen, das bis zur Fertigstellung des neuen Museums am 31. Januar 2009 etwa 20 ständig wechselnde Exponate ausstellte. Mittlerweile können in dem architektonisch äußerst interessanten Neubau etwa 80 Fahrzeuge besichtigt werden, wobei auch hier wechselweise die Modelle gezeigt werden. Im Hegelhaus (Geburtshaus von Georg Wilhelm Friedrich Hegel) ist das Leben des in Stuttgart geborenen Philosophen dargestellt. Mehrere Lapidarien sind in und um Stuttgart zu besuchen. Das Straßenbahnmuseum dokumentiert mit historischen Fahrzeugen von 1868 bis 1986 sowie Gegenständen aus Betrieb und Technik die Geschichte der Stuttgarter Straßenbahnen (SSB). Im Feuerwehrmuseum Stuttgart (Münster) wird die Entwicklung der Brandbekämpfung in Stuttgart geschildert. 2002 wurde das Theodor-Heuss-Haus auf dem Killesberg eröffnet und zeigt seitdem das Leben des ersten Bundespräsidenten Theodor Heuss. Die Gedenkstätte „Zeichen der Erinnerung“ am Nordbahnhof erinnert daran, dass von diesem Ort während der Zeit des Nationalsozialismus zwischen 1941 und 1945 mehr als 2000 Juden aus Stuttgart und Württemberg deportiert wurden. Bibliotheken und Archive. Ehemalige Stadtbücherei Stuttgart (bis 2011) im Wilhelmspalais Die Württembergische Landesbibliothek ist mit der Badischen Landesbibliothek (BLB) in Karlsruhe die Regionalbibliothek für Baden-Württemberg. Die WLB ist speziell für die Regierungsbezirke Stuttgart und Tübingen zuständig. Besonders widmet sich die Landesbibliothek der Beschaffung, Erschließung, Archivierung und Bereitstellung des Schrifttums über Württemberg, den sogenannten Württembergica. Zusammen mit der BLB hat sie auch das Pflichtexemplarrecht für Baden-Württemberg (seit 1964, vorher nur für Württemberg) und ist damit Archivbibliothek. Die Universitätsbibliothek Stuttgart (UBS) ist eine zentrale Einrichtung der Universität Stuttgart. Sie bildet den Mittelpunkt des Bibliothekssystems der Universität und gewährleistet die Versorgung von Forschung, Lehre und Studium mit Literatur und anderen Informationsmitteln. Sie steht neben den Angehörigen der Universität auch Bürgern der Stadt zu Verfügung. Zusammen mit anderen wissenschaftlichen Bibliotheken und Dokumentationsstellen im Raum Stuttgart – wie der Universitätsbibliothek Hohenheim – bildet die UBS das Bibliotheksinformationssystem der Region Stuttgart (BISS). Das Hauptstaatsarchiv Stuttgart ist das für die Ministerien des Landes Baden-Württemberg zuständige Archiv. Seit 1965 befindet es sich direkt neben der WLB und gehört seit 2005 als Abteilung dem Landesarchiv Baden-Württemberg an. Es enthält die Bestände der Grafschaft bzw. des Herzogtums Württemberg bis 1806, der württembergischen Zentralbehörden des 19. und 20. Jahrhunderts sowie der Anfang des 19. Jahrhunderts als Folge der Mediatisierung an Württemberg gefallenen Herrschaften und Reichsstädte in Südwürttemberg. Das Stadtarchiv Stuttgart ist das für die Landeshauptstadt Stuttgart zuständige Archiv. Es bewahrt das historisch wertvolle Schrift- und Bildgut der städtischen Behörden auf und sammelt die Nachlässe stadtgeschichtlich bedeutender Personen und Institutionen sowie Einzeldokumente und Bilder zur Stuttgarter Geschichte. Das im Archiv verwahrte Material ist grundsätzlich öffentlich zugänglich und kann im Lesesaal im Bellingweg 21 in Bad Cannstatt eingesehen werden. Das Landeskirchliche Archiv verwahrt die Bestände der württembergischen Kirchenleitung und von sonstigen kirchlichen Stellen und Einrichtungen: des herzoglich und königlich württembergischen Konsistoriums, des Evangelischen Oberkirchenrats, Dekanats- und Pfarrarchive, der Bildungseinrichtungen, der Werke und Vereine sowie Nachlässe und Sammlungen. Außerdem verfügt es über die Mikrofilme sämtlicher Kirchenbücher (v. a. Tauf-, Ehe-, Toten- und Familienregister) aus dem Bereich der Evangelischen Landeskirche in Württemberg. Diese werden über das ebenfalls in Stuttgart beheimatete Archivportal Archion im Internet bereitgestellt. Das „Archiv der AnStifter“ widmet sich den Toten der Stadt. Seit 2005 arbeiten die AnStifter an einem Erinnerungsbuch über „Die Toten der Stadt“. Bisher wurden etwa 5000 Namen von Opfern des Regimes des Nationalsozialismus erfasst. Brücken. Der Neckartalviadukt Untertürkheim ist eine 1400 Meter lange Kombination aus mehreren Brücken im Zuge der Bundesstraße 14 im Neckartal bei Stuttgart-Untertürkheim. Die Planungen für eine Verbindungsstraße vom Remstal ins Neckartal gehen bis ins Jahr 1932 zurück, jedoch wurde erst im Jahr 1986 mit dem Bau begonnen. Das Nesenbachtal bei Stuttgart-Vaihingen wird durch den Nesenbachviadukt überbrückt. Der ursprüngliche Bau wurde 1945 zerstört und erst 1946 wieder aufgebaut. Im Rahmen des Ausbaus der S-Bahn-Strecke nach Vaihingen wurde das Viadukt 1982/1983 durch eine neue, viergleisige Brücke ersetzt, die dem ehemaligen Viadukt optisch entspricht. Über das Neckartal führt der Eisenbahnviadukt Stuttgart-Münster und verbindet Untertürkheim mit Kornwestheim. Die Umgehungsbahnstrecke wurde 1896 in Betrieb genommen, die 855 Meter lange Brücke wurde 1985 durch eine Beton-Stahl-Konstruktion ersetzt. Industriebauwerke. Vorwiegend als Müllverbrennungsanlage dient das Kraftwerk Stuttgart-Münster. Das seit 1908 bestehende, direkt am Neckar gelegene Kraftwerk kann auch als Heiz- und Kohlekraftwerk sowie mit Gasturbinen betrieben werden. 1964 wurde der 182 Meter hohe Schornstein hinzugefügt. Das Heizkraftwerk Stuttgart-Gaisburg ist ein steinkohlebefeuertes Kraftwerk am Neckarufer in Stuttgart-Gaisburg. Es dient ausschließlich der Fernwärmebereitstellung. Ebenfalls in Gaisburg findet sich das 1874/75 erbaute Gaswerk Stuttgart-Gaisburg, das bis 1972 zur Gaserzeugung durch Kohlevergasung und seitdem zur Gasspeicherung dient. 1928–1929 wurde der 100 Meter hohe Gaskessel gebaut, der als Wahrzeichen des Stadtteils gilt. Im Züblin-Haus in Stuttgart-Möhringen ist der Firmensitz der Ed. Züblin AG. Der markante Bürobau in Stahlbeton-Fertigteilbauweise wurde 1983–1984 erbaut. Der glasüberdachte Innenhof dient mehrmals jährlich als Ort für Musikveranstaltungen und Schauspielaufführungen. Kirchen. Im Zentrum von Stuttgart liegt die Stiftskirche, Hauptkirche der Evangelischen Landeskirche in Württemberg. Erstmals datiert wurde sie 1170, danach mehrfach erweitert, zerstört und wiederaufgebaut. Sie gilt als Wahrzeichen der Innenstadt. Die evangelische Leonhardskirche ist die zweitälteste Kirchengründung in der Altstadt Stuttgarts. Ihren Ursprung fand die heutige Kirche in einer dem heiligen Leonhard geweihten Kapelle um 1337, die zunächst wahrscheinlich als Station für Pilger des Jakobswegs diente. Bei der evangelischen Hospitalkirche handelte es sich um eine spätgotische Hallenkirche, die zwischen 1471 und 1493 für den Dominikanerorden errichtet wurde. 1478 wurde die evangelische Stadtkirche St. Germanus in Untertürkheim gebaut, urkundlich aber bereits 1289 erwähnt. Einem Chronisten nach wurde die Kirche möglicherweise als Dank für einige sehr fruchtbare Jahre erbaut und führte dazu, dass Untertürkheim ein selbständiger Pfarrort wurde. Die Domkirche St. Eberhard (früher: Stadtpfarrkirche St. Eberhard) ist seit 1978 die zweite Kathedralkirche der Diözese Rottenburg-Stuttgart. 1808 wurde der Grundstein zu diesem ersten katholischen Kirchenneubau in Stuttgart seit der Reformation gelegt. Die Kirche erhielt ihre Weihe am 1. Oktober 1811. St. Barbara wurde 1783/1784 als katholische Kirche in Hofen erbaut. Seit 1954 werden Wallfahrten zur Stuttgarter Madonna veranstaltet, die der letzte katholische Pfarrer der Stuttgarter Stiftskirche 1535 nach Hofen gebracht hatte. In Mühlhausen steht die 1380 erbaute evangelische Veitskapelle. Kunsthistorisch bedeutend sind Wandmalereien aus dem 15. Jahrhundert mit Szenen aus der Bibel und der Veits-Legende. Als älteste Kirche Stuttgarts gilt die Martinskirche in Plieningen. Die aus Holz bestehende Urkirche wurde um 600 nach Christus erbaut. Der Ursprung des romanischen Steinbaus liegt in der St. Martinuskirche, die im 12. Jahrhundert im Mönchhof erbaut wurde. Die größte Kirche Stuttgarts ist das "Gospel Forum" der gleichnamigen Freikirche; 2200 Besucher haben hier Platz. Schlösser. Nächtlicher Blick auf Jubiläumssäule und Neues Schloss Blick vom Kleinen Schlossplatz zum Neuen Schloss Das Alte Schloss liegt im Zentrum Stuttgarts am Schlossplatz und geht auf eine Wasserburg aus dem 10. Jahrhundert zurück. Die erste Burganlage gab es bereits um 950 zum Schutz des Stutengartens. In direkter Nachbarschaft befindet sich das Neue Schloss. Die Grundsteinlegung für die barocke Residenz von Herzog Carl Eugen erfolgte am 3. September 1746, fertiggestellt wurde es erst 1807. Nach dem Ende der Monarchie ging das Neue Schloss 1918 in den Besitz des Landes Württemberg über. Im Stadtteil Hohenheim liegt das gleichnamige Schloss Hohenheim. Es wurde zwischen 1772 und 1793 von Herzog Carl Eugen für seine spätere Frau Franziska von Leutrum gebaut. Heute wird das Schloss hauptsächlich von der Universität Hohenheim genutzt und ist von den Hohenheimer Gärten umgeben. Ebenfalls unter Herzog Carl Eugen wurde von 1764 bis 1769 das Schloss Solitude (französisch: "Einsamkeit") als Jagd- und Repräsentationsschloss erbaut. Auf einem langgezogenen Höhenrücken zwischen den Städten Leonberg, Gerlingen und den Stuttgarter Stadtbezirken Weilimdorf und Botnang gelegen, bietet es einen freien Blick nach Norden ins württembergische Unterland Richtung Ludwigsburg. Die Akademie Schloss Solitude ist eine Stiftung des öffentlichen Rechts, die Aufenthaltsstipendien für sechs oder zwölf Monate an Künstler vergibt. Die Künstler wohnen und arbeiten während der Stipendiumszeit in 45 möblierten Studios, die sich in den beiden ehemaligen Officen- und Kavaliersbauten des Schlosses befinden. Das Naturkundemuseum ist im Schloss Rosenstein untergebracht. Es wurde 1822 bis 1830 unter König Wilhelm I. in klassizistischem Stil erbaut. Es liegt am Rande des Neckartals inmitten des zeitgleich angelegten Rosensteinparks. Vom Schloss hat man einen freien Blick auf das Mausoleum, der Grabkapelle auf dem Württemberg, die für König Wilhelms zweite Frau Katharina Pawlowna erbaut wurde. Im Stuttgarter Osten entstand im Auftrag des württembergischen Kronprinzen Karl von 1845 bis 1893 die Villa Berg und die darum liegende Parkanlage. Die im Stil der italienischen Neorenaissance erbaute Villa wirkte als Initialbau der südwestdeutschen Villenarchitektur des 19. Jahrhunderts. Ursprünglich als „Badhaus“ gedacht, wurde 1842 mit dem Bau des ersten Gebäudes begonnen, das auf Anweisung des Königs Wilhelma genannt wurde. Dem Architekten Zanth gelang es, das, was man unter maurischem Stil verstand, mit den Fähigkeiten deutscher Handwerker, den Wohnbedürfnissen eines schwäbischen Monarchen und dem mitteleuropäischen Klima zu verbinden. Als die Wilhelma 1846 anlässlich der Hochzeit von Kronprinz Karl mit der Zarentochter Olga Nikolajewna eingeweiht wurde, gab es einen Festsaal, zwei Hauptgebäude mit mehreren höfischen Räumen, verschiedene Pavillons, Gewächshäuser und großzügige Parkanlagen. Wilhelmspalais wird ein am Charlottenplatz stehendes Palais genannt. Es war Wohnsitz des letzten württembergischen Königs Wilhelm II. und beherbergte lange Jahre die Stuttgarter Zentralbücherei. Erbaut wurde er zwischen 1834 und 1840 in erster Linie als Wohnsitz seiner beiden ältesten Töchter, Marie und Sophie. Stäffele. Die Stuttgarter Stäffele sind die bekannten Treppenanlagen der Stadt: Es gibt mehr als 400 mit einer Gesamtlänge von über 20 Kilometern. Die meisten stammen noch aus der Zeit des Weinbaus in der Stadt bis Anfang des 19. Jahrhunderts. Um die steilen Terrassen überhaupt kultivieren zu können, mussten Treppen und Wege angelegt werden. Später, als die Stadt immer weiter die Hänge hinauf wuchs und die Weinberge teilweise durch Häuser und Straßen verdrängt wurden, nutzte man die Staffeln als Fußwege zu den neu gebauten Wohngebieten. Einige wurden kunstvoll ausgebaut und mit Bepflanzungen und Brunnen ergänzt. Bekannte Stäffele sind beispielsweise die Wächterstaffel, die Eugenstaffel, die Sängerstaffel, Buchenhofstaffel oder die Sünderstaffel. Die Stäffele haben den Einwohnern der Stadt im Volksmund den Spitznamen "Stäffelesrutscher" eingebracht. Tunnel. Wegen der hügeligen Topografie ist Stuttgart auch eine Stadt der Tunnel. Darunter befinden sich Straßen-, Eisenbahn-, S-Bahn- und Stadtbahntunnel. Straßentunnel. Der Wagenburgtunnel von 1941 diente ursprünglich als Luftschutzkeller. Die 824 Meter lange Südröhre wurde bis 1958 ausgebaut und war bei ihrer Eröffnung der längste Straßentunnel Deutschlands. Der Heslacher Tunnel mit 2300 Meter Länge wurde von 1980 bis 1991 gebaut. Es folgen auf der B 14 der Viereichenhautunnel (290 Meter) und der Gäubahntunnel (450 Meter) bis zum Schattenring. Bei seinem Bau war der 124 Meter lange und 10,5 Meter breite Schwabtunnel der breiteste Tunnel Europas. Gebaut wurde er von 1894 bis 1896 und war damit nach dem Salzburger Sigmundstor der zweite innerstädtische Tunnel Europas. Bis 1972 fuhr auch die Straßenbahnlinie 8 durch diesen Tunnel. Eisenbahntunnel. Der älteste Eisenbahntunnel Stuttgarts ist der viergleisige Pragtunnel nach Feuerbach. Die erste der beiden Röhren wurde 1846 fertiggestellt. Der Kriegsbergtunnel und der Hasenbergtunnel liegen auf der Strecke nach Böblingen und sind Teil der Gäubahn. Der Rosensteintunnel an der Strecke nach Bad Cannstatt war bereits 1844 begonnen und 1846 fertiggestellt worden. Er ist allerdings längst außer Betrieb, jedoch zugemauert noch vorhanden, weil etwa ab 1912 östlich davon zwei neue Röhren angelegt wurden, die heute als Vorortbahntunnel und Fernbahntunnel in Betrieb stehen. Die Innenstadt wird durch den 8788 Meter langen S-Bahn-Tunnel der Verbindungsbahn zwischen den Stationen Hauptbahnhof und Österfeld durchquert. Ein Teil dieses Tunnels heißt ebenfalls Hasenbergtunnel. Im Rahmen von Stuttgart 21 entsteht eine Reihe von Tunneln, darunter der 9,5 km lange Fildertunnel. Stadtbahntunnel. Beginnend Mitte der 1960er Jahre wurde die Stuttgarter Straßenbahn zur Stadtbahn ausgebaut, wobei zahlreiche innerstädtische Strecken in den Untergrund verlegt wurden. Die Tunnel wurden dabei gleich mit einem für die Stadtbahnfahrzeuge erforderlichen erweiterten Lichtraumprofil ausgestattet, so dass die Umspurung von Meter- auf Normalspur möglich war. Bis 1983 war der komplette Innenstadt-Bereich untertunnelt, es folgten der Weinsteigtunnel (1987), Degerloch (1990), Feuerbach Siemensstraße (1984), Feuerbach Wiener Straße (1990), Weilimdorf (1992), Killesberg (1993), Botnanger Sattel (1994), Gerlingen (1997), Waldau (1998), Sillenbuch (1999), Ruit (2000), Steinhaldenfeld (2005), Fasanenhof mit Unterquerung der B27 (2010) sowie Zuffenhausen (2011). In Planung bzw. Bauvorbereitung befinden sich im Rahmen des Projektes Stuttgart 21 die Verlegung des Tunnels Heilbronner Straße (Inbetriebnahme vsl. 2016) und das Verzweigungsbauwerk mit der Haltestelle Staatsgalerie (Inbetriebnahme vsl. 2019). Des Weiteren ist im Bau ein neuer unterirdischer Abzweig vom Tunnel Heilbronner Straße zum Budapester Platz (Inbetriebnahme vsl. 2016, Teile des letztgenannten Tunnelprojekts bereits als Bauvorleistung im Rohbau fertiggestellt) sowie die unterirdische Verbindungsstrecke zwischen Hallschlag und Münster (Inbetriebnahme vsl. Ende 2016). Türme. Ein Wahrzeichen der Stadt ist der Stuttgarter Fernsehturm, der südlich des städtischen Talkessels im Stadtbezirk Degerloch errichtet wurde. Er steht etwas unterhalb der höchsten Stelle vom Bopser (auch "Hoher Bopser" genannt;). Als weltweit erster Fernsehturm in Stahlbetonbauweise wurde er von 1954 bis 1955 erbaut und ist 216,61 m hoch. Ursprünglich war als Träger für Radio- und Fernsehantennen ein damals üblicher, etwa 200 Meter hoher Stahlgittermast vorgesehen. Die Idee, den Turmkorb auch touristisch nutzbar zu machen, zahlte sich bereits fünf Jahre nach Bau aus: Die Baukosten von 4,2 Millionen DM waren durch die Eintrittspreise amortisiert. Damit wurde der Fernsehturm das Vorbild für diverse Konstruktionen weltweit. Auf dem "Frauenkopf" steht () der Stuttgarter Fernmeldeturm der Deutschen Telekom AG. Ebenfalls aus Stahlbeton erbaut, ist er 192 m hoch. Erbaut zwischen 1970 und 1972 kostete er rund 9,5 Millionen DM. Neben diesen beiden gehören der 1966 auf dem "Raichberg" erbaute Stuttgarter Funkturm sowie der Funkturm Stuttgart-Burgholzhof (1989) beim Pragsattel zu den bekannteren Funktürmen der Stadt. Der 61 Meter hohe Tagblatt-Turm in Stuttgart-Mitte wurde in den Jahren 1924–1928 gebaut und war somit das erste Sichtbetonhochhaus Deutschlands. Auch er gilt als Wahrzeichen des Stadtbilds. Der Name rührt von der ursprünglichen Nutzung durch die Tageszeitung "Stuttgarter Neues Tagblatt" her. Der 42 Meter hohe Killesbergturm, als Aussichtsturm errichtet, liegt im Höhenpark Killesberg. 1993 wurde im Park die Internationale Gartenbauausstellung ausgestellt. Um einen weiten Überblick über das Gelände zu ermöglichen, bedurfte es einer künstlichen Erhöhung. Die Form kam dadurch zustande, dass die Erbauer einerseits die Vorgabe hatten, einen filigranen, sich in die Landschaft einpassenden Turm zu schaffen, und andererseits der eigentlichen Aufgabe, Übersicht zu gewähren, gerecht werden mussten. Heraus kam die Seilnetzkonstruktion. Weitere Aussichtstürme sind der Bismarckturm in Stuttgart-Nord und der Aussichtsturm Burgholzhof in Bad Cannstatt. Ersterer steht auf dem "Gähkopf" () und bietet eine gute Aussicht auf das Stuttgarter Stadtgebiet sowie Fernsicht in alle Himmelsrichtungen. Erbaut wurde er zwischen 1902 und 1904. Der 1891 erbaute Aussichtsturm Burgholzhof ermöglicht eine gute Sicht auf Stuttgart-Ost, Bad Cannstatt und ins Neckartal bis Esslingen am Neckar. Der Kriegsbergturm im Stuttgarter Stadtteil Relenberg ist ein 1895 erbauter Aussichtsturm auf dem 353 Meter ü. NN hohen "Kriegsberg". Dieser ist nur für besondere Anlässe der Öffentlichkeit zugängig. In Stuttgart-Degerloch steht ein 400 Kubikmeter fassender Wasserturm, der 1911–1912 erbaut wurde. Der Turm des Hauptbahnhofs ragt im Zentrum der Stadt 56 Meter in die Höhe. Der Bau des Bahnhofs dauerte von der Grundsteinlegung 1914 bis zur Eröffnung 1922, durch den Ersten Weltkrieg verzögert, fast acht Jahre. Auf der Aussichtsterrasse rotiert ein Mercedes-Stern mit fünf Metern Durchmesser. "Siehe auch:" Liste der höchsten Bauwerke in Stuttgart | Liste der Hochhäuser in Stuttgart | Sendetürme in Stuttgart | Liste der Türme der Stadtbefestigung von Stuttgart Weißenhofsiedlung und Kochenhofsiedlung. Die Weißenhofsiedlung wurde 1927 als Teil einer Ausstellung vom deutschen Werkbund initiiert und unter der Leitung von Mies van der Rohe am Stuttgarter Killesberg errichtet. Die Siedlung gilt als eine der bedeutendsten Architektursiedlungen der Neuzeit. In Holzbauweise und als bewusst traditionalistisches Gegenmodell zur nahe gelegenen Weißenhofsiedlung wurde 1933 auf dem Killesberg – vor dem Hintergrund der nationalsozialistischen Machtübernahme – eine weitere Siedlung, die Kochenhofsiedlung als Modellsiedlung unter der Leitung des Architekten Paul Schmitthenner und von Vertretern der Stuttgarter Schule gebaut. Weitere Bauwerke. Der Stuttgarter Hauptbahnhof ist der größte Fernbahnhof in Stuttgart und Zentrum des Stuttgarter S-Bahn-Verkehrs sowie zusammen mit der Haltestelle Charlottenplatz wichtigster Knotenpunkt der Stuttgarter Stadtbahn. Die Architekten Paul Bonatz und Friedrich Eugen Scholer begannen 1914 mit den Erdarbeiten. Die Fertigstellung wurde durch den Ersten Weltkrieg verzögert. Im Jahr 1922 wurde er offiziell eröffnet, jedoch erst 1927 endgültig fertiggestellt. 1987 wurde der Stuttgarter Hauptbahnhof als Kulturdenkmal von besonderer Bedeutung ins Denkmalbuch eingetragen. In den Jahren 2010 und 2012 wurde der Nord- und Südflügel des Bahnhofs wegen des Bahnprojekts Stuttgart 21 zurückgebaut. Die Mercedes-Benz Arena, ehemaliges „Gottlieb-Daimler-Stadion“ und „Neckarstadion“, wurde 1929 bis 1933 ebenfalls von Paul Bonatz erbaut und 1933 unter dem Namen „Adolf-Hitler-Kampfbahn“ in Betrieb genommen. 1935 wurde es von 35.000 auf 70.000 Plätze erweitert. Nach dem Krieg wurde das Stadion von der US-Besatzung zunächst in „Century Stadium“ und später in „Kampfbahn“ umbenannt und für Baseballspiele genutzt. 1949 erhielt es den Namen „Neckarstadion“. Zwischen 1949 und 1951 wurde das Stadion nochmals auf 97.500 Plätze erweitert. Im Zuge der Fußball-Weltmeisterschaft 1974 wurden die Tribünen neu gebaut. Das Stadion fasste nunmehr 72.000 Zuschauer. 1986 erhielt die Arena für die Leichtathletik-Europameisterschaften als erstes deutsches Stadion eine Farbanzeigetafel. Im Rahmen des Umbaus für die Leichtathletik-Weltmeisterschaften 1993 wurde es in „Gottlieb-Daimler-Stadion“ umbenannt, seit 2008 heißt es „Mercedes-Benz Arena“. Zwischen 1999 und 2005 gab es weitere Baumaßnahmen, 2009–2011 erfolgte der Umbau zum reinen Fußballstadion ohne eine das Spielfeld umgebende Laufbahn. Direkt neben der Mercedes-Benz-Arena steht die größte Mehrzweckhalle Stuttgarts, die Hanns-Martin-Schleyer-Halle. Sie wurde 1983 erbaut und nach dem ermordeten Arbeitgeberpräsident Hanns Martin Schleyer benannt. Nach der Modernisierung 2005–2006 fasst die Halle 15.500 Sitz- und Stehplätze. Durch ein gemeinsames Forum ist die Schleyer-Halle mit der 2006 eröffneten Porsche-Arena verbunden. Diese wird hauptsächlich für Sportveranstaltungen genutzt. In direkter Nachbarschaft liegt das Carl-Benz-Center. Das 2006 eröffnete Veranstaltungszentrum bietet rund 20.000 Quadratmeter Nutzfläche. Im Pragfriedhof wurde von 1905 bis 1907 die im Jugendstil erbaute Feierhalle und das einzige Krematorium Stuttgarts errichtet. Die Markthalle ist ein Jugendstilgebäude im Stadtzentrum. Sie wurde 1911 bis 1914 an der Stelle errichtet, an der sich seit 1864 ein Gemüsemarkt befunden hatte. Zunächst diente sie als Nahrungsmittelbörse mit über 400 Verkaufsständen. Nach schweren Zerstörungen im Zweiten Weltkrieg wurde die Markthalle wieder aufgebaut und steht seit 1974 unter Denkmalschutz. Heute ist sie ein Verbrauchermarkt. Ganz in seiner Nähe das ehemalige Hotel Silber am Karlsplatz war einst auch Sitz der Gestapozentrale. Ebenfalls im Stadtzentrum liegt das Stuttgarter Rathaus, der Sitz der Stuttgarter Stadtverwaltung. Der 1901–1905 im Stil der flämischen Spätgotik erbaute prachtvolle Vorgängerbau brannte nach Bombenangriffen 1944 vollständig aus. Trotz der Zerstörung konnten Teile der beiden Seitenflügel beim Wiederaufbau erhalten werden. In seiner heutigen Form existiert das Rathaus seit 1956. Der 60,5 Meter hohe Uhrenturm überragt den Stuttgarter Marktplatz. Im Jahre 2004 wurde das Rathaus unter der Leitung von Professor Walter Belz für 26 Millionen Euro saniert und auf den neuesten technischen Stand gebracht. Das Carl-Zeiss-Planetarium befindet sich im Mittleren Schlossgarten. Den Grundstein legte der 1969 von der Carl-Zeiss-Stiftung an die Stadt Stuttgart gestiftete Projektor Zeiss VI A. Der Bau des Planetariums konnte jedoch erst 1975 durch die Unterstützung zahlreicher Spenden beginnen und 1977 abgeschlossen werden. Das Stuttgarter Funkhaus wurde von 1972 bis 1976 vom Architekten Rolf Gutbrod erbaut und galt bei Inbetriebnahme als das modernste Funkhaus Europas. Es steht auf dem Gebiet der ehemaligen Stuttgarter Stadthalle im Stadtteil Berg. Es ist seit 1998 Sitz des Intendanten des Südwestrundfunks und damit Hauptsitz der Zweiländeranstalt sowie Landesfunkhaus für Baden-Württemberg. Im Jahr 2000 wurde das Stuttgarter Funkhaus vom Landesdenkmalamt Baden-Württemberg in die Liste der Kulturdenkmale aufgenommen. Der dreigliedrige Gebäudekomplex in blau-silberner Fassadenverkleidung gilt noch immer als ein einzigartiges Bauwerk in der Rundfunklandschaft. Die bereits genannte Villa Berg in unmittelbarer Nähe diente von 1950 bis 2004 als Sendestudio des Südwestrundfunks. Als Amtssitz des Staatsministeriums und des jeweiligen Ministerpräsidenten dient die zwischen 1910 und 1913 erbaute Villa Reitzenstein im Stadtbezirk Stuttgart-Ost. Im Weißenburgpark stehen das Teehaus und der Marmorsaal. Beim 1913 fertiggestellten Teehaus der früheren Villa handelt es sich um einen Jugendstil-Pavillon. Hervorhebenswert ist das farbenprächtige Deckengemälde mit Musikantenszenen. Heute ist das Teehaus mit einer angrenzenden großen Gartenterrasse im Sommer ein beliebtes Ausflugslokal. Der ebenfalls 1913 von Heinrich Henes fertiggestellte Marmorsaal liegt am Hang unterhalb des Teehauses. Der Marmorsaal wurde ursprünglich schon als festlicher Gartensaal genutzt und steht nach einer Renovierung Anfang der 1990er Jahre seit 1994 wieder für Veranstaltungen zur Verfügung. Das Alte Steinhaus an der Grabenstraße 11 in Stuttgart war ein wehrhafter Wohnbau und neben dem Stuthaus einer der ältesten Profanbauten der Stadt. Es stammt wohl aus der Zeit der Belagerung Stuttgarts durch Rudolf von Habsburg im Jahr 1286, erstmals urkundlich erwähnt wurde es 1393. Im Möhringen stehen zwei markante Wohnhochhäuser. Das Fasan 2 zeichnet sich dadurch aus, dass zwei Gebäudekomplexe in mehreren Ebenen durch begehbare Brücken miteinander verbunden sind. Fasan 2 wurde zwischen 1964 und 1965 errichtet und ist 64 Meter hoch. In direkter Nachbarschaft steht das zwischen 1961 und 1962 mit 70 Metern und 20 Stockwerken Höhe errichtete Salute Hochhaus, das 1967 den "Paul-Bonatz-Preis" erhielt. Die Wohnsiedlung Hannibal in Asemwald wurde 1968 bis 1972 erbaut und besteht aus drei Wohnblocks mit bis zu 70 Meter Höhe und 22 Stockwerken. Ursprünglich war nach Corbusiers Vorbild der „Wohnmaschine“ ein einziger Komplex geplant, der jedoch aufgrund seiner gigantischen Dimension nicht genehmigt wurde. Ein weiteres nennenswertes Kulturdenkmal ist das Wohnhaus Arminstraße 4. Es wurde von der Denkmalstiftung Baden-Württemberg zum "Denkmal des Monats Februar 2005" ernannt. In Stuttgart-Möhringen befindet sich das SI-Centrum. Bestehend aus zwei Musicaltheatern, der Spielbank Stuttgart, 19 Restaurants und Bars, einem Filmpalast mit sechs Kinosälen, 17 Konferenzräumen für bis zu 1000 Personen, dem Millennium Hotel, den SI Suites und den VitaParc SchwabenQuellen (Wellness), ist das Erlebniscenter eine der größten Stuttgarter Freizeiteinrichtungen. Seit 1960 steht dort das Hotel Stuttgart International, in dessen Umgebung über die Jahre ständig neue Gebäude hinzukamen. Weitere nennenswerte Gebäude sind die Liederhalle sowie die Villa Gemmingen-Hornberg. Skulpturen. Von Max Bill und Heinz Mack im Jahr 1989 erschaffen, ist die Bildsäulen-Dreiergruppe eine 32 Meter hohe, dreiteilige Skulptur aus Email auf Stahl. Bis Ende April 2006 stand sie vor der ehemaligen DaimlerChrysler-Konzernzentrale in Möhringen, seitdem vor dem Mercedes-Benz Museum im NeckarPark. Die Gedenkstätte „Zeichen der Erinnerung“ am Stuttgarter Nordbahnhof erinnert daran, dass von diesem Ort während der Zeit des Nationalsozialismus zwischen 1941 und 1945 mehr als 2000 Juden aus Stuttgart und Württemberg deportiert und ermordet wurden. Mit Hilfe des Vereins „Zeichen der Erinnerung e. V.“ wurde die Gedenkstätte gebaut und am 14. Juni 2006 offiziell eingeweiht. Auf der 70 Meter langen Mauer entlang der Gleise sind die Namen der deportierten Juden zu lesen. Parkanlagen. Der Landtag, ein Entwurf des Architekten Horst Linde Direkt im Zentrum beginnt am Alten Schloss der 600 Jahre alte Schlossgarten. 1350 wird ein gräflicher Garten nahe dem Alten Schloss erstmals erwähnt. Der etwa 61 Hektar große Schlossgarten folgt dem Lauf des kanalisierten Nesenbachs bis zum Neckar. Er wird in drei große Bereiche aufgeteilt, den „Oberen Schlossgarten“ (etwa 14 Hektar), den „Mittleren Schlossgarten“ (etwa 19 Hektar) und den „Unteren Schlossgarten“ (etwa 28 Hektar). Der Obere Schlossgarten erstreckt sich vom Alten Schloss bis zur Höhe des Hauptbahnhofs und beinhaltet unter anderem die Staatstheater und das Landtagsgebäude. Über den Ferdinand-Leitner-Steg geht er in den Mittleren Schlossgarten über, der im nördlichen Bereich von der Straße „Am Schlossgarten“ begrenzt wird. Hier befinden sich zum Beispiel das Planetarium und der Landespavillon. Über die „Grüne Brücke“ gelangt man in den Unteren Schlossgarten, der sich bis zu den Mineralbädern in Stuttgart-Berg nahe dem Cannstatter Neckarufer zieht. Hier geht der Schlossgarten nahtlos in den etwa 65 Hektar umfassenden Rosensteinpark über, der im Südwesten durch Bahngleise, nördlich durch den zoologisch-botanischen Garten Wilhelma und die „Pragstraße“ und im Nordwesten durch das Löwentor begrenzt wird. Durch den alten Baumbestand und die großflächigen Wiesen gilt der Rosensteinpark als größter englischer Landschaftspark im Südwesten Deutschlands. König Wilhelm I. ließ den Garten zwischen 1824 und 1840 anlegen, was den Bau des klassizistischen Schlosses – das heutige Rosensteinmuseum – beinhaltete. Über den „Lodzer Steg“, den „Brünner Steg“ und den „Bombaystegen“ gelangt man in den sich anschließenden, etwa 50 Hektar umfassenden Höhenpark Killesberg im Stadtbezirk Stuttgart-Nord. Die Anlage geht auf die Reichsgartenschau 1939 zurück, für die das vorher als Steinbruch genutzte Gelände zum Park und Ausstellungsgelände umgestaltet wurde. 1939 bis 1945 war das Gelände Sammlungsort der württembergischen Juden für die Transporte in die Konzentrationslager. Seit den 1950er Jahren war der Höhenpark mehrfach Schauplatz von Gartenbauausstellungen wie der Deutschen Gartenschau 1950, der Bundesgartenschau 1961 und der Internationalen Gartenbauausstellung 1993. Alle drei Anlagen – der Schlossgarten, der Rosensteinpark und der Killesbergpark – bilden gemeinsam das berühmte Stuttgarter „Grüne U“. Nördlich des Rosensteinparks liegt der landeseigene zoologisch-botanische Garten, die Wilhelma. Sie existiert in heutiger Form seit dem Jahr 1953. In der historischen Schlossanlage von 1846 werden auf etwa 28 Hektar rund 8000 Tiere in 1050 Arten und etwa 5000 Pflanzenarten gezeigt. Damit ist die Wilhelma nach dem Berliner Zoo der zweitartenreichste Zoo Deutschlands. Wegen der im Jahr 1829 gefundenen Mineralquellen wollte der damalige König Wilhelm I. ein „Badhaus“ im Schlosspark als ein Nebengebäude errichten lassen. Im Jahr 1837 wurde mit der Planung der Anlage, 1842 mit dem Bau des ersten Gebäudes begonnen. Im Verlauf der Planungen war aus dem Badhaus ein komfortables Wohngebäude mit mehreren Räumen geworden, darunter ein Kuppelsaal mit zwei angrenzenden Gewächshäusern mit je einem Eckpavillon. Als die Wilhelma 1846 eingeweiht wurde, gab es einen Festsaal, zwei Hauptgebäude mit mehreren höfischen Räumen, verschiedene Pavillons, Gewächshäuser und großzügige Parkanlagen. Zum Schloss Hohenheim gehören die Hohenheimer Gärten. 1776 ließ der württembergische Herzog Carl Eugen eine englische Anlage errichten, um die bis ins 20. Jahrhundert mehr als 35 Hektar Parkfläche entstanden. Weite Teile des Ensembles werden heute von der Universität Hohenheim zu Forschungszwecken genutzt. Bedeutendste Teile sind das Landesarboretum mit dem „Exotischen Garten“ sowie der „Botanische Garten“. Die Gärten werden ergänzt durch einen Weinberg und eine Schafweide, die weitere 2,2 Hektar umfassen. Die Uhlandshöhe ist eine Erhebung am östlichen Rand des Stadtzentrums. Sie liegt etwa im Dreieck zwischen der Stadtmitte, Bad Cannstatt und dem Frauenkopf. Bis ins späte Mittelalter diente sie als Steinbruch. Der Verschönerungsverein Stuttgart kaufte zwischen den Jahren 1861 und 1896 Teile des Geländes und gestaltete eine weitläufige Parkanlage mit Aussichtsterrassen sowie ein Denkmal des Dichters Ludwig Uhland. Hier befindet sich auch die „Sternwarte Uhlandshöhe“, 1919 vom Verein „Schwäbische Sternwarte e. V.“ gegründet. Der Weißenburgpark ist eine etwa fünf Hektar große Grünanlage in Stuttgart-Süd im Stadtteil Bopser. Auf einer Anhöhe im Park befinden sich das sogenannte Teehaus und der Marmorsaal, die heute als Ausflugslokal beziehungsweise als Veranstaltungsort genutzt werden. Angelegt wurden Gebäude und Park in den Jahren 1843/44. Der Birkenkopf ist ein 511 Meter hoher Berg und damit der höchste Punkt im inneren Stadtgebiet. Er ist zum Teil ein Trümmerberg aus Ruinen des Zweiten Weltkriegs. Im Stadtteil Sillenbuch liegt der Stuttgarter Eichenhain, seit 1958 Naturschutzgebiet. Etwa 200 Eichen stehen dort in einer parkähnlichen Landschaft. Die ältesten unter ihnen sind 300 bis 400 Jahre alt und haben Stämme mit vier bis sechs Meter Umfang. Der chinesische Qingyin-Garten liegt an der Birkenwaldstraße und bietet einen Blick über den Stadtkern Richtung Süden. Er wurde 1993 für die Internationale Gartenbauausstellung angelegt. Friedhöfe. Als ältester noch erhaltener Friedhof Stuttgarts gilt der Hoppenlaufriedhof in Stuttgart-Mitte. Gegründet wurde er im Jahre 1626 als "Spitalfriedhof" nach einer Grundstücksschenkung durch Johann Kercher, der als erster dort beerdigt wurde. Die letzte Erdbestattung fand 1880, die letzte Urnenbestattung 1951 statt. Im Stadtbezirk Degerloch liegt der größte Friedhof der Stadt mit etwa 31 ha: Der Waldfriedhof Stuttgart wurde 1913 angelegt. Durch eine Standseilbahn wird der 100 Meter höher gelegene Friedhof mit dem Südheimer Platz verbunden. Hier sind viele Prominente beigesetzt. Im Bad Cannstatter Stadtteil Muckensturm liegt der 1918 eröffnete Hauptfriedhof. Er ist mit 29,6 Hektar der zweitgrößte Stuttgarter Friedhof. Seit 1944 hat er ein armenisches und seit 1985 ein muslimisches Gräberfeld. Ein großes jüdisches Gräberfeld wurde 1937/38 angelegt, da im Pragfriedhof die Plätze knapp wurden. Der drittgrößte Friedhof ist der Pragfriedhof von 1873 mit einem Jugendstil-Krematorium. Die inzwischen etwa 20 Hektar große Anlage beherbergt das einzige Krematorium Stuttgarts, das zwischen 1905 und 1907 gebaut wurde. Der Friedhof gilt als Sachgesamtheit als Kulturdenkmal. 1874 wurde der Friedhof um einen Teil für Angehörige des israelitischen Glaubens erweitert. Auf dem Gelände des Pragfriedhofs befindet sich auch die russisch-orthodoxe Heilige-Alexander-Nevskij-Kirche. Der Uff-Kirchhof in Bad Cannstatt gehört zu den ältesten Friedhöfen in Stuttgart. Er ist im 8. oder 9. Jahrhundert an der Kreuzung einer römischen Straße entstanden und diente seit dem Mittelalter als Kirchhof für den Weiler "Uffkirchen" und seine Pfarrgemeinde. Nachdem der Ort Uffkirchen abgegangen war, nutzte Cannstatt Kirche und Friedhof. Die spätgotische Marienkirche, heute „Uffkirche“ genannt, steht unter Denkmalschutz und wird als Friedhofskapelle genutzt. Seen. Der Max-Eyth-See ist ein künstlich angelegter See direkt am Neckar, am Fuße von Weinbergen zwischen Stuttgart-Mühlhausen und Stuttgart-Hofen gelegen. 1920 entstand durch intensiven Kiesabbau eine Grube, die 1935 im Zuge der Kanalisierung des Neckars zum größten See Stuttgarts wurde. 1961 wurden das Gelände und der See unter Landschaftsschutz gestellt. Der Max-Eyth-See gilt als Naherholungsgebiet sowie als Naturraum. Die Parkseen im Rot- und Schwarzwildpark in Stuttgart-West sind hauptsächlich im Sommer ein stark frequentiertes Ausflugsziel von Spaziergängern und Sportlern. Bärensee, Neuer See und Pfaffensee bilden das etwas über drei Kilometer lange Stauseen-Trio. Künstlich aufgestaut entstanden die Seen zwischen 1566 und 1826 zur Verbesserung der Wasserversorgung Stuttgarts. Am Wartberg im Stuttgarter Norden liegt der Egelsee. Dieser wurde für die Internationale Gartenbauausstellung (IGA) 1993 künstlich erschaffen. Zwei Feuerseen befinden sich einmal zentral im gleichnamigen Stadtteil in Stuttgart-West sowie in Vaihingen. An Ersterem liegt die Johanneskirche sowie die S-Bahn Haltestelle Feuersee. Weitere Seen im Stadtgebiet sind der „Rohrer See“ in Rohr, der „Probstsee“ in Möhringen sowie der „Riedsee“ zwischen Möhringen und Sonnenberg. An den Seen lassen sich seltene Wasservögel beobachten. Fließgewässer. Teilweise durch Stuttgarter Stadtgebiet fließen der Neckar, die Körsch, der Feuerbach und der Nesenbach zwischen Vaihingen und Stuttgart-Ost. Sport. Statue Christoph von Württembergs auf dem Schlossplatz Statue Friedrich Schillers auf dem Schillerplatz Schillerdenkmal vor dem Großen Haus Sportstätten. Stuttgart verfügt über mehrere Stadien und Arenen für Spitzensport-Veranstaltungen. Das bedeutendste Sportzentrum der Stadt liegt am Cannstatter Wasen im Neckarpark. Dort finden sich unter anderem das Fußballstadion Mercedes-Benz Arena und die vier Multifunktionshallen Hanns-Martin-Schleyer-Halle, Porsche-Arena, Scharrena und Carl Benz Center. Ein weiteres großes Sportgebiet liegt auf der Waldau in Degerloch. Dort befinden sich neben einer Vielzahl von Breitensportanlagen das Gazi-Stadion auf der Waldau und das Eissportzentrum Waldau. Sportereignisse. Stuttgart war jeweils einer der Austragungsorte der Fußball-Weltmeisterschaften 1974 und 2006 sowie der Leichtathletik-Europameisterschaften 1986 und Weltmeisterschaften 1993. 2007 fanden die Turn-Weltmeisterschaften, die Straßenrad-Weltmeisterschaft und einige Spiele der Handball-Weltmeisterschaft in Stuttgart statt. Sportvereine. Stuttgart ist die Heimat zweier bekannter Fußballvereine. Der VfB Stuttgart wurde bisher fünfmal deutscher Meister (davon dreimal in der Bundesliga); er trägt seine Heimspiele in der Mercedes-Benz Arena aus. Die Stuttgarter Kickers, die in den 1980ern und 1990ern in zwei Spielzeiten auch der Bundesliga angehörten, spielen seit 2012/13 in der 3. Liga; ihre Heimspiele finden im Gazi-Stadion auf der Waldau in Degerloch statt. Weitere, früher überregional bekannte Fußballvereine sind die Sportfreunde Stuttgart und der FV Zuffenhausen. Der TSC Stuttgart wurde 2001 gegründet und war 2008 deutscher Vizemeister im Futsal. Der TV Bittenfeld spielt seit der Saison 2015/16 unter dem Namen TVB 1898 Stuttgart in der Handball-Bundesliga der Männer. Heimspielstätte ist die Scharrena. Der VfL Pfullingen/Stuttgart spielte von 2001 bis 2006 in der Bundesliga, wo er seine Heimspiele in der Hanns-Martin-Schleyer-Halle austrug. In der Saison 1990/91 spielte auch die SG Stuttgart-Scharnhausen in der Bundesliga. Drei Mal Deutscher Meister im Frauen-Volleyball wurde die CJD Feuerbach. Der Verein zog seine erste Mannschaft 1996 aus finanziellen Gründen aus der Volleyball-Bundesliga zurück. Seit 2008 spielen die Frauen des VC Stuttgart unter dem Namen "Allianz MTV Stuttgart" (bis 2012 "Smart Allianz Stuttgart" und bis 2010 "Allianz Volley Stuttgart") in der Bundesliga. Im Eishockey wird Stuttgart von den Stuttgart Rebels in der Regionalliga und im Nachwuchsbereich vertreten. Die Heimspiele werden im Eissportzentrum Waldau in Degerloch ausgetragen. Im American Football sind die Stuttgart Scorpions in der German Football League aktiv. Sie tragen ihre Spiele im Gazi-Stadion auf der Waldau aus. 2007 wurden sie deutscher Vizemeister. Im Wasserball wurde der SV Cannstatt 2006 Deutscher Meister. Im Damen-Tennis ist der TC Weissenhof vierfacher Deutscher Meister und der TEC Waldau Deutscher Meister 2006. Der Hockeyklub HTC Stuttgarter Kickers gewann unter anderem 2005 die Deutsche Meisterschaft und 2006 den Europapokal der Landesmeister. Der zweitgrößte Sportverein ist der MTV Stuttgart mit 8700 Mitgliedern. Im Kunstturnen wurde das Frauenteam 2010, 2012 und 2013 Deutscher Meister. Der MTV war auch in der Saison 2005/06 als letzter Stuttgarter Verein mit einer Basketballmannschaft in einer Profiliga vertreten, bevor er sich aus der 2. Bundesliga zurückzog. Der letzte große Erfolg einer Basketballmannschaft aus Stuttgart war 1950 die Deutsche Meisterschaft des BC Stuttgart-Degerloch. Der BC Stuttgart 1891 spielt mit je einer Mannschaft in der 1. Bundesliga Snooker und der 2. Bundesliga Dreiband. Wirtschaft und Infrastruktur. Porsche 917 Coupé im Porsche-Museum Der Neckarpark aus der Luft gesehen Stuttgart zählt zu den einkommensstärksten und wirtschaftlich bedeutendsten Städten Deutschlands und Europas. Die Region Stuttgart ist mit ca. 1500 ansässigen kleinen und mittelgroßen Unternehmen eines der Zentren des deutschen Mittelstandes. Dabei handelt es sich in erster Linie um Zulieferer für die großen, global agierenden Automobil- und Maschinenbau-Firmen. In der Stadt und ihrer Umgebung haben sich unter anderem viele Hightech-Unternehmen angesiedelt, darunter Daimler, Porsche, Bosch, die hier ihr weltweites Hauptquartier haben, aber auch Siemens, Kodak oder Lenovo. Aufgrund dieser wirtschaftlichen Situation nicht nur der Stadt, sondern der gesamten Region wird diese umgangssprachlich oder scherzhaft oft als "Stuttgarter Speckgürtel" bezeichnet. Stuttgart gehört laut GaWC-Studie im Jahr 2010 zu den mit „Beta−“ kategorisierten Städten. Persönlichkeiten wie Fritz Leonhardt, Frei Otto oder Jörg Schlaich gelten als Beispiele bedeutender Ingenieure der Stadt. Ingenieurbüros wie SBP, Leonhardt Andrä und Partner sowie Knippers Helbig planten Bauwerke wie die Expo Achse in Shanghai oder den Flughafen in Shenzhen. Bekannte Architekturbüros sind unter anderem Behnisch & Partner (Olympiagelände München, Bundestagsgebäude) und Behnisch Architekten (NordLB, Ozeaneum Stralsund). Der Finanzplatz Stuttgart ist mit der Börse Stuttgart nach Frankfurt zweitwichtigster Börsenplatz in Deutschland. Die Landesbank Baden-Württemberg (LBBW) zählt zu den größten deutschen Kreditinstituten und ist Deutschlands größte Landesbank. Ihre Tochter BW-Bank ist zugleich Sparkasse der Stadt Stuttgart. Privatwirtschaftlich organisiert sind die Südwestbank AG und das Bankhaus Ellwanger & Geiger. Mit der Württembergischen Versicherung, Württembergischen Lebensversicherung (beide Töchter der Wüstenrot & Württembergische), SV SparkassenVersicherung, WGV und Allianz Lebensversicherung haben mehrere Versicherungsunternehmen ihren Sitz in Stuttgart. Mit Wolff & Müller, Züblin und Gottlob Rommel sind in Stuttgart auch drei große nationale Bauunternehmen angesiedelt. Die Stadt Stuttgart ist ferner seit 1996 Sitz einer Spielbank. Sie ist die dritte Spielbank des Landes Baden-Württemberg nach Baden-Baden und Konstanz. Alle drei werden seit 2003 unter der Regie der "Baden-Württembergischen Spielbanken GmbH & Co. KG" mit Sitz in Baden-Baden betrieben. In Stuttgart gibt es 175 Beherbergungsbetriebe mit insgesamt 18.900 Betten. 2014 wurden 3,5 Millionen Übernachtungen gezählt, 8,2 Prozent mehr als im Vorjahr. Mit rund 400 Hektar Rebfläche zählt Stuttgart zu den größten Weinbaugemeinden Deutschlands. Bekannt sind die in der Innenstadt gelegene "Stuttgarter Mönchhalde", das "Cannstatter Zuckerle" sowie die Lagen von Untertürkheim, Rotenberg und Uhlbach (siehe hierzu den Hauptartikel Weinbau in Stuttgart). Strom- und Gasversorgung. Im Jahr 2011 beschloss der Gemeinderat der Landeshauptstadt Stuttgart die Gründung eigener, 100 Prozent kommunaler Stadtwerke. Die seit Juli 2012 operativ tätigen Stadtwerke Stuttgart sind die zweite Gründung eines großstädtischen Stadtwerks in Deutschland seit der Marktliberalisierung von 1998. Es bietet seit Februar 2013 Ökostrom und Erdgas für alle Stuttgarter Privat- und Gewerbekunden an. In zunehmendem Maße betreiben die Stadtwerke dazu auch eigene Wind- und Solarstromanlagen und sind Contractor für Energiesysteme zur Wärme- und Stromerzeugung. Im Oktober 2014 entschied zudem der Stuttgarter Gemeinderat mehrheitlich, den Betrieb des 5000 km langen Strom- und des 1700 km langen Gasnetzes in der Landeshauptstadt – rückwirkend zum 1. Januar 2014 – an eine Kooperation der Stadtwerke Stuttgart und der EnBW-Tochter Netze BW zu vergeben. Das Kooperationsmodell hatte bei der Vergabe der Konzession für die Energieversorgungsnetze in den nächsten 20 Jahren die höchste Punktzahl erhalten. Nach einer Übergangsphase ist das Gemeinschaftsunternehmen ab 2016 zunächst für das Strom- und ab 2019 für das Gasnetz verantwortlich. Neben eigener Erzeugung in den Kraftwerken Münster, Gaisburg und den Laufwasserkraftwerken am Neckar wird Stuttgart hauptsächlich über drei 220-kV-Freileitungen versorgt, die in den Umspannwerken Möhringen, Seewiesen und Weilimdorf enden. Das Umspannwerk Möhringen verfügt zusätzlich noch über eine 110-kV-Freileitungsverbindung zum Umspannwerk Sindelfingen. Eine vierte externe Speisung ist im 110-kV-Umspannwerk Obertürkheim realisiert, das über einen kurzen Freileitungsabzweig von der 110-kV-Freileitung Hoheneck-Fellbach-Altdorf gespeist wird. Mit Ausnahme der Leitung Hoheneck-Fellbach-Altdorf und der Leitung von Möhringen nach Sindelfingen sind alle 110-kV-Leitungen des öffentlichen Stromnetzes in Stuttgart als Erdkabel ausgeführt. Die Versorgung der elektrischen Bahnstrecken der Deutschen Bahn im Stadtgebiet erfolgt über die Zentraleinspeisstelle Zazenhausen im Norden der Stadt. Für die S-Bahnen nach Bernhausen und Herrenberg existiert in Rohr ein Unterwerk, das über eine von der Bahnstromleitung Zazenhausen-Eutingen bei Ehningen abzweigende Bahnstromleitung versorgt wird und zum größten Teil parallel zur Bahnlinie Herrenberg-Stuttgart verläuft. Wasserversorgung. Der Bärensee, der Neue See und der Pfaffensee im Westen der Stadt dienten früher der Trinkwasserversorgung Stuttgarts. Seit 1917 wird Stuttgart unter anderem von der Landeswasserversorgung mit Trinkwasser aus dem Donautal bei Langenau versorgt. Die Leitung erreicht über Göppingen in Rotenberg das östliche Stadtgebiet. Seit 1958 kommt zusätzlich über die Bodensee-Wasserversorgung Trinkwasser aus dem Bodensee. Die Einspeisstelle liegt in Rohr im Südwesten der Stadt. Wassertürme stehen in Degerloch und auf dem Gähkopf (Bismarckturm). Flugverkehr. An der südlichen Stadtgrenze liegt der Flughafen Stuttgart, der größte Flughafen des Landes Baden-Württemberg. Das Areal befindet sich überwiegend auf der Gemarkung Filderstadt. Seit der Eröffnung des neuen Terminals 3 im März 2004 hat der Stuttgarter Flughafen eine Kapazität von 12 Millionen Passagieren. 2003 flogen etwa 7,6 Millionen Gäste, 2004 bereits 8,8 Millionen; 2005 flogen 9,5 Millionen Passagiere von und nach Stuttgart. Bis Ende 2006 waren es über 10 Millionen Passagiere. An der nördlichen Gemarkungsgrenze von Stuttgart liegt der Sonderlandeplatz Flugplatz Pattonville, der ausschließlich von Sport- und Segelfliegern genutzt wird. Eisenbahn. Die Stadt ist auch ein wichtiger Eisenbahnknoten. Vom Stuttgarter Hauptbahnhof führen Verbindungen nach Enz–Pforzheim–Karlsruhe–Straßburg–Paris (seit Sommer 2007 mit TGV-Verbindungen, siehe LGV Est européenne), nach Heilbronn–Heidelberg–Mannheim–Frankfurt am Main–Mainz–Köln–Düsseldorf–Dortmund/–Hannover–Hamburg/–Berlin, nach Plochingen–Göppingen–Ulm–München–Salzburg–Linz–St. Pölten–Wien(–Bratislava oder –Győr–Budapest), nach Memmingen–Kempten (Allgäu)–Oberstdorf (über Ulm), nach Ravensburg–Friedrichshafen–Lindau (über Ulm), nach Freudenstadt/Rottweil (Zugteilung in Eutingen im Gäu), nach Horb–Rottweil–Singen am Hohentwiel–Schaffhausen–Zürich, nach Waiblingen–Schwäbisch Hall-Hessental–Ansbach–Nürnberg, nach Rottenburg–Horb und Hechingen–Balingen–Sigmaringen–Aulendorf (über Plochingen, Reutlingen und Tübingen, dort Zugteilung), nach Ludwigsburg–Heilbronn–Würzburg/Mosbach-Neckarelz und nach Schwäbisch Gmünd–Aalen. Zum Eisenbahnknoten Stuttgart gehören auch das Containerterminal in Obertürkheim und der Rangierbahnhof Kornwestheim, der über eines der modernsten Container-Terminals im Bereich der DB verfügt. Beide Terminals sind der DUSS (Deutsche Umschlaggesellschaft Schiene-Straße) zugehörig. Im Jahr 1991 begann der ICE-Schnellverkehr auf der Linie Hamburg–Frankfurt am Main–Stuttgart–München. Im Zuge dessen wurde die neue Schnellfahrstrecke von Stuttgart nach Mannheim eingeweiht. Im Zuge des umstrittenen Projekts Stuttgart 21 wird der Eisenbahnknoten Stuttgart grundlegend neu geordnet. Dabei entstehen unter anderem rund 60 km neue Eisenbahnstrecken und vier neue Bahnhöfe (neuer Hauptbahnhof, neuer Flughafenbahnhof, S-Bahnhof Mittnachtstraße und der Abstellbahnhof Untertürkheim). Parallel soll die Neubaustrecke Wendlingen–Ulm entstehen. 1997 verabschiedete der Stuttgarter Gemeinderat den städtebaulichen Rahmenplan des Projekts, kurz darauf begann die Bebauung erster Teilgebiete. Öffentlicher Nahverkehr. Elektrisch betriebener ÖPNV (Bahnen und O-Bus) Den öffentlichen Personennahverkehr (ÖPNV) bedienen sieben S-Bahn-Linien der DB Regio (siehe: S-Bahn Stuttgart) sowie 15 Stadtbahn-Linien (darunter zwei Bedarfslinien), eine Zahnradbahnlinie, eine Standseilbahnlinie und 56 Buslinien der "Stuttgarter Straßenbahnen AG" (SSB), die Linie 101 des Oberleitungsbusses Esslingen am Neckar (vom Städtischen Verkehrsbetrieb Esslingen am Neckar betrieben) und mehrere Buslinien privater Verkehrsunternehmen. Außerdem übernehmen einige Regionalbahnlinien Nahverkehrsaufgaben innerhalb der Stadt (zum Beispiel die „Schusterbahn“). Zusätzlich hat Stuttgart mit Stadtmobil ein flächendeckendes Carsharing-Angebot sowie seit Anfang Juli 2007 auch öffentliche Fahrradmietstationen. Seit Ende November 2012 betreibt car2go ein Carsharing-Angebot mit 300 Elektroautos in Stuttgart. Alle Nahverkehrsmittel sind zu einheitlichen Preisen innerhalb des Verkehrs- und Tarifverbunds Stuttgart (VVS) nutzbar. Straßenverkehr. Bei einer Zählung am 21. Oktober 2014 passierten im Straßenverkehr täglich rund 827.000 Straßenfahrzeuge (bis 3,5 Tonnen) die Stadtgrenze Stuttgarts. Die Zahl der in Stuttgart zugelassenen Fahrzeuge erreichte mit 348.103 Ende 2014 einen neuen Rekord. Autobahnen. Die Autobahn A 8 (Karlsruhe–(S)–Ulm–München) bildet die südliche Stadtgrenze und die A 81 (Singen–(S)–Heilbronn–Würzburg) führt westlich der Stadt vorbei. Ab dem Autobahnkreuz Stuttgart laufen beide Autobahnen dann gemeinsam bis zum einige Kilometer westlich liegenden Leonberger Dreieck, an dem die A 81 dann wieder in nördlicher Richtung abzweigt. Dieser Abschnitt hat drei bis fünf Fahrspuren pro Richtung bei einem enorm hohen Verkehrsaufkommen und einem erheblichen Gefälle. Am "Autobahnkreuz Stuttgart", früher auch Kreuz Stuttgart-Vaihingen genannt, ist die Geradeaus-Richtung der A 81 ein kurzes Autobahnstück, das als A 831 zur Ausfahrt Stuttgart-Vaihingen und weiter als B14 über den "Schattenring" Richtung Innenstadt führt. Dieses Autobahnkreuz liegt auf der Sindelfinger Markung; auf Stuttgarter Gebiet im Wald befindet sich dort die ehemalige Hauptverwaltung der IBM Deutschland und der höchste Punkt von Stuttgart, die Bernhartshöhe. Bundesstraßen. Quer durch die Stuttgarter Innenstadt verlaufen die Bundesstraßen B 14 (Stockach-Herrenberg-Stuttgart-Schwäbisch Hall–Nürnberg-Waidhaus) und B 27 (Blankenburg–Heilbronn–Stuttgart–Tübingen–Lottstetten) sowie durch das Stadtgebiet die B 10 (Eppelborn–Pforzheim–Stuttgart–Ulm–Neusäß) und B 295 (Stuttgart-Leonberg-Calw). Bis auf die B 14 führen alle auf dem Pragsattel zusammen, dem größten Verkehrsknoten der Stuttgarter Innenstadt. Die B 10 (Richtung Göppingen/Ulm), die B 14 (Richtung Schwäbisch Hall), die B 27 (Richtung Tübingen) und die B 29 (ab Fellbach Richtung Aalen) sind jeweils autobahnähnlich ausgebaut und bilden eine sternförmige Struktur von Schnellstraßen um die Stadt. Historische Straßennamen. Die Stuttgarter Straßennamen wurden 1811 grundsätzlich umgestellt und auch später öfter wieder geändert. In der älteren Literatur und in alten Zeitungen und Zeitschriften werden zwangsläufig auch ältere Straßennamen angegeben. Luftreinhaltung. Die Umweltzone, in der das Fahrverbot gilt, ist in Stuttgart auf das gesamte Stadtgebiet inklusive aller 23 Stadtbezirke (Gemarkung Stuttgart) festgelegt. Nur die Autobahnen sind davon ausgenommen. Seit dem 1. März 2008 gilt die Feinstaubplakettenpflicht. Alle Fahrzeuge, die seit diesem Zeitpunkt innerhalb dieser Umweltzone bewegt werden, müssen mindestens der Schadstoffgruppe 2 angehören (auch auf allen Bundesstraßen durch Stuttgart). Fahrzeuge der Schadstoffgruppe 1 (ohne Plakette) unterliegen einem Fahrverbot. Zum 1. Juli 2010 wurde das Fahrverbot nach der Kennzeichnungsverordnung auf Fahrzeuge der Schadstoffgruppe 2 (rote Plakette) ausgeweitet. Der Grenzwert der Stickoxidbelastung wird in Stuttgart regelmäßig um das Doppelte überschritten. Die Feinstaubmessstation „Am Neckartor“ erreichte von 2005 bis 2010 jedes Jahr mit 88 bis 187 Überschreitungen des PM10-Tagesgrenzwertes stets die meisten Überschreitungen in Deutschland. Ab 2017 sollen bei hohen Luftschadstoffwerten Fahrverbote für Fahrzeuge mit geraden oder ungeraden Kennzeichen gelten. Ab 2019 sollen grundsätzlich nur noch Dieselfahrzeuge nach Euro-6-Norm fahren dürfen. Schiffsverkehr. Am 31. März 1958 wurde der Stuttgarter Hafen durch Bundespräsident Theodor Heuss eröffnet. Die vier Neckarvororte Wangen, Hedelfingen, Obertürkheim und Untertürkheim liegen am zweitgrößten Binnenhafen des Neckars. Nach der Erweiterung 1968 wurde er zum wichtigsten trimodalen Verkehrsknotenpunkt (Wasser, Schiene, Straße) in der Region Stuttgart. Medien. Stuttgart gilt als bedeutende Medienstadt. Im Stuttgarter Funkhaus hat der Intendant des öffentlich-rechtlichen Südwestrundfunks seinen Sitz. Dort werden zwei Hörfunkprogramme für Baden-Württemberg produziert (SWR1 und SWR4). In den Fernsehstudios werden neben aktuellen Magazinen (z. B. Sport) vor allem die Nachrichtensendungen für das Dritte Programm und die Landesschau live hergestellt. Ebenso verfügt Stuttgart mit Regio TV über einen zusätzlichen regionalen Fernsehsender. Weitere audiovisuelle Medien (zum Beispiel Antenne 1, bigFM, Die Neue 107.7, Freies Radio für Stuttgart) sind ebenfalls in Stuttgart beheimatet. Stuttgart ist neben Karlsruhe einer der beiden Standorte des Landesmedienzentrums Baden-Württemberg, das dem Ministerium für Kultus, Jugend und Sport Baden-Württemberg untersteht. Darüber hinaus gilt die Stadt als einer der bundesweit führenden Standorte für Fachverlage. Überregional bekannt sind unter anderem Deutscher Sparkassenverlag, Ernst Klett Verlag, Kohlhammer Verlag, Metzler Verlag, Motor Presse Stuttgart und Georg Thieme Verlag. Mit der Deutschen Bibelgesellschaft und dem Katholischen Bibelwerk sind in Stuttgart die mit Abstand größten Bibelverlage ansässig. Schließlich erscheinen hier die "Stuttgarter Zeitung", die als eine der größten Regionalzeitungen Deutschlands gilt, und die "Stuttgarter Nachrichten" sowie kleinere Lokalausgaben anderer Tageszeitungen wie zum Beispiel die "Cannstatter Zeitung". Das Stadtmagazin "Lift" wird einmal im Monat herausgegeben, "Prinz Stuttgart" ist im Internet abrufbar. "Luftballon" ist die größte regionale Elternzeitung in Baden-Württemberg. Aus dem Römerkastell in Bad Cannstatt sendet der Radiosender Energy Stuttgart, der zur NRJ Group gehört. Bildung und Forschung. Staatl. Hochschule für Musik und Darstellende Kunst (Postmodernes Gebäude nach dem Entwurf von James Stirling) Rund 11 % aller Gelder für Forschung und Entwicklung in Deutschland werden in Stuttgart ausgegeben. Neben den beiden Universitäten (Stuttgart und Hohenheim) bestehen in Stuttgart fünf Institute der Fraunhofer-Gesellschaft (der zweitgrößte Standort in Deutschland), mehrere Max-Planck-Institute sowie andere Einrichtungen. Große Teile der Stuttgarter Forschungslandschaft sind inzwischen auf dem Forschungscampus in Vaihingen konzentriert worden. Außeruniversitäre Forschungsinstitute. Die Landeshauptstadt Stuttgart ist außerdem "Korporativ Förderndes Mitglied" der Max-Planck-Gesellschaft. Standort der ersten Waldorfschule. 1919 wurde in Stuttgart von Emil Molt, dem Direktor der Waldorf-Astoria-Zigarettenfabrik, und von Rudolf Steiner auf der Uhlandshöhe die erste Waldorfschule gegründet, eine der von Steiner begründeten Anthroposophie sowie humanistischen Bildungsidealen folgenden Gesamtschulform, die heute in vielen Ländern der Welt besteht. Militärische Einrichtungen. United States Africa Command in den Kelley Barracks Die Bundeswehr unterhält im Stadtbezirk Bad Cannstatt die Theodor-Heuss-Kaserne (vormals Funkerkaserne), in Stuttgart-Nord sind außerdem das Karrierecenter der Bundeswehr Stuttgart und die Wehrbereichsverwaltung Süd angesiedelt. Sonstige Einrichtungen. Stuttgart ist Sitz des THW-Landesverbandes Baden-Württemberg der Bundesanstalt Technisches Hilfswerk. Außerdem befindet sich hier eine Geschäftsstelle der Sozialversicherung für Landwirtschaft, Forsten und Gartenbau (SVLFG). Soziale Einrichtungen. Der Körperbehinderten-Verein Stuttgart e. V. kümmert sich mit Veranstaltungen, Tagesstätten sowie einem Fahrdienst für Behinderte um die Eingliederung von körperlich behinderten Menschen in den Alltag. Ehrenbürger. → "Hauptartikel": Liste der Ehrenbürger von Stuttgart Söhne und Töchter der Stadt. → "Hauptartikel: In Stuttgart geborene Persönlichkeiten" Bekannte Einwohner. → "Hauptartikel: Bekannte Einwohner von Stuttgart" Steve Jobs. Steven „Steve“ Paul Jobs (* 24. Februar 1955 in San Francisco, Kalifornien; † 5. Oktober 2011 in Palo Alto, Kalifornien) war ein US-amerikanischer Unternehmer. Als Mitgründer und langjähriger CEO von Apple Inc. gilt er als eine der bekanntesten Persönlichkeiten der Computerindustrie. Zusammen mit Steve Wozniak und Ron Wayne gründete er 1976 Apple und half, sowohl das Konzept des Heimcomputers als auch später die Generation der Smartphones sowie Tabletcomputer populär zu machen. Zudem war er mit dem Macintosh ab 1984 maßgeblich an der Einführung von Personal Computern mit grafischer Benutzeroberfläche beteiligt und entwickelte mit dem iTunes Store und dem Medienabspielgerät iPod in den frühen 2000er Jahren wichtige Meilensteine für den Markterfolg digitaler Musikdownloads. Jobs war darüber hinaus Geschäftsführer und Hauptaktionär der Pixar Animation Studios und nach einer Fusion größter Einzelaktionär der Walt Disney Company. Er starb am 5. Oktober 2011 an einer Krebserkrankung. Sein Vermögen wurde im März 2011 vom Wirtschaftsmagazin Forbes Magazine auf 8,3 Milliarden US-Dollar geschätzt. Kindheit und Studium. Steve Jobs wurde als Sohn des syrischen Politik-Studenten Abdulfattah Jandali und der Amerikanerin Joanne Carole Schieble in San Francisco geboren. Da weder die Eltern seiner leiblichen Mutter noch die Eltern des Vaters einer Ehe zugestimmt hätten und seine 23-jährigen Eltern nicht für den Unterhalt des Kindes sorgen konnten, gab Schieble ihren Sohn als Sozialwaise zur Adoption frei. Schieble hatte ihre Zustimmung zur Adoption davon abhängig gemacht, dass ihr Sohn bei Akademikern aufwachsen sollte; jedoch lehnte ein Anwalt die Adoption kurz nach Jobs’ Geburt ab, weil er und seine Frau sich eine Tochter gewünscht hatten. So wurde das Kind kurz nach der Geburt von Paul Reinhold Jobs (1922–1993) und der armenischstämmigen Clara Jobs (1924–1986), mit Geburtsnamen Hagopian, aus Mountain View, Kalifornien, adoptiert und erhielt den Namen Steven Paul. Dem Ehepaar Jobs, beide keine Akademiker, rang Schieble das Versprechen ab, Jobs den Zugang zum College zu ermöglichen. Von seinen biologischen Eltern wie auch von seiner leiblichen Schwester, der Autorin Mona Simpson, erfuhr er erst rund 20 Jahre später. Schon in seiner Kindheit erwachte Steve Jobs’ Interesse an der zu dieser Zeit im Wachstum befindlichen Elektronikindustrie. Im Silicon Valley, dem Santa Clara Valley, in dem auch Palo Alto lag, wohnte Jobs in unmittelbarer Nachbarschaft zu Ingenieuren von Firmen wie Hewlett-Packard und Intel. Seine Eltern bemerkten dabei früh, dass Jobs schnell lernte; schon bei der Einschulung in die Monta Loma Elementary konnte er lesen und langweilte sich in den ersten Jahren eher, als etwas zu lernen, bis sich eine Lehrerin seiner annahm und ermöglichte, dass er eine Klasse übersprang. Im Jahre 1972 erreichte er den High-School-Abschluss an der Homestead High School in Cupertino, Kalifornien, und schrieb sich am Reed College in Portland ein. Das Studium brach Jobs schon nach dem ersten Semester ab, blieb jedoch noch längere Zeit am Campus und besuchte einzelne Vorlesungen. Anfang 1974 arbeitete er einige Monate bei Atari und bereiste anschließend Indien, wo er sich mit dem Hinduismus, dem Buddhismus und der Primärtherapie (Urschreitherapie) beschäftigte. Finanziert hatte die Reise ihm und seinem Freund Dan Kottke der Atari-Ingenieur Allan Alcorn mit der Auflage, über Deutschland zu fliegen. Jobs half in München dann dem dortigen Atari-Vertrieb, Erdungsprobleme amerikanischer 60-Hertz-Netzteile in Atari-Spielecomputern im deutschen 50-Hertz-Stromnetz zu beseitigen. Im Herbst 1974 war er zurückgekehrt und nahm an Zusammenkünften des Homebrew Computer Clubs teil. Er arbeitete wieder bei Atari und beschaffte einen Auftrag für das Spiel Breakout. Steve Wozniak, ein enger Freund, den er einige Jahre zuvor über den gemeinsamen Freund Bill Fernandez kennengelernt hatte, entwickelte das Spiel in vier Tagen. Jobs behauptete, dass er nur 700 Dollar bekommen habe und gab Wozniak 350 Dollar, obwohl das Honorar 5000 Dollar betrug. In den 70er Jahren ernährte sich Steve Jobs nach der strengen Ernährungsweise der Frutarier, wodurch nach eigenen Angaben auch der Name seines Unternehmens "Apple" entstand. Während dieser Zeit entdeckte John T. Draper (alias "Captain Crunch"), dass man mit einer modifizierten Spielzeugpfeife, die sich in jeder Packung von "Cap’n Crunch" Frühstücksflocken befand, den 2600-Hertz-Ton erzeugen konnte, der bei AT&T von den Vermittlungsstellen verwendet wurde, um die Abrechnung der Gesprächsgebühren zu steuern. Wozniak baute daraufhin eine Blue Box, die diesen Ton erzeugen konnte. Er und Jobs begannen 1974, diese Kästen zu verkaufen, die es dem Besitzer ermöglichten, kostenlose Ferngespräche zu führen. Apple. 1976 gründeten Jobs und Wozniak zusammen mit Ronald Wayne die Apple Computer Company in Jobs’ Garage in Los Altos, Kalifornien. Ihr erstes, mit dem Apfel mit Biss (Bite) beworbenes Produkt war der Apple I, der für 666,66 Dollar verkauft wurde. Der Prototyp steckte in einem selbst gebauten Holzgehäuse. 1977 wurde der Apple II eingeführt, der Apple zu einem wichtigen Akteur im Heimcomputermarkt machte. Im Dezember 1980 erfolgte die Umwandlung von Apple in eine Kapitalgesellschaft, und Apple präsentierte den Apple III, der jedoch kein vergleichbar großer Erfolg wurde. 1983 warb Jobs den Pepsi-Manager John Sculley für den Posten als Geschäftsführer bei Apple an. Im selben Jahr brachte Apple den "Apple Lisa" auf den Markt. 1984 stellte Apple den Macintosh vor. Es war der erste kommerziell erfolgreiche Computer mit einer grafischen Benutzeroberfläche (also Bildschirmsymbolen statt Kommandozeilen-Code) und der Computermaus als Standardeingabemedium. Die Entwicklung des „Macs“ fing mit Jef Raskin und seinem Team an, die durch die Technik inspiriert wurden, die im Xerox-Forschungszentrum entwickelt wurde, aber nicht kommerziell verwendet worden war. Der Erfolg des Macintosh brachte Apple dazu, den Apple II zugunsten der Macintosh-Produktlinie aufzugeben, die bis heute verfolgt wird. Nach einem internen Machtkampf mit Sculley verließ Jobs 1985 das Unternehmen. Fünf nahe Angestellte folgten ihm. NeXT. Für Jobs begannen fünf Jahre, die er später als eine seiner kreativsten Phasen bezeichnete. 1986 gründete er mit der Firma NeXT Computer ein weiteres Computerunternehmen. Aus Sorge, dass er bei den geplanten NeXT-Rechnern Apple-Technik verwenden würde, ging Sculley gegen Jobs vor Gericht. Der Vorwurf lautete: Bruch treuhänderischer Verantwortlichkeit („Breach of fiduciary responsibility“) und „ruchlose“ Anstiftung zum Abziehen von Apples Handelsgeheimnissen. Das Verfahren endete am 17. Januar 1986 mit einem Vergleich, bei dem sich Jobs dazu verpflichtete, Apple eine Zeit lang Einblicke in NeXT-Entwicklungen zu gestatten, indem er der Firma Prototypen zeigte, und bis zum 1. Juli 1987 keine eigenen Computer auf den Markt zu bringen. Die NeXT-Workstation war den anderen Geräten am Markt technisch voraus, wurde jedoch außerhalb wissenschaftlicher Anwendungen niemals populär. So entwickelte Tim Berners-Lee das World Wide Web am Schweizer CERN-Institut auf einer NeXT-Workstation. NeXT verwendete zukunftsweisende Techniken wie das objektorientierte Programmieren, Display PostScript und magneto-optische Laufwerke. Um sich auf die Software-Entwicklung konzentrieren zu können, verkaufte Jobs nach sieben Jahren das Hardwaregeschäft im Februar 1993 an den vormaligen Investor Canon. Von den ursprünglich 530 Mitarbeitern blieben 200 bei NeXT und 100 wechselten zu Canon. Pixar. Parallel zur NeXT-Gründung investierte Jobs 1986 gemeinsam mit Edwin Catmull fünf Millionen Dollar (ein Drittel des ursprünglichen Preises) plus weitere fünf Millionen, um Pixar, ein in Emeryville, Kalifornien ansässiges Computertrickfilm-Studio, von dessen Gründer George Lucas aus der Lucasfilm-Grafikabteilung herauszukaufen. Mit "Toy Story" gelang dem Unternehmen 1995 ein erster Erfolg, und der Börsengang machte Jobs zum Milliardär. Als erster vollständig computeranimierter Kinofilm wurde die Produktion mit dem Special Achievement Award (Oscar für „besondere Leistungen“) ausgezeichnet. Unter Jobs wurden die Pixar-Filme "Findet Nemo" und "Die Unglaublichen – The Incredibles" mit je einem Oscar in der seit 2002 bestehenden Kategorie ‚Bester animierter Spielfilm‘ ausgezeichnet. Am 24. Januar 2006 gab der Medien- und Entertainment-Konzern Walt Disney Company nach US-Börsenschluss bekannt, dass er Pixar für 7,4 Milliarden Dollar übernehmen werde. Als Teil des Geschäfts wurde Pixar-CEO Steve Jobs in den Verwaltungsrat (genau: Board of Directors) von Disney aufgenommen. Zudem wurde Jobs durch seinen Pixar-Anteil von etwa 50,1 % mit 6 % größter Einzelaktionär bei Disney. Im März 2010 hielt Jobs 138 Millionen Disney-Aktien. Rückkehr zu Apple. 1996 kaufte Apple NeXT für 402 Mio. US-Dollar. Jobs übte seitdem eine Beratertätigkeit im Unternehmen aus. Im August 1997 wurde er Mitglied des Vorstandes und kurz darauf, nach der Entlassung von Gil Amelio im September des Jahres, vorübergehend Geschäftsführer des Unternehmens. Noch im gleichen Jahr beendete Jobs viele Produkte und Forschungsprojekte sowie alle langjährigen Wohltätigkeitsprogramme des Unternehmens. Er begründete dies mit der Notwendigkeit Kosten einzusparen, um die Rentabilität des Unternehmens wiederherzustellen. Mit dem Kauf von NeXT wurde dessen Technik übernommen und in die Apple-Produkte integriert; hauptsächlich handelte es sich dabei um NeXTStep, das schrittweise aktualisiert und schließlich unter dem Namen „Mac OS X“ zum neuen Betriebssystem der Macintosh-Rechner wurde. Auch das aktuelle (inzw. umbenannte) OS X hat nicht nur oberflächliche Ähnlichkeiten zu NeXTStep wie zum Beispiel das Dock, sondern verwendet dieselben Kerntechnologien, insbesondere FreeBSD, Objective-C und die Cocoa-API. Unter Jobs’ Führung wurde 1998 der iMac eingeführt, der dem angeschlagenen Konzern half, in die Gewinnzone zurückzukommen. Mit den tragbaren Musikabspielgeräten iPod, der Jukebox-Software iTunes, dem iTunes Store (bis 2006 iTunes "Music" Store) und dem iPhone schuf das Unternehmen einen neuen Markt für „Digital Lifestyle“-Produkte. An den Erfolg dieser Produkte knüpfte das am 27. Januar 2010 durch Jobs präsentierte iPad an. Jobs arbeitete bei Apple über mehrere Jahre hinweg für ein Jahresgehalt von einem Dollar und wurde damit in das Guinness-Buch der Rekorde als schlechtest bezahlter Geschäftsführer aufgenommen. Nachdem Apple wieder zu einem gewinnträchtigen Unternehmen geworden war, entfernte das Unternehmen im Januar 2001 das „vorübergehend“ aus Jobs’ Titel des Geschäftsführers. Zusätzlich zu seinem Gehalt erhielt Jobs allerdings einige exklusive Geschenke von der Geschäftsleitung; beispielsweise einen 35 Mio. US-Dollar teuren Jet im Jahr 1999, den er in der ungenutzten Zeit an Apple vermietet hatte, sowie fast 30 Millionen Anteile der Apple-Aktien 2000–2002. Im März 2010 hielt Jobs 5,426 Millionen Apple-Aktien. Im Januar 2011 übergab Steve Jobs das Tagesgeschäft aus gesundheitlichen Gründen an Tim Cook. Er blieb jedoch weiterhin CEO von Apple. Am 24. August 2011 trat Steve Jobs endgültig als CEO von Apple zurück. Tim Cook wurde schließlich offiziell zum dauerhaften Nachfolger berufen, nachdem er den Konzern bereits seit dem 17. Januar 2011 vertretungsweise führte. Jobs selbst wurde zum Vorsitzenden des Verwaltungsrats gewählt. Diese Position hatte er bis zu seinem Tod am 5. Oktober inne. Privatleben. Trauer nach seinem Tod am Apple Store in Frankfurt am Main Steve Jobs’ Haus in Palo Alto Am 18. März 1991 heiratete Jobs Laurene Powell. Das Paar hat drei Kinder. Aus einer Beziehung zu der Journalistin Chrisann Brennan stammt die 1978 geborene Tochter Lisa Brennan-Jobs. 1996 hat seine Schwester Mona Simpson mit dem Buch „A Regular Guy“ die Geschichte von Steve und Lisa veröffentlicht. In den 1980er Jahren hatte er außerdem eine Beziehung mit der Folksängerin Joan Baez. Am 31. Juli 2004 unterzog sich Steve Jobs einer Operation, bei der ein Inselzell-Tumor entfernt wurde. Während seiner Abwesenheit vertrat ihn bei Apple COO Tim Cook. Laut der von Steve Jobs autorisierten Biografie von Walter Isaacson verweigerte sich Jobs nach der Diagnose im Oktober 2003 monatelang einer Operation. Vielmehr griff er auf alternative Behandlungsversuche zurück. Spätere Behandlungen schlossen eine individualisierte Therapie auf Basis einer Genomanalyse von Tumor- und Körperzellen ein. Im August 2008 wurde vom Nachrichtendienst Bloomberg versehentlich ein unvollständiger Nachruf auf ihn veröffentlicht, der aber umgehend wieder gelöscht wurde. Anfang Januar 2009 äußerte sich Jobs in einem offenen Brief über seinen Gesundheitszustand und seine damit verbundene Abwesenheit bei der Macworld. Er führte dabei seinen Gewichtsverlust auf eine Hormonstörung zurück. Später, im Januar 2009, kündigte Jobs an, sich krankheitsbedingt bis Ende Juni 2009 aus dem Tagesgeschäft von Apple zurückzuziehen. Im Juni 2009 wurde bekannt, dass sich Steve Jobs im April einer Lebertransplantation im Methodist University Hospital in Memphis (Tennessee) unterzogen hatte. Der Grund für die Lebertransplantation wurde nicht bekannt, jedoch wurde angenommen, dass der Tumor Lebermetastasen gebildet hatte. Zur Apple-Präsentation im Yerba Buena Center for the Arts in San Francisco kehrte Jobs am 9. September 2009 schließlich auch auf die Apple-Bühne zurück. Im August 2011 wurde die erste von Steve Jobs genehmigte Biografie unter dem Titel "Steve Jobs" von Walter Isaacson im Verlag Simon & Schuster angekündigt. Nach einer zuvor im Jahr 2005 erschienenen Biografie des Verlags John Wiley & Sons hatte Jobs den Verkauf aller Werke dieses Verlages in den Apple Stores verbieten lassen, da diese Biografie nicht von ihm autorisiert worden war. In seinem Finanzbericht für das Jahr 2010 erklärte der Verlag, dass es zu einer Einigung gekommen sei und die Bücher des Verlages für das iPad zugänglich sein sollten. Am 5. Oktober 2011 starb Steve Jobs zu Hause im Kreise seiner Familie an den Folgen seiner Krebserkrankung. Am 7. Oktober wurde er auf einem konfessionslosen Friedhof (Alta Mesa Memorial Park) in Santa Clara, Kalifornien, beigesetzt. Tim Cook lud die Mitarbeiter des Unternehmens zu einer internen Gedenkveranstaltung am 19. Oktober 2011 ein. Eine öffentliche Trauerfeier des Unternehmens wurde ausgeschlossen. Am 20. Oktober 2011 schaltete Apple eine spezielle Gedenkseite auf seiner Internetpräsenz frei, auf der kontinuierlich Beileidsbekundungen veröffentlicht werden, die per E-Mail gesendet wurden. Ein Jahr nach dem Tod schaltete Apple ein Video über Steve Jobs auf die Startseite der Internetpräsenz. Sonstiges. Anlässlich des ersten Todestags von Steve Jobs entstand eine Wachsfigur, die in Madame Tussauds Hong Kong ausgestellt wird. Jobs ist darauf in seiner charakteristischen Kleidung (Jeans, Pullover, Turnschuhe) zu sehen. Apple veröffentlichte am 5. Oktober 2012 eine Sonderstartseite mit einem Video über Steve Jobs. Auf einer darauffolgenden Seite würdigt Tim Cook, der neue Apple CEO, Steve Jobs als großen Visionär. Suspense. Suspense (engl. für „Gespanntheit“; "die" oder "der" Suspense) ist ein Begriff aus der Theater-, Film- und Literaturwissenschaft. Er leitet sich von lat. "suspendere" („aufhängen“) ab und bedeutet so viel wie „in Unsicherheit schweben“ hinsichtlich eines befürchteten oder erhofften Ereignisses. Neben anderen Typen der dramatischen Spannung ist dem "Suspense" die meiste Aufmerksamkeit zuteilgeworden, weil er die Spannungserzeugung „mit den geringsten“ Mitteln ist. Hitchcock und Highsmith. Alfred Hitchcock wurde oft als „Master of Suspense“ bezeichnet. Er unterschied "Suspense" von "Surprise": Während "Surprise" ein unerwartetes Ereignis charakterisiert, meint der Begriff "Suspense" die Erwartung eines Ereignisses ohne sein Eintreffen. Hitchcock selbst gab seinem Interviewpartner François Truffaut in "Mr. Hitchcock, wie haben Sie das gemacht?" folgendes Beispiel: Wenn eine versteckte Bombe unter einem Tisch, an dem mehrere Leute frühstücken, plötzlich explodiert, ist dies ein Schreck und unterhält 20 Sekunden lang; wenn der Zuschauer die Lunte jedoch lange brennen sieht und die Figuren nichts davon ahnen, ist dies "Suspense" und fesselt fünf oder zehn Minuten lang. Einsatz filmischer Mittel und Kosten bleiben sich gleich, bei besserem Effekt. In Hitchcocks Film "Psycho (1960)" ist die Spannung der berühmten Duschszene, in der ein Mord geschieht, vom Typus "Surprise": Die Aufregung des Zuschauers entsteht schockartig. Die darauf folgende Spannung ist dagegen vom Typus "Suspense", weil der Mord nach Hitchcocks Aussage das Ausmaß der Bedrohung klargemacht hat und daher keine hektischen Aktionen zur Aufrechterhaltung der Spannung mehr nötig sind. Patricia Highsmith vermeidet es in ihrem Werkstattbericht "Suspense oder Wie man einen Thriller schreibt", den Begriff Suspense inhaltlich zu definieren und spricht eher von einem literarischen Genre hauptsächlich US-amerikanischen Ursprungs, das mit bestimmten Publikumserwartungen, einer bestimmten Haltung der Kritiker und einem eher geringen Prestige in der Literaturszene verbunden ist. Surprise – Suspense – Mystery. Als Oberbegriff für dramatische Spannung wird in der Regel der Begriff "Tension" verwendet. Als Unterteilung hat sich die wissenschaftliche Literatur auf die drei Begriffe "Surprise", "Suspense" und "Mystery" geeinigt. In der Praxis sind diese drei Spannungstypen stets miteinander verbunden. Psychologische Suspenseforschung. Psychologen setzen sich seit den 1990ern intensiv mit Suspense auseinander. In einer Definition von Suspense als Emotion beschreibt der US-amerikanische Medienpsychologe Dolf Zillmann Suspense als „emotionale Reaktion, die typischerweise aus akuter Besorgnis um beliebte Protagonisten entspringt, die durch unmittelbar erwartete Ereignisse bedroht werden, wobei diese Besorgnis aus einer hohen aber nicht vollständigen subjektiven Gewissheit über das Eintreten der erwarteten bedauernswerten Ereignisses erwächst". Das Erwarten unerwünschter Ereignisse. Konflikt – der Aufeinanderprall gegensätzlicher Kräfte – ist das Kernelement dramatischer Darstellungen seit der Überwindung des aristotelischen Dramas im 18. Jahrhundert. Die mit Vorahnungen um die Auflösung derartiger Konflikte verbundene emotionale Erfahrung macht Suspense aus. Bei der Rezeption eines Textes oder Filmes entsteht Suspense aus der Befürchtung, dass etwas Unerwünschtes eintritt oder aus der Hoffnung auf das Eintreten eines erwünschten Umstands. Damit der Rezipient ein Ereignis erwartet, muss ein spannender Text bzw. Film ihm Vorwissen vermitteln. Zudem muss der Rezipient auf Grundlage des Textes Präferenzen hinsichtlich der Ausgangs-Alternativen bilden können. Ob ein Ereignis erwünscht oder unerwünscht ist, hängt davon ab, was der Text diesbezüglich suggeriert. Empirische Untersuchungen zeigen, dass Ängste wie Hoffnungen gleichermaßen abhängen von der Größe einer Gefahr sowie von der emotionalen Einstellung des Lesers gegenüber den Akteuren. Die Größe einer Gefahr bzw. eines Anreizes beschreibt, was für die Figuren auf dem Spiel steht. Sie kann reichen vom Nicht-Erreichen eines Zieles bis hin zu körperlichen Schäden und Tod. Hoffnungen und Ängste bezüglich desselben Ereignisses fallen für beliebte und unbeliebte Protagonisten unterschiedlich aus. Die Beziehung zum Protagonisten. Medien-Rezipienten empfinden Suspense, während sie Zeuge dramatischer Ereignisse werden, die andere Personen betreffen. Sie sind weder direkt bedroht, noch haben sie eine Möglichkeit, den Verlauf der Ereignisse zu beeinflussen. Die hilflose Erregung, in die der Rezipient trotzdem gerät, entspricht Disstress. Der Erregungstransfer von der literarischen / filmischen Figur auf den Rezipienten funktioniert über einen Umweg: Zwar ist nur der Protagonist in Gefahr. Doch der teilnehmende Beobachter erkennt, was für diesen auf dem Spiel steht. Mit dem Ergebnis, dass er mit dem unmittelbar Betroffenen mitfühlt. Voraussetzung dafür, dass aus einem Beobachter ein teilnehmender, mitfühlender Beobachter werde, ist Empathie. Demnach muss ein Text, um Spannung zu erzeugen, den Leser zum teilnehmenden Beobachter machen. Zwischen Ungewissheit und subjektiver Gewissheit. Suspense resultiert aus offenen Fragen nach dem Fortgang einer Geschichte. Empirische Untersuchungen belegen, dass nicht Ungewissheit das Suspense-Erlebnis intensiviert, sondern im Gegenteil die subjektive Gewissheit, dass der beliebte Protagonist zu Schaden kommt. Hingegen unterbindet totale subjektive Gewissheit über den Story-Ausgang jeden Suspense. Gewissheit über ein künftiges Schaden bringendes Ereignis bereitet einen Rezipienten kognitiv vor, sodass er bei Konfrontation mit diesem Ereignis vor zu starkem emphatischem Disstress geschützt ist. Die Gewissheit, dass dem Protagonisten nichts geschieht, verhindert Spannung, da kein Grund für ein irgendwie geartetes Mitfühlen besteht. Die größte Spannung entsteht also theoretisch dann, wenn die subjektiv geschätzte Wahrscheinlichkeit für einen positiven Ausgang sehr klein, aber größer Null ist. Erwartete Erfolgswahrscheinlichkeiten. Rezipienten schätzen Erfolgswahrscheinlichkeiten, indem sie die Höhe einer Gefahr mit den Defensivkräften der Protagonisten in Verbindung setzen – also mit deren Fähigkeit, eine Herausforderung zu bewältigen. So ist etwa die Wahrscheinlichkeit, dass Menschen im Zuge eines Tsunami zu Schaden kommen, umso geringer, je früher diese über die nahende Gefahr informiert werden, je günstiger ihr Standort ist, je besser ausgerüstet und je kräftiger sie sind. Rezipienten empfinden in dem Maße größere Spannung, wie die Lösungsmöglichkeiten in einer Handlung reduziert werden – etwa wenn einem Helden die Munition ausgeht. Da die Erfolgswahrscheinlichkeiten vom Verhältnis von Gefahr bzw. Anreiz und der Defensivkraft des Protagonisten abhängt, kann der Suspense sowohl über die Erhöhung der Gefahr als auch über eine Verringerung der Defensivkräfte der Protagonisten gesteigert werden. In Anlehnung an die Musikwissenschaften wird diese Technik als Crescendo bezeichnet. Entsprechend haben nur solche Textkonstellationen Suspense-Potential, in denen die Auseinandersetzung sympathischer Protagonisten mit bedrohlichen oder verlockenden Ereignissen angekündigt wird, denen diese Figuren nicht gewachsen zu sein scheinen. Erzeugung. Ausgehend von diesen Erkenntnissen muss ein spannender Text bzw. Film zeigen, dass ein Protagonist in einen Konflikt gerät. Er muss die Gefahr (bzw. den Anreiz) offenlegen, der der Protagonist ausgesetzt ist und die Konsequenzen des maximal möglichen negativen Ergebnisses verdeutlichen. Bestandteile. Suspense zerfällt in "Erwartung" und "Zweifel". Die Erwartung ist an die Vorstellung von etwas künftig Eintreffendem geknüpft. Da jede vorgestellte Zukunft auch nicht eintreffen kann, ist ihre Erwartung immer auch mit der Vorstellung von Nicht-Erfüllung oder – positiver – dem Eintritt von etwas anderem verbunden, dessen wahr werden die Verwirklichung des ursprünglich Erwarteten verhindern würde. Im Zustand von Suspense oder Spannung springt nun die Phantasie des Zuschauers zwischen solch entgegengesetzten Zukunftsvorstellungen, einer befürchteten und einer erhofften („Er schafft’s!“ - „Er schafft’s nicht!“ - „Er schafft’s doch!“ usw.), hin und her. Sorten. Je nach Erwartungs-Inhalt handelt es sich um eine "Entscheidungs-" oder "Erklärungsspannung". im ersten Fall ist man gespannt auf den Ausgang des Außen- oder Innenkampfes zwischen Held und Widerspiel, im zweiten auf die Erklärung eines rätselhaften Umstands (in der Regel eines Mords im Kriminalroman). Entscheidungs- beziehungsweise Erklärungsspannung bedingen unterschiedliche Formen der Überraschung. Zum Ziel der Erwartung können entweder "berechnende" oder "beschwörende" Handlungen führen. Die Berechnung steht etwa bei einem ungestört verlaufenden Diebstahl im Vordergrund, die Beschwörung bei einer Liebeswerbung. Beim (unmanipulierten) Glücksspiel helfen weder die Berechnung noch die Beschwörung, daher hat es eine besondere dramaturgische Bedeutung. Stärke. Die Stärke des Spannungsgefühls hängt von der Wichtigkeit der vorgestellten künftigen Ereignisse für den Protagonisten, mehr noch aber für den Zuschauer (wie brennend seine persönlichen Interessen davon berührt sind) ab sowie von der Erheblichkeit des Unterschiedes zwischen Erhofftem und Befürchtetem. Geschichtliche Entwicklung. Suspense als öffentlich geduldetes und gefördertes Medienphänomen gibt es erst seit dem Sport oder dem Bühnenmelodram seit dem späteren 18. Jahrhundert. Das öffentliche Entfachen starker Emotionen setzt ein recht hohes Zivilisationsniveau voraus, um nicht aus dem Ruder zu laufen. Zudem stand die christlich-mittelalterliche Ethik, die sich in Opposition zu den römischen Wagenrennen und Gladiatorenkämpfen entwickelt hatte (Tertullian), jeder Art von Suspense entgegen. Der Soziologe Norbert Elias hat das Aufkommen einer gesellschaftlich positiv bewerteten Spannung seit dem Spätmittelalter untersucht und bringt mit ihm das Entstehen des Sports in Zusammenhang. Er schlägt als Voraussetzung dafür den Begriff Mimesis vor: Ein sportlicher Kampf sei kein ernster, sondern ein spielerischer, gleichsam nachgeahmter Kampf und die damit verbundene Spannung sei daher etwas Angenehmes. Split Screen. Split Screen oder Bildschirmaufteilung (wörtlich „geteilter Bildschirm“) ist eine in visuellen Medien verwendete Technik, die das Bild in zwei (oder mehr) Bereiche aufteilt, um zwei (oder mehr) Handlungen oder Bilder gleichzeitig zu zeigen. Film. Im Film war der "Split Screen" vor allem in den 1960er und 1970er Jahren eine sehr beliebte Technik, wobei das Verfahren selbst bereits in den 1920er Jahren von Abel Gance in seinem monumentalen Spielfilm Napoleon (1927) angewandt wurde. Vorreiter in den 60er Jahren war der US-amerikanische Künstler Andy Warhol in seinem Spielfilm The Chelsea Girls (1966), ein weiteres berühmtes Beispiel ist der Woodstock-Film von Michael Wadleigh (1970). Der bekannteste Mainstream-Film dieser Epoche ist Thomas Crown ist nicht zu fassen (1968). Zumeist wird die Darstellung vertikal geteilt, um zum Beispiel zwei Telefonierende gleichzeitig zu zeigen. Der Effekt ist ähnlich dem der Parallelmontage, wirkt aber um einiges künstlicher. In Dr. Jekyll und Mr. Hyde (1931) wird das Bild hingegen diagonal geteilt und steht sinnbildlich für Jekylls Persönlichkeitsspaltung. Duo-Vision. Duovison bezeichnet ein Verfahren das in den 1970er-Jahren in einigen US-amerikanischen Filmen im Rahmen des New Hollywood Anwendung fand, zum Beispiel bei "Wicked, Wicked" von 1973. Dabei wird nicht nur ein Bild gleichzeitig, sondern zwei Bilder, entweder nebeneinander oder untereinander gezeigt. Damit kann eine Handlung aus zwei Blickwinkeln gezeigt werden, oder zwei parallel ablaufende Handlungen werden gleichzeitig gezeigt. Einige wenige Filme wurden komplett mit aufgeteiltem Bild in Duovison gedreht. Die meisten Duovison-Filme haben nur einige Szenen in Duovision. Teilweise wurde die Duovisonsszenen bei Neuauflagen auf Video bzw. DVD herausgeschnitten, bzw. nur ein Bild wurde verwendet. Nachrichten. Bei Interviews oder Diskussionen, bei denen sich die Teilnehmer an unterschiedlichen Orten aufhalten, werden sie teilweise in einem Bild zusammengeschnitten. Sportübertragungen. Eine neuere Anwendung findet der Split Screen bei Live-Sportübertragungen; die hier verwendete so genannte "Split-Screen-Werbung" zeigt zum überwiegenden Teil die Werbefilme, während in einer Ecke weiterhin die Sportsendung gezeigt wird. Computerspiele. Bei Computerspielen wird der Split Screen als eine Lösung eingesetzt, um mehrere Spieler an einem Gerät und einem Bildschirm spielen lassen zu können und doch jedem sein eigenes Spielfeld zur Verfügung zu stellen, in dem er agieren kann und dessen Blickwinkel er unabhängig von anderen Spielern beeinflussen kann. Dabei wird der Bildschirm je nach Format des Bildschirms getrennt. Bei 5:4- und 4:3-Geräten gibt es die horizontale Teilung, bei 16:10 und 16:9 meist eine vertikale. Jede Bildschirmhälfte wird einem Spieler zugeteilt, dabei spielen aber beide Spieler dasselbe Spiel. Diese Technik ist im Konsolenbereich, besonders bei Ego-Shootern und Rennspielen, sehr weit verbreitet. Eine andere Variante wird dazu eingesetzt, den Bildschirm für einen einzelnen Spieler in zwei grundverschiedene Bereiche zu teilen, beispielsweise einen farbigen Bereich in Einzelpunktgrafik mit der eigentlichen Spielwelt und einen im Textmodus, der nur der Anzeige von Spielständen und anderen Statusinformationen dient. Bei geeigneter Implementierung (beispielsweise über einen Rasterzeileninterrupt oder den Copper des Amiga) kann der zweite Bereich einen ganz anderen, einfacheren Grafikmodus aufweisen, so dass er weniger Ressourcen an Speicherplatz und Zeit verbraucht, beim aktualisierenden Beschreiben weniger Zeit erfordert und dadurch einfach schneller arbeitet. Das Paradebeispiel einer narrativen Nutzung des Split-Screen-Verfahrens in PC- und Videospielen ist das von Kritikern hoch gelobte Spiel "Fahrenheit". Der Spieler steuert seine Figur in einem der Fenster, während er zeitgleich die Aktionen anderer Figuren beobachtet. Das Verfahren wird, wie in der TV-Serie "24", hauptsächlich zur Erzeugung von Spannung eingesetzt. Zum Beispiel muss der Spieler aus einem Gebäudekomplex fliehen und sieht dabei gleichzeitig, wie ein Polizeibeamter sich der Wohnung des Protagonisten nähert. Anzeigegeräte. Einige Monitore, zum Beispiel Fernsehgeräte, aber insbesondere Überwachungsmonitore, bieten die Möglichkeit, gleichzeitig verschiedene, ständig aktualisierte Quellen oder sequentiell die Kanäle eines Empfängers anzuzeigen. Hier erfolgt die Aufteilung meist quadratisch mit gleichem Seitenverhältnis, also zum Beispiel 2×2 4:3-Bilder auf einer 4:3-Anzeige oder 3×3 16:9-Bilder auf einem 16:9-Gerät. Mehr als 25 (5×5) oder maximal 36 (6×6) Bilder gleichzeitig sind dabei nicht sinnvoll. Unterscheiden sich Seitenverhältnis der Signale und des Anzeigegerätes, kommen auch nicht quadratische Aufteilungen in Betracht, zum Beispiel 4×3 4:3-Bilder auf einem 16:9-Gerät oder 3×4 16:9-Bilder auf einem 4:3-Gerät. Auch asymmetrische Aufteilung ist möglich, zum Beispiel ein großes 4:3-Bild (2/3-Breite) neben drei kleinen übereinander (1/3-Breite) in einem 16:9-Rahmen. Sydney Pollack. Sydney Irwin Pollack (* 1. Juli 1934 in Lafayette, Indiana; † 26. Mai 2008 in Los Angeles) war ein US-amerikanischer Filmregisseur, -produzent und Schauspieler sowie mehrfacher Oscar- und Golden-Globe-Preisträger. Biographie. Pollacks Eltern, der Apotheker David Pollack und die Pianistin und Sängerin Rebecca Pollack, geb. Miller, waren russische, jüdische Einwanderer, die sich an der Purdue University kennengelernt hatten. Sydney Pollacks Eltern schieden sich während er aufwuchs, da Rebecca Pollack emotionale Probleme hatte und viel Alkohol trank. Sie starb, als Pollack 16 Jahre alt war. David Pollack stellte sich vor, dass Sydney Pollack Zahnarzt wird, doch er zeigte Interesse in der Filmbranche. Er wuchs in Brooklyn auf und ging zwei Jahre lang zur US-Army und nahm später Schauspielunterricht am angesehenen New Yorker " Neighborhood Playhouse School of the Theatre" bei Sanford Meisner, zunächst zwei Jahre lang als Schauspielschüler. Danach war er fünf Jahre lang Meisners Assistent. Anschließend arbeitete er Anfang der 1960er Jahre als Bühnen- und Fernsehdarsteller. Später wurde er Professor an der New Yorker Universität und Fernsehregisseur. Insgesamt hat er 40 Filme produziert. Sein Leinwanddebüt als Filmschauspieler gab er 1962 mit dem Kriegsfilm "Hinter feindlichen Linien", bei dem auch Robert Redford debütierte. Seitdem waren beide befreundet und Redford war in zahlreichen Filmen Pollacks Hauptdarsteller, nachdem Pollack hinter die Kamera gewechselt hatte. Pollack gehört neben John Frankenheimer, der ihm den Wechsel ins Regiefach nahelegte, Franklin J. Schaffner, George Roy Hill und Martin Ritt, zu den Filmemachern, die Anfang der 1960er Jahre vom Fernsehen ins Kino drängten und dort für frischen Wind sorgten. 1965 debütierte er mit dem Psychodrama "Stimme am Telefon" als Kinoregisseur, weitere 19 Spielfilmproduktionen folgten. 1985 erreichte er mit dem mit insgesamt sieben Oscars ausgezeichneten Liebesdrama "Jenseits von Afrika" den Höhepunkt seines Schaffens. 1973 war Sydney Pollack Mitglied der Jury bei dem Filmfestival in Cannes und 1986 Präsident der Jury. Pollack galt als einer der intelligentesten Regisseure, der vor allem bei Schauspielern sehr beliebt war. Er war in vielen Genres tätig, er drehte Western "(Jeremiah Johnson)" ebenso wie Literaturverfilmungen "(Jenseits von Afrika)", Politthriller "(Die drei Tage des Condor)", Melodramen "(Begegnung des Schicksals)" und Komödien "(Tootsie)". Pollack war einer der erfolgreichsten Vertreter der konservativen Hollywood-Ästhetik, trotz der konventionellen Bildersprache prägte er jedem Film seinen eigenen Stil auf und zeigte darüber hinaus auch moralisches Engagement. Er selbst äußerte darüber lakonisch: „It is not impossible to make mainstream films which are really good.“ Zu seiner letzten Regiearbeit wurde der Dokumentarfilm "Sketches of Frank Gehry" aus dem Jahr 2005, an dem er auch als Kameramann mitwirkte. Neben Gehrys Bauwerken dokumentiert der Film auch ein Stück die 40 Jahre währende Freundschaft mit Frank Gehry. Pollack wurde dreimal für einen Oscar nominiert; 1986 erhielt er für "Jenseits von Afrika" den Oscar als bester Regisseur. Der Film "Jenseits von Afrika" beruht auf der Geschichte eines Buches von Isak Dinesen (Karen Blixen), welches den Anfang hat “I had a farm in Africa, at the foot oft the Ngong Hills” zu deutsch „Ich hatte eine Farm in Afrika, am Fuße der Ngong-Berge“. Seine Filme sind in der Regel bittere Liebesgeschichten ohne glücklichen Ausgang. Sie bevorzugen eine dramaturgische Kreisstruktur, in deren Verlauf sich der Held auf dem Weg zur Selbsterkenntnis mit einem grundsätzlich feindlichem Gesellschaftsumfeld auseinanderzusetzen hat. Ein Beispiel für diese Kreisstruktur ist der frühe "This Property is Condemned", der nach einer langen Rückblende nicht nur symbolisch am Ende auf die an dem Ort vorbeiführenden Bahnschienen zurückkehrt. In "Jeremiah Johnson" wird der von Redford gespielte Trapper in der zweiten Filmhälfte spiegelbildlich mit den Ereignissen des Beginns konfrontiert. Weitere Beispiele für bittere Liebesgeschichten finden sich in "The Way We Were", in dem die Paarbeziehung zwischen der jüdischen Marxistin und Studentin "Katie Morosky" (Barbra Streisand) und dem gutaussehenden Studenten aus reichem Haus "Hubbell Gardner" (Redford) nicht funktioniert, "Havana", "Out of Africa" oder auch "Three Days of the Condor", in dem die kurzzeitige Begegnung zwischen dem CIA-Mitarbeiter "Joseph „Condor“ Turner" (Redford), der die Fotografin "Kathy Hale" (Faye Dunaway) auf seiner Flucht vor dem Geheimdienst als Geisel genommen hat, eine intensive Momentaufnahme bleibt. Pollack war seit 1958 mit der Schauspielerin Claire Griswold verheiratet, mit der er drei Kinder hatte. Am 26. Mai 2008 verstarb Sydney Pollack an Magenkrebs, der neun Monate zuvor diagnostiziert worden war. Sylvester Stallone. Sylvester „Sly“ Gardenzio Stallone (* 6. Juli 1946 in New York City, New York) ist ein US-amerikanischer Schauspieler, Filmregisseur, Drehbuchautor, Filmproduzent und Unternehmer. Leben und Karriere. Sylvester Gardenzio Stallone wurde 1946 in New York City als Sohn einer italoamerikanischen Familie geboren und wuchs in einem Vorort von Philadelphia auf. Sein Bruder Frank Stallone ist ebenfalls Schauspieler, Sänger und Songwriter. Sein Vater Frank Stallone senior (* 1919 in Gioia del Colle, Bari, Italien; † 11. Juli 2011 in Wellington, Florida, Vereinigte Staaten) anglisierte den ursprünglich italienischen Familiennamen "Staglione", um nicht mit verschiedenen Mitgliedern der New Yorker Unterwelt verwechselt zu werden. Seine Mutter heißt Jacqueline Stallone (* 29. November 1921). Durch eine Zangengeburt hat Stallone seit frühester Kindheit eine Muskellähmung im Gesicht, die ihm besonders während seiner Kindheit zu schaffen machte. Aufgrund dieser Lähmung rieten ihm seine Lehrer anfangs von einer Schauspielkarriere ab. In der Grundschule machte er erste Schritte als Amateurschauspieler und feierte als Football-Spieler in der Landesliga Erfolge. Zwei Jahre lang wurde Stallone auch am "American College of Switzerland", Leysin, ausgebildet. Hier hatte er seinen ersten Bühnenauftritt in Tod eines Handlungsreisenden. Zurück in den USA schrieb er sich an der Universität von Miami ein und begann, sich als Autor zu versuchen. Stallone verließ die Universität allerdings vor seinem Abschluss, um eine Karriere als Schauspieler in Angriff zu nehmen. Zunächst wenig erfolgreich, trat er mit 24 Jahren aus Geldnot für 200 US-Dollar als Hauptdarsteller "Stud" ("Deckhengst") in dem Erotikfilm "The Party at Kitty and Stud’s" auf. Daneben übernahm Stallone aber auch kleine Rollen in Filmen von Woody Allen ("Bananas") und Dick Richards ("Fahr zur Hölle, Liebling"). Der Durchbruch für Stallone war das Boxer-Drama um "Rocky Balboa", einem Boxer und Niemand aus Philadelphia. Durch einen Kampf des Boxers Chuck Wepner gegen den damaligen Weltmeister Muhammad Ali inspiriert, schrieb Stallone innerhalb weniger Tage ein Drehbuch und bot es einigen Filmproduzenten mit der Bedingung an, die Hauptrolle zu spielen. Er setzte sich schließlich durch. "Rocky" wurde mit einem Budget von knapp 1,1 Mio. US-Dollar gedreht und im Jahr 1976 zum großen Überraschungserfolg an den Kinokassen. Der Film machte Stallone über Nacht zum Star, wurde 1977 in zehn Kategorien für den Oscar nominiert und gewann den Preis für den besten Film, die beste Regie und den besten Schnitt. Stallone selbst erhielt Nominierungen als bester Hauptdarsteller und für das beste Originaldrehbuch. Gleichzeitig in diesen Kategorien waren zuvor für einen Film nur Charlie Chaplin und Orson Welles nominiert worden. Die mehrfachen Fortsetzungen von "Rocky", die er mit Ausnahme des fünften Teils selbst als Regisseur inszenierte, waren weniger anspruchsvoll als das Original und setzten mehr auf Action, entsprachen aber dem Zeitgeist der 1980er Jahre. Insgesamt gilt die Reihe als eine der bekanntesten filmischen Rezeptionen des American Dream. Der kommerzielle Erfolg hielt an. Stallone wurde weltweit zu einem der populärsten Schauspieler dieses Jahrzehnts. Im Jahr 1978 gab Stallone mit dem Film "Vorhof zum Paradies" sein Debüt als Regisseur. Unterdessen versuchte er sich auch an Projekten wie Norman Jewisons Gewerkschaftsfilm "F.I.S.T. – Ein Mann geht seinen Weg" – einem typischen Film des New Hollywood. Hierbei spielte Stallone die Hauptrolle und arbeitete am Drehbuch mit. Einen weiteren kommerziellen Erfolg landete Stallone mit "Rambo", basierend auf dem Bestseller-Roman "First Blood" von David Morrell (erschienen 1972). Hier setzte sich Stallone kritisch mit dem Vietnamkrieg und der damaligen Stimmung der amerikanischen Bevölkerung gegenüber dem US-Militär auseinander. Der Film wurde von den Kritikern kontrovers diskutiert. Stallone drehte auch hier Fortsetzungen. Diese setzten wiederum mehr auf Action, noch mehr Patriotismus sowie den damit verbundenen Zeitgeist der Reagan-Ära und des Kalten Krieges. 1983 arbeitete Sylvester Stallone als Regisseur mit John Travolta an der Fortsetzung von "Saturday Night Fever". Der Film "Staying Alive" erhielt zwar sehr negative Kritiken, wurde jedoch ein beachtlicher kommerzieller Erfolg.. Den Höhepunkt seiner Popularität erreichte Stallone im Jahr 1985: Mit "Rambo II" und "Rocky IV" zeichnete er für gleich zwei der drei kommerziell erfolgreichsten Filme des Jahres verantwortlich. Im Jahr 1986 erschien der Film "Die City-Cobra". Der Titel landete in den US-Jahrescharts von 1986 auf Rang 15. Die nachfolgenden Filme "Over The Top" und "Lock Up" floppten an den nordamerikanischen Kinokassen, obgleich sie in Deutschland jeweils über eine Million Zuschauer in die Kinos lockten. Als auch die Fortsetzungen zu seinen Paraderollen Rocky und Rambo enttäuschten – das Einspielergebnis von "Rambo III" in den USA entsprach nur einem Drittel des erfolgreichen Vorgängers, und "Rocky V" geriet zu einem seiner größten Flops – geriet Stallones Karriere ins Stocken. Versuche, sein martialisches Image in den 1990er Jahren durch humorvolle Einlagen in Filmen wie "Oscar – Vom Regen in die Traufe" und "Stop! Oder meine Mami schießt!" aufzulockern, scheiterten. Stallone sah ein, dass ihn die breite Masse nur als Actiondarsteller akzeptierte. Mit Filmen wie "Cliffhanger – Nur die Starken überleben", "Demolition Man" und "The Specialist" knüpfte er an seine Erfolge aus den 80er Jahren an. Später aber floppten auch typische Action-Reißer wie "Judge Dredd", "Assassins – Die Killer" und "Daylight" an den US-Kinokassen. Im Jahr 1997 überzeugte Stallone das Publikum und die Kritiker mit seiner darstellerischen Leistung in "Cop Land". Für seine Rolle als übergewichtiger Sheriff einer überwiegend von Polizisten bewohnten Kleinstadt hatte er extra 15 kg zugenommen und konnte neben Kollegen wie Robert De Niro, Harvey Keitel und Ray Liotta bestehen. Die nun folgenden Filme "Get Carter – Die Wahrheit tut weh" und "Driven" erwiesen sich erneut als große Flops. Daraufhin entstanden eine Reihe von Filmen mit Geld aus deutschen Filmfonds, die nur kurz in den Kinos waren oder wie "Avenging Angelo" oder "Shade" gar nicht in den deutschen Kinos starteten. Für sein Comeback begann Stallone mit der Arbeit an Fortsetzungen zu seinen erfolgreichsten Rollen "Rocky" und "Rambo", die zu drehen er sich lange geweigert hatte. Im Dezember 2005 wurde mit den Dreharbeiten zu "Rocky Balboa" begonnen, welcher im Februar 2007 in den deutschen Kinos anlief und den ersehnten Erfolg an den Kinokassen brachte. Mit dem im Folgejahr veröffentlichten, ebenfalls erfolgreichen vierten Rambo-Film gelang es Stallone endgültig, wieder Fuß in Hollywood zu fassen. Im August 2010 erschien der Actionfilm "The Expendables". Für diesen übernahm Stallone neben der Hauptrolle abermals Drehbuch und Regie. Damit stand er 27 Jahre nach "Staying Alive" erstmals wieder für einen Film hinter der Kamera, der nicht Teil der Rocky- bzw. Rambo-Franchise war. Bereits am Startwochenende spielte der Film knapp 35 Millionen US-Dollar ein – ein Rekord in Stallones Karriere. Mitte September übersprang er in den USA die 100-Millionen-Dollar-Hürde. Dies war Stallone zuletzt 25 Jahre zuvor mit "Rocky IV" gelungen. Weltweit spielte der Film knapp 275 Millionen US-Dollar ein. Der Erfolg des Films führte im Jahr 2012 zur Veröffentlichung einer Fortsetzung. In "The Expendables 2" wirkte Stallone erneut als Drehbuchautor und Hauptdarsteller mit, die Regie überließ er jedoch Simon West. Das weltweite Einspielergebnis des Films übertraf mit über 300 Millionen US-Dollar das des Vorgängers. Im Jahr 2013 war Stallone zum ersten Mal in seiner Karriere in drei Kinofilmen zu sehen. Sowohl die beiden Actionfilme "Shootout – Keine Gnade" und "Escape Plan" als auch die Sportkomödie "Zwei vom alten Schlag" floppten jedoch in den USA mit einem Einspielergebnis von jeweils weniger als 30 Millionen US-Dollar. "Escape Plan" war allerdings ein internationaler Erfolg und spielte allein im Ausland über 100 Millionen US-Dollar ein. Sonstiges. Am 21. Mai 2007 wurde Stallone in Australien wegen illegaler Einfuhr von Wachstumshormonen zu einer Geldstrafe in Höhe von 12.000 A$ (ca. 7.300 Euro) verurteilt. Stallone hatte am 16. Februar 2007 bei seiner Einreise 48 in seinem Gepäck befindliche Ampullen mit den Muskelaufbaupräparaten Jintropin sowie Testosteron verschwiegen. Als Beamte drei Tage später sein Hotelzimmer durchsuchen wollten, warf er vier Ampullen Testosteron aus dem Fenster. Im Zuge der US-Wahlen 2008 gehörte Stallone, neben anderen namhaften Darstellern wie „Terminator“ Arnold Schwarzenegger und „Superman“ Dean Cain zu den Befürwortern des Präsidentschaftskandidaten John McCain. Stallone ist zusammen mit Bruce Willis, Demi Moore, Jackie Chan und Arnold Schwarzenegger Mitbegründer der Restaurantkette Planet Hollywood. Im Jahr 2009 verletzte sich Stallone während der Dreharbeiten zum Film "The Expendables" bei einer Kampfszene mit Steve Austin und zog sich einen Haarriss im Halswirbel zu, dem vier Operationen folgten, in deren Verlauf ihm ein Metallplättchen in den Nacken eingesetzt wurde. Als Resultat dieses Genickbruches darf Stallone künftig keine Stunts mehr ausführen, da die nächste Verletzung an seiner Wirbelsäule eine Querschnittlähmung oder sogar seinen Tod zur Folge haben könnte. Im Jahr 2011 wurde Stallone in die International Boxing Hall of Fame aufgenommen. In den deutschsprachigen Fassungen seiner Filme wird Stallone von Thomas Danneberg synchronisiert, der auch Arnold Schwarzeneggers deutsche „Stammstimme“ ist. In den „Expendables“-Filmen spricht Danneberg tatsächlich beide Rollen. In Stallones frühen Filmen, so z.B. in "Rocky", lieh ihm mehrfach Jürgen Prochnow seine Stimme. Privates. Stallone erlitt bei seiner Geburt eine Verletzung des VII. Hirnnerven (Nervus facialis). Der linke untere Abschnitt seines Gesichts ist deswegen gelähmt, inklusive Teile seiner Lippen und seines Kinns, woraus der für ihn typische Gesichtsausdruck folgt. Als Kind wurde er dafür gehänselt, inzwischen sind der zähnefletschende Anblick und die leicht verwaschene Aussprache jedoch sein Markenzeichen. Stallone heiratete dreimal. Aus seiner ersten Ehe mit Sasha Czack (1974–1985) stammen seine beiden Söhne Sage (* 5. Mai 1976; † Juli 2012), der in "Rocky V" als Rockys Sohn sowie in "Daylight" mitspielte, und Seargeoh (* 1979), als Rockys Baby in "Rocky II" zu sehen. Seine zweite Ehe mit Brigitte Nielsen (1985–1987) blieb kinderlos. Aus der dritten Ehe mit Jennifer Flavin, welche im Mai 1997 geschlossen wurde, gingen drei Töchter hervor: Sophia Rose (* 1996), Sistine Rose (* 1998) und Scarlet Rose (* 2002). Auszeichnungen (Auswahl). Im Laufe seiner Karriere wurde Sylvester Stallone für diverse renominerte Filmpreise nominiert. Die meisten Nominierungen sind auf das Boxdrama Rocky zurückzuführen, für das er sowohl als Darsteller wie auch als Drehbuchautor Aufmerksamkeit erlangen konnte. Die Folgejahre von Stallone seiner Karriere wurden überwiegend von Negativpreisen dominiert, so erhielt er zehn mal die Goldene Himbeere. Durch das erneute Boxdrama "Creed – Rocky’s Legacy", gehörte Stallone seit knapp 40 Jahren erneut zum Nominiertenkreis bei den Golden Globes. Insgesamt werden Stallone 33 Preise sowie 34 Nominierungen zugesprochen, die folgende Auswahl listet die bekanntesten auf. Stasi-Unterlagen. Die Unterlagen des Ministeriums für Staatssicherheit der DDR, kurz Stasi-Unterlagen, lassen sich in Karteien, Akten, audio-visuelle Medien und maschinenlesbare Daten (Disketten, Magnetbänder, Magnetplatten, Datenbanken) aufteilen. Es sind bisher 39 Millionen Karteikarten und 111 Kilometer Akten aufgefunden worden. In der Stasi-Unterlagen-Behörde werden außerdem 1,75 Mio Fotografien, 2.800 Filme und Videos sowie 28.400 Tonbänder verwahrt. Darüber hinaus existieren noch rund 15.500 Behältnisse mit bisher ungesichtetem, zerrissenem Schriftgut. Das so genannte Stasi-Unterlagen-Gesetz regelt die Verwendung der Unterlagen, die vom Bundesbeauftragten für die Unterlagen des Staatssicherheitsdienstes der ehemaligen Deutschen Demokratischen Republik (BStU) verwaltet werden. Es legt unter anderem auch fest, dass die Unterlagen nach archivfachlichen Grundsätzen bewertet, geordnet, erschlossen und verwahrt werden. Die Überlieferung des Ministeriums für Staatssicherheit sowie die Unterlagen der Bezirksverwaltungen Potsdam und Berlin lagern im Archiv der Zentralstelle in Berlin-Lichtenberg. In zwölf der ehemals 15 Bezirksstädte der Deutschen Demokratischen Republik gibt es heute Außenstellen der BStU. In ihnen werden die Unterlagen der jeweiligen Bezirksverwaltungen des Staatssicherheitsdienstes archivisch bearbeitet und der Öffentlichkeit zugänglich gemacht. Einige der Unterlagen wie die sogenannten Rosenholz-Akten oder die über den Spion James W. Hall erlangten Dokumente gerieten nach der Wiedervereinigung in die USA und stehen in Deutschland nur noch teilweise zur Verfügung. Die Zugänglichkeit der Akten für Dritte ist auch ein Streitthema, wie die Verfahren von Helmut Kohl zeigen. Rettung und Öffnung während der Wende. Bezirks-Archiv in Erfurt, 4. Dezember 1989 Ab Mitte November 1989 begannen Mitarbeiter der Staatssicherheit Teile ihrer Unterlagen auf Anweisung von Erich Mielke abzutransportieren und zu zerstören. Nachdem das Ministerium für Staatssicherheit in das Amt für Nationale Sicherheit umgewandelt wurde und die Volkskammer als neuen Leiter Wolfgang Schwanitz bestimmt hatte, erneuerte dieser am 22. November 1989 unter „strengster Geheimhaltung“ die Anweisung seines Vorgängers Mielke. Irgendwann fiel Bürgerrechtlern auf, dass in Gebäuden der Staatssicherheit Dinge verbrannt wurden und Gegenstände per Laster fortgeschafft wurden. Es wurde deshalb vor mehreren Gebäuden Mahnwachen aufgestellt und Einlass erzwungen. So wurde am Morgen des 4. Dezember 1989 die Bezirksstelle des MfS in Erfurt besetzt und am Abend desselben Tages folgten weitere Besetzungen, beispielsweise in Greifswald, Rostock, Bad Doberan, Stralsund und Wismar. Als Folge davon gab Schwanitz die Anweisung die Vernichtung der Akten zu beenden. Im Februar 1990 gab es mit Zustimmung des Runden Tisches eine Anweisung des Ministerrates die elektronischen Datenträger zu vernichten und mit der Selbstauflösung der Hauptverwaltung Aufklärung wurden auch deren Akten weitgehend vernichtet (siehe auch: Rosenholz-Akten). Als Zusatzklausel im Einigungsvertrag wurde vereinbart, unter anderem unter dem Druck eines Hungerstreiks von Bürgerrechtlern im September 1990 in der Zentrale der Staatssicherheit in Berlin, mehreren Mahnwachen und gegen die ursprüngliche Absicht von Vertretern der Bundesregierung und des Ministers des Inneren Peter-Michael Diestel, dass die sonst in Westdeutschland übliche Sperrfrist für Archivgut (Bundesarchivgesetz) nicht angewendet wird und dass Stasi-Opfer ihre Akten einsehen können (Stasi-Unterlagen-Gesetz). Rechtsstreit um Akteneinsicht. Nach der Wende gab es wiederholt Streit, da die Akten nicht nur für die private Akteneinsicht, Behörden und Forscher, sondern auch für Medienvertreter und Parlamente genutzt werden. Sehr prominent war beispielsweise der Gerichtsstreit von Helmut Kohl, der sogenannte Fall Kohl. Weitere prominente Fälle betrafen Gregor Gysi und Manfred Stolpe. Übergabe von Unterlagen an die USA. 13.088 Seiten Dokumente, die der Spion James W. Hall über die Tätigkeit der National Security Agency gegen die Bundesrepublik dem MfS zukommen ließ, gingen in den Besitz der Gauck-Behörde über und wurden 1992 unter Bruch des Stasi-Unterlagen-Gesetzes mit Genehmigung des Bundesinnenministeriums zurück in die USA gebracht. Die Rosenholz-Dateien, die 1990 in die USA gelangten, wurden hingegen 2003 an Deutschland zurückgegeben und sind einsehbar. Rekonstruktion. Von den in den letzten Monaten der DDR zerstörten Teilen der Unterlagen fanden sich viele tausend Säcke mit unterschiedlich stark zerschnitzelten Materialien, die wieder rekonstruiert werden sollten. Bis zum Februar 2012 konnte der Inhalt von etwa 440 der insgesamt etwa 16.000 Säcke manuell bearbeitet und rund 1.000.000 Blatt an Schriftgut rekonstruiert werden. Im Jahr 2007 begann zusätzlich ein Projekt zur maschinellen Rekonstruktion. Das Fraunhofer-Institut für Produktionsanlagen und Konstruktionstechnik in Berlin entwickelte die Stasi-Schnipselmaschine, Behördenbezeichnung „Virtuelle Rekonstruktion vorvernichteter Stasi-Akten“. Dabei werden die zum Teil geschredderten Papierschnipsel in Folie eingeschweißt, gescannt, nach mehreren Merkmalen unterschieden und dann virtuell zusammengesetzt. Schriftgut. Die Schriftgutbestände gliedern sich in archivierte Ablagen, das heißt Unterlagen, die vom Staatssicherheitsdienst selbst archiviert wurden, und in Unterlagen der Diensteinheiten. Letzteres sind Akten, die sich 1989/90 noch in Bearbeitung befanden. Es handelt sich um so genannte „aktive“ Vorgänge (operative Vorgänge, also Beobachtung von und Maßnahmen gegen bestimmte Personen) und Verwaltungsschriftgut. Die archivierten Ablagen sind komplett über personenbezogene Karteien zugänglich, jedoch nur in seltenen Fällen themenbezogen recherchierbar. Die Unterlagen der Diensteinheiten werden bei der BStU archivisch erschlossen, so dass sie sachthematisch und personenbezogen zugänglich sind. Bisher wurden 81 Prozent der Unterlagen der Diensteinheiten archivfachlich bearbeitet. Wichtige Aktenkategorien. IM-Akte: Die Akte zu einem inoffiziellen Mitarbeiter (IM) besteht gemäß den Aktenführungsprinzipien des MfS in der Regel aus drei Teilen. Teil I, die so genannte Personalakte, enthält Dokumente zur Person des IM. Dabei handelt es sich um Unterlagen, die bei der Überprüfung des IM-Kandidaten angefallen sind, den Werbungsbeschluss, die Verpflichtung (soweit schriftlich erfolgt), regelmäßige Einschätzungen zur Grundlage der Zusammenarbeit, zur Gesinnung, sowie zu Fähigkeiten und Möglichkeiten des IM, außerdem Dokumente zu etwaigen Überprüfungsmaßnahmen nach der Werbung. Teil II, die so genannte Arbeits-/Berichtsakte, besteht aus den Berichten des IM und den Treffberichten des Führungsoffiziers. Teil III, die so genannte Beiakte zur Personalakte, enthält Quittungsbelege über Gehaltszahlungen, Prämien, Urlaubsgeld und andere gezahlte Geldbeträge oder übergebene Sachwerte an den IM. Operative Personenkontrolle: Bei der Operativen Personenkontrolle (OPK) handelt es sich um einen konspirativen Vorgang zur Aufklärung und Überwachung von Personen. Er wurde meist angelegt bei Verdacht auf politisch nicht konformes Verhalten oder zur Überprüfung von Funktionären. Eine OPK erfolgte auch als Vorlauf für eine inoffizielle Tätigkeit in der Auslandsspionage. Operativer Vorgang: Ein Operativer Vorgang (OV) ist ein konspiratives Ermittlungsverfahren gegen Unbekannt oder gegen Personen, die nach der DDR-Gesetzgebung eine Straftat begangen hatten oder dies beabsichtigten. Anlass war oft schon nichtkonformes politisches Verhalten. Jeder OV hatte einen Decknamen. Karteien. Bei den Karteien handelt es sich einerseits um Informationsspeicher, andererseits um Findmittel zur Aktenrecherche. Die personenbezogenen Karteien waren – und sind auch heute noch – erforderlich, um die vom Staatssicherheitsdienst selbst archivierten Akten heraussuchen zu können. Die Kartei F 16 ist die zentrale Klarnamenkartei. Sie ist phonetisch geordnet und enthält den vollständigen Namen, die Adresse sowie weitere personenbezogene Angaben der erfassten Person. Der Grund der Erfassung wird jedoch nicht angegeben. Das definiert erst die Kartei F 22 (Vorgangskartei). Durch diese Kartei wird deutlich, ob es sich beispielsweise um einen Vorgang zu einem inoffiziellen Mitarbeiter, einen Operativvorgang (z.B. die Beobachtung eines Bürgerrechtlers) oder eine weitere Vorgangsart handelt. In der F 22 wird jedoch nicht der Klarname genannt, sondern der Deckname. Der Zusammenhang zwischen den Karteien kann nur über die einmalig vergebene Registriernummer hergestellt werden. Die F 77- Kartei enthält die Decknamen und ist ebenfalls phonetisch geordnet. Das MfS legte sie zu Zwecken der statistischen Auswertung an. Die Kerblochkartei (KK) notierte Beruf, Parteizugehörigkeit, Hobbys, Neigungen, Gewohnheiten und Interessen. Audio-visuelle Medien und maschinenlesbare Daten. Unter audio-visuellen Medien werden Fotografien, Videos, Filme und Tonträger verstanden. Es gibt etwa 1,4 Mio Fotodokumente (Fotopositive und –negative, Dias, Mikrofilme), 31.300 Tondokumente und 2.734 Filme und Videos mit Aufzeichnungen. Bei den maschinenlesbaren Daten handelt es sich um Disketten, Magnetbänder und Magnetplatten des Ministeriums für Staatssicherheit und der Bezirksverwaltungen des MfS. Es sind etwa 7.832 Datenträger vorhanden. Zu den maschinenlesbaren Daten zählen auch die Datenbanken des Staatssicherheitsdienstes. Sonstiges, Trivia. Um Spekulationen entgegenzutreten, veröffentlichte Peer Steinbrück, Kanzlerkandidat der SPD bei der Bundestagswahl 2013, seine Stasi-Akte. Sie enthält unter anderem amüsante Notizen über Steinbrücks angebliche politische Einstellungen. Stasi-Unterlagen-Gesetz. Das Gesetz über die Unterlagen des Staatssicherheitsdienstes der ehemaligen Deutschen Demokratischen Republik (Stasi-Unterlagen-Gesetz) wurde am 14. November 1991 vom Deutschen Bundestag verabschiedet. Es regelt die Verwendung der Akten des Ministeriums für Staatssicherheit (kurz: "Stasi") und seiner Vorläufer- und Nachfolgeorganisationen (vor 1950: unter anderem die Hauptverwaltung zum Schutze der Volkswirtschaft; ab 17. November 1989 Amt für Nationale Sicherheit). Anwendung. Das Stasi-Unterlagen-Gesetz ist die gesetzliche Grundlage für den Zugang zu den Unterlagen und definiert die unterschiedlichen Bedingungen für ihre Verwendung. Dieses Gesetz ist die Basis für jegliche Tätigkeit der Behörde der Bundesbeauftragten für die Stasi-Unterlagen. So legt es beispielsweise auch fest, dass die Unterlagen nach archivischen Grundsätzen verwaltet werden sollen. Bei dem Stasi-Unterlagen-Gesetz handelt es sich um ein Spezialgesetz. Es wurde notwendig, weil das Bundesarchivgesetz aufgrund der dreißigjährigen Sperrfrist und der zahlreichen personenbezogenen Daten die sofortige Nutzung der Stasi-Unterlagen nicht erlaubt hätte. Deswegen muss das Stasi-Unterlagen-Gesetz das Persönlichkeitsrecht und den Datenschutz angemessen berücksichtigen und gegen das Interesse an der Aufarbeitung abwägen. Dies geschieht zum Beispiel dadurch, dass bei Akteneinsichten bestimmte personenbezogene Daten anonymisiert werden. Beispielsweise sieht bei der Einsicht in die eigene Akte die betreffende Person nur die Informationen zu sich selbst, aber keine persönlichen oder intimen Informationen über ihre Eltern oder Freunde, die in der Akte ebenfalls erwähnt sein können. Es wird ferner auf dieses Gesetz verwiesen, um den Personenkreis festzulegen, dessen Beschäftigung im öffentlichen Dienst untragbar erscheint und welcher grundsätzlich nicht in das Beamtenverhältnis berufen werden darf. Geschichte. Die Unterlagen wurden auf Initiative der Bürgerbewegung im Zuge der friedlichen Revolution von 1989 sichergestellt (teils in geschreddertem oder ungeordnetem Zustand) und dann vom "Beauftragten der Bundesregierung für die Unterlagen des Staatssicherheitsdienstes der ehemaligen DDR" verwaltet und verarbeitet. Die Volkskammer bildete 1990 einen "Sonderausschuss zur Kontrolle der Auflösung des Ministeriums für Staatssicherheit (MfS)/Amt für Nationale Sicherheit (AfNS)" und wählte Joachim Gauck zu seinem Leiter. Gauck wurde zu einem der Initiatoren des "Stasiunterlagengesetzes der Volkskammer". Am 2. Oktober 1990, dem letzten Tag des Bestehens der DDR, wurde der parteilose Gauck von der Volkskammer zum "Sonderbeauftragten für die personenbezogenen Unterlagen des ehemaligen Staatssicherheitsdienstes der DDR" gewählt und am Tag darauf von Bundespräsident Richard von Weizsäcker und Bundeskanzler Helmut Kohl als "Sonderbeauftragter der Bundesregierung für die personenbezogenen Unterlagen des ehemaligen Staatssicherheitsdienstes" in dieser Funktion bestätigt. Die Bezeichnung dieses Amtes wechselte im Dezember 1991: mit der Verabschiedung des Stasi-Unterlagen-Gesetzes im Bundestag war Gauck jetzt "Bundesbeauftragter für die Unterlagen des Staatssicherheitsdienstes der ehemaligen DDR". Die Behörde wird (aufgrund ihres sperrigen offiziellen Titels) umgangssprachlich oft als „Gauck-Behörde“ bezeichnet (→ BStU). Gaucks erste Amtszeit dauerte bis 1995; er wurde für weitere fünf Jahre im Amt bestätigt. Da dieses Amt per Gesetz nur zwei Amtszeiten lang vom gleichen Inhaber bekleidet werden darf, konnte Gauck 2000 nicht wiedergewählt werden. Im September 2000 wurde Marianne Birthler als seine Nachfolgerin in diesem Amt ernannt. Im März 2011 übernahm der Journalist Roland Jahn das Amt des Bundesbeauftragten, der sich dafür einsetzte, dass Ende 2011 mit einer Gesetzesänderung ein Beschäftigungsverbot für ehemalige Stasi-Mitarbeiter in der Stasi-Unterlagen-Behörde eingeführt wurde und bisher Beschäftigte in andere Bundesbehörden versetzt werden sollen. Silber. Silber ist ein chemisches Element mit dem Elementsymbol Ag und der Ordnungszahl 47. Es zählt zu den Übergangsmetallen. Im Periodensystem steht es in der 5. Periode und der 1. Nebengruppe (Gruppe 11) oder Kupfergruppe. Das Elementsymbol Ag leitet sich vom lateinischen Wort "arg'"entum" für „Silber“ ab. Silber gehört zu den Edelmetallen. Es ist ein weiches, gut verformbares (duktiles) Schwermetall mit der höchsten elektrischen Leitfähigkeit aller Elemente und der höchsten thermischen Leitfähigkeit aller Metalle. Lediglich Supraflüssigkeiten und ungestörte kristalline Ausprägungen des Kohlenstoffs (Diamant, Graphen und graphennaher Graphit, Kohlenstoffnanoröhren) und des Bornitrids weisen eine bessere thermische Leitfähigkeit auf. Etymologie. Das Wort „Silber“ (althochdeutsch "silabar") leitet sich aus der gemeingermanischen Wurzel "*silubra-" ab, ebenso wie die Bezeichnungen in anderen germanischen Sprachen, so (engl. "silver"). Auch das Baskische hat das germanische Wort übernommen: "zilar". Denselben indoeuropäischen Ursprung wie die germanischen Bezeichnungen haben die baltischen (litauisch "sidabras") und die slawischen (russisch "серебро", kroatisch "srebro"). Letztlich ist das Etymon aber wohl einer orientalischen Sprache entlehnt, eine Ableitung von der semitischen Wurzel ṢRP (vgl. akkadisch "ṣarāpu", „veredeln, legieren“). Die Philologie des 19. Jahrhunderts brachte eine Vielzahl von Theorien über den Ursprung des Wortes hervor. Der bis heute häufig zu lesende Zusammenhang mit dem in Homers Ilias beschriebenen sagenhaften Land "Alybē" (), 1870 von Victor Hehn hergestellt, muss Spekulation bleiben. In anderen indoeuropäischen Sprachen geht das Wort für Silber auf die genuin indogermanische Wurzel "*arg" zurück, so und lat. "argentum". Wegen seiner Vorkommen von Silbererzen erhielt "Argentinien" seinen Namen; es ist das einzige nach einem chemischen Element benannte Land. Häufiger ist die Namensgebung eines Elementes nach einem Land, z. B. Francium, Germanium und Polonium. Geschichte. Silber wird von Menschen etwa seit dem 5. Jahrtausend v. Chr. verarbeitet. Es wurde zum Beispiel von den Assyrern, den Goten, den Griechen, den Römern, den Ägyptern und den Germanen benutzt. Zeitweise galt es als wertvoller als Gold. Das Silber stammte meistens aus den Minen in Laurion, die etwa 50 Kilometer südlich von Athen lagen. Bei den alten Ägyptern war Silber als Mondmetall bekannt. Im Mittelalter und der Frühen Neuzeit wurden in Zentraleuropa Silbererzvorkommen im Harz (Goslar), in Waldeck-Frankenberg (Frankenberg, Goddelsheim, Dorfitter, Thalitter), am Donnersberg (Imsbach), im Thüringer Wald (Ohrdruf), in Sachsen (Freiberg und im übrigen Erzgebirge, besonders Jáchymov), im Südschwarzwald (Schauinsland, Belchen, Münstertal, Feldberg), Böhmen (Kutná Hora) und der Slowakei entdeckt. Ergiebige Silbervorkommen sind darüber hinaus aus Kongsberg (Norwegen) bekannt. Größter Silberproduzent im Mittelalter war Schwaz. Bis zu 80 % des damaligen Silbers kam aus den Stollen der Schwazer Knappen. Später brachten die Spanier große Mengen von Silber aus Lateinamerika, unter anderem aus der sagenumwobenen Mine von Potosí, nach Europa. Auch Japan war im 16. Jahrhundert Silberexporteur. Durch das gestiegene Angebot sank der Silberwert in der Alten Welt. Da nach 1870 vorwiegend Gold als Währungsmetall verwendet wurde, verlor das Silber seine wirtschaftliche Bedeutung immer mehr. Das Wertverhältnis sank von 1:14 einige Zeit lang auf 1:100, später stieg es wieder etwas an. Im Februar 2012 lag es bei ungefähr 1:51. Das Angebot an Silber ist von der Verbrauchs- und Produktionsentwicklung anderer Metalle abhängig. Mitte des 19. Jahrhunderts wurde rostfreier Stahl entwickelt, der dann aufgrund seiner Gebrauchsfreundlichkeit und des attraktiven Preises nach dem Ersten Weltkrieg in die Einsatzbereiche des Silbers vordrang, etwa Servierplatten, Bestecke, Leuchter und Küchengerät. Gegenläufig dazu hat sich der Bereich Fotografie und Fotochemie unter Verwendung der Silbersalze während des ganzen 20. Jahrhunderts breit entwickelt, verliert aber seit Ende der 1990er Jahre im Zuge der Umstellung auf die digitale Abbildungstechnik wieder an Bedeutung. Silber wird zunehmend im Bereich Elektrik/Elektronik sowie zur Kontrolle von Mikroben eingesetzt. Durch den zukünftig verstärkten Einsatz von RFID-Chips wird die Nachfrage weiter ansteigen, da die Funkantennen der Chips aus Silber bestehen. Auch die Kontakte an der Oberseite von Solarzellen werden heute aus Silber gefertigt. Durch diese zum Teil neuartige Entwicklung ist die Silbernachfrage weltweit weiter steigend. Silber als Mineral und Varietäten. a>, Buskerud, Norwegen (6,4 × 4,6 × 0,6 cm) Silber hat in der Erdkruste einen Anteil von etwa 0,079 ppm. Es ist damit etwa 20 mal häufiger als Gold und rund 700 mal seltener als Kupfer. In der Natur tritt es gediegen auf, das heißt elementar; meist in Form von Körnern, seltener von größeren Nuggets, dünnen Plättchen und Blechen oder als drahtig verästeltes Geflecht (Dendrit) bzw. als dünne Silberdrähte in hydrothermal gebildeten Erzgängen sowie im Bereich der Zementationszone. Von der International Mineralogical Association (IMA) ist es daher in der Strunz'schen Mineralsystematik unter der System-Nr. 1.AA.05 bzw. veraltet unter A.01-20 als Mineral anerkannt. Neben gediegen Silber, das in der Natur bisher (Stand: 2011) an rund 4300 Fundorten nachgewiesen werden konnte, findet man es vor allem in sulfidischen Mineralen. Zu den wichtigsten sulfidischen Silbererzen zählen unter anderem Akanthit ("Silberglanz") Ag2S mit einem Silbergehalt von etwa 87 % und Stromeyerit ("Kupfersilberglanz") CuAgS mit etwa 53 % Silberanteil. Das Mineral mit dem höchsten Silberanteil von maximal 99 % ist allerdings das selten vorkommende Allargentum. Ebenfalls selten vorkommende Silberminerale sind unter anderem der Chlorargyrit (veraltet "Hornerz" bzw. "Silberhornerz") AgCl und der Miargyrit ("Silberantimonglanz") AgSbS2. Insgesamt sind einschließlich gediegen Silber bisher (Stand: 2010) 167 Silberminerale bekannt. Neben diesen Silbererzen findet man noch sogenannte silberhaltige Erze, die meist nur geringe Mengen Silber (0,01–1 %) enthalten. Dies sind häufig Bleiglanz (PbS) und Kupferkies (CuFeS2). Aus diesem Grund wird Silber häufig als Nebenprodukt bei der Blei- oder Kupferherstellung gewonnen. Ein als "Kongsbergit" bezeichnetes Silberamalgam mit einem Quecksilbergehalt von etwa 5 % wird als Varietät dem Silber zugerechnet. Nachgewiesen werden konnte Kongsbergit bisher an 35 Fundorten. Eine Silbervarietät mit einem Gehalt zwischen 10 und 30 % Gold ist unter der Bezeichnung "Küstelit" bekannt und konnte bisher (Stand: 2011) an rund 60 Fundorten nachgewiesen werden. Seit dem 18. Jahrhundert ist bekannt, dass durch Erhitzen von Akanthit bzw. bei Verhüttungsprozessen von Silbererzen künstlich (anthropogen) erzeugte Silberdrähte, meist in Form von Silberlocken entstehen können. Besonders in den letzten Jahrzehnten wurde wiederholt über die künstliche Erzeugung von Silberlocken auf Akanthitstufen in der Fachliteratur berichtet. Vorkommen und Förderung. Die wichtigsten Silbervorkommen befinden sich in Nordamerika (Mexiko, den USA und Kanada) und in Südamerika (Peru, Bolivien). Mit rund 30 % der globalen Förderung war Peru 2009 der weltweit größte Silberproduzent. Im Jahr 2011 förderte Mexiko mit 4500 t weltweit das meiste Silber. China konnte seine Produktion in den letzten 3 Jahren um mehr als 50 % steigern. Das meiste Silber wird aus Silbererzen gewonnen, die oft zusammen mit Blei-, Kupfer- und Zinkerzen als Sulfide oder Oxide vorkommen. Wichtige Fundorte von gediegenem Silber waren: Freiberg im Erzgebirge; Schwaz (Tirol); Kongsberg/Norwegen (dort auch große Kristalle); Sankt Andreasberg im Harz; Keweenaw-Halbinsel/USA (dort mit gediegenem Kupfer als „halfbreed“); Batopilas/Mexiko; Mansfelder Kupferschiefer-Revier (Eisleben, Sangerhausen; meist Silberbleche; auch als Versteinerungsmaterial von Fossilien). Zwischen dem Beginn des 20. Jahrhunderts und dem Ende des Zweiten Weltkrieges hat die jährlich geförderte Silbermenge zwar fluktuiert, ist aber im Mittel konstant geblieben. Vom Kriegsende bis heute hat sie sich mehr als verdoppelt. Das polnische Unternehmen KGHM ist mit durchschnittlich 1.200 Tonnen Jahresförderung das bedeutendste Silberunternehmen der EU und das zweitgrößte weltweit. Laut einer Studie des Rheinisch-Westfälischen Instituts für Wirtschaftsforschung, des Fraunhofer-Instituts für System- und Innovationsforschung sowie der Bundesanstalt für Geowissenschaften und Rohstoffe beträgt die weltweite Reichweite der Silberressourcen nur noch 29 Jahre. Somit ist mit einer Verknappung von Silber in den nächsten Jahrzehnten zu rechnen. Allerdings wird auch immer mehr Silber recycelt, wodurch die bekannten Vorkommen geschont werden. Ausgehend von den Daten des U.S. Geological Survey vom Januar 2013 ergibt sich in Bezug auf Reserven im Verhältnis zu den weltweiten Produktionszahlen von 2011 und 2012 eine aktuelle Reichweite (statische Reichweite) für Silber von 22 bis 23 Jahren (ohne Substitute und Recycling). Weltweite Silberproduktion im Jahr 2011 Wie bei den anderen Edelmetallen spielt die Wiederaufarbeitung silberhaltiger Materialien im Rahmen des Recyclings, beispielsweise von Fotopapieren, Röntgenfilmen, Entwickler- und Fixierbädern, Elektronikschrott und Batterien eine wichtige Rolle. Gewinnung aus Silbererzen. 20 % des Silbers wird aus Silbererzen gewonnen. Aus diesen wird das Silber meist durch Cyanidlaugung mit Hilfe einer 0,1%igen Natriumcyanid-Lösung herausgelöst. Dazu wird das Erz zunächst fein zu einem Schlamm zerkleinert. Anschließend wird die Natriumcyanid-Lösung dazugegeben. Dabei ist eine gute Belüftung wichtig, da für das Verfahren Sauerstoff benötigt wird. Das ausgefallene Rohsilber ("Werksilber") wird abgefiltert und weiter gereinigt (siehe Raffination). Gewinnung aus Bleierzen. Bei der Gewinnung von Bleierzen, z. B. aus Bleiglanz, entsteht nach dem Rösten und Reduzieren das sogenannte Rohblei oder Werkblei (genauere Informationen zur Bleigewinnung im Artikel Blei). Dieses enthält meist noch einen Anteil Silber (zwischen 0,01 und 1 %). Im nächsten Schritt wird nun das Edelmetall entfernt und so dieses wertvolle Nebenprodukt gewonnen. Zur Gewinnung muss zunächst das Silber vom größten Teil des Bleis getrennt werden. Dies geschieht durch das Verfahren des "Parkesierens" (nach Alexander Parkes, der dieses Verfahren 1842 erfand). Das Verfahren beruht auf der unterschiedlichen Löslichkeit von Silber und Blei in Zink. Bei Temperaturen bis 400 °C sind Blei (flüssig) und Zink (fest) praktisch nicht mischbar. Zunächst wird bei Temperaturen >400 °C zum geschmolzenen Blei Zink gegeben. Danach wird die Mischung abgekühlt. Da Silber im geschmolzenen Zink leicht löslich ist, geht es in die Zinkphase über. Anschließend erstarrt die Zinkschmelze als so genannter "Zinkschaum" (Zink-Silber-Mischkristalle). Dadurch kann das Silber vom größten Teil des Bleis getrennt werden. Dieser Zinkschaum wird auch als "Armblei" bezeichnet. Er wird anschließend bis zum Schmelzpunkt des Bleis (327 °C) erhitzt, so dass ein Teil des Bleis schmilzt und entfernt werden kann. Danach wird die verbliebene Zink-Blei-Silber-Schmelze bis zum Siedepunkt des Zinks (908 °C) erhitzt und das Zink abdestilliert. Das so gewonnene Produkt wird "Reichblei" genannt und enthält etwa 8–12 % Silber. Um das Silber anzureichern, wird nun die sogenannte "Treibarbeit" (Läuterung) durchgeführt. Dazu wird das Reichblei in einem Treibofen geschmolzen. Dann wird ein Luftstrom durch die Schmelze geleitet. Dabei oxidiert das Blei zu Bleioxid, das edle Silber bleibt hingegen unverändert. Das Bleioxid wird laufend abgeleitet und so nach und nach das Blei entfernt. Ist der Bleigehalt des Raffinats so weit gesunken, dass sich auf der Oberfläche der Metallschmelze keine matte Bleioxidschicht mehr bildet, das letzte Oxidhäutchen aufreißt und mithin das darunterliegende glänzende Silber sichtbar werden lässt, spricht man vom Silberblick'". Die dann vorliegende Legierung wird Blicksilber genannt und besteht zu über 95 % aus Silber. Gewinnung aus Kupfererzen. Silber ist auch in Kupfererzen enthalten. Bei der Kupferherstellung fällt das Silber – neben anderen Edelmetallen – im so genannten Anodenschlamm an. Dieser wird zunächst mit Schwefelsäure und Luft vom Großteil des noch vorhandenen Kupfers befreit. Anschließend wird er im Ofen oxidierend geschmolzen, wobei enthaltene unedle Metalle in die Schlacke gehen und entfernt werden können. Raffination. Rohsilber wird auf elektrolytischem Weg im Moebius-Verfahren gereinigt. Dazu wird das Rohsilber als Anode in eine Elektrolysezelle geschaltet. Als Kathode dient ein Feinsilberblech, als Elektrolyt salpetersaure Silbernitratlösung. Das Verfahren entspricht der elektrolytischen Reinigung des Kupfers. Während der Elektrolyse werden Silber und alle unedleren Bestandteile des Rohsilbers (beispielsweise Kupfer oder Blei) oxidiert und gehen in Lösung. Edlere Anteile wie Gold und Platin können nicht oxidiert werden und fallen unter die Elektrode. Dort bilden sie den Anodenschlamm, der eine wichtige Quelle für Gold und andere Edelmetalle ist. An der Kathode wird nun ausschließlich Silber abgeschieden. Dieses sehr reine Silber bezeichnet man als Elektrolyt- oder Feinsilber. Physikalische Eigenschaften. Silber ist ein weißglänzendes Edelmetall. Das Metall kristallisiert im kubischen-flächenzentrierten Kristallsystem. Unter Normaldruck betragen die Schmelztemperatur 961 °C und die Siedetemperatur 2212 °C. Silber hat aber bereits oberhalb von 700 °C, also noch im festen Zustand, einen deutlichen Dampfdruck. Es siedet unter Bildung eines einatomigen, blauen Dampfes. Das Edelmetall besitzt eine Dichte von 10,49 g/cm³ (bei 20 °C) und gehört daher wie alle Edelmetalle zu den Schwermetallen. Silber hat einen metallischen Glanz. Frische, unkorrodierte (Schnitt)flächen von Silber zeigen die höchsten Licht-Reflexionseigenschaften aller Metalle, frisch abgeschiedenes Silber reflektiert über 99,5 Prozent des sichtbaren Lichtes. Als „weißestes“ aller Gebrauchsmetalle wird es daher auch zur Herstellung von Spiegeln benutzt. Strichfarbe ist ein gräuliches Weiß. Mit abnehmender Korngröße wird die Farbe immer dunkler und ist bei fotografisch fein verteilten Silberkristallen schwarz. Das Reflexionsspektrum zeigt im nahen UV eine ausgeprägte Plasmakante. Silber leitet von allen Metallen Wärme und Elektrizität am besten. Wegen seiner Dehnbarkeit und Weichheit (Mohshärte von 2,5-4) lässt es sich zu feinsten, blaugrün durchschimmernden Folien von einer Dicke von nur 0,002 bis 0,003 mm aushämmern oder zu dünnen, bei 2 km Länge nur 0,1 bis 1 g wiegenden Drähten (Filigrandraht) ausziehen. Im geschmolzenen Zustand löst reines Silber leicht aus der Luft das 20-fache Volumen an Sauerstoff, der beim Erstarren der Schmelze unter Aufplatzen der bereits erstarrten Oberfläche (Spratzen) wieder entweicht. Bereits gering legiertes Silber zeigt diese Eigenschaft nicht. Chemische Eigenschaften. Silber löst sich nur in oxidierenden Säuren, wie beispielsweise Salpetersäure. In nichtoxidierenden Säuren ist es nicht löslich. Auch in Cyanid-Lösungen löst es sich bei Anwesenheit von Sauerstoff durch die Bildung eines sehr stabilen Silbercyanid-Komplexes, wodurch das elektrochemische Potential stark verschoben ist. In konzentrierter Schwefel- und Salpetersäure löst sich Silber nur bei erhöhten Temperaturen, da es durch Silbernitrat und -sulfat passiviert ist. Silber ist stabil gegen geschmolzene Alkalihydroxide wie Natriumhydroxid. Im Labor verwendet man darum für diese Schmelzen auch Silber- anstatt Porzellan- oder Platintiegel. Biologisch-medizinische Eigenschaften. Silber wirkt in feinstverteilter Form bakterizid, also schwach toxisch, was aufgrund der großen reaktiven Oberfläche auf die hinreichende Entstehung von löslichen Silberionen zurückzuführen ist. Im lebenden Organismus werden Silberionen jedoch in der Regel schnell an Schwefel gebunden und scheiden aus dem Stoffkreislauf als dunkles, schwer lösliches Silbersulfid aus. Die Wirkung ist oberflächenabhängig. Dies wird in der Medizin genutzt für Wundauflagen wie für invasive Geräte (z. B. endotracheale Tuben). In der Regel wird Silber für bakterizide Zwecke daher in Medizinprodukten als Beschichtung oder in kolloidaler Form eingesetzt, zunehmend auch Nanosilber. Silberionen finden als Desinfektionsmittel und als Therapeutikum in der Wundtherapie Verwendung. Sie können silberempfindliche Erreger nach relativ langer Einwirkzeit reversibel inhibieren, können darüber hinaus bakteriostatisch oder sogar bakterizid (also abtötend) wirken. Man spricht hier vom oligodynamischen Effekt. In manchen Fällen werden Chlorverbindungen zugesetzt, um die geringe Wirksamkeit des Silbers zu erhöhen. Die beschriebenen Effekte können zum Zelltod führen. Neben der Argyrie, einer irreversiblen schiefergrauen Verfärbung von Haut und Schleimhäuten, kann es bei erhöhter Silberakkumulation im Körper außerdem zu Geschmacksstörungen und Riechstörungen sowie zerebralen Krampfanfällen kommen. Silber reichert sich in der Haut, der Leber, den Nieren, der Hornhaut der Augen, im Zahnfleisch, in Schleimhäuten, Nägeln und der Milz an. Umstritten ist die therapeutische Einnahme von kolloidalem Silber, das seit einigen Jahren wieder verstärkt ins Blickfeld der Öffentlichkeit rückt und über Internet und andere Kanäle vermarktet wird. Es wird vor allem als Universalantibiotikum angepriesen und soll noch andere Leiden kurieren können. Wissenschaftliche Studien über die Wirksamkeit gibt es nicht. Bereits die mit einem gängigen Antibiotikum vergleichbare Wirkung ist bei peroraler Verabreichung stark anzuzweifeln. Sehr geringe oral aufgenommene Mengen bis 5 Mikrogramm Silber pro Kilogramm Körpergewicht und Tag sollen nach Ansicht der amerikanischen Umweltschutzbehörde EPA zu keiner Vergiftung führen. Die Auswirkungen von Silber in Form von Nanopartikeln auf menschliche Gesundheit und Umwelt werden unter REACH im Jahr 2014 im Rahmen der Stoffbewertung von den Niederlanden geprüft. Mythologische Eigenschaften. Silber gilt in vielen Märchen und Sagen als das einzige Metall, das in der Lage ist, Werwölfe und andere mythologische Wesen zu töten, was auch in modernen Fantasy-Romanen und Filmen häufig aufgegriffen wird. Silberpreis. Der Preis des Silbers wird auf dem offenen Markt bestimmt. Das geschieht seit dem 17. Jahrhundert am London Bullion Market. Die Einführung des Silberfixings 1897 in London markiert den Beginn der Marktstruktur. 1987 wurde die London Bullion Market Association (LBMA) gegründet. Drei LBMA-Mitglieder nehmen am Silberfixing an jedem Arbeitstag unter Vorsitz der Bank of Nova Scotia - ScotiaMocatta teil. Weitere Mitglieder des Silberfixings sind die Deutsche Bank AG London und HSBC Bank USA NA London Branch. In den 1970er Jahren führte die Silberspekulation der Brüder Hunt zu einem Rekordstand beim Silberpreis. Diese kauften im Zusammenspiel mit vermögenden Geschäftsleuten aus Saudi-Arabien riesige Mengen an Silber sowie Silberkontrakten an den Warenterminbörsen und versuchten, den Silbermarkt zu beherrschen. Am 18. Januar 1980 wurde beim Silberfixing am London Bullion Market ein Rekordstand von 49,45 US-Dollar pro Feinunze ermittelt. Den nächsten Rekord erreichte der Silberpreis erst über 31 Jahre später, am 25. April 2011, als die Feinunze Silber in Hong Kong mit 49,80 US-Dollar gehandelt wurde. Dem Inflationsrechner des United States Department of Labor zufolge entsprechen 49,45 US-Dollar von 1980 im Jahr 2011 einer Summe von 134,99 US-Dollar. Daher dürfte es noch lange dauern bis der Preis von 1980 unter Berücksichtigung der Inflation überschritten wird. Für den standardisierten Silberhandel an Rohstoffbörsen wurde „XAG“ als eigenes Währungskürzel nach ISO 4217 vergeben. Es bezeichnet den Preis einer Feinunze Silber (31,1 Gramm). Währung und Wertanlage. Die früher wichtigste Verwendung war die Herstellung von Silbermünzen als Zahlungsmittel. Für Münzen wurde in der Antike und im Mittelalter nur Silber, Gold und Kupfer bzw. Bronze verwendet. Der Münzwert entsprach weitgehend dem Metallwert (Kurantmünze). In Deutschland waren bis 1871 Silbermünzen (Taler) vorherrschend, die Währung war durch Silber gedeckt (Silberstandard). Nach 1871 wurde der Silber- durch den Goldstandard abgelöst. Der Grund für die Verwendung dieser Edelmetalle waren die hohe Wertspeicherung (Seltenheit) und Wertbeständigkeit von Silber und Gold. Erst in moderner Zeit werden Münzen auch aus anderen Metallen, wie Eisen, Nickel oder Zink hergestellt, deren Metallwert aber geringer ist und nicht dem aufgeprägten Wert entspricht (Scheidemünze). Silber wird als Münzmetall heute meist nur noch für Gedenk- und Sondermünzen verwendet. Besonders in Zeiten von Wirtschaftskrisen – wie z. B. ab 2007 – hat sich neben Gold auch das Edelmetall Silber durch seine Kurs- und Wertstabilität als eine der wichtigsten Anlageform in verschiedensten Ausprägungen wie z. B. Silberbarren, Silberschmuck oder Silbermünzen erwiesen. Wirtschaft und Sport. Silber ist neben Gold und Edelsteinen (z. B. Diamanten) ein wichtiges Material für die Herstellung von Schmuck und wird seit Jahrhunderten für erlesenes und wertbeständiges Essbesteck ("Tafelsilber") und Sakrales Gerät verwendet. Bei Schmuck, Gerät und Barren kann der Silbergehalt, sofern angegeben, anhand des Feingehaltstempels abgelesen werden. Silbermedaillen werden bei vielen Sportwettkämpfen, z. B. bei den Olympischen Spielen, als Zeichen für das Erreichen des zweiten Platzes verliehen. Die olympische Goldmedaille besteht ebenfalls zu 92,5 % aus Silber und ist lediglich mit 6 g reinem Gold vergoldet. Auch in anderen Bereichen werden Auszeichnungen häufig als „silbern“ bezeichnet. Beispiele sind Silberner Bär, Silberner Griffel, Silberner Schuh und Silbernes Lorbeerblatt. Sehr begehrt ist es auch bei Musikinstrumenten, da es aufgrund seiner Dichte einen schönen, warmen Ton von sich gibt, leicht zu verarbeiten ist und z. B. bei der Querflöte das empfindliche Holz ersetzt. Silber besitzt die höchste elektrische Leitfähigkeit aller Metalle, eine hohe Wärmeleitfähigkeit und eine ausgeprägte optische Reflexionsfähigkeit. Dadurch ist es für Anwendungen in Elektrik, Elektronik und Optik prädestiniert. Die Reflexionsfähigkeit von Glasspiegeln beruht auf der chemischen Versilberung von Glasscheiben. Dieses Prinzip wird auch bei der Fertigung von Christbaumschmuck, Optiken und Licht- oder Wärmereflektoren verwendet. Eine Suspension von Silberpulver in Klebstoffen macht sie zu elektrisch (und thermisch) leitfähigen Klebern. Die Schwärzung der Silberhalogenide infolge ihres Zerfalls durch Licht und Entwicklung wird beim Fotopapier genutzt. Es bildete von etwa 1850 bis zur Verbreitung der Digitaltechnik die Grundlage der Fotografie. Silberlegierungen (mit Kupfer, Zink, Zinn, Nickel, Indium usw.) werden in der Elektrotechnik und Löttechnik als Lotlegierungen (sogenanntes Hartlöten), Kontaktmaterialien (z. B. in Relais) und Leitmaterial (z. B. als Kondensatorbeläge) verwendet. Silberlegierungen werden aber auch in der Dentaltechnik und im dekorativen Bereich verwendet. Der früher zum Füllen hohler Silbergefäße verwendete "Silberkitt" enthält trotz seines Namens kein Silber. Näheres hierzu hier. Silbergeschirre und -geräte geben beim Gebrauch immer etwas Silber an die Speisen und Getränke ab, was sich besonders bei manchen Getränken (Wein) in einem unangenehmen Metallgeschmack bemerkbar machen kann. Um dies zu vermeiden, werden silberne Trinkgefäße oft innen vergoldet. Durch Silbersulfid angelaufenes Silber wird entweder poliert oder chemisch reduziert (siehe Silberpflege). Silber in medizinnahen Anwendungen. Werkstoffe oder Beschichtungsverfahren nutzen die antibakterielle Wirkung von Silber in Medizinprodukten und anderen Anwendungen in Form von Silberbeschichtungen, als kolloidales Silber, Nanosilber oder in Form von Silberfäden. In Bezug auf die nichtmedizinische Anwendung von Silber empfiehlt das Bundesinstitut für Risikobewertung (BfR) vorerst generell auf den Einsatz von nanoskaligem Silber oder nanoskaligen Silberverbindungen in verbrauchernahen Produkten zu verzichten. Silber in der Katalyse. Silberkatalysatoren finden industrielle Anwendung in der Partialoxidation von Ethen zu Ethylenoxid bzw. von Methanol zu Formaldehyd. Durch die Bedeutung des Silbers für die Oxidationskatalyse sind zahlreiche Untersuchungen zur Wechselwirkung von Silberoberflächen mit Sauerstoff durchgeführt worden. Verschiedene Sauerstoffspezies sind an der Silberoberfläche, im oberflächennahen Bereich und im Silbervolumen lokalisiert. Neben Spezies, die auf das Substrat übertragen werden und mehr oder weniger selektiv zur Oxidation eines Moleküls führen, sind auch Zentren vorhanden, die eine katalytische Dehydrierung ermöglichen. Dies ist interessant im Zusammenhang mit der Tatsache, dass die Partialoxidation von Methanol zu Formaldehyd unterstöchiometrische Mengen an Sauerstoff erfordert. Die Bildung der Sauerstoffspezies ist abhängig von der Temperatur, aber auch von der Art der Reaktionsatmosphäre. Bestimmte O-Spezies sind "ex situ" nicht nachweisbar und stellen hohe Anforderungen an die eingesetzten Charakterisierungsmethoden. Silber katalysiert anderseits auch die Reduktion organischer Substrate durch Wasserstoff, z. B. die Hydrierung von α,β-ungesättigten Carbonylverbindungen. Die Wechselwirkung von H2 mit Silberkatalysatoren ist – verglichen mit klassischen Hydrierkatalysatoren wie Platin – nur schwach ausgeprägt. Ag-Katalysatoren sind deshalb in der Lage, Doppelbindungen von bi-/multifunktionellen Molekülen selektiv zu hydrieren (z. B. Hydrierung von Acrolein zu Allylalkohol). Nichtmetallische und nicht bakterizide Silberanwendungen. Silber wird als Lebensmittelfarbstoff E 174 auch im Speisenbereich verwendet, zum Beispiel für Überzüge von Süßwaren wie etwa Pralinen und in Likören. Silbersalze färben Glas und Emaille gelb. Silberlegierungen. Silber ist mit vielen Metallen legierbar. Gut legieren lässt es sich mit Gold, Kupfer oder Palladium (ein Palladiumgehalt von 20 bis 30 Prozent macht das Silber anlaufbeständig). In begrenztem Umfang lässt sich Silber mit Chrom, Mangan oder Nickel legieren. Legieren erhöht zumeist die Härte des Silbers. Mit Cobalt oder Eisen lässt es sich nicht legieren. Die wichtigsten Silberlegierungen sind heute Kupfer-Silber-Legierungen. Sie werden meist nach ihrem Feingehalt an Silber, angegeben in Tausendstel, bezeichnet. Die gebräuchlichsten Silberlegierungen haben einen Feingehalt von 800, 835, 925 und 935 Tausendstel Teile Silber. 925er Silber wird nach der britischen Währung Pfund Sterling als Sterlingsilber bezeichnet. Es ist die wichtigste Silberlegierung und wird u. a. zur Herstellung von Münzen, Schmuck und Besteck verwendet. Im Hinblick auf den Export werden heute Korpuswaren vorwiegend aus einer Silberlegierung mit einem Feingehalt von 935/1000 hergestellt, da die Waren mit Silberloten gelötet werden, deren Feingehalt niedriger ist, um letztendlich dem gesetzlich geforderten Gesamtfeingehalt von beispielsweise 925/1000 zu genügen. Eine neuartige Legierung aus England ist Argentium™ Sterling Silber, das nicht anlaufen soll. Auch bei stark beanspruchten Bestecken geht seit Jahren der Trend zum Sterlingsilber. Silberwaren werden in der Regel abschließend feinversilbert, Bestecke und Verschleißartikel hartversilbert. Durch die reine Silberbeschichtung werden die verkaufsfördernde, strahlendweiße Silberfarbe und ein stark vermindertes Anlaufen der Waren erreicht. Eine im Mittelalter für die Verzierung von Kunstwerken verwendete Silberlegierung ist das Tulasilber, eine Legierung von Silber, Kupfer, Blei und Schwefel. Silber wird häufig auch vergoldet, man nennt es mit einem aus dem Französischen beziehungsweise Lateinischen stammenden Wort dann „Vermeil“. Neusilber ist dagegen kein Silber, sondern eine optisch silberähnliche, weiße, unedle Metalllegierung aus Kupfer, Nickel und Zink in veränderlichen Gewichtsanteilen. Eine vor allem bei Bestecken und Gebrauchsgegenständen übliche Bezeichnung für Neusilber ist Alpacca. Als „Tibetsilber“ wurde ursprünglich im Handel eine Legierung mit nur geringem (250 Tausendstel) Silberanteil bezeichnet, neuerdings werden vom Schmuckhandel fast sämtliche (versilberte und unversilberte) Zinnlegierungen so bezeichnet. Damit die Ware mit Silber galvanisiert werden kann, wird vorher vernickelt. Silber hingegen ist in diesen Legierungen, die früher Weißmetall, Metall oder Weichgussmetall genannt wurden, nicht enthalten. Verbindungen. Silber kommt in chemischen Verbindungen hauptsächlich in der Oxidationsstufe +I vor, die Oxidationsstufen +II, +III und +IV sind selten und meist nur in Komplexen stabil. Silberhalogenide. Zu den wichtigsten Silberverbindungen zählen die Silberhalogenide. Sie zersetzen sich im Licht und werden deshalb viel in der Fotografie gebraucht. Silberhalogenide sind außer dem Fluorid schwer in Wasser löslich und dienen zum Nachweis von Halogenid-Ionen. Silberchalkogenide. Die Silberoxide mit Silber in Oxidationsstufen größer +I können nur auf elektrochemischen Wege dargestellt werden. Dies sind die Verbindungen III)-oxid AgIAgIIIO2 (fälschlicherweise auch Silber(II)-oxid AgO bezeichnet), III)-oxid Ag3O4 und Silber(III)-oxid Ag2O3. Weitere wichtige Silberverbindungen. Silber in höheren Oxidationsstufen tritt beispielsweise im Tetrapyridinosilber(II)-persulfat – [Ag(C5H5N)4]S2O8, im Kaliumtetrafluoroargentat(III) K[AgF4] oder Caesiumhexafluoroargentat(IV) Cs2[AgF6] auf. Die giftigen Silbercyanide werden u. a. in galvanischen Bädern zur Versilberung und Farbvergoldung (hellgelb-grünlichgelb) eingesetzt. Bei Silber(I) ist die Neigung zur Bildung von Komplexionen ausgeprägt, meist mit der Koordinationszahl 2. Diese Komplexionen sind mit Ausnahme des erst in stark salzsaurer Lösung entstehenden [AgCl2]− nur in alkalischer (basischer) oder neutraler Lösung beständig. Nachweis. Silberchlorid (links); nach Zugabe von Ammoniak (rechts) Der Niederschlag ist bei Iodid-Ionen (AgI) gelb-grünlich und in Ammoniakwasser unlöslich, bei Chlorid- und Bromid-Ionen (AgCl, AgBr) weißlich. Heraldik. In der Heraldik wird Silber, wie auch Gold, als Metall bezeichnet, das zu den heraldischen Tinkturen zählt. Es wird häufig durch weiße Farbe wiedergegeben. Schwermetalle. Mit der Bezeichnung Schwermetalle wird eine Gruppe von Metallen zusammengefasst. Durch das Fehlen einer eindeutigen wissenschaftlich akzeptierten Definition des Begriffes „Schwermetall“ gibt es eine Vielzahl unterschiedlicher Definitionen in der Literatur. Allerdings bewerten mehrere Quellen ein Schwermetall als ein Metall, dessen Dichte größer als 5,0 g/cm³ oder bei älteren Quellen 4,5 g/cm³ ist. Definitionen. In der Technik (nur NE-Metalle) und der Chemie fallen unter den Begriff „Schwermetall“ Metalle mit einer Dichte > 5 g/cm³. Zu diesen werden üblicherweise unter anderem die Edelmetalle sowie Bismut, Eisen, Kupfer, Blei, Zink, Zinn, Nickel, Cadmium, Chrom und Uran gerechnet. Die Tabelle enthält Elemente mit einer Dichte ab 5 g/cm³. Elemente mit bekannter Dichte zwischen 5 und 10 g/cm³ sind gelb, zwischen 10 und 20 g/cm³ orange und über 20 g/cm³ braun hinterlegt. Vorkommen und Herkunft. Schwermetalle kommen in den Gesteinen der Erdkruste vor und sind dort in Erzen als Oxide, Sulfide und Carbonate fest eingebunden und auch in Silikaten eingeschlossen oder liegen zum Teil gediegen vor. Ihre Konzentration in Hydrosphäre, Atmosphäre und Pedosphäre schwankt über viele Größenordnungen. Ihre Konzentration in der Erdkruste reicht von einstelligen parts per billion (ppb) (Iridium, Gold, Platin) bis zu 5 Prozent (Eisen). Durch Verwitterung und Erosion gelangen diese auf natürlichem Wege in Böden und Grundwasser. Dabei enthalten einige Gesteine wie Pikrit, Serpentinit, Basalte und vor allem Erze zum Teil hohe Konzentrationen von Chrom, Nickel und Cobalt, was in deren Umgebung zu einer hohen natürlichen Schwermetallbelastung der Böden führt. Die Stoffkreislaufmengen und die Akkumulation in der Umwelt sind seit der Industrialisierung im 19. Jahrhundert durch wachsende Emissionen aus verschiedenen anthropogenen Quellen jedoch schnell angestiegen. Dazu gehören die Gewinnung von Schwermetallen und deren Verarbeitung, die Düngemittelherstellung, die Verbrennung von Kohle, Müll und Klärschlamm, der Kfz-Verkehr und die Stahl-, Zement- und Glasproduktion. Der bergmännische Abbau von „Schwermetallerzen“ geht häufig mit einer hohen Schwermetallbelastung der Böden einher. An einigen Stellen im Harz, im Siegerland und der Aachener Umgebung hat sich beispielsweise auf den durch Erzbergbau belasteten Böden azonale Vegetation spezifischer Pflanzengesellschaften ausgebildet. Dort bilden die Galmeipflanzen sogenannte „Schwermetallrasen“ aus. Vor 4,5 Mrd. Jahren – als der Erdmantel noch flüssig war – sanken die Schwermetalle zum Erdmittelpunkt und bildeten den Erdkern. Zum Vorkommen von Schwermetallen in der Erdkruste nehmen Geologen an, dass der größte Teil von Asteroiden stammt. Untermauert wird diese Vermutung durch eine Studie mit Wolfram, welches aus einer Gesteinsprobe aus Grönland stammt. In dieser Gesteinsprobe fand sich 13-mal häufiger das Isotop 182W als in Gesteinsproben anderer Orte. Matthias Willbold von der University of Bristol, der Erstautor der Studie, sagt: „Die meisten der Edelmetalle, auf denen unsere Wirtschaft und viele wichtige industrielle Prozesse basieren, kamen durch einen glücklichen Zufall auf unseren Planeten – als die Erde von rund 20 Trillionen Tonnen Asteroidenmaterial getroffen wurde.“ Biologische Eigenschaften und Umweltauswirkungen. Von Natur aus kommen Schwermetalle und ihre Verbindungen in der Biosphäre nur in Spuren vor. Manche von ihnen sind in kleinen Mengen lebenswichtig für Pflanzen, Tiere und den Menschen, sie werden dann als essentielle Schwermetalle oder Spurenelemente bezeichnet. Dazu gehören Chrom, Eisen, Cobalt, Kupfer, Mangan, Molybdän, Nickel, Vanadium, Zink und Zinn. Viele Schwermetalle, auch die essentiellen, können bereits in leichter Überkonzentration für den menschlichen Organismus gesundheitsschädlich oder giftig sein, wobei deren toxische Wirkung auch stark von der chemischen Verbindung des Schwermetalles abhängt. Ein Beispiel dafür ist Chrom, welches in elementarer Form ungiftig, als Chrom(III) essentiell und als Chrom(VI) giftig und karzinogen ist. Im Allgemeinen steigt die Gefährlichkeit der Verbindungen mit ihrer Wasser- und Fettlöslichkeit. Die Stoffe werden meist über die Nahrungskette aufgenommen und gelangen so in den menschlichen Körper. Pflanzen spielen dabei eine große Rolle, da sie Schwermetalle aufnehmen und anreichern können. Beim Menschen wirken chronische Schwermetallvergiftungen oft spezifisch auf bestimmte Organe und rufen charakteristische Krankheitsbilder hervor. Schwermetalle im Erdboden können mobilisiert ins Grundwasser, in Pflanzen und somit in die Nahrungskette gelangen und dort physiologische Schäden verursachen. Seit dem Jahr 2006 gibt das amerikanische Blacksmith Institute eine Liste der zehn am stärksten verseuchten Orte der Welt heraus. Dabei sind sämtliche Schwermetalle – zumeist durch Bergbau oder bei der Verhüttung emittiert – jedes Mal in vielfältiger Weise vertreten. Blei. Blei besitzt eine kumulative Wirkung und wirkt bei der Aufnahme durch Nahrung und Atemluft schon in geringen Spuren als chronisches Gift. Es reichert sich in Knochen, Zähnen und im Gehirn an und beeinträchtigt die Funktionsfähigkeit des Nervensystems. Besonders Kinder sind gefährdet, sie zeigen oft Intelligenz-, Lern- und Konzentrationsstörungen. Auch die Immunabwehr kommt bei Bleivergiftungen zu Schaden, daraus folgt eine erhöhte Infektanfälligkeit. Die größte Quelle für Bleivergiftung war in Westeuropa bis in die 1980er Jahre Benzin, dem Tetraethylblei zugesetzt wurde, um die Klopffestigkeit zu erhöhen. Seit der Wiedervereinigung wird auch in Ostdeutschland ausschließlich bleifreies Benzin verwendet, so dass seitdem auch dort die Blutwerte für Blei bei der Bevölkerung zurückgehen. Weltweit wird allerdings noch in Afrika und weiten Teilen Asiens verbleites Benzin verwendet – mit den entsprechenden gesundheitlichen Folgen. Seit 1973 wurden in Deutschland keine Bleirohre mehr als Wasserleitung im Haus verbaut. Praktisch frei von Bleirohren ist der gesamte süddeutsche Raum, da dort seit über hundert Jahren keine mehr verlegt wurden. Der Grenzwert für Blei im Leitungswasser lag ab dem 1. Dezember 2003 bei 25 µg/L und wurde am 1. Dezember 2013 auf 10 µg/L reduziert. Cadmium. Cadmium und seine Verbindungen sind schon in geringen Konzentrationen giftig. Es hat sich im Tierversuch als krebserregend erwiesen und ist erbgut- und fruchtschädigend. Der Körper eines Erwachsenen enthält ca. 30 mg Cadmium, ohne dass es für den Aufbau von Körpersubstanzen benötigt wird. Es gehört zu den nichtessentiellen Elementen. Die orale Aufnahme von löslichen Cadmium-Salzen kann Erbrechen und Störungen im Verdauungstrakt, Leberschädigungen und Krämpfe verursachen. Die Inhalation von Cadmium-Dämpfen ruft Reizungen der Atemwege und Kopfschmerzen hervor. Chronische Vergiftungen äußern sich durch den Ausfall des Geruchsvermögens, Gelbfärbung der Zahnhälse, Blutarmut und Wirbelschmerzen, in fortgeschrittenem Stadium durch Knochenmarkschädigungen und Osteoporose. Cadmium ist vermehrt in Verruf gekommen seit dem Auftreten der oft tödlich endenden Itai-Itai-Krankheit in Japan, die mit schweren Skelettveränderungen einhergeht. Die Anreicherung von Cadmium in der Leber und vor allem in der Niere ist besonders bedenklich. Bei Rauchern wurden etwa doppelt so hohe Gehalte von Cadmium wie bei Nichtrauchern festgestellt. Die durchschnittliche Belastung mit Cadmium durch Rauchen beträgt 2 bis 4 µg pro Tag. Mit der Nahrung nimmt der Mensch täglich zwischen 10 und 35 µg Cadmium auf. Laut WHO liegt der kritische Grenzwert bei 10 µg pro Tag und Kilogramm Körpermasse. Die biologische Halbwertszeit beim Menschen liegt zwischen 10 und 35 Jahren. Kupfer. Kupfer zählt zu den lebensnotwendigen Spurenelementen. Spezielle Verbindungen jedoch können beim Verschlucken großer Mengen Schwäche, Erbrechen und Entzündungen im Verdauungstrakt verursachen. Akute Vergiftungen durch sehr hohe Mengen sind beim Menschen selten, da zwangsläufig Erbrechen ausgelöst wird. Kupfer wirkt in zahlreichen chemischen Prozessen katalytisch, dies betrifft auch Stoffwechselvorgänge. Kupfer muss vom Menschen jeden Tag in ausreichender Menge aufgenommen werden. Die Speicherkapazität im Körper ist begrenzt. Der tägliche Bedarf eines Erwachsenen liegt bei etwa 1 bis 2 mg. Zahlreiche Nahrungsmittel enthalten dieses Spurenelement, hierzu zählen insbesondere Nüsse, bestimmte Fisch- und Fleischsorten sowie einige Gemüse. Kupfer kann auch durch kupferhaltige Wasserleitungen ins Trinkwasser gelangen, allerdings nur, wenn das Trinkwasser längere Zeit in den Leitungen gestanden hat. Nur bei Wässern mit geringem pH-Wert ist dies mengenmäßig von Bedeutung. In diesem Fall wird empfohlen, abgestandenes Wasser ablaufen zu lassen. Frisches Wasser, das nicht in Leitungen stagniert, wird durch die Werkstoffe, die in der Hausinstallation verbaut wurden, grundsätzlich nicht in seiner Zusammensetzung verändert. Die Trinkwassernormen der WHO und der EU erlauben einen maximalen Kupfergehalt von 2 mg/L. Die deutsche Trinkwasserverordnung übernahm diesen Wert, der mit der Änderungsverordnung zur Trinkwasserverordnung 2011 auf 2,0 mg/L präzisiert wurde. Ein Kupfergehalt von 2 mg/L verleiht Wasser bereits einen metallischen Geschmack, 5 mg/L machen es ungenießbar. Nach derzeitigem Wissen wird ein mittlerer Gehalt des Trinkwassers von 2 mg/L als gesundheitlich unbedenklich angesehen, dies gilt für lebenslangen Genuss. Eine stark überhöhte Kupferzufuhr über Wasser oder Nahrungsmittel kann bei Säuglingen und Kleinkindern, deren Kupferstoffwechsel noch nicht vollständig ausgebildet ist, zur frühkindlichen Leberzirrhose führen. Dies liegt unter anderem daran, dass der spezifische Gesamtbestand des Kupfers im Körper von Säuglingen schon bei Geburt von Natur aus relativ hoch ist. Bei Jugendlichen und Erwachsenen wird überschüssiges Kupfer ähnlich wie bei Vitamin C wieder ausgeschieden. Vom Umweltbundesamt wurde 2011 der Entwurf der trinkwasserhygienisch geeigneten metallischen Werkstoffe veröffentlicht, Kupfer ist hierbei für alle Bauteiltypen enthalten. Bei Wässern mit einem niedrigen pH-Wert sollten Kupferbauteile auf der Innenoberfläche verzinnt sein – DIN 50930-6 gibt hierzu detaillierte Beschreibungen der wasserseitigen Rahmenbedingungen. Eine genaue Prüfung ist bei Hausbrunnen notwendig, weil Hausbrunnenwasser vielfach nicht aufbereitet wird. Von dieser Ausnahme abgesehen ist das Trinkwasser aber deutlich besser als sein Ruf und kann unbedenklich auch von Kindern reichlich getrunken werden. Obwohl Kupfer für den Menschen zu den lebensnotwendigen Spurenelementen zählt, wirkt es auf viele Mikroorganismen wachstumshemmend oder sogar aktiv antimikrobiell. Gezielt genutzt wird diese Eigenschaft für Kontaktoberflächen im medizinischen Bereich als ergänzende Maßnahme im Kampf gegen antibiotikaresistente Mikroorganismen. Plutonium. Die für einen Menschen tödliche Dosis liegt wahrscheinlich im zweistelligen Milligrammbereich. Viel gefährlicher als die chemische Wirkung ist aber seine Radioaktivität, die Krebs verursachen kann. Zur Entstehung von Krebs reicht vermutlich eine Menge in der Größenordnung einiger Mikrogramm. Aus dieser Abschätzung wurde das weit verbreitete Missverständnis über die besondere Gefährlichkeit von Plutonium abgeleitet. Da die ausgesendete Alphastrahlung schon durch die äußersten Hornhautschichten abgeschirmt wird, ist Plutonium nur bei Inkorporation (beispielsweise die Inhalation von plutoniumhaltigem Staub) gesundheitsschädlich. Quecksilber. Metallisches Quecksilber kann als Quecksilberdampf über die Lunge in den Körper aufgenommen werden. Es reizt die Atem- und Verdauungswege, kann zu Erbrechen mit Bauchschmerzen führen und auch Schäden an Nieren und am Zentralnervensystem hervorrufen. Thallium. Thallium und thalliumhaltige Verbindungen sind hochgiftig und müssen mit größter Vorsicht gehandhabt werden. Strontium. Strontium ist ein chemisches Element mit dem Elementsymbol Sr und der Ordnungszahl 38. Im Periodensystem steht es in der 5. Periode sowie der 2. Hauptgruppe, bzw. der 2. IUPAC-Gruppe und gehört damit zu den Erdalkalimetallen. Es ist ein weiches (Mohshärte: 1,5) und sehr reaktionsfreudiges Metall. Das Element wurde 1790 von Adair Crawford entdeckt und nach seinem ersten Fundort Strontian in Schottland benannt. Elementar, allerdings noch durch Fremdbeimengungen verunreinigt, konnte es 1808 mittels Elektrolyse durch Humphry Davy dargestellt werden. Robert Bunsen gelang 1855 auch die Darstellung reinen Strontiums. Das Element wird nur in geringen Mengen, vor allem für Kathodenstrahlröhren, Pyrotechnik (rote Flammenfarbe), Dauermagnete und in der Aluminiumverhüttung verwendet. Strontium kommt in geringen Mengen im menschlichen Körper vor, hat jedoch keine bekannte biologische Bedeutung und ist nicht essentiell. Eine medizinische Wirkung von Strontiumsalzen, insbesondere Strontiumranelat gegen Osteoporose, wird untersucht. Geschichte. Erste Hinweise auf die Existenz des Elements fanden Adair Crawford und William Cumberland Cruikshank im Jahr 1790, als sie ein aus Strontian in Schottland stammendes Mineral, das zunächst für „lufthaltigen Baryt“ (Bariumcarbonat, Witherit) gehalten wurde, genauer untersuchten. Sie stellten das Chlorid her und verglichen mehrere Eigenschaften des späteren Strontiumchlorides mit denen des Bariumchlorides. Dabei stellten sie unter anderem verschiedene Löslichkeiten in Wasser und andere Kristallformen fest. 1791 benannte Friedrich Gabriel Sulzer (1749–1830) das Mineral nach seinem Fundort Strontian Strontianit. Er und Johann Friedrich Blumenbach untersuchten das Mineral genauer und fanden so weitere Unterschiede zum Witherit, wie die unterschiedliche Giftigkeit und Flammenfarbe. In den folgenden Jahren wurden durch Chemiker wie Martin Heinrich Klaproth, Richard Kirwan, Thomas Charles Hope oder Johann Tobias Lowitz das Strontianit weiter untersucht und andere Strontiumverbindungen daraus gewonnen. 1808 gelang Humphry Davy durch elektrolytische Reduktion in Anwesenheit von rotem Quecksilberoxid die Darstellung von Strontiumamalgam, das er anschließend durch Destillation reinigte und so das – wenn auch noch verunreinigte – Metall erhielt. Er benannte es nach dem Strontianit analog zu den anderen Erdalkalimetallen "Strontium". Reines Strontium gewann Robert Bunsen 1855 durch Elektrolyse einer Strontiumchloridschmelze. Er bestimmte auch Eigenschaften des Metalls wie etwa die spezifische Dichte des Elements. Vorkommen. Strontium ist mit einem Anteil von 370 ppm an der kontinentalen Erdkruste auf der Erde verhältnismäßig häufig, die Elementhäufigkeit in der Erdkruste ist vergleichbar mit der von Barium, Schwefel oder Kohlenstoff. Auch im Meerwasser ist eine größere Menge Strontium vorhanden. Das Element kommt nicht gediegen, sondern stets in verschiedenen Verbindungen vor. Entsprechend den geringen Löslichkeiten sind die wichtigsten Strontiumminerale das Strontiumsulfat oder Coelestin mit einem Strontiumgehalt von bis zu 47,7 %. sowie das Strontiumcarbonat oder Strontianit mit einem Strontiumgehalt von bis zu 59,4 % Insgesamt sind bisher (Stand: 2011) rund 200 strontiumhaltige Minerale bekannt. Die Lagerstätten des wichtigsten Strontiumminerals, Coelestin, entstanden durch Fällung des schwerlöslichen Strontiumsulfats aus Meerwasser. Auch eine hydrothermale Bildung des Minerals ist möglich. Strontianit bildet sich ebenfalls hydrothermal oder als Sekundärmineral aus Coelestin. Die wichtigsten Strontiumlagerstätten und Abbauorte liegen in Spanien, Mexiko, der Türkei, China und im Iran. Großbritannien war ebenfalls über lange Zeit ein wichtiger Förderstaat, die Produktion endete jedoch 1992. Dabei betrug die Förderung an Strontiummineralen im Jahr 2008 weltweit 496.000 Tonnen. Gewinnung und Darstellung. Ausgangsmaterial für die Herstellung von Strontium und Strontiumverbindungen ist meist Coelestin (Strontiumsulfat). Aus diesem wird in der Regel zunächst Strontiumcarbonat gewonnen. Dieses ist die industriell wichtigste Strontiumverbindung und Grundstoff für die Gewinnung des Metalls und anderer Verbindungen. Um Strontiumcarbonat herzustellen, wird zunächst Strontiumsulfat mit Kohlenstoff bei 1100–1200 °C umgesetzt. Dabei wird das Sulfat zum Sulfid reduziert und es entstehen Strontiumsulfid und Kohlenstoffdioxid. Das Strontiumsulfid wird durch Extraktion mit heißem Wasser gereinigt. Anschließend wird entweder Kohlenstoffdioxid durch die Strontiumsulfidlösung geleitet oder das Strontiumsulfid wird mit Natriumcarbonat umgesetzt. Dabei entstehen neben Strontiumcarbonat Schwefelwasserstoff beziehungsweise Natriumsulfid. Welche der beiden Varianten genutzt wird, hängt von der Verfügbarkeit der Ausgangsstoffe und der Möglichkeit, die Beiprodukte zu verkaufen, ab. Feingemahlenes Strontiumsulfat kann auch direkt mit Natrium- oder Ammoniumcarbonat zu Strontiumcarbonat umgesetzt werden. Dabei sind jedoch aufwändige Reinigungsschritte notwendig. Um Strontiummetall zu erhalten, wird Strontiumoxid mit Aluminium reduziert (Aluminothermie). Dabei entsteht neben elementarem Strontium eine Mischung aus Aluminium- und Strontiumoxid. Die Reaktion findet im Vakuum statt, da unter diesen Bedingungen das Strontium gasförmig vorliegt, einfach abgetrennt und in einem Kühler aufgefangen werden kann. Physikalische Eigenschaften. Strontium ist ein im höchstreinen Zustand hellgoldgelb-glänzendes, sonst silberweißes Erdalkalimetall. Mit einem Schmelzpunkt von 777 °C und einem Siedepunkt von 1380 °C steht es beim Siedepunkt zwischen dem leichteren Calcium und dem schwereren Barium, wobei Calcium einen höheren und Barium einen niedrigeren Schmelzpunkt besitzt. Strontium besitzt nach Magnesium und Radium den niedrigsten Siedepunkt aller Erdalkalimetalle. Mit einer Dichte von 2,6 g/cm3 zählt es zu den Leichtmetallen. Strontium ist mit einer Mohshärte von 1,5 sehr weich und lässt sich leicht biegen oder walzen. Wie Calcium kristallisiert Strontium bei Raumtemperatur in einer kubisch-flächenzentrierten Kristallstruktur in der (Kupfer-Typ) mit dem Gitterparameter a = 608,5 pm sowie vier Formeleinheiten pro Elementarzelle. Daneben sind auch zwei weitere Hochtemperaturmodifikationen bekannt. Bei Temperaturen von größer 215 °C wandelt sich die Struktur in eine hexagonal-dichteste Kugelpackung (Magnesium-Typ) mit den Gitterparametern a = 432 pm und c = 706 pm um. Oberhalb von 605 °C ist schließlich eine kubisch-innenzentrierte Struktur (Wolfram-Typ) am stabilsten. Chemische Eigenschaften. Strontium ist nach Barium und Radium das reaktivste Erdalkalimetall. Es reagiert direkt mit Halogenen, Sauerstoff, Stickstoff und Schwefel. Dabei bildet es immer Verbindungen, in denen es als zweiwertiges Kation vorliegt. Beim Erhitzen an der Luft verbrennt das Metall mit der typischen karminroten Flammenfärbung zu Strontiumoxid und Strontiumnitrid. Als sehr unedles Metall reagiert Strontium mit Wasser unter Wasserstoff- und Hydroxidbildung. Strontiumhydroxid bildet sich auch schon beim Kontakt des Metalls mit feuchter Luft. Auch in Ammoniak ist Strontium löslich, dabei bilden sich blauschwarze Ammoniakate. Im Grundwasser verhält sich Strontium meist ähnlich wie Calcium. Strontiumverbindungen sind unter schwach sauren bis basischen Bedingungen unlöslich. Erst bei niedrigerem pH-Werten tritt Strontium in gelöster Form auf. Kommt es infolge von Verwitterungsprozessen o.ä. zum Abbau von Kohlenstoffdioxid (CO2) wird das Ausfällen von Strontium zusammen mit Calcium (als Strontium- bzw. Calciumcarbonat) verstärkt. Zusätzlich kann eine hohe Kationenaustauschkapazität des Bodens die Bindung von Strontium fördern. Isotope. Es sind insgesamt 32 Isotope und weitere sieben Kernisomere bekannt. Von diesen kommen vier, 84Sr, 86Sr, 87Sr und 88Sr, natürlich vor. In der natürlichen Isotopenzusammensetzung überwiegt dabei das Isotop 88Sr mit einem Anteil von 82,58 %. 86Sr mit 9,86 % und 87Sr mit 7,0 %, sowie 84Sr mit einem Anteil von 0,56 % sind seltener. 90Sr ist ein Betastrahler mit einer Zerfallsenergie von 0,546 MeV und zerfällt mit einer Halbwertzeit von 28,78 Jahren zu 90Y, das seinerseits rasch (2 = 64,1 h) unter Aussendung von energiereicher Betastrahlung (ZE = 2,282 MeV) und von Gammastrahlung zum stabilen 90Zr zerfällt. Dabei tritt es zumeist als sekundäres Spaltprodukt auf. Es entsteht innerhalb weniger Minuten durch mehrfachen Betazerfall aus primären Spaltprodukten der Massenzahl 90, die bei 5,7 % aller Kernspaltungen von 235U in Kernkraftwerken und Atombombenexplosionen auftreten. Damit ist 90Sr eines der häufigsten Spaltprodukte überhaupt. Größere Mengen 90Sr gelangen bei allen nuklearen Katastrophen in die Umwelt. Unfälle, bei denen 90Sr in die Umwelt gelangte, waren der Windscale-Brand, bei dem 0,07 TBq 90Sr freigesetzt wurden und die Katastrophe von Tschernobyl, bei der die freigesetzte Aktivität an 90Sr 800 TBq betrug. Nach den oberirdischen Kernwaffentests vor allem in den Jahren 1955–58 und 1961–63 stieg die Belastung der Atmosphäre mit 90Sr stark an. Dies führte zusammen mit der Belastung an 137Cs 1963 zur Verabschiedung des Vertrages über das Verbot von Kernwaffenversuchen in der Atmosphäre, im Weltraum und unter Wasser, der solche Tests in den Unterzeichnerstaaten verbot. Daraufhin sank in den folgenden Jahren die Belastung der Atmosphäre wieder deutlich. Die gesamte, durch Kernwaffen freigesetzte Aktivität an 90Sr betrug etwa 6 · 1017 Bq (600 PBq). Die Aufnahme von 90Sr, das etwa über belastete Milch in den Körper gelangen kann, ist gefährlich. Durch die energiereiche Betastrahlung des Isotops können Zellen in Knochen oder Knochenmark verändert und somit Knochentumore oder Leukämien ausgelöst werden. Eine Dekorporation des in die Knochen aufgenommenen Strontiums mit Chelatbildnern ist unmöglich, da diese bevorzugt Calcium komplexieren und das Strontium im Knochen verbleibt. Eine Dekorporation mit Bariumsulfat ist nur möglich, wenn sie rasch nach der Inkorporation erfolgt, bevor der Einbau in Knochen erfolgen kann. Auch der Abbau durch biologische Vorgänge verläuft nur sehr langsam, die biologische Halbwertszeit liegt in Knochen bei 49 Jahren, die effektive Halbwertszeit von 90Sr bei 18,1 Jahren. Möglicherweise bindet 90Sr an Zellen der Nebenschilddrüsen. Dies würde die Häufung von Fällen eines Hyperparathyreoidismus bei Liquidatoren des Reaktors in Tschernobyl erklären.. Die Betastrahlung von 90Sr und 90Y kann in Radionuklidbatterien, etwa für abgelegene Leuchttürme und Funkfeuer in der ehemaligen Sowjetunion, zur langlebigen Isotopenmarkierung, zur Dickenmessung von Materialien oder zum Kalibrieren von Geigerzählern genutzt werden. 87Sr ist das Zerfallsprodukt des mit einer Halbwertszeit von 48 Milliarden Jahren sehr langlebigen Rubidiumisotops 87Rb. Aus dem Verhältnis der verschiedenen Strontiumisotope kann im Rahmen einer Strontiumisotopenanalyse daher das Alter von rubidium- und strontiumhaltigen Gesteinen wie Granit bestimmt werden. Strontium wird unter verschiedenen Bedingungen in unterschiedlichen Mengen in Knochen und Zähnen eingelagert. Gleichzeitig hängt das Isotopenverhältnis von 86Sr und 87Sr von den Gesteinen der Umgebung ab. Daher kann man aus den Isotopenverhältnissen des Strontiums mitunter Rückschlüsse auf Wanderungsbewegungen von prähistorischen Menschen ziehen. Der kleine deutsche Kugelhaufenreaktor namens "AVR" neben dem Gelände des Forschungszentrums in Jülich gilt nach Angabe des Betreibers als die am stärksten mit 90Sr kontaminierte Nuklearanlage weltweit. Auch im Boden unter dem Reaktor befindet sich Strontium. Dieses soll beim Rückbau des Reaktors bis 2017 aufwändig entfernt werden. Verwendung. Durch Strontiumsalze rot gefärbtes Feuerwerk Strontium wird nur in geringen Mengen produziert und verwendet. Der größte Teil des produzierten Strontiumcarbonats wird für Kathodenstrahlröhren, Dauermagnete sowie die Pyrotechnik verwendet. Metallisches Strontium wird vor allem in der Aluminiumindustrie (Aluminiumprimär- und Sekundärhütten, sowie Gießereien) ebenso wie Natrium als gefügebeeinflussendes Mittel bei Aluminium-Siliciumlegierungen mit 7–12 % Silicium eingesetzt. Geringe Beimengungen an Strontium verändern das Eutektikum in Silicium-Aluminium-Legierungen und verbessern so die mechanischen Eigenschaften der Legierung. Dies liegt daran, dass Aluminium-Silicium-Legierungen ohne Strontium am Eutektikum grobe, nadelförmige, mechanisch wenig belastbare Körner ausfallen, was durch das Strontium verhindert wird. Seine „veredelnde“ Wirkung hält in gießbereiten Schmelzen (Gieß- und Warmhalteöfen) länger an, als die des Natriums, da es weniger leicht oxidierbar ist. Auf dem Gebiet langsam erstarrender Schmelzen (Sandguss) hat es das Jahrzehnte allein gebräuchliche Natrium teilweise bereits verdrängt. Bei rascher Erstarrung in metallischer Dauerform, insbesondere bei Druckguss ist die Anwendung von Strontium nicht in jedem Fall zwingend, die Ausbildung des erwünschten feinen, „veredelten“ Gefüges wird bereits durch die rasche Erstarrung begünstigt. Strontium wird Ferrosilicium zugesetzt, es reguliert die Struktur des Kohlenstoffs und verhindert beim Gießen ein ungleichmäßiges Erstarren. Weiterhin kann Strontium als Gettermaterial in Elektronenröhren, zum Entfernen von Schwefel und Phosphor aus Stahl sowie zum Härten von Akku-Platten aus Blei genutzt werden. Biologische Bedeutung. Nur wenige Lebewesen nutzen Strontium in biologischen Prozessen. Hierzu zählen Acantharia, einzellige eukaryontische Lebewesen, die zu den Strahlentierchen gehören und ein häufiger Bestandteil des Zooplanktons im Meer sind. Diese nutzen als einzige Protisten Strontiumsulfat als Baumaterial für das Skelett. Dadurch bewirken sie auch Veränderungen des Strontiumgehaltes in einzelnen Meeresschichten, indem sie zunächst Strontium aufnehmen und nach dem Absterben in tiefere Schichten sinken, wo sie sich auflösen. Physiologische und therapeutische Bedeutung. Strontium hat in seinen Eigenschaften große Ähnlichkeit mit Calcium. Jedoch wird es im Gegensatz zu Calcium nur in geringen Mengen über den Darm aufgenommen. Verantwortlich hierfür ist möglicherweise der größere Ionenradius des Elementes. Der Gehalt an Strontium beträgt durchschnittlich bei einem 70 Kilogramm schweren Mann nur 0,32 g, im Vergleich dazu enthält der Körper etwa 1000 g Calcium. Das aufgenommene Strontium wird vor allem in den Knochen gespeichert. Strontium ist nicht essentiell, es sind nur wenige biologische Wirkungen des Elementes bekannt. So ist es möglich, dass Strontium hemmend gegenüber Karies wirkt. Da Strontium wie Calcium als Bestandteil der Knochen eingebaut werden kann, wird es zur Behandlung der Osteoporose verwendet. Durch Salzbildung mit organischen Säuren wie Ranelicsäure oder Malonsäure wird eine entsprechende Bioverfügbarkeit erreicht. Eine Klinische Studie belegt eine deutliche Erhöhung der Knochendichte und eine deutliche Verringerung des Risikos für Knochenbrüche bei Frauen mit Osteoporose unter der Behandlung mit Strontiumranelat. 89Sr wird als Chlorid (unter dem Handelsnamen „Metastron“) zur Behandlung von durch Knochenmetastasen hervorgerufenen Schmerzen – vor allem bei Prostata- und Mammakarzinomen – verwendet. Die empfohlene Standarddosis beträgt 150 MBq. Zudem existieren vereinzelt Berichte über eine Reduktion von Metastasen unter dieser Behandlung; diese umfassen jedoch eine zu geringe Zahl von Fällen, um daraus eine allgemeine Behandlungsempfehlung ableiten zu können. Toxische Effekte des Strontiums sind beim Menschen nicht bekannt. Im Tierversuch bei Schweinen zeigten sich durch eine strontiumreiche und calciumarme Ernährung Symptome wie Koordinationsstörungen, Schwachheit und Lähmungserscheinungen. Sicherheitshinweise. Wie andere Erdalkalimetalle ist Strontium brennbar. Es reagiert mit Wasser oder Kohlenstoffdioxid, so dass diese nicht als Löschmittel verwendet werden können. Zum Löschen sollten Metallbrandlöscher (Klasse D) verwendet werden, zudem ist die Verwendung von trockenem Sand, Salz und Löschpulver möglich. Weiterhin bildet sich bei Kontakt mit Wasser Wasserstoff, der explosionsgefährlich ist. Für die Beseitigung kleiner Mengen kann Strontium mit Isopropanol, "tert"-Butanol oder Octanol umgesetzt werden. Verbindungen. Wie alle Erdalkalimetalle kommt Strontium in Verbindungen ausschließlich in der Oxidationsstufe +2 vor. Es handelt sich in der Regel um farblose, häufig gut wasserlösliche Salze. Halogenide. Mit den Halogenen Fluor, Chlor, Brom und Iod bildet Strontium jeweils ein Halogenid mit der allgemeinen Formel SrX2. Es sind typische, farblose und bis auf Strontiumfluorid gut wasserlösliche Salze. Sie können durch Umsetzung von Strontiumcarbonat mit Halogenwasserstoffsäuren wie Flusssäure oder Salzsäure dargestellt werden. Verwendung findet unter anderen Strontiumchlorid als Zwischenprodukt für die Herstellung anderer Strontiumverbindungen sowie in Zahnpasta, wo es gegen schmerzempfindliche Zähne wirken soll. Salze von Sauerstoffsäuren. Industriell wichtig sind vor allem die Strontiumsalze von Sauerstoffsäuren wie Strontiumcarbonat, Strontiumnitrat, Strontiumsulfat oder Strontiumchromat. Strontiumcarbonat ist die wichtigste Handelsform von Strontiumverbindungen, der Großteil des abgebauten Coelestins wird zu Strontiumcarbonat umgesetzt. Verwendet wird es vor allem zur Herstellung von röntgenabsorbierendem Glas für Kathodenstrahlröhren, aber auch für die Herstellung von Strontiumferrit für Permanentmagnete oder Elektrokeramiken. Strontiumnitrat wird vorwiegend in der Pyrotechnik für die Strontium-typische rote Flammenfärbung eingesetzt, das gelbe Strontiumchromat dient als Grundierung gegen Korrosion von Aluminium im Flugzeug- oder Schiffbau. Weitere Strontiumverbindungen. Organische Strontiumverbindungen sind nur in geringem Maße bekannt und untersucht, da sie sehr reaktiv sind und auch mit vielen Lösungsmitteln wie Ethern reagieren können. In unpolaren Lösungsmitteln sind sie dagegen unlöslich. Dargestellt wurde unter anderem ein Metallocen mit Pentamethylcyclopentadienyl-Anionen (Cp*), das in der Gasphase im Gegensatz zu anderen Metallocenen wie Ferrocen gewinkelt ist. Eine Übersicht über Strontiumverbindungen gibt die. Scandium. Scandium (von lat. "Scandia" „Skandinavien“) ist ein chemisches Element mit dem Symbol Sc und der Ordnungszahl 21. Im Periodensystem steht es in der 3. Nebengruppe, bzw. der 3. IUPAC-Gruppe oder Scandiumgruppe. Das weiche, silberweiße Element ist das erste der Übergangsmetalle und wird auch den Metallen der Seltenen Erden zugerechnet. Geschichte. Scandium wurde 1879 von Lars Fredrik Nilson entdeckt. Aus 10 kg Euxenit und Gadolinit isolierte er ein Oxid mit bisher unbekannten Eigenschaften. Das von ihm vermutete neue Element nannte er zu Ehren seiner Heimat „Scandium“. Schon 1869 sagte Dmitri Iwanowitsch Mendelejew ein Element Eka-Bor mit der Ordnungszahl 21 voraus. Erst Per Teodor Cleve erkannte später die Übereinstimmung des Scandiums mit dem Eka-Bor. Reines Scandium wurde erstmals 1937 elektrolytisch aus einer eutektischen Schmelze aus Kalium-, Lithium- und Scandiumchlorid bei 700 bis 800 °C hergestellt. 2003 gab es weltweit nur drei Minenproduktionsstätten: Bayan-Obo-Mine (Volksrepublik China), Schowti Wody (Ukraine) und auf der Halbinsel Kola (Russland). Vorkommen. Daneben sind bisher (Stand 2013) noch 14 weitere Minerale bekannt, bei denen Scandium in geringeren Anteilen in der chemischen Formel vertreten sind wie unter anderem Jervisit, Bazzit, Juonniit, Cascandit, Davisit und Scandiobabingtonit. Als Beimengung in geringer Konzentration findet sich Scandium in einigen hundert Mineralen, wobei einige Quellen mehr als 800 Mineralien angeben. Es ist daher auch in Erzkonzentraten der Übergangsmetalle als „Verunreinigung“ enthalten. Hierzu zählen russische und chinesische Wolframit- und Tantalitkonzentrate. Auch bei der Aufbereitung uranhaltiger Erze fallen Scandiumverbindungen an. Eigenschaften. Aufgrund seiner Dichte zählt Scandium zu den Leichtmetallen. An Luft wird es matt, es bildet sich eine schützende gelbliche Oxidschicht. Scandium reagiert mit verdünnten Säuren unter Bildung von Wasserstoff und dreiwertigen Kationen. In Wasserdampf erfolgt ab 600 °C die Umsetzung zu Scandiumoxid Sc2O3. In wässrigen Lösungen verhalten sich Sc-Kationen ähnlich wie Aluminium, was bei analytischen Trennungen oftmals Schwierigkeiten bereitet. In einer Mischung aus Salpetersäure und 48 % Fluorwasserstoff soll es beständig sein. Verwendung. Seine Hauptanwendung findet Scandium als Scandiumiodid in Hochleistungs-Hochdruck-Quecksilberdampflampen, beispielsweise zur Stadionbeleuchtung. Zusammen mit Holmium und Dysprosium entsteht ein dem Tageslicht ähnliches Licht. Scandium wird auch zur Herstellung von Laserkristallen verwendet. Magnetischen Datenspeichern wird Scandiumoxid zur Erhöhung der Ummagnetisierungsgeschwindigkeit zugesetzt. Scandium als Scandiumchlorid wird in Mikromengen als ein sehr wichtiger Bestandteil im Katalysator bei der Chlorwasserstoffherstellung eingesetzt, Forscher des Max-Planck-Instituts für Kohlenforschung nutzten es zudem zur Herstellung eines Katalysator zur Be- und Entladung von Metall-hydridspeichern für Wasserstoff, der neben dem Scandiumchlorid ScCl3 unter anderem noch Natriumhydrid und Aluminium enthielt. Später wurden jedoch titanenthaltende Katalysatoren verwendet. Als Legierungszusatz zeigt Scandium gefügestabilisierende und korngrößenfeinende Effekte. Eine Aluminium-Lithium-Legierung mit geringem Scandiumzusatz wird zur Herstellung einiger Bauteile in russischen Kampfflugzeugen verwendet. Auch in der modernen Fahrradindustrie (siehe Rennrad) werden Scandiumlegierungen eingesetzt. Diese Legierungen enthalten ebenfalls nur relativ wenig Scandium. Ende der 1990er Jahre wurde vom Revolverhersteller Smith & Wesson das Revolver-Modell 360PD herausgebracht. Der aus einer Scandium-Aluminium-Legierung bestehende hochwertige Rahmen ermöglicht eine deutliche Gewichtsreduktion, und es können aus dieser Waffe trotzdem starke Ladungen verschossen werden (.357 Magnum bzw..38 Special +P). Sicherheitshinweise. Scandiumpulver ist brennbar und daher als feuergefährlich einzustufen. Es kann durch kurzzeitige Einwirkung einer Zündquelle leicht entzündet werden und brennt nach deren Entfernung weiter. Die Entzündungsgefahr ist umso größer, je feiner der Stoff verteilt ist. Sauerstoff. Sauerstoff (auch "Oxygenium" genannt; von ‚oxys‘ „scharf, spitz, sauer“ und γεννάω ‚gen-‘ „erzeugen, gebären“, zusammen „Säure-Erzeuger“) ist ein chemisches Element mit dem Elementsymbol O. Entsprechend seiner Ordnungszahl 8 steht es an achter Stelle im Periodensystem und dort zusammen mit den Elementen Schwefel, Selen, Tellur, Polonium und Livermorium, die die Chalkogene bilden, in der sechsten Hauptgruppe, bzw. 16. IUPAC-Gruppe. Sauerstoff ist bezüglich seines Gewichts mit 48,9 % das häufigste Element der Erdkruste und mit rund 30 % nach Eisen das zweithäufigste Element der Erde insgesamt. Elementar tritt Sauerstoff überwiegend in Form eines kovalenten Homodimers auf, also einer Verbindung aus zwei Sauerstoff-Atomen und mit der Summenformel O2, bezeichnet als "molekularer Sauerstoff", "Dioxygen" oder "Disauerstoff". Es ist ein farb- und geruchloses Gas, das in der Luft zu 20,942 % enthalten ist. Es ist an vielen Verbrennungs- und Korrosionsvorgängen beteiligt. Fast alle Lebewesen benötigen Sauerstoff zum Leben (in der Regel geben Pflanzen aber während der Photosynthese mehr Sauerstoff ab, als sie verbrauchen). Sie entnehmen ihn meistens durch Atmung aus der Luft oder durch Resorption aus Wasser (gelöster Sauerstoff). In hohen Konzentrationen dagegen ist er für die meisten Lebewesen giftig. Die metastabile, energiereiche und reaktive allotrope Form aus drei Sauerstoffatomen (O3) wird Ozon genannt. "Atomarer Sauerstoff", das heißt Sauerstoff in Form freier, einzelner Sauerstoffatome, kommt stabil nur unter extremen Bedingungen vor, beispielsweise im Vakuum des Weltalls oder in heißen Sternatmosphären. Er hat jedoch eine wesentliche Bedeutung als reaktives Zwischenprodukt in vielen Reaktionen der Atmosphärenchemie. Geschichte. Carl Wilhelm Scheele im Jahre 1771 (veröffentlicht aber erst 1777) und Joseph Priestley im Jahre 1774 haben unabhängig voneinander im Zusammenhang mit der Erforschung von Verbrennungsvorgängen den Sauerstoff entdeckt. Der Entdeckung sehr nahe kam auch Pierre Bayen 1774. Von der Steinzeit bis über das Mittelalter hinaus war das Feuer für den Menschen eine Erscheinung, die als Gabe des Himmels hingenommen wurde. Über das Wesen des Feuers entstanden verschiedene Vorstellungen durch die Naturphilosophen der Antike bis zu den Alchimisten. Das Feuer wurde als ein Grundstoff der Vier-Elemente-Lehre verstanden. Im 17. Jahrhundert entstand die Vorstellung eines „leichten geheimnisvollen Stoffs“. Dieses Phlogiston würde aus dem brennenden Stoff entweichen, Wärme wurde als Stoff verstanden. Der deutsch-schwedische Apotheker Carl Wilhelm Scheele stellte Versuche an. Beim Erhitzen von Braunstein (Mangandioxid) oder Kaliumpermanganat mit konzentrierter Schwefelsäure ("Vitriol") erhielt er ein farbloses Gas. Dieses Gas förderte die Verbrennung und Scheele nannte es „Feuerluft“ oder nach der Herkunft „Vitriolluft“. Er fand, dass Luft aus diesem Sauerstoff und „verdorbener Luft“ besteht. Gänzlich unabhängig konnte der Engländer Joseph Priestley zwei Jahre später durch Erhitzen von Quecksilberoxid Sauerstoffgas herstellen. Der Brite veröffentlichte seine Erkenntnisse im Jahr 1774, Scheele publizierte sein Buch "Chemische Abhandlung von der Luft und dem Feuer" allerdings erst 1777. Mit der Entdeckung des Sauerstoffs war seine Bedeutung bei der Verbrennung noch nicht geklärt. Der Franzose Antoine Lavoisier fand bei seinen Experimenten, dass bei der Verbrennung nicht Phlogiston entweicht, sondern Sauerstoff gebunden wird. Durch Wägung wies er nach, dass ein Stoff nach der Verbrennung nicht leichter, sondern schwerer war. Ursache war das zusätzliche Gewicht des während des Verbrennungsprozesses aufgenommenen Sauerstoffs. Anfangs wurde der Sauerstoff als Grundbestandteil für die Bildung von Säuren angenommen. Deshalb wurde die Bezeichnung "Oxygenium" ("Säurebildner") 1779 von Lavoisier für Sauerstoff vorgeschlagen. Tatsächlich enthalten die meisten anorganischen Säuren bei der Lösung von Nichtmetalloxiden in Wasser Sauerstoff. Die Halogene, wie Chlor und Brom, hielt man daher lange Zeit für Oxide unbekannter Elemente. Erst später wurde erkannt, dass Wasserstoff für den Säurecharakter verantwortlich ist. 1883 gelang es Karol Olszewski und Zygmunt Wróblewski erstmals, Flüssigsauerstoff herzustellen. Vorkommen auf der Erde. Sauerstoff ist das häufigste und am weitesten verbreitete Element auf der Erde. Es kommt sowohl in der Erdatmosphäre als auch in der Lithosphäre, der Hydrosphäre und der Biosphäre vor. Sauerstoff hat einen Massenanteil von 50,5 % an der Erdhülle (bis 16 km Tiefe, einschließlich Hydro- und Atmosphäre). An der Luft beträgt sein Massenanteil 23,16 % (Volumenanteil: 20,95 %), am Wasser 88,8 % (am Meerwasser allerdings nur 86 %, da dort größere Mengen nichtsauerstoffhaltiger Salze, z. B. Natriumchlorid, gelöst sind). Zumeist kommt Sauerstoff in seinen Verbindungen auf und in der Erde vor. In der Erdhülle sind neben Wasser fast alle Minerale und damit Gesteine sauerstoffhaltig. Zu den wichtigsten Sauerstoff enthaltenden Mineralen zählen Silicate wie Feldspäte, Glimmer und Olivine, Carbonate wie das Calciumcarbonat im Kalkstein sowie Oxide wie Siliciumdioxid als Quarz. In elementarem Zustand befindet sich Sauerstoff in Form von O2 gasförmig in der Atmosphäre und gelöst in Gewässern. Die Menge des relativ reaktionsfreudigen elementaren Sauerstoffs bleibt auf Dauer nur konstant, weil Sauerstoff produzierende Pflanzen soviel nachliefern, wie von aerob atmenden Lebewesen sowie durch andere Verbrennungsprozesse wieder verbraucht wird. Ohne diesen biologischen Kreislauf würde Sauerstoff nur in Verbindungen vorkommen, elementarer Sauerstoff existiert also in einem Fließgleichgewicht. Die Entwicklung der Sauerstoffkonzentration in der Erdatmosphäre ist im Artikel Entwicklung der Erdatmosphäre beschrieben. Das Sauerstoff-Allotrop O3 Ozon ist in der Atmosphäre nur in geringer Konzentration vorhanden. Vorkommen im Weltall. Im Weltall ist Sauerstoff nach Wasserstoff und Helium das dritthäufigste Element. Der Massenanteil von Sauerstoff beträgt im Sonnensystem etwa 0,8 % (dies entspricht einem (Atom-)Anzahlanteil von etwa 500 ppm). Sauerstoff ist "nicht" in der primordialen Nukleosynthese entstanden, entsteht aber in verhältnismäßig großen Mengen in Riesensternen durch Heliumbrennen. Dabei wird zunächst aus drei Heliumkernen 12C gebildet (Drei-Alpha-Prozess), das anschließend mit einem weiteren Heliumkern zu 16O fusioniert. 18O wird durch Fusion eines 4He- mit einem 14N-Kern gebildet. Auch in so genannten Hauptreihensternen wie der Sonne spielt Sauerstoff bei der Energiegewinnung eine Rolle. Beim CNO-Zyklus (Bethe-Weizsäcker-Zyklus) stellt Sauerstoff ein Zwischenprodukt der Kernreaktion dar, bei der durch Protoneneinfang eines 12C-Kerns, der als Katalysator wirkt, ein 4He-Kern (Alpha-Teilchen) entsteht. In extrem schweren Sternen kommt es in der Spätphase ihrer Entwicklung zum Sauerstoffbrennen, bei dem der Sauerstoff als nuklearer Brennstoff für Reaktionen dient, die zum Aufbau noch schwererer Kerne führen. Die meisten Weißen Zwerge, die nach Stand der Theorie den Endzustand von 97 % aller Sterne darstellen, bestehen neben Helium und Kohlenstoff zu einem großen Teil aus Sauerstoff. Gewinnung und Darstellung. Verfahren zur industriellen Sauerstoff-Gewinnung nach Linde. Technisch wird Sauerstoff heute fast ausschließlich durch Rektifikation von Luft gewonnen. Das Verfahren wurde 1902 zunächst von Carl von Linde entwickelt (Linde-Verfahren) und von Georges Claude wirtschaftlich rentabel gestaltet. Geringe Mengen ergeben sich als Nebenprodukt bei der Wasserstoffproduktion durch Elektrolyse von Wasser. Zur Sauerstoffgewinnung nach dem Claude-Verfahren wird Luft mit Hilfe von Verdichtern auf 5–6 bar verdichtet, abgekühlt und dann zunächst durch Filter von Kohlenstoffdioxid, Luftfeuchtigkeit und anderen Gasen befreit. Die verdichtete Luft wird durch vorbeiströmende Gase aus dem Prozess auf eine Temperatur nahe dem Siedepunkt abgekühlt. Danach wird sie in Turbinen expandiert. Dabei kann ein Teil der zur Kompression eingesetzten Energie wieder zurückgewonnen werden. Dadurch wird das Verfahren – im Gegensatz zum Linde-Verfahren, bei dem keine Energie zurückgewonnen wird – deutlich wirtschaftlicher. Die eigentliche Trennung von Stickstoff und Sauerstoff erfolgt durch Destillation in zwei Rektifikationskolonnen mit unterschiedlichen Drücken. Die Destillation erfolgt dabei im Gegenstromprinzip, das heißt durch die Kondensationswärme verdampftes Gas strömt nach oben, kondensierte Flüssigkeit tropft nach unten. Da Sauerstoff einen höheren Siedepunkt als Stickstoff besitzt, kondensiert er leichter und sammelt sich so am Boden, Stickstoff am Kopf der Kolonne. Die Trennung erfolgt zunächst bei 5–6 bar in der sogenannten Mitteldruckkolonne. Die dabei entstehende sauerstoffangereicherte Flüssigkeit wird anschließend in der Niederdruckkolonne (Druck etwa 0,5 bar) weiter getrennt. Durch den flüssigen Sauerstoff der Niederdruckkolonne wird gasförmiger Stickstoff der Hochdruckkolonne geleitet. Dabei verflüssigt sich dieser und erwärmt mit der abgegebenen Kondensationswärme die Flüssigkeit. Der leichter flüchtige Stickstoff wird bevorzugt abgegeben und es bleibt gereinigter flüssiger Sauerstoff zurück. Dieser enthält noch die Edelgase Krypton und Xenon, die in einer separaten Kolonne abgetrennt werden. Um kleinere Mengen Sauerstoff zu produzieren, kann Sauerstoff aus der Luft durch Adsorption von anderen Gasen getrennt werden. Dazu strömt Luft durch Molekularsiebe. Dabei werden Stickstoff und Kohlenstoffdioxid adsorbiert und nur Sauerstoff und Argon gelangen hindurch. Dies wird im überwiegend medizinisch verwendeten Sauerstoffkonzentrator genutzt. Ein älteres Verfahren ist das auf chemischen Reaktionen beruhende Bariumoxid-Verfahren. Es ist infolge des hohen Energieaufwandes unwirtschaftlich. Dafür wird Bariumoxid unter Luftzufuhr auf 500 °C erhitzt, wobei sich Bariumperoxid bildet. Beim Erhitzen auf 700 °C wird der zuvor aufgenommene Sauerstoff durch Thermolyse wieder freigesetzt. Vor Entwicklung des Linde-Verfahrens war dieses Verfahren die einzige Möglichkeit, reinen Sauerstoff darzustellen. Einige sauerstoffreiche anorganische Verbindungen wie Kaliumpermanganat, Kaliumnitrat (Salpeter), Kaliumchlorat und Kaliumchromat geben bei Erwärmung oder Reaktion mit Reduktionsmitteln Sauerstoff ab. Eine weitere Möglichkeit, Sauerstoff im Labor zu erzeugen, ist die Zersetzung von Wasserstoffperoxid an platinierter Nickelfolie. Reinen Sauerstoff kann man mittels Elektrolyse von 30%iger Kalilauge an Nickelelektroden erhalten. Dabei entstehen Wasserstoff und Sauerstoff getrennt voneinander. Physikalische Eigenschaften. Molekularer Sauerstoff ist ein farb-, geruch- und geschmackloses Gas, welches bei 90,15 K (−183 °C) zu einer bläulichen Flüssigkeit kondensiert. In dicken Schichten zeigt gasförmiger und flüssiger Sauerstoff eine blaue Farbe. Unterhalb von 54,4 K (−218,75 °C) erstarrt Sauerstoff zu blauen Kristallen. Im Feststoff liegen paramagnetische O2-Moleküle mit einem O–O-Abstand von 121 pm (Doppelbindung) vor. Das Element kommt fest in mehreren Modifikationen vor. Zwischen 54,4 K und 43,8 K liegt Sauerstoff in der kubischen γ-Modifikation und zwischen 43,8 K und 23,9 K in einer rhomboedrischen β-Modifikation vor. Unterhalb von 23,9 K ist schließlich die monokline α-Modifikation am stabilsten. Es ist – im Gegensatz zu anderen Nichtmetallen – paramagnetisch und besitzt diradikalischen Charakter. Der Tripelpunkt liegt bei 54,36 K (−218,79 °C) und 0,1480 kPa. Der kritische Punkt liegt bei einem Druck von 50,4 bar und einer Temperatur von 154,7 K (−118,4 °C). Die kritische Dichte beträgt 0,436 g/cm3. Sauerstoff ist in Wasser wenig löslich. Die Löslichkeit ist abhängig vom Druck und der Temperatur. Sie steigt mit abnehmender Temperatur und zunehmendem Druck. Bei 0 °C und einem Sauerstoffpartialdruck der Luft von 212 hPa lösen sich in reinem Wasser 14,16 mg/l Sauerstoff. In der Sauerstoff-Gasentladungs-Spektralröhre werden die Molekülorbitale des Sauerstoffs zum Leuchten angeregt. Die Betriebsbedingungen sind dabei ein Druck von ca. 5–10 mBar, eine Hochspannung von 1,8 kV, eine Stromstärke von 18 mA und eine Frequenz von 35 kHz. Bei der Rekombination der ionisierten Gasmoleküle wird das charakteristische Farbspektrum abgestrahlt. Hierbei wird zum kleinen Teil, bedingt durch die Zuführung von Energie, reversibel Ozon gebildet. Molekülorbitale. Die Bindung und die Eigenschaften des Sauerstoff-Moleküls können sehr gut mit dem Molekülorbital-Modell erklärt werden. Dabei werden die s- und p-Atomorbitale der einzelnen Atome zu bindenden und antibindenden Molekülorbitalen zusammengesetzt. Die 1s- und 2s-Orbitale der Sauerstoffatome werden jeweils zu σs und σs*- bindenden und antibindenden Molekülorbitalen. Da diese Orbitale vollständig mit Elektronen gefüllt sind, tragen sie nicht zur Bindung bei. Aus den 2p-Orbitalen werden insgesamt sechs Molekülorbitale mit unterschiedlichem Energieniveau. Dies sind die bindenden σp-, πx- und πy-, sowie die entsprechenden antibindenden σp*-, πx*- und πy*-Molekülorbitale. Die π-Orbitale besitzen dabei gleiche Energie. Werden Elektronen in die Molekülorbitale verteilt, kommt es zur folgenden Aufteilung der acht p-Elektronen: sechs füllen die bindenden und zwei in die antibindenden π*-Orbitale; die Bindungsordnung beträgt also (6−2)/2 = 2. Diese beiden bestimmen als Valenzelektronen die Eigenschaften des O2-Moleküls. Sauerstoff besitzt für die Verteilung dieser Elektronen insgesamt drei erlaubte und energetisch erreichbare quantenmechanische Zustände. Besetzung der Energieniveaus der Molekülorbitale des Sauerstoffs in Grund- und angeregten Zuständen Im Grundzustand sind die Spins der beiden Valenzelektronen der Hundschen Regel gehorchend parallel angeordnet. Es handelt sich also um einen Triplett-Zustand mit dem Termsymbol 3Σg. Er ist der Zustand mit der niedrigsten Energie. Durch die beiden ungepaarten Elektronen sind die zwei π*-Orbitale nur halb besetzt. Diese verursacht einige charakteristische Eigenschaften, wie den diradikalischen Charakter und den Paramagnetismus des Sauerstoff-Moleküls. Trotz der formalen Bindungsordnung „zwei“ lässt sich keine entsprechende korrekte Valenzstrichformel für O2 angeben.   bringt den Doppelbindungscharakter zum Ausdruck, ignoriert aber sowohl die besetzten antibindenden Orbitale als auch den Radikalcharakter. Die Schreibweise  ·O̲̅-O̲̅· wird verwendet, um die biradikalischen Eigenschaften hervorzuheben, deutet jedoch nur eine Bindungsordnung von eins an. Um die Bindungsordnung zwei und den radikalischen Charakter anzudeuten, sollte die Darstellung mit Radikalpunkten auf dem Bindungsstrich verwendet werden. Singulett-Sauerstoff . Sauerstoff besitzt zwei unterschiedliche angeregte Zustände, die beide eine deutlich größere Energie als der Grundzustand besitzen. Bei beiden Zuständen sind die Spins der Elektronen entgegen der Hundschen Regel antiparallel ausgerichtet. Der stabilere angeregte Sauerstoff wird nach der quantenmechanischen Bezeichnung für diesen Zustand auch Singulett-Sauerstoff (1O2) genannt. Die beiden Singulett-Zustände unterscheiden sich dadurch, ob sich die beiden Elektronen in einem (Termsymbol: 1Δg) oder beiden π*-Orbitalen (Termsymbol: 1Σg) befinden. Der 1Σg-Zustand ist energetisch ungünstiger und wandelt sich sehr schnell in den 1Δg-Zustand um. Der 1Σg-Zustand ist diamagnetisch, der energetisch stabilere 1Δg-Zustand zeigt jedoch aufgrund des vorhandenen Bahnmomentes (die der Projektion des Bahndrehimpulses auf die Kern-Kern-Verbindungsachse entsprechende Quantenzahl – symbolisiert durch Σ, Π, Δ etc. – hat im 1Δg-Zustand den Wert ±2) Paramagnetismus vergleichbarer Stärke wie der von Triplett-Sauerstoff. Statt mit den griechischen Buchstaben werden die oben genannten Sauerstoffspezies auch als O(3P), O(1D) und O(1S) notiert. Die Bildung von Singulett-Sauerstoff ist auf verschiedenen Wegen möglich: sowohl photochemisch aus Triplett-Sauerstoff, als auch chemisch aus anderen Sauerstoffverbindungen. Eine direkte Gewinnung aus Triplett-Sauerstoff durch Bestrahlung mit elektromagnetischer Strahlung (z. B. Licht) ist allerdings aus quantenmechanischen Gründen, in Form der Auswahlregeln für die Emission oder Absorption von elektromagnetischer Strahlung, ausgeschlossen. Eine Möglichkeit, dieses Verbot zu umgehen, ist die gleichzeitige Bestrahlung mit Photonen und Kollision zweier Moleküle. Durch diesen unwahrscheinlichen Vorgang, der in der flüssigen Phase wahrscheinlicher ist, entsteht die blaue Farbe des flüssigen Sauerstoffs (Absorption im roten Spektralbereich). Auch mit Hilfe geeigneter Farbstoffe, wie Methylenblau oder Eosin, lässt sich auf photochemischem Weg Singulett-Sauerstoff darstellen. Chemisch wird er aus Peroxiden gewonnen. Bei der Umsetzung von Wasserstoffperoxid mit Natriumhypochlorit entsteht zunächst die instabile Peroxohypochlorige Säure, die schnell in Chlorwasserstoff bzw. Natriumchlorid und Singulett-Sauerstoff zerfällt. Experimentell kann man auch Chlor in eine alkalische Wasserstoffperoxidlösung einleiten, wobei dann zunächst Hypochlorit entsteht, das dann weiter reagiert. Der Singulett-Sauerstoff reagiert schnell mit Emissionen im roten Bereich bei 633,4 nm und 703,2 nm zu Triplett-Sauerstoff. Diese Form von Sauerstoff ist ein starkes und selektives Oxidationsmittel und wird in der organischen Chemie häufig verwendet. So reagiert er im Gegensatz zu normalen Sauerstoff mit 1,3-Dienen in einer [4+2]-Cycloaddition zu Peroxiden. Mit Alkenen und Alkinen reagiert Singulett-Sauerstoff in einer [2+2]-Cycloaddition. Chemische Eigenschaften. Sauerstoff reagiert mit den meisten anderen Elementen direkt. Es gibt einige Ausnahmen, insbesondere unter den Nichtmetallen und Edelmetallen. Mit Stickstoff sind Reaktionen nur unter speziellen Bedingungen, etwa bei Blitzen, aber auch im Verbrennungsmotor möglich. Fluor bildet nur bei tiefen Temperaturen unter elektrischen Entladungen die Verbindung Disauerstoffdifluorid (O2F2). Das edelste Metall Gold, die Halogene Chlor, Brom und Iod, sowie die Edelgase reagieren nicht direkt mit Sauerstoff. Einige weitere Edelmetalle wie Platin und Silber reagieren nur schlecht mit Sauerstoff. Elementarer, gasförmiger Sauerstoff ist relativ reaktionsträge, viele Reaktionen finden bei Normalbedingungen gar nicht oder nur langsam statt. Der Grund hierfür liegt darin, dass die Reaktionen mit anderen Stoffen kinetisch gehemmt sind. Zur Reaktion werden entweder eine hohe Aktivierungsenergie oder sehr reaktive Radikale benötigt. Diese Barriere kann durch Temperaturerhöhung, Licht oder Katalysatoren (beispielsweise Platin) überschritten werden. Zusätzlich wird bei vielen Metallen die Reaktion dadurch gehindert, dass das Material mit einer dünnen Metalloxidschicht überzogen ist und dadurch passiviert wird. Bei einigen Reaktionen wie der Knallgasreaktion reichen wenige Radikale für eine Reaktion aus, da diese nach einem Kettenreaktions-Mechanismus weiterreagieren. Deutlich stärker oxidierend als gasförmiger Sauerstoff wirkt trotz der tiefen Temperaturen flüssiger Sauerstoff. In diesem bildet sich der reaktive Singulett-Sauerstoff leicht. Auch in Gegenwart von Wasser oder Wasserdampf verlaufen viele Oxidationen mit Sauerstoff leichter. Reaktionen mit Sauerstoff sind fast immer Redox-Reaktionen, bei denen Sauerstoff in der Regel zwei Elektronen aufnimmt und so zum Oxid reduziert wird. Das Element zählt somit zu den Oxidationsmitteln. Häufig verlaufen diese Reaktionen bedingt durch die große freiwerdende Bindungs- oder Gitterenergie unter starker Wärmeabgabe. Es gibt auch explosionsartig verlaufende Reaktionen, wie die Knallgasreaktion oder Staubexplosionen von feinverteilten Stoffen in Luft oder reinem Sauerstoff. Allotrope. Neben dem in diesem Artikel beschriebenen Disauerstoff O2 bildet Sauerstoff mehrere Allotrope, die nach der Anzahl Sauerstoffatome zu unterscheiden sind. Das wichtigste Allotrop ist dabei Ozon O3, daneben sind die selteneren Allotrope Tetrasauerstoff (O4) und Oktasauerstoff (O8) bekannt. Ozon. Ozon (O3) ist ein blaues, charakteristisch riechendes Gas, das aus drei Sauerstoff-Atomen besteht. Es ist instabil, sehr reaktiv und ein starkes Oxidationsmittel. Gebildet wird es aus molekularem Sauerstoff und Sauerstoff-Atomen, aber auch z. B. durch Reaktion von Stickstoffdioxid mit Sauerstoff unter UV-Strahlung. Aufgrund seiner hohen Reaktivität ist es in Bodennähe der menschlichen Gesundheit eher abträglich – in der Ozonschicht der Erdatmosphäre dagegen spielt das Ozon eine wichtige Rolle bei der Absorption der auf die Erde treffenden UV-Strahlung. Andere Allotrope. Eine Hochdruckphase des Sauerstoffs entsteht bei Drücken größer 10 GPa als roter Feststoff. Nach kristallographischen Untersuchungen wird angenommen, dass es sich um Oktasauerstoff O8-Ringe handelt. Daneben existiert Tetrasauerstoff als ein sehr seltenes und instabiles Allotrop des Sauerstoffs. Es konnte 2001 im Massenspektrometer nachgewiesen werden. In geringer Konzentration kommt es in flüssigem Sauerstoff vor. Isotope. Das häufigste stabile Sauerstoffisotop ist 16O (99,76 %), daneben kommt noch 18O (0,20 %) sowie 17O (0,037 %) vor. Neben den stabilen Sauerstoffisotopen sind noch insgesamt 13 instabile, radioaktive Nuklide von 12O bis 28O bekannt, die nur künstlich herstellbar sind. Ihre Halbwertszeiten betragen meist nur Millisekunden bis Sekunden, 15O besitzt dabei mit zwei Minuten die längste Halbwertszeit und wird häufig in der Positronen-Emissions-Tomographie verwendet. Als einziges stabiles Isotop besitzt das seltene 17O einen Kernspin von 5/2 und kann damit für NMR-Untersuchungen verwendet werden. Die anderen stabilen Isotope besitzen den Kernspin 0 und sind damit NMR-inaktiv. Indirekte Temperaturmessung über das δ18O-Signal. Wassermoleküle mit dem um 12 % leichteren 16O verdunsten schneller. Deshalb müssen Eisschichten mit einem höheren relativen Anteil an 18O aus wärmeren Zeiten stammen, da nur bei der starken Verdunstung wärmerer Perioden vermehrt 18O mit zur Wolkenbildung beitragen. Je höher die globale Temperatur ist, desto weiter können mit schweren Sauerstoffisotopen beladene Wolken in die Polarregionen vordringen, ohne vorher abzuregnen. In kälteren Perioden befindet sich mehr 18O in Meeressedimenten. Meereis besteht hauptsächlich aus den leichteren Wassermolekülen aus 16O. Wenn es in einer Kaltphase zu einer starken Neubildung von Meereis kommt, bleibt vermehrt Meerwasser aus 18O zurück, welches durch die permanente Einlagerung von Sauerstoff in die Kalkschalen der Meerestiere (Calciumcarbonat) verstärkt in Sedimentschichten dieser Zeit nachweisbar ist. Auch gibt es regionale Unterschiede in der 18O-Anreicherung in Organismen nach Art ihrer Trinkwasserquelle. Durch eine Isotopenuntersuchung von Eisbohrkernen oder Sedimentproben und die Bestimmung des 18O-/16O-Verhältnisses mit Hilfe eines Massenspektrometers lassen sich Informationen über die Durchschnittstemperatur und damit die Klimaerwärmung und -abkühlung in früheren Zeiten gewinnen. Daneben kann durch Bestimmung der Zahl der Oszillationen zwischen warm (Sommer) und kalt (Winter) das Alter des Bohrkerns exakt bestimmt werden. Verwendung. Sauerstoff wird für industrielle Verbrennungs-, Oxidations- und Heizprozesse, in der Medizin und in Luft- und Raumfahrt verwendet. Medizin. Sauerstoff zur Anwendung in der Humanmedizin unterliegt aufgrund gesetzlicher Regelungen einer strengen Kontrolle. Der in weiß gekennzeichneten Flaschen abgefüllte medizinische Sauerstoff gilt in Deutschland als Fertigarzneimittel im Sinne des Arzneimittelgesetzes (AMG). Vorsicht ist bei der Sauerstoffgabe geboten, wenn Patienten an einer chronischen Lungenerkrankung (siehe COPD) mit erhöhtem CO2-Partialdruck leiden. Bei ihnen kann das plötzliche „Überangebot“ an Sauerstoff zu einer CO2-Narkose mit Atemstillstand führen. Notfallmedizin. Verletzungen und viele Erkrankungen der Lunge sowie einige Herzkrankheiten und insbesondere Schockzustände können zu einem Sauerstoffmangel (Hypoxie) in den Schlagadern (Arterien) und im Gewebe lebenswichtiger Organe führen. Aus diesem Grund wird Patienten in der Notfall- und Intensivmedizin sehr häufig zusätzlicher Sauerstoff verabreicht. Bei selbstständig atmenden Patienten wird die Umgebungsluft mit Hilfe verschiedener Sonden und Masken mit Sauerstoff angereichert, bei künstlich beatmeten Patienten wird der Sauerstoff im Beatmungsgerät zugemischt. Der Effekt der Sauerstoffanreicherung im Blut ist mit Hilfe der Pulsoxymetrie oder anhand von Blutgasanalysen messbar. Sauerstoff-Langzeittherapie. Bei Krankheiten mit einem schweren chronischen Sauerstoffmangel im Blut werden durch eine langfristige und täglich mehrstündige Zufuhr von Sauerstoff (Sauerstoff-Langzeittherapie) sowohl die Lebensqualität als auch die Überlebensdauer verbessert. Der reine Sauerstoff kann bei der Beatmung zu Problemen wegen Verdrängens des Kohlenstoffdioxid aus den Gefäßen sowie zur unerwünschten Erhöhung der Hirnaktivität in Hypothalamus, der Insula sowie im Hippocampus führen. Diese negativen Folgen werden durch den Zusatz von Kohlenstoffdioxid vermieden. Cluster-Kopfschmerz. Nach den Empfehlungen der Weltgesundheitsorganisation ist das Einatmen von Sauerstoff zur Behandlung von Cluster-Kopfschmerz-Attacken geeignet. Die Anwendung von hochkonzentriertem Sauerstoff mittels spezieller Maskensysteme lindert die Beschwerden in der Regel innerhalb von Minuten effektiv. Technik. Industriell verwendet wird Sauerstoff hauptsächlich in der Metallurgie zur Herstellung von Roheisen und Stahl, sowie bei der Kupfer-Raffination. Reiner Sauerstoff oder sauerstoffangereicherte Luft dient hier einerseits zum Erreichen hoher Temperaturen, andererseits zum Frischen des Rohstahls, d. h. zum Entfernen unerwünschter Beimengungen von Kohlenstoff, Silicium, Mangan und Phosphor, die oxidiert und abgetrennt werden. Reiner Sauerstoff hat im Vergleich zu Luft den Vorteil, dass kein Stickstoff in die Schmelze eingetragen wird. Stickstoff hat einen negativen Einfluss auf die mechanischen Eigenschaften von Stahl (siehe auch Thomas-Verfahren). In chemischen Prozessen wird Sauerstoff meist zur Oxidation von verschiedenen Grundstoffen, wie bei der Olefin-Oxidation von Ethen zu Ethylenoxid und bei der teilweisen (partiellen) Oxidation von Schweröl und Kohle verwendet. Benötigt wird Sauerstoff außerdem zur Erzeugung von Wasserstoff- und Synthesegas und der Herstellung von Schwefel- und Salpetersäure. Weitere durch Oxidation mit Sauerstoff hergestellte wichtige Produkte sind Acetylen (Ethin), Acetaldehyd, Essigsäure, Vinylacetat und Chlor. Verschiedene Brenngase (Propan, Wasserstoff, Ethin u. a.) erzielen erst durch Mischen mit Sauerstoff ausreichend heiße und rußfreie Flammen zum Schweißen und Hartlöten oder Erschmelzen und Formbarmachen von Glas. Nach Aufheizen und Zünden erfolgt das Schneiden von Beton mit einer (selbst abbrennenden) Sauerstofflanze oder das Brennschneiden von Eisen alleine durch einen scharfen Sauerstoffstrahl. Sauerstoff wird ebenso verwendet zur Darstellung von Ozon, als Oxidationsmittel in Brennstoffzellen und in der Halbleitertechnik. In der Raketentechnik wird flüssiger Sauerstoff als Oxidationsmittel verwendet und mit LOX "(liquid oxygen)" abgekürzt. In der Umwelttechnik werden Abwässer durch Einleitung von Sauerstoffgas schneller durch Bakterien von organischen Schadstoffen und Giften befreit. In vielen Trinkwasserwerken dient die Trinkwasseraufbereitung mit Ozon (Ozonierung) zur Oxidation von organischen Stoffen oder etwa Eisen und der Entkeimung, und kann zu einer deutlich besseren Reinigungswirkung der Filteranlagen führen. Für die Lebensmitteltechnik ist Sauerstoff als Lebensmittelzusatzstoff als E 948 zugelassen und wird – neben Stickstoff, Kohlendioxid und Lachgas als Treibgas, Packgas, Gas zum Aufschlagen von Sahne (Schlagobers) u.ä. verwendet. Wellness. In der Wellness- und Lebensmittelindustrie wird gelegentlich für Produkte geworben, die mit Sauerstoff angereichert seien. So wird etwa abgepacktes Wasser verkauft, das einen erhöhten Sauerstoffgehalt haben soll. Eine positive Wirkung auf Gesundheit und Wohlbefinden ist nicht zu erwarten, denn Sauerstoff löst sich nur in geringer Menge in Wasser und wird in vielen Größenordnungen mehr – nämlich mit jedem Atemzug – über die Lunge als via Magen aufgenommen. Biologische Bedeutung. Sauerstoff befindet sich in der Natur in einem steten Kreislauf. Er wird ständig von autotrophen Lebewesen wie Cyanobakterien (veraltet: Blaualgen), Algen und Pflanzen bei der oxygenen Photosynthese durch Photolyse aus Wasser freigesetzt. Er ist ein Endprodukt dieser biochemischen Reaktion und wird an die Umwelt abgegeben. Cyanobakterien waren wahrscheinlich die ersten Organismen, die molekularen Sauerstoff als Abfallprodukt in der Atmosphäre anreicherten. Zuvor existierte eine praktisch sauerstofffreie, anaerobe Atmosphäre auf der Erde. Die meisten aeroben Organismen, darunter die meisten Eukaryoten, einschließlich des Menschen und der Pflanzen, und viele Bakterien, benötigen diesen Sauerstoff zum Leben. Eukaryoten brauchen ihn zur Energiegewinnung durch Oxidation in den Mitochondrien. Der Sauerstoff wird dabei in der Atmungskette wieder zu Wasser reduziert. Die Oxygenierung von Stoffwechselprodukten mithilfe von Enzymen (Oxygenasen) wird oft beim Abbau von Stoffen angewendet; die Reaktion benötigt Sauerstoff und findet in allen aeroben Lebewesen statt. Da Sauerstoff und einige seiner Verbindungen sehr reaktiv sind und Zellstrukturen zerstören können, besitzen Organismen Schutzenzyme wie Katalase und Peroxidase. Für Organismen, denen diese Enzyme fehlen, wirkt Sauerstoff toxisch. Beim Abbau des Sauerstoffs entstehen reaktive Sauerstoffspezies, wie freie Radikale, die ebenfalls biologische Moleküle zerstören können. Werden sie nicht schnell genug abgefangen, entsteht sogenannter oxidativer Stress, der für Alterungsprozesse verantwortlich gemacht wird. In den Phagozyten (Fresszellen) des Immunsystems dienen diese reaktiven Sauerstoffspezies (Wasserstoffperoxid und Hyperoxidionen) neben Enzymen dazu, aufgenommene Krankheitserreger zu zerstören. Problematische Auswirkungen. Wird reiner Sauerstoff oder Luft mit einem höheren Sauerstoffanteil über längere Zeit eingeatmet, kann es zur Vergiftung der Lunge, dem sogenannten Lorrain-Smith-Effekt kommen. Dabei werden die Lungenbläschen (Lungenalveolen) durch Anschwellen in ihrer normalen Funktion gehindert. Der Paul-Bert-Effekt bezeichnet eine Sauerstoffvergiftung des Zentralnervensystems. Diese kann bei Hochdruckatmung jeglicher Sauerstoff-Stickstoff-Gemische auftreten, das Risiko erhöht sich jedoch mit Erhöhung des Sauerstoffanteils und des Gesamtdrucks. Bei Sauerstoff-Teildrücken oberhalb 1,6 bar kommt es innerhalb relativ kurzer Zeit zu einer Vergiftung. Dies spielt beispielsweise beim Tauchen eine Rolle, da es die maximale Tauchtiefe abhängig vom Sauerstoffpartialdruck begrenzt. In der Raumfahrt wird beispielsweise in Raumanzügen reiner Sauerstoff geatmet, allerdings unter stark vermindertem Druck, um gesundheitliche Folgen zu minimieren und weil der Raumanzug unter normalem Druck zu steif würde. Hyperoxidanionen im Stoffwechsel. Hyperoxidanionen (alte Bezeichnung: Superoxidanionen) sind einfach negativ geladene und radikalische Sauerstoffionen (O2−), die durch Elektronenübertragung auf molekularen Sauerstoff entstehen. Diese sind äußerst reaktiv. Mitunter werden sie als Nebenprodukt des Stoffwechsels (Metabolismus) wie durch Nebenreaktionen bei einigen Oxidasen (Xanthin-Oxidase) gebildet. Hyperoxidanionen entstehen ebenfalls beim Photosynthese-Komplex I und als Nebenprodukt der Atmungskette ("mitochondriale Atmung"). Xenobiotika und cytostatische Antibiotika fördern dabei ihre Entstehung. Beim Auftreten einer Entzündung wird durch eine membranständige NADPH-abhängige Oxidase Hyperoxidanionen ins extrazelluläre Milieu abgegeben. Sie führen zu oxidativem Stress. Beispielsweise kommt es beim Fettsäureabbau in den Peroxisomen zur Übertragung von Elektronen von FADH2 auf molekularen Sauerstoff. Die entstandenen Hyperoxidanionen können zum Zellgift Wasserstoffperoxid weiterreagieren. Beim Ablauf der Atmungskette entstehen diese radikalischen Sauerstoffspezies in geringen Mengen. Es bestehen Vermutungen, dass die Erbgutschädigungen, die solche Sauerstoffspezies hervorrufen, an Alterungsprozessen beteiligt sind. Es ist daher für den Organismus von essentieller Bedeutung, diese Hyperoxidanionen zügig abzubauen. Dies geschieht mittels der Superoxid-Dismutase. Klassische Analytik. Gelöster Sauerstoff oxidiert zweiwertiges Mangan zu höheren Oxidationsstufen. Dieses wird nach der Methode von Winkler durch Iodid wieder vollständig reduziert. Die Stoffmenge des dabei gebildeten Iods steht in einem stöchiometrischen Verhältnis von 1:2 zu der Stoffmenge des ursprünglich gelösten Sauerstoffs und kann iodometrisch mit Thiosulfat rücktitriert werden. Als einfacher Nachweis für das Vorhandensein von Sauerstoff wird die Glimmspanprobe angewandt. Instrumentelle quantitative Analytik. Die zur Verbrennungssteuerung von Otto-Motoren verwendete Lambdasonde misst den Sauerstoffgehalt im Autoabgas in Bezug zum O2-Gehalt in der Umgebungsluft. Dazu wird der Abgasstrom durch ein Yttrium-dotiertes Zirconiumdioxidröhrchen geleitet, welches innen und außen mit Platinelektroden versehen ist. Dabei steht die äußere Elektrode in Kontakt mit der Umgebungsluft. Unterschiedliche O2-Partialdrücke an den Elektroden führen zu einer elektrischen Potentialdifferenz, die gemessen wird. Die Vorteile dieser Messtechnik liegen in der niedrigen Nachweisgrenze von wenigen ppm und der großen Betriebstemperaturspanne (300 °C bis 1500 °C). Die Clark-Elektrode ist ein amperometrischer Sensor zur elektrochemischen Bestimmung von gelöstem, gasförmigem Sauerstoff. Platin- und Ag/AgCl-Referenzelektrode befinden sich in einem Elektrolytsystem, welches durch eine gaspermeable Teflonmembran von der Probelösung getrennt ist. Gelöster Sauerstoff kann durch die Membran in die Elektrolytlösung diffundieren und wird in einem Potentialbereich von −600 mV bis −800 mV kathodisch reduziert. Der gemessene Strom ist dabei proportional zur Sauerstoffkonzentration in der Probelösung. Bei den optischen Methoden bedient man sich der Tatsache, dass Sauerstoff die Fluoreszenz von angeregten Molekülen zu löschen vermag. Auf Basis von fluoreszenten Übergangsmetallkomplexen wurden sog. Optroden entwickelt, die den Sauerstoffgehalt über die Fluoreszenzlöschung von Sondenmolekülen bestimmen. Als Sondenmoleküle kommen häufig Metall-Liganden-Komplexe zum Einsatz. Als Metallionen haben sich Ru(II), Ir(II), Pt(II) und Pd(II) bewährt, als Liganden verschiedene Dipyridine, Phenanthroline und (fluorierte) Porphyrine. Die Sonden werden in Polymermatrices eingebettet. Die Anregung erfolgt zumeist mit LEDs oder Laserdioden. Man unterscheidet zwischen punktuellen Messungen z. B. mittels optischer Lichtleiterfasern und bildgebenden Messverfahren mittels planarer Sensorfilme. Mit Optroden konnten Nachweisgrenzen von 5 ppbv (O2, ≈ 5,1 · 10−6 hPa) erzielt werden, was einer Konzentration in Wasser von 7 pM entspricht. Verbindungen. Sauerstoff bildet Verbindungen mit fast allen Elementen – außer mit den Edelgasen Helium, Neon und Argon. Da Sauerstoff sehr elektronegativ ist, kommt es in fast allen seinen Verbindungen in den Oxidationsstufen −II vor, nur in Peroxiden −I. Diese Ionen werden auch als Closed-shell-Ionen bezeichnet. Peroxide sind meist instabil und gehen leicht in Oxide über. Positive Oxidationszahlen besitzt Sauerstoff nur in Verbindungen mit dem noch elektronegativeren Element Fluor, mit dem es Verbindungen mit der Oxidationsstufe +I (Disauerstoffdifluorid O2F2) und +II (Sauerstoffdifluorid OF2) bildet. Da bei ihnen die negative Polarisierung beim Fluor vorliegt, werden diese nicht als Oxide, sondern als Fluoride, genauer gesagt Sauerstofffluoride, bezeichnet. Neben den Oxidverbindungen tritt Sauerstoff noch in ionischen Verbindungen und Radikalen als Peroxid- (O22−), Hyperoxid- (O2− (Oxidationsstufe −1/2)) und Ozonidanion (O3− (Oxidationsstufe −1/3)) sowie als Dioxygenylkation (O2+) auf. Sauerstoff bildet abhängig vom Bindungspartner sowohl ionisch als auch kovalent aufgebaute Verbindungen. Anorganische Sauerstoffverbindungen. Zu den anorganischen Sauerstoffverbindungen zählen die Verbindungen von Sauerstoff mit Metallen, Halbmetallen, Nichtmetallen wie Wasserstoff, Kohlenstoff, Stickstoff, Schwefel und den Halogenen. Sie gehören zu den wichtigsten Verbindungen überhaupt. Oxide. Die meisten Sauerstoffverbindungen sind Oxide. In ihnen tritt der Sauerstoff, ionisch oder kovalent gebunden, in der Oxidationsstufe −II auf. Viele natürlich vorkommenden Salze, die oft wichtige Quellen zur Herstellung von Metallen sind, sind Oxide. Mit den Metallen bildet Sauerstoff in niedrigen Oxidationsstufen ionisch aufgebaute und in der Regel basische Oxide. Mit steigender Oxidationsstufe haben die Oxide zunehmend amphoteren (Zink(II)-oxid, Aluminium(III)-oxid) und schließlich sauren Charakter (Chrom(VI)-oxid). Mit Nichtmetallen bildet Sauerstoff ausschließlich kovalente Oxide. Die Oxide von Nichtmetallen in niedrigen Oxidationsstufen reagieren meist neutral (Distickstoffmonoxid), mit steigender Oxidationsstufe zunehmend sauer. Unter den Sauerstoffverbindungen der Nichtmetalle spielen die mit Wasserstoff eine gesonderte Rolle. Sauerstoff bildet mit Wasserstoff zwei Verbindungen. An erster Stelle ist das Wasser zu nennen, ohne das es kein Leben auf der Erde geben würde. Die zweite Verbindung ist das Wasserstoffperoxid (H2O2), eine thermodynamisch instabile Verbindung, die als Oxidations- und Bleichmittel Verwendung findet. Obwohl die meisten sauerstoffhaltigen Kohlenstoffverbindungen in den Bereich der organischen Chemie eingeordnet werden, gibt es einige wichtige Ausnahmen. Die einfachen Oxide des Kohlenstoffs Kohlenstoffmonoxid (CO) und Kohlenstoffdioxid (CO2), sowie die Kohlensäure und deren Salze, die Carbonate, werden als anorganische Verbindungen angesehen. Sind in einer salzartigen Verbindung geringere Mengen Oxidionen bekannt als nach der Stöchiometrie und Wertigkeit des Sauerstoffs zu erwarten, spricht man von Suboxiden. In diesen kommen Element-Element-Bindungen vor, die formale Oxidationsstufe des Elements liegt bei unter +1. Elemente, die Suboxide bilden, sind die Alkalimetalle Rubidium und Caesium, aber auch Bor oder Kohlenstoff. Sauerstoffverbindungen mit Sauerstoff-Sauerstoff-Bindungen. Vor allem mit Alkalimetallen bildet Sauerstoff Verbindungen mit Sauerstoff-Sauerstoff-Bindungen. Hierzu zählen die Peroxide, die Hyperoxide und die Ozonide. Peroxide wie Wasserstoffperoxid besitzen das O22−-Ion und eine formale Oxidationsstufe des Sauerstoffs von −1. Durch die leichte Spaltung der Sauerstoff-Sauerstoff-Bindung bilden sie leicht Radikale, die auf organische Substanzen bleichend wirken und dementsprechend als Bleichmittel eingesetzt werden. Es sind auch organische Peroxide bekannt. In "Hyperoxide"n kommt das radikalische Dioxid(1−)-Anion O2− vor, die formale Oxidationsstufe ist −½ für jedes Sauerstoffatom. Hyperoxid-Ionen bilden sich im Stoffwechsel und zählen dabei zu den Reaktiven Sauerstoffspezies, salzartige Hyperoxide sind lediglich von den Alkalimetallen außer Lithium bekannt. Ozonide leiten sich vom Ozon ab und haben dementsprechend das O3−-Anion. Salzartige Ozonide sind wie Hyperoxide von allen Alkalimetallen außer Lithium bekannt, dazu gibt es auch organische Ozonide, die durch Addition von Ozon an Alkene entstehen. Hydroxide. Eine weitere große Gruppe der Sauerstoffverbindungen stellen die Hydroxide unter Beteiligung von Wasserstoff dar. Bei diesen handelt es sich um überwiegend ionische Verbindungen, denen das Hydroxidion gemein ist. Bis auf die Hydroxide der Alkalimetalle wie Natriumhydroxid (NaOH) oder Kaliumhydroxid (KOH) sind sie im Allgemeinen wenig löslich in Wasser. Sauerstoffsäuren. Bei der Reaktion von Nichtmetalloxiden sowie Metalloxiden von Metallen in hohen Oxidationsstufen mit Wasser bilden sich die sogenannten Sauerstoffsäuren, die für die Namensgebung des Sauerstoffs verantwortlich sind. Organische Sauerstoffverbindungen. Sauerstoff ist – neben Kohlenstoff, Wasserstoff und Stickstoff – eines der wichtigsten Elemente der organischen Chemie. Er bildet eine Vielzahl wichtiger funktioneller Gruppen, die sowohl Kohlenstoff-Sauerstoff-Einfachbindungen, als auch – in der Carbonylgruppe – Kohlenstoff-Sauerstoff-Doppelbindungen enthalten. Zu den einfachsten organischen Verbindungen, die Sauerstoff enthalten, gehört Methanal (H2CO), das sich formal von Kohlenstoffdioxid (CO2) nur darin unterscheidet, dass statt des zweiten Sauerstoffatoms zwei Wasserstoffatome am Kohlenstoff gebunden sind. Wichtig für die Einteilung in die organische Chemie ist jedoch, dass sich Methanal von dem organischen Alkohol Methanol (CH3OH) ableitet, welcher wiederum ein Derivat des einfachsten Alkans Methan (CH4) ist. Eine weitere wichtige Gruppe organischer Sauerstoffverbindungen sind die Kohlenhydrate oder "Saccharide". Chemisch sind dies Polyhydroxycarbonylverbindungen (Hydroxyaldehyde oder Hydroxyketone). Sie kombinieren also Eigenschaften der Alkohole mit denen der Aldehyde und Ketone. Daneben existieren noch eine Reihe weiterer Verbindungen mit funktionellen Gruppen, bei denen der Sauerstoff an ein weiteres Heteroatom, wie etwa Stickstoff, Schwefel oder Phosphor, beispielsweise bei organischen Phosphaten (etwa ATP oder innerhalb der DNA-Moleküle) gebunden ist. Selen. Selen ist ein chemisches Element mit dem Elementsymbol Se und der Ordnungszahl 34. Im Periodensystem steht es in der 4. Periode sowie der 6. Hauptgruppe, bzw. der 16. IUPAC-Gruppe, zählt also zu den Chalkogenen. Es kommt in mehreren Modifikationen vor, die stabilste ist die graue metallähnliche Form. Geschichte. Selen (griech. σελήνη; Selene „Mond“) wurde 1817 von Jöns Jakob Berzelius im Bleikammerschlamm einer Schwefelsäurefabrik entdeckt, der neben Selen auch Tellur (von lat. "tellus" „Erde“) enthielt. Vorkommen. In kleinen Mengen kommt gediegenes Selen natürlich vor. Selenmineralien wie Clausthalit und Naumannit sind selten. Selen ist, meist in Form von Metallseleniden, Begleiter schwefelhaltiger Erze der Metalle Kupfer, Blei, Zink, Gold und Eisen. Beim Abrösten dieser Erze sammelt sich das feste Selendioxid in der Flugasche oder in der nachgeschalteten Schwefelsäureherstellung als Selenige Säure. Selen kann in Tragant-Arten oder im Knoblauch als Se-Methylselenocystein angereichert werden. Die reichhaltigste bekannte Selenquelle unter den Nahrungsmitteln ist die Paranuss. Als essentielles Spurenelement ist Selen Bestandteil der 21. biogenen Aminosäure Selenocystein, sowie in Bakterien, Archaea und Eukaryoten enthalten. Gewinnung und Darstellung. Industriell gewinnt man Selen als Nebenprodukt bei der elektrolytischen Kupfer- und Nickelherstellung aus dem Anodenschlamm durch Abrösten. Die Reduktion zum elementaren Selen erfolgt durch Schwefeldioxid. Im Labormaßstab kann Selen aus der Umsetzung von Seleniger Säure und Iodwasserstoff synthetisiert werden. Organisch gebundenes Selen. In der Lebensmittelergänzung und Tierernährung (in der Tierernährung in der EU seit Mai 2005 zugelassen) wird seit einigen Jahren eine organische Selenquelle eingesetzt, die durch die Zucht bestimmter Brauhefen des Typs "Saccharomyces cerevisiae" (Sel-Plex, Lalmin(TM)) auf selenreichem Nährmedium (Melasse und Natriumselenit) erzeugt wird. Hefen synthetisieren hohe Anteile an Selenomethionin als Aminosäure und binden so bis zu 2000 ppm Selen auf organische Weise. Die größte Anlage zur Erzeugung solcher natürlicher Selenhefen wurde 2004 in São Pedro im brasilianischen Bundesstaat Paraná errichtet. Eigenschaften. Schwarzes, graues und rotes Selen (von links) Die Bandlücke des Selens beträgt etwa 1,74 eV (an der Grenze vom sichtbaren Licht zum Infrarot). Durch Belichtung ändert es seine elektrische Leitfähigkeit. Zusätzlich zeigt es einen photovoltaischen Effekt. Die Leitfähigkeit wird nicht durch Elektronen in einem Leitungsband verursacht, sondern durch Leitung von Löchern (siehe bei Elektrische Leitfähigkeit und Defektelektron), also positiv geladenen Elektronenfehlstellen, wodurch unter anderem das Vorzeichen des Hall-Effekts negativ wird. Als Mechanismus für diese Löcherleitung wird eine so genannte „Hopping-Leitfähigkeit“ (der Löcher von einer Kristallfehlstelle zur nächsten) vorgeschlagen. Beim Erhitzen in Luft verbrennt Selen mit blauer Flamme zum Selendioxid, SeO2. Oberhalb von 400 °C setzt es sich mit Wasserstoff zum Selenwasserstoff, H2Se, um. Mit Metallen bildet es in der Regel Selenide, zum Beispiel Natriumselenid, Na2Se. Das chemische Verhalten ist dem Schwefel ähnlich, allerdings ist Selen schwerer oxidierbar. Die Reaktion mit Salpetersäure bildet „nur“ Selenige Säure, eine Selen(IV)-Verbindung. Isotope. Das Selen weist eine Vielzahl von Isotopen auf. Von den sechs natürlich vorkommenden Isotopen sind fünf stabil. Dabei sind die Anteile folgendermaßen verteilt: 74Se (0,9 %), 76Se (9,0 %), 77Se (7,6 %), 78Se (23,6 %), 80Se (49,7 %) und 82Se (9,2 %). 82Se als einziges natürlich vorkommendes radioaktives Isotop besitzt mit ca. 1020 Jahren eine der längsten derzeitig bekannten Halbwertszeiten überhaupt. Daneben kennt man weitere 22 radioaktive Isotope, unter denen 75Se mit einer Halbwertszeit von 120 Tagen und 79Se mit einer Halbwertszeit von 327.000 Jahren besondere Bedeutung haben. 75Se findet zur Konstruktion spezieller Gammastrahlenquellen zur zerstörungsfreien Prüfung von z. B. Schweißnähten Anwendung. 75Se dient in der Nuklearmedizin in Verbindung mit Methionin als Tracer zur Beurteilung der Pankreasfunktion und mit Homotaurocholsäure (SeHCAT) zur Beurteilung der Resorption von Gallensäuren. 79Se ist Bestandteil von abgebranntem Kernbrennmaterial, wo es bei der Spaltung von Uran mit einer Häufigkeit von 0,04 % entsteht. Das seltenste der stabilen Isotope 74Se hat eine gewisse Bedeutung als Spekulationsobjekt erlangt. Es wird immer wieder zu sehr hohen Preisen auf dem Markt angeboten. Außer einigen sehr spezialisierten Anwendungen in der Forschung, wo es zu Markierungszwecken dient, ist für dieses Material jedoch keine besondere technische Verwendung bekannt. Biologische Bedeutung. Selen ist ein essentielles Spurenelement für Menschen, Tiere und viele Bakterien. In der Milchviehfütterung wird Selen zugesetzt, da der natürliche Selengehalt der Futtermittel oft nicht zur Versorgung der Nutztiere ausreicht. Das deutsche Futtermittelrecht erwähnt zur Ergänzung der Selenversorgung nur die beiden anorganischen Selenquellen Natriumselenit und -selenat als Futterzusatzstoffe. Diese beiden Verbindungen sind ökonomisch sehr günstig, stehen aber aufgrund der geringen Bioverfügbarkeit für den Organismus aktuell in der Kritik. Selen wirkt in höheren Konzentrationen jedoch stark toxisch, wobei die Spanne zwischen Konzentrationen, die Mangelerscheinungen hervorrufen, und toxischen Konzentrationen sehr gering ist. Zudem ist die Toxizität von Selen abhängig von der chemischen Bindungsform. Selen ist in Selenocystein enthalten, einer Aminosäure im aktiven Zentrum des Enzyms Glutathionperoxidase und vieler weiterer Proteine. Wegen seiner hohen Reaktivität mit Sauerstoff spielt Selen bei Tieren und Menschen eine wichtige Rolle beim Schutz der Zellmembranen vor oxidativer Zerstörung (Radikalfänger). Selenocystein ist auch am Katalysemechanismus weiterer Enzyme beteiligt und in vielen Proteinen enthalten, deren Bedeutung noch nicht geklärt ist. Diskussion um Selen. Bevor eine Arbeitsgruppe um Klaus Schwarz am National Institute of Health (USA) Selen als essentiellen Nahrungsbestandteil der Tiere entdeckte, galt Selen als toxische Substanz. In den 1930er Jahren machten Veterinäre in den „Great Plains“ die hohe Aufnahme selenhaltiger Pflanzen für die Alkali-Krankheit und die Blind-Ataxie der Rinder verantwortlich, andererseits berichtete eine Forschergruppe um Schwarz in den 1950er Jahren, dass Selen einer nekrotischen Leberdegeneration vorbeugt. Etwa gleichzeitig stellte eine Gruppe von Forschern der Oregon State University, der auch O. H. Muth und J. E. Oldfield angehörten, ein Selendefizit bei schwachen Kälbern fest. Später wies Hogue nach, dass Selen der Muskeldystrophie der Lämmer vorbeugt. Diesen Berichten folgend haben Forscher verschiedener Einrichtungen Studien zum Nutzen der Selensupplementierung auf Leistung und Gesundheit des Milchviehs begonnen. Es wurde beschrieben, dass Selen vorrangig an der Katalyse des Glutathionperoxidase (GSH-Px)-Systems beteiligt ist. Verschiedene Isoformen der GSH-Px zerstören die während des normalen Fettstoffwechsels gebildeten Peroxide (reaktive Sauerstoffverbindungen). Wenn Peroxide ungehindert in der Zelle verbleiben, greifen sie die Zellmembranen an und destabilisieren sie. Hemken erklärte, dass Selen auch an der Entgiftung gefährlicher Medikamente oder Toxine beteiligt ist. Selen spielt bei Tieren noch in mindestens zwei weiteren Enzym-Systemen eine Rolle: bei der Iodthyronin-Deiodase, einem Enzym, welches das Schilddrüsenhormon T4 aktiviert, und bei der Thioredoxin-Reduktase, einem Enzym, das die reduzierenden Reaktionen reguliert. Bestimmte Plasma-, Herz-, Muskel- und Nierenproteine enthalten Selen. Jedoch ist die Funktion des Selens in diesen Proteinen noch in weiten Bereichen unklar. Es gibt viele verschiedene Selenoproteine. In den Selenoproteinen ist meist Selenocystein enthalten, das auch als 21. Aminosäure bekannt ist und während der Proteinbiosynthese über eine eigene tRNA eingebaut wird. Selenoproteine kommen in dieser Funktion nur in tierischen Organismen, Bakterien und Archaeen vor. Pflanzen bauen Selen je nach Bodengehalt anstelle des Schwefels unspezifisch in Aminosäuren ein, besonders in Methionin (Se-Methionin) und in geringem Umfang auch Cystein (Se-Cystein) bzw. Derivate davon (Methyl-Se-Cystein). Nur die sogenannten „Selensammlerpflanzen“ (Selenakkumulator-Pflanzen, z. B. Paradiesnuss), die in selenreichen, ariden Gebieten vorkommen, speichern Selen darüber hinaus auch als organisch gebundenes, wasserlösliches Selen oder Selensalze. Selenmangelkrankheiten. Erkrankungen aufgrund einer Mangelversorgung mit Selen kommen nur in Ländern mit extremer Selenunterversorgung wie Nordkorea und Nordostchina sowie einzelnen anderen Ländern vor. In unseren Breiten können in der Regel nur Frühgeborene, parenteral ernährte Patienten und Alkoholkranke einen Selenmangel entwickeln. Selen als Nahrungsergänzungsmittel. In einer kritischen Bewertung der Pharmainformation vom Juni 2005 wird festgestellt, dass die bislang verfügbaren Studien keine Hinweise für einen Nutzen einer zusätzlichen Gabe von Selen in irgendeinem Zusammenhang erbringen konnten. Zwar scheint eine positive Beeinflussung verschiedener Krebsarten möglich, andererseits die Begünstigung anderer Karzinome nicht unwahrscheinlich. Die „SELECT“-Studie („"Sel"enium and Vitamin "E" "C"ancer Prevention "T"rial“) sollte diesbezüglich Auskunft geben und 2013 abgeschlossen werden. Allerdings wurde diese im Oktober 2008 abgebrochen, da während der Studie nachgewiesen werden konnte, dass es keine verbesserte Schutzwirkung im Vergleich zum Placebo gibt und ein Nutzen ausgeschlossen werden konnte. In dieser Studie wurde zwar sogar eine erhöhte Prostatakrebshäufigkeit unter der Gabe von Vitamin E und eine erhöhte Diabetesentstehung unter der Selengabe festgestellt, beides war aber nicht statistisch signifikant. Im Rahmen der neuerlichen Auswertung von Daten einer Studie kam Saverio Stranges von der Universität in Buffalo zu dem Ergebnis, dass von den 600 Patienten, die Selen einnahmen (tägl. 200 µg) nach fast acht Jahren etwa zehn Prozent an Typ 2 Diabetes erkrankt waren. Bei der Placebo-Kontrollgruppe waren es lediglich sechs Prozent. Bis dato wurde noch keine potentielle Ursache für das erhöhte Diabetes-Risiko gefunden. Hohe Selenkonzentrationen im Blut korrelieren mit dem Risiko, an Diabetes zu erkranken. Somit kommt auch die Pharmainformation vom Februar 2008 zum Schluss: „Eine kritische Haltung gegenüber wenig belegten Konzepten, hinter denen natürlich ein großes finanzielles Interesse steht, hat sich wieder einmal bestätigt.“ Die Studienlage ist diesbezüglich jedoch nicht eindeutig. So werden der Studie von Stranges et al. methodische Fehler unterstellt, etwa das Fehlen einer vorherigen Familienamnese, die eine erhöhte familiäre Prävalenz von Diabetes mellitus innerhalb der Selengruppe hätte ausschließen müssen, sowie die Tatsache, dass die untersuchten Probanden Personen waren, die in hohem Maße Sonnenstrahlung und Chemikalien ausgesetzt waren, weswegen sich die Ergebnisse schlecht auf „durchschnittliche“ Probanden übertragen ließen. Zudem liege das Diabetes-Risiko sowohl in der Placebo- als auch in der Selengruppe unter dem amerikanischen Durchschnittswert. Andere Studien legen weiterhin einen hemmenden Effekt von Selen auf die Entwicklung von Diabetes mellitus nahe, darunter eine jüngst veröffentlichte von Tasnime Akbaraly (Universität Montpellier) durchgeführte Untersuchung an 1162 Männern und Frauen. Auch eine Arbeit aus dem Jahr 2012 zeigt einen positiven Effekt von Selen nur dann, wenn ein Selenmangel besteht, ansonsten kommt es eher zur Entwicklung eines Diabetes mellitus. Eine große Metastudie aus dem Jahr 2013 zeigt keinen protektiven Nutzen der Selensubstitution bezüglich Herz-Kreislauferkrankungen. Es gab zwar vermehrte Diabetes-2-Fälle in der Selen-Substitutionsgruppe, der Unterschied war jedoch nicht signifikant. Aber es kam vermehrt zu Alopezie und zu Dermatitis. Natriumselenit und Schilddrüsenhormone. Selen spielt eine wichtige Rolle bei der Produktion der Schilddrüsenhormone, genauer bei der „Aktivierung“ von Thyroxin (T4) zu Triiodthyronin (T3). Selen ist Bestandteil eines Enzyms, der Thyroxin-5′-Deiodase, die für die Entfernung eines Iodatoms aus T4 verantwortlich ist. Durch diese Deiodierung entsteht T3. Ein Selenmangel führt zu einem Mangel an Thyroxin-5′-Deiodase, wodurch nur noch ein Teil des verfügbaren T4 deiodiert werden kann. Da T3 im Stoffwechsel wesentlich wirksamer ist, resultiert aus einem T3-Mangel eine Schilddrüsenunterfunktion (Hypothyreose). Eine zusätzliche Einnahme von Selenpräparaten (Natriumselenit) in hohen Dosen von 200–300 μg täglich ist nach ärztlicher Abklärung z. B. bei Hashimoto-Thyreoiditis angezeigt, dies kann auch die Entzündungsaktivität reduzieren. Nachweise. Die quantitative Bestimmung von Spuren (0,003 %) an Selenat kann elektrochemisch mittels Polarografie erfolgen. In 0,1-molarer Ammoniumchloridlösung zeigt sich eine Stufe bei −1,50 V (gegen SCE). Im Ultraspurenbereich bietet sich die Atomspektrometrie an, wobei mittels Flammen-AAS 100 μg/l (ppb), per Graphitrohr-AAS 0,5 und per Hydridtechnik 0,01 µg/l Selen nachgewiesen werden können. Sicherheitshinweise. Selen und Selenverbindungen sind giftig. Direkter Kontakt schädigt die Haut (Blasenbildung) und Schleimhäute. Eingeatmetes Selen kann zu langwierigen Lungenproblemen führen. Eine Vergiftung durch übermäßige Aufnahme von Selen wird als Selenose bezeichnet. Eine Selen-Aufnahme von mehr als 3000 µg/d kann zu Leberzirrhose, Haarausfall und Herzinsuffizienz führen. Beschäftigte in der Elektronik-, Glas- und Farbenindustrie gelten als gefährdet. Nach anderen Quellen treten schon ab 400 µg/d Vergiftungserscheinungen auf wie Übelkeit und Erbrechen, Haarverlust, Nagelveränderungen, periphere Neuropathie und Erschöpfung. Silicium. Silicium (standardsprachlich Silizium) ist ein chemisches Element mit dem Symbol Si und der Ordnungszahl 14. Es steht in der 4. Hauptgruppe (Kohlenstoffgruppe), bzw. der 14. IUPAC-Gruppe, und der 3. Periode des Periodensystems der Elemente. In der Erdhülle ist es, auf den Massenanteil (ppmw) bezogen, nach Sauerstoff das zweithäufigste Element. Silicium ist ein klassisches Halbmetall, weist daher sowohl Eigenschaften von Metallen als auch von Nichtmetallen auf und ist ein Elementhalbleiter. Reines, elementares Silicium besitzt eine grau-schwarze Farbe und weist einen typisch metallischen, oftmals bronzenen bis bläulichen Glanz auf. Elementares Silicium ist für den menschlichen Körper ungiftig, in gebundener silicatischer Form ist Silicium für den Menschen wichtig. Der menschliche Körper enthält etwa 20 mg/kg Körpermasse Silicium; die Menge nimmt mit zunehmendem Alter ab. Begriff. Standardsprachlich wird das Element ‚Silizium‘ geschrieben, die Schreibweise mit ‚c‘ ist vor allem in der chemischen Fachsprache gebräuchlich. Beide Schreibweisen entstammen dem lateinischen Ausdruck "silicia" ‚Kieselerde‘, verknüpft mit lat. "silex" ‚Kieselstein‘, ‚Fels‘. Die englische Übersetzung für Silicium lautet, z. B. im Begriff "Silicon Valley" (dt. ‚Silicium-Tal‘) zu finden. Die gelegentlich anzutreffende Übersetzung ‚Silikon‘ ist ein falscher Freund. Der Unterschied zum Englischen liegt wohl daran, dass die im Jahre 1817 geänderte Endung -on korrekterweise auf die dem Kohlenstoff () und Bor () ähnlichen chemischen Eigenschaften verweist, wogegen in vielen nicht-englischen Sprachen die Endung -ium, die auf ein vermeintliches Metall hindeutet, bis heute erhalten blieb. Nutzung in vorindustrieller Zeit. Siliciumhaltige Verbindungen, vor allem Gesteine, spielen in der Menschheitsgeschichte als Baumaterial traditionell eine wichtige Rolle. Ein typisches Beispiel für ein frühes Bauwerk aus Stein ist Stonehenge. Ein weiteres wichtiges silicathaltiges Material, das seit langer Zeit als Baumaterial dient, ist Lehm, der zunächst im Astgeflecht-Lehmbau, später in Ziegelform verwendet wurde. Zement, der ebenfalls silicathaltig ist, wurde erstmals von den Römern entwickelt. Aufgrund ihrer scharfen Schnittkanten fanden siliciumhaltige Gesteine in der Steinzeit auch Einsatz als Werkzeuge. Bereits in vorgeschichtlicher Zeit ist zum Beispiel Obsidian als besonders geeignetes Werkzeugmaterial abgebaut und durch Handel weithin verbreitet worden. Auch Feuerstein wurde in Kreidegebieten, etwa in Belgien und Dänemark, bergmännisch gewonnen. Bei der Metallgewinnung, insbesondere bei der Stahlherstellung, wird Silicat-Schlacke zum Schutz der Herde und Öfen vor Sauerstoffzutritt und als Form aus Ton oder Sand eingesetzt; dabei wurde möglicherweise die Glasherstellung entdeckt. Elemententdeckung. Als Element wurde Silicium vermutlich zum ersten Mal von Antoine Lavoisier im Jahre 1787 und unabhängig davon von Humphry Davy im Jahre 1800 dargestellt, irrtümlich jedoch für eine Verbindung gehalten. Im Jahre 1811 stellten der Chemiker Joseph Louis Gay-Lussac und Louis Jacques Thénard (vgl. Thénards Blau) unreines und amorphes Silicium (a-Si, die nichtkristalline, allotrope Form des Siliciums) her. Dazu setzten sie Siliciumtetrafluorid mit elementarem Kalium um. Ein ähnliches Vorgehen wurde 1824 von Jöns Jakob Berzelius in Schweden durch Umsetzung eines Hexafluorosilicates mit elementarem Kalium beschritten. Berzelius reinigte das so erhaltene amorphe Silicium durch Waschen. Er erkannte als erster die elementare Natur des Siliciums und gab ihm seinen Namen. Der Begriff Silicium leitet sich vom lateinischen Wort "silex" (Kieselstein, Feuerstein) ab. Er bringt zum Ausdruck, dass Silicium häufiger Bestandteil vieler Minerale ist. Es existieren jedoch auch Quellen, die den Begriff Silicium auf Antoine Lavoisier zurückführen. Der englische Begriff wurde 1817 von dem schottischen Chemiker Thomas Thomson (1773–1852) vorgeschlagen. Die Endung "-on" soll dabei auf die chemische Verwandtschaft zu den Nichtmetallen Kohlenstoff () und Bor () hinweisen. Die erstmalige Herstellung reinen, kristallinen Siliciums gelang im Jahre 1854 dem französischen Chemiker Henri Etienne Sainte-Claire Deville mittels Elektrolyse. Silicium in der unbelebten Natur. Die gesamte Erde besteht zu etwa 15 Massenprozent aus Silicium; insbesondere der Erdmantel setzt sich zu einem beträchtlichen Anteil aus silicatischen Gesteinsschmelzen zusammen. Die Erdkruste besteht zu etwa 25,8 Gewichtsprozent aus Silicium; damit ist es das zweithäufigste chemische Element nach dem Sauerstoff. Hier tritt Silicium im Wesentlichen in Form silicatischer Minerale oder als reines Siliciumdioxid auf. So besteht Sand vorwiegend aus Siliciumdioxid. Quarz ist reines Siliciumdioxid. Viele Schmucksteine bestehen aus Siliciumdioxid und mehr oder weniger Beimengungen anderer Stoffe, etwa Amethyst, Rosen- und Rauchquarz, Achat, Jaspis und Opal. Mit vielen Metallen bildet Silicium Silicate aus. Beispiele für silicathaltige Gesteine sind Glimmer, Asbest, Ton, Schiefer, Feldspat und Sandstein. Auch die Weltmeere stellen ein gewaltiges Reservoir an Silicium dar: In Form der monomeren Kieselsäure ist es in allen Ozeanen in beträchtlichen Mengen gelöst. Insgesamt sind bisher (Stand: 2011) 1437 Siliciumminerale bekannt, wobei der seltene Moissanit mit einem Gehalt von bis zu 70 % den höchsten Siliciumanteil hat (Zum Vergleich: Mineralischer Quarz hat einen Siliciumgehalt von bis zu 46,7 %). Da Silicium in der Natur auch in gediegener, das heißt elementarer Form vorkommt, ist es bei der International Mineralogical Association (IMA) als Mineral anerkannt und wird in der Strunz’schen Mineralsystematik (9. Auflage) unter der System-Nr. 1.CB.15 (I/B.05-10) in der Abteilung der Halbmetalle und Nichtmetalle geführt. In der vorwiegend im englischen Sprachraum bekannten Systematik der Minerale nach Dana trägt das Element-Mineral die System-Nr. 01.03.07.01. Gediegenes Silicium konnte bisher (Stand: 2011) an 15 Fundorten nachgewiesen werden, davon erstmals in der Lagerstätte Nuevo Potosí auf Kuba. Weitere Fundorte liegen in der Volksrepublik China, Russland, der Türkei und in den Vereinigten Staaten. Silicatkreislauf. Allerdings reagiert Orthokieselsäure mit sich selbst relativ schnell wieder zu (amorphem) Siliciumdioxid und Wasser, sofern der pH-Wert ≥ 3 ist. Die absolute Konzentration der Orthokieselsäure ist relativ gering (z. B. < ca. 7 mmol in Meerwasser). Der Zeithorizont, in dem dieser Prozess stattfindet, beträgt mehrere Millionen Jahre, ist also beträchtlich länger als im Fall des Kohlenstoffkreislaufs der belebten Natur. Silicium in der belebten Natur. Neben der bereits erwähnten essentiellen Natur des Siliciums gibt es eine Reihe von Lebewesen, die siliciumdioxidhaltige Strukturen erzeugen. Am bekanntesten sind dabei die Kieselalgen (Diatomeen), Schwämme (Porifera, Spongiaria) und Radiolarien die sich durch enzymkatalysierte Kondensation von Orthokieselsäure Si(OH)⁠4 ein Exoskelett aus Siliciumdioxid aufbauen. Auch viele Pflanzen enthalten in ihren Stängeln und Blättern Siliciumdioxid. Bekannte Beispiele sind hier der Schachtelhalm und die Bambuspflanze. Durch das aufgebaute Siliciumdioxidgerüst erhalten diese zusätzliche Stabilität. Physiologische Bedeutung für den Menschen. Silicium scheint für Knochenbildung und -reifung benötigt zu werden. Bei Kälbern führte die Gabe von Orthosilicat zur Vermehrung von Kollagen in Haut und Knorpel. Die aus Tierversuchen abgeleitete wünschenswerte Zufuhr liegt bei 30 mg/d. Mangelzustände beim Menschen sind bisher nicht bekannt. Als "Kieselerde" oder "Silicea terra" werden Präparate zum Einnehmen angeboten. Sie enthalten im Wesentlichen Kieselsäureanhydride (Siliciumdioxid) und sollen Haut, Nägel, Knochen und Bindegewebe stärken und gesund erhalten. Eine Wirkung ist wissenschaftlich nicht nachgewiesen. Ein Überschuss an Silicium kann zur Hämolyse von Erythrocyten führen und als direkte Folge Zellveränderungen verursachen. Gewinnung in der Industrie. Elementares Silicium findet in unterschiedlichen Reinheitsgraden Verwendung in der Metallurgie (Ferrosilicium), der Photovoltaik (Solarzellen) und in der Mikroelektronik (Halbleiter, Computerchips). Demgemäß ist es in der Wirtschaft gebräuchlich, elementares Silicium anhand unterschiedlicher Reinheitsgrade zu klassifizieren. Man unterscheidet Simg (, Rohsilicium, 98–99 % Reinheit), Sisg (, Solarsilicium, Verunreinigungen kleiner 0,01 %) und Sieg (, Halbleitersilicium, Verunreinigungen kleiner 1 ppb). Rohsilicium. Im industriellen Maßstab wird elementares Silicium durch die Reduktion von Siliciumdioxid mit Kohlenstoff im Schmelz-Reduktionsofen bei Temperaturen von etwa 2000 °C gewonnen. Von diesem industriellen Rohsilicium (Simg) wurden im Jahre 2002 etwa 4,1 Millionen Tonnen hergestellt. Es ist für metallurgische Zwecke ausreichend sauber und findet Verwendung als Legierungsbestandteil und Desoxidant für Stähle (Verbesserung der Korrosionsbeständigkeit, Unterdrückung von Zementit) sowie als Ausgangsstoff für die Silanherstellung über das Müller-Rochow-Verfahren, die schließlich vor allem zur Herstellung von Silikonen dienen. Zur Herstellung von Ferrosilicium für die Stahlindustrie (Desoxidationsmittel im Hochofenprozess) wird zweckmäßigerweise nachfolgende Reaktion unter Anwesenheit von elementarem Eisen durchgeführt. Solarsilicium. Für die Produktion von Solarzellen muss das Rohsilicium weiter zum Solarsilicium (Sisg) gereinigt werden. Das kann z. B. im Siemens-Verfahren erfolgen, bei dem es zunächst mit gasförmigem Chlorwasserstoff bei 300–350 °C in einem Wirbelschichtreaktor zu Trichlorsilan (Silicochloroform) umgesetzt wird. Nach aufwendigen Destillationsschritten wird das Trichlorsilan in Anwesenheit von Wasserstoff in einer Umkehrung der obigen Reaktion an beheizten Reinstsiliciumstäben bei 1000–1200 °C wieder thermisch zersetzt. Das elementare Silicium wächst dabei auf die Stäbe auf. Der dabei freiwerdende Chlorwasserstoff wird in den Kreislauf zurückgeführt. Als Nebenprodukt fällt Siliciumtetrachlorid an, das entweder zu Trichlorsilan umgesetzt und in den Prozess zurückgeführt oder in der Sauerstoffflamme zu pyrogener Kieselsäure verbrannt wird. Bei dem klassischen Siemensverfahren entstehen pro kg Reinstsilicium 19 kg Abfall- und Nebenstoffe. Das Verfahren ist aufgrund der mehrfachen Destillation der energieintensivste Schritt bei der Herstellung von Solarmodulen. Eine chlorfreie Alternative zu obigem Verfahren stellt die Zersetzung von Monosilan dar, das ebenfalls aus den Elementen gewonnen werden kann und nach einem Reinigungsschritt an beheizten Oberflächen oder beim Durchleiten durch Wirbelschichtreaktoren wieder zerfällt. Das auf diesen Wegen erhaltene polykristalline Silicium (Polysilicium) ist für die Herstellung von Solarmodulen geeignet und besitzt eine Reinheit von über 99,99 %. In der Solartechnik werden genau wie beim Einsatz in der Mikroelektronik die halbleitenden Eigenschaften des Siliciums ausgenutzt. Nur noch von historischem Interesse ist ein Verfahren, das früher von der Firma DuPont angewendet wurde. Es basierte auf der Reduktion von Tetrachlorsilan mit elementarem Zinkdampf bei Temperaturen von 950 °C. Aufgrund technischer Probleme und dem in großen Mengen anfallenden Zinkchloridabfall wird dieses Verfahren jedoch heute nicht mehr angewendet. Halbleitersilicium. Für Anwendungen in der Mikroelektronik wird hochreines, monokristallines Halbleitersilicium (Sieg) benötigt. Insbesondere müssen Verunreinigungen mit Elementen, die auch als Dotierelemente geeignet sind, mittels des Tiegelziehens oder Zonenschmelzens unterhalb kritischer Werte gebracht werden. Beim "Tiegelziehen" (Czochralski-Verfahren) wird das im Siemensverfahren erhaltene Solarsilicium in Quarztiegeln geschmolzen. Ein Impfkristall aus hochreinem monokristallinem Silicium wird in diese Schmelze gebracht und langsam unter Drehen aus der Schmelze herausgezogen, wobei hochreines Silicium in monokristalliner Form auf dem Kristall auskristallisiert und dadurch fast alle Verunreinigungen in der Schmelze zurückbleiben. Physikalischer Hintergrund dieses Reinigungsverfahrens ist die Schmelzpunkterniedrigung und Neigung von Stoffen, möglichst rein zu kristallisieren. Alternativ wird beim Zonenschmelzen mit Hilfe einer (ringförmigen) elektrischen Induktionsheizung eine Schmelzzone durch einen Siliciumstab gefahren, wobei sich ein Großteil der Verunreinigungen in der Schmelze löst und mitwandert. Hochreines kristallines Silicium ist derzeit das für die Mikroelektronik am besten geeignete Grundmaterial; weniger hinsichtlich seiner elektrischen Eigenschaften, als vielmehr der chemischen, physikalischen und technisch nutzbaren Eigenschaften von Silicium und der seiner Verbindungen (Siliciumdioxid, Siliciumnitrid usw.). Alle gängigen Computerchips, Speicher, Transistoren etc. verwenden hochreines Silicium als Ausgangsmaterial. Diese Anwendungen beruhen auf der Tatsache, dass Silicium ein Halbleiter ist. Durch die gezielte Einlagerung von Fremdatomen (Dotierung), wie beispielsweise Indium, Antimon, Arsen, Bor oder Phosphor, können die elektrischen Eigenschaften von Silicium in einem weiten Bereich verändert werden. Dadurch lassen sich verschiedenste elektronische Schaltungen realisieren. Wegen der zunehmenden Bedeutung der elektronischen Schaltungen spricht man auch vom Silicium-Zeitalter. Auch die Bezeichnung "Silicon Valley" („Silicium-Tal“) für die Hightech-Region in Kalifornien weist auf die enorme Wichtigkeit des Siliciums in der Halbleiter- und Computerindustrie hin. Amorphes Silicium kann mit Hilfe von Excimerlasern in polykristallines Silicium umgewandelt werden. Dies ist für die Herstellung von Dünnfilmtransistoren (Thin-Film-Transistor, TFT) für Flachbildschirme von zunehmender Bedeutung. Hersteller. Silicium ist im Handel sowohl als feinkörniges Pulver als auch in größeren Stücken erhältlich. Hochreines Silicium für die Anwendung in Solarmodulen oder in Halbleiterkomponenten wird in der Regel in Form von dünnen Scheiben aus Einkristallen, sogenannten Silicium-Wafern (siehe Abb.), produziert. Aufgrund der hohen Anfangsinvestitionen und langen Bauzeiten für die notwendigen Öfen stellen allerdings weltweit nur wenige Firmen Rohsilicium her. Es gibt noch ca. 15 andere große Produzenten. In der Volksrepublik China gibt es eine Reihe kleinerer Werke, im Ländervergleich ist sie daher der größte Produzent. Der Markt für Polysilicium bzw. Reinstsilicium ist seit Mitte der 2000er Jahre im Umbruch. Aufgrund des hohen Bedarfes der Solarbranche kam es schon 2006 zu einer Siliciumknappheit, und nachdem Polysilicium aufgrund der hohen Nachfrage in den Jahren 2008/2009 nicht mehr in ausreichender Menge verfügbar war, stieg sein Preis so stark, dass eine ganze Reihe von Firmen dazu überging, eigene neue Produktionsanlagen zu errichten. Aber auch die etablierten Hersteller (siehe unten) erweiterten ihre Kapazitäten stark, ganz zu schweigen von zahlreichen völlig neuen Anbietern, vor allem aus Asien, so dass die Frage, welcher dieser Hersteller am Ende in der Lage sein würde, seine Anlagen beizeiten in Betrieb zu nehmen und bei nun wieder stark gefallenen Preisen noch profitabel zu produzieren, zum Ende des Jahrzehnts schwer zu beantworten war und auch weiterhin unterschiedlich beantwortet wird. Physikalische Eigenschaften. Erweitertes Zonenschema von Silicium (nicht besetzte Bereiche eingefärbt) Silicium ist wie die im Periodensystem benachbarten Germanium, Gallium, Phosphor und Antimon ein Elementhalbleiter. Der gemäß dem Bändermodell geltende energetische Abstand zwischen Valenzband und Leitungsband beträgt 1,107 eV (bei Raumtemperatur). Durch Dotierung mit geeigneten Dotierelementen wie beispielsweise Bor oder Arsen kann die Leitfähigkeit um einen Faktor 106 gesteigert werden. In solchermaßen dotiertem Silicium ist die durch die von Fremdatomen und Gitterdefekten verursachte Störstellenleitung deutlich größer als die der Eigenleitung, weshalb derartige Materialien als Störstellenhalbleiter bezeichnet werden. Der Gitterparameter beträgt 543 pm. a> ("N" = "n" + i "k") von Silicium Der von der Wellenlänge des Lichts abhängige komplexe Brechungsindex ist im nebenstehenden Bild dargestellt. Auch hier lassen sich Informationen über die Bandstruktur ablesen. So erkennt man anhand des stark steigenden Verlaufs des Extinktionskoeffizienten "k" einen direkten Bandübergang bei 370 nm ("EΓ1" = 3,4 eV). Ein weiterer direkter Bandübergang ist bei ≈ 300 nm ("EΓ2" = 4,2 eV) zu beobachten. Der indirekte Bandübergang von Silicium ("Eg" = 1,1 eV) kann nur erahnt werden. Dass weitere indirekte Bandübergänge vorhanden sind, ist an der weit auslaufenden Kurve von "k" für Wellenlängen > 400 nm erkennbar. Wie Wasser und einige wenige andere Stoffe weist Silicium eine Dichteanomalie auf: Seine Dichte ist in flüssiger Form (bei Tm = 1685 K) um 10–11 % höher als in fester, kristalliner Form (c-Si) bei 300 K. Chemische Eigenschaften. In allen in der Natur auftretenden und in der überwiegenden Zahl der synthetisch hergestellten Verbindungen bildet Silicium ausschließlich Einfachbindungen aus. Die Stabilität der Si-O-Einfachbindung im Gegensatz zur C-O-Doppelbindung ist auf ihren partiellen Doppelbindungscharakter zurückzuführen, der durch Überlappung der freien Elektronenpaare des Sauerstoffs mit den leeren d-Orbitalen des Siliciums zustande kommt. Die lange Jahre als gültig angesehene Doppelbindungsregel, wonach Silicium als Element der 3. Periode keine Mehrfachbindungen ausbildet, muss mittlerweile jedoch als überholt angesehen werden, da inzwischen eine Vielzahl synthetisch hergestellter Verbindungen mit Si-Si-Doppelbindungen bekannt sind. Im Jahre 2004 wurde die erste Verbindung mit einer formalen Si-Si-Dreifachbindung strukturell charakterisiert. Mit Ausnahme von salpetersäurehaltiger Flusssäure (in der sich Hexafluorosilicat bildet) ist Silicium in Säuren unlöslich, da es zur Passivierung durch die Bildung einer festen Siliciumdioxid-Schicht kommt. Leicht löst es sich hingegen in heißen Alkalilaugen unter Wasserstoffbildung. Trotz seines negativen Normalpotenzials (−0,81 V) ist es in kompakter Form relativ reaktionsträge, da es sich an der Luft mit einer schützenden Oxidhaut überzieht. Isotope. Silicium hat eine Vielzahl bekannter Isotope, mit Massenzahlen zwischen 22 und 42. 28Si hat einen doppelt magischen und damit besonders stabilen Kern. Es entsteht in schweren Sternen gegen Ende ihrer Entwicklung in großen Mengen (Sauerstoffbrennen). Diese Umstände sind der Grund für den hohen Anteil von 28Si am gesamten Silicium (92,23 %) bzw. auch an der Häufigkeit von Silicium im Vergleich zu anderen Elementen. Derzeit (2009) wird versucht, die SI-Basiseinheit "Kilogramm" neu zu definieren als eine bestimmte Menge von 28Si-Atomen. Ebenfalls stabil sind die Isotope 29Si (4,67 % Anteil am gesamten Silicium) sowie 30Si (3,1 %). Das radioaktive Isotop 31Si zerfällt rasch (Halbwertszeit 157,3 Minuten) durch Beta-Strahlung zu stabilem Phosphor. Dieser Umstand kann genutzt werden, um sehr homogen n-dotiertes Silicium herzustellen. Dazu wird Silicium mit Neutronen bestrahlt, durch Neutroneneinfang entsteht dann 31Si und folglich 31P. Eine für dieses Verfahren geeignete Neutronenquelle ist die Forschungs-Neutronenquelle Heinz Maier-Leibnitz. Langlebiger ist 32Si mit einer Halbwertszeit von 172 Jahren. Spuren dieses Isotops entstehen in der Erdatmosphäre durch Spallation von Argon durch kosmische Strahlung. 32Si zerfällt zu dem ebenfalls radioaktiven 32P (Halbwertszeit 14,3 Tage), und dann weiter zu stabilem 32S. Alle weiteren Isotope zerfallen innerhalb weniger Sekunden (vgl. Liste der Isotope). Sicherheit. Silicium ist als Pulver wie viele Elemente brennbar. Als Pulver und Granulat ist es reizend. Kompaktes Silicium ist ungefährlich. Hydriertes, das heißt oberflächlich mit Wasserstoff bedecktes, poröses Silicium kann unter Lasereinstrahlung und Zunahme von Sauerstoff hochexplosiv sein, wie Forscher der Technischen Universität München zufällig entdeckt haben. Sprengungen im Mikrometerbereich sind möglich. Die Detonationsgeschwindigkeit und Detonationsenergie sind höher als bei TNT und Dynamit. Verwendung in der Technik. 1947 entdecken John Bardeen, Walter Brattain und William Shockley den regelbaren elektrischen Widerstand, den Transistor, zunächst an einem Germaniumkristall. Es dauerte einige Zeit, bis das verbindungsfreudige Silicium in der für Halbleitereigenschaften notwendigen Reinheit isoliert werden konnte. 1958 entwickeln Robert Noyce bei Fairchild und Jack S. Kilby bei Texas Instruments unabhängig voneinander die integrierte Schaltung (IC) auf einem Silicium-Chip. Heutzutage stellt Silicium das Grundmaterial der meisten Produkte der Halbleiterindustrie dar. So dient es auch als Basismaterial für viele Sensoren und andere mikromechanischen Systeme (z. B. Hebelarm in einem Rasterkraftmikroskop). Silicium ist ebenfalls der elementare Bestandteil der meisten Solarzellen. Im November 2005 wurde von ersten erfolgversprechenden Versuchsergebnissen mit Siliciumlasern berichtet. Silicium wird als energiereicher Brennstoff in vielen Explosivstoffen verwendet. Verbindungen. Silicium tritt in chemischen Verbindungen fast immer vierwertig auf. Demgemäß ist das Siliciumatom in Verbindungen in der Regel vierfach koordiniert. Daneben existieren aber mittlerweile eine Reihe von Verbindungen, in denen Silicium eine fünf- oder sechsfache Koordination aufweist. Neben dem vierwertigen Silicium sind auch synthetisch hergestellte Verbindungen des zweiwertigen Siliciums (Silylene) bekannt, die jedoch meistens sehr instabil sind. Von größerer Bedeutung ist einzig das Siliciummonoxid, das als Material zur Vergütung von optischen Linsen verwendet wird. Darüber hinaus wurde 2012 auch eine dreifach koordinierte Verbindung ähnlich der eindimensionalen Struktur von Graphen experimentell nachgewiesen, dem sogenannten Silicen. Die gesamte Chemie des Siliciums ist im Wesentlichen durch die hohe Affinität des Siliciums zum Sauerstoff geprägt. Silicium stellt in aller Regel den elektropositiven Partner einer chemischen Verbindung dar, obwohl auch Verbindungen mit formal negativiertem Silicium existieren. Dabei handelt es sich meistens um Silicide, bei denen Silicium auch echte Anionen ausbilden kann. Besonders erwähnenswert ist die Inversion der Bindungspolarität von Element-Wasserstoff-Bindungen beim Übergang von Kohlenstoff zum Silicium. Hier ändert sich die Elektronegativitätsdifferenz von +0,45 (Kohlenstoff-Wasserstoff) auf −0,2, weshalb Siliciumwasserstoffverbindungen eine gänzlich andere Reaktivität als Kohlenwasserstoffe aufweisen. Sonstiges. Bis heute kommt es immer wieder vor, dass das englische Wort „“ (für Silicium) in populärwissenschaftlichen Artikeln oder bei Filmsynchronisationen fälschlich als „Silikon“ (engl. „silicone“) übersetzt bzw. ausgesprochen wird. Dies geschah beispielsweise in der Science-Fiction-Serie "Star Trek", dem James-Bond-Agententhriller "Im Angesicht des Todes" oder in der Zeichentrickserie "Die Simpsons". Beispiel: „Besteht die Lebensform aus Kohlenstoff oder aus Silikon?“ Sogar in nicht übersetzten Texten wie dem 1980er-Jahre-Hit "Monopoli" fiel Songschreiber und Interpret Klaus Lage auf die falsche Verwendung herein, denn er textete: „[…] deinen Job macht jetzt ein Stück Silikon […]“ Schwefel. Schwefel (lateinisch sulpur (Neutrum), gräzisiert sulphur, fälschlich auch sulfur; idg. *sl̥p-ŕ̥ (verwandt mit "Salbe"); im Germanischen (gotisch "swefls") wohl Lehnwort unter volksetymologischem Einfluss von "*swel" 'schwelen'; die zur Benennung schwefelhaltiger Verbindungen verwendete Silbe „-thio-“ stammt vom griechischen Wort "θεῖον theĩon" 'Schwefel') ist ein chemisches Element mit dem Elementsymbol S und der Ordnungszahl 16. Er zählt zu den Chalkogenen, der sechsten Hauptgruppe des Periodensystems. In der Häufigkeit der in der Lithosphäre vorkommenden Elemente steht er an 16. Stelle. Schwefel ist ein gelber, nichtmetallischer Feststoff, der eine Vielzahl allotroper Modifikationen bildet. In der Natur kommt er sowohl gediegen als auch in Form seiner anorganischen Verbindungen vor, in diesen vor allem als Sulfid oder Sulfat. Bestimmte Aminosäuren und Coenzyme enthalten Schwefel; in Organismen spielt er eine Rolle bei der anaeroben Energiegewinnung von Mikroorganismen. Den größten Teil des elementar gewonnenen Schwefels verwendet die chemische Industrie zur Herstellung von Schwefelsäure, einer der technisch wichtigsten und meistproduzierten Grundchemikalien. Als Komponente des sauren Regens besitzen Schwefeloxide erhebliche Umweltrelevanz. Geschichte. Abschnitt des Papyrus Ebers, ca. 1500 v. Chr. Schwefel ist ein seit langem vom Menschen genutztes Element. Chinesen und Ägypter nutzten um etwa 5000 v. Chr. Schwefel zum Bleichen von Textilien, als Arzneimittel und zur Desinfektion. Der Papyrus Ebers beschreibt die Verwendung von Schwefel zur Behandlung von bakteriellen Entzündungen des Auges (Trachom). Eine natürlich vorkommende Modifikation des Schwefels, genannt "Shiliuhuang", war in China seit dem sechsten Jahrhundert v. Chr. bekannt. Chinesen gewannen im dritten vorchristlichen Jahrhundert Schwefel aus Pyrit. Das vorklassische Griechenland verwendete Schwefel als Arzneimittel und das durch Verbrennung von Schwefel entstehende Schwefeldioxid sowohl als Desinfektionsmittel zur Verhütung von Infektionskrankheiten wie der Pest als auch zur Schwefelung von Wein. Bereits um 800 v. Chr. erwähnte Homer dies in der Odyssee. Die antike Kriegsführung verwendete Schwefel als Brandwaffe oder Brandbeschleuniger. Plinius der Ältere erwähnte um das Jahr 79 n. Chr. in seinem Werk Naturalis historia die Insel Milos als Lagerstätte des Elements sowie seine Verwendung als Desinfektionsmittel, Arzneimittel und Bleiche. Eine Abhandlung aus der Zeit der Song-Dynastie um 1044 beschreibt verschiedene Formen des chinesischen Schwarzpulvers, einer Mischung aus Kaliumnitrat, Holzkohle und Schwefel. Roger Bacon beschrieb im Jahr 1242 die Herstellung einer ähnlichen Mischung. Schwarzpulver blieb lange Zeit der einzige Spreng- und Explosivstoff. Die Rolle des deutschen Mönches Berthold Schwarz, dem die Wiederentdeckung des Schwarzpulvers meist zugeschrieben wird, ist historisch nicht eindeutig belegt. Die Umweltauswirkungen von Schwefeloxiden aus der Verbrennung von Kohle auf die Luftqualität in London beschrieb im Jahr 1661 John Evelyn in einem Brief an Karl II. sowie in seinem Werk Fumifugium "(The Inconveniencie of the Aer and Smoak of London Dissipated)", dem ersten Buch über die Luftverschmutzung in London. Als einen der ersten chemisch-technischen Prozesse entwickelte John Roebuck ab 1746 das Bleikammerverfahren zur Herstellung von Schwefelsäure. Im November 1777 vermutete Antoine Laurent de Lavoisier erstmals, dass Schwefel ein Element ist. Seine Versuche und Beobachtungen zum Verbrennungsverhalten von Schwefel führten letztendlich zum Fall der Phlogistontheorie. Dennoch gelangte Humphry Davy noch 1809 experimentell zu dem Ergebnis, dass Schwefel Sauerstoff und Wasserstoff enthalte. Der letztendliche Nachweis des Elementcharakters gelang im Jahr 1810 Joseph Louis Gay-Lussac und Louis Jacques Thénard bei der Überprüfung der Davy’schen Versuche. Seit 1814 wird das Elementsymbol S nach einem Vorschlag von Jöns Jakob Berzelius, der es unter dem Namen Sulphur in seine Atomgewichtstabelle aufnahm, verwendet. Der dänische Chemiker William Christopher Zeise entdeckte um 1822 die Xanthogenate und stellte 1834 mit Ethanthiol das erste Mercaptan her. Die Entwicklung und Patentierung des Kontaktverfahrens erfolgte im Jahr 1831 durch den Essigproduzenten Peregrine Phillips. Im britischen Patent Nr. 6096 beschreibt er die spontane Oxidation von Schwefeldioxid zu Schwefeltrioxid in Luft in Gegenwart eines Platinkatalysators. Durch nachfolgende Absorption des Trioxids in Wasser gelangte er zu Schwefelsäure. In der Folgezeit ersetzte Vanadiumpentoxid das Platin als Katalysator. Ein weiterer Meilenstein bei der Entwicklung chemisch-technischer Verfahren gelang Charles Goodyear 1839 durch die Entdeckung der Vulkanisierung von Kautschuk mit elementarem Schwefel; sie bildet die Grundlage der Kautschukindustrie. Das Verfahren legte den Grundstein für den Aufbau eines Reifenimperiums durch Frank und Charles Seiberling, die den Namen "Goodyear" im Firmennamen zu seinen Ehren wählten. In den Jahren 1891 bis 1894 entwickelte der deutschstämmige Chemiker Hermann Frasch das Frasch-Verfahren, mit dem die 1865 in Louisiana entdeckten unterirdischen Schwefellager abgebaut werden konnten. Im Jahr 1912 wies Ernst Beckmann kryoskopisch nach, dass rhombischer Schwefel aus S8-Ringen besteht. Röntgenstrukturanalytisch gelang dieser Nachweis 1935 B. E. Warren und J. T. Burwell. Ab den 1970er Jahren stellte die Arbeitsgruppe um Max Schmidt neue allotrope Modifikationen des Schwefels her. Terrestrische Vorkommen. Schwefel kommt in vielen Erdsphären vor. Den Austausch zwischen diesen Sphären beschreibt der Schwefelkreislauf, das System der Umwandlungen von Schwefel und schwefelhaltigen Verbindungen in Lithosphäre, Hydrosphäre, Erdatmosphäre und Biosphäre sowie den Austausch zwischen diesen Erdsphären. Schwefel kommt dabei in der Oxidationsstufe −2, etwa bei Metallsulfiden und Schwefelwasserstoff, sowie −1 vor, zum Beispiel in Aminosäuren. Die Oxidationsstufe 0 (elementarer Schwefel) tritt in Sedimenten, die aus der bakteriellen Reduktion von Sulfaten stammen, wie etwa in Louisiana, oder bei Schwefelvorkommen vulkanischen Ursprungs auf. In der Oxidationsstufe +4 kommt es als Schwefeldioxid in der Atmosphäre vor und in der Oxidationsstufe +6 als Sulfat in der Hydro- und Lithosphäre. Schwefel steht bezüglich der Elementhäufigkeit mit einem Massenanteil von Lithosphäre. Elementarer Schwefel kommt in der Natur in mächtigen Lagerstätten, zum Beispiel in Sizilien, Polen, Irak, Iran, Louisiana, Texas und Mexiko vor. Weltweit konnte gediegener Schwefel bis 2011 an rund 1500 Fundorten nachgewiesen werden. Neben den bereits genannten Lagerstätten wurde Schwefel unter anderem in mehreren Regionen von Australien, Nord- und Südamerika, Asien und Europa gefunden. Schwefel fand sich in Mineralproben vom Meeresboden des Golfes von Mexiko, des Mittelatlantischen Rückens und des Ostpazifischen Rückens. Reiner Schwefel ist relativ selten; Vulkanausbrüche setzen ihn jedoch in großen Mengen frei. Er findet sich in Vulkanschloten oder an anderen postvulkanischen Erscheinungen. Schwefel kommt in "derber" Form vor, das heißt, ohne mit bloßem Auge erkennbare Kristalle, insbesondere in Sedimenten oder Sedimentgesteinen. Häufig findet er sich in Evaporiten (Salzgesteinen), wo er meistens durch Reduktion von Sulfaten entsteht. Schwefel tritt gediegen, das heißt in elementarer Form, als Mineral "Schwefelblüte" "(Gelber Schwefel)" in der Natur auf. Charakteristisch für Schwefelblüte sind neben der geringen Härte die Farbe und der niedrige Schmelzpunkt 112,8 °C (α-S) beziehungsweise 119,2 °C (β-S). Die International Mineralogical Association (IMA) führt ihn gemäß der Systematik der Minerale nach Strunz (9. Auflage) unter der System-Nr. „1.CC.05“ (Elemente – Halbmetalle (Metalloide) und Nichtmetalle – Schwefel-Selen-Iod) (8. Auflage: "I/B.03-10"). Die im englischsprachigen Raum ebenfalls geläufige Systematik der Minerale nach Dana führt das Element-Mineral unter der System-Nr. „01.03.05.01“. Die Modifikationen β-Schwefel und Rosickýit "(γ-Schwefel)" sind als Minerale anerkannt, da sie in der Natur vorkommen. Oberhalb etwa 95 °C kristallisiert Schwefel monoklin (β-Schwefel). Diese Form wandelt sich unterhalb von 95 °C rasch in den stabilen α-Schwefel um. Er kristallisiert im orthorhombischen Kristallsystem in der Raumgruppe  mit den Gitterparametern "a" = 1044 pm; "b" = 1284 pm und "c" = 2437 pm sowie 128 Formeleinheiten pro Elementarzelle. Die Dichte von Schwefel beträgt etwa 2,0 bis 2,1 g/cm3 und seine Mohshärte etwa 1,5 bis 2,5. Meist zeigt er hellgelbe bis dunkelgelbe Kristallprismen oder Pyramidenformen, die sich auf Gesteinsflächen aus schwefelreichen Gasen durch unvollständige Oxidation von Schwefelwasserstoff (H2S) oder Reduktion von Schwefeldioxid (SO2) bilden. Auf einer Strichtafel hinterlässt Schwefel einen weißen Strich. Pulvrige oder massige Aggregate sind dagegen undurchsichtig matt. Je nach Fundort kann Schwefel in Paragenese mit verschiedenen anderen Mineralen wie beispielsweise Anhydrit, Aragonit, Calcit, Coelestin, Gips und Halit auftreten. Wesentlich häufiger als in gediegener Form tritt Schwefel in der Natur in gebundener Form in verschiedenen Mineralen auf, vor allem in Sulfiden und in Oxiden, Halogeniden und anderen. Insgesamt waren im Jahr 2010 fast 1000 Schwefelminerale bekannt. Weitverbreitet ist Schwefel in sulfidischen Mineralen, wie Pyrit und Markasit (FeS2), Kupferkies (CuFeS2), Bleiglanz (PbS) und Zinkblende (ZnS). Schwermetalle liegen in der Natur oft als schwerlösliche Sulfide vor. In Form von Sulfaten, wie Sulfat-Ionen in den Meeren (etwa 0,9 g/l), Gips (CaSO4 · 2 H2O), Schwerspat (BaSO4) und anderen schwer wasserlöslichen Sulfaten kommt Schwefel natürlich vor. Minerale mit den höchsten Schwefelgehalten sind dabei die Sulfide Patrónit (circa 71,6 %), Villamaninit (circa 55,9 %), Hauerit (circa 53,9 %), Pyrit und Markasit (jeweils circa 53,5 %). Beispiele für Schwefelhalogenide sind Connellit und Kermesit, für Schwefeloxide Hannebachit und Kuzelit, für Schwefelcarbonate Leadhillit und Tychit, für Schwefelsulfate Cyanotrichit und Schwertmannit, für Schwefelphosphate Arsentsumebit und Chalkophyllit und für Schwefelsilikate Haüyn und Nosean. Eine wichtige Quelle für die Gewinnung von Schwefel sind fossile Brennstoffe wie Erdöl, Erdgas und Kohle. Vor allem Erdgas enthält relativ viel Schwefelwasserstoff (H2S). In Braunkohle beträgt der Schwefelgehalt bis zu 10 %. Hydrosphäre. In der Hydrosphäre tritt Schwefel meist in Form des Sulfat-Ions auf; es ist mit einer Konzentration von 7,68 % des Gesamtsalzgehaltes nach den Chlorid- und Natrium-Ionen das dritthäufigste Ion im Meerwasser. Marine Mikroorganismen nutzen Sulfat zum Abbau des am Meeresboden vorhandenen Methans. Das Sulfat wird dabei zu Schwefelwasserstoff reduziert, das von anderen Mikroorganismen in höheren Meeresschichten wieder oxidiert wird. Im Süßwasser kommen Sulfate aus natürlichen Quellen wie Gipslagern vor und tragen maßgeblich zur Wasserhärte bei. Für Trinkwasser gilt nach der deutschen Trinkwasserverordnung ein Sulfat-Grenzwert von 240 mg/l. Sulfat-Konzentrationen über 100 mg/l gelten als korrosionsfördernd und greifen sowohl Stahl- als auch Betonkonstruktionen an. Atmosphäre. In den oberen Regionen der Atmosphäre finden sich, etwa bedingt durch Vulkanausbrüche, schwefelreiche Partikel als Aerosole mit Partikelgrößen von 0,1 bis 1 Mikrometer. Da die Partikel Sonnenlicht in der Stratosphäre reflektieren, wird ihnen eine kühlende Wirkung auf das Weltklima zugeschrieben. Durch Verbrennungsprozesse schwefelhaltiger Brennstoffe kommt Schwefel als Schwefeldioxid in der Troposphäre vor. Aus anthropogenen Quellen stammen etwa 35 % der Gesamtschwefeldioxidemissionen von etwa 400 Mio. Tonnen SO2 jährlich. Der Großteil organischer Sulfide stammt von marinem Phytoplankton, das vor allem Dimethylsulfid und Schwefelwasserstoff freisetzt und als zweitgrößte Gesamtemissionsquelle für schwefelhaltige Partikel gilt. Biosphäre. Schwefel kommt in der Biosphäre in vielfältiger Form vor, oft in reduzierter Form. Im Zuge des Abbaus der Biomasse durch Enzyme und Mikroorganismen wird aus organischen Stoffen Schwefelwasserstoff freigesetzt. Schwefel steht Pflanzen vor allem in Form von anionischem Sulfat aus dem Boden zur Verfügung, welches über die Wurzeln aufgenommen und verteilt wird und sich meistens unmetabolisiert im vakuolären Pflanzensaft befindet. Die Reduktion von Sulfat zu Sulfid erfordert 732 kJ mol−1. Schwefeldioxid wird dagegen leicht durch Blätter absorbiert und assimiliert. Sulfat ist ein Makronährelement, dessen Mangel zu Ertragsverlusten in der landwirtschaftlichen Produktion führen kann. Von chemoautotrophen, aeroben, sulfid-oxidierenden Bakterien wird Schwefelwasserstoff mit Sauerstoff zu elementarem Schwefel oxidiert. Von phototrophen (anaeroben) Bakterien wird Schwefelwasserstoff unter anoxischen Bedingungen in anoxygener Photosynthese als Reduktionsmittel zur Assimilation von Kohlenstoffdioxid genutzt und dabei zu elementarem Schwefel oder Sulfat oxidiert. Stellare Vorkommen. a>, ein vulkanischer Schlot auf dem Mond Io von 75 km Durchmesser, gefüllt mit flüssigem Schwefel Diatomarer Schwefel wurde zunächst im Schweif des Kometen IRAS-Araki-Alcock (C/1983 H1) nachgewiesen. Nach dem Nachweis in weiteren Kometen wird mittlerweile angenommen, dass das Vorkommen in Kometenschweifen allgegenwärtig ist. Dabei ist die Herkunft des S2-Moleküls nicht geklärt. Die Wolken der Venus bestehen zum großen Teil aus Schwefeldioxid und Schwefelsäuretröpfchen. Die Schwefelsäure entsteht photochemisch in der oberen Venusatmosphäre durch die ultraviolette Strahlung der Sonne aus Kohlenstoffdioxid und Schwefeldioxid. Die kurzwellige Strahlung setzt aus dem Kohlenstoffdioxid Sauerstoff frei, welcher mit Schwefeldioxid unter Wasseraufnahme zu Schwefelsäure reagiert. Die Viking-Sonden entdeckten Schwefel auf dem Mars. Der Gehalt der schwefelhaltigen Verbindungen, vorwiegend als Magnesium- und Eisensulfat vorliegend, im Marsstaub lag bei bis zu drei Gewichtsprozenten. Die Bildung der Sulfate erforderte wahrscheinlich eine wässrige Umgebung und wird daher als Hinweis auf das Vorhandensein einer prähistorischen Hydrosphäre auf dem Mars gedeutet. Auf dem Jupitermond Io wurden zahlreiche Seen aus geschmolzenem Schwefel gefunden. Das breite Farbspektrum der Schwefelablagerungen verleiht dem Mond ein farbenreiches Erscheinungsbild. Bei den Lavaflüssen, die sich über mehrere hundert Kilometer ausdehnen, wird vermutet, dass sie vornehmlich aus Schwefel oder Schwefelverbindungen bestehen. Untersuchungen von NASA-Forschern legen nahe, dass Salze auf der Oberfläche des Jupitermondes Europa zu zwei Dritteln aus Schwefelsäure bestehen könnten. Andere glauben, dass der mutmaßliche Ozean unter der Eiskruste reich an Schwefelsäure sein könnte. Interstellare Vorkommen. Bislang wiesen Astronomen 13 verschiedene Schwefelverbindungen im interstellaren Raum nach. Darunter sind Kohlenstoffsulfid (CS), Schwefelmonoxid (SO), Siliziumsulfid (SiS), Carbonylsulfid (COS), Schwefelwasserstoff (H2S), Thioformaldehyd (H2CS) und Schwefeldioxid (SO2). Astronomen haben die Hoffnung, mittels der Detektion von Schwefeldioxid Vulkanismus auf extrasolaren Planeten nachzuweisen. Die meisten Verbindungen wiesen sie in interstellaren Molekülwolken nach, deren Größe, Dichte und Temperatur die Bildung von Molekülen erlaubt und sie vor hochenergetischer Strahlung schützt. Der Nachweis der Verbindungen gelang den Wissenschaftlern mittels Radioteleskopie im Millimeter-Wellenlängenbereich. Gewinnung. Abbau von Schwefel (1943, Texas) Schwefel wird entweder als elementarer Schwefel gewonnen, der zu über 90 % weiter zu Schwefelsäure verarbeitet wird, oder in Form seines Oxids durch Rösten von sulfidischen Erzen. Elementarer Schwefel wird weltweit gewonnen und gehandelt. Die größten Produktionsstandorte liegen in den Vereinigten Staaten von Amerika, Kanada, der ehemaligen Sowjetunion und Westasien. Die Volksrepublik China ist der weltweit größte Importeur, gefolgt von Marokko und den Vereinigten Staaten. Kanada ist der größte Exporteur, gefolgt von Russland und Saudi-Arabien. Abbau geologischer Schwefelvorkommen. Abbau von Schwefel vulkanischen Ursprungs auf Java Schwefel kann aus geologischen Lagerstätten von elementarem Rohschwefel oder schwefelhaltigen Verbindungen in Kohlenwasserstoffquellen wie Erdöl, Erdgas und Kohle sowie aus sulfidischen Erzen von Schwermetallen gewonnen werden. In Form von Sulfaten steht Schwefel, zum Beispiel als Gips, in praktisch unbegrenzter Menge zur Verfügung. Die zur Zeit ökonomisch zugänglichen Quellen werden insgesamt auf 5 × 1012 t Schwefel geschätzt. Weitere 600 × 1012 t Schwefel werden in Form von schwefelhaltiger Kohle, Ölschiefer und -sanden vermutet. In den USA betrug im Jahr 2007 die Menge des gewonnenen elementaren Schwefels 8,2 Millionen Tonnen. An Vulkanen und in ihrer Nähe kommen Fumarolen vor, die mit ihren Gasen neben Schwefelwasserstoff auch gasförmigen elementaren Schwefel ausstoßen, der beim Abkühlen an der Austrittsstelle kondensiert und Kristalle bildet. Im Mittelalter waren Ablagerungen von solchen Fumarolen auf Island, etwa Námafjall, eine wichtige Quelle für die Herstellung von Schießpulver in ganz Europa. In Ijen, einem Vulkankomplex im indonesischen Ost-Java, befindet sich eine Solfatare, die als größte Schwefellagerstätte Indonesiens gilt. Aus den dort etwa acht Meter dicken Schwefelbänken wird der Schwefel ausgebrochen und mit Bambuskörben aus dem Krater abtransportiert. Fußkörper der Schwefelpumpe nach Frasch Unterirdische Schwefellagerstätten wurden mittels des von Hermann Frasch entwickelten Frasch-Verfahrens hauptsächlich in den USA und in Polen ausgebeutet. Dazu werden durch darüber liegende Schichten Rohre in die Schwefellagerstätte getrieben. Durch eingespeisten Dampf und überhitztes Wasser verflüssigt der Schwefel und wird durch eingepresste Luft an die Oberfläche gefördert. Noch im Jahr 1995 betrug die jährliche Gewinnung nach diesem Verfahren 3,1 Millionen Tonnen. Die wirtschaftlich abzubauenden Vorkommen sind jedoch selten geworden. In den USA wurde die Förderung des letzten Vorkommens nach diesem Verfahren im Jahr 2001 eingestellt. Schwefelrückgewinnung. Heute fällt Schwefel in großen Mengen als Abfallprodukt bei der Abtrennung von Schwefelwasserstoff aus Erdgasen und der Entschwefelung von Erdöl mit Hilfe des Claus-Verfahrens an. Erdgas enthält bis zu 35 % Schwefelwasserstoff, Erdöl enthält in schwefelarmer Form etwa 0,5 bis 1 % Schwefel, je nach Vorkommen beträgt der Gehalt bis zu 5 % Schwefel. Der grundlegende chemische Prozess der Schwefelrückgewinnung besteht aus zwei Schritten: Im ersten Schritt verbrennt ein Drittel des Schwefelwasserstoffs zu Schwefeldioxid. Die verbleibenden zwei Drittel des Schwefelwasserstoffs reagieren mit dem Schwefeldioxid (SO2) unter Komproportionierung zu Schwefel. Gewinnung als Schwefeldioxid. Beim Erhitzen des Pyrits unter Luftabschluss wird elementarer Schwefel gewonnen. Das Verfahren war schon im Mittelalter bekannt. Lagerung und Distribution. Im Claus-Prozess fällt Schwefel flüssig an und wird meist so gelagert und transportiert. Das hat gegenüber dem Umgang mit festem Schwefel eine Reihe von Kosten- und Qualitätsvorteilen, denn fester Schwefel muss vor der Verwendung ohnehin häufig verflüssigt werden. Bei der Lagerung von festem Schwefel kann sowohl durch Luftfeuchtigkeit als auch durch Schwefelbakterien unerwünschte Schwefelsäure gebildet werden. Durch Korrosion gebildetes Eisensulfid wirkt in feiner Verteilung pyrophor und kann Brände oder Explosionen verursachen. Flüssiger Schwefel wird bei 135 bis 140 °C abgefüllt; die Temperatur darf beim Transport 118 °C nicht unter- und 160 °C nicht überschreiten. Er wird durch Beheizung mit Niederdruckdampf von 3 bis 4 bar im flüssigen Zustand gehalten und per Schiff, in Kesselwagen oder in speziell ausgerüsteten Tankwagen transportiert. Zuvor muss flüssiger Schwefel so weit wie möglich von Schwefelwasserstoff befreit werden. Eine vollständige Entgasung ist meist nicht möglich. Das führt bei offenem Umgang mit flüssigem Schwefel zu Geruchsbelästigung. In Rohrleitungen eingefrorener Schwefel muss auf Grund des hohen Wärmeausdehnungskoeffizienten vorsichtig – konkret: langsam räumlich fortschreitend – aufgetaut werden, da zu schnelles Auftauen zum Bersten der Leitung führen kann. Physikalische Eigenschaften. Die physikalischen Eigenschaften des Schwefels sind stark temperaturabhängig, da bei gegebener Temperatur eine Reihe allotroper Modifikationen vorliegen können. Wird Schwefel auf über 119 °C erhitzt, bildet sich zunächst eine niedrigviskose Flüssigkeit hellgelber Farbe, in der überwiegend S8-Ringe vorhanden sind. Wird die Temperatur gehalten, kommt es durch eine Teilumwandlung der S8-Ringe in kleinere Ringe zu einer Schmelzpunkterniedrigung, die ihr Minimum bei 114,5 °C hat. Beim weiteren Erhitzen nimmt die Viskosität weiter zu und erreicht bei 187 °C ihr Maximum. Dabei brechen die Schwefelringe auf und bilden langkettige Moleküle, ein Beispiel einer ringöffnenden Polymerisation. Oberhalb dieser Temperatur zerfallen die Ketten wieder in kleinere Bruchstücke und die Viskosität nimmt wieder ab. Schwefel ist das Element mit den meisten inter- und intramolekularen allotropen Modifikationen. Intermolekulare Allotrope sind Festkörperphasen eines Elements, die sich in der Kristallstruktur unterscheiden. Bislang sind etwa 30 verschiedene Allotrope bekannt. Die bei Normalbedingungen thermodynamisch stabilen Formen bestehen alle aus S8-Ringen. Daneben existiert eine Reihe intramolekularer Allotrope in Form von Ringen verschiedener Größe sowie Ketten unterschiedlicher Länge. Cyclooctaschwefel. Natürlich vorkommender fester Schwefel besteht aus S8-Molekülen, in denen die Schwefelatome ringförmig in einer so genannten Kronenform angeordnet sind. Cyclooctaschwefel kommt in drei intermolekularen Allotropen vor. Die bei Raumtemperatur thermodynamisch stabilste Modifikation des Schwefels ist der orthorhombisch kristallisierende α-Schwefel. Er ist geruch- und geschmackslos und hat die typische schwefelgelbe Farbe. α-Schwefel kristallisiert orthorhombisch in der Raumgruppe  mit den Gitterparametern "a" = 1044 pm, "b" = 1284 pm und "c" = 2437 pm sowie 128 Formeleinheiten pro Elementarzelle. α-Schwefel tritt gediegen als "Schwefelblüte" "(Gelber Schwefel)" in der Natur auf, hat eine Dichte von 2,0 g/cm3 bis 2,1 g/cm3, eine Härte von 1,5 bis 2,5 und eine hell- bis dunkelgelbe Farbe sowie eine weiße Strichfarbe. Meist zeigt er hellgelbe prismen- oder pyramidenförmige Kristalle, die sich auf Gesteinsflächen aus schwefelreichen Gasen durch unvollständige Oxidation von Schwefelwasserstoff oder Reduktion von Schwefeldioxid bilden. Bei 95,6 °C liegt der Umwandlungspunkt zu β-Schwefel. Diese Schwefelmodifikation ist fast farblos und kristallisiert monoklin in der Raumgruppe  mit den Gitterparametern "a" = 1085 pm; "b" = 1093 pm; "c" = 1095 pm und β = 96,2° sowie 48 Formeleinheiten pro Elementarzelle. Wird β-Schwefel auf 100 °C erhitzt und schnell auf Raumtemperatur abgekühlt, ist diese Modifikation mehrere Wochen beständig. Seltener ist der ebenfalls monoklin kristallisierende γ-Schwefel (Rosickýit) mit der Raumgruppe  und den Gitterparametern "a" = 844 pm; "b" = 1302 pm; "c" = 936 pm und β = 125,0° sowie 32 Formeleinheiten pro Elementarzelle. Das Mineral wird im Death Valley in den USA gefunden, wo es durch mikrobiologische Reduktion von Sulfat entsteht und stabilisiert wird. Cyclohexaschwefel. Cyclohexaschwefel S6, bekannt als Engels-Schwefel, liegt in einer Sessel-Konformation mit hoher Ringspannung vor. Die orangefarbigen, rhomboedrischen Kristalle können durch verschiedene Methoden hergestellt werden. Engel stellte bereits 1891 Cyclohexaschwefel durch Ansäuern einer Natriumthiosulfat-Lösung mit Salzsäure her. Die Dichte beträgt 2,21 g/cm3, der Schmelzpunkt liegt bei etwa 100 °C. Unter Normalbedingungen wandelt sich Cyclohexaschwefel innerhalb weniger Tage in Cyclooctaschwefel um. Cycloheptaschwefel. Cycloheptaschwefel kann durch Reaktion von Cyclopentadienyl-Titan-pentasulfid mit Dischwefeldichlorid hergestellt werden. Cycloheptaschwefel liegt je nach Herstellungsbedingungen in vier verschiedenen intermolekularen allotropen Modifikationen vor (α-, β-, γ-, δ-Cycloheptaschwefel). Diese sind alle temperaturempfindlich und wandeln sich bei Temperaturen oberhalb von 20 °C schnell in die thermodynamisch stabile Form um. Bei einer Temperatur von −78 °C sind die Modifikationen jedoch längere Zeit haltbar. Die im Ring vorkommenden Schwefel-Schwefel-Bindungslängen liegen zwischen 199,3 und 218,1 pm. Größere Schwefelringe. Größere Schwefelringe (S"n" mit "n" = 9 – 15, 18, 20) können mittels der Cyclopentadienyl-Titan-pentasulfid-Methode oder durch Reaktion von Dichlorsulfanen S"m"Cl2 mit Polysulfanen H2S"p" gebildet werden. Von Cyclononaschwefel S9 liegen vier intermolekulare Allotrope vor, von denen zwei, α- und β-Cyclononaschwefel genannt, charakterisiert sind. Mit Ausnahme des Cyclododecaschwefels S12 sind die intramolekularen Bindungslängen und -winkel in den Schwefelmodifikationen unterschiedlich. Cyclododecaschwefel ist nach Cyclooctaschwefel die stabilste Modifikation. Von Cyclooctadecaschwefel S18 liegen zwei intermolekulare Modifikationen als Ring-Konformationsisomere vor. Polymerer Schwefel. Polymerer Schwefel besteht aus langen polymeren Schwefelketten, genannt Catenapolyschwefel. Die Natur der Endgruppe ist nicht bekannt. Das Polymer wird durch Erhitzen auf Temperaturen oberhalb von 120 °C und anschließendes schnelles Abkühlen in kaltem Wasser oder flüssigem Stickstoff gewonnen. Die maximale Kettenkonzentration findet sich bei Temperaturen zwischen 250 bis 300 °C. Vorliegende Schwefelringe können mit Kohlenstoffdisulfid extrahiert werden. Flüssiger Schwefel. Beim Erhitzen auf 119,6 °C schmilzt der β-Schwefel. Die Schmelze besteht anfangs aus Cyclooctaschwefel-Molekülen, so genanntem λ-Schwefel (Schwefelblüte, Sλ). Nach einer Zeit stellt sich ein Gleichgewicht zwischen den verschiedenen intramolekularen Allotropen in der Schmelze ein, wobei andere Ringe (v. a. S6, S7, S12) temperaturabhängig auftreten. Es treten auch wesentlich größere Ringe wie S50 sowie bei höheren Temperaturen Kettenstrukturen auf. Bei weiterer Erhöhung der Temperatur nimmt die Konzentration der kleineren Ringe zunächst zu und die Viskosität ab, so genannter π-Schwefel mit S"n" (6 ≤ "n" ≤ 25, "n" ≠ 8). Ab einer Temperatur von 159 °C beginnt der so genannte λ-Übergang, bei dem die Ringe durch thermische Anregung aufbrechen und durch Polymerisation lange Ketten bilden. Der polymere Schwefel erreicht sein Viskositätsmaximum bei 187 °C. Am λ-Übergang ändern sich eine Reihe physikalischer Eigenschaften, zum Beispiel die Viskosität, die optische Absorption und damit auch die Farbe. Es liegt so genannter ω-Schwefel vor. Wird dieser rasch abgekühlt, liegt er nach Extraktion mit Kohlenstoffdisulfid in fester Form als amorpher, plastischer μ-Schwefel vor, mit S"n" (103 ≤ "n" ≤ 106). Durch weiteres Erhitzen bis zum Siedepunkt bei 444,6 °C zerfallen die Ketten wieder in kleinere Bruchstücke, und die Viskosität der Schmelze nimmt ab. Gasförmiger Schwefel. Gasförmiger Schwefel ist dunkelrot und besteht anfangs aus S8-Ringen, die bei höheren Temperaturen weiter aufbrechen. Bei einer Temperatur von 330 °C besteht der Dampf vorwiegend aus Cycloheptaschwefel S7. Bei Temperaturen oberhalb von 550 °C zerfallen die Ringe in kleinere Moleküle wie S2 – 4. Oberhalb von 700 °C enthält der Dampf vornehmlich S2-Moleküle und bei 1800 °C liegt Schwefel in Form einzelner Atome vor. Die Erhitzung des gasförmigen Schwefels ist mit intensiven Farbänderungen verbunden. Zunächst hat der Schwefeldampf die gleiche gelbe Farbe wie eine Cyclooctaschwefelschmelze. Bei weiterem Erhitzen verändert sich die Farbe von gelb über orange und dunkelrot nach dunkelrotbraun. Das ist auf das Vorliegen der linearen S2 – 4-Spezies zurückzuführen. Geladene Schwefelmoleküle. Die Ringstruktur der Schwefelmoleküle bleibt hierbei erhalten, wobei sich die ursprüngliche Konformation jedoch ändert. Cyclooctaschwefel kann durch Sulfidionen zu einem offenkettigen Nonasulfidion mit der Oxidationsstufe −2 reduziert werden. Dieses geladene Schwefelmolekül ist aber nicht stabil und spaltet sich leicht in kürzere kettenförmige Polysulfide auf. Wasserfrei lassen sich solche Schwefelanionen durch Reduktion mit unedlen Metallen herstellen. Auch in diesem Fall wird die cyclische Struktur in eine kettenförmige Struktur verwandelt. Chemische Eigenschaften. Schwefel ist ein reaktionsfreudiges Element und reagiert bei erhöhter Temperatur mit vielen Metallen außer Platin, Iridium und Gold unter Bildung von Sulfiden. Mit Quecksilber reagiert Schwefel bereits beim Verreiben bei Raumtemperatur zu Quecksilbersulfid. Mit Halb- und Nichtmetallen reagiert Schwefel bei erhöhter Temperatur. Ausnahmen sind Tellur, molekularer Stickstoff, Iod und Edelgase. An Luft entzündet sich Schwefel ab einer Temperatur von etwa 250 °C und verbrennt mit blauer Flamme unter Bildung von Schwefeldioxid. Der Zündpunkt kann durch im Schwefel gelöste Gase wie Schwefelwasserstoff und Schwefeldioxid gesenkt werden. An feuchter Luft bildet Schwefel im Laufe der Zeit Schwefelsäure und Schwefeldioxid. Schwefel reagiert nicht mit nicht-oxidierenden Säuren, von oxidierenden Säuren wie Salpetersäure wird Schwefel zu Sulfat oxidiert. In alkalischer Lösung reagiert Schwefel unter Disproportionierung zu Sulfid und Sulfit. In sulfidischer Lösung löst sich Schwefel unter Bildung von Polysulfiden. In sulfithaltiger Lösung reagiert Schwefel zu Thiosulfat. In der Organischen Chemie wird elementarer Schwefel zum Beispiel in der Asinger-Reaktion zur Darstellung von 3-Thiazolinen verwendet. Die Gewald-Reaktion – ebenfalls eine Mehrkomponentenreaktion – ermöglicht die Synthese substituierter 2-Aminothiophene, ausgehend von elementarem Schwefel. Mit Grignard-Verbindungen reagiert Schwefel unter Bildung von Thioethern oder Thiolen. Cyclohexan wird unter Freisetzung von Schwefelwasserstoff zu Benzol dehydriert. Isotope. Von Schwefel sind 25 Isotope bekannt, von denen vier stabil sind: 32S (95,02 %), 33S (0,75 %), 34S (4,21 %) und 36S (0,02 %). Von den radioaktiven Isotopen hat nur das 35S-Isotop eine Halbwertszeit von 87,51 Tagen, für alle anderen Isotope liegt die Halbwertszeit im Bereich von Sekunden oder Millisekunden. Das 35S-Isotop entsteht aus 40Ar durch kosmische Strahlung. Bei der Fällung von sulfidischen Mineralien kann es je nach Temperatur und pH-Wert zu unterschiedlichen Isotopenverteilungen zwischen Feststoff und Mutterlösung kommen. Die Bestimmung der Schwefel-Isotopenverteilung im Mineral lässt daher Rückschlüsse auf die Bildungsbedingungen zu. Beim Abbau von Sulfaten durch bakterielle Sulfatreduktion kommt es zu einer Isotopenfraktionierung des Schwefels. Die Untersuchung der Schwefel-Isotopenverteilung im gelösten Sulfat lässt daher Rückschlüsse auf biologische Reduktionsprozesse zu. Verwendung. Schwefel wird sowohl in der chemischen Industrie als auch in der pharmazeutischen Industrie genutzt, unter anderem zur Produktion von Schwefelsäure, Farbstoffen, Insektiziden und Kunstdüngern. Herstellung von Schwefelsäure. Der mengenmäßig größte Teil des Schwefels, etwa 90 %, wird zur Herstellung von Schwefelsäure mittels des Kontaktverfahrens verwendet. Dabei wird im ersten Schritt durch Verbrennen von Schwefel oder durch das Rösten von Metallsulfiden Schwefeldioxid hergestellt. Dieses wird mit Luft in einer Gleichgewichtsreaktion an einem Vanadiumpentoxid-Katalysator zu Schwefeltrioxid umgesetzt. Etwa 60 % der Schwefelsäure wird zur Herstellung von Düngemitteln verwendet. Beim Aufschluss von Rohphosphat mit Schwefelsäure entsteht Superphosphat, ein Gemisch aus Calciumdihydrogenphosphat (Ca(H2PO4)2) und Calciumsulfat (CaSO4 · 2H2O). Weitere schwefelhaltige Dünger sind Ammoniumsulfat und Kaliumsulfat. Daneben dient die Schwefelsäure zum Aufschluss von Erzen, der Herstellung von Caprolactam, als Katalysator bei der Alkylierung von Olefinen, zur Herstellung anderer Säuren wie Fluorwasserstoff sowie in der Papierherstellung nach dem Sulfat-Verfahren. Daneben findet Schwefelsäure Anwendung in zahlreichen anderen Prozessen, wie etwa der Herstellung von Phenol und Aceton nach dem Cumolhydroperoxid-Verfahren. Gasförmiges Schwefeltrioxid findet weite Verwendung bei der Herstellung von Tensiden durch Sulfonierung von Dodecylbenzol zu Dodecylbenzolsulfonsäure sowie der Sulfatierung von Fettalkoholen und deren Ethoxylaten. Vulkanisation von Kautschuk. Reiner Schwefel wird sehr häufig bei der Vulkanisation von Kautschuk verwendet. Dazu wird Rohkautschuk mit Schwefel oder schwefelhaltigen Verbindungen versetzt, ein Verfahren, das schon 1839 von Charles Goodyear entwickelt wurde. Die Kautschukpolymerketten werden dadurch unter Ausbildung von Sulfidbrücken aus einem oder mehreren Schwefelatomen vernetzt und so besonders widerstandsfähig gemacht. Der Markt für vulkanisierbare Elastomere in den Vereinigten Staaten betrug im Jahr 2001 5,7 Milliarden US-Dollar. Medizinische Anwendungen. Im Europäischen Arzneibuch wird nur "Schwefel zur äußeren Anwendung" (Sulfur ad usum externum) geführt. Der pulverförmige Schwefel bildet auf der Haut Schwefelwasserstoff und andere Sulfide, welche wiederum bakteriostatisch wirken. Bei oraler Einnahme kommt eine laxierende Wirkung hinzu. Schwefel wirkt darüber hinaus fungizid und kann Parasiten abtöten. Schwefel wurde vor allem in der Vergangenheit zur Behandlung von Acne vulgaris, von Skabies und von oberflächlichen Mykosen verwendet. Die Anwendung erfolgt meist in Form von Seifen, Salben und Gelen. Sulfur (Kürzel "Sulph") ist eine der vierzehn wichtigsten homöopathischen Grundsubstanzen. Verwendung in der Stahlindustrie. In der Schwerindustrie ist Schwefel als Legierungselement für Stahl bedeutend. Automatenstähle, die für die spanenden Fertigungsverfahren wie Drehen und Bohren optimiert sind, sind oft schwefellegiert. Durch den Schwefelzusatz entstehen weiche, zeilenförmig ausgeprägte Mangansulfideinschlüsse im Stahl, die zu erhöhtem Spanbruch führen. An Luft, besonders bei erhöhter Feuchtigkeit, entwickelt Schwefel leicht Schwefeldioxid und bei weiterer Oxidation Schwefelsäure. Das kann zu Korrosion und Schäden an Stahlkonstruktionen oder Lagertanks führen. Katalysatorgift. Schwefelspezies in Kohlenwasserstoffen sind starke Katalysatorgifte, die schon in geringer Konzentration wirksam sind. Schwefel reagiert mit den katalytisch aktiven Metall- und anderen Oberflächenzentren der Katalysatoren. Die Vergiftung kann reversibel oder irreversibel sein und der Katalysator kann dabei in seiner Selektivität verändert oder insgesamt deaktiviert werden. Einige Katalysatoren, wie Platin-Rhenium-Katalysatoren für das Katalytische Reforming, werden selektiv mit Schwefel beaufschlagt, um die Anfangsaktivität des Katalysators zu beeinflussen. Bei älteren Drei-Wege-Katalysatoren wurde als Sulfat auf dem Katalysator gespeicherter Schwefel beim Betrieb im Luftunterschuss als Schwefelwasserstoff freigesetzt. Bei Fahrzeugen mit Magermix-Ottomotor und Speicher-Kat kann es durch Sulfatbildung zu einer Deaktivierung des Katalysators kommen. Zur Regeneration wird die Abgastemperatur auf 650 Grad Celsius erhöht und das gespeicherte Sulfat als Schwefeldioxid emittiert. Sonstiges. Schwefel findet bei der Herstellung von Schwarzpulver, als Salpeterschwefel in der Feuerwerkerei, oder bei anderen Explosivstoffen Verwendung. Beim so genannten "Schwefeln" handelt es sich um eine Konservierungsmethode für Wein und Trockenobst mittels Schwefeldioxid oder Sulfit-Salzen. Früher wurde das Schwefeln von Wein durch das Abbrennen von Schwefel in leeren Weinfässern erreicht, heute wird Kaliumpyrosulfit zugegeben, welches in saurer Lösung Schwefeldioxid freisetzt. Als protektives Kontaktfungizid wirkt Schwefel vorbeugend durch Kontakt an der Pflanzenoberfläche, wo es langsam zu Schwefeldioxid oxidiert wird und die Sporenkeimung hemmt. Verbreitet ist der Einsatz im Weinbau gegen den an der Blattoberfläche wachsenden Echten Mehltaupilz. Figur aus Lapislazuli mit Pyriteinschlüssen (Länge 8 cm) Der Farbstoff Ultramarin wird durch das Verbrennen eines Gemisches aus Schwefel, Kaolin, Natriumsulfat, Soda und Aktivkohle erhalten. Die tiefblaue Farbe des Ultramarins rührt von in Sodalith-Käfigen eingesperrten Polysulfid-Radikalionen des Typs •S3− her, die für die Farbgebung im Lapislazuli verantwortlich sind. Schwefel oder Schwefelverbindungen werden als Schmierstoffadditive eingesetzt. Die in Drahtziehereien eingesetzten Ziehfette bestanden aus natürlichen Fetten, denen Schwefelblüte beigemischt wurde. Dieses bildet auf der Metalloberfläche eine Schicht von Metallsulfiden, bei Eisen etwa Eisen(II)-sulfid (FeS), Eisen(II)-disulfid (FeS2) oder Eisen(III)-sulfid (Fe2S3), die als Schmierstoff wirken. Molybdän(IV)-sulfid ist unter dem Handelsnamen "Molykote" bekannt und dient auf Grund seiner graphitartigen Struktur als festes Schmiermittel. Als Extreme-Pressure-Additiv werden Schwefelverbindungen noch heute Schmierstoffen beigefügt. Organische Chemie. In der organischen Chemie wird Schwefel zur Synthese von 3-Thiazolinen in der Asinger-Reaktion – einer Mehrkomponentenreaktion – benutzt. Physiologie. Strukturformel von L-Cystin mit der blau markierten Disulfidbrücke. Schwefelverbindungen kommen in allen Lebewesen vor und haben eine Vielzahl von Funktionen. Schwefel wird als Sulfid oder Sulfat von Pflanzen und Bakterien aus der Umgebung assimiliert und zu organischen Schwefelverbindungen aufgebaut, die letztlich von Tieren mit der Nahrung aufgenommen werden. Vorkommen und Funktion in Lebewesen. Schwefel ist in den proteinogenen Aminosäuren Cystein und Methionin – und in allen darauf aufbauenden Peptiden, Proteinen, Koenzymen und prosthetischen Gruppen – in Form von Thiolgruppen (Oxidationsstufe +II) oder Thioethergruppen enthalten. Andere schwefelhaltige Aminosäuren mit biologischer Funktion sind Cystin und Homocystein. Weiterhin ist er in einigen Cofaktoren (Biotin, Thiaminpyrophosphat) in heterocyklischer Bindung enthalten. Schwefel ist damit ein essentielles Element lebender Zellen. Disulfidbrückenbindungen sind weit verbreitet und tragen einerseits zur Ausbildung und Stabilisierung von Proteinstrukturen (z. B. im Keratin menschlicher und tierischer Haare und Federn) bei, andererseits basieren viele Redoxreaktionen in Zellen auf der Umkehrbarkeit dieser Bindung (in Thioredoxin und Glutathion). In oxidierter Form spielt Schwefel in der Aminosulfonsäure Taurin (Oxidationsstufe +IV) eine biologische Rolle. Der Gesamtschwefelgehalt des menschlichen Körpers liegt bei etwa 0,25 %, wobei der Gehalt je nach Gewebeart schwanken kann. In den Globinen von Säugetieren wurde ein Gesamtschwefelgehalt zwischen 0,37 % beim Schwein und 0,6 % beim Menschen bestimmt. Zum Beispiel besteht Keratin im Horn von Pferden bis zu 5 % aus Schwefel. Schwefelhaltige Pflanzenstoffe wie die Cysteinsulfoxide Methiin, Alliin, Isoalliin und Propiin können bis zu 5 % der Trockenmassen von Pflanzen, zum Beispiel bei den als Gewürzmittel genutzten Pflanzen der Gattung Allium wie Knoblauch und Zwiebel, ausmachen. Daneben entstehen durch enzymatische Aktivität oder Oxidation an Luft sekundäre Aromakomponenten wie Diallyldisulfid oder Allicin, die zum Teil für den typischen Geruch und Geschmack dieser Pflanzen verantwortlich sind. Übergangsmetallsulfide, besonders die des Eisens, bilden die aktiven Zentren einer Reihe von Enzymen. So sind die Ferredoxine eisen- und schwefelhaltige Proteine, die als Elektronenüberträger in metabolischen Reaktionen teilnehmen. Das Ferredoxin im menschlichen Metabolismus wird Adrenodoxin genannt. Komplexe Metalloenzyme wie Nitrogenase, das in der Lage ist, elementaren, molekularen Stickstoff (N2) zu reduzieren, sowie Hydrogenase und Xanthinoxidase, weisen Eisen-Schwefel-Cluster auf. Aufnahme. Der für alle genannten Stoffe notwendige Schwefel wird von Tieren je nach Ernährung als schwefelhaltige Aminosäuren und Vitamine mit der Nahrung aufgenommen. Pflanzen und Bakterien wiederum sind in der Lage, Schwefel als Sulfid oder Sulfat zu assimilieren und die genannten Aminosäuren und Vitamine selbst zu synthetisieren. Im Pflanzenbau werden je nach Pflanzenart etwa 15 bis 50 kg Schwefel pro Hektar in Form schwefelhaltigen Düngers benötigt. Ölpflanzen, Hülsenfrüchte, verschiedene Futterpflanzen und Gemüse benötigen dabei größere Schwefelmengen. Sulfidoxidation. Einige Untergruppen der Proteobakterien, zusammen die "farblosen schwefeloxidierenden Bakterien" genannt, können Schwefelverbindungen und Schwefel oxidieren und aus diesen exergonen Reaktionen Energie gewinnen; siehe dazu exemplarisch das Riesenbakterium "Thiomargarita namibiensis". Außerdem sind die Grünen Schwefelbakterien in der Lage, Photosynthese zu betreiben, indem sie Schwefelwasserstoff, Schwefel oder Thiosulfat an Stelle von Wasser (H2O) als Elektronendonator für die Reduktion von CO2 verwenden. Diese Art von Photosynthese erzeugt keinen Sauerstoff („anoxygen“). Zuletzt können einige Cyanobakterien diesen Stoffwechselweg benutzen. Zwar haben Pflanzen und Tiere in ihren Mitochondrien Enzyme für die Oxidation von Sulfid, diese kommen aber nur noch zur Entgiftung des beim Abbau überschüssigen Cysteins und im Darm entstehenden Schwefelwasserstoffs zum Zuge. Schwefel-Assimilation in Pflanzen. Der Schwefel wird bei Gefäßpflanzen als Sulfat über die Wurzeln aufgenommen und über das Xylem in die Blätter transportiert, wo der überwiegende Teil der Assimilation gekoppelt an die Photosynthese in den Chloroplasten der Mesophyllzellen stattfindet. Die Assimilationsrate beträgt dabei nur rund fünf Prozent der Nitrat-Assimilation und ein bis zwei Promille der CO2-Assimilation. Das Grundschema gleicht dabei der Nitrat-Assimilation, der Energieverbrauch ist aber beim Schwefel wesentlich höher. Sulfat muss im Chloroplasten zunächst aktiviert werden. Das Enzym Sulfat-Adenylyltransferase bildet aus Sulfat und ATP AMP-Sulfat (APS) und Pyrophosphat. Das Gleichgewicht dieser Reaktion liegt stark auf der Seite des ATP, die Bildung von APS ist nur möglich durch die hohe Aktivität der Pyrophosphatase in den Chloroplasten. Anschließend hängt die APS-Kinase an den Ribose-Rest der APS einen weiteren Phosphat-Rest an und bildet das 3-Phospho-AMP-Sulfat (PAPS). Das derart aktivierte Sulfat wird durch die PAPS-Reduktase unter Mitwirkung von Thioredoxin zu Sulfit reduziert, das im Zuge dieser Reaktion vom 3-Phospho-AMP abgespalten wird. Die Sulfit-Reduktase gleicht in ihrem Aufbau der Nitritreduktase, sie enthält ein Sirohäm und ein 4-Eisen-4-Schwefel-Zentrum. Unter Verbrauch von sechs reduzierten Ferredoxin bildet sie Schwefelwasserstoff. In heterotrophem Gewebe wie Wurzeln wird das reduzierte Ferredoxin nicht durch die Photosynthese bereitgestellt, sondern durch NADPH reduziert. Um den Schwefelwasserstoff an Serin binden zu können, muss dieses zunächst aktiviert werden. Das geschieht durch die Serin-Transacetylase, die einen Acetylrest von Acetyl-Coenzym A auf das Serin überträgt. Für die Bildung des Acetyl-Coenzym A werden zwei energiereiche Phosphate verbraucht. Der Schwefelwasserstoff wird schließlich durch die O-Acetylserin-(thiol)-Lyase auf das O-Acetylserin übertragen, wobei Cystein und Acetat entstehen. Umweltaspekte. Schematischer Aufbau des Absorbers einer Rauchgasentschwefelungsanlage mit Kalkwäsche Bei der Energiegewinnung aus fossilen Brennstoffen wie Steinkohle, Braunkohle und Erdöl werden große Mengen Schwefeldioxid SO2 freigesetzt. Dieses bleibt als Gas oder im Wasser der Wolken gelöst zunächst in der Erdatmosphäre. Auch bildet es einen Bestandteil des gesundheitsgefährdenden Smogs. Abgebaut werden kann es, indem es von Sauerstoff zu Schwefeltrioxid SO3 oxidiert wird und als Schwefelsäure H2SO4 mit dem Regen ausgespült wird. Daraus ergibt sich ein weiteres Problem, da diese als Bestandteils des sauren Regens zur Versauerung der Böden beiträgt. Seit den 1970er-Jahren sind deshalb Maßnahmen zur Rauchgasentschwefelung (REA) in Deutschland gesetzlich vorgeschrieben. Das geschieht meist durch Kalkwäsche. Dabei werden die Rauchgase in einem Absorber mit Calciumhydroxid-Lösungen besprüht, wodurch sich das Schwefeldioxid unter Weiteroxidation in Calciumsulfat (Gips) umsetzt. Daneben wird seit einigen Jahren die Entschwefelung von Fahrzeugkraftstoffen forciert. Durch diese Vorschriften und ihre Umsetzungen konnten die Schwefelemissionen seit den 1960er-Jahren drastisch reduziert werden. Die Internationale Seeschifffahrts-Organisation (IMO) hat die Grenzwerte für Schiffsabgase von 4,5 Prozent Schwefel ab 2012 auf 3,5 Prozent und ab 2020 auf 0,5 Prozent festgelegt. Für die Nord- und Ostsee wurde ein Schwefelanteil in den Abgasen von 0,1 Prozent ab 2015 festgelegt. Nachweis. Es existieren verschiedene Nachweisreaktionen für Schwefel. Schwefelverbindungen. In Verbindungen tritt Schwefel in allen Oxidationsstufen zwischen −II (Sulfide) und +VI (Sulfate, Schwefeltrioxid und Schwefelsäure) auf. Wasserstoffverbindungen. Schwefelwasserstoff (H2S) ist ein farbloses, in geringen Konzentrationen nach faulen Eiern riechendes, giftiges Gas, das durch Reaktion von Sulfiden (MxSy) mit starken Säuren, zum Beispiel Salzsäure (HCl), entsteht. Es kommt als natürlicher Begleiter von Erdgas vor und entsteht in großen Mengen bei der Hydrodesulfurierung von Erdölfraktionen. Schwefelwasserstoff ist eine schwache Säure. Es ist brennbar, farblos und in Wasser wenig, in Alkohol etwas besser löslich. Schwefelwasserstoff und Metalloxide oder -hydroxide bilden Sulfide wie Zinnober (HgS) und Bleisulfid (PbS). Die Schwerlöslichkeit der Schwermetallsulfide wird in der analytischen Chemie im Trennungsgang zur Fällung der Metalle der Schwefelwasserstoffgruppe genutzt. Disulfan (H2S2) ist eine unbeständiges Flüssigkeit. Sie bildet jedoch viele Salze wie zum Beispiel Pyrit. Ihre Salze (Disulfide) enthalten das Anion S22−. Disulfan ist das erste Glied der homologen Reihe der Polysulfane. Sauerstoffverbindungen. Schwefeldioxid ist das Anhydrid der Schwefligen Säure und ein farbloses, schleimhautreizendes, stechend riechendes und sauer schmeckendes, giftiges Gas. Es ist sehr gut wasserlöslich und bildet mit Wasser in sehr geringem Maße Schweflige Säure. Schwefeltrioxid ist das Anhydrid der Schwefelsäure. Es bildet bei Normbedingungen farblose, nadelförmige Kristalle, die äußerst hygroskopisch sind und sehr heftig mit Wasser reagieren. Bei 44,45 °C siedet Schwefeltrioxid. Schwefelmonoxid ist nur in verdünnter Form beständig. In konzentrierter Form wandelt es sich schnell in Dischwefeldioxid um. Es wurde im interstellaren Raum nachgewiesen. Sauerstoffsäuren und Salze. Schwefel bildet eine Reihe von Oxosäuren, von denen die Schwefelsäure die mit Abstand größte technische Bedeutung hat. Die vorkommenden Oxidationsstufen reichen von +VI (Schwefelsäure) bis nahezu 0 (Oligosulfandisulfonsäuren, HSO3SxSO3H). Die Säuren sind nicht alle in Reinform zu isolieren, bilden aber eine Reihe von Salzen und deren Hydrido-Isomeren. So ist Schweflige Säure als Reinstoff nicht zu isolieren, Sulfit- und Hydrogensulfitsalze dagegen sind als stabile Verbindungen bekannt. Stickstoffverbindungen. Tetraschwefeltetranitrid S4N4 ist ein goldroter Feststoff, der als Ausgangsverbindung für verschiedene Schwefel-Stickstoff-Verbindungen dient. Dischwefeldinitrid S2N2 liegt in Form eines viergliedrigen, rechteckig-planaren Ringes vor. Die Verbindung kann durch Reaktion von Tetraschwefeltetranitrid mit Silber gewonnen werden. Polythiazyl (SN)x war das erste anorganische Polymer mit elektrischer Leitfähigkeit. Bei sehr niedrigen Temperaturen unterhalb von 0,26 K ist das Material supraleitend. Polythiazyl wird aus Dischwefeldinitrid gewonnen. Schwefelstickstoff (SN) wurde als Bestandteil von intergalaktischen Molekülwolken nachgewiesen. Im Labor kann es durch elektrische Entladungen in einem Stickstoff-Schwefel-Gas gewonnen werden. Halogenverbindungen. "Schwefelhalogenide" des Typs SX"n" ("n" = 2, 4) sind von Fluor und Chlor bekannt, Fluor bildet außerdem ein Hexafluorid. Daneben ist eine Reihe von gemischten Halogenverbindungen bekannt. Sauerstoff-Halogenverbindungen des Typs SOX2 (Thionylhalogenide), SO2X2 (Sulfurylhalogenide) und SOX4 sind bekannt. Vom Iod ist nur eine Iodpolysulfanverbindung des Typs I2S"n" bekannt. Schwefelfluoride. Schwefelhexafluorid (SF6) ist ein farb- und geruchloses, ungiftiges Gas, das unbrennbar ist und sich äußerst reaktionsträge verhält. Es wird unter anderem als Isoliergas in der Mittel- und Hochspannungstechnik eingesetzt. Das Gas wird als Tracer zum Nachweis der Windströmungen und bei Geruchsausbreitungsuntersuchungen eingesetzt. Wegen des hohen Treibhauspotenzials ist der Einsatz aber umstritten. Dischwefeldecafluorid (S2F10) ist eine farblose Flüssigkeit mit Geruch nach Schwefeldioxid. Schwefeltetrafluorid (SF4) ist ein farbloses, nicht brennbares Gas mit stechendem Geruch. Es zersetzt sich in Wasser unter Bildung von Fluorwasserstoff. Es wirkt als schwache Lewis-Säure und bildet zum Beispiel 1:1-Addukte mit organischen Basen wie Pyridin und Triethylamin. Schwefeldifluorid (SF2) ist ein farbloses Gas, das schnell zu Dischwefeldifluorid (S2F2) dimerisiert. Das letztere liegt in Form von zwei gasförmigen Isomeren vor, dem Thiothionylfluorid (S=SF2) und dem Difluordisulfan (FSSF). Schwefelchloride. Dischwefeldichlorid (S2Cl2) wird durch Chlorierung von elementarem Schwefel gewonnen. Dischwefeldichlorid wird zur Herstellung von Kautschuk-Vulkanisationsmitteln sowie anderen organischen Schwefelverbindungen verwendet. Es dient als Katalysator bei der Chlorierung von Essigsäure. Schwefeldichlorid (SCl2), eine tiefrote Flüssigkeit, wird durch Umsetzung von Dischwefeldichlorid mit Chlorgas hergestellt. Es wird gelöst in Schwefelkohlenstoff (CS2) zur Kaltvulkanisation von Kautschuk verwendet. Im Ersten Weltkrieg wurde Schwefeldichlorid zur Herstellung des Kampfstoffes S-Lost verwendet. Schwefeltetrachlorid (SCl4) wird durch direkte Chlorierung von Schwefel mit Chlor hergestellt. Es ist im festen Zustand und unter −30 °C stabil, darüber zersetzt es sich, wobei Chlor und Schwefeldichlorid entstehen. Gemischte Schwefelhalogenide und Oxohalogenide. Schwefelpentafluorchlorid (SF5Cl), ein farbloses Gas, dient in der präparativen Chemie zur Darstellung von organischen Komponenten mit Kohlenstoff-Schwefel-Doppel- und Dreifachbindungen. Schwefelpentafluorbromid (SF5Br), ein farbloses Gas, kann aus Schwefeltetrafluorid, Silber(II)-fluorid und elementarem Brom hergestellt werden. Die Thionylhalogenide OSX2 sind vom Fluor, Chlor und Brom bekannt, die Sulfurylhalogenide vom Fluor und Chlor. Organoschwefelverbindungen. Organoschwefelverbindungen sind organische Verbindungen, die Schwefel enthalten. Die Struktur, das Vorkommen und die Anwendungen der Organoschwefelverbindungen sind vielfältig. Viele Naturstoffe, darunter zwei essentielle Aminosäuren, sind organische Schwefelverbindungen. Organische Schwefelverbindungen treten in fossilen Brennstoffen, etwa in Form von Thiolen oder Thioethern auf. Anionische Tenside sind Natrium- oder Ammoniumsalze von Sulfonsäuren oder Schwefelsäurehalbestern. In der Flotationstechnik eignen sich bestimmte Schwefelverbindungen wie Xanthogenate, Dithiophosphorsäureester, Mercaptane oder Alkylsulfonate als so genannte Sammler. Die Kohlenstoff-Schwefel-Einfachbindung ist sowohl länger als auch schwächer als die Kohlenstoff-Kohlenstoff-Bindung. Die Bindungslängen liegen zwischen 183 pm in Methanthiol und 174 pm in Thiophen. Die Dissoziationsenergie der Kohlenstoff-Schwefel-Bindung beträgt für Thiomethan 312,5 kJ/mol, die Dissoziationsenergie für Dimethylsulfid und Dimethylether 305 und 322 kJ/mol. Struktur von L-Alliin, ein natürlicher, S-chiraler Inhaltsstoff von Knoblauch Die organische Chemie des Schwefels ist vielfältig. Praktisch zu allen Kohlenstoff-Sauerstoff-Verbindungen bestehen die organischen Schwefel-Analoga. Diese unterscheiden sich in ihren Reaktionen oft beträchtlich von den Sauerstoffverbindungen. Bekannte Organoschwefelverbindungen sind Thiole, die auch Mercaptane genannt werden. Thiole entstehen beispielsweise bei der Umsetzung von Kaliumhydrogensulfid mit Alkylhalogeniden. Die Alkylierung von Thioharnstoff mit Alkylhalogeniden und anschließender Umsetzung mit Natronlauge führt ebenfalls zu Thiolen und Freisetzung von Harnstoff. Thiole sind Bestandteil vieler Naturstoffe wie den Abwehrstoffen des Stinktiers (3-Methylbutanthiol) und weisen oft einen unangenehmen Geruch auf. Sie lassen sich leicht durch Oxidation in Disulfide oder über die Stufen der Sulfensäuren und Sulfinsäuren in Sulfonsäuren überführen. Disulfid-Brücken stabilisieren die Struktur von Proteinen und Peptidhormonen wie Insulin. Beim Legen einer Dauerwelle werden die Cystinbindungen im Keratin durch Reduktion mit Thioglycolsäure aufgebrochen. Danach werden die Haare in die gewünschte Form gebracht. Durch nachfolgende Oxidation der Thiolgruppen im Keratin mit Wasserstoffperoxid zu Disulfidbrücken werden die Haare in dieser neuen Form fixiert. Knoblauch, Lauch und andere Pflanzen enthalten eine Reihe von schwefelorganischen Wirkstoffen wie Alliin, die antibiotische Eigenschaften aufweisen. Thioether lassen sich beispielsweise durch die Reaktion von Alkalisulfid mit Alkylhalogeniden oder durch die Pummerer-Umlagerung herstellen. Mit Alkylhalogenid im Überschuss entstehen Trialkylsulfoniumsalze. Thioether lassen sich leicht zu Sulfoxiden und Sulfonen oxidieren. Sulfoxide mit zwei unterschiedlichen Alkylresten sind am Schwefelatom chiral. Das freie Elektronenpaar fungiert dabei als vierter Substituent. Als heterocyclische Verbindung ist zum Beispiel Thiophen bekannt. Kohlenstoff-Schwefel-Sauerstoff-Verbindungen wie Sulfoxide, die wie Dimethylsulfoxid als Lösungsmittel verwendet werden, sind verbreitet. Sulfonsäuren beziehungsweise deren Salze, die Sulfonate, finden als Tenside Verwendung. In der organischen Synthese werden Thioacetale als Synthons zur Umpolung der Carbonylfunktion, zum Beispiel in der Corey-Seebach-Reaktion eingesetzt. In der Johnson-Corey-Chaykovsky Reaktion wird eine Carbonylfunktion mittels Schwefel-Yliden in ein Epoxid überführt. Der Chemie der Riech- und Geschmacksstoffe sind eine Vielzahl schwefelhaltiger organoleptischer Stoffe bekannt. Sie hat etliche Stoffe aus natürlichen Quellen identifiziert und nutzt das Heteroelement zum Designen neuer Riechstoffe und zur Ermittlung olfaktorischer Struktur-Wirkungs-Beziehungen. Der niedrigste Geruchsschwellenwert (10−4 ppb), der je in natürlichen Aromen gemessen wurde, stammt von dem aus der Grapefrucht isolierten Thioterpineol, dem Schwefel-Analogon des α-Terpineols. Geringfügig schwächere Potenz hat das strukturell ähnliche 8-Thio-"p"-menth-3-on mit dem typischen Geruch der schwarzen Johannisbeere. Übertroffen werden diese Stoffe vom Thiamin-Photolyten "bis"(2-Methyl-3-furyl)disulfid, der zu den geruchsstärksten Verbindungen der organischen Chemie gehört. Im Galbanharz finden sich ausgeprägt riechende Thioester als Strukturverwandte der Senecioester. Ein dem Perillen analoges monoterpenoides Thiophen ist enthalten im Hopfen. Shiitake enthält den Aromastoff 1,2,3,5,6-Pentathiepan (Lenthionin). Spargel enthält 1,2-Dithiolane. Rettich und Radieschen setzen das 4-Methylsulfinyl-3-butenyl-isothiocyanat frei. Das farb- und geruchslose Erdgas wird mit Tetrahydrothiophen odoriert, um im Leckagefall eine leichte geruchliche Wahrnehmung zu garantieren. Ausströmendes Erdgas kann dadurch bei kleinsten Leckagen wahrgenommen werden. Metallorganische Schwefelverbindungen. Schwefel als Brückenligand in Eisen-Nickel-Cluster Schwefel verfügt als Ligand in der metallorganischen Chemie über mannigfaltige Koordinationsmöglichkeiten. Die Metall-Schwefel-Komplexe gelten als Modellverbindungen für das Studium von Metalloenzymen. Schwefel tritt in den Komplexen als verbrückender Mono-, Di- und Polysulfidoligand, als Sulfid, als Schwefelring verschiedener Größe oder als η2-Disulfid auf. Samarium. Samarium (nach dem Mineral Samarskit, das vom deutschen Mineralogen Heinrich Rose nach dem russischen Bergbauingenieur Wassili Samarski-Bychowez benannt wurde) ist ein chemisches Element mit dem Elementsymbol Sm und der Ordnungszahl 62. Im Periodensystem steht das silbrig glänzende Element in der Gruppe der Lanthanoide und zählt damit auch zu den Metallen der seltenen Erden. Samarium ist das erste natürlich vorkommende Element, das nach einer Person benannt wurde. Geschichte. Zur Entdeckung des Samariums gibt es in der Literatur mehrere Darstellungen. 1903 stellte der deutsche Chemiker Wilhelm Muthmann metallisches Samarium durch Elektrolyse her. Vorkommen. Samarium in Ampulle unter Argongas Samarium wird derzeit fast ausschließlich in China gewonnen. Gediegen kommt elementares Samarium nicht vor. Einige Mineralien wie Monazit, Bastnäsit und Samarskit enthalten jedoch das Element. Monazit enthält bis zu 1 % Samarium. Gewinnung und Darstellung. Ausgehend vom Monazit oder Bastnäsit werden Seltene Erden über Ionentausch, Solvent-Extraktion oder elektrochemische Deposition aufgetrennt. In einem letzten Verfahrensschritt wird das hochreine Samariumoxid mit metallischem Lanthan zum Metall reduziert und absublimiert. Eigenschaften. In Luft ist Samarium halbwegs beständig, es bildet eine passivierende, gelbliche Oxidschicht aus. Metallisch glänzendes Samarium entzündet sich oberhalb von 150 °C. Mit Sauerstoff reagiert es zum Sesquioxid Sm2O3. Mit Wasser reagiert es heftig unter Bildung von Wasserstoff und Samariumhydroxid. Die beständigste Oxidationsstufe ist wie bei allen Lanthanoiden +3.Samarium kommt in drei Modifikationen vor. Die Umwandlungspunkte liegen bei 734 °C und 922 °C. Sm3+-Kationen färben wässrige Lösungen gelb. Isotope. Es existieren vier stabile und 19 instabile, radioaktive Isotope. Die häufigsten natürlichen Isotope sind 152Sm (26,7 %), 154Sm (22,7 %) und 147Sm (15 %). Sindelfingen. Sindelfingen ist eine Stadt in der Mitte des Landes Baden-Württemberg, etwa 15 km südwestlich von Stuttgart. Sie ist die größte Stadt des Landkreises Böblingen und bildet zusammen mit der südlichen Nachbarstadt Böblingen ein Mittelzentrum für die umliegenden Gemeinden. Seit dem 1. Februar 1962 ist Sindelfingen Große Kreisstadt. Geographie. Sindelfingen liegt außerhalb des Nordostrandes des Oberen Gäus, zu Füßen einiger Höhen des Glemswaldes (Landschaftsschutzgebiet) zwischen der im Stadtgebiet entspringenden Schwippe und dem Sommerhofenbach. Der höchste Punkt der Gemarkung liegt auf 532, der tiefste auf 409 m ü. NN. Das Stadtgebiet erstreckt sich von 425 bis 460 m ü. NN. Der nördliche Schwarzwald ist von Sindelfingen aus in etwa einer halben Stunde, die Schwäbische Alb in 50 Minuten erreichbar. Klima. Der Jahresniederschlag liegt bei 735 mm und ist damit vergleichsweise normal, da er in das mittlere Drittel der in Deutschland erfassten Werte fällt. An 48 % der Messstationen des Deutschen Wetterdienstes werden niedrigere Werte registriert. Der trockenste Monat ist der Januar, die meisten Niederschläge fallen im Juni. Im Juni fallen 2,3 mal mehr Niederschläge als im Januar. Die Niederschläge variieren sehr stark. An nur 15 % der Messstationen werden höhere jahreszeitliche Schwankungen registriert. Nachbargemeinden. Folgende Städte und Gemeinden grenzen an die Stadt Sindelfingen. Sie werden im Uhrzeigersinn beginnend im Osten genannt: Stuttgart (Stadtkreis), Leinfelden-Echterdingen (Landkreis Esslingen) sowie Böblingen, Ehningen, Aidlingen, Grafenau, Magstadt und Leonberg (alle Landkreis Böblingen). Stadtgliederung. Altes Rathaus in Fachwerkbauweise im Stadtteil Maichingen Sindelfingen besteht aus der Kernstadt und den im Rahmen der Gebietsreform 1971 eingegliederten Stadtteilen Maichingen und Darmsheim. Beide eingemeindeten ehemaligen Gemeinden sind Ortschaften im Sinne der baden-württembergischen Gemeindeordnung, das heißt, sie haben jeweils einen Ortschaftsrat, der von der Bevölkerung der Ortschaft bei jeder Kommunalwahl neu gewählt wird. Vorsitzender des Ortschaftsrats ist der Ortsvorsteher. Seit einigen Jahren entsteht auf der Fläche des ehemaligen Böblinger Flugplatzes der neue Stadtteil Flugfeld, ein gemeinsames Projekt der Städte Sindelfingen und Böblingen. Zwei Drittel des Stadtteils werden auf Böblinger Gemarkung liegen, das restliche Drittel auf Sindelfinger Gemarkung. Im Areal „Forum 1“ wurde beispielsweise 2011 die Landesagentur "INUTEC-BW" („Innovations- und Technologiezentrum Umwelttechnik und Ressourceneffizienz GmbH“) eröffnet. Die gesamte Bauzeit ist bis 2031 projektiert. In der Kernstadt werden zum Teil Wohngebiete mit eigenem Namen unterschieden, deren Bezeichnungen sich im Laufe der Geschichte aufgrund der Bebauung ergeben haben und die jedoch meist nicht genau abgrenzbar sind. Hierzu gehören beispielsweise Königsknoll, Viehweide, Eschenried, Pfarrwiesen, Rotbühl, Spitzholz, Eichholz, Hinterweil und Goldberg. Raumplanung. Sindelfingen bildet zusammen mit der Nachbarstadt Böblingen ein Mittelzentrum innerhalb der Region Stuttgart, deren Oberzentrum Stuttgart ist. Zum Mittelbereich Böblingen/Sindelfingen gehören neben den beiden Städten noch die Gemeinden im mittleren Teil des Landkreises Böblingen, und zwar Aidlingen, Altdorf, Ehningen, Gärtringen, Grafenau, Hildrizhausen, Holzgerlingen, Magstadt, Schönaich, Steinenbronn, Waldenbuch und Weil im Schönbuch. Geschichte. Im 4. Jahrtausend v. Chr. existierte eine jungsteinzeitliche Siedlung im Gewann Hinterweil. Auch in der Urnenfelder-, Hallstatt- und Latènezeit gab es im Stadtgebiet vereinzelte Besiedlung, wie Scherbenfunde, Grabhügel und Urnengräber belegen. Im 1. bis 3. Jahrhundert existierte am Nordhang des Goldbergs ein römischer Vicus (Straßendorf), daneben standen über die Gemarkung verteilt kleinere Gutshöfe. Bald nach dem Fall des Limes 260 n. Chr. siedelten sich hier die Alamannen an, die auf der heutigen Sindelfinger Kerngemarkung die drei Dörfer Sindelfingen, Altingen und Bochtelfingen gründeten. Seit etwa 700 stand im Bereich eines älteren Herrenhofes von Vorfahren der späteren Grafen von Calw ein Vorgängerbau der heutigen Martinskirche mit Friedhof. In der fränkischen Zeit vom 8. bis zum 11. Jahrhundert war Sindelfingen der Mittelpunkt einer fränkischen Grafschaft, die den späteren Grafen von Calw, einer der bedeutendsten Adelsfamilien im heutigen Baden-Württemberg, unterstand. Nach den im 13. Jahrhundert verfassten Sindelfinger Annalen gründete Graf Adalbert (II.) Atzinbart etwa 1050 in seinem Sindelfinger Stammsitz ein Benediktinerdoppelkloster für Mönche und Nonnen, das er bald darauf nach Hirsau in das von ihm wiederaufgebaute Aureliuskloster verlegte, aus dem das weltberühmte Reformkloster Hirsau hervorging. Stattdessen gründete er um 1065 in Sindelfingen ein Chorherrenstift, das 1155 als „praepositura in Sindelvinga“ erstmals urkundlich erwähnt wurde. Für dessen Bau brach er seinen Stammsitz mit der älteren Martinskirche ab und verlegte seinen Sitz nach Calw. Dort baute er eine neue Herrenburg und erschloss sich durch Rodungsarbeit ein geschlossenes Machtterritorium. Der Bau der neuen Martinskirche in Sindelfingen schritt nur langsam voran; 1100 wurde die Krypta geweiht, doch die eigentliche Kirche wurde erst 1132 von den Welfen fertiggestellt, die in Sindelfingen eine Münzstätte einrichteten. Das Sindelfinger Chorherrenstift wurde in den nächsten Jahrhunderten durch weitere Stiftungen reich und bedeutend, geriet aber 1351 unter die Landesherrschaft der Grafen und späteren Herzöge von Württemberg. 1476 wurde von diesen in Tübingen ein neues Stift gegründet, dessen Besitz den finanziellen Grundstock für die berühmte Eberhard Karls Universität bildete. Dieses neue Stift erhielt den größten Teil des alten Sindelfinger Stiftsbesitzes. Die Sindelfinger Chorherren wurden die ersten Professoren und der Propst Johannes Tegen deren erster Kanzler. Aus den Besitzresten wurde in Sindelfingen das nachfolgende Augustiner-Chorherrenstift gegründet, das 1535 im Rahmen der Reformation durch die Herzöge von Württemberg endgültig aufgelöst wurde. Um 1130 kam das Dorf Sindelfingen durch Uta von Schauenburg, die Erbtochter Graf Gottfrieds von Calw und Gemahlin Herzog Welfs, mit seinem Nachbardorf Böblingen in den Besitz der Welfen. Im darauffolgenden Erbstreit wurde das Dorf Sindelfingen 1133 von Utas Vetter Adalbert IV. von Calw niedergebrannt. In der zweiten Hälfte des 12. Jahrhunderts bestand in Sindelfingen eine welfische Münzstätte; ein Topf mit zahlreichen Silberbrakteaten aus dieser Werkstatt wurde 1973 im Boden der Martinskirche vergraben entdeckt. Der Besitzübergang an die Pfalzgrafen von Tübingen ist nicht völlig geklärt; er dürfte über den Kauf der Besitzungen Welf V. durch Kaiser Friedrich Barbarossa und eine nachfolgende Belehnung an die Tübinger Pfalzgrafen erfolgt sein. Im Rahmen von Erbteilungen kamen die Dörfer der Sindelfinger Gemarkung in den Besitz des Grafen Rudolf der Scherer von Tübingen-Herrenberg, das Dorf Böblingen an seinen Vetter, der dort ca. 1250 eine Stadt gründete. Als Reaktion erfolgte 1263 die Gründung der Stadt Sindelfingen zwischen Stiftsbezirk und Dorf Sindelfingen durch den Grafen Rudolf der Scherer; die Dörfer Sindelfingen, Altingen und Bochtelfingen gingen später in der neuen Stadt auf. 1274 erging ein Schreiben von König Rudolph, dass Sindelfingen die gleiche Freiheit wie Tübingen genießen solle. Schon bevor die Stadtmauer fertiggestellt worden war, griffen die Böblinger die Stadt Sindelfingen an. Seit damals bestand eine ausgeprägte Rivalität zwischen den beiden Nachbarstädten. 1351 wurde die Stadt an Württemberg verkauft. Die neuen Herren führten 1535 die Reformation ein. Sindelfingen blieb aber lange Zeit ein unbedeutendes Landstädtchen, das sich nie damit abfinden konnte, im Rahmen des Herzogtums Württemberg zum Oberamt Böblingen zu gehören und der Nachbarstadt untergeordnet zu sein. 1607 erreichten die Bürger Sindelfingens durch eine außerordentliche Steuerzahlung an den Herzog endlich, aus diesem Oberamt herausgelöst zu werden und eine von Böblingen unabhängige Amtsstadt ohne eigene Amtsorte zu werden. Dieses Privileg wurde ihnen dann im 18. Jahrhundert wieder genommen. Im 19. Jahrhundert wurden mechanische Webereien eingeführt, und Sindelfingen wurde eine bedeutende Weberstadt. Aus dieser Zeit stammt die in Sindelfingen beheimatete Weberfachschule. 1850 hatte Sindelfingen 4304 evangelische und 6 katholische Einwohner, die in 461 Haupt- und 203 Nebengebäuden lebten und arbeiteten. Im Rahmen des Eisenbahnbaus von Stuttgart nach Böblingen zahlten die Sindelfinger Bürger wieder selbst dafür, dass die Bahnlinie über Sindelfingen mit einem eigenen Bahnhof verlaufen sollte. Nachdem die Zahlungen in Stuttgart eingegangen waren, wurde der Streckenverlauf wieder Richtung Böblingen verlegt, ohne Sindelfingen zu berühren. All diese Ereignisse vertieften die traditionelle Feindschaft zwischen den Städten Sindelfingen und Böblingen. Im 20. Jahrhundert erfolgte eine bedeutende Industrialisierung. Es wurden Maschinenfabriken sowie Industrien für Autos, Büromaschinen, Schuhe, Uhren und anderes errichtet. 1914 wurde das Daimler-Werk in Sindelfingen angesiedelt. Auch die DEHOMAG, eine Büromaschinenfabrik, die den Vorgänger des Computers produzierte und 1929 durch IBM aufgekauft wurde, hatte in Sindelfingen ihren Sitz. Wilhelm Friedle, bis 1935 Betriebsdirektor der Daimler-Benz AG im Werk Sindelfingen, brachte das Fließband nach Deutschland. Sindelfingen wuchs zu einer bedeutenden Industriestadt heran. Im Zweiten Weltkrieg wurde Daimler-Benz zu einem der größten Produzenten von Rüstungsgütern. Dies wurde auch gewährleistet durch den Einsatz von Zwangsarbeitern, die nach Deutschland verschleppt wurden, davon allein in Sindelfingen in Daimler-eigenen Werkslagern etwa 3.000 Frauen, Kinder und Männer vorwiegend aus der Sowjetunion und Polen. Mindestens 46 von ihnen wurden Opfer der Zwangsarbeit, wovon Gedenksteine auf dem "Alten Friedhof" in der "Bleichmühlestraße" zeugen. Schwangere Zwangsarbeiterinnen kamen in eine „Entbindungsstation“ im Lager "Böblinger Allee", das mit seinen Bedingungen für ein rasches Sterben der Neugeborenen sorgte. Später wurden die Frauen zu Abtreibungen gezwungen, weil ihre Kinder als „rassisch minderwertig“ galten. Aufgrund des industriellen Rüstungspotentials wurde die Stadt im Zweiten Weltkrieg verhältnismäßig stark zerstört, danach jedoch wieder aufgebaut. Der starke Einwohnerzuwachs führte zum Bau zahlreicher Wohnsiedlungen. Die Stadt, deren Einwohnerzahl nach Kriegsende bei ca. 8500 lag, überschritt 1957 die Grenze von 20.000. Daraufhin stellte die Stadtverwaltung den Antrag auf Erhebung zur Großen Kreisstadt, dem die Landesregierung von Baden-Württemberg mit Wirkung vom 1. Februar 1962 zustimmte. Das neue Rathaus in der Vaihinger Straße Bei der Gebietsreform 1971 erreichte das Stadtgebiet schließlich seine heutige Ausdehnung. Von der Landesregierung war seinerzeit eine Fusion mit der Nachbarstadt Böblingen zur Großstadt Böblingen-Sindelfingen vorgesehen und sogar schon beschlossen worden. Aber vor Inkrafttreten der neuen Rechtsbestimmung erreichte der geschlossene Widerstand der Bürger beider Städte, der seine Kraft aus der jahrhundertelangen Feindschaft beider Städte bezog, dass dieser Plan nicht umgesetzt werden konnte. Ein nicht zu lösender Streitpunkt war dabei der neue gemeinsame Name der neuen Doppelstadt. 1990 war Sindelfingen Gastgeber der zehnten Landesgartenschau Baden-Württemberg. Einwohnerentwicklung. Die Einwohnerzahlen sind Schätzungen, Volkszählungsergebnisse (*) oder amtliche Fortschreibungen der jeweiligen Statistischen Ämter (nur Hauptwohnsitze). Alle Zahlen seit 1871 stammen vom Statistischen Landesamt Baden-Württemberg. Protestanten. Die Bevölkerung von Sindelfingen gehörte ursprünglich zum Bistum Konstanz. Da die Stadt seit dem 14. Jahrhundert zu Württemberg gehörte, wurde auch hier ab 1535 durch Herzog Ulrich die Reformation eingeführt, daher war Sindelfingen über Jahrhunderte eine überwiegend protestantische Stadt. Sie gehört seit jener Zeit zum Dekanat Böblingen. Die Hauptkirche der Stadt ist die Martinskirche, eine der ältesten Kirchen des Landes (Weihe 1083). Die zugehörige Kirchengemeinde Sindelfingen war zunächst die einzige der Stadt. Nach dem Zweiten Weltkrieg wuchs die Bevölkerung infolge Zuzugs stark an. Daher wurde die Kirchengemeinde geteilt. Es entstand die Christusgemeinde (Kirche von 1958), die Johannesgemeinde (Kirche von 1962) und die Versöhnungsgemeinde (Kirche von 1967). Innerhalb der Martinsgemeinde gibt es noch das 1976 erbaute Markuszentrum; die Nikodemuskirche im "Hinterweil" gehört zur Christusgemeinde. Alle vier Kirchengemeinden bilden die Evangelische Gesamtkirchengemeinde Sindelfingen. Auch in den beiden Stadtteilen Darmsheim und Maichingen wurde infolge der frühen Zugehörigkeit zu Württemberg die Reformation eingeführt. Auch dort gibt es jeweils eine evangelische Kirchengemeinde, die in alten Kirchen ihre Gottesdienste feiert, in Darmsheim in einer ehemaligen Wehrkirche mit spätgotischem Westturm und Fresken im Innern bzw. in Maichingen in einer umgebauten Chorturmkirche mit Erweiterungen aus dem Jahr 1609. Auch die beiden Stadtteilgemeinden gehören wie alle Sindelfinger Kirchengemeinden zum Dekanat bzw. Kirchenbezirk Böblingen innerhalb der Evangelischen Landeskirche in Württemberg. Katholiken. Katholiken gibt es in Sindelfingen nach der Reformation erst wieder seit Ende des 19. Jahrhunderts. Für sie wurde 1952 eine eigene Kirche „Zur Heiligsten Dreifaltigkeit“ gebaut und eine Pfarrei eingerichtet. Weitere Kirchen wurden 1960 (St. Joseph, Pfarrei seit 1965), 1969 (Auferstehung Christi, Pfarrei seit 1974), 1970 (St. Paulus, Pfarrei seit 1974) und 1972 (St. Maria Königin des Friedens, Pfarrei seit 1974) erbaut. Durch die in der Industriestadt Sindelfingen besonders starke Zuwanderung der „Gastarbeiter“ gab es neue Aufgaben für die Seelsorge, denn die meisten von ihnen kamen aus katholischen Ländern: Italien, Spanien und Portugal sowie die große Gruppe der Kroaten aus dem damaligen Jugoslawien. In Darmsheim gibt es seit 1974 die Kirche St. Stephan. Sie gehört zur Nachbargemeinde Christkönig Dagersheim, mit der sie eine Kirchengemeinde bildet. In Maichingen wurde 1955 die Kirche St. Anna erbaut. Die Pfarrei Maichingen wurde 1961 errichtet. Im neu gebauten Stadtteil Hinterweil gab es seit 1980 zuerst ein provisorisches Kirchengebäude, das von Katholiken und Protestanten gemeinsam genutzt wurde. An gleicher Stelle wurde 1993 ein ökumenisch ausgerichtetes Gemeindezentrum eingeweiht. Die integrierte Kirche "St. Franziskus" gehört von Anfang an zu Josefsgemeinde. Die katholischen Gemeinden im Sindelfinger Stadtgebiet bilden die Seelsorgeeinheiten 7, 9 und 10, zu denen teilweise noch benachbarte Kirchengemeinden gehören. Sie alle gehören zum Dekanat Böblingen (zuvor Dekanat Weil der Stadt) der Diözese Rottenburg-Stuttgart. Freikirchen. Neben den beiden großen Kirchen gibt es in Sindelfingen auch Freikirchen und Gemeinden, darunter die Evangelisch-methodistische Kirche (Erlöserkirche), die Evangelisch-Freikirchliche Gemeinde (Baptisten), eine christliche, türkischsprachige Gemeinde ("Türkçe Konuşan Kilise Topluluğu") und das "Internationale Christliche Zentrum" (ICZ). Auch die Neuapostolische Kirche und die Zeugen Jehovas sind in Sindelfingen vertreten. Orthodoxe. Seit den 60er Jahren wanderten Griechen zu, die fast ausnahmslos orthodoxe Christen sind. Sie gründeten eine "griechische Gemeinde" als Verein, der 2013 sein 50-jähriges Bestehen feiern kann. Seit Anfang der 80er Jahre gibt es eine griechisch-orthodoxe Kirche in Sindelfingen. Muslime. Neben den christlichen Glaubensgemeinschaften lebt in Sindelfingen auch eine große Anzahl von Muslimen, die mittlerweile zahlreiche Moscheen errichtet haben. Gemeinderat. In Sindelfingen wird der Gemeinderat nach dem Verfahren der unechten Teilortswahl gewählt. Dabei kann sich die Zahl der Gemeinderäte durch Überhangmandate verändern. Der Gemeinderat in Sindelfingen hat nach der letzten Wahl 41 Mitglieder (vorher 42). Die Kommunalwahl am 25. Mai 2014 führte zu folgendem amtliche Endergebnis. Der Gemeinderat besteht aus den gewählten ehrenamtlichen Gemeinderäten und dem Oberbürgermeister als Vorsitzendem. Der Oberbürgermeister ist im Gemeinderat stimmberechtigt. Am 17. Juli 2012 beschloss der Gemeinderat die Einführung eines Jugendgemeinderats in Sindelfingen. Die ersten Wahlen fanden vom 22. bis zum 30. April 2013 statt. Am 3. Mai wurde der erste Jugendgemeinderat in sein Amt eingesetzt und umfasst 26 Jugendliche im Alter von 12 bis 18 Jahren. Die zweiten Wahlen fanden vom 13. bis zum 17. Oktober 2014 statt. Am 3. November wurde der zweite Jugendgemeinderat in sein Amt eingesetzt. Zum Vorsitzenden wurde Samet Mutlu gewählt. Bürgermeister. Ein Schultheiß des Dorfes Sindelfingen wird 1255 erwähnt; 1271 wird erstmals ein Schultheiß der Stadt erwähnt, seit 1280 gab es einen Vogt, der bis 1605 in Böblingen seinen Sitz hatte, bis die Stadt vom Amt Böblingen getrennt wurde. Dann leiteten Amtmänner bzw. Oberamtmänner die Stadtverwaltung. Seit 1819 trug das Stadtoberhaupt die Bezeichnung „Stadtschultheiß“ und seit 1930 Bürgermeister. Mit der Erhebung zur Großen Kreisstadt am 1. Februar 1962 lautet die Amtsbezeichnung Oberbürgermeister. Dieser wird von den Wahlberechtigten auf acht Jahre direkt gewählt. Er ist Vorsitzender des Gemeinderats. Seine allgemeinen Stellvertreter sind der 1. Beigeordnete mit der Amtsbezeichnung „Erster Bürgermeister“ und der 2. Beigeordnete mit der Amtsbezeichnung „Bürgermeister“. Zwei Straßen im Bereich der Kernstadt wurden nach ehemaligen Stadtoberhäuptern benannt, die Wilhelm-Hörmann-Straße oberhalb des Klostersees und die Arthur-Gruber-Straße, vormals Jahnstraße, auf dem Weg hinauf zum (ehemals) "Städtischen Krankenhaus". Wappen und Flagge. Das Wappen der Stadt Sindelfingen zeigt in Silber drei liegende schwarze Hirschstangen übereinander, darunter ein schwarzes Kreuz. Die Sindelfinger Stadtflagge ist schwarz-weiß. Wappen und Flagge haben lange Tradition und wurden 1927 offiziell festgelegt. Die Hirschstangen symbolisieren die Zugehörigkeit zu Württemberg. Maichingens Wappen zeigte eine aufrechte grüne Eichel mit Stiel, das von Darmsheim zwei schräggekreuzte goldene Glevenstäbe. Patenschaft. Sindelfingen hat seit 1955 eine Patenschaft für die Vertriebenen aus der Stadt und dem Gerichtsbezirk Würbenthal im Kreis Freudenthal im Sudetenland übernommen. Seit 1964 besteht eine Patenschaft der Stadt Sindelfingen über die Volksgruppe der Deutschen aus Jugoslawien. Mit Unterstützung der Stadt wurde das Haus der Donauschwaben in der Goldmühlestraße gebaut und 1970 eingeweiht. In ihm haben diese Einrichtungen ihren Sitz: Der Verein Haus der Donauschwaben e.V.; der Weltdachverband der Donauschwaben; die Landsmannschaft der Donauschwaben, Bundes- und Landesverband und Kreisverband Böblingen; der Kreisverband Böblingen der Banater Schwaben und der Arbeitskreis donauschwäbischer Familienforscher. Wirtschaft und Infrastruktur. Daimler-Werk SindelfingenDie Stadt ist geprägt durch die Automobilindustrie, besonders durch das Mercedes-Benz Werk Sindelfingen. Mit rund 27.000 Beschäftigten sowie weiteren rund 6.000 Mitarbeitern in der ebenfalls am Standort angesiedelten PKW-Entwicklung von Mercedes-Benz Cars ist es das weltweit größte Automobilwerk der Daimler AG. In der frühen Neuzeit war das Weberhandwerk ansässig, daher gibt es auch heute noch viele Modefirmen. Die Energieinfrastruktur wird durch die Stadtwerke Sindelfingen GmbH betrieben, an der die Stadt Sindelfingen mit 37,4 % beteiligt ist. Verkehr. Sindelfingen ist über die Anschlussstellen Sindelfingen-Ost und Böblingen/Sindelfingen der Bundesautobahn 81 (Würzburg–Gottmadingen), die sich im nordöstlichen Stadtgebiet an der Grenze zu Stuttgart mit der A 8 kreuzt, gut erreichbar. Ferner verläuft die Bundesstraße 464 (nach Reutlingen) durch das westliche Stadtgebiet. Die B 14 führt an Sindelfingen vorbei. Das schon genannte Autobahnkreuz von A 8 und A 81, das Kreuz Stuttgart, liegt auf Sindelfinger Gemarkung; ebenso die Raststätte „Sindelfinger Wald“ und ein Parkplatz an der A 8, der "Sommerhofen" genannt wird. Die A 81 markiert recht genau die Trennlinie von Sindelfingen gegenüber Böblingen; zu beiden Seiten liegen Wohngebiete in direkter Nähe. Der "S-Bahnhof Sindelfingen" liegt an der Rankbachbahn von Böblingen nach Renningen. Auf dieser Strecke fahren Güterzüge (Güterzugumgehung Stuttgart). Die zeitweise stillgelegten Bahnhöfe Sindelfingen und Maichingen wurden als Haltepunkte seit 14. Juni 2010 für die Linie S60 der S-Bahn Stuttgart wiedereröffnet. Anfangs war das Angebot auf Montag bis Freitag beschränkt, seit 12. Juni 2011 läuft der Betrieb an allen Wochentagen im 30-Minuten-Takt von 5:00 bis 23:00 Uhr mit Anschluss in Böblingen an die S1 und an die Schönbuchbahn. Hierfür wurde die Bahnstrecke von Sindelfingen bis Renningen zweigleisig ausgebaut. Neben „Sindelfingen“ sind „Maichingen“ und „Maichingen-Nord“ S-Bahn-Haltepunkte in Sindelfingen. Die drei S-Bahn-Haltepunkte an der Linie S1 von Stuttgart nach Herrenberg, „Goldberg“, „Böblingen“ (Bahnhof) und „Hulb“, sind von Sindelfingen aus gut zu erreichen, sie liegen im Bereich der Stadt Böblingen. Die Buslinien des Stadtverkehrs Böblingen-Sindelfingen und die S-Bahn sind in den Verkehrs- und Tarifverbund Stuttgart (VVS) integriert. Der nahegelegene Flughafen Stuttgart ist über die Autobahn sowie mit der S-Bahn erreichbar. Der Umstieg am Bahnhof Rohr ist zeitlich und kostenmäßig sehr günstig. Öffentliche Einrichtungen. Sindelfingen hat ein Notariat und eine Außenstelle des Landratsamts Böblingen (Amt für Schule und Bildung und Schulpsychologische Beratungsstelle). Das Amt für Schule und Bildung ist seit dem 1. November 2006 im Landratsamt in Böblingen eingegliedert. Damit ist die durch die Verwaltungsreform des Landes Baden-Württemberg festgelegte Zuordnung zum Landkreis auch räumlich abgeschlossen. Die Stadt Sindelfingen baute – ausgelöst durch eine Spende – ein "Städtisches Krankenhaus", der alte Standort war beim heutigen Rathaus (dem "Dritten Rathaus"). Nach dem Krieg blieb man dieser Tradition treu; das neue "Krankenhaus auf der Steige" war aber im Wald über der Stadt. Heute gehören die "Kliniken Sindelfingen" zum Klinikverbund Südwest. Medien. In Sindelfingen erscheint als Tageszeitung die Sindelfinger Zeitung. Außerdem erscheint in Sindelfingen das Wochenblatt Böblingen. Auf dem Wasserturm Steige befindet sich ein UKW-Sender, der das Programm von Energy (Böblingen, Calw, Freudenstadt) ausstrahlt. Bis 2006 gab es auf dem Kamin des Daimler-Heizkraftwerkes einen Analogfernsehsender von Regio TV Böblingen. Bildungseinrichtungen. In Sindelfingen gibt es ein Staatliches Seminar für Didaktik und Lehrerbildung (Grund- und Hauptschule). Ferner gibt es fünf Gymnasien (Goldberg-, Pfarrwiesen- und Stiftsgymnasium, Gymnasium Unterrieden und das Technische Gymnasium innerhalb der Gottlieb-Daimler-Schulen), drei Realschulen (Realschule am Goldberg, Eschenried und Hinterweil), eine Förderschule (Martinsschule), drei Grund- und Hauptschulen mit Werkrealschule (Eichholzschule, GHS Goldberg und Johannes-Widmann-Schule Maichingen), eine Hauptschule mit Werkrealschule am Klostergarten und sechs selbständige Grundschulen (Darmsheim, Gartenstraße, Hinterweil, Klostergarten, Königsknoll und Sommerhofen). Der Landkreis Böblingen ist Schulträger der beiden Beruflichen Schulen unter dem Namen Gottlieb-Daimler-Schulen im "Technischen Schulzentrum" (Gottlieb-Daimler-Schule I und Gottlieb-Daimler-Schule II) sowie der Bodelschwinghschule für Geistigbehinderte mit Bodelschwingh-Schulkindergarten für Geistigbehinderte, der Schule für Körperbehinderte mit Schulkindergarten und der Schule für Sprachbehinderte und Kranke in längerer Krankenhausbehandlung mit Schulkindergarten für Sprachbehinderte. Die private Abendrealschule Böblingen-Sindelfingen e. V. rundet das schulische Angebot in Sindelfingen ab. Museen. Mittleres Rathaus am Marktplatz, heute Galerie der Stadt Sindelfingen (Lütze-Museum) Einer der berühmten Zebrastreifen aus Marmor an der Ziegelstraße Städtische Mülltonne „Mülltoni“ in der Nähe des Marktplatzes Der 1964 erbaute Sprungturm im Sindelfinger Badezentrum. Der 17 Meter hohe Sprungturm verfügt über alle standardisierten Bretthöhen Das 1970 eingerichtete "Donauschwäbische Museum" im Haus der Donauschwaben zeigt eine Sammlung donauschwäbischen Kulturgutes. Angeschlossen ist eine Spezialbibliothek für donauschwäbisches Schrifttum. Im Alten Rathaus im Stadtteil Maichingen befindet sich die "Galerie der Stadt Sindelfingen" sowie im 1990 eröffneten "Lütze-Museum" im Mittleren Rathaus Sindelfingen. Über die Stadtgeschichte informiert das "Stadtmuseum" im Alten Rathaus von 1478 mit angrenzendem Salzhaus von 1592. Im Salzhaus ist auch die "Würbenthaler Heimatstube" untergebracht. In der Alten Webschule befindet sich das Haus der Handweberei mit "Webereimuseum". Das Museum Schauwerk Sindelfingen wurde 2010 eröffnet. Es zeigt deutsche und internationale Kunst der 1960er bis in die Gegenwart. Bauwerke. Das Alte Rathaus (heute das Stadtmuseum, der Eintritt ist frei) und die Martinskirche (geweiht 1083) sind die Wahrzeichen der Stadt. "Weitere Sehenswürdigkeiten:" Musik. Die seit 1986 bestehende Punk-Rock-Band WIZO stammt aus Sindelfingen. 2010 haben sich außerdem Heisskalt in Sindelfingen aus On Top of the Avalanche und der ebenfalls Sindelfinger Band Big Spin gegründet. Brauereiwesen. 1823 gründete Max Bernauer, der damalige Wirt des Gasthauses Lamm, für die Bewirtung der eigenen Gäste die Brauerei „Lamm Bräu“. Bereits ein Jahr später wurde die Brauerei an Johann Jakob Schlanderer verkauft. 2005 wurde die Bierherstellung aufgegeben. Das ehemalige Brauereigelände zwischen Lange Anwanden, Eyachstraße und Mahdentalstraße wurde mittlerweile mit Wohnhäusern bebaut. Vereine. Schwätzweiber, die originalen. Namentlich nicht bekannt. Ehrenbürger. Daneben vergibt die Stadt Sindelfingen noch "Ehrenplaketten" in Gold und Silber an Personen, die sich um die Stadt verdient gemacht haben. Ehrungen dieser Art erhielten unter anderem Roger Combrisson (Bürgermeister der Partnerstadt Corbeil-Essonnes) und Arthur Gruber. Internationales Einheitensystem. Das Internationale Einheitensystem oder SI (frz. ') ist das am weitesten verbreitete Einheitensystem für physikalische Größen. Das SI ist ein metrisches Einheitensystem, d. h. eine Basiseinheit ist der Meter, es ist dezimal, d. h. die Einheiten werden nur mit Zehnerpotenzen mit ganzzahligen Exponenten versehen und es ist ein kohärentes Einheitensystem, d. h. jede abgeleitete Einheit ist ein Potenzprodukt von Basiseinheiten, ohne dass ein zusätzlicher numerischer Faktor auftritt. Durch das SI werden physikalische Einheiten zu ausgewählten Größen festgelegt. Das SI beruht auf sieben Basiseinheiten zu entsprechenden Basisgrößen. Die Auswahl der Basisgrößen und die Definition zugehörigen Basiseinheiten erfolgte nach praktischen Gesichtspunkten. Die Einheiten des Internationalen Einheitssystems werden als SI-Einheit bezeichnet, um sie von Einheiten anderer Einheitensysteme abzugrenzen. Einführung. Für internationale Regelungen über das SI ist das internationale Maß- und Gewichtsbüro (BIPM) zuständig. Als Referenz-Regelwerk gilt die vom BIPM in periodischen Abständen (üblicherweise alle paar Jahre) neu publizierte Broschüre  – deutsch kurz auch als „die SI-Broschüre“ bezeichnet. Dieser Artikel bezieht sich auf die 2006 erschienene 8. Auflage der SI-Broschüre. Für die nationale Umsetzung des SI sind meist die metrologischen Staatsinstitute zuständig. Diese nationalen Empfehlungen erhalten rechtliche Bedeutung (das heißt im Wesentlichen eine Anwendungspflicht in manchen Tätigkeitsbereichen) erst durch Gesetze oder Rechtsprechung einzelner Staaten. In der EU ist die Verwendung von Einheiten unter anderem durch die EG-Richtlinie EWG weitgehend vereinheitlicht worden. In der Europäischen Union (EU), der Schweiz und den meisten anderen Staaten ist die Benutzung des SI im amtlichen oder geschäftlichen Verkehr gesetzlich vorgeschrieben. Mit der Richtlinie 2009/3/EG wurde die Verwendung von zusätzlichen Angaben in der EU unbefristet erlaubt (durch vorhergehende Richtlinien war dies ursprünglich nur bis zum 31. Dezember 2009 möglich). Dies wird hauptsächlich damit begründet, Exporte von Waren in Drittländer nicht zu behindern. In vielen Staaten gestatten nationale Gesetze bestimmte Ausnahmen von den SI-Regelungen. Von den USA, Myanmar und Liberia wurde das SI nie offiziell eingeführt. In den USA sind metrische Einheiten seit einem Parlamentsbeschluss 1866 und einem Regierungsdekret 1894 anerkannte Einheiten. In den 1970er Jahren wurden erhebliche Anstrengungen unternommen, das SI einzuführen, doch es scheiterte am fehlenden Willen der Anwender bzw. Betroffenen.Dimensionsname Des Weiteren fällt auf, dass nur die Einheit "Kilogramm" anhand eines Prototyps definiert wird. Alle anderen Einheiten werden über unveränderliche Naturkonstanten festgelegt, was aber nicht schon immer der Fall war. So gab es bis 1960 beispielsweise ein Urmeter als Prototyp für die Einheit "Meter". Da sich die Masse des Urkilogramms aber theoretisch ändern könnte (und dies wahrscheinlich sogar tut) arbeitet man daran, auch die Einheit "Kilogramm" eindeutig zu definieren (siehe auch Neudefinition des Kilogramms). Kohärente SI-Einheiten. Alle physikalischen Größen außer den oben genannten sieben Basisgrößen des ISQ sind "abgeleitete Größen." Analog dazu sind alle Einheiten außer den sieben Basiseinheiten des SI "abgeleitete Einheiten". „["Q"]“ stellt symbolisch den Ausdruck „die Einheit der Größe "Q"“ dar, in Übereinkunft der Regeln gemäß dem vom "Joint Committee for Guides in Metrology" herausgegebenen VIM "(International Vocabulary of Metrology – Basic and General Concepts and Associated Terms)". Die Basis jeder Potenz ist in dieser Darstellung die Dimension einer Basisgröße. Der Exponent wird "Dimensionsexponent" dieser Basisgröße oder der entsprechenden Basiseinheit genannt. Jeder Dimensionsexponent "α", "β", "γ", "δ", "ε", "ζ" und "η" ist entweder Null oder eine positive oder negative, im Allgemeinen ganze Zahl. Der Betrag des Exponenten ist in der Regel deutlich kleiner als 10. Beispiele für kohärente SI-Einheiten ("n" = 0) Beispiele für nicht kohärente SI-Einheiten ("n" ≠ 0) Ein Vorteil der ausschließlichen Verwendung kohärenter SI-Einheiten in Gleichungen liegt darin, dass keine Umrechnungsfaktoren zwischen Einheiten benötigt werden. Abgeleitete SI-Einheiten mit besonderem Namen. 22 kohärenten abgeleiteten SI-Einheiten wurden eigene Namen und Einheitenzeichen (Symbole) zugeordnet, die selbst wieder mit allen Basis- und abgeleiteten Einheiten kombiniert werden können. So eignet sich zum Beispiel die SI-Einheit der Kraft, das "Newton" (= kg·m/s2), um die Einheit der Energie, das "Joule" als Newton mal Meter (N·m) auszudrücken. Die folgende Tabelle listet diese 22 Einheiten in derselben Reihenfolge wie Tabelle 3 der SI-Broschüre (8. Auflage). Nicht-SI-Einheiten. Neben den SI-Einheiten gibt es (vor allem in der Elektrodynamik, Informatik, im Wirtschaftswesen) noch einige weitere gebräuchliche Einheiten, die nicht zum SI gehören, insbesondere das sogenannte Gauß’sche- oder cgs-System. Schreibweise von Größen, Zahlenwerten und Einheiten. Die ISO 1000:1992 wurde 2009 zurückgezogen, nachdem die ISO 80000 und IEC 80000 veröffentlicht wurden. Nationale und internationale Normen sowie EWG-Richtlinien haben das SI übernommen. In Deutschland wurden die darin festgelegten Einheiten mit dem "Gesetz über die Einheiten im Messwesen (1969)" (das 2008 durch Einfügung der Bestimmungen des früheren Zeitgesetzes zum "Gesetz über die Einheiten im Messwesen und die Zeitbestimmung" (EinhZeitG) erweitert wurde) für den amtlichen und geschäftlichen Verkehr vorgeschrieben. Die aktuelle Ausführungsverordnung von 1985 nennt in einer Anlage die zulässigen Bezeichnungen und verweist im übrigen auf Nach § 3 der Verordnung Die vorige Verordnung hatte noch etliche Nicht-SI-Einheiten ohne Zusätze erlaubt, zum Beispiel mmHg (Millimeter-Quecksilbersäule) für den Blutdruck. In der Schweiz ist die Bezeichnung mmHg auch für den Druck anderer Körperflüssigkeiten zulässig. Das SI-Regelwerk nennt auch seinerseits Nicht-SI-Einheiten, deren Verwendung zusammen mit dem SI akzeptiert ist. Die SI-Broschüre regelt nicht nur die Einheitennamen, sondern gibt auch Formatierungsregeln für die Schreibweise von Einheitenzeichen und Zahlenwerten. Zusammenhängende Schreibweise von Größen, Zahlenwerten und Einheiten. Darin steht "A" als Symbol für die Größe, für den Zahlenwert von "A" und ["A"] für die Einheit von "A" (ausgeschrieben oder als Einheitenzeichen). Von dieser zusammenhängenden Schreibweise wird abgewichen, wenn viele gleichartige Größenangaben zu machen sind, in Tabellen oder Achsbeschriftungen. Empfohlen wird dafür die Schreibweise "A"/["A"] = , also z. B. "T"/K = 300, 400, 500 für "T" = 300 K, 400 K, 500 K. Motivation: Denkt man sich anstelle der Größe "T" das Produkt aus Zahlenwert und Einheit, so kürzt sich die Einheit weg. Um Verwirrung zu vermeiden, falls die Einheit selbst einen Bruch darstellt, wird empfohlen, negative Exponenten einzeln an die Einheitenzeichen des Nenners zu setzen, für einen Wärmewiderstand "R" in Kelvin pro Watt also "R"/K W−1. Nicht normgerecht, aber üblicher sind die Schreibweisen "R" in K/W, "R" (K/W) und "R" [K/W]. Name und Formelzeichen von Größen ===. Größensymbole (Formelzeichen) sind in "kursiver" Schrift zu schreiben. Die Zeichen können frei gewählt werden – allgemein übliche Formelzeichen wie "l", "m" oder "t" stellen lediglich Empfehlungen dar. Auch DIN-Normen enthalten Empfehlungen für Formelzeichen. Die Wahl von Namen und Symbol einer physikalischen Größe empfiehlt die SI-Broschüre ohne Assoziation zu einer bestimmten Einheit. Demnach sollen Bezeichnungen wie Literleistung vermieden werden. Die Celsius-Temperatur gehorcht dieser Empfehlung allerdings nicht. Weitere, jedoch nicht so bedeutsame Beispiele der Nicht-Einhaltung dieser Empfehlung sind der Stundenwinkel, die Gradtagzahl und der Heizgradtag. Schreibweise der Einheitenzeichen. Die Einheitenzeichen von nicht zusammengesetzten Einheiten sind international einheitlich. Unabhängig vom Format des umgebenden Textes sind sie in aufrechter Schrift zu schreiben. Sie werden in Kleinbuchstaben geschrieben, außer wenn sie nach einer Person benannt wurden – dann wird der erste Buchstabe groß geschrieben. Beispiel: „1 s“ bedeutet eine Sekunde, während „1 S“ das nach Werner von Siemens benannte Siemens darstellt. Eine Ausnahme dieser Regel bildet die Nicht-SI-Einheit Liter: Obwohl es nicht nach einer Person benannt ist, kann für sein Einheitenzeichen neben dem klein geschriebenen l auch das groß geschriebene L verwendet werden. Letzteres ist vor allem im angloamerikanischen Raum üblich, um Verwechslungen mit der Ziffer „eins“ zu vermeiden. Ein SI-Präfix (wie "Kilo" oder "Milli") kann für ein dezimales Vielfaches oder einen Teil unmittelbar vor das Einheitenzeichen einer kohärenten Einheit gestellt werden, um Einheiten in unterschiedlichen Größenordnungen anschaulicher darzustellen. Eine Ausnahme bildet das Kilogramm (kg), das nur vom Gramm (g) ausgehend mit SI-Präfixen verwendet werden darf. Beispielsweise muss es für 10−6 kg „mg“ und nicht „μkg“ heißen. Einheitenzeichen folgen nach einem Leerzeichen dem Zahlenwert, auch bei Prozent und Temperaturangaben in Grad Celsius. Zur besseren Leserlichkeit und der Vermeidung von Zeilenumbrüchen sollte ein schmales Leerzeichen verwendet werden. Einzig die Einheitenzeichen °, ' und " für die Nicht-SI-Winkeleinheiten Grad, Minute und Sekunde werden direkt nach dem Zahlenwert ohne Zwischenraum gesetzt. Hinweise auf bestimmte Sachverhalte sollen nicht an Einheitenzeichen angebracht werden (als tiefgestellte Zeichen); sie gehören dagegen zum Formelzeichen der verwendeten physikalischen Größe oder in erläuternden Text. Falsch ist Veff als „Einheit“ von Effektivwerten der elektrischen Spannung in Volt, VDC für die Angabe einer elektrischen Gleichspannung in Volt, oder %(V/V) für „Volumenprozent“. Dimensionssymbole werden als aufrecht stehender Großbuchstabe in serifenloser Schrift geschrieben. Eine Einheit hat einen ausgeschriebenen Einheitennamen und ein Einheitenzeichen. Je nach Sprache sind unterschiedliche Schreibweisen für Einheitennamen (dt. "Sekunde", engl. ', frz. ') vorgesehen. Die Einheitennamen unterliegen außerdem der normalen Deklination der jeweiligen Sprache. Die Einheitenzeichen sind streng genommen international einheitlich, und werden auch nicht dekliniert. In Sprachen, die nicht das lateinische Schriftsystem verwenden, ist es allerdings teilweise üblich, die Einheitenzeichen mit Zeichen des eigenen Alphabetes zu schreiben (Transliteration). Beispielsweise wird auf Russisch üblicherweise Kilometer mit „км“ abgekürzt, und Kilogramm als „кг“. Zukünftige Entwicklungen. Vorgeschlagene Abhängigkeiten der SI-Basiseinheiten (in Farbe) von den exakt festgelegten Naturkonstanten (in grau, im Außenbereich) Zukünftig sind weitere Neudefinitionen von SI-Basiseinheiten zu erwarten, die mit der exakten Festlegung von einigen Naturkonstanten einhergehen. Mögliche Neudefinitionen von SI-Basiseinheiten werden auf der alle vier Jahre stattfindenden Generalkonferenz für Maß und Gewicht diskutiert. Der formale Beschluss zur Neudefinition wird für die 25. Sitzung der Generalkonferenz für Maße und Gewichte, CGPM, im Jahr 2018 erwartet. Im Folgenden sind die mit Stand 2011 vorgeschlagenen Neudefinitionen der SI-Basiseinheiten zusammengefasst. Sekunde. Die vorgeschlagene Neudefinition entspricht der bisherigen Definition. Meter. Die vorgeschlagene Neudefinition entspricht der bisherigen Definition. Kilogramm. Die Definition des Kilogramms ändert sich wesentlich. Dessen neue Definition basiert nicht mehr auf einem Prototyp, sondern auf dem als exakt definierten Planckschen Wirkungsquantum mit der Einheit s−1·m2·kg, was der Einheit J·s entspricht. Eine Konsequenz daraus wäre, dass das Kilogramm im Gegensatz zur bisherigen Festlegung von der Definition der Sekunde und des Meters abhängig wird. Ampere. Die Festlegung des Ampere wird im Vorschlag so geändert, dass sie messtechnisch leichter umzusetzen ist als die bisherige Definition. Die Neudefinition basiert auf der exakt festgelegten Elementarladung "e". Eine Konsequenz daraus wäre, dass das Ampere nicht mehr auf der Festlegung des Kilogramms und des Meters basiert. Außerdem wäre durch exakte Festlegung der Elementarladung die bisher exakt festgelegte magnetische Feldkonstante formula_1, die elektrische Feldkonstante formula_2 und daraus abgeleitet auch der Wellenwiderstand des Vakuums nicht mehr exakt festgelegt. Kelvin. Die vorgeschlagene Neudefinition des Kelvins basiert auf der exakten Festlegung der Boltzmann-Konstante "k". Eine Konsequenz daraus wäre, dass die Festlegung des Kelvins auf der Festlegung von Sekunde, Meter und Kilogramm basiert. Der Tripelpunkt von Wasser erhält dadurch einen unsicherheitsbehafteten, gemessenen Wert. Mol. Die Definition des Mols soll mit der Festlegung der Avogadro-Konstante "N"A einhergehen. Damit bestünde keine Abhängigkeit vom Kilogramm mehr. Candela. Die vorgeschlagene Neudefinition entspricht bis auf Änderung der Formulierung der bisherigen Definition. Stunde. Die Stunde (von ‚Stehen‘, ‚Aufenthalt‘) bezeichnet den vierundzwanzigsten Teil eines Tages. Neben einer Teilung in 24 gleiche Teile gibt es auch andere Stundenbegriffe. Das lateinische Wort ist, daher das Einheitenzeichen codice_1 oder codice_1. Die Maßeinheit Stunde. Die Stunde ist eine Einheit der Zeit. Das Einheitenzeichen ist h (v. lat.). Die Stunde gehört zwar nicht zum Internationalen Einheitensystem (SI), ist zum Gebrauch mit dem SI aber zugelassen. Dadurch ist sie eine gesetzliche Maßeinheit. Aufgrund der nichtdezimalen Unterteilung ist bei wissenschaftlichen Berechnungen zuerst eine Umrechnung in Sekunden erforderlich. Da heutige Atomuhren die Zeit sehr genau messen können und die Rotationsgeschwindigkeit der Erde variiert, wurde die Stunde neu definiert über eine Sekunde, die Atomzeit mit astronomischer Universalzeit verbindet. Sonnenuhr auf dem Liesinger Kirchturm, Lesachtal, Kärnten, Österreich Stundenzählung und -teilung. Die 24-Stunden-Zählung eines ganzen Tages ist erstmals im Alten Ägypten bezeugt und fand später unter anderem in der griechischen Antike um das 3. vorchristliche Jahrhundert Anwendung, wo sich das 24-Stundensystem aus dem Winkelmaß ableitete. Von dort verbreitete sie sich schon bis zur Zeitenwende über die ganze (alte) Welt. Als "volle Stunde" bezeichnet man den Beginn der "Minute Eins", also beispielsweise 08:00:00; es wird auch „Schlag acht“ genannt. Der Begriff kommt daher, dass (im obigen Beispiel) „die achte Stunde voll“ wird. Daraus abgeleitet sind die verbreiteten Stundenteilungen "halbe Stunde", "Viertelstunde", und die Zeitangaben (chronologisch) „viertel acht“ (07:15), „halb acht“ (07:30), „dreiviertel acht“ oder „viertel vor acht“ (07:45) und „viertel nach acht“ (08:15). Andere Definitionen der Länge der Stunde. a> (ca. 1400; SBB-PK, Lib. Pic. A 72) – kompletter Monatsbilderzyklus mit Tierkreiszeichen und Verzeichnis der Stunden mit Tageslicht je Monat. Siemens (Einheit). 1860 hatte Siemens in Poggendorffs Annalen der Physik und Chemie den Aufsatz "Vorschlag eines reproducirbaren Widerstandsmaaßes" veröffentlicht, Einzelheiten hierzu siehe unter Ohm. Mho. "Mho" ist eine veraltete Bezeichnung für die Einheit "Siemens", die Bezeichnung geht auf William Thomson zurück. Die Bezeichnung Mho (Ohm rückwärts gelesen) und das Symbol (ein kopfstehendes großes Omega) drücken aus, dass es sich um den Kehrwert der Einheit Ohm handelt. Verwendet wurden sie bis in die dreißiger Jahre des zwanzigsten Jahrhunderts, in den USA im Bereich der Elektronik informell auch weiterhin. Stilb. Das Stilb (sb) ist eine veraltete Einheit der Leuchtdichte nicht selbstleuchtender Körper und gilt seit dem 1. Januar 1978 nicht mehr als offizielle Maßeinheit. Das Wort leitet sich aus dem griechischen Wort „stilbein“ (glänzen) ab und wurde um 1920 durch den Franzosen André-Eugène Blondel geprägt. Während der nordamerikanische Raum bildhaftere Begriffe wie „Kerzen pro Quadratmeter“ bevorzugte, blieb das Stilb in Europa bis zur Zeit des Zweiten Weltkrieges in Gebrauch. Die entsprechende SI-Einheit ist cd/m². 1 Apostilb = 0,0001 Lambert = formula_5. Einheitenkonvertierung. formula_6 formula_7 formula_8 formula_9 formula_10 Sievert (Einheit). Da eine Dosis von 1 Sv ein sehr großer Wert ist, werden die üblicherweise vorkommenden Werte mithilfe eines Vorsatzes für Maßeinheiten (SI-Präfix) in Millisievert (1 mSv = 0,001 Sv = 10−3 Sv) oder Mikrosievert (1 μSv = 0,000 001 Sv = 10−6 Sv) angegeben. In Ausnahmefällen werden die Angaben auch in Nanosievert (1 nSv = 0,000 000 001 Sv = 10−9 Sv) vorgenommen. Definitionen und Bezüge. Die biologische Wirksamkeit von ionisierender Strahlung ist abhängig von der Strahlenart und deren Energie und wird durch Strahlendosen quantifiziert. Weitere Abhängigkeiten sind die Eigenschaften der exponierten Organe und der zeitliche Expositionsverlauf. Diese Abhängigkeiten können durch Wichtungsfaktoren beschrieben werden, die als dimensionslose Multiplikatoren in die zu ermittelnden Dosen eingehen. Die Wichtung hat den Zweck, Angaben von Strahlendosen bzgl. ihres Schädigungspotenzials miteinander vergleichen zu können, ohne zusätzliche Details zu kennen. Basisgröße, die jeweils mit den Wichtungsfaktoren multipliziert wird, ist die Energiedosis, gemessen in der Maßeinheit J/kg mit der besonderen Einheitenbezeichnung Gray (Gy). Dass in einer Dosisangabe Wichtungsfaktoren enthalten sind, wird durch die besondere Einheitenbezeichnung Sievert (Sv) kenntlich gemacht. Die physikalische Maßeinheit bleibt unverändert das J/kg. Körperdosen (Sammelbezeichnung für Organdosen und die effektive Dosis) sind solchermaßen gewichtete Strahlendosen. Sie dienen der Quantifizierung des Risikos für das Auftreten stochastischer Strahlenschäden (Krebs und vererbbare Defekte). Bei Organdosen wird die mittlere Energiedosis eines Organs zur Berücksichtigung der Strahlenart mit dem Strahlungs-Wichtungsfaktor wR der Strahlenart multipliziert. Dieser Faktor berücksichtigt die relative biologische Wirksamkeit (RBW) der betrachteten Strahlenart im Vergleich zu Strahlung mit niedrigem linearen Energieübertragungsvermögen (LET). Im Rahmen der Ermittlung der effektiven Dosis und der damit verbundenen Aufsummierung der Organdosen werden diese mit den Gewebe-Wichtungsfaktoren wT der betroffenen Organe multipliziert. Diese Faktoren drücken die relative Empfindlichkeit der Organe untereinander bzgl. des Auftretens stochastischer Strahlenschäden aus. Bzgl. der Größe der Strahlungs-Wichtungsfaktoren und der Gewebe-Wichtungsfaktoren siehe die Artikel Strahlungswichtungsfaktor bzw. Effektive Dosis. Die Äquivalentdosis ist eine Messgröße für die Orts- und Personendosisüberwachung bei äußerer Strahlenexposition. Bei ihr wird als Wichtungsfaktor ein Qualitätsfaktor verwendet, der von der ICRU (International Commission on Radiation Units and Measurements) für ein standardisiertes Weichteilgewebe definiert ist. Ungeachtet der unterschiedlichen Wichtung wird auch hierfür das Sievert als Einheitenbezeichnung verwendet. Im praktischen Strahlenschutz ist dieser Unterschied ohnehin meist nicht maßgebend, so dass die Äquivalentdosis eine geeignete Messgröße darstellt, um bei äußerer Bestrahlung mit hinreichender Genauigkeit auf Körperdosen schließen zu können. Bei innerer Bestrahlung durch Radionuklide, die dem Körper zugeführt und von ihm inkorporiert werden, beziehen sich Dosisangaben in Sievert auf Organ-Folgedosen und die effektive Folgedosis. In diese Dosen ist die andauernde Exposition durch die inkorporierten Radionuklide eingerechnet, die im Zeitraum ab ihrer Zufuhr stattfindet. Folgedosen (in Sievert) können bei Kenntnis von Radionuklid, zugeführter Aktivität (in Becquerel (Bq)), chemischer Form, Art und Weise der Zufuhr etc. mit Hilfe von Dosiskoeffizienten (in Sv/Bq) abgeschätzt werden. Diese Dosiskoeffizienten sind nuklidspezifisch, wodurch die Strahlenart bzw. deren Strahlungs-Wichtungsfaktor wR berücksichtigt ist, und sie berücksichtigen weiterhin die biokinetischen Eigenschaften des zugeführten radioaktiven Stoffs. Anwendungsbereich. Bei den schädigenden Wirkungen ionisierender Strahlen wird zwischen stochastischen und deterministischen Strahlenschäden unterschieden. Siehe dazu die Artikel Strahlenschutz und Strahlenrisiko. Körperdosen und Äquivalentdosis in Sievert werden als Dosisgrößen im Strahlenschutz in einem Dosisbereich bis zu einigen 100 mSv angewendet, wo stochastische Wirkungen bekanntermaßen auftreten oder (bei niedrigen Dosen) vermutet werden und wo deterministische Wirkungen noch nicht maßgebend sind. Bei deutlich höheren Dosen mit den dann maßgebenden deterministischen Wirkungen werden die Wichtungsfaktoren hingegen nicht mehr angewendet, sondern Strahlendosen werden allein in Form der Energiedosis in Gy angegeben. Ein typischer Anwendungsbereich neben dem Strahlenschutz ist hierfür beispielsweise die Strahlentherapie. Beispiele für Strahlendosen in Sievert. Zur Bewertung eines Strahlenrisikos kann ein Vergleich mit der natürlichen Strahlenexposition dienen. Eine in Deutschland lebende Person erhält eine mittlere effektive Dosis von 2,4 mSv pro Jahr. Weitere Einzelheiten dazu siehe den Artikel Strahlenexposition. Zur Begrenzung der Strahlenexposition der Bevölkerung legt in Deutschland die Strahlenschutzverordnung zusätzlich zur natürlichen und medizinischen Strahlenexposition einen Grenzwert von 1 mSv pro Jahr für die effektive Dosis von Personen bei geplanten Expositionssituationen fest. Für Notfall-Expositionssituationen ist ein Eingreifrichtwert der effektiven Dosis von 100 mSv in sieben Tagen für eine Evakuierung vorgesehen. Für das erste Jahr nach Eintritt eines Notfalls ist ein Referenzwert der effektiven Dosis von 100 mSv vorgesehen, der in dieser Zeit nicht überschritten werden darf. Weitere Einzelheiten dazu siehe den Artikel Radiologische Gefährdungslage. Die maximale erlaubte effektive Jahresdosis für beruflich strahlenexponierte Personen beträgt in Deutschland 20 mSv und über ein Berufsleben dürfen nicht mehr als 400 mSv zusammenkommen. Ein ungeborenes Kind darf bis zu seiner Geburt keine höhere Strahlendosis als 1 mSv erhalten. Schwellenwerte für deterministische Strahlenwirkungen werden damit nach heutigem Wissen deutlich unterschritten. Klinische Symptome der Strahlenkrankheit treten erst bei einer kurzzeitigen Ganzkörper- oder großvolumigen Teilkörperbestrahlung im Dosisbereich oberhalb von 1 Gray (Gy) auf. Frühere Einheit. Offizielle Einheit anstelle des Sievert war bis zum 1. Januar 1978 das Rem (rem). Ein Sievert entspricht 100 rem. Stone (Einheit). Das Stone (englisch "Stein") ist eine britische nicht SI-konforme Einheit von Masse und Gewichtskraft. Es wird in Avoirdupois, Unzen und Dram unterteilt. Bei traditionellen englischen Einheiten wird nur bei wissenschaftlichem Gebrauch zwischen Gewichtskraft und Masse unterschieden. Beispiel: lbf als pound-force (Kraftpfund). Bis 1985 war das Stone in Großbritannien eine offizielle Einheit. Seitdem ist sein Gebrauch zu geschäftlichen Zwecken (z. B. Warenauszeichnung, technische Daten) durch den "Weights and Measures Act" ausdrücklich untersagt. Gleiches gilt für die oben zur Erklärung benutzten Einheiten Dram und (long) ton. In Ländern, in denen britisches Englisch gesprochen wird, wie im Vereinigten Königreich, in Irland, Australien oder Neuseeland ist es jedoch immer noch üblich, das menschliche Körpergewicht in "stone" anzugeben („I have lost two stone five“ – „Ich habe zwei Stone und fünf Pfund (15 kg) abgenommen“). Stone hat als inoffizielle Einheit für menschliches Körpergewicht eine ähnliche Bedeutung wie die veraltete und abgeschaffte Kilokalorie im Deutschen als Einheit für den Energiegehalt von (menschlicher) Nahrung oder das PS für die Leistung speziell von Verbrennungsmotoren. Zum Teil wird das Gewicht von Wrestlern, Boxern und Jockeys noch in Stone und Pfund angegeben, was jedoch zunehmend durch eine Angabe in Pfund ersetzt wird. Wenn Stone als Einheit mit vorangestellter Zahl verwendet wird, benutzen britische Muttersprachler kein Plural-S, ohne Zahl dagegen schon („What is your weight in stones and pounds?“ – „Wie ist dein Gewicht in Stone und Pfund?“). Scrupel. a> aus dem dritten Jahrhundert vor Christus mit einem Gewicht von 0,92 Gramm Das Scrupel (nach lat.: ', kleiner Kieselstein, auch Skrupel, Scruple) ist eine nicht SI-konforme Maßeinheit. Das Scrupel war im antiken Rom eine der kleinsten gebräuchlichen Maßeinheiten für die Masse, ist aber auch als Maßeinheit auf andere Größen übertragen worden. Später wurde die Einheit als Apothekergewicht gebraucht und mit dem Einheitenzeichen ℈ oder s.ap. (ap. für) abgekürzt. Allgemein. Als Maßeinheit der Masse betrug der römische Scrupel (, s.tr.) 1/24 einer Feinunze (, oz.tr.), also 1/288 eines Pfunds (, lb.tr.), was in etwa 1,2 Gramm entspricht. Der Wert der Einheiten war jedoch in unterschiedlichen Regionen und im Laufe der Zeit leicht unterschiedlich. Medizinalgewicht. Scrupel war auch ein Teil des regionalen Medizinalgewicht, welches 20 Gran wog. Das Aß (holl.) kann mit 0,048 Gramm gerechnet werden. Frankreich. Ableitung von der Toise, Altfranzösisches Längenmaß Zeit und Fläche. Als Maßeinheit der Fläche betrug es 1/288 eines Jochs. Als Maßeinheit der Zeit war ein Scrupel 1/24 einer Stunde. Mile (Einheit). Die mile, früher auch „Englische Meile“, „Landmeile“ oder genannt, ist eine Längeneinheit im Vereinigten Königreich und den USA. Sie beträgt exakt 1609,344 Meter. Definition. 1 mile = 1.609,344 m (Seit 1. Juli 1959) Alte Definitionen. 1 mile = 8 Furlong = 320 Pole = 5.280 Fuß Bis zur Vereinheitlichung des angloamerikanischen Maßsystems war die Meile im Commonwealth of Nations und den Vereinigten Staaten leicht unterschiedlich definiert. Beide Definitionen beruhten allerdings auf einem britischen Statut von 1593, welches die Meile mit 5280 Fuß definiert: Daher wurde die so definierte Meile häufig auch als "statute mile" bezeichnet. Da allerdings die Definition des Fuß leicht (um 600 nm) voneinander abwich (Ein britischer Fuß entsprach 0,999998 US-Fuß), hatten auch die Meilen eine entsprechend abweichende Länge voneinander. Seit der Vereinheitlichung wird international die mile mit 1.609,344 m definiert. Die ehemals in den USA verwendete Definition findet nur noch bei der Landvermessung in den USA Anwendung, wird als "survey mile" bezeichnet und entspricht 1.609,347 m. Umrechnung. 1 mile = 63.360 Zoll = 5.280 Fuß = 1.760 Yard = 1.609,344 m Suzanne Vega. Suzanne Nadine Vega (* 11. Juli 1959 in Santa Monica, Kalifornien) ist eine US-amerikanische Sängerin und Songwriterin. Werdegang. Suzanne Vega wurde in Santa Monica im US-Bundesstaat Kalifornien geboren. Ihre Mutter zog mit ihr ein Jahr nach ihrer Geburt nach New York, wo Suzanne in East Harlem und an der Upper West Side aufwuchs. Im Alter von neun Jahren fing sie an, Gedichte zu schreiben; ihr erstes Lied schrieb sie im Alter von 14 Jahren. Zunächst besuchte sie die "La Guardia High School of Music & Art and Performing Arts", wo sie modernen Tanz studierte. Sie erkannte jedoch, dass Musik ihre Berufung war. Als sie am Barnard College der Columbia University Anglistik studierte, trat sie auf kleinen Bühnen im New Yorker Künstlerviertel Greenwich Village auf. 1984 bekam sie ihren ersten Plattenvertrag. Karriere. Suzanne Vega schreibt Musik größtenteils für ihre Gitarre. In der Produktion werden die Songs für eine mehrköpfige Band arrangiert. Ab 1985. Das 1985 veröffentlichte Debütalbum "Suzanne Vega" wurde äußerst positiv aufgenommen. Die Songs stemmen sich dem „Bigger is better“-Motto in der Mitte der 1980er Jahre entgegen. Sie sind jedoch keine typischen Protestsongs, sondern eher introspektiv. Das 1987 veröffentlichte Nachfolgealbum "Solitude Standing" enthält zwei Songs, die Suzanne Vega einer breiteren Öffentlichkeit bekannt machten: "Tom’s Diner", ein Lied über "Tom’s Restaurant", bekannt auch durch die Adaption der Gruppe DNA und die Tatsache, dass es das erste Lied war, das jemals in das MP3-Format konvertiert wurde, sowie "Luka", ein Lied, das aus der Sicht eines misshandelten Kindes geschrieben wurde. Die Musik ist im Vergleich zu ihrem ersten Album stärker an der Rockmusik orientiert. Ab 1990. Das dritte Album "Days of Open Hand" aus dem Jahr 1990 stellt ein in sich geschlossenes Werk dar. Musik und Text sind getragen von mystischem Symbolismus und tiefen Emotionen. Die Musik ist im Vergleich zu den vorherigen Alben experimenteller. 1992 wurde "99.9°F" veröffentlicht. Das Album besteht aus einem Mix aus akustischem Folk und Songs, die sich zwischen Dance-Beats und Industrial Noise bewegen. Album Nummer fünf, "Nine Objects of Desire," erschien 1996. Musikalisch variierte Vega den früheren, einfacheren Stil mit der ausführlicheren Produktion von "99.9F°" sowie mit Bossa Nova. Ab 2001. Im September 2001 erschien ihr Album "Songs in Red and Gray". Als Ausdruck ihrer Erfahrungen trat die Beziehung zwischen Mann und Frau, insbesondere deren Fehldeutungen und Scheitern, thematisch in den Vordergrund. Musikalisch konzentrierte sich Vega wieder stärker auf akustische Elemente. Sie formulierte für sich zugleich einen höheren Anspruch, als nur ein unkompliziertes Folk-Album zu produzieren. 2007 erschien "Beauty & Crime", das erste Album, die sie beim Plattenlabel Blue Note Records veröffentlichte. Ab 2010. Am 9. Februar 2010 erschien in den USA ihr Album "Close-Up Vol. 1, Love Songs" (weltweites Erscheinungsdatum: 14. Juni 2010) auf ihrem eigenen Label „Amanuensis Productions“. Es enthält Neuaufnahmen vorhandener Songs zum Thema „Liebe“. Bis 2012 erschienen vier Alben mit Neuaufnahmen, der zweite Teil zum Thema „Menschen, Orte und Dinge“, der dritte Teil zum Thema „Seinszustand“ ("State of being") und der letzte Teil mit „Familienliedern“. Die Idee dahinter sei zum einen, die Lieder verfügbar zu halten (da sie keinen Plattenvertrag hat) und zum anderen, wenigstens eine Version der eigenen Songs zu besitzen, wenn man schon nicht über die Originalaufnahmen verfügt. Die Neuaufnahmen sind akustische Versionen der Songs. 2011 widmete sich Vega vor allem ihrem Theaterstück "Carson McCullers talks about love", einer fiktiven Autobiographie mit eigens dafür arrangierten Songs der Schriftstellerin Carson McCullers, die mit Vega in der Hauptrolle im April 2011 in New York uraufgeführt wurde. Ab 2014. "Tales from the Realm" Tour Suzanne Vega veröffentlichte im Februar 2014 nach sieben Jahren Pause ein neues Studioalbum mit zehn neuen Songs. Das Album trägt den Titel "Tales from the Realm of the Queen of Pentacles" und wurde von Gitarrist Gerry Leonard produziert. Bis Mitte des Jahres befand sich Suzanne Vega auf Welttournee in Europa, den USA, Asien und Australien. Bedeutung. Obwohl Vegas kommerzieller Erfolg ab Mitte der 1990er abebbte, prägten einige ihrer Songs wie "Tom’s Diner" und "Luka" das musikalische Gesicht des frühen Jahrzehnts. Die Musikpresse nahm ihren Erfolg Ende der Achtziger zum Anlass, sie mit den ebenfalls stark song-orientierten Musikerinnen Tanita Tikaram, Tracy Chapman und Michelle Shocked zu vergleichen. Der gleichzeitige Erfolg brachte verstärkt feministische Impulse in die Rockmusik und trug dazu bei, die Stellung der Frau im Rock-Business zu verbessern. Persönliches. Suzanne Vega trennte sich 1998 nach dreijähriger Ehe von ihrem Mann Mitchell Froom, dem Vater ihrer 1994 geborenen Tochter Ruby. Sie wechselte Manager und Plattenfirma und widmete sich ihrem ersten Buch, "The Passionate Eye: The Collected Writing of Suzanne Vega". 2006 heiratete sie den Anwalt Paul Mills, mit dem sie in New York lebt. „Die Mutter der MP3“. Das MP3-Forscherteam um Karlheinz Brandenburg machte die ersten Praxistests mit der A-cappella-Version des Liedes "Tom’s Diner" von Suzanne Vega. Bei seiner Suche nach geeignetem Testmaterial las Brandenburg in einer Hi-Fi-Zeitschrift, dass deren Tester das Lied zum Beurteilen von Lautsprechern nutzten, und empfand das Stück als geeignete Herausforderung für eine Audiodatenkompression. "Tom's Diner", ein Song über ein kleines Restaurant in New York, wurde somit das weltweit erste Lied im MP3-Format - und Suzanne Vega zur „Mutter der MP3“ („mother of mp3“). Software. Software ("dt. = weiche Ware [von] soft = leicht veränderbare Komponenten [...], Komplement zu ‚Hardware‘ für die physischen Komponenten") ist ein Sammelbegriff für Programme und die zugehörigen Daten. Sie kann als Beiwerk zusätzlich Bestandteile wie z. B. die Softwaredokumentation in der digitalen oder gedruckten Form eines Handbuchs enthalten. Software bestimmt, was ein softwaregesteuertes Gerät tut und wie es das tut (in etwa vergleichbar mit einem Manuskript). Die Hardware (das Gerät selbst) führt Software aus (arbeitet sie ab) und setzt sie so in die Tat um. Software ist die Gesamtheit von Informationen, die man der Hardware hinzufügen muss, damit ein softwaregesteuertes Gerät für ein definiertes Aufgabenspektrum nutzbar wird. Durch das softwaregesteuerte Arbeitsprinzip kann eine starre Hardware individuell arbeiten. Es wird heutzutage nicht nur in klassischen Computern angewendet, sondern auch in vielen eingebetteten Systemen, wie beispielsweise in Waschmaschinen, Mobiltelefonen, Navigationssystemen und modernen Fernsehgeräten. Definition. Der Begriff Software ist bis heute nicht einheitlich und auch nicht eindeutig definiert. Dies geht u. a. darauf zurück, dass "„innerhalb der Softwaretechnik […] eine einheitliche solide, konsistente und systematische Begriffsbildung durch eine hohe Innovationsgeschwindigkeit und Praxisnähe behindert“" wird. Es existieren daher verschiedene Definitionen, die sich je nach Autor und Kontext oft auch nur in Details unterscheiden. Die Bezeichnung Software wird im allgemeinen Sprachgebrauch meist nur auf Programme bezogen, nicht aber auf andere Daten. Daneben können aber auch der Quelltext, weitere Daten oder die Dokumentation je nach Definition hinzugezählt werden. Zusammenfassend für die technische Definition lässt sich der Begriff Software grundsätzlich verstehen als "„die Gesamtheit von Informationen, die man der Hardware hinzufügen muss, damit das so entstandene Computersystem für ein definiertes Aufgabenspektrum nutzbar wird“". Außerdem wird ‚Software‘ auch als Gattungsbegriff für unterschiedliche Arten von Programmen verwendet (Grafiksoftware, Anwendungssoftware, Standardsoftware, Sicherheitssoftware u. v. a.). Etymologie. Der Ausdruck „Software“ ist ein Kunstwort, das von John W. Tukey im Jahr 1958 im als Gegenstück zu dem wesentlich älteren Wort „Hardware“ das erste Mal verwendet wurde. Dabei bezeichnet Hardware alle physischen Bestandteile eines Computers. In diesem Sinn könnten unter Software – als dem Gegenstück zur Hardware – grundsätzlich alle elektronisch gespeicherten Daten verstanden werden. Als Definition genügt diese Sichtweise jedoch nicht. Definitionen nach ISO/IEC-Norm 24765. Welche dieser Definitionen zutrifft, hängt vom jeweiligen Kontext ab, wobei auch hier die Übergänge fließend sind. In der "Softwaretechnik" besteht Software aus "„Computerprogrammen in jeder Erscheinungsform, vom Quelltext bis zum direkt ausführbaren Maschinencode“". Computerprogramme bestehen oft aus mehreren Komponenten, die sich auch über mehrere Dateien verteilen können. Im "Softwarerecht" (oft im Zusammenhang mit dem Softwareerwerb) wird Software auch als Softwareprodukt bezeichnet, das "„als Beiwerk zusätzlich Bestandteile wie z. B. die Dokumentation in digitaler oder gedruckter Form enthalten kann oder muss“". So auch im "Urheberrecht", bei dem das Entwurfsmaterial zur Software gehört, wie der Quelltext, auch "Quellprogramm" genannt. D. h. der Urheberrechtsschutz gilt i. d. R. auch für den Quellcode [als Schutzgegenstand]. Software als Programm, Dokumentation und Daten Einige Definitionen nennen neben dem Programm selbst (und evtl. der Dokumentation) auch weitere "Daten" als zur Software gehörend („zugehörige Daten“). Im Glossar des IEEE für Softwareentwickler werden Beispiele für derartige nicht-ausführbare Softwareteile genannt, wie Schriftarten, Grafiken, Audio- und Videoaufzeichnungen, Vorlagen, Wörterbücher, Dokumente und Informationsstrukturen (wie Datenbank-Datensätze). Weiterhin gibt es Software-Definitionen, die sämtliche Daten umschließen, die das Computerprogramm nutzt und darüber hinaus auch die Dokumentation einbeziehen. Demgegenüber gibt es auch Definitionen, die sowohl die Dokumentation, als auch die zur Verarbeitung vorgesehenen Daten ausschließen. Eine klare Trennlinie ist jedoch nicht näher definiert, die beschreibt, welche Daten konkret gemeint sind (z. B. die zu verarbeitenden Daten) oder welche Daten "‚notwendig‘" oder "‚zugehörig‘" sind. Geschichte. In den 1950er Jahren waren Software und Hardware noch verbunden und als Einheit wahrgenommen. Die Software war dabei Teil der Hardware und wurde als Programmcode bezeichnet. 1958 prägte der Statistiker John W. Tukey den Begriff Software erstmals. Später sorgte dann die Entscheidung der US-Regierung in den 1970er Jahren für eine Neuheit, dass IBM auf Rechnungen Software und Hardware getrennt zu berechnen und aufzuführen habe. Dies entsprach einer Anerkennung der Einzelhaftigkeit von Software von offizieller Seite und einer endgültigen Aufspaltung von Hardware und Software bzw. einer Abgrenzung der Software von der Hardware. Dieser Entwicklung folgte dann in den 1970er Jahren die Gründung von Firmen, die erstmals "nur" mit Software handelten und nur Software und keine Hardware entwickelten. Zu diesen Firmen gehörte in den USA Microsoft und in Deutschland SAP. Die Existenz solcher Firmen erscheint im 21. Jahrhundert als Selbstverständlichkeit, stellte damals jedoch eine erhebliche Neuentwicklung dar. Der logische Übergang zwischen Hard- und Software lässt sich an den frühen Spielhallenspielen verdeutlichen, wie das Spiel Breakout, das im April 1976 veröffentlicht wurde. Damals bestand deren komplettes Programm (der Ablauf, die Logik) bildlich gesehen aus „vorverdrahteten Schalttafeln“. Das von Atari produzierte Spielhallengerät verwendete keinen Prozessor. Bereits ein Jahr später, als das Spiel für den "Computer" programmiert wurde, und man anfing bei prozessorgesteuerten Geräten zwischen den Begriffen ‚Hardware‘ und ‚Software‘ zu unterscheiden, gab es Breakout als Software. Das Spiel bestand nicht mehr aus „vorverdrahteten Schalttafeln“, sondern aus Anweisungen für einen Prozessor inklusive der für die Abarbeitung notwendigen weiteren Informationen, die gemeinsam auf einem Datenträger hinterlegt wurden. Software ist immateriell. Software ist immateriell und besteht aus den Sprachen und Notationen, in denen sie formuliert ist. Software kann zwar auf bestimmten Medien gespeichert, gedruckt, angezeigt oder transportiert werden. Diese sind aber nicht die Software, sondern sie enthalten sie nur. Es ist zwar vorstellbar, Bits sichtbar und greifbar auf einem Trägermedium zu hinterlegen, doch grundsätzlich ist ‚Software‘ ein abstrakter, von Trägermedien unabhängiger Begriff. Das trifft für den Gattungsbegriff ohnehin zu, aber auch für konkrete Ausprägungen wie ein bestimmtes Anwendungsprogramm. Als Analogie dazu ist es für den Begriff ‚Oper‘ oder ‚Zauberflöte‘ nicht begriffsbestimmend, ob sie im Theater aufgeführt, über Radio/TV übertragen oder als CD verkauft oder gehört wird, ob sie im Opernführer beschrieben oder in der Partitur aufgezeichnet ist. Fließende Grenze zwischen Software und Daten. Dieser Zusammenhang, dass ein Programm sowohl als Daten als auch als Funktion auftreten kann, ist zentral in verschiedenen Disziplinen der Informatik, darunter die theoretische Informatik (u. a. Rekursionstheorie, Automatentheorie, Domaintheorie) und die technische Informatik (z. B. Von-Neumann-Architektur). Unterscheidung zwischen Hard- und Software. Die Gegensätze sind in der englischsprachigen Begriffsprägung (soft=weich, hard=hart) beabsichtigt. Zusammenwirken mit der Hardware (Execution). Obwohl dem Begriff ‚Software‘ teilweise Attribute wie Flexibilität, Individualität, Leistungsfähigkeit etc. zugeschrieben werden, wird letztlich alles, was der Computer ‚tatsächlich tut‘, nicht von der Software, sondern "ausschließlich durch die Hardware ausgeführt". Software ‚beschreibt‘ lediglich, was getan werden soll und in welcher Form dies geschieht. Dazu wird auf unterster Ebene der Maschinencode der Software unter Nutzung des Betriebssystems (d. h. ebenfalls durch dessen Maschinenbefehle) in den Hauptspeicher des Computers "geladen" und dem Rechenwerk Schritt für Schritt (siehe Befehlszähler) zur Ausführung zugeführt. Dieses Arbeitsprinzip gilt für jede Art von Software, auch wenn sie z. B. von "Interpretern" ausgeführt wird: Diese sind ebenfalls Software, deren Maschinencode an der Hardwareschnittstelle ebenfalls wie beschrieben ausgeführt wird und die Maschinenbefehle nur speicherintern erzeugen. Auch Compiler, Makroprozessoren und jede andere Art von Systemsoftware werden nach diesem Prinzip ausgeführt. Der Maschinencode muss hierzu in einer "Form/Struktur" vorliegen, die von der Hardware über deren darin implementierte Schnittstelle interpretiert und ausgeführt werden kann. Die Befehle zeigen durch ihren Inhalt und ihre Struktur an, was zu tun ist, welche Datenbereiche im Hauptspeicher dabei benutzt oder verändert werden sollen (über im Befehl enthaltene Adressierungsangaben) und ggf., an welcher Stelle das Programm fortzusetzen ist. Bei der Ausführung wirken also "viele Schichten" zusammen und führen als Gesamtheit zu Zustandsänderungen in der Hardware bzw. final zu den vorgesehenen Ergebnissen, etwa der Ausgabe einer Druckzeile, einem Datenzugriff oder der Anzeige eines Feldinhalts am Bildschirm. Bei in höheren Programmiersprachen entwickelten Anwendungen können so schon für relativ einfache Funktionen (wie Lesen aus der Datenbank) oft Hunderttausende oder Millionen von Maschinenbefehlen durchlaufen werden. Das in modernen Computern mögliche parallele Ausführen mehrerer Programme/Prozesse wird im Wesentlichen durch das Betriebssystem bewirkt, das bei bestimmten Ereignissen den Wechsel von einer zur anderen "Task" einleitet und verwaltet. Siehe auch Multitasking. Im systematischen Zusammenwirken vieler Komponenten, das nur unter Anwendung klar definierter Schnittstellen möglich ist, "„gehört Software also zu den komplexesten Artefakten, die Menschen bislang geschaffen haben“". Die Software trägt zudem maßgeblich dazu bei, wie effizient die Hardware genutzt wird. Je nach Gestaltung der Algorithmen können mit derselben Hardware unterschiedliche Systemleistungen erreicht werden. Entwicklung von Software. Die Entwicklung von Software ist ein komplexer Vorgang. Dieser wird durch die Softwaretechnik, einem Teilgebiet der Informatik, systematisiert. Hier wird die Erstellung der Software schrittweise in einem Prozess von der Analyse über die Softwaremodellierung bis hin zum Testen als wiederholbarer Prozess beschrieben. In aller Regel wird die Software nach der Entwicklung mehrfach angepasst und erweitert. Der Software-Lebenszyklus kann durchaus mehrere Jahre betragen. Auswahl von Software. In der Entscheidung zur Anschaffung von Software lässt sich i. W. der Einsatz von Standardsoftware oder die eigene Herstellung (Individualsoftware) unterscheiden. Besonders im betrieblichen Umfeld zieht diese Entscheidung häufig hohe Kosten nach sich. Auch können solche Entscheidungen Grundlage zur Umsetzung der Unternehmensstrategie sein oder sollen Unternehmensprozesse maßgeblich verbessern. Zur Vermeidung von Fehlinvestitionen sollte der Anschaffung ein systematischer Entscheidungsprozess vorausgehen. Software aus Sicht der Betriebswirtschaft und Arbeitssoziologie. Im Wesentlichen für betriebliche Anwendungssoftware geltend kann Software aus (betriebs-)wirtschaftlicher Sicht als 'im Voraus geleistete geistige Arbeit', also als Investition betrachtet werden. Zum Beispiel erarbeiten die Programmautoren ein Lösungsverfahren für die korrekte Trennung aller deutschen Wörter in einem Textverarbeitungsprogramm. Damit ist im Voraus, also bevor diese Tätigkeit tatsächlich anfällt, schon für alle Schreiber, die mit diesem Textverarbeitungsprogramm arbeiten, die geistige Arbeit „korrektes Trennen deutscher Wörter“ geleistet. Dabei wird die Eigenschaft von Computern genutzt, auf sie verlagerte Aufgaben erheblich schneller und zuverlässiger ausführen zu können als dies bisher Menschen möglich war. Besonders auch in der Softwareentwicklung wird intensiv auf „im Voraus“ entwickelte Algorithmen und Codeteile – als Teile eines Programms – zurückgegriffen ('Software-Wiederverwendung'). Ein ähnlicher Zusammenhang wird in der Arbeitssoziologie gesehen: Derartige softwarebasierte Maßnahmen sind geeignet, Arbeitsinhalte und -Abläufe erheblich zu verändern. Die Bandbreite reicht dabei vom Bereitstellen einfacher Hilfsmittel (etwa zur Summierung oder Durchschnittsermittlung) bis hin zur völligen Umgestaltung von Prozessen (durch Konzentration früher getrennter oder durch Zerlegung früher zentralisierter Arbeitsabläufe) – oder gar bis zu deren vollständigen Ersatz durch IT-Lösungen. Brödner u. a. nennen dies „materialisierte“ Kopfarbeit. Siehe auch Rationalisierung, Optimierung, Taylorismus. Kategorisierung von Software. Unterteilung nach dem Grad der Individualität Rechtlich wird beim Erwerb von Software zwischen Individualsoftware und Standardsoftware unterschieden: Für Individualsoftware wird ein Werkvertrag bzw. Werklieferungsvertrag abgeschlossen, der Erwerb von Standardsoftware gilt als Sachkauf. Unterteilung nach der Art der erzeugten Artefakte Software nach der Art der Einbettung Lizenzmodelle. Zwischen den oben genannten Hauptformen der Softwareverbreitung gibt es zahlreiche Zwischen- und Mischstufen. Freie Software und Open Source. ‚Freie Software’ ist eine soziale Bewegung, die unfreie Software als gesellschaftliches Problem begreift. Wobei „frei“ hier nicht „kostenlos“ bedeutet (‚Freie Software’ ist nicht dasselbe wie ‚Freeware’), sondern die Freiheiten für die Gesellschaft meint, die ein derart lizenziertes (auch kommerzielles) Produkt bietet. In den Augen der von Richard Stallman 1985 gegründeten Free Software Foundation (FSF) ist die Entscheidung für oder gegen freie Software deshalb primär eine ethische und soziale Entscheidung. Dagegen begreift die 1998 gegründete Open Source Initiative (OSI) quelloffene Software als bloßes Entwicklungsmodell, wobei die Frage, ob Software quelloffen sein sollte, dort eine rein praktische und keine ethische Frage ist. Die FSF wirft der OSI daher eine Ablenkung von den wesentlichen Punkten vor. Eric S. Raymond hat den Begriff ‚Open Source’ in der Annahme eingeführt, dass das unpopuläre Thema ‚Freiheit’ Geldgeber für solche Projekte abschrecken könne. Auch wenn es sich heute um zwei unterschiedliche Bewegungen mit unterschiedlichen Ansichten und Zielen handelt, verbindet sie die gemeinsame Wertschätzung für quelloffenen Code, was in zahlreichen Projekten mündet, in denen sie zusammenarbeiten. Wuppertaler Schwebebahn. Die Wuppertaler Schwebebahn ist ein am 1. März 1901 eröffnetes öffentliches Personennahverkehrssystem in Wuppertal. Die Hochbahn gilt als Wahrzeichen der Stadt und steht seit dem 26. Mai 1997 unter Denkmalschutz. Betreibergesellschaft sind die Wuppertaler Stadtwerke (WSW) beziehungsweise deren Tochtergesellschaft WSW mobil. Der offizielle Name lautet "Einschienige Hängebahn System Eugen Langen", Langen selbst kreierte die Wortschöpfung ‚Schwebebahn‘. Vor Gründung der Stadt Wuppertal 1929 war die Bezeichnung "Schwebebahn Barmen–Elberfeld–Vohwinkel" geläufig. Definition, Rechtslage und Tarif. a> der Schwebebahn auf den Haltestellenschildern Die Wuppertaler Schwebebahn wird technisch als Einschienenbahn (Unterkategorie Hängebahn) oder auch als Einschienenhängebahn definiert. Die Bezeichnung „Schwebebahn“ ist technisch falsch, weil im Gegensatz zu einer Magnetschwebebahn ein ständiger Kontakt zwischen Fahrweg und Fahrzeug besteht. Ursprünglich war die Wuppertaler Schwebebahn gemäß Preußischem Kleinbahngesetz als nebenbahnähnliche Kleinbahn klassifiziert und somit verkehrsrechtlich betrachtet eine Eisenbahn. 1943 wurde die Konzession in die einer Straßenbahn abgeändert. Jetzt gilt sie ähnlich einer U-Bahn als "Straßenbahn besonderer Bauart" und wird gemäß der Verordnung über den Bau und Betrieb der Straßenbahnen (BOStrab) betrieben. Mit U-Bahnen gemeinsam hat sie die vollständige Trennung vom Individualverkehr. Die Wuppertaler Schwebebahn ist seit 1980 in den Verkehrsverbund Rhein-Ruhr (VRR) integriert. Sie durchfährt dabei sowohl das Tarifgebiet 65 "Wuppertal West" als auch das Tarifgebiet 66 "Wuppertal Ost" und liegt somit im Fahrplanbereich 6. Beim VRR wird die Schwebebahn als Stadtbahn-Linie 60 geführt. Anders als bei den sonstigen Linien der Stadtbahn Rhein-Ruhr wird jedoch auf den Zusatz „U“ verzichtet. Die Liniennummer ist jedoch nicht an den Fahrzeugen angeschrieben, sie findet sich nur in Fahrplanpublikationen und auf Liniennetzplänen. Strecke. Typische Streckenführung auf der "Wasserstrecke" Zwei Schwebebahnen begegnen sich auf der "Landstrecke" Die Wuppertaler Schwebebahn fährt als Durchmesserlinie von Wuppertal-Oberbarmen über Barmen, Elberfeld und Elberfeld-West nach Wuppertal-Vohwinkel und zurück; sie durchquert die Stadt von Nord-Osten nach Süd-Westen. Bedingt durch die Tallage und die daraus resultierende bandstadtartige Topographie Wuppertals wird durch die gewählte Streckenführung ein Großteil der publikumsstarken Ziele der Stadt mit der Schwebebahn erschlossen. Außerdem wurde für die Schwebebahn fast keine wertvolle ebenerdige Verkehrsfläche in Anspruch genommen. Die Streckenlänge beträgt 13,3 Kilometer, die Gleislänge 28 Kilometer. Davon sind 26,6 Kilometer Streckengleise und 1,4 Kilometer Betriebsgleise. Auf den ersten 10,6 Kilometern folgt die Bahn in etwa zwölf Metern Höhe dem Lauf der Wupper flussabwärts, hier gab das Gewässer die Trassierung exakt vor. Auf Höhe des Stadions am Zoo verlässt sie die Wupper nach rechts, überquert die Bundesstraße 228 und legt die restlichen 2,7 Kilometer bis zur Endhaltestelle Vohwinkel Schwebebahn in etwa acht Metern Höhe zwischen den Häusern entlang der Sonnborner Straße, der Eugen-Langen-Straße, der Kaiserstraße und der Vohwinkeler Straße zurück. Der letztgenannte Abschnitt wird als „Landstrecke“ bezeichnet, er weist im Gegensatz zur „Wasserstrecke“ eine nennenswerte Steigung auf. Die Maximalsteigung beträgt dabei vier Prozent. Höchster Punkt der Gesamtstrecke ist mit 180 Metern über Normalnull die Endstation in Vohwinkel. Niedrigster Punkt ist der Übergang von der Land- auf die Wasserstrecke nahe der Sonnborner Hauptkirche, dort befindet sich die Trasse 142 Meter über Meeresspiegel. Die Schwebebahn ist bauartbedingt durchgehend zweigleisig ausgebaut und wird im Rechtsverkehr betrieben. Die beiden Richtungsgleise verlaufen im Abstand von vier Metern zueinander. Allgemein konnte ein Bogenhalbmesser von 90 Metern gebaut werden, lediglich zwei Kurven weisen einen Radius von circa 75 Metern auf. In Sonnborn (Stadtbezirk Elberfeld-West) überquert die Schwebebahn in Höhe des Sonnborner Kreuzes die Bundesautobahn 46. Unmittelbar vor der Endstation in Vohwinkel verläuft ein kurzes Stück des Solinger Oberleitungsbusses unterhalb des Schwebebahngerüsts. Ein weiterer markanter Punkt der Strecke ist die Sonnborner Eisenbahnbrücke, dort überquert die Bahnstrecke Düsseldorf–Elberfeld die Schwebebahn. Die Fahrzeit auf der Gesamtstrecke beträgt je nach Tageszeit und Wochentag 28 bis 30 Minuten. Jährlich verzeichnet der Betreiber 24,8 Millionen Fahrgäste, an Werktagen werden dabei durchschnittlich 82.000 Menschen befördert. Im Mittel legt jeder Passagier 4,7 Kilometer mit der Schwebebahn zurück. Traggerüst. Stütze Nummer 342 über der Wasserstrecke Portal Nummer 24 über der Landstrecke Aufgrund der Einzigartigkeit des Systems der Schwebebahn mussten die Erbauer den Fahrweg als eine komplett neue Struktur konstruieren. Zu berücksichtigen waren dabei statische Notwendigkeiten, die komplizierte Streckenführung über der hochwassergefährdeten Wupper, das Fahrverhalten der Züge mit der Möglichkeit des Pendelns, das Freihalten eines ausreichenden Lichtraums unterhalb der Bahnen, städtebauliche Aspekte, die komplizierte Stromversorgung und die Konstruktion und Erschließung der Stationen. Man wählte ein System aus schräggestellten Stützenpaaren, zwischen denen Brücken eingehängt wurden. Diese Normbrücken, nach ihrem Erfinder Anton von Rieppel auch „Rieppelträger“ genannt, weisen Spannweiten von 21, 24, 27, 30 oder 33 Metern auf. Die Knotenpunkte wurden als Gelenke ausgebildet, sodass man das einfache statische System eines Balkenträgers auf zwei Auflagern verwenden konnte. Ursprünglich gab es 473 solcher Stützen, auf der Landstrecke spricht man von Portalen, und 472 Brücken. Heute sind es nach Einbau zweier Überbauten noch 468 Stützen beziehungsweise Portale und 467 Brücken. Die Stützen und Portale sind durchgehend nummeriert. Die Stützenpaare wurden in zwei verschiedenen Versionen eingebaut. Die sogenannten Pendelstützen (Stützjoch) waren mit Fundament und Träger jeweils wieder über Gelenke verbunden, so dass sie der Abtragung der Vertikallasten und der Querkräfte dienen können. Die Ankerstützen (Standjoch) hingegen geben dem System erst die notwendige Stabilität. Sie können die Längskräfte aufnehmen, die sich beispielsweise durch das Bremsen oder Beschleunigen der Züge ergeben. Die Ankerstützen sind im Gerüst alle 200 bis 300 Meter eingebaut worden. Trotz des Bemühens der ausführenden Planer der MAN, Bauteile zu normieren, sind zahlreiche Bauteile des Schwebebahngerüstes Unikate; sie können nur an einer Stelle verwendet werden. Viele der Bauteile wurden durch Patent geschützt. Über die Jahre wurde mehrfach die Farbe des Anstriches des Schwebebahngerüstes gewechselt. Zunächst war es Seegrün lackiert, auch „Kölner Brückengrün“ genannt. Nach dem Zweiten Weltkrieg brachte man zunächst provisorisch rote Farbe auf, die dann über mehrere Jahre einem hellen Grau wich. Heute zeigt sich die Anlage wieder in ihrem typischen Seegrün. Die braun abgesetzten Teile kennzeichnen den Gefahrenbereich des Lichtraumprofils (bei der Schwebebahn „Fahrprofil“ genannt), den die Antriebssätze der Fahrzeuge benötigen und der im Betrieb nicht betreten werden darf. Die Farbe dient vor allem dem Schutz der Konstruktion vor Korrosion und muss ständig erneuert werden. Ende der 1990er-Jahre begann man, Teilabschnitte mit Lichtinstallationen zu versehen. So kann das Gerüst auch nachts als städtebauliches Verbindungsband wahrgenommen werden. Einschienenbahnsystem. In einer Kurve ausschwingender Zug Die Wuppertaler Schwebebahn ist eine hängende Einschienenbahn. Eine einzige durchlaufende Schiene dient allen Zügen als Fahrbahn, die Wagenkästen hängen darunter. Die auf der Schiene rollenden Antriebseinheiten der Züge bestehen aus jeweils paarweise hintereinander angeordneten Rädern, die sich in unmittelbarer Nähe zu Elektromotor und Getriebe befinden. Die Schwebebahnzüge sind Einrichtungsfahrzeuge, an den Enden der Strecke befinden sich Wendeschleifen. Die Züge der Schwebebahn pendeln während der Fahrt durch Beschleunigen, Bremsen, unterschiedliche Beladung, Seitenwind und Kurvenfahrt. Der maximale Pendelwinkel auf freier Strecke wird mit 15° beziffert, in den Stationen liegt er zwischen 4° und 7°. Stromversorgung. 1897 wurde im Tal der Wupper in Elberfeld ein neues Kraftwerk gebaut, das unter anderem zur Versorgung der Schwebebahn mit elektrischem Strom dienen sollte. Dort befanden sich die Schalter, mit denen man die einzelnen Abschnitte der Stromversorgung der Schwebebahn steuern konnte. Erst 1988 wurde die Kontrolle in den Leitstand der Schwebebahn verlegt. Am Traggerüst neben der Fahrschiene ist eine Stromschiene angeordnet, von der der Fahrstrom mittels eines Stromschienen-Stromabnehmers mit Schleifstück abgegriffen wird. Die elektrische Spannung des Gleichstromsystems beträgt 600 Volt. Der Rückstrom des Stromkreises fließt über die Fahrschiene. Mit Einführung der neuen Wagengeneration soll die Fahrspannung auf 750 Volt erhöht werden. Motoren. Die erste Generation von Wagen wurde von vier Reihenschlussmotoren mit je 25 kW bei 600 Volt Gleichspannung angetrieben, die durch einen Walzenfahrschalter mit Kurbeltrieb gesteuert wurden. Die Motoren erreichten eine Drehzahl von 900 U/min. Gebremst wurde dieser Wagentyp durch Bremsbacken, die mit bis zu 4,5 bar Luftdruck an die Räder gepresst werden konnten. Da in den Triebwagen keine Druckluft erzeugt werden konnte, mussten sie an den Endkehren mit Druckluft versorgt werden. In den neuen Schwebebahnzügen ab 2015 werden Drehstrom-Asynchronmotoren verwendet, mit denen beim Bremsvorgang Energie zurückgewonnen werden kann. Betreiber. Ursprünglicher Betreiber der Schwebebahn war die Elektrizitäts-AG vormals Schuckert & Co aus Nürnberg. Sie handelte als Bauherr mit den drei beteiligten Kommunen Barmen, Elberfeld und Vohwinkel aus, den Betrieb 75 Jahre auf eigene Rechnung führen zu dürfen. Anschließend sollten die Städte automatisch Eigentümer werden. Die hierzu notwendige Konzession wurde am 31. Oktober 1896 erteilt. 1913 änderten sich die Besitzverhältnisse, als Elberfeld und Barmen nach langen Diskussionen die Schwebebahn mit einigen Straßenbahngesellschaften vereinigten – ein Streit, der als „Wuppertaler Straßenbahnkrieg“ deutschlandweit Beachtung fand. Neuer Betreiber war die Aktiengesellschaft Continentale Eisenbahn-Bau- und Betriebs-Gesellschaft, sie sollte die Schwebebahn bis zum 1957 geplanten Übergang an die drei Städte betreiben. Doch bereits 1920 wurde die Bahn an die "Schwebebahn Vohwinkel-Elberfeld-Barmen-AG" verkauft, von der die "Continentale Eisenbahn-Bau- und Betriebs-Gesellschaft AG" 51 Prozent und die Stadt Elberfeld 49 Prozent der Aktien übernahm. Die neue Gesellschaft betrieb nun auch Straßenbahn- und Omnibuslinien. Der Zweite Weltkrieg brachte eine weitere Umstrukturierung mit sich. Alle Wuppertaler Verkehrsmittel wurden rückwirkend zum 1. Januar 1940 zur "Wuppertaler Bahnen AG" zusammengeschlossen. Die 1929 geschaffene Stadt Barmen-Elberfeld, ab 1930 Wuppertal, hatte bereits vorher die Aktienanteile der Continentalen Eisenbahn- Bau- und Betriebs-Gesellschaft AG erworben. Aus der "Wuppertaler Bahnen AG" ging schließlich am 1. März 1948 die Verkehrsabteilung der am selben Tag gegründeten "Wuppertaler Stadtwerke AG" hervor. 2013 erwarb die Stadt Wuppertal die komplette Infrastruktur der Schwebebahn für 130 Millionen Euro, lediglich die Fahrzeuge selbst blieben im Besitz von WSW mobil. Letztere müssen seither für die Nutzung Pacht an die Stadt bezahlen. Hintergrund dieser Transaktion ist eine Kostenersparnis von 2,5 Millionen Euro jährlich. Ursächlich hierfür sind günstigere Kredite sowie Abschreibungsraten der Kommune. Eine wichtige Rolle in diesem Zusammenhang spielt außerdem die Tatsache, dass die Schwebebahn ein jährliches Defizit von circa 20 Millionen Euro erzeugt. Stationen. Bahnsteigszene an der Haltestelle Pestalozzistraße, die Einstiegszonen sind blau markiert Insgesamt bedient die Schwebebahn 20 Haltestellen, davon vier auf der Landstrecke. Die Stationen, manchmal auch als „Bahnhöfe“ bezeichnet, weisen einen durchschnittlichen Abstand von 700 Metern zueinander auf. Den größten Abstand haben dabei die Stationen Völklinger Straße und Landgericht, zwischen denen ein Kilometer zurückzulegen ist, der kürzeste Haltestellenabstand befindet sich zwischen den Stationen Hauptbahnhof und Ohligsmühle, sie sind 420 Meter voneinander entfernt. Ein Großteil der Stationen wechselte im Laufe der Jahre ihren Namen, einige sogar mehrmals. Alle Haltestellen wurden in das Joch zwischen jeweils ein Pendelstützen- und ein Ankerstützenpaar eingebaut. Dabei sind zahlreiche Stationen statisch in das Gerüstsystem eingehängt; andere Stationen, wie etwa Hauptbahnhof oder Alter Markt, sind statisch unabhängig davon. Die Stationen weisen eine Breite von etwa zwölf Metern auf, sodass etwa drei Meter breite Außenbahnsteige zu beiden Seiten der Strecke liegen. Alle Züge bestehen aus Ein-Richtungs-Fahrzeugen mit einseitigen Türen. Die anfangs geplanten Mittelbahnsteige wurden nie gebaut, um die Möglichkeit zur statischen Trennung zwischen Fahrweg und Haltestelle sowie zur Elementierung der Brücken zu erhalten. Die Haltestellenlänge beträgt circa 25 Meter. Die Stationen werden durch Treppen erschlossen, erst in jüngerer Zeit wurden viele Stationen mit Aufzugsanlagen nachgerüstet. Wegen der starken Verkehrsströme weist die Station Hauptbahnhof jeweils zwei Treppenanlagen je Bahnsteig auf. Die anfangs montierten Gitter zwischen Bahnsteig und Zügen, die erst nach Stillstand der Wagen geöffnet wurden, sind 1921 wieder entfernt worden, da sie die Abfertigung stark verzögerten. Zwischen den beiden Bahnsteigen diente zunächst ein Drahtnetz als Absturzsicherung, ansonsten war der Blick nach unten auf die Wupper nicht versperrt. Später wurden die Drahtnetze durch Gitterroste ersetzt. Alle heutigen Stationen besitzen entweder einen Vorgängerbau oder stammen selbst aus der Erbauungszeit der Bahn. Diese Ursprungsstationen wurden nach einem Bausystem errichtet, das je nach städtebaulichen Erfordernissen, Fahrgastaufkommen und Repräsentationsbedürfnis abgewandelt wurde. Man wählte einen ganz besonderen Stil, der seine Erscheinung durch die dunkle Hervorhebung aller konstruktiven Teile und die helle Behandlung aller flächigen Bauteile bezog. Es wurde dabei nicht ein einheitlicher Baukörper angestrebt, sondern eine ergänzende Formensprache angewandt, die die technische Funktion jedes Bauteils besser zur Geltung brachte. Aufgrund einiger Zierelemente, wie sie bei der Station Werther Brücke heute noch anzutreffen sind, wird diese Bauweise häufig mit dem Jugendstil in Verbindung gebracht. Bis heute wurde ein Großteil der Stationen durch Neubauten ersetzt. Dies geschah erstmals 1926 bei der Station Döppersberg (Hauptbahnhof), um dem gestiegenen Fahrgastaufkommen Rechnung zu tragen. Die Station Rathausbrücke (Alter Markt) musste 1967 einem Neubau weichen. Die Stationen Bembergstraße und Alexanderbrücke waren während des Zweiten Weltkrieges beschädigt worden, sie wurden bis 1954 abgerissen, um die Schwebebahn zu beschleunigen. Sie wurden erst 1982 bzw. 1999 unter den neuen Namen Ohligsmühle (Alexanderbrücke) und Kluse (Bembergstraße) durch Neubauten ersetzt. Der Großteil der Stationen ist allerdings erst im Zuge der Modernisierung seit 1996 ersetzt worden. Dabei sind die typischen Eigenschaften der Ursprungshaltestellen verloren gegangen. Beispielhaft wurden lediglich drei Stationen in identischer Form neu gebaut: Werther Brücke, Völklinger Straße und Landgericht. Die Station Hauptbahnhof wird nach der Demontage der Station Werther Brücke im Herbst 2012 die einzige sein, die schon vor dem Zweiten Weltkrieg entstanden ist. Seit Anfang 2004 werden die Schwebebahnstationen mit mehreren Überwachungskameras videoüberwacht. Depots, Wendeanlagen und Hauptwerkstätten. Ein Zug beim Wenden in Vohwinkel Wendeschleife an der Station Zoo im Jahre 1900 mit einem Versuchsfahrzeug der Baureihe 1900 Die Triebwagen sind in den Depots an den beiden Endstationen beheimatet. Während das Depot Oberbarmen nur Abstellmöglichkeiten bietet, können im Depot Vohwinkel durch die Hauptwerkstätte sämtliche anfallenden Reparaturen ausgeführt werden. Die Anlagen sind dreigeschossig ausgeführt (oben: leichte Reparaturen; in der Mitte: Abstellflächen; unten: Generalüberholungen und Möglichkeit zur Aufbringung der Wagen auf die Schienen). Seit dem Abbau der Wendeanlage am Zoo existieren nur noch vier Wendeschleifen. Im Osten ist dies die Schleife im Depot Oberbarmen, die hier wendenden Züge mussten bis 2012 die komplette Depotfläche durchlaufen, um dann zur eigentlichen Haltestelle zurückkehren zu können. Heute besitzt sie wie die Endstation Vohwinkel dagegen eine Wendeanlage im Stationsbereich. Die Schleife in Vohwinkel ist überdies unabhängig von den zwei weiteren Schleifen im dortigen Depot, die unter anderem zum Abstellen der Wagen nach Betriebsschluss oder bei Änderungen der Taktfrequenz durchlaufen werden. Früher existierte am Ende der Wasserstrecke, das heißt kurz nach der Haltestelle Zoo/Stadion, noch eine Zwischenwendemöglichkeit. Ursprünglich handelte es sich hierbei um eine Wendeschleife, bis diese 1945 als Ersatzteilspender abgebaut wurde. 1974 erfolgte der Einbau einer neuen Wendeanlage in Form einer Drehscheibe. Die Anlage bestand aus einem drehbaren Streckensegment, auf dem ein Triebwagen-Gespann samt Streckengleis in die Gegenrichtung gedreht werden konnte. Zusätzlich war noch ein Abstellgleis angelegt worden, das ebenfalls durch Verschwenken der Drehscheibe erreichbar war. Diese Anlage wurde bis Anfang der 1990er Jahre planmäßig genutzt, hatte jedoch den Nachteil, dass die Strecke während des Drehens in beiden Richtungen unpassierbar war. Darüber hinaus zeigte sich ein ständiger Auslauf von Hydrauliköl, das zum Antrieb der Drehscheibe notwendig war. Da das ausgelaufene Öl in die Wupper gelangte, war dieser Zustand in den 1990er Jahren nicht mehr tragbar, so dass die Wendeanlage stillgelegt wurde. Fortan diente die Anlage bis zu ihrem Abbau als normaler Teil des Fahrgerüstes. Außerdem gab es östlich der Station Kluse eine Schleife, die jedoch nach Eröffnung des Abschnitts Kluse – Oberbarmen 1903 nicht mehr genutzt wurde und spätestens 1954 abmontiert wurde. Fahrzeuge. Der Kaiserwagen, eine reguläre Schwebebahn und ein Teil der ersten Schwebebahn der Generation 15 treffen sich in Vohwinkel Baureihe 1898. Die beiden Probewagen der Baureihe 1898 befuhren das Gerüst als erste. Sie wurden über den Eisenbahnanschluss des Elberfelder Gaswerks angeliefert und am 13./14. September 1898 aufgegleist, da es nur eine 400 Meter lange Probestrecke zwischen dem Westende und dem Sonnborner Viadukt gab; Depots existierten noch nicht. Die beiden Triebwagen trugen die Betriebsnummern I und II. Am 5. Dezember 1898 wurde die erste Versuchsfahrt mit 16 km/h durchgeführt. Bis zum 4. März 1899 wurde die Probestrecke auf eine Länge von 660 Metern verlängert, so dass die Geschwindigkeit der Probefahrten auf 40 km/h erhöht werden konnte. Die Wagen waren grün lackiert und hatten eine goldene Zierleiste. Sie hatten auf jeder Seite zwei Türen, weil zeitweise auch die Zugabfertigung über Mittelbahnsteige geplant war. Sie wurden nicht im Liniendienst eingesetzt, sondern ausschließlich zu Probefahrten und Fahrgestell-Versuchsausführungen. 1920 wurden sie verschrottet. Baureihe 1900/1912. Wagen Nummer 3 an der Station "Breite Straße" (heute "Robert-Daum-Platz") Diese Fahrzeuge bestanden aus Haupt- und Nebenwagen. Bei der Betriebseröffnung am 1. März 1901 existierten insgesamt 26 Fahrzeuge, davon 21 Haupt- und fünf Nebenwagen. Zunächst waren sowohl Ein- als auch Zweiwagenfahrten geplant, bis man sich 1912 entschied, auch in verkehrsschwachen Zeiten ausschließlich Zweiwagenzüge fahren zu lassen. Es wurden also fünf Hauptwagen zu Nebenwagen umgebaut (Baureihe 1912). Durch den Verlust von zwei Nebenwagen in den Jahren 1917 (Totalschaden nach Auffahrunfall und Absturz bei Wupperfeld; verschrottet) und 1942 (Totalschaden durch Feuer nach Bombenabwurf auf die Wagenhalle Oberbarmen; verschrottet) konnte man zwölf Züge bilden. Das Gewicht betrug jeweils 13 Tonnen. Eine Federung war nicht vorhanden, jeweils ein Rad pro Laufgestell wurde angetrieben. Die Wagenkästen besaßen je zwei Türen und fassten jeweils 65 Personen. Jeder Zug konnte also 130 Personen transportieren. Eine Verlängerung der Züge war aufgrund der Bahnhofslänge nicht möglich. Diese Züge wurden zwischen 1973 und 1975 ausgemustert und verkauft. Zwei Exemplare der Baureihe 1900 blieben erhalten. Sie werden als Kaiserwagen für Ausflugsfahrten verwendet und können für andere Zwecke gemietet werden. Das Gespann bekam seinen Namen, weil Kaiser Wilhelm II. am 24. Oktober 1900 mit Wagen dieses Typs von Döppersberg bis Vohwinkel gefahren war. Baureihe 1903. Sechswagenzug im Jahr 1903 in Erprobung Die Anschaffung dieser sogenannten „Barmer Wagen“ wurde 1902 beschlossen, weil sie für die Erweiterung der Strecke zwischen Kluse und Rittershausen notwendig wurden. Alle 24 Wagen verfügten über Hauptwagenausrüstung und neuartige Fahrgestelle. Die Türen lagen zwischen den beiden Wagenklassen; diese asymmetrische Türanordnung machte Dreiwagenzüge möglich, auch wenn diese deutlich über das Ende der Bahnsteige hinausreichten. Zwar konnte man jetzt in den Hauptverkehrszeiten bis zu 225 Personen in einem einzigen Zugverband transportieren, allerdings mehrten sich Gerüstschäden, sodass nach dem Umbau der Wagen dieser Baureihe zwischen 1929 und 1934 keine Bildung von Dreiwagenzügen mehr möglich war. Die Türen wurden versetzt. Trotzdem setzte sich die Stadtverwaltung ab 1936 bei der Schwebebahngesellschaft erfolgreich für den erneuten Einsatz von Dreiwagenzügen ein. Ab 1939 fuhr man im Frühverkehr und in der Mittagszeit erneut mit „Dreiern“, allerdings musste die hintere Tür des dritten Wagens gesperrt werden, da sie außerhalb der Haltestellenbereiche lag. Zur Geräuschdämmung erfolgte die Kraftübertragung ab 1933 bei zunächst zwei Wagen mit einem Keilriemen. Diese Geräuschdämmung arbeitete zwar sehr effektiv, war aber auch sehr störanfällig. Im Jahr 1954 entdeckte man sogar bei acht Wagen Rissbildungen an den Fahrgestellen. 16 Fahrzeuge blieben bis 1966 im Einsatz, bevor sie ausgemustert und verschrottet wurden. Baureihe 1930. Aufgrund der Weltwirtschaftskrise konnten die beiden Fahrzeuge der Baureihe 1930 erst im Spätherbst 1931 ausgeliefert werden. Es existierten insgesamt zwei Fahrzeuge, die stets gemeinsam einen Zweiwagenzug gebildet haben. Auf die zunächst geplante dritte Tür verzichtete man allerdings, dafür verfügten die Fahrzeuge über Schützensteuerung, Stirnradantrieb und (erstmals bei der Wuppertaler Schwebebahn) Rollenlager. Das Dach verfügte über klappbare Oberlichter, die die Belüftung stark verbesserten. Der Weiterbau dieser Reihe wurde nicht verfolgt, sodass die einzigen beiden Fahrzeuge dieser Baureihe am 15. August 1973 verkauft wurden. Während Wagen 57 in den 1980er-Jahren verschrottet wurde, existiert Wagen 58 noch heute als Gartenlaube. Umbauwagen 1941. Bereits 1941 experimentierte man bei der Wuppertaler Schwebebahn mit geräuschärmeren Wagen. Die Laufwerke waren vollständig geschweißt, und die Wagen wurden über eine Achse angetrieben. Nachdem es zwei Vorversuche mit den Fahrzeugen 52 und 54 der Baureihe 1912 gegeben hatte, wurden die neuen Fahrgestelle 1942 endgültig bei einem Haupt- und einem Nebenwagen eingebaut; es handelte sich um das Fahrzeug 14 der Baureihe 1900 und das Fahrzeug 53 der Baureihe 1912. Die beiden Fahrzeuge wurden am 20. beziehungsweise 25. Juni 1974 verkauft, Wagen 53 wurde 1992 verschrottet, der Verbleib des Wagens 14 ist unbekannt. Baureihe 1950. Nach den positiven Erfahrungen mit den Umbauwagen 1941 wurde bereits 1943 die Anschaffung von 60 neuen Fahrzeugen in Auftrag gegeben. Allerdings verzögerte sich die Auslieferung durch den Zweiten Weltkrieg bis 1950. Zudem konnten nur 20 Fahrzeuge angeschafft werden, eine Ausmusterung der bisherigen Fahrzeuge war also (noch) nicht möglich. Die neuen Fahrzeuge verfügten über drei automatische Schiebetüren und waren gefedert. Bei dieser Baureihe gab es keine Haupt- und Nebenwagen, sondern nur Einzelwagen. Aus den 20 Einzelwagen konnten daher zehn Züge gebildet werden. Die Zugführungswagen erhielten ungerade Nummern, die Zweitwagen gerade Nummern. Aufgrund des um bis zu 2,5 Tonnen gesenkten Wagenleergewichtes konnte ein Fahrzeug nun 80 Personen aufnehmen. Außerdem erhielt der Fahrer erstmals einen Sitzplatz. Die Wagen besaßen im Gegensatz zu ihren Vorgängern eine abgerundete Stirnseite. Allerdings wurden wirtschaftsbedingt zum Bau dieser Fahrzeuge keine hochwertigen Materialien verwendet, sodass sie in den 1970er Jahren vollständig ausgemustert wurden. Da der Fahrer vom zweiten Wagen ausgeschlossen war, war noch immer ein Zugbegleiter notwendig. Umbauwagen 1962 (U62). Seit 1956 verkehrten auf der Wuppertaler Straßenbahn Gelenktriebwagen, und da der teilweise über 50 Jahre alte Wagenpark der Schwebebahn stark veraltet und infolgedessen störungsanfällig wurde, plante man auch für die Schwebebahn die Anschaffung von Gelenkzügen. 1962 wurden die Wagen 65 und 66 der Baureihe 1950 in der Schwebebahnwerkstatt Wuppertal-Vohwinkel zum ersten Gelenktriebwagen der Wuppertaler Schwebebahn umgebaut. Aufgrund der geringen Krümmungshalbmesser der Endkehren in Vohwinkel und Oberbarmen mussten die Fahrzeuge mit zwei Gelenken und einem Mittelteil ausgestattet werden. Das Heck des Vorderteils beziehungsweise die Stirn des Hinterteils des neuen Fahrzeuges wurden ausgebaut und durch zwei Gelenke samt Mittelteil ersetzt. Im Dezember 1962 fuhr erstmals ein Gelenktriebwagen auf der Wuppertaler Schwebebahn; um den Effekt herauszustellen, lackierte man ihn blau. Im Volksmund wurde er daher "blauer Enzian" genannt. Umbauwagen 1965 (U65). Bereits drei Jahre später hing mit U65 der zweite Gelenkwagen am Gerüst der Schwebebahn; diesmal allerdings wieder in der klassischen roten Lackierung. U65 hatte einen neuen Fahrschalter, einen Feinstufer mit 20 Fahrstufen und war zudem mit komplett neuen Fahrgestellen versehen. Weiterhin war er mit einer Flüssigkeitsbremse mit Fußpedalbedienung ausgerüstet. Sowohl U62 als auch U65 hatten je sechs Türen, Reihenbestuhlung und klassenlose Aufteilung. Beide Fahrzeuge wurden am 23. September 1974 an das "Motor Technica Museum Bad Oeynhausen" verkauft, ihr heutiger Verbleib ist unbekannt. Umbauwagen 1970. Der letzte Umbau vor dem Eintreffen der modernen Gelenktriebwagen wurde 1970 vorgenommen. Die nicht mehr benötigten Fahrgestelle des Gelenkzuges U65 wurden an Wagenkästen der Baureihen 1900 und 1912 angebaut. Weitere Experimente konnten aufgrund der Bestellung der neuen Gelenktriebwagen unterbleiben. Er wird daher „Das letzte Experiment“ genannt. Bauart 1972/GTW 72. Von den ursprünglich 28 gelieferten dreiteiligen Triebwagen aus den Jahren 1972 bis 1975 sind noch 25 Wagen einsatzbereit. Wagen 4 wurde nach einem Unfall 1999 verschrottet, Wagen 19 und 21 wurden im Juni und Juli 2012 vorzeitig stillgelegt, da ihr schlechter Allgemeinzustand eine Hauptuntersuchung nicht mehr rechtfertigte. Der beim Unfall des Jahres 2008 beschädigte Wagen 24 wurde instand gesetzt und ist seit Dezember 2009 wieder in Betrieb. Im August 2015 gaben die Wuppertaler Stadtwerke bekannt, die Fahrzeuge des Typs GTW 72 nach Eintreffen der neuen Fahrzeuge nicht zu verschrotten, sondern 21 Fahrzeuge zum Verkauf anzubieten und drei Fahrzeuge kostenlos abzugeben, sofern diese auf dem Gebiet der Stadt Wuppertal verbleiben. Hierzu soll ein Wettbewerb ausgeschrieben werden. Die Wuppertaler Stadtwerke wollen ein Fahrzeug behalten. Neue Züge ab 2015. Im Mai 2010 vergab die WSW Mobil einen Auftrag zur Erstellung eines Designkozepts für eine neue Fahrzeugbaureihe an das Berliner Designerbüro büro+staubach. Zeitgleich mit der Veröffentlichung des Designs im September 2010 wurde das Lastenheft veröffentlicht, anhand dessen Fahrzeughersteller sich um die Durchführung des 122 Millionen Euro teuren Auftrags bewerben konnten. Am 10. November 2011 wurde ein Vertrag mit Vossloh Kiepe über 31 neue Fahrzeuge unterzeichnet. Der erste Wagenkasten wurde im Dezember 2013 fertiggestellt, am 14. November 2015 erfolgte die Präsentation des ersten Zuges nahe des Betriebshofs Vohwinkel vor 5.000 Zuschauern. Technisch stellt die Generation 15 eine Neuentwicklung dar, ein Fortschritt ist besonders der Einsatz von Drehstrom-Asynchronmotoren mit der Möglichkeit zur Energierückgewinnung beim Bremsvorgang. Die elektronische Ausstattung der Schwebebahn wurde grundlegend verändert, außerdem wird das Zugsicherungssystem ETCS installiert. Das Außendesign der neuen Schwebebahnen ist an die GTW 72 angelehnt, das Innendesign wurde dagegen eigens überarbeitet. Die Betriebsspannung wird von 600 auf 750 Volt angehoben; die Höchstgeschwindigkeit der Fahrzeuge beträgt 65 km/h, wobei die Strecke der Wuppertaler Schwebebahn für 60 km/h zugelassen ist. Die minimale Taktzeit soll von drei auf zwei Minuten verkürzt werden. Die Züge der Generation 15 sind hellblau lackiert und sollen anders als bisher keine Werbung über den gesamten Wagenkasten mehr tragen. Die Sitzaufteilung des Fahrgastraums ist im Vergleich zum GTW 72 gleich geblieben; auf der linken Seite des Fahrzeugs sind zwei Sitze nebeneinander in Fahrtrichtung angeordnet, auf der rechten Seite befinden sich die Einstiegstüren und ein Durchgang. Für die Farbgebung wurden drei unterschiedliche Varianten entwickelt, die jeweils auf ein Drittel der Fahrzeuge angewandt werden. Die Seitenwände sind stets weiß und die Haltestangen grau, doch der rutschfeste Boden und die Sitzpolster erhalten je nach Variante grüne, rote oder gelbe Farbe. Betrieb. Der Betrieb beginnt an Werktagen kurz vor 5:30 Uhr, an Sonn- und Feiertagen kurz vor 7:00 Uhr. Abends endet der Betrieb an allen Wochentagen gegen 23:30 Uhr. Es werden verschiedene Takte gefahren, die von einem Drei- bis Vier-Minuten-Takt in der Hauptverkehrszeit bis hin zu einem 15-Minuten-Takt in den Nebenverkehrszeiten reichen. Maximal sind dabei 22 der 27 insgesamt vorhandenen Züge gleichzeitig im Einsatz, beim 15-Minuten-Takt werden hingegen nur sechs Umläufe benötigt. Als Besonderheit wird die jeweilige Kursnummer mittels zweier Rollbandanzeigen vorne unterhalb der Frontscheibe und hinten durch die Heckscheibe angezeigt. Sonderzüge sind entsprechend mit einer „0“ beschildert. Ein Nachtverkehr wird auch am Wochenende nicht angeboten, lediglich in der Neujahrsnacht besteht ein durchgehender Betrieb. Die ehemals vorhandene Trennung zwischen erster und zweiter Wagenklasse (bis zur Klassenreform in den 1950er-Jahren entsprechend zweite und dritte Wagenklasse) wurde ebenso abgeschafft wie der Fahrkartenverkauf durch Schaffner oder am Schalter. Fahrkarten können heute nur noch an den Automaten oder in den Kundencentern der Wuppertaler Stadtwerke gekauft werden. Fahrkartenentwerter stehen bei der Schwebebahn nur auf den Bahnsteigen zur Verfügung, eine Entwertung in den Wagen ist nicht möglich. Sicherheit. Für den Fall, dass es bei einer Schwebebahn zu einem technischen Defekt kommt, besteht die Möglichkeit, dass sie vom nachfolgenden Zug abgeschoben wird. Man spricht dann von einem Druckzug. Der nachfolgende Zug fährt langsam an den defekten Zug heran, die Wagen kuppeln dann automatisch und können erst im Depot wieder getrennt werden. Weiter gibt es die Möglichkeit, Passagiere über eine eigens hierfür entwickelte Bergungsbrücke zu evakuieren. Ein in Gegenrichtung fahrender Zug hält genau auf der Höhe des zu evakuierenden Zuges. Die Fahrer entfernen die Scheibe im Mittelteil der Züge, und die Passagiere können gefahrlos in den gegenüberliegenden Zug wechseln. Diese Bergungsbrücke kam bisher erst einmal im Jahr 1989 zum Einsatz. Zugabfertigung. Kamera an der Haltestelle „Robert-Daum-Platz“ Als die heutigen Gelenktriebwagen in den 1970er Jahren angeschafft wurden, fuhr noch in jedem Fahrzeug ein Zugbegleiter mit, um das Fahrzeug an den Stationen abzufertigen. Doch kurz darauf wurde auf ihn verzichtet. Auf den Bahnsteigen befindet sich je Richtung eine Kamera, die den Zug auf einen Monitor in der Fahrerkabine überträgt. Dadurch kann der Fahrer selbst sehen, ob noch Passagiere ein- oder aussteigen. Dieses System wird auch als Einmann-Zugabfertigung bezeichnet. Entgegen den Gepflogenheiten auf anderen deutschen Schnellbahnen wird das unmittelbar bevorstehende Schließen der Türen nicht durch ein akustisches Signal angezeigt. Zugsicherung. Alle Gelenktriebwagen verfügen über eine Sicherheitsfahrschaltung. Der Fahrer muss ständig ein Pedal gedrückt halten, um dem Fahrschalter seine Dienstfähigkeit anzuzeigen. Sollte die Sicherheitsfahrschaltung nicht betätigt werden, wird Dienstunfähigkeit des Fahrers angenommen, und das Fahrzeug bremst automatisch. Dadurch kann auf einen Beimann, der als zweite Person im Fahrerraum bei Dienstunfähigkeit des Fahrers eingreifen würde, verzichtet werden. Nur der "Kaiserwagen" muss mit einem Beimann besetzt sein. Um Auffahrunfälle zu verhindern, sind die Züge über ein Signalsystem gesichert. Bereits beim Bau 1898 war bekannt, dass ein Fahren auf Sicht aufgrund der beengten Verhältnisse nicht in allen Fällen sicher ist. Man bediente sich deshalb des sogenannten Streckenblockes, wie er bei Eisenbahnen zu finden ist. Hierbei wurde die Strecke in sogenannte Blockabschnitte unterteilt, an deren Anfängen sich Signale befanden, die automatisch die Haltstellung einnahmen, sobald an ihnen ein Zug vorbeigefahren war. Ein Zug durfte nur in einen Blockabschnitt einfahren, wenn ihn der vorausfahrende Zug verlassen hat. Das bis 2015 verwendete Zugsicherungssystem wurde Anfang der 1960er-Jahre installiert und arbeitete mit Relais. Auf diese Weise waren Taktzeiten bis drei Minuten möglichen. Funktionsprinzip von ETCS Level 3, auf dem das Zugsicherungssystem der Wuppertaler Schwebebahn basiert. Statt GSM-R wird TETRA verwendet Ab 2016 erfolgt der Einsatz neuer Schwebebahnzüge der Generation 15. Um die Zugfolgezeiten auf zwei Minuten zu verkürzen und um bei der neuen Fahrzeuggeneration nicht auf die alte, fehleranfällige Technik zurückgreifen zu müssen, wurde seitens der WSW mobil eine Ausschreibung zur Modernisierung des Zugsicherungssystems gestartet. Verschiedene Bewerber reichten Vorschläge ein, die auf der punktförmigen Zugbeeinflussung (PZB) oder auf dem European Train Control System (ETCS) basierten. Für die Ausstattung von Fahrzeugen und Strecke wurde schließlich Alstom Transport Deutschland ausgewählt. Alstom bewarb sich mit einem System auf ETCS Level 3. Bei diesem System wird die streckenseitige Signalisierungsausstattung weitestgehend zurückgefahren, es gibt keine ortsfesten Signale oder Gleisfreimeldeanlagen mehr. Die Züge erfassen ihre Position über an der Strecke angebrachte Eurobalisen in Kombination mit Odometrie-Sensorik und GPS-Empfängern und melden diese Position über Funk an die Betriebszentrale. Als Funksystem wird nicht das bei ETCS im Vollbahnbereich übliche GSM-R, sondern Terrestrial Trunked Radio (TETRA) verwendet, da dieses System bereits vorhanden war und für die WSW-interne Sprachkommunikation benutzt wurde. Die bisherigen Blockabschnitte entfallen, stattdessen erhält jede Schwebebahn eine Fahrerlaubnis bis zur letzten gesicherten Position des vorausfahrenden Fahrzeugs abzüglich eines definierten Sicherheitsabstands. Nach diesem, auch unter dem Namen "Moving Blocks" bekannten Prinzip können die Zugfolgezeiten auf bis zu zwei Minuten verkürzt werden. Außerdem wird eine gleichmäßigere Zugfolge sichergestellt, da bei stockendem Betrieb die Weiterfahrt mit verminderter Geschwindigkeit möglich wird, wo früher das Warten vor einem Halt zeigenden Signal notwendig war. Bei Betriebsaufnahme 2016 wird das ETCS-System der Wuppertaler Schwebebahn das weltweit erste im Regelbetrieb eingesetzte Zugbeeinflussungssystem auf ETCS Level 3 sein. ETCS-Fahrzeugausrüstung erhalten die 31 neuen Fahrzeuge von Vossloh Kiepe sowie der historische Kaiserwagen, der somit auch weiterhin für Sonderfahrten eingesetzt werden kann. Vorläufig erhält keines der Fahrzeuge des Typs GTW 72 die ETCS-Fahrzeugausrüstung, ein Fahrzeug wird jedoch im Besitz der Stadtwerke verbleiben und kann bei Bedarf mit ETCS nachgerüstet werden. Im Zuge der Installation des ETCS-Systems wird die Betriebszentrale für die Wuppertaler Schwebebahn, die sich bisher an der Schwebebahnstation am Wuppertaler Hauptbahnhof befand, mit der bestehenden Leitstelle für den Busverkehr in der Wartburgstraße nahe der Haltestelle "Loher Brücke" verlegt. Leitstelle und Schwebebahnstrecke sind mit einem Glasfaserkabel verbunden. Verwendet wird das Dispositionssystem ITCS, welches von INIT Innovation in Traffic Systems aus Karlsruhe entwickelt worden ist und bereits für den Busverkehr der WSW mobil eingesetzt wird. Über ITCS können Mitarbeiter in der Leitstelle die Positionen der einzelnen Schwebebahnen einsehen und Fahrstraßen einstellen. Die Verlegung der Leitstelle ermöglicht die gemeinsame Koordination von Schwebebahn- und Busverkehr und soll das Erreichen von Anschlüssen verbessern. Für die Verlegung und Modernisierung der Betriebszentrale werden bis 2017 zwei Millionen Euro investiert. Unfälle. Schwebebahnunfall vom 5. August 2008, kurz vor der Haltestelle Hammerstein Stützpfeilersicherung an der Haltestelle Bruch Gedenktafel für die Opfer des Schwebebahnunglücks in der Station Robert-Daum-Platz Die Unfallstelle am 12. April 1999 Schwebebahnunfall vom 17. Oktober 2013 zwischen den Haltestellen Kluse und Landgericht Vorläufer. Für die Wuppertaler Schwebebahn gab es einen Vorläufer: Im Jahre 1824 stellte der Engländer Henry Robinson Palmer ein Bahnsystem vor, das erheblich von den bis dahin bekannten Konstruktionen abwich. Es war im Grunde eine kleine Schwebebahn, bei der hängende Transportbehälter von Pferden gezogen wurden. Der Industrielle und Politiker Friedrich Harkort begeisterte sich für diese Bahn. Er ließ durch seine Fabrik 1826 probehalber in Elberfeld auf dem Gelände des heutigen Finanzamtes an der Kasinostraße eine solche Bahn aufstellen. Gemeinsam mit dem Bergrat Heintzmann versuchte er, die Öffentlichkeit dafür zu interessieren. Am 9. September 1826 wurde im Rathaus zu Elberfeld von zehn Bürgern unter Vorsitz des Landrates Graf von Seysel de Aix über eine solche Palmersche Bahn von der Ruhr zur Wupper beraten. Harkort, Bergrat Heintzmann und der Markscheider Bohnert inspizierten danach die vorgesehene Strecke. Sie sollte von Elberfeld über Uellendahl-Horath-Herzkamp nach Hinsbeck oder von Elberfeld über Horath bis Langenberg und weiter durch das Deilbachtal führen. Die Pläne wurden jedoch nicht verwirklicht, da verschiedene Grubenbesitzer Einspruch einlegten. Sie fühlten sich benachteiligt, da sie nicht einbezogen wurden. Das Oberbergamt verfügte daraufhin die vorläufige Einstellung der Planungen. Eugen Langens Prinzipfahrzeug in Köln-Deutz im Jahr 1895 Eugen Langens Versuchsfahrzeug in Köln-Deutz im Jahr 1897 Die schließlich ausgeführte Schwebebahn wurde in den 1880er Jahren vom Ingenieur Eugen Langen in Köln konzipiert und getestet. Er hatte auf seinem Fabrikgelände schon zuvor mit hängenden Einschienenbahnsystemen experimentiert. Zunächst nur als Transportsystem für seine Fabrikation gedacht, erkannte er die Möglichkeiten des Einsatzes des Systems für Lasten- und Personentransporte in unwegsamen Gegenden, da der Aufbau eines Fahrgerüstes flexibler an ein vorgefundenes Gelände angepasst werden konnte als ein kostspieliges Gleisbett mit Unterbau. Schließlich gelang es Eugen Langen, die Städte Barmen, Elberfeld und die Landgemeinde Vohwinkel für sein System, für das er den Namen „Schwebebahn“ erfand, zu gewinnen. Hier hatte man zur Lösung der Verkehrsprobleme im engen, dicht bebauten Tal zunächst an ein Hochbahnsystem ähnlich dem Hamburger oder Berliner Vorbild gedacht, das auf im Fluss gegründeten Stützen stehen sollte. Kritiker befürchteten durch die massive Konstruktion im Flussbett starke städtebauliche Beeinträchtigungen. Außerdem wären durch die Windungen der Wupper, deren Verlauf die Trasse hätte verfolgen sollen, sehr enge Kurvenradien zu erwarten gewesen, die durch traditionelle Hochbahnwagen nur mit geringer Geschwindigkeit hätten durchfahren werden können. Die Leichtigkeit seiner Konstruktion und die hohen Kurvengeschwindigkeiten der hängenden und vor allem auspendelnden Einschienenbahn brachten Eugen Langen den Zuschlag. Die schließlich erbaute Konstruktion stellte allerdings eine Abwandlung der ursprünglichen Konzeption dar. Zunächst plante man ein System, bei dem die Bahn nicht auf einer einzigen Schiene hing, sondern ein System, bei dem die paarweise nebeneinander angeordneten Räder eines jeden Zuges in einer unten offenen rechteckprofilierten Schiene geführt wurden, sodass es sich hier streng genommen um ein Zweischienensystem handelte. Die modernen Varianten der Wuppertaler Schwebebahn, wie die H-Bahnen, beruhen heute auf diesem System. Ausführung. Die von Eugen Langen patentierte Bahn wurde von der Waggonfabrik van der Zypen & Charlier in Köln-Deutz den Städten im Wuppertal vorgeschlagen. Die Firma erbaute in Köln eine Probeanlage, durch welche sich die Stadtväter bei einer Besichtigung für das System begeistern ließen. Am 22. September 1894 entschied eine Gutachterkommission schließlich zugunsten der Schwebebahn. Die "Elektrizitäts-AG vormals Schuckert & Co." (E.-AG) in Nürnberg bot sich für den Bau an, der am 28. Dezember desselben Jahres in den Stadtparlamenten beschlossen wurde. Am 31. Dezember 1894 wurde zwischen den beteiligten Städten Barmen und Elberfeld und der E.-AG der Vertrag über den Bau der Bahn unterzeichnet. Zunächst plante man eine Strecke der Wupper folgend von Oberbarmen bis Sonnborn, jedoch schloss die Gemeinde Vohwinkel am 15. Oktober 1895 mit dem Hersteller einen zusätzlichen Vertrag zur Verlängerung der Trasse bis in ihr Gemeindegebiet ab. Zur Durchführung der Arbeiten und zum späteren Betrieb gründeten Eugen Langen, die E.-AG und "van der Zypen & Charlier" ein Schwebebahnkonsortium. Um den Streckenbau möglichst schnell abschließen zu können, beteiligten sich gleich vier verschiedene Unternehmen am Streckenbau. Neben dem MAN Werk Gustavsburg waren dies die Mechanischen Werkstätten Harkort & Co. aus Duisburg, die Union, AG für Bergbau, Eisen- und Stahl-Industrie aus Dortmund und die Gutehoffnungshütte aus Oberhausen. Die generelle Festlegung der 13 Kilometer langen Schwebebahn Barmen-Elberfeld-Vohwinkel und die schwierige Planung ihrer Überbrückungsträger, Bahnhöfe und Umkehrschleifen lag in den Händen Max Carstanjens, eines Direktors und Chefkonstrukteurs des "MAN Werks Gustavsburg" 1898 war Baubeginn. Nach einer Bauzeit von etwa drei Jahren unter der Leitung des Regierungsbaumeisters Wilhelm Feldmann konnte sie bis 1901 feierlich in Betrieb genommen werden. Für Tragegerüst und Haltestellen wurden rund 19.200 Tonnen Stahl verarbeitet. Die Baukosten betrugen 16 Millionen Goldmark. Ein enormer Einsatz an Planern und Vermessern war nötig, um jedes Detail, jeden Anschlusspunkt der Konstruktion durchzuplanen. Stark umstritten war die Führung über den Sonnborner Abschnitt, da die Bahn hier direkt im Straßenraum zwischen den Häusern durchgeführt werden sollte. Kritiker forderten eine südliche Umgehung, wurden aber überstimmt. Bau. Das Fahrgerüst musste wegen der noch unregulierten Wupper in den Niedrigwasserzeiten montiert werden. Zunächst wurden Holzpfähle in das Flussbett gerammt und ein Podestgerüst mit zwei Fahrschienen aufgebaut. Darauf bewegte man dem Baufortschritt entsprechend ein Lehrgerüst, von dem aus das endgültige Stahlgerüst montiert wurde. Auf der Landstrecke wurden die Schienen des rollenden Lehrgerüstes direkt auf der Straße verlegt. Im Laufe des Baufortschrittes verfeinerte man die Montagemethode. Auch gab es methodische Unterschiede zwischen den ausführenden Firmen, die verschiedene Streckenabschnitte als Baulose erhalten hatten. Der Abschnitt zwischen den Haltestellen Zoologischer Garten und Westende wurde zuerst fertiggestellt, hatte aber noch keine Verbindung zu einem der Depots. Die ersten Probewagen mussten mit Hilfe einer Holzkonstruktion zuerst vom Ufer bis zur Flussmitte geschoben werden. Anschließend hob man sie mittels Flaschenzügen auf die Schiene. Erst nachdem die Probefahrten problemlos verlaufen waren, wurde der Bau der Strecke fortgesetzt. Die Trasse wurde in drei Teilabschnitten gemäß dem Baufortschritt eröffnet. Damit war der Betrieb der heutigen Gesamtstrecke erst im Laufe des Jahres 1903 möglich. Noch während der Bauphase unternahm Kaiser Wilhelm II. bei seinem Besuch in den Wupperstädten am 24. Oktober 1900 eine Probefahrt mit der Schwebebahn. Betrieb bis 1945. Nachdem anfänglich zahlreiche Bürger die neue Bahn testen wollten, gab es kurze Zeit Engpässe bei den Beförderungskapazitäten, aber danach normalisierte sich der Betrieb relativ rasch. Am Morgen des ersten Betriebstages, dem 1. März 1901, fuhren die Fahrzeuge auf dem freigegebenen Teilstück Kluse – Zoologischer Garten zunächst im Zehn-Minuten-Takt. Aufgrund des hohen Fahrgastaufkommens musste dieser Takt bereits am Nachmittag auf fünf Minuten verkürzt werden. Wie andere Betriebe auch hatte man sich mit Streiks und kleineren Betriebsstörungen auseinanderzusetzen. Im Ersten Weltkrieg sanken die Fahrgastzahlen deutlich, das zum Kriegseinsatz einberufene männliche Personal wurde durch weibliches Personal als Schaffnerinnen ergänzt. Die Nachkriegszeit brachte die Inflation mit sich, was auch für die Schwebebahn erhebliche wirtschaftliche Probleme bedeutete. Außerdem lagen die Vohwinkler Stationen im französisch besetzten Gebiet, was aufgrund der Ein- und Ausreisekontrollen den Betrieb stark beeinträchtigte. Allmählich stiegen in den 1920er Jahren die Fahrgastzahlen wieder an, sodass die verkehrsreichste Station Döppersberg 1926 komplett neu und leistungsfähiger errichtet werden musste. Hier stiegen im Jahre 1925 40 Prozent aller Fahrgäste ein oder aus. Bei den Luftangriffen auf Wuppertal am 30. Mai 1943 auf Barmen und am 25. Juni 1943 auf Elberfeld wurde auch die Schwebebahntrasse schwer getroffen. Bei den Angriffen brannten zwei Schwebebahnhöfe aus, und 19 Brücken und elf Stützen wurden so stark beschädigt, dass der Fahrbetrieb zeitweise ganz eingestellt werden musste. Zur Aufrechterhaltung des Verkehrs wurde ein Pendelverkehr eingerichtet. Erst am 19. Dezember 1944 war die Strecke wieder durchgängig befahrbar. Am 1. Januar 1945 erlitt die Endstation Vohwinkel an zwei Brücken und Stützen, ihrer Werkstatt und den Weichenanlagen starke Beschädigungen. Im März 1945 wurden die Endstation Oberbarmen und neun weitere Brücken schwer beschädigt. In Wupperfeld wurden drei Brücken samt Stützen völlig zerstört. Wiederaufbau und Nachkriegszeit. Durch die Kriegseinwirkungen wurden Instandsetzungsarbeiten in größtem Umfang nötig. Nach dem Einmarsch der Alliierten ruhte ab 16. April 1945 der gesamte Verkehr. Die Betriebsmittel und Einrichtungen wurden von dem verbleibenden Personal während dieser Zeit betreut. Die Wiederaufnahme des Verkehrs in früherem Umfang, der von der Betriebsleitung angestrebt wurde, erwies sich jedoch als schwierig. Der Schutzanstrich des Schwebebahngerüstes war streckenweise über zehn Jahre alt, sämtliche Betriebsmittel waren durch mangelhafte Pflege während der Kriegsjahre stark heruntergewirtschaftet. Vom Stammpersonal stand nur noch eine kleine Gruppe zur Verfügung, so wurden in der Folge größere Neueinstellungen zum Wiederaufbau des Betriebes nötig. Die Uniformbestände waren in den Kriegswirren verloren gegangen, und damit konnte den Neueingestellten keine Berufskleidung zur Verfügung gestellt werden. Die Situation wurde durch mangelhafte Ernährung, Dienst in überfüllten und zum Teil unverglasten Fahrzeugen oder in beschädigten und ungeheizten Werkstätten und Wagenhallen weiter erschwert. Trotzdem begann ein zügiger, teilweise aber improvisierter Wiederaufbau der Schwebebahn. 1946 war die Gesamtstrecke wieder befahrbar. Die Stationen Alexanderbrücke und Kluse wurden allerdings nicht wieder aufgebaut. Der Grund für diese Entscheidung war nicht Materialmangel, sondern ökonomischer Natur. Man entschied, die sehr nahe bei der Station Döppersberg liegenden Haltestellen aufzugeben und stattdessen mit der Straßenbahn zu erschließen, um so die Fahrzeiten der Schwebebahn zu verkürzen. Der Bau des Sonnborner Kreuzes zwischen 1968 und 1974 erforderte das Heben des Schwebebahngerüstes auf einer Länge von 485 Meter um bis zu zwei Meter. Die Wuppertaler Stadtwerke gestatteten für die Arbeiten nur einen Zeitraum von 16 Tagen, der auch eingehalten wurde. In den Jahren 1972 bis 1975 wurden neue Wagen beschafft, bestehend aus 28 dreiteiligen Gelenkwagen. Alle Altwagen wurden daraufhin abgestellt und verschrottet, lediglich die beiden Kaiserwagen blieben der Nachwelt erhalten. Zwei weitere Wagen der Baureihe 1900 (B 00, in Betrieb von 1901 bis 1972) wurden verschenkt. Einer ging an die Partnerstadt Saint-Étienne, der andere kam auf Initiative des Fördervereins des Deutschen Technikmuseums Berlin in die Hauptstadt. Heute steht er dort im Depot Monumentenstraße. 1974 erfolgte der Einbau einer Wendeanlage an der Station Zoo/Stadion. Modernisierung. Austausch des Überbaus Ohligsmühle, 2002 Mit der zunehmenden Motorisierung und den Veränderungen der Verkehrsströme spätestens in den 1960er-Jahren wurde den Wuppertaler Stadtwerken, die nach dem Krieg den Betrieb der Schwebebahn übernommen hatten, klar, dass sie ihr Nahverkehrsangebot anpassen mussten, um nicht allzu hohe Schulden für die wirtschaftlich schwächelnde Stadt zu produzieren. Man begann deshalb damit, die meterspurige Straßenbahn stufenweise stillzulegen. Anfang der 1980er Jahre wurde dann auch die Betriebseinstellung der normalspurigen Straßenbahn bis 1987 beschlossen. Auf ihren Strecken in der Talsohle wurde ein nicht mehr zu finanzierenden Parallelverkehr zur Schwebebahn betrieben. Mit der Stilllegung der Straßenbahn wurden auch die Buslinien umorientiert. Ziel war es, die Schwebebahn nun zu einer leistungsfähigen Talverbindung auszubauen, zu der die Buslinien die Zubringerfunktion übernehmen sollten. a> in der Station Sonnborner Straße Da die Innenstadt Elberfelds nun nicht mehr durch die Straßenbahn erschlossen wurde, wurden auch die beiden nach dem Krieg zunächst nicht wieder aufgebauten Stationen wieder benötigt. Am 4. September 1982 wurde die Station Ohligsmühle neu eröffnet, am 26. März 1999 die Station Kluse – damit existieren wieder alle 20 ursprünglichen Stationen. Von 1979 bis 1984 wurden die Lager des historischen Gerüstes erneuert. Dabei wurden, wie sich das Verkehrsministerium des Landes NRW ausdrückte, „Teile der Gerüstkonstruktion nicht wegen altersbedingter Abnutzungserscheinungen, sondern aus Gründen der Attraktivitätsteigerung ausgewechselt“. Hierfür flossen Landesmittel in Höhe von 28 Mill. Euro. 1995 begann ein umfassendes Erneuerungsprojekt der Stützen, Schienen und Stationen. In diesem Instandhaltungsprojekt wurde die Schwebebahn weitgehend erneuert sowie eine große Zahl der Haltestellen umgebaut und technisch modernisiert. Nur drei der ursprünglichen Stationen (Hauptbahnhof aus den 1920er-Jahren, Alter Markt aus den 1960er-Jahren sowie Ohligsmühle von 1982) wurden nicht demontiert, sondern modernisiert. Auch die 1974 eröffnete und aufgrund des gestiegenen Verkehrsaufkommens nicht mehr benötigte Zwischenwendeanlage an der Station Zoo/Stadion wurde wieder abgebaut. Das ursprüngliche Ziel, diese Arbeiten im Jahr 2001 abzuschließen, konnte auf Grund erheblicher Probleme mit Zulieferfirmen und bei der Finanzierung (die Kosten entwickelten sich von geplanten 225 Millionen auf 394 Millionen Euro) nicht eingehalten werden. Bereits bei der Neuplanung des Traggerüstes traten Abstimmungsprobleme zwischen den verkehrstechnischen Anforderungen des Betreibers und den aus dem Kraftwerksbau stammenden Stahlbauern auf. Vom 15. Dezember 2009 bis zum 18. April 2010 stellte die Schwebebahn aus Sicherheitsgründen für vier Monate den Betrieb komplett ein. Laut einem Gutachten waren die teilweise über 100 Jahre alten Gerüstteile in einem bedenklichen Zustand, infolgedessen wurden kritische Elemente ausgetauscht. Auch der schwere Unfall vom 12. April 1999 wurde durch die Bauarbeiten (mit-)verursacht. Erst 2014 wurde die Modernisierung abgeschlossen. Verworfene Planungen. Gelegentlich wurde über eine Verlängerung der Strecke über die Endpunkte hinaus nachgedacht. Weiterführende Strecken kamen jedoch nie über ein Planungsstadium hinaus. Ein recht konkretes Projekt wurde von den Wuppertaler Stadtwerken 1969 geprüft. Nach diesen Planungen wäre eine 6,5 Kilometer lange Verlängerung von Oberbarmen bis Nächstebreck vorgesehen gewesen, wo eine geplante neue Vorstadt angebunden werden sollte. Eine alternative etwa 2,7 Kilometer lange Verlängerung bis Mählersbeck hätte den Bau zweier Tunnel auf der Trasse beinhaltet. Nach heftiger Diskussion wurden beide Pläne von der Stadtverwaltung verworfen. Im Zuge der Vorplanungen zum Neubau des Fahrgerüstes wurde als Folgeprojekt über eine Verlängerung bis Heckinghausen nachgedacht. Angesichts der zu niedrig erscheinenden zukünftigen Fahrgastzahlen, die in einer Untersuchung von 1983 festgestellt wurden, wurde die Idee 1996 verworfen. Planungen. Die Modernisierungsarbeiten wurden im Sommer und Herbst 2007 fortgesetzt. Dabei wurden der Bahnhof Vohwinkel Schwebebahn, die Kehranlage und die Weichenanlage zum Depot komplett erneuert. Weiterhin steht die Idee eines Schwebebahnmuseums im Raum. Mittlerweile gibt es bei der Firma Hako Sport in der Vohwinkeler Straße ein kleines Museum mit Ausstellungsstücken und zwei Originalfahrzeugen der Baureihe 1900/1912, jedoch beide ohne Fahrwerk. Geplant sind außerdem die Verbesserung sowie der weitere Ausbau der Fahrgastinformationssysteme. Immer noch geplant ist die Taktverkürzung in Spitzenzeiten auf zwei Minuten. Pläne einer Taktverkürzung auf 90 Sekunden wurden wieder verworfen, da hierzu fahrerlose, computergesteuerte Fahrzeuge notwendig wären. Auch die nächste Fahrzeuggeneration wird mit Fahrern besetzt sein. Einzelnachweise. Schwebebahn Lepsius-Alphabet. Karl Richard Lepsius brachte 1852 einen Vorschlag für ein Alphabet, das zum Ziel hat, alle Sprachen der Welt, vor allem aber afrikanische ohne eigenes Schriftsystem, schreiben zu können. 1853 fand auf Einladung des preußischen Botschafters in London, Christian Karl Josias von Bunsen, eine Konferenz statt, in der dieser Vorschlag diskutiert wurde. Das Alphabet konnte sich nicht durchsetzen, da es viele diakritische Zeichen enthält und deshalb schwierig zu setzen war. Wilhelm Schmidt publizierte 1907 und 1924 eine erweiterte Fassung, die auch als "Anthropos-Alphabet" bezeichnet wurde. In den 1920er Jahren benutzte Diedrich Westermann das Alphabet für seine Arbeit. SNOBOL4. SNOBOL 4 (String Oriented symbolic Language number 4) ist die vierte und letzte Ausprägung einer Reihe von Programmiersprachen mit dem Zweck der Manipulation von Zeichenketten. Diese Sprachen wurden zwischen 1962 und 1967 in den Bell Laboratories von AT&T durch David J. Farber, Ralph E. Griswold und Ivan P. Polonsky entwickelt. Die Sprache SNOBOL 4 unterstützt eine Reihe von eingebauten Datentypen wie Integer- und Gleitkommazahlen, Zeichenketten, Mustern, Feldern und Tabellen. Darüber hinaus gestattet sie dem Programmierer die Definition von zusätzlichen Datentypen und neuen Funktionen. Ein wesentliches Unterscheidungsmerkmal zu den seinerzeit gebräuchlichen Programmiersprachen ist die Existenz von Mustern als "erstklassigem" Datentyp, d.h. einem Datentyp, dessen Wert in jeder Weise manipuliert werden kann wie in anderen Programmiersprachen, sowie von Operatoren zur Verkettung und Manipulation von Mustern. Zeichenketten, die zur Laufzeit erzeugt werden, können als Programm behandelt und ausgeführt werden. Ein Muster in SNOBOL 4 kann sehr einfach, aber auch sehr komplex aufgebaut sein. Ein einfaches Muster ist z. B. nur eine Zeichenkette wie "ABCD". Ein komplexes Muster kann hingegen eine große Struktur sein, die z. B. die vollständige Grammatik einer Computersprache beschreiben kann. In den 1970er und 1980er Jahren war SNOBOL 4 als Sprache zur Manipulation von Texten weit verbreitet. In den vergangenen Jahren hat die Popularität allerdings abgenommen, weil neuere und effizientere Sprachen wie Awk und Perl zur Zeichenkettenbearbeitung mit regulären Ausdrücken beliebter wurden. Siehe auch. → Hallo-Welt in SNOBOL4 Systematik (Biologie). Die Systematik (von ' ‚geordnet‘) der Lebewesen, auch als Biosystematik bezeichnet, ist ein Fachgebiet der Biologie. Die klassische Systematik beschäftigt sich hauptsächlich mit der Einteilung (Taxonomie), Benennung (Nomenklatur) und Bestimmung der Lebewesen. Die moderne Systematik (Stuessy 1990) umfasst zudem die Rekonstruktion der Stammesgeschichte der Organismen (Phylogenie) sowie die Erforschung der Prozesse, die zu der Vielfalt an Organismen führen (Evolutionsbiologie) und wird daher auch als natürliche Systematik bezeichnet. Aristoteles. Aristoteles ordnete die ihm bekannten Lebewesen in einer Stufenleiter ("Scala Naturae") nach dem Grad ihrer „Perfektion“, also von primitiven zu höher entwickelten. Er führte für einzelne Gruppen Bezeichnungen ein, die heute noch Verwendung finden (Coleoptera, Diptera). In der Antike wurde beispielsweise die Wuchsform (Kraut, Staude, Strauch, Baum) oder Lebensweise (Nutztier, Wildtier, Wassertier) als Einteilungskriterium benutzt. Carl von Linné. Carl von Linné verwendete in seinen Werken "Species Plantarum" (ab 1753) und "Systema Naturae" (ab 1758) eine binäre Nomenklatur zur Benennung der Arten. Hauptzweck dieser Nomenklatur ist die eindeutige Benennung der Arten unabhängig von ihrer Beschreibung. Linnés Systematik der Pflanzen. Linné benutzte den Blütenaufbau, um die Pflanzen zu klassifizieren. Er teilte die Pflanzen in 24 Klassen ein – prinzipiell nach Anzahl und Gestalt der Stamina. Linnés System entsprach den Erfordernissen seiner Zeit, in welcher Naturforschenden immense neue Erfahrungsräume eröffnet wurden. Entdeckungs- und Handelsreisen konfrontierten die europäischen Biologen mit einer gewaltigen Anzahl an neuen Arten, welche beschrieben und klassifiziert werden wollten. Linnés System wurde nach 1850 nicht mehr benutzt, weil es kein natürliches System darstellte. Mit dem Erscheinen von Darwins "Origin of Species" wurde Linnés Sexualsystem völlig obsolet, da man von nun an die Lebewesen nach ihrer phylogenetischen Stellung (einem natürlichen System) ordnen wollte. Linnés Klassifizierung der tieferen taxonomischen Ränge (Art, Gattung) haben häufig bis heute ihre Gültigkeit. Dies rührt daher, dass Linnés Kriterium des Blütenbaus stark mit dem Prozess der Artbildung (bei Blütenpflanzen) zusammenhängt - Veränderungen der Blütenmorphologie, des Bestäubungsmechanismus etc. führen oft unmittelbar zu neuen Arten. Linnés Systematik der Tiere. Ganz anders ist es mit seinem System für Tiere. Grundkonzept ist dabei die typologische Definition der Art, das heißt die Reduzierung der Merkmalsfülle auf einige wenige Schlüsselmerkmale und die Abstrahierung von den Variationsmöglichkeiten innerhalb einer Art auf einen Typus („idealistische Morphologie“). Seine Gruppierung spiegelte für die niedrigen Taxa wie Art und Gattung durchaus ein natürliches System wider. Doch hatte auch Linné bereits erkannt, dass seine Einteilung für höhere Taxa aufgrund der recht willkürlichen Kriterien ein künstliches System blieb. Denn bei alledem ging Linné von der Unveränderlichkeit der Arten aus und beabsichtigte nicht, ein phylogenetisches System zu schaffen. Dieses bot dann später erst Begründung und Maßstab für die Natürlichkeit des Systems. Evolutionstheorie. Seit dem Aufkommen der Evolutionstheorie ist man nun bestrebt, dieses teilweise künstliche System in ein natürliches System umzubauen, das die Abstammungsverhältnisse (Phylogenetik) besser widerspiegelt. Dabei spielte zunächst die Homologisierung von Organen eine große Rolle. Seit den 1970er Jahren untersucht man den Aufbau der Proteine, um daraus Hinweise auf den Verwandtschaftsgrad abzuleiten. Dazu werden nicht nur morphologische und anatomische, sondern auch biochemische (Chemosystematik), physiologische, cytologische und ethologische Merkmale herangezogen. Vor allem wird die genetische Ähnlichkeit benutzt, um Verwandtschaftsbeziehungen direkt am Erbgut festzustellen. Die Rolle der Systematik für das Verständnis der Geschichte der Organismen beschreibt bereits Charles Darwin in seinem Buch "Über die Entstehung der Arten": „Wenn wir von dieser Idee ausgehen, dass das natürliche System, soweit es durchgeführt werden kann, genealogisch angeordnet ist … so verstehen wir die Regeln, die wir bei der Klassifikation befolgen müssen.“ Taxonomie-Konzepte. Peter Ax setzt Taxonomie und Systematik gleich, Ernst Mayr unterscheidet die Systematik als Wissenschaft von der Vielgestaltigkeit der Organismen von der Taxonomie als Lehre von der Klassifikation der Organismen. Klassische evolutionäre Klassifikation. Ernst Mayr legt seiner Systematik das biologische Artenkonzept zu Grunde. Bei der Einordnung der Organismen wird sowohl das Ausmaß der Divergenz als auch die Verzweigungsreihenfolge berücksichtigt. Zwar wird die Verzweigungsreihenfolge des phylogenetischen Systems anerkannt (Krokodile und Vögel (Aves) haben einen jüngeren gemeinsamen Vorfahren als die Vögel mit den übrigen Reptilien), der Erwerb des Vogelfluges wird aber als bedeutende Neuerung angesehen, die zu einer adaptiven Radiation führte. Entsprechend wird der Klasse Reptilia die Ordnung Krokodile (Crocodylia) zugeordnet und der Klasse der Vögel (Aves) gegenübergestellt, wodurch sich paraphyletische Taxa ergeben. Numerische Taxonomie (Phänetik). In der numerischen Taxonomie wird auf phylogenetische Annahmen verzichtet. Die Einordnung der Arten in das System erfolgt nur auf Grund messbarer Unterschiede und Ähnlichkeiten anatomischer Merkmale. Ursprüngliche und abgeleitete Merkmale werden nicht voneinander unterschieden. Die Phänetik ist in weiten Teilen durch die Kladistik abgelöst worden. Trotzdem verwenden einige Biologen weiterhin phänetische Methoden wie Neighbour-Joining-Algorithmen, um eine genügende phylogenetische Annäherung zu erhalten, wenn die kladistischen Methoden rechnerisch zu aufwändig sind. Konsequent phylogenetische Systematik. Nach Willi Hennig werden die Taxa nur von Arten gebildet, die eine geschlossene Abstammungsgemeinschaft, ein Monophylum, bilden. Die kleinste Einheit der phylogenetischen Systematik ist das Taxon Art. Als Monophylum wird die oberhalb der Artenebene gelegene Einheit der organismischen Natur bezeichnet, die aus allen Nachkommen einer (Stamm-)Art und der Stammart selbst besteht. Der typologische und biologische Begriff der Art wird als unzureichend abgelehnt. An die Stelle des typologischen Artkonzeptes tritt das phylogenetische Artkonzept. In diesem Konzept werden Arten zusammengefasst, die durch Synapomorphien charakterisiert sind und von Arten mit Autapomorphien unterschieden werden. Eine Autapomorphie ist eine evolutionäre Neuheit eines Taxons, das dieses anderen Taxa gegenüber abgrenzt und somit dessen evolutionäre Einmaligkeit begründet. Eine Synapomorphie stellt ein Merkmal dar, welches nur den direkt aus der Stammart entstandenen Arten gemein ist. Ein bei zwei Taxa auftretendes Merkmal, das in einer früheren Stammart der gemeinsamen Stammlinie evolviert wurde und im Außengruppenvergleich auch bei anderen Taxa zu finden ist, wird Plesiomorphie genannt. Eine Art hört dann auf zu existieren, wenn sie durch Speziation (Artaufbildung) in zwei neue Arten übergeht. Als natürliches System ergibt sich ein dichotomes Kladogramm (Näheres siehe Kladistik). Taxonomie aufgrund von DNA-Basensequenzen. Künftig sollen die Unterschiede der einzelnen Arten aufgrund von Vergleichen ihrer DNA-Basensequenzen systematisch für alle bekannten Spezies erarbeitet werden (siehe DNA-Barcoding). Man verspricht sich davon ein besseres Verständnis der Evolution. Der Erfolg und Zweck einer rein genetischen Bearbeitung der Artenvielfalt ist jedoch umstritten. Die verschiedenen Artkonzepte sind nicht universell anwendbar, da es sich bei den Artkonzepten um Konstrukte mit empirischen Grundlagen handelt. Eine scharfe Trennung zwischen Arten durch genetische Methoden wird im Rahmen der bisher angewandten Artkonzepte vermutlich scheitern, da eine einheitliche Methode nicht über alle Taxa hinweg anwendbar ist. Ob sich ein rein genetisches Artkonzept durchsetzen wird, durch das man Arten nach absolut messbaren genetischen Unterschieden kategorisieren kann, ist genauso fraglich. Beispiel Mensch: klassische evolutionäre Klassifikation. Als detailliertes Beispiel die Klassifikation des Menschen. Der Übersicht halber werden z. B. Überfamilie/Familie/Unterfamilie zu „Familie“ gruppiert. Dies verdeutlicht die grobe Einteilung "Reich > Stamm > Klasse > Ordnung > Familie > Gattung". Zu beachten ist, dass nicht für alle Arten dieselbe feine Einteilung benötigt wird. Bei Säugetieren wird z. B. der "Überstamm" nicht verwendet. (→ Systematik der vielzelligen Tiere.) Taxonomie und Systematik in Forschung und Wissenschaft. Taxonomie und Systematik sind Felder der klassischen, organismischen Biologie. An deutschen Universitäten geht der Anteil der taxonomischen Ausbildung im Studiengang Biologie zurück und damit auch der Anteil an systematisch versierten Biologen und Ökologen. Die Bedeutung guter taxonomischer Aufarbeitung in Sammlungen und im Feld wurde bei der Umsetzung der Biodiversitäts-Konvention CBD deutlich: Um Arten, Populationen und Lebensräume zu schützen, müssen die Akteure die Tier- und Pflanzenarten sicher identifizieren können. Sonnensystem. Das Sonnensystem umfasst die Sonne, die sie umkreisenden Planeten und deren natürliche Satelliten, die Zwergplaneten und andere Kleinkörper wie Kometen, Asteroiden und Meteoroiden, sowie die Gesamtheit aller Gas- und Staubteilchen, die durch die Anziehungskraft der Sonne an diese gebunden sind. Zum Sonnensystem gehört auch die Erde. Allgemeine Struktur. Im Zentrum des Sonnensystems befindet sich die Sonne als Zentralstern. Darauf folgen die terrestrischen Planeten Merkur, Venus, Erde und Mars, die den inneren Teil dieses Planetensystems ausmachen. Den äußeren Teil bilden die Gasplaneten Jupiter, Saturn, Uranus und Neptun. Weitere Begleiter der Sonne sind neben Zwergplaneten Millionen von Asteroiden (auch Planetoiden oder Kleinplaneten genannt) und Kometen, die vorwiegend in drei Kleinkörperzonen des Sonnensystems anzutreffen sind: dem Asteroidengürtel zwischen den inneren und den äußeren Planeten, dem Kuipergürtel jenseits der äußeren Planeten und der Oortschen Wolke ganz außen. Innerhalb der von den einzelnen Sonnenbegleitern beherrschten Raumbereiche – ihrer Hill-Sphären – befinden sich oft kleinere Himmelskörper als umlaufende Begleiter dieser Objekte. Nach dem altbekannten Mond der Erde werden sie analog ebenfalls als Monde, aber auch als Satelliten oder Trabanten bezeichnet. Bis auf den Erdmond und den Plutomond Charon sind sie zumindest bei den Planeten und Zwergplaneten wesentlich kleiner als ihr Hauptkörper. Mondlose Ausnahmen unter den Planeten sind nur Merkur und Venus. Eine definitiv untere Grenzgröße, ab der man wie bei den Bestandteilen der Ringe der Gasplaneten nicht mehr von einem Mond spricht, wurde noch nicht offiziell festgelegt. Die Sonne macht 99,86 Prozent der Gesamtmasse des Systems aus. Auch ihr Durchmesser ist mit etwa 1,39 Millionen Kilometern bei weitem größer als der Durchmesser aller anderen Objekte im System. Die größten dieser Objekte sind die acht Planeten, die vier Jupitermonde Ganymed, Kallisto, Europa und Io (die Galileischen Monde), der Saturnmond Titan und der Erdmond. Zwei Drittel der restlichen Masse von 0,14 Prozent entfallen dabei auf Jupiter. (siehe auch: Liste der massereichsten Objekte im Sonnensystem). Als Folge der Entstehung des Sonnensystems bewegen sich alle Planeten, Zwergplaneten und der Asteroidengürtel in einem rechtläufigen Orbit um die Sonne. Die meisten größeren Monde bewegen sich ebenfalls in diese Richtung um ihren Hauptkörper. Auch die Rotation der meisten größeren Körper des Sonnensystems erfolgt in rechtläufigem Drehsinn. Von den Planeten dreht sich lediglich die Venus entgegengesetzt, und die Rotationsachse von Uranus liegt nahezu in seiner Bahnebene. Zone der Planeten. Die Umlaufbahnen der vier inneren (links) und der vier äußeren Planeten (rechts) Der Sonne am nächsten befinden sich die "inneren, erdähnlichen Planeten" Merkur (Abstand zur Sonne 57,9 × 106 km, beziehungsweise 0,39 AE), Venus (108,2 × 106 km, 0,72 AE), Erde (149,6 × 106 km, 1 AE) und Mars (227,9 × 106 km, 1,52 AE). Ihr Durchmesser beträgt zwischen 4.878 km und 12.756 km, ihre Dichte zwischen 3,95 g/cm3 und 5,52 g/cm3. Innerhalb der "habitablen Zone" um die Sonne befinden sich jedoch nur die Erde und, je nach Modell, noch ganz knapp der Mars. Zwischen Mars und Jupiter befindet sich der so genannte Asteroidengürtel, eine Ansammlung von "Kleinplaneten". Die meisten dieser Asteroiden sind nur wenige Kilometer groß (siehe Liste der Asteroiden) und nur wenige haben einen Durchmesser von 100 km oder mehr. Ceres ist mit etwa 960 km der größte dieser Körper und gilt als Zwergplanet. Die Bahnen der Asteroiden sind teilweise stark elliptisch, einige kreuzen sogar die Merkur- (Icarus) beziehungsweise die Neptunbahn (Dioretsa). Zu den "äußeren Planeten" zählen die "Gasriesen" Jupiter (778,3 × 106 km, 5,2 AE) und Saturn (1,429 × 109 km, 9,53 AE) sowie die Eisriesen Uranus (2,875 × 109 km, 19,2 AE) und Neptun (4,504 × 109 km, 30,1 AE) mit Dichten zwischen 0,7 g/cm3 und 1,66 g/cm3. Die mittleren Abstände der Planeten von der Sonne lassen sich durch mathematische Reihen wie der Titius-Bode-Reihe annähernd beschreiben. Diese gewisse Regelmäßigkeit der Bahnabstände dürfte auf Resonanzeffekte bei der Entstehung des Sonnensystems zurückzuführen sein. Dass sich der mittlere Abstand des Asteroidengürtels ebenfalls in dieser Reihe einordnen lässt, der von Neptun jedoch nicht, gab und gibt Anlass zu Spekulationen über kosmische Katastrophen. Am nächsten können sich Merkur und Venus mit einer minimalen Distanz von 0,26 AE kommen. Geringfügig höher ist die minimale Entfernung von Venus und Erde. Nimmt man die mittleren Bahnabstände, so sind Venus und Erde die Planeten mit der geringsten Distanz zueinander (41 Mio. km oder knapp 0,28 AE). Die Planeten Merkur, Venus, Mars, Jupiter und Saturn waren schon im Altertum als Wandelsterne bekannt und wurden mit einzelnen Göttern in Verbindung gebracht. Seit der Antike sind sie von den Römern nach Göttern der römischen Mythologie benannt. Die 1781 und 1846 entdeckten Planeten Uranus und Neptun sowie der 1930 entdeckte Zwergplanet Pluto – der bis 2006 auch als Planet eingestuft worden war – wurden aus traditionellen Gründen in gleicher Weise benannt. Künstlerische Darstellung der Planeten (nicht maßstabsgetreu) „"M"ein "V"ater "e"rklärt "m"ir "j"eden "S"onntag "u"nsere "n"eun "P"laneten.“ Da Pluto nicht mehr der von der IAU (Internationale Astronomische Union) im August 2006 beschlossenen Definition für Planeten des Sonnensystems entspricht, ist dieser Merksatz nicht mehr gültig. Es wurden bereits neue Varianten für die verbleibenden acht Planeten vorgeschlagen (z. B. "„"M"ein "V"ater "e"rklärt "m"ir "j"eden "S"onntag "u"nseren "N"achthimmel“"). Eine zweite Variante, die weiterhin den Fokus auf das Wort "„"Planet"“" richtet, lautet: "„"M"ein "V"ater "e"rklärt "m"ir "j"eden "S"onntag "u"nsere "N"achbarplaneten“". Vor der Entdeckung Plutos wurde der Spruch „"M"an "v"erachte "e"inen "M"enschen "i"n (= lat. „Iupiter”) "s"einem "U"nglück "n"ie“ gelehrt. "„"M"ein "V"ater "e"rklärt "m"ir "a"n "j"edem "S"onntag "u"nsere "n"atürliche "k"osmische "O"rdnung.“", zu lesen als " "M"erkur "V"enus "E"rde "M"ars "A"steroiden "J"upiter "S"aturn "U"ranus "N"eptun "K"uipergürtel "O"ortsche Wolke" Äußere Zonen. Die Umlaufbahnen der Objekte des Sonnensystems im Maßstab (von links oben im Uhrzeigersinn) Seit den 1990er-Jahren wurden über 500 Objekte gefunden, die sich jenseits der Neptunbahn bewegen. Fast alle dieser Objekte sind 4,5–7,5 Milliarden km (30–50 AE) von der Sonne entfernt und bilden dort den Kuipergürtel. Er ist ein Reservoir für die Kometen mit mittleren Umlaufperioden. Die Objekte dieser Zone sind wahrscheinlich nahezu unveränderte Überbleibsel aus der Entstehungsphase des Sonnensystems; man nennt sie deshalb auch Planetesimale. Der Sonnenwind wirkt im interplanetaren Raum ungehindert bis in den Kuipergürtel und verdrängt die interstellare Materie. Jenseits des Kuipergürtels verlangsamt und verdichtet sich der Teilchenstrom der Sonne durch die Wechselwirkung mit dem interstellaren Medium und bildet als äußere Schale der Heliosphäre das Heliosheath. Die Grenzschicht zwischen der Heliosphäre und dem interstellaren Medium ist die Heliopause. Man vermutet sie in einer Entfernung von circa 150 AE (dem 4-fachen Abstand Pluto/Sonne). Der genaue Abstand ist jedoch bis heute nicht bekannt. Außerhalb der Heliopause befindet sich bis zu einem Abstand zur Sonne von circa 1,5 Lichtjahren (etwa 100.000 AE) theoretisch die Oortsche Wolke. Durch den Einfluss der Gravitation vorbeiziehender Sterne werden aus ihr vermutlich Körper herausgelöst und fallen als langperiodische Kometen in die inneren Bereiche des Sonnensystems. Einige dieser Kometen verbleiben dann auf stark elliptischen Bahnen in der Nähe der Sonne, andere werden von den Planeten, insbesondere von Jupiter, gestört und abgelenkt, so dass sie aus dem Sonnensystem katapultiert werden oder auf Planeten oder in die Sonne stürzen. Ausmaße. Da astronomische Dimensionen für die meisten Menschen schwer vorstellbar sind, ist ein maßstabsgerecht verkleinertes Modell des Sonnensystems oder der Besuch eines Planetenweges hilfreich, um sich die Größenverhältnisse und Distanzen der Objekte zu veranschaulichen. Mond, Venus, Merkur, Sonne mit Bereichen der Umlaufbahnen. Entfernungen und Größe der Sonne sind hierbei maßstabsgetreu, Planeten müssten unter 0,06 Pixel groß sein. Lokale stellare Nachbarschaft. Bewegungsrichtung des Sonnensystems durch das lokale instellare Medium Der sonnennächste individuelle Stern ist der rote Zwerg Proxima Centauri. Sein Abstand zum Sonnensystem beträgt etwa 4,22 Lichtjahre bzw. 268.000 AE. Das nächstgelegene Planetensystem ist Alpha Centauri in 4,34 Lj (1,33 pc) Entfernung, an das Proxima Centauri wahrscheinlich gravitativ gebunden ist. Hauptkomponenten von Alpha Centauri sind zwei sonnenähnliche Sterne, von denen einer von einem planetaren Begleiter umkreist wird, der 2012 entdeckt wurde. Der Planet verfügt über Erdmasse und umrundet sein Zentralgestirn Alpha Centauri B innerhalb von 3,236 Tagen in 6 Mio. km (0,04 AE) Entfernung deutlich außerhalb dessen habitabler Zone. Das Alpha-Centauri-System enthält damit sowohl die drei sonnennächsten Sterne als auch den nächstgelegenen extrasolaren Planeten. Die stellare Nachbarschaft des Sonnensystems (siehe "Liste der nächsten Sterne") wird von massearmen roten Zwergen dominiert. Von den 64 Sternen innerhalb von 5 Parsec um die Sonne sind allein 49 rote Zwergsterne der Spektralklasse M. Lediglich zwei Sterne (Alpha Centauri A und Tau Ceti) gehören wie die Sonne zum Spektraltyp G. Der hellste und massereichste Stern in diesem Gebiet ist Sirius mit 2,12 Sonnenmassen, welcher auch der hellste Stern am irdischen Nachthimmel ist. Bei mehreren der nahen Sterne konnten inzwischen Planetensysteme bzw. einzelne Exoplaneten nachgewiesen oder Hinweise darauf gefunden werden, darunter Alpha Centauri, Epsilon Eridani, Tau Ceti, Wolf 1061, Gliese 674, Gliese 687, Gliese 832, Gliese 876, Groombridge 34 und Kapteyns Stern. Die durchschnittliche Sternendichte in diesem Gebiet mit einem Radius von fünf Parsec um das Sonnensystem beträgt etwa 4 Sterne pro 1000 Kubiklichtjahren (einen Würfel von 10 lj Kantenlänge), der durchschnittliche Abstand zwischen den Sternen der solaren Nachbarschaft liegt bei etwa 6 Lichtjahren. Das sonnennahe Gebiet ist arm an Riesensternen und Sternenhaufen. Die nächstgelegenen roten Riesen sind Pollux und Arcturus in 34 bzw. 37 Lichtjahren Entfernung. Der nächste blaue Riesenstern ist Elnath in erst 130 Lichtjahren Entfernung. Der nächste offene Sternhaufen, die Hyaden, ist 153 Lichtjahre entfernt. Das nächstgelegene bekannte schwarze Loch ist Teil des Systems A0620−00 in etwa 3000 Lichtjahren Entfernung. Erweiterte Nachbarschaft der Sonne in der lokalen Blase. (Draufsicht auf galaktische Ebene, galaktisches Zentrum ist oben) Die galaktische Region um das Sonnensystem ist weitgehend frei von interstellarem Staub, da die Sonne seit etwa fünf bis zehn Millionen Jahren eine Region durchquert, die die Lokale Blase genannt wird. Sie misst entlang der galaktischen Ebene circa 200 und senkrecht zu ihr circa 600 Lichtjahre und besteht aus sehr heißem und extrem verdünntem Gas, hauptsächlich Wasserstoff, welches den interstellaren Staub fernhält. Innerhalb dieser Blase bewegt sich das Sonnensystem zurzeit durch eine lokale interstellare Wolke, die als lokale Flocke bekannt ist. Das Sonnensystem durchquert die Lokale Flocke seit ca. 100.000 Jahren und wird sie voraussichtlich in 10.000 bis 20.000 Jahren wieder verlassen. In der lokalen Wolke befinden sich bei variierender Teilchendichte durchschnittlich 0,26 Atome pro Kubikzentimeter. Die Temperatur der Wolke beträgt etwa 6000 Kelvin, etwas heißer als an der Oberfläche der Sonne. Die Lokale Blase ist das Ergebnis von Supernovae, die in den letzten 10 bis 20 Millionen Jahren explodierten. Der größte Teil des Gases der Blase wird im Einflussbereich der Sonne wiederum durch den ihm entgegenstürmenden Sonnenwind abgeschirmt. Eine noch größere Blase wurde 500 Lichtjahre entfernt in Richtung des Sternbildes Skorpion entdeckt und "Loop I" genannt. Sie hat einen Durchmesser von etwa 1000 Lichtjahren. In ihrem Zentrum befindet sich die junge Scorpius-Centaurus-Assoziation. Es wird vermutet, dass die Milchstraße von Hunderten solcher heißen Blasen durchsetzt ist. Milchstraßensystem. Die ungefähre Position der Sonne im Orionarm der Milchstraße und der Verlauf ihres galaktischen Orbits Die Sonne mit ihren Begleitern ist, wie alle Sterne, Teil eines Sternhaufens bzw. einer Galaxie. Sie ist mit mindestens 100 Milliarden (manche Schätzungen gehen bis 400 Milliarden) weiteren Sternen ein Mitglied des Milchstraßensystems, einer Balkenspiralgalaxie mit einem Durchmesser von etwa 100.000 Lichtjahren. Das Sonnensystem befindet sich zwischen zwei der spiralförmigen Sternkonzentrationen, zwischen dem Perseusarm und dem Sagittariusarm, in einer lokalen Abzweigung, dem Orionarm. Es liegt rund 15 Lichtjahre nördlich der galaktischen Symmetrieebene, ist etwa 27.000 Lichtjahre vom galaktischen Zentrum entfernt und umkreist es mit einer Geschwindigkeit von rund 240 km/s binnen etwa 210 Millionen Jahren, einem "galaktischen Jahr".. Neben dieser galaktischen Rotation bewegt sich die Sonne nach den aktuellen Werten von Anfang des 21. Jahrhunderts mit 19,7 km/s in Richtung des Sonnenapex, der bei einer galaktischen Länge von 57° und einer galaktischen Breite von 22° in Richtung des Sternbildes Herkules liegt. Dabei kreuzt die Sonne die Scheibenebene etwa alle 30 Millionen Jahre. Die Lage der mittleren Bahnebene der Planeten des Sonnensystems entspricht nicht der Äquatorebene der Galaxis, sondern ist stark dagegen geneigt. Der nördliche Ekliptikpol liegt im Sternbild Drache, an der Himmelssphäre nur circa 30 Grad vom galaktischen Äquator (in dem am Nachthimmel schimmernden Band der Milchstraße). Der südliche Pol der Erdbahnebene liegt im Sternbild Schwertfisch. Der Nordpol der Galaxie befindet sich 30 Grad über der Ekliptik im Haar der Berenike, der galaktische Südpol im Bildhauer. Das Zentrum der Galaxie liegt nahe der Erdbahnebene, perspektivisch im Sternbild Schütze. Von der hellen zentralen Verdickung, der Bulge, scheint im sichtbaren Licht nur wenig auf, da sie im Scheibenbereich auch von großen Mengen interstellaren Staubes umgeben ist. Der Drehsinn des Milchstraßensystems stimmt nicht mit dem der Planeten um die Sonne überein. Die galaktische Scheibe rotiert von Norden gesehen im Uhrzeigersinn, als würden die Spiralarme vom Zentralbereich nachgeschleppt, und damit gegenläufig zum Drehsinn des Sonnensystems. Viele Astronomen vermuten, dass die Spiralstruktur in der Verteilung der Sterne auf Dichtewellen noch unbekannten Ursprungs zurückgeht und die Gas- und Staubmassen der galaktischen Scheibe während deren Rotation an ihnen auflaufen und dadurch zur Bildung neuer Sterne angeregt werden, siehe Dichtewellentheorie. Manche Paläontologen sahen in datierten Massenaussterben und Impaktkratern periodische Muster und machten diese Dichtewellen, obiges Pendeln durch die Scheibenebene oder einem unentdeckten Begleiter der Sonne, sh. Nemesis, dafür verantwortlich, indem Kometen der Oortschen Wolke aus der Bahn gebracht werden. Die Existenz derartiger Muster ist jedoch mittlerweile widerlegt. Entstehung. Die derzeit gängige Theorie zur Entstehung des Sonnensystems basiert auf der Kant’schen Nebularhypothese, nach der die großen Körper etwa zeitgleich aus einer rotierenden Wolke aus Gas und Staub entstanden sind. Die Idee einer Urwolke hatte der deutsche Philosoph Immanuel Kant im Jahr 1755 in seinem Werk Allgemeine Naturgeschichte und Theorie des Himmels formuliert, sie ist aber erst in den letzten Jahrzehnten von den Astronomen neu aufgegriffen worden. Urwolke. Nach den ausgereifteren Ansichten der heutigen Zeit bewegte sich vor etwa 4,6 Milliarden Jahren an Stelle des Sonnensystems eine ausgedehnte Molekülwolke um ein gemeinsames Zentrum innerhalb des Milchstraßensystems. Die Wolke bestand zu über 99 % aus den Gasen Wasserstoff und Helium sowie einem geringen Anteil mikrometergroßer Staubteilchen, die sich aus schwereren Elementen und Verbindungen, wie Wasser, Kohlenmonoxid, Kohlendioxid, anderen Kohlenstoffverbindungen, Ammoniak und Siliziumverbindungen zusammensetzten. Der Wasserstoff und der überwiegende Teil des Heliums war bereits beim Urknall entstanden. Die schwereren Elemente und Verbindungen wurden im Innern von Sternen erzeugt und bei deren Explosion als Sternenstaub freigesetzt. Teile der Materiewolke zogen sich infolge der eigenen Schwerkraft zusammen und verdichteten sich. Den Anstoß hierzu könnte die Explosion einer relativ nahen Supernova gegeben haben, deren Druckwellen durch die Wolke wanderten. Diese Verdichtungen führten zu der Bildung von vermutlich mehreren hundert oder gar tausend Sternen in einem Sternhaufen, der sich wahrscheinlich nach einigen hundert Millionen Jahren in freie Einzel- oder Doppelsterne auflöste. Im Folgenden wird die Entwicklung desjenigen „Fragments“ der Materiewolke betrachtet, aus dem sich das Sonnensystem bildete, – der Sonnennebel. Da bei der Kontraktion der Drehimpuls erhalten bleiben muss, hat sich eine schon minimal existierende Rotation des kollabierenden Nebels erhöht (Pirouetteneffekt). Die dabei entstehenden, nach außen wirkenden Fliehkräfte führten dazu, dass sich die Wolke zu einer rotierenden Akkretionsscheibe formte. Fast die gesamte Materie des Sonnennebels stürzte dabei in das Zentrum und bildete einen Protostern, der weiter kollabierte. Im Innern dieses Gaskörpers stiegen Druck und Temperatur so weit an, bis ein Kernfusionsprozess gezündet wurde, bei dem Wasserstoffkerne zu Heliumkernen verschmelzen. Die dabei freigesetzte Energie erzeugte einen Strahlungsdruck, der der Gravitation entgegenwirkte und die weitere Kontraktion aufhielt. Ein stabiler Stern – die Sonne – war entstanden. Entstehung der Planeten. Zeichnung einer protoplanetaren Scheibe (NASA) In der verbleibenden protoplanetaren Scheibe führte nach dem bisherigen Modell die Verklumpung von Staubteilchen (Koagulation) zur Bildung von Planetesimalen, den Bausteinen der Planeten. Diese kilometergroßen Gebilde besaßen genug Masse, um sich durch ihre Gravitation mit anderen Planetesimalen zu größeren Objekten zu vereinigen. Der Zeitpunkt der Bildung der berggroßen Planetesimale, und damit der Beginn der Planetenentstehung, konnte durch Untersuchungen an bestimmten Meteoriten festgelegt werden: er fand vor 4,568 Milliarden Jahren (mit einer Unsicherheit von 2 Millionen Jahren) statt. Nach neueren Modellen könnten auch gravitative Instabilitäten zu sich selbst verstärkenden Massekonzentrationen und damit zur Bildung von Planetesimalen führen. Dabei verlief das Wachstum nicht gleichmäßig. Die schwersten Objekte übten die größten Gravitationskräfte aus, zogen Materie aus einem weiten Umkreis an und konnten so noch schneller wachsen. Der Protojupiter störte schließlich mit seinem Gravitationsfeld andere Planetesimale und beeinflusste deren Wachstum. Offensichtlich verhinderte er auch die Bildung eines größeren Körpers zwischen der Mars- und Jupiterbahn, was zur Entstehung des Asteroidengürtels führte. Einen maßgeblichen Einfluss auf die Prozesse der Planetenentstehung hatte der Abstand der Protoplaneten zur jungen Sonne. In Sonnennähe kondensierten schwerflüchtige Elemente und Verbindungen aus, während leichtflüchtige Gase durch den kräftigen Sonnenwind weggerissen wurden. Hier entstanden die inneren Planeten, Merkur, Venus, Erde und Mars mit festen silikatischen Oberflächen. In den kälteren Außenregionen konnten die entstehenden Planeten auch die leichtflüchtigen Gase, wie Wasserstoff, Helium und Methan festhalten. Hier bildeten sich die Gasplaneten Jupiter, Saturn, Uranus und Neptun. Ein Teil der Materie, der nicht von den Planeten eingefangen wurde, verband sich zu kleineren Objekten, den Kometen und Asteroiden. Da diese Himmelskörper seit der Frühzeit des Sonnensystems nahezu unverändert blieben, kann deren Erforschung wichtige Hinweise zu dessen Entstehungsgeschichte liefern. Ebenfalls sehr wertvolle Erkenntnisse brachte die Untersuchung von Meteoriten. Dies sind Bruchstücke von Planetoiden, die ins Schwerefeld der Erde gerieten. Offene Fragen. Auch wenn die Grundprinzipien der Planetenentstehung bereits als weitgehend verstanden gelten, gibt es doch noch zahlreiche offene und nicht unwesentliche Fragen. Eines der Probleme ist die paradox erscheinende Verteilung des Drehimpulses auf die Sonne und die Planeten, denn der Zentralkörper enthält fast 99,9 % der Masse des gesamten Systems, besitzt aber nur etwa 0,5 % des Drehimpulses; der Hauptanteil daran steckt im Bahndrehimpuls ihrer Begleiter. So ist auch die Neigung der Äquatorebene der Sonne gegenüber der mittleren Bahnebene der Planeten von etwa 7° ein Rätsel. Aufgrund ihrer überaus dominierenden Masse dürfte die Sonne (anders als zum Beispiel die Erde) durch die Wechselwirkung mit ihnen kaum ins Taumeln geraten. Möglicherweise hatte sie in ihrer Frühzeit einen Zwergstern als Begleiter oder erhielt „Besuch“ von einem Nachbarstern des ursprünglichen Sternhaufens, der durch seine Anziehung die "protoplanetare Scheibe" um etwa 7° kippte, während die Sonne aufgrund ihrer geringen räumlichen Ausdehnung weitgehend unbeeinflusst blieb. Außerdem muss die Allgemeingültigkeit der Aussagen über die Entstehung von Planetensystemen angezweifelt werden, da auch Exoplaneten entdeckt wurden, deren Bahnen entgegen der Rotation ihres Zentralsterns verlaufen, was nach dem oben beschriebenen Modell nicht möglich wäre. Sam Neill. Nigel John Dermot Samuel „Sam“ Neill DCNZM, OBE; (* 14. September 1947 in Omagh, Nordirland) ist ein neuseeländischer Schauspieler. Leben und Werk. Geboren als Sohn einer Soldatenfamilie in Nordirland, die 1954 nach Neuseeland zurückzog, besuchte Neill die regulären Schulen und die Universität, wo er einen Abschluss in englischer Literatur machte. Er begann früh, als Schauspieler zu arbeiten, und war für die "Zealand National Film Unit" sechs Jahre lang als Regisseur und Drehbuchautor tätig. Populär wurde er durch Filme wie "Das Piano" (1993), "Jurassic Park" (1993) oder "Merlin" (1998). Neill hat einen Sohn namens Tim mit der Schauspielkollegin Lisa Harrow, eine Tochter namens Elena mit seiner Frau Noriko Watanabe und eine Stieftochter namens Maiko. Seit 1993 ist er Inhaber der "Two Paddocks Ltd.", seines kleinen, in Otago (Neuseeland) ansässigen Familienunternehmens, das Weine herstellt. Sein erklärter Lieblingsfilm ist "Berüchtigt" von Alfred Hitchcock. Seine deutsche Synchronstimme stammt überwiegend von Wolfgang Condrus. Sophia Loren. Sophia Loren (* 20. September 1934 in Rom; bürgerlich "Sofia Villani Scicolone") ist eine italienische Filmschauspielerin. Sie entwickelte sich in den 1960er Jahren zum Weltstar. Mit Auftritten als Komparsin, so im Film "Quo Vadis", begann eine Entwicklung, die sie vom italienischen zum internationalen Filmstar führte. Ihre erste Hauptrolle erhielt Sophia Loren im Film "Weiße Frau in Afrika". Sie konnte in der Folgezeit auf die Förderung ihres späteren Ehemanns Carlo Ponti zählen, der sie unter Vertrag nahm. Mit den Hollywood-Produktionen von 1957 bis 1964 wie "Hausboot" (1958) oder "Es begann in Neapel" (1960) sowie durch ihren Oscar für "Und dennoch leben sie" festigte sich ihr Ruf an der Seite bekannter Schauspieler. Vor allem mit Marcello Mastroianni als Leinwandpartner feierte sie eine Reihe von Kinoerfolgen. In jüngerer Zeit war Sophia Loren nach einer längeren Phase von Fernsehauftritten erneut in Kinofilmen wie "Prêt-à-porter" (1994) und "Nine" (2009) zu sehen. Karriere. Sophia Loren wuchs in der Kleinstadt Pozzuoli bei Neapel in ärmlichen Verhältnissen auf. Ihr Vater Riccardo Scicolone heiratete ihre Mutter Romilda Villani auch nach der Geburt ihrer Schwester Maria nicht und verließ die Familie. Die Mutter versuchte, aus der Schönheit Sophias Kapital zu schlagen, um ihre Familie durchzubringen. Sophia durfte an Misswahlen teilnehmen, wirkte als Modell für Fotoromane und erhielt Komparsenauftritte in Filmen. Bei dem Schönheitswettbewerb zur Miss Rom wurde sie 1950 Zweite und lernte dabei ihren zukünftigen Ehemann kennen, den 22 Jahre älteren italienischen Filmproduzenten Carlo Ponti. Dieser förderte sie fortan und erfand für sie den Namen Sophia Loren. Die beiden heirateten am 17. September 1957, nachdem sich Ponti in Mexiko von seiner ersten Frau hatte scheiden lassen. Allerdings wurde die Scheidung vom italienischen Staat nicht anerkannt und Ponti wurde der Bigamie bezichtigt. 1962 wurde die Ehe Loren/Ponti annulliert. Sophia Loren, Carlo Ponti und seine erste Frau Giuliana Fiastri wurden daraufhin 1966 französische Staatsbürger. Nach der Scheidung von seiner ersten Frau legalisierten Loren und Ponti am 9. April 1966 ihre Ehe. 1957 kam Sophia Loren auf eine Initiative Pontis nach Hollywood und stand in "Stolz und Leidenschaft", ihrem ersten US-Film, vor der Kamera. In den USA drehte sie Filme unter anderem mit Stars wie Anthony Quinn, Clark Gable, John Wayne, Richard Burton, Cary Grant, Frank Sinatra, Anthony Perkins, Charlton Heston, Paul Newman und Gregory Peck. 1960 drehte sie in Italien unter der Regie von Vittorio De Sica den Film "Und dennoch leben sie", der für sie zum internationalen Durchbruch wurde. Sie wurde als ernsthafte Schauspielerin anerkannt und erhielt unzählige Filmpreise. In dem Film brachte sie ihre eigenen Kindheitserfahrungen auf die Leinwand und vermittelte somit glaubhaft den Schmerz des Krieges. Sophia Loren in London (2009) Beim Publikum wurde sie vor allem durch den Film "Hausboot" aus dem Jahr 1958 mit Cary Grant beliebt. 1960 hatte sie mit den Film "Es begann in Neapel" mit Clark Gable einen großen finanziellen Erfolg. Der Monumentalfilm "El Cid", der 1961 in Spanien unter der Regie von Anthony Mann gedreht wurde, war für Loren ein weiterer Schritt zum Hollywood-Star. 1966 engagierte Charlie Chaplin Sophia Loren und Marlon Brando für den Film "Die Gräfin von Hongkong". Dieser Film war Chaplins letzter und sein einziger Farbfilm. In Italien stand Sophia Loren eine Zeit lang in einem Konkurrenzverhältnis zu Gina Lollobrigida, einem anderen Sexsymbol der damaligen Zeit. Mit ihrem Filmpartner Marcello Mastroianni bildete Sophia Loren in vielen italienischen Produktionen ein Traumpaar. Auch mit dem Regisseur Vittorio De Sica arbeitete sie häufig zusammen. 2009 drehte sie nach einer seit 1996 währenden Pause wieder einen Hollywoodfilm. Im Musical "Nine" von Rob Marshall spielte sie neben Nicole Kidman, Penélope Cruz, Daniel Day-Lewis, Judi Dench und Marion Cotillard. In über 100 Filmen hat Sophia Loren bisher mitgewirkt. In den 1980er Jahren spielte sie auch in einigen Fernsehproduktionen mit. Ihre deutsche Standard-Synchronstimme ist Marion Degler. 1980 kam Sophia Loren in die Schlagzeilen, als sie zu 30 Tagen Haft wegen Steuerhinterziehung verurteilt wurde. Die Strafe trat sie in Caserta im Mai 1982 an. Am 11. Februar 2006 trug sie im Rahmen der Eröffnungsfeier der Olympischen Winterspiele 2006 in Turin gemeinsam mit anderen Berühmtheiten die Olympische Flagge ins Turiner Olympiastadion. Für Aufsehen sorgte Sophia Loren zuletzt, als sie 2007 im Pirelli-Kalender posierte. 2007 kündigte die 72-Jährige an, bei einem Aufstieg des Fußballclubs SSC Neapel nochmals nackt aufzutreten. Obwohl dies dem Verein in der 07 gelang, hat Loren ihr Versprechen bis heute nicht eingelöst. In einer Fernsehsendung identifizierte sie ihre Aussage als Witz. 2007 starb ihr Ehemann Carlo Ponti. Sophia Loren zog sich für über drei Monate von öffentlichen Auftritten zurück. Im selben Jahr erschien sie dann zu Preisverleihungen, bei denen sie in Spanien die „Espiga de Oro“, in Deutschland den „Bambi“ und in Italien den „Marc Aurel-Preis“ für ihr Lebenswerk erhielt. Bei Preisverleihungen in Los Angeles überreichte sie im Jahr Am 4. Mai 2011 wurde Sophia Loren im Samuel Goldwyn Theater in Los Angeles geehrt. Sie erhielt einen Preis für ihr Lebenswerk von der Academy of Motion Picture Arts and Sciences. Privat. Zusammen mit ihrem verstorbenen Ehemann Carlo Ponti hat sie zwei Kinder: Carlo jr. (* 1968) und Edoardo (* 1973). Die Familie lebt am Genfersee und besitzt zudem eine Ranch in Kalifornien, einen Palazzo in Rom, ein Chalet in der Schweiz und eine Wohnung im Trump World Tower in New York City. Sophia Loren ist die Taufpatin von Drew Barrymore. Ihre Schwester Anna Maria Scicolone heiratete Romano Mussolini, den Sohn Benito Mussolinis. Deren Tochter ist die neofaschistische Politikerin Alessandra Mussolini. Sophia Loren förderte die Karriere Alessandra Mussolinis: Sie brachte sie dazu, nackt für den "Playboy" zu posieren. Außerdem verschaffte sie ihr Rollen in einigen Filmen, in denen sie selbst spielte. Auszeichnungen und Ehrungen. Sophia Lorens Handabdruck vor dem Grauman’s Chinese Theatre, Los Angeles Preis des Internationalen Filmfestival in Venedig Preis des Internationalen Filmfestival in San Sebastian Preis des Internationalen Filmfestival in Cannes Preis des Internationalen Filmfestival in Moskau Preis des Internationalen Filmfestival in Istanbul Sharon Stone. Sharon Yvonne Stone (* 10. März 1958 in Meadville, Pennsylvania) ist eine US-amerikanische Filmschauspielerin. Ihren Durchbruch als Hauptdarstellerin hatte sie 1992 mit dem erotischen Thriller "Basic Instinct". Für ihre Rolle in dem Film "Casino" war sie für einen Oscar nominiert. Leben. Die Tochter von Joseph und Dorothy Stone hat drei Geschwister: Kelly, Mike und Patrick. Sie verließ Meadville 1977 und ging nach New York, um als Model zu arbeiten. Ihre Schauspielkarriere begann 1980 mit einer Rolle in Woody Allens "Stardust Memories". Danach gab sie die „schöne Frau an der Seite des Helden“ in Filmen wie "Police Academy 4", "Action Jackson" und 1990 in "Die totale Erinnerung – Total Recall" mit Arnold Schwarzenegger. Berühmt wurde sie 1992 durch ihre Rolle in Paul Verhoevens Erotikthriller "Basic Instinct", für die sie eine Nominierung für den Golden Globe, aber auch für die Goldene Himbeere erhielt. Anschließend versuchte sie vergeblich, diesen Erfolg mit weiteren erotischen Rollen in "Sliver" und "The Specialist" zu wiederholen. Für ihre Leistung in Martin Scorseses "Casino" erhielt sie schließlich einen Golden Globe und eine Nominierung für den Oscar. Weitere Golden-Globe-Nominierungen erhielt sie für "The Mighty" und für "Die Muse". Trotz ihrer Auftritte in "Casino", "The Mighty", "Last Dance" und "Gloria" galt sie bald als Kassengift. 2004 versuchte sie mit dem Film "Catwoman" an der Seite von Halle Berry ein Comeback. Der Film floppte bei Kritik und Publikum gleichermaßen. Ende Dezember 2005 wirkte sie in zwei Folgen der türkischen Serie "Kurtlar Vadisi" mit; ihre Gage spendete sie Tsunami-Opfern. 2006 kam unter dem Titel "Basic Instinct – Neues Spiel für Catherine Tramell" eine Fortsetzung von "Basic Instinct" in die Kinos. Während Stone für ihre Darstellung durchaus Lob erntete, konnte der Film die in ihn gesteckten kommerziellen Erwartungen nicht erfüllen. Neben Filmen wirkte sie auch als Gaststar in verschiedenen Serien mit. 1984 hatte sie einen Auftritt in der Serie "Magnum", wo sie zu Beginn der 5. Staffel in der Doppelfolge "Schwarzer Spiegel" (O: Echos of the mind) mitspielte. 2003 war sie für drei Folgen in der Serie "Practice – Die Anwälte" zu sehen. 2010 gehörte sie für vier Folgen zum Ensemble von "." Im Jahr 2012 sollte sie unter der Regie von Tony Kaye in dem Erotic-Thriller "Attachment" ein weiteres Mal die Femme fatale spielen; eine Veröffentlichung des Films steht jedoch aus (Stand März 2015). Von 1984 bis 1987 war sie mit dem Fernsehproduzenten Michael Greenburg verheiratet. Ihre 1998 geschlossene Ehe mit dem Journalisten Phil Bronstein wurde 2004 geschieden. Stone hat drei Adoptivsöhne. Erdbeben-Kontroverse. Die Bemerkung löste teilweise heftige Kritik aus. Der Verband der Filmschaffenden von Hongkong protestierte, der Kino-Betreiber UME Cineplex wollte Filme mit Stone nicht mehr zeigen, und die von Christian Dior beauftragte Werbefirma ließ in China Plakate entfernen, auf denen Stone abgebildet war. Dior veröffentlichte in ihrem Namen schließlich eine Entschuldigung. Sandra Bullock. Sandra Bullock im Juni 2013 bei der "Taffe-Mädels"-Filmpremiere in London Sandra Annette Bullock (* 26. Juli 1964 in Arlington, Virginia) ist eine US-amerikanische Schauspielerin, Filmproduzentin und Synchronsprecherin mit deutschen Wurzeln. Sie wurde durch die Actionfilme "Demolition Man" (1993) und "Speed" (1994) sowie die Romanze "Während du schliefst" (1995) berühmt und gehört seitdem zu den beliebtesten und bestbezahlten Schauspielerinnen Hollywoods. Zu ihren größten Erfolgen zählen vor allem Komödien wie "Miss Undercover" (2000), "Ein Chef zum Verlieben" (2002), "Selbst ist die Braut" (2009) und "Taffe Mädels" (2013). Sie glänzte aber auch in ernsthaften Rollen wie in dem oscarprämierten Episodenfilm "L.A. Crash" (2004), dem Drama "Blind Side – Die große Chance" (2009) und dem Science-Fiction-Thriller "Gravity" (2013). Für "Blind Side – Die große Chance" wurde Bullock als beste Hauptdarstellerin mit dem Oscar und dem Golden Globe ausgezeichnet. "Gravity", der bislang finanziell erfolgreichste Film ihrer Karriere, brachte ihr ihre zweite Oscar-Nominierung als beste Hauptdarstellerin ein sowie, dank Umsatzbeteiligung, eine Rekordgage von mindestens 70 Millionen US-Dollar. Kindheit und Jugend. Bullock wurde 1964 als Tochter der deutschen Opernsängerin Helga Meyer (1942–2000) und des US-amerikanischen Militärangehörigen und Gesangslehrers John Bullock geboren. Ihre ersten zwölf Lebensjahre verbrachte sie überwiegend in Nürnberg, da ihre Mutter am örtlichen Staatstheater auftrat; zeitweise lebte die Familie auch in Salzburg und Wien. Sandra und ihre jüngere Schwester Gesine (* 1970, verh. Bullock-Prado) traten im Kinderchor auf und übernahmen kleinere Rollen, zum Beispiel in den Opernaufführungen ihrer Mutter. Bullock spricht fließend Deutsch, dem eigenen Bekunden nach mit einem leichten fränkischen Akzent. Bis zu ihrem 18. Lebensjahr besaß sie neben der US-amerikanischen auch die deutsche Staatsangehörigkeit. Bullock ist die Cousine von Peter Ramsauers Ehefrau Susanne. In Nürnberg besuchte Bullock die Rudolf-Steiner-Schule, in Arlington County die Washington-Lee High School, an der sie als Cheerleader-Captain auftrat und an vielen Theateraufführungen teilnahm. Nach ihrem High-School-Abschluss 1982 studierte sie Schauspiel an der East Carolina University. Sie brach das Studium 1986 ab, um in New York Schauspielerfahrungen zu sammeln, was sich als schwierig erwies. So arbeitete sie unter anderem als Kellnerin, Reinigungskraft, Diskotänzerin oder auch als Hundefrisörin, bis sie bei Sanford Meisner ihre Schauspielausbildung beendet hatte. In New York besuchte sie Schauspielkurse und trat in verschiedenen Studentenfilmen auf. Ein erstes Engagement hatte sie in dem Off-Broadway-Stück "No Time Flat." Anfänge der Karriere. Bullock zog 1989 nach Los Angeles und spielte kleine Film- und Fernsehrollen, darunter eine Hauptrolle in dem Fernsehfilm "Bionic Showdown: The Six Million Dollar Man and the Bionic Woman". In der Fernsehserie "Working Girl", basierend auf dem gleichnamigen Kinohit "(Die Waffen der Frauen)", hatte Bullock 1990 eine Hauptrolle, die Serie wurde allerdings nach nur zwölf Episoden wieder eingestellt. Anschließend wirkte sie in mehreren Kinofilmen mit, darunter eine Hauptrolle in der Komödie "Love Potion No. 9 – Der Duft der Liebe" (1992) mit Tate Donovan, eine Nebenrolle in dem Thriller "Spurlos" (1993) mit Jeff Bridges und Kiefer Sutherland sowie eine Nebenrolle in dem Drama "The Thing Called Love – Die Entscheidung fürs Leben" (1993) mit River Phoenix. Für "The Thing Called Love", in dem Bullock eine Country-Musikerin spielte, schrieb sie den Song "Heaven Knocking On My Door" und sang diesen auch im Film. Im Jahr 1993 spielte Bullock neben Sylvester Stallone und Wesley Snipes in "Demolition Man" eine Polizistin, da die Schauspielerin Lori Petty, die ursprünglich für die Rolle vorgesehen war, wenige Tage nach Drehbeginn entlassen wurde. Der Actionfilm war Bullocks erster großer finanzieller Erfolg und steigerte ihren Bekanntheitsgrad, er brachte ihr jedoch auch eine Nominierung für eine Goldene Himbeere als schlechteste Nebendarstellerin ein. Durchbruch. Ihren Durchbruch in Hollywood feierte sie ein Jahr später mit dem Actionhit "Speed" an der Seite von Keanu Reeves und Dennis Hopper. Der von Jan de Bont gedrehte Film über einen Linienbus, der wegen einer Bombe an Bord ohne anzuhalten durch den Berufsverkehr von Los Angeles rast (Tagline: "Get ready for rush hour" – Mach dich bereit für den Berufsverkehr), spielte 1994 weltweit 350,4 Mio. US-Dollar ein und erhielt zwei Oscars (bester Ton, bester Tonschnitt). Als Nächstes spielte Bullock die Hauptrolle in der Romanze "Während Du schliefst" (1995) an der Seite von Bill Pullman, nachdem Demi Moore vor Drehbeginn aus dem Projekt ausgestiegen war. "Während Du schliefst" war ein weiterer Kassenerfolg und brachte Bullock ihre erste Golden-Globe-Nominierung ein. Mit dem Thriller "Das Netz" (1995), der wenig erfolgreichen Komödie "Gestohlene Herzen" (1996) und dem Justizthriller "Die Jury" (1996) etablierte sich Bullock als eine der beliebtesten und am besten bezahlten Schauspielerinnen Hollywoods. In "Die Jury", einer Verfilmung des Debütromans von Bestsellerautor John Grisham mit Matthew McConaughey und Samuel L. Jackson, spielte sie eigentlich nur eine Nebenrolle. Aufgrund ihrer Popularität wurde ihr Name auf Filmplakaten jedoch an erster Stelle genannt. Für die Rolle erhielt Bullock bereits eine Gage von sechs Millionen US-Dollar. In der Verfilmung des Buches „Hemingway in Love and War“, "In Love and War" (1996), verkörperte Bullock mit Agnes von Kurowsky erstmals in ihrer Karriere eine reale Person. An ihrer Seite spielte Chris O’Donnell den jungen Ernest Hemingway. Der Film, der gemischte Kritiken erhielt, war nicht sehr erfolgreich. Bullock drehte 1997 unter der Regie von Jan de Bont die Fortsetzung "Speed 2 – Cruise Control". Die männliche Hauptrolle übernahm Jason Patric, nachdem Keanu Reeves abgelehnt hatte. Bullock bekam 12,5 Millionen US-Dollar Gage, der Film spielte allerdings gerade so die Produktionskosten ein. Außerdem bekam er schlechte Kritiken und eine Goldene Himbeere für die „schlechteste Neuverfilmung oder Fortsetzung“ sowie sieben weitere Nominierungen, darunter eine für Bullock als „schlechteste Hauptdarstellerin“. Debüt als Regisseurin. Im Jahr 1998 war Bullock in dem Drama "Eine zweite Chance" mit Harry Connick junior zu sehen, dabei versuchte sie sich zum ersten Mal als Filmproduzentin. Im selben Jahr spielte sie zusammen mit Nicole Kidman in dem Fantasyfilm "Zauberhafte Schwestern" und gab mit dem Kurzfilm "Making Sandwiches" ihr Debüt als Drehbuchautorin und Regisseurin. In "Making Sandwiches" spielte sie neben ihrem Filmpartner aus "Die Jury", Matthew McConaughey, und Eric Roberts – der Film kam allerdings nicht in die Kinos, er wurde nur auf ausgewählten Filmfestivals gezeigt. In dem Zeichentrickfilm "Der Prinz von Ägypten" (1998) übernahm Bullock eine Sprechrolle. 1999 wirkte sie lediglich in der halbwegs erfolgreichen Komödie "Auf die stürmische Art" an der Seite von Ben Affleck mit. Bullock übernahm 2000 eine Rolle in der Komödie "Ein Herz und eine Kanone" neben Liam Neeson. Der Film spielte nicht einmal die Produktionskosten ein. In dem Drama "28 Tage" (2000) mit Viggo Mortensen spielte sie eine Alkoholikerin, die nach einem Autounfall im Vollrausch zu einem Aufenthalt in einer Entzugsklinik verurteilt wird. Für diese Darstellung, die so gar nicht ihrem öffentlichen Image als „Everybody’s Darling“ entsprach, erntete Bullock allerdings gemischte Kritiken. Mit ihrer Rolle als FBI-Agentin, die als Teilnehmerin bei einer Misswahl eingeschleust wird, konnte sie als "Miss Undercover" (2000) dagegen einen weltweiten Kinohit (Einspielergebnis: 212,7 Mio. US-Dollar) verbuchen. Die Komödie brachte ihr den American Comedy Award sowie ihre zweite Golden-Globe-Nominierung ein. In dem Thriller "Mord nach Plan" (2002) war Bullock als Detective zu sehen, die ein scheinbar perfektes Verbrechen aufzudecken versucht – inspiriert wurde der Film von dem authentischen Mordfall "Leopold und Loeb". Das Südstaaten-Drama "Die göttlichen Geheimnisse der Ya-Ya-Schwestern" (2002) mit Ellen Burstyn thematisiert einen Mutter-Tochter-Konflikt. Mit "Ein Chef zum Verlieben" (2002) an der Seite von Hugh Grant bewies Bullock einmal mehr, dass ihre erfolgreichsten Filme im Genre der romantischen Komödie angesiedelt sind, der Film spielte weltweit knapp 200 Mio. US-Dollar ein. 2003 nahm Bullock erneut eine Auszeit von der Schauspielerei. Im Jahr 2004 spielte sie eine Rolle in dem von Kritikern hoch gelobten Episodenfilm "L.A. Crash", in dem Menschen in Los Angeles auf unterschiedliche Weise mit den Themen Rassismus und Gewalt konfrontiert werden. "L.A. Crash" wurde später als bester Film mit dem Oscar ausgezeichnet und erhielt weitere Preise, u.a. für das beste Schauspielensemble (Screen Actors Guild Award, Critics' Choice Award). Am 24. März 2005 wurde Bullock mit einem Stern auf dem berühmten Hollywood Walk of Fame für ihre künstlerische Arbeit geehrt. Der Stern mit der Nummer 2281 befindet sich gleich neben der Plakette ihres "Speed"-Filmpartners Keanu Reeves. Im selben Jahr spielte sie eine kleine Nebenrolle in "Loverboy", dem Regiedebüt von Kevin Bacon. Für die Hauptrolle in der Fortsetzung "Miss Undercover 2 – Fabelhaft und bewaffnet" (2005) erhielt sie die Rekordgage von 17,5 Mio. US-Dollar, doch die Komödie kam nicht an den Erfolg des ersten Teils heran. Für das Drama "Das Haus am See" stand Bullock 2006 wieder mit Keanu Reeves zusammen vor der Kamera. In dem Jahr spielte sie noch in "Kaltes Blut – Auf den Spuren von Truman Capote" die Rolle der Schriftstellerin Harper Lee. Obwohl der Film über das Leben von Truman Capote bis in die Nebenrollen hinein prominent besetzt war (u. a. Daniel Craig, Gwyneth Paltrow und Sigourney Weaver), stand er im Schatten des Oscar-Gewinners "Capote" (2005) und floppte an der Kinokasse. Bullock war 2007 lediglich in dem Drama "Die Vorahnung" mit Julian McMahon zu sehen. Comeback und Oscar-Gewinn. Bullock startete 2009 mit der romantischen Komödie "Selbst ist die Braut" an der Seite von Ryan Reynolds ein fulminantes Comeback. Der Film spielte weltweit 317,4 Mio. US-Dollar ein und bescherte ihr die dritte Golden-Globe-Nominierung. Die folgende Komödie "Verrückt nach Steve" (2009) mit Bradley Cooper war dagegen ein klarer Misserfolg. Bei negativen Kritiken floppte der Film auch finanziell und erhielt fünf Nominierungen für die Goldene Himbeere, u. a. als „schlechtester Film“. Bullock erhielt den Preis als „schlechteste Hauptdarstellerin“, den sie – wie bereits ihre Kollegin Halle Berry 2005 – auch persönlich entgegennahm. Das Drama "Blind Side – Die große Chance" (2009) wurde der bis dahin größte künstlerische Erfolg in ihrer Karriere. Die Verfilmung des Lebens von Michael Oher, der als Kind in verschiedenen Pflegefamilien aufwuchs, dann von Sean und Leigh Anne Tuohy adoptiert und schließlich ein erfolgreicher American-Football-Spieler wurde, spielte weltweit 309,2 Mio. US-Dollar ein und erhielt eine Oscar-Nominierung als bester Film. Bullock erhielt für ihre Darstellung der Adoptivmutter viel Kritikerlob und gewann den Oscar, Golden Globe, Critics' Choice Award und Screen Actors Guild Award als beste Hauptdarstellerin. Die Oscarverleihung erfolgte am 7. März 2010; einen Tag zuvor hatte sie die Goldene Himbeere als schlechteste Hauptdarstellerin für "Verrückt nach Steve" persönlich abgeholt. Bullock drehte 2011 an der Seite von Tom Hanks das Drama "Extrem laut & unglaublich nah" nach dem gleichnamigen Bestseller von Jonathan Safran Foer. Trotz gemischter Kritiken wurde der Film für mehrere Filmpreise nominiert, u.a. für den Oscar als bester Film. Im Jahr 2013 spielte sie an der Seite von Melissa McCarthy in der erfolgreichen Buddy-Komödie "Taffe Mädels" (Einspielergebnis: 229,9 Mio. US-Dollar) und an der Seite von George Clooney in dem Science-Fiction-Film "Gravity". Als einer der erfolgreichsten Filme des Jahres (Einspielergebnis weltweit bis 30. April 2014: 716,3 Mio. US-Dollar) –  und der mit Abstand erfolgreichste in ihrer Karriere – erhielt "Gravity" zudem hervorragende Kritiken, wobei insbesondere Bullocks Leistung gelobt wurde. Für diese Rolle erhielt sie zahlreiche Nominierungen als beste Hauptdarstellerin, darunter für den Oscar, Golden Globe, Critics' Choice Award, Screen Actors Guild Award und British Academy Film Award. "Gravity" erhielt insgesamt 10 Oscar-Nominierungen und wurde in 7 Kategorien ausgezeichnet, u.a. für die beste Regie. Bullock war 2014 die große Gewinnerin der 40. People’s Choice Awards: Sie wurde als „beliebteste Filmschauspielerin“, „beliebteste Filmschauspielerin – Komödie“ (für "Taffe Mädels"), „beliebteste Filmschauspielerin – Drama“ (für "Gravity") und zusammen mit George Clooney als „beliebtestes Leinwandpaar“ (für "Gravity") ausgezeichnet, zudem erhielt "Taffe Mädels" den Preis als „beliebtester Film – Komödie“ und "Gravity" den Preis als „beliebtester Film – Drama“. Privatleben. Bullock lebt in New Orleans, Louisiana. Im Jahr 2002 war sie mit dem Schauspieler Ryan Gosling liiert. Sie hatten sich bei den Dreharbeiten zu "Mord nach Plan" kennengelernt. Die Beziehung hielt sieben Monate. Ab dem 16. Juli 2005 war sie mit dem Moderator der TV-Show "Monster Garage", Jesse G. James, verheiratet und wurde Stiefmutter von dessen drei Kindern. Im Januar 2010 adoptierte das Paar einen Sohn. Im März 2010 wurden außereheliche Affären ihres Ehemanns bekannt und Bullock reichte die Scheidung ein, die im Juni 2010 rechtskräftig wurde. 2015 adoptierte sie eine Tochter aus einer Pflegefamilie. Bullock ist als großzügige Unterstützerin wohltätiger Organisationen bekannt. Nach den Terroranschlägen vom 11. September 2001 spendete sie eine Million US-Dollar an das Rote Kreuz und die gleiche Summe noch einmal nach dem Seebeben im Indischen Ozean 2004. Nach dem Erdbeben in Haiti 2010 spendete sie erneut eine Million US-Dollar, diesmal an Ärzte ohne Grenzen. 2011 gab sie eine Million US-Dollar für die Erdbebenopfer des Tōhoku-Erdbebens 2011. Bullock hat eine eigene Produktionsfirma namens "Fortis Films". Nicht verwirklichte Filmprojekte. "Candyman’s Fluch" (1992) – Bullock war im Gespräch für die Hauptrolle in diesem Horrorfilm, die Rolle ging dann aber an Virginia Madsen. "Die Braut, die sich nicht traut" (1999) – Bullock und Julia Roberts waren im Gespräch für diese romantische Komödie, Roberts bekam schließlich den Zuschlag. 2009 ersetzte Bullock Roberts in "Selbst ist die Braut", nachdem Roberts angeblich eine zu hohe Gagenforderung gestellt hatte. "Million Dollar Baby" (2004) – Mehrere Jahre lang versuchte Bullock vergeblich Geldgeber für ein Drama um eine Boxerin zu finden. Der Stoff wurde schließlich ohne Bullocks Mitwirkung von Clint Eastwood mit Hilary Swank in der Hauptrolle realisiert. Bullock dementierte danach entschieden, sie habe die Rolle, welche Hilary Swank ihren zweiten Oscar einbrachte, abgelehnt. "Couchgeflüster – Die erste therapeutische Liebeskomödie" (2005) – Bullock war für die Hauptrolle eingeplant, stieg aber zwei Wochen vor Drehbeginn wegen Differenzen mit Regisseur Ben Younger aus dem Projekt aus. Uma Thurman übernahm die Rolle. "Capote" (2005) – Bullock war für die Rolle der Schriftstellerin Harper Lee im Gespräch, die Rolle ging dann an Catherine Keener. Kurz darauf spielte Bullock dennoch diese Rolle im Film "Kaltes Blut – Auf den Spuren von Truman Capote" (2006). "Superman Returns" (2006) – Bullock wurde für die Rolle der Lois Lane in Betracht gezogen, die Rolle bekam Kate Bosworth. "Wonder Woman" – Ein Kinospielfilm nach dem gleichnamigen Comic kam bislang nicht zustande. Sonstiges. Bullocks deutsche Standard-Synchronsprecherin ist Bettina Weiß. Das britische Magazin Empire wählte Bullock im Oktober 1997 auf Platz 58 der "100 größten Filmstars aller Zeiten". In den Jahren 1996 und 1999 wurde Bullock von dem US-Magazin People unter die "50 schönsten Menschen der Welt" gewählt. Sandra Bullock eröffnete im November 2006 in ihrer Wahlheimat Austin (Texas) unter dem Namen "Bess" ein Nobelrestaurant. Später eröffnete sie ebenfalls in Austin zusammen mit ihrer Schwester Gesine die Bäckerei/Konditorei "Walton's Fancy and Staple". Im Jahr 2007 belegte sie mit einer Gagenforderung von geschätzten 10 bis 15 Millionen US-Dollar pro Film Platz sechs der bestbezahlten Schauspielerinnen Hollywoods. Mit geschätzten Einnahmen von 56 Millionen US-Dollar zwischen Juni 2009 und Juni 2010 war Bullock laut Forbes Magazine in diesem Zeitraum die bestbezahlte Schauspielerin Hollywoods. Die Einnahmen setzten sich aus ihrer Gage für "Selbst ist die Braut" sowie der Gage für und einer Gewinnbeteiligung an "Blind Side – Die große Chance" zusammen. Im Jahr 2009 landete sie in einer jährlichen Umfrage unter den Kinobetreibern der USA auch auf Platz eins der Liste der an der Kinokasse erfolgreichsten Stars. Diesen Rang hatte mit Julia Roberts zuletzt 1999 eine Frau belegt. 2013 war Bullock laut "Forbes Magazine" die erfolgreichste Schauspielerin des Jahres gemessen am Einspielergebnis ihrer Filme: "Taffe Mädels" und "Gravity" erzielten zusammen ca. 862 Millionen US-Dollar (Platz 5. im Gesamtranking). Bullock gewann bereits sechsmal den People’s Choice Award als beliebteste Filmdarstellerin des Jahres (1996, 1997, 1999, 2006, 2010, 2014), weitere zweimal war sie nominiert (2007, 2008). Bullock war 2010 die erste Schauspielerin, die im selben Jahr die bekanntesten Filmpreise sowohl als beste Darstellerin (Oscar für "Blind Side – Die große Chance") als auch als schlechteste Darstellerin (Goldene Himbeere für "Verrückt nach Steve") gewann. Bullock hatte zuvor angekündigt, die Goldene Himbeere persönlich in Empfang zu nehmen, falls sie gewinnen sollte, und sie tat es auch: „Wenn ich gewinne, gehe ich auf jeden Fall hin. Ich muss das genauso genießen wie einen Oscar zu gewinnen. Zwischen diesen beiden Polen bewegt sich dieses Geschäft“. In der Regel nehmen die Preisträger den Schmähpreis nicht selbst in Empfang, eine viel beachtete Ausnahme machte auch Oscar-Preisträgerin Halle Berry, als sie 2005 für den Flop "Catwoman" ausgezeichnet wurde. Am 8. Oktober 2014 wurde ein Asteroid nach ihr benannt: (78453) Bullock. Stella Stevens. Stella Stevens; eigentlich "Estelle Caro Eggleston" (* 1. Oktober 1938 in Yazoo City, Mississippi), ist eine US-amerikanische Schauspielerin. Leben und Karriere. Stella Stevens wurde in Yazoo City (mitunter wird auch Hot Coffee, Mississippi, genannt) als "Estelle Caro Eggleston" geboren. Im Rahmen einer Modeltätigkeit in Memphis wurde sie als Schauspielerin entdeckt und erhielt einen Vertrag bei 20th Century Fox. Es folgten einige kleinere und mittlere Rollen in Fernseh- und Filmproduktionen, bis ihr ein Playboy-Auftritt als "Playmate of the Month" im Januar 1960 zu zahlreichen Filmangeboten verhalf. Dabei war sie meist auf den Typus der sexbetonten Blondine festgelegt, wie etwa in der Dr. Jekyll & Mr. Hyde-Parodie "Der verrückte Professor" von Jerry Lewis und in dem Katastrophenfilm "Die Höllenfahrt der Poseidon". Ihr schauspielerisches Talent stellte sie auch in dem Horrorthriller "Das Haus der blutigen Hände" neben Shelley Winters unter Beweis. Erfolge hatte sie auch mit dem vielschichtigen Spät-Western "Abgerechnet wird zum Schluss" von Sam Peckinpah und in der Südstaatenserie "Flamingo Road". Daneben spielte sie vor allem in Fernsehfilmen und -serien wie "General Hospital" und "California Clan". 1960 wurde sie mit einem Golden Globe Award als "Beste Nachwuchsdarstellerin" ausgezeichnet. Von 1954 bis 1957 war sie mit Noble Herman Stephens verheiratet mit dem sie einen Sohn, den Schauspieler Andrew Stevens, hat. Stephen Hawking. Stephen Hawking bei der NASA (1980er) Stephen William Hawking, CH, CBE, FRSA (* 8. Januar 1942 in Oxford, Großbritannien) ist ein britischer theoretischer Physiker und Astrophysiker. Von 1979 bis 2009 war er Inhaber des renommierten Lucasischen Lehrstuhls für Mathematik an der Universität Cambridge. Stephen Hawking lieferte bedeutende Arbeiten zur Kosmologie, Allgemeinen Relativitätstheorie und der Physik der Schwarzen Löcher. Durch populärwissenschaftliche Bücher über moderne Physik ist er auch einem breiten Publikum außerhalb der Fachwelt bekannt geworden. 1963 wurde bei Hawking Amyotrophe Lateralsklerose (ALS) diagnostiziert, eine degenerative Erkrankung des motorischen Nervensystems. Mediziner prophezeiten ihm, nur noch wenige Jahre zu leben. Allerdings handelt es sich vermutlich um eine chronisch juvenile ALS, die durch einen extrem langen Krankheitsverlauf gekennzeichnet ist. Seit 1968 ist er auf einen Rollstuhl angewiesen. Im Rahmen der Grunderkrankung (konsekutive Progressive Bulbärparalyse) und der Behandlung einer schweren Lungenentzündung verlor er 1985 die Fähigkeit zu sprechen. Für die verbale Kommunikation nutzt er seitdem einen Sprachcomputer, den er durch eine einzige Bewegung seines Wangenmuskels bzw. seiner Augen steuert. Ausbildung und Studium. Stephen Hawing wurde als Sohn des Tropenmediziners Frank Hawking und dessen Frau Isobel Hawking, einer Wirtschaftswissenschaftlerin, geboren. Frank Hawking entstammte einer Familie von Großbauern in Yorkshire, sein Großvater John Hawking verlor jedoch den Großteil seines Vermögens im Rahmen einer landwirtschaftlichen Wirtschaftskrise zum Beginn des 20. Jahrhunderts. Robert Hawking, der Vater von Frank, und dessen Frau konnten sein Medizinstudium nur mit Hilfe der Einnahmen einer kleinen Schule in Boroughbridge finanzieren und er selbst bekam einige Stipendien und Preise, mit denen er sich finanzierte und auch seinen Eltern etwas Geld zurückgeben konnte. 1937 befand er sich auf einer Forschungsreise in Afrika am Kongo und beim Ausbruch des Zweiten Weltkriegs kam er nach England zurück, um sich dem Militär anzuschließen. Seine spätere Frau war die Tochter eines praktischen Arztes und eine von acht Kindern der Familie, sie durfte trotz der finanziellen Engpässe der Familie studieren und arbeitete nach dem Studium als Finanzinspektorin und später als Sekretärin. Vor der Geburt ihres Sohnes zogen Frank und Isobel vorübergehend aus dem Londoner Stadtgebiet (Stadtteil Highgate) nach Oxford gezogen, um so der Bedrohung durch deutsche Bombardierung durch die Luftwaffe im Zweiten Weltkrieg zu entgehen, da es einen Vertrag zwischen Deutschland und Großbritannien gab, nach dem die Universitätsstädte nicht bombardiert werden sollten. 18 Monate nach Stephen wurde seine Schwester Mary geboren, seine zweite Schwester Phillippa kam auf die Welt als er fünf Jahre alt war. Stephen Hawking wuchs im Norden Londons auf und 1950 zog die Familie erneut um, diesmal nach St Albans nördlich von London, wo Stephen Hawking ab 1953 die St Albans School besuchte. Der Wunsch des Vaters war es, dass sein Sohn Medizin studieren sollte, um in seine Fußstapfen als Arzt zu treten. Hawking konzentrierte sich daher in Leistungskursen auf Drängen seines Vaters auf Chemie und belegte Mathematik nur als Nebenfach. Noch vor dem Schulabschluss nahm er probeweise an einer Aufnahmeprüfung für die Universität Oxford teil, die er mit Auszeichnung bestand und die ihm überraschend ein Studien-Stipendium gewährte. Wissenschaftliche Arbeit. Stephen Hawking erwarb 1962 seinen Bachelor-Abschluss an der Universität Oxford. Wenig später wechselte er zu Trinity Hall an der Universität Cambridge, wo er seine Promotion über theoretische Astronomie und Kosmologie begann und 1966 abschloss (Ph.D.). Da ihm die für die Aufnahme in Cambridge notwendige Examensnote fehlte, trat er zu einer mündlichen Prüfung an, die er mit Bestnote bestand. Nach seiner Doktorarbeit wurde er " Research Fellow" und später "Professorial Fellow" am Gonville and Caius College der Universität Cambridge. Berühmt wurde er in den 1960er Jahren für den Beweis der notwendigen Existenz von Singularitäten in der allgemeinen Relativitätstheorie unter sehr allgemeinen Voraussetzungen (gemeinsam mit Roger Penrose, siehe Singularitäten-Theorem). Für diese Arbeit erhielt er 1966 den angesehenen Adams Prize der Universität Cambridge. Er wechselte an das Institut für Theoretische Astronomie in Cambridge, wo er bis 1973 blieb. Danach arbeitete er am Institut für angewandte Mathematik und Theoretische Physik und begann mit seiner quantenmechanischen Interpretation der Schwarzen Löcher. 1974 entwickelte er das Konzept der „Hawking-Strahlung“, nach der schwarze Löcher in der Quantenfeldtheorie (je nach der Masse des schwarzen Lochs mehr oder weniger schnell) zerstrahlen. Anschaulich kann man sich dies als Folge der Vakuumpolarisation vorstellen: im Vakuum werden ständig Teilchen-Antiteilchen-Paare erzeugt und es gibt eine effektive Strahlung, wenn eines dieser Teilchen im schwarzen Loch verschwindet, das andere aber entkommt. In den 1980er Jahren entwickelte Hawking mit James Hartle einen Zugang zur Quantengravitation und deren Kosmologie über eine euklidische Pfadintegralformulierung. Dabei wird in der mathematischen Pfadintegralformulierung, ursprünglich von Richard Feynman für die Quantenfeldtheorie entwickelt, über alle möglichen Konfigurationen von Raum-Zeiten („Pfade“) summiert, was durch Integrale über die Metrik-Tensorfelder, die nach der allgemeinen Relativitätstheorie die Raum-Zeiten festlegen, dargestellt wird. Um die Integrale mathematisch behandeln zu können, wird ein auch in der Quantenfeldtheorie üblicher Trick angewandt: Das Pfadintegral wird zu imaginären Werten der Zeit fortgesetzt, so dass die Metriken, über die summiert wird, eine Signatur wie bei der Metrik eines euklidischen Raumes statt des Vorzeichens des Minkowski-Raums wie in der allgemeinen Relativitätstheorie bekommen. Hartle und Hawking schlugen vor, in den Pfadintegralen nur geschlossene Raumzeiten ohne dreidimensionale Ränder zu berücksichtigen (kompakte euklidische Metriken), da diese die dominanten Beiträge liefern würden. Sie nannten dies ihren "no boundary proposal" („ohne Grenzen“ oder „ohne Rand“) und sahen darin eine natürliche Formulierung für Probleme der Quantenkosmologie („Die Randbedingung des Universums besteht darin, dass es keinen Rand hat“). Neben dem Vorschlag von Hawking und Hartle sind auch andere Möglichkeiten diskutiert worden, insbesondere die Tunnellösung von Alexander Vilenkin (1982), der Entstehung eines Universums aus dem "Nichts". Ursprünglich favorisierte Hawking aufgrund seiner Theorie geschlossene Universen, in den 1990er Jahren zeigte er aber mit Neil Turok, dass auch offene inflationäre Universen als Lösung im "no boundary proposal" möglich sind. Der euklidische Pfadintegral-Zugang zur Quantenkosmologie ist wegen des Übergangs von Minkowski-Metriken, wie sie eigentlich in der Natur realisiert sind, zu euklidischen Metriken außerhalb der Hawking-Schule, die konsequent daran festgehalten hat, umstritten. Hawking ist Mitglied auf Lebenszeit bei der Päpstlichen Akademie der Wissenschaften. „The Black Hole Information Loss Problem“. Auf der 17. „General Relativity“ Konferenz in Dublin 2004 kündigte Hawking an, das "Problem des Informationsverlusts Schwarzer Löcher" gelöst zu haben, dies stieß aber auf Kritik. Das Problem besteht darin, dass Schwarze Löcher, die nur durch wenige Quantenzahlen beschrieben werden, aber Materie (Informationen) „verschlucken“ und nur, wie Hawking gezeigt hatte, thermisch strahlen (die einzige „Information“ dabei ist ihre Temperatur und Entropie, die proportional zu ihrer Oberfläche ist), Informationen vernichten, oder anders ausgedrückt in der Quantenmechanik zu einer „nicht unitären“, die Wahrscheinlichkeiten nicht erhaltenden Zeitentwicklung führen. Die Frage ist dann, ob es nicht doch einen Ausweg gibt, der die Informationen erhält. John Preskill hatte mit Hawking 1997 eine Wette abgeschlossen (die neben Hawking auch Kip Thorne hielt), dass es in der Quantengravitation einen solchen Ausweg gibt, Hawking hatte dagegen gehalten. In seiner Rede auf dem Kongress wechselte Hawking seinen Standpunkt und meinte, dass Informationen doch erhalten bleiben, was er mit einer Pfadintegral-Formulierung der Quantengravitation in nicht-trivialen Topologien bewiesen zu haben glaubte. Das Problem spielt eine wichtige Rolle in der Quantengravitation und war dort seit der Formulierung des Problems durch Hawking 1975 Gegenstand kontroverser Debatten. Gegner von Hawking waren zum Beispiel Leonard Susskind und Gerardus ’t Hooft, die im Gegensatz zu Hawking für eine Gültigkeit der Quantenmechanik auch im Bereich Schwarzer Löcher eintraten. Susskind veröffentlichte darüber sogar ein Buch ("The Black Hole War: My battle with Stephen Hawking to make the world safe for quantum mechanics", 2008). Es besteht nach wie vor kein Konsens über die Lösung des Problems. Der bekannte Gravitationstheoretiker Kip Thorne beispielsweise weigerte sich im Gegensatz zu Hawking, den Verlust der Wette anzuerkennen. Populärwissenschaftliche Schriften und Rezeption. 1981 nahm Hawking an einer Kosmologietagung im Vatikan teil, wo er sein Konzept vorstellte, laut dem das Universum keine Grenzen haben solle. In diesem Vortrag stellte er das All zugleich als ein Phänomen dar, das einfach vorhanden ist und dementsprechend keines Schöpfergottes bedarf. 1988 erschien mit "Eine kurze Geschichte der Zeit" das erste populärwissenschaftliche Buch Hawkings, in dem er die Theorien zur Entstehung des Universums, zur Quantenmechanik und zu Schwarzen Löchern darstellt. Das Buch wurde weltweit ein Bestseller und verkaufte sich in Millionenauflage. Als wissenschaftlicher Autor schrieb Hawking zudem weitere erfolgreiche populärwissenschaftliche Werke. Im April 2010 äußerte sich Stephen Hawking über mögliche Risiken, die die Suche nach außerirdischem Leben für die Menschheit haben könnte. Hawking sieht jedoch die Notwendigkeit, den Weltraum zu besiedeln. Privatleben. Während seines Studiums in Oxford begannen die ersten Anzeichen für seine Erkrankung, die sich während seiner Studienzeit 1963 bis 1965 in Cambridge verstärkten. Die Amyotrophe Lateralsklerose (ALS) begann sein Nervensystem zu zerstören. Seine geistigen Fähigkeiten waren davon allerdings nicht betroffen. Die Diagnose veränderte sein Leben und bewirkte einen Motivationsschub. Hawking begann 1965 seine Doktorarbeit bei Dennis Sciama und heiratete Jane Wilde, mit der er drei Kinder bekam. Da seine Hand zu dieser Zeit schon Lähmungserscheinungen zeigte, wurde seine Dissertation von unterschiedlichen Helfern geschrieben. Seit 1968 ist er zur Fortbewegung auf den Rollstuhl angewiesen. Bei einem Besuch des Forschungszentrums CERN in Genf erlitt Hawking 1985 eine Lungenentzündung, die in seinem Zustand lebensbedrohlich war. Es kam zu einer Atemnot, die nur durch einen Luftröhrenschnitt überwunden werden konnte. Seitdem hat Hawking infolge seiner Grunderkrankung auch seine Sprechfähigkeit verloren. 1990 erfolgte die Scheidung von seiner Ehefrau Jane. Danach lebte Hawking mit seiner Pflegerin Elaine Mason zusammen, die er 1995 heiratete. Sie begleitete ihn während seiner Lehr- und Forschungstätigkeit sowie auf Forschungsreisen. 2006 ließen sie sich scheiden. Im Oktober 2008 empfing Papst Benedikt XVI. den Physiker und Kosmologen im Vatikan. Sprachcomputer ("DECtalk DTC01"). Nach seiner Lungenentzündung im Jahr 1985 konnte Hawking nicht mehr sprechen. Zur Verständigung zog er eine Augenbraue hoch, wenn jemand auf den richtigen Buchstaben auf einer Tafel gedeutet hatte. Danach benutzte er einen Sprachcomputer. Mit einem Taster in der Hand konnte er aus einer Liste von Begriffen von einem Bildschirm wählen, die dann an einen Sprachgenerator geschickt wurden. So brachte er es auf bis zu fünfzehn Wörter in der Minute. Inzwischen sind seine Finger zu schwach dafür. Eine Zeit lang wurde ein Infrarotsensor in seiner Brille benutzt, der durch ein Kabel mit dem Sprachcomputer verbunden ist. Der Sensor sendete einen Infrarotstrahl aus, der unterschiedlich reflektiert wird, je nachdem, ob Hawking seinen rechten Wangenmuskel anspannte. Dadurch wurde der Schalter ausgelöst und eine Auswahl auf dem Bildschirm bestätigt. Mittlerweile ist es Hawking nicht mehr möglich, den rechten Wangenmuskel zur Kommunikation zu verwenden. Der Sprachcomputer wurde so modifiziert, dass er Hawkings Befehle durch dessen Augen-Bewegungen erkennt und ausführt. Rezeption in der Populärkultur. In "Angriff der Borg – Teil 1" der Science-Fiction-Serie ' wirkte Hawking auf eigene Bitte hin mit. Er stellte als einzige Person im Star-Trek-Universum sich selbst dar, wobei er in einer Holodecksimulation zusammen mit Data (Brent Spiner), Isaac Newton (John Neville) und Albert Einstein (Jim Norton) Poker spielt – und gewinnt. Die Szene dauert knapp drei Minuten. Als er die Kulissen des Maschinenraums mit dem Warpkern im Zentrum besichtigte, soll er sinngemäß gesagt haben: „Ich arbeite daran“. Bereits zwei Jahre zuvor, in der Episode "Odan, der Sonderbotschafter", trägt eine Fähre der "Enterprise" den Namen "Hawking". Hawking plante auch einen Kinofilm über sich und seine Thesen. Unter dem Titel "Beyond the Horizon" arbeitete er seit 2006 einige Zeit mit Leonard Mlodinow am Drehbuch und wollte selbst die Hauptrolle spielen. Hawking hatte in mehreren Folgen der Zeichentrickserien "Die Simpsons" und "Futurama" Gastauftritte und lieh auch für diese die Stimme seines Sprachcomputers. In der ARD-Sendung "Beckmann" sagte er, dass "Die Simpsons" „das Beste im amerikanischen Fernsehen“ seien. Zudem hatte Hawking in den TV-Serien "Cosmo und Wanda", "Dilbert", "The Big Bang Theory" sowie bei der Show "Monty Python Live (mostly)" (Juli 2014) Gastauftritte. Ebenso wurde er im Londoner Wachsfigurenkabinett "Madame Tussauds" verewigt. In dem Song "Keep Talking" der Gruppe Pink Floyd auf dem Album "The Division Bell" spricht Stephen Hawking mit seinem Sprachcomputer unter anderem den einleitenden Satz. Ursprünglich hatte Hawking die auf dem Album verwendeten Zeilen für einen Werbespot im britischen Fernsehen eingesprochen. Auch auf dem Album "Crack the Skye" der Progressive-Metal-Band Mastodon werden Stephen Hawkings Theorien über das Wurmloch als ein Thema behandelt. In den Büchern der "Hyperion-Saga" von Dan Simmons werden Raumschiffe mit dem sogenannten Hawking-Antrieb auf Überlichtgeschwindigkeit beschleunigt. Eines der Schiffe trägt den Namen "HS Stephen Hawking". Unter dem Titel "Hawking – Die Suche nach dem Anfang der Zeit" gibt es eine TV-Biografie (GB 2004) mit Benedict Cumberbatch in der Hauptrolle. Sie befasst sich mit den Jahren seines Studiums in Oxford – mit der Zeit also, als die ersten Symptome seiner Erkrankung auftauchten und er seine Doktorarbeit begann (1962–1965). "The Theory of Everything" (dt. "Die Entdeckung der Unendlichkeit") aus dem Jahr 2014 ist eine weitere Biographie über diesen Zeitraum, die sich auf die Beziehung zu seiner damaligen Frau Jane Hawking konzentriert. Hawking wird darin von Eddie Redmayne gespielt, der für seine Darstellung Hawkings mit dem "Golden Globe" als "Bester Hauptdarsteller – Drama" und dem "Oscar" als "Bester Hauptdarsteller" ausgezeichnet wurde. Im September 2013 erschien ein Dokumentarfilm über sein Leben mit dem Titel "Hawking – A brief history of mine", an dem Hawking als Drehbuchautor mitgewirkt hat. Der Name des Rappers MC Hawking rührt ebenfalls vom Nachnamen des berühmten Physikers her. Speierling. Der Speierling ("Sorbus domestica" L.) – regional auch Spierling, Sperberbaum, Sperbelbaum, Sporapfel, Spierapfel, Spreigel genannt – ist ein Wildobstbaum aus der Familie der Rosengewächse (Rosaceae). Als Wildgehölz ist der Speierling eine der seltensten Baumarten in Deutschland und wurde hier wegen seines rückläufigen Bestandes 1993 zum Baum des Jahres gewählt. Morphologie. Der sommergrüne Speierling wird freistehend bis etwa 20 m hoch, im Hochwald gelegentlich über 30 m, und kann als Einzelbaum Stammdurchmesser über 100 cm und ein Alter von bis zu 400 Jahren erreichen, in Mitteleuropa allerdings meist deutlich weniger. Der Speierling hat eine rissige, kleinschuppige graubraune Borke und besitzt bis zu 25 cm lange gefiederte Blätter. Von der verwandten Vogelbeere ist er durch seine deutlich größeren Früchte leicht zu unterscheiden. Aus den im Mai geöffneten Blüten entwickeln sich im September/Oktober 2–4 cm große birnen- bis apfelförmige grün-gelbliche Früchte, die sich sonnenseits oft rötlich färben und vollreif schokoladenbraun werden. Sie können nach Größe, Form und Färbung von Baum zu Baum erheblich variieren. Von Vögeln und Säugetieren aufgenommen werden ihre meist je zwei Samen verbreitet. Speierlinge vermehren sich aber in der Natur nur ausnahmsweise generativ durch Samen. Die vegetative Vermehrung durch Wurzelbrut überwiegt. Die Chromosomenzahl beträgt 2n = 34. Vorkommen. Der Speierling ist eine submediterrane Art. Sein Hauptverbreitungsgebiet reicht von Ostspanien über Frankreich, Italien, Balkan bis zur Krim und Kleinasien und Nordwestafrika. In Deutschland kommt der Speierling im sommerwarmen und trockenen Eichen-Hainbuchen-Wald und Flaumeichen-Wald vor. Er ist vor allem im Südwesten zu finden, im Rhein-, Neckar-, Mosel- und Nahetal, im Taunus und in Unterfranken. Im Auftrag der Bundesanstalt für Landwirtschaft und Ernährung (BLE) wurden im Rahmen des Projekts "Erfassung und Dokumentation genetischer Ressourcen seltener Baumarten in Deutschland" in den Jahren von 2010 bis 2013 die Vorkommen von zehn seltenen heimischen Baumarten in den deutschen Wäldern ermittelt. Vom Speierling wurden dabei 2.500 Exemplare in natürlicherweise vorhandenen Beständen (ohne gepflanzte "Feldspeierlinge") erfasst. Die Hälfte aller deutschen Speierlinge findet man in Baden-Württemberg und in Bayern. In Hessen gibt es etwa 400–500 Speierlingsbäume, die 80 Jahre oder älter sind. Zum Beispiel stehen in Kronberg im Taunus 47 alte und über 100 junge Speierlinge. Im Wetteraukreis sind 55 (Stand 2014) Naturdenkmale mit einem oder mehreren Speierlingen ausgewiesen. In Österreich gibt es etwa 500 ausgewachsene Speierlinge, vor allem in Niederösterreich, in Wien und im Burgenland. Aufgrund seiner Seltenheit wurde er in Österreich zum Baum des Jahres 2008 gewählt. Geschichte. Der Speierling wurde bereits von Theophrast (4. Jh. v. Chr.), Plinius (1. Jh.) und Karl dem Großen als Obstgehölz anerkannt. Der Gattungsname Sorbus leitet sich von dem lateinischen Wort "sorba" für Speierling ("Sorbus domestica" L.) und Elsbeere ("Sorbus torminalis" (L.) Crantz) ab, denn Plinius hatte die Elsbeere zu einer Art von Speierling gezählt. Der Speierling wurde seit der Antike als Nahrungsmittel geschätzt. Die Römer sorgten für eine zusätzliche Verbreitung nördlich der Alpen. Auch Karl der Große ließ»"sorbarios"«(Capitulare de villis vel curtis imperii) anbauen, womit wohl Speierlinge gemeint waren. Nutzung. Sowohl des festen schweren Holzes wie auch seiner essbaren, recht gerbstoffhaltigen Früchte wegen war der Speierling im Mittelalter ein wichtiges Kulturgehölz. Heutzutage wird er nur in wenigen Regionen noch oder wieder in Kultur genommen, vorwiegend zum Fruchtgewinn. Der ausgesprochen tanninreiche Saft noch nicht vollreifer Früchte wird mancherorts bei der Herstellung von Apfelwein in geringen Mengen (1 bis 3 %) zugesetzt. Der so gewonnene klare, haltbare und herbe Apfelwein wird auch verkürzt Speierling genannt und gilt als Spezialität im Frankfurter Raum. Dieser "Speierling"-Apfelwein ist nicht allzu häufig und seiner aufwändig vom Baum zu erntenden Zutat halber meist etwas teurer als der Standard. In der Volksmedizin spielten die Früchte wegen ihres Gerbstoffgehalts eine Rolle als adstringierendes Hausmittel bei Magen- und Darmbeschwerden wie Durchfall bzw. Ruhr. Heute werden sie zu Mus und Marmeladen verarbeitet oder vergoren und gebrannt. Der Fruchtertrag ist nicht gering: So trägt der mit einem Stammdurchmesser von anderthalb Metern größte existierende Speierling in Österreich jährlich rund 500 Kilogramm. Die kleinen Früchte machen die Ernte recht mühsam. Der Speierling hat ein sandfarben bis rötliches dem der Elsbeere sehr ähnliches Splintholz und ein oft bräunlich abgesetztes, hartes und zähes Kernholz, mit einem Trockengewicht von 0,88 g/cm³ (Darrdichte) das schwerste europäischer Laubhölzer. Es wird im Werkzeug- wie im Musikinstrumentenbau (Dudelsäcke) geschätzt, zum Schnitzen und Drechseln verwendet, sowie als wertvolles Möbel- und Furnierholz („Schweizer Birnbaum“) gehandelt. Seit mehr als 100 Jahren ist ein starker Rückgang des Speierlings in Europa festzustellen. Der Speierling ist einzeln oder in kleinen Gruppen eine Baumart jener Laubwaldgesellschaften, die bis vor hundert Jahren noch im so genannten Mittelwaldbetrieb bewirtschaftet wurden. Mit dem forstwirtschaftlich forcierten Hochwald unterlag der Speierling im Konkurrenzdruck den durchwachsenden höherwüchsigen Nachbarbäumen. Von den Schädlingen stellt der Schorfpilz die größte Gefahr für den Speierling dar. Der Schorf befällt vor allem die Früchte, Jungpflanzen und Triebe. Zusätzlich setzt der Rindenkrebs dem Speierling zu. Oft wird er als anfällig auf Feuerbrand beschrieben, bisher ist aber im gesamten Verbreitungsgebiet kein einziger Befall bekannt. Schwarzwald. Der Schwarzwald ist Deutschlands höchstes und größtes zusammenhängendes Mittelgebirge und liegt im Südwesten Baden-Württembergs. Er ist die wichtigste Tourismusregion des Bundeslandes und das meistbesuchte Urlaubsziel unter den deutschen Mittelgebirgen. Der Schwarzwald in der naturräumlichen Gliederung Deutschlands Geographie. Meist dicht bewaldet erstreckt sich der Schwarzwald vom Hochrhein im Süden bis zum Kraichgau im Norden. Im Westen wird er begrenzt von der Oberrheinischen Tiefebene (zu der naturräumlich auch die Vorhügelkette gehört), im Osten geht er über in Gäu, Baar und das Hügelland westlich des Klettgaus. Der Schwarzwald ist der höchste Teil der südwestdeutschen Schichtstufenlandschaft und aus Gesteinen des Grundgebirges und des Buntsandsteins aufgebaut. Die naturräumliche Abgrenzung von den umgebenden Landschaften orientiert sich am Auftreten des Muschelkalks, der innerhalb des Schwarzwalds fehlt. Diese Linie ist aufgrund der vom Gestein abhängigen Bodenfruchtbarkeit gleichzeitig eine Vegetationsgrenze und die Grenze zwischen Altsiedelland und dem erst im Hochmittelalter dauerhaft besiedelten Schwarzwald. Von Nord nach Süd erstreckt sich der Schwarzwald über etwa 150 km, seine Breite erreicht im Süden bis zu 50 km, im Norden bis zu 30 km. Tektonisch bildet das Gebirge eine Pultscholle, die im Westen aus dem Oberrheingraben imposant herausgehoben ist, während sie von Osten betrachtet den Eindruck einer waldreichen Hochfläche vermittelt. Naturräume. Geomorphologisch wird vor allem einerseits zwischen der Ostabdachung mit meist gerundeten Bergformen und weiten Hochplateaus (sogenanntes danubisches – donaubündiges – Relief, besonders augenfällig im Norden und Osten auf Buntsandstein) und andererseits dem intensiv zertalten Abbruch zum Oberrheingraben hin (sogenannter Talschwarzwald mit rhenanischem – rheinbündigem – Relief) unterschieden. Dort liegen die höchsten Erhebungen und treten die größten unmittelbaren Höhenunterschiede (bis 1000 m) auf. Die Täler sind meist eng, oft schluchtartig, seltener beckenförmig. Die Gipfel sind gerundet, es kommen aber auch Plateaureste und gratartige Formen vor. Geologisch ergibt sich die augenfälligste Gliederung ebenfalls in ostwestlicher Richtung. Den Ostschwarzwald bedeckt über größere Flächen das unterste Glied des Südwestdeutschen Schichtstufenlandes, der Buntsandstein, mit endlos scheinenden Nadelwäldern und davon umschlossenen Rodungsinseln. Das im Westen freiliegende Grundgebirge, überwiegend aus metamorphen Gesteinen und Graniten aufgebaut, war trotz seiner Steilheit leichter zu besiedeln und erscheint heute mit seinen vielgestaltigen Wiesentälern offen und freundlicher. Die gängigsten Gliederungen teilen den Schwarzwald jedoch in nordsüdlicher Richtung. Zunächst, bis etwa in die 1930er Jahre, wurde der Schwarzwald in Nord- und Südschwarzwald geteilt, wobei man die Grenze an der Kinzigtallinie zog. Später wurde der Schwarzwald in den waldreichen "Nordschwarzwald", den im Mittel niedrigeren, vorwiegend in den Tälern landwirtschaftlich geprägten "Mittleren Schwarzwald" sowie den deutlich höheren "Südschwarzwald" mit ausgeprägter Höhenlandwirtschaft und von eiszeitlichen Gletschern geprägtem Relief aufgeteilt. Der Begriff "Hochschwarzwald" stand für die höchsten Bereiche von Südschwarzwald und südlichem Mittelschwarzwald. Die gezogenen Grenzen waren jedoch sehr verschieden. Robert Gradmann nannte 1931 als Mittleren Schwarzwald den Einzugsbereich der Kinzig und dazu im Westen den Abschnitt bis zur unteren Elz und zum Kinzig-Zufluss Gutach. Eine pragmatische Gliederung, die sich nicht an Natur- und Kulturräumen orientiert, nutzt die wichtigsten Quertäler. Ihr zufolge wird der Mittlere Schwarzwald von der Kinzig im Norden und der Linie Dreisam–Gutach (Wutach) im Süden begrenzt, entsprechend der Bonndorfer Grabenzone und dem Verlauf der heutigen B 31. Rudolf Metz fasste 1959 die bisherigen Gliederungen zusammen und schlug selbst eine modifizierte Dreiteilung vor, die natur- und kulturräumliche Ansätze verbindet und weite Verbreitung fand. Sein Mittlerer Schwarzwald wird im Norden von der Wasserscheide zwischen Acher und Rench und im weiteren Verlauf zwischen Murg und Kinzig bzw. Forbach und Kinzig begrenzt, im Süden von der Bonndorfer Grabenzone, die den Schwarzwald im Osten einschnürt wie der Freudenstädter Graben weiter nördlich am Übergang zum Nordschwarzwald. Arbeiten des Instituts für Landeskunde. Das seit den frühen 1950er Jahren von der Bundesanstalt für Landeskunde erstellte Handbuch der naturräumlichen Gliederung Deutschlands nennt den Schwarzwald als eine von sechs Großregionen 3. Ordnung innerhalb der naturräumlichen Großregion 2. Ordnung des Südwestdeutschen Stufenlandes und gleichzeitig eine von neun Haupteinheitengruppen. Er wird in insgesamt sechs sogenannte Haupteinheiten (Landschaften 4. Ordnung) aufgeteilt. Diese Gliederung wurde bis zum Jahre 1967 in mehreren, jeweils einzelne Kartenabschnitte betreffenden Nachfolgepublikationen () verfeinert und modifiziert. Zu den dabei eingeführten Untereinheiten siehe Naturräumliche Gliederung des Schwarzwaldes. Eine Dreiteilung des Gebirges zeichnet sich ebenfalls ab. Die Nordgrenze des Mittleren Schwarzwaldes verläuft hier südlich des Renchtales und des Kniebis bis nahe Freudenstadt. Die Südgrenze wechselte je nach Bearbeitungsstand. Abdachung des Nordschwarzwalds zum Oberrheinischen Tiefland ("Nördlicher Talschwarzwald") Die "Schwarzwald-Randplatten" (150) bilden geomorphologisch zum Kraichgau im Norden und den Heckengäu-Landschaften im Osten abfallende Hochflächen am Nord- und Nordostrand des Mittelgebirges. Sie werden vor allem durch das Flusssystem der Nagold in einzelne Riedel zertalt; ein schmaler Nordwestausläufer reicht bis über die Enz bei Neuenbürg und umsäumt weiter westlich auch den Mittellauf der Alb bis unmittelbar oberhalb Ettlingens. Südwestlich schließen sich unmittelbar "Grindenschwarzwald und Enzhöhen" (151) an den Oberläufen von Enz und Murg an, die das Kernstück des Nordschwarzwaldes darstellen. Den Westen des Nordschwarzwalds bildet der "Nördliche Talschwarzwald" (152) mit dem Mittellauf der Murg um Gernsbach, dem der Oos bis Baden-Baden, dem der Bühlot oberhalb Bühls sowie dem Oberlauf der Rench um Oppenau, deren Austrittstäler aus dem Mittelgebirge alle nach Nordwesten gerichtet sind. Grünlandwirtschaft in Seitentälern der Kinzig, Mittlerer Schwarzwald Der Mittlere Schwarzwald (153) beschränkt sich im Wesentlichen auf das Einzugsgebiet der Kinzig oberhalb Offenburgs nebst Schutter sowie auf das niedrige Bergland nördlich der Elz. Der "Südöstliche Schwarzwald" (154) besteht in der Hauptsache aus den Einzugsgebieten der Oberläufe der Donau-Quellflüsse Brigach und Breg sowie dem der linken Seitentäler der Wutach nördlich Neustadts – und somit aus dem Nordosten des Südschwarzwaldes. Nach Süden und Westen schließt sich der "Hochschwarzwald" (155) an mit den höchsten Schwarzwaldgipfeln um Feldberg und Belchen. Sein Ostteil, der Südliche Hochflächenschwarzwald, ist durch die danubische Richtung geprägt, entwässert jedoch über die Wutach und die Alb zum Rhein. Der Südliche Kammschwarzwald im Westen ist durch vom Rhein her tief eingeschnittene Täler in zahlreiche Kämme aufgelöst. Unmittelbar rechts der Wiese oberhalb Lörrachs hebt sich morphologisch, geologisch und klimatisch noch einmal die flächenmäßig kleine Buntsandstein-Rotliegend-Tafel des "Weitenauer Berglandes" im äußersten Südwesten des Schwarzwaldes von den anderen Teilen des Südschwarzwaldes ab, die in dieser Einteilung ebenfalls zum Hochschwarzwald gerechnet wird. Berge. Mit ist der Feldberg im Südschwarzwald der höchste Berggipfel. Dort liegen auch das Herzogenhorn () und der Belchen (). Allgemein sind die Berge des Süd- oder Hochschwarzwaldes höher als die des Nordschwarzwaldes. Der höchste Schwarzwaldberg nördlich der Linie Freiburg–Höllental–Neustadt ist der Kandel (). Wie auch die höchste Erhebung des Nordschwarzwaldes, die Hornisgrinde (), oder die Südschwarzwälder Aussichtsberge Schauinsland () und Blauen () liegt er nahe am Westrand des Gebirges. Gewässer. Bedeutende Seen natürlichen, glazialen Ursprungs im Schwarzwald sind unter anderem der Titisee, der Mummelsee und der Feldsee. Besonders im nördlichen Schwarzwald finden sich eine Reihe weiterer kleiner Karseen. Zahlreiche Stauseen wie der – früher als Natursee noch kleinere – Schluchsee mit den weiteren Seen des Schluchseewerks, die Schwarzenbachtalsperre, die Talsperre Kleine Kinzig oder die Nagoldtalsperre dienen der Stromerzeugung, dem Hochwasserschutz oder der Trinkwasserversorgung. Entstehung. Seit dem Einbruch des Oberrheingrabens im Eozän wurden der Schwarzwald an der östlichen und die Vogesen an der westlichen Grabenschulter herausgehoben. Im Zentrum sitzt der (miozäne) Kaiserstuhlvulkan. Das mesozoische Deckgebirge wurde in der Folgezeit auf den Höhen bis auf Reste des Buntsandsteins und des Rotliegenden weitgehend abgetragen, während es im Grabeninneren erhalten ist. Im Pliozän setzte eine ausgeprägte, aber ungleichmäßige Aufwölbung ein, die den südlichen Schwarzwald mit dem Feldberg am stärksten erfasste. So liegt heute im nördlichen Teil um die Hornisgrinde die Oberfläche des Grundgebirges wesentlich niedriger. Im mittleren Schwarzwald entstand die tektonische Mulde des Kinzigtals. Das geologische Fundament des Schwarzwalds bildet der kristalline Sockel des variszischen Grundgebirges. Er wird im Osten und Nordosten von Buntsandsteintafeln, dem sogenannten Deckgebirge, überlagert. Am Westrand erstreckt sich zum Oberrheingraben hin eine staffelbruchartig abtreppende Vorbergzone mit Gesteinen des Trias und Jura. Grundgebirge. Im Grundgebirge herrschen Gneis-Gesteine vor (Ortho- und Paragneise, im Süden ebenso Migmatite und Diatexite, z. B. am Schauinsland und Kandel). In diese Gneise drangen im Karbon eine Anzahl von Granitkörpern ein. Zu den größeren gehören der Triberger Granit und der Forbachgranit, der jüngste ist der Bärhaldegranit. Im Süden liegt die Zone von Badenweiler-Lenzkirch, in der paläozoische Gesteine erhalten sind (Vulkanite und Sedimentgesteine), die als eingeschuppte Reste einer Mikrokontinentkollision gedeutet werden. Noch weiter im Südosten (um Todtmoos) liegen im Gneis eine Reihe von exotischen Einschlüssen (Gabbro von Ehrsberg, Serpentinite und Pyroxenite bei Todtmoos, Norit bei Horbach), die möglicherweise Reste eines Akkretionskeils aus einer Kontinentkollision sind. Ebenfalls erwähnenswert sind die Senken im Rotliegend, beispielsweise die Schramberger oder die Baden-Badener Senke, mit teils mächtigen Quarzporphyr- und Tuffdecken (aufgeschlossen zum Beispiel am Felsmassiv Battert bei Baden-Baden). Mächtiges Rotliegend, bedeckt von Buntsandstein, tritt auch im Norden der Dinkelbergscholle auf (in der Geothermiebohrung Basel viele hundert Meter mächtig). Noch weiter im Südosten liegt unter dem Jura der Nordwestschweizer Permokarbontrog. Deckgebirge. Über dem kristallinen Sockel (Grundgebirge) erhebt sich im Nordschwarzwald und in den angrenzenden Teilen des Mittleren Schwarzwaldes das Buntsandstein-Deckgebirge mit markanten Stufen. Widerstandsfähigste Deckschicht auf der Stufenfläche der durch die Murgzuflüsse stark aufgelösten Grindenhöhen und der geschlossenen Enzhöhen ist das verkieselte Hauptkonglomerat (Mittlerer Buntsandstein). Nach Osten und Norden schließen sich die Platten des Oberen Buntsandsteins an (Plattensandsteine und Röttone). Südlich der Kinzig verschmälert sich die Buntsandsteinzone auf einen Randsaum im Osten des Gebirges. Eiszeit und Formgebung. Es gilt als erwiesen, dass der Schwarzwald während der Hochphasen mindestens der Riß- und Würmeiszeit (bis vor rund 10.000 Jahren) stark vergletschert war. Der glaziäre Formenschatz prägt fast den gesamten Hochschwarzwald und den Hauptkamm des Nordschwarzwalds. Ansonsten ist er lediglich in einer Vielzahl von meist nach Nordosten gerichteten Karen augenfällig. Besonders in dieser Exposition führten Schneeanhäufungen auf den sonnen- und windabgewandten Hängen der Gipfelplateaus zur Bildung kurzer Kargletscher, die diese trichterförmigen Mulden versteilten. In ihnen sind, teils durch anthropogene Überhöhung der Karschwelle, noch einige Karseen erhalten wie Mummelsee, Wildsee, Schurmsee, Glaswaldsee, Nonnenmattweiher, Feldsee. Der Titisee bildete sich als Zungenbeckensee hinter einer Gletschermoräne. Klima. Klimatisch hebt sich das Gebirge durch geringere Temperaturen und höhere Niederschläge von den Randlandschaften ab. Regelmäßige Niederschläge während des ganzen Jahres prägen den Mittelgebirgscharakter des Schwarzwalds. Jedoch nehmen die Temperaturen mit zunehmender Höhe nicht etwa gleichmäßig ab und die Niederschläge nicht gleichmäßig zu. Vielmehr steigen die Niederschläge schon in tieferen Lagen und besonders an der niederschlagsreichen Westseite unverhältnismäßig an. Regen- und Schneemengen. Die niederschlagsreichsten Bereiche sind die Höhenregionen um die Hornisgrinde im Nord- sowie Belchen und Feldberg im Südschwarzwald, wo jährliche Niederschlagsmengen von 1800 bis 2100 mm auftreten. Regenreichen atlantischen Westwinden frei ausgesetzt, fallen im Nordschwarzwald trotz geringerer Höhe in etwa gleich viele Niederschläge wie im Südlichen Schwarzwald. Dort wirken die davor liegenden Vogesen als Regenfänger. Auf der nach Osten exponierten Seite des Mittleren Schwarzwalds wird es wieder wesentlich trockener. So liegen die jährlichen Niederschlagsmengen hier teilweise nur bei etwa 750 l/m². Temperaturen und Sonnenscheindauer. Thermisch zeichnen sich die höheren Lagen des Schwarzwalds durch relativ geringe Jahresschwankungen und gedämpfte Extremwerte aus. Gründe sind im Sommer häufig auftretende leichte Winde und eine stärkere Bewölkung. Im Winterhalbjahr führt die häufigere Hochdruckwetterlage auf den Gipfeln zu Sonnenschein, während die Täler in Kaltluftseen unter einer dichten Nebeldecke verschwinden (Inversionswetterlage). Geschichte. In der Antike war der Schwarzwald unter dem Namen "Abnoba mons" bekannt, nach der keltischen Gottheit Abnoba. In der römischen Spätantike findet sich auch der Name "Marciana Silva" („Marcynischer Wald“; von germanisch "marka", „Grenze“). Wahrscheinlich beschrieb der Schwarzwald die Grenze zum Gebiet der östlich des römischen Limes siedelnden Markomannen („Grenzleute“). Diese wiederum gehörten zu dem germanischen Volk der Sueben, von denen sich die späteren Schwaben ableiteten. Die Besiedlung des Schwarzwalds erfolgte mit Ausnahme der Randbereiche (zum Beispiel Badenweiler: Thermen, bei Badenweiler und Sulzburg möglicherweise schon Bergbau) noch nicht durch die Römer, welche allerdings die Kinzigtalstraße schufen, sondern erst durch die Alemannen. Diese besiedelten und kolonisierten zuerst die Talbereiche, indem sie beispielsweise von der Baar aus die ehemalige Siedlungsgrenze, die sogenannte „Buntsandsteingrenze“ überschritten. Bald danach wurden immer höher gelegene Bereiche und angrenzende Wälder kolonisiert, so dass sich bereits Ende des 10. Jahrhunderts erste Siedlungen im Gebiet des Buntsandsteins finden. Dazu gehört beispielsweise Rötenbach, das erstmals 819 erwähnt wird. Einige der Aufstände (unter anderem der Bundschuh-Bewegung), die dem Deutschen Bauernkrieg vorausgingen, gingen im 16. Jahrhundert vom Schwarzwald aus. Ein weiteres Aufbäumen der Bauern fand in den beiden folgenden Jahrhunderten durch die Salpetererunruhen im Hotzenwald statt. Vor allem an Passübergängen finden sich im Schwarzwald Reste militärischer Verteidigungsanlagen aus dem 17. und 18. Jahrhundert. Beispiele sind die Barockschanzen des Markgrafen Ludwig Wilhelm von Baden-Baden oder Einzelanlagen wie die Alexanderschanze, die Röschenschanze und die Schwedenschanze (Zuflucht). Ursprünglich war der Schwarzwald ein Mischwald aus Laubbaumarten und Tannen – siehe Geschichte des Waldes in Mitteleuropa. In den Höhenlagen wuchsen auch Fichtenbestände. Mitte des 19. Jahrhunderts war der Schwarzwald durch die intensive Nutzung fast vollständig entwaldet und wurde danach überwiegend mit Fichtenmonokulturen wieder aufgeforstet. 1990 entstanden große Waldschäden durch die Orkane Vivian und Wiebke. Am 26. Dezember 1999 wütete im Schwarzwald der Orkan Lothar und richtete besonders in den Fichtenmonokulturen Waldschäden von noch größerem Ausmaß an. Wie bereits nach 1990 mussten große Mengen an Sturmholz jahrelang in provisorischen Nasslagern aufbewahrt werden. Reste dieser Lager sind teils immer noch (Stand Dez. 2015) vorhanden. Die Auswirkungen des Sturms demonstriert der "Lotharpfad", ein Waldlehr- und Erlebnispfad am Naturschutzzentrum Ruhestein auf einer vom Orkan zerstörten Hochwaldfläche von rund 10 Hektar. Einige kleinere und auch größere Sturmflächen werden heute sich selbst überlassen und dort entwickelt sich wieder ein natürlicher Mischwald. Bergbau. Hornisgrindeplateau mit Hochmoor (2004), im Hintergrund Sendemast und Windkrafträder Die Grundlage des Bergbaus im Schwarzwald bildeten oft gangförmige Erzlagerstätten. Die Entstehung dieser gangförmigen Lagerstätten (Grube Schauinsland: Zink, Blei, circa 700–1000 g Silber/Tonne Blei; Baryt, Fluorit, wenig Blei und Zink im Kinzigtal; BiCoNi-Erze bei Wittichen, Uran wurde im Krunkelbachtal bei Menzenschwand aufgeschlossen, aber offiziell nie regulär abgebaut) wurden früher oft mit der Intrusion karbonischer Granite in die Para und Orthogneise in Zusammenhang gebracht. Neue Untersuchungen legen nahe, dass diese Gangfüllungen zum guten Teil viel jünger sind (Trias bis Tertiär). Abbauwürdige Fluoritvorkommen gab es im Nordschwarzwald bei Pforzheim, im mittleren Schwarzwald Baryt bei Freudenstadt, Fluorit neben Blei und Silber bei Wildschapbach, Baryt und Fluorit im Rankachtal und bei Ohlsbach, im Südschwarzwald bei Todtnau, Wieden und Urberg. Kleine liquidmagmatische Vorkommen von Nickelmagnetkies in Norit wurden im Hotzenwald bei Horbach und Todtmoos abgebaut oder exploriert. An schichtgebundenen Lagerstätten sind Eisenerze im Dogger der Vorbergzone und ein Uranvorkommen bei Müllenbach/Baden-Baden zu nennen. Vorkommen von Steinkohle existieren zwar bei Berghaupten und Diersburg, waren aber immer nur von lokaler Bedeutung. Zeitlicher Ablauf: Steinzeitlicher Bergbau auf Hämatit (als rotes Pigment) ist bei Sulzburg nachgewiesen. Bereits im 5. und 6. Jahrhundert v. Chr. wurde von den Kelten im Nordschwarzwald Eisenerz gewonnen (beispielsweise in Neuenbürg). Insbesondere im Mittleren Schwarzwald sowie im Südschwarzwald (zum Beispiel im Münstertal) fand vermutlich schon in der Römerzeit Erzbergbau statt (Gewinnung von Silber- und Bleierzen, Hinweise für Sulzburg und möglicherweise Badenweiler). Bis ins frühe Hochmittelalter war der Hochschwarzwald praktisch unbesiedelt. Im Laufe der Binnenkolonisation im späteren Hochmittelalter wurde ausgehend von den dort gegründeten Klöstern (St. Peter, St. Märgen) auch die Hochebene kultiviert. Im späteren Hochmittelalter (ab etwa 1100) erlebte auch der Bergbau wieder einen Aufschwung, insbesondere um Todtnau, im Münster- und Suggental, später auch am Schauinsland. Man nimmt an, dass bis zum Ausgang des Mittelalters etwa 800–1000 Bergleute im Münstertal lebten und arbeiteten. Nach der Pest, die das Tal 1516 heimsuchte, dem Deutschen Bauernkrieg (1524–26) und dem Dreißigjährigen Krieg ging der Bergbau in der Region bis auf wenige Gruben zurück. Ein bedeutenderes Bergbaugebiet war auch das Kinzigtal und seine Seitentäler. Die kleine Bergbausiedlung Wittichen bei Schenkenzell im oberen Kinzigtal hatte zahlreiche Gruben, in denen über Schwerspat, Kobalt und Silber vielerlei abgebaut wurde. Ein geologischer Pfad führt heute noch als Rundweg vorbei an alten Gruben und Abraumhalden. Ein erneuter Aufschwung begann Anfang des 18. Jahrhunderts nach dem Verlust des Elsass an Frankreich. Er dauerte bis in das 19. Jahrhundert. Viele Gruben aus dieser Zeit können heute als Schaubergwerk besichtigt werden, wie beispielsweise die Grube Teufelsgrund (Münstertal), die Grube Finstergrund bei Wieden, der Hoffnungsstollen Todtmoos, das Bergwerk im Schauinsland, die ehemals besonders silberreiche Grube Wenzel in Oberwolfach und Gr. Segen Gottes in Haslach-Schnellingen. Buntmetallbergbau wurde im Schwarzwald bis in die Mitte des 20. Jahrhunderts bei Wildschapbach und am Schauinsland (bis 1954) betrieben, der Bergbau auf Fluorit und Baryt hält in der Grube Clara im Rankachtal in Oberwolfach bis heute an. Eisenerze des Doggers wurden bis in die 70er Jahre des 20. Jahrhunderts bei Ringsheim gefördert und in Kehl verhüttet. Insgesamt sind die im Schwarzwald gewonnenen Silbermengen im Vergleich zum Erzgebirge oder zum Harz eher bescheiden und machen weniger als zehn Prozent der jeweils dort gewonnenen Mengen aus. Grube Frischglück bei Neuenbürg, Grube Hella-Glück bei Neubulach, Grube Silbergründle bei Seebach, Grube Himmlich Heer bei Hallwangen, Grube Heilige Drei Könige bei Freudenstadt, Grube Segen Gottes bei Haslach, Grube Wenzel bei Oberwolfach, Grube Caroline bei Sexau, Silberbergwerk Suggental bei Waldkirch, Grube Schauinsland bei Freiburg, Grube Teufelsgrund bei Münstertal, Grube Finstergrund bei Wieden und Grube Hoffnungsstollen bei Todtmoos. Forstwirtschaft. Über Enz, Kinzig, Murg, Nagold und Rhein wurde während mehrerer Jahrhunderte Holz aus dem Schwarzwald auf dem Wege der Flößerei zur Verwendung im Schiffbau, als Bauholz und für andere Zwecke exportiert. Dieser Wirtschaftszweig boomte im 18. Jahrhundert und führte zu großflächigen Kahlschlägen. Da die langen und gerade gewachsenen Tannen für den Schiffbau meist in die Niederlande geflößt wurden, wurden sie auch als „Holländer“ bezeichnet. Die Stämme dienten in den Niederlanden vor Allem als Pfahlgründung für den Hausbau im sandigen und nassen Untergrund. Bis heute stehen in Amsterdam große Teile des historischen Baubestandes auf diesen Pfählen und im Schwarzwald zeugen Wiederaufforstungen mit Fichtenmonokulturen von der Zerstörung des ursprünglichen Mischwaldes. Aufgrund des Ausbaus des Schienen- und Straßennetzes als alternative Transportmöglichkeiten endete die Flößerei größtenteils mit Ende des 19. Jahrhunderts. Heute werden besonders große Tannen mit bis auf große Höhe astfrei gewachsenem Stamm vor allem nach Japan verschifft. Die Expo 2000 ermöglichte durch den weltweiten Werbeeffekt eine Wiederauferstehung der Stammholzexporte. Die Bedeutung der Holzbestände auch des Schwarzwalds hat in der jüngsten Vergangenheit aufgrund des zunehmenden Bedarfs an Holzpellets zu Heizzwecken wieder stark zugenommen. Glasherstellung, Köhlerei und Pottaschegewinnung. Der Holzreichtum des Schwarzwalds lieferte die Grundlage für weitere Wirtschaftszweige, die heute weitgehend verschwunden sind. Köhler errichteten in den Wäldern ihre Meiler und stellten Holzkohle her, die ebenso wie die Erzeugnisse der Pottasche-Sieder unter anderem in der Glasherstellung weiterverarbeitet wurde. Für das Waldglas lieferte der Schwarzwald Rohstoffe und Energie. Davon zeugen noch heute einige Glasbläsereien z. B. im Höllental, bei Todtnau und in Wolfach und das "Wald-Glas-Zentrum" in Gersbach (Schopfheim), die besichtigt werden können. Feinwerktechnik, Uhren- und Schmuckherstellung. a>werkstatt in einer Stube (Postkarte um 1900) In den schwer zugänglichen Schwarzwaldtälern setzte die Industrialisierung erst spät ein. Viele Bauern stellten im Winter Kuckucksuhren aus Holz her. Daraus entwickelte sich im 19. Jahrhundert die feinmechanische und die Uhrenindustrie, die mit der Erschließung vieler Schwarzwaldtäler durch die Eisenbahn zu großer Blüte kam. Der anfängliche Standortnachteil, der zur Entwicklung des feinmechanischen Holzhandwerks führte, wurde mit dem Zugang zum Rohstoff Metall zu einem Wettbewerbsvorteil. Im Rahmen einer Strukturförderung gründete außerdem die badische Landesregierung im Jahr 1850 in Furtwangen die erste deutsche Uhrmacherschule, um den kleinen Handwerkern eine gute Ausbildung zu garantieren und damit die Absatzchancen zu steigern. Durch den steigenden Bedarf an mechanischen Geräten entstanden große Firmen wie Junghans und Kienzle. Im 20. Jahrhundert entwickelte sich die Produktion der Unterhaltungselektronik durch Firmen wie SABA, Dual und Becker. In den 1970er Jahren ging die Industrie auf Grund fernöstlicher Konkurrenz zurück. Bis heute ist der Schwarzwald ein Zentrum der metallverarbeitenden Industrie und Standort vieler Hochtechnologie-Firmen. In Pforzheim finden sich seit den Anfängen der Industrialisierung bis heute zahlreiche Unternehmen der Schmuckfabrikation, die Edelmetalle und Edelsteine verarbeiten. Ebenfalls in Pforzheim beheimatet ist die dort ansässige Goldschmiedeschule. Wasserkraftnutzung. Aufgrund der großen Niederschlagsmengen und Höhenunterschiede besitzt der Schwarzwald ein bedeutendes Wasserkraftpotential. Es diente bis ins 19. Jahrhundert vor allem zum Betreiben zahlreicher Mühlen, darunter Sägemühlen und Hammerwerke, und war anschließend einer der Standortfaktoren bei der Industrialisierung einiger Schwarzwaldtäler. Seit dem 20. Jahrhundert wird im Schwarzwald mit Laufwasser- und Pumpspeicherkraftwerken im größeren Maßstab elektrischer Strom erzeugt. Von 1914 bis 1926 entstand im Nordschwarzwälder Murgtal das Rudolf-Fettweis-Werk mit der Schwarzenbachtalsperre. Der Schluchsee wurde 1932 mit seiner neu errichteten Staumauer zum Oberbecken eines Pumpspeicherkraftwerks. Zum Verbund des Südschwarzwälder Schluchseewerks gehören im Jahr 2013 fünf Kraftwerke mit 14 Speicherbecken. Beim Hornbergbecken ermöglichen die topographischen Gegebenheiten eine mittlere Fallhöhe des Wassers von 625 m zum Antrieb der Turbinen, bevor dieses in die Wehratalsperre fließt. Infolge des Erneuerbare-Energien-Gesetzes wurden im beginnenden 21. Jahrhundert zahlreiche kleinere Laufwasserkraftwerke wieder in Betrieb genommen oder neu errichtet. Tourismus und Verkehr. Weite Teile des Schwarzwalds leben heute hauptsächlich von der Tourismusbranche. Die Schwarzwald Tourismus GmbH rechnete mit rund 140.000 direkten Vollarbeitsplätzen im touristischen Sektor und rund 34,8 Millionen touristischen Übernachtungen im Jahr 2009. Im Frühjahr, Sommer und Herbst ermöglichen ausgedehnte Wanderwegrouten und Mountainbikestrecken verschiedenen Zielgruppen die Nutzung des Naturraumes. Im Winter stehen natürlich die Wintersportarten im Vordergrund. Sowohl Ski Alpin als auch Ski Nordisch kann vielerorts betrieben werden. Touristische Ziele. Die am stärksten frequentierten touristischen Ausflugs- und Erholungsziele im Schwarzwald sind der Titisee und der Schluchsee. Beide Seen bieten die Möglichkeit, Wassersportarten wie Tauchen und Windsurfen zu betreiben. Von Freiburg kommend werden diese Seen über die B 31 durch das Höllental erreicht, vorbei am Hirschsprung-Denkmal an dessen engster Stelle, und an der Oswald-Kapelle unterhalb der Ravennaschlucht. Ein vielbesuchtes städtisches Ziel ist Baden-Baden mit seinen Thermalbädern, der Spielbank und den Festspielen. Weitere Thermalbäder sind Badenweiler, Bad Herrenalb, Bad Wildbad, Bad Krozingen, Bad Liebenzell oder Bad Bellingen. Sehenswerte Orte sind unter anderem die alte Reichsstadt Gengenbach, die ehemalige Kreisstadt Wolfach, Schiltach und Haslach im Kinzigtal (beide an der deutschen Fachwerkstraße) und das Blumen- und Weindorf Sasbachwalden am Fuße der Hornisgrinde. Sehenswerte Altstädte bieten ebenso Altensteig, Dornstetten, Freiburg im Breisgau, Gernsbach, Villingen und Zell am Harmersbach. Baiersbronn glänzt als Zentrum der Spitzengastronomie, Freudenstadt ist um den größten Marktplatz Deutschlands gebaut. Prächtig ausgestattet sind das ehemalige Benediktinerkloster St. Blasien sowie die Klöster Sankt Trudpert, St. Peter und St. Märgen. Im Hirsauer Baustil aus Buntsandstein errichtet wurde das Kloster Alpirsbach sowie die Klosterruine Hirsau. Eine ländliche Idylle ist das Kloster Wittichen bei Schenkenzell. Das Murgtal, das Kinzigtal, die Triberger Wasserfälle und das Freilichtmuseum Vogtsbauernhof werden häufig besucht. Aussichtsberge sind neben dem Feldberg vor allem der Belchen, der Kandel und der Schauinsland sowie im Nordschwarzwald die Hornisgrinde, der Schliffkopf, der Hohloh, der Merkur und die Teufelsmühle. Bekannte Wintersportgebiete liegen um den Feldberg, bei Todtnau mit der FIS-Ski-Alpin-Strecke „Fahler Loch“ und in Hinterzarten, einer Hochburg und Talentschmiede der deutschen Skispringer. Im Nordschwarzwald konzentrieren sich die Wintersportgebiete entlang der Schwarzwaldhochstraße und auf dem Höhenzug zwischen Murg und Enz um Kaltenbronn. Die Höhenunterschiede des Gebirges werden vielerorts von Drachen- und Gleitschirmfliegern genutzt. Wanderwege. Im Schwarzwald finden sich sehr verschiedenartige Wanderwege, teilweise von überregionaler Attraktivität. Grundgerüst ist ein Fernwanderwegesystem mit Längs- und Querwegen, das vor allem zu Beginn des 20. Jahrhunderts seitens des Schwarzwaldvereins aufgebaut wurde. Der bekannteste davon ist der recht steigungsintensive "Westweg". Nach 1950 wurden, dem geänderten Bedarf folgend, Rundwanderwege ausgewiesen, zunächst vom relativ dichten Bahnstreckennetz aus, später überwiegend von eigens angelegten Wanderparkplätzen aus. Aktuell werden spezielle, stärker erlebnisorientierte Themenwege angelegt, teils als konzipierte Anlage "(Barfußpark Dornstetten, Park mit allen Sinnen" in Gutach), teils unmittelbaren Naturkontakt erschließend "(Schluchtensteig)." Straßen und allzu breite Forstwege werden dabei konsequenter gemieden als bisher. Museen. Das Freilichtmuseum Vogtsbauernhof in Gutach an der Schwarzwaldbahn bietet mit seinen original wiederaufgebauten Schwarzwaldhäusern Einblicke in das bäuerliche Leben des 16. und 17. Jahrhunderts. Die Gebäude wurden an anderer Stelle abgetragen, die Einzelteile nummeriert und exakt nach Plan im Museum wieder erstellt. Das Deutsche Uhrenmuseum in Furtwangen zeigt einen umfassenden Querschnitt durch die Geschichte der Uhrmacherei und Uhrenindustrie. Aus der Feinmechanik ging im 20. Jahrhundert auch eine ehemals bedeutsame Phonoindustrie hervor; die Geschichte dieser Unterhaltungselektronik wird im Deutschen Phonomuseum in St. Georgen präsentiert. Das Schüttesäge-Museum in Schiltach bietet Informationen und lebendige Geschichte zu den Themen Holzwirtschaft, Flößerei im Kinzigtal sowie Gerberei. Das Schwarzwälder Trachtenmuseum in Haslach im Kinzigtal bietet eine Übersicht über die Trachten des gesamten Schwarzwaldes und der Randgebiete. Ebenfalls in Haslach befindet sich das Hansjakob-Museum und das Hansjakob-Archiv mit zahlreicher Exponate des Schriftstellers, Pfarrers, Politikers, Historikers und Chronisten Heinrich Hansjakob. Das MiMa Mineralien- und Mathematikmuseum in Oberwolfach beherbergt Mineralien und Bergbauzeugnisse aus dem gesamten Schwarzwald und verbindet sie mit mathematischen Erklärungen. Straßenverkehr. Mehrere touristisch interessante Straßen führen durch den Schwarzwald. Bekannte Ferienstraßen sind die Schwarzwaldhochstraße (B 500) oder die Deutsche Uhrenstraße. Insbesondere für den West-Ost-Durchgangsverkehr stellt das Gebirge ein Hindernis dar. Planungen für Autobahntrassen durch den Schwarzwald (siehe Bundesautobahn 84 und Bundesautobahn 86) wurden verworfen. Der Schwarzwald ist aufgrund seiner kurvenreichen Landstraßen ein beliebtes Ziel für Motorradfahrer. Dieser Tourismuszweig wird aufgrund hoher Unfallzahlen und der weitreichenden Lärmbelastung kontrovers gesehen und mit Geschwindigkeitsbegrenzungen und einzelnen Straßensperrungen eingeschränkt. So ist seit 1984 das Befahren der Schauinslandstraße, einer ehemaligen Bergrennstrecke, für Motorradfahrer an den Sommerwochenenden verboten. Bahnverkehr. Der gesamte Schwarzwald wurde schon früh durch die Eisenbahn erschlossen. Im östlichen Teil des Nordschwarzwald durch die Enztalbahn von Pforzheim nach Bad Wildbad, durch die Nagoldtalbahn von Pforzheim über Calw und Nagold nach Horb am Neckar, die Württembergische Schwarzwaldbahn von Stuttgart nach Calw und die Gäubahn Stuttgart–Freudenstadt beziehungsweise dem heutigen Teilstück Eutingen–Freudenstadt. Vom Rheintal aus führen entlang der Täler viele Eisenbahnen in den Schwarzwald. Die Albtalbahn von Karlsruhe nach Bad Herrenalb, die Murgtalbahn von Rastatt nach Freudenstadt, die Achertalbahn von Achern nach Ottenhöfen im Schwarzwald und die Renchtalbahn von Appenweier nach Bad Griesbach. Die badische Schwarzwaldbahn verbindet seit 1873 Offenburg über Hausach, Triberg, St. Georgen, Villingen und Donaueschingen mit Konstanz am Bodensee. Ein Abzweig in Hausach ist die Kinzigtalbahn nach Freudenstadt. In Denzlingen zweigt die Elztalbahn nach Elzach ab, die Höllentalbahn verläuft von Freiburg im Breisgau durch das Höllental nach Donaueschingen, die Münstertalbahn von Bad Krozingen nach Münstertal, die Kandertalbahn von Haltingen in der Nähe von Basel durch das Kandertal nach Kandern und die Wiesentalbahn von Basel nach Zell im Wiesental. Von Titisee an der Höllentalbahn führt die Dreiseenbahn vom Titisee zum Windgfällweiher und zum Schluchsee. Entlang der Grenze zwischen Baden-Württemberg und der Schweiz verbindet die Wutachtalbahn Waldshut-Tiengen mit Immendingen an der Schwarzwaldbahn. Die Strecken haben heute noch einen regen Verkehr oder sind äußerst beliebte Museumseisenbahnen. Verwaltung. Seit Januar 2006 ist die Schwarzwald Tourismus GmbH mit Sitz in Freiburg für die Verwaltung des Tourismus in den 320 Gemeinden im Schwarzwald zuständig. Zuvor gab es vier getrennte Tourismusverbände. Schutzgebiete. Der seit Anfang 2014 bestehende Nationalpark Schwarzwald ist der erste Nationalpark in Baden-Württemberg. Er ist 10.062 Hektar groß und liegt am Hauptkamm des Nordschwarzwalds zwischen Baiersbronn und Baden-Baden. Zwei nach ihm benannte Naturparks umfassen das Gebiet des Schwarzwaldes, der Nord und der Naturpark Südschwarzwald. Sie sollen dazu beitragen, die Landschaft als Kulturlandschaft zu erhalten, die Produkte der einheimischen Landwirte besser zu vermarkten und das Gebiet für den Tourismus besser nutzbar zu machen. Der 394.000 ha große Naturpark Südschwarzwald, der größte Naturpark Deutschlands, schließt den südlichen Teil des Mittleren Schwarzwalds, den Südschwarzwald und angrenzende Gebiete ein. Der Naturpark Schwarzwald Mitte/Nord ist mit 375.000 ha der drittgrößte deutsche Naturpark. Er beginnt im südlichen Teil des Mittleren Schwarzwalds, angrenzend an den Naturpark Südschwarzwald, und nimmt den restlichen Teil des Schwarzwalds nach Norden hin ein. Darüber hinaus liegen im Schwarzwald über 100 Naturschutzgebiete sowie zahlreiche Landschafts-, Wald- und Vogelschutzgebiete. Das Naturschutzgebiet Feldberg ist das älteste und mit 4227 ha Fläche vor dem Gletscherkessel Präg auch das größte Naturschutzgebiet in Baden-Württemberg. Kultur. Der größtenteils sehr ländlich geprägte Schwarzwald besteht aus vielen verstreuten Gemeinden und wenigen großen Städten. Tradition und Brauchtum werden vielerorts gepflegt. Zum Teil werden heute noch, meist zu festlichen Anlässen, die traditionellen Trachten getragen. Das Aussehen der Trachten variiert von Region zu Region zum Teil sehr stark. Eine der bekanntesten Schwarzwälder Trachten ist diejenige der Gemeinden Kirnbach, Reichenbach und Gutach im Kinzigtal mit dem charakteristischen Bollenhut. Unverheiratete Frauen tragen ihn mit roten „Bollen“, verheiratete mit schwarzen. Heiratsfähige Frauen tragen bisweilen vor und am Hochzeitstag eine Brautkrone, den so genannten Schäppel, dessen größte Exemplare aus der Stadt St. Georgen bis zu fünf Kilogramm schwer sind. Bekannt ist der Schwarzwald ferner für die typischen Bauernhäuser mit ausladenden Krüppelwalmdächern, die Schwarzwälder Kirschtorte, den Schwarzwälder Schinken, den Schwarzwaldwichtel, Kirschwasser und die Kuckucksuhr. Die landschaftliche Schönheit sowie das Traditionsbewusstsein seiner Bewohner hat schon im 19. Jahrhundert und beginnenden 20. Jahrhundert zahlreiche Künstler angezogen, die über ihre Werke den Schwarzwald in der ganzen Welt bekannt machten. Vor allem der aus Bernau stammende Hans Thoma sowie sein vom badischen Großherzog Friedrich I. (Baden) geförderter Studienkollege Rudolf Epp malten zeitlebens Motive aus dem Schwarzwald. Der Maler J. Metzler aus Düsseldorf bereiste den Schwarzwald zum Malen von Landschaften. Weite Verbreitung fanden die Werke der Gutacher Malerkolonie um Wilhelm Hasemann, deren Landschafts- und Genremotive das Bild des Schwarzwalds prägten. Wie der Heimatschriftsteller Heinrich Hansjakob waren sie Teil einer badischen Volkstrachtenbewegung. Im Kunsthandwerk nimmt die Holzschnitzerei eine bedeutende Rolle ein, die nicht nur volkstümliche Werke wie die Longinuskreuze, sondern auch berühmte Bildhauer wie Matthias Faller hervorbrachte. Der Schwarzwald in Literatur und Film. Die "Schwarzwälder Dorfgeschichten" (1843) von Berthold Auerbach erschienen in zahlreichen europäischen Ländern und begründeten maßgeblich die Erzählgattung der Dorfgeschichte. Ein sehr bekanntes Werk, das den Schwarzwald thematisiert, ist auch Wilhelm Hauffs Märchen "Das kalte Herz", das 1827 als Teil der Erzählung "Das Wirtshaus im Spessart" in Hauffs „Märchenalmanach auf das Jahr 1828“ erschien. Bereits seit den 1920er Jahren wurden im Schwarzwald zahlreiche Filme produziert. Den Auftakt bildete 1920 die erste Verfilmung der überaus erfolgreichen Operette Schwarzwaldmädel von Leon Jessel. Besonders seit der vierten Verfilmung von 1950, die die Heimatfilmwelle einläutete, bot der Schwarzwald die malerische Kulisse für etliche Kino- und Fernsehproduktionen der Nachkriegszeit, darunter Schwarzwaldmelodie mit Gardy Granass, Schwarzwälder Kirsch mit Marianne Hold und Dietmar Schönherr, sowie "Schwarzwaldfahrt aus Liebeskummer" mit Roy Black. Erfolgreiche Fernsehserien waren "Der Forellenhof" (1965), in den 1980er Jahren "Die Schwarzwaldklinik", seit 1994 "Die Fallers – Eine Schwarzwaldfamilie" sowie im Jahr 2002 die Dokumentation "Schwarzwaldhaus 1902". Hausschwein. Das Hausschwein ist die domestizierte Form des Wildschweins und bildet mit ihm eine einzige Art. Es gehört damit zur Familie der Echten Schweine aus der Ordnung der Paarhufer. In einigen Teilen der Welt gibt es freilebende Schweinepopulationen, die aus verwilderten Hausschweinen hervorgingen. Schweine sind Allesfresser; sie fressen sowohl tierische als auch pflanzliche Nahrung. Das Hausschwein ist eines der am frühesten domestizierten Haustiere in der menschlichen Zivilisationsgeschichte und wird seit vermutlich 9000 Jahren zur Fleischerzeugung gehalten. In Europa und Ostasien ist Schweinefleisch die am häufigsten gegessene Fleischsorte. Die Domestizierung erfolgte in unterschiedlichen Weltregionen unabhängig voneinander. Die Schweinehaltung geschieht heute überwiegend in größeren Anlagen. Benennung. Das weibliche Schwein heißt "Sau" (nds. "Mutte") und das männliche wird "Eber" genannt. Jungtiere nennt man "Ferkel". "Spanferkel" sind Ferkel, die noch am "Span," der Zitze saugen "(spänen)". Bis zum Gewicht von 25 kg sind es "Ferkel," zwischen 25 und 50 kg "Läufer". Kastrierte männliche Tiere werden "Borg" oder "Altschneider" genannt. "Endstufeneber" bezeichnet zur Züchtung verwendete männliche Schweine, wenn in einem Zuchtprogramm mehrere Zuchtstufen verwendet werden. Der Endstufeneber ist der Vater des angestrebten Endproduktes. Als "Leersau" wird eine Muttersau in der Zucht bezeichnet, an der keine Ferkel mehr saugen, die aber noch nicht wieder tragend ist, das heißt neu besamt oder gedeckt wurde. Heranwachsen. Bei Schweinen beträgt die Trächtigkeitsdauer etwa 112 bis 114 Tage (drei Monate, drei Wochen, drei Tage), der anschließende Geburtsvorgang wird "Ferkeln" oder auch "Abferkeln" genannt. Bei neugeborenen Ferkeln kann man bei ursprünglichen Rassen noch die Zeichnung erkennen, die bei Frischlingen so typisch ist. Wenn sie etwa sechs Monate alt sind, bzw. etwa 100 kg Lebendgewicht haben, sind die Tiere schlachtreif. Schweine können, wenn sie nicht geschlachtet werden, etwa zehn Jahre alt werden. Gesundheit. Schweine können nicht schwitzen. Viele Schweinerassen sind stressanfällig und können auch ähnliche Herz- und Kreislaufkrankheiten entwickeln wie der Mensch. Sie werden deshalb auch als Labor- und Versuchstiere gehalten. Physiologisch sind sich Schwein und Mensch sehr ähnlich. Das betrifft nicht nur die ähnlichen Krankheitsausprägungen, sondern z. B. auch die Struktur und Beschaffenheit von Fleisch und Fettgewebe. In der Gerichtsmedizin z. B. werden Stich- und Schussverletzungen an frischgeschlachteten Schweinen nachgestellt. Rassen. Heute gibt es eine Vielzahl von Schweinerassen. Sie entstanden alle erst in den letzten zwei Jahrhunderten. Bis dahin sorgte die Praxis der Eichelmast dafür, dass sich Hausschweine immer wieder mit Wildschweinen kreuzten. In neuester Zeit wurden sehr kleine Schweinerassen (sogenannte Minischweine) auch als Haustiere ohne kommerzielle Nutzung beliebt. Durch die Intensivierung der Landwirtschaft werden immer weniger Rassen dort genutzt. Die meisten Schweine in den Mastställen sind Gebrauchskreuzungen, die von großen Zuchtunternehmen als sogenannte Hybridschweine vermarktet werden. Haltungsgeschichte. Molekularbiologische Untersuchungen an Haus- und Wildschweinen zeigten, dass sich während der Jungsteinzeit die Domestikation in vielen Gebieten der Erde unabhängig voneinander vollzog. Die Daten machen deutlich, dass bereits domestizierte Schweine aus dem Nahen Osten nach Europa eingeführt wurden. Nach etwa 500 Jahren wurden diese jedoch durch Tiere ersetzt, die von europäischen Wildschweinen abstammen. Die genetischen Untersuchungen zeigten, dass die aus dem Nahen Osten stammenden genetischen Linien allmählich durch die einheimischen Hausschwein-Linien ersetzt wurden. Jungsteinzeit. Erste archäologische Nachweise der Haustierwerdung (Domestizierung) gibt es aus der Zeit vor 9000 Jahren auf dem Gebiet der heutigen Osttürkei. Zu den ältesten Fundorten von Knochen halbdomestizierter Schweine gehören die neolithischen Siedlungen von Jericho (Palästina), Jarmo (Irak), Çatalhöyük und Hallan Çemi (Türkei) sowie Argissa-Margula (Griechenland). Hallan Çemi ist dabei einer der ältesten Fundorte, die auf eine Domestizierung von Schweinen hinweisen. Die Bewohner dieses jungsteinzeitlichen Dorfes aßen überwiegend junge männliche Schweine, und in den archäologischen Funden nehmen Funde von Schweineknochen sogar zu einem Zeitpunkt zu, zu dem die Bewaldung in dieser Region zurückging. Dies wird allgemein dahingehend interpretiert, dass Schweine sich dem Menschen weitgehend angeschlossen hatten und in der Nähe der Siedlung nach Nahrung suchten. Die Schweine, die in Hallan Çemi gegessen wurden, wiesen allerdings noch keine Merkmale auf, die auf eine Domestizierung hinweisen. Dies kann auf die kurze Zeit zurückzuführen sein, in der Hallan Çemi bewohnt war. Die Siedlung wurde nach rund 400 Jahren aufgegeben. Eine längere Siedlungsgeschichte als Hallan Çemi weist Çayönü auf. An diesem Siedlungsplatz lässt sich die Entwicklung von den ersten Rundbauten einer frühen Ackerbaugemeinschaft aus dem 10. Jahrtausend v. Chr. zu einer großen Siedlung mit differenzierter Bebauung im 9. und 8. bis zum Anfang des 7. Jahrtausends nachvollziehen. Ähnlich wie in Hallan Çemi aßen die Bewohner von Çayönü überwiegend jüngere Schweine, und über die Jahrhunderte lässt sich bei diesen Schweinen eine Veränderung der Knochenstruktur nachweisen: Die verzehrten Tiere haben kürzere Schnauzen, die Zähne stehen im Gebiss enger zueinander. Die archäologischen Funde weisen hier darauf hin, dass Schweine sich über eine Zeitdauer von 2000 Jahren allmählich zum Hausschwein entwickelten. Mesopotamien und Altes Ägypten. Bereits im Alten Ägypten und in Mesopotamien zeigt sich eine soziale Differenzierung bei dem Verzehr von Schweinefleisch. Darauf weisen beispielsweise Funde im altägyptischen Dorf Kom el-Hisn hin, dass während des Baus der Chephren-Pyramide um 2550 v. Chr. zu Nahrungsmittellieferungen an diese rund 100 Kilometer weiter südliche liegende Baustelle verpflichtet war. Die Einwohner von Kom el-Hisn zogen dafür Rinder auf, aßen selbst aber nur wenig Rindfleisch. Lediglich die Knochen von alten Mutterkühen und kranken Kälbern wurden in den archäologischen Fundstellen dieses Dorfes gefunden. Fleisch, das von den Dorfbewohnern verzehrt wurde, stammte überwiegend von Schweinen. Das Verhältnis gefundener Rinderknochen zu gefundenen Schweineknochen beträgt 1:25, d.h. für jeden gefundenen Rinderknochen werden 25 Schweineknochen gefunden. Man ist heute der Überzeugung, dass in Kom El-Hisn Schweine in Herden gehalten wurden, die ihr Futter in den Marschen des Nildeltas und den Abfällen des Dorfes fanden. Dass das Dorf Rinder liefern musste, seine Schweine jedoch behalten durfte, liegt an der spezifischen Natur dieses Haustieres. Rinder waren ebenso wie Ziegen und Schafe in der Lage, in der ariden Region auf dem Weg nach Süden ausreichend Nahrung zu finden. Schweine dagegen hätten weder Futter noch den Schatten, auf den sie angewiesen waren, auf dieser Wegstrecke gefunden. Ähnliches zeigen die überlieferten Dokumente der 3. Dynastie von Ur (2114 bis 2004 v. Chr.), dass die zentrale Verwaltung dieses mesopotamischen Reiches zehntausende von Schafen und Kühen von ihren Untertanen einforderte und an Tempel und das Heer weiter verteilte. Schweine dagegen, obwohl gehalten, finden keine Erwähnung. Es ist jedoch gesichert, dass Schweine gehalten wurden: Sowohl in Ägypten als auch Mesopotamien finden sich bis 2000 v. Chr. zahlreiche Belege für eine Schweinezucht, sofern die Dörfer in einer Region liegen, in der ausreichend Regen fiel, um eine Landbewirtschaftung ohne künstliche Bewässerung zu ermöglichen. Funde im Tell Halif, einer archäologischen Fundstelle, die heute im Süden Israels liegt, legen außerdem nahe, dass die Zahl der gehaltenen Schweine in Zeiten schwacher staatlicher Kontrolle anstieg. Insgesamt ging die Zahl der gehaltenen Schweine ab 2000 v. Chr. jedoch stark zurück: Zunehmende Desertifikation machte es zunehmend schwieriger, Schweine in Herden zu halten. Schweine finden sich noch in ärmeren Gebieten der nun größeren Städte, wo sich Schweine vom Unrat der Straßen ernährten, und über die Zeit bildete sich ein Ernährungsmuster, bei dem sich der Verzehr von Schweinefleisch auf die untersten Bevölkerungsschichten begrenzte. Schweine galten im Nahen Osten zunehmend als unrein, was sich unter anderem auch darin manifestiert, dass in den Religionen des Nahen Ostens Schweine, anders als Schafe, Ziegen und Rinder, nicht als Tempelopfer in Frage kamen. Die Speisegesetze, wie sie vermutlich im 8. Jahrhundert v. Chr. im 3. und 5. Buch Mose festgelegt wurden und so die Basis der Jüdischen Speisegesetze legten, haben darin ihren Ursprung. Diese Speisegesetze bestimmten wiederum die des Islam. Griechen und Römer. Darstellung eines Schweineopfers (Epidromos-Maler, um 500 v. Chr.) Sowohl die griechische als auch die römische Kultur der Antike hatten eine Einstellung zum Hausschwein, die sich gänzlich von der des Nahen Ostens unterscheidet. Schweine waren in beiden Kulturen das häufigste Opfertier. In Athen wurden von den Priestern vor jeder öffentlichen Zusammenkunft Frischlinge geopfert, und in Rom waren Schweineopfer bei Abschlüssen von Verträgen, Geburten und Hochzeiten üblich. Zu den Attributen der griechischen Fruchtbarkeitsgöttin Demeter gehört neben Weizenähre, Mohn und Delfin auch das Schwein. Der griechische Held Odysseus ist stolzer Besitzer von Schweineherden und wird bei seiner Rückkehr nach jahrelanger Irrfahrt von dem ihm loyal ergeben gebliebenen Schweinehirten Eumaios empfangen. Die Bedeutung der Schweinehaltung lässt sich auch an den überkommenen Werken aus der römischen Zeit festmachen. Zu den römischen Agrarschriftstellern, die sich mit Fragen der Schweinehaltung auseinandersetzten, zählen insbesondere der spätrepublikanische Autor Varro sowie Lucius Iunius Moderatus Columella und Plinius der Ältere, die in der frühen Kaiserzeit schrieben. "De re coquinaria", das älteste erhaltene Kochbuch aus der Zeit der römischen Antike, bestätigt diese Vorliebe: Gerichte, bei denen Schweinefleisch verwendet wird, sind die häufigsten genannten. Kaiser Augustus, der erste römische Kaiser, war auch der erste, der kostenlose Lebensmittel in Form von Getreide unter der römischen Bevölkerung verteilen ließ. Kaiser Aurelian erweiterte dies um 270 n. Chr. durch eine Verteilung von kostenlosem Schweinefleisch. Um 450 n. Chr. erhielten rund 140.000 Bürger Roms über die fünf Wintermonate jeweils fünf Pfund Schweinefleisch. Die römischen Essgewohnheiten beeinflussten die der benachbarten Regionen: Während in Kampanien in republikanischer Zeit vor allem Rindfleisch verzehrt wurde, näherte sich der Schweinefleischkonsum in der Kaiserzeit dem in Rom an. In Hispanien verdoppelte sich nach der römischen Eroberung der Anteil der verzehrten Schweine. In Britannien, Griechenland, Ober- und Niedergermanien nahm die Schweinezucht dagegen keinen vergleichbaren Aufschwung. Nie Fuß fassen konnte sie in Syrien und Ägypten. Diejenigen der dort stationierten Soldaten, die aus schweinefleischkonsumierenden Regionen kamen, passten sich in der Regel den örtlichen Vorlieben an. Mittelalter. In der Zeit des Mittelalters, das über ein Jahrtausend von etwa 5. Jahrhundert bis zum Ende des 15. Jahrhunderts währte, hatte das Schwein in der Ernährung eine sehr unterschiedliche Bedeutung. Es war zeitweilig ein Fleisch, das nur von einer kleinen Oberschicht verzehrt wurde, während sich der Fleischkonsum der unteren Schichten auf Tiere wie Kühe beschränkte, die das Ende ihres produktiven Lebens erreicht hatten, und entwickelte sich dann zunehmend zu einem Nahrungsmittel der Unterschicht. Hausschweine liefen oft frei in den Städten und Dörfern umher und suchten sich auf den Straßen aus dem Unrat ihr Fressen zusammen. Schlachtzeit für Schweine waren gewöhnlich die Monate November und Dezember, und das Fleisch wurde durch Pökeln, Dörren und Räuchern haltbar gemacht. Dieses Fleisch musste bis mindestens Ostern reichen; der Speck wurde noch im nächsten Sommer verwendet. Schweinetrieb. Kühe, Schafe und Ziegen werden seit Jahrtausenden über lange Distanzen getrieben, weil sie einen natürlich entwickelten Herdentrieb haben, der dies ermöglicht. Sie benötigen außerdem nur Weide und Wasser, um während dieses Viehtriebs Nahrung zu finden. Der Trieb von Schweinen über lange Strecken ist anspruchsvoller, weil die Tiere Schatten benötigen und weniger einfach in Herden zusammengehalten werden können. Der Schweinetrieb ist entsprechend historisch seltener. In Mesopotamien und im Alten Ägypten war die Schwierigkeit, eine Herde von Schweinen über arides Land zu treiben, einer der Gründe, warum Schweine in der zentral gesteuerten Lebensmittelverteilung keine Rolle spielten. Es gibt trotzdem über die Jahrtausende Belege für Schweinetriebe über hunderte von Kilometer. Im römischen Reich dagegen war man darauf angewiesen, dass Schweineherden über lange Distanzen getrieben wurden, um Rom mit Schweinefleisch zu versorgen. Die Schweine kamen aus den bewaldeten Regionen Kampaniens, Samniums und Lucianas. Die Schweine verloren während des Triebes erheblich an Gewicht, so dass zusätzliche Mittel bereitgestellt werden mussten, um diesen Gewichtsverlust auszugleichen. In der Neuzeit hatte der Schweinetrieb vor allem in den jungen Vereinigten Staaten eine große Bedeutung. Der Historiker Essig schätzt ihn als nicht weniger bedeutend ein als den Rindertrieb von Texas nach Kansas. Bei diesem Viehtrieb wurden zwar jährlich bis zu 600.000 Rinder langsam nach Norden getrieben, das aber hatte eine Bedeutung nur über einen Zeitraum von 15 Jahren. Die Einführung des Stacheldrahts führte innerhalb sehr kurzer Zeit dazu, dass er nicht mehr wirtschaftlich möglich war. Beim Schweinetrieb in den Vereinigten Staaten wurden dagegen in Hochzeiten mehrere hunderttausend Schweine nach Südosten getrieben, und einige der Routen bestanden über fast ein Jahrhundert. Vorurteile. Schweine werden in der Umgangssprache regelmäßig als dumm und dreckig bezeichnet. Verschiedene Untersuchungen legen weder das eine noch das andere nahe. Schweine, die in ausreichend weitläufigen Ställen gehalten werden, nutzen generell eine Ecke als Kotecke. Ihr Suhlen in feuchtem Schlamm ist eine angeborene Verhaltensweise, die der Reinigung dient, bei hohen Temperaturen ihre Körpertemperatur senkt und sie vor Sonnenbrand schützt. Schweine haben keine Schweißdrüsen. Auch das Vorurteil geringer Intelligenz trifft auf Schweine nicht zu. Untersuchungen an der Pennsylvania State University haben ergeben, dass Schweine mit einem Joystick im Maul an einem Monitor Erkennungsaufgaben sehr gut lösen können. Man geht davon aus, dass ihre kognitiven Fähigkeiten durchaus mit denen mancher Primaten vergleichbar sind. Es gibt immer wieder Berichte über Schweine, die vergleichsweise hohe Intelligenz zeigen. Das Schwein in der Religion. Im Judentum und im Islam gilt Schweinefleisch als unrein und darf nicht gegessen werden. Als Ursprung dieser Speisegesetze gilt die in Mesopotamien und im Alten Ägypten entstandene Einordnung des Schweines als unreines Tier, die etwa im 8. Jahrhundert im 3. und 5. Buch Mose kodifiziert wurde und darüber auch die Speisegesetze des Islams prägte. Die Theorie, dass die Trichinellose der ausschlaggebende Grund für das Verbot des Schweinefleischverzehrs war, gilt heute einhellig als überholt. Sie kam nach 1859 auf, als Wissenschaftler den Zusammenhang zwischen "Trichinella spiralis" und rohem oder nicht durchgekochtem Schweinefleisch bewiesen. Es ist nicht gesichert, dass dieser Parasit im antiken Palästina überhaupt existierte, und wegen der langen Dauer zwischen dem Verzehr von infiziertem Schweinefleisch und einer Erkrankung gilt es als weitgehend ausgeschlossen, dass dieser Schluss gezogen wurde und zu dem Verbot führte. Die Speisegesetze haben zur Folge, dass für etwa ein Viertel der Weltbevölkerung der Verzehr von Schweinefleisch untersagt ist. Für das Judentum entwickelten sich die Speisegesetze zu einem identitätsstiftenden Merkmal. Das Judentum hatte seit 70 n.Chr. kein religiöses Zentrum und keinen eigenen Staat mehr. Die Rabbinen schufen allein mit der Halacha, dem Religionsgesetz, die Voraussetzung dafür, dass sich Juden, egal in welchem Land sie lebten, egal welche Sprache ihre Muttersprache war, als ein zusammengehöriges „Volk“ verstehen konnten. Ein religiöses Verbot von Schweinefleisch gilt auch in der äthiopisch-orthodoxen Kirche und für Hindus mit Ausnahme der unteren Kasten. Anzahl der gehaltenen Schweine. Kastenstände mit Sauen in der Intensivtierhaltung Schönbuch. Der Schönbuch ist ein fast vollständig bewaldetes Gebiet südwestlich von Stuttgart im Keuperbergland des südwestdeutschen Schichtstufenlands. Im Jahr 1972 wurde sein Kerngebiet zum ersten Naturpark in Baden-Württemberg erklärt. Dieser 156 km² große Naturpark wird heute meist einfach als "Schönbuch" bezeichnet, wohingegen für das ursprünglich so genannte, umfassendere Gebiet zur Unterscheidung jetzt meist die Bezeichnung "Schönbuchregion" verwendet wird. Der höchste Punkt des Schönbuchs liegt auf dem hohen Bromberg. Der Naturpark Schönbuch ist heute ein wichtiges Naherholungsgebiet für die Region Stuttgart. Er wird von verhältnismäßig wenigen öffentlich befahrbaren Straßen erschlossen. Viele anderswo in dieser Region selten gewordene Pflanzen und Tiere halten sich hier. Vom Bund Deutscher Forstleute wurde dem Schönbuch im Jahr 2014 der Titel "Waldgebiet des Jahres" verliehen. Geographische Lage. Die Grenzen der Schönbuchregion sind nur vage bestimmt, während das Gebiet des Naturparks genau festgelegt ist und nebenstehender Karte entnommen werden kann. Im Süden, Westen und Osten decken sich die Grenzen von Naturpark und Region in etwa, wobei jedoch die Region teilweise die Städte und Gemeinden an dessen Rand mit umfasst. Die südliche Begrenzung ziehen die Täler von Ammer und Neckar. Die westliche Grenze liegt nach üblicher Auffassung am Übergang zur Ebene des Gäu, die östliche wo das Filderplateau beginnt. Im Norden wird zur Region noch das Siebenmühlental und die sogenannte Schönbuchlichtung mit den umgebenden Wäldern gerechnet. In der Schönbuchlichtung liegen die Ortschaften Altdorf, Hildrizhausen, Holzgerlingen, Weil im Schönbuch, Schönaich, Steinenbronn, Dettenhausen und Waldenbuch. Der Naturpark ist das größte zusammenhängende Waldgebiet der Region Stuttgart. Seine Grenzen wurden durch die Naturparkverordnung im Jahr 1974 festgelegt. Er erstreckt sich etwa 25 Kilometer weit von Osten nach Westen und 10 Kilometer weit von Norden nach Süden. Der Naturpark Schönbuch liegt zu großen Teilen in den Landkreisen Böblingen und Tübingen, zu kleineren in den Landkreisen Esslingen und Reutlingen. Nur der Ort Bebenhausen liegt innerhalb der Naturparkgrenzen. Weitere Anrainerorte neben den Orten der Schönbuchlichtung sind (im Uhrzeigersinn) Aichtal, Schlaitdorf, Walddorfhäslach, Pliezhausen, Kirchentellinsfurt, Tübingen, Ammerbuch, Herrenberg, Nufringen und Gärtringen. Bäche, Täler und Erhebungen. >tal in Richtung Südosten, kurz vor der Teufelsbrücke Die größten Täler des Schönbuchs sind das Goldersbachtal im Westen und das Schaichtal im Osten. Wie die meisten größeren Täler des Schönbuchs verlaufen diese in West-Ost-Richtung. Von Westen her bilden die Quellflüsse "Lindach" und "Fischbach" an der "Neuen Brücke" den "Großen Goldersbach". Auf den nächsten sechs Kilometern hat sich der Große Goldersbach bis zu 150 m tief zwischen den beiden höchsten Erhebungen des Schönbuchs eingegraben, dem großflächigen Bromberg () im Norden und dem "Steingart" () im Süden und zudem erhebt sich im Ostteil des Schönbuchs der wuchtige Betzenberg (). An der "Teufelsbrücke" schließlich vereint sich der Große Goldersbach mit dem von Norden kommenden "Kleinen Goldersbach" und biegt hier Richtung Süden ab. Nach zwei weiteren Kilometern mündet von Westen her der "Arenbach" aus dem nach ihm benannten Tal ein. Wenig später, kurz vor der Mündung in die Ammer, mündet von Nordosten her kommend noch der "Kirnbach" in den "Goldersbach". Das Kirnbachtal, das bereits dem östlichen Teil des Schönbuchs zuzurechnen ist, ist eines der weiteren bekannten Täler des Schönbuchs, vor allem aufgrund seiner geologischen Besonderheiten und des dort beginnenden Geologischen Lehrpfads Kirnberg. In der Nähe des "Eseltritts" am Nordhang des Brombergs entspringt die Schaich. Ab dem nahegelegenen "Schaichhof" bildet sie ein Tal, das auf den nächsten Kilometern der nördlichen Begrenzung des Naturparks entspricht. Ab Dettenhausen Richtung Osten verläuft die Schaich wieder mitten im Naturpark und stellt dort eines der landschaftlich reizvollsten Täler dar. Der bewaldete Höhenrücken des "Betzenbergs" trennt hier die Täler von Aich und Schaich, bevor diese beiden nach Osten fließenden Bäche sich im weiten Talkessel von Neuenhaus am Ostrand des Schönbuchs vereinen, um die letzte Wegstrecke im unteren Aichtal bis zur Mündung im Neckar gemeinsam zurückzulegen. Die im Nordwesten des Schönbuchs aus zwei Quellbächen entstehende Würm entwässert die Region nach Norden. Das breite, aber nur wenig ins Gelände eingeschnittene Würmtal befindet sich dabei schon nicht mehr innerhalb des Naturparks, der Talabschnitt bei Mauren ist landschaftlich dennoch sehr reizvoll, bis die Würm schließlich bei Ehningen auch die Schönbuchregion verlässt. Die Höhenlagen im Schönbuch reichen von im Neckartal bis auf dem Bromberg. Dabei steigt die Landschaft von Nordosten aus der Filderebene sanft an und fällt nach Süden zum Ammer- und Neckartal teilweise sehr steil ab. Verkehr. Der Naturpark Schönbuch wird nur von verhältnismäßig wenigen Straßen erschlossen. Die Hauptverbindungen durch den Schönbuch sind dabei die B 464, die von Holzgerlingen im Nordwesten bis Walddorfhäslach im Osten durch den Naturpark führt, und die Landesstraße 1208, die frühere Trasse der B 27, die von Dettenhausen bis Lustnau den Schönbuch in Nord-Süd Richtung durchschneidet und in eine West- und Osthälfte teilt. Diese beiden Verbindungen kreuzen sich an der sogenannten "Kälberstelle", einem sowohl von der Lage als auch verkehrstechnisch sehr zentralen Punkt des Schönbuchs. Am Westrand führt die Hildrizhausen und Herrenberg verbindende Landesstraße 1184 ein kurzes Stück durch den Naturpark. Noch weiter im Westen führt der Schönbuchtunnel der A 81 unter dem westlichsten Ausläufer hindurch. Es gibt keine durch den Naturpark Schönbuch führende Eisenbahnstrecke. Über die im Westen vorbeiführende Gäubahnstrecke sind die in der Nähe des Naturparks liegenden Stationen Gärtringen, Nufringen und Herrenberg an das Netz der Stuttgarter S-Bahn angeschlossen. Von Norden her führt die von Böblingen kommende Schönbuchbahn bis Dettenhausen und damit unmittelbar an den Rand des Naturparks heran. Die Bahnstrecke Schönaicher First–Schönaich zweigte von 1922 bis 1959 von dieser ab. Im Süden führt die Strecke der 1999 reaktivierten Ammertalbahn von Herrenberg nach Tübingen am Südrand des Schönbuchs entlang. Klima. Die Lage in Mitteleuropa und die Entfernung des süddeutschen Raums zum Meer sind bestimmend für den Schönbuch und bewirken eine gewisse Kontinentalität des Klimas. Die Jahresdurchschnittstemperatur liegt bei ca. 8,7 °C. Der durchschnittliche Jahresniederschlag liegt zwischen 740 und 770 Millimetern. Das Klima in der Schönbuchregion kann somit als warm, trocken und submontan charakterisiert werden. Das Mikro- und Mesoklima in der Schönbuchregion ist jedoch recht unterschiedlich. Beispielsweise sind die Südhänge am Schönbuchtrauf oberhalb des Ammertals klimatisch besonders begünstigt. Hierzu zählt auch das Naturschutzgebiet um den "Grafenberg", das sich durch edaphisch-trockene Bedingungen auszeichnet und ein Standort für sehr seltene Wärme liebende Pflanzen ist. So wächst an diesem Ort als Besonderheit die Ungarische Platterbse, die hier wegen der Wärmegunst ein Refugium während der Eiszeit fand. Entstehung. Der Schönbuch, zwischen Ostschwarzwald und der Schwäbischen Alb gelegen, ist Teil des Keuperberglands, das wiederum einen Teil des südwestdeutschen Schichtstufenlandes darstellt. Fast alle Gesteine im Schönbuch wurden in der Keuperzeit, der obersten oder jüngsten Epoche der Trias, vor etwa 200 Millionen Jahren durch Gewässer abgelagert. Der "Untere Keuper" entstand dabei im Wesentlichen durch Verlandung des damaligen Meeres. Der "Mittlere Keuper" bildete sich anschließend aus von breiten Flüssen angeschwemmten Gesteinen. Der "Obere Keuper" wiederum entstand am Strand eines Wattenmeeres, das die Schichten des Mittleren Keupers teilweise überflutete. Während der insgesamt 10 Millionen Jahre dauernden Keuperzeit entstanden so diese drei Einheiten, die insgesamt ungefähr 250 Meter Mächtigkeit aufweisen. Die mittlere Schicht untergliedert sich dabei noch in verschieden harte Gips-, Sandstein- und Mergelschichten (siehe Abbildung). Die Keuperzeit endete mit der Überflutung des ganzen Gebiets durch das Jurameer, wobei sich über den Keuperschichten noch die Schichten des Jura ablagerten, von denen aber im Schönbuch bis auf den stellenweise vorhandenen Schwarzjura (Lias α) alle Schichten später wieder abgetragen wurden. Mit dem Ende der Jurazeit vor etwa 140 Millionen Jahren hob sich das Gelände aus dem zurückweichenden Meer und die Ablagerung hörte auf. In der Folgezeit wurden auch die Keuperschichten durch Erosion von Wind und Wasser teilweise abgetragen. Die wechselnde Zusammensetzung der Keuperformationen aus weichem Ton und Mergel sowie hartem Sandstein verliehen dem Schönbuch sein lebhaftes Gepräge mit sanften Kuppen, schroffen Übergängen von den Hochflächen zu den Steilhängen im Süden und den tief eingeschnittenen Tälern der Bäche. Stubensandstein. Auch wenn heute alle Schichten vom Gipskeuper bis zum Schwarzjura den Untergrund des Schönbuchs bilden oder zumindest irgendwo zutage treten, bedeckt der Stubensandstein mit 35 Prozent den größten Anteil seiner Fläche. Die widerstandsfähigen, bis 60 Meter mächtigen Felsbänke bilden im Westen und Südwesten den auffälligen und steilen Trauf. Vor allem für den Westteil des Schönbuchs ist der Stubensandstein landschaftsbestimmend. Die sich aus diesem Stein bildenden Sandböden sind trocken, kalkfrei und mineralstoffarm und daher für die Landwirtschaft ungeeignet. Deshalb wurden diese Flächen kaum gerodet und stellen heute einen großen Teil des Waldbodens des Schönbuchs dar. Der Stubensandstein wurde bereits seit der Römerzeit als Baustein verwendet und auch im Schönbuch abgebaut. Derartige Steinbrüche finden sich beispielsweise in Lustnau, Kayh, Dettenhausen oder am Betzenberg. Aus dem Stubensandstein des Schönbuchs wurden die unterschiedlichsten Gebäude errichtet, wie beispielsweise das Kloster Bebenhausen, die Neckarbrücke in Tübingen, die Esslinger Frauenkirche, die Reutlinger Marienkirche und auch das Ulmer Münster. Der Stubensandstein aus dem Schönbuch hatte sogar überregionale Bedeutung, so wurde bei den Weltausstellungen in London und Paris in der Mitte des 19. Jahrhunderts der „Werkstein vom Betzenberg“ als „bestgeeignet“ ausgezeichnet und war seinerzeit wohl der beliebteste in Europa. Auch am Kölner Dom, dem Münchner Rathaus und dem Schloss Neuschwanstein wurden Stubensandsteine aus dem Schönbuch verbaut. Die Stubensandsteine aus dem Gebiet sind je nach Schicht unterschiedlich empfindlich gegen Verwitterung. So muss der am Kölner Dom verbaute Sandstein aus Schlaitdorf größtenteils ersetzt werden. Geologischer Lehrpfad Kirnberg. Am 466 Meter hohen Kirnberg wurde 1977 anlässlich des fünfhundertjährigen Jubiläums der Eberhard Karls Universität Tübingen der "Geologische Lehrpfad Kirnberg" angelegt. Er beginnt am Eingang des Kirnbachtals rund zwei Kilometer südlich von Bebenhausen. An den Prallhängen des Kirnbachs wurden hier die mittleren und oberen Schichten des Keupers freigelegt. Die Schichtenfolge lässt sich auf ungefähr 4½ Kilometern „durchwandern“, beginnend bei den Unteren Bunten Mergeln im Kirnbachtal, bis der Pfad auf dem Kirnberg bei der Rhätsandsteinschicht endet. Steinzeit und Antike. Vor- und frühgeschichtliche Siedlungsspuren sind im Schönbuch im Unterschied zu anderen Waldgebieten nicht selten. Der früheste Beleg ist eine Klinge aus Jurahornstein, die bei der "Teufelsbrücke" gefunden wurde, deren Datierung auf ungefähr 10.000 v. Chr. bleibt jedoch schwierig. Der Aufenthalt von Nomaden in der Mittelsteinzeit (8.000 bis 5.500 v. Chr.) gilt jedoch als gesichert, vor allem am Schönbuchtrauf bei Herrenberg wurden Rastplätze gefunden. In der Jungsteinzeit entstand in den fruchtbaren Gebieten am heutigen Schönbuchrand eine bäuerliche Kultur mit festen Wohnstätten, wobei die zentralen Gebiete des Schönbuchs unerschlossen blieben. Der undurchdringlich scheinende Urwald wurde in der Hallstattzeit (880 bis 450 v. Chr.) zur Deckung des Holzbedarfs offenbar mehr und mehr gerodet und durch Waldweide weiter zerstört. Aus dieser Zeit stammen auch etwa 300 keltische Grabhügel, wie beispielsweise der "Grabhügel im Lehbühl" bei Schlaitdorf. Im östlichen Teil des Schönbuchs befinden sich drei keltische Viereckschanzen, die der darauf folgenden La-Tène-Zeit zuzuordnen sind. Um 80 n. Chr. wurde der Schönbuch dem Römischen Reich einverleibt, und viele Funde aus dieser Zeit lassen auf eine lebhafte Wirtschaft schließen. Es gab Steinbrüche, Töpfereien und landwirtschaftliche Anwesen. Nach dem Rückzug der Römer mieden die alemannischen Einwanderer zunächst den Schönbuch, so dass der Wald die gerodeten Flächen zurückerobern konnte. Erst im 6. Jahrhundert setzte von Norden ausgehend die Rodung und Besiedlung wieder ein. Lediglich das zentrale Gebiet zwischen Herrenberg und Bebenhausen wurde wohl nie angetastet und bildete später den Kern des landesherrlichen Forstes Schönbuch. Mittelalter und Neuzeit. Seit Mitte des 12. Jahrhunderts herrschten die Pfalzgrafen von Tübingen über wesentliche Teile des Gebiets. Erst die Grafen von Württemberg erwarben im 14. Jahrhundert die alleinige Obrigkeit über den gesamten Schönbuch. Aus dem Spätmittelalter (13. bis 15. Jahrhundert) stammt die Einsiedelei auf dem Bromberg, die auch "ehemalige Kapelle" genannt wird. Im Jahr 1974 wurden die aus dem anstehenden Rhätsandstein aufgeschichteten Mauern einer Kapelle und eines kleinen Wohngebäudes freigelegt. Der Sturm „Lothar“ beschädigte die Überreste der Einsiedelei allerdings sehr stark. Nach einer durch die Eberhard Karls Universität Tübingen im Auftrag des Landesdenkmalamts Baden-Württemberg durchgeführten Untersuchung konnten 2004 die Überreste des Wohngebäudes steingerecht wiederhergestellt werden. Bis zum 19. Jahrhundert diente der Schönbuch nun vor allem als Holzreservoir, aber auch als Viehweide (Hutewald) und als Jagdgebiet. Die Jagd war dabei nur den Herrschern aus dem Hause Württemberg vorbehalten, die Holzgewinnung und die Nutzung als Viehweide hingegen erfolgte durch sogenannte "Schönbuchgenossen". Dabei handelte es sich um rund 70 Gemeinden und Städte der Schönbuchumgebung, die als Gegenleistung Abgaben an Geld, Getreide und Hühnern leisteten. Eine derartige Verwaltung war ungewöhnlich, denn in Württemberg bewirtschafteten gräfliche und herzogliche Beamte den Wald normalerweise im Rahmen der „Forste“, in die das ganze Land eingeteilt war. Das Holz des Schönbuchs wurde vor allem als Bau- oder Brennholz genutzt und diente auch Handwerkern wie Gerbern, Wagnern, Küfern und Pflugmachern als Rohmaterial. Zudem existierten um und im Schönbuch einige Glashütten, die einen unersättlichen Bedarf an Holz hatten und einfach weiter zogen, wenn der Vorrat der näheren Umgebung erschöpft war. Um der ausufernden Holznutzung Einhalt zu gebieten, erließ das württembergische Herrscherhaus mehrfach Verordnungen, wohl auch um den Schönbuch als Jagdgebiet zu erhalten. So gab es beispielsweise 1586 unter Herzog Christoph die Bestimmung, dass die Keller und Erdgeschosse der Häuser aus Stein gebaut werden mussten und nur für die oberen Stockwerke Holz verwendet werden durfte. Aber dem Schönbuch schadete auch, dass er wildreichster Forst des Landes und das Lieblingsrevier der württembergischen Grafen und Herzöge war. Die durch Wildverbiss angerichteten Schäden ähnelten denen, die durch die Nutzung als Viehweide entstanden, denn die Tiere fraßen die jungen Triebe, die Baumrinde und außerdem mit den Bucheckern und Eicheln die zur Verjüngung notwendigen Samen. All das führte dazu, dass der Schönbuch zeitweise kaum noch als Wald zu erkennen gewesen sein dürfte. Beispielsweise war nach dem Dreißigjährigen Krieg nur noch ein Viertel des gesamten Schönbuchs mit Wald bedeckt, heute sind es beinahe 90 Prozent. Auch Johann Wolfgang von Goethe sah keinen Wald mehr, als er auf einer Reise in die Schweiz 1797 durch dieses Gebiet fuhr, sondern lediglich. Königliche Jagdhütte auf dem Steingart Während der Brunft- und Jagdzeit durfte durch das „niedere Volk“ im Wald keinem Gewerbe nachgegangen werden, damit das Wild sich ungestört vermehren konnte und der Adel nicht bei der Jagd gestört wurde. Im Jahr 1812 veranstaltete König Friedrich in Bebenhausen das "Dianenfest". Dieses Jagdfest war das prunkvollste Fest, das Bebenhausen jemals sah. Rund 800 Stück Wild wurden am Tag des Fests zur Strecke gebracht. Erst 1849 mussten die deutschen Herrscherhäuser ihr Jagdprivileg abtreten. Im Jahr 1866 pachtete Prinz Wilhelm (der spätere König Wilhelm II.) die Jagd im Schönbuch und behielt sie bis zu seinem Tod im Jahr 1921. Er jagte dort beispielsweise zusammen mit Kaiser Wilhelm II., und ein Jagdhaus der württembergischen Könige zeugt davon, dass die Herrscher hier gerne Zeit abseits von Stuttgart verbrachten. Gegen Ende des 19. Jahrhunderts erholte sich der Wald langsam wieder, vor allem aufgrund einer nachhaltigeren Nutzung. Seit 1820 hatte unter König Wilhelm I. von Württemberg eine planmäßige Wiederaufforstung nach wirtschaftlichen Gesichtspunkten begonnen. Zudem trieb eine zentrale forstliche Behörde die Ablösung der alten Weide- und Holzrechte voran, was aber von den ehemaligen "Schönbuchgenossen" keinesfalls widerstandslos hingenommen wurde, die teils militanten Widerstand leisteten. Aus diesem Grunde wurden allein im Jahre 1822 über 10.000 Strafbefehle verhängt. Häufig mussten die Delinquenten ihre Strafe im "Schreibturm" des Klosters Bebenhausen absitzen, dem heutigen Informationszentrum des Naturparks. Geplanter Flughafen. Gedenkschild an der Mahneiche gegen den Flughafenbau Mitte der 1960er-Jahre plante die Landesregierung den Neubau eines Großflughafens für Stuttgart. Dabei waren der Schönbuch und Mönsheim die Standorte in der engeren Wahl. Grund für diese Planungen waren damalige Prognosen und Gutachten, die dem alten Flughafen Echterdingen für das Jahr 1980 einen Kollaps prophezeiten. Gegen das Projekt bildete sich im April 1969 eine „Arbeitsgemeinschaft Schönbuchflughafen“, der Vertreter aus Landkreisen, Gemeinden, Behörden und anderer Organisationen angehörten. Nach einem offenen Brief der Koalition der Flughafengegner waren die Planungen im März 1972 vom Tisch. Für den Flughafen sollte ein Areal von ca. 1100 Hektar genutzt werden. Die zwei geplanten Start- und Landebahnen hätten von Westen nach Osten verlaufen sollen, zwischen den Pliezhausener Ortsteilen Gniebel und Rübgarten im Süden und auf der Gemeinde Walddorfhäslach im Norden. Die südliche Start- und Landebahn wäre nur knapp vier Kilometer von den Tübinger Stadtteilen Bebenhausen und Pfrondorf verlaufen. Es ist umstritten, welche Gründe für die negative Entscheidung letztlich den Ausschlag gaben. Gegen den Flughafen im Schönbuch sprachen auch wirtschaftliche Gründe. Dass zum Bau einer 4000 Meter langen Start- und Landebahn gigantische Erdbewegungen erforderlich gewesen wären, war von Anfang an klar. Geologische Gutachten ergaben jedoch, dass auch ungeheure Mengen Stahlbeton nötig gewesen wären, um dem bröckeligen Keupergestein des Schönbuch die erforderliche Stabilität und Belastbarkeit auf absehbare Zeit zu verschaffen. Man entschied sich dafür, den bestehenden Flughafen in Echterdingen auszubauen. Der Erinnerung an diese Ereignisse wurde die im Kirnbachtal stehende, ungefähr 350 Jahre alte Mahneiche gewidmet. Eine weitere stattliche Eiche, die "Oskar-Klumpp-Eiche" im Goldersbachtal, ist dem Andenken des damaligen Tübinger Landrates Oskar Klumpp gewidmet, der sich mit allen Mitteln der Politik und Rhetorik für die Verhinderung des Flughafenbaus im Schönbuch einsetzte. Gründung des Naturparks. Seit 1967 war der Schönbuch bereits als Landschaftsschutzgebiet ausgewiesen. Nachdem die Pläne für den Flughafen verworfen worden waren, erarbeitete Peter Weidenbach bis 1970 die Planung als Naherholungsgebiet, auch als Beitrag zum Europäischen Naturschutzjahr 1970. Am 21. März 1972 „adelte“ der damalige Ministerpräsident Hans Filbinger den Schönbuch mit dem Prädikat Naturpark. Nach dem Naturpark Siebengebirge ist der Schönbuch heute mit 156 km² zwar der zweitkleinste Naturpark in Deutschland, war aber der erste Baden-Württembergs überhaupt. Im Oktober 1974 unterschrieben schließlich Vertreter des Landes, der anrainenden Kreise, Städte und Gemeinden eine gemeinsame Verwaltungsvereinbarung. Weitere vereitelte Erschließungsprojekte. Auch der Status als Naturpark schützte den Schönbuch nicht vor der Planung weiterer Erschließungen. Der Wasserverband Aich hatte im Jahr 1984 vor, die Schaich mit einem 17 Meter hohen Damm aufzustauen. Eine Bürgerinitiative konnte dies verhindern. Auch im Goldersbachtal hinter Bebenhausen wurde seit 1982 ein Staudamm durch die Tübinger Stadtverwaltung erwogen. Die tiefer gelegenen Teile Lustnaus waren zuvor bei mehreren schweren Wolkenbrüchen überflutet worden. Im Jahr 1983 sprach sich aber der Tübinger Gemeinderat für den Naturschutz und gegen dieses Projekt aus, auch gegen die teilweise berechtigten Lustnauer Interessen. Als Lustnau im Jahr 1987 nach einem „Jahrhunderthochwasser“ wieder geschädigt wurde, lebten die Planungen wieder auf. Zu dieser Zeit wurden Holzattrappen aufgestellt, die das Ausmaß der 20 Meter hohen Staumauer und des geplanten Rückhaltebeckens demonstrieren sollten. Schließlich verzichtete man im Jahr 1993 dann doch auf die Realisierung dieses Projekts. Namensherkunft. Die ersten urkundlichen Erwähnungen finden sich in den frühesten Urkunden des Klosters Bebenhausen. Im Jahr 1187 verleiht dabei Friedrich I. Herzog von Schwaben dem Kloster das Recht, den Wald uneingeschränkt zu nutzen. Dabei wird der Wald wie folgt bezeichnet:. In weiteren Erwähnungen aus dieser Zeit ist der Wald mittels „"Schainbvoch"“ oder „"Schainbuch"“ bezeichnet. Die Namensherkunft ist dabei umstritten, wobei der zweite Wortbestandteil des Kompositums noch vergleichsweise eindeutig scheint. Dabei gilt „"-buoch"“ als eine Kollektivbildung vom althochdeutschen „"buohha"“, was tatsächlich soviel wie „Buche“ heißt. Das Bestimmungswort „"schain-"“ macht größere Schwierigkeiten, dort wurde vielfach ein Bezug zum althochdeutschen „"skago"“ für „Landzunge“ oder „vorspringender Bergzug“ angenommen. Auch eine Verbindung zur Schaich, dem Bach im Osten des Schönbuchs, wurde mehrfach hergestellt. Eine wesentlich schlüssigere Deutung ist aber mittels des bestens bezeugten althochdeutschen Verbs „"ir-skeinan"“ für „brechen“ möglich. Der Name weist somit auf einen Buchenwald hin, der den Berechtigten „Brech-Holz“ zur Nutzung lieferte, was sich bestens mit der bekannten früheren Waldnutzung des Schönbuchs verträgt. Für diese Deutung spricht auch, dass die Bildung von Determinativkomposita mit einem Verbalstamm zur fraglichen Zeit in den westgermanischen Sprachen üblich war. Ende des 16. Jahrhunderts wurde das erste Bestimmungswort mit dem Anschluss an „schön“ dann neu motiviert, wobei unter einem „schönen Buchenbestand“ zur damaligen Zeit ein wirtschaftlich nutzbarer Wald verstanden wurde, und nicht die Wohlgefallen ausdrückende ästhetische Bedeutung von „schön“, die heute hier assoziiert wird. Wald- und Forstwirtschaft. Nachdem der Wald im Schönbuch zu Beginn der Neuzeit stark heruntergekommen war, besitzt der Naturpark Schönbuch heute mit 86 Prozent den höchsten Waldanteil der Naturparks in Baden-Württemberg. Mit der Einführung der geregelten Forstwirtschaft war das Gebiet zu Beginn des 19. Jahrhunderts unter großem Aufwand vor allem mit robusten Fichten und Kiefern wiederbestockt worden. Gepflanzte Laubbäume hatten auf den damaligen Freiflächen wegen ihrer Anfälligkeit gegen Wildverbiss, Frost und Mäusefraß noch wenig Überlebenschancen und wurden deshalb selten angepflanzt. Mit der heutigen zweiten Waldgeneration werden in Fichtenbeständen, die besonders anfällig gegen Sturm und Rotfäule sind, systematisch Laubbäume gepflanzt. Der Wald besteht heute mit 56 Prozent noch immer überwiegend aus Nadelbaumarten, die sich in 34 Prozent Fichten, 21 Prozent Kiefern und einem Prozent Weißtannen und Lärchen aufteilen. Die häufigsten Laubbaumarten sind Buchen mit 24 und Eichen mit 16 Prozent des Gesamtbestands. Das langfristige Ziel ist es, den Anteil der Laubbaumarten auf ungefähr zwei Drittel zu bringen und die Rolle der Buche als Charakterbaum des Schönbuchs zu etablieren. Schutzkategorien. Im Naturpark Schönbuch überwiegt mit 63 Prozent der Staatswald, der insbesondere den zentralen Bereich bildet. 34 Prozent Gemeindewald und 3 Prozent Privatwald liegen vorwiegend in den Randbereichen. Den strengsten Schutz im Schönbuch genießen zahlreiche Naturdenkmale sowie die Naturschutzgebiete "Eisenbachhain", "Grafenberg", "Hirschauer Berg", "Neuweiler Viehweide", "Schaichtal", "Ammerbuch", "Spitzberg–Ödenburg" und "Sulzeiche". Darüber hinaus gibt im Naturpark mit den Schonwäldern oder den strenger geschützten Bannwäldern Schutzgebiete nach dem Landeswaldgesetz. Im Jahre 2001 wurde der Naturpark Schönbuch mit angrenzenden Flächen als Teil des europaweiten Netzes Natura 2000 gemeldet, weil hier seltene Pflanzen, Waldgesellschaften und gefährdete Tierarten vorkommen. Außerdem ist fast der gesamte Schönbuch als Landschaftsschutzgebiet ausgewiesen, was eine wirtschaftliche Nutzung mit Einschränkungen erlaubt. Besondere Bäume. Die "Dicke Eiche" – lange Zeit der älteste Baum des Schönbuchs In der Geschichte des Schönbuchs begründet ist die hohe Zahl alter, großer Eichen, die ein Alter von 350 Jahren und mehr aufweisen. Dabei handelt es sich größtenteils um sogenannte "Huteeichen", die während der Zeit der Nutzung als Waldweide (Hutewald) freistehende Bäume waren und dem Weidevieh bei starkem Regen oder großer Hitze Zuflucht bieten sollten. Gleichzeitig dienten sie zur Eichelmast des Weideviehs und auch des Rotwilds, das für die höfische Jagd begehrt war. Viele dieser Eichen sind heute Naturdenkmale. Die sogenannte "Dicke Eiche" im Lindach unweit des Kohlweihers galt bis 2013 als größte und älteste Eiche des Schönbuchs. Sie wies einen Umfang von 6,85 Metern in Brusthöhe auf, ihr Alter wurde auf rund 500 Jahre geschätzt. Nachdem der Baum im Winter 2007/2008 bereits schwer geschädigt worden war, fiel er bei starken Wind und Regen im Januar 2013. Der gefallene Baum soll als Naturdenkmal erhalten bleiben, er war rund 100 Jahre älter als alle anderen Eichen des Schönbuchs; Möglicherweise ist die Sulzeiche nun der älteste Baum. "Vierundzwanzig Buchen" im Herrenberger Stadtwald Im westlichen Naturpark, dem Herrenberger Stadtwald, gibt es einige Exemplare besonderer Buchen, bei denen aus einem einzigen Wurzelstock mehrere Stämme wachsen. Bekannt sind die "Vierundzwanzig Buchen", die "Dreizehn Buchen" und die "Zwölf Buchen". Letztere sind dem Sturm „Lothar“ zum Opfer gefallen und auch die anderen Exemplare wurden durch Stürme geschädigt, so dass beispielsweise bei den "Vierundzwanzig Buchen" heute nur noch 17 Stämme gezählt werden können. Die Ursache der Mehrstämmigkeit ist ebenfalls in der Weidebewirtschaftung zu suchen. Der Wald war durch den starken Vieheintrieb häufig überweidet, so dass die Hirten die Jungbuchen in Mannshöhe abschnitten, um die Baumkronen als zusätzliches Futter für ihr Weidevieh nutzen zu können. Neben den heimischen Baumarten sind allerlei Exoten im Schönbuch zu finden. Es gibt geschlossene Bestände von Douglasien, außerdem Weymouthskiefern, koreanische und japanische Lärchen, Zucker-Ahorn, Robinien und Roteichen. Aus Nordamerika importiert wurde auch der Mammutbaum ("Sequoiadendron giganteum"). Nachdem diese Baumart erst 1850 von den Europäern entdeckt worden war, gab König Wilhelm I. Anfang der 1860er-Jahre der königlichen Forstdirektion den Auftrag, Bäume in Stuttgart und Umgebung anzupflanzen. Im Jahr 1865 wurden die hierzu bestellten Samen im Kalthaus der Wilhelma ausgesäht, aus dieser Saat gingen 6000–8000 Pflanzen hervor, weit mehr, als ursprünglich geplant. In den folgenden Jahren wurden einige Jungpflanzen an interessierte Förster in Württemberg verteilt und später im Freiland angepflanzt, einige davon im Schönbuch. Im überdurchschnittlich kalten Winter 1879/80 erfroren allerdings die meisten dieser Bäume, die wenigen verbliebenen sind an mehreren Stellen im Schönbuch verteilt. Einige davon finden sich beispielsweise auf dem "Betzenberg", darunter auch der mit heute 50 Metern höchste Baum des Naturparks. Sturmkatastrophen. Schon die Orkane „Vivian“ und „Wiebke“ des Frühjahrs 1990 richteten im Schönbuch beträchtliche Schäden an, die durch eine anschließende Borkenkäferplage in den trockenen und heißen Folgejahren noch verschärft wurden. Dennoch übertraf „Lothar“ am zweiten Weihnachtsfeiertag 1999 alle bisherigen Vorstellungen. Während bei „Wiebke“ vor allem die flach wurzelnden Fichten umgeworfen wurden, traf „Lothar“ alle Bestände. Ein Großteil wurde dabei in einer Art Dominoeffekt umgeworfen. Bei „Wiebke“ kippten die meisten Bäume samt Wurzelteller um, wohingegen „Lothar“ gut zwanzig Prozent einfach abbrach, was auch nachteilig für die Verwertung des Sturmholzes war. Wurffläche des Orkans „Lothar“ im Arenbachtal „Lothar“ wütete im gesamten Schönbuch, am schlimmsten jedoch war der westliche Teil betroffen. Auch jüngere, nach seitheriger Überzeugung sturmsichere Bestände wurden geschädigt. Nach Berechnungen des Forstamtes Herrenberg hat der Sturm in dessen Bereich rund ein Drittel des gesamten Nadelholzbestandes umgeworfen, beim Laubwald immerhin auch acht Prozent. Im gesamten Schönbuch entsprach die Schadensmenge ungefähr einer Million Festmetern Holz. Der letzte Orkan „Kyrill“ im Januar 2007 hat im Vergleich zu den früheren Stürmen weitaus geringere Schäden verursacht. Die dabei angefallenen Sturmholzmengen lassen sich problemlos im Rahmen des normalen Holzeinschlags auffangen. Grund für die weit weniger dramatischen Folgen war zum einen, dass „Kyrill“ im Bereich des Schönbuchs nicht seine volle Wucht entfaltete, zum anderen aber auch, dass der Boden insgesamt weniger durchfeuchtet war als gewöhnlich. Heute werden die Schäden auch als Chance verstanden, die Zusammensetzung des Waldes in Richtung eines naturnahen Waldes zu verändern und den Anteil der Laubbaumarten zu erhöhen. Zu den ökologischen Gewinnern nach „Lothar“ zählen viele sonnenhungrige Pflanzen und mit der Pionierbaumart Sandbirke der Baum des Jahres 2000. Dennoch wird es noch Jahrzehnte dauern, bis der Schönbuch wieder einen mit der Zeit vor „Lothar“ vergleichbaren Stand erreicht haben wird. Weitere Flora und Pilze. a> auf den Feuchtwiesen im Kayhertal Die frühere intensive Nutzung des Schönbuchs als Waldweide und die Gewinnung von Laubstreu haben zu einer Nährstoffarmut vieler Flächen geführt, die sich heute aus Sicht des Naturschutzes als wertvoll erweist. Dadurch bietet das Gebiet vielen Pflanzen eine Zuflucht, die außerhalb des heutigen Naturparks nicht mehr vorkommen. Allein das räumlich eng begrenzte Goldersbachtal beheimatet knapp 400 Pflanzen- und über 90 Moosarten. Feuchtwiesen. Im Großen Goldersbachtal oberhalb der Teufelsbrücke sowie in den Tälern des Fischbachs und der Lindach, den beiden Quellbächen des Goldersbachs, finden sich viele Feuchtwiesen, die extensiv bewirtschaftet werden. Besonders auffällig sind die Massenbestände an Trollblumen, die man vor allem im Frühling dort finden kann. Zudem stellen diese Feuchtwiesen wertvolle Standorte für Orchideen dar. Die Wiesen werden heute nur noch teilweise landwirtschaftlich genutzt. Um die Artenvielfalt zu erhalten und die natürliche Sukzession zu verhindern, müssen sie wenigstens einmal im Jahr gemäht werden. Die Forstverwaltung lässt diese Wiesen deshalb im Frühsommer mähen, um ein allmähliches Verbuschen des Tals zu verhindern. Birkensee. Der auf dem Bergrücken des "Bromberg" gelegene Birkensee ist aufgrund seiner seltenen Pflanzengesellschaften als Naturdenkmal ausgewiesen. Das Gebiet stellt heute ein sogenanntes Übergangsmoor dar, ein Moor im Übergangsstadium von einem Nieder- zu einem Hochmoor. Entstanden ist der Birkensee vermutlich am Anfang des 19. Jahrhunderts auf der Sohle eines aufgelassenen Rhätsandsteinbruchs. Die unter dem See liegende Gesteinsschicht soll durch natürliche Verkittung, sogenannte Ortsteinbildung, wasserundurchlässig geworden sein. Eine andere Quelle aus dem Jahr 1667 beschreibt den See aber bereits damals als sumpfige Viehweide. Neuere Forschungen lassen vermuten, dass der Birkensee die letzte Sandgrube ist, die bei dem Abbau von Klebsand als Silbersand auf dem Bromberg entstanden ist. Der Birkensee droht heute mehr und mehr zu verlanden. Viele der früher hier nachgewiesenen seltenen Sumpf- und Moorgewächse sind heute verschwunden. Dennoch gehört der Birkensee noch immer zu den pflanzenkundlich interessantesten Gebieten des Schönbuchs, man findet unter anderem das Pfeifengras, den Roten Fingerhut, Besenginster, Adlerfarn, Sonnentau, schmal- und breitblättriges Wollgras, Heide- und Prachtnelke, Bärlapp, Heidelbeeren, verschiedene Torfmoose und natürlich auch die namensgebenden Birken. Um die Vegetation vor durch Besucher verursachte Trittschäden zu schützen, wurden 1988 ein Knüppeldamm und weitere Wege aus Rindenmulch angelegt. Streuobstwiesen. Die früher typische Form der Obsterzeugung waren Streuobstwiesen, die vielerorts am Rande des Naturparks vorhanden sind, insbesondere um den westlichen Schönbuchhang. Die extensiv genutzten Wiesen prägen seit über 100 Jahren die Landschaft am Schönbuchrand und ihnen kommt aus ökologischer Sicht heute eine besondere Bedeutung zu. So wurden in Streuobstwiesen etwa 3000 Tierarten nachgewiesen, davon 50 Brutvogelarten, die teilweise als Arten der „Roten Liste“ auf den Lebensraum dringend angewiesen sind. Pilze. Der Schönbuch ist durch seine klimatischen Bedingungen und die Zusammensetzung des Baumbestands ein für Pilze besonders gut geeigneter Wald. Besonders auffällig sind die unangenehm riechende Stinkmorchel, die Hundsrute, der Fliegenpilz oder der Tintenfischpilz, der eingeschleppt wurde und sich mittlerweile einen Stammplatz erobert hat. Die Zahl der verschiedenen Makropilzarten wird im Schönbuch auf etwa 800 Arten geschätzt, ein großer Teil davon sind Speisepilze. Hier ist vor allem der seltener gewordene Steinpilz zu nennen, aber selbst im tiefsten Winter sind im Schönbuch Pilze zu finden, wie beispielsweise der Samtfußrübling oder der Austernseitling. Fauna und Jagd. Der unzersiedelte Naturpark Schönbuch ist nicht nur ein Refugium für Pflanzen, sondern auch für Tiere. Hier gibt es beispielsweise mit den Feuersalamandern, den Gelbbauchunken, den Schwarzspechten und den Hirschkäfern Tiere, die außerhalb des Naturparks bereits der veränderten menschlichen Landnutzung zum Opfer gefallen sind. Insekten. Wie andere Wälder wird auch der Schönbuch von einer Vielzahl Insekten bevölkert, die in nützliche, wie beispielsweise die Ameisen, und schädliche, wie den Borkenkäfer eingeteilt werden. Die Käfer stellen dabei wohl den größten Anteil der Insekten im Schönbuch, es gibt Tausende verschiedener Arten. Der Hirschkäfer als größter und zugleich auch einer der seltensten hat hier ein Rückzugsgebiet gefunden. Er ist durch die vielerorts zu starke Aufräumung der Eichenalthölzer bedroht. Im Schönbuch finden sich auch viele Libellen, die saubere Fließgewässer benötigen, sowie viele Arten von Tag- und Nachtfaltern. In Bezug auf Insekten sind auch die bereits erwähnten Streuobstwiesen am Schönbuchrand relevant. In diesem Bereich wurden 53 Tagfalterarten, 19 Heuschreckenarten und 119 Wildbienenarten gezählt, unter letzteren 32 Vertreter der „Roten Liste“. Die Insekten profitieren auch von den durch die Stürme der Jahre 1990 und 1999 entstandenen Freiflächen. Vögel. Auch die Avifauna des Schönbuchs weist einige in den Wäldern dieser Region sonst selten vorkommende Besonderheiten auf. Für die Höhlenbrüter sind die Bannwälder des Naturparks ein wertvolles Rückzugsgebiet. Beispielsweise haust der Mittelspecht in den Baumhöhlen dicker, über hundertjähriger Eichen. In alte Buchen arbeitet der etwa krähengroße Schwarzspecht seine Nisthöhlen, die dann von Hohltauben weiter benutzt werden. Das Tal des Goldersbachs, eines der wenigen unverbauten Bachtäler des Großraums Stuttgart, bietet ebenfalls rar gewordenen Arten wie dem Eisvogel einen Lebensraum. Weitere im Schönbuch heimische seltene Vogelarten sind beispielsweise Grauspecht, Waldschnepfe, Neuntöter, Halsbandschnäpper, Sperlingskauz und Rotmilan. Der Graureiher ist auf den Feuchtwiesen des Schönbuchgebietes in kleiner Zahl anzutreffen, dieser ist nach Erholung des Bestands in Deutschland allerdings nicht mehr selten. Außerdem stellt der Schönbuch für viele nördliche Vogelarten ein wichtiges Rast- oder Überwinterungsgebiet dar. Das geschlossene Waldgebiet mit den benachbarten Talebenen von Ammer und Neckar ist für viele Fernzieher besonders verlockend. Regelmäßig finden sich große Schwärme von Bergfinken ein. Sogar rastende Schwarzstörche und Kraniche wurden schon beobachtet. Auch der am Südostrand des Schönbuchs gelegene Kirchentellinsfurter Baggersee ist als größte offene Wasserfläche der Schönbuchregion für durchziehende und überwinternde Vögel attraktiv. Die vielen Kormorane sind dabei bereits ein vertrautes Bild, und immer wieder finden sich auch ungewöhnliche Wintergäste wie Singschwäne und Gänsesäger unter den vielen dortigen Wasservögeln. Säugetiere. Bevor Menschen die Schönbuchregion besiedelten, war der Wald schon von anderen Säugetierarten bevölkert. Da viele der großen Raubtiere später aber eine Gefahr für das Weidevieh und auch eine Konkurrenz für die Jäger des Rotwilds darstellten, wurden diese ausgerottet. Den Anfang machten dabei die Bären um 1600, dann folgten Wölfe, Luchse und um 1916 schließlich auch die Wildkatzen. Aber auch heute ist der Schönbuch noch von einer recht großen Zahl von Säugetieren bevölkert. Tübinger Wissenschaftler haben 44 Säugetierarten gezählt, von denen 40 Prozent bereits als gefährdet eingestuft werden. Die bekanntesten im Naturpark zu findenden Arten sind Rothirsch, Wildschwein, Reh, Dachs, Rotfuchs, Feldhase, Baum- und Steinmarder, Iltis, Eichhörnchen, Igel, Hermelin, Mauswiesel, Maulwurf, Siebenschläfer, Bisamratte, verschiedene Spitzmäuse und weitere verschiedene Mausarten. Am bekanntesten ist der Schönbuch für seine Rothirsche. Besucher können das Rot- und Schwarzwild sowohl in eigens dafür eingerichteten Schaugehegen als auch auf speziellen Beobachtungspunkten in freier Wildbahn beobachten. Auch verschiedene Arten von Fledermäusen können im Schönbuch beobachtet werden. Von Forschern der Universität Tübingen wurden in den letzten Jahren über zehn verschiedene Fledermausarten nachgewiesen. Dies reicht von der im Nadelwald lebenden Braunen Langohrfledermaus über den Abendsegler bis zur Mausohrfledermaus, der größten einheimischen Art. Hirschrudel auf der Weide am Dickenberg Rotwild war schon von alters her im Schönbuch beheimatet. Heute leben die Rothirsche in einem 40 km² großen eingezäunten Wildgehege, das im Jahr 1959 für sie eingerichtet wurde. Zunehmender Jagddruck und der beginnende Tourismus verängstigten die Tiere in der Folgezeit so stark, dass sie kaum mehr auf Äsungsflächen zu finden waren und stattdessen im Dickicht die Rinden der Bäume schälten. Damit sich die Bäume von den dadurch verursachten Schänden erholen konnten, wurde der Bestand im Jahr 1989 von ursprünglich 16 auf vier bis fünf Stück pro Quadratkilometer reduziert, derzeit leben in diesem Gebiet rund 150 Rothirsche. Heute spielt auch das Schwarzwild wieder eine bedeutende und gleichzeitig kritische Rolle im Schönbuch. Wildschweine sind im Vergleich zum Rotwild nicht so standorttreu, und die Umzäunung des Rotwildgatters stellt für sie kein großes Hindernis dar. Bei ihren Wanderungen außerhalb des Waldes richten sie in der Landwirtschaft oft beträchtlichen Schaden an. Auch das Rehwild profitiert von den Wurfflächen der großen Stürme der Jahre 1990 und 1999 und hat sich deutlich vermehrt. Da es erklärter Wille der Landesforstverwaltung ist, insbesondere das Rotwild im Schönbuch aus landeskulturellen Erwägungen zu erhalten, wurden innerhalb des Wildgeheges fünf Wildruhezonen eingerichtet, in denen die Besucher die Wege nicht verlassen dürfen. Im Gegenzug wurden spezielle Besucherkanzeln am Dickenberg und am Kirnrain zur Beobachtung des Rotwilds eingerichtet. Eine weitere Maßnahme war die Umstellung der Jagdstrategie. Zur Reduzierung des Jagddrucks erfolgt ein Großteil des notwendigen Abschusses an wenigen Tagen im Spätherbst und Frühwinter mittels Drückjagden. Freizeit und Sport. Oben alte, unten neue Beschilderung Heute ist der Schönbuch wirtschaftlich kaum noch von Bedeutung, neben dem Naturschutz überwiegen heute die Nutzungsbereiche Erholung und Freizeitsport, denen im Bundesnaturschutzgesetz Gleichrangigkeit eingeräumt wird. Im Jahr wird die Gesamtzahl der Besucher auf 4 Millionen geschätzt, an schönen Tagen sind es dabei bis zu 100.000. Infrastruktur. Im Naturpark stehen 560 Kilometer markierte Wanderwege zur Verfügung, die nur zu einem geringen Teil asphaltiert sind. Im Frühjahr 1998 wurde ein neues, einheitliches Beschilderungssystem im Bereich des gesamten Naturparks installiert, dieses sogenannte „Besucherleitsystem“ wurde mittlerweile vom Bundesumweltministerium ausgezeichnet. Weiterhin stehen den Besuchern über 100 Parkplätze, 38 Spielplätze, 84 Feuerstellen und 75 Schutzhütten zur Verfügung. Bei ausgedehnten Wanderungen durch den Schönbuch ist man allerdings im Wesentlichen auf Selbstversorgung angewiesen, da die Einkehrmöglichkeiten nicht sonderlich zahlreich und auf die Randgebiete des Naturparks beschränkt sind, was aber die Ursprünglichkeit einer Wanderung unterstreicht. Einkehren kann man beispielsweise im „Schloss Hohenentringen“, der „Weiler Hütte“, dem „Naturfreundehaus Herrenberg“ und verschiedenen Gaststätten in Bebenhausen. Vergeblich sucht man indessen auch Abfallbehälter im Naturpark. Der zurückgelassene Müll der Besucher war zum ökologischen und finanziellen Problem geworden, so dass die Naturparkverwaltung vor einiger Zeit die Abfalleimer abmontieren ließ. Die Besucher werden dazu angehalten, ihren Müll wieder mit nach Hause zu nehmen. An kritischen Punkten wie Grillplätzen wurden 2003 in dieser Hinsicht ermahnende Schilder aufgestellt. Sport. Neben dem Wandern und Spazieren eignet sich der Schönbuch auch für viele Formen des Ausdauersports. Insbesondere der Bereich des Naturparks ist bei Läufern, Nordic Walkern und Radfahrern beliebt. Auch Reiten ist im Schönbuch möglich, hierfür sind spezielle Wege ausgewiesen. Das große zusammenhängende, nur von wenigen Straßen durchschnittene Waldgebiet eignet sich auch hervorragend für Volksläufe, was an den immer zahlreicher werdenden Veranstaltungen erkennbar ist. Die bekanntesten Läufe sind hier der Schönbuchlauf über 25 Kilometer mit Start in Hildrizhausen und der Nikolauslauf mit Start in Tübingen über die Halbmarathondistanz. Die aus der ersten Fitness-Welle der frühen 1970er Jahre stammenden und heute etwas aus der Mode gekommenen Trimm-Dich-Pfade sind vielerorts in unbefriedigendem Zustand und sind heute auch aus sportmedizinischer Sicht veraltet. Im Jahr 2005 erarbeiteten die Verantwortlichen des Naturparks zusammen mit der Eberhard Karls Universität in Tübingen ein Konzept, wie die „veralteten“ Einrichtungen zukunftsfähig gemacht werden können. Es bleibt abzuwarten, ob dieses Pilotprojekt als Modell für ähnliche Einrichtungen an anderen Orten dienen kann. Lehrpfade und Museen. Im Schreibturm des ehemaligen Klosters Bebenhausen wurde 1997 außerdem das "Naturpark Informationszentrum" eingerichtet. Dort werden die Aufgaben des Naturparks, des Walds und seiner Funktionen detailliert und anschaulich dargestellt. Naturparkverwaltung und Förderverein. Als ältester Naturpark im Land hat der Schönbuch im Unterschied zu den anderen Naturparks in Baden-Württemberg keinen Trägerverein und dadurch keine Einnahmen aus Mitgliedsbeiträgen. Grundlage des Naturparks ist eine Verwaltungsvereinbarung, die 1974 getroffen und im Jahr 2006 erneuert wurde. Der Naturpark-Ausschuss wird von Vertretern der umliegenden Gemeinden, der Landkreise sowie dem Land Baden-Württemberg als Träger des Naturparks gebildet. Als beratendes Gremium steht dem Naturpark-Ausschuss ein Kuratorium zur Seite, in dem auch Vertreter des Naturschutzes, der Regionalverbände, des Schwäbischen Albvereins, des Fremdenverkehrverbandes und der Land- und Forstwirtschaft Stimmrecht haben. Der Naturpark-Ausschuss und dieses Kuratorium bilden zusammen das Naturpark-Gremium, in dem alle für den Naturpark wichtigen Entscheidungen getroffen werden. Mit der Naturpark-Verwaltung ist die Forstdirektion Tübingen in Bebenhausen betraut. Die Arbeit des Naturpark-Gremiums wird vom 1991 gegründeten "Förderverein Naturpark Schönbuch e. V." unterstützt. Der Förderverein hat heute 260 Mitglieder, darunter neben vielen Privatpersonen, auch Körperschaften, Firmen, Wander-, Fremdenverkehrs- und Heimatvereine. Der Förderverein leistet nicht nur Öffentlichkeitsarbeit, sondern unternimmt auch natur- und heimatkundliche Forschungen und führt aktive Landschaftspflegemaßnahmen durch. Beispielsweise hat der Verein die 1998 installierte einheitliche Beschilderung initiiert und auch das Informationszentrum im Schreibturm des Klosters Bebenhausen eingerichtet. Schwäbische Alb. Die Schwäbische Alb, früher auch Schwäbischer Jura oder Schwabenalb genannt, ist ein knapp 200 km langes Mittelgebirge in Süddeutschland. Es besteht aus mesozoischem Jurakalk und liegt großteils in Baden-Württemberg, zieht aber mit seinen Nordost-Ausläufern auch nach Bayern. Die Alb ist eine durch Erosionseinflüsse zerteilte Hochebene, die nach Nordwesten durch einen sehr markanten Steilabfall begrenzt wird, nach Südosten hingegen sanft abdacht und dort jenseits des oberen Donautals ins Alpenvorland übergeht. Der nordwestliche Steilabfall wird Albtrauf genannt und trennt die Albhochfläche vom Albvorland. Im Nordosten endet das Mittelgebirge am Nördlinger Ries. Nach Südwesten kann es mit der schwäbisch-niederalemannischen Sprachgrenze bei Tuttlingen und Spaichingen abgegrenzt werden, oft sind aber weitere Gebiete Gegenstand der Betrachtung "(vgl. Naturräumliche Gliederung)". Die Länge des Gebirges beträgt etwa 180 Kilometer, die Breite 35–40 Kilometer. Geologisch gesehen ist die Schwäbische Alb eine Schichtstufe und als solche Element des Südwestdeutschen Schichtstufenlandes. Sie ist ferner Teil der Tafeljuralandschaft zwischen Basel und Coburg. Diese Tafeljuralandschaft wiederum ist mit Faltenjura und Fränkischer Alb Bestandteil der Juragebirgszüge zwischen Genf und Nürnberg. Teillandschaften. Manche, aber nicht alle Gebiete der Schwäbischen Alb haben traditionelle Eigennamen. Daneben gibt es neuere, durch Geographen vergebene Bezeichnungen. Die Regionen des Tafeljura ab Baaralb (zum Teil) bis Basler Tafeljura gehören streng genommen nicht mehr zur Schwäbischen Alb (Sprachgrenze bei Spaichingen und Tuttlingen), dennoch werden vor allem Gebiete nördlich des Hochrheins oft zu ihr gezählt. Riesalb, Härtsfeld, Albuch, Heidenheimer Alb, Niedere Alb, Stubersheimer Alb, Ulmer Alb, Hochsträß, Blaubeurer Alb, Uracher Alb (Vordere Alb und Hintere Alb), Münsinger Alb, Lutherische Berge, Landgericht, Reutlinger Alb, Zwiefalter Alb, Tautschbuch, Zollernalb, Großer Heuberg. Baaralb, Hegaualb, Randen, Klettgaujura, Aargauer Tafeljura, Tafeljura um Basel. Naturräumliche Gliederung. Die Haupteinheitengruppen (zweistellig) und Großregionen 3. Ordnung (dickere Trennlinien) des südwestdeutschen Stufenlandes Die Bundesanstalt für Landeskunde hat seit den 1950er Jahren im Handbuch der naturräumlichen Gliederung Deutschlands und in nachfolgenden Deutschland in naturräumliche Teillandschaften gegliedert. Die Schwäbische Alb bildet, zusammen mit der sie nach Nordosten fortsetzenden Fränkischen Alb, hiernach eine Großregion 3. Ordnung des Südwestdeutschen Stufenlandes (Großregion 2. Ordnung). Wie auch bei den Gäuen (Muschelkalk, 12–13) und Keuper-Lias-Ländern (10–11) wurden die Jura- bzw. Dogger-Malm-Landschaften in eine Schwäbische (09) und eine Fränkische (08) Haupteinheitengruppe unterteilt, deren Trennlinie sich eher nach physischen denn nach kulturellen Gesichtspunkten richtet. Speziell bei Schwäbischer und Fränkischer Alb entspricht die Trennlinie südlich des Nördlinger Ries auch der landläufigen Aufteilung. → "Hauptartikel: Naturräumliche Gliederung der Schwäbischen Alb" Topographie. Der Albtrauf, der Nordwestrand des Gebirges, stellt eine bis zu 400 Meter hohe, meist steil abfallende Schichtstufe dar. Der hingegen geomorphologisch nicht fassbare Südostrand kann geologisch durch das Abtauchen der jurassischen Schichten unter die Molasseschichten des Alpenvorlandes markiert werden. Nördlich der Südgrenze hat sich, während des Miozäns, durch das obere Molassemeer ein stellenweise bis heute gut erhaltenes Kliff (Heldenfinger Kliff) entwickelt. Diese Klifflinie verläuft von Tuttlingen im Südwesten bis Donauwörth im Nordosten. Die die Schwäbische Alb aufbauenden Schichten sind ungefaltet und schräggestellt. Das „Einfallen“ der Schichtfläche erfolgt von Nordwest nach Südost. Die durchschnittlichen Höhenlagen nehmen nicht nur nach Südost ab. Auch vom Großen Heuberg ausgehend werden die Höhenwerte nach Südwest und Nordost geringer. Ausgeprägte Gipfelberge sind nicht typisch für die Schwäbische Alb. Die höchsten Punkte befinden sich zum größten Teil entlang des Albtraufs. Die Erosion hat vor und am Steilabfall zahlreiche Auslieger, Berghalbinseln und Zeugenberge zur Folge, die mit der Schichtstufe des Albkörpers verbunden sind. Eine ausgeprägte Zertalung findet sich sowohl im Bereich des Albtraufs als auch im Binnenbereich. Der vielzitierte Begriff der „Albhochfläche“ gilt daher nur für die Gebiete zwischen den Tälern. Diese Hochflächen lassen sich in die nordwestliche "Kuppenalb" mit kleinräumig-unruhigem Relief und hohen Anteilen an Wald und Grünland sowie die südöstliche, stärker ackerbaulich genutzte "Flächenalb" gliedern (Klifflinie). Die höchsten Erhebungen des Albkörpers reichen bis knapp über 1000 Meter. Sie sind alle im südwestlichen Teil der Alb, vor allem im Bereich des Großen Heubergs, zu finden. Im Folgenden eine Auflistung von Erhebungen mit oder über 1000 Meter: Lemberg (1015 m, höchster Punkt der Schwäbischen Alb), Oberhohenberg (1011 m), Hochberg (1009 m), Wandbühl (1007 m), Rainen (1006 m), Montschenloch (1004 m), Plettenberg (1002 m), Bol (1002 m), Hochwald (1002 m), Hummelsberg (1002 m), Kehlen (1001 m), Schafberg (1000 m). Zeugenberge sind auf Höhe der stufenbildenden Gesteinsschicht mit der Schichtstufe nicht mehr verbunden und stehen meist freierodiert vor dem Albtrauf. Die vor dem Albtrauf stehenden Berge vulkanischen Ursprungs sind, geologisch gesehen, „Pseudo-Zeugenberge“. Im Folgenden eine Auflistung von Zeugenbergen, mit und ohne Schichtflächenrest, sortiert von Nordost nach Südwest. Die mit „(V)“ markierten Berge haben einen vulkanischen Kern, der in entscheidendem Maße mitverantwortlich für ihr Entstehen ist. Zeugenberge mit Schichtfläche. Der Hesselberg gehört naturräumlich gesehen zwar eher zur Fränkischen Alb, liegt aber dialektgeographisch im vorschwäbischen Gebiet (schwäbisch-fränkischer Übergangsbereich mit Überwiegen schwäbischer Merkmale). Auch andere Gebiete der westlichsten Fränkischen Alb am Ostrand des Ries befinden sich im schwäbischen, schwäbisch-fränkischen oder schwäbisch-bairischen Mundartraum. Im Gegensatz zu Zeugenbergen sind Ausliegerberge noch wesentlich mit der Schichtstufe verbunden. Im Folgenden eine Auflistung von Ausliegern, mit und ohne Schichtflächenrest, wiederum sortiert von Nordost nach Südwest. Die mit „(V)“ markierten Berge haben einen vulkanischen Kern, der in entscheidendem Maße mitverantwortlich für ihr Entstehen ist. Entstehung im Jurameer. Die Alb stellt eine Schichtstufe des Süddeutschen Schichtstufenlands dar. Sie besteht aus sedimentären marinen Ablagerungen in Form mächtiger Schichten aus Ton, Kalk und Mergel. Diese Gesteine entstanden während der Jurazeit am Boden eines Meeres, das vor etwa 200 bis 150 Millionen Jahren große Teile Europas bedeckte. Die jurassischen Gesteine bilden drei Hauptformationen. Nach ihrer Farbe unterscheidet man lokal von unten nach oben Lias (Schwarzer Jura), Dogger (Brauner Jura) und Malm (Weißer Jura). Die Gesteine des "Schwarzen Jura" sind Tonschiefer und werden durch einen hohen Gehalt an Bitumen und Pyrit gefärbt. Man spricht auch (fälschlich) von Ölschiefer. Dieses Gestein tritt am Fuß des Albtraufs auf und ist berühmt für seine Funde von Ichthyosauriern. Am besten kann man diese im Urwelt-Museum Hauff in Holzmaden oder im Fossilienmuseum des Holcim-Werkforums in Dotternhausen betrachten. Die Schichten des "Braunen Jura", sandig-tonige Mergel, erhalten ihre braune Farbe durch einen recht hohen Gehalt an Eisen. Dieses Eisen wurde in Wasseralfingen bei Aalen auch als oolithisches Eisenerz abgebaut. Der "Weiße Jura", der die Steilstufe des Albtraufs bildet, besteht aus fast reinem Calcit, der in einem sauerstoffreichen und lebendigen Meer abgelagert wurde. Er ist charakterisiert durch eine wechselnde Folge von Mergeln, Kalkbänken und Massenkalken (Riffen). Der in einer Reihe großer Steinbrüche – beispielsweise am Plettenberg nahe Dotternhausen, bei Schelklingen und bei Grabenstetten – abgebaute Kalkstein wird zur Zementherstellung und als Straßenschotter verwendet. Hochreine Kalksteine – der CaCO3-Gehalt beträgt teilweise über 99 % – werden im Blautal bei Ulm gewonnen und als "Ulmer Weiß" an die chemische Industrie in alle Welt verkauft. In allen Jurasedimenten sind vielfältige Fossilien enthalten, die man auf einer Wanderung leicht selbst finden kann. Anhand der für die jeweilige Schicht typischen "Leitfossilien" erstellte der Geologe Friedrich August von Quenstedt die nach ihm benannte Gliederung des süddeutschen Juras. Meeresfossilien, Karsterscheinungen und Vulkane. Die Schwäbische Alb ist eines der größten zusammenhängenden Karstgebiete in Deutschland. Der wasserlösliche Kalkstein wird ausgewaschen, so dass sich Höhlen, Dolinen und Trockentäler bilden. Trockentäler sind Vorzeitformen. Eine Möglichkeit ihrer Entstehung ist die Tieferlegung der Erosionsbasis im Bereich von wasserdurchlässigen Gesteinen und Absenkung des Grundwasserspiegels. Trockentäler können auch unter kaltzeitlichen Bedingungen in Gebieten mit wasserdurchlässigen Gesteinen entstanden sein. Möglich war dieses, weil Dauerfrostböden das Versickern des Wassers verhindert hatten. Als Resultat der Verkarstung weist die Alb nur sehr wenige Oberflächengewässer auf. Die Entwässerung ist etwa 150 bis 200 m tief in das Gestein verlagert und erfolgt durch Klüfte und Höhlen. Entsprechend der wechselnden Folge von wasserdurchlässigen Kalksteinen und stauenden tonigen Mergeln haben sich im Albkörper zwei Karststockwerke gebildet. Eine der bekanntesten Höhlen ist die Blautopfhöhle mit dem Blautopf als Abfluss. Viele Höhlen sind als Schauhöhlen erschlossen – darunter die tiefste begehbare Schachthöhle Deutschlands, die Laichinger Tiefenhöhle, und eine der längsten Schauhöhlen Süddeutschlands, die Charlottenhöhle – und können gefahrlos besichtigt werden. Andere können im Rahmen von Wanderungen auf eigene Faust besucht werden. Verschiedene geologische und karstkundliche Wanderwege erlauben es auch dem interessierten Laien, viele dieser Besonderheiten zu erkennen und zu verstehen. Außer den Karsterscheinungen gibt es noch weitere geologische Phänomene: den Schwäbischen Vulkan und das Steinheimer Becken. Aufgrund ihrer erdgeschichtlichen Vielfalt und Besonderheiten wurde die Schwäbische Alb 2002 als Nationaler GeoPark in Deutschland ausgezeichnet. 2004 folgte die Anerkennung als Europäischer Geopark und 2005 die Anerkennung durch die UNESCO. Am Südrand der Schwäbischen Alb treten tertiäre Ablagerungen auf, die die Oberfläche bilden. Besonders bekannt ist die Erminger Turritellenplatte bei Ulm, die durch ihren marinen Fossilreichtum bekannt ist. Böden. Die aus dem Weißjura entstandenen Böden sind überwiegend schwer und lehmig, örtlich auch locker und krümelig. Neben tiefgründigen Böden finden sich auch Standorte mit sehr geringer Bodenauflage. Zu den typischen Böden zählen: Rendzina, Terra fusca und Braunerde-Pelosol. Erdbeben. Die Schwäbische Alb gehört zu den erdbebenreichsten und -gefährdetsten Zonen Deutschlands. Zu schwereren Erdbeben kam es in den Jahren 1911, 1943 und 1978 in der "Albstadt-Scherzone". Bei dem Beben am 3. September 1978, dessen Epizentrum bei Albstadt lag, wurde eine Stärke von 5,7 auf der Richterskala gemessen. Es kam dadurch zu erheblichen Gebäudeschäden und 25 Verletzten. Seit 2005 gehört die Umgebung von Albstadt zu der am stärksten gefährdeten Zone 3 nach DIN 4149, entsprechend ist in dieser Zone eine besonders erdbebensichere Bauweise vorgeschrieben. Klima und Vegetation. Aufgrund der geographischen Lage ist das Klima auf der Schwäbischen Alb rauer und meistens ca. 3–5 °C kälter als im Vorland. Die durchschnittliche Jahrestemperatur beträgt auf der Alb zwischen 4 und 7 °C, im Januar liegt das langjährige Mittel bei −2 °C, im Juli bei rund 15 °C. Insgesamt sind die Temperaturen recht kalt für Mittelgebirge und sind vergleichbar mit den Temperaturen des deutlich höheren Südschwarzwaldes. Da die bevorzugte Wetterseite der Nordwesten ist, verzeichnet der Albtrauf durch den Steigungsregen deutlich höhere Niederschlagsmengen als das tiefer gelegene Albvorland, dabei nehmen die Niederschläge Richtung Ostalb aufgrund der geringeren Höhen eher ab. Der Große Heuberg fällt diesbezüglich etwas aus dem Rahmen, denn trotz der höheren Lage fallen dort kaum mehr Niederschläge (rund 1000–1100 mm pro Jahr) als auf der mittleren Alb zwischen Reutlingen und Göppingen. Dies erklärt sich durch die Nähe zum Schwarzwald und dem daraus resultierenden Regenschatten, der eben bis zum Heuberg reicht. Im Herbst und Winter stellen sich manchmal sogenannte Inversionswetterlagen ein, bei denen es auf der Albhochfläche dann sonnig und wärmer ist, während das Neckarvorland bzw. das Donautal im kalten Nebel liegt. An solchen Tagen gibt es auf der Albhochfläche dann oft Fernsicht bis zu den Alpen. Die Landschaft der Schwäbischen Alb hat einen eher rauen, herben Charakter und ist auf der Hochfläche hauptsächlich von Wäldern, Wiesen und den durch die Schäferei entstandenen Wacholderheiden geprägt, während sich der steil über dem nördlichen Vorland aufragende Albtrauf eher mit schroffen Felsabbrüchen präsentiert. Die kargen, steinigen Böden der Alb gelten im Allgemeinen als nicht sonderlich ertragreich, trotzdem wird in einigen Teilen der Schwäbischen Alb auch großflächiger Ackerbau betrieben, besonders im Bereich der Niederen und Ulmer Alb, aber auch auf dem Großen Heuberg. Entwässerung. Bei beiden Arten ist die Schüttung teils sehr groß und/oder stark schwankend. An der Donau, die zwischen Tuttlingen und Sigmaringen die Alb durchbricht, tritt bei Immendingen mit der Donauversinkung eine geologische Besonderheit auf. Färbeversuche zeigten, dass die Wasserscheide nahe dem Albtrauf verläuft. Flora. Die Schwäbische Alb verfügt als Mittelgebirge über eine zum Teil subalpine Vegetation. Das botanische Wahrzeichen der Schwäbischen Alb ist die Silberdistel. Auf den Wacholderheiden und südexponierten Hängen wachsen neben der Silber- auch oft die kleinere Golddistel und die Karthäusernelke. Die im Flachland eher seltene Graslilie findet auf den Blumenwiesen der Alb ebenfalls einen geeigneten Wachstumsstandort. Mehrere Enzianarten blühen auf der Schwäbischen Alb. Im Frühjahr verwandelt der Frühlingsenzian die Albflächen in einen regelrechten Farbteppich. Auf der Münsinger Alb wachsen mehrere einheimische Orchideenarten, die allesamt unter Naturschutz stehen. Sonnige Plätze bevorzugt außerdem die Berg-Aster, die knapp 50 Zentimeter hoch wird. Ein größeres Vorkommen der Gewöhnlichen Küchenschelle gibt es unter anderem auf der Schwäbischen Ostalb in der Nähe von Bopfingen. In den Schluchtwäldern der Schwäbischen Alb blühen im Frühjahr unter anderem der Märzenbecher, der Blaustern und der Gelbstern. Etwas später folgen der farbenprächtige Türkenbund und der Eisenhut. Fauna. Schmetterlinge bei Heubach auf der Ostalb an einer Silberdistel Die Schwäbische Alb bietet durch ihre Vielzahl an unterschiedlichen Biotopen zahlreichen Tierarten einen geeigneten Lebensraum. Wirbellose. Wacholderheiden und südexponierte Hang- und Felsflächen beherbergen eine Vielzahl an Schmetterlingen und Wärme liebenden Insekten. Den seltenen Apollofalter ("Parnassius apollo") gibt es nur noch an einer Stelle der Münsinger Alb. Der Schwalbenschwanz ("Papilio machaon") lässt sich bei der Gipfelbalz und an Blüten beobachten. Die Blauflügelige Ödlandschrecke ("Oedipoda caerulescens") hält sich gerne auf Ödland und auf Geröllfeldern auf. Auch der eher in den Alpen beheimatete, seltene Alpenbock ("Rosalia alpina") kommt auf der Reutlinger Alb und sehr selten nördlich davon vor, wenn Buchenstämme verrotten dürfen. Vögel. Felsen und Steilwände bieten auch Brutstellen für Uhu ("Bubo bubo"), Wanderfalke ("Falco peregrinus") und Kolkrabe ("Corvus corax"). Strenge Horstbewachung durch Naturschützer und zeitweilig ausgesprochenes Kletterverbot soll dafür sorgen, dass der Uhu und der Wanderfalke in Ruhe ihre Jungen aufziehen können. Eine größere Dohlenkolonie befindet sich bei Sigmaringen in der Nähe des Schlosses. Auch Waldkauz und Schleiereule sind anzutreffen. Im Jahre 2007 hielten sich auch ein paar Gänsegeier ("Gyps fulvus") auf der Münsinger Alb auf. Aufgrund fehlender Nahrung an ihren Stammplätzen in Spanien fliegen die Geier Hunderte von Kilometern in andere europäische Regionen. Gänsegeier waren bis zum 19. Jahrhundert im Donautal noch heimisch. Auf den feuchten Wiesen in den Tälern der Alb und an den Uferzonen im Donautal finden der Graureiher ("Ardea cinerea"), der Weißstorch ("Ciconia ciconia"), gelegentlich auch der Schwarzstorch ("Ciconia nigra") und der Kiebitz ("Vanellus vanellus") genügend Nahrung. Säugetiere. Die Felslandschaft des Donautals bietet der Gämse ("Rupicapra rupicapra") ein auf ihre Bedürfnisse zugeschnittenes Areal. Die Gämsen der Schwäbischen Alb entstammen ursprünglich aus den Alpen. Die Population der Schwäbischen Alb ist auf das Aussetzen weniger Tiere vor einigen Jahrzehnten zurückzuführen, was aber für die seltene Vegetation der Felsköpfe ungünstig ist. Aus dem Donautal wurden in den letzten Jahren sporadisch Nachweise des Luchses ("Lynx lynx") gemeldet, der eigentlich seit dem 19. Jahrhundert ebenfalls als ausgestorben galt. Außerdem kommen auch die verbreiteten Wildarten Rotfuchs, Dachs, Reh, Wildschwein und Baummarder auf der Schwäbischen Alb vor. Damwild gibt es nicht. Biosphärengebiet Schwäbische Alb. Weite Teile der Mittleren Alb und ihres Vorlandes wurden am 31. Januar 2008 vom Land Baden-Württemberg als Biosphärengebiet Schwäbische Alb ausgewiesen. Die Einrichtung des 85.270 Hektar großen Gebiets geht auf die Aufhebung des Truppenübungsplatzes Münsingen im Jahr 2005 zurück und ist das erste Biosphärengebiet Baden-Württembergs. Seit dem 26. Mai 2009 ist das Biosphärengebiet Schwäbische Alb auch UNESCO-Biosphärenreservat. Siedlungen. Im Gegensatz zu anderen Mittelgebirgen ist die Schwäbische Alb sehr früh besiedelt worden. Dabei ist von den zahlreichen berühmten, in die Altsteinzeit zurückreichenden Fundstellen, insbesondere am Rande des Nördlinger Rieses, im Lone- und Blau- bzw. Aachtal abzusehen, da sie als Zeugnisse einer eiszeitlichen Nutzung durch Jäger und Sammler prinzipiell keine dauernde Besiedlung anzeigen. Schon im frühen Neolithikum, zur Zeit der Linearbandkeramik, wurden erste Bauern auf der Ulmer Alb ansässig. Ein jungsteinzeitliches Dorf bei Ehrenstein datiert bereits in eine jüngere Phase des Neolithikum. Aus der Bronze- und Hallstattzeit sind zahlreiche Grabhügel überliefert. Mit der Heuneburg entsteht im 6. Jahrhundert v. Chr. ein erstes „protourbanes Zentrum“. In der folgenden Latèneperiode entstand das oppidum Heidengraben bei Grabenstetten. Mit dem Vordringen der Römer im 1. Jahrhundert n. Chr. wurde der Albtrauf kurzzeitig zur Reichsgrenze (Alblimes). Nach der römischen Periode und dem Fall des Limes wurde die Alb sehr schnell wieder aufgesiedelt. Auf dem Runden Berg bei Bad Urach etablierte sich ein alamannischer Fürstensitz. Es entstehen zahlreiche Dörfer und Burgen, jedoch nur relativ wenige Klöster (z. B. Zwiefalten). Zahlreiche Städte kamen über den Status einer Kleinstadt nicht hinaus. Über 900 Meter liegend und somit höchstgelegene Ortschaften der Schwäbischen Alb sind Heinstetten (914 m), Bubsheim (912 m), Burgfelden (912 m), Böttingen (911 m), Meßstetten (907 m) und Heidenstadt (903 m). Wanderwege. Herbstliche Wacholderheide auf der Ostalb bei Heubach Es gibt zahlreiche gut markierte Wanderwege auf der Schwäbischen Alb. Diese lassen sich einteilen in Streckenwanderwege und Rundwanderwege. Die Streckenwanderwege werden überwiegend vom Schwäbischen Albverein betreut und markiert. Viele Gemeinden haben darüber hinaus auf ihrem Gebiet Rundwanderwege eingerichtet. Die Wanderwege führen oft an den Besonderheiten der Schwäbischen Alb vorbei. Die Silberdistel als inoffizielles Symbol der Schwäbischen Alb ist nur eine von vielen besonderen Blumen, die bei einer Wanderung entdeckt werden können. Das Rückgrat des Wanderwegnetzes bilden die "Hauptwanderwege" (HW). Felsklettern. Die Schwäbische Alb bietet teilweise hervorragende Sportklettermöglichkeiten und gehört – zusammen mit dem Elbsandsteingebirge und der Fränkischen Alb – zu den herausragendsten Mittelgebirgen in Deutschland, was das Klettern betrifft. Klettermöglichkeiten gibt es vor allem an den sogenannten Massenkalkfelsen. Das sind Gebilde, die im Jurameer durch Lebewesen (Korallen und Schwämme) aufgebaut und aus dem umgebenden Gestein herausgewittert worden sind. Das obere Donautal bietet die besten Klettermöglichkeiten und die höchsten Wände. Weitere Gebiete mit guten Klettermöglichkeiten befinden sich in der Gegend von Blaubeuren sowie im Lenninger Tal und im Ermstal. Die einzelnen Führen über die zahlreichen größeren und kleineren Felsen sind in mehreren Kletterführern beschrieben. Auf der Ostalb zählen unter anderem die Felsformationen des Rosensteins bei Heubach und das Eselsburger Tal zu den bekanntesten Klettergebieten. Das Klettern ist seit einigen Jahren jedoch nicht mehr an jeder beliebigen Stelle zulässig. Das Naturschutzgesetz von Baden-Württemberg zählt die Felsen zu den sogenannten §24a-Biotopen. Im Grundsatz ist das Betreten dieser Biotope nicht gestattet. In den vergangenen Jahren ist es zwischen der Naturschutzverwaltung und den Kletterverbänden gelungen, die kletterbaren Bereiche sowie die Kletterverbote für die gesamte Schwäbische Alb abzustimmen. Teilweise bestehen die Kletterverbote nur saisonal. Die einzelnen Klettertouren weisen zum größeren Teil obere Schwierigkeitsgrade auf (Schwierigkeitsgrade nach UIAA-Skala ab ca. 4 bis 10). Leichtere Klettereien, wie sie aus den Alpen bekannt sind, gibt es kaum. Wintersport. Durch ihre Höhenlage zwischen 600 und 1000 m bietet die Schwäbische Alb viele Möglichkeiten zum Wintersport. Viele Skihänge und Skilanglaufloipen laden zu sportlicher Betätigung ein. Ferienstraßen und Motorsport. Bekannteste Ferienstraße ist die Schwäbische Albstraße. Aufgrund ihrer dünnbesiedelten, waldreichen Gegenden und der kurvenreichen, langen Auf- und Abstiege sowie der geschwungenen Hochflächenstrecken wird die Schwäbische Alb von Motorradfahrern für Touren aller Ansprüche genutzt. Kultur. Die Schwäbische Alb bietet auch in kultureller Hinsicht vieles, es gibt zahlreiche Burgen und Burgruinen und sehenswerte Klöster. Viele Dörfer besitzen interessante Heimatmuseen. Wichtige Industrien waren zum Beispiel Trikotagen und Feinmechanik bei Albstadt und Leinenweberei im Raum Laichingen. Von der Schwäbischen Alb stammen bedeutende archäologische Funde. Zu nennen sind insbesondere die ältesten figürlichen Darstellungen der Menschheit, kleine Schnitzereien aus Mammutelfenbein. Sie stammen aus dem Lonetal (Vogelherdhöhle) und dem Achtal/Blautal (Geißenklösterle, Hohler Fels) bei Ulm. Sie sind ungefähr 30.000 bis 35.000 Jahre alt. Die Funde sind im Urgeschichtlichen Museum in Blaubeuren, dem Ulmer Museum und im Museum Schloss Hohentübingen sowie im Landesmuseum Württemberg in Stuttgart zu sehen. "Siehe auch:" Liste der Museen der Schwäbischen Alb, Liste von Burgen und Schlössern in Baden-Württemberg, Liste der Museen in Baden-Württemberg, Liste deutscher Museen nach Themen Skopje. Blick über das Stadtzentrum von Südwesten aus Skopje (,) ist die Hauptstadt Mazedoniens und mit über 530.000 Einwohnern zugleich die größte Stadt des Landes. Etwa ein Viertel der Bevölkerung Mazedoniens lebt in der Großstadt. Skopje weist eine mehr als zwei Jahrtausende zurückreichende Besiedlungsgeschichte auf und gehört somit zu den ältesten noch bestehenden Städten des Landes. Die Stadt am Fluss Vardar ist sowohl Sitz des Parlamentes als auch der Regierung. Sie ist ebenso das kulturelle und wirtschaftliche Zentrum des Landes, orthodoxer Bischofssitz und Sitz des Großmufti. Geographie. a> durch die Hauptstadt des Landes, wie hier beim Fußballstadion "Philip II" westlich der Innenstadt Lage. Die geographische Lage des "Makedonija-Platzes" (früher Marschall-Tito-Platz) im Stadtzentrum ist 41° 59′ 45" nördlicher Breite und 21° 25′ 53" östlicher Länge. Die größte Ausdehnung des Stadtgebiets in Ost-West-Richtung beträgt rund 33 Kilometer, in Nord-Süd-Richtung etwa 10 Kilometer. Die Stadt hat eine Fläche von 210 Quadratkilometern. Skopje liegt im Norden der Republik Mazedonien, etwa 18 Kilometer südlich der Grenze zum Kosovo. Von Westen nach Osten durchfließt der Fluss Vardar das Stadtgebiet, im Süden erhebt sich der Hausberg Vodno. Die Stadt gibt dem Becken von Skopje seinen Namen, welches Skopje (10 %) und zahlreiche andere Gemeinden (90 %) umfasst. Zum Osten hin öffnet sich diese Hochlandschaft und geht in das breite und fruchtbare Tal des Vardar über, welches Mazedonien von Nordwesten nach Südosten durchzieht. Die Entfernungen von Skopje zu den Hauptstädten der Nachbarländer Mazedoniens werden in der nachfolgenden Tabelle veranschaulicht. Geologie. Mazedonien liegt in einer seismologisch äußerst aktiven Region zwischen der Eurasischen und der Afrikanischen Platte. Die genaue Grenze ist unklar, da die Eurasische Platte in diesem Gebiet in mehrere kleinere Platten zerfällt. Hier ist vor allem die Apulische Platte zu nennen, die Italien und das Dinarische Gebirge umfasst. Skopje liegt grob betrachtet in einer geologischen Übergangszone zwischen dem Dinarischen Gebirge im Nordwesten und den Rhodopen im Osten. Dieser tektonische Graben wird Morava-Vardar-Furche genannt und ist von zahlreichen tektonischen Störungen und Aktivitäten geprägt, wovon unter anderem die drei Erdbeben in der Stadtgeschichte (518, 1515 und 1963) zeugen. Das von Gebirgen umringte Becken von Skopje hat eine Fläche von 2100 km². Gewässer. Der beim 90 Kilometer entfernten Gostivar entspringende Fluss Vardar fließt durch die Stadt und wird im Sommer von Bade- und Schwimmgästen benützt. Zahlreiche Mäander und Brücken – darunter die bekannte Kamen Most – prägen das Flussbild. Neben dem Vardar gibt es noch weitere kleinere Flüsse, die allesamt in den Vardar münden. Zu den wichtigsten zählt die Treska, die im Westen der Stadt (Bezirk Gjorče Petrov) beim Krankenhaus "Sveti Lazar" in den Vardar mündet. In seinem Oberlauf wird der Fluss zum Matkasee gestaut, der als neuntgrößter See Mazedoniens gilt. Mit seinen vielen Höhlen und den tiefen Canyons zählt der See als Naturattraktion für Touristen. Der Lepenec entspringt in der Nähe der kosovarischen Stadt Prizren und mündet nach 75 Kilometern im Stadtviertel "Zlokučani" im Westen der Stadt innerhalb des Bezirks Karpoš in den Vardar. Er ist der drittlängste Fluss in Skopje. Stadtgliederung. Die Opština der Stadt Skopje gliedert sich seit der Reform des gesamten mazedonischen Verwaltungssystems von 2004 in zehn Stadtbezirke, die je einen eigenen Bürgermeister, einen Rat, ein Wappen, eine Flagge und über politische Kompetenzen verfügen. Ein besonderes Merkmal dieser Opštini ist, dass sie oft nicht nur Stadtteile von Skopje umfassen sondern auch andere Ortschaften außerhalb des urbanen Raumes der Hauptstadt. Klima. In der Umgebung von Skopje herrscht meist ein Übergangsklima von kontinental zu mediterran. Die Winter sind niederschlagsreich und kalt, die Sommer niederschlagsarm und warm. Durch gestaute Hitze im "Becken von Skopje" ist es hier jedoch weitaus wärmer als im Rest des Landes. Die Jahresmitteltemperatur beträgt 12,1 Grad Celsius und die durchschnittliche Jahresniederschlagsmenge etwa 504 Millimeter. Die wärmsten Monate sind der Juli und der August mit 22,3 Grad Celsius im Mittel, der kälteste der Januar mit durchschnittlich 0,2 Grad Celsius. Der meiste Niederschlag fällt im Monat Mai mit 60 Millimeter im Mittel, der geringste im August und September mit 27 bzw. 36 Millimeter. Bevölkerung. Skopje ist, bezogen auf Einwohner und Fläche, die größte Stadt Mazedoniens: Rund ein Drittel der Landesbevölkerung ist in der Stadt am Vardar wohnhaft. Verschiedene Ethnien, Sprachen und Religionen kennzeichnen die Bevölkerungsstruktur. Im Jahr 2002 war die letzte Volkszählung Mazedoniens, damals zählte die Gemeinde der Stadt Skopje 506.926 Einwohner. Etwa 2,52 Prozent davon oder 12.774 Personen waren Analphabeten und rund 28,46 Prozent beziehungsweise 144.271 Personen waren arbeitslos. Ethnien und Sprachen. Wie in großen Teilen des Landes leben auch in Skopje verschiedene Ethnien miteinander. Für 2002 bezeichneten sich von den 506.926 Einwohnern 338.358 (66,75 %) als ethnische Mazedonier, 103.891 (20,49 %) als Albaner, 23.475 (4,63 %) als Roma, 14.298 (2,82 %) als Serben, 8.595 (1,70 %) als Türken, 7.585 (1,50 %) als Bosniaken, 2.557 (0,50 %) als Aromunen und 8.167 (1,61 %) gaben eine andere Volksgruppe an. Die Sprachen mit den meisten Muttersprachlern waren 2002 Mazedonisch, Albanisch, Romani, Serbisch, Türkisch, Bosnisch, Aromunisch, Meglenorumänisch, Montenegrinisch, Bulgarisch und in sehr kleiner Zahl auch Hebräisch. Religionen. Die Religionen mit den meisten Anhängern sind das Orthodoxe Christentum und der Islam sunnitischer Ausprägung. Daneben gibt es eine Minderheit an Katholiken. Protestanten, Reformierten und auch wenige Juden. Die orthodoxen Mazedonier sind größtenteils in der Mazedonisch-Orthodoxen Kirche organisiert, deren Metropolit in Skopje residiert, auch wenn sich der Bischofssitz nominell in Ohrid befindet. Ein Großteil der muslimischen Albaner gehört der "Islamisch-Gläubigen Vereinigung in der Republik Mazedonien" (alb. "Bashkësia Fetare Islame në Republikën e Maqedonisë") an. Der Großmufti Mazedoniens hat seinen Sitz in der Hauptstadt. Name. Von den Römern gegründet wurde der Ort lateinisch "Scupi" genannt. Daraus abgeleitet sind alle weiteren, später entstandenen Stadtbezeichnungen in den verschiedenen Sprachen: mazedonisch "Скопје", albanisch "Shkupi" bzw. "Shkup" (bestimmte bzw. unbestimmte Form), türkisch "Üsküp", bulgarisch "Скопие" und serbisch "Скопље". In osmanischer Herrschaftszeit war auch die Form "Üsküb" gebräuchlich. Entstehung von Scupi. Die frühesten Spuren menschlicher Besiedlung im Raum Skopje wurden innerhalb der Festung Kale gefunden. Sie datieren aus der Jungsteinzeit und sind über 6000 Jahre alt. Die von Archäologen zu Tage gebrachte Siedlung ist von einem noch unbekanntem Volk gegründet worden, das von der Jungsteinzeit bis zur Frühen Bronzezeit über einige Jahrhunderte in der Region lebte. Die ersten bekannten Siedler in der Umgebung von Skopje waren die Triballer, die zu den Thrakern gehörten. Nach ihnen kamen die Päonier, doch im 3. Jahrhundert v. Chr. konnten die Dardaner, ein illyrischer Stamm, das Gebiet besetzen und sie gründeten ein großes Königreich, das von der "Scupi" genannten Siedlung über Naissus im Norden bis hin zu den Albanischen Alpen im Westen reichte. Die Dardaner erklärten im 2. Jahrhundert v. Chr. Scupi zu ihrer Hauptstadt und dehnten ihr Reich bis nach "Bylazora" (beim heutigen Veles) im Süden aus. Die Römer eroberten im Zuge der Makedonisch-Römischen Kriege 168 v. Chr. auch das Reich der Dardaner, doch jahrzehntelang konnten sie ihre Herrschaft in Makedonien und Illyrien nur spärlich durchsetzen. Der römische Kaiser Domitian (81 bis 96 n. Chr.) siedelte zu Beginn seiner Herrschaft Veteranen der Legionen I Italica, III Augusta, IV Macedonica, V Macedonica, V Alaudae, IIII Flavia und VII Claudia in der einem Militärlager ähnelnden Siedlung Scupi an. Der Ort erlangte 86 n. Chr. den Status einer "Colonia" und wurde auch "Colonia Flavia Aelia Scupi" genannt. Die archäologischen Ausgrabungsarbeiten in der antiken Stätte "Scupi" begannen zwischen den beiden Weltkriegen und förderten 1925 eine frühchristliche Basilika zutage. Später folgte das wohl wichtigste Bauwerk, ein römisches Theater. Das Stadtmuseum Skopje begann 1966 erstmals mit der Restaurierung verschiedener Ruinen. 2008 fanden Archäologen eine 1,7 Meter hohe Venus-Statue. Insgesamt wurden bisher über 23.000 Objekte gefunden. Zu den ausgegrabenen Gebäuden von "Scupi" zählen der Aquädukt, einige Thermen, einzelne Stadthäuser und das Theater. Mit Ausnahme des Theaters, das verfallen ist, können alle Gebäude besichtigt werden. Der archäologisch Fundplatz "Scupi" befindet sich etwa vier Kilometer nordwestlich des Stadtzentrums auf der anderen Seite des Vardar. Mittelalter. Die nächsten Jahrhunderte waren für die kleine Stadt sehr wechselvoll. Im Jahr 518 zerstörte ein Erdbeben die gesamte Stadt; der oströmische Kaiser Justinian I. ließ sie jedoch wieder aufbauen. Es vergingen nicht einmal 100 Jahre, als im Winter 594/95 im Zuge der Landnahme der Slawen auf dem Balkan Stämme der Slawen die Stadt dem Erdboden gleichmachten. Das Mittelalter zwischen dem Einfall der Slawen bis zur Eroberung durch die Osmanen im 14. Jahrhundert war von blutigen Machtkämpfen zwischen regionalen Mächten, allen voran den Byzantinern und Bulgaren, geprägt. Im 9. Jahrhundert schlossen letztere die Stadt dem Ersten Bulgarischen Reich an und konnten sich für einige Jahrzehnte behaupten. Durch die Christianisierung Bulgariens wurde sie zudem Bischofssitz. Zar Roman erklärte im Jahr 980 Skopje für kurze Zeit zur bulgarischen Hauptstadt und Sitz des bulgarischen Patriarchen. Im Jahr 1004 kam es im Umland von Skopje zu einer großen Schlacht zwischen Byzantinern und Bulgaren. Nach dem Fall des Ersten Bulgarischen Reiches 1018 eroberten die Byzantiner die Stadt und erklärten sie zum Hauptort des byzantinischen Themas Bulgaria. Die Herrschaft von Byzanz währte allerdings nicht lange und führte zur Stärkung der lokalen Boljaren. Schon im 12. Jahrhundert konnten die Bulgaren, nach einem Aufstand Skopje zurückerobern und sie ihrem Zweiten Reich angliedern. Der Boljar von Skopje, Konstantin Tich Assen wurde im bulgarischen Bürgerkrieg zum bulgarischen Zar ernannt und die Region um Skopje wurde in der Folge direkt den bulgarischen Zaren unterstellt. Im Jahr 1282 entriss der serbische Nemanjidenkönig Milutin die Stadt den Bulgaren. Skopje entwickelte sich zur neuen Residenzstadt der serbischen Herrscherdynastien. Am 16. April 1346 ließen sich König Stefan Uroš IV. Dušan und seine Ehegattin in Skopje vom bulgarischen Patriarchen Simeon und vom Erzbischof Nikolaj von Ohrid zum "Zar bzw. Zarin der Serben" krönen. Zudem erhob er das Oberhaupt der serbischen Kirche Joanikije II. zum ersten serbischen Patriarchen. Osmanische Zeit. Am 19. Januar 1392 geriet Skopje für mehr als 500 Jahre unter osmanische Herrschaft. Wie der jugoslawische Orientalist Hasan Kaleshi (* 1922 in Srbica; † 1976) berichtet, hieß der erste osmanische in Skopje ansässige Markgraf "Paşayiğit Bey", welcher vielleicht um 1397 den ältesten islamischen Bau der Stadt, die Meddah-Baba-Moschee erbauen ließ. Ihm folgte sein Adoptivsohn "Ishak Bey", der eine Hospiz (später in eine Freitagsmoschee umgewandelt, die als Bunte Moschee bekannt wurde) errichtete und weiters eine Madrasa (nicht erhalten) samt Bibliothek stiftete. Zum Unterhalt seiner gemeinschaftlichen Einrichtungen legte "Ishak Bey" in seiner Wakfiye die Einkünfte von zwei Hamams, 102 Läden und zwei Hanen sowie die Erträge zweier Dörfer und von sieben Landkomplexen einschließlich Äcker und Gärten aus dem Umland fest. Er selbst wurde später im Hofe der Bunten Moschee begraben, allerdings nicht, wie oft vorgegeben, im hinter der Moschee befindlichen überkuppelten Grabturm, der aus stilistischen Gründen in die zweite Hälfte des 15. Jahrhunderts datiert werden muss. Zur Mitte des 15. Jahrhunderts hatte Üskub 5145 steuerrechtlich erfasste Einwohner. Davon waren 3330 Muslime, hauptsächlich aus Kleinasien stammende Türken und 1815 Christen. Da für Besteuerungszwecke die ethnische Zugehörigkeit der Christen unbedeutend war, wurde sie nicht festgehalten. Es darf aber davon ausgegangen werden, dass sie eine südslawische Sprache, Griechisch und/oder Albanisch sprachen. Der größere Teil der Bevölkerung war im Gewerbe tätig. Ein wirtschaftlicher Aufschwung trat in Skopje im 16. Jahrhundert ein. Er wurde begünstigt durch die Lage der Stadt am Knotenpunkt der Handelsrouten von Edirne nach Saraybosna und von Selanik nach Belgrad, durch das osmanische Protektorat über Dubrovnik und die Ankunft von sephardischen Juden. Um die Mitte des 16. Jahrhunderts hatte die Stadt mehr als 10.000 Einwohner (7425 Muslime, 2735 Christen und 265 Juden), die in rund 80 verschiedenen Berufszweigen tätig waren. Eine Synagoge wurde in Skopje erstmals 1361 errichtet. Um 1515 ereignete sich wieder ein schweres Erdbeben. Eine für die hochosmanische Zeit (16./17. Jahrhundert) bedeutende ausführliche Beschreibung Skopjes, drei Jahrzehnte vor der Inbrandsetzung Skopjes durch den habsburgischen General Giovanni Norberto Piccolomini im Jahre 1689, findet sich im „Reisebuch“ ("Seyahatnâme") des osmanischen Reisenden Evliya Çelebi. Er beschrieb die Stadt als eine "gewaltige Siedlung", welche sich auf beiden Seiten des Vardars erstreckte. Über der Stadt lag die Zitadelle, mit etwa 100 Mannschaftshäusern, Vorratshäusern und Zeughäusern. Die etwa 1060 Steinhäuser prägten mit ihren roten Ziegeln das Stadtbild. Weiter gab es in dieser Zeit 9 Koranleseschulen, welche den Moscheen angeschlossen waren, 20 Derwischklöster (Tekke), ein Mewlewikloster und 70 Schulen (Mekteb). In Üsküb war im Jahre 1660 Evliya Zeuge des regen wirtschaftlichen Lebens in den über 2100 Kaufläden in den mehreren Basaren geworden. Zur Bevölkerungsstruktur vermerkt er, dass es in der Stadt neben den Muslimen auch Einwohner armenischer, bulgarischer, serbischer und jüdischer Herkunft gäbe, welche ihre eigenen Gotteshäuser besaßen. Auch eine Vielzahl von Katholiken lebte in der Stadt, welche jedoch ihren Gottesdienst in den serbischen Kirchen abhielten. Die Entwicklung Skopjes wurde abrupt unterbrochen, als im Großen Türkenkrieg (1683–1699) österreichische Truppen unter General Giovanni Norberto Piccolomini bis nach Mazedonien vordrangen. Am 25. Oktober 1689 nahm seine Armee die Stadt ohne große Kämpfe ein, weil die osmanische Streitmacht und viele Einwohner den Ort verlassen hatten. Piccolomini befahl, Skopje niederzubrennen, was am 26. und 27. Oktober geschah. Angeblich sollte der Ausbreitung von Cholera vorgebeugt werden. Der Brand zerstörte viele Häuser und Geschäfte. Das jüdische Viertel wurde am schlimmsten getroffen. Die meisten Wohnhäuser, zwei Synagogen und die jüdische Schule wurden vom Feuer vernichtet. Spätosmanische Zeit. a> (erbaut im frühen 19. Jahrhundert, Foto von 1935) Die Stadt erholte sich nur langsam von dem Brand. Die auf diese Zerstörung im Jahre 1689 folgenden hundert Jahre der Geschichte Skopjes liegen weitgehend im Dunklen. Ein paar vereinzelte Quellen berichten von der Reparatur der Moschee Sultan Murads II., die 1712, also 23 Jahre nach dem Brand, unternommen wurde. Ein osmanischer Plan des Stadtteils um die genannte Moschee lässt erkennen, dass zu diesem Zeitpunkt noch die meisten der dort befindlichen Gebäude zerstört waren. Reisende, die Üsküb gegen Ende des 18. oder Beginn des 19. Jahrhunderts besuchten, berichten übereinstimmend von etwa 5000 bis 6000 Einwohnern, gegenüber 40.000–60.000 Einwohnern vor dem Brand oder auch 1500 Häusern, die recht klein waren und schmutzige Straßen säumten. Auch Skopje kam im 19. Jahrhundert in die Wirren des Nationalismus' auf dem Balkan. 1844 organisierten Albaner einen Aufstand gegen das Osmanische Reich. Sie protestierten gegen die ihnen auferlegten, zu hohen Steuern und der Politik der Zentralisierung. Nach der Zerschlagung des Aufstandes wurden viele albanische Einwohner nach Kleinasien inhaftiert oder verbannt. Ein Aufschwung setzte im Laufe des 19. Jahrhunderts ein, nicht zuletzt durch den vom spätosmanischen Staat vorangetriebenen Bau von Eisenbahnverbindungen, verbunden mit dem Zuzug nichtmuslimischer Bevölkerung. Ab 1873 war Skopje durch eine Eisenbahnlinie entlang des Vardar verbunden mit Thessaloniki, 1888 auch mit den serbischen Bahnstrecken. So war die Stadt von nun an über Belgrad direkt mit Mitteleuropa verbunden. In den 1890er Jahren folgten Verbindungen nach Bitola und Istanbul. Skopje war Hauptort eines Sandschaks und ab 1888 (Priština ablösend) Hauptstadt der osmanischen Provinz (Vilâyet) Kosovo. In dieser Zeit wurde Skopje zur drittgrößten Stadt Makedoniens nach Thessaloniki und Bitola. So hatte Skopje um die Jahrhundertwende zum 20. Jahrhundert 30.000–40.000 Einwohner, primär eine Folge des Zuzugs slawischer Christen aus dem bäuerlichen Umland, die der Stadt erstmals seit dem 15. Jahrhundert erneut eine nichtmuslimische Bevölkerungsmehrheit bescherte. Im Kampf für eine vom griechisch geprägten ökumenischen Patriarchat von Konstantinopel unabhängige bulgarische Kirche wurde in den 1830er Jahren mehrmals der griechische Bischof vertrieben und die Entsendung eines bulgarischen Bischofs gefordert. Der Konflikt spitze sich zu, als in dieser Zeit die bulgarische Gemeinde Skopjes die Muttergotteskirche und eine dazugehörige Klosterschule (erbaut 1836/37) stiftete. Erstere wurde vom Baumeister Andreja Damjanov erbaut. Das Projekt hatten die mittlerweile gelockerten osmanischen Baugesetze ermöglicht, die einst den Neubau bzw. die Renovierung christlicher Kirchen eingeschränkt hatten. Um 1850 erfolgte die Umstellung der Schule nach dem Lancaster System und 1895 zur Bulgarischen Pädagogischen Schule. Gemäß dem vom Sultan Abdülaziz am 28. Februar 1870 erlassenen Ferman zur Errichtung des Bulgarischen Exarchats wurde 1874 nach einem Plebiszit der slawischen Bevölkerung mit Dorotej von Skopje der erste bulgarische Bischof der Eparchie Skopje eingesetzt, der sich schließlich dem Bulgarischen Exarchat unterstellte. Das 20. Jahrhundert. Ein den über 1000 Opfern des Erdbebens von 1963 gewidmetes Monument Zwei Jahre nach der Jungtürkischen Revolution führten die Jungtürken 1910 im ganzen Osmanischen Reich eine Volkszählung durch. Demnach war die jüdische Gemeinde mit 2.327 Personen vertreten. Im Sommer wurde Skopje von 30.000 albanischen Aufständischen eingenommen, die von Isa Boletini angeführt wurden und gegen die Politik des Osmanischen Reiches vorgingen. In den Balkankriegen wurde Skopje am 25. Oktober 1912 durch die serbischen Streitkräfte erobert und geriet unter die Herrschaft von Belgrad. Die serbischen Truppen richteten ein regelrechtes Blutbad in der Stadt an. Albanische und türkische Häuser wurden in Brand gesetzt, Menschen wurden geköpft und ihre Leichen in den Straßen aufgestapelt. Laut einem Bericht von Leo Trotzki wurden nicht nur Männer sondern auch Hunderte von Kindern und Frauen lebendig in Brand gesetzt. Durch die neue Grenzziehung nach den Balkankriegen 1912 und 1913, als Bitola zur Grenzstadt mit Griechenland wurde, begann der Aufstieg Skopjes zum unumstrittenen Zentrum „Südserbiens“. Während des Ersten Weltkrieges wurde sie am 10. Oktober 1915 von bulgarischen Truppen eingenommen. Dabei zündeten die Serben bei ihrem Abzug den nördlichen Teil der Stadt an, was große Schäden an historischen Bauwerken verursachte. 1918 wurde Skopje von Serbien zurückerobert und gehörte wie auch das ganze heutige Mazedonien danach zum Königreich der Serben, Kroaten und Slowenen, das 1929 in Königreich Jugoslawien umbenannt wurde und im gleichen Jahr Skopje zur Hauptstadt der neu errichteten Vardarska banovina (Banschaft Vardar) machte. Im Zweiten Weltkrieg wurde Skopje von 1941 bis 1944 erneut von bulgarischen Soldaten und Kämpfern der VMRO besetzt und am 2. August 1944 zur Hauptstadt der neuen Sozialistischen Republik Mazedonien erklärt, die eine Teilrepublik des kommunistischen Jugoslawiens stellte. Bahnhof Skopje, 26. Juli 1963, 5 Uhr 17 Um 5:17 Uhr des 26. Juli 1963 ereignete sich ein schweres Erdbeben, das in die Geschichtsbücher einging. An diesem Tag bebte die Erde und die Katastrophe forderte 1070 Todesopfer. Rund 75 Prozent der Einwohner verloren ihr Obdach und 3300 Personen erlitten schwere Verletzungen. Nahezu die ganze Altstadt wurde dem Erdboden gleichgemacht. Die Erschütterungen konnten über das ganze Land und auch im angrenzenden Kosovo und Serbien gespürt werden. Insgesamt entstand ein Sachschaden von über einer Milliarde US-Dollar. Mit internationaler Hilfe wurde Skopje in den nächsten Jahren wiederaufgebaut; der japanische Architekt Kenzō Tange entwickelte für die Stadt am Vardar einen Masterplan. Seit 1991 ist Skopje die Hauptstadt der unabhängigen Republik Mazedonien. Während des Kosovokriegs nahmen die Stadtbehörden Tausende von Flüchtlingen aus dem benachbarten Kosovo auf. Nur einige Kilometer nordöstlich von Skopje bei Aračinovo fanden während des albanischen Aufstands 2001 blutige Kämpfe zwischen der mazedonischen UÇK und der staatlichen Polizei statt. Einwohnerentwicklung. Die Stadt erlebte in ihrer Geschichte zwei wesentliche Bevölkerungsschübe. Das erste große Bevölkerungswachstum konnte in der osmanischen oder genauer in der hochosmanischen Zeit (17. Jahrhundert) verzeichnet werden. Zu diesen Jahrzehnten wuchs Skopje zu einer überregional wichtigen Handelsstadt mit 40.000 bis 60.000 Einwohnern heran. Der zweite Bevölkerungsschub setzte während der jugoslawischen Ära ein, als in der Stadt große Investitionen in Industrie und Infrastruktur vorgenommen wurden. Die blühende Wirtschaftsstadt zog viele Menschen aus ganz Mazedonien an, die auf der Suche nach Arbeit waren. In der letzten jugoslawischen Volkszählung von 1981 wurden für Skopje 408.143 Personen registriert. Seitdem hat die Stadtbevölkerung um etwa ein Viertel zugenommen. Bei der Volkszählung 2002 wurden 506.926 Einwohner erfasst. Sehenswürdigkeiten. Aquädukt im Norden der heutigen Stadt Mit einer über 2000-jährigen Besiedlungsgeschichte weist Skopje eine Vielzahl an Bauwerken und Monumenten aus verschiedenen Epochen auf. Aus römischer Zeit blieb beispielsweise der Aquädukt der antiken Stadt Scupi erhalten. Im Mittelalter entstanden durch die Verbreitung des Christentums auf dem Balkan zahlreiche byzantinische Kirchen und Klöster in der Umgebung wie auch in der Stadt. Auch die islamische Architektur hinterließ während der über 500 Jahre dauernden Herrschaft der Osmanen ihre Spuren in Form von Moscheen, Brücken, Hammāme, Karawansereien, Bibliotheken und vor allem im Basar-Viertel, der Altstadt von Skopje. Mit dem Aufblühen des Nationalismus in Südosteuropa zu Beginn des 19. Jahrhunderts wurde die Stadt am Vardar ein Zentrum der bulgarischen und albanischen Widerstandsbewegungen gegen das Sultanat am Bosporus. Bulgarische und albanische Geistliche konnten wieder im großen Stil orthodoxe und katholische Gotteshäuser erbauen. Die "Festung Kale" (,) befindet sich auf einer Anhöhe westlich der Altstadt und auf der Nordseite des Vardar. Erste Spuren von menschlicher Besiedlung auf der Burg stammen aus dem 4. Jahrtausend v. Chr. Unter dem bulgarischen König Samuil (10. Jahrhundert n. Chr.) stand auf dem Hügel erstmals eine befestigte Siedlung. 1391 wurde die Stadt mit der umliegenden Region von den Osmanen erobert. Durch die Kriegshandlungen wurden große Teile der Stadt, einschließlich der Festung, zerstört. Danach diente die Burg als Kaserne für die osmanischen Truppen. Die Festung wie auch Skopje verloren daraufhin ihre wirtschaftliche Bedeutung in der Region. Um 1700 wird die Burg wieder erneuert. Aus dieser Zeit stammen auch die heutige Außenmauer, Türme und Tore. Das Osttor war das bedeutendste; es führte direkt in den Basar. Auch im 20. Jahrhundert diente die Festung als Kaserne für die Truppen des Königreichs Jugoslawien; es wurden zehn große Militärgebäude, Hauptquartiere und Baracken erbaut. 1951 zogen die Armeen ab und das Archäologische und Historische Museum übernahm die Direktion. Beim schweren Erdbeben von 1963 wurden all diese neuzeitlichen Gebäude größtenteils zerstört. Seitdem wurden zahlreiche archäologische Arbeiten auf der Festung durchgeführt. Die jahrhundertealte Steinbogenbrücke Kamen Most verband einst die Altstadt Die Steinbrücke über den Vardar (,) verband früher die Altstadt nördlich und südlich des Flusses. Heute ist die südliche Altstadt durch moderne Gebäude überbaut. Die Brücke wurde im 15. Jahrhundert durch osmanische Architekten erbaut und ist 213,85 Meter lang. Neben der Festung ist sie ein weiteres Wahrzeichen der Stadt, weswegen sie auch auf dem Stadtwappen abgebildet ist. Der "Daut-Pascha-Hammam" (Hammām, Badehaus) befindet sich nordöstlich der Steinbrücke und wurde durch den Großwesir von Ostrumelien Daut Pascha in der zweiten Hälfte des 15. Jahrhunderts erbaut, wobei eine geschlechtergetrennte Nutzung vorgesehen war. Das Bauwerk besitzt 13 Kuppeln. Die zwei größten Kuppeln beherbergen die zwei Garderoben und einige Springbrunnen. Die kleineren Kuppeln bedecken die unterschiedlichen Baderäume. Heute ist im Gebäude die Nationale Kunstgalerie untergebracht, diese besitzt eine große Sammlung aus dem 18. und 19. Jahrhundert. Der "Çifte-Hammam" in der zentralen Altstadt wurde ebenfalls im 15. Jahrhundert erbaut. Das Badehaus wurde bis ins Jahr 1915 benutzt. Die jüdischen Bewohner der Stadt benutzten den Komplex ebenfalls für ihre rituellen Waschungen. Heute befindet sich darin eine zeitgenössische Kunstgalerie. Mit rund 70 Moscheen war Skopje ein bedeutendes islamisches Zentrum in der Region. Heute gibt es weit weniger als zur Zeit der Osmanen. Die ältesten islamischen Gotteshäuser stehen in der Altstadt. Zu den dort am besten erhaltenen zählen die Isa-Bey-Moschee aus dem Jahr 1475, die Sultan-Murad-Moschee von 1436, die Bunte Moschee von 1438 und die Mustafa-Pascha-Moschee von 1492. Wegen der strategisch wichtigen Lage war Skopje auch ein wichtiger Stützpunkt für Händler, Fahrende und Karawanen. Die heute am besten erhalten gebliebenen Karawansereien "Kapan Han" (15. Jahrhundert), "Kursumli Han" (1550) und "Suli Han" (15. Jahrhundert) waren die größten osmanischen Gasthäuser der Stadt. Heute sind darin Restaurants und im Kapan Han das Basar-Museum untergebracht. Weitere osmanische Bauwerke sind der "Uhrturm" von 1566, der "Bezisten" und der Basar am Nordrand der Altstadt sowie der gesamte historische Stadtkern. Südwestlich von Skopje auf dem Gebirgskamm des Vodno im Dorf Nerezi steht die "Kirche des Hl. Panteleimon" () aus dem Jahre 1164. Sie besitzt zahlreiche Fresken und gehört zu den bedeutendsten erhaltenen byzantinischen Kunstwerken komnenischer Zeit. Das "St. Nikita-Kloster" () wurde zwischen 1307 und 1308 vom serbischen König Milutin erbaut. Es steht im Dorf Banjani, nordwestlich der Stadt. Auch aus jüngerer Zeit stammen einige Sehenswürdigkeiten. Dazu zählen die "Muttergotteskirche" von 1835, die "Kliment-von-Ohrid-Kirche" von 1990, der "alte Bahnhof" im Zentrum, der heute das Stadtmuseum beherbergt, sowie das "Millenniumskreuz" auf dem Berg Vodno. Auf den Hausberg von Skopje führt eine Gondelbahn, beliebt sind auch Wanderungen entweder bis zur Mittelstation oder bis auf den Gipfel. Stadtbild. Die Altstadt (maz. "Stara Čaršija"; alb. "Çarshia e Vjetër") Allgemeines. Skopje hat ein wechselvolles Stadtbild, das durch die ebenfalls wechselvolle Geschichte, durch die verschiedenen Religionen und ethnischen Gruppen sowie durch unterschiedliche soziale Verhältnisse geprägt ist. Lange Zeit war die heutige Altstadt das wirtschaftliche und kulturelle Zentrum von Skopje. Osmanische Bürgerhäuser, enge Pflastersteingassen, Brunnen, Moscheen, Gasthäuser, Raststätten für Händler, Werkstätten, Badehäuser und Tekken waren wichtige Bestandteile des Stadtbildes. Mit dem Zerfall des Osmanischen Reiches zogen sich auch dessen Herrscher aus der Stadt zurück und für Skopje begann eine neue Zeit. Bis 1929 "Königreich der Serben, Kroaten und Slowenen" genannt, ersetzte das Königreich Jugoslawien die Osmanen. Noch veränderte sich nicht viel am Aussehen der Stadt am Vardar. Erst während des wirtschaftlichen Wachstums nach dem Zweiten Weltkrieg wurde von der sozialistischen Regierung Jugoslawiens in Infrastruktur, Industrie und Kultur Mazedoniens und Skopjes investiert. Es entstanden weite neue Wohnflächen mit den typischen Plattenbauten, große Industrieflächen, breite Straßen und Boulevards, viele Schulen und Krankenhäuser und auch das Eisenbahnnetz wurde ausgebaut. Zugleich wuchs die Bevölkerung und die Stadt breitete sich entlang des Vardars immer mehr nach Westen und Osten aus. Im Zuge dieses Baubooms wurden große Teile des historischen Stadtkerns überbaut, der langsam aus dem Stadtbild zu verschwinden begann. Heute führen mehrspurige Straßen um und durch die Altstadt. Der historische Kern am anderen Ufer des Vardars wurde fast völlig zerstört und durch Neubauten ersetzt. Im Osten der Stadt stehen heute viele Fabriken und Gewerbegebäude, die jedoch ihre wirtschaftliche Tätigkeit stark senken mussten und heute nicht mehr so wie zu jugoslawischer Zeit laufen. Im Norden jedoch, an der Hauptstraße nach Priština wachsen seit den 1990er Jahren neue Unternehmen aus dem Boden und beschäftigen einen Teil der Einwohner. Im Stadtteil Aerodrom hinter dem Bahnhof stehen in der jugoslawischen Zeit erbaute Wohnsiedlungen mit mehrstöckigen Hochhäusern auf einer Fläche, die etwa so groß ist wie der Bezirk Čair. Parks. Der Stadtpark (maz. "Gradski Park", alb. "Parku i Qytetit") liegt nordwestlich des Zentrums entlang des Vardars und erstreckt sich auf einer Fläche von 500 mal 600 Meter. Ganz in der Nähe stehen das Fußballstadion und eine Sporthalle. Der Park beherbergt auch einen Zoo, einen Botanischen Garten und einen Bonsai-Garten. Künstliche Teiche und viele Kanäle im Grünen prägen das Aussehen des Parks. Auf einem Hügel nordöstlich der Altstadt befindet sich der 700.000 m² große Gazi-Baba-Park, der aus einem Wald und Fußwegen besteht. Der Gazi-Baba-Park ist das wichtigste Naherholungsgebiet der Stadtbewohner. Skopje 2014. Die Regierung unter Führung der konservativen Partei VMRO-DPMNE investiert seit ihrem Regierungsbeginn (Parlamentswahlen 2008) in viele ethnisch-mazedonische, kulturelle Einrichtungen. So wurde im Jahr 2014 eine Vielzahl an Monumenten (mehrheitlich „ethnisch-mazedonische Helden“), Gebäuden und Denkmälern errichtet. Neben einer 22 Meter hohen Statue Alexanders des Großen und der größten mazedonisch-orthodoxen Kirche am Hauptplatz, sind auch neue Gebäude für das Außenministerium, das Mazedonische Staatsarchiv und weitere öffentliche Einrichtungen errichtet worden. Als die Bauarbeiten im Sommer 2010 begannen, erklärte das Mazedonische Verfassungsgericht sie als illegal, da die Planungs- und Vergabeverfahren für viele Bauten nicht vorschriftsmäßig abgelaufen seien. Die Regierung unter Nikola Gruevski erklärte diesen Gerichtsentscheid jedoch für ungültig und ließ die Bauarbeiten fortführen. Ursprünglich waren Gesamtkosten von rund 80 Millionen Euro veranschlagt, Ende 2010 schätzte man die Kosten allerdings bereits auf 200 Millionen (das entspricht 2,68 Prozent des Bruttoinlandprodukts). Kritiker meinen, das Geld könne besser investiert werden, zum Beispiel in die zum Teil veraltete Verkehrsinfrastruktur. Die muslimische Minderheit in der Stadt (rund ein Drittel der Einwohner), allen voran die albanische, sieht sich durch die Bauvorhaben diskriminiert, da mit ihren Steuergeldern der Bau der Kirche (und anderer Einrichtungen) mitfinanziert werden soll, während die Moscheen privat finanziert werden müssen. Die Regierung und ihre Sympathisanten sehen den Bau als identitätsstiftend, die Muslime und Gegner des Baus fühlen sich vom Staat ausgegrenzt. Den Bau der teilweise nationalistisch geprägten Bauwerke und Monumente kritisierte auch das Nachbarland Griechenland. Dort erregte vor allem die imposante Alexanderstatue auf dem Hauptplatz die Gemüter (siehe hierzu Streit um den Namen Mazedonien). 2011 wurde der Triumphbogen "Makedonija" vollendet, der auf einem Motiv die gesamte Region Makedonien zeigt. Dies verursachte in Albanien Kopfschütteln, da die historische Region Makedonien auch einen Teil des albanischen Staatsgebietes miteinbezieht. Die albanische Regierung richtete an die mazedonische eine Demarche. Die Errichtung der Zar-Samuil-Statue wiederum verschlechterte die Beziehungen zum östlichen Nachbar Bulgarien (diese allerdings wieder normalisiert haben), der sich bisher zum Projekt Skopje 2014 noch nie geäußert hatte. Der ehemalige Ministerpräsident Ljubčo Georgievski kritisierte 2012 das Projekt wegen des fehlenden Konzepts, der Verschwendung von Mitteln und nannte es eine „große Karikatur“, „historischen Kitsch“ und „mazedonisches Disneyland“. Die Regierungspolitik der VMRO-DPMNE verschlechtert die innen- sowie auch außenpolitische Lage zusehends, so eskalierten auch Proteste gegen die Errichtung einer neuen orthodoxen Kirche zwischen Albanern und Mazedoniern in der historischen Festung Kale und haben die innerethnischen Beziehungen weiter verschärft. Kultur. Skopje ist kulturelles Zentrum Mazedoniens. Hier befinden sich die landesweit größten Museen, Opern, Theaterhäuser und andere kulturelle Einrichtungen. Lange Zeit und auch heute noch war die Stadt ein Schmelztiegel verschiedener Kulturen und Religionen, die deutlich in verschiedener Weise ihre Spuren in der Stadt hinterlassen haben. Museen und Galerien. Der Çifte-Hammām, heute ist darin die Nationale Kunstgalerie untergebracht. Das Mutter Teresa-Gedenkhaus steht an der Stelle ihrer Taufkirche. In Skopje stehen zahlreiche Museen und Galerien, die zu den größten des Landes gehören. Das "Museum der zeitgenössischen Kunst" beherbergt die größte Kunstsammlung Mazedoniens und ist die wichtigste kulturelle Einrichtung der Zeitgenössischen Kunst. Am 11. Februar 1964 durch einen Stadtratsbeschluss gegründet war das neue Museum Projektteil des neuen Masterplans der Stadt nach dem katastrophalen Erdbeben von 1963. 1970 zog das Museum in das heutige Gebäude ein, welches von polnischen Architekten entworfen worden war. Das sich nördlich der Festung Kale befindende Museum hat heute eine Sammlung von 1000 Exponaten. Das Erdbeben 1963 zerstörte den alten Bahnhof der Stadt, der 1938 erbaut worden war, und an seiner Stelle befindet sich heute neben einer kleinen Kunstgalerie auch das "Museum der Stadt Skopje", das Objekte der ersten menschlichen Besiedlungen im 5. Jahrtausend v. Chr. bis heute zeigt. Die "Nationale Kunstgalerie Mazedoniens" ist im ehemaligen Daut-Pascha-Hammām untergebracht, der in der Altstadt steht. 1948 als Institution gegründet weist die Galerie heute eine Kunstsammlung seit dem 14. Jahrhundert auf. Das "Museum von Mazedonien" ist eine staatliche Institution und entstand 1991 aus einer Fusion des Archäologischen, Historischen und Ethnologischen Museums, welche teilweise schon seit 1924 bestanden hatten. Auf etwa 6000 Quadratmetern Fläche sind Exponate ausgestellt, die seit der Antike datieren. Das Museum ist im Kursumli Han eingerichtet, einem osmanischen Bau aus dem 16. Jahrhundert. Das "Mutter Teresa-Gedenkhaus" ist eine am 30. Januar 2009 eröffnete Gedenkstätte zu Ehren der Friedensnobelpreisträgerin und Humanistin Anjeza Gonxhe Bojaxhiu, bekannt als Mutter Teresa. Das Museum liegt in der Nähe des Zentralplatzes "Makedonija" und beherbergt verschiedene Objekte aus dem Leben der albanisch-katholischen Geistlichen in ihrem nachgebauten Geburtshaus. Vor dem Gebäude steht zudem eine lebensgroße Statue der Ordensschwester. An der Stelle des Gedenkhauses stand früher die Heilige-Herz-Jesu-Kirche, in der die Seliggesprochene einen Tag nach ihrer Geburt am 27. August 1910 getauft worden war. Das Naturwissenschaftliche Museum steht nordwestlich der Innenstadt am Vardar. Ihm angeschlossen sind der Zoologische und Botanische Garten sowie der Stadtpark. Das in den 1920er Jahren erbaute Museum besitzt eine Sammlung an 4000 Exponaten aus Mineralogie, Paläontologie, Botanik und Entomologie. Das "Naturhistorische Museum" ist im Oktober 1926 gegründet worden und stellt auf 1700 Quadratmetern etwa 4000 Exponate aus. Mineralien, Steine, Fossilien, Pflanzen, Wirbellose, Insekten, Fische, Amphibien und Reptilien, Vögel und Säugetiere aus dem Gebiet Mazedoniens werden gesammelt, studiert und ausgestellt. Im Erdgeschoss des im 15. Jahrhundert erbauten "Suli Han" (Karawanserei) in der Altstadt ist das Museum des alten Basars untergebracht. Mit seiner Sammlung an Fotografien und Karten aus dieser Zeit zeigt es die Wichtigkeit Skopjes für regionale Händler. Auch Produkte aus Werkstätten und Manufakturen aus der osmanischen Zeit sind ausgestellt. Das Basar-Museum zeigt als einer der wenigen Fotos vom Erdbeben 1963. Das Staatsarchiv Mazedoniens wurde am 1. April 1951 gegründet und hat eine große Archivsammlung, von der 15.000 Exemplare digitalisiert sind. Am albanischen Nationalfeiertag, dem 28. November 2008, wurde im Stadtteil Čair das UÇK-Freiheitsmuseum eröffnet. Es zeigt das Bestreben der albanischen Bevölkerung um Freiheit und Emanzipation von der Gründung der Liga von Prizren 1878 bis zur innenpolitischen Krise Mazedoniens 2001. Theater. Das Nationaltheater befindet sich gleich östlich der Steinbrücke Kamen Most am Vardar. Durch seinen Repertoire-Betrieb ist das Theater der Mittelpunkt des mazedonischen Musiktheatergeschehens. Das erste aufgeführte Stück war Cavalleria rusticana am 9. Mai 1947. Veranstaltungen. Verschiedene Anlässe haben in Skopje Tradition. Vor allem Musik- und Literaturfestivals zählen zu den größten kulturellen Ereignissen im Jahr. Das 1979 erstmals ins Leben gerufene Kulturevent "Skopje Summer Festival" ist das bedeutendste und größte kulturelle Ereignis im Jahr. Künstler, Musiker, Entertainer und Performer zeigen während eines Monats im Sommer ihre Leistungen in Bereichen der Musik, Schönen Künste, Film, Theater und Multimedia-Performance. Veranstaltungsorte sind zahlreiche Einrichtungen und öffentliche Plätze. Das "Skopje Jazz Festival" ist ein seit 1982 stattfindendes Jazz-Festival, das zum Europäischen Jazz-Netzwerk gehört. Neben Jazz werden auch Kubanische Musik und Experimentalmusik gespielt. Das Festival findet jährlich Anfang Oktober statt und erfreut sich immer großer Beliebtheit. Zu den bekanntesten aufgetretenen Musikern zählen Ray Charles, Herbie Hancock, John McLaughlin. Jährlich im Juli wird das "Blues and Soul Festival" abgehalten, wo verschieden Blues- und Soul-Musiker aus Europa und Nordamerika teilnehmen. Austragungsorte sind meist Clubs und Pubs. Die "May Opera Evenings" sind Abende der klassischen Musik. Ballett, Oper und Instrumentalkonzerte zählen zum Programm der seit 1972 im Nationaltheater stattfindenden Veranstaltung. Im Mai 1976 riefen junge Enthusiasten das "Open Youth Theatre Festival" ins Leben. Ihr Ziel war es, in Skopje ein Zentrum der jüngeren Theaterszene in Jugoslawien zu schaffen. Bald erreichten sie das auch, und das Open Youth Theatre wurde zum Ziel junger Menschen, die der Öffentlichkeit ihr Talent zeigen wollten. Alternative und experimentelle Theateraufführungen und auch Improvisationstheater werden von Regisseuren, Schauspielern und Musikern gezeigt. Das "Linden-Festival" gehört zu den größten und wichtigsten literarischen Veranstaltungen Mazedoniens. Durch den mazedonischen Schriftstellerverband im Jahr 1997 gegründet können nationale und internationale Autoren, Poeten und Schreiber am Festival teilnehmen. Austragungszeit ist der frühe Juni, wo in der Stadt die Lindenbäume blühen, nach denen das Kulturevent auch benannt ist. Ein Preis wird einem nationalen und ein anderer einem internationalen Poeten vergeben. Sport. Start des "Skopje Marathon" im Jahr 2010 Als Hauptstadt Mazedoniens ist Skopje das Zuhause vieler nationaler Sport-Teams und Vereine. Die Fußballklubs Vardar Skopje und Rabotnički Skopje spielen in der Prva Makedonska Liga und konnten mehrmals die Meisterschaft gewinnen. Die Handball-Teams "RK Kometal Gjorče Petrov" und RK Metalurg Skopje sind die bekanntesten im Land und konnten vielmals auch an internationalen Veranstaltungen teilnehmen. Das Fußballstadion Philip II steht nordwestlich der Innenstadt am Vardar gleich neben dem Stadtpark und ist mit fast 37.000 Sitzplätzen das größte Stadion des Landes. Die beiden Fußballklubs tragen ihre Heimspiele dort aus. Das "Boris Trajkovski Sports Center" ist eine multifunktionale Sporthalle und wird für kleinere Sportereignisse benutzt, wie beispielsweise für Hand- und Basketballspiele. Es ist nach dem ehemaligen mazedonischen Präsidenten Boris Trajkovski benannt, der 2004 bei einem Flugzeugabsturz ums Leben kam. 2008 war es einer der zwei Austragungsorte der Handball-Europameisterschaft der Frauen. Es hat eine Kapazität von 6000 bis 10.000 Sitzplätzen. Der "Skopje Marathon" findet alljährlich im Spätfrühling statt und erfreut sich immer großer Beliebtheit. Stadtrat und Bürgermeister. Bürgermeister der Stadt ist seit dem Jahr 2009 Koce Trajanovski (VMRO-DPMNE). Stadtsymbole. Das schildförmige Wappen von Skopje zeigt die Steinbogenbrücke Kamen Most, den Vardar, die Festung Kale und einen schneebedeckten Berg. Die Flagge von Skopje ist ein rotes, vertikales Banner im Verhältnis 1:2. Im oberen linken Viertel ist in goldgelb das Wappen platziert. Städtepartnerschaften. Skopje pflegt seit 1961 insgesamt 17 Städtepartnerschaften. Wirtschaft. Skopje ist die Wirtschaftsmetropole Mazedoniens. Die führenden Unternehmen in allen Wirtschaftsbereichen sitzen in der Hauptstadt. Die mazedonische Börse "Macedonian Stock Exchange" begann ihre Arbeit im Jahr 1996 und ist der größte Aktienindex des Landes. Insgesamt sind 30 Aktiengesellschaften registriert. Die Nationalbank Mazedoniens reguliert unter anderem den Kurs des Denars. Sie hat ebenfalls ihren Sitz in der Hauptstadt. Im Jahr 2002 waren in der Stadt rund 64.000 Unternehmen ansässig. Die Arbeitslosigkeit betrug im gleichen Jahr 14,07 Prozent und lag damit tiefer als der landesweite Durchschnitt, der mit 19 Prozent beziffert wurde. Für Januar 2012 wurde die Arbeitslosenrate in Mazedonien mit 31,8 Prozent beziffert. Die Arbeitslosigkeit ist aber vor allem in der Jugend sehr verbreitet; im Jahr 2011 waren im Land 52,5 Prozent der 15- bis 24-jährigen arbeitslos. Der Großteil der Bevölkerung ist in den Dienstleistungen beschäftigt. Dazu gehören Banken (darunter Komercijalna Banka, Tutunska Banka und First Investment Bank (UNIBanka)), Versicherungen, Post (Makedonska Pošta), Telekommunikationsunternehmen (Telekom Makedonija) und Energieversorgungsgesellschaften (EVN,). Ein nicht kleiner Teil arbeitet zudem in der Industrie, die jedoch heute teils veraltet ist, da sie vor allem während der sozialistischen Ära Jugoslawiens ausgebaut wurde. Davon zeugt das große Industriegebiet im Norden der Stadt, wo Fabriken zur Lebensmittelherstellung, Pharmazie (Alkaloid) und aus vielen anderen Bereichen stehen. Die 1982 in Betrieb genommene Raffinerie der ehemaligen Aktiengesellschaft "OKTA" steht außerhalb der Stadt und ist die einzige Erdölraffinerie des Landes. OKTA ging 1999 in die griechische Hellenic Petroleum auf. Makpetrol ist die größte Aktiengesellschaft im Bereich der Erdölproduktion und -verarbeitung. Auch die Schwer- und Metallindustrie nimmt einen bedeutenden Teil der Wirtschaft von Skopje ein. Makstil zählt zu den größten Stahlproduzenten des Landes. In der Bauindustrie ist die Granit AD das größte Unternehmen. Skopje ist Messestadt. Mehrmals im Jahr finden Messen über Themen wie Verkauf, Einrichtungen, Handel, Weine, Finanzen, Tabak, Maschinen, Landwirtschaft, Energie, Elektronik, Industrie, Dienstleistungen, Technik, Erziehung, Bildung und vielem mehr statt. Seit einigen Jahren wird auch der Tourismus zu einem immer größeren Wirtschaftszweig. Die vielen Sehenswürdigkeiten, die abwechslungsreichen kulturellen Veranstaltungen, das rege Nachtleben, die Gastronomie und die Rolle als Hauptstadt eines südosteuropäischen Landes ziehen zahlreiche Touristen aus aller Welt an. Doch mit der Touristenhochburg Ohrid kann sich Skopje noch nicht vergleichen. Medien. Für die Geschichte des Hörfunkes in Mazedonien spielt Skopje eine wichtige Rolle. Radio-Pioniere gründeten am 28. Dezember 1944, also mitten im Zweiten Weltkrieg, den Sender "Radio Skopje", welcher lange Zeit auch der einzige im ganzen Land war. Die erste Radiosendung war eine Übertragung der zweiten Sitzung des ASNOM, der höchsten legislativen Gewalt im neu entstandenen Staat. Auch die mazedonische Fernsehgeschichte ist eng mit der Hauptstadt Skopje verknüpft. Rund 20 Jahre nach "Radio Skopje" wurde am 14. Dezember 1964 die erste Fernsehsendung von "Television Skopje" ausgestrahlt. Der Mazedonische Rundfunk MRT wurde am gleichen Tag gegründet und war bis 1993 Teil des Jugoslawischen Rundfunks JRT. Mit der nach 1993 einsetzenden Demokratisierung wurden auch erste private Rundfunkgesellschaften gegründet. So wie der Fernsehsender A1 im Jahr 1993, der jedoch 2011 seine Arbeit wieder einstellte, und weitere wie Sitel (1993), Kanal 5 (1998) und Alsat-M (2006). Die ersten Zeitungen Mazedoniens erschienen in der Stadt am Vardar. Die älteste Tageszeitung, die den Sozialdemokraten nahesteht, ist Nova Makedonija. Danach folgte am 11. November 1963 Večer, die national-konservativ geprägt ist. Dnevnik, Vreme, Utrinski Vesnik, Vest, Makedonija Denes und Spic sind unabhängige Tageszeitungen, Fakti und Koha die unabhängigen Tageszeitungen der albanischen Minderheit. Verkehr. Skopje ist ein Verkehrsknotenpunkt und bildet den nördlichen Eingang zum Vardartal, das eine Engstelle des wichtigen Verkehrskorridors von Mitteleuropa nach Thessaloniki in Griechenland bildet. In dem engen Tal verlaufen Bahn und Autobahn parallel. An dieser Engstelle, etwa 20 Kilometer östlich des Stadtzentrums, befindet sich auch der größte Flughafen des Landes. Die Autobahn M3 verbindet Skopje mit der kosovarischen Hauptstadt Priština und ist die wichtigste Route ins Nachbarland. Die M4 führt von der Hauptstadt in die westlichen und südwestlichen Städte des Landes und verbindet bei Qafë Thana Mazedonien mit Albanien. Diese Strecke ist Teil des Paneuropäischen Verkehrskorridors VIII, der durch Mazedonien die bulgarischen (Schwarzes Meer) mit den albanischen Hafenstädten (Adriatisches Meer) verbindet. Skopje ist wichtige Kreuzung dieser Paneuropäischen Verkehrskorridore, da sich hier der genannte 8. Korridor mit dem 10. Korridor kreuzt. Dieser verbindet von Salzburg Mitteleuropa mit Griechenland bei Thessaloniki. 2009 wurde die Umgehungsautobahn von Skopje eröffnet, die mit 27 Kilometern Länge die Innenstadt vom Transitverkehr entlastet. Sie führt von der Autobahnverzweigung bei Ilinden im Osten der Stadt nach Norden und endet beim Autobahnkreuz bei Kondovo im Westen der Stadt. Unterwegs verzweigt sie zudem mit der Autobahn M3. Die gesamte neue Umfahrung kostete der mazedonischen Regierung rund 135 Millionen Euro. Skopje ist Sitz der mazedonischen Eisenbahngesellschaft MŽ, die hier auch ihren Hauptbahnhof betreibt. Es gibt Verbindungen nach Belgrad, Thessaloniki, Fushë Kosova, Kičevo, Kočani und Bitola. Zudem gibt es Planungen einer Eisenbahnstrecke von Sofia nach Tirana, die durch Skopje verlaufen soll. Der neue, nach dem Erdbeben 1963 erbaute Bahnhof Skopje befindet sich im Stadtteil Aerodrom, der östlich des Zentrums liegt. Direkt beim Bahnhof gelegen befindet sich der Busbahnhof, von wo es regelmäßige lokale und internationale Busverbindungen in die Nachbarländer und nach Mitteleuropa gibt. Im Stadtverkehr dominieren seit 2011/12 auffällige rote Doppeldeckerbusse, die vom chinesischen Hersteller Yutong nach dem Vorbild des Londoner Routemaster-Busses konstruiert wurden. Es handelt sich dabei um eine Wiedereinführung, denn bereits um 1960 herum hatte es in Skopje eine Anzahl gebrauchter Londoner Doppeldecker gegeben. Die Errichtung einer Straßenbahnlinie ist geplant, bis zum September 2014 läuft eine Ausschreibung für ein Vorhaben in Öffentlich-privater Partnerschaft. Schulen. Skopje hat 21 Mittelschulen/Gymnasien, die über die ganze Stadt verteilt sind. Universitäten und Hochschulen. Die Universität Skopje ist die größte Universität des Landes und hat etwa 50.000 Studenten. Sie ist nach Kyrill und Method benannt und wurde zwischen 1946 und 1949 gegründet. Eine weitere staatliche Hochschule ist die mit 500 Studenten weitaus kleinere Internationale Balkan-Universität. Daneben haben viele private Universitäten und Hochschulen ihren Sitz in der Hauptstadt. Darunter die erste private Hochschule Mazedoniens überhaupt, die FON Universität. Auch die University American College, die New York University und die Orthodoxe Theologische Fakultät zählen zu den größeren privaten Hochschulen in der Stadt und in Mazedonien. Bibliotheken. Die National- und Universitätsbibliothek Mazedoniens steht in der Innenstadt südlich des historischen Stadtkerns gleich neben dem Nationaltheater und ist die größte Bibliothek des Landes. Die Stadtbibliothek, benannt nach den Gebrüder Miladinovi, besitzt heute etwa 60.000 Bücher, Noten und Zeitschriften. Sie nahm ihre Arbeit am 15. November 1945 auf und befindet sich im Stadtteil Karpoš westlich des Zentrums an der Straße "Ivan Agovski". Salbei. Salbei ("Salvia") ist eine Pflanzengattung in der Familie der Lippenblütler (Lamiaceae). Sie ist fast weltweit auf allen Kontinenten außer Antarktika sowie Australien verbreitet. Mit 850 bis über 900 Arten ist es etwa die zwanzigste unter den artenreichsten Gattungen der Bedecktsamigen Pflanzen (Magnoliopsida, Angiospermen). Der Name (heilen) bezieht sich auf den für Küche und Medizin wichtigen Küchen- oder Heilsalbei ("Salvia officinalis"). Viele Arten werden als Heilpflanzen genutzt. Die Sorten einiger Arten werden als Zierpflanzen verwendet. Erscheinungsbild und Blätter. Die Salbei-Arten sind selten ein-, manchmal zweijährige bis meist ausdauernde krautige Pflanzen, Halbsträucher oder Sträucher. Die Pflanzen duften oft aromatisch. Oft befinden sich an oberirdischen Pflanzenteilen einfache Haare und/oder Drüsenhaare (Indument). Die meist selbständig aufrechten Sprossachsen sind meist vierkantig. Die meist gegenständig angeordneten Laubblätter sind sehr kurz bis lang gestielt. Die Blattspreiten sind einfach mit glatten bis gekerbten oder gezähnten Blattrand oder tief gelappt bis fiederschnittig. Es sind keine Nebenblätter vorhanden. Es liegt Fiedernervatur vor. Blütenstände, Blüten und Blütenökologie. Die Blüten stehen seitenständig, selten einzeln, sondern meist zu wenigen bis vielen meist in Scheinquirlen zusammen, die in traubigen, ährigen oder rispigen Gesamtblütenständen mehr oder dicht bis weit auseinander übereinander stehen können. Die früh vergänglichen oder haltbaren Tragblätter unterscheiden sich je nach Art mehr oder weniger deutlich von den Laubblättern und können sehr dekorativ sein. Die Deckblätter sind meist winzig bis kaum erkennbar. Es sind nur kurze bis kaum erkennbare Blütenstiele vorhanden. Die zwittrigen Blüten sind zygomorph und fünfzählig mit doppelter Blütenhülle (Perianth). Die fünf grünen bis purpurfarbenen Kelchblätter sind röhren-, trichter- bis glockenförmig verwachsen. Der Kelchschlund kann innen behaart sein. Die Kelchröhren enden zweilippig, wobei die Oberlippen einfach, zwei- oder dreizähnig und die Unterlippen immer zweizähnig enden. Die 10- bis 15-nervigen Kelche vergrößern sich mehr oder weniger stark bei einigen Arten bis zur Fruchtreife. Die fünf Kronblätter sind zu zygomorphen Blütenkronen verwachsen, die primär den familientypischen zweilippigen Aufbau der „Lippenblüten“ aufweisen, aber die Unterlippe ist bei vielen Arten reduziert. Wenn die Unterlippe voll ausgebildet ist, dann ist sie ausgebreitet dreilappig, wobei der mittlere Lappen am breitesten und konkav ist und die seitlichen Lappen ausgebreitet oder zurückgebogen sind. Die ganzrandige oder zweispaltige Oberlippe ist gefaltet, gerade oder sichelförmig. Die fünf Kronblätter sind röhrig verwachsen. Die Kronröhre ist gerade, horizontal, nach oben gebogen oder oben geweitet und kann innen Haare besitzen. In der Kronröhre können kleine Schuppen (Squamula), zwei bis vier Papillae oder ein Haarkranz oberhalb des Fruchtknotens vorhanden sein. Die Farben der Blütenkronblätter reichen von Weiß bis Gelb sowie von Rot über Rosafarben bis Violett und Blau. Rotblühende Arten ohne Gelenkmechanismus sind üblicherweise vogelbestäubt, je nach geografischer Verbreitung zum Beispiel in Südamerika von Kolibris. Blau- und violettblühende Arten mit Gelenkmechanismus sind meist bienen- oder hummelbestäubt. Übergänge und Ausnahmen sind jedoch möglich. a>"; primary filament tip = primäre Filamentspitze; secondary = sekundäre Filamentspitze Zwei der vier Staubblätter sind zu sehr kleinen Staminodien reduziert; manchmal fehlen Staminodien. Der Aufbau der Staubblätter weicht stark von dem aller anderen Gattungen der Familie Lamiaceae ab. Die zwei freien, fertilen Staubblätter besitzen kurze, horizontale oder aufrechte Staubfäden. Bei vielen Arten, vor allem bei den von Bienen und Hummeln bestäubten, haben die Staubblätter ein Gelenk ausgebildet, das den Pollen auf den Insektenkörper platziert. Dabei bleibt im Wachstum die primäre Spitze des Filaments dünn und wird von umliegendem Gewebe umwachsen, sodass sich eine sekundäre Filamentspitze bildet. Das Konnektiv wächst aus und trennt die beiden Theken räumlich. Die jeweils untere der Theken ist oftmals kleiner bis zu einer sterilen Platte reduziert (monothekat), sodass der Pollen nur noch von den Theken am Blüteneingang gebildet wird. Bei vogelbestäubten Arten ist dieses Gelenk meist nicht (mehr) vorhanden. Die sekundäre Filamentspitze ist teilweise reduziert und das Gelenk somit destabilisiert oder die Filament-Konnektiv-Verbindung ist nicht mehr so gestaltet, dass eine Drehung möglich ist. Der Diskus ist im vorderen Bereich leicht verdickt oder ringförmig. Zwei Fruchtblätter sind zu einem oberständigen Fruchtknoten verwachsen; er ist durch falsche Scheidewände in vier Kammern gegliedert. Der lange, dünne Griffel ist zweigabelig und endet im Querschnitt abgeflachten oder stielrunden, im Umriss pfriemlichen, linealischen oder kreisförmigen Lappen; sie können beide gleich sein oder der vordere ist länger und der hintere kann reduziert sein. Früchte. Die Klausenfrüchte zerfallen in vier glatte, kahle, ellipsoide bis mehr oder weniger kugelige, länglich-eiförmige oder dreikantige, oft braune, einsamige Teilfrüchte (Klausen) mit oder ohne Nerven auf der Oberfläche, die meist bei Feuchtigkeit schleimig sind. Systematik und Verbreitung. Blütenstand von "Salvia" ×"jamensis" 'Sierra San Antonio Gold' Habitus und Blütenstände von "Salvia" ×"sylvestris" a>", gut zu erkennen ist auch der Blütenkelch Der Gattungsname "Salvia" wurde 1753 von Carl von Linné in dessen Werk "Species Plantarum", 1. Auflage, Band 1, S. 23–27 veröffentlicht. Als Lectotypusart wurde 1913 "Salvia officinalis" durch Nathaniel Lord Britton und Addison Brown in "An illustrated flora of the northern United States, Canada and the British possessions:...", 2. Auflage, 3. Band, S. 128 festgelegt. Synonyme für "Salvia" sind: "Arischrada", "Audibertia", "Audibertiella", "Fenixanthes", "Polakia", "Pycnosphace", "Ramona", "Salviastrum", "Schraderia", "Schraderia", "Stenarrhena" und "Zappania" Die Gattung "Salvia" gehört zur Tribus Mentheae in der Unterfamilie Nepetoideae innerhalb der Familie der Lamiaceae. In Bezug auf den Bestäubungsmechanismus mit dem besonderen Aufbau der Staubblätter, der nur einmal aus einem Vorfahren entwickelt wurde, erscheint die Gattung "Salvia" als monophyletisch. Die Vielfalt der "Salvia"-Arten im Aufbau der Staubblätter, der vegetative Habitus und die Blütenmorphologie führten zur anhaltenden Diskussion über die infragenerische Klassifikation. Durch DNA-Sequenzierung wurde gezeigt, dass die Gattung "Salvia" nicht monophyletisch, sondern aus drei unabhängigen Kladen ("Salvia"-Klade I-III) besteht, die jeweils eine andere Schwestergruppe aufweisen. Es wurde auch gezeigt, dass der Staubblatt-Hebelmechanismus dreimal zu mindestens zwei unterschiedlichen Zeitpunkten, durch parallele, konvergente Evolution entstanden ist. Die unterschiedlichen Staubblatt-Hebelmechanismen gehören eindeutig zu den drei Kladen. Walker und Sytsma 2007 stellten die Frage auf, ob innerhalb der Tribus Mentheae die Gattung "Salvia" tatsächlich polyphyletisch oder nur paraphyletisch ist. Um die Gattung "Salvia" monophyletisch zu machen, würde die Eingliederung von 13 Arten der Gattungen "Rosmarinus", "Perovskia", "Dorystaechas", "Meriandra" und "Zhumeria" erforderlich sein. Diese 13 Arten, die noch nicht zur Gattung "Salvia" gehören, weisen die so typischen Staubblatt-Hebelmechanismen nicht auf. Der Umfang der Gattung "Salvia" wird noch immer kontrovers diskutiert. Die Gattung "Salvia" ist fast weltweit verbreitet von tropischen bis in gemäßigte Gebiete. Von Zentral- bis Südamerika kommen etwa 500 Arten vor, vom Mittelmeerraum bis Zentralasien gibt es etwa 250 Arten und in Ostasien sind etwa 90 Arten beheimatet. In Peru kommen etwa 94 Arten vor. In China kommen etwa 84 Arten vor. 34 Arten gibt es in Bolivien. 16 Arten sind in Pakistan beheimatet. 13 Arten sind in Nicaragua beheimatet. In Panama gibt es zehn Arten. In Madagaskar sind sechs Arten beheimatet und zwei Arten Neophyten. Bereits George Bentham Bentham gliederte 1876 in G. Bentham und J. D. Hooker: "Genera Plantarum", 2, S. 1160–1196 die Gattung "Salvia" in Untergattungen und Sektionen. Zwar blieb Benthams Gliederung der Gattung "Salvia" bisher weitgehend bestehen, doch wird dies seit den molekularbiologischen Untersuchungen kontrovers diskutiert. Inhaltsstoffe. Bei den "Salvia"-Arten erfolgt eine Anreicherung von Terpenen. In den Drüsenschuppen und Drüsenhaaren befinden sich ätherische Öle, die besonders viele Mono- sowie Sesquiterpene enthalten. In der Harzfraktion sind Diterpene vorhanden. Wichtig sind dabei trizyklische Diterpene, die Diterpen-Bitterstoffe (Carnosol = Pikrosalvin, Rosmanol, Safficinolid, Carnosolsäure Salvin). In der Blattkutikula kommen Triterpene vor, besonders pentacyclische Triterpene vom Ursan-, Oleanan-, Friedelan-, Dammaran- und Lupantyp. Aromatische Arten wie der Echte Salbei ("Salvia officinalis") enthalten besonders Borneol, Thujon (= „Salviol“), Bornylester (beispielsweise Bornylacetat), Linalool, Camphen, Limonen, a-Pinen, b-Pinen und Campher. Harzreiche Arten wie Muskateller-Salbei ("Salvia sclarea") oder Klebriger Salbei ("Salvia glutinosa") besitzen einen hohen Anteil an schwerflüchtigen Exkreten. Beispielsweise beim Aztekensalbei ("Salvia divinorum") kommen als Diterpene besonders Salvinorine mit halluzinogenen Wirkungen vor. Salbeiblätter enthalten Flavonoide. Es sind auch Gerbstoffe, besonders viel Rosmarinsäure (hoher Anteil in "Salvia plebeia"), enthalten. Verwendung. "Salvia"-Arten werden vielseitig genutzt. Durch den hohen Anteil ätherischer Öle in diversen Salbeiarten gibt es unterschiedliche Verwendungen. Heilend wirken neben den ätherischen Ölen auch die Gerbstoffe. Der Gattungsname "Salvia" stammt vom lateinischen Wort "salvare" für heilen und deutet auf die Heilkraft hin. In der traditionellen chinesischen Medizin werden beispielsweise "Salvia aerea", "Salvia chinensis", "Salvia kiangsiensis", "Salvia plectranthoides", "Salvia trijuga", "Salvia umbratica" verwendet. Der Echte Salbei ("Salvia officinalis") war bereits im Altertum bekannt und wurde im Mittelalter von Mönchen über die Alpen gebracht. Dieser wird vielseitig genutzt, einerseits als Küchengewürz und andererseits in der Heilkunde. Die Blätter und Blüten werden roh oder gegart gegessen. Die sehr aromatischen Blätter werden zum Würzen von gekochten Speisen verwendet. Die Blätter wirken verdauungsfördernd und werden daher bei schweren, fettigen Speisen verwendet. Die Salbeiblätter verleihen herzhaften Gerichten einen wurstähnlichen Geschmack. Die jungen, frischen Laubblätter und Blüten können roh, überbrüht oder eingelegt gegessen werden. Über Salate gestreut ergänzen sie ihn mit Farbe und Duft. Aus den frischen oder getrockneten Blättern brüht man Kräutertee auf. Aus den oberirdischen Pflanzenteilen wird ein ätherisches Öl, das Salbeiöl, gewonnen. Das Salbeiöl wird beispielsweise verwendet um Eiscreme, Süßigkeiten und Gebäck zu aromatisieren. Wenn man die Blattoberseite über die Zähne und das Zahnfleisch reibt, sind sie optimal gereinigt; wobei die Sorten mit purpurfarbenen Laubblättern bessere Ergebnisse bringen, da diese Blätter zäher sind. Das ätherische Salbeiöl wird auch in der Parfümherstellung verwendet, und in Haarwaschmitteln soll es besonders gut für dunkles Haar sein. Pflanzenteile des Echten Salbeis werden als „Kompostaktivator“, meist gemeinsam mit Pflanzenteilen anderer Pflanzenarten, verwendet, damit die bakterielle Aktivität erhöht wird, um den Kompostiervorgang zu beschleunigen. Es wird behauptet, lebende oder getrocknete Pflanzen würden Insekten vertreiben. Das ist auch der Grund, warum man manchmal Echten Salbei zwischen Kohl und Möhren pflanzt. Früher wurde der Echte Salbei in Räumen verteilt, oder es wurde damit geräuchert, um sie zu desinfizieren. Es gibt einige Sorten, auch mit unterschiedlichen Blattfarben, die neben dem Einsatz als Gewürz- und Heilpflanze auch als Zierpflanze verwendet werden. Die Unterarten Lavendelblättriger Salbei ("Salvia officinalis" subsp. "lavandulifolia") und Küchen-Salbei ("Salvia officinalis" subsp. "officinalis") werden etwa gleich vielseitig genutzt. Der Griechische Salbei ("Salvia fruticosa") wird unterschiedlich verwendet. "Salvia fruticosa" kann leichter als "Salvia officinalis" in Räumen gepflegt werden. Die Laubblätter können wie die von "Salvia officinalis" verwendet werden, sind aber weniger hochwertig. 50 bis 95 % der kommerziellen getrockneten Salbeiblätter stammen von "Salvia fruticosa". Aus den Blättern wird ein duftender Tee, „fascomiglia“ genannt, aufgegossen. Ein ätherisches Öl wird aus den Laubblättern gewonnen, das auch zur Verfälschung des Lavendelöls von "Lavandula latifolia" benutzt wird. Die medizinischen Wirkungen wurden untersucht; es können frische sowie getrocknete Blätter oder das Ätherische Öl zum Einsatz kommen. Die duftenden und intensiv schmeckenden Laubblätter von "Salvia clevelandii" können in der Küche gleich wie die von "Salvia officinalis" verwendet werden. Der Muskateller-Salbei ("Salvia sclarea") wird vielseitig genutzt: Die intensiv, warm, aromatisch duftenden und schmeckenden Laubblätter werden roh oder gegart gegessen. Hauptsächlich werden die Blätter zum Würzen von gekochten Speisen, ähnlich wie die von "Salvia officinalis", verwendet. Die frischen Blätter werden in Backteig frittiert. Die gut schmeckenden Blüten werden roh gegessen und werden beispielsweise über Salate gegeben. Aus den Blüten kann auch ein Tee zubereitet werden. Die Pflanzenteile sind manchmal ein Substituent für Hopfen, zum Aromatisieren von Bier; es wird jedoch berichtet, solches Bier würde die Leute sinnlos betrunken oder unsinnig aufgeheitert machen. Die Laubblätter ergeben beim Schönen von Wein einen Muskateller-Geschmack. Während der Blütezeit, werden die oberirdischen Pflanzenteile geerntet und daraus ein ätherisches Öl, das Muskateller-Öl, gewonnen. Das Muskateller-Öl besitzt ein Ambraaroma und wird beispielsweise in Seifen und Kosmetika, als ein Fixativ in der Parfümerzeugung eingesetzt. Das aus dem Salbei gewonnene Öl und die Gerbstoffe, Tannine, wirken effektiv gegen übermäßiges Schwitzen. Deshalb wird Salbei gerne als Antihydrotikum in schweißhemmenden Produkten wie Deos, aber auch in der Fußpflege eingesetzt. Durch die antibakterielle- und entzündungshemmende Wirkung des Salbeis wird auch unreine Körperhaut optimal gepflegt, was sich vor allem die Kosmetikbranche zunutze macht. Auch aus den Klausen wird ein Öl gewonnen, das beispielsweise in Lacken und Farben verwendet wird. Die medizinischen Wirkungen von "Salvia sclarea" wurden untersucht. "Salvia multicaulis" wird als Zutat für Tee oder als Kräutertee aufgebrüht. Die aromatischen Blätter sind in der Küche ein guter Ersatz für die von "Salvia officinalis". Besonders von zwei "Salvia"-Arten werden die Klausen, oft als „Samen“ bezeichnet, unter dem Namen Chia gegessen. Dies sind hauptsächlich der winterannuelle Kalifornische Chia ("Salvia columbariae") und der sommerannuelle Mexikanische Chia ("Salvia hispanica"). Die Kalifornische Chia ("Salvia columbariae") wird vielseitig genutzt: Die Klausen werden roh oder gegart gegessen. Meist werden die Klausen zu Mehl gemahlen. Das nussig schmeckende Mehl wird entweder als sogenannte Piñole gegessen, zu dunklen Kuchen oder Broten gebacken. Das Chia-Mehl wird auch mit Mais-Mehl gemischt zu Brei oder gemischt mit Weizen-Mehl zu Schleimsuppe gekocht. Die Klausen sind reich an Niacin, Thiamin, Zink, Calcium sowie Mangan. Die Klausen besitzen einen hohen Nährwert und sind eine gute Quelle für Proteine sowie leicht verdauliche Fette. Gekeimte Klausen (Keimsprossen) können auf Salate und Sandwiches geben werden. Wenn die Klausen in kaltem Wasser eingeweicht werden, erhält man ein Erfrischungsgetränk, das von spanischsprachigen Amerikanern „chia fresca“ genannt wird. Wenn die Klausen geröstet und danach zu Mehl gemahlen, das mit Wasser gemischt wird, erhält man reichlich gelatineartige Masse, die wohlschmeckend und nährstoffreich ist. Die Klausen wurden dazu verwendet Alkalissalze aus Wasser zu entfernen, um es trinkbar zu machen. Als Ersatz für Echten Salbei ("Salvia officinalis") werden manchmal die Laubblätter als Gewürz verwendet. Die medizinischen Wirkungen wurden untersucht. Pflanzenteile von "Salvia columbariae" wirken desinfizierend. Die Mexikanische Chia ("Salvia hispanica") wird vielseitig genutzt: Wenn man die Klausen in Wasser einweicht, erhält man eine gelatineartige Masse, die mit Fruchtsaft vermischt erfrischende Getränke ergibt. Aus den gelierten Klausen können Schleimsuppe oder Pudding gekocht werden. Die gekeimten Klausen (Keimsprossen) werden beispielsweise in Salaten, Sandwiches, Suppen und Eintöpfen gegessen. Die Klausen können zu Mehl gemahlen werden, aus dem, meist mit Getreidemehl gemischt, beispielsweise Brot, Kekse und Kuchen gebacken wird. Die Klausen sind eine gute Quelle für Proteine sowie leicht verdauliche Fette. Die Klausen des Zurückgekrümmten Salbeis ("Salvia reflexa") werden wohl ähnlich wie die von der Mexikanischen Chia ("Salvia hispanica") verwendet. Vom Distel-Salbei ("Salvia carduacea") werden die Klausen roh oder gegart gegessen. Sie können geröstet und dann zu Mehl gemahlen werden oder mit Samen anderer Pflanzenarten zu Brei gekocht werden. Die Klausen werden auch zur Geschmackverbesserung verwendet. Aus den Klausen wird ein kühlendes Getränk hergestellt. Geröstete und gemahlene Klausen von "Salvia tiliifolia" werden in Wasser eingeweicht um ein Erfrischungsgetränk zu erhalten; es wird manchmal mit Gerstenwasser gemischt. Mit den Blättern werden Läuse vernichtet. Von "Salvia dorrii" var. "incana" werden die Klausen zu Mehl gemahlen, das beispielsweise zum Eindicken von Suppen und gemischt mit Getreidemehl zum Brotbacken verwendet wird. Die medizinischen Wirkungen wurden untersucht. Die Klausen von "Salvia stachyoides" werden verwendet. Der Weiße Salbei, Indianischer Räuchersalbei ("Salvia apiana") wird vielseitig genutzt: Die Klausen werden roh oder gegart gegessen. Die Klausen können zu Mehl gemahlen und Brei daraus gekocht werden. Die Klausen wurden mit Getreide wie Weizen oder Hafer gemischt, geröstet und dann zu Mehl gemahlen, das trocken gegessen wurde. Die Klausen werden über Nacht eingeweicht und in Wasser oder Fruchtsaft getrunken oder mit Getreide gegessen. Die Klausen werden auch als Gewürz verwendet. Die Blätter werden beim Kochen verwendet um Brei zu aromatisieren. Junge Stängel und geschälte Sprossspitzen können roh gegessen werden. Die medinzinschen Wirkungen wurden untersucht. Die Laubblätter werden, in Wasser zerstoßen, als Haarwaschmittel verwendet. Das färbt und stärkt das Haar. Eine Packung frisch zerstoßener Blätter wird unter den Achseln angewendet um Körpergeruch zu behandeln. Die Blätter werden zum Räuchern verwendet, um Häuser nach ansteckenden Krankheiten, beispielsweise Masern, zu desinfizieren. Die Sorte "Salvia verticillata" 'PurpleRain' Die Sorte "Salvia" ×"sylvestris" 'Mainacht' Blütenstände der Hybride "Salvia longispicata" × "Salvia farinacea" Sorte 'Indigo Spires' "Salvia ballotiflora" wird als Kräutertee verwendet. Die nach Ananas duftenden Laubblätter von Honigmelonen-Salbei oder Ananas-Salbei ("Salvia elegans") können frisch oder getrocknet zum Würzen verwendet werden. Sie werden zu kalten Getränken, Fruchtsalat und süßen oder pikanten Speisen gegeben. Die zarten oberirdischen Pflanzenteile von "Salvia glabrescens" werden abgebrüht gegessen. Vom Klebrigen Salbei ("Salvia glutinosa") werden die duftenden Blätter zum Aromatisieren von Landwein verwendet. Der klebrige, aromatische Pflanzensaft wird verwendet. Der Klebrige Salbei bedeckt schnell größere Flächen und wird deshalb als Bodendecker verwendet. Kinder saugen aus den Blüten von "Salvia japonica" Nektar. Die Laubblätter können wie die von "Salvia officinalis" verwendet werden. Aus "Salvia japonica" wird ein schwarzer Farbstoff gewonnen, vermutlich aus den Blüten. Von "Salvia cana" werden die geschälten Stängel gegessen. Die medizinischen Wirkungen wurden untersucht. Die Laubblätter des Wolligen Salbeis ("Salvia lanigera") werden in arabischen Ländern als Zutat für Tee verwendet. Die medizinischen Wirkungen von "Salvia lyrata" wurden untersucht. Der Kalifornische Salbei ("Salvia mellifera") wird vielseitig genutzt: Aus den aromatischen Blättern kann Tee gebrüht werden. Die Laubblätter und Stängel werden zum Würzen von Speisen verwendet. Die getrockneten Klausen werden zu Mehl gemahlen, aus dem Schleimsuppe gekocht wird. Die medizinischen Wirkungen von "Salvia mellifera" wurden untersucht. Die Laubblätter von "Salvia microphylla" duften nach Schwarzer Johannisbeere und werden frisch oder getrocknet als Gewürz verwendet. Aus den Blättern wird ein Kräutertee, „mirot de montes“ genannt, hergestellt. "Salvia microphylla" wurde in der Volksmedizin zum Fiebersenken verwendet. Selten werden die geschälten Stängel von "Salvia moorcroftiana" gegessen. Die medizinischen Wirkungen von "Salvia moorcroftiana" wurden untersucht. Von "Salvia miltiorrhiza" werden die Klausen gegessen. Rotwurzel-Salbei, auch Chinesischer Salbei ("Salvia miltiorrhiza"), 丹参 "dan shen" wird in der traditionellen chinesischen Medizin schon lange genutzt. Die medizinischen Wirkungen von "Salvia miltiorrhiza" wurden auch in pharmazeutischen Versuchen untersucht. Von "Salvia plebeia" werden die Blätter und Blüten verwendet. Die Klausen werden als Gewürz wie Senf verwendet. Die medizinischen Wirkungen von "Salvia plebeia" wurden untersucht. Der Apfeltragende Salbei ("Salvia pomifera") wird vielseitig genutzt: Die intensiv duftenden und schmeckenden Laubblätter ähneln denen von Lavendel-Arten und vom Echten Salbei ("Salvia officinalis"). Sie werden als Ersatz für Echten Salbei beim kommerziellen Würzen von Speisen eingesetzt. Er wird als stark duftender Kräutertee, unter dem Namen „fascomiglia“ verwendet. Gallwespen befallen junge Zweige und verursachen halbdurchsichtige Gallen. Diese Gallen werden konserviert. Aus den Gallen werden Bonbons, durch kristallisieren in Zucker, hergestellt, die in Griechenland als Delikatesse angesehen werden und einen angenehmen sowie adstringierenden Geschmack besitzen. In Griechenland werden die getrockneten Blätter in der Volksmedizin eingesetzt. Die medizinischen Wirkungen von "Salvia pomifera" wurden untersucht. Vom Wiesen-Salbei ("Salvia pratensis") wurden die stark bitter schmeckenden Pflanzenteile zum Schönen von Bier und Wein verwendet. Er diente auch als Ersatz für "Salvia officinalis". Die aromatischen Laubblätter des Wilden Salbeis ("Salvia" ×"sylvestris") werden als Ersatz für die von "Salvia officinalis" verwendet. Vom Filzigen Salbei ("Salvia tomentosa") werden die Laubblätter als Gewürz verwendet. Die Pflanzenteile werden als Kräutertee genutzt. In England wird der Kräutertee aus "Salvia tomentosa" gegenüber allen anderen "Salvia"-Arten bevorzugt. Der Eisenkraut-Salbei ("Salvia verbenaca") wird vielseitig genutzt: Die aromatischen Blätter werden roh oder gegart gegessen. Sie werden besonders zum Würzen gekochter Speisen verwendet. Junge Laubblätter können frittiert oder kandiert werden. Die Blätter können als Kräutertee verwendet werden. Die eßbaren Blüten werden besonders zum Würzen von Salaten verwendet. Die medizinischen Wirkungen von "Salvia verbenaca" wurden untersucht. Der Buntschopf-Salbei ("Salvia viridis") wird vielseitig genutzt: Die sehr aromatischen Blätter werden roh oder gegart gegessen. Sie werden zu Salaten, Suppen und Gemüse gegeben und werden als Gewürz verwendet. Die Klausen werden gegart oder als Gewürz verwendet. Die Blätter und Klausen werden zu gärenden Spirituosen gegeben, um die Wirkung des Gebräues zu erhöhen. Aus Pflanzenteile wird ein ätherischen Öl gewonnen, das verwendet wird um gewisse Biere und Weine zu schönen. Die medizinischen Wirkungen von "Salvia viridis" wurden untersucht. Arten wie der Azteken-Salbei ("Salvia divinorum") enthalten halluzinogene Stoffe. Viele Arten (beispielsweise: "Salvia africana-lutea", "Salvia apiana", "Salvia argentea", "Salvia austriaca", "Salvia azurea", "Salvia blepharophylla", "Salvia buchananii", "Salvia cacaliifolia", "Salvia chamaedryoides", "Salvia chamelaeagnea", "Salvia chiapensis", "Salvia clevelandii", "Salvia coccinea", "Salvia coerulea", "Salvia columbariae", "Salvia confertiflora", "Salvia darcyi", "Salvia discolor", "Salvia dolomitica", "Salvia dominica", "Salvia dorisiana", "Salvia dorrii", "Salvia elegans", "Salvia farinacea", "Salvia forsskaolei", "Salvia fulgens", "Salvia gesneriiflora", "Salvia greggii", "Salvia indica", "Salvia involucrata", "Salvia jurisicii", "Salvia leucantha", "Salvia mellifera", "Salvia mexicana", "Salvia microphylla", "Salvia muelleri", "Salvia multicaulis", "Salvia nemorosa", "Salvia officinalis", "Salvia patens", "Salvia pratensis", "Salvia prunelloides", "Salvia puberula", "Salvia purpurea", "Salvia roemeriana", "Salvia regla", "Salvia sclarea", "Salvia sinaloensis", "Salvia spathacea", "Salvia splendens", "Salvia" ×"sylvestris", "Salvia taraxacifolia", "Salvia tiliifolia", "Salvia uliginosa", "Salvia viridis") und ihre Sorten werden als Zierpflanzen in Parks und Gärten weltweit verwendet. Sie sind in sehr unterschiedlichen Gebieten beheimatet, deshalb ist keine Angabe zur Pflege und zu den Standortbedingungen für die Vielfalt an Arten möglich. Gefährdung. In der Liste der gefährdeten Arten der IUCN sind im Jahr 2013 15 Arten eingetragen. Am stärksten gefährdet sind die drei Arten "Salvia veneris", "Salvia herbanica" und "Salvia caymanensis" mit dem Status „Critically Endangered“ = „vom Aussterben bedroht“. Die vier Arten "Salvia ecuadorensis", "Salvia loxensis", "Salvia peregrina" sowie "Salvia unguella" sind als „Endangered“ = „stark gefährdet“ eingestuft. Als „Vulnerable“ = „gefährdet“ werden die fünf Arten "Salvia austromelissodora", "Salvia curticalyx", "Salvia flocculosa", "Salvia leucocephala" sowie "Salvia trachyphylla" eingestuft. Nur "Salvia humboltiana" gilt als „Near Threatened“ = „potenziell gefährdet“. Die Bewertung „Least Concern“ = „nicht gefährdet“ gilt für "Salvia quitensis". Bei zwei Arten genügen die Daten nicht für eine Bewertung. Von einigen Staaten, die eigene Rote Liste führen, sind keine Arten bei der IUCN eingetragen. Beispielsweise sind 24 südafrikanische Arten in der Roten Liste der gefährdeten Pflanzen Südafrikas aufgeführt, keine davon wird als stärker als „Vulnerable“ = „verletzlich“ bewertet. In der Roten Liste der gefährdeten Pflanzenart der Schweiz sind für dieses Gebiet die Arten: "Salvia glutinosa" (LC = „Least Concern“, „nicht gefährdet“), "Salvia officinalis" (VU = „Vulnerable“, „gefährdet“), "Salvia pratensis" (LC = „Least Concern“, „nicht gefährdet“), "Salvia sclarea" (CR = „Critically Endangered“, „vom Aussterben bedroht“), "Salvia" ×"sylvestris" (EN = „Endangered“, „stark gefährdet“), "Salvia verbenaca" (DD = „Data Deficient“, „ungenügende Datengrundlage“), "Salvia verticillata" (NT = „Near Threatened“, „potentiell gefährdet“) mit sehr unterschiedlichen Gefährdungsgraden eingetragen. Alle in Deutschland heimischen "Salvia"-Arten werden als nicht gefährdet angesehen und sind nach der Bundesartenschutzverordnung (BArtSchV) nicht besonders geschützt. Schnittlauch. Schnittlauch ("Allium schoenoprasum"), auch Graslauch, Binsenlauch, Brislauch, Grusenich, Jakobszwiebel oder Schnittling genannt, ist eine Pflanzenart aus der Gattung Lauch ("Allium"). Sie ist in den Hochgebirgen der Nordhalbkugel weitverbreitet. Schnittlauch wird als Gewürz verwendet. Beschreibung. Illustration aus "Flora Batava", Volume 10 Knospige Blütenstände mit den die Blütenknospen schützenden Hüllblättern Vegetative Merkmale. Schnittlauch ist eine ausdauernde krautige Pflanze, die Wuchshöhen von 5 bis 50 Zentimetern erreicht. Er bildet eine dünnhäutige, eiförmige bis zylindrische Zwiebel aus mit einem Durchmesser von 0,5 bis 1 Zentimetern. Daraus treiben ein bis zwei grüne oder graugrüne, im Querschnitt runde, röhrenförmige Laubblätter mit einem Durchmesser von 2 bis 6 Millimetern. Infolge unterirdischer vegetativer Vermehrung durch Tochterzwiebeln erscheint Schnittlauch oft in Gestalt vielblättriger Horste. Generative Merkmale. Die Blütezeit reicht je nach Standort von Mai bis August. Die Blütenstandsschäfte ähneln den Laubblättern, sind aber etwas fester und höher. Die endständigen, dichten, kugeligen bis eiförmigen, scheindoldige Blütenstände enthalten viele (30 bis 50) Blüten. Ihre Hüllblätter überragen den Blütenstand nie. Anders als beim Weinberg-Lauch ("Allium vineale") oder dem Gemüse-Lauch ("Allium oleraceum") bildet der Blütenstand des Schnittlauchs keine Brutzwiebeln aus. Die kurzen Blütenstiele sind eineinhalb- bis dreimal so lang wie die Blüten. Die zwittrigen, glockenförmigen Blüten sind bei einem Durchmesser von etwa 5 Millimetern radiärsymmetrisch und dreizählig. Die sechs gleichgestaltigen, sich allmählich zuspitzenden Blütenhüllblätter sind etwa 0,7 bis 1,1 (selten bis 1,7) Zentimeter lang und 3 bis 4 Millimeter breit. Die Farbe der Blütenhüllblätter ist violett-purpurfarben, selten auch weiß, manchmal etwas blaustichig, sie variiert von hell- bis dunkelrot; auffällig ist ein dunkler hervorgehobener Mittelnerv. Es sind zwei Kreise mit je drei zahnlosen Staubblättern vorhanden. Die Staubfäden sind meist ein Drittel bis ein Halb (selten bis zu zwei Drittel) mal so lang wie die Blütenhüllblätter; sie sind an ihrer Basis und auf einer Länge von 1 bis 1,5 Millimetern mit den Blütenhüllblättern verwachsen. Die inneren Staubfäden sind nur halb so breit wie die äußeren. Die Staubbeutel sind purpurfarben. Drei Fruchtblätter sind zu einem oberständigen, fast kugeligen Fruchtknoten verwachsen. Der Griffel endet in einer kopfigen Narbe. Die fast kugelige Kapselfrucht ist von den Blütenhüllblättern ballonartig umgeben. Die Samen sind schwarz. Die Chromosomenzahl beträgt 2n = 16. Vorkommen. Natürliche Bestände von "Allium schoenoprasum" sind auf der Nordhalbkugel in Hochgebirgen des warmen, alpinen und arktischen Eurasiens und Nordamerikas weitverbreitet. Das ursprüngliche Verbreitungsgebiet ist nicht mehr ganz klar. Für möglich gehalten wird, dass diese Art in den Alpen und den europäischen Mittelgebirgen beheimatet ist, aber auch, dass er aus Zentralasien oder dem Mittelmeerraum kommt und nach Europa einwanderte. Er kommt aber praktisch überall in den gemäßigten Breiten Nordamerikas und in ganz Europa verwildert vor. Der Schnittlauch gedeiht auf feuchten Steinschuttfluren, Auen und Schneeböden in Höhenlagen bis zu 2600 Metern. Auch trifft man ihn entlang von Flussläufen auf feinerdigen und schlammigen Sand- und Kiesbänken an. Der Schnittlauch gedeiht am besten auf lockeren, nährstoffreichen und feuchten Böden. Nutzung. Schnittlauch ist seit dem frühen Mittelalter in Kultur. Andere Quellen besagen, Schnittlauch sei schon seit etwa 3000 vor Christus bei den Chinesen in Gebrauch und befinde sich seitdem in Kultur. Es gibt zahlreiche Sorten, diese sind in Bezug auf Wuchshöhe und Blattdicke sehr unterschiedlich. Auch weiß blühende Formen kommen vor. Im 17. Jahrhundert ließ sich der englische Apotheker Nicholas Culpeper nur auf besonderen Wunsch eines Landedelmannes dazu überreden, den Lauch in sein Kräuterbuch aufzunehmen, weil dieser nach seiner Ansicht den Schlaf störe und auch das Sehvermögen beeinträchtige. Schnittlauch wird frisch oder tiefgefroren, wegen des geringen Aromas seltener getrocknet oder gefriergetrocknet verwendet und ist Bestandteil der fines herbes der französischen Küche. Als Küchengewürz geerntet werden nur die oberirdischen Röhrenblätter. Fein geschnitten wird er Salaten, Suppen, Eigerichten oder auch Mayonnaise zugefügt. Das Schnittlauchbrot – ein Butterbrot, reichlich belegt mit Schnittlauchröllchen – ist in Bayern und Österreich eine beliebte Komponente der Brotzeitplatte. Schnittlauch ist ein Bestandteil der Grünen Soße, sowohl nach der Frankfurter als auch der Kasseler Rezeptur, eines typischen Gerichts der deutschen Regionalküche, das sich besonders im hessischen Raum großer Beliebtheit erfreut. Gelegentlich wird Schnittlauch auch als Zierpflanze in Gärten, beispielsweise in Steingärten, sowie zur Dachbegrünung verwendet. Anbau. Kommerziell wird Schnittlauch als Würzkraut meist in Gewächshäusern, selten auch in Feldkultur angebaut. Im kommerziellen Anbau waren in den 1990er Jahren vor allem die Sorten ‘Dominant’, ‘Kirdo’, ‘Fitlau’, ‘Wilan’ und ‘Polyvert’. Für 1991 wurde die Anbaufläche in Deutschland auf rund 390 Hektar geschätzt, Zahlen von 1995 wiesen jedoch nur 52 Hektar als Feldkultur aus. Die langen Blätter werden tief abgeschnitten und treiben das ganze Jahr über nach, beim kommerziellen Anbau wird im ersten Jahr einmal, später drei- bis fünfmal geerntet. Nährstoffgehalt – Vitamine, Spurenelemente und Inhaltsstoffe. "Quelle (in englischer Sprache) United States Department of Agriculture" Der Geschmack entsteht durch die Folgeprodukte des enzymatischen Abbaus der Cysteinsulfoxide wie Dipropyldisulfid, Methylpentyldisulfid, Pentylhydrosulfid und Cis-/trans-3,5-Diethyl-1,2,4-Trithiolan. Etymologie. Das Artepitheton "schoenoprasum" setzt sich zusammen aus den griechischen Wörtern "schoinos" für Binse und "prason" für Lauch, direkt übersetzt also „Binsen-Lauch“, und bezieht sich auf die Form der Blätter. Weitere zum Teil auch nur regional gebräuchliche Trivialnamen für den Schnittlauch sind oder waren: Beeslook (Unterweser), Beestlock (mittelniederdeutsch), Bergzwiebel (Schlesien), Bestlók (mittelniederdeutsch), Brisslauch, Graslook (Ostfriesland), Jakobslauch (Leipzig), Jakobszwiebeln, Look (Pommern), Piplook (Altmark), Schnedlach (St. Gallen), Schniddleeg (Siebenbürgen), Schniedling (Augsburg), Schnirrleng (Siebenbürgen), Schnittlacht (St. Gallen), Schnitloch (mittelhochdeutsch), Snedelók (mittelniederdeutsch), Snidlak (Göttingen), Sniteloc (althochdeutsch), Snitelouch (Althochdeutsch), Snitilouch (althochdeutsch), Snitlöcher, Snitloich (althochdeutsch), Snitlook (Bremen), Snitlouch (mittelniederdeutsch) und Snittelauch (mittelniederdeutsch). Sellerie. Die Sellerie ("Apium") ist eine Gattung in der Familie der Doldenblütler (Apiaceae) mit 30 Arten. Insbesondere die Echte Sellerie findet als Nutz- und Heilpflanze Verwendung. Beschreibung. Die Sellerie ist eine ein- oder zweijährige, krautige Pflanze. Die Sprossachse ist kahl, aufrecht, gezahnt und gerillt. Das Wurzelsystem besteht aus einer häufig verdickten Pfahlwurzel und dünnen Nebenwurzeln. Einige Arten bilden auch horizontal verlaufende Rhizome aus, aus denen dünne Wurzeln austreiben. Die einfach gefiederten, wechselständigen Laubblätter sind gestielt mit häutchenartigen Blattscheiden. Die Blütenstände sind lose bis annähernd kompakte, wenigstrahlige Dolden aus wenigen Einzelblüten. Sie sind für gewöhnlich kurz gestielt. Kelchzähne fehlen. Die Kronblätter sind weiß oder grünlich-gelb. Sie sind eiförmig bis fast rund, mit verjüngter, eingeschnittener Spitze. Die Griffel sind kurz und unten konisch verdickt. Die Spaltfrüchte sind kugelig oder ellipsoid und an beiden Enden abgerundet sowie seitlich eingedrückt. Sie sind deutlich 5-rippig. Die Samen sind flach. Die Chromosomenzahl beträgt 2n = 22. Verbreitung. Die Gattung ist auf beiden Hemisphären in den gemäßigten Breiten verbreitet, hauptsächlich aber auf der Nordhalbkugel. In den Tropen wurden nur im Gebirge kleine Vorkommen gefunden. Nutzung. Als Gemüse und Heilpflanze wird vor allem Echter Sellerie verwendet. Sellerie diente bereits im antiken Griechenland als Nahrungsmittel. Etymologie. Der Name Sellerie ist aus dem lombardischen "selleri", dem Plural zu "sellero" entlehnt. Dort stammt es über das spätlateinisch "selīnum" von griechisch "sélinon, σέλινον" ab. Arten (Auswahl). Die Gattung Sellerie ("Apium") ist Teil der Familie der Doldenblütler (Apiaceae) und wird in die Unterfamilie Apioideae gestellt. Molekulargenetische Untersuchungen aus dem Jahr 2000 ergaben jedoch, dass die Gattung wahrscheinlich nicht monophyletisch ist sondern mit den eng verwandten Gattungen "Berula" und "Naufraga" zusammengefasst werden müsste. a> (" Apium inundatum" Rchb. f.) Silber-Weide. Bäume mit männlichen (links) und weiblichen (rechts) Kätzchen Trauerweide ("Salix alba" 'Tristis') in Weinheim Die Silber-Weide ("Salix alba") ist eine Pflanzenart in der Gattung der Weiden ("Salix") aus der Familie der Weidengewächse (Salicaceae). Der Name nimmt auf die silbrig erscheinenden schmal lanzettlichen Laubblätter Bezug. Sie ist eine der wenigen baumförmigen Weiden und war Baum des Jahres 1999. Beschreibung. Die Silber-Weide kann als Laubbaum eine Wuchshöhe bis zu 35 Metern erreichen, sie wächst nur ausnahmsweise strauchig. Jüngere Bäume haben noch eine spitz kegelförmige Baumkrone; die Krone älterer Bäume wirkt dagegen formlos. Der Stamm kann einen Durchmesser von bis zu 1 Meter erreichen, der bei älteren Bäumen durch eine gräuliche, tiefgefurchte Borke gekennzeichnet ist. Die Rinde ist dunkelgrau mit dicken, dicht zusammenstehenden Leisten. Die Verzweigungen sind spitzwinklig. Junge Zweige sind gelb bis (rot)braun, kurz anliegend behaart und biegsam. Ältere Zweige verkahlen. Die Sommerblätter werden 5 bis 12 Zentimeter lang. Sie sind schmal lanzettlich mit der größten Breite in der Mitte und beiderseits gleichmäßig verschmälert. Die Blattränder sind fein drüsig gesägt; die Drüsen sitzen auf den Zahnspitzen. Die Behaarung der Blätter ist oberseits dünn und seidig, unterseits dicht und längs ausgerichtet. Dadurch wirken die Blätter silbrig glänzend und haben zu der deutschen und botanischen Artbezeichnung geführt. Der Blattstiel erreicht 5 Millimeter Länge. Die zweihäusigen Blüten erscheinen nach dem Blattaustrieb von April bis Mai. Die männlichen Blüten sind gelb, die weiblichen grün und später wollig-weiß. Die Kätzchen werden bis zu 7 Zentimeter lang und sind zylindrisch. Die Staubblätter sind an der Basis dicht behaart. Die Fruchtknoten sind kahl, sitzend oder kurz gestielt. Die Tragblätter sind einfarbig gelb und lang gestreckt. Die Basis und der Rand sind kurzhaarig, im vorderen Teil kahl. Es ist nur eine äußere Knospenschuppe vorhanden, eine innere Knospenschuppe und eine „Pseudoschuppe“ fehlen (im Gegensatz zu "Salix × rubens"). Die Samen sind zwischen Juni und Juli ausgereift und tragen lange, weiße Haare, die als Flughilfe dienen. Die Chromosomenzahl beträgt 2n = 76. Verbreitung und Standort. Die Silber-Weide ist in ganz Europa mit Ausnahme von Skandinavien, in Nordafrika und nach Osten bis nach Zentralasien heimisch. In Mitteleuropa kommt sie von der Ebene bis in mittlere Gebirgslagen (bis 850 m) vor. Sie wächst als etwas wärmeliebende Lichtholzart in Überflutungsgebieten in Ufergebüschen, in Auwäldern, an Altwässern, an Bächen oder Seen. Sie bevorzugt periodisch überschwemmte, nährstoff- und basenreiche, kalkhaltige bis mäßig saure, sandig-kiesige Tonböden oder reine Schlickböden (Rohauböden). Sie besiedelt als Pionierpflanze auch Sekundärstandorte wie Gräben, Ufer von Restgewässern oder ehemaliger Entnahmestellen von Sand, Kies, Ton und Lehm. Die Silber-Weide kann ebenfalls als Haldenbegrünung, zur Rekultivierung von Anbauflächen (Bodenverbesserung) oder als Windschutzgehölz eingesetzt werden. Ökologie. In den Überschwemmungsbereichen großer Flüsse wachsen oft mächtige Exemplare der Silber-Weide. Die Bestände sind auf regelmäßige Überflutungen angewiesen und tragen zusammen mit anderen Arten der Weichholzaue dazu bei, Hochwasserereignisse zu mildern und die Ufer zu stabilisieren. Mit ihrem breitflächigen Wurzelsystem kann die Weide die Erosion einschränken. Sie ist sehr wuchskräftig und wurzelintensiv. Im Jugendstadium kann das Wachstum der Jahrestriebe bis zu 2 Meter betragen. Die Zweige bewurzeln sich bei Bodenkontakt sehr leicht und begründen ein sehr ausgeprägtes vegetatives Vermehrungsvermögen. Die Samen besitzen eine schnelle Keimfähigkeit. Das „Kernholz“ d.h. die inneren, nicht mehr Wasser leitenden Teile des Holzkörpers, sind nicht durch Gerbstoffe vor Fäulnis geschützt und verwittern rasch. Daher sind alte Weidenbäume innen oft hohl. Solche Höhlungen dienen Tieren als Unterschlupf oder sie füllen sich mit Humus und werden so zum „Blumentopf“ für andere Pflanzen. Der Biber baut seine Wohnburgen meist in der Nähe von Weiden und benutzt sie als Nahrungsquelle. Durch den Verlust ihrer Biotope ist die Silber-Weide erheblich in ihrem Bestand zurückgegangen. Diese Tatsache war ein Anlass diese Weide als Baum des Jahres 1999 zu wählen. Kopfweiden. Kopfweiden entstehen dadurch, dass man die Zweige regelmäßig bis fast zum Stamm zurückschneidet. Weil das Zurückschneiden der Kopfweiden im Zuge der modernen Landwirtschaft zu mühsam bzw. zu unrentabel wurde, wuchsen viele Kopfweiden aus und brachen zusammen. Inzwischen haben aber engagierte Umweltschützer vielfach das Zurückschneiden der Kopfweiden übernommen. Schädlinge. Die „Wirrzöpfe“ der Weide sind bis 20 cm lange, gestauchte Sprosse, bei denen die Blätter zu Schuppen verkümmert sind. Sie werden durch Gallmilben der Gattungen Eriophyes, Aceria und Vasates verursacht. Systematik. Die Silber-Weide wurde 1753 von Carl von Linné in "Species Plantarum" erstveröffentlicht. Die Bunte Weide ist ein aus Ostasien stammendes in Deutschland eingeführtes Ziergehölz. Sie zeichnet sich durch die dottergelbe bis mennigrote Farbe der jungen Zweige aus, die besonders im Winter auffallen. Der Austrieb ist rot. Die Blätter sind oberseits fast kahl und unterseits nur wenig behaart. Die Silber-Weide bildet zusammen mit der Bruch-Weide ("Salix fragilis") die Fahl-Weide (oder Hohe Weide, "Salix × rubens"). Die Hybride hat rotbraune Zweige. Die Blattspreite ist unterhalb der Mitte am breitesten. Die Tragblätter sind am Rand lang behaart und an der Spitze bärtig. Ein seltener Hybride mit der Mandel-Weide ("Salix triandra") ist die Welligblättrige Weide ("Salix × undulata"). Außerdem bildet die Silber-Weide mit der aus China stammenden Echten Trauerweide ("Salix babylonica") eine Hybride, die Trauerweide "Salix × sepulcralis" mit schlaff hängenden Zweigen. Da heutzutage überall Weiden verschiedener Herkunft angepflanzt werden, haben Sämlinge oft Eltern verschiedener Unterarten. Dies führt zu einer gewissen Vereinheitlichung der in Erscheinung tretenden Merkmale (Phänotyp), bedeutet aber keine genetische Verarmung. Weidenruten und Holz. Die Silber-Weide wurde häufig als Kopfweide geschnitten. Die Weidenruten wurden früher als Flechtmaterial verwendet. Das weißgraue Holz mit braunem Kern wird seltener genutzt. Es ist weich, wenig belastbar, gut spaltbar und biegsam. Es werden meist Cricketschläger, Prothesen oder Holzschuhe daraus hergestellt. Öfter wird es als Brennholz oder in der Papierindustrie genutzt. Heilpflanze. Die Rinde der Weide enthält das schmerzlindernde und fiebersenkende Salicin. Im 12. Jahrhundert empfahl Hildegard von Bingen Weidenrindentee gegen Fieber, Gicht und Gelenkrheumatismus. Im 17. Jahrhundert wurde die Rinde zur Medikamentenherstellung gegen Gicht und Rheuma verwendet. Kosmetik. In der Haarpflege findet die Silber-Weide mittlerweile Anwendung zur Vermeidung des Gelbstichs bei älterem ergrauten, blondiertem oder verchlortem Haar. Sal-Weide. Die Salweide ("Salix caprea"), veraltete Schreibweise "Saalweide", von Botanikern bevorzugt die Bindestrich-Schreibweise als "Sal-Weide", ist eine Pflanzenart in der Gattung der Weiden ("Salix") innerhalb der Familie der Weidengewächse (Salicaceae). Aufgrund ihrer frühen Blütezeit ab Anfang März ist die Salweide eine wichtige, erste Futterpflanze für Insekten wie zum Beispiel Honigbienen, aber auch ein beliebter Frühlingsschmuck im Haus. Sie ist auch unter den Namen "Hängesalweide", "Palmweide" und "Kätzchenweide" bekannt. Ferner ist sie regional unter der Bezeichnung "Palmkätzchen" bekannt – auch die Gebinde aus Weidenzweigen und anderen Gehölzen, die für das Brauchtum am Palmsonntag verwendet werden, tragen diesen Namen. Zum Namen. Der deutsche Name Salweide kommt vom Althochdeutschen "salaha" (Weide). Der lateinische Zusatz "caprea" erinnert daran, dass die Blätter gerne von Ziegen angeknabbert werden. Verbreitung und Standort. Die Salweide wächst paläarktisch im größten Teil Europas (fehlend nur in Südspanien und dem südlichen Balkan) über West- und Zentralasien bis nach Ostasien (Mandschurei, Nordkorea und Nord-Japan). Die Verbreitung umfasst den Norden Anatoliens und den Kaukasus. Die Südgrenze der Verbreitung in Asien liegt nördlich des Altai und folgt in etwa der mongolischen Grenze. Die Verbreitung im Norden erreicht das nördlichste Skandinavien, die Halbinsel Kola und von dort aus die Insel Sachalin und die südlichen Kurilen, mit isolierten Vorposten nördlich davon, so auf Kamtschatka. Die europäischen bis zentralasiatischen und die ostasiatischen Verbreitungsgebiete sind vermutlich durch eine Verbreitungslücke in Sibirien östlich des Baikalsees voneinander getrennt. Die Weide gedeiht auf frischen, nährstoffreichen Standorten – im Gegensatz zu vielen ihrer Verwandten – stets außerhalb von Auen und Sümpfen. Als Pionierpflanze wächst sie auf Brachflächen, Schutthalden und in Kahlschlägen auf lehmigen und steinigen Rohböden. Sie ist eine Kennart der Vorwaldgesellschaften des Sambuco-Salicion capreae und leitet dort neben der Birke die erste Phase der natürlichen Waldentwicklung ein. Wuchsform und Rinde. Die Salweide erreicht Wuchshöhen zwischen 2 und 10 Metern, an geeigneten Standorten bis zu 15 Metern. Als Durchschnittsalter werden 60 Jahre angegeben. Kennzeichnend ist ihre verhältnismäßig breite Baumkrone. Die Rinde der jungen Stämme weist eine graue Färbung mit rautenförmigen Korkwarzen auf. Bei älteren Exemplaren zeigt die graue bis schwarzbraune Borke rautenförmige Aufsprünge, die in Reihen regelmäßig angeordnet sind. Die, im Gegensatz zur Bruchweide, nicht brüchigen Zweige sind anfangs graugrün gefärbt und behaart. Sie verkahlen mit zunehmendem Alter und nehmen eine rötliche oder schwärzliche Färbung an. Knospen und Blätter. Die gelb- bis rotbraunen, ovalen, spitz zulaufenden Knospen der Salweide sind spiralig angeordnet. Eine einzige geschlossene Knospenschuppe, die sich wie eine Mütze abziehen lässt, bedeckt die Knospe. Anfangs sind die Blattknospen etwas behaart, später verkahlen sie. Die formenreichen Laubblätter der Salweide entfalten sich erst nach der Blütezeit und sind wechselständig angeordnet. Sie werden zwischen 5 und 7 cm lang und zwischen 2,5 und 4 cm breit. Sie sind in der Blattmitte oder knapp unterhalb dieser am breitesten. Die meist rundlich-elliptischen Blätter sind unregelmäßig gekerbt, gezähnelt oder ungleichmäßig buchtig gerandet und enden in einer kurzen stumpfen oder etwas gedrehten Blattspitze. Junge Blätter sind auf ihrer Blattoberseite etwas behaart. Im Laufe der Blattentwicklung fallen die kurzen Härchen ab, wobei die dunkelgrüne und häufig etwas glänzende Blattoberfläche mit eingesenktem gelben Blattadernetz deutlich erkennbar wird. Die blau- bis graugrüne Blattunterseite weist eine dauerhafte weißfilzige und dichte Behaarung auf, unter welcher die Nervatur deutlich hervortritt. Die Blattstiele sind bis zu 2 cm lang. An der Basis der Blattspreiten bilden sich kleine, halbnierenförmige Nebenblätter aus. Blütenstände und Früchte. Vor dem Laubaustrieb zwischen März und April entwickeln sich die eingeschlechtigen Blütenstände der Salweide, die sogenannten Weidenkätzchen. Wie fast alle Weidenarten ist auch die Salweide zweihäusig getrenntgeschlechtig (diözisch), das heißt, dass an einem Baum entweder nur weibliche oder ausschließlich männliche Blüten gebildet werden. Die Blüten beider Geschlechter stehen in einem aufrecht orientierten Kätzchenblütenstand zusammen. Die etwa 2 mm langen Tragblätter der Blüten sind zweifarbig: unten schwarz und oben silbrig-weiß und an ihrer Spitze lang bärtig behaart. Daher erscheinen sowohl die weiblichen als auch die männlichen Kätzchen im jungen Zustand pelzig. Erst im Zuge ihrer Entwicklung bilden sich kurze Blütenstiele. Die unscheinbaren Einzelblüten besitzen keine Blütenhülle. Die ovalen bis breitovalen männlichen Kätzchen erreichen eine Länge von 1,5 bis 2,5 cm Länge und etwa 1,5 cm Breite. Die angenehm nach Honig duftenden Einzelblüten verfügen über je zwei Staubblätter mit etwa 6 bis 8 mm langen Staubfäden und ellipsoiden, gelben Staubbeuteln. Am Blütengrund befinden sich zwei Nektardrüsen. Nach der Blüte fallen die männlichen Kätzchen ab. Die kurz-zylinderförmigen weiblichen Kätzchen sind grünblütig. Jede Blüte besitzt einen langgestielten, dicht silbrig behaarten, oberständigen Fruchtknoten. Dieser besteht aus zwei miteinander verwachsenen Fruchtblättern und enthält ein Fruchtfach. An der Basis des Fruchtknotens befinden sich zwei Nektardrüsen. Der Fruchtknoten geht in einen sehr kurzen Griffel über, den zwei bis zur Mitte zweiteilige Narben abschließen. Die beiden Narben stehen aufrecht und liegen eng aneinander. Die weiblichen Blütenstände sind 2 cm hoch und etwa 0,8 bis 1 cm breit. Sie strecken sich während des Erblühens und erreichen zur Fruchtzeit eine Länge von 6 cm und eine Breite von 1,8 cm. Ab Mai bis Juni reifen trockene, grüne vielsamige Kapselfrüchte. Die zweispaltige, aufklappbare Kapsel wird bis zu 9 mm lang. Die Chromosomenzahl beträgt 2n = 38 oder 76. Ökologie. Die Blüten der Salweide werden durch Insekten bestäubt. Die Ausbreitung der Diasporen erfolgt durch den Wind. Die flaumig behaarten Samen hängen an ihren Haarschöpfen zusammen, so dass sie weiße Samenknäuel bilden, welche vom Wind über große Entfernungen verbreitet werden können. Die Keimfähigkeit ist bereits direkt nach der Reife gegeben, verliert sich aber relativ schnell. Salweiden lassen sich – anders als die meisten anderen Weidenarten – kaum durch Sprossstecklinge vermehren. Die Kätzchen der Salweide stellen die erste wichtige Bienennahrung im Jahr dar. Auch frühfliegende Falterarten wie Zitronenfalter, Kleiner Fuchs und Tagpfauenauge schätzen im zeitigen Frühjahr den nahrhaften Nektar. Ferner bietet sie vielen Käfern wie beispielsweise den Weidenblattkäfern ("Chrysomela") Nahrung, da diese ihre Blätter fressen. Der Moschusbock ("Aromia moschata") ernährt sich vom Saft der Salweide. Dem Wild dient die Salweide als Deckungsstrauch und zur Wildäsung. Bedeutung der Salweide als Schmetterlingspflanze. Zusammen mit der Eiche ist die Salweide die bedeutendste Pflanze für die heimische Schmetterlingsfauna. Beinahe einhundert Arten ernähren sich von der Salweide, entweder als Futterstrauch für die Raupen oder als Nährpflanze für die erwachsene Imago. Besonders im zeitigen Frühjahr bietet sie den überwinterten Faltern eine wichtige Nahrungsquelle. Von besonderer Bedeutung sind die noch nicht zu hoch gewachsenen Jungsträucher entlang von Waldrändern und Wegen, da die Schmetterlinge bevorzugt ihre Eier darauf ablegen. Aus Gründen der Biodiversität (Artenvielfalt) sollte deshalb auf die Rodung dieser Sträucher verzichtet werden. Die nachstehende Auswahl an Arten kann nur einen kleinen Überblick der Falter widerspiegeln, die auf die eine oder andere Weise (zum Beispiel als Raupenfutterpflanze) auf die Salweide angewiesen sind. Die Angaben zur Gefährdung entsprechen den Vorgaben der Roten Liste gefährdeter Arten (Binot et al. 1998), sowie der Bundesartenschutzverordnung Deutschlands, und sind in nachstehendem Schlüssel erklärt. Der Artenschutz in Österreich ist Ländersache, und variiert von Bundesland zu Bundesland, weshalb hier auf eine genaue Angabe verzichtet wird. Die Rote Liste sowie die deutsche Bundesartenschutzverordnung kann jedoch auch für Österreich als Maßstab herangezogen werden. Manche als gefährdet eingestufte, lokal noch häufiger auftretende Arten, sind jedoch im Großteil ihres Verbreitungsgebietes in den letzten Jahrzehnten so stark zurückgegangen, dass die verbliebenen Bestände in jedem Fall erhalten werden müssen, was am besten durch geeignete Habitatspflege erreicht werden kann. – (keine Angaben über eine Gefährdung) V (auf Vorwarnliste – außerhalb der roten Liste) § (nach der Bundesartenschutzverordnung in Deutschland besonders geschützt) Die Salweide im Brauchtum. In vielen Gegenden schneidet man am Gründonnerstag oder am Palmsonntag Palmkätzchenzweige. Diese werden zu Hause in eine Vase gestellt und am Karsamstag mit ausgeblasenen und bunt bemalten Eiern geschmückt. Um das Haus und dessen Bewohner vor Ungemach zu schützen, werden auch heute noch Palmzweige am Kruzifix im Herrgottswinkel, an Spiegeln oder auch an Heiligenbildern angebracht. Manche Bauern markierten früher die vier Ecken ihres Ackers mit Palmzweigen, um ihr Feld vor Verwüstungen des Korngeistes zu bewahren. Blühende Palmkätzchen sind auch heute noch – oft neben Stechpalmen- und Wacholderzweigen, blühenden Haselruten und Buchszweigen, Immergrün und Eichenzweigen mit vorjährigem Laub – Bestandteil der sogenannten Palmbuschen. An einem langen kahlen (Palm-)Stecken werden nacheinander jeweils drei Zweige einer Art mit bunten Bändern befestigt. Dieser wird in einer Prozession – meist von Kindern – am Palmsonntag zur Kirche getragen und dort geweiht. Nutzung. Die Rinde der Salweide wird in der Gerberei verwendet. Das Holz wird zur Herstellung von Pfählen genutzt. Von Imkern wird sie vermehrt und besonders an Bienenständen angepflanzt, um die Völker im Frühjahr vor allem mit ausreichender Pollentracht zu versorgen. Der Pollen und Nektarwert wird von Mitte März bis Ende April mit der höchsten Stufe 4 eingestuft. Serotonin. Serotonin, auch 5-Hydroxytryptamin (5-HT) oder Enteramin, ist ein Gewebshormon und Neurotransmitter. Es kommt unter anderem im Zentralnervensystem, Darmnervensystem, Herz-Kreislauf-System und im Blut vor. Der Name dieses biogenen Amins leitet sich von seiner Wirkung auf den Blutdruck ab: Serotonin ist eine Komponente des Serums, die den Tonus (Spannung) der Blutgefäße reguliert. Es wirkt außerdem auf die Magen-Darm-Tätigkeit und die Signalübertragung im Zentralnervensystem. Geschichte. Das Vorkommen eines Stoffes im Blut, der die Blutgefäße kontrahiert, wurde bereits Mitte des 19. Jahrhunderts von Carl Ludwig angenommen. Vittorio Erspamer isolierte in den 1930er Jahren einen Stoff aus der Schleimhaut des Magen-Darm-Trakts, der die glatte Muskulatur kontrahieren lässt. Er nannte ihn „Enteramin“. 1948 isolierten Maurice Rapport, Arda Green und Irvine Page eine Blutgefäße kontrahierende Substanz und gaben ihr den Namen „Serotonin“. Die Struktur dieser Substanz, die Maurice Rapport vorschlug, konnte 1951 durch chemische Synthese bestätigt werden. Kurz darauf konnte Vittorio Erspamer zeigen, dass das von ihm gefundene Enteramin und Rapports Serotonin identisch sind. Irvine Page und Betty Twarog gelang 1953 mit dem Nachweis von Serotonin im Gehirn eine weitere wichtige Entdeckung. Nach der Entdeckung des Serotonins wurden die für seine Wirkung verantwortlichen Rezeptoren intensiv untersucht. John Gaddum führte eine erste Unterscheidung in „D“- und „M“-Rezeptoren ein. Doch erst mit der Etablierung molekularbiologischer Methoden in den 1990er Jahren wurde offensichtlich, dass beim Menschen mindestens 14 verschiedene Serotonin-Rezeptoren existieren, die für die vielfältigen Wirkungen des Serotonins verantwortlich sind. Vorkommen. Serotonin ist in der Natur weit verbreitet. Bereits einzellige Organismen wie Amöben können Serotonin produzieren. Als Produzenten gelten ebenso Pflanzen und Höhere Pilze. In den Brennhaaren der Brennnessel ist Serotonin für deren bekannte Wirkung mitverantwortlich. Zu den serotoninreichsten pflanzlichen Lebensmitteln zählen Walnüsse, die über 300 µg/g Serotonin enthalten können. Aber auch Kochbananen, Ananas, Bananen, Kiwis, Pflaumen, Tomaten, Kakao und davon abgeleitete Produkte, wie beispielsweise Schokolade, enthalten mehr als 1 µg/g Serotonin. Der ungewöhnlich hohe Serotoningehalt, speziell bei Walnüssen, wird mit einem spezifischen Abbaumechanismus von entstehendem Ammoniak zu erklären versucht. Serotonin tritt gelegentlich auch als Nebeninhaltsstoff in psychoaktiven pflanzlichen Drogen auf. So kommt Serotonin beispielsweise neben einigen Serotonin-Abkömmlingen, wie "N","N"-Dimethyl-5-methoxytryptamin und Bufotenin, in Yopo, einer psychoaktiven Droge aus der Pflanze "Anadenanthera peregrina", vor. Für weitere Abkömmlinge des Serotonins, wie Feruloylserotonin und 4-Cumaroylserotonin, wird eine Funktion als Phytoalexin zum Schutz vor Mikroorganismen angenommen. Im Tierreich ist Serotonin in nahezu allen Spezies anzutreffen. Es ist hier einer der phylogenetisch ältesten Neurotransmitter und kommt, wie auch seine Rezeptoren, im Nervensystem bereits so einfacher Vertreter wie dem Fadenwurm "C. elegans" vor. Es wird vermutet, dass das Serotoninsystem, bestehend aus Serotonin und seinen Rezeptoren, bereits im Präkambrium vor über 700 Millionen Jahren entstand. Im menschlichen Organismus kommt die größte Menge an Serotonin im Magen-Darm-Trakt vor. Hier werden etwa 95 % der gesamten Serotoninmenge des Körpers, die auf 10 mg geschätzt wird, gespeichert. Etwa 90 % des Serotonins des Magen-Darm-Trakts werden in den enterochromaffinen Zellen gespeichert, die übrigen 10 % sind in den Nervenzellen (Neuronen) des Darmnervensystems zu finden. Das Serotonin des Bluts ist fast ausschließlich auf die Thrombozyten (Blutplättchen) verteilt. Dieses Serotonin wird von den enterochromaffinen Zellen des Magen-Darm-Trakts produziert und nach Abgabe in das Blut von den Thrombozyten aufgenommen. Auch basophile Granulozyten und Mastzellen können, zumindest bei Nagetieren, Serotonin speichern und freisetzen. Im Zentralnervensystem befindet sich Serotonin insbesondere in den Neuronen der Raphe-Kerne. Eine pathologisch vermehrte Produktion, Speicherung und Freisetzung von Serotonin kann häufig bei neuroendokrinen Tumoren des Magen-Darm-Trakts, den Karzinoiden, beobachtet werden und ist für deren charakteristische Begleitsymptomatik verantwortlich. Chemische Eigenschaften. Serotonin gehört − wie auch das Tryptamin − zur Gruppe der Indolamine. Serotonin ist wegen seiner primären aliphatischen Aminogruppe eine schwache Base. Seine Säurekonstante pKS von 10,4 ist mit der des Tryptamins vergleichbar. Daher liegt Serotonin unter physiologischen Bedingungen in überwiegend protonierter Form vor. In seiner protonierten Form ist Serotonin zur Fluoreszenz befähigt. Diese Eigenschaft wird auch zu seinem Nachweis genutzt. Das Absorptionsmaximum liegt bei 309 nm und das Emissionsmaximum bei 336 nm. Synthese. Für die synthetische Herstellung von Serotonin sind zahlreiche Wege beschrieben. Zu den grundlegenden Strategien der Serotoninsynthese zählen insbesondere die Ergänzung des Indolkörpers um die "β"-Ethylamin-Komponente, die Hydroxylierung von Tryptamin und die Synthese eines Indolgrundgerüsts aus verschiedenen möglichen Vorläufersystemen. Synthesewege, die auf der Einführung der "β"-Ethylamin-Komponente basieren, beginnen mit 5-Hydroxyindol, dessen Hydroxygruppe entweder vorzugsweise mit einer Benzyl-Gruppe oder seltener mit einer Methyl-Gruppe geschützt ist. Das Erstere wird hydrogenolytisch gespalten, das Letztere bevorzugt mit Bortribromid. Die erste Laborsynthese, im Jahr 1951 von Hamlin und Fischer durchgeführt, bedient sich der Mannich-Reaktion zur Herstellung des entsprechenden Gramins in einem ersten Syntheseschritt. Dieses wird dann zur Kettenverlängerung mit Cyanid in wässrigem Alkohol und anschließender Hydrolyse zu 5-Benzyloxyindol-3-acetamid umgesetzt. Nach Etherspaltung und anschließender Reduktion des Amids lässt sich das Serotonin isolieren. Synthese von Serotonin nach Hamlin und Fischer Gemäß einer fast zeitgleichen Veröffentlichung von Speeter und Mitarbeitern wird zunächst 3-(5-Benzyloxy)indolyl-magnesiumiodid als Grignard-Reagenz hergestellt und dann mit Chloracetonitril zum entsprechenden 3-Acetonitrilindol umgesetzt. Das Nitril wird reduziert und der Ether gespalten. Eine mit den vorstehenden Verfahren verwandte Variante mit verbesserten Ausbeuten beschreibt die Herstellung von radioaktiv markiertem a>-Serotonin für Positronen-Emissions-Tomographieuntersuchungen. Dabei wird 5-Methoxygramin an "N"2 zur quartären Ammoniumverbindung umgesetzt und mit [11C]-Cyanwasserstoff zu 5-Methoxy-3-acetonitrilindol nukleophil substituiert. Es folgt eine Etherspaltung und schließlich eine Reduktion. Eine Methode, die sich auf zwei Reaktionsschritte beschränkt, besteht in der Addition von Nitroethylen an 5-Benzyloxyindol mit nachfolgender Hydrierung. Das Nitrovinylindol, das als Zwischenprodukt auftritt, ist alternativ über eine Aldolkondensation des Indol-3-carbaldehyds mit Nitromethan zugänglich. Ferner existiert noch der probate Weg über die Friedel-Crafts-Acylierung mit Oxalylchlorid. Das auf solche Weise gewonnene 5-Benzyloxy-3-Indol-glyoxylylchlorid verbindet sich mit Dibenzylamin zum Amid, das reduziert und debenzyliert wird. Eine andere Synthesestrategie beruht auf der Hydroxylierung von Tryptamin zum Serotonin. Nach Schützung der Aminfunktion zum "N"-Methoxycarbonyltryptamin wird dieses mit Triethylsilan zum entsprechenden Indolin reduziert. Die Oxidation desselben mittels Wasserstoffperoxid in Gegenwart von Natriumwolframat-Dihydrat bildet das Zwischenprodukt 1-Hydroxy-"N"-methoxycarbonyltryptamin. Die regioselektive nukleophile Hydroxylierung in 5-Position gelingt mit 85 %iger Ameisensäure. Abschließende Hydrolyseschritte wie die alkalische Entschützung liefern das Serotonin. Ein weiteres Herstellungsverfahren basiert auf einer Indolsynthese als abschließenden Schritt. 2,5-Dimethoxybenzaldehyd unterwirft man der Knoevenagel-Reaktion mit Cyanoacetat und addiert an den entstandenen Michael-Akzeptor Blausäure. Die Succinonitril-Verbindung wandelt man durch Hydrierung und Etherspaltung zum 1,4-Diamino-2-(2,5-dihydroxyphenyl)butan, welches dann mit Ferricyanid oxidativ in das Endprodukt überführt wird. Dieser Schlussschritt dürfte über das Chinon verlaufen, das intramolekular zum Imin kondensiert und zum Indol aromatisiert. Abseits der erwähnten Pfade wurde der Aufbau eines Tryptolin-1-ons beschrieben, dessen Ringöffnung Serotonin hervorbringt. Auch gibt es den Aufbau einer zunächst aliphatischen bicyclischen Verbindung, die im späteren Verlauf zum Indol aromatisiert wird. Biochemie und Pharmakokinetik. Biosynthese und Abbau von Serotonin in Mensch und Tier Aufnahme. Nach oraler Gabe wird Serotonin zu etwa 75 % in den Blutkreislauf aufgenommen und später nach Verstoffwechslung über den Urin ausgeschieden. Ähnliche Werte werden für die Aufnahme von Serotonin aus Lebensmitteln wie Bananen gefunden. Biosynthese. Beim Menschen und bei Tieren wird Serotonin aus der Aminosäure L-Tryptophan in einer Zwei-Schritt-Reaktion unter Beteiligung der Enzyme Tryptophanhydroxylase und Aromatische-L-Aminosäure-Decarboxylase aufgebaut. Im ersten Schritt entsteht als Zwischenprodukt die nicht-proteinogene Aminosäure 5-Hydroxytryptophan (5-HTP). Im zweiten Schritt erfolgt eine Decarboxylierung zum Endprodukt Serotonin. Der wichtigste Produktionsort sind die enterochromaffinen Zellen der Darmschleimhaut. Von hier aus wird das produzierte Serotonin über die Blutplättchen transportiert. Eine Passage der Blut-Hirn-Schranke ist jedoch nicht möglich, sodass Serotonin auch im Zentralnervensystem produziert werden muss. Den Stellenwert der neuronalen Serotoninproduktion zeigt die Anwesenheit einer zweiten paralogen Tryptophanhydroxylase im Gehirn, die bereits vor der Entwicklung der Wirbeltiere durch Genverdopplung aus der ersten Isoform hervorging. Die Biosynthese von Serotonin in Pflanzen weicht in der Reihenfolge ihrer Schritte von der in Tieren ab. Unter Beteiligung der Tryptophandecarboxylase wird im ersten Schritt L-Tryptophan zum Zwischenprodukt Tryptamin decarboxyliert. Im zweiten Schritt erfolgt eine Hydroxylierung mit Hilfe der Tryptamin-5-Hydroxylase zum Endprodukt Serotonin. Abbau. Das Serotonin der Nervenzellen wird nach seiner Freisetzung in den synaptischen Spalt aktiv mit Hilfe des Serotonin-Transporters (SERT), einem Transportprotein, rückresorbiert und wiederverwertet. Das aus den enterochromaffinen Zellen produzierte Serotonin wird rasch nach seiner Freisetzung über das gleiche Transportprotein in den Epithelzellen der Darmschleimhaut und in den Thrombozyten gebunden. Der Abbau von Serotonin erfolgt vorrangig über das Enzym Monoaminooxidase (MAO) vom Typ A und in einem deutlich geringeren Maß über MAO Typ B. Das Produkt 5-Hydroxy-Indolyl-Acetaldehyd wird von der Aldehyd-Dehydrogenase weiter zu 5-Hydroxyindolylessigsäure (5-HIAA) abgebaut. 5-Hydroxyindolylessigsäure, die im Urin nachgewiesen werden kann, ist das Hauptausscheidungsprodukt von Serotonin. Ein weiterer Stoffwechselweg führt ausgehend vom Serotonin zum Zirbeldrüsen-Hormon Melatonin, wobei nach einer Acetylierung der Aminogruppe des Serotonins unter Beteiligung der Serotonin-N-Acetyltransferase und des Acetyl-Coenzym A und einer anschließenden Methylierung mit Hilfe der Acetylserotonin-O-Methyltransferase und S-Adenosylmethionin Melatonin gebildet wird. Dieser Stoffwechselweg wird entscheidend über eine Steuerung der Enzymaktivität der Acetyltransferase durch das Tageslicht reguliert. Funktionen. Im menschlichen Organismus besitzt Serotonin vielfältige Wirkungen insbesondere auf das Herz-Kreislauf-System, den Magen-Darm-Trakt und das Nervensystem. Auf molekularer Ebene werden die Funktionen des Serotonins über die mindestens 14 verschiedenen Serotonin-Rezeptoren (5-HT-Rezeptoren) vermittelt, die in 7 Familien zusammengefasst werden: 5-HT1 bis 5-HT7. Die 5-HT3-Rezeptoren bestehen aus Ionenkanälen, alle übrigen bekannten 5-HT-Rezeptoren sind G-Protein-gekoppelte Rezeptoren. Dank dieser Vielzahl an Serotonin-Rezeptoren, die zudem gewebe-, zelltyp- und konditionsabhängig verteilt sind, ist der Organismus in der Lage, auf unterschiedliche Serotonin-Konzentrationen zu reagieren und verschiedenartige Signaltransduktionswege zu starten. Diese sind die Hauptursache für die oft gegensätzlichen Funktionen von Serotonin im Organismus. Darüber hinaus vermag Serotonin intrazellulär über eine als Serotonylierung bezeichnete Modifikation von Proteinen Signaltransduktionsprozesse zu steuern. Herz-Kreislauf-System. Die Wirkungen von Serotonin auf das Herz-Kreislauf-System sind komplex und umfassen sowohl das Zusammenziehen (Kontraktion) als auch die Entspannung (Relaxation) der glatten Muskulatur von Blutgefäßen. Während in der Lunge und in den Nieren des Menschen die blutgefäßverengende Wirkung im Vordergrund steht, dominiert in der Skelettmuskulatur die blutgefäßerweiternde Wirkung. Eine Injektion von Serotonin in den Blutkreislauf verursacht eine triphasische Veränderung des Blutdrucks. Nach einem anfänglichen Blutdruckabfall kommt es nach wenigen Sekunden zu einem Blutdruckanstieg, um letztendlich in einer langanhaltenden Hypotonie zu enden. Für diese Effekte sind die Rezeptoren 5-HT1B, 5-HT2A, 5-HT2B und 5-HT7 hauptverantwortlich. Je nach Blutgefäß führen sie zu einer direkten Kontraktion (über 5-HT1B, 5-HT2A und 5-HT2B) oder Relaxation der Blutgefäße (über 5-HT7). Alternativ können Blutgefäße indirekt über die Beteiligung des Endothels (über 5-HT1B und 5-HT2B) und einer Freisetzung von blutgefäßerweiternden Botenstoffen, wie beispielsweise Stickstoffmonoxid (NO), relaxiert werden. Neben diesen unmittelbaren Effekten auf die Blutgefäße vermag Serotonin über das Zentralnervensystem den Blutdruck und den Blutgefäßtonus auf komplexe Weise zu steuern. Blutgerinnung. Serotonin hat sowohl mittelbare als auch unmittelbare Auswirkungen auf die Blutgerinnung. Die Thrombozyten, auch Blutplättchen genannt, deren Zusammenballung (Aggregation) wichtig für die Blutgerinnung ist, dienen nicht nur der Speicherung und Freisetzung von Serotonin, sondern tragen selbst Serotoninrezeptoren des Typs 5-HT2A. Dank dieser führt Serotonin zu einer Entleerung der Granula der Thrombozyten und verstärkt die durch andere Botenstoffe wie beispielsweise Adenosindiphosphat oder Thrombin hervorgerufene Thrombozytenaggregation und fördert so die Blutgerinnung. In kleineren Blutgefäßen trägt es zudem durch Vasokonstriktion und somit durch einen reduzierten Blutstrom zur Wundheilung bei. Magen-Darm-System. Im Magen-Darm-Trakt hat Serotonin verschiedene motorische und sensorische Funktionen. Dabei reagiert das Verdauungssystem einerseits auf Serotonin, das aus den enterochromaffinen Zellen freigesetzt wird, andererseits fungiert Serotonin als Neurotransmitter im Darmnervensystem. An der Vermittlung der Wirkung des Serotonins im Magen-Darm-Trakt sind insbesondere die Serotonin-Rezeptoren 5-HT3 und 5-HT4 beteiligt. Serotonin, das in die "Lamina propria" der Darmschleimhaut freigesetzt wird, führt über eine Aktivierung verschiedener Serotoninrezeptoren zu einer Aktivierung primärer Neurone des Darmnervensystems. Diese Neurone leiten ihre Reize einerseits über erregende Motoneurone mit dem Neurotransmitter Acetylcholin und andererseits über hemmende Motoneurone mit dem Transmitter Stickstoffmonoxid weiter. Unter dem Zusammenspiel beider Motoneurone führt Serotonin zu einer aufeinander abgestimmten, abwärts gerichteten Welle aus Kontraktion und Relaxation der Darmmuskulatur, die auch als Peristaltik bezeichnet wird. In seiner sensorischen Funktion führt freigesetztes Serotonin nach einer Signalweiterleitung unter Beteiligung des "Nervus vagus" in Form eines Reflexes auch zu Übelkeit und Erbrechen. Unter Beteiligung der Spinalnerven werden Beschwerden und Schmerzen aus dem Magen-Darm-Trakt in Richtung Gehirn weitergeleitet. Als Quelle des Serotonins im Magen-Darm-Trakt besitzen die enterochromaffinen Zellen die größte Bedeutung. Sie reagieren auf einen erhöhten Darminnendruck mit einer Freisetzung von Serotonin, wodurch die Peristaltik angeregt wird. Auch Aromastoffe können zu einer Aktivierung der Serotoninausschüttung aus den enterochromaffinen Zellen und somit zu einer Anregung der Bewegung des Darms, der Darmmotilität, führen. Eine Nebenwirkung zahlreicher, in der Chemotherapie von Krebserkrankungen verwendeter Zytostatika, das sogenannte Zytostatika-Erbrechen, lässt sich mit einer massiven Freisetzung von Serotonin aus den enterochromaffinen Zellen erklären. Auge. Im menschlichen Auge reguliert Serotonin über eine Aktivierung verschiedener Serotoninrezeptoren den Augeninnendruck über Nerven, welche unter anderem Serotonin als Neurotransmitter nutzen. Als mögliche Mechanismen kommen eine Steuerung der Kammerwasserproduktion im Auge und eine Öffnung oder Schließung des Pupillenverengermuskels "Musculus sphincter pupillae" in Frage. Auch eine Nebenwirkung sogenannter Selektiver Serotonin-Wiederaufnahmehemmer (SSRI), das gehäufte Auftreten eines Glaukoms, kann mit einer Wirkung von Serotonin auf den Augeninnendruck erklärt werden. Zentralnervensystem. Das Serotoninsystem des Zentralnervensystems. Serotoninerge Neurone strahlen aus den Raphekernen in alle Gehirnregionen aus. Serotonin, das sich im Zentralnervensystem in den Somata (Zellkörper) serotoninerger Nervenbahnen in Raphe-Kernen befindet, deren Axone in alle Teile des Gehirns ausstrahlen, beeinflusst unmittelbar oder mittelbar fast alle Gehirnfunktionen. Zu den wichtigsten Funktionen des Serotonins im Gehirn, das die Blut-Hirn-Schranke nicht überwinden kann und daher vor Ort gebildet werden muss, zählen die Steuerung oder Beeinflussung der Wahrnehmung, des Schlafs, der Temperaturregulation, der Sensorik, der Schmerzempfindung und Schmerzverarbeitung, des Appetits, des Sexualverhaltens und der Hormonsekretion. Serotonin fungiert dabei einerseits als Neurotransmitter im synaptischen Spalt. Andererseits wird es diffus über freie Nervenendungen ausgeschüttet und wirkt als Neuromodulator. Stimmung. Zu den bekanntesten Wirkungen des Serotonins auf das Zentralnervensystem zählen seine Auswirkungen auf die Stimmungslage. Es gibt uns das Gefühl der Gelassenheit, inneren Ruhe und Zufriedenheit. Dabei dämpft es eine ganze Reihe unterschiedlicher Gefühlszustände, insbesondere Angstgefühle, Aggressivität, Kummer und das Hungergefühl. Depressive Verstimmungen lassen sich neurochemisch häufig auf einen Mangel an Serotonin oder seiner Vorstufe, der Aminosäure Tryptophan, zurückführen. Eine Überdosierung von selektiven Serotonin-Wiederaufnahmehemmern kann zu Unruhe und Halluzinationen führen. Serotonin führt über eine Stimulation bestimmter Regionen der Großhirnrinde, die für die emotionale Regulation verantwortlich sind, im Wesentlichen zu einer Hemmung der Impulsivität und des aggressiven Verhaltens. Hieran sind insbesondere Serotoninrezeptoren vom Typ 5-HT1A und 5-HT1B beteiligt. Für die euphorisierende und halluzinogene Wirkung von Serotoninagonisten wie beispielsweise LSD ist eine Aktivierung von 5-HT2A-Rezeptoren verantwortlich. Serotonin wird auf Grund seiner Wirkungen auf die Stimmungslage im Volksmund oft als „Glückshormon“ bezeichnet. Ein Konsum serotoninreicher Genussmittel, wie beispielsweise Schokolade oder Bananen, führt jedoch nicht wegen des enthaltenen Serotonins zu einer stimmungsaufhellenden Wirkung, da Serotonin nicht die Blut-Hirn-Schranke überwinden kann. Vielmehr bewirken die aufgenommenen Kohlenhydrate eine vermehrte Produktion und Ausschüttung von Neurotransmittern im Gehirn, die zu dieser Wirkung führen. Schlaf-Wach-Rhythmus. Eine mögliche Rolle des Serotonins bei der Regulierung der Schlaf-Wach-Rhythmik ist seit den 1950er Jahren bekannt. Die Befunde zur Modulation der Schlaf-Wach-Rhythmik durch Serotonin waren lange Zeit teils widersprüchlich. Nach heutigem Kenntnisstand bewirkt Serotonin im Wesentlichen die Beförderung des Wachzustands. Dabei sind die serotoninhaltigen Neurone der Raphe-Kerne, welche mit dem Nucleus suprachiasmaticus (SCN) des Hypothalamus, dem Sitz der Hauptuhr der Säugetiere, verbunden sind, während des Wachzustands aktiv. Im Tiefschlaf hingegen reduzieren sie ihre Tätigkeit, und während des REM-Schlafs stellen sie diese praktisch ein. Zugleich steuert der Nucleus suprachiasmaticus unter anderem die Produktion und Freisetzung des an der zeitlichen Steuerung des Schlafs beteiligten Hormons Melatonin aus der Zirbeldrüse. Appetit. Serotonin ist ein Neurotransmitter, dessen Ausschüttung im Gehirn indirekt mit der Nahrung in Verbindung steht. Ein Faktor ist die Konzentration an freiem Tryptophan im Blutplasma. Kohlenhydrat- und zugleich eiweißreiche Kost führt über eine Ausschüttung von Insulin zu einer Steigerung der Tryptophanaufnahme ins Gehirn, welche mit einer gesteigerten Serotoninsynthese assoziiert wird. Serotonin wird insbesondere mit einer appetithemmenden Wirkung in Verbindung gebracht. Bei übergewichtigen Menschen sind der Tryptophanspiegel im Blutplasma und der Serotoninspiegel im Gehirn verringert. Arzneistoffe, welche − wie die selektiven Serotonin-Wiederaufnahmehemmer − die Serotoninkonzentration im Gehirn erhöhen, führen zu einer Appetitlosigkeit als Nebenwirkung. Eine selektive Aktivierung von Serotoninrezeptoren des Subtyps 5-HT1A, die vorrangig als Autorezeptoren die Serotoninfreisetzung kontrollieren, führt über eine Hemmung der Serotoninausschüttung aus den Nervenenden zu einer Appetitsteigerung. Die eigentliche appetitsenkende Wirkung des Serotonins ist insbesondere auf die Serotoninrezeptoren 5-HT1B oder 5-HT2C zurückzuführen. Schmerz. Serotonin, das beispielsweise aus verletzten Nervenzellen freigesetzt wird, ist ein direkter Aktivator eines Schmerzreizes. Von größerer Bedeutung ist die Wirkung von Serotonin, über absteigende serotoninerge Neurone in das Hinterhorn des Rückenmarks Schmerzreize zu verstärken oder abzuschwächen. Sexualverhalten. Serotonin, das unter anderem zum Zeitpunkt der Ejakulation in den Hypothalamus ausgeschüttet wird, zeigt primär eine hemmende Wirkung auf das Sexualverhalten und die Sexualfunktionen. Serotonin fungiert dabei als Gegenspieler des Dopamins. Arzneistoffe, welche wie die selektiven Serotonin-Wiederaufnahmehemmer die Serotoninkonzentration im Gehirn erhöhen, können neben einer Reduktion des Sexualbedürfnisses beim Mann insbesondere zu einer eingeschränkten Fähigkeit zur Erektion oder zu einer Hemmung der Ejakulation führen. Eine gestörte Serotoninproduktion führt im Experiment mit Mäusen zu bisexuellem Sexualverhalten, das sich durch Serotoningaben in heterosexuelles zurückführen lässt. Temperaturregulation. Serotonin ist im Zentralnervensystem an der Regulation der Körpertemperatur beteiligt. Je nach involviertem Gehirnareal und je nach beteiligten Rezeptoren führt Serotonin zu einem Anstieg (Hyperthermie) oder einer Absenkung der Körpertemperatur (Hypothermie). Die hypotherme Wirkung des Serotonins wird insbesondere mit einer Aktivierung von Serotoninrezeptoren des Subtyps 5-HT7 in Verbindung gebracht. Neuroendokrine Tumoren. Feingeweblicher Schnitt eines Serotonin produzierenden Tumors (Kolon-Karzinoid) Serotonin spielt häufig bei neuroendokrinen Tumoren, das heißt bei gut- oder bösartigen Tumoren mit Eigenschaften von Nervenzellen ("Neuro"ne) und hormonproduzierenden ("endokrin"en) Drüsen, eine zentrale Rolle. Das Karzinoid, eine Sammelbezeichnung für neuroendokrine Tumoren des Magen-Darm-Trakts, ist durch die Überproduktion von Gewebshormonen, insbesondere Serotonin, geprägt. Im Gegensatz zu den meisten anderen Tumoren sind die charakteristischen Symptome des Karzinoids nicht auf eine Verdrängung von gesundem Gewebe, sondern insbesondere auf die Wirkungen des erhöhten Serotoninspiegels zurückzuführen. Ein erster Hinweis auf eine karzinoidbedingte Erhöhung des Serotoninspiegels im Magen-Darm-Trakt sind anhaltende Durchfälle und Bauchkrämpfe. Bei einer erhöhten Serotonin-Produktion außerhalb des Magen-Darm-Trakts, beispielsweise nach Metastasierung, sind systemische Serotonin-Wirkungen, wie das Flush-Syndrom, zu beobachten. Ist der Serotoninspiegel karzinoidbedingt über eine längere Zeit erhöht, treten als Folge der hypertrophischen Wirkung des Serotonins Fibrosen, insbesondere der Trikuspidalklappen und Pulmonalklappen des Herzes, auf. Pulmonale Hypertonie. Störungen des Serotonin-Systems werden als eine mögliche Ursache für die Entstehung der seltenen pulmonal-arteriellen Hypertonie betrachtet. Arzneistoffe, die den Serotonintransporter hemmen und die freie Serotoninkonzentration erhöhen, können die Entstehung einer pulmonalen Hypertonie begünstigen. Ein Polymorphismus des Serotonintransporter-Gens und eine Mutation des Serotoninrezeptors 5-HT2B wurden als weitere mögliche Ursachen einer pulmonale Hypertonie gefunden. Migräne. Neben anderen Neurotransmittern spielt Serotonin eine zentrale Rolle in der Pathophysiologie der Migräne. Im Vorfeld einer Migräne und während einer Migräneattacke können charakteristische Schwankungen des Serotoninspiegels beobachtet werden. Ein niedriger Serotoninspiegel in den betreffenden Gehirnarealen wird dabei mit einer Ausbreitung sogenannter trigeminovaskulärer Schmerzreize als Ursache der Migräne in Verbindung gebracht. Depression. 1969 stellten gleichzeitig Alec Coppen, Izyaslav Lapin und Gregory Oxenkrug die Hypothese auf, dass ein Mangel an Serotonin ursächlich für die Entstehung von Depressionen sei. Sie basiert auf früheren Beobachtungen, dass die Konzentration des Serotonin-Abbauprodukts 5-Hydroxyindolylessigsäure in der Gehirnflüssigkeit bei depressiven Patienten reduziert sei. Eine klare Korrelation zwischen 5-Hydroxyindolylessigsäure-Konzentration und dem Schweregrad einer Depression besteht dennoch nicht, da die Konzentration des Metaboliten nur ein indirektes Maß für die Serotonin-Konzentration ist. Beobachtungen nach einem pharmakologisch induzierten Serotoninmangel oder der Anwendung von Serotoninwiederaufnahmehemmern stützen die Serotonin-Hypothese der Depression. Nach der Beobachtung, dass bei depressiven Patienten die Aufnahmefähigkeit von Serotonin in Blutplättchen und in das Gehirn reduziert ist, wurde der Serotonintransporter und ein genetischer Polymorphismus der Promotorregion seines Gens (5-HTTLPR) als ein Vulnerabilitätsfaktor für das Auftreten einer Depression vermutet. Da die Ergebnisse wissenschaftlicher Untersuchungen über die Beteiligung von Serotonin zum Teil widersprüchlich sind, ist die Serotonin-Hypothese der Depression nicht unumstritten. Pharmakologie. Serotonin selbst findet keine therapeutische Anwendung. Demgegenüber werden Arzneistoffe, welche die Freisetzung, die Wirkung, die Wiederaufnahme und den Abbau von Serotonin beeinflussen, in vielfältiger Weise zur Behandlung und Vorbeugung von Krankheiten eingesetzt. Das mengenmäßig größte Einsatzgebiet von Arzneistoffen mit einer Wirkung auf das Serotonin-System sind psychische Erkrankungen. Antidepressiva. In der Behandlung von Depressionen besitzen selektive Serotonin-Wiederaufnahmehemmer (SSRI), wie beispielsweise Fluoxetin, Fluvoxamin, Paroxetin, Sertralin und Citalopram, einen hohen Stellenwert. Sie sind Hemmstoffe des Serotonintransporters und führen zu einer erhöhten Konzentration und einem verlängerten Verbleib von Serotonin im synaptischen Spalt. Auch die Wirkung der älteren trizyklischen Antidepressiva beruht, zumindest zum Teil, auf einer Hemmung des Serotonintransporters. Die ebenfalls als Antidepressiva genutzten MAO-Hemmer, wie Tranylcypromin und Moclobemid, verdanken ihre Wirksamkeit einer Hemmung des Serotonin-abbauenden Enzyms Monoaminooxidase. Neuroleptika. Die von den klassischen Neuroleptika abweichenden klinischen Eigenschaften zahlreicher atypischer Neuroleptika werden mit einer über eine Hemmung von Dopaminrezeptoren hinausgehenden zusätzlichen Hemmung von Serotoninrezeptoren des Subtyps 5-HT2A erklärt (Dopamin-Serotonin-Hypothese). Atypische Neuroleptika, wie beispielsweise Clozapin, Olanzapin und Risperidon, haben eine im Wesentlichen verbesserte Wirkung auf die Negativsymptome der Schizophrenie und eine reduzierte Häufigkeit extrapyramidal-motorischer Nebenwirkungen und Spätdyskinesien. Das Verhältnis aus der Affinität eines Neuroleptikums zu 5-HT2A-Rezeptoren zu seiner Affinität zu D2-Rezeptoren, auch Meltzer-Index genannt, dient in diesem Zusammenhang der Vorhersage atypisch-neuroleptischer Eigenschaften. Die Verwendung von Reserpin, einem Arzneistoff, der zu einer sogenannten Entspeicherung von Neurotransmittern und somit unter anderem zu einer verminderten Konzentration von Serotonin im synaptischen Spalt führt, gilt als ein Meilenstein für die Entwicklung der modernen Psychiatrie. Heute ist Reserpin nur noch von historischer Bedeutung. Hypnotika (Schlafmittel). Auf Grund der Wirkungen des Serotonins auf den Schlaf werden die Serotonin-Vorstufen Tryptophan und 5-Hydroxytryptophan unter anderem als milde Schlafmittel eingesetzt. Sie sind Prodrugs, die nach Aufnahme in den Körper die Blut-Hirn-Schranke passieren können und unter anderem im Gehirn zu Serotonin verstoffwechselt werden. Ungeachtet dessen ist ihre Wirksamkeit schlecht belegt. Beide Substanzen kamen zudem in den 1990er Jahren in Verruf auf Grund einer Kontamination mit dem Neurotoxin Tryptamin-4,5-dion und dem Auftreten des zum Teil tödlichen Eosinophilie-Myalgie-Syndroms als Folge. Tranquillanzien. Auch Buspiron, ein Partialagonist des 5-HT1A-Rezeptors, findet als Psychopharmakon zur Behandlung generalisierter Angststörungen Anwendung. In seiner Wirkung unterscheidet sich Buspiron von anderen Angstlösern (Anxiolytika), die vorrangig nicht das Serotoninsystem, sondern die Rezeptoren des Neurotransmitters γ-Aminobuttersäure (GABA) zum Ziel haben. Appetitzügler. Die appetithemmende Wirkung des Serotonins wurde auf verschiedene Weise für Appetitzügler ausgenutzt. Viele dieser Arzneistoffe, wie beispielsweise Lorcaserin und Fenfluramin, zeigen eine direkte stimulierende Wirkung auf den 5-HT2C-Rezeptor, die mit einem appetithemmenden Effekt assoziiert wird. Auch die schweren Nebenwirkungen der früher verwendeten Appetitzügler Aminorex und Fenfluramin, welche Herzklappenfehler und pulmonale Hypertonie einschließen, werden mit einer Wirkung auf das Serotonin-System, insbesondere der Aktivierung von 5-HT2B-Rezeptoren, in Verbindung gebracht. Ein weiterer Wirkmechanismus einiger Appetitzügler, wie beispielsweise Sibutramin, ist die Konzentrationserhöhung von Serotonin an seinen Rezeptoren durch Hemmung des Serotonintransporters. Migränetherapeutika. In der Therapie akuter Migräneattacken finden insbesondere 5-HT1B/1D-Rezeptoragonisten aus der Gruppe der Triptane, wie beispielsweise Sumatriptan, Anwendung. In der Migräneprophylaxe wurden hingegen, zumindest bis zum Siegeszug der Betablocker, Serotoninantagonisten wie Methysergid und Pizotifen genutzt. Antihypertensiva (Blutdrucksenker). Als Antihypertensiva finden der 5-HT2A-Antagonist Ketanserin und der 5-HT1A-Agonist Urapidil zur Behandlung erhöhten Blutdrucks Anwendung. Ihre blutdrucksenkende Wirkung wird jedoch nicht vorrangig mit einer Interaktion mit Serotoninrezeptoren, sondern vielmehr mit einer zusätzlichen Wechselwirkung mit Adrenozeptoren erklärt. Blutgerinnungshemmer. Der 5-HT2A-Antagonist Sarpogrelat wird als Thrombozytenaggregationshemmer eingesetzt. Als solcher findet der Wirkstoff zur Behandlung von Schlaganfällen, Herzinfarkten und anderen Durchblutungsstörungen Anwendung. Seine Wirkung wird auf eine Blockade von 5-HT2A-Rezeptoren auf der Blutplättchenoberfläche und damit verbunden einer Hemmung der durch Serotonin vermittelten Verstärkung der Zusammenballung der Blutplättchen zurückgeführt. Antiemetika. Als Antiemetika zur Behandlung von Übelkeit und Erbrechen werden Setrone, wie Ondansetron, Granisetron, Tropisetron und Palonosetron, eingesetzt. Ihre größte Wirksamkeit zeigen sie bei der Behandlung des akuten Erbrechens nach einer Chemotherapie von Tumorerkrankungen mit mäßig oder hochgradig brechreizauslösenden Zytostatika, wie beispielsweise Cisplatin. Die Kombinationstherapie von Palonosetron mit dem Glucocorticoid Dexamethason ist darüber hinaus beim verzögerten Zytostatikaerbrechen erfolgversprechend. Des Weiteren kommen sie bei der Therapie von postoperativer Übelkeit und Erbrechen zum Einsatz. Ihre Wirksamkeit verdanken die Setrone einer Hemmung der Serotoninwirkung an 5-HT3-Rezeptoren, die sowohl im Darmnervensystem als auch im Brechzentrum des Hirnstammes in besonders hoher Dichte zu finden sind. Auch die Brechreiz hemmende Wirkung von Metoclopramid beruht zumindest zum Teil auf einer antagonistischen Wirkung auf diese Rezeptoren. Der 5-HT3-Rezeptorantagonist Alosetron findet darüber hinaus in der Behandlung des Reizdarmsyndroms Anwendung. Prokinetika. Auf einer serotoninanalogen Stimulierung von 5-HT4-Rezeptoren beruht die Darmperistaltik anregende Wirkung der Prokinetika. Arzneistoffe mit einer auf einer Aktivierung von 5-HT4-Rezeptoren beruhenden prokinetischen Wirkung, wie beispielsweise Cisaprid und Metoclopramid, werden zur Behandlung verschiedener Magen-Darm-Störungen, einschließlich Bauchschmerzen, Verstopfung, Blähungen und Erbrechen, eingesetzt. Der 5-HT4-Rezeptorenagonist Tegaserod wurde in den USA zur Therapie des Reizdarmsyndroms zugelassen, aber nach kurzer Zeit auf Grund von Sicherheitsbedenken wieder vom Markt genommen. Die therapeutische Verwendung von Aromastoffen, welche die enterochromaffinen Zellen zur Serotoninfreisetzung stimulieren, wurde als eine Option für die Entwicklung neuer Arzneimittel postuliert. Psychedelische Substanzen. Verschiedene psychotrope Substanzen können einen sogenannten Trip (Rausch mit psychedelischen Zuständen) hervorrufen. Sonnenblumen (Gattung). Die Sonnenblumen ("Helianthus") bilden eine Gattung in der Unterfamilie der Asteroideae innerhalb der Familie der Korbblütler (Asteraceae). Die Heimat aller etwa 67 Arten ist Nordamerika. In Mitteleuropa sind zwei Arten als Kulturpflanzen von Bedeutung: die eigentliche Sonnenblume ("Helianthus annuus") und Topinambur ("Helianthus tuberosus"). Vegetative Merkmale. Die Arten der Gattung "Helianthus" sind ein- oder mehrjährige krautige Pflanzen mit Wuchshöhen zwischen (5) 20 und 300 (500) cm. Die größte Sonnenblume der Welt erreichte eine höhe von 9,17 m. Wenige Arten bilden Rhizomknollen als Überdauerungsorgane. Der Stängel (Sprossachse) ist aufwärts gerichtet oder aufsteigend bis niederliegend oder aufliegend. Erst am oberen Ende beginnt die Verzweigung der Stängel. Die Laubblätter stehen oder wechselständig. Sie sind gestielt oder aufsitzend. Die Blattspreite ist meist dreinervig, nur in "Helianthus eggertii", "Helianthus smithii" und "Helianthus maximilliani" auch einnervig. Meist ist die Blattspreite dreieckig, lanzettlich-linealisch, lanzettlich-eiförmig, linealisch oder eiförmig geformt. Die Blattbasis ist herzförmig oder eng keilförmig. Der Blattrand ist meist ganzrandig oder gezähnt, selten gelappt. Die Blattflächen können unbehaart oder haarig sein, oft drüsig gefleckt. Blütenstände und Blüten. Die Blütenkörbe stehen einzeln oder in mehr oder weniger doldentraubigen, doldenrispigen oder ährigen Gruppen zusammen. Im körbchenförmigen Blütenstand gibt es sowohl Röhren- als auch Zungenblüten. Der Hüllkelch (= Involukrum) (Kelch ist hier irreführend, denn es handelt sich nicht um einen Teil der Blüte, also nicht Blütenkelch sondern einen Teil des Blütenstandes) ist mehr oder weniger halbkugelförmig, manchmal glockenförmig oder zylindrisch. Er hat einen Durchmesser von 5 bis 40 mm oder mehr, bei kultivierten Vertretern können auch mehr als 200 mm erreicht werden. Die Hüllblätter sind beständig, je Blüte gibt es elf bis 40 (oder mehr als 100 bei Züchtungen), die in zwei, drei oder mehr Reihen stehen, die einander fast ähneln oder ungleich gestaltet sind. Der Blütenstandsboden ist flach bis leicht konvex, nur in "Heliantus porteri" ist er konisch. Er ist mit Spreublättern besetzt, die mehr oder weniger der Länge nach gefaltet sind, eine rechteckig-langgestreckte Form haben und drei Zähne besitzen oder gelegentlich ganzrandig sind. Manchmal sind die Spitzen rötlich oder violett gefärbt. Es wird außen eine Reihe mit fünf bis 30 oder mehr (oder bei Züchtungen auch über 100) zygomorphen Zungenblüten (= Strahlenblüten) gebildet, selten fehlen sie auch. Sie sind unfruchtbar, die röhrig verwachsenen Kronblätter sind meist gelb. Die Anzahl der radiärsymmetrischen Röhrenblüten (= Scheibenblüten) liegt zwischen (15) 30 und mehr als 150, bei Züchtungen auch über 1000. Sie sind zwittrig, fruchtbar, die Kronblätter gelb oder zumindest an der Spitze rötlich gefärbt. Die Kronröhre ist jeweils kürzer als der glockenförmige Kronschlund, der fünf dreieckige Kronlappen besitzt. Die Verzweigungen des Griffels sind schlank, die Anhänge sind mehr oder weniger zugespitzt. Fruchtstände und Früchte. Die Achänen sind meist violett-schwarz, manchmal gefleckt, mehr oder weniger umgekehrt pyramidenförmig und eingedrückt. In "Helianthus porteri" ist kein Pappus vorhanden, bei anderen Arten fallen die Pappi leicht ab. Meist stehen sie an 2 oder 3 lanzettlichen, grannigen oder unregelmäßig gezackten Borsten, die eine Länge von 1 bis 5 mm haben. Zusätzlich findet man auch bis zu acht kürzere Schuppen mit einer Länge von 0,2 bis 2 mm. Sonstige Merkmale. Die Basischromosomenzahl beträgt formula_1. Datenspeicher. Verschiedene Massenspeichermedien (Streichholz als Maßstab) Ein Datenspeicher oder Speichermedium dient zur Speicherung von Daten. Der Begriff Speichermedium wird auch als Synonym für einen konkreten Datenträger verwendet. Datenträger/Speichermedium. Im engeren Sinne bezeichnet man mit "Datenträger" oder "Speichermedium" Medien, die als Datenspeicher dienen Nichttechnische Speicherung. Der Mensch speichert die Information von Hand auf oder mithilfe eines Trägermaterials. Sie ist daher ohne technische Vermittlung direkt wieder lesbar. Die Speicherung erfolgt ohne technische Vermittlung, abgesehen von einfachen Hilfsmitteln zum Führen mit der Hand, wie Messer oder Pinsel. Natürlicherweise können alle festen Materialien Träger von Zeichen, Schriften und Bildern sein. Berühmte historische Beispiele sind: Teppich von Bayeux, Höhlenmalerei und Quipu. Technische Speicherung. Die technische Speicherung umfasst alle Datenspeicher und Speichermedien, die nicht direkt mit den Sinnen gelesen oder eigenhändig erzeugt werden können. Es bedarf eines technischen Hilfsmittels, um die Daten zu speichern oder verständlich zu machen. Fotografische Speicherung. Chemo-optische Speicher, die durch einen chemischen Prozess Daten in Form von Lichtbildern (statischen und bewegten Bildern sowie Lichtton) speichern. Die Speicherung auf Mikrofilm ist zurzeit immer noch die sicherste Archivierungsmethode. Zum Lesen ist nur ein Vergrößerungsgerät notwendig, Probleme mit der Dauerhaftigkeit von Formaten und Lesegeräten entfallen. Mechanische Speicherung. Edison-Hartgusswalze aus Wachs, ca. 1904 Bei der mechanischen Speicherung werden die Daten großtechnisch mechanisch beschrieben, sie sind physisch (Vertiefungen bzw. Erhöhungen im Trägermaterial) auf das Speichermedium aufgebracht. Die gefertigten Speichermedien können nur gelesen werden. Beispiel: Eine CD-ROM entsteht durch einen Pressvorgang, bei dem Vertiefungen (Pits) die Information tragen. Elektronische Speicherung – Halbleiterspeicher. Verschiedene Typen von RAM-Speicherbauteilen bzw. -modulen Im Fall von DRAM für die Anwendung als Arbeitsspeicher in Computern oder Peripheriegeräte werden mehrere Speicherbausteine auf einem Speichermodul kombiniert. Die für die Speicherung von Multimedia-Daten in mobilen Anwendungen beliebten Flash-Speicher kommen in vielfältigen, meist als Speicherkarte oder USB-Speicherstick ausgeführten Gehäusen, die neben dem eigentlichen Speicherbaustein auch Controller enthalten. Gleiches gilt für Solid-State-Drives, die ebenfalls Flash-Speicher nutzen aber in einer anderen Gerätebauform mit anderen Schnittstellen geliefert werden. Magnetische Speicherung. Die magnetische Speicherung von Informationen erfolgt auf magnetisierbarem Material. Dieses kann auf Bänder, Karten, Papier oder Platten aufgebracht werden. Magnetische Medien werden (außer Kernspeicher) mittels eines Lese-Schreib-Kopfes gelesen bzw. beschrieben. Wir unterscheiden hier zwischen rotierenden Platten(stapeln), die mittels eines beweglichen Kopfes gelesen bzw. beschrieben werden und nicht rotierenden Medien, die üblicherweise an einem feststehenden Kopf zum Lesen bzw. Beschreiben vorbeigeführt werden. Ein weiteres Unterscheidungsmerkmal ist, ob auf dem Medium Daten üblicherweise analog, digital oder in beiden Formen gespeichert werden. Diskettenlaufwerk mit 3,5″ und 5,25″ Disketten Optische Speicherung. Zum Lesen und Schreiben der Daten wird ein Laserstrahl verwendet. Die optische Speicherung nutzt dabei die Reflexions- und Beugungseigenschaften des Speichermediums aus, z. B. bei (nichtgepressten) CDs die Reflexionseigenschaften und bei holografischen Speichern die lichtbeugenden Eigenschaften. Die Speicherform ist ausschließlich digital. Magneto-Optische Speicherung. Die Magneto-Optische Speicherung nutzt die Tatsache, dass einige Materialien oberhalb einer bestimmten Temperatur (Curie-Punkt) magnetisch beschreibbar sind. D. h. zum Schreiben wird das Medium punktuell aufgeheizt (meist mittels eines Lasers), und an dieser Stelle kann ein Magnetfeld dann die „Elementarmagnetchen“ ausrichten; beim Abkühlen fixiert sich ihr Zustand. Unterhalb dieser heißen Temperatur ist das Material kaum mehr ummagnetisierbar. Der Speicherzustand kann optisch mit einem Laserstrahl ausgelesen werden, dabei wird der polare MOK-Effekt ausgenutzt. D. h. die aktuelle Ausrichtung der „Elementarmagnetchen“ an der Leseposition hat eine optische Auswirkung, welche zum Auslesen herangezogen wird – es wird also „magnetisch geschrieben“ aber „optisch gelesen“. Seide. Seide (von mittellateinisch "seta") ist eine feine Faser, die aus den Kokons der Seidenraupe, der Larve des Seidenspinners, gewonnen wird. Sie ist die einzige in der Natur vorkommende textile Endlos-Faser und besteht hauptsächlich aus Protein. Sie kommt ursprünglich vermutlich aus China und war eine wichtige Handelsware, die über die Seidenstraße nach Europa transportiert wurde. Neben China, wo heute noch der Hauptanteil produziert wird, sind Japan und Indien weitere wichtige Erzeugerländer, in denen der Seidenbau betrieben wird. Das zugehörige Adjektiv ist seiden. Geschichte. Foulard (Seidentuch) im klassischen Equipage-Stil Anfänge. Schon die alte Indus-Zivilisation (etwa 2800 bis 1800 v. Chr.) und das alte China kannten die Seide. Durch genaue Untersuchungen der Seidenstruktur von archäologischen Funden wurde festgestellt, dass man zur Seidenproduktion im Indus-Gebiet den Seidenspinner der Gattung "Antheraea" benutzte. Es handelt sich hier um eine sogenannte wilde Seide. Chinesische Seide dagegen stammte einzig von dem domestizierten Seidenspinner ("Bombyx mori"). Der Ursprung letzterer liegt etwa im 3. Jahrtausend v. Chr. und ist eher von Legenden umrankt, als dass es genaue Jahreszahlen gäbe. Der Sage nach soll in China der legendäre Kaiser Fu Xi (etwa um 3000 v. Chr.) als erster auf den Gedanken gekommen sein, Seidenraupen zur Herstellung von Gewändern zu nutzen. Fu Xi gilt auch als Erfinder eines mit Seidenfäden bespannten Saiteninstruments. Die Sage nennt noch einen weiteren berühmten Kaiser: Shennong (Gott des Ackerbaus, etwa 3000 v. Chr.) soll das Volk gelehrt haben, Maulbeerbäume und Hanf anzubauen, um Seide und Hanfleinen zu gewinnen. Xiling, die Gattin des "Gelben Kaisers" Huáng Dì, hat angeblich im 3. Jahrtausend v. Chr. dem Volk die Nutzung von Kokons und Seide zur Herstellung von Kleidungsstücken beigebracht. Aufbauend auf dieser Legende wurde anhand der chinesischen Kaiser-Chronologie eine Entstehungszeit der Seide von 2700 bis 2600 v. Chr. angenommen, da bei den Ausgrabungen von Qianshanyang Fragmente von Seidengeweben gefunden wurden, die mittels Radiocarbondatierung in die Zeit um 2750 v. Chr. datiert werden konnten. Römerzeit. Ein Fernhandel mit chinesischer Seide existierte schon zu Beginn der Zeitrechnung. Laut dem Römer Plinius dem Älteren (etwa 23 bis 79 n. Chr.), der auch die Seidenraupen beschreibt, verdankt der antike Mittelmeerraum die Herstellung der Koischen Seide einer gewissen Pamphilia von Kos. Diese Seide wurde jedoch zunehmend durch feinere und dünnere chinesische Seide verdrängt. Der römische Satiredichter Juvenal klagte im Jahre 110 n. Chr., dass die römischen Frauen so verwöhnt seien, dass sie mittlerweile sogar die feine Seide als zu rau empfänden. Die chinesische Seide gelangte über mehrere Handelsstationen nach Rom. Chinesische Händler brachten die Seide zu den Häfen von Sri Lanka, wo indische Händler sie aufkauften. Arabische und griechische Händler kauften Seide an der südwestlichen Küste des indischen Halbkontinents ein. Der nächste Umschlagsplatz war die Inselgruppe Sokotra im nordwestlichen Indischen Ozean. Von dort aus wurde die Seide in der Regel bis zu dem antiken ägyptischen Rotmeerhafen Berenike gebracht. Kamelkarawanen transportierten sie anschließend weiter bis zum Nil, wo die Fracht erneut mit Schiffen bis nach Alexandria gelangte. Hier kauften sie überwiegend römische Händler auf, die die Seide schließlich in das Gebiet des heutigen Italien importierten. Charakteristisch für diesen Fernhandel war, dass chinesische Händler selten westlich von Sri Lanka in Erscheinung traten, indische Händler nur den Zwischenhandel bis zum Roten Meer übernahmen und römische Händler sich auf den Handel zwischen Alexandria und dem römischen Reich begrenzten. Griechische Händler hatten dagegen den größten Anteil an diesen Transaktionen und handelten Seide von Indien bis an die italienische Küste. Es dauerte ungefähr 18 Monate, bis Seide vom Süden Chinas die Häfen entlang der italienischen Küste erreichte. Ein Handel über die Seidenstraße setzte erst im 2. Jahrhundert n. Chr. verstärkt ein. Der Beginn der Seidenstraße wird oft mit ca. 100 v. Chr. angegeben. Man vermutet, dass hierfür der Offizier Zhang Qian, den Kaiser Wudi in die Königreiche von Zentralasien zum Anknüpfen von Handelsbeziehungen entsandt hatte, ausschlaggebend war. Diese Handelsroute war deutlich komplexer und der genaue Weg verschob sich entsprechend den jeweiligen politischen Verhältnissen. Typische Umschlagsplätze der Seide waren Herat (heutiges Afghanistan), Samarkand (heutiges Usbekistan) und Isfahan (heutiger Iran). Während beim Seehandel griechische Händler eine große Rolle spielten, dominierten jüdische, armenische und syrische Zwischenhändler den Handel über den Landweg. Mittelalter. Den Chinesen war es bei Todesstrafe verboten, die Raupen oder ihre Eier außer Landes zu bringen. Um das Jahr 555 herum gelang es jedoch angeblich zwei persischen Mönchen, einige Eier zum oströmischen Kaiser Justinian I. nach Konstantinopel zu schmuggeln. Mit diesen Eiern und dem Wissen, welches sie bei ihrem Aufenthalt in China über die Aufzucht von Seidenspinnern erworben hatten, war jetzt auch außerhalb Chinas eine Produktion von Seide möglich. Es ist allerdings fraglich, ob die Eier des Seidenspinners diese lange Reise überstanden hätten. Fest steht aber, dass um 550 n. Chr. die Seidengewinnung im Byzantinischen Reich begann. In Europa etablierten sich eine Reihe Regionen als Zentren der Seidenproduktion und der Seidenfärberei. Ab dem 12. Jahrhundert wurde Italien in der Produktion europäischer Seide führend. frühe Zentren der Herstellung und Verarbeitung waren Palermo und Messina auf Sizilien sowie Catanzaro in Kalabrien. Die norditalienische Stadt Lucca verdankte ihren Einfluss und ihre Macht im 13. Jahrhundert beispielsweise ihrer Seidenindustrie mit ihren mechanischen, wasserkraftgetriebenen Seidenzwirnmühlen. Insbesondere die Farbenpracht, in der Luccaer Färber diese Seide färben konnten, galt in Europa als unübertroffen. Politische Unruhen zu Beginn des 14. Jahrhunderts führten dazu, dass sich Luccaer Textilhandwerker in Venedig niederließen und es dadurch zu einem Know-how-Transfer kam, der langfristig dazu beitrug, dass Lucca zu einer unbedeutenden Provinzstadt wurde. Eine wichtige Handelsroute für die Seide führte von Italien über den Brennerpass nach Mitteleuropa, wobei Bozen seit 1200 ein zentraler Umschlagplatz für den Seidenhandel auf diesem Weg war. Neuzeit. Vom 17. bis 19. Jahrhundert hatte neben Zürich und Lyon auch Krefeld eine bedeutende Seidenindustrie, die von der Familie von der Leyen dominiert wurde. Zu den berühmtesten Kunden gehörten der französische Kaiser Napoleon und der preußische König Friedrich II. Im Jahr 1828 kam es im Rahmen der wachsenden Unzufriedenheit der deutschen Weber auch in Krefeld zu Aufständen der Seidenweber. Sie protestierten gegen die Lohnkürzungen der Firma von der Leyen. Entstehung und Gewinnung. Da die meisten Seidenraupen sich von den Blättern des Maulbeerbaumes ernähren, wird von "Maulbeerseide" gesprochen. Es gibt aber auch Seidenraupen, wie z. B. die des Japanischen Eichenseidenspinners ("Antheraea yamamai"), die sich von Eichenblättern ernähren. Um Qualitätsseide zu erhalten, müssen Seidenraupen unter besonderen Bedingungen aufgezogen werden. Die Raupen verpuppen sich, wobei sie die Seide in speziellen Drüsen im Maul produzieren und in großen Schlaufen in bis zu 300.000 Windungen um sich herum legen. Sie werden mithilfe von Heißwasser oder Wasserdampf vor dem Schlüpfen getötet, um zu verhindern, dass die Kokons zerrissen werden. Jeder Kokon enthält ein ununterbrochenes, sehr langes und feines Filament. Drei bis acht Kokons bzw. Filamente werden zusammen abgewickelt oder "gehaspelt" (sogenannte "Haspelseide"), kleben aufgrund des Seidenleims zusammen und bilden ein sogenanntes "Grège", einen Seidenfaden. Dieser Faden lässt sich zu glatten Textiloberflächen verarbeiten. Um 250 g Seidenfaden zu erhalten, werden um die 3000 Kokons benötigt, das entspricht etwa 1 kg. Um die Seide vom Seidenleim (Sericin, auch "Seidenbast") zu befreien, der auch Träger der gelben und anderen Färbungen ist, wird sie in Seifenwasser gekocht und erscheint rein weiß. Diesen Vorgang nennt man Entschälen oder Degummieren. Die Seidenfäden werden durch das Kochen dünner, geschmeidiger und glänzender. Anschließend wird die Seide häufig noch chemisch weiter veredelt. Durch das Entfernen des Seidenleims wird der Faden leichter, das wird teilweise durch das Hinzufügen von Metallsalzen (meist Zinnverbindungen) ausgeglichen. Durch Schwefeldioxid wird die Seide gebleicht. Seidengarne. Mehrere gehaspelte Seidenfäden werden miteinander verzwirnt. Durch unterschiedliche Zwirntechniken entstehen funktionsangepaßte Schuss- und Kettfäden. Dabei wird nach der DIN 60550 („Webgarne aus Seide“) als "Organzin" (oder "Organsin") ein Zwirn bezeichnet, der aus zwei oder drei Grègen hergestellt wird, die ihrerseits bereits verdreht sind; diese Garnqualität kann für Webketten eingesetzt werden. "Trame"-Garn dagegen wird aus zwei oder mehr ungedrehten Grègen verzwirnt und eignet sich nur als Schußmaterial. Seidenpulver. Seidenpulver wird in Kosmetikprodukten als Zusatzstoff eingesetzt, z. B. in Lippenstiften, Hautcremes und Seifen. Eigenschaften und Qualitätsbezeichnungen. Seide zeichnet sich durch ihren Glanz und ihre hohe Festigkeit aus und wirkt isolierend gegen Kälte und Wärme. Sie kann bis zu einem Drittel ihres Gewichtes an Wasser einlagern. Seide neigt wenig zum Knittern. Auf Seidenstoffen werden besonders brillante Farben erzielt. Empfindlich ist Seide gegenüber hohen Temperaturen, Abrieb und Wasserflecken. Die Qualität der Seide hängt unter anderem von ihrem Gewicht ab. Eine Momme (japanische Gewichtseinheit) beträgt ca. 4,306 g pro m². Die Seide wird häufig mit der Bezeichnung Pongé angeboten. Einer Momme entspricht eine Pongé. Unter "Chappe" versteht man alle bei der Herstellung der Seide abfallenden, geringwertigen Seiden, die wieder unter sich verschiedenen Wert haben (Abfälle der Filanda vom Abhaspeln der Seide von den Kokons: Struse, Strusini, Abfälle der Zwirnerei). Die gereinigten Abfälle werden in der Chappespinnerei zu Chappegarn versponnen. Von den eigentlichen Seidengarnen unterscheidet sich dieses durch die etwas raue, faserige Oberfläche. Sie wird zuweilen auch "Strazza" genannt. Wildseide wie die Tussahseide (Seide des Japanischen Eichenseidenspinners) oder Fagaraseide (Seide des Atlasspinners) wird aus den Kokons bereits geschlüpfter Schmetterlinge gewonnen, die nicht unter menschlicher Aufsicht gezüchtet wurden. Bei Schlüpfung hinterlassen sie ein Loch, was den Faden in mehrere Teile zerreißt. Bei Verwebung werden die Fäden verdickt, wodurch die charakteristischen unregelmäßig-noppigen Textiloberflächen entstehen. Zusammensetzung und Aufbau. Die Seide von Insekten besteht wie die Seide der Spinnen aus den langkettigen Eiweißmolekülen Fibroin (70–80 %) und Sericin (20–30 %). Fibroin ist ein β-Keratin mit einer Molekularmasse von 365.000 kDa. Die sich wiederholende Folge der Aminosäuren im Fibroin lautet Gly-Ser-Gly-Ala-Gly-Ala. Primärstruktur des Seidenproteins Fibroin, (Gly-Ser-Gly-Ala-Gly-Ala)"n" Die im Seidenfaden vorherrschende Sekundärstruktur ist das antiparallele β-Faltblatt. Die Quartärstruktur des Fibroins besteht aus zwei identischen Untereinheiten, welche sich parallel aneinander lagern, aber gegengerichtet. Diese Anordnung wird durch Wasserstoffbrückenbindungen und hydrophobe Wechselwirkungen zwischen den Untereinheiten stabilisiert. Die kompletten Moleküle ordnen sich im Seidenfaden wiederum parallel an. Der Glanz der Seide beruht auf Reflexion des Lichtes an diesen mehrfachen Schichtungen. Fibroin des Seidenspinners kann in mindestens drei Konformationen vorkommen, woraus unterschiedliche Qualitäten des Seidenfadens resultieren: Seide I, II und III. Seide I ist der natürliche Zustand des Fadens, Seide II findet sich im gespulten Seidenfaden. Seide III bildet sich in wässrigem Zustand an Grenzflächen. Da Proteine auch Polyamide sind, ist der Seidenfaden eine natürliche Polyamidfaser. Aufgrund ihrer chemischen Zusammensetzung und des besonderen, nahezu dreieckigen Querschnitts der Faser unterscheiden sich ihre Eigenschaften der Seide spezifisch von denen synthetischer Polyamidfasern. Pflege. Aufgrund der Wasserempfindlichkeit müssen Seidenstoffe vorsichtig mit der Hand (unter Verwendung spezieller Seidenreinigungsmittel oder milder Seifen) gewaschen werden. Eine chemische Reinigung ist möglich. Wichtig ist es, alle Seifenrückstände zu entfernen. Dazu kann dem Wasser ein Teelöffel Weinessig zugefügt werden. Seide darf nicht ausgewrungen werden, da sie gerade im nassen Zustand formempfindlich ist. Gebügelt wird von links bei mittlerer Temperatur. Die Seide sollte dabei noch leicht feucht sein. Chlorbleiche und Tumblertrocknung sind nicht möglich. Seide ist sonnenempfindlich, die Farben verblassen und die Seide vergilbt. Daher ist direkte und starke Sonneneinstrahlung zu vermeiden. Sprachgebrauch. Da Seide ein teurer und nur in höheren Ständen gebräuchlicher Kleidungsstoff war, bezeichnete das Adjektiv "halbseiden" eine Frau, die sich, zum Beispiel als Kokotte, in solchen Kreisen bewegte, ohne wirklich dazuzugehören. Heute wird als halbseiden generell etwas bezeichnet, das nicht ganz echt ist, darum nur bedingt vertrauenswürdig: mehr Schein als Sein. Halbseidene Klöße oder Knödel sind Kartoffelklöße mit einem Gehalt an Kartoffelstärke von bis zu einem Drittel. Bei einem höheren Stärkegehalt sehen sie seidenglänzend aus und werden auch als seidene Klöße bzw. Knödel bezeichnet. Erwähnenswertes. Einer der Gründe für den militärischen Erfolg der Mongolen war das Tragen von Seidenkleidung als Schutz. Diese konnte im Zusammenspiel mit Leder und leichten Eisenelementen von Pfeilen nur schwer durchdrungen werden und bildete somit eine leichte und funktionelle Rüstung. Nicht nur Seidenraupen produzieren Seide, sondern auch Muscheln. Die sogenannte Muschelseide wird ebenfalls zu Textilien verarbeitet und galt früher als ausgesprochenes Statussymbol. Sonne. Die Sonne (von ahd. "Sunna";, gr. ἥλιος "hēlios", astronom. Zeichen ☉) ist ein durchschnittlich großer Stern im äußeren Drittel der Milchstraße. Sie ist ein Hauptreihenstern (Zwergstern) und bildet das Zentrum des Sonnensystems, das sie durch ihre Gravitation dominiert. Sie enthält 99,86 % der gesamten Masse des Sonnensystems und hat einen Durchmesser von 1,4 Millionen km, den 109-fachen der Erde. Die Erde ist einer der acht Planeten, die die Sonne umkreisen. Die thermonuklear gespeiste Strahlung der außen 6000 °C heißen Gaskugel ist Grundvoraussetzung für die Entstehung und Entwicklung des Lebens auf der Erde. Die Sonne ist der erdnächste und am besten erforschte Stern. Ihre Oberfläche (Photosphäre) zeigt eine periodisch wechselnde Zahl von Sonnenflecken, die mit starken Magnetfeldern zusammenhängen. Sie werden neben weiteren Phänomenen als Sonnenaktivität bezeichnet. Die Sonne, deren Himmelslauf den (Erden-)Tag und das Jahr gliedert, wird seit Urzeiten kultisch verehrt. Quantitative Einordnung. Die Sonne übertrifft 700-fach die Gesamtmasse aller acht Planeten des Sonnensystems und 330.000fach jene der Erde, die im Durchmesser 109-mal hineinpasst. Mit einer Energieabstrahlung, die pro Sekunde das 20.000fache des Primärenergieverbrauchs seit Beginn der Industrialisierung ausmacht, fällt sie in die Leuchtkraftklasse V. Ein Hauptreihenstern wie die Sonne setzt damit pro Sekunde mehr Energie frei als alle im Jahr 2011 vorhandenen Kernkraftwerke der Erde in 750.000 Jahren. Auf die Erde entfallen pro Quadratmeter 1,36 Kilowatt, was der Leistung eines elektrischen Heizstrahlers entspricht. Die Sonne leuchtet mit einer Farbtemperatur von etwa 5800 Kelvin. Als Stern der Spektralklasse G2V liegt sie im Hertzsprung-Russell-Diagramm in der Mitte der sogenannten Hauptreihe, die alle Sterne im Strahlungsgleichgewicht repräsentiert. Mit 1,4 bis 1,5 % schwereren Elementen in der Konvektionszone (Massenanteil, für die Stoffmengenanteile siehe die Infobox rechts) gilt die Sonne als „metallreich“ und gehört damit der zahlenmäßig größten Population I an. Sie hat – wie das Sonnensystem insgesamt – ein Alter von etwa 4,57 Milliarden Jahren. In dieser Zeit hat sie in ihrem Kern rund 14.000 Erdmassen Wasserstoff durch Kernfusion in Helium verwandelt, wobei 90 Erdmassen an Energie frei wurden. Durch Ansammlung von Helium im nichtkonvektiven Kern – im Zentrum beträgt der Massenanteil mittlerweile 60 % – wird dieser immer kompakter und bezieht weiteres Material ein, wodurch Leuchtkraft und Durchmesser der Sonne langsam zunehmen. In etwa 7 Milliarden Jahren wird die Sonne relativ schnell zum Roten Riesen. Wahrgenommene Farbe. Das Strahlungsmaximum der Sonne liegt im sichtbaren Licht (keineswegs im Infrarot) und wird vom menschlichen Auge als "reines Weiß" wahrgenommen. Blickt man jedoch durch einen starken Neutralfilter auf die Sonnenscheibe, sieht man sie in der Regel als Weißgelb oder Gelb, bzw. bei horizontnaher Stellung als Orange. Dies erklärt sich damit, dass durch Rayleigh-Streuung in der Erdatmosphäre überwiegend der kurzwellige (violette und blaue) Anteil der sichtbaren Sonnenstrahlung gestreut wird und das Auge somit aus anderer Richtung als der der wahrgenommenen Sonnenscheibe erreicht (Himmelsblau). Wenn die chromatische Adaption des Auges auf die insgesamt wahrgenommene Strahlung eingestellt ist (die dann, wenn sie – z. B. als diffuse Reflexion an Wolken – als Mischung wahrnehmbar ist, als Weiß erscheint), wird die aus der Richtung der Sonne selbst noch wahrgenommene, ungestreute sichtbare Strahlung wegen des (je nach Entfernung vom Horizont weniger oder mehr) verringerten kurzwelligen Anteils als Gelb bzw. Orange wahrgenommen. Außerhalb der Erdatmosphäre, wenn alles Licht tatsächlich aus der Richtung der wahrgenommenen Sonnenscheibe kommt, erscheint diese dem menschlichen Auge aus diesem Grund und unabhängig von der tatsächlichen Zusammensetzung des Sonnenlichtes als reines Weiß. Lord Kelvin und das Alter von Sonne und Erde. Dass sich das Alter der Sonne in Milliarden Jahren misst, ergibt sich übereinstimmend aus modernen Sternmodellen und radiometrischer Datierung von Gesteinen im Sonnensystem. Zu einem drängenden physikalischen Problem wurde die Beständigkeit der Sonnenstrahlung aber schon, als Charles Darwin für den Erosionsprozess der südenglischen Kreide eine Dauer von 300 Millionen Jahren grob abschätzte. Lord Kelvin bezweifelte Darwins Ergebnis, denn als dauerhafteste Energiequelle für die Sonnenstrahlung machte er 1862 die von Hermann von Helmholtz vorgeschlagene Freisetzung gravitativer Bindungsenergie aus und berechnete unter der Annahme, dass die Masse der Sonne stark zum Zentrum hin konzentriert ist, ein Sonnenalter von sehr wahrscheinlich unter 100 Millionen Jahren. Später engte er die Abkühlungdauer des Erdmantels auf 20 bis 40 Mio. Jahre ein. Er erlebte noch, aber akzeptierte nicht öffentlich, dass Ernest Rutherford 1904 radioaktiven Zerfall als Quelle der Erdwärme vorschlug. Die Energieabgabe der Sonne über geologische Zeiträume hinweg konnte erst ab 1920 mit der Kernfusion erklärt werden. Physikalischer Aufbau. Die Sonne besteht aus schalenförmigen Zonen, die sich teilweise scharf abgrenzen lassen. Eine grobe Einteilung ist die Kernzone als Fusionsofen, die innere Atmosphäre bis zur sichtbaren Oberfläche und darüber die äußere Atmosphäre. Kern. Die Hälfte der Sonnenmasse konzentriert sich innerhalb von 25 % des Sonnenradius, also ungefähr in 1/64 ihres Volumens. Die Fallbeschleunigung am Rand dieser Kernzone ist achtfach höher als an der Sonnenoberfläche und 220fach größer als an der Erdoberfläche. Damit setzt sich das Material selbst unter Druck: Im Zentrum liegt er bei 200 Milliarden bar, entsprechend dem Gewicht der Cheops-Pyramide auf einem Stecknadelkopf. Da die Temperatur dort mit 15,6 Mio. K vergleichsweise kühl ist, etwa 50.000-fache Raumtemperatur, kann das Plasma den für die Stabilität nötigen Gegendruck nur durch seine hohe Dichte aufbringen, im Zentrum 150 g/cm³, 13-mal die Dichte von Blei und 200-mal die mittlere Dichte der inneren Atmosphäre. Es ist nicht direkt die Dichte, die den Gegendruck bewirkt, sondern die Teilchenkonzentration, im Zentrum fast 250.000 mol/ℓ. Gut die Hälfte davon sind Elektronen, die aber dank der vorliegenden Dichte-Temperatur-Bedingungen nicht entartet sind, wenn auch nur knapp. Auch der Strahlungsdruck hat einen geringen Anteil – in der Sonne gilt also das Gasgesetz. Die Teilchendichte der Protonen ist im Zentrum etwa 1000-mal größer als in Wasser. Da die Häufigkeit der Kernfusionsreaktionen quadratisch von der Teilchendichte und exponentiell von der Temperatur abhängt, werden 99 % der Fusionsleistung von 3,9·1026 W innerhalb der dichten, heißen Kernzone frei. Innerhalb eines engeren Radius ist die Leistungsdichte höher: In einem Tausendstel des Volumens der Sonne entsteht die Hälfte ihrer Leistung; das ist eine mittlere Leistungsdichte von knapp 140 Watt pro Kubikmeter, nicht mehr als in einem Komposthaufen. Die große Gesamtleistung der Sonne ist also eher die Folge des großen Volumens und die hohe Kerntemperatur eine Folge der dicken Isolierschicht. Dass die stark temperaturabhängige Fusionsreaktion nicht thermisch durchgeht und die Sonne explodiert (oder abschaltet), liegt daran, dass zusätzliche Wärmeleistung das Innere von Sternen nicht heißer macht, sondern kälter, denn die normale Wärmeausdehnung des Gases wird verstärkt, indem der gravitative Druck der angehobenen Schichten nachlässt. Diese negative Rückkopplung wirkt sehr schnell, denn Kompressionswellen durchlaufen die Sonne in deutlich unter einer Stunde, siehe Helioseismologie. Strahlungszone und Konvektionszone. Knapp 2 % der Fusionsleistung werden von den dabei entstehenden Neutrinos fortgetragen. Diese nur schwach wechselwirkenden Teilchen erreichen innerhalb weniger Sekunden die Sonnenoberfläche und nach gut acht Minuten die Erde. Die Energie der anderen Reaktionsprodukte thermalisiert am Ort der Entstehung. Die thermische Strahlung liegt im Bereich weicher Röntgenstrahlung und dominiert die Wärmeleitfähigkeit des Materials: Im Zentrum hat sie eine Intensität von rund 3·1021 W/m2. Die einzelnen Photonen legen aber bis zu ihrer Reabsorption jeweils nur kurze Wege zurück, nicht viel länger als einige Kernabstände. Die kurzen Wegstücke addieren sich kreuz und quer zu einem Random Walk, der bis zur Oberfläche über zehntausend Lichtjahre lang ist. Da zudem die Energie die weitaus größte Zeit in der thermischen Bewegung des Gases ‘parkt’, ist die Energieeinschlusszeit noch viel größer, etwa 17 Mio. Jahre. Der Strahlungstransport ist effizient: Bei 25 % des Radius beträgt die Energiestromdichte 100 kW/cm2, der Temperaturgradient aber nur etwa 0,1 K/m. Dass dieser Gradient, zehnfach steiler als in der Erdatmosphäre, nicht ausreicht, Konvektion anzutreiben, liegt am noch steileren Druckgradienten, eine Folge der hohen Fallbeschleunigung, siehe adiabatischer Temperaturgradient. Nach außen hin ändert sich an der Stabilität der Schichtung zunächst wenig, da sich die Einflussfaktoren teilweise kompensieren: Die thermische Strahlung wird mit der abnehmenden Temperatur schwächer (siehe Stefan-Boltzmann-Gesetz), das Material wird mit sinkender Dichte optisch durchlässiger, der Leistungsfluss verteilt sich auf eine größere Kugelschalenfläche und die Fallbeschleunigung nimmt ab. Schließlich kommt aber ein Effekt hinzu: Die nicht mehr ganz so heißen Elektronen beginnen, die individuellen Kerne zu spüren, solche mit hoher Kernladung zuerst, rekombinieren sogar kurzzeitig. Das behindert die Ausbreitung der Strahlung (steigende Opazität), sodass der Temperaturgradient wieder steiler wird. Bei 71 % des Radius erreicht er den adiabatischen Wert, die Schichtung wird labil. Dies definiert die Grenze der sogenannten Strahlungszone. Oberhalb wird der Wärmestrom zunehmend konvektiv transportiert. Der weitere Verlauf der Opazität beeinflusst nicht mehr die Verläufe von Temperatur und Druck, die durch Schwerefeld und Adiabate festgelegt sind, sondern die Intensität der Konvektion. In weiten Teilen der Konvektionszone ist die Strömungsgeschwindigkeit gering, wenige 10 m/s, und die Konvektionszellen sind groß und beständig (Monate bis Jahre) und dadurch sowohl von der Rotation der Sonne als auch ihrem inneren Magnetfeld beeinflusst, siehe unten. Im Bereich 20.000 bis 1000 km unter der sichtbaren Sonnenoberfläche tragen auch Frei-frei-Übergänge an He+ und H+ stark zur Opazität bei. Dadurch wird die Konvektion kleinräumiger und erreicht Geschwindigkeiten von über 1 km/s. Dies ist das Brodeln, das mit einem Teleskop als Granulation erkennbar ist. Der in diesem Bereich intensivere Impulstransport macht sich im radialen Verlauf der Rotationsrate bemerkbar. Sonnenoberfläche und Umgebung. Temperatur- und Dichtemessungen von Skylab Knapp unter der Oberfläche. An der oberen Grenze des oben genannten Bereichs fällt der Ionisationsgrad von Wasserstoff steil ab. Nach der Saha-Gleichung ist er hauptsächlich von der Temperatur abhängig. Er beträgt in etwa 1000 km Tiefe, bei einer Temperatur von 10.000 K und einer Dichte von knapp 1 g/m3 noch fast 80 %, bei 6000 K und etwas geringerer Dichte aber nur noch ein Hundertstel davon. Begegnungen von Elektronen mit Ionen werden dadurch um vier Größenordnungen seltener. Warum damit das Material nicht schon längst durchsichtig geworden ist (zur Ionisation von Wasserstoff reicht die Energie der Photonen nicht aus), fand Rupert Wildt im Jahre 1938 heraus: Das neutrale H-Atom kann mit einem Zwanzigstel der Bindungsenergie noch ein weiteres Elektron binden und das kommt auch bei noch geringerer Ionisationsrate des Wasserstoffs vor, da Elektronen aus der Ionisation von Metallen zur Verfügung stehen. Photosphäre. Weil die Dichte immer schneller abnimmt – die Skalenhöhe sinkt mit der Temperatur –, wird das Material schließlich doch durchsichtig und die Photonen können nahezu ungehindert nach außen entweichen. Diese Zone heißt Photosphäre, griechisch für „Kugelschale des Lichts“. Die Tiefe, aus der die Sonnenstrahlung im Mittel entweicht, variiert je nach Wellenlänge und Austrittswinkel um wenige 100 km. Am Sonnenrand sieht man unter flacherem Winkel eine höhere, kältere Schicht, wodurch der Rand dunkler erscheint, siehe das Sonnenfoto am Anfang des Artikels. Eine eindeutige Definition des Sonnenradius ist daher problematisch, siehe Sternoberfläche. Per Übereinkunft wird als Sonnenradius jener angegeben, bei der die Gastemperatur zur Energiestromdichte (63,18 MW/m2) passt. Diese effektive Strahlungstemperatur beträgt 5778 Kelvin. Bedingt durch die stärker gerichtete Ausstrahlung bei kürzeren Wellenlängen liegt die Farbtemperatur der Sonnenstrahlung etwas höher, bei etwa 6000 Kelvin. Chromosphäre. Oberhalb der Photosphäre liegt die Chromosphäre. Die Konvektionszone mit ihrem negativen Temperaturgradienten durch Expansion des Gases (von knapp 1 auf 0,003 g/m3) reicht etwa 500 km in die Chromosphäre hinein. Oberhalb eines scharfen Minimums von 4100 K stellt sich durch Strahlungsgleichgewicht eine Temperatur von etwa 7000 K ein, während die Dichte auf 10−7 g/m3 abnimmt. Strahlung aus der Photosphäre wird in der Chromosphäre zu einem kleinen Teil absorbiert und wieder abgestrahlt. Vor dem Hintergrund der Photosphäre entstehen dadurch die Fraunhoferschen Absorptionslinien im Sonnenspektrum, während bei totalen Sonnenfinsternissen die meist knapp 2000 km dicke Chromosphäre für wenige Sekunden als rötlich leuchtende Linie zu sehen ist, ihr griechischer Name bedeutet „Farbschicht“. Masseauswürfe von chromospärischer Dichte, zahlreiche kleine Spikulen und weniger häufige Protuberanzen (siehe unten) leuchten in gleicher Farbe. Korona. Die Korona der Sonne während der Sonnenfinsternis im Jahr 1999, kurz vor dem Sonnenfleckenmaximum. Die Strahlen verlaufen nach allen Seiten. Oberhalb der Chromosphäre befindet sich die Korona. Sie geht ohne scharfe Grenze in den interplanetaren Raum über. Ihr bei jeder totalen Sonnenfinsternis sichtbarer „Strahlenkranz“ (lat. "corona" Krone, siehe Bild links) hat schon vor Jahrtausenden die Menschen erstaunt. Er erstreckt sich – abhängig von der Sonnenaktivität und der Belichtungszeit – über ein bis zwei Sonnenradien. In der Korona ist der Einfluss des Gasdrucks auf die Bewegung der Materie vernachlässigbar, es regieren Magnetfelder und die Gravitation. Die Spektrallinien der Korona konnten anfangs nicht identifiziert werden, da sie bei irdischen Bedingungen nicht auftreten. Seit erkannt wurde, dass sie von hochionisiertem Eisen mit nur noch ganz wenigen Elektronen stammen, entsprechend Temperaturen von über 106 K, das Zweihundert- bis Fünfhundertfache der Photosphärentemperatur, wird über den Heizmechanismus der Korona spekuliert. Sie kann überhaupt nur so heiß werden, weil sie in weiten Bereichen des elektromagnetischen Spektrums nahezu durchsichtig ist und nur schwach emittiert; eine Folge nicht nur der geringen Dichte, sondern auch der hohen Temperatur: Die freien Elektronen sind so schnell, dass sie die häufigeren, leichten Elemente, insbesondere Wasserstoff und Helium, obwohl vollständig ionisiert, kaum wahrnehmen. Weitere Verlustmechanismen (siehe unten) sind die Wärmeabgabe an die vergleichsweise kalte Chromosphäre und, insbesondere im Bereich koronaler Löcher, die Bildung von Sonnenwind. An den seltenen, aber vielfach geladenen schwereren Ionen entsteht ein schwaches Röntgen-Kontinuum, das die Beobachtung der Korona vor der im harten Röntgenlicht dunklen Photosphäre erlaubt, siehe Bild rechts oben. Eingegrenzt auf schmale Emissionslinien ist das auch mit weniger harter Strahlung möglich, siehe Bild rechts. Es stammt vom Satelliten TRACE, der auf die Beobachtung der Sonne im extremen UV-Bereich spezialisiert ist, mit hoher spektraler und räumlicher Auflösung. Übergangsregion. XUV-Emissionslinien von weniger hoch ionisierten Spezies, wie C IV, O IV, O VI, S VI, stammen aus einer schmalen "Übergangsregion", der Grenze der Korona zur Chromosphäre, mit Temperaturen zwischen 10.000 und 700.000 K. Darin befinden sich zwei scharfe Temperatursprünge (entsprechend der Ionisation von Wasserstoff und Helium), die auf absehbare Zeit nicht räumlich aufgelöst werden können. Womöglich ist dort auch die lokale Geschwindigkeitsverteilung der Elektronen nicht-thermisch. Über die wenige 100 km dicke Übergangsregion ändert sich auch die Dichte um drei Größenordnungen, von 10−7 auf 10−10 g/m3. Die heiße Korona brennt sich gleichsam in die Chromosphäre und scheitert schließlich an den quadratisch mit der Dichte zunehmenden Strahlungsverlusten. Dabei passt sich die Übergangsregion in ihrer Form den dynamischen Vorgängen an der Sonnenoberfläche an – die wesentlichen Einflussgrößen sind die Dichte der Strukturen und die Heizleistung in der Korona. Beobachtungen mit TRACE lassen vermuten, dass der Heizmechanismus der Korona in ihrem unteren Bereich, nahe der Übergangsregion liegen muss, denn die Plasmabögen, deren Dichte nahe ihren Fußpunkten viel größer ist als im Scheitel, sind bis zu den Fußpunkten heiß und dort hell strahlend. Sonnenwind. a>-Licht. Außerhalb des Sonnenrandes ist die Chromosphäre zu sehen; ihr scharfer Rand entsteht durch die völlige Ionisation des bildgebenden Wasserstoffs in der Übergangsregion. In der Korona, wahrscheinlich in Verbindung mit dem Heizmechanismus in der unteren Korona, entsteht der Sonnenwind, ein überschallschneller Strom hauptsächlich aus Protonen und Elektronen. In koronalen Löchern, also insbesondere in den Polregionen, bei hoher Sonnenaktivität aber auch zahlreich in Äquatornähe, entsteht kaum weniger Sonnenwind als in den dichteren Bereichen der Korona, insbesondere "Streamern", aber er strömt schneller, mit 800 km/s statt 300 km/s. Eruptive Protuberanzen produzieren große Mengen "und" hohe Geschwindigkeiten und verursachen, falls sie die Erde treffen, geomagnetische Stürme. Rotation, Magnetfeld und Sonnenflecken. Die Bewegung der schon im Altertum bekannten Sonnenflecken zeigt, dass die Sonne keine Scheibe ist, sondern eine rotierende Kugel: Sie wandern von Tag zu Tag, randnah scheinbar langsamer und mit perspektivisch verkürzter Form, und langlebige Flecken tauchen sogar nach zwei Wochen am Ostrand wieder auf. Die Sonne folgt der Hauptrotationsrichtung im Sonnensystem (rechtläufig). Um 1860 entdeckte Richard Christopher Carrington, dass äquatornahe Flecken sich schneller bewegen als solche in höheren Breiten (differenzielle Rotation). Für die Angabe von Längengraden auf der Sonne führte er ein Bezugssystem ein, das in 25,38 Tagen um 360° rotiert (siderisch, synodisch im Mittel etwa 27,2753 Tage). Dies entspricht der Bewegung der Flecken in etwa 26° Breite. Heute wird die Rotation der Sonnenoberfläche viel genauer und auch in Breiten, in denen Flecken selten sind, über die Verschiebung von Spektrallinien durch den Doppler-Effekt bestimmt, siehe Sonnenrotation. Der Vergleich mit der Bewegung der Sonnenflecken zeigt, dass diese sich schneller als die Oberfläche nach Westen bewegen. Das passt zu der Vorstellung, dass die Magnetfelder, welche die Flecken hervorrufen, unterhalb der Oberfläche ‘verankert’ sind und tiefere Schichten aufgrund der Drehimpulserhaltung schneller rotieren. Der dazu nötige radiale Impulstransport ist durch die heftige, isotrope Konvektion im oberen Teil der Konvektionszone gegeben (bis zu einer Tiefe von etwa 4 % des Sonnenradius). Für die polwärts langsamere Rotation ist die komplexere Konvektion in größerer Tiefe verantwortlich. Radialer Verlauf der Sonnenrotation für verschiedene heliographische Breiten. Ausgehend von der differentiell rotierenden Oberfläche steigt in den oberen 4 % die Winkelgeschwindigkeit steil an, um dann bis zur tachoklinen Region leicht abzufallen. Dort gleicht sie sich an die der nahezu starr rotierenden Strahlungszone an. Anfang der 1990er Jahre ergaben helioseismische Messungen, dass die Strahlungszone gleichförmig mit einer Periode von knapp 27 Tagen rotiert. Der Tachocline genannte Übergangsbereich zur differenziell rotierenden Konvektionszone ist mit wenigen Prozent des Sonnenradius sehr flach. Entsprechend steil sind dort die Gradienten der Winkelgeschwindigkeit. Die Lage und Dicke der Tachocline, die dortige Entstehung des Magnetfelds der Sonne und der Verlauf der differenziellen Rotation innerhalb der Konvektionszone sind theoretisch noch nicht verstanden. Die hohe elektrische Leitfähigkeit des Plasmas im Sonneninnern – sie entspricht der von Kupfer bei Zimmertemperatur – bedingt eine starke Kopplung von Magnetfeld und Materie, siehe Magnetohydrodynamik. Bei hoher Dichte führt das Material das Magnetfeld, bei geringer Dichte ist es umgekehrt. In der Konvektionszone führt die differentielle Rotation dazu, dass die Feldlinien dort nicht mehr in N-S-Richtung, sondern gleichsam aufgewickelt in O-W-Richtung verlaufen, was die magnetische Spannung stark erhöht. Sie wird abgebaut, indem alle 11 Jahre eine Umpolung stattfindet. In diesem Rhythmus schwankt auch die sogenannte Aktivität der Sonne. Bei hoher magnetischer Spannung bricht das Magnetfeld aus der Sonne aus und bildet Bögen in der Korona. Mitgerissenes Material ist in Emission als Protuberanz sichtbar, vor der hellen Scheibe erscheinen diese Bögen im sichtbaren Licht als dunkle Filamente. An der Sonnenoberfläche lässt sich das Magnetfeld spektroskopisch beobachten: Spektrallinien von Elementen, die normalerweise bei einer einheitlichen Wellenlänge beobachtet werden, erscheinen bei Anwesenheit eines Magnetfeldes dreigeteilt (normaler Zeeman-Effekt), wobei der Abstand dieser Linien zueinander proportional zur Stärke des Feldes ist. Dort, wo in der Photosphäre die magnetische Feldstärke besonders hoch ist, behindert das Feld die Konvektion, die Oberfläche kühlt auf 3700 bis 4500 K ab und strahlt weniger hell, was als Sonnenflecken wahrgenommen wird. Die Feldstärke im Umfeld der Sonnenflecken kann bis zu 0,4 Tesla (4000 Gauß) betragen und ist somit bis zu zehntausendmal stärker als das irdische Magnetfeld an der Erdoberfläche. Diese lokalen Magnetfelder sind auch für die von Sonnenflecken ausgehenden koronalen Masseauswürfe verantwortlich. Das großräumige Magnetfeld der ruhigen Sonne lässt sich nur grob durch ein Dipolfeld beschreiben. Es ist mit einem in der Sonne zirkulierenden elektrischen Strom in der Größenordnung von 1012 Ampere verbunden. Auf der Sonnenoberfläche ist die Feldstärke dieses Dipolfeldes mit rund 100 µT (1 Gauß) nur etwa doppelt so stark wie das Magnetfeld der Erde auf der Erdoberfläche. Ein ähnliches Aufwickeln mit Feldverstärkung geschieht mit dem vom Sonnenwind mitgenommenen Magnetfeld im interplanetaren Raum. Dadurch trägt einerseits der Sonnenwind viel mehr Drehimpuls mit sich fort, als bei freier, radialer Bewegung. Dies erklärt, wie die Sonne seit ihrer Entstehung einen großen Teil ihres Drehimpulses abgeben konnte, ohne dass viel Masse abgegeben wurde – aktuell nur etwa 109 kg/s. Andererseits entsteht dabei die heliosphärische Stromschicht in Form der „Parker-Spirale“, wodurch die magnetische Feldstärke langsamer abnimmt als bei einem Dipolfeld zu erwarten wäre (in Erdentfernung liegt die Feldstärke bei einigen nT). Schließlich unterschreitet die Ausbreitungsgeschwindigkeit der Scherungs-Alfvén-Wellen die des Sonnenwindes, sodass der Sonnenwind sich fortan radial ausbreitet und dabei das Magnetfeld mit sich führt. Diese Grenze bei etwa zwanzig Sonnenradien gilt als der Beginn der Heliosphäre, die sich bis zur Heliopause erstreckt, wo der Sonnenwind auf interstellare Materie trifft. Schwingungen. Eine von zahlreichen akustischen Schwingungsmoden der Sonne Die heftige Konvektion nahe der Sonnenoberfläche verursacht Druckschwankungen. Wären die Frequenzen nicht so niedrig – 2 bis 7 mHz, entsprechend der typischen Lebensdauer der Granulation von fünf Minuten – so würde es sich wie das Rauschen des Waldes im Wind anhören. Die Druckschwankungen laufen als Schallwellen in die Sonne hinein, und weil dort mit der Temperatur auch die Schallgeschwindigkeit zunimmt, kehren sie im Bogen wieder zurück an die Oberfläche, wo der Dichtesprung sie wieder reflektiert. Die Wellen laufen auf diese Weise mehrfach um die Sonne herum und überlagern sich zu stehenden Wellen mit je nach Schwingungsmuster charakteristischer Frequenz. Mit spektroskopischen Methoden kann man diese Schwingungen sichtbar machen: Sie bewegen die Photosphäre langsam auf und ab und die in Beobachtungsrichtung liegende Komponente der Geschwindigkeit verschiebt aufgrund des Doppler-Effekts die Absorptionslinien des Sonnenspektrums. Die Geschwindigkeitsamplituden der Schwingungen liegen allerdings bei maximal einigen Metern pro Sekunde, was bei den arg Doppler-verbreiterten Spektrallinien nicht leicht nachzuweisen ist. Durch Mittelung der Messergebnisse über viele Monate gelang es aber, zahlreiche Schwingungsmoden zu identifizieren und ihre Frequenzen bis auf μHz-Bruchteile zu bestimmen. Die verschiedenen Moden sind unterschiedlich stark abhängig von der Schallgeschwindigkeit in verschiedenen Tiefen, sodass eine gemeinsame Auswertung aller Moden die Bestimmung der Tiefenabhängigkeit der Schallgeschwindigkeit erlaubt. Unter den Ergebnissen dieser Helioseismologie: Bestätigung des Sonnenmodells zu der Zeit des solaren Neutrinoproblems, Vermessung der differentiellen Rotation in der Konvektionszone, Entdeckung der nahezu starren Rotation der Strahlungszone, Beobachtung von aktiven Regionen auf der erdabgewandten Seite der Sonne. Optische Erscheinungen. Betrachtet man die Sonne aus dem Weltraum, erscheint sie weiß. Ihre gewohnte gelbe Farbe erklärt sich durch den Einfluss der Erdatmosphäre. Kurzwelligeres (blaues) Licht wird an den Luftmolekülen (Stickstoff, Sauerstoff, Edelgase und Kohlenstoffdioxid) wesentlich stärker gestreut als langwelligeres (rotes) Licht. Somit strahlt der Himmel diffus blau, Sonnenstrahlen, die direkt auf die Erdoberfläche auftreffen, erscheinen jedoch gelb. Je länger der Weg ist, den die Sonnenstrahlen auf ihrem Weg durch die Atmosphäre zurücklegen, desto mehr blaues Licht wird herausgestreut. Die tiefstehende Sonne erscheint deswegen stark rötlich. Mit freiem Auge kann die Sonne lediglich bei dunstigem Himmel, kurz nach Sonnenaufgang oder kurz vor Sonnenuntergang betrachtet werden. Die Erdatmosphäre schluckt den größten Teil des Lichts, insbesondere auch der UV-Strahlung. Allerdings verringert die Atmosphäre in Horizontnähe auch stark die Abbildungsqualität und bewirkt eine vertikale Stauchung des Sonnenbildes als Folge der Lichtbrechung. Dass die untergehende Sonne in Horizontnähe größer aussieht, ist hingegen nicht, wie oft vermutet, eine Folge der Refraktion an den Luftschichten, sondern eine optische Täuschung, die von der Wahrnehmungspsychologie unter dem Begriff Mondtäuschung untersucht und erklärt wird. Zwar sind alle Phänomene der atmosphärischen Optik direkt oder indirekt an das Sonnenlicht geknüpft, viele von ihnen zeigen sich jedoch direkt neben oder mit der Sonne. Dies gilt in erster Linie für Sonnenauf- und Sonnenuntergang, doch auch nahezu für alle Halophänomene, wie die 22°-Halo, die Nebensonnen oder Lichtsäulen. Ein besonderes Phänomen, das den Begriff der Sonnenstrahlen geprägt hat, sind die Strahlenbüschel. Sehr selten sind Grüne Blitze. Beobachtung der Sonne. Mit Teleskopen kann man Aktivitäten der Sonne in Form von Protuberanzen und Sonnenflecken sichtbar machen. Ebenfalls zu beobachten sind dort heftige Ausbrüche, so genannte Flares, die bereits mit kleinen Instrumenten als hellere und damit heißere Gebiete erkennbar sind. Die Sonnenscheibe hat von der Erde aus betrachtet einen Durchmesser von etwa 32 Bogenminuten, wobei die exakte Größe von der momentanen Entfernung der Erde von der Sonne abhängt. Im Perihel erscheint die Sonnenscheibe am größten, im Aphel am kleinsten. Der scheinbare Größenunterschied ihres Durchmessers zwischen Aphel und Perihel beträgt etwas mehr als drei Prozent. Die Sonnenbeobachtung geschieht am einfachsten, indem das Okularbild eines Teleskops oder Fernglases auf eine weiße Fläche (zum Beispiel eine Leinwand oder ein Stück Pappe) projiziert wird. Diese Abbildung der Sonne kann gefahrlos betrachtet werden. Dieses Verfahren nennt man Okularprojektion. Eine direkte Beobachtung mit oder ohne Fernrohr könnte aufgrund der hellen Sonnenstrahlung zu irreversibler Erblindung führen. Ebenfalls möglich ist eine Beobachtung mit Hilfe von speziellen Sonnenfiltern, dies sind Folien oder beschichtete Gläser, die vor das Auge gehalten oder vor dem Objektiv angebracht werden. Eine detaillierte Beobachtung ist außerdem mit einem Herschelprisma möglich. Dieses funktioniert aber nur an einem Refraktor. Bei allen beschriebenen Beobachtungsverfahren wird das gesamte Spektrum des Sonnenlichts gedämpft, die Sonne wird im „Weißlicht“ beobachtet. Dabei werden Sonnenflecken, Flares und die Granulation sichtbar. Um Protuberanzen zu beobachten, bedarf es besonderer Bauteile oder Teleskope. Bei einem Protuberanzenansatz wird die Sonne mittels eines Scheibchens abgedeckt – es wird sozusagen eine künstliche totale Sonnenfinsternis erzeugt. Die am Sonnenrand aufsteigenden Protuberanzen werden durch einen sogenannten "H-alpha-Filter" beobachtet. Dies ist ein besonders schmalbandiger Interferenzfilter, der nur das tiefrote Licht des angeregten Wasserstoffes durchlässt. Eine Beobachtung der gesamten Sonnenoberfläche in diesem Spektralbereich ermöglichen sogenannte H-alpha-Teleskope. Damit können Protuberanzen, Filamente, Flecken und Flares beobachtet werden. Diese Teleskope sind in den letzten Jahren sehr preisgünstig geworden und werden zunehmend auch von Amateurastronomen eingesetzt. Die Korona kann nur bei einer totalen Sonnenfinsternis oder mittels eines speziellen Gerätes, dem Koronografen, beobachtet werden. Entwicklung der Sonne. Das Sonnensystem entstand vor 4,6 Milliarden Jahren durch den gravitativen Kollaps einer interstellaren Gaswolke (→ Sternentstehung). Die anschließende Entwicklungsgeschichte der Sonne führt über ihren jetzigen Zustand (Gelber Zwerg) zu dem eines Roten Riesen und schließlich über eine instabile Endphase im Alter von etwa 12,5 Milliarden Jahren zu einem Weißen Zwerg, der von einem planetarischen Nebel umgeben ist. Dieser Ablauf lässt sich anhand der Gesetze der Physik und der Kenntnis kernphysikalischer Prozesse aus Laborexperimenten im Computer modellieren. Die Kenndaten der einzelnen Phasen sind in der Tabelle angegeben (Sackmann, 1993). Der Index Null markiert die heutigen Zustandsgrößen der Sonne, das heißt im Alter von 4,6 Milliarden Jahren. Protostern. Der Übergang von einer prästellaren Verdichtung mit planetaren Ausmaßen zu einem von der restlichen Gas- und Staubwolke deutlich abgesetzten Protostern begann mit der thermischen Dissoziation des Wasserstoffs, die bei einer Temperatur von einigen 1000 K im Kernbereich Energie aufnahm und diesem eine schnellere Verdichtung erlaubte. Der noch leichte Protostern bezog seine schnell steigende Strahlungsleistung zunächst aus dem Einsturz weiterer Masse, dann nur noch aus seiner eigenen Kontraktion, denn die restliche Masse in seiner Umgebung hatte er weggeblasen – bis auf die daraus kondensierten Planetesimale. Die Kontraktion der Kernzone der frühen Sonne endete nach einigen zehn Millionen Jahren durch das Einsetzen der Kernfusion. Hauptreihenstern. Etwa ebenso lange dauerte es, bis sich in der inneren Atmosphäre ein stationärer Verlauf der Zustandsgrößen mit der oben dargestellten Schalenstruktur eingestellt hatte. Damit einher ging die Annäherung an die Hauptreihe. Seither hat sich der Massenanteil des Wasserstoffs in der Konvektionszone um einige Prozentpunkte erhöht, indem er an der Untergrenze der Konvektionszone durch die langsam absinkenden schwereren Elemente nach oben diffundiert ist. Die relativen Häufigkeiten der ‘Metalle’ haben sich dadurch nicht geändert. Im Hauptreihenstadium verweilt die Sonne elf Milliarden Jahre. In dieser Zeit steigt die Leuchtkraft auf das Dreifache von 0,7 L☉ auf 2,2 L☉ und der Radius auf fast das Doppelte von 0,9 R☉ auf 1,6 R☉ an. Im Alter von 5,5 Milliarden Jahren, das heißt in 0,9 Milliarden Jahren, überschreitet die mittlere Temperatur auf der Erdoberfläche den für höhere Lebewesen kritischen Wert von 30 °C. Eine weitere Milliarde Jahre später werden 100 °C erreicht. Im Alter von 9,4 Milliarden Jahren versiegt der Wasserstoff im Sonnenzentrum, und die Fusionszone verlagert sich in einen schalenförmigen Bereich um das Zentrum, der sich im Laufe der Zeit weiter nach außen bewegt. Dieser Vorgang führt jedoch vorerst nicht zu einer Veränderung der äußerlich sichtbaren Sonnenparameter. Im Alter von 11 bis 11,7 Milliarden Jahren verdichtet sich die ausgebrannte Kernzone aus Helium. Durch den damit einhergehenden Temperaturanstieg steigt der Energieumsatz in der Wasserstoffschale. Dabei wächst der Sonnenradius auf 2,3 R☉ an. Die Sonne wird rötlicher und beginnt sich von der Hauptreihe im Hertzsprung-Russell-Diagramm zu entfernen. Bis zu diesem Zeitpunkt beträgt der gesamte Verlust an Masse durch Sonnenwind weniger als ein Promille. Phasen der Sonnenentwicklung. Der untere Teil zeigt stark vergrößert das letzte Prozent der etwa 12,5 Milliarden Jahre währenden Entwicklung. Die Temperaturangaben gelten für die Erdoberfläche. Roter Riese. Bei einem Sonnenalter von 11,7 bis 12,3 Milliarden Jahren setzt ein dramatisch beschleunigter Anstieg von Leuchtkraft und Radius ein. Gleichzeitig nimmt die Oberflächentemperatur ab und das Strahlungsspektrum verschiebt sich zum roten Bereich hin (vgl. Wärmestrahlung). In der Endphase dieser Entwicklung erreicht die Sonne eine Leuchtkraft von 2300 L☉ und einen Radius von 166 R☉. Das entspricht etwa dem Radius der Umlaufbahn der Venus. Venus und Merkur werden vernichtet. Von der Erde aus gesehen, nimmt die Sonne nun einen großen Teil des Himmels ein, und die Erdkruste wird zu einem einzigen Lava-Ozean aufgeschmolzen. Durch die geringe Gravitation an der Sonnenoberfläche verliert die Sonne in dieser Phase 28 % ihrer Masse durch Sonnenwind, ein Anteil von bis zu 1,3·10−7 M☉ strömt pro Jahr als interstellares Gas in den Weltraum. Durch die geringere Sonnenmasse sinkt auch die Anziehungskraft auf die Planeten, so dass deren Bahnradien um jeweils 38 % zunehmen. Helium-Blitz und -Brennphase. Da in der Kernzone der Sonne keine Fusionen mehr stattfinden und somit keine Energie mehr frei wird, gibt sie der Gravitation nach und kontrahiert, bis schließlich dort die Dichte ungefähr auf die Größenordnung 106 g/cm3 angestiegen ist, dem 10.000-fachen des heutigen Wertes. Dadurch steigt dort die Temperatur schließlich auf 108 K. Bei dieser Temperatur setzt die Fusion von Helium zu Kohlenstoff ein. Aufgrund der extremen Dichte im Zentrum und der damit verbundenen Neutrino-Kühlung zündet diese Fusionsreaktion zunächst innerhalb einer heißeren kugelschalenförmigen Zone um das Zentrum. Gewöhnlich würde die dabei freiwerdende Energie zu einer Expansion des Kerns führen, die die Temperatur stabilisiert. Die Kernzone befindet sich jedoch in einem besonderen quantenmechanischen Entartungszustand, was zur Folge hat, dass die Energie zunächst in die Auflösung der Entartung investiert wird. Daher ist zunächst kein stabiler Zustand möglich, so dass die Heliumfusion in Form einer gigantischen Explosion einsetzt, die als Helium-Blitz ("helium flash") bezeichnet wird. Dabei steigt für mehrere Sekunden die Sonnenleistung auf 1010 L☉. Das entspricht etwa 10 % der Leuchtkraft der gesamten Milchstraße. Erst nach einem Umsatz von 3 % des Heliumreservoirs setzt eine Expansion ein und stoppt diese Leistungsexkursion. Diese Explosion findet nur im Zentralbereich statt und ist äußerlich zunächst nicht bemerkbar. Sie drängt jedoch die Wasserstofffusionszone weiter nach außen, deren Temperatur daher abnimmt und damit auch der Energieumsatz. Paradoxerweise sinkt damit als äußerliche Folge des Helium-Blitzes innerhalb der nächsten 10.000 Jahre die Leuchtkraft um fast einen Faktor 100 ab. Es folgt eine Phase von einer Million Jahren, in denen die Sonnenparameter oszillieren, bis sich ein stabiler Zustand der Heliumfusion im Zentrum einstellt, der anschließend 110 Millionen Jahre anhält. Gleichzeitig wandert auch die schalenförmige Wasserstofffusionszone weiter nach außen. In dieser Zeit bleibt die Leuchtkraft nahezu konstant bei 44 L☉ und der Radius bei 10 R☉. Heliumschalen-Brennen. Danach ist auch das Helium im Sonnenzentrum verbraucht und es beginnt eine Phase des Heliumschalen-Brennens, die 20 Millionen Jahre andauert. Damit existieren nun zwei ineinander geschachtelte schalenförmige Fusionszonen. Im Zentrum sammelt sich Kohlenstoff und kontrahiert gravitativ. Damit ist ein erneuter enormer Anstieg der Leuchtkraft auf 2000 L☉ und eine Zunahme des Radius auf 130 R☉ verbunden. Gegen Ende verliert die Sonne dabei einen Massenanteil von 0,1 M☉. In den letzten 500.000 Jahren dieser Phase erwartet man in Zusammenhang mit der Wechselwirkung zwischen dem kontrahierenden Kern und der Heliumfusionszone weitere instabile Situationen, bei denen kurzzeitige Leistungsexkursionen durch Heliumfusion mit etwa 106 L☉ eintreten können. Ein wahrscheinliches Szenario wären beispielsweise vier solcher Helium-Blitze im Abstand von etwa 100.000 Jahren. Als Folge jedes dieser Helium-Blitze und der damit verbundenen Expansion der Wasserstoffschale kann die Fusion dort in den folgenden 200 Jahren vorübergehend völlig zum Stillstand kommen. Die äußerliche Folge eines Helium-Blitzes wäre daher wiederum zunächst eine Abnahme der Leuchtkraft. Nach 400 Jahren erreicht die Energie des Helium-Blitzes die Oberfläche. Leuchtkraft und Radius steigen an und relaxieren in den folgenden 10.000 Jahren wieder. Dabei werden Variationen der Leuchtkraft zwischen 500 L☉ und 5000 L☉ erwartet sowie Radiusvariationen zwischen 50 R☉ und 200 R☉. In den Phasen maximaler Ausdehnung reicht die Sonnenoberfläche bis an die heutige Erdbahn heran. Nur aufgrund der Zunahme des Erdbahndurchmessers entkommt die Erde der völligen Vernichtung. Gleichzeitig stößt die Sonne in diesen Phasen insgesamt eine Masse von weiteren 0,05 M☉ ab. Weißer Zwerg und planetarischer Nebel. Durch die erwähnten Massenverluste verliert die Sonne die gesamte äußere Hülle einschließlich der Wasserstoff- und Heliumfusionszone. Etwa 100.000 Jahre nach dem letzten Helium-Blitz wird daher der heiße innere Kern freigelegt, der im Wesentlichen aus hochverdichtetem Kohlenstoff und Sauerstoff besteht. Sein Radius beträgt nur noch 0,08 R☉, dafür aber seine Oberflächentemperatur 120.000 K. Seine Leuchtkraft beträgt anfänglich 3500 L☉. Aufgrund der hohen Temperatur enthält diese Strahlung einen enormen Anteil von ultravioletter Strahlung, welche die abgestoßene Gaswolke der Sonne nun zum Leuchten anregt. Da die Geschwindigkeit des Sonnenwindes ständig zunimmt, werden die früher ausgestoßenen Gase durch die späteren eingeholt und oft zu einer kugelförmigen Gasschale komprimiert. Für einen außen stehenden Beobachter erscheinen die leuchtenden Gase in diesem Fall als Ring, der als planetarischer Nebel bezeichnet wird. Durch das Verflüchtigen des Gases erlischt diese Erscheinung nach einigen 10.000 Jahren wieder, und im Zentrum bleibt der strahlende Rest der Sonne, den man als Weißen Zwerg bezeichnet. Er hat nur etwa die Größe der Erde, aber eine Masse von 0,55 M☉. Seine Dichte beträgt daher etwa eine Tonne pro Kubikzentimeter. Er besitzt keine innere Energiequelle, so dass seine Abstrahlung zu einem Wärmeverlust führt. Nach einer vergleichsweise raschen Abkühlung im Anfangsstadium durch die extreme Leuchtkraft sinkt die Oberflächentemperatur auf Werte, bei denen eine Strahlung aufgrund der deutlich niedrigeren Leuchtkraft über mehrere dutzend Milliarden Jahre möglich ist, bevor die Sonne als Schwarzer Zwerg im optischen Spektralbereich gänzlich erlischt. Kosmische Umgebung. Nähere kosmische Umgebung der Sonne Die Sonne durchwandert derzeit ein etwa 30 Lichtjahre großes Gebiet, das wegen seiner erhöhten Dichte Lokale Wolke oder Lokale Flocke genannt wird. Ebenfalls in der Lokalen Flocke befinden sich die benachbarten Sterne Altair, Wega, Arktur, Fomalhaut und Alpha Centauri. Die Lokale Flocke ist ihrerseits eingebettet in eine weitgehend staubfreie Region mit geringerer Teilchendichte, die Lokale Blase. Die Lokale Blase hat in Richtung der galaktischen Ebene eine Ausdehnung von mindestens 300 Lichtjahren. Sie befindet sich nahe dem inneren Rand des Orionarms der Milchstraße. Bis zum benachbarten Perseusarm sind es etwa 6.500 Lichtjahre, bis zum Zentrum der Galaxis etwa 28.000 Lichtjahre. Ein Umlauf, mit etwa 250 km/s, dauert 210 Mio. Jahre (Galaktisches Jahr). Die Sonne durchmisst außerdem den Gouldschen Gürtel, eine großräumige Anordnung von jungen Sternen (etwa 20–60 Millionen Jahre alt) und Sternentstehungsgebieten mit mehr als 2000 Lichtjahren Ausdehnung. Da diese Sterne viel jünger sind als die Sonne, kann sie nicht zu den Objekten des Gouldschen Gürtels gehören. Frühe Beobachtungen. Als der wichtigste Himmelskörper für irdisches Leben genoss die Sonne bereits vor der Geschichtsschreibung aufmerksame Beobachtung der Menschen. Kultstätten wie Stonehenge wurden errichtet, um die Position und den Lauf der Sonne zu bestimmen, insbesondere die Zeitpunkte der Sonnenwenden. Es wird vermutet, dass einige noch ältere Stätten ebenfalls zur Sonnenbeobachtung benutzt wurden, gesichert ist dies aber nicht. Von unterschiedlichen Kulturen wurden sowohl der tägliche Verlauf der Sonne und seine jahreszeitlichen Schwankungen als auch Sonnenfinsternisse sehr aufmerksam beobachtet und dokumentiert. Aufzeichnungen aus dem alten China belegen die Beobachtungen besonders heftiger Sonnenfleckentätigkeit. Sonnenflecken können mit bloßem Auge wahrgenommen werden, wenn die Sonne tief am Horizont steht und das Sonnenlicht durch die dichte Erdatmosphäre „gefiltert“ wird. Beobachtungen mit Teleskopen. Auch in Europa hatte man zu der damaligen Zeit Sonnenflecken wahrgenommen, wobei man sie allerdings für „atmosphärische Ausdünstungen“ hielt. Erst die Entwicklung des Teleskops führte zu einer systematischen Erforschung des Phänomens. Im Jahr 1610 beobachteten Galilei und Thomas Harriot die Flecken erstmals mittels Teleskop. Johann Fabricius beschrieb sie 1611 als Erster in einer wissenschaftlichen Abhandlung. Die beobachtete Wanderung der Flecken auf der Sonnenscheibe führte er zutreffend auf die Eigenrotation der Sonne zurück. 1619 postulierte Johannes Kepler einen Sonnenwind, da der Schweif von Kometen immer von der Sonne weggerichtet ist. 1775 vermutete Christian Horrobow bereits, dass die Sonnenflecken einer gewissen Periodizität unterliegen. a>n). Das gesamte Spektrum ist hier in mehrere untereinander angeordnete Streifen unterteilt. 1802 wies William Hyde Wollaston erstmals dunkle Linien (Absorptionslinien) im Sonnenspektrum nach. Joseph von Fraunhofer untersuchte die Linien ab 1814 systematisch, sie werden daher auch als „Fraunhoferlinien“ bezeichnet. 1868 fand Jules Janssen während einer Sonnenfinsternis eine Linie des damals noch unbekannten Heliums. 1843 publizierte Samuel Heinrich Schwabe seine Entdeckung des Zyklus der Sonnenfleckenaktivität. 1849 wurde die Sonnenfleckenrelativzahl eingeführt, die die Anzahl und Größe der Sonnenflecken wiedergibt. Seither werden die Flecken regelmäßig beobachtet und gezählt. 1889 entwickelte George Ellery Hale den Spektroheliografen. Henry Augustus Rowland vollendete 1897 einen Atlas des Sonnenspektrums, der sämtliche Spektrallinien enthält. 1908 entdeckte George Ellery Hale die Aufspaltung von Spektrallinien im Bereich der Sonnenflecken durch magnetische Kräfte (Zeeman-Effekt). 1930 beobachtete Bernard Ferdinand Lyot die Sonnenkorona außerhalb einer totalen Finsternis. 1960 wurde die Schwingung der Photosphäre nachgewiesen. Dies war der Beginn der Helioseismologie, die die Eigenschwingungen der Sonne untersucht und daraus den inneren Aufbau sowie Prozesse ableitet. Im Laufe der Zeit wurden spezielle Sonnenobservatorien errichtet, die ausschließlich der Beobachtung der Sonne dienen. Andere Beobachtungsverfahren. 1942 wurde von James Hey festgestellt, dass die Sonne eine Radioquelle ist. 1949 wies Herbert Friedman die solare Röntgenstrahlung nach. Zur Messung der Sonnenneutrinos wurden riesige unterirdische Detektoren errichtet. Die Diskrepanz zwischen dem theoretischen und tatsächlich gemessenen Neutrinofluss führte seit den 1970ern zum sogenannten "solaren Neutrinoproblem": Es konnte nur etwa ein Drittel der erwarteten Neutrinos detektiert werden. Dies ließ zwei Möglichkeiten zu. Entweder war das Sonnenmodell falsch und der erwartete solare Neutrinofluss wurde überschätzt, oder die Neutrinos können sich auf dem Weg zur Erde in eine andere „Art“ umwandeln (Neutrinooszillation). Erste Hinweise für diese Neutrinooszillation wurden im Jahr 1998 am Super-Kamiokande gefunden und inzwischen allgemein bestätigt. Erforschung durch Satelliten und Raumsonden. Eine Reihe von Satelliten wurde für die Beobachtung der Sonne in eine Erdumlaufbahn geschickt. Mittels der Satelliten können insbesondere Wellenlängenbereiche untersucht werden (Ultraviolett, Röntgenstrahlung), die sonst von der Erdatmosphäre absorbiert werden. So hatte zum Beispiel die 1973 gestartete Raumstation Skylab unter anderem ein Röntgenteleskop an Bord. Mit Hilfe von Raumsonden versuchte man der Sonne näher zu kommen, um die Umgebung der Sonne studieren zu können. Dies war und bleibt aufgrund von sehr hohen Temperaturen und intensiver Strahlung ein technisch sehr schwieriges Unterfangen. So konnten die 1974 und 1976 gestarteten deutsch-amerikanischen Helios-Sonden sich der Sonne nur bis auf 43,5 Millionen Kilometer nähern. Die 1990 gestartete Raumsonde Ulysses verfolgte andere Ziele. Sie sollte die Pole der Sonne studieren, die weder von der Erde, noch von Raumsonden, die sich in der Planetenebene bewegen, aus sichtbar sind. Dies war nur mit einer steil geneigten Bahnebene der Raumsonde erreichbar. Zu diesem Zweck flog Ulysses zunächst zum Riesenplaneten Jupiter, wo durch ein Swing-by-Manöver die Bahnebene der Sonde geändert wurde. Dadurch konnte Ulysses die Planetenebene verlassen und überflog seitdem bereits zweimal die beiden Pole der Sonne. Mit konventionellen Raketenantrieben, ohne den Vorbeiflug am Jupiter, wäre eine solche Mission viel teurer gewesen. 1995 wurde die größtenteils von Europa gebaute Sonde SOHO in Richtung Sonne gestartet. SOHO befindet sich nun im Lagrangepunkt L1 und beobachtet die Sonne mit zwölf verschiedenen Instrumenten. Sie liefert tägliche Aufnahmen der Sonne und trägt damit wesentlich zur Vorhersage von Sonneneruptionen und -stürmen bei. 1998 folgte der Satellit TRACE zur Unterstützung von SOHO. 2001 startete die Genesis-Raumsonde, die kurz darauf eine Position im Lagrangepunkt L1 bezog und dort 2,5 Jahre lang Proben des Sonnenwindes sammelte, die anschließend zur Erde gebracht werden sollten. Dadurch sollte die genaue Isotopenzusammensetzung des Sonnenwindes ermittelt werden. Im September 2004 trat die Kapsel mit den Proben in die Erdatmosphäre ein, schlug jedoch aufgrund eines nicht entfalteten Fallschirms hart auf der Erde auf. Einige der Proben haben den Aufprall dennoch überstanden und werden derzeit von Wissenschaftlern studiert. Am 26. Oktober 2006 starteten die beiden STEREO-Raumsonden und liefern zum ersten Mal ein dreidimensionales Bild der Sonne und ihrer Umgebung. Dazu wurde eine Sonde im Lagrangepunkt L4 und eine im Lagrangepunkt L5 stationiert. Am 11. Februar 2010 startete die NASA das Solar Dynamics Observatory (SDO) als SOHO-Nachfolger. Es dient der Erforschung der dynamischen Vorgänge der Sonne und beinhaltet die Instrumente EVE (Messung der extrem-UV-Strahlung), HMI (Erfassung helioseismischer und magnetischer Aktivitäten) und AIA (Hochauflösende Erfassung der Sonnenatmosphäre in verschiedenen Wellenlängenbereichen). Für 2015 plant die europäische Weltraumorganisation (ESA) eine Raumsonde namens Solar Orbiter, die sich der Sonne bis auf 45 Sonnenradien (etwa 30 Millionen Kilometer) nähern und dabei Strukturen von 100 km Größe auflösen können soll. Für das Jahr 2017 plant China den Start von insgesamt drei Raumsonden, die in der Forschungsmission KuaFu das Sonne-Erde-System genauer untersuchen sollen. Kulturgeschichte. Die Sonne ist das zentrale Gestirn am Himmel, von ihr hängt alles Leben auf der Erde ab. Diese überragende Bedeutung war den Menschen seit Alters her bewusst. Viele frühere Kulturen verehrten sie als Gottheit. Die regelmäßige tägliche und jährliche Wiederkehr der Sonne wurde teils ängstlich erwartet und mittels kultischer oder magischer Rituale beschworen. Besonders Sonnenfinsternisse lösten große Bestürzung und Furcht aus. Im alten China glaubte man, ein Drache würde die Sonne verschlingen. Durch großen Lärm versuchte man, das Untier dazu zu bewegen, die Sonne wieder freizugeben. Andererseits machte sich die Menschheit das Wissen über die für alles Leben fundamentalen Perioden Tag und Jahr schon seit frühester Zeit nutzbar. Die Sonne ist – über die Erddrehung – die natürliche Uhr der Menschen und die Abfolge der Jahreszeiten führte zur Entwicklung des Kalenders, der vor allem nach Entwicklung des Ackerbaus für alle Kulturen überlebenswichtig war. Für die Sumerer verkörperte die Sonne den Sonnengott Utu. Bei den Babyloniern entsprach er dem Gott Schamasch, der jeden Tag den Himmel betrat und dessen Strahlen nichts verborgen blieb. Im alten Ägypten wurde Ra (auch Re oder Re-Atum) als Sonnengott verehrt. Für kurze Zeit ließ der „Ketzer“- Pharao Echnaton nur noch Aton, die personifizierte Sonnenscheibe, als einzigen Gott zu und schaffte die Verehrung aller anderen ägyptischen Götter ab. In China stand die Sonne als Symbol für Osten, Frühling, Männlichkeit (Yang) und Geburt sowie auch für den Kaiser. Das typische Erscheinungsbild der Sonne von der Erdoberfläche gesehen Im antiken Griechenland verehrte man den Sonnengott Helios, der mit seinem Sonnenwagen täglich über das Firmament fuhr. Allerdings sind aus dem antiken Griechenland auch die ersten Überlegungen überliefert, in denen die Sonne als physikalisches Objekt betrachtet wird. Die wohl älteste dieser Hypothesen stammt dabei von Xenophanes, der die Sonne als eine feurige Ausdünstung oder Wolke benannte. Dies stellte eine große kulturhistorische Veränderung dar, denn die Wahrnehmung der Sonne als ein natürliches Objekt lag auf einer anderen Ebene als die vorherige Auffassung der Sonne als Teil einer göttlichen Entität, die auch in den späteren Jahrhunderten noch vertretenen wurde. Aus eben diesen Gedanken ging auch die erste kritische Auseinandersetzung mit dem vermenschlichten Götterbild des antiken Griechenlands hervor („Wenn die Pferde Götter hätten, sähen sie wie Pferde aus“) und daraus folgend erste Gedanken zum Monotheismus. Mit Xenophanes tauchte die Sonne zum ersten Mal in der europäischen Geschichte als Gegenstand der Physik auf; man könnte dies als die Geburtsstunde der Astrophysik auffassen. Die Thesen des Xenophanes wurden später auch von anderen griechischen Philosophen aufgenommen. Zum Beispiel beschrieb der Vorsokratiker Anaxagoras die Sonne als glühenden Stein. Diese Auffassungen setzten sich im Folgenden nicht bei allen Denkern durch und viele spätere Schulen fielen wieder auf eher mythische Erklärungen zurück. Dem griechischen Gott Helios entsprach weitgehend der römische Gott Sol invictus, dessen Kult in der Kaiserzeit bis in die beginnende Spätantike weit verbreitet war. Aus der Antike übernommen ist die Sonne als Symbol der Vitalität in der Astrologie. In der nordischen Mythologie formten die Götter die Sonne aus einem Funken und legten sie in einen Wagen. Die Göttin Sol fährt mit dem Wagen über den Himmel, gezogen von den Rössern Alsvidr und Arwakr. Das Gespann wird beständig von dem Wolf Skalli (Skoll) verfolgt. Am Tag des Weltunterganges (Ragnarök) wird der Wolf die Sonne verschlingen. Im frühen Mexiko wurde der Sonnengott Tonatiuh von den Azteken verehrt. Bei den Maya und den Inka waren Itzamná beziehungsweise Inti die Hauptgottheiten. Die Beobachtung der Sonne und anderer Sterne und die Bestimmung ihrer Bahnpunkte (Tagundnachtgleiche, Sommer- und Wintersonnenwende) war eine Voraussetzung für die Erstellung von Kalendern. Hierdurch konnten wichtige jahreszeitliche Ereignisse vorherbestimmt werden, wie das Eintreffen des Nilhochwassers im alten Ägypten, der günstigste Zeitpunkt der Saat oder das Eintreffen der für die Seefahrt gefährlichen Herbststürme. Vorchristliche Kultstätten, wie Stonehenge, waren offensichtlich zu derartigen Beobachtungszwecken errichtet worden. Die Anlage von Stonehenge ist so ausgerichtet, dass am Morgen des Mittsommertages, wenn die Sonne ihre höchste nördliche Position erreicht, die Sonne direkt über einem Positionsstein („Fersenstein“) aufgeht und die Sonnenstrahlen in gerader Linie ins Innere des Bauwerks eindringen. Die bronzezeitliche Himmelsscheibe von Nebra scheint ebenfalls ein Instrument zur Himmelsbeobachtung gewesen zu sein. Ihre goldenen Ränder werden u. a. als „Sonnenbarken“, ein religiöses Symbol der Bronzezeit, interpretiert. In die gleiche Zeit fällt auch der Sonnenwagen von Trundholm, bei der die Scheibe als Sonnensymbol mit einer Tag- und Nachtseite gedeutet wird. Das geozentrische Weltbild der Antike, wie es von Ptolemäus überliefert ist, sah die Erde als Mittelpunkt des Universums. Sonne, Mond und die Planeten bewegten sich dabei auf Kreisbahnen um die Erde. Diese Vorstellung hielt sich fast 2000 Jahre lang. Allerdings hatte sie Schwächen. So konnte die mit bloßen Augen beobachtbaren Bewegung der Planeten nur durch komplizierte Hilfskonstruktionen der Epizykeltheorie erklärt werden. Bereits Aristarchos von Samos postulierte im 2. Jahrhundert v. Chr., dass die Sonne das Zentrum der Welt darstelle. Die Gelehrten Nikolaus von Kues und Regiomontanus griffen diesen Gedanken mehr als 1500 Jahre später wieder auf. Nikolaus Kopernikus versuchte in seinem Werk "De revolutionibus orbium coelestium" eine mathematische Grundlage dafür zu schaffen, was ihm nicht gelang. Sein Werk regte allerdings weitere Forschungen an, unter anderem durch Galileo Galilei. In der Folge setzte sich allmählich das heliozentrische Weltbild durch, das die Sonne als Mittelpunkt des Universums ansieht. Die weiteren Fortschritte der Astronomie ergaben, dass auch die Sonne keine herausragende Stellung im Universum einnimmt. Vielmehr ist sie einer unter einigen hundert Milliarden Sternen der Milchstraße, die wiederum Teil noch größerer Strukturen des Kosmos ist. Suchmaschine. Eine Suchmaschine ist ein Programm zur Recherche von Dokumenten, die in einem Computer oder einem Computernetzwerk wie z. B. dem World Wide Web gespeichert sind. Internet-Suchmaschinen haben ihren Ursprung in Information-Retrieval-Systemen. Sie erstellen einen Schlüsselwort-Index für die Dokumentbasis, um Suchanfragen über Schlüsselwörter mit einer nach Relevanz geordneten Trefferliste zu beantworten. Nach Eingabe eines Suchbegriffs liefert eine Suchmaschine eine Liste von Verweisen auf möglicherweise relevante Dokumente, meistens dargestellt mit Titel und einem kurzen Auszug des jeweiligen Dokuments. Dabei können verschiedene Suchverfahren Anwendung finden. In der Regel erfolgt die "Datenbeschaffung" automatisch, im WWW durch Webcrawler, auf einem einzelnen Computer durch regelmäßiges Einlesen aller Dateien in vom Benutzer spezifizierten Verzeichnissen im lokalen Dateisystem. Merkmale von Suchmaschinen. Suchmaschinen lassen sich nach einer Reihe von Merkmalen kategorisieren. Die nachfolgenden Merkmale sind weitgehend unabhängig. Man kann sich beim Entwurf einer Suchmaschine also für eine Möglichkeit aus jeder der Merkmalsgruppen entscheiden, ohne dass diese die Wahl der anderen Merkmale beeinflusst. Art der Daten. Verschiedene Suchmaschinen können unterschiedliche Arten von Daten durchsuchen. Zunächst lassen sich diese grob in „Dokumenttypen“ wie Text, Bild, Ton, Video und andere unterteilen. Ergebnisseiten werden in Abhängigkeit von dieser Gattung gestaltet. Bei einer Suche nach Textdokumenten wird üblicherweise ein Textfragment angezeigt, das die Suchbegriffe enthält (häufig Snippet genannt). Bildsuchmaschinen zeigen eine Miniaturansicht der passenden Bilder an. Ein großer Anteil aller Suchanfragen im Internet bezieht sich aktuell auf Personen und deren Aktivitäten. Eine Personensuchmaschine findet öffentlich verfügbare Informationen zu Namen und Personen, die als Linkliste dargestellt werden. Weitere spezialisierte Arten von Suchmaschinen sind zum Beispiel Jobsuchmaschinen, Branchensuchen oder Produktsuchmaschinen. Letztere werden vorrangig von Online-Preisvergleichen eingesetzt, es gibt aber auch schon lokale Angebotssuchen, die Produkte und Angebote stationärer Einzelhändler online darstellen. Eine weitere feinere Aufgliederung geht auf datenspezifische Eigenschaften ein, die nicht alle Dokumente innerhalb einer Gattung teilen. Bleibt man beim Beispiel Text, so kann bei Usenet-Beiträgen nach bestimmten Autoren gesucht werden, bei Webseiten im HTML-Format nach dem Dokumententitel. Je nach Datengattung ist als weitere Funktion eine Einschränkung auf eine Untermenge aller Daten einer Gattung möglich. Dieses wird im Allgemeinen über zusätzliche Suchparameter realisiert, die einen Teil der erfassten Daten ausschließt. Alternativ kann sich eine Suchmaschine darauf beschränken, von Anfang an nur passende Dokumente aufzunehmen. Beispiele sind etwa eine Suchmaschine für Weblogs (statt für das komplette Web) oder Suchmaschinen, die nur Dokumente von Universitäten verarbeiten, oder ausschließlich Dokumente aus einem bestimmten Land, in einer bestimmten Sprache oder einem bestimmten Dateiformat. Datenquelle. Ein anderes Merkmal zur Kategorisierung ist die Quelle, aus der die von der Suchmaschine erfassten Daten stammen. Meistens beschreibt bereits der Name der Suchmaschinenart die Quelle. Wird die Datenbeschaffung manuell mittels Anmeldung oder durch Lektoren vorgenommen, spricht man von einem "Katalog" oder "Verzeichnis". In solchen Verzeichnissen wie dem Open Directory Project sind die Dokumente hierarchisch in einem Inhaltsverzeichnis nach Themen organisiert. Realisierung. Dieser Abschnitt beschreibt Unterschiede in der Realisierung des Betriebs der Suchmaschine. Interpretation der Eingabe. Die Suchanfrage eines Nutzers wird vor der eigentlichen Suche interpretiert und in eine für den intern verwendeten Suchalgorithmus verständliche Form gebracht. Dies dient dazu, die Syntax der Anfrage möglichst einfach zu halten und dennoch komplexe Anfragen zu erlauben. Viele Suchmaschinen unterstützen die logische Verknüpfung von verschiedenen Suchworten durch Boolesche Operatoren. Dadurch lassen sich Webseiten finden, die bestimmte Begriffe enthalten, andere jedoch nicht. Eine neuere Entwicklung ist die Fähigkeit von etlichen Suchmaschinen, implizit vorhandene Informationen aus dem Zusammenhang der Suchanfrage selbst zu erschließen und zusätzlich auszuwerten. Die bei unvollständigen Suchanfragen typischerweise vorhandenen Mehrdeutigkeiten der Suchanfrage können so reduziert, und die Relevanz der Suchergebnisse (das heißt, die Übereinstimmung mit den bewussten oder unbewussten Erwartungen des/der Suchenden) erhöht werden. Aus den semantischen Gemeinsamkeiten der eingegebenen Suchbegriffe wird (siehe auch: Semantik) auf eine, oder mehrere, hinterliegende Bedeutungen der Anfrage geschlossen. Die Ergebnismenge wird so um Treffer auf semantisch verwandte, in der Anfrage jedoch nicht explizit eingegebene Suchbegriffe, erweitert. Dies führt in der Regel nicht nur zu einer quantitativen, sondern, vor allem bei unvollständigen Anfragen und nicht optimal gewählten Suchbegriffen, auch zu einer qualitativen Verbesserung (der Relevanz) der Ergebnisse, weil die in diesen Fällen eher unscharf durch die Suchbegriffe abgebildeten Suchintentionen durch die von den Suchmaschinen verwendeten statistischen Verfahren in der Praxis erstaunlich gut wiedergegeben werden. (Siehe auch: semantische Suchmaschine und Latent Semantic Indexing). Unsichtbar mitgegebene Informationen (Ortsangaben, und andere Informationen, im Fall von Anfragen aus dem Mobilfunknetz) oder erschlossene 'Bedeutungsvorlieben' aus der gespeicherten Such-History des Benutzers, sind weitere Beispiele für nicht explizit in den eingegebenen Suchbegriffen vorgegebene, von etlichen Suchmaschinen zur Modifikation und Verbesserung der Ergebnisse verwendete Informationen. Es gibt daneben auch Suchmaschinen, die nur mit streng formalisierten Abfragesprachen abgefragt werden können, dadurch in der Regel jedoch auch sehr komplexe Anfragen sehr präzise beantworten können. Eine bislang noch nur ansatzweise oder auf beschränkte Informationsgrundlagen realisierbare Fähigkeit von Suchmaschinen ist die Fähigkeit zur Bearbeitung natürlichsprachiger sowie unscharfer Suchanfragen. (Siehe auch: semantisches Web). Darstellung der Ergebnisse. Die Seite, auf der die Suchergebnisse dem Benutzer ausgegeben werden (manchmal auch als "Search engine results page", kurz: SERP, bezeichnet), gliedert sich (häufig auch räumlich) bei vielen Suchmaschinen in die Natural Listings und die Sponsorenlinks. Während letztere ausschließlich gegen Bezahlung in den Suchindex aufgenommen werden, sind in ersteren alle dem Suchwort entsprechenden Webseiten aufgelistet. Suchverhalten der Nutzer. Suchmaschinen bieten Zugriff auf eine Unmenge verschiedener Informationen. Diesbezüglich lassen sich Suchanfragen in drei Arten einteilen. Scott Joplin. Scott Joplin (* zwischen Juni 1867 und Januar 1868 bei Linden in Texas; † 1. April 1917 in New York) war ein US-amerikanischer Komponist und Pianist. Schlüssiger als andere Komponisten des Ragtime hat Joplin, der als „Vollender dieses Stils“ angesehen wird, Elemente der romantischen Klaviertradition mit der afroamerikanischen Folklore „zu kraftvollen Miniaturen verbunden, die in ihrer aphoristischen Dichte an Stücke von Erik Satie heranreichen“ (Martin Kunzler). Neben rund achtzig Rags hat Joplin auch Bühnenwerke geschrieben. Leben. Scott Joplin, geboren als Sohn eines zur Zeit seiner Geburt befreiten Sklaven, spielte als Kind Violine und erhielt ab dem siebten Lebensjahr systematischen Klavierunterricht bei Julius Weiss. Bereits als Fünfzehnjähriger war er als Kneipen-Pianist in Texas und Louisiana unterwegs. Von 1885 bis 1893 lebte Joplin als Musiker in St. Louis, wo er in den "Honky-Tonks" und "Saloons" aufspielte. 1893 trat er auf der Weltausstellung in Chicago auf. Spätestens ab 1895 entstanden die meisten seiner Kompositionen, die er für den Eigenbedarf sowie auch für seine Vokalgruppe "The Texas Medley Quartet" (die in Vaudeville-Shows auftrat) verfasste. Er wurde einer der ersten erfolgreichen Rag-Komponisten. Ihm wurde die Anerkennung seiner Zeitgenossen zuteil, und er hatte einen sich immerhin teilweise auszahlenden Verkaufserfolg von Notenblättern seiner Stücke. Jedoch wurden nicht unerhebliche Teile seines Schaffens, darunter auch komplexe Werke wie ein Musical, eine Oper und eine Symphonie, nie veröffentlicht und sind bis heute verschollen. Durch einen Unglücksfall (ihm wurde eine gefüllte Geldkassette gestohlen) brach sein sich entwickelnder Erfolg ab. Er veröffentlichte weiterhin und konnte nach einigen Jahren wieder passabel leben. Scott Joplin war insgesamt dreimal verheiratet. Seine erste Ehe mit Belle wurde geschieden, seine zweite Frau Freddie verstarb nur 20-jährig an den Folgen einer Lungenentzündung, seine dritte Frau war Lottie. Er selbst verstarb 1917 an den Folgen tertiärer Syphilis. Bedeutung. Von Joplins zahlreichen Rags sind "The Entertainer" und der "Maple Leaf Rag" die bekanntesten Stücke. Von seinen Bühnenwerken ist nur die Oper "Treemonisha" (1911; neu instrumentiert durch Gunther Schuller) erhalten. Die zu Ehren Theodore Roosevelts komponierte Oper "A Guest of Honor" ist ebenso verloren wie sein Ballett "The Ragtime Dance". Gemeinsam mit James Scott und Joseph Lamb gehört Joplin zu den „Big Three“ des klassischen auskomponierten Ragtime. Seine Kompositionen sind durchgehend pianistisch anspruchsvoll, daher gibt es zahlreiche vereinfachte Ausgaben. Joplin bestand stets darauf, dass seine Stücke „nicht schnell“ zu spielen seien; häufig wird "„Slow March Time“" gefordert: "„It's never right to play Ragtime fast“." Damit widersprach er der rasanten Spielpraxis einiger seiner Zeitgenossen, die anhand von einfacher strukturierten Rags eher Schnelligkeit als Musikalität zur Geltung brachten. Es existiert eine von Joplin selbst eingespielte Aufnahme von "Pleasant Moments" für die Metro-Art-Serie der Aeolian Company auf Klavierrolle. Sie vermittelt einen Eindruck der Spielgewohnheiten seiner Zeit. Die weiteren Klavierrollen sind von Editoren gezeichnete Rollen, häufig mit einer von Hand nicht spielbaren Anzahl von Anschlägen pro Takt. Nach dem Tode Joplins verdrängte der Jazz den Ragtime für einige Jahrzehnte aus dem Bewusstsein der breiten Öffentlichkeit. Knapp 60 Jahre nach seinem Tod genossen Joplin und sein Werk wieder weite Anerkennung. Insbesondere durch den siebenfach mit dem Oscar ausgezeichneten Spielfilm "Der Clou" (1973) mit Robert Redford, für dessen Filmmusik aus dem Werk Scott Joplins geschöpft wurde, gewann der Ragtime wieder an Beliebtheit. Während die Interpretation seiner Rags durch John Arpin als besonders authentisch angesehen wird, ermöglichte die Einspielung von 1974 durch den Pianisten Joshua Rifkin einen neuen Blick auf diese Musik. An Scott Joplins ehemaligem Wohnsitz in St. Louis wurde 1984 die Scott Joplin House State Historic Site eingerichtet. Sein ehrgeizigstes Werk, die Oper "Treemonisha" über die Lebensumstände der Afroamerikaner der Wiederaufbauepoche, wurde 1913 in Bayonne (New Jersey) uraufgeführt sowie 1972 in Atlanta, sodann nahezu vergessen. Die deutsche Erstaufführung fand im August 1984 am Stadttheater Gießen statt.Violinist: João Pedro Cunha Spätmittelalter. Das Heilige Römische Reich im Spätmittelalter (um 1400) Als Spätmittelalter wird der Zeitraum der europäischen Geschichte von der Mitte des 13. bis zum Ende des 15. oder Anfang des 16. Jahrhunderts bezeichnet (also ca. 1250 bis 1500). Sie stellt die Endphase des Mittelalters dar, auf welche die Frühe Neuzeit folgt. Eine generelle zeitliche Eingrenzung des Übergangs vom Spätmittelalter in die Renaissance ist nicht möglich, da letztere wesentlich aus der kulturphilosophischen und kunstgeschichtlichen Entwicklung heraus definiert ist. Je nachdem, wie offen die jeweiligen Gelehrten und Mäzene in den europäischen Kulturzentren der neuen Entwicklung gegenüberstanden, breitete sich die Renaissance in den europäischen Regionen unterschiedlich schnell aus. Das Spätmittelalter wurde in der älteren Forschung aufgrund von bestimmten Erscheinungen in Kunst und Kultur, Agrarproblemen sowie politischen Veränderungen im römisch-deutschen Reich oft als Krisenzeit betrachtet. Diese negative Bewertung betraf vor allem die deutsche Mediävistik, weil dort die Abfolge des Mittelalters in drei Stufen prägend war und man für das Spätmittelalter nicht zuletzt eine politische Krisenzeit festzustellen glaubte, eine „Verfallszeit“. In Italien oder Frankreich wurde keine derartig scharfe Trennung vorgenommen. In der neueren deutschsprachigen Forschung wird ebenfalls sehr viel differenzierter geurteilt, vor allem aufgrund neuer Forschungsansätze und neuer Quellenbefunde: Bei allen auftretenden Problemen war das Spätmittelalter geprägt von einer gestiegenen Mobilität und Internationalität, Veränderungen in diversen Lebensbereichen und schließlich dem Übergang in die Frühmoderne. Insofern hat ein deutlicher Paradigmenwechsel in der deutschen Spätmittelalterforschung stattgefunden. Überblick. Um 1300 breiteten sich Hungersnöte und Seuchen wie die große Hungersnot 1315–1317 und der Schwarze Tod 1347–1353 aus und reduzierten die Bevölkerung auf etwa die Hälfte. Soziale Erhebungen und Bürgerkriege führten in Frankreich und England zu schweren Volksaufständen (Jacquerie und Peasants’ Revolt), und zwischen diesen beiden Staaten brach der Hundertjährige Krieg aus. Die Einheit der Kirche wurde durch das Große Schisma erschüttert. Am Ende der Kreuzzüge (1095–1291) war das Byzantinische Reich zu einer unbedeutenden Regionalmacht herabgesunken. Der Islam breitete sich im Zuge der Islamischen Expansion bis hinein nach Zentralasien und über die Iberische Halbinsel aus. Der 200 Jahre dauernde Konflikt hatte die Kriegsführung und auch die Gesellschaft verändert. Die Verlierer jener Ära waren vor allem die Lehnsherren und das Rittertum. Doch auch Papsttum und Kaisertum mussten Autorität einbüßen. Die Gesamtheit dieser Ereignisse wurde oft "Krise des Spätmittelalters" genannt, wenngleich dieses Modell inzwischen sehr umstritten ist. Die moderne Forschung hat neue Quellen erschlossen, neue Fragestellungen entwickelt und ist zu einer deutlich positiveren Bewertung dieser Zeit gelangt. Das 14. Jahrhundert war auch eine Zeit des künstlerischen und wissenschaftlichen Fortschritts. Die Wiederentdeckung der Texte des alten Griechenlands und Roms führten zur "Renaissance", der „Wiedergeburt“ des antiken Geisteslebens. Diese Entwicklung hatte schon mit dem Kontakt zu den Arabern während der Kreuzzüge begonnen und wurde durch die Eroberung Konstantinopels durch das Osmanische Reich beschleunigt. Viele byzantinische Gelehrte flohen in den Westen, insbesondere nach Italien. Die Erfindung des Buchdrucks erleichterte die Verbreitung des Geschriebenen und demokratisierte das Lernen als wichtige Voraussetzung für die spätere protestantische Kirchenreformation. Der Aufstieg des Osmanischen Reiches bis zum Fall Konstantinopels (1453) hatte die Verkehrswege nach Osten abgeschnitten, doch öffneten die Entdeckung Amerikas durch Kolumbus (1492) und die Umsegelung des afrikanischen Kontinents durch Vasco da Gamas (1498) neue Handelsrouten. Die Gewinner waren Händler und Handwerker, Bankiers und Ratsherren, die im Schutz der sich entwickelnden Städte ein zunehmend freies, von weltlichen und kirchlichen Obrigkeiten unabhängigeres Leben führen konnten. Die Reformation (1517) und der Deutsche Bauernkrieg (1525/26) leiteten die Frühe Neuzeit ein. All diese Entwicklungen markieren das Ende des Mittelalters und den Beginn der Neuzeit. Dabei ist anzumerken, dass diese Einteilung willkürlich bleibt, da das antike Wissen niemals ganz aus der europäischen Gesellschaft verschwunden war. Es gab seit der klassischen Antike eine gewisse Kontinuität, außerdem bestanden erhebliche regionale Unterschiede. Einige Historiker – speziell in Italien – sprechen nicht vom "Spätmittelalter" als der Übergangepoche zwischen Mittelalter und Neuzeit, sondern betrachten die "Renaissance" als solche. Heiliges Römisches Reich. Nach dem Tod des Stauferkaisers Friedrich II. am 13. Dezember 1250 begann im Heiligen Römischen Reich das Interregnum, eine Zeit der Instabilität mit mehreren Königen und Gegenkönigen, in der vor allem die Macht des sich nun endgültig formierenden Kurfürstenkollegiums gestärkt wurde (siehe für die folgende Zeit Deutschland im Spätmittelalter). Das Interregnum endete erst 1273 mit der Wahl Rudolfs von Habsburg zum König. Nach Auseinandersetzungen mit dem König von Böhmen, Přemysl Ottokar II., den Rudolf in der Schlacht auf dem Marchfeld am 26. August 1278 besiegte, erwarb er Österreich, die Steiermark und die Krain und legte so die Grundlage für den Aufstieg des Hauses Habsburg zur mächtigsten Dynastie im Reich. Rudolfs Nachfolger, Adolf von Nassau und Albrecht I., standen im Konflikt mit den Kurfürsten, die 1308 den Luxemburger Heinrich VII. zum König wählten. Heinrich versuchte, das Kaisertum in Anlehnung an die Stauferzeit zu erneuern. Er unternahm 1310 einen Italienzug und wurde im Juni 1312 als erster römisch-deutscher König nach Friedrich II. zum Kaiser gekrönt, starb jedoch schon im August 1313. 1314 kam es zu einer Doppelwahl: Ludwig der Bayer aus dem Hause Wittelsbach konkurrierte mit Friedrich dem Schönen aus dem Hause Habsburg, wobei sich Ludwig schließlich durchsetzen konnte, bald aber in einen schwerwiegenden Konflikt mit dem Papsttum geriet (siehe Johannes XXII. und Clemens VI.). Im Reich nutzten die Luxemburger die Aufforderung des Papstes zur Wahl eines neuen Königs aus und 1346 wurde Karl IV. aus dem Hause Luxemburg von vier Kurfürsten zum König gewählt. Zu einem Kampf zwischen Karl und Ludwig kam es nicht mehr, da letzterer kurz darauf verstarb. Die Goldene Bulle Karls IV. Karl IV. erließ 1356 die Goldene Bulle, eine Art Grundgesetz des Heiligen Römischen Reiches. Mit ihr wurde der Kreis der Kurfürsten, die zur Königswahl zugelassen waren, offiziell festgelegt. Karl betrieb darüber hinaus eine überaus erfolgreiche Hausmachtpolitik, sein Sohn und Nachfolger Wenzel konnte jedoch nicht an die Politik seines Vaters anknüpfen; er wurde schließlich im Jahr 1400 wegen Unfähigkeit von den Kurfürsten abgesetzt, die Ruprecht von der Pfalz zum neuen König wählten. Dieser agierte bemüht, aber letztendlich, auch aufgrund unzureichender Geldmittel, erfolglos. Mit dem Tod König Sigismunds 1437 ging die Königswürde von den Luxemburgern dauerhaft an die Habsburger über. Das Reich blieb zersplittert und große Teile der realen Macht lagen bei den weltlichen und geistlichen Territorialherren sowie im Norden bei der Hanse. 1495 wurde auf dem Wormser Reichstag eine Reichsreform beschlossen, die unter anderem jegliche Art von Fehde verbot (Ewiger Landfrieden) und eine jährliche Einberufung des Reichstags, eine Reichssteuer und ein vom König unabhängiges Reichskammergericht einführte. Dadurch setzten die Fürsten ihre Forderung nach mehr Beteiligung der Reichsstände durch. Frankreich. Frankreich entwickelte sich unter den Kapetingern im 13. Jahrhundert zur bedeutendsten politischen Kraft in Westeuropa. Bereits in der späten Stauferzeit hatte Frankreich im Grenzraum zum römisch-deutschen Reich eine Expansionspolitik betrieben, wobei die Intensität nach dem Tod Friedrichs II. zunahm. Zwischen dem machtbewussten Philipp IV. und Papst Bonifatius VIII. kam es zu Beginn des 14. Jahrhunderts aufgrund der Besteuerung des französischen Klerus durch Philipp zum Konflikt. Bonifatius erließ die berühmte päpstliche Bulle "Unam Sanctam", worin der absolute Führungsanspruch des Papsttums auch in weltlichen Fragen postuliert wurde, doch gelang es Philipp, den Papst zeitweilig festnehmen zu lassen. Kurz darauf starb Bonifatius, sein Nachfolger Benedikt XI. amtierte nur knapp ein Jahr, und der darauffolgende Clemens V. konnte sich gegen den französischen König in vielen Fragen nicht behaupten; es war der Beginn des sogenannten Avignonesischen Papsttums. 1328 folgte den in männlicher Linie ausgestorbenen Kapetingern das Haus Valois nach. Aufgrund konkurrierender Thronansprüche des englischen Königs Eduard III. Plantagenet begann 1337 der bis 1453 andauernde "Hundertjährige Krieg". Die englischen Truppen, die besser geführt wurden und über die gefürchteten Langbogenschützen verfügten, erzielten beachtliche Erfolge und kontrollierten um 1360 große Teile Frankreichs; die Bevölkerung litt zudem unter plündernden Söldnerverbänden (Armagnacs) und Epidemien (Schwarzer Tod). Ende des 14. Jahrhunderts waren die Engländer durch einen Abnutzungskrieg auf einige wenige Stützpunkte an der Atlantikküste und am Ärmelkanal zurückgedrängt. 1415 erneuerte jedoch Heinrich V. den Krieg; er vernichtete in der Schlacht von Azincourt am 25. Oktober 1415 das französische Heer. Schließlich trat Philipp der Gute, der mächtige Herzog von Burgund, nach der Ermordung seines Vaters durch Anhänger der Valois auf die Seite Englands, auch wenn das Bündnis einige Jahre später wieder zerbrach. 1420 erkannte der französische König Karl VI. im Vertrag von Troyes die Ansprüche Heinrichs an, doch starb dieser bald darauf; die von ihm erhoffte Vereinigung Frankreichs mit England war damit gescheitert, wenn auch valoistreue Truppen nur noch Gebiete im Süden Frankreichs kontrollierten. Das Erscheinen der Jeanne d’Arc (Johanna von Orleans) wendete den Kriegsverlauf jedoch zugunsten Frankreichs. Sie führte 1429 den Dauphin Karl VII. zur Königssalbung nach Reims. Karl VII. konnte sich 1435 jedoch mit dem Herzog von Burgund einigen, wobei der König dem Herzog eine große Selbständigkeit gewährte (die erst unter Ludwig XI. 1477 beendet werden sollte). Die Engländer waren nun endgültig in die Defensive gedrängt und zogen sich 1453 zurück; nur Calais verblieb ihnen als letzter Stützpunkt auf dem Kontinent. Frankreich wurde nun wieder expansiv tätig: Karl VIII. fiel 1494 in Italien ein, womit das bis dahin dort herrschende Mächtegleichgewicht empfindlich gestört wurde. Knapp 30 Jahre darauf griff auch Kaiser Karl V. in Italien ein; es begann ein jahrzehntelanger Kampf zwischen den Häusern Valois und Habsburg um die Vorherrschaft in Europa. Britische Inseln. Die Schlacht von Bannockburn beendete 1314 die englischen Versuche, Schottland zu unterwerfen, und erlaubte den Schotten die Bildung eines starken Staatswesens unter den Stuarts. Ab 1337 richtete England seine Aufmerksamkeit vorwiegend auf den Hundertjährigen Krieg mit Frankreich. Heinrich V. rückte mit seinem Sieg bei Azincourt 1415 die Vereinigung beider Königreiche in greifbare Nähe, doch sein Sohn Heinrich VI. vergeudete den Vorteil. Fast sofort nach dem Kriegsende 1453 begannen die dynastischen Auseinandersetzungen der Rosenkriege (1455–1485). Sie endeten mit der Thronfolge Heinrichs VII. und der starken Zentralgewalt der Tudor-Monarchie. Während Englands Aufmerksamkeit so abgelenkt war, gelangte Irland unter seiner formalen Oberherrschaft zu einer praktisch weitgehenden Unabhängigkeit. Skandinavien. Nach dem Scheitern der Union zwischen Schweden und Norwegen (1319–1365) wurde 1397 die skandinavische Kalmarer Union gegründet. Die Schweden zögerten, sich an der dänisch dominierten Union zu beteiligen, und traten nach dem Stockholmer Blutbad 1520 aus. Norwegen andererseits verlor seinen Einfluss und blieb mit Dänemark bis 1814 vereinigt. Die norwegische Kolonie auf Grönland starb im 15. Jahrhundert aus, vermutlich aufgrund der sich verschlechternden klimatischen Bedingungen. "Siehe auch: Geschichte Skandinaviens, Geschichte Dänemarks, Geschichte Norwegens und Geschichte Schwedens" Südeuropa. 1469 heirateten Isabella von Kastilien und Ferdinand II. von Aragon und bildeten damit das Territorium des modernen Spanien. 1492 wurden die Mauren von Granada vertrieben, die Reconquista (Rückeroberung) war damit abgeschlossen. Portugal hatte während des 15. Jahrhunderts langsam die Küste Afrikas erforscht und 1498 fand Vasco da Gama den Seeweg nach Indien. Die spanischen Herrscher begegneten dieser Herausforderung, indem sie Kolumbus’ Expedition unterstützten, der einen westlichen Seeweg nach Indien suchte – er entdeckte Amerika im selben Jahr, in dem Granada fiel. In Italien profitierten im 13. Jahrhundert lokale Machthaber der Guelfen und Ghibellinen vom Rückgang der Reichsherrschaft. Während die Ghibellinen sich im Regelfall mehr auf den Adel stützten, wies das Guelfentum eine gewisse Nähe zum „Republikanismus“ auf und wurde von der Kirche, Frankreich und den Anjous im Kampf gegen die Herrschaft der römisch-deutschen Könige unterstützt: Im Wortgebrauch der guelfischen Florentiner war „Ghibelline“ etwa synonym mit „Alleinherrscher“. Hauptsächlich dienten die Begriffe aber der Bezeichnung konkurrierender Stadtparteien. Florenz und Venedig wuchsen durch Finanzgeschäfte und Handel zu mächtigen Stadtrepubliken heran, welche die politischen Hauptakteure in der Toskana und im Norden waren. Die in Florenz seit 1434 vorherrschende Familie der Medici förderte die Künste und wurde dadurch eine Triebkraft der Renaissance. Mit der Rückkehr des Papsttums nach Rom 1378 wurde diese Stadt ein weiteres Mal politische und kulturelle Metropole. Im Norden hingegen erlosch nach dem Ende der Staufer der seit der Zeit Ottos I. vorhandene Einfluss der römisch-deutschen Herrscher fast vollkommen. Der Italienzug Heinrichs VII. (1310–13) stellte den letzten ernsthaften Versuch dar, den Reichsrechten in Ober- und Mittelitalien gegenüber den Kommunen, dem Papst und dem König von Neapel (siehe Robert von Anjou) wieder Geltung zu verschaffen, womit Heinrich aber, auch bedingt durch seinen frühen Tod, scheiterte. Ludwig der Bayer und Karl IV. wurden in Italien kaum aktiv, während Ruprecht von der Pfalz von Gian Galeazzo Visconti an den Alpen blutig abgeschlagen wurde. Der Frieden von Lodi von 1454 mit der Vollform der italienischen "lega universale" gilt bereits als Ereignis der Renaissance, der Übergangszeit zur Neuzeit. Politisch war Italien nach dem Neapelfeldzug Karls VIII. erschüttert. Dies markierte den Beginn der sich bis ins 16. Jahrhundert hinziehenden Kriege um die Hegemonie in Italien und das endgültige Ende des Mittelalters in dieser Region. "Siehe auch: Geschichte Spaniens, Geschichte Italiens, Geschichte Portugals, Republik Venedig, Venezianische Kolonien, Genua, Republik Genua, Genueser Kolonien, Geschichte Pisas und Kirchenstaat" Osteuropa. Das byzantinische Reich hatte Südosteuropa politisch und kulturell über Jahrhunderte dominiert. Schon vor dem Fall Konstantinopels 1453 war es jedoch zu einem tributpflichtigen Vasallen des osmanischen Reichs herabgesunken, nur noch bestehend aus der Stadt Konstantinopel und einigen griechischen Enklaven. Nach dem Fall Konstantinopels standen die von ihm einst beherrschten Teile Südosteuropas fest unter türkischer Kontrolle und blieben es bis zur gescheiterten zweiten türkischen Belagerung Wiens 1683 und der Schlacht am Kahlenberg. Für die Griechen begann eine bis zu Beginn des 19. Jahrhunderts andauernde Fremdherrschaft, in der nur die orthodoxe Kirche als Bezugspunkt bestehen blieb. Auch die übrigen Balkanländer wie Bosnien, Kroatien, Serbien, Albanien (siehe Skanderbeg) und Bulgarien wurden Teil des Osmanischen Reiches. Als die Osmanen im Jahr 1453 Konstantinopel eroberten, rief Papst Kalixt III. die Christenheit zum Kreuzzug auf. Im christlichen Heer, das im Jahr 1456 das osmanische Heer in der Schlacht bei Belgrad besiegte, befand sich auch eine große Zahl an Kroaten, die der Franziskaner Johannes von Kapistran anführte. Im Jahr 1519 bezeichnete Papst Leo X. die Kroaten anerkennend als Antemurale Christianitatis (lat. „Bollwerk der Christenheit“, wörtlich „Vormauer“), weil sie gegen die Ausbreitung des Osmanischen Reiches gen Europa Widerstand leisteten. Nachdem das christliche Heer von den Türken in der Schlacht bei Mohács im Jahre 1526 aufgerieben worden war, kam auch das Königreich Ungarn unter osmanische Fremdherrschaft, und die Osmanen bedrohten nunmehr auch das übrige Europa. Das Ergebnis der Verteidigungsbemühungen der Kroaten im 15. Jahrhundert waren 30 Kriegszüge und 70 zerstörte Städte. Im Norden bestand die wesentliche Entwicklung jener Jahre im enormen Wachstum des litauischen und dann polnisch-litauischen Königreichs. Weit im Osten verlor die Goldene Horde 1380 die Schlacht auf dem Kulikowo Pole ("Schnepfenfeld") und musste die Vorherrschaft des Großfürstentums Moskau als Regionalmacht anerkennen, der auch die niedergehende Kiewer Rus weichen musste. 1480 beendete Iwan der Große nach dem Stehen an der Ugra endgültig die mongolische Herrschaft in Russland und legte die Grundlagen des russischen Nationalstaates. "Siehe auch: Geschichte Bulgariens, Geschichte Kroatiens, Geschichte Griechenlands, Geschichte Polens, Geschichte Litauens und Geschichte Russlands" Gesellschaft und Wirtschaft. Cosimo de’ Medici begründete den Einfluss seiner Familie. Am 18. Mai 1291 nahmen moslemische Armeen Akkon, die letzte christliche Festung im Heiligen Land, ein. Dieses Ereignis bedeutete nur noch formal das Ende der Kreuzzüge. Schon lange zuvor hatte sich die Lage des „Abendlandes“ verändert. Die Kreuzzüge schufen die Voraussetzung für kulturelle und wirtschaftliche Kontakte mit Byzanz und den weiter östlich gelegenen islamischen Gebieten. Byzanz war der Marktplatz, auf dem es praktisch alles gab, und Europa lernte neue Handelswaren kennen, Seidenstoffe, Gewürze, Obst und Spiegel aus Glas. Die meisten Güter waren nur für die reichen Europäer erschwinglich, doch mit dem Handel und Transport ließ sich Geld verdienen. Die neu erwachte Geldwirtschaft war noch jung, in Oberitalien entstanden die ersten "banche", die Stuben der italienischen Geldwechsler und Kreditverleiher, schließlich die großen Handelskompanien – Gesellschaften, die internationalen Handel und Produktion im großen Stil finanzierten, und dafür vom Staat oftmals besondere Privilegien und Monopole erhielten. Die größten Finanziers bezahlten sogar die Kriege der Herrschenden. Familien wie die deutschen Fugger, die italienischen Medici und die de la Poles in England erreichten enorme politische und wirtschaftliche Macht. Doch die Wirtschaft konnte nicht allein auf den Importen beruhen, es entstand auch reger Export nach Osten: Europäische Händler schickten Schiffsladungen mit Wollstoffen, Korn, Flachs, Wein, Salz, Holz und Fellen in den Orient. Die Tatsache, dass das Mittelmeer von islamischer Vorherrschaft (und damit verbundenen Zollforderungen) befreit war, förderte den Drang der Europäer, trotz geringer Erfahrung Handelsflotten aufzubauen. Vor allem Genua und Venedig verdankten ihren Aufstieg dem blühenden Ost-West-Handel. Neue Fertigungsmethoden verbreiteten sich, vor allem bei Stoffen, Geweben und Metallen. Die Nachfrage wurde angekurbelt durch die Entstehung von spezialisierten Märkten und Messen. Die Lehnsherren sorgten für einen reibungslosen Ablauf dieser Veranstaltungen, sie bewahrten den Marktfrieden und erhielten Einnahmen aus Zöllen und Handelssteuern. Besonders bekannt waren zu jener Zeit die großen „Jahrmärkte“ in der französischen Champagne. Händler aus ganz Europa und dem Nahen Osten zogen von Ort zu Ort, kauften und verkauften und schufen ein Handelsnetz bis nach Schottland und Skandinavien. Indem sich die Händler vereinigten, um ihre Waren in größeren Handelszügen sicherer durch die Lande zu transportieren, bekamen sie auch mehr Einfluss, z. B. wenn es darum ging, Preise und billigere Wegezölle zu vereinbaren. Die mächtigste Gemeinschaft von Handelspartnern, die von ähnlichen Interessen geleitet waren, stellte die Hanse dar. Die 1254 gegründete Vereinigung norddeutscher Kaufleute baute an Ost- und Nordsee ein regelrechtes Imperium unter den Augen verschiedener lokaler Herrscher auf und erkämpfte sich diesen gegenüber Eigenständigkeit und Macht – falls nötig mit Waffengewalt. Im 15. Jahrhundert nahm die Bedeutung der Champagne-Messen für den Nord-Süd-Handel ab. Stattdessen wurde der Seeweg zwischen Flandern und Italien bevorzugt. Ferner begannen mehr und mehr englische Wollhändler, zum Schaden der holländischen Tuchmanufakturen statt Wolle Kleidung zu exportieren. Entscheidend war auch die Behinderung des Handels mit der Levante durch den Wechsel vom byzantinischen zum Osmanischen Reich. Alternative Handelswege mussten eröffnet werden – um die Südspitze Afrikas herum nach Indien und über den Atlantik nach Amerika. Diese Veränderungen förderten auch die Gründung und das Wachstum der Städte. Vom Niedergang des römischen Imperiums bis etwa ins Jahr 1000 waren in Europa kaum neue Stadtgründungen zu verzeichnen. Mit dem Aufblühen der Handelsbeziehungen folgte auch bald das Erfordernis neuer Handelsplätze und die Gründung neuer Städte an den Handels- und Transportwegen. Von etwa 1100 bis 1250 verzehnfachte sich die Zahl der Stadtrechte in Europa, eine Entwicklung, die sich im Spätmittelalter zunächst fortsetzte, dann aber durch die demographische Katastrophe infolge der Großen Pest unterbrochen wurde. Städte wie Innsbruck, Frankfurt, Hamburg, Brügge, Gent und Oxford nahmen erst jetzt einen Aufschwung. Eine kleine Stadt zählte meist rund 2500 Einwohner, eine bedeutende Stadt rund 20.000. Heutige Millionenstädte wie London und Genua brachten es auf 50.000 Einwohner. Die größten Metropolen mit etwa 100.000 Einwohnern waren Paris, Venedig und Mailand. „Stadtluft macht frei“ war das Motto der Zeit. Unzählige Unfreie, Leibeigene und verarmte Bauern zogen in die Städte, eine rege Bautätigkeit unterstützte die Entwicklung. Die Städte entwickelten ein politisches Bewusstsein, sie machten sich frei von Adel und Kirche, erhoben eigene Zölle und Steuern und begründeten eine eigene Rechtsprechung. In Nord- und Mittelitalien entstanden die ersten Kommunalverwaltungen und wurden rasch in ganz Europa imitiert. In den Städten entwickelten sich auch Handwerker- und Händlerzünfte, die entscheidenden Einfluss auf das Wirtschaftsleben gewannen. Bildung und Universitäten. Im frühen und hohen Mittelalter war elementare Bildung, wie Lesen, Schreiben und Rechnen, nur einem kleinen Kreis von Menschen zugänglich. Die breite Masse des Volkes, selbst der Adel, besaß kaum oder nur sehr geringe Bildung. Lediglich in den Klosterschulen war es möglich, sich Bildung anzueignen, doch nur für jene, die bereit waren, sich dem Dienst im Orden zu verpflichten. Ab etwa dem Jahr 1000 entstanden, parallel zum Aufblühen der Städte, sogenannte Kathedralschulen. Sie bildeten auch Adels- und Bürgersöhne, ja sogar Leibeigene aus, ohne sie dem Ordensleben zu unterwerfen. Die Kathedralschulen, die sich besonders stark in Frankreich entwickelten, beschränkten den Unterrichtsstoff auf die sieben „freien Künste“, deren Erlernen schon im alten Rom für freie Bürger charakteristisch war, das Trivium (Grammatik, Logik, Rhetorik) und das Quadrivium (Arithmetik, Astronomie, Geometrie, Musik). Gelesen wurden nur wenige anerkannte Schriftsteller der Spätantike und des frühen Mittelalters wie Boëthius, Cassiodor oder Isidor von Sevilla. Mit den Kreuzzügen bekam das christliche Abendland Kontakt zur Geisteswelt des Islams. Viele bildungshungrige Europäer lernten arabische Mathematik, Astronomie, Medizin und Philosophie kennen, in den Bibliotheken des Orients lasen sie erstmals die griechischen Klassiker wie Aristoteles (im Mittelalter sehr häufig „der Philosoph“ genannt) im Originaltext. Auch über den islamisch besetzten Teil Spaniens kamen viele Impulse besonders nach Frankreich. Das damals vorbildliche Ausbildungssystem der islamischen Welt wurde bereitwillig aufgenommen. Die Regelungen und Lehrpläne der europäischen Kloster- und Kathedralschulen taten sich mit der Integration der neuen Inhalte schwer. Obwohl Anfang des 12. Jahrhunderts Petrus Abaelardus als einer der Vorreiter dieser Entwicklung noch kirchlicher Verfolgung besonders durch Bernhard von Clairvaux ausgesetzt war, ließ sich die Entstehung von freien Universitäten nicht mehr verhindern. Mit dem Wachstum der erfolgreichen Handelsmetropolen entstanden ab der Mitte des 13. Jahrhunderts auch die Universitäten: Bologna, Padua, Paris, Orléans, Montpellier, Cambridge und Oxford, um nur einige Gründungen dieser Zeit zu nennen. Schon bald gehörte es für eine reiche Stadt zum guten Ton, bekannte Gelehrte und viele Studenten in ihren Mauern zu beherbergen. Die frühen Universitäten des Spätmittelalters besaßen keine festen Gebäude oder Vorlesungsräume. Je nach Situation nutzte man öffentliche Räume für Vorlesungen: In Italien waren es oft die Stadtplätze, in Frankreich Kreuzgänge in Kirchen und in England fanden die Vorlesungen nicht selten an Straßenecken statt. Erst später mieteten erfolgreiche Lehrer, die von ihren Studenten direkt je Vorlesung bezahlt wurden, Räumlichkeiten für ihre Vorlesungen. Und bald gab es schon die ersten Studentenunruhen: Auch wenn eine Universität der Stolz einer Stadt war, gab es doch häufig Streitigkeiten mit den in Bünden organisierten Studenten wegen zu hoher Preise für Kost und Logis und Kritik wegen zu viel Schmutz auf den Straßen oder betrügerischer Gastwirte. In Paris gingen die Auseinandersetzungen im Jahr 1229 so weit, dass die Universität nach dem gewaltsamen Tod mehrerer Studenten mit Umsiedlung in eine andere Stadt drohte. Papst Gregor IX. erließ daraufhin eine Bulle, die die Eigenständigkeit der Universität von Paris garantierte. Fortan konnten zunehmend selbst die mächtigen Bürgerschaften den Universitäten keine Vorschriften mehr machen. Der Philosoph Wilhelm von Ockham, bekannt durch das Prinzip von "Ockhams Rasiermesser", und der Nominalismus leiteten das Ende stark theoretischer scholastischer Debatten ein und machten den Weg für empirische und experimentelle Wissenschaft frei. Ockham zufolge sollte sich die Philosophie nur mit Dingen beschäftigen, über die echtes Wissen erreicht werden kann (Prinzip der Sparsamkeit, engl. "parsimony"). Mittelalterliche Vorläufer der experimentellen Forschung kann man bereits in der Wiederentdeckung des Aristoteles und im Werk Roger Bacons sehen. Besonders kritisch äußert sich über die Scholastiker Nikolaus von Kues. Aus prinzipiellen Gründen wendet er sich auch gegen eine Zentralstellung der Erde und nimmt in diesem Punkt das heliozentrische Weltbild des Nikolaus Kopernikus vorweg. Kurz vor und nach dem Fall Konstantinopels strömten auch verstärkt byzantinische Gelehrte nach Europa (z. B. Basilius Bessarion), wie auch bereits vorher byzantinische Kodizes nach Europa gelangt waren (etwa durch Giovanni Aurispa). Die meisten technischen Errungenschaften des 14. und 15. Jahrhunderts waren nicht europäischen Ursprungs, sondern stammten aus China oder Arabien. Die umwälzende Wirkung folgte nicht aus den Erfindungen selbst, sondern aus ihrer Verwendung. Schießpulver war den Chinesen schon lange bekannt gewesen, doch erst die Europäer erkannten sein militärisches Potenzial und konnten es zur neuzeitlichen Kolonialisierung und Weltbeherrschung nutzen. In diesem Zusammenhang sind auch die Fortschritte der Navigation wesentlich. Kompass, Astrolabium und Sextant erlaubten gemeinsam mit weiterentwickeltem Schiffbau das Bereisen der Weltmeere. Gutenbergs Druckerpresse machte nicht nur die protestantische Reformation möglich, sondern trug auch zur Verbreitung des Wissens bei und damit zu einer Gesellschaft mit mehr Lesekundigen. Klima und Landwirtschaft. Um 1300–1350 ging die Mittelalterliche Warmzeit in die folgende Kleine Eiszeit über. Das kältere Klima reduzierte die Ernten; Hungersnot, Seuchen und Bürgerkriege folgten. Die wichtigsten Ereignisse waren die Große Hungersnot 1315–1317, der Schwarze Tod, und der Hundertjährige Krieg. Als die Bevölkerung Europas auf die Hälfte abnahm, wurde reichlich Land für die Überlebenden verfügbar, und in der Konsequenz wurde die Arbeit teurer. Versuche der Landbesitzer, die Löhne gesetzlich zu begrenzen – wie mit dem englischen "Statute of Labourers" 1351, waren zum Scheitern verdammt. Es war praktisch das Ende der Leibeigenschaft im größten Teil Europas. In Osteuropa andererseits gab es nur wenige große Städte mit einem lebendigen Bürgertum, um den Großgrundbesitzern Paroli zu bieten. Daher gelang es diesen dort, die Landbevölkerung in noch stärkere Unterdrückung zu zwingen. Religion. Die in Teilen, aber keineswegs insgesamt herrschende apokalyptische Stimmung führte vielfach zum Wunsch der direkten Gotteserfahrung. Das Bibelstudium vermittelte den Menschen das Bild der einfachen Lebensweise Jesu Christi und der Apostel, ein Vorbild, dem die existierende Kirche nicht gerecht wurde, gerade weil das Papsttum seit 1309 in Avignon (Avignonesisches Papsttum) residierte und sich immer mehr von den Menschen entfernte. Hinzu kam das abendländische Schisma von 1378, welches erst durch den Konziliarismus beendet werden konnte (Konzil von Konstanz). Infolge der Glaubenskrise entstanden vermehrt Bettelorden und apostolische Gemeinden, die sich dem einfachen Leben widmen wollten. Viele davon wurden von der Kirche wegen Ketzerei verfolgt, so beispielsweise die Waldenser, Katharer oder die Brüder und Schwestern des freien Geistes. Im Spätmittelalter traten in ganz Europa aus ähnlichen Gründen Judenverfolgungen auf, viele Juden wanderten nach Ostmitteleuropa aus. Das Große Abendländische Schisma. Seit dem frühen 14. Jahrhundert gelangte das Papsttum zunehmend unter den Einfluss der französischen Krone, bis hin zur Verlagerung seines Sitzes nach Avignon 1309. Als der Papst 1377 beschloss, nach Rom zurückzukehren, wurden in Avignon und Rom unterschiedliche Päpste gewählt, mit dem Resultat des sogenannten "Abendländischen Schismas" (1378–1417). Die Kirchenspaltung war eine ebenso politische wie religiöse Angelegenheit; während England den römischen Papst unterstützte, stellten sich seine Kriegsgegner Frankreich und Schottland hinter den Papst in Avignon. Italien und insbesondere Rom urteilten in dem Selbstverständnis, der alte Imperiumssitz sei der rechtmäßige Ort für den Sitz der Kirche Jesu Christi. Allerdings waren im Thronkampf von Neapel die älteren Anjou notgedrungen für Avignon, Visconti-Mailand schwankend aufgrund der Beziehungen zu Frankreich. Auf dem Konzil von Konstanz (1414–1418) wurde das Papsttum wieder in Rom vereinigt. Obgleich die Einheit der Westkirche danach noch hundert Jahre andauerte und obgleich der Heilige Stuhl einen größeren Reichtum aufhäufte als jemals zuvor, hatte das Große Schisma doch irreparablen Schaden verursacht. Die inneren Konflikte der Kirche förderten den Antiklerikalismus bei Herrschern und Beherrschten und die Teilung ermöglichte Reformbewegungen mit schließlich einschneidenden Veränderungen. John Wyclif. Obwohl die Westkirche lange gegen häretische Bewegungen gekämpft hatte, entstanden im Spätmittelalter innerkirchliche Reformbestrebungen. Deren erste entwarf der Oxforder Professor John Wyclif in England. Wyclif sprach sich dafür aus, die Bibel als einzige Autorität in religiösen Fragen zu betrachten und lehnte Transsubstantiation, Zölibat und Ablässe ab. Er übersetzte auch die Bibel ins Englische. Obwohl sie einflussreiche Freunde in der englischen Aristokratie hatte, etwa John of Gaunt, wurde Wyclifs Partei, die Lollarden, letztendlich unterdrückt. Jan Hus. Die Lehren des böhmischen Priesters Jan Hus basierten mit wenigen Änderungen auf jenen von John Wyclif. Dennoch hatten seine Anhänger, die Hussiten, viel größere politische Auswirkungen als die Lollarden. Hus sammelte in Böhmen zahlreiche Anhänger und als er 1415 wegen Häresie verbrannt wurde, verursachte dies einen Volksaufstand. Die folgenden "Hussitenkriege" endeten zwar nicht mit der nationalen oder religiösen Unabhängigkeit Böhmens, aber Kirche und deutscher Einfluss wurden geschwächt. Martin Luther. Porträt Luthers von Lukas Cranach Die Reformationszeit liegt genaugenommen nicht mehr im Spätmittelalter, doch sie beendete die Einheit der Westkirche, die eines der wichtigsten Merkmale des Mittelalters gewesen war. Martin Luther, ein deutscher Mönch, löste die Reformation durch seine zahlreiche theologische Fragen betreffende Position aus. Die gesellschaftliche Basis dieser Bewegung setzte sich aus Arbeitern, Studierenden und Jugendlichen zusammen, besonders seine Kritik von Ablasshandel und Bußwesen. Eine wichtige Station dabei war die Verteilung von 95 Thesen an seine dozierenden Kollegen (der Legende nach soll er sie auch an die Schlosskirche zu Wittenberg genagelt haben). Papst Leo X hatte 1514 für den Bau des neuen Petersdoms den Ablasshandel erneuert. Luther wurde vom Reichstag zu Worms (1521) aufgefordert, seine als Häresie verurteilten Ansichten zu widerrufen. Als er sich weigerte, belegte ihn Karl V. mit der Reichsacht. Unter dem Schutz Friedrichs des Weisen von Sachsen konnte er sich zurückziehen und unter anderem eine vollständige Neuübersetzung des Neuen Testaments ins Deutsche anfertigen, die 1534 um eine Neuübersetzung des Alten Testaments ergänzt wurde. Für viele weltliche Fürsten war die Reformation eine willkommene Gelegenheit, ihren Besitz und Einfluss zu vergrößern, auch das städtische Bürgertum und Bauern konnten von ihr profitieren. Gegen die Reformation wendete sich die katholische Gegenreformation. Europa war nun geteilt in den protestantischen Norden und den katholischen Süden, Grundlage der Religionskriege des 16. und 17. Jahrhunderts. Kunst. Spätmittelalterliche Madonna mit Heiligenfiguren (um 1410–1420) Die Bildende Kunst erfuhr im Spätmittelalter eine enorme Weiterentwicklung. Im frühen 14. Jahrhundert entstanden die Werke Giottos als Vorläufer der Renaissance. In der Malerei spricht man von der nördlichen Renaissance mit Zentrum in den Niederen Landen und der italienischen Renaissance mit Florenz als Angelpunkt. Während die nördliche Kunst mehr auf Muster und Oberflächen gerichtet war, etwa die Gemälde des Jan van Eyck, erforschten italienische Maler auch Bereiche wie Anatomie und Geometrie. Die Entdeckung der Fluchtpunkt-Perspektive (Zentralprojektion), die Brunelleschi zugeschrieben wird, war ein wichtiger Schritt zu optisch realistischen Darstellungen. Die italienische Renaissance erreichte ihren Höhepunkt mit der Kunst Leonardo da Vincis, Michelangelos und Raffaels. Architektur. Während die gotische Kathedrale in den nordeuropäischen Ländern sehr in Mode blieb, konnte sich dieser Baustil in Italien nie recht durchsetzen. Hier ließen sich die Architekten der Renaissance von klassischen Gebäuden inspirieren, das Meisterwerk dieser Zeit war Brunelleschis Dom Santa Maria del Fiore in Florenz. Literatur. Die wichtigste Entwicklung in der spätmittelalterlichen Literatur war der zunehmende Gebrauch der Volkssprachen gegenüber dem Latein. Beliebt waren Romane, die oft die Legende vom Heiligen Gral zum Thema hatten. Der Autor, der vor allen anderen die neue Zeit ankündigte, war Dante Alighieri. Seine "Göttliche Komödie", in italienischer Sprache geschrieben, beschreibt zwar eine mittelalterlich-religiöse Weltsicht, in der er auch verankert war (siehe Monarchia), bedient sich aber dazu eines Stils, der auf antiken Vorbildern basiert. Andere Förderer des Italienischen waren Francesco Petrarca, dessen "Canzoniere" als erste moderne Gedichte gelten, und Giovanni Boccaccio mit seinem "Decamerone". In England trug Geoffrey Chaucer mit seinen "Canterbury Tales" dazu bei, Englisch als Literatursprache zu etablieren. Wie Boccaccio beschäftigte sich Chaucer mehr mit dem alltäglichen Leben als mit religiösen oder mythologischen Themen. In Deutschland wurde schließlich Martin Luthers Übersetzung der Bibel zur Basis für die deutsche Schriftsprache. Schweiz. Die Schweiz (, oder,), amtlich Schweizerische Eidgenossenschaft (,,), ist ein föderalistischer, demokratischer Staat in Europa. Die Schweiz grenzt an Deutschland im Norden, an Österreich und Liechtenstein im Osten, an Italien im Süden und an Frankreich im Westen. Die Bundesverfassung der Schweizerischen Eidgenossenschaft legt keine Hauptstadt fest; der Sitz der Bundesbehörden (Regierung und Parlament) ist die Bundesstadt Bern. Die Willensnation Schweiz zählt 8,3 Millionen Einwohner, darunter 2,0 Millionen Ausländer (24 Prozent) ohne Schweizer Bürgerrecht. Bezogen auf die Gesamtbevölkerung ab 15 Jahren (mit und ohne Bürgerrecht) weisen 35 Prozent einen Migrationshintergrund auf. Das Land gehört zu den dichter besiedelten Ländern Europas, wobei sich die Bevölkerung im Mittelland, der Beckenzone zwischen Jura und Alpen, konzentriert. Die sechs Grossstädte sind die Wirtschaftszentren Zürich, Genf, Basel, Lausanne, Bern und Winterthur. Das Land gliedert sich in 26 teilsouveräne Kantone und hat auf Bundesebene – entsprechend seiner einheimischen Bevölkerung – insgesamt vier offizielle Amtssprachen: Deutsch, Französisch, Italienisch und Rätoromanisch. Sie bilden die Grundlage der vier Landeskulturen und Sprachregionen: Deutschschweiz, Romandie, italienische sowie rätoromanische Schweiz. Das Landeskennzeichen lautet «CH», die Abkürzung für das neutrale lateinische "Confoederatio Helvetica", um keine der vier Amtssprachen zu bevorzugen. Die Schweizerische Eidgenossenschaft ging aus den sogenannten Urkantonen Uri, Schwyz und Unterwalden hervor. Als inoffizielles und mythologisiertes Gründungsdokument gilt der Bundesbrief von 1291, die älteste noch erhaltene Bündnisurkunde. Im Westfälischen Frieden von 1648 gelang ihr die Anerkennung ihrer staatsrechtlichen Unabhängigkeit. Der heutige Bundesstaat besteht seit 1848. Der Name "Schweiz" stammt vom Urkanton "Schwyz". Die nationale Identität und der Zusammenhalt der Schweiz basieren nicht auf einer gemeinsamen Sprache, Ethnie oder Religion, sondern auf interkulturellen Faktoren wie dem Glauben an die direkte Demokratie, einem hohen Mass an lokaler und regionaler Autonomie sowie einer ausgeprägten Kultur der Kompromissbereitschaft bei der politischen Entscheidungsfindung. Die Schweiz wird in dieser Beziehung oft als Vorbild für andere Staaten genannt. Geographie. Der Binnenstaat Schweiz liegt zwischen dem 46. und 48. Breitengrad und verfügt über die Quellgebiete von Flüssen, die sich in die Nordsee, das Mittelmeer und das Schwarze Meer ergiessen. Die maximale Nord-Süd-Ausdehnung beträgt 220,1 Kilometer (von Bargen nach Chiasso), die grösste West-Ost-Ausdehnung 348,4 Kilometer (von Chancy nach Val Müstair). Der höchste Punkt in der Schweiz ist die mit hohe Dufourspitze, der tiefste Punkt ist das Ufer des Lago Maggiore mit Die höchstgelegene Siedlung Juf liegt auf; die tiefstgelegenen Siedlungen um den Lago Maggiore auf Der geographische Mittelpunkt der Schweiz liegt im Kanton Obwalden auf der Älggi-Alp. Die Schweiz hat eine Grenzlänge von 1'899 Kilometern. Die längste Staatsgrenze ist mit 744 Kilometern diejenige zu Italien im Süden (→ Grenze zwischen Italien und der Schweiz). Im Westen grenzt die Schweiz über 572 Kilometer an Frankreich (→ Grenze zwischen Frankreich und der Schweiz); im Norden an Deutschland über 362 Kilometer, die zum grössten Teil den Rhein entlangführen (→ Grenze zwischen Deutschland und der Schweiz). Im Osten grenzt die Schweiz mit 180 Kilometern an Österreich (→ Grenze zwischen Österreich und der Schweiz) und mit 41 Kilometern an das Fürstentum Liechtenstein (→ Grenze zwischen Liechtenstein und der Schweiz). 23,9 Prozent der Fläche der Schweiz sind landwirtschaftliche Nutzfläche, 13 Prozent sind alpwirtschaftliche Flächen. Siedlungsfläche sind 6,8 Prozent, und 25,5 Prozent – vorwiegend in den Alpen und im Jura – gelten als unproduktive Naturfläche. Rund 30,8 Prozent sind Wald und Gehölze. Naturräumliche Gliederung. Landschaftliche Grossräume; die Voralpen sind nicht von den Alpen differenziert (Karte mit einem Gemeindebestand per 1. Januar 2015) Die naturräumliche Gliederung der Schweiz Die Schweiz lässt sich in drei landschaftliche Grossräume einteilen, die grosse Unterschiede aufweisen: den Jura, das dichtbesiedelte Mittelland sowie die Alpen mit den Voralpen. Rund 48 Prozent der Landesfläche gehören zu den Alpen im engeren Sinne, 12 Prozent zu den Voralpen. 30 Prozent werden zum Mittelland gerechnet, und der Jura nimmt die restlichen zehn Prozent der Landesfläche ein. Das "Schweizer Mittelland" wird im Nordwesten und Norden geographisch wie auch geologisch durch die langgestreckten Höhenzüge des Juras abgegrenzt. Im Süden gegen die Alpen hin wird meist der an einigen Orten relativ abrupte Anstieg zu Höhen über als Kriterium für die Abgrenzung verwendet. Die südwestliche Grenze des Schweizer Mittellandes bildet der Genfersee, die nordöstliche der Bodensee zusammen mit dem Rhein. Die Bevölkerungsdichte der Schweiz wird von den sämtlich im Mittelland liegenden Ballungszentren mit den beiden in der Grösse bescheidenen und dennoch wichtigen Weltstädten Zürich und Genf bestimmt. In den typischen Mittellandkantonen Aargau und Zürich steigt die Bevölkerungsdichte auf 600 bis fast 800 Personen pro Quadratkilometer. Mit "Voralpen" werden in der Schweiz jene Gebiete bezeichnet, die den Übergang vom leicht hügeligen Schweizer Mittelland zum Gebirgsraum der Alpen markieren und sich durch ihre Erhebungen als Naherholungszone speziell während Zeiten des Hochnebels auszeichnen. Mit den Alpen beschreiben sie einen Bogen zwischen Südwesten und Nordosten der Schweiz. Die "Alpen" bilden im «Herzen Europas» eine wichtige Klima- und Wasserscheide mit zusätzlichen alpinen und inneralpinen Wettereffekten, durch die in der Schweiz trotz ihrer geringen Grösse meist mehrere Wetterlagen herrschen. Im Schweizer Alpenbogen liegen bekannte Feriendestinationen für Sommer- und Wintertourismus sowie der einzige Schweizer Nationalpark. Das auch in den Alpen vorhandene Netz des öffentlichen Verkehrs in der Schweiz bekam mit der Albulalinie ein UNESCO-Welterbe, das die Naturerbe der Gebirgslandschaften TektonikArena Sardona und Jungfrau-Aletsch-Bietschhorn ergänzt. "Alpensüdseite" ist ein Begriff, der vor allem in Wettervorhersagen verwendet wird, da sich Wetterlage, Klima und Vegetation meist von denjenigen auf der Alpennordseite unterscheiden. Die Alpensüdseite umfasst den Kanton Tessin, die Bündner Südtäler Misox, Calanca, Bergell, Puschlav und Val Müstair sowie das Gebiet südlich des Simplonpasses im Kanton Wallis und gehört naturräumlich zu den Alpen. Der Schweizer "Jura" kann grob im Osten und Südosten durch das Schweizer Mittelland, im Norden durch den Hochrhein, im Nordwesten durch die Burgundische Pforte eingegrenzt werden. Der Jura ist ein geologisch junges Faltengebirge mit einer Längenausdehnung von etwa 300 Kilometern und beschreibt einen grossen halbmondförmigen, nach Südosten offenen Bogen. Auf der Linie Besançon–Yverdon beträgt die grösste Breite des Gebirges rund 70 Kilometer. Bei Bienne ändern die Ketten ihre Richtung immer mehr nach Osten, das Gebirgssystem wird schmaler, und die Zahl der nebeneinanderliegenden Ketten nimmt ab. Die östlichste Jurakette, die Lägernkette, verläuft in exakter West-Ost-Richtung und endet bei Dielsdorf, wo die gebirgsbildenden Schichten unter die Molasse des Schweizer Mittellandes abtauchen. Geologie. Die geologische Struktur der Schweiz ist im Wesentlichen das Ergebnis einer Plattenkollision Afrikas und Europas während der letzten Jahrmillionen. Dieses Phänomen ist bei der Glarner Hauptüberschiebung, einem UNESCO-Weltnaturerbe, besonders deutlich sichtbar. Geologisch wird die Schweiz in fünf Hauptregionen eingeteilt: Die Alpen (→ Geologie der Alpen) bestehen im Kern aus Granit, der Jura (→ Geologie des Juras) ist ein junges Faltengebirge aus Kalkstein. Zwischen dem Jura und den Alpen liegt das teils flache, teils hügelige Mittelland (→ Geologie des Mittellandes). Dazu kommen noch die Poebene im südlichsten Zipfel des Tessins, dem Mendrisiotto (Mendrisio), sowie die Oberrheinische Tiefebene um Basel, die zum allergrössten Teil ausserhalb der Schweiz liegen. Die Topografie der heutigen Schweiz wurde während der letzten zwei Millionen Jahre massgebend durch die riesigen Eismassen geprägt und gestaltet, die während der verschiedenen Eiszeiten bis weit ins Mittelland vorgestossen waren. Erdbeben. Die Schweiz weist im europäischen Vergleich eine mittlere Erdbebengefährdung auf, wobei regionale Unterschiede bestehen: Im Wallis, in Basel, im St. Galler Rheintal, in Mittelbünden, im Engadin und der Zentralschweiz treten Erdbeben häufiger auf als in anderen Gebieten. Mit einem Erdbeben der Magnitude 6 oder grösser ist alle 60 bis 100 Jahre zu rechnen. Ein Erdbeben dieser Stärke ereignete sich letztmals im Jahr 1946 bei Siders im Wallis. Das Erdbeben, das sich am 18. Oktober 1356 bei Basel ereignete, ist das stärkste, das in historischer Zeit in Zentraleuropa dokumentiert wurde. Der Schweizerische Erdbebendienst (SED) an der ETH Zürich überwacht die Erdbebenaktivität in der Schweiz sowie im grenznahen Ausland. Gebirge. In der Schweiz gibt es über 3'350 Gipfel über 2'000 Meter Höhe. Die zwölf höchsten Berge der Schweiz liegen alle in den Walliser Alpen. Der höchste Gipfel ist die hohe Dufourspitze im Monte-Rosa-Massiv. Die Dufourspitze ist damit gleichzeitig der höchste Punkt der Schweiz, allerdings steht das Monte-Rosa Massiv zum Teil auf italienischem Staatsgebiet. Der höchste vollständig auf Schweizer Territorium liegende Berg ist der Dom. Er liegt zwischen Zermatt und Saas-Fee und ist hoch. Der wohl bekannteste Berg in den Schweizer Alpen ist das hohe Matterhorn. Im Berner Oberland bilden der Eiger (), der Mönch () und die Jungfrau () eine bekannte und auch aus dem Mittelland sichtbare Gruppe. Markante Punkte der Ostalpen sind der Piz Bernina (), der östlichste Viertausender der Alpen und einziger Viertausender der Ostalpen, sowie der Piz Kesch, ein weiterer Berg mit mehr als 1’500 Metern Prominenz. In den Voralpen sind die Erhebungen niedriger, jedoch sind die Berge aufgrund ihrer Dominanz und Schartenhöhe nicht weniger imposant. Bekannte Berge sind der Luzerner Hausberg Pilatus (), der Mythen (), die Rigi () im Kanton Schwyz oder der Säntis () im Alpstein in der Ostschweiz. Der höchste Schweizer Jura-Berg ist der Mont Tendre mit Weitere bedeutende Berge sind Dôle (), Chasseral (), Chasseron () und Suchet (). Der östlichste Ausläufer des Juras ist der Randen im Kanton Schaffhausen. Gletscher. Das Schweizer Hochgebirge wird massgeblich durch die vielen Gletscher dominiert. Der grösste und längste Alpen-Gletscher ist der Grosse Aletschgletscher, gefolgt vom Gornergletscher (nach Fläche). Den letzten Höchststand erreichten die Schweizer Gletscher während der Kleinen Eiszeit, die von Anfang des 15. bis Mitte des 19. Jahrhunderts dauerte. Seit Mitte des 19. Jahrhunderts ist auch in der Schweiz, wie nahezu weltweit, ein deutlicher Rückgang der Gletscher zu beobachten. Dieser Gletscherschwund hat sich in den letzten Jahrzehnten noch verstärkt. Zwischen 1973 und 2010 nahm die Fläche aller Gletscher der Schweizer Alpen um 28 Prozent auf ca. 940 Quadratkilometer ab. Höhlen. Das Hölloch im Kanton Schwyz ist das zweitlängste Höhlensystem Europas und der Lac Souterrain de Saint-Léonard im Kanton Wallis ist der grösste, natürliche unterirdische See in Europa. Gewässer. In der wasserreichen Schweiz entspringen im Gotthardmassiv mit dem Rhein und der Rhone zwei der längsten Flüsse Europas. Durch die Schweiz verlaufen mehrere europäische Hauptwasserscheiden: Sie trennen die Einzugsgebiete von Nordsee, Mittelmeer und Schwarzem Meer. So fliesst der Rhein mit seinen Zuflüssen in die Nordsee, die Rhone und der Ticino ins Mittelmeer, während das Wasser des Inn über die Donau ins Schwarze Meer gelangt. Eine dreifache Hauptwasserscheide findet sich auf dem Lunghinpass. Innerhalb der Schweiz hat der Rhein mit 375 Kilometern den längsten Lauf, vor dem Rhein-Zufluss Aare mit 295 Kilometern. Die Rhone fliesst 264 Kilometer innerhalb der Schweiz, während die Reuss als viertgrösster Fluss der Schweiz 158 Kilometer Länge erreicht. Weitere prägende Flüsse sind die Saane im Westen, der Ticino im Süden, die Birs und der Doubs im Nordwesten, die Linth/Limmat und die Thur im Nordosten und der Inn im Südosten. Bei Schaffhausen bildet der Rhein den grössten Wasserfall Mitteleuropas, den Rheinfall. Zeitweise bestand eine Idee, mittels eines transhelvetischen Kanals zwischen Rhein und Rhone die Nordsee und das Mittelmeer mit einer Wasserstrasse zu verbinden, dieses Projekt wurde aber nie realisiert. Die Schweiz hat aufgrund ihrer topographischen Struktur und vor allem aufgrund der Vergletscherung während der Eiszeiten rund 1’500 Seen, ein Grossteil davon sind kleinere Bergseen. Insgesamt sind ungefähr vier Prozent der Oberfläche der Schweiz von Seen bedeckt, diese Summe wird aber hauptsächlich von den grössten Seen der Schweiz bestimmt: Der grösste See der Schweiz ist der Genfersee (580,03 Quadratkilometer) an der französischen Grenze. Er liegt zu knapp 60 Prozent auf Schweizer Boden. Der an Deutschland und Österreich grenzende Bodensee ist mit 536,00 Quadratkilometern etwas kleiner (23,73 Prozent der Uferlänge auf Schweizer Boden). Der Lago Maggiore an der italienischen Grenze (19,28 Prozent auf Schweizer Territorium) bildet mit den tiefsten Punkt der Schweiz. Die grössten vollständig in der Schweiz liegenden Seen sind der Neuenburgersee (215,20 Quadratkilometer), der Vierwaldstättersee (113,72 Quadratkilometer) und der Zürichsee (88,17 Quadratkilometer). Inseln. In den Schweizer Seen und Flüssen liegen zahlreiche grössere und kleinere Inseln. Zu den bekanntesten zählen die Isole di Brissago, die St. Petersinsel und die Ufenau. Klima. Nördlich der Alpen herrscht gemässigtes, meistens von ozeanischen Winden geprägtes, mitteleuropäisches Klima, südlich der Alpen ist es eher mediterran. Das Klima ist regional jedoch sehr unterschiedlich, bedingt durch die geographischen Elemente. Grundsätzlich herrscht vom Jurabogen über Mittelland und Voralpen täglich ein ähnliches Wetter, während inneralpin und in der Südschweiz vollkommen anderes Wetter herrschen kann. Während in der Innerschweiz, in den Alpen und im Tessin die durchschnittliche Niederschlagsmenge bei ungefähr 2'000 Millimeter/Jahr liegt, beträgt sie im trockensten Ort Ackersand im Mattertal nur 521 Millimeter im Jahr. Im Mittelland beträgt die Menge etwa 1'000 bis 1'500 Millimeter pro Jahr. Die Niederschlagsmenge ist im Sommer allgemein ungefähr doppelt so hoch wie im Winter. Primär abhängig von der Höhenlage fällt viel Niederschlag im Winter als Schnee, sodass in den Alpen und Voralpen eine monatelang geschlossene Schneedecke vorhanden ist. Vergleichsweise selten schneit es in den Regionen um Genf und Basel sowie dem Südtessin, hier kann es auch Winter ohne Schneedecke geben. Die Temperaturen in der Schweiz sind primär abhängig von der Höhenlage. Zudem sind sie in der Tendenz im Westen statistisch leicht höher als im Osten (ca. 1 °C). Generell liegt in den Niederungen die Durchschnittstemperatur im Januar bei rund −1 bis +1 °C. Im wärmsten Monat, dem Juli, liegt sie bei 16 bis 19 °C. Die Jahresmitteltemperaturen betragen ungefähr 7 bis 9 °C. Der durchschnittlich wärmste Ort (mit einer Messstation von MeteoSchweiz) ist Grono mit einem Jahresmittel von 11,7 °C, der kälteste auf dem Jungfraujoch mit −7,9 °C. Absolute Rekorde wurden in Grono mit 41,5 °C am 11. August 2003 gemessen, beziehungsweise in La Brévine mit −41,8 °C (12. Januar 1987). Verglichen mit der Höhenlage von Vergleichsorten im Mittelland sind die Temperaturen im Rhonetal, im Rheintal und in der Region Basel durchschnittlich ein bis zwei Grad Celsius wärmer, in der Magadinoebene im Tessin zwei bis drei Grad. Obwohl klimatisch zur Südschweiz zählend, sind die Temperaturen im Engadin um durchschnittlich zehn Grad Celsius kälter. Dies liegt daran, dass das Engadin ein alpines Hochtal ist. Ähnliches gilt für die Seitentäler und das Goms im Wallis. Während Hagel in den Alpen, in der Romandie wie auch im Tessin ein eher seltenes Ereignis ist, war dessen Intensität in der Periode von 1999 bis 2002 vor allem im Emmental, im Laufental wie auch im Toggenburg am höchsten. Es hagelte dort bis zu 60 Minuten im Jahresdurchschnitt. In den anderen Regionen beschränkt sich Hagel auf unter 30 Minuten. Nebel ist im ganzen Mittelland zu beobachten, die Alpengebiete sind seltener betroffen. Besonders häufig ist der Nebel entlang der Aare, der nördlichen Reuss und im Thurgau, wo er vor allem im Herbst, aber auch im Winter und Frühfrühling über mehrere Wochen auftreten kann. Mit Ausnahme von Hochnebel ist Nebel im Jurabogen und in der Region Basel ein vergleichsweise seltenes Phänomen. Häufig auftretende Winde in der Schweiz sind der milde Föhn beidseits des Alpenkamms und die kalte Bise, von der die Südschweiz oft verschont wird. Die höchste je gemessene Windgeschwindigkeit ist 285 Kilometer pro Stunde (Jungfraujoch, 27. Februar 1990). Das Bundesamt für Meteorologie und Klimatologie (MeteoSchweiz) ist der staatliche Wetterdienst der Schweiz. Weitere bekannte private Wetterdienste sind: SRF Meteo, Meteomedia und MeteoNews. In Davos ist das Institut für Schnee- und Lawinenforschung beheimatet. Natur. In der Schweiz leben schätzungsweise 40'000 Tierarten, davon sind ca. 30'000 Insekten und nur ca. 83 Säugetierarten. Mindestens 40 Prozent der Tierarten sind gefährdet, besonders Amphibien und Reptilien. Das Jedermannsrecht gestattet in der Schweiz allen Menschen, sich unter bestimmten Einschränkungen frei in der Natur zu bewegen. Auch das Sammeln von Beeren und Pilzen ist mit Einschränkungen gestattet. In einigen Kantonen darf an bestimmten Gewässern im Rahmen des "Freiangelrechts" unter gewissen Voraussetzungen ohne Bewilligung gefischt werden, ansonsten ist ein Patent nötig. Die Jagd ist in den nördlichen Kantonen als Revierjagd organisiert, in den meisten übrigen Kantonen als Patentjagd; siehe auch Jagdrecht (Schweiz). Flora und Vegetation. Ein Drittel der Landoberfläche der Schweiz ist bewaldet. In den Alpen dominieren Nadelhölzer (Tannen, Fichten, Lärchen und Arven). Die Wälder in den Alpen haben wichtige Funktionen als Lawinen-Bannwald und Hochwasserschutz (der Wald fängt die Regenmenge auf und gibt sie nur langsam wieder ab). Im Mittelland, im Jura und auf der Alpensüdseite unterhalb von 1’000 Metern wachsen Laubmischwälder und Laubwälder. Besonders bekannte Waldgebiete in der Schweiz sind der Aletschwald, der Sihlwald und der Pfynwald sowie die alpinen Urwälder Bödmerenwald (unberührter Kernbereich ca. 150 ha), der Tannenurwald von Lac de Derborence (22 ha) und der Fichtenwald Scatlè bei Brigels im Kanton Graubünden (9 ha). Im Tessin gibt es als regionale Besonderheit ausgedehnte Kastanienwälder, die in früheren Zeiten eine Hauptrolle in der Ernährung der Bevölkerung spielten. Ausserdem gedeihen im Süden des Tessins, zum Beispiel am Ufer des Lago Maggiore, einige Palmen (beispielsweise Zwerg- oder Hanfpalmen) als Zierpflanzen in Parks und Gärten sowie an Strassenrändern. Mehr als ein Drittel der Fläche dient der Landwirtschaft. Fauna. In der Schweiz leben circa 83 Säugetierarten in der freien Wildbahn, davon ist der grösste Teil den Fledermäusen und anderen Kleinsäugern zuzuordnen. Alle grossen Raubtiere sind in den letzten hundert Jahren aus der Schweiz verschwunden. Die Wichtigkeit von Räubern in einem gesunden Ökosystem wurde erkannt, und Luchs, Wolf und Bär wurden unter Schutz gestellt. Der Luchs wurde wieder in die Schweiz eingeführt. Der Wolf ist selbständig von Italien und Frankreich her eingewandert. Im Südosten Graubündens sind seit 2005 zudem vereinzelt von Italien herkommende Braunbären, die seit 1910 durch die Jagd verschwunden waren, auf Schweizer Territorium anzutreffen, ohne dass sich jedoch bis anhin eine Population bilden konnte. Am häufigsten zu beobachten ist der Rotfuchs. Er fühlt sich auch in den Schweizer Städten sehr wohl. Dachse bewohnen oft mit Füchsen zusammen dieselbe Wohnhöhle, weshalb sie stark unter der Verfolgung des Fuchses litten. Als weitere Baubewohner gibt es in einigen Alpenregionen Murmeltiere. Neben dem Luchs gibt es in der Schweiz noch vereinzelte Populationen von Wildkatzen im Jura. Fischotter sind seit 1990 aus der Schweiz verschwunden, letzte Spuren fanden sich 1989 am Neuenburgersee. Hauptgrund ist wohl der Zustand der Gewässer und die dadurch reduzierten Fischbestände. Oft in Siedlungen anzutreffen ist der Steinmarder. Sein Verwandter, der Baummarder, ist eher selten und hält Abstand zu Menschen. Bei den Huftieren sind ebenfalls verschiedene Arten aus der Schweiz verschwunden, so zum Beispiel der Wisent und der Elch. Einige ausgerottete Arten wie der Alpensteinbock wurden mittlerweile wieder angesiedelt; er bevölkert das Hochgebirge der Alpen. Im Unterwallis gibt es zwei Kolonien von Europäischen Mufflons, die aus Frankreich eingewandert sind. Die Gämse ist in den höher gelegenen Regionen der Alpen sowie des Juras sehr häufig. Grösste Hirschart ist momentan der Rothirsch. Kleinste einheimische Hirschart ist das Reh. Das Reh ist auch die häufigste Hirschart und besiedelt Mittelland und Jura. Im zürcherisch-schaffhausischen Grenzgebiet beim Rafzerfeld kommt der Sikahirsch vor. In den Wirren des Zweiten Weltkrieges entkamen einige Tiere aus süddeutschen Gehegen und besiedelten von dort aus die Schweiz. Ebenfalls recht häufig in einigen Gebieten der Nordschweiz ist das Wildschwein. Von den Nagetieren wurde der Biber wieder eingeführt. In der Schweiz leben zahlreiche Vogelarten. Die Schweizer Seen und Flüsse sind wichtige Rast- und Überwinterungsgebiete für Wasservögel. So überwintern jährlich mehrere Tausend Reiher-, Tafel- und Kolbenenten sowie Blesshühner, Gänsesäger und Haubentaucher in der Schweiz. Von den Greifvögeln sind vor allem der Turmfalke und der Mäusebussard sehr häufig. Aber auch Rot- und Schwarzmilane kommen regelmässig vor. Der Steinadler besiedelt erneut den gesamten Alpenraum. Auch die Bestände von Habicht und Sperber haben sich erholt und sind stabil. Der ausgerottete Bartgeier wurde im Schweizerischen Nationalpark ausgesetzt; 2007 brüteten drei Paare erstmals in der Schweiz. Von den Raufusshühnern besiedeln Haselhuhn, Alpenschneehuhn, Birkhuhn und Auerhuhn die Schweizer Alpen sowie zum Teil den Jurabogen. Die Bestände des Auerhuhns sind jedoch aufgrund des Alpentourismus sowie der Intensivierung der Forstwirtschaft stark gefährdet. So ist das Auerhuhn bereits aus vielen Gebieten der Voralpen und des nördlichen Juras verschwunden. Naturschutzorganisationen bemühen sich jedoch intensiv um die Erhaltung der Art. Das Steinhuhn besiedelt die Gebiete im Bereich der Waldgrenze. Stark vom Aussterben bedroht sind das Rebhuhn, der Wachtelkönig sowie der Grosse Brachvogel. In der Schweiz leben Eulenarten wie der Waldkauz, die Waldohreule, der Uhu, der Sperlingskauz sowie Raufusskauz und Schleiereule. In den alten Bergwäldern leben viele Spechtarten. Singvögel sind in der Schweiz zahlreich vertreten. Durch die Ausdehnung des Siedlungsraumes, der Intensivierung der Landwirtschaft auch in immer höheren Bergregionen sowie den Wintertourismus sind viele Vogelarten in der Schweiz gefährdet. An Reptilien sind vor allem viele Schlangenarten zu nennen, die sich in den sonnigen Südtälern der Alpen wohl fühlen, wie die Aspisviper. In den Hochlagen der Alpen und des Juras lebt zudem die Kreuzotter. Weitaus häufiger und weiter verbreitet sind jedoch ungiftige Schlangen wie die Ringelnatter und die Würfelnatter. Stark verbreitet sind verschiedene Eidechsenarten. Als einzige Schildkrötenart ist in der Schweiz die Europäische Sumpfschildkröte anzutreffen. Amphibien sind in der Schweiz weit verbreitet. Häufig sind etwa der Grasfrosch, die Erdkröte und der Bergmolch. Deutlich seltener sind hingegen der Laubfrosch, die Geburtshelferkröte und der Alpen-Kammmolch. Das typischste Wirbeltier der Schweiz ist der Alpensalamander – dessen grösste Populationen und das Zentrum seiner Verbreitung sind die Schweizer Alpen. 2011 waren in den Schweizer Gewässern 65 Fischarten und Unterarten heimisch, davon eine weltweit einmalige Vielfalt an Felchen. Naturschutz. Ziel des Naturschutzes in der Schweiz ist es, "«das heimatliche Landschafts- und Ortsbild, die geschichtlichen Stätten sowie die Natur- und Kulturdenkmäler des Landes zu schonen, zu schützen sowie ihre Erhaltung und Pflege zu fördern»". Der Naturschutz ist rechtlich im Bundesgesetz über den Natur- und Heimatschutz (NHG) geregelt. Teilregelungen existieren zudem in der Wald- und Landwirtschaftsgesetzgebung von Bund und Kantonen. Private Organisationen des einheimischen Naturschutzes sind etwa Pro Natura, welche vertraglich über 600 Naturschutzgebiete in der Schweiz mit einer Gesamtfläche von fast 600 km² sichert oder der Schweizer Vogelschutz. Wichtige Gegenstände des Naturschutzes sind Landschaften, Pflanzen und Tiere. Zu den wichtigsten Institutionen geschützter Gebiete und Objekte gehören derzeit unter anderem der Schweizer Nationalpark, zwei Biosphärenreservate und 165 geschützte Landschaften. Seit 1987 sind Moore und Hochmoore durch die Bundesverfassung streng geschützt. Das Bundesinventar der Flachmoore von nationaler Bedeutung verzeichnete 2007 1'163 schutzwürdige Moore mit rund 20'000 Hektaren Gesamtfläche und das Bundesinventar der Hochmoore von nationaler Bedeutung umfasst 549 Moore mit einer Gesamtfläche von rund 1'500 Hektaren. Dies entspricht etwa 0,04 % der Landesfläche. Zoologische Gärten. Verschiedene Zoos und Tierpärke zeigen den Besuchern einheimische wie auch exotische Tiere. Zu den bekanntesten zoologischen Gärten in der Schweiz gehören der Zoo Basel, der Zoo Zürich mit seiner Masoala-Halle, Knies Kinderzoo sowie der Berner Bärengraben. Städte und Gemeinden. Die kleinste politische Einheit bilden die Gemeinden. So zählen auch Städte als Gemeinden. Per 1. Januar 2015 existierten 2'324 politische Gemeinden. Die Zahl hat in den letzten Jahren durch Gemeindefusionen stark abgenommen. Die grösste Stadt der Schweiz ist Zürich mit Einwohnern (), die kleinste Gemeinde ist Corippo mit Einwohnern (). In der Agglomeration Zürich leben rund 1'217'800 Menschen. Weitere Grossstädte sind Genf mit (), Basel mit (), Lausanne mit (), die Bundesstadt Bern mit () sowie Winterthur mit (). Die grössten Städte mit weniger als 100'000 Einwohnern sind Luzern (), St. Gallen (), Lugano () und Bienne () (alle per 31. Dezember 2013). Die flächenmässig grösste politische Gemeinde ist seit dem 1. Januar 2015 die durch Fusion entstandene Gemeinde Scuol (Kanton Graubünden) mit 438 Quadratkilometern; zuvor war die flächenmässig grösste Gemeinde die ebenfalls durch Fusion entstandene Gemeinde Glarus Süd (Kanton Glarus) mit 430 Quadratkilometern. Die beiden nach Fläche kleinste Gemeinden sind Kaiserstuhl (Kanton Aargau) und Rivaz (Kanton Waadt) mit je 0,32 Quadratkilometern. Schweizer Bürgerrecht. Das "Schweizer Bürgerrecht" ist die gebräuchliche Bezeichnung für die schweizerische Staatsbürgerschaft. Es kann gemäss der Bundesverfassung nicht ohne gleichzeitigen Erwerb des Bürgerrechts einer Gemeinde und des Bürgerrechts des Kantons erworben werden. Gemeinde- und Kantonsbürgerrecht vermitteln das Schweizer Bürgerrecht. Die Gemeinde, deren (Gemeinde-) Bürgerrecht ein Schweizer besitzt, wird "Bürgerort" (auch "Heimatort") genannt. Der Schweizer Pass und die Identitätskarte dienen dem Nachweis der Staatsbürgerschaft der Schweizerischen Eidgenossenschaft. Das Staatsangehörigkeitsrecht der Schweiz ist im internationalen Vergleich restriktiv und in den Kantonen bestehen jeweils unterschiedliche Regelungen. Es erhalten – anders als etwa im Vereinigten Königreich oder in Frankreich – Kinder von im Land lebenden Ausländern nicht automatisch die Staatsbürgerschaft. Schweizer, die im Ausland leben, werden Auslandschweizer und darüber hinaus als "Fünfte Schweiz" bezeichnet. Dieser Ausdruck erklärt sich aus den vier Sprachregionen der Schweiz. Demographie. Seit Beginn des 20. Jahrhunderts hat sich die Einwohnerzahl mehr als verdoppelt: von 3,3 Millionen (1900) auf 8,3 Millionen (2015). Das Bevölkerungswachstum flachte damit gegenüber 2008 leicht auf 1,1 Prozent ab. Die Bevölkerungszunahme erreichte ihren Höhepunkt zwischen 1950 und 1970. Zu Bevölkerungsrückgängen kam es einzig 1918 als Folge der Spanischen Grippe und in den wirtschaftlichen Rezessionsjahren 1975–1977. Während 2012 insgesamt 148'799 Menschen in die Schweiz einwanderten, verliessen 96'494 das Land. Das Wachstum der Bevölkerung mit Schweizer Pass ist seit 1981 langsamer und konstanter als jenes der Gesamtbevölkerung verlaufen. Die Entwicklung der ausländischen Wohnbevölkerung erfolgte etwas rascher, aber über die Jahre unregelmässiger – mit relativ hohen jährlichen Zuwachsraten zwischen 1988 und 1993 von jeweils ungefähr 3 Prozent. Während die allgemeine Geburtenziffer 1963 noch bei 2,67 lag, nahm sie danach stetig bis auf einen Wert von 1,38 im Jahre 2001 ab. Seither gab es wieder eine moderate Zunahme auf 1,46 im Jahr 2007. Damit ergab sich auch erstmals seit zehn Jahren wieder ein Geburtenüberschuss von Schweizer Staatsangehörigen (+400). 2014 lag die Geburtenziffer bei 1,51 Kindern pro Frau. Die Lebenserwartung betrug im Jahr 2013 gemäss Bundesamt für Statistik 84,8 Jahre für Frauen und 80,5 für Männer. Die Bevölkerungsdichte ist im flachen Mittelland mit ca. 450 Personen pro Quadratkilometer auf 30 Prozent des Staatsgebiets sehr hoch, im Alpenland und im Jura naturgemäss dünn. Im Kanton Graubünden, im Alpengebiet gelegen, beträgt die Einwohnerdichte nur einen Bruchteil davon (ca. 27 Personen pro Quadratkilometer). Ausländer, Migrationsstatus, Asyl. In der Schweiz wird zwischen Ausländern (Bevölkerung ohne Schweizer Bürgerrecht) und der Bevölkerung mit Migrationshintergrund (Bevölkerung mit Schweizer Bürgerrecht sowie ausländischen Wurzeln) unterschieden. Der Begriff "Secondo" ist die in der Schweiz gebräuchliche Bezeichnung für Ausländer der zweiten Generation. Ausländer sind Personen ohne Schweizer Bürgerrecht (offizielle Bezeichnung für die Staatsangehörigkeit der Schweiz). Die Schweiz verzeichnete am 30. Juni 2015 mit rund 2'025'600 Einwohnern ohne Schweizer Bürgerrecht einen Ausländeranteil von 24 Prozent. Jeder Ausländer erhält einen Ausländerausweis. Seit Beginn des 19. Jahrhunderts war der Ausländeranteil an der schweizerischen Gesamtbevölkerung höher als in andern europäischen Ländern. Gründe dafür sind u. a. die vielen Grenzregionen, die zentrale Lage in Europa und die geringe Grösse des Landes. Während der durchschnittliche Anteil an Ausländern im gesamten Land bei 24 Prozent liegt, haben einige Gemeinden einen weit überdurchschnittlich hohen Anteil. Hierzu gehören beispielsweise Lausanne (42 %), Genf, Täsch (je 49 %) Spreitenbach, Pregny-Chambésy (je 52 %), Kreuzlingen (53 %), Paradiso (54 %), Randogne (60 %) und Leysin (61 %). Zur Bevölkerung mit Migrationshintergrund zählen Personen, die in die Schweiz als Migranten eingewandert sind; deren unmittelbare (direkte) Nachkommen in der Schweiz geboren wurden; deren Eltern im Ausland geboren wurden. Für die Definition einer Person mit Migrationshintergrund ist die Staatsangehörigkeit unerheblich. Das Bundesamt für Statistik (BFS) hat bei der Wohnbevölkerung ab 15 Jahren in der ganzen Schweiz per Ende 2013 einen Anteil an Personen mit Migrationshintergrund von 34,8 Prozent (2'374'000 Einwohner) ermittelt. Die Schweiz geht den völkerrechtlichen Verpflichtungen gemäss Genfer Flüchtlingskonvention nach. Rechtsgrundlage ist das Asylgesetz (AsylG). Zuständige Bundesbehörde ist das Staatssekretariat für Migration (SEM). 2014 beantragten 23'765 Menschen in der Schweiz Asyl. Von den asylsuchenden Nationalitäten stammte die Mehrheit vornehmlich aus Eritrea, gefolgt von Syrien und Sri Lanka. Asylbewerber und Flüchtlinge erhalten, wie alle anderen Ausländer, einen Ausländerausweis: Den Ausweis «N» erhalten Asylsuchende, «F» vorläufig aufgenommene Ausländer und «S» erhalten Schutzbedürftige. Auswanderung. Für junge Männer war der Eintritt als Söldner in fremde Kriegsdienste bis in das erste Drittel des 19. Jahrhunderts die häufigste Form der Auswanderung. Ab dem 14. Jahrhundert standen die sogenannten Reisläufer im Dienst des Kaisers, der französischen Könige und von italienischen Städten wie z. B. Mailand. Hunger und Armut nach dem Dreissigjährigen Krieg führten zu Ausreisewellen nach Ostpreussen. Zu Beginn des 19. Jahrhunderts führte die kriegsbedingte (→ Napoleonische Kriege) allgemeine Verarmung zu Auswanderungen nach Russland, während in den Hungerjahren 1816–1817 besonders Lateinamerika das Ziel war. Die Landwirtschaftskrisen der 1840er-, 1870er- und 1880er-Jahren, sowie Umstrukturierungsproblemen während der Industrialisierung führten zu Massenauswanderungen in noch nie gekannten Dimensionen nach Übersee, besonders nach Nordamerika und Südamerika. Am Ende des 19. Jahrhunderts war Nordamerika für fast 90 Prozent der Emigranten das Ziel. Zwischen 1851 und 1860 wanderten rund 50'000 Personen nach Übersee aus, in den 1860er- und 1870er-Jahren je 35'000 und zwischen 1881 und 1890 über 90'000. Bis 1930 stabilisierte sich die Zahl der Auswanderer pro Jahrzehnt zwischen 40'000 und 50'000. In einigen Kantonen wurden Arme von den Behörden im grossen Stil zur Auswanderung gedrängt. Die Auswanderer gründeten in der neuen Welt Kolonien, so entstanden 1803 Nouvelle Vevay in Indiana (heute New Vevay), 1831 New Switzerland in Illinois und 1845 New Glarus in Wisconsin. Der wohl bekannteste Auswanderer war Johann August Sutter. Der als "General Sutter" bekanntgewordene kalifornische Ländereienbesitzer gründete die Privatkolonie Neu-Helvetien. Auf seinem Land brach 1848 der kalifornische Goldrausch aus. Gemäss empirischen Daten war die Wanderungsbilanz für das Gebiet der heutigen Schweiz von der zweiten Hälfte des 16. Jahrhunderts bis zum Ende des 19. Jahrhunderts stets negativ. Einwanderung. Heute ist die Schweiz – wie fast alle wohlhabenden westlichen Staaten der Welt – ein Einwanderungsland. Zur Zeit der Industrialisierung gab es eine grosse Binnenwanderung vor allem aus den Alpen. Seit dem grossen Wirtschaftswachstum in den 1960er-Jahren wurden Gastarbeiter gezielt angeworben, später erreichten die Schweiz immer wieder Flüchtlingsströme, etwa aus dem ehemaligen Jugoslawien während der Jugoslawienkriege. Aus der Türkei kamen viele Wirtschaftsflüchtlinge nach Westeuropa und damit auch in die Schweiz. In den letzten Jahren verstärkte sich auch die Zuwanderung aus Deutschland in die Schweiz, da hier die Chancen auf einen Arbeitsplatz als grösser empfunden werden. 2013 bildeten die italienischen Staatsbürger mit 15,4 Prozent die grösste Ausländergruppe, gefolgt von den deutschen (15,1 Prozent), portugiesischen (13,1), französischen (5,7), serbischen (4,7), kosovarischen (4,5), spanischen (3,9), türkischen (3,6), mazedonischen (3,2) und britischen (2,1 Prozent) Staatsbürgern. Aus dem übrigen Europa stammen 13,7 Prozent, aus Asien 6,4, aus Afrika 4,3, aus Amerika 4,0 und 0,3 Prozent aus den übrigen Gebieten. Sprachen. a>-Erhebung 2010; Karte mit einem Gemeindebestand per 1. Januar 2015 Die Sprecher des Jenischen und des Jiddischen werden seit 1997 von der Schweiz im Rahmen der Europäischen Charta der Regional- oder Minderheitensprachen als nationale nicht territoriale «Minderheitsgemeinschaften» betrachtet, ihre Sprachen damit jedoch nicht als nationale Minderheitssprachen anerkannt. Die Bundesverfassung legt die Sprachgebiete der Schweiz nicht fest. weist den Kantonen die Kompetenz zu, ihre Amtssprachen zu bestimmen. Dabei müssen sie jedoch sprachliche Minderheiten und die herkömmliche Zusammensetzung der Sprachgebiete beachten. Wer aus einem anderssprachigen Landesteil zuzieht, hat kein Recht darauf, in seiner angestammten Sprache mit den neuen Kantons- und Gemeindebehörden zu verkehren (Territorialitätsprinzip). Unter den mehrsprachigen Kantonen haben nur Bern und Wallis die Sprachgebiete räumlich festgelegt; der mehrsprachige Kanton Freiburg weist die Regelung der Amtssprache den Gemeinden zu. Offiziell per Kantonsverfassung zweisprachig sind die Gemeinden Bienne, Evilard/Leubringen und Freiburg/Fribourg an der Nahtstelle zwischen Französisch und Deutsch. Auch einige weitere Gemeinden wie die sieben des Schulkreises Murten/Morat sowie solche in der Umgebung von Biel bieten ebenfalls zweisprachige Dienstleistungen und Schulen in beiden Kantonssprachen an, um der französischsprachigen Minderheit entgegenzukommen. Im Kanton Graubünden gelten gemäss Art. 16 des Bündner Gemeindegesetzes von 2006 Gemeinden als amtlich einsprachig, wenn mindestens 40 Prozent der Einwohner die angestammte Sprache sprechen, und als zweisprachig, wenn mindestens 20 Prozent die angestammte Sprache sprechen. Faktisch kann das bedeuten, dass Romanisch dort zwar die Verwaltungs- und Schulsprache, jedoch Schweizerdeutsch die Verkehrssprache ist. Der Kanton Tessin definiert sich als ganz zum italienischen Sprachgebiet und der Kanton Jura als ganz zum französischen Sprachgebiet zugehörig, obwohl je eine Gemeinde eine deutschsprachige Mehrheit aufweist. Gemäss einer Erhebung der Bundesbehörden aus dem Jahr 2013 ist Deutsch (rot) mit einem Anteil von 64,9 Prozent an der Gesamtbevölkerung die meistverbreitete Sprache. Im deutschsprachigen Teil der Schweiz werden schweizerdeutsche Dialekte gesprochen, während Geschriebenes in der Regel in Schweizer Hochdeutsch verfasst wird. Dies ist die Bezeichnung für die in der Schweiz gebräuchliche deutsche Schriftsprache. Es handelt sich um die schweizerische Varietät des Standarddeutschen (Hochdeutsch) und unterscheidet sich von diesem in Wortschatz, Wortbildung, Morphologie, Syntax, Orthographie (z. B. kein «ß») und Aussprache. Diese Besonderheiten werden "Helvetismen" genannt. Französisch (violett) wird von 22,6 Prozent der Gesamtbevölkerung gesprochen. Dieser Teil des Landes wird häufig als "Romandie", "Suisse romande" oder "Welschland" bezeichnet. Italienisch wird im Kanton Tessin und vier Südtälern des Kantons Graubünden "(Grigioni italiano)" (grün) gesprochen. Dies gilt für 8,3 Prozent der Gesamtbevölkerung in der Schweiz. Die vierte Landessprache, Rätoromanisch (gelb), hat einen Anteil von 0,5 Prozent der Gesamtbevölkerung und wird in Graubünden gesprochen, wobei praktisch alle Rätoromanischsprachigen die deutsche Sprache beherrschen. Das Rätoromanisch ist seit dem 19. Jahrhundert stark gefährdet und wird trotz Fördermassnahmen zunehmend vom Deutschen verdrängt. Seit 1860 haben 51 Gemeinden in Graubünden vom romanischen ins deutsche Sprachgebiet gewechselt. 1938 nahm das stimmberechtigte Volk eine Verfassungsänderung an, wonach das Rätoromanische zur Amtssprache auf Bundesebene erhoben wurde. Die Zahl der Fahrenden, unter denen die Jenischen neben einer geringeren Anzahl von Sinti und Roma die weit überwiegende Mehrheit bilden, wird bei Volkszählungen nicht erhoben, aber in offiziellen Schätzungen auf 20'000 bis 35'000 angesetzt. Das entspräche einem Anteil von annähernd 0,5 Prozent. Jenische leben in der ganzen Schweiz verstreut und sprechen neben ihrer internen Gruppensprache Jenisch meist eine der Landessprachen. Jiddisch (Westjiddisch) besitzt in der Schweiz eine alte Tradition in den Surbtaler Dörfern Endingen und Lengnau aufgrund der dortigen, heute nur noch marginal existierenden jüdischen Gemeinden. Eine jüngere Tradition hat Jiddisch (Ostjiddisch) in der Stadt Zürich, wo es teilweise in ultraorthodoxen Kreisen gesprochen wird. Die Gebärdensprachen werden von rund 10'000 in der Schweiz lebenden Personen beherrscht, in der Schweiz wird die Deutschschweizer Gebärdensprache (DSGS), die Langue des signes Suisse romande (LSF-SR, "westschweizer Gebärdensprache") und die Lingua dei segni della Svizzera italiana (LIS-SI, "Tessiner Gebärdensprache") verwendet. Durch Zuwanderung bedingt, sprechen mittlerweile 9 Prozent der Einwohner andere Sprachen als die Landessprachen. Von diesen ist das Serbisch-Bosnisch-Kroatische mit 1,5 Prozent am weitesten verbreitet. Als Fremdsprachen lernen die Schweizer eine zweite Landessprache und Englisch. Es gibt Diskussionen darüber, ob Englisch gleichzeitig mit oder sogar vor der zweiten Landessprache unterrichtet werden soll. Aufgrund von Protesten aus der jeweils anderen Sprachregion und Grundsatzüberlegungen zum Zusammenhalt der Schweiz hat sich ein rein englischer Fremdsprachenunterricht bisher nirgendwo durchsetzen können. Religionen. Von der Wohnbevölkerung waren Ende 2014 gemäss den Bundesbehörden 38,2 Prozent römisch-katholisch, 26,9 Prozent evangelisch-reformiert, 21,4 Prozent waren konfessionslos, 4,9 Prozent gehörten zu islamischen Gemeinschaften, 7,3 Prozent gehörten zu anderen Religionsgemeinschaften und 1,3 Prozent machten keine Angabe. Die Religionsfreiheit in der Schweiz ist als verfassungsmässiges Grundrecht verankert. Es ist den Kantonen überlassen, ob sie ausgewählten Religionsgemeinschaften einen besonderen Status als öffentlich-rechtliche Körperschaft und damit als Landeskirche verleihen wollen. In den meisten Kantonen haben die römisch-katholische Kirche und die evangelisch-reformierte Kirche, in vielen Kantonen zusätzlich die christkatholische Kirche und in einigen die jüdischen Gemeinden diesen Status inne. Die christkatholische Kirche ist nur in Teilen der Nordwestschweiz von Bedeutung. In den Westschweizer Kantonen Genf und Neuenburg gibt es keine Landeskirchen, weil dort Kirche und Staat vollständig getrennt sind; sie sind dennoch als «Organisationen von öffentlichem Interesse» anerkannt. In Basel besteht die sogenannte «hinkende Trennung» von Kirche und Staat. Mit 0,33 Prozent ist der Buddhismus in der Schweiz stärker vertreten als in anderen Ländern Europas. Synagogen, Moscheen (→ Liste von Moscheen in der Schweiz) und buddhistische Tempel existieren in mehreren Orten in der Schweiz. Historisch gesehen waren die Einwohner der Kantone Zürich, Bern, Basel (ausser Bezirk Arlesheim), Schaffhausen, Appenzell Ausserrhoden und Waadt noch um 1850 praktisch ausschliesslich reformiert, diejenigen der Kantone Freiburg (ausser Bezirk Murten), Wallis, Jura, Solothurn (ausser Bezirk Bucheggberg), Luzern, Ob- und Nidwalden, Uri, Schwyz, Zug, Appenzell Innerrhoden und Tessin fast nur katholischen Glaubens. Konfessionell gemischt waren hingegen die Kantone Glarus, Aargau, St. Gallen, Graubünden und Genf. Die Verteilung der Konfessionen war das Resultat der Anwendung des Territorialprinzips bei der Wahl der Konfession nach den Religionskriegen des 16. Jahrhunderts; die konfessionell gemischten Kantone wiesen entweder junge Kantonsgrenzen auf (Aargau, St. Gallen, Genf) oder aber kannten eine althergebrachte gemeindeweise Festlegung (Glarus, Graubünden). Parität, das heisst gleichzeitiges Vorhandensein beider Konfessionen am selben Ort, war die Ausnahme; sie galt etwa im Toggenburg, in Teilen der vormaligen Untertanengebiete der Eidgenossenschaft (Thurgau, Echallens) und in einigen Gemeinden Graubündens und von Glarus. Eine Volksabstimmung 1919 in Vorarlberg zu Verhandlungen mit der Schweiz über einen Beitritt zur Schweizerischen Eidgenossenschaft ergab zwar eine Zustimmung von gut 80 Prozent, weitere Verhandlungen scheiterten jedoch auch an den Reformierten in der Schweiz, die durch einen zusätzlichen Kanton mit Katholiken ihre damalige Mehrheit verloren hätten. Niklaus von Flüe gilt als Schutzpatron der Schweiz. Vorgeschichte. Das Gebiet der heutigen Schweiz ist seit der Altsteinzeit (Paläolithikum) besiedelt. Spuren der Magdalénien-Kultur finden sich z. B. im Kesslerloch bei Thayngen. Erst nach der letzten Eiszeit, der sogenannten Würm-Kaltzeit, wurde das Schweizer Mittelland durch die Pfahlbauer dichter besiedelt, besonders die Gebiete um die Seen (→ Prähistorische Pfahlbauten um die Alpen). Mit dem Beginn der Eisenzeit setzte die keltische Besiedlung des Mittellands ein. Funde bei La Tène im Kanton Neuenburg gaben der gesamten Periode der jüngeren Eisenzeit ihren Namen (→ Latènekultur). Die Kelten pflegten Handelsbeziehungen bis in den griechischen Kulturraum. Vor der Eroberung durch die Römer lebten laut Aufzeichnungen des römischen Feldherrn und Politikers Julius Caesar in seiner Rechtfertigungsschrift für den Gallischen Krieg (→ De bello Gallico) auf dem Gebiet der heutigen Schweiz verschiedene keltische Stämme und Völker: die Helvetier (Mittelland), die Lepontier (Tessin), die Seduner (Wallis, Genfersee) und die Raetier (Ostschweiz). Im Zuge der Ausdehnung des Römischen Reiches (→ Die Schweiz in römischer Zeit) über die Alpen wurde das Gebiet der heutigen Schweiz bis ins 1. Jahrhundert n. Chr. ins Römische Reich integriert und die Bevölkerung romanisiert. Die wichtigsten römischen Städte der Schweiz waren "Aventicum" (Avenches), "Augusta Raurica", "Vindonissa" (Windisch), "Colonia Iulia Equestris" (Nyon) und "Forum Claudii Vallensium" (Martigny). In der Spätantike wurde die Schweiz, ausgehend von den städtischen Zentren, christianisiert. Frühe Bischofssitze waren Genf, Augusta Raurica/Basel, Martigny/Sitten, Avenches/Lausanne und Chur. Nach dem Untergang des Römischen Reiches besiedelten die germanischen Stämme der Burgunder und Alamannen von Norden her kommend das Mittelland und vermischten sich mit der romanisierten Bevölkerung. In den zur Römerzeit stärker besiedelten Gebieten der Westschweiz sowie in den Alpentälern hielten sich romanische Sprachen (später Französisch, Rätoromanisch und Italienisch) und das Christentum, während sich in der Nordschweiz germanische Idiome verbreiteten. Bis 746 unterwarfen die Franken die Burgunder und Alemannen, womit die Schweiz Teil des Fränkischen Reiches wurde. Bei der Teilung dieses Reiches kam das Gebiet der Schweiz zum Ostfrankenreich, dem späteren Heiligen Römischen Reich. Ihr Gebiet gehörte dabei grösstenteils zum Stammesherzogtum Schwaben und zum Königreich Burgund. Bis ins 9. Jahrhundert wurden auch die Alamannen ausgehend von wichtigen klösterlichen Zentren wie St. Gallen und Reichenau christianisiert. In der frühen Geschichte des römisch-deutschen Reichs spielten Adelsgeschlechter aus der Schweiz wie die Habsburger, Kyburger, Lenzburger und Rudolfinger eine wichtige Rolle. Ausserdem waren die Alpenpässe für die deutsche Herrschaft über Italien von grösster Wichtigkeit. So lässt sich erklären, weshalb die deutschen Herrscher immer ein ganz besonderes Augenmerk auf die Talschaften in den Alpen legten und sich bemühten, diese direkt zu beherrschen. Die Bewohner der Talschaften der Innerschweiz sahen diese «Reichsunmittelbarkeit» als Privileg. Alte Eidgenossenschaft. Die drei Urkantone oder Waldstätte (Orte) Uri, Schwyz und (bei allerdings unsicherer Lesart) Unterwalden schlossen 1291 nach dem Tod des deutschen Königs Rudolf I. von Habsburg einen Bund zum Schutz ihrer «alten Freiheiten». Eine diesbezügliche Urkunde, der sogenannte Bundesbrief, ist datiert auf Anfang August 1291. Der Legende nach geschah die Beschwörung dieses Bundes auf dem Rütli. Im 19. Jahrhundert wurde der 1. August 1291 als Datum für die «Gründung» der Alten Eidgenossenschaft und damit der 1. August als Schweizer Nationalfeiertag festgelegt. Das schlechte Verhältnis zwischen den Eidgenossen und dem Herrscherhaus der Habsburger rührt von der deutschen Königswahl vom 25. November 1314 her, als der Wittelsbacher Ludwig der Bayer und der Habsburger Friedrich der Schöne gleichzeitig zum deutschen König gewählt wurden. Die Eidgenossen hielten zu Ludwig dem Bayer. Dies und ein Überfall auf das Kloster Einsiedeln bewog Leopold I. von Österreich 1315 zu einem Kriegszug gegen die Eidgenossen, der in der Schlacht am Morgarten unglücklich für ihn endete. Um ihre Selbständigkeit gegenüber Habsburg zu wahren, schlossen sich die Reichsstädte Luzern, Zürich, Glarus, Zug und Bern im 14. Jahrhundert dem Bund der Waldstätte an. Das resultierende Gebilde wird als die Acht Alten Orte bezeichnet. Die Schlacht am Morgarten ist heute unter Historikern umstritten. Es folgten weitere Auseinandersetzungen mit dem Haus Habsburg: 1386 bei Sempach (die Lombardei, die ihre wirtschaftlichen Interessen durch die Habsburger gefährdet sah, hatte die eidgenössische Bewaffnung finanziert) und 1388 bei Näfels gelang es den Eidgenossen, habsburgische Ritterheere zu schlagen. 1415 eroberten sie (auf Betreiben von Kaiser Sigismund) die habsburgischen Stammlande im Aargau. Zwischen der Stadt Zürich und den übrigen Eidgenossen kam es wegen der Erbschaft der Grafen von Toggenburg zum Alten Zürichkrieg (1436–1450), in dessen Verlauf sich Zürich mit Habsburg verbündete. In der Schlacht bei St. Jakob an der Birs wurden die Hilfstruppen der Armagnaken zwar nicht geschlagen, sie zogen sich jedoch angesichts der hohen Verluste wieder zurück. Zürich war schliesslich zur Rückkehr in die Eidgenossenschaft gezwungen. Ein weiterer Krieg brachte Habsburg 1460 um den Thurgau, sodass sich Herzog Sigismund von Tirol am 11. Juni 1474 in der «Ewigen Richtung» angesichts der Bedrohung durch Herzog Karl den Kühnen von Burgund gezwungen sah, die Alte Eidgenossenschaft als eigenständiges Staatswesen anzuerkennen. 1474 zogen die Eidgenossen auf Wunsch Kaiser Friedrichs III. gegen Karl den Kühnen und zerstörten in den Burgunderkriegen im Verbund mit Lothringen und Habsburg dessen Reich. Bern und Freiburg expandierten in dieser Zeit ins vormals savoyisch und burgundisch kontrollierte Waadtland, das sie bis 1536 ganz eroberten. Der militärische Sieg über die Burgunder bestärkte die Eidgenossenschaft in ihrem Willen nach Selbständigkeit. Aus diesem Grund widersetzte sie sich der Reichsreform des deutschen Königs und späteren Kaisers Maximilian I. Der Versuch Maximilians, die Eidgenossen im Schwabenkrieg gefügig zu machen, endete 1499 im Frieden zu Basel. Als konkrete Folge schlossen sich 1501 Basel und Schaffhausen dem Eidgenössischen Bund an, der sich zu den Dreizehn Alten Orten weiterentwickelte. Dazu kamen weitere Verbündete, die sogenannten Zugewandten Orte, insbesondere das Wallis und die Drei Bünde, aber auch Monarchien wie die Fürstabtei St. Gallen oder die Grafschaft Neuenburg. Die Siege in den Burgunderkriegen und im Schwabenkrieg und ihre moderne Infanterietaktik begründeten den Ruf der eidgenössischen Kämpfer und gaben dem Söldnerwesen enormen Auftrieb. Bis ins 19. Jahrhundert blieb dieses in den ländlichen Regionen der Innerschweiz ein wichtiger Wirtschaftsfaktor. Die Expansion der Eidgenossenschaft in Richtung Oberitalien erfolgte zur Sicherung der Alpenpässe. Dadurch wurde die Eidgenossenschaft in die komplizierten italienischen Kriege zwischen Habsburg, Frankreich, Venedig, dem Papst, Spanien und den verschiedenen italienischen Potentaten verwickelt. Aus jener Zeit stammt auch die Schweizergarde, die der Papst Julius II. 1506 gründete. Bis 1513 gelang den Eidgenossen die Eroberung des heutigen Tessins und schliesslich sogar von Mailand, über das sie die Schutzherrschaft ausübten. Nach der Niederlage gegen Frankreich in der Schlacht bei Marignano 1515 endete die militärische Dominanz über Oberitalien. Der politische Mythos der Unbesiegbarkeit der Schweizer war widerlegt, und es offenbarte sich die politische Zerstrittenheit der Orte untereinander. Dadurch wurde ab 1515 eine wirksame Aussenpolitik verhindert, und es begann die Phase des «Stillsitzens» (heute Neutralitätspolitik). Die Dreizehn Orte schlossen 1521 ein Soldbündnis mit Frankreich ab und erhielten dafür Pensionen, Zoll- und Handelsvergünstigungen und politischen Beistand bei inneren und äusseren Konflikten. Die von Ulrich Zwingli 1519 eingeleitete Reformation in Zürich breitete sich im Mittelland aus und führte zu grossen Spannungen zwischen den verschiedenen Kantonen. Nach dem religiös begründeten Ersten und Zweiten Kappelerkrieg kam es 1531 im Zweiten Kappeler Landfrieden zum Kompromiss: Zürich, Bern, Basel, Schaffhausen und Teile von Graubünden blieben reformiert; die "Urkantone", Luzern, Zug, Solothurn und Freiburg blieben katholisch. 1541 setzte Johannes Calvin in Genf die Reformation durch, das durch sein Wirken zum «reformierten Rom» wurde. Trotzdem kam es noch zweimal in den Villmergerkriegen von 1656 und 1712 zu militärischen Auseinandersetzungen zwischen den beiden Konfessionsgruppen unter den Orten. Die Zwinglianer und Calvinisten vereinigten sich 1536 im Helvetischen Bekenntnis und begründeten damit die reformierte Kirche, die sich über England, Schottland und die Niederlande weltweit verbreitete. Angesichts der Wirren und Verwüstungen des Dreissigjährigen Krieges beschloss die Eidgenossenschaft 1647 im Defensionale von Wil die «immerwährende bewaffnete Neutralität» und verhielt sich in den Kriegen des 17. und 18. Jahrhunderts weitgehend neutral. Am 24. Oktober 1648 erreichten die Schweizer Kantone im Westfälischen Frieden die Anerkennung ihrer Ausgliederung aus dem Heiligen Römischen Reich und wurden somit unabhängig. Die Auslegung des betreffenden Art. VI IPO bzw. § 61 IPM war umstritten, wurde dann jedoch überwiegend als Anerkennung der völkerrechtlichen Souveränität interpretiert. Im Inneren verhinderte die religiöse Spaltung eine Reform des anachronistischen eidgenössischen Bündnisgeflechts. Besonders die städtischen Kantone konsolidierten im 17. und 18. Jahrhundert ihre Herrschaft im Inneren im absolutistischen Sinn und entwickelten sich wirtschaftlich teilweise so stark, dass von einer Proto-Industrialisierung gesprochen werden kann. Trotzdem blieb die Eidgenossenschaft als Ganzes hinter den Entwicklungen zurück und wurde in der zeitgenössischen Literatur als rückständig, ungeordnet und überkommen wahrgenommen. Damit kontrastiert die in der Aufklärung in Literatur und Malerei vorherrschende Darstellung der Schweiz als Alpenidyll, Arkadien oder als Ort urtümlicher Demokratie (Rousseau). Helvetische Republik und Restauration. a> bis zum Anschluss Graubündens im April 1799 Am 5. Mai 1798 wurde die Alte Eidgenossenschaft nach kurzer Gegenwehr von Frankreich besetzt und unter der Bezeichnung «Helvetische Republik» als Tochterrepublik seinem Einflussgebiet einverleibt. Die Helvetische Republik war das erste moderne Staatswesen auf Schweizer Gebiet und im Gegensatz zur Tradition als Einheitsstaat stark zentralistisch organisiert. Die bisherigen Unterschiede zwischen Untertanenlande und herrschenden Städten und Orten wurden aufgehoben. Rechtsgleichheit, Schaffung eines einheitlichen Wirtschafts- und Währungsraumes, Glaubens- und Gewissensfreiheit waren nur einige der fortschrittlichen Neuerungen, die damit Eingang in die Schweiz fanden. Als französischer Satellitenstaat wurde die Helvetische Republik jedoch in die Kriegsereignisse der Koalitionskriege hineingezogen und mehrfach Kriegsschauplatz. Nach mehreren Staatsstreichen und der Niederschlagung eines bewaffneten Aufstands verordnete Napoleon Bonaparte 1803 in der Mediationsakte der Schweiz wieder eine föderalistische Verfassung mit autonomen Kantonen. Als Staatsname wurde die Bezeichnung «Schweizerische Eidgenossenschaft» festgelegt. Die ehemaligen Untertanengebiete und die Zugewandten Orte wurden in die neuen Kantone St. Gallen, Graubünden, Aargau, Thurgau, Tessin und die Waadt umgewandelt. 1815 wurden die inneren und äusseren Grenzen der Schweiz im Wiener Kongress international anerkannt. Zu den 19 Kantonen der Mediationszeit kamen nun noch Neuenburg, Wallis und Genf hinzu, der Kanton Bern erhielt das Gebiet des Fürstbistums Basel. Im Zweiten Pariser Frieden vom 20. November 1815 verordneten die Grossmächte der Schweiz die «immerwährende bewaffnete Neutralität», um ihr Gebiet dem Einfluss Frankreichs zu entziehen. Die Schweiz wurde durch den «Bundesvertrag» wieder zu einem Staatenbund, sodass während der folgenden Epoche der Restauration die Eigenständigkeit der Kantone gegenüber der napoleonischen Zeit wieder grösser war. Der Kanton Jura entstand erst 1979 durch die Abspaltung eines Teils des 1815 zum Kanton Bern geschlagenen Gebiets. "Siehe auch: Helvetische Republik, Mediation, Restauration und Regeneration" Sonderbundskrieg. Streitigkeiten zwischen den liberal-progressiven und den konservativ-katholischen Kantonen Luzern, Schwyz, Uri, Zug, Ob- und Nidwalden, Freiburg und Wallis führten 1847 zum Sonderbundskrieg. Der Bürgerkrieg dauerte vom 3. November bis zum 29. November 1847. Die konservativ-katholischen Kantone haben den Krieg verloren. Es war die letzte militärische Auseinandersetzung auf Schweizer Boden. Nach offiziellen Angaben hat der Sonderbundskrieg 150 Menschen das Leben gekostet und rund 400 Verletzte gefordert. Moderner Bundesstaat. Nach der Niederlage der konservativ-katholischen Kantone im Sonderbundskrieg wurde die Schweiz in den modernen Bundesstaat umgewandelt und die Autonomie der Kantone durch die Bundesverfassung von 1848 eingeschränkt. Bern wurde zum Sitz der Bundesbehörden und des Parlaments. Die Bundesverfassung wurde seither zweimal, 1874 und 1999, total revidiert. Am 1. Januar 1849 wurde die Schweizerische Post (→ Postgeschichte und Briefmarken der Schweiz) gegründet. In den ersten 25 Jahren seines Bestehens musste der noch junge Bundesstaat wegen kriegerischen Bedrohungen dreimal einen General wählen. Dem erfahrenen und im Sonderbundskrieg umsichtig agierenden General Guillaume-Henri Dufour wurde in den Jahren 1849, 1856 (Neuenburger Handel) und 1859 (Savoyer Handel) von der Bundesversammlung erneut der Oberbefehl über das Schweizer Bundesheer übertragen. General Hans Herzog war während des Deutsch-Französischen Kriegs (1870/71) für den Schutz der Landesgrenzen verantwortlich. Im Februar 1871 überquerten unter den Augen der Schweizer Armee etwa 87'000 Mann der geschlagenen französischen «Bourbaki-Armee» in den Kantonen Neuenburg und Waadt die Grenze und wurden interniert. Auf Initiative von Henry Dunant erfolgte 1864 in Genf die Gründung des Internationalen Komitees vom Roten Kreuz. Während der zweiten Hälfte des 19. Jahrhunderts wurde die Schweiz von einer starken Welle der Industrialisierung und des Eisenbahnbaus (→ Geschichte der Schweizer Eisenbahn) erfasst. Wie kein anderer nahm der Politiker, Wirtschaftsführer und Eisenbahnunternehmer Alfred Escher Einfluss auf die politische und wirtschaftliche Entwicklung der Schweiz in jener Zeit. Nebst seinen politischen Ämtern war er massgeblich beteiligt bei den Gründungen der Schweizerischen Nordostbahn, dem Eidgenössischen Polytechnikum, der Schweizerischen Kreditanstalt, der Schweizerischen Lebensversicherungs- und Rentenanstalt, der Schweizerische Rückversicherungs-Gesellschaft sowie der Gotthardbahn. Immer deutlicher zeigten sich die Schattenseiten der Industrialisierung, z. B. mit der Kinderarbeit. Als erste Kantone erliessen Glarus und Zürich Fabrikgesetze zum Schutze der Arbeiter. 1877 übernahm der Bundesstaat die entsprechende Gesetzgebungskompetenz um die schlimmsten Missstände landesweit zu bekämpfen. Auf religiösem und kulturellem Gebiet fand die Konfrontation zwischen dem Liberalismus und dem Konservativismus ihre Fortsetzung im Kulturkampf. Die Integration der Katholiken in den neuen Bundesstaat erfolgte 1891 durch die Wahl von Josef Zemp in den Bundesrat. Er war der erste Katholik in der Bundesregierung. Zuvor war das Gremium seit Gründung des Bundesstaates ausschliesslich mit Vertretern der Liberalen besetzt gewesen. Seither traten die bürgerlichen Parteien mehr oder weniger geschlossen gegen die Arbeiterbewegung an (seit dem Ersten Weltkrieg im «Bürgerblock»). Im Landesstreik von 1918 kam es zur bisher schärfsten Konfrontation zwischen Arbeiterschaft und Bürgertum in der Schweiz. Die Arbeiterbewegung konnte sich politisch auf nationaler Ebene erst nach der Einführung des Proporzwahlverfahrens 1919 etablieren. Aus den Nationalratswahlen 1943 ging die Sozialdemokratische Partei der Schweiz SP als stärkste Fraktion hervor. In der Folge wurde mit Ernst Nobs erstmals ein Sozialdemokrat in den Bundesrat gewählt. Mit der Einführung der Alters- und Hinterbliebenenversicherung AHV 1948 ging eine weitere Forderung aus dem Generalstreik in Erfüllung. Während des Ersten Weltkriegs (→ Die Schweiz im Ersten Weltkrieg) bewahrte die Schweiz die bewaffnete Neutralität. Unter General Ulrich Wille erfolgte die Grenzbesetzung. Die Schweiz und das Fürstentum Liechtenstein unterzeichnen 1923 den heute noch gültigen Zollvertrag. Das Friedensabkommen in der Metall- und Uhrenindustrie zwischen Arbeitgeber- und Arbeitnehmerorganisationen läutete 1937 das Zeitalter des Arbeitsfriedens und der Gesamtarbeitsverträge ein. Seitdem sind Streiks in der Schweiz äusserst selten. Nach dem Ausbruch des Zweiten Weltkriegs (→ Die Schweiz im Zweiten Weltkrieg) berief sich die Schweiz erneut auf die bewaffnete Neutralität und ordnete die allgemeine Mobilmachung der Armee unter dem Oberbefehlshaber General Henri Guisan an. Die Schweizer Armee zog sich mit dem Aktivdienst ins Réduit zurück, um einem deutschen Angriff möglichst harten Widerstand in Gebirgsstellungen entgegenzuhalten. Der Bevölkerung der Schweiz wurde durch die behördlich geförderte Bewegung der «Geistigen Landesverteidigung» ein starker Behauptungswillen gegen den Nationalsozialismus vermittelt. Die Schweiz nahm während der Herrschaft der Nationalsozialisten in Deutschland zeitweise Flüchtlinge auf, wies aber nach einiger Zeit gezielt Juden (→ Judentum in der Schweiz) und vor allem als «politisch Verfolgte» eingestufte Flüchtende zurück. Als Reaktion trat der jüdische Nationalrat David Farbstein 1938 zurück. Am 31. August 1938 drohte die Schweiz an, das deutsch-schweizerische Sichtvermerksabkommen aufzukündigen, mit dem 1926 ein visafreier Grenzübertritt vereinbart worden war und das nach dem Anschluss Österreichs ohne formellen Vertrag auch dort Anwendung fand. Um die Visafreiheit für «deutschblütige» Staatsangehörige zu erhalten, erklärte sich die deutsche Seite nach mehrtägigen Verhandlungen am 29. September 1938 bereit, die Reisepässe von Juden besonders zu kennzeichnen. Pässe mit einem Judenstempel berechtigten den Inhaber zum Grenzübertritt nur dann, wenn vorher ein Visum zur Durchreise oder zum Aufenthalt erteilt worden war. Viele Flüchtlinge wurden an den Grenzen zurückgeschickt, manche wurden sogar festgenommen und an deutsche Behörden ausgeliefert. Die ins Land gelassenen Flüchtlinge wurden spätestens nach Kriegsbeginn in Lager interniert. Sie durften sich in keiner Weise politisch äussern. Die Rolle der Schweiz im Zweiten Weltkrieg wurde in den 1990er-Jahren im Bergier-Bericht kritisch aufgearbeitet. Homosexuelle Handlungen sind in der Schweiz seit 1942 legal. (→ Geschichte der Homosexualität in der Schweiz). In der Nachkriegszeit wurden weitere problematische Themen der Vergangenheit aufgegriffen wie die Verfolgung der Jenischen durch das Programm «Kinder der Landstrasse», die Verdingkinder-Problematik, die Administrative Versorgung, die wirtschaftlichen Beziehungen mit dem Apartheid-Staat Südafrika oder die Rolle der Schweizer Banken im Zusammenhang mit Fluchtgeldern von Diktatoren der Dritten Welt. In den späten 1990er-Jahren entfachte ein Streit über die Entschädigung verlorener jüdischer Vermögen bei Schweizer Banken in der Zeit von 1933 bis 1945. 1960 wurde die Schweiz Mitglied der neugegründeten Europäische Freihandelsassoziation (EFTA). Die Schweiz gehörte 1961 zu den Gründungsmitgliedern der Organisation für wirtschaftliche Zusammenarbeit und Entwicklung (OECD). Nach längerer innenpolitischer Auseinandersetzung, die sich hauptsächlich um die Frage der Neutralität drehte, trat die Schweiz 1963 dem Europarat bei und ratifizierte 1974 die Europäische Menschenrechtskonvention. 1970 unternahm der Bundesrat erste Schritte der Schweiz in Richtung EWG, die 1972 in einem Freihandelsabkommen mündeten. 1971 wurde in einer Volksabstimmung das Frauenstimmrecht nach jahrzehntelangem Kampf angenommen. 1973 folgte der Beitritt zur Organisation für Sicherheit und Zusammenarbeit in Europa (OSZE). Die Jurafrage beschäftigte die Schweiz während Jahrzehnten. Schliesslich wurde 1978 durch die Abspaltung der französischsprachigen Amtsbezirken Delsberg, Ajoie und Freiberge vom Kanton Bern der neue Kanton Jura gegründet. Als erste Frau wurde Elisabeth Kopp 1984 in den Bundesrat gewählt. Die Armee konnte in der Schweiz bis in die 1990er Jahre eine starke gesellschaftliche Stellung behaupten, da durch ihren Aufbau als Milizarmee eine starke Verflechtung von zivilen und militärischen Führungskadern gegeben war. Bereits in den 1970er-Jahren und verstärkt anlässlich der GSoA-Armeeabschaffungsinitiative 1989 kam es aber auch zu Spannungen zwischen Traditionalisten und Kritikern um die Rolle der Armee in der Gesellschaft. Seit dem Ende des Kalten Krieges nahm der Einfluss der Schweizer Armee auf die Zivilgesellschaft stark ab. Der von der Regierung angestrebte Beitritt zum Europäischen Wirtschaftsraum (EWR) scheiterte 1992 an der Urne. Nach dem Jahr 1999 stimmte das Schweizervolk mehreren bilateralen Verträgen mit der Europäischen Union zu. 2005 trat die Schweiz auch den Schengen- und Dublin-Abkommen bei. Die Schweiz trat nach einer positiv ausgegangenen Volksabstimmung am 10. September 2002 den Vereinten Nationen (UNO) bei. Namensherkunft. In den Kriegen der alten Eidgenossen gegen die Habsburger spielten die Schwyzer Truppen eine wichtige Rolle. Die Schwyzer hatten zudem eine grosse Bedeutung für das europäische Söldnergeschäft. Nach der Schlacht bei Sempach von 1386 wurde der Name «Swiz» oder «Sweiz» legendär: Die deutschen Chronisten bezeichneten nun alle Eidgenossen so. Das erste schriftliche Zeugnis dafür stellt ein Rechtsdokument des Königs Sigismund aus dem Jahr 1415 dar, in dem von «Schweizern» die Rede ist. Die Mitglieder der Eidgenossenschaft benutzten diesen Sammelnamen nicht, weil er ihnen missfiel. Im Schwabenkrieg von 1499 wendete sich das Blatt, und die als «Schweizer» beschimpften Eidgenossen fingen in trotzigem Stolz an, sich selbst so zu bezeichnen. Offiziell benutzten sie aber weiterhin den Begriff «Eidgenossen». Erst im 18. Jahrhundert begann der Chronist Johannes von Müller damit, die Eidgenossen als «schweizerische Eidgenossen» zu bezeichnen. 1803 wurde dieser Begriff in der Mediationsverfassung erstmals amtlich gebraucht. Der lateinische Name der Schweiz, "Confoederatio Helvetica", nimmt Bezug auf den antiken keltischen Stamm der Helvetier, der im Schweizer Mittelland und in Teilen Süddeutschlands siedelte. Nach dem Ende der Alten Eidgenossenschaft 1798 wurde das neue Schweizer Staatswesen gemäss der gängigen Praxis bei der Namensgebung für französische Tochterrepubliken «Helvetische Republik» genannt. Bei der Neukonstituierung der Schweiz als Staatenbund 1803 wich man jedoch auf die Bezeichnung «Schweizerische Eidgenossenschaft» aus, um sich von der politisch instabilen und zentralistischen Helvetischen Republik abzugrenzen. Der Ausdruck «Confoederatio Helvetica» wurde 1848 anlässlich der Schaffung des Bundesstaates eingeführt. Er findet sich seit 1879 auf Münzen sowie seit 1948 auf dem Siegel der Eidgenossenschaft und liegt dem Landeskürzel «CH» zugrunde. In irischer "(an Eilvéis)", griechischer ("Ελβετία", translit. Elvetia) und rumänischer Sprache "(Elveţia)" wird der Ausdruck «Helvetia» ebenfalls verwendet. In der Bundesverfassung von 1848 wurde der Landesname offiziell mit "Schweizerische Eidgenossenschaft" festgelegt. Politik. Politisches System der Schweiz (Bürger, Kantone, Bund, ohne Gemeindeebene) Die Politik der Schweiz ist durch das Selbstverständnis als "Willensnation" geprägt – die nationale Identität basiert nicht auf einer gemeinsamen Sprache und Kultur, sondern unter anderem auf der gemeinsamen Geschichte, gemeinsamen Mythen, der freiheitlichen, basisdemokratischen und föderalistischen Tradition sowie zum Teil aus dem Gefühl, als neutraler und mehrsprachiger, auf sich selbst gestellter «Kleinstaat» in Europa einen «Sonderfall» zu bilden. Es liegt ein Direktorialsystem vor. Diese Voraussetzungen haben sich in einem in seiner Gesamtheit einzigartigen politischen System niedergeschlagen, in dem der Föderalismus, erweiterte politische Volksrechte bzw. Elemente der direkten Demokratie, die aussenpolitische Neutralität und innenpolitischer Konsens im Vordergrund stehen. Politisches System. Die Schweiz ist ein republikanisch verfasster Bundesstaat. Sie unterscheidet sich von anderen Republiken durch Die Reihenfolge der einzelnen Bundesräte ergibt sich wie folgt: Der Bundespräsident oder die Bundespräsidentin steht zuoberst der Rangliste, gefolgt vom Vizepräsidenten oder der Vizepräsidentin. Danach folgen die Bundesräte in der Reihenfolge des Amtsalters zur Wiederwahl gemäss Anciennitätsprinzip. Walter Thurnherr (CVP) wurde am 9. Dezember 2015 als Nachfolger von Corina Casanova (CVP) zum Bundeskanzler der Schweizerischen Eidgenossenschaft und somit zum Vorsteher der Schweizerischen Bundeskanzlei (BK) gewählt. Staatshaushalt. Der Staatshaushalt umfasste 2009 Ausgaben von umgerechnet 179,5 Milliarden US-Dollar, dem standen Einnahmen von umgerechnet 178,5 Milliarden US-Dollar gegenüber. Daraus ergibt sich ein Haushaltsdefizit in Höhe von 0,2 Prozent des Bruttoinlandsprodukts. Die Staatsverschuldung betrug 2009 198,4 Milliarden US-Dollar oder 40,5 Prozent des Bruttoinlandsprodukts. 2006 betrug der Anteil der Staatsausgaben (in Prozent des Bruttoinlandsprodukts) im Bereich Gesundheit 10,8 Prozent, im Bereich Bildung 5,8 Prozent im Jahr 2005 und im Bereich Militär 1,0 Prozent im Jahr 2005. 2013 verzeichnete der Bund Einnahmen (Erträge) von 65,0 Milliarden Franken. Die wichtigste Einnahmequelle war die Mehrwertsteuer mit 34,8 Prozent, gefolgt von der direkten Bundessteuer mit 28,3 Prozent, der Verrechnungssteuer (9,1 Prozent), der Mineralölsteuer (7,7 Prozent), von sonstigen Einnahmen (6,4 Prozent), der Tabaksteuer (3,5 Prozent), den Verkehrsabgaben (3,4 Prozent), den Stempelabgaben (3,3 Prozent), weiteren Fiskaleinnahmen (1,9 Prozent) und Einfuhrzöllen (1,6 Prozent). Der Bund tätigte im Jahr 2013 Ausgaben (Aufwendungen) in Höhe von 63,7 Milliarden Franken für folgende Sektoren: soziale Wohlfahrt (33,1 Prozent), Finanzen und Steuern (15,6 Prozent), Verkehr (12,9 Prozent), Bildung und Forschung (10,8 Prozent), sonstige Ausgaben (9,1 Prozent), Landesverteidigung (7,5 Prozent), Landwirtschaft und Ernährung (5,8 Prozent) sowie Beziehungen zum Ausland (5,2 Prozent). Die Einnahmen der 26 Kantone beliefen sich 2013 auf 86,6 Milliarden Franken. in der Verfassung verankerten Schuldenbremse soll der Bund verpflichtet werden, Einnahmen und Ausgaben über den Konjunkturzyklus hinweg im Gleichgewicht zu halten. Die langfristigen Zinsen für Schweizer Staatsanleihen sind im internationalen Vergleich sehr gering (siehe Grafik rechts). Politische Parteien. Stärkste Partei pro Gemeinde (Gemeindestand 2015, Parteistand 2011) Laut einer Meinungsumfrage der deutschen Gesellschaft für Konsumforschung (GfK) aus dem Jahr 2008 haben 21 Prozent der Schweizer Vertrauen in ihre Politiker. Im Vergleich zu anderen Berufsgruppen ist das zwar ein geringer Wert, doch das Vertrauen ist wesentlich höher als im westeuropäischen Durchschnitt mit 13 Prozent. Kantone. Die Schweiz besteht aus 26 Kantonen (vor der Totalrevision der Bundesverfassung der Schweizerischen Eidgenossenschaft von 1999: 23 Kantone, wovon drei in je zwei Halbkantone gegliedert waren). Traditionell werden die Kantone auch als "Stände," auf kantonaler Ebene auch als "Staat" () bezeichnet. Die unten stehende Tabelle führt die 26 Kantone mit ihren Eckdaten auf. Dabei sind die Kantone in der Reihenfolge, wie sie in der Bundesverfassung der Schweizerischen Eidgenossenschaft aufgeführt werden, sortiert. Die Einwohnerzahlen datieren auf den, die Ausländeranteile auf den und die Arbeitslosenquoten auf den. a> an der Speichergasse in Bern Die Kantonsregierungen werden – je nach Kanton – als "Regierungsrat, Regierung, Staatsrat, Standeskommission, Conseil exécutif, Conseil d’État" (beide französisch), "Consiglio di Stato" (italienisch) oder "Regenza Governo" (rätoromanisch) bezeichnet. Die Kantonsparlamente sind als Einkammernparlamente organisiert und heissen "Kantonsrat, Grosser Rat, Landrat, Grand Conseil" (frz.), "Gran Consiglio" (ital.) oder "Cussegl grond" (rät.). Die administrative Ebene zwischen Kanton und Gemeinde wird – soweit überhaupt vorkommend – in den meisten Kantonen als Bezirk bezeichnet, in manchen Kantonen als "Verwaltungsregion, Verwaltungskreis, Wahlkreis, Amtei, Amt," im französischsprachigen Landesteil "district," im italienischen Landesteil "distretto," im rätoromanischen Landesteil "districts". Aufgrund des Föderalismus in der Schweiz liegt die Verantwortung für viele staatliche Aufgaben ganz oder teilweise bei den Kantonen, so im Schul-, Gesundheits-, Finanz-, Polizei- und Justizwesen sowie im Verwaltungsrecht. Um diese Aufgaben effizient und nach einheitlichen Grundsätzen zu bewältigen, haben die Kantone zahlreiche interkantonale Konkordate geschlossen. Alle Kantone gehören überdies einer von fünf Regionalkonferenzen an, die ihnen der gegenseitigen Information, der Koordination der Regierungstätigkeiten und der wirkungsvollen Interessenvertretung gegenüber dem Bund dienen. Weiter arbeiten die Kantone im Rahmen der verschiedenen Direktorenkonferenzen (z. B. Schweizerische Konferenz der kantonalen Erziehungsdirektoren oder Schweizerische Konferenz der kantonalen Gesundheitsdirektorinnen und -direktoren) zusammen. Die Sekretariate dieser Konferenzen befinden sich im Haus der Kantone in Bern. Enklaven und Exklave. Büsingen am Hochrhein wie auch Campione d’Italia sind Enklaven in der Schweiz. Die deutsche Gemeinde Büsingen ist nördlich des Rheins vom Kanton Schaffhausen umgeben, südlich davon grenzt sie an die Kantone Zürich und Thurgau. Das italienische Campione, bekannt für sein Spielcasino, liegt am Luganersee innerhalb des Kantons Tessin. Lange Zeit "funktionale Enklave" war das italienische Livigno. Seit der Errichtung einer Passstrasse ist Livigno auch von Italien aus zu erreichen. Um das Leben in der dennoch abgeschiedenen Lage zu attraktivieren, ist die Gemeinde heute ein Italienisches Zollausschlussgebiet, nachdem sie zuvor dem Schweizer Zollgebiet angehörte. Die Gemeinde Samnaun war lange Zeit eine "funktionale Exklave," da die einzige Zufahrtsstrasse bis 1912 über österreichisches Hoheitsgebiet führte. Heute ist die Gemeinde ein Schweizer Zollausschlussgebiet. Aussenpolitik. Allée des Nations (Allee der Nationen) in Genf Die Schweiz versteht sich als aussenpolitisch neutral, d. h. sie beteiligt sich nicht an Kriegen zwischen Staaten. Die Neutralität der Schweiz wurde 1815 am Wiener Kongress anerkannt. Sie ist dauernd und bewaffnet und auch heute noch international ausdrücklich anerkannt. Die Schweiz ist Mitglied in vielen internationalen Organisationen. Als eines der letzten Länder trat die Schweiz 2002 der UNO bei, ist aber zugleich das erste Land, dessen Volk über den Beitritt abstimmen durfte. Daneben ist die Schweiz in der Organisation für Sicherheit und Zusammenarbeit in Europa (OSZE), dem Europarat wie auch in der Europäischen Freihandelszone (EFTA) tätig. Die Schweiz nimmt an der Partnerschaft für den Frieden der NATO teil und ratifizierte das Kyoto-Protokoll. Die Schweiz ist Mitglied im UN-Menschenrechtsrat. In der Forschung kooperiert die Schweiz mit einigen europäischen Organisationen. Sie ist Gründungsmitglied sowohl der Europäischen Weltraumorganisation (ESA) als auch der Europäischen Organisation für Kernforschung (CERN) und stellt mit Genf den Standort der Forschungsanlage. Die Schweiz ist Mitglied des Schengener Abkommens. Die Schweiz ist weder Mitglied der Europäischen Union (EU) noch des Europäischen Wirtschaftsraumes (EWR); jedoch bestehen wichtige bilaterale Verträge zwischen der Schweiz und der EU. Ein Beitritt zur NATO stünde im Konflikt zur Neutralität der Schweiz. Verhältnis zwischen der Schweiz und dem Fürstentum Liechtenstein. Das Verhältnis zwischen der Schweiz und dem Fürstentum Liechtenstein wird seit 1923 durch einen Zollvertrag (amtlich: «Vertrag zwischen der Schweiz und Liechtenstein über den Anschluss des Fürstentums Liechtenstein an das schweizerische Zollgebiet») geregelt. Nachdem Österreich den Ersten Weltkrieg verloren hatte und die österreichische Monarchie zusammengebrochen war, löste Fürst Johann II. 1919 den Zollvertrag von 1852 mit Österreich auf und suchte die Nähe zur Schweiz. Seit der Unterzeichnung des Zollvertrags mit der Schweiz im Jahre 1923 gehört das Fürstentum zum Schweizer Zollgebiet und die Landeswährung ist der Schweizer Franken. Einen offiziellen Währungsvertrag mit der Schweiz schloss Liechtenstein jedoch erst am 19. Juni 1980 ab. Der Zollvertrag garantiert weiterhin "die vollen souveränen Hoheitsrechte Seiner Durchlaucht des Fürsten von Liechtenstein". Durch den Vertrag herrscht bis heute eine enge Partnerschaft zwischen den beiden Staaten. Die Guten Dienste der Schweiz. In der Schweizer Aussenpolitik haben die Guten Dienste eine lange Tradition. Sie spielen neben den Schutzmachtmandaten eine zentrale Rolle in der schweizerischen Friedenspolitik. Die Guten Dienste der Schweiz beschränken sich heute nicht nur darauf, dass die Schweiz Konfliktparteien ihr Territorium als Verhandlungsort zur Verfügung stellt («Hotelier-Funktion»), sondern sie bietet sich auch als Vermittlerin an (Konfliktmediation). Schutzmachtmandate. Die Wahrung fremder Interessen als Schutzmacht ist ein klassisches Element der Guten Dienste und historisch gesehen für die Schweiz von grosser Bedeutung. Die Anfänge der schweizerischen Schutzmachttradition reichen bis ins 19. Jahrhundert zurück. Die Eidgenossenschaft vertrat im Deutsch-Französischen Krieg von 1870 und 1871 die Interessen des Königreichs Bayern und des Grossherzogtums Baden in Frankreich. Den Grundstein ihrer Reputation als die bedeutendste und wichtigste Schutzmacht der Welt legte die Schweiz in der ersten Hälfte des 20. Jahrhunderts. So übernahm die Schweiz während des Ersten Weltkriegs 36 Mandate zur Interessenvertretung. Die Schutzmachttätigkeit der Schweiz erreichte im Zweiten Weltkrieg 1943/44 mit 219 Mandaten für 35 Staaten ihren Höhepunkt. Nach Beendigung der Kriegshandlungen ging die Zahl der Mandate rasch wieder zurück. Während des Kalten Krieges nutzten mehrere Länder wieder die Interessenvertretung durch die Schweiz. Die Schweiz ist vor Schweden und Österreich das bedeutendste Land für Schutzmachtmandate. Die wichtigsten Gründe dafür sind die grosse Erfahrung, die neutrale Haltung sowie das ausgedehnte diplomatische Vertretungsnetz. Nur die Interessenvertretung der Vereinigten Staaten im Iran ist ein umfassendes Mandat. Die übrigen Mandate sind eher formeller Natur. Nachdem Kuba und die Vereinigten Staaten 2015 wieder direkte diplomatische Beziehungen aufnahmen, erlosch im Juli 2015 nach 54 Jahren das Schutzmachtmandat der Schweiz für die USA in Havanna. Schweizer Armee. Die "Schweizer Armee" ist die bewaffnete Streitmacht der Schweizerischen Eidgenossenschaft. Sie besteht aus den Teilstreitkräften Heer und Luftwaffe. Das jährliche Budget beträgt rund 4,873 Milliarden Franken (2011). Die Besonderheit der Schweizer Streitkräfte ist ihr Milizsystem. Berufs- und Zeitsoldaten machen nur etwa 5 Prozent der Armeeangehörigen aus; alle übrigen sind wehrpflichtige Bürger im Alter zwischen 20 und 34 (in speziellen Fällen bis 50) Jahren. Schweizer Bürgern ist es verboten, in einer fremden Armee zu dienen. Davon ausgenommen ist die Schweizergarde des Vatikans, da sie von der Schweiz lediglich als Sicherheitsdienst angesehen wird. Im Rahmen des Milizsystems bewahren die Angehörigen der Armee ihre persönliche Ausrüstung inklusive persönlicher Waffe (bis 2008 inklusive Taschenmunition) zu Hause auf. Im Zusammenhang mit den Eigenheiten des Milizsystems entstand die früher übliche Redewendung «Die Schweiz hat keine Armee, die Schweiz ist eine Armee». Militärdienstpflichtig sind alle männlichen Schweizer Bürger. Frauen können sich freiwillig für den Militärdienst melden und für sie gelten seit 2007 dieselben körperlichen Anforderungen wie für Männer. Jährlich werden ca. 20'000 Personen in Rekrutenschulen von 18 oder 21 Wochen Dauer zu Soldaten ausgebildet. Die "Militärdienstuntauglichen" leisten Dienst im Zivilschutz und zahlen überdies eine jährliche "Militärpflichtersatzsteuer". Militärdienstverweigerer haben die Möglichkeit, Zivildienst (→ Zivildienst in der Schweiz) zu leisten, sofern sie "Gewissensgründe" geltend machen und bereit sind, als "Tatbeweis" anderthalb so viele Diensttage wie Soldaten zu absolvieren. Dienstverweigerung aus anderen (etwa politischen oder persönlichen) Gründen führt zwingend zu einem militärgerichtlichen Verfahren. Mit der Reform «Armee XXI» – per Volksabstimmung im Jahre 2003 angenommen – wird die im vorangehenden Leitbild «Armee 95» vorgesehene Mannschaftsstärke von 400'000 auf ca. 200'000 reduziert. Davon sind 120'000 in aktive Verbände und 80'000 in Reserveeinheiten eingeteilt. Insgesamt fanden drei Generalmobilmachungen (GMob; auch Kriegsmobilmachung, KMob) zum Schutze der Integrität und der Neutralität der Schweiz statt. Die erste GMob fand anlässlich des Deutsch-Französischen Krieges von 1870/71 statt. Als Reaktion auf den Ausbruch des Ersten Weltkriegs und um einen deutschen oder französischen Durchmarsch durch die Schweiz zu verhindern, wurde auf den 3. August 1914 die erneute GMob der Armee beschlossen. Die dritte GMob der Armee fand am 1. September 1939 als Reaktion auf den deutschen Überfall auf Polen statt. Henri Guisan wurde zum General gewählt und entwickelte sich in den Kriegsjahren zur Hauptintegrationsfigur der von den Achsenmächten eingeschlossenen Eidgenossenschaft. Die heutige Schweiz wurde seit ihrer Gründung 1848 noch nie mit offenen Angriffen feindlicher Kräfte zu Lande konfrontiert. Im Zweiten Weltkrieg kam es jedoch häufig zu Luftraumverletzungen durch deutsche und alliierte Kampfflugzeuge. Beim folgenschwersten Angriff starben bei der Bombardierung von Schaffhausen am 1. April 1944 40 Menschen, 270 wurden zum Teil schwer verletzt (→ Alliierte Bombenabwürfe auf die Schweiz). Da sich die militärische Bedrohungslage im heutigen Europa für die Schweiz geändert hat, wird die Armee immer wieder in Frage gestellt. Besonders die Gruppe für eine Schweiz ohne Armee (GSoA) setzt sich seit Jahren für eine Abschaffung ein – bislang jedoch erfolglos: zwei Abstimmungen zur Abschaffung der Armee wurden vom Volk deutlich verworfen. Auch die Frage, ob friedenserhaltende Armeeeinsätze im Ausland mit der Neutralität vereinbar sind, ist umstritten. Zivilschutzorganisation. Der 1934 gegründete Zivilschutz untersteht dem Eidgenössischen Departement für Verteidigung, Bevölkerungsschutz und Sport. Er kümmert sich im Katastrophenfall als Einsatzmittel der zweiten Staffel (nach Feuerwehr, Polizei und Gesundheitswesen/Rettungsdienst, aber vor Armeeangehörigen) um den Schutz, die Betreuung und Unterstützung der zivilen Bevölkerung. Ausserdem kümmert sich der Zivilschutz um den Schutz von Kulturgütern, unterstützt die Führungsorgane auf kommunaler und regionaler Ebene und setzt Infrastrukturen wieder instand. Nachrichtendienst des Bundes NDB. Der seit dem 1. Januar 2010 existierende Schweizerische Nachrichtendienst NDB ging aus der Zusammenführung des Dienstes für Analyse und Prävention DAP und des Strategischen Nachrichtendienstes SND hervor. Der NDB ist direkt dem Chef des Departements für Verteidigung, Bevölkerungsschutz und Sport (VBS) unterstellt. Der Nachrichtendienst beschafft Informationen mit nachrichtendienstlichen Mitteln, analysiert und wertet diese mit dem Ziel aus, eine führungsrelevante Nachrichtenlage für Entscheidungsträger aller Stufen zu erstellen. Mit seinen operativen und präventiven Leistungen trägt der NDB direkt zum Schutz der Schweiz bei. Grenzwachtkorps. Das Grenzwachkorps (GWK) ist für den Schutz der Schweizer Grenze verantwortlich. Die uniformierten und bewaffneten Grenzwächter sind Teil der Eidgenössischen Zollverwaltung, die dem Eidgenössischen Finanzdepartement unterstellt ist. Die Angehörigen des Grenzwachtkorps sind an der Grenze sowie auf den Flughäfen von Zürich, Basel-Mülhausen, Genf und Lugano-Agno stationiert; kontrollieren den Personen- und Warenverkehr; bekämpfen den Schmuggel, die grenzüberschreitende Kriminalität, die Schleppertätigkeit und den Menschenhandel. Polizei. Die Polizeihoheit liegt in der Schweiz bei den Kantonen. Für die Durchsetzung der polizeilichen Gewalt hat jeder Kanton seine eigene Kantonspolizei. In einigen Kantonen wird die polizeiliche Grundversorgung durch Gemeindepolizeien erbracht, so z. B. durch die Stadtpolizei Zürich. Die jeweilige Kantonspolizei ist auch für die Sicherheit auf den auf ihrem Kantonsgebiet befindlichen Flughafen verantwortlich. Das Bundesamt für Polizei (fedpol) ist für die Koordination zwischen den Kantonspolizeien wie auch für die ausländischen Polizeistellen zuständig. Die allgemeingültige Notrufnummer der Polizei lautet in der Schweiz "117". Wer die Europäische Notrufnummer "112" wählt, wird automatisch mit der Einsatzzentrale der zuständigen Kantonspolizei verbunden. Feuerwehr. In den meisten Kantonen besteht für erwachsene Männer und teilweise auch Frauen eine Feuerwehrpflicht. Eine Feuerwehr zu organisieren, ist in erster Linie Aufgabe der Gemeinden. Allerdings werden immer mehr Ortsfeuerwehren regional fusioniert. Die Feuerwehr in der Schweiz ist über die Notrufnummer "118" erreichbar. Luftrettung. Die Schweizerische Rettungsflugwacht (Rega) ist eine selbständige und gemeinnützige private Stiftung und in der Schweiz für die Luftrettung zuständig. Sie arbeitet eng mit den Blaulichtorganisationen Polizei, Feuerwehr und Sanität zusammen. Für alpine Rettungs- und Bergungseinsätze ist die Rega enge Partnerin des Schweizerischen Alpen-Clubs SAC. Im Kanton Wallis ist nicht die Rega, sondern Air Glaciers und Air Zermatt für die Luftrettung zuständig. Sozialpolitik. Die staatliche Rentenversicherung (AHV), die berufliche Vorsorge (Pensionskasse) wie auch die private Vorsorge werden zusammen als Drei-Säulen-System bezeichnet. Für Erwerbstätige ist eine berufliche Vorsorge, die Pensionskasse, obligatorisch. Diese wird privatwirtschaftlich geregelt und ist Sache des Arbeitgebers. Freiwillig ist dagegen die private Vorsorge in Form von zum Beispiel Lebensversicherungen. Diese werden bis zu einer bestimmten Grenze steuerlich gefördert. Daneben gibt es die Erwerbsersatzordnung, sodass Militärdienstpflichtige während der Ausübung militärischer Pflichten ein Taggeld bekommen. Obligatorisch ist auch die Arbeitslosenversicherung. Gesundheitswesen. In der Schweiz ist "jeder" Einwohner – unabhängig von der Staatsangehörigkeit – aufgrund des Krankenversicherungsgesetzes verpflichtet, sich bei einer Krankenkasse seiner Wahl für die Behandlungskosten bei Krankheit zu versichern («Grundversicherung», «obligatorische Krankenpflegeversicherung»). Die Krankenkassen sind in der Schweiz ausschliesslich privatwirtschaftliche Unternehmen. Sie sind gesetzlich verpflichtet, jeden in die Grundversicherung aufzunehmen, der einen entsprechenden Antrag stellt, sofern er im Tätigkeitsgebiet der Kasse seinen Wohnsitz hat. Die Zahlung der Prämie (Mitgliederbeitrag) ist Sache des Versicherten. Es handelt sich dabei um eine Kopfprämie, d. h., die Prämie ist einkommensunabhängig, variiert jedoch von Krankenkasse zu Krankenkasse und von Kanton zu Kanton. Einkommensschwachen Personen werden von staatlicher Seite individuelle Prämienverbilligungen gewährt. Die Finanzierung der staatlichen Krankenhäuser erfolgt einerseits durch Einnahmen aus Behandlungen, andererseits durch Zuschüsse der Kantone oder Gemeinden. Die Finanzierung der Privatkrankenhäuser erfolgt dagegen in der Regel nur aus den Behandlungstaxen, die deshalb markant höher sind als bei den staatlichen Krankenhäusern. Die gesetzliche Grundversicherung deckt deswegen die Behandlung in Privatkliniken nicht. "Ambulante" Behandlungen dagegen werden von der Grundversicherung in der ganzen Schweiz und bei jedem zugelassenen Leistungserbringer gedeckt. Zahnarztbehandlungen werden von den Krankenkassen nicht getragen, von wenigen Ausnahmen abgesehen. Mit den EU-Staaten bestehen Verträge, die die gegenseitige Übernahme der Behandlung bei Notfällen regeln (Formular E111). Für Behandlungskosten bei Unfällen ist jeder Angestellte durch das Unfallversicherungsgesetz (UVG) obligatorisch versichert. Es gibt einerseits eine selbständige Unfallversicherung des öffentlichen Rechts (Schweizerische Unfallversicherungsanstalt), andererseits bieten auch die meisten privaten Versicherungskonzerne Unfallversicherungen nach UVG an. Es ist Sache des Arbeitgebers, alle Angestellten – auch bei Freizeitunfällen – zu versichern. Wer nicht angestellt ist, muss sich selbst gegen Unfall versichern. Schulsystem. Das Schweizer Bildungssystem (vereinfachte Darstellung) Das Schweizer Schulsystem ist ein komplexes Gebilde. Die Obhut des Schulwesens liegt nicht ausschliesslich beim Bund, sondern ist aufgrund des Föderalismus vorwiegend Sache der Kantone. Der Bund und die Kantone teilen sich die Verantwortung für das Bildungswesen, wobei die Kantone weitgehende Autonomie haben. Auf Bundesebene definiert ist die Garantie auf freie Schulbildung, der Beginn eines Schuljahres im August und die Sicherstellung der Qualitätsanforderungen. In anderen Bereichen haben die Kantone die alleinige Kompetenz in der obligatorischen Schule. In den weiterführenden Schulen hat der Bund etwas grössere Kompetenzen. Die Kantone sind jedoch weiterhin für die Ausführung zuständig, und ihnen obliegt die Verantwortung. In der Tertiärstufe sind die Kompetenzen ebenfalls verteilt. Dem Bund obliegt die Regelungskompetenz für die Fachhochschulen (FH) und die beiden Eidgenössischen Technischen Hochschulen (ETH) in Zürich (ETHZ) und Lausanne (EPFL) sowie für die Eidgenössische Hochschule für Sport Magglingen. Bei den Universitäten liegt die Obhut wiederum bei den Kantonen. Aufgrund dieser Tatsachen kann man entsprechend der Anzahl der Kantone von 26 verschiedenen Schulsystemen in der Schweiz sprechen. Die Dauer der Primarschule, der Sekundarstufe I sowie die Anzahl der Ebenen (Leistungsniveau) in der Sekundarstufe I variiert von Kanton zu Kanton; insgesamt sind es meist neun Jahre. Es gibt auch grosse Differenzen im Schulstoff. Die Lehrmittel (Schulbücher) werden von den Kantonen meistens in eigener Regie erstellt und vertrieben. Nach dem Ende des Obligatoriums sind jedoch alle auf einem ähnlichen Niveau. Nach dem Schulobligatorium hat man die Wahl zwischen einer weiterführenden Schule, die zur Matura führt, oder dem Beginn einer Berufsausbildung, einer Lehre. Die Lehre wird begleitet von einem regelmässigen Besuch einer Berufsschule (→ Berufsfachschule in der Schweiz). Freiwillig ist der parallele Besuch einer Berufsmittelschule (BMS), die mit der Berufsmaturität abgeschlossen wird. Die meisten Schweizer Schüler wählen den Weg einer Lehre. Über die BMS ist der Zugang für ein Studium an einer Fachhochschule möglich. Mit der neuen sogenannten «Passerelle» wird ausserdem, nach Erwerb des Berufsmaturitätszeugnisses (BM-Zeugnis), durch ein zusätzliches Schuljahr und eine Zusatzprüfung der prüfungsfreie Zugang an eine universitäre Hochschule ermöglicht. Menschenrechte. Originaldokument der ersten Genfer Konvention, 1864 Die Schweiz ist Depositarstaat der Genfer Konventionen. Das zwischenstaatliche Abkommen ist eine essentielle Komponente des humanitären Völkerrechts. 1942 wurde mit der Einführung des Schweizerischen Strafgesetzbuchs die Todesstrafe in der Schweiz in zivilen Strafprozessen abgeschafft. Seit 1999 ist die Todesstrafe auch auf Verfassungsebene verboten. 1974 ratifizierte die Schweiz die Europäische Menschenrechtskonvention. In der Schweiz gibt es eine nationale Menschenrechtsinstitution und eine nationale Kommission zur Verhütung von Folter. Die Kommission besucht Orte des Freiheitsentzugs. In einer Volksabstimmung wurde eine Verfassungsänderung beschlossen, nach der ausländische Staatsangehörige, die wegen bestimmter Straftaten verurteilt werden, unmittelbar in ihre Heimatländer ausgewiesen werden müssen (siehe "Eidgenössische Volksinitiative «Für die Ausschaffung krimineller Ausländer (Ausschaffungsinitiative)»"). Das Strafrecht enthielt auch weiterhin keine nach internationalem Recht anerkannte Definition von Folter. Amnesty International übte wiederholt Kritik an der Asylpolitik der Schweiz. Der "UN-Ausschuss gegen Folter" äusserte 2010 seine Besorgnis darüber, dass das "Schweizer Bundesgesetz über die Ausländerinnen und Ausländer" gegen das Prinzip des Non-Refoulement (Abschiebungsverbot) verstossen könne. Das Gesetz erlaubt die automatische Ausweisung ausländischer Staatsangehöriger, die als Sicherheitsbedrohung gelten, ohne dass die Betroffenen Rechtsmittel einlegen können. Im gleichen Jahr drückte der "UN-Ausschuss für wirtschaftliche, soziale und kulturelle Rechte" seine Besorgnis darüber aus, dass angesichts unzureichender Einrichtungen für die Aufnahme von Asylsuchenden Menschen für unbestimmte Zeit in unterirdischen Zivilschutzanlagen untergebracht werden. Ab Februar 2010 setzte das Bundesverwaltungsgericht die Überstellung von mehreren Asylsuchenden nach Griechenland im Rahmen der Dublin-II-Verordnung aus, um ein Grundsatzurteil zur Frage der Zulässigkeit dieser Überstellungen nach Griechenland abzuwarten. Das Bundesamt für Migration BFM schob dessen ungeachtet im Jahresverlauf 2010 insgesamt 50 Asylsuchende nach Griechenland ab. Schienenverkehr. Die Schweiz hat mit etwa 122 Metern pro Quadratkilometer das dichteste Eisenbahnnetz der Welt (ausgenommen Kleinststaaten wie Vatikanstaat oder Monaco), obwohl zwei Drittel des Landes in sehr gebirgigem Gelände liegen und keinerlei Beitrag zu diesem Rekord leisten. Das Schweizer normalspurige Eisenbahnnetz beträgt 3'778 km und ist komplett elektrifiziert. Die Schmal-, Meter- und Breitspurbahnen haben zusammen eine Länge von 1'766 km, wovon 30 km (1,7 Prozent) nicht elektrifiziert sind. Die Elektrifizierung erfolgte zu 80 Prozent mit AC (Wechsel- und Drehstrom) und zu 20 Prozent mit DC (Gleichstrom). Mit einer Strecke von 3'007 km betreiben die Schweizerischen Bundesbahnen (SBB) die meisten Eisenbahnlinien. Sie allein befördern jährlich über 300 Millionen Passagiere. Das zweitlängste Streckennetz mit gerade noch 440 km Streckenkilometern betreibt die BLS AG, worauf gleich die meterspurige Rhätische Bahn mit 384 Kilometern folgt, deren Linien ausschliesslich im Kanton Graubünden liegen. Daneben gibt es in der Schweiz weitere 47 Privateisenbahngesellschaften. Als Privatbahnen werden in der Schweiz jene Eisenbahnunternehmen bezeichnet, die privatrechtlich organisiert sind, also in der Regel als Aktiengesellschaften nach Obligationenrecht. In den meisten Fällen sind die Hauptaktionäre die öffentliche Hand. 2007 unternahm jeder Schweizer durchschnittlich 47 Bahnfahrten und legte dabei eine Distanz von 2'103 km zurück; damit ist die Schweiz die weltweit führende Bahnfahrernation. Im Rahmen der Neuen Eisenbahn-Alpentransversale (NEAT) wurden die Gotthard- und Lötschberg-Basistunnel erstellt, die der verfassungsmässig vorgeschriebenen Verkehrsumlagerung des Transitverkehrs dienen. Der Lötschberg-Basistunnel wurde mit dem Fahrplanwechsel am 9. Dezember 2007 für den regulären Personen- und Güterverkehr in Betrieb genommen, während sich der Gotthardtunnel als längster Tunnel der Welt im Endausbau befindet und voraussichtlich Ende 2016 in Betrieb genommen wird. Seit 1990 sind mehrere S-Bahnen (→ S-Bahnen in der Schweiz) entstanden, die mittlerweile einen Grossteil des Schienennahverkehrs bewältigen. Um die Fahrpreise möglichst einfach zu gestalten, wurden flächendeckende Tarifverbünde gegründet. Nahverkehr. Als Ergänzung zum sehr dichten Schienennetz übernehmen Busse, Trams und Stadtbahnen die Feinerschliessung im öffentlichen Nahverkehr. Bus: Mehrere Dutzend regionale Verkehrsbetriebe befördern Passagiere in den Städten und auf dem Land. Es gibt kaum einen Ort, der nicht an den öffentlichen Verkehr angeschlossen ist; selbst der Ort Juf (Kanton Graubünden), höchstgelegene Siedlung Europas, wird täglich vom öffentlichen Verkehr erschlossen. In den grösseren Städten werden auch elektrisch angetriebene Trolleybusse eingesetzt. Das gelbe Postauto bildet in vielen ländlichen- und Berggebieten das Rückgrat des öffentlichen Verkehrs. Tram: Bis in die 1960er-Jahre verkehrten in vielen Städten und Agglomerationen Trams (Strassenbahnen). Der wachsende Strassenverkehr brauchte mehr Platz und so wurden vielerorts die Trams durch Busse ersetzt. In den sechs Städten Basel, Bern, Genf, Neuenburg, Lausanne und Zürich bestehen noch heute viele Tramlinien. Stadtbahn: Als Ergänzung zu den S-Bahnen, Bus und Trams wurden in den letzten Jahren mehrere Stadtbahnen gebaut oder sind noch in Planung. Die jüngste Stadtbahn ist die Glattalbahn bei Zürich. U-Bahn: Abgesehen von der Skymetro auf dem Flughafen Zürich ist die Métro Lausanne die einzige städtische U-Bahn der Schweiz. Strassenverkehr. Der Grossteil der Bevölkerung im dicht besiedelten Mittelland wohnt weniger als 10 km von der nächsten Autobahn oder Autostrasse entfernt. Eine grosse Fläche der Schweiz mit einem relativ geringen Bevölkerungsanteil ist demgegenüber durch Hauptstrassen erschlossen, und schliesslich gibt es im Gebirge verschiedene, im Winter meist gesperrte, Verbindungen über Passstrassen (→ Liste der Pässe in der Schweiz) und durch Tunnels (→ Liste der Schweizer Tunnel). 2006 betrug die Gesamtlänge aller Strassen 71'298 km, wovon 1'758 km Autobahnen waren. Das gut ausgebaute öffentliche Verkehrsnetz macht sich dadurch bemerkbar, dass rund ein Fünftel aller Schweizer Haushalte nicht über ein eigenes Auto verfügt. Dieser Anteil steigt in den Städten auf 43 Prozent, zusätzlich durch den Umstand unterstützt, dass in der Schweiz auch das Carsharing weit verbreitet ist. Im Kanton Graubünden blieb der individuelle Motorfahrzeugverkehr bis zum Jahr 1926 verboten. Die Benützung des Schweizer Strassennetzes ist für Personenkraftwagen grundsätzlich unentgeltlich. Für die Benützung der Autobahnen mit weiss-grüner Beschilderung besteht in der Schweiz jedoch Vignettenpflicht für Personenkraftwagen, die einmalig für ein Jahr zu entrichtende Nationalstrassenabgabe (40 CHF). Gebühren auf einer der Öffentlichkeit zugänglichen Privatstrasse sind die absolute Ausnahme (bekanntestes Beispiel: der nach Italien führende Tunnel am Grossen Sankt Bernhard). Für Lastkraftwagen gilt seit dem 1. Januar 2001 die Leistungsabhängige Schwerverkehrsabgabe (LSVA), die elektronisch erhoben wird und deren Höhe nicht vom Typ der befahrenen Strasse, sondern von der gefahrenen Strecke und von der Emissionskategorie des Fahrzeuges abhängt. Flugverkehr. Die Schweiz verfügt über drei Landesflughäfen, elf Regionalflugplätze, 44 Flugfelder und fünf zivil mitbenutzte Militärflugplätze. Die grössten Flughäfen und Ausgangspunkte von Langstreckenflügen befinden sich in Kloten (Flughafen Zürich) und Cointrin (Flughafen Genf). Der drittgrösste Flughafen der Schweiz, der Flughafen Basel-Mülhausen, liegt in Hésingue und Saint-Louis auf französischem Boden. Kleine Flughäfen befinden sich ausserdem in Sitten (Flughafen Sion), Bern-Belp (Flughafen Bern-Belp), Lugano-Agno (Flughafen Lugano-Agno) und St. Gallen-Altenrhein (Flugplatz St. Gallen-Altenrhein). Der höchstgelegene Flughafen Europas, der Flughafen Engadin, liegt bei Samedan. Bis zur Nachlassstundung im Oktober 2001 war die Swissair nationale Fluggesellschaft und unterhielt ein weltumspannendes Streckennetz und die Regionalfluggesellschaft Crossair. Die Nachfolgerin Swiss ist seit Juli 2007 eine Tochtergesellschaft der Deutschen Lufthansa AG und weiterhin interkontinental tätig. Weitere Schweizer Fluggesellschaften sind u. a. die Edelweiss Air, die Etihad Regional und die Helvetic Airways. Skyguide, eine privatrechtliche Aktiengesellschaft, kümmert sich im Auftrag des Bundesamts für Zivilluftfahrt (BAZL), um die Flugsicherung im Schweizer Luftraum sowie des angrenzenden Luftraumes in Deutschland, Österreich, Frankreich und Italien. Im Schweizer Luftraum umfasst dies sowohl die zivile als auch die militärische Flugsicherung. Der Lufttransportdienst des Bundes, der u. a. auch für die beiden Flugzeuge des Bundesrats verantwortlich ist, ist auf dem Flughafen Bern-Belp stationiert. Schiffsverkehr. Die einzigen internationalen Häfen mit Meeresanbindung sind die Schweizerischen Rheinhäfen, die in und bei Basel am Rhein liegen. Zusätzlich betreiben sechs Reedereien insgesamt 44 Hochseeschiffe (Stand 2013) unter Schweizer Flagge (→ Schweizer Hochseeschifffahrt). Dazu kommen die Häfen der Binnenseen, die neben den Fährbetrieben über den Zürichsee und den Bodensee sowie die Erschliessung der Gemeinde Quinten am Walensee einen hohen touristischen Anteil haben. Einziger Güterverkehr auf den Seen sind normalerweise Kiestransporte mit Ledischiffen. Auf den meisten grösseren Seen und Flüssen verkehren, teilweise nur im Sommerhalbjahr, Ausflugsschiffe. Besonders beliebt bei den Fahrgästen sind die restaurierten und unter Denkmalschutz stehenden Raddampfer. Bergbahnen. Bedingt durch die Topographie, existieren in der Schweiz viele Berg-, Standseil- und Luftseilbahnen, die zum einen Teil als öffentlicher Verkehr zur Erschliessung von Siedlungen, zum anderen Teil der touristischen Erschliessung dienen. Die Bahnstation auf dem Jungfraujoch ist der höchstgelegene Bahnhof Europas und die Luftseilbahn auf das Kleine Matterhorn ist die höchstgelegene Bahnstation Europas. Einige Orte im Schweizer Berggebiet sind aufgrund ihrer Lage nicht oder nur teilweise mit einer Strasse erschlossen. Zu den nur per Eisenbahn oder Seilbahn erreichbaren Orten und Feriensiedlungen gehören in der Schweiz Belalp, Bettmeralp, Braunwald, Fiescheralp, Gimmelwald, Gspon, Landarenca, Lauchernalp, Mürren, Niederrickenbach, Rasa, Riederalp, Schatzalp, Stoos, Wengen, Wirzweli und Zermatt. Für mit dem Auto Anreisende stehen an der jeweils letzten mit dem Auto erreichbaren Bahnstation bzw. an der Talstation Parkplätze oder gar Parkhäuser zur Verfügung, beispielsweise für Mürren und Wengen in Lauterbrunnen, für Zermatt in Täsch. Langsamverkehr. SchweizMobil ist das nationale Netzwerk für den Langsamverkehr, insbesondere für Freizeit und Tourismus. Langsamverkehr ist in der Schweiz der offizielle Oberbegriff für das Wandern, Velofahren, Mountainbiken, Skaten und Kanufahren. Das Projekt wurde 1998 lanciert und besteht aus mehreren Teilen. Die Stiftung Veloland Schweiz fördert das Freizeitfahrradfahren in der Schweiz und schuf bis 1998 neun nationale Routen. Weitere Themen sind Mountainbikeland Schweiz, Skatingland Schweiz und Kanuland Schweiz. Unter dem Namen Wanderland Schweiz sind auch die Wanderwege Teil des Projekts SchweizMobil. Die Schweiz verfügt über ein Netz von einheitlich markierten Wanderwegen von einer Länge von insgesamt 62'441 km, davon 13'880 km Hartbelag und 23'090 km Bergwege (Stand: 2007). Es werden dabei drei Arten von Wanderwegen unterschieden mit unterschiedlichem Schwierigkeitsgrad: gelb markierte "Wanderwege", weiss-rot-weiss markierte "Bergwege" sowie die weiss-blau-weiss markierten "Alpinen Routen". Wirtschaft. Die Schweiz gehört zu den wohlhabendsten Ländern der Welt. Das allgemeine Preisniveau liegt relativ hoch. Gemessen am Bruttoinlandsprodukt (→ Liste der Länder nach Bruttoinlandsprodukt) rangierte die Schweiz im Jahr 2013 mit umgerechnet 646 Milliarden US-Dollar an 20. Stelle, beim Bruttoinlandsprodukt pro Kopf mit 80'276 US-Dollar auf dem vierten Platz. Im "Global Competitiveness Report 2014-2015" des Weltwirtschaftsforums, das die Wettbewerbsfähigkeit von Ländern misst, rangiert die Schweiz auf dem ersten Platz vor Singapur und den Vereinigten Staaten. Die Wirtschaft der Schweiz gilt als eine der stabilsten Volkswirtschaften der Welt. Als Erfolgsfaktor gilt unter anderem die Preisstabilität. So lag 2008 die Jahresteuerung mit 2,4 Prozent zum ersten Mal seit 1994 über einem Wert von 1,8 Prozent. 2013 gingen 4,338 Millionen Menschen in der Schweiz einer Beschäftigung nach. 3,7 % arbeiteten in der Landwirtschaft (Primärsektor), 23,9 % in der Industrie und im Gewerbe (Sekundärsektor) und 72,4 % im Dienstleistungssektor (Tertiärsektor). Per betrug die Arbeitslosenquote  Prozent. Die wertvollsten Marken (und Unternehmen) aus der Schweiz sind laut Interbrand: Nescafé (Nestlé), Credit Suisse, UBS und Zurich Insurance Group. Economiesuisse ist der grösste Dachverband der Schweizer Wirtschaft (→ Liste der Wirtschaftsverbände der Schweiz). Der Schweizerische Gewerkschaftsbund ist die grösste Gewerkschaft im Land (→ Liste von Gewerkschaften in der Schweiz). Schweizer Franken. Der Schweizer Franken (kurz "Fr.", "SFr." und "CHF") ist die offizielle Währung der Schweiz. Nach dem US-Dollar, Euro, Pfund und Yen gehört der Schweizer Franken zu den wichtigsten kleineren Währungen der Welt. Die Schweizerische Nationalbank SNB führt als unabhängige Zentralbank die Geld- und Währungspolitik der Schweizerischen Eidgenossenschaft und hielt 2013 Währungsreserven von 477,4 Milliarden Franken und einen Goldbestand von 35,6 Milliarden Franken. Der Notenumlauf belief sich auf 65,8 Milliarden Franken. Landwirtschaft. Die kleingliedrigen Strukturen, das zum Teil ungünstige Gelände, das hohe Lohnniveau und die strengen Vorschriften (Tierhaltung, Landschaftsschutz) wirken sich negativ auf die internationale Wettbewerbsfähigkeit aus. Mit zunehmender Öffnung des Agrarmarktes (Welthandelsorganisation) gerät die Schweizer Landwirtschaft unter Druck. Der Strukturwandel von vielen Kleinbetrieben in Berg- und Voralpenregionen hin zu wenigen Grossbetrieben im flachen Mittelland hält seit Jahrzehnten an. Zwischen 2000 und 2011 ging die Zahl der Vollzeitbeschäftigten in der Landwirtschaft um 23'280 zurück und betrug im Jahr 2011 nur noch 72'715 (−24 Prozent). Die Zahl der Betriebe sank ebenfalls um 1,8 Prozent, während die Nutzfläche kaum abnahm. Die Landwirtschaft wird vom Bund mit beträchtlichen Mitteln unterstützt (Subventionen bzw. an Auflagen gebundene Direktzahlungen). In den gebirgigen Regionen dominieren die Viehzucht und Milchwirtschaft. Im Mittelland dagegen liegt der Schwerpunkt beim Getreide- (Gerste, Hafer, Roggen und Weizen), Kartoffel-, Mais-, Rüben- und zunehmend Rapsanbau. In der Ostschweiz wie auch im Wallis kommt Obstbau dazu. In den Kantonen Wallis, Waadt, Neuenburg und Genf, in der Deutschschweiz, in der Drei-Seen-Region sowie in den Kantonen Aargau, Zürich, Schaffhausen, Graubünden und im Tessin wird Weinbau betrieben. In der Schweiz dominiert in der Landwirtschaft die integrierte Produktion. Der biologische Anbau beträgt etwa 9 Prozent der Produktion und ist stark im Wachsen. Es gibt keinen Anbau von gentechnisch veränderten Pflanzensorten, ausser zu Forschungszwecken. Rohstoffe und Energieproduktion. Abgebaut werden in der rohstoffarmen Schweiz Kies, Kalk, Ton, Granit und Salz. In der Schweiz werden pro Jahr gut fünf Millionen Kubikmeter Holz geerntet. Dies entspricht ca. zwei Dritteln des im Schweizer Wald jährlich nachwachsenden nutzbaren Holzes. Die Schweiz importiert mehr Holz und Holzprodukte, als sie exportiert. Pro Jahr werden gut sechs Millionen Kubikmeter Holz energetisch verwendet, als Karton oder Papier verbraucht, zu Möbeln verarbeitet oder auf dem Bau verwendet. Ein wichtiger Rohstoff der Schweiz ist die Wasserkraft; die über 500 grösseren und kleineren Speicherkraftwerke und Laufwasserkraftwerke decken rund zwei Drittel des Schweizer Elektrizitätsbedarfs (→ Liste der Speicherseen in der Schweiz). Die Kernenergie trägt an die inländische Stromproduktion im Zehnjahresdurchschnitt 39 Prozent bei, im Winter bis zu 45 Prozent. Die fünf schweizerischen Kernkraftwerke haben eine Gesamtleistung von 3,2 Gigawatt; ihre jährliche Verfügbarkeit liegt bei rund 90 Prozent (→ Kernenergie nach Ländern (Abschnitt Schweiz)). Die beiden schweizerischen Erdölraffinerien (Raffinerie Cressier und Raffinerie Collombey) sind an das europäische Erdölpipelinenetz angeschlossen. Die Schweizer Erdgashandels- und Transportgesellschaft Swissgas beschafft und transportiert Erdgas im Auftrag der vier schweizerischen regionalen Gasverteilgesellschaften Erdgas Ostschweiz, Gasverbund Mittelland, Gaznat und Erdgas Zentralschweiz. 12 Einspeisestellen sind an das europäische Gaspipelinenetz angeschlossen. Die wichtigste Zufuhrleitung ist die Trans-Europa-Naturgas-Pipeline, die von den Niederlanden nach Italien führt. 2012 stammten 41 Prozent des in der Schweiz verbrauchte Erdgases aus der EU, 24 Prozent aus Norwegen und 21 Prozent aus Russland. Die restlichen 12 Prozent stammten aus übrigen Ländern. Gewerbe und Industrie. Der grösste Teil des Bruttoinlandsproduktes wird im sekundären und tertiären Sektor erwirtschaftet. Der Anteil der Wertschöpfung im Industriesektor am gesamten Bruttoinlandsprodukt ging seit 1970 von rund 30 Prozent auf heute noch rund 22 Prozent zurück. Der grösste Rückgang entfiel dabei in die Jahre zwischen 1973 und 1979, in denen der Anteil um rund 6 Prozentpunkte auf unter 24 Prozent sank. Die früher dominante Textilindustrie ist weitgehend verschwunden. Den kleinen und mittleren Unternehmen (kurz «KMU»; Firmen bis 249 Mitarbeiter) kommt in der Schweizer Wirtschaft eine entscheidende Bedeutung zu. Mehr als 99 Prozent aller Firmen zählen zu den KMU. Sie stellen zwei Drittel aller Arbeitsplätze. Eine wichtige Rolle spielen internationale Grossfirmen in der Maschinenindustrie wie ABB, in der Nahrungsmittelindustrie wie Nestlé, Lindt & Sprüngli (→ Schweizer Schokolade) und Givaudan, in der Pharmaindustrie mit Novartis und Roche, in der Chemieindustrie mit Syngenta sowie in der Uhren- und Luxusgüterindustrie mit Swatch Group und Richemont. 2008 zog die Schweiz mit ihrem Industrieanteil an der Wertschöpfung mit Deutschland gleich und überholte Japan. Dies liegt vor allem daran, dass die Industrie sehr hochwertige Güter produziert wie Medizinaltechnikprodukte, Pharmazeutika, Präzisionsinstrumente oder Luxusuhren. In absoluten Zahlen ist die Industrieproduktion der Schweiz mit rund 100 Milliarden US-Dollar deutlich grösser als diejenige Belgiens, Norwegens oder Schwedens und liegt etwa auf gleicher Höhe mit derjenigen von Taiwan und den Niederlanden. Umgerechnet auf einen Prokopfanteil, liegt die Schweiz weltweit an der Spitze mit rund 12'400 US-Dollar, vor Japan mit 8600 US-Dollar und Deutschland mit 7700 US-Dollar. Von den 1'035'000 Beschäftigten in der Industrie und im Gewerbe arbeiteten 2013 31,7 % im Baugewerbe, 10,4 % in der Uhren- und Präzisionsinstrumentenindustrie, 9,6 % in der Metallverarbeitung, 9,5 % im Maschinen- und Fahrzeugbau, 6,8 % in der Chemie, 6,4 % im Bereich Nahrung, Getränke und Tabakwaren, 1,4 % in der Textilindustrie sowie 24,2 % in der übrigen Industrie. Dienstleistungen. Der tertiäre Sektor zählt bei weitem die meisten Erwerbstätigen (72 Prozent). Dominant sind der Handel, das Gesundheits- und Bildungswesen sowie das Banken- (→ Schweizer Bankwesen) und das Versicherungswesen mit u. a. UBS, Credit Suisse, Zurich, Swiss Life und Swiss Re sowie die Anwaltschaft, wobei Anwälte vielfach auch als Finanzintermediäre tätig sind. In den Jahren nach 2000 siedelten sich Firmen aus dem Bereich des Rohstoffhandels an: Vitol, Glencore, Xstrata, Mercuria Energy Group. Tourismus. Seit etwa 150 Jahren ist der Tourismus ein wichtiger Wirtschaftszweig in der Schweiz. Er wurde begünstigt durch die Alpen, die vielen Seen, die zentrale Lage in Europa, eine stabile Politik, eine sichere Gesellschaft und eine starke Wirtschaft. Zu den beliebtesten Destinationen und meistbesuchten Regionen zählen Zürich, Luzern, Graubünden, Berner Oberland, Wallis, Genf, Waadt, Basel, Tessin, Ostschweiz und Bern. In der Schweiz gab es 2013 insgesamt 5'129 Hotels und Kurbetriebe mit 249'666 Betten und über 25'000 klassierte Ferienwohnungen und Gästezimmer. Weiter gibt es 755 Gruppenunterkünfte, 52 Jugendherbergen, 412 Campingplätze, über 1'000 Bed-and-Breakfast-Betriebe, 29'000 Bahnhöfe und 2'500 Seilbahnen. 210'000 der Schweizer Arbeitnehmer (4 Prozent) in 167'590 Vollzeitstellen arbeiteten im Tourismus. 2012 wurden 34,8 Millionen Hotelübernachtungen verzeichnet. Der Tourismus (nur ausländische Gäste) stand 2012 mit 16 Milliarden Franken (4,6 Prozent) an vierter Stelle der Exporteinnahmen. Besonders in den wirtschaftlich schwächeren Bergregionen ist der Tourismus ein bedeutender Wirtschaftsfaktor. In den Bergkantonen Graubünden und im Wallis beträgt der Anteil am Bruttoinlandprodukt (BIP) bis zu 30 Prozent, schweizweit sind es 2,6 Prozent. Detailhandel. Der Schweizer Detailhandel (Einzelhandel) wird durch die beiden genossenschaftlich organisierten Detailhandelsriesen Migros und Coop beherrscht. Die beiden deutschen Detailhandelsketten Aldi (Firmierung in der Schweiz unter "Aldi Suisse") und Lidl sind erst spät, Aldi 2005 und Lidl 2009, in den Schweizer Markt eingetreten. Derzeit sind sie daran, ein flächendeckendes Filialnetz aufzubauen. Das grösste Einkaufszentrum des Landes ist das Glattzentrum in Wallisellen im Kanton Zürich. Aussenhandel. Der wichtigste Handelspartner der Schweiz ist Deutschland, gefolgt von Italien, Frankreich und den Vereinigten Staaten. Die Schweiz ist Mitglied der Internationalen Kakao-Organisation (ICCO). Presse. Zeitungen sind meist lokal und regional ausgerichtet, aber es gibt auch bekannte Zeitungen mit nationaler Verbreitung wie die "Neue Zürcher Zeitung" (NZZ), die für ihre fundierte Berichterstattung besonders zu internationalen Ereignissen bekannt ist. Die am meisten gelesene Tageszeitung ist die kostenlose Pendlerzeitung "20 Minuten" (), vor der Boulevardzeitung "Blick" und dem "Tages-Anzeiger". In der Romandie (französischsprachige Schweiz) ist "Le Temps" eine überregionale Tageszeitung. Die am meisten gelesenen Tageszeitungen der Romandie sind "Le Matin" und "24 Heures". Bekannte Nachrichtenmagazine sind die wöchentlich erscheinenden Formate "Die Weltwoche" und "Die Wochenzeitung". Bekannte französischsprachige Zeitschriften sind "L’Hebdo" und "L’illustré". Radio und Fernsehen. Nebst zahlreichen privaten Anbietern ist die Schweizerische Radio- und Fernsehgesellschaft SRG SSR die mit Abstand wichtigste und grösste Anbieterin von Radio- und Fernsehprogrammen in der Schweiz. SRG SSR. Die Schweizerische Radio- und Fernsehgesellschaft SRG SSR ist ein privater Verein mit öffentlichem Auftrag mit Sitz in Bern und Trägerin des grössten Unternehmens für elektronische Medien des Landes. Die Tätigkeit der SRG stützt sich auf die Schweizerische Bundesverfassung, das Radio- und Fernsehgesetz, die Radio- und Fernsehverordnung sowie die Konzession des Bundes, welche ihr umfangreiche Aufgaben im Dienste der allgemeinen Öffentlichkeit "(Service public)" überträgt. Die SRG SSR ist publizistisch als auch organisatorisch unabhängig. Durch ihre Unternehmenseinheiten ist die SRG SSR mit ihren Radio- und Fernsehprogrammen in allen Sprachregionen präsent. Radio. Die öffentliche SRG SSR betreibt sechs Radioprogramme in deutscher Sprache (Radio SRF 1, Radio SRF 2 Kultur, Radio SRF 3, Radio SRF 4 News, Radio SRF Virus und Radio SRF Musikwelle). Des Weiteren gibt es vier Programme in französischer (La Première, Espace 2, Couleur 3 und Option Musique), drei in italienischer (Rete Uno, Rete Due Rete Tre), sowie eines in rätoromanischer Sprache (Radio Rumantsch). Ausserdem betreibt die SRG SSR die Spartenprogramme Radio Swiss Pop, Radio Swiss Classic und Radio Swiss Jazz, die über Satellit und Internet zu empfangen sind. Die Radioprogramme sind durch Rundfunkgebühren finanziert. Radiowerbung ist der SRG SSR nicht gestattet. Seit 1983 werden in allen Regionen private, kommerzielle Radiosender betrieben. Hinzu kommt eine grosse Gruppe von nichtkommerziellen Regionalsendern, die komplementäre Programme abseits des Einheitsbreis produzieren. Sie haben sich in der Gruppe Union nicht-kommerzorientierter Lokalradios (UNIKOM) zusammengeschlossen. Alle SRG-Radioprogramme sowie viele private Radiosender werden nicht nur über UKW, sondern auch über DAB+ ausgestrahlt (→ Liste der DAB-Sender in der Schweiz). Fernsehen. Das öffentliche Fernsehangebot der SRG SSR umfasst sechs Kanäle mit Vollprogramm, je zwei für die drei grossen Sprachregionen (Deutschschweiz SRF 1 und SRF zwei, Westschweiz RTS Un und RTS Deux, italienischsprachige Schweiz RSI LA 1 und RSI LA 2). In der Deutschschweiz wird zusätzlich der Nachrichtenkanal SRF info ausgestrahlt, der die wichtigsten Informationssendungen meist unverschlüsselt wiederholt. Alle sieben Fernsehkanäle werden in HDTV-Qualität (720p) produziert und können über den Satelliten Hotbird empfangen werden. Zur Förderung der rätoromanischen Sprache werden auf SRF 1 täglich kurze Sendungen mit deutschen Untertiteln der Televisiun Rumantscha ausgestrahlt. Die Fernsehprogramme der SRG SSR werden durch Rundfunkgebühren und Werbung finanziert. Private Sender mit nationalem Sendegebiet sind u. a. 3+, 4+, 5+, Star TV, Schweiz 5, SSF, S1 und TV24. Daneben existieren viele Lokalsender. Viele deutsche Sender wie RTL, RTL II, VOX, Sat.1, kabel eins oder ProSieben senden ihre Programme in der deutschsprachigen Schweiz mit speziellen Werbefenstern und einigen wenigen speziell für die Schweiz produzierten Sendungen. Mit Ausnahme von lokalen Programmen können in der Schweiz fast alle deutschen und österreichischen Kanäle sowie französische und italienische Sender empfangen werden. Kommunikation. Die drei Netzanbieter Swisscom, Sunrise und Orange betreiben je ein eigenes landesweit flächendeckendes GSM-Mobilfunknetz. Der damalige staatliche Telefonmonopolist PTT (Vorgängerin von Swisscom und Die Post) nahm 1978 das analoge NATEL A-Netz in Betrieb. 1983 folgte das NATEL B-Netz und 1987 das NATEL C-Netz. 1998 fiel das staatliche Monopol. Das Wort Natel ist eine Abkürzung für «"N"ationales "A"uto"tel"efon» und wird in der Schweiz noch heute als Synonym für Mobilfunk verwendet. Der Bund hält 51,22 Prozent per Ende 2013 an der Swisscom AG. Kultur. Die Kultur ist von den Nachbarländern beeinflusst, aber über die Jahre hat sich eine eigenständige, schweizerische Kultur entwickelt. Die Aufteilung der Schweiz in mehrere Sprach- und auch Kulturregionen macht es schwierig, von einer einheitlichen Schweizer Kultur zu sprechen. Die drei grösseren Sprachregionen werden von den jeweiligen Nachbarländern sowie von den angelsächsischen Ländern stark beeinflusst, während die rätoromanische Kultur keinen «grossen Bruder» hat. Bräuche. Brauchtümer sind Teil der kulturellen Vielfalt und des immateriellen Erbes der Schweiz. Sie sind Teil der Volkskultur und stets von lokalem beziehungsweise regionalem Charakter. In einigen Fällen (Fasnacht, Osterbräuche, Weihnachtsbräuche) können sie auch überregional sein. Zu den Bräuchen gehören verschiedene tradierte Ausdrucksformen in Musik, Tanz, Volksdichtung z. B. an der Basler Fasnacht sowie im traditionellen Handwerk. Ausserdem zählen dazu verschiedene Riten und religiöse Feste. 2008 ratifizierte die Schweiz die UNESCO-Konvention zur Bewahrung des immateriellen Kulturerbes (2003) und die UNESCO-Konvention über den Schutz und die Förderung der Vielfalt kultureller Ausdrucksformen, in dem die Sorge um das Verschwinden und die Vermarktung des Brauchtums zum Ausdruck kommt. Beispiele von Brauchtum in der Schweiz sind: die Luzerner Fasnacht, die Basler Fasnacht, das Unspunnensteinwerfen in Interlaken, das Sechseläuten in Zürich oder die Fête des Vignerons (Fest der Winzer) in Vevey. Feiertage. In der Schweiz ist auf Bundesebene nur der 1. August als Feiertag für das gesamte Land festgelegt (siehe auch "Schweizer Bundesfeiertag"). Die Regelung aller anderen Feiertage ist allein Sache der Kantone, die bis zu acht weitere Tage als gesetzliche Ruhetage festlegen können. Aufgrund dieser Tatsache gibt es ausser der Bundesfeier nur noch drei weitere Tage, die ebenfalls in der gesamten Schweiz anerkannt sind: Neujahr, Auffahrt und der erste Weihnachtsfeiertag. In weiten Teilen des Landes werden weiterhin Karfreitag, Ostermontag, Pfingstmontag und der Stephanstag (zweiter Weihnachtsfeiertag) begangen. Die Mehrheit der Feiertage hat einen christlichen Hintergrund. So werden Fronleichnam, Mariä Himmelfahrt, Allerheiligen und Maria Empfängnis nur in den katholischen Kantonen gefeiert, umgekehrt ist der Berchtoldstag (zweiter Neujahrstag) weitgehend auf die protestantischen Kantone beschränkt. Ohne religiösen Bezug ist der Tag der Arbeit, der oft auch als "Kampftag der Arbeiterbewegung" bezeichnet wird. Daneben gibt es eine Vielzahl lokaler Feiertage wie etwa das Knabenschiessen in Zürich oder der Schmutzige Donnerstag. Küche. Die Schweizer Küche verbindet Einflüsse aus der deutschen, der französischen und der norditalienischen Küche. Sie ist jedoch regional sehr unterschiedlich, wobei die Sprachregionen eine Art Grobaufteilung bieten. Viele Gerichte haben allerdings die örtlichen Grenzen überschritten und sind in der ganzen Schweiz beliebt. Typische Schweizer Gerichte sind Käsefondue, Raclette, Älplermagronen und Rösti. Diese hat auch den Röstigraben definiert. Östlich dieser Grenze gehört Rösti zu den populärsten Nationalgerichten, westlich davon nicht. Das heute weltweit bekannte Birchermüesli wurde um 1900 von einem Schweizer Arzt, Maximilian Bircher-Benner, in Zürich entwickelt. Die Honig-Mandel-Nougat-Schokolade Toblerone wird seit über 100 Jahren nur in Bern hergestellt und von dort aus in über 120 Länder verkauft. Der Cervelat ist die wohl beliebteste Wurst der Schweiz. Sehr beliebte Schweizer Produkte sind Schweizer Käse sowie Schweizer Schokolade. Zu lokalen Spezialitäten gehören etwa: Basler Läckerli, Vermicelles, Appenzeller Biber, Baiser, die Aargauer Rüeblitorte oder die Zuger Kirschtorte. In der Schweiz sehr beliebt ist das Süssgetränk Rivella. Das im Aargau produzierte Getränk konnte sich international allerdings bis jetzt nur in den Niederlanden durchsetzen. Auch die Ovomaltine ist eines der beliebtesten Schweizer Getränke. Im Gegensatz zu Rivella hat sich Ovomaltine weltweit verbreitet, mehrheitlich unter dem Namen "Ovaltine". UNESCO-Welterbe in der Schweiz. In der Liste des UNESCO-Welterbes in der Schweiz sind elf Kultur- und Naturgüter als Welterbestätten eingetragen. Architektur. Der wohl bekannteste und bedeutendste Schweizer Architekt ist Le Corbusier. Atelier 5, Mario Botta und Diener & Diener sind weitere bekannte Schweizer Architekten der Gegenwart, die die moderne Architektur im Ausland mitgeprägt haben. Die Architekten Jacques Herzog und Pierre de Meuron (Herzog & de Meuron) haben sich in den vergangenen Jahren unter anderem mit dem Gebäude der Tate Modern in London oder dem Nationalstadion («Vogelnest») in Peking einen Namen gemacht und den Pritzker-Preis erhalten. Peter Zumthor, dessen bekanntester Bau das Thermalbad in Vals ist, ist ebenfalls Pritzker-Preis-Träger. Im Jahr 1928 entstand in Dornach bei Basel das Goetheanum, einer der ersten Stahlbetonbauten, der mit seiner skulpturalen Gestalt bis heute zu den bekannten Bauten des Expressionismus und der Organischen Architektur gezählt wird. Kultur- und Baudenkmäler. Die neutrale Schweiz wurde – mit Ausnahme der Stadt Schaffhausen (→ Bombardierung Schaffhausens im Zweiten Weltkrieg) – beinahe vollständig von den grossen zerstörerischen Kriegen der Neuzeit verschont. Deshalb blieb im ganzen Land bis heute viel historische Bausubstanz erhalten. In den aufstrebenden Städten des 11. und 12. Jahrhunderts wurde intensiv gebaut. Neue Kirchen entstanden in Städten, Dörfern und Klöstern. Alle fünf Bischofskirchen im Gebiet der Schweiz (Basel, Chur, Genf, Lausanne, Sitten) wurden in der zweiten Hälfte des 12. Jahrhunderts neu erbaut. Neben dem voll entfalteten Formenrepertoire der Romanik wurde aber bereits deren Ablösung durch die Gotik sichtbar. Der Stil der Romanik findet sich in der Schweiz u. a. im Basler Münster, in der Kathedrale Unsere Lieben Frau in Sitten, in der Kathedrale St. Maria Himmelfahrt in Chur und der Kathedrale St. Peter in Genf. Das Münster zu Allerheiligen in Schaffhausen gilt heute als der grösste romanische Sakralbau der Schweiz. Im Gebiet der heutigen Schweiz manifestierte sich die Gotik ausserordentlich früh. Die ab 1190 erbaute Kathedrale Notre-Dame in Lausanne gilt heute als eines der bedeutendsten gotischen Bauwerk in der Schweiz. Die Klosterkirche von Einsiedeln sowie die Stiftskirche in St. Gallen und die St. Ursenkathedrale in Solothurn wurden im üppigen Barock erbaut. Die ältesten Holzhäuser in Europa stehen im Kanton Schwyz. Die Häuser Nideröst (1176) und Bethlehem (1287) wurden als Blockhaus aus qualitativ bestem Fichten-Kernholz noch vor der Gründung der Alten Eidgenossenschaft erbaut. In der Gegend zwischen Arth und dem Muotatal stehen nachweislich über ein Dutzend der uralten Holzhäuser. Gemäss neuen Forschungsergebnissen war es den Hausbesitzern damals möglich, bei einem Umzug in ein Nachbardorf die Häuser in ihre einzelnen Balken zu zerlegen und mitzunehmen. Fachleute sprechen von der mit Abstand ältesten Holzhausgruppe in ganz Europa. Für die Entstehung monumentaler Renaissance-, Barock- und Rokokoschlösser fehlten in der Schweiz die gesellschaftlichen, politischen und wirtschaftlichen Voraussetzungen. Einige der wenigen Ausnahmen waren die fürstbischöfliche Residenz in Chur, die bischöfliche Residenz in Pruntrut sowie die Fürstabtei St. Gallen. Die Schlösser in der Schweiz gehen meist auf mittelalterliche Burgen zurück. In der Zeit zwischen dem 10. und dem 15. Jahrhundert sind im Gebiet der heutigen Schweiz ca. 2'000 Burgen meist durch edelfreie oder gräfische Familiengruppen, durch den Kleinadel oder Rittersleuten erbaut worden. Die eidgenössischen Orte übten bei der Umgestaltung ihrer als Landvogteien genutzten Schlösser sparsame Zurückhaltung aus. Dadurch blieb wertvolle mittelalterliche Bausubstanz erhalten. Im Gegensatz dazu entfaltete die ländliche und v. a. die städtische Oberschicht, die sogenannten Patrizier, eine rege private Bautätigkeit bei der Errichtung repräsentativer Landsitze. Zu den bekanntesten Schlössern des Landes zählen heute Schloss Chillon, Schloss Thun, das Wasserschloss Bottmingen, die Habsburg, Schloss Tarasp, Schloss Grandson und Schloss Sargans. Die drei Burgen von Bellinzona gehören zum UNESCO-Welterbe. Moderne Waffentechniken machten die mittelalterlichen städtischen Befestigungsanlagen im 18. Jahrhundert nutzlos. Das Schleifen der Stadtbefestigungen in der ersten Hälfte des 19. Jahrhunderts ging mit Stadterweiterungen im Zuge der beginnenden Industrialisierung einher. Strassen- und besonders der Eisenbahnbau sprengten die Stadtmauern und verdrängten die turmbesetzten Verteidigungsringe und Schanzenanlagen. Einige Orte konnten ihre mittelalterlichen Befestigungsanlagen bewahren, so z. B. das Städtchen Murten. In anderen Städten blieben nur einzelne wenige Teile der Befestigungen erhalten wie der Zytglogge-Turm in Bern, das Spalentor in Basel oder der Munot in Schaffhausen. In dieser Zeit wurde in Zürich auch die Bahnhofstrasse durch Zuschütten des Fröschengrabens angelegt. Im jungen Bundesstaat des ausgehenden 19. Jahrhunderts war die Rückbesinnung auf die eigene Geschichte von grosser Bedeutung. Diese Rückbesinnung führte in der Architektur zur Verwendung historischer Stilelemente und ihre Verschmelzung zu einem neuen Ganzen. Für einige Jahrzehnte hat sich in der Schweiz der Historismus als neuer Baustil durchgesetzt. Zu den bekanntesten Gebäuden dieser Zeit gehört das Bundeshaus in Bern (1852–1902), die Elisabethenkirche in Basel (1857–1864), das Stadthaus in Winterthur (1865–1869), der Hauptbahnhof Zürich (1870–1871), das Historische Museum Bern (1892–1894) sowie das Schweizerische Landesmuseum in Zürich (1897). Im 20. Jahrhundert wurden vereinzelt auch Gebäude im neoklassizistischen Stil erstellt, so 1903 das Stadttheater Bern und anfangs der 1930er Jahre der Palais des Nations in Genf. Zwischen 1922 und 1927 entstand in Lausanne das Bundesgerichtsgebäude im klassizistischen Stil. Die bäuerliche Baukultur hat eine reiche Zahl verschiedener Baustile hervorgebracht, jeweils bestens angepasst an die verschiedenen Landschaften und klimatischen Bedingungen. Die Dörfer der Ostschweiz sind geprägt durch die typischen Riegelbauten, im Wallis dominieren die von der Sonne dunkel gebrannten Blockhäuser (z. B. in Grimentz), im Berner Mittelland sind die Bauernhäuser mit den weit ausladenden Dächern, den typischen Ründen, überall anzutreffen und die reich mit Sgraffiti geschmückte Häusern gehören unverkennbar in jedes Engadiner Dorf (z. B. in Ardez). Einen umfassenden Überblick über die verschiedenen Bauernhaustypen der Schweiz bietet das Freilichtmuseum Ballenberg mit seinen mehr als 100 original Exponaten. 2013 kürte der Schweizer Heimatschutz (SHS) 50 herausragende Bauobjekte aus der Zeit zwischen 1960 und 1975 als Zeugen der jüngeren Baukultur, so z. B. die beiden Grossüberbauungen Telli in Aarau und die Cité du Lignon in Genf. Objekte aus dieser Zeit prägen viele Gemeinden der Schweiz, gelten jedoch häufig immer noch als Bausünden oder Energieschleudern. Eine echte Auseinandersetzung mit der Baukultur dieser Epoche hat noch nicht stattgefunden. Der Wakkerpreis ist ein seit 1972 durch den Schweizer Heimatschutz verliehener Preis, mit dem politische Gemeinden für beispielhaften Ortsbildschutz ausgezeichnet werden. Die erste Auszeichnung erhielt das Städtchen Stein am Rhein für sein auf mittelalterlichem Grundriss gewachsenes und hervorragend erhalten gebliebenes Stadtbild. Bildende Kunst. Im 16. Jahrhundert hat der Protestantismus die Bildkunst der Schweiz stark beeinflusst. Seither konnten sich einige Schweizer Künstler international durchsetzen. Johann Heinrich Füssli erlangte im 18. Jahrhundert in England unter dem Namen Henry Fuseli beachtlichen Ruhm mit seinen grotesk-fantastischen Bildern. Aus dem 19. Jahrhundert sind unter anderem Arnold Böcklin, Albert Anker und Ferdinand Hodler zu nennen. Alberto Giacometti und HR Giger wurden im 20. Jahrhundert international bekannt. Jean Tinguely hat Menschen mit komplexen bewegenden Skulpturen aus Altmetall fasziniert. Paul Klee wird manchmal als der bedeutendste Maler der Schweiz gefeiert. Die Farbenlehre von Johannes Itten gilt als herausragendes Standardwerk. Sophie Taeuber-Arp gehört als Vertreterin der konkreten, rhythmisch-geometrischen Kunst zu den herausragenden abstrakten Künstlerinnen des 20. Jahrhunderts. Theater. Das Schauspielhaus Zürich gilt als eines der bedeutendsten deutschsprachigen Theater. Zahlreiche Stücke von Bertolt Brecht erlebten hier ihre Uraufführung. Auch die meisten Stücke von Max Frisch und Friedrich Dürrenmatt wurden hier uraufgeführt. In den Jahren 2002 und 2003 wurde es von den Kritikern der Zeitschrift Theater heute zum Theater des Jahres gewählt. Das 1891 eröffnete Opernhaus Zürich ist ebenfalls Ort vieler Erst- und Uraufführungen. So sind internationale Opernstars regelmässig Gast auf der Zürcher Opernbühne. Anfänglich wurden auch Sprech- und Musiktheater aufgeführt. Nach der Eröffnung des Schauspielhauses beschränkte sich das Opernhaus jedoch auf Oper, Operette und Ballett. Weitere Theater von Bedeutung sind das Theater Basel, das Stadttheater Bern sowie das Cabaret Voltaire, der Geburtsort des Dadaismus. Der seit 1957 jährlich von der "Schweizerischen Gesellschaft für Theaterkultur" (SGTK) vergebene Hans Reinhart-Ring gilt als die höchste Auszeichnung im Theaterleben der Schweiz. Musik. Die Schweiz wird nicht als grosse Musiknationen betrachtet. Im 20. Jahrhundert jedoch hat sie eine Anzahl von bekannten Komponisten hervorgebracht. Arthur Honegger, Othmar Schoeck und Frank Martin haben es alle zu internationalem Ruhm gebracht. In Luzern findet jährlich ein internationales Musikfestival statt, das Lucerne Festival. Auch in anderen Orten gibt es ähnliche Veranstaltungen. Das Montreux Jazz Festival ist besonders bekannt. Zudem finden jeden Sommer viele Open-Air-Veranstaltungen statt. Seit den 1950er-Jahren besteht eine lebendige Musikszene aus dem Pop- und Rockbereich. Vor allem seit den späten siebziger Jahren etablierte sich in der Deutschschweiz mehr und mehr die Pop-/Rockmusik mit Dialekttexten (Mundartrock). Heute finden sich Mundarttexte in allen Bereichen der Musik. Besonders erfolgreiche Pop- und Rockmusiker sind etwa DJ BoBo, Polo Hofer, Patrick Nuo, Stephan Eicher, Krokus, Yello, The Young Gods, Gotthard, Sina und Andreas Vollenweider. Viele davon haben in mehreren Ländern Erfolg, einige wie zum Beispiel Polo Hofer, Züri West, Patent Ochsner, Stiller Has und Sina sind aufgrund der Dialekttexte eher an die Schweiz gebunden. Nur wenige Mundart-Interpretationen wie "Hemmige" von Stephan Eicher oder Nach em Räge schint Sunne wurden auch international bekannt. Den Eurovision Song Contest (→ Schweiz beim Eurovision Song Contest) gewann die Schweiz zweimal: bei der Erstausgabe 1956 mit Lys Assia sowie 1988 mit Céline Dion. Im Hip-Hop erfolgreich sind zum Beispiel die schweizerdeutsch rappenden Greis, Gimma, Bligg, Wurzel 5 und Sektion Kuchikäschtli, oder die Westschweizer Stress und Sens Unik mit französischen Texten. Bekannt ist die Zürcher Street Parade  mit gegen eine Million Besuchern die weltweit grösste Techno-Veranstaltung. Die traditionelle Schweizer Volksmusik, die zur Alpenländischen Volksmusik gehört, geniesst einen hohen Stellenwert. Sie wird auch als Ländlermusik bezeichnet. Typisch schweizerische Instrumente sind das Alphorn und das Schwyzerörgeli, aber auch Geige, Bassgeige und Klarinette sind häufig. Im Gegensatz zum übrigen deutschsprachigen Raum bezeichnet Ländler in der Schweiz nicht nur 3/4-taktige Ländlermelodien, sondern eine zu Beginn des 20. Jahrhunderts aus der Volksmusik des 19. Jahrhunderts hervorgegangene Tanz- und Unterhaltungsmusik. Instrumentale Schweizer Volksmusik wird in zahlreichen lokalen Gruppen gespielt, die meisten Spieler haben Amateur-Status, einige sind auch schweizweit bekannt, beispielsweise die Streichmusik Alder, Carlo Brunner oder die Swiss Ländler Gamblers. Die Musik ist überwiegend Tanzmusik wie Ländler oder Schottisch, wird jedoch oft auch ohne Tanzgelegenheit gespielt. Blasmusik-Formationen sind im ganzen Land sehr verbreitet. Das Eidgenössische Musikfest gilt als grösstes Blasmusikfestival der Welt. Auch der traditionelle Jodelgesang wird gepflegt. Die Schweizerische Genossenschaft der Urheber und Verleger von Musik (SUISA) vertritt die Nutzungsrechte aus dem Urheberrecht von Komponisten, Textdichtern und Verlegern von Musikwerken. Film. Die Schweiz kann auf eine der jüngsten Filmgeschichten in Europa zurückblicken. Erst in den 1930er-Jahren und nur durch die Einwanderung von ambitionierten Künstlern und Unternehmern konnte eine Schweizer Filmszene überhaupt erst entstehen. Am bedeutsamsten waren in der frühen Tonfilmära bis etwa 1950 die aus Österreich stammenden Lazar Wechsler, der die Praesens-Film gründete, die damals einzige bedeutende Filmproduktionsgesellschaft, und Leopold Lindtberg, der produktivster und erfolgreichster Regisseur der Praesens-Film war, die insgesamt vier Oscars und Auszeichnungen an allen international bedeutsamen Festivals gewann. Wie in allen europäischen Ländern ist auch in der Schweiz das Filmschaffen heute auf staatliche Filmförderung angewiesen. Die Fördermittel reichen jedoch nur für einen geringen jährlichen Filmausstoss. In der jüngeren Geschichte schafften es daher nur wenige Schweizer Filme zu internationaler Bekanntheit. Mangels konkurrenzfähiger Alternativen sind in allen Sprachgebieten der Schweiz US-amerikanische Filme und Fernsehserien stark verbreitet. Im Kino überwiegen die US-amerikanischen Produktionen. Die Eintrittspreise zählen zu den höchsten Europas. Der vermutlich bekannteste Film aus Schweizer Produktion ist "Die Schweizermacher". Weitere Komödien, die viel Beachtung fanden, sind "Beresina oder Die letzten Tage der Schweiz" von Daniel Schmid und "Gekauftes Glück" von Urs Odermatt. Im Gegensatz dazu ist das Werk "Höhenfeuer" von Fredi M. Murer sehr viel ernster: Es handelt von Inzest in abgelegenen Bergregionen. Ebenfalls in ländlicher Umgebung spielen "Kleine Fluchten" von Yves Yersin. Einen Oscar gewann 1991 die "Reise der Hoffnung" von Xavier Koller. Dieser Film handelt von einer kurdischen Familie, die auf der Suche nach einem besseren Leben in die Schweiz flieht. Weitere Erfolge konnten auch verschiedene Filme mit Schweizer Beteiligung verzeichnen. So erhielt die Hauptdarstellerin (Halle Berry) des Films "Monster’s Ball" des Schweizer Regisseurs Marc Forster für ihre Rolle einen Oscar. Jüngste Erfolge konnte das Schweizer Filmwesen etwa mit "«Achtung, fertig, Charlie!»", "«Mein Name ist Eugen»" und "«Grounding – Die letzten Tage der Swissair»" erzielen. Der erfolgreichste Schweizer im internationalen Filmgeschäft ist der Produzent Arthur Cohn, der bereits viermal für einen Oscar nominiert war und dabei drei Oscars in der Kategorie "Bester Dokumentarfilm" gewonnen hat. Der Schweizer Filmpreis wird jeweils an den Solothurner Filmtagen Ende Januar verliehen. Alljährlich im August findet zudem das Internationale Filmfestival von Locarno statt, eines der bedeutendsten internationalen Filmfestivals weltweit. Das jüngste Festival ist das Zurich Film Festival, das 2005 zum ersten Mal stattfand. Literatur und Philosophie. Da die Schweiz vier Landessprachen besitzt, werden oft vier Bereiche unterschieden: die Literatur der deutsch-, französisch-, italienischsprachigen und der rätoromanischen Schweiz. Bereits im Mittelalter gab es literarisches Schaffen in verschiedenen Klöstern: Im Kloster Muri entstand um 1250 das älteste deutschsprachige Osterspiel und das erste Weihnachtsspiel etwas später in St. Gallen. Obwohl die deutschsprachige Schweizer Literatur immer im Schatten Deutschlands stand, gibt es einige Werke, die im ganzen deutschen Sprachraum bekannt sind, darunter jene von Friedrich Glauser, Johanna Spyri, Friedrich Dürrenmatt, Max Frisch, Hermann Hesse, Adolf Muschg, Jeremias Gotthelf, Gottfried Keller und Conrad Ferdinand Meyer. Geschrieben wird, im Gegensatz zur Musik, wo oft in Mundart gesungen wird, fast ausschliesslich im Schweizer Hochdeutsch. Bedeutende Literaturveranstaltungen in der Schweiz sind die Solothurner Literaturtage und das Buch- und Literaturfestival Basel. Museen. Das Schweizerische Landesmuseum hat seinen Hauptsitz in Zürich und beherbergt die grösste kulturgeschichtliche Sammlung der Schweiz. Sie umfasst sämtliche Epochen von der Urgeschichte bis zum 21. Jahrhundert. Das zweitgrösste historische Museum der Schweiz ist das Historische Museum Bern mit 250'000 Objekten verschiedenster Herkunft. Erwähnenswert sind insbesondere die Burgunderteppiche, die während der Burgunderkriege dem burgundischen Herzog Karl dem Kühnen abgenommen wurden. Das Kunstmuseum Basel ist das älteste öffentliche Museum in Europa. Seinen Ursprung hat es im Kabinett der Familie Amerbach im 16. Jahrhundert. Dieses umfasste eine Sammlung weltberühmter Gemälde sowie den Nachlass von Erasmus von Rotterdam. Das Kunsthaus Zürich besitzt die bedeutendste Sammlung von Werken Alberto Giacomettis, dazu die grösste Munch-Sammlung ausserhalb Norwegens. Das Kunstmuseum Bern ist das älteste Kunstmuseum der Schweiz mit einer permanenten Sammlung und beherbergt Werke aus acht Jahrhunderten. Ein weiteres Museum von Bedeutung ist das Anatomische Museum Basel. Dieses zeigt Originalpräparate und Wachsmodelle von menschlichen Körperbereichen und Organen. Darunter befindet sich das älteste anatomische Präparat der Welt, ein 1543 präpariertes Skelett. Das meistbesuchte Museum der Schweiz ist das Verkehrshaus in Luzern mit seiner grossen Sammlung an Lokomotiven, Autos, Schiffen und Flugzeugen. Das Technorama in Winterthur ist das grösste Science Center der Schweiz. Es führt zahlreiche Experimente vor, die den Besuchern technische und naturwissenschaftliche Zusammenhänge näherbringen. In der Westschweiz thematisieren einige Museen internationale Organisationen. Das Internationale Rotkreuz- und Rothalbmondmuseum in Genf dokumentiert die Geschichte der Internationalen Rotkreuz- und Rothalbmond-Bewegung, und das Olympische Museum in Lausanne dokumentiert die neuzeitliche olympische Bewegung seit 1896. Eidgenössische Feste. Zu den wichtigsten eidgenössischen Festen zählt das Eidgenössische Schwing- und Älplerfest, das Eidgenössische Jodlerfest, das Eidgenössische Turnfest und das Eidgenössische Feldschiessen. Der Wunsch nach nationalen Festen kam bereits 1799 während der Zeit der Helvetischen Republik auf. Die Unspunnenfeste von 1805 und 1808 gelten als Vorläufer der eidgenössischen Feste. Das erste eidgenössische Fest war 1824 das Eidgenössische Schützenfest. Im 19. Jahrhundert spielten die aufkommenden, föderalistisch durch Vereine und Verbände organisierten eidgenössischen Feste eine wichtige Rolle beim Aufbau der Willensnation und des Bundesstaates. Die gemeinsamen Feste drücken die Verbundenheit aller Teilnehmer aus, obgleich diese verschiedenen sprachlichen, kulturellen Gruppen oder Konfessionen angehörten. Heute sind die in regelmässigen Abständen stattfindenden eidgenössischen Feste ein beliebter Treffpunkt für Sportler und Musiker aus allen Landesteilen und bilden für viele Vereine den Höhepunkt in ihrem Vereinsleben. Landesausstellungen und Gartenschauen. 1991 fanden anlässlich der Feierlichkeiten zum 700 Jahre Jubiläum der Eidgenossenschaft dezentrale Feiern in allen Landesteilen statt, so auch die nationale Forschungsausstellung Heureka in Zürich. Mit der G59 fand 1959 in Zürich die erste von bisher zwei Gartenbau-Ausstellungen statt. 1980 folgte um Basel die Grün 80. Internationale Organisationen. Das Hauptquartier des IKRK in Genf Wegen ihrer Neutralität, der politischen Stabilität sowie ihrer humanitären Tradition ist die Schweiz ein beliebter Standort für internationale Organisationen und Verbände aus Politik, Sport, Wissenschaft und Kultur. Besonders viele internationale Organisationen haben sich in Genf, der wohl internationalsten Stadt der Schweiz, niedergelassen. Verwaltungsgebäude des IOC in Lausanne Wissenschaft. Die erste Universität in der Schweiz wurde 1460 in Basel gegründet. Hervorzuheben ist das Wirken des Arztes und Mystikers Paracelsus (Theophrastus Bombastus von Hohenheim). Auf ihn geht die lange Tradition der chemischen und medizinischen Forschung in der Schweiz zurück. Weitere Forschungsschwerpunkte für die Zukunft liegen insbesondere in den Bereichen Nanotechnologie, Informatik, Weltraumforschung und Klimaforschung. Die Wichtigkeit der Wissenschaft für die Schweiz ergibt sich besonders daraus, dass die Schweiz ein rohstoffarmes Land ist. In der Schweiz forschten zahlreiche Nobelpreisträger wie zum Beispiel der Physiker Albert Einstein. Ein internationaler Forschungsstandort ist die Europäische Organisation für Kernforschung (CERN) in Meyrin im Kanton Genf. Dem Eidgenössischen Departement des Innern (EDI) zugeordnet, jedoch nicht unterstellt, sind die beiden technischen Hochschulen ETH in Zürich und EPF in Lausanne. Den technischen Hochschulen über den ETH-Bereich angeschlossen sind das Paul Scherrer Institut (PSI), die Eidgenössische Materialprüfungs- und Forschungsanstalt (Empa), die Eidgenössische Forschungsanstalt für Wald, Schnee und Landschaft (WSL) und die Eawag. Dem EDI angegliedert sind die Swissmedic und das Nationalmuseum. Über das Bundesamt für Kultur (BAK) untersteht dem EDI die Schweizerische Nationalbibliothek. Innerhalb des Eidgenössischen Departements für Wirtschaft, Bildung und Forschung (WBF) betreibt das Bundesamt für Veterinärwesen (BVET) das Institut für Virologie und Immunologie (IVI). Das Bundesamt für Landwirtschaft (BLW) betreibt die drei Forschungsinstitute der Agroscope. Das Eidgenössische Departement für Verteidigung, Bevölkerungsschutz und Sport (VBS) betreibt über das Bundesamt für Bevölkerungsschutz (BABS) das Labor Spiez. Die meisten übrigen Universitäten und Fachhochschulen werden von den Kantonen, einige Fachhochschulen auch privat betrieben. Für die Koordination zwischen Bund und Kantonen sorgt die Schweizerische Universitätskonferenz. Die Rektorenkonferenz der Schweizer Universitäten vertritt die Interessen der Universitäten gegenüber den Behörden der Kantone und des Bundes. In der Schweiz existieren diverse Einrichtungen und Stiftungen zur Förderung der wissenschaftlichen Forschung. Insbesondere zu erwähnen ist dabei der Schweizerische Nationalfonds (SNF). Die Schweiz ist Mitglied und Gründungsstaat der Europäischen Weltraumorganisation ESA. Der Schweizer Astronaut Claude Nicollier flog im Rahmen eines Kooperationsprogramms der ESA mit der NASA mit vier verschiedenen Raumfähren viermal ins All. Sport. Die gebirgige Topographie des Staats hat das Freizeitverhalten seiner Einwohner nachhaltig beeinflusst. So war Ende des 19. bzw. Anfang des 20. Jahrhunderts Skifahren eine der beliebtesten Sportarten. Mit dem Wachstum von Touristenresorts in den Bergen hat sich die Bevölkerung schliesslich zu einer eigentlichen Wintersportnation entwickelt. Skifahren, Langlauf und in neuerer Zeit Snowboarden stehen hoch im Kurs. Ebenfalls von den Bergen geprägt wurden die im Sommer praktizierten Sportarten Wandern und Bergsteigen. In organisierter Form den grössten Zulauf haben in der Schweiz die zahlreichen Turnvereine, von denen in der Regel in jedem Dorf mindestens einer existiert. Zu den sogenannten «typisch schweizerischen» Sportarten zählen das Schwingen und das Hornussen. Dabei erfreut sich das Schwingen einer anhaltenden Beliebtheit, währenddessen das früher sehr verbreitete Hornussen nur noch eine Randsportart darstellt. Ebenfalls rückläufig ist das früher von der Armee geförderte Schiessen. Einen hohen Stellenwert geniessen die Teamsportarten, allen voran Fussball, vor Handball, Volleyball und Unihockey (nach aktiver Beteiligung der Bevölkerung) (→ Liste der höchsten Sportligen in der Schweiz). Profisportarten, die von einem Grossteil der Bevölkerung verfolgt werden, sind wiederum Fussball (→ Fussball in der Schweiz) und Eishockey (→ Eishockey in der Schweiz). Die Eishockey National League A gehört zu den stärksten der Welt. Swiss Olympic ist die Dachorganisation der Schweizer Sportverbände. Viele bedeutende Weltsportverbände, unter anderem die IIHF, die FIFA, die FIS und die ISU, haben ihren Sitz in der Schweiz. Eine besondere Stellung hat Lausanne, das als Sitz des Internationalen Olympischen Komitees sowie des Internationalen Sportgerichtshofs zuweilen auch als «Sporthauptstadt» bezeichnet wird. Darüber hinaus hat der europäische Fussballverband UEFA seinen Sitz in Nyon (→ Weltsportverbände mit Sitz in der Schweiz). Die Schweiz brachte zahlreiche erfolgreiche Sportler hervor, insbesondere im Ski- und Bobsport, wo besonders in den 1970er- und 1980er-Jahren Schweizer Sportler die Klassemente anführten. In jüngerer Zeit gelangen Schweizer Sportlern einzigartige Erfolge, v. a. im Tennis mit Roger Federer, den beiden Grand-Slam-Turnier-Siegern Martina Hingis und Stanislas Wawrinka, der Serienweltmeisterin im Orientierungslauf Simone Niggli-Luder, der Triathletin Natascha Badmann, die sechsmal den Ironman Hawaii gewann oder dem Segel-Syndikat Alinghi. Die Schweiz und Österreich waren Gastgeberländer der UEFA Fussball-Europameisterschaft 2008, ausserdem fanden im Jahr 1954 die Fussball-Weltmeisterschaften in der Schweiz statt. Das Finalspiel Ungarn–Deutschland ging als Wunder von Bern in die Geschichte ein. 2009 richtete die Schweiz bereits zum zehnten Mal die Eishockey-Weltmeisterschaft aus. Daneben wurden auch eine Vielzahl von Weltmeisterschaften der FIBT in der Schweiz ausgetragen. So fanden in St. Moritz auf der einzigen Natureisbahn der Welt, dem Olympia Bobrun St. Moritz–Celerina, bereits zwanzig Mal Bob-Weltmeisterschaften statt. 2014 fanden in Zürich die Leichtathletik-Europameisterschaften statt. St. Moritz war Austragungsort der Olympischen Winterspiele 1928 und 1948 (→ Olympische Geschichte der Schweiz). Im Jahr 2006 fanden 230'000 Sportveranstaltungen in der Schweiz statt mit einem direkten Gesamtumsatz von 1,2 Milliarden Schweizer Franken, davon waren 68 Grosssportveranstaltungen mit einem Umsatz von 355 Millionen Franken. Zu den bedeutendsten regelmässigen Sportveranstaltungen gehören die Leichtathletikmeetings Weltklasse Zürich und Athletissima in Lausanne, die Tennisturniere ATP Basel, ATP Gstaad und WTA Zürich, die Springturniere CSI Zürich und CSIO Schweiz in St. Gallen, das Eishockeyturnier Spengler Cup in Davos, die Radrundfahrt Tour de Suisse sowie die Skiweltcuprennen in Adelboden (Chuenisbärgli), St. Moritz, Lenzerheide und Wengen (Lauberhornrennen). Sputnik. Sputnik (für „Weggefährte“, „Begleiter“, in astronomischer Bedeutung „Trabant“ und „Satellit“) war der Name der ersten zehn sowjetischen Satelliten, die eine Erdumlaufbahn erreichten. Sputnik 1 war am 4. Oktober 1957 der erste künstliche Erdsatellit auf einer Umlaufbahn und gilt als Startschuss der sowjetischen Raumfahrt. Das Wort "Sputnik" gehört zu den 100 Wörtern des 20. Jahrhunderts und ist in einigen (insbesondere osteuropäischen) Ländern ein Synonym für Satellit. Nach Sputnik 10 wurde der Name nicht mehr zur Benennung von Erdsatelliten, sondern nur noch zur Bezeichnung von im Erdorbit gestrandeten Raumsonden verwendet. Konstruktion. Der Chefkonstrukteur Sergei Pawlowitsch Koroljow war im Westen bis zu seinem Tode 1966 unbekannt und wurde deshalb "Mister X. " genannt. Er hatte nach seiner Ausbildung am Polytechnikum von Kiew an die Technische Universität Moskau gewechselt, wo er sich mit Raketenantrieben befasste. Diese Arbeit stieß auf Interesse bei der Roten Armee und General Tuchatschewski unterstützte ab 1935 Koroljows Team und veranlasste die Gründung eines Instituts zur Entwicklung von Raketengeschossen. Die Herstellung erfolgte in geschlossenen Städten wie Dnipropetrowsk. Aktuelle Berichte nennen Michail Tichonrawow als eigentlichen Entwickler von Sputnik 1. Sputnik 1 – Der Beginn der Raumfahrt. Erste Bahnspuraufnahme der Trägerrakete von Sputnik 1 Bei den Vorbereitungen für das Internationale Geophysikalische Jahr kündigte der US-amerikanische Präsident Dwight D. Eisenhower am 29. Juli 1955 die Beauftragung für einen Erdsatelliten an. Die Sowjetunion reagierte nur vier Tage später mit der Ankündigung eines ähnlichen Programms. Schon am 4. Oktober 1957 – für die westliche Welt unerwartet schnell – startete die Sowjetunion vom Weltraumbahnhof Baikonur aus den kugelförmigen Satelliten (Durchmesser 58 cm) Sputnik 1 mit Hilfe der gleichnamigen Rakete, einer leicht modifizierten Interkontinentalrakete vom Typ R-7. Der 83,6 kg schwere Erdtrabant enthielt ein Thermometer und einen Funksender, der 21 Tage aktiv war und ein Kurzwellensignal (20,005 MHz und 40,003 MHz) ausstrahlte. Damit wollte man beweisen, dass es möglich ist, künstliche Objekte im Weltraum zu orten. Sputnik bewegte sich auf seiner Umlaufbahn zunächst in etwa 96 Minuten einmal um die Erde. Er verglühte 92 Tage nach dem Start, als er wieder in tiefere Schichten der Erdatmosphäre eintrat. Sowjetische Briefmarke anlässlich des ersten künstlichen Satelliten im All Die piepsenden Signale des Sputniks konnten in aller Welt empfangen werden. In Westeuropa fing sie Heinz Kaminski in der Volkssternwarte Bochum als Erster auf. An der Schulsternwarte Rodewisch (Sachsen) wurde der Sputnik am 8. Oktober 1957 erstmals mit Hilfe eines Fernglases gesehen. Dort entstand am 13. Oktober 1957 auch die erste Fotografie der Trägerrakete von Sputnik 1. Die Erkenntnis, dass die Sowjetunion zum Start des ersten künstlichen Erdsatelliten in der Lage war, löste im Westen ein immenses Bedrohungsgefühl aus: Sputnik machte schlagartig klar, dass die USA mit Interkontinentalraketen von der Sowjetunion aus erreichbar waren. Dieses auch als Sputnikschock bezeichnete Phänomen führte in Folge zur Gründung der NASA und zu Umstrukturierungen und verstärkten Anstrengungen im Bildungsbereich der westlichen Industrienationen. Die weiteren Sputnik-Missionen. Insgesamt startete die Sowjetunion zehn Sputniks, den letzten am 25. März 1961, nur 18 Tage vor dem Flug von Juri Gagarin. Alle Starts erfolgten von Baikonur aus unter Verwendung von umgerüsteten Interkontinentalraketen, die ab Sputnik 4 mit einer zusätzlichen Raketenstufe versehen wurden. Sputnik 2. Der zweite von Menschen gebaute Körper in einer Erdumlaufbahn war Sputnik 2, der am 3. November 1957 gestartet wurde und das erste Lebewesen in eine Erdumlaufbahn brachte, die Hündin Laika. Eine Rückkehr zur Erde war nicht vorgesehen und technisch auch noch gar nicht möglich. Diese Tatsache erregte vielfaches Mitleid – insbesondere als die ersten unscharfen Fernsehbilder gezeigt wurden – aber auch enormes Interesse. Vermutlich überlebte Laika den Start mit seinem Gemisch aus Lärm, Vibrationen und Beschleunigung nur einige Stunden, bis sie durch Stress und zu große Hitze (das schnell entwickelte Temperaturkontrollsystem arbeitete nicht zuverlässig) in der engen Kapsel starb. Ursprünglich war geplant, dass Laika zehn Tage überleben und ausreichende Daten ihrer Körperfunktionen liefern sollte – und ihr dann mit portioniertem vergiftetem Futter ein schneller Tod gewährt würde. Sputnik 2 verglühte wegen seines höheren Apogäums (siehe Peri- und Apogäum) deutlich später als Sputnik 1, nämlich am 14. April 1958 nach 162 Tagen im Orbit und etwa 2250 Erdumkreisungen – Umlaufzeit um die Erde in 103,7 Minuten. Der kegelförmige Sputnik 2 mit seiner Startmasse von 508,3 kg, einem Durchmesser der Grundfläche von etwa 2 m und einer Höhe von ungefähr 4 m erregte ungläubiges Staunen bei den westlichen Fachleuten und zeigte deutlich, welche hohe Nutzlast die Trägerrakete befördern konnte. Sie vermuteten den Einsatz einer neuen Rakete, später wurde jedoch bekannt, dass es dieselbe Trägerrakete wie beim Start von Sputnik-1 war. Die Bahnhöhe des zweiten Erdsatelliten betrug zwischen 225 und 1671 Kilometer bei einer Bahnneigung von 65,3 Grad zum Äquator. Sputnik 3. Sputnik 3 (in der Entwicklung "Objekt-D" genannt) sollte eigentlich als erster sowjetischer Satellit ins Weltall starten. Da er nicht rechtzeitig fertig wurde und zu schwer war, nahm Sputnik 1 seinen Platz ein. Am 3. Februar 1958 sollte Sputnik 3 gestartet werden, der Start schlug aber fehl und wurde am 15. Mai 1958 mit einem Ersatzsatelliten wiederholt. Sputnik 3 trug zwölf wissenschaftliche Messinstrumente (Sensoren für Druck, Temperatur und Zusammensetzung der Atmosphäre, Strahlungsmessgeräte, Sensoren für elektrische und magnetische Felder) in den Weltraum, welche die obere Atmosphäre und die Strahlungsgürtel der Erde untersuchen sollten - was aber ebenfalls fehlschlug, da der Bandrekorder für die Messdaten versagte und nur wenige Daten der Sensoren direkt beim Überflug einer Bodenstation empfangen werden konnten. Der Van-Allen-Gürtel war im Januar 1958 vom ersten amerikanischen Explorer entdeckt und nach dem Instrumenten-Entwickler benannt worden. Der Satellit selbst war ein kegelförmiger Körper von 3,57 m Länge, 1,73 m Durchmesser und einer Masse von 1327 kg. Sputnik 3 verglühte am 6. April 1960. Die Bahnhöhe des Satelliten betrug zwischen 226 und 1881 Kilometer. Er umrundete in 106 Minuten einmal die Erde auf einer um 65,2° geneigten Bahn. Sputnik 4. Sputnik 4 (auch Korabl-Sputnik 1 oder Weltraumschiff 1 genannt) wurde am 15. Mai 1960 gestartet. Dies war der erste Prototyp für das ab 1961 eingesetzte Wostok-Raumschiff für bemannte Flüge. Die Bahnhöhe des Satelliten betrug zwischen 312 und 369 Kilometer, später zwischen 307 und 690 Kilometer. Die Umlaufzeit um die Erde betrug 91,2 Minuten. 1962 stürzten Teile von Sputnik 4 auf eine Straßenkreuzung im US-Staat Wisconsin ab. Sputnik 5. Sputnik 5 (auch Korabl-Sputnik 2, bzw. Weltraumschiff 2) startete am 19. August 1960 und trug unter anderem zwei Hunde in den Weltraum: Strelka (russisch für „kleiner Pfeil“) und Belka (russisch für „Eichhörnchen“). Weitere Passagiere waren 40 Mäuse, 2 Ratten und Pflanzen. Nach 18 Erdumkreisungen in einer Bahnhöhe von 306 bis 330 Kilometer und bei einer Erdumkreisung in 90,7 Minuten, landeten am 20. August 1960 beide Hunde sicher wieder auf der Erde. Dies war der zweite Flug des Prototyps der Wostok und ein entscheidender Schritt für die Technik der weichen Landung. Strelka gebar später sechs Welpen, von denen eine, Pushinka, Caroline Kennedy, der Tochter des US-Präsidenten John F. Kennedy, geschenkt wurde. Die Übergabe erfolgte durch den sowjetischen Regierungschef Nikita Chruschtschow. Heute befinden sich die präparierten Körper von Strelka und Belka, ausgestellt in Glaskästen, im "Kosmonautenmuseum" in Moskau. Sputnik 6. Sputnik 6 (oder Korabl-Sputnik 3 bzw. Weltraumschiff 3) war der dritte Prototyp des Wostok-Raumschiffs und trug am 1. Dezember 1960 die Hunde Pchelka (russisch für „kleine Biene“) und Mushka (russisch für „kleine Fliege“) ins All. Die Landekapsel wurde am 2. Dezember 1960 bei der Rückkehr zur Erde aufgrund eines zu steilen Wiedereintrittwinkels zerstört. Sputnik 6 befand sich in einer Bahnhöhe zwischen 187,3 und 265 Kilometern und hatte eine Umlaufzeit von 88,6 Minuten. Sputnik 7. Sputnik 7 (Venera-1 oder Weltraumschiff 4) war eine am 4. Februar 1961 mit einer Molnija-Rakete gestartete Venus-Raumsonde, die aufgrund eines Problems mit der Oberstufe der Rakete die Erdumlaufbahn nicht verlassen hat. Sie umkreiste die Erde in einer Bahnhöhe zwischen 223,5 und 327,6 Kilometern bei einer Bahnneigung zum Äquator von 64 bis 57 Grad. Eine Erdumkreisung dauerte 98,8 Minuten. Sputnik 8. Sputnik 8 war die Oberstufe der Molnija-Rakete, die am 12. Februar 1961 die Raumsonde Venera-1 zur Venus befördern sollte. Sputnik 9. Sputnik 9 (oder Korabl-Sputnik 4 bzw. Weltraumschiff 5) war der vierte Flug des Prototyps des Wostok-Raumschiffs. Er startete am 9. März 1961 mit dem Hund Chernushka (russisch für „Blackie“), einem Kosmonauten-Dummy, einem Meerschweinchen und Mäusen an Bord. Die Landekapsel wurde nach einer Erdumkreisung erfolgreich geborgen. Sputnik 10. Denkmal für die erfolgreiche Rückkehr von Sputnik-10 nahe der Landezone Sputnik 10 (oder Korabl-Sputnik 5), den letzten von insgesamt zehn Sputniks, startete die UdSSR am 25. März 1961 als Test für den Flug Juri Gagarins im April 1961. Dies war der fünfte Flug des Prototyps des Wostok-Raumschiffs. An Bord befand sich der Hund Swjosdotschka (russisch für „Sternchen“) sowie der Kosmonauten-Dummy Iwan Iwanowitsch. Nach einer Erdumkreisung ging die Kapsel in der Nähe des Dorfes "Karscha" knapp 20 km östlich der Stadt Tschaikowski nieder und wurde samt Tier, das den Test heil überstanden hatte, geborgen. Zum Einsatz in allen Fällen kamen auf der R-7 Interkontinentalrakete basierende Trägersysteme, die ab Sputnik 4 eine zusätzliche Raketenstufe trugen (Wostok-Rakete). Sputnik 7 und 8 verwendeten die 4-stufige Molnija-Rakete. Alle Starts erfolgten von Baikonur in der Kasachischen SSR, das wie ähnliche, regelmäßig benutzte Raketengelände der USA und später auch der ELDO als „Weltraumbahnhof“ bezeichnet wurde. Sputnik 19/20/21. Sputnik 19, 20 und 21 waren die Namen von sowjetischen Venussonden. Sputnik 19 sollte am 25. August 1962 gestartet werden, landete jedoch durch einen Fehler der Kickstufe in einer niedrigen Erdumlaufbahn und verglühte drei Tage später in der Erdatmosphäre. Das gleiche Schicksal ereilte Sputnik 20, welcher am 1. September 1962 gestartet wurde und fünf Tage später verglühte. Sputnik 21 wurde am 12. September 1962 gestartet. Er erreichte zwar die Erdumlaufbahn, aber auch hier versagte die vierte Stufe; durch deren Explosion wurde der Satellit zerstört. Sputnik 22. Sputnik 22 war der Deckname einer sowjetischen Marssonde. Diese sollte eigentlich am 24. Oktober 1962 auf den Weg zum Mars gebracht werden. Die Sonde vom Typ 2MV-4 erreichte jedoch nur eine niedrige Erdumlaufbahn, da die Trägerrakete durch die Explosion der Turbopumpe der vierten Stufe 16 Sekunden nach deren Zündung versagte. Weblinks. Zum 50. Jahrestag am 4. Oktober 2007 Seine. Die Seine (/keltisch ') ist ein Fluss in Nord-Frankreich. Sie entspringt in Burgund, fließt von Osten nach Westen und mündet bei Le Havre in den Ärmelkanal. Mit 777 Kilometern Länge ist sie neben der Loire (1004 Kilometer) und den ineinander übergehenden Flussverläufen von Doubs, Saône und Rhône (insgesamt 1025 Kilometer) einer der längsten Flüsse Frankreichs. Das Einzugsgebiet der Seine umfasst etwa 78.650 km². Wichtige Städte an der Seine sind Paris, Troyes und Rouen. In Paris und Rouen befinden sich die wichtigsten Binnenhäfen Frankreichs. Über Kanäle ist die Seine mit Schelde, Maas, Rhein, Saône und Loire verbunden. Am Unterlauf des Flusses im Gebiet der Normandie haben sich für einen Fluss dieser Wasserführung außergewöhnlich große Talschleifen gebildet. Die schiffbare Länge (bis Nogent-sur-Seine) beträgt 560 km. Seeschiffe können den Fluss bis Rouen (120 km im Landesinneren) befahren. Die Uferpromenade der Seine in Paris steht in der Liste des Weltkulturerbes der UNESCO. Quellen der Seine. Die Quelle der Seine liegt auf dem Plateau von Langres, 30 km nordwestlich von Dijon im Département Côte-d’Or im Burgund, über dem Meeresspiegel. Eine Besonderheit ist, dass die Quellen der Seine seit 1864 Eigentum der Stadt Paris sind. Eine künstliche Grotte wurde ein Jahr später errichtet, um die Hauptquelle zu schützen, und die Statue einer Nymphe aufgestellt, die den Fluss symbolisieren soll. Die Hauptstadt hat mittlerweile das Interesse an der Parzelle verloren und sie an die Region Burgund zurückgegeben. Nahe der Quelle befinden sich Überreste eines gallo-römischen Tempels, in dem eine ("Göttin der Seine") verehrt wurde und dessen archäologischen Funde sich heute im Archäologischen Museum von Dijon befinden. Seine in Paris. Blick von der Brücke Pont Neuf Das Tal der Seine. Das Seinetal mit seinem geringen Gefälle und den vielen Mäandern ist bekannt für seine zahlreichen Schlösser („Seineschlösser“), aber auch die dort vorhandene Automobilindustrie, Petrochemie und mehrere Kraftwerke. Inseln in der Seine. Inseln im Flusslauf sind innerhalb von Paris Île Saint-Louis, Île de la Cité (und deren Kristallisationskern) und Île aux Cygnes, weiter flussabwärts Île Saint-Germain, Île Seguin (mit dem Renault-Werk von 1919 bis 1992), Île de la Jatte bei Neuilly-sur-Seine, Île Saint-Denis (mit der Gemeinde L’Île-Saint-Denis), Île des Impressionnistes (oder Île de Chatou), Île aux Dames, Île l’Aumône. Wasserwirtschaft und Ökologie. Oberflächenwasser der Seine wird für die Pariser Wasserversorgung verwendet. Die Abwässer des Großraums Paris werden nach ihrer Reinigung der Seine zugeführt und fließen über Rouen und Le Havre in den Ärmelkanal. Die Seine ist im Winter braun, da sie 400 km lang an landwirtschaftlichen Nutzflächen vorbeiführt. Im Sommer wird sie durch Algen grün gefärbt. Bis Mitte des 19. Jahrhunderts wurden die Pariser Abwässer noch ungeklärt in den Fluss geleitet. Ab etwa 1850 wurden sie in Abwässerkanälen aus der Stadt herausgeführt und seineabwärts in den Fluss geleitet. Danach ging man dazu über, die Abwässer nicht direkt in die Seine zu leiten, sondern zur Düngung von Äckern zu verwenden. Kläranlagen baute man ab Mitte des 20. Jahrhunderts. Im Vergleich zu 1850, als die Seine eine stinkende Kloake war, hat sich die Wasserqualität deutlich verbessert. Heute leben in der Seine wieder 33 Fischarten, darunter Lachse und Forellen. Mündungsgebiet. Karte der Seinemündung um 1875 Drei große Brücken überspannen das breite Flusstal im Mündungsbereich: Die Brotonne-Brücke, die Brücke von Tancarville und der Pont de Normandie. Letztere war zeitweilig die längste Brücke Europas. Die Seine mündet zwischen Le Havre und Honfleur und bildet ab Tancarville ein langgezogenenes Ästuar. Dieses wird von der Pont de Normandie überspannt. 1997 wurde ein 8.528 ha großes Gebiet unter Naturschutz gestellt. Schilfgebiete, Dünen, Sandbänke und Feuchtwiesen bieten Lebensraum für über 250 verschiedenen Vogelarten. Ein Informationszentrum am nördlichen Brückenkopf bietet Naturkundliches zum Naturschutzgebiet und eine Beobachtungsstation. Geschichte. Nach ihrer Hinrichtung 1431 auf dem Scheiterhaufen in Rouen wurde die Asche von Jeanne d’Arc in die Seine gestreut, um einem Reliquienkult vorzubeugen. 1790 ertränkte sich der tschechische Komponist Jean-Baptiste Krumpholz in der Seine, da er zuvor von seiner Frau Anne-Marie (1755–1824) für den böhmischen Komponisten Jan Ladislav Dusík verlassen wurde. Seine war auch der Name eines französischen Départements, das 1968 in vier Départements aufgeteilt wurde: Paris (75), Hauts-de-Seine (92), Seine-Saint-Denis (93) und Val-de-Marne (94). Die Ordnungszahl 75, die zum Département Seine gehörte, blieb dabei Paris erhalten, wodurch die bisherige alphabetische Reihenfolge der Départements allerdings verletzt wurde. Nach strengen Wintern in den Jahren 1197, 1325/26, 1708/09 kam es zu Hochwasser in Paris, bei dem Brücken weggerissen wurden und Pestepidemien ausbrachen. Die letzten schweren Überschwemmungen ereigneten sich im Januar 1910, damals standen in Paris zwölf der 20 Arrondissements sechs Wochen lang unter Hochwasser. Schaltjahr. Als Schaltjahr () wird ein Jahr im Kalender bezeichnet, das im Unterschied zum Gemeinjahr einen zusätzlichen "Schalttag" oder "Schaltmonat" enthält. Das meistens alle vier Jahre stattfindende Schaltjahr im gregorianischen Kalender – einem Sonnenkalender – enthält mit dem eingeschobenen 29. Februar einen zusätzlichen Schalttag. Damit wird das Kalenderjahr längerfristig dem die Jahreszeiten bestimmenden Sonnenjahr (Tropisches Jahr), das Bruchteile eines Tages länger als das 365 Tage lange Gemeinjahr ist, angeglichen. Im Religionskalender des Islam – einem reinen Mondkalender – führt der zusätzliche Schalttag eines gelegentlichen Schaltjahrs zur religiös begründeten Angleichung des Kalenderjahrs an den Zeitraum von 12 Mondmonaten (astronomisches Mondjahr). Das astronomische Mondjahr ist um Bruchteile eines Tages länger als das 354 Tage lange gemeine Mondjahr. In einem im Hintergrund an das Sonnenjahr angepassten Mondkalender (gebundener Mondkalender) – wie im religiösen jüdischen Kalender – wird dem Mondjahr gelegentlich ein 13. Mondmonat (Schaltmonat) zugefügt. Die Einschaltung eines zusätzlichen Tages oder Monats wird auch als "Interkalation" bezeichnet. Sonnenkalender. Ein Sonnenkalender richtet sich im Unterschied zu einem Mondkalender nach dem Lauf der Sonne. Das davon bestimmte Tropische Jahr hat eine Länge von 365,24219 Tagen (ca. 365 Tage, 5 Stunden, 48 Minuten und 20 Sekunden). Diesem Wert kommen die nachfolgend beschriebenen Sonnenkalender mit Hilfe von Einschaltungen mehr oder weniger nahe. Julianischer Kalender. Unter Gaius Iulius Caesar wurde der bis dahin geltende römische Kalender gründlich reformiert; zum Ausgleich der im Lauf der Jahre angewachsenen Differenzen zwischen den Kalenderdaten und den ihnen ursprünglich zugeordneten Sonnenständen ging der Kalenderreform für das Jahr 45 v. Chr. das sogenannte „verworrene Jahr“ von 47 bis 45 v. Chr. voraus. Bei seiner Reform griff Julius Cäsar auf die ägyptische Lösung – das Einfügen eines Schalttages – zurück. Ab 45 v. Chr. galt dann der julianische Kalender. Der Schalttag wurde in jedem vierten Jahr dem Monat Februar hinzugefügt, so dass in jedem vierten Jahr dem 24. Februar ("ante diem sextum kalendas martias", das heißt sechster Tag vor den Kalenden des März) ein zweiter 24. Februar ("ante diem bis sextum kalendas martias", das heißt zweiter sechster Tag vor den Kalenden des März) vorangestellt wurde. Das julianische Kalenderjahr hatte danach eine durchschnittliche Länge von 365,25 Tagen, während das astronomische („tropische“) Jahr näherungsweise 365,24219 Tage umfasst. Der Fehler betrug 1 Tag in etwa 128 Jahren. Gregorianischer Kalender. 1582 fand das astronomische Ereignis Primaräquinoktium (der ersten Tag-und-Nacht-Gleiche im Jahr) schon am 11. März statt. Die aufgelaufene Differenz des julianischen Kalenders gegenüber dem Sonnenjahr betrug also 10 Tage (Festlegung des Frühlingsanfangs auf den 21. März durch das erste Konzil von Nicäa im Jahr 325). Papst Gregor XIII. ließ deshalb zum Ausgleich im Jahr 1582 auf den 4. Oktober den 15. Oktober folgen, wobei die Abfolge der Wochentage nicht verändert wurde; auf einen Donnerstag folgte ein Freitag. Außerdem wurde die julianische vierjährige Schalttagsregelung derart ergänzt, dass die Jahre 1700, 1800 und 1900 (2100, 2200 und 2300...) keinen Schalttag enthalten. Nach der neuen dritten Schaltregel sind diejenigen "Säkularjahre", deren Zahl dividiert durch 400 keine natürliche Zahl ergibt, auch keine Schaltjahre. Dies ist bei den Säkularjahren 1700, 1800, 1900 und 2100 der Fall. Nur noch jedes vierte Säkularjahr (zum Beispiel das Jahr 2000) ist somit ein Schaltjahr geblieben. Das gregorianische Kalenderjahr hat eine durchschnittliche Länge von 365,2425 Tagen. Der Fehler hat sich auf einen Tag pro ungefähr 3231 Jahren verringert, da das tropische Jahr (365 Tage, 5 Stunden, 48 Minuten, 45,216 Sekunden) dem gregorianischen Kalenderjahr (365 Tage, 5 Stunden, 49 Minuten, 12 Sekunden) um 26,739 Sekunden hinterherläuft. So muss voraussichtlich um das Jahr 4813 (Jahr 1582 + 3231 Jahre) ein zusätzlicher Schalttag eingefügt werden, um das Kalenderdatum 21. März wieder in der Nähe des Zeitpunkts des Primar-Äquinoktiums zu positionieren. Auch nach der Einführung des gregorianischen Kalenders war es noch eine Zeit lang üblich, in einem Schaltjahr den 24. Februar zu verdoppeln (siehe Missale Romanum, nebenstehendes Bild). Bei der Zählung der Kirchentage in der katholischen Kirche galt diese Praxis sogar noch bis 2001. Erst seitdem wird in den Ausgaben des "Martyrologium Romanum" die Durchnummerierung der Kalendertage zugrunde gelegt und folglich der 29. Februar verwendet. Orthodoxer Kirchenkalender. Das gregorianische Kalender-Jahr ist im Durchschnitt etwas länger als das Sonnenjahr. Deshalb schlug die orthodoxe Kirche, nachdem sie jahrhundertelang die gregorianische Kalenderreform verweigert hatte, in jüngster Zeit folgende Schaltregel vor: Abweichend vom gregorianischen Kalender sind die Säkularjahre nur dann Schaltjahr, wenn sie durch 900 geteilt den Rest 200 oder 600 ergeben. Damit wäre das Jahr 2800 kein Schaltjahr, sondern erst das Jahr 2900. Das Kalenderjahr nach dem orthodoxen Kirchenkalender hat eine durchschnittliche Länge von 365,24222 Tagen. Die Differenz zum astronomischen Jahr ist ungefähr ein Zehntel der des gregorianischen Kalenderjahrs. Französischer Revolutionskalender. Im Französischen Revolutionskalender war auch alle vier Jahre ein Schaltjahr. Man begann mit den Jahren 3, 7 und 11 der neuen Jahreszählung. Im Jahr 15 war der Kalender schon nicht mehr in Anwendung. Mittelfristig sollte wie im gregorianischen Kalender geschaltet werden. Langfristig sollte eine bessere Anpassung an das Sonnenjahr erreicht werden. Man diskutierte, jedes 3600. oder 4000. Jahr zu einem Gemeinjahr zu machen. Bei einem alle 3600 | 4000 Jahre fehlenden Schalttag wäre das durchschnittliche Kalenderjahr 365,24222 | 365,24225 Tage lang gewesen (gregorianisch: 365,24250 Tage; tropisches Jahr: 365,24219 Tage). Lunarkalender. In Lunarkalendern werden "Schaltmonate" benötigt, um mit der synodischen Periode des Mondes von 29,530589 Tagen konform zu laufen. Dabei bietet sich ein regelmäßiger Wechsel von „vollen Monaten“ zu 30 und Schaltmonaten („hohler Monat“) zu 29 Tagen an. Mit Sonderregeln werden die fehlenden 0,0306 Tage pro Monat (Metonischer Zyklus, Kallippischer Zyklus und andere) korrigiert. Daneben gibt es auch "Schalttage", um das Lunarjahr mit zwölf Mondmonaten von etwa 354 Tagen durch Einschalten von meist elf „Toten Tagen“, der Zeit zwischen den Jahren, auf einen nicht-interkalierenden Mondkalender zu ergänzen. Islamischer Kalender. Im islamischen Kalender, einem synodischen, also reinen Lunarkalender, ist die Bestimmung eines Schaltjahres wie folgt festgelegt: Nach einem gebräuchlichen System sind alle Jahre, die bei einer Division durch 30 einen Rest von 2, 5, 7, 10, 13, 16, 18, 21, 24, 26 oder 29 haben, Schaltjahre. Nach diesem System haben im islamischen Kalender alle ungeradzahligen Monate 30 Tage und alle geradzahligen Monate 29 Tage. In Schaltjahren wird dem zwölften Monat ein Tag hinzugefügt, so dass er dann 30 Tage hat. Somit besteht ein Jahr des islamischen Kalenders durchschnittlich aus 354,36667 Tagen. Astronomisch dauern 12 Lunationen 354,367068 Tage. Das islamische Mondjahr ist also um 34,6752 Sekunden zu kurz. Dennoch ist eine gute Näherung in Hinblick auf die Mondphasen erreicht: Erst nach 2492 islamischen Kalenderjahren (also nach 29.904 Lunationen, oder zirka 2418 Sonnenjahren) müsste ein zusätzlicher Schalttag eingeschoben werden, um den Kalender mit der Mondphase wieder im Einklang zu bringen. Gegenüber dem Sonnenjahr ist das islamische Jahr allerdings um 10,876 Tage zu kurz. Deswegen wandert der islamische Jahresbeginn alle 34 Jahre einmal rückwärts durch alle Jahreszeiten. Jüdischer Kalender. Der jüdische Kalender ist ein Lunisolarkalender beziehungsweise ein gebundener Lunarkalender. Seine Bindung an das Sonnenjahr wird mit Hilfe des Meton-Zyklus vorgenommen. Das Kalenderjahr besteht aus 12 Mond-Monaten mit insgesamt 353, 354 oder 355 Tagen oder aus 13 Mond-Monaten mit insgesamt 383, 384 oder 385 Tagen. Die Schwankungen um einen Tag sind durch religiöse Bräuche bestimmt, sie haben keine astronomische Ursache. In allen Jahren, die bei einer Division durch 19 einen Rest von 0, 3, 6, 8, 11, 14 oder 17 haben, wird vor dem Monat "Adar" ein Schaltmonat mit 30 Tagen eingefügt. Dieser heißt dann Adar aleph oder Adar rischon (erster Adar), der „normale“ Adar wird zum Adar beth bzw. Adar scheni (zweiten Adar). Alle Feste finden erst im Adar beth statt. Das ist eine Analogie zum Schalttag im julianischen und im gregorianischen Kalender, bei dem im Schaltjahr ursprünglich der 24. Februar verdoppelt wurde. Die Verdopplung ist nicht mehr zu erkennen, seit der Einfachheit halber im üblichen Rhythmus weitergezählt wird. Heute wird der 29. Februar als Schalttag eingefügt. Das langjährige Mittel aus den sechs verschiedenen Jahreslängen beträgt 365,2468 Tage. Der Lauf der Sonne wird mit einem kleineren Fehler als im julianischen Kalender nachgebildet. Die Abweichung beträgt einen Tag in etwa 219 Jahren (julianisch: in etwa 128 Jahren). Chinesischer Kalender. Schaltjahre im traditionellen lunisolaren chinesischen Kalender haben 13 Monate mit 383, 384 oder 385 Tagen statt der zwölf des Gemeinjahres mit 353, 354 oder 355 Tagen. Zur Berechnung zählt man die Anzahl der Neumonde zwischen dem elften Monat eines Jahres (dem Monat der Wintersonnenwende) und dem elften Monat des folgenden Jahres. Fallen in diesen Zeitraum 13 Neumonde, so wird ein Schaltmonat eingefügt. Der erste Monat, der keinen zhong qì enthält, erhält dieselbe Nummer wie der Vormonat mit einem Zusatz als Schaltmonat. Wenn der Schaltmonat beispielsweise dem zweiten Monat (二月) folgt, dann heißt er einfach „Geschalteter Zweiter Monat“ (). Ägyptischer Kalender. Der im Altertum gebräuchliche altägyptische Verwaltungskalender, auch Wandeljahrkalender genannt, verwendete Jahre, die regulär 365 Tage dauerten und in 12 Monate a 30 Tage aufgeteilt waren. Die fehlenden fünf Tage wurden als "Heriu-renpet" eingeschaltet. Im Jahr 238 v. Chr. ordnete Ptolemaios III. an, alle vier Jahre einen zusätzlichen Tag (Schalttag) einzufügen, um die Verschiebung der Jahreszeiten zu verhindern. Von einer ähnlichen Struktur geht auch der französische Revolutionskalender aus. Maya-Kalender. Auch der Haab-Kalender des Maya-Kalenders verwendet Schalttage: Hier wird nach dem Standardjahr von 360 Tagen (18 Perioden mit je 20 Tagen) ein 5-tägiger Schaltmonat ("Uayeb" „namenlos“) eingefügt. Science-Fiction. Science-Fiction (engl. ' „Wissenschaft“, ' „Fiktion“) ist ein Genre der Literatur und des Films, aber auch anderer Bereiche wie etwa der bildenden Kunst oder der Videospiele, das den Einzelnen, die Gesellschaft oder die Umwelt in (oft radikal) alternativen Konstellationen betrachtet. Science-Fiction entwirft – häufig in die Zukunft verlegte, teilweise auch räumlich entfernte – Konstellationen des Möglichen und beschreibt deren Auswirkungen. Dabei werden reale wissenschaftliche und technische Möglichkeiten mit fiktionalen Spekulationen angereichert. Schreibweisen. Neben Science-Fiction ist die Schreibweise Science Fiction üblich, seltener "Sciencefiction" (nach alter Rechtschreibung "Science-fiction"). Abkürzungen sind Sci-Fi oder SciFi, auch sowie SF. Bezeichnungen. Der Begriff "Science-Fiction" wird in vielen Sprachen als Lehnwort verwendet und stammt von englisch "science" „(Natur-)Wissenschaft“ und "fiction" „Prosa-/Erzählliteratur“. Im Bereich der Literatur gehören zu dieser Gattung Romane, Erzählungen, Drehbücher und andere Formen der Fiktion. Der Begriff hat sich seit den 1930er Jahren im professionellen Bereich und unter Liebhabern etabliert. Die von einigen Sprach- und Literaturwissenschaftlern im deutschen Sprachraum synonym verwendete Benennung für einen Teilbereich lautet "Zukunftsroman" oder "Zukunftsfilm". Weitere Bezeichnungen, die mehr oder weniger exakt als Synonyme verwendet werden, sind "Wissenschaftliche Fantastik" (eine Lehnübersetzung von russisch Научная фантастика, die vorrangig in der DDR üblich war), "utopische Literatur" sowie "fantastische Literatur" (nicht zu verwechseln mit "Fantasy" oder "romantischer Fantastik"). Der Begriff "Zukunftsliteratur" wird gelegentlich ebenfalls als Synonym gebraucht; er stimmt aber nur für jenes Teilgebiet der Science-Fiction, das sich mit der Zukunft beschäftigt. Die Kontroversen über die Bezeichnung des Genres sind kennzeichnend für seine Entwicklung und seine weitgefächerten Themen und Motive, aber auch für politische Anschauungen. Um die Einengung des Genres auf wissenschaftliche/technische Bereiche zu vermeiden, prägten Science-Fiction-Schriftsteller wie Heinlein, Haldeman und Robinson den Begriff "Speculative Fiction," ohne andererseits unter das „anything goes“ der Fantasy zu fallen. Definitionen. Der Ursprung der Science-Fiction fällt zusammen mit dem Ursprung der durch die technische Nutzung der Erfahrungswissenschaften konstituierten Moderne und deren spezifischen Wissenschaftsglauben. Der Begriff wurde erstmals, so der Schriftsteller Felix J. Palma in seinem Buch "Die Landkarte der Zeit," von dem luxemburgisch-amerikanischen Schriftsteller Hugo Gernsback 1926 in seiner Zeitschrift "Amazing Stories" verwendet. In der Naturwissenschaft und ihrer Anwendungsdimension, der Technik, wird das Heil des Menschen gesehen. Parallel zum Wissenschaftsglauben entsteht im 19. Jh. die Wissenschafts- und Technikangst. Dieser Glaube und die Angst verschmelzen zu dem epochal neuen und gespaltenen Lebensgefühl, neomythischer Titan zu sein, der sich vor seiner eigenen Macht fürchtet. Daher die Dystopien beispielsweise von Aldous Huxley und George Orwell. Diese Ambivalenz prägt die Science-Fiction, die sich der Beschreibung der Auswirkungen der Technik auf den Menschen und der utopisch-futurologischen Extrapolation ihrer Auswirkungen besonders verschrieben hat. Manche poststrukturalistisch orientierte Autoren wie Samuel R. Delany vertreten die Ansicht, dass die Undefinierbarkeit ein wesentliches Merkmal von Science-Fiction ist. In der theoretischen Diskussion ist ungeklärt, ob die Science-Fiction ein Genre oder eine Gattung ist, also ob sie sich durch einen relativ festen Bestand von formalen, inhaltlichen oder strukturellen Elementen definieren lässt oder ob Science-Fiction treffender als Modus beschrieben werden sollte, der auf einer grundlegenderen Ebene als der eines Genres die Beschaffenheit der jeweiligen fiktionalen Welt beschreibt. Delany sieht in der literarischen Science-Fiction sogar eine grundsätzlich eigene sprachliche Ausdrucksform, die wie die Lyrik anders gelesen werden muss als normale Erzählliteratur. Science-Fiction wird nicht über den Handlungsort definiert. Das heißt, dass eine Geschichte nicht unbedingt in die Gattung Science-Fiction gehört, nur weil sie in der Zukunft oder im Weltall spielt. Das Beispiel hierfür ist "Star Wars", ein klassisches Märchen an einem Schauplatz, den viele Menschen mit ihrer unkritischen Vorstellung von Science-Fiction verbinden. Science-Fiction sollte darüber definiert werden, dass sie ein Bild unserer Möglichkeiten zeigt und unseren Umgang mit den Konsequenzen dieser Möglichkeiten problematisiert. Damit hat „klassische“ Science-Fiction einen eindeutig aufklärerischen Anspruch. Abgrenzung von Fantasy. Science-Fiction grenzt sich von Fantasy ab. Um Fantasy handelt es sich immer dann, wenn die erzählten Phänomene keinen Bezug zu einer (natur-)wissenschaftlichen Überlegung haben und stattdessen Elemente der phantastischen Literatur verwenden. Wird beides gemischt, spricht man meist von „Science-Fiction/Fantasy“, „SciFi-Fantasy“ oder von „Science Fantasy“. Häufig bedient man sich klassischer Fantasy-Elemente und interpretiert sie um. So werden etwa die Magie der Fantasy in der Science-Fiction häufig gegen Psi-Kräfte, Götter oder Geister gegen evolutionär fortgeschrittene Lebensformen ausgetauscht. Weitgehend Einigkeit herrscht darüber, dass sich Science-Fiction durch eines oder mehrere Elemente auszeichnet, die in unserer normalen Alltagswelt (noch) nicht möglich sind. Für dieses Element hat sich die Bezeichnung "Novum" weitgehend durchgesetzt. Uneinigkeit herrscht darüber, inwiefern sich das Novum von typischen Elementen des Märchens oder der Fantasy unterscheidet. Befürworter der strengen Science-Fiction-Definition argumentieren, das Novum müsse wissenschaftlich erklärbar und rational nachvollziehbar sein. Diese Position ist jedoch umstritten, da in der Praxis die meisten Science-Fiction-Nova naturwissenschaftlich ungeklärt oder spekulativ sind oder es (wenn auch selten) vorkommt, dass heutige wissenschaftliche Grundlagen für Science-Fiction-Ideen hinfällig werden. Typische Nova wie die Zeitreise oder das Überschreiten der Lichtgeschwindigkeit entspringen oft reinem Wunschdenken und basieren nicht auf wissenschaftlichen Fakten, d.h. sie sind unmöglich. In ihrer Plausibilität unterscheiden sie sich kaum von Topoi des Märchens wie fliegenden Teppichen oder Liebestränken. Schwierig wird die Definition durch Erzählungen, die ein Thema im Titel nur nennen, zum Schwerpunkt aber ein anderes Thema wählen. Ein Beispiel hierfür ist etwa H. G. Wells’ Roman "Die Zeitmaschine", in dem die Zeitmaschine eher eine Nebenidee darstellt, die noch die Gattung Science-Fiction signalisiert, während es in erster Linie aber um die Utopie der Morlocks und Eloi geht, die der Horrorliteratur entnommen sind. Auch tritt das Problem auf, dass in einer Science-Fiction-Erzählung zwar nachvollziehbare gesellschaftliche Kritik erscheint, dies aber vor dem Hintergrund allzu undurchdachter technischer Ideen geschieht, die eher der phantastischen Literatur entnommen scheinen. Der Autor Arthur C. Clarke formulierte zu diesem Problem sein Drittes Clarkesches Gesetz: „Jede hinreichend fortschrittliche Technologie ist von Magie nicht zu unterscheiden.“ Vielleicht kann man festhalten, dass in der Science-Fiction "versucht" wird, wissenschaftliche Erklärungen zu liefern, während in der Fantasy die entsprechenden Elemente (große sprechende Spinnen in "Harry Potter") ohne Erklärungen nur einfach hingenommen werden müssen. Veränderungen. Seit die Science-Fiction ihre einstige Nische verlassen und den Massenmarkt erobert hat, scheint es weniger nötig, Wissenschaftliches als konstituierendes Element einzubauen. Fantasy geht immer leichter als Science-Fiction durch. Dass der Zuschauer den „Transporter“ aus "Star Trek" sofort als Science-Fiction-Element identifiziert, hat nichts damit zu tun, dass er nur durch sein Auftreten plausibler oder technisch nachvollziehbarer wäre als der Zauberstab. Es wird nur einfach die wissenschaftliche Rechtfertigung eingespart. Umgekehrt heißt das nicht, dass "alle" Elemente dieser Art von Science-Fiction nur märchenhafter sind. Neuerdings fordert man deshalb meistens keine Wissenschaftlichkeit für die Science-Fiction mehr, sondern nur noch, dass sie Wissenschaftlichkeit für sich "beanspruche". Science-Fiction sei weniger eine Frage der Plausibilität, sondern der Haltung, die ein Film oder Roman gegenüber der dargestellten Welt einnimmt. Science-Fiction wird von vielen Autoren als Märchenerzählung aufgefasst, bei der lediglich die Auswahl der fantastischen Elemente der Zeit angepasst ist – Menschen werden nicht an andere Orte gezaubert, sondern mit technischen Apparaten „gebeamt“ (beispielsweise in "Star Trek"), um die Geschichte plausibler zu machen. Das Novum wird „naturalisiert“, also an die jeweiligen Vorstellungen von Wissenschaft und Technik angepasst. „Alterung“ der Science-Fiction und Fantasy. Science-Fiction ist einer ständigen Aktualisierung der Methoden ausgesetzt. Wie Jules Verne und H. G. Wells noch unvorstellbar riesige Kanonen oder absurd erscheinende dampfgetriebene mechanische Apparate zum Herz der Erzählung machten, erfinden heutige Autoren ähnlich gewagt Apparate für Zeitreisen oder Fortbewegung. Je mehr sich Science-Fiction in ihrer Darstellung, wie Technik und Wissenschaft auszusehen haben, also von einem wissenschaftskritischen Standpunkt entfernt, desto mehr nähert sie sich der Fantasy an. Dies ist einer der Gründe, warum Science-Fiction-Geschichten und insbesondere -Filme schon wenige Jahre nach der Entstehung mitunter naiv oder unfreiwillig komisch wirken. Entwicklungen vollziehen sich schneller, langsamer oder ganz anders als zum Entstehungszeitpunkt des Werkes angenommen. Der Kommunikator etwa in der ersten "Star-Trek"-Serie war in den 1960er Jahren mit seiner planetaren Reichweite nicht einmal als teures Spezialfunkgerät denkbar, wirkt aber im Zeitalter der Mobiltelefonie vorsintflutlich (sofern man bei diesem häufig angeführten Beispiel vernachlässigt, dass Mobiltelefone auf Netze und deren aufwändige Installationen angewiesen sind, während Kommunikatoren jenseits jeglicher Zivilisation und sogar durch solide Planetenkörper hindurch funktionieren). Andere Techniken, wie das Raumschiff oder Holodeck, sind der Entwicklung weit voraus. So bleibt Science-Fiction immer ein Balanceakt zwischen zu starker und zu schwacher Entwicklungsabschätzung. Es gibt allerdings das Genre des Steampunk, bei dem sich die Autoren ganz bewusst auf den Wissensstand einer früheren Epoche zurückversetzen – vorzugsweise des ausgehenden 19. Jahrhunderts – und von dort aus damals vorherrschende Technologien weiterentwickeln. In den letzten Jahren wurde analog hierzu der Begriff „Rocketpunk“ geprägt, um ein Untergenre zu beschreiben, das die klassische SF des "Golden Age" imitiert, indem es von einem Wissensstand von um 1950 ausgeht. Science-Fiction und Fantastik. Bevor Fantasy oder Science-Fiction als eigenes Genre Anerkennung fanden, wurde Fantastik oft (abgrenzend zur Utopie) als Synonym für Science-Fiction verwendet. Eine ältere, aber immer noch gebräuchliche Systematik betrachtet die Fantastik als Gruppe jener literarischen (filmischen etc.) Werke, in welchen aktuell nicht real erscheinende Elemente vorkommen. Science-Fiction ist hier der Zielbereich, der ohne Übernatürliches (wie Zauberei und Fabelwesen) operiert. Bei Fantasy dagegen gehören Magie oder Fabelwesen stets zur Kulisse und zur Handlung. Allerdings gibt es mit der Rollenspielreihe "Shadowrun," in deren Welt diverse Romane spielen, einen solchen Crossover, d. h. in einer zukünftigen, hochtechnisierten Cyberpunk-Welt existieren sehr wohl klassische Fabelwesen wie Elfen oder Drachen, und Magie gibt es dort in verschiedenen Arten. Übernatürliches, das weder mit „klassischer Magie“ noch mit „typischen Fabelwesen“ (Drachen, Elfen, Trolle etc.) zu tun hat, oder Dinge, die (noch) nicht wissenschaftlich-logisch erklärbar sind, werden oftmals unter „Mystery“ zusammengefasst (dieser Begriff wird vor allem im Filmbereich verwendet). Horror kann in dieser Ordnung in jedem der Genres vorkommen. Science-Fiction wird häufig immer noch unter Fantastik (oder Fantasy) eingeordnet. Es gibt kein einheitliches Ordnungssystem für Science-Fiction in der Literatur (im Film, im Theater, in bildender Kunst) zur Abgrenzung von Fantastik oder Fantasy, sodass ein und dasselbe Werk je nach Einstellung mal unter Science-Fiction, mal unter Fantasy etc. geführt wird. Überschneidung mit anderen Genres. Science-Fiction ist also kein puristisches Genre, das sich allen anderen gegenüber verschließt. Im Gegenteil besteht eine der großen Stärken der Science-Fiction, dass alle denkbaren literarischen Strömungen und Stile absorbieren kann. Daraus gehen dann häufig spezifische Subgenres hervor. Im Folgenden sind nur die Überschneidungen mit thematisch relativ eng verwandten Genres kurz dargestellt. Überschneidung mit Horror und Fantasy. Die größte Nähe besteht wohl zu Genres wie Horrorliteratur (Horrorfilm, vergleiche die Kinoreihe "Alien" und "Event Horizon") und Fantasy. Horror beschreibt weniger den Inhalt einer Erzählung als vielmehr den Stil, die Wirkung auf den Leser. Fantasy umfasst jene Fälle, in denen das Geschehene eben nicht mehr scheinbar rational erklärt wird. Von Grenzfällen zur Fantasy wird gesprochen, wenn entweder die Geschichte in einer so weit entfernten Zukunft oder einer so anderen Welt spielt, dass das dort „Natürliche“ auf uns wie „übernatürlich“ wirkt (wie in "Star Wars" oder "Dune," welche eher zum Genre Fantasy gezählt werden können), oder die Kulisse (beispielsweise mittelalterliche Hierarchien) oder die Handlungsstruktur (beispielsweise die Quest) fantasytypisch ist, die Geschichte aber weder mit Magie noch Fabelwesen funktioniert. Obwohl Mary Shelleys Roman "Frankenstein" und Robert Louis Stevensons "Der seltsame Fall des Dr. Jekyll und Mr. Hyde" übernatürliche Elemente enthalten, sind sie geprägt durch die Extrapolation wissenschaftlicher Ideen und gelten daher als Science-Fiction im strengeren Sinn. Dagegen ist Bram Stokers Roman "Dracula" reine Fantasy, so sehr damit tatsächliche historische Wirklichkeiten metaphorisiert sind, was wiederum weder von "Frankenstein" noch von "Dr. Jekyll and Mr. Hyde" gesagt werden kann. Unter dem Oberbegriff Science-Fiction laufende Werke nutzen den Weltraum oder eine zukünftige Welt nicht, um über Fragen menschlicher Entwicklungen zu spekulieren, sondern als exotische Kulisse, vor der traditionelle Genres (Abenteuer, Romanze) ablaufen. Der Begriff hierfür lautet Space Opera – Beispiele sind Filme wie "Krieg der Sterne" "(Star Wars)" oder Kinoserien wie "Flash Gordon" und "Buck Rogers". Ein Beispiel im Romanheftbereich ist die postapokalyptische Serie "Maddrax," in der Science-Fiction und Fantasy mit Horror sowie klassischem Abenteuer, als auch parodistischen Elementen vermischt wird. Je nach Inhalt der erdachten Welt werden erscheinende Romane eher als Science-Fiction oder Fantasy angeboten. Verlage trennen die Genres oft nicht scharf und führen eine „SF&F“-Reihe, in der Science-Fiction, Fantasy und manchmal Horror zusammengefasst sind. Hierfür wurde der Begriff Speculative Fiction als alternative Deutung der Abkürzung "SF" geprägt. Im Deutschen wird von „Fantastischer Literatur“ gesprochen. Überschneidung mit Utopien und Dystopien. Holzschnitt zur Ausgabe von „Utopia“ von 1518 Eine weitere Überschneidung ergibt sich für moderne Science-Fiction-Literatur in der Regel mit der Utopie. Während die Science-Fiction sich häufig mit der Darstellung von Teilaspekten technischer und gesellschaftlicher Entwicklungen begnügt, wurde die Utopie, die einen vollständigen Gesellschaftsentwurf zeigen will, ursprünglich als Trojanisches Pferd benutzt. Ziel war es oft, der Öffentlichkeit unter Umgehung obrigkeitlicher Zensur politische und philosophische Ideen vorzustellen. Allerdings können die klassischen Utopien wie Thomas Morus’ "Utopia" (1516) oder Tommaso Campanellas "La città del Sole" ("Der Sonnenstaat," 1623) kaum als Science-Fiction gelten, da sie zu einem Zeitpunkt entstanden sind, zu dem wissenschaftlicher und technischer Fortschritt noch keine wichtigen Kategorien darstellten; entsprechend weisen die frühen Utopien kein Science-Fiction-Novum auf. Die klassischen Utopien sind meist auf einer fernen Insel angesiedelt. Erst im 19. Jahrhundert, mit der Industriellen Revolution verlagert sich die Utopie in die Zukunft, werden Nova zu typischen Utopieelementen. Die klassische Utopie geht von einem statischen, perfekt organisierten Staatsgebilde aus, an dem höchstens noch im Detail gefeilt werden muss. Seit dem späten 20. Jahrhundert erschienen weniger ganzheitliche Utopien. Ein wichtiges Werk an der Schnittstelle zwischen utopischer Literatur und Science-Fiction war der Roman "L'An 2440, rêve s'il en fut jamais" (Das Jahr 2440. Ein Traum aller Träume) des französischen Autors Louis-Sébastien Mercier aus dem Jahr 1771, der die Reise eines Bewohners von Paris in die bessere Zukunft seiner Stadt und seines Landes beschreibt, wodurch die Utopie zu etwas Erreichbarem statt nur zu einem exemplarischen Entwurf wurde; da das Augenmerk des Autors dabei allerdings rein auf sozio-kulturellen Entwicklungen liegt und praktisch keine technischen Aspekte erwähnt werden (der Protagonist des Romans träumt sich in die Zukunft, indem er 700 Jahre in seinem Bett schläft), wird das Werk nicht als „echte“ Science-Fiction angesehen. Im Gegensatz dazu umfasst die Science-Fiction besonders im 20. Jahrhundert Anti-Utopien (→ Dystopie). Negative Zukunftsvorstellungen waren im Zeitalter der Aufklärung noch nicht verbreitet, doch seit dem 19. Jahrhundert boten die Krisen des Kapitalismus, die Gewaltherrschaft des Totalitarismus und das Grauen der Weltkriege, außerdem die Furcht vor atomaren und anderen Massenvernichtungswaffen oder Katastrophen Stoff für verschiedene dystopische Szenarien. Klassische Dystopien konzentrieren sich wie Utopien auf denkbare zukünftige Gesellschaftsformen, charakterisieren diese jedoch als negativ, um vor gegenwärtigen Aspekten der in die Zukunft extrapolierten Verhältnissen zu warnen. Der Roman "Der Report der Magd" von Margaret Atwood (1985) etwa nimmt durch Krankheiten, Verstrahlung und Umweltverschmutzung verursachte Unfruchtbarkeit zum Anlass, um eine christlich-fundamentalistische und paramilitärisch organisierte Gesellschaft vorzuführen. Häufig dystopisch, oder jedenfalls weniger zukunftsbegeistert als viele Werke der Science-Fiction, sind Werke der "Mundane science fiction," welche auf aus heutiger Sicht unwahrscheinliche Technologien wie interstellare Raumfahrt bewusst verzichten. Als Postapokalypse bezeichnet man derartige Geschichten vor dem Hintergrund einer durch Krieg, Katastrophen oder Ähnliches vernichteten Zivilisation, wie etwa Ape and Essence von Aldous Huxley (1948). Auch ein zukünftiges Weltuntergangsgeschehen wurde zum literarischen Thema, häufig mit Anspielungen auf die christliche Apokalyptik, aus der der für apokalyptische und postapokalyptische Szenarien verbreitete Begriff „Endzeit“ übernommen wurde. Zu den mit dem Oberbegriff Dark Future bezeichneten düsteren Zukunftsbeschreibungen zählen außerdem solche Geschichten, die einen kontinuierlicheren Niedergang zugrunde legen. Mögliche Kriege oder Katastrophen sind dort nicht Hauptthema, im Cyberpunk genannten Subgenre bilden vielmehr totalitäre Überwachung durch Staaten (im Roman "1984" von George Orwell) oder die Bedrohung durch Künstliche Intelligenz (in der Filmreihe "Matrix") oder Konzerne (in der Romantrilogie "Neuromancer") Grundlagen der Handlung. Steampunk ist ein ähnliches Genre, das in Form einer Alternativweltgeschichte jedoch einen Hintergrund mit technischer und sozialer Entwicklung ähnlich dem Viktorianischen Zeitalter nutzt. Überschneidung mit Military-Geschichten. Seit einiger Zeit werden Science-Fiction-Romane, die ein sehr starkes Gewicht auf den militärischen Aspekt legen und in dem Konflikte im Normalfall auf militärische Art und Weise geregelt werden, in die Kategorie "Military Science-Fiction" eingeordnet. Dazu zählen unter anderem klassische Werke wie E. E. Smiths Roman "Skylark," Robert A. Heinleins "Starship Troopers" (siehe die Verfilmung), Hornblower-Science-Fiction-Adaptionen etwa bei David Weber: "Honor Harrington" oder David Feintuch: "Nick Seafort," sowie neuere Space Operas wie John Ringos "Invasion" oder David Drakes "Lt. Leary." Eine eindeutige Abgrenzung zu anderen Sub-Genres der Science-Fiction ist nur selten möglich. Beispielsweise schwankt Lois McMaster Bujolds preisgekrönte Vorkosigan-Saga immer irgendwo zwischen Military-Science-Fiction, Space Opera und Detektiv/Diplomaten-Romanen, wobei die Autorin zusätzlich noch ein Herz für erotische Nicht-Alltäglichkeiten beweist. Aufgrund der oft detailgetreuen Beschreibungen von technischen Anlagen gehören die meisten Military-Science-Fiction-Romane prinzipiell in den Bereich Hard-Science-Fiction. Tatsächlich gibt es aber sogar humoristische Romane wie Robert Asprins Zyklus über die Chaos-Kompanie, die man zur Military-Science-Fiction zählen könnte, obwohl in ihnen das Militär kräftig auf die Schippe genommen wird. Obwohl in vielen Science-Fiction-Romanen militärische Konflikte eine wesentliche Rolle spielen, wird nur ein kleiner Teil dieser Werke mit dem Etikett Military-Science-Fiction versehen. Science-Fiction ist wie jedes literarische Genre immer ein Spiegel des Zeitgeistes und der Themen, die zum Entstehungszeitpunkt die Öffentlichkeit bewegen. Militärische Geschichten häufen sich, seit das Hauptpublikum in den Industrienationen durch die Terroranschläge am 11. September 2001 und die Kriege in Europa wie im nahen Osten mit dem Thema stärker konfrontiert ist. Hard Science-Fiction. Hard Science-Fiction (kurz "Hard-SF") bezeichnet den Zweig der Science-Fiction, der durch ein Interesse an wissenschaftlicher Genauigkeit oder Details geprägt ist. Im Mittelpunkt der Geschichten stehen die Naturwissenschaften (beispielsweise Astronomie, Physik, Gentechnologie) sowie technische Fortschritte. Charakteristisch ist eine sehr technik- und faktendominierte Erzählweise und die Weiterentwicklung aktueller wissenschaftlicher Phänomene. Es gibt zudem Autoren, die das menschliche Wesen in den Vordergrund rücken, die Herausarbeitung tragender Figuren tritt daher gelegentlich zurück. Gewöhnlich ist der technische oder wissenschaftliche Aspekt ein wichtiger Bestandteil der Handlung, wobei die Autoren meistens vom modernsten Wissensstand ihrer Zeit ausgehen, um eigene Ideen logisch weiterzuentwickeln. Als Vertreter aktueller Hard-Science-Fiction gelten Greg Bear, Peter F. Hamilton, Alastair Reynolds, Gregory Benford, Stephen Baxter, Robert Charles Wilson und Robert L. Forward, als Klassiker beispielsweise Isaac Asimov und Arthur C. Clarke. Soft Science-Fiction. Die Soft Science-Fiction (kurz "Soft-SF") befasst sich mehr mit philosophischen, psychologischen, politischen oder gesellschaftlichen Themen. Der Begriff "soft" stammt aus dem Englischen und grenzt dort die genannten Geisteswissenschaften gegen die (harten oder "exakten") Naturwissenschaften ab. Die Soft-SF nutzt technische Errungenschaften eher am Rande und als Hilfsmittel, um die Handlung einzubetten. Der Fokus ist daher mehr auf die Charakterisierung der handelnden Personen und ihrer Emotionen gerichtet, wie unter anderem bei Ray Bradbury, Ursula K. Le Guin oder Philip K. Dick. Ein bekanntes Beispiel der Soft-Science-Fiction stellt Frank Herberts Wüstenplanet-Serie "Dune" dar, in der einem Universum mit fortgeschrittener Technik, aber gleichzeitig einer feudalen Struktur erdacht ist. Die Rolle der Führungsschicht und Fragen nach Verantwortung und Ethik sind tragender Teil der Handlung. Weitere Beispiele finden sich in Werken von Stanisław Lem, in denen er Fiktionen über psychochemische Weltverbesserung oder politische Ideen ins Extrem getrieben hat. Zukunftsliteratur. Zukunftsliteratur ist zum einen das Teilgebiet der Science-Fiction, das sich mit der Zukunft der Menschen befasst und über die Weiterentwicklung der Menschheit spekuliert (vgl. Utopie und Dystopie). Zeitweise war es das Hauptgebiet der Science-Fiction und wurde als Gattungsbezeichnung verwendet, wobei die Zukunft immer eng mit der Gegenwart verbunden war. Einige Autoren versuchten sich auf die nähere Zukunft zu beschränken. Ein Beispiel dafür ist das Konzept der „Nahphantastik“, das beispielsweise von Carlos Rasch vertreten wurde. Zum anderen kann man mit dem Begriff „Zukunftsliteratur“ wissenschaftliche und populärwissenschaftliche Arbeiten über die Zukunft Futurologie bezeichnen. Die Fernsehsendung Die Zukunft ist wild nutzte dazu die Möglichkeiten der modernen Computeranimation. Vorläufer. Cyrano de Bergerac beim Schreiben Die Science-Fiction im engeren Sinne konnte erst mit der Entwicklung von Wissenschaft und Technik entstehen. Neben dem in allen Kulturen vorhandenen sagenhaften, märchenhaften und phantastischen Erzähl- und Literaturgut, wie etwa die Parodie "Wahre Geschichten" von Lukian von Samosata aus dem 2. Jahrhundert, das zwar Anregung gegeben haben mag, aber nicht als Vorläufer im eigentlichen Sinne verstanden werden kann, gibt es im Europa der beginnenden Neuzeit einige Ansätze. Nach der Entwicklung des Fernrohrs wurde der Mond als ausgedehnter Himmelskörper erkannt, und im Zeitalter der Entdecker wurde sogleich von Mondreisen geträumt (Johannes Kepler: "Somnium," dt. "Der Traum", 1634; Cyrano de Bergerac: "L’histoire comique contenant les états et empires de la lune," 1656). Voltaire führte seine Leser im "Micromégas" (1752) in den weiten Weltraum, während Jonathan Swift in Gullivers Reisen (1726) fremde Völker und Kulturen auf der Erde erkundet. Julius von Voß extrapolierte in "Ini. Ein Roman aus dem ein und zwanzigsten Jahrhundert" (1810) militärische und kulturelle Erfindungen, von Massenvernichtungswaffen bis hin zur allgemeinen Sozialversicherung. Im 19. Jahrhundert finden sich Elemente der Science-Fiction bei Autoren wie Edgar Allan Poe, Nathaniel Hawthorne und Fitz-James O’Brien. Ein deutscher Vertreter war E. T. A. Hoffmann. Frühe Werke. Im 19. Jahrhundert begann in Europa die Zeit der eigentlichen Science-Fiction. Bekannteste Vertreter sind Jules Verne mit seinen wissenschaftlich-romantischen Abenteuern und H. G. Wells mit technisch-gesellschaftskritischen Werken. Als Begründerin des Genres aber gilt Mary Shelley mit ihrem Roman "Frankenstein." Auch der weniger bekannte Percy Greg prägte diese Zeit mit, als er in seinem 1880 erschienenen Roman "Across the Zodiac" ein Raumschiff namens "Astronaut" zum Mars fliegen ließ. In einer Rezension zu diesem Buch wurde im selben Jahr auch zum ersten Mal das Wort "space ship" benutzt. Ein deutscher Vertreter dieser Periode ist Kurd Laßwitz, nach dem ein Preis für deutsche Science-Fiction-Literatur benannt ist. Mit seinen technisch-wissenschaftlichen Werken wird Hans Dominik als der deutsche Jules Verne bezeichnet, er ist einer der wichtigsten Pioniere der Zukunftsliteratur in Deutschland. Viel gelesen wurde Mitte des vorigen Jahrhunderts Paul Eugen Sieg mit seinen technischen Zukunftsromanen. Die erste deutsche Science Fiction-Heftromanserie war Der Luftpirat und sein lenkbares Luftschiff, die von 1908 bis ca. 1911/12 in 165 Ausgaben in Berlin erschien. In den USA trat die Science-Fiction vorwiegend in der Kurzgeschichte vor ihr Publikum. Das bekannteste periodisch erscheinende Science-Fiction-Magazin dieser Zeit war das von Hugo Gernsback herausgegebene "Amazing Stories," das sich seit 1926 ausschließlich der Veröffentlichung von Science-Fiction-Geschichten widmete. Allerdings war die von Hugo Gernsback gewählte Bezeichnung "scientifiction," und danach wird diese Periode der Science-Fiction „scientifiction“ genannt. Die aus dieser Zeit stammende Assoziation der Science-Fiction mit „billigen“ Magazinen und aufreißerisch gestalteten Titelseiten (scheußliche Monster und halbnackte, hilflose Frauen) machen es der Science-Fiction schwer, in Deutschland als seriöse Literatur anerkannt zu werden. Diese „Pulps“ jedoch gaben den Science-Fiction-Autoren jahrzehntelang Gelegenheit, ihre unzähligen Kurzgeschichten zu drucken und wegen ihres niedrigen Preises das Publikum zu erreichen, das für Science-Fiction am empfänglichsten war: Kinder und Jugendliche. Völlig unbeeinflusst durch die Pulps schrieb in den 1930er Jahren Olaf Stapledon seine beiden Hauptwerke "Last and First Men" und "Star Maker." Die in diesen teilweise sehr trocken zu lesenden Werken vorkommenden Konzepte sollten für Jahrzehnte einen "Steinbruch" an Ideen für viele Science-Fiction-Autoren bilden. Mit Wir legte bei der Veröffentlichung 1924 Jewgeni Samjatin die Grundlage für dystopische Science Fiction. Das "Golden Age" in den USA. Eine Aufwertung der Science-Fiction begann, als 1937 John W. Campbell, Jr. der Herausgeber von "Astounding" wurde. Während Gernsback mehr auf technische Beschreibungen und einen eher einfachen Stil Wert legte, bevorzugte Campbell Geschichten, die Themen wie Soziologie, Psychologie und Politik behandelten. Von ihm favorisierte Geschichten mussten auf einer verblüffenden Annahme beruhen oder zumindest eine erstaunliche Wendung nehmen. Er brachte Erzählungen später bekannter und erfolgreicher Autoren (Isaac Asimov, Arthur C. Clarke und Robert Heinlein) heraus. Insgesamt ist die Science-Fiction weltweit stark von US-Autoren dieser Zeit beeinflusst. Eine Reihe von Autoren, die nur bedingt der Science-Fiction zuzurechnen sind, versuchten sich im Genre und brachten der Science-Fiction ein seriöseres Image (Karel Čapek, Aldous Huxley, Franz Werfel, Clive Staples Lewis, Ray Bradbury, Kurt Vonnegut, George Orwell, Gore Vidal). In der Philosophie wurde das Problem des möglichen Selbstbewusstseins von Robotern (einem Begriff, den Karel Čapek 1920 in seinem Science-Fiction-Schauspiel „R.U.R.“ erstmals gebrauchte) als Problem der Logik von Gotthard Günther behandelt, der darüber sogar in "Astounding" publizierte, was A. E. van Vogt seinerseits in "Die Welt der Null-A" aufgriff. Nach dem Zweiten Weltkrieg. Die Nachkriegszeit sah insbesondere in den USA eine wachsende Popularität der Science-Fiction. In immer neuen Magazinen fanden die Schriftsteller eine Plattform für ihre Geschichten. Der US-amerikanische Traum schien nach dem gewonnenen Krieg greifbar, die 1950er Jahre waren eine Zeit des Aufschwungs und der Hoffnung. Mit dem Aufkommen des Kalten Krieges machten es sich viele Autoren der Science-Fiction zur Aufgabe, die Ängste vor ihm oder der Atombombe zu benennen, da das Thema ansonsten tabuisiert wurde. Die Autoren wurden inspiriert, über Paranoia und Diktaturen im Weltall zu schreiben. Dadurch entdeckte das Kino die Möglichkeiten der Science-Fiction. Populär waren die am Sonntagvormittag stattfindenden Doppelvorführungen, in denen Kindern Filme wie "Der Tag, an dem die Erde stillstand," "Das Ding aus einer anderen Welt" (nach John W. Campbell), "Alarm im Weltall," "Metaluna 4 antwortet nicht" oder "Die Dämonischen" (nach einer Vorlage von Jack Finney) gezeigt wurden. Filme, die als Mahnmal gegen Atombomben oder – je nach Standpunkt – den Ausschuss von McCarthy oder aber den Kommunismus gesehen werden können. Das Interesse an den Büchern wurde dadurch wach gehalten. In den 1960er Jahren debütierten so unterschiedliche Autoren wie John Brunner oder Frank Herbert, und der bis dahin vor allem als Verfasser zahlreicher Kurzgeschichten hervorgetretene Philip K. Dick erfreute sich einer zunehmenden Popularität. Moderne Science-Fiction. 1957 startete der Sputnik als erster von Menschen geschaffener Satellit, kurz darauf folgte Sputnik 2 mit der Hündin Laika an Bord; 1961 reiste Juri Gagarin als erster Mensch ins All. Die USA waren geschlagen, weshalb Präsident John F. Kennedy verkündete, der erste Mensch auf dem Mond müsse US-Amerikaner sein. Das Interesse an der Science-Fiction bekam wieder einen Schub, zumal infolge des Weltraum-Wettlaufs eine Reihe technischer Errungenschaften gemacht wurden, die bald darauf in den Wohnzimmern der Bevölkerung standen. Aber diese Fortschritte zogen nicht, wie erhofft, Frieden nach sich. Science-Fiction wurde erstmals ernst genommen, denn jeder potentielle Leser der Geschichten meinte, dass ihr Inhalt über kurz oder lang Realität werden könne. Die Probleme und ihre Lösungen, die im Weltraum angesiedelt waren, unterschieden sich nicht allzu sehr von denen auf der Erde. James Graham Ballard und Anthony Burgess stehen für eine Science-Fiction, die der Gegenwart näher war, als ihr lieb sein konnte. Harry Harrison schrieb New York 1999, Philip K. Dick verfasste Das Orakel vom Berge über die USA, die den Zweiten Weltkrieg verloren, Thomas Michael Disch Die Feuerteufel. Nicht nur in der Literatur wurde Science-Fiction zu einem wichtigen Thema. In der Musik fanden ebenfalls seit Ende der 50er Jahre Weltraumbezüge Eingang in die Songtexte. So verband Vokalquartett The Ames Brothers auf dem Album "Destination Moon" zum Beispiel konventionelle Texte über Liebe mit Raumschiffen und entfernten Galaxien. Das Musiklabel RCA Records erhoffte sich durch die Einbeziehung dieses aktuellen Trends steigende Verkaufszahlen. Musiker wie Sun Ra oder Ramases griffen ebenfalls auf Motive des Science Fiction auf und kleideten sie in kosmische Mythen. Frank Herberts Wüstenplanet "(Dune)" war der Beginn eines mehrbändigen Zyklus, der ihm eine ähnlich fanatische Leserschaft einbrachte wie Tolkien mit "Der Herr der Ringe." Herberts Science-Fiction mit seiner Betonung von Regierungsformen, Menschen und weniger der Technik wurde deshalb als Soft-Science-Fiction betrachtet. Auch "Raumschiff Enterprise," im Original "Star Trek," dessen Debüt 1966 auf dem Höhepunkt des Weltraumfiebers erfolgte, kann als solche Soft-Science-Fiction angesehen werden. Obwohl großer Wert auf die technischen Details und deren Stimmigkeit gelegt wurde (Asimov als Wissenschaftler fungierte einige Male als Berater), sind die Handlungen der Folgen nicht sehr SF-typisch. Trotzdem war es die erste weltweit erfolgreiche Serie des Genres, die für Universalismus und Humanismus eintrat, und warb durch die multiethnische Zusammensetzung der Hauptcharaktere für Völkerverständigung (so wurde erstmals ein Kuss zwischen einem weißen Mann und einer schwarzen Frau im US-Fernsehen gezeigt). Speziell die 1987 gestartete Nachfolgeserie ' (Original: "Star Trek: The Next Generation") griff in der Tradition des Vorgängers immer wieder brisante gesellschaftskritische Themen auf, wobei pazifistischen und humanistischen Elementen stärkeres Gewicht beigemessen wurde. Das Gleiche gilt für einige der "Star-Trek"-Kinofilme. In Deutschland liefen Mitte der 1960er sieben Folgen der "Raumpatrouille" mit dem Raumschiff Orion und seiner Mannschaft, die eine vergleichbare Zusammensetzung aufwies. Die Serie bekam später einige Fans, die ihr „Kultstatus“ zusprechen. Die bisher langlebigste Science-Fiction-Serie "Doctor Who" startete 1963 in Großbritannien und wurde dort eine der beliebtesten Fernsehserien überhaupt. Es ist die Geschichte eines Zeitreisenden und seiner Begleiter. Seit 2005 erscheinen nach mehrjähriger Unterbrechung wieder neue Folgen. Eine Weiterentwicklung im Film brachte die Science-Fiction einem weiten Publikum näher: ' (Regie: Stanley Kubrick, geschrieben von Arthur C. Clarke) und "Planet der Affen" (nach Pierre Boulle, beide 1968) zeigten, dass die ‚bösen Außerirdischen‘ das Publikum nicht mehr reizten. New Hollywood begann seine Revolution und erreichte das Science-Fiction-Kino, nicht zuletzt mit Blockbustern wie "Krieg der Sterne." Zwischen diesem „Space-Märchen“ und der "Unheimlichen Begegnung der dritten Art" (beide 1977) liegen bereits Welten, im Stil und der Art. Gleiches gilt für "Alien" (1978) und seinen ersten Nachfolger "Aliens – Die Rückkehr" acht Jahre später. Die meisten folgenden Science-Fiction-Filme waren bunte, teure Actionfilme, auf den Geschmack des jugendlichen Publikums zugeschnitten und kaum noch mit ernsthafter Science-Fiction-Literatur vergleichbar. Eine zunehmend gedanklich und gesellschaftlich geprägte Science-Fiction fand sich seit den 1960er Jahren außerhalb der USA. Insbesondere in den Ländern des Ostblocks konnte die Science-Fiction eine verdeckte Gesellschaftskritik üben. Bekannte Autoren sind beispielsweise der Pole Stanisław Lem, der die ganze Bandbreite vom ernsthaften Zukunfts-Sachbuch über unwirkliche, teils kafkaeske Gegenwelten und satirische Weltraumromane bis zu Computermärchen und witzigen Eigenparodien des Science-Fiction-Genres (Pilot Pirx, Professor Tarantoga) abdeckt, sowie die Brüder Arkadi und Boris Strugazki aus der Sowjetunion. Literarischer Anspruch. Mitte der 1960er Jahre trat mit der "New Wave" eine neue Strömung auf, die sich explizit zum Ziel gesetzt hatte, mit den etablierten Konventionen der Gernsback- und Campbell-SF zu brechen. Die New Wave war am stärksten in Großbritannien von 1963 bis Anfang der 1970er Jahre. Zentrales Organ dieser Strömung, deren Name sich explizit an die französische Nouvelle Vague des Kinos anlehnte, war die britische SF-Zeitschrift "New Worlds;" die beiden wichtigsten Protagonisten waren Michael Moorcock, der vor allem als Herausgeber und Propagator fungierte, und J. G. Ballard, die literarische Leitfigur der Bewegung; William S. Burroughs diente beiden als großes Vorbild. Viele aber stammten aus den USA. Wichtig war die amerikanische Sammlung "Dangerous Visions" (herausgegeben von Harlan Ellison 1967). Als Vorläufer können Alfred Bester, Ray Bradbury, Algis Budrys, Fritz Leiber, Catherine Lucile Moore und Theodore Sturgeon gelten. Die New Wave legte eine experimentellere Haltung bezüglich Form und Inhalt der Science-Fiction an den Tag, verbunden mit einer sich selbstbewusst von der Groschenliteratur abgrenzenden, hochliterarisch ambitionierten Haltung. Die Exponenten der Strömung kritisierten die bestehende Science-Fiction als konservative Literatur, die sowohl inhaltlich wie formal im Stillstand verharrte. Gefordert wurde eine Erneuerung der SF-Literatur, die formal mit der „ernsthaften“ Literatur gleichziehen sollte. Die New Wave war jedoch zu keinem Zeitpunkt eine homogene Bewegung, und der Anspruch auf Erneuerung der Science-Fiction wurde nur in wenigen Beispielen wirklich realisiert. Viele der programmatischen Texte der New Wave sind in sich widersprüchlich. Moorcock verabschiedete sich von der stark inhaltlichen Ausrichtung und plädierte für eine Aufwertung des Stils. Hatten Gernsback und Campbell die Science-Fiction stets inhaltlich definiert und formale Fragen fast vollständig ausgeblendet, bezog sich Moorcock explizit auf ästhetizistische Positionen des 19. und frühen 20. Jahrhunderts. Experimentellere Formen. Tatsächlich zeichnen sich die Texte der New Wave durch eine für die Science-Fiction bis dahin unbekannte Experimentierfreude aus, zahlreiche stilistische Mittel, die der Science-Fiction bis dahin fremd waren, fanden Eingang in den Modus: Montagetechnik, stream of consciousness, Ironie, multiperspektivisches und assoziatives Erzählen, unzuverlässiger Erzähler, eine stark rhythmisierte Sprache und typographische Spielereien. In den meisten Fällen handelte es sich dabei freilich nicht um genuine Neuerungen der Science-Fiction, sondern um stilistische Mittel der avantgardistischen Literatur der Jahrhundertwende und des frühen 20. Jahrhunderts. Die Science-Fiction holte mit der New Wave also vor allem allgemeine literarische Entwicklungen nach. Inhaltliche Neuerungen. Mindestens ein Teil der New-Wave-Autoren strebte aber nicht nur eine formale, sondern eine inhaltliche Erneuerung an. Die New Wave distanzierte sich deutlich von der optimistischen, prinzipiell technikbejahenden Science-Fiction des Golden Age. Der Hoffnung, dass sich die Natur durchschauen und beherrschen lasse, wurde eine klare Absage erteilt; die Grundstimmung der New Wave ist meist pessimistisch und introspektiv. Die Autoren waren weniger an großartigen technischen Neuerungen interessiert, stattdessen thematisierten sie bis dahin tabuisierte Bereiche wie Sex und Drogen; statt der Eroberung des Weltalls war die Erforschung des "inner space" der Seele angesagt. Andere Erzählungen rankten sich um die Funktionsmechanismen der Massenmedien oder ganzer Gesellschaftssysteme, oder behandelten dystopische Themen wie Entropie und Zeitrichtung, oder Krisen- und Weltuntergangsszenarien. Ein politischer Subtext lässt sich bei Brian Aldiss, Thomas Michael Disch ausmachen, der sich teils von marxistischen und sozialistischen Traditionen beeinflusst gegen die Hegemonie der amerikanischen Kultur sowie die Technikgläubigkeit der campbellschen Science-Fiction richtete. In den USA wurde die New Wave in engem Zusammenhang mit der politischen Linken und der Protestbewegung gegen den Vietnamkrieg gesehen. Wichtige Schriftsteller der New Wave. Wichtige Schriftsteller der New Wave waren Brian Aldiss, James Graham Ballard, John Brunner, Samuel R. Delany, Philip K. Dick, Thomas Michael Disch, Harlan Ellison, Philip José Farmer, M. John Harrison, Ursula K. Le Guin, James Tiptree Jr., Michael Moorcock, Robert Silverberg, Clifford D. Simak, Norman Spinrad, Roger Zelazny. Cyberpunk. Eine relativ neue Richtung der Science-Fiction ist der "Cyberpunk," in welchem insbesondere die Idee der durch Computer ermöglichten virtuellen Realität verfolgt wird. Als Begründer dieser Richtung sind vor allem William Gibson (Neuromancer, Count Zero (dt. "Biochips"), Mona Lisa Overdrive) und Bruce Sterling zu nennen. Weitere Vertreter sind beispielsweise Pat Cadigan und in jüngster Zeit Neal Stephenson "(Snow Crash, Diamond Age, Cryptonomicon)." Filmische Werke meist dystopischer Lesart sind zum Beispiel "Matrix" oder "Dark City." Einer der ersten originär filmischen Beiträge zum Thema "Virtuelle Realität" war – neben Rainer W. Fassbinders zweiteiligem Fernsehfilm "Welt am Draht" (1973) – der Film Tron (1982). Repräsentativ für den visuellen Stil des Cyberpunks ist allerdings eher "Blade Runner" (1982), die Verfilmung des Romans "Träumen Androiden von elektrischen Schafen?." Alternative Realität. Eine Unterart der Science-Fiction ist die „Alternative Realität“ (von der engl. „Alternate Reality“, siehe auch Parallelwelt, Paralleluniversum, sowie insbesondere Alternativweltgeschichte). Diese Geschichten beschreiben eine Welt, in der die Geschichte einen anderen Verlauf als in der uns bekannten Realität genommen hat. International bekannt wurden dabei der Science-Fiction-Roman "Pavane" von Keith Roberts, in dem eine Welt nach dem Sieg der spanischen Armada geschildert wird, sowie die Romane "Das Orakel vom Berge" von Philip K. Dick und "Vaterland" von Robert Harris sowie "Wenn das der Führer wüßte!" von Otto Basil, welche die Welt nach einem Sieg des nationalsozialistischen Deutschlands im Zweiten Weltkrieg zeichnen. Einen Roman im Roman zu diesem Thema enthält "Der stählerne Traum" von Norman Spinrad. Im deutschsprachigen Raum brachten die Autoren Carl Amery mit seinem Roman "An den Feuern der Leyermark" (1979), Oliver Henkel, Marcus Hammerschmitt und Christian v. Ditfurth "(Die Mauer steht am Rhein – Deutschland nach dem Sieg des Sozialismus)" die Spielart „Alternative Realität“ voran. Science-Fiction im deutschsprachigen Raum. Die erste Beschreibung einer Mondfahrt in deutscher Sprache war "Die Geschwinde Reise auf dem Lufft-Schiff nach der obern Welt, welche jüngstlich fünff Personen angestellt.." von Eberhard Christian Kindermann aus dem Jahr 1744. Der bereits oben genannte "Traum." von Johannes Kepler erschien zwar 1634, konnte aber erstmals 1871 in Deutsch gelesen werden. Als Vater der deutschsprachigen Science Fiction gilt der 1848 geborene Kurd Laßwitz, nach dem der wichtige deutsche Science Fiction-Preis benannt ist, der Kurd-Laßwitz-Preis, der 1980 ins Leben gerufen wurde. John Clute bezeichnete Laßwitz' 1897 erschienenen Roman "Auf zwei Planeten" als den wichtigsten deutschen SF-Roman. Laßwitz beeinflusste nachfolgende deutsche Autoren, unter anderem Carl Grunert, der zwischen 1903 und 1914 eine Reihe von "Zukunftsnovellen" verfasste. Zu Anfang des 20. Jahrhunderts veröffentlichte Oskar Hoffmann mehrere utopische Abenteuerromane mit Titeln wie "Die Eroberung der Luft. Kulturroman vom Jahre 1940". Für die 1920er und 1930er Jahre sind vor allem Paul Eugen Sieg und Hans Dominik zu erwähnen, deren technisch-wissenschaftliche Zukunftsromane sich in Deutschland großer Beliebtheit erfreuten. Mit Berge Meere und Giganten schuf Alfred Döblin 1924 einen experimentellen Roman, der die Entwicklung der Menschheit bis zum 28. Jahrhundert schildert. Nach dem Zweiten Weltkrieg dauerte es lange, bis wieder größere Science-Fiction-Autoren im deutschsprachigen Raum in Erscheinung traten. Zu den ersten zählte der Österreicher Herbert W. Franke, der ab den 1960er Jahren Romane wie "Das Gedankennetz" veröffentlichte. Mit der Heftroman-Reihe Perry Rhodan startete 1961 eine Science-Fiction-Serie, die fortgeführt wird und nach wie vor eine treue Anhängerschaft besitzt. Wolfgang Jeschke, der als langjähriger SF-Herausgeber beim Heyne Verlag sehr wichtig für die (west-)deutsche Science-Fiction war, veröffentlichte 1981 sein Debüt Der letzte Tag der Schöpfung. Als vielleicht beste und beliebteste SF-Autoren der DDR gelten das Autorenpaar Angela Steinmüller & Karlheinz Steinmüller, deren Roman "Andymon. Eine Weltraum-Utopie" von 1982 ein Klassiker der DDR-Science Fiction ist. Seit seinem preisgekrönten Erstlingsroman "Die Haarteppichknüpfer" (1995) entwickelte sich Andreas Eschbach zum bekannten, beliebten und von der Kritik geschätzten deutschen SF-Autor. Bestseller-Erfolge feierte Frank Schätzing mit seinen umfangreichen, intensiv recherchierten Wissenschaftsthrillern "Der Schwarm" und "Limit." Interessante Einzelwerke kommen immer wieder von Autoren, deren Werke nur teilweise oder ausnahmsweise zur Science Fiction gehören: Beispielsweise von Peter Schmidt, Thomas Lehr "(42)," Christian v. Ditfurth (politische Alternativwelt-Romane), Dietmar Dath (Kurd-Laßwitz-Preis 2009 für "Die Abschaffung der Arten"), oder Christian Kracht (Phantastik-Preis der Stadt Wetzlar 2009 für "Ich werde hier sein im Sonnenschein und im Schatten"). Ausgesprochene Genre-Autoren der jüngeren Generation wären etwa Andreas Brandhorst, Uwe Post oder Frank Borsch. Science-Fiction in der Sowjetunion. Die sowjetische Literatur verfügte über eine eigene sehr reichliche Auswahl an Science-Fiction-Werken, die aufgrund der offiziellen Literaturpolitik anfangs eine sehr viel widersprüchlichere Entwicklung durchlief als dies in westlichen Ländern der Fall war. Der sich fast zeitgleich mit dem englischen Terminus Science Fiction etablierende russische Begriff "Wissenschaftliche Fantastik" ("Nautschnaja fantastika") setzte sich bereits Ende der 1920er Jahre durch. Viele Science-Fiction-Werke lieferten gerade im Zuge der Weltraumeuphorie der späten 1950er und frühen 1960er Jahre utopische Entwürfe für eine zukünftige Gesellschaft, wie zum Beispiel in dem Roman "Andromedanebel" von Iwan Antonowitsch Jefremow aus dem Jahr 1957, welcher mit über 20 Millionen Exemplaren das wohl wichtigste und erfolgreichste Buch dieses nach dem Ende der Stalinzeit sich neu begründenden Genres in der Sowjetunion war. Bereits vor der Oktoberrevolution erschien "Der rote Planet" von Alexander Alexandrowitsch Bogdanow (1908), der eine kommunistische Gesellschaft auf dem Planeten Mars beschreibt. Das Genre der Science-Fiction entwickelte sich seit den 1960er Jahren rasch zu einer Art "Sprachrohr" für liberale, religiöse und politische Kritiker an der sowjetischen Regierung und deren Weltanschauung (Arkadi und Boris Strugazki). Später wurden Science-Fiction-Filme gedreht, welche wiederum dazu dienten, den "sowjetischen Materialismus" herauszufordern. So wird zum Beispiel in Andrei Tarkowskis Film "Solaris" aus dem Jahre 1972 die Konfrontation einer Besatzung einer Raumstation mit einer absolut fremden Lebensform dargestellt, welcher für sie zur metaphysischen Reise in die Innenwelt ihrer eigenen Kultur, Selbsterkenntnis, Liebe und Geduld wird. Erstaunlich ist an der Verwirklichung dieser Filme, dass sie alle in der Breschnew-Ära entstanden, in der sämtliche Formen der organisierten Religion stark eingeschränkt wurden. Science-Fiction in Japan. In Japan war und ist Science-Fiction ein sehr populäres Genre, welches die moderne Popkultur stark beeinflusst hat. Die Ursprünge sind schon in der japanischen Mythologie zu sehen, allerdings tauchen Science-Fiction-ähnliche Stoffe erstmals zur Zeit der Meiji-Restauration in Japan auf. Im Jahr 1857 erschien eine Erzählung, die man als die erste echte japanische Science-Fiction-Geschichte bezeichnen kann. Sie wurde von Gesshū Iwagaki verfasst und trägt den Titel "Seisei kaishin hen" (), was ungefähr bedeutet „Erzählung über die Unterwerfung des Westens“. Neben dieser phantastischen Abenteuergeschichte – mit der in ihr vorherrschenden SF-charakteristischen wissenschaftlichen Denkhaltung – erschienen anfangs vor allem Übersetzungen der Romane von Jules Verne. Nach dem Zweiten Weltkrieg kamen vor allem amerikanische Taschenbücher mit der Besatzungsmacht nach Japan. Das erste Science-Fiction-Magazin, "Seiun" (, „Galaxie“) erschien 1954, wurde aber schon nach einer Ausgabe wieder eingestellt. In den 1960er Jahren, in denen das SF Magazine und "Uchūjin" („Außerirdischer“) veröffentlicht wurden, erlebte Science-Fiction in Japan dann schließlich Popularität. In dieser Zeit veröffentlichten die „Großen Drei“ der japanischen Science-Fiction ihre ersten Werke: Yasutaka Tsutsui, Shin’ichi Hoshi und Sakyō Komatsu. In den 1980er Jahren schwand das Interesse an Science-Fiction dann zunehmend, als das Interesse zu audiovisuellen Medien überging. Diese Zeitspanne wird als die „Winterzeit“ (, "fuyu no jidai") bezeichnet. Viele Autoren veröffentlichten Science-Fiction- und Fantasy-Geschichten als Light Novels um jugendliche Käufer anzulocken. Trotzdem wurde beispielsweise "Ginga Eiyū Densetsu" von Yoshiki Tanaka veröffentlicht. In den 1990er Jahren verschwamm die Grenze zwischen Science-Fiction-Romanen und Light Novels. Obwohl Morioka Hiroyukis Reihe "Seikai no Monshō" eine Light Novel ist, wurde sie von Hayakawa Shobo als Teil des Science-Fiction-Mainstreams veröffentlicht. Andererseits veröffentlichten Light-Novel-Autoren wie Yūichi Sasamoto und Hōsuke Nojiri Hard-SF-Geschichten. Science-Fiction-Serien. Die größte SF-Serie in Literaturform und im allgemeinen Umfang das größte „SF-Universum“ stellt die wöchentlich erscheinende Serie "Perry Rhodan" dar. Die Hauptserie hat dabei vielfältige Spin-Offs in Form von eigenständigen Serien, Computerspielen oder Comics erzeugt. Ebenfalls sehr umfangreich ist das Universum von "Star Trek," das sowohl durch die verschiedenen Fernsehserien und Kinofilme, durch Romane, Comics und Computerspiele gebildet wird. Beim "Star-Wars"-Universum hat ausgehend von den Filmen ein umfassendes Merchandising eingesetzt. Weitere umfangreiche Science-Fiction-Serien sind das "Gundam"-Universum mit mehr als 30 Serien und Filmen in 7 Zeitlinien, das "Macross"-Universum mit mehr als einem Dutzenden Filmen und Serien, die "Stargate"-Fernsehserien, die Babylon 5-Fernsehserie, die "Honor-Harrington"-Buchreihe und das japanische "Seikai-no-Monshō"-Universum. Fan-Gemeinde. Das SF-Genre zeichnet sich durch eine starke Fan-Gemeinde (engl. Fandom) aus, in der sich viele SF-Autoren aktiv beteiligen. In Deutschland hat diese eine bis in die 1950er Jahre reichende Tradition. Viele Fans organisieren sich in den zahlreichen kleinen und großen Fanclubs sowie den zahlreichen Internet-Communitys, die nicht selten von den einschlägigen Verlagen unterstützt werden. In jüngerer Zeit entstehen Online-Communitys, die die Veröffentlichung eigener Science-Fiction-Kurzgeschichten im Internet ermöglichen, so zum Beispiel "Orion’s Arm" oder "Galaxiki." Wichtige deutsche SF-Magazine sind "Nautilus - Abenteuer & Phantastik," "phantastisch!," "Nova," "Exodus," der von Franz Rottensteiner herausgegebene Quarber Merkur und das Fantastik-Magazin Pandora. Eine Informationsquelle ist das umfangreiche SF-Jahrbuch "Das Science Fiction Jahr" aus dem Heyne Verlag. Anlaufstellen für Fragen und Diskussionen zur Science-Fiction sind neben den Fanclubs die Science-Fiction-Newsgroups der de.rec.sf.*-Hierarchie, sowie zahlreiche Internetforen und Chats. Neben der Arbeit an vielfältigen Publikationen (Fan-Magazine, "Fanzine") und Chatrollenspielen befassen sich engagierte Fan-Gruppen häufig mit der Organisation der zahlreichen SF-Conventions, kurz "Cons." Die bedeutendste SF-Veranstaltung dieser Art ist die "World Science Fiction Convention," kurz "Worldcon," die mit dem "Hugo Award" einen der begehrtesten Preise der SF-Literatur vergibt. In Deutschland gehören der "DORT.con" in Dortmund und der "Elstercon" in Leipzig, die internationale Autoren als Ehrengäste einladen, zu den wichtigeren Conventions mit Schwerpunkt auf SF-Literatur. Der "FedCon" hingegen gilt unter den vor allem an Film und Fernsehen orientierten "Media Conventions" als größte Star Trek- und Science-Fiction-Veranstaltung Europas. Verwendung des Begriffs im übertragenen Sinn. "Science-Fiction" ist als – manchmal abwertend gemeinte – Bezeichnung für technische Gegenstände oder Technologien in die Alltagssprache eingegangen, die damit als „in ferner Zukunft liegend“ oder als „Phantasterei“ klassifiziert werden. Der Sprecher will ausdrücken, dass er die beschriebene Sache als unrealistisch oder als „Zukunftsmusik“ ansieht. Damit geht teilweise einher, dass gleichzeitig die technische Machbarkeit überhaupt und damit die Sinnhaftigkeit bezweifelt wird. So wurde etwa in den 1980er Jahren das US-Forschungsprogramm zur Raketenabwehr im Weltraum, die Strategic Defense Initiative (SDI), von Kritikern häufig als Science-Fiction bezeichnet, was sich in dem gern verwendeten Synonym "Star Wars" zeigte. Nachträglich stellte sich heraus, dass die Projektziele tatsächlich utopisch gewesen waren, und die technische Machbarkeit vor allem von Edward Teller massiv geschönt präsentiert worden war. Eine aktuellere Verwendung findet sich bei einer von der Piratenpartei unterstützten Initiative gegen das EU-Projekt INDECT zur umfassenden Überwachung: "Was wie wirre Science Fiction klingt, könnte ab 2013 schwer zu begreifende Wirklichkeit werden. Science Fiction war gestern. INDECT ist morgen. INDECT verbindet sämtliche Daten aus Foren, Social Networks (beispielsweise Facebook), Suchmaschinen des Internets mit staatlichen Datenbanken, Kommunikationsdaten und Kamerabeobachtungen auf der Straße." Schauspieler. Als Schauspieler werden Akteure bestimmter künstlerischer und kultureller Praktiken bezeichnet, die mit Sprache, Mimik und Gestik eine Rolle verkörpern oder über eine (Kunst)figur mit dem Publikum spielen. Schauspieler sind Personen, die (berufs- oder laienmäßig) in Theater, Film oder Fernsehen unter Anweisungen (Drehbuch, Regieanweisung) oder improvisierend in ihrer spezifischen Form der darstellenden Kunst tätig sind. Definition. Der Dramatiker und Kritiker Eric Bentley definierte Schauspiel als: "A verkörpert B, während C zuschaut." Bentleys Definition macht deutlich, dass die Darstellung durch den Schauspieler viel mit der Vorstellung des Zuschauers zu tun hat. Erst in der Wahrnehmung des Zuschauers kann ein Bild der dargestellten Person entstehen. Gleichzeitig abstrahiert Bentleys Definition von allen historischen oder kulturellen Besonderheiten, die spezifische Formen der Schauspielerei, künstlerische Konventionen des Theaters bzw. Films usw. kennzeichnen. Demnach ist es für einen Schauspieler keineswegs zwingend, dass er seiner Tätigkeit regelmäßig oder professionell nachgeht, dass er die Darstellung einübt oder generell das Darstellen systematisch erlernt, dass er sich nach einer vorher festgelegten Anweisung richtet (er kann auch improvisieren oder extemporieren) oder das Schauspielen nur an dafür speziell eingerichteten Orten (auf einer Bühne oder in einem Studio) ausübt. Geschichte. Die Ursprünge schauspielerischer Aktivitäten lassen sich zeitlich nicht auf ein bestimmtes Datum festlegen, bei Ausgrabungen stieß man jedoch auf prähistorische Masken und bildliche Darstellungen von maskierten Menschen, die auf Vorgänge des Überkleidens, Verkörperns und Verwandelns hindeuten. Die Ethnologie hat schauspielerisches Verkörpern und Masken bei allen indigenen Völkern beobachtet. Frühe idealistische Auffassungen führten Schauspielerei allgemein auf einen „mimetischen Urtrieb“ und eine angeborene Lust am Nachahmen zurück. Die heutige Forschung geht davon aus, dass der Ursprung schauspielerischer Betätigung in Riten liegt, mit denen die vorgeschichtlichen Menschen überlebenswichtige Handlungen (z. B. bei der Jagd) und erwünschte soziale Verhaltensweisen nachahmend einübten oder als unbeherrschbar erlebte Naturkräfte durch Verkörperungen (Dämonen, Götter) zu beschwören versuchten. Auch Fundstücke wie Masken und Zeichnungen sowie ethnologische Beobachtungen weisen auf Zusammenhänge zu Tieren bzw. essentiellen Naturvorgängen (Sonnenlauf, Niederschlag, Fruchtbarkeit usw.) hin. Auf dieser Grundlage lässt sich Schauspielen als eine anthropologische Grundkonstante begreifen. Spezialisierte oder (semi)professionelle Schauspieler gibt es in Europa seit der Antike (siehe Theater der griechischen Antike, Theater der römischen Antike); die Nähe zur vorhellenischen Praxis wird in der frühen Antike noch dadurch deutlich, dass die Schauspieler in der Regel Masken tragen. Diese (vor)berufliche Tradition findet im europäischen Mittelalter und in der Frühneuzeit vor allem deshalb keine Fortsetzung, weil das Theater – der Hauptort schauspielerischer Betätigung – durch die Kirche streng geächtet ist; schauspielerische Betätigung ist allenfalls als „Possenreißen“ und Nebenbeschäftigung von Gauklern denkbar, die als Vaganten (Fahrendes Volk) die Jahrmärkte bereisen und einen dementsprechend niedrigen sozialen Status innehaben. Zur Zeit der Säkularisierung waren spezialisierte Schauspieler zunächst in den adeligen Hoftheatern und Opern sowie in den bürgerlichen Theatern Englands (Elisabethanisches Theater) und Italiens (Commedia dell’arte) tätig. Das Hoftheater mit seiner vorwiegend auf Repräsentation, Festlichkeit und Erhabenheit zielenden Kultur verlangte noch nach einem präsentierenden und vortragenden Schauspielertyp. Durch modernere Theaterpraktiker wie Gotthold Ephraim Lessing und die Dramatiker der Weimarer Klassik entstand ein neues Verständnis der Schauspielerei und die Forderung nach empfindsamer Natürlichkeit der Charaktere und nach innerer Motivation der Handlung. Somit liegen die Anfänge berufsmäßig betriebener Schauspielkunst in der doppelten Genese von Theater als Kunst in der frühen Neuzeit begründet. Neben einem akademisch-dilettantischen Kunsttheater bildete sich hier eine professionelle Theaterkunst heraus, die von Berufsschauspielern (ital. "comici") ausgeübt wurde. Ihre unmittelbaren Vorgänger, reisende mittelalterliche Akteure (gemeinhin als Vaganten bezeichnet und herabwürdigend dem sogenannten "Fahrenden Volk" hinzugezählt), übten die Schauspielerei noch nicht als zentrale Tätigkeit aus. Auch die Hofschauspieler waren als Staatsbedienstete keine Berufsschauspieler im modernen Sinn. Frauen wurde aus religiösen und gesellschaftlichen Gründen offiziell über lange Zeit der Zugang zum Schauspielberuf verwehrt; zahlreiche Quellen belegen jedoch auch Berufsschauspielerinnen in der Commedia all'improvviso, wie etwa die berühmte Schauspielerin Isabella Andreini., die Mitglied in der Truppe der Gelosi war. Während die Tradition der Commedia all'improvviso im Zuge aufklärerischer Bestrebungen eines Reformtheaters sukzessive verdrängt wurde, brachte das 18. Jahrhundert eine Auffassung vom Schauspieler hervor, die im Grunde bis heute Bestand hat: die des Schauspielers als Menschendarsteller. Erst in dieser Zeit, genaugenommen durch Goldoni entstand die abwertend gemeinte Bezeichnung Commedia dell'Arte, die noch heute am geläufigsten ist. Die heutige Vorstellung, wonach ein Schauspieler die umfassende Illusion einer anderen Person erzeugen, sich „einfühlen“ und „nicht aus der Rolle fallen“ soll, wird im 19. und frühen 20. Jahrhundert durch den schauspielerischen Naturalismus und das Aufkommen des Films weiter ausgebaut. Die steigenden Ansprüche an Schauspieler führen u. a. zur verstärkten Bedeutung der Schauspielerausbildung, insbes. von Schauspielschulen. Ab Mitte des 20. Jahrhunderts wurde die ‚klassische’ Auffassung von schauspielerischer Tätigkeit und Fähigkeit wieder in Frage gestellt, da Film, Radio und Fernsehen neue Anforderungen an Schauspieler stellen (vgl. Filmschauspieler). Die Auffächerung der Genres (z. B. Musicals) und die zunehmende Verschmelzung der verschiedenen Medien erhöhte die Ansprüche an Schauspieler. Die Vorstellung von kompletter Einfühlung und perfekt illusionistischem Spiel wurde auch programmatisch in Frage gestellt. Eine Reihe von Theaterpraktikern und -theoretikern, z. B. Brecht, forderten, dass Schauspieler sichtbare Distanz zu ihrer Rolle einnehmen, eine Person eher vorzeigen als imitieren und ihren eigenen Standpunkt gegenüber der Figur verdeutlichen sollen. Als Mittel schlugen sie vor, historische Schauspieltraditionen (z. B. das Tragen von Masken), aber auch Praktiken des außereuropäischen (oft des fernöstlichen) Theaters anzuwenden. Anforderungen. Von Schauspielern verlangt man für gewöhnlich, dass sie möglichst nahtlos in ihrer Rolle aufgehen. Handlungsweise, Motivation und innere Verfassung der Rollenfigur sollen glaubwürdig dargestellt werden, und somit die Illusion erzeugen, die verkörperte Person sei tatsächlich anwesend. Die Schauspielerei ist daher oft mit hohen mentalen, intellektuellen und körperlichen Anforderungen verbunden. Wichtig ist die Fähigkeit, die eigene mentale und emotionale Verfassung zu beherrschen, um eventuell abweichende Charakterzüge, Gemütslagen und Stimmungen der Rollenfigur zum Ausdruck zu bringen. Zudem muss sich der Schauspieler die sprachlichen, stimmlichen und körperlichen Ausdrucksmittel der Rolle so zu eigen machen, dass die eigenen „natürlichen“ Ausdrucksmittel dahinter zurücktreten. Aufgrund dieser emotionalen Flexibilität neigen einige Forscher zu der Auffassung, dass Schauspieler gleichsam „nicht zu Ende sozialisierte“ Individuen seien, die eine dynamische Persönlichkeitsstruktur beibehalten. Andere sehen im Schauspieler eher einen „übersozialisierten“ Menschen, der seine Selbst- und Triebbeherrschung so stark internalisiert hat, dass er fast beliebig über seine Emotionen und Äußerungen verfügen kann. Unter diesem Blickwinkel betrachten manche Autoren den Schauspieler als zugespitztes Modell des entfremdeten Menschen. Schauspielerei beinhaltet eine intensive Auseinandersetzung mit der darzustellenden Figur, was ein fundiertes Verständnis des gesamten Handlungszusammenhangs voraussetzt. Dazu zählt oft auch Wissen über historische Hintergründe, Umgangsformen der Zeit oder Region, literarische Konventionen sowie Sprech- und Dialektvarianten. Da Schauspielerei üblicherweise in Zusammenarbeit mit anderen Schauspielern und anderem Personal (Regisseure und Produzenten, Bühnen-, Szenen-, Kostüm- und Maskenbildner, Licht- und Tontechniker, Kameraleute, Inspizienten, Souffleusen, Bühnenarbeiter) ausgeübt wird, muss ein Schauspieler in der Regel auch über soziale Kompetenzen verfügen. Dazu gehört, die Präsenz und Bedeutung der eigenen Rolle zu respektieren und sich nicht unangemessen in den Vordergrund zu spielen (in der Theatersprache: eine „Rampensau“ zu werden); oder Kollegialität zu wahren und den sozialen Zusammenhalt eines Ensembles nicht zu gefährden, wenn man sich etwa mit einer als zu klein empfundenen Rolle abgespeist fühlt. Körperliche Belastungen bestehen beispielsweise, wenn die Rolle Akrobatik, Kämpfen, Reiten oder Tanzen verlangt oder wenn bei einem Außendreh im Film ungünstige Witterungsbedingungen herrschen. Besonders beansprucht werden generell die Atem- und die Sprechorgane. Schauspieltechniken. Bei der heutzutage vermittelten Schauspieltechnik existieren grundsätzlich zwei verschiedene Ansätze, die naturalistische „Identifikations“-Position (engl. Representation) und die illusionistische „Distanz“-Position (engl. Presentation). Durch die „Identifikation“ fühlt sich der Schauspieler in die Rolle ein, verschmilzt mit den Eigenschaften der Rollenfigur und „vergisst“ dabei seine eigene Identität temporär. Durch die „Distanz“-Position geht er möglichst planmäßig und kalkuliert „mit klarem Kopf“ vor, um die für die Darstellung jeweils erforderlichen Ausdrucksformen willensgesteuert an sich hervorzurufen. Einer der einflussreichsten und meistrezipierten Schauspiel-Methodiker, Konstantin Stanislawski, wird der „Identifikations“-Schule zugerechnet, dennoch basiert seine Methode auf einem hochgradig systematischen und analytischen System. Viele einflussreiche Methoden jüngerer Zeit, beispielsweise Lee Strasbergs „Method Acting“ oder Sanford Meisners „Meisner Technique“, sind eine Weiterentwicklung von Stanislawskis Ansätzen. Als wichtige Vertreter der illusionistischen Schauspielmethode gelten die aus dem elisabethanischen Theater hervorgehende englische Theaterausbildung (z. B. Bristol Old Vic, Central School of Speech and Drama, Royal Academy of Dramatic Art), sowie die Techniken von Wsewolod Meyerhold, Erwin Piscator und Bertolt Brecht. Ausbildung und Beruf. Die Berufsbezeichnung „Schauspieler“ ist nicht geschützt, somit darf jeder sich als Schauspieler bezeichnen. Tatsächlich wird die Schauspielerei von vielen Menschen vorübergehend (z. B. als Mitglied einer Schultheatergruppe) oder nur zu spezifischen Gelegenheiten (z. B. bei einem Familienfest) ausgeübt, andere betätigen sich dauerhaft, aber nicht-professionell (z. B. als Mitglied eines Amateurtheaters). Andere sind als Laiendarsteller (Komparsen) in Theater-, Opern-, Film- oder Fernsehproduktionen tätig. Die Ausbildung zum Schauspieler ist nicht gesetzlich geregelt. Zunächst gibt es die Möglichkeit einer Ausbildung im Rahmen eines Studiums an einer der staatlichen Hochschulen, die den Studiengang Schauspiel anbieten und mit einem akademischen Grad wie Diplom-Schauspieler (Dipl.-Schau.) oder Bachelor-/ Master-∼ abschließen. Um als Schauspieler arbeiten zu können, kann es unter Umständen aber auch ausreichen, sich autodidaktisch auszubilden oder an Kursen und Workshops teilzunehmen. Auch privater Schauspielunterricht oder private Schauspielschulen sind mögliche Ausbildungsgänge. Eine Reihe privater Schauspielschulen verfügen über staatliche Anerkennung und sind damit wie auch die öffentlichen Schauspielschulen und staatlichen Hochschulen berechtigt, offizielle Abschlüsse zu erteilen. Inhalte und Qualität der Ausbildung sind aufgrund dieser Vielseitigkeit außerordentlich unterschiedlich. Grundsätzlich haben Absolventen staatlicher Hochschulen höhere Chancen auf dem Markt Fuß zu fassen, vor allem an den öffentlichen Theatern. Die staatlichen Hochschulen im deutschsprachigen Raum haben sich in der Ständigen Konferenz Schauspielausbildung zusammengeschlossen, die sich mit inhaltlichen Standards der Schauspielausbildung auseinandersetzt. Im Bereich der Privatschulen und des individuellen Privatunterrichts bestehen allerdings keinerlei verbindliche Standards; hier bleibt es den Schulen bzw. Lehrenden überlassen, was und wie sie unterrichten wollen. Die hohe Nachfrage nach Ausbildungsplätzen führt dazu, dass sowohl staatliche Hochschulen als auch Privatschulen die Bewerber durch anspruchsvolle Aufnahmeprüfungen filtern. Privatschulen haben mitunter geringere Zugangsvoraussetzungen, erwarten aber von den Studierenden entsprechend höhere finanzielle Gegenleistungen. Der Umstand, dass es für das Berufsbild „Schauspieler“ keine einheitliche Zugangsregelungen und keinen rechtlichen Schutz gibt und zudem auch viele hauptberufliche Schauspieler nur befristet arbeiten, erschwert die Ermittlung der Anzahl der tatsächlichen Berufsschauspieler in Deutschland. Zählungen bzw. Schätzungen variieren je nachdem, ob nur hauptberufliche oder auch nebenberufliche oder nur abhängig beschäftigte oder auch selbständige Schauspieler einbezogen werden. Grobe Schätzungen gehen von ca. 25.000 Personen aus, die in Deutschland ihren Lebensunterhalt hauptsächlich durch Schauspielerei verdienen. Allerdings unterscheidet man hier die an Theatern festangestellten Schauspieler von den selbständigen Schauspielern auf dem „freien Markt“, von denen sich nach einigen Quellenangaben nur ca. 2 bis 5 % finanziell über Wasser halten können, ohne einen Nebenjob annehmen zu müssen. Arbeitsmarkt und soziale Sicherung. Die Arbeitsmarktlage für Schauspieler ist vergleichsweise schlecht. Da die Berufsbezeichnung „Schauspieler“ nicht geschützt ist, können sich Personen mit unterschiedlichsten Ausbildungswegen und Berufserfahrungen um Engagements bewerben, was zu einem großen Überangebot an Bewerbern führen kann. Die Ungeregeltheit bewirkt auch, dass keine verlässlichen Angaben über die Arbeitslosigkeit vorliegen: Die amtliche Statistik bezieht sich nur auf die sozialversicherungspflichtig Beschäftigten (nicht auf die Freiberufler/Selbständigen) und weist nur die arbeitslos gemeldeten Schauspieler aus. Dennoch macht eine Arbeitslosenquote von fast 22 % (2006) deutlich, dass unter den rund 20.000 registrierten darstellenden Künstlern (so die Kategorie der Statistik, darin sind u. a. auch Tänzer, Sänger und Regisseure enthalten) hohe Beschäftigungslosigkeit herrscht. Schauspielerinnen und ältere Schauspieler sind besonders häufig von Arbeitslosigkeit betroffen. Dies hängt damit zusammen, dass viele traditionelle Theaterstücke Männer und jüngere Menschen favorisieren und es leichter ist, einen jüngeren Schauspieler „älter“ zu machen als umgekehrt. In Film und Fernsehen werden zudem viele Formate mit fast ausschließlich jungen Darstellern produziert. Die Arbeitslosenstatistik nimmt bei den Über-50-Jährigen wieder ab, was allerdings auch darauf hinweisen kann, dass sich ältere erfolglose Schauspieler anderen Erwerbsquellen zuwenden. Die Problematik, dass Schauspieler trotz Zahlungen an die Arbeitslosenkasse kaum Arbeitslosengeld 1 beziehen konnten, hat 2006 zur Gründung des Bundesverbands der Film- und Fernsehschauspieler (BFFS) geführt, der sich u. a. um die sozialversicherungsrechtlichen Belange von Schauspielern kümmert. So wurde z. B. 2008 mit den Sozialversicherungsträgern das vom BFFS erarbeitete Eckpunktepapier und die dazugehörige drehtagbezogene Zusatzleistungsformel vereinbart. Schauspieler können nun auch während Vorbereitungszeiten sozialversichert werden, was den Bezug von Arbeitslosengeld 1 erleichtert. Schauspieler bewerben sich entweder direkt bei Theatern und Medienunternehmen, über die „ZAV Künstlervermittlung“, durch private Arbeitsvermittler oder über ihre spezialisierte Schauspieleragentur, die sie in Fragen der Vermittlung, Gagenverhandlung und in Rechtsfragen sowie Karriereberatung vertritt und somit die breite Spanne des Managements übernimmt. Rollen in Film- und Fernsehproduktionen, insbesondere Nebenrollen, werden üblicherweise über ein Auswahlverfahren, das sogenannte "Casting", vergeben. Bei Bewerbungen an Theatern ist dies das "Vorsprechen", beim Musical die "Audition". Für Schauspieler mit einem festen Engagement werden Beschäftigungsbedingungen und Gagen in der Regel frei ausgehandelt, teilweise gelten auch Tarifverträge: Der „Normalvertrag Bühne“ (NV Bühne), vereinbart zwischen dem Deutschen Bühnenverein und der Genossenschaft Deutscher Bühnenangehöriger, wird bei städtischen, Staats- und Landestheatern angewendet; privatwirtschaftliche Fernseh- und Filmproduktionsfirmen, die einem Arbeitgeberverband angehören, unterliegen dem „Tarifvertrag für Film- und Fernsehschaffende“. Gemäß dem „NV Bühne“ erhält ein Berufsanfänger/Absolvent einer Schauspielschule im 1. Festengagement am Theater bundesweit tariflich 1.600 Euro brutto pro Monat. Wie bei anderen Künstlerberufen gibt es auch bei Schauspielern verhältnismäßig hohe Einkommensunterschiede. Prominente Darsteller, die „Stars“, erzielen hohe bis sehr hohe Einkommen; regelmäßig engagierte Schauspieler bei öffentlichen Theatern haben ein mittleres Einkommen, während ein großer Teil der Schauspieler häufig nur über ein unterdurchschnittliches und unregelmäßiges Einkommen verfügt. Durch natürliche Befristungen der schauspielerischen Tätigkeit (Spielzeiten im Theater, Engagement für einen einzelnen Film, Laufzeit einer Fernsehserie) müssen sich auch viele erfolgreiche Schauspieler kontinuierlich um neue Engagements bemühen, was die Arbeitsmarktlage für Schauspieler weiterhin erschwert. 1983 wurde die Künstlersozialversicherung als "Alterssicherung" für Schauspieler eingeführt. Sie beinhaltet Renten-, Kranken- und Pflegeversicherung. Die Versicherten haben lediglich den Arbeitnehmeranteil des Beitrags zu entrichten. Da die Versicherungspflicht nicht alle schauspielerisch Tätigen betrifft und Beiträge nur für tatsächliche Beschäftigungszeiten angerechnet werden, ist die Altersversorgung für viele Schauspieler jedoch oft nicht ausreichend. Öffentliche und eigene Wahrnehmung. Das traditionell geringe Prestige des Schauspielberufs wird durch die große Wertschätzung und Fan-Verehrung von berühmten Stars teilweise relativiert. Da die Fähigkeiten und die „Wertschöpfung“ von Schauspielern zu großen Teilen nur subjektiv bestimmt werden können, ist eine qualitative Beurteilung von Schauspielern mit analytischen Methoden nur schwer möglich. Die uneinheitliche Ausbildung, die starken sozialen Unterschiede zwischen Schauspielern, die vielfältigen Herangehensweisen und ein hoher Grad an Individualität erschweren weiterhin eine Verallgemeinerung von schauspielerisch Tätigen. Die öffentliche Wahrnehmung von Schauspielern ist naturgemäß ähnlich vielseitig und individuell. Viele Schauspieler sehen ihre Arbeit trotz der episodenhaften Abläufe häufig als einen kontinuierlichen Prozess an, der im Regelfall nur mit einem einfachen Text beginnt. Anhand des Textes entwickelt der Schauspieler in einem kompositorischen Prozess nach und nach die zu verkörpernde Rolle, wobei Körper und Stimme des Schauspielers als kompositorische Mittel dienen. Fragen der Distanz bzw. Identität beziehen sich aus Sicht des Schauspielers weniger auf sein Verhältnis zu Figur oder Rolle, sondern mehr auf sein Verhältnis zu sich selbst als Interpret, der zugleich sein eigenes Instrument ist. Dabei kommt der Prozess der Komposition an kein Ende. Premieren und Vorstellungen werden eher als Stationen erlebt. Die Interpretation des Textes und die Realisation der Figur sind in diesem Fall ein laufender Prozess, der niemals zum Abschluss kommt. Systematik der vielzelligen Tiere. In dieser Systematik der Tiere soll eine Klassifikation aller vielzelligen Tiere (Metazoa) bis auf alle rezenten Stämme vorgenommen werden. Außerdem werden die wichtigsten Klassen erwähnt. Weitergehende Untersystematiken finden sich dann bei den betreffenden Untergruppen. Weblinks. Tiere ! Systematik der Amphibien. Die Systematik der Lurche wird hier durch zwei Modelle zur Klassifikation der aktuell über 7000 rezenten Arten der Amphibien dargestellt. Die Darstellung der Amphibien in der deutschsprachigen Wikipedia soll sich am neueren Modell orientieren, das unten als zweites aufgeführt ist. Die neue Systematik wird momentan sukzessive in den einzelnen Artikeln umgesetzt. Die Darstellung erfolgt bis zur Ebene der Unterfamilien. Detailliertere Untergliederungen finden sich in den verlinkten Artikeln. Warum zwei Modelle? Die wichtigste Bezugsquelle für die Taxonomie und Nomenklatur der weltweiten Amphibien-Systematik waren bei der deutschsprachigen Wikipedia ursprünglich die Webseiten des "Integrated Taxonomic Information System" (ITIS) sowie die Online-Datenbank "Amphibian Species of the World" in der Version 3.0 von 2004. Mittlerweile (2009) werden sehr weitreichende Umstrukturierungen der Amphibiensystematik erforderlich. Diese sollen nun nach und nach vorgenommen werden. Da die Referenz ITIS aber offenbar seit 2004/2005 im Bereich Amphibien nicht mehr gepflegt wurde, ergab sich die Notwendigkeit, auf eine andere online verfügbare, einheitliche Referenz umzustellen. Es ist vorgesehen, künftig die beiden Angebote "Amphibiaweb" und "Amphibian Species of the World" (vgl. Weblinks) zu diesem Zweck zu nutzen. Diese sind jedoch nicht deckungsgleich und nicht ohne weiteres kompatibel (der größte Unterschied besteht derzeit in der Auffassung zur Familie Ranidae). Soweit möglich, sollen in den Artikeln jeweils beide Sichtweisen zitiert und dargestellt werden. Dabei soll hinsichtlich der systematischen Gliederung und Taxonomie die etwas „konservativere“ Quelle "Amphibiaweb" den Vorrang haben, während von "Amphibian Species of the World" vor allem Zusatzinformationen wie Unterfamilien und Autorennamen herangezogen werden. Im Folgenden wird zunächst die klassische, ursprünglich in der deutschsprachigen Wikipedia genutzte Systematik wiedergegeben. Im Anschluss wird die neue Systematik aufgeführt, an der sich die Wikipedia-Artikel künftig orientieren sollen. Klasse Lurche, Amphibia Gray, 1825 (Neue Systematik). In der neuen Systematik werden „Überfamilien“ wie Cryptobranchoidea, Sirenoidea, Salamandroidea, Discoglossoidea, Pipoidea, Pelobatoidea, Pelodytoidea, Hyloidea/Bufonoidea, Microhyloidea und Ranoidea nicht mehr dargestellt. Die drei Froschlurch-Unterordnungen Archaeobatrachia, Mesobatrachia und Neobatrachia werden dagegen vorläufig weiterhin berücksichtigt. Weblinks. Amphibien Knorpelfische. Die Knorpelfische (Chondrichthyes) (von altgr. "chondros" = Knorpel, Korn + "ichthyes" = Fische) sind eine Klasse der Wirbeltiere (Vertebrata). Zu ihnen gehören die Haie (Selachii) mit mehr als 500 Arten, die Rochen (Batoidea) mit über 630 Arten sowie die weniger bekannten Seekatzen (Chimaeriformes) mit 50 Arten. Damit sind etwa 4 % der heute lebenden Fischarten Knorpelfische. Fast alle Knorpelfische leben im Meer, nur wenige Haie sowie die Süßwasserstechrochen kommen im Süßwasser vor. Im Unterschied zu den Knochenfischen besteht das Skelett der Knorpelfische aus Knorpel, der jedoch durch Einlagerung von prismatischem Kalk hohe Festigkeit erlangen kann. Richtiges Knochengewebe wird nur ganz selten (bei großen, alten Haien, in Wirbelkörpern) gebildet; aber auch das Dentin der Placoidschuppen (s. u.) ist eigentlich ein Knochengewebe. Dies ist, neben der für Knorpelfische üblichen inneren Befruchtung mittels der aus dem mittleren Teil der Bauchflossen gebildeten Klasper, eine der wichtigsten Synapomorphien der Gruppe. Allgemeine Merkmale. a> ist mit bis zu 14 Metern Körperlänge der größte Knorpelfisch. Knorpelfische werden im Allgemeinen größer als Knochenfische. Dabei ist der Walhai ("Rhincodon typus") mit einer Länge von 14 Metern und einem maximalen Gewicht von 12 Tonnen der größte heute lebende Knorpelfisch und zugleich größer als alle Knochenfischarten. Allerdings werden nur 20 % der Haiarten über zwei Meter lang, die Hälfte ist kürzer als ein Meter. Die kleinsten Haiarten erreichen eine Körperlänge von nur etwa 20 Zentimetern, der Zwerg-Laternenhai ("Etmopterus perryi") ist dabei mit 16 bis 20 Zentimetern Körperlänge und einem Gewicht von nur 150 Gramm die kleinste Haiart. Der größte Rochen ist der Mantarochen mit einer Brustflossenspannweite von bis zu sieben Metern und einem Gewicht von 1,5 Tonnen, auch hier gibt es allerdings viele kleine Arten mit weniger als 20 Zentimeter Körperlänge und Spannweite. Die Seekatzen werden im Schnitt etwa einen Meter lang. Äußere und innere Charakteristika. Die Haut der Seekatzen ist nackt, die der Neoselachii (Haie und Rochen) ist von winzigen, zahnartigen Placoidschuppen bedeckt. Knorpelfische haben keine Schwimmblase. Das geringe Gewicht des Knorpelskeletts, eine große ölhaltige Leber und bei vielen pelagischen Arten große, tragflächenartige Brustflossen helfen beim Auftrieb. Knorpelfische haben meist fünf, einige ursprüngliche Formen auch sechs oder sieben Kiemenbögen; die Kiemenspalten münden bei den Haien und Rochen frei nach außen und sind bei den Seekatzen durch einen Kiemendeckel geschützt. Der Mitteldarm ist (zumindest großteils) als Spiraldarm ausgebildet. Lebensweise. Fast alle Knorpelfische leben im Meer, sind also marin, nur wenige, wie der Bullenhai ("Carcharhinus leucas"), sowie die Sägerochen (Pristidae) und einige Stechrochen (Dasyatidae) steigen auch Flüsse hinauf. Die Süßwasserstechrochen (Potamotrygonidae) leben permanent im Süßwasser. Angaben über das Verhalten von Knorpelfischen liegen nur bei wenigen Arten vor und stammen vor allem aus den letzten Jahrzehnten, in denen eine intensivere Erforschung stattgefunden hat. Viele Arten sind wissenschaftlich allerdings nur aus wenigen Einzelfängen bekannt, Untersuchungen zu ihrer Lebensweise liegen also im Regelfall nicht vor. Den Schwerpunkt der wissenschaftlichen Forschung stellen Haie und Rochen der küstennahen Gebiete sowie eine Reihe von wirtschaftlich interessanten Hochseeformen dar. Hinzu kommen vor allem durch ihre Größe oder durch ihre Bedeutung als potenziell gefährliche Arten besonders markante Haie und Rochen der Hochsee. Vor allem die große Zahl der eher kleinen Haie, Rochen und Seekatzen sowie die Arten der küstenfernen Gebiete und die Tiefseeformen sind dagegen nur wenig erforscht und viele Beobachtungen über die Lebensweise und die Faunistik stammen von interessierten Hobbyforschern, die überwiegend Sporttaucher sind. Ernährung. Alle Knorpelfische sind carnivor. Große Haie gehören zu den Spitzenprädatoren der Meere und ernähren sich vor allem von Knochenfischen. Die meisten Rochen und viele Haiarten ernähren sich von hartschaligen Krebs- und Weichtieren und haben ein speziell dazu angepasstes Gebiss aus Pflasterzähnen. Einige Großformen wie Wal-, Riesen- und Riesenmaulhai sowie der Teufelsrochen sind allerdings Zooplanktonfresser (s. Kiemenreuse). Fortpflanzung und Entwicklung. Die Begattung der Knorpelfische erfolgt durch die bei den Männchen ausgebildeten Klasper, auch als Mixopterygia bezeichnet, die ähnlich einem Penis in die Kloake des Weibchens eingeführt werden. Dabei wird immer nur einer der beiden Klasper genutzt und für die Kopulation in einem Winkel von etwa 90° abgespreizt. Zur Fixierung der Klasper in der Kloake besitzen sie an den Spitzen bei Haien und Rochen oft knorpelige Dornen und die dreiteiligen Klasper der Seekatzen sind an ihrer Spitze mit dornförmigen Placoidschuppen ausgestattet. Die Klasper enthalten eine dorsale Rinne, durch die die Spermienpakete in die weibliche Genitalöffnung geschwemmt werden. Der zu diesem Zweck notwendige Schleim wird bei den Haien in einem speziellen Siphonalsack, der zwischen der Bauchhaut und der Muskulatur liegt, und den Rochen in einer Klasperdrüse gebildet; direkt vor der Begattung wird dieser Sack mit Wasser gefüllt und der darin enthaltene Schleim entsprechend verdünnt, bevor er durch die Öffnung an der Basis der Klaspern gemeinsam mit den Spermien in die Rinne gespült wird. Etwa 43 % der Knorpelfische legen Eier, sind also ovipar, während die restlichen Arten ovovivipar oder vivipar sind, also lebende Junge zur Welt bringen. Die Oviparie wird entsprechend den Verwandtschaftsbeziehungen innerhalb der Knorpelfische als ursprüngliche Fortpflanzungsform angesehen. Sie ist bei den Seekatzen, den Stierkopfhaien (Heterodontiformes), den Katzenhaien (Scyliorhinidae) sowie etwa der Hälfte der Ammenhaiartigen (Orectolobiformes) vorhanden. Innerhalb der Rochen legen zudem die Echten Rochen (Rajidae) Eier, die sich in ihrer rechteckigen Form allerdings von denen der Haie und Seekatzen unterscheiden; die Oviparie wird bei ihnen entsprechend als sekundäre Anpassung an ihre Lebensweise in Kaltgewässern betrachtet. Stammesgeschichte. Der Ursprung der Knorpelfische liegt im Dunkeln, eine Abstammung von den Placodermi wird heute nicht mehr vermutet. Hautzähne aus dem Oberordovizium vor 455 Millionen Jahren sind möglicherweise die ersten fossilen Überreste von frühen Knorpelfischen. Auch Placoidschuppen, die in Zentralasien gefunden wurden und aus dem Untersilur stammen, werden frühen Knorpelfischen zugeordnet. Aus dem Unterdevon vor 418 Millionen Jahren stammen die ersten vollständigen Zähne, das erste intakte Fossil "Doliodus problematicus" ist 409 Millionen Jahre alt, "Pucapampella" aus dem frühen Devon von Südafrika ist möglicherweise noch älter. Die meisten frühen Knorpelfische lebten im Gegensatz zu den heutigen in Süßgewässern, die Xenacanthiformes werden deshalb auch Süßwasserhaie genannt. Im Oberdevon und im Karbon erlebten die Knorpelfische eine erste Radiation. Charakteristische, dreispitzige und sehr oft gefundene Haizähne wurden als „"Cladodus"“ beschrieben. „"Cladodus"“ gilt heute allerdings nicht mehr als eine gültige Gattung. Der cladodonte Zahntyp tritt bei vielen paläozoischen Knorpelfischtaxa auf, unter anderem bei "Cladoselache", einem sehr gut erforschten haiartigen Knorpelfisch aus dem Oberdevon, und bei den Symmoriida, zu denen der seltsame "Stethacanthus" gehört, der auf dem Rücken einen ambossartigen und an der Oberfläche bezahnten Flossenstachel trug. Weitere paläozoische Knorpelfischtaxa sind die Orodontida, die bis zu vier Meter lang wurden und die Eugeneodontida, die im Unterkiefer eine Spirale nachwachsender Zähne besaßen. Beide Gruppen gehören möglicherweise zu den Holocephali. Die Neoselachii traten erstmals im unteren Jura auf. Sie entwickelten sich, wie ihre Schwestergruppe, die Hybodontiformes, die im Trias und im Jura die dominanten Knorpelfische waren, aus den Ctenacanthiformes. Systematik. "Siehe auch: Systematik der Knorpelfische" Die Knorpelfische werden in zwei Unterklassen, die Plattenkiemer (Elasmobranchii) und die Holocephali unterteilt. Beide Unterklassen enthalten vor allem ausgestorbene und jeweils nur eine noch rezente Untergruppe: bei den Plattenkiemern die Neoselachii – dazu gehören die Haie und Rochen – und bei den Holocephali die Seekatzen. Die innere Systematik der Neoselachii ist noch unsicher und umstritten. Dabei geht es vor allem darum, ob die Rochen ein gleichrangiges Taxon neben den Haien oder nur eine Ordnung der squalomorphen Haie bilden. Sie wurden traditionell, nach der äußeren Erscheinung in Haie und Rochen gegliedert. 1996 wurden die Neoselachi von de Carvalho und Shirai unabhängig voneinander nach morphologischen Merkmalen in zwei monophyletische Taxa gegliedert, die Galeomorphi (Galea bei Shirai), zu denen vor allem große, das Freiwasser bewohnende Haie gehören, und die Squalea, zu denen viele bodenbewohnende sowie Tiefseehaie und auch die Rochen gehören. Die Haie wären demzufolge lediglich ein paraphyletisches Formtaxon. Inzwischen gibt es allerdings mehrere molekularbiologische Untersuchungen, die eine basale Auftrennung (Dichotomie) von Haien und Rochen bestätigen. Die morphologischen Übereinstimmungen der squalomorphen Haie mit den Rochen sind danach konvergent entstanden. Da sich die Rochen, genau so wie die modernen Haie, schon seit dem frühen Jura in der fossilen Überlieferung nachweisen lassen, wird eine Abstammung der Rochen am Endpunkt einer langen Evolutionslinie der Squalea auch nicht von paläontologischen Daten gestützt. In den folgenden Tabellen wird je eine Version der beiden verschiedenen Konzepte der inneren Systematik der Neoselachii dargestellt. Knorpelfische und Menschen. Eine Reihe von Knorpelfischen, vor allem größere Arten der Haie und Rochen, werden vom Menschen als Nahrungsmittel genutzt. Pro Jahr werden etwa 700.000 Tonnen dieser Tiere direkt gefangen, hinzu kommen etwa 230.000 Tonnen, die als Beifang in der Fischerei anfallen. Insgesamt entspricht dies einer Gesamtanzahl von etwa 8,3 Millionen Individuen jährlich, die durch die Fischerei der Menschen getötet werden. Die Nutzung erfolgt dabei unterschiedlich intensiv; im Fall der „Flossenfischerei“ werden beispielsweise nur die Flossen meist großer Haie abgeschnitten und für die Zubereitung der Haifischflossensuppe genutzt, der Rest des Tieres wird dagegen als Abfall entsorgt (ein Hai ohne Brustflossen geht elend "zu Grunde"). Besonders häufig benutzt man den Hai in der asiatischen Küche. Hauptzutat ist dabei die Haifischflosse, die für die Haifischflossensuppe oder andere Gerichte und in China auch als Ganzes verwendet wird (dazu werden Teile von Haien getrocknet in der Traditionellen Chinesischen Medizin genutzt). Aber auch in anderen Ländern gilt der Hai als Nahrungsmittel: Die Inuit in Grönland trocknen das Fleisch des Grönlandhais oder fermentieren es zur regionalen Delikatesse "tipnuk". In Island und auf den Färöern wird Grönlandhai ebenfalls durch Fermentation genießbar gemacht. (Da Haie Harnstoff in ihren Körperzellen einlagern, muss das Fleisch dadurch entgiftet werden.) Spezielle und hinsichtlich der Küche wertvolle Haie werden vor allem in Europa unter anderen Namen verkauft. Die Industrie vermarktet den Fisch vorsichtig, dennoch wird er oftmals unbewusst konsumiert. Hierzu gehören vor allem die Bezeichnungen „Seeaal“ und Schillerlocke für Dornhai-Zubereitungen und Saumonette und Rocksalmon für Katzenhaie. Rochen werden in Europa vor allem im Mittelmeerraum genutzt. Die Gefahr des Aussterbens innerhalb der nächsten Jahrzehnte durch Überfischung und sonstige menschliche Aktivitäten besteht inzwischen für etwa ein Viertel der Knorpelfischarten. Besonders große, küstennah lebende Arten sind gefährdet. Unter den sieben am meisten gefährdeten Familien sind fünf Rochenfamilien und zwei Haifamilien (Engelhaie und Fuchshaie). Systematik der Knochenfische. Die folgende Systematik der rezenten Knochenfische ist eines von zahlreichen vorhandenen Modellen zur Klassifikation der über 30.000 derzeit bekannten Knochenfisch-Arten, die heute auf der Erde leben. Sie folgt im Wesentlichen einer aktuellen Revision der Knochenfischsystematik, die im April 2013 veröffentlicht und im November 2013 sowie im Juli 2014 aktualisiert wurde (Betancur-R. et al., 2013, 2014; DeepFin.org). Diese Revision ist das Ergebnis des Vergleichs der DNA-Sequenzen von 21 genetischen Markern (einem der Mitochondrialen DNA und 20 der Zellkern-DNA) von 1410 Knochenfischarten aus 1093 Gattungen, 369 Familien und allen traditionellen Ordnungen. Im Unterschied zu allen vorherigen Systematiken werden hier auch die problematischen Gruppen der Percomorpha (Barschverwandten) und Perciformes (Barschartigen) zu monophyletischen Taxa. Die Percomorpha können in acht gut begründete Taxa oberhalb des Ordnungsrangs unterteilt werden. Die Ordnung der Perciformes, bisher eine polyphyletische Sammelgruppe von über 10.000 Arten, über 1500 Gattungen, 160 Familien und 20 Unterordnungen barschähnlicher Fische (engl. „wastebag“-Taxon), wird erstmals zu einer monophyletischen Ordnung. Die Knochenfische gliedern sich in zwei gut unterscheidbare Gruppen, die Fleischflosser (Sarcopterygii), von denen es nur noch acht rezente Arten gibt, aus denen aber die Landwirbeltiere (Tetrapoda) hervorgegangen sind, und die Strahlenflosser (Actinopterygii), zu denen über 95 % der heute lebenden Fischarten gehören. Ausgestorbene Gruppen sind in dieser Systematik bisher nicht berücksichtigt. Einzelnachweise. Knochenfische Systematik der Gliederfüßer. Die Systematik der Gliederfüßer (Arthropoda) ist noch in stetigem Fluss. Hier wird eine an der traditionellen Einteilung der Gliederfüßer in vier Unterstämme orientierte Darstellung gegeben. "Siehe auch:" Systematik des Tierreiches, Biologische Systematik. Gliederfüßer Systematik der Dinosaurier. Die Dinosaurier sind ein Taxon der Archosaurier innerhalb der Reptilien (Reptilia). Gemeinsam mit ihrer Schwestergruppe, den Flugsauriern (Pterosauria), bilden sie das Taxon der Ornithodira. Diese Systematik der Dinosaurier wurde nach den unter "Literatur", "Einzelnachweise" und "Weblinks" aufgeführten Quellen erstellt. Avialae (Vögel i. w. S.). "Siehe auch:" Biologische Systematik, Systematik der Vögel, Gefiederte Dinosaurier Einzelnachweise. Dinosaurier Flugsaurier. Die Flugsaurier (Pterosauria) sind ausgestorbene Reptilien, die etwa gleichzeitig mit den Dinosauriern lebten und wie ebendiese zur Gruppe der Ornithodira innerhalb der Archosauria gehörten. Sie waren durch ihre großen, tragflächenartigen Flughäute als erste Wirbeltiere in der Lage, aktiv zu fliegen. Die späteren Vögel und Fledertiere entwickelten ihr Flugvermögen jeweils eigenständig. Die frühesten Funde von Flugsauriern reichen zurück bis in die untere Obertrias (Karnium) vor etwa 228 Millionen Jahren. Sie waren auf der Erde präsent bis zum großen Massenaussterben an der Wende von der Kreidezeit zum Paläogen (Kreide-Tertiär-Grenze) vor etwa 65 Millionen Jahren. Bei den Flugsauriern werden zwei unterschiedliche Typen unterschieden: Die Langschwanzflugsaurier (Rhamphorhynchoidea), die sich durch einen langen Schwanz und relativ kurze Mittelhandknochen auszeichnen, waren die frühesten Formen und verschwanden im oberen Jura. Die Kurzschwanzflugsaurier (Pterodactyloidea), die keinen oder einen nur sehr kurzen Schwanz und lange Mittelhandknochen besaßen, erschienen im Mittleren Jura und starben zum Ende der Kreidezeit aus. Diese klassische Einteilung wird mittlerweile in der Taxonomie nicht mehr verwendet, da die Kurzschwanzflugsaurier von den Langschwanzflugsauriern abstammen. Die Langschwanzflugsaurier sind daher im Sinne der phylogenetischen Systematik eine paraphyletische Gruppe. Fortbewegung. a>", auf den Hinterbeinen stehend montiert a>" läuft vierbeinig und sucht nach Nahrung Eine wichtige Frage zur Lebensweise stellt sich bezüglich der Flugfähigkeit der Flugsaurier. Dabei ist es eigentlich unbestritten, dass gerade die kleinen Arten sicher aktiv sehr gut fliegen konnten. Bei den großen Flugsauriern der Kreidezeit handelte es sich demgegenüber wahrscheinlich primär um Segelflieger, die wie die Greifvögel auf den Aufwind angewiesen waren, oder dynamische Gleitflieger, die wie die Albatrosse unterschiedlich schnelle horizontale Winde im Lee von Wellentälern nutzten, um mit möglichst wenig Energieaufwand weite Strecken hinter sich zu bringen. Für einen dynamischen Gleitflug spricht die maritime Lebensweise, da es über dem Meer keine Aufwinde gibt, und die hohe Flügelstreckung vieler Arten. Doch auch diese Tiere mussten zumindest aus dem Wasser heraus in der Lage sein, aktiv zu starten und Höhe zu gewinnen. Gerade aufgrund des hohen Energieaufwandes, der zum Fliegen notwendig ist, geht man heute meist davon aus, dass die Tiere Warmblüter und zu einem großen Teil behaart waren. Dafür spricht auch der Fund des behaarten "Sordes pilosus" („Behaarter Teufel“) und haarähnliche Abdrücke bei anderen Flugsaurierfossilien aus dem Solnhofener Plattenkalk und dem Posidonienschiefer von Holzmaden. Da die Hinterbeine bei den Flugsauriern nur sehr klein ausgebildet waren, stellt sich die Frage, wie die Tiere sich an Land fortbewegen konnten. Zur Beantwortung dieser Frage werden zwei alternative Theorien diskutiert. Nach Ansicht von Kevin Padian und Jeremy Raynor nutzten die Tiere ihre Beine wie die heutigen Vögel und gingen zweibeinig (biped). Sie führen dies darauf zurück, dass die Beine ähnlich gebaut sind wie die der heutigen Vögel und entsprechend wohl auch ähnlich eingesetzt wurden. David Unwin und Peter Wellnhofer gehen stattdessen davon aus, dass die Flugsaurier vierbeinig (quadruped) gingen und ihre Arme dabei einsetzten (wie die heutigen Vampirfledermäuse), wobei der Flügelfinger nach hinten eingeschlagen wurde. Sie nehmen dabei an, dass die Flughäute auch die Hinterbeine mit umfassten. Die letztere Theorie ist die aktuell bevorzugte. Untersuchungen der Beckenstruktur von "Anhanguera" und "Campylognathoides" haben gezeigt, dass die Flugsaurier die Hinterbeine nicht senkrecht unter den Körper stellen konnten und besonders die großen Flugsaurier sich nur sehr schwerfällig allein auf den Hinterbeinen fortbewegt haben können. Sicher ist man sich diesbezüglich bislang allerdings nicht. Möglich ist zudem, dass unterschiedliche Arten hier unterschiedliche Lösungen nutzten. So ist es leicht, sich eine der kleineren langschwänzigen Formen auf den Hinterbeinen vorzustellen, jedoch eher schwer bei den großen und größten Formen der ausgehenden Kreidezeit. Ernährung, Lebensraum und Fortpflanzung. a>" aus der unteren Kreidezeit ernährte sich vermutlich von Fisch Die Flugsaurier waren wahrscheinlich durchweg Jäger und Fleischfresser. Dabei jagten die frühen Langschwanzflugsaurier sicher vor allem nach Fischen und Kalmaren und lebten an Meeresküsten oder anderen großen Gewässern. Ein Indiz dafür sind die sehr langen und reusenartigen Zähne, die perfekt zum Packen und Halten von Fischen genutzt werden konnten. Die Tiere lebten wahrscheinlich in größeren Kolonien ähnlich den heutigen Brutkolonien von Meeresvögeln zusammen. Spätere kleine Flugsaurier waren allerdings sehr wahrscheinlich auch Insektenjäger. Ein sehr ungewöhnlicher Flugsaurier namens "Pterodaustro" aus Südamerika hatte sehr lange und extrem dünne Zähne, die eine Reuse darstellten. Er filterte hiermit Meerwasser und ernährte sich von Plankton wie die heutigen Flamingos. Obwohl die meisten Fossilien von Flugsauriern bislang von Lebensräumen an größeren Gewässern stammen, ist es heute unbestritten, dass viele Arten auch im Inland, etwa in Wäldern, Bergen oder sogar Wüsten lebten. Der fehlende Fossilbefund ist auf die sehr schlechten Fossilisierungsbedingungen dieser Lebensräume und die sehr dünnen Knochen der Tiere zurückzuführen. Flugsaurier waren wie alle Archosaurier eierlegende Tiere. Ein im Jahre 2004 publizierter Fund eines fossilen Embryos aus der frühen Kreidezeit vor etwa 121 Millionen Jahren, der aus der Liaoning-Provinz Nordostchinas stammt, belegt dies eindrücklich. Das gefundene Ei war etwas kleiner als ein Hühnerei und enthielt ein gut erhaltenes Skelett, daneben waren auch Eindrücke von Haut- und Flügelgewebe zu erkennen. Die bei dem Tier, das vermutlich kurz vor dem Schlüpfen stand, bereits vorhandene Flügelspanne von 27 Zentimetern wird von den Entdeckern als Hinweis darauf gewertet, dass die Jungtiere wahrscheinlich Frühentwickler waren, die bereits kurz nach dem Schlüpfen fliegen und sich unabhängig von ihren Eltern ernähren konnten. Dass Flugsaurier in Kolonien zusammenlebten, basiert dagegen in erster Linie auf theoretischen Annahmen sowie auf einem Fund in der Atacama-Wüste in Chile, wo auf sehr engem Raum sehr viele Überreste junger Flugsaurier gefunden wurden. Die Anatomie der Flügel. Das auffälligste Merkmal der Flugsaurier sind die zu großen Schwingen umgestalteten Vorderbeine, die den Tieren sowohl den Gleitflug als auch den aktiven Flug ermöglicht haben. Dabei spannte sich die Flughaut zwischen dem Körper der Tiere und dem Arm mit dem stark verlängerten vierten Finger der Tiere, der dem kleinen Finger beim Menschen entspricht, auf. Die anderen drei Finger bildeten Krallen außerhalb der Flughaut, der erste Finger fehlte. Die Flügelknochen der Flugsaurier waren in der Regel hohl und sehr dünnwandig. Sie enthielten viele luftgefüllte Bereiche, damit das Gewicht der Knochen nicht zu hoch wurde. Durch Knochenbälkchen wurden vor allem die Enden der größeren Knochen verstärkt. In der Regel werden aus diesem Grunde nur Fragmente der Flügelknochen gefunden, intakte Knochen sind äußerst selten. Die Flügelknochen der beiden Flugsaurierformen unterscheiden sich dabei deutlich. Der Flügel der Langschwanzflugsaurier besteht aus einem recht kurzen Oberarmknochen (Humerus) und einem relativ kurzen Mittelhandknochen. Die vier Fingerknochen sind dagegen recht lang. Die Krallen sitzen ebenfalls an sehr kurzen Mittelhandknochen. Der Unterarm besteht wie bei allen Wirbeltieren aus zwei Knochen, wobei die Elle (Ulna) etwas länger ist als die Speiche (Radius). Im Querschnitt sind beinahe alle Knochen im Schaftbereich oval, während sie zu den Enden herzförmig werden. Im Gegensatz dazu sind bei den Kurzschwanzflugsauriern sowohl der Oberarm als auch die Elle massiver und länger, die Speiche ist ebenso lang wie die Elle, nur weniger dick. Besonders die Mittelhandknochen sind sehr viel länger als die der früheren Flugsaurierformen, während entsprechend die Finger in Relation zu den anderen Knochen kürzer werden. Auch Kurzschwanzflugsaurier hatten meist vier Fingerknochen. Die Krallen sind sehr gut ausgebildet und enden ebenfalls an verlängerten Mittelhandknochen. Die Knochenwand ist dünner als die der Langschwanzflugsaurier und verdickt sich zum Ende der Knochen. Der Querschnitt ist hohl und dreieckig und wird zum Ende hin oval. Besonders auffällig sind diese Merkmale bei den sehr großen Formen. Die Flügel selbst bestanden aus einer Hautstruktur, die durch eng beieinander liegende Fasern, so genannte Aktinofibrillen verstärkt wurde und so zum einen für eine Stabilität des Flügels und zum anderen für eine Rissfestigkeit sorgten. Diese Strukturen konnten an den gut erhaltenen Flughäuten einiger Flugsaurier aus der Santana-Formation untersucht werden. Die Wirbelsäule. Die Wirbelsäule der Flugsaurier unterscheidet sich von den früheren Reptilien deutlich und ist der fliegenden Lebensweise und den damit verbundenen Ansprüchen an das Achsenskelett angepasst. In einigen Bereichen ähnelte sie sehr stark der Wirbelsäule der Vögel (Konvergenz) mit einer ausgeprägten Schulterregion und einer massiven Region im Bereich des Beckens. Der Rücken war nur sehr kurz und erlaubte entsprechend nur wenige Bewegungen, den längsten Bereich stellte die Halswirbelsäule dar, entsprechend sind die meisten Einzelfunde von Wirbeln Halswirbel. Die Halswirbelsäule ist im Vergleich mit anderen Wirbeltieren sehr lang. Der Hals besteht dabei aus acht Wirbeln bei den frühen Flugsauriern, während einige der größeren Spätformen die Anzahl auf sechs reduziert haben. Die beiden ersten Wirbel dieses Abschnitts, der Atlas und der Axis waren meistens zu einem einzigen Wirbelknochen verschmolzen. Die Knochenwand der Wirbel war dünn und der Innenraum bestand aus einem schwammigen Knochengebälk mit großen Lufträumen. Halsrippen existierten im Normalfall nicht. Die Brustwirbelsäule bestand aus bis zu zwölf Wirbeln, wobei die meisten Arten weniger besaßen. Die ersten Wirbel waren meist zu einer massiven Schulterstruktur verwachsen, an der die Schulterblätter (Scapulae) ansetzten. Dies bildete bei einigen Arten einen langen Knochen, der über sechs bis acht Wirbel reichte. Die Rückenwirbelsäule bestand aus etwa sechs Wirbelkörpern und war sehr kurz, aber kompakt. Wie alle anderen Wirbelknochen waren sie auch mit einem Gebälk gefüllt, sie wiesen jedoch außerdem noch seitlich ein großes Loch auf, welches den Knochen vollständig durchdrang. Bei den meisten Arten trugen diese Wirbel kurze Bauchrippen. Die Sakral- oder Lendenwirbelsäule war normalerweise zu einem massiven Knochen verschmolzen, mit dem die Beckenknochen in einer engen Verbindung standen. Bei den frühen Langschwanzflugsauriern war diese Struktur noch relativ locker, bei den Kurzschwanzflugsauriern handelte es sich jedoch um einen einzelnen Beckenknochen. In diesem Bereich befanden sich in der Regel sechs bis acht Wirbelknochen. Die Schwanzwirbelsäule war bei den Langschwanzflugsauriern sehr lang und konnte aus mehr als 35 Schwanzwirbeln bestehen. Bei einigen dieser Flugsaurierfossilien findet sich am Ende des Schwanzes ein Segelabdruck, dieses diente wahrscheinlich der Navigation und Stabilisierung im Flug. Bei den Kurzschwanzflugsauriern wurde die Anzahl der Schwanzwirbel auf eine geringe Zahl reduziert. Der Schädel und die Zähne. Der Schädel der Flugsaurier ähnelte wie andere Teile des Skeletts dem der Vögel, vor allem durch die verschiedenen Einsparungen und Reduzierungen, die den Schädel leichter machten. Der wesentliche Unterschied betrifft jedoch die Bezahnung, die besonders bei den frühen Flugsauriern sehr gut ausgebildet war. Die massivsten Strukturen und damit diejenigen, die am häufigsten unter Fossilienfunden auftreten, waren die Kieferspitzen sowie der Kieferansatz am Quadratum. Ein wesentliches Merkmal der Flugsaurier ist ein Ring aus Knochenplatten, der um das Auge lag und dessen biologischer Sinn bislang nicht eindeutig geklärt werden konnte. Wahrscheinlich diente er als Druckausgleichselement. Des Weiteren besaßen die Tiere wie alle anderen Archosaurier ein drittes Schädelfenster vor den Augen (Präfrontales Fenster), während sie das Schläfenfenster reduziert hatten. Viele der Kurzschwanzflugsaurier wiesen hohe und lange Schädelkämme auf, die je nach Interpretation der Schallverstärkung und/oder der Flugstabilisierung gedient haben. Schädel eines "Pteranodon".Die Kiefer trugen keine Zähne. Auch die Zähne sind sehr oft fossil erhalten, allerdings gab es besonders in der späten Kreidezeit eine Reihe von Arten, die keine oder nur sehr kleine Zähne aufwiesen. Die frühesten Flugsaurier hatten mehrspitzige Zähne (in der Regel mit drei Spitzen: Tricuspide Zähne), die etwa bei "Rhamphorhynchus" von langen und spitzen Zähnen abgelöst wurden. Diese Zähne standen in den langen und dünnen Kiefern über den Mundrand hinaus. Einige der Langschwanzflugsaurier besaßen allerdings auch gar keine Zähne. Während des oberen Jura nahm die Anzahl der Zähne bei den Flugsauriern ab. Einige Arten behielten noch Zähne am vorderen Ende der Kiefer, andere verloren alle Zähne, wodurch ein schnabelähnlicher Kiefer entstand. Die großen Flugsaurier der späten Kreide hatten durchweg keine Zähne. Entdeckungsgeschichte. Wie die Dinosaurier gehörten auch die Flugsaurier zu den Tiergruppen, die bei ihrer ersten Entdeckung eine enorme Faszination auslösten. Fossilien der Flugsaurier gehören zu den ersten gefundenen Fossilien von Landwirbeltieren überhaupt und wurden entsprechend bereits zu Beginn der Paläontologiegeschichte im frühen 19. Jahrhundert untersucht. Die erste Beschreibung eines Flugsauriers stammt aus dem Jahr 1784 von Cosimo Alessandro Collini. Besonders gut erhaltene Fossilfunde aus Südengland und Deutschland machten die Flugsaurier sowohl innerhalb der wissenschaftlichen Kreise als auch beim Volk populär. Unter den ersten Funden befanden sich "Dimorphodon macronyx", der von Mary Anning in der Liasformation bei Lyme Regis entdeckt wurde, sowie "Rhamphorhynchus" und "Pterodactylus" aus dem späten Jura, welche im Plattenkalk von Solnhofen gefunden wurden. Die Funde führten dazu, dass sie etwa als "most wondrous creatures of the prehistoric world" beschrieben wurden. Der deutsche Naturforscher Georg August Goldfuß vertrat 1831 die Ansicht, dass diese Tiere wohl eher aussähen, als seien sie der Fantasie denn der Natur entsprungen. Im Laufe des 19. und des 20. Jahrhunderts stieg die Anzahl der Fossilfunde, und vor allem die Artenvielfalt der Gruppe wurde mehr und mehr offensichtlich. Besonders die Plattenkalke in Solnhofen und Eichstätt stellten sich als sehr reiche Lagerstätten fossiler Flugsaurier heraus. So wurde hier der sehr gut erhaltene "Rhamphorhynchus longicephalus" 1839 als erster Flugsaurier mit einem langen und vollständigen Schwanz entdeckt. In den gleichen Schichten entdeckte man daneben auch kurzschwänzige Tiere, die offensichtlich gleichzeitig gelebt haben müssen. In England war vor allem die "Wealden"-Formation reich mit Fossilien der Tiere, welche von Gideon Mantell erst als Vögel beschrieben wurden (1822, 1827 und 1837) und deren Zugehörigkeit zu den Flugsauriern Owen 1846 erkannte. Seeley ordnete sie der Gattung "Ornithocheirus" zu. 1870 entdeckte Othniel Charles Marsh in Kansas Überreste des riesigen "Pteranodon" und damit des ersten Flugsaurierskelettes in Nordamerika. 1895 führte Felix Plieninger die Unterteilung der Flugsaurier in Langschwanzflugsaurier und Kurzschwanzflugsaurier ein, die erst in den letzten beiden Jahrzehnten durch phylogenetische Untersuchungen revidiert wurde. Auch im Verlauf des 20. Jahrhunderts nahmen die Fossilfunde und der bekannte Formenreichtum zu. Zu den klassischen Fundstätten kamen weitere hinzu, die eine weltweite Verbreitung der Tiere dokumentieren. Heute liegen etwa besonders ergiebige Fundstellen in der Santana-Formation in Brasilien, in Paki im Senegal und in Nordchina. Die Flugsaurier der Trias. Die ältesten Flugsaurier stammen aus der Obertrias und haben entsprechend vor etwa 228 Millionen Jahren gelebt. Von den meisten Vertretern aus dieser Zeit sind allerdings nur Knochenfragmente gefunden worden, vollständige Schädel oder Skelette sind äußerst selten. Die frühen Arten lassen sich vor allem an ihren Zähnen erkennen, die mit mehreren Spitzen ausgestattet sind. Die Zähne späterer Arten haben nur eine Spitze und sind langoval. Des Weiteren sind die Knochen der frühen Flugsaurier massiver und haben eine dickere Außenschicht während das Innere weniger Freiräume besitzt. Alle Flugsaurier der Trias und des frühen Jura hatten lange Schwänze, zudem zeichnen sich die meisten frühen Flugsaurier durch sehr lange Zähne aus, wie etwa "Rhamphorhynchus" aus dem Solnhofener Plattenkalk. Das wahrscheinlich am besten erhaltene Skelett eines frühen Flugsauriers stellt "Eudimorphodon ranzi" dar. Das Exemplar stammt aus dem Kalkstein von Cene in der Nähe der norditalienischen Stadt Bergamo. Im Bereich des Magens wurden sogar noch Reste der letzten Mahlzeit in Form von Fischschuppen gefunden. Offensichtlich war diese Art ein Fischfresser. Die Eudimorphodontidae spielen zu Beginn der Evolution der Flugsaurier eine wesentliche Rolle, aus ihnen entwickelten sich bereits in der Trias die ersten Vertreter der Dimorphodontidae und der Rhamphorhynchidae. Diese beiden Taxa sind auch in der Jurazeit noch präsent, während die Eudimorphodontidae zum Ende der Trias verschwunden sind. Die meisten und die vollständigsten Funde der Trias stammen aus Italien: aus dem Zorzino-Kalkstein bei Cene in der Lombardei und aus dem Preone-Tal in den Alpen. Die Flugsaurier des Jura. In der Jurazeit kam es bei den Flugsauriern zu großen evolutionären Veränderungen. Sie breiteten sich weltweit aus und besiedelten viele verschiedene Lebensräume. Die Langschwanzflugsaurier dieser Zeit hatten meist lange Zähne, die sich zur Spitze hin stark verschmälern. Bei einigen Arten waren die Zähne gekerbt, die meisten hatten jedoch glatte Zähne. Die Langschwanzflugsaurier verschwanden etwa zur Mitte des Jura. Sie wurden ersetzt durch die zu Beginn des Jura aus einer Teilgruppe von ihnen entstandenen Kurzschwanzflugsaurier oder Pterodactyloidea. Diese hatten den Schwanz weitgehend reduziert und zeigen in ihrer Evolution eine Verkürzung der Zähne und eine Verlängerung der Mittelhandknochen am flughauttragenden Finger. Im Laufe des Jura entwickelten sich die Flugsaurier zu einer sehr erfolgreichen Wirbeltiergruppe. In der frühen und mittleren Jurazeit entstanden ausschließlich aus den bereits in der Trias bekannten Dimorphodontidae und Rhamphorhynchidae mit den Scaphognathinae, Campylognathoides und Rhamphocephalidae weitere Taxa der Langschwanzflugsaurier. a>) von "Rhamphorhynchus muensteri" sind Abdrücke der Flughaut erhalten Erst im späteren Jura spielten die ungeschwänzten Kurzschwanzflugsaurier, vor allem repräsentiert durch die Pterodactylidae, eine große Rolle. Zu dieser Zeit kam es zur größten Artenvielfalt der Flugsaurier insgesamt, sie besiedelten die verschiedensten Lebensräume in allen Teilen der Welt. Eine sehr reichhaltige Lagerstätte für Flugsaurier des Jura bildet der Plattenkalk bei Eichstätt und Solnhofen, in dem auch der Urvogel "Archaeopteryx" gefunden wurde. Die Bedingungen zur Fossilisation in diesem Material sind ausgesprochen gut, so dass sogar einige Flughäute und Weichgewebeabdrücke erhalten sind. Unter den Funden in diesen Plattenkalken sind etwa die Skelette von "Rhamphorhynchus" und "Pterodactylus". Ebenfalls als exzellente Lagerstätte des Jura werden die Qaratai- oder Karatau-Berge in Kasachstan angesehen. Hier wurde zum Beispiel der offensichtlich behaarte "Sordes pilosus" mit konservierten Flügelmembranen gefunden. Die Flugsaurier der Kreidezeit. In der Kreidezeit entwickelten sich die größten Formen der Flugsaurier, gleichzeitig entstanden auch Riesenformen der Dinosaurier und anderer Tiergruppen (Plesiosaurier, Mosasaurier, Ichthyosaurier). Wie bereits dargestellt, handelt es sich bei diesen Flugsauriern ausschließlich um Kurzschwanzflugsaurier. Die großen Flugsaurier waren dabei überall in der Welt anzutreffen, allerdings gab es auch weiterhin kleinere Formen. Diese kleineren Flugsaurier standen wahrscheinlich in direkter Konkurrenz mit den sich neu entwickelnden Vögeln, die sich zu dieser Zeit rasch ausbreiteten. Bis in die 1970er Jahre galt "Pteranodon" aus Nordamerika als größter Flugsaurier, seine Flügelspannweite erreichte etwa acht Meter. Er wurde durch den Fund des "Quetzalcoatlus" (benannt nach dem Aztekengott Quetzalcoatl, der u. a. in Gestalt einer gefiederten Schlange dargestellt wurde) übertroffen, der nach Hochrechnung seiner Schädelmaße und einem Vergleich mit anderen Flugsauriern eine Spannweite von bis zu 12 Metern erreicht haben könnte. Eine sehr wichtige Lagerstätte für Flugsaurierfossilien der oberen Kreide ist das Araripe-Becken in Brasilien und hier vor allem die als Crato-Formation und Santana-Formation bekannten Schichten. Aus diesem Gebiet stammen sehr unterschiedliche Flugsaurier, darunter etwa "Anhanguera", "Criorhynchus", "Ornithocheirus", "Tapejara", "Thalassodromeus", "Ludodactylus" und "Tupuxuara". Eine weitere bedeutende Fundstätte für Flugsaurier der Kreidezeit ist Xinjiang in China, wo auch wichtige Dinosaurier- (darunter einige gefiederte Dinosaurier) und Säugetierfunde (etwa "Hadrocodium wui") gemacht wurden. Unter den Flugsauriern stammen etwa "Dsungaripterus wei" und "Noripterus complicidens" aus dieser Region, die besonders durch ihre kräftigen Kiefer auffallen. Ähnlich wie in Solnhofen und in der Crato-Formation, zeichnen sich die Funde aus der Jehol-Gruppe in Liaoning durch „Weichteilerhaltung“ aus. Die chinesischen Arten ähneln sowohl Funden aus Solnhofen als auch aus Brasilien. Die bisherigen Funde aus China lassen eine ähnliche, wenn nicht noch größere Diversität als dort vermuten. Als dritte reiche Flugsaurierregion gelten der Niobrara-Kalk und andere Gesteine in Texas und Kansas, in denen einige der größten der bislang bekannten Flugsaurier gefunden wurden, etwa "Pteranodon ingens" und "Quetzalcoatlus". Die Knochen dieser Tiere sind oft sehr zerbrechlich und wurden weit verstreut gefunden. Evolution der Flugsaurier. Die Flugsaurier stammen mit sehr hoher Wahrscheinlichkeit von frühen Archosauriern ab, die auch die Vorfahren der Krokodile und der Dinosaurier waren. Der Fossilbefund der Abstammungslinie der Flugsaurier fehlt, entsprechend konnte diese Abstammung nur durch einen Merkmalsvergleich der unterschiedlichen Tiergruppen nachgewiesen werden. Als Hauptindiz kann der Schädelbau der Flugsaurier angesehen werden. Dieser besitzt wie der anderer Archosaurier ein drittes Schädelfenster vor dem Auge (Präorbitales Fenster) und das Scheitelfenster (Foramen parietale) ist reduziert. Als weitere Anhaltspunkte zur Zuordnung besitzen die Flugsaurier typische Archosaurierzähne, und die fünfte Zehe ist reduziert. Als nächster Verwandter der Flugsaurier und zugleich der Dinosaurier wird ein Fossil aus dem schottischen Lossiemouth diskutiert. Dieses Tier, benannt als "Scleromochlus taylori", teilt mit beiden Gruppen einige anatomische Merkmale. Aufschlussreich könnte es vor allem für die Evolution des Fliegens bei den Flugsauriern sein, da angenommen wird, dass "Scleromochlus taylori" ein guter Springer war, der vielleicht sogar eine Vorstufe der Flughäute der Flugsaurier besaß. Bereits 1914 schrieb Huene über "Scleromochlus": „" … it was a parachuting animal, which had skin duplications on the forelimbs, perhaps also in other places".“ Er nahm an, dass das Tier in den Bäumen lebte und diese als Absprungpunkt für seinen Gleitflug nutzte (arboreale Hypothese). Präzisiert wird die Theorie der Evolution der Flugsaurier aus "Scleromochlus"-ähnlichen Vorläufern durch Michael Benton 1999, der weitere Optionen der Lebensweise von "Scleromochlus taylori" darstellt und vor allem eine sehr detaillierte Merkmalsanalyse des Tieres bietet. Im Gegensatz zu Huene favorisiert er die von Woodward 1907 aufgestellte Theorie, dass "Scleromochlus" zwar ein Springer war, jedoch nicht Bäume als Absprungpunkt nutzte, sondern ein Bodenläufer mit gut ausgeprägtem Sprungvermögen war (saltatorische Hypothese). Demnach soll sich aus dieser Art des Springers der erste fliegende Flugsaurier entwickelt haben. Bislang ist nicht geklärt, welche der beiden Theorien zutreffend ist, spannend ist jedoch, dass für die Evolution des Fluges bei den Vögeln die gleichen Theorien aufgestellt wurden. Systematik. Eine vollständige Systematik mit allen Gattungen findet sich unter Systematik der Flugsaurier. Sowjetische Besatzungszone. Sowjetische Besatzungszone und Sowjetischer Sektor von Berlin ab 8. Juni 1947 Die Sowjetische Besatzungszone (SBZ) oder Ostzone (umgangssprachlich auch "Zone" genannt) war eine der vier Zonen, in die Deutschland 1945 entsprechend der Konferenz von Jalta von den alliierten Siegermächten des Zweiten Weltkrieges aufgeteilt wurde. Zur SBZ gehörten die mitteldeutschen Länder Sachsen und Thüringen, die Provinz Sachsen-Anhalt, ein großer Teil der Provinz Brandenburg sowie Mecklenburg und Vorpommern. Nicht dazu gehörten die deutschen Ostgebiete, die von Polen und der Sowjetunion bis zu einer friedensvertraglichen Regelung verwaltet werden sollten. Ausnahmen bildeten anfangs lediglich die westlich der späteren Oder-Neiße-Grenze gelegenen Gebiete um Stettin und Swinemünde, welche auf Grund der unklaren künftigen Grenzziehung zunächst noch Teile der SBZ waren. Die Gebiete wurden im Zuge der Beschlüsse des Potsdamer Abkommens wenige Monate nach dem Kriegsende aus der SBZ wieder ausgegliedert. So wurde zunächst das Stettiner Gebiet am 5. Juli 1945 aus der SBZ herausgelöst und der polnischen Verwaltung unterstellt. Am 6. Oktober 1945 erfolgte die Übergabe der Stadt Swinemünde an die polnische Verwaltung. Am 7. Oktober 1949 wurde die SBZ das Staatsgebiet der neu gegründeten Deutschen Demokratischen Republik (DDR). SBZ. Das Kürzel "SBZ" wurde auch nach 1949 während des Kalten Krieges in den frühen Jahrzehnten der Bundesrepublik Deutschland meist anstelle des Kürzels "DDR" benutzt, weil die Bundesrepublik die Existenz eines ostdeutschen Staates nicht anerkennen wollte. Mit entsprechender Konnotation wurden von der westdeutschen Bevölkerung und in der politischen Auseinandersetzung auch Begriffe wie „sogenannte DDR“, „Sowjetdeutschland“, „Ostzone“, „Sowjetzone“ oder einfach die „Zone“ verwendet. Dieses änderte sich ab 1972 mit dem Grundlagenvertrag. In den Druckerzeugnissen von Zeitungsverlagen – besonders konsequent und auch noch bis zum Sommer 1989 in der Springer-Presse – wurde der Begriff „DDR“ oft in Anführungszeichen gesetzt. Die DDR wurde bis zur Aufgabe des Alleinvertretungsanspruchs der Bundesrepublik, teils auch über die 1970er Jahre hinaus, in Büchern des Bertelsmann-Verlages, im amtlichen und allgemeinen Sprachgebrauch der westdeutschen Bevölkerung weiterhin als „Mitteldeutschland“ bezeichnet, da offiziell – bis zu einem Friedensvertrag – die Gebiete östlich der Oder und Lausitzer Neiße unter der Verwaltung des polnischen Staates und das nördliche Ostpreußen um Königsberg unter der der Sowjetunion standen, völkerrechtlich somit (noch) keine Gebiete dieser Staaten waren und weiterhin bis zum Zwei-plus-Vier-Vertrag zu Deutschland als Ganzem gehörten. Reste dieser Begriffsverwendung fanden sich noch jahrelang, über das Ende der DDR hinaus, etwa in dem Begriff des "Zonenrandgebiets", dessen Unterstützung im "Zonenrandförderungsgesetz" bis zu dessen Aufhebung 2006 geregelt war, und existieren noch heute im Begriff des "Sowjetzonenflüchtlings". Diesen Status konnte nach dem Bundesvertriebenengesetz eine Person erhalten, die vor dem 1. Juli 1990 die DDR verlassen hat. Ebenso hielt sich die Bezeichnung Interzonenzug praktisch über die gesamte Geschichte der DDR. Im Jahr der Kapitulation 1945. Mit dem Inkrafttreten der bedingungslosen Kapitulation der Wehrmacht am 8. Mai 1945 war das nationalsozialistische Deutschland besiegt und der Zweite Weltkrieg in Europa beendet. Mehrere Initiativgruppen des Zentralkomitees, die von der Sowjetunion gesteuert wurden, waren bereits vor dem Kriegsende aus dem sowjetischen Exil nach Deutschland zurückgekehrt. Neben der Gruppe Ulbricht, angeführt durch Walter Ulbricht, den späteren Staats- und Parteichef der DDR, die etwa am 1. Mai in Bruchmühle bei Strausberg ihre Tätigkeiten aufnahm, gab es die Gruppe Ackermann-Matern in Dresden und die Gruppe Sobottka in Warsow bei Stettin. Diese Gruppen sollten deutsche Selbstverwaltungsorgane unter kommunistischer Leitung mit breiter Beteiligung „bürgerlicher-antifaschistischer“ Kreise schaffen. In den ersten Juni-Tagen folgte eine weitere Gruppe um Wilhelm Pieck. Die Hauptalliierten der Anti-Hitler-Koalition, Großbritannien, die USA und die Sowjetunion, später auch Frankreich, übernahmen durch die Berliner Erklärung am 5. Juni offiziell die oberste Regierungsgewalt im Deutschen Reich, stellten die vier Besatzungszonen beziehungsweise für Berlin die vier Sektoren fest und bildeten den Alliierten Kontrollrat. Die Donau- und Alpenreichsgaue des Deutschen Reiches wurden wieder zu Österreich und ebenfalls in vier alliierte Besatzungszonen aufgeteilt, darunter auch eine SBZ. Die östlich davon gelegenen Reichsgebiete (Ostdeutschland) wurden unter einstweilige polnische und sowjetische Verwaltung (heutige Oblast Kaliningrad) gestellt. Entsprechend der Erklärung von Jalta zogen die USA und Großbritannien ihre Truppen in der Zeit vom 1. bis 4. Juli aus den als SBZ bestimmten Gebieten ab (westliches Mecklenburg, Sachsen-Anhalt, Thüringen, westliches Sachsen) und rückten im Gegenzug in die für sie reservierten Westsektoren Berlins ein. Zwischen Mai und September 1945 richtete die Geheimpolizei des sowjetischen NKWD insgesamt zehn sogenannte Speziallager auf dem Gebiet der SBZ ein. Bis 1950 wurden dort mindestens 122.000 Deutsche ohne Verfahren und Gerichtsurteil inhaftiert. Tausende von ihnen wurden zur Zwangsarbeit in die Sowjetunion deportiert. Mindestens 42.000 Personen kamen in den sowjetischen Speziallagern ums Leben. Für die SBZ in Deutschland wurde am 9. Juni die Sowjetische Militäradministration in Deutschland (SMAD) mit Sitz in Berlin-Karlshorst eingesetzt, die die Regierungsgewalt übernahm. Eine erste territoriale und politische Untergliederung der SBZ geschah bereits im Juni 1945 durch die Errichtung der Länder Mecklenburg-Vorpommern, Sachsen sowie Thüringen mit eigenen Landesregierungen und Provinzverwaltungen in den ehemaligen preußischen Provinzteilen Sachsen, Sachsen-Anhalt und Brandenburg. Den Verwaltungen der fünf förderativen Ländern beziehungsweise Provinzen wurde mit dem Befehl Nr. 45 vom 22. Oktober 1945 das Recht auf Gesetzgebung eingeräumt, wenn diese im Einvernehmen mit den Kontrolldirektiven standen. Im September kam es durch das Wanfrieder Abkommen zu einem Gebietstausch zwischen sowjetischer und US-amerikanischer Besatzungszone. Dies betraf die Bahnverbindung Bebra – Göttingen. Damit gelangte ein Teil des Eichsfelds in die amerikanische Zone und später nach Hessen. Durch das Barber-Ljaschtschenko-Abkommen gab es im November einen weiteren Gebietstausch, diesmal zwischen Mecklenburg und dem zur britischen Besatzungszone gehörenden Schleswig-Holstein. Der Befehl 01 des SMAD vom 23. Juli 1945 leitete eine Reorganisation des Finanz-, Bank-, Sparkassen-, und Versicherungswesens ein. Ein gleichzeitig nicht öffentlich ergangener Befehl bestätigte die bereits am 8. Mai vorgenommene Beschlagnahmung von Geldern und Mitteln aus Geld- und Kreditinstituten. Mit dem Befehl Nr. 2 gestattete sie die Bildung von Parteien und Gewerkschaften. In Folge wurde bereits am 11. Juni die KPD gegründet. Weitere Parteien wie die SPD, CDU und LDP folgten bis Anfang Juli. Am 13. Juni konstituierte sich der Freie Deutsche Gewerkschaftsbund (FDGB). Zuvor waren Parteien aufgelöst worden wie etwa die „Partei der Werktätigen“, die in Thüringen als einheitliche sozialistische Partei aus Altkommunisten und Sozialdemokraten gegründet worden war. Der Zusammenschluss von KPD, SPD, CDU und LDP am 14. Juli gestaltete das Parteiwesen in der SBZ durch die Bildung eines Einheitsfront der antifaschistisch-demokratischen Parteien ("Einheitsfront", "Antifaschistischer Block", "Demokratischer Block",) maßgeblich um. Am 1. Juli wurde die Deutsche Volkspolizei gegründet, die aber erst nach der Genehmigung durch die SMAD am 1. Oktober bewaffnet wurde. Zum Ende des Monats begann der Aufbau der Volkspolizei. Das SMAD führte ein striktes System der Vorzensur in der SBZ ein ("siehe auch:" Vorzensur). Auch das Kultur-, Volksbildungs- und Hochschulwesen wurden nach sowjetischen Vorgaben umgestaltet. So etwa kam es zur einseitig politisch-propagandistischen Ausrichtung der Kulturarbeit, die Politisierung der Ausbildungsgänge und der Auswahl von Studenten zur Zulassung in Studiengängen. Im Rechtswesen wurden sogenannte „Volksrichter“ eingesetzt. Vom 3. bis 11. September erließen die Provinz- und Landesverwaltungen der Sowjetischen Besatzungszone (SBZ) Verordnungen zur Durchführung der Bodenreform in Deutschland in der SBZ. Dabei wurden Landbesitzer entschädigungslos enteignet, die über 100 Hektar Fläche besaßen. MIt Hilfe des Befehls 124 des SMAD und Handlungen der Sequesterkommission wurden alle größeren Industriebetriebe enteignet und in sogenanntes „Volkseigentum“ überführt. Mai bis Juli: Der ersten Demontagewelle fielen etwa 460 Berliner Betriebe zum Opfer. Dies entsprach zirka 75 Prozent der damals noch vorhandenen Kapazitäten. Im Sinn der Reparationspolitik kam es zur Aneignung von Kriegsbeute und Trophäenaktionen, der Demontage, der Enteignung von Industriebetrieben und sonstigen Vermögenswerten, der Errichtung sowjetischer Handelsgesellschaften, der Entnahme von Erzeugnissen aus laufender Produktion und Zwangsarbeit von Kriegsgefangenen sowie Zivilinternierten auch in der UDSSR. Die Kapazitätsverminderung in einzelnen Industriezweigen bewegte sich zwischen 15 bis 100 %. 1946. Am 7. März wurde die Freie Deutsche Jugend (FDJ) gegründet. Erste Gruppen hatte es bereits im Exil gegeben, auf die sich die neue Führung aber nicht bezog. Auch in den westlichen Besatzungszonen kam es zur Gründung von Gruppen der FDJ, die in der späteren Bundesrepublik jedoch 1951 verboten wurden. KPD und SPD schlossen sich – unter erheblichem Druck der SMAD auf die SPD – am 21./22. April zur Sozialistischen Einheitspartei Deutschlands (SED) zusammen. Wilhelm Pieck (KPD) und Otto Grotewohl (SPD) wurden zu Vorsitzenden gewählt. Am 23. April erschien die Erstausgabe der Tageszeitung "Neues Deutschland" als Organ des Zentralkomitees (ZK) der SED. Der Volksentscheid in Sachsen am 30. Juni 1946 billigte die entschädigungslose Enteignung von Großgrundbesitzern, Kriegsverbrechern und aktiven NSDAP-Mitgliedern. Am 30. Juli wurde die Deutsche Verwaltung des Innern (DVdI) zur Koordination der Polizei in der SBZ gebildet. Präsident der DVdI wurde der vorherige Landespolizeichef von Thüringen, Erich Reschke. Vizepräsidenten wurden Erich Mielke, Willi Seifert und Kurt Wagner. Bei den Wahlen zu den Land- und Kreistagen in der SBZ am 20. Oktober erreichte die SED mit 47,5 % nicht die angestrebte absolute Mehrheit. (Provinz Mark Brandenburg 44 %, Land Sachsen 49 %, Provinz Sachsen-Anhalt 46 %, Land Mecklenburg 50 %, Land Thüringen 50 %. Bei den Stadt- und Bezirksverordnetenwahlen in Groß-Berlin führte die SPD mit 63 vor der SED mit 26 Sitzen.) Mehr als 2000 Ingenieure wurden in der „Aktion Ossawakim“ im Oktober 1946 mit ihren Familien in die Sowjetunion gebracht, um an militärischen Entwicklungen (Kern- und Raketentechnik) mitzuarbeiten und deutsche wissenschaftliche Errungenschaften preiszugeben. Am 1. Dezember wies die Sowjetische Militäradministration (SMAD) den Aufbau der Deutschen Grenzpolizei (DGP) in der SBZ an. 1947. Am 1. April ordnete die Sowjetische Militäradministration die Gründung der "Deutschen Treuhandstelle zur Verwaltung des beschlagnahmten Vermögens von Nazi- und Kriegsverbrechern" an. Der Befehl der Sowjetischen Militäradministration (SMAD) 138/47 vom 11. Juni wies die Einrichtung der Deutschen Wirtschaftskommission (DWK) als erstes zentrales Verwaltungsorgan der sowjetischen Besatzungszone an und institutionalisierte damit die wirtschaftliche Umgestaltung. Am 16. August erging der SMAD-Befehl 201/47 zur Entnazifizierung und vollständigen Säuberung aller öffentlichen Ämter und der Wirtschaft „von aktiven Faschisten, Militaristen und Kriegsverbrechern“. Am 20. September fand der II. Parteitag der SED statt. Am 6./7. Dezember tagte in Ost-Berlin ein durch die SED initiierter, nicht durch demokratische Wahlen legitimierter, "Volkskongress für Einheit und gerechten Frieden," der erste Deutsche Volkskongress. Am 20. Dezember 1947 setzte die SMAD den demokratisch gewählten Parteivorstand der CDU ab und erreichte so die Umwandlung der Union in eine Blockpartei. 1948. Der SMAD-Befehl 35/48 vom 26. Februar führte zur Auflösung der Entnazifizierungskommissionen in der SBZ. Die Entnazifizierung wurde offiziell zum 10. März abgeschlossen. Insgesamt waren über eine halbe Million Personen aus Dienststellen und staatlichen Einrichtungen entfernt worden. Der zweite Deutsche Volkskongress in Ost-Berlin am 17./18. März verständigte sich darauf, einen Deutschen Volksrat zu berufen, der den Auftrag erhielt, eine Verfassung einer "Deutschen Demokratischen Republik" für ganz Deutschland auszuarbeiten. Dieser nahm unter dem Vorsitz von Wilhelm Pieck (SED), Wilhelm Külz (LDP) und Otto Nuschke (CDU) am 19. März seine Arbeit auf. Dessen Ausschuss zur Erarbeitung einer Verfassung wurde von Otto Grotewohl geleitet. Im Zuge des sich verschärfenden Ost-West-Konflikts in der Deutschlandpolitik der Siegermächte verließen am 20. März die Vertreter der Sowjetunion aus Protest gegen die Londoner Sechsmächtekonferenz den Alliierten Kontrollrat, der damit arbeitsunfähig wurde. Die Deutsche Wirtschaftskommission (DWK) beschloss am 5. Mai die Einrichtung eines Ausschusses zum Schutz des Volkseigentums (ASV). In den drei westlichen Besatzungszonen fand am 20. Juni eine Währungsreform statt. Am 23. wurde die D-Mark auch in West-Berlin eingeführt. Die Sowjetunion verhängte am 24. als Reaktion auf die mit ihr nicht abgestimmte Währungsreform in den Westzonen und damit faktische wirtschaftliche Spaltung Deutschlands eine Blockade über die drei Westsektoren Berlins. Diese Blockade führte zur Einrichtung der Berliner Luftbrücke ab dem 26. Juni. Bis zur Aufhebung der Blockade durch die Sowjetunion am 12. Mai 1949 wurden in 195.530 Flügen 1.583.686 Tonnen Hilfsgüter und 160.000 Tonnen Baustoffe zum Ausbau der Flughäfen durch die sogenannten „Rosinenbomber“ transportiert. Vom 24. bis 28. Juni fand in der Sowjetischen Besatzungszone (SBZ) und Ost-Berlin eine eigene Währungsreform statt. Es gab viele Provisorien in dieser Zeit, da die Administration von der Währungsreform völlig überrascht wurde. Auf alte Reichsmarknoten wurden neue Wertzeichen geklebt. Diese Geldscheine wurden im Volksmund "Koupon-Mark" genannt. Zudem wurden zum Beispiel bei Briefmarken die sogenannten "Handstempel" eingeführt: Die Ausgaben des Alliierten Kontrollrats von 1947 wurden mit vorhandenen "Bezirkshandstempeln" versehen und dann gegen neue Währung ausgegeben (gültig vom 24. Juni bis 10. Juli 1948). Die Ausgaben konnten auch ohne Handstempel bis 31. Juli 1948 als sogenannte „Zehnfachfrankaturen“ aufgebraucht werden. Die Deutsche Volkspolizei (DVP) stellte ab dem 3. Juli kasernierte Bereitschaften auf. Die Militärgouverneure der westlichen Besatzungszonen hatten den Ministerpräsidenten der Länder ihres Machtbereichs zwischenzeitlich – am 1. Juli – die aus der Londoner Sechsmächtekonferenz entstandenen "Frankfurter Dokumente" zugestellt, in denen sie diese zur Einberufung einer verfassunggebenden Versammlung ermächtigten und die Rahmenbedingungen einer Staatskonstituierung festlegten. Daraufhin begann am 10. August mit dem Verfassungskonvent auf Herrenchiemsee die Arbeit am Grundgesetz für die Bundesrepublik Deutschland. Der Präsident der Deutschen Verwaltung des Innern (DVdI), Erich Reschke, wurde am 12. Juli durch den sächsischen Innenminister Kurt Fischer (SED) abgelöst. Die SED beschloss am 16. September die Einrichtung einer Zentralen Parteikontrollkommission (ZPKK). Am 13. Oktober förderte der Bergmann Adolf Hennecke in einer Schicht 24,4 m³ Kohle und überbot damit das Tagessoll um 387 %. Damit wurde die Aktivistenbewegung in der DDR gegründet, die zur Leistungssteigerung ohne erhebliche finanzielle Anreize auffordern sollte. So orientierte man sich auch in diesem Bereich an der Sowjetunion. Die Stachanow-Bewegung der Sowjetunion diente als Vorlage für die "Hennecke-Bewegung" in der SBZ bzw. der späteren DDR. Am 22. Oktober schloss der Ausschuss des "Deutschen Volksrats" seine Arbeit an einer – auf einem entsprechenden Entwurf der SED von 1946 fußenden – Verfassung einer Deutschen Demokratischen Republik ab. Diese wurde dann am 19. März des folgenden Jahres vom Deutschen Volksrat angenommen. Das Politbüro der KPdSU beschloss am 28. Dezember die Bildung der "Hauptverwaltung zum Schutz der Volkswirtschaft", Vorläufer des Ministeriums für Staatssicherheit (MfS). 1949. Am 14. Januar erging der Befehl Nr. 2 des Präsidenten der DVdI, Kurt Fischer, zur „Reinigung der Polizei von unerwünschten Elementen“. Auf ihrer 1. Parteikonferenz vom 25. bis 28. Januar beschloss die SED die Neuausrichtung der Partei im Stile der sowjetischen KPdSU. Ein Politbüro wurde gebildet und der demokratische Zentralismus als Organisationsprinzip eingeführt. Die Dezernate und Kommissariate K 5 wurden am 6. Mai aus der Kriminalpolizei herausgelöst. Unter der Führung von Erich Mielke wurden eigenständige Organisationseinheiten einer politischen Polizei gebildet, die nach Gründung der DDR als "Hauptverwaltung zum Schutz der Volkswirtschaft" in das neu gebildete Ministerium des Innern (MdI) eingingen. Am 12. Mai hob die Sowjetunion um 0:00 Uhr die Blockade West-Berlins auf, nachdem sie erkennen musste, dass die USA und Großbritannien entschlossen waren, die Berliner Luftbrücke, die die Versorgung West-Berlins garantierte, unbegrenzt weiterzuführen. In der sowjetischen Besatzungszone fanden am 15./16. Mai die Wahlen zum 3. Deutschen Volkskongress statt, allerdings nach Einheitslisten. Trotz erheblicher Wahlfälschungen entfielen nur etwa 66 Prozent der Stimmen auf die Einheitsliste. Am 23. Mai wurde das vom Parlamentarischen Rat am 8. Mai beschlossene Grundgesetz verkündet; damit war die Bundesrepublik Deutschland konstituiert. Vom 29. Mai bis 3. Juni fand der dritte Deutsche Volkskongress statt. Die mehr als 2.000 Mitglieder wählten den Zweiten Deutschen Volksrat als ständiges Organ. Nur 25 Prozent seiner 330 Mitglieder stammten aus den Westzonen. Der Volkskongress bestätigte am 30. Mai einstimmig die Verfassung für eine Deutsche Demokratische Republik. In der Bundesrepublik fanden am 14. August die Wahlen zum ersten Deutschen Bundestag statt, der am 15. September Konrad Adenauer zum ersten Bundeskanzler wählte, nachdem zuvor Theodor Heuss am 12. September in der ersten Bundespräsidentenwahl zum Bundespräsidenten gewählt worden war. Am 7. Oktober konstituierte sich der Zweite Deutsche Volksrat als "Provisorische Volkskammer" und setzte die Verfassung der DDR in Kraft, womit die Deutsche Demokratische Republik gegründet war. Bevölkerungsentwicklung. Ende 1945 wurde in der SBZ eine Volkszählung durchgeführt, die erste nach dem Kriegsende. Insgesamt wurden fast 16,2 Millionen Menschen gezählt, fast eine Million mehr als zur letzten Volkszählung 1939. Spree. Die Spree (,), in Abschnitten Große Spree genannt, ist ein knapp 400 Kilometer langer linker Nebenfluss der Havel im Osten Deutschlands, der am Oberlauf für ein kurzes Stück den äußersten Norden Tschechiens berührt. Zahlen. Die Länge der Spree beträgt rund 400 Kilometer (andere Quellen geben 382, 398 bzw. 403 Kilometer an), davon sind etwa 182 Kilometer schiffbar. Die Spree ist der längste deutsche Fluss dritter Ordnung. Das Einzugsgebiet des Flusses umfasst 10.100 Quadratkilometer. Die Spree wird als ein Nebenfluss der Havel geführt. Sie ist jedoch länger als diese, und an ihrer Mündung führt sie mehr als doppelt so viel Wasser (36 Kubikmeter pro Sekunde, Pegel Sophienwerder) wie ihr nomineller Hauptfluss (15 Kubikmeter pro Sekunde, Pegel Spandau-Schleuse). Name. Spätere Autoren deuten den Namen auch als Hinweis auf die große Anzahl verstreuter Quellen. So hat der Ebersbacher Oberbach auf dem Kottmar fünf Quellen, die als Spreequellen bezeichnet werden (Räumigtbrunnen, Rabenbrunnen, Jacobs-Brunnen, Benjamins Hut-Brunnen und Hennings-Brunnen). Von Neugersdorf kommt der sogenannte Spreegraben, dessen Quellen auf dem Neugersdorfer Kuhzahl liegen. Die älteste bekannte schriftliche Erwähnung der Spree findet sich 965 als "Sprewa" in einer Urkunde Ottos I., die in den Monumenta Germaniae Historica erhalten ist. Nach dem Brandenburgischen Namenbuch stammt der Name aus der germanischen Grundform "spreu̯-" = "stieben, säen, sprengen, sprühen". Der germanische Name "Sprēw-" wurde als "Sprěva" oder "Sprěv’a" in das Slawische übernommen, worauf wiederum die deutsche Form "Spree" zurückgeht. In der Regel wird der Name als "die Sprühende" gedeutet. Flusslauf. Tafel in der Nähe der Quelle auf dem Kottmar mit dem Verlauf der Spree Die Spree fließt durch die Bundesländer Sachsen, Brandenburg und Berlin. In ihrem Oberlauf bildet die Spree nach dem Zusammenfluss der Ebersbacher und Neugersdorfer Quelle zwischen Neugersdorf und Ebersbach für wenige hundert Meter die deutsch-tschechische Grenze. Danach kommt es am Stadtpark in Ebersbach zum Zusammenfluss mit der Spree von der Kottmarer Quelle. Quellen. Der Fluss entspringt im Oberlausitzer Bergland nahe der Grenze zu Tschechien aus drei Quellen: am Kottmar im Ortsteil Walddorf der Gemeinde Kottmar sowie in den Stadtteilen Ebersbach-Spreedorf und Neugersdorf der Stadt Ebersbach-Neugersdorf. Über die Entstehung der drei Spreequellen hat sich im Oberlausitzer Sagenschatz folgende Legende erhalten, die in neuerer Bearbeitung und gekürzt hier wiedergegeben werden soll: Der Riese Sprejnik, dem in grauer Vorzeit das Land zwischen Bautzen und Oberlausitzer Bergland untertan war, schnitzte einst einen großen und starken Bogen, damit er sein Reich und seine Bewohner besser schützen konnte. Um zu erproben, wie weit seine Pfeile flögen, schoss er einige nach Südosten. Als seine Untertanen danach suchten, fanden sie die Pfeile weit oben im Bergland in einem Tal. Mit den Händen ließen sie sich nicht aus dem Boden ziehen, sondern mussten ausgegraben werden. Aus den Löchern begann frisches Wasser zu quellen. Die drei Spreequellen am Kottmar, in Neugersdorf und Ebersbach waren geboren. Dadurch entstand ein Fluss, der noch heute durch die Lausitz fließt. Unsere Altvordern nannten ihn zu Ehren des gütigen Riesen Sprejnik "Spree". Die heutigen Städte Neusalza-Spremberg und Spremberg in der Lausitz empfingen von der Spree ihren Namen (vgl. L. Mohr 2012, S.69). Quelle am Kottmar. Die höchstgelegene Spreequelle befindet sich am Westhang des Kottmars in 478 m ü. NN (). In einer Hangnische am Kottmar, aus der die Eibauer Spreequelle, auch Buchenborn genannt, austritt, wurde um die Quelle 1921 eine halbkreisförmige Phonolithsteinmauer errichtet. Auf ihr sind die Heimatorte von Gefallenen des Ersten Weltkrieges aufgeführt, die Mitglieder des Gebirgsvereins Lusatia waren. Die Anlage inmitten von Rotbuchen und Fichten wurde 1957 erneuert. Quelle in Ebersbach. Von den drei Spreequellarmen entspringt einer im historischen "Spreeborn" (), ein paar Meter danach erfolgt der Zusammenfluss mit der Neugersdorfer Quelle. Der Spreeborn liegt an der Ebersbach-Neugersdorfer Ortsgrenze. Sie ist die älteste geschichtlich einwandfrei belegte Spreequelle. Die anderen zwei Quellen wurden erst viel später als Spreequellen bezeichnet. Im Jahre 1887 wird dies durch den Generalfeldmarschall Helmuth Karl Bernhard von Moltke auf der Grundlage alter Militärlandkarten amtlich bestätigt. 1736 wurde der alte wasserreiche Brunnen durch ein Häuschen mit Zwiebeldach, auf Holzsäulen ruhend, überbaut. König Friedrich II. spendete 50 Taler für den Bau. 1848 wurde dieses Häuschen von der Stadt-Commune Zittau wegen Baufälligkeit abgerissen. Eine einfache Holzhütte ersetzte den älteren Bau. Nachdem auch diese Hütte baufällig wurde und die Gemeinde kein Geld für einen Neubau hatte, konstituierte sich der Spreequellenverein. 1896 wurde ein durch Spendenmitteln finanzierter gusseiserner, achtseitiger Pavillon über der Quelle errichtet, der die Wappen der an der Spree gelegenen Städte und früheren Länder (Deutschland, Österreich, Sachsen und Preußen) zeigt. Quelle in Neugersdorf. Eine weitere „Kunst“-Quelle liegt am Eingang des Neugersdorfer Bades (), die 1888 schmiedeeisern gefasst und beim Bau des Neugersdorfer Spreequellbades 1926 etwas seitlicher verlegt wurde. Ursprünglich befand sie sich südlich vom Volksbad auf der „Spreequellstraße“. Die früheren Quellwiesen am Stadtrand wurden vorher längst trockengelegt und zum Teil mit Häusern bebaut. 1996 wurde die Quellfassung restauriert. Der Spreegraben kommend von der Neugersdorfer Quelle fließt ca. 50 Meter am Spreeborn, der Ebersbacher Spreequelle, vorbei. Die Neugersdorfer Quelle gilt als die ergiebigste aller drei Quellen. Oberlauf (Sachsen und Tschechien). In Neusalza-Spremberg durchfließt der junge Gebirgsbach den sogenannten "Spreepark", ein landschaftlich reizvolles Gebiet. Zwischen Neusalza und Taubenheim reicht der zu Tschechien gehörende Fugauer Zipfel von Süden her bis auf das Nordufer des Flüsschens. Auf einer Länge von 700 Metern durchquert die Spree hier tschechisches Territorium, bevor sie Taubenheim erreicht. Aus dem Bergland heraus fließt die Spree wenige Kilometer über eine Hochfläche, zwischen Großpostwitz und Bautzen dann in einem tief eingeschnittenen Tal, das sie schließlich am nördlichen Rand der Stadt und hinter der Talsperre Bautzen als Tieflandfluss verlässt. Lausitzer Tiefland (Sachsen und Brandenburg). Neun Kilometer weiter beginnt das erste Binnendelta: Die Kleine Spree zweigt nach Westen ab, gewinnt bis zu 10 Kilometer Abstand und mündet etwa 30 Kilometer flussabwärts bei Spreewitz wieder in den Hauptfluss, der bis zu dieser Stelle zur besseren Unterscheidung auch Große Spree genannt wird. Etwa ab der Verzweigung ist die durchflossene Gegend waldig und bleibt es, mit Ausnahme des Oberspreewaldes und des Beeskower Umlandes, bis nach Berlin-Köpenick. Nördlich von Uhyst wurde der Spreelauf wegen der Braunkohletagebaue Bärwalde (heute Bärwalder See) und Nochten verlegt. Bei Sprey mündet von Osten der Schwarze Schöps, dessen erst 10 Kilometer vor der Mündung zufließender Nebenfluss Weißer Schöps sich am Stadtrand von Görlitz bis auf vier Kilometer der Lausitzer Neiße genähert hat. Nach 111 Kilometern hat die Spree die Landesgrenze erreicht und nähert sich der brandenburgischen Stadt N.L., die ebenso wie das Dorf O.L. ihren Namen vom Fluss hat. Nachdem die Spree die Stadt durchflossen hat, wird sie in der Talsperre Spremberg gestaut. In diesem Abschnitt ist die Spree infolge des Braunkohleabbaus und des Grundwasserwiederanstiegs in den ehemaligen Tagebauen von Verockerung durch Eisenhydroxid betroffen. Cottbus und Spreewald (Brandenburg). Die nächste Stadt an ihren Ufern ist Cottbus, das Zentrum der Niederlausitz. Kurz dahinter verzweigt sie sich im Baruther Urstromtal zu einem mehr als 30 Kilometer langen und mehr als 10 Kilometer breiten Binnendelta, dem Oberspreewald. Hier gibt es mehr Wiesen als Wald und in den kleinen Dörfern typische sorbische Holzhäuser. In Lübben mündet die mit einer Reihe von Quellbächen am Lausitzer Grenzwall entspringende Berste längs des Urstromtals in die Spree. Hinter Lübben schließt sich als deutlich kleineres Binnendelta der tatsächlich bewaldete Unterspreewald an. Am Nordende des Spreewaldes zweigt der Dahme-Umflutkanal ab, angelegt, um den Spreewald bei Hochwasser besser zu entwässern. Brandenburg. Die Spree fließt dann ostwärts zum Nordende des Schwielochsees, anschließend nordwärts durch Beeskow bis ins Berliner Urstromtal, in das der Oder-Spree-Kanal gebaut wurde, der mit der Schleuse Kersdorf von der Spree nach Osten abzweigt. Von dort bis Große Tränke fließt die Spree nordwestwärts als Fürstenwalder Spree und bildet auf gut 19 km eine Teilstrecke der Bundeswasserstraße Spree-Oder-Wasserstraße. Dann schlängelt sie sich als Müggelspree in Richtung Müggelsee, während der westliche Teil des Oder-Spree-Kanals zu dem zur Dahme gehörenden Seddinsee führt. Berlin. Die Spree fließt 44 Kilometer lang durch Berlin. Der Abschnitt vom Dämeritzsee durch den Müggelsee bis nach Berlin-Köpenick wird auch als "Müggelspree" bezeichnet. In Köpenick mündet die Dahme in die Spree. Von hier ab gehört die Spree bis zu ihrer Mündung in die Havel mit rd. 32 Kilometern wieder zur Spree-Oder-Wasserstraße, und zwar als "Treptower Spree" (bis zum Abzweig des Britzer Verbindungskanals auch Oberspree) und ab dem Landwehrkanal als "Berliner Spree". Am Spreeufer in Friedrichshain-Kreuzberg zwischen der Elsenbrücke und der Jannowitzbrücke ist das Investorenprojekt Mediaspree angelegt. Im Zentrum Berlins geht westlich der Spree auf ca 1,8 km der Spreekanal (im nördlichen Abschnitt Kupfergraben genannt) ab und bildet die Spreeinsel. Kurz hinter der Weidendammer Brücke, mündet von Norden kommend der ursprüngliche Lauf der Panke in die Spree. Nach dem Abzweig am Humboldthafen zum Berlin-Spandauer Schifffahrtskanal mäandert die Spree am Großen Tiergarten entlang, heißt in Charlottenburg "Untere Spree" und mündet schließlich in Spandau in die Havel. Die Oberhavel ist von der Quelle bis zur Spreemündung mit 165 Kilometer deutlich kürzer als die Spree. Von 1882 bis 1885 wurde die Spree in Berlin als Schifffahrtsweg ausgebaut. Sie wurde begradigt, und in der Innenstadt wurde das Ufer mit Mauern befestigt. Hydrologie und Hydrografie. Wegen ihres sehr geringen Gefälles fließt die Spree sehr langsam, durchschnittlich circa 50 Zentimeter pro Sekunde. Zwischen Cottbus und Berlin-Köpenick sind es pro Sekunde nur 17 Zentimeter und auf den 46 Kilometer durch Berlin sogar nur noch neun Zentimeter pro Sekunde Fließgeschwindigkeit. In den 1960er- bis 1970er-Jahren wurden wegen des Braunkohletagebaus erhebliche Mengen an Grundwasser abgepumpt und in die Spree geleitet. Das Wasser aus dem 2.500 Quadratkilometer großen Lausitzer Gebiet (13 Milliarden Kubikmeter) floss im Lauf der Jahrzehnte größtenteils über die Spree ab. Seit dem Ende des Braunkohletagebaus steigt der Grundwasserspiegel wieder und der Spree fehlt Wasser, bis sich ein neues Gleichgewicht eingestellt hat. Besonders in den Sommermonaten kann es zu erheblichem Frischwassermangel kommen. Zwischen den existierenden Staustufen ist die Spree dann ein weitgehend stehendes Gewässer. Am Pegel Leibsch (Unterspreewald) wird in trockenen Sommern regelmäßig ein Abfluss von 0 Kubikmetern festgestellt. Im Sommer 2003 wurde beobachtet, dass die "Spree" in Köpenick rückwärts floss. Da im Berliner Raum geklärtes Abwasser in die Spree eingeleitet wird, kann es daher vorkommen, dass in trockenen Sommern die Spree im Berliner Raum nahezu vollständig aus geklärtem Abwasser besteht. Seit dem Jahr 1997 legen Berlin und Brandenburg Speicherseen an, die einen Mindestzufluss garantieren sollen. Rund dreißig Jahre zuvor waren bereits die Talsperre Spremberg und wenig später die Talsperre Bautzen angelegt worden, des Weiteren die Talsperre Quitzdorf am Schwarzen Schöps. Sokrates. Sokrates ("Sōkrátēs" * 469 v. Chr. in Alopeke, Athen; † 399 v. Chr. in Athen) war ein für das abendländische Denken grundlegender griechischer Philosoph, der in Athen zur Zeit der Attischen Demokratie lebte und wirkte. Zur Erlangung von Menschenkenntnis, ethischen Grundsätzen und Weltverstehen entwickelte er die philosophische Methode eines strukturierten Dialogs, die er Mäeutik („Hebammenkunst“) nannte. Sokrates selbst hinterließ keine schriftlichen Werke. Die Überlieferung seines Lebens und Denkens beruht auf Schriften anderer, hauptsächlich seiner Schüler Platon und Xenophon. Sie verfassten sokratische Dialoge und betonten darin unterschiedliche Züge seiner Lehre. Jede Darstellung des historischen Sokrates und seiner Philosophie ist deshalb lückenhaft und mit Unsicherheiten verbunden. Sokrates’ herausragende Bedeutung zeigt sich vor allem in seiner nachhaltigen Wirkung innerhalb der Philosophiegeschichte, aber auch darin, dass die griechischen Denker vor ihm heute als Vorsokratiker bezeichnet werden. Zu seinem Nachruhm trug wesentlich bei, dass er, nachdem er wegen angeblich verderblichen Einflusses auf die Jugend sowie Missachtung der Götter verurteilt worden war, das Todesurteil akzeptierte und eine Fluchtmöglichkeit aus Respekt vor den Gesetzen nicht wahrnahm. Bis zur Hinrichtung durch den Schierlingsbecher beschäftigten ihn und die zu Besuch im Gefängnis weilenden Freunde und Schüler philosophische Fragen. Nahezu alle bedeutenden philosophischen Schulen der Antike haben sich auf Sokrates berufen. Michel de Montaigne nannte ihn im 16. Jahrhundert den „Meister aller Meister“ und noch Karl Jaspers schrieb: „Sokrates vor Augen zu haben ist eine der unerlässlichen Voraussetzungen unseres Philosophierens.“ Mittelpunkt einer geistesgeschichtlichen Wende. Sokrates habe die Philosophie als Erster vom Himmel auf die Erde heruntergerufen, unter den Menschen angesiedelt und zum Prüfinstrument der Lebensweisen, Sitten und Wertvorstellungen gemacht, bemerkte Cicero, der römische Politiker und vorzügliche Kenner der griechischen Philosophie. In Sokrates sah er die Abkehr von der ionischen Naturphilosophie personifiziert, die bis 430 v. Chr. durch Anaxagoras in Athen prominent vertreten war. Dessen Vernunftprinzip hatte Sokrates zwar beeindruckt. Er kritisierte Anaxagoras aber insofern, als er bei ihm die Anwendung der Vernunft auf menschliche Problemstellungen vermisste. Allerdings war Sokrates, anders als Cicero glaubte, nicht der Erste oder Einzige, der die menschlichen Belange in den Mittelpunkt seines philosophischen Denkens stellte. Zu Sokrates’ Lebzeiten war Athen als Vormacht im Attischen Seebund und infolge der Ausgestaltung der Attischen Demokratie das politisch-gesellschaftlich tiefgreifendem Wandel und vielfältigen Spannungen ausgesetzte kulturelle Zentrum Griechenlands. Daher gab es im 5. Jahrhundert v. Chr. gute Entfaltungschancen für neue geistige Strömungen in Athen. Eine solche breit angelegte, durch Lehrangebote auch wirksam hervortretende Geistesrichtung war die der Sophisten, mit denen Sokrates so vieles verband, dass er den Zeitgenossen oft selbst als Sophist galt: Das Interesse für das praktische Leben der Menschen, für Fragen der Polis- und Rechtsordnung sowie der Stellung des Einzelnen darin, die Kritik der hergebrachten Mythen, die Auseinandersetzung mit Sprache und Rhetorik, außerdem Bedeutung und Inhalte von Bildung – das alles beschäftigte auch Sokrates. Was ihn von den Sophisten unterschied und zur geistesgeschichtlichen Gründerfigur machte, waren die darüber hinausgehenden Merkmale seines Philosophierens. Bezeichnend war z. B. sein stetiges, bohrendes Bemühen, den Dingen auf den Grund zu gehen und z. B. in der Frage „Was ist Tapferkeit?“, sich nicht mit Vordergründig-Augenscheinlichem zufriedenzugeben, sondern den „besten Logos“ zur Sprache zu bringen, d. h. das von Zeit und Örtlichkeit unabhängige, gleichbleibende Wesen der Sache. Methodisch neu zu seiner Zeit war die Mäeutik, das von Sokrates eingeführte Verfahren des philosophischen Dialogs zwecks Erkenntnisgewinn in einem ergebnisoffenen Forschungsprozess. Originär sokratisch war ferner das Fragen und Forschen zur Begründung einer philosophischen Ethik. Zu den von Sokrates erzielten Ergebnissen gehörte, dass richtiges Handeln aus der richtigen Einsicht folgt und dass Gerechtigkeit Grundbedingung des Seelenheils ist. Daraus ergab sich für ihn: Unrecht tun ist schlimmer als Unrecht erleiden. Daran knüpft sich ein viertes Element des mit Sokrates verbundenen philosophischen Neubeginns: die Bedeutung und Bewährung philosophischer Einsichten in der Lebenspraxis. In dem mit seinem Todesurteil endenden Prozess bescheinigte Sokrates seinen Widersachern, dass sie erkennbar im Unrecht seien. Gleichwohl lehnte er anschließend die Flucht aus dem Gefängnis ab, um sich nicht seinerseits ins Unrecht zu setzen. Die philosophische Lebensweise und die Einhaltung des Grundsatzes, dass Unrecht tun schlimmer ist als Unrecht leiden, gewichtete er höher als die Möglichkeit, sein Leben zu erhalten. Lebensweg des Philosophen. Über den Werdegang des Sokrates ist für die erste Lebenshälfte kaum etwas und danach auch nur Lückenhaftes bekannt. Die biographischen Hinweise stammen im Wesentlichen aus zeitgenössischen Quellen, deren Angaben sich allerdings teilweise widersprechen. Dabei handelt es sich um die Komödie "Die Wolken" des Aristophanes und um Werke zweier Schüler des Sokrates: die "Memorabilien" ("Erinnerungen an Sokrates") des Geschichtsschreibers Xenophon und Schriften des Philosophen Platon. Platons frühe Dialoge und seine "Apologie des Sokrates" sind die wichtigsten Quellen zu Sokrates. Unter den Nachgeborenen haben vor allem der Platon-Schüler Aristoteles und – im dritten Jahrhundert n. Chr. – der Doxograph Diogenes Laertios Hinweise beigesteuert. Darüber hinaus sind nur verstreute Notizen, Anmerkungen oder Anekdoten weiterer Autoren der griechischen und der lateinischen Literatur überliefert, etwa bei Cicero oder Plutarch. Weitere frühe Informationen findet man in anderen antiken Komödien. Herkunft, Bildung, Militäreinsätze. Laut Platon war Sokrates 399 v. Chr. 70 Jahre alt, woraus sich als Geburtsjahr das Jahr 469 v. Chr. ergibt. Gut gesichert ist das Jahr seines Prozesses und Todes, 399 v. Chr. Wohl eine spätere Erfindung ist, dass sein Geburtstag der 6. Tag des Monats Thargelion war. Laut Diogenes Laertios stammte er aus dem athenischen Demos Alopeke und war Sohn des Steinmetzes oder Bildhauers Sophroniskos. Platon teilt mit, dass die Mutter des Sokrates die Hebamme Phainarete war. Außerdem erwähnt Platon einen Halbbruder mütterlicherseits namens Patrokles, der wahrscheinlich mit dem Patrokles von Alopeke identisch ist, der in einer Inschrift auf der athenischen Akropolis aus dem Jahr 406/405 v. Chr. als Wettkampfordner der Panathenäen verzeichnet ist. Seine Ausbildung habe sich, so der deutsche Althistoriker Alexander Demandt, in den gängigen Bahnen bewegt, was neben Alphabetisierung, Gymnastik und Musikerziehung auch Geometrie, Astronomie und das Studium der Dichter, zumal Homers, einschloss. Unter seinen Lehrern waren laut Platon auch zwei Frauen, nämlich Aspasia, die Frau des Perikles, und die Seherin Diotima. Auf männlicher Seite werden neben dem bereits erwähnten Naturphilosophen Anaxagoras, mit dessen Schüler Archelaos Sokrates eine Reise nach Samos unternahm, der Sophist Prodikos und der den Pythagoreern nahestehende Musiktheoretiker Damon genannt. Zu einer Berufsausübung des Sokrates äußerte sich einzig der im frühen 3. Jahrhundert n. Chr. schreibende Philosophiehistoriker Diogenes Laertios, der sich auf eine heute verlorene Quelle berief. Demnach hätte Sokrates wie sein Vater als Bildhauer gearbeitet und sogar eine Charitengruppe und eine Hermesfigur auf der Akropolis gestaltet. In den Überlieferungen seiner Schüler ist davon aber nirgends die Rede, sodass er diese Tätigkeit zumindest frühzeitig beendet haben müsste und auch wohl kaum zur Sprache brachte. Konkrete Daten sind mit seinen militärischen Einsätzen im Peloponnesischen Krieg (431–404 v. Chr.) verbunden: Als Hoplit mit schwerer Bewaffnung nahm er an der Belagerung von Potidaia 431–429 v. Chr. sowie an den Schlachten von Delion 424 v. Chr. und Amphipolis 422 v. Chr. teil. Das lässt darauf schließen, dass er nicht unbemittelt war, denn die Kosten für ihre Ausrüstung mussten die Hopliten selbst aufbringen. a> (Marmorbüste, 4. Jahrhundert v. Chr.) Dem Feldherrn Laches und dem eigenen Schüler Alkibiades machte Sokrates im Felde großen Eindruck durch die Art, wie er Kälte, Hunger und sonstige Entbehrungen zu ertragen in der Lage war und wie er im Falle des militärischen Rückzugs bei Delion – statt wie andere kopflos zu flüchten – gemessenen Schrittes und jederzeit verteidigungsbereit Besonnenheit und entschlossenen Mut bewies. Lehrtätigkeit und Schülerkreis. Schon in dieser 423 v. Chr. aufgeführten Komödie wurde Sokrates Atheismus und Verblendung der Jugend vorgehalten. Seine Gesprächspartner in den Gassen Athens und auf der Agora gehörten beiden Geschlechtern und nahezu allen Altersgruppen, Metiers und gesellschaftlichen Rängen an, die in der Attischen Demokratie vertreten waren. Engagierter Polisbürger. Schon lange vor der Uraufführung der "Wolken" muss Sokrates eine prominente Figur im Athener öffentlichen Leben gewesen sein, denn andernfalls hätte Aristophanes ihn kaum auf die genannte Art erfolgreich in Szene setzen können. Auch eine nicht zu datierende Befragung des Orakels in Delphi durch den Jugendfreund Chairephon setzte eine weit über Athen hinausreichende Bekanntheit des Sokrates voraus. In Platons "Apologie" schildert Sokrates den Vorgang: „Er (Chairephon) fragte also, ob es jemanden gäbe, der weiser wäre als ich. Da sagte Pythia, dass es keinen gäbe.“ Einen Zeugen dafür benannte Sokrates in dem Bruder des verstorbenen Jugendfreunds. Nach Xenophons Version lautete die Orakelauskunft, dass niemand freier oder gerechter oder besonnener sei als Sokrates. Aus diesem Orakelspruch leitete Sokrates, dem sein Nichtwissen vor Augen stand, Platon zufolge den Auftrag ab, das Wissen seiner Mitmenschen zu prüfen, um sich dessen zu vergewissern, was die Gottheit gemeint hatte. Die Historizität der Orakelbefragung wurde allerdings schon in der Antike bestritten und wird auch von manchen modernen Forschern verneint. Diese halten Chairephons Frage in Delphi für eine literarische Fiktion aus dem Schülerkreis des Sokrates. Sie machen unter anderem geltend, Chairephon habe zu einem Zeitpunkt, als Sokrates noch nicht berühmt war, keinen Anlass gehabt, dem Orakel eine solche Frage zu stellen. Die Befürworter der Historizität meinen, Platon habe keinen Grund gehabt, eine so detaillierte Geschichte zu erfinden und Sokrates in den Mund zu legen. Hätte dann ein Gegner sie als Fiktion entlarvt, was damals leicht möglich gewesen wäre, so hätte dies die Glaubwürdigkeit von Platons gesamter Darstellung der Verteidigungsrede des Sokrates vor Gericht erschüttert. Büste des Perikles, römische Kopie nach griechischem Original, Vatikanische Museen Im Gegensatz zu den Sophisten ließ sich Sokrates nicht für seine Lehrtätigkeit bezahlen. Er bezeichnete sich bewusst als Philosoph ("philos": Freund; "sophia": Weisheit). Dieses Philosophieren, das oft mitten im geschäftigen Treiben Athens stattfand, könnte vielleicht auch als Antwort auf die Frage dienen, wie Athen sich als „Schule von Hellas“ behaupten und die individuelle Entfaltung der jeweiligen Fähigkeiten und Tugenden der Bürger fördern konnte. Insbesondere ambitionierte Nachwuchspolitiker prüfte Sokrates mittels seiner Frage-Methodik gerne, um ihnen zu verdeutlichen, wie weit sie noch davon entfernt waren, die Belange der Polis kompetent vertreten zu können. Dies tat er nach dem Zeugnis Xenophons in wohlwollender Absicht auch bei Platons Bruder Glaukon, der sich weder in den Staatsfinanzen noch bei der Einschätzung militärischer Kräfteverhältnisse noch in Angelegenheiten der inneren Sicherheit Athens als sattelfest erwies. Sokrates folgerte: „Sei vorsichtig Glaukon, dein Streben nach Ruhm könnte sonst ins Gegenteil umschlagen! Merkst du nicht wie leichtsinnig es ist, etwas zu tun oder zu reden, wovon man nichts versteht? […] Wenn du im Staate Hochachtung und Ruhm genießen möchtest, dann erarbeite dir zuallererst die Kenntnisse, welche du für die Aufgaben brauchst, die du lösen willst!“ Auf Dauer machte sich Sokrates mit seinen verbalen Untersuchungen, dem vielfältigen Infragestellen, Zweifeln und Nachforschen sowohl Freunde als auch Feinde: Freunde, die seine Philosophie als Schlüssel zur eigenen und gemeinschaftlichen Wohlfahrt und Weisheit ansahen, und Feinde, die sein Wirken als Gotteslästerung und gemeinschaftsschädigend einschätzten. Gelegentlich verstand sich Sokrates auch auf konkrete Politikberatung. So berichtete Xenophon in seinen Erinnerungen über einen Dialog zwischen Sokrates und Perikles (dem gleichnamigen Sohn des 429 v. Chr. verstorbenen Staatsmannes Perikles), in dem es um Möglichkeiten ging, Athens im Verlauf des Peloponnesischen Krieges geschwundene äußere Machtstellung in Griechenland zurückzugewinnen. Nach einer ganzen Reihe allgemeiner Erwägungen entwickelte Sokrates dem als fähigen Feldherrn eingeschätzten Perikles zuletzt den Vorschlag, das in Richtung Böotien Attika vorgelagerte Gebirge militärisch zu besetzen. Den ihm in der Sache Zustimmenden ermunterte er: „Wenn dir der Plan gefällt, so führe ihn aus! Alle Erfolge, die du damit erringst, werden dir Ruhm und der Stadt Vorteile bringen; gelingt dir aber etwas dabei nicht, so wirkt es sich für die Allgemeinheit nicht schädlich aus und macht auch dir selber keine Schande.“ 416 v. Chr. erschien Sokrates als Ehrengast auf dem berühmten "Symposion", das anlässlich des Tragödiensieges des jungen Agathon stattfand und an dem in der platonischen Überlieferung auch Aristophanes und Alkibiades in wichtiger Rolle teilnahmen. Das nächste biographisch datierbare Ereignis fand zehn Jahre später statt und betraf Sokrates’ Verwicklung in die Reaktion der Athener auf die Seeschlacht bei den Arginusen, wo die Bergung Schiffbrüchiger unter Sturm fehlgeschlagen war. Als Gerichtshof in dem Prozess gegen die Strategen, die die Militäroperation geleitet hatten, fungierte die Volksversammlung. Zu dem geschäftsführenden Ausschuss des Rates der 500, den 50 Prytanen, gehörte zu diesem Zeitpunkt auch Sokrates. Zunächst schien es, als könnten die Strategen ihre Unschuld nachweisen und freigesprochen werden. Am zweiten Verhandlungstag aber änderte sich die Stimmung, und es kam zu der Forderung, die Strategen gemeinsam schuldig zu sprechen. Die Prytanen wollten den Antrag für ungesetzlich erklären, denn nur Einzelverfahren waren zulässig. Da sich nun aber das Volk im Vollgefühl seiner Souveränität gar nichts untersagen lassen wollte und den Prytanen die Mitverurteilung angedroht wurde, gaben alle bis auf Sokrates nach. Eine ganz ähnliche Haltung bewies Sokrates nach Platons Zeugnis noch einmal 404/403 v. Chr. unter der Willkürherrschaft der Dreißig, als er den Befehl der Oligarchen verweigerte, mit vier anderen gemeinsam die Verhaftung eines für unschuldig erachteten Gegners der Herrschenden durchzuführen. Er ging stattdessen einfach nach Hause, wohl wissend, dass es sein Leben kosten könnte: „Damals bewies ich wahrlich wieder nicht durch Worte, sondern durch die Tat, daß mich der Tod, wenn es nicht zu grob klingt, auch nicht so viel kümmert, daß mir aber alles daran liegt, nichts Unrechtes und Unfrommes zu tun.“ Eine deutliche Bevorzugung eines bestimmten Verfassungstyps oder die Ablehnung von Organisationsstrukturen der Attischen Demokratie, die seinen Wirkungsrahmen bildete, ist bei Sokrates – anders als bei Platon – nicht erkennbar. Martens sieht in Sokrates eher einen Förderer der Demokratie: „Mit seiner Forderung nach kritischer Wahrheitssuche und Orientierung an der Gerechtigkeit kann Sokrates als ein Begründer der Demokratie gelten. Dies schließt eine Kritik an bestimmten demokratischen Praktiken nach ihren Kriterien nicht aus. Dabei ist allerdings Sokrates’ Kritik in Platons Staat (8. Buch) nicht unbesehen dem historischen Sokrates selber zuzuschreiben, sondern man muß sie als Platons Auffassung verstehen. Allerdings hat auch Sokrates das Prinzip der Sachentscheidung über das der Mehrheitsentscheidung gestellt (Laches 184e), ein bis heute nicht überwundener Konflikt jeder Demokratie.“ Ihm kam es vor allem darauf an, ein jeder Regierungsform übergeordnetes Recht zu wahren und darin seinen Mitbürgern Vorbild zu sein. Klaus Döring schreibt dazu: „Was den Umgang mit den jeweils Regierenden und den Institutionen der Polis anbetraf, plädierte er für Loyalität, solange man nicht gezwungen werde, Unrecht zu tun, also genau so zu verfahren, wie er selbst es machte. Wie jeder wußte, hatte er selbst einerseits seine Bürgerpflichten peinlich genau erfüllt, sich andererseits aber auch in prekären Situationen nicht davon abbringen lassen, nie etwas anderes zu tun als das, was sich ihm nach gewissenhafter Prüfung als das Gerechte erwies.“ Prozess und Tod. Für den Prozess gegen Sokrates kommt ein vielfältiges Motivgeflecht in Frage. Anklagen wegen Gottlosigkeit, sogenannte Asebie-Prozesse, waren bereits vor Ausbruch des Peloponnesischen Krieges betrieben worden. Damals hatten sie Persönlichkeiten im Umfeld des leitenden Staatsmannes Perikles gegolten, der die Entwicklung der Attischen Demokratie vorangetrieben hatte und repräsentierte. So waren in den 430er Jahren v. Chr. Perikles’ Gattin Aspasia, der mit der Ausgestaltung der Akropolis beauftragte Phidias und der Philosoph Anaxagoras unter Asebie-Anklage gestellt worden. Aristophanes hatte Sokrates in seiner Komödie "Die Wolken" nicht nur als vermeintlichen Sophisten karikiert, sondern seinen Umgang mit Begriffen auch als gefährliche Wortverdreherei kritisiert. Zusätzliche Ressentiments könnte Sokrates durch das mitbürger- und demokratiefeindliche Verhalten zweier seiner Schüler auf sich gezogen haben: Alkibiades hatte während und nach der Sizilischen Expedition wiederholt die Seiten gewechselt und Kritias gehörte als Anführer zu jenen Dreißig, die 404/403 v. Chr. mit massiver Unterstützung Spartas eine oligarchische Gewaltherrschaft errichtet hatten. Die Fehlentwicklung, die Kritias und Alkibiades schließlich genommen haben, ist jedoch nach Xenophon nicht wegen, sondern trotz des Umgangs mit Sokrates eingetreten. Er zog daraus die Schlussfolgerung, dass jede erzieherische Einwirkung eine Sympathiebeziehung voraussetze: „Kritias und Alkibiades traten aber nicht mit Sokrates in Verbindung, weil er ihnen sympathisch war, sondern weil sie es sich von vornherein zum Ziel gesetzt hatten, an die Spitze des Staates zu treten …“ Beide hätten, nachdem sie auf der Grundlage Sokratischer Gesprächsführung gegenüber Politikern einige Überheblichkeit entwickelt hatten, den Kontakt zu Sokrates gemieden, um sich nicht von ihm ihrer Fehler überführen zu lassen. Von den übrigen Sokrates-Schülern sei keiner auf eine schlechte Bahn geraten, betonte Xenophon. Von dem Prozess des Sokrates 399 v. Chr. berichten – zum Teil nicht übereinstimmend – sowohl Platon als auch Xenophon. Beide Autoren lassen Sokrates sich im Sinne ihrer jeweils eigenen Ziele äußern: „Xenophon geht es darum, Sokrates’ konventionelle Frömmigkeit und Tugend zu betonen, und Platons Ziel ist es, ihn als ein Muster des philosophischen Lebens zu zeigen.“ Xenophon und Platon waren allerdings bei Sokrates' Tod nicht selbst anwesend. Allerdings wird die Darstellung Platons, der als Prozessbeobachter die Beiträge des Sokrates in der " Apologie" ausführlich wiedergegeben hat, überwiegend als die authentischere angesehen. Hauptsächlich um Prozess und Tod des Sokrates geht es auch in Platons Dialogen "Kriton" und "Phaidon". Sokrates agierte vor Gericht demnach ganz so, wie man ihn im öffentlichen Leben Athens schon über Jahrzehnte kannte: als peinlich Untersuchender, Nachfragender und die Forschungsergebnisse schonungslos Offenbarender. Den ersten und mit Abstand längsten Beitrag stellte seine Rechtfertigung gegenüber den Anklagen dar. Auf den Vorwurf, er verderbe die Jugend, reagierte er mit einer gründlichen Bloßstellung des Anklägers Meletos, in die auch die Geschworenen und schließlich alle Bürger Athens von ihm verwickelt wurden, als er den Meletos mit der Frage in die Enge trieb, wer denn nun seiner Vorstellung nach für die Besserung der Jugend sorge, und dann sein Fazit zog: „Du aber, Meletos, beweist hinlänglich, dass du dir noch niemals Gedanken um die Jugend gemacht hast, und sichtbar stellst du deine Gleichgültigkeit zur Schau, dass du dich um nichts von den Dingen bekümmert hast, derentwegen du mich vor das Gericht bringst.“ Auch die Anklage wegen Gottlosigkeit wies er zurück. Er gehorche stets seinem Daimonion, das er als göttliche Stimme vorstellte, die ihn gelegentlich vor bestimmten Handlungen warne. Den Geschworenen legte er dar, dass er sich keinesfalls darauf einlassen werde, freizukommen mit der Auflage, sein öffentliches Philosophieren einzustellen: „Wenn ihr mich also auf eine so abgefasste Bedingung freilassen wolltet, so würde ich antworten: ich schätze euch, Männer Athens, und liebe euch, gehorchen aber werde ich mehr dem Gotte als euch, und solange ich atme und Kraft habe, werde ich nicht ablassen zu philosophieren und euch zu befeuern …“ In der Rolle des Angeklagten präsentierte er sich als Verteidiger von Recht und Gesetzlichkeit, indem er es ablehnte, die Geschworenen durch Mitleidsappelle und Bitten zu beeinflussen: „Denn nicht dazu nimmt der Richter seinen Sitz ein, das Recht nach Wohlwollen zu verschenken, sondern um das Urteil zu finden, und er hat geschworen – nicht gefällig zu sein, wenn er gerade will, sondern – Recht zu sprechen nach den Gesetzen.“ Mit knapper Stimmenmehrheit (281 von 501 Stimmen) wurde er von einem der zahlreichen Gerichtshöfe der Attischen Demokratie für schuldig befunden. Nach damaligem Prozessverfahren durfte Sokrates nach der Schuldigsprechung eine Strafe für sich selbst vorschlagen. In seiner zweiten Rede bestand Sokrates darauf, seinen Mitbürgern durch die praktische philosophische Unterweisung nur Gutes getan zu haben und dafür nicht etwa die beantragte Todesstrafe, sondern die Speisung im Prytaneion zu verdienen, wie sie Olympiasieger erhielten. Angesichts des Schuldspruchs erwog er dann verschiedene mögliche Strategien, hielt aber letztlich allenfalls eine Geldstrafe für akzeptabel. Hiernach verurteilten ihn die Geschworenen nun mit einer Mehrheit, die noch einmal um 80 auf 361 Stimmen anwuchs, zum Tode. In dem ihm zustehenden Schlusswort betonte Sokrates noch einmal die Ungerechtigkeit der Verurteilung und beschuldigte die Ankläger der Bosheit, nahm das Urteil aber ausdrücklich an und äußerte nach Platons Überlieferung: „Vielleicht musste dies alles so kommen, und ich glaube, es ist die rechte Fügung.“ Die unter den Geschworenen, die ihn hatten freisprechen wollen, suchte er mit Ausführungen über die wenig schrecklichen Folgen des Todes zu beruhigen und bat sie, für die Aufklärung seiner Söhne auf die Weise zu sorgen, die er selbst den Athenern gegenüber praktiziert hatte: „Aber schon ist es Zeit, dass wir gehen – ich um zu sterben, ihr um zu leben: wer aber von uns den besseren Weg beschreitet, das weiß niemand, es sei denn der Gott.“ a>s "Der Tod des Sokrates" (1787) Darauf beharrte Sokrates auch den Freunden gegenüber, die ihn im Gefängnis besuchten und zur Flucht überreden wollten. Gelegenheit dazu ergab sich dadurch, dass die Hinrichtung, die normalerweise zeitnah zur Verurteilung geschah, in diesem Fall aufgeschoben werden musste. Während der jährlichen Gesandtschaft zur heiligen Insel Delos, die zu dieser Zeit stattfand, durften aus Gründen ritueller Reinheit keine Hinrichtungen vorgenommen werden. An Sokrates’ letztem Tag versammelten sich die Freunde, unter denen Platon krankheitshalber fehlte, im Gefängnis. Dort trafen sie Xanthippe, die Frau des Sokrates, mit den drei Söhnen an. Zwei der Söhne waren noch im Kindesalter, somit muss Xanthippe weit jünger gewesen sein als ihr Mann. Sokrates ließ die laut wehklagende Xanthippe wegführen, um sich im Gespräch mit den Freunden auf den Tod vorzubereiten. Seine Weigerung zu fliehen begründete er mit dem Respekt vor den Gesetzen. Würden Urteile nicht befolgt, verlören Gesetze überhaupt ihre Kraft. Schlechte Gesetze müsse man ändern, aber nicht mutwillig übertreten. Das Recht der freien Rede in der Volksversammlung biete die Chance, von Verbesserungsvorschlägen zu überzeugen; und notfalls könne, wer das vorziehe, auch noch ins Exil gehen. Den schließlich gereichten Schierlingsbecher leerte Sokrates anscheinend vollständig gefasst. In seinen letzten Worten bat er darum, dem Gott der Heilkunst Asklepios einen Hahn zu opfern. Der Anlass dieser Bitte ist nicht überliefert, ihr Sinn ist in der Forschung umstritten. Alexander Demandt meint, Sokrates habe damit ausdrücken wollen, er sei nun vom Leben geheilt, der Tod sei die große Gesundheit. Grundzüge sokratischer Philosophie. Was bliebe von dem Philosophen Sokrates ohne die Werke Platons, fragt Figal und antwortet: eine interessante Figur des Athener Lebens im fünften Jahrhundert, kaum mehr; nachrangig vielleicht gegenüber Anaxagoras, bestimmt gegenüber Parmenides und Heraklit. Platons zentrale Stellung als Quelle Sokratischen Denkens birgt das Problem einer Abgrenzung zwischen beider Vorstellungswelten, denn Platon ist in seinen Werken zugleich als eigenständiger Philosoph vertreten. In der Forschung besteht eine weitgehende Übereinstimmung darüber, dass die frühen platonischen Dialoge – die "Apologie des Sokrates", "Charmides", "Kriton", "Euthyphron", "Gorgias", "Hippias minor", "Ion", "Laches" und "Protagoras" – den Einfluss der sokratischen Denkweise deutlicher zeigen und dass die Eigenständigkeit der Philosophie Platons in seinen späteren Werken ausgeprägter hervortritt. Die Sokratische Gesprächsführung wiederum stand in deutlichem Zusammenhang mit erotischer Anziehung. Der Eros als eine der Formen platonischer Liebe, im "Symposion" vorgestellt als großes göttliches Wesen, ist der Mittler zwischen Sterblichen und Unsterblichen. Günter Figal interpretiert: „Der Name des Eros steht für die den Bereich des Menschlichen übersteigende Bewegung der Philosophie. […] Sokrates kann am besten philosophieren, wenn er durch das ganz und gar unsublimierte Schöne eingenommen ist. Das Sokratische Gespräch vollzieht sich nicht nach einmal gelungenem Aufstieg auf jener unsinnlichen Höhe, wo nur noch die Ideen als das Schöne erscheinen; vielmehr vollzieht es in sich immer wieder die Bewegung vom menschlichen zum übermenschlichen Schönen und bindet das übermenschliche Schöne dialogisch ans menschliche zurück.“ Sinn und Methode Sokratischer Dialoge. „Ich weiß, dass ich nicht weiß“, lautet eine bekannte, aber stark verkürzende Formel, mit der verdeutlicht wird, was Sokrates seinen Mitbürgern voraushatte. Für Figal ist die Einsicht des Sokrates in sein philosophisches Nichtwissen (Aporie) zugleich der Schlüssel zu Gegenstand und Methode Sokratischer Philosophie: „Im Sokratischen Reden und Denken liegt erzwungener Verzicht, ein Verzicht, ohne den es keine Sokratische Philosophie gäbe. Diese entsteht nur, weil Sokrates im Bereich des Wissens nicht weiterkommt und die Flucht in den Dialog antritt. Sokratische Philosophie ist in ihrem Wesen dialogisch geworden, weil das forschende Entdecken unmöglich schien.“ Angeregt durch den Philosophen Anaxagoras hat Sokrates sich ursprünglich besonders für die Naturforschung interessiert und sich wie dieser mit der Ursachenfrage auseinandergesetzt. Er sei allerdings verunsichert worden, wie Platon im Dialog "Phaidon" ebenfalls überliefert, weil es keine eindeutigen Antworten gab. Die menschliche Vernunft hingegen, durch die alles, was wir über die Natur wissen, vermittelt werde, konnte Anaxagoras nicht erklären. Daher habe Sokrates sich von der Suche nach Ursachen ab- und dem auf Sprache und Denken beruhenden "Verstehen" zugewandt, schlussfolgert Figal. Ziel des Sokratischen Dialogs in der von Platon überlieferten Form ist die gemeinsame Einsicht in einen Sachverhalt auf der Basis von Frage und Antwort. Weitschweifige Reden über den Untersuchungsgegenstand akzeptierte Sokrates danach nicht, sondern bestand auf einer direkten Beantwortung seiner Frage: „Im sokratischen Gespräch hat die sokratische Frage den Vorrang. Die Frage enthält zwei Momente: Sie ist Ausdruck des Nichtwissens des Fragenden und Appell an den Befragten, zu antworten oder sein eigenes Nichtwissen einzugestehen. Die Antwort provoziert die nächste Frage, und auf diese Weise kommt die dialogische Untersuchung in Gang.“ Durch Fragen also – und nicht durch Belehren des Gesprächspartners, wie es die Sophisten gegenüber ihren Schülern praktizierten – sollte Einsichtsfähigkeit geweckt werden, eine Methode, die Sokrates, so Platon, als Mäeutik bezeichnet hat: eine Art „geistige Geburtshilfe“. Denn die Änderung der bisherigen Einstellung als Ergebnis der geistigen Auseinandersetzung hing davon ab, dass die Einsicht selbst erlangt bzw. „geboren“ wurde. Der Erkenntnisfortschritt in den Sokratischen Dialogen ergibt sich in charakteristischer Abstufung: Im ersten Schritt suchte Sokrates dem jeweiligen Diskussionspartner klarzumachen, dass seine Lebens- und Denkungsart unzureichend seien. Um seinen Mitbürgern zu zeigen, wie wenig sie über ihre eigenen Ansichten und Einstellungen bisher nachgedacht hatten, konfrontierte er sie anschließend mit den unsinnigen bzw. unangenehmen Konsequenzen, die sich daraus ergeben würden. Der platonischen Apologie nach hat das Orakel von Delphi Sokrates die Prüfung des Wissens seiner Mitmenschen auferlegt. Pleger zufolge umfasst der sokratische Dialog also stets die drei Momente der Prüfung des anderen, der Selbstprüfung und der Sachprüfung. „Bei dem von Sokrates begonnenen philosophischen Dialog handelt es sich um ein zetetisches, das heißt untersuchendes Verfahren. Die Widerlegung, der Elenchos (ἐλεγχος), geschieht unvermeidlich nebenher. Sie ist nicht das Motiv.“ Nach dieser Verunsicherung forderte Sokrates seinen Gesprächspartner zum Umdenken auf. Er lenkte das Gespräch unter Anknüpfung an den Erörterungsgegenstand – sei es z.B. Tapferkeit, Besonnenheit, Gerechtigkeit oder Tugend überhaupt – hin auf die Frageebene, was das Wesentliche am Menschen sei. Sofern die Gesprächspartner den Dialog nicht bereits vorher abgebrochen hatten, kamen sie zu der Erkenntnis, dass die Seele als das eigentliche "Selbst" des Menschen so gut wie nur möglich sein müsse. Dies hänge davon ab, in welchem Maße der Mensch das sittlich Gute tue. Was das Gute ist, gilt es also herauszufinden. Für die Dialogpartner zeigte Platon im Verlauf der Untersuchung regelmäßig, dass Sokrates, der doch vorgab nicht zu wissen, alsbald deutlich mehr Wissen zu erkennen gab, als sie selbst besaßen. Anfangs oft in der Rolle des scheinbar wissbegierigen Schülers, der seinem Gegenüber die Lehrerrolle antrug, erwies er sich zuletzt klar überlegen. Seine Ausgangsposition wurde dadurch häufig als unglaubwürdig und unaufrichtig wahrgenommen, als Ausdruck von Ironie im Sinne von Verstellung zum Zweck der Irreführung. Döring hält es gleichwohl für ungewiss, dass Sokrates mit seinem Nichtwissen im Sinne der gezielten Tiefstapelei ironisch zu spielen begann. Er unterstellt wie Figal die Ernsthaftigkeit von dessen Bekundung im Grundsatz. Doch auch wenn es Sokrates um eine öffentliche Demontage seiner Gesprächspartner gar nicht ging, musste sein Wirken viele der von ihm Angesprochenen gegen ihn aufbringen, zumal auch Sokrates’ Schüler sich in dieser Form des Dialogs übten. Die Vorstellung einer einheitlichen Sokratischen Methode weist Martens jedoch als ein auf Platons Schüler Aristoteles zurückgehendes philosophiegeschichtliches Dogma zurück, das besagt, Sokrates habe lediglich „prüfende“ Gespräche geführt, aber keine „eristischen“ Streitgespräche oder „didaktischen“ Lehrgespräche. Dagegen trifft laut Martens die Aussage Xenophons zu, dass Sokrates die Gesprächsführung auf die jeweiligen Gesprächspartner abstimmte, im Falle der Sophisten also auf die Widerlegung ihres vorgeblichen Wissens (Sokratische Elenktik), im Falle seines alten Freundes Kriton aber auf ernsthafte Wahrheitssuche. Diese vereinfachte Skizze Sokratischer Dialoge ist um ein weiteres charakteristisches Moment zu ergänzen. In der Überlieferung Platons leitet der Gang der Untersuchung oft nicht in gerader Linie von der Widerlegung übernommener Meinungen über zu einem neuen Wissenshorizont. In Platons Dialog "Theaitetos" werden beispielsweise drei Begriffsbestimmungen von Wissen besprochen und als unzulänglich befunden; die Frage, was Wissen ist, bleibt offen. Mitunter sind es nicht nur die Gesprächspartner, die in Ratlosigkeit verfallen, sondern, weil er selbst keine abschließende Lösung anzubieten hat, auch Sokrates. So zeigt sich nicht selten „Verwirrtsein, Schwanken, Staunen, Aporie, Abbruch des Gesprächs“. Die Frage nach der Gerechtigkeit im Sokratischen Dialog. Ein besonders breites Untersuchungsspektrum entfalten sowohl Platon wie auch Xenophon in ihren der Gerechtigkeitsfrage gewidmeten Sokratischen Dialogen. Dabei wird Gerechtigkeit nicht nur als persönliche Tugend untersucht, sondern es werden auch soziale und politische Dimensionen des Themas angesprochen. Das Beispiel Platons. Im sogenannten Thrasymachos-Dialog, dem ersten Buch von Platons "Politeia", sind es nacheinander drei Partner, mit denen Sokrates der Frage nachgeht, was gerecht bzw. was Gerechtigkeit sei. Das Gespräch findet im Beisein zweier Brüder Platons, des Glaukon und des Adeimantos, im Hause des reichen Syrakusaners Kephalos statt, der sich auf Einladung von Perikles im Athener Hafen Piräus einen Wohnort gesucht hat. Nach einleitenden Bemerkungen über die relativen Vorzüge des Alters soll der Hausherr Kephalos dem Sokrates Auskunft darüber geben, was er an dem ihm vergönnten Reichtum am meisten schätze. Es sei die damit verbundene Möglichkeit, niemandem etwas schuldig zu bleiben, antwortet Kephalos. Damit ist für Sokrates die Gerechtigkeitsfrage angesprochen, und er wirft das Problem auf, ob es gerecht sei, einem Mitbürger, von dem man Waffen geliehen habe, diese auch dann zurückzugeben, wenn der unterdessen wahnsinnig geworden sei. Wohl kaum, meint Kephalos, der sich hiernach zurückzieht und seinem Sohn Polemarchos die Gesprächsfortsetzung überlässt. Unter Berufung auf den Dichter Simonides äußert Polemarchos, es sei gerecht, jedem das ihm Schuldige zukommen zu lassen, zwar nicht dem Wahnsinnigen Waffen, wohl aber Freunden Gutes und Feinden Übles. Das setzt voraus, wendet Sokrates ein, dass man Gutes und Übles zu unterscheiden weiß. Bei Ärzten z. B. sei klar, worin sie Sachkenntnis benötigten, worin aber die Gerechten? In Geldangelegenheiten, erwidert Polemarchos, kann sich damit aber nicht behaupten. Mit dem Argument, dass ein wirklicher Sachkenner sich nicht nur in der Sache selbst (dem rechten Umgang mit Geld), sondern auch in ihrem Gegenteil (der Unterschlagung) auskennen müsse, stürzt Sokrates Polemarchos in Verwirrung. Bei der Unterscheidung zwischen Freunden und Feinden sei zudem ein Irrtum mangels Menschenkenntnis leicht möglich, ergänzt Sokrates; und vor allem sei es doch nicht die Sache des Gerechten, überhaupt irgendjemandem zu schaden. Mit dieser Negativauskunft kehrt die Untersuchung zu ihrem Ausgangspunkt zurück. Sokrates fragt: „Da sich nun aber gezeigt hat, dass auch dieses nicht die Gerechtigkeit ist noch das Gerechte, was soll denn einer sonst sagen, dass es sei?“ Nun schaltet sich aufbrausend der bisher nicht zu Wort gekommene Sophist Thrasymachos ein, erklärt alles bisher Gesagte für leeres Geschwätz, kritisiert, dass Sokrates nur fragt und widerlegt, statt eine klare eigene Vorstellung zu entwickeln, und bietet gegen Geld an, dies nun seinerseits zu tun. Mit Unterstützung der anderen Anwesenden nimmt Sokrates das Anerbieten an und wendet gegen die Vorhaltungen des Thrasymachos lediglich demütig ein, dass derjenige nicht mit Antworten vorpreschen könne, der nicht wisse und auch nicht vorgebe zu wissen: „Also ist es ja weit billiger, dass du redest, denn du behauptest ja, dass du es weißt und dass du es vortragen kannst.“ Thrasymachos bestimmt daraufhin das Gerechte als das dem Stärkeren Zuträgliche und begründet dies mit der Gesetzgebung in jeder der verschiedenen Regierungsformen, die eben entweder den Interessen von Tyrannen oder denen von Aristokraten oder denen von Demokraten entspreche. Gerecht sei, so bestätigt Thrasymachos die Nachfrage des Sokrates, auch der Gehorsam der Regierten gegenüber den Regierenden. Indem Sokrates sich die Fehlbarkeit der Regierenden von Thrasymachos anerkennen lässt, gelingt es ihm, dessen ganzes Konstrukt auszuhebeln; wenn die Regierenden sich in dem ihnen Zuträglichen irren, führt auch der Gehorsam der Regierten nicht zur Gerechtigkeit: „Kommt es nicht alsdann notwendig so heraus, dass es gerecht ist, das Gegenteil von dem zu tun, was du sagst? Denn das den Stärkeren Unzuträgliche wird dann den Schwächeren anbefohlen zu tun. – Ja beim Zeus, o Sokrates, sprach Polemarchos, das ist ganz offenbar.“ Thrasymachos sieht sich gleichwohl nicht überzeugt, sondern durch die Art der Fragestellung überlistet, und beharrt auf seiner These. Am Beispiel des Arztes zeigt ihm Sokrates jedoch, dass ein wahrer Sachwalter des eigenen Metiers stets am Nutzen des anderen, hier des Kranken, und nicht am eigenen orientiert ist: so folglich auch die fähigen Regierenden an dem für die Regierten Zuträglichen. Nachdem Thrasymachos im Weiteren auch damit gescheitert ist zu zeigen, dass der Gerechte zu wenig auf den eigenen Vorteil achtet, um im Leben zu etwas zu kommen, während der die Ungerechtigkeit im großen Stil auf die Spitze treibende Tyrann daraus höchstes Glück und Ansehen gewinnt – dass also die Gerechtigkeit für Naivität und Einfalt stehe, die Ungerechtigkeit aber für Klugheit – leitet Sokrates über zur Betrachtung des Kräfteverhältnisses zwischen Gerechtigkeit und Ungerechtigkeit. Auch da, so ergibt sich schließlich gegen die Ansicht des Thrasymachos, hat die Ungerechtigkeit einen schlechten Stand: Ungerechte sind untereinander uneins und mit sich selbst zerfallen, meint Sokrates, wie sollen sie da in Krieg oder Frieden ankommen gegen ein Gemeinwesen, in dem die Eintracht der Gerechten herrscht? Schließlich aber ist Gerechtigkeit für Sokrates auch die Voraussetzung des individuellen Glücks, denn sie habe für das Seelenheil die gleiche Bedeutung wie die Augen für die Sehkraft und die Ohren für die Hörfähigkeit. Thrasymachos stimmt dem Erörterungsergebnis zuletzt in allem zu. Sokrates bedauert allerdings zum Schluss, dass auch er in der Frage, was nun das Gerechte in seinem Wesen ausmache, über alle Verzweigungen des Gesprächs hinweg zu keinem Ergebnis gelangt sei. Xenophons Dialogvariante. In dem von Xenophon überlieferten Dialog zu Gerechtigkeit und Selbsterkenntnis bemüht Sokrates sich um Kontakt zu dem noch jungen Euthydemos, den es auf die politische Bühne drängt. Bevor Euthydemos sich zum Gespräch bereitfindet, hat er bereits wiederholt ironische Bemerkungen des Sokrates über seine Unerfahrenheit und mangelnde Lernbereitschaft auf sich gezogen. Als ihn Sokrates eines Tages direkt auf seine politischen Ambitionen anspricht und auf Gerechtigkeit als Qualifikationsmerkmal verweist, bestätigt Euthydemos, dass man ohne Sinn für Gerechtigkeit nicht einmal ein guter Staatsbürger sein könne und dass er selbst davon nicht weniger besitze als jeder andere. Daraufhin beginnt Sokrates, fährt Xenophon fort, ihn ausführlich zur Unterscheidung von gerechten und ungerechten Handlungen zu befragen. Dass ein Feldherr das Eigentum in einem ungerechten Feindstaat plündern lässt und raubt, erscheint Euthydemos im Verlauf der Unterredung ebenso gerecht, wie er überhaupt alles Feinden gegenüber als gerecht ansieht, was gegenüber Freunden ungerecht wäre. Doch auch Freunden schuldet man z. B. nicht in jeder Lage Aufrichtigkeit, wie sich am Beispiel des Feldherrn zeige, der seinen entmutigten Truppen zur Stärkung der Kampfmoral fälschlich das baldige Eintreffen von Bundesgenossen ankündigt. Dem bereits stark verunsicherten Euthydemos legt Sokrates nun die Frage vor, ob eine absichtliche oder eine unabsichtliche Falschaussage das größere Unrecht sei, wenn Freunde dadurch Schaden nähmen. Euthymedos entscheidet sich für den absichtlichen Betrug als das größere Unrecht, wird aber auch darin von Sokrates widerlegt; denn wer in eigener Unkenntnis betrüge, sei ja des rechten Weges offenbar unkundig und im Zweifel orientierungslos. In dieser Lage sieht sich, so Xenophon, nun auch Euthydemos: „Ach, bester Sokrates, bei allen Göttern, ich habe allen Fleiß darauf gewandt, Philosophie zu studieren, weil ich des Glaubens war, dadurch würde ich in allem ausgebildet, was ein Mann braucht, der nach Höherem strebt. Jetzt nun muß ich erkennen, daß ich mit dem, was ich bisher gelernt, nicht einmal imstande bin, darauf Antwort zu geben, was zu wissen lebensnotwendig ist, und es gibt keinen anderen Weg, der mich weiterführte! Kannst du dir vorstellen, wie mutlos ich bin?“ Die richtige Selbsteinschätzung bilde auch die Basis für das Ansehen, in dem man bei anderen stehe, und für erfolgreiches Zusammenwirken mit Gleichgesinnten. Wer darüber nicht verfüge, gehe meist fehl und mache sich zum Gespött. Nunmehr zeigt Xenophon Euthydemos als wissbegierigen Schüler, der von Sokrates dazu angehalten wird, die Selbsterforschung damit aufzunehmen, dass er sich um die Bestimmung des Guten in Abgrenzung vom Schlechten kümmert. Darin sieht Euthydemos zunächst keine Schwierigkeit und führt nacheinander Gesundheit, Weisheit und Glückseligkeit als Merkmale des Guten an, muss aber jedes Mal die Relativierung durch Sokrates hinnehmen: „So ist wohl, lieber Sokrates, das Glück das am wenigsten angefochtene Gut.“ – „Sofern es nicht jemand, lieber Euthydemos, auf zweifelhaften Gütern aufbaut.“ Als zweifelhafte Güter in Bezug auf das Glück vermittelt Sokrates dem Euthydemos sodann Schönheit, Kraft, Reichtum, und öffentliches Ansehen. Euthydemos gesteht sich ein: „Ja wahrhaftig, wenn ich auch mit dem Lob des Glücks nicht recht habe, dann muß ich bekennen, daß ich nicht weiß, was man von den Göttern erbitten soll.“ Nun erst lenkt Sokrates das Gespräch auf des Euthydemos’ Hauptinteressengebiet: die angestrebte Führungsrolle als Politiker in einem demokratischen Staatswesen. Was Euthydemos über das Wesen des Volkes (Demos) sagen könne, will Sokrates wissen. Mit Armen und Reichen kenne er sich aus, meint daraufhin Euthydemos, der zum Volk nur die Armen zählt. „Wen bezeichnest du als reich, wen als arm?“, fragt Sokrates. „Wer nicht das Lebensnotwendige besitzt, den nenne ich arm, den, dessen Besitz darüber hinausgeht, reich.“ – „Hast du schon einmal die Beobachtung gemacht, daß manche, die nur wenig besitzen, mit dem Wenigen zufrieden sind und sogar noch davon abgeben, während andere an einem beträchtlichen Vermögen noch nicht genug haben?“ Da fällt dem Euthydemos plötzlich ein, dass manche Gewaltmenschen Unrecht begehen wie die Ärmsten der Armen, weil sie mit dem, was ihnen gehört, nicht auskommen. Demnach, folgert Sokrates, müsse man die Tyrannen zum Volk zählen, die Geringbemittelten aber, die mit ihrer Habe umzugehen verstünden, zu den Reichen. Euthydemos beschließt den Dialog: „Meine geringe Urteilskraft zwingt mich dazu, die Schlüssigkeit auch dieses Beweises einzugestehen. Ich weiß nicht, vielleicht ist es das beste, ich sage gar nichts mehr; ich bin doch nur in Gefahr, binnen kurzem mit meiner Weisheit am Ende zu sein.“ Abschließend erwähnt Xenophon, dass viele von denen, die Sokrates ähnlich zurechtgewiesen hatte, sich anschließend von ihm fernhielten, nicht aber Euthydemos, der fortan meinte, nur in der Gesellschaft des Sokrates ein tüchtiger Mann werden zu können. Annäherung an das Gute. Nur Wissen um das Gute dient dem eigenen Besten und befähigt dazu, Gutes zu tun. Denn, so folgerte Sokrates, niemand tue wissentlich Übles. Die Leugnung der Möglichkeit, gegen die eigene bessere Erkenntnis zu handeln (vgl. dagegen den von Aristoteles geprägten Begriff der Akrasia) gehörte zu den bekanntesten Leitsätzen der Sokrates zugeschriebenen Lehre in der Antike. Dabei handelt es sich zugleich um eines der sogenannten Sokratischen Paradoxa, weil das mit der landläufigen Lebenserfahrung nicht übereinzustimmen scheint. Paradox erscheint in diesem Zusammenhang auch die Behauptung des Sokrates, nicht zu wissen. Martens differenziert das Sokratische Nichtwissen. Demnach ist es zunächst die Abwehr des sophistischen Wissens, auf die sich Sokrates’ Nichtwissen bezieht. Auch bei den Wissensprüfungen von Politikern, Handwerkern und sonstigen Mitbürgern zeigt sich sein Nichtwissen als Abgrenzungswissen, als „Ablehnung eines auf Konventionen beruhenden Wissens der Arete.“ In einer dritten Variante handelt es sich um ein Noch-nicht-Wissen, das zu weiteren Prüfungen anhält, und schließlich um die Abgrenzung von einem Evidenzwissen über das gute Leben bzw. über die rechte Art zu leben. Demnach war Sokrates davon überzeugt, dass man „mit Hilfe gemeinsamer vernünftiger Überlegung über ein bloß konventionelles und sophistisches Scheinwissen hinaus wenigstens zu vorläufig haltbaren Einsichten kommen könnte.“ Nach Döring löst sich dieser scheinbare Widerspruch zwischen Einsicht und Nichtwissen folgendermaßen auf: „Wenn Sokrates es für prinzipiell unmöglich erklärt, daß ein Mensch ein Wissen davon erlange, was das Gute, Fromme, Gerechte usw. sei, dann meint er ein allgemeingültiges und unfehlbares Wissen, das unverrückbare und unanfechtbare Normen für das Handeln bereitstellt. Ein solches Wissen ist dem Menschen nach seiner Auffassung grundsätzlich versagt. Was der Mensch allein erreichen kann, ist ein partielles und vorläufiges Wissen, das sich, mag es im Augenblick auch noch so gesichert erscheinen, dennoch immer bewußt bleibt, daß es sich im Nachhinein als revisionsbedürftig erweisen könnte.“ Sich um dieses unvollkommene Wissen zu bemühen in der Hoffnung, dem vollendeten Guten möglichst nahe zu kommen, ist demzufolge das Beste, was der Mensch für sich tun kann. Je weiter er darin vorankomme, desto glücklicher werde er leben. Figal interpretiert hingegen die Frage nach dem Guten als über den Menschen hinausweisend. „In der Frage nach dem Guten liegt eigentlich der Dienst für den delphischen Gott. Die Idee des Guten ist letztlich der philosophische Sinn des delphischen Orakels.“ Letzte Dinge. Nicht anders gab Sokrates sich den Freunden gegenüber, die ihn an seinem letzten Tag im Gefängnis aufsuchten, laut Platons Dialog "Phaidon". Hier geht es um das Vertrauen in den philosophischen Logos „auch angesichts des schlechterdings Unausdenkbaren“, so Figal; „und da die Extremsituation nur zum Vorschein bringt, was auch sonst gilt, ist diese Frage die nach der Vertrauenswürdigkeit des philosophischen Logos überhaupt. Es wird zur letzten Herausforderung für Sokrates, sich für diese stark zu machen.“ Die Frage nach dem, was mit der menschlichen Seele beim Tod geschieht, wurde von Sokrates in seinen letzten Stunden ebenfalls erörtert. Gegen ihre Sterblichkeit spräche, dass sie an das Leben gebunden sei, Leben und Tod sich aber gegenseitig ausschlössen. Allerdings könne sie beim Herannahen des Todes ebenso verschwinden wie zerstieben. Figal sieht darin die vor Gericht von Sokrates eingenommene offene Perspektive auf den Tod bekräftigt und schlussfolgert: „Philosophie hat keinen letzten Grund, in den sie, sich selber begründend, zurückgehen kann. Sie erweist sich als abgründig, wenn man nach letzten Begründungen fragt, und darum muß sie, dort, wo es um ihre eigene Möglichkeit geht, auf ihre Weise rhetorisch sein: Ihr Logos muß als stärkster vertreten werden, und das geschieht am besten mit der Überzeugungskraft eines philosophischen Lebens – indem gezeigt wird, wie einer dem Logos vertraut und sich auf das, was der Logos darstellen soll, einläßt.“ Nachwirkung. Die beispielgebende philosophiegeschichtliche Folgewirkung von Sokrates' Denken erstreckt sich auf zwei Hauptbereiche: die antike Zivilisation und die neuzeitliche westliche Philosophie, die mit der Renaissance begann. Die „kleinen Sokratiker“ und die großen Schulen der Antike. Die schriftstellerische und philosophische Größe Platons überragt andere dünnere Überlieferungsstränge der Sokratischen Philosophie so deutlich, dass von diesen meist als den „kleinen Sokratikern“ die Rede ist. Als prominentester Sokratiker der ersten Dekade nach Sokrates’ Tod galt Antisthenes, der sich von Platons Ideenlehre mit der Bemerkung distanziert haben soll: „Ein Pferd sehe ich, Platon, eine Pferdheit dagegen nicht.“ Platons Antwort: „Du hast eben nur das Auge, mit dem man ein Pferd sieht, aber das Auge, mit dem man eine Pferdheit erblickt, hast du noch nicht erworben.“ Büste des römischen Kaisers und stoischen Philosophen Mark Aurel Im Bereich der Ethik hielt Antisthenes neben dem Wissen um das Gute auch die Willenskraft des Sokrates für nötig, die dieser im Ertragen von Entbehrungen bewiesen hatte. Letzteres wurde dann zum demonstrativen Hauptmerkmal des Diogenes von Sinope und der Kyniker. Euklid von Megara und die Megariker legten den philosophischen Akzent auf die Bedeutung und Einheit des Guten, lehnten das von Sokrates bevorzugte Argumentieren mit Analogien jedoch ab. Der ebenfalls in Megara geborene Stilpon machte die nachmals von den Stoikern besonders wichtig genommene Affektbeherrschung zu seinem Schwerpunkt. Zwei weitere den Megarikern zugerechnete Denker, Diodoros Kronos und Philon, begründeten die Aussagenlogik, die dann ebenfalls zu den Kerngebieten der Stoa zählte. Aristippos von Kyrene und die Kyrenaiker erklärten die Empfindung zum Kriterium von Wahrheit und Erkenntnis und richteten ihr Weltbild an dem Gegensatzpaar Lust und Unlust bzw. Schmerz aus. Damit bereiteten sie dem Kernthema der epikureischen Schule den Weg, das Epikur dann zu einer eigenen Lehre weiterentwickelte. Der Traditionsstrang der neuzeitlich-westlichen Philosophie. Im frühen Christentum bildeten Prozess und Tod des Sokrates eine gängige Parallele zur Kreuzigung Jesu, während des christlichen Mittelalters trat Sokrates gegenüber Platon und vor allem Aristoteles an Bedeutung aber weit zurück. In Renaissance und Humanismus aber kam die mit Sokrates verbundene Ernsthaftigkeit ethischen Forschens und Handelns erneut zur Geltung, wie z. B. der Ausruf des Erasmus von Rotterdam zeigt: „Heiliger Sokrates, bitte für uns!“ Dem Aufklärer Rousseau diente er als Zeuge für seine Zivilisationskritik: „Sokrates preist die Unwissenheit! Glaubt man etwa, unsere Wissenschaftler und Künstler würden ihn zu einem Wechsel seiner Ansichten bewegen, wenn er unter uns auferstände? Nein, meine Herren, dieser gerechte Mann würde weiterhin unsere eitlen Wissenschaften verachten.“ Kant bemerkte im Zusammenhang mit der Untersuchung verschiedener Arten von Unwissenheit, die des Sokrates sei eine „rühmliche“, da sie im Gegensatz zur „gemeinen“ auf der Einsicht in die „Schranken der Erkenntnis“ beruhe. Hegel hingegen sah Sokrates nicht zu Unrecht verurteilt, weil er das Prinzip der Subjektivität gegen die tradierte Religion und Sitte in Stellung gebracht habe. Kierkegaard sah in seiner Dissertation „Über den Begriff der Ironie mit ständiger Rücksicht auf Sokrates“ als Erster einen deutlichen Kontrast zwischen Sokrates und Platon und begründete dies vor allem mit der agnostischen Haltung des Sokrates dem Tod gegenüber, die mit Platons Unsterblichkeitsbeweisen der Seele nicht zusammengehe. „Sokrates' unendliches Verdienst ist es gerade, ein "existierender" Denker zu sein, kein Spekulant, der vergißt, was existieren ist.“ Nietzsche sah, von Rousseau abweichend, Sokrates als „Mystagogen der Wissenschaft“, als Initiator einseitiger und umfassender Verwissenschaftlichung des Lebens: „Nun aber eilt die Wissenschaft, von ihrem kräftigen Wahne angespornt, unaufhaltsam bis zu ihren Grenzen, an denen ihr im Wesen der Logik verborgener Optimismus scheitert.“ Wieder anders akzentuiert urteilte im 20. Jahrhundert der Physiker und Philosoph Carl Friedrich von Weizsäcker: „Philosophie ist die sokratische Rückfrage: Habe ich verstanden, was ich soeben gesagt habe? Philosophie ist daher wesentlich nachträglich. Sie fragt nach dem schon Gesagten. Sie ist aber eben damit wesentlich vorbereitend. Ihre Antwort kann uns weiterhelfen und wird dieselbe Rückfrage von Neuem hervorrufen.“ Günter Figal (2006) fasst zusammen: „Das Denken des Sokrates steht zwischen Nicht-mehr und Noch-nicht; es bleibt bezogen auf das, woraus es ist, und hat sich noch nicht zu einer fraglosen, in sich beruhigten Gestalt ausgebildet. So verkörpert sich in Sokrates der Ursprung der Philosophie. Dieser Ursprung ist kein historischer Beginn. Weil die Philosophie wesentlich im Fragen besteht, lässt sie ihren Ursprung nicht hinter sich; wer philosophiert, erfährt immer den Verlust der Selbstverständlichkeit und versucht, zum ausdrücklichen Verstehen zu finden. […] Für Sören Kierkegaard, Friedrich Nietzsche, aber auch für Karl Popper ist in der Gestalt des Sokrates die Philosophie selbst gegenwärtig; Sokrates ist für sie die Gestalt der Philosophie überhaupt, das Urbild des Philosophen.“ a>, Palazzo Massimo alle Terme, 1. Jahrhundert Bildnisse. Zahlreiche antike Sokratesportraits zeigen markante Merkmale: eingedrückte Nase, Halbglatze, wulstige Lippen, strähniges Haar und Bart. Es ist aber nicht sicher, dass Sokrates tatsächlich so aussah. Möglicherweise liegen diesen Bildnissen nicht wirkliche Kenntnisse über das Aussehen des historischen Sokrates zugrunde, sondern literarische Schilderungen des Gegensatzes zwischen Sokrates’ edlem Inneren und häßlichem Äußeren. Man unterscheidet unter den erhaltenen antiken Portraits zwei oder drei Typen. Der erste Typ leitet sich von einer etwa 375 v. Chr. geschaffenen Sokratesstatue her, der zweite Typ von einem erst in der zweiten Hälfte des 4. Jahrhunderts v. Chr. entstandenen, wahrscheinlich von Lysipp stammenden Standbild. Ob es ab etwa 200 v. Chr. noch einen eigenständigen dritten Typ gibt oder dieser als Variante des ersten anzusehen ist, ist umstritten. Ein Beispiel des ersten Typs ist die Sokratesbüste im Archäologischen Nationalmuseum Neapel, eines des zweiten Typs der Sokrateskopf im Palazzo Massimo alle Terme in Rom. Zum dritten Typ zählt in erster Linie der Sokrateskopf in der Villa Albani in Rom. Superkontinent. Animation des Zerfalls der Pangaea (Trias - heute). Pangaea zerbricht in Laurasia und Gondwana – Trias-Jura-Grenze – 200 mya Verteilung der Kontinente und Ozeane Pangaeas – Perm – 300 mya a>s (Blick auf den Südpol). Sibiria (rosa), Laurentia (purpur) und Baltica (grün) haben sich von Pannotia (nunmehr Gondwana, gelb) gelöst. In dieser Rekonstruktion sind (Ost-)Antarktika und Australien (zusammen blaugrau, „Australo-Antarktika“) noch kein Konstituent Gondwanas. Künstlerische Darstellung der jungproterozoischen Erde mit dem Superkontinent Pannotia Ein Superkontinent ist eine zusammenhängende, alle oder zumindest beinahe alle Kontinentalkerne bzw. Kratone der Erde in sich vereinende Landmasse, die in geologischen Zeiträumen durch die Bewegung der Lithosphärenplatten entsteht und anschließend wieder zerfällt (Wilson-Zyklus). Der bekannteste und zugleich auch jüngste Superkontinent ist die Pangaea, die im Perm und der Trias (275-200 mya) bestand. Die Grenze vom Superkontinent zum Großkontinent ist fließend. Bisweilen wird auch die weitgehend zusammenhängende Landmasse, die derzeit aus den Kontinenten Europa, Asien und Afrika besteht, als Groß- oder Superkontinent Afrika-Eurasien bezeichnet. Die Groß- und Superkontinente der Erdgeschichte. Die zuletzt aufgelisteten Groß- und Superkontinente des älteren Präkambriums (Ur, Kenorland, Columbia) standen in ihrer Größe deutlich hinter späteren Gebilden dieser Art zurück, da die Erdkruste in dieser Zeit erst wenige kleine Bereiche mit ausdifferenzierter kontinentaler Kruste aufwies, die miteinander kollidieren konnten. Die ältesten Gesteine der Erde überhaupt – der Nuvvuagittuq-Grünsteingürtel aus dem Superior-Kraton sowie der Acasta-Gneis aus dem Slave-Kraton des Kanadischen Schildes – sind mehr als 4 Milliarden Jahre alt und zeigen, dass bereits im Hadaikum Festlandinseln existierten. Einfluss der Superkontinente auf Klima und Lebewelt. Wenn alle Kontinente zu einer Landmasse vereint sind, hat dies Auswirkungen auf das Klima: Es gibt wenige beregnete Küstenlinien und mehr Trockengebiete im Inneren des Kontinents. Ein Beispiel für eine solche Entwicklung im Inneren eines großen Kontinents sind heute die Trockengebiete in Zentralasien (Gobi, Taklamakan). Auch die Artenvielfalt wird durch den Übergang eines großen in mehrere kleinere Kontinente beeinflusst: Die Ausbreitung von Landlebewesen auf einem einzigen Kontinent ist einfach und daher ist die Artenvielfalt dort eher niedrig. Erst die Aufspaltung in mehrere Kontinente führt zur völligen Isolation einzelner Populationen der Arten, aus denen dann jeweils neue Arten entstehen. Spanischer Bürgerkrieg. Der Spanische Bürgerkrieg wurde zwischen Juli 1936 und April 1939 zwischen der demokratisch gewählten Volksfrontregierung der Zweiten Spanischen Republik und den rechtsgerichteten Putschisten unter General Francisco Franco ausgetragen. Er endete mit dem Sieg der Anhänger Francos und der bis zum Tode Francos 1975 anhaltenden Diktatur in Spanien, dem sogenannten Franquismus. Ursachen. Die Ursachen für den Ausbruch des Krieges sind in den extremen sozialpolitischen und kulturellen Verwerfungen in der spanischen Gesellschaft sowie in regionalen Autonomiebestrebungen zu finden, etwa im Baskenland und in Katalonien. Spanien erlitt seit Mitte des 19. Jahrhunderts zahlreiche gewalttätige Konflikte, die ungelöst blieben. Sie häuften und verschärften sich, als nach der Niederlage im Spanisch-Amerikanischen Krieg 1898 das Ansehen der alten Institutionen weitgehend verloren gegangen war. Den wenigen Anhängern der Zweiten Spanischen Republik war es weder gelungen, die gravierenden sozialen Missstände zu beheben, noch den Verfechtern einer autoritären Staatsordnung etwas entgegenzusetzen. In der neueren spanischen Geschichte hatten friedliche Lösungen kaum eine Tradition. So standen sich katholisch-nationalistische, bürgerlich-liberale und sozialrevolutionäre Gruppierungen in langer Feindschaft gegenüber. Wegen der wirtschaftlichen Krise in Spanien und der sich verändernden Lage in Europa durch das Aufkommen des Faschismus verschärfte sich die Situation zusehends. Vorgeschichte. Nach anfänglicher Begeisterung verlor die 1931 gegründete Zweite Republik rasch an Unterstützung. Die traditionellen Eliten aus den Zeiten von Diktatur und Monarchie fürchteten eine Gefährdung ihrer Privilegien und ihres kulturellen Selbstverständnisses. Die laizistische Orientierung der ersten Regierung und die von einem radikalen Antiklerikalismus inspirierten Übergriffe gegen kirchliche Einrichtungen bestärkten sie in dieser Haltung. Sie wandten sich gegen sämtliche Reformen, die eine Verbesserung der allgemeinen Lebensumstände in Aussicht stellten. Rasch wandte sich auch die Arbeiterschaft gegen die Republik. Nachdem sich die sozialen Reformen als nicht durchsetzungsfähig erwiesen und 1934 die neue Rechtsregierung einen harten Kurs eingeschlagen hatte, sahen die organisierten Arbeiter in der neuen parlamentarischen Staatsform nichts weiter als eine Fortsetzung der alten Politik der Unterdrückung. Die Anarchisten hatten fast von Anfang an die Republik bekämpft; die zuvor reformistische sozialistische Gewerkschaft UGT schwenkte aus Enttäuschung über das Regierungsbündnis mit den Republikanern ab 1933 auf einen revolutionären Kurs um und propagierte die "Diktatur des Proletariats". Maßgebliche Teile der sozialistischen Partei PSOE setzten dagegen weiterhin auf eine Kooperation mit den Liberalen. Die Republikaner, die sich anschickten Spanien umzugestalten, setzten viele wichtige Reformen nur halbherzig um. Weite Teile des Bürgertums fürchteten trotzdem eine Dominanz der Arbeiterschaft und waren daher bereit, eine Diktatur zu unterstützen. Hinzu kamen die Bestrebungen des katalanischen und baskischen Bürgertums, den kastilisch dominierten Zentralstaat zu verlassen. 1932 fand ein erster Militärputsch statt, der nur schlecht ausgeführt und durch einen anarchistischen Generalstreik vereitelt wurde. Ende 1933 zerbrach die erste Koalition, der eine von den rechten Parteien tolerierte und gewählte Zentrumsregierung nachfolgte. Sie amnestierte die Putschisten, machte die Reformen rückgängig und verschärfte die Situation der Lohnabhängigen. Die Linken wie auch die Liberalen verstanden dies als Kriegserklärung. Im Oktober 1934 riefen Sozialisten sowie die bürgerliche katalanische Regierung den Aufstand aus. Wegen unzureichender Vorbereitungen und der Absage der Anarchisten scheiterte dieser Versuch. Einzig in Asturien konnte der Aufstand sich halten; die Regierung rief das Kriegsrecht aus. Unter dem Oberkommando des späteren Diktators Francisco Franco wurde die Erhebung brutal niedergeschlagen. Es gab über 1.300 Tote, davon 78 % Zivilisten. Es folgte eine breite Verhaftungswelle, die auch liberale und sozialistische Spitzenpolitiker erfasste, und eine Zensur, von der die linken Zeitungen betroffen waren. Die CEDA, die katholizistische Sammlungsbewegung, die in Teilen mit dem europäischen Faschismus sympathisierte, drängte an die Macht, scheiterte aber am Staatspräsidenten. Währenddessen konspirierten die Offiziere, um einen neuen Putsch vorzubereiten. Ende 1935 war auch die zweite Koalition wegen interner Querelen und eines Finanzskandals am Ende. Um das Mehrheitswahlrecht diesmal für sich zu nutzen, bildeten Sozialisten, Republikaner, liberale Katalanisten, der stalinistische Partido Comunista de España (PCE) und der linkskommunistische Partido Obrero de Unificación Marxista (POUM) ein Volksfront-Bündnis, die "Frente Popular". Unterstützt wurden sie von den baskischen Nationalisten und den Anarchisten, die diesmal keinen Wahlboykott formulierten. Dagegen stand die "Frente Nacional" aus CEDA, Monarchisten, einer Grundbesitzer-Partei und den Karlisten. Dazwischen standen die Parteien der Mitte, die kaum mehr Bedeutung besaßen. Am 16. Februar 1936 gewann die Volksfront die Wahlen; auch die parlamentarische Opposition erkannte ihren Sieg an. Den meistzitierten Angaben Javier Tussells zufolge erhielten die Parteien der linken Volksfront im ersten Wahlgang 4.654.116 Stimmen, diejenigen der rechten Nationalen Front 4.503.505 Stimmen und sonstige Parteien (darunter Zentrum, baskische Nationalisten und der Partido Republicano Radical) 562.651 Stimmen. Dies führte nach dem zweiten Wahlgang am 1. März und dem Agieren einer von der neuen Regierung eingesetzten Mandatsüberprüfungskommission zu folgender Sitzverteilung: Volksfront 301 Sitze (davon PSOE 99 und Izquierda Republicana 83), Nationale Front 124 (davon CEDA 83), andere 71. Die Angaben verschiedener Historiker zum seinerzeit nicht im Detail veröffentlichten Ergebnis der Stimmenauszählung, jedoch nicht der Sitzverteilung, weichen heute zum Teil voneinander ab. Einige konservative Historiker betonen zusätzlich, dass durch Unregelmäßigkeiten bei der Stimmenauszählung Wahlergebnis und Verteilung der Parlamentssitze zugunsten der Volksfront beeinflusst worden seien. Durch den Sieg der Volksfront hatte für Teile der Rechten die Republik aufgehört zu existieren. Ungeachtet des moderaten Reformprogramms der neuen Regierung unter Azaña kam es zu spontanen Landbesetzungen, die Streikaktivität stieg stark an und Straßenkämpfe zwischen Extremisten beider politischer Lager, die von bewaffneten Ordnungskräften zum Teil gewaltsam unterdrückt wurden, nahmen deutlich zu. Die faschistische Falange übte gezielten Terror aus, gegen den der Staat sich machtlos zeigte. Währenddessen planten die Offiziere nahezu öffentlich den Putsch. Ihre Aktivitäten wurden von der Regierung, die nur aus Liberalen bestand, weitgehend ignoriert oder nur geringfügig geahndet. Bei einem Kampf gegen die Putschisten hätte sie die Gewerkschaften bewaffnen müssen, was sie möglichst verhindern wollte. Auf dem Höhepunkt der Unruhen wurde am 13. Juli der monarchistische Oppositionsführer José Calvo Sotelo durch Angehörige der "Guardia de Asalto" und der Zivilgarde ermordet. Sein Tod bewog die Karlisten, den Putsch mit ihren paramilitärischen Verbänden zu unterstützen. Als der Aufstand begann, leisteten vor allem die Arbeiter Widerstand. Wo sie erfolgreich waren, reagierten sie mit einer Revolution, die hauptsächlich von den Anarchisten getragen wurde. Dies rettete der Republik vorläufig die Existenz. Aus dem Putsch wurde ein Bürgerkrieg, der schon bald in das internationale Beziehungsgeflecht Europas geriet, was den Verlauf der Ereignisse entscheidend beeinflussen sollte. Internationale Dimension. Der Spanische Bürgerkrieg besaß einen gewichtigen internationalen Aspekt. Da er die ideologischen Konfliktlinien Europas widerspiegelte und die kontinentale Machtkonstellation in Bewegung brachte, hingen der Kriegsverlauf und das Schicksal der Republik entscheidend von der Haltung der anderen europäischen Mächte ab. Diese bildeten unter der Ägide des Völkerbundes das Nichteinmischungskomitee, welches bereits am 9. September 1936 zum ersten Mal zusammentrat. Obwohl die wichtigsten Akteure mit Ausnahme Portugals formell Mitglied des Komitees waren, stellte sich bald heraus, dass das Prinzip der Nichteinmischung nicht ernsthaft verfolgt wurde. Auf der einen Seite unterstützten die faschistischen Mächte Italien und Deutschland offen die Putschisten, während die liberalen Demokratien Frankreich und Großbritannien eine Nichteinmischungspolitik praktizierten und damit den Siegeszug der Aufständischen begünstigten. Die Sowjetunion dagegen belieferte die Republik bis 1938 mit Waffen und Beratern. Dadurch konnte sie die Madrider Regierung maßgeblich beeinflussen und die Stellung der zuvor unbedeutenden spanischen Partido Comunista de España (PCE) ausbauen. Außerdem betrieb die Sowjetunion entschieden den Rückgang der Sozialen Revolution. Letzteres geschah sowohl aus Machtinteresse als auch aus strategischen Gründen. Man wollte die Gunst der liberalen kapitalistischen Mächte gewinnen, die Stalin in der zu erwartenden Auseinandersetzung mit dem Faschismus auf seine Seite zu ziehen versuchte. So wurde Spanien zu einem militärischen und politischen Labor für die schwelende Systemkonkurrenz in Europa, die in den Zweiten Weltkrieg mündete. Die gewählte spanische Regierung wurde zu einem frühen Opfer der Appeasement-Haltung der führenden Demokratien, die nicht zuletzt einem antikommunistischen Kalkül geschuldet war. Die Putschisten wären ohne das Eingreifen Mussolinis und Hitlers nie so weit gekommen, konnten aber ihre vollständige Instrumentalisierung durch Rom und Berlin vermeiden. Deutschland. Nach einem dringlichen Hilfegesuch Francos hatte Hitler die Putschisten spontan mit den notwendigen Mitteln unterstützt. Für das NS-Regime war der Bürgerkrieg ein neues Schlachtfeld im weltweiten Konflikt gegen den „Bolschewismus“. Neben der offen vorgetragenen ideologischen Komponente taten sich vor allem strategische und militärische Gründe für das NS-Engagement auf. Spanien sollte von keinem Regime regiert werden, das dem Deutschen Reich feindlich gegenüberstehen würde. Hier spielten schon Hitlers Kriegsvisionen eine Rolle. Dies geschah vor dem Hintergrund, dass Frankreich seit Juli 1936 ebenfalls eine Volksfront-Regierung besaß, deren Vorgängerin bereits erste Annäherungen zur Sowjetunion betrieben hatte – was aber auf britischen und innenpolitischen Druck hin bald ein Ende fand. Hinzu kamen wirtschaftliche Motive: Spanien besaß eine Reihe von Rohstoffen, die für die Rüstungsindustrie relevant waren und die man sich per Abkommen mit dem Franco-Regime aneignen wollte. Konkurrent hierbei war Großbritannien. Bereits unmittelbar nach dem Putsch verließen sämtliche Angestellte von deutschen Konzernen die von der Republik kontrollierten Gebiete. Sie begaben sich entweder in die von Franco kontrollierten Gebiete oder verließen per Schiff Spanien, wobei einige der Angestellten der IG-Farben als Transportmittel das Panzerschiff "Deutschland" benutzt haben dürften. Wahrscheinlich kämpften insgesamt 16.000 deutsche Staatsbürger in Spanien auf Seiten Francos. Im Maximum betrug ihre Anzahl etwa 10.000. Die Anzahl der getöteten deutschen Staatsbürger wird mit 300 angegeben. Finanzielle Beihilfen. Die finanziellen Beihilfen Deutschlands zugunsten der Nationalisten betrugen im Jahr 1939 etwa £ 43.000.000 ($  215.000.000). Diese Beihilfen wurden zu 15,5 % für die Gehälter und Ausgaben, 21,9 % für Waffenlieferungen und 62,6 % für die Legion Condor verwendet. Waffenlieferungen. Die sehr prompte Lieferung von Waffen über den Seeweg legt nahe, dass Waffen schon vor dem Militäraufstand von den Putschisten in Deutschland geordert wurden. Bereits einige Tage nach dem Militärputsch, am 22. Juli 1936, war das deutsche Dampfschiff Girgenti im Hafen von Valencia von republikanischen Kräften nach Waffen durchsucht worden. Das deutsche Außenministerium protestierte bei der republikanischen Regierung in Madrid. Kurz darauf wurde die Girgenti von Joseph Veltjens gechartert und am 22. August 1936 in Hamburg erneut mit Waffen für die putschenden Militärs in der Region La Coruña beladen. Zudem lieferte Joseph Veltjens am 14. August 1936 an den spanischen General und Hauptakteur des Putsches Emilio Mola sechs He 51. Bei einer Verhandlung mit dem diktatorisch regierenden portugiesischen Ministerpräsidenten A. Salazar erreichte am 21. August 1936 Johannes Bernhardt, dass Kriegsmaterial und Treibstoff über den Hafen von Lissabon eine Blockade des spanischen Hafens von Cádiz durch die republikanische Marine umgehen konnte. Der Anfangs mit der wirtschaftlichen Koordination beauftragte Walter Warlimont regte an, ein Unternehmen nach dem Montan-Schema zu gründen. Als Ergebnis eines Treffens am 2. Oktober 1936 entstand als Pendant zu der in Spanien operierenden HISMA in Deutschland die Rohstoff- und Wareneinkaufsgesellschaft mbH (ROWAK). Geschäftsführer der ROWAK wurde Eberhard von Jagwitz, ein Freund von Johannes Bernhardt. Weil die Putschisten nicht über genug Währungsreserven verfügten, wurde mit dem Deutschen Reich ein Verrechnungssystem etabliert, in dem Kriegsgerät etwa gegen Bergbau-Konzessionen verrechnet wurde. Laut dem Historiker Hugh Thomas bereiste Friedrich Bethke direkt nach der Einnahme Bilbaos im Juni 1937, über 14 Tage lang sämtliche Erzbergwerke, Hochöfen und Walzwerke in dieser Region. Bereits 1937 verfügte die ROWAK über 73 Minenrechte, und 1938 über 135 Minenrechte. Die Minenrechte bezogen sich auf strategische Güter wie: Eisen, Kupfer, Blei, Wolfram, Zinn, Zink, Kobalt und Nickel. Später überschrieb Franco zur Zahlung seiner Kriegsschulden sogar sechs Minen dem Deutschen Reich, in Höhe von 480 Millionen Reichsmark. Deutsche Unternehmen. Als deutsches Unternehmen spendete z. B. die IG-Farben mehrmals während des Spanischen Bürgerkrieges Beträge in Höhe von 100.000 Peseten und bedachte auch militärische Erfolge Francos mit Sonderprämien. Sie unterstützte auch gemeinsam mit Siemens und anderen deutschen Unternehmen die Legion Vidal, eine Sanitätstruppe der Putschisten. Zudem lieferte die IG-Farben wichtige Rohstoffe zur Erzeugung von Kriegsgütern. Des Weiteren lieferte die Gesellschaft für die Legion Condor die Elektron-Thermit-Stabbrandbombe B 1 E, die bei dem Luftangriff auf Gernika und andere baskische Städte eingesetzt wurde. Nachweislich erstellte die Gesellschaft auch Schwarze Listen und Berichte über Belegschaftsangehörige der IG-Farben in den Gebieten der Republik. Laut diesen Berichten standen zwei Drittel der Belegschaftsangehörigen auf der Seite der Spanischen Republik. Diejenigen Mitarbeiter, die den Putsch Francos begrüßten, erhielten Anweisungen zur Sabotage. Einige dieser Mitarbeiter gelangten sogar in Führungspositionen, wie zum Beispiel Juan Trilla Buxeda, der einen Betriebsrat der IG-Farben leitete. Laut einem US-Regierungsbericht konnten insgesamt 104 Personen identifiziert werden, die als Spitzel für die IG-Farben sowie andere deutsche Firmen tätig waren. Ab 1938 erfolgte in Spanien der Aufbau eines der vier weltweiten Zentren des Etappendienstes außerhalb des Deutschen Reichs. Im Juni 1938 inspizierte Hellmuth Heye die Standorte in Spanien, die in den ersten Jahren des Bürgerkrieges stillgelegt worden waren. Kriegsmateriallieferungen organisierte Hans Eltze für das Exportkartell Ausfuhrgemeinschaft für Kriegsgerät. Unternehmen Feuerzauber. Die erste rein militärische Unterstützung Francos durch das nationalsozialistische Deutschland erfolgte schon zu Beginn des Spanischen Bürgerkrieges. Am 27. Juli 1936 wurde, um die militärische Hilfe für Franco zu organisieren und die verschiedenen Waffengattungen zu koordinieren, der Sonderstab W unter Hermann Göring gebildet, welcher von Helmut Wilberg und Erhard Milch geleitet wurde. Das erste Projekt des Sonderstabs W wurde nach dem 3. Akt, 3. Szene aus Wagners Walküre, "Unternehmen Feuerzauber" benannt. Es war die Luftbrücke mit Flugzeugen der Deutschen Lufthansa AG, durch welche Truppen der Putschisten, darunter auch Fremdenlegionäre, von Spanisch-Marokko auf das Festland nach Cádiz und Malaga verlegt wurden. Die Verlegung dauerte vom 28. Juli bis Oktober 1936, dabei transportierten 20 Ju 52 in mehr als 800 Flügen etwa 14.000 Fremdenlegionäre und 500 Tonnen Material. Als Begleitschutz entsandte das Deutsche Reich zudem sechs Heinkel-51-Kampfflugzeuge. Technischer Koordinator der Luftbrücke an der Seite Francos war der deutsche Hauptmann Heinichen. Zudem sicherten die deutschen Panzerschiffe "Deutschland" und "Admiral Scheer" als Begleitschutz nationalistische Schiffe, die über die Straße von Gibraltar Truppen aus Spanisch-Westafrika nach Südspanien transportierten. Ohne dieses Eingreifen wäre vermutlich der Militärputsch bereits in den ersten Tagen gescheitert. Einer der Verantwortlichen war Johannes Bernhardt. Er organisierte auch Tetraethylblei zur Herstellung von Flugzeugbenzin aus Portugal, Gibraltar und Tanger. Zur weiteren Unterstützung des putschenden Generals Franco entsandte Hitler als Geschäftsträger der Reichsregierung Wilhelm Faupel, einen ehemaligen Militärberater in Argentinien und Generalinspekteur der peruanischen Armee. Die geleistete deutsche Militärhilfe war ausschließlich für Francos-Einheiten, der Spanischen Legion, bestimmt. Legion Condor. Am 16. November 1936 trafen die ersten 5.000 deutschen Soldaten und am 26. November 1936 weitere 7.000 der Legion Condor in Cádiz ein. Die Legion Condor, die nach Spanien entsandt wurde und offiziell nur aus Freiwilligen bestand, verfügte bereits nach einigen Monaten über 100 Flugzeuge. Trotz der deutschen Unterzeichnung einer Nicht-Interventions-Vereinbarung im September 1936 griff die Legion Condor in alle wichtigen Schlachten ab 1937 ein: Bilbao, Brunete, Teruel und am Ebro-Bogen. Von besonderer – auch symbolischer – Tragweite war der Luftangriff auf Gernika am 26. April 1937, bei dem die religiöse Hauptstadt des Baskenlandes fast vollständig zerstört wurde. Die Legion Condor war auch am Massaker von Málaga beteiligt, bei dem etwa 10.000 Menschen ums Leben kamen. Im Januar 1937 wurde zudem die Legion Condor durch eine Panzerabteilung mit 100 Panzern vom Typ Panzerkampfwagen I unter dem Befehl von Oberstleutnant Wilhelm Ritter von Thoma verstärkt, die aber nur zu Ausbildungszwecken verwendet wurden. Während des Spanischen Bürgerkrieges hatte die Legion Condor keinerlei Versorgungproblem mit Erdölprodukten, da Royal Dutch Shell, Texas Oil Company und die Standard Oil Company lieferten. Neben der Unterstützung Francos durch die Legion Condor und motorisierten Verbänden lieferte Deutschland regelmäßig Waffen, Munition und weiteres Kriegsmaterial, die in Hamburg zur Tarnung auf zivile Frachtschiffe verladen wurden. Die ersten zivilen Frachter, die "Kamerun" und "Wigbert", trafen bereits am 22. August 1936 ein. Kriegsmarine. Übersichtskarte über die Operationsgebiete zur Durchsetzung des beschlossenen Waffenembargos (Gebiet der deutschen Kriegsmarine ist in grau) Im Februar 1937, während der Schlacht von Malaga, beschoss die Admiral Graf Spee Malaga. Mit Seestreitkräften Großbritanniens, Italiens und Frankreichs beteiligte sich die Kriegsmarine auch an der internationalen Seeblockade zur Durchsetzung eines Waffenembargos gegen Spanien, wobei ihr ein Küstenbereich im Mittelmeer etwa zwischen Almería und Valencia zugewiesen war. Faktisch diente dieser Einsatz der Unterstützung der putschenden spanischen Nationalisten unter Franco. Befehlshaber der Seestreitkräfte waren Wilhelm Marschall und Rolf Carls. Die Kriegsmarine entsandte die Panzerschiffe "Admiral Scheer" und "Deutschland". Bis Mitte Oktober wurden des Weiteren der Leichte Kreuzer "Köln" und vier Torpedoboote nach Spanien entsandt. Am 29. Mai 1937 wurde das Panzerschiff "Deutschland" vor Ibiza bombardiert und beschädigt. Der Angriff der republikanischen Luftwaffe forderte 31 Tote und 75 Verwundete. Nach dem Angriff erhielt die "Admiral Scheer" den Befehl, einen Vergeltungsschlag gegen den befestigten Hafen von Almería, dem Liegeplatz der republikanischen Flotte, durchzuführen. Da viele Granaten ihre Ziele verfehlten und in der Stadt einschlugen, war der Einsatz wenig erfolgreich. 21 Bewohner kamen bei dem Beschuss ums Leben, weitere 55 wurden verletzt. Beteiligt an den Operationen der Kriegsmarine waren in den Jahren 1936 bis 1939 zwölf Torpedoboote, sechs Leichte Kreuzer und drei Panzerschiffe. U-Boot-Waffe. Bei der "Operation Ursula" (benannt nach der Tochter von Karl Dönitz), unter dem Oberkommando von Hermann Boehm, entsandte die Kriegsmarine am 20. November 1936 die U-Boote U 33 und U 34 in das Mittelmeer. Um die Mission geheim zu halten, wurden alle hoheitlichen Zeichen der U-Boote unkenntlich gemacht. Ziel der Operation war es, die republikanischen Nachschubwege abzuschnüren. Die U-Boote erreichten das Mittelmeer in der Nacht vom 27. auf den 28. November und übernahmen Patrouillen von italienischen U-Booten, die bereits republikanische Häfen blockierten. Ende November hielten sich die beiden deutschen U-Boote im Seeraum zwischen Cartagena und Almeria auf. Am 1. Dezember 1936 eröffneten die deutschen U-Boote im Mittelmeer einen völkerrechtswidrigen Unterwasserkrieg gegen die Spanische Republik. U 33 versuchte am 2. Dezember einen Schiffskonvoi zu torpedieren. Aufgrund eines voranlaufenden republikanischen Zerstörers konnte der Konvoi nicht torpediert werden. Am nächsten Tag versuchte U 33 erneut den Konvoi anzugreifen. Dieser Angriff wurde durch die Anwesenheit eines britischen Zerstörers gestört. Nach einem Fehlschuss auf einen Frachter brach U 34 den Angriff ab. Francos Flottenchef Admiral Moreno wusste von einem weiteren, für den 7. bis 9. Dezember geplanten Konvoi mit vier republikanischen Dampfern und drängte das Deutsche Reich erneut zum Angriff. Am 8. Dezember feuerte U 34 seinen dritten Torpedo gegen einen Begleitzerstörer des Konvois, traf diesen aber nicht. Am 9. Dezember 1936 erhielten die beiden U-Boote den Befehl, das Operationsgebiet binnen drei Tagen zu verlassen. Auf der Fahrt in den atlantischen Ozean sichtete Kapitänleutnant Grosse von U 34 am 12. Dezember vor der Hafeneinfahrt von Málaga das republikanische U-Boot C-3 und versenkte es. Am 13. Dezember 1936 passierten die beiden deutschen U-Boote ungesehen die Straße von Gibraltar. Die Rückkehr der U-Boote nach Wilhelmshaven im Dezember markiert das offizielle Ende der "Operation Ursula". Verschiedene Gründe, wie zum Beispiel die Schwierigkeiten der eindeutigen Identifizierung von Zielen, sowie Bedenken über die Enttarnung der Mission, begründeten den Abbruch der "Operation Ursula". Der Kapitänleutnant Harald Grosse von U 34 erhielt 1939 als einziger Angehöriger der Kriegsmarine das Spanienkreuz in Gold. Der Kommandant von U 33, Kapitänleutnant Kurt Freiwald, nur das sehr häufig verliehene Spanienkreuz in Bronze. Unmittelbar nach dem Bombenangriff republikanischer Flugzeuge gegen das Panzerschiff "Deutschland" am 29. Mai 1937 wurden vier U-Boote der 2. Flottille in spanische Gewässer geschickt, um an der internationalen Seekontrolle teilzunehmen. Ihr Kontrollgebiet war die spanische Atlantikküste. Eines dieser vier U-Boote, U 35, sichtete am 3. Juni 1937 vor Santander einen Konvoi, der von zwei republikanischen Zerstörern begleitet wurde. Als einer der Zerstörer das U-Boot erkannte und abdrehte, tauchte U 35 auf und versuchte den Zerstörer zu versenken. Nachdem der deutsche Kreuzer "Leipzig" mit vier Torpedos am 15. Juni 1937 angegriffen wurde, bereitete Hermann von Fischel eine neue geheime U-Boot-Aktion im Mittelmeer vor, einem Gebiet in dem sich deutsche U-Boote nicht aufhalten durften. Vor der Durchfahrt der Straße von Gibraltar übermalten "U 28", "U 33" und "U 34" ihre Nummern- und Neutralitätszeichen. Zu dieser Zeit hielt sich bereits U 14 ohne Kennzeichen und Flagge im Mittelmeer auf. Der Einsatzbefehl zum Angriff auf republikanische Schiffe wurde aus unbekannten Gründen nicht erteilt. Offiziell beendete die deutsche Kriegsmarine ihre Tätigkeit in Spanien Ende 1938. Als letztes U-Boot verließ U 35 Ferrol am 5. Januar 1939 das Mittelmeer in Richtung Brunsbüttel. Details der beiden Operationen sind nur zum Teil bekannt. Es existiert aber ein 55 Seiten langer Abschlussbericht über die geheimen und völkerrechtswidrigen Operationen deutscher U-Boote. Verfasst wurde der Bericht von dem damaligen Befehlshaber der Aufklärungsstreitkräfte Hermann Boehm. Er war vom 14. November bis 15. Dezember 1936 Seebefehlshaber. Konzentrationslager/Gestapo. a> in Spanien (25. Oktober 1940). 1937, während des Spanischen Bürgerkrieges, errichteten die Putschisten in Miranda de Ebro ein Konzentrationslager nach deutschem Vorbild. Dieses Lager wurde von dem SS- und Gestapo-Mitglied Paul Winzer geführt. Nach einem Gestapo-Bericht vom August 1939 befanden sich Gestapo-Beamte in Spanien, die Gefangene vernahmen. Nach dem Polizeiabkommen vom 31. Juli 1938 zwischen Heinrich Himmler und Severiano Martínez Anido wurde von SS-Sturmbannführer Winzer neben dem bestehenden Abwehrnetz ein SD-Netz in Spanien aufgebaut. Zahlreiche SD-Mitarbeiter waren bei deutschen Unternehmen in Spanien beschäftigt. Die Zusammenarbeit beinhaltete auch die gegenseitige Auslieferung von „politischen Verbrechern“. Im Jahre 1940 besuchte zudem Heinrich Himmler mit Karl Wolff Spanien. Das Treffen hatte zwei Hauptziele: die Rückführung der deutschen Kriegsgefangenen, und potenzieller alliierter Spione in Spanien habhaft zu werden. Heinrich Himmler besuchte auch das Konzentrationslager Miranda de Ebro bei Burgos. Propaganda-Hilfe. Zudem leistete das Deutsche Reich Propaganda-Hilfe. Die Deutschen richteten in Salamanca eine Presse- und Propagandastelle ein, die dem Regime Franco die erprobten Techniken des Reichsministeriums für Volksaufklärung und Propaganda vermittelte. Zu den Aufgaben des Propaganda-Büros gehörte auch die Vermittlung der spanischen Ereignisse im Deutschen Reich. Geheime Operationen. Vor dem Verbot der irischen Regierung, am Kriegsgeschehen teilzunehmen, begaben sich schätzungsweise 700 irische Freiwillige nach Spanien. Die Verschiffung der irischen Freiwilligen von der Irish Brigade wurde von Joseph Veltjens organisiert, der im Auftrag des Deutschen Reiches handelte. Diplomatie. Nach dem Franco sich zum Staatsoberhaupt erheben ließ, erkannten Deutschland und Italien am 18. November 1936 das putschende Militär als rechtmäßige Regierung Spaniens an. Geschäftsträger der Reichsregierung in Salamanca war Wilhelm Faupel. In dieser Funktion war er für die Beziehungen zu Franco zuständig. Von Februar bis Oktober 1937 war er Botschafter des Deutschen Reiches in Spanien. Des Weiteren wurde Oberstleutnant Walter Warlimont als Militärischer Bevollmächtigter des Reichskriegsministers nach Spanien kommandiert. Göring gab in den Nürnberger Prozessen an, Hitler auf die Erprobung der neuen Luftwaffe gedrängt zu haben. Die Luftwaffe unterstützte von 1937 an sämtliche Militäroperationen der Rebellen mit ihren verheerenden Angriffen und erprobte Flächenbombardierungen. Den bekanntesten Fall bildet die Stadt Gernika. Italien. Neben dem Deutschen Reich mischte sich auch Italien ins spanische Kriegsgeschehen ein, und zwar in weit größerem Umfang als die deutsche Seite, womit sich für Mussolini nach dem Abessinienkrieg eine neue Bühne für militärische Kraftproben darbot. Das passte wiederum in Hitlers Kalkül, gewann er doch hiermit einen größeren Spielraum in Mitteleuropa, vor allem in Österreich. Tatsächlich beschleunigte der Bürgerkrieg das Zusammengehen der beiden faschistischen Staaten (Achsenmächte). In Rom hatte man, anders als in Deutschland, schon im Vorfeld über die Absichten der spanischen Generäle Bescheid gewusst. Mussolini war allerdings nicht eingeweiht und zögerte zunächst mit einer Unterstützung, bis ihm die Reaktionen der Westmächte ein Eingreifen als ungefährlich erscheinen ließen. Nachdem Franco mit der Einnahme Madrids gescheitert war, beschloss seinerseits Mussolini, mit einem Großaufgebot an regulären Truppen Präsenz zu zeigen. Entsprechende Pläne hatten schon seit längerem bestanden. Im Dezember 1936 traf das erste italienische Expeditionsheer unter dem Kommando von General Mario Roatta ein. Die „Freiwilligenverbände“ des Corpo Truppe Volontarie (CTV) erreichten bis April 1937 eine Truppenstärke von 80.000 Mann. An die 6.000 hiervon gehörten zu Luftwaffeneinheiten, 45.000 zum Heer und 29.000 zu den faschistischen Milizen. Hinzu kamen im Verlauf des Krieges insgesamt an die 1.000 Flugzeuge, 2.000 Artilleriegeschütze, 1.000 Gefechtswagen sowie gewaltige Mengen an Maschinengewehren und Gewehren. Mussolini wollte mit diesem breit angelegten Engagement die eminente Bedeutung der italienischen Unterstützung für den Sieg Francos deutlich zum Ausdruck bringen und damit ein Abhängigkeitsverhältnis begründen. Bereits vor Beginn des Spanischen Bürgerkrieges, am 18. November 1936, erkannte Italien mit Deutschland das Franco-Regime als rechtmäßige Regierung Spaniens an. Mussolini stellte Franco außerdem vier Zerstörer und im weiteren Verlauf des Jahres 1938 auch noch den alten Kreuzer RN Taranto zur Verfügung. Im Juli 1938, während der Schlacht am Ebro, griffen italienische U-Boote zahlreich sowjetische und britische Schiffe mit Kriegsmaterial für die Republik an und versenkten viele von ihnen. Italienische U-Boote führten von November 1936 bis Februar 1938 insgesamt 108 Angriffe gegen Kriegs- und Handelsschiffe. Nach vorsichtigen Schätzungen wurden elf Handelsschiffe versenkt und drei Kriegsschiffe beschädigt. Portugal. Als in Spanien 1936 der Bürgerkrieg ausbrach, unterstützte der portugiesische „Estado Novo“ den Putsch Francos. Zudem erfolgte die Versorgung der Nationalisten mit Kriegsmaterial über Portugal. Bereits in den ersten Wochen des Krieges sollte eine Legion, die Legion Viriato, aufgestellt werden und nach Spanien entsandt werden. Nach pro-republikanischen Unruhen in Portugal beschloss die Regierung Salazar Abstand von einem direkten Eingriff auf das Kriegsgeschehen zu nehmen. Bevor überhaupt eine Mitgliederwerbung für die Legion stattfinden konnte, wurde diese aufgelöst. Unter dem Deckmantel der Neutralität autorisierte die portugiesische Regierung die Rekrutierung von Freiwilligen für die Spanische Legion. Portugiesische Freiwillige, die durch eine groß angelegte Öffentlichkeitskampagne angeworben wurden und für die spanischen Nationalisten kämpften, wurden deshalb als Viriatos bezeichnet. Bis zu 12.000 portugiesische Freiwillige kämpften während des Krieges auf Seiten Francos. Während des Spanischen Bürgerkrieges gab es im Gegensatz zu den faschistischen Staaten Deutschland und Italien nie eine autonome portugiesische Kommandostruktur. Bei der Siegesparade Francos in Madrid, am 19. Mai 1939, bildete die portugiesische Legion Viriato mit der deutschen Legion Condor die Nachhut. Bereits im März 1939, kurz vor dem Ende des Spanischen Bürgerkrieges im April 1939, unterzeichnete Portugal einen Freundschafts- und Nichtangriffspakt mit Spanien. Irland. Während des Spanischen Bürgerkrieges kämpften schätzungsweise 700 irische Freiwillige in der Irischen Brigade unter der Führerschaft von Eoin O’Duffy auf der Seite Francos. Am 12. Dezember 1936 verschiffte im Auftrag des deutschen Reiches Joseph Veltjens insgesamt 600 irische Freiwillige von Galway in den spanischen Marine-Hafen El Ferrol. Nach der Verschiffung erfolgte in Cáceres, dem Hauptquartier Francos, die militärischen Ausbildung der Freiwilligen. Die Iren wurden ein Teil des XV Bandera Irlandesa del Terico der Spanischen Legion. Mit ihrer Stärke war die Irische Brigade die größte ausländische Einheit in der spanischen Legion. Am 17. Februar erfolgte die Verlegung der Brigade nach Ciempozuelos, einem Ort 35 Kilometer südlich von Madrid am Fluss Jarama. Die Schlacht von Jarama war die letzte Schlacht, an der die Irische Brigade teilnahm. Im Juni 1937 wurden sie via Lissabon nach Irland verschifft. Von den schätzungsweise 700 irischen Freiwilligen starben nach nicht offiziellen Angaben 77 Brigadisten. Sowjetunion. Die Sowjetunion hatte 1935 ihren über die Komintern in den Westen exportierten Konfrontationskurs aufgegeben und strebte nun, in die geostrategische Defensive überwechselnd, eine Allianz mit den europäischen Demokratien an (Volksfrontpolitik). Die offene Unterstützung für die Republik kam darum erst dann ins Rollen, als sich abzeichnete, dass die Westmächte sich nicht für die spanische Republik einsetzen würden und die faschistischen Staaten in kleinerem Umfang schon längst ihre Mittel ins Spiel gebracht hatten. Auch spätere Vorstöße der Sowjetunion, London und Paris zu einem Vorgehen gegen Italien und Deutschland zu bewegen, scheiterten und isolierten Moskau zusehends. Am 28. Oktober 1936 erklärte der sowjetische Botschafter Iwan Maiski in London, zugleich Repräsentant in dem Nichteinmischungskomitee, die Sowjetunion fühle sich dem Nichteinmischungsabkommen nicht stärker gebunden als Deutschland, Italien und Portugal. Diese Entwicklung ist eine der wichtigsten Voraussetzungen für das Zustandekommen des so genannten Hitler-Stalin-Paktes von 1939. Am 3. August 1936 beschloss die Komintern eine allgemein gehaltene Resolution zur Aufstellung einer Internationalen Brigade. Erst am 18. September 1936, nachdem Stalin einen Entschluss gefasst hatte, wurde in Paris eine Sitzung einberufen, in der Eugen Fried den Beschluss Stalins zur Aufstellung einer Internationalen Brigade verkündete. Hieraufhin organisierten Kommunistische Parteien verschiedener Länder die Rekrutierung von Freiwilligen. Die Sowjetunion blieb (neben Mexiko) der einzige nennenswerte Bündnispartner für Madrid; die Republik geriet somit faktisch in die Abhängigkeit von Moskau. Das fast exklusive sowjetische Engagement hatte außerdem gravierende innenpolitische Konsequenzen für die Republik. Es folgte der Aufstieg der spanischen kommunistischen Partei PCE. Durch die Einflussnahme der Sowjetunion wuchs die Zahl der PCE-Parteimitglieder ab 1936 innerhalb eines Jahres von 5.000 auf 100.000 bis 300.000. Der PCE traten vornehmlich Spanier bei, die den gemäßigt-sozialistischen Parteien der Volksfront-Regierung feindlich gesinnt waren. Sie gewann vor allem Mitglieder in der Mittelschicht und im Kleinbürgertum, die befürchten mussten, ihre Privilegien zu verlieren. Das Militärwesen wurde von den Kommunisten und ihren politischen Kommissaren aufgrund der sowjetischen Waffenlieferungen völlig dominiert. Mit der Hilfe des Generalkommissars Alvarez del Vayo gelang es bis zum Frühjahr 1937, das Militärwesen so weit zu dominieren, dass 125 der 168 Bataillonskommisare Parteigänger der PCE und PSUC oder Mitglieder der "Vereinigung der kommunistischen Jugendverbände Spaniens" waren. Die sowjetischen Behörden versuchten die Zahl der Fachleute der Roten Armee in Spanien zu verheimlichen. Aus diesem Grund meldeten sich sowjetische Fachleute bei den Internationalen Brigaden als Freiwillige. Laut dem Historiker Antony Beevor entsandte die Sowjetunion 30 sowjetische Offiziere, die als Kommandeure in den Internationalen Brigaden dienten. Zum Beispiel kommandierte der sowjetische Major Ferdinand Tkatschow das Palafox-Bataillon. Drei der vier Kompanien unterstanden Leutnants der Roten Armee. Die genaue Zahl der sowjetischen Fachleute wird mit maximal 2150 angegeben, wobei sich zu keiner Zeit mehr als 800 sowjetische Fachleute in Spanien aufhielten. Unter sowjetischen Fachleuten waren 20 bis 40 NKWD-Mitarbeiter und 20 bis 25 Diplomaten. Der oberste sowjetischer Militärberater in Spanien war Jan Bersin. Darüber hinaus erfolgte in Tiflis, in einem Ausbildungszentrum mit einer Kapazität von 60 Infanterieoffizieren und 200 Piloten, die Ausbildung von Angehörigen der Internationalen Brigaden. Die ersten sowjetischen Waffenlieferungen trafen im Oktober 1936 in Spanien ein. Die Lieferung umfasste 42 Doppeldecker vom Typ Polikarpow I-15 und 31 Polikarpow I-16 Jagdflugzeuge. Bereits am 29. Oktober 1936 griffen sowjetische Tupolew SB-2-Bombenflugzeuge Sevilla an und am 3. November waren die ersten Polikarpow I-16 über Madrid zu sehen. Die Sowjetunion gewährte der spanischen Regierung aber kaum Kredite, so dass die sowjetischen Waffenlieferungen mit bedeutenden Teilen der spanischen Goldreserven vergütet wurden. Organisiert wurden die sowjetischen Waffenlieferungen vom sowjetischen Marineattaché in Spanien Nikolai Kusnezow. Die sowjetischen Schiffe liefen unter falscher Flagge. Auf der Höhe von Algerien nach Norden mit Kurs auf die spanische Mittelmeerküste, 48 Stunden vor dem Zielhafen organisierte der Stab von Kusnezow eine Eskorte von republikanischen Kriegsschiffen. Der Frachter „Campeche“ erreichte am 4. Oktober 1936 Cartagena und der Frachter „Komsomol“, beladen mit T-26 Panzern, am 12 Oktober den Hafen von Cartagena. Mit den sowjetischen Waffenlieferungen verschob sich das Kräfteverhältnis hin zu einer autoritären Machtkontrolle durch die sowjetisch dominierte PCE. Durch den Zuwachs des stalinistischen Einflusses auf das republikanische Spanien, konnten Angehörige des sowjetischen Geheimdienstes NKWD und Angehörige der Komintern eine massive Terrorwelle gegen die anarchistische CNT, die marxistische POUM oder echte und vermeintliche Trotzkisten lostreten. Sie wurden als „faschistisch-trotzkistische Spione“, als „fünfte Kolonne Francos“ oder als Defätisten diffamiert. Die Auseinandersetzungen gipfelten in den Maiereignissen von Barcelona, einem „Bürgerkrieg im Bürgerkrieg“ – ein interner Konflikt, der die Republik zusätzlich schwächte. Der sowjetische Geheimdienst NKWD ermordete im Namen des Antifaschismus missliebige Mitkämpfer, die tatsächlich oder vermeintlich von der Moskauer Linie abwichen. Deutsche Spanienkämpfer, wie Artur Becker, fielen auf Grund gezielter Hinweise aus den eigenen Reihen den Leuten Francos in die Hände. Der sowjetische Militärgeheimdienst GRU führte in Spanien neben reinen Aufklärungsmissionen auch im Hinterland der Nationalisten Sabotageakte aus. Verantwortliche waren Alexander Orlow und Hadschi-Umar Mamsurow. Nach dem Spanischen Bürgerkrieg behauptete Orlow, dass in Ausbildungszentren 1.600 Partisanen ausgebildet wurden. Laut seinen Angaben kämpften 14.000 Republikaner als Partisanen. In der Forschung ist bis heute unklar, weshalb Stalin ab 1938 seine Unterstützung fast gänzlich einstellte. Insgesamt kann über die Absichten Stalins in Zusammenhang mit seiner Spanienpolitik nur spekuliert werden. Der militärische Anteil der Sowjetunion wurde in kommunistischen Darstellungen bis in die 1950er-Jahre hinein weiter geleugnet. Erst seit dem XX. Parteitag der KPdSU im Februar 1956 änderte sich die Betrachtungsweise. Sowjetische Offiziere und Diplomaten, die als ehemalige Spanienkämpfer den Stalin-Säuberungen zum Opfer gefallen waren, wurden postum rehabilitiert. Mexiko. Die republikanische Regierung erhielt auch Hilfe aus Mexiko. Im Gegensatz zu den Vereinigten Staaten und wichtigen lateinamerikanischen Staaten, den ABC-Staaten und Peru, unterstützte die mexikanische Regierung die Republikaner. Mexiko weigerte sich, die Nicht-Interventions-Vereinbarung vom September 1936 zu befolgen und unterstützte die Republikaner mit über 2.000.000 $, sowie mit 20.000 Gewehren mit 20 Millionen Patronen. Mexikos wichtigste Beiträge für die spanische Republik waren die diplomatische Hilfe und die Aufnahme von rund 50.000 republikanischen Flüchtlingen. Darunter waren viele spanische Intellektuelle sowie verwaiste Kinder von republikanischen Familien. Großbritannien. Großbritannien spielte schon seit Anfang des 18. Jahrhunderts im Mittelmeerraum eine bedeutende Rolle, etwa im Spanischen Erbfolgekrieg. Aufgrund der Probleme des Empire und der Verringerung seiner militärischen Kraft nach dem Ersten Weltkrieg wollte man sich auf den Kontinent konzentrieren. Zudem war die 1931 gegründete spanische Republik bei den britischen wie auch US-amerikanischen Eliten nicht sehr angesehen, da man sie sozialistischer Tendenzen verdächtigte und die Soziale Revolution die Interessen britischer Geschäftsleute unmittelbar berührten. So hegten die konservativen Eliten Sympathien für die Putschisten, da diese die Eigentumsverhältnisse unangetastet ließen. Mit der Nichteinmischungspolitik sollte Spanien „neutralisiert“, der Konflikt auf die Iberische Halbinsel beschränkt und das Land weder „kommunistisch“ noch zu einem militärischen Aktivposten der faschistischen Konkurrenten werden, die die kontinentale Ordnung in Frage stellten. Franco kam den Briten hier entgegen, indem er 1938 vorsorglich die spanische Neutralität in einem möglichen europäischen Konflikt erklärte. So intensivierten sich trotz bedeutender Spannungen die diplomatischen und wirtschaftlichen Beziehungen zwischen Großbritannien und dem Franco-Regime, vor allem nach der Einnahme des Baskenlandes. Frankreich. 60 % aller Auslandsinvestitionen in Spanien kamen aus Frankreich. In Paris herrschte im Juli 1936 mit der sozialistischen Regierung von Léon Blum eine ähnlich gestaltete Regierung, sodass sich das Nachbarland als Bündnispartner für Spanien geradezu anbot. Tatsächlich war die von einer pazifistischen Strömung mitgeprägten Dritten Französischen Republik in ähnlicher Weise gespalten wie die spanische und darum stark geschwächt. Weite Teile des bürgerlichen Lagers waren eindeutig auf Seiten der Putschisten. Zudem kämpfte eine kleine Abteilung von rechtsgerichteten Franzosen in der spanischen Fremdenlegion unter Franco. Hingegen sympathisierte die Linke mit der legitimen Spanischen Regierung. Um den Bürgerkrieg nicht im eigenen Land austragen zu müssen, unterließ Paris schnell offene materielle Hilfeleistungen, zumal man sich außenpolitisch eng an Großbritannien gebunden hatte. Die Kontroverse ging quer durch die Regierung und spaltete die gesamte öffentliche Meinung. Sie spiegelte – stärker noch als in Großbritannien – die gesellschaftliche Polarisierung im Lande wider. Neben der strategischen Schwäche machte es diese innere Blockade der Regierung Blum letztlich unmöglich, der benachbarten parlamentarischen Republik zu Hilfe zu kommen. Staatsstreich des Militärs. Initiiert durch eine Militärrevolte in Spanisch-Marokko begann am 17. Juli 1936 der Staatsstreich des Militärs gegen die Zweite Spanische Republik. Die Putschisten, die von Anfang an bei Teilen des spanischen Militärs auf der iberischen Halbinsel Sympathie fanden, stützten sich vor allem auf die spanischen Kolonialtruppen in Spanisch-Marokko (die Regulares, ein Heer marokkanischer Söldner, sowie die Spanische Legion) und hofften, schnell die Kontrolle über die Hauptstadt Madrid und alle wichtigen Städte zu erlangen. In den darauffolgenden Tagen wurde jeder Soldat vor die Entscheidung gestellt, für welche Seite er kämpfen wolle. 80 % des unteren und mittleren Offizierskorps, die Mehrheit der Unteroffiziere, aber nur vier Divisionsgeneräle, entschieden sich für den Putsch. Die Putschisten errangen bald die Kontrolle über die Städte Sevilla, Cádiz, Jerez de la Frontera, Córdoba, Saragossa, Oviedo sowie über Galicien, Mallorca und das carlistische Navarra; sie scheiterten jedoch in den Provinzen Madrid, Valencia und Barcelona, Sitz von 70 % der spanischen Industrie und der Mehrheit der Bevölkerung. Anführer des Militärputsches war General Sanjurjo, der bereits 1932 mit einem Putsch gescheitert war und sich deshalb zu jener Zeit im portugiesischen Exil befand. Auf dem Rückflug aus dem Exil verunglückte der General tödlich, was zu einem Machtvakuum bei den Nationalspaniern führte. Dieses wurde durch ein Triumvirat der Generäle Mola, Franco und Queipo de Llano gefüllt. Ein Bomber der Legion Condor auf einem spanischen Flugplatz im Jahr 1939 Auf der Seite der Nationalisten kämpften große Teile der Armee, darunter viele maurische Söldner, die carlistischen Milizen (Requeté) und die Falange, die bis 1937 noch relativ unabhängige Befehlsstrukturen behielten. Unterstützung erhielten die Nationalisten bereits zu Beginn des Spanischen Bürgerkrieges von Italien und dem Deutschen Reich. Die Italiener schickten mit dem C.T.V. auch ein eigenes, 70.000 Mann starkes Unterstützungskorps, die Deutschen das Fliegerkorps Legion Condor mit 19.000 Mann. Entscheidenden Einfluss besaßen die deutschen Ausbilder an den Infanterie- und Offiziersschulen. Es kämpften aber auch Portugiesen, Franzosen (Bataillon Jeanne d’Arc), Rumänen der Eisernen Garde sowie Iren der Irish Brigade unter Eoin O’Duffy auf der nationalspanischen Seite. In der republikanischen Zone wurde Regierungschef Casares bereits zu Beginn des Putsches am 19. Juli durch den moderaten Martínez Barrio ersetzt, der den Aufständischen politische Mitsprachemöglichkeiten und die Wiederherstellung der öffentlichen Ordnung versprach, die die konservative Opposition in den vorhergehenden fünf Monaten vergeblich im Parlament eingefordert hatte. Dieser wurde jedoch schon einen Tag danach durch den radikaleren Giral ausgetauscht, als die Bemühungen um Vermittlung gescheitert waren. Treu zur Republik blieb die Mehrheit der Generäle, zwei Drittel der Marine und die Hälfte der Luftwaffe, doch konnten sie das Fehlen eines intakten Offiziers- und Unteroffizierskorps in den entscheidenden ersten Monaten nicht kompensieren. Die loyal gebliebenen Truppen mit der paramilitärischen Guardia Civil und der Guardia de Asalto bildeten mit Milizgruppen der Sozialdemokraten, der Kommunisten, der Sozialisten und den Anarchosyndikalisten zu Beginn des Spanischen Bürgerkrieges das militärische Rückgrat der Republik. Eine wesentliche Unterstützung erhielt die Republik zudem durch internationale Freiwillige. Internationale Milizionäre. Die ersten internationalen Milizionäre zu Beginn des Spanischen Bürgerkrieges waren vornehmlich Teilnehmer der Volksolympiade in Barcelona und politische Emigranten, die in Spanien lebten. Dabei handelte es sich um 300 Milizionäre, die sich nach dem Militärputsch in Barcelona in Gruppen (spanisch Grupo) organisierten. Sie bildeten mit den ersten internationalen Freiwilligen, die über Frankreich nach Spanien kamen, Gruppen von internationalen Milizionären. Diese Gruppen gingen in Hundertschaften (spanisch Centuria) auf, die zu Beginn des Bürgerkrieges vornehmlich an der Aragon-Front kämpften. Kommunistische internationale Freiwillige kämpften vornehmlich in PSUC-Milizeinheiten, sozialistische internationale Freiwillige vornehmlich in POUM-Milizeinheiten und anarchistische vornehmlich in CNT-Milizeinheiten. Bei den internationalen Milizionären gab es viele bekannte Personen wie George Orwell und André Malraux. Internationale Brigaden. Am 3. August 1936 beschloss die Komintern eine allgemein gehaltene Resolution zur Aufstellung einer kommunistisch geführten Internationalen Brigade. Erst am 18. September 1936, nachdem Stalin einen Entschluss gefasst hatte, wurde in Paris eine Sitzung einberufen, in der Eugen Fried den Beschluss Stalins zur Aufstellung einer Internationalen Brigade verkündete. Hieraufhin organisierten Kommunistische Parteien verschiedener Länder die Rekrutierung von Freiwilligen. Zum Zeitpunkt der größten Beteiligung gehörten der Internationalen Brigade 25.000 Kämpfer an. Insgesamt waren es 59.000 Menschen, die in den Internationalen Brigaden gedient haben. Die größten Kontingente stellten Franzosen, Deutsche und Italiener. Partisanen. Eine nicht zu vernachlässigende Rolle spielte der Partisanenkampf im Hinterland der Front, der zum Beispiel von Ernest Hemingway in seinem Roman "Wem die Stunde schlägt" beschrieben wird. Waffenlieferungen. Die republikanische Seite, die einem materiell unterlegenen, aber besser ausgebildeten Gegner gegenüberstand, wurde von der Sowjetunion mit umfangreichen Materiallieferungen und 2000 Bewaffneten unterstützt. Mit fortschrittlichen I-16-Jagdflugzeugen und circa 600 T-26-Kampfpanzern hatte sie lange Zeit eine Überlegenheit an schwerem Material inne. Das restliche Kriegsgerät bestand allerdings zu weiten Teilen aus einem Sammelsurium veralteter Waffen: zehn verschiedene Gewehrtypen unterschiedlicher Kaliber aus acht Herkunftsländern, die wegen ihres Alters von 50 bis 60 Jahren schon museumsreif waren. Diese Waffenkäufe wurden mit dem spanischen Goldvorrat, der vom NKWD in die Sowjetunion verbracht wurde, verrechnet, wobei die Sowjetunion alleine durch den Umrechnungskurs des Rubels einen Gewinn von 25 % erzielte. Besondere Bedeutung für den Kriegsverlauf hatte die umfangreiche Unterstützung durch deutsche und italienische Kampfflieger für die nationale Seite, wobei sich nach Eintreffen der Legion Condor das Blatt wendete. Im gesamten Krieg standen 1533 deutschen und italienischen Maschinen nur 806 sowjetischen gegenüber. Die sonstige Materialhilfe des Deutschen Reichs und Italiens fiel im Vergleich mit der Sowjetunion geringer aus, doch überstieg die Zahl gerade der italienischen Freiwilligen weit das von der Sowjetunion geschickte militärische Personal. Die demokratischen Länder Europas beriefen sich auf ihre Neutralität, lediglich Frankreich öffnete bei zwei Gelegenheiten seine Grenze, um die Frente Popular mit Material zu unterstützen. Polen unterstützte zwar die Putschisten nicht offiziell, lieferte aber Waffen an sie. Jedem Polen, der in die Internationalen Brigaden der Republik eintrat, wurde die polnische Staatsbürgerschaft entzogen. Dies war auch der Grund, wieso das franquistische Spanien nach dem Zweiten Weltkrieg zu den wenigen Ländern zählte, welche die Polnische Exilregierung weiterhin anerkannten. Die Volksfront musste sich schließlich an internationale Waffenhändler wenden. Das militärische Gerät, das sie zur Verteidigung der Zweiten Republik verwendete, stammte schließlich aus über dreißig Ländern, allerdings wurde auf Seiten Francos erbeutetes oder anders erstandenes veraltetes Material genauso genutzt wie von den Republikanern. Die Gründe der Unterlegenheit der republikanischen Verbände sind daher nicht ausschließlich beim Kriegsgerät zu suchen, sondern nicht zuletzt bei dessen Anwendung durch oft unerfahrene und schlecht ausgebildete Offiziere und Soldaten. Kriegsverlauf. Vier Stadien des Frontverlaufs bis Oktober 1937 1936. Die letzten Hoffnungen auf ein schnelles Ende wurden am 21. Juli, dem fünften Tag des Aufstandes, zerstört, als die Nationalisten die Marinebasis Ferrol in Nordwestspanien eroberten und dort zwei fabrikneue Kreuzer erbeuteten. Des Weiteren half Franco die erste Luftbrücke der Geschichte, Truppen aus den spanischen Kolonien aufs Festland zu verschieben und so die republikanische Marineblockade in der Straße von Gibraltar zu umgehen und das von ihnen kontrollierte Gebiet zu konsolidieren. Das ermutigte die faschistischen Länder Europas zur Unterstützung Francos, der bereits am Tag zuvor Kontakt zu Deutschland und Italien aufgenommen hatte. Am 26. Juli beschlossen die Achsenmächte den Nationalisten beizustehen, die Hilfe lief dann Anfang August an. Die Achsenmächte leisteten Franco von Anfang an finanzielle Hilfe. Seine nationalistischen Kräfte errangen mit der Eroberung Toledos am 27. September und der Beendigung der Belagerung des Alcázars von Toledo einen weiteren wichtigen propagandistischen Sieg. Zwei Tage später erklärte sich Franco selbst zum "Generalísimo" (Generalissimus) und Caudillo (Führer). Die Nationalisten begannen im Oktober bei einem Kräfteverhältnis von 1:3 eine Großoffensive Richtung Madrid. Der zunehmende Widerstand durch die Regierung, die Mobilisierung der Bevölkerung sowie der Eingriff von Verstärkungen (u. a. der XI. und XII. Internationalen Brigade sowie der anarchistischen Kolonne Durruti) brachte den Vormarsch aber am 8. November zum Stehen. Inzwischen hatte sich die Regierung am 6. November von Madrid, heraus aus der Kampfzone, nach Valencia zurückgezogen. Die Achsenmächte erkannten das Francoregime nach der Befreiung der in der Festung von Toledo eingeschlossenen nationalspanischen Soldaten am 18. November offiziell an und am 23. Dezember schickte Italien eigene Freiwillige, um für die Nationalisten zu kämpfen. 1937. Das von der deutschen Legion Condor zerstörte Guernica Mit durch die italienischen Truppen und Kolonialtruppen aus Marokko verstärkten Kräften versuchte Franco im Januar und Februar 1937 nochmals Madrid zu erobern, scheiterte jedoch erneut. Málaga wurde am 8. Februar erobert und am 28. April betraten Francos Truppen Guernica, zwei Tage nach der Bombardierung durch die Legion Condor. Danach begann aber die Regierung, sich mit steigender Effizienz zu wehren. Im Mai begann die Regierung eine Kampagne zur Rückeroberung Segovias, um Franco zu zwingen, Truppen von der Madridfront abzuziehen und so deren Vormarsch zu stoppen. Mola, Francos stellvertretender Kommandeur, wurde am 3. Juni bei einem Flugzeugabsturz getötet und Anfang Juli begann die Regierung sogar eine starke Gegenoffensive bei Brunete im Gebiet von Madrid, um die Hauptstadt zu entlasten. Die Nationalisten konnten diese jedoch mit einigen Schwierigkeiten und unter Einsatz der Legion Condor abwehren. Danach konnte Franco die Initiative zurückerlangen. Er konnte nach Kantabrien und Asturien vordringen und eroberte die Städte Santander und Gijón, was die Eliminierung der Nordfront bedeutete. Am 28. August erkannte der Heilige Stuhl Franco an, unter dem Druck Mussolinis. Ende November ging die Regierung, als die Nationalisten bedrohlich nahe an Valencia herankamen, nach Barcelona. 1938. Im Januar und Februar kämpften die beiden Parteien um den Besitz der Stadt Teruel, wobei die Nationalisten sie ab dem 22. Februar endgültig halten konnten. Am 6. März entschied die republikanische Seite das größte Seegefecht des gesamten Bürgerkrieges für sich und versenkte den Schweren Kreuzer Baleares in der Schlacht von Cabo de Palos. Der Ausgang des Gefechtes hatte keinen Einfluss auf den Verlauf des Krieges. Am 14. April brachen die Nationalisten zum Mittelmeer durch, und zwar an derselben Stelle, an der die spanische Sagengestalt El Cid einst im Kampf gegen die Mauren das Mittelmeer erreicht haben soll. Das republikanische Gebiet wurde somit in zwei Teile geteilt. Im Mai bat die Regierung um Frieden, doch Franco verlangte die bedingungslose Kapitulation, und so ging der Krieg weiter. Die Regierung begann jetzt eine Großoffensive, um ihre Gebiete wieder miteinander zu verbinden: Die Ebroschlacht begann am 24. Juli und dauerte bis zum 26. November. Die Offensive war ein Misserfolg und legte den endgültigen Ausgang des Krieges fest. Acht Tage vor Jahresende schlug Franco zurück, indem er starke Kräfte für eine Invasion Kataloniens aufbot. 1939. a> am 1. April 1939 das Ende des Bürgerkriegs Die Nationalisten eroberten Katalonien während der ersten zwei Monate des Jahres 1939. Tarragona fiel am 14. Januar, Barcelona am 26. Januar und Girona am 4. Februar. Fünf Tage danach wurde der letzte Widerstand in Katalonien gebrochen. Am 27. Februar erkannten die Regierungen von Großbritannien und Frankreich die Franco-Regierung offiziell an. Nur noch Madrid und einige andere Hochburgen verblieben den Regierungskräften. Am 28. März fiel Madrid, mit Hilfe von Franco-freundlichen Kräften (die berüchtigte „fünfte Kolonne“), an Franco. Am folgenden Tag gab Valencia ebenfalls auf, das fast zwei Jahre unter dem Beschuss der Nationalisten ausgehalten hatte. Als die letzten republikanischen Kräfte aufgegeben hatten, verkündete Franco am 1. April den Sieg. Repressionen und politische Morde. August 2014. Die 26 Opfer des Jahres 1936 wurden als Republikaner identifiziert. César Vidal, ein prominenter Vertreter des spanischen Geschichtsrevisionismus, verwirft jedoch diese Annahme und weist auf die aktive und andauernde Verwicklung republikanischer Institutionen in auf republikanischem Gebiet begangene Verbrechen hin. Beim Massaker von Málaga an der fliehenden Bevölkerung von Málaga wurden etwa 10.000 Menschen von den Nationalisten ermordet. In den während des Krieges errichteten franquistischen Konzentrationslagern wurden an den republikanischen Häftlingen – mit nationalsozialistischer Unterstützung – auch rassenideologisch motivierte medizinische Versuche durchgeführt, die angebliche körperliche und psychische Deformationen, die bei Anhängern des „Marxismus“ vorkämen, erforschen sollten. Nach dem Krieg gelangten die gesamte republikanische Armee und andere namhafte Persönlichkeiten in Gefangenschaft, die nochmals viele Menschenleben kostete. Insgesamt waren nach Kriegsende etwa 275.000 Menschen unter größtenteils unwürdigen Bedingungen etwa in Stierkampfarenen und Fußballstadien gefangen. Bis Ende der 1940er Jahre verringerte sich die Zahl auf etwa 45.000. Im Februar 1939 gab es fast 500.000 Kriegsflüchtlinge. Sie wurden anfangs zumeist in Südfrankreich interniert. Mehr als die Hälfte kehrte in den nächsten Monaten nach Spanien zurück. Einige politisch verfolgte Spanier wanderten in verschiedene Länder aus, insbesondere nach Lateinamerika. In Frankreich blieben ungefähr 150.000. Einige Tausende Spanier wurden nach dem Einmarsch der deutschen Wehrmacht als Kriegsgefangene in verschiedene Stammlager gesandt und seit dem 6. August 1940 in das KZ Mauthausen. Dort gab es über 7.000 spanische Häftlinge, von denen 5.000 starben. Einige Spanier wurden von der Gestapo aus Frankreich an Franco ausgeliefert, wie Companys, Zugazagoitia oder Cruz Salido. Andere, wie der ehemalige Regierungschef Francisco Largo Caballero, wurden in andere deutsche Konzentrationslager verschleppt, wo es auch einige hunderte Spanier gab, die wegen ihres antifaschistischen Widerstands in Frankreich festgenommen worden waren. Bis etwa 1945 fanden Massenerschießungen als Vollzug von Kriegsgerichten verhängter Todesstrafen, aber vielfach auch „spontan“ und ohne Urteil statt. Der Repression dieser Jahre, deren Erforschung noch lange nicht abgeschlossen ist, sind vermutlich nochmals weit mehr als 100.000 Regimegegner zum Opfer gefallen. Seit dem Jahr 2000 bemüht sich die Organisation ARMH ("Asociación para la Recuperación de la Memoria Histórica", "Vereinigung zur Rückgewinnung des historischen Gedächtnisses") um Exhumierung und würdige Neubestattung. Eines der vermutlich größten Massengräber wurde 2003 in El Carrizal bei Granada entdeckt; dort waren 5000 Hinrichtungsopfer vergraben worden. Seit 2007 sieht ein Gesetz der sozialistischen Regierung vor, dass die Kommunen die private Initiative der Exhumierungsarbeiten unterstützen. In vielen Gemeinden und Regionen stellt sich, auch heute, der konservative Partido Popular gegen die Auffindung und Umbettung der ermordeten Franco-Opfer. Soziale Revolution. In den zumeist von in der Confederación Nacional del Trabajo (CNT) organisierten Anarchisten, sowie den 20.000 Frauen der "Mujeres Libres" und den von POUM-Anhängern der Linken Opposition kontrollierten Gebieten (Aragonien, Katalonien) fand, zusätzlich zu den militärischen Erfolgen, eine umfangreiche soziale Revolution statt. Für die knapp zwei Millionen Anarchisten konnte es keinen Sieg der regierungstreuen Truppen ohne die soziale Revolution geben, während des Bürgerkrieges musste die soziale Revolution stattfinden. Arbeiter und Landarbeiter kollektivierten Landbesitz und Industrie, verwalteten diese selbst und setzten Räte ein – parallel zur (nicht funktionierenden) Regierung. Sowohl der PCE als auch die demokratischen Parteien waren gegen diese Revolution. Für sie sollte erst der Bürgerkrieg gewonnen werden und danach ein Umsturz der Verhältnisse stattfinden. Mit Fortschreiten des Krieges gelang es der Regierung und der kommunistischen Partei über ihren Zugang zu sowjetischen Waffen, die Kontrolle über die kriegswichtige Produktion zurückzuerlangen. Dies geschah sowohl diplomatisch als auch mit Gewalt. Gleichzeitig führten die kommunistischen Truppen von Stalin befohlene politische Säuberungen durch. Ziel war es, die Anarchisten der CNT und die Links-Marxisten des POUM zu zerschlagen. Nach der Zerschlagung der sozialen Revolution brach auch der Widerstand in den von Anarchisten kontrollierten Regionen ein. Während der berüchtigten Maitage 1937 töteten hunderte oder tausende republikanische Spanier einander beim Kampf um die Kontrolle strategischer Punkte in Barcelona. Eine Schlüsselfigur der Anarchisten war der Metallarbeiter Buenaventura Durruti, der schon 1936 erschossen wurde. Francos Rolle. Vor dem Kriegsausbruch hätte wohl auch im nationalen Lager niemand damit gerechnet, dass General Franco für 39 Jahre dem spanischen Staat vorstehen würde. Die politischen Ansichten von Katholiken, den beiden monarchistischen Strömungen (Alfonsinos, Carlistas), konservativen Republikanern, Falangisten und Kleinbauern waren in der Tat sehr unterschiedlich und deshalb war der Aufstand zunächst auch als rein militärische Erhebung geplant, ohne Einbeziehung politischer Gruppen außer den Carlisten. Dies ließ sich nicht mehr aufrechterhalten, als der Putsch in den Bürgerkrieg überging. Nach dem Tod von General Sanjurjo bildete sich so unter dem Vorsitz der Generäle Franco, Mola und Queipo de Llano eine aus Militärs bestehende Verteidigungsjunta mit Sitz in Burgos, während Monarchisten und Falange ihre eigenen Kommandostrukturen, Milizeinheiten, Akademien und Propagandaorgane behielten oder neu gründeten. Dies war für die Fortführung des Krieges nicht ungefährlich, denn die konservativen Monarchisten, Katholiken und Agrarier hatten mit der sozialrevolutionären Falange nicht viel gemein und es kam sowohl zu schweren Differenzen in der Führungsebene als auch zu Ausschreitungen gegen die jeweils andere Seite. In dieser Situation entschied sich die Junta, einen provisorischen Staatschef und Oberkommandierenden zu ernennen, General Franco. Um die Gegensätze zu überwinden, vereinigte dieser 1937 die Traditionalisten und die Falange zur Falange Española Tradicionalista, der spanischen Einheitspartei bis 1975. Wer sich gegen diese Vereinigung aussprach, fand sich nicht selten im Exil oder in einer spanischen Botschaft irgendwo in Lateinamerika wieder. Ab 1937 gab es auch eine technische Junta, eine Art Zivildirektorium, welche sich den nicht-militärischen Aufgaben widmete. General Franco verstand es, anders als die Republikspanier, die verschiedenen Parteien auf sich zu vereinigen. Auch wenn viele enttäuscht waren – die Monarchisten wegen des Ausbleibens der Restauration, die Falange wegen der ausbleibenden sozialen Revolution, die konservativen Republikaner wegen der sich abzeichnenden Diktatur –, konnte Franco doch alle auf den kleinsten gemeinsamen Nenner vereinigen: Stellenwert der Kirche, Privateigentum, staatlich gelenkter Ausgleich zwischen Arbeitgebern und -nehmern, autoritär-korporative Strukturen, Übernahme der Traditionen des Spaniens der katholischen Könige. Für dies stand Franco. Weitergehende Schritte wären nicht möglich gewesen, ohne eine Gruppe, die das nationale Lager unterstützt hatte, zu verprellen. Rezeption. Während der auf den Bürgerkrieg folgenden Diktatur Francos galt der Spanische Bürgerkrieg offiziell als ein Befreiungskrieg nationaler Kräfte gegen einen internationalen Kommunismus, der Spanien zerstören wolle. Diese Sichtweise wurde auch in den Jahren der Transición nicht revidiert, da viele Eliten nicht ausgetauscht wurden. In den 1980er Jahren herrschte weiterhin ein ungeschriebenes Gesetz der Verschwiegenheit über die eigene Vergangenheit. Zu Beginn der 2000er Jahre regten einige Ereignisse, wie der Prozess gegen den chilenischen Ex-Diktator Augusto Pinochet, die Bemühungen um die Exhumierung Federico García Lorcas aus einem Massengrab ("fosa") oder die öffentliche Auseinandersetzung mit der ETA, die Debatte um die spanische Vergangenheit wieder an. Das führte zum 2007 verabschiedeten Ley de Memoria Histórica, einem Gesetz, das die Opfer der franquistischen Gewaltherrschaft anerkennt und die Diktatur öffentlich als solche benennt. Im Mai 2011 veröffentlichte die Regierung eine Karte mit Informationen zu anonym begrabenen Opfern des Bürgerkrieges. Trotz der offiziellen Bekenntnisse der spanischen Regierung fällt die historische Bewertung des Spanischen Bürgerkrieges heute sehr unterschiedlich aus. „Machen Sie sich nicht des Verbrechens schuldig, dem Mord an der Spanischen Republik tatenlos zuzusehen. Wenn Sie es zulassen, dass Hitler in Spanien siegt, werden Sie die nächsten sein, die seinem Wahnsinn zum Opfer fallen werden. Der Krieg wird ganz Europa, wird die ganze Welt erfassen. Kommen Sie unserem Volk zu Hilfe!“ „Das Buch liefert eine Neueinschätzung des […] großen Mythos, nach welchem der spanische Bürgerkrieg ein Kampf zwischen Demokratie und Faschismus gewesen sei. […] [Der wichtigste Aspekt …] ist die abschreckende Mahnung, dass viele linke Führer die Aussichten auf einen Bürgerkrieg begrüßt haben. Sie glaubten irrtümlich, dass ein Konflikt zu einem wesentlich schnelleren Sieg der Revolution führen würde als der russische Bürgerkrieg, vor allem, weil sie annahmen, dass sie Hilfe von außen bekämen. Waren sie gedankenlos gegenüber dem erwartbaren schrecklichen Leiden, oder war es revolutionäre Besessenheit? Auf jeden Fall war es eine schreckliche Fehleinschätzung, die zu einer fundamentalen Unehrlichkeit führte. Der Krieg in Spanien war nie ein Krieg zwischen liberaler Demokratie und Faschismus […] Es gab nur zwei Möglichkeiten: eine stalinistische Diktatur, die all ihre Rivalen innerhalb der Linken zerschmettert hätte, oder das grausame – reaktionäre, militärische und klerikale – Regime mit oberflächlich faschistischem Putz, das der siegreiche Franco zuwege brachte.“ Aus sowjetischer Sicht wurde hier erstmals das Konzept der Volksfront, das die Komintern 1935 beschlossen hatte, angewandt, indem der Faschismus in Europa gestoppt werden sollte durch die Zusammenarbeit kommunistischer, sozialistischer sowie nicht-faschistischer bürgerlicher Kräfte unter Zurückstellung der sozialen Revolution bei Ausbau reformerischer Politik. Von Seiten der Anhänger des Anarchosyndikalismus, der linksmarxistischen POUM oder trotzkistischer Gruppen lag gerade darin der Fehler, dass die Vorstände dieser Gruppen die Zusammenarbeit mit den bürgerlichen Kräften suchten statt konsequent auf eine sozialrevolutionäre Politik zu setzen. Da die Verbündeten der Anarchisten und der POUM, nämlich die gemäßigten Sozialisten, Kommunisten und bürgerliche Republikaner, die Revolution jedoch ablehnten, hatte diese keine Chance auf längeres Bestehen. Diese historische Spaltung der Arbeiterbewegung setzte sich in heftigen Debatten auch in der Erinnerungspolitik fort. Scheduling. Unter Scheduling (englisch für „Zeitplanerstellung“), auch Zeitablaufsteuerung, in der Betriebswirtschaft Ablaufplanung Maschinenbelegungsplanung oder Reihenfolgeplanung genannt, versteht man das Erstellen eines Ablaufplanes ("schedule"), der Prozessen zeitlich begrenzt Ressourcen zuteilt (Allokation). Das Scheduling folgt auf die summarische Planung der anstehenden Aufgaben. Auf das Einteilen zu einem Pool an Ressourcen folgt später das Einlasten für eine einzelne Instanz dieses Pools. In der Betriebswirtschaft legt Scheduling meist fest, welche einzelnen Auftragsinstanzen wann (in welcher Reihenfolge) und an welchen Produktionsmaschinen (in welcher Zuordnung) ausgeführt werden, steuert also die Produktionsprozesse vom Abschluss der Auftragsplanung (englisch: "planning") über die Einlastung (englisch: "dispatch") in der Ausführung (englisch: "processing") mit begleitender Auftragssteuerung (englisch: "control") mit Beobachtung des Zustandes (englisch: "monitoring") und Rückmeldung von Ereignissen (englisch: "feedback") bis zum Abschluss aller verketteten Teilprozesse jeder einzelnen Auftragsinstanz. In der Produktionswirtschaft wird auch einfach von Maschinenbelegungsplanung gesprochen. In der Informatik im Bereich der Betriebssysteme legt Scheduling fest, welche Prozesse wann und wie viel Prozessorzeit erhalten, im Bereich der Datenbanktechnik wird mit dem Scheduling festgelegt, wie parallele Transaktionen ablaufen müssen, ohne die Konsistenz der Datenbank zu verletzen, siehe auch: Scheduler. Spezielle Begriffe der Betriebswirtschaftslehre. Sowohl Jobs, die vor dem geplanten Fertigstellungstermin abgearbeitet werden, als auch Jobs, die ihn nicht einhalten können und erst später beendet werden, verursachen Kosten. Diese werden als „early costs“ und „tardy costs“ bezeichnet. Die Reihenfolge, in der ein Job mehrere Maschinen durchläuft, bezeichnet man als Weg („route“). Bei der Lösung von Scheduling-Problemen müssen diverse Einschränkungen („constraints“) berücksichtigt werden. So werden zum Beispiel für die Durchführung von Jobs Ressourcen (zum Beispiel Maschinen, Monteure, Prozessoren etc.) eingesetzt, die nur in beschränktem Umfang verfügbar sind. Man unterscheidet häufig zusätzlich zwischen harten Einschränkungen („hard constraints“), die unbedingt einzuhalten sind, und weichen Einschränkungen („soft constraints“). Zu den harten Einschränkungen zählt unter Anderem das obige Beispiel und sämtlichen Einschränkungen physikalischer Natur (zum Beispiel Rüstzeiten). Weiche Einschränkungen sind solche, die zur Optimierung der Pläne dienen, aber nicht unbedingt eingehalten werden müssen. So besteht gegebenenfalls die Möglichkeit, nach voller Auslastung der vorhandenen personellen Kapazitäten zusätzliche Kapazität in Form von Überstunden bereitzustellen. Weitere typische Restriktionen sind die von der Planung vorgegeben Fertigstellungstermine, die aber in der Regel schwächere Einschränkungen darstellen als die ressourcenbedingten oder technischen, sowie Einlastzeiten, die verhindern sollen, dass mit der Produktion begonnen wird, obwohl benötigte Materialien noch nicht vorhanden sind. Scheduling-Probleme. Scheduling-Probleme werden häufig durch die Systemkonfiguration, die vorgegebenen Einschränkungen und die zugrunde liegende Zielsetzung definiert. Die verschiedenen Modelle werden durch ein etabliertes System Kriterien klassifiziert. Die einfachste Systemkonfiguration ist das Einmaschinenmodell. Es existiert nur eine Maschine, auf der Jobs eingeplant werden müssen. Das Modell ist sehr häufig anzutreffen – hat man beispielsweise eine Systemkonfiguration mit mehreren Maschinen gegeben, bei denen es aber eine einzelne Engpassmaschine gibt, sodass sich das Scheduling der anderen Maschinen nach dem Plan des Engpasses richten muss, wird das vorliegende Problem auf das Single-Machine-Problem zurückgeführt. Durch die geringe Komplexität ist es möglich, mittels einfacher Prioritätsregeln bestimmte Ziele mit Sicherheit zu erreichen. Das parallele Maschinenmodell ist eine Generalisierung des Einmaschinenmodells. Mehrere Maschinen desselben Typs arbeiten parallel. Ein ankommender Job kann von jeder dieser Maschinen bearbeitet werden. Oft müssen Jobs unterschiedliche Operationen an verschiedenen Maschinen durchlaufen, so dass sie unterschiedliche Wege aufweisen. Eine solche Umgebung bezeichnet man als Job-Shop. Job-Shop-Probleme treten zum Beispiel in der Halbleiterindustrie bei der Wafer-Fertigung auf; ebenso kann man aber auch ein Krankenhaus als typisches Beispiel für einen Job-Shop betrachten: Die Patienten sind die Jobs, die unterschiedlichen Wegen folgend, an verschiedenen Stellen im Krankenhaus (Anmeldung, Wartezimmer, Arztraum, Röntgenraum,…) behandelt werden. Wenn alle Jobs die gleichen Maschinen in der gleichen Reihenfolge durchlaufen, das heißt, wenn ihre Wege identisch sind, spricht man von einem Flow-Shop. Ein Flow-Shop ist somit ein spezieller Job-Shop. Typische Flow-Shops findet man beispielsweise in der Metallherstellungsindustrie oder der Chargen- und Fließfertigung in der Lebensmittelproduktion. Scheduling-Probleme treten an vielen Stellen in Produktionsvorgängen auf und sind in den meisten Fällen nur sehr schwierig optimal lösbar, da sie häufig in die Klasse der NP-vollständigen Probleme fallen. In der Praxis reichen aber oft gute Näherungslösungen aus. Ein häufig auftretendes und praxisrelevantes Problem stellt das "single-machine early/tardy" Problem dar. In einer single-machine Umgebung sollen eine Reihe Jobs auf einer Maschine eingeplant werden, so dass die auftretenden early costs und tardy costs möglichst minimal sind. Die Zielsetzung deckt sich mit dem Ziel der Just-in-time-Produktion. Dieses Problem ist NP-vollständig. Die angesprochenen Scheduling-Probleme lassen sich alle als ganzzahlige Optimierungsprobleme formulieren. Derartige Probleme versucht man vorwiegend mit sogenannten Branch-and-Bound-Verfahren oder dem Johnson-Algorithmus zu lösen. Scheduling in der Informatik. Die Erzeugung eines Ablaufplans ist ein wichtiger Teil aller Computersysteme, bei denen mehrere Funktionen um dieselben Ressourcen konkurrieren können. Für die verschiedenen Bereiche, bei denen Ablaufpläne benötigt werden, werden teils hochoptimierte Scheduler entwickelt. Entsprechend kann man Scheduler sowohl auf Grund ihrer Funktionsweise als auch anhand des speziellen Einsatzgebietes unterscheiden. Slackware. Slackware ist die älteste aktive Linux-Distribution und die erste, die große weltweite Verbreitung fand. Wegen dieses frühen Erfolges und des konsequenten Verzichts auf unnötigen Ballast nach dem KISS-Prinzip bildete Slackware die Grundlage für andere bekannte Distributionen wie z. B. SuSE Linux. Slackware ist für die Verwendung mit i486-kompatiblen (ursprünglich i386-kompatiblen) und x86 64-Architekturen sowie Alpha- und SPARC-Architekturen bestimmt. Mit Slackware ARM existiert eine offizielle Portierung auf die ARM-Architektur, Slack/390 bietet eine offizielle Portierung für die Großrechnerarchitektur 390 und deren Nachfolger System z. Slackware findet seine Hauptanwendung im professionellen Umfeld. Besonderheiten. Slackware ist auf größtmögliche Unix-Ähnlichkeit ausgelegt. Alle Einstellungen am System können vom Nutzer durch Editieren der Konfigurationsdateien vorgenommen werden. Es existieren keine offiziellen "distributionsspezifischen" Werkzeuge mit Benutzeroberfläche zur Systemkonfiguration (wie beispielsweise YaST bei openSUSE). Dies verstieße gegen das KISS-Prinzip. Die Veröffentlichung einer neuen Slackware-Version erfolgt immer erst dann, "wenn sie fertig ist" – das heißt, es gibt keine festgelegten Deadlines und keine Vorankündigung. Slackware setzt Linux Loader (LILO) als Boot-Manager ein und hat einen BSD-ähnlichen init-Prozess. Paketmanagement. Es gibt so gut wie keine distributionsspezifischen Änderungen an den zur Verfügung stehenden Paketen, was die Übersetzung und Installation eigener Software im Gegensatz zu anderen Distributionen erleichtert. Slackware verwendet komprimierte Tar-Archive als Paketformat; seit Version 13.0 werden diese mit dem Lempel-Ziv-Markow-Algorithmus anstelle von gzip komprimiert (*.txz statt *.tgz). Aufgrund des einfachen Paketaufbaus werden Paketabhängigkeiten weder vom System überprüft noch wird das Überschreiben von Dateien bereits installierter Pakete verhindert. Das ist ein wesentlicher Unterschied zu den in vielen anderen Linux-Distributionen enthaltenen Paketmanagern. Diese Eigenschaften ermöglichen es dem fortgeschrittenen Benutzer, auch Teile von umfangreicherer Software zu nutzen und auf unnötig erscheinende Software zu verzichten oder Anpassungen am System vorzunehmen, ohne mit Nebeneffekten durch Inkonsistenzen im Paketmanagement rechnen zu müssen. Im Verzeichnis codice_1 findet sich eine Liste der installierten Pakete mit Beschreibungen, welche Dateien mit welchem Paket installiert wurden. Mit dem Kommando codice_2 (List Dynamic Dependencies) können Abhängigkeiten dynamischer Bibliotheken angezeigt werden, woraus sich deren Notwendigkeit ableiten lässt. Installation und Updates. Für die einfache Installation und Konfiguration des Systems stellt Slackware Skripte zur Verfügung. Das Einspielen aktueller, sicherheitsrelevanter Softwareupdates kann seit Version 12.2 mit dem Programm "slackpkg" vorgenommen werden. Da Slackware mit einer recht minimalistischen Paketauswahl daher kommt, existieren diverse inoffizielle Programme, um auf einfache Art und Weise zusätzliche Software installieren zu können. "Sbopkg" ist unter diesen zusätzlichen Programmen das derzeit populärste. Es benutzt "Buildskripte", um Software aus ihren Quelltexten zu kompilieren und ein Paket daraus zu erstellen. Außerdem existieren Programme wie "swaret" und "slapt-get". die für Softwareinstallationen mit Abhängigkeitsauflösung benutzt werden können, sofern entsprechende Pakete und Repositorien verfügbar sind. Das Management der Software-Repositorien ist eher konservativ ausgelegt. Es ist möglich, dass über mehrere Versionen hinweg kein Upgrade einer bestimmten Software erfolgt. Geschichte. Ab Ende 1992 versuchte sich Patrick Volkerding an Fehlerkorrekturen für Softlanding Linux System (SLS), der ersten umfassenden Linux-Distribution überhaupt. Nachdem die Ergebnisse dieser Arbeit in seinem Umfeld populärer wurden, veröffentlichte er sie am 17. Juli 1993 als eigene Distribution unter dem Namen "Slackware Linux 1.00". Einen Monat später tat Ian Murdock es ihm mit seiner aus den gleichen Beweggründen entwickelten ersten Version von Debian gleich. Der erste Teil des Namens, Slack, leitet sich von einem Glaubensprinzip der Religionsparodie Church of the SubGenius ab und steht für Freiheit, Unabhängigkeit und originelle Ideen, die zum Erreichen der persönlichen Ziele führen. Die erste offizielle Version von Slackware besteht aus 13+11 3,5″-Disketten. Die ersten 13 Disketten enthalten einen DOS-Emulator, den Linux-Kernel 0.99pl11 in einer Alphaversion, GNU Compiler Collection (GCC) in Version 2.4.5 und die zwei Unix-Shells (pd)ksh und tcsh. Die anderen elf Disketten enthalten Treiber für Grafikkarten, ein XFree86-System in Version 1.3 und einige grafische Anwendungen. Slackware 1.1.1 besteht aus 51 Disketten und beinhaltet u. a. XFree86 2.0 und eine TeX-Installation. In Slackware 1.2 ist die Linux-Kernelversion 1.0 enthalten. Für die vollständige Installation werden mindestens 200 MB Festplattenspeicher benötigt. Version 2.1 der Distribution bringt bereits 65 Disketten sowie eine Root- und eine Bootdisk mit. Slackware 2.2.0.1 enthält XFree86 in Version 3.1.1. Slackware 3.0 erschien am 30. September 1995 zum ersten Mal im Executable and Linking Format und konnte bei Walnut Creek (heute FreeBSD Mall) als CD-ROM bezogen werden. Die im Juli 1996 veröffentlichte Version 3.1 wird auch Slackware 96 genannt (als Anspielung auf Windows 95) und enthält den Linux-Kernel in Version 2.0. Für Slackware 3.6 sind 500 MB Festplattenspeicher für die Vollinstallation notwendig. Zusammen mit Slackware 3.9 erschien im Mai 1999 Version 4.0, welche 1 GB auf der Festplatte belegt und u. a. XFree86 3.3.3.1 und den ersten freien KDE in Version 1.1.1 enthält. Nach Version 4.0 erfolgte im Jahr 1999 ein Versionssprung auf Version 7.0. Grund dafür war nach Angabe von Volkerding der aus Marketinggründen inflationäre Gebrauch neuer Versionsnummern bei anderen Distributionen und die sich ständig daraus ergebenden Anfragen „von Leuten, die nichts über Linux wissen,“ wann man denn upgraden würde oder ob die in Slackware enthaltenen Komponenten 3 Versionen älter seien als anderswo. Für Slackware 7.0 wird eine 2 GB große Installationspartition empfohlen. Mit Slackware 7.1 wurde auch GNOME Teil der Distribution. In der Releasereihe von Slackware 8.x werden die KDE-Versionen 2.1.1 bzw. 3.0.1 verwendet, XFree86 4.1.0 bzw. 4.2.0 und die Mozilla Application Suite kamen dazu. Die Slackware 9.x-Reihe ist für den Linux-Kernel 2.6 vorbereitet, benutzt aber die Kernel 2.4.20 und 2.4.22 und dazu KDE 3.2.3 sowie Gnome 2.6.2. Slackware 9.0 ist die letzte Version, die sich auf einer i386-kompatiblen Architektur installieren lässt, ab Version 9.1 wird mindestens eine i486-kompatible Architektur vorausgesetzt. Mit Slackware 10.0 wurde 2004 XFree86 durch den X.Org-Server ersetzt. Version 10.1 entfernte Gnome wieder aus der Distribution, und es begann die Migration zur Linux-Kernelserie 2.6, die ab Slackware 10.2 optional zur Verfügung steht. Ab Slackware 12.0 kam ein 2.6er-Kernel zum Einsatz, ab Version 12.1 sogar ausschließlich. Ab Slackware 13.0 steht die Distribution unter der Bezeichnung „Slackware64“ auch für x86 64-Architekturen zur Verfügung. Die 32-Bit-Version wird weiterhin „Slackware“ genannt. Ferner wird der bisher verwendete Kompressionsalgorithmus der Slackware-Pakete von gzip auf xz umgestellt. Slackware 13.1 entfernt mit Nutzung der Kernelserie 2.6.33 die Unterstützung für das alte IDE-Subsystem; ab jetzt werden alle Festplatten unter den Gerätenamen /dev/sd* angesprochen. Ferner wird mit KDE 4.4.3 auch dessen Berechtigungsdienst PolicyKit sowie das Sitzungsverwaltungssystem ConsoleKit in speziellen und auf Slackware angepassten Versionen eingeführt. Das ist insbesondere bemerkenswert, weil Slackware traditionell viel Wert darauf legt, möglichst geringe Anpassungen an der mitgelieferten Software durchzuführen. Die Anpassungen wurden nötig, um die von Slackware genutzte Shadow-Passwort-Methode zum Schutz von Passwörtern zu unterstützen. Außerdem wird insbesondere die Unterstützung für Laptops verbessert: Es wird ein "tickless" Kernel ohne regelmäßige Timer Interrupts verwendet; wie oft dieser geweckt wird, lässt sich mit "powertop" festlegen. Ferner wurde "usb_modeswitch" integriert und so die temporäre Verwendung von USB-Geräten vereinfacht. Slackware 13.37 enthält neben einer umfassenden Aktualisierung der mitgelieferten Pakete wesentliche Neuerungen in der Installationsroutine. Deren Hardware-Initialisierung wird nun von udev erledigt. Ein Vorteil dessen ist, dass bei der Installation über ein Netzwerkprotokoll die Konfiguration der Netzwerkkarte über ältere Hilfsskripte entfällt. Als weitere Neuerung unterstützt Slackware nun GPT-Partitionstabellen während der Installation. Werkzeuge zur Verwaltung des Btrfs-Dateisystems gehören nun ebenfalls zur Distribution. Aufgrund der Aktualisierung von X.org wird HAL nicht länger für die Erkennung und Initialisierung der Eingabegeräte verwendet. Stattdessen findet auch hier udev Verwendung. Weitere Neuerungen sind die Aufnahme von ddrescue, rfkill und lxc, ein System ähnlich chroot zur Isolierung von Systemprozessen und -ressourcen. Letztlich ist es jedoch wesentlich leistungsfähiger wodurch sich damit virtuelle Systeme betreiben lassen. Slackware64. Slackware64 ist die offizielle Portierung von Slackware auf die 64-Bit-Prozessorarchitektur. Die Portierung wurde offiziell mit der Veröffentlichung von Slackware-13 eingeführt. Änderungen an Slackware und Slackware64 finden gleichzeitig statt, weil beide Projekte vom selben Team betreut werden. Die Freigabe einer neuen Version von Slackware64 erfolgt gleichzeitig mit jener von Slackware. Die Entwicklung von Slackware64 wurde durch das mittlerweile nicht mehr weiterentwickelte Slamd64 sowie BlueWhite64 maßgeblich begünstigt. Slackware64 ist eine reine 64-Bit-Distribution, die jedoch für die Einrichtung der gleichzeitigen Unterstützung für 32- und 64-Bit Prozessorarchitekturen (Multilib-Umgebung) vorbereitet ist. Die Tools zur Einrichtung der Multilib-Umgebung sind jedoch nicht Bestandteil von Slackware64. Slackware ARM. Slackware ARM wurde im Jahr 2002 unter dem Namen „ARMedslack“ begründet und ist eine offiziell anerkannte Portierung von Slackware auf die ARM-Prozessorarchitektur. Mit der offiziellen Anerkennung im Jahr 2009 erfolgte die Umbenennung von „ARMedslack“ zu „Slackware ARM“. Die aktuelle Version ist 14.1. Derzeit werden die Plattformen ARM Versatile und Marvells SheevaPlug unterstützt. Durch die Unterstützung der ARM Versatile Plattform kann Slackware ARM auf emulierter Hardware, z. B. mittels QEMU laufen, was die Entwicklung für diese Plattform vereinfacht. Slack/390. 390 wurde im Jahr 2004 begründet und ist eine offiziell anerkannte Portierung von Slackware auf die 390-Architektur. Die aktuelle Version ist 10.0. Nach der Einführung von Slackware64 wurde auch eine 64-Bit-Version für die S/390-Nachfolgearchitektur, das System z erstellt. Sozialpsychologie. Die Sozialpsychologie ist ein Teilgebiet der Psychologie und Soziologie, das die Auswirkungen der tatsächlichen oder vorgestellten Gegenwart anderer Menschen auf das Erleben und Verhalten des Individuums erforscht (Gordon Allport 1968). Geschichte der Sozialpsychologie. Der Unterschied zwischen den beiden Ansätzen besteht darin, dass sich die soziologische Sozialpsychologie stärker auf Gruppenprozesse ausrichtet, während sich die psychologische Sozialpsychologie stärker auf das Individuum fokussiert. Die "soziologische" Sozialpsychologie wird häufig theorielastig betrieben und konstituiert sich als Geistes- und Sozialwissenschaft. Entsprechende Ansätze sind z.B. die Kritische Theorie, welche auch psychoanalytische Ideen beinhaltet. Zu den sozialpsychologisch arbeitenden Psychoanalytikern zählen Sigmund Freud, Wilhelm Reich und Erich Fromm. Innerhalb der Frankfurter Schule sind insbesondere Theodor W. Adorno ("Studien zum autoritären Charakter") und Herbert Marcuse ("Triebstruktur und Gesellschaft") zu nennen. An die Psychoanalyse Lacan'scher Prägung schließen die Arbeiten von Slavoj Žižek und anderen an. Die "psychologische" Sozialpsychologie erforscht im weitesten Sinne die Auswirkungen sozialer Interaktionen auf Gedanken, Gefühle und Verhalten des "Individuums" ("„an attempt to understand and explain how the thought, feeling and behavior of individuals are influenced by the actual, imagined, or implied presence of others“", Allport 1968). Quantitative Untersuchungsformen, vor allem das Experiment konstantieren ihr Selbstverständnis als Naturwissenschaft. Als Gründer der modernen Sozialpsychologie gilt Kurt Lewin. Die Grenze beider Perspektiven verschwimmt jedoch durch die Anwendung quantitativer und qualitativer Verfahren in beiden Disziplinen zusehends. Neuere interdisziplinäre Bestrebung, Sozial- und Naturwissenschaften in den sogenannten Humanwissenschaften zusammen zu führen, bestärken diese Tendenz. Forschungsbereiche. Gegenstandsbereiche der Sozialpsychologie sind u. a. Saturn (Planet). Der Saturn ist der sechste Planet des Sonnensystems und mit einem Äquatordurchmesser von etwa 120.500 Kilometern (9,5-facher Erddurchmesser) nach Jupiter der zweitgrößte. Mit 95 Erdmassen hat er jedoch nur 30 % der Masse Jupiters. Wegen seines schon im kleinen Fernrohr sichtbaren Ringes wird er oft auch der "Ringplanet" genannt. Der Saturn hat eine durchschnittliche Entfernung zur Sonne von knapp 1,43 Milliarden Kilometern, seine Bahn verläuft zwischen der von Jupiter und der des sonnenferneren Uranus. Er ist der äußerste Planet, der mit bloßem Auge problemlos erkennbar ist, und war daher schon Jahrtausende vor der Erfindung des Fernrohrs bekannt. Er ist ein Gasplanet, dessen untersuchte oberen Schichten zu etwa 96 % Stoffanteil aus Wasserstoff bestehen, und der von allen Planeten des Sonnensystems die geringste mittlere Dichte (etwa 0,69 g/cm³) aufweist. Von den anderen Planeten hebt sich der Saturn durch seine besonders ausgeprägten und schon lange bekannten Ringe ab, die zu großen Teilen aus Wassereis und Gesteinsbrocken bestehen. Sein scheinbarer Winkeldurchmesser beträgt je nach Erdentfernung zwischen 15" und 20", jener der Ringe zwischen 37" und 46". Die sogenannten Äquatorstreifen der Wolkenschichten des Saturn sind weniger deutlich als bei Jupiter, was wahrscheinlich mit einer hochlagernden Dunstschicht zusammenhängt. Bis zum Jahresende 2009 wurden 62 Saturnmonde entdeckt, der größte davon ist Titan mit 5150 Kilometern Durchmesser. Benannt ist der Planet nach dem römischen Gott des Reichtums und der Ernte, Saturn. Sein astronomisches Symbol  repräsentiert die stilisierte Sichel des Gottes. Umlaufbahn. Der Saturn läuft auf einer annähernd kreisförmigen Umlaufbahn mit einer Exzentrizität von 0,054 um die Sonne. Sein sonnennächster Punkt, das Perihel, liegt bei 9,04 AE und sein sonnenfernster Punkt, das Aphel, bei 10,12 AE. Seine Umlaufbahn ist mit 2,48° leicht gegen die Ekliptik geneigt. Weitere Bahndaten sind die Länge des aufsteigenden Knotens mit 113,72°, die Länge des Perihels mit 92,43° und die mittlere Anomalie mit 49,94° zur Epoche J2000.0. Für einen Umlauf um die Sonne benötigt der Saturn ungefähr 29 Jahre und 166 Tage. Rotation. Die Äquatorebene des Saturn ist 26,73° gegen die Bahnebene geneigt. Er rotiert nicht wie ein starrer Körper, sondern zeigt als Gasplanet eine differentielle Rotation: Die Äquatorregionen rotieren schneller (eine Rotation in 10 Stunden, 13 Minuten und 59 Sekunden) als die Polregionen (10 Stunden, 39 Minuten und 22 Sekunden). Die Äquatorregionen werden als „System I“, die Polregionen als „System II“ bezeichnet. Aus Messungen des Saturnmagnetfeldes durch Raumsonden wurde für das Saturninnere eine noch etwas langsamere Rotationsperiode von 10 Stunden, 47 Minuten und 6 Sekunden hergeleitet. Durch neuere, kombinierte Auswertung von Messdaten, welche die Raumsonden Pioneer 11, Voyager 1 und 2 sowie Cassini-Huygens von der Schwerkraft, den Windgeschwindigkeiten und mittels Radio-Okkultationen geliefert haben, sind zwei US-amerikanische Wissenschaftler 2007 zu dem Ergebnis gekommen, dass der Saturnkern eine Umdrehung in 10 Stunden, 32 Minuten und 35 Sekunden absolviert und somit um sieben Minuten schneller ist, als bislang gedacht. Demnach müsste der Kern kleiner sein, als vermutet. In Hinsicht auf die Entstehung des Gasplaneten könnte das für die Scheiben-Instabilitäts-Hypothese sprechen. Nach dieser Hypothese ist der Saturn aus einer kollabierenden Verdichtung der protoplanetaren Scheibe entstanden, und nicht, wie bisher zumeist angenommen, gemäß der Kern-Aggregations-Hypothese vorrangig aus einem Kern von über zehn Erdmassen, der sich als Erstes aus festen Bestandteilen der Gas- und Staubscheibe gesammelt hat und dann erst das Gas aus seiner Umgebung ausreichend anziehen konnte. Die Präzessionsperiode der Saturnachse liegt nach einer Modellrechnung und Beobachtungen von Durchquerungen der Ringebene in einer Größenordnung von zwei Millionen Jahren. Physikalische Eigenschaften. Der Saturn gehört zu den sogenannten Gasriesen. Mit einem Durchmesser von gut 120.000 km ist er nach Jupiter der zweitgrößte Planet des Sonnensystems. Obwohl sein Volumen 58 % des Volumens des Jupiters entspricht, beträgt seine Masse weniger als ein Drittel der Jupitermasse (etwa 95 Erdmassen). Der Saturn hat daher eine sehr geringe mittlere Dichte von nur 0,687 g/cm³. Im Durchschnitt ist sein Material also leichter als Wasser unter Normalbedingungen, was für keinen anderen Planeten des Sonnensystems zutrifft. Die Temperatur beträgt bei 1 bar Atmosphärendruck (dies wird bei Gasplaneten allgemein als „Oberfläche“ definiert) 134 K (−139 °C) und bei 0,1 bar Druck 84 K (−189 °C). Obere Schichten. Seine Atmosphäre enthält wie die des Jupiters überwiegend Wasserstoff und Helium, jedoch in einer anderen Zusammensetzung. Der Wasserstoffanteil ist mit etwa 93 % der Masse deutlich höher, der Heliumanteil mit nur knapp 7 % entsprechend geringer. Des Weiteren kommen Spuren von Methan, Ammoniak und anderen Gasen vor. Während die Atmosphäre des Jupiters die Elemente Wasserstoff und Helium im gleichen Verhältnis wie die Sonne enthält, ist der Heliumanteil beim Saturn wesentlich geringer. Die eher detailarme, gelblich-braune Wolkendecke enthält überwiegend gefrorene Ammoniakkristalle. Innerer Aufbau. Die Atmosphäre, die wie bei Jupiter hauptsächlich aus Wasserstoff besteht, geht mit zunehmender Tiefe aufgrund des hohen Druckes allmählich vom gasförmigen in den flüssigen Zustand über. Es existiert jedoch keine definierte Oberfläche, da der Druck in den Tiefen der Atmosphäre jenseits des kritischen Punkts ansteigt und unter diesen Bedingungen eine Unterscheidung zwischen Gas und Flüssigkeit nicht mehr möglich ist. Weiter in der Tiefe geht der Wasserstoff schließlich in seine metallische Form über. Diese Schichten haben jedoch im Gegensatz zum Jupiter aufgrund der kleineren Masse andere Mächtigkeitsverhältnisse. So beginnt im Saturn die metallische Schicht erst bei 0,47 Saturnradien (Jupiter: 0,77 Jupiterradien). Unterhalb dieser Schicht liegt ein Gesteinskern (genauer: Eis-Silikat-Kern), für den Modellrechnungen eine Masse von circa 16 Erdmassen ergeben. Damit besitzt der Saturnkern einen Masseanteil von 25 %, der des Jupiter lediglich 4 %. Das Innere des Gesteinskerns ist sehr heiß, es herrscht eine Temperatur von 12.000 Kelvin. Als Grund dafür wird unter anderem der Kelvin-Helmholtz-Mechanismus angenommen, eine langsame gravitationsbedingte Kompression. Dadurch strahlt der Saturn 2,3-mal so viel Energie ab, wie er von der Sonne empfängt. Wetter. Die Wolken, die in der Atmosphäre des Saturn zu sehen sind, bestehen vor allem aus auskristallisiertem Ammoniak. Saturn besitzt mindestens zwei Wolkenschichten. Die obere verdeckt die untere, wobei letztere nur im infraroten Bereich sichtbar ist, da Saturn Wärme aus seinem Inneren abstrahlt. Die obere Wolkenschicht des Saturn reflektiert das Licht der Sonne, wodurch sie gut beobachtet werden kann, außerdem weist sie gröbere Strukturen auf als die untere Schicht. a> am Nordpol (5-µm-Infrarotaufnahme während der Polarnacht) Der Nordpol ist der Mittelpunkt eines Polarwirbels und einer stabilen Struktur in der Form eines nahezu regelmäßigen Sechsecks mit einem Durchmesser von fast 25.000 Kilometern. Das anscheinend mehrere 100 Kilometer tiefe Hexagon wurde bereits 1980 und 1981 von den Voyager-Sonden aufgenommen; es ist auch auf den von der Saturnsonde Cassini übermittelten Bildern von 2006 wieder zu sehen. Das Hexagon rotiert alle 10 Stunden 39 Minuten und 24 Sekunden einmal um sich selbst. Das ist die gleiche Zeitspanne, die auch die Radioemissionen von Saturn für eine Umdrehung benötigen. Die Entstehung dieses Effekts ist noch nicht geklärt. Am Südpol befindet sich ein ortsfester, hurrikanähnlicher Sturm mit einem Durchmesser von etwa 8000 Kilometern. Auf Saturn wurden weitere Stürme beobachtet, wie zum Beispiel der „Große Weiße Fleck“, ein Effekt, der alle 29 Jahre auf der nördlichen Hemisphäre beobachtet werden kann und mit dem „Großen Roten Fleck“ auf dem Jupiter vergleichbar ist. Wissenschaftler entdeckten 2005 durch Beobachtungen mit dem Keck-Teleskop auf Hawaii einen „Hot Spot“ (eine im Vergleich zur Umgebung warme Stelle) am Südpol des Saturn. Damit unterscheidet sich Saturn von allen anderen Planeten, bei denen die kältesten Orte in den Polargebieten liegen. Mithilfe des Orbiters Cassini spürten im Januar 2008 Astronomen am Nordpol gleichfalls einen „Hot Spot“ auf, obwohl es dort schon jahrelang dunkel ist. Diese „Hot Spots“ entstehen durch Atmosphärengas, das sich in Richtung der Pole bewegt. Dabei wird es komprimiert und aufgeheizt; schließlich sinkt es am Pol in Form eines Wirbels in die Tiefen der Saturnatmosphäre ab. Es scheint sich bei beiden Wirbeln um langlebige Strukturen zu handeln, deren Existenz nicht von der Sonneneinstrahlung abhängt. Magnetfeld. Der Saturn besitzt ein eigenes Magnetfeld, dessen Form der einfachen, symmetrischen Form eines magnetischen Dipols entspricht. Die Feldstärke am Äquator beträgt etwa 20 µT und ist damit etwa 20-mal schwächer als das äquatoriale Feld Jupiters (420 µT) und etwas schwächer als das äquatoriale Erdfeld (30 µT). Das magnetische Dipolmoment, das ein Maß für die Stärke des Magnetfeldes bei vorgegebenem Abstand vom Zentrum des Planeten ist, ist mit 4,6 · 1018 T·m3 580-mal stärker als das Magnetfeld der Erde (7,9 · 1015 T·m3). Das Dipolmoment Jupiters ist allerdings mit 1,55 · 1020 T·m3 trotz des ähnlich großen Planetendurchmessers etwa 34-mal so groß. Daher ist die Magnetosphäre des Saturn deutlich kleiner als die des Jupiters und erstreckt sich nur zeitweise knapp über die Umlaufbahn des Mondes Titan hinaus. Einzigartig im Sonnensystem ist die fast "exakt" parallele Ausrichtung der Magnetfeldachse und der Rotationsachse. Während z. B. bei Erde und Jupiter diese Achsen etwa 10° gegeneinander geneigt sind, beträgt die Abweichung der beiden Achsen beim Saturn weniger als 1°. Sehr wahrscheinlich wird das Magnetfeld durch einen Mechanismus erzeugt, der dem Dynamo im Inneren Jupiters entspricht und eventuell von Strömen im metallischen Wasserstoff angetrieben wird. Es gibt aber auch konkurrierende Theorien, die die Ursache des Magnetismus in anderen Materialien und Schichten des Gasplaneten suchen. Genau wie bei anderen Planeten mit ausgeprägtem Magnetfeld wirkt die Magnetosphäre des Saturn als effizienter Schutzschild gegen das Weltraumwetter. Da der Sonnenwind mit Überschallgeschwindigkeit auf die Magnetosphäre trifft, bildet sich auf der sonnenzugewandten Seite eine Stoßwelle aus, die zur Bildung einer Magnetopause führt. Auf der sonnenabgewandten Seite bildet sich, wie bei Erde und Jupiter, ein langer Magnetschweif. Regionen innerhalb der Magnetosphäre des Saturn Der große Mond Titan, dessen Umlaufbahn noch im Inneren der Magnetosphäre liegt, trägt durch seine ionisierten oberen Atmosphärenschichten (Ionosphäre) zum Plasma der Magnetosphäre bei. Die genaue Struktur der Magnetosphäre ist äußerst komplex, da sowohl die Ringe des Saturn als auch die großen inneren Monde mit dem Plasma wechselwirken. Ringsystem. Sichtbarkeit der Saturnringe bis 2029 → "Hauptartikel: Ringe des Saturn" Den Saturn umgibt in seiner Äquatorebene ein auffälliges Ringsystem, das bereits in einem kleinen Teleskop problemlos zu sehen ist. Das Ringsystem wurde 1610 von Galileo Galilei entdeckt, der es aber als „Henkel“ deutete. Christiaan Huygens beschrieb die Ringe 45 Jahre später korrekt als Ringsystem. Giovanni Domenico Cassini vermutete als erster, dass die Ringe aus kleinen Partikeln bestehen und entdeckte 1675 die Cassinische Teilung. Die Ringe werfen einen sichtbaren Schatten auf den Saturn – wie auch umgekehrt der Saturn auf seine Ringe. Der Schattenwurf auf die Saturnoberfläche ist umso ausgeprägter, je mehr die recht dünne Hauptebene des Ringsystems im Laufe eines Saturnjahres gegenüber der Sonne geneigt ist. Es gibt mehr als 100.000 einzelne Ringe mit unterschiedlichen Zusammensetzungen und Farbtönen, welche durch scharf umrissene Lücken voneinander abgegrenzt sind. Der innerste beginnt bereits etwa 7.000 km über der Oberfläche des Saturn und hat einen Durchmesser von 134.000 km, der äußerste hat einen Durchmesser von 960.000 km. Die größten Ringe werden nach der Reihenfolge ihrer Entdeckung von innen nach außen als D-, C-, B-, A-, F-, G- und E-Ring bezeichnet. Die Umlaufzeit der inneren Ringe beträgt sechs bis acht Stunden, die der äußeren Ringe zwölf bis vierzehn Stunden. Die Lücken zwischen den Ringen beruhen auf der gravitativen Wechselwirkung mit den zahlreichen Monden des Saturn sowie der Ringe untereinander. Dabei spielen auch Resonanzphänomene eine Rolle, die auftreten, wenn die Umlaufszeiten im Verhältnis kleiner ganzer Zahlen stehen. So wird die Cassinische Teilung durch den Mond Mimas verursacht. Einige kleinere Monde, sogenannte Hirten- oder auch Schäfermonde, kreisen direkt in den Lücken und an den Rändern des Ringsystems und stabilisieren dessen Struktur. Neue Messungen und Aufnahmen der Raumsonde Cassini haben ergeben, dass die Ringkanten und damit die Abtrennung der Ringe noch schärfer sind als bisher angenommen. So hatte man vermutet, dass sich in den Lücken ebenfalls einige Eisbrocken befinden, was aber nicht der Fall ist. Die Ringteilchen umkreisen den Saturn rechtläufig in dessen Äquatorebene; somit ist das Ringsystem ebenso wie die Äquatorebene um 27° gegen die Bahnebene geneigt. Alle 14,8 Jahre befindet sich das Ringsystem in der sogenannten „Kantenstellung“, in der der dünne Rand der Ringe genau der Erde zugewandt ist, so dass das Ringsystem nahezu unsichtbar wird. Das war zuletzt im Jahre 2009 der Fall. Mit dem Spitzer-Weltraumteleskop wurde am 6. Oktober 2009 ein wesentlich weiter außen liegender, vom Hauptringsystem unabhängiger Ring anhand seiner Infrarotstrahlung entdeckt, der mit dem Mond Phoebe den Saturn rückläufig umkreist. Visuell ist er auf Grund seiner sehr geringen Materiedichte nicht sichtbar. Der Ring befindet sich im Radius von 6 bis 12 Millionen Kilometern um den Saturn und seine Ringebene ist gegenüber den schon länger bekannten Ringen um 27° geneigt. Er verrät sich nur durch seine Wärmestrahlung mit ca. 80 Kelvin. Sein Material soll vom Saturnmond Phoebe stammen. Inzwischen (2015) wurde mit dem Weltraumteleskop WISE festgestellt, dass der Ring sogar von 6 Mio - 16 Mio. km Saturnabstand reicht. Er besteht überraschend hauptsächlich aus sehr kleinem, dunklem Staub, der extrem dünn verteilt ist. Speichenartige Strukturen, beobachtet von Voyager 2 Ein weiteres Phänomen sind radiale, speichenartige Strukturen, die sich von innen nach außen über die Ringe erstrecken und hierbei enorme Ausmaße annehmen: bei einer Breite von rund 100 Kilometern können sie bis zu 20.000 Kilometer lang werden. Diese „Speichen“ wurden erstmals von der Sonde Voyager 2 bei ihrer Passage im Jahr 1981 entdeckt, später konnte die Beobachtung unter anderem vom Weltraumteleskop Hubble bestätigt werden. Rätselhafterweise verschwanden diese Strukturen ab 1998 allmählich und konnten dann erst wieder ab September 2005 auf Aufnahmen der Raumsonde Cassini nachgewiesen werden. Als Ursache für die Streifenbildung wurde zunächst eine kurzlebige Wechselwirkung mit dem Magnetfeld des Saturn vermutet. Aufnahme der Ringe des Saturn von Cassini; das Bild wurde aus einem Winkel von 60° zum Ringsystem gemacht. US-amerikanische Astronomen fanden 2006 jedoch eine andere Erklärung für das Rätsel um die Speichenstrukturen: demnach bestehen die Speichen aus winzigen (wenige µm) geladenen Staubpartikeln, deren Flugbahn vom UV-Licht der Sonne so beeinflusst wird, dass sie durch entstehende elektrostatische Kräfte in einen Schwebezustand (Levitation) gebracht und angehoben werden. Je nach Position des Saturn auf seiner Umlaufbahn ändert sich der Winkel zwischen den Saturnringen und der Sonne und somit auch der Einfallswinkel des ultravioletten Lichts. Die dunklen Streifen entstehen in periodischen Abständen immer, wenn die Sonne in der Ringebene des Saturn steht und bestehen dann für etwa acht Jahre. Eine streifenlose Phase hält dagegen sechs bis sieben Jahre lang an. Der Grund für die elektrostatische Aufladung der Ringe wird kontrovers diskutiert. Eine Erklärung ist, dass Blitze in der oberen Atmosphäre des Saturn auftreten, welche durch komplexe Vorgänge Elektronenstrahlen erzeugen, die die Ringe treffen. Aufnahme der Saturnringe durch die Raumsonde Cassini im Juli 2013. Im Hintergrund ist rechts unter den Ringen die Erde als leuchtender Punkt zu erkennen.Zur Entstehung der Saturnringe gibt es verschiedene Theorien. Nach der von Édouard Albert Roche bereits im 19. Jahrhundert vorgeschlagenen Theorie entstanden die Ringe durch einen Mond, der sich dem Saturn so weit genähert hat, dass er durch Gezeitenkräfte auseinandergebrochen ist. Der kritische Abstand wird als Roche-Grenze bezeichnet. Der Unterschied der Anziehungskräfte durch den Saturn auf beiden Seiten des Mondes übersteigt in diesem Fall die mondinternen Gravitationskräfte, so dass der Mond nur noch durch seine materielle Struktur zusammengehalten wird. Nach einer Abwandlung dieser Theorie zerbrach der Mond durch eine Kollision mit einem Kometen oder Asteroiden. Nach einer anderen Theorie sind die Ringe gemeinsam mit dem Saturn selbst aus derselben Materialwolke entstanden. Diese Theorie spielte lange Zeit keine große Rolle, denn es wurde vermutet, dass die Ringe ein nach astronomischen Maßstäben eher kurzlebiges Phänomen von höchstens einigen 100 Millionen Jahren darstellen. Dies hat sich jedoch im September 2008 relativiert. Larry Esposito, der US-Astronom, der Anfang der 1980er-Jahre Alter und Gewicht der Saturnringe vermessen hatte, korrigiert seine Schätzungen von damals. Neuen Forschungsergebnissen nach könnte das Alter des Ringsystems mehrere Milliarden Jahre betragen, womit von einem kurzlebigen Phänomen keine Rede mehr sein könnte. Die bisherigen Erkenntnisse über das Alter des Ringsystems wurden aus der Menge an Sternenlicht gewonnen, das durch die Ringe hindurchtritt. Esposito und seine Kollegen haben aber nun das Verhalten von mehr als 100.000 Teilchen in den Saturnringen simuliert. Dies war aufgrund neuer Daten der Raumsonde Cassini, die 2004 den Saturn erreichte, möglich. Diese Daten waren genauer als die jener Sonden, die den Saturn in den 1970er- und 1980er-Jahren besuchten. Die anhand der neuen Messdaten vorgenommenen Kalkulationen haben gezeigt, dass innerhalb der Ringe dynamische Prozesse ablaufen, die eine Kalkulation der Masse anhand des einfallenden Sternenlichts viel schwieriger gestalten als bislang gedacht. Den neu errechneten Daten zufolge könnten die Ringe mehr als dreimal so schwer sein. Monde. Von den heute 62 bekannten Monden ist Titan der größte mit einem Durchmesser von 5150 km. Die vier Monde Rhea, Dione, Tethys und Iapetus besitzen Durchmesser zwischen 1050 km und 1530 km. Telesto, Tethys und Calypso bewegen sich mit jeweils 60 Grad Versatz auf derselben Bahn um den Saturn. Ein zweites Gespann von „Trojaner-Monden“ sind Helene (Saturn XII – S/1980 S 6) und Polydeuces, die sich unter je 60 Grad Versatz eine Bahn mit Dione teilen. Eine weitere Besonderheit stellen die Monde Janus und Epimetheus dar, welche auf zwei fast gleichen Umlaufbahnen den Saturn umlaufen. Alle vier Jahre kommen sie einander sehr nahe und tauschen durch die gegenseitige Anziehungskraft ihre Umlaufbahnen um den Saturn. 1905 gab William Henry Pickering bekannt, einen weiteren Mond entdeckt zu haben. Pickering schätzte den Durchmesser auf 61 km. Der Mond wurde Themis genannt, da er aber nie wieder gesichtet wurde, gilt er als nicht existent. Anfang Mai 2005 wurde ein weiterer Mond entdeckt, provisorisch S/2005 S 1 genannt, der mittlerweile den offiziellen Namen Daphnis trägt. Er ist der zweite Mond neben Pan, der innerhalb der Hauptringe des Saturn kreist. Im Juni 2006 wurden mit dem Teleskop auf dem Mauna Kea, auf Hawaii, neun weitere Monde entdeckt, die auf stark elliptischen Bahnen zwischen 17,5 und 23 Millionen Kilometern den Saturn entgegen dessen Rotationsrichtung umkreisen. Daraus lässt sich schließen, dass es sich um eingefangene Überreste von Kometen oder Kleinplaneten handeln muss. Der 2009 vom Cassini Imaging Science Team entdeckte Mond 2009 S 1 ist mit einem Durchmesser von ungefähr 300 Metern der bislang kleinste entdeckte Mond des Saturn. Zum Zeitpunkt des Eintritts der Raumsonde Cassini in den Saturnorbit wurden kleinere Körper mit nur etwa 100 m Durchmesser gefunden, vermutlich Überreste eines ehemals größeren Körpers, die kleine „Möndchen“ beziehungsweise die Saturnringe bilden. Die Forscher schätzen etwa eine Zahl von 10 Millionen solcher kleinen Gebilde in den Saturnringen. Sie erhoffen sich nun, mithilfe dieser Überreste eine eindeutige Erklärung für die Entstehung der Saturnringe zu finden. Beobachtung. Wie alle äußeren Planeten ist der Saturn am besten in den Wochen um seine Opposition zu beobachten, wenn er der Sonne gegenüber und der Erde am nächsten steht und um Mitternacht kulminiert. In den Jahren 2011–2013 ist dies im April, 2014–2015 im Mai der Fall – "vgl. die Liste der Saturnpositionen". Die Größe seiner im Fernrohr ab 20-facher Vergrößerung gut sichtbaren „Scheibe“ schwankt allerdings übers Jahr nur um ±10 Prozent, nicht wie bei Jupiter um fast 20 Prozent. Den Saturnring und den größten Mond Titan erkennt man bereits im Feldstecher, die Äquatorstreifen ab etwa 40-facher Vergrößerung, und alle nächstkleineren 4–5 Monde im Achtzöller (Standardfernrohr mit 20cm Objektiv). Einen Monat nach der Opposition kulminiert der Saturn bereits gegen 22 Uhr (bzw. 23 h MESZ) und ist dann am südwestlichen Abendhimmel als Stern 1. Größe zu sehen, bis er nach weiteren 3–4 Monaten für das freie Auge im Licht der untergehenden Sonne verschwindet. Im Gegensatz zu den 4 sonnennäheren Großplaneten sind Tagbeobachtungen des Saturn im Fernrohr kaum möglich, da er sich vom Himmelsblau nur knapp abhebt. Der Ring ist aber auch tagsüber bei geringer Vergrößerung erkennbar. Galilei konnte mit seinem Fernrohr den Saturnring nicht deutlich erkennen (rechte Bilder), je nach momentaner Ringstellung (links) Vor dem Raumfahrtzeitalter. Saturn ist seit alters her bekannt. In der Antike war er der entfernteste der fünf bekannten Planeten des Sternhimmels. Galilei hatte kurz zuvor erstmals den Saturn durch eines der ersten Fernrohre beobachtet und geglaubt, zu beiden Seiten der Saturnscheibe rundliche Ausbuchtungen zu erkennen. Im Jahre 1612 konnte Galilei allerdings nur noch die Saturnscheibe selbst erkennen, glaubte sich in seinen früheren Beobachtungen getäuscht zu haben und verfolgte die merkwürdige Angelegenheit nicht weiter. Da sich in jenem Jahre der Ring in Kantenstellung befand, war er in der Tat für die damaligen Fernrohre nicht erkennbar. Auch andere Astronomen wie Fontana, Gassendi, Hevelius, Riccioli oder Grimaldi vermochten in den folgenden Jahrzehnten lediglich das Vorhandensein der Anhängsel festzustellen, ohne die Erscheinung und ihr gelegentliches Verschwinden aber erklären zu können. Erst nachdem Christiaan Huygens am 25. März 1655 dank verbesserter selbstgebauter Fernrohre einen Mond (Titan) entdeckt und über mehrere Monate hinweg verfolgt hatte, brachte ihn die damit verbundene systematische Beobachtung des Planeten zur 1659 veröffentlichten Überzeugung, dass Saturn von einem freischwebenden Ring umgeben sei, und dass dessen stets verschieden wahrgenommene Gestalt sich aus den unterschiedlichen Neigungen erklärt, mit denen er sich während eines Saturnumlaufs dem Betrachter darbietet. Huygens bestimmte die Neigung des Rings gegen die Ekliptik zu 31° und die Knotenlänge zu 169½°. Giovanni Domenico Cassini entdeckte 1671 den Saturnmond Iapetus, 1672 Rhea, 1684 Dione und Tethys. Cassini bemerkte 1675 auch die nach ihm benannte Teilung in den Saturnringen. Die merkliche Abplattung des Saturn war bereits von Grimaldi als 1/12 gemessen worden, aber erst William Herschel gelang es 1790, die Rotationsdauer zu bestimmen; er erhielt 10h 16m, was mit der Abplattung gut übereinstimmte. Herschel hatte 1789 auch die beiden Monde Mimas und Enceladus entdeckt. Der achte Mond, Hyperion, wurde 1848 etwa gleichzeitig von Bond und Lassell gefunden. Die Monde sowie die von Saturn auf die anderen Planeten ausgeübten Störungen erlaubten es, die Masse von Saturn zu bestimmen. Newton fand 1/3021 Sonnenmassen (1726, aus der Umlaufzeit von Titan), Bouvard 1/3512 (1821, aus den Störungen), Leverrier 1/3530 (1876, aus den Störungen), Hall 1/3500 (1889, Umlaufzeit von Titan). 1850 wiesen Bond und Lassell den schon von früheren Beobachtern gelegentlich beschriebenen inneren, durchscheinenden Krepp-Ring nach. Die von D. Lamey ab 1868 gesehenen vier äußeren Nebelringe konnten allerdings nicht bestätigt werden. William Henry Pickering entdeckte 1898 den weit außen kreisenden Mond Phoebe. Pioneer 11. Als erste Sonde überhaupt flog Pioneer 11 am 1. September 1979 in 21.000 km Entfernung am Saturn vorbei. Dabei flog die Sonde zwischen dem A-Ring und dem F-Ring, der erst durch die Sonde entdeckt wurde. 17 Stunden vor dem Vorbeiflug wurde der Mond Epimetheus entdeckt, an dem die Sonde in 2.500 km Abstand vorbeiflog. Es wurden 220 Bilder von Saturn und eines von Titan gemacht, die aber keine Einzelheiten unter einer Auflösung von 500 km zeigten. Man fand heraus, dass die schwarzen Lücken in den Ringen hell waren, wenn sie in Richtung der Sonne beobachtet wurden. Dies bedeutet, dass diese Spalten nicht frei von Materie sind. Außerdem wurde das Magnetfeld von Saturn untersucht, über das man vorher noch nichts wusste. Weitere Ergebnisse waren, dass Saturn Energie abgibt, der Wasserstoff-Anteil von Saturn größer als der des Jupiter ist und dass Titan eine dichte Wolkendecke besitzt. Voyager 1. Am 13. November 1980 besuchte die Raumsonde Voyager 1 den Saturn. Sie lieferte die ersten hochauflösenden Bilder des Planeten, der Ringe und Satelliten. Dabei wurden erstmals Oberflächendetails verschiedener Monde sichtbar. Zudem wurden mehrere Monde neu entdeckt. Der Vorbeiflug an Titan war anfangs außergewöhnlich schlecht verlaufen, da die dichte Smogschicht über Titan keine Aufnahmen ermöglichte. Daraufhin wurden die Kameras umprogrammiert und man analysierte die Atmosphäre des Titan. Dabei fand man heraus, dass diese aus Stickstoff, Methan, Ethylen und Cyankohlenwasserstoffen besteht. Die Datenrate, mit der die Sonde Bilder übertragen konnte, betrug 44.800 s. Daher musste die Voyager-Sonde schon früh damit beginnen, Bilder aufzunehmen, um genügend Daten zu erhalten. Das Fly-by-Manöver veränderte die Richtung der Raumsonde und sie verließ die Ebene des Sonnensystems. Voyager 2. Knapp ein Jahr nach Voyager 1, am 26. August 1981, kam die Schwestersonde Voyager 2 beim Ringplaneten an. Man bekam noch mehr hochauflösende Bilder von den Monden des Saturn. Durch Vergleich mit den Voyager-1-Bildern stellte man Änderungen der Atmosphäre und der Saturn-Ringe fest. Da die schwenkbare Plattform der Kamera für ein paar Tage stecken blieb, konnten einige geplante Bilder jedoch nicht gemacht werden. Bei der Atmosphäre wurden Temperatur- und Druckmessungen durchgeführt. Durch die Sonde wurden einige Monde bestätigt und man fand mehrere neue Monde nahe oder innerhalb der Ringe. Die kleine Maxwell-Lücke im C-Ring und die 42 km breite Keeler-Lücke im A-Ring wurden entdeckt. Die Schwerkraft des Saturn wurde genutzt, um die Sonde in Richtung Uranus zu lenken. Cassini-Huygens. Der Saturn verdeckt die Sonne; von Cassini aufgenommen. In der Vergrößerung ist links von den hellen Ringen die Erde als Lichtpünktchen zu erkennen. Nach siebenjährigem Flug passierte die Raumsonde Cassini-Huygens am 11. Juni 2004 den Saturnmond Phoebe mit einem Abstand von nur 2068 km und untersuchte diesen aus der Nähe. Am 1. Juli 2004 lenkte sich die Sonde auf eine Umlaufbahn um den Saturn ein. Seit Anfang 2005 beobachten Wissenschaftler mithilfe von Cassini Gewitter auf dem Saturn. Vermutlich hatten die Blitze etwa 1000-mal mehr Energie als die der Erde. Die Astronomen glauben, dass dieser Sturm der stärkste war, der jemals beobachtet wurde. Am 20. September 2006 entdeckte man anhand einer Aufnahme von Cassini einen bisher unbekannten planetarischen Ring, der sich außerhalb der helleren Hauptringe befindet, aber innerhalb des G- und E-Rings. Vermutlich stammt das Material dieses Ringes von Zusammenstößen von Meteoriten mit zwei Saturnmonden. Im Oktober 2006 spürte die Sonde einen Hurrikan mit einem Durchmesser von 8.000 km auf, dessen Auge am Südpol von Saturn liegt. Der Orbiter „Cassini“ führte eine zusätzliche Landungssonde „Huygens“ mit sich, die am 14. Januar 2005 auf dem Mond Titan landete und dabei Fotos von Methanseen auf dem Mond machte. Durch einen Bedienfehler an Cassini, der als Relaisstation zur Kommunikation mit der Erde diente, wurde aber nur jedes zweite Bild der Sonde zurück zur Erde übertragen. Cassini machte am 26. Oktober 2004 außerdem Radarfotos der Oberfläche von Titan aus einer Höhe von 1.200 km. Am 10. März 2006 berichtete die NASA, dass Cassini unterirdische Wasserreservoirs dicht unter der Oberfläche des Mondes Enceladus gefunden habe. Cassini fand außerdem vier neue Monde des Saturn. Cassini befindet sich zurzeit immer noch im Orbit um Saturn und führt weitere Untersuchungen durch. Kulturgeschichte. Da der Saturn mit bloßem Auge gut sichtbar ist und als Wandelstern auffällt, wurde er schon im Altertum mit mythologischen Deutungen belegt. Im Alten Ägypten symbolisierte er als Hor-ka-pet ("Himmelsstier") die Gottheit Horus. Die Sumerer nannten ihn Lubat-saguš („Stern der Sonne“), während die Babylonier Saturn bezüglich seiner Umlaufgeschwindigkeit Kajamanu („der Beständige“) nannten. Die Römer sahen in ihm den Planeten des Gottes Saturnus, während er im antiken Griechenland als Planet des Gottes Kronos galt. In der hinduistischen Astrologie bezeichnet Navagraha den Saturn als Shani. In der mittelalterlichen Astrologie stand Saturn – der traditionell mit einer Sichel oder Sense dargestellt wird – für Unglück: Sorgen, Melancholie, Krankheiten und harte Arbeit, jedoch auch für Ordnung und Maß. In der chinesischen und japanischen Kultur steht der Saturn für die Erde. Dies basiert auf der Fünf-Elemente-Lehre. Die osmanische und indonesische Sprache bezeichnet Saturn als "Zuhal", abgeleitet vom arabischen زحل. Im hebräischen wird Saturn als "Shabbathai" bezeichnet. Außerdem vermutete Konradin Ferrari d’Occhieppo schon 1965, dass der Stern von Betlehem eine sehr seltene und enge dreifache Saturn-Jupiter-Konjunktion im Sternzeichen Fische war. Dabei trafen sich die beiden Gasriesen im Jahre 7 vor Christus dreimal, am 27. Mai, 6. Oktober und 1. Dezember. Dieses Jahr scheint gut in den ungefähren Zeitraum der Geburt Jesu zu passen. Babylonische Astronomen könnten das Treffen der Planeten Saturn und Jupiter als wichtigen Hinweis gedeutet haben. Der englische Tagesname "Saturday" bezieht sich noch deutlich auf den Planeten Saturn, der als einer der sieben Wandelsterne des geozentrischen Weltbilds unter den sieben babylonischen Wochentagen zum ursprünglichen Namensgeber des heutigen Samstags wurde. Saarland. Das Saarland (, Abkürzung "SL") ist ein Land im Südwesten der Bundesrepublik Deutschland. Das von den Flächenländern kleinste und gemessen an der Einwohnerzahl das zweitkleinste Land (nach Bremen) grenzt im Norden und Osten an das Land Rheinland-Pfalz, im Süden an die französische Region Lothringen (Lorraine; genauer ans Département Moselle) und im Westen ans Großherzogtum Luxemburg. Gemeinsam mit diesen Nachbarn und der belgischen Region Wallonien bildet das Saarland die europäische Großregion Saar-Lor-Lux. 1920 entstand das Saarland als politische Einheit (damals noch als „Saargebiet“ in kleineren Grenzen, die Nordgrenze lag weiter südlich) infolge des Versailler Vertrages. Es wurde aus dem Deutschen Reich ausgegliedert und bestand 15 Jahre als Völkerbundsmandat, bis es 1935 nach der im Vertrag vorgesehenen Saarabstimmung aufgrund von ca. 90%iger Zustimmung wieder ins Deutsche Reich, damals unter nationalsozialistischer Führung, zurückgegliedert wurde. Nach dem Zweiten Weltkrieg wurde das Saarland von Frankreich faktisch aus dem gesamtdeutschen Staatsverband gelöst und wirtschaftlich an Frankreich angeschlossen. Eine eigene Saarregierung und die Annahme einer saarländischen Verfassung am 8. November 1947 sollten ein formell selbstständiges (autonomes) Staatsgebilde schaffen. Nach einer weiteren Volksabstimmung im Jahr 1955 trat es 1957 der Bundesrepublik politisch bei („kleine Wiedervereinigung“). Der wirtschaftliche Anschluss durch Übernahme der D-Mark (im Volksmund „Tag X“) erfolgte am 6. Juli 1959. Lage. Das Saarland liegt im äußersten Südwesten der Bundesrepublik. Es erstreckt sich über Teile des Hunsrücks mit dem Schwarzwälder Hochwald, des Lothringischen Schichtstufenlandes und des Saar-Nahe-Berglandes. Weitere wichtige Gebiete sind mit ihren fruchtbaren Kalksteinböden Saar- und Bliesgau. Erhebungen. Höchste Erhebung ist der Dollberg (695,4 m), nördlich von Nonnweiler, zweithöchste der Schimmelkopf (694,8 m) nördlich von Weiskirchen. Bedeutendste Erhebung ist jedoch der – wohl auch aus seiner Tradition als höchster Berg des ehemaligen Saargebietes heraus – als der "Hausberg des Saarlandes" geltende Schaumberg in Tholey mit seinem Aussichtsturm. Er ist mit seinen 569 Metern relativ niedrig, ragt aber alleinstehend aus einer eher flachen Umgebung heraus. Vegetation. Ein Drittel der Fläche des Saarlandes ist mit sommergrünem Mischwald bedeckt. Damit hat das Saarland gemeinsam mit Hessen und Rheinland-Pfalz die prozentual größte Waldfläche Deutschlands. Darüber hinaus nimmt hier der Laubwald im Vergleich zu allen anderen Bundesländern den größten Anteil der Gesamtwaldfläche ein. Gewässer. Der längste saarländische Fluss ist die Blies, von deren 99,5 km Flusslauf etwa 93 km im Bundesland liegen, vom Lauf der namensgebenden Saar dagegen nur 68 km. Die Blies entspringt im nördlichen Saarland bei Selbach und mündet im Süden als Grenzfluss bei Saargemünd (Frankreich) in die Saar. Weitere wichtige Flüsse sind Mosel, Prims, Nied, Nahe und Rossel. Im Norden befinden sich außerdem der Bostalsee und der Losheimer Stausee. Klima und Niederschlag. Das Klima ist gemäßigt ozeanisch. Die jährliche Niederschlagsmenge liegt im Durchschnitt bei 800 Millimetern. Das Saarland gehört zu den wärmsten Regionen Deutschlands. Landschaften. Neben der politischen Gliederung in Gemeinden und in die saarländischen Landkreise können folgende Landschaften und Gebiete beschrieben werden. Sie zeichnen sich durch ein relativ einheitliches Erscheinungsbild in Abgrenzung zu benachbarten Landschaften und Gebieten aus, das oft durch gemeinsame politisch-historische oder wirtschaftliche Zusammenhänge (besonders Landwirtschaft, Industrialisierung) entstanden ist. Geschichte. Das Saarland ist eine historisch sehr junge politische Einheit, es wurde 1920 aus vormals preußischen und bayerischen Gebieten gebildet. Im 19. Jahrhundert hatten außerdem das Großherzogtum Oldenburg (Exklave Fürstentum Birkenfeld) und Herzogtum Sachsen-Coburg und Gotha (Fürstentum Lichtenberg) kleine Anteile an Gebieten, die heute zum Saarland gehören. In der Zeit vor der Französischen Revolution glich die politische Landkarte der Region einem Flickenteppich, die vier bedeutendsten Herrschaften im Gebiet des heutigen Saarlandes waren die Grafschaft Saarbrücken, das Herzogtum Pfalz-Zweibrücken, das Kurfürstentum Trier und das Herzogtum Lothringen. Diese vier Herrschaften spiegeln sich auch im heutigen Landeswappen wider. Die ehemaligen, vor 1794 teilweise selbständigen Territorien, die auf dem Gebiet des heutigen Saarlandes existierten, waren in der Vergangenheit stets deutschsprachig, standen aber immer wieder zeitweise unter französischem Einfluss, insbesondere im späten 17. Jahrhundert während der französischen Reunionen sowie im Zeitraum zwischen der Französischen Revolution und dem Zweiten Pariser Frieden. Auch nach dem Ersten Weltkrieg und dem Zweiten Weltkrieg befand sich das Land unter französischem Einfluss. Von 1920 bis 1935 stand das „Saargebiet“ (so der damalige Name) unter der Verwaltung des Völkerbundes, gehörte aber zum französischen Wirtschaftsraum. Am 1. März 1935 wurde das Saargebiet nach einer Volksabstimmung, zunächst unter dem Namen "Saarland", wieder Teil des Deutschen Reiches. Nach dem Zweiten Weltkrieg gehörte das Saarland zunächst zur Französischen Besatzungszone, bevor es im Januar 1946 aus dem Zuständigkeitsbereich des Alliierten Kontrollrates herausgelöst wurde. 1947 wurden eine eigene Verfassung und eine eigene Staatsbürgerschaft geschaffen. Es erhielt am 16. Juni 1947 aus währungspolitischen Gründen kurzzeitig eine eigene Währung, die Saar-Mark. Sie wurde am 20. November 1947 durch den französischen Franc ersetzt. Es wurden auch eigene Münzen mit deutscher Aufschrift und saarlandbezogenen Motiven geprägt, die aber auf französische Franken lauteten (sh. Abbildung). Erneut hatten die Saarländer über ein Jahrzehnt lang eine Sonderstellung inne. Diesmal nahmen sie auch mit eigenen Mannschaften an Olympia 1952 sowie an der Qualifikation zur Fußball-WM 1954 teil. Am 23. Oktober 1955 wurde eine Volksbefragung über eine Europäisierung des Saarlandes durchgeführt, in der 67,7 Prozent der abstimmungsberechtigten Saarländer Nein sagten und sich damit gegen das von der Adenauer-Regierung mit den Franzosen ausgehandelte (zweite) Saarstatut aussprachen. Das Ergebnis der Abstimmung wurde als Wille der Saarländer interpretiert, sich der Bundesrepublik anzuschließen. Die Franzosen lenkten sofort ein, und am 27. Oktober 1956 wurde in Luxemburg der Saarvertrag abgeschlossen, worauf das Saarland am 1. Januar 1957 das zehnte Bundesland der Bundesrepublik Deutschland wurde. Die wirtschaftliche Angliederung samt Übernahme der D-Mark wurde erst Mitte 1959 vollzogen. Bevölkerung. Während der Industrialisierung im 19. Jahrhundert bildete sich ein Verdichtungsraum an den Standorten der Kohlegewinnung und der Stahlproduktion entlang der Schiene Dillingen–Saarbrücken–Neunkirchen. Die ländlich geprägten Randgebiete des Landes weisen eine geringere Bevölkerungsdichte auf. Dialekte. Im Saarland werden rhein- und moselfränkische Mundarten gesprochen, die von den Sprechern meist "Platt" genannt werden. Charakteristische Merkmale beider Dialektfamilien (untereinander und mit der Luxemburgischen Sprache eng verwandt) sind Diphthongarmut, systematische Monophthongisierung, binnendeutsche Konsonantenschwächung sowie Vereinfachung der Wortsuffixe. Die Grenze zwischen den mosel- und rheinfränkischen Dialekten bildet die dat-das-Linie, die quer durch das Saarland verläuft. Hochdeutsch und Französisch. Amtssprache ist Hochdeutsch. Das Französische ist im Saarland wegen der Grenznähe gelegentlich zu hören. Die Städte Saarlouis und Saarbrücken erreichen mit kulturellen oder kommerziellen Angeboten auch grenznahe Gebiete in Frankreich. Die Haltestellenansagen in der die Grenze überquerenden Saarbahn erfolgen in Deutsch und Französisch. Das Saarland ist das einzige deutsche Bundesland, das an Gymnasien Französisch als Pflichtfremdsprache vorschreibt. Die saarländische Landesregierung plant Maßnahmen, um Französisch zur zweiten Verkehrssprache zu machen. historisch. Die Bevölkerung der Region erlebte in der Neuzeit zwei wesentliche Wachstums- und Einwanderungsschübe. Der erste betrifft die Zeit des späten 17. und frühen 18. Jahrhunderts. Während des Dreißigjährigen Krieges, der sich in Lothringen bis 1661 hinzog (Friede von Vincennes) und fast nahtlos durch die Kriege Ludwigs XIV. fortgesetzt wurde, verödeten im zweiten Drittel des 17. Jahrhunderts weite Landstriche. Der Bevölkerungsverlust wird für manche Territorien auf ca. 80 % geschätzt. Durch eine gezielte Einwanderungs- und Siedlungspolitik wurden Neubürger angeworben, darunter auch Hugenotten, Wallonen, Picarden, Tiroler und Schweizer. Den zweiten Schub erlebte die Region im 19. Jahrhundert. Während die Industrialisierung im frühen 19. Jahrhundert nur zögernd einsetzte, nahm die Bevölkerung nach dem Deutsch-Französischen Krieg 1870/71 sehr stark zu: Die Einwohnerzahl der Großregion Saarbrücken vervierfachte sich in der zweiten Hälfte des 19. Jahrhunderts. Hauptzuzugsraum waren dabei die nördlich der industrialisierten Gebiete gelegenen, stark ländlich geprägten Regionen des Hochwaldes und des Hunsrücks. Dies führte dazu, dass auch in den ehemals evangelischen Gebieten der Grafschaft Saarbrücken heute die Mehrheit der Bevölkerung katholisch ist (62 Prozent der Bevölkerung sind katholischen und 19 Prozent evangelischen Glaubens; das Saarland hat somit prozentual den größten katholischen Bevölkerungsanteil in Deutschland). Gleichzeitig sorgten die saarländischen Stahl- und Hüttenbarone und die preußische Grubenverwaltung dafür, dass die Arbeiter und Bergleute zu günstigen Konditionen Grundeigentum und Häuser erwerben konnten, das Saarland hat deswegen bis heute bundesweit die höchste Eigentumsrate beim Grundbesitz. aktuell. Seit einiger Zeit hat das Saarland mit einem signifikanten Bevölkerungsrückgang zu kämpfen. So sank die Bevölkerungszahl 2006 um 0,68 %. Hauptursache ist ein ungünstiger natürlicher Bevölkerungssaldo von −0,48 % (Geburtenrate je 1.000: 6,9; Sterberate: 11,7). Das Saarland erreichte 2006 eine Fertilitätsrate von 1,233. Dies ist unter den Flächenländern der letzte Platz, nur die Fertilität Hamburgs ist noch geringer. Die Bevölkerungsdichte des Saarlandes ist allerdings noch immer wesentlich höher als im Bundesdurchschnitt. Im Verlaufe des Jahres 2010 sank die Bevölkerung des Saarlandes erstmals seit 1955 wieder unter die Marke von 1 Million Personen. Grundlagen. Die Verfassung des Saarlandes wurde am 8. November 1947 verabschiedet und trat am 15. Dezember 1947 in Kraft. In Vorbereitung auf die Angliederung an die Bundesrepublik Deutschland wurde sie am 20. Dezember 1956 geändert. Laut dieser Verfassungsänderung ist das Saarland eine freiheitliche Demokratie und ein sozialer Rechtsstaat in der Bundesrepublik. Wie in allen westlichen Verfassungen üblich sind die staatlichen Gewalten getrennt in Legislative, Exekutive und Judikative. Alle Macht geht vom Volke aus. Politik. Der Landtag des Saarlandes in Saarbrücken Seit der Wahl zum Landtag des Saarlandes am 5. September 1999 ist die CDU die stärkste Regierungsfraktion, welche die bis dahin allein regierende SPD-geführte Regierung ablöste und bis zur Landtagswahl am 30. August 2009 allein regierte. Bei dieser Wahl erreichten fünf Parteien den Sprung in den Landtag, wobei die CDU trotz starker Verluste stärkste Kraft blieb, gefolgt von SPD, Linke, FDP/DPS und Bündnis 90/Die Grünen. Anschließend regierte die CDU zusammen mit FDP/DPS und Bündnis 90/Die Grünen in der deutschlandweit ersten "Jamaika-Koalition" auf Landesebene. Diese zerbrach allerdings im Januar 2012 wieder und es folgte eine Große Koalition aus CDU und SPD. Auf kommunaler Ebene konnten die Freien Wähler in Kreis- und Gemeinderäte einziehen. Vor dem Beitritt des Saarlandes zur Bundesrepublik war das Parlament stets mit einer Mehrheit der CVP besetzt. Landesregierung. Die saarländische Landesregierung setzt sich nach Artikel 86 der Verfassung aus dem Ministerpräsidenten und den Ministern zusammen. Seit 2001 können auch Staatssekretäre in die Regierung aufgenommen werden. Der Ministerpräsident wird mit der Mehrheit der gesetzlichen Mitgliederzahl vom Landtag in geheimer Abstimmung gewählt. Die Wahl ist gültig für die gesamte Legislaturperiode. Er ernennt und entlässt mit Zustimmung des Landtages die Minister. Die Zahl der weiteren Mitglieder der Landesregierung darf jedoch ein Drittel der Zahl der Minister nicht übersteigen. Der Ministerpräsident sitzt der Landesregierung vor und leitet ihre Geschäfte. Das Land wird beim Bund durch die Vertretung des Saarlandes beim Bund vertreten. Landtagswahlen. Die Wahlen zum Landtag des Saarlandes finden alle fünf Jahre statt. In jeder Wahlperiode sind 51 Sitze zu besetzen. Bei der Landtagswahl am 30. August 2009 hatte die CDU ihre absolute Mehrheit verloren, blieb jedoch mit 19 Mandaten stärkste Fraktion. Nach dem Scheitern der Jamaika-Koalition löste sich der Landtag am 26. Januar 2012 auf. Die Wahl zum 15. Saarländischen Landtag fand am 25. März 2012 statt. Regierungsparteien fett gedruckt; Parteien außerhalb des Landtags "kursiv" gesetzt. Judikative. Die Judikative (die Rechtsprechung) besteht aus den ordentlichen Gerichten. Oberstes Gericht ist der saarländische Verfassungsgerichtshof, der aus acht Mitgliedern, die mit Zweidrittelmehrheit vom Landtag gewählt werden, besteht. Legislative. Die Legislative (die gesetzgebende Gewalt) ist maßgeblich dem Landtag des Saarlandes vorbehalten. Über Volksbegehren und Volksentscheidende kann aber auch das Wahlvolk an der Legislative beteiligt werden. Am Gesetzgebungsprozess wirkt durch Gesetzesvorlagen die Landesregierung mit. Gesetzgebung. Gesetzesvorlagen werden vom Ministerpräsidenten namens der Landesregierung, von einem Mitglied des Landtages oder einer Fraktion in den Landtag eingebracht. Verfassungsändernde Gesetze bedürfen der Zustimmung von zwei Dritteln der Mitglieder des Landtages. Die Verfassung kann nur durch ein Gesetz geändert werden, das ihren Wortlaut ausdrücklich ändert oder ergänzt. Die Änderung darf den Grundsätzen des demokratischen und sozialen Rechtsstaates nicht widersprechen. Bei Unstimmigkeiten entscheidet der Verfassungsgerichtshof. Volksbegehren. Volksbegehren können darauf gerichtet werden, den Landtag zu veranlassen, Gesetze zu erlassen, zu ändern oder aufzuheben. Ein Volksbegehren ist nur auf Gebieten zulässig, die der Gesetzgebung des Saarlandes unterliegen. Über finanzwirksame Gesetze, insbesondere Gesetze über Abgaben, Besoldung, Staatsleistungen und den Staatshaushalt, finden Volksbegehren generell nicht statt. Einem Volksbegehren muss ein ausgearbeiteter und mit Gründen versehener Gesetzentwurf zugrunde liegen. Ein Volksbegehren ist einzuleiten, wenn fünftausend Stimmberechtigte dies beantragen. Ein Volksbegehren ist zustande gekommen, wenn es von mindestens einem Fünftel der Stimmberechtigten unterstützt wird. Über Zulässigkeit und Zustandekommen eines Volksbegehrens entscheidet die Landesregierung. Gegen ihre Entscheidungen kann der Verfassungsgerichtshof angerufen werden. Ein Volksbegehren muss dann unverzüglich dem Landtag unterbreitet werden. Entspricht der Landtag binnen drei Monaten dem Volksbegehren nicht, so ist innerhalb von weiteren drei Monaten ein Volksentscheid herbeizuführen. Der dem Volk zur Entscheidung vorgelegte Gesetzentwurf ist mit einer Stellungnahme der Landesregierung zu versehen, die bündig und sachlich sowohl die Begründung der Antragsteller wie die Auffassung der Landesregierung über den Gegenstand darlegt. Der Landtag kann einen eigenen Gesetzentwurf dem Volk zur Entscheidung mit vorlegen. Ein solches Gesetz ist durch Volksentscheid beschlossen, wenn ihm mehr als die Hälfte der Stimmberechtigten zustimmt. Über ein Volksbegehren, das auf Änderung der Verfassung gerichtet ist, findet ein Volksentscheid nicht statt. Exekutive. Die Landesregierung, die Staatskanzlei, die Ministerien und die nachgeordneten Landesbehörden bilden die Exekutive (ausführende Gewalt). Hoheitszeichen. Die Hoheitszeichen des Saarlandes sind geregelt durch das Saarländisches Hoheitszeichengesetz (SHzG) vom 7. November 2001 (Gesetz Nr. 1483, Amtsblatt des Saarlandes, 18. März 2002, S. 566–576). Sie existieren in dieser Form jedoch bereits seit den Gesetzen über das Wappen und die Flagge des Saarlandes (Gesetze Nr. 508 und 509) vom 9. Juli 1956 (Amtsbl. S. 1213). Landeswappen. Das Landeswappen des Saarlandes besteht aus einem geviertelten Halbrundschild, der die Schildbilder der vier größten Landesherren zur Zeit des Alten Reiches zeigt: im rechten Obereck in blauem von neun silbernen Fußspitzkreuzen bestreuten Feld einen goldgekrönten, goldbewehrten und rotgezungten silbernen doppelschwänzigen Löwen (der Nassauer Löwe wegen der Grafschaft Saarbrücken), im linken Obereck in silbernem Feld ein rotes geschliffenes Kreuz (Kurfürstentum Trier), im rechten Untereck in goldenem Feld einen roten Schrägbalken, belegt mit drei silbernen gestümmelten Adlern (Alérion des Herzogtums Lothringen), und im linken Untereck in schwarzem Feld einen rotgekrönten, rotbewehrten und rotgezungten goldenen Löwen (der Pfälzer Löwe wegen des Wittelsbacher Herzogtums Pfalz-Zweibrücken). (Richtungsangaben vom Standpunkt des Schildhalters aus gesehen.) Das Landeswappen darf nur von Landesbehörden und berechtigten Personen geführt werden. Privatpersonen können ihre Verbundenheit mit dem Saarland durch das "Saarland-Symbol" (stilisiertes abgewandeltes Landeswappen eingebettet in die stilisierte Saarschleife) zum Ausdruck bringen. Gelegentlich ist (insbesondere als Autoaufkleber) auch ein ganz anderes Wappen anzutreffen: das frühere Landeswappen aus der Zeit von 1948 bis 1956, das an die damalige Saarland-Flagge angelehnt war (vgl. Abschnitt „Geschichte“). Der Namenszug "Sarre", der auf den Aufklebern von heute über dem Wappen zu sehen ist, wurde damals allerdings nie zusammen mit dem Wappen verwendet. Landesflagge. Die Landesflagge des Saarlandes besteht aus der Flagge Deutschlands, darauf in der Mitte, in den schwarzen und den goldfarbenen Streifen übergreifend, das Landeswappen, die rechte Seite (aus Sicht des Betrachters die linke Seite) zum Mast gewendet (Hissflagge). Sie kann auch als Bannerflagge ausgeführt sein, dann sind die Streifen senkrecht angeordnet, das Wappen steht aufrecht, die rechte Seite (aus Sicht des Betrachters die linke Seite) zum schwarzen Streifen hin gewendet. Nach dem Beitritt des Saarlandes zur Bundesrepublik Deutschland wurde diese Kombination als Landesflagge gewählt, um demonstrativ auf die Zugehörigkeit des Saarlandes zu Deutschland hinzuweisen. Obwohl die Flagge das Landeswappen enthält, darf die Landesflagge von jedem Landesbürger verwendet werden (im Gegensatz zu anderen Landesflaggen mit Wappen wie etwa Berlin oder Baden-Württemberg). Zu Zeiten der Unabhängigkeit nach dem Zweiten Weltkrieg bestand die Flagge des Saarlandes aus einem silbernen (weißen) skandinavischen Kreuz, der Untergrund zum Mast hin blau, zur anderen Seite hin rot (also die Farben Frankreichs auf Nachdruck desselben). Hymne. Das "Saarlandlied" ist die Hymne des Saarlandes. Kfz-Kennzeichen. Die Verteilung der Autokennzeichen weicht etwas von der in Deutschland sonst üblichen ab, da im Saarland nicht nur jedem Kreis ein Kfz-Kennzeichen zugeordnet ist, sondern auch den Mittelstädten. Daher haben nur die Kreise Merzig-Wadern (MZG), Neunkirchen (NK), Sankt Wendel (WND) und Saarlouis (SLS) ein einheitliches Kennzeichen; im Regionalverband Saarbrücken hingegen gibt es das Kennzeichen VK für die Stadt Völklingen und SB für den übrigen Regionalverband, im Saarpfalz-Kreis gibt es IGB für die Stadt St. Ingbert und HOM (nach der Kreisstadt Homburg) für den übrigen Kreis. Außerdem gibt es das Kennzeichen SAL für offizielle Stellen des Landes. Verwaltungsgliederung vor der Kreisreform von 1974. Neunkirchen besitzt seit 1968 ein eigenes Kfz-Kennzeichen (NK, vorher OTW), ebenso Völklingen (VK, vorher SB). Bildung und Forschung. Die Universität des Saarlandes, die 1948 gegründet wurde, hat ihre Standorte in Saarbrücken und Homburg. Saarbrücken ist Sitz der Verwaltung. Dort sind auch die meisten Studiengänge angesiedelt. Die rechtswissenschaftliche Fakultät und die Informatik genießen deutschlandweit einen sehr guten Ruf. Das Institut der Informatik ist eingebunden in das Kaiserslautern-Saarbrücken Computer Science Cluster, in dem etwa 800 Forscher zusammenarbeiten. In Saarbrücken wird außerdem das Krebsregister Saarland geführt. Der Campus in Homburg ist Sitz der medizinischen Fakultät. Die medizinische Forschung in Homburg ist eine der führenden in Deutschland. Die Deutsch-Französische Hochschule, gegründet 1999, bietet Studiengänge an, die mit einem Doppel- oder Dreifachdiplom (deutsch, französisch, luxemburgisch) abschließen. Die Lehrveranstaltungen finden dabei an Hochschulen in Deutschland, Frankreich und ggf. einem Drittland statt. Die Außenminister der Bundesrepublik Deutschland und der Französischen Republik unterschrieben am 15. September 1978 die Konvention, mit der das Deutsch-Französische Hochschulinstitut für Technik und Wirtschaft/L'institut Supérieur Franco-Allemand de Techniques, d'Économie et de Sciences (DFHI/ISFATES) mit Sitz in Saarbrücken bzw. in Metz gegründet wurde. Das DFHI bietet einen drei- bzw. fünfjährigen deutsch-französischen Studienzyklus mit alternierenden Studienorten (Metz, Saarbrücken, Luxemburg) an. Die Hochschule für Musik Saar – University of Music wurde 1947 als Staatliches Konservatorium gegründet. Nach Einrichtung eines Instituts für Katholische Kirchenmusik und eines Instituts für Schulmusik wurde es 1957 in eine Staatliche Hochschule für Musik umgewandelt und 1971 in die Trägerschaft des Saarlandes überführt. Ausbildungsplätze. Bei dem jährlichen Dynamikranking der Bundesländer der Initiative Neue Soziale Marktwirtschaft belegt das Saarland im Bereich Ausbildungsplatzvermittlung den ersten Platz. Das Angebot an Ausbildungsplätzen ist von 2004 bis 2006 überdurchschnittlich stark angestiegen. Mit einem Plus von 4,0 Prozentpunkten liegt das Saarland deutlich vor allen anderen Bundesländern. Religion. Während Deutschland derzeit von jeweils etwa 1/3 Protestanten und Katholiken und Konfessionslosen bzw. Angehörigen anderer Religionen geprägt ist, weicht das Saarland mit 64,1 % Mitgliedern der katholischen Kirche am deutlichsten (+33,4 %) vom Bundesdurchschnitt ab und liegt etwa 8,5 % vor Bayern mit derzeit 55,6 %. Die Mitglieder der beiden im Saarland vertretenen evangelischen Landeskirchen (Evangelische Kirche im Rheinland und Evangelische Kirche der Pfalz) erreichen einen Anteil von 19,5 % und liegen damit 10,5 % unter dem Bundesdurchschnitt. Dies stellt damit das Minimum in Westdeutschland dar. Die Sonstigen, bestehend aus anderen Religionen und Konfessionslosen, kommen zusammengefasst auf 16,4 %, dem Minimum in Deutschland mit einem Abstand von 23 % zum Bundesdurchschnitt. Die Zahlen datieren aus dem Jahr 2008, siehe auch den Abschnitt "Verteilung der beiden Hauptkonfessionen auf die Bundesländer" im Artikel Religionen in Deutschland. Energieversorgung. 1995 begann mit dem Windpark Freisener Höhe die Entwicklung der Erneuerbaren Energien. Bis 2013 wurden Windkraftanlagen mit einer Gesamtleistung von 138 MW angeschlossen. Im Juni 2012 wurde mit dem Bergwerk Saar der letzte Kohleförderbetrieb stillgelegt. Wirtschaft. Die wirtschaftliche Entwicklung des Saarlandes steht im engen Zusammenhang mit dem regionalen Strukturwandel, der mit der Einstellung des Steinkohlebergbaus einherging. Bis in die Mitte des 20. Jahrhunderts waren der Bergbau und die daran angegliederte Stahlindustrie die Hauptarbeitgeber der Region und prägten die wirtschaftliche Infrastruktur des Landes. Ab den 1960er Jahren setzte mit einer schrittweisen Rückentwicklung des Bergbaus ein umfassender Wandel ein, der in den 1980er Jahren durch eine drastische Reduzierung der Fördermengen verstärkt wurde. Durch die Ansiedelung von Automobilindustrie konnten jedoch auch wieder neue Arbeitsplätze geschaffen werden. 2005 hatte das Saarland die höchsten wirtschaftlichen Zuwachsraten beim Bruttoinlandsprodukt. Es lag im ersten Halbjahr 2005 real um 2,8 Prozent über dem Vorjahreszeitraum, während im Bundesdurchschnitt nur 0,6 Prozent Wachstum erreicht wurden. Des Weiteren gewann das Saarland mehrmals das Dynamikranking der Initiative Neue Soziale Marktwirtschaft, das die Veränderungen in den Bundesländern bewertet. Ministerpräsident Peter Müller bewertete dies als Erfolg seiner Reformpolitik, die zur Ansiedlung neuer Industrie- und Dienstleistungszweige führe. Im Vergleich mit dem BIP der EU ausgedrückt in Kaufkraftstandards erreicht das Saarland einen Index von 108.3 (EU-27:100) (2004). 2014 betrug die Wirtschaftsleistung im Bundesland Saarland gemessen am BIP rund 33,5 Milliarden Euro. Belief sich der Schuldenstand des Landes im Dezember 2007 noch auf rund 9,1 Milliarden €, legte er bis zum Juni 2013 auf knapp 17,0 Milliarden € zu. Seit 2014 präsentiert sich das Land mit einer neuartigen Imagekampagne. Der Slogan „Großes entsteht immer im Kleinen“ und daran gekoppelte Maßnahmen werben für das Land als Lebens- und Wirtschaftsstandort. Die Kampagne wurde nach einer Ausschreibung der saar.is – saarland.innovation&standort e. von der Bietergemeinschaft aus Jung von Matt und der NEWKOM AG konzipiert. Ziel ist es, sowohl im Land selbst als auch im Rest der Bundesrepublik Fachkräfte auf die Vorzüge in Sachen Arbeitsplatz, Kultur, Gastronomie und Landschaft aufmerksam zu machen. Arbeitsmarkt. Nur die Stadtstaaten Bremen, Hamburg und Berlin weisen eine höhere Pendlerquote auf als das Saarland. 52.000 Menschen pendeln zum Arbeiten ins Saarland, umgekehrt pendeln knapp 28.000 Saarländer, vor allem nach Rheinland-Pfalz und Nordrhein-Westfalen. Verkehr. Durch seine frühe und intensive Industrialisierung besteht im Saarland eine sehr gute Verkehrs-Infrastruktur. Nirgendwo in Deutschland fand sich ein so dichtes Schienennetz für den Personenverkehr wie im Saarland, bis die Deutsche Bundesbahn in den 1960er Jahren begann, viele Strecken nicht mehr zu bedienen. Die in weiten Teilen des Landes kleinräumige Gliederung hat dazu geführt, dass heute im Saarland mit durchschnittlich 704 Kraftfahrzeugen pro 1000 Einwohner die meisten Pkw im Verhältnis zur Bevölkerungszahl in einem deutschen Flächenland zugelassen sind. Die wichtigste Schienenverbindung ist die Strecke Mannheim–Paris. Dafür wurde von 2006 bis Dezember 2007 der Saarbrücker Hauptbahnhof zum „Europabahnhof“ umgebaut. Von Juni bis Dezember 2007 fuhr zuerst nur ein ICE-Paar Paris–Frankfurt (Main) über Saarbrücken, welches in Frankreich eine neue Schnellfahrstrecke benutzte; zwei weitere ICE-Paare endeten vorerst in Saarbrücken. Seit Dezember 2007 verkehren fünf ICE-Paare zwischen Deutschland und Frankreich, die im Saarland nur in Saarbrücken halten. Saarbrücken ist an das französische Hochgeschwindigkeitsnetz LGV Est européenne angebunden (Fahrtzeit Saarbrücken-Paris: eine Stunde, 50 Minuten). Der weitere Fernverkehr auf der Linie Saarbrücken-Kaiserslautern–Mannheim–Frankfurt (Main) wird täglich mit mehreren IC- und ICE-Zügen bedient, davon ein Zugpaar nach Dresden, ein ICE von Hamburg kommend, der zurück nach Oldenburg über Bremen fährt sowie zweimal täglich nach Stuttgart, davon ein Zugpaar bis/ab Salzburg über München. Auf allen anderen Strecken im Saarland fahren inzwischen nur noch Regionalzüge, nachdem im Dezember 2002 die InterRegio-Züge, die über der Saarstrecke Richtung Koblenz-Köln-Norddeutschland fuhren, aus den Fahrplänen gestrichen wurden. Auf der Nahetalbahn und der Bahnstrecke Landau–Rohrbach verkehren seit 1991 keine D-Züge mehr. In Saarbrücken ist 1997 mit der Saarbahn die 1965 abgeschaffte Straßenbahn wieder zurückgekehrt. Am 1. August 2005 wurde mit dem SaarVV ein Verbundtarif eingeführt. Zuvor gab es nur die Verkehrsgemeinschaft Saar, die für einige Tarifkooperationen sorgte und die Freifahrt für Schwerbehinderte sicherstellte. Der Flughafen Saarbrücken-Ensheim ist ein internationaler Verkehrsflughafen mit ca 12.000 Starts und Landungen jährlich. Weitere internationale Flugplätze befinden sich in der unmittelbaren Nachbarschaft des Saarlandes: Zweibrücken und Hahn. Der Unterlauf der Saar ist von Konz bis oberhalb von Saarbrücken für die Großschifffahrt ausgebaut. Ab Saarbrücken bis Saargemünd ist der Fluss für kleinere Schiffe (Penischen) befahrbar. Ab Saargemünd ist die Saar über den Saarkanal (früher auch Saar-Kohlen-Kanal genannt) mit dem Rhein-Marne-Kanal verbunden. Betriebene Bahnstrecken. Dieser Verkehrszweig bildete bis 1956 eine eigene Staatsbahn, die Eisenbahnen des Saarlandes (EdS). Straßen. Da das Saarland keine Kreisstraßen hat, ist das Netz der Landesstraßen besonders dicht. Medien. Das Saarland ist neben der Freien Hansestadt Bremen das kleinste Bundesland mit einer eigenen öffentlich-rechtlichen Rundfunkanstalt, dem "Saarländischen Rundfunk". Der SR ist Mitglied der ARD und hat seinen Sitz in Saarbrücken. Er betreibt unter anderem das SR Fernsehen und fünf Hörfunkprogramme. Die "Landesmedienanstalt Saarland" (LMS) ist eine Anstalt des öffentlichen Rechts und hat ihren Sitz in Saarbrücken. Sie ist eine staatliche Kontrollbehörde und verantwortlich für die Lizenzierung und Kontrolle privater Radio- und Fernsehsender sowie deren Koordination mit den öffentlich-rechtlichen Sendern. Die LMS betreibt weiterhin im Auftrag des Landes Filmförderung und Vermittlung von Medienkompetenz. "Radio Salü" ist ein privater Radiosender mit Sitz in Saarbrücken, dessen Reichweite das gesamte Saarland umfasst. Seit dem 5. Juni 2008 verfügt die Landeshauptstadt Saarbrücken mit Radio Saarbrücken 99,6 über ihren eigenen lokalen Radiosender. Die einzige Tageszeitung des Saarlands ist die "Saarbrücker Zeitung", die einerseits als Regionalzeitung das gesamte Saarland abdeckt, mit elf Lokalredaktionen aber auch als Lokalzeitung örtliche Berichterstattung betreibt. Der "Wochenspiegel" ergänzt als wöchentlich erscheinendes Anzeigenblatt mit einem umfangreichen redaktionellen Anteil die saarländische Medienlandschaft. Auch der Wochenspiegel hält neun Lokalredaktionen vor. Die rheinland-pfälzischen regionalen Tageszeitungen "Die Rheinpfalz" und "Pfälzischer Merkur" decken in ihrer Berichterstattung den Saarpfalz-Kreis und das saarländische Landesgeschehen ab. Seit einigen Jahren werden im Saarland zwei "Online-Magazine" betrieben: "Saar Report" und "Saar-Zeitung" (Verbreitungsgebiet: Landkreis Saarlouis, Regionalverband Saarbrücken). Im Saarland werden einige "Lifestyle-Magazine" mit Regionalen Bezügen publiziert ("TOP-Magazin", "L!VE", "Eurosaar", "Background", "Saar-Revue"). Seit dem 31. März 2005 erscheint die Bild-Zeitung als "Bild Saarland" mit einem Regionalteil. .saarland-Domains. Seit dem 30. Oktober 2014 können Domains mit der Endung ".saarland" registriert werden. Die Verwaltung der Domains wird durch die dotSaarland GmbH übernommen. Die Sunrise-Phase begann am 18. Juli 2014 und endete am 15. September 2014. Die erste Domain (abgesehen von der Registrierungsstelle) ist seit dem 23. September 2014 abrufbar. Eine Domain darf zwischen 3 und 63 Zeichen beinhalten (ohne Endung). Umlaute sind nicht möglich. Kunst und Kultur. Eine Liste von Künstlern (Literatur, Bildende Kunst, Musik, Darstellende Kunst), die im Saarland geboren wurden oder dort gewirkt haben, befindet sich hier. Baudenkmäler. Das Saarland beherbergt einige Boden- und Baudenkmäler von europäischem Rang, wie die keltischen und römischen Ausgrabungen an der Obermosel (Gemeinde Perl mit den Ortsteilen Nennig und Borg) und im Bliesgau (Bliesbrück-Reinheim und Schwarzenacker), sowie den so genannten Hunnenring in Otzenhausen. Aus der Neuzeit stammen der barocke Ludwigsplatz mit der Ludwigskirche in Saarbrücken. In der Weltkulturerbe-Liste der UNESCO ist die historische Völklinger Hütte zu finden. Jüdische Friedhöfe. Im Saarland gibt es 16 Jüdische Friedhöfe: in Blieskastel, Saar, Homburg, Illingen, Merzig, Neunkirchen (Saar), Nohfelden-Gonnesweiler, Nohfelden-Sötern, Ottweiler, Saarbrücken (alt), Saarbrücken (neu), Saarlouis, Saarwellingen, St. Ingbert, St. Wendel und in Tholey. Kunstsammlungen. Die bedeutendste Kunstsammlung des Saarlandes beherbergt die "Moderne Galerie" des Saarlandmuseums in Saarbrücken mit Gemälden des deutschen Expressionismus, allen voran das berühmte "Kleine blaue Pferd" von Franz Marc. Ein besonderer Sammelschwerpunkt des Museums liegt auf Alexander Archipenko; die Sammlung besitzt 107 Gipsmodelle und zahlreiche Bronzegüsse des Künstlers. Das Museum St. Ingbert wurde 1987 in der Trägerschaft der Albert-Weisgerber-Stiftung eröffnet. Es wurde im Juli 2007 auf Vorschlag der St. Ingberter Stadtverwaltung und Beschluss des St. Ingberter Stadtrates geschlossen. Musik. Das Saarland besitzt mit der Deutschen Radio Philharmonie Saarbrücken Kaiserslautern einen Klangkörper von europäischem Rang. Das Orchester entstand 2007 durch Fusion des "Rundfunk-Sinfonie-Orchesters Saarbrücken" mit dem "Rundfunkorchester Kaiserslautern". Bekannt wurde das ehemalige Rundfunk-Sinfonie-Orchester Saarbrücken vor allem durch seine Arbeit mit Hans Zender. Neuer Chefdirigent ist seit 2006 Christoph Poppen. Von überregionaler Bedeutung sind ferner die alle zwei Jahre stattfindenden Musikfestspiele Saar. Saarländische Literatur. Aus der jüngeren Vergangenheit sind vor allem zwei Literaten aus dem Saarland bekannt geworden: Der Romancier Ludwig Harig und der Lyriker Johannes Kühn. Weitere bekannte Schriftsteller mit Bezug zum Saarland sind u. a. Gustav Regler, Kerstin Rech, Alfred Gulden, Arnfrid Astel und Johannes Kirschweng. Erwähnenswerte Beschreibungen der Saarregion finden sich in "Dichtung und Wahrheit" (2. Teil, 10. Buch) von Johann Wolfgang von Goethe und in "Soldatenleben" von Johann Michael Moscherosch. In der zeitgenössischen Literatur sind "Die saarländische Freude" und "Das Saarland" von Ludwig Harig sowie "Reisen mit Pippo" von Holger Willi Montag hervorzuheben. Theater und Film. Jährlich im Januar findet in Saarbrücken das international bedeutendste Festival des deutschsprachigen Nachwuchsfilms statt, der nach dem in Saarbrücken geborenen Regisseur Max Ophüls benannte Max-Ophüls-Preis. In Saarbrücken besteht mit dem Saarländischen Staatstheater auch ein großes, dreispartiges Theater. In den letzten Jahren errangen vor allem die Ballett-Compagnie von Marguerite Donlon und die in Zusammenarbeit mit Frank Nimsgern durchgeführten Musical-Produktionen internationale Beachtung. Schließlich bereichert das deutsch-französische Theaterfestival „Perspectives“ als einziges Festival seiner Art seit 1977 die deutsche Kulturszene. Auf der Naturbühne Gräfinthal und der Volksbühne Hülzweiler kann man im Sommer Theater im Freien erleben. Die Freilichtbühne in Gräfinthal spielt jedes Jahr zwei Stücke, in Hülzweiler wird ein Stück aufgeführt. Beide Theater blicken auf eine lange Tradition zurück. Sachsen-Anhalt. Sachsen-Anhalt (, Landescode "ST") ist ein Land der Bundesrepublik Deutschland. Unter den 16 deutschen Ländern nimmt das Flächenland Sachsen-Anhalt mit rund 20.450 Quadratkilometern (Platz 8) und etwa 2,24 Millionen Einwohnern (Platz 11) eine mittlere Stelle ein (siehe auch: Rahmendaten der Länder). Die beiden Großstädte sind die Landeshauptstadt Magdeburg, seit April 2015 die größte Stadt des Landes, und Halle (Saale). Ein weiteres Oberzentrum stellt die Mittelstadt Dessau-Roßlau dar. Die Einwohner Sachsen-Anhalts werden offiziell "Sachsen-Anhalter" oder umgangssprachlich auch "Sachsen-Anhaltiner" genannt. Das am 21. Juli 1947 gegründete "Land Sachsen-Anhalt" ging mit der DDR-Verwaltungsreform in Bezirke auf und besteht in der heutigen Form seit der deutschen Wiedervereinigung am 3. Oktober 1990. Es gliedert sich in elf Landkreise und drei kreisfreie Städte. Angrenzende Länder sind Niedersachsen, Brandenburg, Sachsen und Thüringen; bis 1992 auch Mecklenburg-Vorpommern. Sachsen-Anhalt besitzt neben Bayern die meisten UNESCO-Welterbestätten in Deutschland – das Bauhaus, das Dessau-Wörlitzer Gartenreich, die Luthergedenkstätten in Eisleben und Wittenberg und die Altstadt von Quedlinburg – sowie eine vielfältige Burgen-, Schlösser- und Kirchenlandschaft. Mit mehreren Hochschulen und Forschungseinrichtungen sind Halle und Magdeburg wissenschaftliche Zentren. Geographie. Im Norden wird Sachsen-Anhalt von Flachland geprägt. In der dünn besiedelten Altmark befinden sich alte Hansestädte wie Salzwedel, Gardelegen, Stendal und Tangermünde. Den Übergang von der Altmark zur Region Elbe-Börde-Heide mit der fruchtbaren, waldarmen Magdeburger Börde bilden die Colbitz-Letzlinger Heide und der Drömling. In der Magdeburger Börde liegen die Städte Haldensleben, Oschersleben (Bode), Wanzleben, Schönebeck (Elbe), Aschersleben sowie Magdeburg, von dem die Region ihren Namen ableitet. Im Südwesten liegt der Harz mit dem grenzübergreifenden Nationalpark Harz, dem Harzvorland und dem Mansfelder Land sowie unter anderem den Städten Halberstadt, Quedlinburg, Wernigerode, Thale, Lutherstadt Eisleben und Sangerhausen. An der Grenze zu Sachsen befindet sich der Ballungsraum Halle (Saale)/Merseburg/Bitterfeld-Wolfen (auch „Chemiedreieck“ genannt), der bis ins sächsische Leipzig reicht. Halle (Saale) ist die zweitgrößte Stadt in Sachsen-Anhalt. In der Vergangenheit war hier die Chemieindustrie mit ihrem wirtschaftlichen Schwerpunkt in Leuna ansässig. An der Saale, der Unstrut sowie der Weißen Elster im Süden des Landes, wo sich das Weinbaugebiet Saale-Unstrut-Region befindet, liegen Zeitz, Naumburg (Saale), Weißenfels und Freyburg (Unstrut). Schließlich gehört zu Sachsen-Anhalt noch die im Osten gelegene Region Anhalt-Wittenberg mit der drittgrößten Stadt des Landes Dessau-Roßlau, die aus der alten anhaltischen Residenzstadt Dessau hervorgegangen ist, der Lutherstadt Wittenberg und einem Teil des Flämings. Mittelgebirge und Berge. Das größte Mittelgebirge Sachsen-Anhalts ist der Harz, in dem auch die höchste Erhebung von Sachsen-Anhalt und ganz Norddeutschlands liegt. Dies ist mit der Brocken. Flüsse. a> (hier bei Magdeburg) ist der größte Fluss Sachsen-Anhalts Seen. Großer Goitzschesee (2500 ha), Geiseltalsee (1840 ha), Gremminer See (544 ha), Arendsee (514 ha), Concordiasee (350 ha), Wallendorfer See (338 ha), Raßnitzer See (310 ha), Süßer See (238 ha), Bergwitzsee (172 ha), Barleber See (100 ha), Hufeisensee (70 ha), Neustädter See (Magdeburg) (60 ha) Talsperren. Muldestausee, Rappbode-Talsperre, Talsperre Kelbra, Wippertalsperre Geschichte. "Zur Geschichte des Gebietes vor 1944 siehe unter anderem bei Altmark, Herzogtum Magdeburg, Bistum Halberstadt, Stift Quedlinburg, Provinz Sachsen und Anhalt, Hauptartikel siehe unter Geschichte Sachsen-Anhalts" a>) in ihren Grenzen bis 1945 Im Juli 1944 wurde die vormalige preußische Provinz Sachsen, bestehend aus den Regierungsbezirken Magdeburg, Merseburg und Erfurt, aufgeteilt. Es entstanden die Provinzen Magdeburg und Halle-Merseburg. Der Regierungsbezirk Erfurt wurde dem Reichsstatthalter Thüringen unterstellt. Nach der deutschen Kapitulation 1945 wurden von der Sowjetischen Militäradministration in Deutschland (SMAD) die beiden Provinzen Magdeburg und Halle-Merseburg, ferner der Freistaat Anhalt (um Dessau), die frühere braunschweigische Exklave Calvörde und der östliche Teil des Landkreises Blankenburg im Harz, auch vorher dem Land Braunschweig zugehörig, sowie die thüringische Enklave Allstedt zur neuen Provinz Sachsen vereinigt und der Name im Oktober 1946 in Provinz Sachsen-Anhalt geändert. Im Zuge der Auflösung Preußens verkündete die Provinz Sachsen-Anhalt am 10. Januar 1947 ihre eigene Landesverfassung. Am 21. Juli 1947 erfolgte die Umbenennung in Land Sachsen-Anhalt'". Landeshauptstadt wurde Halle. Das Land hatte eine Größe von 24.576 km². Im Juli 1952 wurde im Rahmen der Verwaltungsreform in der DDR das Land de facto aufgelöst (de jure bestand es noch einige Jahre weiter) und in die zwei Bezirke Halle und Magdeburg aufgeteilt. Dabei geschahen Grenzbereinigungen, bei denen einzelne Städte und Gemeinden von den Nachbarkreisen eingegliedert oder dorthin ausgegliedert wurden, wodurch sich die Bezirksgrenzen gegenüber den ehemaligen Landesgrenzen verschoben. In rot sind die Grenzen des DDR-Landes Sachsen-Anhalt von 1947–1952 zu sehen, in violett die Außengrenzen der DDR-Bezirke Halle und Magdeburg und in schwarz die heutigen Grenzen von Sachsen-Anhalt. Der Landesteil Preußische Provinz Sachsen ist gelb gekennzeichnet, der Landesteil Anhalt grün. Am 3. Oktober 1990 erfolgte die Wiederherstellung des Landes Sachsen-Anhalt durch das Ländereinführungsgesetz. Sachsen-Anhalt besteht seitdem wieder aus den ehemaligen Bezirken Halle (ohne den Kreis Artern) und Magdeburg sowie dem Kreis Jessen, welcher bereits vor 1952 zum Land Sachsen-Anhalt gehörte. Landeshauptstadt wurde Magdeburg. Sachsen-Anhalts Partnerland während des Aufbaus der neuen Strukturen war Niedersachsen. Der Anfang der 1990er Jahre war geprägt durch häufige Wechsel der Landesregierungen und politische Affären. Dies hatte zur Folge, dass die anfangs regierende CDU die zweiten Landtagswahlen nach der Wiedervereinigung verlor und es zu einer von der PDS tolerierten Landesregierung von SPD und Bündnis 90/Grüne kam (Magdeburger Modell). Ministerpräsident Reinhard Höppner regierte das Land über zwei Legislaturperioden in einer Zeit großer wirtschaftlicher und arbeitsmarktpolitischer Umstrukturierungen, nach Ausscheiden der Grünen in einer von der PDS tolerierten SPD-Alleinregierung. Sachsen-Anhalt hatte die höchste Arbeitslosenquote aller Bundesländer zu verkraften. In der dritten Wahlperiode seit der Wiedervereinigung gelang es der rechtsextremen DVU, in den Landtag einzuziehen. Jedoch zerbrach diese Fraktion bald an internen Streitigkeiten und wurde 2002 nicht wieder in den Landtag gewählt. Die anhaltende wirtschaftliche Krise führte bei den Wahlen im Jahr 2002 zu einem erneuten Regierungswechsel. Seither wurde Sachsen-Anhalt anfangs von einer CDU/FDP-Regierung, daraufhin von einer CDU/SPD-Regierung unter Wolfgang Böhmer regiert. Nach der Landtagswahl 2011 wurde er aus Altersgründen von Reiner Haseloff abgelöst. Kulturgeschichte. Die Gegend des heutigen Landes Sachsen-Anhalt war im Frühmittelalter einer der kulturellen Schwerpunkte im deutschsprachigen Raum. Die heutige Landeshauptstadt Magdeburg war zu jener Zeit eines der politischen Zentren im Heiligen Römischen Reich Deutscher Nation. Von der früheren Bedeutung der gesamten Region zeugen heute die für das Land typischen, gut erhaltenen Baudenkmäler aus der Zeit der Romanik und der Gotik ("siehe auch:" Straße der Romanik), wie die Dome zu Magdeburg und zu Halberstadt, die Quedlinburger Altstadt und viele Burgen und Kirchen. Laut Landesmarketinggesellschaft ist Sachsen-Anhalt das Bundesland mit der höchsten Dichte an UNESCO-Weltkulturerben in Deutschland. Hierzu zählen das Bauhaus Dessau in Dessau-Roßlau, die Luthergedenkstätten in Wittenberg und Eisleben, die Altstadt von Quedlinburg und das Dessau-Wörlitzer Gartenreich mit dem Wörlitzer Park. Prägend für die hiesigen Ortschaften und Städte sind neben verwinkelten Fachwerkhausaltstädten und eng bebauten Dörfern, ebenfalls oft mit Fachwerkarchitektur und sehenswerten alten Dorfkirchen, auch Gebäude aus der Zeit der preußischen Provinz Sachsen, die seinerzeit als reichste Provinz des Landes galt. Bevölkerung. Die Bevölkerung Sachsen-Anhalts setzte sich im 7. Jahrhundert n. Chr. aus Niedersachsen (Ostfalen) und Thüringern zusammen. Hinzu kamen die im Zuge der deutschen Ostsiedlung christianisierten Elbslawen. Weiterhin leben in Sachsen-Anhalt auch Nachfahren der in den vergangenen Jahrhunderten eingewanderten Flamen und Hugenotten sowie anderer verfolgter Volksgruppen, die bei den frühneuzeitlichen Landesherren im heutigen Sachsen-Anhalt Zuflucht fanden. Nach dem Zweiten Weltkrieg kam es zur Ansiedlung von Vertriebenen und Flüchtlingen aus den ehemaligen deutschen Ostgebieten. Ab 1990 zogen russlanddeutsche Spätaussiedler nach Sachsen-Anhalt. Vergleichsweise klein ist der Anteil an ausländischen Immigranten. Hier sind als dominierende Gruppe Vietnamesen zu nennen. Die historisch korrekte und von den Landesbehörden unterstützte Bezeichnung für die Einwohner des Landes ist "Sachsen-Anhalter", das entsprechende Adjektiv "sachsen-anhaltisch". Daneben werden in der Umgangssprache fälschlich auch die Bezeichnungen "Sachsen-Anhaltiner" und der im Duden verzeichnete Ausdruck "sachsen-anhaltinisch" verwendet, was jedoch einen Bezug zum Adelsgeschlecht der anhaltinischen Linie der Askanier bedeutet. Sprache. Sachsen-Anhalt gehört sowohl zum niederdeutschen als auch zum mitteldeutschen Sprachraum. Im Land wird heute ein eingefärbtes Hochdeutsch gesprochen, das eine Vielzahl spezifischer Wendungen aus dem Mark-Brandenburgischen aufweist, aber auch insbesondere in den südlichen Landesteilen vom Thüringisch-Obersächsischen geprägt ist. Im Nordteil, in der Altmark und in der Börde, trifft man bei älteren Sprechern noch auf die niederdeutsche Sprache. Im Mansfelder Land ist die Mansfäller Mundart anzutreffen, ein Dialekt, den Ortsfremde nur sehr schwer verstehen. Religionen. Etwa 80 Prozent der Bürger sind konfessionslos. In Sachsen-Anhalt gehören nur 402.607 Menschen und somit 17,4 Prozent der Einwohner einer der beiden großen christlichen Konfessionen an (Stand 2011), davon gehören 321.964 (13,9 Prozent der Bevölkerung) den evangelischen Landeskirchen an, worunter die Evangelische Kirche in Mitteldeutschland und die Evangelische Landeskirche Anhalts wiederum die meisten Mitglieder haben. 80.643 (3,5 Prozent) der Sachsen-Anhalter sind römisch-katholisch und hauptsächlich dem Bistum Magdeburg sowie zu kleinen Teilen dem Erzbistum Berlin (Stadt Havelberg) zugeordnet. Die Region Sachsen-Anhalts gehörte bereits in der ersten Hälfte des 20. Jahrhunderts zu den Gegenden mit vergleichsweise hohen Anteilen von Personen ohne Religionszugehörigkeit. Die geringe Anzahl von Kirchenmitgliedern in Sachsen-Anhalt auch nach der friedlichen Revolution 1989 ist u. a. darauf zurückzuführen, dass eine Lösung von kirchlichen Bindungen durch die DDR gefördert wurde. Die Tendenz ist weiter sinkend. Sachsen-Anhalt weist gegenwärtig die niedrigste Quote kirchlich gebundener Einwohner innerhalb Deutschlands auf. 80.000 Einwohner gehören anderen Konfessionen an, davon ca. 11.000 der Neuapostolischen Kirche und 45.000 anderen Religionen (Judentum, Zeugen Jehovas, Islam, Mandäismus). Im Vergleich zu vielen anderen deutschen Ländern ist der Anteil muslimischer Bürger sehr gering. Gesundheitswesen. 2005 wurden in Sachsen-Anhalt 1.270.763 Impfungen durch 1949 niedergelassene Ärzte durchgeführt. Hinzu kommt ein geringer Teil an Impfungen durch die Gesundheitsämter. Gegen Influenza („echte Grippe“) wurden 824.064 Menschen geimpft, der Bevölkerungsanteil der gegen Influenza geimpft ist, wird auf 33 Prozent geschätzt. Sachsen-Anhalt hat seit 2008 sowohl im ambulanten als auch im stationären Bereich mit einem Ärztemangel zu kämpfen, dem durch Einstellung von Ärzten aus Osteuropa und Österreich begegnet wird. Im Jahr 2000 gab es 1654 Hausärzte, 2007 waren es 1437. Bevölkerungsentwicklung. Sachsen-Anhalt hatte am 31. Dezember 2013 insgesamt rund 2,2 Millionen Einwohner. Der zahlenmäßige Bevölkerungsrückgang in Sachsen-Anhalt ist ein seit der Wiedervereinigung ungebrochener Trend und in ungefähr gleichem Maße auf die geringe Anzahl Neugeborener sowie die Abwanderung von Sachsen-Anhaltern in andere Regionen zurückzuführen. Trotz eines seit 1994 zu verzeichnenden leichten Anstieges der Geburtenzahlen erreichte die Reproduktionsquote nur etwa 50 Prozent. Laut einer Bevölkerungsprognose des Statistischen Landesamtes Sachsen-Anhalt (detailliert weiter unten angegeben) wird die Bevölkerungszahl bis 2025 auf rund 1,9 Millionen zurückgehen. Sollte diese Prognose zutreffen, wäre die Bevölkerung Sachsen-Anhalts seit der Wende um rund 30 Prozent geschrumpft. Die Einwohnerzahlen nach der Kreisreform 2007 liegen zwischen 92.000 und 237.000 bei den kreisfreien Städten und zwischen 96.000 und 247.000 bei den Landkreisen (Datenstand 2005). Die Einwohnerdichte schwankt bei den neuen Kreisgebieten zwischen 42 und 159 Einwohnern pro Quadratkilometer (Datenstand 2005). Besonders niedrige Werte haben die beiden Landkreise der Altmark, der Landkreis Jerichower Land und der Landkreis Wittenberg. Der Ausländeranteil beträgt in Sachsen-Anhalt 1,9 Prozent und ist damit im Vergleich zu den anderen Bundesländern der geringste. Bevölkerungsentwicklung in den Landkreisen und kreisfreien Städten. 1) Regionalisierte Einwohnerprognose des Statistischen Landesamtes Sachsen-Anhalt Bevölkerungsprognose. In der Bevölkerungsprognose "Wegweiser Kommune" von 2011 der Bertelsmann Stiftung wird Sachsen-Anhalt ein fortwährender Bevölkerungsrückgang von 13,6 Prozent bis 2030 vorausgesagt. Verfassung. Die Verfassung des Landes Sachsen-Anhalt wurde 1992 vom Landtag Sachsen-Anhalt beschlossen. Sie gliedert sich in vier Hauptteile. Politik. a> am Domplatz in Magdeburg; im Vordergrund rekonstruierter Grundriss der Magdeburger Kaiserpfalz, die hier um 1000 n. Chr. stand Bei der ersten freien Wahl nach der (Wieder-)Gründung des Landes 1990 bildeten CDU (39,0 Prozent) und FDP, die mit 13,5 Prozent ihr bislang bestes Ergebnis in Ostdeutschland erreichte, eine schwarz-gelbe Koalition unter dem Ministerpräsidenten Gerd Gies (CDU). Im Juli 1991 trat Gies zurück, ihm folgte der bis dato als Finanzminister amtierende Werner Münch (CDU). Als auch Münch im November 1993 zurücktrat, wurde Christoph Bergner (CDU) zum Ministerpräsidenten gewählt. Hohe Arbeitslosigkeit und die schlechte wirtschaftliche Lage im ehemaligen Schwerpunktgebiet chemischer Industrie und des Schwermaschinenbaus führten zu einer hohen Unzufriedenheit der Wähler mit der schwarz-gelben Koalition. Bei der Landtagswahl 1994 zog die SPD mit 34 Prozent fast gleichauf mit der CDU (34,4 Prozent). Da jedoch die FDP mit 3,6 Prozent aus dem Landtag ausschied, kam der CDU der Koalitionspartner abhanden. So konnte der SPD-Spitzenkandidat Reinhard Höppner mit den Grünen zunächst eine rot-grüne Minderheits-Koalition mit Duldung der PDS bilden. Nach dem Ausscheiden der Grünen aus dem Landtag bei der Landtagswahl 1998 bildete Höppner eine SPD-Minderheitsregierung unter Tolerierung der PDS. Dieses wurde als Magdeburger Modell bekannt. Aufsehen erregte bei dieser Wahl auch der Erfolg der als rechtsextrem geltenden DVU, die 12,9 Prozent erreichte. Mit der Wahl zum 4. Landtag Sachsen-Anhalt im März 2002 fiel die vorher regierende SPD mit zweistelligen Verlusten hinter CDU und PDS zurück und wurde nur drittstärkste Partei im Landtag. Die DVU war durch interne Streitigkeiten zerbrochen und schied wieder aus dem Landtag aus. Hingegen konnte die FDP mit einem Ergebnis von 13,3 Prozent erneut in den Landtag einziehen, CDU und FDP bildeten unter dem neuen Ministerpräsidenten Wolfgang Böhmer die Regierung. Bei der Landtagswahl 2006 erlitt die FDP Verluste auf 6,7 Prozent, für eine erneute Koalitionsbildung mit der CDU (36,2 Prozent) reichte es nicht mehr. Daher bildete die CDU mit der SPD eine große Koalition unter dem erneuten Ministerpräsidenten Böhmer. Bei der Landtagswahl 2011 konnten die Grünen, nachdem sie auch 2006 nicht die Fünf-Prozent-Hürde genommen hatten, erstmals seit 1998 wieder in den Landtag einziehen. Die FDP schied mit erneuten Verlusten und einem Ergebnis von 3,8 Prozent wieder aus dem Landtag aus. Eine rechnerisch mögliche rot-rote Koalition unter Führung der Linken (23,7 Prozent) wurde von der SPD (21,5 Prozent) mit ihrem Spitzenkandidaten Jens Bullerjahn strikt ausgeschlossen, da die Linke den Posten des Ministerpräsidenten für sich beanspruchte. Somit bildeten CDU und SPD unter dem neuen Ministerpräsidenten Reiner Haseloff (CDU) erneut eine große Koalition. Amtsinhaber Böhmer trat aus Altersgründen nicht erneut zur Wahl an. Sachsen-Anhalt weist damit seit 1994 mit wechselnder Beteiligung ein Vier-Parteien-Parlament auf. Volksentscheide. Am 23. Januar 2005 fand im Land ein Volksentscheid zur Kita-Betreuung statt. Dieser scheiterte unecht u. a. an der niedrigen Wahlbeteiligung. Sonstiges. Laut Verfassungsschutzbericht war der Anteil von rechtsextremistisch motivierten Gewalttaten 2005 im Vergleich höher als in anderen Bundesländern. Im ersten Quartal 2007 wurde nahezu eine Halbierung der Straftaten verzeichnet, die aber nur auf eine "„andere Auslegung“" von Straftaten durch das Landeskriminalamt zurückzuführen war. 2006 wurden 1240 rechtsextreme Straftaten verzeichnet. Verwaltungsgliederung. Sachsen-Anhalt untergliedert sich in elf Landkreise und drei kreisfreie Städte. Die derzeitige Verwaltungsstruktur entstand durch zwei Kreisreformen, wobei in der ersten Kreisgebietsreform am 1. Juli 1994 aus vormals 37 Landkreisen 21 neue Landkreise gebildet wurden, deren Zahl am 1. Juli 2007 auf elf reduziert wurde ("siehe auch:" Kreisreform Sachsen-Anhalt 2007). Sachsen-Anhalt gliedert sich in 218 Gemeinden, darunter 104 Städte, von denen drei kreisfrei sind (Stand: 1. Januar 2014). Bis 31. Dezember 2009 gab es 857 Gemeinden, die zur Erfüllung ihrer Aufgaben in Verwaltungsgemeinschaften oder Verbandsgemeinden zusammengeschlossen waren. Diese wurden im Rahmen der Gemeindegebietsreform 2010 aufgelöst und meist in Einheitsgemeinden umgewandelt. Bis 2003 gab es in Sachsen-Anhalt mit Dessau, Halle und Magdeburg drei Regierungsbezirke. Diese wurden zum 1. Januar 2004 aufgelöst, die Arbeit der Regierungspräsidien übernahm das für das gesamte Land eingerichtete Landesverwaltungsamt mit Sitz in Halle (Saale) und Nebenstellen in Dessau und Magdeburg. Größte Städte. Blick vom Schlossgarten auf das Merseburger Schloss Wappen und Flagge. Das Wappen Sachsen-Anhalts symbolisiert im oberen Feld die ehemalige preußische Provinz Sachsen, im unteren Feld den ehemaligen Freistaat Anhalt. Die Landesfarben sind gelb-schwarz. "Genaueres siehe in den Artikeln Wappen Sachsen-Anhalts und Flagge Sachsen-Anhalts" Medien. Die Landeshauptstadt Magdeburg ist Sitz des Landesfunkhauses Sachsen-Anhalt, das zum Mitteldeutschen Rundfunk gehört. Die Medienanstalt Sachsen-Anhalt hat ihren Sitz in Halle (Saale). In einigen Gebieten gibt es private Fernsehsender wie das Magdeburger Fernsehen 1, das Regionalfernsehen Harz oder TV Halle. Die größten Tageszeitungen sind die in Magdeburg erscheinende Volksstimme und die Mitteldeutsche Zeitung in Halle (Saale) mit einer Auflage von jeweils rund 190.000 Exemplaren. Nach 1945. Mit der Gliederung der Länder in Bezirke wurde das Gebiet des heutigen Sachsen-Anhalts 1952 im Wesentlichen in die zwei Bezirke Halle und Magdeburg aufgeteilt. Im planwirtschaftlichen System der DDR wurde der Bezirk Halle zum Chemiestandort ausgebaut, geprägt von großen Chemiefabriken in Leuna (Leunawerke), Schkopau (Buna-Werke) und Bitterfeld/Wolfen, die auch heute noch das sogenannte Mitteldeutsche Chemiedreieck bilden. Auch das Mitteldeutsche Braunkohlerevier, zu dem das Geiseltal und das Bitterfelder Bergbaurevier gehören sowie die Kupfererzförderung im Mansfelder Land und um Sangerhausen beschäftigten Zehntausende von Arbeitern. Die Wirtschaft im Bezirk Magdeburg hingegen war einerseits durch großflächige Landwirtschaft in der Börde und Altmark geprägt, andererseits durch Schwermaschinenkombinate wie SKET, die VEB Schwermaschinenbau „Karl Liebknecht“ oder die VEB Schwermaschinenbau Georgi Dimitroff in Magdeburg, in welchen die zahlreichen Maschinenbaufirmen aus der Zeit vor 1945 zusammengefasst wurden. Seit 1990. Sachsen-Anhalt verarbeitete den wirtschaftlichen Strukturwandel nach 1990 mit Erfolg und Rückschlägen zugleich. Die großen Kombinate hatten schwere strukturbedingte Schwierigkeiten beim Übergang in die Soziale Marktwirtschaft, da ihre technischen Anlagen meist völlig veraltet waren, durch einen hohen Einsatz von Arbeitskräften geprägt waren und schwere Umweltschäden verursachten. Insbesondere die Kombinate im Maschinenbau, dem Chemiedreieck und im Bergbau brachen rasch nach der Wende zusammen, was den Verlust von mehreren zehntausend Arbeitsplätzen zur Folge hatte. Die Arbeitslosigkeit stieg von 10,3 % (167.127 Menschen) im Jahre 1991 über 16,5 % (208.149 Menschen) im Jahre 1995 auf den Höchststand von 21,7 % 1998/1999 und verharrte auf diesem, in Deutschland zu dieser Zeit höchsten Niveau über mehrere Jahre bis 2005. Ab 2005 sank die Arbeitslosigkeit langsam und kontinuierlich auf rund 11,5 % im Frühjahr 2011, was im Ländervergleich dem 14. von 16 Rängen entspricht. Dabei zeigt sich auch innerhalb des Bundeslandes ein Gefälle: so betrug die Quote im Landkreis Börde im Mai 2011 7,9 % und lag im Landkreis Mansfeld-Südharz mit 14,3 Prozent fast doppelt so hoch. Die Landwirtschaft als eine der erfolgreichsten Branchen Sachsen-Anhalts Insgesamt gelang dem Land seit 1990 eine langsame, aber relativ stetige wirtschaftliche Erholung. Das Bruttoinlandsprodukt (BIP) verdoppelte sich in sieben Jahren von 20,3 Milliarden Euro im Jahr 1991 auf 42,7 Milliarden Euro im Jahr 1998. Die nächsten sieben Jahre bis 2005 waren von einer geringeren Dynamik geprägt, das BIP wuchs lediglich auf 47,4 Milliarden Euro, was rund zehn Prozent Wachstum entspricht. 2006 sprang das Wachstum wieder stärker an und das BIP stieg bis 2008 auf 52,7 Milliarden Euro, was rund elf Prozent in drei Jahren entspricht. Mit einem Rückschlag durch Finanz- und Wirtschaftskrise in 2009 liegt das BIP 2010 bei 52,1 Milliarden Euro, womit es im Ländervergleich auf dem 12. Platz liegt. Die wichtigsten Wirtschaftszweige sind heute vor allem die Chemieindustrie, der Maschinenbau, das Ernährungsgewerbe und der Tourismus, unterstützt durch eine starke, öffentlich geförderte Forschungslandschaft. Neben den traditionellen Branchen haben sich auch der Dienstleistungssektor und neue Industrien wie Automobilindustrie, Biotechnologie, Informations- und Kommunikationstechnologien, Medien, Holzindustrie, Nachwachsende Rohstoffe, Windenergie und Photovoltaik als wichtige Branchen etabliert. Die Strukturschwäche des Landes bleibt jedoch bestehen. Die Region zwischen Halle und dem in Sachsen liegenden Leipzig bildet eine wirtschaftliche Schwerpunktregion, die besonders von guter verkehrstechnischer Erreichbarkeit profitiert (Autobahnen A 9, A 14, A 38, A 143, Flughafen Leipzig-Halle, Bahnknotenpunkt Halle). Traditionell befindet sich in der Gegend mit dem „Chemiedreieck“ ein Schwerpunkt von Chemie- und Erdölindustrie in Deutschland. Insbesondere in Leuna wurden in den letzten Jahren die größten Auslandsinvestitionen ganz Ostdeutschlands getätigt. Auch die Region nördlich und westlich von Magdeburg ist mit ihrer günstigen Lage zwischen Berlin und Hannover am Kreuz von A 2 und A 14 sowie dem Wasserstraßenkreuz zunehmend ein Investitions- und Ansiedlungsschwerpunkt geworden. Hochschulen und Forschungseinrichtungen. In Sachsen-Anhalt hat sich seit 1990 eine ausgeprägte Forschungs- und Wissenschaftslandschaft entwickelt. Neben der Otto-von-Guericke-Universität Magdeburg und der Martin-Luther-Universität Halle-Wittenberg verfügt das Land Sachsen-Anhalt über acht weitere Hochschulen. Die Rektoratsvilla auf dem Wernigeröder Hochschulcampus (HS Harz) Insbesondere um die beiden Universitäten haben sich Forschungseinrichtungen der großen deutschen Forschungsinstitute angesiedelt. So gibt es heute fünf Institute der Wissenschaftsgemeinschaft Gottfried Wilhelm Leibniz, drei Max-Planck-Institute, eine Max-Planck-Forschungsstelle, zwei Fraunhofer-Einrichtungen und Standorte von zwei Großforschungseinrichtungen der Helmholtz-Gemeinschaft. Hinzu kommt das Julius Kühn-Institut mit Sitz in Quedlinburg. Helmholtz-Gemeinschaft. Mit teilweise expliziten Stadtvierteln und Standorten für Forschungsinstitute wie dem Wissenschaftshafen in Magdeburg und dem Weinberg Campus in Halle versuchen die Städte, weitere Ansiedlungen von technologie- und forschungsaffinen Einrichtungen besonders zu unterstützen. Mit der Deutschen Akademie der Naturforscher Leopoldina hat die älteste dauerhaft existierende naturforschende Akademie der Welt ihren Sitz in Sachsen-Anhalt. Am 14. Juli 2008 wurde die Leopoldina zur Nationalen Akademie der Wissenschaften Deutschlands erklärt. Sie hat ihren Sitz seit 1878 in Halle. Energie. Zu DDR-Zeiten sollte das Kernkraftwerk Stendal als größtes seiner Art entstehen und wäre mit einer Gesamtleistung von 4000 Megawatt auch das größte Kernkraftwerk Deutschlands insgesamt geworden. Das Kraftwerk Schkopau ist das gegenwärtig größte Kraftwerk, das mit fossilen Brennstoffen betrieben wird und eine Leistung von 900 MW hat. Der größte Windpark des Landes befindet sich zwischen den Orten Biere und Borne; er hat eine Leistung von 109 MW. Im Bundesländervergleich „Erneuerbare Energie“ wurde Sachsen-Anhalt im Jahr 2012 in der Kategorie „Wirtschaftsmotor“ als Sieger ausgezeichnet. In der Gesamtwertung zwar nur auf Platz 5 verortet, steht das Land demnach insbesondere bei den Wirtschafts- und Beschäftigungseffekten der Erneuerbaren-Energien-Branche gut da. Durch Produktionsanlagen von Unternehmen der Branche, aber auch durch die eigene intensive Nutzung erneuerbarer Energien wird die regionale Wertschöpfung durch Wind, Sonne und Biomasse vorangetrieben. Gemäß dem Energiekonzept 2020 der Landesregierung sollen Erneuerbare Energien bis 2020 einen Anteil von 20 % am Primärenergieverbrauch erreichen. Große Bedeutung hat insbesondere die Windenergie. Im Jahr 2012 konnten die in Sachsen-Anhalt installierten Windkraftanlagen knapp 50 % des Nettostrombedarfs des Landes decken. Damit rangiert das Land deutschlandweit nach Mecklenburg-Vorpommern auf dem zweiten Platz. Schienenverkehr. Eine der ersten Bahnstrecken Deutschlands wurde 1840 zwischen Köthen und Dessau eröffnet. Nach dem abschnittsweisen Ausbau der sogenannten Anhalter Bahn über Wittenberg und Jüterbog endete diese Strecke im Berliner Anhalter Bahnhof. Köthen wurde zum ersten Eisenbahnknoten Deutschlands, da es bereits an der Magdeburg-Leipziger Eisenbahn lag. Deren Strecke erreichte im Juni 1840 Köthen, nachdem 1839 zwischen Magdeburg und Schönebeck der Verkehr aufgenommen worden war. Heute sind die wichtigsten Bahnstrecken des Landes die als Lehrter Bahn bezeichnete Strecke von Berlin nach Hannover über Stendal, die Bahnstrecke Berlin–Halle als Verbindung zwischen Berlin und München, die Strecke Berlin–Magdeburg, die Strecke Magdeburg–Braunschweig mit Verbindungen nach Hannover sowie die Bahnstrecke Magdeburg–Leipzig, mit der Magdeburg und Halle verbunden sind. Hinzu kommt ein Netz aus weiteren Haupt- und Nebenbahnen, welche die Städte des Landes verbinden wie bspw. der Harz-Elbe-Express (HEX) mit Verbindungen von Magdeburg und Halle in die Harzvorstädte und den Harz. Vor allem touristische Zwecke erfüllen die Harzer Schmalspurbahnen (HSB). Wichtigste Bahnknoten sind Halle und Magdeburg, ferner sind auch die Bahnhöfe in Stendal, Halberstadt, Köthen, Dessau, Lutherstadt Wittenberg, Bitterfeld, Weißenfels, Naumburg und Sangerhausen von Bedeutung. In den Großräumen Magdeburg und Halle existieren S-Bahnen (S-Bahn Mittelelbe, S-Bahn Mitteldeutschland). Straßennetz. Von überregionaler Bedeutung sind vor allem vier Bundesautobahnen, die das Land durchziehen. In Ost-West-Richtung verläuft im nördlichen Sachsen-Anhalt an Magdeburg vorbei die A 2 Berlin–Hannover, im östlichen Teil des Landes verläuft die A 9 Berlin–München in Nord-Süd-Richtung und erschließt die Städte Dessau, Bitterfeld, Halle und Weißenfels. Quer durch Sachsen-Anhalt verläuft die A 14 von Dresden über Halle nach Magdeburg und tangiert dabei Bernburg, Staßfurt und Schönebeck. Geplant ist eine Verlängerung dieser Autobahn nach Norden über Stendal, Osterburg (Altmark) und Wittenberge (Brandenburg) zum Dreieck Schwerin (Altmark-Autobahn). Im Süden Sachsen-Anhalts verläuft in öst-westlicher Richtung die A 38 (Leipzig–Göttingen), tangiert Sangerhausen und erschließt den Südharz. Verbunden wird diese Autobahn mit der A 14 durch die A 143, die westlich um die Stadt Halle herumführt und nach Fertigstellung zur Mitteldeutschen Schleife, einem Autobahn-Doppelring um die Städte Halle und Leipzig, werden soll. Für das mittlere Sachsen-Anhalt ist die Bundesstraße 6n von Bedeutung, die als Verlängerung der A 395 nördlich des Harz die Städte Wernigerode, Blankenburg (Harz), Thale, Quedlinburg und Aschersleben erschließt und bei Bernburg auf die A 14 trifft. Die Weiterführung zur A 9 südlich von Dessau ist geplant und teilweise im Bau. Das nördliche Sachsen-Anhalt erschließen von Magdeburg aus vor allem die B 71 und B 189, die in Ermangelung einer Autobahn in dieses Gebiet ein hohes Verkehrsaufkommen haben. Die B 71 bindet Haldensleben, Gardelegen und Salzwedel an, die B 189 die Städte Stendal, Osterburg (Altmark) und Seehausen (Altmark). Den Norden Sachsen-Anhalts verbindet die B 190 von Salzwedel nach Seehausen. Durch Sachsen-Anhalt verläuft als Teil der Transromanica auch die Straße der Romanik, eine Ferienstraße, die wegen des großen romanischen Erbes dieser Landschaft eingerichtet wurde. Ebenfalls durch Sachsen-Anhalt führt die Straße der Familie Bismarck. Flugverkehr. Karte der Flughäfen und Landeplätze in Sachsen-Anhalt Zwischen Halle und Leipzig befindet sich auf sächsischem Gebiet der Interkontinental-Halle. In Magdeburg liegt der Flugplatz Magdeburg, der vorrangig von Sport- und Privatfliegern genutzt wird. In der Nähe der Stadt Aschersleben gibt es den Flughafen Cochstedt, der mehrere Jahre ohne Betrieb war und seit dem 30. März 2011 von Ryanair genutzt wird. Wasserstraßen. Durch Sachsen-Anhalt verlaufen mit der Elbe, der Saale, dem Mittellandkanal und dem Elbe-Havel-Kanal wichtige Wasserstraßen, die sich bei der Landeshauptstadt Magdeburg am Wasserstraßenkreuz treffen. Binnenhäfen bestehen u. a. mit dem Hafen Magdeburg und dem Hafen Halle (Saale). Kultur. Die Kulturlandschaft Sachsen-Anhalts ist, im Gegensatz zu den angrenzenden Ländern Brandenburg, Sachsen oder Thüringen, regional äußerst unterschiedlich und weist verhältnismäßig wenige Gemeinsamkeiten auf. Zunächst unterscheidet sich das bereits ab 700 besiedelte altdeutsche Bauerngebiet westlich von Saale und Elbe von den während der deutschen Ostkolonialisierung im 12. Jahrhundert germanisierten slawischen Siedlungsgebieten östlich der beiden Flüsse. So entstand ab 700 zwischen Magdeburg und dem Harz ein Siedlungsgebiet, dass – wie das angrenzende Südniedersachsen – zu Ostfalen gezählt wird. Südlich des Harzes entstand gleichzeitig ein thüringisch geprägtes Gebiet zwischen Zeitz und Sangerhausen. Im Norden des Landes bildete sich um das Jahr 1000 das Siedlungsgebiet der Altmark, die dem heutigen Brandenburg sehr ähnlich ist. Gleiches gilt auch für das Jerichower Land zwischen Elbe und Fläming. Im Südosten des Landes, zwischen Halle und Wittenberg, entstand ab 1100 eine Region, die kulturell enge Verbindungen zu Sachsen aufweist. In der Mitte des Landes zieht sich in einem schmalen Streifen vom Harz bis nach Dessau die Region Anhalt hin, die eine Mischregion aus kulturellen Einflüssen Ostfalens, Thüringens, Sachsens und Brandenburgs darstellt. Damit kann man das heutige Bundesland Sachsen-Anhalt in die Kulturräume Altmark im Norden, Jerichower Land im Osten, Ostfalen im Westen, thüringisch geprägte Gebiete im Südwesten und sächsisch geprägte Gebiete im Südosten unterteilen. Dazwischen liegt in der Landesmitte Anhalt. Städte. Am 31. Dezember 2006 lebten 1.116.692 von 2.441.787 Einwohnern in Städten mit mehr als 20.000 Einwohnern, was einem relativ niedrigen Verstädterungsgrad von 45,73 % entspricht. Obwohl die meisten Städte bereits seit 1940 schrumpfen, bilden sie die kulturellen Zentren des Landes. Dies gilt insbesondere für die beiden größten Städte Magdeburg und Halle sowie für die Bauhaus-Stadt Dessau und die Lutherstadt Wittenberg. Bedingt durch die kulturellen Unterschiede der Landesteile unterscheiden sich auch die Stadtbilder erheblich. Von der Backsteingotik des norddeutschen Mittelalters sind beispielsweise die Städte Stendal, Salzwedel, Tangermünde, Gardelegen und Burg geprägt. Durch Romanik und Gotik sind besonders die Städte in der Harzregion wie beispielsweise Halberstadt, Wernigerode, Sangerhausen, Aschersleben und in besonderem Maße Quedlinburg und Eisleben geprägt. Auch Naumburg, Merseburg, Zeitz und Schönebeck tragen heute noch eine mittelalterliche Prägung in ihrem Weichbild. Die folgenden Stilepochen der Renaissance und des Barocks sind in vielen Städten vertreten, hervorzuheben sind hier vor allem die Renaissancebauten in Wittenberg, das zu dieser Zeit eine Blütephase erlebte. Auch die Residenzstädte Köthen, Bernburg und Weißenfels weisen heute eine Vielzahl an barocken Gebäuden auf. Die größte Stadt des Landes, Halle, hat ein stark durchmischtes Stadtbild von der Gotik bis zur modernen Architektur. Eine industriestädtische Prägung weist vor allem die Stadt Bitterfeld-Wolfen auf. Bedingt durch die starke Zerstörung im Zweiten Weltkrieg sind die Innenstädte Magdeburgs und Dessau-Roßlaus vor allem durch die sozialistische Nachkriegsarchitektur und Bauten der jüngsten Zeit geprägt. Nach dem Ideal der Sozialistischen Stadt entstanden zu DDR-Zeiten große Teile Wolfens sowie Halle-Neustadt, die größte Plattenbaustadt der DDR. Burgen. Begünstigt zur Anlage von Burgen waren vor allem die südlichen, hügeligen Landesteile. Im Norden und im Flachland griff man daher vor allem auf die Anlage von Wasserburgen zurück. Entlang der deutsch-slawischen Siedlungsgrenze des frühen Mittelalters entstanden auch Stadtburgen (Magdeburg, Bernburg, Merseburg, Naumburg). Zu den ältesten Burgen des Landes gehören die ottonischen Königspfalzen, die sich unter anderem in Allstedt, Magdeburg, Memleben, Merseburg, Quedlinburg, Tilleda und Westerburg befanden. Zu den bedeutendsten heute erhaltenen Burgen gehören die Burg Falkenstein (Harz), die Burg Landsberg mit einer Doppelkapelle der Stauferzeit, die Neuenburg bei Freyburg an der Unstrut, die großflächige Burg Querfurt, die Rudelsburg und Burg Saaleck über dem Naumburger Saaletal, die Burg Giebichenstein, die Moritzburg in Halle sowie die Burg Wettin als Stammsitz des europäischen Herrschergeschlechts der Wettiner und die Burg Anhalt im Harz als Ursprung Anhalts. Daneben gibt es noch eine Vielzahl von Burgen und Burgruinen, vor allem im Harz, aber auch in anderen Landesteilen. Später wurde die Stadt Magdeburg durch die Preußen zur Festung ausgebaut und dadurch zu einer der stärksten Festungen Deutschlands (siehe hierzu: Festung Magdeburg). Schlösser. Die meisten Schlösser Sachsen-Anhalts stammen aus der Zeit der Renaissance und des Barocks. Im Harz gibt es viele Stadtschlösser, die aus Burgen hervorgingen und sich oberhalb der mittelalterlichen Altstädte befinden. Das bekannteste dieser Schlösser ist das Schloss Wernigerode, aber auch das Schloss Stolberg, das Schloss Blankenburg oder das Schloss Mansfeld lassen sich in diese Kategorie einordnen. Oft handelt es sich hierbei um Mischformen aus Burg und Schloss. Des Weiteren gibt es in Sachsen-Anhalt einige Residenzschlösser. Dazu gehören das Schloss Bernburg (Fürstentum Anhalt-Bernburg), der Johannbau in Dessau (Fürstentum Anhalt-Dessau) das Schloss Moritzburg (Sachsen-Zeitz), das Schloss Neu-Augustusburg (Sachsen-Weißenfels) und das Schloss Wittenberg (Kurfürstentum Sachsen). Eine dritte Gruppe bilden Land- und Sommerresidenzen wie beispielsweise Schloss Mosigkau bei Dessau oder das gesamte Dessau-Wörlitzer Gartenreich mit mehreren Schlösschen. Auch Schloss Oranienbaum und Schloss Zerbst (Katharina die Große) gehören in diese Gruppe. Kirchen und Klöster. a> das Wahrzeichen der „Fünf Türme“ bildet Die größte Blütezeit erlebte der Kirchenbau im Land zur Zeit der Romanik und der Gotik. Es entstanden mehrere Dome (Magdeburger Dom, Hallescher Dom, Merseburger Dom, Naumburger Dom, Zeitzer Dom, Halberstädter Dom und Havelberger Dom) sowie eine Vielzahl großer Stadtkirchen (z. B. St. Stephani in Aschersleben, St. Stephani in Calbe, die Marienkirche und die Johanniskirche in Dessau, die Martinikirche und die Liebfrauenkirche in Halberstadt, die Marktkirche in Halle, St. Jakob in Köthen, St. Wenzel in Naumburg, die Nikolaikirche in Quedlinburg, St. Jakobi in Schönebeck, St. Marien in Stendal, St. Stephan in Tangermünde und die Stadtkirche in Wittenberg). Baugeschichtlich bedeutsam sind vor allem die Stiftskirche Gernrode und die Stiftskirche Quedlinburg. Auch die Stiftskirche Walbeck zählt zum Erbe der ottonischen Baukunst. Die meisten Kirchen der Magdeburger Altstadt wurden im Zweiten Weltkrieg zerstört und später abgetragen. Neben dem Dom sind dort aber noch einige bedeutende Kirchen erhalten, so das Kloster Unser Lieben Frauen, die Sankt-Petri-Kirche, die Sankt-Sebastian-Kirche, die Sankt-Johannis-Kirche und die Sankt-Nicolai-Kirche als Vorbild der Normalkirche Schinkels. Die meisten Klöster Sachsen-Anhalts wurden nach der Reformation im Lauf des 16. Jahrhunderts aufgelöst, sodass heute hauptsächlich romanische und gotische Klosterkirchen oder -ruinen erhalten sind. Dazu zählen beispielsweise die Huysburg, das Kloster Drübeck, das Kloster Gröningen, das Kloster Hadmersleben, das Kloster Hamersleben, das Kloster Hillersleben und das baugeschichtlich bedeutsame Kloster Jerichow. Im Kloster Pforta bei Naumburg hat sich die 1543 gegründete Landesschule Pforta eingerichtet. Handball. Sachsen-Anhalt, speziell Magdeburg, ist eine Hochburg des Handballs. Der traditionsreiche SC Magdeburg spielt in der 1. Handball-Bundesliga und mit seiner zweiten Mannschaft in der 3. Handball-Bundesliga, wo außerdem noch der SV Anhalt Bernburg, der Dessau-Roßlauer HV sowie der HC Aschersleben spielen. In der 2. Bundesliga, allerdings bei den Frauen, ist der SV Union Halle-Neustadt aktiv. Basketball. Im südlichen Sachsen-Anhalt ist einer der erfolgreichsten Basketballclubs Ostdeutschlands beheimatet. Der Mitteldeutsche Basketball Club (MBC) aus Weißenfels spielte fünf Jahre lang – von 1999 bis 2004 – in der 1. Basketballbundesliga BBL. 2004 gewann das Team den Europapokal des FIBA Europe Cup Men. Nach einigen Jahren in der 2. Bundesliga Pro A und Vizemeisterschaften 2006 und 2007 gelang dem MBC in der Saison 2008/2009 erneut der Aufstieg in die 1. Liga. Mit den SV Halle Lions stellt Sachsen-Anhalt zudem eine Frauenbasketballmannschaft in der 1. Bundesliga DBBL. Außerdem stellt der BBC Magdeburg mit den „Otto Baskets“ eine Basketball-Mannschaft, welche in der Saison 2013/2014 in der 2. Basketball-Bundesliga Pro A und zurzeit in der 2. Basketball-Bundesliga Pro B spielt. Fußball. In Sachsen-Anhalt ist der ehemalige Europapokalsieger 1. FC Magdeburg beheimatet, der seit dem Gewinn der Relegationsspiele 2015 mit dem Halleschen FC ebenfalls in der Dritten Liga spielt. Der VfB Germania Halberstadt wird in der Fußball-Regionalliga Nordost der Männer an den Start gehen. In der 2. Bundesliga der Frauen spielt der Magdeburger FFC. Motorsport. In Oschersleben (Bode) befindet sich die Motorsport Arena Oschersleben, in der nationale und internationale Auto- und Motorradrennen stattfinden. In Teutschenthal befindet sich eine Motocross-Rennstrecke, auf der schon einige Male der Motocross-Weltmeisterschaften stattfanden. Sonstiges. Sachsen-Anhalt hatte im Jahr 2006 die niedrigste Suizidrate aller deutschen Länder. Schleswig-Holstein. Schleswig-Holstein (, friesisch "Slaswik-Holstiinj", Abkürzung "SH") ist eine parlamentarische Republik und das nördlichste Land der Bundesrepublik Deutschland. Die Landeshauptstadt ist Kiel; die einzige weitere Großstadt ist Lübeck. Das Land zwischen den Meeren Nord- und Ostsee ist vor dem Saarland das zweitkleinste deutsche Flächenland. Schleswig-Holstein nimmt mit einer Fläche von rund 15.800 km² den zwölften Platz unter den 16 deutschen Ländern ein und steht bei der Einwohnerzahl mit etwa 2,8 Millionen auf dem neunten Platz. Das heutige Land ging nach dem Zweiten Weltkrieg aus der preußischen Provinz Schleswig-Holstein hervor. Es grenzt im Norden mit der Staatsgrenze an die dänische Region Syddanmark, über eine Seegrenze im Fehmarnbelt an die dänische Region Sjælland, im Süden an die Freie und Hansestadt Hamburg und das Land Niedersachsen sowie im Südosten an das Land Mecklenburg-Vorpommern. Geographie. Geografisch besteht Schleswig-Holstein aus dem südlichen Gebiet der Kimbrischen Halbinsel (Jütland) und einem Teil der Norddeutschen Tiefebene. Es ist eingeschlossen zwischen der Nordsee im Westen, der Ostsee und Mecklenburg-Vorpommern im Osten, Hamburg und Niedersachsen im Süden und Dänemark im Norden. In der Kleinstadt Nortorf befindet sich der geographische Mittelpunkt Schleswig-Holsteins. Historisch gesehen besteht das heutige Schleswig-Holstein aus dem südlichen Teil des Herzogtums Schleswig, der Hansestadt Lübeck sowie den beiden Herzogtümern Holstein und Lauenburg. Die Flüsse Eider und Levensau markierten die Grenze zwischen den Herzogtümern Schleswig und Holstein und waren bis 1806 bzw. 1864 (Deutsch-Dänischer Krieg) auch die Nordgrenze des Heiligen Römischen Reiches bzw. des Deutschen Bundes. Nachdem aus den beiden Herzogtümern Schleswig und Holstein die preußische Provinz Schleswig-Holstein gebildet worden war, wurde 1876 das Herzogtum Lauenburg als Landkreis angegliedert. Mit dem „Gesetz über Groß-Hamburg und andere Gebietsbereinigungen“ (Groß-Hamburg-Gesetz) fielen 1937 der Landesteil Lübeck (Kreis Eutin) des Freistaats Oldenburg, die Hansestadt Lübeck und die vormals Hamburger Exklaven Geesthacht, Großhansdorf und Schmalenbeck an Schleswig-Holstein. Im Tausch dafür gingen die holsteinischen Städte Altona (bis dahin größte Stadt des Landes) und Wandsbek sowie mehrere Landgemeinden, darunter Blankenese, an Hamburg. Landschaften. Die Landschaft Schleswig-Holsteins gliedert sich von West nach Ost in die Marsch, die hohe und niedere Geest und das Schleswig-Holsteinische Hügelland (auch Östliches Hügelland genannt). Diese Landschaft und auch die Geest sind in der letzten Eiszeit als Endmoränenlandschaft entstanden. Weiter östlich befindet sich die ebenfalls zum Land gehörende Insel Fehmarn, welche als Grundmoräne auch aus der letzten Eiszeit hervorging. Größter Fluss des Landes ist die Eider, höchste Erhebung der Bungsberg (168 m). Die Westküste ist durch das Wattenmeer geprägt, wobei im Norden (Nordfriesland) neben den Nordfriesischen Inseln zahlreiche Halligen vorgelagert sind, die Halbinsel Eiderstedt ins Meer hineinragt. Die Landschaftsnamen der Wiedingharde und der Bökingharde sind heute noch als Bezeichnung von Ämtern erhalten. Südlich davon und schon teilweise in der Geest liegt die Nordergoesharde, die Südergoesharde ist eine reine Geestlandschaft. Zu der Landschaft der Inseln und Halligen gehört ebenfalls die Insel Helgoland. Südlich von Nordfriesland liegt zwischen Eider- und Elbmündung die Landschaft Dithmarschen, die sich aus den Gebieten Norderdithmarschen und Süderdithmarschen zusammensetzt. Daran schließen dann die Elbmarschen mit der Wilstermarsch und der Kremper Marsch an. Die ebenfalls sehr fruchtbare Ostküste ist durch Förden und Buchten in die hügeligen Halbinseln Angeln, Schwansen, Dänischer Wohld und Wagrien gegliedert. Die Landschaft um die großen Holsteinischen Seen wird als Holsteinische Schweiz bezeichnet. Die Landschaft der Hüttener Berge liegt im Binnenland an der Grenze zur Geest. Die Geest selbst konnte aufgrund der für den Ackerbau wenig geeigneten Böden erst spät erschlossen werden – selbst die Versuche der Heide- und Moorkolonisation im 18. Jahrhundert können noch als gescheitert angesehen werden. Entsprechend dünn gesät sind hier die traditionellen Landschaften. Dabei sind besonders die Schleswigsche Geest auf der schon früh für den Verkehr wichtigen Landenge zwischen Schlei und der Eider mit der bereits genannten Südergoesharde und der Landschaft Stapelholm zu nennen. Bei Neumünster liegt der Naturpark Aukrug und östlich von Hamburg die Landschaft Stormarn, deren östlicher Teil heute den Kreis Stormarn bildet. Im Verhältnis zu den anderen Bundesländern ist Schleswig-Holstein waldarm, da die Wälder hier nur rund 10 Prozent der Landesfläche bedecken. Natur- und Landschaftsschutz. National- und Naturparks in Schleswig-Holstein Das Land beherbergt mit dem Nationalpark Schleswig-Holsteinisches Wattenmeer den größten Nationalpark Mitteleuropas, der zum Teil auch als Biosphärenreservat ausgewiesen ist. Außerdem liegt mit den Naturschutzgebieten „Hohes Elbufer zwischen Tesperhude und Lauenburg“ und „Lauenburger Elbvorland“ als Kerngebieten ein – wenn auch geringer – Teil des Biosphärenreservats Flusslandschaft Elbe in Schleswig-Holstein. Insgesamt wurden in den letzten 80 Jahren durch Landesverordnungen insgesamt 189 Naturschutzgebiete und 275 Landschaftsschutzgebiete festgelegt. Ohne den Nationalpark nehmen die Gebiete 2000 km² ein, wovon etwa 1600 km² Meer- oder Wattgebiete sind. Oft betreuen Naturschutzverbände die Gebiete aufgrund eines Vertrages mit dem Land. Zusätzlich bestehen sechs Naturparks: Naturpark Schlei, Naturpark Hüttener Berge, Naturpark Westensee, Naturpark Aukrug, Naturpark Holsteinische Schweiz und Naturpark Lauenburgische Seen. Keiner schließt Meeres- oder Küstengebiete ein. Unmittelbar an den Naturpark Lauenburgische Seen schließt in Mecklenburg-Vorpommern das Biosphärenreservat Schaalsee an. Eine Besonderheit ist die Haseldorfer Graureiherkolonie, ein Artenschutzgebiet in Haseldorf, Kreis Pinneberg. Sie ist die größte und eine der bedeutendsten Brutkolonien des Graureihers in Schleswig-Holstein. Daten. Schleswig-Holstein hat 2,81 Millionen Einwohner, die Bevölkerungsdichte von 179 Einwohnern/km² liegt rund ein Fünftel unter dem Bundesdurchschnitt. Altersaufbau und Geschlechterverteilung entsprechen weitgehend den bundesweiten Verhältnissen. Von den Frauen sind 45,7 % verheiratet, 12,9 % verwitwet und 6,4 % geschieden. Bei den Männern sind es 47,7 %, 2,6 % und 5,4 %. Die Bevölkerung ist geografisch ungleichmäßig verteilt. Neben den kreisfreien Städten ist das Hamburger Umland, insbesondere die Kreise Pinneberg und Stormarn, dicht besiedelt, der Landesteil Schleswig und der Kreis Dithmarschen dagegen vergleichsweise dünn. Ursprünglich ansässige Bevölkerung. Die historisch angestammte Bevölkerung ist (nieder-)sächsischen, anglischen, jütischen, friesischen und slawischen Ursprungs. Bis zur Völkerwanderung war das nördliche Schleswig-Holstein noch von den Angeln besiedelt. Hiervon zeugt noch heute die Landschaftsbezeichnung Angeln. In der Wikingerzeit siedelten im mittleren und östlichen Schleswig Dänen, im westlichen Schleswig Friesen, im mittleren und südwestlichen Holstein Sachsen und im Osten Holsteins und Lauenburgs die slawischen Stämme der Wagrier und Polaben. Minderheiten. In Schleswig-Holstein lebt eine dänische (angestammt im Landesteil Schleswig, inzwischen auch in Holstein), eine friesische (an der nordfriesischen Küste und auf den Inseln) und eine traditionelle Minderheit der Sinti und Roma (vor allem in den Großstädten Kiel und Lübeck sowie im Hamburger Umland). Diese Minderheiten stehen unter besonderem Schutz der schleswig-holsteinischen Landesverfassung nach Art. 5; ihre Minderheitensprachen stehen wie das Plattdeutsche unter dem Schutz nach der Europäischen Charta der Regional- und Minderheitensprachen (siehe auch: Sprachen und Dialekte in Schleswig-Holstein). Flüchtlinge und Vertriebene. Bezogen auf die eigene Einwohnerzahl nahm Schleswig-Holstein von allen westdeutschen Ländern während und nach dem Zweiten Weltkrieg am meisten Flüchtlinge bzw. Vertriebene auf. Diese stammten überwiegend aus Hinterpommern und Ostpreußen. So wuchs die Bevölkerung zwischen 1944 und 1949 um 1,1 Millionen. Die Integration der Flüchtlinge war vor allem in ländlichen Regionen von Konflikten geprägt. Zuwanderung aus dem Ausland. Wegen der geografisch abgeschiedenen Lage und der eher schwachen Wirtschaftsentwicklung hat Schleswig-Holstein unter den westdeutschen Ländern den niedrigsten Anteil von Ausländern. (1999: 5,1 %). Von den 140.000 hier lebenden Ausländern kommen gut drei Viertel aus Europa, davon 22 % der gesamten Ausländer aus den alten Ländern der Europäischen Union. Die größte Gruppe aller Ausländer kam (2012) mit 30.000 aus der Türkei, die zweitgrößte stammte mit 15.400 Personen aus Polen. Geschichte. Siedlungsgebiete zwischen 800 und 1100 im heutigen Schleswig-Holstein Besiedlung und Entstehung von Schleswig und Holstein. Schleswig-Holstein wurde nach der letzten Eiszeit von Jägern und Sammlern besiedelt. Ab etwa 4000 v. Chr. kamen Ackerbauern ins Land, die zwischen 3500 und 2800 Megalithanlagen errichteten, von denen nur noch über 100 erhalten sind. Vermutlich bereits seit der Bronzezeit führte der Ochsenweg durch das Land, der in historischen Zeiten dem Handel der nordjütischen Viehbestände diente. In der Zeit der Völkerwanderungen verließen zahlreiche der zu den Germanen zählenden Volksgruppen das Land, so wanderten zwischen dem 3. und dem 5. Jahrhundert die Angeln aus dem gleichnamigen Gebiet nördlich der Schlei nach Britannien aus, wo sie sich mit anderen Völkern zu den Angelsachsen vereinigten und namensgebend für das spätere England wurden. Schleswig-Holstein war zu der Zeit sehr gering besiedelt. Bis zum frühen Mittelalter entwickelten sich im heutigen Schleswig-Holstein vier Völker- und Sprachgruppen: Im nördlichen Teil bis zu einer Linie Eider – Treene – Eckernförde germanische Jüten und nordgermanische Dänen, im nordwestlichen Teil seit dem 7. Jahrhundert westgermanische Friesen, im östlichen Teil slawische Abodriten, im südwestlichen Teil bis zur Linie Eider – Kiel – Preetz – Eutin – Elbe westgermanische Sachsen, deren Stamm der Holsten später namensgebend für den südlichen Landesteil "Holstein" wurden. Nach der Auswanderungswelle der Angeln drangen dänische und jütische Siedler nordöstlich ins Land vor. Sie gründeten um 770 mit Haithabu einen der bedeutendsten Handelsplätze des frühen Mittelalters und errichteten mit dem Danewerk einen Schutzwall gegen die Sachsen. Im Zuge der Sachsenkriege kam der südliche Teil des Landes unter den Einfluss des Frankenreichs. Zwischen 768 und 811 kam es immer wieder zu Konfrontationen zwischen dem König des Frankenreiches und späteren christlichen Kaiser Karl dem Großen und den heidnischen Nordgermanen, in deren Zuge auch das Danewerk ausgebaut wurde. 811 wurde in einem Friedensvertrag die Eider als Grenze zwischen dem Karolinger- und dem Dänenreich festgeschrieben. Mit der zunehmenden Besiedlung im 12. und 13. Jahrhundert verlor die Eidergrenze ihre tatsächliche Bedeutung als Trennungslinie, sie blieb aber bis zum Ende des Heiligen Römischen Reiches 1806 bzw. bis 1864 als Grenze zwischen Schleswig und Holstein bestehen. Bis zur Einführung des Bürgerlichen Gesetzbuchs 1900 war sie zudem eine juristische Grenze, da in Schleswig bis zu diesem Zeitpunkt noch das Jütische Recht Dänemarks galt. Ab 1111 wuchs beiderseits der Eider die Eigenständigkeit, aus der die Herzogtümer Schleswig und Holstein (damals noch als Grafschaft) hervorgingen. Zugleich wurden zwischen den beiden Gebieten immer engere politische und wirtschaftliche Verbindungen geknüpft. Herrschaft der Schauenburger. Im frühen 13. Jahrhundert versuchte der dänische König, auch Holstein in sein Reich zu integrieren, er scheiterte nach anfänglichen Erfolgen jedoch 1227 in der Schlacht von Bornhöved am Widerstand norddeutscher Fürsten. Ab 1250 entwickelte sich die Hanse zu einem bedeutenden Macht- und Wirtschaftsfaktor und Lübeck wurde zu einer der bedeutendsten Städte Nordeuropas. Ab 1386 zeigten sich Schleswig und Holstein erstmals vereint im Wappen, als die Schauenburger Grafen Schleswig als dänisches Lehen erhielten und so die südliche Grafschaft und das nördliche Herzogtum unter einem Landesherrn banden. Nachdem holsteinische Grafen im 14. Jahrhundert ihren Einfluss weit nach Jütland hinein ausdehnen konnten, gelang es Margrete I. um 1400, wieder die dänische Lehnshoheit in Schleswig zu erlangen. Aber auch sie musste die Besitzansprüche der holsteinischen Adligen in Schleswig anerkennen. Durch zahlreiche Erbteilungen und Heimfälle ist die Territorialgeschichte Schleswigs und Holsteins sehr verwickelt. Der Dynastie der Schauenburger gelang es jedoch, eine schleswig-holsteinische Herrschaft zu errichten, sodass im Spätmittelalter von Schleswig-Holstein als einem faktisch zusammenhängenden Territorium gesprochen werden kann. 1474 wurde aus der Grafschaft Holstein das gleichnamige Herzogtum. Schleswig-Holstein um 1650; die Herzogtümer sind einem Flickenteppich gleich in zahlreiche Hoheitsgebiete aufgeteilt, von denen die "königlichen" und die "herzoglichen" Anteile sowie die gemeinschaftlich regierten Güterbezirke die größte Fläche einnehmen Dänische Vorherrschaft. 1460 wählte die Schleswig-Holsteinische Ritterschaft nach dem Aussterben der Schauenburger in direkter Linie den dänischen König Christian I. aus dem Haus Oldenburg zum Landesherrn, er war ein Neffe des letzten Schauenburgers Adolf VIII. Die im Vertrag von Ripen beschlossene Regelung bestimmte für die Herzogtümer, "„dat se bliven ewich tosamende ungedelt“" (dass sie ewig ungeteilt zusammenbleiben), eine Satzung, die schon bald gebrochen wurde. Der dänische König regierte Schleswig und Holstein nicht in seiner Eigenschaft als König, sondern als Herzog der beiden Gebiete, wobei das Herzogtum Schleswig ein königlich-dänisches Lehen blieb, während das Herzogtum Holstein zum Heiligen Römischen Reich Deutscher Nation gehörte und damit ein Reichslehen war. Christian I. und seine Nachfolger auf dem Thron waren demnach dänische Könige und deutsche Reichsfürsten in Personalunion. Die dänische Vorherrschaft bestand bis 1864. Christian III. führte 1542 mit der Kirchenordnung von Johannes Bugenhagen die Reformation ein. Schon 1544 brach der König den Vertrag von Ripen und übergab Teile der schleswig-holsteinischen Herzogtümer an seine jüngeren Halbbrüder Johann und Adolf I., wodurch die Teilherzogtümer Schleswig-Holstein-Gottorf und Schleswig-Holstein-Hadersleben entstanden. 1564 übergab sein Sohn, König Friedrich II., ebenfalls Teile seines Besitzes in den Herzogtümern an seinen Bruder Johann, womit ein weiteres Teilherzogtum in Schleswig-Holstein entstand, das Herzogtum Schleswig-Holstein-Sonderburg. Dieses Mal verweigerten die Stände ihre Zustimmung zum erneuten Bruch des Vertrags von Ripen und versagten ihm die Huldigung, sodass der Herzog von Sonderburg zum ersten der Abgeteilten Herren ohne Regierungsrechte wurde. Der Sonderburger Anteil zerfiel im Folgenden in zahlreiche abgeteilte Duodezherzogtümer. Das Haderslebener Herzogtum wurde aufgrund fehlender männlicher Erben schon 1580 wieder aufgelöst, das Herzogtum Schleswig-Holstein-Gottorf jedoch entwickelte sich zu einem bedeutenden politischen und kulturellen Machtfaktor. Unter den Gottorfer Herzögen wurden unter anderem die Schlösser von Husum, Reinbek und Tönning errichtet, die Schlösser von Kiel und Gottorf erneuert und vergrößert und außerdem die Universität Kiel gegründet. Weiter stellte die Familie die Fürstbischöfe von Lübeck. Der Gegensatz zwischen königlichem Anteil und herzoglichem – also Gottorfschem – Anteil prägte die Politik der Herzogtümer der nächsten zwei Jahrhunderte. Die Verwaltungsgebiete der einzelnen Herrschaftsbereiche, die sogenannten Ämter, Harden und Landschaften, wurden unter anderem nach der Höhe der Steuerkraft aufgeteilt, sodass weder der königliche noch der herzogliche Anteil über vollständig zusammenhängende Gebiete verfügten und Schleswig-Holstein sich in einen Flickenteppich kleinerer Einheiten gliederte. Während der herzogliche Anteil direkt durch die Gottorfer Linie aus dem namensgebenden Schloss Gottorf regiert wurde, setzte das dänische Königshaus stellvertretend für die Verwaltung seines Anteils die sogenannten Statthalter ein. Einen Ausnahmestatus hatten die Güterbezirke inne, weitgehend selbständige Bereiche, die sich zumeist im Besitz der uradeligen Familien befanden und die abwechselnd unter königlicher und herzoglicher Oberhoheit standen. Die Güter standen in hoher wirtschaftlicher Blüte, und der Landadel erlebte in dieser Epoche Schleswig-Holsteins sein „Goldenes Zeitalter“. Weitere Sonderrollen im schleswig-holsteinischen Staatsgefüge hatten das Fürstbistum Lübeck, die Grafschaft Holstein-Pinneberg und die hieraus hervorgehende Grafschaft Rantzau, das erst 1559 eroberte Dithmarschen sowie das damals noch nicht zu Holstein zählende Herzogtum Sachsen-Lauenburg. Während im Süden des Reiches 1618 der Dreißigjährige Krieg ausbrach, blieben Schleswig und Holstein vorerst von Kampfhandlungen verschont und erlebten, bedingt durch die ertragreiche Agrarwirtschaft, eine Hochphase. 1625 griff Dänemark in die Kriegshandlungen ein, wodurch sich die Kampfhandlungen ab 1627 auch in die Herzogtümer verlagerten. Besonders die Festungen in Holstein, wie Krempe, Glückstadt und Breitenburg, waren Ziel der Angriffe. Der Dreißigjährige Krieg in Schleswig und Holstein endete 1629 vorerst mit dem Frieden von Lübeck. Die Herzogtümer, die bisher weniger schwer verwüstet waren als andere Landstriche des Deutschen Reiches, erholten sich in der Folge, bis sie ab 1643 durch den Torstenssonkrieg erneut in die Kampfhandlungen eingezogen und verwüstet wurden. Im Laufe des 17. Jahrhunderts führte der Gegensatz zwischen herzoglichem und königlichem Anteil zu zunehmenden Konflikten zwischen beiden Parteien. Das Gottorfer Herzogtum forderte größere Souveränität und wandte sich von Dänemark ab und stattdessen dem Königreich Schweden zu. Dies gipfelte zum Ende des Jahrhunderts in einer mehrfachen Besetzung des herzoglichen Anteils durch Dänemark. Mit Beginn des 18. Jahrhunderts brach der Große Nordische Krieg aus. Gottorf stand auf der Seite Schwedens, was nach der Niederlage des Königreichs 1713 zu einer vollständigen Annektierung des herzoglichen Anteils in Schleswig durch Dänemark führte. Das einstige Gottorfer Herzogtum verfügte im Folgenden nur noch über die Besitzungen in Holstein, die Annexion wurde 1720 im Frieden von Frederiksborg als rechtmäßig erklärt. Im Laufe des 18. Jahrhunderts bemühte sich Dänemark, sein Herrschaftsgebiet zu einen und den sogenannten Gesamtstaat zu vollenden. Die zahlreichen Teilherzogtümer Schleswig-Holsteins, die aus dem Sonderburger Anteil hervorgegangen waren, wurden im Falle eines ausbleibenden Erben bereits nicht mehr als neues Lehen vergeben, sondern dem dänischen Königreich zugeführt. Nachdem der Gottorfer Anteil in Holstein durch Erbgänge in Personalunion mit dem russischen Zarentitel vereinigt wurde, wurde 1773 der Vertrag von Zarskoje Selo ausgehandelt, durch den Schleswig und Holstein fast ganz unter die Herrschaft des dänischen Königs gerieten. 1779 wurde mit Schleswig-Holstein-Sonderburg-Glücksburg (ältere Linie) das letzte abgeteilte Herzogtum aufgelöst. Eine gewisse Eigenständigkeit blieb jedoch erhalten, als die Verwaltung der Herzogtümer in einer gesonderten Deutschen Kanzlei in Kopenhagen konzentriert war und 1789 eine eigene Währung eingeführt wurde (siehe Schilling Schleswig-Holsteinisch Courant, Schleswig-Holsteinische Speciesbank). Nationalismus und deutsche Einigungskriege. Im Jahre 1800 befand sich ganz Schleswig-Holstein – mit Ausnahme des Fürstentums Lübeck und des zu dieser Zeit noch eigenständigen Herzogtums Sachsen-Lauenburg – unter dänischer Verwaltung. Die Stadt Altona, heute ein Bezirk Hamburgs, galt als zweitgrößte Stadt des Königreichs nach Kopenhagen. Zum Ende der Napoleonischen Kriege fand sich Dänemark mit zerrütteten Finanzen auf der Seite der Verlierer. In Bruch gegebener Versprechungen wurde die eigene Währung Opfer des dänischen Staatsbankrotts 1813; eine neue, in den Herzogtümern rigoros eingetrieben Zwangssteuer brachte zusätzlichen Unmut. Der sowohl in Dänemark als auch in Deutschland aufkommende Nationalismus führte zu einem Gegensatz hinsichtlich der Zugehörigkeit der sogenannten Elbherzogtümer, der in zwei Kriegen mündete. Umstritten war dabei nicht das ausschließlich deutsch besiedelte Holstein, das ja seit dem frühen Mittelalter zum Heiligen Römischen Reich und nach 1815 auch zum Deutschen Bund gehörte und lediglich vom dänischen König regiert wurde, sondern das Herzogtum Schleswig. Sowohl in Deutschland wie in Dänemark wurde das Land von den national gesinnten Liberalen zur Gänze beansprucht, obwohl es in einen überwiegend dänischsprachigen und dänischgesinnten Norden und einen überwiegend deutschsprachigen und deutschgesinnten Süden geteilt war. In dem Sylter Nordfriesen Uwe Jens Lornsen fand der deutschsprachige und deutschgesinnte Süden Schleswigs 1830 einen ersten wortgewaltigen Fürsprecher; er und seine Mitstreiter schrieben oft „Schleswigholstein“, um die Zusammengehörigkeit der beiden Gebiete auch in der Schreibweise auszudrücken. Ab 1840 versuchten sowohl deutsche als auch dänische Nationalliberale verstärkt in Schleswig Einfluss zu gewinnen, sodass sich ein Konflikt abzeichnete. Dieser brach im Zusammenhang mit der Märzrevolution 1848 offen aus: In Kiel wurde eine provisorische Regierung ausgerufen, die die Aufnahme eines vereinten Schleswig-Holsteins in den Deutschen Bund verlangte, während gleichzeitig in Kopenhagen eine nationalliberale Regierung ernannt wurde, der mehrere sogenannte Eiderdänen angehörten, deren Ziel die verfassungsmäßige Eingliederung Schleswigs in das Dänische Reich und die Trennung des Gebiets vom unbestritten deutschen Holstein war. Die Unvereinbarkeit beider Forderungen führte zur Schleswig-Holsteinischen Erhebung, in der die deutschgesinnten Schleswig-Holsteiner vergeblich versuchten, die dänische Oberhoheit zu beenden. Nach dem Willen der deutschen Nationalliberalen sollte auch Schleswig Mitglied des Deutschen Bundes werden und vereint mit Holstein ein souveräner Staat unter Regierung des Augustenburger Herzogs Christian August sein. Nach deutscher Auffassung galt das salische Recht auch in Schleswig, womit der Augustenburger Herzog legitimer Erbe in beiden Herzogtümern gewesen wäre, nachdem der dänische König und Herzog Friedrich VII. keine Nachkommen hatte. Nach dänischer Auffassung konnte der Herzog von Augustenburg als Thronerbe in Holstein gelten, jedoch nicht in Schleswig, wo nach dänischem Recht auch die Erbfolge durch die weibliche Linie bestand. Zunächst wurde die schleswig-holsteinische Erhebung von der Paulskirchenversammlung unterstützt, doch auf Druck der europäischen Großmächte zogen sich die preußischen Armeen und die Bundestruppen zurück und überließen die selbsternannte Kieler Regierung ihrem Schicksal. Der dänische Sieg bei Idstedt 1850 beendete vorerst die deutschen Hoffnungen auf ein deutsches Schleswig-Holstein, der "status quo ante" wurde wiederhergestellt – auch auf internationalen Druck. Am 2. Juli 1850 wurde schließlich der Frieden von Berlin zwischen dem Deutschen Bund und Dänemark geschlossen. Eine Antwort auf die Schleswig-Holsteinische Frage konnte jedoch nicht gefunden werden. Im dänischen Gesamtstaat herrschte seit Einführung des Grundgesetzes 1849 eine konstitutionelle Monarchie im Königreich und Absolutismus in Holstein, jedoch mit einem gemeinsamen Staatsrat, was die Gesetzgebung erschwerte. Dänemark verabschiedete im November 1863 eine Verfassung, die neben den einzelnen Verfassungen des Königreichs und des Herzogtums Schleswig für die gemeinsamen Angelegenheiten der beiden gelten sollte. Da die Friedensbestimmungen von 1850 damit gebrochen waren, ergriff der preußische Kanzler Bismarck die Chance, die schleswigsche Frage im deutschen Sinne zu lösen. Nach der Verstreichung eines sehr kurzen Ultimatums erklärten Preußen und Österreich Dänemark den Krieg. Den Deutsch-Dänischen Krieg konnten Preußen und Österreich im April 1864 für sich entscheiden. Verhandlungen über eine Teilung Schleswigs führten nicht zu einer Lösung, so dass Schleswig und Holstein von den Siegern zunächst gemeinsam als Kondominium verwaltet wurden. Nach der Gasteiner Konvention 1865 kamen Schleswig und Lauenburg unter preußische Verwaltung, Holstein unter die Österreichs. Nur kleine Teile im Norden Schleswigs blieben dänisch: die Insel Ærø, sieben Kirchspiele südlich von Kolding und ein Streifen um Ribe; dafür gab Dänemark seine Ansprüche auf die königlichen Enklaven an der schleswigschen Westküste auf. Nach dem Deutschen Krieg wurde Schleswig-Holstein 1867 als Ganzes eine preußische Provinz. Im Gegensatz zu den ursprünglichen Hauptzielen der meisten deutschen Schleswig-Holsteiner – Loslösung von Dänemark und Mitgliedschaft als eigenständiges Staatsgebilde innerhalb des Deutschen Bundes – erreichten die Herzogtümer also nur die Loslösung vom dänischen Gesamtstaat, nicht jedoch ihre Unabhängigkeit. 1871 wurde das Deutsche Reich gegründet. Die Schleswig-Holsteinische Frage war ein zentraler Aspekt der Politik Bismarcks, die schließlich zur Reichseinigung führte. Endgültige Teilung Schleswigs. Abgeschlossen wurde die völkerrechtliche Auseinandersetzung mit Dänemark jedoch erst 1920. Im Prager Frieden 1866 war zwischen Preußen und Österreich auf Intervention Napoleons III. in Artikel 5 eine Volksabstimmung in Nordschleswig vorgesehen gewesen, der zufolge es den Nordschleswigern frei gestanden hätte, sich für Dänemark oder Preußen /Österreich zu entscheiden. Diese Klausel wurde 1879 von den beiden Vertragsparteien einvernehmlich annulliert. Das musste Dänemark widerstrebend zur Kenntnis nehmen. Schon vorher hatte Preußen sich die Herzogtümer als Provinz einverleibt. Dänemark war damit nicht einverstanden gewesen. Die ursprünglich vorgesehene Volksabstimmung in Nordschleswig wurde dann nach dem Ersten Weltkrieg auf Druck und unter Aufsicht der Siegermächte des Ersten Weltkriegs nachträglich vollzogen. Es wurde eine internationale Kommission mit einem englischen, französischen, schwedischen und norwegischen Vertreter gebildet, die die Verwaltung in den Abstimmungsgebieten ausübte. Sie saß in Flensburg, besaß eine neu gebildete Polizei und hatte englische und französische Truppen zu ihrer Unterstützung. Bei der Abstimmung ergab sich eine dänische Mehrheit im nördlichen Landesteil und eine deutsche im südlichen Teil. Der mittlere Stimmbezirk (mit Flensburg) war besonders hart umstritten, entschied sich dann aber deutlich für die Zugehörigkeit zum Deutschen Reich. Daher wurde am 6. Juli 1920 ein Übertragungsvertrag in Paris geschlossen, der das nördliche Schleswig Dänemark zusprach und den südlichen Teil Deutschland. Nationalsozialismus und Zweiter Weltkrieg. Schleswig-Holstein war eine frühe Hochburg des Nationalsozialismus. Hohe Wahlergebnisse erzielte die NSDAP schon 1928 in Dithmarschen. Die von den Nationalsozialisten sogenannte "Blutnacht von Wöhrden" 1929 und der Altonaer Blutsonntag 1932 wurden von der NSDAP überregional zu Propagandazwecken ausgeschlachtet. Bekannte schleswig-holsteinische Autoren zählten zu den geistigen Wegbereitern des Nationalsozialismus: der aus Nordschleswig stammende Julius Langbehn sowie die Dithmarscher Adolf Bartels und – eingeschränkt – Gustav Frenssen. Es gab einige Außenlager des KZ Neuengamme in Schleswig-Holstein: u. a. das KZ Kaltenkirchen, das KZ-Außenlager Kiel, das KZ Ladelund und das KZ Neustadt in Holstein. Eines der ersten Konzentrationslager war das KZ Wittmoor: Am 10. März 1933 wurden die ersten Häftlinge, mehrheitlich Mitglieder der KPD, dort eingesperrt. Andere frühe (auch als wilde bezeichnete) Konzentrationslager entstanden 1933 in Eutin, Glückstadt, Kuhlen, Ahrensbök, Altona und Wandsbek. In der Reichspogromnacht am 9./10. November 1938 wurden Synagogen und Geschäfte von jüdischen Bürgern in Lübeck, Elmshorn, Rendsburg, Kiel, Bad Segeberg, Friedrichstadt, Kappeln und Satrup von SA und SS – unter Duldung oder Mithilfe der Polizei – überfallen und zerstört. Sowjetische Kriegsgefangene kamen in Schleswig-Holstein in einem erbärmlichen Zustand an, da sie nur unzureichend ernährt wurden. In Heidkaten bei Kaltenkirchen (Herbst 1941 bis April 1944) und Gudendorf (April 1944 bis Kriegsende) wurden Lager eingerichtet, die Gerhard Hoch als „Sterbelager“ bezeichnete. In Gudendorf starben 1944 und 1945 3000 sowjetische Kriegsgefangene. In der Kinderfachabteilung Schleswig wurden zwischen 1939 und 1945 mindestens 216 Kinder ermordet. Der Luftkrieg im Zweiten Weltkrieg betraf die dünn besiedelten Landesteile nur wenig. Kiel als Stützpunkt der Kriegsmarine und Standort dreier Großwerften am Ostufer der Förde war jedoch immer wieder (siehe auch Luftangriffe auf Kiel) Angriffsziel von britischen (RAF) bzw. US-amerikanischen (USAAF) Bombern. Der Angriff auf Lübeck durch die RAF Ende März 1942 war das erste Flächenbombardement eines historischen deutschen Großstadtkerns. Bei den Großangriffen der „Operation Gomorrha“ gegen Hamburg im Sommer 1943 wurden auch Orte wie Wedel und Elmshorn auf Schleswig-Holsteiner Gebiet schwer getroffen. Mehrmals direkt angegriffen wurden die Flensburger Werft und die DEA-Raffinerie Hemmingstedt bei Heide. Am 3. Mai 1945 bombardierten RAF-Maschinen irrtümlich die drei in der Neustädter Bucht manövrierunfähig liegenden Schiffe "Cap Arcona", "Thielbek" und "Deutschland". Etwa 7000 Menschen starben. Die SS hatte circa 10.000 KZ-Häftlinge auf den Schiffen zusammengepfercht. Höchstwahrscheinlich beabsichtigte die SS, die Häftlinge zu versenken. Am 7. Mai 1945 wurde um 12:45 Uhr über den Reichssender Flensburg in einer Ansprache von Lutz von Schwerin-Krosigk zum ersten Mal von deutscher Seite das Ende des Zweiten Weltkrieges in Europa verkündet. Die bedingungslose Kapitulation der Wehrmacht trat am 8. Mai 1945 um 23:01 Uhr in Kraft. Zu diesem Zeitpunkt war der Großteil Schleswig-Holsteins noch unter der Kontrolle deutscher Truppen. Die Verhaftung der letzten Reichsregierung unter Karl Dönitz in Flensburg-Mürwik erfolgte erst am 23. Mai 1945. Nachkriegszeit. Bereits ab Ende 1944 war Schleswig-Holstein beim „Unternehmen Hannibal“, der Evakuierung von etwa 2,5 Millionen Menschen aus dem Baltikum (Memelland), Ost-/Westpreußen, Pommern und Mecklenburg, Hauptanlaufgebiet von Flüchtlingen und Vertriebenen. Auch Ausgebombte aus den Großstädten Kiel, Lübeck und Hamburg zogen aufs Land. Die Einwohnerzahl, die 1939 noch 1,6 Millionen betragen hatte, stieg bis 1949 auf 2,7 Millionen. Unter allen westdeutschen Flächenländern war in Schleswig-Holstein der Anteil von Flüchtlingen im Vergleich zur eingesessenen Bevölkerung am höchsten. Zur Jahreswende 1945/46 ernannte die Militärregierung der Britischen Besatzungszone beratende deutsche Entnazifizierungsausschüsse. Im Massenverfahren wurden 406.500 Menschen entnazifiziert: In die Kategorie I der "Hauptschuldigen" und die Kategorie II der "Schuldigen" wurde in Schleswig-Holstein aber niemand eingestuft. 2217 stufte man in die Kategorie III der "Belasteten" ein; dazu gehörte auch der ehemalige Gauleiter Hinrich Lohse. 66.500 kamen in die Kategorie IV als "Mitläufer" und 206.000 in die Kategorie V als "Entlastete". Nach Kriegsende war Schleswig-Holstein formell noch eine preußische Provinz. Der Christdemokrat Theodor Steltzer, der dem militärischen Widerstand gegen das NS-Regime nahegestanden hatte, wurde im November als Oberpräsident an die Spitze der Verwaltung berufen, später zum ersten Ministerpräsidenten ernannt. Am 26. Februar 1946 trat der erste Landtag zusammen, der noch nicht gewählt, sondern von der Militärregierung ernannt worden war, die sich zunächst vertreten durch ihren „Regional Commissioner for Schleswig-Holstein“, den Luftmarschall im Ruhestand Hugh Vivian Champion de Crespigny, letzte Entscheidungen vorbehielt. Mit der "Verordnung Nr. 46 der britischen Militärregierung vom 23. August 1946 „Betreffend die Auflösung der Provinzen des ehemaligen Landes Preußen in der Britischen Zone und ihre Neubildung als selbständige Länder“" erhielt das Land Schleswig-Holstein seine rechtlichen Grundlagen. Als Hauptstadt setzte sich Kiel gegen Schleswig durch; Dienstsitz des britischen „Regional“, später „Land Commissioners“ war das sog. Somerset-House in Kiel, Residenz das Herrenhaus Altenhof (bei Eckernförde). Bei der Landtagswahl vom 20. April 1947 wurde erstmals ein Landtag gewählt. Bundesland wurde Schleswig-Holstein mit der 1949 vom Landtag verabschiedeten Landessatzung, die am 12. Januar 1950 in Kraft trat. Erst durch die am 30. Mai 1990 vom Kieler Landtag verabschiedete Verfassungsreform trug diese auch den Namen Landesverfassung. Am 29. März 1955 wurden die Bonn-Kopenhagener Erklärungen unterzeichnet, in der die Bundesrepublik und Dänemark jeweils für die jeweilige Minderheit der anderen Nationalität auf ihrem Gebiet Schutzrechte vereinbarten und zugleich das freie Bekenntnis jedes Bürgers zu einer Volksgruppe als von Amts wegen nicht bestreitbar und nicht überprüfbar festschrieb. Dieses Abkommen gilt bis heute als Modell für die einvernehmliche Lösung von Minderheitenfragen. Im Kalten Krieg wurde Schleswig-Holstein aufgrund seiner strategischen Bedeutung für die NATO zu einem Stationierungsschwerpunkt der 1955 gegründeten Bundeswehr. Dem eigens eingerichteten Kommandobereich LANDJUT war mit der 6. Panzergrenadierdivision die personalstärkste NATO-Division unterstellt, die hauptsächlich im nördlichsten Bundesland disloziert war, dazu kamen die Ostseestützpunkte der Bundesmarine. Bis 1959 konnte Werner Heyde, der als ehemaliger Leiter des NS-Euthanasieprogramms zum Massenmörder wurde, unter dem Namen Fritz Sawade als Arzt in Flensburg arbeiten. 1961 benannte der Untersuchungsausschuss in seinem Abschlussbericht achtzehn Personen aus Justiz, Verwaltung und Medizin, die über die wahre Identität Sawades informiert waren. Einige der heftigsten Proteste gegen Atomkraftwerke in Deutschland fand von 1976 bis Anfang der 1980er Jahre um die Baustelle des Kernkraftwerks Brokdorf statt. Einschneidendstes Naturereignis in der Landesgeschichte dürfte die Schneekatastrophe am Jahreswechsel 1978/79 gewesen sein. Den größten Skandal der Nachkriegsgeschichte stellte die Barschel-Affäre im Herbst 1987 dar. Dieser Skandal erfuhr dann 1993 noch eine Fortsetzung mit der Schubladen-Affäre, in deren Folge Björn Engholm als Ministerpräsident zurücktrat und mit Heide Simonis als Nachfolgerin erstmals eine Frau an der Spitze eines Bundeslandes stand. Zuletzt rückte Schleswig-Holstein in den Mittelpunkt des Interesses, als im März 2005 die Wiederwahl von Simonis im Landtag spektakulär scheiterte. Die anschließende Große Koalition unter Ministerpräsident Peter-Harry Carstensen (CDU) hielt nur bis Juli 2009. Die Neuwahlen im September 2009 führten am 27. Oktober 2009 zur Bildung einer schwarz-gelben Koalition unter dem alten und neuen Ministerpräsidenten Carstensen. Mit Entscheidung vom 29. August 2010 hat jedoch das Landesverfassungsgericht Schleswig-Holsteins das der Landtagswahl zugrundeliegende Landeswahlgesetz für verfassungswidrig erklärt. Dem Landtag wurde daraufhin angeordnet, bis zum Mai 2011 ein neues Gesetz zu beschließen. Ferner wurden Neuwahlen bis spätestens September 2012 angeordnet. Bei der Landtagswahl in Schleswig-Holstein am 6. Mai 2012 kam es erstmals unter der Führung von Torsten Albig zur sogenannten Dänen-Ampel aus SPD, Grüne und SSW. Sprachen. Allgemeine Amtssprache ist Deutsch, wobei juristisch unklar ist, ob damit nur die hochdeutsche Sprache gemeint ist oder auch das Niederdeutsch. Die Niederdeutsche Sprache, meist als "Plattdeutsch" bezeichnet, ist (zumindest) nach der europäischen Charta der Regional- oder Minderheitensprachen als Regionalsprache gemäß Teil III der Charta, die dänische Sprache (meist in Form des Sydslesvigdansk) und die friesische Sprache (in den Dialekten des Nordfriesischen) als Minderheitensprachen gemäß Teil III sowie Romanes als Minderheitensprache gemäß Teil II der Charta im Land Schleswig-Holstein anerkannt. In grenznahen Gemeinden zwischen Niebüll und Flensburg wird daneben noch Südjütisch (Plattdänisch) gesprochen, das allgemein als Dialekt der dänischen Sprache angesehen wird, darüber hinaus im Flensburger Raum Petuh, teilweise auch Missingsch. Damit ist Schleswig-Holstein das an traditionell gesprochenen Sprachen reichste Land. Als ausgestorben gelten hingegen die einst in Friedrichstadt gesprochene niederländische Sprache und das in einzelnen Städten bis zur Zeit des Nationalsozialismus teilweise gesprochene Jiddisch; wie hoch der Anteil der Jiddischsprecher unter den heute wieder knapp 2000 Bewohnern jüdischen Glaubens ist, ist unbekannt. Anteile der Sprachen: Deutsch ca. 2,7 Millionen Einwohner, Niederdeutsch ca. 1,3 Millionen, Dänisch (Standarddänisch, Sydslesvigdansk und Sønderjysk) ca. 65.000, Friesisch ca. 10.000, Romani ca. 5000. Nach Annahme des Friisk Gesäts durch den Landtag im Jahr 2004 gilt im Kreis Nordfriesland und auf Helgoland (Kreis Pinneberg) Friesisch als Amtssprache. Im Kreis Nordfriesland finden sich so auch zweisprachige Ortsschilder; zum Beispiel wird dem Besucher von Niebüll die Stadt auch als "Naibel" angekündigt. Der Südosten des Landes war bis ins 12. Jahrhundert von slawischen Völkern besiedelt, was sich heute noch an einigen slawischstämmigen Ortsnamen erkennen lässt (zum Beispiel Lübeck, Laboe, Eutin, Preetz, Ratzeburg). Christentum. Schleswig-Holstein ist ein protestantisch geprägtes Land. 2006 gehörten 54,3 % der Bevölkerung der evangelischen Kirche an, 6,1 % waren 2007 römisch-katholisch. Über 39 % der Bürger gehören keiner der großen Religionsgemeinschaften an. Die evangelischen Freikirchen zählen etwa 15.000 Mitglieder. Die Evangelisch-reformierte Kirche ist mit einer Gemeinde in Lübeck vertreten, während die Hamburger Gemeinde auch viele Mitglieder in Schleswig-Holstein hat. Die Remonstranten sind mit einer Gemeinde in Friedrichstadt vertreten. Evangelisch-Lutherische Kirchen. Die evangelisch-lutherische Landeskirche ist seit dem 27. Mai 2012 die Evangelisch-Lutherische Kirche in Norddeutschland, kurz „Nordkirche“. Sie ist aus der Nordelbischen Kirche, der Evangelisch-Lutherischen Landeskirche Mecklenburgs und der Pommerschen Evangelischen Kirche hervorgegangen, nachdem es einen längeren Fusionsprozess gegeben hatte, der in einem am 5. Februar 2009 unterzeichneten Fusionsvertrag mündete. Im Gebiet Schleswig-Holsteins gibt es zwei Sprengel: Schleswig und Holstein sowie Hamburg-Lübeck, an deren Spitze jeweils ein Bischof beziehungsweise eine Bischöfin steht. Auch die Nordelbische Kirche war bereits ein 1977 gegründeter Zusammenschluss, in dem die bis dahin drei evangelisch-lutherischen Landeskirchen in Schleswig-Holstein aufgegangen waren. Neben der norddeutschen Landeskirche bestehen in Schleswig-Holstein auch Gemeinden der altkonfessionell verfassten Selbständigen Evangelisch-Lutherischen Kirche und im Norden des Landes der Dänischen Kirche in Südschleswig. Die Dänische Kirche in Südschleswig umfasst etwa 6.500 Mitglieder. Katholische Kirchen. Die Gemeinden der Römisch-Katholischen Kirche in Schleswig-Holstein unterstehen dem Erzbistum Hamburg. Neben der Römisch-Katholischen Kirche gibt es auf der nordfriesischen Insel Nordstrand zudem eine altkatholische Gemeinde. Evangelische Freikirchen. Unter den in Schleswig-Holstein vertretenen evangelischen Freikirchen sind Evangelisch-Freikirchliche Gemeinden (Baptisten), Methodisten, Mennoniten, Freie evangelische Gemeinden, die Heilsarmee, Siebenten-Tags-Adventisten und mehrere Pfingstgemeinden zu nennen. Bereits im 16. Jahrhundert gab es erste Täufergemeinden auf Eiderstedt. Die erste Baptistengemeinde Schleswig-Holsteins gründete sich im Februar 1849 im holsteinischen Pinneberg. Neuapostolische Kirche. In der Neuapostolischen Kirche zählt Schleswig-Holstein mit zum Apostelbereich Hamburg und umfasst auf schleswig-holsteinischem Territorium fünf Bezirke mit ca. 10.000 Mitgliedern. Judentum. Ungefähr 1900 Bewohner des Landes sind Mitglieder in jüdischen Gemeinden. Die jüdischen Gemeinden verteilen sich auf zwei Landesverbände: die eher orthodox geprägte Jüdische Gemeinschaft Schleswig-Holstein und den eher liberalen Landesverband der Jüdischen Gemeinden von Schleswig-Holstein. Islam. 25.000 Schleswig-Holsteiner bekennen sich zum Islam. Größte Moschee im Lande ist die Centrum-Moschee Rendsburg. Verfassung. Schleswig-Holstein ist laut Artikel 1 seiner Verfassung vom 12. Januar 1950 ein Gliedstaat der Bundesrepublik Deutschland. In der Folge der Barschel-Affäre 1987 wurden vom Untersuchungsausschuss strukturelle Änderungen angeregt. Eine eingesetzte Enquete-Kommission erstellte Vorschläge zu einer Verfassungs- und Parlamentsreform und legte 1989 ihren Schlussbericht vor. Daraufhin wurde die Verfassung geändert und auch von "Landessatzung" in "Landesverfassung" umbenannt. Sie wurde am 30. Mai 1990 vom Landtag verabschiedet. Die Verfassung enthält seitdem auch Staatszielbestimmungen, z. B. den Minderheitenschutz der friesischen und der dänischen Volksgruppe im Land (Art. 5), die Förderung der Gleichstellung von Mann und Frau (Art. 6), den Schutz der natürlichen Lebensgrundlagen (Art. 7) oder Schutz und Förderung der Kultur einschließlich der plattdeutschen Sprache (Art. 9). Im Vergleich zu anderen deutschen Landesverfassungen hat die Verfassung weitreichende Elemente der direkten Demokratie. Wie in allen anderen deutschen Ländern geht die Staatsgewalt vom Volke aus, das heißt, das Volk bekundet seinen Willen in Wahlen und Abstimmungen im Lande, in den Gemeinden und den Gemeindeverbänden. Die Verfassung verliert vorbehaltlich anderweitiger bundesgesetzlicher Regelung ihre Geltung an dem Tag, an dem eine Neugliederung des Bundesgebietes in Kraft tritt. Landtag. Der Landtag Schleswig-Holstein ist das vom Landesvolk gewählte oberste Organ der politischen Willensbildung und führt somit die legislative Gewalt aus. Der Landtag wählt die Ministerpräsidentin oder den Ministerpräsidenten. Der Landtag besteht in der Regel (ohne Überhangmandate) aus 69 Abgeordneten (siehe Tabelle). Sie werden nach einem Verfahren gewählt, das die Persönlichkeitswahl mit den Grundsätzen der Verhältniswahl verbindet. Landesregierung. Die Landesregierung ist im Bereich der vollziehenden Gewalt oberstes Leitungs-, Entscheidungs- und Vollzugsorgan. Sie besteht aus der Ministerpräsidentin oder dem Ministerpräsidenten und den Landesministerinnen und Landesministern. Die Ministerpräsidentin oder der Ministerpräsident wird vom Landtag ohne Aussprache gewählt. Sie oder er beruft und entlässt die Landesministerinnen und Landesminister und bestellt aus diesem Kreis für sich eine Vertreterin oder einen Vertreter. Zur Ministerpräsidentin oder zum Ministerpräsidenten ist gewählt, wer die Stimmen der Mehrheit der Mitglieder des Landtages auf sich vereinigt (absolute Mehrheit). Erhält im ersten Wahlgang niemand diese Mehrheit, so findet ein neuer Wahlgang statt. Kommt die Wahl auch im zweiten Wahlgang nicht zustande, so ist gewählt, wer in einem weiteren Wahlgang die meisten Stimmen erhält. Rechtsprechung. Die rechtsprechende Gewalt ist den Richterinnen und Richtern anvertraut; sie wird im Namen des Volkes ausgeübt. Die Richterinnen und Richter sind unabhängig und nur dem Gesetz unterworfen. Als kleines Land verfügt Schleswig-Holstein lediglich über ein einziges Oberlandesgericht mit Sitz in Schleswig. Ein eigenes Oberverwaltungsgericht wurde erst 1991 mit dem Schleswig-Holsteinischen Oberverwaltungsgericht in Schleswig errichtet. Bis dahin war das OVG Lüneburg aufgrund eines Staatsvertrages zwischen Niedersachsen und Schleswig-Holstein gem. § 3 Abs. 2 VwGO als gemeinsames Oberverwaltungsgericht für die Länder Niedersachsen und Schleswig-Holstein zuständig. Schleswig-Holstein verfügt als letztes Land erst seit dem 1. Mai 2008 über ein eigenes Landesverfassungsgericht. Zuvor war die Verfassungsgerichtsbarkeit gemäß Artikel 44 der Landesverfassung und gemäß Artikel 99 des Grundgesetzes die Entscheidung von Verfassungsstreitigkeiten innerhalb des Landes dem Bundesverfassungsgericht übertragen. Initiative aus dem Volk. Alle Bürgerinnen und Bürger haben das Recht, den Landtag im Rahmen seiner Entscheidungszuständigkeit mit bestimmten Gegenständen der politischen Willensbildung zu befassen. Einer Initiative kann auch ein mit Gründen versehener Gesetzentwurf zugrunde liegen; er darf den Grundsätzen des demokratischen und sozialen Rechtsstaates nicht widersprechen. Die Initiativen müssen von mindestens 20.000 Stimmberechtigten unterzeichnet sein. Ihre Vertreter haben das Recht auf Anhörung. Initiativen über den Haushalt des Landes, über Dienst- und Versorgungsbezüge sowie über öffentliche Abgaben sind jedoch unzulässig. Volksbegehren. Stimmt der Landtag dem Gesetzentwurf oder der Vorlage innerhalb einer Frist von vier Monaten nicht zu, so sind die Vertreterinnen und Vertreter der Volksinitiative berechtigt, die Durchführung eines Volksbegehrens zu beantragen. Der Landtag entscheidet nun, ob das beantragte Volksbegehren zulässig ist. Ein Volksbegehren ist dann zustande gekommen, wenn mindestens 5 % der Stimmberechtigten innerhalb eines halben Jahres dem Volksbegehren zugestimmt haben. Volksentscheid. Ist ein Volksbegehren zustande gekommen, so muss innerhalb von neun Monaten über den Gesetzentwurf oder die andere Vorlage ein Volksentscheid herbeigeführt werden. Der Landtag kann einen eigenen Gesetzentwurf oder eine andere Vorlage zur gleichzeitigen Abstimmung stellen. Ein Volksentscheid findet nicht statt, wenn der Landtag das Gesetz schon verabschiedet hat, sodass ein Volksentscheid überflüssig geworden ist und wenn das Bundesverfassungsgericht auf Antrag des Landtages oder der Landesregierung das Volksbegehren als verfassungswidrig eingestuft hat. Der Gesetzentwurf oder die andere Vorlage ist durch Volksentscheid angenommen, wenn die Mehrheit derjenigen, die ihre Stimme abgegeben haben, jedoch mindestens ein Viertel der Stimmberechtigten, zugestimmt hat. Eine Verfassungsänderung durch Volksentscheid bedarf der Zustimmung von zwei Dritteln derjenigen, die ihre Stimme abgegeben haben, jedoch mindestens die Hälfte der Stimmberechtigten. In der Abstimmung zählen nur die gültigen Ja- und Nein-Stimmen. Gesetzgebung. Die Gesetzentwürfe werden von der Landesregierung oder von einzelnen oder mehreren Abgeordneten des Landtages oder durch Initiativen aus dem Volk eingebracht. Die Gesetze werden durch den Landtag oder durch Volksentscheid beschlossen. Gesetze, die die Verfassung ändern, bedürfen der Zustimmung von zwei Dritteln der Mitglieder des Landtages sowie der Zustimmung des Volkes. Außerdem müssen sie den Wortlaut des ändernden Verfassungstextes ausdrücklich ändern und ergänzen. Flagge. Die Landesflagge besteht aus drei horizontalen Streifen. Der obere Streifen ist blau, der mittlere weiß und der untere rot. Die Farben sind aus dem Landeswappen genommen und sind 1840 zum ersten Mal von den deutschen Schleswig-Holsteinern im sich abzeichnenden deutsch-dänischen Konflikt um Schleswig verwendet worden. Im Jahre 1949 wurde die Flagge offiziell von den Briten anerkannt. Die Dienstflagge enthält im Gegensatz zur Landesflagge das Landeswappen. Bei offizieller Beflaggung wird die Dienstflagge gehisst. Die Dienstflagge darf nur von den entsprechenden Behörden benutzt werden, die Landesflagge dagegen kann von jedermann frei benutzt werden, wovon großzügig Gebrauch gemacht wird – etwa in Form von Flaggen im Vorgarten. Schiffe führen eine Erkennungsflagge in den Farben der Landesflagge. Landeswappen, Landesfarben und -flagge wurden erst 1957 durch das Gesetz über die Hoheitszeichen des Landes Schleswig-Holstein vom 18. Januar 1957 festgelegt. Seit 2009 gibt es als Bürgerwappen ein unten abgerundetes Landeswappen. Wappen. Das Wappen umfasst heraldisch (also vom Wappen aus gesehen) links das holsteinische Nesselblatt und heraldisch rechts die Schleswigschen Löwen. Hymne. Das Schleswig-Holstein-Lied heißt offiziell "Wanke nicht, mein Vaterland" – der umgangssprachliche Name ist jedoch "Schleswig-Holstein meerumschlungen". Den Text hat Matthäus Friedrich Chemnitz verfasst, die Melodie ist von Carl Gottlieb Bellmann Verwaltungsgliederung. Schleswig-Holstein erfuhr 1970/74 eine Gebietsreform. Die Zahl der Landkreise wurde von 17 (siehe Provinz Schleswig-Holstein) auf elf gesenkt; die Zahl der Gemeinden sank mittelfristig von 1371 (1959) auf 1131 (1994) und die bisher 199 Ämter wurden in 119 Ämter zusammengefasst. Schleswig-Holstein besteht heute (Stand: 1. März 2013) aus insgesamt elf Kreisen, 85 Ämtern und 1110 Gemeinden. Von diesen Gemeinden haben 901 weniger als 2000 Einwohner und werden deshalb von einem ehrenamtlichen Bürgermeister verwaltet. 63 Gemeinden besitzen das Stadtrecht. Stadtrecht kann eine Gemeinde erhalten, die mindestens 10.000 Einwohner besitzt, Städte, die dieses aus alter Zeit haben, verlieren es aber nicht. In diesen Städten leben 1,5 Millionen der etwa 2,7 Millionen Einwohner des Landes. Der Kreis Pinneberg ist mit 301.000 Einwohnern der bevölkerungsreichste des Landes, der Kreis Rendsburg-Eckernförde mit 2186 km² der flächenmäßig größte und damit fast so groß wie das Saarland. Kreise. (*) für zulassungsfreie Elektrokarren auf Helgoland Kreisfreie Städte. Einen Sonderstatus nimmt seit dem 1. Januar 2005 die Stadt Norderstedt als „Große kreisangehörige Stadt“ an, der gem. § 135 a Gemeindeordnung Schleswig-Holstein eine Experimentierklausel ermöglicht wurde. Dies bedeutet, dass einige Aufgaben über einen öffentlich-rechtlichen Vertrag vom Kreis (hier: Segeberg) an die Stadt übertragen werden können. Zukünftige Kreisgebietsreform. Um 2000 herum diskutierten einige Kreise in der Metropolregion Hamburg den Zusammenschluss zu einem großen Hamburger Umlandkreis. Auch auf Landesebene gab es im politischen Raum Überlegungen, die Zahl der Kreise auf vier bis sechs und die Zahl der kreisfreien Städte auf zwei oder keine zu reduzieren. Ab 2008 wurde dies geplant, jedoch immer wieder verschoben. Städte und Gemeinden. Schleswig-Holstein zeichnet sich durch eine große Zahl von Gemeinden mit weniger als 500 Einwohnern aus. Im Gegensatz zu den meisten anderen Bundesländern änderte daran auch die durchgeführte Gebietsreform nichts. 1033 kleinere Städte und Gemeinden sind in 85 Ämtern zusammengefasst, um die Verwaltungsaufgaben effektiver zu gestalten (Stand: 1. Januar 2013). Arnis ist mit seinen rund 300 Einwohnern die kleinste Stadt Deutschlands. Gröde und Wiedenborstel gehören zu den kleinsten eigenständigen Gemeinden Deutschlands. Politik. Schleswig-Holsteinischer Landtag Sitzverteilung im Landtag Schleswig-Holstein ist ein ländlich und protestantisch geprägtes Land. In der Nachkriegszeit konnte der Bund der Heimatvertriebenen und Entrechteten zeitweise fast 25 % der Wähler hinter sich bringen. Mit dem Abgleiten in die bundespolitische Bedeutungslosigkeit aufgrund der fortschreitenden Integration der Heimatvertriebenen in die westdeutsche Gesellschaft verlor er aber auch hier die meisten Wähler. In den 1960er Jahren (NPD) und in den 1990er Jahren (DVU) konnten rechtsextreme Parteien Wahlerfolge bei Landtagswahlen verbuchen, diese aber nicht wiederholen. In Schleswig-Holstein sind die Stimmenanteile der FDP und der Grünen meist geringer als in den anderen westdeutschen Ländern. Die regionale Stimmenverteilung innerhalb des Landes ist sehr verschieden. Tendenziell ist der Stimmenanteil der SPD in den kreisfreien Städten und im Umland Hamburgs höher, der Stimmenanteil der CDU ist tendenziell höher in den Kreisen Nordfriesland und Dithmarschen sowie in den ländlichen Gemeinden der Kreise Steinburg, Rendsburg-Eckernförde und Segeberg. Eine Besonderheit in der Parteienlandschaft Schleswig-Holsteins ist der Südschleswigsche Wählerverband. Er vertritt die Interessen der dänischen und eines Teils der friesischen Minderheit und ist bei Landtagswahlen von der Fünf-Prozent-Hürde nach dem Wahlgesetz für den Landtag von Schleswig-Holstein ausgenommen. Landesregierung. Die Regierung wird seit der Landtagswahl in Schleswig-Holstein am 6. Mai 2012 von einer Koalition aus SPD, Grüne und SSW getragen, die über nur eine Stimme Mehrheit verfügt. Länderfusion. Im Gespräch ist immer wieder eine Fusion zweier oder mehrerer norddeutscher Länder, die auch Schleswig-Holstein einbeziehen würde. So wird insbesondere ein Zusammenschluss der Länder Schleswig-Holstein und Hamburg regelmäßig ins Gespräch gebracht. Partnerschaften. Darüber hinaus betreibt das Land seit 1995 "Schleswig-Holstein-Büros" im Ostseeraum zur Stärkung der traditionell engen Beziehung zwischen den Ländern des Ostseeraums. Schleswig-Holstein-Büros befinden sich in Danzig, Kaliningrad, St. Petersburg, Vilnius, Riga und Tallinn. Wirtschaft. Schleswig-Holstein ist traditionell ein strukturschwaches Land mit nur zwei Großstädten, Kiel und Lübeck. Verhältnismäßig viele Einwohner arbeiten weiterhin in der Landwirtschaft. Produzierende Industrie entwickelte sich hier relativ spät und wurde schon früh wieder vom einsetzenden Strukturwandel betroffen. Auch die deutsche Wiedervereinigung von 1990, durch die Schleswig-Holstein vom Nehmer- zum Geberland im Länderfinanzausgleich wurde, hatte ökonomisch ungünstige Folgen; der Abbau von Bundeswehr und Marine traf die Wirtschaft des Bundeslandes besonders hart. In ökonomischer Hinsicht lassen sich drei Großräume unterscheiden: das prosperierende Hamburger Umland in der Metropolregion Hamburg, auch „Speckgürtel“ genannt (mit Maschinenbau und Dienstleistungen), die besonders strukturschwache Westküste (Landwirtschaft, Tourismus, Windenergie) und die Hafenstädte an der Ostküste (insbesondere Lübeck, Kiel und Flensburg) mit Handel, Verkehr, Schiffbau und Windenergie. ThyssenKrupp Marine Systems (TKMS, bis Ende 2012 HDW) in Kiel ist die größte deutsche Werft, die international für ihre U-Boote der Klassen 212 A und 214 mit Brennstoffzellen­antrieb bekannt ist. Die Flensburger Schiffbau-Gesellschaft/FSG (Flensburg) hat sich auf RoRo/ConRo-Schiffe spezialisiert, während Lürssen-Kröger (Schacht-Audorf) und Nobiskrug (Rendsburg) im Bau von Mega-Yachten eine führende Position einnehmen. Die Lübecker Flender-Werft stellte 2002 den Betrieb ein. In den letzten Jahren gewinnt der Seehandel mit anderen Ostseestaaten wieder an Bedeutung. Eine besondere Rolle spielen dabei die Jütlandlinie und die Vogelfluglinie wie auch der Lübecker Hafen als Wege nach Skandinavien, Finnland, Russland und das Baltikum. Der Lübecker Hafen ist – mit 23,3 Millionen Tonnen umgeschlagenen Gütern im Jahr 2014 – der umschlagstärkste schleswig-holsteinische Hafen, die ebenfalls an der Ostsee liegenden Rostocker Häfen lagen nun mit 24,16 Mio. Tonnen leicht darüber. In allen schleswig-holsteinischen Seehäfen, sowohl an Nord- und Ostsee als auch an der Elbe und am Nord-Ostsee-Kanal, wurden im Jahr 2014 51,3 Millionen Tonnen Güter im Seeverkehr umgeschlagen. In Kiel und Hamburg haben die Kreuzfahrtanläufe in den letzten Jahren Rekordhöhen erreicht. In Schleswig-Holstein sind gut zwei Drittel der gesamten deutschen Fischereiflotte stationiert. Rund ein Viertel der deutschen Reedereien sind im Land angesiedelt; etwa 20 % des deutschen Umsatzes im Schiffbau werden hier erwirtschaftet. Die GMSH nimmt als AöR die Bauherren- und Planungsaufgaben des Landes Schleswig-Holstein und des Bundes innerhalb Schleswig-Holsteins wahr. Der Tourismus in Schleswig-Holstein hat eine weit größere Bedeutung als in den meisten anderen Ländern. Im Jahr 2002 erwirtschafteten etwa 80.000 Beschäftigte einen Umsatz von 5,2 Milliarden Euro. Der Beitrag des Tourismus zum Volkseinkommen betrug damit 4,6 % (im Gegensatz zum Bundesschnitt von 2,8 %). Besonders die nordfriesischen Inseln (allen voran Sylt) erfreuen sich großer Beliebtheit bei den – zumeist deutschen – Touristen, doch auch die Ostseebäder (z.B. Grömitz, Timmendorfer Strand, Ostseebad Laboe, Schönberg (Holstein), Eckernförde oder Glücksburg) sind von Bedeutung. Auch der Grenzhandel spielt eine Rolle in der schleswig-holsteinischen Wirtschaft. So kauften 2011 laut einer Umfrage fast 60 Prozent der dänischen Haushalte Bier oder Limonade in deutschen Grenzmärkten. Insgesamt werden im Grenzhandel jährlich rund 800 Millionen Euro umgesetzt. In Einkaufsparks wie dem "Scandinavian Park" in Handewitt und dem "Grenzmarkt Zur Krone" in Harrislee machen Käufe von Skandinaviern laut der IHK Flensburg bis zu 25 Prozent des Umsatzes aus. Im Vergleich mit dem BIP der EU ausgedrückt in Kaufkraftstandards erreicht Schleswig-Holstein einen Index von 104,1 (EU-27:100) (2004). 2010 betrug die Wirtschaftsleistung im Bundesland Schleswig-Holstein gemessen am BIP rund 75,6 Milliarden Euro. Der Schuldenstand belief sich Ende 2010 auf rund 26 Milliarden Euro. In der Branche der Erneuerbaren Energien arbeiten derzeit mehr als 15.000 Menschen. Gerade in ländlichen Räumen ist neue Wertschöpfung entstanden. Energieversorgung. In Schleswig-Holstein stehen drei Kernkraftwerke an den Standorten Brunsbüttel, Brokdorf und Krümmel. Von diesen ist nur noch das KKW Brokdorf aktiv; die beiden anderen wurden nach der Nuklearkatastrophe von Fukushima (März 2011) ausgeschaltet und bleiben nach einer Änderung des Atomgesetzes ("Atomausstieg") endgültig abgeschaltet. An der Nettostromerzeugung hatte die Kernkraft jedoch zuletzt (Stand: 2013) weiterhin den größten Anteil mit 42,5 %. Eine zunehmend wichtige Rolle spielt jedoch die im Rahmen der Energiewende vorangetriebene Nutzung Erneuerbarer Energiequellen. Im Jahr 2013 erzeugen diese Energieträger 40,6 % des im Bundesland erzeugten Nettostroms. Speziell die Windenergie ist in diesem Bundesland stark – allein sie trägt mit 25,5 % zur Gesamterzeugung bei. Die Windenergie erfuhr in Schleswig-Holstein als einem der deutschen Pionierländer seit den 1990er Jahren einen enormen Bedeutungszuwachs, nachdem bereits in den 1980er Jahren erste Testanlagen wie der Growian errichtet wurden. Neben Anlagen an Land, die weiterhin die größte Bedeutung haben, wird mittlerweile auch der Ausbau von Offshore-Windparks in der deutschen Ausschließlichen Wirtschaftszone in der Nordsee forciert. Ende 2012 standen über 2900 Windkraftanlagen mit einer Gesamtleistung von knapp 3,6 GW in dem Bundesland, die etwa die Hälfte des schleswig-holsteinischen Strombedarfs decken können. Nennenswert im Bereich der Erneuerbaren Energien ist weiterhin die Stromerzeugung aus Biogas (9,1 %) und durch die Photovoltaik (4,8 %). Erneuerbare-Energien-Anlagen, die Strom aus Wasserkraft, Biomasse, Klärgasen/Deponiegasen sowie biogenen Abfällen gewinnen, spielen hingegen eine untergeordnete Rolle. Im Bereich fossiler Energieträger ist der Einsatz von Kohle mit 12,3 % stark, Erdgase tragen nur mit 3,1 % bei, weniger bedeutsam ist der Beitrag von Mineralölkraftwerken mit 0,6 %. Auch nicht-biogene Abfälle (0,7 %) und sonstige Energieträger (0,2 %) spielen eine untergeordnete Rolle in der Nettostromerzeugung. Die Regierung beabsichtigt, bis 2020 den Anteil Erneuerbarer Energien am Bruttostromverbrauch auf 300 bis 400 Prozent zu steigern und somit zunehmend auch andere Bundesländer zu versorgen. Verkehr. Das Flächenland Schleswig-Holstein verbindet Deutschland mit Dänemark und damit mit Skandinavien. Die Hauptverkehrsströme laufen dabei entlang der Jütlandlinie (Hamburg–Flensburg–Fredericia–Kopenhagen), der Vogelfluglinie (Hamburg–Lübeck–Puttgarden–Rödby–Kopenhagen), über die Westküstenachse (Hamburg–Itzehoe–Heide–Husum–Sylt/Esbjerg) und in Ost-West-Richtung über den Nord-Ostsee-Kanal (NOK), die Elbe und die Landwege Hamburg–Berlin. Wichtige Knoten stellen die Häfen Kiel und Lübeck sowie im Landverkehr Neumünster dar. Während der landgebundene Verkehr (Straße und Schiene) vor allem in Nord-Süd-Richtung auf Hamburg hin konzentriert verläuft, ist die Hauptachse des Schiffsverkehrs der ostwestlich verlaufene Nord-Ostsee-Kanal. Die Häfen mit dem stärksten Umschlag liegen in Lübeck in Richtung Ostsee und in Brunsbüttel in Richtung Nordsee. Der Flughafen Lübeck-Blankensee verlor in jüngerer Zeit an Bedeutung als Landeplatz und wird nur noch von dem Niedrigpreisflieger Wizzair genutzt. Straße. Die wichtigsten Autobahnen des Landes gehen von Hamburg aus. Es sind die A 1 nach Lübeck, die weiter über die Vogelfluglinie die Öresundregion Kopenhagen/Malmö anbindet, die A 7 über Neumünster und Rendsburg nach Flensburg mit einem Abzweig nach Kiel, der A 215, und die A 23 nach Heide mit Anschluss nach Husum und den Nordfriesischen Inseln. Die A 20 führt bisher von Bad Segeberg über Lübeck an die Mecklenburg-Vorpommersche Ostseeküste und soll in Zukunft bei Glückstadt die Unterelbe queren. Die A 24 verbindet die Metropolregion Hamburg mit der Brandenburg. Die 18 Kilometer lange A 25 verbindet Geesthacht mit Hamburg. Schleswig-Holsteins Straßennetz umfasst 498 km Autobahnen, 1601 km Bundesstraßen, 3669 km Landesstraßen und 4112 km Kreisstraßen. Busverkehr. Das gut entwickelte Regionalbus-Netz Schleswig-Holsteins wird im Wesentlichen von der Autokraft GmbH nach Vorgaben der Kreise betrieben. Eisenbahn. Die Eisenbahn hat in Schleswig-Holstein eine relativ große Bedeutung für den Tourismus und für Berufspendler in die Zentren Hamburg, Lübeck und Kiel. Ersteres führt dazu, dass einige Strecken – insbesondere die Relation Hamburg–Sylt – im Sommer oft überlastet sind. Die Hauptstrecken der Eisenbahn sind auf Hamburg ausgerichtet. Von dort führen sie nach Kiel/Flensburg und nach Lübeck. Auch die Züge der Marschbahn beginnen in Hamburg und endet in Westerland auf Sylt. Von Bedeutung war ab den 1960er Jahren die Eisenbahnfähre von Fehmarn nach Lolland im Verlauf der Vogelfluglinie. Seit der Eröffnung der Festen Beltquerung in Dänemark ist der Güterverkehr über diese Verbindung zum Erliegen gekommen. Im Zuge der geplanten Festen Fehmarnbeltquerung ist zwischen Lübeck und Fehmarn eine neutrassierte, deutlich leistungsfähigere Strecke in Planung. Eine weitere wichtige Hauptachse ist die Bahnstrecke Hamburg-Altona–Kiel, von der in Neumünster die Bahnstrecke Neumünster–Flensburg abzweigt, die weiter über die Bahnstrecke Flensburg–Fredericia nach Dänemark führt. Diese drei elektrifizierten und weitgehend zweigleisigen Strecken können als Teil der Jütlandlinie gesehen werden. Im Hamburger Umland bestehen noch einige Verbindungen der AKN und die Bahnstrecke Neumünster–Bad Oldesloe. Wichtigste Eisenbahnunternehmen sind die DB Regio, die AKN und die Nord-Ostsee-Bahn. Darüber hinaus gibt es noch weitere Privatbahnen in Schleswig-Holstein. Bedeutendster der Bahnhöfe Schleswig-Holsteins ist der Lübecker Hauptbahnhof. Der Regionalverkehr im Land ist vertaktet, sodass auf jeder Strecke mindestens alle zwei Stunden Züge verkehren. Auf den meisten Strecken gibt es einen Stundentakt, teilweise sogar einen Halbstundentakt. Eine Ausnahme bildet die Strecke Niebüll–Dagebüll, die aufgrund des Fährfahrplans nicht vertaktet ist. Der unvertaktete Fernverkehr ist mit einigen InterCity-Zugpaaren auf der Marschbahn am dichtesten. ICE-Züge erreichen Lübeck und Kiel jeweils über Hamburg und nach Kiel über Neumünster. Seit 2007 fahren auch Diesel-ICE bis Kopenhagen über Lübeck, Oldenburg in Holstein und Puttgarden sowie bis Århus über Neumünster, Rendsburg und Flensburg. Mehrere Fernzüge auf der Berlin-Hamburger Bahn halten in Büchen mit Umstiegsmöglichkeiten von und nach Lübeck und Lüneburg. Seefahrt. Das Land hat insgesamt 46 öffentliche Häfen und Anlegestellen, von denen vier überregionale Transitfunktionen erfüllen: Kiel, Lübeck/Travemünde und Puttgarden an der Ostsee, Brunsbüttel an der Nordsee. Kiel und Lübeck sind ebenso für den Güterverkehr nach Skandinavien sowie zunehmend nach Osteuropa wichtig. Lübeck-Travemünde und auch Kiel sind zudem wichtige Fähr- und Kreuzfahrthäfen (2013: 153 Kreuzfahrtschiffe, 397.000 Passagiere begannen oder beendeten ihre Kreuzfahrt in einem Schleswig-Holsteinischen Hafen). Puttgarden ist der deutsche Hafen der Vogelfluglinie nach Dänemark. Der Nord-Ostsee-Kanal ist mit über 41.000 Schiffsbewegungen jährlich die meistgenutzte künstliche Wasserstraße der Welt. Der Schiffsverkehr auf dem Kanal hat sich zwischen 1998 und 2006 knapp verdreifacht. Flugverkehr. Karte der Flughäfen und Landeplätze in Schleswig-Holstein und Hamburg Die beiden größeren zivilen Flughäfen des Landes befinden sich in Kiel und in Lübeck. Während der Kieler Flughafen derzeit keine Linienflüge anbietet, war der Flughafen Lübeck mit 697.559 Passagieren im Jahr 2009 auch für den Ferntourismus von Bedeutung, da er regelmäßig von sogenannten Billigfluggesellschaften angeflogen wurde – seither wurde der Betrieb jedoch stark eingeschränkt. Zunehmende Bedeutung erlangte in letzter Zeit der Flughafen Sylt; er wird seit 2005 mehrmals täglich von großen Fluggesellschaften im Liniendienst angeflogen und hatte 2009 ein Passagieraufkommen von 157.000. Der Flugplatz in Uetersen gewinnt ebenfalls weiter an Bedeutung: Der Personenverkehr wächst stetig an und auch die landenden Flugzeuge werden immer größer. Es gibt zudem kleinere Flugplätze, u. a. bei Flensburg und Hartenholm. Sonderlandeplätze befinden sich auf den Inseln Helgoland und Fehmarn. Der weitaus wichtigste Verkehrsflughafen für das Land ist jedoch der Flughafen Hamburg, nur wenige Kilometer südlich der Landesgrenze gelegen, die Startbahn 2 reicht sogar auf schleswig-holsteinisches Gebiet. Bildung. Schleswig-Holstein verfügt über drei Universitäten, wobei aber nur die traditionsreiche, 1665 gegründete Christian-Albrechts-Universität zu Kiel eine Volluniversität ist. Daneben ist in Lübeck eine Universität mit medizinischer und technisch-naturwissenschaftlicher Fakultät und in Flensburg eine Universität, die aus der pädagogischen Hochschule hervorgegangen ist. Ferner gibt es im Land eine Kunsthochschule, eine Musikhochschule in Lübeck, vier Fachhochschulen (Kiel, Lübeck, Flensburg und Heide) und eine Verwaltungsfachhochschule. Darüber hinaus gibt es in Schleswig-Holstein drei private Hochschulen (Elmshorn, Pinneberg und Wedel). Insgesamt studierten im Wintersemester 2003/2004 in Schleswig-Holstein 45.542 Personen, davon 26.510 an Universitäten und 16.973 an Fachhochschulen. Im Schuljahr 2007/2008 besuchten 36 % der 335.473 Schüler an allgemeinbildenden Schulen eine Grundschule, 25 % ein Gymnasium, 18 % eine Realschule, 11 % eine Hauptschule, 6 % eine Gesamtschule und 3 % eine Sonderschule. Weiterhin gibt es freie Waldorfschulen (1 % der Schüler) und Abendgymnasien (0,1 %). Eine Besonderheit an der schleswig-holsteinischen Bildungslandschaft sind die insgesamt 48 dänischen Schulen im Landesteil Schleswig, die vom Dänischen Schulverein für Südschleswig getragen werden. Die hier erworbenen zweisprachigen Schulabschlüsse werden ohne Weiteres in Deutschland als auch in Dänemark anerkannt. Wissenschaft und Forschung. Die Universitäten des Landes bilden mit der Wissenserzeugung und -vermittlung ein starkes Rückgrat des Forschungssystems in Schleswig-Holstein, das durch zahlreiche außeruniversitäre Forschungsinstitute ergänzt wird. Forschung auf anerkannt hohem und internationalem Niveau wird in Schleswig-Holstein in Bereichen wie Meeresforschung, Biomedizin und Medizintechnik sowie in den Natur- und Ingenieurwissenschaften betrieben. Außeruniversitäre Forschungsinstitute spannen dabei den Bogen von der Grundlagenforschung zum Anwendungsbezug bis hin zum Wissens- und Technologietransfer. Die Forschungsinstitute gehören mehrheitlich den großen nationalen Forschungsorganisationen wie Max-Planck-Gesellschaft, Leibniz-Gemeinschaft und Fraunhofer-Gesellschaft an. Drei der schleswig-holsteinischen außeruniversitären Forschungseinrichtungen sind Teil der größten deutschen Wissenschaftsorganisation, der Helmholtz-Gemeinschaft Deutscher Forschungszentren: Die Biologische Anstalt Helgoland (Alfred-Wegener-Institut für Polar- und Meeresforschung), das Helmholtz-Zentrum Geesthacht – Zentrum für Material- und Küstenforschung im Kreis Herzogtum Lauenburg und das Helmholtz-Zentrum für Ozeanforschung Kiel. Kultur. Die Kultur Schleswig-Holsteins ist – bedingt nicht zuletzt durch die dänischen und friesischen Einflüsse – recht vielfältig. Sie ist geprägt von historisch-geografischen Faktoren wie der Lage zwischen den beiden Meeren Nordsee und Ostsee sowie der primär bäuerlichen Kultur. Besonders im Norden des Landes ist der skandinavische Einfluss in der Architektur und Wohnkultur erkennbar. Schleswig-Holstein ist ein Land mit reicher literarischer Tradition. Dafür stehen Namen wie Johann Heinrich Voß, Matthias Claudius, Friedrich Hebbel, Theodor Storm, Klaus Groth sowie Heinrich und Thomas Mann. Letzterer hat mit seinem Roman "Buddenbrooks" der Stadt Lübeck zu literarischem Weltruhm verholfen. Seit 1945 haben weitere schleswig-holsteinische Autoren deutsche Literaturgeschichte geschrieben. Dazu gehören der Literatur-Nobelpreisträger Günter Grass, der schleswig-holsteinische Ehrenbürger Siegfried Lenz, die Dichterin Sarah Kirsch und der Schriftsteller Günter Kunert. Eine Besonderheit ist die nordfriesische Literatur. In musikalischer Hinsicht beheimatet das Land mit dem 1986 von Justus Frantz gegründeten Schleswig-Holstein Musik Festival das größte Klassikfestival Europas. Es präsentiert alljährlich im Juli und August rund 130 Konzerte vor über 100.000 Besuchern, verteilt auf 30–50 Spielstätten im ganzen Land. Daneben findet im Rahmen der Orchesterakademie im Landeskulturzentrum Salzau, der Meisterkurse an der Musikhochschule Lübeck sowie der Chorakademie eine international renommierte Nachwuchsförderung von Hochbegabten aus aller Welt statt. Jedes Jahr hat das Festival einen Länderschwerpunkt. Die Eutiner Festspiele (Oper im Schlossgarten) wurden 1951 aus Anlass des 125. Todestages des in Eutin geborenen Komponisten Carl Maria von Weber gegründet. Ausgehend von Aufführungen der Weber-Oper „Der Freischütz“ hat sich eine Veranstaltungsreihe (pro Jahr drei Opern in 22–25 Aufführungen im Eutiner Schlosspark) entwickelt, die jährlich fast 50.000 Besucher nach Ostholstein zieht. International bekannt ist das alljährliche Wacken-Open-Air-Festival, das weltgrößte Festival der Metal-Szene. Seit 1989 findet in Eutin um Pfingsten ein Bluesfest mit bis zu 15.000 Besuchern statt. Schleswig-Holstein besitzt – neben einer Vielzahl kleinerer Bühnen – drei große Mehrspartentheater: das Theater Lübeck, das Theater Kiel sowie das Schleswig-Holsteinische Landestheater mit Sitz in Schleswig. Bad Segeberg ist durch die jährlich durchgeführten Karl-May-Spiele bekannt. Das Spektrum der rund 250 schleswig-holsteinischen Museen ist breit gefächert: Es reicht von den zentralen Landesmuseen der Stiftung Schloss Gottorf über die historischen Schlösser und großen Häuser in den Städten bis hin zu einer Vielzahl sehenswerter Heimatmuseen, die Vergangenheit und Eigenheit von Land und Leuten vermitteln, etwa das Carl-Haeberlin-Friesenmuseum in Wyk auf Föhr. Im Museum der Nolde Stiftung Seebüll in Seebüll sind Werke des expressionistischen Malers Emil Nolde in dessen ehemaligem Wohnhaus zu sehen. Das Schleswig-holsteinische Freilichtmuseum in Kiel-Molfsee zeigt historische Gebäude aus dem ganzen Land. In Kiel schlossen sich acht Sammlungen und Museen zum Verbund "museen am meer" zusammen. Dazu gehören die Antikensammlung in der Kunsthalle zu Kiel, das Aquarium GEOMAR, die Kunsthalle zu Kiel, die Medizin- und Pharmaziehistorische Sammlung, die Stadtgalerie Kiel, das Stadt- und Schifffahrtsmuseum Warleberger Hof und Fischhalle sowie das Zoologische Museum. Die Nordischen Filmtage in Lübeck schließlich sind eines der traditionsreichsten und größten norddeutschen Filmfestivals überhaupt. Sie sind ausschließlich dem Kino des Nordens gewidmet; zu sehen sind Produktionen aus Dänemark, Schweden, Norwegen, Island und Finnland sowie Estland, Lettland und Litauen. "Siehe auch:" Liste historischer Orte in Schleswig-Holstein, Liste schleswig-holsteinischer Komponisten klassischer Musik Wassersport. a> ist eine der größten Segelveranstaltungen weltweit. Durch die langen Küsten ist der Wassersport ebenso populär wie das Angeln, vor allem aber ist Kiel eine der Weltmetropolen des Segelns, anerkannt durch die Segelwettbewerbe der Olympischen Sommerspiele 1936 und 1972. Mit der Kieler Woche und der Travemünder Woche ist das Land Ausrichter zweier der größten und traditionsreichsten Segelwettbewerbe der Welt. Auf der Flensburger Förde tragen die Segler traditionell während der herbstlichen Förde Woche die letzten Segelwettkämpfe des Jahres aus. Die älteste Regatta des Landes dürfte die Aalregatta sein, die lange Zeit als Eröffnungsregatta in die "Kieler Woche" integriert war. Insgesamt sind im Land in 230 Vereinen etwa 32.000 Segler organisiert. Sylt und Fehmarn gelten als "Mekka" vieler Surfer. In der Ruder-Stadt Ratzeburg befinden sich ein Bundesleistungszentrum und der Olympiastützpunkt, an dem viele erfolgreiche Mannschaften regelmäßig trainieren. Unter anderem wurden die erfolgreichen Deutschland-Achter von 1960 und 1968 in Ratzeburg gebildet. Seit etwa 2000 hat sich das Kitesurfen an Ost- und Westküste etabliert. In St. Peter-Ording finden zahlreiche Wettbewerbe in dieser Sportart statt. Handball. Schleswig-Holstein beheimatet zwei Handballvereine, die regelmäßig an der Spitze der Bundesliga, des europäischen und des Welthandballs spielen: den THW Kiel und die SG Flensburg-Handewitt. Diesen Anspruch konnten sie in den Jahren 2007 und 2014 mit einem rein schleswig-holsteinischen Champions-League-Finale untermauern, das die Kieler „Zebras“ 2007 gegen den Rivalen von der dänischen Grenze für sich entscheiden konnten, während die SG Flensburg-Handewitt 2014 als Sieger aus dem Finalspiel gegen den THW Kiel hervorging. Bundesligisten im Handball waren zeitweise auch der VfL Bad Schwartau, TSB Flensburg, die SG Weiche-Handewitt und der TSV Altenholz; der Handewitter SV aus der ehemaligen Spielgemeinschaft Weiche-Handewitt bildet jetzt zusammen mit dem TSB Flensburg die SG Flensburg-Handewitt. Fußball. Bundesweit bekannt sind die Traditionsvereine VfB Lübeck (Regionalliga Nord, Stadion Lohmühle) und Holstein Kiel, (3. Liga, Holstein-Stadion), der 1912 Deutscher Fußballmeister war. Schleswig-Holstein ist das einzige westdeutsche Land, das nie durch einen Verein in der Fußball-Bundesliga vertreten war. Vor Gründung der 1. Liga 1963 spielten Holstein Kiel (1947–1963) und der VfB Lübeck (1947–1950, 1952–1954, 1957/58, 1959–1961 und 1962/63) in der Oberliga Nord, der damals höchsten Spielklasse. Neben den beiden spielten außerdem der Itzehoer SV (1950/51), der Heider SV (1956/57 und 1960/61), der VfR Neumünster (1955–1963) und der 1. FC Phönix Lübeck (1957–1960) in der Oberliga und zuvor waren zwischen 1933 und 1944 insgesamt 14 Clubs in der Gauliga Nordmark und Gauliga Schleswig-Holstein erstklassig. Der TSV Uetersen wurde 1950 Meister der drittklassigen Hamburger Germania-Staffel und stieg in die Hamburger Amateurliga auf, deren Meistertitel 1956/57 errungen wurde. Der VfB Lübeck stieg jeweils 1995 und 2002 für kurze Zeit in die Zweite Bundesliga auf und erreichte 2004 das Halbfinale des DFB-Pokals. American Football. Mit den Kiel Baltic Hurricanes des ASC Kiel hat Schleswig-Holstein einen Erstligisten im American Football. Die Mannschaft spielt in der GFL, der höchsten nationalen Liga. Am 9. Oktober 2010 standen die Hurricanes gegen die Berlin Adler im Endspiel (German Bowl), welches sie mit 17:10 gewannen. Ein Jahr später verloren sie das Endspiel gegen die Schwäbisch Hall Unicorns mit 44:48. Sonstige Sportarten. Mitgliedsstärkster Sportverein im Landessportverband Schleswig-Holstein ist der VfL Pinneberg. Beim VfB Lübeck wird neben Fuß- und Handball auch Tischtennis gespielt; sowohl Damen als auch Herren waren lange Zeit in der Bundesliga vertreten, die Herren gewannen einmal den Europapokal (ETTU-Cup). Unter dem Dach des VfB Lübeck wird ebenfalls erfolgreich Badminton gespielt, dort befindet sich ein Bundesnachwuchsstützpunkt. Lübeck, Kiel und Flensburg sind traditionsreiche Stätten des Boxsports. An der Westküste in Nordfriesland und Dithmarschen ist das Boßeln recht populär. Faustball-Hochburgen sind Kellinghusen, Schülp b. Nortorf und Gnutz. In Timmendorfer Strand wird seit Ende der 1980er Jahre Eishockey gespielt. Der Verein war besonders Anfang der 1990er Jahre erfolgreich und ist momentan der einzige aktive Eishockey-Verein in Schleswig-Holstein (Stand 2014). Jährlich finden in Brokstedt und auf dem Dithmarschen-Ring in Albersdorf Speedwayrennen statt. In Jübek wurden auf dem Egon-Müller-Ring mehrere WM-Finalläufe und Langbahn-WM-Grand-Prix-Rennen ausgetragen. Weitere Sportarten wie das Reiten sind ebenfalls populär und haben viele Spitzensportler hervorgebracht. Sundance Film Festival. Das Sundance Film Festival ist ein US-amerikanisches Filmfestival, das jährlich in Park City und Salt Lake City, Utah, stattfindet. Es gilt als wichtige Plattform für unabhängige amerikanische und internationale Produktionen. 2015 fand das 31. Sundance Film Festival vom 22. Januar bis zum 1. Februar statt. Geschichte. Die "Main Street" in Park City beim Sundance Film Festival 2011 Das "Egyptian Theatre" in Park City während des Festivals 2012 Das Festival wurde 1978 unter dem Namen "Utah/US Film Festival" begonnen, um mehr Filmemacher nach Utah zu ziehen. Zu der Zeit bestand das Festival hauptsächlich aus der Präsentation einiger Retrospektiven und Podiumsdiskussionen für Filmemacher. Es gab jedoch schon damals kleinere Vorführungen für Filme, die außerhalb Hollywoods entstanden. Das Fest wurde von zwei Faktoren vor einer Randexistenz als kleines, unbedeutendes Regionalfestival bewahrt. Zum ersten war dies ab 1981 Robert Redford. Der bekannte Schauspieler und Regisseur wohnte selbst in Utah und wurde zum Vorstandsvorsitzenden des Festivals. So gelang es, weit mehr Aufmerksamkeit auf das Festival zu lenken, als dies ohne den Namen Redfords möglich gewesen wäre. Der zweite Faktor war die zeitliche Verlegung der Veranstaltung von September auf den Januar, also vom Sommer in den Winter. Dies geschah angeblich auf einen Ratschlag Sydney Pollacks hin, der anmerkte, dass ein Festival in einem Skigebiet im Winter dazu führen würde, "„dass Hollywood hier die Tür einrennt, um daran teilzunehmen“". Das Management wurde 1985 vom Sundance Institute, einer Non-Profit-Organisation, übernommen und 1991 wurde das Festival offiziell in "Sundance Film Festival" umbenannt. Viele unabhängige Filmemacher verdanken ihren Durchbruch dem Festival, darunter Kevin Smith, Robert Rodriguez, Quentin Tarantino, James Wan, Marc Forster, die Coen-Brüder und Jim Jarmusch. Das Festival brachte auch einige Filme ins Licht der Öffentlichkeit, wie zum Beispiel "Saw", "Inside a Skinhead", "Blair Witch Project", "El Mariachi", "Clerks", "Sex, Lügen und Video", "Napoleon Dynamite", "American Splendor", "Super Size Me", "Donnie Darko" und zuletzt "Little Miss Sunshine". Von 2012 bis 2014 wurde auch ein kleinerer Ableger mit Highlights des Festivals in London durchgeführt. Namensherkunft. Das Sundance Film Festival wurde von Robert Redford nach seiner Rolle des Sundance Kid im Film "Zwei Banditen" benannt, seiner Lieblingsfigur. Einzelnachweise. ! Steve Wozniak. Steve Wozniak im Juni 2010 Stephan „Steve“ Gary Wozniak (* 11. August 1950 in Sunnyvale, Kalifornien) ist ein US-amerikanischer Computeringenieur und Unternehmer. Er war ein prominentes Mitglied des Homebrew Computer Clubs, der als „Schmelztiegel für eine ganze Branche“ bezeichnet wurde und aus dem zahlreiche Computerunternehmen entsprungen sind – unter anderem Apple, das Wozniak und sein Freund Steve Jobs 1976 mit Ron Wayne gründeten. Der Journalist Steven Levy beschreibt in seinem Buch "„Hackers – Heroes of the Computer Revolution“" Wozniak als genialen Computer-Hacker, der sich für die Idee eines "persönlichen Computers" begeistern konnte; eine Idee, die von der in den 1970er Jahren vorherrschenden Industrie als absurd abgetan wurde. Zusammen mit anderen Hackern aus dem Homebrew Computer Club war er an der Entwicklung des persönlichen Computers maßgeblich beteiligt. Er entwickelte den Apple I, den ersten in Serie hergestellten und für Privathaushalte erschwinglichen persönlichen Computer, der als Eingabeeinheit eine schreibmaschinenähnliche Tastatur verwendete und als Ausgabeeinheit einen Bildschirm nutzte (zunächst in Form eines umfunktionierten TV-Geräts). Zusammen mit dem Nachfolgemodell Apple II sind dies die letzten in Serie hergestellten Computer, die von einem einzelnen Entwickler entworfen wurden. Er erfand das Computerspiel Breakout. Jugend. Tom Swift and His Giant Telescope (1939) Wozniak hat polnische und deutsche Vorfahren und ist der Sohn von Margaret Elaine und Jacob Francis Wozniak. Sein Vater arbeitete als Ingenieur bei Lockheed und unterstützte seinen Sohn häufig bei seinen Erfindungen und begutachtete diese. Einfluss hatte auch Tom Swift, der Held einer Serie von Abenteuerromanen. Wozniak sah ihn als das Produkt aus kreativer Freiheit, wissenschaftlichen Kenntnissen und der Fähigkeit, für jedes Problem eine Lösung zu finden. In seiner geistigen Entwicklung spielte die Beschäftigung mit ethischen und moralischen Fragen und der Philosophie eine wichtige Rolle, außerdem die Maxime der Funkamateur-Ethik, Menschen in Not zu helfen, sowie die in den Tom-Swift-Büchern dominierende utilitaristische und humanitäre Einstellung. Später prägten ihn auch die politischen Auseinandersetzungen um den Vietnamkrieg. Von seinem Vater erlernte er die Grundlagen der Mathematik und Elektronik. Als Wozniak elf Jahre alt war, baute er seine eigene Amateurfunkstation und erhielt eine Amateurfunklizenz mit dem Rufzeichen WA6BND. Er wurde zum Präsidenten des Elektronik-Clubs an der Homestead High School im kalifornischen Cupertino gewählt. 1963, im Alter von 13 Jahren, gewann er den ersten Preis bei einem Schülerwettbewerb mit einem selbstgebauten Transistor-basierten Taschenrechner. Im selben Alter begann er, seine ersten Computer zu entwerfen, was ihm den Weg zu seinen späteren Erfolgen ebnete. Mit einem dieser Computer konnte man Tic-Tac-Toe spielen. Da er nicht genügend Geld hatte, um sich viele Bauteile zu leisten, begann er, bereits existierende Rechner mit möglichst wenigen Mikrochips neu zu entwerfen, um sie bezahlbar zu machen. Er war allerdings zu schüchtern, um bei Chipfirmen nach Mikrochips zu fragen, um seine Computer realisieren zu können. Studium. Während seiner Studienzeit widmete er sich in seiner Freizeit dem Bau eines TV-Störsenders, mit dem er seinen Mitschülern diverse Streiche spielte. Im Alter von 19 Jahren entwickelte er zusammen mit seinem Freund Bill Fernandez und der Unterstützung des Managers Bill Werner, der ihm die Chips besorgte, den "Cream Soda Computer". Als der Computer fertiggestellt war, verständigte Wozniaks Mutter die Presse, doch als der Reporter eintraf, stolperte dieser über ein Kabel, und der gesamte Rechner ging in Rauch auf. Der Artikel erschien dennoch. Dieser Computer stellte einen Meilenstein für Wozniak dar. Der Rechner war einerseits auf dem Niveau der erhältlichen Bausätze und andererseits von ihm mehr oder weniger allein gebaut worden. Diese Blue Box gehörte Steve Wozniak und wird im "Computer History Museum" ausgestellt. Zudem war der Cream Soda Computer ein Grund für das Kennenlernen mit Steve Jobs. Als der Rechner fertiggestellt war, veranlasste Bill Fernandez ein Treffen zwischen den beiden, da sich beide für Elektronik interessierten. Sie trafen sich bei Bill, kamen direkt über Computer ins Gespräch und wurden gute Freunde. Phreaking. In einer Ausgabe des "Esquire" entdeckte Wozniak eine Geschichte über eine "Blue Box", mit der es möglich war, kostenlose Telefonate zu führen. Dazu musste man eine kostenlose Nummer anrufen, mittels eines speziellen Tons die Leitung „übernehmen“ und per Tönen wählen. Er traf sich mit John T. Draper alias Capt'n Crunch, dem Entdecker dieser Phreaking-Methode, und ließ sich die technischen Hintergründe erklären. Gemeinsam mit Steve Jobs begann er, selbstgebaute Blue Boxes zu verkaufen. Für Wozniak standen jedoch nicht die kostenlosen Telefonate im Vordergrund, sondern, dass er einen Fehler im System ausnutzen konnte – was als typische Einstellung eines Hackers angesehen werden kann. Die zunehmende Verbreitung der Blue Box und von Nachbauten veranlasste die amerikanische Telefongesellschaft AT&T schließlich, die Technik ihres Telefonnetzes landesweit zu ändern. Hewlett-Packard. Wozniak war einer der Entwickler des HP-35, des weltweit ersten technisch-wissenschaftlichen Taschenrechners (1972). Nachdem Steve Wozniak im Juni 1972 Berkeley verließ, begann er bei der kleinen Firma Electroglas zu arbeiten. Nach einem halben Jahr, im Januar 1973, wechselte er als Ingenieur zu HP. Hier traf er seinen Freund Allen Baum wieder, der dort ein Praktikum absolvierte. Baum berichtete Wozniak über die Arbeit in seiner Gruppe, die den Taschenrechner HP-35 konstruierte. Nach der Versetzung in diese Gruppe konnte Wozniak an dem arbeiten, was er sich immer gewünscht hatte. Der HP-35 war der weltweit erste technisch-wissenschaftliche Taschenrechner mit trigonometrischen, logarithmischen und Exponentialrechnungs-Funktionen. Seine Leidenschaft war jedoch immer noch die Entwicklung von Computern. In seiner Freizeit entwickelte er nebenbei Videospiele. Als er Steve Jobs, der mittlerweile bei Atari arbeitete, dort besuchte und den Anwesenden seine Entwicklung präsentierte, bot Atari ihm direkt einen Job an. Wozniak lehnte jedoch ab, da er sich immer noch bei Hewlett-Packard wohlfühlte. Breakout. Ein paar Monate später erhielt er einen Anruf von Jobs, der ihm eröffnete, dass Atari ein ähnliches Spiel wie Pong entwickeln würde und Wozniak dabei helfen sollte; das gesamte Projekt musste jedoch in vier Tagen vollendet werden. So erfand Wozniak das Spiel Breakout. Für diese Arbeit erhielt Steve Jobs 5000 Dollar. Seinem Freund Wozniak, der das eigentliche Spiel in lediglich vier Tagen entwickelt hatte, erzählte er, dass er nur 700 Dollar bekommen habe, und gab ihm 350 Dollar. Homebrew Computer Club. Im März 1975 besuchte Wozniak zum ersten Mal ein Treffen von Freizeitingenieuren, den Homebrew Computer Club. Ziel des Clubs war es, die Computertechnologie jedermann zugänglich zu machen. Bereits nach seinem ersten Besuch begann Wozniak einen Computer zu entwickeln. In derselben Nacht hatte er den Entwurf auf Papier fertig. Jedoch dauerte es weitaus länger, die Teile zu besorgen und deren Datenblätter zu verstehen. Orientierungspunkt des Rechners war der Altair 8800. Als er den Rechner fertiggestellt hatte, traute er sich zunächst nicht, den Computer zu präsentieren. Dieser von einer einzelnen Person entwickelte Computer war für seine Zeit eine ingenieurtechnische Meisterleistung. Der Bedienkomfort war der Konkurrenz überlegen. Er war der erste Heimcomputer mit einer Schreibmaschinentastatur. Die Konkurrenz, zum Beispiel der Altair, der Anfang 1975 vorgestellt worden war, musste mühsam über Kippschalter gesteuert werden. Der Altair hatte im Auslieferungszustand keinen Monitor, keine Tastatur und keinen richtigen Speicher. Der Apple I war eine vollständig zusammengebaute Hauptplatine, optional auch bereits mitsamt Tastatur, in ein Gehäuse aus Holz eingebaut erhältlich, mit einem 1-MHz-Prozessor auf einem Mainboard mit 4 kB Arbeitsspeicher. Als Speichermedium ließ sich über ein kleines Interface ein handelsüblicher Kassettenrekorder anschließen, so dass Programme nicht nach jedem Start neu eingetippt werden mussten. Apple. Am 1. April 1976 gründeten Jobs und Wozniak die Apple Computer Company. Für das Startkapital verkaufte Wozniak seinen programmierbaren Taschenrechner Hewlett-Packard HP-65 und Jobs seinen VW Bulli. Für beides zusammen bekamen sie 1300 Dollar. Die ersten Apple I löteten sie in Jobs' Garage zusammen. Durch seine Arbeit bei Apple verdiente er mittlerweile mehr als bei seinem Job bei HP. Dennoch wollte er zunächst lieber bei HP bleiben. Dort wurde er jedoch nicht wie gewünscht in die Abteilung zur Entwicklung eines Computers versetzt. Dies und ständige Versuche seitens Steve Jobs überzeugten ihn schließlich, seinen Job bei HP zu verlassen und bei Apple verantwortlich für die Forschung und Entwicklung zu werden. Der Apple I kostete 666,66 Dollar (dies entspricht in etwa einem heutigen Wert von 2500 Dollar). Die ersten 50 Computer wurden an den Byte-Shop, einen lokalen Computerhändler, verkauft. Insgesamt wurden einige hundert Exemplare verkauft, die von Steve Wozniak zusammengelötet wurden. Wozniak konnte sich vollzeitig auf die Problembehebung beim Apple I und die Erweiterung um neue Funktionen konzentrieren. Mit dem Gewinn aus dessen Verkauf wurde der Apple II entwickelt. Dieser neue Computer sollte einfach in der Bedienung und kostengünstig in der Herstellung sein. Dies wurde erreicht durch die Verwendung einfachster massengefertigter Logikchips statt teurer Spezialchips und durch Wozniaks Fähigkeit, viele Chips einzusparen. Der Apple II konnte Farben und Grafiken darstellen, zudem war er mit seinen acht Steckplätzen einfach und vielseitig erweiterbar. 1978 entwarf Wozniak die gesamte Elektronik für ein Diskettenlaufwerk (die Mechanik wurde extern zugekauft). Zusammen mit Randy Wigginton schrieb er das Betriebssystem Apple DOS. Zusätzlich zum Hardwareentwurf schrieb Wozniak die meiste Software, die auf den frühen Apple-Computern lief. Er schrieb einen BASIC-Interpreter für den 6502-Prozessor, bevor er einen solchen Prozessor überhaupt real in die Hände bekam, das Spiel Breakout (das ein Grund war, Tonausgabe und einen zweiten, niedrig auflösenden, aber dafür schnelleren Grafikmodus mit in die Computer einzubauen), den Code, der benötigt wurde, um das Diskettenlaufwerk zu steuern, und vieles mehr. Sein sehr eigenwilliger Programmierstil sorgte für ungewöhnlich schnelle und speicherplatzsparende Programme, machte aber zugleich die Wartung durch andere Programmierer fast unmöglich. Auf der Softwareseite wurde der Apple II immer attraktiver für Geschäftsleute, da Dan Bricklin und Bob Frankston die Tabellenkalkulationssoftware Visicalc entwickelten. Ab etwa 1980 war Apple zu einer weltweit bekannten Marke geworden und machte Jobs und Wozniak zu Millionären. Weggang. a> beim Apple Computer Users Group meeting (1985) Für Jahre war der Apple II die Haupteinnahmequelle bei Apple und sicherte das Überleben der Firma, während sie durch die Flops des Apple III und des kurzlebigen Lisa nur knapp dem Konkurs entging. Durch die zuverlässigen Gewinne war es möglich, den Macintosh zu entwickeln und zu vermarkten. Der Macintosh hat bis heute eine große Bedeutung unter den Apple-Produkten. Am 7. Februar 1981 stürzte Steve Wozniak beim Start vom Santa Cruz Sky Park mit einer Beechcraft Bonanza ab. Die Ermittlungen ergaben, dass seine Lizenz nicht ausreichend war, ein Flugzeug dieses Typs zu fliegen. Als Folge des Flugzeugabsturzes litt er zeitweise an anterograder Amnesie. Durch den Unfall wurde er in vielerlei Hinsicht aus der Bahn geworfen. Er quälte sich mit Fragen über Sinn und Ziel seines Lebens und fühlte sich ausgebrannt. Er heiratete und kehrte unter dem Namen „Rocky (Raccoon) Clark“ zur University of California, Berkeley zurück, um schließlich 1982 seinen Abschluss nachzuholen. Der falsche Name sollte ihm eine gewisse Ruhe und Anonymität bewahren, da sein echter Name bereits sehr bekannt geworden war. 1983 entschied er sich, zur Hauptentwicklungsabteilung von Apple zurückzukehren, jedoch wollte er nur noch ein einfacher Ingenieur und ein motivierender Faktor für die Apple-Belegschaft sein. 1982 und 1983 sponserte er zweimal das „US Festival“, das die Entwicklung der Technologien und die Verbindungen zwischen der Musik, dem Computer, dem Fernsehen und den Leuten feierte. Finanziell waren die Festivals Misserfolge, allerdings stellten sie wichtige formative Ereignisse der neuen elektronisch-kreativen Klasse dar, indem sie Computer-Spieleentwickler, Computer-Filmtricktechniker, elektronische Musiker, innovative Fernsehleute und viele andere, bis dahin eher einzeln Arbeitende, zusammenführten. Steve Wozniak zog sich am 6. Februar 1985 teilweise von Apple zurück, ist aber bis heute Mitarbeiter mit einem festen Einkommen. Er wollte mehr Zeit in eine kleinere Firma investieren und gründete neun Jahre nach der Entstehung von Apple die Firma CL 9. Der ursprünglich geplante Name "Cloud 9" war bereits vergeben, daher wählte er diese Abkürzung. Die Firma befasste sich mit der Entwicklung von Universalfernbedienungen. Die Gehäuse sollten von dem deutschen Unternehmen frogdesign entworfen werden, das ebenfalls für die Gestaltung des Apple-IIc-Gehäuses verantwortlich war. Als Steve Jobs einen Prototyp zu Gesicht bekam, zerschmetterte er ihn und drohte frogdesign mit der Stornierung sämtlicher laufender und zukünftiger Aufträge von Apple, falls sie weiterhin mit Wozniak kooperieren würden. Später entdeckte Steve Wozniak seine Leidenschaft für das Unterrichten. Er unterrichtete beispielsweise Fünftklässler und verfolgte karitative Tätigkeiten im Bereich der Ausbildung. Er moderierte auch Unuson (Unite Us In Song), das bei dem von ihm gesponserten US Festival gegründet wurde. 2001 gründete er "Wheels Of Zeus", eine Firma, die drahtlose und GPS-gestützte Produkte herstellt. Im selben Jahr kam er in den Aufsichtsrat von Danger, Inc., den Machern von Hiptop (auch als "Sidekick" von T-Mobile bekannt). Seit August 2009 ist Steve Wozniak als „Chief Scientist“ für das amerikanische Unternehmen Fusion-io tätig. Im Dezember 2014 wurde Steve Wozniak zum außerordentlichen Professor an der University of Technology, Sydney, ernannt. Ehrungen. a> und Steve Wozniak auf der CHM 2011 Steve Wozniak erhielt 1985 die National Medal of Technology vom Präsidenten der Vereinigten Staaten. 1987 war er Sponsor des ersten US/UdSSR-Rock-Konzertes in Moskau. 1979 erhielt er den Grace Murray Hopper Award. 1990 gründete Wozniak mit anderen zusammen das Tech Museum, das Silicon Valley Ballet und das „Children’s Discovery Museum“ in San José (Kalifornien) und unterstützte andere lokale Projekte. Im selben Jahr war er Sponsor von Computern für Schulen in der Sowjetunion, und er ist Mitbegründer der Electronic Frontier Foundation. Seit 1980 ist Wozniak ein Mitglied im Bund der Freimaurer, seine Loge "Charity Lodge No. 362" ist in Campbell (Kalifornien) ansässig. Im September 2000 wurde er in die National Inventors Hall of Fame aufgenommen. Im Mai 2004 wurde Wozniak von Tom Miller für einen Ehrendoktor der Wissenschaft an der North Carolina State University für seine Verdienste um den Heimcomputer nominiert. Am 10. und 11. Juni 2004 nahm er an der H.O.P.E.-Konferenz in New York teil, wo er am Samstag in einem zweistündigen Vortrag über sein Leben und die Technologie und am Sonntag zusammen mit Richard Cheshire und Sam Nitzberg über Retrocomputing sprach. In dem im November 2005 erschienenen PC-Computerspiel Civilization 4 wird er mit dem Ausspruch: „Traue keinem Computer, den du nicht aus dem Fenster werfen kannst” zitiert. Passend dazu geschieht ebendieses im Spiel bei der Erfindung des Computers. Am 6. Mai 2011 wurde Wozniak mit der Ehrendoktorwürde der Michigan State University ausgezeichnet. Wozniak in der Populärkultur. Wozniak wurde bereits in mehreren Filmen porträtiert. Die frühen Jahre der Firma Apple werden in dem Fernsehfilm "Die Silicon Valley Story" in Szene gesetzt. Wozniak wird darin von Joey Slotnick verkörpert. In "Jobs" wurde seine Rolle 2013 von Josh Gad übernommen. In der im gleichen Jahr veröffentlichten Filmparodie "iSteve" stellte ihn der Schauspieler Jorge Garcia dar. In Danny Boyles Biopic "Steve Jobs" aus dem Jahr 2015 wurde Wozniak von Seth Rogen dargestellt. Wozniak trat 2010 in der zweiten Folge der vierten Staffel der Sitcom "The Big Bang Theory" als er selbst auf. Stephen Baxter. Stephen Baxter auf der 63. World Science Fiction Convention (2005) Stephen Baxter (* 13. November 1957 in Liverpool) ist ein englischer Science-Fiction-Autor, der seit 1995 diese Tätigkeit hauptberuflich ausübt. Baxter studierte Mathematik in Cambridge und wurde als Ingenieur an der Southampton-University promoviert. Einige Jahre lang lehrte er Mathematik, Physik und Informatik. Sein Stil als Hard-SF-Schreiber gilt als einzigartig. Er hat viele Preise gewonnen: Den Philip K. Dick Award, den John W. Campbell Memorial Award, den British Science Fiction Association Award, den deutschen Kurd-Laßwitz-Preis und den Seiun Award (Japan). Den Sidewise Award für Geschichten, die sich um alternative Zeitlinien drehen, erhielt er zum einen für seinen Roman "Voyage" (dt. "Mission Ares") und zum anderen für seine Erzählung "Brigantia's Angels", für die Erzählung "Huddle" bekam er den Locus Award. Stephen Baxter stellt in jedem seiner Romane eine Frage und leitet dann Antworten aus dem aktuellen Kenntnisstand der physikalischen Gesetze und Theorien her. Der Xeelee-Zyklus (The Xeelee Sequence). Sein»Xeelee«-Zyklus spielt in einer fernen Zukunft. Die Menschen sind dabei, sich neben den gottähnlichen Xeelee (gespr. Sielie) zur zweitmächtigsten Spezies im Universum zu entwickeln. Die Romane und Kurzgeschichten beschäftigen sich mit Aspekten der modernen Physik, mit Singularitäten und den Konflikten zwischen baryonischem und supersymmetrischem Leben. Speziell in Flux findet man eine literarische Beschreibung für Leben auf einem Neutronenstern. Kinder des Schicksals (Destiny's Children). Sein Zyklus über die»Kinder des Schicksals«fügt sich in den»Xeelee«-Zyklus ein. In diesen Romanen wird beschrieben, wie sich durch diverse Umstände Parallelentwicklungen in der menschlichen Gesellschaft ergeben und dabei auch Unterarten der Gattung Mensch entstehen können. Die Mammut-Trilogie (Mammoth). In dieser Trilogie sind die Mammuts nicht ausgestorben, eine kleine Gruppe von ihnen hat auf einer einsamen Insel im Nordpolarmeer überlebt. Die Bücher beschreiben, wie es dazu kam, und wie sie sich in unserer modernen Welt zurechtfinden. Das Multiversum (Manifold). Die Romane der Multiversum-Trilogie liefern verschiedene mögliche Erklärungen zum Fermi-Paradoxon und auch einen Einblick in die Viele-Welten-Interpretation der Quantenmechanik. The Web. Baxter hat die Bände 1 und 7 zu der zwölfteiligen Jugendbuch-Serie The Web beigetragen, spricht auf seiner Homepage selbst aber vom "Web Book 1 + 2". Schimon Peres. Schimon Peres (hebräisch;; ursprünglich "Szymon Perski"; * 2. August 1923 in Wiszniewo, damals Polen, heute Weißrussland) ist ein israelischer Politiker und Friedensnobelpreisträger. Er war von 2007 bis zum 24. Juli 2014 Staatspräsident von Israel. Peres war das weltweit älteste Staatsoberhaupt und war mit Unterbrechungen an mehreren Regierungen beteiligt. Zudem war er mehrmals Vorsitzender der israelischen Arbeitspartei Awoda, aus der er jedoch 2006 austrat. Peres war von 1984 bis 1986 der achte Ministerpräsident Israels und nach der Ermordung Jitzchak Rabins erneut von 1995 bis 1996. Er war auch stellvertretender Regierungschef und Außenminister Israels in der Regierung Ariel Scharons von 2001 bis 2002. Ab Januar 2005 war er erneut Vize-Ministerpräsident in den Regierungen von Ariel Scharon und Ehud Olmert. Am 13. Juni 2007 wurde er von der Knesset als Nachfolger von Mosche Katzav zum neunten Staatspräsidenten Israels gewählt. Peres trat seine siebenjährige Amtszeit am 15. Juli 2007 an. Zu seinem Nachfolger wurde am 10. Juni 2014 Reuven Rivlin gewählt, der am 24. Juli 2014 sein Amt antrat. Anfangsjahre. Der junge Schimon Peres (1936) Schimon Peres wurde in der polnischen Stadt Wiszniewo, dem heute weißrussischen Wischnewa, als Sohn eines Holzhändlers geboren und wanderte 1934 mit seiner Familie nach Tel Aviv aus. Der in Polen verbliebene Großvater kam später bei einem durch Deutsche verursachten Synagogenbrand ums Leben. Peres wurde an der Geula-Schule in Tel Aviv und der Landwirtschaftsschule von Ben Schemen ausgebildet und lebte im Kibbuz Gewa. Seit seinem 16. Lebensjahr gehörte er der Awoda-Vorgängerpartei Mapai an und schloss sich früh der israelischen Gewerkschaftsbewegung Histadrut an, in deren Jugendbewegung er zwischen 1941 und 1945 als Generalsekretär fungierte. Im Jahre 1947 schloss er sich der Hagana, dem Vorgänger der Israelischen Verteidigungsstreitkräfte, an und bekam von David Ben-Gurion das Aufgabenfeld Personal- und Waffenbeschaffung zugewiesen. In und nach dem israelischen Unabhängigkeitskrieg war er als Leiter des israelischen Seedienstes tätig. Im Jahre 1950 wurde Peres als Leiter einer Delegation des Verteidigungsministeriums in die USA geschickt. Während seines Aufenthalts dort studierte er an der Harvard University Verwaltungswissenschaften. Nach Israel zurückgekehrt, wurde er 1952 stellvertretender Generaldirektor des Verteidigungsministeriums und 1953 Generaldirektor (Staatssekretär). Er war maßgeblich für die Waffenbeschaffung für den noch jungen Staat Israel verantwortlich. Unter anderem schloss er 1957 mit dem damaligen bundesdeutschen Verteidigungsminister Franz Josef Strauß ein förmliches, aber geheim gehaltenes, Abkommen. Auf Peres’ Bemühungen gehen die Beschaffung des französischen Kampfflugzeugs Dassault Mirage III und eines französischen Kernreaktors zurück. Politische Karriere. Peres und Jassir Arafat beim Weltwirtschaftsforum 2001 in Davos. 1959 wurde er als Abgeordneter der Mapai in die Knesset gewählt. Von 1959 bis 1965 war er stellvertretender Verteidigungsminister. 1965 folgte er David Ben-Gurion, als der die Mapai verließ und die Partei Rafi gründete, deren Wiedervereinigung mit der Mapai er jedoch bereits 1967 betrieb. 1969 wurde er zum Minister für Einwanderung und Integration ernannt. 1970 schließlich wurde er Minister für Verkehr und Kommunikation. 1974 wurde er nach einer Periode als Informationsminister Nachfolger von Mosche Dajan als Verteidigungsminister in der Regierung Jitzchak Rabin. Zwischen 1977 und 1992 war er als Chef der israelischen Arbeitspartei Awoda auch Vize-Präsident der Sozialistischen Internationale, beide Posten hatte er zwischen 2003 und 2005 erneut inne. Obwohl Peres nie eine Wahl gewonnen hat, war er drei Mal – kurzzeitig ab April 1977 nach dem Rücktritt Rabins bis zu den Parlamentswahlen, von 1984 bis 1986 als Teil einer Rotationsabsprache mit dem Likud-Politiker Jitzchak Schamir (dem sogenannten Israelischen Modell) und noch einmal zwischen 1995 und 1996 nach Ermordung von Jitzchak Rabin – Ministerpräsident Israels. Peres war bereits 1982 ein profilierter Kritiker der israelischen Invasion in den Libanon und vertrat die Ansicht, die Palästinenserprobleme seien nur politisch, nicht militärisch zu lösen. 1985 befahl er als Regierungschef der aus zehn Parteien bestehenden „Regierung der nationalen Einheit“ den weitgehenden Rückzug der israelischen Armee aus dem Libanon. Er erhielt 1994 zusammen mit Jassir Arafat und Jitzchak Rabin den Friedensnobelpreis für seine Verdienste im Oslo-Friedensprozess. Jitzchak Rabin wurde am 4. November 1995 von einem streng-religiösen israelischen Studenten ermordet, und Peres übernahm das Amt des Ministerpräsidenten. 1996 ordnete Peres nach Raketenangriffen der Hisbollah auf Nordisrael die sogenannte Operation Früchte des Zorns im Libanon an, in deren Folge während eines israelischen Artillerieangriffs auf Kana bei der Zerstörung des UNIFIL-Hauptquartiers 106 libanesische Zivilisten den Tod fanden. Der Zwischenfall kostete Peres später die entscheidenden arabischen Stimmen in der verlorenen Direktwahl zum Ministerpräsidenten gegen Benjamin Netanjahu, nachdem er bis dahin als haushoher Favorit gegolten hatte. Die Niederlage gegen Netanjahu war sehr knapp: Peres erhielt 1.471.566 Stimmen und damit 49,5 %, Netanjahu 1.501.023 Stimmen und damit 50,5 %. 1997 gründete er das Peres Center for Peace. Peres blieb Unterstützer des Oslo-Friedensprozesses und des palästinensischen Autonomieprozesses trotz der Ersten und Zweiten Intifada. Dennoch unterstützte Peres in der Opposition die Militärpolitik Ariel Scharons, mit Hilfe der israelischen Armee unter anderem Selbstmordattentate zu verhindern. Am 31. Juli 2000 unterlag Peres bei der Wahl zum israelischen Präsidenten gegen Mosche Katzav. Die 120 Abgeordneten der Knesset entschieden sich mit 63 zu 57 Stimmen für Peres' Gegenkandidaten. Als Außenminister unterstützte Schimon Peres die strategische Allianz mit der Türkei und weigerte sich im April 2001, den Begriff „Holocaust“ auf den Völkermord an den Armeniern anzuwenden: „We reject attempts to create a similarity between the Holocaust and the Armenian allegations. Nothing similar to the Holocaust occurred. It is a tragedy what the Armenians went through but not a genocide.“ Da Frankreich aufgrund der Anerkennung des Völkermordes an den Armeniern von 1915 durch die Nationalversammlung aus dem Waffengeschäft mit der Türkei ausgeschlossen worden war, sicherte Peres Israel somit türkische Rüstungsaufträge im Umfang von über zwei Milliarden US-Dollar. Obwohl er bereits 2003 in großem Kreis seinen 80. Geburtstag feierte, gilt er in Israel mehr denn je als engagierter Politiker. Er trat auch als Vize-Ministerpräsident in die „Regierung der nationalen Einheit“ ein, die Ariel Scharon 2005 bildete, um den einseitigen Rückzug aus dem Gazastreifen durchzusetzen. Im November 2005 schaffte er es nicht, den Vorsitz seiner Partei zu verteidigen, und unterlag seinem Herausforderer Amir Peretz. Daraufhin wurden Neuwahlen in Israel unausweichlich. Peres war nicht bereit, unter dem neuen Parteichef Peretz zu arbeiten, der ihm keinen gesicherten Listenplatz für die Wahlen im Jahre 2006 zusichern wollte. Nach langem Hadern und intensiven Bemühungen Scharons entschloss sich Peres am 30. November 2005 auf Anraten seiner engsten Mitarbeiter, aus der Arbeitspartei auszutreten und die neugegründete Partei der Mitte Kadima des israelischen Ministerpräsidenten zu unterstützen. 60 Jahre hatte er der Awoda angehört, der er damit einen schweren Schlag versetzte und der Kadima Reputation verschaffte. Er begründete diesen Schritt damit, dass Scharon die geeignetste Person sei, eine Koalition für Frieden und Sicherheit anzuführen. Scharon habe die besten Chancen, den Friedensprozess mit den Palästinensern wiederzubeleben. Nach der Erkrankung Scharons übernahm Ehud Olmert als amtierender Ministerpräsident und Spitzenkandidat der Kadima Scharons Ämter; im April 2006 wurde Olmert gewählter Ministerpräsident Israels. Schimon Peres selbst kandidierte auf Listenplatz 2. Am 28. Mai 2007 wurde Schimon Peres erneut, nunmehr von der Kadima, als Kandidat für die israelische Präsidentschaftswahl am 13. Juni 2007 nominiert. Am 30. Mai bestätigte Peres in einer öffentlichen Erklärung seine Kandidatur für das Präsidentenamt. Bei der Wahl am 13. Juni erhielt Peres im ersten Wahlgang zunächst 58 Stimmen. Die beiden Gegenkandidaten Reuven Rivlin (Likud) und Colette Avital (Awoda) verzichteten auf die Teilnahme am zweiten Wahlgang, in welchem Peres schließlich 86 Stimmen erhielt und damit zum neuen Präsidenten Israels gewählt wurde. Am 15. Juli 2007 wurde er als Präsident vereidigt und trat die Nachfolge des am 1. Juli zurückgetretenen Mosche Katzav an. Aufgrund seiner großen Reputation in der internationalen Öffentlichkeit und innerhalb diplomatischer Kreise wirkt Peres häufig als Vermittler israelischer Politikkonzepte. Dabei verteidigt Peres auch Israels Sicherheitspolitik in den Punkten Terrorismusbekämpfung und Bau der israelischen Sperranlagen gegen internationale Kritik. 2010 hielt Peres anlässlich der Gedenkstunde zum Tag des Gedenkens an die Opfer des Nationalsozialismus eine Rede vor dem Deutschen Bundestag. Zur Präsidentenwahl am 10. Juni 2014 trat er nicht mehr an, zu seinem Nachfolger wurde Reuven Rivlin gewählt. Familie. Peres war von 1945 bis zu ihrem Tod im Januar 2011 mit Sonja Peres (geb. Gelman) verheiratet und hat eine Tochter, Tsvia, und zwei Söhne, Yoni und Chemi. Tsvia Walden-Peres ist Linguistin, Chemi ist Vorsitzender der Pitango Venture Capital, eines der größten israelischen Risikokapitalfonds, und Yoni ist Tierarzt. Schimon Peres ist ein Cousin von Lauren Bacall. Scalable Vector Graphics. Scalable Vector Graphics (SVG, für "skalierbare Vektorgrafik") ist die vom World Wide Web Consortium (W3C) empfohlene Spezifikation zur Beschreibung zweidimensionaler Vektorgrafiken. SVG, das auf XML basiert, wurde erstmals im September 2001 veröffentlicht. Einige der gebräuchlichsten Webbrowser können ohne nachträgliche Installation von Erweiterungen einen Großteil des Sprachumfangs darstellen. Beim Internet Explorer bis Version 8 ist dafür die Installation einer Erweiterung (Plug-in) erforderlich. Animationen werden von SVG mittels SMIL unterstützt. Manipulationen des SVG-DOM sind mit Hilfe eingebetteter Funktionen via Skriptsprachen möglich. Da SVG ein XML-basiertes Dateiformat ist, sind Inhalte von SVG-Dateien für computerunterstützte Übersetzung und andere Weiterverarbeitungen leicht zugänglich. Sie können prinzipiell auch direkt mit einem Texteditor bearbeitet werden. Bequemer ist allerdings die Bearbeitung mit speziellen Programmen (siehe Abschnitt SVG-Editoren). Die empfohlene Dateiendung ist ".svg" oder, wenn die Datei mit gzip komprimiert ist, ".svgz". Der MIME-Typ ist codice_3. Geschichte. Das W3C übernahm aber keine der beiden Sprachen als Empfehlung, sondern vereinigte sie und entwickelte sie unter eigener Regie weiter. Detaillierte Gründe für die Entwicklung einer neuen Sprache sind unter anderem einer detaillierten Anforderungsliste im ersten Arbeitswurf zu entnehmen. Am 4. September 2001 veröffentlichte das W3C unter dem Namen "Scalable Vector Graphics (SVG) 1.0 Specification" die erste Empfehlung (englisch "recommendation"). Diese Empfehlung wurde von Teilen der IT-Industrie als Standard akzeptiert. Microsoft folgte dem längere Zeit nicht und unterstützte in seinen Anwendungen nur die Vektorsprache VML. Die erste Version des Internet Explorers, die SVG nativ unterstützt, ist Version 9. Ab dem Internet Explorer 10 unterstützt Microsoft VML nicht mehr. Bereits am 3. August 2001 wurde ein erster Arbeitsentwurf für eine Modularisierung von SVG veröffentlicht, um für mobile Geräte mit geringerem Leistungsumfang dafür geeignete Teile von SVG als Empfehlung zugänglich zu machen. Dies führte dann letztlich zu Version 1.1 mit drei Profilen, 'Tiny' für Geräte mit geringer Leistung, 'Basic' für Geräte mit etwas höherem Leistungsumfang und 'Full', das den vollen Funktionsumfang von SVG 1.0 umfasst. Einmal abgesehen von Korrekturen von bekannten Fehlern deckt sich SVG Full 1.1 von den Funktionen und Merkmalen her mit SVG 1.0. Am 14. Januar 2003 wurden die Empfehlungen zu SVG 1.1 und SVG Mobile veröffentlicht. Diese Empfehlungen wurden danach noch überarbeitet. Die letzte Bearbeitung der mobilen Variante stammt von 2009. Für SVG 1.1 gibt es eine zweite Bearbeitung vom 16. August 2011. Zunächst wurde geplant, SVG 1.1 mit der Version 1.2 zu erweitern. Dies wurde allerdings primär von Anbietern mobiler Geräte mit Interesse aufgenommen, während die Anbieter von Darstellungsprogrammen für Rechner sich erst einmal auf die Implementierung von SVG 1.1 konzentriert haben. Das Profil für SVG Full 1.2 ist von daher nicht über einen Arbeitsentwurf hinaus gelangt. An der mobilen Version von SVG 1.2 wurde allerdings weitergearbeitet. Inzwischen war bei mobilen Geräten auch eine deutliche Steigerung des Leistungsumfanges eingetreten, weswegen man sich auf ein Profil für den mobilen Markt beschränkt hat. Am 22. Dezember 2008 wurde dann für diese Version eine Empfehlung für ein Tiny-Profil veröffentlicht. Gegenüber 1.1 führt dies einige neue Merkmale und Funktionen ein, etwa von SMIL übernommene Elemente für Audio, Video und der Einbettung von anderen SVG-Dokumenten, das deklarative Entfernen von Elementen aus dem Dokument-Objekt-Modell, neue Erweiterungen für den Zugriff von Skripten auf das Dokument-Objekt-Modell, eingeschränkte Transformationen, Mal-Dienste für Farbe, die Möglichkeit eine Hintergrundfarbe für den Malbereich anzugeben, automatischer Textumbruch, Möglichkeit für interaktive Texteingabe und Änderung von Text. Außerdem ist es gelungen, in dieser Version einige Unklarheiten und Unstimmigkeiten hinsichtlich der deklarativen Animation zu beheben, was zum großen Teil dann auch in die zweite Bearbeitung von SVG 1.1 als Fehlerberichtigung übernommen wurde. Derzeit aktuelle Spezifikationen sind also die Version SVG Tiny 1.2 und die zweite Bearbeitung von SVG 1.1. Seit 2011 wird an SVG 2 gearbeitet, das zahlreiche Änderungen und Erweiterungen enthält. Dessen Fertigstellung soll bis 2016 erfolgen. Dokument. Als XML-Dokument wird eine SVG in einer Baumstruktur aus verschiedenen Elementen und diesen Elementen zugewiesenen Attributen aufgebaut. Jede SVG-Datei beginnt, wie bei XML-basierten Sprachen üblich, mit der XML-Deklaration. Darauf können Verarbeitungsanweisungen folgen, etwa solche zur Referenzierung externer Stilvorlagen. Darauf kann eine Dokumenttypdeklaration folgen. Zu Version 1.0 und Version 1.1 gibt es entsprechende offizielle DTDs, die referenziert werden können, für SVG Tiny 1.2 gibt es dies nicht, dort kann allenfalls noch die interne Teilmenge notiert werden, etwa um eigene Entitäten zu definieren. Darauf folgt wie bei allen XML-Dokumenten das Wurzelelement, für SVG-Dokumente hat dieses den Namen "svg". Um das Element und seinen Inhalt eindeutig dem SVG-Namensraum zuzuordnen und ihm so eine definierte Bedeutung zu geben, die mit den SVG-Empfehlungen zu tun hat, wird der Namensraum beim Wurzelelement mit der Mit den Attributen codice_4 (englisch: "Breite") und codice_5 (englisch: "Höhe") des SVG-Elementes "svg" wird die Größe der Grafik definiert. Werden diese Attribute nicht gesetzt, wird die Größe impliziert, jeweils entsprechend einem Attributwert von codice_6 für codice_4 und codice_5 was 100 % der Höhe und Breite des verfügbaren Anzeigebereiches entspricht. Mit dem Attribut codice_9 kann angegeben werden, welcher Bereich der Zeichenebene im Anzeigebereich dargestellt werden soll. Gegebenenfalls erfolgt also eine Transformation dieses Bereiches hin zum Anzeigebereich. Wird das Attribut nicht angegeben, deckt sich der Bereich mit dem Anzeigebereich, es findet also keine Transformation statt. Weil dem Autor die Größe des Anzeigebereiches nicht bekannt ist, ist die Verwendung von codice_9 allgemein zu empfehlen, insbesondere wenn für codice_4 und codice_5 keine Angaben oder die in Prozent notiert sind. Koordinatensystem und -angabe. Vergleich der Koordinatensysteme einer Rastergrafik und einer SVG. Die Rastergrafik erlaubt nur ganzzahlige Koordinaten, SVG als Vektorgrafik erlaubt auch Gleitkommazahlen als Koordinaten. Das anfängliche Koordinatensystem hat seinen Koordinatenursprung in der linken oberen Ecke des Zeichenbereichs. Es handelt sich dabei um ein internes, dimensionsloses Koordinatensystem, bei dem die X-Achse nach rechts und die Y-Achse nach unten weist. Dieses Koordinatensystem wird durch die Attribute codice_4 (Breite) und codice_5 (Höhe) für die Ausgabe dimensioniert. Durch Verwendung des Attributes codice_9 und bei den meisten Nachfahren des Wurzelelementes auch durch Verwendung des Attributes codice_16 ergibt sich ein vom anfänglichen Koordinatensystem abweichendes aktuelles Koordinatensystem. Alle relativen und absoluten Längenangaben innerhalb der Grafik werden auf dieses aktuelle Koordinatensystem bezogen. Als Einheiten können in der Vollversion von SVG sowohl relative (wie em oder Prozent) als auch absolute Angaben (wie Meter oder Zoll) gewählt werden. Dafür stehen in SVG die von der Stilvorlagen-Sprache "Cascading Style Sheets" bekannten Einheiten zur Verfügung. Bei den tiny-Versionen werden im Inhalt hingegen nur dimensionslose Längen verwendet. Lediglich für codice_4 und codice_5 des Wurzelelementes sind wie in der Vollversion Einheiten zulässig. Dieses Vorgehen ist allgemein für SVG-Dokumente auch in der Vollversion sinnvoll, weil so fehleranfällige Umrechnungen von Einheiten vermieden werden. Im Gegensatz zu den ganzzahligen Pixelkoordinaten bei Rastergrafiken (z. B. JPEG, PNG, BMP) sind SVG-Koordinaten Gleitkommazahlen. Pixel-Angaben in Rastergrafiken hingegen haben eine beschränkte Auflösung, sind sie doch in ihrem Wertebereich auf ganze Zahlen sowie die Abmessungen des Bildes beschränkt – entsprechend der Natur der Pixel, die ja kleine, gleich große, unifarbene Rechtecke sind. Bei rasterbasierten Ausgabemedien – zum Beispiel einem Monitor – bezeichnet eine SVG-Angabe wie codice_19 nicht den ganzen Bildschirmpixel, sondern dessen obere linke Ecke (oder eine der anderen Ecken der entsprechenden Nachbarpixel). Vorausgesetzt bei diesem Beispiel ist, dass die Skalierung des SVG-Dokuments passend gewählt ist. Grafische Elemente. Rechteck, Kreis, Ellipse, Pfad und Polygon als Beispiel für grafische Primitive. Pfad und Polygon sind gefüllt. Pfad. Das Element codice_20 definiert eine Kurve, bestehend aus einer beliebigen Anzahl von Unterpfaden, die wiederum aus einer Kombination von Strecken, Ellipsenbögen, quadratischen und kubischen Bézierkurven bestehen, die mit Hilfe von relativen oder absoluten Koordinaten beschrieben werden. Der Pfad kann geschlossen, gefüllt und als Clipping-Pfad verwendet werden. Der Pfad ist das mächtigste Grafikelement in SVG. Praktisch alles, was durch andere Grafikelemente gezeichnet werden kann, kann durch ein Pfad-Element äquivalent dargestellt werden. Die weiteren Grafikelemente existieren, um einerseits eine bessere Nutzbarkeit zu gewährleisten, andererseits aber auch, um die inhaltliche Bedeutung klarer herauszustellen, weil der Notation eines entsprechenden Pfades im Quelltext oft nicht auf den ersten Blick anzusehen ist, ob es sich um einen einfachen Kreis, eine Ellipse, ein Rechteck mit abgerundeten Ecken handelt. Ferner erleichtert es auch die Animation dieser speziellen Formen. Sie können ebenso wie das Pfad-Element als Umriss gezeichnet, gefüllt und zum Clipping benutzt werden (mit Ausnahme des codice_21-Elements). Eine weitere Ausnahme ergibt sich daraus, dass die Tiny-Profile keine Ellipsenbögen erlauben, somit sind Kreise, Ellipsen und auch Rechtecke mit elliptisch abgerundeten Ecken in diesem Profil nicht exakt mit dem Element codice_20 konstruiert werden, mit den dafür vorgesehenen Spezialelementen schon. Kreis. Das Element codice_23 definiert einen Kreis, der durch seinen Radius und durch die Position des Mittelpunktes beschrieben wird. Ellipse. Das Element codice_24 definiert eine Ellipse, die durch ihre zwei Halbachsenradien, deren Ausrichtung und, analog zum Kreiselement, durch die Position ihres Mittelpunktes beschrieben wird. Rechteck. Das Element codice_25 definiert ein Rechteck über die Position seiner oberen linken Ecke, seiner Breite und seiner Höhe. Optional können die Ecken des Rechteckes abgerundet werden. Linie. Das Element codice_26 definiert eine einfache gerade Linie (Strecke), die über die Koordinaten ihrer beiden Endpunkte beschrieben wird. Polygonzug. Das Element codice_27 definiert eine beliebige Zahl von Punkten, die als Polygonzug durch Strecken verbunden werden. Die Punkte werden über Koordinatenpaare beschrieben. Polygon. Das Element codice_28 definiert ein Vieleck, das über seine Eckpunkte beschrieben wird. Wie beim Polygonzug werden auch hier die Eckpunkte als Koordinatenpaare angegeben und in der Reihenfolge ihrer Definition miteinander verbunden. Text. Mit dem Element codice_29 wird Text in die Grafik eingebettet. Das Textelement kann über Attribute, wie zum Beispiel Schriftgröße und Schriftart, Laufrichtung und Wortabstand formatiert werden. Text kann zudem über Unterelemente wie codice_30 strukturiert werden. Bild. Das Element (codice_21) bindet eine Rastergrafik ein, die über eine Pfadangabe, Breite und Höhe sowie die Position beschrieben wird. Gruppierung. Alle diese Elemente können durch das Gruppenelement (codice_32) zusammengefasst werden. Transformationen und Styling, die auf das Gruppenelement angewendet werden, gelten für alle damit zusammengefassten untergeordneten Elemente. Auch das Element codice_33 eignet sich entsprechend zur Gruppierung von darzustellenden Inhalten, kann aber zusätzlich eine Verweisfunktionalität bekommen. Auch das Element codice_34 dient in gewisser Weise der Gruppierung, dessen Inhalt wird aber nicht direkt dargestellt werden, sondern ist als Vorrat gedacht, aus dem andere Elemente referenzieren können. Textalternativen, Barrierefreiheit und Zugänglichkeit. Wie bei den meisten vom W3C empfohlenen Formaten wird auch bei SVG besonderer Wert darauf gelegt, dass Autoren einfache Möglichkeiten gegeben werden, Inhalte zugänglich anzubieten. Basis ist dabei primär die Möglichkeit der Bereitstellung einer Textalternative. Umgedreht könnte man auch die grafische Repräsentation des Dokumentes als Alternative zu diesem Textinhalt bezeichnen. Fehlt eine hinreichende Textalternative, erlaubt das den formalen Rückschluss, dass das Dokument keine relevante Information enthält. Jedes SVG-Dokument, das inhaltlich relevant ist, sollte daher mindestens als erstes Kindelement des Wurzelelementes ein Element codice_35 haben. Wie der Name schon andeutet, wird darin der Titel des Werkes als Text genannt, etwa im Sinne einer Kurzzusammenfassung. Titel können auch lediglich der Identifikation eines Werkes in einer externen Diskussion dienen (wie man Werke von Künstlern bezeichnet, wenn man über diese Werke diskutieren will). Auf codice_35 kann ein Element codice_37 folgen. Der Inhalt von codice_37 ist eine ausführlichere Beschreibung des Werkes, eher was seine Bedeutung und Funktion anbelangt, als deren grafische Umsetzung. Der Inhalt von codice_37 kann einfacher Text sein, er kann aber auch mit einem anderen XML-Format wie etwa XHTML strukturiert werden. codice_35 und codice_37 stellen zusammen die Textalternative zum grafischen Inhalt des Dokumentes dar. Dies ist damit der Kerninhalt des Dokumentes hinsichtlich der Funktion von Barrierefreiheit und Zugänglichkeit und erlaubt somit auch Personen Zugang zur Information des Dokumentes, die die grafische Repräsentation nicht sehen können oder wollen. Da die inhaltliche Bedeutung grafischer Repräsentationen nicht zwangsläufig einfach zu verstehen ist, kann dieser alternative Inhalt natürlich auch für andere Personen sehr nützlich sein. Als Alternative wird jedenfalls diese Textalternative nur dargestellt, falls die grafische Repräsentation nicht dargestellt wird. Zusätzlich kann eine Darstellung der Textalternative erfolgen, wenn der Nutzer dies anfordert. Auf codice_37 kann ferner ein Element codice_43 folgen, das primär dazu gedacht ist, Metainformationen über das Dokument zu beinhalten. Diese Metainformationen werden in der Regel strukturiert notiert, damit sie automatisch von Programmen ausgewertet werden können. Zur Strukturierung eignet sich zum Beispiel das XML-Format RDF oder Elemente und Terme gemäß Dublin Core. Fast alle anderen Elemente von SVG können ebenfalls codice_35, codice_37 und codice_43 mit beschriebener Funktion enthalten, sie bilden dann entsprechend die Textalternative und Metainformation für das Element, in dem sie notiert sind, einschließlich der Nachfahren dieses Elementes. Das Konzept weist hinsichtlich Mehrsprachigkeit Schwächen auf, insbesondere was das Element codice_35 des Wurzelementes anbelangt, das nur mit einer Sprache notiert werden kann. Bei mehrsprachigen Werken kann es also sinnvoll sein, den Inhalt dieses Elementes nur als sprachinvariante Identifikation des Werkes zu betrachten und die eigentliche mehrsprachige Textalternative in den beiden anderen Elementen unterzubringen, die mehr Struktur aufweisen können. Präsentation und Stilvorlagen. Die Darstellung von Elementen kann mit Präsentationsattributen beeinflusst werden. Festgelegt werden können zum Beispiel Füllung, Konturlinie und Transparenz der Elemente, sowie bei Text die Eigenschaften der Schrift. Zu den Präsentationsattributen gibt es auch jeweils gleichnamige Eigenschaften gemäß "Cascading Style Sheets" (CSS), die sich eignen, um mit einer Silvorlage eine alternative Präsentation anzubieten. Die Eigenschaften und damit Stilvorlagen sind bei den Profilen vom Typ tiny nicht vorgesehen. Die Präsentationsattribute und die zugehörigen Eigenschaften richten sich dabei in weiten Teilen nach den im XML-Umfeld weit verbreiteten Stilvorlagen-Sprachen "XSL" und "CSS". Über zusätzliche Elemente können nicht nur Farben, sondern auch Farbverläufe und Muster verwendet werden. Durch die Verfügbarkeit von Präsentationsattributen und Eigenschaften kann ähnlich wie bei der Kombination (X)HTML und CSS eine Trennung zwischen Inhalt und Dekoration vorgenommen werden. Als inhaltlich relevant oder als für das Verständnis des Dokumentes wichtig wird dabei betrachtet, was mit Elementen und Attributen notiert wird, als Dekoration das, was als alternative Präsentation mit Stilvorlagen in einer anderen Sprache wie "CSS" angeboten wird. Wie bei allen XML-Formaten können externe Stilvorlagen mit entsprechenden Verarbeitungsanweisungen referenziert werden. Zusätzlich hat SVG auch ein spezielles Element codice_48, in dem Stilvorlagen notiert werden können. Mit einem Attribut codice_48 kann zudem bei jedem Element eine Stilvorlage notiert werden. Da dem Attributwert von codice_48 allerdings eine recht hohe Priorität zukommt und die Stilvorlage zudem als Attributwert schlecht vom eigentlichen Inhalt getrennt ist, gilt die Verwendung des Attributes als einfach vermeidbar und schlecht hinsichtlich des Prinzips der Trennung von Inhalt und Dekoration. Transformation. Jedes Element und jede Gruppe von Elementen kann durch eine Reihe affiner Transformationen in Position, Orientierung und Form verändert werden. Die Transformation wird einem beliebigen Element als Attribut angehängt. Zur Verfügung stehen Translation (Parallelverschiebung), Rotation, Skalierung, Scherung, sowie die Kombination verschiedener Transformationen in Form einer 3×3-Matrix. Die Matrix wird auf Punkte in projektiver Darstellung angewandt und stellt somit die Kombination einer linearen Abbildung in Form einer 2×2-Matrix mit einer Translation dar, ohne jedoch zwischen den beiden letzten Abbildungstypen unterscheiden zu müssen. Die Transformationen können beliebig kombiniert werden, wobei die Hintereinanderausführung von Transformationen der Multiplikation der Transformationsmatrizen entspricht. Eine Parallelverschiebung hat in SVG die Darstellung „translate(tx ty)“ = „matrix(1 0 0 1 tx ty)“ = formula_1, eine Skalierung in x- und y-Richtung „scale(sx sy)“ = „matrix(sx 0 0 sy 0 0)“ = formula_2. Eine Abbildung wirkt auf einen Punkt "P" – d. h. auf dessen projektive Darstellung in homogenen Koordinaten – indem diese von links mit der entsprechenden Abbildungsmatrix multipliziert wird. Wird "P" um "T" verschoben, so sind seine neuen Koordinaten Für die Hintereinanderausführungen von "T" und "S" gilt in diesem Falle die letzte Darstellung kann in SVG z. B. codiert werden als „matrix(sx 0 0 sy sx·tx sy·ty)“ Animation. SVG hat Elemente, mit denen Animation interaktiv und deklarativ bewerkstelligt werden kann, das heißt ohne Skripte rein durch Angaben in der XML-Auszeichnungsprache. SVG übernimmt dabei von SMIL Elemente und die Interpretation derselben in den eigenen Namensraum. a>; funktioniert nicht in allen Browsern) Durch die von SMIL übernommenen Elemente In den Empfehlungen ist im Detail beschrieben, welche Merkmale animierbar sind und in welcher Weise. Animierbar sind die meisten Attribute und Eigenschaften, zusätzlich gibt es die Möglichkeit, die Position von Gruppierungselementen oder darstellbaren Elementen zu animieren. Zeitangaben können von Millisekunden bis Stunden angegeben und verschieden ausgezeichnet werden. Für die meisten Animationselemente wird ein Pflichtattribut benötigt, das die Art der Animation festlegt. Weitere grundlegende Komponenten sind Zeitangaben, Zustände während der Animation (optional), der Zustand nach der Animation, und ob die Animation nach Beendigung wiederholt werden soll, ob der Animationseffekt dann kumulativ ist und ob er additiv hinsichtlich anderer Animationen mit niedrigerer Priorität und der notierten Attributwerte sein soll. Für die Zeitangabe werden logische Begriffe wie "begin" (englisch: "Start, Beginn") "end" (englisch: "Ende") und "dur" (englisch „duration“: "Dauer") verwendet. Start, Wiederholungen etc. können auch von Ereignissen wie Mausberührung oder -klick abhängig gemacht werden. Die Auswahl des animierten Attributes oder der animierten Eigenschaft wird in SVG durch zwei Attribute festgelegt: codice_51 gibt den Namen des zu animierenden Attributes oder der zu animierenden Eigenschaft an, codice_52 gibt an, ob ein Attribut animiert wird oder eine (CSS-)Eigenschaft. Im illustrierten Beispiel wird angedeutet, dass die Füllung (codice_53-Attribut) eines Rechtecks sowie dessen Transformation (codice_16-Attribut) über die Dauer von fünf Sekunden animiert wird. Die Illustration selbst enthält keine Animation. Zu Beginn ist das Rechteck blau gefüllt und nicht verdreht, nach fünf Sekunden ist es grün gefüllt, etwas versetzt und um 150° verdreht. Die Zwischenzustände können je nach den angegebenen Attributen diskret geändert werden, sich gleichmäßig, aber auch ungleichmäßig ändern, im Beispiel schematisch durch vier Zwischenschritte dargestellt. Grafische Effekte und Filter. Unschärfe-Filter in SVG. Links ohne, rechts mit Filter, angewandt auf eine Gruppe von Elementen. Bekannte Grafikfilter sind aus Desktop-Publishing-Programmen übernommen worden und arbeiten nach dem Matrizen-Prinzip, bei dem Operatoren und Funktionen die Form der Matrix ausdrücken. Es wird jede einzelne Bildposition mit dem definierten Filtereffekt berechnet und auf die nächste übertragen. Auf diese Weise lassen sich Bilder und Grafiken auf verschiedenste Art und Weise bearbeiten. Programmierung. SVG stellt mit Ausnahme des Profils Tiny 1.1 einen Zugriff auf das XML-Dokument-Objekt-Modell (DOM) bereit und zusätzlich auch eine eigene Erweiterung dieses DOMs. Damit wird es möglich, die Präsentation eines SVG-Dokumentes zu manipulieren. Dies wird meistens mit Skriptsprachen wie ECMAScript/JavaScript genutzt, um während der Präsentation diese dynamisch zu ändern, um Betrachtern einen interaktiven alternativen Zugang zum Inhalt zu ermöglichen. Die DOM-Repräsentation kann allerdings auch vor der Betrachtung manipuliert werden, wonach dann wirklich ein inhaltlich geändertes Dokument abgespeichert werden kann. SVG selbst fordert allerdings nicht, dass eine bestimmte Skriptsprache interpretiert werden muss. Auch von daher haben solche Skripte formal nicht die Möglichkeit, wirklich den Inhalt oder die Bedeutung eines Dokumentes während der Betrachtung zu ändern. Hinsichtlich Zugänglichkeit und Barrierefreiheit ist dies immer von Autoren zu bedenken, die Skripte in Dokumenten verwenden möchten. Über das DOM können zum Beispiel neue Objekte erzeugt werden, die Elementen und ihren Eigenschaften entsprechen. Die DOM-Repräsentation eines Dokumentes kann so auf Benutzereingaben wie Mausklicks und -bewegungen reagieren oder auch vollständig algorithmisch generiert werden. Das lässt sich etwa in Web-Anwendungen nutzen (vergleiche den Grafikeditor SVG-edit, Diagramme in Google Docs oder Kartenanwendungen). Zur Manipulation von SVG definiert der SVG-Standard das SVG-DOM. Es erweitert das für alle XML-Arten gleiche Standard-DOM durch SVG-spezifische Datentypen und Funktionen, etwa für grafische Transformationen (Affine Abbildungen). Diese Schnittstelle ist für verschiedene Programmiersprachen standardisiert (für die standardisierte JavaScript-Teilmenge ECMAScript, Java, Perl und Python). In vielen gängigen Darstellungsprogrammen wird JavaScript zur DOM-Manipulation verwendet. Beispiel. Das folgende Beispiel illustriert die Verwendung eines SVG-Dokuments zur Anzeige einer einfachen Vektorgrafik. Es zeigt das Grundgerüst eines SVG-Dokumentes sowie die Verwendung der grafischen Primitive "line", "rect" und "polygon". Das Polygon, das zur Darstellung der Pfeilspitze verwendet wird, wird außerdem mit Hilfe einer Transformation um 135° um die Spitze gedreht. width="700px" height="400px" viewBox="0 0 700 400"> Profile. In SVG gibt es drei Profile, die für die Darstellung auf unterschiedlichen Ausgabegeräten abgestimmt sind und jeweils unterschiedlich umfangreich den SVG-Standard definieren. Sie werden im Wurzelelement (SVG) mit dem Attribut "baseProfile" angegeben. Durch die Benutzung von Profilen wird auch leistungsschwachen Geräten ermöglicht, mit standardkonformen SVG-Dateien zu arbeiten. Autoren sollten sich also bemühen, dass die zentralen Inhalte mit dem eingeschränkten Funktionsumfang sinnvoll präsentiert werden, die verwendeten zusätzlichen Möglichkeiten des vollen Profiles also nicht essentiell für das Verständnis des Inhalts sind. Darstellungsprogramme können solche Angaben natürlich auch nutzen, um den Nutzer zu warnen, dass das Programm eventuell nicht alle Inhalte korrekt anzeigen kann, wenn eine Version oder ein Profil verwendet wird, das im Programm gar nicht implementiert ist. Desktop. Einige Desktop-Umgebungen benutzen SVG als Format für Programmsymbole, Hintergrundbilder oder Mauszeiger. Der zusätzliche Ressourcenverbrauch zum Rendern wird dabei durch steigende Hardwareressourcen kompensiert, so etwa von Grafikkarten direkt übernommen. Beispielhafte Projekte sind das Oxygen Project für KDE und das Tango Desktop Project für GNOME. Editoren. Von Editoren erzeugte SVG-Dateien sind oft größer und komplexer als manuell erzeugte Dateien. Grundformen wie Rechtecke und Kreise sind manuell einfach zu definieren, während Editoren oft aufwendigere Pfad-Elemente verwenden. SVG-Interpretation in Darstellungsprogrammen. SVG wurde in erster Linie für das World Wide Web entworfen. Moderne Darstellungsprogramme (unter anderem sogenannte Webbrowser) können große Teile davon korrekt darstellen, d. h., sie benötigen kein SVG-Zusatzprogramm (Browser-Plug-in). Verschiedenen Quellen zufolge wird SVG bei ca. 80 % der Internet-Nutzer mindestens rudimentär interpretiert. Wie die folgende Tabelle zeigt, hängt jedoch der tatsächlich verfügbare Funktionsumfang stark vom Darstellungsprogramm ab. Leider ist auch nicht von bloßen Verbesserungen bei neuen Versionen desselben Darstellungsprogrammes auszugehen, meist gibt es eine Kombination von Verbesserungen und Rückschritten. Beispielsweise sind für den Internet Explorer der oben erwähnte Unschärfefilter erst ab der Version 10 und Animationen überhaupt nicht verfügbar. Bei einigen Programmen werden ferner auch SVG-Schriftarten komplett ignoriert. Zu bedenken ist bei der Tabelle zudem auch, dass die dafür verwendeten Tests jene aus der offiziellen Test-Suite zur SVG-Empfehlung sind, die nicht dazu dient, den Funktionsumfang von Darstellungsprogrammen zu testen, sondern umgekehrt, ob Merkmale der Empfehlung implementiert wurden und implementierbar sind. Die Tests sind also nicht unabhängig von den Autoren der Empfehlung entstanden und einige der Autoren der Tests sind gleichzeitig Mitarbeiter der Unternehmen, die die Darstellungsprogramme entwickeln und anbieten. Es handelt sich also nicht um einen systematischen und unabhängigen Test der Fähigkeiten der Programme. Es ist also nicht notwendig ein guter Anhaltspunkt dafür, wie wahrscheinlich es ist, dass ein „normales“ SVG-Dokument korrekt präsentiert wird, weil „normale“ Dokumente meist viele Merkmale verwenden, Tests zu SVG-Spezifikationen aber beinahe nur die jeweils mit dem Dokument getesteten Merkmale. Die Gewichtung und Verwendung richtet sich dabei zudem eher nach der Komplexität der Merkmale und der Implementierung, nicht nach der typischen Verwendung in „normalen“ Dokumenten durch Autoren. Bei anderen Ansätzen wird eher die Frage gestellt, ob bestimmte Merkmale für Autoren wirklich praktisch nutzbar sind. Auch hier empfiehlt es sich ähnlich wie bei der offiziellen Test-Suite natürlich, die einzelnen Testbeispiele im Detail durchzugehen und zu schauen, in welcher Tiefe und in welcher Kombination mit anderen Merkmalen überhaupt getestet wurde und wie unabhängig die Autoren der Tests von denen der Empfehlung und den Anbietern der Darstellungsprogramme sind, um zu einer zuverlässigen Aussage hinsichtlich der Nutzbarkeit für Autoren und Betrachter zu kommen. Zum Beispiel bietet die Firma "Savarese Software Research" eine Erweiterung für den Internet Explorer in Version 6 bis 8 an. Bekannt seit den Anfängen von SVG, aber nicht mehr weiterentwickelt, ist auch eine entsprechende Erweiterung der Firma Adobe, das in den Anfangsjahren von SVG praktisch das dominierende Programm zur Präsentation von SVG war. Einige JavaScript-Bibliotheken (z. B. dojo.gfx, Raphaël, SVG Web) bieten die Möglichkeit, Bildelemente in JS-Syntax zu beschreiben. Falls SVG nicht interpretiert wird, kann über diesen Umweg dann automatisch ein vom Darstellungsprogramm interpretiertes Dokument-Objekt generiert werden (z. B. VML oder Flash), ansonsten wird direkt eine SVG generiert. All das kann jedoch bedeuten, dass nicht alle von SVG gebotenen Möglichkeiten genutzt werden können. Es muss also nicht alles von einer Sprache in eine andere transformierbar sein oder von der verwendeten Bibliothek transformiert werden können, zusätzlich zu dem Problem, dass eine Interpretation der verwendeten Skriptsprache auch nicht notwendig komplett oder überhaupt verfügbar sein muss. Die Methode bietet sich also eher als vom Betrachter jeweils aktiv auswählbare Alternative an, nicht als Pauschallösung. Mit Acid3 liegt ein Test vor, der Darstellungsprogramme in gewissem Rahmen darauf prüft, ob sie SVGs korrekt darstellen können. Interpretation durch Suchmaschinen. Seit September 2010 berücksichtigt Google SVG bei der Bildersuche. Damit ist SVG neben JPEG, GIF, PNG, Bitmap und WebP eines von sechs Grafikformaten, die Google berücksichtigt. Auch Bing berücksichtigt mittlerweile SVG. Auch für Suchmaschinen sind Textalternativen und von Programmen analysierbare strukturierte Metainformationen von besonderer Bedeutung, um Auskunft über den Inhalt einer Grafik geben zu können. Die Möglichkeiten von SVG als XML-Format sind denen der genannten Rastergrafikformate gleichwertig oder überlegen und von Autoren zudem ohne spezielle Programme einfach zu ergänzen. The Graphical Web. Seit 2002 findet einmal jährlich die Konferenz "The Graphical Web" statt, bei der in Vorträgen und Workshops aktuelle Entwicklungen im Umfeld von SVG vorgestellt werden. Bis 2011 hieß diese Konferenz "SVG Open". Saddam Hussein. Saddam Hussein (,; * 28. April 1937 in al-Audscha bei Tikrit; † 30. Dezember 2006 in al-Kazimiyya bei Bagdad) war von 1979 bis 2003 Staatspräsident und von 1979 bis 1991 sowie 1994 bis 2003 Premierminister des Irak. Er regierte das Land diktatorisch und wurde später wegen des Massakers an Schiiten und Kurden zum Tode verurteilt und hingerichtet. Saddam Hussein als Präsident des Irak Kindheit und Jugend. Saddam Hussein als Kleinkind 1940 Saddam Hussein wurde in Al-Auja, einem Dorf bei Tikrit, am 28. April 1937 in eine ärmliche Bauernfamilie geboren. Seine Familie gehörte zum sunnitisch-arabischen Stamm der al-Bu Nasir. Sein leiblicher Vater Hussein al-Majid verstarb, während seine Mutter Subha mit Saddam schwanger war. Als sie im achten Monat schwanger war, verstarb auch Saddams ältester Bruder an einer Krebserkrankung. Daraufhin unternahm Subha einen Selbstmordversuch, wurde jedoch von einer jüdischen Familie daran gehindert und finanziell unterstützt. Ebenso versuchte Subha erfolglos, ihren ungeborenen Sohn abzutreiben. Subha gab Saddam nach seiner Geburt an ihren Bruder Khairallah Talfah, der als Offizier über einen höheren sozialen Status und Geld verfügte, nach Tikrit. 1941 wurde Talfah wegen seiner Mitwirkung im Ghailani-Putsch inhaftiert, und Saddam musste zu seiner Mutter zurückkehren. Sie hatte mittlerweile einen Verwandten namens Hassan Ibrahim geheiratet und war mit ihm nach Al-Schawisch, einem ärmlichen Dorf bei Tikrit, gezogen. Hassan Ibrahim war dort übel beleumundet, sein Spitzname im Dorf war „Hassan der Lügner“. Ebenso schmückte er sich wohl unverdienterweise mit dem Titel eines Hāddsch. Die meisten Quellen beschreiben Saddams Leben im Dorf als das eines Außenseiters, der aufgrund seiner Vaterlosigkeit sozial ausgegrenzt wurde. Einzig eine offizielle Biografie schildert ihn als sozial integriertes Mitglied der Dorfgemeinschaft. Saddams Wunsch nach einer Schulausbildung wurde von seinem Stiefvater und seiner Mutter abgeschlagen. Stattdessen wurde er zur Feldarbeit herangezogen und von seinem Stiefvater zum Diebstahl angestiftet, was Saddam bereits in der Kindheit einen kurzen Gefängnisaufenthalt einbrachte. Er wurde auch Opfer von physischer und psychischer Gewalt durch seinen Stiefvater. Seinen eigenen Aussagen nach trug Saddam stets eine Eisenstange mit sich, um sich gegen die Angriffe der anderen Dorfkinder zu wehren. Nach der Freilassung seines Onkels Khairallah Talfah verließ Saddam den Haushalt seines Stiefvaters und floh zu seinem Onkel nach Tikrit. Dieser sorgte dafür, dass Saddam mit zehn Jahren eingeschult wurde. Er erzog den Jungen im Geiste des arabischen Nationalismus. Mit 14 Jahren stand Saddam unter dem Verdacht, aus Rache den Bruder eines Lehrers angeschossen zu haben. Die Beweise erhärteten sich jedoch nicht und Saddam konnte die Schule abschließen. Nach seinem Schulabschluss zog Saddam mit seinem Onkel nach Bagdad, wo er eine weiterführende Schule besuchte und mit 18 Jahren abschloss. Nach seiner Schulausbildung wurde Saddam Khairallahs älteste Tochter Sadschida versprochen. Beginn. Saddam trat 1956 der damals noch verbotenen Baʿth-Partei bei und nahm 1957 an einem erfolglosen Putschversuch gegen den irakischen König Faisal II. teil. 1958 unterstützte er eine weitere von General Abd al-Karim Qasim geführte Gruppe. In der Folge eines misslungenen Attentats auf Premierminister Qasim im Oktober 1959, bei dem Saddam am Bein verletzt wurde, war er gezwungen, über Syrien nach Ägypten zu fliehen. Er wurde in Abwesenheit zum Tode verurteilt. Der amtierende Chef der Baʿth-Partei, Fuad ar-Rikabi, wurde wegen des fehlgeschlagenen Attentats durch einen entfernten Verwandten Saddam Husseins, Madschid, ersetzt. Sein Studium an der juristischen Fakultät der Universität Kairo beendete er ohne Abschluss. Er kehrte am 8. Februar 1963 nach dem blutigen Putsch der Baʿth-Partei in den Irak zurück und heiratete Sadschida Khairallah. Nach einem erneuten Machtwechsel (Militärputsch vom 18. November 1963) wurde er 1964 zu einer Gefängnisstrafe verurteilt, floh aber mit Hilfe Tahir Yahyas im Juli 1966. 1968 unterstützte er einen erfolgreichen Staatsstreich von Baʿth-Partei und Armee. Aufstieg. Saddam Hussein 1974 als Vize-Sekretär der irakischen Baath-Partei Als die Baʿth-Partei 1968 im Irak an die Macht kam, wurde Saddam in der neuen Regierung stellvertretender Generalsekretär des Revolutionären Kommandorates sowie Chef des Ministeriums für Staatssicherheit und des Propagandaministeriums. 1969 wurde er Vizepräsident. Am 1. Juni 1972 leitete er die Verstaatlichung westlicher Ölfirmen ein, die ein Ölmonopol im Irak hatten. Mit den Öleinnahmen entwickelte er das Land zu einer regionalen militärischen Großmacht. Die Einnahmen aus dem Ölverkauf sorgten aber auch für den Wohlstand breiterer Bevölkerungsschichten. 1972 unterzeichnete Saddam in Moskau ein Freundschaftsabkommen mit der Sowjetunion. Am 1. Juli 1973 wurde er vom Revolutionsrat zum Drei-Sterne-General der irakischen Streitkräfte ernannt. Später ernannte er sich selbst zum Feldmarschall. Am 6. März 1975 schloss er als Vizepräsident mit dem iranischen Schah Mohammad Reza Pahlavi das Abkommen von Algier über den Grenzverlauf im Schatt al-Arab und die gegenseitige Nichteinmischung in innere Angelegenheiten. 1979 ernannte Präsident Ahmad Hasan al-Bakr Saddam im Alter von 42 Jahren zum Vorsitzenden der Partei und zu seinem Nachfolger. Am 11. Juli 1979 wurde er Generalsekretär der Baʿth-Partei, und am 16. Juli 1979 übernahm er die Macht als Staatspräsident und Regierungschef. In dieser Position diffamierte Saddam öffentlich Mitglieder der Baʿth-Partei, woraufhin sie ohne Prozess zum Tode verurteilt und sofort liquidiert wurden. Andere Parteimitglieder wurden durch dieses Exempel auf die Linie Saddams eingeschworen, der so auch den geplanten Zusammenschluss mit dem ebenfalls baʿthistischen Regime Syriens verhinderte. Dennoch war Saddam Husseins Autorität noch eingeschränkt. Nach dem Tausch seines Amtes mit al-Bakr blieb dieser faktisch Vizepräsident bis zu seinem Tode im April 1982. Saddam Hussein nutzte diese erste Zäsur einer Machterweiterung bereits im Juli zu einem folgenträchtigen Alleingang: Er gab den Rückzugsbefehl für die irakischen Truppen in einer entscheidenden Phase des Golfkrieges gegen den Iran. Die zweite Zäsur war 1989. Mit dem Tod des Baʿth-Partei-Gründers und Vizepräsidenten Michel Aflaq und dem Tod des als Kriegsminister im Golfkrieg populär gewordenen Chairallah Talfah durch einen unaufgeklärten Hubschrauberabsturz im gleichen Jahr gab es keine rivalisierende moralische Autorität mehr außer dem Präsidenten, die seine Entscheidung zum Krieg gegen Kuwait hätte beeinflussen können. Saddam pflegte sich „al-qaid ad-daruri“ (unersetzlicher Führer) nennen zu lassen. Er sah sich als tatsächlichen Nachfolger des Königs von Babylon und Begründers des neubabylonischen Reiches Nebukadnezars II. Saddam Hussein ist für unzählige Verbrechen gegen die Menschlichkeit verantwortlich, die in seiner Regierungszeit verübt wurden, darunter Massenmorde an Kurden und Schiiten. Der erste Golfkrieg. Drei Bronzeskulpturen von Saddam Hussein in Bagdad Saddam Husseins Präsidentenpalast in Bagdad (2003) Etwa ein Jahr nach der Revolution im Iran gegen den prowestlichen Mohammad Reza Pahlavi kündigte Saddam Hussein am 17. September 1980 das Abkommen von Algier, welches zuvor auch der Iran als nicht mehr bindend erklärt hatte. Der Irak verweigerte daraufhin die Räumung der 1975 abgetretenen Grenzgebiete, die seit dem 4. August unter iranischem Beschuss lagen. Am 22. September 1980 befahl Saddam der irakischen Armee, den Iran mit neun von insgesamt zwölf Divisionen auf einer 600 km breiten Front anzugreifen. Dies bildete den Auftakt für den fast acht Jahre dauernden Ersten Golfkrieg. Dabei spielten auch verschiedene westliche Staaten eine führende Rolle, die den Irak wegen der drohenden Niederlage gegen den Iran massiv unterstützten, wie Frankreich und Deutschland als Rüstungsexporteure und Lieferanten für Kernreaktoren sowie Chemieanlagen (Pestizide und Giftgas). Hauptunterstützer des Iraks waren die Sowjetunion, Frankreich und die Volksrepublik China, die allerdings auch den Iran belieferte. Auf einer vom Stockholmer SIPRI-Institut erstellten Übersicht folgen die USA erst an elfter Stelle, allerdings belieferte auch Washington beide Seiten. Eine besondere Bedeutung hatten weiterhin die sunnitischen und wahabitischen Golfstaaten als Kreditgeber und Finanziers des Ersten Golfkrieges. Das Unvermögen, die Kredite zurückzuzahlen, wird allgemein als einer der Gründe für die versuchte Annexion Kuwaits durch den Irak betrachtet. Während des Krieges ließen Hunderttausende ihr Leben, allein durch Saddam Husseins Giftgaseinsätze mehrere tausend Menschen. Sehr kritisch betrachtet werden Vermutungen, denen zufolge der US-Geheimdienst dem Irak Satellitenbilder der iranischen Stellungen zur Verfügung stellte, und die Zurückhaltung und teilweise stillschweigende Billigung eines Großteils der Staatengemeinschaft. Um die Neutralität der schiitischen Bevölkerungsmehrheit des Irak im Krieg gegen den Iran zu sichern, trat Saddam Hussein 1981 im Beisein des damaligen Großajatollahs Abul-Qassim al-Khoi formal zur Schia über. Gegen Ende des Krieges 1988 befiehl Hussein die Anfal-Operation im Nordirak und intensivierte damit die seit Mitte der 1970ern bestehenden Arabisierungspolitik gegen die Kurden. Die Durchführung übernahm Ali Hasan al-Madschid, ein Vetter von Hussein, der durch den Einsatz von Chemiewaffen gegen die kurdische Bevölkerung, unter dem Namen "Chemical-Ali" () bekannt wurde. Im Rahmen dieses Genozids wurden laut Human Rights Watch von Februar bis September 1988 bis zu 100.000 Kurden systematisch ermordet und eine unbekannte Zahl in den Süden des Irak deportiert. Ferner wurde die Infrastruktur von etwa 2.000 Dörfern und 20 Kleinstädten, darunter die Stadt Qeladizê mit ihren damals 70.000 Einwohnern, zerstört. Die Kurden selber schätzten die Zahlen der verschwundenen Menschen auf 182.000 und die zerstörten Dörfern auf 4.000 ein. Im Gegensatz zu früheren Einsätzen von Giftgas wurde der Giftgasangriff auf Helepçe von der westlichen Presse mit Entsetzen und Empörung zur Kenntnis genommen. Staatliche Seiten verhielten sich weiterhin zurückhaltend. Am 18. Juli 1988 willigte der Iran in die Waffenstillstandsbedingungen der UN-Resolution 598 ein, die Saddam Hussein bereits zuvor akzeptiert hatte. Ajatollah Chomeini kommentierte dies mit dem Zusatz „bitterer als Gift“. Am 8. August 1988 wurde ein Waffenstillstandsabkommen geschlossen, das am 20. August 1988 in Kraft trat. Zum Abschluss eines Friedensvertrages ist es seither nicht gekommen. Der Zweite Golfkrieg. Am 2. August 1990, zwei Jahre nach dem Waffenstillstand, ließ Saddam Hussein Kuwait mit der Behauptung besetzen, es zapfe illegal Ölfelder des Irak an. Die Besetzung erfolgte, nachdem Kuwait die Ölfördermenge erhöht und die Ölpreise gesenkt hatte. Der Irak hatte starke Interessen an einem lukrativen Ölgeschäft, zumal das Land sich im Wiederaufbau nach dem Ersten Golfkrieg befand. Im Zweiten Golfkrieg wurde die irakische Armee Anfang 1991 durch die von den USA geführte Koalition fast vollständig geschlagen. Ein bereits begonnenes Vorrücken amerikanischer Verbände Richtung Bagdad wurde eingestellt, da der Auftrag der UN-Resolution, die nur die Befreiung Kuwaits, aber nicht einen Regimewechsel im Irak vorsah, erfüllt war und die Verbündeten der USA nicht gewillt waren, weitergehende Maßnahmen mitzutragen. Der von westlichen Kräften ermutigte Aufstand der Schiiten im südlichen Irak gegen Saddam Hussein wurde durch die militärisch immer noch überlegenen irakischen Regierungstruppen trotz Einrichtung einer Flugverbotszone brutal niedergeschlagen. Weiteres politisches Wirken. Saddam Hussein überlebte zahlreiche Putschversuche und Attentate, auch von ausländischen Geheimdiensten. Er hatte, wie Latif Yahya behauptet, zwei Doppelgänger. Faoaz Al-Emari und einen zweiten, der 1984 bei einem Anschlag ums Leben kam. Er förderte aktiv die Modernisierung der irakischen Wirtschaft und den Aufbau von Industrie, Verwaltung und Polizei. Saddam leitete den Aufbau des irakischen Landes, die Technisierung der Landwirtschaft und die Bodenreform sowie die Volksbildung. Des Weiteren förderte er die vollständige Neugestaltung der Energiewirtschaft, des öffentlichen Dienstes sowie des Transport- und Bildungswesens. Unter seiner Herrschaft begann eine nationale Alphabetisierungskampagne, und die allgemeine Schulpflicht wurde eingeführt. Vor 1990 stieg die Alphabetisierungsrate bei Mädchen auf über 90 Prozent, nach der Zerstörung von Schulen in den beiden Golfkriegen von 1991 und 2003 sank sie wieder auf 24 Prozent, so die UNESCO. Seit dem 29. Mai 1994 war Saddam wieder Premierminister, nachdem er nach dem Ende des Golfkriegs 1991 diesen Posten aufgab. Zudem bekleidete er das Amt des Vorsitzenden der Baʿth-Partei und war Oberkommandierender der Armee. Im Oktober 1995 ließ er sich ohne Gegenkandidaten mit 97 Prozent der abgegebenen Stimmen auch offiziell zum Präsidenten wählen. Die Gratulation durch den ehemaligen Staatspräsidenten Abd ar-Rahman Arif verlieh dieser Wahl einen beinahe legitimen Anstrich. 1995 flüchteten Saddams Schwiegersöhne sowie der Geheimdienstchef und dessen Bruder wegen Meinungsverschiedenheiten nach Jordanien. Angeblich durch Saddam begnadigt, kehrten sie in den Irak zurück, wo sie im Februar 1996 inhaftiert und drei Tage später erschossen wurden. Die Vereinten Nationen hatten seit dem Zweiten Golfkrieg ein ununterbrochenes Handelsembargo über das Land verhängt. 1996 akzeptierte das irakische Parlament den „Oil-for-Food“-Plan des UNO-Sicherheitsrates, der dem Irak den Verkauf begrenzter Mengen Erdöls ermöglichte, um dringende humanitäre Bedürfnisse zu decken. Im Oktober 2002 wurde Saddam Hussein in einer offensichtlich fingierten Wahl mit fast 100 Prozent der Stimmen als Führer des Landes für weitere sieben Jahre im Amt bestätigt. Der Irak-Krieg. Computer-generierte Abbildung der angeblichen mobilen Anlagen zur Produktion chemischer Kampfstoffe, präsentiert von dem damaligen US-Außenminister Colin Powell vor dem UN-Sicherheitsrat im Februar 2003 zur Legitimation des Sturzes Saddam Hussein und des Irak-Krieges. Im Irak-Krieg marschierten Truppen der Vereinigten Staaten und deren Verbündete am 20. März 2003 in den Irak ein. Die irakische Armee wurde geschlagen, das Land vollständig besetzt. Die USA begründeten dies damit, dass der Irak durch Entwicklung und Besitz von Massenvernichtungswaffen gegen die über ihn verhängten UN-Resolutionen verstoße und dass Saddam Hussein terroristische Organisationen wie al-Qaida unterstütze. Beide Vorwürfe wurden nachträglich durch den Geheimdienstausschuss des US-Senats widerlegt. Am 9. April 2003 wurden die Kämpfe mit dem Fall Bagdads und dem Untergang des Regimes von Saddam Hussein beendet. Nach Kriegsende tauchten Tonbandaufnahmen auf, in denen eine männliche Stimme dazu aufrief, „die Invasoren aus unserem Land zu vertreiben“. Es wird als wahrscheinlich angesehen, dass es sich dabei um die Stimme Saddam Husseins handelte. Auf Saddam Hussein und eine Reihe von führenden Angehörigen der Regierung wurde nach dem Sturz des Regimes ein Kopfgeld von 25 Millionen US-Dollar ausgesetzt. Nach ihnen wurde auch mittels eines in Umlauf gebrachten Kartenspiels gefahndet, in dem die Gesuchten Karo-Ass, Herz-König etc. darstellten. Seine Söhne Udai und Qusai, die für ihre Grausamkeit gefürchtet waren, kamen am 22. Juli 2003 bei einem US-Angriff auf ihren Unterschlupf in Mossul nach heftigen Kämpfen ums Leben. Sein dritter und jüngster Sohn Ali Saddam ist untergetaucht. Im Jahr 2011 gestand der irakische Informant Rafid Ahmed Alwan El-Dschanabi, der dem Bundesnachrichtendienst unter dem Codenamen „Curveball“ die Informationen über vermeintliche Biowaffen und geheime Massenvernichtungsanlagen geliefert hatte, gegenüber dem britischen "Guardian", dass seine Angaben hierzu gelogen waren. El-Dschanabi begründet seine Lügen damit, dass er die Chance gehabt habe, „etwas zu fabrizieren, um das Regime zu stürzen“. Saddam Husseins Festnahme. Saddam Hussein nach seiner Festnahme Am 13. Dezember 2003 wurde Saddam Hussein von US-Besatzungstruppen festgenommen. Nach amerikanischer Darstellung wurde er nach einem Verrat eines früheren Gefolgsmannes, eines ehemaligen irakischen Geheimdienstlers, in dem Dorf Dur rund 15 Kilometer von seiner Heimatstadt Tikrit entfernt von amerikanischen Soldaten gefangen genommen. Demnach habe sich der einstmals mächtigste Mann des Landes zuletzt in einem engen gemauerten Erdloch vor einer ärmlichen Hütte versteckt gehalten. Als die Soldaten das Erdloch mit vorgehaltener Waffe inspizierten, habe sich Saddam Hussein ihnen kampflos und müde ergeben. Bei ihm soll Bargeld im Wert von etwa 750.000 US-Dollar gefunden worden sein. Der von der US-amerikanischen Führung verbreitete Hergang der Festnahme und der konkrete Zeitpunkt wurden von Saddam Husseins Anwalt wie auch von ihm selbst bestritten. Der ehemalige US-Soldat Nadim Abou Rabeh sagte im März 2005, dass die Szene mit dem sogenannten Erdloch gestellt worden sei, Saddam Hussein in einem Haus gelebt habe und die US-Soldaten bei der Festnahme auf Widerstand gestoßen seien. In jedem Fall blieb Saddam Hussein bei seiner Ergreifung gänzlich unverletzt und machte einen heruntergekommenen Eindruck, wie Fotos während der ersten ärztlichen Untersuchung nach seiner Inhaftierung belegten. Saddams Identität wurde nach US-amerikanischen Angaben durch eine DNS-Probe sowie anhand von Zähnen und Narben nachgewiesen. Die offizielle Bestätigung der Festnahme erfolgte am 14. Dezember 2003 um etwa 13 Uhr MEZ durch den britischen Premierminister Tony Blair und kurz danach in einer Pressekonferenz durch Paul Bremer, den US-amerikanischen Zivilverwalter im Irak. Der Ex-Diktator wurde im Hochsicherheitsgefängnis Camp Cropper inhaftiert. Am 10. Januar 2004 gab die US-amerikanische Regierung bekannt, dass er nun offizieller Kriegsgefangener der USA sei. Der Status des Kriegsgefangenen ermöglichte unter anderem, dass unabhängige Beobachter und Hilfsorganisationen, z. B. das Rote Kreuz, mit dem Ex-Diktator in Kontakt treten konnten, um sich von dessen Unversehrtheit und den Haftbedingungen ein Bild zu machen. Am selben Tag forderte der irakische Regierungsrat die Vereinigten Staaten auf, Saddam als einen Kriminellen der irakischen Justiz zu übergeben. Dies erfolgte am 30. Juni 2004, zwei Tage nach der offiziellen Machtübergabe der USA an die irakische Übergangsregierung. Die Anklage. Saddam Hussein im Juli 2004 Ein Sondertribunal beschäftigte sich mit Saddam Hussein und elf weiteren Politikern und Militärs des Iraks. In einer ersten Anhörung ohne Anwalt am 1. Juli 2004, die wegen US-Zensur überwiegend ohne Ton im Fernsehen übertragen wurde, stritt Saddam jede Schuld ab und erkannte das Tribunal nicht an. Er sah sich weiterhin als Präsident. Er blieb unter Bewachung der USA. Gemäß irakischem Recht wurde Saddam Husseins Einmarsch in Kuwait vor dem Tribunal verhandelt. Davon ausgenommen sollte der Überfall auf den Iran 1980 nicht als Angriffskrieg verhandelt werden. Die iranische Regierung beabsichtigte, in Bagdad zu klagen, da Saddam Hussein 1980 den Krieg gegen Iran begonnen und Chemiewaffen eingesetzt habe. Saddam Hussein wurden die in diesen Kriegen verübten Kriegsverbrechen sowie Verbrechen gegen die Menschlichkeit zur Last gelegt. Laut Human Rights Watch wurden bis zu 290.000 Menschen ermordet. Die Ermittlungen wurden laut "New York Times" vom FBI und einer Einheit des US-Justizministeriums geführt. Die irakischen Juristen erhielten Unterstützung von ausländischen Experten. Salam Tschalabi, der Gerichtsdirektor, wurde in den USA ausgebildet. Der Kurdenführer und spätere irakische Staatspräsident Dschalal Talabani sprach sich gegen die Todesstrafe für Saddam Hussein aus. Dennoch zweifelt er nicht an seiner Schuld: Saddam Hussein habe „massakriert“ und „unsere Städte abgebrannt und zerstört“. Der neue Irak, der gerade im Entstehen sei, müsse deshalb die Rechte der kurdischen Bevölkerung achten: „Wenn der Irak diese Verpflichtung nicht anerkennt, wird das das Ende der irakischen Einheit sein.“ Der Prozess. Der Prozess gegen Saddam Hussein und sieben Mitangeklagte begann am 19. Oktober 2005. In erster Instanz entschied eine Kammer aus fünf Richtern, wobei zunächst Richter Raouf Abdul Rahman den Vorsitz hatte, nachdem der ursprünglich dem Gericht vorsitzende Rizgar Muhammad Amin sein Amt niedergelegt hatte. In der Berufung entschieden neun Richter. Das Gericht hatte die Gerichtsbarkeit über Völkermord, Verbrechen gegen die Menschlichkeit und Kriegsverbrechen sowie über drei weitere aus dem irakischen Recht abgeleitete Verbrechen, unter ihnen etwa die unerlaubte Einmischung in die Justiz, die während Saddams Präsidentschaft von 1979 bis zum Beginn der Okkupation durch die Koalitionstruppen 2003 begangen wurden. Der erste Anklagepunkt vor dem Gericht bezog sich auf eine Vergeltungstat, die nach dem misslungenen Attentat auf Saddam Hussein in der Stadt Dudschail 1982 begangen worden sein soll. 148 Männer und Jungen wurden hingerichtet oder starben bei „Vernehmungen“ durch staatliche Behörden. Die weiteren zwölf Anklagen reichten vom Giftgasangriff auf Kurden in der sogenannten Anfal-Kampagne und dem Angriff auf die Stadt Halabdscha 1988 bis hin zur Tötung Zehntausender Schiiten nach deren Aufstand 1991. Mit Saddam Hussein standen sieben weitere Personen vor Gericht. Unter ihnen waren Taha Yassin Ramadan, der frühere Vizepräsident des Irak, Barzan Ibrahim at-Tikriti, ein jüngerer Halbbruder Saddams und ehemaliger Direktor des Sicherheitsdienstes Mukhabarat, und Awad al-Bandar, früherer Vorsitzender des Revolutionsgerichtshofs, der unter anderem für die Todesurteile in Dudschail zuständig war. Nachdem zwei Verteidiger von Saddams Mitangeklagten Anschlägen zum Opfer gefallen waren, ein Mordkomplott gegen den Ermittlungsrichter Dschuhi aufgedeckt und ein Anschlag auf das Gerichtsgebäude vereitelt worden war und einige Verteidiger sich aus diesem Grund zurückgezogen hatten, wurde vom damaligen Vorsitzenden Amin die Verlegung des Prozesses in die weniger instabilen kurdischen Regionen erwogen. Der Prozess wurde allerdings weiterhin in Bagdad geführt. Der US-amerikanische Anwalt Ramsey Clark, früherer US-Justizminister und prominenter Gegner des Irak-Kriegs, gehörte ebenfalls zu dem Team, das Saddam im Prozess verteidigte. Er hatte schon Slobodan Milošević verteidigt. Außerdem gehörte zu dem Verteidigerteam Aisha Gaddafi, die Tochter des damaligen libyschen Staatschefs Muammar al-Gaddafi. Ein weiterer Anwalt Saddam Husseins, Najib al-Nawimi, ehemaliger katarischer Justizminister, versuchte die Legitimität des Gerichts anzuzweifeln, da große Teile seines Statuts während der Besetzung durch die USA geschrieben worden seien. Der Anwalt Curtis Doebbler legte sogar Rechtsmittel vor dem Obersten Gerichtshof der Vereinigten Staaten ein, da das Recht auf einen fairen Prozess in erheblicher Weise verletzt worden sei. In Bagdad wurde der Prozess unter strengsten Sicherheitsvorkehrungen abgehalten. Zeugen gegen Saddam Hussein wurde wegen ihrer Furcht vor Anschlägen Anonymität zugestanden. Der Prozess wurde von Anhängern Saddam Husseins und US-kritischen Stimmen als Schauprozess und als Siegerjustiz interpretiert. Menschenrechtsorganisationen zweifelten an der rechtmäßigen Einsetzung des Tribunals. Human Rights Watch betonte zudem, die Rechte der Angeklagten würden beschnitten. Ein Menschenrechtsbeobachter der Vereinten Nationen erklärte, das Gericht werde internationalen Standards für solche Verfahren nicht gerecht. Saddam Hussein begann am 7. Juli einen Hungerstreik, um gegen die mangelhafte Sicherheit für seine Anwälte zu protestieren. Ab dem 23. Juli wurde er deswegen in einem Krankenhaus zwangsernährt. Der irakische Generalstaatsanwalt forderte wegen des Massakers von Dudschail die Todesstrafe für Saddam Hussein. Auch der ehemalige Vizepräsident Taha Jassin Ramadan und Saddams Halbbruder Barsan Ibrahim al-Tikriti sollten hingerichtet werden, forderte der Staatsanwalt in seinem Schlussplädoyer. Für vier weitere Angeklagte beantragte er Freiheitsstrafen. Das Urteil. Saddam Hussein wurde am 5. November 2006 vom Richter Ra’uf Raschid Abd ar-Rahman zum Tode durch den Strang verurteilt. Er wollte sich zur Urteilsverkündung vor dem Sondertribunal nicht erheben, lenkte jedoch ein, als ihm letztlich mit Zwang gedroht wurde. Saddams persönlichem Wunsch, nicht „wie ein einfacher Krimineller“ erhängt, sondern erschossen zu werden, wurde nicht entsprochen. Die Berufungsverhandlung in der Berufungskammer des Sondertribunals, die bei jedem Todesurteil automatisch angeordnet wird, bestätigte das Urteil schließlich am 26. Dezember 2006. Eine zügige Hinrichtung innerhalb von maximal 30 Tagen, d. h. bis zum 25. Januar 2007, wurde außerdem vorgeschrieben. Ein letzter Versuch, die Hinrichtung durch einen Antrag seiner Anwälte vor einem US-Bezirksgericht in Washington aufzuschieben, wurde abgelehnt. Reaktionen. Die EU-Außenkommissarin Benita Ferrero-Waldner kam im Namen der Europäischen Kommission zu dem Urteil, „[…] während die EU die Todesstrafe grundsätzlich ablehnt, bedeuten das Gerichtsverfahren und die Bestrafung von Saddam, dass jene, die Verbrechen gegen die Menschlichkeit begehen, der Gerechtigkeit nicht entgehen können“. Die deutsche Bundeskanzlerin Angela Merkel brachte ebenfalls ihre grundsätzliche Ablehnung der Todesstrafe zum Ausdruck: „Saddam Hussein ist von einem irakischen Gericht verurteilt worden, und das Urteil ist vollstreckt worden. Wir respektieren dieses Urteil. Aber es ist bekannt, dass die Bundesregierung gegen die Todesstrafe ist. An einem Tag wie diesem gehen meine Gedanken vor allen Dingen zu den vielen unschuldigen Opfern von Saddam Hussein. Ich wünsche dem irakischen Volk, dass es seinen Weg ohne Gewalt und in Frieden gehen kann.“ Der Nahost-Direktor von Amnesty International, Malcolm Stuart, erklärte: „Jeder Angeklagte hat das Recht auf einen fairen Prozess, unabhängig von dem Ausmaß der Vorwürfe gegen ihn. […] Hier wurde eine Gelegenheit verpasst, und die Verhängung der Todesstrafe macht das noch schlimmer.“ Verlauf. Das Urteil gegen Saddam Hussein wurde am 30. Dezember 2006 kurz nach 6:00 Uhr Ortszeit (4:00 Uhr MEZ) in al-Kazimiyya, einer Nachbarstadt im Nordosten von Bagdad, durch Hängen vollstreckt. Die gesamte Hinrichtung wurde offiziell von den irakischen Behörden gefilmt und auf Fotos festgehalten. Entsprechende Aufnahmen, die die letzten Minuten Saddams, nicht jedoch die Exekution zeigen, waren wenig später weltweit in zahllosen Medien zu sehen. Die Hinrichtung sei nach offizieller Darstellung schnell und ruhig verlaufen. Saddam habe keine Bemerkung gemacht, während er zum Galgen geführt worden sei. Vor der Hinrichtung habe er das sunnitisch-islamische Glaubensbekenntnis gesprochen. Eine im Internet kursierende Amateuraufnahme der Hinrichtung widerlegt jedoch diese Darstellung. Dabei ist zu hören, dass Personen im Raum Saddam Hussein beschimpfen, er werde „direkt in die Hölle gelangen“, woraufhin dieser antwortet: „Irak ist nichts ohne Saddam“. Ebenso wird der radikale irakische Schiiten-Führer Muqtada as-Sadr, einer der größten Gegner Saddam Husseins, durch die unbekannten Personen bejubelt. Bereits mit der Schlinge um den Hals auf der Falltür stehend, sprach Saddam Hussein anschließend seine letzten Worte, die zweizeilige Schahada der Sunniten: „Es gibt keine Gottheit außer Allah. Mohammed ist der Prophet Allahs.“ Noch während der ersten Wiederholung öffnete sich die Falltür, als er das Wort "Mohammed" aussprach. Die inoffizielle Filmaufnahme zeigt entgegen der offiziellen auch, wie Saddam Hussein durch Genickbruch stirbt und unmittelbar nach der Hinrichtung am Galgen hängt. Reaktionen auf die Hinrichtung. Das gewählte Hinrichtungsdatum wurde in der islamischen Welt scharf kritisiert, da sie an einem islamischen Feiertag, dem Opferfest, vollstreckt wurde. Es wurden außerdem Terroranschläge als Reaktion auf die Hinrichtung Saddams befürchtet, denn bereits die Urteilsverkündung im November hatte in Teilen des Landes Gewalt ausgelöst. Das im Internet veröffentlichte nicht offizielle Hinrichtungsvideo löste ein bestürztes Medienecho aus. Für die BBC bezeichnete World Affairs Editor John Simpson den Verlauf als „hässlich und erniedrigend“. Es erinnere an öffentliche Hinrichtungen des 18. Jahrhunderts. Staatsanwalt Munkith al-Farun, der bei der Hinrichtung anwesend war, erklärte am 2. Januar 2007, dass hochrangige irakische Regierungsmitarbeiter den Mitschnitt unerlaubt mit einem Handy gedreht hätten. Das Hinrichtungsvideo entwickelte sich in den folgenden Tagen insbesondere im Süden Bagdads, in dem zahlreiche Schiiten leben, zum Verkaufsschlager. Die Anwälte Saddam Husseins forderten daraufhin am 3. Januar 2007 in einem Brief an Ban Ki-moon eine Untersuchung und verwiesen erneut auf die Genfer Konventionen, die mehrfach nicht auf den Kriegsgefangenen angewandt worden seien. In dem Schreiben wurde außerdem vermutet, einige der ärgsten Feinde Saddams könnten „in einem üblen Handel mit der Besatzungsmacht das Privileg erhalten haben, bei der Tötung selbst Hand anzulegen“. Es soll daher ebenfalls untersucht werden, wer die vermummten Henker waren. Auch andere irakische Beobachter kritisierten das Verfahren. EU-Entwicklungshilfekommissar Louis Michel verurteilte die Hinrichtung noch am selben Tag indirekt als „barbarisch“. Zudem äußerte er die Befürchtung, dass die Vollstreckung des Urteils Saddam zu einem Märtyrer machen könne. EU-Außenkommissarin Ferrero-Waldner sagte, der Tod Saddam Husseins habe ein „langes und schmerzhaftes Kapitel in der Geschichte des Irak“ geschlossen. Seine Karriere und sein Vermächtnis zeige die „Sinnlosigkeit einer Politik der Gewalt und des Terrors“. Für die deutsche Bundesregierung zeigte Gernot Erler (SPD), Staatsminister im Auswärtigen Amt, zwar Verständnis für die Zustimmung betroffener Iraker, fügte jedoch im RBB-Inforadio hinzu: „Aber wir wenden uns gegen die Todesstrafe, egal wo sie angewandt wird.“ Vom Vatikan wurde die Hinrichtung ebenfalls scharf verurteilt. Vatikansprecher Federico Lombardi sagte, es handele sich um „eine tragische Nachricht“, und benutzte das Wort „Ermordung“. Weiter sagte er, es bestehe „das Risiko, dass dies den Geist der Rache noch anstachelt und neue Gewalt sät“. Der Präsident des päpstlichen Rates für Gerechtigkeit und Frieden, Kurienkardinal Renato Raffaele Martino, sagte gegenüber Radio Vatikan: „Ich hatte in den vergangenen Tagen gehofft, dass man es für angemessen halten würde, das Todesurteil nicht zu vollstrecken. Ich hoffe und bete, dass dieser letzte Akt nicht dazu beiträgt, die bereits kritische Situation im Irak weiter zu verschlimmern, einem Land, das von vielen Spaltungen und Bruderkämpfen gezeichnet ist.“ US-Präsident George W. Bush würdigte dagegen die Hinrichtung von Saddam Hussein als „gerechte Strafe“. Die Hinrichtung sei das Ergebnis einer Rechtsprechung, die der irakische Expräsident „den Opfern seines brutalen Regimes“ vorenthalten habe, sagte Bush in der Nacht auf seinem Landsitz in Texas. Die britische Regierung wiederum kritisierte die Hinrichtung aus prinzipiellen Gründen. „Wir treten für die weltweite Abschaffung der Todesstrafe ein, unabhängig von dem jeweiligen Verbrechen“, erklärte Außenministerin Margaret Beckett. Großbritannien habe seine Ablehnung der Todesstrafe „der irakischen Regierung sehr deutlich klargemacht, allerdings respektieren wir deren Position“, fügte die Ministerin hinzu. Russland hat wegen der Hinrichtung Saddam Husseins vor einer weiteren Verschärfung der Lage im Irak gewarnt. Gleichzeitig bedauerte ein Sprecher des Außenministeriums in Moskau, dass die internationalen Bitten um eine Aussetzung der Hinrichtung ungehört verhallt seien. „Russland ist wie viele andere Länder prinzipiell gegen die Todesstrafe, aus welchen Motiven diese auch verhängt worden sein mag“, hieß es in der Stellungnahme. Ban Ki-moon, der Generalsekretär der Vereinten Nationen, sorgte dagegen überraschend für einen Eklat, indem er in einer Stellungnahme zur Hinrichtung erklärte, es stehe einem Land frei, über Hinrichtungen zu entscheiden. Damit tangierte Ban die bereits 1948 von seiner Organisation verabschiedete Deklaration der Menschenrechte, die das Recht jedes Menschen auf Leben verbrieft. Bei einer Pressekonferenz erklärte eine Mitarbeiterin anschließend prompt, dass Hinrichtungen von den Vereinten Nationen weiterhin abgelehnt würden. Bans Heimat Südkorea zählt zu den Mitgliedern der Vereinten Nationen, in denen die Todesstrafe angewandt wird. Ausdrücklich begrüßt wurde der Vollzug des Todesurteils im Iran und in Kuwait, während ein Vertreter der Palästinenser von politischem Mord sprach und der libysche Revolutionsführer Muammar al-Gaddafi eine dreitägige Staatstrauer für sein Land anordnete. Israels Vize-Ministerpräsident Schimon Peres verglich Saddams Hinrichtung mit dem Ende Adolf Hitlers. Der Tod des Ex-Diktators, der eine Gefahr für den Nahen Osten und den Weltfrieden dargestellt habe, sei wie der Hitlers vorhersehbar gewesen. Der irakische Ministerpräsident Nuri al-Maliki zeigte sich über die internationale Kritik erbost: „Die irakische Regierung sollte vielleicht ihre Beziehungen zu den Regierungen überdenken, die den Willen des irakischen Volkes nicht respektieren.“ Vernehmungen durch das FBI. Im Juli 2009 wurden die Vernehmungen des FBIs aus dem Jahre 2004 vom National Security Archive veröffentlicht. Saddam nannte als seine Feinde den Iran und al-Qaida, als potentiellen Verbündeten betrachtete er das Regime in Nordkorea. Als große Fehler nannte Saddam u. a. das Vernichten der Massenvernichtungswaffen in den 1990ern, die er sonst im Irak-Krieg 2003 hätte einsetzen können. Saddam gab des Weiteren Details zu den Golfkriegen weiter. Nicht enthalten in den FBI-Berichten waren jedoch Aussagen zur Beziehung zwischen dem Irak und den USA in den 1980ern, zu den Chemiewaffenangriffen und der CIA-Rolle beim Baath-Aufstieg. Persönliches. Der Leichnam wurde in Saddams Geburtsort, dem Dorf al-Audscha nahe Tikrit, beigesetzt. Es nahmen rund 100 Personen an der Bestattung teil, darunter auch der Gouverneur der Provinz Salah ad-Din. Die Beisetzung erfolgte gemäß islamischen Glaubensvorschriften binnen 24 Stunden nach dem Tod. Saddam wurde unter der Kuppel eines Grabmals beigesetzt, das er für sich hatte bauen lassen und sich direkt neben der nach ihm benannten Saddam-Moschee befindet. In der Nähe sind seine beiden Söhne Udai und Qusai, die bereits 2003 von amerikanischen Soldaten bei einem Gefecht getötet worden waren, beerdigt. In den Städten der Provinz kam es zu Demonstrationen für Saddam. Irakische Polizisten hinderten jedoch die Bevölkerung daran, zum Grab zu fahren. Die Familie Saddams will in der Nähe der Moschee eine Bibliothek und eine Koranschule errichten lassen. Das Grabmal wurde bei den Kämpfen zwischen ISIS und irakischen Streitkräften im März 2015 zerstört, Saddam Husseins Leichnam wurde bereits 2014 von seinen Anhängern an einen unbekannten Ort umgebettet. Syllogismus. Die Syllogismen (von "syllogismos" ‚[das] Zusammenrechnen‘, ‚logischer Schluss‘) sind ein Katalog bestimmter Typen logischer Schlüsse. Sie bilden den Kern der im vierten Jahrhundert vor unserer Zeitrechnung entstandenen antiken Logik des Aristoteles und der traditionellen Logik bis ins 19. Jahrhundert. Als Haupttechnik der Logik wurde der syllogistische Ansatz durch die Integration der Logik in die Mathematik (mit den Arbeiten von George Boole und Gottlob Frege im 19. und frühen 20. Jahrhundert) abgelöst. Alle Menschen sind sterblich (Obersatz). Alle Griechen sind Menschen (Untersatz). Also sind alle Griechen sterblich (Schlussfolgerung). Als Syllogistik wird allgemein die Lehre von den Syllogismen bezeichnet. Die klassische Logik untersuchte insbesondere, unter welchen Voraussetzungen Syllogismen gültig sind. Syllogismen sind immer nach dem gleichen Muster aufgebaut. Jeweils zwei Prämissen (Voraussetzungen), Obersatz und Untersatz genannt, führen zu einer Konklusion (Schlussfolgerung). Die Prämissen und die Konklusion sind Aussagen von einem bestimmten Typ, in denen jeweils einem Begriff, dem syllogistischen Subjekt, ein anderer Begriff, das syllogistische Prädikat (nicht gleichbedeutend mit Subjekt und Prädikat in der Grammatik), in bestimmter Weise zu- oder abgesprochen wird. In Abhängigkeit von der Stelle, an der sie im Syllogismus auftreten, werden die vorkommenden Begriffe Oberbegriff, Mittelbegriff und Unterbegriff genannt. Geschichte. In diesem weiteren Sinn, also als Synonym für das Wort „Argument“, wurde das Wort „Syllogismus“ alltagssprachlich bis ins 20. Jahrhundert hinein verwendet. Im modernen Sprachgebrauch ist diese weite Verwendung nicht mehr üblich und nur mehr in Ausdrücken wie hypothetischer Syllogismus (ein Sammelbegriff für bestimmte in der Tradition betrachtete aussagenlogische Schlussweisen) anzutreffen. "Syllogismus" bezeichnet verwirrenderweise traditionell nun ausschließlich eine spezielle Form des deduktiven Arguments ("syllogismos"), nämlich die in Aristoteles’ Erster Analytik behandelte Deduktion, die aus genau zwei Prämissen, einer Konklusion und drei Begriffen besteht. Da die Definition der Deduktion diese Einschränkung nicht aufweist, ist zwar jeder Syllogismus ein syllogismos, aber nicht jeder syllogismos ein Syllogismus. Nach der Position des Mittelbegriffs – das heißt desjenigen Begriffs, der nur in den Prämissen vorkommt – unterscheidet Aristoteles drei Arten von Schlüssen, "Figuren" genannt (siehe Abschnitt Figuren). Die Einführung einer vierten Figur, deren Schlüsse auch Aristoteles schon als gültig anerkennt, wird von Avicenna und anderen Galen zugeschrieben, obwohl es für diese Zuschreibung keine direkten Hinweise im überlieferten Werk Galens gibt und dieser sie in der Tat sogar ausdrücklich ablehnt. Bis zur Einführung der vierten Figur werden ihre Syllogismen in der Tradition des Theophrastos von Eresos oft der ersten Figur zugerechnet. Im lateinischen Mittelalter, das die logischen Werke des Aristoteles zunächst aus Übersetzungen und Kommentaren des Boëthius aufnahm, wurden die traditionellen lateinischen Bezeichnungen für Quantität und Qualität der Urteile (siehe Abschnitt Typen von Aussagen) durch Petrus Hispanus gebräuchlich. In der Scholastik erhielt die Syllogistik die Form, die dann jahrhundertelang in den Lehrbüchern tradiert wurde, wobei der authentische Gehalt der aristotelischen Syllogistik schon seit der Antike verloren gegangen war und sie seit der Renaissance zunehmend scharfer Kritik unterzogen wurde (berühmt ist etwa die Kritik von René Descartes). Erst Jan Łukasiewicz hat Aristoteles' Logik in einer bahnbrechenden Arbeit neu entdeckt und sie vom Standpunkt der modernen Logik aus axiomatisch rekonstruiert; unter anderem wegen der hohen Zahl der dabei angesetzten Axiome wird jedoch bezweifelt, dass diese Rekonstruktion ausreichend gegenstandsadäquat ausgefallen ist. An Łukasiewicz schließt die neuere Forschung an, die ihr deutschsprachiges Standardwerk in Günther Patzigs Darstellung (1959) gefunden hat. Seither unterscheidet man zwischen der aristotelischen und der traditionellen Syllogistik. Der auffälligste äußere Unterschied besteht darin, dass Aristoteles Syllogismen nicht als eine Folge von drei Sätzen niederschreibt, sondern als "einen" Satz der Form „Wenn (Prämisse 1) und (Prämisse 2), so notwendig (Konklusion)“; es besteht Uneinigkeit darüber, ob sich diese Formulierung als metasprachliche Aussage über einen Syllogismus im traditionellen Verständnis erklären lasse oder ob der Sicht Łukasiewicz zu folgen sei, dass Aristoteles einen Syllogismus als "eine" zusammengesetzte Aussage betrachte. Die beiden Lesarten lassen sich einfach ineinander überführen; der vorliegende Artikel gibt konkrete Syllogismen im Sinn der ersteren Lesart durchgängig als Folge von drei Sätzen wieder. Auch von diesem strittigen Punkt abgesehen gibt es zwischen der aristotelischen und der traditionellen Syllogistik zahlreiche Unterschiede in der logisch-semantischen Auffassung, so dass heute vielfach die Ansicht vertreten wird, Aristoteles stehe der modernen Logik im Grunde viel näher als der traditionellen Syllogistik. Bereits auf Augustus De Morgan geht die unter anderem von Patzig ausgearbeitete Auffassung der aristotelischen Syllogistik als Theorie bestimmter zweistelliger Relationen zwischen Begriffen sowie des relativen Produktes solcher Relationen zurück. Ein Syllogismus ist dann ein Relationenprodukt, das selbst wieder eine Relation in jener bestimmten Form ist, die in den vier Satztypen A, E, I oder O ausgedrückt wird (zu A, E, I, O siehe Typen von Aussagen). Die unterschiedslose Gleichsetzung von aristotelischer und traditioneller Syllogistik in der älteren Geschichtsschreibung der Logik (Carl Prantl, Heinrich Maier) hat hingegen zahlreiche Irrtümer – etwa über die angeblichen metaphysischen Voraussetzungen von Aristoteles' Logik – hervorgebracht, von denen sich die Aristotelesinterpretation nur mit Mühe befreien konnte. Allgemeine Darstellung. Syllogistische Argumente sind immer nach dem gleichen Muster aufgebaut. Jeweils zwei Prämissen (Voraussetzungen), genannt "Obersatz" (lateinisch "propositio major") und "Untersatz" (lateinisch "propositio minor"), führen zu einer Konklusion (Schlussfolgerung, lateinisch "conclusio"). Im hier dargestellten kategorischen Syllogismus (auch assertorischer Syllogismus genannt) sind Prämissen und Konklusion kategorische Urteile, d. h. Aussagen, in denen einem Begriff (griechisch ὅρος – "horos", lateinisch "terminus"), dem Subjekt, ein anderer Begriff, das Prädikat, in bestimmter Weise zu- oder abgesprochen wird. Zum Beispiel wird im kategorischen Urteil „Alle Menschen sind sterblich“ dem Subjekt „Mensch“ das Prädikat „sterblich“ zugesprochen. Zu beachten – und an diesem Beispiel ersichtlich – ist, dass die Wörter „Subjekt“ und „Prädikat“ im Zusammenhang der Syllogistik anders verwendet werden als in der traditionellen Grammatik, wo das grammatikalische Subjekt der Ausdruck „alle Menschen“ und das grammatikalische Prädikat – je nach Sichtweise – das Wort „sind“ oder der Ausdruck „sind sterblich“ wäre. In der Nachfolge von Johannes Philoponus wird den Bezeichnungen „Oberbegriff“ und „Unterbegriff“ seit dem 17. Jahrhundert mehrheitlich keinerlei inhaltliche Bedeutung beigemessen und sie werden ausschließlich aus ihrem Auftreten im Obersatz beziehungsweise im Untersatz und als Prädikat beziehungsweise Subjekt der Konklusion erklärt. Gelegentlich werden Unter- und Oberbegriff auch als Subjekt bzw. Prädikat des Syllogismus bezeichnet. Kein Rechteck ist ein Kreis. Alle Quadrate sind Rechtecke. Also ist kein Quadrat ein Kreis. Der Mittelbegriff dieses Syllogismus ist der Begriff „Rechteck“; im Obersatz dieses Syllogismus tritt der Mittelbegriff als Subjekt, in seinem Untersatz als Prädikat auf. Der Unterbegriff dieses Syllogismus ist der Begriff „Quadrat;“ er tritt im Untersatz als Subjekt auf. Der Oberbegriff dieses Syllogismus ist schließlich der Begriff „Kreis;“ er tritt im Obersatz als Prädikat auf. Kreis kommt keinem Rechteck zu. Rechteck kommt allem Quadrat zu. Also kommt Kreis keinem Quadrat zu. Die beiden Schreibweisen sind gleichbedeutend und gleichwertig. Während Aristoteles selber in seinen Analytiken überwiegend Varianten der zweiten Formulierung, „P kommt allem S zu“, wählt (meist „τὁ P κατηγορεῖται τοῦ S“ – „das P wird über das S ausgesagt“), wird seit der Scholastik Varianten der ersten Schreibweise, „Alle S sind P,“ der Vorzug gegeben. Stärker als in der traditionellen tritt in der aristotelischen Formulierung der Unterschied zwischen grammatikalischem und syllogistischem Subjekt bzw. Prädikat zutage; so hat in der Formulierung „P kommt allem S zu“ das syllogistische Prädikat, „P“, die Funktion des grammatikalischen Subjekts und das syllogistische Subjekt, „S“, die Funktion des grammatikalischen Prädikats. Die richtige Einordnung der aristotelischen Syllogismen ist bis heute strittig. Da die Umwandlung zwischen den beiden Lesarten einfach ist und da Aristoteles seine Syllogismen trotz ihrer Formulierung in „Wenn–dann“-Form als Schlussregeln gebraucht, stellt der vorliegende Artikel konkrete Syllogismen durchgängig in ihrer traditionellen Formulierung als aus drei Aussagen zusammengesetzte Argumente dar. Als Weiterentwicklung der kategorischen oder assertorischen Syllogistik gibt es schon bei Aristoteles Ansätze einer modalen Syllogistik, bei der in den – von diesem Unterschied abgesehen gleich aufgebauten – Syllogismen modale Aussagen wie „Alle Menschen sind möglicherweise sterblich“ zugelassen sind. Logische Systeme, die wie die Syllogistik mit Aussagen arbeiten, in denen Begriffe zueinander in Beziehung gesetzt werden, werden allgemein Begriffslogiken genannt. Typen von Aussagen. Die Vokale stammen dabei aus den lateinischen Worten „affirmo“ (ich bejahe) und „nego“ (ich verneine), wobei jeweils der erste Vokal für ein allgemeines, der zweite für ein partikuläres Urteil steht. Logisches Quadrat. Diese Zusammenhänge werden oft in einem Schema, das unter dem Namen „Logisches Quadrat“ bekannt wurde, zusammengefasst (siehe Abbildung). Die älteste bekannte Niederschrift des logischen Quadrats stammt aus dem zweiten nachchristlichen Jahrhundert und wird Apuleius von Madauros zugeschrieben. Existenzielle Voraussetzungen. Die Existenzaussage „Es gibt S“ wird dabei für gewöhnlich nicht als Teil des jeweiligen syllogistischen Urteils verstanden, sondern als seine Präsupposition, das heißt als Voraussetzung dafür, dass das jeweilige Urteil zum syllogistischen Schließen überhaupt verwendet werden kann. Die Existenzaussage zum Teil des syllogistischen Urteils zu machen ist zwar möglich, aber formal relativ kompliziert, und wird hinsichtlich seiner Adäquatheit unterschiedlich beurteilt. Je nach Interpretation der syllogistischen Aussagen und Gesetzmäßigkeiten ist auch die Sicht möglich, dass syllogistisches Schließen überhaupt nur mit nicht leeren Begriffen möglich sei, das heißt, dass auch die Prädikate nicht leer sein dürfen. Die Frage, welche Autoren der Tradition welche Sichtweise vertreten haben, wird unterschiedlich beurteilt und ist bis heute Gegenstand philosophischer und philologischer Untersuchungen. Obwohl existenzielle Voraussetzungen dem natürlichen Sprachgebrauch entsprechen (normalerweise empfindet man nur Allaussagen über tatsächlich vorhandene Dinge als sinnvoll), ist es wichtig, sich ihrer bewusst zu sein, weil es durchaus auch logische Systeme gibt, die diese Voraussetzungen nicht machen. Distribution. In der Syllogistik wird von der Distribution (von lateinisch "distributio", Verteilung) eines Begriffs innerhalb einer Aussage gesprochen. Ein Begriff ist innerhalb einer Aussage genau dann distribuiert, wenn aus dieser Aussage jede andere Aussage folgt, die aus der ursprünglichen Aussage entsteht, indem der ursprüngliche Begriff durch einen echten Unterbegriff ersetzt wird. Eine oft gebrauchte und bei richtigem Verständnis äquivalente Formulierung lautet: Ein Begriff ist innerhalb einer syllogistischen Aussage genau dann distribuiert, wenn er sich innerhalb der Aussage auf alle Gegenstände bezieht, auf die der Begriff zutrifft. Zum Beispiel ist in der syllogistischen A-Aussage „Alle Philosophen (Subjekt) sind Menschen (Prädikat)“ der Begriff „Philosoph“ distribuiert: Aus der Tatsache, dass alle Philosophen Menschen sind, folgt, dass alle Sprachphilosophen (ein Unterbegriff von „Philosoph“) Menschen sind, dass alle Existenzphilosophen (ein weiterer Unterbegriff von „Philosoph“) Menschen sind usw. Nicht distribuiert ist in dieser Aussage hingegen der Begriff „Mensch“: Aus der Tatsache, dass alle Philosophen Menschen sind, folgt zum Beispiel noch lange nicht, dass alle Philosophen Europäer (ein Unterbegriff von Mensch) sind. Eine Übersicht darüber, in welchem Typ von Aussage welcher Begriff distribuiert ist, gibt die folgende Tabelle. Syllogismen aus moderner Sicht. Die klassischen Syllogismen lassen sich modern sowohl als Anwendung eines Teilsystems der Prädikatenlogik, nämlich der monadischen Prädikatenlogik, als auch als Mengenbeziehungen darstellen. Eine aus heutiger Sicht wesentliche Einschränkung ist, dass die Syllogismen nur Quantoren behandeln können, die mit dem Subjekt der Aussage verbunden sind (wie in "Alle Menschen sind sterblich"), Quantoren an Objektstelle (wie in "Sokrates kennt alle Athener") sind in diesem System nicht behandelbar. Dies wurde erst durch Freges Verwendung von mathematischen Funktionen in der Logik möglich. Bei der Darstellung als Mengenbeziehungen wird jeder Begriff als sein Umfang (fachsprachlich Extension) interpretiert, d. h. als die Menge der Gegenstände, die unter diesen Begriff fallen. Der Begriff „Mensch“ zum Beispiel wird mengentheoretisch als die Menge aller Menschen interpretiert. Bei der prädikatenlogischen Interpretation wird jeder Begriff als ein einstelliges Prädikat im Sinn der Prädikatenlogik dargestellt, d. h. als eine einstellige Funktion im mathematischen Sinn, die auf konkrete Individuen angewendet werden kann und die für jedes Individuum die Information liefert, ob es unter diesen Begriff fällt oder nicht. So würde zum Beispiel der Begriff „Mensch“ als das Prädikat „_ ist ein Mensch“ interpretiert. Wendet man dieses Prädikat auf einen Menschen an, zum Beispiel auf Sokrates, dann liefert es den Wahrheitswert „wahr“; wendet man es auf einen Gegenstand an, der kein Mensch ist – zum Beispiel auf ein Tier, auf einen Planeten oder auf eine Zahl –, dann liefert es den Wahrheitswert „falsch“. Regeln für die Gültigkeit von Syllogismen. Gültige Syllogismen haben bestimmte Eigenschaften hinsichtlich der Qualität, Quantität und Distribution der in ihnen vorkommenden Begriffe; zum Beispiel kann ein Syllogismus niemals gültig sein, wenn seine Prämissen partikuläre Aussagen sind, seine Konklusion aber eine allgemeine Aussage ist. Da in Abhängigkeit von der speziellen Interpretation unterschiedlich viele syllogistische Modi gültig sind, gibt es in der Tradition auch unterschiedliche Regelwerke. Im Folgenden werden die heute gängigsten Regeln dargestellt. Sie gehen in dieser einfachen Form auf das Spätmittelalter zurück und sind nicht Teil der antiken, aristotelischen Syllogistik. Das genannte Regelsystem ist der Einfachheit halber redundant, d. h. einige der Regeln lassen sich durch andere ausdrücken. Figuren. Welche der drei Begriffe S, P und M in welcher Aussage des Syllogismus vorkommen müssen, ist festgelegt: Der Obersatz besteht aus P und M, der Untersatz aus S und M, die Konklusion aus S und P. Die Konklusion hat dabei immer die Form S – P, die Anordnung der Begriffe in den Prämissen kann frei gewählt werden. Die Reihenfolge, in der die Prämissen aufgeschrieben werden, ist für die Gültigkeit eines Syllogismus zwar unerheblich, dennoch wird bereits seit Aristoteles zuerst der Obersatz und im Anschluss der Untersatz genannt. Modi (Kombinationen) und ihre Merkwörter. Da jede der drei Aussagen in einem Syllogismus von einem der vier Typen A, E, O, I sein kann, gibt es pro Figur formula_13 Möglichkeiten, Aussagen zu einem Syllogismus der jeweiligen Figur zu kombinieren. Jede dieser Möglichkeiten wird ein Modus (Plural: Modi) bzw. eine Kombination der jeweiligen Figur genannt. Bei insgesamt vier verschiedenen Figuren gibt es so insgesamt formula_14 Kombinationsmöglichkeiten, d. h. 256 Typen von Syllogismen. Unter diesen 256 Modi sind 24 gültige und 232 nicht gültige Syllogismen. Ein Modus wird durch drei Buchstaben beschrieben. Dabei stehen die ersten beiden Buchstaben für die Typen der Prämissen, der dritte Buchstabe für den Typ der Konklusion. In diesen Merkwörtern bezeichnen die Vokale die Typen der Aussagen in der Reihenfolge Obersatz–Untersatz–Konklusion; zum Beispiel bezeichnet Modus Darii einen Syllogismus der ersten Figur und vom Typ A–I–I. Die Konsonanten geben an, auf welchen Syllogismus der 1. Figur (erster Konsonant) der jeweilige Syllogismus zurückgeführt werden kann und durch welche Veränderung (jeweils auf Vokal folgender Konsonant) diese Zurückführung möglich ist (siehe Abschnitt Reduktion auf die erste Figur). Zu beachten ist, dass in der Tradition unterschiedliche Versionen der Merkwörter kursieren. Die ältesten überlieferten Versionen dieser mnemotechnischen Syllogistik stammen von den scholastischen Logikern William of Sherwood und Petrus Hispanus um 1240/1250, wobei die Priorität unsicher ist. Die fünf nicht fett gedruckten Modi sind jeweils „schwache“ Folgerungen eines fett gedruckten „starken“ Modus der jeweiligen Figur. „Stark“ bedeutet dabei, dass die Konklusion eine allgemeine Aussage (A oder E) ist; „schwach“ bedeutet, dass die Konklusion eine partikuläre Aussage (I oder O) ist, die eine direkte Folgerung der jeweiligen starken Aussage ist. Es wird davon ausgegangen, dass schwache Modi erstmals 50 v. Chr. von Ariston von Alexandria thematisiert wurden. Die schwachen Schlussfolgerungen sind logisch gültig, sofern gewisse Zusatzbedingungen erfüllt sind: Jeweils bestimmte Begriffe (Subjekt, Prädikat oder Mittelbegriff) dürfen nicht leer sein (siehe auch Abschnitt Existenzielle Voraussetzungen). Reduktion auf die erste Figur. Mit einigen einfachen Umformungen, die in den Konsonanten der traditionellen Merkwörter kodiert sind, lassen sich die Modi aller Figuren auf einen Modus der ersten Figur zurückführen („reduzieren“). Diese Tatsache war bereits Aristoteles bekannt, der auch entsprechende Umformungsregeln formuliert hat und der die erste Figur als die vollkommene, Syllogismen der ersten Figur als "vollkommenen Syllogismus" (τέλειος συλλογισμός – "téleios syllogismós") bezeichnete. Der Anfangsbuchstabe des jeweiligen traditionellen Merkwortes gibt an, auf welchen Modus der ersten Figur der jeweilige Modus zurückgeführt werden kann: Modi, deren Name mit „B“ beginnt, lassen sich auf den Modus Barbara zurückführen; Modi, deren Name mit „C“ beginnt, lassen sich auf den Modus Celarent zurückführen; und ebenso lassen sich Modi, deren Name mit „D“ bzw. mit „F“ beginnt, auf den Modus Darii bzw. Ferio zurückführen. Die Umformungen der Syllogistik sind Schlussregeln im formalen Sinn, d. h. das Resultat jeder syllogistischen Umformung einer Aussage bzw. eines Syllogismus "folgt" aus der umgeformten Aussage bzw. aus dem umgeformten Syllogismus. Die für die Reduktion erforderlichen Umformungen sind im Folgenden näher beschrieben; zusätzlich wird im Abschnitt Beispiele und Reduktion auf die erste Figur für jeden syllogistischen Modus ein Beispiel genannt und dessen Reduktion auf die erste Figur gezeigt. Einfache Umwandlung. Bei der einfachen Umwandlung (lat. "conversio simplex") werden Subjekt und Prädikat der jeweiligen Aussage vertauscht; so wird aus der Aussage „Einige Philosophen sind Griechen“ nach der einfachen Umwandlung die Aussage „Einige Griechen sind Philosophen“. In den Merkwörtern wird die einfache Umwandlung einer Aussage durch den Buchstaben „s“ hinter dem der betroffenen Aussage zugeordneten Vokal angezeigt; zum Beispiel muss beim Reduzieren des Modus Cesare die erste Prämisse, eine E-Aussage, einer einfachen Umwandlung unterzogen werden. Einfache Umwandlung ist nur bei Aussagen der Typen E und I möglich: Wenn keine Schweine Schafe sind, dann sind auch keine Schafe Schweine (E-Aussage); und wenn einige Griechen Philosophen sind, dann sind auch einige Philosophen Griechen (I-Aussage). Für die A- und O-Aussage ist keine einfache Umwandlung möglich: Wenn alle Philosophen Menschen sind, heißt das nämlich noch lange nicht, dass alle Menschen Philosophen sind (A-Aussage); und wenn einige Menschen keine Politiker sind, heißt das noch lange nicht, dass einige Politiker keine Menschen sind (O-Aussage). Tatsächlich sind unter den traditionellen Merkwörtern nur solche, bei denen das „s“ auf ein „e“ oder „i“ folgt. Normalerweise wird die einfache Umwandlung auf die jeweilige Prämisse des zu reduzierenden Syllogismus angewendet. Steht das „s“ jedoch am Ende des Merkwortes, dann wird nicht die Konklusion des zu reduzierenden Syllogismus der einfachen Umwandlung unterzogen, sondern die Konklusion jenes Syllogismus der ersten Figur, "auf den" reduziert werden soll. Ein Beispiel für diesen Sonderfall ist der Modus Dimatis: Er wird auf einen Modus Datisi zurückgeführt, in dessen Konklusion Subjekt und Prädikat vertauscht werden, also auf einen Syllogismus der Form „Alle P sind M. Einige M sind S. Also sind einige P S.“ Umwandlung durch Einschränkung. Bei der Umwandlung durch Einschränkung (lat. "conversio per accidens") wird zusätzlich zur Vertauschung von Subjekt und Prädikat der jeweiligen Aussage ihr Typ von A auf I bzw. von E auf O geändert. So wird zum Beispiel aus der A-Aussage „Alle Schweine sind rosa“ nach der Umwandlung durch Einschränkung die I-Aussage „Einige rosa (Dinge) sind Schweine“ und wird aus der E-Aussage „Keine Schweine sind Schafe“ die O-Aussage „Einige Schafe sind keine Schweine“. In den Merkwörtern wird die Umwandlung durch Einschränkung durch den Buchstaben „p“ hinter dem der betroffenen Aussage zugeordneten Vokal angezeigt. Auch bei dieser Umwandlung liegt ein Sonderfall vor, wenn das „p“ im Merkwort nach dem dritten Vokal – also am Wortende – steht: In diesem Fall bezieht es sich wie bei der einfachen Umwandlung nicht auf die Konklusion des zu reduzierenden Syllogismus, sondern auf die Konklusion des resultierenden Syllogismus der ersten Figur. Vertauschung der Prämissen. Vertauschung der Prämissen (lat. "mutatio praemissarum") ist für die Reduktion all jener Modi erforderlich, in deren Merkwörtern der Konsonant „m“ an beliebiger Stelle vorkommt. Unabhängig von der Position des Konsonanten „m“ im jeweiligen Merkwort darf die Vertauschung der Prämissen erst "nach" jeder allenfalls erforderlichen einfachen Umwandlung und nach jeder allenfalls erforderlichen Umwandlung durch Einschränkung ausgeführt werden. Indirekter Beweis. Modi, in deren Merkwörtern der Konsonant „c“ vorkommt, aber nicht am Wortanfang steht, – also nur die Modi Baroco und Bocardo – lassen sich nur durch einen indirekten Beweis (lat. "reductio ad absurdum") auf die erste Figur zurückführen. Zu diesem Behuf wird die Wahrheit der A-Prämisse des zu reduzierenden Syllogismus (im Fall von Baroco also die erste, im Fall von Bocardo die zweite Prämisse) sowie das kontradiktorische Gegenteil, d. h. die Negation der Konklusion angenommen. Auf diese Weise entsteht ein Modus Barbara, dessen Konklusion der O-Prämisse des zu reduzierenden Syllogismus widerspricht. Da die Annahme, die Konklusion treffe nicht zu, solcherart zu einem Widerspruch geführt hat, ist gezeigt, dass die Konklusion zutreffen muss. Im Detail ausgeführt wird der indirekte Beweis in den Abschnitten AOO – Modus Baroco und OAO – Modus Bocardo. Abweichende Darstellungen. Hinsichtlich der genauen Formulierung der Umwandlungsregeln gibt es bei den einzelnen Autoren Unterschiede; insbesondere ist es üblich, auf den hier dargebrachten Sonderfall bei der einfachen Umwandlung und bei der Umwandlung durch Einschränkung zu verzichten und die Konsonanten „s“ und „p“ auch am Wortende auf den "umzuwandelnden" Syllogismus zu beziehen und nicht – wie hier dargestellt – auf den Ziel-Syllogismus. Diese Formulierung würde aber die Reduktion der beiden Modi „Bamalip“ und „Camestrop“ in der dargestellten Form unmöglich machen, weil weder für eine I-Aussage noch für eine O-Aussage eine Umwandlung durch Einschränkung möglich ist. Zur ersten Figur des kategorischen Syllogismus. Ihre gültigen Modi sind Barbara, Celarent, Darii, Ferio, Barbari und Celaront. Zur zweiten Figur des kategorischen Syllogismus und ihrer Reduktion auf die erste Figur. Die gültigen Modi der zweiten Figur sind Baroco, Cesare, Camestres, Festino, Camestrop und Cesaro. Zur dritten Figur des kategorischen Syllogismus und ihrer Reduktion auf die erste Figur. Die gültigen Modi der dritten Figur sind Bocardo, Datisi, Disamis, Ferison, Darapti und Felapton. Zur vierten Figur des kategorischen Syllogismus und ihrer Reduktion auf die erste Figur. Die gültigen Modi der vierten Figur sind Calemes, Dimatis, Fresison, Bamalip, Calemop und Fesapo. Liste von Science-Fiction-Autoren. Dies ist eine Liste von Autoren, die mindestens einen Science-Fiction-Roman geschrieben haben. Weblinks. !ScienceFiction Stanisław Lem. Stanisław Lem (; * 12. September 1921 in Lemberg, damals Polen; † 27. März 2006 in Krakau) war ein polnischer Philosoph, Essayist und Science-Fiction-Autor. Seine Kurzgeschichten, Romane und Essays zeichnen sich insbesondere durch überbordenden Ideenreichtum und fantasievolle sprachliche Neuschöpfungen aus. Lems Werke wurden in 57 Sprachen übersetzt und insgesamt mehr als 45 Millionen Mal verkauft. Er gilt als einer der meistgelesenen Science-Fiction-Autoren, wobei er sich selbst wegen der Vielschichtigkeit seines Wirkens nicht so bezeichnen mochte. Aufgrund der zahlreichen Wortspiele und der kreativen Wortschöpfungen gelten seine Werke als schwierig zu übersetzen. Lem galt als brillanter Visionär und Utopist, der zahlreiche komplexe Technologien Jahrzehnte vor ihrer tatsächlichen Entwicklung erdachte. So schrieb er bereits in den 1960er und 1970er Jahren über Themen wie Nanotechnologie, Neuronale Netze und Virtuelle Realität. Ein wiederkehrendes Thema sind philosophische und ethische Aspekte und Probleme technischer Entwicklungen, wie etwa der künstlichen Intelligenz, menschenähnlicher Roboter oder der Gentechnik. In zahlreichen seiner Werke setzte er Satire und humoristische Mittel ein, wobei er oft hintergründig das auf Technikgläubigkeit und Wissenschaft beruhende menschliche Überlegenheitsdenken als Hybris entlarvte. Einige seiner Werke tragen auch düstere und pessimistische Züge in Bezug auf die langfristige Überlebensfähigkeit der Menschheit. Häufig thematisierte er Kommunikationsversuche von Menschen mit außerirdischen Intelligenzen, die er etwa in einem seiner bekanntesten Romane, "Solaris", als großes Scheitern beschrieb. In den 2000er Jahren wurde der vielseitig gebildete Lem zum Kritiker des – von ihm teilweise vorhergesagten – Internets und der Informationsgesellschaft, weil diese die Nutzer zu „Informationsnomaden“ machten, die nur „zusammenhangslos von Stimulus zu Stimulus hüpfen“ würden. Die allgemeine Steigerung der technischen Leistung gehe „paradoxerweise mit einem Verfall der Fantasie und Intelligenz der Menschen einher.“ Kindheit und Ausbildung. Das Haus in der Bohdana-Lepkogo-Straße in Lemberg, in dem Lem laut seiner Autobiographie seine Kindheit verbrachte. Stanisław Lem kam als Sohn einer polnisch-jüdischen Arztfamilie auf die Welt, sein Vater war Hals-Nasen-Ohren-Arzt. Lem war Cousin des Satirikers Marian Hemar. Lem hatte eine behütete Kindheit. Er studierte von 1940 bis zur Besetzung Lembergs durch deutsche Truppen 1941 Medizin an der Universität Lemberg. Durch den Zweiten Weltkrieg wurden seine Studien unterbrochen. Lem konnte mit gefälschten Papieren seine jüdische Herkunft verschleiern. Er arbeitete während des Krieges als Hilfsmechaniker und Schweißer für eine deutsche Firma, die Altmaterial aufarbeitete. Er war ein Mitglied des Widerstandes gegen die deutsche Besatzungsmacht. Als gegen Ende des Krieges Polen zum zweiten Mal von der Roten Armee erobert und durch die Sowjetunion kontrolliert wurde, setzte er sein Studium in Lemberg fort, musste aber, nachdem seine Heimatstadt an die Sowjetunion fiel, 1946 nach Krakau ziehen. An der Jagiellonen-Universität in Krakau nahm er sein Medizinstudium zum dritten Mal wieder auf. Hier arbeitete er zwischen 1948 und 1950 am "Konserwatorium Naukoznawcze" als Forschungsassistent bei Dr. Mieczysław Choynowski an Problemen der angewandten Psychologie. In diese Zeit fielen auch seine ersten literarischen Versuche, und er begann in seiner Freizeit Geschichten zu schreiben. 1948 entstand sein erster Roman "Szpital Przemienienia" (dt. "Die Irrungen des Dr. Stefan T."). Lem erhielt das Zertifikat dafür, das Studium vollständig abgeschlossen zu haben. Allerdings weigerte er sich in seinem letzten Examen, Antworten im Sinne des Lyssenkoismus zu geben, weil er diesen ablehnte. Durch seine Verweigerung konnte er einem Dasein als Militärarzt entgehen, denn die Prüfer ließen ihn dafür durchfallen. Da er deswegen nicht als Arzt praktizieren konnte, arbeitete Lem in der Forschung und verlegte sich immer mehr auf das Schreiben. Literarisches Werk. a>n von Lems Werken in polnischer Sprache. 1951 wurde sein erster Roman "Astronauci" (dt. "Der Planet des Todes", auch als "Die Astronauten" bekannt) veröffentlicht. Sein erstgeschriebener Roman "Der Mensch vom Mars" von 1946 erschien in Buchform erst 1989. 1953 heiratete er Dr. Barbara Leśniak, eine Radiologin. 1982, nachdem in Polen das Kriegsrecht verhängt worden war, verließ Stanisław Lem sein Heimatland vorübergehend und arbeitete in West-Berlin am Wissenschaftskolleg. Ein Jahr später ging er nach Wien, wo sein Sohn die American International School besuchte und er seinen späteren langjährigen Literaturagenten Franz Rottensteiner kennenlernte. In Wien schrieb Lem u. a. "Der Flop" und "Fiasko". Er kehrte erst 1988 nach Polen zurück. Stanisław Lem war Mitglied des polnischen Schriftstellerverbandes, des P.E.N.-Clubs und, seit 1972, des Komitees "Polen 2000", das unter der Federführung der polnischen Akademie der Wissenschaften steht. Seit 1994 war er Mitglied der PAU (Polska Akademia Umiejętności, deutsch: „Polnische Akademie der Fertigkeiten“). Durch seine utopischen Werke erwarb sich Lem den Ruf, einer der größten Schriftsteller in der Geschichte der SF-Literatur zu sein. Seine Kurzgeschichten, Romane und Essays zeichnen sich insbesondere durch überbordenden Ideenreichtum und fantasievolle sprachliche Neuschöpfungen aus, wobei auch die Kritik an der Machbarkeit und dem Verstehen der technischen Entwicklung im Kontext philosophischer Diskurse immer wieder ein zentraler Bestandteil seiner Werke ist. Lems Grabstätte auf dem Salwator-Friedhof in Krakau. Lems (selbst)ironische Einstellung zum Science-Fiction-Genre wird im Einleitungssatz der Kurzgeschichte „Pirx erzählt“ deutlich, in der der Ich-Erzähler sagt: „Utopische Bücher? Doch, die mag ich, aber nur schlechte.“ Stanisław Lems Bücher wurden bisher in 57 Sprachen übersetzt und erreichten eine Auflage von mehr als 45 Millionen. Lem starb nach längerer Krankheit am 27. März 2006 in einer Klinik in Krakau im Alter von 84 Jahren an Herzversagen. Sein Grab befindet sich auf dem Salwator-Friedhof in Krakau. Werke. Die Jahreszahlen geben das Ersterscheinungsdatum an. Einige von Stanisław Lems Werken erschienen aufgrund des Regimes in Polen zuerst nur in Übersetzung. Es gibt für eine Reihe von Werken zwei deutsche Übersetzungen (und oft auch Titelübersetzungen), einmal in der DDR (Volk und Welt), einmal in der Bundesrepublik Deutschland (Suhrkamp bzw. Insel Verlag). Deutsche Zusammenstellungen. "Anmerkung: Auf Deutsch erschienen einige Bände mit Erzählungen in unterschiedlicher Zusammenstellung und mit unterschiedlichen Titeln." Sylt. Sylt (, friesisch "Söl") ist die größte nordfriesische Insel. Sie erstreckt sich in Nord-Süd-Richtung vor der Nordseeküste Schleswig-Holsteins und Dänemarks. Bekannt ist die nördlichste deutsche Insel vor allem für ihre touristisch bedeutenden Kurorte Westerland, Kampen und Wenningstedt sowie für den knapp 40 Kilometer langen Weststrand. Wegen ihrer exponierten Lage in der Nordsee kommt es zu kontinuierlichen Landverlusten bei Sturmfluten. Seit 1927 ist Sylt über den Hindenburgdamm mit dem Festland verbunden. Lage. Sylt ist mit 99,14 km² nach Rügen, Usedom und Fehmarn die viertgrößte Insel Deutschlands und die größte deutsche Nordseeinsel. Sylt liegt zwischen 9 und 16 Kilometer vor der Küste des Festlands, mit dem sie über den 11 Kilometer langen Hindenburgdamm verbunden ist. Südöstlich von Sylt befinden sich die Inseln Amrum und Föhr, nördlich liegt die dänische Insel Rømø. In der Nähe der Sylter Nordspitze liegt die Insel Uthörn. Die Insel erstreckt sich über 38,0 Kilometer in Nord-Süd-Richtung und ist im Norden, am Königshafen bei List auf Sylt nur etwa 320 Meter breit. An ihrer breitesten Stelle, von Westerland im Westen bis zur Nössespitze bei Morsum im Osten, misst sie 12,6 Kilometer. An der West- und Nordwestseite Sylts erstreckt sich ein knapp 40 Kilometer langer Sandstrand, zur Ostseite liegt das Wattenmeer, das zum Nationalpark Schleswig-Holsteinisches Wattenmeer gehört und bei Niedrigwasser weitgehend trocken fällt. Die Form der Insel hat sich im Laufe der Zeit ständig verändert; ein Prozess, der auch heute noch im Gange ist. Der nördliche und der südliche Nehrungshaken der Insel bestehen ausschließlich aus wenig fruchtbaren Sandablagerungen, während der Mittelteil der Insel im Bereich der ehemaligen Gemeinden Westerland, Wenningstedt und Sylt-Ost auf einem Geestkern ruht, der von See aus in Form des Roten Kliffs sichtbar ist. Der dem Wattenmeer zugewandte Teil des Geestkerns geht im Bereich der ehemaligen Gemeinde Sylt-Ost in relativ fruchtbares Marschland über. Nach heute als gesichert angesehenen Quellen ist Sylt seit der Zweiten Marcellusflut von 1362 eine Insel. Die höchste Erhebung der Insel ist die sogenannte Uwe Düne in Kampen mit. Klimatische Verhältnisse. Klimadiagramm von List auf Sylt Auf Sylt herrscht ein vom Golfstrom beeinflusstes Seeklima. Die Wintermonate sind mit durchschnittlich etwa 2 °C etwas milder als auf dem benachbarten Festland, die Sommermonate dagegen mit durchschnittlich 17 °C, trotz längerer Sonnenscheindauer, etwas kühler. Im Jahresdurchschnitt hat Sylt täglich 4,6 Stunden Sonnenschein. Die Jahresmitteltemperatur liegt bei 8,7 °C. Der Wind weht im Jahresdurchschnitt mit 6,7 m/s vorwiegend aus westlichen Richtungen. Die Jahresniederschlagsmenge liegt bei rund 734 mm bzw. 747 mm. Aktuelle Klima- und Wetterdaten liefern seit 1937 die mittlerweile automatisierte nördlichste Wetterstation des Deutschen Wetterdienstes auf einer Düne bei List und einige Stationen kommerzieller Wetterbeobachter wie Meteomedia, ebenfalls in List. Formung und Bedrohung durch das Meer. Die Insel Sylt in ihrer jetzigen Gestalt existiert erst seit etwa vierhundert Jahren. Sie entstand wie die Festlandgeest aus Altmoränen und hat deshalb einen Geschiebemergelkern, der heute in der Mitte und im Westen der Insel mit Kliff, Dünen und Sandstrand sichtbar ist. Dieser Geestkern erodierte, nachdem ihn der Anstieg des Meeresspiegels vor 8000 Jahren der starken Strömung entlang des steilen Inselsockels aussetzte. Dabei lagerten sich die Sedimente südlich und nördlich an. Die Westkante, die ursprünglich zehn Kilometer vor der heutigen Küste lag, verlagerte sich so stetig nach Osten, während gleichzeitig die Insel im Norden wie im Süden länger wurde. Um diesen Geestkern lagerte sich nach den Eiszeiten Marschland an. Zwar wird Sylt bereits 1141 als Insel bezeichnet, doch gehörte sie vor der ersten Großen Mandränke 1362 zu einer von Prielen durchzogenen Landschaft und war zumindest bei Niedrigwasser trockenen Fußes vom Festland erreichbar. Vermutlich erst nach dieser Flut entwickelte sich durch die Bildung von Nehrungshaken aus dem von den Meeresströmungen verdrifteten abgetragenen Material die gegenwärtige charakteristische Gestalt. Dabei waren und sind besonders die nördlichen und südlichen Enden der Insel großen Veränderungen unterworfen. So war Listland im 14. Jahrhundert für einige Zeit vom Rest der Insel getrennt und durch die Entstehung des Ellenbogens versandete der "Königshafen" bei List ab der zweiten Hälfte des 17. Jahrhunderts. Zusätzlich zum schleichenden Landschwund belastete die Einwohner während der sogenannten Kleinen Eiszeit der Sandflug. Die nach Osten wandernden Dünen bedrohten Land und Siedlungen, weshalb sie ab dem 18. Jahrhundert durch die Bepflanzung mit Strandhafer befestigt wurden. Das hatte jedoch zur Folge, dass abbrechendes Material vermehrt abdriftete und die Inselsubstanz weiter abnahm. Ab 1870 existieren Aufzeichnungen des jährlichen Küstenrückgangs. Demnach verlor Sylt in den Jahren 1870 bis 1951 jährlich durchschnittlich 0,4 Meter im nördlichen und 0,7 Meter im südlichen Küstenabschnitt. 1951 bis 1984 steigerte sich die Rate auf 0,9 bzw. 1,4 Meter, während die Küstenlinie an den Inselenden bei Hörnum und List noch größeren Veränderungen unterworfen ist. Durch schwere Sturmfluten in den letzten Jahrzehnten ist Sylt immer wieder in Gefahr, auseinanderzubrechen, so trennte die Sturmflut 1962 Hörnum vorübergehend vom Rest der Insel. Besonders gefährdet ist dabei eine nur rund 500 Meter breite Schmalstelle südlich von Rantum. Küstenschutz. Als Schutzmaßnahmen gegen die stetige Erosion begann man schon im 19. Jahrhundert mit der Errichtung von Holzpfahlbuhnen. Diese wurden rechtwinklig zur Küste in die See hinein gebaut. Später wurden sie von Metall- und schließlich von Stahlbetonbuhnen abgelöst. Diese Bauwerke erzielten jedoch nicht den gewünschten Erfolg, die durch Querströmungen verursachte Erosion zu stoppen. Die „Lee-Erosion“, also die auf der wind- und strömungsabgewandten Seite der Buhnen, verhinderte nachhaltige Sandablagerungen. In den 1960er Jahren versuchte man durch die sogenannten Tetrapoden, die am Fuße der Dünen entlang, oder – ähnlich wie die Buhnen – ins Meer hinaus verlegt wurden, die Meeresgewalten zu stoppen. Die tonnenschweren, in Frankreich entwickelten vierfüßigen Betonelemente waren für den Sylter Strand zu schwer und konnten die Erosion ebenfalls nicht aufhalten. Vor dem Hörnumer Weststrand sind sie deshalb ab Mitte 2005 wieder entfernt worden. Seit Anfang der 1970er Jahre wird, als zurzeit einzig wirksames Mittel gegen die Erosion, Sand vor die Küsten der Insel gespült. Baggerschiffe, sogenannte „Hopperbagger“, nehmen aus einem ihnen speziell zugewiesenen Gebiet, das weit vor der Küste liegt, Sand in ihren Laderaum auf. Sie fahren dann in die Nähe der Küste und spülen durch Rohrleitungen ein Wasser-Sand-Gemisch an den Strand. Durch Planierraupen wird der Sand verteilt. Dabei soll lediglich das bei Sturmfluten abgetragene, vorgespülte Sanddepot ersetzt werden – die eigentliche natürliche Küstenlinie wird somit geschützt und die Erosion verlangsamt. Diese Vorgehensweise ist mit erheblichen Kosten verbunden. Der Bedarf von jährlich bis zu 10 Millionen Euro wird derzeit von Bundes-, Landes- und EU-Mitteln gedeckt. Seit 1972 wurden ca. 35,5 Millionen Kubikmeter Sand vorgespült und aufgeschüttet. Diese Maßnahmen haben zusammen bisher über 143 Millionen EUR gekostet, sollen aber nach Berechnungen von Forschern ausreichen, um für mindestens drei Jahrzehnte größere Landverluste zu verhindern, so dass der Nutzen in Hinsicht auf die Wirtschaftskraft der Insel und der Bedeutung für die strukturschwache Region größer wäre als die Kosten. In der Studie "Klimafolgen für Mensch und Küste am Beispiel der Nordseeinsel Sylt" von 1995 heißt es: „Hätte Sylt nicht das Image einer attraktiven Ferieninsel, gäbe es den Küstenschutz in der bestehenden Form gewiss nicht.“ Prinzip der Sandaufnahme und Übergabe des Hopperbaggers Sandaufspülung, Verteilung durch eine Planierraupe, auf See der Hopperbagger Als Alternative wird die Verstärkung eines natürlichen Riffs vor der Küste diskutiert. Ein entsprechender Versuch wurde in den Jahren 1996 und 2003 unternommen. Die auf dänischen Inseln erfolgreiche „Sanddrainage“ ist wegen der Versteilung des untermeerischen Hangs vor Sylt nicht erfolgversprechend. Sandvorspülung mit Tetrapoden am Weststrand Parallel zu den Sandvorspülungen hat man an einigen Strandabschnitten damit begonnen, die oben erwähnten Buhnen, die sich für den Küstenschutz als weitgehend nutzlos erwiesen hatten, mit großem Aufwand abzutragen. Dieser Maßnahme ist auch die wohl berühmteste Buhne der Insel, die "BUHNE 16", Namensgeberin des gleichnamigen FKK-Strandes, zum Opfer gefallen. Einige Experten fürchten trotz all dieser Maßnahmen, dass Sylt bis Mitte des 21. Jahrhunderts erhebliche Landverluste hinnehmen müsse. Die voranschreitende globale Erwärmung werde zu vermehrter Sturmaktivität führen, was erhöhte Landverluste und als erste Konsequenz den Verlust z. B. der Versicherbarkeit von Eigentum zur Folge haben könnte. So haben Messungen ergeben, dass sich die Wellenenergie nicht mehr wie früher am Vorstrand erschöpft, sondern ihre zerstörerische Wirkung auch auf den Strand ausweitet. Das führt zu einem Sedimentverlust von rund 1,1 Millionen m³ jährlich. Die Dünengebiete der Insel stehen unter Naturschutz und dürfen nur auf gekennzeichneten Wegen betreten werden. Sogenannte „wilde“ Wege leisten der Erosion Vorschub und dürfen nicht begangen werden. Dort, wo die Vegetation zertreten wird und keine Wurzeln den Sand festhalten, wird er von Wind und Wasser abgetragen. Das Wattenmeer, östlich zwischen Sylt und dem Festland gelegen, ist seit 1935 Natur- und Vogelschutzgebiet und ein Teil des Nationalparks Schleswig-Holsteinisches Wattenmeer. Das Errichten von Lahnungen im Uferbereich des Watts soll die Sedimentation fördern und der Landgewinnung dienen. Auch die Beweidung der Deiche und der Heideflächen durch Schafe dient letztlich dem Küstenschutz, da die Tiere den Bewuchs kurz halten und mit ihren Klauen die Grasnarbe verdichten: So fördern sie die Entwicklung einer kompakteren Deichoberfläche, die bei einer Sturmflut den Wellen weniger Angriffsfläche bietet. Flora und Fauna. Die Flora der Insel Sylt ist geprägt von der ursprünglichen Kargheit des Landes. Bis zur Mitte des 19. Jahrhunderts war Sylt eine fast baumlose Insel; erst durch gezielte Aufforstungen und Anpflanzungen entstanden kleinere Wald- und Buschgebiete. Noch heute erkennt man beispielsweise in den Waldgebieten „Friedrichshain“ und „Südwäldchen“ in Westerland die planmäßige Anlage des Bewuchses; die Bäume stehen weitgehend in Reih und Glied. Auch die heute weit verbreitete Kartoffel-Rose ("Rosa rugosa"), auf der Insel mittlerweile auch als "Syltrose" bezeichnet, ist erst durch Menschenhand als Zierpflanze auf die Insel gelangt. Sie stammte ursprünglich aus Kamtschatka. Die genügsame Rose fand auf der Insel ideale Lebensbedingungen und verbreitete sich rasch, so dass sie heute zum typischen Bild der Insel zählt. Ihre Verbreitung wird aus biologischer Sicht mit Sorge betrachtet, da sie seltene und schützenswerte einheimische Pflanzen, insbesondere auf den Heideflächen, mehr und mehr zu verdrängen droht. Die großen Heideflächen auf der Wattseite der Insel sind Lebensraum vieler seltener Tiere. Die Heideökosysteme bieten einer großen Zahl von Lebewesen Platz, die den extremen Bedingungen (Trockenheit, Wärme, Wind) angepasst sind: Etwa 2500 Tierarten und 150 Pflanzenarten konnten bisher nachgewiesen werden. Von den Pflanzenarten stehen 45 % auf der Roten Liste. Beachtlich ist die Zahl von über 600 verschiedenen Schmetterlingsarten, die in den Heideflächen leben, darunter Kleiner Fuchs, Zitronen- und Distelfalter sowie Tagpfauenaugen. Heidelandschaft am Ellenbogen im Norden Die in Deutschland in ihrem Bestand gefährdete Kreuzkröte hat im Dünengürtel Sylts mit einigen Tausend Individuen eines ihrer größten deutschen Vorkommen. Ihre Laichplätze sind vernässte Dünentäler und flache, kurzlebige Tümpel; als Landlebensräume dienen ihr vegetationsarme Sandlandschaften. Bedroht ist die Art auf Sylt insbesondere durch den Straßenverkehr. Ornithologische Besonderheiten sind die vielen seltenen Wasser- und Küstenvögel, die auf der Insel ihre Brutreviere haben oder die als Zugvögel nur zeitweise auf Sylt leben oder rasten. Sylt hat zwei bedeutende Vogelbrutgebiete: im Norden den Königshafen mit der in ihm liegenden Insel Uthörn und im Süd-Osten das Rantumbecken. Auf Sylt brüten unter anderem Lachmöwen, Küstenseeschwalben, Säbelschnäbler, Rotschenkel, Sturmmöwen, Austernfischer, Kiebitze, Brandgänse und Reiherenten. Während des Vogelzugs ist Sylt Rastplatz für tausende von Ringel- und Brandgänsen, Pfeif- und Eiderenten, sowie für Pfuhlschnepfen, Knutts, Alpenstrandläufer und Goldregenpfeifer. Weniger zahlreich besuchen Sandregenpfeifer, Bekassinen, Kampfläufer sowie weitere Arten die Insel. Bei den Landsäugetieren gibt es heute keine erheblichen Abweichungen gegenüber den benachbarten Festlandgebieten Norddeutschlands. Nachdem die Insel mit dem Eisenbahndamm eine Festlandsverbindung erhalten hatte, sind hier primär Feldhasen, Kaninchen und Rehwild zu nennen, die auf der Insel auch bejagt werden. Durch den Zuzug von Raubtieren wie Rotfuchs und Dachs wurden die bis zu der Zeit weit verbreiteten Bodenbrüter fast vollständig verdrängt. Westlich von Sylt liegt eine Kinderstube der Schweinswale. Daneben leben in dem Seegebiet vor Sylt und den vorgelagerten Sandbänken größere Populationen von Seehunden sowie von den in deutschen Gewässern relativ selten vorkommenden Kegelrobben. Die früher zahlreich vor Sylt lebende Europäische Auster (Ostrea edulis) ist seit ca. 1950 wegen Überfischung ausgestorben. Mitte der 1980er Jahre wurde als Ersatz die Pazifische Auster (Cassostrea gigas) zwischen List und Kampen kultiviert, die sich schnell stark über die ursprüngliche Kulturfläche hinaus ausbreitete. Um die Erforschung und den Schutz der bedrohten Tier und Pflanzenarten bemühen sich zahlreiche Vereine und Verbände, die mit Niederlassungen auf der Insel vertreten sind. Dazu zählen unter anderem das Alfred-Wegener-Institut, der Verein Jordsand und die Schutzstation Wattenmeer. Auch das Umweltbundesamt betreibt eine Mess- und Forschungsstelle in den Dünen nördlich von Westerland. Siedlungsstruktur. Sylt hat 21.190 Einwohner, davon leben 9072 in Westerland (Stand 12/2007). In diesen Zahlen sind die Zweitwohnungsbesitzer nicht enthalten. Die Insel Sylt ist in zwei Verwaltungsbereiche unterteilt. Die neugegründete Gemeinde Sylt umfasst die ehemals selbständigen Orte Westerland, Sylt-Ost und Rantum. Das Amt Landschaft Sylt mit Sitz in der Gemeinde Sylt verwaltet die Inselorte, die nicht zur Gemeinde Sylt gehören. Die Gemeinde "Sylt-Ost" war 1970 aus Keitum und drei weiteren Gemeinden gebildet worden. Per Bürgerentscheid im Mai 2008 wurde der Zusammenschluss der Gemeinde Sylt-Ost mit der Stadt Westerland zum 1. Januar 2009 beschlossen. Angestrebt wird jedoch von unterschiedlichen Interessengruppen eine Fusion aller Inselgemeinden zu einer Verwaltungseinheit. Die Orte entlang der Westküste. Hafen und Fähranleger in List Entlang der Sylter Westküste liegen sechs Orte. Die Gemeinde List auf Sylt ganz im Norden der Insel und zugleich die nördlichste Gemeinde Deutschlands, bewahrte durch ihre entfernte Lage zum damaligen Hauptort Keitum und ihre lange Zugehörigkeit zu Dänemark eine größere Eigenständigkeit. An ihrer Ostseite liegt der Schutzhafen, von dem neben Ausflugsschiffen auch die Fähre „Sylt-Express“ der Rømø-Sylt-Linie nach Havneby auf der dänischen Nachbarinsel Rømø verkehrt. Wenningstedt bildete mit Kampen und Braderup gemeinsam die Verwaltungsgemeinschaft der „Norddörfer“ – einen früheren interkommunalen Zweckverband auf der Insel, von dem heute noch der Schulverband existiert. Während Kampen vor allem in den 1950er und 1960er Jahren als der Prominententreff in Deutschland galt, ist Wenningstedt seit über 100 Jahren als „Familienbad“ bekannt. Zwischen Kampen und Wenningstedt, auf der hohen Geest, steht seit 1855 der markante 38 Meter hohe schwarz-weiße Leuchtturm Kampen. Er ist der älteste der Insel; östlich davon liegt das Naturschutzgebiet „Braderuper Heide“. Unmittelbar südlich von Wenningstedt beginnt das Siedlungsgebiet der Inselmetropole Westerland. Nachdem die Allerheiligenflut am 1. November 1436 den Ort Eidum vollständig zerstört hatte, gründeten die Überlebenden nordöstlich einen neuen Ort "Westerland". Dieser wurde 1462 erstmals urkundlich erwähnt. 1855 wurde das Seebad gegründet, 50 Jahre später erhielt Westerland die Stadtrechte. 1949 wurde es schließlich als Heilbad anerkannt. Die Stadt hatte Ende des Jahres 2007 9.072 Einwohner und ist heute Verwaltungssitz der Gemeinde Sylt. Südlich von Westerland läuft die Insel noch als schmaler Nehrungshaken etwa 15 km an einer fiktiven Flut-Ebbe-Grenze vor dem Festland entlang, bis sie vom aus dem Wattgebiet östlich der Südhälfte der Insel heraus ablaufenden Gezeitenstrom, dem "Hörnum-Tief", abgeschnitten wird. Dort liegt der Ort Rantum. Dieser Ort musste, wie kaum ein anderer auf Sylt, in den vergangenen Jahrhunderten stets gegen die fortschreitende Versandung ankämpfen. Nicht wenige Höfe und eine Kirche mussten den damals noch unbefestigten, sich allmählich nach Osten bewegenden Wanderdünen weichen. Erst mit der Anpflanzung von Dünengras (Strandhafer) wurde diese Gefahr gebannt. Dieser Nehrungshaken wird vor allem durch den vom Westwind aufgebauten Dünenwall geprägt. Nach Osten finden sich vereinzelt schmale Marschlandstreifen. Hörnum an der Südspitze der Insel gilt als der jüngste Ort; erst kurz nach 1900 wurde er dauerhaft besiedelt. Aber schon in früherer Zeit soll die unbesiedelte Südspitze der Insel Fischern und Seeräubern als vorübergehender Unterschlupf gedient haben. Aus dieser Zeit soll die noch heute verwendete Flurbezeichnung Budersand stammen; sie bezeichnet eine mächtige Düne an der Ostseite des Ortes, auf der in früheren Zeiten „Buden“ – also Hütten – gestanden haben sollen. Von ständigen Sandverlusten ist die Südspitze der Insel, die so genannte „Odde“, gezeichnet; Jahr für Jahr werden große Teile der Dünenlandschaft durch Sturmfluten und Gezeiten abgetragen. Auch Küstenschutzbauwerke erzielten keine nachhaltige Wirkung, so dass auch in Zukunft zu erwarten ist, dass die „Odde“ weiter schrumpfen wird. Die Nössehalbinsel. Der Osten der Insel bildete bis zum Zusammenschluss mit Westerland 2009 kommunalpolitisch die Großgemeinde Sylt-Ost mit rund 5.500 Einwohnern. Sie war ein Zusammenschluss der zuvor selbstständigen Dörfer der so genannten "Nössehalbinsel": Tinnum, Archsum, Morsum mit Keitum (einschl. Munkmarsch) als Verwaltungsmittelpunkt. Die Weiden der Marsch prägen bis heute das Landschaftsbild und boten über viele Jahrhunderte die Grundlage für den Broterwerb in diesen Dörfern. Die Siedlungsgrenzen von Tinnum gehen mittlerweile fast unmerklich in das Siedlungsgebiet von Westerland über und so profitiert Tinnum von der unmittelbaren Nähe zur Inselmetropole. Die "Tinnumburg", südwestlich des Ortes gelegen, ist ein kreisförmiger Wall mit einem Durchmesser von 120 Metern und einer Höhe von 8 Metern. Sie wurde etwa im 1. Jahrhundert v. Chr. errichtet, vermutlich als heidnische Kultstätte oder Wehranlage gegen Angriffe von Mensch und Meer. Auf dem Gemeindegebiet von Tinnum liegt auch der "Flughafen Sylt" (IATA: GWT), ein ehemaliger Luftwaffenstützpunkt, der nun ausschließlich zivil genutzt wird. Der Name „Munkmarsch“ soll der Überlieferung nach die Bedeutung „Mönchsmarsch“ haben. Es hat sich somit bei den Wiesen um fruchtbares Marschland gehandelt, welches ab ca. 1200 zu einem (Mönchs-)Kloster – vermutlich einem der vier Klöster in Ribe – gehörte. Wenige Kilometer nördlich des alten Hauptortes Keitum gelegen, erlangte die alte Bauernschaft Munkmarsch erst Bedeutung, als der alte Keitumer Hafen mehr und mehr versandete und man Mitte des 19. Jahrhunderts beschloss, den Haupthafen der Insel nach Munkmarsch zu verlegen. Bis zum Bau des Hindenburgdammes war der Hafen von Munkmarsch der wichtigste Ankunftshafen für die Gäste, die per Postschiff Raddampfer von Hoyer-Schleuse (heute dänisch) anreisten. Weiter nach Westerland ging es ab 1888 mit einer Schmalspurbahn. Hafen und Bahn verloren 1927 mit der Fertigstellung des Hindenburgdammes an Bedeutung. Die Bahn wurde abgebaut und anstelle des Fährhafens befindet sich dort heute ein privater Yachthafen. Keitum (friesisch: "Kairem") ist einer der ältesten Orte der Insel und war über Jahrhunderte bis zum Ende des 19. Jahrhunderts ihr Hauptort. Erst mit dem einsetzenden Tourismus Mitte des 19. Jahrhunderts verlor er nach und nach seine zentrale Bedeutung. Typisch für Keitum sind die erhaltenen alten Kapitänshäuser sowie die baumbestandenen Straßen im Ortszentrum. Markantes Bauwerk ist die alte, nord-westlich des Ortskerns stehende St.-Severin-Kirche aus dem frühen 13. Jahrhundert. Weitere Sehenswürdigkeiten sind das sogenannte "Altfriesische Haus" und das "Sylter Heimatmuseum". Beide Museen geben Einblicke in das Leben der Sylter vor Einsetzen des Tourismus. Das ganz im Osten der Insel gelegene Morsum (friesisch: "Muasem") liegt an der 1,8 km langen und bis zu 21 m hohen Steilküste "Morsum-Kliff" in einer Heidelandschaft. Am Morsum-Kliff "(Buntes Kliff)" kann die geologische Geschichte der Region der letzten fünf Millionen Jahre studiert werden. Der Nachbarort Archsum ist ein alter friesischer Bauernort. Er weist mit der "Archsum-Burg" eines der ältesten Siedlungszeugnisse der Insel auf. Vorgeschichte. Von der jägerischen Urbevölkerung wurden keine Relikte gefunden. Im Neolithikum zog das höher gelegene Gelände bäuerliche Siedler an, die sich vor dem sukzessiv steigenden Meeresspiegel zurückzogen. In der Bronzezeit war das Gebiet dicht besiedelt und die Bevölkerung verhältnismäßig wohlhabend, wie aus reichen Grabfunden geschlossen werden kann. Die Landabbrüche im Temperaturoptimum nach der Zeitenwende verkleinerten die Siedlungsfläche weiter, und parallel zur Abwanderung der Angeln ist ab etwa 400 n. Chr. kaum noch Besiedlung nachzuweisen. Steinzeit. Insgesamt sind auf Sylt 47 Megalithanlagen in Langbetten und Rundhügeln nachgewiesen, die aber weitgehend ausgegangen sind. Während der Urdolmen fehlt, sind ganglose, erweitere Dolmen nördlich von Kampen, westlich von Archsum (Nössemarsch) und östlich von Keitum (der Harhoog) erhalten. Auch Polygonaldolmen in Rundhügeln und, was in Deutschland selten ist, in Hünenbetten sind nachgewiesen. Erhalten ist eines nördlich des Bahnhofs von Kampen. Zerstört wurden ein Bett mit drei Polygonaldolmen in der Nähe des Leuchtturms und eines, das sich im Strumphoog befand. Teilweise wurden bronzezeitliche Nachbestattungen und eisenzeitliche Urnengräber in den Kammern und Hügeln gefunden. Unter den lokalen Ganggräbern ragen der Denghoog von Wenningstedt und der Merelmerskhoog bei Archsum heraus. Das Grab im Kolkingehoog wurde bei der Sturmflut von 1825 zerstört. Andere am Kliff gelegene Anlagen hatten ein ähnliches Schicksal oder wurden verlegt. Die neolithischen Siedlungen, insbesondere auf der Archsumer Geest nachgewiesen, wurden bei der Vermarschung des Gebietes überlagert. Die Gruppe der kleinen Grabhügel, die der Schnurkeramik zuzuordnen sind, stellen die letzte Form der steinzeitlichen Monumente dar. Das frühneolithische Erdgrab von Tinnum, aus der Gruppe der Thinghügel, lässt erstmals Bezüge zu den späteren Hünengräbern erkennen. Statt der Findlinge umgibt noch ein rechteckiger Steinrahmen eine Körperbestattung im Holzsarg. Bronze- und Eisenzeit. In der Bronzezeit, die im Norden spät einsetzte, entstanden die großen, reich ausgestatteten Grabhügel, die meist fünf Meter, u. U. aber auch sieben Meter hoch, in fünf großen Gruppen die Insel zu beherrschen scheinen. Viele dieser Denkmäler wurden in den vergangenen Jahrhunderten abgetragen oder durch Bebauung oder Landwirtschaft eingeebnet; einer der seltenen noch erhaltenen bronzezeitlicher Langhügel liegt nördlich von Kampen zwischen den runden Krockhoogen. Auch im Watt östlich der Insel finden sich Siedlungsspuren. Aus der Eisenzeit stammt die gut erhaltene Tinnumburg und die fast verschwundenen Burgen bei Archsum und Rantum. Wozu sie zu ihrer Erbauungszeit genutzt wurden, kann nicht rekonstruiert werden, vielleicht waren es Heiligtümer. Bei der Wiederbesiedlung Sylts im 8. Jahrhundert nutzten die neuen Siedler die umwallten Plätze zur Anlegung eines Dorfes, das jedoch schon bald wieder aufgegeben wurde. Die Spuren der Wikingerzeit sind wesentlich unspektakulärer und bestehen aus Fundstellen mit Siedlungsresten und einer großen Zahl von tellartigen Wohnhügeln, den Warften. Name. Der Name "Sild" wurde erstmals um das Jahr 1141 im Schenkungsbuch des Klosters Odense urkundlich erwähnt; im Erdbuch des dänischen Königs Waldemar II. von 1231 findet sich der Name "Syld" und im Register des Domkapitels zu Schleswig werden im 14. und 15. Jahrhundert die Namen "Syld" und "Sylt" verwandt. Dabei wurde in älteren Schreibweisen nicht immer zwischen "i" und "y" unterschieden. Erst zu Beginn des 19. Jahrhunderts setzte sich die einheitliche und noch heute gültige Schreibweise durch. Über die Herkunft des Namens Sylt gibt es verschiedene Theorien. Die erste besagt, dass der Name mit dem englischen Wort "sill" („Schwelle“) oder dem dänischen Wort "syld" (altdänisch: "syll" „Schwelle, Fundamentstein“) verwandt sei; er hätte also die Bedeutung „Landschwelle“. Eine andere Erklärung deutet den Namen als das urgermanische *"Selhiþō" („Robbenort“), aus *"selha" („Robben“; dän. "sæl", engl. "seal") und dem Suffix "-iþō". Vom selben Ursprung sei der norwegische Inselname Sild (im Hardangerfjord), verwandt sei Sjælland. Nach einer dritten Erklärung ist der Name von dem alten dänischen Wort "sylt" („Salzwiese“ oder „Brackwasser“) abgeleitet. Dieser Wortstamm findet sich im skandinavischen Sprachraum in zahlreichen Ortsbezeichnungen wieder, zum Beispiel in: "Sylten" in Nordostjütland, "Syltemade" auf Fünen und "Syltholm" auf Lolland bzw. Hellesylt in Norwegen. Ein vierter Ansatz geht vom Ursprung des Namens im dänischen/skandinavischen Wort "Sild" für Hering aus, da die Sylter Seefahrer ehemals sehr aktiv den Heringsfischfang betrieben. Die damals große Bedeutung des Herings für die Insel zeigt sich auch darin, dass er bereits 1668 als Wappentier auf Sylt nachgewiesen ist. Jedoch kam es durchaus auch umgekehrt vor, dass solche Wappenmotive aus einer volksetymologischen Deutung der Landschaftsnamen entstanden. Bis zum 19. Jahrhundert. Um das Jahr 460 n. Chr. wies das Gebiet westlich der heutigen Insel, damals Teil einer Marschenlandschaft, einen wohl bedeutenden Hafen auf. Unbestätigten Überlieferungen zufolge sollen die anglischen Heerführer Horsa und Hengist im 5. Jahrhundert vom damaligen Weststrand der „Insel“ zu ihrem Feldzug gegen die Romano-Briten und Kelten aufgebrochen sein. In den folgenden Jahrhunderten waren die nordfriesischen Uthlande kaum besiedelt. Münzfunde aus der Merowingerzeit lassen darauf schließen, dass sich zu dieser Zeit Friesen auf der Flucht vor der Expansion des fränkischen Reichs im Gebiet der nordfriesischen Inseln niederließen. Kirche St. Severin in Keitum Die älteste Kirche, die Keitumer Kirche, wurde um 1020 angeblich von Knut dem Großen an der Stelle eines früheren Odinheiligtums errichtet. Sie gehörte seit 1100 zum Kloster von Odense und wurde 1188 den Heiligen Knut und Ketel geweiht. Der Baumeister, der gleichzeitig mit der heutigen, 1216 erbauten, Kirche auch die Kirchen auf Pellworm und Föhr errichtete, soll an einem Tag zu Pferde von einer Baustelle zur anderen gelangt sein. Auch der König von Dänemark griff nach der "Kielholt-Chronik" um diese Zeit Sylt zu Wasser und zu Land an. Im 12. Jahrhundert gab es bereits vier Kirchen auf Sylt und zwar außer in Keitum in Morsum, Eidum und Rantum. 1231 wird „Syld“ im Waldemar-Erdbuch erwähnt. Das Gebiet zahlte etwas geringere Abgaben als etwa die Wiedingharde oder Föhr und damit nicht einmal die Hälfte der Steuer der Edomsharde mit Rungholt. In der Zweiten Marcellusflut verlor Sylt große Marschflächen mit mehreren Kirchspielen im Osten und wurde damit zur Insel. Um 1400 wurde auch das Listland abgerissen und war eine Zeitlang eine eigene Insel. In der Allerheiligenflut 1436 ging Eidum, das westlich von Westerland gelegene Kirchspiel, unter. Rantum versank unter den Dünen. Am 15. August 1386 überließ Königin Margrete I. Sylt dem Grafen von Holstein-Rendsburg Gerhard VI. mit dem Herzogtum Schleswig. List, das bereits seit 1292 im Besitz der Stadt Ripen war, blieb beim Königreich Dänemark. 1422 kamen über hundert Sylter Seeleute in Hamburger Gefangenschaft, als Hansische Kriegsschiffe eine dänische Flotte des Königs Erich von Pommern besiegten. Wenig später fiel der Vogt Claus Lembek, dem Sylt und Osterland-Föhr unterstanden, vom König ab. 1426 schloss Sylt gemeinsam mit den übrigen Uthlanden die Siebenhardenbeliebung, ein Ausdruck ihrer Autonomie gegenüber dem König. 1435 im Frieden von Vordingborg blieben List und das angrenzende Listland, wo sich der Königshafen, der wichtigste Hafen zwischen Elbe und Skagen befand, wie Westerland-Föhr, Amrum und der Süden von Rømø königliche Enklave. Der beim Amt Tondern verbleibende Hauptteil behielt seine relative Unabhängigkeit bei. Auch die Land- und Strandvögte, die die Obrigkeit auf der Insel vertraten, waren durchweg Sylter. Zum Teil wurden die Ämter über Generationen in einer Familie weitergegeben. Zwischen der um 1450 entstandenen "Kielholt-Chronik" und der Chronik des Morsumer Küsters Muchel Madis ab der zweiten Hälfte des 16. Jahrhunderts sind keine schriftlichen Quellen bekannt. Daher kann auch die Einführung der Reformation auf Sylt nicht sicher datiert werden. Der Dreißigjährige Krieg berührte Sylt, als 1628 400 kaiserliche Soldaten die Insel betraten, jedoch bald wieder abzogen. Im folgenden Jahr erreichte die Pest Sylt. 1644 fand am Königshafen eine Seeschlacht zwischen einer dänischen und einer holländisch-schwedischen Flotte statt. Um 1700 versandete der Hafen. Um 1640 wird erstmals von einer Sylter Schule im Kirchspiel Keitum berichtet. Walfang, Seefahrt, Austernzucht und der Entenfang in Vogelkojen sorgten im 17. und 18. Jahrhundert für bescheidenen Wohlstand bei Teilen der Bevölkerung, während diejenigen, die als Kleinbauern und Landarbeiter auf dem kargen Boden arbeiteten, oftmals in großer Armut lebten. Die Verkoppelungsverordnung von 1766, die die Aufteilung der früheren Allmende ermöglichte und auf dem Festland oft zu größeren Erträgen führte, trug bei den oft kleinen und unfruchtbaren Flurstücken auf Sylt nicht unwesentlich zur Verarmung bei. Die Insel hatte bei einer Volkszählung im Jahre 1769 2814 Einwohner. Nach dem Deutsch-Dänischen Krieg kam Sylt 1866 an Preußen und wurde in die Provinz Schleswig-Holstein eingegliedert. Seit dieser Zeit nahm der Fremdenverkehr langsam zu; die Kurgäste kamen per Postschiff von Tondern oder mit dem Schnelldampfer von Hamburg. In der Saison 1911 hatte das Seebad Westerland die bisherigen Modebäder Wyk auf Föhr und Büsum in der Beliebtheit und der Zahl der Übernachtungen überflügelt. 20. Jahrhundert bis heute. Im Ersten Weltkrieg wurde auf Sylt mit der sogenannten „Inselwache“ zwar deutsches Militär einquartiert (5000 Soldaten), die Insel wurde aber nie zum Kriegsschauplatz. Baracken, Geschützstellungen und Kasernen wurden nach Kriegsende entweder ziviler Nutzung zugeführt oder abgerissen. Nach dem Krieg stimmten die Sylter bei einer Volksabstimmung mit einer Mehrheit von 88 Prozent für die weitere Zugehörigkeit zu Deutschland. Der damalige Hauptverbindungshafen Hoyer lag nun jedoch in Dänemark, so dass die Anreise zur Insel für deutsche Gäste eine umständliche Auslandsreise wurde. Auch vor diesem Hintergrund wurde das Projekt eines Eisenbahndammes vom deutschen Festland durchs Wattenmeer vorangetrieben. Im Jahr 1927 wurde der elf Kilometer lange, nach Reichspräsident Paul von Hindenburg benannte Hindenburgdamm eröffnet, über den bis heute die Marschbahn führt. Die Fährverbindung nach Hoyer konnte gleichzeitig eingestellt werden. 1933 bis 1945. In den 1930er Jahren galt die Insel auch unter vielen prominenten Anhängern des Nationalsozialismus wie Hermann Göring als schick. Die nationalsozialistische Ideologie gewann rasch an Boden. Der Bäder-Antisemitismus griff nun auch im zuvor als liberal geltenden Seebad Westerland um sich. Viele Hoteliers und Gastwirte passten sich schnell an: Sie bezeichneten ihr Haus als „judenfrei“ und erklärten jüdische Gäste für unerwünscht. Auch die Nazi-Organisation Kraft durch Freude (KDF) nutzte Sylt als Urlaubsort. So kam es, dass in Westerland bald in zahlreichen Strandburgen und Vorgärten Hakenkreuzflaggen wehten. Im Gegensatz dazu zog das intellektuelle Kampen weiterhin Künstler und Literaten an, die dem Nationalsozialismus kritisch gegenüberstanden. Einer der Treffpunkte war das Haus "Kliffende" in der Kampener Heide. Auch ein Aufmarsch der SA konnte die damalige Pensionswirtin Clara Tiedemann nicht beeindrucken – sie weigerte sich standhaft, die Hakenkreuzflagge zu hissen. Im Jahr 1938 erfolgte zusammen mit dem Bau des Nössedeichs die Eindeichung des Rantumbeckens durch den Reichsarbeitsdienst. Man wollte einen tidenunabhängigen Wasserflugplatz errichten, der jedoch schon bei seiner Fertigstellung nicht mehr als „kriegswichtig“ eingestuft wurde. Das Rantumbecken dient heute als Naturschutzgebiet und darf nicht betreten werden. Eine Bunkeranlage im Süden von Westerland Im Zweiten Weltkrieg wurde Sylt zum Sperrgebiet erklärt und der Fremdenverkehr kam vollständig zum Erliegen. Man erwartete eine mögliche Invasion der Alliierten über die Nordsee. Daher wurden massive Bunkeranlagen und Seezielbatterien mit schweren Geschützen in den Dünen gebaut, die von bis zu 10.000 Soldaten besetzt werden sollten. Durch die Invasion der Normandie blieb jedoch Sylt weitgehend von kriegerischen Handlungen verschont. Gezielte Bombenangriffe erfolgten am 7. September 1939, 8. September 1939, 3. Dezember 1939, 19. März 1940 und 17. Dezember 1940 durch britische Verbände. An Zivilgebäuden entstanden dabei jedoch lediglich geringe Schäden. In den letzten Kriegstagen besetzten die Briten mit Panzern und Radfahrzeugen über den Hindenburgdamm die Insel. Die Kapitulation erfolgte ohne Gegenwehr. Nach 1945. 1945 wurden Heimatvertriebene der ehemaligen deutschen Ostgebiete, vorwiegend aus Ostpreußen, in den alten Wehrmachtswohnungen, Lagern und Kasernen aufgenommen. Dadurch verdoppelte sich die Bevölkerung auf rund 25.000 Einwohner. Ein Großteil der Heimatvertriebenen fand beim Wiederaufbau des Fremdenverkehrs Arbeit auf Sylt und blieb. Eine kleine Gruppe Heimatvertriebener stellten die von ihrer Insel vertriebenen Helgoländer dar. Großbritannien erklärte 1945 die Insel Helgoland zum Sperrgebiet und nutzte sie als Bombenabwurfplatz, so dass die Insel bis 1952 unbewohnbar blieb. Einige der Helgoländer siedelten sich in Hörnum an, von wo aus sie mit ihren Fischkuttern und Booten weiterhin ihre heimatlichen Gewässer anfahren konnten und so den Kontakt zu Helgoland und zur Nordsee behielten. Sie konnten unmittelbar nach der Freigabe „ihrer“ Insel zurückkehren. Diese Chance ließ sich kaum ein Exil-Helgoländer entgehen, so dass heute nur noch wenige ehemalige Helgoländer zur Sylter Bevölkerung zählen. In den 1950er und 1960er Jahren stiegen mit der zunehmenden Reiselust der Bundesdeutschen die Übernachtungszahlen wieder stark an. Die Insel veränderte durch zahlreiche Baumaßnahmen zusehends ihr Gesicht. Ab Mitte der 1960er Jahre entstand das Westerlands Silhouette prägende „Neue Kurzentrum“ mit seinen drei bis zu 14-stöckigen Appartementblöcken unmittelbar am Meer. Zahlreiche weitere mehrgeschossige Appartementhäuser folgten. Durch den erheblich angestiegenen Individualverkehr wurden verkehrsberuhigende Maßnahmen nötig, die Fußgängerzonen und Bereiche mit Nachtfahrverbot in Westerland entstanden. Die Bundeswehr nutzte die Kasernen, den Fliegerhorst und Wohnhäuser der Wehrmacht für ihre Einrichtungen weiter. In List befand sich die Marineversorgungsschule (MVS), in Tinnum ein Fliegerhorst der Marine, und es waren u. a. eine Kompanie des Luftwaffenausbildungsregiments, eine Marinefliegerlehrgruppe sowie eine Reservelazarettgruppe auf der Insel stationiert. 2007 wurde die letzte militärische Einrichtung geschlossen. Im Zusammenhang mit dem Verkauf der bundeseigenen Immobilien kam es zu erheblichem Dissens mit den betroffenen Gemeinden und zu Verwerfungen am Markt. Pläne, auf dem Gelände der ehemaligen MVS einen Bildungseinrichtung mit angeschlossenem Internat zu gründen, wurden bislang nicht verwirklicht. Aktuell gibt es in unterschiedlichen politischen Gremien Bestrebungen, die Insel auch verwaltungspolitisch zu einer Gebietskörperschaft zusammenzufassen. So fusionierten am 1. Januar 2009 die beiden größten Gemeinden Sylt-Ost und Westerland zusammen mit Rantum zur „Gemeinde Sylt“. Ob und wann sich die restlichen Inselgemeinden dieser Fusion anschließen, ist in den jeweiligen politischen Gremien umstritten. Wirtschaft. Die Fußgängerzone in Westerland; Blick vom Kurzentrum gen Osten Parallel zu den seit den 1950er Jahren stark ansteigenden Touristenzahlen gingen andere Wirtschaftszweige erheblich zurück. Die Wirtschaft der Insel ist nahezu vollständig unmittelbar oder mittelbar vom Tourismus abhängig. Somit sind sowohl Einzelhandel, Gastronomie, Dienstleistungen als auch das Handwerk auf die Bedürfnisse der Gäste und Vermieter zugeschnitten. Landwirtschaft und Seefahrt spielen seit Mitte der 1970er Jahre eine zunehmend geringere Rolle in der Sozialstruktur der Insel; allein in Sylt-Ost finden sich nach wie vor arbeitende Betriebe der Land-, Vieh- und Holzwirtschaft. Auch das einzige verbliebene Industrieunternehmen, die "Beyschlag Werke," verließen im Jahr 1974 aufgrund steigender Grundstückspreise und der für sie ungünstigen Verkehrsanbindung die Insel. Da Sylt im Gegensatz zum strukturschwachen Festland Nordfrieslands ein Überangebot an Arbeitsplätzen aufweist, pendelt ein Großteil der Arbeitnehmer, rund 3000 Personen, täglich vom Festland per Zug und Fähre auf die Insel; somit wirkt sich die Wirtschaftskraft der Insel auch auf das angrenzende Festland aus. Die große Wirtschaftskraft zieht nicht nur Arbeitnehmer an, sie ist gleichzeitig Grund für einen stetigen Wegzug von Sylter Familien auf das benachbarte Festland, da die extrem hohen Grundstücks- und Immobilienpreise sowie die höheren Lebenshaltungskosten für viele Sylter nicht mehr tragbar sind. Dieser Prozess wird als Gentrifizierung bezeichnet. Geschichte des Tourismus. Das repräsentative ehemalige Kurhaus von Westerland, heute Rathaus Der Tourismus ist seit über 100 Jahren auf Sylt von erheblicher Bedeutung, seit Westerland nach Vorbild englischer Badeorte 1855 zum Seebad wurde. Kuren auf Sylt entwickelte sich schnell zur Mode der Ober- und Mittelschicht und führte zur wirtschaftlichen Neuorientierung der Sylter. In den ersten Jahrzehnten blieben die Gäste meist mehrere Wochen wegen der Heilwirkung des Reizklimas und erwarteten während dieser Zeit ein entsprechendes Unterhaltungsprogramm, das seinerseits ein entsprechendes Publikum anzog. Abseits der Hauptorte wurden nach Ende des Ersten Weltkrieges in ehemaligen Kasernenanlagen Landschulheime für Kinder aus den Großstädten eingerichtet. Während des Zweiten Weltkrieges wurde die Insel zum Sperrgebiet erklärt und der Tourismus kam völlig zum Erliegen. Die unmittelbaren Nachkriegsjahre waren auch auf Sylt geprägt von Hunger und Arbeitslosigkeit. Leerstehende Hotels waren oft mit Kriegsflüchtlingen belegt, und der Kurbetrieb ruhte vollständig. Erst nach der Währungsreform konnten in der Sommersaison 1949 die ersten Nachkriegs-Kurgäste verzeichnet werden. Seitdem stiegen die Übernachtungszahlen stetig an. Um 1960 erlebte der Tourismus einen Boom. Außer den bisherigen wohlhabenden Kurgästen zog Sylt nun auch größere Massen an. Das Ortsbild der Stadt Westerland erfuhr eine tiefgreifende Umgestaltung. Prägten bisher, neben traditionellen Friesenhäusern und wilhelminischen Bädervillen, nur einige größere Hotels das Stadtbild, entstanden nun mit dem „neuen Kurzentrum“ Appartementanlagen mit bis zu 14 Stockwerken. Nach und nach verdrängten diese modernen Anlagen die Villen und Logierhäuser. Diese Appartementanlagen der 1960er und 1970er Jahre prägen heute den Innenstadtbereich von Westerland, während die übrigen Inselorte weitgehend von dieser intensiven Bebauung verschont blieben. Tourismus heute. Heute hat die Insel 20.852 Einwohner (2010), über 58.000 Gästebetten und 850.000 Gäste mit 6,71 Millionen Übernachtungen im Jahr. Die Zahl der klassischen Kurgäste, die tatsächlich Kuranwendungen in Anspruch nehmen, ist dabei seit den 1980er Jahren auf weniger als ein Zehntel zurückgegangen. Beachtlich ist auf Sylt die hohe Dichte an Restaurants mit gehobenem gastronomischem Angebot und mit durch Fachpresse sowie Restaurantführer ausgezeichneter Küche. Alleine sechs Restaurants weisen Michelin-Sterne auf, und zehn Restaurants sind im Gault Millau verzeichnet. Bezogen auf die Einwohnerzahl ist das die höchste Dichte an ausgezeichneten Restaurants in Deutschland. List spielt eine bedeutende Rolle in der deutschen Austernzucht. Die hier großgezogene Sylter Royal ist eine Pazifische Felsenauster, da die Europäische Auster im Wattenmeer bereits seit vielen Jahrzehnten ausgestorben ist. Freizeiteinrichtungen. Das Freizeitangebot wird zu einem großen Teil durch die Natur bestimmt. Der 40 km lange Sandstrand im Westen der Insel mit über 12.000 Strandkörben ist in weiten Bereichen nur gegen Kurabgabe zugänglich. An der geschützteren Ostseite der Insel, am Wattenmeer, liegen ebenfalls mehrere Badestellen, etwa in List, Braderup, Munkmarsch, Morsum, Rantum und Hörnum. Geführte Wattwanderungen werden von den Gemeinden, privaten Wattführern oder Naturschutzverbänden wie der „Naturschutzgemeinschaft Sylt e. V.“ und der Schutzstation Wattenmeer während der Saison angeboten. In Westerland befindet sich direkt an der Strandpromenade ein Meerwasser-Wellenbad, die „Sylter Welle“. Im Jahr 2004 eröffnete das Sylt Aquarium und 2009 das „Erlebniszentrum Naturgewalten“ in List. Zusammen mit dem "Tierpark Tinnum" kann man sich hier über die heimische Flora und Fauna informieren. Die Insel verfügt über vier Golfplätze, von denen der bislang jüngste in Hörnum seit dem Jahr 2008 bespielbar ist. Darüber hinaus bieten zahlreiche Funsportanbieter saisonale Aktivitäten an, zum Beispiel Fallschirmspringen, Segwaytouren oder geführte Wanderungen. Freikörperkultur und Nacktbaden. Waren zu Beginn des 20. Jahrhunderts die Badestrände noch nach Geschlechtern strikt in „Damenbad“ und „Herrenbad“ getrennt und badete man züchtig in langen Badekleidern, so entwickelte sich – ausgehend vom freideutschen Jugendlager Klappholttal und dem von Intellektuellen und Künstlern bevorzugten Dorf Kampen – ab Anfang des 20. Jahrhunderts eine Bewegung, die ein Strandleben ohne Bekleidung pflegte – die Freikörperkultur (FKK). 1920 wurde auf Sylt der erste Nacktbadestrand eröffnet. Während die FKK-Bewegung bis in die 1950er Jahre lediglich einen kleinen Anhängerkreis hatte, verbreiteten sich Nacktbaden und -sonnen spätestens mit der sexuellen Revolution über die gesamte Insel: Schnell verband jeder mit dem Namen „Sylt“ die FKK und das Nacktbaden. Seit den 1960er Jahren gibt es am gesamten Weststrand ausgewiesene Nacktbadestrände mit Namen wie „Abessinien“, „Samoa“ oder „Sansibar“. Zum wohl berühmtesten Sylter Nacktbadestrand wurde durch regelmäßige Berichterstattung in den Boulevard-Medien der von „Buhne 16“ in Kampen. Heute verwischen die Abgrenzungen zwischen Nacktbade- und Textilstrand mehr und mehr. Während die Nacktbadestrände ein wenig an Popularität verloren haben, ist es nicht mehr ungewöhnlich oder aufsehenerregend, an „normalen“ Stränden ohne Bekleidung zu baden oder zu sonnen. Veranstaltungen. Das „Meerkabarett“, seit 2007 im „kunst:raum sylt quelle“ in Rantum beheimatet, präsentiert seit 1994 im Juli und August Comedians, Kabarettisten und Musiker. Am „Syltlauf“ über 33,333 Kilometer nehmen jährlich bis zu 1500 Läufer teil. Darüber hinaus finden zahlreiche Regatten und Wassersportwettbewerbe statt – vornehmlich vor dem Westerländer Weststrand. Dazu zählen der "Windsurf-Worldcup", die "Kitesurf-Trophy" sowie der "Deutsche Windsurfcup," und das "Cat Festival Sylt", eine Veranstaltung, die mehrere Katamaran-Regatten umfasst. Medienlandschaft. Neben einer eigenen Tageszeitung, der Sylter Rundschau, die im SHZ-Verlag erscheint, existieren auf Sylt durch Werbung finanzierte und kostenlos verteilte Wochenblätter. Für die Verbreitung terrestrisch empfangbarer Radio- und Fernsehprogramme stehen auf der Insel zwei Sendeanlagen zur Verfügung, der Sender Morsum und der Sender Westerland. Seit 2011 sendet der private Radiosender „Antenne Sylt“ im Kabelnetz auf der Insel und dem angrenzenden Festland auf UKW 89,8 MHz. Medizinische Versorgung. Neben zahlreichen niedergelassenen Ärzten stellt vor allem die "Asklepios Nordseeklinik Westerland" die medizinische Grundversorgung sicher. In den Gebäuden eines ehemaligen Luftwaffenlazaretts im Norden von Westerland wurde im Jahr 1953 der öffentliche Krankenhausbetrieb aufgenommen, zuvor befand sich ein kleines Krankenhaus an der „Rote-Kreuz-Straße“ in Westerland. Nach langjähriger Trägerschaft durch die Arbeiterwohlfahrt gehört die Klinik seit 1991 mit ihren Krankenhaus- und Rehaabteilungen zur privatwirtschaftlichen "Asklepios Kliniken GmbH", die zahlreiche Krankenhäuser in Deutschland betreibt. Daneben existieren auf der Insel zahlreiche Rehabilitationseinrichtungen mit den Behandlungsschwerpunkten Herz-, Kreislauf- und Atemwegserkrankungen. Windkraftanlagen. Auf der Insel gibt es, im Gegensatz zum schleswig-holsteinischen Festland, keine Windkraftanlagen. Das Projekt Butendiek plant, einen Offshore-Windpark mit 80 Anlagen etwa 35 km vor der Küste in der Nordsee westlich von Sylt zu errichten. Der Windpark wurde im Jahr 2004 von der damaligen rot-grünen Landesregierung genehmigt. Nach einigen Verzögerungen wurden seit dem Jahr 2013 die ersten Windkraftanlagen errichtet. Autozug auf dem Hindenburgdamm Richtung Festland Transatlantische Seekabel. An der Westküste von Sylt enden zwei transatlantische Seekabel, zum einen bei Rantum das 14.000 Kilometer lange Datenkabel AC-1 (Atlantic Crossing) von Brookhaven in den USA kommend, zum anderen am Ellenbogen bei List das von Kanada kommende 8.000 Kilometer lange Seekabel Cantat-3. Wege nach Sylt. Eine unmittelbare Anbindung an das Straßennetz auf dem Festland besteht nicht. Mit dem PKW oder LKW erreicht man die Insel mit dem Sylt-Shuttle der DB Fernverkehr. Die Fahrzeuge werden in Niebüll verladen und mit der Marschbahn über den Hindenburgdamm nach Westerland gefahren. Neben den Autozügen verkehren über den Hindenburgdamm Nah- und Fernverkehrszüge (IC) der Nord-Ostsee-Bahn und der DB. Die Bahnhöfe der Insel sind (von Ost nach West): Morsum (Sylt), Keitum und Westerland als Kopfbahnhof. Der Hauptbahnhof mit ZOB und Hauptverkehrsknotenpunkt liegt im Zentrum von Westerland. Zwischen der dänischen Nachbarinsel Rømø und dem Hafen in List besteht eine Verbindung mit der Fahrzeug- und Personenfähre der Rømø-Sylt-Linie. Die Fähre verkehrt bis zu acht Mal täglich und ist nach dem Sylt-Shuttle die zweitwichtigste Verbindung für PKW und LKW auf die Insel. Sylt ist auch über den Flughafen Sylt im Linien- und Charterverkehr zu erreichen. Vor allem in der Sommersaison wird dieser Flughafen mehrmals täglich von vielen deutschen Großstädten und Ballungszentren aus direkt angeflogen und hat somit seit Ende der 1990er Jahre erheblich an Bedeutung für den Tourismus gewonnen. Im Jahr 2008 war er mit 153.000 Fluggästen der Flughafen Schleswig-Holsteins mit der zweithöchsten Passagierzahl. Verkehr auf Sylt. Auf Sylt ist, wie auch auf den nordfriesischen Nachbarinseln, motorisierter Individualverkehr zugelassen. Die Insel verfügt über ein gut ausgebautes Straßennetz sowie große strandnahe Parkplätze, die zum Teil kostenpflichtig sind. Auf der Insel wird der ÖPNV durch die Linien- und Charterbusse der Sylter Verkehrsgesellschaft (SVG) sichergestellt. Die rund 30 Linienbusse der SVG fahren auf fünf Linien mit vergleichsweise kurzen Taktzeiten sämtliche Inselorte an. Innerhalb Westerlands verkehren zusätzlich sogenannte "Stadtbusse". Zentraler Busbahnhof, der von allen Linien der Insel angefahren wird, ist der ZOB am Westerländer Bahnhof. Als Radfahrer kann man auf ein gut ausgebautes Radwegenetz von rund 250 Kilometern Gesamtlänge zurückgreifen, welches alle Inselgemeinden erschließt. Es gibt kaum eine Stelle, die nicht bequem per Fahrrad erreicht werden kann. Als nahezu durchgehender Radweg dient die Trasse der ehemaligen Sylter Inselbahn, die Sylt außer in Westerland von Nord nach Süd durchquert. In Westerland gibt es eine autoarme Fahrradverbindung entlang der westlich gelegenen Dünen. Sylt verfügt insgesamt über vier Häfen, von denen der nördlichste in List und der südlichste in Hörnum öffentlich sind. Von diesen Häfen fahren Seebäderschiffe und Ausflugsdampfer zu den Nachbarinseln Amrum, Föhr und den Halligen sowie zu Kurzseefahrten in das Wattenmeer. Darüber hinaus verkehrt vom Lister Fähranleger die Rømø-Sylt-Linie. Zusätzlich hat sich dort eine touristische Infrastruktur mit Restaurants, Fischbuden und Souvenirläden entwickelt. Diese Häfen bieten außerdem als Schutzhäfen Anlegeplätze für Sportboote; aber auch Fahrzeuge der Krabben- oder Muschelfischer machen hier fest. Zwei weitere Häfen, der ehemalige Fährhafen Munkmarsch sowie der in den 1930er Jahren am damaligen Seefliegerhorst entstandene Hafen Rantum, sind im Privatbesitz von Yachtclubs und nicht für die Öffentlichkeit zugänglich. Die Sylter Inselbahn. Von 1888 bis 1970 verfügte die Insel Sylt über Schmalspurbahnen mit 1.000 mm Spurweite, die anfangs von mehreren Gesellschaften gebaut und betrieben wurden. Die erste Strecke der Sylter Inselbahn befuhr ab 1888 in den Sommermonaten die etwa 4,2 km lange Strecke vom Hafen Munkmarsch in die Inselmetropole Westerland, weitere Strecken von Westerland nach Hörnum im Süden der Insel und von Westerland nach List im Norden folgten ab 1903 bzw. 1907. Während der beiden Weltkriege ergänzte das Militär dieses Streckennetz um einige Kilometer, um ihre oft abgelegenen Lager und Geschützstellungen anzubinden. So wurden große Teile des Ellenbogens bei List mit einem Schienennetz versehen. In den 1940er Jahren verfügte Sylt über die Inselbahn mit dem längsten Streckennetz in Deutschland. Diese Strecken wurden jedoch unmittelbar nach dem Zweiten Weltkrieg vollständig abgebaut. In den 1950er Jahren erlebte die Inselbahn durch den Fremdenverkehr einen erneuten Aufschwung, der den Siegeszug des Individualverkehrs auf Sylt jedoch auch nicht aufhalten konnte. So wurden Nord- und Südbahn am 29. Dezember 1970 stillgelegt; die alte Ostbahn von 1888 war bereits im Sommer 1927 aufgegeben worden. Den Personenverkehr verlegte die Sylter Verkehrsgesellschaft (SVG) von nun an ausschließlich auf Linienbusse. Religion. Über Religion und Bräuche der Sylter Friesen vor der Christianisierung ist nur wenig überliefert. Die im 15. Jahrhundert entstandene "Kielholtz-Chronik" berichtet von heidnischen Praktiken, die der Chronist selbst erlebt haben will. Die Christianisierung der Friesen erreichte im 11. Jahrhundert auch Sylt. Die frühen christlichen Gotteshäuser dieser Zeit sind nicht erhalten. Um 1240 entstand die noch heute bestehende mächtige St.-Severin-Kirche zu Keitum, der Turm wurde um 1450 aus Ziegel- und Feldsteinen errichtet. Zu dieser Zeit waren die Friesen auch kirchlich sehr unabhängig, zahlten lange keinen Zehnten, bestimmten ihre Prediger selbst und lehnten den Zölibat der Priester ab. Altarbild in der Kirche St. Niels In den 1520er Jahren erreichten die Ausläufer der Reformation die Insel, Sylt wurde evangelisch-lutherisch. Erst mit dem Einsetzen des Tourismus Mitte des 19. Jahrhunderts kamen nach und nach einige Katholiken auf die Insel, teils als Gäste, teils als neue Einwohner. Ende des 19. Jahrhunderts trug man diesen Veränderungen Rechnung und errichtete 1903 in der "Neuen Straße" in Westerland eine kleine katholische Kapelle. 1957 war diese längst zu klein geworden und mit der Christophorus-Kirche wurde nun ein neues Gotteshaus geweiht, das im Jahre 1998 wiederum durch einen Neubau an alter Stelle ersetzt wurde. Heute gibt es auf Sylt die evangelischen Kirchengemeinden List, Norddörfer (Norddörferkapelle in Wenningstedt), Westerland (Stadtkirche St. Nicolai und Dorfkirche St. Niels), Keitum (St. Severin), Morsum (St. Martin) sowie Rantum-Hörnum (St. Thomas). Die ebenfalls evangelisch-lutherische Dänische Kirche in Südschleswig ist mit einer Gemeinde in Westerland ("Den danske Menighed på Sild") vertreten. Die Katholische Kirche unterhält neben der St. Christophorus-Kirche in Westerland eine Filialkirche in List (St. Raphael). Die ehemalige katholische St. Joseph-Kirche in Hörnum wurde vor einigen Jahren profaniert. Darüber hinaus unterhalten in Westerland neben verschiedenen freikirchlichen Gemeinden auch Glaubensgemeinschaften wie die Neuapostolische Kirche, die Baptistengemeinde und Jehovas Zeugen sowie Orthodoxe Christen ihre Gemeinde-, Bet- und Versammlungsräume. Im Jahr 1904 baute der Berliner Arzt Paul Dahlke einen buddhistischen Theravada-Tempel in Wenningstedt. Im Frühjahr 1920 errichtete er außerdem in der Braderuper Heide eine Stupa, die 1939 im Zuge der Flughafenerweiterung eingeebnet wurde. Nach dem Bau des Hindenburgdamms verlagerte er seine Aktivität nach Berlin, weil er auf Sylt sein Ziel eines abgeschiedenen buddhistischen Kulturzentrums als nicht mehr realisierbar ansah. Auf Sylt existiert seit 1992 ein Zentrum des Tibetischen Buddhismus in Westerland. Die wachsende muslimische Gemeinde auf Sylt verfügt derzeit noch über kein Gemeindezentrum oder Gebetsraum (Stand 2015). Sprachen. Zu den einheimischen Sprachen der Insel Sylt zählt zum einen das Friesische. Die Sylter Mundart wird Sölring genannt. Mit den Mundarten von Föhr, Amrum und Helgoland bildet sie die inselnordfriesische Dialektgruppe, die sich deutlich vom Festlandnordfriesischen abtrennt. Sölring unterscheidet sich von den anderen Inselmundarten durch die größere Anzahl von dänischen Lehnwörtern. Die üblichen nordfriesischen Rechtschreibregeln werden nicht für die Sylter Mundart verwendet. Nur einige hundert Menschen sprechen heute noch Sölring. Infolge des Massentourismus und der Zuwanderung von Arbeitskräften vom Festland sowie der Abwanderung von Sylter Familien von der Insel ist die friesische Sprache auf Sylt besonders stark aus dem Alltagsleben verdrängt worden. Gestärkt wird die friesische Sprache durch das sogenannte „Friesisch-Gesetz“ aus dem Jahre 2004, danach wird die alte Sprache wieder gefördert. So können z. B. Ortstafel und Beschriftungen an öffentlichen Gebäuden zweisprachig (friesisch und deutsch) gestaltet werden. Beispiele dazu sind: Die Ortstafeln „Kampen-Kaamp“, bzw. „Keitum-Kairem“ oder das „Kaamp-Hüs“ – die Kurverwaltung. Auch wird der Friesisch-Unterricht an Schulen und in der Erwachsenenbildung gefördert. Zum anderen ist traditionell der Sylter Norden, das sogenannte "Listland", das über viele Jahrhunderte zur Dänischen Krone gehörte, dänischsprachig. Auch wenn die deutsche Sprache heute im Alltagsleben dominiert, so findet sich auf der Insel dennoch eine dänische Minderheit, die ihre Sprache und Tradition in Vereinen und Schulen lebendig hält. Neben der dänischen Kirche, der "Vesterland Danske Kirke" in Westerland, existiert eine dänische Inselschule mit Abteilungen in Westerland und Keitum, eine dänische Kindertagesstätte sowie ein Freizeitheim in Westerland und das dänische Kulturzentrum "List Kulturhus". Westerland und Keitum werden von Bücherbussen der Dansk Centralbibliotek in Flensburg angefahren. In dem ländlicher strukturierten Sylt-Ost ist in einigen Familien noch die niederdeutsche Sprache verbreitet. Bildung. In den Orten Westerland, Sylt-Ost und Wenningstedt befinden sich Schulen der Primarstufe. Bis in die 1950er Jahre existierte in Hörnum eine Zwergschule, die ihren Unterrichtsraum im Hörnumer Leuchtturm hatte. Im Jahr 2007 wurde die ehemalige Boy Lornsen-Schule in Keitum geschlossen und aufgrund sinkender Schülerzahlen mit der Schule in Tinnum zusammengelegt. In Westerland und Keitum befinden sich die beiden Abteilungen der vom Dänischer Schulverein für Südschleswig betriebenen Inselschule ("Vesterland-Kejtum Danske Skole"), daneben gibt es in Westerland auch eine dänische Kindertagesstätte. Die einzige weiterführende Schule, das Gymnasium mit Gemeinschaftsschulteil des Schulverbandes Sylt, ist in Westerland angesiedelt. Auf dem Festland ist die Berufsschule Niebüll. Im Norden der Insel befindet sich zwischen Kampen und List in einem Dünengebiet unmittelbar hinter dem Strand die Volkshochschule Klappholttal, eine der ältesten Volkshochschulen Schleswig-Holsteins. In List gab es konkrete Planungen, auf dem ehemaligen Kasernengelände der Marineversorgungsschule neben einer Internatsschule, dem der Sekundarstufen I und II auch einen Universitätscampus zu errichten. Allerdings wurde 2012 eine Finanzierungslücke von 3,2 Millionen Euro bekannt und somit eine Inbetriebnahme des "Nordsee College Sylt" unwahrscheinlich. Friesenhäuser. Raumaufteilung des Uthlandfriesischen Hauses im Vergleich Die Insel war ursprünglich auf Grund der Kargheit des Landes und des unwirtlichen Klimas recht dünn besiedelt. So existierten um 1800 in Wenningstedt gerade einmal acht Stavenplätze und in List nur zwei Höfe. Hörnum war bis etwa 1900 völlig unbesiedelt und der Ort Rantum musste zeitweise völlig vor dem starken Sandflug kapitulieren, der Höfe, Weideland und Felder unter sich begrub. Die lange vorherrschende Bauform waren die reetgedeckten, niedrigen uthlandfriesischen Häuser, eine spezielle Form der Geesthardenhäuser. Im Unterschied zu den Häusern auf dem Festland weisen sie meist einen spitzen Zwerchgiebel über der Eingangstür auf, der sich bis knapp unter den First erstreckt. Die Häuser stehen fast alle in Ost-West-Richtung, um dem vorherrschenden Westwind eine möglichst geringe Angriffsfläche zu bieten. Im dem Wetter zugewandten Westteil der Häuser befanden sich die Ställe, sodass der Wohnbereich auf der geschützteren Ostseite lag. Die Dachgeschosse der alten Häuser wurden nicht zum Wohnen genutzt, sondern dienten als Heu- und Vorratslager, das über eine Heuluke in dem oben erwähnten Friesengiebel erreichbar war. Bis heute erhaltene Friesenhäuser stehen nahezu ausnahmslos unter Denkmalschutz, dennoch wurden fast alle Häuser mit mehr oder weniger starken baulichen Veränderungen zu reinen Wohn- oder Appartementhäusern umgewandelt. Dabei wurde insbesondere durch den nachträglichen Einbau von Dachgauben, sowie den Umbau des ehemaligen Stallteils zu Wohnzwecken das äußere Bild des Hauses stark verändert. Lediglich das vom "Söl’ring Foriining" schon seit 1907 als Museum betriebene sogenannte „Altfriesische Haus“ in Keitum aus dem Jahre 1737 zeigt die ursprüngliche Nutzungs- und Bauform dieser Gebäude weiterhin auf. Erhalten sind neben der eigentlichen Bausubstanz auch viele typische Ausstattungsgegenstände und Möbel, wie der in die Wand eingelassenen Alkoven mit dem nur 1,75 m langen Bettkasten, die "Rauchküche" mit offenem Herd und Feuerstelle für den in der "Kööv" ("= Döns") gelegenen Ofen. Ein weiteres im Originalzustand belassenes Haus befindet sich im Freilichtmuseum Molfsee. Biikebrennen. In der Nacht des 21. Februar, dem Vorabend des Petritages, werden in vielen Inselorten große Feuer entzündet. Die Geschichte des Biikebrennens geht als heidnischer Brauch bis weit in die vorchristliche Zeit zurück. Später dienten die Feuer der Verabschiedung der Grönlandfahrer. Das waren jene Sylter, die als Kapitäne oder Besatzung der Walfänger im Frühjahr ins Nordmeer zogen. Wiederbelebt hat diesen Brauch der Sylter Chronist C. P. Hansen gegen Ende des 19. Jahrhunderts. Seitdem werden wieder jährlich die Biiken an den althergebrachten Orten aufgeschichtet und entzündet. Der Petritag ist auf der gesamten Insel Feiertag – alle Schulen und viele Büros und Geschäfte haben geschlossen. Jöölboom. Auf der fast baumlosen Insel wurde zur Weihnachtszeit anstelle eines Weihnachtsbaumes traditionell der "Jöölboom" aufgestellt, ein kleineres Holzgestell, an den ein Kranz aus immergrünen Zweigen gebunden wurde. Er ruht auf einem Sockel mit dem Abbild von Adam und Eva unter einem (Apfel-)Baum mit der Schlange. Darüber sind ein Pferd, ein Hund und ein Hahn dargestellt. Die aus Salzteig gefertigten Figuren besitzen allesamt symbolische Bedeutung: Adam und Eva mit der Schlange stellen die durch den Sündenfall gewonnene Erkenntnis von Gut und Böse dar. Das Pferd soll für Kraft, Schnelligkeit und Ausdauer stehen, der Hund für die Treue. Der zuoberst platzierte Hahn soll wie auf den Kirchtürmen nach den Petruserzählungen des Neuen Testaments die Wachsamkeit ausdrücken. Je nach Geschmack und Tradition wurden weitere Naturprodukte als Dekorationsgaben hinzugefügt. Nach dem Aufkommen des Adventskranzes hat sich durchgesetzt, dass an diesem Gestell vier Kerzen befestigt werden, die ähnlich denen eines Adventskranzes nach und nach vor dem Heiligen Abend entzündet werden. Auf Sylt lange Zeit in Vergessenheit geraten, wurde der Jöölboom ab Mitte des 20. Jahrhunderts durch einige Sylter Familien wieder zu neuem Leben erweckt und erfreut sich inzwischen auch über die Insel hinaus wachsender Beliebtheit. Maskenlauf. Das Maskenlaufen ist eine Sylter Art des in Nordfriesland verbreiteten „Rummelpottlaufens“. Dieser Brauch wird vor allem noch in den Dörfern von Sylt-Ost gepflegt. Zu Silvester ziehen kleinere Gruppen von Erwachsenen und Kindern, mit Masken verkleidet, von Haus zu Haus. Die so verkleideten "Omtaakelten" tragen derbe Lieder und Gedichte in friesischer oder teilweise mittlerweile auch in niederdeutscher Sprache vor, oft geht es darin um lokale Ereignisse des vergangenen Jahres. Diese Umzüge enden erst weit nach Mitternacht. Das „Raketenschießen“ und Böllern ist wegen der hohen Brandgefahr auf Grund der vielen reetgedeckten Häuser und der trockenen Heide- und Dünenflächen auf der ganzen Insel untersagt. Persönlichkeiten. Die Insel wurde von Menschen geprägt und prägte gleichermaßen viele Menschen, die auf der Insel lebten oder sich mit ihr befassten. So begann der in Keitum geborene Freiheitskämpfer Uwe Jens Lornsen seine politische Karriere auf Sylt, und Theodor Storm verfasste nach einem Aufenthalt auf der Insel im August 1887 die durch seinen Tod unvollendet gebliebene "Sylter Novelle". Nach dem Westerländer Kapitän Dirk Meinert Hahn ist das Auswandererdorf Hahndorf in Australien benannt. In den Liedtexten des Liedermachers Reinhard Mey finden sich gelegentlich Bezüge zur Insel – so etwa in seinem Lied "Rüm Hart". Dass das alte Sylt nicht in Vergessenheit geriet, wurde schon vor über 100 Jahren durch den Keitumer Lehrer und Heimatkundler Christian Peter Hansen sichergestellt, der als bedeutendster Chronist der Insel gilt. Nach dessen Tod führte der Heimatforscher Christian Jensen seine Arbeit fort. Seit Aufkommen des Tourismus Mitte des 19. Jahrhunderts lockte die Insel Künstler an. Insbesondere Kampen war zu Beginn des 20. Jahrhunderts so etwas wie eine Künstlerkolonie. Neben den Verlegern Ferdinand Avenarius und Peter Suhrkamp kamen zahlreiche bekannte und weniger bekannte Kunstschaffende auf die Insel. Maler wie Julius Bodenstein, Emil Nolde, Albert Aereboe, Anita Rée, Ernst Mollenhauer (der in Keitum begraben liegt), Siegward Sprotte, Otto Eglau, Dieter Röttger und Karl-Heinz Berndt-Elbing, aber auch Dichter und Denker wie Thomas Mann oder Kunst-, Tanz-, Film- und Theaterleute wie Gret Palucca und Will Grohmann zog es nach Sylt. Zu den zeitgenössischen Künstlern gehören die in Berlin und auf Sylt lebenden Maler und Bildhauer Rainer Fetting und Ingo Kühl. Weitere kulturelle Aspekte. Immer wieder war Sylt Drehort für Spielfilme. So drehte schon Friedrich Wilhelm Murnau einen großen Teil der Außenaufnahmen seines frühen Stummfilmes "Der Gang in die Nacht" im August 1920 auf der Insel bei Kampen. Im Frühjahr 2009 drehte Roman Polański zahlreiche Außenaufnahmen zu seinem Hollywood-Film "Der Ghostwriter" in List und Munkmarsch. Sylt weist vor allem in den Sommermonaten eine beachtliche Dichte an Künstlern, Galerien, Ausstellungen und Lesungen auf. Seit 2001 schreibt die Stiftung kunst:raum sylt quelle jedes Jahr ein Literaturstipendium unter dem Namen Inselschreiber aus. Bewerben können sich deutschsprachige Schriftsteller, die bereits in Buchform publiziert haben. Standard. Ein Standard ist eine vergleichsweise einheitliche oder vereinheitlichte, weithin anerkannte und meist angewandte (oder zumindest angestrebte) Art und Weise, etwas herzustellen oder durchzuführen, die sich gegenüber anderen Arten und Weisen durchgesetzt hat. In dieser Bedeutung ist der Begriff "Standard" insbesondere in den Bereichen Technik und Methodik üblich, in Bezug auf Menschenrechte, Lebensstandard oder Umweltschutz. Dabei findet der Begriff sowohl Verwendung zu allgemein anerkannter Zielsetzungen als auch bezüglich allgemein anerkannter Realisierungen. In der (Produktions)technik findet sich neben dem Industriestandard der herstellerspezifische Standard und der offene Standard. Interessierte Kreise können Maßnahmen ergreifen, um einen Standard zu fördern oder einen anderen Standard zurückzudrängen. Solche Auseinandersetzungen nennt man Formatkrieg. Als erster großer Formatkrieg der Industriegeschichte gilt der Stromkrieg ("war of currents"), als um 1890 Thomas Alva Edison (1847–1931) und George Westinghouse (1846–1914) darum stritten, ob die von Edison favorisierte Gleichspannung oder die von Westinghouse favorisierte Wechselspannung die geeignetere Technik für die großflächige Versorgung der Vereinigten Staaten von Amerika mit elektrischer Energie sei. Letztlich stritten die Unternehmen um Marktanteile. Bedeutung. Im Englischen wurde Standard in seiner heutigen Bedeutung ursprünglich nur in der Form des Königsstandards gebraucht. Im Namen oder Zeichen (der Standarte) des Königs festgelegte Normen wurden als maßgebend betrachtet. Ein Standard ist so eine Art Sammelpunkt, um den man sich schart – ähnlich der Standarte („ein an einer Stange gehisstes Feldzeichen, meist ein plastisches Bild, das den Sammlungsort eines Truppenteils in der Schlacht markierte und so zum Insigne dieses Truppenteils wurde“). Standard und Norm. Im Bereich Technik und Naturwissenschaften wird der Begriff im Allgemeinen als Oberbegriff verwendet für Von De-facto- oder Quasi-Standards spricht man, wenn sich Methoden oder Regeln in der Praxis durchsetzen und nicht infolge von Vereinbarungen, Gesetzen, Verordnungen oder Ähnlichem gesetzt sind. Im deutschen Sprachgebrauch ist in den letzten Jahren eine Begriffsverwirrung eingetreten, indem „Standard“ analog dem englischen Begriff "standard" auch für Normen verwendet wird. Zur Unterscheidung zwischen den Begriffen „Norm“ und „Standard“ im traditionellen deutschen Sprachgebrauch siehe unter Normung. Eine "Norm" ist eine weithin faktisch (manchmal auch rechtlich) anerkannte und durch ein Normungsverfahren beschlossene, allgemeingültige sowie veröffentlichte Regel zur Regelung eines Sachverhaltes. Alle Instanzen eines Normungsverfahrens wurden durchlaufen, anschließend wurde sie beschlossen und veröffentlicht. Voraussetzung für eine Norm ist, dass sie technisch ausgereift ist und einen Nutzen für den Anwender hat. Aus dem englischen Sprachgebrauch kommt der Begriff "De-jure-Standard" (wobei die englische Schreibweise auf die Bindestriche verzichtet), der sich mit dem deutschen Begriff "Norm" deckt. Sidney Poitier. Sir Sidney Poitier, KBE (* 20. Februar 1927 in Miami, Florida, USA) ist ein bahamaisch-US-amerikanischer Schauspieler und Regisseur. Er war der erste afroamerikanische Schauspieler, der für eine Hauptrolle mit dem Oscar ausgezeichnet wurde. Leben und Werk. Poitiers Familie stammt ursprünglich von den Bahamas, wo er auch aufwuchs. Geboren wurde er in Miami (als Geburtsdatum wird in einigen Dokumenten auch der 20. Februar 1924 genannt), als seine Eltern gerade dort zu Besuch waren. Dadurch war er gemäß Geburtsortsprinzip (Ius Soli) US-amerikanischer Staatsbürger. Als armer Bauernsohn erhielt er nur eine einfache Schulbildung und wurde im Alter von 15 Jahren nach Miami zu seinem Bruder geschickt. Mit 18 ging er nach New York, wo er zum ersten Mal mit dem Theater in Berührung kam. Er spielte in Harlem beim "America Negro Theatre". Um dort einsteigen zu können, hatte er sich erst einmal von seinem breiten Bahamas-Zungenschlag freimachen müssen. Von dort aus gelang ihm der Sprung an den Broadway. 1950 holte ihn der Hollywood-Produzent Darryl F. Zanuck zum Film. Poitier war der erste dunkelhäutige Amerikaner, der Filmstar wurde und Hauptrollen in Hollywood-Filmen spielte. Nach seinen großartigen Erfolgen als Schauspieler vor allem in den 1960er Jahren arbeitete er ab Anfang der 1970er Jahre auch als Regisseur. Über die Erscheinungsformen des Rassismus in den USA handelt der Subtext vieler Filme, in denen er tragende Rollen spielte. Seine Kultiviertheit in Erscheinungsbild und Auftreten machte ihn zu einem Vorbild und Kinokassenmagneten. Viele Afroamerikaner verehrten ihn, darunter auch Oprah Winfrey, die Anfang 2007 seine Autobiografie "The Measure of a Man" zum Lese-Tipp ihres TV-Buch-Clubs kürte. Das Buch ist 2001 in deutscher Übersetzung von Gabriele Haefs unter dem Titel "Mein Vermächtnis. Eine Art Autobiografie" erschienen. 1964 erhielt Poitier für Lilien auf dem Felde "(Lilies of the Field)" den Oscar als Bester Hauptdarsteller. Er war der erste schwarze Schauspieler, dem diese Auszeichnung verliehen wurde und die zweite schwarze Person überhaupt die von der Filmakademie ausgezeichnet wurde. 1940 hatte die afroamerikanischen Schauspielerin Hattie McDaniel einen Oscar als Beste Nebendarstellerin für ihre Rolle im Film "Vom Winde verweht" erhalten. 2002 bekam er den Ehrenoscar für sein Lebenswerk. 2012 überreichte Poitier Morgan Freeman den Golden Globe für dessen Lebenswerk. Ritterschlag. 2009 erhielt Poitier von Präsident Obama die Presidential Medal of Freedom. Obwohl in den USA geboren und damit US-Bürger, besitzt Poitier aufgrund seiner Herkunft auch die Staatsbürgerschaft der Bahamas und damit auch die Bürgerrechte im britischen Commonwealth. 1974 erhielt er für seine schauspielerischen Verdienste den Orden Knight Commander of the British Empire (KBE), der mit der Anrede „Sir“ verbunden ist. 2009 wurde Poitier von Präsident Barack Obama mit der Presidential Medal of Freedom ausgezeichnet. Diplomatischer Dienst. Seit April 1997 ist Poitier Botschafter der Bahamas in Japan, allerdings wurde seine Tätigkeit von Bahamas Regierung weitgehend auf repräsentative Aufgaben beschränkt. Er selbst residiert nicht in Japan, er lässt sich vertreten. Außerdem vertritt Poitier die Bahamas als Botschafter bei der UNESCO. Seine korrekte Ansprache als Botschafter lautet „His Excellency Sir Sidney Poitier“. Liste der Städte in Österreich. Die Liste der Städte in Österreich bietet einen Überblick über die Entwicklung der Einwohnerzahl der Städte in Österreich. Aufgeführt ist auch eine alphabetische Liste aller Städte des Landes sowie eine Übersicht der eingemeindeten und ehemaligen Städte. Zum Begriff Stadt. In Österreich gilt statistisch jede Gemeinde als Stadt, die mehr als 10.000 Einwohner aufweist. In einer Statistik, die in Kooperation mit dem Österreichischen Städtebund und der Statistik Austria vorgestellt wurde, gab es am 1. Jänner 2009 in Österreich 71 Städte mit mehr als 10.000 Einwohnern. Die Statistik der Städte und Gemeinden erfasst alle mit Hauptwohnsitz in Österreich gemeldeten Personen. Seit 1. März 2002 führte die Statistik Austria ein "Bevölkerungsregister" ("Population Register", POPREG), in dem die Daten aus dem "Zentralen Melderegister" (ZMR), das beim Bundesministerium für Inneres (BMI) geführt wird, verarbeitet werden. Es ersetzte die bis dahin praktizierte Bevölkerungsfortschreibung auf Basis der Volkszählungsergebnisse. Um als Einwohner im Population Register gezählt zu werden, muss dieser um den Stichtag mindestens 90 Tage ohne Unterbrechung in Österreich mit Hauptwohnsitz gemeldet sein. Zuvor waren hingegen alle Meldungen der lokalen Meldebehörden unabhängig von der Aufenthaltsdauer berücksichtigt worden. Abweichend davon gibt es den kommunalrechtlichen Status der Stadtgemeinde, der von der Bevölkerungszahl unabhängig ist. Daher gibt es etliche Städte in Österreich, die das amtlich-statistische Kriterium nicht erfüllen. Stadtgemeinden gab es per 1. Jänner 2013 genau 201. Eine Statutarstadt (Stadt im Rang eines Bezirkes) muss mindestens 20.000 Einwohner haben ( Z.3 Bundesverfassungsgesetz), jedoch haben einige Städte mit historischem Stadtrecht auch deutlich weniger Einwohner. In den Bereich über 20.000 EW fallen 25 Städte, von denen aber nur 12 Statutarstädte sind. Eine Gliederung in "Klein-, Mittel-" und "Großstadt" ist in Österreich nicht üblich, beziehungsweise gibt es dafür diverse Grenzen bei 5.000, 10.000, 20.000, 40.000, 50.000 respektive 100.000, je nach Zusammenhang oder Landesüblichkeit. Statistisches. Österreich erstreckt sich in nordsüdlicher Richtung über 294 km, in westöstlicher über 573 km. Weitaus größte Stadt und größter Ballungsraum ist die Hauptstadt Wien. Mit Einwohnern lebt etwa ein Fünftel der Gesamtbevölkerung dort, mit etwa 2,5 Mio. im Ballungsraum Wien ein knappes Drittel Österreichs in Wien und Umland. Durch Eingemeindungen haben sich besonders in den 1970er Jahren etliche sehr große Stadtgemeinden entwickelt, deren eigentliche Kernstadt nur eine Kleinstadt ist: So ist etwa Wolfsberg in Kärnten, die flächenmäßig drittgrößte Stadtgemeinde Österreichs nach Wien und Mariazell, mit etwa 25.000 Einwohnern nur unter den zwanzig größten Städten. Oder die flächenmäßig viertgrößte, Zwettl, ist mit  Einwohnern nur unter den 80 größten, die eigentliche Stadt hat circa 4000 Einwohner. Ein großes Problem, vor allem in wirtschaftlich schwachen Gegenden, ist die Abwanderung (Landflucht) der ländlichen Bevölkerung in die städtischen Ballungsräume, die meisten Städte selbst leiden aber ebenfalls unter Abwanderung aus der Kernstadt (Suburbanisierung zum „Speckgürtel“). Das Verschlucken dieser Umlandgemeinden durch die Städte ist heute weitgehend zum Stillstand gekommen, die Tendenz geht zu Regionalismus und raumplanerischen Zentralort-Konzepten, die überkommunal mit Gemeindeverbänden von Stadt und Umland organisiert werden. Gemeinden mit mindestens 10.000 Einwohnern. Die folgende Liste enthält alle Gemeinden in Österreich mit mindestens 10.000 Einwohnern (Gebietsstand 2015, Einwohner 1. Jänner 2015). Die Einwohnerzahlen beziehen sich auf das jeweilige Gemeindegebiet. Zum Teil enthalten sie kleine Vororte, etwa bei Krems, zum Teil aber auch viele eingemeindete Nachbarorte, etwa bei Wolfsberg. Landeshauptstädte sind in der Liste fett hervorgehoben. (VZ = Volkszählung, RZ = Registerzählung, FS = Fortschreibung) Rangordnung nach der jüngsten Einwohnerzahl, im Eventualfall von Gleichstand nach der zeitlich davor liegenden Zahl. Städte (Gemeinden mit Stadtrecht). Die unten stehende Liste enthält alle österreichischen Städte. Es handelt sich dabei um die Gemeinden mit Stadtrecht (korrekter: mit "Stadtrang"), also die 15 Statutarstädte und die 186 sonstigen Stadtgemeinden, insgesamt 201 Gemeinden. Stadtregionen nach Statistik Austria. Die Statistik Austria hat 34 statistische Stadtregionen definiert, die auf einer "Kernzone" der Stadt (als Zentralort) und ihrer Umgebungsgemeinden, und einer "Außenzone" beruht. Sie umfassen zusammen 5,584 Millionen Einwohner (Stichtag 1. Jänner 2013), das sind etwa 66 % der Gesamtbevölkerung Österreichs. Drei Viertel davon (4,14 Millionen) entfielen auf die Kernzonen, etwa 1,44 Millionen auf die Außenzonen. Die letzte Abgrenzung wurde 2001 vorgenommen. Agglomerationen nach Brinkhoff. Die mit Abstand größte Agglomeration in Österreich ist Wien, mit einer Einwohnerzahl von 1.983.836. Damit konzentriert sich ein Viertel der Bevölkerung des Landes in der Hauptstadtregion. In der folgenden Tabelle sind die Agglomerationen mit mehr als 50.000 Einwohnern aufgeführt. Die nachstehenden Gemeinden, die in einem größeren bebauten Siedlungsgebiet liegen, sind nach ihrer Einwohnerzahl sortiert (Stand 1. Jänner 2009). Metropolenregionen nach Eurostat. Unter der Definition von Eurostat ist Wien die größte der angeführten Metropolenregionen und Innsbruck die kleinste, weiters hat nach Eurostat die Region Linz mehr Einwohner als Graz. Einzelnachweise. Liste Der Stadte In Osterreich Stadte In Osterreich, Liste Der Osterreich Stein von Rosette. Der Stein von Rosette oder Stein von Rosetta oder auch Rosettastein (,) ist eine als Fragment erhaltene steinerne Stele mit einem in drei Schriften (Hieroglyphen, Demotisch, Altgriechisch) eingemeißelten Priesterdekret. Die dreisprachige Inschrift aus dem Jahr 196 v. Chr. ehrt den ägyptischen König Ptolemaios V. und rühmt ihn als Wohltäter. Der Stein von Rosette trug maßgeblich zur Übersetzung der ägyptischen Hieroglyphen bei. Er befindet sich heute im British Museum in London. Zustand des Steins und der Inschrift. Experten betrachten den Stein von Rosette Der Stein ist ein Bruchstück von einer ursprünglich höheren Stele aus dunkelgrauem Granodiorit. Das erhaltene Teil ist 112,3 cm hoch, 75,7 cm breit und 28,4 cm tief und wiegt 762 kg. Bei späteren Nachforschungen am Fundort wurden keine weiteren Fragmente dieser Stele gefunden. Unmittelbar nach der Entdeckung im Jahr 1799 fertigten die französischen Forscher in Ägypten zahlreiche Kopien der Inschriften an. Sie färbten den dunkelgrauen Stein unter anderem mit Druckertinte ein und erhielten so spiegelverkehrte Abzüge auf Papier. Dadurch wurde die steinerne Oberfläche mit immer neuen dunklen Farbschichten überdeckt. Als der nun schwarze Stein Anfang des 19. Jahrhunderts im Britischen Museum der Öffentlichkeit zugänglich war, wurde die Oberfläche mit Carnaubawachs versiegelt, um sie vor den Händen der neugierigen Besucher zu schützen. Durch unzählige Berührungen kamen weitere Ablagerungen hinzu. 1981 wurde schließlich weiße Farbe auf die Schriftzeichen aufgetragen, um sie besser lesbar zu machen. Bei der Vorbereitung einer großen Ausstellung im Jahr 1999 wurde entschieden, den Stein zu restaurieren und sämtliche Schutz- und Farbschichten nacheinander abzutragen. Seither sieht man wieder die originale dunkelgraue Farbe. Entdeckung. Während der ägyptischen Expedition Napoleons wurde der Stein am 15. Juli 1799 von einem französischen Offizier namens Pierre François Xavier Bouchard bei Rosette im Nil­delta gefunden. Über die Umstände, unter denen Bouchard den Stein fand, existieren zwei Versionen: Eine besagt, dass sein Pferd über den Stein von Rosette gestolpert sei, weil dieser halb aus dem Boden ragte. Laut zweiter Version habe Bouchard den Stein beim Abbruch eines alten Festungswalls vorgefunden. Der General Jacques-François Menou nahm ihn zunächst in sein Haus nach Alexandria. Von Wissenschaftlern, die Napoleon auf seinem Feldzug begleiteten, wurde der Stein eingehend untersucht. Nach der Niederlage der Franzosen jedoch mussten sie ihn zusammen mit anderen Altertümern 1801 den Briten überlassen. Im folgenden Jahr wurde er erstmals im British Museum in London ausgestellt, wo er sich noch heute befindet. Übersetzung der ägyptischen Schrift. Der Stein enthält dreimal den gleichen, relativ langen Text, und die griechische Version ist gut lesbar. Deswegen bot der Stein – ähnlich wie auch andere Trilinguen – einen Schlüssel zur Entzifferung der ägyptischen Schriften. Jean-François Champollion. Jean-François Champollion gelang 1822 anhand des Steines und anderer Quellen die Entzifferung der demotischen Schrift sowie die Entschlüsselung der hieratischen Schrift und der Hieroglyphen. Er konnte jedoch nicht am Original, sondern nur an einer Abschrift des Steines arbeiten. In Erinnerung daran wurde vom Bildhauer Joseph Kosuth in dessen französischer Geburtsstadt Figeac auf dem sogenannten "Place des Écritures" („Platz der Schriften“) eine stark vergrößerte Nachbildung des Steins von Rosette geschaffen. Nach der Veröffentlichung seiner Entdeckung gelang die Entzifferung weiterer Hieroglyphen relativ schnell. Dadurch wurde es Archäologen möglich, viele weitere ägyptische hieroglyphische Inschriften zu entziffern. Der Stein von Rosette war daher einer der Anstöße für die moderne Ägyptologie. Motive für das Dekret. Ptolemaios V. erreichte die Unterstützung durch die Priesterschaft nur durch Zugeständnisse und erweiterte Privilegien an die Lesonis-Kaste. Dazu griff Ptolemaios V. in seinem neunten Regierungsjahr entscheidend in die Steuer- und Finanzwirtschaft ein und verzichtete auf die bis dahin ausstehenden Zahlungen der Tempel. Gleichzeitig reduzierte er die Abgaben an das Königshaus. Zusätzlich wurde den Priestern ihr alter Besitzstand gesichert und die alljährliche Reise zum "Haus Alexandria" nicht mehr als Pflicht auferlegt. Die Priesterschaft war sich ihrer Bevorteilung bewusst, die eine deutliche Schwächung der ägyptischen Staatsmacht darstellte. Aufgrund dieser Situation dominieren als Ausgleich für die Zugeständnisse Lobesreden auf Ptolemaios V. die Ausführungen im Dekret. Die hervorgehobenen Leistungen des Pharaos symbolisierten jedoch die obligatorischen Pflichten eines Königs, die sowieso erbracht werden mussten. Der Text der Inschrift stellt nicht eine Abschrift der Originalurkunde dar, da detaillierte Listen und Nennungen der betroffenen Tempel fehlen. Es handelt sich daher nur um einen knappen Ausschnitt, der klischeeartig Ehrungen aufzählt, die dem Pharao erwiesen werden sollen. Einmalig und einzigartig in der ägyptischen Geschichte ist die Deutlichkeit, mit der die aufgezwungenen Rechtsgeschäfte der Priesterschaft aufgeführt werden. Deutlich ist der Niedergang der ptolemäischen Wirtschaft zu beobachten. Inhalt. Der Text wurde so verfasst, dass ihn drei Bevölkerungsgruppen lesen konnten: für die Priester auf Ägyptisch als Gottesworte in Hieroglyphen (14 erhaltene Zeilen), für die Beamten auf Ägyptisch in demotischer Briefschrift (32 Zeilen) und für die griechischen Herrscher über Ägypten auf Altgriechisch in griechischen Großbuchstaben (54 Zeilen). Die Übersetzung des Inhalts hält sich, wenn möglich, immer an die Hieroglyphenvorlage. Es ergeben sich teilweise leichte Abweichungen gegenüber der griechischen Inschrift, da bestimmte Formulierungen im Hieroglyphentext vermieden wurden. Beispielsweise kennt der Hieroglyphentext keinen Titel „Pharao“, sondern nur die übliche Titulierung „König von Ober- und Unterägypten“. Fehlende Textpassagen in der Hieroglyphenversion wurden mit den Übersetzungen der erhaltenen anderen Versionen ergänzt. Liste der Städte in der Schweiz. Städte der Schweiz nach Einwohnerzahlen Die Liste der Städte in der Schweiz bietet einen Überblick über die Entwicklung der Einwohnerzahl der Städte in der Schweiz. Aufgeführt ist auch eine alphabetische Liste aller Städte des Landes sowie eine Übersicht der Städte mit abgegangenem Stadtrecht. Überblick. Anders als etwa Deutschland oder Österreich kennt die Schweiz kein Stadtrecht im rechtlichen Sinn. In der Schweiz gilt statistisch jede Gemeinde als Stadt, die mehr als 10'000 Einwohner aufweist. Ob sich eine Gemeinde selbst als «Stadt» bezeichnet, liegt ganz in ihrem eigenen Ermessen und Selbstverständnis. So bevorzugt manche grosse Agglomerationsgemeinde den Begriff «Gemeinde», auch wenn ihre Einwohnerzahl die 10'000 überschreitet, beispielsweise Köniz mit rund 40'000 Einwohnern. Umgekehrt gibt es zahlreiche Kleinstädte, die nur einige tausend oder gar einige hundert Einwohner haben, sich aber aus geschichtlichen Gründen «Stadt» nennen, weil ihnen vor Jahrhunderten das Stadtrecht verliehen wurde, zum Beispiel Leuk. Kantonshauptorte besonders kleiner Kantone müssen demnach nicht unbedingt Städte im eigentlichen Sinne sein; manche wollen ganz bewusst Haupt"orte" – und nicht "-städte" – sein. Dazu zählen beispielsweise die Hauptorte der Kantone Uri (Hauptort Altdorf), Appenzell Innerrhoden (Hauptort Appenzell) oder Glarus (Hauptort Glarus). Die Daten der Volkszählungen basieren auf der Definition des wirtschaftlichen Wohnsitzes, das heisst die Stadt oder Gemeinde, in der die Person grösstenteils der Woche wohnt und deren Infrastruktur beansprucht. Das Bevölkerungskonzept schliesst also alle Wochenaufenthalter (beispielsweise Schüler, Auszubildende, Studenten), Asylbewerber usw. mit ein. Im Rahmen des neuen Volkszählungssystems ersetzte im Bereich der Bestandesdaten ab dem 31. Dezember 2010 die Statistik der Bevölkerung und der Haushalte (STATPOP) die bisherige Statistik des jährlichen Bevölkerungsstandes (ESPOP). STATPOP beruht auf den Personenregistern des Bundes sowie den Einwohnerregistern der Gemeinden und Kantone. Im Vergleich zu ESPOP umfasst die ständige Wohnbevölkerung in STATPOP zusätzlich Personen im Asylprozess mit einer Gesamtaufenthaltsdauer von mindestens 12 Monaten. Die Einwohnerstatistik der Schweizer Städte erfasst in ihrer Einwohnerkontrolle alle Personen mit Wohnsitz. Dies sind neben den zivilrechtlich Niedergelassenen namentlich auch solche mit Wochenaufenthalt. Städte mit mindestens 10'000 Einwohnern. Die folgende Liste enthält alle Gemeinden in der Schweiz, die Ende 2014 mindestens 10'000 Einwohner hatten (also Städte im geografischen Sinn, die nicht notwendigerweise ein historisches Stadtrecht besitzen), ausserdem die Ergebnisse der Fortschreibung des Bundesamtes für Statistik für die Jahre 1995, 2000 und 2005 (jeweils 31. Dezember). Die Daten beziehen sich auf das jeweilige Gemeindegebiet nach der Definition des zivilrechtlichen Wohnsitzes. Angegeben ist auch der Kanton, zu dem die Stadt gehört. Die Reihung erfolgt nach der Einwohnerzahl in absteigender Reihenfolge. Kantonshauptstädte sind fett geschrieben (es fehlen Appenzell (Kanton Appenzell Innerrhoden), Altdorf (Kanton Uri), Sarnen (Kanton Obwalden) und Stans (Kanton Nidwalden), die nur Kantonshauptorte sind), die jeweils grösste Stadt eines Kantons ist "kursiv" geschrieben. Orte, die das Kriterium «Stadt» in doppelter Hinsicht erfüllen (historisches Stadtrecht und demografisch eine Stadt) sind mit 1 gekennzeichnet. Der Buchstabe «F» bedeutet «Fortschreibung». 3 die Zahlen vor 2010 beziehen sich auf die Stadt Jona (2007 Fusion mit Rapperswil) 4 In der Spalte «2010» steht für Glarus die Angabe zum 1. Januar 2011, da zu diesem Zeitpunkt durch eine Gemeindeneuordnung die Einwohnerzahl von 5556 auf 12'291 stieg. Städte mit weniger als 10'000 Einwohnern. Diese Liste führt alphabetisch all jene Orte mit weniger als 10'000 Einwohnern auf, die historisch (Stadtrecht/Marktrecht) das Kriterium «Stadt» erfüllen. Die angegebenen Einwohnerzahlen spiegeln die Ergebnisse der Volkszählung vom 5. Dezember 2000 wider und beziehen sich auf die Definition des wirtschaftlichen Wohnsitzes. 1 besitzt nur historisches Marktrecht, kein Stadtrecht 2 heute Teil der Gemeinde Brig-Glis mit 11'590 Einwohnern 3 heute Teil der Stadt Bulle Orte mit abgegangenem Stadtrecht. Die angegebenen Einwohnerzahlen spiegeln die Ergebnisse der Volkszählung vom 5. Dezember 2000 wider und beziehen sich auf die Definition des wirtschaftlichen Wohnsitzes. Agglomerationen nach Einwohnerzahl. Mit den Agglomerationsgemeinden des angrenzenden Auslands hat die Agglomeration Basel 823'112, die Agglomeration Genf 818'668 Einwohner (Stand: 2012). Einzelnachweise. Schweiz Schlacht von Trafalgar. Die Schlacht von Trafalgar am 21. Oktober 1805 war eine Seeschlacht am Kap Trafalgar zwischen den Briten und den miteinander verbündeten Franzosen und Spaniern im Rahmen des Dritten Koalitionskriegs. Mit ihr begann die mehr als ein Jahrhundert dauernde britische Vorherrschaft zur See. Sie trug indirekt zu Napoleons Niederlage auf dem europäischen Festland bei. Im Verlauf der Schlacht besiegte die Royal Navy unter Vizeadmiral Horatio Nelson die französisch-spanische Armada unter dem französischen Vizeadmiral Pierre de Villeneuve. Dieser sollte im Auftrag Napoleons aus dem von den Briten blockierten Hafen von Cádiz ausbrechen, um eine Landung in Süditalien zu unterstützen – die eigentlich geplante Landung in England hatte Napoleon nach einem gescheiterten Ablenkungsmanöver durch Villeneuve bereits kurz zuvor aufgeben müssen. Die französisch-spanische Flotte erlitt vor Trafalgar eine verheerende Niederlage: Die Briten eroberten oder zerstörten 20 feindliche Schiffe, darunter die einzigartige Santissima Trinidad, während sie selbst kein einziges Kampfschiff verloren. Nelson fiel in der Schlacht, aber sein Sieg vereitelte Napoleons Pläne für eine Invasion der britischen Inseln endgültig. Strategischer Hintergrund. Entscheidend für Napoleons ursprünglichen Plan einer Invasion Großbritanniens war seine Flotte, die die Landung seines Heeres decken und dazu die Royal Navy ausschalten oder wenigstens ablenken musste. Nachdem Villeneuve seine Flotte in Toulon mit der verbündeten spanischen Flotte bei Cádiz vereinigt hatte, sollte er zu den Westindischen Inseln segeln, um dort britische Besitzungen anzugreifen und die französischen Truppen in Martinique zu verstärken, wofür 12.000 Soldaten zusätzlich eingeschifft wurden. Dies sollte einen Teil der Royal Navy von den europäischen Gewässern weglocken. Danach war vorgesehen, die vereinte Flotte wenden und nach Brest segeln zu lassen, um sich dort mit der französischen Atlantikflotte zu treffen. Mit dieser Streitmacht wollte Napoleon dann die Seeherrschaft im Kanal erringen, um die geplante Invasion Großbritanniens zu sichern. Die Briten versuchten dies mit einer Blockade der Häfen Brest und Toulon zu verhindern. Am 30. März 1805 jedoch konnte die französische Flotte Toulon unbemerkt verlassen, da die britischen Schiffe durch widrige Winde an einer effektiven Blockade gehindert waren. In der Folge gelang es den französischen Schiffen, sich vor der spanischen Küste mit der spanischen Flotte zu treffen und den Atlantik zu überqueren. Die britische Mittelmeerflotte unter Nelson nahm die Verfolgung auf, konnte den Gegner jedoch nicht zum Kampf stellen. Villeneuve nutzte seine Seeherrschaft in der Karibik allerdings nicht aus, sondern blieb nahezu untätig. Er unterließ es sogar, die 12.000 Soldaten zu entladen. Seine Flotte bestand damals aus 19 Linienschiffen und einigen Fregatten, während Nelson ihn nur mit neun Linienschiffen und zwei Fregatten über den Atlantik verfolgte. Als Letzterer in Barbados angekommen war, suchte Villeneuve trotz seiner überwältigenden Überlegenheit keine Entscheidung, sondern verließ die karibischen Gewässer fluchtartig Richtung Europa. Die britische Admiralität erahnte Napoleons Plan jedoch und beorderte Vizeadmiral Robert Calder, mit seinen Schiffen dem Feind entgegenzusegeln. Dieser Flotte gelang es, die zahlenmäßig überlegene gegnerische Streitmacht am 22. Juli 1805 vor Kap Finisterre zum Kampf zu stellen. Die Briten eroberten zwei spanische Schiffe, bevor die Schlacht wegen schlechter Sichtverhältnisse abgebrochen wurde. Danach gelang es Villeneuve, seine Kräfte mit weiteren zehn napoleonischen Linienschiffen zu verstärken, die Calder zuvor in Ferrol blockiert hatte. Allerdings segelte er unter Missachtung der Befehle Napoleons nicht nach Brest weiter, um die Kanalflotte zum Kampf zu stellen, sondern suchte am 20. August Zuflucht in Cádiz. Angeblich sollen Villeneuve falsche Informationen über eine überlegene britische Flotte in der Biskaya zugetragen worden sein, weswegen er die Befehle nicht beachtete und nach Cádiz zurückkehrte. Damit war der strategische Vorteil der Franzosen verloren, denn nun blockierte die Royal Navy sofort den Hafen von Cádiz: anfangs allerdings nur mit den weit unterlegenen Kräften des Admirals Cuthbert Collingwood, die von Calders Schiffen am 30. August verstärkt wurden. Nelson selbst kehrte zunächst nach England zurück, stieß erst am 29. September mit weiteren drei Linienschiffen zur Blockadeflotte und übernahm das Oberkommando. Dennoch waren die Briten dem Gegner zahlenmäßig knapp unterlegen. Verlauf der Schlacht. Napoleon war entsetzt über Villeneuves Verhalten, das ihn zur vorläufigen Aufgabe der geplanten Invasion Englands zwang. Daher befahl er Villeneuve, nach Neapel auszulaufen, um dort die immer noch eingeschifften 12.000 Soldaten anzulanden. Obwohl Villeneuve den Befehl am 28. September erhielt, blieb er untätig. Erst als er am 18. Oktober erfuhr, dass Napoleon ihn seines Kommandos entheben wollte und sein Nachfolger, der Vizeadmiral Rosily, schon unterwegs war, wurde er aktiv und ließ die vereinte napoleonische Kriegsflotte am 19. Oktober 1805 aus dem Hafen von Cádiz auslaufen. Doch wegen ungünstiger Winde und schlechter Navigation dauerte dies bis zum Mittag des folgenden Tages. So misslang sein Versuch, der britischen Blockade zu entgehen. Da die britische Fregatte "Sirius" das Auslaufen des Feindes beobachtet und sogleich an Vize-Admiral Nelson gemeldet hatte, konnte er einen Schlachtplan ausarbeiten. Die bisher gültige Doktrin sah vor, die schweren Schiffe in einer Schlachtlinie parallel zur gegnerischen Flotte zu segeln, um diese aus der Ferne zu beschießen. In Fortentwicklung bereits erfolgreicher britischer Manöver plante Nelson jedoch, die gegnerische Schiffslinie mit zwei Schlachtreihen von der Seite senkrecht zu durchbrechen. Die feindlichen Schiffe im Zentrum sollten im Nahkampf niedergerungen werden, bevor weitere Schiffe aus der Schlachtreihe wenden und zu Hilfe eilen konnten. Zudem sollte diesen so der Rückzug abgeschnitten werden. Nelson vertraute dabei vor allem der dafür besser geeigneten Artillerie und überlegenen Nahkampfausbildung seiner Matrosen. Um sich die Möglichkeit der Flucht nach Cádiz zu erhalten, gab Villeneuve um 8 Uhr der Flotte den Befehl zu wenden. Da der Wind schwach und die Besatzungen unerfahren waren, kam die Schlachtordnung vollkommen durcheinander. Manche Schiffe preschten vor, andere fielen zurück. Das Manöver war schließlich um 10 Uhr abgeschlossen, so dass sich die Schiffe nunmehr auf nördlichem Kurs befanden. Allerdings gab es jetzt große Lücken in den Reihen. Als beide Flotten im rechten Winkel aufeinander zusteuerten, ließ Nelson um ca. 11:35 Uhr den eigenen Schiffen per Flaggensignal verkünden: "„England expects that every man will do his duty“" (englisch für: „"England erwartet, dass jeder Mann seine Pflicht tun wird"“). Das Kommando über die südliche der beiden britischen Linien in Lee ("Lee-Column") führte Vizeadmiral Cuthbert Collingwood, die nördliche Linie in Luv ("Weather Column") befehligte Nelson selbst auf seinem Flaggschiff, der HMS "Victory". Obwohl Villeneuve sein Manöver wohl ahnte, ergriff er keine geeigneten Gegenmaßnahmen, sondern ließ seine Flotte in Linie aufgereiht weitersegeln, als sich die beiden Schlachtreihen der Briten vom Westen her näherten. Die "Africa" verlor dabei den Anschluss an die Luv-Linie und näherte sich dem Feind daher allein von Norden. Auch andere Schiffe aus Nelsons Reihe segelten zu langsam. Doch er vertraute auf die Überlegenheit seines Plans und setzte seinen Angriff unbeirrt fort. Als letztes Signal ließ er auf der Victory das Signal Nr. 16 "„Engage the enemy more closely“" („Näher heran an den Feind“ = Nahkampf Schiff gegen Schiff) setzen. Bereits um 11:30 Uhr eröffnete die napoleonische Flotte mit ersten Fernschüssen das Feuer. Die eigentliche Schlacht begann jedoch erst gegen 12 Uhr, als die britischen Schiffe sich der feindlichen Linie näherten und diese schließlich durchbrachen. Die "Royal Sovereign", auf der Collingwood seine Flagge gesetzt hatte, durchstieß als erste zwischen der "Santa Ana" und der "Fougueux" die feindliche Linie. Alsbald kamen weitere Schiffe der Lee-Linie zu Hilfe. Es entwickelte sich eine mit äußerster Heftigkeit geführte Schlacht: Die Schiffe tauschten verheerende Breitseiten aus und kollidierten auch teilweise miteinander, was zu erbitterten Enterkämpfen führte. Etwa zwanzig Minuten später erreichte auch die Weather-Column mit der "Victory" an der Spitze die Linie der französisch-spanischen Flotte zwischen der vorausfahrenden "Santissima Trinidad" und der "Bucentaure". Die "Victory" verlor durch den Beschuss der Trinidad ihren Besanmast und einen Teil des Takelwerks. Die "Temeraire" schob sich in die Lücke und deckte so das Flaggschiff, das sonst sicher zerstört worden wäre. Nelson suchte das feindliche Flaggschiff, die "Bucentaure", das jedoch zunächst nicht als solches gekennzeichnet war. Erst als die "Victory" die "Bucentaure" unter schweren Beschuss nahm und hinter dem Heck des feindlichen Schiffes vorbeizog, setzte Villeneuve seine Flagge. Zudem signalisierte er jetzt seiner unbeirrt auf nördlichem Kurs segelnden Vorhut, dass sie wenden und zur Hilfe kommen solle. Admiral Dumanoir, der diese Schiffe kommandierte, reagierte jedoch erst mit einiger Verzögerung auf diesen Befehl. Warum er nicht sogleich wendete, ist unklar, möglicherweise konzentrierte er sich jedoch zu sehr auf die sich von Norden nähernde HMS "Africa", die sich in Richtung Zentrum vorzuarbeiten versuchte. Nelsons Schlachtplan stellte sich also als voller Erfolg heraus: Franzosen und Spanier sahen sich alsbald in einen erbitterten Nahkampf verwickelt und konnten der schneller und zuverlässiger feuernden britischen Artillerie nicht standhalten. Ganz wie vorgesehen schaffte es auch die französische Vorhut nicht mehr rechtzeitig, den bedrängten Schiffen in der Mitte zu Hilfe zu eilen. Das Flaggschiff "Victory" befand sich inmitten der härtesten Kämpfe. Gemeinsam mit der "Neptune" und der "Temeraire" kesselte sie die "Bucentaure" und die "Santissima Trinidad" ein. Nach der weitgehenden Zerstörung des französischen Flaggschiffs, der "Bucentaure", bewegte sich die "Victory" auf die "Redoutable" zu. Als die beiden Schiffe aneinander stießen, eröffneten Scharfschützen aus der Takelage der "Redoutable" das Feuer auf das Deck der "Victory". Nelson wurde von einer Musketenkugel getroffen, die seine Schulter, einen Lungenflügel und die Wirbelsäule in Höhe des sechsten und siebten Brustwirbels durchbohrte und zwei Inches (fünf Zentimeter) unterhalb des rechten Schulterblatts in den Rückenmuskeln stecken blieb. Er wurde unter Deck gebracht, blieb aber noch lange genug bei Bewusstsein, um die Meldung vom überwältigenden Sieg der Briten zu empfangen. Wenig später, gegen 16:30 Uhr, starb er an Bord der "Victory" in Captain Thomas Hardys Armen, während dieser Nelsons letzten Wunsch „Kiss me, Hardy“ erfüllte. Nelsons letzte Worte sollen "„Thank God I have performed my duty“" („Gott sei Dank habe ich meine Pflicht erfüllt“) gewesen sein. Nun übernahm Collingwood das Kommando über die britische Flotte. Am Ende der Schlacht am Abend des 21. Oktober war ein Großteil der napoleonischen Flotte zerstört oder erobert; 17 Schiffe fielen als Prisen in die Hände der Briten. Die Royal Navy hatte nach offiziellen britischen Zahlen 449 Tote und 1241 Verwundete zu beklagen, auf napoleonischer Seite fielen 4408 Seeleute, 2545 wurden verwundet. Villeneuve geriet zusammen mit tausenden seiner Seeleute in Gefangenschaft. Ein verheerender Sturm kurz nach der Schlacht zog viele der ohnehin schwer beschädigten Schiffe noch mehr in Mitleidenschaft: So musste die britische Prisenbesatzung einige davon wieder aufgeben und dem Sinken oder Stranden überlassen, darunter die "Santissima Trinidad". Sie sank mit 150 Verwundeten, nachdem das Schlepptau gekappt worden war. Am Tag darauf ereilte auch die "Redoutable" das gleiche Schicksal. Doch konnte Collingwood alle Schiffe der Royal Navy und die verbliebenen Prisen sicher in britische Häfen bringen. Die meisten übrig gebliebenen Schiffe der napoleonischen Flotte flüchteten nach Cádiz zurück, vier Linienschiffe unter Konteradmiral Dumanoir-Pelley machten sich auf den Weg nach Frankreich. In einem Folgegefecht vor Kap Ortegal am 4. November wurden aber auch sie erobert. Die "Victory" wurde zunächst nach Gibraltar geschleppt; in einem Brandyfass an Bord befand sich Nelsons Leiche. Nach deren Überführung nach London erhielt er ein Staatsbegräbnis und wurde in der St Paul’s Cathedral beigesetzt. Einer Legende zufolge verteilte man den Rum, der seinen Leichnam konserviert hatte, an die Matrosen, die dafür den Namen "Nelson's Blood" („Nelsons Blut“) erfanden. Fazit. Die Schlacht von Trafalgar schaltete Frankreichs Flotte als Rivalin der Royal Navy endgültig aus. Napoleon war fortan nicht mehr in der Lage, die uneingeschränkte Seeherrschaft Großbritanniens zu gefährden. Er musste seine Invasionspläne für die Britischen Inseln aufgeben und sich bei seinen Feldzügen auf das europäische Festland konzentrieren. Dies führte 1812 zu seinem Feldzug gegen Russland, der für sein Heer in einer Katastrophe endete. Admiral Nelson wurde in Großbritannien als nationaler Held gefeiert und durch zahlreiche Denkmäler geehrt. Das bekannteste Monument ist die Nelsonsäule auf dem Trafalgar Square in der Innenstadt von London. Außerdem wurde der Trafalgar Day in Gedenken des Sieges zu einem inoffiziellen Feiertag. Das damalige Flaggschiff der britischen Flotte, die "HMS Victory", lässt sich heute in den Historic Dockyards der südenglischen Hafenstadt Portsmouth besichtigen, vor deren Küste im Sommer 2005 auch die große 200-Jahr-Feier stattfand. Heute ist dieses Schiff immer noch – ganz im Sinne britischer Tradition – offiziell Flaggschiff des Ersten Seelords Ihrer Majestät. Weblinks. Trafalgar Trafalgar Sergei Pawlowitsch Koroljow. Sergei Pawlowitsch Koroljow (, wiss. Transliteration: ', (); *  in Schytomyr, Gouvernement Wolhynien, Russisches Kaiserreich, heute Ukraine; † 14. Januar 1966 in Moskau, UdSSR) war ein sowjetischer Konstrukteur von Raketen und Weltraumpionier. Er spielte eine sehr wichtige Rolle in der Geschichte der Raumfahrt. Unter seiner Leitung wurden im OKB–1 Raketen und Raumschiffe entwickelt. Seine Ideen und sein Führungsstil prägten wesentlich die sowjetische Raumfahrt. Einige seiner Entwicklungen wie die Sojus-Rakete und das Sojus-Raumschiff werden in verbesserter Form noch heute genutzt. Die frühen Jahre. Koroljows Eltern, Maria Nikolajewna Bulanina (geb. Moskalenko) und Pawel Jakowlewitsch Koroljow, beide Lehrer der russischen Sprache, trennten sich bereits drei Jahre nach seiner Geburt. Mütterlicherseits stammte Koroljow aus einer reichen Kaufmannsfamilie, die griechische und kosackische Wurzeln hatte. Väterlicherseits war Koroljow weissrussischer Herkunft. Sergei Koroljow identifizierte sich selbst als Ukrainer, nannte sich jedoch gelegentlich, um Loyalität gegenüber der russischen Kultur zu zeigen, auch Russe. Koroljow wuchs bei seinen Großeltern in Neschin auf. Im Alter von zehn Jahren zog Koroljows Familie nach Odessa, wo er einige Jahre später eine Lehre als Maurer und Dachdecker auf der dortigen Gewerbeschule absolvierte. Schon früh zeigte Koroljow Interesse an der Luftfahrt und arbeitete neben seinem Beruf ab Juni 1923 im örtlichen Segelflugzeugclub OAWUK, wo er auch mit 17 Jahren sein erstes Segelflugzeug "K-5" konstruierte. 1925 begann Koroljow ein Studium am Polytechnischen Institut Kiew. Nebenbei betrieb er weiterhin das Segelfliegen und konstruierte Segelflugzeuge. Als die Kiewer Fakultät geschlossen wurde, wechselte er 1926 an die Moskauer Technische Hochschule MWTU und beendete dort schließlich sein Studium. Zuvor absolvierte er ein Praktikum im ZAGI, wo er mit der Konstruktion von Motorflugzeugen in Kontakt kam. 1927 nahm er erstmals am „Allunions–Segelflugwettbewerb“ auf der Krim teil, eine Veranstaltung vergleichbar mit den deutschen Rhönwettbewerben. 1929 entwickelte und baute er zusammen mit S. N. Ljuschin den Segler "Koktebel". Ebenfalls 1929 entstand unter der Anleitung Andrei Tupolews sein erstes Motorflugzeug SK-4, seine Diplomarbeit. Am 9. Februar 1930 erhielt Koroljow sein Diplom als Ingenieur für Flugzeugbau. Als Flugzeugkonstrukteur entwickelte Koroljow 1930 auch den Segler "Roter Stern", mit dem erstmals in der Sowjetunion mit einem motorlosen Fluggerät ein Looping geflogen werden konnte. Der Pilot war W. A. Stepantschonok. In den 1930er Jahren begann Koroljow im Rahmen der MosGIRD mit dem Bau von Raketen und war dort unter anderem an der Konstruktion und dem Bau der ersten sowjetischen Hybridraketen GIRD-09 und GIRD-X beteiligt. 1933 wechselte er zum Raketenforschungsinstitut (RNII) und wurde 1934 Leiter der Abteilung Raketenflugkörper. Im selben Jahr erschien auch seine wissenschaftliche Abhandlung „Der Raketenflug in die Stratosphäre“. Die Zeit des Großen Terrors. Während der Arbeiten zum raketengetriebenen Segelflugzeug RP-318-I wurde er im Zuge des Großen Terrors am 27. Juni 1938 verhaftet und zu zehn Jahren Arbeitslager verurteilt. Zuvor war er von Walentin Petrowitsch Gluschko denunziert worden, der damit einen möglichen Rivalen ausschalten wollte (Gluschko selbst verbrachte die Jahre von 1938 bis 1944 in Haft). Begründet wurde die Verhaftung Koroljows mit der Anschuldigung, Koroljow habe mit seinen Entwicklungen ein Attentat auf Stalin vorbereiten wollen. Nach Monaten des Transports erreichte er das berüchtigte Lager Maldjak () an der Kolyma, wo er fünf Monate verbrachte. Anschließend wurde er in eine sogenannte Scharaschka geschickt, ein Speziallager für Wissenschaftler. Dieser spezielle Lagertyp wurde von Solschenizyn in dem Roman "Der erste Kreis der Hölle" aus eigener Erfahrung beschrieben. Die Bedingungen dort waren hart. Außerdem musste Koroljow stets damit rechnen, erschossen zu werden. 1942 wurde er in eine „Scharaschka“ nach Kasan transportiert, wo er zusammen mit anderen Wissenschaftlern Motoren für Jagdflugzeuge konstruieren musste. Erst im Juni 1944 wurde er unter der Initiative des Flugzeugbauers Andrei Nikolajewitsch Tupolew wieder freigelassen. Auf dem Weg nach Hause starb er beinahe an Skorbut. Der Chefkonstrukteur. Nach dem Zweiten Weltkrieg stieg er zum Chefkonstrukteur des zunächst nur militärisch orientierten sowjetischen Raketenprogramms innerhalb des NII (Wissenschaftliches Forschungsinstitut) auf. Koroljows Ziel war es, ein ziviles Raketenprogramm zu entwickeln. 1945 wurde er, nunmehr im Range eines Obersts der Roten Armee, mit anderen Ingenieuren und Technikern ins sowjetische Hauptquartier nach Berlin beordert. Er bekam den Auftrag, das deutsche Raketenprogramm zu studieren und Mitarbeiter Wernher von Brauns ausfindig zu machen, die sich nicht in die USA abgesetzt hatten. Von Herbst 1945 an lebte er im thüringischen Bleicherode. Sergei P. Koroljow auf einer sowjetischen Briefmarke (1969) Mit Plänen deutscher Konstruktionen und deutschen Raketenkonstrukteuren kehrte er 1946 in die Sowjetunion zurück. Neben anderen arbeiteten in dieser Zeit der Assistent Wernher von Brauns, Helmut Gröttrup und der Aerodynamiker Werner Albring unter der Leitung Koroljows auf der Insel Gorodomlja (heute Siedlung "Solnetschny") im Seligersee (/') (Oblast Kalinin) an der Entwicklung der Raketentechnik. Anders als die US-Amerikaner, die deutsche Wissenschaftler mit ihrer Operation Overcast in die USA brachten und bereits ab 1946 mit der "Operation Paperclip" (Büroklammer) für die Einbürgerung und den Verbleib der Wissenschaftler in den USA sorgten, schöpfte Koroljow nur deren Wissen ab und nutzte es bei den entscheidenden Schritten für die sowjetische Raumfahrt. Zu den größten Erfolgen Koroljows gehörten die Konstruktion der R-7 – der ersten Interkontinentalrakete der Welt – und der Start des Sputnik 1 1957, vor allem aber der erste Weltraumflug eines Menschen, Juri Gagarin, im Jahr 1961. Im Dezember 1960 erlitt er einen Herzinfarkt, dem weitere folgten. In den kommenden Jahren wurden seine gesundheitlichen Probleme immer gravierender. Am 5. Januar 1966 wurde Sergei Koroljow in ein Moskauer Krankenhaus eingeliefert. Die Ärzte wollten ihm in einer Routineoperation schmerzende Hämorrhoiden entfernen, doch dann entdeckten die Mediziner einen großen Tumor im Dickdarm – Sergei Koroljow hatte Krebs. Koroljow starb am 14. Januar 1966 während einer Operation an Herzschwäche, einer Folge der Zeit im sibirischen Gefangenenlager. Mit der Beisetzung seiner Urne in der Kremlmauer ehrte ihn die sowjetische Regierung. Die Arbeit an der N1-Mondrakete wurde danach von seinem Mitarbeiter Wassili Pawlowitsch Mischin glücklos fortgesetzt. Koroljows Tod war ein herber Rückschlag für das sowjetische Mondprogramm, weil die Sowjetunion keinen vergleichbaren Konstrukteur besaß. Trotz seiner Verdienste blieb er zu seinen Lebzeiten der Öffentlichkeit im Westen fast völlig unbekannt, denn die sowjetische Raumfahrt wurde als militärisches Geheimnis behandelt. Erst anlässlich des Staatsbegräbnisses in Moskau wurde der Westen auf Koroljow aufmerksam. Die Einfachheit war sein Lebensprinzip. Ihm wird das Zitat zugeschrieben: „Je einfacher eine Konstruktion ist, desto genialer ist sie. Kompliziert bauen kann jeder.“ Der 1969 entdeckte Asteroid (1855) Korolev ist nach Koroljow benannt. Für seine Verdienste um die Raumfahrt wurde er mit der Ziolkowski-Medaille ausgezeichnet. Literatur und Film. Ersttagsbrief zum 80. Geburtstag Koroljows (1987) Im sowjetischen Spielfilm "Bändigung des Feuers" () von 1972, der die Frühzeit des sowjetischen Raumfahrtprogramms beschreibt, diente Koroljow als Vorlage für die Rolle des Andrei Baschkirzew. In der Serie Stargate ist das russische Raumschiff Korolev nach ihm benannt. Vierteilige Spiegel-TV-Serie „Die Eroberung des Himmels – Der Kalte Krieg um die Vorherrschaft im All“, veröffentlicht als Spiegel-DVD Nr. 8 als kostenlose Beigabe zur Ausgabe 39/2007 Wettlauf zum Mond September. __NOTOC__ Der September ist der neunte Monat des Jahres im gregorianischen Kalender und hat 30 Tage. Am 22. oder 23. September ist die Tagundnachtgleiche: die Sonne steht in der Äquatorebene der Erde und geht an diesem Tag genau im Osten auf und genau im Westen unter. An einem dieser zwei Tage beginnt, astronomisch gesehen, der Herbst. Historische deutsche Namen für den September sind "Scheiding", "Herbstmond", "Herbsting", "Holzmonat" und "Engelmonat". Im römischen Kalender war der September ursprünglich der siebte Monat (lat. "septem" = sieben). 153 v. Chr. wurde der Jahresbeginn jedoch um zwei Monate vorverlegt, sodass die Beziehung zwischen Name und Monatszählung verloren ging. Dies wird manchmal bei der Übertragung früher verwendeter lateinischer Datumsangaben („9ber“ und „7ber“) übersehen. Umbenennungen im römischen Reich. In der römischen Provinz Kleinasien galt der September als erster Monat des Jahres, weil da Kaiser Augustus Geburtstag hatte (eine kuriose Marginalie der Weltgeschichte. Diese lokale Tradition wurde später im Byzantinischen Reich übernommen und galt auch in Russland bis 1700; erst danach schloss man sich den allgemeinen Regeln für den Jahresbeginn an). Als der Senat vorschlug, den September zu Ehren des Kaisers Tiberius ebenfalls umzubenennen (wie zuvor den Juli nach Julius Caesar und den August nach Augustus), lehnte Tiberius mit der Frage ab, was denn dann mit dem dreizehnten Caesar sei. Als man später vorschlug, der Monat September solle wiederum nach ihm in "Tiberius" und der Monat Oktober nach seiner Mutter Livia Drusilla in "Livius" umbenannt werden, lehnte Tiberius erneut ab, um diesmal nicht eine Gleichrangigkeit mit seiner Mutter akzeptieren zu müssen. Caligula benannte im Jahr 37 den September dann nach seinem Vater in "Germanicus" um. Damit erreichte der Kaiser, dass sich sein vollständiger Name "Gaius Caesar Augustus Germanicus" in der Monatsfolge "(Gaius)–Julius–Augustus–Germanicus" widerspiegelte. Diese vorgetäuschte Ehrung des berühmten Feldherrn hatte freilich nicht Bestand, denn nach Caligulas Tod erhielt der September seinen alten Namen zurück. Zur Regierungszeit Kaiser Domitians wurde der Monat erneut in "Germanicus" umbenannt, was sich abermals nicht durchsetzte. Zum Regierungsantritt von Antoninus Pius schlug der Senat diesmal eine Umbenennung in "Antoninus" vor, doch lehnte der Kaiser ab. Unter Commodus hieß hingegen der September "Augustus" und der August wurde ihm zur Ehren in "Commodus" umbenannt. Und schließlich wollte 275 der Senat den September in "Tacitus" umbenennen (Geburtsmonat von Kaiser Tacitus), was sich aber wie all die anderen Umbenennungen nicht durchsetzte. Der September beginnt mit dem gleichen Wochentag wie der Dezember. Feiertage und Veranstaltungen im September. In Liechtenstein ist Mariä Geburt am 8. September ein gesetzlicher Feiertag. In der deutschsprachigen Schweiz ist der Mauritiustag am 22. September ist im Kanton Appenzell Innerrhoden und das Bruderklausenfest am 25. September im Kanton Obwalden ein gesetzlicher Feiertag. Im französischsprachigen Kanton Genf ist der Donnerstag nach dem ersten Sonntag im September als Genfer Bettag ebenfalls ein gesetzlicher Feiertag. In Österreich ist der einzige Feiertag dieses Monats der regionale Rupertikirtag am 24. September. Er wird zum Gedenken des heiligen Rupert von Salzburg im Land Salzburg gefeiert. Allerdings ist es ein Feiertag nach Landesrecht, der nur Schulen, sowie einige Ämter und Behörden betrifft. In Deutschland gibt es im September keine gesetzlichen Feiertage. Doch wird seit 1993 am zweiten September-Sonntag im Rahmen der European Heritage Days der Tag des offenen Denkmals unter dem Leitspruch "Geschichte zum Anfassen" abgehalten. Weitere spezielle Tage finden sich in der Liste der Gedenk- und Aktionstage. In München beginnt traditionsgemäß seit 1872 das Oktoberfest in der zweiten Hälfte des September. Stefan Banach. Stefan Banach (; * 30. März 1892 in Krakau; † 31. August 1945 in Lemberg) war ein polnischer Mathematiker. Er gilt als Begründer der modernen Funktionalanalysis und als einer der Hauptvertreter der Lemberger Mathematikerschule. Leben. Banachs Vater war Stefan Greczek (was nicht völlig gesichert ist), seine Mutter Katarzyna Banach, die mit Stefan Greczek nicht verheiratet war. Er wuchs in einer Pflegefamilie auf (bei Franciszka Płowa und ihrer Tochter, Maria Puchalska). Von 1902 bis 1910 besuchte er das Vierte Gymnasium in Krakau. Nach der Matura arbeitete er in einer Krakauer Buchhandlung und studierte gleichzeitig als Autodidakt Mathematik. Zwischen 1911 und 1913 war er Student am Polytechnikum in Lemberg und legte dort ein Teilexamen ab, das so genannte Halbdiplom (Vordiplom). Nach Ausbruch des Ersten Weltkriegs arbeitete er als Aufseher beim Straßenbau. Für den Wehrdienst war er aufgrund seiner Kurzsichtigkeit untauglich. Nach seiner Rückkehr nach Krakau verdiente er seinen Lebensunterhalt mit Nachhilfestunden. Er studierte weiterhin Mathematik auf eigene Faust. Im Jahre 1916 lernte der Mathematiker Hugo Steinhaus Stefan Banach kennen und begann, sich für ihn zu interessieren. Ihre Bekanntschaft mündete in einer gemeinsamen Publikation und langjährigen Zusammenarbeit. Nach seiner ersten Publikation reichte Banach stetig weitere mathematische Arbeiten ein. Durch Steinhaus' Bemühungen erhielt Banach von 1920 bis 1922 eine Assistenzstelle bei Antoni Łomnicki am Lehrstuhl für Mathematik in der Abteilung für Mechanik des Polytechnikums Lemberg. 1922 legte er an der Jan-Kazimierz-Universität in Lemberg seine Doktorprüfung ab. Der Titel seiner Doktorarbeit war "„Sur les opérations dans les ensembles abstraits et leur application aux équations intégrales“" (Über Operationen in abstrakten Mengen und ihre Anwendung auf Integralgleichungen; "Fundamenta Mathematicae 3", 1922). Mit den fundamentalen Sätzen, die diese Arbeit enthält, schuf er ein neues Gebiet der Mathematik, die Funktionalanalysis. Das Grab Stefan Banachs auf dem Lytschakiwski-Friedhof in Lemberg (heute Lviv in der Ukraine) Er habilitierte im Jahre 1922 an der Universität Lemberg (Beschluss des Abteilungsrates vom 30. Juni) und wurde dort am 22. Juli des gleichen Jahres außerordentlicher Professor. 1927 wurde er Ordinarius. Zwischen 1922 und 1939 war er Inhaber des zweiten Lehrstuhls für Mathematik an der Universität Lemberg. Er galt dort als Exzentriker: statt in seinem Büro zu arbeiten, saß Banach meist im örtlichen „Schottischen Café“, um seine Notizbücher mit Ideen zur Funktionalanalysis zu füllen – daher tragen seine Notizen aus dieser Zeit auch den Namen „schottische Notizbücher“. 1924 wurde er korrespondierendes Mitglied der Polnischen Akademie der Wissenschaften, ab 1931 war er ordentliches Mitglied der Warschauer Wissenschaftlichen Gesellschaft. In der Wissenschaftlichen Gesellschaft Lemberg war er ab 1923 angenommenes, ab 1927 aktives Mitglied. Von 1932 bis 1936 war er Vizepräsident, von 1939 bis 1945 Präsident der polnischen mathematischen Gesellschaft, zu deren Gründungsmitgliedern er 1919 gehörte. 1930 erhielt er den Wissenschaftspreis der Stadt Lemberg. In den Jahren 1936 bis 1939 war er Vizepräsident des Mathematischen Komitees des Rates für exakte und angewandte Wissenschaften. 1936 hielt er einen Plenarvortrag auf dem Internationalen Mathematikerkongress in Oslo ("„Die Theorie der Operationen und ihre Bedeutung für die Analysis“"). 1939 sprach ihm die Polnische Akademie der Wissenschaften ihren großen Preis zu. Nach dem Einmarsch der Rote Armee im gleichen Jahr wurde er korrespondierendes Mitglied der Akademie der Wissenschaften der Ukrainischen Sowjetrepublik und blieb an der Lemberger Universität als Inhaber des ersten Lehrstuhls für Mathematische Analysis und Dekan der Mathematisch-Physikalischen Fakultät dieser Universität (1939–1941). Unter der deutschen Besatzung musste er den Lebensunterhalt für sich und seine Gattin Łucja sowie seinen Sohn Stefan (später ein bekannter Neurochirurg) verdienen, indem er an Rudolf Weigls Institut für Bakteriologie Blut für die Fütterung von Läusen spendete, die dann für Fleckfieber-Experimente genutzt wurden. Nachdem die Rote Armee im Jahre 1944 erneut Lemberg eingenommen hatte, wurde er wieder Mathematikprofessor. Am 31. August 1945 verstarb er in Lemberg an Lungenkrebs und wurde im Riedl-Monument auf dem Lytschakiwski-Friedhof in Lemberg bestattet. Werk. Seine ersten Arbeiten widmete er unter anderem den Fourierreihen. In der ersten gemeinsam mit Steinhaus verfassten Arbeit behandelte er die Frage nach der Konvergenz im Mittel der Teilsummen einer Fourierreihe und konnte sie definitiv negativ beantworten. Außerdem arbeitete er über orthogonale Funktionen und Reihen, die Maxwell-Gleichungen, Ableitungen messbarer Funktionen und über Maßtheorie. In seiner Doktorarbeit und in der Monographie „Théorie des opérations linéaires“ (Theorie der linearen Operationen) definierte er axiomatisch diejenigen Räume, die später nach ihm benannt wurden, die Banachräume. Stefan Banach legte die endgültigen Grundlagen zur Funktionalanalysis und bewies viele fundamentale Sätze, etwa den Satz von Hahn-Banach, den Fixpunktsatz von Banach und den Satz von Banach-Steinhaus. Er führte die entsprechende Terminologie ein, die heute auf der ganzen Welt in der Funktionalanalysis verwendet wird, und hielt die erste Vorlesung auf diesem Gebiet. 1924 formulierte er zusammen mit seinem polnischen Kollegen Alfred Tarski einen Satz, der als Banach-Tarski-Paradoxon berühmt wurde, ein wichtiger Beitrag zur Mengenlehre. Banach schrieb über sechzig wissenschaftliche Arbeiten und fand zahlreiche neue Lehrsätze, die sich als von fundamentaler Bedeutung für viele Gebiete der Mathematik erwiesen. Banachs Arbeitsstil, seine außergewöhnliche wissenschaftliche Intuition, seine Direktheit und Offenheit erlaubten ihm, zusammen mit Steinhaus die mathematische Schule von Lemberg zu begründen. Banach galt als exzellenter Dozent und war auch Autor vieler Lehrbücher, darunter sogar Schulbücher für Mittelschulen. Sprache. Unter Sprache versteht man die Menge, die als Elemente alle "komplexen Systeme der Kommunikation" beinhaltet. Der Term wird meist verwendet, um anzuzeigen, dass konkrete Zeichensysteme Elemente dieser Menge sind (z. B. die deutsche "Sprache", die Programmier"sprache" Basic); umgekehrt, um anzuzeigen, dass diese konkreten Zeichensysteme den Eigenschaften einer Definition des Begriffs „Sprache“ genügen. Eine andere Definition ist: Sprachen sind. Es werden zahlreiche Einzelsprachen unterschieden. Zudem werden sie auf unterschiedlicher Weise unterteilt (z. B. in konstruierte Sprachen und natürliche Sprachen). Beispiele unter Menschen sind die Lautsprache und die Körpersprache (Unterschied aufgrund akustischer bzw. optischer Informationsübertragung). Die wissenschaftliche Disziplin, die sich mit der menschlichen Sprache in umfassender Weise beschäftigt, ist die Linguistik (Sprachwissenschaft). Auch im Tierreich existieren Zeichensysteme und kommunikative Handlungen, die als Sprache bezeichnet werden. Sprache und Sprachverwendung sind auch Inhalt anderer Wissenschaften wie Psychologie, Neurologie, Kognitionswissenschaft, Kommunikationswissenschaft, Rhetorik, Philosophie (Sprachphilosophie), Medienwissenschaft, Semiotik, Literaturwissenschaft, Sprechwissenschaft, Religionswissenschaft, Theologie, Anthropologie und Ethnologie. Einzelsprachen. Im speziellen Sinn bezeichnet das Wort "Sprache" eine bestimmte Einzelsprache wie Deutsch, Japanisch oder Swahili etc. Die gesprochenen Sprachen der Menschheit werden gemäß ihrer genetischen Verwandtschaft in Sprachfamilien gegliedert. Jede einzelne Sprache wird dabei anhand der sogenannten "Language Codes" nach den ISO-639-Teilnormen international eindeutig klassifiziert. Von den heute rund 6500 gezählten Einzelsprachen – laut "National Geographic Society" seien 2005 weltweit sogar 6912 Sprachen aktiv verwendet worden – sind mehr als die Hälfte vom Aussterben bedroht, da sie kaum noch gesprochen und häufig auch nicht mehr an Kinder weitergegeben werden. Man vermutet, dass daher in den nächsten 100 Jahren ein großer Teil der heute noch vorhandenen Sprachen verschwinden wird. Derzeit werden die häufigsten 50 Sprachen von rund 80 Prozent der Menschheit als Muttersprache (und von rund 90 % auch als Zweitsprache) gesprochen, alle anderen (noch) existierenden Sprachen von den restlichen 20 Prozent der Menschen. Aus ethnologischer und soziolinguistischer Sicht werden die vom Menschen im Alltag verwendeten Sprachen hinsichtlich ihrer Entstehung in natürlich entstandene ethnische Sprachen und in bewusst ausgearbeitete, also konstruierte Plansprachen geteilt. Ein Beispiel einer typischen und auch weitverbreiteten Plansprache ist Esperanto. Ethnische Sprachen und Plansprachen können auch nahe beieinanderliegen, so etwa im Falle des Deutschen in der Bibelübersetzung von Martin Luther. Diese Varietät des Deutschen stellte insofern eine Plansprache dar, als es sich um eine konstruierte Form handelte, die allerorten verstanden werden sollte. In der Folge wurde diese „geplante“ Variante des Deutschen letztlich zur Verkehrssprache und wird heute als natürliche Sprache wahrgenommen. Varianten von ethnischen Sprachen werden im Zuge von sprachpolitischen Maßnahmen manchmal zu einer Varietät nach Plan „vereinheitlicht“, wie etwa im Falle des Ladinischen in Südtirol/Norditalien. Konstruierte und formale Sprachen. Anders als die natürlichen Einzelsprachen sind formale Sprachen durch Logik und Mengenlehre beschreibbar (aufzählbare Menge von Basisausdrücken, klare Regeln der Komposition, wohlgeformte Ausdrücke). Sie finden z. B. in der theoretischen Informatik, vor allem bei der Berechenbarkeitstheorie und dem Compilerbau Anwendung. Programmiersprachen wie ALGOL, APL, Fortran, COBOL, BASIC, C, C++, Ada, Lisp, Prolog, Python, Java, Perl u. a. sind für bestimmte Zwecke konstruiert und beruhen auf theoretischen sowie pragmatischen Überlegungen. Der Mathematiker Paul Lorenzen verfolgte mit seinem Projekt des Orthosprachenprogramms die Konstruktion einer eindeutigen und methodisch aufgebauten Wissenschaftssprache, was aber selbst „in der methodischen Philosophie höchst umstritten“ war. Die Beschreibungsprinzipien der formalen Logik werden auch auf die natürliche Sprache angewendet; Pionierarbeit hat dazu der amerikanische Logiker Richard Montague geleistet. Die menschliche gesprochene Sprache als Zeichensystem. Auch die menschliche gesprochene Sprache kann als Zeichensystem (siehe Semiotik) verstanden werden, bestehend aus einer Vielzahl von Zeichen, die eine Bedeutung haben (siehe Semantik), welche mittels grammatikalischer Regeln (Syntaktik) zu unendlich vielen Aussagen verknüpft werden können. Ferdinand de Saussure konzipierte das Sprachzeichen als zwingende Verbindung von Lautbild (signifiant = das Bezeichnende) und Vorstellung (signifié = das Bezeichnete), also als etwas Mentales. Sprache als „Instinkt zu lernen“. Bereits Darwin unterschied zwischen der biologischen Fähigkeit des Menschen, die ihm ermöglicht, Sprache zu erwerben, und bestimmten Sprachen als solchen. Diese theoretische Unterscheidung wird von der modernen Kognitionsbiologie übernommen. Babys haben einen Instinkt zu brabbeln, müssen aber Sprache lernen. Für den Ethologen Peter Marler war daher Sprache wie für Darwin kein Instinkt, sondern „Sprache ist ein Instinkt zu lernen, deren Ausdruck beinhaltet, dass sowohl biologische als auch externe Voraussetzungen erfüllt sind“. Auf diesen „Instinkt“, Sprache zu lernen, ist die biologisch evolutionäre Erforschung der Sprachfähigkeit gerichtet. Ein wichtiges sprachbezogenes Gen, das in diesem Umfeld entdeckt wurde, ist FOXP2, ein phylogenetisch alter Transkriptionsfaktor, der für die flexibel oral-motorische Stimmkontrolle eine Rolle spielt. FOXP2 erfuhr bei der Gattung Mensch vor mindestens 400.000 Jahren eine entscheidende Mutation, was man daraus schließt, dass der Neandertaler dasselbe Allel besitzt. Für simple Aspekte der Syntax wurde ein Satz von 4 charakteristischen Genen identifiziert. Anatomie. Die vorherrschende Ansicht zur evolutionären Sprachfähigkeit des Menschen war bis etwa 2010, dass den anatomisch modernen Menschen ("Homo sapiens") sein Sprechvermögen von den Menschenaffen unterscheide. Variationsreiche Sprache wurde demnach erst durch anatomische Veränderungen im Laufe der Stammesgeschichte des Menschen möglich. Wie ausgeprägt das Sprechvermögen beim gemeinsamen Vorfahren von Neandertaler und "Homo sapiens", dem "Homo erectus", entwickelt war, ist unbekannt. Ebenso ist unbekannt, wie „fortgeschritten“ das morphologische und funktionale Potential für differenzierte sprachliche Kommunikation beim Übergang von "Homo erectus" zum frühen anatomisch modernen Menschen war. Die Vergrößerung des Rachenraumes (als Resonanzkörper), die Absenkung des Kehlkopfes und die bereits beim "Homo erectus" beginnende Aufwölbung des Gaumens wurden als Notwendigkeit zur größeren Bewegungsfreiheit der Zunge gesehen. Im Zusammenwirken von Rachenraum, Mund- und Nasenhöhle, Gaumensegel, Lippen und Zunge kann danach der von den Stimmbändern erzeugte Grundton zu Vokalen und Konsonanten moduliert werden. Schädelfunde belegen, dass die Aufwölbung des Gaumens und die Absenkung des Kehlkopfes vor etwa 100.000 Jahren abgeschlossen waren. In der Kebara-Höhle bei Haifa in Israel wurde bei einem etwa 60.000 Jahre alten Skelett eines Neandertalers ein Zungenbein gefunden, was den Schluss zulässt, dass dieser Mann zur Lautsprache fähig war. Anthropologen aus Durham vermuten, dass die Vorfahren der Neandertaler bereits vor mehr als 300.000 Jahren sprechen konnten. Sie verglichen die Größe des „Canalis nervi hypoglossi“, einer Öffnung in der Schädelbasis, in Schädeln des modernen Menschen mit verschiedenen Fossilien. Nach Ansicht dieser Anthropologen ist ein großer Nervus hypoglossus die Voraussetzung für eine differenzierte Sprache. Durch diese Öffnung an der Schädelbasis verläuft der Nerv, über den das Gehirn die Zungenbewegung steuert. Wissenschaftler stellten fest, dass der Canalis nervi hypoglossi bei Neandertalern ähnlich groß war wie beim heutigen Menschen. Bei den Vormenschen der Gattung "Australopithecus", die vor rund zwei Millionen Jahren lebten, ist er dagegen deutlich kleiner. Jüngere Forschungsergebnisse belegen, dass die Absenkung des Kehlkopfs kein allein menschliches Merkmal war, sondern im Tierreich vielfach vorkam, etwa beim Rothirsch oder Wapiti-Hirsch. Gleichzeitig wird die früher geleugnete Dynamik und Rekonfigurierbarkeit des Stimmumfangs heute in empirischen Untersuchungen für Tiere bestätigt, etwa bei vielen Säugetieren wie Hunden, Ziegen, Robben, ferner auch bei Alligatoren. Wegen der phylogenetisch unterschiedlichen Abstammung der genannten Artenbeispiele wird angenommen, dass die Absenkung des Kehlkopfs ein evolutionär frühes Merkmal war. Die Gründe dafür können, etwa beim Hirsch, in sexueller Selektion durch tieferliegende Vokalisation liegen. Die Lernfähigkeit für Gesang ist auch Vögeln eigen. Diese Erkenntnisse bedeuten, dass erstens der Vokaltrakt zu jedem Zeitpunkt der Primatenevolution ausreichend flexibel für komplexe Sprachentwicklung war und zweitens Fossilfunde von Menschenvorfahren wenig Hinweise für die Sprachfähigkeit liefern. Die evolutionären Voraussetzungen für Sprache werden heute vielmehr in der neurologischen Kontrolle bzw. in neurologischen Mechanismen und weniger in der Anatomie des Vokaltrakts gesehen. Neuronale Voraussetzungen. Während Sprache früher als monolithische Einheit behandelt wurde, zerlegt die Kognitionsbiologie heute kognitive Sprachvoraussetzungen in trennbare Komponenten und analysiert diese komparativ bei verschiedenen Tierstämmen. Als Voraussetzungen für die Evolution von Sprache werden dabei gesehen: Soziale Intelligenz, Imitation, Blickkontakt-Sensitivität, räumliche Blickfolgefähigkeit sowie die Theory of Mind. Diese Mechanismen formen Kernelemente tierischen sozialen Verhaltens. Unsere Fähigkeit, Gedanken sozial auszutauschen, erlaubt menschlichen Kulturen, Wissen auf eine Weise anzuhäufen, die ohne Sprache nicht möglich wäre. Vorstufen der Sprache wurden in den vergangenen Jahren empirisch erforscht. Nach heutigem Forschungsstand existiert keine evolutionär lineare Höherentwicklung der Sprache mit zunehmender Annäherung von Tierstämmen an den Menschen. Bei Vögeln werden in Tests ähnliche kognitive, voraussetzende Fähigkeiten gesehen wie bei Primaten. Protosprachenmodelle. Die Sprachevolution erforscht Modelle von Protosprachen. Protosprache unterscheidet sich von Ursprache und meint alternative Kommunikations-Urformen (Modelle), aus denen die Ursprache, falls existent, erst entstehen konnte. Es werden drei Modelle unterschieden: das lexikale Modell, das gestische Modell und das musikalische Modell. Alle Modelle sollten auf drei Komponenten der Sprache Antworten liefern, Signale, Syntax und Semantik. Diese Komponenten können als evolutionäre Schlüsselinnovationen betrachtet werden, die seit der Abspaltung des Menschen vom letzten gemeinsamen Vorfahren evolviert sind. Die lexikale Protosprache enthielt gesprochene Wörter. Syntax als Innovation kam später hinzu, Ihr Entstehen, vor allem im Hinblick auf mehrere semantische Hierarchien, ist unklar, ebenso noch immer die kognitiven Mechanismen, um bei mehrdeutigen Worten eindeutige Wortmeinung im Sprachkontext eindeutig zu interpretieren. Situativ wechselnde Alarmrufe der südlichen Grünmeerkatze können als Beispiel für einen Urzustand lexikaler Protosprache sein, die Rufe sind aber nicht erlernt im Sinne des Sprachlernens. Die lexikale Protosprache hat auch nicht die Eigenschaft der Absicht für Informationsübermittlung. Das gestische Modell nimmt an, dass Sprache aus Zeigegesten entstanden ist. Zeichensprache kann heute eine vollständige Sprache sein mit Syntax und Semantik. Menschenaffen beherrschen Zeigegesten besser als Sprache. Dann stellt sich die Frage, warum dieses Modell durch Sprache abgelöst wurde. Das musikalische Modell geht auf Charles Darwin zurück. Darwin nahm an, das Vogelgesänge und Sprache eine gemeinsame evolutionäre Wurzel besitzen. Darwin erkannte bereits die mehreren Komponenten der Sprache. Das Modell erfährt wieder zunehmende Anerkennung, kann aber nicht das Entstehen von Semantik innerhalb von Melodien erklären. Musik mit Instrumenten lässt sich beim Homo sapiens etwa 40.000 Jahre zurückverfolgen. Alle drei genannten Modelle können einen analogen oder konvergente Ursprünge haben; im ersten Fall ist eine Protoform einmal entstanden, im zweiten Fall mehrmals unabhängig. Die kommunikative Funktion von Sprache. Sprache ist Träger von Sinn und Überlieferung, Schlüssel zum Welt- und Selbstverständnis sowie zentrales Mittel zwischenmenschlicher Verständigung. Nach der Definition von Edward Sapir (1921) ist Sprache „eine ausschließlich dem Menschen eigene, nicht im Instinkt wurzelnde Methode zur Übermittlung von Gedanken, Gefühlen und Wünschen mittels eines Systems von frei geschaffenen Symbolen“. Viele Medientheorien – vor allem die technischen – fassen Sprache nicht als Medium, sondern als Kommunikationsinstrument auf, d. h. als neutrale Ermöglichungsbedingung für die eigentlichen Medien. Sprache dient solchen Auffassungen nach lediglich der Repräsentation oder auch Übermittlung mentaler Entitäten (Konzepte, Begriffe), wobei letztere als unabhängig von der Sprache gedacht werden. Man spricht deshalb von Repräsentationsmitteln. Sprache als Medium des Denkens. Geschriebene und gesprochene Sprache ist ein "Medium des Denkens und der Weltauffassung schlechthin": Diese Definition, wie sie zuerst Wilhelm von Humboldt vorlegte, geht davon aus, dass Sprache für alle komplexeren Tätigkeiten und Denkvorgänge des Menschen unverzichtbar ist. Sprache ist damit nicht erst ein „nachträgliches“ Mittel zur Verständigung zwischen Menschen, sondern jede Auffassung von Dingen und Sachverhalten in der Welt ist schon sprachlich strukturiert. Dinge und Sachverhalte werden durch die sprachliche Auffassung der Welt in Sinnzusammenhänge gebracht. Der Mensch lebt demnach nicht in einer sinnlich aufgefassten Welt, über die er sich erst nachträglich und gelegentlich mittels Sprache verständigt, sondern er lebt und arbeitet „in der Sprache“. Sprache und Macht. Sprache kann zur Einschüchterung und zum Erhalt von Macht eingesetzt werden (z. B. Mobbing, Denunziation, Demütigung). Als Unterdrückungsmechanismen in der mündlichen Kommunikation stellte Berit Ås die fünf Herrschaftstechniken heraus. Der Verweis auf solche Wirkungen bestehenden Sprachgebrauchs kann es erlauben, einen solchen Zusammenhang überhaupt erst thematisierbar zu machen. Ein bekanntes Beispiel aus der Literatur für den Versuch, durch Sprache Einfluss auf das Denken der Bevölkerung auszuüben, ist der 1949 veröffentlichte Roman „1984“ von George Orwell. In diesem Werk wird ein fiktives diktatorisch herrschendes Regime beschrieben, das eine vorgeschriebene konstruierte Sprache namens „Neusprech“ einsetzt, um die Kommunikation und das Denken der Bevölkerung in enge, kontrollierte Bahnen zu lenken. Der Psychologe Steven Pinker betrachtete die so genannte „euphemism treadmill“ (Euphemismus-Tretmühle) – den Effekt, dass euphemistische Neologismen alle negativen Assoziationen der Wörter aufnahmen, die sie ersetzten. Ein deutsches Wort in diesem Zusammenhang ist das euphemistische Wort „Restrukturierung“, welches das Wort „Schließung von Betrieben und Einrichtungen“ ersetzen sollte, dabei jedoch den negativen Charakter übernahm. Körpersprache. Als Körpersprache oder nonverbale Kommunikation (Verständigung ohne Worte) wird jener Teil der zwischenmenschlichen Kommunikation bezeichnet, der nichtsprechend erfolgt. Träger entsprechender Botschaften sind Gestik, Mimik, Blickkontakt oder nichtsprachliche Lautierungen wie beispielsweise das Lachen, aber auch psycho-vegetative Äußerungen wie Erröten sowie die Gestaltung des Erscheinungsbilds durch Kleidung, Accessoires, Frisur, u. a. Gebärdensprache. Eine Gebärdensprache ist eine visuell wahrnehmbare und manuell produzierte natürliche Sprache, die insbesondere von nicht hörenden und schwer hörenden Menschen zur Kommunikation genutzt wird: sie besteht aus einer Verbindung von Gesichtsmimik, lautlos gesprochenen Wörtern und Körperhaltung. Die verschieden kombinierten Elemente werden in Sätzen und im Diskurs in einer bestimmten Reihenfolge aneinander gereiht. Sprachwissenschaft. Die Wissenschaft, die sich mit allen Aspekten von Sprache und Sprachgebrauch sowie mit einzelnen konkreten Sprachen befasst, ist die Linguistik oder Sprachwissenschaft. Dabei untersucht die Allgemeine Linguistik die menschliche Sprache als System und allgemeine Prinzipien, Regeln und Bedingungen von Sprache. Die Angewandte Linguistik behandelt Themen, die in Zusammenhang mit dem konkreten Gebrauch von Sprache stehen. Die Historische Linguistik befasst sich mit der Entwicklung und der genetischen Verwandtschaft von Sprachen, mit der Entwicklung und Veränderung von einzelnen Sprachelementen sowie mit Sprachwandel generell. Die Vergleichende Sprachwissenschaft erarbeitet Unterschiede und Gemeinsamkeiten zwischen Sprachen, klassifiziert sie nach bestimmten Kriterien und versucht Sprachuniversalien, also Eigenschaften, die alle oder sehr viele Sprachen gemeinsam haben, zu eruieren. Innerhalb der Sprachwissenschaft existiert eine Vielzahl von größeren und kleineren Teilgebieten, die sich mit speziellen Aspekten von Sprache befassen, so etwa mit gesprochener und geschriebener Sprache, mit dem Zusammenhang zwischen Sprache und Denken, Sprache und Realität (siehe Sprachphilosophie) oder Sprache und Kultur. Der Gebrauch von Sprache unter normativen Aspekten wird beschrieben in Wörterbüchern (Rechtschreibwörterbüchern, Stilwörterbüchern etc.) und in Gebrauchsgrammatiken. Sprache im Tierreich. Tiere kommunizieren mit Hilfe ihrer körpersprachlichen Signale, Duftstoffen, Lauten, ihrer Farbgebung, u. a. Die entsprechenden Signale im Tierreich sind in der Regel festgelegt; sie können nicht ohne Weiteres zu neuen Bedeutungen bzw. Aussagen frei kombiniert werden. Einige Tiere können Lautfolgen wie Menschen bilden, ggf. also sprachliche Äußerungen von Menschen "nachahmen" (Papageien, Robben, Delfine, Raben, Elefanten). Der Schwänzeltanz der Bienen wird oft Bienen- oder sogar Tanzsprache genannt; es ist allerdings fraglich, ob und ggf. wieweit in dem damit gemeinten, real instinktiv geregelten Signalverhalten eine Ähnlichkeit zur menschlichen Sprache besteht. Ob Vögel, Delfine oder Primaten eine der menschlichen Lautsprache ähnliche "Sprache" kennen und mit ihrer Hilfe wechselseitig kommunizieren, wird diskutiert. Es handelt sich hier allem Anschein nach lediglich um einen eingliedrigen und einseitigen Signalgang zwischen Sender und Empfänger, wie Tierhalter ihn sich bei der Dressur beispielsweise von Hunden zunutze machen. Sehnerv. Horizontalschnitt durch das menschliche (rechte) Auge, Sehnerv unten Verlauf des Sehnervs zwischen Bulbus und Chiasma (in Wirklichkeit leicht S-förmig) Der Sehnerv enthält etwa eine Million Nervenfasern, die Fortsätze (Axone) der Ganglienzellen der Netzhaut ("Retina"). Die nasale Hälfte der Fasern, die die Signale der nasalen Netzhauthälfte transportiert, kreuzt in der Sehnervenkreuzung ("Chiasma opticum") zum "Tractus opticus" der anderen Seite, so dass die Signale aus dem linken Gesichtsfeld zur rechten Gehirnhälfte gelangen und umgekehrt. Vom Eintritt in den Sehnerv an sind die Nervenfasern einzeln von den Myelinhüllen der Oligodendrozyten umgeben, die zu einer erhöhten Leitungsgeschwindigkeit führen, bei Schädigung aber eine Regeneration verhindern. Auch zahlreiche Astrozyten finden sich in der Umgebung der Axone. Das Nervengewebe ist umgeben von einer derben Hülle, die eine kontinuierliche Fortsetzung der harten Hirnhaut (Dura mater) darstellt und vorn nahtlos in die Sklera übergeht. Etwa mittig im Sehnerv verlaufen die Arteriola und Venola centralis retinae, die der Versorgung der inneren Netzhautschichten mit Blut dienen. Erkrankungen des Sehnervs führen häufig zu Gesichtsfeldausfällen des betroffenen Auges. Zu den häufigen Krankheiten des Sehnervs zählen Grüner Star (Glaukom), Optikusatrophie und Neuritis nervi optici. Sehnerv und Netzhaut sind Teile des Gehirns und regenerieren sich daher nicht nach Schädigungen. Ophthalmologische Überprüfung. Die Austrittsstelle des Sehnervs aus dem Bulbus, die "Papille" (Papilla nervi optici), kann direkt mit dem Augenspiegel betrachtet werden. Zur Abgrenzung von Sehnervenerkrankungen von Erkrankungen an anderen Stellen der Sehbahn dient häufig die Perimetrie, d. h. die Bestimmung des Gesichtsfelds. Mit Hilfe der visuell evozierten Potentiale (VEP) lässt sich die Leitgeschwindigkeit des Sehnervs überprüfen. Als bildgebende Verfahren in der Augenhöhle und dahinter stehen Ultraschall, Computertomogramm und Magnetresonanztomographie zur Verfügung. Sehnervenfaser-Messung. Eine Sehnervenfaser-Messung wird von vielen deutschen Augenärzten als individuelle Gesundheitsleistung (IGeL-Leistung) angeboten bzw. beworben. Dabei wird die gemessene Schichtdicke mit altersabhängigen Standardwerten verglichen. Senegal. Der Senegal () ist ein Staat in Westafrika. Er erstreckt sich von den Ausläufern der Sahara im Norden, wo das Land an Mauretanien grenzt, bis an den Beginn des tropischen Feuchtwaldes im Süden, wo die Nachbarn Guinea und Guinea-Bissau sind, sowie von der kühlen Atlantikküste im Westen in die heiße Sahel-Region an der Grenze zu Mali. Die südlichen Landesteile des französischsprachigen Senegal, die Casamance, werden durch den tief in den Osten reichenden englischsprachigen Kleinstaat Gambia abgetrennt. Das Gebiet des Senegal ist bereits seit dem 12. Jahrhundert ein Teil der islamischen Welt und auch heute bekennen sich mehr als 90 % der 12 Millionen Einwohner des Landes zum Islam. Nachdem die Region von mehreren afrikanischen Reichen beherrscht wurde, wurde sie im Jahre 1895 zu einer französischen Kolonie in Afrika. Am 20. August 1960 wurde der Senegal unabhängig; er behielt ein Mehrparteiensystem bei und wurde zu einem der wenigen demokratischen Staaten auf dem afrikanischen Kontinent. Die durch die Kolonialzeit bedingte Abhängigkeit von wenigen Exportgütern wie Erdnüssen, Phosphaten und Fisch, rasches Bevölkerungswachstum und Staatsverschuldung führten ab den 1980er Jahren jedoch zu Verarmung und wachsenden sozialen Spannungen, zu denen seit 1982 auch die Sezessionsbestrebungen in der Casamance kommen. Somit wurde der Senegal abhängig von Krediten der Industrie- und Erdölländer sowie von Entwicklungshilfe. Landesname. Der Landesname „Senegal“ wird im Deutschen laut Duden im männlichen Genus („der Senegal, im Senegal“) gebraucht. „Der Senegal“ ist ebenso die Benennung des Flusses Senegal. Der Name leitet sich vermutlich von der Berbersprache Zenaga ab. Geographie. Der Senegal liegt im äußersten Westen Afrikas im Übergang der Sahelzone zu den Tropen. Östliches Nachbarland ist Mali. Im Norden grenzt der Senegal mit dem Grenzfluss Senegal an Mauretanien und im Süden an Guinea und Guinea-Bissau. Das Staatsgebiet des Senegals umschließt das ebenfalls am Atlantik liegende Nachbarland Gambia fast vollständig. Landschaftsbild. Die höchste Erhebung des Landes () ist namenlos und 581 Meter hoch. Die Küste ist 531 Kilometer lang. Die Landschaft besteht aus Ebenen, die zu den Gebirgsausläufern im Südosten langsam ansteigen. Im Süden des Landes — bei Vélingara — liegt der Vélingara-Krater. Der westlichste Punkt Kontinentalafrikas ist das Kap Verde im Senegal. Gewässer. Der Senegalstrom, der dem Staat seinen Namen gab, ist der bedeutendste Fluss des Landes. Er entspringt als Bafing-Fluss im Fouta-Djalom-Plateau in Guinea und nimmt in Mali den Bakoyé sowie im Senegal den Falémé auf; auf einer Länge von etwa 500 km bildet er die Nordgrenze des Senegal. Weitere bedeutende Flüsse sind Casamance, Gambia und sein Nebenfluss Koulountou, Sine und Saloum. Allen diesen Gewässern ist gemeinsam, dass sie aufgrund des sehr flachen Oberflächenprofiles des Senegal ein sehr geringes Gefälle aufweisen. Alle münden in ausgedehnten Deltas in den Atlantischen Ozean. Speziell in der Trockenzeit kann Meerwasser während der Flut mehrere hundert Kilometer flussaufwärts dringen. Dem wird durch den Bau von Wehren (etwa dem Wehr bei Diama am Senegal-Fluss) begegnet. Während der Regenzeit sind Überflutungen häufig. Der größte See des Landes ist der flache Lac de Guiers mit einer Nord-Süd-Ausdehnung von 80 km und einer Ost-West-Ausdehnung von bis zu 12 km. Während der Regenzeit kann sich der See beträchtlich in Richtung Süden in den Ferlo ausdehnen. Der Lac de Guiers hat für die Trinkwasserversorgung der Region wie auch Dakars hohe Bedeutung. Der Salzsee Lac Retba unweit Dakars ist wegen seiner rosa Verfärbung berühmt, die er aufgrund der Aktivität von Organismen in seinem Wasser erhält. Er ist bedeutend für die Salzgewinnung und den Tourismus; die UNESCO hat ihn zum Welterbe erklärt. Die etwa 500 km lange Atlantikküste des Senegal ist geprägt durch das Aufeinandertreffen des kühlen Kanarenstromes, des warmen Äquatorialstromes und von kaltem Auftriebswasser. Der Kanarenstrom dominiert in der Trockenzeit zwischen Dezember und April. Die Wassertemperatur des Kanarenstromes, die unter 20 °C liegt, und das kalte Auftriebswasser machen die senegalesische Küste im Winterhalbjahr zu einer Kaltwasserküste. In der Regenzeit zwischen Juni und November dominiert hingegen der Äquatorialstrom mit Wassertemperaturen von 27-28 °C. Die Kombination von nährstoffreichem Tiefenwasser und der hohen Produktion von Phytoplankton im Oberflächenwasser führt zu sehr großen Fischvorkommen; der jahreszeitliche Wechsel der Wassertemperatur führt zu weiträumiger Migration der Fischarten, so z. B. des Thunfisches. Klima. Das Klima des Senegal ist charakterisiert durch einen ausgeprägten Wechsel zwischen trockenen Nord-Ost-Passat und den feuchten Luftmassen des westafrikanischen Monsuns und dem damit verbundenen markanten Wechsel zwischen Trocken- und Regenzeit. Während der Sommermonate von April bis Oktober liegt das Land in der Einflusszone des westafrikanischen Monsuns, der in Richtung Norden vordringt. Dieser beschert dem Süden des Senegal ergiebige Niederschläge, während sie im Norden zu Schauertätigkeit führt. In den Wintermonaten zwischen Oktober und April dringt trockene, kontinentale Luft aus Nordosten in Richtung Süden vor; es weht der Harmattan, ein trockener, teilweise staubbeladener Wind. An der Küste herrschen gleichzeitig feucht-kühle passatische Luftmassen vor. Die jährliche Niederschlagsmenge variiert von 1.500 Millimeter im Süden bis unter 350 Millimeter im Norden und Nordosten. Entscheidend für das Land ist jedoch die Veränderlichkeit des Niederschlages. So führte ein Absinken der durchschnittlichen Jahresniederschläge zwischen 1968 und 1973 zu einer langjährigen Dürre. Kurze Dürreperioden innerhalb einer Regenzeit sind ebenfalls ein erhebliches Risiko für die Landwirtschaft und können gravierende Ernteausfälle verursachen. Die Temperaturen liegen zwischen 22-27 °C im Winter an der Küste und über 40 °C am Ende der Trockenzeit im Landesinneren. Schwüle kommt nur kurzzeitig im März und April vor. Wechsel zwischen Feucht- und Trockenphasen waren in den letzten 20.000 Jahren normal; so war lange Zeit unklar, ob der Rückgang der Niederschläge, der in den letzten 50 Jahren verzeichnet wurde, durch den Menschen verursacht ist oder nicht. Die langsame Aridisierung des Landes hat jedoch verheerende Auswirkungen auf Natur, Menschen und Wirtschaft. Städte. Städte sind im Senegal ein relativ neues Phänomen. Anders als in den Nachbarländern wurden hier keine Handelsstädte gegründet, da das Land abseits der Handelsrouten durch die Sahara lag. So gab es 1920 auch nur vier Orte mit einer Bevölkerung von über 5000 Einwohnern. Stadtgründungen geschahen während der Kolonialzeit vor allem entlang der Eisenbahnlinie, die das Erdnussbecken erschloss. Ein rasches Wachstum der Städte ist ab 1955 zu verzeichnen. Im Unterschied zu zahlreichen Dritte-Welt-Ländern ist die Urbanisierung jedoch nicht nur auf die Hauptstadt begrenzt. Das Wachstum speist sich einerseits aus Arbeits- und Ausbildungsmigration nach Dakar, aber auch in die sekundären Zentren, wo mittlerweile aus Mittelstädten Großstädte geworden sind. Entlang von Versorgungsadern findet auch in Kleinstädten eine rasche Urbanisierung statt, die vor allem bei Dürren durch zahlreiche Flüchtlinge vom Land vorangetrieben wird. Ein weiteres Charakteristikum der Urbanisierung im Senegal sind die schnellwachsenden "Heiligen Städte", wo sich zahlreiche Gläubige ansiedeln, um näher am Heiligtum sein zu können. So wuchs die Bevölkerung von Touba von 3000 Einwohnern im Jahre 1961 auf mehr als 500.000 Menschen an. In Städten, deren Wachstum sich hauptsächlich von Landflüchtlingen speist, bilden sich Viertel, die von Menschen aus der gleichen Region oder der gleichen ethnischen Herkunft besiedelt werden. Dort bilden sich Netze der Solidarität; gleichzeitig bleibt das Hauptinteresse der neuen Städter jedoch in ihrer alten Heimat. So wird die Familie in Krisenzeiten oder auch in den Schulferien zurück in das Heimatdorf geschickt, weil dort in der Großfamilie das Überleben einfacher ist. Transferleistungen und neue Ideen aus der Stadt führen gleichzeitig zu schnellen Modernisierungsprozessen auf dem Land. Die größten Städte sind heute (Stand 1. Juli 2009): Dakar 2.550.000 Einwohner, Touba 529.000 Einwohner, Thiès 275.000 Einwohner, Mbour 216.000 Einwohner, Kaolack 181.000 Einwohner, Saint-Louis 179.000 Einwohner, Ziguinchor 167.000 Einwohner und Diourbel 107.000 Einwohner. Bevölkerung. Die Bevölkerung zählt 12.643.799 (2011) Menschen, davon sind etwa 58 Prozent unter 20 Jahre alt. Das Bevölkerungswachstum beträgt jährlich etwa 2,01 Prozent. Die Bevölkerungszahl hat sich in den letzten 20 Jahren mehr als verdoppelt. Ein Großteil der Bevölkerung lebt an der Westküste; dort vor allem im Einzugsgebiet der Hauptstadt Dakar. 51 Prozent der Bevölkerung leben in eher ländlichen Gegenden. Hunderttausende Senegalesen leben im Ausland, vor allem in Frankreich. Die durchschnittliche Lebenserwartung im Senegal beträgt 55 Jahre bei Männern und 58 Jahre bei Frauen (2004). Volksgruppen. Das bedeutendste Volk des Senegal sind die Wolof. Die Wolof gründeten zwischen dem 15. und dem 19. Jahrhundert mehrere feudalistische Königtümer, deren Spuren bis heute in der Gesellschaft des Landes sichtbar sind. In der Kolonialzeit kam die Mehrzahl der Bewohner der Kolonialstädte von den Wolof, auch die Beamten rekrutierten sich vornehmlich aus dieser Ethnie. Trotz der Zusammenarbeit mit den Franzosen haben sich die Wolof eine eigenständige Kultur erhalten. Die Wolof sind größtenteils Muslime Die Lebu sind ein kleines, den Wolof sehr nahestehendes Volk von etwa 50.000 Menschen. Sie leben entlang der Küste von Kap-Verde, wo sie Fischerei und Gartenbau betreiben. Auch sie sind Muslime und gehören größtenteils der Layène-Bruderschaft an. Die Serer sind ein Bauernvolk im Zentrum und Westen des Senegal. Sie übernahmen den Islam erst sehr spät und lehnten die Übernahme von französischen Kulturelementen ab. Trotzdem existiert heute eine Minderheit an katholischen Serern, der z. B. der frühere Präsident Léopold Sédar Senghor entstammte. Die Toucouleur sind ebenfalls ein Bauernvolk. Sie besiedeln die Region entlang des Senegal-Flusses. Sie wurden bereits im 12. Jahrhundert islamisiert und spielten später bei der Verbreitung des Islam in den südlich angrenzenden Landesteilen eine bedeutende Rolle. Die Toucouleur leben in einer Art Symbiose mit den Fulbe, die nomadisch oder halbnomadisch leben und Großviehzucht betreiben; viele Fulbe leben jedoch mittlerweile auch als Handwerker oder Händler in den Städten. Die Diola leben im Süden des Landes und sind vor allem Reisbauern. Im Gegensatz zu den anderen Völkern des Senegal haben die Diola ihre Großfamilien-Strukturen weitgehend erhalten und keine feudalen Reiche gegründet. Sie sind wenig islamisiert, unter den Diola herrscht das Christentum vor. Die Unabhängigkeitsbewegung in der Casamance rekrutiert sich maßgeblich aus Diola, die die Dominanz der Wolof, der Hauptstadt Dakar und des Islam bekämpfen wollen. Die Mandinka, Bambara und Soninke sind Ethnien, die starke grenzüberschreitende Verbindungen, vor allem nach Mali haben. Zu den bedeutenden Minderheiten gehören die Franzosen, die 1904–1958 die Kolonialverwaltung innehatten; nach der Unabhängigkeit des Senegal wurde diese zwar aufgelöst, tausende Franzosen befinden sich jedoch als Fachleute oder Entwicklungshelfer im Land. Die Mauren hatten früher als Weise und Sufi-Scheichs eine hohe Stellung in der senegalesischen Gesellschaft, die sie jedoch mittlerweile verloren haben. Heute leben sie als Viehhirten oder Gemischtwarenhändler in den Städten. Die Pogrome von 1989 haben zwar viele Mauren dazu gezwungen, das Land zu verlassen, die alten Strukturen sind jedoch mittlerweile weitgehend wiederhergestellt. Die libanesische Minderheit lebt vor allem als Händler, Transporteure und Importeure. Sie sind in der Regel sehr wohlhabend und haben sich mit der Führung des Landes durch Geschick und Korruption verzahnt. Bis zur Kolonisierung Westafrikas waren noch die Métis von hoher Bedeutung. Diese Nachkommen europäischer Händler und deren afrikanische Frauen bzw. Mätressen übernahmen die Funktion von Mittelsleuten zwischen Europa und Afrika. Sprachen. Im Senegal werden, wie in den meisten Staaten Afrikas, eine Vielzahl von Sprachen gesprochen. Die sechs wichtigsten Sprachen Wolof, Serer, Diola, Pulaar, Soninke und Mandinka gehören alle zur Niger-Kordofanischen Sprachfamilie. Sie sind somit miteinander eng verwandt, wenngleich sich ihre Sprecher in ihren Muttersprachen nicht gegenseitig verstehen können. Es gibt keine offiziellen Statistiken, wie viele Menschen im Senegal welche Sprachen sprechen. Wolof ist unbestritten die wichtigste Sprache; sie ist die Muttersprache von etwa 50 % der Bevölkerung des Landes und weitere 20-30 % sprechen es als Zweitsprache. Somit ist es die "Lingua Franca" des Senegal, wie auch des benachbarten Gambia. Seine Bedeutung zieht es aus der Dominanz des Volkes der Wolof in den historischen Staaten der Region. Das moderne Wolof der Städte verfügt über zahlreiches französisches Vokabular und wird in Pop- und Rapmusik verwendet. Das traditionelle Wolof der Griot-Musik wird nur mehr in ländlichen Gebieten gesprochen. Serer ist die Muttersprache von 15 % der Bevölkerung; diese Sprache ist besonders nah mit dem Wolof verwandt. Pulaar (auch Fulbe) ist die Muttersprache von etwa einem Viertel der Einwohner des Senegal, vor allem den Toucouleur und den Peul. Die Sprecher dieser Sprache übernahmen die arabische Schrift als erste in der Geschichte des Landes. Sie blicken auf eine lange Geschichte zurück, die teils schriftlich, teils mündlich überliefert wurde. Im oberen Senegal-Tal und in Bundu gibt es etwa 1 Million Sprecher von Mande-Sprachen: Die Präsenz der heute etwa 200.000 Soninke-Sprecher geht auf die Herrschaft des Ghana-Reiches in der Region zurück, während die Vorfahren der heute etwa 600.000 Menschen umfassenden Mandinka-Gruppe in der Kolonialzeit im heutigen Senegal angesiedelt wurden. Die etwa 350.000 Sprecher von Diola gehören zu einer Gruppe von miteinander verwandten Völkern und leben im Westteil der Casamance. Die meisten traditionellen Sprachen des Senegal werden mit einem lateinischen Alphabet geschrieben, gleichzeitig gibt es jedoch arabisierte Varianten. Die arabische Schrift ist die älteste Schrift des Senegal, und sie wird in den zahlreichen Koranschulen weiterhin gelehrt. Wolofal ist beispielsweise die in arabischer Schrift geschriebene Version des Wolof, die in religiösen Texten Anwendung findet, unter Muriden jedoch häufig auch für profane Texte benutzt wird. Die Amtssprache des Landes ist Französisch. Der Senegal war eines der Gründungsmitglieder der Francophonie; die moderne Literatur, Printmedien und das Kino drücken sich fast ausschließlich auf Französisch aus und auch die öffentliche Bildung bedient sich dieser Sprache. Religion. Senegal ist ein islamisch dominiertes Land: Zwischen 90 % und 94 % der Bewohner des Landes bekennen sich zur sunnitischen Strömung des Islam; hier wiederum ist die Rechtsschule der Malikiten vorherrschend. Obwohl es gemäß seiner Verfassung ein laizistischer Staat ist und gegenüber anderen Religionen weitgehende Akzeptanz herrscht, spielen religiöse Würdenträger im politischen Tagesgeschäft eine große Rolle. Die Islamisierung des Senegal begann vom Maghreb ausgehend zwischen dem 9. und 11. Jahrhundert im Norden des Landes. Zwischen dem 13. und 16. Jahrhundert breitete er sich unter der Wolof-Aristokratie aus, blieb jedoch weiterhin die Religion einer Minderheit. Seinen heutigen Einfluss erreichte der Islam erst im 18. und 19. Jahrhundert, als er sich als antikoloniale Bewegung profilieren konnte und großen Zulauf bekam. Eine Besonderheit des senegalesischen Islam ist, dass fast jeder Gläubige Mitglied einer Bruderschaft ist. Diese von charismatischen Denkern des Sufismus gegründeten und von einem Kalifen geführten Bewegungen bestimmen das gesellschaftliche Leben des Landes in vielerlei Hinsicht. Die einflussreichsten Orden sind Sufi-Schreine und Abbildungen der Gründer der Bruderschaften sind allgegenwärtig; um bedeutende Schreine sind Siedlungen oder gar Städte entstanden. Die heiligen Städte wie Touba, wo Amadou Bamba begraben ist, oder Médina-Gounass existieren fast ausschließlich zur Verehrung der Führer der Bruderschaften und werden von diesen auch verwaltet; sie entziehen sich der regulären Staatsmacht fast vollständig. Das Christentum gelangte bereits mit der Ankunft der ersten portugiesischen Entdecker in den Senegal. Die christliche Gemeinschaft im Senegal bestand in der Folge hauptsächlich aus den portugiesischen "Lançados" und deren Abkömmlingen, den "Métis". Die französischen Missionierungsbemühungen während der Kolonialzeit beschränkten sich, um den sozialen Frieden zu wahren, auf die noch nicht islamisierten Völker. Die Christen des Senegal sind somit vor allem unter den Serern und den Diola im Süden des Landes zu finden. Im Allgemeinen ist das Verhältnis zwischen Christen und Muslimen im Senegal von gegenseitigem Respekt geprägt. Traditionelle afrikanische Religionen kommen im äußersten Süden des Landes vor. Statistiken geben in der Regel den Anteil der diesen Glaubensformen nachgehenden Senegalesen mit 1 % an. Spuren des Animismus und des Geisterglaubens sind jedoch landesweit, unabhängig von der Religionszugehörigkeit, vorhanden. Migration. Migrationen sind in der Sahel-Zone, wo Teile der Bevölkerung nomadisch leben, ein traditioneller Bestandteil der Kultur. Die Viehhirten suchen während der Trockenzeit die Regionen um die Flussläufe auf, während sie in der Regenzeit in das Landesinnere ziehen. Während der Kolonialzeit begannen Arbeitsmigrationen. Die "navetanes" waren Saisonarbeiter aus den Nachbarstaaten Senegals, die im Erdnussbecken Arbeit fanden. Während diese Art von Migration längst zum Erliegen gekommen ist, ist der Zuzug in die Städte, vor allem Dakar, ungebrochen. Ausbildung und Arbeitsplätze für Menschen mit höherer Bildung sind fast ausschließlich in der Hauptstadt verfügbar. Die Auswanderung aus dem Senegal, bevorzugt nach Frankreich, begann schon im 19. Jahrhundert. Heute sind neben Frankreich auch die restliche EU, in geringerem Maße auch die USA und andere westafrikanische Staaten, Ziel der Auswanderer. Von den Hunderttausenden Senegalesen, die bereits in Frankreich wohnen, haben viele neben der französischen Lebensart auch die französische Staatsbürgerschaft angenommen. Sie haben einen nicht zu vernachlässigenden Einfluss auf die Kultur des Senegal und ihre Überweisungen stellen einen bedeutenden Wirtschaftsfaktor dar. Gesundheit. Die öffentlichen Gesundheitsausgaben betrugen 2004 2,4 Prozent des Bruttoinlandproduktes. Die privaten Gesundheitsausgaben betrugen 3,5 Prozent des BIP. 2004 beliefen sich die Gesundheitsausgaben auf 72 US-Dollar (Kaufkraftparität) pro Kopf. In den frühen 2000er Jahren betrug die Fruchtbarkeitsrate 5,2. In den frühen 2000er Jahren gab es sechs Ärzte pro 100 000 Einwohner. 2005 betrug die Säuglingssterblichkeit 77 pro 1000 Lebendgeburten. Bildung. Ein großer Teil der Bevölkerung besteht aus Analphabeten. Etwa 34 % der Männer und 60 % der Frauen konnten 2011 nicht, oder nicht richtig lesen und schreiben. Artikel 21 und 22 der im Januar 2001 eingeführten Verfassung garantieren Zugang zur Bildung für alle Kinder. Die Schule ist bis zum Alter von 16 Jahren verpflichtend und kostenlos. Seit 2003 ist das Schulsystem reformiert. Das senegalesische Arbeitsministerium hat geäußert, dass das öffentliche Schulsystem nicht in der Lage sei, die vielen Kinder zu bewältigen, die jedes Jahr aufgenommen werden müssen. Im Jahr 2010 wurden 5,6 % des BIPs für Bildung ausgegeben. Vorgeschichte. Archäologische Funde auf der Halbinsel Kap Verde und vom oberen Senegal-Tal beweisen, dass der heutige Senegal bereits im Acheuléen besiedelt wurde. Es werden im ganzen Land zahlreiche Hinterlassenschaften der frühesten Bewohner des Landes vermutet, insgesamt ist die Vorgeschichte des Senegal jedoch wenig erforscht. Aus dem Neolithikum und der Eisenzeit sind Megalithen, Hügelgräber und Muschelinseln an den Küsten erhalten. Die mündlich überlieferte Geschichte der Wolof und Serer schreibt dies einem Volk namens "Soose" zu, das die Region damals besiedelt haben soll. Fest steht, dass die damalige Bevölkerung in Dörfern lebte, Landwirtschaft und Viehzucht sowie Fischerei betrieb. Die westafrikanischen Königreiche. Zeitgenössische Darstellung eines Wolof-Kriegers aus Waalo Die Einführung der Eisenbearbeitung brachte auch soziale Umwälzungen mit sich. In deren Folge entstanden Staaten; der erste historisch belegte Staat auf dem Gebiet des heutigen Senegal war Takrur. Er entstand etwa zeitgleich mit den östlich gelegenen Gao und Ghana; letzteres entwickelte sich im 9. Jahrhundert zu einem Reich, das sich bis an den Senegal-Fluss ausdehnte. Takrur blieb jedoch aller Wahrscheinlichkeit nach unabhängig. Um 1050 begannen die Almoraviden im heutigen Mauretanien religiös motivierte Feldzüge. Sie schufen ein Reich, das sich von Spanien bis an den Südrand der Sahara erstreckte. Ob Takrur Teil dieses Reiches wurde, ist nicht geklärt. Der Einfluss der Almoraviden stärkte jedoch die Verbindungen zum Islam; der erste König von Takrur, der sich zum Islam bekannte, war War Jaabi. Im 13. Jahrhundert entstand im unteren Senegal-Delta der Staat Jolof. Dieser Staat war deutlich stärker zentralisiert als Takrur und expandierte schnell in Richtung Süden. Die Vorherrschaft in der Region ging jedoch wenig später an das Malireich verloren. Takrur und Jolof wurden Mali tributpflichtig, die Casamance und das heutige Gambia wurden als Provinzen direkt Teil des Mali-Reiches. Sie erlaubten dem Reich Küstenhandel und vielleicht sogar Erkundungsfahrten auf dem Ozean. Das Mali-Reich erlebte den Höhepunkt seiner Macht im 14. Jahrhundert; danach formierten sich die westlichen Teile des Mandinka-Reiches im Staat Gabu, während Jolof sich nördlich des Gambia-Flusses behauptete. Im Jahre 1444 erreichte das erste portugiesische Schiff die Küste vor dem heutigen Senegal. Die Portugiesen waren vor allem daran interessiert, unter Umgehung der Araber afrikanisches Gold zu handeln. In den folgenden Jahrhunderten wurde der Handel von "Lançados", also Nachkommen portugiesischer Seefahrer und afrikanischer Frauen, betrieben. Gemeinden von Lançados gab es an zahlreichen Orten entlang der afrikanischen Küste; dies waren jedoch zunächst keine Kolonien. Gegen Ende des 15. Jahrhunderts fand eine starke Nordmigration von Tukulor statt, die den Staat Takrur endgültig zerstörten und Jolof zum Zerfall in mehrere Königreiche brachte, nämlich Waalo, Kaylor, Baol, Sine und Saloum. Diese Staaten waren alle instabil; Adelige, Könige und Angehörige der Krieger-Kaste des alten Mali-Reiches kämpften um Einfluss. Kolonialzeit. a>, Beispiel für Kolonialarchitektur und Denkmal an die Sklaverei Die Instabilität der Staaten des heutigen Senegal wurde durch den Sklavenhandel noch verstärkt. Ab dem 17. Jahrhundert wurde das portugiesische Händlernetzwerk durch befestigte französische, niederländische und britische Kolonien, meist auf dem Festland vorgelagerten Inseln ersetzt. Die kriegerischen Auseinandersetzungen zwischen den Staaten hatten nun zunehmend den Erwerb von Gefangenen zum Ziel. Obwohl die Sklaverei ein Merkmal der traditionellen Gesellschaften war, so hatte die Anzahl der Menschen, die in Richtung Amerika verschleppt wurde, auf die Demographie der Region eine verheerende Wirkung. Als der Sklavenhandel zum Erliegen kam, hatten die Herrschenden wiederum Schwierigkeiten, den Einnahmeausfall zu kompensieren. Die Folge war eine Serie von islamischen Revolutionen von 1673 bis 1888, die die Könige stürzten und islamische Staaten zu errichten versuchten. Die meisten dieser Revolutionen scheiterten, da die Monarchen von den Franzosen mit Feuerwaffen unterstützt wurden. Die Franzosen hatten vor allem in Saint Louis und Gorée Kolonien eingerichtet, die formell Gouverneuren der Handelskompanien unterstellt waren. Die Umstände verhinderten es jedoch, dass administrative Strukturen aufgebaut wurden. Die eigentliche Macht in diesen Zentren wurde so langsam von Métis übernommen, die den Handel mit dem Hinterland kontrollierten. So weigerten sich die Métis, das in der Folge der französischen Revolution erlassene Verbot der Sklaverei umzusetzen; dies geschah offiziell erst 1848. Die Métis entwickelten auch neue Handelsaktivitäten, etwa zunächst den Gummi- und später massiv den Erdnussexport. Bis zum Jahr 1891 kam das gesamte Gebiet des heutigen Senegal unter französische Kontrolle. Die Königreiche wurden durch Kantone ersetzt, denen Adelige nach traditionellem System vorstanden, die aber wenig Einfluss ausüben konnten. Den bedeutend stärkeren Einfluss der aufstrebenden Sufi-Orden nutzten die Franzosen für die Zwecke der Verbreitung des Erdnuss-Anbaus in ihrem Sinne aus. Die "quatre communes" Saint Louis, Gorée, Rufisque und Dakar waren seit 1848 Gemeinden mit vollem französischen Bürgerrecht. Hier entwickelte sich die Gesellschaft nach französischem Vorbild: Es entstanden Zeitungen, politische Parteien und Gewerkschaften; es wurden Wahlen abgehalten und 1914 wurde Blaise Diagne zum ersten afrikanischen Vertreter der Vier Kommunen im französischen Parlament gewählt. 1902 wurde Dakar Hauptstadt der 1895 gegründeten Konföderation Afrique Occidentale Française (AOF). Die entstehenden Emanzipationsbewegungen wurden durch die beiden Weltkriege, in denen senegalesische Truppen auf französischer Seite eingesetzt waren, noch verstärkt. Streiks und Revolten zwangen die Kolonialmacht dazu, im Jahre 1956 allen erwachsenen Bürgern der Kolonie das Wahlrecht zu verleihen. Der Politiker, der die Gegensätze der Menschen in den europäisch orientierten Städten und der religiös-konservativen Landbevölkerung am besten vereinen konnte, war Léopold Sédar Senghor. Er schaffte es, eine Koalition zu bilden, die die Sozialisten von Lamine Guèye bis hin zum Kalif des Muriden-Ordens, Falilou Mbacké, verband. Als 1960 die AOF aufgelöst wurde, lehnten zahlreiche führende Persönlichkeiten den Zerfall Westafrikas in kleine Nationalstaaten ab. Konsequenterweise erreichte das Land seine Unabhängigkeit zusammen mit dem heutigen Mali als Mali-Föderation am 20. Juni 1960. Bereits 2 Monate später zerstritten sich Senghor und Modibo Keita jedoch und beide Staaten gingen getrennte Wege. Senghor wurde am 5. September 1960 zum ersten Präsidenten des Landes gewählt. Seit der Unabhängigkeit. Nach der Unabhängigkeit wurde im Senegal ein Regierungsmodell eingeführt, das sich sehr stark an Frankreich orientierte: Bis heute ist der Senegal eine stark zentralisierte Präsidialrepublik. Die drei Persönlichkeiten, die die ersten Jahre der Unabhängigkeit dominierten, waren Präsident Léopold Sédar Senghor, Parlamentspräsident Lamine Guèye und Premierminister Mamadou Dia. Letzterer begann ein ehrgeiziges Reformprogramm in wirtschaftlichen und politischen Belangen; er wurde jedoch bereits 1962 der Planung eines Putsches beschuldigt und verhaftet. Nach dieser politischen Krise wurde 1963 eine neue Verfassung angenommen, die die Rechte des Präsidenten stärkte; gleichzeitig wurde aus dem Senegal faktisch ein Einparteienstaat, so dass 1965 nur noch die Union Progressiste Sénégalaise des Präsidenten zugelassen war. Senghor verfolgte vor allem eine visionäre Kulturpolitik, in welcher der Staat Festivals, Studios und Museen finanzierte. In der gleichen Zeit begann jedoch ein Preisverfall beim wichtigsten Exportgut des Landes, den Erdnüssen, und eine Serie von Dürren brachte einen weiteren Rückgang der Produktion. Der dadurch verursachte Einnahmenrückgang des Staates führte zu ernsthaften sozialen Spannungen. Angesichts der Krise wurde das politische System wieder liberalisiert, 1974 wurde die Oppositionspartei Parti Démocratique Sénégalais zugelassen und 1980 dankte Senghor als erster afrikanischer Staatschef ab und übergab das Amt an Abdou Diouf. In die Amtszeit von Diouf fallen vor allem bewaffnete Konflikte im Inneren wie im Äußeren sowie ein stetiger wirtschaftlicher Abstieg. Die Umsetzung der Reformen, die von den Gläubigern des Senegals verlangt wurden, brachte Privatisierungen und das Ende von Subventionen, was die Lebenshaltungskosten der Menschen scharf ansteigen ließ. 1981/82 entsandte der Senegal seine Armee nach Gambia, um Präsident Dawda Jawara in einem Militärputsch beizustehen. Die in der Folge gegründete Konföderation Senegambia hatte jedoch keine lange Lebensdauer. Weiters brach 1982 der Casamance-Konflikt aus, mit der Separatistenbewegung Mouvement des forces démocratiques de la Casamance an dessen Spitze. Streitigkeiten um Weide- und Wassernutzungsrechte am Senegal-Fluss führten schließlich 1989 zu einem Grenzkrieg mit Mauretanien, der 400 Todesopfer forderte und zahlreiche Menschen auf beiden Seiten der Grenze zur Rückkehr in ihr Heimatland zwang. Nach einem Militärputsch im benachbarten Guinea-Bissau entsandten der Senegal und Guinea im Juni 1998 Truppen. Nachdem alle Wahlgänge in den 1980er und 1990er Jahren zu starken innenpolitischen Spannungen geführt hatten, wurde im Jahr 2000 der erste friedliche Machtwechsel südlich der Sahara vollzogen: Abdoulaye Wade gewann die Präsidentschaftswahlen und, ein Jahr später, gewann seine Partei auch die Parlamentswahlen. Im Januar 2001 wurde die Verfassung per Referendum geändert. Die Amtszeit des Präsidenten wurde auf maximal zwei Mandate à 5 Jahre begrenzt. Die Politik Wades zielte auf Liberalisierung, Investitionsfreundlichkeit und Förderung von Telekommunikation und Tourismus ab, der Erfolg lässt jedoch nach wie vor auf sich warten. Gleichzeitig wurde Wade in zunehmendem Maße Klientelismus und Verschwendung vorgeworfen; die Kaufkraft der Senegalesen sank nach wie vor und vor allem junge Menschen wendeten sich von der Politik ab. Innenpolitik. Der Senegal zeichnet sich (seit der neuen Verfassung) durch rechtsstaatliche und demokratische Strukturen aus, grundlegende Freiheitsrechte, insbesondere Religions-, Meinungs-, Presse- und Versammlungsfreiheit, sind gewährleistet. Ein Problem der Innenpolitik ist der Konflikt mit Casamance, einer südlich von Gambia, aber im Senegal, gelegenen Region. Die Rebellenbewegung MFDC kämpft um deren Unabhängigkeit, da die Region historisch, wirtschaftlich, ethnisch und religiös anders geprägt ist (siehe oben: Untergang der Joola). Seit 2004 gibt es eine vorläufige Beruhigung. Im Bildungssektor gibt es noch Probleme: 65 Prozent sind Analphabeten, die Einschulungsquote liegt bei 60 Prozent. Es gibt einen großen Unterschied zwischen dem hohen Bildungsstandard einer kleinen Elite und dem niedrigen der Mehrheit der Bevölkerung. Seit 2002/2003 wird dem durch Einführung der nationalen Sprachen in den ersten beiden Grundschuljahren und verstärkte Alphabetisierung Erwachsener entgegengewirkt. Trotz garantierter Presse- und Meinungsfreiheit ist kritische Berichterstattung nicht uneingeschränkt möglich. Besonders seit der Wiederwahl von Staatspräsident Abdoulaye Wade 2007 sei der „berüchtigte Artikel 80 des Strafrechts“ (Schutz der nationalen oder öffentlichen Sicherheit) immer wieder auch gegen die Presse und deren Vertreter angewandt worden, obwohl Wade noch 2004 angekündigt hatte, den Paragraphen zu streichen. Das Institut "Giga" meldet in diesem Zusammenhang: „Erst im Mai 2009 wurde das seit Jahren schwebende Verfahren gegen den bekannten Journalisten, Madiambal Diagne, Eigentümer des „Le Quotidien“, eingestellt. Die Zeitung hatte über Korruption beim Zoll und die direkte Einmischung der Exekutive in die Justiz berichtet.“ Durch bezahlte Schläger der Regierungspartei Parti Démocratique Sénégalais (PDS) seien nach einer Verleumdungsklage Redaktionsräume des Internetportals "24 Heures Chrono" verwüstet worden. Außenpolitik. In der Außenpolitik dominiert die Beziehung zu Frankreich. Die senegalesische Regierung pflegt Diplomatie auf hohem Standard. Dabei bemüht sie sich, eine Balance zwischen Schwellen- und Industrieländern zu wahren, hat also eine Vermittlerrolle. Die afrikanische Einheit ist das wichtigste Anliegen des Präsidenten. Die CEDEAO (Communauté Economique des Etats de l’Afrique de l’Ouest) ist ein erster Schritt in diese Richtung. Des Weiteren hat der Senegal als eines der wenigen mehrheitlich islamisch geprägten Länder Israel anerkannt und unterhält auch diplomatische Beziehungen zu diesem Staat. Nach dem verheerenden Erdbeben in Haiti 2010 bot der Präsident des Senegal, Abdoulaye Wade, den Opfern an, sich hier anzusiedeln. Bei entsprechenden Einwanderungszahlen könne den Haitianern eine ganze Region angeboten werden. Begründet wurde der Vorschlag damit, dass die Haitianer als Nachkommen afrikanischer Sklaven auch ein Recht auf ihr „afrikanisches Erbe“ hätten. Städte. Die größten Städte sind (Stand 1. Juli 2009): Dakar 2.550.000 Einwohner, Touba 529.000 Einwohner, Thiès 275.000 Einwohner, Mbour 216.000 Einwohner, Kaolack 181.000 Einwohner, Saint-Louis 179.000 Einwohner, Ziguinchor 167.000 Einwohner und Diourbel 107.000 Einwohner. Wirtschaft. Grundsätzlich hat der Senegal den Status eines Entwicklungslandes, ist jedoch im Vergleich zu anderen westafrikanischen Ländern weiter entwickelt, was aber seine Produkte im Regionalvergleich überteuert wirken lässt. Die Nationalparks ziehen einige Touristen an, wobei die Regierung darauf bedacht ist, Massentourismus zu vermeiden. Landwirtschaft. Im Senegal sind 78 Prozent der Erwerbstätigen im Agrarsektor tätig, der allerdings weniger als 20 Prozent am BIP ausmacht (60 Prozent stammen inzwischen aus dem Dienstleistungssektor, zum Beispiel Tourismus). Gleichzeitig hat das Land mit 47 Prozent eine der höchsten Urbanisierungsraten Afrikas. Aufgrund des ariden Klimas können nur 16 Prozent der Landfläche für landwirtschaftlichen Anbau genutzt werden, lediglich im Senegal-Tal und an den nördlichen Küstenstreifen gibt es Bewässerungslandwirtschaft. Die wichtigsten agrarischen Devisenbringer sind Erdnüsse und Baumwolle: Senegal gehört weltweit zu den größten Erdnussproduzenten. Weil große Teile der Nutzfläche für den Erdnussanbau gebraucht werden, kann der Eigenbedarf an Grundnahrungsmitteln nicht gedeckt werden. Daher werden diese (vor allem Reis und Weizen) in großen Mengen importiert, was zu einem enormen Devisenverbrauch führt. Fischerei. Ein Fischer im Senegal bereitet das Räuchern von Fisch vor Die Fischerei ist inzwischen der wichtigste Wirtschaftszweig, da die Küstengewässer des Senegal reiche Fischfanggründe aufweisen. Die senegalesischen Kleinfischer können die lokalen und regionalen Märkte ausreichend versorgen. Die Fangrechte für Hochseefischerei sind jedoch an Japan und Südkorea verkauft. Insgesamt stellt der Fischfang heute das wichtigste Exportgut Senegals dar (28,5 Prozent) und hat den früher dominierenden Erdnussanbau abgelöst. Industrie und Bergbau. Der Senegal hat eine verhältnismäßig weit entwickelte verarbeitende Industrie (allerdings nur in den Großstädten), aber das Industriekapital ist in ausländischer Hand. Wichtige Industriezweige sind Lebensmittel- (Öl, Fisch, Zucker), chemische Industrie und Textilverarbeitung. Als Bodenschätze sind Phosphat und Gold zu nennen, ebenso Eisenerz und Erdöl. Im Februar 2007 wurde zwischen ArcelorMittal und dem Senegal ein Abkommen zur Erschließung der Eisenerzvorkommen von Koudekourou am Falémé-Fluß im Osten des Landes unterzeichnet. Energie. Im Jahr 2005 wurden 2,22 Milliarden Kilowattstunden elektrische Energie erzeugt. Der Großteil des Stromes (88 Prozent) stammt aus ölbefeuerten Wärmekraftwerken. Im Senegal hat die staatliche SENELEC ein Monopol auf die Erzeugung, Verteilung und Abrechnung von elektrischer Energie. Dieses Unternehmen ist durch Unterinvestitionen und den stark gestiegenen Ölpreis in schwere wirtschaftliche Nöte gekommen, was zu einer bereits mehrere Jahre anhaltenden Energiekrise im gesamten Land geführt hat. Nothilfe von der Regierung und aus dem Ausland hat das Problem nicht nachhaltig lösen können. Neue Kraftwerke sind im Bau und sollen 2010 in Betrieb gehen: zwei Wärmekraftwerke, davon eines mit Diesel und eines mit Kohle betrieben.. Staatshaushalt. Der Staatshaushalt umfasste 2009 Ausgaben von umgerechnet 3,4 Mrd. US-Dollar, dem standen Einnahmen von umgerechnet 2,8 Mrd. US-Dollar gegenüber. Daraus ergibt sich ein Haushaltsdefizit in Höhe von 4,7 % des BIP. Die Staatsverschuldung betrug 2009 3,8 Mrd. US-Dollar oder 29,8 % des BIP. Verkehr. Mit dem Transport von Personen oder Gütern wurden im Jahr 2009 3,5 % des Bruttoinlandsproduktes des Senegal bewirtschaftet. Die Straße dominiert diesen Wirtschaftszweig: 99 % des gesamten Personenfernverkehrs und 95 % des Transportvolumens werden auf der Straße abgewickelt. Drei Viertel aller öffentlichen Investitionen in Infrastruktur werden für den Straßenverkehr aufgewendet. Er bietet etwa 300.000 Personen Arbeit, in meist informellen Beschäftigungsverhältnissen. Straßenverkehr. Offiziell besitzt der Senegal ein Straßennetz mit einer Gesamtlänge von 14.825 km, oder 23,1 km pro 1000 km² landesweit. Gegenüber dem Jahr 1992, als das Land über 14.280 km verfügte, ist es somit kaum gewachsen. Weiters sind 10.000 km nicht befestigt, selbst 15 % oder 507 km der höchsten Straßenkategorie, den Nationalstraßen, sind unbefestigt. Für das Jahr 2008 wurde angegeben, dass weniger als 40 % der Straßen in gutem Zustand seien. Dies ist immerhin eine Verbesserung gegenüber 2001, als nur 30 % in gutem Zustand waren. Nach wie vor sind 30 % der Landbevölkerung weiter als 5 km von einer befahrbaren Straße entfernt, besonders im Osten des Landes, wo auf 1000 km² nur 10–20 km Straße kommen. In den letzten Jahren hat die Regierung das Ziel, Verkehr und Transport für die Landbevölkerung zugänglich zu machen und ihnen damit einen Ausweg aus der Armut zu bieten, konstant verfehlt. Im Jahr 2008 waren im Senegal 293.800 Fahrzeuge registriert, davon drei Viertel in Dakar, zwei Drittel waren Pkw, 80 % sind als Gebrauchtwagen ins Land gekommen und 60 % waren mit Dieselmotoren ausgestattet. Der Altersdurchschnitt der Fahrzeuge lag bei 10,8 Jahren, was auf ein nach wie vor sehr hohes Alter vieler Fahrzeuge hindeutet, was jedoch gegenüber 2001 eine Verbesserung darstellt. Dies ist auf das Verbot des Imports von Fahrzeugen, die älter als fünf Jahre alt sind, zurückzuführen. Im Jahr 2008 kamen 237 Menschen bei Unfällen ums Leben, was für ein Land mit so geringer Motorisierung ein bemerkenswert hoher Wert ist. Staatlich organisierten öffentlichen Verkehr gibt es nur in der Hauptstadt Dakar, wo der Busverkehr seit dem Jahr 2000 von Dakar Dem Dikk abgewickelt wird. Dieses Unternehmen, das zu 70 % dem Staat gehört, kämpft aufgrund des hohen Alters seines Fahrzeugparkes und den damit verbundenen hohen Instandhaltungskosten mit chronischen Finanzproblemen. Ansonsten wird der öffentliche Verkehr von einer Vielzahl kleiner Unternehmen abgewickelt, die so genannte "Cars rapides", "Ndiaga Ndiaye" oder Sammeltaxis (sept-places, taxi-brousse) betreiben. Für die verkehrstechnische Anbindung des Südteils des Landes stellt der Staat Gambia, dessen Territorium tief in das Gebiet des Senegal hineinreicht, eine Herausforderung dar. Sämtliche Transporte aus oder in die Casamance müssen entweder einen langen Umweg oder zwei Grenzübertritte und eine Fahrt über den Gambia-Fluss mit einer Fähre in Kauf nehmen. Die damit verbundenen Kosten und Zeitaufwände führen immer wieder zu Ärgernissen zwischen diesen beiden Nachbarstaaten. Eisenbahnverkehr. Das Bahnnetz des Senegal hat auf dem Papier eine Länge von 906 km. Dazu gehören eine 70 km lange zweigleisige Strecke zwischen Dakar und Thiès, die 574 km lange Strecke von Thiès nach Kidira, die 193 km lange Strecke von Thiès nach Saint-Louis sowie drei kleinere Zweiglinien. Die erste Eisenbahn des Landes wurde bereits im Jahr 1885 zwischen Dakar und Saint-Louis geöffnet, seit 1968 wurde das Netz jedoch nicht mehr erweitert und lange Abschnitte wurden seit ihrer Inbetriebnahme nicht mehr erneuert. In der Realität ist der Verkehr nach Saint-Louis bereits seit 1999 eingestellt, zwischen Dakar und Thiès ist nur ein Gleis benutzbar. Die bis 2003 durch die Société Nationale des Chemins de Fer du Sénégal betriebene Strecke von Dakar nach Bamako, die 1287 km lang ist, wird seit ihrer Privatisierung durch das Unternehmen Transrail betrieben, das sich für einen Preis von 24 Millionen Euro und einer Zusage zu Investitionen von 50 Millionen Euro die Konzession für 25 Jahre gesichert hat. Der inländische Gütertransport auf der Schiene ist seitdem um zwei Drittel gesunken, das auf der Schiene von und nach Mali transportierte Volumen ist hingegen annähernd gleich geblieben und macht mit 310.000 t pro Jahr etwa die Hälfte des mit dem Nachbarland ausgetauschten Volumens aus. Transrail befindet sich derweil in großen finanziellen Schwierigkeiten, um eine Rettung des Unternehmens wird gerungen. Mit dem Petit train de banlieue gibt es in Dakar einen schienengebundenen Vorortverkehr, der im Jahr 2009 4,9 Millionen Passagiere transportieren konnte, dessen Anteil am gesamten Fahrgastvolumen der Hauptstadt jedoch weniger als ein Prozent ausmacht. Luftverkehr. Der internationale Flughafen des Senegal ist Dakar-Léopold Sédar Senghor, wenige Kilometer nordwestlich der Hauptstadt Dakar. Der neue, moderne Flughafen Dakar-Blaise Diagne befindet sich etwa 45 km östlich von Dakar in der Gemeinde Diass und soll im Jahr 2014 eröffnet werden. In Saint Louis, Cap Skirring und Ziguinchor gibt es Flugplätze, die internationalen Standards entsprechen, zahlreiche weitere Städte haben eigene Landebahnen. Im Jahr 2009 wurden im Senegal 1,6 Millionen Flugpassagiere gezählt, was gegenüber 2007 und 2008, als es noch 1,9 Millionen Passagiere waren, einen deutlichen Rückgang darstellt. Dies wird vor allem auf den Bankrott der nationalen Fluglinie Air Sénégal International zurückgeführt, die 2009 ihren Flugbetrieb einstellen musste. Im Januar 2011 nahm Sénégal Airlines ihren Betrieb auf. Die neue senegalesische Fluglinie fliegt mit vier Flugzeugen mittlerer Größe diverse Ziele in Afrika an. Aufgrund der geringen Größe des Landes und den gemessen an niedrigem Durchschnittseinkommen hohen Kosten des Luftverkehrs wird für den Luftverkehr keine bedeutende Entwicklung vorhergesagt. Schiffsverkehr. Über den Seeweg wickelt der Senegal 95 % seines gesamten Außenhandels ab. Der mit Abstand wichtigste Hafen ist der Port autonome de Dakar. Er erreichte im Jahr 2009 einen Umschlag von 9,5 Millionen Tonnen, wobei 7,4 Millionen gelöscht und 2,1 Million Tonnen geladen wurden. 700.000 t wurden im Transitverkehr durch den Senegal in ein anderes Westafrikanisches Land befördert, davon 600.000 t von und nach Mali. Weitere Häfen befinden sich in Kaolack und Ziguinchor, wobei letzterer 2009 einen Umschlag von 85.000 t erreichte und kürzlich um 6 Millionen Euro revitalisiert wurde. Für die Anbindung der Casamance an den Rest des Landes ist der Fährverkehr zwischen Dakar und Ziguinchor von besonderer Bedeutung. Nach dem Untergang der Fähre "Le Joola" im Jahr 2002 besitzt man seit 2008 eine um 25 Millionen € aus Deutschland beschaffte Fähre namens "Aline Sitoe Diatta", mit der 2009 86.000 Passagiere befördert wurden. Nationale Symbole. Die drei panafrikanischen Farben sind nach dem Vorbild der Trikolore angeordnet. Der fünfzackige Stern symbolisiert die Freiheit und den Fortschritt. Die Flagge besteht seit 1960. Näheres über das Staatswappen findet sich im Artikel Wappen des Senegal. Die Nationalhymne mit dem Text von Léopold Sédar Senghor lautet: "Pincez Tous vos Koras, Frappez les Balafons …". Auf Deutsch: „Zupft alle eure Koras, schlagt die Marimbas, der rote Löwe hat gebrüllt …“ Presse, Rundfunk und Kommunikation. Bereits im Jahr 1856 nahm die Zeitung "Moniteur du Sénégal et dépendances" (sinngemäß: Senegalesische Nachrichten aus den Bezirken) mit Sitz in St. Louis ihre Arbeit auf. Die meisten senegalesischen Presseorgane sind jedoch erst im zwanzigsten Jahrhundert während der Kolonialzeit entstanden. Ein Missionssender, vor allem von protestantischen Missionsstationen im frühen zwanzigsten Jahrhundert gegründet, verbreitete die biblische Botschaft. Kritik daran wurde nicht geduldet. Nach dem Ersten Weltkrieg entwickelten sich, parallel zur Gründung der Gewerkschaften, die ersten Zeitschriften für die senegalesischen Arbeiter, beispielsweise "Voice of Workers of Senegal" (1938 gegründet). Erst nach dem Zweiten Weltkrieg hatte der Kontinent Zugang zu modernen aktuellen Informationsmedien. In den 1950er Jahren entwickelte die Zeitschrift "Présence africaine", 1947 von Alioune Diop gegründet, die Idee einer panafrikanischen Informationsfreiheit. 1959 wurde die senegalesischen Presseagentur (APS) gegründet. Sie ist eine autonome Einrichtung und hat das Monopol auf die Verbreitung von Informationen im Senegal über andere Nachrichtenagenturen weltweit. In der Weltrangliste der Pressefreiheit, erstellt von "Reporter ohne Grenzen", belegt der Senegal den 86. Platz im Jahr 2008 (von insgesamt 173 Ländern), was im Vergleich aller westafrikanischen Länder einer überdurchschnittlich guten Platzierung entspricht. Aus wirtschaftlichen Gründen und wegen der einfachen Handhabung ist das Radio das einzige wirkliche Massenmedium für die breite Bevölkerungsmehrheit im Senegal. Obwohl die Medien im Senegal eine im Vergleich zu anderen afrikanischen Ländern relativ starke Position genießen, führt die Abhängigkeit von Energie gelegentlich zu gesellschaftlichen Unruhen. Fernsehen gibt es im Senegal seit 1963. Es wurde mit Hilfe der UNESCO gegründet, regelmäßige Sendungen gibt es aber erst seit 1965. Über Satellit sind zahlreiche internationale private Sender verfügbar, allerdings aus Kostengründen unter Ausschluss der breiten Bevölkerungsmehrheit. Fernsehen ist beliebt, muss aber oft kollektiv von mehreren Haushalten gemeinsam genutzt werden. Nach Angaben der "les Systèmes d’Information, les Réseaux et les Inforoutes au Sénégal" (Beobachtungsstelle für Informationssysteme, Netzwerke und Informationsübertragung im Senegal, OSIRIS), gab es im September 2007 650.000 Internetnutzer und 34.907 Teilnehmeranschlüsse, darunter 33.584 mit einer ADSL-Verbindung. Schätzungen gehen derzeit im Senegal von 800 Zugangsknoten zum Internet aus. Im April 2007 waren 1921 Domains unter der Top Level Domain „. Sn“ gemeldet, aber nur 540 Seiten waren tatsächlich online. In einem Land, in dem Freundlichkeit und mündliches Verhandeln im Mittelpunkt familiären und gesellschaftlichen Lebens stehen, hat Mobiltelefonie schnell Marktanteile gewonnen. Die beiden Betreiber, die sich den senegalesischen Markt aufteilen, sind derzeit "Sonatel" (deren Leistungen seit 2006 unter der Marke "Orange" vertrieben werden) und "Tigo". Zusammen hatten sie im Dezember 2007 4.122.867 registrierte Nutzer. Zeitgleich wurden 269.088 Festnetztelefonate am selben Tag gezählt, hinzu kommen Gespräche aus den 17.000 öffentlichen Telefonen im gesamten Gebiet. Film. Der senegalesische Schriftsteller und Filmemacher Ousmane Sembène gilt als „Vater“ des afrikanischen Films. Zu den bedeutendsten Regisseuren des afrikanischen Kinos zählte auch Djibril Diop Mambéty. Traditionelles Leben. Da die Muslime, insbesondere die Muriden, den Hauptteil der Bevölkerung stellen, sind auch die islamischen Feiertage von besonderer Bedeutung. Einer der wichtigsten von ihnen ist der Maouloud, der Geburtstag des Propheten Mohammed, der — nach christlicher Zeitrechnung — im Jahr 570 stattfand. So finden im Senegal Wallfahrten zu bestimmten Orten statt, so zum Beispiel seit 150 Jahren nach Tivaouane im Nordosten des Landes oder nach Kaolack, auch der Staatspräsident nimmt manchmal teil. Musik. Das Orchestre Baobab 2008 in New York Für alle Völker des Senegals ist Musik, kombiniert mit Tanz und Erzählung, die wichtigste künstlerische Ausdrucksform. Traditionellerweise wird Musik durch die Griots gemacht, wobei Schlag- und Saiteninstrumente zum Einsatz kommen. Die wichtigsten Instrumente sind die Lauten Xalam, Riti oder die Kora, die eigentlich aus dem benachbarten Mali stammt. Die Trommel Tama, die die Form einer Sanduhr hat und unter den Arm geklemmt geschlagen wird, ist das Schlaginstrument, das am häufigsten anzutreffen ist. Alle Ereignisse im öffentlichen oder privaten Leben werden traditionell von Musik, seien es Sologesänge, Gesänge mit Orchesterbegleitung oder rein instrumentale Darbietungen, begleitet. Das 20. Jahrhundert hat der senegalesischen Musik bedeutende Weiterentwicklungen gebracht. In den 1930er Jahren kam Jazzmusik durch das Radio in das Land und wurde von der urbanen Bevölkerung sofort als Gegenkonzept zur französischen Kolonialkultur aufgenommen. Die bedeutendste Künstlerin dieser Zeit war Aminata Fall, die Sängerin von Star Jazz. Bis in die 1970er Jahre wurde die Musikszene durch afrokubanischen Jazz dominiert, der mit senegalesischen und anderen afrikanischen Elementen kombiniert wurde, hier ist das Orchestre Baobab zu nennen. In den 1980er Jahren wurde der Mbalax, bei dem das senegalesische Perkussionselement den Jazz dominiert, populär. Die wichtigsten Größen des Mbalax sind Youssou N’Dour, Ismaël Lô, Omar Pene und Baaba Maal. Ursprünglich als zu vulgär bezeichnet, durfte er im senegalesischen Radio vor 1988 nicht gespielt werden; dies änderte sich erst 1988. Heute ist Mbalax omnipräsent in Medien und Werbung. In den späten 1980er Jahren begannen Rap und Hip-Hop im Senegal Fuß zu fassen. Der entstehende Senerap wurde unter jenen Jugendlichen des Landes, die aus wirtschaftlichen Gründen von der Konsumorientierung des Mbalax ausgeschlossen waren, populär. Gleichzeitig ist der senegalesische Rap nach französischem Vorbild sehr politisch, spricht direkt soziale Konfliktpunkte an und brüskiert die ältere, konservative und islamische Generation bewusst. Die erste erfolgreiche senegalesische Rap-Gruppe war Positive Black Soul, heute ist Akon der bedeutendste Rapper des Landes. Essen und Trinken. mini Die traditionellen Grundnahrungsmittel der Bevölkerung des Senegal sind Hirse und Sorghum, die vorwiegend als Brei gegessen werden, sowie Hülsenfrüchte und Kuhmilch. Diese werden auch heute noch konsumiert, vorwiegend jedoch auf dem Land. In den Städten wird Reis bevorzugt. Reis wird zwar in der Casamance seit langem angebaut und spielt dort eine große kulturelle Rolle, die Produktion reicht jedoch bei weitem nicht aus, um den Bedarf des Landes zu decken. Der Großteil des Verbrauches muss daher durch Importe gedeckt werden; dies gilt auch für Weizen, der für die populären, von den Franzosen übernommenen, Baguettes benötigt wird. Zahlreiche Gemüsearten wie Zwiebeln, Paprika, Süßkartoffeln, Karotten, Yams und Auberginen sind durch Bewässerungsfeldbau ganzjährig verfügbar; Früchte wie Melonen, Mangos oder Zitrusfrüchte sind nur zu bestimmten Jahreszeiten zu haben und kommen vor allem aus den "Niayes", den relativ humiden Niederungen zwischen den Dünen. Die wichtigste Proteinquelle sind Fische, die entlang der Küste frisch, im Inland getrocknet und verarbeitet werden. Fleisch wird in der Regel nur an Festtagen konsumiert. Die warmen Mahlzeiten werden traditionellerweise in einem großen Topf gereicht, um den die Familienmitglieder auf dem Boden sitzen. Gegessen wird mit den Fingern oder zunehmend mit Löffeln. In großen Familien essen die Frauen und Kinder von den Männern getrennt. Den Status des Nationalgerichtes nimmt die Thieboudienne, ein Gericht aus in Tomatensoße gekochtem Reis, geschmortem Gemüse und Fisch. Yassa ist Fleisch oder Fisch, welches mariniert, gebraten und mit Reis serviert wird. Maafe ist ein Gericht, bei welchem Fleisch und Gemüse in Erdnusssoße geschmort und mit Reis serviert werden. Die bekanntesten Getränke des Senegal sind Bissap und Gingembre, die aus Hibiskusblüten bzw. Ingwer hergestellt werden. Man konsumiert sie süß und kalt. Ataya ist der senegalesische Tee, der meist in einer langen Zeremonie aus kleinen Gläsern getrunken wird. Obwohl der Senegal ein muslimisch dominiertes Land ist, wird im Senegal Bier gebraut. Sport. Yékini, der amtierende Champion im Schwergewicht Zwei Sportarten dominieren im Senegal, nämlich das senegalesische Ringen und der Fußball. Das Ringen im Senegal ist ein Kampfsport, der seine Wurzeln sowohl in kriegerischen Auseinandersetzungen als auch in traditionellen afrikanischen Religionen hat. Er hat sich deshalb nur in jenen Völkern erhalten, die nicht oder spät islamisiert wurden, also vor allem unter den Diola, Serer und Lebu. Bei einem Ringkampf, der traditionellerweise auf dem Dorfplatz stattfindet und "Mbapat" genannt wird, treten nicht nur die Kämpfer selbst, sondern auch die Schutzgeister aller Involvierten gegeneinander an. Einem Mbapat gehen deshalb langwierige rituelle Handlungen und Opfer voraus. Der Kampf selbst dauert nur kurz; wer als erstes den Boden mit einem anderen Körperteil als Hand oder Fuß berührt, geht als Verlierer vom Platz. Das Ringen, das ursprünglich eine Beschäftigung der Dorfbevölkerung war, wurde ab 1920 in den Städten populär, wurde 1959 zum Nationalsport erklärt und hat seitdem in Medien und Politik Fuß gefasst. Speziell die Schwergewichts-Stars mit furchterregenden Namen wie Tyson, Bombardier oder Yékini haben große Anhängerschaften und sind in der Klatschpresse sehr präsent. Der senegalesische Fußball kennt eine offizielle Liga, die zwar einerseits unter schlechter Infrastruktur und Unterbezahlung leidet, andererseits jedoch einheimischen Talenten als erstklassiges Sprungbrett in europäische Clubs dient; zu den Stars, die diesen Weg gingen, gehört El Hadji Diouf. Daneben existieren zahlreiche "nawetaan"-Clubs, die ursprünglich in Gemeinschaften von Arbeitsmigranten entstanden und so in die Städte kamen. Sie finanzieren sich fast ausschließlich aus lokalen Quellen und spielen in den Zuwanderervierteln eine sehr hohe Bedeutung. Den größten Erfolg ihrer Geschichte erreichte die senegalesische Fußballnationalmannschaft bei der Weltmeisterschaft 2002 in Südkorea und Japan. Sie siegten im ersten Gruppenspiel überraschend gegen die französische Mannschaft und erreichten später das Viertelfinale; Erwartungen von Experten wurden dabei bei weitem übertroffen. Die Mannschaft des Senegal belegte im Juni 2004 mit dem 26. Platz ihre höchste Platzierung in der FIFA-Weltrangliste und im Dezember 1998 mit dem 95. die niedrigste (Stand: Mai 2010). Zu den Sportarten, die durch die Franzosen in den Senegal einführten, gehören neben Fußball auch Radsport, Leichtathletik, Gymnastik, Basketball und Schwimmsport in den Senegal. Muslimische Führer widersetzten sich zuerst dem Versuch, im Senegal eine europäische Sportkultur zu etablieren. 1930 wurde Sport auch für Frauen erlaubt. Die frühesten internationalen Erfolge auf sportlichem Gebiet errang 1922 der senegalesische Boxer Battling Siki, der im Kampf gegen den Franzosen Georges Carpentier als erster Afrikaner Boxweltmeister wurde. Der senegalesische Speerwerfer Samba Ciré nahm für Frankreich an den Olympischen Sommerspielen 1924 teil. Ebenfalls für Frankreich gewann der 200-Meter-Läufer Abdouleye Seye an den Olympischen Sommerspielen 1960 in Rom eine Bronze-Medaille. In den Jahren nach der Unabhängigkeit wurde ein Nationales Olympisches Komitee gegründet und senegalesische Sportler nahmen regelmäßig an Olympischen Sommerspielen und manchmal auch an Winterspielen teil. Die erste olympische Medaille für den Senegal gewann der 400-Meter-Hürdenläufer Amadou Dia Ba bei seinem zweiten Platz 1988 in Seoul. Bei den Leichtathletik-Weltmeisterschaften 2001 gewann Amy Mbacké Thiam den 400-Meter-Lauf. Schnelle Wavelet-Transformation. Die Schnelle Wavelet-Transformation ist ein effizientes Verfahren zur Berechnung einer diskreten Wavelet-Transformation. Sie kann mit der Anwendung der schnellen Fourier-Transformation zur Berechnung der Koeffizienten einer Fourier-Reihe verglichen werden. Konstruktion. Analyse-Filterbank, formula_1 Ein gegebenes kontinuierliches Signal formula_2 wird zunächst durch orthogonale Projektion auf einen Unterraum formula_3 einer orthogonalen Multiskalenanalyse in eine zeitdiskrete Koeffizientenfolge formula_4 umgewandelt. Je größer formula_5 ist, desto genauer ist die dadurch erzielte Approximation. In vielen Fällen ist es ausreichend, zu setzen. Nun wird rekursiv aus jedem Tiefpasssignal formula_7 ein neues Tiefpasssignal erzeugt. Zusammen bilden diese eine Analyse-Filterbank, die Operationen darin werden weiter unten erklärt. Nach formula_10 Schritten der Rekursion ergeben sich die Folgen Das Ziel dieser Transformation ist, dass die formula_13 „dünn“ besetzt sind und sich daher gut komprimieren lassen. Sind die Filter formula_14 und formula_15 ausreichend frequenzselektiv, war das Ausgangssignal bandbeschränkt und wurde dem WKS-Abtasttheorem entsprechend die erste Koeffizientenfolge formula_16 gewonnen, so enthält das erste Tiefpassergebnis alle Signalbestandteile bis zur halben Nyquist-Frequenz, das Bandpassergebnis die darüberliegenden, beide Male mit einer der Bandbreite entsprechenden Abtastrate. Analyse und Synthese. Der Fischgrätenzerlegung in der Multiskalenanalyse entspricht eine aus dem Tiefpass formula_14 und dem Bandpass formula_15 zusammengesetzte zeitdiskrete Filterbank, es wird ein zeitdiskretes Signal formula_19 aufgeteilt in ein hohes Band formula_20 und ein tiefes Band formula_21 (Faltung von Folgen). Danach werden beide Signale heruntergetaktet (englisch "downsampling") zu Mit formula_24 sei dabei die zeitinvertierte Folge bezeichnet. Das Heruntertakten einer Folge bedeutet, dass eine neue Folge aus den Gliedern mit geradem Index gebildet wird, Alle diese Operationen zusammengefasst ergibt sich eine gliedweise Berechnungsvorschrift der Analyse-Filterbank Aus der Orthogonalität ergibt sich, dass das Ausgangssignal formula_19 zurückgewonnen werden kann, zuerst werden die Tiefpass- und Bandpassanteile formula_30 und formula_31 in der Abtastrate hochgerechnet, dies wird als Upsampling bezeichnet, mit den Skalierungs- und Waveletmasken gefaltet und dann addiert, Der Übergang von formula_19 zu formula_35 heißt Analyse, der inverse Synthese. Es ist ersichtlich, dass die Transformierte formula_35 eines endlichen Signals nun etwa genauso viele Samples wie das Signal formula_19 selbst hat, also genauso viel Information enthält. Erweiterungen. Es ist nicht erforderlich, dass die Folgen in der Analyse-Filterbank mit denen in der Synthese-Filterbank wie oben übereinstimmen, nur ist dann nicht garantiert, dass die Kombination beider Filterbänke das Ausgangssignal rekonstruiert. Ist dies doch der Fall, spricht man von vollständiger Rekonstruktion (englisch "perfect reconstruction") oder von Biorthogonalität der Wavelet-Basen. Sonnenfleck. Sonnenflecken sind dunkle Stellen auf der sichtbaren Sonnenoberfläche (Photosphäre), die kühler sind und daher weniger sichtbares Licht abstrahlen als der Rest der Oberfläche. Ihre Zahl und Größe ist das einfachste Maß für die sogenannte "Sonnenaktivität". Die Häufigkeit der Sonnenflecken unterliegt einer Periodizität von durchschnittlich elf Jahren, was als Sonnenfleckenzyklus bezeichnet wird. Ursache der Flecken und der in ihrer Nähe auftretenden Ausbrüche sind starke Magnetfelder, welche gebietsweise den Hitzetransport an die Sonnenoberfläche behindern. Sonnenflecken im Vergleich zur Größe der Erde. Die größte Fleckengruppe rechts gehört zum Typ F. Im Gegensatz zum optischen Eindruck im Fernrohr sind Sonnenflecken keineswegs schwarz, sondern strahlen – entsprechend dem Planck’schen Strahlungsgesetz – nur etwa 30 % des normalen Sonnenlichts ab. Dieser Wert folgt aus der um bis zu 1500° niedrigeren Gastemperatur. Die Fläche der Sonnenflecken schwankt je nach momentaner Phase im 11-jährigen Zyklus zwischen 0,0 und maximal 0,4 % der gesamten Oberfläche. Entstehung. Da die Sonne aus heißen, fluktuierenden Gasen besteht, bewegt sich auch ihre Oberfläche nicht einheitlich: Die äquatorialen Regionen rotieren in etwa 25 Tagen, während jene der polnahen Breiten 30 oder mehr Tage für einen Umlauf benötigen. Dadurch kommt es im Laufe eines Zyklus (siehe unten) zu Verzerrungen des inneren – anfangs bipolaren – Magnetfeldes. Es entstehen lokale Feldbögen, die durch die Photosphäre brechen und deren Materie hinaus in die Korona tragen; die daraus resultierende Abkühlung der Oberfläche wird als Fleck sichtbar. Wo die Feldlinien lotrecht stehen, ist er am dunkelsten (Umbra), wo sie schräg zur Oberfläche verlaufen, ist er weniger dunkel (Penumbra). Da die Bögen jeweils einen Ein- und Austrittspunkt haben, treten Sonnenflecken paarweise auf. Der vorauslaufende Fleck (englisch: "leading spot") liegt dem Sonnenäquator näher als der zurückliegende (englisch: "trailing spot"); diese Abweichung sinkt mit zunehmendem Abstand zu den Sonnenpolen. Die Polarität des vorauslaufenden Flecks entspricht jener der jeweiligen Sonnenhemisphäre, für den zurückliegenden gilt das Gegenteil. Im weiteren Verlauf des Zyklus werden die Flecken immer häufiger und größer (Gruppenbildung). Zuletzt sammeln sie sich am Äquator, wo sie einander weitgehend neutralisieren; der Rest der magnetisierten Gasfelder wird zu den Polen getragen: Das Gesamtmagnetfeld der Sonne wird wieder einheitlich (bipolar), jedoch mit umgekehrter Polarität. Die genauen Eigenschaften des zugrundeliegenden, sogenannten Sonnendynamos sind noch nicht umfassend geklärt. Sonnenflecken sind meist von Faculae oder "Plages" gesäumt: heißen Regionen, die energiereiche Strahlung abgeben. Kommt es zu einem „Kurzschluss“ der Feldbögen, bricht das Magnetfeld unvermittelt zusammen und das anliegende Plasma wird freigesetzt; die Folge ist ein koronaler Massenauswurf. Temperaturen und Magnetfelder. Die mittlere Oberflächentemperatur der Sonne beträgt etwa 5500 °C. Da sie annähernd wie ein Planck'scher „schwarzer Körper“ strahlt, sind physikalisch korrektere Angaben eine „effektive Temperatur“ von 5770 K bzw. eine Strahlungstemperatur von 6050 K. Bei diesen Temperaturen liegt das Maximum der abgegebenen Energie im Bereich des sichtbaren Lichts. Der Kernbereich eines Sonnenflecks, die so genannte Umbra („Kernschatten“), hat nur rund 4000 °C, der ihn umgebende Hof – die Penumbra („Halbschatten“) etwa 5000 °C. Bei diesen niedrigeren Temperaturen sinkt die Strahlungsintensität im sichtbaren Licht bereits deutlich ab, in der Umbra auf etwa 30 %. Umbra und Penumbra erscheinen daher bei Beobachtung durch ein Sonnenfilter oder bei der Okularprojektion deutlich dunkler. Ursache für die Abkühlung sind starke Magnetfelder, welche die Konvektion und damit den Hitzetransport aus dem Sonneninnern behindern. Im sichtbaren Licht zeigen die Sonnenflecken daher die aktivsten Regionen auf der Sonne an. Darüber hinaus kommt es bei einer hohen Anzahl von Sonnenflecken vor, dass sich zwei benachbarte, aber gegenläufig gepolte Magnetfeldlinien neu verbinden (Rekonnexion) und die freiwerdende Energie in den Raum abgeben. Eine sichtbare Variante sind die Flares. Kommt es zu einem Strahlungsausbruch in Richtung Erde, so kann dieser zu starken Störungen im Erdmagnetfeld führen und sogar den Betrieb von Satelliten oder elektrischen Anlagen auf der Erde beeinträchtigen. Zudem erhöht solch ein Strahlungsausbruch die Wahrscheinlichkeit für Polarlichter auch in gemäßigten Breiten. Mit einem Messgerät des Solar and Heliospheric Observatory konnte die Schallgeschwindigkeit sowohl in der Umgebung von Sonnenflecken als auch bis in 24.000 km Tiefe gemessen werden. Die Ursache der teils erheblichen Abweichungen ist bisher nicht geklärt. In Jahren mit verminderter Fleckenanzahl verringert sich ebenfalls die Sonnenstrahlung um etwa 1 ‰. Die Jahre zwischen 1645 und 1715, das so genannte Maunderminimum, während dessen keine Sonnenflecken beobachtet wurden, fallen mit der Kleinen Eiszeit zusammen. Es ist jedoch nicht geklärt, ob die geringen Änderungen der Sonnenaktivität ausreichen, Klimaveränderungen zu erklären. Mit der Schwankung der Sonnenaktivität verändert sich auch die Ionosphäre der Erde. Dies hat Auswirkungen auf die Funkübertragung im Kurzwellenbereich. ("Siehe auch:" Amateurfunk) Sonnenflecken-Gruppen. Sonnenflecken treten meistens in Gruppen auf, beginnen aber als kleine Einzelflecken aus der Vereinigung mehrerer Konvektionszellen (Granulen). Sobald ein Einzelfleck wächst, wird er zu einer magnetisch bipolaren Gruppe ("Typ B"). Manche Flecken wachsen weiter, bilden die oben erwähnten Höfe (Penumbra) und werden dann als "Typ C" und "Typ D" bezeichnet. Nach einigen Tagen bis Wochen bilden sie sich wieder zurück ("Typ H und J"). Manche jedoch wachsen weiter und können sich als "Typ E, F oder G" über mehr als 200.000 km erstrecken. Diese Riesengruppen können mehrere Monate bestehen bleiben und mit Flare-Eruptionen einhergehen. Doch treten sie nur rund um das Sonnenfleckenmaximum auf. Anhand der Sonnenflecken kann man die Rotation der Sonne beobachten, da sie sich auf der Oberfläche mitbewegen. Am Äquator rotiert die Sonne mit 25,03 Tagen etwa 20 % schneller als in Polnähe. Dieses aus der Physik von Fluiden bekanntes Phänomen heißt "differentielle Rotation". Die äquatoriale Rotationsdauer von 25 Tagen wird hingegen als synodische Periode von 27,9 Tagen beobachtet, weil die Erde im gleichen Sinn um die Sonne kreist. Zyklen. Rekonstruierte Sonnenfleckenaktivität der vergangenen 11.000 Jahre Der Sonnenfleckenzyklus bezeichnet die Periodizität in der Häufigkeit der Sonnenflecken. Er beschreibt einen Zeitraum von durchschnittlich 11 Jahren, welcher nach Samuel Heinrich Schwabe auch als "Schwabezyklus" bezeichnet wird. Im Fleckenminimum sind oft monatelang "keine" Flecken zu sehen, im Sonnenfleckenmaximum jedoch Hunderte. Innerhalb dieses Zyklus verändern die Fleckengebiete ihre heliografische Breite und die magnetische Polarität, so dass sie tatsächlich einem 22-jährlichen Zyklus folgen (Hale-Zyklus nach George Ellery Hale). Dauer eines Zyklus. Der 11-jährliche Sonnenfleckenzyklus ist nicht exakt regelmäßig. Obwohl der Durchschnittswert 11,04 Jahre beträgt, treten auch Zyklen von 9 bis 14 Jahren auf. Auch der Durchschnittswert variiert über die Jahrhunderte – die Sonnenzyklen im 20. Jahrhundert waren zum Beispiel mit 10,2 Jahren im Durchschnitt kürzer als die der vergangenen Jahrhunderte. Der Verlauf des Maunderminimums und weiterer Minima legt eine Variation der Gesamtintensität der Sonne auf einer Zeitskala von mehreren 100 Jahren nahe, was jedoch noch unbelegt ist, da die Aufzeichnungen noch nicht lange genug erfolgen. Aus der 10Be-Verteilung im Grönlandeis schließt man auf mehr als 20 extreme Sonnenminima innerhalb der letzten 10.000 Jahre. Auch der Verlauf des Zyklus’ selbst ist nicht konstant. Der Übergang vom Minimum zum Maximum der Sonnenaktivität erfolgt umso schneller, je höher das Maximum sein wird. Dies wurde zuerst von dem Schweizer Astronomen Max Waldmeier postuliert. Im Gegensatz zum steilen Anstieg nimmt die Anzahl der Sonnenflecken beim Übergang zum Minimum jedoch nur langsam ab. Nur im Falle eines sehr niedrigen Maximums sind An- und Abstieg ungefähr gleich lang. Beginn und Ende eines Zyklus. Orts- und zeitaufgelöste Variation des Magnetfeldes auf der Sonnenoberfläche Den Beginn eines neuen Zyklus leitete man in der Vergangenheit aus dem Tiefpunkt der Zykluskurve ab. Dank verbesserter Messtechnik ist es heute möglich, die Magnetfeld-Polarität der Sonnenflecken zu bestimmen. Ein neuer Zyklus beginnt, wenn sich die Polarität zusammengehöriger Flecken auf der Sonnenoberfläche vertauscht. Die Auflösung der Abbildung rechts ist zu klein, um den Wechsel ablesen zu können. Jedoch ist die Vertauschung der Polarität zwischen benachbarten Phasen deutlich zu erkennen. Die Zyklen erhielten durch Rudolf Wolf eine fortlaufende Nummerierung, beginnend im Jahre 1749 (siehe Geschichte). Derzeit befinden wir uns im 24. Zyklus. Während des Ausklangs des 23. hin zum 24. Zyklus waren im März 2008 sowohl Sonnenflecken der alten Polarität als auch neue mit vertauschter Polarität zu beobachten. Das eigentliche Minimum und der eindeutige Beginn des 24. Zyklus konnten selbst im Oktober 2008 noch nicht unterschieden werden. Die ruhige Sonne zeigte ein spätes schwaches Maximum im Februar 2014 und lässt ein noch schwächeres um 2023 erwarten. Wie bereits oben erwähnt, haben die beiden Flecken einer bipolaren Gruppe eine unterschiedliche magnetische Ausrichtung, ebenso wie die vorauslaufenden Flecken auf der Nordhalbkugel eine entgegengesetzte magnetische Ausrichtung zu denen der Südhalbkugel haben. Innerhalb eines Sonnenfleckenzyklus ändert sich aber die Polarität der vorauslaufenden Flecken nicht. Diese wechselt erst mit dem nächsten Sonnenfleckenzyklus, so dass ein "vollständiger" Zyklus 22 Jahre umfasst (Hale-Zyklus). Im 19. Jahrhundert und bis etwa 1970 wurde vermutet, dass es noch eine etwa 80-jährliche Periode (Gleißberg-Zyklus, nach Wolfgang Gleißberg) geben könne, der sich in niedrigen Werten der Relativzahl R von 1800 bis 1840 und (weniger deutlich) 1890–1920 äußerte. Neuere Forschungen sind von dieser Hypothese wieder abgegangen bzw. erklären die Schwankungen durch eine Art Super-Konvektion. Andere Hypothesen sprechen nicht nur vom 80-jährlichen Zyklus, sondern noch von einem zusätzlichen 400-jährlichen Zyklus. Dauer des An- und Abstiegs nach M. Waldmeier. Nach der von Max Waldmeier entwickelten Eruptions-Theorie dauert der Abstieg vom Fleckenmaximum bis zum Minimum umso länger, je höher das Maximum war. Hingegen ist der Anstieg zu einem hohen Maximum kürzer als im Durchschnitt; das Integral über die Zeit (d.h. die Fläche unter der Aktivitätskurve) ist fast konstant. Zwar wurde Waldmeiers Hypothese durch die Entdeckung der Magnetfeld-Störungen bei Sonnenflecken obsolet, die Statistik der An- und Abstiege trifft jedoch bis auf seltene Schwankungen zu. Breiteneffekt. Zu Beginn eines Sonnenfleckenzyklus bilden sich die ersten Flecken in etwa 30° – 40° heliografischer Breite nördlich und südlich des Sonnenäquators. Im Laufe der nachfolgenden Jahre verschieben sich die Entstehungsgebiete immer weiter Richtung Äquator. Nach der Hälfte des Zyklus ist die Sonnenaktivität am höchsten und die Sonnenflecken entstehen etwa in 15° Breite. Die Anzahl und flächenmäßige Ausdehnung ist jetzt am größten. Zum Ende des Zyklus bilden sich vereinzelte Flecken in etwa ± 5° Breite und der Zyklus endet. Gleichzeitig bilden sich aber in den hohen Breiten die ersten Flecken des nächsten Zyklus. Trägt man die Verteilung auf den Breitengraden und die Ausdehnung der Flecken in ein Diagramm über die Zeit ein (Spörers Gesetz), so entsteht das so genannte Schmetterlingsdiagramm – ähnlich den geöffneten Flügeln eines Falters. Aktive Längengrade und Flip-Flop-Zyklus. Bereits seit Anfang des 20. Jahrhunderts suchte man nach ausgezeichneten Längengraden, in denen Sonnenflecken bevorzugt entstehen (aktive Längengrade), jedoch blieb die Suche lange Zeit erfolglos – die gefundenen Längengrade variierten je nach Auswertungsmethode sowohl in Anzahl als auch in ihrer Lage, zudem waren sie nicht über längere Zeiträume beständig. Zu Beginn des 21. Jahrhunderts scheint sich die Situation jedoch zu ändern: Usoskin und Berdyugina untersuchten den Ansatz „wandernder Längengrade“ und fanden zwei um 180° versetzte aktive Längengrade, die der differentiellen Rotation unterliegen und sich über den untersuchten Zeitraum von 120 Jahren nicht veränderten. Nachdem die Ergebnisse der ersten Veröffentlichungen als mögliche „Artefakte“ der verwendeten Auswerte- und Filtertechnik angezweifelt wurden, konnten die Ergebnisse mittlerweile auch an den Rohdaten ohne weitergehende Filterung nachgewiesen werden. Die beiden aktiven Längengrade sind nicht gleichzeitig aktiv: Die Aktivität wechselt innerhalb einer Sonnenrotation von einem zum anderen, die durchschnittliche Periode beträgt hierbei 3,8 Jahre auf der Nordhalbkugel und 3,65 auf der Südhalbkugel – etwa ein Drittel des Schwabezyklus. Diesen Zyklus, der ab 1998 bereits bei der Aktivität von Sternen entdeckt wurde, nennt man auch "Flip-Flop-Zyklus". Quantifizierung der Sonnenflecken. Graph über die Sonnenaktivität seit 1975. Die blaue Linie kennzeichnet die Zahl der Sonnenflecken, und der elfjährige Zyklus ist deutlich zu erkennen. Sonnenflecken-Relativzahl. Die Häufigkeit der Sonnenflecken wird seit langem durch die so genannte Relativzahl (auch Wolf'sche Relativzahl genannt, definiert von Rudolf Wolf) erfasst. Man zählt die Einzelflecken (Zahl f) und addiert dazu das Zehnfache der Gruppenanzahl (g), wobei auch Einzelflecken (Typ A und I) als „Gruppe“ gelten. Diese einfache Maßzahl der Sonnenaktivität bewährt sich seit über 100 Jahren ebenso gut wie die aufwendige Flächenmessung der Sonnenflecken (maximal Promille der Sonnenfläche). Durch die einfache Berechnungsweise lässt sich R bis weit in die Vergangenheit zurück abschätzen – genauer gesagt ab 1610, dem Jahr der Erfindung des Fernrohrs. Die Zentrale, der viele Observatorien täglich diese Maßzahlen meldeten, war bis Ende 1979 die Eidgenössische Sternwarte in Zürich, seitdem werden die Daten beim Royal Observatory of Belgium gesammelt. Die dort ansässige Organisation heißt S.I.D.C. (Solar Influences Data Analysis Center). Es gibt aber noch eine Reihe weiterer Beobachternetze, die Daten sammeln und untereinander austauschen. In einem Minimumsjahr liegt R im Mittel bei 5 bis 20 (de facto 0 bis 3 kleine Flecken), zur Zeit des Maximums steigen die Monatsmittel auf 60 bis 200 (durchschnittlich etwa 5 bis 10 größere Fleckengruppen). Da jedoch die Sichtbarkeit von Flecken mit der Größe des verwendeten Fernrohrs zunimmt, wurde die Zürcher Formel entwickelt, die sich auf ein „Normteleskop“ bezieht. Dadurch kommen manchmal seltsame Relativzahlen zustande (z. B. bei einem "einzelnen" Fleck R* = 9 statt beobachtet R = 11), – was aber dem Wert der Maßzahl keinen Abbruch tut. Bereits mit einem kleinen Fernrohr von 5 bis 10 cm Apertur lassen sich Sonnenaktivität und -zyklus, Rotation, Schmetterlingseffekt und anderes gut beobachten (siehe auch Sonnenbeobachtung). Natürlich darf man nie durch ein ungeschütztes Fernrohr in die Sonne sehen – das kann schwere Augenschäden bewirken! Als professionelle Hilfsmittel zur gefahrlosen Beobachtung kommen spezielle Sonnenfilter oder spezielle Optiken (Herschelkeil, H-alpha-Filter) zum Einsatz. Am einfachsten ist es, das Bild der Sonne auf weißes Papier zu projizieren, indem das Okular um einige Millimeter herausgedreht und das Papier ein paar Dezimeter dahinter gehalten wird (Okularprojektion). Auch die Nordrichtung lässt sich so einfach feststellen, weil das Bild durch die Erdrotation genau nach Westen wandert. 10,7-cm-Radio-Flux-Index. Der solare Flux eignet sich zur Messung der Sonnenaktivität besser als die Sonnenfleckenrelativzahl, da diese von der subjektiven, manuellen Zählung der Sonnenflecken abhängt. Er kann in die Sonnenfleckenrelativzahl und umgekehrt umgerechnet werden. Waldmeier-Klassifikation. Vom Schweizer Astronomen Max Waldmeier (Dissertation um 1935) stammt die Idee einer Einteilung der verschiedenen Typen und Größen von Sonnenflecken in ein Schema, welches auch die zeitliche Entwicklung wiedergibt: Vom kleinen Einzelfleck (Typ A, siehe Bild) bis zu riesigen schattierten Gebieten (Typ E und Typ F) und der anschließenden Rückbildung. Kleine Flecken (A) entwickeln sich aus sogenannten Poren (größere Zellen der Granulation), verschwinden aber oft wieder nach wenigen Stunden. Bestehen sie etwas länger, werden sie magnetisch bipolar (Typ B oder C) und können sich manchmal zu D oder E/F weiterentwickeln und mehrere Wochen als bis zu 250.000 km lange Fleckengruppe bestehen bleiben. Meist geht aber die Rückbildung von B- oder C-Flecken direkt zu den Typen H oder J. Stadien der Entwicklung. Die lokale Verstärkung des Magnetfeldes behindert – wie oben erwähnt – den Wärmetransport einiger Konvektionszellen. Die dunklere Körnung dieser Granulen (etwa 1000 K kühler) entwickelt sich zu einem Einzelfleck (Typ A). Manche davon verschwinden innerhalb einiger Tage, andere entwickeln sich zu einer bipolaren Zweiergruppe (B). Aus ihnen können sich größere Gruppen (Typ C bis D) mit Penumbra entwickeln, die vereinzelt das Stadium E/F mit bis über hundert Flecken erreichen. Die Rückbildung dieser bis 200.000 km großen Fleckengruppen (siehe Titelbild) zu kleinen Doppel- und Einzelflecken (H, I) erfolgt innerhalb einiger Wochen oder Monate. Nach dieser Klassifikation von Max Waldmeier (um 1940) werden also nicht alle der Kleinflecken vom Typ A/B zu größeren Fleckengruppen des Typs C und höher, sondern allenfalls zu kleinen Poren mit Penumbra (Stadium H oder I). Nur wenn sie sich zu den größten Typen D, E bzw. F entwickeln, können sie bei der Rückbildung dunkle Doppelflecken mit Halbschatten werden. Solche Zweiergruppen sind immer magnetisch unterschiedlich gepolt, und auf der anderen Hemisphäre genau umgekehrt. Dies ist ein Hinweis auf große, langsame Strömungen im Sonneninnern, die auch den 11-Jahre-Rhythmus bewirken. Gruppe Typ E. Eine Sonnenfleckengruppe vom Typ E ist die zweitgrößte Entwicklungsstufe von bipolaren Fleckengruppen. Sie kann nur bei hoher Sonnenaktivität – das heißt, bei vielen Sonnenflecken – mehrmals monatlich auftreten. Typ E hat zahlreiche Einzelflecken (20–100) und wie Typ D, F und G deutliche Halbschatten. Dort beträgt die Temperatur des Sonnengases (durchschnittlich knapp 6000 °C) nur etwas über 5000 °C, gegenüber 4000 °C in den dunkelsten Teilen der Umbra. Eine typische E-Gruppe hat Ausmaße von 10 Erddurchmessern; die Erde selbst würde in manchem Einzelfleck verschwinden. Gruppe Typ F. Eine Sonnenfleckengruppe vom Typ F ist die flächenmäßig größte, aber nicht sehr häufige Entwicklungsstufe von bipolaren Fleckengruppen. Ein Beispiel ist auf dem obigen Foto zu sehen. Nach der Klassifikation von Max Waldmeier entwickeln sich nicht alle kleinen Sonnenfleckengruppen vom Typ A oder B zu größeren Fleckengruppen des Typs C bis E weiter. Bei genügend großer Sonnenaktivität, d. h., bei vielen Magnetstörungen und Sonnenflecken, entsteht Typ F aber häufig aus dem Typ E und setzt diesen voraus. Typ F hat die größte Anzahl von Einzelflecken (bis zu etwa 200) und die maximale Fläche von so genanntem Halbschatten, der Penumbra. Dort ist die normale Temperatur des Sonnengases nur um etwa 500 bis 1000 °C verringert, gegenüber 2000 °C in den dunkelsten Teilen der Umbra. Nach etwa 2–10 Wochen bildet sich die Gruppe über den Typ G oder H bis zum Verschwinden als Einzelfleck (Typ I) zurück. Weitere Einteilungen. In der Zeit von 1875 bis 1997 führte das Royal Greenwich Observatory umfangreiche Sonnenbeobachtungen durch. Die Sonnenflecken wurden mit 10 Kategorien in einzelne Flecken, Paare, Gruppen und deren Kombinationen unterteilt. Geschichte. Ein mit bloßem Auge sichtbarer Sonnenfleck Manche Sonnenflecken sind so groß, dass man sie mit dem bloßen Auge etwa bei einem Sonnenuntergang sehen kann. Aufzeichnungen darüber gibt es seit über 2000 Jahren. Beobachtungen von Anaxagoras (etwa 467 v. Chr.) kann man nicht eindeutig zuordnen. Theophrastos v. Eresos (4./3. Jh. v. Chr.) spricht in seinen „Wetterzeichen“ eindeutig von einem Fleck auf der Sonne. Aus China stammen Aufzeichnungen aus den Jahren 165 und 28 v. Chr. Eine Beobachtung aus dem Jahr 1128 von Johannes von Worcester blieb unbeachtet, da sich das damalige Weltbild nur eine „makellose“ Sonne vorstellen konnte. Eventuelle Flecken mussten daher Objekte zwischen Erde und Sonne sein, wie etwa unentdeckte Planeten, Monde oder Wolken. In verschiedenen Epochen tauchten jedoch auch Vorstellungen auf, die in den Sonnenflecken dunkle Löcher, schwimmende Schlacken oder kühlere Stellen sahen. Nach der Erfindung des Teleskops begann die systematische Beobachtung der Sonnenflecken. Die älteste private Aufzeichnung aus dieser Zeit stammt vom 8. Dezember 1610 von Thomas Harriot. Im März 1611 publizierte Johann Fabricius erstmals über Sonnenflecken. Veränderung der Häufigkeit von Sonnenflecken seit 1610 Langzeitbeobachtungen wurden unabhängig davon von Galileo Galilei und Christoph Scheiner durchgeführt. Galilei schrieb im Jahr 1613 in seinen "lettere solari" von seinen in das Jahr 1611 zurückreichenden Beobachtungen. Scheiner entdeckte vom Turm der Heilig-Kreuz-Kirche in Ingolstadt am Vormittag des 21. März 1611 zusammen mit seinem Schüler Johann Baptist Cysat die Sonnenflecken. Galilei vertrat schon frühzeitig die heutige Ansicht, dass die Flecken Strukturen der Sonnenoberfläche seien. Dies brachte ihm, neben seinem Eintreten für das heliozentrische Weltbild, ein erstes Inquisitionsverfahren im Jahr 1615 ein. Die Beobachtung von Sonnenflecken wurde danach wegen des Maunderminimums (1645–1715) sporadisch durchgeführt. Während dieser 70 Jahre hatte die Sonne eine Phase geringer Sonnenfleckenaktivität. Etwa damals wurden die helleren Gebiete der Sonnenfackeln entdeckt. Christian Pedersen Horrebow (1718–1776) war wie sein Vater Peder Nielsen Horrebow (1679–1764) Direktor des Observatoriums in Kopenhagen, welches bis 1861 im Rundetårn beheimatet war. Die Anerkennung für die Entdeckung der Zyklizität der Sonnenfleckentätigkeit fiel jedoch dem anhaltischen Apotheker und Amateur-Astronomen Samuel Heinrich Schwabe aus Dessau zu. Aufgrund seiner alltäglichen Beobachtungen im Verlauf von 17 Jahren (1826–1843) bemerkte auch er, dass die Häufigkeit der Sonnenflecken in einer rund 10-jährlichen Tendenz periodisch schwankt. Schwabe unterbreitete daraufhin die Unterlagen und seine Schlussfolgerungen dem damaligen Direktor der Eidgenössischen Sternwarte in Zürich, Rudolf Wolf, der sie bestätigte. Anhand Tausender weiterer Sonnenangaben und Bezeichnungen von Sonnenflecken aus dem Zeitraum vom 17. bis 19. Jahrhundert begann Wolf damit, die Periodizität der Sonnenflecken über das Jahr 1826 bis zu Galilei zurückzurechnen. Wolf rekonstruierte dadurch die statistische Entwicklung der Sonnenaktivität von dem Jahr 1749 an, genannt die Zürcher Zeitreihe. Wolf nummerierte die Sonnenfleckenzyklen und wählte als Startpunkt den 0. Zyklus mit seinem Maximum im Jahr 1749. Vorangegangene Zyklen erhielten negative Zahlen. Aktuelles. Durch die Aufnahmen der STEREO-Satelliten erhofft sich die Forschung neue Erkenntnisse über Sonnenanomalien. Die 3D-Informationen sollen helfen, die Physik der Sonne noch besser zu verstehen und erlauben bessere Vorhersagen über die Einflüsse der Sonnenaktivität auf die Erde. Außerdem spielen zwei weitere Satelliten eine wichtige Rolle in der Beobachtung der Sonne: das in die Jahre gekommene SOHO und seit 2010 das SDO. Schiefer Turm von Pisa. Der Schiefe Turm von Pisa Der Schiefe Turm neben dem Dom Der Schiefe Turm neben dem Dom Der Schiefe Turm von Pisa () ist das wohl bekannteste geneigte Gebäude der Welt und Wahrzeichen der Stadt Pisa in Italien. Der Turm war als freistehender Glockenturm (Campanile) für den Dom in Pisa geplant. 12 Jahre nach der Grundsteinlegung am 9. August 1173, als der Bau bei der dritten Etage angelangt war, begann sich der Turmstumpf in Richtung Südosten zu neigen. Daraufhin ruhte der Bau rund 100 Jahre. Die nächsten vier Stockwerke wurden dann mit einem geringeren Neigungswinkel, als den bereits bestehenden gebaut, um die Schieflage auszugleichen. Danach musste der Bau nochmals unterbrochen werden, bis 1372 auch die Glockenstube vollendet war. Der Grund für seine Schieflage liegt in dem Untergrund aus lehmigem Morast und Sand, der sich unter dem Gewicht verformt. Neuesten Ausgrabungen zufolge steht er am Rand einer ehemaligen Insel direkt neben einem antiken, zur Bauzeit bereits versandeten Hafenbecken. Die Schieflage des Turms beträgt nach Ende der Sanierungsarbeiten rund vier Grad, entsprechend einer Auslenkung an der Spitze von 3,9 m (bei rund 55,8 m Höhe). Im Inneren des Turmes hängt ein Pendel, welches oben in der Mitte befestigt ist, durch die Schieflage unten allerdings beinahe die Seitenwand berührt. Der Legende nach hat der aus Pisa stammende Galileo Galilei bei Versuchen auf dem Turm die Fallgesetze entdeckt. Im Jahre 1987 wurde das Ensemble aus dem Turm, der benachbarten Kathedrale, dem Baptisterium und dem Friedhof von der UNESCO zum Weltkulturerbe erklärt. Architektur. Der 55 Meter hohe und 12 Meter durchmessende Campanile besteht aus 14.200 Tonnen weißen Carrara-Marmors und hat sieben Glocken, die aber längere Zeit wegen der Einsturzgefahr nicht läuten durften. Er sollte der Höhepunkt der ganzen Anlage der Piazza dei Miracoli sein. Er unterscheidet sich von den üblichen quadratischen Türmen Mittelitaliens und steht in einem großen Gegensatz zu den spitz zulaufenden Türmen des nördlichen Europa. Er ruht auf einem spiralförmigen Fundament aus 700 m³ Bruchstein und Mörtel, in 100 Metern Höhe wollte sein Erbauer Bonanno die Glocken läuten lassen. Der Mauerring um diesen Bereich herum ist 3,57 Meter dick. Neben dem Eingang sind Monat und Jahr des Baubeginns eingemeißelt: August 1173. In Urkunden wird jedoch stets 1174 genannt, denn für die Pisaner begann nach damaligem Kalender das neue Jahr bereits am 25. März. Der Campanile hatte – außer dass er die Glocken tragen sollte – noch eine andere Funktion. Bei äußerer Gefahr flüchtete damals der Klerus in den Turm. Maueröffnungen und -vorsprünge im Zylinderschacht machten es möglich, bei Bedarf in jedem Stockwerk Gebälk und Fußböden einzuziehen. Jedes Stockwerk hat eine Tür hinaus auf die Säulengalerie, die jeweils aus 30 Säulen besteht. Auf der Südseite führen oben sechs Stufen zur Glockenstube hinauf, auf der Nordseite nur vier. Die Treppe zur obersten Aussichtsterrasse soll Brunelleschi inspiriert haben, einen ähnlichen Aufgang zur Laterne auf der Kuppel des Doms in Florenz zu bauen. Vom 7. Januar 1990 an musste der 14.500 Tonnen schwere Turm für Besucher gesperrt werden, da die Schräglage zu gefährlich wurde. Es gab eine weltweite Aufforderung an Baustatiker, die besten Lösungen zur Stabilisierung auszuarbeiten und einzureichen. Nach 13-jährigen Sanierungsmaßnahmen, bei denen der Turm wieder um 44 Zentimeter aufgerichtet wurde, ist er seit Dezember 2001 wieder für Touristen geöffnet. Besuchergruppen können den Turm zu jeder vollen und halben Stunde in Gruppen von maximal 40 Besuchern für eine Dauer von 30 Minuten besteigen. Der schiefe Turm von Pisa ist nicht das schiefste Gebäude bzw. der schiefste Turm der Welt, wie häufig vermutet wird. Dennoch gehört er mit zu den schiefsten Bauwerken, die – aufrecht geplant – unabsichtlich in eine Schieflage geraten sind. Glocken. Die sieben Glocken des Domes werden aus statischer Vorsicht nur noch mittels innenliegender elektromagnetischer Schlaghämmer angeschlagen, und zwar mittags um 12 Uhr und jeweils vor den Messen. Zuvor wurden die Glocken entsprechend ihrer Namen liturgisch eingesetzt, so etwa die "Terza" zur Terz, der dritten Stunde des liturgischen Tages, also um 9 Uhr vormittags, oder die "Vespruccio" zur Vesper, 18 Uhr. Das Läuten geschah von Hand; an Festtagen wurden die Glocken voll – "a slancio" – ausgeschwungen. Die kleinste Glocke von 1501, "Vespruccio" genannt, hat eine sehr schlanke zuckerhutartige Form. Die Glocke "Del Pozzo" ist ein originalgetreuer Nachguss der Vorgängerin, 1606 von Nicolaus Castellum gegossen. Sanierungsmaßnahmen. Versuche im Mittelalter, den Bau durch besondere Baumaßnahmen wie geneigte Böden sowie dünnere und leichtere Mauern auf der überhängenden Seite zu retten, schlugen fehl, sodass von den ursprünglich geplanten 100 Metern Höhe nur 54 Meter gebaut wurden. Seit der vorübergehenden Schließung 1990 waren diverse Sanierungsmaßnahmen unternommen worden. Im Mai 1992 wurde der Campanile mit Stahlreifen im zweiten Geschoss gesichert, da sich dort gefährliche Risse im tragenden Marmor gezeigt hatten. Insgesamt wurden 18 dieser Reifen angebracht. Zusätzlich wurden im Juli 1993 im Fundament 600 Tonnen Bleibarren als Gegengewicht auf der Nordseite eingelagert. Dadurch ist die Schieflage des Turmes 1993 um einen Zentimeter verringert worden. 1995 wurden weitere Sanierungsmaßnahmen (Bodenvereisung und Stahlkabel-Verankerung) durchgeführt, in der Folge erhöhte sich dabei allerdings die Neigung. Daraufhin wurde die höhere Seite des Fundaments mit 900 Tonnen Blei beschwert, was die Neigung stoppte. Ein Komitee internationaler Fachleute, das über die Sanierungsmaßnahmen des Turmes befinden sollte (1990 bis 2001 unter Leitung von Michele Jamiolkowski), konnte sich auf keine bestimmten Maßnahmen festlegen und wurde deshalb Ende 1996 von der italienischen Regierung aufgelöst. Nach dem großen Erdbeben vom September 1997 wurde das Komitee jedoch wieder eingesetzt. Man einigte sich im Herbst 1998 mehrheitlich auf eine neue Maßnahme zur Sanierung des Campanile, die sogenannte Bodenextraktions-Methode (geplant von John Burland nach einer Idee des Ingenieurs Fernando Terracina aus dem Jahr 1962). Dazu wurden im folgenden Jahr tiefe Löcher in den Boden unter dem nördlichen Teil des Turmes gebohrt, so dass ca. 50 m³ Material entfernt wurde. Das Erdreich sackte langsam nach, schließlich auch der Boden des Turmes, und der ganze Turm richtete sich zunehmend nach Norden auf. Die Gesamtneigung des Turmes wurde von 5,5 Grad vor Beginn der Sanierungsarbeiten (um 1990) auf etwa vier Grad verringert. Damit ist der Turm voraussichtlich für die nächsten 300 Jahre gesichert. Nach Abschluss der Sanierungsmaßnahmen wurde der Turm am 15. Dezember 2001 wieder zur Besichtigung freigegeben. Zur Sicherung während dieser Arbeiten wurde der Turm 1998 mit zwei starken Stahlseilen von 103 Metern Länge so befestigt, dass er nicht durch unerwartete Bewegungen einstürzen konnte. Bei Bauarbeiten zur Sicherung des Gebäudes ist eine alte Römerstraße entdeckt worden, die noch in alten Plänen verzeichnet war, außerdem ein mittelalterliches Grab samt vollständigem Skelett. Sprachaufbau des Esperanto. Dieser Artikel befasst sich mit den grammatikalischen, phonetischen und lexikalischen Grundlagen des Esperanto. Vokallänge. Die Vokallänge bewirkt keine Bedeutungsunterscheidung: Man kann Vokale nach Belieben kurz, mittellang oder lang aussprechen. Trotzdem gibt es bestimmte Tendenzen, je nach Situation die Vokale kurz oder lang auszusprechen. So wird normalerweise ein Vokal in einer betonten Silbe lang ausgesprochen, wenn auf ihn nicht mehr als ein Konsonant folgt, z. B. "simila" [si'miːla], aber "rezisti" [re'zisti]. Diese Vokallänge bleibt häufig auch bei Apokope der o-Endung der Substantive bestehen, sodass Minimalpaare entstehen, die sich lautlich nur durch Länge bzw. Kürze des Vokals unterscheiden. Beispiel: [viːn] „Wein“, aber [vin] „dich“. Wortbetonung. Esperanto hat fünf Vokalphoneme: "a", "e", "i", "o", "u". Jeder dieser Vokale bildet eine eigene Silbe. Der Halbvokal ŭ klingt wie der kurze Vokal u, bildet aber keine eigene Silbe. In mehrsilbigen Wörtern wird stets die vorletzte Silbe betont. Bei der Elision (siehe unten) zählt die Endung -o mit; es wird also die letzte sichtbare Silbe betont. Wortarten. Im Esperanto lassen sich die Wörter in zwei Gruppen einteilen: Einerseits "Endungswörter" "(finaĵvortoj)," die eine Endung haben, die die Wortart/Wortfunktion näher definiert; andererseits "Partikeln" "(vortetoj)." Die Partikeln sind eine begrenzte Gruppe von Wörtern, die sich je nach ihrer Funktion in Präpositionen, Pronomen, substantivische Partikeln, adjektivische Partikeln, Zahlwörter, Konjunktionen, Subjunktionen, Vergleichspartikeln, adverbiale Partikeln und Exklamationen einteilen lassen. Die Endungswörter lassen sich einteilen in Verben, O-Wörter (Substantive), A-Wörter (Adjektive) und E-Wörter ([abgeleitete] Adverbien). Verben haben eine der Verb-Endungen -i, -as, -is, -os, -us oder -u. O-Wörter haben immer die Endung -o, A-Wörter immer die Endung -a, E-Wörter immer die Endung -e. Diese drei Wortarten werden häufig auch als „Substantive“, „Adjektive“ und „abgeleitete Adverbien“ bezeichnet; diese Bezeichnung täuscht allerdings eine Asymmetrie vor, die im Esperanto nicht vorhanden ist: Sie zwingt einen dazu, die Adverbien in zwei Gruppen (auf -e endende „abgeleitete“ Adjektive und adverbiale Partikeln) einzuteilen, tut dies aber nicht mit den Adjektiven und Substantiven, obwohl es auch adjektivische und substantivische Partikeln gibt (z. B. "iu", "ĉio"). Wenn der Substantivendung -o keine weiteren grammatischen Suffixe folgen, kann das -o elidiert (ausgelassen) werden. Die Elision wird immer durch einen Apostroph (’) sichtbar gemacht. Es gibt keinen unbestimmten Artikel (Tie estas telefono (bzw. telefon’). – Dort ist ein Telefon.) und einen bestimmten, der nicht gebeugt wird: la. Obwohl die Regeln zur Anwendung des bestimmten Artikels denen der deutschen Sprache ähneln, gibt es einige Abweichungen: z. B. wird im Esperanto im Gegensatz zum Deutschen vor Abkürzungen meistens kein bestimmter Artikel gesetzt (NATO sendis soldatojn. – "Die" NATO sandte Truppen.) Die Mehrzahlendung ist -j. Sie wird an O-Wörter (Substantive), A-Wörter (Adjektive) sowie einige substantivische und adjektivische Partikeln angehängt. Es gibt allerdings auch Partikeln, die trotz ihrer Pluralbedeutung nicht auf j enden: "ni" (wir), "ambaŭ" (beide). Esperanto kennt nur zwei Fälle: den Nominativ und den Akkusativ. Die anderen Fälle des Deutschen (Genitiv und Dativ) werden durch Präpositionalgruppen (mit "de" bzw. "al") übersetzt. Der Akkusativ wird aus der Nominativform durch das Suffix -n abgeleitet. Treffen Pluralsuffix und Akkusativsuffix zusammen, wird zuerst das Pluralsuffix angehängt, dann das Akkusativsuffix. Im Gegensatz zu einigen agglutinierenden Sprachen wie dem Türkischen sind Pluralsuffixe zwingend erforderlich, wenn die Menge des Gegenstands ungleich 1 ist, ebenso Akkusativsuffixe an "allen" Elementen (Substantive, Adjektive, Pronomen) des Objekts. Verben und Zeitformen. Das Verb hat in allen konjugierten Zeitformen unabhängig von Person und Numerus nur eine Form. Es gibt in jeder Zeitstufe ein aktives und ein passives Partizip; der Vokal ist dabei derselbe wie bei den Personalformen. Die Partizipien können adjektivisch und substantivisch (zur Bezeichnung einer Person) verwendet werden, mitunter werden aus ihnen auch weitere komplexe Verbformen (siehe unten) gebildet. Die aktiven Formen mit nicht idiomatischer Übersetzung sind Die Wortbildung. Man kann auch mehrere Vor- und Nachsilben miteinander kombinieren, wobei die Reihenfolge der Affixe zu beachten ist. Diese semantischen Suffixe lassen sich (im Gegensatz zu den grammatischen) auch als Wortstämme auffassen, an die wiederum Ableitungssuffixe antreten können, z. B. "ejeto"– kleines Örtchen. Problematisch wird das bei der direkten Kombination von Prä- und Suffixen. So ist z. B. nicht ersichtlich, ob "malega" "klein" bedeuten soll, oder "völlig gegenteilig." Solche Wörter müssen als eigene Vokabeln gelernt werden. Auch ist die Reihenfolge der Auswertung von Affixen nicht immer ohne Kontext zu bestimmen. Dass z. B. das Wort "mal|san|ul|ej|o" (=Krankenhaus) in der Reihenfolge "((("mal"("san"))"ul")"ej")"o ausgewertet wird, und nicht beispielsweise "("mal"((("san")"ul")"ej"))"o ist nicht auf den ersten Blick ersichtlich. Anmerkung zu "maltelefoni": Auch wenn sich für dieses Wort im Deutschen wie im Esperanto nur schwer ein Sinn angeben lässt, kann im Esperanto jedes Wort, das grammatisch korrekt abgeleitet ist, verwendet werden. Die vorstehend erläuterte Wortbildung erfolgt im Gegensatz zu natürlichen Sprachen weitestgehend regelmäßig. Daraus ergibt sich eine erhebliche Erleichterung des Vokabellernens. Die Tabellwörter. Die "Tabellwörter" ("Zamenhofsche Tabelle") sind fünfundvierzig Wörter verschiedener Wortarten (u. a. die Interrogativpronomina/-adverbien und Demonstrativpronomina/-adverbien), die systematisch aus den fünf Präfixen "ti-", "ki-", "ĉi-", "neni-" und "i-" und den neun Suffixen "-o", "-u", "-a", "-el", "-e", "-am", "-om", "-al" und "-es" zusammengesetzt sind und daher gut in Tabellenform dargestellt werden können. Die hinweisenden Wörter werden neutral oder entfernte Bedeutung („jene“); durch vor- oder nachgestelltes "ĉi" kann explizit (sachliche, räumliche, zeitliche etc.) Nähe ausgedrückt werden: "tio" – „das“ (neutral) oder „jenes“; "ĉi tio" oder "tio ĉi" – „dieses“. "tial" – „deswegen“ (neutral) oder „aus jenem Grund“; "ĉi tial" oder "tial ĉi" – „aus diesem Grund“. In natürlichen Sprachen wie Französisch ("combien, comment; quelqu'un, quelque part, quelque-fois") und Deutsch ("wann? dann; was? das; wer? der") gibt es auch Ansätze einer zumindest scheinbaren Systematik, die aber nicht durchgehend ist, wie die Tabelle beispielhaft für die deutsche Sprache zeigt. Wortschatz. Der Wortschatz des Esperanto entstammt zum weitaus überwiegenden Teil europäischen, vornehmlich den romanischen Sprachen, ferner dem Deutschen und Englischen, in geringem Umfang auch slawischen Sprachen, dem Griechischen und anderen Sprachen. Oft gehen Esperanto-Wörter auf verwandte Wortvarianten mehrerer Sprachen zurück. In einer Reihe von Fällen stellen sie Kompromissformen zwischen ihnen dar. Ferner gibt es aus weiteren Sprachen Wörter, die über die europäischen Sprachen ins Esperanto gekommen sind, wie "kafo", Kaffee, aus dem Arabischen. In den über hundert Jahren seiner Existenz hat sich Esperanto ähnlich wie eine natürlich entstandene Sprache weiterentwickelt – neue Wörter, die in der Umgangssprache, in Zeitschriften oder in der Literatur gebraucht werden, finden nach einiger Zeit Eingang in Wörterbücher. Teilweise erscheinen neue Wörter auch zuerst als Prägungen von Lexikografen in Wörterbüchern und erlangen von da aus Verbreitung. Ein Teil dieser Wörter wird in den offiziellen Wortschatz der Esperanto-Akademie aufgenommen und gehört fortan zu den allgemeinverbindlichen Grundlagen der Sprache. Die Akademie beobachtet auch weitere Aspekte der Sprachentwicklung und gibt von Zeit zu Zeit Empfehlungen ab, z. B. zu Ländernamen. Fremdwörter werden im Esperanto entsprechend Regel 15 des Fundamento de Esperanto verwendet. Zahlwörter. Größere Zahlwörter "(miliono," …) und "nulo" (Null) gelten als Substantive und müssen mit dem Gezählten durch die Präpositionen "de" oder "da" verbunden werden: "du jaroj" – zwei Jahre, "du milionoj da jaroj" – zwei Millionen Jahre. ‚Nulo‘ tritt gelegentlich auch als quasi ursprüngliches Zahlwort ‚nul‘ auf. Bei Null ist der Gebrauch schwankend. Ordnungszahlen werden mit der Endung -a gebildet (Adjektivendung) und im Gegensatz zu Kardinalzahlen wie Adjektive gebeugt Terminologie. Die Esperanto-Fachvereine pflegen die Fachwörterbücher. Es gibt (Stand April 2013) 63 „offizielle“ Fachvereine, die den Status kollektiver Mitglieder der UEA (Esperanto-Weltassoziation) haben. Fast alle diese Vereine pflegen Wörterbücher im entsprechenden Fach (z.B., Informationstechnologie, Physik, Biologie, Medizin, Eisenbahn u.a.). Diese Wörterbücher sind meistens im Internet erreichbar. Die wichtigsten Fachwörterbücher werden regelmäßig aktualisiert. Auch das Fachvokabular neigt, gemäß den Prinzipien der Sprache, zur Eindeutigkeit. Beispielsweise heißt Moment im Sinne von „Zeitaugenblick“ momento. Spricht man hingegen von physikalischen Eigenschaften wie dem Drehmoment, dem Trägheitsmoment oder dem Drehimpuls verwendet man momanto. Sprachwissenschaft. Sprachwissenschaft, auch Linguistik (‚Sprache‘, ‚Zunge‘), ist eine Wissenschaft, die in verschiedenen Herangehensweisen die menschliche Sprache untersucht. Inhalt sprachwissenschaftlicher Forschung ist die Sprache als System und im Gebrauch, ihre einzelnen Bestandteile und Einheiten sowie deren Bedeutungen. Des Weiteren beschäftigt sich die Sprachwissenschaft mit Entstehung, Herkunft und geschichtlicher Entwicklung von Sprache, mit ihrer vielseitigen Anwendung in der schriftlichen und mündlichen Kommunikation, mit dem Wahrnehmen, Erlernen und Artikulieren von Sprache sowie mit den möglicherweise damit einhergehenden Störungen. Üblicherweise werden in der Sprachwissenschaft drei große Teilgebiete unterschieden, wobei in der Klassifikation unterschiedliche Auffassungen bestehen. Über die Allgemeine Sprachwissenschaft und die Angewandte Sprachwissenschaft als zwei dieser Bereiche besteht allgemeine Übereinkunft. Meist aber sind es universitäre Kriterien, die darüber entscheiden, ob als drittes Teilgebiet entweder eine Vergleichende Sprachwissenschaft oder eine Historische Sprachwissenschaft angenommen wird. Es existieren zahlreiche größere und kleinere Teilgebiete, die insgesamt sowohl inhaltlich als auch methodisch uneinheitlich sind und mit einer Vielzahl anderer Wissenschaften in Kontakt stehen. Wissenschaftstypus. Da unterschiedliche Lesarten des Begriffs "Sprache" existieren und sehr unterschiedliche Aspekte von Sprache untersucht werden, ist die Zuordnung der Sprachwissenschaft nur zu einem Wissenschaftstypus nicht möglich. So wird die Linguistik beispielsweise als Lehre vom sprachlichen System von vielen als ein Teilgebiet der Semiotik, der Lehre von den Zeichen, angesehen und lässt sich damit der Gruppe der Strukturwissenschaften und den Formalwissenschaften zuordnen. Wird aber etwa der individuelle Erwerb von Sprache und der Gebrauch von Sprache aus psychologischer oder klinischer Warte gesehen, so sind diese Teilbereiche der Sprachwissenschaft zu den Naturwissenschaften zu zählen. Bei Betrachtung von Sprache als gesellschaftlichem und kulturellem Phänomen hingegen ist die Sprachwissenschaft als Kultur- bzw. Geisteswissenschaft zu werten. Auch gibt es Teilbereiche der Sprachwissenschaft (z. B. Ethno-, Polito- oder Soziolinguistik), die als solche zu den Sozialwissenschaften zu rechnen sind. Die Termini "Sprachwissenschaft" und "Linguistik". Grundsätzlich gibt es im sprachwissenschaftlichen Bereich keine strenge Regelung, was die Benennung dieser Disziplin selbst anbelangt. Zum einen lassen die sehr unterschiedlichen Forschungsgebiete der Linguistik, aber auch ihre Nähe zu und Spezifizierung in den verschiedenen einzelsprachlichen Philologien (wie Germanistik, Anglistik, Romanistik etc.) die Sprachwissenschaft als solche insgesamt wenig geschlossen erscheinen. Infolgedessen wird öfters selbst innerhalb wissenschaftlicher Institutionen zur Bezeichnung neben "Sprachwissenschaft" völlig bedeutungsgleich auch die Pluralform "Sprachwissenschaften" herangezogen. „Institut für Sprachwissenschaft“ (vormalig) und „Fachbereich Linguistik“ (nunmehrig) als Bezeichnungen derselben universitären Einrichtung Zum anderen werden mehrheitlich die Ausdrücke "Sprachwissenschaft" und "Linguistik" gleichgesetzt und auch bei Benennungen von Teildisziplinen grundsätzlich als Synonyme verstanden, wie es etwa in den Bezeichnungen "Historische Sprachwissenschaft" und "Historische Linguistik" der Fall ist. Es sind jedoch gewisse regionale Bevorzugungen zu verzeichnen. So wird z. B. der Begriff "Allgemeine Linguistik" in Österreich wenig gebraucht und hier vorwiegend von einer "Allgemeinen Sprachwissenschaft" gesprochen. Auch mögen in den einzelnen örtlichen „Schulen“ bestimmte Benennungen bevorzugt werden. Oft wird aber zwischen den beiden generellen Bezeichnungen insofern grundsätzlich unterschieden, als bei der Benennung dieser Wissenschaft als "Sprachwissenschaft" die Sprache und der Sprachgebrauch als gesellschaftliches und kulturelles Phänomen gesehen werden. Mit diesem Verständnis steht die Sprachwissenschaft der Literaturwissenschaft sowie besonders der Philologie nahe. Demgegenüber wird dann unter "Linguistik" die reine Systemlinguistik verstanden, also die Betrachtung der Struktur einzelner Sprachen sowie deren unterschiedlicher Funktionen, wie etwa im Zuge des Erwerbs von Sprache, ihre Repräsentation im Gehirn, ihr Gebrauch abhängig von sozialen oder demografischen Faktoren etc. Das Adjektiv "linguistisch" ist mit "sprachwissenschaftlich" gleichzusetzen. Sehr häufig wird das Wort aber auch mit der Bedeutung "sprachlich" verwendet. Die Phrase „ein linguistisches Phänomen“ meint demnach in solchen Fällen nicht „ein sprachwissenschaftliches Phänomen“, sondern „ein sprachliches Phänomen“. Diese doppelte Bedeutung ist wohl u. a. darauf zurückzuführen, dass das englische Adjektiv "linguistic" schon zuvor sowohl "sprachlich" als auch "sprachwissenschaftlich" bedeutete, was auf das deutsche Wort übertragen wurde. Benennung von Teildisziplinen. Unabhängig davon, ob eine Benennungsdichotomie von "Sprachwissenschaft" und "Linguistik" vorliegt oder nicht, wird bei der Bezeichnung der sprachwissenschaftlichen Teildisziplinen, die andere Wissenschaftsbereiche berühren, ausschließlich der Ausdruck "Linguistik" verwendet. So existiert beispielsweise nur eine "Soziolinguistik" und keine "Sozio-" oder "Sozialsprachwissenschaft". Auch ist terminologisch in der Regel nur eine "Psycholinguistik", "Computerlinguistik", "Politolinguistik" usw. anzutreffen. Mitunter, jedoch in Österreich kaum, wird der Teilbereich der Allgemeinen Sprachwissenschaft auch als "Theoretische Sprachwissenschaft" oder "Theoretische Linguistik" bezeichnet. Des Weiteren existiert die nicht restlos geklärte Frage, was man unter „angewandter“ Sprachwissenschaft zu verstehen habe. Einerseits können darunter diejenigen Teilgebiete verstanden werden, die die real angewendete Sprache untersuchen (im Gegensatz zu den theoretischen Konstrukten von sprachlichen Systemen, Grammatikmodellen etc.); andererseits kann „angewandte“ Sprachwissenschaft auch heißen, dass es sich dabei um die Anwendung der Forschungsergebnisse in der (außerhalb der Linguistik befindlichen) Praxis handelt (Sprachtherapie, Spracherkennung am Computer usw.). Dieses Problem der Grenzfälle zwischen Allgemeiner oder Theoretischer, und Angewandter Sprachwissenschaft wird innerhalb der Disziplin, ausgehend von einer Diskussion im englischsprachigen Wissenschaftsraum, auch unter der Benennungsopposition "applied linguistics" (für den ersteren Fall) versus "linguistics applied" (für den letzteren Fall) diskutiert. Fachvokabular. In der Sprachwissenschaft wird eine eigene Fachterminologie verwendet. Eine ganze Reihe von Fachausdrücken erscheint auch im alltäglichen Sprachgebrauch. Grundlegende Termini sind über die schulische Ausbildung auch der Allgemeinheit verständlich. Dazu zählen insbesondere die Bezeichnungen für Wortarten ("Verb, Substantiv" etc.), für funktionale Satzelemente ("Subjekt, Objekt" etc.) und andere Ausdrücke aus der traditionellen Schulgrammatik. Außerdem existiert eine Reihe von Ausdrücken, welche Nicht-Sprachwissenschaftler intuitiv in der Grundbedeutung erfassen mögen ("Textsorte, Sprecher, Sprachkorpus" usw.), was mitunter zu Irrtümern führen kann, denn viele Fachausdrücke haben innerhalb der wissenschaftlichen Disziplin eine andere oder zusätzliche Bedeutung als im sprachlichen Alltag. Zudem werden von Laien Ausdrücke dieser Art aufgrund ihrer Erfahrungen im schulischen Unterricht bevorzugt unter normativem Aspekt, also dahingehend gesehen, was „richtig“ und was „falsch“ ist, während sie als Fachvokabel innerhalb der wissenschaftlichen Disziplin in der Regel eine rein deskriptive Funktion haben. Solche unscharfen Grenzen zwischen Umgangssprache und Fachsprache sind aber kein Spezifikum der Sprachwissenschaft, sondern liegen auch bei anderen Wissenschaften vor. Neben Ausdrücken, die dem allgemeinen Sprachgebrauch nahe sind und oft auch aus dem Deutschen stammen, existiert eine ganze Reihe von Termini, die aus lateinischen oder altgriechischen Wortelementen bestehen. Neuere Fachausdrücke werden oft aus dem Englischen übernommen oder eingedeutscht. Nur ein äußerst geringer Teil des (wissenschaftsgeschichtlich früh entstandenen) Fachvokabulars stammt aus dem Französischen. In den linguistischen Randbezirken zu anderen Disziplinen spielt auch deren Fachterminologie eine wesentliche Rolle. Teilbereiche. Zusätzlich zu der inhomogenen Benennungsweise der wissenschaftlichen Disziplin selbst ist auch die Trennung der Sprachwissenschaft in klar voneinander abgegrenzte Teildisziplinen uneinheitlich. Oft ist sogar überhaupt eine solche Trennung selbst umstritten, was nicht zuletzt auf den insgesamt starken interdisziplinären Charakter des wissenschaftlichen Gesamtbereiches zurückzuführen ist. Viele Forschende empfinden bereits die Abgrenzung der drei großen linguistischen Domänen als künstlich oder unzweckmäßig. Dem entspricht auch die teils unterschiedliche Zuordnung einzelner Forschungsfelder entweder zu dem einen oder dem anderen Bereich. So besteht z. B. keine allgemeine Übereinkunft darüber, ob die Soziolinguistik als Teilgebiet der Allgemeinen oder der Angewandten Sprachwissenschaft gelten soll. Nicht als Teilbereich der Linguistik wird aber in der Regel die Philologie gewertet, welche einzelne Sprachen sowohl aus sprach- wie auch literatur- und kulturwissenschaftlicher Sicht untersucht. Vielmehr gilt sie wissenschaftsgeschichtlich als eigene Disziplin, was sich in Deutschland vielfach in einer entsprechend getrennten Universitätsstruktur niederschlägt, auch wenn enge Verbindungen zwischen Philologien und Linguistik bestehen. In Österreich hingegen haben im Allgemeinen die entsprechenden universitären Institute (vornehmlich Germanistik, Anglistik, Romanistik und Slawistik) sowohl eine philologisch-literaturwissenschaftliche als auch eine sprachwissenschaftliche Abteilung. Hinsichtlich der folgenden Taxonomie der linguistischen Teildisziplinen besteht weitgehend Konsens. Vergleichende Sprachwissenschaft. Die Vergleichende Sprachwissenschaft kann dahingehend in einzelne Teilgebiete gegliedert werden, ob eine diachrone oder synchrone Untersuchungsweise vorliegt. Die allgemein-vergleichenden Fächer können aber auch der Allgemeinen Sprachwissenschaft und die historisch-vergleichenden Fächer einer eigenständigen Historischen Sprachwissenschaft zugerechnet werden. a> (1791–1865), Begründer der Historisch-Vergleichenden Sprachwissenschaft Damit wird also gleichzeitig eine Klassifizierung vorgenommen, welche neben der Allgemeinen Sprachwissenschaft und der Angewandten Sprachwissenschaft als drittes großes Teilgebiet statt der Vergleichenden Sprachwissenschaft die Historische Sprachwissenschaft zählt, wobei dann die allgemein-vergleichenden Fächer der Allgemeinen Sprachwissenschaft zugerechnet werden. a> und Revolutionär der Theoretischen Linguistik Allgemeine Sprachwissenschaft. Die Allgemeine Sprachwissenschaft, teils auch "Theoretische Linguistik" genannt, widmet sich der Untersuchung von Sprache als abstraktem System, aber auch der Aufstellung von allgemeinen Theorien über Sprache, wobei Letzteres auch von jüngeren Teildisziplinen der Angewandten Sprachwissenschaft, etwa der Soziolinguistik oder der Diskursanalyse, versucht wird. Angewandte Sprachwissenschaft. Die Angewandte Sprachwissenschaft ist keineswegs als homogener Teilbereich der Linguistik zu verstehen, vielmehr subsumiert sie die Teildisziplinen, die sich in erster Linie nicht mit Sprache als abstraktem System befassen, sondern die Sprache im Zusammenhang mit ihrer „realen“ Umwelt sehen, sich also der tatsächlich angewendeten Sprache widmen. Diesem Verständnis von „angewandt“, also "applied linguistics", steht die Idee der "linguistics applied" gegenüber, worunter die praktische Umsetzung linguistischer Forschungsergebnisse zu verstehen ist, wie sie vorliegt z. B. im Falle der Computerlinguistik (wo Erkenntnisse der Allgemeinen Linguistik in der Informatik Anwendung finden), der Klinischen Linguistik (wo Forschung im Dienste der Erarbeitung von Therapieformen steht), der Sprachlehrforschung (für die Entwicklung von Lehrmaterial) oder der Schreibforschung und Schreibdidaktik (für pädagogische Zwecke). Des Weiteren werden häufig die Psycholinguistik, die Soziolinguistik und andere Fächer der Allgemeinen Sprachwissenschaft zugerechnet, weil sie sich der Beschreibung von Sprache als Teil des Individuums widmet und allgemeine Prinzipien und Vorgänge erkunden will – im Gegensatz zu jenen Disziplinen, die einen Bezug zum praktischen Leben herstellen und sich somit mit der „Anwendung“ von Sprache befassen. Da die Soziolinguistik sowohl Sprache und Gesellschaft, als auch die Mehrsprachigkeit der Gesellschaft selbst untersucht, kann sie auch als Überbegriff für jene Teildisziplinen verwendet werden, die normalerweise als gleichwertig etablierte Bereiche der Angewandten Sprachwissenschaft gelten, z. B. für die Sprachlehrforschung oder die Diskursanalyse. Vor allem aber entscheiden die Strukturen von Universitäten und Instituten darüber, wie die Disziplinen wahrgenommen werden, denn mehrheitlich behandeln die angewandten Fächer auch solche Aspekte mit, die gemäß Definition zur Allgemeinen Sprachwissenschaft gezählt werden. Uneindeutige Zuordnungen. a> – Mittel der modernen Korpuslinguistik Interdisziplinarität. Mit der Auflistung der linguistischen Teilgebiete wird der interdisziplinäre Charakter der Sprachwissenschaft deutlich. Etliche Teildisziplinen grenzen explizit an andere Wissenschaften und teilen mit diesen bestimmte Interessengebiete. Dies betrifft hauptsächlich die Wissenschaftsbereiche Geschichte der Sprachwissenschaft. Die Geschichte der Sprachwissenschaft erstreckt sich von antiken Anfängen in Indien und Griechenland, in denen die Beschäftigung mit Sprache noch anderen Zwecken – in Indien der Interpretation ritueller Texte, in Griechenland als Vorbereitung für die Philologie – untergeordnet war, bis hin zu der modernen, autonomen Wissenschaft mit vielen Subdisziplinen, die sie heute ist. Wichtige Stationen auf diesem Weg waren in der letzten Zeit insbesondere die Begründung der Indogermanistik im 19. Jahrhundert, die Etablierung der strukturalistischen Sprachbeschreibung durch Ferdinand de Saussure zu Beginn des 20. Jahrhunderts und die Entwicklung der Generativen Grammatik durch Noam Chomsky seit Mitte des 20. Jahrhunderts. Forschungsparadigmen. In der linguistischen Forschung sind drei grundsätzliche paradigmatische Unterschiede in der Herangehensweise zu verzeichnen. In der Konzeption von Forschungsfragen können diese klarerweise auch miteinander gekreuzt werden. Formen. Publikationen populärwissenschaftlichen Charakters zeichnen sich u. a. dadurch aus, dass sie die Ergebnisse wissenschaftlicher Arbeit in allgemein verständlicher Sprache und in einer Form darbieten, die auch Nichtfachleute interessiert. Damit findet nicht nur eine Verbreitung von Fachwissen in der Öffentlichkeit statt, sondern gleichzeitig auch eine Annäherung des Fachgebietes selbst an die nicht-akademische Bevölkerung. Die Sprachwissenschaft gilt – gemessen etwa an etablierten naturwissenschaftlichen Disziplinen – gemeinhin als eine „kleine“ Wissenschaft und ist schon allein deshalb interessiert, sich durch Berichte in Printmedien, Beiträgen in Rundfunk und Fernsehen sowie mittels Buchpublikationen einem breiteren Publikum zu präsentieren. Einige andere wissenschaftliche Disziplinen haben diesbezüglich den Vorteil, dass sie publikumswirksam mit konkreten Gegenständen (wie etwa die Archäologie mit Grabungsfunden oder die Astrophysik mit Himmelskörpern) und mit anschaulichen Dingen (wie beispielsweise die Geschichte mit historischen Ereignissen) aufwarten können. Demgegenüber erscheinen für den Laien etliche der linguistischen Forschungsgebiete oft als zu wenig greifbar. Dennoch ist ein gewisses Interesse der Menschen an sprachlichen Angelegenheiten zu verzeichnen, was sich an den Inhalten der populärwissenschaftlichen Publikationen bestimmen lässt. Wie aus den biografischen Angaben der Autoren solcher Veröffentlichungen zu entnehmen, sind diese – was zumindest den deutschsprachigen Raum anbelangt – oft selbst keine akademisch ausgebildeten Sprachwissenschaftler, sondern stammen ursprünglich aus anderen Fachgebieten oder gehören anderen Berufen an. Verbreitet ist dieses Phänomen besonders auch im präskriptiven Bereich (Sprachratgeber, Stilfibeln etc.). Dazu sind etwa die Veröffentlichungen von Rupert Lay oder Wolf Schneider und vielen anderen zu zählen. Die linguistische Fachsprache kann in vielen Teildisziplinen nahe an der im Alltag gebräuchlichen Umgangssprache angesiedelt sein und ist dann für interessierte Laien meist nur wenig unverständlich. Daher liegen diesbezüglich linguistische Fachpublikationen und populärwissenschaftliche Veröffentlichungen in Einzelfällen nahe beieinander. Sowohl die in Anspruch genommenen Medien als auch die inhaltlichen Formen populärwissenschaftlicher Linguistik sind vielfältig. Bezüglich der medialen Nutzung reichen sie heute von der klassischen Buchpublikation über spezifische Websites und Kolumnen in Tageszeitungen bis hin zu Hörbüchern und Vorträgen. An inhaltlichen Formen sind Sachbücher, aber auch in Buchform gesammelte Glossen über Sprache gängig. Neuerdings ist – nicht nur im linguistischen Bereich – auch die gestalterische Variante Wörterbuch immer wieder anzutreffen, in der ein bestimmtes Thema ausgehend von einzelnen Wörtern, Begriffen oder sprachlichen Wendungen abgehandelt wird. Mit dem Aufkommen der Neuen Medien wurde es auch ohne großen Aufwand möglich, das Publikum durch Abstimmungen (per Internet) oder Abgabe von Kommentaren (Postings auf Webseiten) in die Diskussion direkt mit einzubeziehen. Öffentlicher Sprachgebrauch, Sprachwandel und Sprachkritik. Dieser umfassende Themenbereich verdeutlicht auch, dass populärwissenschaftliche Linguistik nicht in einem Eins-zu-eins-Verhältnis mit den akademischen Fachdisziplinen gesetzt werden kann, denn in diesem Bereich überschneiden sich historische, allgemeine und angewandte Fächer. Durch die Betrachtung der im öffentlichen Raum anzutreffenden Sprache (Massenmedien aller Art, politischer Bereich, Werbung, öffentliche Ankündigungen etc.) werden Tendenzen im aktuellen Sprachgebrauch ersichtlich. Der Vergleich von diesem mit Gewohntem und Altbekanntem lässt den stets vor sich gehenden Wandel der Sprache offenkundig werden. Die Auseinandersetzung mit diesem Vorgang und die Beurteilung aktueller Sprachverwendung auch aus der Warte anderer als sprachwissenschaftlicher Positionen hat eine lange Tradition. Hinsichtlich des Anspruchsniveaus reicht dieses Befassen mit sprachlichen Neuerungen, ihren Auswirkungen und deren Einschätzung beispielsweise von den sprachkritischen Essays Karl Kraus bis hin zu rein wirtschaftlich motivierten, also verkaufsträchtig eingeschätzten, scherzhaften Dokumentationen sprachlichen Fehlgebrauchs ohne jegliche wissenschaftliche Ambition. Viele der Arbeiten, die den öffentlichen Sprachgebrauch beobachten und als Quellen zumeist die Tagespresse, aber auch Rundfunk, Fernsehen, Internet und öffentliche politische Reden und Schriften heranziehen, formulieren wiederholt werthaltige Kritik und stellen spracherhaltende Forderungen. Sie spüren zwar Neuerungen im Sprachgebrauch und im Wortschatz auf, die auch Linguisten interessieren, stellen diese Phänomene allerdings zumeist nicht in den Zusammenhang sprachwissenschaftlicher Erkenntnisse. Solche Publikationen, deren Werthaltigkeit oft schon in den Titeln zum Ausdruck kommt, sind somit nur bedingt zur eigentlichen sprachwissenschaftlichen Populärwissenschaft zu zählen. Ein Thema dieses Fragenbereichs, nämlich der derzeitige Einfluss des Englischen auf die deutsche Sprache, ist wohl als eines der augenblicklich meistdiskutierten zu sehen. Ein beträchtlicher Teil solcher Arbeiten zur Veränderung der Sprache und zum aktuellen Sprachgebrauch basiert aber auf linguistischer Methodik oder ist als rein deskriptiv zu werten und wird somit in dieser Hinsicht den Ansprüchen akademischer Linguistik gerecht. Als Ausdruck dessen werden wiederholt Ansichten solcher populärwissenschaftlicher Autoren in die linguistische Fachdiskussion eingebracht. Dazu gehören beispielsweise die Arbeiten von Dieter E. Zimmer und die dem Thema entsprechenden Veröffentlichungen von Eike Christian Hirsch. Immer wieder werden aber auch welche dieser Art von namhaften Sprachwissenschaftlern als zu normativ orientiert abgelehnt. Oft werden Beobachtungen spezifisch im politisch-gesellschaftlichen Bereich bewusst als Wörterbücher konzipiert, wobei die für die Allgemeinheit bestimmten Veröffentlichungen von einfachen und knapp gehaltenen Abrissen über Beschreibungen mit professionellem politischen Background bis hin zu umfangreichen interdisziplinären Arbeiten reichen. Eine Klassifizierung solcher oft sehr profunden Arbeiten als populärlinguistisch kann aus unterschiedlichen Gründen erfolgen (Aufmachung, anvisiertes Zielpublikum…) und gegebenenfalls reine Ermessenssache sein. Was den Themenbereich zu aktuellem Sprachstand und Sprachwandel angeht, werden aber nicht nur neue sprachliche Erscheinungen thematisiert, sondern auch ein Blick auf das aussterbende Vokabular gelenkt und dieses dokumentiert. Mit Themen aus der allgemeinen Sprachwissenschaft, aber auch hinsichtlich aktuellen Gebrauchs befassen sich weiters regelmäßige Kolumnen in Printmedien und deren Onlineausgaben. Als bekannteste sind in Deutschland der "Zwiebelfisch" von Bastian Sick und in Österreich die in der Wiener Zeitung erscheinende Kolumne "Sedlaczek am Mittwoch" des Sprachwissenschaftlers Robert Sedlaczek zu nennen. Nicht zuletzt ist auch die sprachkritische Aktion "Wort des Jahres", welche – einer Hitparade gleich – die gesellschaftlich-politisch wichtigsten Begriffe eines Jahres kürt, als eine erfolgreiche populärwissenschaftliche Maßnahme der Sprachwissenschaft einzustufen. Allgemein verständliche Erklärung der Bedeutung der Ortsnamenforschung (Schautafel eines Lehrpfades zur Geschichte eines Ortes) Etymologie und Onomastik. Zu den Klassikern populärwissenschaftlicher Linguistik zählt der historische Teilbereich Namenkunde. An erster Stelle stehen dabei die schon seit Langem in unzähligen Veröffentlichungen und mit unterschiedlicher Qualität vorliegenden Lexika und Verzeichnisse von Vornamen und deren Bedeutungen. Die Möglichkeiten des Internets erlauben nun auch nicht nur solche online anzubieten, sondern auch die Einbindung der Bevölkerung in die Forschung durch die Möglichkeit einer Abgabe von Beurteilungen einzelner Namen. Anknüpfend an den Wunsch der Menschen, die Bedeutung des eigenen Namens, aber auch die eigene familiäre Herkunft und die Bedeutung der Namen in der eigenen geografischen Umgebung zu kennen, werden nun auch vermehrt etymologische Angaben zu Familiennamen (auch im Zusammenhang mit der Ahnenforschung) und Ortsbezeichnungen angeboten. Daran anschließend werden auch über andere sprachliche Elemente wortgeschichtliche Erläuterungen geboten. Beliebt sind Entstehungs- und Herkunftsbeschreibungen von auffälligen Ausdrücken oder von Redewendungen und Sprichwörtern samt deren Erklärung. Als Vorbild kann dabei fallweise sowohl in der Benennung des Titels als auch inhaltlich das diesbezügliche noch immer aufgelegte Standardwerk aus dem 19. Jahrhundert „Geflügelte Worte“ von Georg Büchmann dienen. Aber auch einzelne Wörter des Alltagsvokabulars werden auf diese Weise präsentiert. Sprachbeschreibungen, Einzelsprachen. Gerade auch im Bereich der allgemeinen Sprachbeschreibungen oder der Sprachtypologie sind schon seit geraumer Zeit die Grenzen zwischen Fachliteratur und Populärwissenschaft oft unscharf. Allgemein verständliche Fachbücher stehen so neben fundierter Populärwissenschaft. Des Weiteren wird auf das Publikationsmotiv „Klärung von populären Irrtümern“ gesetzt, das auch in anderen Fachgebieten als der Linguistik anzutreffen ist. International bekannt dafür ist z. B. der Sprachwissenschaftler Geoffrey Pullum für ein Buch über weitverbreitete Falschinformationen über Sprache im Allgemeinen und bestimmte Sprachen im Einzelnen. Aber auch der Bereich der Volksetymologie ist dazu zu zählen. Psycholinguistik. Auch praxisorientierte und populärwissenschaftliche Veröffentlichungen aus dem sprachpsychologischen und psycholinguistischen Bereich nehmen einen großen Raum ein. Dabei ist besonders das Gebiet der kindlichen Sprachentwicklung – gerade auch in Hinblick auf mögliche Entwicklungsstörungen – von breitem Interesse. Das Angebot reicht von deskriptiven Darstellungen des Spracherwerbs bis hin zu praktischen Ratgebern für Eltern. Die Publikationen bedienen auch fachliche Bedürfnisse von Pädagoginnen und Pädagogen im Ausbildungssektor (Kindergarten, Grundschule) und sind praxisbezogen. Surjektivität. Surjektivität ("surjektiv") oder Rechtstotalität ("rechtstotal"; in der Sprache der Relationen) ist eine Eigenschaft einer mathematischen Funktion. Sie bedeutet, dass jedes Element der Zielmenge "mindestens" einmal als Funktionswert angenommen wird, also mindestens ein Urbild hat. Eine Funktion ist bezüglich ihrer Bildmenge immer surjektiv. Eine surjektive Funktion wird auch als Surjektion bezeichnet. Definition. Es seien formula_1 und formula_2 Mengen, sowie formula_3 eine Abbildung. formula_4 heißt "surjektiv", wenn für alle formula_5 aus formula_2 mindestens ein formula_7 aus formula_1 mit formula_9 existiert. Eine solche Abbildung kann wie folgt geschrieben werden: formula_10. Formal: formula_11 Mächtigkeiten von Mengen. Für eine endliche Menge formula_58 ist die Mächtigkeit formula_59 einfach die Anzahl der Elemente von formula_58. Ist nun formula_29 eine surjektive Funktion zwischen endlichen Mengen, dann kann formula_31 höchstens so viele Elemente wie formula_58 haben, es gilt also formula_64 Für unendliche Mengen wird der Größenvergleich von Mächtigkeiten zwar mit Hilfe des Begriffs Injektion definiert, aber auch hier gilt: Ist formula_29 surjektiv, dann ist die Mächtigkeit von formula_31 kleiner oder gleich der Mächtigkeit von formula_67 ebenfalls geschrieben als formula_64 Schach. Schach (von persisch "šāh"  – daher die Bezeichnung „das königliche Spiel“) ist ein strategisches Brettspiel, bei dem zwei Spieler abwechselnd Spielsteine (die Schachfiguren) auf einem Spielbrett (dem Schachbrett) bewegen. Ziel des Spiels ist, den Gegner schachmatt zu setzen, das heißt seine als "König" bezeichnete Spielfigur unabwendbar anzugreifen. In Europa und vielen anderen Teilen der Welt ist Schach allgemein bekannt und hat eine tiefe kulturelle Bedeutung erlangt. Viele Schachspieler sind Mitglieder von Schachvereinen, die ihrerseits regionalen und nationalen Schachverbänden angehören und sich weltweit im Weltschachbund (FIDE) zusammengeschlossen haben. Schachturniere werden von privaten Veranstaltern, von Schachvereinen oder von Schachverbänden organisiert. Schach gilt als Sportart. Derzeitiger Schachweltmeister ist Magnus Carlsen. Geschichte. Der Vorläufer aller Spiele aus der Schachfamilie, also nicht nur des europäischen Schachs, sondern auch des Xiangqis, Shogis oder Makruks, entstand vermutlich in Nordindien aus einem Vierpersonenspiel. Dieses Urschach wurde Chaturanga genannt. Details zur Entwicklung des Spiels sind nicht bekannt, was zur Ausbildung von Mythen führte – am bekanntesten wurde die Weizenkornlegende. Über Persien und nach dessen Eroberung durch die Araber infolge der islamischen Expansion wurde das Schachspiel weiter verbreitet. Spätestens im 13. Jahrhundert war das Schachspiel in Europa fest etabliert, denn seit dieser Zeit gehörte es zu den sieben Tugenden der Ritter. Im 15. Jahrhundert kam es, vermutlich in Spanien, zu einer großen Reform der Spielregeln, bei denen die heute gültigen Gangarten für Dame und Bauer sowie die Rochaderegel erfunden wurden. In den folgenden Jahrhunderten trugen vor allem europäische Schachmeister zur Erforschung des Spiels bei. Im 18. und 19. Jahrhundert wurde das Schachspiel ein Bestandteil der bürgerlichen Kultur, was den Spielstil änderte und Turnierwesen und Schachpublizität prägte. Es war auch die Zeit der großen Schachcafés, deren berühmtestes das Pariser Café de la Régence war, wo seit 1740 Schach gespielt wurde. Der erste Schachverein wurde dann 1809 in Zürich gegründet. Mit dem anlässlich der Weltausstellung in London 1851 vom englischen Meister Howard Staunton initiierten ersten großen Turnier begann die Geschichte der modernen Schachturniere. Der Wettkampf zwischen den damals besten Spielern Wilhelm Steinitz und Johannes Zukertort im Jahr 1886 wird als erste Schachweltmeisterschaft angesehen, obwohl bereits zuvor einige Spieler durch Turnier- und Zweikampferfolge als die stärksten ihrer Zeit angesehen wurden. Der auch als „Match des Jahrhunderts“ bezeichnete Weltmeisterschaftskampf 1972 zwischen Bobby Fischer und Boris Spasski führte zur Popularisierung des Schachspiels in den westlichen Industrienationen. Von 1945 bis 1990 war die Sowjetunion die weltweit dominierende Schachnation. 1924 wurde in Paris der Weltschachbund FIDE gegründet. Die FIDE leistete wichtige Beiträge zur Förderung des Schachspiels in der Dritten Welt. Heutzutage sind Schachcomputer den Menschen im Allgemeinen überlegen. Schachprogramme spielen beim Schachtraining und bei der Partievorbereitung im Spitzenschach eine wichtige Rolle. Eine sehr umfangreiche Sammlung zur historischen und aktuellen Situation des Schachs in Deutschland befindet sich im Niedersächsischen Institut für Sportgeschichte in Hannover. Allgemeines. Schach ist – gemessen an der Zahl der in Vereinen organisierten Spieler und der über das Spiel veröffentlichten Literatur – vor Dame, Mühle, Halma und den vielen Pachisi-Abkömmlingen das populärste Brettspiel in Europa. Die dem Schach recht ähnlichen Spiele Xiangqi, Shōgi und Makruk nehmen einen ähnlichen Platz in ostasiatischen Kulturen ein. Es wird sowohl zum reinen Vergnügen als auch wettkampfmäßig gespielt, in Schachvereinen, Turnieren, online per Schachserver oder als Fernschach per E-Mail, Fax, speziellen Fernschachservern und Postkarte. Nach einer im Januar 2007 veröffentlichten repräsentativen Umfrage spielen in Deutschland knapp ein Drittel der Männer und etwa eine von acht Frauen zumindest gelegentlich Schach. Weltweit spielen, gemäß einer 2012 von YouGov durchgeführten Untersuchung, 605 Millionen Menschen Schach. Ein bereits sehr alter Nebenzweig des Schachspiels ist das Kunst- oder Problemschach (Schachkomposition). Im Unterschied zum Partieschach spielen hier nicht zwei Parteien gegeneinander, sondern ein Schachkomponist entwirft und veröffentlicht eine Aufgabe, die zu lösen ist („Schach ohne Partner“). Die Schachkomposition wird nach ästhetischen Kriterien bewertet. Die Schachpartie wird auf dem quadratischen Schachbrett gespielt, das in acht mal acht abwechselnd schwarze und weiße quadratische Felder eingeteilt ist. Auf diesen werden je 16 schwarze und weiße Schachfiguren gezogen, von denen üblicherweise ein großer Teil nach und nach geschlagen wird. Die Schachfiguren sind gewöhnlich aus Holz oder Kunststoff, wobei es auch dekorative Spielsets gibt, die aus Stein, Glas, Marmor oder Metall (z. B. Zinn) gefertigt sind. Schach ist eines der komplexesten Brettspiele. Die Zahl der möglichen Stellungen wird auf über 1046 geschätzt. Bereits nach zwei Zügen können 72.084 verschiedene Stellungen entstehen. Die Zahl der möglichen Spielverläufe ist noch einmal um ein Vielfaches größer: Schon für die ersten 40 Züge belaufen sich die Schätzungen auf etwa 10115 bis 10120 verschiedene Spielverläufe. Dabei wird im geometrischen Mittel über den Partieverlauf von etwa 30 möglichen Halbzügen pro Stellung ausgegangen. In der Spieltheorie wird Schach den endlichen Nullsummenspielen mit perfekter Information zugeordnet. Theoretisch könnte man also ermitteln, ob bei beiderseits perfektem Spiel Weiß oder Schwarz gewinnt oder die Partie remis enden muss. Nach heutigem Wissensstand erscheint es zwar ausgeschlossen, dass diese Frage durch vollständige Berechnung des Suchbaums geklärt werden kann, Ergebnisse für Materialverteilungen mit sechs und teilweise bis zu sieben Steinen sind jedoch bereits berechnet worden und in Endspieldatenbanken (sogenannten "Tablebases") verfügbar. Statistisch gesehen holt Weiß als Anziehender im Mittel mehr Punkte als Schwarz, nämlich circa 54 Prozent der möglichen Punkte. Dieser Anzugsvorteil wird allgemein darauf zurückgeführt, dass Weiß bei der Entwicklung der Figuren einen Tempovorteil hat. Die Remisquote, d. h. die relative Häufigkeit von Partien mit unentschiedenem Ausgang, liegt bei ungefähr einem Drittel und nimmt mit dem Spielstärkeniveau der Beteiligten zu. Grundbegriffe und Spielziel. Das Schachbrett wird so zwischen den Spielern angeordnet, dass sich aus der Sicht eines jeden Spielers unten rechts ein weißes Feld befindet. Bei einem Brett mit Schachnotation sind, aus Sicht von Weiß, die waagerechten Reihen von unten nach oben mit den Zahlen 1 bis 8 und die senkrechten Linien von links nach rechts mit den Buchstaben a bis h gekennzeichnet. Die Grundstellung der Schachfiguren für Weiß ist dann von a1 bis h1: Turm, Springer, Läufer, Dame, König, Läufer, Springer und Turm. Die weißen Bauern werden in der Reihe darüber von a2 bis h2 aufgestellt. Für Schwarz gilt dieselbe Aufstellung von a8 bis h8 und a7 bis h7, sodass sich die Figuren spiegelbildlich gegenüberstehen. Die Dame steht dabei auf beiden Seiten auf einem Feld ihrer eigenen Farbe. Eine lateinische Merkregel dazu lautet: "Regina regit colorem", die Dame bestimmt die Farbe (des Feldes). Außerdem gibt es zwei deutsche Merkregeln: „Damen auf D-Linie“ oder: „Weiße Dame, weißes Feld – Schwarze Dame, schwarzes Feld“. Weiß beginnt, und die Spieler ziehen abwechselnd. Es besteht Zugpflicht, was zu Zugzwang-Situationen führen kann. Der ziehende Spieler bewegt jeweils eine Schachfigur der eigenen Farbe auf ein anderes Feld. Einzige Ausnahme ist die Rochade, bei der zwei eigene Figuren (König und Turm) bewegt werden. In der Schachnotation werden immer eine weiße und eine anschließende schwarze Figurenbewegung zusammen nummeriert und als "Zug" bezeichnet. Aus dem Zusammenhang ist üblicherweise ersichtlich, welche Bedeutung des Wortes "Zug" gemeint ist; sollte aber eine genaue Begriffsunterscheidung nötig sein, nennt man die Aktion des einzelnen Spielers "Halbzug". Auf einem Feld darf immer nur ein Stein stehen. Er blockiert dabei das Feld für alle Steine der eigenen Farbe, d. h., man darf eine Figur nie auf ein Feld ziehen, auf dem schon eine eigene Figur steht. Wenn jedoch auf dem Zielfeld eine gegnerische Figur steht, so wird diese vom Spielbrett genommen. Man sagt, sie wird "geschlagen". Im weiteren Spielverlauf wird sie nicht mehr verwendet. Die Figuren dürfen einander grundsätzlich nicht überspringen (Ausnahmen gelten für den Springer sowie für den Turm bei der Rochade). Sie dürfen also nur über leere Felder hinweg gezogen werden: bis zum ersten vom Gegner besetzten Feld (einschließlich) oder bis vor das erste von einer eigenen Figur besetzte Feld. Könnte eine Schachfigur im nächsten Zug geschlagen werden, so ist sie "bedroht" (veraltet: sie steht "en prise"). Kann nach Ausführung dieses Schlagzuges die schlagende Figur ihrerseits im darauf folgenden Halbzug geschlagen werden, so nennt man die bedrohte Figur "gedeckt", wenn nicht, "hängt" sie. Ist einer der Könige bedroht, spricht man davon, dass er im "Schach" steht. Mit dem Ausruf „Schach!“ wies man früher den Gegner darauf hin; dies ist jedoch im Turnierschach nicht mehr üblich und in den FIDE-Regeln nicht vorgesehen (ebenso wenig wie der Hinweis „Gardez“ für einen Angriff auf die Dame). Ein Schachgebot muss stets pariert werden, und der König darf auch nicht einer Bedrohung ausgesetzt werden: Nach jedem Halbzug eines Spielers muss der König dieses Spielers unbedroht sein. Das Spielziel besteht darin, eine Situation herbeizuführen, in der der gegnerische König bedroht ist und der Gegner diese Bedrohung nicht im nächsten Halbzug aufheben kann (Schachmatt). König. Der "König" ist beim Schachspiel die wichtigste Figur, da es Ziel des Spiels ist, den gegnerischen König matt zu setzen, was die Partie sofort beendet. Matt setzen heißt, den gegnerischen König mit einer (oder mehreren) Figur(en) zu bedrohen, ohne dass die Bedrohung im anschließenden Halbzug abgewehrt werden kann, was durch Wegziehen des Königs auf ein unbedrohtes Feld, Schlagen der angreifenden Figur oder Ziehen einer Figur zwischen König und angreifende Figur geschehen kann. Es ist ein charakteristisches Merkmal des Schachspiels, dass der König selbst nicht geschlagen wird, sondern die Partie einen Zug, bevor dies unabwendbar geschehen würde, endet. Diese Besonderheit wird gelegentlich mit der Unantastbarkeit der königlichen Würde im Entstehungskontext des Spiels begründet. Als besondere Geste, dass man verloren hat oder aufgibt, kann man den eigenen König auf dem Schachbrett umkippen oder umlegen. In der Eröffnung ist es in der Regel sinnvoll, den König durch eine baldige Rochade in Sicherheit zu bringen. Die Bauern der Rochadestellung sollen möglichst nicht gezogen werden, damit sie einen Schutzwall vor dem König bilden. Auch im Mittelspiel ist eine sichere Position des Königs, wo er vor gegnerischen Angriffen geschützt ist, von Bedeutung. Im Endspiel, wenn nicht mehr viele Figuren vorhanden sind, die die Könige bedrohen können, kommt diesen eine aktive Rolle zu. Dazu ist es in der Regel günstig, den König in der Nähe der Brettmitte zu platzieren. Besonders in einem Bauernendspiel ist die Position des Königs entscheidend. Dabei ist das Erreichen der Opposition beider Könige oft spielentscheidend. Dame. Damit ist die Dame die beweglichste und stärkste Figur im Schachspiel. In der Praxis ist eine Dame im Zusammenspiel mit Turm, Läufer und Springer eine starke Angriffsfigur. Ihr Wert bemisst sich zu neun oder mehr (nach Großmeister Larry Kaufman zu 9,75) Bauerneinheiten. Die Dame ist, unter sonst gleichen Voraussetzungen, fast so stark wie zwei Türme zusammen. Im Persischen heißt diese Figur "Berater" (), was einer militär-strategischen Auslegung des Spiels eher entspricht. Turm. Der Turm ist die zweitstärkste Figur in einem Schachspiel. Sein Wert bemisst sich zu etwa fünf Bauerneinheiten. In den Ursprüngen des Spiels in Persien war der Turm wohl ein Kampfwagen, der als mehrfach gekerbter Holzklotz dargestellt wurde. Dies deuteten die Europäer als zinnenbewehrten Turm fehl. In der englischen Schachsprache heißt der Turm "rook" (). Der Turm wurde im Deutschen früher „Roch“ genannt; daher stammt auch die Bezeichnung „Rochade“. Man unterscheidet in der Grundstellung und in der Eröffnung zwischen „Damenturm“ und „Königsturm“. Ersterer ist auf dem Damenflügel postiert, der weiße steht auf dem Feld a1, der schwarze auf a8. Letzterer ist auf dem Königsflügel postiert; der weiße steht auf dem Feld h1, der schwarze auf h8. Es ist möglich, nur mit Turm und König den gegnerischen König matt zu setzen. Unter sonst gleichen Voraussetzungen ist der Turm deshalb erheblich stärker als ein Springer oder Läufer (allerdings nimmt er zu Beginn des Spiels, v. a. vor der Rochade, auf Grund seiner sehr eingeschränkten Beweglichkeit zunächst eine untergeordnete Rolle ein). Jedoch ist ein einzelner Turm etwas schwächer als zwei dieser Figuren. Den Wertunterschied zwischen einem Turm und einem Springer oder Läufer bezeichnet man als Qualität. Man spricht von "Qualitätsgewinn", wenn man einen Turm unter Preisgabe eines Springers oder Läufers erobern kann, und von "Qualitätsopfer", wenn man die Qualität zu Gunsten anderer Vorteile bewusst preisgibt. Im Unterschied zu allen anderen Figuren kann der Turm unabhängig von seiner Position (falls er nicht durch andere Figuren blockiert wird) immer die gleiche Anzahl von Feldern in einem Zug erreichen, nämlich 14. Läufer. Die Läufer können ihre Feldfarbe niemals wechseln, sodass ein Läufer nur die Hälfte der Felder des Schachbretts erreichen kann. Zu Beginn einer Partie hat jeder Spieler einen weißfeldrigen und einen schwarzfeldrigen Läufer. Man unterscheidet auch zwischen Damenläufer und Königsläufer auf Grund ihrer Positionierung neben der Dame bzw. dem König. Ein Läufer ist meistens etwas mehr als drei Bauerneinheiten wert (nach Larry Kaufman 3,25 Bauerneinheiten), oft wird jedoch der in der Regel etwas zu geringe Wert von drei Bauerneinheiten angegeben. Sehr wirksam ist das sogenannte Läuferpaar, das in der Regel in offenen Stellungen – also ohne blockierende Bauern – einem Springerpaar oder einem Läufer und Springer überlegen ist, da die beiden Läufer gut gemeinsam agieren können, d. h., sich niemals gegenseitig blockieren. Nach Larry Kaufman kann man auch die Paarigkeit der Läufer mit einer zusätzlichen halben Bauerneinheit bewerten. Daraus folgt dann auch, dass zwei Läufer etwa sieben Bauerneinheiten wert sind (zweimal 3,25 für die beiden Läufer und 0,5 für das Läuferpaar), also etwa so viel wie ein Turm und zwei Bauern. Das Endspiel König und Läuferpaar gegen König ist gewonnen. Läufer sind langschrittige Figuren, die in einem Zug von einer Brettseite zur anderen gelangen können, wenn alle dazwischenliegenden Felder frei sind. Von ungleichfarbigen Läufern spricht man, wenn Weiß einen schwarzfeldrigen Läufer und Schwarz einen weißfeldrigen Läufer besitzt oder umgekehrt. Diese können sich nicht gegenseitig bedrohen. Einen "schlechten Läufer" nennt man den Läufer, der durch mehrere eigene Bauern in seinen Bewegungsmöglichkeiten eingeschränkt ist. Läufer stehen in der Regel wirkungsvoll, wenn sie auf viele Felder ziehen können und das Zentrum kontrollieren. Springer. Das Zielfeld hat immer eine andere Farbe als das Ausgangsfeld. Damit ist der Springer in der Lage, alle Felder des Brettes zu betreten, aber für ihn ist der Weg von einer Schachbrettseite zur anderen zeitaufwändig. In der Mitte des Brettes kann ein Springer auf maximal acht Felder ziehen, am Rand des Brettes oder in der Nähe des Randes kann die Zahl der in Frage kommenden Zielfelder auf zwei, drei, vier oder sechs beschränkt sein. Eine Schachpartie beginnt mit zwei weißen und zwei schwarzen "Springern" – die ältere Bezeichnung „Rössel“ wird heute nur noch im Zusammenhang mit dem Rösselsprung, einer Rätselart, gebraucht. Die Besonderheit der Springer ist es, über eigene und gegnerische Figuren „springen“ zu können. Ein gutes Feld für einen Springer ist in der Regel ein möglichst zentrales Feld, von dem dieser viele Zugmöglichkeiten hat. Eine Warnung für Anfänger lautet: „Ein Springer am Rand bringt Kummer und Schand.“ Die Praxis kennt aber zahlreiche Ausnahmen. Zwei Springer gegen den alleinigen König können das Matt nicht erzwingen, es gibt aber Gewinnmöglichkeiten, falls die schwächere Seite noch einen Bauern besitzt und dieser noch nicht zu weit vorgerückt ist. Der Wert eines Springers entspricht mit etwas mehr als drei Bauerneinheiten (3,25 nach Larry Kaufman) in etwa dem eines Läufers. Die jeweilige Stärke der beiden Figuren hängt aber von der konkreten Situation, meistens vor allem der Bauernstruktur, ab. Bauer. Jeder Spieler hat zu Partiebeginn acht Bauern, die in der Grundstellung einen Wall vor den übrigen Figuren bilden. Der Bauer kann sich nur vorwärts bewegen, er kann somit als einziger Spielstein niemals auf ein zuvor betretenes Feld zurückkehren. Erreicht ein Bauer die letzte Reihe, wird er meist in eine Dame umgewandelt, da dies die stärkste Figur ist. Eine Umwandlung in eine andere Figur bezeichnet man als Unterverwandlung. Die gelegentlich geübte Praxis, eine umgewandelte Dame durch einen umgedrehten Turm darzustellen, ist in Turnieren regelwidrig; man muss sich, gegebenenfalls aus einem anderen Spielset, eine zusätzliche Dame besorgen. Eine Umwandlung in Läufer oder Turm kann sinnvoll sein, wenn dadurch ein Patt vermieden wird. Der Weltschachverband FIDE bezeichnet in seinen offiziellen Schach-Regeln auch den Bauern als „Figur“, trotzdem wird von Schachspielern zumeist zwischen Bauern und den übrigen Steinen unterschieden, und nur Letztere werden als Figuren bezeichnet. Wegen seiner begrenzten Zug- und Schlagmöglichkeiten gilt der Bauer als schwächster Stein im Schach. Allerdings wird die Bedeutung der Bauern im Verlauf einer Schachpartie immer größer, weil die Möglichkeit besteht, diese beim Erreichen der gegnerischen Grundreihe in eine stärkere Figur umzuwandeln. Es ist in der Schachliteratur üblich, den erfahrungsgemäßen Wert der Figuren Dame, Turm, Läufer und Springer in sogenannten Bauerneinheiten zu messen. Ein Bauer hat demnach den Wert einer Bauerneinheit. Im persischen Spiel wurde der Bauer als bezeichnet und als solcher dargestellt. Bauern sind dann besonders stark, wenn sie Ende des Spiels. Ein Spiel endet entweder durch Schachmatt beziehungsweise Aufgabe eines Spielers oder durch Remis respektive Patt. Wird mit Schachuhr gespielt, außerdem auch durch Zeitüberschreitung. Es gewinnt der Spieler, der den gegnerischen König "schachmatt" setzt (aus dem Persischen: "Schāh Māt" = „Der König ist ausgeliefert/hilflos“). Dies ist erreicht, wenn der gegnerische König durch einen eigenen Stein bedroht wird und der Gegner die Bedrohung nicht im nächsten Halbzug abwehren kann und somit keinen regulären Zug mehr zur Verfügung hat. Eine weitere Möglichkeit zum Spielgewinn ist die Aufgabe des Gegners, dies ist jederzeit während der Partie möglich. Zur Schachetikette gehört es, dass der Verlierer dem Gewinner die Hand reicht und zum Sieg gratuliert. Im Turnierschach, bei dem mit einer festgelegten Bedenkzeit und Schachuhren gespielt wird, verliert ein Spieler, wenn er seine zur Verfügung stehende Zeit überschreitet. Dies gilt nur, sofern sein Gegner ihn noch durch eine regelgemäße Zugfolge mattsetzen kann; falls aber der Gegner selbst gegen ungeschicktestes Spiel nicht mehr mattsetzen könnte – also nicht einmal eine theoretische Möglichkeit zum Mattsetzen besteht – endet die Partie trotz Zeitüberschreitung mit einem Unentschieden. Eine Partie kann auch durch Patt enden: die Partei am Zug kann keinen legalen Zug mehr ausführen, aber ihr König ist nicht bedroht. Die Partie endet dann unentschieden. Die Partie endet mit einem "technischen Remis", wenn außer den beiden Königen höchstens noch eine Leichtfigur (Läufer oder Springer) auf dem Brett ist. Dann ist ein Matt selbst theoretisch, bei beliebig schlechtem Spiel des Gegners, nicht mehr möglich. Zu den weiteren Möglichkeiten eines unentschiedenen Spielausgangs siehe den Artikel Remis. Notation. Allgemein gebräuchlich ist heute die "algebraische Notation". Das Schachbrett wird mit einem Koordinatensystem belegt. Durch Aufzeichnung der ziehenden Figur, des Ausgangsfeldes und des Zielfeldes der einzelnen Züge wird eine Schachpartie schriftlich festgehalten. Danach wird in der "ausführlichen algebraischen Notation" das Ausgangs- und Zielfeld notiert; in der "verkürzten algebraischen Notation" notiert man in der Regel nur das Zielfeld. Züge auf ein freies Feld werden durch ein „−“, Schlagzüge durch ein „ד zwischen Ausgangs- und Zielfeld gekennzeichnet. Ein Schachgebot erhält ein „+“ hinter dem Zug, ein Matt „++“, "‡" oder „#“. Wird ein Bauer in eine andere Figur umgewandelt, so wird der Buchstabe dieser Figur hinter dem Zug angegeben. Die kleine Rochade wird durch „0–0“ gekennzeichnet, die große Rochade durch „0-0-0“. Das en-passant-Schlagen wird durch ein nachgestelltes „e.p.“ gekennzeichnet. Ein Remisangebot wird durch (=) vermerkt. Nach dem letzten Zug wird das Ergebnis der Partie notiert, ein 1:0 steht für den Sieg des Spielers mit den weißen Steinen, ein 0:1 für den Sieg des Spielers mit den schwarzen Steinen, ein ½:½ für einen unentschiedenen Ausgang (Remis). Kampflos gewonnene Partien werden mit +:− bzw. −:+ notiert. In der Literatur werden Züge häufig mit einer Bewertung gekennzeichnet, etwa „!“ für einen starken Zug oder „?“ für einen schlechten Zug. Beispielsweise bedeutet „f2-f3?“: Der weiße Bauer f2 zieht nach f3, dies ist allerdings ein schwacher Zug. Ausführliche algebraische Notation. Die "ausführliche algebraische Notation" war früher in Druckwerken (Schachbüchern und -zeitschriften) weithin gebräuchlich. Verkürzte algebraische Notation. Bei der "Kurznotation" wird das Ausgangsfeld weggelassen. Ist ein Zug dadurch nicht mehr eindeutig beschrieben, so wird die Ausgangslinie (sofern diese nicht identisch ist) oder die Ausgangsreihe (falls beide Figuren auf der gleichen Linie stehen) hinzugefügt. Die verkürzte Form der Notation ist bei der handschriftlichen Notation der Schachpartie üblich und hat sich weitgehend auch in Schachbüchern und -zeitschriften durchgesetzt. Regeln für Schachturniere. Schachturniere werden häufig in der Turnierform des Schweizer Systems organisiert. Die Schachuhr. Eine Schachuhr dient im Turnierschach dazu, die den beiden Spielern zur Verfügung stehende Bedenkzeit zu begrenzen und anzuzeigen. Sie hat für die beiden Spieler getrennte Zeitanzeigen („Uhren“), von denen immer nur eine läuft. Hat ein Spieler die ihm zur Verfügung stehende Bedenkzeit (im Turnierschach üblicherweise 120 Minuten für die ersten 40 Züge, beim Schnellschach zwischen 15 und 60, bei Blitzschachturnieren meist nur 5 Minuten für die gesamte Partie) überschritten, gilt die Partie als für ihn verloren; Ausnahmen dazu werden unter "Gebrauch der Schachuhren" im Hauptartikel erläutert. Seit Mitte der 1990er Jahre werden auch elektronische Uhren verwendet, die neue Möglichkeiten bei der Bedenkzeitregelung bieten. Man kann beispielsweise eine Sockelbedenkzeit von 90 Minuten für 40 Züge und einen Zeitzuschlag pro Zug von 30 Sekunden einstellen. Dadurch soll es seltener vorkommen, dass Partien in ausgeglichener Stellung im Endspiel durch Zeitnot entschieden werden. Das Remis. Grundsätzlich ist es den Spielern gestattet, jederzeit ein Remis (Unentschieden) zu vereinbaren. Bei einigen Turnieren gelten jedoch vom Veranstalter festgelegte Sonderregeln zur Vermeidung von kurzen Remis-Partien. Remis verlangen kann der am Zug befindliche Spieler, wenn zum mindestens dritten Mal dieselbe Stellung mit demselben Spieler am Zug und denselben Zugmöglichkeiten vorliegt, oder wenn mindestens 50 Züge lang weder eine Figur geschlagen noch ein Bauer gezogen wurde (50-Züge-Regel). Ein Spiel endet immer remis, wenn der am Zug befindliche Spieler keine Zugmöglichkeit hat, sein König sich jedoch nicht im Schach befindet (Patt) oder wenn keiner der beiden Spieler, selbst bei ungeschicktestem Spiel des Gegners, mehr mattsetzen kann. Berührt – geführt. Das Zurücknehmen bereits ausgeführter Züge ist nicht gestattet. Wenn ein Spieler eine eigene Figur absichtlich berührt, muss er einen Zug mit ihr ausführen "(berührt – geführt)", wenn es eine regelgerechte Möglichkeit dazu gibt. Dies gilt auch, wenn eine gegnerische Figur absichtlich berührt wird – diese muss geschlagen werden, sofern dies auf legale Weise möglich ist. Berührt man eine Figur, mit der kein legaler Zug möglich ist, dann hat das keine Auswirkungen, man kann einen beliebigen regelkonformen Zug ausführen. Will ein Spieler die Figur lediglich zurechtrücken, muss er das vorher bekanntgeben. Dafür hat sich der französische Ausdruck "j’adoube" eingebürgert. Verbotene Hilfsmittel. Es ist verboten, sich während einer Partie eigener Notizen oder der Ratschläge Dritter zu bedienen oder auf einem anderen Brett zu analysieren. Da es mittlerweile sehr starke Schachprogramme gibt, wird der Überwachung dieser Regel bei Schachturnieren besondere Bedeutung zugemessen. So ist es nicht erlaubt, sich ohne Genehmigung eines Schiedsrichters aus dem festgelegten Turnierareal zu entfernen. Nach den FIDE-Regeln vom 1. Juli 2005 führt auch das Läuten des Handys eines Spielers während der Partie zum sofortigen Partieverlust. Wenn jedoch der Gegner durch keine regelkonforme Zugfolge mehr mattsetzen könnte, wird die Partie remis gewertet. Ebenso ist für Spieler die Mitnahme aller – auch ausgeschalteter − technischer Geräte, die der Telekommunikation oder der Datenverarbeitung dienen können, in das Spielareal untersagt. Für Zuschauer ist lediglich der Gebrauch von Mobiltelefonen verboten. Sie dürfen das Spiel auch nicht durch Zwischenrufe oder Zugansagen beeinflussen oder stören. Unterhaltungen über laufende Partien sind ebenfalls nicht gestattet. Spielergebnisse. In Schachturnieren erhält ein Spieler in der Regel für jede gewonnene Partie einen Punkt, für jede Remispartie einen halben Punkt und für jeden Partieverlust null Punkte. Zur Diskussion um die Drei-Punkte-Regel siehe Remis. Der Schiedsrichter. Bei größeren Turnieren sowie bei Mannschaftskämpfen in höheren Spielklassen überwacht ein Schiedsrichter die Einhaltung der FIDE-Schachregeln und der darüber hinaus geltenden Turnierordnung. Er kontrolliert die Einhaltung der Bedenkzeit und entscheidet bei Regelverstößen. Nur der Spieler, der am Zug ist, darf den Schiedsrichter anrufen. Etikette. Vor Beginn und nach dem Ende einer Partie ist es üblich, dass sich die Gegner die Hand geben. Eine Verweigerung des Handschlages, wie sie zum Beispiel bei der Schachweltmeisterschaft 1978 zwischen Anatoli Karpow und Viktor Kortschnoi vorkam, gilt als Unsportlichkeit. Nach einer Entscheidung des "Presidential Board" der FIDE vom 26. Juni 2007 kann dies sogar mit Partieverlust geahndet werden. Während der Partie ist es verboten, den Gegner zu stören, egal auf welche Weise. Dazu zählen auch häufige Remisangebote. Es dürfen keine Handlungen vorgenommen werden, die dem Ansehen des Schachs schaden. Dauerhafte Missachtung der Schachregeln kann mit Partieverlust geahndet werden, wobei die Punktzahl des Gegners vom Schiedsrichter festgelegt wird. Partiephasen. Die ersten 10 bis 15 Züge einer Schachpartie werden als Eröffnung bezeichnet. Die strategischen Ziele während der Eröffnung sind die Mobilisierung der Figuren, die Sicherheit des Königs und die Beherrschung des Zentrums. Die Eröffnungen werden unterteilt in "Offene Spiele", "Halboffene Spiele" und "Geschlossene Spiele". Ein Opfer (oftmals Bauernopfer) in der Eröffnung mit dem Ziel, dafür anderweitige Vorteile (z. B. Angriff oder Entwicklungsvorsprung) zu erreichen, nennt man Gambit (z. B. Schottisches Gambit, Damengambit, Königsgambit). Im "Mittelspiel" versuchen die Spieler mit den Mitteln der Strategie und Taktik, den Spielverlauf zu ihren Gunsten zu beeinflussen. Bereits bekannte strategische und taktische Motive erleichtern den Schachspielern die Partieführung. Sind nur noch wenige Figuren auf dem Schachbrett, so spricht man vom "Endspiel". Strategisches Ziel im Endspiel ist es oft, die Umwandlung eines Bauern durchzusetzen. Hierbei hilft meist der eigene König als aktive Figur. Mit dem daraus resultierenden materiellen Übergewicht kann die Partie dann meist leicht zum Sieg geführt werden. Wert der Figuren. Anhand der Tauschwerte der auf dem Brett vorhandenen Figuren kann eine grobe Stellungsbeurteilung erfolgen. Dabei ist der Wert der Figuren äußerst abhängig von der aktuellen Stellung auf dem Brett (Prinzip des relativen Tauschwertes). Opfer. Als "Opfer" bezeichnet man das "absichtliche" Aufgeben eines Spielsteines zu Gunsten anderweitiger strategischer oder taktischer Vorteile. Eine besondere Form des Opfers ist das Gambit, ein Bauernopfer in der Eröffnung zwecks schnellerer Entwicklung oder Beherrschung des Zentrums. Fesselung. Eine "Fesselung" liegt vor, wenn zwei Figuren hintereinander auf einer Wirkungslinie einer langschrittigen gegnerischen Figur (Dame, Turm oder Läufer) stehen und das Fortziehen der vorderen Figur regelwidrig wäre oder eine Wirkungsverlagerung auf die hintere Figur mit schwerwiegenden Folgen nach sich ziehen würde. Regelwidrig ist das Wegziehen der vorderen Figur dann, wenn die hintere Figur ein König ist, der ins Schach käme. In diesem Fall spricht man von einer "echten" oder "absoluten Fesselung", ansonsten von einer "unechten" oder "relativen Fesselung". Eine Fesselung ist auf zweifache Art nachteilig: Einerseits wird die Eigenwirkung der gefesselten Figur eingeschränkt, andererseits kann sie – da sie nicht weggezogen werden kann – selbst zum Angriffsziel werden und verloren gehen. Spieß. Eng verwandt mit der Fesselung ist der "Spieß": Eine Figur (z. B. König) wird von einer Linienfigur (Dame, Turm oder Läufer) angegriffen und zum Wegziehen gezwungen. Dadurch verlängert sich die Wirkungslinie des Angreifers und wirkt auf ein zweites Objekt. Dieses Objekt kann eine (ungedeckte) Figur sein oder ein Feld (z. B. Mattfeld). Im Gegensatz zur Fesselung wird bei einem Spieß die Situation sofort aufgehoben, da die wertvollere Figur wegzieht (eine Fesselung kann beliebig lang ohne direkte Verluste aufrechterhalten werden). Gabelangriff. Eine Situation, in der eine Figur gleichzeitig zwei oder mehrere Figuren des Gegners angreift, bezeichnet man als "Gabelangriff" oder kurz "Gabel". Ein Gabelangriff, insbesondere durch einen Bauern oder einen Springer, kann eine spielentscheidende taktische Wendung sein, wenn dadurch z. B. eine wertvollere Figur erobert wird. Bietet ein Springer Schach und bedroht gleichzeitig die Dame, so spricht man vom „Familienschach“. Abzugsschach. Wenn man eine Figur so ziehen kann, dass durch ihren Wegzug die Wirkungslinie einer dahinter stehenden eigenen Figur auf den gegnerischen König frei wird, so spricht man von einem "Abzugsschach". Gibt die abziehende Figur ihrerseits Schach, so spricht man von einem "Doppelschach". Abzugsschach und Doppelschach können entscheidende Wirkung haben, weil der Gegner auf das Schachgebot reagieren muss und die Folgen des Zuges der abziehenden Figur hinnehmen muss. Bei Doppelschach muss der König ziehen, da durch den Zug einer anderen Figur nicht beide schachbietenden Figuren geschlagen oder beide Schachgebote zugleich blockiert werden können. Mattwendungen. Das kürzestmögliche Matt ist das zweizügige Narrenmatt, das nach der Zugfolge 1. f3? e5 2. g4?? Dh4# zustande kommt. Anfänger fallen mitunter auf das Schäfermatt herein, bei dem die Dame, vom Läufer gedeckt, den Bauern auf f7 bzw. f2 schlägt und matt setzt. Eine weitere Eröffnungsfalle ist das Seekadettenmatt. Bei dieser Wendung opfert Weiß seine Dame, um ein Tempo für eine Mattkombination gegen den in der Mitte verbliebenen schwarzen König zu gewinnen. Eine im späten Mittelspiel recht häufige Mattwendung ist das Grundreihenmatt: Ein Turm oder eine Dame dringt auf die Grundreihe ein und setzt den hinter einer Bauernkette gefangenen König schachmatt. Ein König, dem von einem gegnerischen Springer Schach geboten wird, kann diesem Schachgebot nicht ausweichen, wenn er vollständig von eigenen Figuren eingeschlossen ist. Kann der angreifende Springer nicht geschlagen werden, so ist der König schachmatt. Man nennt diese Situation ersticktes Matt, weil der König gewissermaßen in seiner beengten Umgebung erstickt ist. Im Endspiel gibt es verschiedene elementare Mattführungen, je nach verbliebenem Material. Bauern und Bauernformationen. Eine große Rolle im Schachspiel spielen Position und Beweglichkeit der Bauern. Ein Bauer, der die gegnerische Grundreihe erreichen kann, ohne dass ihm auf der eigenen Linie oder auf einer unmittelbar benachbarten Linie ein gegnerischer Bauer gegenübersteht, heißt "Freibauer". Ein solcher Bauer kann nur noch durch gegnerische Figuren am Erreichen der gegnerischen Grundreihe und damit an der Umwandlung gehindert werden. Steht in einem Abschnitt des Brettes eine Formation von Bauern einer weniger zahlreichen Formation gegnerischer Bauern gegenüber, so spricht man von einer "Bauernmehrheit" (auch: "Bauernmajorität" oder nur "Majorität"). Der Besitz einer Bauernmehrheit ist häufig ein Vorteil, weil sich daraus ein Freibauer entwickeln kann. Zwei unmittelbar nebeneinander stehende Bauern einer Partei bezeichnet man als "Bauernduo". Ein Bauernduo ist eine sehr wirksame Formation, weil es die vor ihm befindlichen vier Felder beherrscht. Ist das Bauernduo beweglich, das heißt nicht durch gegnerische Bauern gehemmt, dann kann es durch sein Vorrücken gegnerische Figuren auseinandertreiben und den Zusammenhalt der gegnerischen Stellung zerstören. Ein Bauer, der keine Bauern der eigenen Partei auf einer benachbarten Linie neben sich hat, heißt "isolierter Bauer". Ein isolierter Bauer "(Isolani)" kann ein Nachteil sein, da er leicht von gegnerischen Figuren blockiert werden kann: Diese können sich auf dem Feld vor ihm niederlassen, ohne von einem Bauern vertrieben werden zu können. Außerdem kann der isolierte Bauer nur von wertvolleren Figuren und nicht von einem „Kollegen“ gedeckt werden. Zwei Bauern einer Farbe, die auf einer Linie hintereinander stehen, nennt man "Doppelbauer". Ein Doppelbauer ist normalerweise ein Nachteil, da die beiden Bauern sich gegenseitig die Deckung durch eigene Figuren erschweren und gleichzeitig die Blockade durch gegnerische Figuren erleichtern. Ein isolierter Doppelbauer wird auch als "Doppel-Isolani", drei hintereinander stehende isolierte Bauern werden als "Tripel-Isolani" bezeichnet. Zwei oder mehr Bauern in einer diagonalen Anordnung nennt man "Bauernkette". Hierbei deckt der nächsthintere jeweils den vorderen Bauern. Ein Paar Bauern entgegengesetzter Farbe, die einander direkt gegenüberstehen und sich gegenseitig blockieren, nennt man einen "Widder". Ein Paar Bauern entgegengesetzter Farbe, die einander diagonal gegenüberstehen, sodass jeder den anderen schlagen kann, nennt man einen "Hebel". Passend angesetzte Hebel sind ein wichtiges Mittel, um im Schach eine blockierte Stellung zu öffnen. Schachpsychologie. Das Schachspiel hat neben den spielerischen Aspekten auch spezielle psychologische Komponenten. Diese beschäftigen sich unter anderem mit den Auswirkungen psychologischer Muster auf die Spielstärke und auf die Wahrnehmung der Stellungen. Andere Untersuchungen beschäftigen sich mit Fragen, ob und inwieweit schachliche Beschäftigung Einflüsse auf die Lernfähigkeit aufweist. Selbst moralische Aspekte des Schachs wurden untersucht, zuerst von dem Naturphilosophen und späteren US-Gründervater Benjamin Franklin in seinem 1779 verfassten Werk "The Morals of Chess". Verbände und Weltmeisterschaften. Der internationale Dachverband der Schachspieler ist die FIDE "(Fédération Internationale des Échecs)". Sie verantwortet die offiziellen Schachregeln, organisiert die Schachweltmeisterschaft, verleiht Titel und misst mit Hilfe von Elo-Zahlen die Spielstärke der international aktiven Schachspieler. Den Titel Schachweltmeisterin verleiht die FIDE seit 1927; seit 1948 auch den offiziell anerkannten Titel Schachweltmeister. 1993 führte der damals amtierende Weltmeister Garri Kasparow den anstehenden Wettkampf gegen seinen Herausforderer Nigel Short aus Protest gegen das niedrige Preisgeld nicht unter der Ägide der FIDE durch, sondern unter der eigens für diesen Zweck gegründeten Professional Chess Association (PCA). Die damit begonnene Spaltung der Schachwelt wurde durch den Wiedervereinigungskampf 2006 zwischen dem "klassischen" Weltmeister Wladimir Kramnik und dem FIDE-Weltmeister Wesselin Topalow beendet, den Kramnik gewann. Bereits beim WM-Turnier 2007 in Mexiko-Stadt musste Kramnik jedoch die Weltmeisterkrone an Viswanathan Anand weiterreichen, der ungeschlagen und mit einem Punkt Vorsprung auf Kramnik gewann. Die FIDE vergibt nach klar definierten Anforderungen folgende Titel auf Lebenszeit: "Candidate Master" (CM), "FIDE-Meister" (FM), "Internationaler Meister" (IM) und "Großmeister" (GM). Es gibt eigene Titel für Frauen: "Woman Candidate Master" (WCM), "Woman FIDE Master" (WFM), "Woman International Master" (WIM) und "Woman Grand Master" (WGM). Die Qualifikationskriterien für diese Titel sind gegenüber denen der allgemeinen Klasse reduziert. Nona Gaprindaschwili war die erste Frau, die den allgemeinen Großmeistertitel erhielt. Die Spielstärke der Spieler wird nach dem von Professor Arpad Elo in den 1960er Jahren entwickelten Wertungssystem, der sogenannten Elo-Zahl, ermittelt. Diese Wertungszahl beruht auf den Methoden der Statistik und der Wahrscheinlichkeitstheorie. In Deutschland existiert seit 1992 die DWZ (Deutsche Wertungszahl). Vorher maß man die Spielstärke in der Bundesrepublik Deutschland mit Hilfe der Ingo-Zahl (entwickelt 1947 von Anton Hößlinger aus Ingolstadt, daher der Name „Ingo“), in der DDR durch eine Einteilung der Spieler in Leistungsklassen und der NWZ. In vielen Ländern haben sich Ligen gebildet. Die höchste Spielklasse in Deutschland ist die Schachbundesliga, die einen eigenen gleichnamigen Interessenverband hervorgebracht hat und durch den Einsatz von internationalen Spitzenspielern als eine der stärksten Schachligen weltweit gilt. In Österreich ist ebenfalls eine eigene Schachbundesliga als höchste Spielklasse vertreten. Auf europäischer Ebene werden im European Club Cup die stärksten Mannschaften ermittelt. Schach als Sport. Der Deutsche Schachbund war Mitglied im Deutschen Sportbund und ist Mitglied der Nachfolgeorganisation Deutscher Olympischer Sportbund, wodurch in Deutschland Schach als Sportart offiziell anerkannt ist. 1977 sprach Willi Weyer als Präsident des Deutschen Sportbunds über die Schachgeschichte und gab an, dass der Sportgedanke erst in der Neuzeit zu finden ist, im Mittelalter aber Schach noch als Mittel der Bildung und Ritterspiel angesehen wurde. Schach sei zumindest im Turnierbetrieb „unbestreitbar als Sport anzusehen“. Er gab an, „Schach [sei] nicht immer Sport gewesen, aber unter dieser Zielsetzung und den veränderten Gesetzen unserer Zeit zum Sport geworden.“ Schach und Sport hätten viele Gemeinsamkeiten, und auch die körperliche Belastung während eines Schachspiels sei durch Untersuchungen nachgewiesen. Weyer setzte sich in der Rede auch für die Anerkennung der Gemeinnützigkeit von Schachvereinen ein. Das Internationale Olympische Komitee hat neben vielen motorischen Aktivitäten unter anderem auch Schach als Sportart anerkannt. Auch der deutsche Gesetzgeber hat Schach in der Abgabenordnung als Sport anerkannt. Frank Holzke, selbst Großmeister, analysierte in seiner juristischen Dissertation aus dem Jahre 2001 ohne Schachbezug die Verwendung des Sportbegriffs im deutschen und europäischen Recht als Doppelbezeichnung sowohl für körperliche als auch wettkampfliche Tätigkeiten und kam zum Schluss, dass dieses Verständnis des Begriffs auch als juristischer Begriff angemessen sei. Auf einer eigenen Internetseite kommen die Professoren Bernhard Pfister und Peter W. Heermann sowie Rechtsanwalt Stephan Götze zum selben Urteil und bejahten insoweit auch, dass dem Gesetzgeber die Möglichkeit zustehe, auch solche Betätigungen als Sportarten zu definieren, die wie Schach nicht alle der zwar umkämpften, aber für die Rechtsprechung als Orientierung dienenden Kriterien des Sportbegriffs der körperlichen Tätigkeit, Spielhaftigkeit, Leistung, Organisation, Regeln und ethischen Komponente erfüllen. Computerschach. Tandy radio shack 1650 aus den 80er Jahren Seit es mechanische Rechenmaschinen gibt, hat man auch Schachcomputer gebaut. Bekannt ist zum Beispiel der schachspielende Türke, ein Schachautomat, in dem sich allerdings ein Mensch versteckte und agierte. Konrad Zuse lernte eigens Schach, um ein Schachprogramm schreiben zu können, da er dies als die richtige Herausforderung für seine Computer und den Plankalkül betrachtete. Mit der Entwicklung immer schnellerer Computer und ausgefeilter Software gibt es heute auf einem PC laufende Schachprogramme, die dem Durchschnittsspieler weit überlegen sind. Inzwischen kann man Schach auch auf Mobiltelefon, PDA und sonstigen Handhelds spielen. Für die meisten Meisterspieler ist der Computer mittlerweile unverzichtbar bei der Eröffnungsvorbereitung und Analyse ihrer Partien. Die speziell entwickelte Schachmaschine Deep Blue von IBM schlug 1997 in einem Wettkampf über sechs Partien mit Turnierbedenkzeit sogar den damaligen Schachweltmeister Kasparow. Viele Großmeister versuchen in Partien gegen Computer, ein spezielles Anticomputerschach anzuwenden. Es zeichnet sich allerdings ab, dass der Mensch langfristig gegen die stetig anwachsende Rechenkraft der Computer nicht bestehen kann. Da das Schachspiel in der westlichen Welt eine tiefe kulturelle Bedeutung erlangt hat und das Beherrschen des Spiels mit Phantasie und Intelligenz assoziiert wird, hat der Siegeszug des Computers in dieser Sportart eine spürbare psychologische Wirkung. Offen bleibt, ob die Schachprogramme, deren Spielstärke ständig steigt, das Schachspiel in absehbarer Zeit uninteressant machen werden. Die Zahl der Fachleute, die den baldigen endgültigen Sieg der Programme über jeden menschlichen Spieler voraussagen, wächst ständig. Allerdings gibt es auch Stimmen, die behaupten, Spitzenspieler und Computerprogramme würden in gleichem Maße besser. Andere argumentieren, dass selbst bei unbesiegbaren Computerprogrammen das Schachspiel interessant bliebe – schließlich würden sich Menschen auch noch im Sprint oder Marathonlauf messen, obwohl viele motorisierte Gefährte schneller seien. Strategisch kann ein Mensch gegen einen Computer mit langfristig angelegten Manövern, deren Zielsetzungen für den Computer im Rahmen seiner Rechentiefe nicht erkennbar sind, erfolgreich operieren. Dagegen sind spekulative kombinatorische Angriffe im Spiel gegen Computer nicht erfolgversprechend. Typisch verlief ein Wettkampf zwischen Kramnik und Deep Fritz ("Brains in Bahrain", 2002). Die beiden Gewinnpartien Kramniks resultierten aus genauem Positionsspiel. Die erste Niederlage kam durch einen taktischen Fehler zustande, die zweite durch ein unklares Figurenopfer, das gegen die genaue Verteidigung des Computers zu einem (wohl nicht zwingenden) Misserfolg führte. Schachmathematik. Die Schachbrettgeometrie hat zu eigenen Untersuchungen geführt, die unter den Begriff der „Schachmathematik“ fallen. Dabei wurde beispielsweise erforscht, wie viele Figuren auf einem Brett aufgestellt werden können, ohne sich gegenseitig anzugreifen. Andere Forschungen beschäftigten sich mit den Möglichkeiten bestimmter Figuren, alle Felder des Schachbretts zu besuchen, ohne dabei ein Feld mehrfach zu betreten. Beispiele hierfür sind das Damenproblem und Springerproblem. Auch andere Themen wie die Berechnungen der maximalen Anzahl der möglichen Stellungen und Spielverläufe fallen in dieses Gebiet. Schachkomposition. Schachkompositionen sind von einem oder mehreren Autoren erdachte Aufgaben, die eine zu erfüllende schachliche Forderung stellen. Schachaufgaben vor der breiten Verbreitung des Buchdrucks und Mansuben genannte Aufgaben für das frühere arabische Schachspiel sind gewöhnlich aus Manuskripten und Traktaten wie der Göttinger Handschrift überliefert, während ab Ende des 15. Jahrhunderts auch Bücher und ab Mitte des 19. Jahrhunderts auch Schachzeitschriften für die Veröffentlichung von Aufgaben dienten. Schachkomponisten haben einen eigenen Dachverband, die Ständige Kommission für Schachkomposition bei der FIDE. Es werden eigene Turniere veranstaltet, bei denen von Preisrichtern Aufgaben prämiert werden. Meistens werden dazu Preise, ehrende Erwähnungen und Lobe sowie entsprechende Spezialauszeichnungen vergeben. Analog der Titel für Nah- und Fernschachspieler werden auch bei der Schachkomposition für Komponisten und Löser getrennte Titel als FIDE-Meister, Internationale Meister und Großmeister vergeben. Bei Komponisten richten sich diese nach einem Punktesystem für Aufgaben, die an als Anthologien (Sammlungen ausgewählter Aufgaben) dienende FIDE-Alben gesandt und von drei Preisrichtern bewertet werden. Dabei kann jeder Preisrichter bis zu vier Punkte in Halbpunktschritten vergeben. Aufgaben mit insgesamt mindestens acht Punkten werden in die Alben aufgenommen und bringen dem Komponisten einen Punkt, bei Studien 1,66 Punkte, auf einer eigenen Punkteliste ein, wobei bei genügend Punkten Titel vergeben werden. Löser müssen für die Titel bei Lösewettbewerben eine eloartige Ratingzahl durch Teilnahmen an offiziellen Wettbewerben erreichen. Bei den jährlichen Versammlungen der "Ständigen Kommission" werden daraufhin gegebenenfalls die Titel verliehen. Heraldik. Motive aus dem Schachspiel finden in der Heraldik Verwendung. Gerne wurde besonders der Roch, wie im Mittelalter der Turm genannt wurde, als Wappenfigur gewählt. Von „geschacht“ spricht man, wenn der Schild nach dem Prinzip eines Schachbrettmusters geteilt wird. Von den aktuellen Staatswappen zeigt das der Republik Kroatien ein Schachbrettmuster. In Deutschland führt etwa die Gemeinde Erzgebirge ein heraldisches Schachbrett, ebenso wie das bekannte Schachdorf Ströbeck. Von den Adelsgeschlechtern führten z. B. die Grafen von Altena oder die Grafen von Sponheim ein Schachbrett im Wappen. Bei den Adelsgeschlechtern stand das Schachbrett als Symbol für Vornehmheit und Weisheit. Schach im Film. Das Schachspiel wird gerne in Filmen eingesetzt, um die Intelligenz oder Weltfremdheit von Personen zu unterstreichen. Ein seit der zweiten Hälfte des 20. Jahrhunderts ebenfalls beliebtes Thema ist es, die geistige Über- oder Unterlegenheit des Menschen gegenüber einem Computer zu demonstrieren. Die bekannteste Filmschachszene ist vermutlich die im Film ', in der der Bordcomputer des Raumschiffs gegen ein Besatzungsmitglied gewinnt. Die Partie folgt dabei einer zwischen Menschen tatsächlich gespielten Schachpartie (Roesch – Schlage, Hamburg 1910). In der Harry-Potter-Verfilmung "Harry Potter und der Stein der Weisen" steht Potter vor der Aufgabe, als Teil einer Schachpartie mit seiner Seite zu gewinnen, um zum Stein der Weisen zu gelangen. Weitere bekannte Filme mit dem Schachmotiv sind "1984" und "Independence Day". In einer Episode der Fernseh-SciFi-Serie Raumschiff Enterprise von 1965 wird ein dreidimensionales Schachspiel gezeigt, das die allgemeine Weiterentwicklung der Gesellschaft in der fiktiven Zukunft zeigen soll. Schach in der Belletristik. Literarische Werke, in denen Schach ein Hauptthema darstellt und sogar im Titel vorkommt, sind zum Beispiel die "Schachnovelle" von Stefan Zweig, "Der Schachautomat" von Robert Löhr, "Die Schachspielerin" von Bertina Henrichs sowie "Zugzwang" von Ronan Bennett. Schachspieler sind auch die Protagonisten in "Lushins Verteidigung" von Vladimir Nabokov und "Die letzte Partie" von Fabio Stassi, einer Romanbiografie des kubanischen Schachweltmeisters José Raúl Capablanca. Schach in der bildenden Kunst. "Schachpartie", Gemälde von Charles Webb, 19. Jahrhundert Auch in der bildenden Kunst war das Schachspiel seit jeher ein beliebtes Thema. Unter den Surrealisten befanden sich z. B. mit Joan Miró, Marcel Duchamp oder Max Ernst begeisterte Spieler, die in ihren Werken Schachmotive verwendet haben. Mit dem Thema hervorgetreten sind auch die Bildhauerin Germaine Richier und Alfred Hrdlicka, der ebenfalls ein starker Spieler war. Unter den zeitgenössischen Künstlern beschäftigt sich Elke Rehder besonders mit diesem Sujet. Zahlreiche Karikaturen fassen Schach als Sinnbild oder als Hauptobjekt auf. So existieren sowohl Werke, in denen andere Themen über das Schachspiel charakterisiert werden, als auch Karikaturen über bekannte Schachspieler. Schach in der Musik. Unter dem Titel "Tafel-Lieder für die im Jahr 1827 gestiftete Schach-Gesellschaft" wurde eine Sammlung mit Liedversen veröffentlicht, die auf bereits bestehende Melodien gesungen werden können. Das Musical "Chess" (englisch für Schach) aus dem Jahr 1984 thematisiert die Rivalität zweier Schachspieler. Stummfilm. Dreharbeiten in den New-Yorker Edison-Studios, um 1908 Als Stummfilm wird seit der Verbreitung des Tonfilms in den 1920er-Jahren ein Film ohne technisch-mechanisch vorbereitete Tonbegleitung bezeichnet. Die Aufführung solcher Filme wurde zeitgenössisch fast ausnahmslos wenigstens musikalisch untermalt. Der Stummfilm entstand gegen Ende des 19. Jahrhunderts in Westeuropa und in den Vereinigten Staaten von Amerika. Grundlage für die Herstellung und Wiedergabe der ersten Stummfilme waren Erfindungen im Bereich der Technik und der Fotografie (siehe den Artikel zur Filmgeschichte). Während der Frühzeit des Kinos gab es noch keine zufriedenstellende Möglichkeit, Bild und Ton synchron aufzunehmen und abzuspielen. Die Filme wurden vor Publikum je nach Art der Vorführstätte von Orchester, Klavier bzw. Pianola, Grammophon u. a. begleitet. Stummfilme wurden auch mit einmontierten Texten, den Zwischentiteln, erzählt. Oft begleitete auch ein Filmerzähler oder -erklärer die Vorstellung. Trotzdem musste der Großteil der Handlung und Gefühle über die Filmbilder transportiert werden. Das Schauspiel der Akteure früher Filme war aus diesem Grund meistens sehr körperbetont. Gestik und Mimik der Schauspieler vor allem in Dramen wirken vom heutigen Blickpunkt aus oft übertrieben. Die Wirkung des Stummfilms liegt darin, dass er universell verständlich ist. Die Sprache der Schauspieler spielt keine Rolle, da sie nicht zu hören ist und Zwischentitel mit geringem Aufwand in andere Sprachen übersetzt werden können. Besonders in den USA war diese universelle Verständlichkeit von großer Bedeutung, da dort sehr viele Einwanderer lebten, die des Englischen nicht mächtig waren. Erste Filmvorführungen. Ein Pionier des bewegten Bildes war der Chronophotograph Eadweard Muybridge. Seine 1878 entstandenen Serienbilder "The Horse in Motion" zeigten den genauen Bewegungsablauf bei einem galoppierenden Pferd. Die erste international bekannte Vorführung eines kurzen Filmshots war die Präsentation der "Roundhay Garden Scene" durch Louis Le Prince, den Gründer der "Leeds Technical School of Arts". Die von ihm selbst vermutlich am 14. Oktober 1888 hergestellte Bilderfolge von 2,11 Sekunden stellte vier gehende Personen dar – im Garten seiner Schwiegereltern in Roundhay, einem Vorort von Leeds. Für seine Ein-Linsen-Kamera erhielt Le Prince 1888 ein Patent. Er hatte sie ab 1886 in Experimenten entwickelt, die von seinem Freund Louis Jacques Mandé Daguerre inspiriert waren. Am 20. Mai 1891 stellte der Erfinder Thomas Edison im "National Federation of Women’s Club" einen Kinetographen vor. Die erste öffentliche Vorführung fand dann am 9. Mai 1893 im "Brooklyn Institute of Arts and Sciences" statt. Die ersten kinomäßigen Filmvorführungen, also Filmprojektionen für ein zahlendes Publikum, gab es 1895: ab 20. Mai in New York durch die Familie Latham (Vater Woodville Latham und Söhne Otway und Gray), ab 1. November im Berliner „Wintergarten“ als Schlußnummer eines Varieté-Programms durch die Brüder Skladanowsky und – mit dem größten Einfluss auf die Kinogeschichte – ab 28. Dezember in Paris durch die Brüder Lumière. Der von den Brüdern Lumière erfundene Cinématographe war gleichzeitig ein Aufnahme-, Kopier- und Abspielgerät, in dem der Film mittels Perforation über Greifzähne vor dem Objektiv entlanggeführt wird. Die erste Präsentation von Filmgerät und -material fand nicht öffentlich statt: Die Brüder Lumière zeigten am 22. März 1895 ihren Film "Arbeiter verlassen die Lumière-Werke" einem ausgewählten Publikum der gesellschaftlichen Oberschicht. Am 28. Dezember 1895 folgte die erste öffentliche kommerzielle Präsentation Frankreichs: Im Pariser „Grand Café“ führten die Lumières zehn ihrer kurzen Filme vor. Die Filme, die in der Frühzeit des Stummfilms vorgeführt wurden, waren meistens nur einige Sekunden lang und zeigten unspektakuläre Szenen aus dem alltäglichen Leben, manchmal aber auch gespielte Witz-Szenen. Sie faszinierten anfangs durch ihre schiere technische Machbarkeit. Das Interesse an weitergehender Inszenierung wuchs erst Jahre später. Die ersten Jahre. In den ersten Jahren des Films wurden die kurzen Streifen als Teil von Revuen in Varieté-Theatern vorgeführt und waren in erster Linie der Mittelschicht vorbehalten. Die Brüder Lumière machten ein großes Geschäft damit, ihren Cinématographen an Schausteller in aller Welt zu verleihen. Als sie die steigende Nachfrage nach Filmprojektoren nicht mehr befriedigen konnten, verkauften sie 1905 das Patent zur Geräteherstellung an das Unternehmen Pathé Frères. Daraus entstand die Berufskamera "Pathé industriel", die 1908 herauskam. Da die Brüder Lumière den Film nur als eine Ergänzung zur Fotografie sahen – sie sprachen von „lebender Fotografie“ –, beschränkten sie sich in ihrer Arbeit auf die Dokumentation realer Ereignisse. In diesen Filmen wurde die Krönung des Zaren Nikolaus II. ebenso dokumentiert wie die Fütterung eines Babys "(Babys Frühstück)" oder die Einfahrt eines Zuges "(L’Arrivée d’un train en gare de La Ciotat)". Eine Ausnahme bildet ihr humoristischer Film "L’arroseur arrosé", in dem sie erstmals eine nachgestellte Szene filmten. Der französische Illusionist und Theaterbesitzer Georges Méliès war der erste, der das erzählerische Potenzial des jungen Mediums erkannte und ausschließlich inszenierte Filme drehte. Für die Umsetzung seiner weitgehend phantastischen Stoffe und Szenen fand Méliès Filmtricks, z. B. den Stoptrick, der noch heute angewandt wird. Mit "Die Reise zum Mond" gelang Méliès 1902 ein frühes Meisterwerk, das vollständig mit Trickeffekten hergestellt wurde. Dieser Film wird häufig als erstes bedeutendes Exemplar des Genres Sciencefiction-Film bezeichnet. Doch Méliès fühlte sich stark den Regeln des Theaters verpflichtet, und so verharrte sein filmisches Bildvokabular weitgehend auf einer Einstellungsgröße, der Totalen. Diese entspricht dem Szenenfeld, das ein Theaterzuschauer von der Bühne sieht. Méliès machte diesen „Stil“ mit Hilfe seines immensen Filmausstoßes und der weltweiten Vermarktung zu einer gängigen Praxis. Der erste bekannte Film, der mit dieser Regel brach ("The Little Doctor", 1902, von Arthur Melbourne-Cooper), kam durch den Briten George Albert Smith in Umlauf. Man sah zum ersten Mal die Nahaufnahme einer Katze, womit ein Grundstein für filmisches Erzählen gelegt wurde. Mit Perspektivenwechsel, Variation der Bildgröße und mit der Montage, die diese Wechsel in einen Rhythmus bringt, entwickelte sich in den folgenden Jahren eine Filmsprache. Als wegweisend für den erzählenden Film wird der 12-minütige Film "Der große Eisenbahnraub" (1903) von Edwin S. Porter angesehen. In diesem ersten Western wird ein Zugüberfall von der Durchführung über die Flucht bis hin zum Showdown geschildert. Das Interesse an dem neuen Medium Film stieg immens, so dass eine neue Marktidee aufkam: die Einrichtung ortsfester Kinos. Auch die fallenden Preise für Vorführgeräte verlockten Unternehmer dazu, Lichtspielhäuser – sogenannte Kintöppe (Deutschland) bzw. Nickelodeons (USA) – zu eröffnen. Mit der Einrichtung der ersten festen Kinos stieg auch die Nachfrage nach neuen Filmaufnahmen. Wurden bisher die Aufnahmen der verschiedenen Schausteller und Filmunternehmer nur selten ausgewechselt, da sich in jeder Stadt wieder neues, erstauntes Publikum fand, so war mit den ersten Kinos Innovation gefragt. Die Filme erhielten Handlung. Die zumeist komischen Sketche bzw. Einakter wuchsen in den 1900er Jahren auf eine Länge von bis zu fünfzehn Minuten, was der Höchstlänge einer Filmrolle entsprach (One-Reeler). Bereits 1895 wurde in den USA unter anderem die Filmproduktionsgesellschaft "Biograph Company" gegründet. Dort hatte D. W. Griffith sein Regiedebüt bei "The Adventures of Dollie". Die führenden Filmproduktionsgesellschaften waren jedoch die französischen Pathé Frères und Gaumont, die noch vor der Jahrhundertwende die wirtschaftlichen Möglichkeiten des Films entdeckten und die ganze Welt mit ständig neuen Kurzfilmen versorgten. Ab etwa 1900 entstanden jedoch auch in einigen anderen Ländern erste Filmgesellschaften – der internationale Austausch an Filmen begann zu florieren und erste Filmverleihe entstanden, um die rasch wachsende Zahl der Kinos zu erschwinglichen Preisen mit Filmen versorgen zu können. Kino wurde so zu einem Volksvergnügen für die breiten Massen. In den USA betrug der Eintrittspreis anfangs lediglich fünf Cents (einen "nickel", daher auch der Begriff Nickelodeon). Man saß gemeinsam im Dunkeln und bekam endlich Einblicke in die Welt der Reichen und Schönen, von der man bislang ausgeschlossen war. Erste Krise und ihre Folgen für die Filmkunst. 1907/1908 gab es erstmals eine Krise im Filmgeschäft. Die Besucherzahlen gingen zurück, da die häufig wenig phantasievollen und kurzen Produktionen an Attraktivität verloren. Erstmals setzte man sich mit Filmtheorie und Filmsprache auseinander. In Frankreich reagierte man darauf mit der Orientierung an zeitgenössischen literarischen Vorlagen. Die Produktionen wurden länger und behandelten nun komplexere Geschichten. Diese französische Innovation nannte sich „Film d’Art“ und fand Nachahmer in vielen Ländern der Welt. Im deutschsprachigen Raum orientierte man sich an deutschsprachiger Literatur – vor allem Volksstücke. Formal orientierte man sich am Theater, so dass die spezifischen Stärken des Mediums Film nicht zum Tragen kamen. Künstlerisch war es eine Sackgasse, aber es gelang, durch die Verpflichtung bekannter Autoren die Zuschauerkreise zu erweitern. Die Wiener Kunstfilm-Industrie stellte den Bezug zu solchen Filmen bereits in ihrem Firmennamen her. Laiendarsteller und Bekannte der Filmproduzenten wurden von nun an durch professionelle Schauspieler ersetzt, die häufig vom Theater kamen und sich als Filmschauspieler ein Zusatzeinkommen verschafften. Von der Filmschauspielerei allein konnte sich vorerst kaum jemand ein Leben finanzieren. Zu den ersten, die dazu jedoch im Stande waren, zählte die dänische Schauspielerin Asta Nielsen, die mit den damals international weit verbreiteten dänischen Filmen Bekanntheit erlangte und zum wahrscheinlich ersten weiblichen Filmstar avancierte. Bis 1914 verboten große Theater des deutschsprachigen Raums ihren Schauspielern, in Filmen mitzuwirken, da das Kino eine Konkurrenz für das Theater darstellte. Zu den ersten Theaterpersönlichkeiten, die diesen Bann mit künstlerisch ambitionierten Filmproduktionen durchbrachen, gehörten 1912/1913 die Schauspieler Paul Wegener ("Der Student von Prag") und Albert Bassermann ("Der Andere") sowie der Regisseur Max Reinhardt ("Die Insel der Seligen"). In Dänemark und den anderen skandinavischen Ländern sowie dem Ursprungsland des Films, Frankreich, war der Film zu dieser Zeit bereits eine anerkannte Kunstform. Im deutschen Sprachraum war dies anders. Das Bildungsbürgertum stand dem Kino feindselig gegenüber. Zum einen stellte das neue Medium tradierte Kunstvorstellungen (Idealismus) in Frage, zum anderen war es auf die Bedürfnisse des Proletariats und Subproletariats zugeschnitten. Das frühe Kino war ein Unterschichtsvergnügen mit latent anarchistisch-subversiven Zügen. Weil die Filme den Bruch mit sittlich-moralischen Konventionen offen zeigten, befürchteten die Kritiker eine „Überreizung der Seele“ beim Proletariat, die zum Aufstand gegen Staat und Autoritäten führen könnte. Diese Argumentation lebte in der deutschen Kinoreformbewegung lange fort und wurde nach dem Zweiten Weltkrieg von der Medienpädagogik leicht verändert wieder aufgenommen. Erst in der Mitte der 1920er Jahre gaben weitere Bevölkerungsgruppen ihre Vorbehalte gegen das Kino auf, jetzt waren hauptsächlich Angestellte im Kinopublikum zu finden. Die staatlichen Zensurstellen veranlassten zudem häufig das Herausschneiden gesellschaftskritischer oder „anrüchiger“ Szenen. Der deutschsprachige Film bekam seine entscheidenden Impulse in seiner frühen Phase von komödiantischen Wandertruppen, dem Kabarett, dem Boulevard- und Schmierentheater. Hier wusste man, wie man Stücke erarbeitet und Spannung erzeugt. Die ersten Filmlustspiele waren von Schwank und Operette beeinflusst. Zum ersten deutschen Filmstar wurde Henny Porten. In Österreich war es Liane Haid. In den folgenden Jahren erforschten die Filmschaffenden nach und nach die Möglichkeiten des Films. Kulissen und Dekorationen wurden aufwendiger, die Handlungen komplexer, und auch die technischen Ansprüche stiegen, vor allem bezüglich der Beleuchtung. Das Filmemachen wurde dadurch teurer, und aufwendige technische Ausstattung konnten sich nur die wenigsten leisten. Private Filmemacher hatten somit immer weniger Chancen auf dem Filmmarkt, der Regisseur nicht mehr die alleinige Verantwortung für die Filme. Entstehung der US-Filmindustrie. In den Vereinigten Staaten explodierte die Filmindustrie förmlich, denn der Hunger der Kinogänger nach neuen Filmen war schier unersättlich. Im Jahre 1909 war Film bereits „Big Business“, in den USA expandierte die Branche um 25 Millionen Dollar jährlich. Wegen der riesigen Nachfrage gründeten die größten Filmverleiher unter der Federführung von Thomas Alva Edison die Motion Picture Patents Company (MPPC), um ihre Marktanteile zu halten. Sie gingen davon aus, dass die technische Ausrüstung der Boden war, auf dem das Filmgeschäft aufbaute. Zusammen hielten sie 16 Patente auf Aufnahme- und Vorführgeräte. Gleichzeitig schlossen sie einen Exklusiv-Vertrag mit Eastman Kodak, damals praktisch dem einzigen Lieferanten von Filmmaterial. Darüber hinaus machten sie über ein spezielles Lizenzierungs-System Druck auf die Kinobetreiber, möglichst nur noch Filme aus ihrer Produktion zu zeigen. Bewusst wollte die MPPC ein Monopol errichten. Um dieses Monopol aufzubauen, sabotierte die MPPC die unabhängigen Filmproduktionen in den Vereinigten Staaten durch organisierte Banden, unterstützt von Polizei und Sheriffs. Kinos wurden demoliert, Schauspieler verprügelt und Geräte beschlagnahmt. Die freien Produzenten unter der Führung von Carl Laemmle versuchten dennoch, ihre Projekte zu verwirklichen. Die Dreharbeiten wurden von Bewaffneten geschützt. Teilweise wurde mit dem gesamten Set jeden Tag an einem anderen Ort gedreht. Der größte Teil der amerikanischen Filmindustrie war zu dieser Zeit in New York ansässig, wo sich die oben beschriebenen Szenen auch abspielten. In den folgenden Jahren begann die Macht der MPPC zu bröckeln und auch unabhängige Produzenten konnten erfolgreich arbeiten, bis schließlich der Oberste Gerichtshof der Vereinigten Staaten gegen die Monopolbildung der MPPC vorging und diese auflöste. Von 1910 an ließen sich in Hollywood verschiedene Filmschaffende nieder, unter ihnen Carl Laemmle, William Fox, Samuel Goldwyn und Adolph Zukor, und legten den Grundstein für die spätere Traumfabrik. Laemmle, der Anführer der unabhängigen Filmproduzenten, gründete dabei das erste große Filmstudio in Hollywood: Universal Pictures. Grund für die Wahl Kaliforniens war zum einen die große Entfernung von den brancheninternen Revierkämpfen an der Ostküste, zum anderen das sonnige Wetter: Aufgrund des relativ lichtunempfindlichen Filmmaterials und des damaligen Standes der Lichttechnik war Tageslicht die wichtigste Beleuchtungsquelle beim Dreh. Nur wenige Monate nach Gründung der Universal Studios gingen die Keystone Studios unter der Federführung des Slapstick-Spezialisten Mack Sennett an den Start, gefolgt von einer ganzen Reihe weiterer Filmgesellschaften. Erste Monumentalfilme. Die „Kunst des Erzählens“ wurde in den 1910er Jahren perfektioniert, und zwar auch außerhalb der Vereinigten Staaten. In Italien setzte man ab 1912 neue Maßstäbe in Sachen Produktionsaufwand. Es entstanden eine Reihe von Verfilmungen von Klassikern der Literaturgeschichte, wie "Der Fall von Troja", "Die drei Musketiere", "Faust", "Die Plünderung Roms", "Macbeth", "Cabiria" (1914) und auch "Quo Vadis?" (1913), bei denen aufwendige Kulissen und Kostüme sowie Massenszenen mit Tausenden von Statisten eingesetzt wurden. Am erfolgreichsten von diesen Filmen war "Quo Vadis?", der vor dem Ersten Weltkrieg „als das größte Meisterwerk der Welt galt; nach England und Amerika 1913 eingeführt, brachte er allen Beteiligten riesenhafte Gewinne“. Nachdem man sich bislang nicht an die Herstellung solch in jeder Hinsicht aufwendiger Produktionen herangewagt hatte, beflügelte der Erfolg der italienischen Produktion nun auch andere Länder zur Herstellung solcher Monumentalproduktionen. Am erfolgreichsten waren hierbei die USA, wo D. W. Griffith während des Ersten Weltkriegs Filme wie "Die Geburt einer Nation" (1915) und "Intoleranz" (1916) herstellte, die als Meilensteine der Filmgeschichte gelten. Im Ersten Weltkrieg. Im Ersten Weltkrieg isolierten sich die Mittelmächte, allen voran Deutschland und Österreich, weitgehend von Filmimporten aus den nun teils feindlichen großen Filmnationen, allen voran Frankreich. Die heimische Filmwirtschaft erfuhr dadurch zumindest im inländischen Markt einen starken Aufschwung, der auch in die wirtschaftlich schwierige Nachkriegszeit mitgenommen werden konnte. Die Verknüpfung der Filmszenen der im Kriege verbündeten Nachbarländer Österreich und Deutschland fand hier ebenfalls ihren Anfang. Die erstarkte deutsche Filmwirtschaft rund um ihre Hauptstadt Berlin wurde nach dem Weltkrieg zum Arbeitsplatz zahlreicher österreichischer Filmschaffender. Aber auch deutsche Schauspieler und Regisseure wirkten in den folgenden zwei, drei Jahrzehnten häufig in Filmstudios der österreichischen Hauptstadt Wien. Mit dem Ersten Weltkrieg erfuhr der Film zudem eine weitere Funktion: jene der Propaganda. Bereits im September 1914 berichtete die Wiener Kunstfilm-Industrie in ihrem "Kriegs-Journal" begeistert vom Frontgeschehen. 1915 folgte die Einrichtung einer Filmexpositur im k.u.k. Kriegspressequartier, deren Leitung der bedeutendste österreichische Produzent jener Jahre übernahm, Sascha Kolowrat-Krakowsky. Es entstanden weitere geschönte Kriegs-Wochenschauen und zahlreiche Propagandafilme wie "Mit Herz und Hand fürs Vaterland" mit dem Star des österreichischen Films, Liane Haid. In Deutschland erkannte man ebenfalls bald die kriegsdienlichen Möglichkeiten des Films. Die Deulig, gegründet Ende 1916, sollte im Ausland Sympathien für Deutschland wecken, und mit dem Bild- und Filmamt (BUFA) schuf man Anfang 1917 auch hier eine zentrale Stelle zur Steuerung der propagandistischen Filmproduktion. Es folgte die Zentralisierung der deutschen Filmproduktion, zu deren Zweck gegen Kriegsende die UFA gegründet wurde. Sie entwickelte sich nach dem Krieg zu einer der weltweit wichtigsten Produktionsstätten von Filmen in den 1920er Jahren. Aber auch die Gegner Deutschlands wussten den Film als Propagandamittel einzusetzen. In den Vereinigten Staaten etwa warb "The Battle Cry of Peace" (1915) für den Kriegseintritt. Aufstieg Amerikas zur größten Filmnation der Welt. Vor dem Ersten Weltkrieg war Frankreich der bedeutendste Filmproduzent der Welt, denn dort wurden bis 1914 noch mehr Filme produziert als in den USA. Französische Unternehmen hatten von Anfang an auf Expansion gesetzt und verfügten europaweit über Vertriebsstellen und Kinos. Der Krieg isolierte die Filmwirtschaften der beiden Bündnissysteme voneinander und beanspruchte Rohstoffe, die auch zur Filmherstellung notwendig waren, was für das international orientierte und produktionsstarke Frankreich einen schweren Rückschlag bedeutete. Für andere Länder wiederum, wie etwa Österreich oder Deutschland, bedeutete der Erste Weltkrieg eine Entledigung von der bis dahin so starken ausländischen Konkurrenz. Heimische Filmhersteller blühten regelrecht auf. Die Qualität der Produktionen stieg aber nicht in derselben Relation wie die Anzahl der Produktionen. Anfang der 1920er Jahre stellte sich dies als fatal heraus, da die rasch expandierende US-Filmindustrie, die wirtschaftlich wesentlich besser organisiert war als die europäischen Unternehmen, nun eine bedrohliche Konkurrenz für den europäischen Film darstellte. Sehr beliebt beim Publikum waren von Anfang an Slapstick-Komödien, deren bekanntester Vertreter Charlie Chaplin schon in den 1910er Jahren mit kurzen Sketchen großen Erfolg hatte. Mit "The Kid" (1921) drehte er seinen ersten abendfüllenden Film, auf den noch eine Reihe von Meisterwerken in den 1920ern folgten (zum Beispiel "Goldrausch"). Auch Buster Keaton war ein Star des Slapsticks und für seine regungslose Mimik berühmt. Zu seinen bedeutendsten Werken gehören "Der General" (1926) und "Steamboat Bill junior" (1928). Um Filmemachern eine größere Partizipation am wirtschaftlichen Erfolg ihrer Filme zu ermöglichen, wurde 1919 die zuerst nur als Verleihfirma, später aber auch als Produktionsfirma tätige United Artists von Charlie Chaplin, Mary Pickford, Douglas Fairbanks sen. und D. W. Griffith gegründet. Avantgardistisches Filmschaffen. In Europa bestand seit den 1910er Jahren ein besonderes Interesse am kunstvollen Film. Daraus entwickelte sich Schritt für Schritt die Avantgarde des Stummfilms. Einige besonders ausgeprägte Stilrichtungen sollen im Folgenden beschrieben werden. In Frankreich erlebte der Film eine Blütezeit mit künstlerischen Ansätzen, die zunächst dem Impressionismus angelehnt waren, später aber mehr zum Surrealismus tendierten. Künstler wie Luis Buñuel oder Jean Cocteau prägten diese Stilrichtung mit Filmen wie "Ein andalusischer Hund" (1929). Die russische Avantgarde zählt Künstler wie Sergej Eisenstein in ihren Reihen, der die Montagetechnik maßgeblich beeinflusste. Sein bekanntester Film "Panzerkreuzer Potemkin" (1925) erzählt von einem Aufstand auf dem gleichnamigen Schiff und der Konfrontation der Meuterer mit der russischen Armee in Odessa. Einige Szenen aus dem Film, darunter die Treppenszene in Odessa, gehören zu den meistzitierten in der Filmgeschichte. Der Russe Dsiga Wertow hingegen war ein Vertreter des sogenannten absoluten Films, durch den eine universale Filmsprache ohne sprachliche Hürden propagiert wurde. Sein berühmtestes Werk ist "Der Mann mit der Kamera" (1929), ein vielschichtiges Bild einer russischen Großstadt durch das Auge eines Kameramannes. Der expressionistische Film. Der deutsche und österreichische Film dieser Zeit entwickelte eine besondere Ästhetik, die sich an der expressionistischen Malerei orientierte. Als erster expressionistischer Film gilt "Das Cabinet des Dr. Caligari" (1919) von Robert Wiene, dessen Elemente der expressionistischen Filmästhetik von den somnambulen Charakteren über Schattenmalereien bis hin zu den spitzwinklig verzerrten Kulissen reichen. Weitere Vertreter dieser Stilrichtung sind der Gruselfilm "Nosferatu, eine Symphonie des Grauens" (1922) von Friedrich Wilhelm Murnau und "Das Wachsfigurenkabinett" (1924) von Paul Leni. Bedeutende expressionistische Werke kamen auch aus Österreich, wo man mit der Erforschung des Stummfilmerbes allerdings erst spät begann, weshalb viele Bereiche filmwissenschaftlich erst unzureichend verarbeitet werden konnten. Gesicherte Belege für die Integration expressionistischer Stilelemente in österreichischen Filmen sind Robert Wienes "Orlac’s Hände" (1924) und Hans Karl Breslauers "Die Stadt ohne Juden" (1924). Ihren Kulminationspunkt erreichte die Epoche in dem Film "Metropolis" (1927) von Fritz Lang, der zugleich einer der ersten wegweisenden Sciencefiction-Filme war. Europäische Filmwirtschaftskrise durch aufstrebende US-Filmindustrie. Mitte der 1920er Jahre erlebte der europäische Stummfilm seine schwerste Krise. Die Folgen sind bis heute spürbar: die Abhängigkeit europäischer Filmproduzenten von der Filmförderung und die fast weltweite Dominanz der US-amerikanischen Filmindustrie. Ursache für diese Entwicklung war in erster Linie der Erste Weltkrieg, der Kapital aus Europa abzog und in die USA leitete, was sich entsprechend auf die Finanzkraft der Filmproduzenten auswirkte. Die amerikanische Filmindustrie wäre jedoch nicht zur weltweit dominierenden Filmnation aufgestiegen, hätte sie nicht von Anfang an den Film als hochwirtschaftlichen Industriezweig aufgebaut. Die europäische Filmlandschaft blieb nicht zuletzt aufgrund der Zurückhaltung der Finanzgeber klein strukturiert. Es entstanden, abgesehen von der Universum Film (UFA) in Deutschland, keine großen, vertikal integrierten Filmkonzerne, die mit den amerikanischen vergleichbar gewesen wären. Die daraus resultierende Finanzschwäche verhinderte die kontinuierliche Produktion von aufwendigen, erstklassigen, starbesetzten Filmen zu wettbewerbsfähigen Preisen. Dass dies den amerikanischen Filmgesellschaften aber möglich war, lag daran, dass sie die Produktionskosten ihrer auf den Massengeschmack abgestimmten Filme dank enormer Werbung und Einsatz aller bekannten Marketinginstrumente bereits in den USA hereinspielen konnten. Nur wenige selbstständige Produzenten wie Charlie Chaplin wagten Filme herzustellen, die ihren eigenen künstlerischen Ansprüchen genügen sollten. Um erfolgreich zu sein, mussten aber auch sie nach dem Geschmack der Massen trachten. Da die US-Filmindustrie zur Mitte der 1920er Jahre bereits einen jährlichen Ausstoß von 800 oder mehr Filmen aufweisen konnte, was fast 90 Prozent der weltweiten Filmproduktion bedeutete und den jährlichen Gesamtfilmbedarf der meisten europäischen Länder deutlich übertraf, bedeutete dies eine zunehmende Verdrängung europäischer Produktionen nicht nur vom europäischen, sondern auch vom Weltmarkt. Dies hatte wiederum den Niedergang zahlreicher europäischer Filmproduzenten zur Folge. Die britische, französische und italienische Filmindustrie kamen als erste nahezu zum Erliegen. In Großbritannien wurde der Tiefpunkt im „schwarzen November“ 1924 erreicht, als sich kein einziger Film in Produktion befand. Andere zu dieser Zeit große Filmproduzenten, etwa Österreich und Dänemark, traf es besonders hart – ihre Filmindustrie erlangte nie wieder so große internationale Bedeutung wie zuvor. Deutschland hingegen konnte diese Krise weitgehend verhindern, da bereits 1917 auf staatliches Betreiben der große UFA-Konzern geschaffen worden war und zudem bereits seit Anfang der 1920er Jahre das deutsche Kontingentgesetz die Einfuhr ausländischer Filme stark beschränkte, so dass rund 50 Prozent aller in Deutschland gezeigten Filme aus Deutschland stammten. Japan konnte mit einem ähnlichen Kontingentgesetz seine Filmwirtschaft erfolgreich schützen, und auch viele andere Länder führten Filmkontingente ein. Zur Festigung ihrer Vormachtstellung wandten die US-Filmproduzenten und -verleiher auch an die Grenze der Legalität gehende Geschäftspraktiken an: etwa das „Blocksystem“, das Kinobesitzer zur Abnahme aller Filme der Filmgesellschaft zwingen sollte. Verweigerte ein Kinobesitzer dieses „Blindbuchen“ eines ganzen Jahresprogramms, durfte er auch die „Blockbuster“ der jeweiligen Filmgesellschaft nicht spielen, was natürlich ein enormer Wettbewerbsnachteil gewesen wäre, da solche Filme das meiste Publikum anzogen. Diese Geschäftspraxis wurde erst nach und nach von den europäischen Staaten verboten: in Deutschland zeitgleich mit dem Kontingentgesetz Anfang der 1920er Jahre, in England erst 1927 mit Einführung der Quotabill. Jeder Kinobesitzer hatte nun das Recht, jeden Film vor dem Kauf vorab zu sehen. Nahezu europaweit forderten Filmindustrielle wie Filmschaffende ein Eingreifen der Politik. In den meisten Ländern kam es bis 1926, 1927 zu Gesetzen, die die Einfuhr US-amerikanischer Produktionen, oder ausländischer Produktionen generell, einschränkten: Importbeschränkungen, Zölle oder auch Förderungen an heimische Produzenten. Die Krise der europäischen Filmwirtschaft veranlasste den britischen Filmproduzenten und Publizisten L’Estrange Fawcett, in seinem 1927 erstveröffentlichten filmtheoretischen Werk „Die Welt des Films“ besonders auf die Filmindustrie Hollywoods einzugehen, um „die von den amerikanischen Filmtrusts in einen schweren Daseinskampf gedrängte europäische Filmproduktion auf die Vorteile und Mängel jener großartigen Unternehmungen aufmerksam zu machen, damit sie beim Aufbau der heimischen Industrie daraus Anregung und Nutzen ziehen können. Das eigenartige Gefüge des amerikanischen Filmbetriebes wird uns gerade jetzt willkommene Lehren bieten, zu einem Zeitpunkt, da viele Länder Europas darangehen, ihre in den letzten Jahren durch den überstarken Konkurrenten verdrängten Filmindustrien mit staatlicher oder gesetzgeberischer Beihilfe zu neuem Leben zu erwecken.“ Des Weiteren erwähnte er zu den Ursachen, wie der amerikanische Film den europäischen Film in die Krise stürzen konnte: „In Europa wurde der Film eben seit jeher als ein Geschäft minderer Güte behandelt; einzelne haben dabei Geld verdient, die meisten daran verloren, und wenn man heute einem europäischen Kapitalisten mit einem Filmprojekt kommt, so ist er von vornherein misstrauisch. Die Amerikaner jedoch haben von allem Anfang an den Film als ‚big business‘, als Großgeschäft, aufgefasst, das ebenso gründlich verfolgt und gemanagt werden muss wie jedes andere Geschäft in Wall Street. Daher auch die Ausbeutung aller Möglichkeiten, die Vereinigung von Produktion und Vertrieb in einer Hand, die ungeheure Zunahme des Kinobetriebes.“ Übergang vom Stummfilm zum Tonfilm (1927 bis 1936). In den späten 1920er und den frühen 1930er Jahren wurde der Stummfilm durch den Tonfilm – auch „Talkie“ bzw. „Sprechfilm“ genannt – abgelöst. Es setzte sich das Lichttonverfahren durch, bei dem sich die Tonspur mit auf dem Filmband befand. Die Übergangsperiode dauerte weltweit etwa zehn Jahre. Insbesondere in China entstanden in den 1930er Jahren die heute als Stummfilmklassiker des Landes geltenden Filme. Zu den letzten US-amerikanischen Stummfilmproduktionen gehört der 1935 auf Bali gedrehte Zweifarben-Technicolorfilm '. Künstlerisch hatte der Stummfilm ab Mitte der 1920er Jahre seinen Höhepunkt erreicht. Hollywood war seither der Magnet für internationale Fachkräfte, und da es im Stummfilm keine Sprachbarrieren gab, konnte eine sehr fruchtbare Wechselwirkung zwischen individueller Kreativität und technischem Know-how entstehen. Regisseuren wie Victor Sjöström, Mauritz Stiller, Jacques Feyder, Ernst Lubitsch, Paul Leni, Josef von Sternberg, Erich von Stroheim, Harrie d'Abbadie d'Arrast und Maurice Tourneur gelangen erfolgreiche Karrieren. Gleiches galt für die Schauspieler, die in Hollywood arbeiteten. Als Beispiele mögen genügen: Vilma Bánky aus Ungarn, Greta Garbo, Lars Hanson und Nils Asther aus Schweden, Camilla Horn und Emil Jannings aus Deutschland, Pola Negri aus Polen, Alla Nazimova aus Russland und Ramón Novarro aus Mexiko. Es gab damals so viele ausländische Stars, dass die nationale Filmpresse in den USA bereits xenophobe Artikel veröffentlichte, die vor einer Überfremdung der heimischen Industrie warnten. Streifen wie "Hotel Imperial" von Mauritz Stiller aus dem Jahr 1927 oder "Es tut sich was in Hollywood", eine Komödie mit Marion Davies aus dem Jahr 1928, imponierten mit hoher dramaturgischer Dichte und ausgefeilter Darstellungstechnik, die der Tonfilm erst viele Jahre später erreichen konnte. Interessanterweise waren gerade die stummen Verfilmungen populärer Operetten in diesen Jahren Kassenmagneten, angefangen bei "The Merry Widow" unter der Regie von Erich von Stroheim bis hin zu "The Student Prince" von Ernst Lubitsch. Anscheinend vermissten die Zuschauer die Dialoge nicht besonders. Die Gründe für die Einführung des Tons waren daher hauptsächlich wirtschaftlicher Art. Die Zuschauerzahlen stagnierten mit rund 55 Millionen Zuschauern wöchentlich seit 1926 auf mittlerem Niveau. Zur größten Konkurrenz wurde zunehmend das Radio, wo sehr populäre Shows, Hörspiele und Sportreportagen ein Millionenpublikum fesselten. Das Studio Warner Brothers hatte bereits seit Mitte der 1920er Jahre gemeinsam mit der Firma Western Electric unter dem Namen „Vitaphone“ tonunterstützte Filme produziert. Der am 6. August 1926 uraufgeführte Streifen "Don Juan" mit dem sehr populären Broadwayschauspieler John Barrymore wurde ein großer Erfolg. Bei diesen frühen Werken lief die Tonspur parallel auf einem anderen Medium, häufig auf den schallplattenähnlichen Matrizen – das sogenannte Nadeltonverfahren. Ermutigt von den Erfolgen brachte Warner Brothers weitere Tonfilme in die Kinos. Die Neuerung bestand in der integralen Bedeutung des Dialogs für die Handlung. Waren in den vorherigen Werken meistens nur Monologe zu hören, konnte das Publikum nunmehr echte Gespräche zwischen den Schauspielern verfolgen. Als offizieller Beginn der Tonfilmära gilt der 6. Oktober 1927, als "Der Jazzsänger" uraufgeführt wurde. Allerdings machen die gesprochenen Teile nur knapp ein Viertel der Gesamtlaufzeit des Films aus. Das Publikum war sehr angetan von der Neuerung, und die Warner-Brüder nutzten die Neugier, um weitere dialogunterstützte Filme zu produzieren. Das Studio wurde dank des starken Zuschauerzuspruchs eine Zeit lang das profitabelste Unternehmen der Filmbranche und produzierte Mitte 1928 mit "Lights of New York" den ersten Film, der komplett nur aus Dialogen besteht. Warner Brothers bekam rasch Konkurrenz von William Fox, dem zu diesem Zeitpunkt mächtigsten Mann im Filmgeschäft. Er stand kurz vor der Übernahme der neu entstandenen Filmgesellschaft MGM und erkannte das Potential, das in der Innovation des Tonfilms lag. Dabei stützte sich Fox auf ein zukunftsträchtigeres Tonsystem als Warner. Es synchronisierte die Tonspur in einem komplizierten Verfahren mit der Filmspur – das Lichttonverfahren, von einer Gruppe rund um Hans Vogt entwickelt, deren Patente William Fox aufkaufte. Die übrigen Studios zögerten teilweise lange, ehe sie ebenfalls die Investitionen für die notwendige technische Ausrüstung wagten. Besonders Irving Thalberg, Produktionschef bei MGM, war skeptisch über die Zukunft der Neuerung. Erst Mitte 1928, als die New Yorker Finanzgeber der großen Studios sich für den Tonfilm entschieden hatten, begann auch MGM Tonfilme zu produzieren. Es war der Tontechniker Douglas Shearer, Bruder von Hollywoodstar Norma Shearer, der das Lichttonverfahren perfektionierte, bei dem die Tonspur auf die Filmspur kopiert wird. Mit dem Slogan "All Talking, All Dancing, All Singing" wurde 1929 "The Broadway Melody" beworben, der erstmals das neue Verfahren präsentierte. Der Film gewann als zweiter Film den Oscar als "Bester Film des Jahres" und etablierte die Hauptdarstellerin Bessie Love als ersten Gesangsstar der neuen Epoche. Eine Zeit lang existierten noch sogenannte „Hybridfilme“, die nur Dialogpassagen oder Soundeffekte aufwiesen. Die Studios brachten mitunter auch etablierte Streifen erneut heraus, die mit zusätzlichen Geräuscheffekten versehen waren. Zu den bekannteren Beispielen zählen "Das Glück in der Mansarde", "Der Patriot" und "Der Hochzeitsmarsch". Darüber hinaus produzierte man für die Kinos, die noch nicht auf Tonfilme umgerüstet waren, eine stumme Version des Streifens mit dazu. Der erste Film, für den das nicht mehr gemacht wurde, war "Wise Girls" aus dem Jahr 1929. Nachdem auch MGM sich für den Tonfilm entschieden hatte, entstand Ende 1929 mit "Der Kuß" dort der letzte reine Stummfilm aus US-amerikanischer Produktion. Die primitive Aufnahmetechnik machte es notwendig, dass die Schauspieler während ihrer Dialoge völlig still standen und ganz gezielt in das meistens nur grob kaschierte Mikrophon sprachen – die Mikrophone wurden in oder hinter allen möglichen Dekorationsobjekten versteckt. Daher wirken die meisten frühen Tonfilme extrem statisch und die Schauspieler angestrengt und immobil. Erst von 1929 an konnte der Tonfilm beginnen, sich dem hohen künstlerischen Niveau, das der Stummfilm gerade in den letzten Jahren erreicht hatte, wieder zu nähern. Wichtige Innovationen auf dem Weg zu einer neuen, integrativen Behandlung des Tons für die Dramatik der Handlung waren Werke wie "Applaus" von Rouben Mamoulian, "Liebesparade" und "Monte Carlo" von Ernst Lubitsch sowie "In Old Arizona" von Irving Cummings, die erste Großproduktion, die außerhalb des Studios sozusagen im Freien produziert wurde. Der Tonfilm bescherte Hollywood einen dramatischen Zuwachs der Zuschauerzahlen von 55 Millionen wöchentlich im Jahr 1927 auf 155 Millionen wöchentlich im Jahr 1930, und entsprechend stiegen die Gewinne der Studios. 1930, als der sogenannte "Talkie Craze", der Run des Publikums auf Dialogfilme, seinen Höhepunkt erreichte, verdiente Paramount über 18 Millionen, den höchsten Gewinn eines Studios bis dahin. MGM konnte über 16 Millionen als Gewinn verbuchen. Erst 1946/1947 konnten vergleichbare Zahlen wieder erzielt werden. Die Neuerung brachte naturgemäß auch neue Genres mit sich. Gerade am Anfang waren dialogreiche Gerichtsdramen, Kriminalgeschichten und Salonkomödien populär. Auch konnte sich aus den ersten Revuefilmen das Musical entwickeln – in Europa entstanden parallel dazu die Operettenfilme, die in Verbindung mit dem historischen Ambiente Wiens zur Kaiserzeit ein noch spezialisierteres Genre ergaben: den Wiener Film. Keine Regel ohne Ausnahme: Greta Garbo erlebte durch den Tonfilm noch eine Zunahme der Popularität. Das Studio setzte sie erst Anfang 1930 als Schwedin in "Anna Christie" ein und warb gleichzeitig mit dem Slogan „Garbo talks!“. Auch Ramón Novarro und Dolores del Río gelang der erfolgreiche Wechsel ins neue Metier. Etliche Stars, die bereits in Stummfilmtagen beliebt waren, konnten sich zumindest bis zur Mitte der Dekade behaupten. So wurden Joan Crawford, Gary Cooper, Wallace Beery, Marie Dressler, Janet Gaynor, Bebe Daniels und Norma Shearer noch populärer. Einige Schauspieler wurden gerade aufgrund ihres Akzents beliebt. Maurice Chevalier stieg 1929 zum größten Star der Paramount auf, nachdem er einige erfolgreiche Musicals gedreht hatte. Ein Jahr später bewies Marlene Dietrich, dass die Fähigkeit, Englisch zu sprechen, nur ein Aspekt für beruflichen Erfolg war. Zu den Gewinnern des Tonfilms zählten aber vor allem Schauspieler, die eine gewisse Bühnen- und damit Sprecherfahrung aufweisen konnten. George Arliss, John Barrymore und Ronald Colman waren schon zu Stummfilmzeiten populär und konnten durch ihre klare Diktion überzeugen. Dazu kam eine ganze Karawane von Broadway-Mimen, die von 1929 an in Richtung Westen zogen und dort teilweise sehr populär wurden: Ruth Chatterton, Fredric March, Nancy Carroll, Ann Harding, Barbara Stanwyck, Tallulah Bankhead, um nur einige zu nennen. Viele Karrieren endeten langsam, da sich mit dem Wechsel zum Tonfilm auch neue Vorlieben im Publikumsgeschmack ergaben. William Haines, Mary Pickford, Corinne Griffith, Gloria Swanson, Lila Lee, Laura La Plante, John Gilbert, Marion Davies, Betty Compson, Richard Dix und Clara Bow waren einige Namen, die zwar gut die Hürde des Mikrophons nahmen, jedoch allmählich ihre Anziehungskraft an der Kinokasse verloren. Besonders deutlich wird dies am Beispiel von Colleen Moore, die 1923 durch den Film "Flaming Youth" das Image des "Flapper-Girls" schuf und noch 1928 mit dem Streifen "Lilac Times" einen der größten Hits des Jahres produzierte. Sie hatte eine angenehme Stimme, konnte passabel tanzen und drehte 1929 noch einige Musicals, doch der Geschmack des Publikums hatte sich bereits zu ihren Ungunsten verändert. Flapper waren passé und Miss Moore zog sich 1930 zeitweise ins Privatleben zurück. Manche Schauspieler machten sehr spät ihr Tonfilmdebüt. Lon Chaney drehte erst 1930 seinen ersten und zugleich letzten Streifen. Lillian Gish hatte ebenfalls 1930 ihre Premiere im Sprechfilm. Charles Chaplin wartete damit sogar bis 1940. Hollywood präsentierte die Stummfilmepoche schon 1939 in dem Streifen "Hollywood Cavalcade" mit Don Ameche und Alice Faye als längst vergangene Ära, die bestenfalls als Hintergrund für Komödien zu gebrauchen war. Eine besonders witzige Persiflage über die Panik, die Hollywood damals heimsuchte, ist der Streifen "Singin' in the Rain" aus dem Jahr 1952. Besonders die Rolle von Jean Hagen als temperamentvoller Star ist stark am Charakter von Norma Talmadge orientiert. Regisseure. Die erste Spielfilmregisseurin der Filmgeschichte war die Französin Alice Guy-Blaché, die 1896 "La Fée aux Choux" drehte. Der einflussreichste und erfolgreichste amerikanische Stummfilm-Regisseur war D. W. Griffith. Dessen bedeutendste Werke sind "Intoleranz" und "Die Geburt einer Nation", wobei letzter wegen seiner relativ kritiklosen Verherrlichung des Ku Klux Klans umstritten ist. Aus technischer und stilistischer Sicht aber gelten seine Filme als frühe Meisterwerke des Kinos. 1919 gehörte Griffith zu den Gründern der United Artists. Die bekanntesten Stummfilme für den US-amerikanischen Filmverleih waren "Weit im Osten" und "Zwei Waisen im Sturm". In Europa war der russische Regisseur Sergej Eisenstein insbesondere durch seinen Stummfilm "Panzerkreuzer Potemkin" sehr einflussreich und bekannt. Er erregte mit seiner neuen Schnitttechnik Aufsehen und prägte die filmische Sprache bis heute. Insbesondere die sogenannte Odessa-Sequenz ist legendär und wurde oft zitiert und auch parodiert. Eisenstein prägte den filmästhetischen Begriff der „Montage“. Auch die beiden deutschen Regisseure Friedrich Wilhelm Murnau ("Sonnenaufgang – Lied von zwei Menschen", "Faust – eine deutsche Volkssage") und Fritz Lang ("Metropolis", "Dr. Mabuse") setzten durch ihren Expressionismus, Kameraführung ("Der letzte Mann") und dem Spiel mit Licht und Schatten ("Nosferatu – Eine Symphonie des Grauens") Maßstäbe. Alfred Hitchcock begann seine Karriere in London als Zeichner von Zwischentiteln und Regieassistent. Zwischen 1925 und 1929 drehte er als Regisseur neun eigene Stummfilme, darunter als den berühmtesten "Der Mieter". Bedeutende Filmgesellschaften der Stummfilmzeit. In den Jahren nach dem Ersten Weltkrieg geriet der weltweite Filmmarkt zunehmend unter amerikanische Dominanz. Die großen amerikanischen Filmgesellschaften besaßen bereits damals zumeist eigene Vertriebssysteme sowie ganze Kinoketten. Ton in der Stummfilmzeit. Der erste experimentelle Tonfilm wurde bereits 1894 oder 1895 von William K. L. Dickson, einem Techniker von Thomas Alva Edison erstellt. Wenn die Notwendigkeit bestand, Handlungen zu erklären, wurden bis 1908 unsystematisch Filmerklärer eingesetzt, danach meistens Texttafeln mit erklärenden Zwischentiteln. Im japanischen Kino gab es ab etwa 1908 einen oder mehrere Benshi, die die Filme erklärten und alle Rollen live während der Vorführung sprachen. Zu allen Stummfilmen lief Musik, entweder in Form einer für den Film geschriebenen Partitur oder als Improvisation eines Musikers. Gespielt wurde meistens am Klavier. Klavierspieler in den Kinos wurden auch Tappeure genannt. Der Umfang und die Qualität der musikalischen Begleitung hingen vom Kino ab, für Galaveranstaltungen und Premieren großer, aufwendiger Filme, die ab Mitte der 1910er Jahre allmählich entstanden, wurden teilweise ganze Orchester zur Begleitung engagiert. Einige Kinos verfügten über eigens konstruierte Kinoorgeln, die auch Geräuscheffekte ermöglichten. Als Deutschlands bekanntester Stummfilmpianist gilt Willy Sommerfeld, in Österreich ist Gerhard Gruber der bedeutendste Stummfilmbegleiter am Klavier. Von Beginn der Filmprojektion an bestand der Wunsch, die stummen Filme mit Ton auszustatten. Zeitungskritiken zu den ersten Filmvorführungen sprachen, bei aller Bewunderung für die „Lebende Photographie“, den Mangel der stummen Bilder deutlich aus. Zu den ersten Filmvorführungen z. B. in Ostfriesland wurde durch den Wanderkinopionier als Hintergrundvertonung Militärmusik mittels des Phonographen gespielt. Von 1904 an führten die Wanderkinos auf den Jahrmärkten mittels Nadeltonverfahren die sog. „Tonbilder“, mit speziell für die Filme produzierten Schallplatten, auf. Diese Tonbilder konnten sich noch bis in die Frühzeit der ersten Ladenkinos im Programm jedes Kinos halten. Die Qualität war schlecht und die Platten liefen fast nie synchron zu den Bildern; für die von etwa 1915 an üblichen längeren Filme hatten die damaligen Schallplatten auch eine viel zu kurze Laufzeit, so dass die „Tonbilder“ bald wieder verschwanden. „Moderne Stummfilme“. Auch nach Einführung des Tonfilms entstanden Filme, deren Handlung ganz oder teilweise ohne gesprochenes Wort vermittelt wird. Diese Filme sind keine Stummfilme im eigentlichen Sinn. Anders als beim echten Stummfilm handelt es sich dabei nicht um die Konsequenz des Fehlens der Tonspur (eines technischen Aspekts), sondern um das künstlerische Mittel der Verwendung sekundärer stummfilmtypischer Eigenheiten wie Schwarzweißfilm, Zwischentitel und pantomimische Elemente. Charles Chaplin war einer der ersten Künstler, die auch nach Einführung des Tonfilms weiter auf den Stummfilm als künstlerisches Ausdrucksmittel setzten. So entstanden Filme wie "Lichter der Großstadt" (1931) und "Moderne Zeiten" (1936). In den 1970er Jahren inszenierte Mel Brooks mit dem Film "Silent Movie" eine Hommage an den Stummfilm. In jüngerer Zeit setzen einige Filmemacher den Stummfilm wieder als künstlerisches Ausdrucksmittel ein. So entstanden 1995 der als Hommage konzipierte Film "Die Gebrüder Skladanowsky" von Wim Wenders und 1999 der Film "Juha" von Aki Kaurismäki. Im 21. Jahrhundert folgen dann "The Call of Cthulhu" (2005) von Andrew Leman, Franka Potentes Film "Der die Tollkirsche ausgräbt" von 2006 sowie "The Artist" (2011) von Michel Hazanavicius. 2012 verwendete Jonas Grosch mit "A Silent Rockumentary" den Stummfilm erstmals für einen Dokumentarfilm. Als Gemeinsamkeit dieser Filme kann über die Verwendung einiger Stilmittel des Stummfilms hinaus ihre spezifische Referenz an die Übergangsphase vom Stummfilm zum Tonfilm angesehen werden. Erforschung des Stummfilms. Experten schätzen, dass 80 bis 90 Prozent aller Stummfilme unwiederbringlich verloren sind. Dies ist vor allem auf das damals verwendete Filmmaterial Zellulosenitrat zurückzuführen, das nach langer Lagerung zu Selbstzersetzung und Entzündung neigt. In den 1920er Jahren wurden in den USA systematisch Nitratfilme zerstört, um daraus Silber zu gewinnen. Dazu kam das jahrzehntelange Desinteresse an Produktionen vor dem Ersten Weltkrieg. Die frühen Filme galten als „primitiv“. Erst mit einem Treffen der FIAF 1978 setzte langsam ein Umdenken ein. Die Suche nach verschollenen Filmen gestaltet sich sehr schwierig. Filmhistoriker forschten jahrzehntelang nach einer Kopie des verloren geglaubten Greta-Garbo-Films "The Divine Woman". Am Ende konnte in Moskauer Archiven ein gut zehnminütiges Fragment gefunden werden, das im New Yorker Filminstitut wieder aufgeführt wurde. Verfügbarkeit. Zahlreiche Stummfilme sind in den letzten Jahren auf DVD verfügbar gemacht worden. Dabei wurde die ursprüngliche Filmmusik (wenn es eine eigene Komposition für den Film gab) oft von bekannten heutigen Künstlern neu eingespielt; bei Filmen ohne eigene Musik wurde oft auf zeitgenössische Berichte über die zu einer Aufführung gespielte Musik zurückgegriffen. Ein Problem für die Übertragung auf DVD stellt jedoch die Tatsache dar, dass viele Stummfilme noch nicht auf die heute übliche Abspielgeschwindigkeit von 24 Bildern pro Sekunde angelegt waren, sondern weniger Bilder verwendeten. Da diese niedrigeren Geschwindigkeiten im DVD-Standard nicht vorgesehen sind, müssen solche Filme aufwendig und unter Qualitätsverlust auf die höhere Bildgeschwindigkeit hochgerechnet werden. Neben dem Stummfilmangebot in Programmkinos werden auch dem Stummfilm gewidmete Filmfestivals und Veranstaltungen wie "CineFest – Internationales Festival des deutschen Film-Erbes", Hamburg – Berlin – Wien – Zürich, organisiert von CineGraph und Bundesarchiv-Filmarchiv, die "Internationalen Stummfilmtage" in Bonn, die "StummFilmMusikTage Erlangen" oder das "Kino Kabarett" angeboten, die historische und zeitgenössische Stummfilme in traditioneller Aufführung mit Musikern zeigen. Das international bedeutendste Stummfilmfestval ist "Le Giornate del Cinema Muto", das jedes Jahr in Pordenone veranstaltet wird. Semantik. Semantik (von ‚bezeichnen‘, ‚zum Zeichen gehörig‘), auch Bedeutungslehre, nennt man die Theorie oder Wissenschaft von der Bedeutung der Zeichen. "Zeichen" können in diesem Fall Wörter, Phrasen oder Symbole sein. Die Semantik beschäftigt sich typischerweise mit den Beziehungen zwischen den Zeichen und deren Bedeutungen. Soweit sich die Semantik mit Zeichen "aller Art" befasst, ist sie ein Teilbereich der Semiotik. Sofern sie sich alleine mit "sprachlichen" Zeichen befasst, ist sie eine Teildisziplin der Linguistik. Abgrenzung. Die Sprachwissenschaft befasst sich seit über zweitausend Jahren mit der Beschreibung und Erklärung sprachlicher Phänomene. Dabei hat sie immer wieder neue theoretische Ansätze entwickelt, in die jeweils auch die Semantik neu miteinbezogen werden musste. Hieraus entstanden jeweils eigenständige Forschungsansätze. Außerdem wurden verschiedene Teilbereiche entwickelt, um sprachwissenschaftliche Erkenntnisse auch praktisch anwenden zu können (z. B. Pädagogik, Medizin). Im Laufe der Zeit wurde der Begriff Semantik auch auf Bereiche ausgeweitet, die die Sprachwissenschaft nicht abdeckt. So erklären sich die vielen unterschiedlichen Aspekte und Teilbereiche, die die Semantik abdeckt. Die folgenden Abschnitte gehen nun zuerst auf die Semantik im Sinne der Semiotik ein. Die Semantik von Zeichensystemen allgemein (Semiotik). Im allgemeinen zeichentheoretischen (semiotischen) Sinn ist die Semantik die Theorie der Bedeutung von Zeichen (Zeichenbedeutung). Je nach zugrundegelegtem Bedeutungsbegriff variiert daher auch der Begriff oder die Perspektive der Semantik. Im Sinne der allgemeinen Zeichentheorie sind Zeichen nicht nur sprachliche Zeichen, so dass die semiotische Semantik auch natürliche oder technische Prozesse in ihrer Zeichenhaftigkeit und Interaktion analysiert. Allgemein wird Charles W. Morris als derjenige genannt, der den Terminus "Semantik" in der Semiotik etabliert hat. Er verstand unter Semantik die Beziehung der Zeichen zu ihren Designaten (Referent (Linguistik)) und die Lehre davon. Der Semantikbegriff von Morris ist ein anderer als der heutige Semantikbegriff und ist auch ein anderer als der fachtechnische von Alfred Tarski. Seit Morris unterscheidet man in der Semiotik die Pragmatik und die Syntax (von Morris Syntaktik genannt). Inwieweit diese Dreiteilung ihre Berechtigung hat, kann infrage gestellt werden. Insbesondere wird unter dem Einfluss des späteren Wittgenstein und der Gebrauchstheorie die Abhängigkeit der Semantik von der Pragmatik betont. Die semiotische Semantik soll auf der Sigmatik aufbauen, indem Daten eine Bedeutung erhalten und dann als Nachricht bezeichnet werden. Semasiologie und Onomasiologie. Denkt man die semantische Fragestellung nach der Bedeutung sprachlicher Zeichen vom Zeichen her "(Was bedeutet das Zeichen?)," so denkt man "semasiologisch". Man spricht auch von "Semasiologie" in einem allgemeinen Sinn als Synonym für "Semantik" oder in einem engeren Sinn als Lehre von den Wortbedeutungen. Denkt man vom Gegenstand her "(Wie wird der Gegenstand bezeichnet?)" geht man "onomasiologisch" vor. Man spricht von der "Onomasiologie" im Sinne einer Bezeichnungslehre. Ein Bildwörterbuch oder ein Wörterbuch, das nach Sachgruppen und Bedeutungsverwandtschaft geordnet ist (etwa bei Dornseiff), beruhen auf einem onomasiologischen Ansatz. Auch die Wortfeldlehre dürfte eine onomasiologische Komponente haben. "Semantik" ist der Oberbegriff für beide Spezialdisziplinen. Überhaupt dürfte die Unterscheidung zwischen semasiologisch und onomasiologisch mehr begrifflich denn eine reale sein; denn es stellt sich die Frage, ob nicht immer die Wirklichkeitserfahrung und damit die quasi-natürliche onomasiologische Einstellung des Sprachbeurteilers bei seinen semasiologischen Untersuchungen vorgängig ist. Die Semantik natürlicher Sprachen (linguistische Semantik). Die Semantik als Teildisziplin der Sprachwissenschaft "(linguistische Semantik)" untersucht die Bedeutung sprachlicher Zeichen. Alle sprachlichen Äußerungen, die eine Bedeutung haben, können als "Zeichen" aufgefasst werden. Die Wortform "ziel-st" besteht beispielsweise aus zwei Wortteilen, die die Bedingung für "Zeichen" erfüllen: Der Wortstamm steht für eine Bedeutung, die man etwa mit „ein bestimmtes Ziel erreichen wollen“ umschreiben kann, die Endung "-st" steht für die (grammatische) Bedeutung "2. Person Einzahl". Grammatische Bedeutungen werden oft auch als "grammatische Funktion" bezeichnet. Nun kann man sagen: Die "Semantik" als Teildisziplin der Linguistik befasst sich mit der Beschreibung und Erklärung der Bedeutungen sprachlicher Einheiten und mit den Möglichkeiten, diese zu komplexen Äußerungen zu kombinieren, sodass ganze Sätze und auch noch größere Einheiten entstehen und in der Kommunikation erfolgreich genutzt werden können. Als "historische Semantik" untersucht sie, wie die Bedeutungen der Spracheinheiten (der sprachlichen Zeichen) sich im Laufe der Zeit verändert haben. Man muss hier beachten, dass nicht alle beliebigen Bestandteile von Wörtern auch "Zeichen" im genannten Sinne sind: Zerlegt man etwa eine Wortform wie "vie-le" in der angedeuteten Weise in zwei Silben, so hat keine dieser beiden Silben für sich eine Bedeutung; nur zusammen tragen sie eine in der Sprachgemeinschaft übereinstimmend geteilte Bedeutung, die etwa mit „eine große Zahl von“ beschrieben werden kann. Zerlegt man das gleiche Wort in "viel-e", erhält man wieder zwei Wortteile (Wortstamm und Endung), die "Zeichen" sind. Entsprechendes wie für Silben gilt auch für einzelne Laute oder Buchstaben. Auch sie haben für sich allein keine Bedeutung. Die nächstgrößeren Zeichen sind (komplexe) Wörter und Lexeme, gefolgt von Satzgliedern, Teilsätzen, Sätzen und Texten. Alle diese Einheiten erfüllen die Bedingungen für „Zeichen“. Traditionell sind aber Morpheme und Wörter die Hauptgegenstände der linguistischen Semantik. In der Linguistik gibt es neben den Modulen der Syntax, der Pragmatik und der Semantik noch die der Phonologie und Morphologie. Da sich die Pragmatik ebenfalls mit der Bedeutung von sprachlichen Ausdrücken befasst, erscheint aber eine klare Trennung nur schwer möglich. Unterscheidet man Satzbedeutung und Äußerungsbedeutung sowie Sprecherbedeutung, so befasst sich die Semantik mit der Satzbedeutung, Semantik und Pragmatik mit der Äußerungsbedeutung und die Pragmatik allein mit der Sprecherbedeutung. Die Semantik wird aus unterschiedlichen Perspektiven und Ansätzen betrieben. Wort-, Satz-, Text- und Diskurssemantik. Wissenschaftsgeschichtlich ist anzumerken, dass die Wort- und Morphemsemantik traditionell die Hauptgegenstände der linguistischen Semantik sind. Erst später ist etwa eine Satzsemantik dazu gekommen. SINN(der Apfel ist rot) = f(SINN(der), SINN(Apfel), SINN(ist), SINN(rot)) Historische (diachronische) versus synchronische Semantik. Semantik lässt sich in diachronischer und/oder in synchronischer Perspektive betreiben. Bis Ferdinand de Saussure († 1913) herrschte eine diachronische Betrachtungsweise in der Sprachwissenschaft vor. Die "historische Semantik" befasst sich mit Bedeutungswandel der Wörter im Lauf der Zeit. Ein weiterer wesentlicher Forschungsansatz zur historischen Semantik ist ferner die Etymologie, die sich neben der Lautentwicklung auch mit der Bedeutungsentwicklung von Morphemen und Wörtern befasst. Die frühesten Arbeiten zur historischen Semantik stammen von Antoine Meillet, Wilhelm Wundt, Léonce Roudet, Jost Trier und Herman Paul. Seit den 1950er Jahren galten Stephen Ullmanns Arbeiten als maßgeblich. Seit den 1960er Jahren gibt es in Philosophie und Geschichtswissenschaft umfangreiche Forschungsvorhaben, die man unter dem Oberbegriff „Begriffsgeschichte“ zu den Forschungen zur historischen Semantik zählen kann. Seit Ende der 1990er Jahre und Anfang des 21. Jahrhunderts gibt es Versuche (wie von Andreas Blank, Peter Koch und Joachim Grzega), die Historische Semantik unter Berücksichtigung der Kognitiven Linguistik neu aufzustellen. Die "synchronische Semantik" ist die Semantik, die sich auf die Bedeutung sprachlicher Zeichen (einer bestimmten natürlichen Sprache), wie sie in einem bestimmten Zeitraum von einer bestimmten Gruppe als Instrument der Kommunikation verwendet wird, bezieht. Diachronische und synchronische Betrachtungsweise müssen sich nicht widersprechen, sondern können sich sinnvoll ergänzen. So wendet die "diachronisch-strukturelle Semantik" Interkulturelle Semantik. Interkulturelle Kommunikation gilt für viele Fachgebiete als neues Hyperparadigma. Auch im Bereich der Sprachwissenschaften gibt es Ansätze, interkulturelle Kommunikation terminologisch zu erfassen und wissenschaftlich zu modellieren. Häufig greift man dabei auf Konzepte benachbarter Fachwissenschaften zurück. Für die Analyse interkulturell bestimmter Kommunikationssituationen gelten prinzipiell die gleichen sprachpragmatischen Analysekategorien wie diejenigen, die zur Beschreibung eigenkultureller Interaktionssituationen herangezogen werden. Grundlegend für solche Kommunikationen ist die Verständigung über (Wort)Bedeutungen. Die Semantik birgt dabei insofern ein Missverständnispotential, weil die Kommunikationspartner in einer interkulturellen Kommunikationssituation die Wörter so gebrauchen, wie sie diese im Laufe ihrer Sozialisation in spezifischen kulturellen Kontexten erlernt haben und wie sie in Wörterbüchern festgeschrieben sind. Dabei kann es zu semantisch bedingten Störungen, Missverständnissen oder Konflikten kommen. In einer interkulturellen Semantik geht es darum, interkulturell bedingte Störungen, Missverständnisse und Konflikte, die durch einen kulturspezifischen Wortgebrauch verursacht sind, genauer zu beschreiben. Funktionale Klassifizierung der Semantikbereiche. Die Bereiche der Semantik können weiterhin nicht nur nach verschiedenen Ebenen der Sprachstruktur klassifiziert werden, sondern auch nach dem Typ der Beziehung zwischen Sprache und Denken oder Sprache und Welt. Danach unterscheidet man drei Signifikanzaspekte der semantischen Theorie: "kognitive Signifikanz", "informationelle Signifikanz" und "pragmatische Signifikanz". Der Begriff der kognitiven Signifikanz (engl. "cognitive significance") bezieht sich auf die Beziehung zwischen Sprache und Denken. Demnach kann man eine sprachliche Mitteilung nur dann verstehen, wenn man durch sie auf die Rekonstruktion gedanklicher Strukturen ihres Senders kommt. Semantische Theorien der informationellen Signifikanz (engl. "informational significance") werden auch als referenzielle Theorien bezeichnet. In Anlehnung an Ferdinand de Saussure spielt hier die Beziehung zwischen dem sprachlichen Zeichen und seinem Referenten in einer möglichen Welt die Hauptrolle. Die semantische Untersuchung der pragmatischen Signifikanz bezieht sich auf die Beziehung zwischen der linguistischen Bedeutung einer Äußerung und deren Bedeutung in einem bestimmten situativen Kontext. Dies ist auch der Untersuchungsgegenstand der Pragmatik. Allgemeine Semantik. Der Terminus "allgemeine Semantik" wird mehrdeutig verwendet. Analytische Semantik versus operationaler Semantik. Von "analytischer Semantik" spricht man synonym im Sinne von "komponentieller Semantik" als einer Semantik von „Hjelmslev und die Vertreter der strukturellen Semanalyse (Pottier, Greimas).“ im Gegensatz zu einer "operationalen Semantik". Dynamische Semantik versus statische Semantik. Von einer "Dynamischen Semantik" wird in Abgrenzung zu so genannten "statischen Bedeutungstheorien" dann gesprochen, wenn etwa die Bedeutung einer (sprachlichen) Einheit (Wort, Satz, Text) in systemtheoretischer Hinsicht „als Aktualisierungsfunktion ("update function") aufgefasst“ wird, durch die ein Systemzustand (Kontext, Informationsstand) "vor" der Äußerung/Verarbeitung dieser Einheit in einen neuen Systemzustand (Kontext, Informationsstand) "nach" der Äußerung/Verarbeitung überführt wird. Formale Semantik. Formale Semantik war ursprünglich die Semantik formaler, künstlicher Sprachen innerhalb der formalen Logik. Neben dieser formalen Semantik der Logik gibt es inzwischen auch eine formale Semantik natürlicher Sprachen, die sich logischer Beschreibungsmittel bedient. Unter dem Einfluss von Augustus De Morgan, George Boole, Alfred Tarski und Richard Montague definiert die formale Semantik Satzbedeutungen über die Wahrheitsbedingungen und beschreibt diese mit einer „formelhaften Metasprache […], die auf den Prinzipien der philosophischen Disziplin Logik aufbaut“. Kritikpunkt dabei ist, dass Bedeutungsnuancen verlorengehen können. Modelltheoretische Semantik (Tarski-Semantik). Die "modelltheoretische Semantik" (auch: "wahrheitsfunktionale Semantik") – von Richard Montague – (engl.: "model-theoretic semantics") ist eine Richtung der formalen Semantik, die die semantische Interpretation künstlicher und natürlicher Sprachen im Anschluss an Alfred Tarski dadurch vornimmt, dass sie „Bedeutung mit genau definierter Interpretation in einem Modell gleichsetzt.“ „In der modelltheoretischen Semantik wird die Komplexität von Extensionen eingeschränkt, indem man kleine Modelle mit einer überschaubaren Extension für eine bestimmte Welt und eine bestimmte Zeit definiert. Diese Modelle sind kleine Weltausschnitte, mit deren Hilfe sich die Bedeutungen sprachlicher Ausdrücke ermitteln lassen.“ In diesem Zusammenhang gilt es zwischen der Objektsprache und Metasprache zu unterscheiden. Die formale Sprache als Objektsprache wird in einem Modell interpretiert. Das Modell besteht aus einem Individuenbereich (Universum) und einer Wertzuweisungs- oder Interpretationsfunktion, die jeder nicht-logischen Konstante der Objektsprache ihr Denotat im Modell zuweist. Interpretative Semantik. → siehe auch: "Die semantische Theorie", "Vorgeschichte", "Das Modell der semantischen Interpretation", "Diskussion", "Literatur" → siehe auch: "Jerry Fodor und Noam Chomsky", "Semantische Theorie und Transformationsgrammatik" Strukturelle Semantik. Mit dem Ausdruck "strukturelle Semantik" (auch: "strukturalistische Semantik, strukturale Semantik") fasst man „unterschiedliche Modelle der Bedeutungsbeschreibung, die dem Strukturalismus verpflichtet sind und sich vorwiegend mit der Analyse lexikalischer Einheiten befassen.“ Die Strukturelle Semantik postuliert, dass die Bedeutung eines Wortes bzw. Lexems nicht isoliert, sondern nur über seine Beziehungsstruktur zu anderen Wörtern bzw. Lexemen innerhalb eines Sprachsystems analysiert und beschrieben werden kann. Es handelt sich um Semantiken, in denen angenommen wird, dass die Inhalts("signifié")seite strukturiert sei. „Sie gehen davon aus, dass der Wortschatz einer "langue", genauer gesagt: ihr gesamter "signifié"-Bestand, in sich strukturiert ist und nicht aus voneinander unabhängigen Einzelinhalten besteht (ansatzweise de Saussure; die Vertreter der Wortfeldtheorie), oder davon, dass zunächst der einzelne "signifié" in sich strukturiert ist, also in kleinere Einheiten analysiert werden kann (Hjelmslev, Leisi), und dass daraus folgend auch das gesamte "signifié"-Reservoir einer "langue" strukturiert ist (Pottier, Greimas, Coseriu).“ „Die Bildung eines „Begriffsfeldes“, die Festsetzung der morphosemantischen Felder (Relationskomplex von Formen und durch eine Wortmenge geformten Sinnbegriffen), die semische Analyse der Lexeme, kurz, all das, was zur Organisation des semantischen Universums beitragen kann, ist Teil dieser Disziplin.“ Die strukturelle Semantik „fasst Bedeutung auf als von der Stellung eines Wortes im Sprachsystem determinierte Beziehung zwischen Lautform und Vorstellung (Ausdruck und Inhalt).“ Merkmalssemantik. Die Merkmalssemantik (auch: Merkmalsemantik) bildet Bedeutung kompositional aus bedeutungsunterscheidenden Einzelmerkmalen. Ein Konzept wird gefüllt mit Merkmalen, aus denen sich die Gesamtbedeutung ergibt: So hat "Junge" die gleichen Merkmale wie "Mädchen" (+menschlich, -erwachsen) aber einen Unterschied im Merkmal (+männlich/weiblich). Mit der Merkmalssemantik können die Wahrheitswerte der wahrheitsfunktionalen Semantik besonders nachvollziehbar anhand der +/- Dichotomie der Merkmale bestimmt werden. Prototypensemantik. Die Prototypensemantik nutzt – im Gegensatz zur Merkmalssemantik – zur Ermittlung einer lexikalischen Bedeutung nicht Einzelmerkmale (Seme), sondern Prototypen. Sie versucht, konventionalistische oder mentalistische Bedeutungstheorien in die Semantik zu integrieren. Die Semantik logischer Sprachen. Die "logische Semantik" (auch: "reine Semantik") hat die Aufgabe, formale Sprachen (der Aussagenlogik, Prädikatenlogik etc.) zu interpretieren. Dabei werden die Bedeutungen nicht erforscht, sondern durch explizite Regeln festgelegt. Man spricht auch von formaler Semantik (der Logik) (zur formalen Semantik der Linguistik siehe oben). Intensionale versus extensionale Semantik. Der Unterscheidung zwischen Extension und Intension eines sprachlichen Ausdrucks folgend, kann Semantik mehr intensional "(intensionale Semantik)" oder extensional "(extensionale Semantik)" betrieben werden. Die Unterscheidung von Intension und Extension korreliert mit der zwischen Inhalt und Umfang oder Sinn und Bedeutung im Sinne von Gottlob Frege (1892). Allerdings verwendet Frege den Ausdruck "Bedeutung" in einem anderen als in dem heute herrschenden Sinn. Er definiert Frege verdeutlicht die Unterscheidung am Beispiel des Begriffspaares "Morgenstern" und "Abendstern", die beide dieselbe "Bedeutung" haben, da sie den Planeten Venus bezeichnen. Der "Sinn" der Ausdrücke sei jedoch offensichtlich unterschiedlich. Da diese Differenzierung nach heutigem Wortgebrauch nicht mehr leicht nachvollziehbar ist, wird inzwischen anstelle der Fregeschen Terminologie vorwiegend das Begriffspaar „"Bedeutung" (Sinn) – "Bezeichnetes"“ verwendet, Sinn und Bedeutung werden als synonym angesehen. Freges Differenzierungen haben auch in der linguistischen Semantik eine große Resonanz gefunden. Die Semantik für nicht-modale Logiken ist extensional. Dies bedeutet, dass den Ausdrücken der formalen Sprache nur Extensionen zugeordnet werden. Modallogische Sprachen werden hingegen durch eine intensionale Semantik interpretiert, wie durch die Semantik der möglichen Welten. Wahrheitsfunktionale Semantik. Die "wahrheitsfunktionale Semantik" wurde von Alfred Tarski im Jahr 1944 „zu einem systematischen Verfahren formalisiert“. Sie führt die Bedeutung eines Satzes auf die Frage nach der Wahrheit eines Satzes zurück, da das Konzept der Wahrheit leichter zu fassen ist als das der Bedeutung. Sie ist eine Semantik, die „den Begriff der Bedeutung als eine Funktion zwischen sprachlichen Ausdrücken und der Welt auf(fasst) und verwendet die Wahrheit von Aussagen als Kriterium von deren Bedeutung.“ In der modelltheoretischen Semantik wird dies ausgearbeitet. Semantik in der Informatik. Die Semantik in der Informatik ist ein Anwendungsfall der logischen Semantik. Hier wird für formale Programmiersprachen neben der Syntax eine formale Semantik definiert. Dies findet Anwendung im Bereich der Berechenbarkeitstheorie, der Komplexitätstheorie und insbesondere der Verifikation von Computerprogrammen (Korrektheit). Informationstheorie. In der "Informationstheorie" versteht man unter der Semantik einer Informationsfolge die Bedeutung dieser Informationsfolge. Eine reine Zufallsfolge hat keine Semantik (jedoch einen sehr hohen Informationsgehalt). Systemtheorie. Die soziologische Systemtheorie versteht unter Semantik den gesamten Wissensvorrat (das offizielle Gedächtnis und das grundlegende kulturelle Erbe) des Gesellschaftssystems, der dauerhaft, wiederverwendbar und sozial übergreifend zur Verfügung steht. Dabei beinhalten systemspezifische Semantiken jeweils sozial bedeutsame und bewahrenswerte Leitvorstellungen, die sich aus Standardisierungen des Empfindens, Denkens, Handelns und Redens ergeben haben. Sprachphilosophie (philosophische Semantik). Für die analytische Philosophie ist die Semantik ein wichtiger Teilbereich. Die Sprachphilosophie wurde lange Zeit nur als Semantik verstanden. Erst durch Wittgensteins Wirken im 20. Jahrhundert wurde die Pragmatik zu einem ebenso wichtigen Teil der Sprachphilosophie. Visuelle Kommunikation. In der Visuellen Kommunikation können optische Medien in ihren verschiedenen Erscheinungsweisen (Plakate, Werbespots, Piktogramme und andere) auch mit den Begriffen der Semantik untersucht und analysiert werden. Spule (Elektrotechnik). Spulen sind in der Elektrotechnik einerseits Wicklungen und Wickelgüter, die geeignet sind, ein Magnetfeld zu erzeugen oder zu detektieren. Sie sind dabei Teil eines elektrischen Bauelementes oder Gerätes, wie beispielsweise eines Transformators, Relais, Elektromotors oder Lautsprechers. Andererseits sind separate Spulen "induktive passive Bauelemente", deren wesentliche Eigenschaft eine definierte Induktivität ist. Sie werden überwiegend im Bereich der Signalverarbeitung für frequenzbestimmende Kreise, z. B. in LC-Schwingkreisen, Tiefpässen, Hochpässen, Bandpässen, zur Signalphasengangkorrektur, zur Störungsunterdrückung, zur Stromflussglättung oder als Energiespeicher in Schaltnetzteilen sowie vielen weiteren elektrischen und elektronischen Geräten eingesetzt. Siehe auch Drossel (Elektrotechnik). Die Einsatzhäufigkeit der Spulen ist allerdings wesentlich geringer als die von Widerständen und Kondensatoren, da diese vielfach billiger und einfacher herstellbar sind und auch günstiger in elektronischen Halbleiterschaltkreisen integrierbar sind. Beim elektronischen Schaltungsentwurf wird daher häufig – wenn irgend möglich – die Nutzung von Spulen vermieden, wenn diese mit Kondensatoren, Widerständen und aktiven Bauelementen (Transistoren) nachgebildet werden können, beispielsweise mittels einer Gyrator-Schaltung. Die meisten Spulen bestehen aus mindestens einer Wicklung eines Stromleiters aus Draht, Kupferlackdraht, versilbertem Kupferdraht oder Hochfrequenzlitze, der meist auf einem Spulenkörper (Spulenträger) gewickelt ist sowie überwiegend mit einem weichmagnetischen Kern versehen ist. Die Windungsanordnung und -form, der Drahtdurchmesser, das Wickel- und das Kernmaterial legen den Wert der Induktivität und weitere (Güte-)Eigenschaften der Spule fest. Darüber hinaus sind auch spiralförmig angelegte Leiterbahnen auf Leiterplatten, die gegebenenfalls mit umschließenden Ferritkernen umgeben sind, „Spulen“ im Sinne eines induktiven passiven Bauelementes. Die Windungen einer Spule müssen "immer" gegeneinander sowie gegen den häufig elektrisch leitenden Spulenkern isoliert sein, um einen Windungsschluss zu verhindern, der die Funktion der Spule wesentlich beeinträchtigen würde. Bei Spulen und Transformatoren mit mehreren Windungslagen bzw. Wicklungen aus Kupferlackdraht sind außerdem bei Spannungsdifferenzen ab etwa 50 Volt oft die einzelnen Windungslagen bzw. Wicklungen z. B. durch Lackpapier gegen Spannungsdurchschlag zusätzlich isoliert. Aufbau, Bauteilbezeichnungen. Eine Spule ist ein aufgewickelter Draht, wobei die Windungen voneinander isoliert sind. Eine Windung ist ein Umlauf einschließlich der Zuleitungen. Es gibt nur ganzzahlige Windungszahlen. Ein Wickelkörper (Spulenkörper) muss nicht zwingend vorhanden sein. Fehlt der Wickelkörper oder ist er aus nichtmagnetischem Material, spricht man im mechanischen bzw. elektrischen Sinne von Luftspulen. Der Spulenkörper dient hier meist nur der mechanischen Stabilisation des Drahtes und hat im Gegensatz zum Spulenkern keinen magnetischen Einfluss. Spulen gibt es auch in flacher Spiralform und mit rechteckigem oder beliebig anders geformtem Spulenquerschnitt. Sie können als spiralförmige Leiterbahn auch direkt auf einer Leiterplatte realisiert sein. Spulen besitzen eine bestimmte Induktivität, diese Induktivität kann ihr eigentlicher Zweck (z. B. Drosselspulen, Filterspulen) oder nur sekundäre Eigenschaft sein (z. B. Transformatoren, Zugmagnete, Relaisspulen). Bei Elektromotoren werden die Spulen als Wicklung und z. B. bei der Pupinspule als Bespulte Leitung bezeichnet. Neben dem aufgewickelten Draht und dem Spulenkörper weist die Spule im Inneren oft einen "(Spulen-)Kern" (s. u.) auf, um die Induktivität zu erhöhen. Das Wort Spule weist auf die Bauform hin (siehe Spule (Rolle)). Die Induktivität einer Spule wird in der Einheit Henry gemessen (siehe Henry (Einheit)). Funktionsweise. Die Haupteigenschaft von Spulen ist deren Induktivität. Die Induktivität ergibt sich aus der Anzahl der Windungen der Spule sowie aus dem von der Spule eingeschlossenen Material und den Abmessungen. Durch die magnetische Verkettung (Flussverkettung) der einzelnen Windungen untereinander, bedingt durch die räumlich nahe Anordnung der einzelnen Windungen, steigt die Induktivität von gewickelten Spulen theoretisch im Quadrat mit der Windungsanzahl. Eine Verdoppelung der Windungszahl bei gleichen geometrischen Abmessungen bewirkt somit eine Vervierfachung der Induktivität. Wird der Spulendraht von einem sich zeitlich ändernden Strom durchflossen, so entsteht um den elektrischen Leiter ein sich zeitlich ändernder magnetischer Fluss. Jede Änderung des Stromes erzeugt an den Enden des elektrischen Leiters eine Selbstinduktionsspannung. Diese Spannung ist dabei so gerichtet, dass sie ihrer Ursache (dem Strom) entgegenwirkt (Lenzsche Regel). Eine Zunahme der Änderungsrate des Stromes führt zur Erhöhung der Spannung, die dem Strom entgegenwirkt. Der Proportionalitätsfaktor zwischen sich zeitlich änderndem Strom durch den Leiter und der dabei entstehenden Selbstinduktionsspannung wird als Induktivität bezeichnet. "Reale" Spulen besitzen neben der eigentlichen "gewünschten" Induktivität auch noch andere, im Regelfall unerwünschte elektrische Eigenschaften wie einen elektrischen Widerstand, parasitäre Kapazitäten und damit mindestens eine elektrische Resonanzstelle (Eigenresonanz, Parallelschwingkreis) oder bei einem die Induktivität erhöhenden Spulenkern eine störende Remanenz sowie Wirbelstromverluste. Alle diese Parameter sind temperatur- und arbeitsfrequenzabhängig. Ihr Einsatz ist daher auch nur bis zu einer bauelementetypischen maximalen Grenzfrequenz sinnvoll, wo noch ein ausreichender induktiver Blindwiderstand bzw. Phasenwinkel in der entsprechenden Einsatzschaltung wirkt. Soll ein hochwertiger Widerstand, bestehend aus einem langen aufgewickelten (Widerstands-)Draht, dagegen eine besonders geringe Induktivität haben, muss der mechanische Widerstandsdrahtträger, z. B. ein Porzellanrohr mit Kontaktschellen, bifilar mit einem gegenläufigen Draht bewickelt werden. So heben sich die entgegengesetzt gerichteten magnetischen Flüsse nahezu auf. Dieses Verfahren wird beispielsweise für Drahtlastwiderstände für den hohen Niederfrequenzbereich bis etwa 100 kHz angewendet. Magnetfeld und Stromfluss. Im Inneren einer schlanken Spule (Länge viel größer als Durchmesser) der Länge "formula_1" mit "formula_2" Windungen, in denen ein elektrischer Strom "formula_3" fließt, entsteht das Magnetfeld mit der Feldstärke Die Flussdichte "B" ergibt sich mit der vom Spulenkern (s. u.) abhängigen Materialkonstanten "μr" und der magnetischen Feldkonstanten "μ"0 = 4π·10−7 H/m somit zu Spulenkerne. Spulenkerne haben die Aufgabe, die Induktivität der Spule zu verstärken oder zu verringern. Die durch einen magnetischen Kern erreichte Erhöhung der Induktivität führt zu einer Verringerung der für einen bestimmten Induktivitätswert erforderlichen Windungszahl bzw. Leiterlänge und damit zur Verringerung des störenden elektrischen Widerstandes der Spule. Kerne aus elektrischen Leitern wie Kupfer oder Aluminium, die durch Feldverdrängung die Induktivität verringern, werden zur Abstimmung von (Schwingkreis-)Spulen im Hochfrequenzbereich, z. B. bei UKW-Tunern, verwendet. Spule mit Eisenkern. Wirbelströme im Eisenblock (oben) und in laminierten Blechen (unten) Wird in eine Spule ein Eisenkern eingesetzt, so wird durch dessen ferromagnetische Eigenschaften die Permeabilität und damit auch die magnetische Flussdichte in der Spule erhöht. Somit kommt man mit wesentlich weniger Windungen und dadurch mit viel weniger Bauelementevolumen aus, um eine benötigte Induktivität zu erreichen. Ab einer bestimmten materialabhängigen Flussdichte tritt aber eine störende Sättigungsmagnetisierung des Kerns auf. Weil das Eisen des Kerns ein elektrischer Leiter ist, wird darin wie in einer von Wechselstrom durchflossenen Kurzschluss-Spule ein unerwünschter Wirbelstrom induziert, der den Eisenkern erwärmt. Diesen Wirbelstrom kann man verringern, wenn der Kern nicht aus einem massiven Stück Eisen, sondern aus einem Stapel von Eisenblechen besteht. Diese müssen voneinander durch Lackschichten oder (früher) Papier isoliert sein, um den Wirbelstrom zu unterbrechen. Bei sehr hohen Frequenzen wird die Spule mit elektrisch nichtleitendem Pulver-Pressstoff oder ferrimagnetischem Material wie zum Beispiel Ferrit gefüllt, um die Induktivität zu erhöhen. Diese magnetischen Kernmaterialien weisen typischerweise einen Hysterese-Effekt (Remanenz) auf, der zu elektrischen Verlusten führt, weil bei jeder Periode eines Wechselstroms der Kern ummagnetisiert werden muss. Außerdem kommt dadurch eine Verformung der Stromkurve mit zusätzlichen Spitzen in jeder Periode zustande, die bei manchen Anwendungen unwillkommen ist, da sie den Klirrfaktor erhöhen. Die Verluste, die durch Wirbelströme und Hysterese auftreten, nennt man Eisenverluste. Auch wird das Einschaltverhalten von Spulen mit Eisenkern wesentlich komplexer, weil, je nach Zustand des Kerns vor dem Einschalten, fast gar keine Magnetisierung besteht oder aber als Remanenz schon eine merkliche Magnetisierung wirkt, die entweder der Strompolarität entspricht oder auch entgegengesetzt sein kann und dann durch den Einschaltstrom erst ummagnetisiert werden muss. Diese Effekte führen dazu, dass im Extremfall beim Einschalten einer Spannung Sicherungen auf Grund eines möglichen Einschaltstromstoßes bis zum zeitlichen Erreichen der nominellen, erst später strombegrenzenden Induktivität vorher schon ansprechen, obwohl eigentlich gar kein Überlastfall vorliegt. Bei größeren Induktivitäten, wie Transformatoren oder Drosselspulen mit Eisenkern, muss in Wechselstrom-Leistungsanwendungen daher häufig speziell für den Einschaltfall besondere Vorsorge getroffen werden, siehe beispielsweise bei Transformatorschaltrelais. Aber auch beim Ausschalten sind auftretende Selbstinduktionsspannungen schaltungstechnisch zu beachten. Bei Kleinsignalanwendungen führen die Hystereseeffekte lediglich zu einer verminderten "Güte" des Bauteils im Einschaltmoment. Bei Spulen und besonders bei Transformatoren größerer Leistung, schon ab wenigen Watt beginnend, tritt häufig im Niederfrequenzbereich eine störende akustische Geräuscherzeugung des Kernmaterials auf, das als "Netzbrummen" bezeichnet wird. Es hat seine Ursache in geringen mechanischen Größenänderungen des Kerns auf Grund des wechselnden Magnetfeldes, siehe Magnetostriktion. Vermindert werden kann dieser Effekt durch Vakuumtränkung mit Speziallack, was gleichzeitig noch die Spannungsfestigkeit zwischen verschiedenen (Transformator-)Spulen erhöht. Die Elementarmagnete im Eisenkern richten sich nach den Polen der Spule. Ist der Nordpol links, so sind die Nordpole der Elementarmagneten ebenfalls links. Die Feldlinien treten demnach am Nordpol aus und dringen am Südpol wieder in das Spuleninnere ein. Im Spuleninneren verlaufen die Feldlinien von Süd nach Nord. Bei einer langgestreckten Spule mit vielen Windungen ist das Magnetfeld im Inneren homogen, es ähnelt dem Magnetfeld zwischen den Schenkeln eines Hufeisenmagneten. Im Außenraum ähnelt das Spulenfeld dem eines Stabmagneten. Kerne bei Hochfrequenzspulen. Meist wird für diesen Zweck ein Kern aus gepresstem magnetischem Pulver (Pulverkern) oder Ferrit verwendet. Zur Filterung hochfrequenter Störungen werden unter anderem Toroidspulen bzw. Ringkerndrosseln eingesetzt. Bei abstimmbaren Spulen werden Ferritkerne mit einem Gewinde verwendet: durch Hinein- oder Herausschrauben kann die Induktivität einer solchen Spule erhöht bzw. vermindert werden. Wenn eine HF-Spule einen Kern aus Aluminium (oder einem anderen elektrisch leitfähigen Material) zum Abgleich hat, verringert das Hineindrehen des Kerns die Induktivität. Das kommt daher, dass der Kern wie eine kurzgeschlossene Sekundärwicklung eines Transformators wirkt. Ein tieferes Hineindrehen bewirkt eine Verdrängung des Magnetfeldes der Spule. Hochfrequenzspulen. Kreuzwickelspule aus HF-Litze mit trimmbarem Eisenpulverkern für den Mittelwellenbereich Mit zunehmender Frequenz werden die Ströme immer mehr an die Oberfläche des Drahtes verdrängt (Skineffekt). Die Drahtoberfläche entscheidet dann zunehmend über die Güte der Spule. Ab ca. 100 kHz verwendet man zur Verringerung der Verluste daher oft Hochfrequenzlitze als Wickelmaterial; sie besteht aus mehreren, voneinander isolierten feinen Drähten. Ab etwa 50 MHz werden die Spulen meist freitragend mit dickerem Draht ausgeführt. Eine versilberte Oberfläche kann die Verluste zusätzlich vermindern. Kerne für Hochfrequenzspulen bestehen aus einem ferromagnetischen, elektrisch nichtleitenden Material. Damit werden Wirbelströme im Kern verhindert. Auch mit der Bauform kann man eine Spule hochfrequenztauglich machen, indem man bei solchen mit hohen Windungszahlen (beispielsweise für den Mittelwellenbereich) parasitäre Kapazitäten durch besondere Wickelformen verringert (Waben-, Korbboden- oder Kreuzwickelspulen). Spulen für Oszillatoren. Spulen in Oszillatoren oder auch Bandfiltern sollen grundsätzlich ihre Induktivität möglichst genau einhalten. Ein geringer noch vorhandener Temperaturkoeffizient, der hauptsächlich durch das verwendete Kernmaterial verursacht wird, kann durch einen gegengerichteten Temperaturkoeffizienten der verwendeten Schwingkreiskapazität bei entsprechender Bauelementeauswahl und Dimensionierung der Teilkondensatoren fast vollständig kompensiert werden. Luftspulen können bei Erschütterung durch kleinste Induktivitätsänderungen eine Frequenzmodulation verursachen. Sie werden deshalb auf einen Spulenkörper gewickelt, mit Lack oder Kleber fixiert oder ganz in Wachs eingebettet. Wechselstromverhalten. Phasenverschiebung zwischen Strom und Spannung durch induktive Belastung Wird eine Spule an Wechselspannung angelegt, so wechseln der Strom und das Magnetfeld ebenfalls periodisch ihre Richtung. Zwischen dem "zeitlichen Verlauf" des Spulenstromes "i(t)" und der Klemmenspannung "u(t)" besteht der Zusammenhang wobei "t" die Zeit und "L" die Selbstinduktivität der Spule ist. Hier sind Strom und Spannung, wie bei passiven Bauelementen üblich, im Verbraucherzählpfeilsystem angegeben. Da der Strom wegen des Energietransports in das magnetische Feld nur allmählich steigen bzw. fallen kann, folgt er dem Verlauf der Spannung stets mit zeitlicher Verzögerung; er ist phasenverschoben. Unter idealen Bedingungen (bei vernachlässigbar kleinem ohmschen Widerstand) eilt die Wechselspannung dem Strom um 90° voraus. Es besteht eine Trägheit der Spule gegen Stromänderungen. (Merksatz: „Bei Induktivitäten die Ströme sich verspäten“.) Rechnerisch folgt die Phasenverschiebung aus den Ableitungsregeln für trigonometrische Funktionen: Wird beispielsweise ein sinusförmiger Strom in die Spule eingeprägt, so ergibt sich die Spannung an der Spule durch mathematische Ableitung zu Das Verhältnis von maximaler Spulenspannung und maximalem Spulenstrom beträgt bei sinusförmiger Anregung Der Spule kann so ein komplexer Wechselstromwiderstand (Impedanz): formula_11 zugeordnet werden, der jedoch im Gegensatz zu einem ohmschen Widerstand keine Leistung in Wärme (Verlustleistung) umsetzt. Das rührt daher, dass während einer Viertelperiode von der Spule Energie aufgenommen und in der nächsten Viertelperiode wieder abgegeben wird. Dadurch pendelt die Energie nur hin und her, ohne verbraucht zu werden. Man nennt diese spezielle Form von Widerstand Blindwiderstand und den Strom Blindstrom. Für eine Spule der Induktivität "L" und einen Wechselstrom der Frequenz "f" errechnet sich der Blindwiderstand (Reaktanz) nennt man die Winkelfrequenz oder auch Kreisfrequenz. Der Blindwiderstand wächst mit steigender Frequenz, wobei der ohmsche Drahtwiderstand gleich bleibt. Daher hat eine für Wechselspannung konzipierte Spule an einer gleich großen Gleichspannung (f = 0 Hz) einen sehr viel geringeren Widerstand, da nur noch der Drahtwiderstand den Strom behindert. Spulengleichung. Zusammenhang von Selbstinduktionsspannung und Klemmenspannung Fläche einer Spule mit drei Windungen ergibt sich in der angegebenen Form ausschließlich bei linearem Materialverhalten des Kerns mit formula_16 und bei einer vernachlässigbar kleinen elektrischen Feldstärke im Wickeldraht. Dies soll im Folgenden mithilfe von Induktions- und Durchflutungsgesetz gezeigt werden. formula_17. Es soll in diesem Fall für eine ruhende Konturlinie formula_18 angewendet werden und kann daher auch in der speziellen Form Als Integrationsweg wählen wir den im nebenstehenden Bild mit gestrichelten Linien eingezeichneten Weg (dort formula_20 statt formula_18). Die zugehörige Spulenfläche wird im zugehörigen Video veranschaulicht. Parasitärelemente. Zeigerdiagramm des Scheinwiderstandes Z einer Spule Reale Spulen zeigen im Wechselstromkreis ein Phänomen, das mit Hilfe des topologischen Zeigerdiagramms erklärt werden kann. Der äquivalente ohmsche Serienwiderstand (ESR), der als Kupferwiderstand mit Gleichstrom bestimmt werden kann, scheint im Wechselstrombetrieb höher zu sein. Gründe dafür sind bauart- und materialbedingte zusätzliche Verluste (Wirbelstrom- und Ummagnetisierungsverluste im Kern, Skineffekt und Proximity-Effekt). Sie führen dazu, dass eine geringere Veränderung der Phasenlage des Stromes bzw. ein höherer Wirkanteil der elektrischen Verlustleistung auftritt, als es aufgrund des Kupferwiderstandes zu erwarten wäre. Scheinbar ändert sich demnach der ESR (der Realteil von "Z") gegenüber dem mit Gleichstrom bestimmten Wert. Diese parasitären Komponenten können zum Beispiel mit einer Messbrücke nachgewiesen werden, die in der Lage ist, Real- und Imaginärteil getrennt zu messen. Ersatzschaltbild einer Spule mit magnetisierbarem Kern Im Ersatzschaltbild der Spule mit der Induktivität L kann der ESR als Serienschaltung vom Kupferwiderstand "R"Cu und einem frequenzabhängigen Kernwiderstand "R"Fe dargestellt werden. Der Kernwiderstand setzt sich aus dem Wirbelverlust-, dem Hysterese- und dem Nachwirkungsanteil zusammen. Ein weiterer parasitärer Effekt sind die Kapazitäten zwischen den Windungen untereinander und zwischen den Windungen und Anschlüssen. Diese Parasitärkapazitäten der Spule werden als Wicklungskapazität "C"P im Ersatzschaltbild zusammengefasst und liegen parallel zur Induktivität. Die Parasitärkapazitäten beeinflussen den Scheinwiderstand einer Spule deutlich. Bei Erhöhung der Frequenz von Null an steigt der Scheinwiderstand zunächst so an, wie es aufgrund der Induktivität zu erwarten wäre. Bei der Eigenresonanzfrequenz erlangt er dann seinen Maximalwert, um anschließend wieder zu sinken – nun zeigt die Spule kapazitives Verhalten. Dieses Phänomen ist nachteilig bei Filter- und Entstöranwendungen, wo es erforderlich ist, dass auch sehr hohe Frequenzen durch die Spule noch ausreichend gedämpft werden. Man verringert den Effekt, indem man die Spule einlagig und langgestreckt oder kreuzlagig ausführt. Auch das verteilte Nacheinander-Bewickeln mehrerer Kammern ist üblich. Oft muss man bei Filteranwendungen (z. B. Netzfilter) verschiedene Spulenbauformen kombinieren, um einerseits hohe Induktivität und andererseits eine geringe parasitäre Kapazität zu erzielen. "Siehe auch: Blindleistungskompensation und komplexe Wechselstromrechnung" Zu- und Abschaltvorgänge bei Gleichspannung. Dieser Zusammenhang zeigt, dass sich der in einer Spule fließende Strom nicht sprunghaft ändern kann. Beim Einschalten eines Gleichstromkreises mit einer Spule verhindert die der Betriebsspannung entgegenwirkende Induktionsspannung einen raschen Stromanstieg. Dieser folgt den Gesetzen einer Exponentialfunktion. Wenn formula_37 einen "hohen" Wert annimmt, wird formula_41 "kleiner", somit ist der Stromanstieg auf den Endwert formula_42 eher abgeschlossen. Ein plötzliches Abschalten des Spulenstromes (formula_43) ist nicht möglich. In der Realität entsteht beim Versuch, den Strom zu unterbrechen, eine Spannungsspitze "umgekehrter" Polarität, deren Höhe nur von der parasitären Kapazität der Spule und anderen spannungsbegrenzenden Effekten (elektrischer Durchbruch, Überschläge, Schaltlichtbogen) abhängt. Sie können Schäden durch Überspannung verursachen. Mit Gleichstrom betriebene Spulen werden daher oft durch eine parallelgeschaltete Schutzdiode geschützt, die beim Abschalten des (Speise-)Stroms das Weiterfließen des (Spulen-)Stroms ermöglicht und die in der Spule gespeicherte magnetische Energie größtenteils im Spulendraht und zu einem kleinen Teil in der Diode in Wärmeenergie umwandelt. Die hohe Spannungsspitze an den Anschlüssen der Spule wird damit verhindert, allerdings dauert es länger, bis der Strom auf geringe Werte abgesunken ist. Es wird immer mehr elektrische Leistung in Wärmeleistung (formula_55) umgewandelt und es droht eine Überhitzung. Aufgrund ihrer oben beschriebenen Eigenschaften können periodisch geschaltete Spulen zur Erzeugung von hohen Spannungen aus kleinen Spannungen benutzt werden (zum Beispiel: Zündspule, Spannungswandler, Funkeninduktor, Aufwärtswandler und Schaltregler). Umgekehrt können sie zur Strombegrenzung in Wechselspannungskreisen (Vorschaltdrossel, Kommutatordrossel), und zur verlustarmen Herabsetzung von Spannungen (Abwärtswandler) und Glättung von Strömen (Siebdrossel) eingesetzt werden. Bedruckung/Farbcodes. Alternativ wird die Induktivität (vor allem bei höheren Werten) durch eine dreistellige Zahl angegeben. Dabei bedeuten Beispiel: Der Aufdruck „472“ bedeutet 4,7 mH. Spulen mit fester Induktivität. Spulen werden u. a. in Transformatoren, Elektromagneten, Dosierpumpen, Relais, Schaltschützen, elektrodynamischen und elektromagnetischen Lautsprechern, dynamischen Mikrofonen (Tauchspule), Tonabnehmern für elektrische Gitarren oder Bässe, Stromwandlern, als Ablenkspule an Fernsehbildröhren, in Galvanometern, Drehspulmesswerken, Dreheisenmesswerken, Elektromotoren, Zündspulen und analoganzeigenden Quarzuhren eingesetzt. In elektronischen Schaltungen kommen sie u. a. als frequenzbestimmendes Element oder als Drossel (Elektrotechnik) zu Siebungszwecken zum Einsatz. Gewundene elektrische Leiter in Drahtwiderständen, Wendelantennen, Spiralantennen, Wanderfeldröhren und Glühwendeln werden nicht als Spulen bezeichnet. Im Kreis verlaufende Luftspulen werden nach dem geometrischen Körper auch als Toroid bezeichnet. Variometer. Eine in der Messtechnik und historischen Funktechnik verwendete veränderliche Induktivität wird als Variometer bezeichnet und besteht in einer Ausführungsform aus zwei ineinander geschobenen und hintereinandergeschalteten kernlosen Spulen. Die innere Spule ist drehbar (oder entlang der Längsachse parallel verschiebbar) gelagert. Das Induktivitäts-Maximum wird erreicht, wenn die Windungsebenen parallel und gleichsinnig vom Strom durchflossen werden. Eine weitere Bauform von Variometern beruht auf der Bewegung von Kernen im Inneren von Zylinderspulen. Diese Kerne können entweder aus hochpermeablem Material sein (Induktivität erhöht sich beim Hineinbewegen) oder aus gut leitendem Metall (Induktivität verringert sich beim Hineinbewegen durch Feldverdrängung). Die erste Variante wird im Lang-, Mittel- und Kurzwellenbereich eingesetzt, die zweite im UKW-Bereich. Die Variometerabstimmung ist wegen ihrer höheren mechanischen Stabilität gegen Erschütterungen unempfindlicher und deshalb frequenzstabiler als die Abstimmung per Drehkondensator. Daher wurde sie trotz des höheren Aufwandes von Anfang der 1950er bis in die 1970er Jahre hinein vorwiegend in Autoradios verwendet, wo sie auch eine mechanische Senderspeicherung über mehrere Wahltasten ermöglichte. Das 1952 von Blaupunkt präsentierte erste UKW-Autoradio der Welt, der Autosuper A 52 KU hatte einen „Self-Service-Drucktastenwähler“ für vier Sender mit Variometerabstimmung und kostete 498 DM, was kaufkraftbereinigt in heutiger Währung  Euro entspricht. Abgleichspule. Abgleichspulen in einem Philips-Fernsehgerät aus dem Jahre 1980. Die Spulen sind etwa 8 mm hoch Abgleichspulen sind einstellbare Induktivitäten, die zur einmaligen Einstellung (Abgleich) von frequenzbestimmenden Elementen z. B. Schwingkreisen oder Bandpässen vorgesehen sind und in dieser Funktion vergleichbar mit Trimmkondensatoren, die ebenfalls nur zum einmaligen Abgleich verstellt werden. Durch Hinein- oder Herausdrehen des Spulen-Ferritkerns mit einem amagnetischen Abgleichbesteck wird die erforderliche Induktivität eingestellt und so die gewünschte Resonanzfrequenz des Schwingkreises bzw. die Durchlassbreite (Bandbreite) des Bandpasses festgelegt. Vereinzelt erfolgt der Abgleich auch durch mechanisches Zusammen- oder Auseinanderdrücken der Windungen einer Spule ohne Ferritkern (Luftspule). Früher wurden Abgleichspulen in allen Bereichen der professionellen Nachrichtentechnik, in vielen elektrischen Messgeräten sowie der Unterhaltungselektronik verwendet. Speziell in der Radio- und Fernsehgerätefabrikation mit ihren großen Stückzahlen erforderte der Geräteabgleich einen hohen personellen und instrumentellen Aufwand in der Endfertigung. Mit dem technischen Fortschritt wurden die einstellbaren Induktivitäten zunehmend von speziellen Schaltungen wie der elektronischen Phasenregelschleife (PLL mit Schwingquarz) oder dem spannungsgesteuerten Oszillator (VCO) ersetzt, die eine hohe elektrische Langzeitkonstanz bieten und daneben auch günstiger zu fertigen sind. Der Abgleich dieser Schaltungen ist stark vereinfacht und wird meist durch digitale (Software-)Lösungen realisiert. Rollspule. Eine Rollspule ist eine elektrische Spule mit einstellbarer Induktivität. Das Bauteil wird beispielsweise in der Hochfrequenztechnik für Anpassungsnetzwerke eingesetzt. Transduktoren. Transduktoren gestatten die Veränderung der Induktivität mittels eines durch eine zweite Wicklung fließenden Gleichstromes. Sie werden auch als Magnetverstärker bezeichnet und beruhen auf der Sättigung des Kernes durch die Vormagnetisierung aufgrund des steuernden Gleichstromes. Durch diese verringern sich die Permeabilität des Kernes und damit die Induktivität der Spule. Bezeichnungen. Wie bei vielen passiven Bauelementen tragen auch Spulen recht viele unterschiedliche Namen, die historisch gewachsen sind und sich auf die Bauform, den Erfinder, die Anwendung oder, das ist eine Besonderheit bei Spulen, als Halbfabrikat auf das damit hergestellte Bauelement zurückführen lassen. Einsatzzweck. Ablenkspule, Lautsprecherspule, Motorspule, Relaisspule, Transformatorspule, Übertragerspule und viele andere mehr sind Halbfabrikate (Wicklungen meist auf einem Wickelträger), die geeignet sind, ein Magnetfeld zu erzeugen oder zu detektieren, und Teil einer technischen Induktivität sind, eines induktiven passiven Bauelementes wie z. B. eines Übertragers oder Transformators, Teil eines elektromechanischen Bauelementes wie zum Beispiel eines Relais, Motors, Lautsprechers, Mikrofons oder Tonabnehmers oder Teil einer Bildröhre (Ablenkspule) sind. Einzelnachweise. Spule Stephansdom (Wien). a> und dem nicht fertiggestellten Nordturm Der Stephansdom (eigentlich Domkirche St. Stephan zu Wien) am Wiener Stephansplatz (Bezirk Innere Stadt) ist seit 1365 Domkirche (Sitz eines Domkapitels), seit 1469/1479 Kathedrale (Bischofssitz) und seit 1723 Metropolitankirche des Erzbischofs von Wien. Der von Wienern mitunter auch kurz Steffl genannte römisch-katholische Dom gilt als Wahrzeichen Wiens und wird häufig auch als österreichisches Nationalheiligtum bezeichnet. Namensgeber ist der heilige Stephanus, der als erster christlicher Märtyrer gilt. Das zweite Patrozinium ist Allerheiligen. Das Bauwerk ist 107 Meter lang und 34 Meter breit. Der Dom ist eines der wichtigsten gotischen Bauwerke in Österreich. Teile des spätromanischen Vorgängerbaues von 1230/40 bis 1263 sind noch erhalten und bilden die Westfassade, flankiert von den beiden "Heidentürmen", die etwa 65 Meter hoch sind. Insgesamt besitzt der Stephansdom vier Türme: Der höchste ist der Südturm mit 136,4 Meter, der Nordturm wurde nicht fertiggestellt und ist nur 68 Meter hoch. Im ehemaligen Österreich-Ungarn durfte keine Kirche höher als der Südturm des Stephansdoms erbaut werden. So wurde beispielsweise der Mariä-Empfängnis-Dom in Linz um zwei Meter niedriger gebaut. Der Südturm ist ein architektonisches Meisterwerk der damaligen Zeit; trotz seiner bemerkenswerten Höhe ist das Fundament weniger als vier Meter tief. Im Südturm befinden sich insgesamt 13 Glocken, wovon elf das Hauptgeläut des Stephansdoms bilden. Die "Pummerin", die zweitgrößte freischwingend geläutete Kirchenglocke Europas, befindet sich im Nordturm unter einer Turmhaube aus der Renaissance-Zeit. Geschichte. Das Areal, welches später vom Stephansdom eingenommen wurde, lag östlich des römischen Legionslagers Vindobona im Bereich der "canabae legiones", der Lagervorstadt. Das Lager war vom ersten bis zum dritten Jahrhundert von Gebäuden und Straßen umschlossen, welche jedoch im dritten und vierten Jahrhundert von Gräbern und Grabbauten abgelöst wurden. Im Bereich des Stock-im-Eisen-Platzes wurden seit 1690 immer wieder Grabbefunde gemacht. Die Anfänge des Doms gehen auf das Jahr 1137 zurück, aus dem der "Tauschvertrag von Mautern" zwischen Markgraf Leopold IV. und dem Bischof von Passau überliefert ist. Dabei wurden Güter, aber auch Pfarrrechte ausgetauscht, um es dem Bischof zu ermöglichen, außerhalb der damaligen Stadt eine Kirche zu bauen, die dem heiligen Stephanus geweiht sein sollte, dem Patron der Bischofskirche von Passau. Die anderen Kirchen im damaligen Wien, die Ruprechtskirche und die Peterskirche, waren nach Salzburger Heiligen benannt; das Patrozinium der Kirche war also ein politisches Signal. Die erste Kirche wurde 1147 fertiggestellt und im selben Jahr vom Passauer Bischof Reginbert von Hagenau geweiht (Patronat nach der Mutterkirche Passau). Die Kirche war für die damalige Stadt völlig überdimensioniert – es könnte also damals schon Bestrebungen gegeben haben, sie in eine Bischofskirche zu verwandeln. Geostet ist die Kirche auf den Sonnenaufgang des 26. Dezember 1137. Von 1230 bis 1245 entstand ein weiterer spätromanischer Bau, dessen Westfassade noch erhalten ist. Sie besteht aus den beiden "Heidentürmen" und dazwischen dem "Riesentor". Der Ursprung beider Namen ist nicht völlig geklärt. "Heidentürme" kommt vielleicht von den Steinen, die von altrömischen Ruinen stammten, möglicherweise auch von den beiden Darstellungen der nichtchristlichen Fruchtbarkeitssymbole Phallus und Vulva, die die beiden Blendsäulen in der Westwand unterhalb der Türme krönen. Der Name "Riesentor" geht der Legende nach auf einen riesigen, über dem Tor aufgehängten Mammutknochen oder einen beim Bau helfenden Riesen zurück; tatsächlich dürfte die Bezeichnung aber auf das mittelhochdeutsche Wort "risen" (sinken, fallen) zurückgehen und sich auf die Trichterform des Portals beziehen. Oberhalb des Tores befand sich eine "Herzogsempore", ähnlich dem Kaiserstuhl Karls des Großen in Aachen und den Westemporen der Kaiserdome. 1258 brach ein Brand aus. Die Obergeschoße der Heidentürme wurden erst danach gebaut. Die feierliche Weihe erfolgte 1263. Zwischen 1304 und 1340 wurde ein vergrößerter Chor gebaut, nunmehr im gotischen Stil. Nach den Herzögen Albrecht I. und Albrecht II., die diesen Bau vorantrieben, spricht man vom "Albertinischen Chor". Die Regentschaft Rudolfs IV. war bedeutsam für die Kirche: 1359 wurde der Grundstein für den gotischen Neubau des Langhauses gelegt. 1358 errichtete er in der Allerheiligenkapelle in der Hofburg ein Kollegiatstift, welches 1365 an die Stephanskirche umsiedelte. Seitdem ist das "Allerheiligenpatrozinium" das zweite Patrozinium des Doms. 1433 konnte der Südturm vollendet werden und war mit 136 Metern einige Jahre lang der höchste Turm Europas. Das gotische Langhaus wurde vor 1474 beendet, es wuchs wie eine äußere Zwiebelschale um das romanische Langhaus, das 1430 abgebrochen worden war. Zur selben Zeit wurde auch der Dachstuhl fertig; die Einwölbung des Langhauses begann 1446 unter dem Baumeister Hans Puchsbaum. 1450 legte Friedrich III. den Grundstein für den Nordturm (früher auch Albertinischer Turm), wobei der Legende nach der Wein eines ganzen Jahrganges als Bindemittel verwendet wurde. Nach langer Unterbrechung erfolgte erst 1467 unter Dombaumeister Laurenz Spenning der Weiterbau. Dieser Turm war aber schon viel zu groß und viel zu prunkvoll konzipiert, zumal die Zeit der gotischen Kathedralen sich ihrem Ende zuneigte. Die Bauarbeiten endeten 1511, 1578 wurde auf den Turmstumpf eine Renaissance-Haube gesetzt, die nach dem Baumeister Hans Saphoy "Saphoy'sche Haube" heißt. Im Jahre 1469 war Wien zudem endlich zum Bistum und damit der Stephansdom zur Kathedrale erhoben worden, so dass auch das von Rudolf IV. begründete Kollegiatstift zum Domkapitel wurde. Von 1511 bis 1515 übernahm der Bildhauer und Baumeister Anton Pilgram die Leitung der Bauhütte, er vollendete den Orgelfuß und war unter anderem an der Ausführung der Domkanzel beteiligt, der dortige "Fenstergucker" wurde traditionell für sein Selbstbildnis gehalten. Unter Hans Herstorffer, der von 1637 bis 1650 als Dombaumeister wirkte, wurde 1647 die Innenausstattung barockisiert, vor allem der "Hochaltar" des Bildhauers Johann Jacob Pock und seines Bruders, des Malers Tobias Pock, stammt aus dieser Zeit. Während der Türkenbelagerung 1683 wurde der Dom durch türkische Kanonenkugeln beschädigt. Aus den Kanonen der Belagerer wurde danach die große Glocke (die "Pummerin") gegossen. 1713, gleich zu Beginn der Amtszeit von Dombaumeister Johann Carl Trumler, leistete Kaiser Karl VI. im Dom das Gelöbnis, eine Kirche zu stiften, wenn die Pest ausklinge. Rund drei Jahre später wurde mit dem Bau der Karlskirche begonnen. Seit den Renovierungen im 19. Jahrhundert wird auf dem Dach des Stephansdoms der österreichische Reichsadler in bunten Ziegeln ausgelegt. Im Brustschild dieses Adlers steht ein Monogramm von Kaiser Franz I. Seit 1950 bilden ein österreichischer Bundesadler und das Wiener Wappen das Pendant auf der anderen Dachseite dazu, wobei der Bundesadler in die heraldisch falsche Richtung blickt. Vertikal- schnitt der geneigten Turmspitze Der Stephansdom im Jahr 1861 mit abgetragener Südturmspitze In den Jahren 1839–1842 wurden die obersten 17 Meter der baufälligen Spitze des Südturmes, die sich nach Norden neigte, durch Paul Sprenger abgenommen; die Steinornamente wurden an einen Kern aus Eisen angefügt. Das Eisen erwies sich jedoch nicht als rostbeständig, sodass aufgrund von Rostsprengungen etliche Steine zerbrachen. Ab 1850 verwendete Dombaumeister Leopold Ernst daher mit Zement vergossene Steindübel und „ersetzte dabei einen Fehler durch zwei andere”, da das Treiben des Zements ebenfalls zu schweren Schäden führte. Deshalb wurden 1861 die obersten 40 Meter von Leopold Ernst wieder abgetragen und 1862–1864 von dem 1863 zum Dombaumeister bestellten Friedrich von Schmidt in mittelalterlicher Steintechnik möglichst originalgetreu neu errichtet. Mehrere Phasen dieses Vorganges sind auf Aquarellen von Rudolf von Alt zu sehen. Schmidt leitete über Jahrzehnte die Restaurierung des Doms, wobei auch „verbessernde“ Eingriffe im Sinne der Neugotik und Viollet-le-Ducs unternommen wurden (etwa im Giebelbereich der Südfenster des Doms). Am 18. August 1864, dem Geburtstag des Kaisers, wurde im Zuge der Turmrenovierung ein neues Kreuz und ein drei Zentner schwerer Adler auf die fertiggestellte Turmspitze aufgesetzt. Die Bombenangriffe während des Zweiten Weltkriegs sowie die Kämpfe im Stadtgebiet überstand der Stephansdom ohne größere Schäden. Als am 10. April 1945 vom Turm eine weiße Fahne gehisst wurde, erhielt der damalige Wehrmachtshauptmann Gerhard Klinkicht vom Kommandanten Dietrich den Befehl, den „… Dom zunächst mit 100 Granaten in Schutt und Asche zu legen. Sollte das nicht ausreichen, ist bis zu seiner völligen Zerstörung weiterzuschießen.“ Gerhard Klinkicht befolgte diesen Befehl nicht, eine Gedenktafel am Dom erinnert an ihn. Als am 11. April 1945 zivile österreichische Plünderer in Geschäften um den Steffl Feuer legten, griffen die Brände in der Nacht zum 12. April, dem Tag als die Sowjetarmee einmarschierte, auch auf den Dom über. Dabei brannten der Dachstuhl und der Glockenturm vollständig aus. Aufgrund der militärischen Lage waren keine effektiven Löscharbeiten möglich. Die "Pummerin" stürzte bei diesem Großbrand aus dem Glockenstuhl ab und zerschellte am Boden. Die wertvolle Walcker-Orgel von 1886 wurde durch den Einsturz des brennenden Daches oberhalb der Westempore zerstört. Der Brand wurde nicht, wie oftmals behauptet wird, durch Artilleriebeschuss verursacht, sondern durch Funkenflug, der von Geschäften in der Umgebung ausging, die bei der Plünderung in Brand gesteckt worden waren. Der Wiederaufbau des Stephansdoms, der unter anderem durch zahlreiche Spenden aus der Bevölkerung finanziert wurde ("siehe auch:" Stephansgroschen), begann sofort nach Kriegsende. Er wurde 1952 mit dem Einzug der neu gegossenen Pummerin wiedereröffnet. Südturm. Dach und Turm des Stephansdoms in der Abendsonne Der Südturm ist als Hauptturm 136,4 Meter hoch und hat einen quadratischen Grundriss, der durch ein raffiniertes Arrangement von Giebeln allmählich in ein Achteck übergeführt wird. Unterhalb der Spitze ragen zwölf Fialtürmchen empor. Bis auf eine Höhe von 72 Metern ist er für die Öffentlichkeit zugänglich, dort befindet sich die sogenannte Türmerstube. Das Besteigen der Turmspitze ist nur Mitarbeitern des Dombauamtes vorbehalten. Der Dombaumeister persönlich seilt sich mindestens ein Mal pro Jahr von der Spitze des Turmes ab, um die Bausubstanz zu kontrollieren. Der südliche Hochturm von St. Stephan kann als eine der monumentalsten Lösungen, die im Mittelalter vollendet wurden, gelten. Er verbindet sich nicht mit dem Kirchenbau (wie beim Kölner Dom als Zweiturmfassade, am Ulmer Münster als Westeinturm oder am Mailänder Dom als Vierungsturm), um seine Baumasse in einem zentralen Aufsatz kulminieren zu lassen, sondern ist ihm als ein zusätzliches Element seitlich angefügt. Die Sonderstellung des Wiener Turms verdeutlicht sich heute noch dadurch, dass sein nördliches Gegenstück nur mehr teilweise zur Ausführung kam und daher in der Gesamterscheinung des Bauwerks nicht mitspricht, ohne dass der Eindruck des Unvollendeten aufkommen müsste. Die Turmspitze wird heute durch ein von einem Doppeladler getragenes Doppelkreuz (Erzbischofskreuz) gebildet. Ursprünglich hatte die Turmspitze eine Bekrönung, die Sonne und Mond (für die geistliche und die weltliche Macht) darstellte. Nach der Türkenbelagerung 1529 verlangten Wiener Bürger 1530, diese Symbole zu ersetzen, da sie zu sehr an die türkischen Zeichen (Stern und Halbmond) erinnerten. Zu einem Austausch kam es allerdings erst 1686. Die Gesamtdauer der knapp fünfundsiebzigjährigen Bauzeit des Turmes, die zwischenzeitliche Planänderungen wahrscheinlich macht, wird durch die überlieferten Eckdaten festgelegt, welche die Grundsteinlegung von 1359 durch Rudolf IV. und das Versetzen der abschließenden Kreuzblume für 1433 angeben. Dazwischen liegt ein Planwechsel, der zunächst die Einführung des Doppelfenstergeschosses und dann dessen Reduktion bewirkte. Dieses war in der ersten Konzeption erheblich bis über die Traufhöhe hinaufgeführt worden, wurde dann aber wieder bis knapp oberhalb der Fensterscheitel reduziert, so dass die bereits ausgeführte Wanddekoration mit Fialenbaldachinen für die hier vorgesehenen Statuen verlorenging. Der gesamte Turmbereich oberhalb der Traufhöhe des Kirchbaus wurde gänzlich nach dem Konzept des Peter von Prachatitz errichtet und stellte keine Rückkehr zu einem vermeintlichen Erstplan dar. Aber selbst hier noch lassen sich zwischen den einzelnen Geschoßabschnitten weitere Plankorrekturen feststellen, die vor allem im Übergang zum Helmbereich mit dem überlieferten Meisterwechsel von Peter zu Hans von Prachatitz zusammenfallen. Die entscheidende Planänderung zwischen Unterbau und Freigeschossen betraf zugleich die Bestimmung des Turms als gemeinschaftsstiftendes Zeichen. Begonnen von Rudolf IV. und fortgeführt von seinen Brüdern, hatte der Turm ausschließlich als kommemoratives Denkmal des Stifters dienen sollen, doch mit der Übernahme durch die Stadt zu Beginn des 15. Jahrhunderts stand er nicht mehr für Partikularinteressen, sondern für den Zusammenhalt aller Gruppen der Gesellschaft unter habsburgischer Krone. Zu demselben Zeitpunkt, als aufgrund der hussitischen Unruhen in Böhmen der südliche Hochturm des Prager Veitsdomes unvollendet liegenblieb, gelang in Wien die Fertigstellung eines Turmbaus mit einem ständig erhöhten Anspruch. Der vollendete Turmbau gab durch seine beherrschende Stellung unmissverständlich zu erkennen, dass Wien inzwischen in architektonischer Hinsicht an die Stelle Prags getreten war, aber auch bereit war, dessen Funktion als „des reiches houptstat“ zu übernehmen. Seit April 2014 werden an den beiden Blitzableitern durch Sensoren die Parameter der dort einschlagenden Blitze erfasst und sollen über das österreichweite Projekt ALDIS wissenschaftlich ausgewertet werden. Dach. Am auffälligsten neben den Türmen ist das Dach. Es erhebt sich 37,5 Meter über dem Langhaus und 25,3 Meter über dem Chor mit einer Länge von 110 Meter. Es ist mit rund 230.000 Dachziegeln bedeckt, die in einem Zickzack-Muster arrangiert sind und in insgesamt zehn Farbtönen von den Ziegelbrennereien in Poštorná (Mähren, heute Ortsteil von Břeclav) hergestellt wurden. Über dem Chor ist auf der Südseite das Wappen des k.u.k. Doppeladlers mit den Initialen von Kaiser Franz I. und der Jahreszahl 1831, auf der Nordseite das Wappen der Stadt Wien und das Wappen der Republik Österreich, unten mit der Jahreszahl 1950. Tore. Nordwestansicht mit dem Hauptportal (romanischen Riesentor) und den beiden etwa 65 Meter hohen Heidentürmen Das Hauptportal auf der Westseite (das sogenannte "Riesentor") ist noch romanisch. Es befindet sich innerhalb eines trichterförmigen Portals, das nachträglich zum Platz hin erweitert wurde. In ihm sind Relieffiguren eingelassen, unter anderem der "Dornauszieher", eine sitzende Figur in eigenartiger Haltung, die einen Richter darstellt. Das Portal selbst wird auf jeder Seite mit sieben trichterförmigen Säulen begrenzt, die mit gewundenen Pflanzenmustern geschmückt sind. Auf den Kapitellen befinden sich Figuren von Aposteln und Heiligen, aber teils auch schwer deutbare Szenen. Über den Kapitellen erheben sich andere Säulen, die das Tympanonfeld begrenzen. Auf ihm ist eine Darstellung eines "Christus Pantokrator" (Christus als Weltenherrscher) zu sehen, bei der ein Knie frei ist – diese Symbolik ist unklar und wird mit Aufnahmezeremonien in Bauhütten in Verbindung gebracht. Seitlich sind das "Singer-" und das "Bischofstor", zwei gotische Meisterwerke: Sie sind in einem Spitzbogen arrangiert und im Gewände stehen Apostelfiguren. In der Mitte sind Statuen von Herzog Rudolf IV. und seiner Frau Katharina von Böhmen. Im Tympanonfeld ist im Singertor die Lebensgeschichte des heiligen Paulus und im Bischofstor die Lebensgeschichte der heiligen Maria festgehalten. Gleich neben dem Singertor liegt das angebliche Grabmal des Minnesängers Neidhart. Auch bei den Türmen gibt es Seiteneingänge, im Norden das "Adlertor", benannt nach einem einst auf der Kuppel des Nordturms angebrachten Adler, sowie im Süden das "Primglöckleintor", so genannt, weil hier einst zur ersten Hore, also zur Prim, geläutet wurde. Weitere Merkmale. Auf der Westseite sind die denkmalgeschützten Zeichen der Widerstandsbewegung O5 zu sehen, die 1938 bis 1945 Widerstand gegen den Nationalsozialismus leistete. Ursprünglich waren sie in weißer Farbe aufgemalt; als sie verblassten, hat man sie durch die Eingravierung ersetzt. Auf der linken Seite des Haupttores sind zwei Metallstäbe in der Mauer eingelassen, es handelt sich hierbei um die "Tuch"- und "Leinenelle". Diese Ellen waren einst rechtsgültige Längenmaße und konnten von jedem Bürger zur Überprüfung der Abmessungen von Waren genutzt werden. Im Mittelalter drohte Handwerkern Bestrafung, wenn ihre Produkte nicht die korrekten Maße vorweisen konnten (Stichwort: Bäckerschupfen), mit Hilfe der Ellen konnten sich somit die Handwerker vor Bestrafung und die Konsumenten vor etwaigem Betrug schützen. Links über den Ellen befindet sich eine kreisrunde Vertiefung im Mauerwerk, die der Legende nach als Maß für die Größe eines Laibes Brot diente. In Wahrheit handelt es sich lediglich um Abnutzungserscheinungen einer Torbefestigung, da das Haupttor des Doms bis zur zweiten Hälfte des 19. Jahrhunderts mit einem Rokokogitter verschlossen war, das sich nach außen hin öffnen ließ und mit Haken an der Außenmauer befestigt wurde. Auf der rechten Seite des Tores befindet sich ein gleich großer Kreis, bei dem man anhand von metallischen Überresten im Zentrum erkennen kann, dass hier ein Haken befestigt war. Am südlichen Strebepfeiler des Chors (über dem kleinen Weihwasserbecken von 1506) ist eine vertikale Sonnenuhr von Georg von Peuerbach aus dem Jahre 1451 zu finden. Sie gilt als die älteste Sonnenuhr Wiens. Achsknick. Die Südwand des Chores ist um ca. 70 cm länger als dessen Nordwand. Der Chor schwenkt ca. 1° von der Längsachse des Langhauses Richtung Norden. Langhaus und Chor sind auf unterschiedliche Sonnenaufgangspunkte ausgerichtet. Das wird nicht als Resultat eines Messfehlers, sondern als Absicht gesehen: Die Achse des Langhauses ist auf den Sonnenaufgang am Stephanstag (26. Dezember) ausgerichtet, während die Achse des Chors auf den nächstfolgenden Sonntag weist, den 2. Jänner. Aus dem Verhältnis der Gebäudeachsen und des Winkels der Abweichung kann auf die Zeit der Abmessungen und damit auf den Jahreswechsel 1137/1138 (heutiger Kalender und Jahreszählung) geschlossen werden. Der (heutige) Dachfirst bildet diese kleine Abweichung nicht ab, er ist gerade über beide Gebäudeteile. Auch das Langhaus ist nicht völlig regelmäßig gebaut: Es wird Richtung Osten um ca. 1,1 m schmäler, seine Giebelwände stehen nicht exakt in der Linie der darunterliegenden Wände. Diese Abweichungen waren eine der technischen Herausforderungen beim Neubau des Dachstuhles aus Stahl nach dem Brand 1945. Auer und Mannersdorfer Stein für den Stephansdom. Die erhalten gebliebenen Rechnungen des Kirchenmeisteramtes bezeugen die enormen Auer und Mannersdorfer Steinlieferungen für St. Stephan nachweislich in den Jahren 1404, 1407, 1415–1417, 1420, 1422, 1426, 1427, 1429, 1430 und 1476. Die Steinmengen, die aus den Brüchen zwischen Mannersdorf und Au am Leithagebirge bezogen wurden, sind nach den Rechnungen sehr groß, z. B. im Jahre 1415: 732 Stück, 1416: 629 Stück, 1417: 896 Stück, 1426: 963 Fuhren, 1427: 947 Fuhren und 1430: 761 Fuhren. Der Steinkauf erfolgte durch das Kirchenmeisteramt unter der fachlichen Beratung und Kontrolle des Dombaumeisters, bzw. seines Vertreters, des Parliers. Jedenfalls standen die Arbeiten in den Brüchen unter Aufsicht der Dombauhütte. Bekannt sind einige Namen der „Auer Steinbrecher“: "Michelen Unger von Au, Peter stainprecher von Au" und „Mannersdorfer Steinbrecher“: "Chrempel, Amman, Niklas, Sallmann, Uchsenpaur, Velib, Hannsen von Menhersdorf (Mannersdorf), Trunkel und von dem Perendorffer". Die Steine wurden mit Pferdewagen zugeführt. Die Fuhren vom Leithagebirge aus Mannersdorf und Au umfassen jeweils nur einen Block („stuk“), bei dem der Preis für das Brechen gleichbleibend war, jener für die Fracht aber schwankte, offenbar nach Gewicht. Der vollkommene Wechsel zum Mannersdorfer Gestein tritt mit dem Bau des Albertinischen Chores (1304–1340) ein. Der „Mannersdorfer ist wie der Auerstein“ ein fein- bis mittelkörniger Kalksandstein. Aus ihm besteht die Mehrzahl der Wandquader und alle Profilierungen einschließlich der Figurenkonsolen im Chore. Besonders deutlich sind die Verhältnisse beim Hochturm in der großen Glockenstube, wo die anspruchsvolleren Ortssteine und Eckpfeiler und alle feineren Profilierungen, Fenstergewände, Maßwerke usw. dem Mannersdorfer/Auerstein aus dem Leithagebirge vorbehalten blieben. Im Langhaus sind Quader in den Mauern, sowie die an die Eligiuskapelle anschließenden Joche und vor allem die nördlichen Wandpfeiler aus „Mannersdorfer“ gefertigt. Neben dem Mannersdorfer Sandstein kam auch der Mannersdorfer Algenkalk am Altbestand des Doms zum Einsatz. Nachweisbar sind einige Wasserspeier, z.B. an der Vorhalle des Singertores (1440–1450). Haltbarkeit der Steine. Alois Kieslinger, Geologe der Technischen Hochschule Wien, merkte 1930 zur Frage der Haltbarkeit des Natursteines kritisch an: „Die sechs ‚alten‘ Kirchen von Wien? Und wie viel ist denn alt davon? Wir sind gerade daran, bei St. Stephan den zwölften Turmhelm [!] auszubessern.“ Das Innere. Das Langhaus des Doms ist dreischiffig, was ihn als Stadtpfarrkirche ausweist. Das Hauptschiff ist auf den Hauptaltar ausgerichtet, das linke Seitenschiff hat ein Marienprogramm, das rechte Seitenschiff ist den Aposteln gewidmet. Obwohl das Innere sein Aussehen im Mittelalter erhielt, ist das ursprüngliche künstlerische und liturgische Ensemble aus der Zeit nur noch lückenhaft vorhanden, da der Bau während des Barocks nochmal umfassend verändert wurde. Die Gnadenfigur der sogenannten "Dienstbotenmuttergottes" aus der Zeit zwischen 1280 und 1320 ist ein Original aus der Zeit. Altäre. Erste überlieferte Meldungen über Altäre stammen aus der Zeit der Chorweihe durch Bischof Albert von Passau am 23. April 1340. Der Bischof weihte nicht nur die Chorhalle und salbte sie an den noch heute teilweise erhaltenen Apostelzeichen ein, sondern weihte auch noch sechs weitere Altäre. Drei befanden sich im Chor und drei am Lettner, der steinernen Trennwand zwischen Langhaus (auch bekannt als Laienkirche) und Chor (auch bekannt als Kleruskirche). Der Hauptaltar wurde häufig wegen seiner Nähe zum Sakramentshäuschen in mittelalterlichen Quellen „Vronaltar“ genannt und war an der Rückwand des Mittelchores mit dem heiligen Stephanus als Patron. Weitere Informationen über den Hauptaltar sind nicht überliefert, außer dass es sich wahrscheinlich um einen Flügelaltar handelte. Eine Rechnung aus dem Jahr 1437 zeigt wie der Mesner für das Auf- und Zuklappen der Flügel bezahlt wurde. Zeitgenössischen Berichten zufolge wurde der alte Flügelaltar irgendwann wurmstichig und musste abgetragen werden. Er wurde in das Kloster zur heiligen Agnes an der Himmelpfortgasse (deshalb auch bekannt als "Himmelpfortkloster ") übertragen. Dieses Kloster wurde später unter der Herrschaft von Kaiser Joseph II. im 18. Jahrhundert aufgehoben, spätestens da verliert sich die Spur des Flügelaltars. Hochaltar. An seiner Stelle wurde ein frühbarocker Hochaltar von den Gebrüdern Johann Jacob Pock, Bildhauer und Steinmetzmeister, und Tobias Pock, Maler des Altarblattes, errichtet. Das Bild zeigt die Steinigung des heiligen Stephanus, im Hintergrund ist eine Menschenmenge zu sehen, in der andere Heilige repräsentiert sind – ein Hinweis auf das Allerheiligenpatrozinium. In seinem Aufbau gleicht er einem Hausportal, er ist daher ein "Porta-Coelis"-Altar. Seitenaltäre. An den Pfeilern und an den Seitenschiffen befinden sich zahlreiche andere Altäre. Für den Dom schuf Tobias Pock später noch das Altarblatt des Peter- und Paul-Altares, den die Steinmetzzunft 1677 errichtete und der sich als zweitältester Barockaltar des Doms unter dem Orgelfuß erhalten hat. Der bedeutendste ist der Wiener Neustädter Altar aus dem Jahr 1447, ein typischer gotischer Flügelaltar der Szenen aus dem Leben der heiligen Jungfrau Maria zeigt. Der Wiener Neustädter Altar kam erst 1883 in den Dom, davor befand er sich in der Zisterzienserkirche von Wiener Neustadt. Er gehört somit nicht zur ursprünglichen mittelalterlichen Ausstattung des Stephansdoms. Unter dem spätgotischen "Öchsel-Baldachin" befindet sich der Altar des Gnadenbildes Maria Pócs oder Pötsch. Es handelt sich um eine im heutigen Máriapócs (Ungarn, damals "Pötsch") entstandene Kopie einer ostkirchlichen Ikone. Dem Bild wurde ein Tränenwunder nachgesagt und dem Volksglauben nach unterstützte es die kaiserlichen Truppen in den Türkenkriegen. Es wurde auf Befehl Kaiser Leopolds I. 1697 nach Wien gebracht und ursprünglich am Hochaltar aufgestellt. Seit 1945 hat es seinen jetzigen Standort. Grabmäler. Im Nordchor neben dem Wiener Neustädter Altar befindet sich das Kenotaph Rudolfs IV. und seiner Frau, der aber in sehr schlechtem Zustand ist. Ursprünglich stand er im Mittelchor mit dem Porträt Rudolfs IV. darüber gehängt. Im Südchor befindet sich das Grabmal Friedrichs III. Es wurde ab 1463 von Niclas Gerhaert van Leyden geschaffen und ist eines der bedeutendsten plastischen Kunstwerke des Spätmittelalters. Gefertigt wurde es aus Adneter Marmor (ein österreichischer Kalkstein), der wegen seiner Buntscheckigkeit besonders schwer zu bearbeiten ist. Von Meister Niclas selbst (er starb 1473) stammt die Deckplatte des Grabmals. Sie allein wiegt über 8 Tonnen und zeigt eine portraitähnliche Darstellung des Kaisers im Krönungsornat, umgeben von seinen Wappen und Herrschaftsattributen. Nach dem Tod von Meister Niclas wurden die Arbeiten am Grabmal nach seinen Entwürfen fortgesetzt und 1513 vollendet. Die Reliefdarstellungen an den Seiten des Grabmals wurden von Max Velmet angefertigt und erinnern an die zahlreichen Klostergründungen des Kaisers. Die Balustrade mit ihren 54 Figuren schuf Michael Trichter. Es gehörte zum Aufgabenbereich des Dombaumeisters alljährlich das Grabmal von Kaiser Friedrich III. im Dom zu reinigen. Dazu ein Schreiben des Matthias Winkler, Dombaumeister zu St. Stephan, vom 26. August 1734 Kanzel. Ein weiteres Meisterwerk der spätgotischen Plastik ist die Kanzel aus Breitenbrunner Kalksandstein. Sie wurde lange Anton Pilgram zugeschrieben, der Entwurf wird aber heute eher mit der Werkstatt Niclaes Gerhaert van Leydens in Verbindung gebracht. Der Kanzelkorb erhebt sich wie eine stilisierte Blüte aus dem Kanzelfuß. Auf dem Kanzelkorb sind die Portraits der vier Kirchenväter, der Handlauf ist von Fröschen und Lurchen bevölkert. Im unteren Teil der Treppe ist der "Fenstergucker" – das plastische Selbstporträt eines unbekannten Meisters. Zum Geländer siehe Zahlensymbolik. Kaiserliches Oratorium. Das zweite große vollendete Werk von Johann Jacob Pock im Dom war das im Jahre 1644 begonnene kaiserliche Oratorium, das im Auftrage der Stadt Wien gebaut wurde. Die erste Zahlung für die Steinmetzarbeit erfolgte am 16. April 1644 mit Gesamtkosten von 1.100 fl. Der Oberkämmerer notierte im Rechnungsbuch im März 1646 den Abschluss der Arbeiten. Die Stadt war mit der Arbeit zufrieden, sie überreichte Meister Pock "einen silber vergoldeten pecher sambt deckhl mit gestochenen wäppels wegen seines mit vleiß gemachten arbeit". Von der Domherren-Sakristei erreicht man über eine geschwungene Treppe den Gebetsraum des Kaisers. Die Stufen aus härtestem Kaiserstein, aus dem Steinbruch beim Haus („Hausbruch“), Pächter war der kaiserliche Hofbildhauer Pietro Maino Maderno. Das Oratorium wurde von Kaiser Ferdinand III. erstmals betreten. Kapellen. Gewölbe der Barbarakapelle mit hängenden Schlusssteinen Die Seitenkapellen sind die "Barbara"- und die "Katharinenkapelle". Die Katharinenkapelle hat einen hängenden Schlussstein. In ihr steht auch der Taufstein aus 1476, über dem die Taufkrone aus 1481 hängt. Der Taufstein hat einen achteckigen Fuß, über dem sich ein vierzehnseitiges Taufbecken befindet, die Krone ist siebeneckig. In lebendigen spätgotischen Darstellungen werden die Sieben Sakramente, die Evangelisten und Szenen aus dem Leben Christi dargestellt. Auch die Barbarakapelle besitzt hängende Schlusssteine. In ihr befindet sich eine von Alfred Hrdlicka geschaffene Büste der seligen Märtyrin Sr. Maria Restituta Kafka, einem Opfer des Nationalsozialismus. Am Bischofstor, einem nördlichen Seiteneingang, ist der "Kolomanistein", auf dem angeblich der heilige Koloman ermordet wurde. Gegenüber der Barbarakapelle befindet sich der "Zahnwehherrgott", ein gotischer Schmerzensmann. Der Legende nach hätten sich Studenten über ihn lustig gemacht, dass er aussehe, als habe er Zahnweh, woraufhin sie selbst mit Zahnweh geschlagen worden seien und Abbitte hätten leisten müssen. Auch im Westen neben dem Haupteingang gibt es Kapellen, in der "Kreuz- oder Tirnakapelle" oder "Savoyenkapelle" links neben dem Haupteingang, befindet sich das Grabmal des Prinzen Eugen. Die Herzogin von Savoyen-Carignan, geb. Prinzessin Liechtenstein, ließ für ihren Onkel Prinz Eugen von Savoyen im Dom ein Marmor-Epitaph errichten. Ausführende Künstler waren Joseph Wurschbauer als Bildhauer und Goldschmied, sowie Gabriel Steinböck als Steinmetz. Die "Valentinskapelle" ist die obere Kapelle im nördlichen Heidenturm. In ihr werden Reliquien des Doms aufbewahrt. Bei Restaurierungsarbeiten im November 2012 wurden in ihr Weihekreuze, aber auch eine Reihe gleichzeitig (im noch feuchten Putz) angebrachten Kritzeleien (Graffiti) aus der Zeit der Tage vor dem Nikolaustag 1479 (profestum nicolai) entdeckt. Die Weihekreuze deuten auf eine Weihe dieser Kapelle (oder zumindest deren Vorbereitung) für das Jahr 1479 hin, eine weitere Weihe ist für 1507 belegt. Die Graffiti zeigen Narrenhüte, Wappen, Namensteile und den Satz „manus beanorum maculant loca sactorum“ (lat.: 'Die Hände der Beani beflecken die heiligen Orte') und belegen, dass im Raum der Kapelle zu dieser Zeit ein studentisches Initiationsritual, eine Deposition stattgefunden hat: Als Name des Betroffenen ist Jeronymus Kisling, ein Sohn aus einer Wiener Handelsfamilie, späteres Stadtratsmitglied und Leiter der Wiener Fuggerfaktorei genannt. Türkendenkmal. Das Türkendenkmal, auch Türkenbefreiungsdenkmal genannt, wurde 1894 anlässlich der 200-Jahr-Feier der abgewehrten Zweiten Wiener Türkenbelagerung des Jahres 1683 enthüllt. Die Entwürfe stammten von Edmund Hellmer. Das Denkmal wurde 1945 beim Brand des Doms zerstört und danach in fragmentarischer Form wieder aufgebaut. Einige zerstörte Figuren des Denkmals sind noch im Lapidarium in der Unterkirche zu sehen. Epitaphe. Sowohl innen als auch außen ist die Wand des Doms mit Epitaphen bedeckt. Sie wurden aus dem Friedhof um den Dom (dem "Stephansfreithof") genommen, der 1760 aufgelassen wurde. Unter anderem finden sich Epitaphe für den Humanisten Johannes Cuspinianus, den Arzt und Universitätsrektor Paul Sorbait, für Georg Slatkonia, den ersten Bischof von Wien, und den Gegenreformator Kardinal Melchior Khlesl, weiters für die Steinmetzmeister Franz Hieß und Johann Georg Prunner. Fenster. Die farbenprächtigen, mittelalterlichen Fenster des Stephansdoms sind, während Umbauten in der Barockzeit, durch farblose Fenster ersetzt worden, da man die alten nicht mehr als zeitgemäß empfand. Im Barock bevorzugte man helle Kirchenräume. Im 19. Jahrhundert wurden wieder sehr farbenfrohe und prächtige Buntglasfenster im Stil der Neugotik eingesetzt. Diese gingen jedoch im Laufe des Zweiten Weltkriegs durch Bomben und den Brand des Doms verloren. Die heutigen, einfachen Glasfenster aus der Nachkriegszeit sind Geschenke des Landes Tirol. Nur die Fenster hinter dem Hauptaltar, im 19. Jahrhundert allerdings stark ergänzt und aus Restbeständen neu zusammengefügt, sind noch Originale aus dem Mittelalter. Das Buntglasfenster der Rosette hinter der Hauptorgel ist eine moderne Ausführung. Die Ostung der Kirche ermöglicht Besuchern an zwei besonderen Tagen im Jahr mittags ein schönes Lichtspiel zu beobachten: immer am 26. Dezember, dem Namenstag des Kirchenpatrones, ist seine Ikone am Hauptaltar durch die Sonne erleuchtet; am 6. Jänner, dem Ende der Epiphanie und Dreikönigstag, erstrahlen die drei Kronen der Heiligen Drei Könige im Lichterglanz. Orgeln. Unweit der Kanzel befindet sich der Orgelfuß – ein Vorsprung, auf dem sich seit seiner Errichtung eine Orgel befand. Er wird von schlingenförmigen Diensten an der Wand gehalten, die in einem plastischen Selbstporträt Anton Pilgrams münden, der dadurch scheinbar alles darüber zu tragen hat. Er ist als Universitätsprofessor mit Doktorhut und Talar gekleidet und hält Winkelmaß und Zirkel in der Hand. Seine Gesichtszüge wirken melancholisch und sollen wohl seine Verantwortung ausdrücken. Unterhalb des Portraits ist die Jahreszahl 1513 zu lesen. Die erste urkundliche Erwähnung einer Orgel im Stephansdom geht auf das Jahr 1334 zurück; 1336 ist der Neubau einer nicht näher genannten Orgel überliefert. Nachdem 1513 der Orgelfuß an der Nordwand des Domes fertiggestellt worden war, erfolgte dort die Aufstellung einer Orgel – möglicherweise handelte es sich dabei um das 1336 errichtete Instrument. Die Orgel am Füchsel-Baldachin wurde 1507 von Burchard Tischlinger (auch Dinstlinger) aus Bozen errichtet und 1545 durch Jacob Kunigschwerdt aus Zwettl erweitert. Für den Chorraum wird um 1685 eine nicht näher bezeichnete Orgel erwähnt; 1701 errichtete Josef Römer aus Wien eine neue Orgel mit 10 Registern auf dem über dem Chorgestühl neu errichteten "Musikantenchor". Dieses Instrument wurde 1886 durch einen Neubau der Firma Rieger ersetzt, wobei das vorhandene Gehäuse weiter Verwendung fand. 1945 wurde die betreffende Orgel beim Brand des Domes zerstört. Die Geschichte der Orgeln auf der Westempore beginnt mit der von Josef Römer dort errichteten und 1720 fertiggestellten Orgel. Diese wurde 1797 – vermutlich durch Ignaz Kober – um die Register der zuvor abgetragenen Seitenschifforgeln erweitert. 1886 musste auch dieses Instrument einem von Eberhard Friedrich Walcker vorgenommenen Neubau weichen, wobei das Gehäuse von 1720 erhalten blieb. Wie die Chororgel wurde auch die Walcker-Orgel in den letzten Kriegstagen des Jahres 1945 ein Raub der Flammen – im Gegensatz dazu ist die Walcker-Orgel der Wiener Votivkirche, die gemeinhin als ihre „kleine Schwester“ bezeichnet wird, bis heute erhalten. Nach der Wiedererrichtung des Domes erbaute der Wiener Orgelbauer Johann M. Kauffmann zwei neue Orgeln für denselben: 1952 wurde die 18 Register auf zwei Manualen und Pedal umfassende Chororgel fertiggestellt, auf der Westempore errichtete er von 1956 bis 1960 ein neues Instrument, das über vier Manuale, 125 Register und rund 10.000 Pfeifen verfügt. Es war bereits zu seiner Entstehungszeit eine der letzten noch mit elektrischen Kegelladen errichteten Orgeln. Da sich diese Situation als unbefriedigend darstellte, erreichte Domorganist Peter Planyavsky nach langen Jahren die Anschaffung einer neuen, den musikalischen und liturgischen Ansprüchen genügenden Domorgel, die von der österreichischen Orgelbaufirma Rieger 1991 angefertigt wurde und über 55 Register auf 4 Manualen – Hauptwerk, Positiv, Schwellwerk, Solowerk – und Pedal verfügt. Sie befindet sich ebenerdig aufgestellt im südlichen (rechten) Seitenschiff nahe der Vierung und versteht sich als Universalinstrument, das sich zur Wiedergabe von Orgelmusik unterschiedlichster Epochen eignet und den vielfältigen Anforderungen der Kirchenmusik einer Domkirche – u.a. Führung des Gemeindegesangs und Zusammenwirken mit der Dommusik – gerecht wird. Mit der Einweihung der neuen Domorgel wurde die Kauffmann-Orgel stillgelegt und bislang weder renoviert noch entfernt. Im Oktober 2009 wurde, wiederum von der Firma Rieger, die "Haydn-Orgel" als mobile Chororgel mit 12 Registern auf zwei Manualen und Pedal fertiggestellt, um die liturgischen Anforderungen der Gottesdienste bei den verschiedenen Altären im Stephansdom erfüllen zu können. Domschatz. Seit 2012 ist der Domschatz wieder in die Kirche zurück, und wird im Stephansdom öffentlich ausgestellt. Der Eingang des Dommuseums befindet sich beim Haupttor („Riesentor“) im rechten Heidenturm. Mit einem Aufzug kommt der Besucher in einen oberen Turmabschnitt. Hier beginnt eigentlich das Dommuseum mit seinen Ausstellungsstücken. Durch ein Glasfenster sieht der Besucher das Hochgrab Kaiser Friedrichs III., über ein paar Stufen hinab gelangt man in einem Raum oberhalb, nahe der Eligiuskapelle, wo sich aus Silber und Gold verzierte liturgische Geräte befinden. Über eine Wendeltreppe aus Eisen gelangt der Besucher hinunter zur Westempore, welche ursprünglich die Herrscherempore war. Sie befindet sich im Mittelschiff, mit Blick nach Osten zum Hochaltar, in ihr steht auch die „Kauffmann-Orgel“ und große Altartafel Bilder. Bevor der Domschatz zurückkehrte, wurden hier Sonderausstellungen präsentiert. Der Domschatz setzt sich aus wertvollen, kunstvoll mit Goldplatten (Blattgold) und Edelsteinen verzierte Reliquien, Monstranzen, sowie sehr alten liturgischen Texten (Handschriften), Bücher, Bildern, sowie Gewändern zusammen. Von hier verläuft die Ausstellung hinüber, über ein paar Stufen aufwärts gehend in den linken Heidenturm. In ihm befindet sich Gegenstände, die einst außen an der Wandfassade oder in der Kirche montiert waren, wie zum Beispiel ein alter, aus verwittertem Sandstein, über zwei Meter langer Teil eines Fresko „Die Kreuzwegstationen Jesu Christi“. Darüber hinaus gibt es Steinstatuen, sakrale alte Gemälde, gotische Altarbilder des Jesus von Nazareths mit Dornenkrone. Eine andere steinerne Wendeltreppe führt hinauf in ein Abteil oberhalb nahe der Prinz Eugen Kapelle oder auch Morandus-, Tirna-, Kreuz- und Liechtensteinkapelle genannt. Hier befinden sich die meisten Reliquien des Domschatzes. So auch ein vergoldeter Glassarg sowie große Schaukästen, und Vitrinen. So befindet sich in einen Schaukasten, die Reliquie mit der Nummer 16, eine Reliquie des Namenspatrons des Doms, des heiligen Stephanus. Durch eine moderne Stahltreppe und einen Steg kommt der Besucher, in einen weiteren Raum in dem sich Vitrinen mit religiösen Devotionalien befinden. Von hier hat man die Aussicht hinab auf den Stephansplatz sowie auf der gegenüberliegenden Seite, wo der Besucher durch ein Glasfenster Sicht in den Kirchenraum hat. Glocken. Pummerin, Nationalfeiertag 26. Oktober 2013 Der Stephansdom verfügt über 22 Glocken, von denen 17 läutbar sind. Die bedeutendste Glocke ist die "Pummerin". Nordturm. Die größte Glocke, die "Pummerin", hängt im Nordturm. Sie ist die größte Glocke in Österreich und die drittgrößte Glocke in West- und Mitteleuropa. Sie wurde nach dem Zweiten Weltkrieg im Jahr 1951 als Geschenk des Bundeslandes Oberösterreich aus dem Metall ihrer Vorgängerin erneut gegossen. Sie wird nur an Hochfesten sowie in der Neujahrsnacht und aus staatlichen Anlässen (z. B. Unterzeichnung des Staatsvertrages, Tod des Bundespräsidenten) geläutet. Südturm. Das Hauptgeläut – "Festgeläut" genannt – besteht aus den elf Glocken, die im hohen Südturm hängen und 1960 durch die Glockengießerei Pfundner gegossen wurden. Die große "Stephanusglocke" – traditionell als "Halbpummerin" bezeichnet – ist neben der Pummerin die zweite Festglocke des Domes und bildet die Grundglocke für das Geläut zum Hochamt an Festtagen. Das Plenum auf der "Leopoldsglocke" (Glocken 2 bis 11) ist für das Hochamt an Sonntagen bestimmt. Zu den übrigen Messen an Sonntagen sowie zu den Wochentagsmessen erklingen kleinere Glockengruppen aus sieben bis drei Glocken. Zum wochentäglichen Angelusläuten um 7, 12 und 19 Uhr wird mit der "Christophorusglocke" geläutet und zum Scheidungsläuten am Freitagnachmittag um 15 Uhr mit der "Leopoldsglocke". Nach dem abendlichen Angelus ertönt die Sterbeglocke (Glocke 9) zum Arme-Seelen-Geläut. Grabstätten und Katakomben. Stich vom Kenotaph Rudolf IV. und Katharina von Böhmen Stich von der Herzogsgruft um 1758 Unter dem Dom befindet sich eine weitläufige Anlage von etwa 30 Grabkammern, die seit dem 19. Jahrhundert „Katakomben“ genannt werden. Der Zugang erfolgt durch eine Stiege in linken Seitenschiff. Die Katakomben gehen im Kern auf eine fürstliche Grabkammer zurück, die Herzog Rudolf IV. um das Jahr 1363 errichten ließ. Unter Maria Theresia wurde die Anlage stark erweitert. In einer Gruft sind die Eingeweide von zahlreichen Habsburgern (unter anderem von Napoleon Franz Bonaparte) sowie die Wiener Kardinäle und Erzbischöfe und Mitglieder des Domkapitels begraben. Die Körper der Habsburger liegen dann meist in der Kapuzinergruft und die Herzen in der „Herzerlgruft“ der Augustinerkirche, beide wenige Gehminuten entfernt. Nach der Sperre des oberirdischen Friedhofs am 25. April 1732 wurden ab 1745 die „neuen Grüfte“ angelegt, die nicht unter dem Dom sondern unter dem Stephansplatz liegen. Der Zugang erfolgte über die Kruzifixkapelle neben der Capistrankanzel an der Außenseite des Doms. Insgesamt wurden mehr als 10.000 Leichname hier unterirdisch deponiert. Diese Praxis wurde 1783 unter Kaiser Joseph II. verboten, viele Gebeine verblieben aber unter dem Dom. Im 20. Jahrhundert wurden mehrere Grabkammern durch den Bau einer Tiefgarage zerstört. Ein Teil der Katakomben kann bei Führungen besichtigt werden. Maße. Bronzenes Modell neben dem Dom Zahlensymbolik. Den Maßen des Doms liegen die Zahlen Drei (für die Dreifaltigkeit) und Vier (die Zahl des Irdischen – Temperamente, Himmelsrichtungen, Jahreszeiten u.s.w.) zugrunde. Drei plus Vier ist Sieben, die Zahl der Schöpfungstage, Sakramente, Haupttugenden, Hauptlaster, Seligpreisungen, Worte am Kreuz, Gaben des Heiligen Geistes und anderes. Sieben hinter der Drei ergibt Siebenunddreißig. Drei mal Siebenunddreißig ist Hundertelf. Nach häufiger Angabe ist der Dom 111 Fuß breit und 333 Fuß lang, der Südturm ist 444 Fuß hoch; in der Realität weicht jedoch die Länge davon ab (ca. 350 Fuß). Das Treppengeländer zur Kanzel setzt sich aus stilisierten Rädern zusammen, einem "Dreipass" (dreimal unterteilt) und einem "Vierpass". Die Anzahl der Stufen auf der Treppe zur Türmerstube des Glockenturms (und damit der heutigen Aussichtsterrasse) beträgt 343, das ist formula_1, also formula_2. Zwölf (= 3 × 4) Fialentürmchen schließen den Unterbau des Südturms ab. Aus deren Mitte erhebt sich die Turmspitze (Christus und die 12 Apostel). Die Fenster im Langhaus (Aufenthaltsort der Laien) bestehen aus je vier, die Fenster im Priesterbereich aus je drei Teilen. Eigentumsverhältnisse. Der Stephansdom als solcher (das Kirchengebäude) hat Rechtspersönlichkeit nach dem Kirchenrecht. Er ist als juristische Person unter dem Namen „Römisch-katholische Metropolitan- und Pfarrkirche zu St. Stefan in Wien“ im staatlichen Bereich nach dem Konkordat und damit auch im Grundbuch als Rechtsperson anerkannt, er ist als Eigentümer seines Grundstückes (5740 m²) im Grundbuch eingetragen. Grundstücksgrenzen sind im Wesentlichen die Mauern des Kirchengebäudes (Außenkanten der Strebepfeiler), das Grundstück des Doms ist vom Stephansplatz umgeben. Dieser Platz ist Eigentum der Stadt Wien (Öffentliches Gut). Die Verwaltung des Domvermögens war früher ein Ehrenamt vermögender Mitglieder des Rates der Stadt Wien, der Kirchmeister. Von ihnen waren die Baugeschäfte abzuschließen, die Handwerker zu überwachen und die Vermögensverwaltung des Doms zu führen. Erst 1834 wurde mit dem Cur- und Chormeister von St. Stephan auch ein Priester an der Vermögensverwaltung beteiligt. Das Konkordat 1855 übertrug die Vermögensverwaltung endgültig kirchlichen Institutionen, 1858 wurde dafür ein dem Erzbischof von Wien unterstehendes Amt eingerichtet. Der Stephansdom besitzt weiteres Liegenschaftsvermögen: einen Drittelanteil am Chur- und Chorhaus zu St. Stefan (das ist das Haus südlich des Stephansdoms). Die zwei anderen Drittel dieses Hauses gehören der „Erzbischöflichen Chur in Wien“ und der Erzdiözese Wien. Der Dom als Feuerwache. Als jahrhundertelang höchstes Gebäude Wiens beherbergte der Dom einst auch die Feuerwache der Stadt. So wurde im Jahre 1534, also fünf Jahre nach der Ersten Türkenbelagerung, die Funktion eines Türmers eingerichtet, der in einer Türmerstube in einer Höhe von 72 Metern seinen Dienst versah. Bei Ausbruch eines Brandes innerhalb der Stadt musste dieser am Tag eine rote Fahne und in der Nacht eine rote Laterne in Richtung des Feuers schwenken und mit einem blechernen Sprachrohr die Bevölkerung warnen. Gleichzeitig wurde eine schriftliche Meldung durch ein Rohr zum Turmmeister hinuntergeschickt, der die militärische Feuerwache am nahen Petersplatz mittels eines Glockenzuges alarmierte. Die Türmerstube war einige Jahrhunderte lang zur Früherkennung besetzt. Im Jahr 1835 entwickelte der Direktor der Wiener Sternwarte Karl Ludwig von Littrow ein sogenanntes "Toposkop", mit dem auch in der gewachsenen Stadt noch Brände erkennbar waren. An dem auf Gelenken befestigte Fernrohr konnte man die Winkel ablesen und so Koordinaten weitergeben. Bis 1855 erfolgten diese Meldungen in schriftlicher Form. Später wurde ein Zeigertelegraph eingerichtet, der die Meldung direkt zur Hauptfeuerwache "Am Hof" weitergab. Letzte Reste dieser Anlage fand man bei Ausgrabungen im Jahr 1955. Obwohl bereits in der Zwischenkriegszeit Zweifel an der Notwendigkeit aufkamen, waren Türmer bis nach dem Zweiten Weltkrieg im Einsatz. Der letzte Türmer versah bis zum 31. Dezember 1955, also 421 Jahre nach Einrichtung dieser Funktion, seinen Dienst. Sportveranstaltung. Seit 2012 findet jährlich im Mai während des Steffl-Kirtags ein Treppenlauf im Südturm zur Türmerstube statt. Der vom Österreichischen Leichtathletikverband veranstaltete Lauf zählt seit der erstmaligen Austragung auch zum Treppenlauf-Weltcup. Die Streckenrekorde für die 343 Stufen bzw. 67 Höhenmeter werden von Matjas Miklosa (SLO) mit 1:17,75min und Jennifer Wenth (AUT) mit 1:53,70 Minuten gehalten (Stand 2015) Legenden um den unfertigen Nordturm. Es gibt etliche Geschichten und Legenden, die die Unfertigkeit des Nordturms des Stephansdoms zu erklären versuchen. Die bekannteste Legende besagt, dass der Baumeister Puchsbaum zur Entstehungszeit nur ein Gehilfe des Baumeisters war und mit dem Teufel einen Pakt schloss, um den Nordturm innerhalb eines Jahres fertigzustellen. Dadurch würde Puchsbaum die Bedingung des Baumeisters, seine Tochter ausführen zu dürfen, erfüllen. Puchsbaum konnte allerdings seinen Pakt mit dem Teufel nicht einhalten, da er – durch die Namensgebung der Tochter Maria bedingt – es nicht schaffte ein Jahr lang weder den Namen des Herrn noch eines anderen Heiligen auszusprechen. In Wahrheit sind die Hauptgründe, warum es nie zu einer Fertigstellung des Nordturms gekommen ist, wirtschaftliche Schwierigkeiten des ausgehenden Mittelalters, die Türkengefahr und die kirchlichen Umwälzungen. Die letzte Steinschicht soll um 1511 datiert sein. Einzelnachweise. Wien Wien, Stephansdom Wien, Stephansdom Wien, Stephansdom Wien Schwingkreis. Ein elektrischer Schwingkreis ist eine resonanzfähige elektrische Schaltung aus einer Spule (Bauteil L) und einem Kondensator (Bauteil C), die elektrische Schwingungen ausführen kann. Bei diesem "LC-Schwingkreis" wird Energie zwischen dem magnetischen Feld der Spule und dem elektrischen Feld des Kondensators periodisch ausgetauscht, wodurch abwechselnd hohe Stromstärke oder hohe Spannung vorliegen. Die Frequenz, mit der sich dieses im ungestörten Fall periodisch wiederholt, ist wobei formula_2 für die Induktivität der Spule und formula_3 für die Kapazität des Kondensators stehen. Diese Gleichung heißt Thomsonsche Schwingungsgleichung. Wird ein Schwingkreis durch einen Schaltvorgang oder einen Impuls einmalig angestoßen, dann führt er freie Schwingungen (Eigenschwingungen) aus, die in der Realität aufgrund von Verlusten nach einer gewissen Zeit abklingen. Wird er jedoch periodisch erregt, dann führt er auch nach Ablauf der Einschwingzeit periodische erzwungene Schwingungen aus, deren Frequenz identisch mit der Erregerfrequenz ist. Die dabei auftretenden Resonanzerscheinungen haben für die praktische Anwendung überragende Bedeutung. Bei einem Schwingkreis mit äußerer Anregung unterscheidet man je nach Anordnung in Bezug zur Anregungsquelle zwischen "Parallelschwingkreis" (L parallel zu C) und "Reihenschwingkreis" (L in Reihe zu C). Unpräzise wird der Reihenschwingkreis manchmal auch als "Serienschwingkreis" bezeichnet. Ähnliche Schaltungen aus Spule und Kondensator werden auch als "LC-Glieder" bezeichnet, sie befinden sich jedoch nicht zwingend in Resonanz (siehe Tiefpass, Hochpass). Zustandekommen von freien Schwingungen im idealen Schwingkreis. Für eine nach außen abgeschlossene Schaltung aus idealen (verlustfreien) Bauelementen, die eine gewisse Energie enthalten, ergibt sich ein periodischer Vorgang. Zu dessen Beschreibung wird zu einem willkürlich gewählten Zeitpunkt der zugehörige Zustand als Anfangszustand festgelegt. Spannungs- und Stromverlauf im Schwingkreis Bei fortlaufender Wiederholung stellt sich der Spannungsverlauf gemäß der Kosinusfunktion ein; der Stromverlauf folgt der Sinusfunktion. Der Übergang von Bild 1 zu Bild 2 entspricht in den Funktionen dem Bereich "x" = 0 … π/2; der Übergang von Bild 2 zu Bild 3 verläuft wie im Bereich "x" = π/2 … π, von Bild 3 über Bild 4 zu Bild 1 wie in "x" = π … 2π. Freie Schwingungen im realen Reihenschwingkreis. Wenn man darin zur Vereinfachung und Verallgemeinerung die „Abkürzungen“ für die (ideale) Resonanzkreisfrequenz Die Differentialgleichung für die Kondensatorspannung hat die gleiche Form. Für die zur eindeutigen Lösung benötigten zwei Anfangsbedingungen nimmt man meist an, dass zum Zeitpunkt t=0 der Kondensator mit einer Spannung UC0 aufgeladen und der Strom durch die Induktivität 0 ist. Realer Schwingkreis. Allgemein lässt sich ein realer Schwingkreis mit dem Modell des gedämpften, harmonischen Oszillators beschreiben. Geht man davon aus, dass die Verluste im Schwingkreis gering sind, konkret dass formula_10 ist, und führt noch die Eigenkreisfrequenz ein, dann erhält man mit den klassischen Methoden zur Lösung einer linearen homogenen Differentialgleichung, mit Hilfe der Laplace-Transformation oder mit Hilfe einer anderen Operatorenrechnung die Lösungsfunktionen für die beiden Zustandsgrößen mit formula_14. Das Minuszeichen vor dem Strom kommt durch die Stromrichtung bei der Entladung zustande. Die Richtigkeit der Lösungen kann durch Einsetzen in die Differentialgleichungen und durch Kontrolle des Anfangszustandes geprüft werden. In diesem „Normalfall der Praxis“ sind Strom und Kondensatorspannung durch den Faktor formula_15 schwach gedämpft und nicht genau gegeneinander 90° in der Phase verschoben. Die Eigenkreisfrequenz ωe liegt durch die Dämpfung unterhalb der idealen Resonanzkreisfrequenz ω0. Mit stärker werdenden Verlusten wird sie immer geringer. Idealer Schwingkreis. Für den Idealfall eines Schwingkreises ohne Verluste erhält man mit formula_16 die oben anschaulich beschriebene Lösung der ungedämpften harmonischen (um 90° phasenverschobenen) Schwingungen. Aperiodischer Grenzfall. Sind die Verluste größer, dann wird im Sonderfall formula_19 „ohne Überschwingen“ der Ruhezustand am schnellsten wieder erreicht. Dieses Verhalten nennt man den aperiodischen Grenzfall. Dann erhält man Kriechfall. Wenn schließlich formula_22 gilt, dann entsteht ebenfalls keine Schwingung mehr. Je größer die Dämpfung ist, um so langsamer kriechen Strom und Spannung gegen 0. Dieses Verhalten nennt man den (aperiodischen) Kriechfall. Führt man die „Kriechkonstante“ ein, dann gilt für den Strom Idealer Parallelschwingkreis. Eine Spule und ein Kondensator liegen parallel an derselben Spannung. Durch diese kann die Schaltung zu „erzwungenen Schwingungen“ angeregt werden; sie ist damit zu einer Parallelresonanz fähig. Bei dieser ist beim idealen Schwingkreis aus verlustlosen Bauteilen der an den Klemmen beobachtbare Widerstand unendlich groß. Bei einer Kapazität "C" eilt der Phasenwinkel "φ" des Stroms gegenüber dem der anliegenden Spannung um 90° "voraus", d. h. die Spannung liegt in der Phase um 90° hinter dem Strom zurück; siehe Zeigerdiagramm. Bei einer Induktivität "L" läuft die Stromphase gegenüber der Spannungsphase um 90° "nach". Wenn der Pfeil für "IC" länger als der Pfeil für "IL" ist, so ist in der Parallelschaltung der kapazitive Widerstand kleiner als der induktive Widerstand; die Frequenz liegt im betrachteten Fall "höher" als die Resonanzfrequenz. (Bei Resonanz sind die Pfeile für "IC" und "IL" gleich lang.) Der resultierende Strom "I"ges in den "Zuleitungen zum Schwingkreis" ist durch die grafische Addition aus "IL" und "IC" gegeben. In den Beträgen ist der Gesamtstrom stets "kleiner" als der größere Einzelstrom durch "C" oder "L". Je näher man an die Resonanzfrequenz herankommt, desto mehr geht "I"ges gegen null. Anders gesagt: Nahe bei der Resonanzfrequenz ist der innerhalb des Schwingkreises fließende Strom wesentlich größer als der Strom in den Zuleitungen (Stromüberhöhung). Der Summen-Strompfeil zeigt bei der vorliegenden Zeichnung nach oben. Das bedeutet, dass sich der Schwingkreis bei der vorliegenden Frequenz wie ein Kondensator geringer Kapazität verhält; die Frequenz liegt "oberhalb" der Resonanzfrequenz. Präzise bei Resonanzfrequenz ist "I"ges = 0, und der Parallelschwingkreis lässt keinen Strom durch. "Unterhalb" der Resonanzfrequenz zeigt "I"ges nach unten, und der Schwingkreis wirkt wie eine Induktivität. Das negative Vorzeichen steht für die entgegengesetzte Richtung des Strompfeiles. (Zur verwendeten Vorzeichenkonvention siehe Anmerkung unter Blindwiderstand, zur Herleitung siehe unter Komplexe Wechselstromrechnung). Zur Berechnung der "Resonanzfrequenz" formula_29 des idealen Schwingkreises geht man davon aus, dass der Scheinwiderstand an den Klemmen unendlich groß ist, also der Leitwert der Parallelschaltung null. oder formula_33 Realer Parallelschwingkreis. Ein realer Schwingkreis enthält in der Spule und dem Kondensator immer auch Verluste; den ohmschen Widerstand der Leitungen und der Spulenwicklung, dielektrische Verluste im Kondensator und abgestrahlte elektromagnetische Wellen. Es verbleibt dann ein restlicher Strom "I"R  an den Klemmen, der mit "U" phasengleich ist und der auch im Falle der Resonanz nicht zu null wird. Daher wird beim realen Parallelschwingkreis der Resonanzwiderstand nicht unendlich groß. Der Scheinwiderstand "Z" erreicht lediglich ein Maximum. Die oben angegebene Resonanzfrequenz des idealen Schwingkreises "f"0 gilt bei "R"L = 0. Bei dem hier behandelten realen Schwingkreis ergibt sich anhand des Parallelersatzschaltbildes Ortskurve eines realen Parallelschwingkreises "C" = 0,1 μF; "L" = 50 μH; "RL" = 5 Ω Sie ist typisch (siehe folgendes Beispiel) etwas kleiner als formula_29 und lässt sich umrechnen zu Diese "Resonanzfrequenz" für erzwungene Schwingungen hat einen anderen Wert als die oben angegebene "Eigenfrequenz" für freie Schwingungen. Phasenverschiebung. Messschaltung der Phasenverschiebung bei Resonanz Phasenverschiebung am Schwingkreis bei geringer und starker Dämpfung Wird ein Schwingkreis durch einen externen Oszillator und schwache induktive Kopplung (siehe Messschaltung) zu erzwungenen Schwingungen angeregt, reagiert er mit einer Phasenverschiebung zwischen 0° bei extrem tiefen Frequenzen und 180° bei sehr hohen Frequenzen. Bei Resonanzfrequenz "f"0 beträgt die Phasenverschiebung genau 90°. In der Umgebung der Resonanzfrequenz ist die Abweichung der Phasenverschiebung "φ" von 90° fast proportional zur Abweichung der Frequenz "f". Das wird bei Demodulationsschaltungen von Frequenzmodulation ausgenutzt. Der Proportionalitätsfaktor "k" ist umso größer, je kleiner die Dämpfung des Schwingkreises ist. Diese lässt sich durch den Reihenwiderstand zur Induktivität ändern. Bei verschwindender Dämpfung hätte die Kurve die Form einer Heaviside-Funktion. Reihenschwingkreis. Ein Reihenschwingkreis, an dem eine Wechselspannung mit einstellbarer Frequenz angelegt wird. Idealer Reihenschwingkreis. Beim LC-Reihenschwingkreis sind Spule und Kondensator in Reihe geschaltet. Durch beide fließt derselbe Wechselstrom, der eine mit seiner Frequenz erzwungene Schwingung veranlasst. Bei sinusförmiger Anregung bildet sich an der Spule eine gegenüber dem Strom um 90° voreilende Spannung aus, am Kondensator eine um 90° nacheilende. Die Spannungen sind gegeneinander gerichtet, so dass deren Summe dem Betrage nach stets kleiner ist als die jeweils größere Einzelspannung. Im Sonderfall heben sie sich auf, was einem Kurzschluss entspricht. Dieser Fall heißt Reihenresonanz oder Serienresonanz eines LC-Reihenschwingkreises. Er wird erreicht bei der Resonanzfrequenz des Schwingkreises. Der (Blind-)Widerstand der Reihenschaltung beträgt Bei der Resonanzfrequenz formula_29 heben sich der kapazitive und der induktive Blindwiderstand gegenseitig auf, was den Kurzschluss bewirkt; formula_41. (Zur Vorzeichenkonvention für formula_42 gilt dasselbe wie oben beim Parallelschwingkreis.) Bei Resonanz gilt also Liegt die Frequenz oberhalb der Resonanzfrequenz, ist der induktive Blindwiderstand (Spule) betragsmäßig größer als der kapazitive, so dass der Blindanteil am komplexen Gesamtwiderstand positiv ist. Der Kondensator liefert mit steigender Frequenz einen immer kleiner werdenden Anteil am gesamten Blindwiderstand, die Spule einen immer größer werdenden Anteil. Liegt die Frequenz unterhalb der Resonanzfrequenz, ist der kapazitive Blindwiderstand des Kondensators betragsmäßig größer als der induktive Blindwiderstand der Spule, und der Blindanteil des Gesamtwiderstandes hat ein negatives Vorzeichen. Hierbei wird der Spulenwiderstand mit sinkender Frequenz zunehmend kleiner und der größer werdende Betrag des Blindwiderstands des Kondensators wird immer weniger kompensiert. Bei einem Reihenschwingkreis tritt eine Spannungsüberhöhung auf, denn über "L" und "C" einzeln treten höhere Spannungen auf als an den Anschlussklemmen (siehe Resonanztransformator). Ortskurve eines realen Reihenschwingkreises "C" = 0,1 μF; "L" = 50 μH; "R" = 5 Ω Realer Reihenschwingkreis. Im realen Fall liegt zusätzlich zu Kondensator und Spule noch ein ohmscher Widerstand in Reihe. Dieser kann ein weiteres Bauteil sein oder allein schon der Draht der Spule. Kreisgüte. In realen Schwingkreisen treten in den Induktivitäten (Spulen) und Kapazitäten (Kondensatoren) auch Verluste auf (ohmscher Widerstand, dielektrische Verluste, Abstrahlung). Diese führen dazu, dass die Schwingung eines Schwingkreises gedämpft wird. Ein Maß für die Verluste ist der Gütefaktor. Die Resonanzkurve stellt in einem Diagramm dar, in welchem Maße und in welcher Bandbreite es in Abhängigkeit von der Erregerfrequenz bei einem gegebenen Gütefaktor zu einer Amplitudenüberhöhung kommt. Oszillator. Einmal angestoßen und dann sich selbst überlassen, schwingt ein Schwingkreis in der Nähe seiner Resonanzfrequenz "f"0. Infolge der Dämpfung durch Verluste nimmt die Amplitude der Schwingung im Laufe der Zeit ab („gedämpfte Schwingung“), wenn nicht durch eine aktive Verstärkerschaltung (beispielsweise mit einem Transistor) oder einem negativen differentiellen Widerstand regelmäßig wieder Energie zugeführt wird. Man spricht dann auch von einer Mitkopplung oder von einer "Entdämpfung" des Schwingkreises. Eine solche Schaltung bildet einen Oszillator (Schwingungserzeuger), ein Beispiel ist die Meißner-Schaltung. Abstimmung. Die Resonanzfrequenz hängt von "L" und von "C" ab und kann daher durch Ändern von "L" oder "C" beeinflusst werden. Der Schwingkreis wird hierdurch auf eine bestimmte Frequenz "abgestimmt". Die Induktivität "L" kann vergrößert werden, indem ein ferromagnetischer Kern (Eisen oder Ferrit) mehr oder weniger weit in die Spule eingeschoben wird. Auch das Verdrängen des Feldes durch Einschieben eines gut leitenden Kernes wird angewendet – dann verringert sich die Induktivität. Die Kapazität "C" kann verändert werden, indem die Plattengröße oder der Plattenabstand des Kondensators verändert wird. Beim Drehkondensator und bei vielen Trimmern geschieht das, indem die Platten seitlich gegeneinander verdreht werden, so dass der Anteil der sich gegenüberliegenden Flächen verändert wird. Andere Schaltungen verwenden stattdessen zum Beispiel eine Kapazitätsdiode. Filter. Der Scheinwiderstand ist frequenzabhängig, in der Umgebung der Resonanzfrequenz wird er beim Reihenschwingkreis minimal und beim Parallelschwingkreis maximal. Diese Frequenzabhängigkeit ermöglicht, aus einem Signalgemisch unterschiedlicher Frequenzen eine bestimmte Frequenz herauszufiltern – entweder um sie allein durchzulassen, oder um sie gezielt zu unterdrücken. Der Parallelschwingkreis hat zudem den Vorteil, Gleichstrom wie beispielsweise den Betriebsstrom des Transistors unbehindert passieren zu lassen. Deshalb wird beim Einsatz in einem selektiven Verstärker "immer" ein Parallelschwingkreis verwendet. Parallel- und Reihenschwingkreise können je nach Beschaltung auch die jeweils andere Aufgabe übernehmen. So kann ein lose gekoppelter Parallelschwingkreis Energie ausschließlich bei seiner Eigenfrequenz aufnehmen (Saugkreis); ein Reihenschwingkreis in Reihe in einer Signalleitung lässt nur Frequenzen seiner Eigenresonanz passieren. Dagegen lässt ein in eine Signalleitung in Reihe geschalteter Parallelschwingkreis genau seine Eigenfrequenz nicht passieren – vorausgesetzt, er wird durch diese nicht maßgeblich bedämpft. Kompensation von Blindstrom. Verbraucher im elektrischen Energieversorgungsnetz beziehen elektrische Energie und geben sie z. B. als thermische, mechanische, chemische Energie weiter. Vielfach speichern sie auch Energie, z. B. in Motoren als magnetische Feldenergie. Das Feld wird im Rhythmus der Netzwechselspannung auf- und wieder abgebaut, und die Energie wird bezogen und zurückgeliefert. Diese Energiependelung erzeugt Blindstrom, der Quelle und Netz belastet und vermieden werden soll. Dazu wird ein Schwingkreis aufgebaut: Einer Induktivität wird eine Kapazität parallelgeschaltet – oder umgekehrt. Das Zusatzbauteil wird so dimensioniert, dass die Resonanzfrequenz gleich der Netzfrequenz wird und dadurch ein möglichst hoher Scheinwiderstand entsteht. Diese Schaltungsmaßnahme wird Blindstromkompensation genannt. Schwingkreise als Ersatzschaltbilder. Neben Schwingkreisen gibt es viele weitere elektronische Konstruktionen, die in Anwendungen an Stelle von Schwingkreisen eingesetzt werden (besonders bei sehr hohen Frequenzen). Siehe hierzu Lecherleitung, Topfkreis, Hohlraumresonator, aber auch Antennendipol. Die physikalische Funktion dieser Konstruktionen basiert meist auf der Nutzung von stehenden Wellen und unterscheidet sich damit grundsätzlich von der physikalischen Funktion eines Schwingkreises. Für derartige Konstruktionen werden häufig Ersatzschaltbilder in Form elektrischer Schwingkreise angegeben, die eine vereinfachte, angenäherte Berechnung ihres Verhaltens erlauben. Ersatzschaltbilder mit ihren idealen elektronischen Bauelementen bilden lediglich das Verhalten der „ersetzten“ Konstruktion nach, nicht jedoch ihre physikalische Wirkungsweise. Deshalb lassen sich die Werte der Bauelemente in diesen Ersatzschaltbildern in der Regel nicht aus dem physikalischen Aufbau (wie den geometrischen Abmessungen) der ersetzten Konstruktion ableiten, sondern nur aus ihrem Verhalten (wie der Resonanzfrequenz). Messgerät. Die Resonanzfrequenz von Schwingkreisen im MHz-Bereich kann mit einem Dipmeter gemessen werden. Schrift. Das Wort Schrift steht unter anderem für Zeichensysteme zur Bewahrung und Weitergabe von gesprochener oder anders kodierter Information. Vormals per Hand geschrieben und nur (visuell) lesbar oder (haptisch) erfassbar, können heutige Niederschriften oder Schriftstücke auch in für Menschen nicht unmittelbar nutzbarer Form vorliegen, um über technisches Gerät lesbar gemacht zu werden oder gar der Steuerung des Gerätes selbst zu dienen. Generell wird Schrift auf einem Träger (z. B. Papier, digitaler Speicher) notiert (geschrieben oder auf eine andere Weise auf den Träger gebracht) und zur Nutzung dekodiert (abgelesen, z. B. zur geistigen Aufnahme oder zur Steuerung eines Geräts). Schrift als Entsprechung zu Sprachen. In der Schriftlinguistik wird zwischen dem übersprachlichen Zeicheninventar, der "Schrift" oder dem "Skript" (engl. "script"), einerseits und der einzelsprachlichen Ausgestaltung, dem "Schriftsystem" (engl. "writing system"), andererseits unterschieden. Zum System gehört mindestens ein Regelapparat (Orthographie) und seine Basiseinheit ist das Graphem, während ein einzelnes Element des Skripts das Schriftzeichen (engl. "character") oder auch Symbol ist. Alphabet- und Silbenschriften beziehen sich auf Laute (phonographische Schrift). Das Verhältnis hängt von der jeweils niedergeschriebenen Sprache ab. Logogrammschriften sind hingegen zu gewissen Teilen semantographisch, also bedeutungsbasiert: Das Schriftzeichen hat eine bestimmte Bedeutung, möglicherweise ohne feste Aussprache, wenn es die sichtbare Welt abbildet (Piktogramm) oder ein abstraktes Konzept darstellt (Ideogramm). Bei den Alphabet- oder Segmentalschriften unterscheidet man zwischen Alphabetschriften im engeren Sinne und Konsonantenschriften. Diese werden wiederum danach unterschieden, ob die Vokale nicht, nicht notwendigerweise oder nicht auf gleicher Ebene wie die Konsonanten dargestellt werden. Dazwischen – und entsprechend mal dem einen, mal dem anderen Typ zugerechnet – stehen solche Schriften, in denen Vokale als obligatorische Hilfszeichen von Konsonanten auftauchen (wie in indischen Schriften). Diese sind also in gewisser Weise das Bindeglied zwischen Alphabetschriften im engeren Sinne und Konsonantenschriften; in gewisser Weise auch zu den Silbenschriften. Bei den Silbenschriften kann danach unterschieden werden, ob ihre Syllabogramme nach einem gemeinsamen Muster oder willkürlich (arbiträr) gebildet werden, und danach, ob sie ausreichen, um in einem Schriftsystem alle Sprechsilben der betreffenden Sprache ohne orthographische Kombinationsregeln darzustellen. Manche Sprachen nutzen mehrere Schriften nebeneinander oder auch gemischte Schriften, die Merkmale von zwei oder allen drei Systemen enthalten. Eine Besonderheit bilden die Geheimschriften, die zur verschlüsselten Informationsübertragung verwendet werden, sowie die Kurzschriften. Schriftklassen. Keine natürliche Sprache lässt sich eindeutig einer dieser Schriftklassen zuordnen. Deutsch besitzt eine eher grobe und unsystematische Zeichen-Phonem-Zuordnung, anders als Ungarisch, Tschechisch oder Spanisch. Das ist im Englischen noch drastischer, weswegen Schriftenglisch scherzhaft schon als Silbenschrift bezeichnet wurde (bekannt ist das englische Beispiel von George Bernard Shaw: „ghoti“ = „fish“; „gh“ wie in „enough“, „o“ wie in „women“, „ti“ wie in „nation“). Hebräisch hat die Darstellung von Vokalen durch ein Punktesystem mit aufgenommen, obwohl es eine rein konsonantische Schrift ist. Den Hieroglyphen sieht man die Herkunft aus einer Silbenschrift an, obwohl sie eine konsonantische Schrift bilden. Nur künstliche Schriftsysteme können eindeutig klassifiziert werden, wie das internationale phonetische Alphabet (IPA), Bopomofo zur Darstellung der chinesischen Phoneme oder die Verschriftung von Plansprachen wie Esperanto. Historische Entwicklung. a>s "Illustrierter Geschichte der Schrift", 1880) Vor der Entwicklung der Schrift war nur die mündliche Überlieferung von Wissensinhalten möglich. Sinnentstellungen sowie das Weglassen oder Hinzufügen von Inhalten sind bei der mündlichen Vermittlung zumeist unvermeidlich. Psychologische, soziale und kulturelle Faktoren spielen bei der mündlichen Überlieferung eine wesentliche Rolle. Weltweit wurden von jeher überlebenswichtige Informationen, aber auch geheimes Wissen, Rituale, Mythen, Legenden und Sagen mündlich weitergegeben (wie u. a. die Geschichte von der großen Sintflut), die einen ähnlichen Kern aufweisen, in ihren Details aber beträchtlich voneinander abweichen können. Auch heute noch existieren Kulturen, die Traditionen und Wissen nur mündlich weitergeben. Bei den Aborigines in Australien steht das mündliche Zeugnis sogar im Vordergrund, obwohl sie in engem Kontakt mit einer schreibenden Kultur stehen. Die wortwörtliche Weitergabe an nachfolgende Generationen trägt dazu bei, eigene Kultur und Werte zu bewahren, und charakterisiert zugleich eine Besonderheit dieser Kultur. Die Erfindung der Schrift gilt als eine der wichtigsten Errungenschaften der Zivilisation, da sie die Überlieferung von Wissen und kulturellen Traditionen zuverlässig über Generationen hinweg erlaubt, und deren Erhaltung (in Abhängigkeit von der Qualität des beschrifteten Materials und von anderen natürlichen, aber auch gesellschaftlichen Umstände) über einen langen Zeitraum ermöglichen kann. Alle bekannten frühen Hochkulturen (Sumer, Ägypten, Indus-Kultur, Reich der Mitte, Olmeken) werden mit der Verwendung der Schrift in Verbindung gebracht. Traditionell wird Sumer als die Kultur genannt, in der die Schrift erstmals verwendet wurde. Die wohl ältesten Schriftfunde stammen von dem Fundort Uruk aus Abfallschichten unter der sogenannten Uruk-III-Schicht. Sie werden somit ins 4. Jahrtausend vor Christus datiert. Es handelt sich dabei um Wirtschaftstexte. Die verwendete Schrift lässt allerdings keine Rückschlüsse auf die Sprache zu, es ist daher falsch, diese Schrift im strengen Sinne als sumerisch zu bezeichnen. Nur wenige Forscher glauben, dass es sich bei den Symbolzeichen der Vinča-Kultur in Südosteuropa, die in das 5. Jahrtausend v. Chr. datiert werden, um eine tatsächliche Schrift handelt. Die ägyptischen Hieroglyphen werden oft als eine aus Vorderasien importierte Idee angesehen; neuere Funde von Günter Dreyer in Ägypten stellen diese Lehrmeinung allerdings in Frage, und er vermutet eine eigenständige Erfindung. In China und Mittelamerika (Maya) wurde die Schrift ebenfalls unabhängig entwickelt. Beim ersten bekannten Schriftzeugnis Mittelamerikas handelt es sich um einen in Veracruz entdeckten Steinblock, in den insgesamt 62 Symbole eingeritzt sind; einige dieser Zeichen fanden sich auch auf Funden, die Forscher der Kultur der Olmeken zuordnen. Derzeit geht man davon aus, dass die zwölf Kilogramm schwere Schrifttafel rund 3000 Jahre alt ist. Der durch Belege abgesicherten Lehrmeinung über die Entstehung von Schriftsystemen in geografisch weitgehend getrennten Kulturen wird von einzelnen Wissenschaftlern und Privatgelehrten immer wieder in verschiedenen Varianten die These entgegengehalten, die ältesten bekannten Schriftsysteme seien aus einer älteren, teils gemeinsamen, global verbreiteten Zeichenschicht entwickelt worden (Herman Wirth, 1931–1936, "Die Heilige Urschrift der Menschheit", siehe auch Kate Ravilious, 2010, über Genevieve von Petzinger, in "The writing on the cave wall", u. a.). Belege dafür, die der wissenschaftlichen Kritik standhalten, sind bisher jedoch nicht vorgelegt worden. Ausprägungen von Schrift können direkte Übertragungen von einer Kultur zu einer anderen sein, etwa die Entwicklung des lateinischen aus dem griechischen Alphabet. In einigen Fällen hat die Bekanntschaft mit dem Schriftbesitz anderer Kulturen zur Entwicklung einer neuen Schrift geführt (z. B. die koreanische Schrift oder die Silbenschrift der Cherokee). Die Geschichte der Schrift ist nicht nur als eine Geschichte der Fixierung von Sprache zu sehen. Es ist damit zu rechnen, dass es auch eine eigene Geschichte der Symbole, Zeichen und Schriftzeichen gibt. Der uns heute bekannten Schrift gehen Felszeichnungen, z. B. in der Höhle von Lascaux, vor ca. 20.000 Jahren voraus. Auch dort wurden bereits abstrakte Zeichen verwendet, die wohl magischen und symbolischen Charakter hatten. Seit zehntausenden von Jahren benutzen Menschen diese Zeichen und Bilder, um Botschaften zu hinterlassen. Von Schrift kann allerdings erst gesprochen werden, wenn ein festgelegtes Zeichensystem zum Ausdruck für verschiedene Informationen zur Verfügung steht. Bereits in der Jungsteinzeit (Neolithikum) wurden Steine mit geometrischen Linien hergestellt, von denen die Forschung mit einiger Gewissheit sagen kann, dass sie zum Zählen dienten, der wahrscheinlich wichtigsten Grundlage einer echten Schriftentwicklung. Diese Steine wurden nach dem lateinischen Wort für Rechensteine "calculi" genannt, woraus das französische "calcul" (Rechnen, Rechnung) und das deutsche "kalkulieren" abgeleitet wurden. Entzifferung alter Schriften. Eine besondere Herausforderung stellt die Entzifferung alter Schriften dar. Oft gelingt sie, wenn ein Text mit Übersetzungen gefunden wird, oder wenn die Sprache oder ein Dialekt der Sprache bekannt ist. Schriftanordnung und andere graphische Klassifikationen. Griechisches Bustrophedon Man kann Schriften anhand der Schreibrichtung unterscheiden, und zwar waagerechte in linksläufige ("sinistrograd", zum Beispiel das Arabische und Hebräische), rechtsläufige ("dextrograd", das Lateinische) und bustrophedone (zeilenweise wechselnd) Schriften, sowie senkrechte in abwärts (Schriften des chinesischen Kulturkreises, mongolisch) und aufwärts (einige philippinische Schriften, historische Notation für Militärtrommel) geschriebene. Bei den senkrechten Schriften ist wiederum zu unterscheiden zwischen solchen, bei denen die Spalten von rechts nach links verlaufen (Chinesisch und andere) und solchen, bei denen die Spalten von links nach rechts verlaufen (Mongolisch). Bei waagerechten Schriften verlaufen die Zeilen in der Regel von oben nach unten. Die Seiten in Büchern werden so geblättert, dass bei linksläufigen Schriften von links nach rechts, bei rechtsläufigen von rechts nach links geblättert wird. Bei senkrecht geschriebenen Schriften entscheidet die Richtung der Spalten analog über die Richtung des Blätterns. In den meisten Schriften dehnen sich die Zeichenkorpora in einem festen Bereich zwischen zwei (oder mehr) gedachten oder vorgezeichneten Linien aus. So lassen sie sich danach einteilen, ob die Grundlinie oben (zum Beispiel Devanagari), unten (Kyrillisch), mittig (frühes Griechisch) oder oben und unten (Chinesisch) verläuft. Hinzu kommt die Unterscheidung nach Zeichen mit variabler (Arabisch) und fester Breite (Chinesisch). Eine andere Unterscheidung, die gelegentlich verwendet wird, ist die zwischen "Linearschriften", also solchen, deren Zeichen aus Linien bestehen, und anderen (zum Beispiel Punkt-/Brailleschrift oder Keilschrift). Schriftklassifikation. In der westlichen Welt gibt es verschiedene Schriftklassifikationsmodelle, die voneinander teilweise erheblich abweichen. Davon sind in Deutschland insbesondere zwei Modelle gebräuchlich. DIN 16518. Die Schriftklassifikation entspricht dabei der historischen Entwicklung und berücksichtigt besonders detailliert die im deutschen und westeuropäischen Sprachbereich üblichen lateinischen Schriften. In anderen Ländern gibt es vergleichbare Einteilungen. Da das DIN-Modell nicht perfekt ist, gibt es viele weitere Versuche einer Schriftklassifikation. 1998 stellte Indra Kupferschmid ihre Klassifikation nach Formprinzip im DIN-Ausschuss vor. Diese Einteilung wurden später von Max Bollwage und Hans Peter Willberg in ihre Bücher übernommen. Sie unterscheidet die Schriften nach ihrem Formprinzip (Stil) in dynamische, statische, geometrische und dekorative Schriften und ihrer Ausstattung mit Serifen und Strichkontrast. Der Willberg-Schüler Ralf de Jong hat eine darauf aufbauende, weiterführende Matrix entwickelt. Schlüssel (Kryptologie). Der Schlüssel ist die zentrale Komponente, um einen Geheimtext zu entschlüsseln und so den Klartext zu gewinnen Als Schlüssel wird in der Kryptologie allgemein eine Information bezeichnet, die einen kryptographischen Algorithmus parametrisiert. Im einfachsten Fall, bei den meisten symmetrischen Verfahren der klassischen Kryptographie wie beispielsweise der Vigenère-Chiffre oder dem Playfair-Verfahren, handelt es sich dabei um ein Kennwort, das benutzt wird, um einen Klartext zu verschlüsseln und einen Geheimtext zu erhalten. Umgekehrt wird dieses Kennwort erneut als Schlüssel benötigt, um aus dem Geheimtext durch Entschlüsselung wieder den Klartext zu gewinnen. Bei modernen, computerbasierten symmetrischen und auch asymmetrischen Verfahren ist der Schlüssel hingegen eine Bitfolge. Prinzip. Im Jahr 1883 formulierte Auguste Kerckhoffs seine Maxime, nämlich, dass die Sicherheit eines kryptographischen Verfahrens nicht von der Geheimhaltung des Algorithmus, sondern nur von der Geheimhaltung des verwendeten Schlüssels abhängen darf (Kerckhoffs’ Prinzip). Der Schlüssel beinhaltet bei einem symmetrischen Verfahren (andere waren zu seiner Zeit noch nicht bekannt) die Information, die geheim bleiben muss, während der Algorithmus, also das Verschlüsselungsverfahren selbst, öffentlich bekannt sein darf. Bei asymmetrischen Verschlüsselungsverfahren, auch als "„Public-Key-Kryptographie“" bezeichnet, übernimmt die Rolle des Geheimnisses der "private Schlüssel", während der dazugehörige "öffentliche Schlüssel" allgemein bekannt ist. Schlüssel bei symmetrischen Verfahren. Bei symmetrischen Verfahren, also bei allen klassischen Methoden der Kryptographie und auch bei modernen Algorithmen wie beispielsweise dem Data Encryption Standard (DES) oder seinem Nachfolger, dem Advanced Encryption Standard (AES), verwenden beide Kommunikationspartner denselben (geheimen) Schlüssel sowohl zum Ver- als auch zum Entschlüsseln. Während klassische Methoden, bei denen der Text von Hand verschlüsselt und entschlüsselt werden muss, als Schlüssel fast immer ein Kennwort benutzen, besteht der Schlüssel bei modernen, also computerbasierten, symmetrischen Verfahren zumeist aus einer Bitfolge. Die Sicherheit eines Verfahrens hängt außer vom Algorithmus selbst von der Schlüssellänge ab. Wenn gegen ein Verfahren ein Angriff gefunden wird, der effizienter ist als die Brute-Force-Methode, das Ausprobieren aller möglichen Schlüssel, gilt das Verfahren als gebrochen. Die Schlüssellänge gibt bei einem sicheren Verfahren also direkt das Sicherheitsniveau an. Schlüssel bei asymmetrischen Verfahren. Asymmetrische Verfahren, wie beispielsweise das RSA-Kryptosystem, verwenden Schlüsselpaare, die aus einem öffentlichen Schlüssel () und einem privaten Schlüssel (engl., auch „geheimer Schlüssel“) bestehen. Der öffentliche Schlüssel ist nicht geheim, er soll möglichst vielen anderen Benutzern bekannt sein, beispielsweise durch Verteilung über Schlüsselserver. Mit ihm können öffentliche Operationen durchgeführt werden, also Nachrichten verschlüsselt oder digitale Unterschriften geprüft werden. Dabei ist es wichtig, dass ein öffentlicher Schlüssel eindeutig einem Benutzer zugeordnet werden kann. Ist das nicht der Fall, wird etwa eine Nachricht mit dem Schlüssel eines anderen Benutzers verschlüsselt, der die Nachricht dann lesen kann, obwohl sie nicht für ihn bestimmt war. Um Schlüssel leicht benennen zu können, benutzt man einen Fingerabdruck, einen kurzen Hashwert, der einen Schlüssel eindeutig identifiziert. Um einen Geheimtext wieder zu entschlüsseln oder eine Nachricht zu signieren, wird der private Schlüssel benötigt. Im Gegensatz zu symmetrischen Verfahren, bei denen sich mehrere Benutzer einen geheimen Schlüssel teilen, verfügt bei asymmetrischen Verfahren nur ein Benutzer über den privaten (geheimen) Schlüssel. Dieser Umstand ermöglicht es erst, eine Signatur eindeutig einem Benutzer zuzuordnen. Daher ist es grundlegend, dass der private Schlüssel nicht aus dem öffentlichen abgeleitet werden kann. Kennwörter. Besonders vorteilhaft bei der Wahl eines Kennworts wie beispielsweise „BieneMaja“ als Schlüssel ist, dass es leicht zu merken ist. Diese einfache Art eines Schlüssels wird oft auch als "Passwort" (engl.: "„password“"), oder im militärischen Sprachgebrauch als "Parole" (von ital. "„la parola“", deutsch: „das Wort“) bezeichnet. Für moderne Ansprüche an die Sicherheit ist die Wahl eines solch einfachen Schlüssels nicht ausreichend, da er zu kurz ist, daher durch systematisches Ausprobieren (Brute-Force-Methode) gefunden werden kann, und außerdem aus Wörtern besteht und daher auch relativ leicht zu erraten ist beziehungsweise durch einen Wörterbuchangriff gefunden werden kann. Um dagegen resistent zu sein, sollte ein „sicheres“ Kennwort möglichst lang sein und aus einer ungewöhnlichen Zeichenfolge bestehen, beispielsweise auch Ziffern und Sonderzeichen enthalten, so dass es nicht mehr leicht erraten werden kann. Allerdings lässt es sich dann zumeist auch nicht mehr leicht merken. Wenn es deshalb in irgendeiner Weise notiert oder gespeichert wird, besteht die Gefahr, dass es möglicherweise ausspioniert werden kann, womit die vermeintlich geheime Kommunikation kompromittiert wäre. Schlüssel. Ein Schlüssel ist ein Werkzeug zum Öffnen eines Schlosses, z. B. eines Türschlosses. Dazu wird der Schlüsselbart in ein Schlüsselloch eingeführt und der Schlüssel umgedreht. Die Benutzung von Schlüsseln ist eine alte und heute noch sehr oft genutzte Methode des Einbruchschutzes und der Zutrittskontrolle. Der Griff des Schlüssels (Schlüsselgriff) wird auch als "Räute, Reite" oder "Reide" bezeichnet. Diese konnte in früheren Zeiten reich verziert sein, ist heute allenfalls in farbigen Kunststoff eingefasst. Als weiteres Zierelement kann eine Schlüsselquaste an der Räute hängen. Jener Teil des Schlüssels, der beim Schließen die Verschlussvorrichtung erfasst, heißt "Bart". Jeder Schlüssel hat einen individuellen Bart. Der Bart ist am "Halm" befestigt. Der Halm kann noch eine Bohrung aufweisen. Um ein Durchschieben des Schlüssels zu verhindern, ist manchmal eine Verdickung am Halm (Ansatz) angebracht. Das alles soll gewährleisten, dass das entsprechende Schloss nur mit diesem oder einem baugleichen Schlüssel aufgeschlossen werden kann. Denn die Aufgabe eines Schloss-Schlüsselsystems ist der Schutz eines Raumes, eines Fahrzeuges oder anderer Gegenstände vor unbefugtem Betreten, Benutzen oder anderweitigem Zugriff. Schlüssel sind Gegenstände des täglichen Bedarfs. Sie bestanden anfangs aus Holz, später – wie heute fast ausschließlich – aus Metall. Sie sind meist mit einem Schlüsselring verbunden und so häufig mit mehreren Schlüsseln zu einem Schlüsselbund zusammengefasst. Schlüssel, die für den bedarfsweisen Gebrauch durch mehrere berechtigte Personen gedacht sind, werden oft in einem Schlüsselkasten aufbewahrt. Geschichte. Römischer Schlüssel aus Bronze, ca. 6,6 cm lang Schlüssel wurden schon in der Antike verwendet. Zum ersten Mal in der Literatur wird ein Schlüssel in der Odyssee beschrieben. Laut Homer wurde ein hölzerner Riegel von außen durch einen Strick in die Schließstellung gebracht, der Strick wurde anschließend kunstvoll verknotet. Um das Tor öffnen zu können, musste der Strick entknotet werden, damit man anschließend den Riegel durch einen kurbelähnlichen Stab - den Schlüssel - zurückschieben konnte. Bei den Ausgrabungen in Pompeji wurden Drehschlüssel gefunden, die modernen einfachen Schlüsseln ähneln. Neben diesen Schlüsseln in der heutigen Form, die einzeln oder an einem Bund befestigt werden konnten, gab es auch Schlüsselringe, die wie ein Schmuckring am Finger getragen werden konnten. Es gab schon im Mittelalter sehr komplizierte Bartschlüssel-Systeme mit aufwendig geformten oder mehrfachen Bärten, die von Feinschmieden hergestellt wurden und anfällig gegenüber Gewaltanwendung waren. Generalschlüssel. Mit einem Generalschlüssel können mehrere verschiedene Schlösser entsperrt werden. Bezeichnet wird er auch als Hauptschlüssel, Zentralschlüssel oder "Passepartout" (von franz. ' ‚durchgehen‘ und ' ‚überall‘). Der berechtigte Nutzer eines Schlüssels hat die "Schlüsselgewalt" inne. Neubauschlüssel. Unter einem Neubauschlüssel versteht man ein Werkzeug, mit dem sich Türen ohne Beschlag und Klinke öffnen lassen. Schlagschlüssel. Das nebenstehende Bild zeigt sogenannte Schlagschlüssel. Die Profilkerben sind alle einheitlich auf der tiefsten Stelle. Mit solchen Schlüsseln und einer besonderen Schlagtechnik kann man die meisten Schließzylinder öffnen. Schlüsseldienste haben üblicherweise solche Spezialschlüssel im Werkzeugkasten. Mechanische Schlüssel. Es gibt Buntbart- und Zylinderschloss-Schlüssel. Tresorschlösser lassen sich zum Teil nur durch die Einführung von zwei oder mehr Schlüsseln, die jeweils verschiedene Personen besitzen, aufschließen. Damit ist bei der Öffnung der Tür kein Benutzer allein. Ferner gibt es Bohrmuldenschlüssel bzw. Wendeschlüssel. Hier wird der Rohling seitlich unterschiedlich tief angebohrt, das Bohrbild ist auf beiden Seiten identisch – der Schlüssel schließt, egal wie man ihn in den Zylinder einführt. Besondere Autoschlüssel. Autoschlüssel (Zündschlüssel) sehen den gezackten Bartschlüsseln häufig ähnlich und sind meist von der Form her symmetrisch. Es existieren auch spezielle Schlüsselformen, wie zum Beispiel jene von Ford. Schlüssel von Renault haben vorne im Bart ein kleines Loch. Berliner Schlüssel/Durchsteckschlüssel. Der Berliner Schlüssel oder Durchsteckschlüssel ist ein Schlüssel mit zwei Bärten. Er wird eingesetzt, damit Hausbewohner dazu gezwungen werden, nach dem Betreten oder Verlassen des Hauses wieder abzuschließen. Man muss erst normal aufschließen und schiebt den Schlüssel dann durch das Schlüsselloch. Nachdem man dann von innen abgeschlossen hat, kann man den Schlüssel wieder abziehen. Das System wurde 1912 von dem Berliner Schlüsselmacher Johann Schweiger erfunden. Der Berliner Schlüssel war in der ersten Hälfte des 20. Jahrhunderts verbreitet, heute ist er jedoch kaum noch in Gebrauch. Elektronische Schlüssel. Aktiv-Transponder in Kombination mit einem mechanischen Schlüssel Kopieren von Schlüsseln. Schlüssel älterer Schließsysteme, sogenannte Bartschlüssel, wurden stets gemeinsam mit dem Schloss hergestellt. Nachschlüssel ließen sich durch Feilen einer weitgehend mit einer Vorlage identischen Kopie erzeugen. Fehlt die Vorlage, z. B. weil sie der Schlüsselinhaber nicht herausgegeben hat, ist es möglich, die Kopie anhand eines Abdruckes herzustellen, der von der Vorlage in weichen Ton, Knetmasse oder Gips gemacht wird. Die Kopie wird dann so lange befeilt und bearbeitet, bis der Nachschlüssel bequem in den Abdruck passt. Bartschlüssel müssen dabei allgemein nicht sehr passgenau sein, da in vielen älteren Schlössern der Bart allein durch seine Form bestimmt, ob er in das Schloss passt, der Schließvorgang jedoch von der Form des Schlüssels weitgehend unabhängig funktioniert. Heute lassen sich viele einfache Schlüssel, die großflächig bei Wohnungstüren oder Gebrauchsräumen verwendet werden, immer noch mit einer Vorlage kopieren, die in eine Maschine eingespannt und abgetastet wird, wobei die Information auf ein Werkzeug übertragen wird, das einen Rohling bearbeitet. Dienstleister bieten diese Arbeit preisgünstig an und benötigen wenige Minuten dafür, sofern die passenden Rohlinge vorrätig sind. Die oberen beiden Bilder zeigen solche Maschinen. Modernere Schlüssel lassen sich nicht mehr auf diese Weise kopieren. Für ihre Herstellung werden entweder keine Rohlinge frei vertrieben oder man benötigt eine Kennziffer oder einen numerischen Code, der die nötigen Informationen zur Herstellung des Nachschlüssels enthält. Eine dazu passende Fräsmaschine zeigt das obere dritte Bild. Durch die Formatierung des Codes ist dieser nur im jeweils geltenden Schlüsselsystem (Typ oder Hersteller) brauchbar und lässt sich nicht auf andere Systeme oder Methoden übertragen. Der Code kann entweder eine Kennziffer eines vom Hersteller geheimgehaltenen Katalogs sein oder sich direkt auf Parameter des Schlüssels beziehen. So geben bei Schlüsseln, die bestimmte elektrische/leitende Eigenschaften haben oder in die Magnete implementiert sind, die Codes diese Eigenschaften an. Ohne Kenntnis des Katalogs oder der Bedeutung der kodierten Eigenschaften lässt sich auch im Besitz einer Vorlage nur sehr schwer bis überhaupt nicht ein Nachschlüssel erzeugen. Der Vorteil dieser Methode besteht darin, dass Nachschlüssel mit modernen Kommunikationsmitteln bestellt werden müssen und per Post geliefert werden können. Moderne Schlüsselsysteme bieten außerdem aufgrund der hohen Zahl der möglichen Schlüssel den Vorteil, dass durch Austauschen der Schließzylinder ein einzelner oder eine Teilmenge der umlaufenden Schlüssel unbrauchbar werden kann, die übrigen aber funktionsfähig bleiben. Die Hersteller bieten hier verschiedene Möglichkeiten an. Auch individuelle Schlüssel lassen sich erstellen, wobei angegeben werden kann, zu welchen Schlössern ein solcher Schlüssel passen darf. Man spricht dann von einer Schließanlage. Dieser Schließanlage ist eine Sicherungskarte beigelegt, mit der man unter Vorlage der Karte Nachschlüssel anfertigen lassen oder Erweiterungen der Schließanlage beauftragen kann. Mehrfachschlösser. Bei diesen Systemen lässt sich die Tür nur dann öffnen, wenn zwei oder mehr Schlüssel gleichzeitig zur Anwendung kommen, um sicherzustellen, dass die Tür nur von mehreren anwesenden Schlüsselinhabern gemeinsam geöffnet werden kann. Entweder sind mehrere Schlösser in die Tür eingebaut oder ein Schloss enthält mehrere Schließzylinder. Dann sind auch Kombinationslösungen möglich, bei denen z. B. mindestens zwei von drei Schlüsseln zum Öffnen benötigt werden. Aufgrund der aufwendigen Anfertigung dieser Schlösser werden sie heute zunehmend von elektronischen Sicherungseinheiten mit Zugangscodes abgelöst. Aus traditionellen Gründen sind sie aber noch bei Tresoren oder bei besonders gesicherten Räumen gebräuchlich. Bei neueren Bauarten betätigen die Schlüssel den eigentlich mechanischen Schließvorgang nicht mehr, sondern werden nur noch erkannt und setzen dann eingebaute, elektronisch gesteuerte Automatismen in Gang, was die Vergabe der Schlüssel erleichtert und Maßnahmen im Falle eines Schlüsselverlusts vereinfacht. Einzelne Schlüssel oder ihre Besitzer lassen sich aus dem Kreis der Zugangsberechtigten zurückziehen, ohne Umbauten am Schließsystem vornehmen zu müssen. Auch lässt sich für jeden Schlüsselinhaber festlegen, ob er die Tür allein oder in Begleitung öffnen darf. Im Gegensatz zum Zugangscode bieten diese Systeme einen höheren Schutz gegen Weitergabe, im Gegensatz zur Magnetkarte sind sie schwerer kopierbar, nicht versehentlich löschbar und mechanisch unempfindlicher im täglichen Gebrauch. Stalagmit. Kerzen- (C) und kegelförmiger Stalagmit (D) Ein Stalagmit ist der vom Boden einer Höhle emporwachsende Tropfstein, sein Gegenstück ist der von der Decke hängende Stalaktit (Eselsbrücken siehe Tropfstein). Von Stalagnat spricht man, wenn beide Typen zusammengewachsen sind. Ein Stalagmit ist ein Speleothem, bei dem durch auftropfendes kohlensäurehaltiges Wasser, das Calcit ablagert, ein Tropfstein entsteht, der verschiedene Formen annehmen kann. Die Intensität der Tropfstelle, aber auch die Fallhöhe des Tropfwassers und die Bodenbeschaffenheit haben Einfluss auf die Form des Stalagmits. So unterscheidet man die gleichmäßig schlanken Kerzenstalagmiten und die kegelförmigen Palmstammstalagmiten. Die Kerzenstalagmiten entstehen durch eine gleichmäßige Lösungszufuhr und können bei geringem Durchmesser mehrere Meter Höhe erreichen. Die kegelförmigen Stalagmiten entstehen durch eine sehr starke Sickerwasserzufuhr und können an der Basis mehrere Meter Durchmesser aufweisen, wie zum Beispiel der "Millionär" in der Sophienhöhle. Die Fallhöhe wiederum hat einen Einfluss auf das obere Ende des Tropfsteins. Ein gerundetes Ende entsteht bei geringer Fallhöhe des Wassers; bei zunehmender Fallhöhe wird das Ende flacher und kann im Extremfall nach innen gewölbt sein. Weiterhin gibt es Tropfsteinformen, die von diesen Grundwerten abweichen, wie etwa ein Stalagmit im Schulerloch, dessen Spitze als Wasserbecken ausgeformt ist, oder der "Vesuv" in der Eberstadter Tropfsteinhöhle, der durch kohlensäurehaltiges Wasser gebildet wurde, aber jetzt durch kohlensäurefreies Wasser langsam wieder abgetragen wird. Die Analyse von Stalagmiten kann das Ablagerungsgeschehen chronologisch erfassen und damit Rückschlüsse auf Paläoklimatologie und Vegetationsgeschichte erlauben. Stalaktit. Stalaktit (A) und Sinterröhrchen (B) Ein Tropfen an der Höhlendecke mit Kalkausscheidungen Ein Stalaktit ist der von der Decke einer Höhle hängende Tropfstein, sein Gegenstück ist der vom Boden emporwachsende Stalagmit (Eselsbrücken siehe Tropfstein). Beide Namen leiten sich aus dem altgriechischen στάλαγμα (gleichbedeutend mit σταλαγμός, „Tropfen“) ab. Wie alle Tropfsteinformationen entsteht der Stalaktit, wenn kohlensäurehaltiges Wasser in das Gestein eindringt und bedingt durch die Oberflächenspannung an der Decke eines Hohlraums Calcit ablagert. Das entstehende Material wird Sinter genannt. Tritt ein Tropfen aufgrund der Oberflächengestalt immer an exakt derselben Stelle aus, kann die Ablagerung die Form eines Ringes mit der Tropfengröße als Durchmesser bilden. Diese Formation kann zu einem Sinterröhrchen wachsen, auch "Makkaroni" genannt. Ein Stalaktit entsteht dadurch, dass Tropfen nicht mehr im Inneren des Röhrchens, sondern auf seiner Außenseite ablaufen und Kalzit ablagern − das Dickenwachstum hat eingesetzt. Bei der Untersuchung eines Stalaktiten kann das Sinterröhrchen im Inneren oft noch nachgewiesen werden. Es gibt auch seltenere Formen, bei denen ein Stalaktit ohne vorheriges Sinterröhrchen wächst, hier spielt die Oberflächengestalt der Höhlendecke die entscheidende Rolle, damit das Dickenwachstum ohne Leitstruktur beginnt. Die Größe eines Stalaktits ist durch sein Eigengewicht begrenzt, das ihn irgendwann von der Decke reißt. Ein Stalaktit ist immer deutlich schlanker als ein Stalagmit am Boden. Wächst der Stalaktit schließlich mit dem Stalagmit zusammen, bildet sich eine Tropfsteinsäule, Stalagnat genannt. Der mit mehr als sieben Metern größte bisher entdeckte Stalaktit Europas befindet sich in der "Doolin Cave" im County Clare, Irland. Er wurde in den 1950er-Jahren von zwei Abenteuerlustigen entdeckt und im Jahr 2006 der Öffentlichkeit zugänglich gemacht. Stalaktiten und andere Tropfsteinformen können sich auch an älteren Bauwerken bilden, wenn Calciumhydroxid aus Zement oder Beton gelöst wird und dann mit dem Kohlendioxid der Luft reagiert (Beschreibung und Experimente siehe Literatur). Statistische Signifikanz. Unterschiede zwischen Messgrößen oder Variablen in der Statistik werden als signifikant oder bedeutsam bezeichnet, wenn die Wahrscheinlichkeit, dass sie durch Zufall derart zustande kommen würden, eine zuvor festgelegte Schwelle nicht überschreitet und deshalb ein überzufälliger Zusammenhang angenommen wird. Überprüft wird Signifikanz durch statistische Tests, die so gewählt werden müssen, dass sie dem Datenmaterial und den zu testenden Parametern bezüglich der Wahrscheinlichkeitsfunktion entsprechen. Nur dann ist die mathematisch korrekte Abschätzung des Überschreitens einer bestimmten Irrtumswahrscheinlichkeit anhand des p-Werts möglich. Vor der Durchführung des eigentlichen Tests muss abhängig von der Bedeutung der untersuchten Fragestellung das Gewicht bemessen werden für den Fall, dass irrtümlich angenommen wird, der geprüfte Zusammenhang sei nur zufällig. Danach wird der kritische Wert für die Schwellenhöhe festgelegt, die "maximal zulässige Irrtumswahrscheinlichkeit", beispielsweise auf 5 %. Diese Wahrscheinlichkeit wird als Signifikanzniveau "formula_1" bezeichnet. So bedeutet formula_2: Falls die Nullhypothese richtig ist, darf die Wahrscheinlichkeit dafür, dass diese anhand des Testergebnisses abgelehnt wird (sogenannter Fehler 1. Art), nicht mehr als 5 % betragen. Entsprechend beträgt die Wahrscheinlichkeit, eine richtige Nullhypothese aufgrund des Tests nicht abzulehnen, formula_3, mindestens 95 %. Auch aus einem statistisch nicht signifikanten Unterschied kann man keine definitiven Schlüsse ziehen. Aber in diesem Fall ist meist noch nicht einmal die Wahrscheinlichkeit eines Fehlers 2. Art, formula_4, eine falsche Nullhypothese für richtig zu halten, bekannt. Allgemeiner verstanden beschreibt statistische Signifikanz den möglichen Informationsgehalt eines Ereignisses bzw. einer Messung vor dem Hintergrund zufälliger Verteilungen als Wahrscheinlichkeit. Je kleiner formula_1 ist, desto höher ist dann die Informationsqualität. Irrtumswahrscheinlichkeit und Signifikanzniveau. In den oben genannten Beispielen kann man sich nicht sicher sein, dass der Zufall die Ergebnisse nicht beeinflusst hat. Man kann jedoch abschätzen, wie wahrscheinlich es ist, dass die gemessenen Ergebnisse auftreten, wenn nur der Zufall wirkt. Dieser zufällige Fehler wird allgemein als Fehler 1. Art (synonym: formula_1-Fehler) bezeichnet und die Wahrscheinlichkeit seines Auftretens – unter der Voraussetzung, dass die Nullhypothese richtig ist – als "Irrtumswahrscheinlichkeit". Bei einem parametrischen Modell hängen die Wahrscheinlichkeiten für die verschiedenen Fehlschlüsse vom unbekannten Verteilungsparameter formula_7 ab und können mit Hilfe der Gütefunktion des Tests angegeben werden. Die "obere Grenze für die Irrtumswahrscheinlichkeit", also jener Wert, den man für die Wahrscheinlichkeit eines Fehlers 1. Art noch eben zu akzeptieren bereit ist, heißt "Signifikanzniveau". Grundsätzlich ist dies frei wählbar; häufig wird ein Signifikanzniveau von 5 % verwendet. Die Etablierung dieses Wertes wird verschiedentlich R. A. Fisher zugeschrieben. In der Praxis bedeutet dieses Kriterium, dass im Schnitt eine von 20 Untersuchungen, bei denen die Nullhypothese richtig ist (z. B. ein Medikament tatsächlich wirkungslos ist), zu dem Schluss kommt, sie sei falsch (z. B. behauptet, das Medikament erhöhe die Heilungschancen). Die "Höhe" der Signifikanz eines Ergebnisses verhält sich also "entgegengesetzt zum Zahlenwert des" Signifikanz"niveaus" – ein niedriges Signifikanz"niveau" entspricht einer hohen Signifikanz und umgekehrt. Im Gegensatz zur Fisherschen Auffassung von Signifikanz als Gradmesser für den Wahrheitsgehalt einer Hypothese ist im Kontext einer klassischen strikten Neyman-Pearson-Testtheorie eine nachträgliche Einstufung des Testergebnisses in unterschiedliche Grade der Signifikanz nicht vorgesehen. Aus dieser Sicht sind auch keine „hochsignifikanten“ oder „höchstsignifikanten“ Ergebnisse möglich – zusätzliche Informationen (beispielsweise der p-Wert) müssten anders angegeben werden. Auch bei statistisch signifikanten Aussagen ist stets eine kritische Überprüfung der Versuchsanordnung und -durchführung notwendig. Nur selten genügen wissenschaftliche Untersuchungen z.B. den mathematischen Anforderungen an einen aussagefähigen statistischen Test. Bei vielen Studien steht der Wunsch des oder der Studiendurchführenden (z. B. im Rahmen einer Doktorarbeit) nach einem „signifikanten“ Ergebnis bei der Studiendurchführung zu sehr im Vordergrund. Untersuchungen, bei denen die Nullhypothese bestätigt wird, werden nämlich gemeinhin als uninteressant und überflüssig angesehen. Weiterhin ist das Studiendesign entscheidend. Als Hinweise auf die Qualität einer Studie können (z.B. im medizinischen Umfeld) die Eigenschaften „randomisiert“, „kontrolliert“ und „doppelblind“ gelten. Ohne diese sind Aussagen etwa zur Wirksamkeit von Therapien mit äußerster Vorsicht zu behandeln. Bei häufig durchgeführten, weniger aufwändigen Studien besteht weiterhin die Gefahr, dass zum Beispiel von zwanzig vergleichbaren Studien nur eine einzige – eben die mit positivem Ergebnis – veröffentlicht wird, wobei allerdings deren Signifikanz tatsächlich nur zufällig erreicht wurde. Dieses Problem ist die wesentliche Ursache des Publikationsbias (s.u.). Problematisch ist insbesondere auch die Interpretation signifikanter Korrelationen in retrospektiven Studien. Zu bedenken ist darüber hinaus stets, dass aus statistisch signifikanten Korrelationen oft fälschlich auf eine vermeintliche Kausalität geschlossen wird (Beispiel: Zwischen 1960 und 1990 korrelierte die Zahl der Störche in Deutschland signifikant mit der menschlichen Geburtenrate, da beide Zahlen stark gesunken sind; dennoch werden Kinder nicht vom Storch gebracht). Aussagewert und Power. Auch bei Studien, die statistisch signifikant sind, kann der praktische Aussagewert gering sein. Studien mit großer Fallzahl führen aufgrund der hohen statistischen Power (Teststärke) oft zu hoch signifikanten Ergebnissen. Solche Studien können trotzdem einen geringen Aussagewert haben, wenn die Größe des beobachteten Effekts oder der gemessene Parameter nicht relevant sind. Statistische Signifikanz ist also ein notwendiges, aber kein hinreichendes Kriterium für eine praktisch auch relevante Aussage. Für die Beurteilung der Relevanz ist die Effektstärke (Effektgröße) ein wichtiges Hilfsmittel. Irrige Annahmen. Signifikanz ist entgegen einer weit verbreiteten Meinung nicht mit der Irrtumswahrscheinlichkeit gleichzusetzen, auch wenn im Output mancher Statistikprogramme (z. B. SPSS) die Irrtumswahrscheinlichkeit missverständlich als „Sig.“ oder „Signifikanz“ bezeichnet wird. Richtig ist es, von „signifikant“ zu sprechen, wenn die Irrtumswahrscheinlichkeit für das gewonnene Ergebnis einer bestimmten Studie nicht über dem zuvor festgelegten Signifikanzniveau liegt. Doch ist es möglich, dass eine Wiederholung dieser Studie mit demselben Design und unter sonst gleichen Bedingungen bei der erneuten Stichprobe ein Ergebnis liefern würde, für das die Irrtumswahrscheinlichkeit über dem Signifikanzniveau läge. Die Wahrscheinlichkeit für diesen Fall hängt bei zufällig verteilten Variablen vom gewählten Signifikanzniveau ab. Nicht selten wird das Wort "signifikant" mit der Bedeutung ‚deutlich‘ gebraucht. Eine "statistisch signifikante" Änderung muss allerdings nicht notwendigerweise auch deutlich sein, sondern nur eindeutig. Es kann sich also durchaus um eine geringfügige Änderung handeln, die eindeutig gemessen wurde. Bei genügend hoher Anzahl an Messungen wird jeder (existierende) Effekt statistisch signifikant gemessen werden, so klein und unbedeutend er auch sein mag. Nicht zutreffend sind ferner die Annahmen, das Signifikanzniveau beziehungsweise der beobachtete p-Wert lege fest Wissenschaftliches Publizieren. Vielfach wurde die Signifikanz als Maß dafür genommen, ob ein wissenschaftlicher Artikel veröffentlicht werden sollte. Dies führt jedoch zum sogenannten „Publikationsbias“, da mögliche Zufallsergebnisse nicht durch Publikation der gesamten Bandbreite der durchgeführten Untersuchungen relativiert werden. Die Herausgeber der "Zeitschrift für Sozialpsychologie" erklärten hingegen ausdrücklich, dass die Annahme von Artikeln in ihrer Zeitschrift nicht von der Signifikanz der Ergebnisse abhängt, da die Redaktion einen Kontrapunkt zu dem Ausbreiten des Fehlers 1. Art schaffen wolle. In der Publikation von Ergebnissen klinischer Studien sind derzeit Anstrengungen durch internationale Fachzeitschriften wie auch der forschenden Institutionen (insbesondere Pharmaunternehmen) im Gange, öffentlich zugängliche Datenbanken zu schaffen, in welchen verbindlich alle durchgeführten Studien sowie ihre prospektiv definierten Zielparameter enthalten sind. Dadurch sollen die Komplettheit der Veröffentlichung auch nicht vorhergesehener bzw. unerwünschter – und daher für ein Pharmaunternehmen unangenehmer – Resultate überprüfbar und eine Einschätzung des Publikationsbias möglich werden. Signifikanz und Kausalität. Die Signifikanz sagt nichts über die möglichen kausalen Zusammenhänge aus oder deren Art; oft wird dies übersehen. Als Beispiel: Eine Statistik hätte gezeigt, dass in der Umgebung einer Chemiefabrik eine bestimmte Krankheit besonders häufig aufgetreten ist, und zwar so, dass der Unterschied zur normalen Verteilung dieser Erkrankung in der Gesamtbevölkerung signifikant ist. Doch würde dieser statistisch signifikante Zusammenhang nicht zwingend bedeuten, dass die Chemiefabrik mit der erhöhten Erkrankungshäufigkeit ursächlich zu tun hat. (1) Denn denkbar wäre auch, dass die Umgebung jener Chemiefabrik eine unbeliebte Wohngegend ist und daher dort überwiegend finanziell schwache Familien wohnen, die sich einen Wegzug nicht leisten können. Meist ernähren sich finanziell schwache Familien eher schlechter und haben in der Regel auch eine schlechtere Gesundheitsvorsorge als der Bevölkerungsdurchschnitt; eine Reihe von Krankheiten wird dadurch begünstigt, womöglich gerade die in Rede stehende. (2) Ebenso denkbar wäre, dass die Krankheit in manchen Gebieten z. B. durch Überschreiten einer gewissen Bevölkerungsdichte und der damit verbundenen erhöhten Ansteckungsgefahr gehäuft auftritt; und nur zufällig steht die Chemiefabrik nun in einem solchen Gebiet mit höherem Auftreten dieser infektiösen Erkrankung. Im ersten gedachten Fall könnte also ein kausaler Zusammenhang vorliegen; es wäre jedoch ein anderer als der, welcher mit Blick auf die statistische Untersuchung angenommen werden möchte. Die Kausalität könnte auch derart sein, dass diese Chemiefabrik gerade da gebaut wurde, wo viele sozial schwache Familien wohnen (z. B. weil diese sich mangels Lobby weniger gut gegen die Ansiedlung einer Fabrik wehren konnten als die wohlhabenderen Bewohner anderer Wohngegenden oder da ihre Mitglieder als mögliche Ware Arbeitskraft im Preis günstiger erschienen bei der Wahl des Standortes). Die Chemiefabrik ohne weitere Indizien als Ursache der gehäuften Krankheitsfälle anzusehen, wäre also ein logisch falsch gefolgerter Schluss der Art „"cum hoc ergo propter hoc"“. Im zweiten gedachten Fall läge keinerlei kausaler Zusammenhang vor; vielmehr würde der sogenannte Zielscheibenfehler begangen: Nachdem eine signifikante Häufung eines Ereignisses (hier: der Krankheit) festgestellt wurde, wird ein anderes einigermaßen auffälliges Ereignis (nun: die Chemiefabrik) herangezogen und als mit dem ersten kausal zusammenhängend interpretiert. Oder noch einfacher:Ein irgendwo als anders aufgefallenes Etwas wird wohl etwa mit irgendwas auffällig Anderem zusammenhängen – irgendwie, am liebsten: kausal und "ad hoc" (hier nun –»"cum ergo propter"«– nun hier). Staufer. a> (Weingartener Fassung, 1167 begonnen, das Bild wurde 1179 hinzugefügt) Die Staufer (früher gelegentlich auch "Hohenstaufen" genannt) waren ein Adelsgeschlecht, das vom 11. bis zum 13. Jahrhundert mehrere schwäbische Herzöge und römisch-deutsche Könige und Kaiser hervorbrachte. Der nicht zeitgenössische Name "Staufer" leitet sich von der Burg Hohenstaufen auf dem am Nordrand der Schwäbischen Alb bei Göppingen gelegenen Berg Hohenstaufen ab. Die bedeutendsten Herrscher aus dem Adelsgeschlecht der Staufer waren Friedrich I. ("Barbarossa"), Heinrich VI. und Friedrich II. Die Anfänge. Die frühesten staufischen Grafen sollen von den Grafen des Riesgaus abstammen, die Sigihard und Friedrich hießen. Sie wurden im Jahr 987 in einer Urkunde des Kaisers Otto III. erwähnt. Vermutlich waren sie mit den bayerischen Sieghardingern verwandt. Aus einer genealogischen Aufstellung des 12. Jahrhunderts, die Friedrich Barbarossa anfertigen ließ, ist der Name des ersten namentlich bekannten Staufers bekannt. Er trug den Namen Friedrich, den Leitnamen des Adelsgeschlechts. Von ihm ist lediglich bekannt, dass seine Schwester mit einem Berthold, Gaugraf im Breisgau, verheiratet war. Der Sohn dieses Friedrichs, der ebenfalls Friedrich hieß, wird in Urkunden für die Mitte des 11. Jahrhunderts als Pfalzgraf in Schwaben (1053–1069) genannt. Von dessen Sohn Friedrich von Büren ist als Herrschaftssitz bereits eine „Burg Büren“ bekannt, die vermutlich auf dem „Bürren“ nordöstlich des Ortes Wäschenbeuren im heutigen Landkreis Göppingen lag. Bekannte Heiratsverbindungen aus dieser Generation lassen darauf schließen, dass die Staufer bereits in der Mitte des 11. Jahrhunderts zu den einflussreichsten Adelsfamilien des südwestdeutschen Raumes zählten. Allerdings scheint der Landbesitz zu diesem Zeitpunkt eher gering gewesen zu sein; er beschränkte sich vermutlich auf Gebiete um Büren und Lorch sowie bei Hagenau und in und um Schlettstadt mit der staufischen Reichsburg Hohkönigsburg im Elsass. Das erste exakt nachweisbare Datum der Familiengeschichte und zugleich eine wichtige Station für den Bedeutungszuwachs der Staufer zu einer der wichtigsten Adelsfamilien des Reiches ist das Jahr 1079, als der salische Kaiser Heinrich IV. den Staufer Friedrich I. mit dem Herzogtum Schwaben belehnte und ihm seine Tochter Agnes zur Ehefrau gab. Friedrich I. errichtete die Burg Hohenstaufen und stiftete um 1102 das Kloster Lorch als Hauskloster der Familie. Er und seine Söhne Friedrich II. und Konrad III. mehrten das Eigengut der Familie. Zugleich wurden die Staufer wichtige Verbündete des salischen Kaiserhauses im Südwesten des Reiches. Der Name Staufer wurde von den Herrschern dieser Dynastie aber kaum herausgestellt; entscheidender war die mütterliche Verwandtschaft mit den Salierkaisern. Der Aufstieg zum Königtum. Nach dem Tod Kaiser Heinrichs V. im Jahr 1125, der das Ende des salischen Königshauses bedeutete, erhoben Friedrich und Konrad als Söhne Herzog Friedrichs I. von Schwaben und der Salierin Agnes von Waiblingen Anspruch auf die Königswürde. Friedrich II. stellte sich zur Wahl, unterlag jedoch Lothar von Supplinburg, unter dessen militärischer Führung Kaiser Heinrich V. vernichtend geschlagen worden war. Kurz darauf kam es zwischen dem neuen König und den Staufern zu Kämpfen um ehemaliges salisches Hausgut, das die Familie für sich beanspruchte. 1127 ließ sich Konrad, der seit 1116 auch den Titel eines „Herzogs von Franken“ führte, von schwäbischen und fränkischen Adligen zum Gegenkönig ausrufen, musste sich jedoch 1135 Lothar unterwerfen. Konrad III.. Nach Lothars Tod im Jahr 1137 wurde mit Konrad III. 1138 erstmals ein Staufer zum römisch-deutschen König gewählt. Konrad konnte sich dabei gegen den Welfen Herzog Heinrich den Stolzen, den Schwiegersohn und durch Übertragung der Reichskleinodien bereits designierten Nachfolger des verstorbenen Kaisers, durchsetzen. Noch im Jahr seiner Krönung verlangte Konrad von Heinrich den Verzicht auf eines seiner beiden Herzogtümer, Bayern (welches die Welfen seit 1070 innehatten) oder Sachsen (welches nach dem Tod Lothars an dessen Schwiegersohn Heinrich gegangen war). Nach Heinrichs Weigerung wurde dieser auf einem Hoftag in Würzburg geächtet; ihm wurden beide Herzogtümer aberkannt. Bayern wurde dem Babenberger Leopold IV. von Österreich (Halbbruder Konrads) verliehen, Sachsen ging an den Askanier Albrecht den Bären. Allerdings konnte Heinrich der Stolze bis zu seinem Tod (1139) seine Machtposition in Sachsen halten und für seinen noch unmündigen Sohn Heinrich den Löwen sichern; im Jahr 1142 wurde Heinrich der Löwe von Konrad als Herzog von Sachsen anerkannt, womit das Herzogtum wieder in welfische Hand gelangte. Der Konflikt mit den Welfen überschattete Konrads gesamte Regierungszeit und verhinderte auch einen frühen Italienzug zur Kaiserkrönung. In diesen Jahren bildeten sich europaweite Koalitionen, in denen Konrad ein Bündnis mit dem Byzantinischen Reich erreichte, indem er Bertha von Sulzbach, eine Schwester seiner Frau, mit dem byzantinischen Kaiser Manuel I. Komnenos vermählte; das Bündnis richtete sich zum einen gegen die normannischen Könige von Sizilien, andererseits gegen die Welfen. Letztendlich war diesem Bündnis jedoch weder in Deutschland noch in Italien Erfolg vergönnt. Konrads Kaiserkrönung in Rom wurde auch durch den (ergebnislosen) Zweiten Kreuzzug (1147–1149) verhindert, dem sich Konrad auf Drängen Bernhards von Clairvaux anschloss, vor allem aber durch die nachfolgenden innenpolitischen Auseinandersetzungen mit den Welfen. Obwohl Konrad nie zum Kaiser gekrönt worden war, trug er dennoch den Kaisertitel, vermutlich um seine Gleichrangigkeit gegenüber dem byzantinischen Kaiser zu betonen. Noch vor seiner Kreuzzugsteilnahme ließ Konrad seinen ältesten Sohn Heinrich zum deutschen König wählen; Heinrich starb jedoch bereits 1150 als 13-Jähriger. Sein zweiter Sohn Friedrich war 1152 erst sechs Jahre alt. Deshalb soll Konrad kurz vor seinem Tod seinen Neffen, den späteren Kaiser Friedrich Barbarossa, den Sohn seines älteren Bruders Herzog Friedrich II. von Schwaben, zum Nachfolger bestimmt haben. Dieser ernannte zum Ausgleich den jungen Friedrich zu seinem Nachfolger im Herzogtum Schwaben. Neben der sich weiter verschärfenden Auseinandersetzung mit den Welfen war Konrads Regierungszeit vor allem durch einen moderaten Ausbau der staufischen Hausmacht u.a. als Rechtsnachfolger der Grafen von Comburg-Rothenburg und durch das Knüpfen von Bündnissen mit zahlreichen Territorialherrschern (Askanier, Babenberger) geprägt. Dabei stießen die Staufer allerdings schnell an die von anderen Herrschaftsgebieten gesteckten territorialen Grenzen. Friedrich I. Barbarossa. Nach dem Tod Konrads im Jahr 1152 wurde mit Friedrich I., genannt „Barbarossa“, ein König gewählt, dem man den Ausgleich zwischen Welfen, mit denen er mütterlicherseits verwandt war, und Staufern zutraute. Tatsächlich kam es 1156 zu einer Einigung mit Heinrich dem Löwen, der nun Herzog von Sachsen und von Bayern war, von dem Österreich als eigenständiges Herzogtum unter den Babenbergern abgetrennt wurde. Außerdem wurde den Welfen im Norden des Reiches eine faktisch eigenständige Interessenssphäre zugewiesen. Erst als der Welfe nicht mehr bereit war, die ambitionierte Italienpolitik seines Vetters Barbarossa ohne Gegenleistung zu unterstützen, kam es zum Bruch und 1180 zur Absetzung des mächtigen Welfenherzogs. Nutznießer war aber nicht Barbarossa, sondern waren die Fürsten, die sich den zerschlagenen Herrschaftskomplex des Welfen aneigneten. Friedrich Barbarossa begann auf seinem ersten Italienzug 1154/55 eine große Restaurationspolitik in Italien (Reichstag von Roncaglia, Stichwort "honor imperii"), mit der er viele frühere kaiserliche Rechte (Regalien) den Städten wieder entziehen wollte. Dabei wurde der Konflikt zwischen Kaiser und Papst immer deutlicher. Barbarossa unternahm einige Italienzüge, mit denen er aber zu großen Teilen scheiterte. Zu dieser Zeit kam es zum sogenannten alexandrinischen Papstschisma, da sich der Kaiser gegen den von der Mehrheit des Kardinalskollegiums gewählten Papst Alexander III. stellte, der als kaiserfeindlich galt. In dem folgenden Machtkampf fand Alexander III. Unterstützung bei den nach Autonomie strebenden oberitalienischen Städten, die sich 1167 zum Lombardenbund zusammenschlossen. Barbarossa, der mehrere Gegenpäpste erheben ließ, konnte seine Ziele, die auf eine Unterwerfung der Städte und eine stärkere Unabhängigkeit vom Papsttum hinausgelaufen wären, wobei der Papst auf Rechte zu Gunsten des Kaisers hätte verzichten müssen, militärisch jedoch nicht durchsetzen, so dass er 1177 im Frieden von Venedig Alexander III. anerkannte und kurz darauf auch Frieden mit den lombardischen Städten schloss. Allerdings arrangierte Friedrich die Heirat seines zweitältesten Sohnes Heinrich mit der Normannenprinzessin Konstanze von Sizilien, der Tochter Rogers II. Auf dem Feld der Hausmachtpolitik gelangen Barbarossa einige Erfolge. So wurde 1156 die Pfalzgrafschaft bei Rhein unter seinem Halbbruder Konrad (bis 1195) staufisch und im Elsass und in Schwaben (wo seit 1167 Friedrichs drittältester Sohn Friedrich V. von Schwaben regierte) wurde das staufische Hausgut zentralisiert verwaltet. Es gelang Barbarossa sogar, das welfische Hausgut in Schwaben käuflich von Welf VI. zu erwerben. Nach 1167, dem Jahr der Malariakatastrophe vor Rom, gelang es Barbarossa, einige Güter ihm verpflichteter Grafenhäuser in Schwaben zu erwerben und daraus mit seinen alten Besitztümern ein relativ geschlossenes Verwaltungsgebiet in Schwaben aufzubauen. Kaiser Friedrich Barbarossa starb 1190 auf dem Dritten Kreuzzug in Kleinasien. Heinrich VI.. Friedrichs Sohn und Nachfolger Heinrich VI. betrieb eine Politik, die auf die Vereinigung des Imperiums mit dem süditalienischen Normannenreich hinauslief („Unio regni ad imperium“). Nach einigen Rückschlägen konnte er dies im Jahr 1194 erreichen. Das staufische Imperium erstreckte sich damit von der Nord- und Ostsee bis nach Sizilien. Durch die Gefangennahme von Richard Löwenherz erreichte er eine Lehnsabhängigkeit Englands. Allerdings scheiterte der von ihm entworfene Erbreichsplan. Aufgrund seines zum Teil grausamen Vorgehens in der Italienpolitik wird Heinrich VI. in der Geschichtsschreibung teils äußerst negativ geschildert. Heinrich VI. hatte nur einen männlichen Nachkommen, was eine deutliche Verengung des Stammbaums der staufischen Hauptlinie bedeutete. Philipp von Schwaben. Nach dem Tod Heinrichs VI. im Jahre 1197 begann ein Thronstreit zwischen dem Staufer Philipp von Schwaben und dem Welfen Otto IV. von Braunschweig. Am 27. Juli 1206 unterlag Otto in der Schlacht bei Wassenberg. Philipp bot darauf, nach erfolgreichen Verhandlungen mit Papst Innozenz III., dem Besiegten seine Tochter Beatrix (die Ältere) zur Vermählung an. Die Kaiserkrönung war bereits vereinbart und sollte durch die Legaten des Papstes verkündet werden. Philipp sammelte sein Heer für einen endgültigen Schlag gegen seinen Widersacher. Er verließ jedoch sein Heer, um der Hochzeit seiner Nichte Beatrix von Burgund mit Otto VII. von Andechs in Bamberg beizuwohnen. Am Tag der Vermählung, am 21. Juni 1208, wurde er in seinem Schlafgemach vom bayrischen Pfalzgrafen Otto VIII. von Wittelsbach erstochen. Dieser Pfalzgraf handelte vermutlich aus einem Rachemotiv. Er war als Parteigänger der Staufer mit einer der Töchter Philipps verlobt gewesen. Diese Verbindung wurde jedoch unter dem Vorwand zu naher Verwandtschaft gelöst. Die genauen Umstände der Ermordung sind bis heute ungeklärt. Sie werden als Einzeltätertheorie mit dem Motiv einer „Privatrache“ oder als Staatsstreich unter Beteiligung mehrerer Fürsten diskutiert. Nach Philipps Ermordung und dem Beginn einer aggressiven Italienpolitik des 1209 zum Kaiser des Reiches gekrönten Otto IV. rief Papst Innozenz III., der zuvor noch Otto unterstützt hatte, zur Wahl eines neuen Königs auf. So wurde 1211 Philipps Neffe Friedrich II., der beim Tode seines Vaters Heinrich VI. noch minderjährig war, von einem Kreis stauferfreundlicher Reichsfürsten zum römisch-deutschen König gewählt. Friedrich II.. Friedrich II., von Zeitgenossen später „stupor mundi“ („das Erstaunen der Welt“) genannt, gilt als einer der bedeutendsten römisch-deutschen Kaiser des Mittelalters und ist bis heute Thema zahlreicher wissenschaftlicher und populärer Darstellungen. Er war hochgebildet, sprach mehrere Sprachen und zeigte sein Leben lang Interesse am Islam, was ihn nicht davon abhielt, christliche Häretiker mit aller Schärfe zu verfolgen. Aufgewachsen unter unsicheren Bedingungen in dem von ihm geliebten Königreich Sizilien, zog er 1212 nach Deutschland. Der staufische Südwesten fiel ihm schnell zu, und Otto IV. musste sich nach Norden zurückziehen. Die Entscheidung zu Gunsten Friedrichs fiel jedoch nicht in Deutschland, sondern in Frankreich, wo in der Schlacht bei Bouvines der mit dem englischen König verbündete Otto dem mit Friedrich verbündeten französischen König Philipp II. unterlag. Bald darauf starb Otto, und Friedrich war damit uneingeschränkter römisch-deutscher König. Friedrich wurde am 22. November 1220 zum Kaiser gekrönt, doch überließ er Deutschland seinem Sohn Heinrich (VII.) und kümmerte sich selbst um die Belange seines sizilianischen Reiches. Dort zentralisierte er die Verwaltung, nahm zahlreiche Reformen in Angriff und gründete die erste Staatsuniversität. Zudem bekämpfte er die Sarazenen auf Sizilien und gliederte sie, als sie unterlegen waren, seiner Leibwache ein. Mit dem Papsttum kam es zum Konflikt, als Friedrich nicht sofort zum versprochenen Kreuzzug aufbrach und die antikommunale Politik seines Großvaters Barbarossa aufnahm. Er wurde daraufhin von Papst Gregor IX. gebannt, reiste aber dennoch 1228 ins Heilige Land, wo er ohne Kampf, nur durch Diplomatie, einen Waffenstillstand erreichte und sich in Jerusalem selbst die Krone des Königreiches Jerusalem aufs Haupt setzte. Wieder in Italien, kam es zu Kämpfen mit päpstlichen Truppen, die in das Regnum eingefallen waren. Friedrich behauptete sich jedoch und schloss 1230 Frieden mit dem Papst. Er wandte sich nun den Problemen in Deutschland zu, wo sein Sohn eigenmächtig gegen die Landesfürsten agiert hatte. Friedrich musste gezwungenermaßen 1232 die Rechte der Landesfürsten vertraglich anerkennen (Statutum in favorem principum; ähnliche Zugeständnisse hatte er bereits den geistlichen Fürsten im Jahre 1220 gemacht), wobei er mehrere königliche Rechte aufgab. Als Heinrich (VII.) schließlich offen rebellierte, setze der Kaiser ihn 1235 ab und ließ 1237 Konrad IV., seinen zweitältesten Sohn, zum König wählen. Der Kaiser bekämpfte nun die aufständischen lombardischen Städte. Zwar konnte er sie 1237 bei Cortenuova schlagen, doch wurde Friedrich kurz darauf erneut vom Papst gebannt, der die Italienpolitik des Staufers als gefährlich für das Papsttum einschätzte. Die folgenden Jahre waren geprägt von einem Kampf zwischen Imperium (Kaiser) und Sacerdotium (Papst), bei dem beide Universalmächte nicht nur militärische, sondern zunehmend auch propagandistische Mittel einsetzten und sich gegenseitig in Rundschreiben schwere Vorwürfe machten. Friedrich wurde als Antichrist bezeichnet, während der Kaiser dem Papst vorwarf, nur reine Machtpolitik zu betreiben und ihn seinerseits zum Antichristen erklärte. Friedrichs Anhänger apostrophierten den Kaiser hingegen mitunter als Messias. Auch Gregors Nachfolger, eigentlich ein Ghibelline (ein in dieser Zeit aufkommender Begriff für die Kaisertreuen), dessen Wahl Friedrich anfangs unterstützte, führte die harte Linie fort. Papst Innozenz IV. entzog Friedrich 1245 die Kaiserwürde – ein einmaliger Vorfall, der in der vom Katholizismus beherrschten Welt überwiegend negativ aufgenommen wurde, aber dennoch in Deutschland zur Wahl einiger Gegenkönige führte, welche zusammen mit der päpstlichen Bestechungspolitik die staufische Position mit der Zeit schwächten. Friedrich behauptete sich, starb jedoch überraschend am 13. Dezember 1250. Der Kaiser starb als Gebannter, doch macht sein Testament deutlich, dass ihm sehr an einer Verständigung mit dem Papsttum gelegen war. Es ist bezeichnend, dass Friedrich II. nie einen Gegenpapst erhob. Friedrich II. war trotz all seiner Fähigkeiten aber kein moderner Renaissancefürst, sondern ein den Idealen des universalen christlichen Kaisertums zutiefst verpflichteter Monarch. Die letzten Staufer. Nach dem Tode Friedrichs II. im Jahre 1250 brach die staufische Machtstellung zusammen, zuerst in Deutschland, wenig später auch in Italien. 1251 zog Konrad IV. nach Italien, wo er 1254 starb. In Sizilien konnte sein Halbbruder Manfred noch bis zur Schlacht bei Benevent 1266 das staufische Königtum sichern. Der letzte männliche Staufer in direkter Linie, Konrads IV. Sohn Konradin, endete 1268 in Neapel 16-jährig unter dem Richtschwert Karls von Anjou. In Deutschland begann das Interregnum, für das universale Kaisertum bedeutete die nachfolgende Entwicklung eine extreme Schwächung, wenngleich es im Spätmittelalter zu zaghaften Restaurationsversuchen kam (siehe vor allem Heinrich VII.) und die Kaiser an dem grundsätzlichen Konzept der Universalherrschaft noch bis zum Ende des Mittelalters zumindest formal festhielten. Nach dem Interregnum etablierten sich die Habsburger mit Rudolf von Habsburg, Enkel der Agnes von Staufen, als neue Königsdynastie, wobei vom frühen 14. Jahrhundert bis ins frühe 15. Jahrhundert die Luxemburger – teils sehr erfolgreich – in Konkurrenz zu den Habsburgern traten. Rezeption. Vor allem seit der Zeit des Humanismus wurde das Ende des letzten Staufers Konradin nicht nur von Gelehrten aufgegriffen. Nach der Gründung des Deutschen Reichs im Jahre 1871 wurde der Staufermythos wiederbelebt. So wurde Kaiser Wilhelm I. gelegentlich "Barbablanca" („weißer Bart“) genannt, analog zu "Barbarossa" („roter Bart“). Wilhelm I. als Vollender von Friedrich I. Barbarossa – dieser Gedanke wurde 1896 beim Kyffhäuserdenkmal in Reinform umgesetzt. Der Sage nach hat Barbarossa unten im Kyffhäuserberg geschlafen, um eines Tages zu erwachen und das Reich zu retten. 1977, anlässlich des 25-jährigen Bestehens des Landes Baden-Württemberg, veranstaltete das Stuttgarter Landesmuseum die Ausstellung „Zeit der Staufer“, eine der ersten großen Geschichtsschauen im Deutschland der Nachkriegszeit. Im selben Jahr wurde die Straße der Staufer eingerichtet, eine Touristikstraße entlang der historischen Stätten im ehemaligen Kernland der Staufer. Seit 1977 verleiht der Ministerpräsident von Baden-Württemberg eine Staufermedaille an Personen, die sich um das Bundesland besonders verdient gemacht haben. Das Glanzstück staufischer Baukunst und Ästhetik, das Castel del Monte, wird seit 2002 auf der Rückseite der italienischen 1-Cent-Münze als kulturelles Erbe Italiens gewürdigt. Im selben Jahr vollendete der Maler Hans Kloss im Kloster Lorch ein 30 Meter langes und 4,5 Meter hohes Staufer-Rundbild, das die Geschichte der Staufer von 1102 bis 1268 darstellt. Vom 19. September 2010 bis zum 20. Februar 2011 zeigten die Reiss-Engelhorn-Museen Mannheim die Ausstellung der Länder Baden-Württemberg, Rheinland-Pfalz und Hessen "Die Staufer und Italien". Die Stadt Schwäbisch Gmünd schmückt sich mit dem Titel „Älteste Stauferstadt“. Anlässlich des "Stauferfestes" zum 850-jährigen Bestehen der Stadt im Juli 2012 wurde das eigens verfasste Bühnenwerk "Die Staufer-Saga" aufgeführt, das die Geschichte des Staufergeschlechts darstellt. Seit 2001 wurden vom Komitee der Stauferfreunde in Deutschland, Frankreich, Italien, Österreich und Tschechien über dreißig Stauferstelen errichtet. Friedrich II. wird im südlichen Italien noch heute verehrt. Fast immer liegen frische Blumen an seinem Porphyrsarkophag in der Kathedrale von Palermo. Wappen. a> Turnierbuch", Abschr. 17. Jh., eine deutlich spätere Darstellung Das Wappen der Staufer zeigt drei übereinanderstehende schwarze Löwen auf goldenem Grund. Es besteht heute noch im Wappen Baden-Württembergs, im Wappen Bayerns und im Wappen des Hauses Waldburg. Die wenigen älteren Bildbeispiele des staufischen Wappens lassen in der Anzahl der Löwen und ihrer spezifischen Form als geradeausschauende Löwen oder hersehende Leoparden große Variationsbreiten erkennen; auch um 1220 hatte das staufische Familienwappen seine endgültige Form noch nicht gefunden. Das Löwenwappen ist überliefert auf einem Reitersiegel um 1216–1220 von Herzog Heinrich von Schwaben. Kaiser Barbarossa und Friedrich II. werden oft mit einem Greifvogel gezeigt. Der Löwe kam vielleicht durch die Verbindung der Staufer mit Heinrich dem Löwen auf. Die drei Löwen der Herzöge von Schwaben, kurz "Stauferlöwen" genannt, repräsentieren im Bayerischen Staatswappen den Regierungsbezirk Schwaben. Salpetersäure. Salpetersäure (HNO3) ist die bekannteste und stabilste Sauerstoffsäure des Stickstoffs. Der Name leitet sich vom Salpeter ab, aus dem sie durch Zugabe einer stärkeren Säure (Schwefelsäure) gewonnen werden kann. Salpetersäure liegt in wässriger Lösung weitgehend dissoziiert vor. Als starke anorganische Säure zählt sie zu den Mineralsäuren. Ihre Salze und Ester heißen Nitrate. Die Salze werden auch mit dem Trivialnamen „-salpeter“ gekennzeichnet, z. B.: Chilesalpeter, (Kali-)Salpeter, Ammonsalpeter, Kalksalpeter oder Mauersalpeter, Barytsalpeter etc. Die reine Säure ist farblos und hat einen scharf stechenden Geruch. Sie wird unter anderem zur Herstellung von Düngemitteln, Farbstoffen und Sprengstoffen verwendet. Geschichte. In der Schrift "De inventione veritatis" aus dem 12. Jahrhundert wird erwähnt, dass bereits im 9. Jahrhundert der arabische Alchimist Geber rohe Salpetersäure („Aqua dissolutiva“) durch trockenes Erhitzen von Salpeter (lat. "sal petrae" = Felsensalz; KNO3), Cyprischem Vitriol (CuSO4·5 H2O) und Alaun (KAl(SO4)2·12 H2O) gewonnen haben soll. Im 13. Jahrhundert soll Albertus Magnus die Salpetersäure benutzt haben, um Gold und Silber zu trennen („Scheidewasser“). Jedoch wurden viele Schriften Albertus Magnus nur zugeschrieben, um ihnen höheres Gewicht zu verleihen, wahrscheinlich auch die über die Verwendung der Salpetersäure. Später wurde Salpeter mit Eisenvitriol (FeSO4·7 H2O) erhitzt, was höhere Ausbeuten bei niedrigerer Temperatur lieferte. J. R. Glauber gewann Mitte des 17. Jahrhunderts reinen "spiritus nitri" durch Umsetzung und Destillation von Salpeter mit Schwefelsäure, einem bis heute gebräuchlichen Laborverfahren zur Herstellung der Salpetersäure, die im Mittelalter auch "aqua fortis" oder "aqua valens" und im englischen Sprachraum "strong water" genannt wurde. Als Bestandteile der Salpetersäure erkannte A. L. Lavoisier Mitte des 18. Jahrhunderts die chemischen Elemente Stickstoff und Sauerstoff. Die genaue Zusammensetzung wurde von Henry Cavendish bestimmt, dem auch die Synthese aus dem Stickstoff der Luft durch elektrische Entladung gelang. Eine rationelle Fabrikation begann erst Anfang des 19. Jahrhunderts, als billige Schwefelsäure und Chilesalpeter in ausreichenden Mengen verfügbar waren. Auch die „Luftverbrennung“ in einem elektrischen Lichtbogen wurde zu einem großtechnischen Verfahren entwickelt (Birkeland–Eyde), das jedoch nur in Ländern mit billigem Strom konkurrenzfähig war. Die katalytische Oxidation von Ammoniak über Platin wurde von C. F. Kuhlmann (1838) entdeckt. Bis zur Erfindung der Ammoniaksynthese durch Haber und Bosch blieb jedoch Ammoniak zu teuer im Vergleich zu Chilesalpeter. Zu Beginn des 20. Jahrhunderts entwickelte Wilhelm Ostwald die Herstellung von Salpetersäure aus Ammoniak zur industriellen Reife. Die billige Ammoniak-Oxidation hat heute alle anderen großtechnischen Verfahren verdrängt. Herstellung. Salpetersäure wird technisch seit 1908 nach dem Ostwaldverfahren hergestellt. Es handelt sich dabei um die katalytische Oxidation von Ammoniak. Das Ammoniak-Luft-Gemisch wird rasch (1/1000 s Berührungszeit) durch heiße Platin-Rhodium-Netze (Katalysator) geleitet. Bei 800 °C entsteht Stickstoffmonoxid, das beim Abkühlen mit überschüssigem Sauerstoff zu Stickstoffdioxid und dann in Rieseltürmen mit Wasser zu etwa 60%iger Salpetersäure reagiert. Die 60%ige Salpetersäure kann durch Destillation bis 68 % konzentriert werden, was dem Azeotrop mit Siedepunktmaximum (122 °C) entspricht. Höhere Konzentrationen lassen sich durch Rektifikation (Entwässerung) mit Schwefelsäure (H2SO4) oder mit wässriger Magnesiumnitrat-Lösung (Mg(NO3)2) oder durch Behandlung von Distickstofftetroxid (N2O4) mit der stöchiometrisch nötigen Menge von Sauerstoff (bzw. Luft) und Wasser erreichen. Im Labormaßstab kann Salpetersäure durch Umsetzung konzentrierter Schwefelsäure mit Nitraten dargestellt werden. Vor 1908 wurde Salpetersäure durch dieses Verfahren unter Verwendung von Natriumnitrat (Chilesalpeter) gewonnen. Oft auftretende Verunreinigungen der Säure mit Halogenen oder Halogenwasserstoffen lassen sich durch Zugabe von Silbernitrat und anschließende Destillation beseitigen. Wasserfreie Salpetersäure erhält man, von einer durch Destillation hochkonzentrierten Säure ausgehend, durch Durchleiten von Inertgas oder der Destillation über Phosphorpentoxid oder Oleum. Eigenschaften. Salpetersäure ist in reinem Zustand farblos. Konzentrierte Salpetersäure zersetzt sich jedoch leicht (besonders unter Lichteinwirkung) und hat aufgrund des in ihr gelösten Stickstoffdioxids (NO2) oft einen gelblichen oder rötlichen Farbton. Reine Salpetersäure, die freies Stickstoffdioxid enthält, wird rauchende Salpetersäure genannt. Sie enthält über 90 % HNO3, wirkt stark oxidierend und kann manche leicht brennbaren Stoffe entzünden; daher gilt Salpetersäure ab 70 % als brandfördernd. Salpetersäure, die durch gelöstes Stickstoffdioxid gelb gefärbt ist, kann durch eine kleine Menge Harnstoff oder besser Harnstoffnitrat entfärbt werden. Salpetersäure reagiert mit den meisten Metallen unter Bildung wasserlöslicher Nitrate. Ausnahmen sind die Edelmetalle Gold, Platin und Iridium. Auch Aluminium, Titan, Zirconium, Hafnium, Niob, Tantal und Wolfram widerstehen der Salpetersäure durch Passivierung. Weiter ist Eisen infolge Passivierung resistent gegenüber kalter, Chrom auch gegenüber heißer Salpetersäure. Dabei bildet sich auf dem Metall eine fest haftende, undurchlässige Oxidschicht. Da man somit Gold und Silber trennen konnte, wurde sie früher "Scheidewasser" genannt. Mischungen von Salpetersäure mit Salzsäure (Königswasser) oder Selensäure reagieren auch mit Gold und Platin. Salpetersäure färbt Eiweiße, die aromatische Aminosäuren wie L-Phenylalanin oder L-Tyrosin enthalten, unter Nitrierung des Benzolrings gelb. Diese Xanthoprotein-Reaktion kann zum Nachweis von aromatischen Aminosäuren und Eiweißen benutzt werden. Verwendung. Gemische mit Schwefelsäure werden Nitriersäure genannt und zur Nitrierung von organischen Verbindungen verwendet. Sie wurde bis in die späten 1980er Jahre in der Raketentechnik als Oxidator verwendet (z. B. in der Agena-Oberstufe). Nachweis. Salpetersäure kann mittels Nitratnachweis durch die Ringprobe und durch Lunges Reagenz nachgewiesen werden. Diese Nachweisverfahren werden auch als klassische Verfahren bezeichnet. Sicherheitshinweise. Salpetersäure wirkt auf Haut, Atemwege und Schleimhäute stark reizend und ist in der Lage lebendes Gewebe zu zerstören (Verätzung). In hoher Konzentration ist sie ein starkes Oxidationsmittel und brandfördernd. Salzsäure. Salzsäure (systematischer Name Chlorwasserstoffsäure) ist eine wässrige Lösung von gasförmigem Chlorwasserstoff, der in Oxonium- und Chloridionen dissoziiert ist. Sie ist eine starke, anorganische Säure und zählt zu den Mineralsäuren. Ihre Salze heißen Chloride, das bekannteste ist das Natriumchlorid (NaCl, Kochsalz). Geschichte. Die Entdeckung der Salzsäure wird Maria Prophetissa (2. Jahrhundert) und Geber (9. Jahrhundert) zugeschrieben, so dass sie schon den ersten Alchemisten bekannt gewesen sein dürfte. In der ersten Hälfte des 15. Jahrhunderts gewann Basilius Valentinus Salzsäure durch Reaktion von Halit (Steinsalz) mit Eisenvitriol. Die Herstellung aus Speisesalz und Schwefelsäure gelang Johann Rudolph Glauber im 17. Jahrhundert. Lavoisier nannte Salzsäure "acide muriatique" (lat. "muria" ‚Salzlake‘). Kochsalzhaltige Quellen werden heute noch als "muriatische Quellen" bezeichnet. In Nordamerika wird Salzsäure auch "muriatic acid" genannt. Vorkommen. In der Natur findet sich Salzsäure in Vulkangasen und stark verdünnt in Kraterseen. In freier Form kommt sie im Magensaft der Wirbeltiere vor (0,1 bis 0,5 Prozent Massenanteil). Fast unerschöpflich sind die Vorkommen an Salzen der Salzsäure, als Steinsalz und gelöst im Meerwasser. Darstellung und Gewinnung. Salzsäure mit höheren Massenanteilen Chlorwasserstoff wird auch als "rauchende Salzsäure" bezeichnet, da Chlorwasserstoffgas entweicht und mit dem Wasser aus der Luftfeuchtigkeit wieder Salzsäure entsteht, so dass sich über offenen Gefäßen ein weißer Nebel bildet. Auch hier lässt man den Chlorwasserstoff mit Wasser reagieren. Technisch reine Salzsäure fällt hauptsächlich als Nebenprodukt bei der Chlorierung organischer Verbindungen an. Eigenschaften. Chlorwasserstoffgas löst sich sehr gut in Wasser: Bei 0 °C löst 1 Liter Wasser, sofern es dabei noch als flüssige Phase vorliegt, unter Wärmeentwicklung 815 g beziehungsweise 507 Liter Gas. Bei 20 °C enthält ein Liter gesättigte Salzsäure 720 g HCl. Die Konzentrationsabhängigkeit der Dichte formula_4 ist in nebenstehender Tabelle gezeigt, wobei zwischen ihr und dem prozentualen Gehalt an Chlorwasserstoff zufällig ein einfacher rechnerischer Zusammenhang besteht: Die verdoppelten Nachkommastellen entsprechen in etwa der Konzentration, z. B. eine Salzsäure der Dichte 1,10 g·cm−3 einem HCl-Gehalt von 20 Prozent. Das Schmelz– und Siedeverhalten von Salzsäure hängt stark von der Zusammensetzung ab. In fester Phase werden vier stöchiometrische Hydrate mit definierten Schmelzpunkten gebildet. Das sind ein Monohydrat HCl·H2O mit einem Schmelzpunkt bei −15 °C, ein Dihydrat HCl·2H2O mit einem Schmelzpunkt bei −18 °C, ein Trihydrat HCl·3H2O mit einem Schmelzpunkt bei −25 °C und ein Hexahydrat HCl·6H2O mit einem Schmelzpunkt bei −70 °C. Im Phasendiagramm ergeben sich für Zusammensetzungen zwischen den stöchiometrischen Hydraten entsprechende eutektische Schmelzen. Diese liegen für ein Gemisch aus Mono- und Dihydrat mit einem Massenanteil Chlorwasserstoff von 57,3 % bei −23 °C, aus Di– und Trihydrat mit einem Massenanteil von 44,0 % bei −28 °C, aus Tri– und Hexahydrat mit einem Masseanteil von 26,6 % bei −73 °C und aus Hexahydrat und Eis mit einem Massenteil von 23,0 % bei −75 °C. Zusätzlich wird ein metastabiles Eutektikum zwischen Trihydrat und Eis mit einem Massenanteil von 24,8 % bei −87 °C gebildet. Im Konzentrationsbereich von 0 bis 25 % wird somit ein starkes Absinken des Schmelzpunktes beobachtet. Das Dampf-Flüssig-Phasendiagramm zwischen Chlorwasserstoff und Wasser zeigt ein negatives Azeotrop. Das resultierende azeotrope Siedepunktsmaximum liegt bei Normaldruck mit einem Massenanteil von 20,2 % bei 109 °C. Bei der Verdampfung von Salzsäurelösungen mit von der Azeotropzusammensetzung abweichender Konzentration wird zunächst bevorzugt die Überschusskomponente verdampft, d. h. bei Salzsäure mit einem Massenanteil 20,2 % eine Abkonzentrierung, bis die konstant siedende Azeotropzusammensetzung erreicht wird. Die Siedekurve im Phasendiagramm oberhalb der Azeotropzusammensetzung korreliert mit Löslichkeitskurve von Chlorwasserstoff in Wasser. Bei 25 °C ergibt sich ein Massenanteil von 42 %, was der „rauchenden“ Salzsäure entspricht. In Wasser dissoziiert Chlorwasserstoff vollständig, Salzsäure mit 32 % hat einen pH-Wert von −1. An feuchter Luft bildet Chlorwasserstoffgas einen Nebel aus feinen Salzsäure-Tröpfchen. Verdünnte Salzsäure ist ein guter elektrischer Leiter. Reaktionen. Salzsäure löst die meisten Metalle mit Ausnahme der Edelmetalle und einiger anderer (zum Beispiel Tantal und Germanium) unter Bildung von Chloriden und Wasserstoff, sofern diese nicht durch Passivierung geschützt sind. Verwendung. Salzsäure ist eine der wichtigsten Grundchemikalien mit großer Bedeutung in der chemischen Industrie als anorganische Säure. Sie wird beispielsweise bei der Aufarbeitung von Erzen und Rohphosphat eingesetzt. Sie wird zur Stimulation von Erdöl- und Erdgas-Sonden, im Speziellen in Karbonatlagerstätten, aber auch in Sandsteinlagerstätten verwendet. Mit ihrer Hilfe werden dort auch z. B. Calciumcarbonat-Anlagerungen an Gerätschaften entfernt und Reinigungen nach Gravel-Pack-Bohrungen und an Bohrlöchern selbst durchgeführt. In der Metallverarbeitung wird sie beim Beizen, Ätzen und Löten eingesetzt. Außerdem wird verdünnte Salzsäure im Bauwesen zum Entfernen der Mörtelreste am Mauerwerk benutzt – das sog. "Absäuern". Salzsäure ist nicht zuletzt ein wichtiges Reagenz in der chemischen Analyse. Sie vermag eine Gruppe von Metallen, die schwerlösliche Chloride bilden, durch Fällung von anderen Metallen abzutrennen. Anschließend können diese getrennt weiter analysiert werden (siehe Salzsäuregruppe). Die Alkalimetrie ist ein weiteres Verwendungsgebiet von Salzsäure. Als Lebensmittelzusatzstoff trägt Salzsäure die Bezeichnung E 507. In der Pharmaindustrie wird Salzsäure benutzt, um basische, in Wasser schlecht- oder unlösliche Arzneistoffe (Beispiele: Ciprofloxacin, Citalopram, Clenbuterol, Clindamycin, Dibenzepin) in besser lösliche Hydrochloride zu überführen. Biologische Bedeutung. Bei Mensch und Tier ist die Salzsäure ein Bestandteil des Magensaftes, wo sie unter anderem die Denaturierung von Proteinen bewirkt, aber auch zum Abtöten von Mikroorganismen vor Eintritt in das weitere Verdauungssystem dient. Außerdem schafft sie das saure Milieu, in dem das Verdauungsenzym Pepsin am wirksamsten ist. Nachweis. Der Salzsäuregehalt einer Lösung wird durch Titration mit Natronlauge ermittelt (Acidimitrie, Maßanalyse). Photometrisch lässt sich diese Bestimmung sowie die von Chloriden mit Hilfe des Quecksilbersalzes der Chloranilsäure durchführen. Den Gehalt an Salzsäure im Magensaft bestimmt man mit Günzburgs Reagenz. Semiotik. Semiotik (' ‚Zeichen‘, ‚Signal‘), manchmal auch "Zeichentheorie", ist die Wissenschaft, die sich mit Zeichensystemen aller Art befasst (z. B. Bilderschrift, Gestik, Formeln, Sprache, Verkehrszeichen). Sie ist die allgemeine Theorie vom Wesen, von der Entstehung (Semiose) und vom Gebrauch von Zeichen. Die Semiotik ist ein Teilgebiet der philosophischen Erkenntnistheorie, der Wissenschaftstheorie und der Sprachphilosophie sowie der Sprachwissenschaft. Sie findet in verschiedenen Geistes-, Kultur-, Wirtschafts- und Sozialwissenschaften Anwendung. Geschichte. Zwar wird über den Gegenstandsbereich der Semiotik seit der Antike debattiert, eine eigenständige Disziplin entwickelt sich aber erst mit den Studien von Charles Sanders Peirce ab Ende des 19. Jahrhunderts. Moderne Klassiker der Semiotik sind gleichzeitig oft Leitfiguren der strukturalistischen Linguistik und Philosophie, allen voran Ferdinand de Saussure und Roland Barthes. Diese bezeichnen ihre Zeichentheorien auch als „Semiologie“. Nach wie vor stehen sich unterschiedliche Ansätze gegenüber. Vorgeschichte: Antike, Mittelalter und frühe Neuzeit. Wie später Peirce ordnet Aristoteles die Semiotik in die Logik (Organon) ein. Der Ausdruck "semeiotikon meros" (semiotischer Teil) bezeichnet in der Medizin der Antike die Wissenschaft der Symptome und der Diagnostik (Galen, Pseudo-Galen) und findet in einigen stoischen Texten auch in erkenntnistheoretischen Zusammenhängen Verwendung. In lateinischen Übersetzungen von Galen wird "semeiotikon meros" wiedergegeben als "pars semiotica". Im "Thesaurus graecae linguae" von Henri Stephanus (1572 u.ö.) wird dafür "Semeiotiké" verwendet und dies erklärt als jener Teil der Medizin, welcher die Unterschiede und (Bezeichnungs-)Vermögen aller Zeichen behandelt. Zeichen- und Bedeutungslehren findet man auch bei den Stoikern, zum Beispiel bei Diogenes von Babylon. Ihm zufolge ist die Äußerung eines Menschen körperlich und wird durch die Vernunft artikuliert und ausgedrückt. Sie ist darin verschieden von den tierischen Lauten, die nur Luft sind, welche durch Instinkt hervorgebracht werden. Als verstehbare Rede (logos) gilt ihm eine Äußerung, welche etwas bedeutet. Auch epikureische Philosophen wie Philodemos von Gadara (um 110–40 v.  Chr.) diskutieren Aspekte von Zeichen, Bedeutungen und deren Relationen, insbesondere analoge und induktive Relationen. In der Scholastik wurde der Semiotik innerhalb der Logik ein hoher Stellenwert beigemessen. Als eines von vielen Beispielen kann man die Zeichenlehre von Petrus Hispanus heranziehen: Das Gehör nimmt "Laute" wahr. Ein durch Lebewesen hervorgebrachter Laut ist "Stimme", Glockengeräusche hingegen sind "nicht Stimme". "Artikulierbare Stimme" (z. B. „Mensch“) kann im Gegensatz zu "unartikulierbarer Stimme" geschrieben werden. Die artikulierbare Stimme ist entweder "sinnvoll" (z. B. Mensch) oder "sinnlos" (z. B. „bu“, „ba“). Sinnvolle Stimme hat "konventionelle" Bedeutung (z. B. „Mensch“) oder "natürliche" Bedeutung (z. B. „das Jammern der Kranken“). Konventionelle Stimme ist entweder "unzusammengesetzt" (einzelne Wörter) oder "zusammengesetzt" (Sätze). Unzusammengesetzte Stimme sind z. B. das "Verb" und das "Nomen", welches letztere entweder "Allgemeines" (z. B. „Mensch“) oder "Individuelles" (z. B. „Sokrates“) bedeutet. Im Übergang vom Mittelalter zur Neuzeit ist es zum Beispiel Nikolaus von Kues, der die Zeichenlehre als grundlegend für jede Erkenntnis darstellt, insbesondere für die Theologie. Auch die scholastischen Diskussionen werden weitergeführt, beispielsweise bei Pedro da Fonseca (1528–1599). Der aus Lissabon stammende Theologe und Philosoph Johannes a S. Thomas (1589–1644), auch als Johannes Poinsot bezeichnet, entwickelt in seinem zweiten Hauptwerk "Cursus philosophicus" eine umfangreiche Semiotik, und zwar im zweiten (materiellen) Teil seiner Logik. Auch John Locke spricht in seinem Essay concerning Humane Understanding von 1690 von einer Theorie der Zeichen, die er "Semeiotike" nennt. Begriffsverwendung im 18. und 19. Jahrhundert. Im 18. und beginnendem 19. Jahrhundert wurde der Begriff "Semiotik" noch nicht in seiner heutigen umfassenden Bedeutung verwendet, sondern für die überwiegend als Hilfswissenschaft der Diplomatik (Urkundenwissenschaft) angesehene Zeichenkunde. Daneben findet sich in dieser Zeit auch eine Verwendung als medizinischer Fachbegriff. Ferdinand de Saussure (1857–1913). Die – weder eindeutige noch unumstrittene – Zeichentheorie de Saussures gilt als „grundlegend“ und „bedeutsam“ für die Entwicklung der modernen Semiotik (in Europa), genauer wohl für die sprachwissenschaftlichen (linguistischen) Zeichentheorien, die „praktisch alle“ auf das "bilaterale Zeichen" im Sinne von de Saussure zurückgehen sollen. De Saussure verwendet den Ausdruck "Zeichen" mehrdeutig, was auch zu verschiedenen Interpretationen Anlass gibt. Nach einer Lesart versteht de Saussure das Zeichen nur psychologisch, nach einer anderen Lesart nicht nur psychologisch. Für eine psychologische Interpretation spricht folgende Definition von de Saussure: „Das sprachliche Zeichen ist also etwas im Geist tatsächlich Vorhandenes, das zwei Seiten hat: … […] Diese beiden Bestandteile sind eng miteinander verbunden und entsprechen einander. […] Ich nenne die Verbindung der Vorstellung mit dem Lautbild das Zeichen.“ Dies führt zu dem Gegensatzpaar: "concept" (Vorstellung) – "image acoustique" (Lautbild), vgl ausführlicher dazu: Vorstellung und Lautbild. Der Zeichenbegriff von de Saussure wird aber auch so wiedergegeben, dass nach ihm ein Zeichen die Einheit (Verbindung) von Zeichenform "(signifiant)" und Bedeutung ("signifié", der Zeicheninhalt) ist. Die Beziehung von signifié und signifiant konstituiere das Zeichen. Dies führt zu dem Gegensatzpaar "signifié" (Zeicheninhalt) – "signifiant" (Zeichenausdruck). Statt von "signifiant" (Zeichenausdruck, Zeichenform) wird im gleichen Sinne auch von Ausdrucksseite (Ausdrucksebene), statt von "signifié" (Zeicheninhalt) wird auch von Inhaltsseite (Inhaltsebene) gesprochen. Das Zeichenmodell von de Saussure wird unter anderem als "zweiseitig" "(bilateral", "dyadisch)" und (z. T. kritisch gemeint) mentalistisch qualifiziert. Das zweiseitige Zeichenmodell von de Saussure hat im Gegensatz zu "dreistelligen" "(triadischen)" Modellen (Peirce, vgl. Representamen, dort insbesondere Verständnisprobleme) keinen Interpretantenbezug, im Gegensatz zu vierstelligen Modellen auch keinen signifischen (begriffshistorisch vgl. Victoria Lady Welby, systematisch vor allem Georg Klaus) quasi-außerzeichenhaften Realitätsbezug. Charles Sanders Peirce (1839–1914). Die Semiotik als Lehre von den Zeichen ist nach Peirce nicht nur die Grundlage jeder Kommunikation, sondern auch die Voraussetzung für jede Form der Erkenntnis, denn jedes Denken ist ein Denken in Zeichen. Die Theorie begreift das Zeichen nicht als ein Ding, als ein statisches Objekt, sondern als eine dreistellige (triadische) Relation zwischen Eine Grundlage für diese Einteilung ist die ontologische These dreier nicht aufeinander reduzierbarer Grundformen jeden Seins, die aus den grundlegenden philosophischen Kategorien abgeleitet sind und als Möglichkeit, Wirklichkeit und Vernunft identifiziert werden können. Die Bedeutung eines Zeichens oder Zeichenkomplexes lässt sich nur unter Berücksichtigung aller drei Bezüge erfassen. Peirce vertritt also einen holistischen Begriff von Bedeutung. Dabei schließen sich die verschiedenen Zeichenarten keineswegs „gegenseitig aus, sondern sind nur Aspekte des Zeichenprozesses, der Semiose, und wir nennen ein Zeichen nach seinem jeweils dominierenden Aspekt“. Das Gelingen jeder Kommunikation entscheidet sich in Bezug auf den Interpretanten, das System, in dem das Zeichen zu verstehen ist. Eine Klärung setzt dabei mindestens ein anderes Zeichen voraus. Wenn jemand beispielsweise fragt, was ist ein Pharao, lautet die Antwort in der Regel: ein König bei den alten Ägyptern. Um aber wirklich zu verstehen, was ein Pharao ist, muss ich die Kultur kennen, muss die Vorstellung von einem Gottkönig nachvollziehen können. Andererseits bin ich belastet mit Konnotationen, die der Begriff König in unserer Kultur mit sich bringt. Derartiges Kulturwissen, alle Erlebnisse und Erfahrungen sind Teil der Bedeutung. Daher können zwei Menschen niemals ein exakt gleiches Verständnis einer Sache haben. Die Begriffe Rhema, Dicent und Argument korrespondieren mit der klassischen Einteilung in Term, Proposition und Argument. Daraus kann man drei Hauptsysteme mit völlig unterschiedlichen Formen der Bedeutungsvermittlung ableiten: Kunst, Alltag und Wissenschaft. Im Bereich der Kunst kann ein Zeichen immer nur Möglichkeiten vermitteln; es gibt keine festen Bedeutungen, sondern nur individuelle Interpretationen. Im Alltag beziehen sich die Zeichen auf die Wirklichkeit, sie haben ein reales Objekt, und ein Sprecher darf in der Regel davon ausgehen, dass der Andere das Gemeinte versteht. In der Wissenschaft verweisen die Zeichen auf Notwendigkeiten und folgen fachspezifischen Regeln: verwendete Begriffe müssen definiert, Aussagen belegt und Schlussfolgerungen bewiesen werden. Da der Interpretant stets ein Zeichen ist, das wiederum nur durch ein Zeichen erklärt werden kann, wird die Semiose zu einem prinzipiell endlosen Prozess. In alltäglichen Situationen tritt dies aber oft nicht zutage, denn solange sich die Kommunikation auf konkretes Handeln bezieht, kann dieser Prozess abgebrochen werden, sobald ein Konsens über das Handeln erreicht ist. Literatursemiotik. Vertreter der Literatursemiotik werden teilweise auch den Strukturalisten oder Formalisten zugerechnet. Die literatursemiotischen Ansätze sind zudem sehr unterschiedlich: Roland Barthes vertritt eine poststrukturalistische Position, von der aus er die Vieldeutigkeit eines Werkes betont, während Umberto Eco Barthes’ Vorstellung einer grenzenlosen Offenheit der Bedeutung literarischer Werke kritisiert und die Rezeption literarischer Texte als Wechselspiel von Freiheit und Determiniertheit darstellt. Einerseits müsse der Text eine Struktur aufweisen, sonst „gäbe es keine Kommunikation, sondern nur eine rein zufällige Stimulierung von aleatorischen Reaktionen“ (Eco). Andererseits entscheide der Leser, welche Codes und welchen semantischen Rahmen er auf den Text anwenden soll, wodurch er im Verlauf seines Lektüre­prozesses die weitere Aktualisierung von Bedeutungen maßgeblich beeinflusst. Dem gegenüber stehen Ansätze in der Tradition des Strukturalisten Algirdas Julien Greimas, der über die Analyse der verschiedenen bedeutungstragenden, hierarchisch organisierten Ebenen eines Textes eine semantische Tiefenstruktur eindeutig rekonstruieren will. Theatersemiotik. Die Theatersemiotik ist ein Zweig der Theaterwissenschaft, der vor allem in den 1970er und 80er Jahren seine Blüte erlebte. Als anwendungsorientierte Theorie bietet sie zum Beispiel Systematiken für die Aufführungsanalyse. Die Aufführung wird dabei als Kommunikationsprozess verstanden, in dem über verschiedene Kanäle auf unterschiedlichen Ebenen Informationen vergeben werden. Erika Fischer-Lichte, Patrice Pavis und Manfred Pfister sind wichtige Vertreter dieser Strömung. Ästhetik. Der Prager strukturalistische Linguist Jan Mukařovský hat das Konzept einer "ästhetischen Funktion" eingeführt. Wenn ein Zeichen diese Funktion erfüllt, wird dieses vornehmlich um seiner selbst willen rezipiert und bezieht sich auf seine eigenen Möglichkeitsumstände, insbesondere auf den gesamtgesellschaftlichen Zusammenhang seiner Rezeption – anstatt nur Mittel zur Bezugnahme auf anderes zu sein („referentielle Funktion“). Wann und wie einem Zeichen die "ästhetische Funktion" beigelegt wird, ist zwar auch vom rezipierenden Subjekt abhängig, wird aber, allgemein gesehen, von der ästhetischen Norm bestimmt, die in einer Gesellschaft im Moment der Zeichenrezeption herrscht. So können nach Mukařovský für uns heute Kathedralen oder Bauwerke durchaus unter ästhetischen Gesichtspunkten betrachtet werden, waren aber zur Zeit ihres Baus weit stärker mit einer sakralen Funktion als mit der ästhetischen Funktion belegt. Ästhetische Objekte werden oft, zum Beispiel von Hans Wollschläger, als Zeichensysteme beschrieben, die sich eines anderen Zeichensystems als Trägersystem bzw. als Form bedienen. Im Fall der Literatur ist dies das komplexe Zeichensystem Sprache. Kultur- und Geschichtswissenschaft. Das schon in mesopotamischen Quellen erkennbare Modell, aktuelle positive und negative Ereignisse als Belohnung und Bestrafung durch Gottheiten für historische Leistungen und Verfehlungen zu sehen, bezeichnet Jan Assmann als „Semiotisierung der Geschichte“. Die Geschichte wird dadurch mit Bedeutung erfüllt und erhält eine Struktur, in der nicht nur "Sinn als Zusammenhang von Tun und Ergehen lesbar" und somit auch erträglicher wird, sondern begründet auch den Anlass für Aufzeichnungen und Geschichtsrekapitulation. Semiotisches Dreieck. Das semiotische Dreieck stellt die Relation zwischen dem Symbol, dem dadurch hervorgerufenen Begriff und dem damit gemeinten realen Ding dar. Das semiotische Dreieck ist ein in der Sprachwissenschaft und Semiotik verwendetes Modell. Es soll veranschaulichen, dass ein Zeichenträger (Graphem, Syntagma, Symbol) sich nicht direkt und unmittelbar auf einen außersprachlichen Gegenstand bezieht, sondern dieser Bezug nur mittelbar durch eine Vorstellung/einen Begriff erfolgt. Das semiotische Dreieck publizierten erstmals Charles Kay Ogden und Ivor Armstrong Richards in dem Werk "The Meaning of Meaning" (1923). Das semiotische Dreieck als bildliche Darstellung der Mehrdimensionalität der Zeichen. Das semiotische Dreieck ist zunächst nur ein bildliches Hilfsmittel, um sich Beziehungen „im“ bzw. „des“ Zeichens zu veranschaulichen. Seine Interpretation und nähere Ausgestaltung hängt daher von der zugrunde gelegten Erkenntnistheorie ab. In entscheidender Weise wird durch das semiotische Dreieck veranschaulicht, dass zwischen dem Wort (der Zeichenform, d. h. dem Schriftbild oder dem Lautbild) und dem Bezeichneten (Ding, Gegenstand) keine direkte Beziehung, sondern nur durch (mindestens) eine hier so genannte Vermittlungsinstanz vermittelte Beziehung besteht. Graphisch wird dies durch eine unterschiedliche Linie dargestellt. Gebräuchlich ist ein Dreieck. Entscheidend ist die nicht-direkte Beziehung zwischen Zeichen (Wort) und Gegenstand (Ding). Je nach Anzahl der zu veranschaulichenden (nicht auszublendenden) Bezugspunkte und Vermittlungsinstanzen und der Art der betonten Beziehungen kann man auch ein Quadrat, ein sonstiges Vieleck bzw. einen mehrdimensionalen Körper benutzen. Darauf hinzuweisen ist, dass die Vermittlungsinstanz – hier mit dem mehrdeutigen Ausdruck „Begriff“ bezeichnet – sehr unterschiedlich gesehen wird, was aus dem Terminologiebefund unten deutlich wird. Das semiotische Dreieck ist Veranschaulichung eines Zeichenverständnisses, das dem Zeichenbegriff von Ferdinand de Saussure, wonach ein Zeichen eine „psychische Einheit“ zwischen einem „akustischen Bild“ (Signifikanten) und einem „Begriff“ (Signifikat) (bei ihm im Sinne einer psychischen Vorstellung) sein soll, widersprechen dürfte: statt der „Papierblattmetapher“ für das Verhältnis von Signifikant/Signifikat (von de Saussure) wird im semiotischen Dreieck eine optische Trennung und Distanzierung von Zeichenkörper und Begriff (Sinn) vorgenommen. Das semiotische Dreieck blendet auch pragmatische Bedingungen und Bezüge aus bzw. reduziert sie auf die semantische Dimension und wird daher von pragmatischen Bedeutungstheorien kritisiert (vgl. Semiotik). Das Fehlen einer unmittelbaren Beziehung zwischen Zeichen und Gegenstand wird zugleich als Ausdruck der (von de Saussure betonten) Arbitrarität und Konventionalität von Zeichen interpretiert. Die Geschichte des semiotischen Dreiecks. Man muss unterscheiden zwischen dem semiotischen Dreieck als Bild und einem dreiseitigen (triadischen) Zeichenbegriff, dessen Veranschaulichung es dient. Verbreitet wird die sprachwissenschaftliche Entwicklung so dargestellt, als gäbe es ein semiotisches Dreieck erst seit Ogden/Richards, die damit einen nur zweigliedrigen Zeichenbegriff von de Saussure modifiziert/überwunden hätten. Es heißt, bis ins 19. Jahrhundert sei der Zeichenbegriff im Wesentlichen hinsichtlich seines Sachbezugs als „zweistellige Relation“ diskutiert worden. Andere betonen den zugrunde liegenden dreiseitigen ("triadischen") Zeichenbegriff, der meist bei Aristoteles, mitunter auch schon bei Platon angesetzt wird. Platon. Schon bei Platon findet sich ein gedankliches Wort-Gegenstand-Modell zwischen Namen (Zeichen) – Idee (Begriff) und Ding. Aristoteles. Bei Aristoteles ist ein Zeichen ("semeion", damit meint er ein Wort) ein Symptom für eine Seelenregung, d.h. für etwas, das der Sprecher sich vorstellt. Diese Vorstellung des Sprechers ist dann ein Ikon für ein Ding. Dies sind für ihn die primären Zeichenrelationen (rot in der untenstehenden Figur). Davon abgeleitet ist die sekundäre Zeichenrelation (schwarz in der Figur). Das Semiotische Dreieck bei Aristoteles Seit Aristoteles wird vertreten, dass Zeichen Dinge der Welt nicht unvermittelt, sondern vermittelt über einen „Begriff“, „Vorstellung“ etc. bezeichnen. Dies bedeutet eine Differenzierung gegenüber der einfachen aliquid-stat-pro-aliquo-Konzeption und ist „für die ganze Geschichte der Semiotik entscheidend“. Bei Aristoteles stehen “Zeichen [...] für Sachen, welche von den Bewußtseinsinhalten abgebildet worden sind“. „Die Sachen werden von den Zeichen nicht präsentiert, sondern repräsentiert.“. Die Interpretation von De interpretatione ist dabei seit Jahrtausenden kontrovers. Die oben wiedergegebene Interpretation entspricht einer psychologischen Deutung, die einen Psychologismus nahelegt. Dies erscheint fraglich, da Aristoteles eher einen erkenntnistheoretischen Realismus vertreten haben dürfte. Scholastik. In der Sprachphilosophie der Scholastik finden sich Überlegungen zum Dreierschema "res" (Sache, Ding), "intellectus" (Verstand, Gedanken, Begriff), "vox" (Wortzeichen). Logik von Port-Royal. In der Grammatik von Port-Royal (Mitte des 17. Jh.) soll das semiotische Dreieck eingeführt worden sein. In der Logik von Port-Royal sind die Gegenstände und die Sprachzeichen nicht unmittelbar, sondern über Universalien miteinander verknüpft. Kant. Nach Kant ist das zwischen Begrifflichkeit und Sinnlichkeit bzw. Gegenstand vermittelnde Element das Schema als ein bildhaftes und anschauliches Zeichen. Das Verfahren des Verstandes, mit Hilfe der ‚Einbildungskraft‘ die reinen Verstandesbegriffe zu versinnlichen, heißt Schematismus. Schopenhauer. Auch Arthur Schopenhauer, ein deutscher Philosoph des 19. Jahrhunderts, unterscheidet in seinem Hauptwerk "Die Welt als Wille und Vorstellung" strikt zwischen Wort, Begriff und Anschauung. Ausblendung des Referenzbezugs im Zeichenmodell von de Saussure. Nach verbreiteter Auffassung haben die moderne Sprachwissenschaft und der moderne Zeichenbegriff erst mit de Saussure eingesetzt. Nach de Saussure ist ein Zeichen die Verbindung eines Ausdrucks (signifiant) mit einem Inhalt (signifié), wobei das Zeichen als „psychische Einheit mit zwei Seiten“ aufgefasst wurde. In diesem zweigliedrigen (dyadischen) Zeichenmodell „hat die reale Welt keine Bedeutung“: „Hier Bezeichnetes als geistige Vorstellung, dort Bezeichnendes als dessen Materialisation in der Sprache, aber kein Platz für das Objekt selbst“. Entwicklung eines kommunikativ-pragmatischen triadischen Zeichenmodells bei Peirce. Charles S. Peirce entwickelte eine pragmatische Semiotik und die Pragmatik soll auf dem triadischen Zeichenmodell von Peirce beruhen. Statt einem dyadischen entwickelte Peirce ein triadisches Zeichenmodell: das Zeichen ist eine „triadische Relation (semiotisches Dreieck)“. Dies, indem er zu Zeichenmittel und Objekt den „Interpretanten“ ergänzte, d.h. die Bedeutung, die durch Interpretation der Zeichenbenutzer (Sprecher bzw. Hörer) in einem Handlungszusammenhang zustande kommt.“ „Das, was als Bewusstseinsinhalt erscheint, der Interpretant, ist der individuell erkannte Sinn, der seinerseits kulturell vor- oder mitgeprägt sein kann. Daher wird in diesem Konzept die Zeichenbedeutung (...) auch als „kulturelle Einheit“ (Eco, 1972) postuliert.“ Peirce-Interpreten wie Floyd Merrell oder Gerhard Schönrich wenden sich gegen die Dreiecksdarstellung peircescher Zeichentriaden, da sie suggerieren könnte, dass sich die irreduzible triadische Relation zerlegen lasse in einzelne zweistellige Relationen. Stattdessen schlagen sie eine Y-förmige Darstellung vor, bei der die drei Relate jeweils durch eine Linie mit dem Mittelpunkt verbunden sind, aber entlang der Seiten des „Dreiecks“ keine Linien verlaufen. Charles Kay Ogden/Ivor Armstrong Richards. Als „die“ Vertreter eines dreiseitigen Zeichenmodells bzw. eines semiotischen Dreiecks (unter Ausblendung ihrer Vorläufer) werden verbreitet Charles Kay Ogden und Ivor Armstrong Richards angeführt. Diese erkannten eine Welt außerhalb des menschlichen Bewusstseins ausdrücklich an und wandten sich gegen „idealistische Konzepte“. Nach Charles Kay Ogden und Ivor Armstrong Richards symbolisiert das Zeichen ("symbol") etwas und ruft einen entsprechenden Bewusstseinsinhalt (reference) hervor, der sich auf das Objekt (referent) bezieht. Das semiotische Dreieck wird wie folgt erklärt: „Umweltsachverhalte werden im Gedächtnis begrifflich bzw. konzeptuell repräsentiert und mit Sprachzeichen assoziiert. So ist z.B. das Wort „Baum“ ein Sprachzeichen, das mit dem Begriff bzw. Konzept von „BAUM“ assoziiert ist und über diesen auf reale Bäume (Buchen, Birken, Eichen usw.) verweisen kann.“. Terminologischer Befund. In der Literatur des 19. und 20. Jahrhunderts tauchen verschiedene Dinge unter der Bezeichnung "Semiotisches Dreieck" auf. Die Ecken sind jeweils anders bezeichnet. Es geht aber immer um Abbildung und Interpretation. Die obenstehende Abbildung zeigt eine mögliche Fassung. Die unterschiedlichen Definitionen von elementaren Begriffen bei den verschiedenen Autoren erschweren den Diskurs erheblich. Während beim Zeichen(-körper) ("links") und beim Gegenstand ("rechts") die sachlichen Unterschiede im Grunde marginal sind, spiegelt die Begrifflichkeit für die Spitze ("oben") den erkenntnistheoretischen Meinungsstreit wider. Dieser dürfte sich auf die Grundpositionen Empirismus bzw. Rationalismus (Psychologismus) und Realismus reduzieren lassen. Die anschauliche Darstellung in Form eines Dreiecks ist zu unterscheiden von der sachlichen Unterscheidung der Bezugspunkte. So hat in der Sache etwa schon Aristoteles eine dreistellige Relation angenommen, mag er dies auch nicht durch das Bild eines Dreiecks veranschaulicht haben. Sinnvoll sind hier auch Logiker anzuführen, mögen sie sich auch nicht für das Zeichen/das Symbol näher interessiert haben. Salier. Die Salier – nicht zu verwechseln mit den Salfranken des 3./4. Jahrhunderts, die als Erste den Namen "Salier" führten – waren ein ostfränkisches Adelsgeschlecht im römisch-deutschen Reich des 10. bis 12. Jahrhunderts. Ihr Stammgebiet war Speyergau, Wormsgau und Nahegau. Später waren sie phasenweise Herzöge von Lothringen und Franken. Von 1027 bis 1125 kamen aus diesem Geschlecht die römisch-deutschen Kaiser. Namensherkunft. Wahrscheinlich besteht bei der Namensentstehung ein Zusammenhang mit dem Merowinger Chlodwig I. und dem von ihm erlassenen Volksrecht, der Lex Salica. Danach wurde unter "salicus" bald fränkisch verstanden. Laut dem Chronisten Otto von Freising wurden als Salier die Vornehmsten der Franken bezeichnet. Der Beiname erscheint erstmals mit dynastischem Bezug Anfang des 12. Jahrhunderts als "rex salicus" oder "reges salici" in der Weltchronik des Ekkehard von Aura und konnte sich im Spätmittelalter als Bezeichnung für die Dynastie durchsetzen. Der Name bezog sich dann nur noch auf Konrad II. und seine Nachkommen. Ein lange angenommener Zusammenhang mit den Salfranken konnte nicht belegt werden. Geschichte. Die Salier gelten als deutsche Nebenlinie der in Italien mächtig gewordenen Widonen bzw. Lambertiner (u. a. Herzöge von Spoleto/Umbrien, König von Neustrien/Westfrankreich, König von Pavia/Lombardei) und waren durch die Mutter Konrads des Roten verschwägert mit den Konradinern. Durch seine Ehe mit Liutgard, der Tochter Ottos des Großen, und seine Ernennung zum Herzog von Lothringen wurde Konrad der Rote zum Begründer des Geschlechts. Er war der Urgroßvater von Konrad II., der 1024 König des ostfränkisch-deutschen Reiches und 1027 erster Kaiser aus dem Geschlecht der Salier wurde. Bereits bei der Königswahl von 1002 hatte sein Großvater Otto von Worms als ein möglicher Kandidat gegolten. Konrad II. wurde zudem später König von Italien und ab 1033 König von Burgund. Als er im Jahr 1039 starb, hinterließ er seinem Sohn Heinrich III. eine gefestigte Herrschaft. Die Gründung des Speyerer Doms, dessen Krypta bis 1308 als Grablege der römisch-deutschen Könige diente, geht wahrscheinlich auf ihn zurück. Der Niedergang der Salier wurde durch einen Streit Heinrichs IV. mit dem Papst eingeleitet (siehe Investiturstreit, Gang nach Canossa). Heinrich V., der letzte Salierkönig, regierte bis 1125. Auf die Herrschaft der Salier folgte als Übergang der Sachse Lothar III. und nach ihm der Staufer Konrad III., der über seine Mutter, die Tochter Heinrichs IV., ein Neffe des letzten salischen Kaisers Heinrich V. war. Wichtige Familienmitglieder. siehe auch Stammliste der Salier Strategiespiel. Ein Strategiespiel ist ein Spiel, in dem eine langfristige Planung des Vorgehens im Spiel entscheidend ist. Häufig enthalten Strategiespiele dabei keine oder nur sehr geringe Glücks- oder Zufallselemente. Strategiespiele sind u.a. Forschungsgegenstand der Spieltheorie; diese wird in Mathematik und Ökonomie angewendet. Im Unterschied zur klassischen Entscheidungstheorie beschreibt die Spieltheorie Entscheidungssituationen, in denen der Erfolg des Einzelnen nicht nur vom eigenen Handeln, sondern auch von den Aktionen anderer abhängt (interdependente Entscheidungssituation). Beschreibung. Bei reinen Strategiespielen (Spiele ohne Zufallselemente) kann man prinzipiell in jeder Spielsituation das Ergebnis bei perfektem Spiel aller Spieler ausrechnen. Praktisch sind die Spiele dagegen häufig zu komplex, um sie zu berechnen. Strategiespiele erfordern von den Spielern, ein möglichst den gesamten Spielverlauf umfassendes Vorgehen zu entwickeln. Anders als bei purer Taktik (der Entscheidung von Fall zu Fall) geht es nicht nur darum, den vorangegangenen Spielzug beziehungsweise den anschließend folgenden in seine Überlegungen einzubeziehen, sondern mehrere Spielzüge im Voraus zu denken, Strukturen der Spielsituation zu erfassen und deren langfristige Auswirkungen vorher zu planen. Das bei uns traditionell bekannteste Strategiespiel ist das Brettspiel Schach. Andere traditionelle Spiele sind Dame, Mancala und Go. In der Spieltheorie zählen zufallslose Strategiespiele ohne verdeckte Elemente, wie etwa gleichzeitige Züge, zu den Spielen mit vollständiger Information. Neben den klassischen Strategiespielen haben sich in den letzten Jahren verschiedene Tabletop-, Karten- und Brettspiele entwickelt, die ebenfalls der Kategorie Strategiespiele zugeordnet werden. Beispiele dafür sind Euphrat & Tigris von Reiner Knizia und Puerto Rico von Andreas Seyfarth, die beide mit dem Deutschen Spiele Preis ausgezeichnet wurden, sowie viele abstrakte Zwei-Personen-Spiele, wie zum Beispiel die der Reihe Gipf von Kris Burm. Der logische Hintergrund und die Beschreibung der Möglichkeiten und des Verhaltens der Spieler wird mit Hilfe der Spieltheorie beschrieben. Des Weiteren existiert für den Computer ein ganzes Genre an Strategiespielen. Das bisher einzige "reine " Strategiespiel, das den Spielepreis "Spiel des Jahres" gewinnen konnte, war 1981, das von Sid Sackson entwickelte Brettspiel Focus. Vergleicht man die beiden Spielepreise „Spiel des Jahres“ und „Deutscher Spiele Preis“, so schneiden Strategiespiele bei letzterem meistens besser ab, da hier die Vorschläge von Spielern, die sich intensiv mit Spielen beschäftigen, eingehen, während beim „Spiel des Jahres“ die Jury besonders die Spielbarkeit für Familien und einen niedrigschwelligen schnellen Einstieg berücksichtigt. Abgrenzung zum Taktik-Spiel. Eine Strategie ist ein längerfristig ausgerichtetes planvolles Anstreben einer vorteilhaften Lage oder eines Ziels. Taktik bezeichnet im Allgemeinen konkrete Aspekte und Berechnungen, beispielsweise wird darunter beim Schach eine situative, wenig Züge umfassende Kombination mit schachtaktischen Elementen wie beispielsweise Abzug, Doppelangriff oder Fesselung verstanden. Eine solche Kombination stellt konkrete Drohungen auf und zielt auf konkrete Vorteile wie Figurenverlust oder Stellungsnachteil. Derartige Pläne können im Normalfall nicht langfristig entworfen werden, sondern müssen von den Spielern während des Spiels gesucht werden. Eine Strategie ist dagegen auf die Beeinflussung des ganzen Spielverlaufs angelegt und entscheidet, welche Eröffnung ein Spieler wählt. Denn je nach Eröffnung ändert das Spiel grundsätzlich seine Richtung und der Spieler kann so einen Spieltyp anstreben (beispielsweise offener Schlagabtausch oder vorsichtiges Manövrieren), in der er sich stärker fühlt, oft ohne dass dies eigentlich messbar wäre. Stahlhelm, Bund der Frontsoldaten. Logo des Stahlhelm, Bund der Frontsoldaten Logo der Jugendorganisation des Stahlhelm Der „Stahlhelm, Bund der Frontsoldaten“ war ein Wehrverband zur Zeit der Weimarer Republik, der kurz nach Ende des Ersten Weltkrieges im Dezember 1918 von dem Reserveoffizier Franz Seldte in Magdeburg gegründet worden war. Seldte war zusammen mit Theodor Duesterberg Vorsitzender der Vereinigung. Diese galt als bewaffneter Arm der Deutschnationalen Volkspartei (DNVP). So stellte der Stahlhelm bei Parteiversammlungen vielfach den (bewaffneten) Saalschutz. Name. Der Name geht zurück auf den 1916 im deutschen Heer eingeführten Stahlhelm. Für viele Frontsoldaten wurde er zum Sinnbild für Härte und Opferbereitschaft. So erwähnt Ernst Jünger in seinem Erstlingswerk "In Stahlgewittern" im Kapitel über die Schlacht an der Somme, dass er am 23. August 1916 den ersten deutschen Soldaten mit Stahlhelm gesehen habe. Im Jahr 1934 ergänzte er: „Er war der erste deutsche Soldat, den ich im Stahlhelm sah, und er erschien mir sogleich als der Bewohner einer fremden und härteren Welt.“ 1918 bis 1933. Der Stahlhelm verstand sich als Organisation, in der das Wirken aller Kriegsteilnehmer Anerkennung finden sollte, und stand in eindeutiger Opposition zum politischen System der Weimarer Republik. Im Stahlhelm herrschte eine Weltanschauung vor, die sich stark an der Kaiserzeit orientierte. Ehemaligen Frontsoldaten jüdischen Glaubens wurde die Mitgliedschaft verwehrt (siehe hierzu Reichsbund jüdischer Frontsoldaten). In eigenen Untergliederungen (Scharnhorstbund, Jungstahlhelm, Studentenring Langemarck, Landsturm) wurden ab 1924 interessierte Heranwachsende und ältere frontunerfahrene Männer militärisch ausgebildet, wobei die Reichswehr tatkräftige Unterstützung leistete. Die Mitglieder und ihre Führer verstanden sich als Personalreserve für die durch den Versailler Vertrag zahlenmäßig auf 100.000 Mann beschränkte Reichswehr. Die Mitgliederzahl vergrößerte sich bis 1930 auf über 500.000 Mitglieder. Der Stahlhelm war somit nach dem Reichsbanner Schwarz-Rot-Gold der zweitstärkste paramilitärische Verband der Weimarer Republik. Finanziert wurde der Stahlhelm von ehemaligen Militärs und den im Deutschen Herrenklub zusammengeschlossenen Unternehmern sowie von ostelbischen Großgrundbesitzern. Obwohl sich der Stahlhelm offiziell als überparteilich darstellte, trat er seit 1928 offen als republikfeindlich und demokratiefeindlich in Erscheinung. Ziele waren die Errichtung einer Diktatur in Deutschland, die Vorbereitung eines Revanchekrieges und die Errichtung eines antiparlamentarischen Ständestaates. In der „Fürstenberger Hassbotschaft“ vom September 1928 hieß es: „Wir hassen mit ganzer Seele den augenblicklichen Staatsaufbau, seine Form und seinen Inhalt“, weil er ein Hindernis dagegen darstelle, „unser geknechtetes Vaterland zu befreien, […], den notwendigen Lebensraum im Osten zu gewinnen und das deutsche Volk wieder wehrhaft zu machen“. Deshalb bezeichneten die Stahlhelm-Mitglieder gegen Ende der Weimarer Republik sich selbst in Abgrenzung zur NSDAP auch als die „deutschen Faschisten“. Zu weiteren Grundforderungen gehörten die Schaffung eines „völkisch großdeutschen Reiches“, die Bekämpfung der Sozialdemokratie sowie des „Händlergeistes des Judentums“ und der demokratisch-liberalen Weltanschauung, die Vergabe führender Stellen im Staat an Frontsoldaten und eine Politik für Lebensraum im Osten. Gemeinsam mit der DNVP unter Alfred Hugenberg und der NSDAP unter Adolf Hitler organisierte der Stahlhelm einen Volksentscheid gegen den Young-Plan. Der „Stahlhelm“ gehörte 1931 zu den Gründungsorganisationen der gegen die Weimarer Republik gerichteten Harzburger Front. Im ersten Wahlgang der Präsidentschaftswahl 1932 stellte der Stahlhelm mit Theodor Duesterberg einen eigenen Kandidaten auf. 1933 bis 1935. Mitglieder des sogenannten „Wehrstahlhelms“ (1934) Nach der Machtübernahme der NSDAP wurde der Stahlhelm als einzig noch gegenüber den NSDAP-Organisationen bestehender Verband gesehen: (Duesterberg) Im Nürnberger Prozess antwortete Theodor Gruß, Bundeskämmerer des Stahlhelms bis zu dessen Auflösung 1935 und bis 1939 dessen Liquidator, auf die Frage nach den Auffassungen im Stahlhelm gegenüber den politischen Parteien Deutschlands: „Der Stahlhelm war gegen alle radikalen politischen Strömungen. Er verfolgte dabei aber nicht ein Vernichtungs- oder Ausrottungsprinzip, sondern er hatte immer wieder versucht, durch Aufklärung, Überzeugung, durch Werbung diese extremen Richtungen mit den gemäßigten Richtungen zu vereinigen. Ein Beweis dafür, daß die politischen Gegner des Stahlhelms ihn doch letzten Endes verstanden haben, ergab das Frühjahr 1933, als viele Mitglieder, verfolgte Mitglieder der SPD und KPD, im Stahlhelm Schutz und Hilfe suchten. Sie wurden dort von uns aufgenommen, aber der Stahlhelm geriet dadurch in die schwersten Konflikte mit der Partei. Die Partei konnte sich nicht damit einverstanden erklären, daß die von ihr verfolgten Leute vom Stahlhelm geschützt wurden. …“ Entwaffnungs-Aktion gegen den Braunschweiger Stahlhelm. Die Entwaffnungs-Aktion gegen den Stahlhelm in Braunschweig, der von der NSDAP so genannte Stahlhelm-Putsch am Montag, dem 27. März 1933, ist ein Beispiel des Drucks auf den Stahlhelm. Durch die Aufnahme ehemaliger Reichsbanner-Mitglieder in seine Reihen war dort lokal versucht worden, die Bedeutung des Verbands zu stärken. Dagegen richtete sich eine massive Aktion der SA und SS, zum Teil in Zusammenarbeit mit der lokalen Polizei, die die zeitweise Inhaftierung der 1500 Stahlhelm-Mitglieder und -Führer und ein vorübergehendes Organisations-Verbot einschloss. 1000 der Verhafteten waren Mitglieder der SPD und KPD. Viele der Bewerber um die Neuaufnahme wurden misshandelt. Die Ereignisse fanden durch Presseberichte umgehend reichsweite Beachtung, wobei der Widerstand des Braunschweiger Stahlhelms ein außergewöhnliches Ereignis im gesamten Deutschen Reich war. Die von Seiten des NS-Regimes propagandistisch eingesetzte wahrheitswidrige Bezeichnung „Putsch“ sollte nach außen hin den Eindruck erwecken, als habe es sich hierbei um einen versuchten Staatsstreich des Stahlhelm gegen die amtierende Reichsregierung Hitlers gehandelt. Seldtes Übertritt zur SA. Stahlhelm-Gründer Franz Seldte wurde im Kabinett Hitler Reichsarbeitsminister und trat im April 1933 der NSDAP bei. Im August 1933 wurde er SA-Obergruppenführer und später Reichskommissar für den Freiwilligen Arbeitsdienst. Die Funktion als Reichsarbeitsminister behielt er bis 1945. Gleichschaltung und Auflösung. Nachdem Seldte am 27. April 1933 erklärt hatte, dass er sich und den Stahlhelm als „geschlossene soldatische Einheit dem Führer“ unterstelle, erfolgte in den Jahren 1933/34 die "Gleichschaltung" des Stahlhelms, seiner Nebenorganisationen und aller übrigen militaristischen Organisationen durch Unterstellung unter die SA. Die unter 35-jährigen Mitglieder, rund 314.000, übernahm ab Juli die SA direkt als „Wehrstahlhelm“. Unter der Bezeichnung „SA-Reserve I“ wurden die 36- bis 45-jährigen Mitglieder des Stahlhelms bis September 1933 organisatorisch der SA-Führung unterstellt, die über 45-jährigen als „SA-Reserve II“. Im Januar 1934 „verschmolzen“ diese Verbände mit der SA. Der Rest erhielt im März 1934 den Namen „Nationalsozialistischer Deutscher Frontkämpferbund (Stahlhelm)“. Am 7. November 1935 löste Hitler auch diese Organisation auf. Nach 1945. Im Jahre 1951 wurde der "Der Stahlhelm e.V." in Köln als eingetragener Verein neu gegründet, woran sich auch der ehemalige Generalfeldmarschall Albert Kesselring beteiligte. Alt- und Neonazis sowie Teile der rechtsextremen Szene knüpfen bis heute auch an die Ideologie des „Stahlhelm“ an, der sich später in „Der Stahlhelm e. V. – Bund der Frontsoldaten – Kampfbund für Europa“ umbenannte und eine Zeit lang seinen Hauptsitz im niedersächsischen Jork hatte. Manche der Landesverbände des Vereins haben sich inzwischen (2011) selbst aufgelöst. Publikationen. Das Zentralorgan "Der Stahlhelm" erschien zuerst als Halbmonatsschrift, ab 1924 als Wochenzeitung. Die Auflage überschritt Mitte der 1920er Jahre deutlich 100.000, fiel danach aber auf unter 100.000 zurück. Neben kleineren Organen für Studenten und Monatsbriefen für "Stahlhelmführer" erschien in den Jahren 1925/26 "Die Standarte" mit dem Untertitel "Beiträge zur geistigen Vertiefung des Frontgedankens. Nichtamtliche Führerbeilage zum Stahlhelm". Sie wurde in den Jahren 1926–1929 mit dem neuen Zusatz "Wochenschrift des neuen Nationalismus" von Ernst Jünger, Franz Schauwecker und anderen herausgegeben. Sojabohne. Die Sojabohne ("Glycine max"), häufig auch einfach als Soja (von jap. "shōyu" für Sojasauce) bezeichnet, ist eine Pflanzenart aus der Unterfamilie Schmetterlingsblütler (Faboideae) innerhalb der Familie der Hülsenfrüchtler (Leguminosae oder Fabaceae). Der Anbau der Nutzpflanze Sojabohne ist seit einer Zeit zwischen 1700 und 1100 v. Chr. in Nordostchina als Nahrungspflanze nachgewiesen. Die Sojabohne wird heute auf sechs Prozent der globalen landwirtschaftlichen Nutzfläche angebaut und ist die weltweit wichtigste Ölsaat. Ihre zunehmende Bedeutung spiegelt sich in dem seit den 1970er Jahren von allen Nutzpflanzen höchsten Zuwachs an Anbaufläche wider. Während 1960 siebzehn Millionen Tonnen produziert wurden, waren es 2012 253,1 Millionen Tonnen. Sojabohnen enthalten etwa 20 Prozent Öl und 37 Prozent Eiweiß. Die Eiweißqualität ist mit der von tierischem Eiweiß vergleichbar, was die Sojabohne von anderen Pflanzen abhebt. Direkt von Menschen konsumiert werden etwa zwei Prozent der geernteten Sojabohnen. Der überwiegende Anteil der Sojaernte wird zur Sojaölgewinnung eingesetzt, das vor allem als Lebensmittel, aber z. B. auch für die Produktion von Biodiesel verwendet wird. Der verbleibende Sojakuchen (rund 80 Prozent der Masse) wird aufgrund des hohen Eiweißgehalts zu 98 Prozent in der Tierproduktion verfüttert. Vegetative Merkmale. Die Sojabohne ist eine einjährige krautige Pflanze. Da es sehr viele Convarietäten und Varietäten gibt, sind auch die morphologischen Merkmale sehr unterschiedlich. Am häufigsten sind aufrecht wachsende Sorten von 20 bis 80 Zentimeter Wuchshöhe. Hochwüchsige Sorten erreichen bis zwei Meter Höhe. Die Stängel sind eher dünn und mehr oder weniger verzweigt. Die meisten Sorten sind an Stängeln, Blattstielen und Blättern fein und dicht behaart. Es gibt Sorten mit unbegrenztem (indeterminiertem) Wachstum. Die Mehrzahl der Sorten hat jedoch ein begrenztes Wachstum, da die Endknospe der Triebe sich zum Blütenstand entwickelt, und die Pflanze somit nicht weiterwächst. In höheren Breitengraden werden erstere Sorten bevorzugt. Die wechselständig am Stängel angeordneten Laubblätter sind in Blattstiel und Blattspreite gegliedert. Der Blattstiel ist relativ lang. Die unpaarig gefiederte Blattspreite bestehen meist aus drei Blättchen. Die ganzrandigen Blättchen sind bei einer Länge von 3 bis 10 Zentimetern sowie einer Breite von 2 bis 6 Zentimetern oval. Die Laubblätter werden noch während der Fruchtreifung abgeworfen. Sojabohnen haben ausgeprägte Pfahlwurzeln von bis zu 1,5 Meter Länge. Die Wurzeln werden von dem sojaspezifischen Knöllchenbakterium "Bradyrhizobium japonicum" besiedelt. In dieser Symbiose erhält die Pflanze von den Bakterien den wichtigen Nährstoff Stickstoff in pflanzenverfügbarer Form. Beim Anbau von Soja auf Böden, in denen die Bakterien nicht von Natur aus vorhanden sind (etwa bei europäischen Böden) erfolgt eine Beimpfung des Saatgutes mit den erforderlichen bakteriellen Symbionten. Generative Merkmale. Die Sojabohne ist eine Kurztagspflanze. Beim Anbau unter Langtagbedingungen verlängert sich die Wachstumszeit durch Verzögerungen bei der Blütenanlage und Abreife der Samen. Die drei bis zwanzig Blüten stehen zu in seiten- oder endständigen traubigen Blütenständen zusammen. Sie sind klein und in der Regel selbstbefruchtend. Die Blühperiode erstreckt sich meist über drei bis vier Wochen. Die zwittrigen Blüten sind zygomorph und fünfzählig mit doppelter Blütenhülle. Nur 20 bis 80 Prozent der Blüten setzen Hülsenfrüchte an. Die Hülsenfrucht ist 2 bis 10 Zentimeter lang und bei der Reife strohgelb, grau oder schwarz und enthalten ein bis fünf Samen. Die braunen, grünen oder schwarzvioletten Samen sind kugelig, ei- oder nierenförmig, flach oder gewölbt. Die Tausendkornmasse reicht von 50 bis 450 Gramm. Die Ernte der Sojabohnen kann vollmechanisiert durch Mähdrescher erfolgen. Chromosomenzahl. Die Chromosomenzahl beträgt 2n = 40. Schädlinge und Krankheiten. Bekannte Schädlinge der Sojabohnenpflanze sind die Sojabohnenzystennematode, die zur Gruppe der Fadenwürmer gehört, der Baumwollkapselbohrer, die Stinkwanze, der Asiatische Sojarost ("Phakopsora pachyrhizi") und der Pilz "Fusarium virguliforme". Der Pilz führt zum „Sudden-death-Syndrom“ (SDS), das ein akutes Absterben der Sojapflanze zur Folge hat. Ursprung in China, Japan und Südostasien. Die Sojabohne stammt von der Wildform "Glycine soja" ab. Die ältesten Belege für eine Nutzung nicht-domestizierter, kleiner Soja-Samen durch den Menschen stammen aus Nordchina (7000 v. Chr.) und Japan (5000 v. Chr.). Die ältesten Belege für große, gezüchtete Bohnen stammen aus Japan (3000 v. Chr.) und Korea (1000 v. Chr.). In China ist sie seit der Zhou-Dynastie (ca. 500 v. Chr.) weit verbreitet. In China galt sie damals zusammen mit Hirse als eine der wichtigsten Nahrungsmittelpflanzen. Verbreitung. Für Europa entdeckt wurde "Glycine max" von Engelbert Kaempfer, der sie nach seiner Japan-Reise 1691/92 erstmals beschrieb. Aus dem Jahre 1737 gibt es erste Belege, dass die Sojabohne in Holland in botanischen Gärten gezogen wurde, 1739 auch in Frankreich. In Europa erlangte der Anbau jedoch nie eine Bedeutung. Samuel Bowen brachte die Sojabohne 1765 erstmals in die USA. Der frühe internationale Bedeutungszuwachs der Sojabohne erklärt sich nicht allein durch ihren hohen Öl- und Proteingehalt und die hohe Ertragsstabilität, da diese teilweise erst im 20. Jahrhundert durch enorme Forschungsanstrengungen erreicht wurden. Anfänge in den USA. Von der ersten Erwähnung der Sojabohne in der US-Agrarstatistiken 1924 bis zum Zweiten Weltkrieg stieg die Anbaufläche von 767.000 auf 4.220.000 ha an. Der überwiegende Teil der Ernte wurde bis Ende der 1930er Jahre jedoch nicht in Ölpressen verarbeitet. 1925 wurden nur 6 % der Ernte gepresst, 1939 hingegen bereits 71 %. Der Grund für den massiven Produktions- und Pressungszuwachs lag in der erst beginnenden Kooperation zwischen Landwirten und Verarbeitern. So wurden im Forum der 1919 gegründeten American Soybean Association (ASA) im Jahr 1928 erste bindende Abnahmegarantien geschlossen. Anfang der 1930er erreichte die ASA die Etablierung prohibitiver Importzölle auf Sojabohnen, die das Doppelte des Marktpreises betrugen. Die so geschützte US-Sojabohnenproduktion konnte sich daher ausdehnen. Dennoch wurde die Sojabohne zunächst nur im industriellen Bereich eingesetzt. Anfang der 1930er wurden 95 % des Sojaöls zur Farb- und Firnisherstellung eingesetzt. Im Bereich der menschlichen Ernährung war das potenziell für die Margarineproduktion verwendbare Sojaöl der Konkurrenz des Kokosnussöls aus den Philippinen unterlegen, unter anderem aufgrund des relativ markanten und starken Geschmacks des Sojaöls. Daher erschien eine zukünftige Bedeutung der Sojabohne für die Ernährung unwahrscheinlich. Der Industrielle Henry Ford verarbeitete Sojamehl zu Plastik, welches er in der Autoproduktion verwendete. Doch seit Mitte der 1930er wurde unter dem Einfluss der ASA auch die Verarbeitung von Kokosnussöl besteuert. Neben dem Schutz vor ausländischer Konkurrenz begünstigten weitere Faktoren den Aufstieg der Sojabohne. Z. B. setzte die Motorisierung der Landwirtschaft größere Flächen frei, die zuvor für den Futteranbau für Zugtiere verwendet worden waren. Bauern, die sich brachliegenden Flächen und sinkenden Einkommen gegenübersahen, erhofften sich von der Sojabohne eine Antwort auf ihre Probleme. Die Sojabohne wurde so auch "Goldene Bohne", "Cinderella" und "Wunderfrucht" genannt. Sie wurde auch aufgrund ihrer stickstoffbindenden Eigenschaften in der Verbesserung der Bodenfruchtbarkeit gelobt. Die Sojabohne konnte zudem mit denselben Mähdreschern geerntet werden wie Weizen. Die Marktpreise waren deutlich höher als für Mais. Die ASA startete Kampagnen, um die Bohne unter Landwirten im Mittleren Westen zu größerer Bekanntheit zu verhelfen. Zudem wurden auf Soja spezialisierte Forschungseinrichtungen und -programme etabliert. Die Zuchtstationen importierten Tausende von Sorten aus China. Schließlich wurde das Aminosäureprofil identifiziert, und Sojamehl begann, Fleisch-, Fisch- und Baumwollmehl als Viehfutter zu verdrängen. Zweiter Weltkrieg. Der Zweite Weltkrieg verhalf der Sojabohne zu weiteren starken Bedeutungszuwächsen in den USA. Der Krieg stimulierte die Wirtschaft und erhöhte die Güternachfrage, insbesondere nach Lebensmitteln. Nach dem Angriff auf Pearl Harbor war das Land zudem von Kokos- und Palmölimporten abgeschnitten und musste diese Angebotseinbrüche wettmachen. Die Regierung führte Garantiepreise für Sojabohnen und Subventionen für die Verarbeitungsindustrie ein. Die Preise verdoppelten sich so während des Kriegs. Auch die Schweine- und Geflügelfleischproduktion nahmen um 40-50 % zu und verschaffte dem zuvor eher als Nebenprodukt der Ölgewinnung angesehenen Sojamehl einen massiven Bedeutungsgewinn als Futtermittel. Auf Druck der ASA verpflichteten sich Margarinehersteller 1947, nur noch amerikanische Rohstoffe zu verwenden. Anders im nationalsozialistischen Deutschland. Dort strebte man die direkte Einbringung der wertvollen Pflanze in die menschliche Nahrung an. Die Nationalsozialisten hatten ihr Augenmerk auf die Sojabohne geworfen, da sie mit ihrem hohen Anteil an biologischen vollwertigen Eiweißen sehr gut geeignet war, die sogenannte „Eiweißlücke“ zu schließen, die wegen der Autarkiebestrebungen Deutschland drohte. Nachkriegszeit und internationale Verbreitung. Die nordamerikanische Produktion dehnte sich nach dem Krieg stark aus und versechsfachte sich so zwischen 1946 und 1970. Während unmittelbar nach dem Zweiten Weltkrieg nur wenig Soja exportiert wurde, stieg dieser Anteil bis 1970 auf 40–57 %. Die Exporte versorgten europäische Ölmühlen, welche von amerikanischen Firmen insbesondere in den 1960er Jahren gebaut wurden. Die Verwendung von Sojamehl als Futtermittel in Europa wurde von Anbauverbänden ebenfalls angeregt. Auch die amerikanischen Lebensmittelhilfen und dem Abbau von Bevorzugungen von Ölimporten aus Drittländern im Rahmen der Europäischen Wirtschaftsgemeinschaft (EWG) begünstigten die weitere Etablierung der europäischen Nachfrage nach Sojabohnen. Seit den 1970er Jahren nahm die Sojabohnenproduktion in Nordamerika weiter zu. Insbesondere in Südamerika gewann sie massiv an Bedeutung. Im Süden Brasiliens begann die Sojabohne Kaffee zu verdrängen. Heute produziert Südamerika mehr Sojabohnen als Nordamerika. Wirtschaftliche Bedeutung. Die 15 größten Produzenten von Sojabohnen (nach FAO, 2012) Auf dem Weltmarkt für Ölsaaten (ohne Ölpflanzen) hat die Sojabohne mit über 55 % den größten Marktanteil und einen volkswirtschaftlichen Wert von knapp 50 Milliarden US-Dollar. Die Welternte 2012 belief sich auf über 253,1 Mio. t. Die gesamte Anbaufläche betrug über 106,6 Mio. ha. Die 15 größten Produzenten erzeugten zusammen etwa 98,35 % der gesamten Welternte. Die Sojabohne war 2011 mit 91 Millionen Tonnen nach Weizen (148,3 Mio. t) und Mais (109,6 Mio. t) die meistgehandelte Nutzpflanze. Exporteure sind vor allem südamerikanische Länder sowie die USA. Der mit Abstand bedeutendste Importeur (2011) ist China (57,8 % der weltweiten Importmenge), gefolgt von Mexico (3,7 %), Deutschland (3,5 %) und Spanien (3,5 %). Seit 1996 ist eine gentechnisch veränderte (transgene) Sojabohne zugelassen, die die Unkrautbekämpfung erleichtert. Die Pflanzen sind resistent gegen das Breitbandherbizid Glyphosat (Roundup). 2010 wurde auf 71 % der globalen Sojaanbaufläche transgenes Saatgut verwendet. Südamerika. Südamerika produzierte 2012 51,8 % der globalen Sojabohnenernte. Etwa 80 % Prozent des in Südamerika angebauten Sojas werden als Mastfutter in der Tierhaltung in Europa und Nordamerika verfüttert. Ca. 10 % werden zu Agrartreibstoffen verarbeitet und 9 % werden zu Margarine verarbeitet. Der Rest von 1 % wird für andere Soja-Lebensmittel, beispielsweise Sojasoße oder Tofu, verwendet. Die Anbauflächen stiegen seit dem Jahre 2000 in Argentinien auf 17 Millionen Hektar (+190 %) und in Brasilien auf 22 Millionen Hektar (+160 %). Brasilien steigerte von 2002 bis 2012 die Produktion von Sojabohnen von 43 Millionen Tonnen auf 66 Millionen Tonnen. Umweltschützer kritisieren, dass in Argentinien und Brasilien große Flächen Regenwald abgeholzt werden, um die Anbauflächen für Soja zu vergrößern. Andere gefährdete Ökosysteme sind ebenfalls betroffen, zum Beispiel die Nebelwälder in Argentinien oder die Cerrado-Savanne in Brasilien. Der Anbau transgener Sojabohnen ist in vielen Ländern Südamerikas stark verbreitet. Nordamerika. 34,3 % der Weltproduktion stammten 2012 aus Nordamerika. Hauptanbaugebiet ist hier der sogenannte "Corn Belt" ("Maisgürtel") im Mittleren Westen, wo fast ausschließlich Mais und Sojabohnen angebaut werden. Die US-Bundesstaaten Illinois und Iowa sind am produktionsstärksten. Mehr als ein Drittel der US-Produktion wird exportiert, und Sojaöl ist das verbreitetste Pflanzenöl in der Lebensmittelproduktion in den USA. Auch in den USA und Kanada ist der Anbau von gentechnisch verändertem Soja weit verbreitet. Asien. In Asien wurden 2012 10,7 % der globalen Sojaernte produziert. China ist der mit Abstand wichtigste Produzent des Kontinents. Europa. In Europa wurden 2012 2,2 % der globalen Erntemenge produziert. In der EU werden in erster Linie in Italien, Rumänien und Frankreich Sojabohnen produziert, außerhalb der EU in der Ukraine, Russland und Serbien. 2007 hatte die EU einen Bedarf von 34,5 Mio. t Sojaschrot, wovon 0,3 Mio. t innerhalb ihrer Grenzen produziert wurden. Ein Anbau kommt in Europa nur dort in Betracht, wo während der unter europäischen Klimabedingungen gegebenen Vegetationszeit von 150 bis 180 Tagen eine Wärmesumme von 1500 bis 2000 °C bezogen auf einen Schwellenwert von 6 °C erreicht wird. Zur Keimung der Sojasaat ist eine Bodentemperatur von circa 10 °C erforderlich. Mehrere gentechnisch veränderte Sojabohnen sind in der EU zur (kennzeichnungspflichtigen) Verwendung als Futter- und Lebensmittel zugelassen, jedoch nicht für den Anbau. Deutschland. In Deutschland wurden im Jahr 2011 auf etwa 5000 Hektar Sojabohnen angebaut. Optimale klimatische Bedingungen in der unter hiesigem Klimat möglichen Vegetationszeit der Bohnen zwischen Ende April/Anfang Mai und Mitte Oktober herrschen nur an einigen Standorten in Süddeutschland (Oberrheinische Tiefebene zwischen Freiburg und Mainz, Neckartal zwischen Stuttgart und Heilbronn, südliches Bayern). Seit 1996 konzentriert man sich auf den ökologischen Anbau. Mit gentechnikfreiem Soja könnten gemäß dem Deutschen Sojaförderring Preise deutlich über dem Weltmarktpreis erreicht werden. Im Januar 2011 startete mit Unterstützung des BMELV ein vom FiBL koordiniertes Forschungsprojekt mit dem Ziel, den Sojaanbau in Deutschland auch über die traditionellen Anbaugebiete im Süden hinaus auszudehnen. Das Forschungsprojekt wird vom "Bundesprogramm Ökologischer Landbau und anderen Formen der nachhaltigen Landwirtschaft" (BÖLN) über drei Jahre mit insgesamt rund 1,2 Millionen Euro gefördert. Der Titel des Projekts lautet „Ausweitung des Sojaanbaus durch züchterische Anpassung sowie pflanzenbauliche und verarbeitungstechnische Optimierung“. Die Bearbeitung erfolgt durch ein Konsortium, bestehend aus der Hochschule Osnabrück (Fakultät Agrarwissenschaften & Landschaftsarchitektur), FiBL Deutschland und FiBL Schweiz, dem Sojaförderring am Landwirtschaftlichen Technologiezentrum Augustenberg, der Georg-August-Universität Göttingen, dem Bundesforschungsinstitut für Kulturpflanzen am Julius-Kühn-Institut, der Life Food GmbH (dt. Fa., im ökologischen Sojaanbau aktiv), Naturland, der Universität Hohenheim und der Universität Kassel. An der Hochschule Osnabrück soll hierbei in zwei hochschuleigenen Versuchsbetrieben vergleichend Versuche für das ökologische und konventionelle Managementsystem durchgeführt werden. Österreich. Erste Anbauversuche der Sojabohne in Österreich gehen auf die Universität für Bodenkultur im Jahr 1875 zurück. Erstmals größere Verbreitung fand der Soja-Anbau Anfang der 1990er-Jahre. Nach einem Rückgang bei der Anbaufläche nach dem EU-Beitritt 1995 stieg die Anbaufläche zuletzt wieder stetig an und betrug im Jahr 2010 34.224 Hektar, der viertgrößte Wert innerhalb der EU. Innerhalb Österreichs konzentriert sich der Soja-Anbau vor allem auf die Bundesländer Oberösterreich und Burgenland, die jeweils über 10.000 Hektar bewirtschaften. Danach folgen Niederösterreich, wo in den letzten Jahren die größten Zuwächse bei den Soja-Anbauflächen verzeichnet wurden, Kärnten und die Steiermark (2010). In den letzten Jahren (2010–2013) betrug die durchschnittliche Jahresernte 80.000 bis 110.000 Tonnen. Etwa 50 % der Ernte werden als Speisesoja zu Lebensmitteln (z.B. Sojamilch, Tofu) weiterverarbeitet. Mehrere Unternehmen in den österreichischen Anbaugebieten, auf denen (wie gesetzlich vorgeschrieben) ausschließlich gentechnikfreies Saatgut verwendet wird, sind auf die Verarbeitung spezialisiert und exportieren EU-weit. Auf 6.300 Hektar (2011), etwa 20 % der Anbauflächen, wird ökologische Landwirtschaft betrieben. Durchschnittliche Zusammensetzung. Die Zusammensetzung von Sojabohnen schwankt naturgemäß, sowohl in Abhängigkeit von den Umweltbedingungen (Boden, Klima) als auch von der Anbautechnik (Düngung, Pflanzenschutz). Der physiologische Brennwert beträgt 1866 kJ je 100 g essbarem Anteil. Futter- und Lebensmittel. In der Anbausaison 2008/09 wurden 91 % der Sojaernte in Ölmühlen gepresst. Produkte der Pressung sind zu etwa 90 % Sojamehl und zu 10 % Sojaöl. Das Öl wird in erster Linie im Lebensmittelbereich als Salat- und Kochöl, sowie Brat- und Backfett benutzt. Das Mehl wird vor allem als Futterzusatz (Ergänzungsfutter) für Geflügel (ca. 46 %) eingesetzt. Auch Rinder (ca. 20 %) und Schweine (ca. 25 %) werden mit Sojamehl gefüttert. Zu einem geringen Anteil (ca. 3 %) wird es beispielsweise als texturiertes Soja vor allem in der vegetarischen bzw. veganen Ernährung als proteinreiches Lebensmittel verwendet. Weitere verbreitete Produkte sind: Tofu, Sojasauce, Sojamilch und Sojajoghurt. In fermentierter Form sind besonders verbreitet: Miso, Tempeh, Natto oder Yuba und dessen Variante "Bambus" (engl.: bamboo). Die Verdaulichkeit von Sojabohnen ist durch den relativ hohen Gehalt an Stachyose und Raffinose erschwert. Stachyose ist ein Mehrfachzucker, der vom Menschen nicht verdaut wird, vielmehr wird die Stachyose im Dickdarm durch Bakterien abgebaut, wobei Gase entstehen (Flatulenz). Es wird daher versucht, den Gehalt an Stachyose und Raffinose durch Genveränderungen zu vermindern. Allerdings gibt es auch natürliche Sojasorten mit geringerem Stachyosegehalt. Die frischen, grünen Hülsen "(„Schoten“)" dienen außerdem direkt der menschlichen Ernährung (siehe Edamame). Sojasprossen. Bei dem im Deutschen fälschlich als „"Sojasprossen"“ bezeichneten Sprossengemüse handelt es sich oftmals um Keime der Mungbohne. Diese Sprossen werden in den meisten Ländern Asiens verwendet. In der Chinesischen und Koreanischen Küche werden jedoch auch echte Sojasprossen verwendet. Medizinische Aspekte. Die Sojabohne ist reich an sogenannten Phytoöstrogenen – pflanzlichen Verbindungen mit hormonähnlicher Wirkung. Deren Hauptvertreter, die Isoflavone Genistein und Daidzein, sind das Objekt zahlreicher aktueller Forschungsarbeiten. Sie wurden vor allem mit der niedrigeren Inzidenz (Häufigkeit) von Gefäßkrankheiten wie der koronaren Herzkrankheit in ostasiatischen Ländern in Verbindung gebracht, in denen Soja in viel höheren Mengen konsumiert wird als in Westeuropa und den USA. Aufgrund der Datenlage von 1999 erlaubte die amerikanische Arzneimittelzulassungsbehörde Food and Drug Administration (FDA) auf Sojaprodukten das Anbringen der werbenden Aussage: "Eine an gesättigten Fettsäuren und Cholesterin arme Diät, die 25 g Sojaprotein pro Tag enthält, kann das Risiko von Herzerkrankungen reduzieren." Aufgrund neuerer Forschungsergebnisse ist diese Werbeaussage innerhalb der EU ab 2012 nicht mehr erlaubt. Das geringere Auftreten von Tumorerkrankungen wie Brustkrebs und chronisch-entzündlicher Darmerkrankungen in diesen Ländern wurde mit dem höheren Phytoöstrogenkonsum in Verbindung gebracht, so dass Sojaisoflavonprodukte in jüngerer Vergangenheit mit Hinweis auf diese Eigenschaften intensiv beworben werden. Die Evidenz (Nachweis der Wirksamkeit) für diese Indikationen ist jedoch dürftig. Eine chinesische Studie zeigte eine Senkung des Risikos für Lungentumore. Es gibt Forschungsergebnisse, die auf eine schädliche Wirkung hochkonzentrierter Isoflavone hindeuten. So bewirkten diese zum Beispiel in der Zellkultur eine Zunahme des programmierten Zelltods in Herzmuskelzellen neugeborener Schweine. Andere Forscher vermuteten zunächst einen Zusammenhang zwischen erhöhter Aufnahme von Isoflavonen aus Sojaprodukten und verringerter Spermienqualität, auch hier sind die Forschungsergebnisse widersprüchlich. Da auch in Europa inzwischen viele Verbraucher zu Soja-Produkten greifen, hat die Zahl der Allergiefälle zugenommen. Besonders Birkenpollenallergiker können betroffen sein: "Ursache für die Kreuzreaktion ist das zur Gruppe PR-10 gehörende Stressprotein Gly m 4, dessen Struktur dem Birkenpollenallergen Bet v 1 ähnelt (50 %ige Sequenzhomologie). Eine Schwellendosis für die Auslösung einer pollenassoziierten Sojaallergie kann nicht angegeben werden. Oftmals reicht aber bereits ein geringer Schleimhautkontakt mit dem Allergen, um eine Reaktion auszulösen. Repräsentative Zahlen über betroffene Verbraucher gibt es nicht. Schätzungsweise leiden rund 16 % der Bevölkerung in Europa an einer Pollenallergie, von denen rund 10 bis 20 % (d. h. 2 bis 3 % der Bevölkerung) eine Kreuzallergie mit Sojabohneneiweiß entwickeln." (Zitat: BfR) Verwendung von Sojaöl und Sojalecithin in der Phytomedizin. Heildrogen sind das gereinigte Sojaöl, Sojae oleum raffinatum (PhEur), außerdem hydriertes Sojaöl (PhEur), partiell hydriertes Sojaöl (DAB, ÖAB), und entöltes Sojalecithin, Sojae lecithinum (DAB), Lecithinum vehetabile (exSoja). Wirkstoffe im Sojaöl sind: Fettes Öl (ca. 18-25 %) überwiegend mit Glyceriden der Linolsäure, Ölsäure und Linolensäure, nur wenig Stearinsäure und Palmitinsäure. Wirkstoffe im gehärteten Sojaöl sind dagegen hauptsächlich Glyceride der Stearinsäure und der Palmitinsäure. Bei der Gewinnung des Sojaöls fällt als Nebenprodukt Sojalecithin an, ein Gemisch aus Phosphatiden, insbesondere Phosphatidylcholin. Das Sojalecithin besteht zu 35-50 % aus einem Eiweiß mit reichlich essentiellen Aminosäuren; weiter Bestandteile sind: Kohlenhydrate; Isoflavone wie Genistein, Daidzin, Formononentin und Cumesterol; Triterpensaponine, Lectine, Sterole und Vitamin E. Anwendung: Sojaöl steht bei der Weltproduktion pflanzlicher Öle für Nahrungszwecke (als Speiseöl und Rohstoff für die Margarineproduktion) an erster Stelle. Pharmazeutisch verwendet man Emulsionen mit Sojaöl als intravenöse Infusionen zur künstlichen Ernährung, außerdem in Badezusätzen gegen trockene Haut. Sojalecithin findet breite Nutzung als Lösungsvermittler zwischen wasser- und fettlöslichen Verbindungen, beispielsweise als Ausgangsmaterial für Liposomen, bei der Herstellung von Salben, aber auch in der Lebensmittelindustrie (Schokolade, Backwaren). Bekannt ist die traditionelle Anwendung in Kräftigungsmitteln und als „Nervennahrung“ bei Konzentrationsmangel. Wegen seiner lipidsenkenden Eigenschaften wird Sojalecithin auch zur Unterstützung diätetischer Maßnahmen bei leichten Formen von Fettstoffwechselstörungen, insbesondere bei erhöhten Cholesterin-Werten, herangezogen und auch bei Lebererkrankungen und zur Prophylaxe von Gallensteinen eingesetzt. Die Isoflavone der Sojabohne sind in jüngerer Zeit im Gespräch, denn die als Phyto-Östrogene angesehenen Verbindungen sollen verschiedenste hormonabhängige Beschwerden, beispielsweise in den Wechseljahren, und das Risiko der Entstehung von Osteoporose, Herz- und Kreislauferkrankungen und einigen Krebsarten, besonders Brustkrebs, vermindern. Eine endgültige Bewertung dieser Pflanzeninhaltsstoffe steht noch aus. Man verweist u. a. auf die sojareiche Ernährung in asiatischen Ländern, wo diese Erkrankungen seltener auftreten. 9 % der täglichen Eiweißaufnahme müssen für diesen Effekt aus Soja stammen! Technische Verwendung. Wie andere Pflanzenöle wird auch Sojaöl für eine Reihe von technischen Anwendungen genutzt. Vor allem in den letzten Jahren nahm seine Verwendung zur Herstellung von Biodiesel und Sojamethylester (SME) in den Vereinigten Staaten stark zu. Biodiesel aus Sojaöl liefert etwa 193 % der in seiner Produktion eingesetzten Energie und reduziert Treibhausgasemissionen gegenüber Treibstoffen aus Erdöl um 41 %. Damit ist es deutlich effizienter als z. B. Ethanol aus Mais. Die Luftverschmutzung ist zudem geringer als bei Ethanol aus Mais. Außerdem dient es als schnelltrocknendes Öl zur Herstellung von Alkydharzen, Anstrichfarben und Spachtelmassen sowie seit 1987 insbesondere für Druckfarben. So werden in den USA etwa 50 % aller Zeitungen und sogar 75 % aller Tageszeitungen heute mit Druckfarben auf Sojaölbasis gedruckt, in Europa liegt der Anteil bei etwa 15 %. Die enthaltenen Fettsäuren finden vor allem Verwendung in Kosmetik- und Körperpflegemitteln sowie in einem großen Spektrum weiterer Anwendungen, vor allem als Wirkstoffträger für lipidlösliche Pflanzeninhaltsstoffe und Vitamine sowie als Grundlage für Badeöle und Cremes. Obwohl Sojaöl keine abstoßende Wirkung auf Insekten hat, wird es auch verwendet, um die nur kurze Wirkdauer ätherischer Öle wie Geranienöl zu verlängern. Genom-Forschung. Das Genom der Sojabohne ist das erste eines Hülsenfrüchtlers, das vollständig sequenziert wurde. Es umfasst rund 1,1 Milliarden Basenpaare. Die Forscher kamen bei der Analyse des Genoms unter anderem zu dem Ergebnis, dass es sich vor etwa 59 und 13 Millionen Jahren jeweils verdoppelt hat (Polyploidie). Die Kenntnis der Genomsequenz bildet die Grundlage für ein verbessertes Verständnis und eine bessere Nutzbarkeit der Sojabohne. Siedepunkt. Phasendiagramm eines „gewöhnlichen“ Stoffes und des Wassers Der Siedepunkt (Abkürzung: Sdp.), Verdampfungspunkt oder auch Kochpunkt (Abkürzung: Kp.) eines Reinstoffes ist ein Wertepaar in dessen Phasendiagramm und besteht aus zwei Größen: Der Sättigungstemperatur (speziell auch Siedetemperatur) und dem Sättigungsdampfdruck (speziell auch Siededruck) an der Phasengrenzlinie zwischen Gas und Flüssigkeit. Er setzt sich also aus den beiden Zustandsgrößen Druck und Temperatur beim Übergang eines Stoffes vom flüssigen in den gasförmigen Aggregatzustand zusammen. Der Siedepunkt stellt die Bedingungen dar, die beim Phasenübergang eines Stoffes von der flüssigen in die gasförmige Phase vorliegen, was man als Sieden oder Verdampfen bezeichnet. Zudem ist er für den umgekehrten Vorgang der Kondensation, allerdings nur bei Reinstoffen, identisch mit dem Kondensationspunkt. Beim Verdampfen eines Stoffgemisches kommt es zu einem veränderten Siedeverhalten, und man beobachtet einen Siedebereich anstatt eines einzelnen Siedepunktes. Bei einem Phasenübergang von der flüssigen in die gasförmige Phase unterhalb des Siedepunktes spricht man von einer Verdunstung. In Tabellenwerken werden die Siedetemperaturen bei Normaldruck angegeben, also bei 1013,25 hPa. Dieser Siedepunkt wird als "Normalsiedepunkt", die angegebene Siedetemperatur als "Normalsiedetemperatur" ("TSied") bezeichnet. Ein Verfahren zu dessen Abschätzung ist die Pailhes-Methode, während die Guldberg-Regel einen Zusammenhang mit der kritischen Temperatur herstellt. Der Begriff "Siedepunkt" wird dabei häufig als Kurzform für die "Normalsiedetemperatur" verwendet und stellt daher im allgemeinen Sprachgebrauch meist deren Synonym dar, was jedoch den Siedepunkt auf nur ein einziges Wertepaar reduzieren würde und daher formal inkorrekt ist. Bei einem Schnellkochtopf macht man sich beispielsweise zunutze, dass die Siedetemperatur und der Siededruck voneinander abhängen. Durch eine Druckerhöhung von meist einem Bar (1000 hPa) erreicht man auf diese Weise eine Steigerung der Siedetemperatur des Wassers von 100 °C auf ungefähr 120 °C. Beide Temperaturen stellen Siedetemperaturen dar, jedoch ist nur der Wert von 100 °C auch die Siedetemperatur unter Normaldruck und somit die Normalsiedetemperatur. Eine Vermischung beider Begriffe ist daher unspezifisch, keineswegs selbstverständlich und sollte vermieden werden. Siedevorgang. Temperaturänderung mit der Zeit beim Erwärmen eines flüssigen Reinstoffes Unterhalb und oberhalb des Siedepunktes führt eine Erwärmung der Flüssigkeit bzw. des Gases nur zu einer Erhöhung der Temperatur. Die zugeführte Energie wird in Bewegungsenergie der Teilchen umgewandelt. Während des Phasenübergangs der Flüssigkeit zum Gas jedoch bleibt die Temperatur konstant, sofern auch der Druck konstant bleibt. Sämtliche zugeführte thermische Energie wird in die Zustandsänderung investiert. Ist der Siedepunkt erreicht, so werden bei weiterer Zufuhr von Energie die chemisch-physikalischen Wechselwirkungen zwischen den Teilchen gelöst - die Teilchen treten in die Gasphase über. Die Temperatur der Flüssigkeit stagniert, da die zugeführte thermische Energie vollständig für die Lösung der zwischenmolekularen Bindungen eingesetzt wird. Die Energie, die hierfür bei einem Mol des Stoffes benötigt wird, bezeichnet man auch als Verdampfungsenthalpie und ihr nicht stoffmengenbezogenes Gegenstück als Verdampfungswärme. Erst wenn alle Teilchen in der Gasphase sind, steigt die Temperatur des Systems wieder an. Wasser, Wasserstoffperoxid oder Laugen (zum Beispiel Natronlauge) ohne Staubpartikel oder Gasbläschen lassen sich in reinen Gefäßen auch über die Siedetemperatur hinaus erwärmen, ohne dass es zum Sieden kommt. Kleinste Störungen, wie zum Beispiel Erschütterungen, die eine Durchmischung nach sich ziehen, können zu einer explosionsartigen Trennung der flüssigen von der Dampfphase führen, was man als "Siedeverzug" bezeichnet. Aufgrund dessen fügt man in der Chemie Flüssigkeiten, die von einem Siedeverzug gefährdet sind, sogenannte "Siedesteinchen" aus Ton oder Bimsstein hinzu, die durch die Chemikalie nicht angegriffen werden, aber durch ihre poröse Struktur die Bildung kleiner Blasen erleichtern, so dass es nicht zum Siedeverzug kommt. "Siehe auch": Verdunstung, Vergasen, Evaporation, Transpiration, Pictet-Trouton-Regel Siedepunktskurve. Phasendiagramm von Kohlenstoffdioxid (nicht maßstabsgerecht) Das Gleichgewicht der Siedepunktskurve ist ein dynamisches Gleichgewicht. Aus einer Flüssigkeit treten beständig Teilchen in die Gasphase über – sie verdampfen. Andererseits treten diese Teilchen auch wieder in die flüssige Phase ein – sie kondensieren. Das Zahlenverhältnis der aus der flüssigen Phase austretenden Teilchen und der wieder in sie eintretenden Teilchen ist hierbei sowohl von der Temperatur als auch vom Druck abhängig: Je höher die Temperatur ist, desto mehr Teilchen verdampfen aufgrund ihrer höheren Geschwindigkeit (siehe Maxwell-Boltzmann-Verteilung). Je mehr Teilchen verdampfen, desto höher wird aber auch der Dampfdruck, und desto mehr Teilchen kondensieren auch wieder. Ein Gleichgewicht stellt sich dann ein, wenn genauso viel Teilchen in die Gasphase übertreten, wie wieder in die flüssige Phase zurücktreten. Da in diesem Zustand die Gasphase gesättigt ist, spricht man dann auch vom Sättigungsdampfdruck. Die thermodynamische Gesetzmäßigkeit, aus der sich die Siedepunktskurve quantitativ ableitet, bezeichnet man als Clausius-Clapeyron-Gleichung. Für Wasser lässt sich dieser Zusammenhang zwischen Sättigungsdampfdruck und Sättigungstemperatur auch über die Näherungsgleichungen vom Typ der Magnus-Formel bestimmen. Gleichgewichtsänderung am Beispiel des Wassers. Gleichgewichtsänderung am Beispiel des Wassers Die Reaktionen des Systems auf die Änderungen einzelner Zustandsgrößen laufen auf eine Verschiebung der Gleichgewichtslage hinaus: Es läuft derjenige Phasenübergang verstärkt ab, der die Störung wieder rückgängig macht (siehe Prinzip vom kleinsten Zwang). Verbindungen. Eine der niedrigsten Normalsiedetemperaturen hat Kohlenstoffmonoxid mit –191,6 °C, die höchsten weisen Metallcarbide wie Titan-(IV)-carbid (TiC, 4820 °C) und Wolfram-(IV)-carbid (WC, 6000 °C) auf. Eine Besonderheit liegt bei Schwefeltrioxid (SO3) vor: Der Schmelzpunkt einer seiner Modifikationen liegt mit 62,3 °C. über der Normalsiedetemperatur von 44,8 °C des flüssigen Schwefeltrioxids. Liegt der kritische Druck unter dem Normaldruck, so kann keine Normalsiedetemperatur angegeben werden. Um die Flüssigkeit dennoch zum Sieden zu bringen, muss dies unter niedrigerem Druck geschehen. In diesem Fall muss bei der Angabe der Siedetemperatur auch der Siededruck angegeben werden, was ein weiterer Grund dafür ist, die Begriffe Normalsiedetemperatur und Siedepunkt strikt zu trennen. Liegt der Druck des Tripelpunktes über dem Normaldruck, so wird statt der Normalsiedetemperatur die Normalsublimationstemperatur oder eine Siedetemperatur bei höherem Siededruck angegeben. Beispiel: Schwefelhexafluorid SF6 sublimiert unter Normaldruck bei –63 °C. Viele, vor allem organische und alle makromolekularen Verbindungen zersetzen sich beim Erhitzen vor Erreichen des Siedepunktes, da ihre Verdampfungsenthalpie größer ist als die einzelnen Bindungsenergien im Molekül. Hier kann man keine Siedetemperatur, sondern nur die Zersetzungstemperatur angeben. Manche können allerdings unter vermindertem Druck und bei damit niedrigerer Temperatur zum Sieden gebracht werden. Homogene Mehrstoffsysteme. Die Siedepunkte homogener Gemische wie Legierungen, Gasgemische oder wässrige Lösungen weisen gegenüber den Reinstoffen veränderte Siedepunkte und ein verändertes Siedeverhalten auf. Siedepunkterhöhung. Der Proportionalitätsfaktor ist, wie dargelegt, die "ebullioskopische Konstante" (auch "Siedepunktskonstante" "KS"), also die Änderung des Siedepunktes von einem Kilogramm der Lösung gegenüber dem reinen Lösungsmittel, wobei die Stoffmenge des gelösten Stoffes ein Mol beträgt oder die "molare Siedepunktserhöhung", die weniger gebräuchlich ist und keine Aussage zur Masse trifft. So steigt beispielsweise der Siedepunkt eines Kilogramms Wasser um 0,51 K auf 100,51 °C, wenn man genau ein Mol irgendeines anderen Stoffes darin auflöst, vorausgesetzt, der Stoff löst sich in Wasser und ist nicht flüchtig. Löst man zwei Mol in einem Kilogramm Wasser auf, so siedet das Wasser erst bei 100 °C + 2 × 0,51 °C = 101,02 °C. Es ist dabei zu beachten, dass Salze in wässriger Lösung dissoziieren. Natriumchlorid zerfällt zum Beispiel in die Ionen Na+ und Cl−. Die Siedepunkterhöhung ist daher (in verdünnten Lösungen) doppelt so hoch wie zunächst erwartet. Ein praktisches Beispiel: Nudelwasser hat einen typischen Kochsalzgehalt von 10 g/kg. Bei einer Molmasse von 58,4 g/mol entspricht dies, zusammen mit oben erwähnter Verdopplung, 0,34 mol/kg Ionen. Durch den Salzgehalt ergibt sich also eine Siedepunkterhöhung von nur etwa 0,17 K. Das Raoultsche Gesetz gilt nur für „ideale“ Lösungen, das sind Lösungen, bei denen ein Stoff nur physikalisch gelöst wird. Bei „nichtidealen“ Lösungen treten während des Mischens energetische Erscheinungen (Erwärmung oder Abkühlung) auf, die in der Ausbildung von Wasserstoffbrückenbindungen oder durch Protolysen hervorgerufen werden. Dadurch ergeben sich Abweichungen vom Raoultschen Gesetz. Nur in sehr starker Verdünnung gilt die Formel auch bei „nichtidealen“ Lösungen in Annäherung, weshalb man im Falle der idealen Lösung auch von einer "unendlich verdünnten Lösung" spricht. Die Siedepunktserhöhung ist zudem eine kolligative Eigenschaft und hängt daher zwar von der Teilchenzahl des gelösten Stoffes, nicht jedoch von dessen Art ab. Über eine Umstellung der obigen Formel kann die Siedepunktserhöhung auch zur Molmassebestimmung dienen, was man als Ebullioskopie bezeichnet. Ebenso von der Konzentration der gelösten Stoffe abhängig ist der Schmelzpunkt, weshalb man auch von einer Schmelzpunkterniedrigung spricht. Ursache für diese Effekte ist ebenfalls eine Erniedrigung des chemischen Potentials. Kombiniert man Siedepunkterhöhung und Schmelzpunkterniedrigung, so zeigt sich insgesamt eine Ausdehnung des thermodynamischen Zustandsbereiches der Flüssigkeit zu Lasten der anderen Aggregatzustände. Zeotrope Gemische. Wird eine zeotrope Mischung zweier Flüssigkeiten erhitzt, so beginnt sie bei einer Temperatur oberhalb der Siedetemperatur des Leichtsieders, also desjenigen Bestandteils mit der niedrigeren Siedetemperatur, zu sieden. Beim Sieden gehen gleichzeitig beide Bestandteile in die Gasphase über. Dabei hat der Leichtsieder im austretenden Dampf eine höhere Konzentration, als seiner Konzentration im flüssigen Gemisch entspricht. Deshalb reichert sich in der Flüssigkeit der Schwersieder an und die Siedetemperatur steigt kontinuierlich bis zum Siedepunkt des Schwersieders. Man spricht in diesem Fall von einem Siedebereich (auch Siedeintervall, Siedegrenze) des Gemisches und nicht mehr von einem Siedepunkt. Die Abhängigkeit der Siedetemperatur von dem Verhältnis der flüssigen Bestandteile und das jeweils zugehörige Verhältnis im verdampfenden Gas werden im Siedediagramm (rechts) dargestellt. Der freie Bereich in der Mitte, in dem weder Gas noch Flüssigkeit existieren können, wird wegen seiner Form "Siedelinse" genannt. Am rechten Rand ist der Siedebereich einer Lösung mit 50 % Stoffmengenanteil markiert. Dieses Verhalten wird technisch genutzt, um Konzentrationen von Einzelkomponenten in Gemischen durch Destillation oder Rektifikation zu erhöhen. Azeotrope Gemische. Bei azeotropen Stoffgemischen hat die Siedetemperatur des Stoffgemisches bei einem bestimmten Stoffmengenverhältnis einen Extremwert. Dieser Wert liegt außerhalb des Temperaturintervalles, dass durch die Siedetemperaturen der beiden Reinstoffe aufgespannt wird. Bei diesem besonderen Mischungsverhältnis liegt ein Siedepunkt und kein Siedebereich vor. Bedeutung für die Lebewesen. Das Siedeverhalten des Wassers führt unter den physikalischen Bedingungen auf der Erde dazu, dass Wasser in großen Mengen als Flüssigkeit existiert. Dies ist eine der grundlegenden Voraussetzungen für die Entwicklung von Lebewesen. Bei einem niedrigeren Luftdruck oder höheren Temperaturen des Wassers wäre dies anders und würde dazu führen, dass Gewässer binnen kürzester Zeit verdampfen und somit auch eine wichtige Bedingung für das Leben überhaupt, nämlich flüssiges Wasser, wesentlich seltener anzutreffen wäre. Bei einem höheren Luftdruck bzw. einer niedrigeren Temperatur würde jedoch immer weniger Wasser verdunsten können, und somit würde die Voraussetzung für Niederschläge, nämlich gasförmiges Wasser in der Atmosphäre, immer seltener, was beispielsweise eine Einschränkung der Süßwasservorkommen nach sich ziehen würde. Bestimmung der Siedepunkte von organischen Stoffen. Apparatur zur Bestimmung des Siedepunktes Der Siedepunkt ist eine Stoffeigenschaft. Die Kenntnis des Siedepunktes ermöglicht Rückschlüsse auf den vorliegenden Stoff. In Nachschlagewerken (z. B. CRC Handbook of Chemistry and Physics oder Taschenbuch für Chemiker und Physiker) befinden sich Tabellen über Siedepunkte von Stoffen und Stoffgemischen. Aus den Tabellenwerten kann man die vermuteten Verbindungen häufig abschätzen. Der Siedepunkt kann auch als ein Kriterium der Stoffreinheit eines bekannten Stoffes genutzt werden. Für destillative Stofftrennungen eignet sich eine Vigreuxkolonne. Bei Stoffmischungen kann es auch vorkommen, das mehrere Stoffe bei dem gleichen Siedepunkt überdestillieren, das Stoffgemisch bildet dann ein Azeotrop. "Bestimmung des Siedepunktes mit einfachen Mitteln" Für einfache Ermittlungen der Siedetemperatur benötigt man ein Reagenzglas (oder einen Kolben) mit einem seitlichen Ansatzrohr mit durchbohrtem Gummistopfen und Thermometer, ein Stück Gummischlauch, ein Glasrohr, ein Paraffinbad, eine Heizquelle und ein Becherglas mit Kühlwanne. Entsprechend der Abbildung "Apparatur zur Bestimmung des Siedepunktes" wird die eine entsprechende Destillationsvorrichtung aufgebaut. Das Reagenzglas mit Ansatzrohr sollte zu einem Drittel mit dem zu untersuchenden Stoff gefüllt werden. Zur Verhinderung von Siedeverzügen fügt man noch einige Siedesteinchen hinzu. Die untere Spitze des Thermometers sollte wenige Zentimeter über der Flüssigkeitsoberfläche angebracht sein. Für eine genauere Temperaturermittlung kann statt eines Quecksilberthermometers auch ein digitaler Temperaturfühler (Genauigkeit: 0,1 °C) durch den Gummistopfen eingebracht werden. Spargelbohne. Die Spargelbohne ("Vigna unguiculata" subsp. "sesquipedalis") ist eine Nutzpflanze aus der Familie der Hülsenfrüchtler (Fabaceae). Sie ist eng mit der Augenbohne und der Catjangbohne verwandt. Merkmale. Samen der Spargelbohne (Skalierung 1 mm) Die Spargelbohne ist eine einjährige Pflanze. Es gibt buschförmige und kletternde Formen mit windenden Ranken. Letztere werden an Stangen, Drähten oder Schnüren gezogen und erreichen Wuchshöhen von 2,5 bis 3 m. Die Blätter sind dreiteilig. In ihren Achseln stehen an 4 bis 6 cm langen Blütenstielen die weißen, hellgelben oder violetten Blüten. Ansonsten der Gartenbohne ähnlich, haben die Blüten ein kahnförmig gebogenes Schiffchen, kein spiralig eingerolltes. Die Blüten sind selbstbestäubend. Sie öffnen sich früh am Morgen und verblühen gegen Mittag. Die Hülsen stehen zunächst aufrecht, später hängen sie. In Mitteleuropa erreichen sie Längen von 30 bis 50 cm, in den Hauptanbauländern 60 bis 90 cm. Junge Hülsen sind cremefarben, hell- oder dunkelgrün und haben einen Durchmesser von 8 bis 11 mm. Reife Hülsen enthalten 10 bis 30 Samen von 8 bis 11 mm Länge. Die Samen sind cremefarben, bräunlich oder rötlich und haben einen dunkelgrünen Ring um den Nabel. Das Tausendkorngewicht ist 200 bis 250 g. Inhaltsstoffe. 100 g Frischsubstanz des essbaren Anteils der Bohnen enthalten durchschnittlich 89,0 g Wasser, 2,8 g Protein, 0,4 g Fett und 3,8 g Kohlenhydrate. An Mineralstoffen sind 210 mg Kalium, 50 mg Calcium, 59 mg Phosphor, 52 mg Magnesium und 1 mg Eisen enthalten. Der Gehalt an Vitaminen beträgt 32 mg Vitamin C, 0,13 mg Vitamin B1, 0,11 mg Vitamin B2 und 1,0 mg Niacin. Der Energiewert beträgt 126 kJ (= 30 kcal). Anbau. Die Spargelbohne wird über Samen vermehrt. Sie wird an Spalieren oder Stangen gezogen. Besonders in Asien werden buschförmige Sorten angebaut. Marktreife Hülsen können bereits 60 Tage nach der Aussaat geerntet werden. Die Pflanzen produzieren Hülsen bis in den Herbst hinein, sofern die Hülsen regelmäßig abgeerntet werden. Bei der Spargelbohne empfiehlt sich ein jährlicher Fruchtwechsel und an einem Standort Pausen von drei bis vier Jahren nach einem Anbau. Besonders Nematoden der Gattung "Meloidogyne" verursachen Schäden. Die Spargelbohne ist temperaturempfindlich und stellt bei Tageshöchstwerten unter 20 °C das Wachstum ein. Sie sind frostempfindlich. Die Keimung sollte bei Bodentemperaturen von 20 bis 22 °C erfolgen. Gute Wachstumsbedingungen sind volles Sonnenlicht bei Tagestemperaturen von 25 bis 35 °C und Nachttemperaturen über 15 °C. Sie vertragen Trockenperioden, allerdings werden die Hülsen bei längerer Trockenheit faserig. Günstig sind jährliche Niederschläge von bis 1500 mm. Sie wachsen auch in durchschnittlichen Gartenböden. Als typische Hülsenfrüchtler verfügen sie über eine stickstofffixierende Symbiose mit Rhizobien. Nutzung. Die jungen Hülsen werden wie die der Gartenbohne zubereitet. Sie werden frisch zubereitet, tiefgefroren oder zu Konserven verarbeitet. Die Ernte erfolgt, wenn die Hülsen glatt und unreif sind und die Samen klein. Sie werden meist sautiert oder kurz angebraten. In den tropischen Anbauländern werden die jungen Blätter wie Spinat zubereitet und als Gemüse verzehrt. Die keimenden Samen werden als Keimsprosse verwendet. Die Sprossspitzen können wie Spargel verwendet werden. Grüne Hülsen werden in Asien und Afrika zu Konserven verarbeitet. In Afrika überwiegt die Nutzung der trockenen, reifen Samen. In Südostasien, Ost- und Südafrika ist die Spargelbohne eine der beliebtesten Gemüsearten. Wichtige Anbaugebiete sind China, Indien, Indonesien, Nigeria, Ghana, Uganda, Kalifornien, Surinam und die Philippinen. Geringere Bedeutung hat der Anbau im Mittelmeerraum, in Südafrika und in Australien. Die Weltproduktion wurde 1990 auf 1,25 Millionen Tonnen geschätzt. In Mitteleuropa wird die Spargelbohne in geringem Umfang in Gewächshäusern gezogen, etwa in den Niederlanden. Die Spargelbohne ist aus der ursprünglich afrikanischen Augenbohne entstanden. Dies dürfte in Asien passiert sein. Sie wird heute in vielen tropischen Tieflandgebieten angebaut. Im 16. Jahrhundert gelangte sie nach Westindien, etwa 1700 in die heutigen USA. Schwertbohne. Die Schwertbohne ("Canavalia gladiata"), auch Fetischbohne oder Madagaskarbohne genannt, ist eine Pflanzenart in der Unterfamilie Schmetterlingsblütler (Faboideae) innerhalb der Familie der Hülsenfrüchtler (Fabaceae). Sie ist nur aus Kultur bekannt und wird als Nutzpflanze in den Tropen angebaut. Sie ist nahe verwandt mit einer Reihe anderer „Bohnen“ genannter Feldfrüchte, insbesondere zur Jackbohne. Beschreibung. Gestielte, dreiteilige Laubblätter und Hülsenfrucht. Erscheinungsbild und Blatt. Die Schwertbohne ist eine windende, rankende, kletternde, mehrjährige krautige Pflanze. Zur Korngewinnung wird sie meist wie eine einjährige Pflanze kultiviert. Die Sprossachsen erreichen Längen von bis zu 10 Metern und verholzen etwas wenn sie älter als ein Jahr werden. Das Wurzelsystem reicht relativ tief in den Boden. Die Keimung erfolgt epigeal. Bei den Sämlingen sind die ersten zwei gegenständigen Laubblätter einfach mit zwei verwachsenen Nebenblättern. Die wechselständig am Stängel verteilt angeordneten Laubblätter sind in Blattstiel und Blattspreite gegliedert. Die kleinen Nebenblätter fallen früh ab. Der Blattstiel ist 5 bis 17 Zentimeter lang. Die unpaarig gefiederte Blattspreite besteht aus drei Fiederblättern. Die Fiederblätter sind 4 bis 7 Millimeter lang gestielt. Die krautigen Fiederblätter sind bei einer Länge von 8 bis 20 Zentimeter sowie einer Breite von 5 bis 14 Zentimeter fast eiförmig mit gerundeter oder keilförmiger Basis und einem zugespitzten oberen Ende und meist glatten Blattrand. Beide Seiten der Fiederblätter sind spärlich kurz, weißlich oder braun flaumig behaart. Die Nebenblättchen der Fiederblätter fallen früh ab. Blütenstand und Blüte. Die Blütezeit liegt in China zwischen Juli und September. In den Blattachseln steht ein 4 bis 25 Zentimeter langer Blütenstandsschaft. In einem 7 bis 12 Zentimeter langen traubigen Blütenstand stehen an den Nodien der Blütenstandsachse jeweils zwei oder drei Blüten zusammen; insgesamt 10 bis 20 Blüten in einem Blütenstand. Die winzigen Trag- und Deckblätter fallen früh ab. Die zwittrigen Blüten sind zygomorph und fünfzählig mit doppelter Blütenhülle; sie sind oft resupinat. Die fünf etwas flaumig behaarten Kelchblätter sind zu einem bis zu 1,5 Zentimeter langen, glockenförmigen, zweilippigen Kelch verwachsen. Die große Oberlippe des Kelches ist zweiteilig sowie gerundet und die viel kleiner Unterlippe endet in drei spitzen Kelchzähnen. Die bei einer Länge von 3 bis 3,5 Zentimeter relativ große Blütenkrone hat den typischen Aufbau eines Schmetterlingsblütlers. Die fünf auffällig weißen bis leicht rosafarbenen Kronblätter sind kurz genagelt und geöhrt. Die aufrechte Fahne ist bei einer Länge von 3 bis 3,5 Zentimeter sowie einer Breite von etwa 2,5 Zentimeter breit-elliptisch und ausgerandet. Die Flügel und das Schiffchen sind länglich, nach innen gebogen und kleiner als die Fahne. Die zehn fertilen Staubblätter sind alle verwachsen. Das einzige kurz sowie dünn gestielte, oberständige Fruchtblatt enthält viele Samenanlagen. Der nach innen gebogene Griffel endet in einer kleinen Narbe. Frucht und Samen. Die Hülsenfrüchte reifen in China im Oktober. Die etwas abgeflachten, etwas schwertartig gebogenen Hülsenfrüchte sind bei einer Länge von 20 bis 40 oder manchmal bis zu 50 Zentimeter sowie einer Breite von 2 bis 6 Zentimeter im Umriss linealisch-länglich mit einer Spitze. Jede dick ledrige Fruchtklappe besitzen an der Bauchnaht eine erhabene Rippe und parallel nahe dazu eine extra 5 Millimeter breite Rippe. Die Hülsenfrüchte enthalten 8 bis 20 Samen. Die Fruchtklappen verdrehen sich beim Öffnen. Die relativ großen Samen sind bei einer Länge von 1 bis 3,5 Zentimeter und einem Durchmesser von 1,5 bis 2 Zentimeter elliptisch-länglich, bohnenartig und abgeflacht. Die Samenschale ist meist cremefarben bis dunkelbraun oder rötlich-braun, selten schwarz, rosafarben oder weiß. Das 20 bis 25 Millimeter lange, ovale und dunkelbraune Hilum nimmt mit einer Länge von 1,5 bis 2 Zentimeter fast die ganze Länge des Samens ein. Das Tausendkorngewicht ist mit 1800 und 2100 g relativ hoch. Chromosomensatz. Die Chromosomengrundzahl beträgt x = 11; es gibt diploide 2n = 22 oder tetraploid 2n = 44 Formen. Verbreitung und Anbaubedingungen. "Canavalia gladiata" ist nur von kultivierten Pflanzen bekannt. Sie wird besonders in den Tropen angebaut. In vielen tropischen Gebieten ist sie verwildert und nun ein Neophyt (beispielsweise Madagaskar). Die Gemüsenutzung der Schwertbohne ist weitverbreitet in Asien höher als in anderen Kontinenten, besonders wichtig ist ihr Anbau in Indien, Burma, Ceylon und Malaysia. In Afrika ist der Anbau in Westafrika, Zaire, Angola besonders zu nennen, weniger wichtig ist sie in Äthiopien. Sehr wichtig ist aber auch die Nutzung als Bodendecker und als Gründüngung. Für diese Zwecke hat sie auch Eingang in Australien und Amerika gefunden. Die Schwertbohne gehört in die regenfeuchten bis wechselfeuchten Tropen, am besten mit Jahresniederschlägen zwischen 900 und 1500 mm, höhere Niederschläge werden vertragen und Trockenperioden werden durch das tiefgehende Wurzelsystem überstanden. Die nötigen Temperaturen für einen Anbau betragen 14 bis 30° C und in den Tropen ist der Anbau bis in Höhenlage von 1500 oder 1800 Meter möglich. Die Schwertbohne gedeiht auf vielen tropischen Böden und toleriert nährstoffarme, saure Böden ebenso wie alkalische Böden in einem pH-Bereich von 4,3 bis 7,1. Gegen Wasserstau im Boden ist sie empfindlich. Inhaltsstoffe. Die Samen enthalten Giftstoffe (Concanavalin A und B), die vor dem Verzehr durch geeignetes Einweichen und Kochen neutralisiert werden müssen.. Auch Canatoxin ist enthalten. Relativ hoch ist der Rohproteingehalt der Bohnen und sehr gering ist der Fettgehalt. Je 100 g frische Hülsenfrüchte enthalten 33 mg Ca, 66 mg P, 1,2 mg Fe, 40 IU Vitamin A, 0,2 mg Thiamin, 0,1 mg Riboflavin, 2 mg Niacin und 32 mg Ascorbinsäure. Je 100 g trockene Samen enthalten 158 mg Ca, 298 mg P, 7,0 mg Fe, 0,8 mg Thiamin, 1,8 mg Riboflavin und 1 mg Ascorbinsäure. Nutzung. Die Hülsenfrüchte und Samen werden gegessen. "Canavalia gladiata" wird zur Gründüngung, als Bodendecker und als Viehfutter verwendet. Die Erträge an Grünmasse und Futter liegen zwischen 40 und 50 Tonnen je Hektar und die Bohnenerträge bei 7 bis 9 Doppelzentner je Hektar angegeben. Die Ernte der grünen, 10 bis 15 cm langen Hülsenfrüchte erfolgt 3 bis 4 Monate nach der Aussaat, bevor sie durch die Entwicklung der Körner dick und hart sind. Die Kornreife erfolgt 5 bis 10 Monate nach der Aussaat. Die jungen Hülsenfrüchte werden besonders im tropischen Asien wie grüne Bohnen ("Phaseolus vulgaris") gekocht. Die vollausgebildeten, noch frischen grünen Samen werden gekocht wie "Vicia faba" gegessen. Die Hülsenfrüchte sind auf Grund ihres starken Geschmackes und ihrer dicken festen Schale nicht gleich beliebt wie die von "Phaseolus vulgaris". Vollausgereifte trockene Samen sollten mit Vorsicht gegessen werden, da sie leicht giftig sind; dies wird minimiert durch Einweichen, wechseln des Kochwasser, Abwaschen oder Fermentation. Weiße Samen sollen einen besseren Geschmack haben als farbige. Blüten und junge Laubblätter werden gebrüht zum aromatisieren verwendet. In Kuba werden die Samen als Kaffeeersatz verwendet. Rosafarbene Samen werden manchmal in der traditionellen chinesischen Medizin verwendet. In Japan und Korea wird "Canavalia gladiata" bei unterschiedlichen Krankheiten eingesetzt. In Korea wird eine Seife mit Schwertbohnenextrakten hergestellt um beispielsweise Akne zu behandeln. Das Urease-Extrakt von Schwertbohnen wird in Analytischen Laboren eingesetzt. Pflanzenkrankheiten. Die Schwertbohne ist ziemlich widerstandsfähig gegen Pflanzenkrankheiten. Die gefährlichste Pilzkrankheit wird durch "Colletotrichum lindemuthianum" verursacht. Die Schwertbohne ist ein Wirt für das Tomato Spotted Wilt Virus (TSWV). Die "Canavalia"-Arten sind bekannt dafür, Nematoden-Populationen zu reduzieren. Doch ist sie anfällig für die Soybohnen-Zysten-Nematode ("Heterodera glycines"), aber dieser Schädling wurde in Afrika noch nicht nachgewiesen. Hauptschädlinge sind "Spodoptera frugiperda" und Käfer-Engerlinge, die in den Sprossachsen bohren. Schwertbohnen-Samen sind ziemlich widerstandsfähig gegenüber Vorratsschädlingen und -krankheiten. Ökologie. Es wird berichtet, dass die Laubblätter der Schwertbohne eine fungizide Wirkung haben können. Demnach wurde beobachtet, dass wenn Blattschneiderameisen Blätter in ihren Bau bringen, dort ihr „Pilzgarten“ geschädigt wird und dadurch die Brut für mehrere Monate vernichtet wird. So gibt es die Empfehlung zur Bekämpfung von Ameisen und Termiten frische Blätter der Schwertbohne auf ihren Bauten auszubreiten. Kultur. In manchen afrikanischen Staaten ist "Canavalia gladiata" manchmal eine Fetish-Pflanze. Taxonomie. Die Erstveröffentlichung erfolgte 1788 unter dem Namen (Basionym) "Dolichos gladiatus" durch Nikolaus Joseph Freiherr von Jacquin in "Icones Plantarum Rariorum", Band 3, 1, Tafel 560. Die Neukombination zu "Canavalia gladiata" wurde 1825 durch DC. in "Prodromus Systematis Naturalis Regni Vegetabilis", Band 2, S. 404 veröffentlicht. Weitere Synonyme für "Canavalia gladiata" sind: "Canavalia ensiformis" var. "gladiata", "Canavalia gladiolata", "Canavalia gladiata" var. "machaeroides", "Canavalia incurva", "Canavalia incurva", "Canavalia loureiroi", "Canavalia machaeroides", "Canavalia maxima", "Dolichos incurvus", "Malocchia gladiata". Weblinks. Schwertbohne Straucherbse. Die Straucherbse ("Cajanus cajan") ist eine Pflanzenart in der Unterfamilie Schmetterlingsblütler (Faboideae) innerhalb der Familie der Hülsenfrüchtler (Fabaceae oder Leguminosae). Diese Nutzpflanze wird in weiten Teilen der Tropen und Subtropen kultiviert. Erscheinungsbild und Blatt. Die Straucherbse ist ein aufrecht wachsender Strauch oder Halbstrauch, der Wuchshöhen von meist 1,5 bis 3 m, seltener werden auch 4 m erreicht. Die Rinde der Äste ist auffällig gerippt und mit goldenen, anliegenden oder leicht abstehenden, seidigen Trichomen behaart. Die Laubblätter sind dreiteilig gefiedert. Die Teilblätter sind 2,5 bis 10 cm lang, 1,4 bis 3,5 cm breit, elliptisch bis lanzettlich, zugespitzt keilförmig, die Oberseite ist grün gefärbt, die Unterseite ist blasser und silbrig grau-grün. Die Behaarung der Oberseite besteht aus feinen, kurzen und samtigen Haaren, die Unterseite ist deutlich länger mit weißlichen Haaren besetzt. Auf beiden Blattseiten befinden sich kleine gelbliche Drüsen. Die Blattaderung tritt auf der Unterseite hervor und ist gelblich gefärbt. Der Blattstiel ist 1 bis 5,5 cm lang, die Blattachse 0,8 bis 1,3 cm, die Stielchen der Teilblätter 2 bis 4 mm. Blattstiel, Blattachse (Blattrhachis) und Teilblattstielchen sind gelbbraun behaart. Blütenstand und Blüte. Der endständige rispige Blütenstand wird von einer Vielzahl nahe der Zweigspitze stehender, achselständiger traubiger Blütenstände begleitet. Der Blütenstandsstiel ist 2 bis 7 cm lang. Die früh abfallenden Tragblätter sind eiförmig zugespitzt und 8 mm lang und 5 mm breit. Die Blütenstiele sind 1 bis 1,7 cm lang. Alle Teile des Blütenstandes sind gelbbraun behaart. Die zwittrige Blüte ist zygomorph und fünfzählig mit doppelter Blütenhülle. Der Kelch besteht aus einer 5 mm langen Kelchröhre, an die sich 4 bis 7 mm lange Kelchzähne anschließen, der Kelch ist gelbbraun und drüsig behaart. Die Blütenkronen besitzen den typischen Aufbau der Schmetterlingsblüten. Die Grundfarbe der Kronblätter ist gelb mit rotbraunen bis dunkelroten Streifen, die Außenseite ist zudem nochmals in einer ähnlichen Farbe überhaucht. Die Krone ist mit einem Durchmesser von 1,2 bis 1,7 cm nahezu rund. Die Flügel sind gelb und das Schiffchen ist gelb-grün gefärbt. Frucht und Same. Die Hülsenfrüchte sind strohfarben, aber oftmals violett-schwarz überzogen, behaart und drüsig. Sie sind nahezu gerade, 4,5 bis 10 cm lang und 0,8 bis 1,4 (selten auch nur 0,5) cm im Durchmesser. Die Samen sind gelbbraun, cremefarben, braun oder rötlich mit einem kastanienbraunen Hilum, sie sind schwach und fein gekörnt, 6 bis 6,5 mm lang und 4,5 bis 5,5 mm breit. Vorkommen. Die Straucherbse wird in großen Teilen der Tropen und Subtropen kultiviert und ist in Höhenlagen zwischen Meereshöhe und 1450 Meter zu finden, wächst jedoch wahrscheinlich auch noch in höheren Lagen. Verwildert wächst sie an Müllhalden, offenen, küstennahen Waldgebieten und anderen Standorten. Weblinks. Straucherbse Stephen Jay Gould. Stephen Jay Gould (* 10. September 1941 in New York; † 20. Mai 2002 ebenda) war ein US-amerikanischer Paläontologe, Geologe und Evolutionsbiologe. Leben. Gould war in jungen Jahren schon politisch aktiv, etwa gegen rassengetrennte Lokale oder gegen den Vietnamkrieg. Er besuchte das Antioch College in Yellow Springs, Ohio und studierte Paläontologie und Evolutionsbiologie an der Columbia University, wo er 1967 promoviert wurde. Danach war er Assistant Professor, ab 1971 Associate Professor und seit 1973 Professor für Geologie an der Harvard University. Daneben war er Autor etlicher erfolgreicher populärwissenschaftlicher Bücher, die sich durch eine klare Sprache auszeichnen, und dadurch einer der bekanntesten Wissenschaftler überhaupt. Er meinte, dass er seinen Stil auch für seine Kollegen nicht zu ändern bräuchte, und seine Bücher auch vor ihnen in der gleichen Art und Weise bestehen könnten. Sein essayistischer Stil wird fallweise mit Montaigne verglichen. 1981 war er MacArthur Fellow. 1989 erhielt er die Sue Tyler Friedman Medal. 1987 war er Präsident der Paleontological Society. 2008 erhielt er die Darwin Wallace Medal der Linnean Society of London, 1975 den Charles Schuchert Award und 2002 die Paleontological Society Medal. Außerdem war er seit 1983 Mitglied der American Academy of Arts and Sciences und seit 1989 Mitglied der National Academy of Sciences. Erkrankung. Stephen Jay Gould erkrankte im Juli 1982 an Mesotheliom (obwohl keine Asbestose o. Ä. vorlag). In seiner Kolumne mit dem Titel "The Median isn’t the Message" beschrieb er seine Reaktion als er erfuhr, dass die Median-Lebenserwartung von Mesotheliom-Erkrankten 8 Monate beträgt, und was der Median in diesem Zusammenhang für ihn wirklich bedeutet. Wie in dieser Kolumne vorhergesagt überlebte er den Median um fast 20 Jahre und starb am 20. Mai 2002 in New York an Lungenkrebs, welcher nicht mit seiner früheren Erkrankung zusammenhing. Zeitlebens setzte sich Gould für eine Betrachtung der gesamten Variationsbreite eines Systems ein: Sei es bei der Analyse seiner Krebserkrankung in den achtziger Jahren (50 % der Betroffenen leben länger als acht Monate; Median-Mortalität von acht Monaten bedeutet nicht, dass der Tod nach acht Monaten eintritt), oder sei es bei der Betrachtung der Geschichte des Lebens (vgl. Evolution und Fortschritt). Wirken. Ebenso grundlegend für sein Denken ist ein makroevolutionärer Zugang, welchen er wiederholt in Fachaufsätzen und Monographien publiziert hat. Als paradigmatisches Beispiel kann die Theorie des „unterbrochenen Gleichgewichts“ ("punctuated equilibrium oder Punktualismus") gelten, welche er mit Niles Eldredge zusammen entwickelt hat. Demnach vollzieht sich die Evolution nicht in stetigen kleinen Schritten mit konstanter Geschwindigkeit (Phyletic Gradualismus). Vielmehr sollen sich – in geologischen Maßstäben – relativ kurze Phasen schneller Veränderung mit längeren Zeiträumen ohne Veränderung ("Stasis") abwechseln. Diese Theorie war unter Kollegen umstritten, da sie oft als eine moderne Version von Richard Goldschmidts Hypothese des Hopeful Monsters missverstanden wurde. Heute ist weitgehend anerkannt, dass sich Evolution, je nach ökologischem Kontext, in unterschiedlichen Geschwindigkeiten abspielt – eine Ansicht, die mit einem Gradualismus mit variabler Entwicklungsgeschwindigkeit vereinbar ist. Kritik richtet sich heute eher an die Bedeutung der Theorie des Punktualismus. Gould zeichnet vor allem auf der Grundlage einer Revision der Untersuchungsergebnisse des Burgess-Schiefer über die kambrische Explosion ein „katastrophisches“ Bild der Evolution, die nur zufällig diesen und nicht einen völlig anderen Verlauf nahm. Die Theorie wird Kontingenztheorie der Evolution genannt. Am Punktualismus zeigt sich ein weiteres grundlegendes Charakteristikum von Goulds Denken: eine tiefliegende Skepsis gegenüber der Omnipotenz der natürlichen Selektion. Schon durch die Postulierung einer langen Phase der Stasis in der Lebenszeit der Spezies wird deutlich, dass Organismen ohne Wandel massivste Umweltveränderungen durchleben können. In zwei weiteren Fachpublikationen (Stephen J. Gould/ Richard C. Lewontin, 1979 und Stephen J. Gould/ Elisabeth Vrba, 1982) setzte er sich dafür ein, dass Eigenschaften eines Organismus auch ohne direkten Funktionsbezug überlebt haben können. Er weist darauf hin, dass die natürliche Selektion eine Negativauswahl kennzeichnet und nicht in adaptionistischer Manier gewisse Eigenschaften dank ihrer Funktion positiv selektiert. In diesen Gedankengang fügt sich auch das Konzept der Exaptation ein, die Idee, dass ein Merkmal zunächst für eine andere Funktion selektiert und adaptiert wurde als die, die gewöhnlich als die dominierende gesehen wird. Der Angriff Goulds und Lewontins auf übertriebene Anpassung wird unter dem Schlagwort "adaptationist program" als bis heute anhaltende, offene Auseinandersetzung darüber geführt, in welchem Ausmaß Organismen in ihren Populationen tatsächlich adaptiert sind. In ihrem einflussreichen Papier wehrten sich Gould und Lewontin gegen eine aus ihrer Sicht überzogene Einzelbetrachtung ("Atomisierung") von Merkmalen, die einzeln der Selektion unterliegen und adaptiert würden. Tatsächlich seien zahlreiche Merkmale nicht-selektierte Nebenprodukte anderer, adaptierter Merkmale. Ernst Mayr bezog kritisch Stellung zu diesem Angriff auf die evolutionäre Anpassung. Er gestand jedoch zu, dass Anpassung zu keinem perfekt optimierten Prozess führe, da „stochastische Prozesse und andere Constraints“, auch Pleiotropie, perfekte Adaptation verhindern. Bereits Darwin hatte darauf hingewiesen, dass es perfekte Anpassung nicht gibt. Laut Daniel Dennett haben Goulds Beiträge die Grundfesten des Darwinismus keineswegs ins Wanken gebracht; vielmehr sei Gould der Kern der Evolutionstheorie unangenehm. Hinweise darauf ließen sich beispielsweise in Goulds Aufsatz "The Spandrels of San Marco and the Panglossian Paradigm" (1979) erkennen. Evolution und Fortschritt. Gould war außerdem ein engagiertes Mitglied der Skeptics Society und engagierte sich für die Popularisierung der Evolutionstheorie und deren Verteidigung gegen den in den USA verbreiteten Kreationismus. 2000 wurde zu Ehren von Gould eine "Festschrift for Stephen Jay Gould" von der Skeptics Society veranstaltet. Ein ausführlicher Bericht über sein Leben wurde von der Skeptics Society veröffentlicht: Michael Shermer: "This View of Science – Stephen Jay Gould as Historian of Science and Scientific Historian." In: Skeptic 9#4, S. 36–55 (2002). In "The Mismeasure of Man" (1981) übte Gould mathematisch-methodische Kritik am allgemeinen Intelligenzbegriff und seiner Anwendung auf verschiedene Ethnien, Geschlechter und Bevölkerungsgruppen. Kritiker Goulds warfen ihm vor, in diesem und anderen populärwissenschaftlichen Publikationen, aus ideologischen Gründen sowohl die Position von Kontrahenten als auch den wissenschaftlichen Kenntnisstand verzerrt wiederzugeben. Religion und Wissenschaft hat Gould wegen dieses Verhältnisses als Nonoverlapping Magisteria bezeichnet. Der Religionskritiker Richard Dawkins, verwirft dieses Konzept und betrachtet beispielsweise die Existenz Gottes als rein (natur-)wissenschaftliche Frage:»Entweder, er existiert, oder er existiert nicht«. Dass es für beide Seiten keine Beweise gebe, bedeute nicht, dass die Frage für alle Zeiten unklärbar sei. Standardtänze. Standardtänze wurden ursprünglich alle Gesellschaftstänze genannt. Mittlerweile ist es ein Sammelbegriff für den Langsamen Walzer, Tango, Wiener Walzer, Foxtrott, Slowfox und Quickstep. Zusammen mit den Lateinamerikanischen Tänzen bilden die Standardtänze einen Großteil der Tänze des Welttanzprogramms. Charakteristik und Technik. Standardtänze sind "Bewegungstänze", bei denen die Tänzer sich raumgreifend – je nach Tanz mehr oder weniger schnell – fortbewegen. Dabei ist der Tango ein "Schreittanz", die anderen Tänze werden als "Schwungtänze" bezeichnet. Weiteres Merkmal der Standardtänze ist der "Körperkontakt", durch den die Tanzpartner ohne Unterbrechung verbunden bleiben. Die Lateinamerikanischen Tänze hingegen, die zweite Gruppe der Turniertänze, die ebenfalls aus fünf Tänzen besteht, werden mehr stationär und weitgehend ohne Körperkontakt getanzt. Der Körperkontakt in den Standardtänzen erfordert ein hohes Maß an Balance, Haltung und wechselseitiger Führung. Bewegung, Balance und Haltung sorgen dann für einen harmonischen Bewegungsfluss der Paare. Der Herr führt: Er tanzt häufiger vorwärts und überblickt die Tanzfläche und damit die Figurenfolge. Führen bedeutet, den Körper mit seinen stabilen Kontaktflächen durch Verlagern des Körperschwerpunkts in der Vorwärtsbewegung entschlossen einzusetzen. Auf die Aktion des Herrn folgen unmittelbar die Reaktion der Dame und insgesamt eine harmonische abgestimmte Aktion des Paares. Wenn die Dame in der Vorwärtsaktion ist, dann hat sie die Übersicht über die Fläche und gibt nur Hinweise über den Freiraum vor ihnen; es führt jedoch weiterhin der Herr. Haltung und Führung. Standardtänze werden in geschlossener Tanzhaltung getanzt. Bei den vier Schwungtänzen (Langsamer Walzer, Wiener Walzer, Quickstep und Slowfox) legt der Herr seine rechte Hand mit geschlossenen Fingern auf den unteren Teil des linken Schulterblattes der Dame. Die linke Hand der Dame wird auf dem rechten Oberarm des Herrn platziert. Die Dame greift mit Daumen und Mittelfinger (manchmal auch zusätzlich Zeigefinger) zwischen Deltamuskel und Trizeps. Die rechte Hand der Dame liegt in der linken Hand des Herrn zwischen Daumen und Zeigefinger und wird von den Fingern des Herren umfasst. Sie wird im Idealfall in Augenhöhe der Dame (bzw. des kleineren Tanzpartners) gehalten und sollte auch bei erheblichen Größenunterschieden die Scheitelhöhe der Dame nicht überschreiten. Die Dame hält dabei ihre Arme selbst. Da der Tango ein Schreit- und kein Schwungtanz ist, unterscheidet sich die Haltung von den anderen Standardtänzen. Der Herr führt die Dame in erster Linie mit seinem Körper, d.h. mit dem rechten Teil des Brustkorbs und dem Becken (im Tango meist bis hinunter zum Knie). Die beiden Arme dienen dazu, der Dame einen Rahmen zu geben, in dem sie sich bewegen kann. Die rechte Hand des Herren liegt im Tango etwas tiefer als in den Schwungtänzen und die Fingerspitzen reichen bis zum Rückgrat der Dame. Die linke Hand der Dame greift ebenfalls weiter um den Herren und liegt waagerecht mit gestreckten Fingern an der Rückseite des rechten Arms des Herren. Charakteristisch für einige Standardtänze ist auch, dass sich die Tänzer bei Figuren nie um ihre eigene, sondern immer um eine gemeinsame Achse drehen. Die Führung des Tanzpartners baut auf dem Wissen auf, welche Schrittfolgen möglich sind und an welchen Stellen der Tanzpartner leicht durch einen Impuls in eine neue Richtung bewegt werden kann. Beide Tanzpartner müssen daher die Schrittfolgen wie auch die Abfolge der Gleichgewichtslagen (stabil, labil) der Tänze kennen. American Smooth. "International Style" bezeichnet die Art der Standardtänze, wie sie in Europa, ausgehend von Großbritannien, getanzt werden. Im Gegensatz dazu ist der "American Style" jene Art zu tanzen, die in den USA kultiviert wird. Ein auffälliger Unterschied besteht z. B. darin, dass beim American Style bei den „Standardtänzen“ ("American Smooth" genannt) die Dame in Solodrehungen geführt wird und so die geschlossene Haltung aufgelöst wird. Getanzt werden nur die folgenden vier Tänze: Langsamer Walzer, Tango, Foxtrott und Wiener Walzer. Turniertanz. Im Turniertanz, der in verschiedene Altersgruppen und Leistungsklassen unterteilt ist, werden die fünf Tänze stets in der obigen Reihenfolge getanzt. Jedes Paar beginnt in der D-Klasse, in der nur Langsamer Walzer, Tango und Quickstep getanzt werden. Nach einem festen Schlüssel erwirbt das Paar Aufstiegspunkte und Platzierungen und steigt so in seiner Altersgruppe über die C-, B- und A-Klasse in die Sonderklasse (S-Klasse), die höchste Amateurtanzsportklasse, auf. Es gibt folgende Altersgruppen: Kinder I und II, Junioren I und II, Jugend (unter 19 Jahre), Hauptgruppe (ab 19) und Hauptgruppe II (28 bis 35 Jahre), Senioren I (beide Partner mind. 35 Jahre), Senioren II (ab 45 Jahre), Senioren III (ab 55 Jahre) und Senioren IV (ab 65 Jahre). Die sportliche Organisation unterliegt dem Deutschen Tanzsportverband und in Österreich dem Österreichischen Tanzsportverband (ÖTSV) Turniere. Es werden regelmäßig Standard-Weltmeisterschaften ausgetragen. Eines der weltgrößten Turniere der Amateure und Profis in Deutschland sind die German Open Championships in Stuttgart, große Amateurturniere sind „Hessen tanzt“ in Frankfurt und das „Blaue Band“ in Berlin. Sueben. Die Sueben (oder Sweben, Sueven, Suawen,) waren eine Stammesgruppe germanischer Völker. Allgemeines. a> (Regierungszeit 117–138 n. Chr.). Der Siedlungsraum der Suebi ist von Elbe und Oder sowie von der südlichen Ostseeküste und dem Erzgebirge begrenzt. Die Bezeichnung "Sueben" (lateinisch: "Suebi", "Suabi" oder "Suevi") bezieht sich auf eine germanische Stammesgruppe, die einst im Nordosten der Germania magna an der Ostsee bis zu den deutschen Mittelgebirgen lebte. In römischen Quellen wurde nach den Sueben die Ostsee als „Mare Suebicum“ benannt. Der antike Geograf Claudius Ptolemäus (* um 100, † um 175) lokalisierte in seiner Geographike Hyphegesis an der Stelle der heutigen Swine und Oder den Fluss "Συήβος" ("Syebos", lat.: "Suevus"). Damit lässt sich der Stammesname "Suebi" passend zum ursprünglichen Siedlungsgebiet als „Oderleute“ deuten oder der Flussname "Suevus" als „Suebenfluss“. Wie der Historiker Reinhard Wenskus dargelegt hat, prägten anfänglich Tradition und Erscheinung der Sueben die ethnografische Wahrnehmung und Beschreibung zahlreicher germanischer Stämme in der antiken Welt, bevor diese Dominanz auf die gotischen Stämme überging. Viele germanische Stämme legten Wert darauf, als suebisch betrachtet zu werden. Etymologisch leitet sich vom Begriff Sueben der spätere Stammesname der Schwaben ab. Als suebisch bezeichnete Stämme waren zur Zeit Tacitus’ die Semnonen, Markomannen, Hermunduren, Quaden und Langobarden, manchmal werden auch die Angeln dazugezählt. Archäologisch lassen sie sich am ehesten in den Elbgermanen wiederfinden. In den Quellen verliert sich die Spur der Sueben im 2. Jahrhundert, bevor ihr Name in späteren Quellen wieder auftaucht. Sie nahmen an der sogenannten Völkerwanderung teil und Teile von ihnen gelangten bis auf die Iberische Halbinsel. Tacitus bezeugt in Germania, 39, dass die Semnonen als das Stammvolk der Sueben, "vetustissimi Sueborum", galten. Sueben bei Caesar. Caesar besiegte die unter Führung von Ariovist nach Gallien eingedrungenen Sueben im Jahr 58 v. Chr. in einer Schlacht am Rhein. In seinen Berichten begreift er als "Sueben" die östlich der Ubier und Sigambrer wohnenden Germanen und berichtet, dass sie 100 Gaue mit je 1000 streitbaren Männern gezählt, aber sich bei seinem Rheinübergang weit nach dem Wald Bacenis (die deutschen Mittelgebirge, die nach Caesar die Sueben von den Cheruskern trennten), zurückgezogen hätten. Diese Lokalisierung gilt aber als unsicher. Sie sollen keine festen Wohnsitze gehabt haben, sondern alljährlich zum Teil auf kriegerische Unternehmungen ausgezogen sein. Die Größe des suebischen Stammesverbandes ist wahrscheinlich in der Mehrzahl auf eine Selbstzuordnung anderer Stämme aufgrund des Kriegsruhmes der Sueben zurückzuführen. Cassius Dio berichtet jedenfalls, dass auch „viele andere Anspruch auf die Bezeichnung ‚Sueben‘ erheben“. Allerdings gab es nach Ausweis der archäologischen Quellen am Main und nördlich davon durchaus feste Siedlungen, sogar keltische Oppida waren in diesem Gebiet noch kurz nach der germanischen Einwanderung besiedelt. Diese sogenannten "Mainsueben", die 10/9 v. Chr. von Drusus unterworfen wurden, gehörten nach dem Fundgut zu einer Mischung des elbgermanischen und des rheinwesergermanischen Kulturkreises. Neckarsueben. Nach Inschriftenfunden lebten in der Gegend von Lopodunum (heute Ladenburg) im 1. und 2. Jahrhundert n. Chr. unter römischer Herrschaft die Suebi Nicrenses, die Neckarsueben. Nach ihnen wurde die Civitas "Ulpia Sueborum Nicretum" in der Gegend von Ladenburg benannt. Es handelt sich wahrscheinlich um Reste, die nach der Vertreibung oder auch freiwilliger oder zwangsweiser Umsiedlung hier und in Diersheim zurückgeblieben waren. In der spätantiken Tabula Peutingeriana, einer römischen Straßenkarte, ist zwischen "Alamannia" und den "Burcturi" (=Brukterer) auch der Name "Suevia" eingetragen (Bild), der sich wahrscheinlich auf das Siedlungsgebiet der Neckarsueben bezieht. Sueben bei Tacitus. Laut 38. Kapitel der Germania von Tacitus aus dem Jahre 98 n. Chr. zählten alle elb- und ostgermanischen Stämme südlich des "Mare Suebicum" (Ostsee) zwischen Elbe und Weichsel (von der Donau bis zur Ostsee) zu dem Stammesbund der "Suebi". Er zählte die Semnonen, Langobarden, Reudigner, Avionen, Anglier, Variner, Suardonen, Nuitonen, Hermunduren, Naristen, Markomannen, Quaden, Marsigner, Burer und die Lugier zu ihnen. Die Hermunduren galten ihm als das „vorderste“, die Semnonen als das „edelste, angesehenste und älteste“ und die Langobarden als das kühnste unter den suebischen Völkern. In der Einleitung seiner Schrift erwähnt Tacitus, dass die Sueben möglicherweise direkt von Mannus abstammen, dem Stammvater aller Germanen und Sohn des der Erde entsprossenen Gottes Tuisto. Sueben bei Ptolemäus. Ptolemäus beschreibt um 150 n. Chr. die Sueben ebenfalls als ein Sammelbegriff für viele Stämme in der "Germania magna". Zu den "Sueboi" zählt er Angiler, Semnonen, große Brukterer, Angrivarier und Teutonoaren (an der Unterelbe). Außerdem nannte er zwischen Oder und jütischer Halbinsel einen Fluss "Syebos". Sueben im Nordwesten der Iberischen Halbinsel. Am 31. Dezember 406 überquerte ein Stamm bzw. Kriegerverband mit Namen "Suebi", begleitet unter anderem von Vandalen und Alanen, den Rhein bei Mogontiacum (Mainz) (siehe "Rheinübergang von 406"). Die Krieger plünderten zunächst Gallien und drangen dann 409 nach Hispanien vor. Hier wurde ihnen angeblich durch das Los die Provinz "Gallaecia" zugeteilt (siehe auch Königreich der Sueben). In Braga (lat. Bracara) errichteten sie ihre erste Residenz. Nachdem sie auch den nördlich gelegenen Hasdinger Anteil an Galizien übernahmen, wurde in A Coruña (lat. Corunium) mit dem Flavium Brigantium eine zweite Residenz eingerichtet. Über die genaue Herkunft dieser suebischen Gruppe, die 585 von den Westgoten endgültig unterworfen wurde, kann nur spekuliert werden. Am ehesten kommen die Donausueben bzw. Quaden in Betracht. Das Suebenreich in Galizien kooperierte geschickt abwechselnd mit Westgoten und dem Weströmischen Reich, wobei es sich jeweils an den aktuell Stärkeren hielt und die Unabhängigkeit oft durch Heiratspolitik erhielt. Es als gotischen Vasallen zu betrachten wäre daher zu kurz gedacht. Der erste suebische König bzw. "rex" auf der Iberischen Halbinsel war Hermerich († 440) der um 430 die Vandalen im Norden besiegte und damit sein Herrschaftsgebiet auf den Nordwesten Galizien ausweiten konnte. Sein Sohn Rechila (440–448) eroberte die von Vandalen gegen Westgoten eroberte lose kontrollierte "Baetica" mit Sevilla im Süden Iberiens. Auch die westlichen Gebiete der Alanen wurden dabei Teil des Suebenreiches. Sein katholischer Sohn und Nachfolger Rechiar expandiert weiter, wobei er langjährige Freundschaftsbande zu den Bagauden knüpfte, wodurch er zeitweilig neue Gebietsgewinne im Westen erlangte. Doch 456 verlor er gegen den westgotischen "rex" Theoderich II. am Fluss Órbigo in der Nähe des heutigen Astorga Schlacht und Leben. Damit gingen die meisten suebischen Eroberungen außerhalb der "Gallaecia" verloren. Die nordwestlichen Sueben ernannten daraufhin Maldras (456–460), vermutlich aus alanischem Adel stammend zu ihrem Anführer, während in der Hauptstadt Braga nacheinander Aiulf (456–457) und Framta (457–458) vermutlich ein Westgotischer Neffe des Theoderich I. in westgotischer Abhängigkeit regierten. Nach Framtas Tod übernahm der Suebe Rechimund oder Remismund (laut Überlieferung Maldras Sohn, wahrscheinlich eher sein Schwiegersohn) die Herrschaft über die Sueben, wobei er sich der Unterstützung des Heermeisters Ricimer erfreute. Remismund expandierte mehr oder weniger gebilligt von den Westgoten und eroberte Conimbriga und gründete Coimbra. Auch Lissabon ergab sich lieber den Sueben als den Westgoten. Remismund der inzwischen wieder den Westen Iberiens beherrschte, musste jedoch auf Wunsch von Eurich wieder das arianische Christentum annehmen. Grund dafür waren politische Absprachen zwischen Eurich und des Heermeisters Ricimer, die zum Tode von Anthemius und seinem Sohn Anthemiolus, aber auch zur formalen Anerkennung der Suebenherrschaft in Galizien durch die Westgoten führten. Für die folgenden rund 100 Jahre sind keine Quellen erhalten. Erst ab 550 werden einige ostgotisch klingende Namen wie Veremund, Theodemund, Chararic und Ariamir genannt, deren Herrschaft sich jedoch nicht verifizieren lassen. Um 560 trat Theodemir aufgrund des Zusammenbruchs des Ostgotenreiches erneut vom Arianismus zum Katholizismus über. Zwischen 570 und 585 sollen weitere vier Könige mit Namen Miro, Eboric, Audeca und Malaric über die Sueben geherrscht haben, die ebenfalls nicht zu verifizieren sind. 585 wurde das suebische Reich, das sich durch Unterstützung der Rebellion des Hermenegild befreien wollte, schließlich vom siegreichem Leovigild dem westgotischen Reich einverleibt. Damit endete die suebische Herrschaft in Galizien nach 176 Jahren. Sprache. Da die suebische Sprache nicht niedergeschrieben wurde, beschränkt sich der bekannte suebische Wortschatz fast vollständig auf Namen und nicht mehr als eine Handvoll Begriffe. Einige suebische Wörter fanden wohl Eingang in die Galicische Sprache und Portugiesische Sprache, so z. B. suebisch *"lawerka" zu portugiesisch und galicisch "laverca" „Lerche“. Donausueben. Er blieb im späteren Schwabenland erhalten. Suebisieren war im 19. Jahrhundert ein Ausdruck für „Schwabenstreiche machen“. Möglicherweise waren die Sueben, die ab etwa 570 südlich des Flusses Bode anstatt der mit den Langobarden nach Italien gewanderten Sachsen siedelten, Alamannen. Kultur. Der Kult der Nerthus war nach Tacitus besonders bei den nördlichen Sueben verbreitet. Außerdem berichtet Tacitus von einem heiligen Hain im Land der Semnonen. Bekannt ist die eigenartige Haartracht, der "Suebenknoten", der die "Freien" von den "Sklaven" und den übrigen Germanen unterschied. Aber es kann bezweifelt werden, dass nur die Sueben diese Haartracht trugen. In Martials Epigrammen 3,9 heißt es: „Mit zu Knoten geflochtenen Haaren kamen die Sugambrer“. Skylab. Skylab ist der Name für die erste und bisher einzige rein US-amerikanische Weltraumstation sowie die Bezeichnung für die Raumfahrtmissionen in diesem Zusammenhang. Die Planung. Noch während der Vorbereitung des Apollo-Programms wurden bei der NASA bereits Überlegungen zur Zukunft der bemannten Raumfahrt angestellt. Hierzu wurde im August 1965 das "Apollo Applications Office" gegründet. Dieses hatte die Aufgabe, nach Nutzungsmöglichkeiten für die Apollo-Hardware zu suchen. Damit wollte man das erarbeitete Wissen der Ingenieure erhalten, die sonst nach dem Ende des Apollo-Programms entlassen worden wären. Man griff recht früh Vorschläge auf, eine Oberstufe einer Saturn-Trägerrakete zu einer Weltraumstation umzubauen und bisher nicht eingesetzte Apollo-Raumschiffe und Saturn-1B-Raketen zum Mannschaftstransport zu nutzen. Schon im Vorfeld hatte die NASA neue Astronauten gesucht. Dieses Mal waren nicht Testpiloten gefragt, sondern Wissenschaftler. Am 28. Juni 1965 wurden Owen Garriott, Edward Gibson, Duane E. Graveline, Joseph Kerwin, Frank C. Michel und Harrison Schmitt der Öffentlichkeit als Wissenschaftsastronauten vorgestellt. Im Gegensatz zum Apollo-Programm, das klar die Mondlandung zum Ziel gehabt hatte, waren die Ziele des "Apollo Application Programs" eher vage. Es wurden viele Vorschläge erarbeitet, die Saturn-Raketen und Apollo-Raumschiffe als Grundlage hatten. Das einzige Projekt jedoch, das verwirklicht wurde, war eine erdumkreisende Raumstation mit drei Mann Besatzung. Ursprünglich plante man, diese mit einer Saturn 1B zu starten und die leergebrannte S-IVB-Oberstufe in mehreren Flügen zu einer Raumstation auszubauen (Konzept „wet workshop“). Es zeigte sich jedoch, dass dieses Konzept zu aufwändig war. Man schwenkte im Sommer 1969 auf den Plan um, die Raumstation am Boden zusammenzubauen und mit einer Saturn V, bei der nur die beiden unteren Stufen zum Antrieb beitrugen, zu starten („dry workshop“). Hierfür wurde die Rakete SA-513 verwendet, die zuvor für Apollo 18 vorgesehen war. Die Mission Apollo 20 wurde im Januar 1970 aus dem Mondprogramm gestrichen, weil keine Saturn V mehr zur Verfügung stand. Ab Februar 1970 wurde für die Raumstation offiziell der Name "Skylab" verwendet. Die Firma McDonnell Douglas stellte 1970 zwei Exemplare der Raumstation her. Eines diente zum Training, das andere war das Fluggerät. Es gab Überlegungen, das Trainingsmodell als Skylab B ebenfalls in den Weltraum zu bringen, dies wurde aber aus finanziellen Gründen verworfen. Der Aufbau von Skylab. Das Weltraumlabor Skylab bestand hauptsächlich aus der zweiten Stufe der Saturn-1-B-Rakete AS-212 (identisch mit der dritten Stufe einer Saturn V), die bereits auf der Erde mit Vorräten und Ausrüstung versehen wurde. Für den Start wurden also nur zwei Stufen einer Saturn V verwendet. Dies war der erste und zugleich der letzte Start einer Saturn V in dieser Konfiguration, denn bisher war dieser Raketentyp nur für Apollo-Raumschiffe verwendet worden. Dieser Teil der Station war der "Orbital Workshop" (OWS). Er wog 35,8 t. Die Besatzung wohnte und arbeitete im Wasserstofftank mit einem nutzbaren Innenvolumen von 275 m³. Der Sauerstofftank wurde mit einer Schleuse ausgestattet und als Abfallgrube genutzt. Im OWS befanden sich die Ausrüstung, alle Essensvorräte, die gesamten Wasservorräte und die Drucktanks für den Treibstoff zur Lageregelung. Neben den Wohn-, Schlaf- und Sanitätsräumen wurden dort auch Experimente durchgeführt, vor allem Erdbeobachtung durch ein Fenster und medizinische Untersuchungen. Der OWS hatte zwei kleine Schleusen für Experimente auf der der Sonne zu- und abgewandten Seite der Station; erstere wurde für die Reparatur des Thermalschutzes dauerhaft belegt. Das bewohnbare Volumen war mehrfach in Ess- und Ruhezonen sowie individuelle Schlafkabinen unterteilt, insbesondere mit gitterartigen Fußböden, in die sich die Astronauten mit speziellen Schuhen einhaken konnten. Durch den großen Durchmesser war ein Volumen von 280 m³ bewohnbar. Dieses Volumen wurde erst von der Mir in ihrer Endausbaustufe übertroffen. An den OWS schloss sich der Instrumentenring der Saturn V an, der beibehalten wurde, um Veränderungen an den Startanlagen zu vermeiden. Er steuerte die Trägerrakete und gab nach dem Start, wenn Skylab in der Umlaufbahn angekommen war, die Kontrolle an die internen Computer von Skylab ab. Nach dem OWS folgte die 22 t schwere Luftschleuse, das "Airlock Module" (AM). Sie enthielt eine Luftschleuse zum Ausstieg, riegelte den OWS vom Docking-Adapter ab, enthielt die Steuerung der Teleskope und alle Gase für die Station in Drucktanks. Ihre Breite ging von 6,7 auf 3,04 m zurück. Sie hatte eine Länge von 5,2 m und ein Innenvolumen von 17,4 m³. Es folgte der zylinderförmige "Multiple Docking Adapter" (MDA). Er war 3,04 m breit, 5,2 m lang und hatte eine Masse von 6260 kg. Er hatte zwei Andockstellen für Apollo-Kommandokapseln: eine radial und eine in der Verlängerung der Längsachse. Die radiale Andockstelle war für eine Notkapsel vorgesehen, die dann gestartet werden sollte, wenn eine Rückkehr mit der ersten Kapsel nicht möglich gewesen wäre, war aber funktional gleichwertig zur axialen. Zur Sonnenbeobachtung, die ein wichtiges Ziel von Skylab war, verfügte die Raumstation zudem über ein Observatorium, das "Apollo Telescope Mount" (ATM), das nach dem Erreichen des Orbit in eine Position seitwärts an den MDA ausgefahren wurde. Es wog 11.066 kg, war 6 m breit und 4,4 m hoch. Seine Sonnenteleskope konnten auf 2,5 Bogensekunden genau ausgerichtet werden. Gesteuert wurde es vom OWS aus, wobei die Filme im Rahmen eines Außenbordmanövers (EVA) gewechselt werden mussten. Die Energieversorgung war mit vier Solarmodulen am ATM und zwei weiteren am Hauptmodul geplant. Alleine die Solarpanele des ATM hatten eine Spannweite von 31 m. Das ATM benutzte Komponenten des LM und richtete mit seinen Drallrädern auch die gesamten Station aus. Zuletzt gab es noch das angekoppelte Apollo-Raumschiff als "Command and Service Module" (CSM). Das CSM übernahm die gesamte Kommunikation mit der Erde, da Skylab, abgesehen von seiner Bordtelemetrie, keinen eigenen Sender hatte. Weiterhin mussten die Lebenserhaltungssysteme des CSM einmal pro Monat die Gasreinigung übernehmen, wenn die Molekularsiebe von Skylab ausgebacken wurden. Das CSM war daher integraler Bestandteil der Station. Die Masse der Station betrug über 90 Tonnen. Insgesamt war Skylab wesentlich größer als die sowjetische Raumstation Saljut 1, die im April 1971 gestartet worden war. Bei günstigem Sonnenstand war das Skylab mit bloßem Auge als leuchtender Punkt auch am Taghimmel zu beobachten. Der Start von Skylab 1. Der Start dieser ersten amerikanischen Raumstation sollte am 14. Mai 1973 vom Startkomplex 39-A in Cape Canaveral erfolgen. Am Folgetag sollte die erste Besatzung mit einer Saturn-1B-Rakete von der Startrampe 39-B folgen. Die drei Besatzungen hätten die Missionsbezeichnungen Skylab 2, Skylab 3 und Skylab 4 getragen. Die Saturn V SA-513, die für Skylab 1 verwendet werden sollte, war etwas kürzer als die Modelle, die für die Mondflüge verwendet worden waren. Sie hatte keine Rettungsrakete, kein Apollo-Raumschiff und keinen Adapter für die Mondlandefähre. Außerdem nutzte diese Rakete nur zwei Stufen. An Stelle der dritten Stufe transportierte sie die Raumstation mit einer kegelförmigen Verkleidung an der Spitze. Dieser Flug war der letzte einer Saturn V. Es war das erste Mal, dass der Countdown von zwei Saturn-Raketen gleichzeitig vorbereitet wurde. Ähnliches hatte es aber schon im Dezember 1965 gegeben, als Gemini 7 und Gemini 6 nacheinander gestartet wurden. Die Umlaufbahn war mit einer Inklination von 50° so gewählt, dass große Teile der Landflächen der Erde überflogen wurden. Schäden beim Start. a> als Ersatz für den abgerissenen Hitzeschutzschild angebracht. Skylab 1 hob wie geplant am 14. Mai 1973 ab. Bereits 63 Sekunden nach dem Start empfing die Bodenstation jedoch alarmierende Telemetriesignale. Offenbar hatte sich eine Verkleidung gelöst, wodurch eines der Solarmodule und der Meteoriten- und Thermalschutzschild abgerissen wurden. Spätere Untersuchungen zeigten, dass der Fehler durch mangelnde Koordination der Konstruktionsabteilungen entstanden war (siehe Not-Invented-Here-Syndrom). Die Raumstation erreichte zwar die geplante Umlaufbahn, war aber nicht funktionsfähig. Zwar gelang es der Flugleitung, die vier Solarmodule des Solarobservatoriums auszufahren, doch schien es Probleme mit den beiden anderen Modulen zu geben, so dass insgesamt nur etwa die halbe elektrische Leistung zur Verfügung stand. Der fehlende Meteoritenschutzschild hätte auch als Wärmeschutz dienen sollen, weshalb in der Station die Temperatur stark anstieg, so dass befürchtet werden musste, dass Lebensmittel, Medikamente und Filme verdorben sein würden. Als erste Reaktion wurde der Start von Skylab 2 verschoben, bis man sich ein klares Bild von der Situation machen konnte. Außerdem versuchte die Flugleitung, eine günstige Ausrichtung von Skylab zu erreichen. Waren die funktionsfähigen Solarzellen der Sonne zugewandt, konnte zwar genügend Energie gewonnen werden, gleichzeitig heizte sich die Station aber stark auf. Drehte man die Station so, dass die Stelle mit dem fehlenden Schutzschild im Schatten lag, gaben auch die Solarzellen zu wenig Leistung ab und der Ladestand der Batterien sank. Die NASA-Ingenieure hatten nun das Problem, Energiereserven, Treibstoffreserven und Temperatur der Raumstation im Rahmen zu halten. Würde es nicht innerhalb von Tagen möglich sein, die Schäden zu reparieren, wäre die Station verloren. Zwei Wochen lang wurde die Station so gesteuert, während die Skylab-2-Mission vorbereitet wurde. Es gelang den Mannschaften während der Missionen Skylab 2 und Skylab 3, die Schäden zu reparieren. Die Station war anschließend voll funktionsfähig. Mehr über die Reparaturarbeiten (eng.: On-Orbit Servicing) in den entsprechenden Artikeln. Besatzungen. Drei Besatzungen aus jeweils drei Astronauten verbrachten insgesamt 513 Manntage im All. Zu den Aufgaben der Besatzungen zählte zunächst die Reparatur der beschädigten Raumstation. Ferner wurden Erkenntnisse über die Auswirkungen des Langzeitaufenthalts in der Schwerelosigkeit gewonnen. Außerdem gehörten neben einigen Tierversuchen mit Fischen und Spinnen umfangreiche Sonnen- und Erdbeobachtungen sowie Aufnahmen des Kometen 1973 E1 (Kohoutek) zum Programm. Es zeigte sich, dass der Verbrauch an Ressourcen wesentlich geringer war als angenommen. Die Besatzung lebte von den mit Skylab 1 gestarteten Vorräten und Nahrungsmitteln, Wasser und Gasen. Ursprünglich sollte die zweite und dritte Besatzung jeweils 56 Tage in der Raumstation verweilen. Der niedrigere Verbrauch machte aber einen Aufenthalt von 59 und 84 Tagen möglich, wobei die letzte Besatzung die Vorräte etwas ergänzte und insbesondere zusätzliche Filme mitbrachte. Anzumerken ist, dass Skylab nicht über die (einfache) Möglichkeit einer Wiederbefüllung (durch Betankung o.ä.) verfügte, was nach späterem Verständnis wesentlich für eine Raumstation ist. Ein Teil der Ressourcen wäre allerdings, zumindest im Rahmen eines Außenbordeinsatzes, unter Benutzung der auch auf der Erde verwendeten Ventile ergänzbar gewesen. Der Start erfolgte, wie später auch das Apollo-Sojus-Projekt, von einer mittels eines Aufsatzes verkürzten Startrampe. Während des Betriebs von Skylab wurde eine Notmannschaft in Bereitschaft gehalten, welche die primäre Mannschaft hätte retten können (Skylab-Rettungsplan). Dafür stand eine Apollo-Kapsel mit zwei weiteren Sitzen unter den originalen sowie eine weitere Saturn IB zur Verfügung. Vorgesehen war, dass Vance Brand und Don Lind zu zweit zu Skylab flogen und ihre Kameraden zurückbrachten. Diese Mission wurde nie durchgeführt, beide Astronauten kamen aber zu späteren Einsätzen. Absturz. Nachdem drei Besatzungen die Raumstation 28, 59 und 84 Tage bewohnt hatten, wurde sie am 8. Februar 1974 durch das Apollo-Raumschiff von Skylab 4 in eine höhere Umlaufbahn geschoben. An Bord verblieb etwa ein Drittel des ursprünglichen Wasservorrats von 2720 l (entsprechend etwa 180 Manntagen), Sauerstoff für etwa 420 Manntage, und ähnliche Vorräte fast aller anderen Verbrauchsstoffe. Nach den Berechnungen der NASA sollte Skylab nach der Bahnanhebung etwa neun weitere Jahre in Funktion bleiben. Der Wiedereintritt in die Erdatmosphäre wurde auf März 1983 geschätzt. Man plante zu diesem Zeitpunkt noch, dass etwa 1979 ein Space Shuttle ein Antriebsmodul an Skylab ankoppeln könnte, um das Weltraumlabor wieder in eine höhere Umlaufbahn zu bringen. Dies sollte mit der abgesagten Mission STS-2a durchgeführt werden. Allerdings gab es keine konkreten Pläne für die weitere Verwendung der Station, die aufgrund der alten Technologie problematisch gewesen wäre. Die meisten Systeme der Raumstation wurden abgeschaltet und Skylab umkreiste die Erde mehrere Jahre, ohne beachtet zu werden. Im März 1978 wurde der Kontakt zu Skylab wieder aufgenommen. Offenbar rotierte die Station weitgehend unkontrolliert mit einer Periode von sechs Minuten pro Umdrehung, und die Funkgeräte arbeiteten nur, wenn die Solarmodule im Sonnenlicht waren. Nach einer Woche gelang es, mehrere Batterien ferngesteuert zu laden. Der Zentralcomputer arbeitete noch zufriedenstellend, die Lageregelung war aber durch den Ausfall eines Sternensensors und den Teilausfall eines der drei Drallräder erheblich beeinträchtigt. Es stellte sich jedoch heraus, dass Skylab schneller als berechnet sank. Grund dafür war die durch hohe Sonnenaktivität unerwartet ausgedehnte Hochatmosphäre der Erde und die dadurch erhöhte Abbremsung. Weiterhin wusste man zu diesem Zeitpunkt, dass das Space Shuttle nicht rechtzeitig fertig werden würde. Eine alternative Mission – beispielsweise mit einer Titan III als Träger – wurde verworfen. Am 19. Dezember 1978 gab die NASA bekannt, dass man Skylab nicht retten könne, man aber alles unternähme, um das Risiko von Absturzschäden zu minimieren. Hierzu arbeitete die NASA eng mit der Überwachungsbehörde North American Aerospace Defense Command (NORAD) zusammen. NASA und NORAD verwendeten unterschiedliche Berechnungsmethoden für den Wiedereintritt und kamen deshalb auf unterschiedliche Ergebnisse für Zeit und Ort des Niedergangs. Offiziell wurden aber immer die NORAD-Ergebnisse bekannt gegeben. Die NASA plante, durch die Ausrichtung der Raumstation die atmosphärische Reibung steuern zu können, um den Absturz zu verzögern oder zu beschleunigen. Durch Fernsteuerung sollte Skylab dann zu einem bestimmten Zeitpunkt in Rotation mit bekannter Aerodynamik versetzt werden. Damit konnte in engen Grenzen die Gefahrenzone verlagert werden. Der Absturz erfolgte dann am 11. Juli 1979. Der letzte Orbit von Skylab führte größtenteils über Wasserflächen, und die NASA gab das letzte Steuerungskommando, um die Gefahrenzone von Nordamerika weg auf den Atlantik und den Indischen Ozean zu verlagern. Tatsächlich zerbrach die Station erst später als berechnet in mehrere Teile, so dass das Absturzgebiet weiter östlich als geplant lag. Betroffen war die Gegend südöstlich von Perth in West-Australien bei Balladonia, wo Trümmer in den dunklen Morgenstunden niedergingen, ohne jemanden zu verletzen. Verschiedene Teile wurden geborgen, in die USA gebracht und dort identifiziert, nachdem die NASA eine Belohnung für den ersten Fund ausgelobt hatte. Die Behörden der australischen Gemeinde Esperance Shire schickten der NASA wegen unerlaubter Abfallentsorgung einen Bußgeldbescheid über 400 Dollar. Die NASA lehnte eine Bezahlung ab; erst 2009 wurde der ausstehende Betrag von einer US-Radiostation beglichen. Die gesamte Mission kostete etwa 2,6 Milliarden US-Dollar. Sumer. Als Sumer bezeichnet man den südlichen Teil der Kulturlandschaft des mesopotamischen Schwemmlandes, das sich zwischen der heutigen Stadt Bagdad und dem Persischen Golf erstreckt. In dieser Region vollzogen die dort lebenden Sumerer erstmals in der Menschheitsgeschichte den Übergang zur Hochkultur und erfanden mit der Keilschrift die Schrift. Name. Die Eigenbezeichnung der Sumerer für dieses Land lautete "ki-en-ĝir", ihre Sprache nannten sie "emegi(r)". Die Bezeichnung Sumer geht hingegen auf das akkadische Wort "šumeru" zurück, welches sowohl das Land als auch die Bewohner des südlichsten Mesopotamiens bezeichnete. Sie begegnet vor allem in Königstiteln der altbabylonischen Zeit, wo sich die Herrscher als „König von Sumer und Akkad“ bezeichneten. Diese auch schon im 3. Jahrtausend in sumerischer Sprache bezeugte Bezeichnung ("lugal kiengi kiuri(m)") drückt dabei den Anspruch auf Herrschaft über das gesamte, später Babylonien genannte, südliche Mesopotamien aus, das neben dem südlichen Teil Sumer auch einen nördlichen Teil, in Anlehnung an das Reich von Akkade Akkad genannt, hatte. Nachdem im 19. Jahrhundert zunächst die akkadische Sprache rekonstruiert wurde, bürgerte sich das akkadische Wort zur Bezeichnung der sumerischen Sprache ein, die aus den akkadischen Quellen erschlossen werden konnte. Naturräumliche Gegebenheiten. Das Land Sumer liegt heute mehrheitlich im südlichen Staatsgebiet des Irak, im Schwemmgebiet der Flüsse Euphrat und Tigris. Diese Region ist besonders vom küstennahen Marschland geprägt, wobei die Golfküste in der Antike deutlich weiter landeinwärts lag und sich seitdem durch Sedimentablagerungen der Flüsse immer weiter nach Südosten zurückgezogen hat. Ebendiese Sedimente bilden fruchtbare Böden, die sich grundsätzlich für den Anbau von Kulturpflanzen eignen. Aufgrund dort niedriger und variabler Niederschläge ist dies jedoch nur in der Nähe der Flussläufe oder durch künstliche Bewässerung möglich. Anders als in Ägypten stellt sich die Frühjahrsflut jedoch recht spät ein und konnte so die Ernte gefährden, außerdem sorgen hohe Temperaturen für große Verdunstungsmengen. Der daraus resultierenden Versalzung kann nur durch ein Ausschwemmen der Böden und durch eine Brachenwirtschaft entgegengewirkt werden. Entgegen seinem landwirtschaftlichen Potenzial verfügt das Land Sumer über nahezu keine Bodenschätze. Weder Gesteine noch Metalle sind vor Ort verfügbar, so dass diese von weit her importiert werden mussten, dasselbe gilt auch für Bauhölzer. Wichtigste Baumaterialien waren daher der überall verfügbare Lehm, Schilf sowie Erdpeche. Geschichte. Ab wann das als Sumer bezeichnete Land von Menschen regulär besiedelt wurde, ist bis heute nicht endgültig geklärt. Älteste Siedlungsreste stammen aus dem 6. Jahrtausend v. Chr., wobei eventuelle frühere Besiedlungen aufgrund der Mächtigkeit der durch die Flüsse abgelagerten Sedimente und des im Südirak hohen Grundwasserspiegels der Archäologie bisher nicht zugänglich sind. Von diesen frühesten Siedlungsspuren ausgehend ist jedoch eine mehr oder weniger kontinuierliche Entwicklung hin zu größeren Sozialwesen nachvollziehbar, die im späten 4. Jahrtausend v. Chr. mit der Entstehung der ersten Stadt in Uruk ihren ersten Höhepunkt fand. Ab dem frühen 3. Jahrtausend v. Chr. sind dann auch schriftliche Quellen verfügbar, die uns über eine Reihe auch archäologisch bekannter Städte informieren. Diese sind vor allem die Stadtstaaten Adab, Eridu, Isin, Kiš, Kullab, Lagaš, Larsa, Nippur, Ur und Uruk. In diesen Städten herrschten lokale Dynastien, die oft auch miteinander in Konflikt standen, wie es etwa die Inschrift der Geierstele bezeugt. Die deutlich jüngere sumerische Königsliste suggeriert den Eindruck, dass diese Dynastien einander abgewechselt hätten und so ein „abstraktes Königtum über ein altsumerisches Reich“ bestanden und von je einer Dynastie ausgeübt worden sei. Dabei handelt es sich jedoch um keine historisch korrekte Darstellung. In der zweiten Hälfte des 3. Jahrtausends kam es erstmals zur Ausbildung eines Territorialstaates. Diese Bestrebungen wurden vor allem von Sargon von Akkad betrieben, der von sich selbst behauptete, ganz Mesopotamien unter seine Kontrolle gebracht zu haben. Infolge diverser lokaler Unruhen, des Eindringens der Gutäer genannten Völker und eventueller klimatischer Veränderungen ging dieser erste Flächenstaat im frühen 22. Jahrhundert v. Chr. endgültig unter. In der Folgezeit bestanden wieder vorrangig Stadtstaaten, bis nach rund einem Jahrhundert der Herrscher von Uruk größere Landesteile unter seine Kontrolle bringen konnte und damit Vorreiter für die 3. Dynastie von Ur wurde, deren Begründer wiederum einen großen Territorialstaat begründen konnte. Dieser Staat bestand für etwa 100 Jahre und ging dann im Zuge von Überfällen der Elamer aus dem heutigen Iran unter. In der Folgezeit gelangten zunehmend Ammuriter, die aus nördlicheren Gebieten einwanderten, an die Macht, bis schließlich Hammurapi I. von Babylon wieder ein großes Reich errichten konnte. Spätestens in dieser Zeit ging die sumerische Kultur vollends in der semitischen auf, obgleich die sumerische Sprache als Gelehrtensprache noch mindestens für ein Jahrtausend weiter tradiert wurde. Saljut. Saljut (für "Salut, Ehrensalve, Gruß") war ein sowjetischer Raumstationstyp. Nachdem die USA die Sowjetunion im Wettlauf zum Mond geschlagen hatten, entwickelten sich die Raumfahrtprogramme der beiden Supermächte in unterschiedliche Richtungen. Während die Amerikaner zur Entwicklung von neuen Transportsystemen (wiederverwendbares Space Shuttle) drängten, verstärkte die UdSSR die Entwicklung von Raumstationen für eine dauerhafte menschliche Präsenz im Weltraum. Almas und DOS. Seit 1964 wurde in der Sowjetunion an einer militärischen Raumstation gearbeitet, die das Gegenstück zum amerikanischen MOL-Programm (Manned Orbiting Laboratory) der US Air Force darstellen sollte. Diese Station wurde vom Konstruktionsbüro OKB-52 unter Wladimir Tschelomei entwickelt und trug den Namen "Almas" (für „Diamant“) oder OPS (, ' für „Bemannte Orbital-Station“). Als Zubringer sollte das ebenfalls noch zu entwickelnde TKS-Raumschiff dienen. Als sich im Sommer 1969 herausstellte, dass bis zum Erstflug von Almas und TKS noch einige Jahre vergehen würden, entstand die Idee, parallel dazu eine zivile Raumstation zu entwickeln, die auf einer Almas-Struktur basieren sollte, aber Sojus-Technologie einsetzte. Zu diesem Zweck wurden die bereits fertigen Gehäuse und Ausstattungselemente inklusive aller Unterlagen von Tschelomei an das von Mischin geleitete „Zentrale Konstruktionsbüro des experimentellen Maschinenbaus“ übergeben. Diese Raumstation erhielt die Bezeichnung DOS (, ' für „Langzeit-Orbital-Station“) und wurde vom Konstruktionsbüro ZKBEM, dem früheren OKB-1, entwickelt. Sie sollte bereits Ende 1971 einsatzbereit sein. Die endgültige Entscheidung, auf DOS zu setzen, wurde im Februar 1970 getroffen, bereits im April 1971 erfolgte der Start der DOS-Station unter dem Namen "Saljut 1". Um die militärische Natur der Almas-Stationen zu verschleiern, wurden öffentlich sowohl erfolgreich gestartete DOS- als auch Almas-Stationen unter der Bezeichnung „Saljut“ geführt. Insgesamt wurden sechs DOS-Stationen und fünf Almas-Stationen gebaut und gestartet. Zwei DOS-Stationen und eine Almas-Station konnten nicht bemannt werden, somit wurden vier DOS- und zwei Almas-Stationen benutzt. Die beiden zuletzt gebauten OPS-Stationen wurden als unbemannte automatische Aufklärungsplattformen genutzt und starteten unter den Namen Kosmos 1870 im Juli 1987 und als "Almas 1" im März 1991. Die Stationen beider Reihen trugen dabei wesentlich zur Erforschung der Technologien bei, die für einen langfristigen Aufenthalt und den Bau von komplexeren Strukturen im Weltraum nötig sind. Die Almas-Stationen unterschieden sich konstruktiv deutlich von den Saljut-Stationen. Sie waren von Anfang an für eine längere Nutzungsdauer ausgelegt und waren deshalb mit zwei Kopplungsstutzen ausgerüstet (die den zivilen Saljut 1 und Saljut 4 fehlten), um Versorgungsfrachter aufnehmen zu können; auch besaßen sie Solarzellenausleger zur Energiegewinnung (die Saljut 1 fehlten). Die nie fertiggestellten Zubringerraumschiffe für drei Kosmonauten sollten unter anderem jeweils acht Rückkehrkapseln mit zur Raumstation bringen. In diesen Kapseln konnten 100 kg Nutzlast zur Erde zurückgeführt werden. Die Almas-Stationen waren mit einer umfangreichen und hochauflösenden Fototechnik ausgestattet. Die Filme konnten an Bord entwickelt werden. Im Gegensatz zu den Saljut-Stationen verfügte die Almas am Heck über eine Übergangsschleuse. Durch sie erfolgte der Zugang in angedockte Transporter und konnten Rückkehrkapseln bestückt werden; zudem bestand hier die Möglichkeit, in den freien Weltraum zu gelangen. Zu diesem Zweck führte Almas auch zwei Raumanzüge mit, die ursprünglich für das abgebrochene sowjetische Mondlandeprogramm entworfen waren. Weitgehend unbekannt ist, dass die Almas-Stationen bewaffnet waren. Zur Abwehr von US-Abfangsatelliten besaßen die Stationen eine von Alexander Emmanuilowitsch Nudelman konstruierte und für den Weltraum angepasste ursprünglich für Flugzeuge konstruierte Schnellfeuerkanone NR-23. Aufbau. Die Saljut-Stationen vor Saljut 6 bestanden aus einer vorderen Schleusensektion mit Kopplungsstutzen mit insgesamt 3,3 m Länge und einem Durchmesser von 2 m, gefolgt vom vorderen Arbeitsraum mit zylindrischer Form und einer Länge von 3,8 m und einem Durchmesser von 3,0 m. Es folgt eine konische Zwischensektion von 1,2 m Länge deren Durchmesser von 3,0 m auf 4,15 m ansteigt und der hintere Arbeitsraum von zylindrischer Form und einer Länge von 4,2 m und einem Durchmesser von 4,15 m. Den Abschluss bildet eine zylindrische Hecksektion von 1,9 m Länge und einem Durchmesser von 2,2 m. Die Gesamtlänge der Station beträgt 14,4 m, das Gesamtvolumen etwa 100 m³ und die Gesamtmasse etwa 18,5 t. Die Energieversorgung erfolgte bei Saljut 1 und 2 durch vier starre (beim Start eingeklappte) Solarzellenflächen von etwa 10 m Spannweite von denen jeweils zwei an der vorderen Schleusensektion und an der Hecksektion angebracht wurden. Ab Kosmos 557 kamen drei drehbar gelagerte und so zur Sonne ausrichtbare Solarzellenflächen an der vorderen Arbeitssektion mit jeweils 6,6 m Länge zum Einsatz. Die letzten beiden Saljut-Stationen (6 und 7) unterschieden sich etwas von den vorherigen fünf. So waren diese mit 18,9 t etwas schwerer und unterschieden sich auch geringfügig im Aufbau. Es wurden in der Hecksektion ein zweiter Kopplungsstutzen eingebaut und dafür die Bahnkorrekturtriebwerke weggelassen, so dass jetzt die angekoppelten Sojus-Raumschiffe dazu verwendet werden mussten, die bei den ersten Stationen nicht nur als Transportmittel sondern auch noch als Erholungs- und Schlafraum dienten. Allen gemeinsam war, dass die mittlere Sektion und die Hecksektion den Raumfahrern als Lebensraum und für wissenschaftliche und technische Geräte zur Verfügung stand. An der Hecksektion waren außerdem ein Triebwerk für Bahnmanöver und ein weiterer Kopplungsstutzen angebracht. Die mit einem Kopplungsstutzen ausgerüsteten Sektionen waren hermetisch vom Rest der Station abtrennbar und dienten so als Luftschleuse. Die Gesamtlänge der Stationen betrug etwa 15 m, die Masse rund 20 t. Für ihren Start wurde eine Proton-Trägerrakete eingesetzt. Saljut 1 (DOS 1). Saljut 1 wurde am 19. April 1971 gestartet und war die erste Raumstation. Sojus 10 führte ein Kopplungsmanöver mit der Station durch, die Mannschaft konnte diese aber nicht betreten. Die einzigen Kosmonauten, die sich an Bord aufhielten, war die Besatzung von Sojus 11, die aber bei der Rückkehr wegen eines geöffneten Luftventils ums Leben kam. Insgesamt war die Station an 24 Tagen bemannt und verglühte nach 175 Tagen im Orbit am 11. Oktober 1971 in der Atmosphäre. Saljut 1 bestand im Wesentlichen aus einer leeren Almas-Hülle und vielen Sojus-Bestandteilen, unter anderem einem kompletten Servicemodul am Heck. Saljut 2A (DOS 2). Die zweite zivile Raumstation der Sowjetunion sollte am 29. Juli 1972 gestartet werden. Durch einen Fehler der verwendeten Trägerrakete vom Typ Proton kam es zu einer Explosion, die die Raumstation kurz nach dem Start zerstörte. Saljut 2 (Almas 1). Am 3. April 1973 wurde der Prototyp der streng geheimen militärischen Almas-Station gestartet. Um die wahre Natur der Station zu verschleiern, wurde ebenfalls eine Saljut-Bezeichnung vergeben. Die Station erreichte zunächst den vorgesehenen Orbit. Nach zwei Tagen unbemannten Flugs wurde ein plötzlicher Druckverlust an Bord der Raumstation registriert, nach und nach fielen alle Instrumente aus, bis sich am 29. April ein totaler Kontrollverlust einstellte. Saljut 2 stürzte daraufhin bereits am 28. Mai des gleichen Jahres ab, ohne dass eine Mannschaft an Bord gewesen war. Kosmos 557 (DOS 3). Die dritte zivile Raumstation wurde am 11. Mai 1973 gestartet. Sie konnte in der Umlaufbahn nicht stabilisiert werden, und verglühte bereits am 22. Mai 1973. Deshalb erhielt sie „nur“ eine Bezeichnung der Kosmos-Reihe. Saljut 3 (Almas 2). Der Start von Saljut 3 fand am 25. Juni 1974 statt. 16 Tage lang wurde die Raumstation von der Besatzung von Sojus 14 genutzt. Der Flug von Sojus 15 musste wegen Problemen abgebrochen werden. Am 24. Januar 1975 trat Saljut 3 wieder in die Erdatmosphäre ein. Saljut 4 (DOS 4). Saljut 4 wurde am 26. Dezember 1974 gestartet. Bis zum Absturz am 2. Februar 1977 wurde sie von den Besatzungen von Sojus 17 und Sojus 18 insgesamt 93 Tage genutzt. Unter anderem wurden Laser-Ortungsversuche durchgeführt. Saljut 5 (Almas 3). Eine Rückkehr-Kapsel mit Filmmaterial von Saljut 5 Saljut 5 startete am 22. Juni 1976 und blieb bis zum 8. August 1977 im Orbit. Die Besatzungen von Sojus 21 und Sojus 24 blieben insgesamt 67 Tage an Bord. Eine weitere Mission, Sojus 23, schlug jedoch fehl. Das Almas-Programm wurde 1978 gestoppt und 1980 offiziell beendet. Saljut 6 (DOS 5). Saljut 6 wurde am 29. September 1977 gestartet und war die erste wiederauftankbare Raumstation, dank des erstmals eingebauten 2. Kopplungsstutzens am hinteren (dickeren) Ende des Hauptmoduls. Dadurch wurde das Andocken des Versorgungsraumschiffes vom Typ Progress möglich, das sowohl Lebensmittel als auch, über separate Tanks, Sauerstoff und Treibstoff in die Station brachte. Müll der an Bord lebenden Kosmonauten wurde aufgenommen und verglühte beim Wiedereintritt des Versorgungsraumschiffes in die Erdatmosphäre. Durch die Ver- und Entsorgungsmöglichkeit hatte die Station eine weitaus längere Nutzungsdauer und blieb fast 5 Jahre im All, bis sie am 29. Juli 1982 verglühte. Insgesamt besuchten 16 Mannschaften Saljut 6. Mit dieser Raumstation wurden im Rahmen des Interkosmos-Programms erstmals Raumfahrer aus befreundeten Ländern eingeladen, an sowjetischen Raumflügen teilzunehmen, darunter der erste Deutsche im Weltall, Sigmund Jähn, der am 26. August 1978 für die DDR startete. Mit dem angedockten Modul Kosmos 1267 (TKS 2) war Saljut 6 die erste modulare Raumstation. Insgesamt war die Station an 685 Tagen besetzt. Saljut 7 (DOS 6). Modell der Saljut-7-Station (ohne Solarpanels) mit einem angedockten Sojus-Raumschiff und einem Progress-Transporter Der Start von Saljut 7 erfolgte am 19. April 1982. Zehn Besatzungen taten zwischen 1982 und 1986 auf der Station Dienst. Der längste Aufenthalt betrug 237 Tage. Mit den angedockten Modulen Kosmos 1443 und Kosmos 1686 (TKS 3 und 4) war Saljut 7 wiederum eine modulare Station. Nach dem Start des Zentralmoduls der neuen Raumstation Mir am 19. Februar 1986 wurden Teile der Ausrüstung von Saljut 7 durch einen Besuch von Sojus T-15 zur Mir gebracht. Der Flug von Sojus T-15 von der Mir zu Saljut 7 und wieder zurück zur Mir war der erste Flug eines Raumschiffs zwischen zwei Raumstationen. Danach starteten keine weiteren Kosmonauten mehr zu Saljut 7. Am 7. Februar 1991 trat die Raumstation in die Erdatmosphäre ein und verglühte teilweise. Fragmente der Station gingen über Argentinien nieder. Speyer. a>, Blick auf den Altrheinarm "Runkedebunk"; rechts die "Insel Horn" Speyer (bis 1825 auch "Speier") ist eine kreisfreie Stadt am Oberrhein. Als römische Gründung, damals "Noviomagus" oder "Civitas Nemetum" (Hauptstadt des Stammes der Nemeter) genannt, ist sie eine der ältesten Städte Deutschlands und wurde als "Spira" um 600 Zentrum des Speyergaues. Im Mittelalter war Speyer als freie Reichsstadt eine der bedeutendsten Städte des Heiligen Römischen Reiches Deutscher Nation. Zwischen 1816 und 1945 Sitz der bayrischen Verwaltung der Pfalz, gehört Speyer heute als kreisfreie Stadt zu Rheinland-Pfalz und hat  Einwohner (Stand). Weithin bekannt ist Speyer durch seinen Kaiser- und Mariendom. Er ist die weltweit größte noch erhaltene romanische Kirche und zählt seit 1981 zum UNESCO-Weltkulturerbe. Geographie. Speyer wird raumplanerisch als Mittelzentrum mit Teilfunktionen eines Oberzentrums eingestuft und ist Teil der Metropolregion Rhein-Neckar mit Ludwigshafen am Rhein, Mannheim und Heidelberg als Zentrum. Die Stadt liegt in der Oberrheinischen Tiefebene an der Mündung des Speyerbachs in den Rhein, knapp 20 km südlich von Ludwigshafen am Rhein/Mannheim und 34 km nördlich von Karlsruhe (jeweils Luftlinie). Seine Nachbargemeinden sind Römerberg im Süden, Dudenhofen im Westen, Schifferstadt im Nordwesten, Waldsee und Otterstadt im Norden. Jenseits des Rheins liegen Ketsch im Nordosten, Hockenheim im Osten, Altlußheim im Südosten und Oberhausen-Rheinhausen im Süden. Der Rhein bildet die östliche Grenze der Stadt und gleichzeitig die Grenze von Rheinland-Pfalz zu Baden-Württemberg. Er tritt bei Stromkilometer 393,8 in die Gemarkung von Speyer ein und verlässt sie 9,2 km später wieder bei Stromkilometer 403. Die durch die Rheinbegradigung von Tulla abgeschnittenen Altrheinarme im Südosten (Altlußheimer Altrhein) und im Süden ("Runkedebunk") der Stadt stehen mit dem sich dort nach Norden fortsetzenden Speyerer Auwald und den Wasserflächen nach der Fauna-Flora-Habitat-Richtlinie unter europäischem Schutz. In der Rheinniederung nordwestlich des Stadtgebietes entstanden durch Sand- und Kiesabbau zahlreiche Baggerseen, darunter allein das Gebiet Binsfeld mit acht Seen nördlich der A 61. Ganz im Norden hat Speyer noch Anteil am Angelhofer Altrhein. Stadtgliederung. Gewesteter Plan der Stadtmauern von Speyer mit den historischen Vorstädten; das Gebiet wurde bis ca. 1850 weitgehend wieder bebaut. Stadtmauerrest an der Hilgardstraße. Dort wuchs die Stadt zuerst weiter, als sie ihre Mauern wieder gefüllt hatte. Es bildete sich mit der Zeit der Stadtteil Speyer-Süd. Speyer-Südwest ist ein Sondergebiet im Westen der Kernstadt von Speyer mit den Funktionen Kloster, Bildung, Forschung, Krankenversorgung, Sport und Erholung. Außerhalb der geschlossenen Siedlung liegen Binshof, Deutschhof, Ludwigshof, Rinkenbergerhof, Spitzenrheinhof, Thomashof, Weiherhof und Reffenthal. Flussterrassen. Bis zu seiner Regulierung und Begradigung im frühen 19. Jahrhundert mäandrierte der Rhein in der Oberrheinischen Tiefebene in unzähligen Schleifen und Schlingen und änderte über die Jahrtausende beständig seinen Lauf. Auch nach der Regulierung ist die Landschaft am Rhein durch die zahlreichen noch vorhandenen bzw. wieder ausgekiesten Altrheinarme geprägt. Auch dort, wo sich keine Wasserflächen mehr befinden, lassen sich ehemalige Rheinarme am Bewuchs, Zuschnitt der Flure und am Verlauf der Niederterrassen erkennen. Das Stadtgebiet Speyers hat Anteil an der Rheinniederung (etwa 93 m über Normalnull), der Niederterrasse (im Mittel bei 103 m über Normalnull) und der Hochterrasse (bis zu 113 m über Normalnull). Die Rheinniederung besteht aus alluvialen und holozänen Ablagerungen. Die Niederterrasse entstand in der letzten Eiszeit; über einer mächtigen Kiesablagerung liegt eine etwa 50 cm dicke Lehmschicht durch Flussschlickablagerungen (Pleistozän). Die Hochterrasse besteht im Südwesten aus eiszeitlichen Anhäufungen von Löß (gegen Dudenhofen der nördliche Teil der Schwegenheimer Lößplatte) und im Nordwesten aus Sandflächen und Sanddünen (Truppenübungsplatz und Speyerer Stadtwald) westlich der B 9. Die Übergänge zwischen den drei Ebenen zeichnen sich durch teilweise deutlich erkennbare Versprünge aus. Den Speyerern sind diese Höhenunterschiede von der Niederterrasse zum Rhein als „Museumsbuckel“, die Terrassierung im Domgarten, die Treppe an der Nordseite des Domes oder die abfallenden Straßen zum Fischmarkt bekannt. Die Anstiege zu Hochterrasse kennen sie als „Brauereibuckel“ (Obere Langgasse) oder „Schützenbuckel“ (Schützenstraße). Die relativ hochwassersicheren Niederterrassen liegen mehr oder weniger weit von der Hauptachse des Flusses entfernt. In Speyer ragte diese Niederterrasse wie ein Keil unmittelbar an den Rhein heran und bot damit die Möglichkeit, relativ sicher vor Hochwasser möglichst nahe am Fluss zu siedeln. Der Verlauf des Hochgestades entspricht im Stadtgebiet von Speyer etwa der 100-m-Höhenlinie über Normalnull und lässt sich leicht verfolgen. Der südwestlich von Speyer liegende Ort Berghausen liegt unmittelbar an seiner Oberkante. Von dort verläuft es in einer generellen Linie nach Nordosten, um das Wohngebiet Vogelgesang herum, bis zum östlichsten und dem Rhein am nächsten gelegenen Punkt, dem sogenannten Domhügel. Von dort schwenkt es zurück nach Nordwesten entlang der Johannesstraße, nach Norden entlang der Wormser Landstraße und des ersten Teilstücks der Waldseer Straße, und springt dann über Buchen- und Erlenweg nordöstlich übers freie Feld bis zum Spitzenrheinhof und von dort wieder nördlich an der Westseite der Binsfeldseen vorbei bis Otterstadt. Dabei bildet es eine Abfolge von Halbkreisen, an denen der einstige Verlauf des Rheines ablesbar ist. Der Forlenwald (102–110 m ü. NN) nordwestlich der Stadt, östlichster Teil des Speyerer Waldes, besteht aus (großen Bäumen) 76 % Kiefern, 7 % Buchen, 4 % Eichen, je 3 % Robinien, Birken, Roteichen sowie 2 % sonstigen Bäumen auf nährstoffarmen dilluvialen Flug- und Dünensanden, Schwemmsanden und Geröllen, vorwiegend Sandbraunerden mit Podsoligkeit oder Podsolierung. Im Nachwuchs werden vor allen die Buchen (von 4 % auf 21 %) zu Lasten der Kiefern (von 76 % auf 53 %) verstärkt. Die Bedeutung Speyers und seine topografisch günstige Lage an den Flussterrassen war für die bayerische Landesvermessung nach den napoleonischen Kriegen ein wichtiger Grund zur Anlage eines speziellen Vermessungsnetzes, das als Grundlage für die seit 1805 projektierte Rheinregulierung und die Vermessung des neugebildeten Rheinkreises dienen sollte. Unter dem großherzoglich-badischen Oberingenieur Johann Gottfried Tulla wurde 1819 eine genaue Basislinie zwischen Speyer und Oggersheim gemessen, während für die astronomische Orientierung des Netzes einer der 72 Meter hohen Osttürme des Speyerer Doms und die Mannheimer Sternwarte gewählt wurden. Klima. Durch seine Lage im Oberrheingraben gehört Speyer zu den wärmsten und niederschlagsärmsten Gebieten Deutschlands. Die Jahresmitteltemperatur beträgt 9,8 °C, in der Vegetationszeit 16,9 °C, die durchschnittliche Niederschlagsmenge beträgt 596 mm (1931–1960 Station Speyer), davon 314 mm in der Vegetationszeit. Die Zahl der Sommertage mit über 25 °C liegt bei durchschnittlich 40 Tagen pro Jahr. Gewitter treten durchschnittlich an 20–25 Tagen auf, Schneefall an 20 Tagen, eine geschlossene Schneedecke an 20 Tagen. Die Hauptwindrichtungen sind Südwest und Nordost. Die Zahl der Sonnenscheinstunden ist im Sommerhalbjahr deutlich überdurchschnittlich, im Winter wegen häufiger Inversionswetterlagen unterdurchschnittlich. Wegen der Inversionslagen und der Schwüle im Sommer gilt das Wetter in Speyer als bioklimatisch belastend. Geschichte. → "Hauptartikel Geschichte der Stadt Speyer" Antike und Mittelalter. Zahlreiche Funde aus der Jungsteinzeit, Bronzezeit, Hallstattzeit und Latènezeit lassen darauf schließen, dass die Terrassen in Speyer, insbesondere die Niederterrassenzunge in unmittelbarer Rheinnähe, schon immer interessante Siedlungsorte darstellten. Im zweiten vorchristlichen Jahrtausend war die Gegend von Speyer Siedlungsgebiet der keltischen Mediomatriker. Nach der Unterwerfung Galliens durch die Römer 50 v. Chr. wurde der Rhein, auch wenn das Gebiet noch außerhalb des militärischen Geschehens lag, Teil der Grenze des Römischen Reiches. 10 v. Chr. wurde ein Lager vermutlich für eine 500 Mann starke Infanterietruppe errichtet. Dieser römische Militärposten wurde zum Impuls für die Stadtbildung. Um 150 erschien die Stadt unter dem keltischen Namen "Noviomagus" (Neufeld oder Neumarkt, siehe alle "Noviomagus") in der Weltkarte des Griechen Ptolemaios; der gleiche Name steht im Itinerarium Antonini, einem Reisehandbuch des Antonius aus der Zeit Caracallas (211–217) und auf der Tabula Peutingeriana, einer Straßenkarte aus dem 3. Jahrhundert. Ab 260 konnten die ständigen Angriffe der Alamannen im Rahmen der Völkerwanderung auf den Limes nicht mehr abgewehrt werden, die römische Reichsgrenze musste an den Rhein zurückgezogen werden, und Speyer wurde wieder zur Grenzstadt. Für das 4. Jahrhundert ist ein erster Speyerer Bischof belegt; das Bistum ging vermutlich während der Völkerwanderungszeit unter. Im Jahre 406 setzten Sueben, Vandalen und sarmatische Alanen auf Druck nachrückender Hunnen über den Rhein und überrannten auf ihrem Weg ins innere Gallien auch Speyer. Ein reich ausgestattetes „Fürstengrab“ im rechtsrheinischen Altlußheim, etwa vier Kilometer von Speyer, bezeugt die Anwesenheit von Alano-Sarmaten, Hunnen oder Ostgermanen. In einer Schlacht 496/497 bei Zülpich und einer weiteren Schlacht 505 besiegten die Franken unter Chlodwig die Alamannen und Speyer wurde Teil des fränkischen Königreiches. Damit erhielt Speyer wieder Anschluss an die gallisch-römische Kultur. Im Rahmen der Reorganisation der Verwaltung kamen romanisierte Beamte und Bischöfe aus Südgallien an den Rhein. Auch bei der Verwaltungsgliederung hielten sich die Franken weitgehend an ihre Vorgänger, beispielsweise bei der Einrichtung der Gaue. Der neue Speyergau entsprach ungefähr der civitas Nemetum. Erstmals wird der von den Alamannen eingeführte Name "Spira" in den „Notitia Galliarum“ aus dem 6. Jh. erwähnt, obwohl er sich bereits 496/509 erschließen lässt. Ab dem 7. Jahrhundert ist Speyer erneut Bischofssitz. Kaiser Otto der Große verlieh 969 der Bischofskirche das Immunitätsprivileg, eine eigene Gerichtsbarkeit und die Kontrolle über Münze und Zoll. Ab 1030 ließ Kaiser Konrad II. die Bauarbeiten am Dom zu Speyer beginnen. Im 11. Jahrhundert siedelte sich auf Veranlassung Bischof Rüdiger Huzmanns in Speyer eine der ersten Jüdischen Gemeinden im römisch-deutschen Reich an. Neben den anderen SCHUM-Städten Worms und Mainz gilt Speyer als eine der Geburtsstätten der aschkenasischen Kultur. Am Tag der Beisetzung seines Vaters im Speyerer Dom erteilte Heinrich V. im Jahre 1111 der Stadt umfassende Privilegien. Als erster Stadt in Deutschland gewährte der "Große Freiheitsbrief" den Bürgern persönliche Freiheiten. Zusammen mit seinem Bild wurde der Brief in goldenen Buchstaben über dem Domportal angebracht, wo sie aber im Zuge der späteren Dombeschädigungen verloren ging. Das 13. Jahrhundert in Speyer sollte von der Auseinandersetzung um die stadtherrlichen Rechte gekennzeichnet sein. Die zweite Hälfte war von heftigen Streitigkeiten zwischen der Stadt und dem Bischof, und vor allem den Stiften, gekennzeichnet, die vom Investiturstreit nur noch verschärft wurden. Es war insbesondere das Domkapitel, das sich zum eigentlichen Kontrahenten der Bürgerschaft entwickelte. In der Mitte dieses Jahrhunderts ist erstmals belegt, dass es in Speyer „öffentliches Eigentum“ in Form von städtischem Grundbesitz gibt. Im 14. Jahrhundert spielte die "generalis discordia," die Auseinandersetzung zwischen Bürgerschaft und Klerus, nur eine untergeordnete Rolle. Im wittelbachisch-habsburgischen Thronstreit stand Speyer erneut im Mittelpunkt der Reichspolitik. Vor diesem Hintergrund entwickelte sich ein Machtkampf um die Ratsbesetzung zwischen den Münzer-Hausgenossen und den Zünften. Auf ihre letzten Vorrechte verzichten mussten die Hausgenossen 1349, als sich in Speyer das Prinzip der reinen Zunftverfassung durchsetzte. Von diesem Zeitpunkt an mussten sich die Hausgenossen als Zunft etablieren und waren damit nur noch eine Gruppierung unter 14 anderen Zünften. Stadtrecht und Reichstage. In der zweiten Hälfte des 14. Jahrhunderts zeigte sich auch, dass die Speyerer Bischöfe ihren stadtherrlichen Anspruch nie aufgegeben hatten. Zur Vertretung ihrer Interessen gewannen sie die Unterstützung Kaiser Karls IV. und vor allem der Pfalzgrafen bei Rhein, wohingegen die Stadt sich nicht mehr uneingeschränkt auf den Rückhalt der Kaiser verlassen konnte. Im Jahre 1434 kam mit dem Kurfürsten Ludwig III. von der Pfalz ein Schutz- und Schirmvertrag auf zehn Jahren zustande. Ab 1439 war die Region von marodierenden Armagnaken bedroht, aus französischen Diensten entlassene Söldner. 1439 schloss Speyer mit Mainz, Worms und Straßburg ein Bündnis, das die Aufstellung eines Heeres von 100 Gleven vorsah, jeweils 30 aus Mainz und Straßburg und 20 aus Worms und Speyer. Möglicherweise aufgrund der äußeren Gefahr rückten Stadt und Geistlichkeit näher zusammen. 1459 bis 1462 musste sich Speyer wieder an einer kriegerischen Auseinandersetzung der Kurpfalz beteiligen, diesmal im Zusammenhang mit dem Pfälzer Krieg und der Mainzer Stiftsfehde gegen Kurmainz. Mit Matthias von Rammung übernahm 1464 in Speyer ein Bischof das Amt, der nochmals konkrete Anstrengungen unternahm, die Befugnisse der Kirche auszubauen bzw. zurückzugewinnen. Dabei geriet die Stadt unverschuldet 1465 mit der Kirche in Konflikt, weil sie auf Geheiß des kaiserlichen Hofgerichtes einem Bürger gegen den Bischof zu seinem Recht verhelfen sollte. 1470/71 kam Speyer abermals in eine Situation, in der sie sich mühsam um eine neutrale Haltung bemühen musste. Wiederum geriet Kurfürst Friedrich I. überkreuz mit dem Kaiser, weil er sich der Stadt und des Klosters Weißenburg bemächtigte und beide, Kurfürst und Kaiser, verlangten in dem entbrannten Krieg die militärische Hilfe Speyers. In der ersten Hälfte des 16. Jahrhunderts rückte Speyer in den Mittelpunkt deutscher Geschichte. Die Bedeutung der Stadt in jenen Tagen wird deutlich, indem in ihren Mauern insgesamt über 50 Hoftage stattfanden und von den 30 Reichstagen, die es in diesem Jahrhundert gab, fünf in Speyer abgehalten wurden (siehe Reichstage zu Speyer). Darüber hinaus fanden in Speyer Reichsdeputationstage, z. B. 1558, 1560, 1583, 1595, 1599/60, Kurfürstentage, z. B. 1588 und Reichsmoderationstage, z. B. 1595 statt. 1525 wurde die Rheingegend von einer Bauernerhebung erfasst, die das Hochstift Speyer am 20. April erreichte. Der Aufstand richtete sich hauptsächlich gegen kirchlichen Besitz und die Bauern wandten sich gegen den Zehnten, die Zinsen und Gülten. Am 30. April planten sie „gen Speyer zu ziehen und daselbst der Pfaffheit Nester, die viel Jar mit Nachtheil und großen Schaden der Armen erhalten weren worden, zu zerstören“. Der lutherische Einfluss auf diese Erhebung ist erkennbar. Beim Anmarsch auf Speyer wurde die Absicht bekundet, „die Stadt Speier zu belegern und die Geistlichen irs Gefallens darin zu reformieren“ und sie erwarteten hierfür sogar die Unterstützung der Stadt. Die Bürger sollten unbehelligt bleiben. In der Folge fanden einige Reichstage in Speyer statt. Neuzeit und Moderne. Bis auf ein Ereignis im Jahre 1552 verlief die Zeit in Speyer zwischen 1530 und 1620 vergleichsweise friedlich. Dennoch blieb die Stadt von Unglück nicht verschont. Es kam immer wieder zu Pestepidemien, beispielsweise in den Jahren 1539, 1542, 1555 und 1574. Der Schmalkaldische Krieg 1546 hatte auf Speyer keine direkten Auswirkungen. 1564 publizierte Wilhelm Eisengrein die erste gedruckte Geschichte der Stadt Speyer, die, wie er selbst schrieb, auf der handschriftlichen Chronik des Domvikars Wolfgang Baur († 1516) basierte. 1612 erschien nach zehnjähriger Arbeit die Erstausgabe der "Chronica der freien Reichsstadt Speier" von Christoph Lehmann. Das Werk war sehr populär, da es sich auch intensiv mit der Reichsgeschichte befasste, und erlebte im Verlauf des folgenden Jahrhunderts vier Auflagen. 1618 beteiligte sich Speyer mit einem pfälzisch-badischen Heer an der Schleifung der Udenheimer Bischofsfestung, die jedoch bald wiederaufgebaut wurde. In den Wirren des Dreißigjährigen Krieges (1618–1648) befand sich das ummauerte, aber selbst kaum verteidigungsfähige Speyer im Spannungsfeld der häufig umkämpften Festungen Frankenthal, Friedrichsburg, Philippsburg und Landau. Somit fiel der Stadt ständig die Rolle als Zufluchtsort, Lazarett, Versorgungsstation und/oder Truppenlager zu. Hinzu kamen Besetzungen durch Spanier, Schweden, Franzosen und kaiserliche Truppen, die in kurzen Abständen wechselten. Erst 1650 verließen die letzten Soldaten die Stadt, zurück blieben Schulden, Hunger und Seuchen. 1689 kam es im Rahmen des Pfälzischen Erbfolgekrieges und der planmäßigen Entfestigung der Pfalz unter General Melac zur völligen Zerstörung der Stadt durch französische Truppen. Zwei Tage nachdem der französische General Joseph de Montclar am 30. Januar 1689 die Befestigungsanlagen der Stadt inspiziert hatte, begannen die Abbrucharbeiten, an denen sich die Stadtbewohner zwangsweise beteiligen mussten. Die Bürger vermuteten, dass die Franzosen die Stadt niederbrennen wollten. Am Nachmittag des 23. Mai teilte der französische Kriegsintendant den beiden Bürgermeistern und den Ratsherren mit, dass die Stadt innerhalb von sechs Tagen evakuiert werden müsse: „es solle jedoch niemand daraus schließen, dass die Stadt verbrennet werde.“ Montclar ließ dem Domdekan und bischöflichen Statthalter Heinrich Hartard von Rollingen am 27. Mai 1689 mitteilen, er habe den Befehl erhalten „die Stadt samt allen darin befindlichen Kirchen und Klöstern, einzig die hohe Domkirche ausgenommen, in Brand zu stecken“. Der Oberkommandierende der Franzosen in Mainz, Marschall Graf Jacques-Henri de Durfort, duc de Duras, wurde vom Domkapitel um die Zusicherung gebeten, dass der Dom verschont bleibe. 1792 eroberten französische Revolutionstruppen Speyer. Es blieb als Sitz einer Unterpräfektur im Département du Mont-Tonnerre (Donnersberg) bis 1814 unter französischer Herrschaft. Die Befreiungskriege gegen Napoleon sowie die Neuordnung der europäischen Staatenwelt auf dem Wiener Kongress von 1815 brachten wiederum eine Änderung der Machtverhältnisse im pfälzischen Raum. Für wenige Stunden stand Speyer noch einmal im Rampenlicht der großen Politik, als sich am 27. Juni 1815 Zar Alexander von Russland, Kaiser Franz I. von Österreich und Preußens König Friedrich Wilhelm III. im alliierten Hauptquartier in der Stadt trafen. 1816 wurde Speyer zur Kreishauptstadt des in der Folgezeit so genannten Rheinkreises. Dieser fiel im Ergebnis des Wiener Kongresses dem Königreich Bayern als Ausgleich für das an Österreich abgetretene Salzburg zu. Der Regierungsbezirk (Kreis) Pfalz bestand erst seit dem 1. Januar 1838 und löste den Rheinkreis ab. 1837 war der Ausbau des Rheinhafens abgeschlossen. Speyer erhielt 1847 seinen Anschluss an das deutsche Eisenbahnnetz. Es entstanden unter anderem soziale und karitative Einrichtungen (Arbeits- und Bildungsanstalt für Mädchen, Wohltätigkeitsverein der jüdischen Gemeinde und ein Hospital). Im Bereich des Bildungswesens verfügte die Stadt über Einrichtungen aller Art und das am besten ausgebaute Schulsystem in der Pfalz. Es entstanden die ersten Vereine: zur Schützengesellschaft, die bereits seit 1529 bestand, kamen beispielsweise Turnverein, Harmoniegesellschaft, Musikverein und Liedertafel. Bis 1918 war Speyer Garnison des 2. Pionierbataillons der bayerischen Armee. In Speyer befanden sich seit 1913 die Pfalz-Flugzeugwerke. Sie entwickelten sich im Ersten Weltkrieg zu einem bedeutenden deutschen Rüstungsbetrieb und lieferten mehrere tausend Kampfflugzeuge. Speyer von Westen um 1900 Mit dem Ende des Ersten Weltkrieges und der Besetzung des linken Rheinufers zog in Speyer 1918 erneut die französische Armee ein. Frankreich besetzte große Teile des linksrheinischen Deutschland (Alliierte Rheinlandbesetzung). Schon ab Ende 1918 unterstützte das französische Militär unter General Gérard gezielt eine Bewegung unter Führung des promovierten Chemikers Eberhard Haas, die sich „Freie-Pfalz“ nannte – zusammen mit mehreren anderen Separatistengruppierungen im nördlichen Rheinland. Im Frühsommer 1919 unternahm die Freie Pfalz in Speyer einen Putschversuch für eine autonome Pfalz. Dieser scheiterte kläglich, hauptsächlich am Widerstand des stellvertretenden Regierungspräsidenten Friedrich von Chlingensperg auf Berg (1860–1944). Er hatte die Mehrheit der pfälzischen Parteien an seiner Seite. Nach wenigen Stunden war die schlecht vorbereitete Aktion beendet. 1930 zog die französische Besatzungsmacht ab. Die NS-Machtübernahme und die Gleichschaltung wirkten sich ab 1933 auch auf Speyer aus. Die Stadt gehörte zunächst zum 'Gau Rheinpfalz', der 1935 mit dem Saarland zum Gau Saar-Pfalz zusammengelegt wurde. Der Verwaltungssitz des Gaues kam nach Neustadt. Die Speyerer Synagoge in der Heydenreichstraße wurde in den Novemberpogromen 1938 am 9. November 1938 niedergebrannt und kurz danach abgerissen. Das NS-Regime betrieb eine beispiellose Ausrottung der Juden in Europa („Holocaust“). Mehr als 100 Juden aus Speyer und Umgebung, denen die Flucht nicht mehr gelang, wurden umgebracht. Widerstand gegen den Nationalsozialismus leistete die Gruppe Speyerer Kameradschaft um den Speyerer Sozialdemokraten Jakob Schultheis (1891–1945) und seine Ehefrau Emma (1892–1978). Speyer erlitt während des Zweiten Weltkrieges, abgesehen vom Bahnhofsgebiet, keine größeren Zerstörungen durch Luftangriffe. Ende März 1945 wurde Speyer von US-Truppen eingenommen (siehe Operation Undertone); abziehende deutsche Truppen sprengten die Rheinbrücke. Eine Wehrmacht-Einheit in Speyer kämpfte verbissen. Speyer, das seit 1945 wieder eine französische Besatzungsgarnison hatte, lag bis zur Gründung der Bundesrepublik 1949 in der Französischen Besatzungszone. Als Zeichen der wachsenden Freundschaft entstand 1953/54 mit deutschen und französischen Mitteln die St.-Bernhard-Kirche in der Wormser Straße. Das Besatzungsregime endete am 6. Mai 1955. Erst in den 1990er Jahren endete die Geschichte Speyers als Standort der französischen Armee. Das Jahr 1990 stand im Zeichen von zahlreichen Feierlichkeiten aus Anlass des zweitausendjährigen Bestehens der Stadt und im Zeichen der deutsch-deutschen Wiedervereinigung. Am 9. November 2011 wurde die neue Synagoge Beith-Schalom im Beisein des damaligen Bundespräsidenten Christian Wulff geweiht. Die alte Synagoge war in der Pogromnacht 1938 („Reichskristallnacht“) zerstört worden. Stadtrat. Der Stadtrat von Speyer besteht aus 44 ehrenamtlichen Ratsmitgliedern, die bei der Kommunalwahl am 25. Mai 2014 gewählt wurden, und dem hauptamtlichen Oberbürgermeister als Vorsitzenden. CDU und SPD bilden in Stadtrat eine Koalition. Bürgermeister. Ab 1923 trug das Stadtoberhaupt den Titel „Oberbürgermeister“. Wappen. Die Blasonierung des Wappens lautet: „In Silber ein rotes Kirchengebäude mit drei blaubedachten und mit goldenen Kreuzen besteckten Türmen und drei offenen Toren“. Es wurde 1846 vom bayerischen König genehmigt. Seit dem 13. Jahrhundert führte Speyer im Stadtsiegel den Dom in der Nordansicht belegt mit der Madonna. Beim Wappen entschied man sich für die Westansicht des Domes, weil sie vom Reichsherold als „empfehlenswerter und ehrwürdiger“ angesehen wurde. Partnerstädte. Mit Spalding (Vereinigtes Königreich) wurde 1956 die erste Partnerschaft geschlossen. 1959 folgte das französische Chartres, 1989 Ravenna (Italien) und Kursk (Russland) und 1992 Gniezno (Gnesen) in Polen. Jüngste Partnerstadt ist seit 1998 Yavne in Israel. Darüber hinaus übernahm die Stadt 1982 eine Patenschaft für Karengera in Ruanda bzw. nach einer Kommunalreform 2001 für den Bezirk Ruzisi (vormals Impala). Mit dem chinesischen Ningde, Speyers Kooperationspartnerstadt in der rheinland-pfälzischen Partnerprovinz Fujian, ist im Jahr 2013 eine Städtepartnerschaft geschlossen werden. Bevölkerung. Von den 37.200 Einwohnern im Jahre 1960 waren 5.000 Vertriebene. Speyer verzeichnete von allen Städten in der Pfalz die stärksten Wachstumsraten und hatte als eine von wenigen Städten überhaupt bis 2009 eine positive Wachstumsrate. Historische Profanbauten. Am Beginn der im Volksmund als „Hauptstraße“ bezeichneten Maximilianstraße am Domplatz befindet sich das Stadthaus, welches auf dem Areal errichtet wurde, auf dem sich seit dem Mittelalter der Trutzpfaff befand. In ihm sitzen der Bürgermeister und die Stadtverwaltung. Ebenfalls historisch bedeutsam ist das 1724 errichtete historische Rathaus, in dem seit dieser Zeit der Stadtrat von Speyer tagt. Es befindet sich an der Maximilianstraße gegenüber dem früheren Marktplatz, auf dem heute der Weihnachtsmarkt stattfindet. Am alten Marktplatz befindet sich auch die sogenannte „Alte Münze“. Das heutige Gebäude wurde 1784 als „Neues Kaufhaus am Markt“ am Platz der Münze errichtet. Dieses 1689 zerstörte Gebäude war seit 1289 Versammlungsort des Rates und zudem Sitz der Münzer, jene Privilegierte, die die Erlaubnis hatten Münzen herzustellen. Am anderen Ende der Maximilianstraße liegt der 55 m hohe „Altpörtel“, der im Mittelalter das westliche Haupttor der Stadt darstellte. Die unteren Teile des heutigen Tores wurden zwischen 1230 und 1250 erbaut, das oberste Geschoss mit der Galerie und dem 20 m hohen Walmdach wurde zwischen 1512 und 1514 hinzugefügt. Nach dem großen Stadtbrand wurde das Altpörtel 1708 mit einem neuen Schieferdach versehen. Im ersten Stockwerk befindet sich eine Dauerausstellung über die Geschichte der Speyerer Stadtbefestigung. Kirchen und Klöster. Bis zu seiner Zerstörung 1689 verfügte Speyer über 15 Pfarreien. Nach Franz Josef Mone bildeten das Domstift, das Stift St. German und Moritz, das Stift St. Guido und Johannes und das Allerheiligenstift die Oberpfarreien, und die Kirchen, St. Peter beim Allerheiligenstift, St. Bartholomäus, St. Jakob, St. Johannes, St. Georg, St. Martin in Altspeyer, St. Ägidius in der Gilgenvorstadt, die des Klosters St. Magdalena in der Vorstadt überm Hasenpfuhl, St. Marien (die spätere Friedhofskapelle, heute Kapelle im Adenauerpark), und St. Markus vor dem Marxtor der St.-Markus-Vorstadt die übrigen Pfarreien. Davon wurde später St. Markus der Pfarrei St. Peter und die Marienkirche im 16. Jahrhundert dem Germanstift übergeben. Neben den genannten Pfarrkirchen gab es noch das Karmeliterkloster in der Gilgensvorstadt, das Franziskanerkloster, das Dominikanerkloster (heute Bistumshaus St. Ludwig), das Augustinerkloster, das Jesuitenkollegium am Dom, St. Alexius vor dem Neupörtel, das weibliche Allerheiligenstift (bereits im 15. Jahrhundert aufgelöst), das Heilig-Grab-Kloster und das St.-Klara-Kloster in Altspeyer, die Nikolauskapelle am Dom und die Heilig-Kreuz-Kapelle am Kreuztor der Gilgenvorstadt. Neben der zur Stadt gehörenden Markuskirche und dem ebenfalls zur Stadt gehörenden Michaelskapelle auf dem Germansberg (ehemals Teil des Germanstifts), gab es vor den Toren der damaligen Stadt weitere nicht zur Stadt gehörende Kapellen. So befand sich im Mittelalter unweit des Germanberges die St.-Ulrichs-Kapelle, einst Pfarrkirche des abgegangenen Dorfes Winternheim, und (heute Rinkenbergerhof) die St.-Lorenz-Kapelle. Nach der Aussage von Franz Joseph Mone gab es von diesen Kapellen bereits im 16. Jahrhundert nur noch geringe Spuren, während die Dörfer schon zuvor vollständig verschwunden waren. 1983 fand man bei Ausgrabungen in der Nähe des Closwegs die Reste der Ulrichskapelle mit einem Friedhof. Bis auf einige Ausnahmen fielen die Speyerer Kirchen Klöster und Kapellen dem Stadtbrand zum Opfer. Die Ausnahmen sind St. German in campo (das Alte Germanstift vor den Toren auf dem Germansberg), da es damals nur noch als Michaelskapelle bestand, die Martinskirche, da sie bereits 1685 abgerissen wurde, und die Friedhofskapelle, das Karmeliterkloster, das Klara-Kloster und die Ägidienkirche, da sie verschont wurden. Die Gedächtniskirche von der Schützenstraße aus Im Rahmen des Wiederaufbaues der Stadt nach der Zerstörung im Pfälzischen Erbfolgekrieg entstanden Anfang des 18. Jahrhunderts die Dreifaltigkeitskirche als lutherische Stadtkirche sowie die wegen der Nachbarschaft zur Dreifaltigkeitskirche heute kaum noch kirchlich genutzte Heiliggeistkirche für die reformierte Gemeinde. Darüber hinaus wurden der Dom, das Guidostift, das Klara-Kloster, das Dominikanerkloster, das Franziskanerkloster, das Kloster St. Magdalena, das Augustinerkloster, die Jesuitenkirche, St. Georg, St. Stephan, das Allerheiligenstift und schließlich auch provisorisch St. Johannes. Allerdings wurden alle vorhandenen Kirchen und Klöster in Folge der Französischen Revolution aufgelöst und verstaatlicht. Dieses sogenannte Nationaleigentum, zu dem auch die Kirchenruinen zählten, wurden schließlich verkauft und oft später abgebrochen. Nur das Guidostift, das Dominikanerkloster (St. Ludwig), das Kloster St. Magdalena, die Ägidienkirche und der Dom wurden nicht abgerissen und sind so bis heute erhalten. Von 1893 bis 1904 wurde im Gedenken an die Protestation auf dem Reichstag zu Speyer im Jahr 1529 die Gedächtniskirche der Protestation mit dem höchsten Kirchturm in der Pfalz errichtet. In unmittelbarer Nähe der Gedächtniskirche steht die katholische Josephskirche, die als Reaktion auf den Bau der Gedächtniskirche errichtet und 1914 eingeweiht wurde. In der Nähe des Bahnhofs befindet sich die Bernhardskirche (1953 bis 1954), die als deutsch-französische Friedenskirche erbaut wurde. Für den Stadtteil Speyer-Nord wurden die Kirchen St. Konrad und die Christuskirche errichtet, für Speyer-West St. Otto und St. Hedwig (mittlerweile zur Quartiersmensa Q+H umgebaut) sowie die evangelische Johanneskirche und für Speyer-Süd die Auferstehungskirche. Die drei katholischen Frauenklöster (Kloster St. Magdalena, der Karmel und das durch Nikolaus von Weiss gegründete Institut St. Dominikus) und die evangelischen Diakonissen verfügen über eigene Kirchen. Auch die Evangelisch-methodistische Kirche, die Neuapostolische Gemeinde, die Freie evangelische Gemeinde, die freikirchliche Pfingstgemeinde und die Zeugen Jehovas verfügen über Kirchen bzw. Versammlungsorte. Synagogen. Die erste Speyerer Synagoge lag im Jüdischen Viertel der Vorstadt Altspeyer. Nach schweren Übergriffen auf die Juden 1096, bei denen der Bischof die Juden bei sich aufnahm, wurde in unmittelbarer Nähe zum Dom im Bereich der heutigen Judengasse und Kleinen Pfaffengasse ein neues Jüdisches Viertel errichtet. Es verfügte über eine von der Dombauhütte errichtet Synagoge und eine im 12. Jahrhundert errichtete Mikwe, ein rituelles jüdisches Bad. Die Gemeinde, der auch Die Weisen von Speyer angehörten, war damals eine der bedeutendsten Gemeinden des Heiligen Römischen Reichs und bildete mit Worms und Mainz einen als SCHUM-Städte bezeichneten Verband. Trotz kaiserlicher Privilegien wurde die Speyerer Gemeinde mehrfach Opfer von Ausschreitungen und Pogromen, bei denen Juden ermordet und Jüdisches Eigentum zerstört wurde. So fiel die Synagoge in Altspeyer dem Pogrom von 1195 zum Opfer. Nach weiteren Pogromen befahl Rudolf von Habsburg den Landesherren das Eigentum von flüchtigen Juden einzuziehen. Am 22. Januar 1349 wurde die jüdische Gemeinde infolge des bis dahin schwersten Pogroms vollständig vernichtet. Überlebende kehrten einige Jahre später zurück und bauten nach weiteren Vertreibungen ab 1354 eine neue Gemeinde auf, welche aber 1435 erneut aufgelöst wurde. Einige Jahre später durften sie schließlich zurückkehren, mussten sich aber an strenge Vorschriften halten. Spätestens 1529 war aber auch diese Gemeinde verschwunden. 1544 stellte Kaiser Karl V. das "Große Speyrer Judenprivileg" aus, mit dem er den Juden ihre Privilegien zurückgab. Dies ermöglichte die Entstehung einer neuen Jüdischen Gemeinde, welche aber 1688 aufgelöst wurde. Beim Wiederaufbau der Stadt nach 1689 wurde in den Ruinen der Synagoge Wohnhäuser errichtet. Eine jüdische Gemeinde existierte erst seit der französischen Revolution wieder. 1837 erhielt die Gemeinde eine neue Synagoge, welche auf dem Platz der ehemaligen Jakobskirche errichtet wurde. Diese Synagoge wurde schließlich 1938 in der Reichspogromnacht zerstört. 1996 wurde schließlich eine neue jüdische Gemeinde gegründet. Darüber hinaus wurde 1998/1999 die Ruine der mittelalterlichen Synagoge freigelegt und auf dem Areal um Synagoge und Mikwe, welche die älteste noch vollständig erhaltene deutsche Mikwe ist, der sogenannte „Judenhof“ eingerichtet. Im vor dem Judenhof befindlichen Gebäude wurde schließlich am 9. November 2010 das Museum SchPIRA eröffnet. Am 9. November 2011 erfolgte schließlich die Eröffnung der Synagoge Beith-Schalom (Haus des Friedens) mit dem zugehörigen Gemeindezentrum der Jüdischen Kultusgemeinde der Rheinpfalz. Sie wurde in der ehemaligen St. Guidokirche errichtet und ist die vierte Synagoge seit dem Bestehen von jüdischen Gemeinden in Speyer. Moschee. In den Jahren 2011 bis 2012 errichtete die Türkisch-Islamische Gemeinde im Speyerer Norden die Fatih-Moschee Speyer. Historisches Museum der Pfalz. Das Historische Museum der Pfalz verfügt über römische und mittelalterliche Ausstellungsstücke aus der Region, insbesondere Reste der alten Domausstattung und einen der bedeutendsten Funde der Bronzezeit, den bei Schifferstadt gefundenen Goldenen Hut, einen mit kreisförmigen Ornamenten reich verzierten, aus Gold getriebenen Kultkegel. Daneben zeigt das Museum auch regelmäßig Sonderausstellungen, die zum Teil nach ihrem Ende in Speyer an anderen Orten gezeigt wurden. Technikmuseum. Unweit des Stadtzentrums befindet sich das Technikmuseum Speyer, das eine sehr große Anzahl von technischen Meisterleistungen insbesondere aus dem Fahrzeug- und Flugzeugbau, unter anderem die weit sichtbare Boeing 747-230 „Schleswig-Holstein“ und den Prototyp OK-GLI der russischen Raumfähre Buran zeigt. Purrmann-Haus. Dem Oeuvre zweier bedeutender Söhne der Stadt sind Dauerausstellungen in ihren jeweiligen Geburtshäusern gewidmet: Anselm Feuerbach (1829–1880) im Feuerbachhaus und Hans Purrmann (1880–1966) im Purrmann-Haus. Letzterem ist ein bundesweit anerkannter Preis der Stadt Speyer für Bildende Kunst gewidmet. Museum SchPIRA. Das Museum SchPIRA präsentiert archäologische Exponate aus dem jüdischen Leben Speyers im Mittelalter. Mit dem benachbarten Judenhof können die drei wichtigsten Säulen der Jüdischen Gemeinde besichtigt werden, Synagoge, Friedhof und Mikwe. Fastnachtsmuseum. Im Fastnachtsmuseum im Wartturm an der Wormser Landstraße wird in vier Turmgeschossen das närrische Treiben der Region dokumentiert. Museum im Brückenhaus. Der Schiffbauer-, Schiffer- und Fischerverein zeigt im Museum im Brückenhaus, dem ehemaligen Maut- und Verwaltungsgebäude der von 1865 bis 1938 bestehenden Schiffbrücke, Schiffsmodelle, Geräte und Urkunden des Schiffbaues, der Rheinschifffahrt und der Fischerei in Speyer von den Anfängen bis zur Gegenwart. Archive. Als Archivstandort verfügt Speyer über vier Archive: das Landesarchiv Speyer, das Zentralarchiv der Evangelischen Kirche der Pfalz, das katholische Bistumsarchiv und über das älteste kommunale Archiv der Pfalz, das Stadtarchiv Speyer. Theater. Die Stadt Speyer unterhält seit 1990 selbst ein Kinder- und Jugendtheater. Theater, Musicals und andere Bühnenaufführungen wurden unter dem Titel "Theater in der Stadthalle" von einer privaten Veranstalterin angeboten, der die Halle zu günstigen Konditionen überlassen wurde. Im Rathaus bietet das Zimmertheater Speyer Theaterstücke, Kabarett und Kleinkunst. Kunst, Musik, Veranstaltungen, Unterhaltung. Von August bis Oktober jeden Jahres werden in der Trägerschaft des Domkapitels Speyer und der Stadt Speyer die Internationalen Musiktage „Dom zu Speyer“ veranstaltet. Neben der Austragung des Internationalen Orgelwettbewerbs „Dom zu Speyer“ stehen Sinfoniekonzerte, Abende mit Kammermusik und geistlicher Musik auf dem Programm. Ins Leben gerufen wurde dieses Festival 1980, als anlässlich der 950-Jahrfeier der Grundsteinlegung des Speyerer Domes der Internationale Orgelwettbewerb startete. Daraus entwickelte der künstlerische Leiter, der ehemalige Domkapellmeister Prof. Leo Krämer, die „Internationalen Musiktage Dom zu Speyer“ mit dem darin eingebetteten „Internationalen Orgelwettbewerb Dom zu Speyer“. Sein Nachfolger Domkapellmeister Markus Melchiori setzt die Musiktage weiterhin jährlich fort und hat auch die künstlerische Leitung inne. Die Stadt verfügt mit dem Musik- und Kulturzentrum Halle 101, Träger ist der Rockmusikerverein Speyer e. V. gegründet 1992, über eine der größten ehrenamtlichen Institutionen im Bereich Rockmusik/Nachwuchsförderung in ganz Deutschland. Mit dem Ehrenamtspreis des Landes Rheinland-Pfalz 2003 ausgezeichnet, ist die Halle 101 der Gegenpol zu den klassischen Touristenadressen in Speyer. Konzerte, von Gruppen wie Saga, Manfred Mann, Nazareth, Sven Väth, Jadakiss, Partys der Schüler und Studentengruppen, aber besonders die Förderung des Musikernachwuchses bestimmen das Programm. Am jeweils zweiten Juliwochenende (Freitag bis Dienstag) findet das traditionsreiche "Speyerer Brezelfest" statt. Das Brezelfest gilt als das größte Volksfest am Oberrhein. Am zweiten Wochenende im August wird auf der ganzen Länge der Maximilianstraße die "Kaisertafel" aufgestellt. Zwei weitere kleinere Volksfeste sind die Frühjahrs- und Herbstmesse. Der zweite festliche Höhepunkt im Jahr ist das "Altstadtfest," das jährlich am zweiten Wochenende im September in den Gassen nördlich des Domes stattfindet. In der Vorweihnachtszeit wird auf dem alten Markt zwischen Dom und Alter Münz ein Weihnachtsmarkt abgehalten. Der Dom ist in dieser Zeit besonders festlich beleuchtet. Das Haus der Badisch-Pfälzischen Fastnacht ist Treffpunkt, Museum und Archiv der Vereinigung Badisch-Pfälzischer Karnevalvereine. Jedes Jahr zu Ostern findet mit dem Satanic Stomp in Speyer das größte Psychobilly-Festival Deutschlands statt. Sport. In Speyer existieren 17 Großspielfelder, davon acht von Vereinen, 14 Kleinspielfelder, davon sieben von Vereinen, 13 Bolzplätze, acht Gymnastikwiesen, davon vier von Vereinen, 24 Tennisplätze, zwei Tennishallen, 14 Bahnen-Kegelanlagen, vier Steganlagen für Boote, zwei Yachthäfen, drei Reitplätze, drei Reithallen, eine Schießsportanlage, eine Trimmanlage, eine Minigolfanlage, eine Skaterpark, eine Minipipe, eine Schwimmhalle und damit verbunden ein Freibad sowie eine Flugsportanlage. Im Jahr 2004 waren in 47 Sportvereinen 13.937 Mitglieder organisiert. Ein Verein ist der Judosportverein Speyer, dessen Judogruppe national und international große Erfolge hat (mehrere Deutsche Meister). Der Leistungssport wird vom ehemaligen ungarische Frauennationaltrainer Ference Nemeth geleitet. Derzeit ist die Männermannschaft und die Damenmannschaft in der 1. Judo-Bundesliga Süd. Im Dezember 2012 wurde das "Judo-Sportzentrum Speyer" (offiziell: Judomaxx) als Landesleistungszentrum am Standort des alten Hallenbades eröffnet. Diese Halle gehört zwar der Stadt, der JSV hat aber einen Dauermietvertrag zur Nutzung der Halle, in der, neben Wettkämpfen, welche zuvor in der Sporthalle Ost ausgetragen wurden, auch der normale Trainingsbetrieb und diverse Freizeitaktionen durchgeführt werden. Das Basketballteam BIS Baskets Speyer spielt in der Pro B. Heimspiele werden in der Nord-Halle Speyer ausgetragen. Seit 2005 spielen die Damen der SG Towers Speyer-Schifferstadt in der 2. Damen-Basketball-Bundesliga. Der bekannteste Fußballverein FV Speyer fusionierte im Jahr 2009 mit dem VfR Speyer zum "FC Speyer 09." Der Schwimmer Thomas Ligl, Mitglied des Wassersportvereins Speyer (WSV), wurde 2004 zweifacher Weltmeister der Masters über 50 m, 100 m und 200 m Brust und wurde wegen weiterer sportlicher Erfolge in den Jahren 1984, 1990, 2001 und 2004 Sportler des Jahres der Stadt. Er hält seit 1987 bis heute den deutschen Rekord in der AK 25 über 100 m Brust auf der 50-m-Bahn. Sein Weltrekord wurde inzwischen unterboten. Beim bundesweiten Städtewettbewerb Mission Olympic, wo „Deutschlands aktivste Stadt“ gesucht wird, konnte 2008 Speyer als erste Siegerstadt ausgezeichnet werden. Wirtschaft. 2009 standen in Speyer 22.758 Personen in sozialversicherungspflichtigen Beschäftigungsverhältnissen (nach 22.050 im Jahr 1999). Industrie. Das produzierende Gewerbe beschäftigte 2009 ca. 20,8 Prozent der sozialversicherungspflichtigen Beschäftigten. Dienstleistungen. Der Bereich Handel, Gastgewerbe und Verkehr beschäftigte 2009 ca. 23 Prozent der sozialversicherungspflichtigen Beschäftigten insgesamt, während weitere ca. 55,8 Prozent der Beschäftigten im Bereich der sonstigen Dienstleistungen beschäftigt waren.. Handel. In Speyer bestanden im Januar 2011 insgesamt 459 Arbeitsstätten des Einzelhandels und des Ladenhandwerks mit einer Verkaufsfläche von 135.970 m² und einem Umsatz von ca. 427,4 Mio. Euro. Größte Einzelbetriebe sind der Kaufhof mit etwa 8180 m² und der C & A-Bekleidungsmarkt mit etwa 2100 m². Die 19 größten Geschäfte erzielten einen Umsatz von 101 Mio. Euro. Der Handel ist in Speyer stark konzentriert auf die Innenstadt als zentralem Versorgungsbereich und dort vor allem auf die Maximilianstraße (Hauptstraße und Fußgängerzone) und unmittelbare Seitenstraßen einerseits und die Auestraße zwischen Speyer-Nord und Speyer-Ost mit vor allem großflächigen Betrieben andererseits. Eine kleinere Konzentration besteht zwischen Speyer-West und der Bahnlinie. Im November 2012 eröffnete die Postgalerie Speyer im Gebäude der ehemaligen Oberpostdirektion am Rand der Fußgängerzone. Tourismus. Stark gewachsen ist in Speyer in den letzten Jahren der Tourismus. Im Jahr 2011 haben 140.675 Gäste in 21 Betrieben übernachtet, die 251.091 Übernachtungen absolvierten. Damit lag die durchschnittliche Aufenthaltsdauer bei 1,78 Tagen. Nach 3019 Führungen im Jahr 2010 vermittelte die Tourist-Information im Jahr 2011 3324 Führungen. Beraten wurden nach 87.292 Gästen im Jahr 2010, 98.175 Gäste im Jahr 2011. 2011 bestiegen 28.337 Besucher das Altpörtel (nach 25.773 in 2010), 24.580 besuchten den Judenhof. Behörden und Einrichtungen. Die Liste der größten Arbeitgeber ab 100 Beschäftigte zeigt Speyer als Stadt der Dienstleistungen. Die größten Arbeitgeber in Speyer sind (Stand 2008): Diakonissen Speyer-Mannheim (in Speyer): 2200, Deutsche Rentenversicherung Rheinland-Pfalz: 2300, Bischöfliches Ordinariat: 1004, Stadtverwaltung: 954, Evangelische Heimstiftung: 930, TE Connectivity: 900, Pfalz-Flugzeugwerke (PFW): 826 (plus 41 Azubis), Postfrachtzentrum: 650, Protestantische Landeskirche: 603 (plus 703 Pfarrer/innen), Filterwerk Mann u. Hummel (in Speyer): 505, Standortverwaltung der Bundeswehr: 485, Thor Chemie: 450, Kreis- und Stadtsparkasse: 426, Volksbank Kur- und Rheinpfalz (insgesamt): 426, Klambt-Verlag (insgesamt): 342, Diakonisches Werk: 309, Vincentius-Krankenhaus: 302, Landwirtschaftliche Sozialversicherung Hessen – Rheinland-Pfalz – Saarland: 300, Saint-Gobain Isover: 280, Finanzamt (in Speyer): 249, Stadtwerke Speyer: 224, Elopak: 220, Marktkauf: 200, Gartner Speditions GmbH: 160, Kissler: 155, Lidl-Zentrallager: 153, Bopp + Reuther: 152, PM-International AG: 150, VON DER HEYDT GmbH: 145, Lindner Hotel & Spa Binshof: 130, Bauhaus: 120, Rechnungshof: 119, Deutsche Universität für Verwaltungswissenschaften: 116, Landwirtschaftliche Untersuchungs- und Forschungsanstalt: 115, Landesbetrieb Mobilität: 104, Pneuhage – Interpneu-Zentrallager Speyer: 100 Gerichte. Zuständig in Zivilsachen sind je nach Streitgegenstand und Streitwert das Amtsgericht Speyer oder das Landgericht Frankenthal. Darüber wölbt sich als Rechtsmittelgericht das Oberlandesgericht Zweibrücken. Diese Gerichte sind je nach Schwere des Delikts auch die zuständigen Strafgerichte. Strafdelikte in Speyer werden von der Staatsanwaltschaft Frankenthal verfolgt. Zuständiges Gericht in öffentlich-rechtlichen Streitigkeiten ist das Verwaltungsgericht Neustadt an der Weinstraße. In arbeitsrechtlichen Streitigkeiten ist der Rechtsweg zum Arbeitsgericht Ludwigshafen eröffnet. In Sozialrechtsfällen ist das Sozialgericht Speyer zuständig. Krankenhäuser. Die Diakonissen Speyer-Mannheim sind Träger des größten regionalen Krankenhauses (kurz: das "Diakonissen") und weiterer Einrichtungen in und um Speyer. 1859 nahmen die ersten Diakonissen in Speyer ihre Tätigkeit als christlichen Dienst auf. Heute sind die Diakonissen ein bedeutender Arbeitgeber für 2500 Menschen in vielen Arbeitsfeldern: Krankenhäuser, Kindergärten und Hort, Jugendhilfemaßnahmen, Behindertenarbeit, Altenheime und Hospiz. Mit dem städtischen Stiftungskrankenhaus hat die "Diakonissenanstalt" überdies eine traditionsreiche Speyerer Einrichtung übernommen. Als zweites Krankenhaus besteht in Speyer das von einem katholischen Orden getragene St. Vincentius. Dies blickt auf eine über 100-jährige Tradition zurück. Die beiden Krankenhäuser ergänzen sich in ihrem Spektrum: so sind zum Beispiel die Gefäßchirurgie, Pädiatrie und Gynäkologie im Diakonissen-Stiftungs-Krankenhaus, im „Vincenz“ die Unfallchirurgie und die Urologie. Feuerwehr. Die Freiwillige Feuerwehr Speyer gehört zum Fachbereich 2 (Sicherheit, Ordnung, Umwelt, Bürgerdienste, Verkehr) der Stadt. Zur Feuerwehr gehören gut 110 ehrenamtliche und einige hauptamtliche Feuerwehrleute, die sich auf zwei Standorte verteilen: die Hauptwache mit der Einsatzzentrale in der Industriestraße und die Wache 2 (Nord) in der Viehtrieftstraße. Die Freiwillige Feuerwehr besteht in Speyer seit 1848, daneben gab es seit dem Mittelalter die „Städtische-Löschanstalt“. 1860 beschloss die Stadt eine neue Feuerlöschordnung und vereinigte beide Organisationen. Schulen. Speyer hat einen größeren Einzugsbereich mit seinen allgemeinbildenden und berufsbildenden Schulen. Drei staatliche Gymnasien (das "Gymnasium am Kaiserdom" (GAK), das "Hans-Purrmann-Gymnasium" (HPG) und das "Friedrich-Magnus-Schwerd-Gymnasium" (FMSG)) und zwei konfessionelle Gymnasien (das "Nikolaus-von-Weis-Gymnasium" und das "Edith-Stein-Gymnasium") mit je einer angegliederten "Realschule plus", die Integrierte Gesamtschule im "Georg- Friedrich-Kolb-Schulzentrum" sowie das Speyer-Kolleg führen zur Hochschulreife. Darüber hinaus gibt es eine Reihe von Berufs-, Berufsfach- und Fachoberschulen. Die Bedeutung Speyers als Schulstadt belegen folgende Zahlen: Im Jahre 2007/08 gab es bundesweit 9,18 Millionen Schüler an allgemein bildenden Schulen, was einem Bevölkerungsanteil von etwa 11,2 % entsprach. In Speyer gingen in diesem Jahr 8.710 Schüler zur Schule; dies entsprach einem Anteil von etwa 17,5 % an der Speyerer Bevölkerung. Interessant ist auch die Verteilung der einzelnen Abschlussarten im Vergleich zum Bundesdurchschnitt. Besonders hervor sticht in Speyer der hohe Anteil der Abschlüsse, die zur Hochschul- bzw. Fachhochschulreife führen, mit 49,5 %. Es gibt in der Region nur eine Stadt, die diesen Wert knapp übertrifft, nämlich Heidelberg mit 49,9 %. Dieser Wert wird in Westdeutschland kein weiteres Mal und in Ostdeutschland nur drei Mal übertroffen. Universität. Speyer ist Sitz einer post-universitären Bildungseinrichtung, der Deutschen Universität für Verwaltungswissenschaften Speyer, der einzigen Ausbildungsstätte ihrer Art für den gesamten höheren Verwaltungsdienst in der Bundesrepublik Deutschland. Rad/Fuß. Radwanderwege bestehen den Rhein entlang, von Bruchsal nach Speyer und von Speyer nach Neustadt an der Weinstraße. Speyer ist ein klassischer Startpunkt für den Pilgerweg "Jakobsweg" nach Santiago de Compostela, dessen Wiederbelebung vom Bistum Speyer stark gefördert wurde. Öffentlicher Personennahverkehr (ÖPNV). Speyer gehört zum Verkehrsverbund Rhein-Neckar (VRN). Seit Einführung der S-Bahn RheinNeckar fahren die Linien S 3/4 ab Speyer Hauptbahnhof und über den Haltepunkt "Speyer-Nord/West" in gemeinsamem Halbstundentakt in Richtung Mannheim Hbf, einem bedeutenden Knotenbahnhof des Fernverkehrs, der in 25 Minuten erreicht wird. In Schifferstadt besteht Anschluss an die Linien S 1/2 nach Neustadt und Kaiserslautern. Zudem stellt die Ende 2006 über Speyer hinaus bis nach Germersheim verlängerte S-Bahn Anschluss nach Karlsruhe und Bruchsal her. Der alle zwei Stunden verkehrende Regionalexpress erreicht Karlsruhe in 40 und Mainz in 60 Minuten. Außerdem halten in Speyer täglich mehrere Regionalbahnen mit den Zielen Ludwigshafen BASF und Wörth (Rhein). Der Stadtbusverkehr Speyer liegt in Händen der BRN Stadtbus GmbH (BRN) und der ViaBus Gruppe. Diese bedienen die Stadtbuslinien 561, 562, 563 und 564 sowie die Shuttlelinie 565 zwischen Hauptbahnhof und Rhein. Diese fünf Buslinien bilden das städtische Busnetz. Die Verkehrsbetriebe Speyer (VBS) sind lediglich für die straßengebundenen Infrastruktureinrichtungen des ÖPNV in Speyer zuständig. Zu diesen zählen Haltestellen, Wartehallen und der Busbahnhof (ZOB) an der Nordseite des Hauptbahnhofes. Mit dem benachbarten Umland, einschließlich der rechten Rheinseite, stellen die Buslinien 572 (Richtung Ludwigshafen und Germersheim), 573 (Richtung Neustadt), 578 (Römerberg) und 717 (Richtung Heidelberg) Verbindungen her. Straßenverkehr. Im Jahr 2011 gab es in Speyer bezogen auf die Einwohnerzahl deutschlandweit die meisten Unfälle im Straßenverkehr. Speyer hat direkten Anschluss an das Bundesstraßen- und Autobahnnetz. Die nördlich gelegenen Städte Ludwigshafen am Rhein und Mannheim und das südlich gelegene Karlsruhe sind über die B 9, die die Bebauung der Stadt westlich begrenzt, in etwa 20 Minuten zu erreichen. Die Bundesautobahn 61, von der deutsch-niederländischen Grenze von Nordwesten kommend, durchquert den nördlichsten Teil der Stadt und führt über den Rhein zur A 6 am Autobahndreieck Hockenheim; Anschlussstellen gibt es im Norden an der B 9 und im Osten an der B 39. Außerdem verläuft die B 39 zum 20 km westlich gelegenen Neustadt an der Weinstraße durch die Stadt. Die B 9 ist vierspurig, beide Bundesstraßen sind kreuzungsfrei ausgebaut und haben auf Speyerer Gemarkung sieben Abfahrten. Wegen des dazwischenliegenden unzerstörten Schwetzinger Waldes ist das gut 30 Straßenkilometer östlich gelegene Heidelberg in etwa 35 Minuten zu erreichen. Der Rhein wird in Speyer von der Salierbrücke, über die die Bundesstraße 39 verläuft, und von der Autobahnbrücke der A 61 gequert. Schifffahrt. Speyer liegt am Rhein und besitzt im Süden einen Hafen für Mineralölprodukte (für das Tanklager und die Spezialraffinerie), die Schiffswerft Braun mit dem südlichen Yachthafen und östlich des Domparks Anlegestellen für Passagierschiffe. Der klassische (alte) Hafen östlich der Altstadt, in dem zuletzt vor allem Getreide, Kies, Baustoffe und Schrott umgeschlagen wurden, wurde geschlossen und in einen Yachthafen umgewandelt. Dort befindet sich auch ein kommerzielles Aquarium der SeaLife-Gruppe, das Fische von den Quellbächen des Rheins bis zur Nordsee zeigt. Im Sommer finden täglich Fahrten mit zwei fest in Speyer stationierten Ausflugsschiffen statt. Im Sommer wird zeitweise, ganz im Süden der Gemarkung eine Personenfähre nach Rheinhausen betrieben. Luftfahrt. Die internationalen Flughäfen Frankfurt und Stuttgart sind in gut einer Stunde zu erreichen. Der Flugplatz Speyer ist als Verkehrslandeplatz klassifiziert und besitzt nach dem Ausbau 2011 die längste Lande- und Startbahn der Region. Nutzer sind vor allem Firmenjets und ein sehr aktiver Flugsportverein. Der Ausbau war aufgrund des Schutzes des nahegelegenen Auwaldes heftig umstritten. Medien. In Speyer erscheint seit 1952 als Tageszeitung die "Speyerer Rundschau" als Lokalausgabe der Zeitung "Die Rheinpfalz" und seit dem 2. Januar 2003 die "Speyerer Morgenpost." Auch die über den Rhein benachbarte "Schwetzinger Zeitung" bringt werktäglich Lokalnachrichten aus Speyer. Von 1952 bis zum 31. Dezember 2002 erschien zudem die "Speyerer Tagespost." Seit 1848 erscheint der Pilger, die Kirchenzeitung des Bistums Speyer, mit Bistums- und Lokalnachrichten. Neben der etablierten Internet-Zeitung "speyer-aktuell" erscheint seit April 2011 der "Speyer-Kurier". Als Chronik der Stadt gibt der Speyerer Verkehrsverein die "Speyerer Vierteljahreshefte" heraus. Persönlichkeiten. Berühmte Persönlichkeiten aus Speyer sind unter anderem der Alchemist Johann Joachim Becher, der Maler Anselm Feuerbach, der General Karl Becker, der Organist Ludwig Doerr, der Bildende Künstler und Hochschullehrer Eberhard Bosslet, der Schriftsteller und Hochschullehrer Thomas Lehr, der Leichtathlet Christian Reif, sowie der Trompeter Helmut Erb und Lars Stindl, ein Fußballspieler von Mönchengladbach. Ehrenbürger. Die Stadt Speyer hat seit 1832 20 Personen das Ehrenbürgerrecht verliehen. Sie würdigt damit jene Personen, die sich in herausragender Weise für die Domstadt engagiert haben. Struwwelpeter. Der Struwwelpeter (Version ab 1858) Struwwelpeter ist der Titel eines Werkes des Frankfurter Arztes und Psychiaters Heinrich Hoffmann aus dem Jahr 1845 und zugleich die Titelfigur des Buches. Das Bilderbuch enthält mehrere Geschichten, in denen Kinder nach (angeblichem) Fehlverhalten drastische Folgen erleiden, die von einem Sturz ins Wasser bis zum Tod reichen. Der "Struwwelpeter" gehört zu den erfolgreichsten deutschen Kinderbüchern und wurde in zahlreiche Sprachen übersetzt. Die vielen Adaptionen werden "Struwwelpet(e)riaden" genannt. Aus den Geschichten des "Struwwelpeters" spricht ein autoritärer Erziehungsstil, gegen den sich seit einiger Zeit auch Kritik richtet. Entstehung. Es war schließlich der befreundete Verleger Zacharias Löwenthal (später Carl-Friedrich Loening), der Hoffmann zur Veröffentlichung bewegen konnte. 1845 erschien das Buch zum ersten Mal im Druck unter dem Titel "Lustige Geschichten und drollige Bilder für Kinder von 3–6 Jahren", aber seit der 4. Auflage (1847) schließlich unter dem Titel "Struwwelpeter". Seit 1858 erschien das Buch mit veränderten Darstellungen. Bei der Erstveröffentlichung hatte Hoffmann noch das Pseudonym "Reimerich Kinderlieb" benutzt. Inhalt. In dem Buch erzählt Hoffmann Geschichten von Kindern, die nicht brav sind, nicht auf ihre Eltern hören und denen deshalb allerlei grausames Unheil widerfährt: So wird der „bitterböse Friederich“, der Tiere quält, entsprechend bestraft („Da biss der Hund ihn in das Bein, recht tief bis in das Blut hinein“); Paulinchen verbrennt, weil sie mit Streichhölzern spielt; die Kinder, die den Mohren verspotten, werden in ein riesiges Tintenfass gestopft und noch viel schwärzer eingefärbt; der Fliegende Robert wird mit seinem Regenschirm vom Wind auf Nimmerwiedersehen fortgetragen, weil er bei Sturm trotz Verbots aus dem Haus geht; dem Konrad werden vom Schneider die Daumen abgeschnitten, weil er heimlich daran nuckelt. Daneben steht aber auch die Geschichte vom Hasen, der den Jäger mit dessen eigener Flinte aufs Korn nimmt. Namen wie "Zappelphilipp", "Suppenkaspar" oder "Hans Guck-in-die-Luft" sind in die deutsche Umgangssprache aufgenommen worden. Textpassagen wie sind heute ebenfalls Gemeingut. Struwwelpeter. Die Titelgeschichte ist die kürzeste, Peter mag Schere und Kamm nicht an sich heranlassen:. Die gar traurige Geschichte mit dem Feuerzeug. Die Eltern der jungen Pauline gehen aus und lassen sie mit den beiden Katzen Minz und Maunz daheim. Als Paulinchen Zündhölzer entdeckt, die ihre Eltern auf dem Tisch liegen gelassen haben, entzündet sie diese. Dabei fängt ihr Haar Feuer, und Paulinchen verbrennt bis auf die Schuhe. Minz und Maunz, die Katzen, fungieren als „Moralapostel“ der Geschichte: Als Paulinchen trotz der Warnungen verbrannt ist, vergießen die Tiere bittere Tränen. Die Zündhölzer aus der Geschichte werden im Titel „Feuerzeug“ genannt, da zu jener Zeit der Begriff noch allgemein für Utensilien zum Feuermachen benutzt wurde, also auch für Streichhölzer. Die Geschichte von den schwarzen Buben. Die Geschichte von den schwarzen Buben Ein "Mohr" wird von drei Knaben verspottet, die daraufhin vom „Nikolas“ (eigentlich Nikolaus) zur Strafe in schwarze Tinte getaucht werden: (Nikolas’ Bild mit Bart veräppelt nebenher den Zaren Nikolaus I. und die damals bekannten Textschwärzungen der russischen Zensur in importierten Büchern.) In der 1859 erschienenen Neuausgabe ersetzte Hoffmann die Arabesken in dieser Geschichte durch Davidsterne, was einen möglichen Hinweis auf eine Forderung nach Toleranz gegenüber Juden darstellen kann. Die Geschichte vom wilden Jäger. Die Geschichte vom Jäger, der vom Hasen überrumpelt wird und in den Brunnen fällt, spielt nicht im kindlichen Milieu. Es ist keine Geschichte über ein unartiges Kind, sondern über eine „verkehrte Welt“, ein sehr beliebtes Motiv im Volksgut. Hier wird die Autorität, der Jäger, anscheinend straflos verhöhnt und sogar besiegt, der Schwächere, der Hase triumphiert. Die Geschichte vom Daumenlutscher. Der Daumenlutscher, ein Junge namens Konrad, lutscht stets an seinem Daumen, obwohl es ihm seine Mutter („Frau Mama“) verboten hat. Sie warnt ihn vor dem Schneider, der ihm seine Daumen abschneiden werde, wenn er nicht mit dem Lutschen aufhöre. Doch Konrad hört nicht auf die Warnung. Schließlich kommt der Schneider und schneidet mit einer übertrieben groß gezeichneten Schere (fast so groß wie der Schneider selbst) beide Daumen ab. Die Geschichte vom Suppen-Kaspar. Der "Suppenkaspar" ist eines der pointiertesten Kapitel des "Struwwelpeters". Es erzählt in wenigen Versen die Geschichte eines Jungen, der sich weigert, seine Suppe zu essen und daher innerhalb weniger Tage verhungert. Zum einen nimmt er bahnbrechend das Thema der bürgerlichen Erziehung auf. Erstmals wird dieses Thema überhaupt von breiten Bevölkerungsschichten wahrgenommen. „Erziehung“ als Charakterbildung des Menschen mit dem innewohnenden Problem des Formens war bis in das 19. Jahrhundert hinein eine Angelegenheit adeliger Schichten. Aber selbst dort war Erziehung in erster Linie Ausbildung, durch professionelle Erzieher zu besorgen, wenn auch auf eine breite Charakterbildung ausgelegt. In bürgerlichen Schichten dagegen war bis in das Biedermeier hinein „Erziehung“ in erster Linie Berufsausbildung. Der erste, der in der deutschen Literatur ein eigenständiges bürgerliches Bildungsideal propagierte, war Goethe mit "Wilhelm Meisters Lehrjahre" (1795/1796); beeinflusst war er dabei von Rousseaus "Émile" (1762) und den Idealen einer naturgemäßen Kindererziehung, während Rousseau jedoch selber seine Kinder im Waisenhaus, also einer Institution außerhalb der Familie, aufwachsen ließ. Mit seinem Suppenkaspar bringt Hoffmann das Erziehungsproblem des selbsterziehenden Bürgerhauses auf eine unterhaltsame literarische Ebene. Das zweite Thema, das pointiert verarbeitet wird, ist die plötzliche Möglichkeit einer Verhaltensweise, die mit dem medizinischen Fachbegriff als Anorexia nervosa bezeichnet wird. Erst bedingt durch die landwirtschaftlichen Revolutionen des 19. Jahrhunderts kann das Thema der freiwilligen Essensverweigerung überhaupt Bedeutung gewinnen. Bis zur Wende vom 18. zum 19. Jahrhundert traten Hunger und Hungersnöte regelmäßig auf. Die Verweigerung der Nahrungsaufnahme konnte in diesem Umfeld vielleicht eine absurde Idee sein, niemals jedoch eine reale psychische Verirrung. Der Suppenkaspar ist wahrscheinlich der Literatur erster Anorektiker – und der Freudsche Hintergrund als Erziehungsproblem wird sogleich mitdiskutiert. Hoffmann, der selbst als leitender Arzt der Frankfurter Anstalt für Irre und Epileptische im Feld der Jugendpsychiatrie arbeitete, hat hier möglicherweise Krankheitsfälle aus der eigenen Praxis verarbeitet. Es gilt heute als wahrscheinlich, dass die Geschichte vom Suppenkaspar einen realen Hintergrund besitzt: Am Jakobifriedhof in Leoben befand sich bis zur teilweisen Einebnung des Friedhofs beim Ausbau der B 116 im Jahr 1984 das Grab eines im Jahre 1834 verstorbenen neunjährigen Jungen. Das Grab war mit "Suppenkaspar" beschrieben. Als Todesursache findet sich in den Kirchenbüchern der Eintrag: „Verweigert Nahrungsaufnahme“. Ob Hoffmann jemals selbst auf seinen Reisen das Grab gesehen hat, ist nicht überliefert. Die Geschichte vom Zappel-Philipp. Der Zappelphilipp. Zeichnung von Heinrich Hoffmann 1844 In der Geschichte geht es um den Jungen Philipp, der am Tisch nicht still sitzen kann und mit dem Stuhl schaukelt und daraufhin mitsamt der Tischdecke und der Mahlzeit auf die Erde fällt – „und die Mutter blicket stumm auf dem ganzen Tisch herum“. In neuerer Zeit wurde die Geschichte teilweise als Beschreibung eines Kindes mit Hyperaktivität empfunden (siehe unten). Die Geschichte vom Hanns Guck-in-die-Luft . In der Geschichte ist Hanns Guck-in-die-Luft ein Junge auf dem Weg zur Schule, der mit seinen Gedanken woanders ist (dargestellt dadurch, dass er den Blick zum Himmel gerichtet hat) und deshalb erst einen Hund über den Haufen rennt, anschließend zur Erheiterung der Fische samt Schulmappe ins Wasser fällt. In neuerer Zeit zogen manche Psychologen Parallelen zur Aufmerksamkeitsdefizit- und Hyperaktivitätsstörung (ADHS). Die Geschichte vom fliegenden Robert. Der Fliegende Robert hält es bei wildem Wetter nicht in der Stube aus, und der Sturm trägt ihn davon. Im gewissen Sinne bündelt diese letzte Geschichte poetisch und sachlich die Eigenart des ganzen Buches: (1) Der kindnahe Blick des Autors, der gerne wie sie das besondere Schicksal der Sachen zeichnerisch und textlich im Auge behält (so auch die Mappe des Hanns Guck-in-die-Luft), nimmt den pädagogischen Lehren das Aufdringliche und reizt die Phantasie. Hier ist es das Sonderschicksal des Hutes und der Luftball-Effekt des Schirmes. (2) Seine Erziehungsprobleme müssen nicht die heutigen sein, ihre Lösungen auch nicht – sie sind aber immer realistisch: Vor der Industrialisierung war ‚die Natur‘ für Kinder sehr viel feindseliger; und dass Kinder aus Leichtsinn Gefährliches begehen, weil sie es nicht überschauen, hat sich nicht geändert. Vorspruch. Der Vorspruch ist in der Regel auf der Rückseite des Buches zu finden. Überlieferung. Das Urmanuskript des Buches „lustige Geschichten und drollige Bilder“, welches den "Struwwelpeter" enthält, ist im Germanischen Nationalmuseum ausgestellt. Die Universitätsbibliothek Frankfurt besitzt eine große Sammlung zum Struwwelpeter und von Struwwelpeteriaden, u. a. die deutschen Ausgaben des Struwwelpeter-Buches von der 1. Ausgabe 1845 bis heute. Bezug zu psychiatrischen Krankheitsbildern. In neuerer Zeit wurde der "Struwwelpeter" von der klinischen Psychologie und der Jugendpsychiatrie entdeckt. Die Beschreibungen des Zappelphilipps und zum Teil auch des Hanns Guck-in-die-Luft werden als volkstümliche Beschreibungen bzw. Symbole für Spielarten der Aufmerksamkeitsstörungen (ADHS) herangezogen. Dabei zeige der "Zappelphillipp" eine Aufmerksamkeitsstörung mit Hyperaktivität („Zappeln“), weshalb diese psychische Störung im deutschsprachigen Raum zum Teil als "Zappelphilipp-Syndrom" bekannt geworden ist. Hanns-Guck-in-die-Luft hingegen wird zum Teil als verträumter Gegentyp gelesen, manchmal auch als "Träumerle" beschrieben, und vertrete demnach eine Aufmerksamkeitsstörung ohne Hyperaktivität, aber mit deutlich reduzierter Aufmerksamkeit. Demgegenüber kann der bitterböse Friederich als Beispiel für eine Störung des Sozialverhaltens gesehen werden. Kritik. Die kritische Auseinandersetzung erfolgte unter anderem in literarischen Bearbeitungen, zum Beispiel im 1914 erschienenen "Der Struwwelpeter von heute. Ein Bilderbuch für die Großen" von Fried Stern. Laut Karl Ernst Maier kann der "Struwwelpeter" heute nicht mehr „mit der gleichen Selbstverständlichkeit als Haus- und Erziehungsbuch“ akzeptiert werden, wie das in früheren Generationen geschehen sei. Kritische Einwände richteten sich nicht gegen den Erziehungsanspruch als solchen, sondern gegen die negativen Verhaltensmodelle, die vorgeführt werden, die „repressive Strafpädagogik“ sowie die „autoritär-dogmatische Unbedingtheit“ mit der die ethische Erziehung verfolgt werde. Der Kinderbuchautor Gerald Jatzek vertritt die These, dass Hoffmann bei dem „Versuch, sich selbst zu heilen, andere verwundete“. Übersetzungen und Umdichtungen. Schon bald nach seinem Erscheinen wurde "Struwwelpeter" in viele Sprachen übersetzt, auch Parodien und ausschmückende oder politisierende Umdichtungen erschienen früh und zahlreich. Die Thematik polarisierte von Anfang an das Lesepublikum und reizte geradezu zu einer kritischen Auseinandersetzung: 1848 kürten die "Fliegenden Blätter" den unangepassten Langhaarigen zum Revolutionär. Bis heute sind von dem Buch mehr als 540 Auflagen erschienen, es wurde verfilmt (Der Struwwelpeter, BRD 1955), vertont, in sehr viele Sprachen übersetzt und erschien auch in Blindenschrift. Der Text "Die gar traurige Geschichte mit dem Feuerzeug" wurde von der deutschen Rock-Band Rammstein im Song "Hilf Mir" auf dem Album "Rosenrot" zu großen Teilen übernommen mit Sänger Till Lindemann als Ich-Erzähler. Des Weiteren wurde "Die Geschichte vom Daumenlutscher" von der Berliner Rock-Band Knorkator sowohl in Text als auch in zeichnerischer Form im Song "Konrad" auf dem Album "We Want Mohr" und im dazugehörigen Video adaptiert. Die klassische englische Übersetzung stammt von Mark Twain unter dem Titel "Slovenly Peter". Der politische Struwwelpeter. Illustration aus "Der Politische Struwwelpeter". Unter dem Eindruck der 49 veröffentlichte der Düsseldorfer Maler Henry Ritter 1849 das Werk "Der politische Struwwelpeter. Ein Versuch zu Deutschlands Einigung; dem deutschen Michel gewidmet". Nach dem Schema des Original-Struwwelpeters hatte er Bilder und Verse zu politischen Kunstfiguren geschaffen, die aus seiner Sicht der Einigung Deutschlands entgegenstanden. Die Struwwelsuse. Nach dem Vorbild des Struwwelpeters veröffentlichten 1850 der Erfurter Lehrer Mühlfeld mit Zeichnungen von Heinrich Kruspe „"Die Struwwelsuse, oder Lustige Geschichten und drollige Bilder für Kinder von 3–7 Jahren"“ (Verlag Friedrich Bartholomäus, Erfurt 1850, 20 Seiten). Es beginnt mit den Versen: "„Kommt ihr Leute alle her, sehet diesen Zottelbär, kommt ihr Spatzen, säumet nicht, hackt den Schmutz aus dem Gesicht, Johann, hol den Pferdekamm, streich die Haare glatt und stramm, Liese, bring den Scheuerwisch, scheuere Händ und Füße frisch, kämmt und scheuert, hackt und reibt, bis kein Fleck an Susen bleibt...“" Militär-Struwwelpeter. Die Geschichten 9 bis 14 gehen über den Rahmen der Originalvorlage hinaus und stellen damals typische Probleme im militärischen Alltag dar. Sie bieten dadurch dem Heereskundler interessante Einblicke in das damalige Leben und die damaligen Wertvorstellungen. Die Art des Sprachwitzes und die Verstümmelung von Wortendungen, um Reime zu bekommen, erinnern dabei stark an Wilhelm Busch. Kurzer gynaekologischer Struwelpeter. Seite aus dem "Kurzen gynaekologischen Struwelpeter". Eine frivol-makabre Struwwelpeter-Parodie von Carl Heinrich Stratz, erstmals zum Leipziger Klinischen Vogelschießen am 29. Juli 1882 veröffentlicht; gedruckt beim Verlag Bangel & Schmitt, Heidelberg, 1885. Darin stellt der Verfasser auf medizinisch-derbe Art mögliche Gründe für Missbildungen, Totgeburten oder Tod kurz nach der Geburt in Wort und Bild dar. - Der „Struwelpeter für artige Embryonen und solche die es werden wollen“, vom Verfasser des „verhängnisvollen Embryo“, beginnt mit der Strophe: „Wenn die Foeten artig sind, | Werden sie ein reifes Kind; | Nur in erster Schädellage | Treten sie alsdann zu Tage.“ Struwelliese. "Struwelliese" (so die Schreibweise auf der Titelseite) erschien etwa 1890 von Julius Lütje mit Zeichnungen von Franz Maddalena auf dem Markt. Es ist eine der ersten Nachahmungen des "Struwwelpeter" und sollte ein Pendant zum "Struwwelpeter" für Mädchen sein; deshalb geht es hier auch um angeblich „typisch weibliche“ Charakterfehler wie Neugier oder Naschen. „Struwwelliese“ (so im Buch geschrieben) ist ein wildes Mädchen, das aber durch zu wildes Herumtollen „gerettet“ wird; daraus kann man sehen, dass hier der Wunsch eher Vater des Gedankens des Autors war und nicht, wie bei Hoffmann, die Beobachtung von Kindern. Während der Ur-"Struwwelpeter" in Zeiten aufkommender bürgerlicher Emanzipation entstand, ist die "Struwweliese" ein Produkt der Wilhelminischen Ära. Wie im "Struwwelpeter" warnt auch Lütje vor alltäglichen Gefahren der Zeit, wie Zündeln und Ärgern von Hunden. Auch hier gibt es mehrere unabhängige Protagonisten wie „Zündel-Gretchen“, die neugierige „Klara“, „Naschlotte“ und „Lottchen“, die den Hund „Hektor“ ärgert. Die Struwwelliese. "Die Struwwelliese" (Erstauflage 1950) ist eine Art Imitation der Bildergeschichten des 19. Jahrhunderts. Die Geschichte ist ebenso in Verse gefasst, aber Schrift und Bilder sind in modernem Stil gehalten; bei der Schrift handelt es sich um eine serifenlose Schrift, und die Zeichnungen entsprechen zeitgenössischen Comic-Zeichnungen. Auch inhaltlich ist die Geschichte modern, indem vor Gefahren wie Elektrizität oder dem Autoverkehr gewarnt wird. Das gesamte Buch erzählt im Gegensatz zum "Struwwelpeter" nur eine einzige Kurzgeschichte von der Struwwelliese, die ebenso nach etlichen Streichen durch einen Unfall krank liegt und dadurch zu einem braven, ordentlichen Mädchen bekehrt wird. Das Buch wurde bebildert von Charly Greifoner und die Texte wurden verfasst von Cilly Schmitt-Teichmann, es erschien im Kölner Schwager&Steinlein Verlag. Die 1950 im Pestalozzi Verlag erschienene Erstausgabe wurde in weiteren Auflagen um mehrere Abschnitte gekürzt oder überarbeitet. Bei den seit 1955 unverändert gebliebenen Auflagen fehlen gegenüber der Erstausgabe von 1950 vier komplette Seiten und zwei Seiten sind abgeändert. Der Ägyptische Struwwelpeter. Eine weitere Parodie ist "Der Ägyptische Struwwelpeter", der 1895 anonym erschien. Dieses im alten Ägypten angesiedelte Werk wurde von drei Wiener Geschwistern verfasst: Fritz, Richard und Magdalene Netolitzky, der Mutter von Elfriede Kuzmany (Illustrationen). Die Schriftstellerin Marie von Ebner-Eschenbach war von der Vorlage so begeistert, dass sie das Buch ohne Erlaubnis des Frankfurter Struwwelpeter-Verlages zum Druck gab. Nach Einsprüchen wegen Plagiats wurde die gesamte Auflage mit Ausnahme der Freiexemplare eingezogen. Inzwischen wird "Der Ägyptische Struwwelpeter" offiziell vom Frankfurter Struwwelpeter-Museum herausgegeben. Der Struwwelpeter von heute. 1914 erschien "Der Struwwelpeter von heute. Ein Bilderbuch für die Großen" von Fried Stern, der sich humorvoll kritisch mit dem originalen Struwwelpeter auseinandersetzte. „An den Struwwelpeter und seinen Verfasser. | […] Nur dacht’ ich, was vor siebzig Jahren | Du an den Kindern hast erfahren, | dürft’ für’s Gedeihen uns’rer Kleinen | Nicht mehr in allem gut erscheinen.“ „Struwwelhitler“. Die englische Parodie "Struwwelhitler – A Nazi Story Book by Doktor Schrecklichkeit" von Robert und Philip Spence aus dem Jahr 1941 wurde aus Anlass des 60. Jahrestages des Zusammenbruchs des Hitler-Regimes 2005 neu veröffentlicht. Das Buch enthält die ursprünglichen englischen Texte und die deutschen Übersetzungen. "Struwwelhitler" erschien während des Zweiten Weltkrieges im Verlag der illustrierten englischen Zeitung "Daily Sketch" und war ein Beitrag zum "Daily Sketch War Relief Fund", der die britischen Truppen und die Opfer des deutschen Luftkriegs unterstützte. Die beiden Autoren – zu ihrer Zeit namhafte Illustratoren und bei der Entstehung der Parodie bereits 68 und 70 Jahre alt – dichteten die allseits bekannten Struwwelpeter-Geschichten auf Nazideutschland gemünzt um: So wird aus Paulinchen mit dem Feuerzeug "The dreadful Story of Gretchen and the Gun", Mussolini tritt an die Stelle von Hans-Guck-in-die-Luft ("Little Musso Head-in-the-Air"); Hitler selber übernimmt den Part des Zappelphilipp ("Fidgety Adolf") und bekommt zu hören: “Uncle Sam said: Boy! Behave! Aunt Britannia looked grave.” An die Stelle des Nikolas tritt Josef Stalin, der die "Nazi-Buben" rot (statt wie im Original schwarz) einfärbt. Bereits zu Beginn des Ersten Weltkrieges war 1914 eine antideutsche Struwwelpeter-Parodie erschienen: Kaiser Wilhelm II. trat darin an die Stelle des „bösen Friederich“ und tötet als „Swollen-Headed-William“ unschuldige Friedenstauben. Strubbelpeter & Schnatterliese. Ab 1966 erschien im Kauka Verlag die Kinderzeitschrift "Bussi Bär". Einer der Fixpunkte in diesem Heft waren die regelmäßigen in Reimen gefassten Geschichten der beiden rothaarigen Kinder Strubbelpeter und Schnatterliese. Die Geschichten beginnen immer mit den Worten: „Strubbelpeter, Schnatterliese, die Geschichte, die ist diese: …“ Der Struwwelpeter neu frisiert. Der Ulbericht, der Ulbericht, Er schlug in seiner blinden Wut Er peitschte selbst Freund Svoboda! Der Anti-Struwwelpeter. 1970 erschien das antiautoritäre Gegenstück des "Struwwelpeter" im Frankfurter Verlag Joseph Melzer, der "Antistruwwelpeter" von F.K. Waechter, der gesellschaftliche Tabus und repressive Erziehungsmaßnahmen anprangert. Peter Struwwel. Frei nach Heinrich Hoffmann. Mit dem Text von Petrina Stein und den Bildern von Claude Lapointe wird den Kindern diesmal der Mut zum Protest gestärkt. Verlag Sauerländer, Aarau und Frankfurt am Main, 1972. „So ein Struwwelpeter“. Auch in der DDR gab es einen Struwwelpeter (erschienen 1970 im Kinderbuchverlag Berlin), welcher auch modernere Themen beinhaltete, so etwa Fernsehkonsum („Die Geschichte vom Fernsehverrückten Frank“). Im Vergleich zum Original bewegen sich die Geschichten dabei in einem etwas gemäßigteren Rahmen. So werden die Daumen wegen übermäßigen Daumenlutschens nicht abgeschnitten, sondern rennen einfach weg – und die (nun ehemalige) Daumenlutscherin Sybille hat das Nachsehen. Die Texte des Buches stammen vom Satiriker Hansgeorg Stengel, die Bilder malte der Karikaturist Karl Schrader. Die Geschichten des Buches wurden auf einer Langspielplatte teils vorgelesen, teils als Lieder gesungen. Shockheaded Peter. Eine grotesk-makabre Umsetzung des "Struwwelpeter" auf die Bühne mit viel schwarzem Humor leisteten die Engländer Phelim McDermott und Julian Crouch mit ihrer „Junkopera“ "Shockheaded Peter". Die Musik stammt von Martyn Jacques von der Londoner Kultband The Tiger Lillies. Das Stück wurde 1998 uraufgeführt. In der ins Deutsche rückübersetzten Fassung von Andreas Marber wird es seitdem auf zahlreichen Bühnen in Deutschland und Österreich gespielt. Der Neue Struwwelpeter. Im September 2005 erschien im Rahmen des Comicfestes München ein Ausstellungskatalog zum 160-jährigen Jubiläum des "Struwwelpeter". Neben allen Varianten des Buches wurden in der Ausstellung die Originale der neuen Illustrationen präsentiert. Zehn Illustratoren und Künstler aus ganz Deutschland schufen zum Originaltext neue grafische Interpretationen. Die Ausgabe des „Neuen“ Struwwelpeter ist in einer limitierten Auflage als Ausstellungskatalog gedruckt worden und nur bei der Festival-Leitung zu bekommen. Der Mundart-Struwwelpeter in 25 deutschen Mundarten. Hoffmann, Heinrich: "Der Mundart-Struwwelpeter: lustige Geschichten und drollige Bilder, Originalfassung und Übertragungen in 25 deutsche Mundarten", hrsg. von Walter Sauer, Heidelberg 1996. Die Struwwelpaula - Struwwelige Geschichten und haarige Bilder. Das 1994 erschienene Buch enthält Cartoons und Geschichten von Renate Alf, Barbara Henniger, HOGLI, Ute Krause, Cleo-Petra Kurze und Marie Marcks. Der mittelhochdeutsche „Strûbel-Pêter“. Der Germanist Helmut Birkhan veröffentlichte 2008 seine Übersetzung des Buches in die mittelhochdeutsche Sprache. Vertonungen. 1949 schrieb Kurt Hessenberg die "Struwwelpeter-Kantate" für ein- bis dreistimmigen Kinderchor, zwei Flöten, Klavier, Schlagzeug ad libitum und Streichorchester. 1953 schuf Cesar Bresgen eine Szenische Kantate "Der Struwwelpeter" für zweistimmigen Kinderchor, Blockflöten, Schlaginstrumente und Klavier. 1968 komponierte Siegfried Köhler unter dem Originaltitel "Der Struwwelpeter" op. 31 acht Lieder nach den Texten von Hoffmann. 1977 erschienen diese Lieder auf Schallplatte. 1979 veröffentlichte der Verlag Edition Peters, Leipzig die Sammlung in einer erweiterten Ausgabe. 2007 vertonte Martin Bärenz den "Struwwelpeter" als Kinderstück mit Sprecher und Orchester, der in Ludwigshafen im BASF-Feierabendhaus uraufgeführt wurde. Die Texte waren durch Michael Quast teilweise leicht im Sinne des Anti-Struwwelpeters umadaptiert und modernisiert, teilweise originalgetreu beibehalten. Moderne Comic-Adaptionen. 2009 veröffentlichte der Verlag Tokyopop anlässlich des 200. Geburtstags Heinrich Hoffmanns eine Comic-Adaption des Struwwelpeters. Der Comicautor David Füleki lässt Struwwelpeter von einer Weltreise zurückkehren und feststellen, dass es keine ungezogenen Kinder mehr gibt, da die Regierung Unfug verbietet und jede Art von Aufsässigkeit im Keim erstickt. Gemeinsam mit seinen Störenfried-Kollegen beschließt Struwwelpeter, gegen die Regierung vorzugehen. Daneben veröffentlichte David Füleki 2009 "Struwwelpeter: Das große Buch der Störenfriede" (ebenfalls bei Tokyopop) – eine in modernem Comicstil bebilderte Version des Urwerks von Hoffmann. Das Buch wird in "Struwwelpeter: Die Rückkehr" aufgegriffen. Die ebenfalls 2009 im Kein & Aber-Verlag erschienene Adaption von ATAK (Bilder) und Fil (Verse) legt dagegen Wert darauf, „keine Parodie, kein antiautoritärer Hippie-Struwwelschnack“ zu sein, sondern „eine in Wort und Bild vom Geist des Originals durchdrungene Coverversion“. Die gereimten Texte von Wilfried von Bredow und die Illustrationen von Anke Kuhl in dem Bilderbuch "Lola rast und andere schreckliche Geschichten" lehnen sich formal an die Hoffmannsche Vorlage an, thematisieren aber „zeitgemäße Unsitten“ von Kindern (Unachtsamkeit im Straßenverkehr, übermäßiger Fernsehkonsum, Chaos im Kinderzimmer). Wie bei Hoffmann enden die sieben Bildergeschichten „schrecklich“, drastisch und skurril. Der Cyber-Peter. 2013 erschien "Der Cyber-Peter - und andere Geschichten aus der modernen Welt nicht nur für Kinder" von Klaus Günterberg. Aus dem "Hanns-Guck-in-die-Luft" wird hier ein "Hanns-Guck-auf-den-Bildschirm". Family Guy. In der achten Staffel der US-amerikanischen Zeichentrickserie "Family Guy" (Folge: "Business Guy") wurde die Geschichte vom Daumenlutscher in Form einer für die Serie typischen Zwischensequenz parodiert. Struwwelpeter-Park Tabarz. Von 1884 bis 1894 verlebte Heinrich Hoffmann seine Sommerfrische in Tabarz im Thüringer Wald. Aus diesem Anlass wurde in Tabarz 1994 ein Struwwelpeter-Park mit den geschnitzten Hoffmannschen Figuren errichtet. Siehe auch. In der Kinderzeitschrift Bussi Bär findet man regelmäßig ein Gedicht über "Strubbelpeter und Schnatterliese" Scharfrichter. Der Scharfrichter (der "mit der Schärfe des Schwertes Richtende"), ein besonderer Beruf, vollstreckt seit dem Mittelalter die Todesstrafe; früher war auch der Begriff "Carnifex" gebräuchlich, heute wird synonym dazu die Bezeichnung Henker verwendet (ursprünglich der Vollstrecker einer Hinrichtung durch „Henken“). Entstehung des Scharfrichteramtes. a> von Seeräubern in Hamburg, 1573 a>“ bietet einem Verurteilten eine Prise Schnupftabak an. 19. Jh. a> eines Scharfrichters, Deutschland, 17. Jahrhundert Bereits im Römischen Reich gab es Personen, die im Namen der Gerichte dem Scharfrichter vergleichbare Tätigkeiten ausführten, wie Folter und die Vollstreckung der Todesstrafe. Wahrscheinlich waren zunächst Soldaten mit dieser Tätigkeit betraut, doch es dürfte bereits eine gewisse Spezialisierung vorgelegen haben, wie antike Beschreibungen vom Amt des „Carnifex“ erkennen lassen. In den alten europäischen Volksrechten (sächsisches Recht "Sachsenspiegel", "Lex Salica" u. a.) wurde die Hinrichtung durch einen der Richter, oft den jüngsten, oder den Ankläger vollzogen. Auch ein "Fronbote" oder "Amtmann" (auch "Büttel") wird als Hinrichter genannt, dieser erhält allerdings für den Akt der Hinrichtung kein Geld. Das Scharfrichteramt bildete sich im Zusammenhang mit der „Professionalisierung“ des gesamten Strafvollzugs im Verlauf des 13. Jahrhunderts aus. Man versuchte die Rechtsprechung in die Hand des Staates zu bringen (Gewaltmonopol auf seiten des Staates), um damit u. a. Fehden und generell Gewalttaten zu unterbinden. Bis dahin wurde hauptsächlich der Akkusationsprozess angewandt, das heißt, vor Gericht standen sich Kläger und Angeklagte gleichberechtigt gegenüber. Ab 1250 sollte sich das jedoch mit dem Wunsch, die Gewaltverbrechen durch harte Strafen und Verfolgung zu verhindern, ändern. Der Inquisitionsprozess verdrängte aufgrund seiner Effizienz mehr und mehr den Akkusationsprozess. Es oblag nun dem juristisch geschulten und beamteten Richter und den Gerichtsdienern, den Tatbestand herauszufinden. Das Ziel war es normalerweise, das Geständnis des Angeklagten zu hören. Demzufolge fand auch die Folter vermehrt ihre Anwendung und parallel dazu bildete sich (ähnlich dem „professionellen“ Richter) das Amt der Scharfrichter als Folge der immer mehr aufkommenden Differenzierung im Strafprozess heraus. Aus dieser Zeit stammt auch das Synonym "Nachrichter", welches den Aspekt der "nach"richterlichen Urteilsvollstreckung in den Vordergrund stellt. Der erste Scharfrichter wurde 1276 im Augsburger Stadtrecht erwähnt. Anfangs wurde im Scharfrichteramt personell häufig gewechselt. Außerdem erhielt selten eine Familie mehrere Male hintereinander eine Anstellung, was sich später drastisch änderte. Eine Tendenz zur Herkunft aus den unteren Schichten kann man bei den ersten Scharfrichtern nicht abstreiten. Als Gründe für die zunächst recht häufigen Personalwechsel kann man sowohl eine Veranlagung der ersten Scharfrichter zu kriminellen Handlungen, als auch eine mögliche „soziale Mobilität“ sehen, wobei nicht geklärt werden kann, ob es sich dabei nur um Orts- oder auch Berufswechsel (und damit eventuell verbundenem sozialen Aufstieg) gehandelt hat. Heiraten fanden vorrangig innerhalb der Scharfrichter- und auch Abdeckerfamilien statt. Das war mit vielen Vorteilen verbunden, wie zum Beispiel soziale und finanzielle Absicherung im Alter und der Nachkommen, und es bildeten sich regelrechte „Scharfrichterdynastien“ heraus, die durchaus auch finanziell mit rechtlich höher gestellten Menschen zu der damaligen Zeit konkurrieren konnten. Ihren Lohn erhielten die Scharfrichter nach getaner Arbeit immer von den Familien des Bestraften oder Hingerichteten; das war rechtlich festgelegt. So war um 1700 eine Enthauptung in Aachen bereits für 15 Taler zu erhalten, eine Verbrennung auf dem Scheiterhaufen kostete immerhin 25 Taler. Doch Scharfrichter waren nicht immer männlichen Geschlechts. So gibt es etwa stichhaltige Anhaltspunkte dafür, dass auch Frauen vom späten Mittelalter an bis ins 19. Jahrhundert vereinzelt als Scharfrichterinnen oder Henkerinnen agierten. Während der Französischen Revolution und danach, etwa bei der öffentlichen Hinrichtung von Frauenmördern in Frankreich, haben sie mitunter mit der Guillotine exekutiert. In Deutschland soll Mitte des 17. Jahrhunderts die Frau eines Henkers ihren Mann kurzfristig vertreten und zwei Diebe am Galgen hingerichtet haben. Ausbildung. Die Ausbildung der Scharfrichter erfolgte in der Regel anfänglich durch den Vater oder Stiefvater und konnte bei einem anderen Meister fortgesetzt werden. Zu den Fähigkeiten, die ein Scharfrichter besitzen musste, gehörte das erfolgreiche Entlocken eines Geständnisses des Angeklagten durch regelkonform angewandte Folter. Der Scharfrichter musste ebenso über medizinische Kenntnisse verfügen, um beurteilen zu können, welche Torturen der Delinquent aushält, ohne daran zu sterben. Ebenso mussten Hinrichtungen gemäß den Anweisungen des Gerichts und fehlerfrei vollstreckt werden. Eine misslungene Hinrichtung zog in einigen Fällen den „Volkszorn“ auf die Scharfrichter und es konnte sogar soweit kommen, dass sie von der aufgebrachten Zuschauermenge gelyncht wurden. Die medizinischen Kenntnisse nutzten sie außerdem noch für andere Tätigkeiten. So praktizierten die Scharfrichter oft erfolgreich neben ihrem eigentlichen Beruf als Heiler und sicherten so ihre Existenz zusätzlich ab. Auch ist belegt, dass die Scharfrichter, ähnlich wie „normale“ Handwerker auch, während ihrer Ausbildungszeit auf Wanderschaft gingen. Als Abschluss der Ausbildung musste jeder Scharfrichter eine „Meisterprobe“ durchführen. Das geschah nicht ohne amtliche Genehmigung. Dabei musste einem Verurteilten unter der Aufsicht des ausbildenden Meisters der Kopf nach allen Regeln der Kunst abgeschlagen werden. War dies erfolgreich, so erhielt der auszubildende Scharfrichter einen Meisterbrief, mit dem er sich für freie Scharfrichterämter bewerben konnte. Ohne einen solchen Brief hatte er keine Chancen auf eine Anstellung. Aufgaben. Zu den direkten Aufgaben des Scharfrichters gehörte die eigentliche Hinrichtung und die Folter zur Geständniserzwingung als Teil des Gerichtsverfahrens. Auch für die Durchführung von Körper- und Ehrenstrafen war er zuständig. Daneben musste er auch oft weitere unangenehme und geächtete Aufgaben übernehmen − z. B. die Kloakenreinigung, das Abschneiden und das Bestatten von Selbstmördern oder die Aufsicht über die Prostituierten. Oft wurde das Amt des Henkers aus praktischen Gründen mit dem des Abdeckers (andere Bezeichnungen sind "Schinder", "Racker" oder "Wasenmeister") zusammengelegt: Die Tierkörperverwertung sorgte für das finanzielle Auskommen des Scharfrichters und die Abdecker-Gehilfen konnten bei einer Hinrichtung assistieren ("Henkersknechte"). Scharfrichter überließen das Foltern, das Henken und (seit der Französischen Revolution) die Tötung durch die Guillotine oft auch ihren Gehilfen und übernahmen nur die Aufsicht. Die Enthauptung mit dem Schwert oder dem Henkersbeil (Handbeil) wurde jedoch vom Scharfrichter selbst durchgeführt, da hierfür Geschick notwendig war: Der Kopf sollte nach Möglichkeit mit nur einem Schlag vom Rumpf getrennt werden. Durch ihre Tätigkeit konnten sich Scharfrichter solides Wissen auf dem Gebiet der Anatomie aneignen. So mancher kannte sich mit dem menschlichen Knochenbau und der Anordnung der inneren Organe besser aus als der ortsansässige Bader. Es gibt Beispiele, in denen sich Scharfrichter etwas als Rossärzte und Chirurgen hinzuverdienten. Da Scharfrichter die Produkte ihrer Abdeckereien selbst verwerten durften, verfügten sie unter anderem über Hundefett, welches zur Salbung entzündeter Gelenke bei Pferd und Mensch zum Einsatz kam. Die Herstellung und der Verkauf von heilmagischen Substanzen, die aus den Körpern von Hingerichteten gewonnen wurden, sicherte Scharfrichtern ein zusätzliches Einkommen. Dies waren beispielsweise die Herstellung von „Armsünderfett“ (Menschenfett) oder von Totenhänden. Dies brachte ihnen jedoch häufig Ärger und Streit mit den studierten Ärzten ein, die das Monopol der Medizin für sich beanspruchten und oftmals versuchten, die Bürger von der Laienhaftigkeit des Scharfrichters zu überzeugen. Jedoch konnten sich die medizinischen Eliten nicht gegen jede Art der Heilpraxis von Scharfrichtern durchsetzen. So wurde ihnen offiziell die Heilung von „äußeren Wunden“ gestattet. Jedoch erreichten die Ärzte in einigen Reichsstädten, dass den Scharfrichtern die Ausübung der inneren Medizin versagt blieb. Trotz dieses Verbotes und angesichts der Tatsache, dass die Bürger bezüglich der Heilung ihrer Beschwerden mit dem Scharfrichter bessere Erfahrung als mit den örtlichen Ärzten gemacht hatten, ließen sich Scharfrichter nicht davon abhalten, auch die innere Medizin zu praktizieren. Gesellschaftliche Stellung. Den Söhnen von Scharfrichtern stand praktisch kein anderer Berufsweg offen. Ihre Töchter konnten nur in diesen Kreisen heiraten und halb verrufenen Tätigkeiten (Wahrsagen, Liebes- und Schadenzauber, magischen oder Naturheilverfahren) nachgehen. So bildeten sich Scharfrichterdynastien, die aufgrund des geschlossenen Heiratskreises vielfältige verwandtschaftliche Verflechtungen aufweisen. Eine der bekanntesten unter ihnen war die der Sansons, die über sechs Generationen (1688–1847) die Scharfrichter von Paris und einigen anderen französischen Städten (Tours, Auxerre, Melun, Versailles, Reims) stellten. Soziologisch gesehen wurden sie zu einer "Kaste", jedoch nicht in einer Kasten-, sondern in einer Ständegesellschaft. Es war bereits sehr schwer für sie, bei der christlichen Taufe Paten zu gewinnen. Dieser „unehrliche“ Beruf hatte allerdings auch weitere Tabus zu befolgen – so war Scharfrichtern beispielsweise ein gesonderter Platz in der Kirche oder auch im Wirtshaus vorgeschrieben. Ebenso war ihnen die Jagd untersagt, ausgenommen die auf Wölfe. Als im 17. und 18. Jahrhundert im Zuge der Humanisierung des Strafvollzugs immer weniger Scharfrichter benötigt wurden, wichen viele Angehörige der ehemaligen Scharfrichterdynastien auf verwandte Berufszweige wie Bader, Wundarzt, Tierarzt oder Zahnreißer aus. Dies erklärt den ursprünglich großen sozialen Abstand der (hoch geachteten) "Ärzte" zu den (eher anrüchigen) "Chirurgen". In seinen Memoiren berichtete Heinrich Heine von seiner ersten großen Liebe zum „roten Sefchen“, einer Scharfrichtertochter. Einer der letzten Scharfrichter Deutschlands war Johann Reichhart (1893–1972). Während der Weimarer Republik und der Zeit des Nationalsozialismus vollzog er etwas mehr als 3.000 Hinrichtungen mit der Guillotine, darunter auch die von Hans und Sophie Scholl, Mitgliedern der Widerstandsgruppe Weiße Rose. Nach 1945 henkte er 156 verurteilte Repräsentanten des Nationalsozialismus im Auftrag der amerikanischen Militärregierung am Galgen. Der letzte k.u.k. Scharfrichter in Wien war Josef Lang (1855–1925). Er war ein Sonderfall, denn er kam nicht aus einer Scharfrichterfamilie, sondern betrieb vorher – und auch neben seiner Scharfrichtertätigkeit – ein Kaffeehaus in Wien, war als solcher sehr bekannt und beliebt – allerdings wusste zu Beginn niemand über seinen Zweitberuf Bescheid. Zur Regel wurde der Wiener Sonderfall in der Zeit des Nationalsozialismus, als die meisten Scharfrichterstellen von Personen besetzt wurden, die vorher als Gehilfen anderer Scharfrichter tätig waren und nicht einer Scharfrichterfamilie entstammten. In Deutschland traten spätestens seit 1937 die meisten Scharfrichter als anonyme Personen auf, über deren Tätigkeit in der Öffentlichkeit nahezu nichts bekannt war. Nach außen hin waren sie Justizangestellte, ihre Gehilfen Justizhelfer. Geheim und anonym waren auch die im Zweitberuf als Scharfrichter tätig gewordenen Personen in der Deutschen Demokratischen Republik (DDR). Hermann Lorenz hat zwischen 1969 und 1981 die letzten 20 Hinrichtungen auf deutschem Boden vollzogen. Gegenwart. In Ländern des 21. Jahrhunderts, die die Todesstrafe noch kennen, wie z. B. in den USA, haben sich die Berufsanforderungen des Scharfrichters durch die Hinrichtungswerkzeuge geändert (Elektrischer Stuhl, Gaskammer, Giftspritze). Nach wie vor ist die Ausübung des Berufes dem Sozialprestige abträglich. Etwa seit Mitte des 20. Jahrhunderts gibt es nicht nur männliche Scharfrichter, sondern auch Frauen, welche offiziell Todesurteile vollstrecken, so etwa in den Vereinigten Staaten oder in einigen asiatischen Ländern, wo sie Hinrichtungen insbesondere an Frauen oder jüngeren männlichen Todeskandidaten vollziehen. Hauptberufliche Scharfrichter im eigentlichen Sinne, die Leibesstrafen (Abschlagen der Hand) und Lebensstrafen (Enthaupten) mit dem Schwert bzw. dem Beil vollstrecken, existieren heute noch in einigen islamischen Ländern, in denen nach der Rechtsgebung der Scharia abgeurteilt wird, so vor allem in Saudi-Arabien oder dem Sudan. In diesen Ländern kann (nicht immer) die Rolle des Scharfrichters auch auf deren Wunsch von Angehörigen eines Opfers des Verurteilten, also von Laien, übernommen werden, mit oft extremen Konsequenzen für den Verurteilten in Gestalt einer verlängerten Todesqual. Der Scharfrichter nimmt in diesen Ländern nicht selten auch gemäß der Scharia die zum Teil öffentliche, hochtraumatische Amputation von Gliedmaßen mit Beil, Säbel oder (Krumm-)Schwert vor, z. B. bei Dieben oder Drogenhändlern. Sumerische Sprache. Die sumerische Sprache ist die Sprache des altorientalischen Kulturvolkes der Sumerer. Sie ist mit keiner anderen bekannten Sprache verwandt, deswegen bezeichnet man sie als linguistisch isoliert. Gesprochen wurde Sumerisch in Südmesopotamien vor allem im dritten Jahrtausend v. u. Z. Seine Anfänge liegen jedoch im Dunkeln. Spätestens ab 2000 v. Chr. wurde es vermutlich nur noch als Zweitsprache verwendet. Ab der ausgehenden altbabylonischen Zeit im 17. Jahrhundert v. u. Z. ist es dann als gesprochene Sprache gänzlich ausgestorben. Gleichwohl lebte es als Gelehrtensprache in Religion, Literatur und Wissenschaft in ganz Mesopotamien noch bis ins 1. Jahrhundert v. Chr. fort. Nach heutigem Kenntnisstand ist das Sumerische die erste Sprache, für die eine Schrift entwickelt wurde (um 3300 v. Chr.). Ihre schriftliche Überlieferung umfasst daher einen Zeitraum von rund 3000 Jahren. Die älteste Schriftsprache. a> aus dem 26. Jahrhundert v. Chr. Spätestens seit etwa 3500 v. Chr. spielten die Sumerer in Südmesopotamien eine entscheidende Rolle beim Übergang zur Hochkultur, insbesondere auch bei der Entwicklung einer für Wirtschaft und Verwaltung brauchbaren Schrift etwa um 3200 v. Chr. (Funde in Uruk IVa). Dies ist weltweit die älteste Schriftentwicklung, nur die ersten ägyptischen Hieroglyphen reichen an das Alter der sumerischen Schrift heran. Ob es zwischen den beiden mit Abstand ältesten Schriftsystemen eine Beziehung gab, ist eine bisher ungeklärte Frage der Ägyptologie und Altorientalistik. Um 3200 v. Chr. ging man dazu über, die Muster, die auf tönernen Zählmarken eingeritzt waren, in größere Tonklumpen zu ritzen und mit zusätzlichen Zeichen zu versehen. Aus dieser archaischen Form entwickelte sich in wenigen Jahrhunderten die mesopotamische Keilschrift – so nach der Form ihrer Zeichen benannt, die durch das Eindrücken eines kantigen Griffels in den weichen Ton entstanden – zur vollen Blüte. Sie ist auf Tontafeln und anderen Trägern wie Statuen und Gebäuden erhalten, die bei archäologischen Grabungen in Mesopotamien entdeckt wurden. Diese Schrift adaptierten die Akkader, Babylonier, Assyrer, Eblaiter, Elamiter, Hethiter, Hurriter und Urartäer jeweils für ihre eigene Sprache. Ursprünglich wurde die sumerische Keilschrift als ideographische oder logographische Schrift entwickelt. Jedes Zeichen entsprach einem Wort, und diese Zeichen ließen zunächst noch gut erkennen, welcher Begriff gemeint war. Im Laufe weniger Jahrhunderte entwickelte man nach dem Rebus-Prinzip zusätzlich eine Form der Silbendarstellung, bei der vielen Zeichen ein oder mehrere phonetische Silbenwerte (meist V, KV, VK, KVK) zugeordnet wurden (V für Vokal, K für Konsonant). Es entwickelte sich eine logographisch-phonologische Schrift. Am Beispiel des folgenden kurzen Textes, einer Backsteininschrift des Stadtfürsten Gudea von Lagaš (um 2130 v. Chr.), sollen die Begriffe der Transliteration der Keilschrift und deren Zerlegung bei der grammatikalischen Analyse illustriert werden. Bemerkungen: "diĝir" und "ki" sind hier Determinative, sie werden bei der Analyse hochgestellt; "pa.te.si" und "šir.bur.la" sind ""diri"-Komposita". Übersetzung: "Für Inana, die Herrin aller Länder, seine Herrin, hat Gudea, der Stadtfürst von Lagas und Held (unsicher) der Ĝatumdu, sein Haus von Ĝirsu gebaut." Die sumerische Schrift und Fragen der Transkription und Transliteration werden in diesem Artikel nicht weiter behandelt, es wird auf den Artikel Keilschrift verwiesen. Die sumerisch-akkadische Koexistenz. Im gesamten 3. Jahrtausend spielte das Sumerische in Südmesopotamien die Hauptrolle – unterbrochen nur in der Zeit des semitischen Reichs von Akkad (2350–2200 v. Chr.). Die Sumerer mussten sich allerdings seit etwa 2600 v. Chr. zunehmend mit semitischer Konkurrenz (den Akkadern, zuerst im Norden Mesopotamiens) auseinandersetzen, wobei man weniger von einer feindseligen Position der beiden Bevölkerungsgruppen ausgehen sollte, als von einem weitgehend friedlich verlaufenden Assimilations- und Integrationsprozess, der letztlich zu einer Koexistenz dieser Völker und ihrer Sprachen führte (das "sumerisch-akkadische linguistische Konvergenzgebiet" mit wechselseitiger sprachlicher Beeinflussung; siehe Edzard (2003)). Spätestens seit 2000 v. Chr. – nach anderen schon in der Ur-III-Zeit – verlor das Sumerische als gesprochene Sprache langsam seine Bedeutung, das sumerische ethnische Element ging nach und nach ganz in der – auch durch weitere Zuwanderungen – wachsenden semitischen Bevölkerung auf. Um 1700 v. Chr., spätestens 1600 v. Chr., endete das Sumerische als gesprochene Sprache. Als Sprache des Kults, der Wissenschaft, Literatur und offiziellen Königsinschriften fand es noch lange Verwendung. Die letzten sumerischen Texte stammen aus der Endphase der Keilschriftepoche (um 100 v. Chr.). Dialekte und Soziolekte. Obwohl ein später lexikalischer Text eine Reihe von Dialekten (besser: Soziolekten) des Sumerischen auflistet, bleibt doch neben der Normalsprache "eme-gi(r)" nur der Soziolekt "eme-sal" greifbar, wenn auch nur in spätsumerischer literarischer Überlieferung. Diese Sprachform wurde hauptsächlich dann verwandt, wenn in literarischen Texten weibliche Wesen zu Wort kommen, während erzählende Teile und die Reden der Männer in der Normalsprache geschrieben sind. Die Hauptunterschiede zur Normalsprache sind eine teilweise lautliche Umgestaltung der Wortwurzeln und morphologischen Bildungselemente, aber auch der Gebrauch nicht im Hauptdialekt vorkommender Wörter (zum Beispiel "mu-ud-na" statt "nital" „Gemahl“, "mu-tin" statt "ki-sikil" „Jungfrau“). Die Wiederentdeckung des Sumerischen. Um die Zeitenwende ging jede Kenntnis des Sumerischen und der Keilschrift verloren. Im Gegensatz zu den Assyrern, Babyloniern und Ägyptern, deren Wirken in der Geschichtsschreibung des klassischen Altertums breit dokumentiert ist, gibt es in diesen Berichten keinen Hinweis auf die Existenz der Sumerer. Mit der Entzifferung der Keilschrift seit dem Anfang des 19. Jahrhunderts wurden zunächst drei Sprachen entdeckt: das semitische Akkadische (in seiner babylonischen Form), das indogermanische Altpersische und das Elamische (eine isolierte Sprache im Südwesten des heutigen Irans). Erst später erkannte man unter den babylonischen Texten eine vierte Sprache, die Jules Oppert 1869 als erster als „Sumerisch“ (nach akkadisch "šumeru") bezeichnete. Die Selbstbezeichnung der Sumerer für ihre Sprache war "eme-gi(r)", was vielleicht „einheimische Sprache“ bedeutet; ihr Land nannten sie "kengir". Existenz und Benennung der Sprache waren jedoch noch längere Zeit umstritten und konnten erst 20 Jahre später nach Funden von bilingualen Texten in Ninive sowie durch die reichlichen Textfunde in Lagaš durch die Archäologen Ernest de Sarzec und Léon Heuzey von François Thureau-Dangin einwandfrei belegt werden. Letzterer erschloss die sumerische Sprache schließlich mit seinem Werk „Die sumerischen und akkadischen Königsinschriften“ (1907) für die wissenschaftliche Erforschung. Beziehungen zu anderen Sprachen. Es gab zahlreiche Versuche, das Sumerische mit anderen Sprachen oder Sprachfamilien in eine Verwandtschaftsbeziehung zu setzen. Dabei wurden die drawidischen, kaukasischen, altaischen und uralischen Sprachen, das Baskische, Tibetische, Altpersische, ja sogar die austroasiatischen und Bantu-Sprachen in Betracht gezogen. In der aktuellen Diskussion über Makrofamilien gilt das Sumerische für einige Forscher als ein Kandidat für die dene-kaukasische Makrofamilie, die das Sinotibetische, die nordkaukasischen, die jenisseischen und Na-Dené-Sprachen, zusätzlich die sonst als isoliert betrachteten Sprachen Burushaski, Baskisch und eben Sumerisch umfassen soll. Neuerdings gibt es auch vereinzelt Forscher, die es eher der nostratischen Makrofamilie zurechnen wollen. Keiner dieser Vorschläge – auch nicht die dene-kaukasische Makrofamilie, noch viel weniger die nostratische Hypothese – konnte die Fachwelt bisher überzeugen. Somit wird das Sumerische weiterhin mehrheitlich als isolierte Sprache betrachtet. Wenn es in prähistorischer Zeit mit dem Sumerischen verwandte Sprachen gegeben haben sollte, so sind diese nicht schriftlich fixiert worden und somit für einen Vergleich verloren. Vorgänger und Nachbarn der Sumerer. Ob die Sumerer in Südmesopotamien autochthon oder – vielleicht im Laufe des 4. Jahrtausends – zugewandert sind, lässt sich bis heute nicht sicher entscheiden. Es ist sehr schwierig, ein eventuelles Auftreten der Sumerer in Südmesopotamien mit bestimmten archäologischen Horizonten oder Entwicklungen in Zusammenhang zu bringen. Die ältere sumerische Sprachforschung (zum Beispiel Falkenstein) ging davon aus, dass die Sumerer in Südmesopotamien nicht autochthon waren, sondern erst im 4. Jahrtausend dorthin eingewandert sind und eine dort ansässige Vorbevölkerung überlagert haben. Das wurde an einem sog. vorsumerischen Sprachsubstrat (manchmal „protoeuphratisch“ genannt) festgemacht. Aus dieser Schicht sollten die nicht sumerisch erklärbaren Städtenamen wie "Ur", "Uruk" ("Unug"), "Larsa" und "Lagaš", Götternamen wie "Nanše" und "Gatumdu", aber auch landwirtschaftliche Begriffe wie "apin" „Pflug“, "engar" „Pflüger“, "ulušin" „Emmerbier“, "nimbar" „Dattelbaum“, "nukarib" „Gärtner“, "taskarin" „Buchsbaum“ (daraus lateinisch "taxus") und Bezeichnungen aus dem Bereich der Metallverarbeitung wie "simug" „Schmied“ und "tibira" „Metallarbeiter“ stammen, was natürlich für den Kulturstand der Sumerer bei Zuwanderung nach Mesopotamien einige Fragen aufwirft. Heute wird eine „vorsumerische“ Interpretation der oben genannten Beispiele keineswegs als sicher betrachtet, da es an der genauen Kenntnis fehlt, wie ein „sumerisches“ oder ein „nichtsumerisches“ Wort etwa in der ersten Hälfte des 3. Jahrtausends ausgesehen haben mag. Insbesondere galten in der frühen Forschung mehrsilbige Wörter als „unsumerisch“, was heute als ungeeignetes Kriterium angesehen wird. Dazu G. Rubio (1999): „Es gibt kein monolithisches Substrat, das seine Spuren im sumerischen Lexikon hinterlassen hätte. Alles was man entdecken kann, ist ein komplexes Netz von Entlehnungen, deren Richtung man oft schwer bestimmen kann.“ Mit den schon erwähnten semitischen Akkadern gingen die Sumerer nach und nach eine Symbiose ein, die natürlich auch wechselseitige Auswirkungen auf die beiden Sprachen hatte. Dies betrifft die Wortstellung im Satz, Phonetik, das Kasussystem, vor allem wechselseitige Wortentlehnungen: etwa 7 % des akkadischen Wortschatzes sind Entlehnungen aus dem Sumerischen, aber auch das Sumerische besaß in den späteren Perioden einen drei- bis vierprozentigen akkadischen Anteil (Edzard (2003)). Daneben sind vor allem noch die Elamiter im Gebiet Chusistan am persischen Golf zu erwähnen (heute Südwestiran), deren Kultur und Wirtschaft schon seit Beginn des 3. Jahrtausends von der sumerischen Hochkultur beeinflusst wurde. Dies hatte auch Auswirkungen auf die elamischen Schriftsysteme, da neben Eigenentwicklungen auch Schriftformen Mesopotamiens übernommen und adaptiert wurden. Ein umgekehrter Einfluss von Elam auf Sumer ist kaum nachweisbar. Ein Einfluss der „Fremdvölker“ – Lulubäer, Gutäer und andere, die Sumer phasenweise im 3. Jahrtausend beherrschten – auf die sumerische Sprache ist ebenfalls nicht greifbar, schon deswegen nicht, weil die Sprachen dieser Ethnien so gut wie unbekannt sind. Sprachtypus. "Diese Kurzdarstellung der sumerischen Sprache konzentriert sich auf die Nominal- und Verbalmorphologie, es werden nur die grammatischen Standardphänomene behandelt, auf Ausnahmen und Sonderfälle wird nur vereinzelt hingewiesen. Die Darstellung basiert vor allem auf den Grammatiken von D.O. Edzard (2003) und G. Zólyomi (2005)." "Bei der Darstellung der sumerischen Formen wird auf die Angabe der Graphemvarianten (unterschiedliche Keilschriftzeichen) verzichtet und stattdessen eine normalisierte Form ohne Akzente, Indizes und phonetische Supplemente verwendet (so auch Zólyomi 2005). Diese Methode erleichtert Nicht-Keilschriftkundigen wesentlich das Verständnis der linguistischen Aspekte, um die es hier vor allem geht." Das Sumerische kann man kurz als agglutinierende Split-Ergativsprache mit grammatischem Geschlecht (Personen- und Sachklasse) charakterisieren. (Split-Ergativität bedeutet, dass die Ergativkonstruktion – sie wird unten erklärt – nicht durchgehend verwendet wird, sondern in bestimmten Zusammenhängen auch die von europäischen Sprachen bekannte Nominativ-Akkusativ-Konstruktion vorkommt.) Das Verb steht am Satzende, die Position der anderen Satzglieder hängt von verschiedenen Faktoren ab, Nominal- und Verbalphrase sind eng verzahnt. Es gibt keine Ausprägung der Wortarten Substantiv versus Verb, dieselben Stämme (Wurzeln) – viele sind einsilbig – können für beide Funktionen genutzt werden. Zum Beispiel heißt "dug" sowohl „Rede“ als auch „sprechen“. Die jeweilige Funktion wird an den Funktionsmarkern (Morpheme, die grammatische Funktionen markieren) und der Stellung im Satz deutlich, die Stämme bleiben unverändert. Es gibt insbesondere keine Infixe (wie zum Beispiel im Akkadischen). Die Mehrdeutigkeit (Homophonie) vieler Silben der für das Sumerische verwendeten Keilschrift könnte vermuten lassen, dass das Sumerische eine Tonsprache war, bei der unterschiedliche Tonhöhen bedeutungsdifferenzierend wirkten. Allerdings spricht dagegen, dass es in Vorderasien sonst keine Tonsprachen gibt. Es kann auch sein, dass ein größerer Phonemreichtum als der heute aus der Schrift rekonstruierbare von den Defiziten dieses Schriftsystems überdeckt wird. Da das Sumerische lange ausgestorben ist und in einem oft nicht eindeutig interpretierbaren Schriftsystem überliefert wurde, lassen sich Phonologie und Morphologie nur näherungsweise beschreiben, was auch erklären kann, warum es immer noch sehr unterschiedliche Theorien über die Verbalmorphologie (insbesondere das Präfixsystem des finiten Verbs) gibt. Phoneme. Das Phonem /r̂/ (oder auch /dr/) wird von B. Jagersma und G. Zólyomi als aspirierte dentalte Affrikata [ʦʰ] gelesen. Da es in akkadischen Lehnwörtern als [r] erscheint, ist diese Analyse strittig. Viele Wissenschaftler (u. a. Edzard (2003)) gehen von der Existenz eines /h/-Phonems aus. Dessen genaue Aussprache, ob laryngal oder pharyngal, ist jedoch ebenso ungeklärt wie die Frage nach weiteren Phonemen. Personen- und Sachklasse. Das Sumerische besitzt ein grammatisches Geschlecht, das eine „Personenklasse“ (Abkürzung PK oder HUM) und eine „Sachklasse“, genauer „Nicht-Personenklasse“ (Abkürzung SK oder NONHUM), unterscheidet. Tiere gehören in der Regel zur „Sachklasse“. Dieses Zweiklassensystem hat Auswirkungen unter anderem bei der Konjugation und Pluralbildung. Das grammatische Geschlecht ist einem Wort nicht formal anzusehen. Pluralbildung. Das Sumerische hat zwei Numeri, den unmarkierten Singular und einen Plural. Der Plural wird nur bei den Nomina der Personenklasse markiert, der Pluralmarker (Morphem zur Markierung des Plurals) ist fakultativ und lautet /-ene/, nach Vokalen /-ne/. Bei Zahlattributen entfällt die Markierung, bei Nomina der Sachklasse bleibt der Plural unmarkiert. Der Plural kann – auch zusätzlich zum Marker – durch Doppelsetzung des Substantivs oder des nachgestellten Adjektivattributs gebildet werden. Bei Nomina der Sachklasse kann das Attribut "-hi.a" (eigentlich Partizip von "hi" „mischen“) die Funktion einer Pluralisierung übernehmen. Ergativität. Das Sumerische ist eine Ergativsprache. Es besitzt also unterschiedliche Kasus für den Agens (das Subjekt) des transitiven Verbums und das Subjekt des intransitiven Verbums. Der erste Kasus heißt Ergativ, der zweite Absolutiv, er wird zusätzlich für das Objekt (den Patiens) transitiver Verben benutzt. "Beispiele zur Ergativkonstruktion" (die Verbformen werden im Abschnitt "Verbalmorphologie" erklärt) Da im Sumerischen nicht durchgehend diese Ergativkonstruktion, sondern teilweise auch die Nominativ-Akkusativ-Konstruktion verwendet wird, spricht man von „gespaltener Ergativität“ oder „Split-Ergativität“. "Ergativische Konstruktion und Nominativ-Akkusativ-Konstruktion im Vergleich" Kasusbildung. Der Kasus wird im Sumerischen sowohl am Nomen (durch Suffixe) als auch am Verb (durch Präfixe) markiert, ein Phänomen, das in der Linguistik als „double marking“ bezeichnet wird. In der älteren Forschung wurden die Kasus allein anhand der nominalen Markierung definiert. Dadurch kommt man auf eine Zahl von neun Kasus, wovon die Nomina der Personenklasse sieben und die der Sachklasse acht ausbilden. Die Kasusmarker (Morpheme zur Markierung der Kasus) sind im Singular und Plural identisch und stehen am Ende einer Nominalphrase (siehe unten), insbesondere hinter dem Pluralmarker /-ene/. Die Kasusmarkierung mittels Verbalpräformativen wird durch Phänomene von Kontraktionsregeln im Zusammenspiel mit den Auswirkungen der Silbenschrift kompliziert, die die Kasusmarker teilweise sehr stark verändern. Darauf kann hier nicht im Detail eingegangen werden (vgl. Falkenstein 1978, Edzard 2003), zumal gerade in diesem Bereich die grammatische Erforschung des Sumerischen noch ziemlich im Fluss ist. Nach einer neueren, u. a. von Zólyomi vertretenen Auffassung (vgl. Zólyomi 2004 Weblink) sind für die Definition des Kasus im Sumerischen die nominale wie die verbale Markierung gleichermaßen heranzuziehen. Ein Kasus wäre danach jede vorkommende Kombination eines der nominalen Marker mit einem der verbalen Marker. Nach dieser Zählweise ergibt sich für die Gesamtzahl der sumerischen Kasus eine deutlich höhere Anzahl als 9. Das Genitivattribut folgt in der Regel seinem Regens (Bestimmungswort), also Enklitische Possessiv-Pronomina. Die Beispiele zeigen, dass das possessive Enklitikon "vor" dem Kasusmarker steht. "-zu" wird zum Beispiel vor /a/ zu "-za" (3. Beispiel). Nominalphrasen. Natürlich müssen nicht alle Positionen belegt sein. Die Positionen (2), (4), (5) und (8) können ihrerseits durch komplexe Phrasen besetzt werden, so dass sich mehrfache Schachtelungen und sehr komplexe Konstruktionen ergeben können. Zusätzlich ist eine sog. „antizipatorische Genitivkonstruktion“ möglich, bei der die Genitivphrase (Position 4) der übrigen Nominalphrase vorausgeht, aber durch ein resumptives Possessivpronomen (in Position 6) wiederholt wird. Ein Beispiel hierfür ist Beispiel 11 in der folgenden Übersicht. Beispiele sumerischer Nominalketten. "Die Ziffern vor den Konstituenten beziehen sich auf die Position in der Kette. Man beachte die Schachtelungen" […]. Die Beispiele lassen erkennen, wie komplex geschachtelte Nominalketten werden können. Die hohe Regelhaftigkeit der Reihung erleichtert allerdings die Interpretation. Nominalphrasenstruktur anderer Sprachen zum Vergleich. Diese Beispiele (Nr. 1–5 sind aus Edzard 2003) zeigen, dass bei "agglutinierenden" Sprachen sehr unterschiedliche Typen von Nominalphrasen möglich sind, was die Reihenfolge ihrer Elemente betrifft. Bei allen genannten und den meisten anderen agglutinierenden Sprachen gilt aber, dass die Reihenfolge der Morpheme einer festen Regel unterworfen ist. Selbständige Personalpronomina. Die 1. und 2. Person Plural wird durch umschreibende Konstruktionen ersetzt. Das selbständige Personalpronomen besitzt keine Ergativform, hat also dieselbe Form als Subjekt transitiver und intransitiver Verben. Dies ist "ein" Grund, im Sumerischen von Split-Ergativität zu sprechen. Verbalmorphologie. Die Konstruktion des finiten sumerischen Verbums ist äußerst komplex, da außer den üblichen Tempus-Subjekt-Kennzeichnungen modale Differenzierungen, Hinweise auf die Richtung der Handlung, Rückverweise auf die Nominalphrase und pronominale Objekte der Handlung in der Verbalform unterzubringen sind. Man kann also im Sumerischen von einer polysynthetischen Verbalbildung reden. (Die Grundstruktur der sumerischen Verbalform hat typologisch große Ähnlichkeit mit der Verbalkonstruktion im Burushaski. Die Verteilung der Funktionen der pronominalen Suffixe und Präfixe bei transitiven und intransitiven Verben ist fast identisch. Allerdings ist das Tempussystem des Sumerischen wesentlich einfacher.) Ähnlich wie bei der Nominalkette (siehe oben) ist die Position der jeweiligen Morpheme exakt festgelegt. Schwierigkeiten macht die praktische Analyse dennoch, da umfangreiche Kontraktions- und Assimilationsregeln und graphische Besonderheiten zu beachten sind. Viele 'schwache' Formantien wie /-e-/ können auch einfach entfallen. "Die Darstellung der Verbalmorphologie folgt Zólyomi 2005". Die 14 Positionen oder Slots einer sumerischen Verbalform. "Vor" der Verbalbasis (Verbstammform, siehe unten) können zehn verschiedene Präfixe, "hinter" der Verbalbasis bis zu drei Suffixe auftreten, das sumerische Verb besitzt also – einschließlich der Verbalbasis – 14 Positionen, an denen Morpheme eingesetzt werden können, die eine bestimmte Bedeutungsfunktion tragen, aus denen sich dann die Gesamtbedeutung der Verbform ergibt. Solche Positionen nennt man auch „Slots“ – ein Begriff aus der grammatischen Theorie der Tagmemik. Natürlich gibt es keine konkrete sumerische Verbform, bei der "alle" Positionen oder Slots besetzt wären. Manche Besetzungen schließen einander aus. In der folgenden Tabelle werden die Slots sumerischer Verbalformen aufgeführt und in den nächsten Abschnitten einzeln erklärt, wobei die Erklärungsfolge aus Gründen des leichteren Zugangs nicht mit der Folge der Slots identisch ist. Als „Slot 0“ könnte man das prothetische Präfix /i-/ auffassen, das immer dann verwendet wird, wenn ansonsten nur ein einzelner Konsonant als Präfix vorhanden wäre, das Wort mit zwei Konsonanten anfinge oder wenn sonst kein Präfix vorhanden ist, die Verbform aber finit sein soll. Tempus-Aspekt. Das Sumerische besitzt keine absoluten Tempora, sondern ein relatives Tempus-Aspekt-System. Das „Präsens-Futur“ (auch „Imperfektiv“ genannt) bezeichnet – relativ zu einem Bezugspunkt – gleich- oder nachzeitige noch nicht abgeschlossene Handlungen, das „Präteritum“ (auch „Perfektiv“) drückt vorzeitige abgeschlossene Sachverhalte aus. Zustandsverben bilden nur das Präteritum aus. Die Tempora Präsens-Futur und Präteritum werden im Indikativ durch unterschiedliche Affixe in den Slots 10 und 13, die Form der Verbalbasis (Slot 11) und den Präsens-Futur-Marker /-ed/ in Slot 12 unterschieden. Nicht alle drei Kennzeichnungsmöglichkeiten treten in einer Form auf. Verbalbasen und Verbalklassen (Slot 11). Außerdem wird bei manchen Verben bei pluralischem Agens oder Subjekt eine andere Basis als bei singularischem Agens oder Subjekt verwendet. Dies führt zu prinzipiell vier „Stammformen“ der Verbalbasis, wie an den folgenden Beispielen deutlich wird. Pronominale Suffixe in Slot 13. Im Präsens-Futur bezeichnen die pronominalen Suffixe der Reihe A den Agens eines transitiven Verbums und die der Reihe B das Subjekt eines intransitiven Verbums, welches (bis zum Ende des 3. Jahrtausends in der Regel) ein /ed/ im Slot 12 vorangestellt bekommt. Im Präteritum werden nur die pronominalen Suffixe der Reihe B verwendet. Sie kennzeichnen das intransitive Subjekt und das Objekt transitiver Verben, außerdem den pluralischen Agens. Präsens-Futur-Marker /-ed/ in Slot 12. Wenn die Verbalbasis keine besondere Form für das Präsens-Futur besitzt, unterscheidet nur /ed/ im Slot 12 das intransitive Präsens-Futur vom intransitiven Präteritum. Konjugationsschema des Präsens-Futurs (Imperfektiv). Damit ergibt sich für das Präsens-Futur folgendes Konjugationsschema: (PF = Präsens-Futur) Konjugationsschema des Präteritums (Perfektiv). Die Pronominalpräfixe des Slot 13, Reihe B (Formen siehe oben) kennzeichnen im Präteritum das Subjekt des intransitiven und das direkte Objekt des transitiven Verbums. Zusammenfassung der Konjugationen. Die folgende Tabelle stellt schematisch die Konjugation sumerischer Verben in den Tempora Präsens-Futur (PF) und Präteritum dar. Split-Ergativität und sumerisches Verbalsystem. Das Präsens-Futur verwendet in der 1. und 2. Person faktisch ein Nominativ-Akkusativ-System, da Agens und intransitives Subjekt mit denselben pronominalen Suffixen in Slot 13 bezeichnet werden, während die Präfixe des Slot 10 das Objekt kennzeichen. In den 3. Personen gibt es ein ergativisches System mit verschiedenen Affixen für Agens und intransitives Subjekt. Das Präteritum benutzt durchgehend ein ergativisches System: Intransitives Subjekt und direktes Objekt verwenden dieselben pronominalen Suffixe der Reihe B in Slot 13. Die adverbialen Präfixe in Slot 6 bis 9. In den Slots 6 bis 9 können adverbiale Präfixe auftreten, die adverbiale Ergänzungen zum Handlungsablauf leisten. In den Slots 8 und 9 kann nur je eine der beiden Varianten realisiert sein. Vor dem Lokativpräfix /ni/ kann das Komitativpräfix zu /di/ werden, intervokalisch (zwischen zwei Vokalen) das Ablativpräfix zu /ra/. Pronominale Präfixe in Slot 5. Bei der Verwendung dieser Präfixe gibt es viele Ausnahmen und Sonderfälle, teilweise werden Präfixe der Slots 3 und 4 als Ersatz verwendet. Vor dem Dativ- und Direktivpräfix wird in der 1.sg. eine Form des Ventivpräfixes /mu/ (siehe unten Slot 2) verwendet. Als Ersatz für das fehlende Präfix der 3.sg. Sachklasse dient das Mediumpräfix /ba/ (siehe unten Slot 4). Vor die Präfixe /jr/, /nn/, /nne/ in Anfangsposition tritt ein prothetisches (vorangestelltes) /i-/. Mediumpräfix /ba/ in Slot 4. Das „Mediumpräfix“ /ba/ in Slot 4 drückt aus, dass die Handlung das grammatische Subjekt oder seine Interessen unmittelbar berührt. Sekundär ist die Funktion von /ba/ als Ersatz für das pronominale Präfix in Slot 5 in der 3.sg. SK (letztes Beispiel). Ventivpräfix /mu/ in Slot 3. Das „Ventivpräfix“ bezeichnet eine Bewegung der Handlung auf den Ort des mitgeteilten Sachverhalts oder einer verbalen Ergänzung hin. Vor dem Dativ-Präfix (Slot 6) oder Direktiv-Präfix (Slot 9) fungiert es in der 1. sg. als pronominales Präfix (Ersatz für Slot 5). Koordinationspräfix /nga/ in Slot 2. Dieses Präfix wird der letzten Verbalform einer gleichgeordneten Kette von Verbalformen präfigiert und hat die Bedeutung „und auch“, ist also ein sog. Satzkoordinator. Die Modalpräfixe in Slot 1. In Slot 1 stehen das „Negationspräfix“, das „Sequenzpräfix“ oder die eigentlichen „Modalpräfixe“. Das "Negationspräfix" (Verneinungspräfix) indikativer (und infiniter) Verbalformen ist /nu-/, das /u/ kann sich an die Vokale der folgenden Silbe assimilieren. Vor den Silben /ba/ und /bi/ lautet das Negationspräfix /la-/ bzw. /li-/. Das "Sequenzpräfix" /u-/ drückt die Nachzeitigkeit der Verbalform im Vergleich zu den vorher beschriebenen Handlungen aus („und dann …“). /u/ kann sich an den Vokal der nächsten Silbe assimilieren. Sieben Präfixe im Slot 1 beschreiben die Modalität der Handlung, modifizieren also die neutrale Grundbedeutung der Verbform. Dabei kann sowohl die Aussagerealität des Sachverhaltes modifiziert werden („epistemische“ Modalität: sicher, wahrscheinlich, vielleicht, sicher nicht …), oder beschrieben werden, was getan oder nicht getan werden sollte („deontische“ Modalität). Prothetisches /i-/. Das prothetische (vorangestellte) Präfix "ì-" tritt immer dann auf, wenn sonst nur ein einzelner Konsonant als Präfix vorhanden wäre, das Wort mit zwei Konsonanten anfinge oder kein Präfix vorhanden ist, die Verbform aber finit sein soll. Beispiele zur Verbalbildung. Bei den Verbalformen ist in der Morphemzerlegung für die einzelnen Bestandteile die Nummer des Slots nachgestellt. (Slot 0 für das prothetische /ì-/). Weitere Formen. Für die Darstellung weiterer Verbalformen (Imperativ, infinite Formen), der Verwendung anderer Wortarten (Pronomina, Zahlwörter, Konjunktionen) und insbesondere der sumerischen Syntax wird auf die angegebene Literatur verwiesen. Silbenschrift. Segmentierung der Sprechsilbe (σ) in Reim (ρ), fakultatives konsonantisches (C*) Onset (ω), obligatorischen vokalischen (V+) Nukleus (ν), fakultative konsonantische Koda (κ) und ggf. tonalen (T?) Ton (τ) Silbenschriften sind phonographische „Lautschriften“, bei denen die Schriftzeichen (Graphem) mit der Aussprache (Phoneme) und nicht direkt mit Bedeutungen (Morphem oder Lexem) korrespondieren und dabei überwiegend für größere Einheiten stehen als die Buchstaben von Alphabetschriften, welche mit phonologischen Segmenten (d. h. Konsonanten und Vokale) korrelieren. Dabei ist zwischen Silbenschrift und Abugida, welche aus segmental gruppierten Lauten bestehen, zu unterscheiden. Das Inventar einer Silbenschrift heißt "Syllabar" und umfasst normalerweise einige Dutzend bis wenige hundert Zeichen, die "Syllabogramme" genannt werden. Silbenschriften stehen damit in der visuellen Komplexität zwischen alphabetischen Segmentalschriften und morphographischen „Bilderschriften“. Dargestellt wird je „Silbenzeichen“ höchstens eine ganze Sprechsilbe (σ), häufig aber auch nur Teile davon, die miteinander kombiniert werden müssen. Am häufigsten sind dies -Syllabogramme, also Kombinationen aus Anlaut und Gipfel (ων), eher selten umgekehrt aus Gipfel und Auslaut (νκ), beides in der Regel kombiniert mit „Vokalzeichen“ für den Gipfel (ν) und gelegentlich auch einzelne „Konsonantenzeichen“. Verbreitung. Die meisten der im Altertum, aber auch der bis in die mittlere Neuzeit autonom, d. h. ohne großen Einfluss bestehender Verschriftungen, entwickelten sog. autochthonen Schriftsysteme verwenden ausschließlich oder hauptsächlich Silbenzeichen, was darauf schließen lässt, dass es sich hierbei um den intuitivsten Ansatz der Verschriftung handeln mag. Entsprechend hoch ist der Variantenreichtum der Silbenschriften. Durch die Vorherrschaft der Segmentalschriften in Europa und dem Nahen Osten sowie die von dort ausgehende Kolonisierung und Missionierung weiter Teile der Erde, die Schrift auch in bis dahin schriftlose Kulturen brachten und mancherorts bestehende Schrifttraditionen verdrängten, ist heute allerdings das lateinische Alphabet vorherrschend. Phonographische Eigenschaften. Welche Art von (Teil-)Silben die Syllabogramme einer Silbenschrift ohne Umwege darstellen können, hängt überwiegend von den phonologischen Eigenheiten der Sprache ab, für welche die Schrift (ursprünglich) geschaffen wurde. Manche Lautsprachen haben ein relativ regelmäßiges und beschränktes Silbeninventar, das bspw. (fast) nur aus offenen () oder optimalen Silben () besteht oder (fast) nur Einzelkonsonanten in den Rändern erlaubt (,,). Da durch diese Beschränkungen der lautlichen Vielfalt die nötige Zahl an Syllabogrammen gering gehalten werden kann, bieten sich diese Sprachen, anders als etwa das Deutsche mit seinen Konsonantenclustern wie in, besonders für Silbenschriften an. Um auch irreguläre Silben schreiben zu können oder die Schrift auf eine andere Sprache anzuwenden, entwickeln sich orthographische Regeln, die der Kombination von zwei Silbenzeichen eine neue Lautung zuweisen. Diese Regeln können einfach bis komplex sein. Häufig besagen sie lediglich, welcher Vokal oder Konsonant nicht gesprochen wird, wenn zwei Silbenzeichen hintereinander stehen, sodass eine einzige Silbe auszusprechen ist. So kann eine einfache bedeckte Silbe wie vom Typ oft mit einem Zeichen geschrieben werden, aber soll sie wie auch geschlossen sein, kann dies je nach Schriftsystem oder Wort mit impliziter Koda, einem speziellen (End-)Konsonantenzeichen, mit stummem Vokal, verschwindenden Echovokal, mit einem verschmelzenden Koppelvokal oder mit einem eigenen Syllabogramm realisiert werden. In einer literalisierten Gesellschaft hat das verwendete Schriftsystem immer auch Einfluss auf die phonologische Wahrnehmung. So gibt es bspw. in den japanischen Silbenschriften nur ein einziges explizites Kodazeichen, das für einen nasalen Abschluss (u.ä.) steht und meist als transliteriert wird. Dadurch glauben viele Japaner, auch dann ein oder zu hören und zu sprechen, wenn ein Wort mit einem entsprechenden Syllabogramm endet, obwohl diese Vokale stumm sind (), was auch in der Transkription anderer Sprachen genutzt wird. Zeichentypen. Das Inuktitut-Syllabar hat neben - auch -Syllabogramme, die sehr regelmäßig aufgebaut sind, darum ist es synthetisch und systematisch. Da die Zeichen auf hochgestellt auch als Auslautkonsonanten verwendet werden müssen, ist es aber unecht. Die Zeichen in "synthetischen Silbenschriften" sind teilweise motiviert, indem sich bestimmte Charakteristika innerhalb einer Zeile oder Spalte wiederholen, wenn man sie tabellarisch nach vokalischen Kern und Anfangs- oder Endrand sortiert. Die Silbenschrift ist darüber hinaus "systematisch", wenn alle lautlichen Segmente mit graphischen Eigenschaften korrespondieren. Beides kommt vor allem in gezielt entwickelten modernen Silbenschriften vor. So könnten sich bspw. einerseits die Silbenzeichen für und in derselben Weise ähneln wie die für und und andererseits könnten diejenigen für und sowie die für und eine graphische Gemeinsamkeit aufweisen – oder beides. Diese systematischen Veränderungen können durch das Hinzufügen von Teilglyphen (z.B. Gəʿəz) oder durch geometrische Translationen wie Drehen und Spiegeln (z.B. Cree) erzeugt werden. Andere Silbenschriften nutzen arbiträre Syllabogrammen ohne erkennbare Ähnlichkeiten zueinander und heißen "analytisch" (z. B. Kana). Diese Zeichen sind häufig im Laufe der Zeit aus logographischen Vorläufern entstanden, indem Wortzeichen nur noch wegen ihrer Aussprache und nicht mehr für ihre Bedeutung verwendet und möglicherweise graphisch vereinfacht wurden. In einer "echten Silbenschrift" steht jedes Zeichen für eine Silbe der entsprechenden Sprache (z. B. Cherokee), d. h. ein "echtes Syllabogramm" deckt alle Teile einer Silbe ab, also (nach westlicher Phonologie) Anlaut, Gipfel und Auslaut. Da sowohl Anfangs- als auch Endrand, also die gesamte Silbenschale, zumindest in manchen Sprachen optional ist, gibt es Start- /, Kern-, End- / und Vollsyllabogramme /, wobei in den meisten Silbenschriften nur einfache Start- und Kernsyllabogramme verwendet werden. In den "unechten Silbenschriften" müssen die Syllabogramme zum Teil kombiniert werden, um eine Sprechsilbe zu bilden, z. B. im japanischen Schriftsystem + = oder =. Insbesondere Kana wird daher auch als Morenschrift bezeichnet, denn ihre Silbenzeichen können ohne Kombination weder einen Langvokal oder Diphthong noch eine nasale Koda und auch kein Cluster aus Konsonant und Halbvokal im Onset enthalten. Ein Syllabar ist "vollständig", wenn es alle möglichen Silben einer korrespondierenden Lautsprache abdeckt, ohne dass im Schriftsystem auf weitere graphematische Regeln zurückgegriffen werden muss. In der Praxis wird dieses Ziel, welches den "flachen" alphabetischen Orthographien ähnelt, nie ganz erreicht. Grenzfälle. Einigen wenigen Schriften, z.B. dem koreanischen Hangeul, liegen zwar segmentale Alphabete zugrunde, aber die Segmentzeichen werden silben- oder morphemweise in Frames gruppiert, sodass die Leseeinheit syllabisch oder morphemisch ist. Sie werden zu den Silbenschriften gezählt, wenn dem Begriff eine funktionale und nicht eine operative Sicht zugrundegelegt wird, d.h. wenn die praktische Anwendung im Lesen und Schreiben statt der theoretischen Analysegrundlage betrachtet wird. Viele Schriftsysteme mit Buchstabenschriften haben ebenfalls einen kleinen syllabischen Anteil, indem bei der Worttrennung mit dem nur dann am Zeilenende sichtbarem Strich eine Trennung nur nach vollständigen Silben oder Morphemen erfolgen kann ("Silbentrennung"). Sophokles. Sophokles (, klassische Aussprache; * 497/496 v. Chr. in Kolonos; † 406/405 v. Chr. in Athen) war ein klassischer griechischer Dichter. Sophokles gilt neben Aischylos und Euripides als der bedeutendste der antiken griechischen Tragödiendichter. Seine erhaltenen Stücke, vor allem Antigone oder König Ödipus, sind auf den Bühnen der ganzen Welt zu sehen. Leben. Sophokles stammt aus dem Demos Kolonos, Phyle Aigeis. Er war der Sohn des vermögenden Waffenfabrikanten Sophillos. Schon als Knabe gewann er in körperlichen und musischen Agonen. 480 v. Chr. war er Vorsänger beim Siegespaian nach der Schlacht bei Salamis und erregte durch seine Schönheit Aufsehen. Sein Musiklehrer war wahrscheinlich Lampros. Er erlernte nach eigener Aussage bei Aischylos, ob nun persönlich oder als Zuschauer des tragischen Agons, das Handwerk des Stückeschreibens. 468 v. Chr. besiegte er den aus Sizilien zurückgekehrten Aischylos mit seiner ersten Tetralogie, deren erstes Stück "Triptolemos" war. In seinem Stück "Nausikaa" trat Sophokles als Lyraspieler auf, in dem Stück "Thamyras" als Ballspieler. 443/442 v. Chr. war er Hellenotamias (Verwalter der Schatzkasse des Attisch-Delischen Seebunds), 441/39 v. Chr. zusammen mit Perikles Stratege im Samischen Krieg. Ion von Chios hat sehr amüsant ein Symposion aus dieser Zeit beschrieben, an dem Sophokles teilgenommen hat. Wahrscheinlich war Sophokles auch 428 v. Chr. Stratege im Krieg gegen die Anaier. 413–411 v. Chr. gehörte er dem oligarchischen Probulenkollegium an. Trotz zahlreicher ehrenvoller Berufungen ausländischer Könige hat Sophokles – anders als Aischylos und Euripides – Athen nicht verlassen. Sophokles übte vielfältige kultische Funktionen aus. Als Priester des Heilheros Halon führte er aus Epidauros den Kult des Asklepios in Athen ein und nahm den Gott bis zur Errichtung eines eigenen Temenos in sein Haus auf. Deshalb wurde Sophokles nach dem Tod als Heros Dexion verehrt. Er war Gründer eines Musenthiasos. Offenbar fungierte er auch als Medium, durch das die Götter zu den Menschen sprachen. Es wird berichtet, dass ihn eine Traumerscheinung des Herakles einen von der Akropolis gestohlenen goldenen Kranz hat finden lassen. Von der Belohnung soll er ein Heiligtum des Herakles Menytes gestiftet haben. Sophokles übernahm neben seiner dichterischen Tätigkeit einige wichtige politische Ämter in Athen. Er war zweimal verheiratet. Seine erste Ehe schloss er mit Nikostrate; aus dieser Verbindung ging Iophon hervor, der als Tragödiendichter bekannt geworden ist. Aus der zweiten Ehe mit der Sikonierin Theoris entstammt der Sohn "Ariston". Beide sind die Stammväter einer Dynastie von Tragödiendichtern. Antike Biographien berichten, dass Sophokles, als sein Sohn Iophon ihn für unmündig erklären lassen wollte, vor Gericht Verse aus seinem Stück "Oidipous auf Kolonos" vorgelesen und damit die völlige Haltlosigkeit der Klage seines Sohnes bewiesen habe. Dokumentiert sind Sophokles' persönliche Beziehungen zu Perikles, Herodot und Ion von Chios. Als Sophokles vom Tod seines großen Konkurrenten Euripides erfuhr, soll er in Trauerkleidern die Dionysien von 406 v. Chr. eröffnet haben. Etwa neunzigjährig ist Sophokles 406 oder 405 v. Chr. gestorben. Er soll an einer Weinbeere erstickt sein oder dem Bolustod an der Weinbeere erlegen sein, was wahrscheinlich nicht der Wahrheit entspricht. Er wurde in der Familiengruft an der Straße nach Dekeleia, elf Meilen vor Athen, bestattet. Sein Grabmal war mit einer Sirene oder mit Kaledon geschmückt. Schon den Zeitgenossen galt Sophokles als Liebling der Götter. Gesegnet mit Genie, Liebenswürdigkeit und Schönheit, gilt er bis heute als eine der überragenden Personen der Geschichte. Ihm wird der Ausspruch „Töte nicht den Boten“ zugeordnet. Porträts. Nicht erhalten ist die Statue, die Iophon seinem Vater bald nach dessen Tod errichtet hat, auch nicht Polygnotos’ Porträt in der Stoa Poikile. Werke. Sophokles hat ein umfangreiches Werk hinterlassen. Die Suda nennt 123 Stücke (30 vollständige Tetralogien und eine Trilogie). 132 Stücke sind dem Titel nach bekannt; wahrscheinlich haben einige Stücke mehrere Titel gehabt. Außerdem schrieb er Elegien, Paiane und eine Prosaschrift über den Chor. Von Sophokles’ Elegie auf Herodot sind Fragmente bekannt. Sophokles hat 20 oder 24 mal im tragischen Agon gesiegt und niemals den dritten Preis erhalten. Er selbst hat seine künstlerische Entwicklung in drei Abschnitte eingeteilt. Seine ersten Stücke seien voll aischyleischen Überschwangs gewesen, die Stücke der mittleren Phase voller Herbheit und Künstlichkeit. Erst in der letzten Phase habe er den persönlichen Stil gefunden. Sophokles sind einige szenische und dramaturgische Neuerungen zu verdanken. Deren bedeutendste war sicherlich die Einführung des dritten Schauspielers und von Bühnenmaschinen; dies muss noch zu Lebzeiten Aischylos’ geschehen sein. Auch hat er die Zahl der Chorsänger von 12 auf 15 erhöht. Anders als Aischylos hat er bis auf eine Ausnahme keine inhaltlich gebundenen Tetralogien geschrieben; doch ist dies keine Neuerung des Sophokles, da man beweisen kann, dass bereits Aischylos und Phrynichos die inhaltliche Gebundenheit der Tetralogien aufgegeben haben. Verlorene bzw. fragmentarisch überlieferte Werke. Vom Satyrspiel Ichneutai ("Die Spürhunde") wurden 1911 in Ägypten ungefähr 400 lesbare Verse auf Papyrus entdeckt. Spirit of St. Louis. Spirit of St. Louis ist der Name des Langstreckenflugzeugs "Ryan NYP" (Kennzeichen: N-X-211) mit dem Charles Lindbergh am 20. Mai 1927 den Atlantik überquerte und den Orteig-Preis für den ersten Nonstopflug von New York nach Paris gewann. Mit dem Namen "Spirit of St. Louis" drückte Lindbergh seinen Dank an die privaten Geldgeber dieses Projektes aus, die aus St. Louis stammten. In der Typbezeichnung "Ryan NYP" steht NYP für die Flug-Mission New York–Paris, für die die Maschine konstruiert wurde. Im behördlich zugewiesenen Luftfahrzeugkennzeichen "N-X-211" steht das X für "experimental" (dt. Experimentalflugzeug). Konstruktion. Propeller und Motor der Spirit of St. Louis Die Ryan NYP ist eine Entwicklung auf Basis des Typs Ryan M-2 von Ryan Airlines und wurde in San Diego gebaut. Es handelt sich um einen Schulterdecker aus Stahlrohr und Holz, der mit Stoff verkleidet ist. Im Gegensatz zu anderen Flugzeugen, die zum Gewinn des Orteig-Preises gebaut wurden, hat es nur einen Motor, einen Wright J-5 mit 166 kW (223 PS), der selbstschmierende Kipphebelwellen und – als erster Verbrennungsmotor – Ventile mit Natriumkühlung hatte. Lindbergh war der Meinung, dass beim Ausfall eines Motors eines voll beladenen mehrmotorigen Flugzeugs die verbleibenden Motoren die Maschine auch nicht in der Luft halten könnten. Das Risiko eines Motorenausfalls steige aber mit der Zahl der Motoren. Der Haupttank ist günstig etwa im Schwerpunkt des Flugzeuges vor der Pilotenkanzel eingebaut, der Pilot kann nur durch ein kleines Periskop nach vorne sehen. Lindbergh benutzte auch dieses nicht, da er als früherer Postflieger daran gewöhnt war, dass Postsäcke die Sicht nach vorn behinderten, und orientierte sich durch Blicke aus den Seitenfenstern. Diese Platzierung ist außerdem für den Piloten sicherer, da er im Falle einer Bruchlandung nicht zwischen Motor und Tank eingeklemmt werden kann. Insgesamt kann die Ryan NYP 1.705 Liter Treibstoff tanken, der mit ca. 1.300 kg mehr als die Hälfte des maximalen Startgewichts von 2.330 kg ausmacht. Die theoretische Reichweite der Maschine liegt bei 6.437 Kilometern, das sind ca. 4.000 Meilen. Alles am Flugzeug ist auf geringen Luftwiderstand und besonders auf geringes Gewicht ausgelegt. Deshalb wurde auch auf einige Instrumente wie Benzinuhr oder Funkgerät verzichtet. Lindbergh kannte den Verbrauch des Motors pro Stunde und den Inhalt der einzelnen Tanks. Deshalb benötigte er auch keine Tankanzeige, sondern er schaltete während des Fluges nach einem genauen Zeitplan zwischen den einzelnen Tanks hin und her, um das Flugzeug in der Trimmung zu halten und nicht einseitig zu belasten. Lindbergh war am Entwurf des Flugzeugs beteiligt und überwachte auch selbst den Konstruktionsprozess. Nonstopflug von New York nach Paris. Startplatz für den Paris-Flug war das "Roosevelt Field" in New York und nach einer Flugstrecke von 5.808,50 km (3.610 Meilen) landete Lindbergh am 21. Mai nach 33 Stunden und 30 Minuten auf dem "Flughafen Le Bourget" in Paris. Damit gewann er den vom Hotelier Raymond Orteig ausgeschriebenen Orteig-Preis von 25.000 US-Dollar für den ersten Nonstopflug von New York nach Paris. Nach dem erfolgreichen Transatlantik-Flug wurden in Paris mehrere gravierende Schäden an der "Spirit of St. Louis" entdeckt, so etwa größere Risse in der Bespannung sowie ein 20 cm langes Loch im Tank. Da die Maschine nach der Landung in Paris von einer begeisterten Menge bestürmt wurde, müssen die Beschädigungen nicht im Flug entstanden sein. Verbleib. Das Flugzeug hängt heute als eines der Exponate im National Air and Space Museum in Washington, D.C.im Eingang an der Decke. Spanische Euromünzen. Die spanischen Euromünzen sind die in Spanien in Umlauf gebrachten Euromünzen der gemeinsamen europäischen Währung Euro. Am 1. Januar 1999 trat Spanien der Eurozone bei, womit die Einführung des Euros als zukünftiges Zahlungsmittel gültig wurde. Umlaufmünzen. Alle Münzen werden in der spanischen Münzprägestätte in Madrid geprägt. Spanische Euromünzen haben für jede der drei Münzreihen ein eigenes Motiv. Die kleinste Reihe wurde von Garcilaso Rollán entworfen, die mittlere Reihe von Begoña Castellanos und die beiden größten Münzen von Luis José Diaz. Alle Designs enthalten die zwölf Sterne der EU, das Prägejahr und die Landesbezeichnung "ESPAÑA". Wie die meisten Euroländer prägt Spanien bereits seit 2007 seine Euromünzen mit der neu gestalteten Vorderseite (neue Europakarte). Erste Prägeserie (1999–2009). Eine erste kleine Veränderung gab es im Prägejahr 2009 – bei dieser Prägeserie sind die 12 Europa-Sterne leicht verkleinert. Zweite Prägeserie (2010–2014). Spanien ist nach Finnland und Belgien das dritte Land der Eurozone, welches seine nationalen Rückseiten einer Neugestaltung unterzieht und somit der Empfehlung der Europäischen Kommission nach einheitlicher Gestaltung der nationalen Rückseiten nachkommt. Bei den Münzen der zweiten Prägeserie wird auf die Hinterlegung einiger Sterne am Rand sowie der Landesbezeichnung verzichtet. Bei den beiden höchsten Werten erscheint die Jahreszahl nun links, das Kürzel der Prägestätte rechts vom Kopf des Monarchen. Dies entspricht der Vorgabe der Europäischen Kommission, nach der die Sterne auf dem Außenring wie auf der europäischen Flagge angeordnet sein sollen. Dritte Prägeserie (ab 2015). Nach der Abdankung des Königs Juan Carlos I. am 18. Juni 2014 folgte ihm sein Sohn als König Felipe VI. im Amt nach. Damit verbunden ist auch eine Neugestaltung der 1- und 2-Euro-Nominale, die ab 2015 Felipes Porträt zeigen werden. Die Münzen mit den kleineren Nennwerten (1, 2, 5, 10, 20 und 50 Cent) bleiben gegenüber der zweiten Prägeserie unverändert. Welterbeserie. Spanien startete 2010 eine 2-Euro-Gedenkmünzserie über spanische Welterbestätten. Insgesamt sind derzeit 43 Orte oder Objekte in Spanien Weltkultur- und/oder Weltnaturerbe (Stand: Ende 2012). Slowenien. Slowenien (), offiziell Republik Slowenien (slowenisch) ist eine demokratische Republik in Mitteleuropa, die an Italien, Österreich, Ungarn, Kroatien und die Adria grenzt. Das Land wurde am 1. Mai 2004 als eines von zehn Beitrittsländern ein Mitgliedstaat der Europäischen Union. Hauptstadt Sloweniens ist das zentral gelegene Ljubljana. Flüsse. Die bedeutendsten Flüsse Sloweniens sind von West nach Ost die Soča (italienischer Unterlauf: Isonzo), die Save (slowenisch Sava), die Drau (slowenisch Drava) und die Mur (slowenisch Mura). Soča und Save entspringen in den Julischen Alpen, Drau und Mur kommen aus Österreich. Außerdem bildet nach Südosten hin die in Kroatien entspringende Kolpa auf etwa 100 km die Grenze zu Kroatien. Alle genannten Flüsse sind im Wesentlichen nicht schiffbar, wurden aber zumindest streckenweise in der Vergangenheit von Flößern genutzt (Bsp.: Drau bei Maribor). Die Soča entwässert zur Adria. Save und Drau sind Nebenflüsse der Donau (Mündungen in Serbien bzw. Kroatien). Die Mur ist ein Nebenfluss der Drau (Mündung an der Grenze zwischen Ungarn und Kroatien). Die Kolpa ergießt sich im kroatischen Karlovac in die Save. Regionen. Trotz seiner geringen Ausdehnung verfügt Slowenien über sehr verschiedenartige Landschaftsformen. Mehr als die Hälfte der Staatsfläche ist mit Wald bedeckt. Im Nordwesten verlaufen die Hochgebirgszüge der Julischen Alpen, Karawanken und Steiner Alpen, die geologisch zu den südlichen Kalkalpen gehören. Im Nationalpark Triglav liegt mit dem namensgebenden Gipfel des Triglav (2864 Meter) die höchste Erhebung des Landes, die auch symbolisch auf dem Landeswappen dargestellt ist. Der Nordosten des Landes ist von Mittelgebirgen und Hügelland geprägt: Bachergebirge (slowenisch "Pohorje", bis 1500 Meter hohe Ausläufer der Zentralalpen), Matzelgebirge (Haloze, bis 880 Meter) und Windische Bühel (350 Meter), die nordöstlich der Mur in die Ebene und Hügel des Übermur-Gebietes (slowenisch Prekmurje) übergehen, während im Mündungsgebiet Drau-Mur die 50 mal 20 Kilometer große so genannte Murinsel (Međimurje) bereits großteils auf kroatischem Staatsgebiet liegt. Beide Flachlandschaften gehen jenseits der ungarischen Grenze in die Pannonische Tiefebene über. Die Landesmitte und den Süden (Teil der Halbinsel Istrien) nehmen ausgedehnte, typische Karst-Flächen ein. Im äußersten Südwesten des Landes liegt die 46,6 Kilometer lange Adria-Küste (Slowenische Riviera), die auch geographisch den tiefstgelegenen Punkt (0 m Meereshöhe) des Landes markiert. Seit dem Zerfall Jugoslawiens wurde mit Kroatien über den genauen Grenzverlauf in der Bucht von Piran gestritten (siehe "Internationale Konflikte der Nachfolgestaaten Jugoslawiens"). Im Zuge des EU-Beitrittes von Kroatien hat man sich darauf geeinigt, diesen Konflikt vor einer internationalen Schiedskommission beizulegen. Grenzen. Die längste internationale Grenze trennt Slowenien von Kroatien (670 km). Diese verläuft zu großen Teilen in Flüssen (Kupa, Sotla, Čabranka) sowie oft in unwegsamen Gebirgsregionen. Die slowenisch-österreichische Grenze im Norden verläuft über 330 km größtenteils im Gebirge (z.B. Karawanken). Im Osten ist die Grenze zu Ungarn 102 km lang. Im Westen grenzt Slowenien auf 232 km an Italien. Oberhalb von Triest verläuft die Grenze zunächst parallel zur Adriaküste auf den Bergen. Die Grenze zu Kroatien war bereits seit der Gründung des zweiten Jugoslawien die administrative Trennlinie zwischen den beiden Teilrepubliken und wurde 1991 mit der Unabhängigkeitserklärung der beiden Länder zur internationalen Grenze. Um den exakten Grenzverlauf, der im gemeinsamen Staat noch keine große Rolle gespielt hatte gab es Streitigkeiten. Im Zuge der Flüchtlingskrise in Europa 2015 erwägt Slowenien den Bau eines Zauns an der Grenze zu Kroatien. Klima. Die Klimaregion Sloweniens bildet den Kernbereich des Illyrischen Übergangsklimas zwischen Alpen und Dinariden, Mittelmeer und Pannonien. Im Südwesten des Landes herrscht schon deutlich mediterranes Klima mit warmen Sommern und milden, feuchten Wintern (Weinbauregion), der Winter und das Frühjahr bringen aber an der Küste häufig kalte Fallwinde, die gefürchtete Bora, mit Schnee in Höhenlagen. Im Landesinneren ist das Klima kontinentaler geprägt, der Nordwesten von typischem Südalpenklima (Südföhn, Winterregen, mit vergleichsweise wenig Schnee). Der Osten ist schon deutlich pannonisch, mit heißen Sommern und kalten Wintern. Natur und Naturschutz. Slowenien ist einer der EU-Staaten mit der größten Biodiversität: Jede fünfzigste weltweit bekannte Festlandtier- und -pflanzenart kommt in Slowenien vor. Das Land unternimmt nach eigener Darstellung große Anstrengungen zur Erhaltung dieser Fauna-, Flora- und Habitatvielfalt. Das Umweltministerium stellt heraus, dass eine intakte Natur einen Wert für den Tourismus darstelle, weshalb das touristische Angebot auf Menschen ausgerichtet sei, die Ruhe suchen, die die Landschaft genießen möchten und Interesse an der Tier- und Pflanzenwelt haben. Slowenien verfügt über einen Nationalpark, der mit seiner Fläche von 83.982 Hektar 4,1 % der Landesfläche umfasst. Er ist gleichzeitig auch Natura 2000-Vogelschutz- und FFH-Gebiet, als UNESCO-Biosphärenreservat anerkannt (seit 2003) und hat seit 2004 das Europadiplom des Europarates. Des Weiteren gibt es 3 Regionalparks, 52 Naturschutzgebiete, 44 geschützte Landschaftsparks, 1217 Naturdenkmäler, 26 Natura 2000-Vogelschutzgebiete und 260 Natura 2000-FFH-Gebiete. Durch die Ausweisung der Natura 2000-Gebiete hat Slowenien 35,52 % der Staatsfläche unter Schutz gestellt. Zum Vergleich: In der gesamten Europäischen Union wurden durchschnittlich 18,16 % als Natura 2000-Gebiete ausgewiesen, in Deutschland sind es 15,47 % der Staatsfläche und in Österreich 14,96 % (Stand: Dezember 2013). In den slowenischen Natura 2000-Gebieten werden 312 Tier- und Pflanzenarten (davon 109 Vogelarten) und 60 Lebensraumtypen geschützt. Slowenien hat einen erheblichen Anteil am Grünen Band Europas und liegt im Blauen Herzen Europas. In den 1990er Jahren gab es in Slowenien mehr als 50 überregional im Umwelt- und Naturschutzbereich tätige Nichtregierungsorganisationen. Bevölkerung. Am 1. Juli 2015 hatte Slowenien 2.063.077 Einwohner. Ethnien. Die Einwohner Sloweniens waren nach der Volkszählung 2002 zu 83,06 % Slowenen; weiterhin lebten damals in Slowenien 1,98 % Serben, 1,81 % Kroaten, 1,1 % Bosniaken, viele von ihnen kamen bereits zu Zeiten Jugoslawiens als Binnenmigranten nach Slowenien. Als Minderheiten sind zwei kleine autochthone Populationen von Italienern in Istrien (0,11 %) sowie Magyaren in der östlichen Region Prekmurje (0,32 %) anerkannt. Außerdem lebt noch eine, mittlerweile sehr kleine, deutschsprachige Restgruppe in der Gottschee, die offiziell aber nicht als ethnische Minderheit anerkannt ist. Bei der Volkszählung von 2002 deklarierten sich 499 Personen (0,03 %) als Sloweniendeutsche sowie 181 (0,01 %) als Österreicher; Deutsch als Muttersprache gaben allerdings 1628 Personen (0,1 %) an. Bei 8,9 % der Bevölkerung war keine ethnische Zuordnung möglich, da keine Angaben gemacht wurden. Sprachen. Amtssprache ist Slowenisch "(Slovenščina)" nach Artikel 11 der Verfassung der Republik Slowenien "(Ustava Republike Slovenije)" von 1991; daneben sind „ethnisch gemischte Gebiete“ „autochthoner“ Minderheiten definiert, in denen Italienisch und Ungarisch (Art. 64) besonderen Schutz genießen. Romani ist keine geschützte Minderheitensprache: Art. 65 der Verfassung fordert für die Volksgruppe der Roma zwar einen spezifischen Schutz, dessen gesetzliche Umsetzung steht aber aus. Derzeit stellen 19 Gemeinden Sloweniens einen Roma-Beauftragten an den Gemeinderat. Die Sprachen der anderen Minderheiten – darunter das früher wichtige Deutsche oder das in Weißkrain auch traditionelle Kroatische und Serbische – genießen keinen Schutz. Das einst in der Region Gottschee (Kočevje) verbreitete Gottscheerische, eine bairische Mundart, ist vom Aussterben bedroht. Deutsch und Italienisch sind neben Englisch schon früh unterrichtete Fremdsprachen, so dass zahlreiche Slowenen eine oder mehr Fremdsprachen beherrschen. Durch den EU-Beitritt des Landes wurde Slowenisch auch Amtssprache der EU. Religion. Laut Zensus von 2002 bekennen sich 57,8 % der Slowenen zur römisch-katholischen Kirche, 2,5 % sind Muslime, 2,3 % orthodox, 0,9 % Protestanten (meist Angehörige der evangelischen Kirche Augsburgischen Bekenntnisses in Slowenien). Der Großteil der in Slowenien lebenden Muslime und orthodoxen Christen stammt aus den anderen Gebieten des ehemaligen Jugoslawiens, wie Bosnien und Serbien. Als „Gläubige, ohne Zugehörigkeit zu einer Konfession“ bezeichnen sich 3,5 % der Slowenen. Als Atheisten sehen sich 10,1 %. Bei 22,8 % der Slowenen kann keine Aussage über ihre Religionszugehörigkeit getroffen werden, da entweder die Frage im Zensus nicht beantwortet wurde oder andere Gründe eine Zuordnung unmöglich machen. Es wird angenommen, dass viele Angehörige der orthodoxen Kirche seit den Balkankriegen verstärkt Konfessionslosigkeit bei den Volkszählungen angeben. Mittelalter bis Anfang 20. Jahrhundert. Man nimmt an, dass sich die slawischen Vorfahren der Slowenen im 6. Jahrhundert ins Gebiet des heutigen Slowenien begaben und dort niederließen. Im 7. Jahrhundert entstand das slawische Fürstentum Karantanien. Im Verlauf der nächsten zwei Jahrhunderte kam Karantanien zunächst unter bairische, dann unter fränkische Vorherrschaft. In der Mitte des 10. Jahrhunderts war durch den Sieg des Königs und späteren Kaisers Otto I. in der Schlacht auf dem Lechfeld (bei Augsburg) der Weg frei für die Ostkolonisation des Heiligen Römischen Reiches. Die zuvor das Gebiet um das heutige Slowenien, Österreich, Süddeutschland und Italien unsicher machenden Ungarn ließen sich daraufhin in der Pannonischen Tiefebene nieder. Dadurch wurden die Siedlungsgebiete der Alpenslawen in Tschechen, Slowaken und Slowenen getrennt (Westslawen und Südslawen). Karantanien wurde in das Herzogtum Baiern und damit in das Ostfränkische Reich eingegliedert, und ab 976 zum Herzogtum Kärnten des Heiligen Römischen Reiches. Die Markgrafschaft Krain kam über die steirischen Herzöge, Babenberger (Friedrich II.) und Ottokar von Böhmen zu den (österreichischen) Habsburgern. Im Zuge des Aufstiegs der Habsburger Mitte des 13. Jahrhunderts wurden große Gebiete des heutigen Sloweniens habsburgisch. Eine Ausnahme bildete die Grafschaft der Sanegg in Cilli, die sich durch geschickte Heiratspolitik bis zum Aussterben der Dynastie 1456 gegen die habsburgische Hegemonie behaupten konnte. Danach stand das spätere slowenische Territorium bis zum Ende des Ersten Weltkriegs – mit einer kurzen Unterbrechung während der Napoleonischen Kriege – unter habsburgischer Herrschaft. Nach dem Ersten Weltkrieg. Ausrufung des "Staates der Slowenen, Kroaten und Serben" 1918 in Ljubljana Das schon im 19. Jahrhundert zunehmend aufflammende Nationalbewusstsein und die Auflösung Österreich-Ungarns gegen Ende des Ersten Weltkrieges führte am 6. Oktober 1918 zunächst zur Bildung eines "Nationalrats der Slowenen, Kroaten und Serben". Als italienische Truppen in die slowenische Küstenregion vordrangen und im Norden um Kärnten kämpften (Kärntner Abwehrkampf), bat der Nationalrat das Königreich Serbien um militärische Hilfe. Aus dieser Kooperation entstand am 1. Dezember 1918 das Königreich der Serben, Kroaten und Slowenen (abgekürzt auch "SHS-Staat"). Der Vertrag von Saint-Germain 1919 sprach dem SHS-Staat die Untersteiermark mit der Hauptstadt Marburg (slowenisch: Maribor) zu sowie mehrheitlich slowenischsprachige Teile des Kärntner Unterlandes (und zwar das Gebiet um Unterdrauburg (seither slowenisch: Dravograd), das Mießtal und Seeland (Jezersko)). Bei einem für den SHS-Staat positiven Ausgang einer Volksabstimmung in einem bereits militärisch besetzten gemischtsprachigen Gebiet Kärntens (Zone A) hätte auch in einem „Zone B“ genannten Gebiet, das sogar die Kärntner Landeshauptstadt Klagenfurt einschloss, über den Verbleib bei Österreich abgestimmt werden sollen. Durch den Vertrag von Trianon 1920 mit Ungarn ging das Übermurgebiet im Norden (slowenisch: Prekmurje) an das Königreich SHS. Im Grenzvertrag von Rapallo (November 1920) erhielt andererseits Italien die besetzte slowenische Küstenregion. 1929 – neun Monate nach einem Staatsstreich König Alexanders Karađorđević – wurde das Land in Königreich Jugoslawien umbenannt. Dadurch verstärkte sich die schon vorher zunehmende Dominanz der Serben im Königreich; zudem litten die Slowenen unter dem Verlust ihrer Küstenregion. Zunehmend innenpolitisch zerrüttet, bewahrte das Königreich die Neutralität. Zweiter Weltkrieg. Am 25. März 1941 wurde der bis dahin die Regierungsgeschäfte führende Prinz Paul (seit 1934 war der minderjährige Peter II. Staatsoberhaupt, Prinz Paul war sein Onkel) von den Achsenmächten zum Mitpaktieren gezwungen. Die Militärführung putschte aber bereits zwei Tage später und setzte Kronprinz Peter II. als Machthaber ein. Die Achsenmächte betrachteten diese Vorgänge an ihrer südöstlichen Flanke als Gefahrenquelle und besetzten im April 1941 das gesamte Jugoslawien. Slowenien wurde danach unter Italien, Ungarn und Deutschland aufgeteilt. Bereits wenige Tage nach der Besetzung Sloweniens wurde als kommunistisch geführte Widerstandsorganisation die Befreiungsfront (Osvobodilna Fronta) gegründet. Zahlreiche Partisanenverbände formierten sich unter den königstreuen und nach Beginn des Deutschen Krieges gegen die Sowjetunion auch unter den kommunistischen Oppositionellen (unter der Führung Titos). Zu Beginn des Zweiten Weltkrieges wurden etwa 80.000 Slowenen aus den von Deutschland besetzten Gebieten hauptsächlich nach Deutschland, aber auch nach Rumänien und Bulgarien deportiert, um dort Zwangsarbeit zu verrichten. Daneben wurden während des Krieges Kinder slowenischer Partisanen vor allem nach Franken verschickt, die als Vergeltungsmaßnahme unter Zwang von ihren Familien getrennt wurden. Am Ende des Zweiten Weltkriegs floh nahezu die gesamte deutschsprachige Minderheit oder wurde vertrieben, interniert oder ermordet. Slowenische und kroatische Verbände, die auf Seiten der Achsenmächte gestanden haben und die noch nach dem 8./9. Mai 1945 die Kampfhandlungen gegen die jugoslawische Volksbefreiungsarmee fortsetzten, flohen nach Kärnten und begaben sich in den Schutz der englischen Besatzungstruppen. Diese lieferten allerdings die slowenischen und kroatischen Kriegsgefangenen und Zivilisten an die Tito-Partisanen aus, die sie auf Todesmärschen und in dem "Massaker von Bleiburg" in Kärnten, im Gebiet um Marburg und in den Schluchten des Hornwaldes ermordeten. Kommunistische Regierung. Nach dem Krieg wurde am 29. November 1945 die Demokratische Föderative Volksrepublik Jugoslawien gegründet, ab 1963 nannte sie sich "Sozialistische Föderative Republik Jugoslawien" (SFRJ). Slowenien war als Sozialistische Republik Slowenien eine Teilrepublik der SFRJ. Das seit 1947 theoretisch unter UNO-Verwaltung stehende Freie Territorium Triest mit einem Großteil von Istrien wurde 1954 im "Londoner Memorandum" provisorisch zwischen Italien und Jugoslawien aufgeteilt, doch erst am 10. November 1975 wurde diese provisorische Aufteilung im Vertrag von Osimo besiegelt. Im Zuge dieser Aufteilung gelangte Slowenien in den Besitz von Koper "(Capodistria)" und Portorož "(Portorose)" mit knapp 50 Kilometer Adriaküste, doch ist die Grenzziehung zwischen den ehemaligen jugoslawischen Teilrepubliken Kroatien und Slowenien in diesem Gebiet noch immer nicht völlig präzise geregelt. Unabhängigkeit. Slowenische Einheiten bekämpfen jugoslawische Panzer 1991 am Grenzübergang bei Rožna Dolina Die wachsende Unzufriedenheit mit der Belgrader Führung während der 1980er-Jahre mündete in die Unabhängigkeitserklärung Sloweniens am 25. Juni 1991. Der darauffolgende Einmarsch jugoslawischer Truppen konnte im sogenannten 10-Tage-Krieg durch die Territorialverteidigung erfolgreich abgewehrt werden, was die Verabschiedung einer demokratischen Verfassung nach europäischem Vorbild am 23. Dezember 1991 ermöglichte. Schon binnen Monatsfrist wurde der neue Staat von allen (damals zwölf) Mitgliedern der EG anerkannt. Die ethnisch relativ homogene Bevölkerung und die durch die nur kurzen und wenigen Kriegshandlungen geringen Zerstörungen ermöglichten eine schnelle Stabilisierung und demokratische Entwicklung des Staates. Dies wurde mit dem Beginn der Beitrittsverhandlungen zur EU im November 1998 honoriert. Die Verhandlungen konnten erfolgreich abgeschlossen werden und die slowenische Bevölkerung stimmte in einer Volksabstimmung am 23. März 2003 mit deutlichen Mehrheiten (89,6 % bzw. 66,1 %) dem Beitritt des Landes zur Europäischen Union und zur NATO zu. Am 1. Mai 2004 trat Slowenien – zusammen mit neun anderen Ländern – der Europäischen Union bei („Osterweiterung“). An diesem Tag trat das Land auch dem Schengener Abkommen bei, dies führte am 21. Dezember 2007 zum Wegfall der Grenzkontrollen an den Grenzen zu Österreich, Ungarn und Italien. Politik. Staatsoberhaupt der Republik Slowenien ist der Präsident, der eine vorwiegend repräsentative Funktion ausübt und alle fünf Jahre direkt von der Bevölkerung gewählt wird. Als Teil der exekutiven Gewalt wird er vom Ministerpräsidenten und dem Ministerrat unterstützt, die beide von der Nationalversammlung gewählt werden. Das slowenische Parlament besteht aus zwei Kammern: Der Nationalversammlung (Državni zbor) und dem Nationalrat (Državni svet). Die Nationalversammlung setzt sich aus 90 Abgeordneten zusammen, die jeweils zum Teil durch direkte Wahl beziehungsweise durch Proportionalwahlrecht bestimmt werden. Die autonomen Minderheiten der Italiener und Ungarn haben ein garantiertes Volksgruppenmandat. In Fragen, welche ausschließlich die jeweiligen Rechte der Minderheit betreffen, besitzen diese Volksgruppenabgeordneten ein absolutes Vetorecht. In den Nationalrat werden 40 Abgeordnete aus sozialen, wirtschaftlichen und regionalen Interessengruppen entsandt. Die Parlamentswahlen finden alle vier Jahre statt. Im Zuge der NATO-Osterweiterung wurde Slowenien am 29. März 2004 Mitglied der NATO. Seit 1. Mai 2004 ist es Mitglied der Europäischen Union. Noch immer ist der genaue Grenzverlauf zwischen Slowenien und Kroatien nicht geklärt. Am 6. Juni 2010 wurde in einem Volksentscheid beschlossen, diese Streitigkeiten mit Hilfe einer internationalen Kommission unter Führung der EU beizulegen. Militär. Die Slowenischen Streitkräfte verfügen über Land-, Luft- und Seeeinheiten, die aber nicht als selbständige Teilstreitkräfte organisiert sind. Es gibt ca. 7000 aktive slowenische Soldaten. Der Wehretat lag im Jahr 2014 bei 486 Millionen US-Dollar, was einem Anteil von 1.0 % des damaligen Bruttoinlandprodukts entspricht. Verwaltungsgliederung. Slowenien ist in 212 Gemeinden (slowenisch "občine," Sg. "občina"), darunter elf Stadtgemeinden, gegliedert. Zwischen der Gemeindeebene und dem Gesamtstaat ist keine weitere administrative Ebene zwischengeschaltet. Am 22. Juni 2008 stimmten bei einer Volksabstimmung 57 % der Wähler für einen Vorschlag der Regierung, das Land in 13 Provinzen aufzuteilen. Die Wahlbeteiligung lag jedoch nur bei 11 %. Da die für August geplante Sondersitzung des Parlaments abgesagt wurde, wurde über diese Frage nicht mehr abgestimmt. NUTS-2-Regionen. Diese Regionen wurden nach Gesichtspunkten der Regionalentwicklung eingeteilt. Während Westslowenien die wirtschaftsstarken Gebiete um Ljubljana, Kranj und Koper umfasst, liegen in Ostslowenien die schwächer entwickelten Landesteile. Landschaften. Zudem gibt es auch eine Gliederung in fünf "historische Landschaften," die der Verwaltungsgliederung Österreich-Ungarns entsprechen und als Gebietsbezeichnungen nicht nur üblich sind, sondern bis heute Teil der regionalen Identität sind. Insbesondere in der slowenischen Steiermark existiert eine starke Identifikation mit einem slowenischen Steirertum in Abgrenzung zur Hauptstadt Ljubljana. Straße. Slowenien besitzt eine gute Infrastruktur mit einem modernen Autobahnnetz. Die Zentren sind die Hauptstadt Ljubljana und Maribor. Gut eingebunden sind auch die Tourismus- und Skigebiete in den Julischen Alpen und an der kurzen Adriaküste. Seit dem 1. Juli 2009 gilt in Slowenien ein neues Mautsystem. Es gibt eine Kurzzeitvignette (sieben Tage) für 15 Euro, eine Monatsvignette für 30 Euro und eine Jahresvignette für 110 Euro. Motorradfahrer bezahlen 7,50 Euro für sieben Tage, 25 Euro für ein halbes oder 47,50 Euro für ein ganzes Jahr. Die zwei längsten Autobahnen Sloweniens sind die A1, die in nordost-südwestlicher Richtung von Maribor nach Ljubljana und weiter nach Koper führt, sowie die A2, die in nordwest-südöstlicher Richtung vom Karawankentunnel ebenfalls über Ljubljana zur kroatischen Grenze gegen Zagreb führt. Diese zwei Autobahnen wurden 2009 vollendet und verbinden die Zentren des Landes. Flugverkehr. Der größte internationale Flughafen heißt "Letališče Jožeta Pučnika Ljubljana" und liegt bei Brnik in der Nähe der Hauptstadt Ljubljana. Daneben gibt es die zwei kleineren Flughäfen Maribor und Portorož. Seehafen. Mit dem Hafen Koper (ital. Capodistria) besitzt Slowenien Übersee-Handelsverbindungen in alle Welt und ist Durchgangsland für Waren nach Mitteleuropa. Eisenbahn. Die slowenische Staatsbahnen Slovenske železnice betreiben ein ausgedehntes Streckennetz mit einer Länge von 1229 km – wovon 504 km mit 3000 Volt Gleichstrom elektrifiziert sind –, das viele slowenische Städte miteinander verbindet, darunter die wichtige Verbindung zum Seehafen Koper. Entlang der Save verlaufen die beiden wichtigsten Bahnverbindungen von Villach in Österreich über Ljubljana nach Zagreb in Kroatien und von Wien über Graz, Maribor, Ljubljana nach Rijeka/Koper/Triest (Bahnstrecke Spielfeld-Straß–Triest). Eine weitere wichtige Eisenbahnverbindung durch Slowenien verbindet Italien mit Ungarn. Nach der Unabhängigkeit wurde die zuvor stillgelegte Bahnstrecke Zalalövő–Murska Sobota als direkte Verbindung nach Ungarn wieder aufgebaut. Landschaftlich besonders reizvoll ist die Strecke der Wocheinerbahn, die früher eine wichtige Verbindung zwischen Wien und Triest war, inzwischen aber vorwiegend dem lokalen Verkehr dient. Wirtschaft vor den Jugoslawienkriegen. Vor dem Slowenien-Krieg hatte Slowenien, gemessen am Anteil des jugoslawischen BIP, die dritthöchste Wirtschaftsleistung und stand gemessen am BIP je Einwohner an erster Stelle der jugoslawischen Teilrepubliken. Überblick. 2004 wurde die ehemalige jugoslawische Teilrepublik zusammen mit neun anderen Staaten EU-Mitglied. Als einziger dieser zehn Staaten konnte es am 1. Januar 2007 auf den Euro als "Währung" umstellen, wobei die Relation 239,64 Tolar für 1 Euro betrug. Der Übergangszeitraum, in dem sowohl der Euro als auch der Tolar gesetzliches Zahlungsmittel waren, betrug zwei Wochen (1. bis 14. Januar 2007). Das Land hat eine gemischte, teilweise lokal ausgerichtete Wirtschaft, die zwischen Landwirtschaft, Industrie, Dienstleistungen und Fremdenverkehr relativ ausgewogen ist. Nennenswerte Arbeitgeber sind beispielsweise das Öl- und Energieunternehmen Petrol, der Haushaltswarenhersteller Gorenje, das Pharmazieunternehmen Krka, oder das Revoz-Autowerk in Novo Mesto, eine Tochter von Renault. Das Pro-Kopf-Einkommen der Slowenen liegt im europäischen Mittelfeld. Ausgedrückt in Kaufkraftstandards erreichte es 2012 einen Index von 82 (EU-27= 100). Das Bruttoinlandsprodukt (BIP) betrug 2013 pro Kopf 23.289 $. Damit lag Slowenien noch vor Portugal, und deutlich vor allen andern osteuropäischen EU-Ländern wie beispielsweise Tschechien, Polen oder Estland. Die Auslandsverschuldung belief sich 2014 auf ca. 9,8 Mrd. Euro. Das BIP-Wachstum lag im vierten Quartal 2014 bei 2,4 % (1997-2014ø: 2,53 %). Die Inflationsrate war bis 2003 relativ hoch (2001: 8,4 %, 2002: 7,5 %) und sank erst 2005 auf etwa 2 Prozent. Auf Grund der Finanzkrise ab 2007 hat Slowenien mit einer erhöhten Arbeitslosigkeit zukämpfen, die bei 13,5 % (Jan. 2015) lag, sowie mit einer niedrigen Inflationrate, bzw. teilweise sogar Deflation, die bei -0,3 % stand (März 2015). Landwirtschaft. Die Unabhängigkeit Sloweniens läutete in der Landwirtschaft des Landes eine Phase der „Marktbereinigung“ ein. Die Zahl der landwirtschaftlichen Betriebe nahm rapide ab: eine Entwicklung, die sich erst Anfang der 2000er Jahre verlangsamte. Im Jahre 2005 betrug die gesamte landwirtschaftliche Nutzfläche 648.113 ha und die Gesamtzahl der Betriebe 77.000, wovon 85 % weniger als zehn Hektar landwirtschaftlicher Nutzfläche vorzuweisen hatten. Der Gesamtwert der landwirtschaftlichen Produktionsleistung betrug im Jahr 2005 959 Millionen Euro, was damals etwas weniger als 2 % des BIP des Landes entsprach. Anlass zur Sorge aus Sicht der slowenischen Regierung bereitet die Altersstruktur der Landwirte: Nur 18,8 % von ihnen sind jünger als 45 Jahre, 56,9 % dagegen älter als 55 Jahre. Ein wichtiger Zweig der slowenischen Landwirtschaft ist die Viehzucht. Sie trägt zu mehr als 50 % zur Produktionsleistung bei (2005: 511 Mio. Euro). Entsprechend groß ist der Anteil des Wiesen- und Weidelandes und der Futteranbauflächen mit jeweils 60 % und 20 % der landwirtschaftlichen Nutzfläche Sloweniens. Trotz leichten Rückgangs seit Mitte der 1990er macht der Viehbestand an Rindern und Schweinen den größten Teil der Viehzucht aus (452.517 Rinder bzw. 547.432 Schweine im Jahr 2005). Die Zahl von Ziegen und Schafen (zusammen) sowie Pferden hat sich seit 1997 zwar in etwa verdoppelt, bleibt aber mit 154.832 und 19.249 Stück deutlich dahinter. Die Lebensmittel- und Getränkeindustrie Sloweniens musste in den letzten 20 Jahren gleich zwei große Krisen verkraften: Zum einen das Wegbrechen der Absatzmärkte im ehemaligen Jugoslawien seit Anfang der 1990er Jahre und ab 2004 die starke Konkurrenz der europäischen Großkonzerne nach dem EU-Beitritt des Landes. Vorteilhaft war der EU-Beitritt für die sogenannten benachteiligten landwirtschaftlichen Gebiete (im Sinne der Richtlinie 75/268/EWG des Rates vom 28. April 1975 über die Landwirtschaft in Berggebieten und in bestimmten benachteiligten Gebieten.) Für diese schwer zugänglichen und häufig wenig Ertrag bringenden Gebiete, von denen Slowenien 440.349 ha besitzt, sieht die EU Förderungsmaßnahmen vor, um die Aufgabe der Landwirtschaft in diesen Landstrichen zu verhindern. Ein bedeutendes ökonomisches Wachstumspotenzial wird der Forstwirtschaft bescheinigt. 59,8 % der Fläche Sloweniens sind mit Wald bedeckt, was im europäischen Vergleich nur von Schweden und Finnland übertroffen wird. In den überwiegend als Mischwald gewachsenen Forsten dominieren Fichte (32 %) und Buche (31 %). Trotz der großen Ausdehnung der slowenischen Wälder trägt die Forstwirtschaft zu nur 0,2 % zum BIP des Landes bei. Einer stärkeren wirtschaftlichen Nutzung steht die Tatsache entgegen, dass die Wälder im Hinblick auf ihre Besitzverhältnisse sehr stark fragmentiert sind. 72 % der Gesamtfläche sind in Privatbesitz von ca. 489.000 Eigentümern, was eine durchschnittliche Größe von weniger als drei Hektar pro Eigentümer ergibt. Diese Zerstückelung erschwert die optimale forstwirtschaftliche Nutzung der slowenischen Wälder. Einen relativ hohen Anteil an der landwirtschaftlichen Fläche nimmt der Weinbau ein. Etwa 40.000 private und professionelle Winzer pflegen den Weinbau oft schon in der fünften oder sechsten Generation. Verbessertes Know-how und die Auslese der Trauben führten zu einem Qualitätsgewinn in der breiten Masse der angebotenen Weine. Die Mengen aus habsburgischer und vorkommunistischer Zeit wurden wieder erreicht. Industrie. In der Industrie sind rund 40 % der arbeitenden Bevölkerung tätig. Die Automobilindustrie hat mit über 20 % den größten Anteil am Export Sloweniens. Neben dieser sind die Elektro- und Elektronikindustrie (zirka 10 %), Metallverarbeitung und Maschinenbau (10 %) sowie die chemische und pharmazeutische Industrie (9 %) von größter Bedeutung. Ein wachsender Industriezweig ist durch die Automobilindustrie (und Automobilzulieferindustrie im weitesten Sinne) unter anderem aufgrund des Renault-Werkes gegeben. Das Gewerbe trägt insgesamt 27 % zum BIP bei. Dienstleistungen. Seit seiner Unabhängigkeit im Jahre 1991 konnte Slowenien seinen Dienstleistungssektor beträchtlich ausbauen; er stellt mittlerweile 53 % der Arbeitsplätze im Land. Slowenien besitzt auch bereits ein für Mitteleuropa gut ausgebautes Verkehrssystem. Neben den kulturellen und wirtschaftlichen Zentren in Ljubljana, Hauptstadt mit eigenem internationalem Flughafen, sowie Maribor besteht vor allem in den Julischen Alpen, in den Höhlen von Postojna und an der Küste des Adriatischen Meeres Tourismus mit entsprechender Infrastruktur. Durch den Seehafen Koper () besitzt Slowenien Übersee-Handelsverbindungen in alle Welt und ist Durchgangsland für Waren nach Mitteleuropa. Staatshaushalt. Der Staatshaushalt umfasste 2012 Ausgaben von umgerechnet 22,59 Milliarden US-Dollar, dem standen Einnahmen von umgerechnet 20,5 Milliarden US-Dollar gegenüber. Daraus ergibt sich ein Haushaltsdefizit in Höhe von 4,6 % des Bruttoinlandsprodukts. Die Staatsverschuldung betrug 2012 85,3 Milliarden US-Dollar oder 53,3 % des BIP. Sport. a> bei den Olympischen Winterspielen 2010 (Siegerehrung Super-G) Neben Fußball spielt Basketball bei den Mannschaftssportarten eine herausragende Rolle in Slowenien. Zudem erlebt der Handball seit der Handball-Europameisterschaft 2004 im eigenen Land und dem dabei erreichten Vize-Europameistertitel einen neuen Aufschwung. Auch im Vereinshandball machen die slowenischen Mannschaften auf europäischer Ebene durch beachtenswerte Ergebnisse auf sich aufmerksam. In der Saison 2003/04 konnte der Serienmeister RK Celje sogar mit dem Gewinn der EHF Champions League den wichtigsten europäischen Vereinstitel nach Slowenien holen. Der Wintersport hat in Slowenien ähnlichen Stellenwert wie in Österreich oder der Schweiz. In Planica findet regelmäßig das FIS-Weltcup-Finale der Skispringer auf der dortigen Flugschanze Letalnica bratov Gorišek statt. Diese Flugschanze ist die zweitgrößte der Welt. Weltklassespringer neuerer Zeit sind Primož Peterka und Skiflugweltmeister Robert Kranjec. Im Alpinsport sind Bojan Križaj, Jure Košir, Špela Pretnar, Urška Hrovat oder Tina Maze und Mateja Svet zu nennen. Der alpine Skiweltcup macht jährlich in Maribor bei den Rennen um den Goldenen Fuchs und in Kranjska Gora beim Vitranc-Pokal Station. Die slowenische Skifirma Elan wurde insbesondere mit den Siegen Ingemar Stenmarks bekannt. Im Rahmen der Speedway-Einzel-Weltmeisterschaft findet seit mehreren Jahren in Krško der Grand Prix von Slowenien statt. Slawische Sprachen. Die slawischen Sprachen (sprachwissenschaftlich auch "slavisch") bilden einen Hauptzweig der indogermanischen Sprachen und stehen hier den baltischen Sprachen am nächsten. Man unterscheidet gewöhnlich Ostslawisch, Westslawisch und Südslawisch. Etwa 300 Millionen Menschen sprechen eine der rund 20 slawischen Sprachen als Muttersprache, 400 Millionen inklusive Zweitsprecher. Mit Abstand die sprecherreichste slawische Sprache ist das Russische mit rund 145 Millionen Muttersprachlern und 250 Millionen inklusive der Zweitsprecher. Weitere bedeutende slawische Sprachen sind Ukrainisch und Polnisch (jeweils etwa 50 Millionen Sprecher), fast alle größeren slawischen Sprachen sind Nationalsprachen ihrer Länder. Die Wissenschaft von den slawischen Sprachen, Literaturen und Kulturen heißt "Slawistik". Urslawisch und die Entwicklung der slawischen Sprachen. Der slawische Sprachzweig ist innerhalb des Indogermanischen am nächsten mit dem Baltischen verwandt (Balto-slawische Hypothese), was ausnahmslos durch sämtliche lexikostatistischen und glottochronologischen Berechnungen gestützt wird. Die slawischen Sprachen sind aus einer gemeinsamen Vorgänger- oder Protosprache entstanden, die man "Urslawisch" oder "Protoslawisch" nennt und die der ältesten bekannten slawischen Schriftsprache, dem Altkirchenslawischen, zeitlich am nächsten kommt. Die drei Hauptzweige (Ost-, West- und Südslawisch) haben sich wahrscheinlich in der Mitte des 1. Jahrtausends n. Chr. aus dem Urslawischen entwickelt, danach kam es durch weitere Wanderungen zur Ausbildung der heutigen Vielfalt. Große Bedeutung bei der Ausformung des Slawischen aus dem Indogermanischen haben die Lautprozesse der Palatalisierung und der Tendenz zur steigenden Silbensonorität. Klassifikation der slawischen Sprachen. Ostslawische Sprachen Westslawische Sprachen Südslawische Sprachen (*) Dialektbrücke zwischen Polnisch und Tschechisch † bedeutet, die jeweilige Sprache ist ausgestorben Bosnisch, Kroatisch und Serbisch stellen aus sprachgenetischer Sicht eine gemeinsame Einzelsprache dar, auch Serbokroatisch genannt. Allerdings gibt es Unterschiede z. B. im Wortschatz, der entsprechend der alten Grenze zwischen West- und Oströmischem Reich im Kroatischen mehr lateinische Lehnwörter aufweist, im Serbischen mehr griechische (vgl. Unterschiede zwischen den serbokroatischen Standardvarietäten). Nach dem Zerfall Jugoslawiens wurden drei nationale Standardsprachen etabliert. Es ist davon auszugehen, dass sich diese drei Varietäten in Zukunft weiter auseinanderentwickeln werden. Als vierte Sprache wird möglicherweise Montenegrinisch (die Form des Serbischen in Montenegro) den Status einer Standardsprache erreichen. Andererseits sind auch Serbisch und Bulgarisch, Tschechisch und Slowakisch, Russisch, Weißrussisch und Ukrainisch, sowie einige andere jeweils untereinander bis zu einem gewissen Grad verständlich. Mazedonisch wiederum wird von bulgarischer und griechischer Seite gern als bulgarischer Dialekt betrachtet. Einen guten Eindruck vom Verwandtschaftsgrad der einzelnen slawischen Sprachen gibt die unten angeführte Tabelle slawischer Wortgleichungen. Geographische Verbreitung und Sprecherzahlen. Die folgende Tabelle enthält eine Übersicht über die geographische Verbreitung und Sprecherzahlen der slawischen Sprachen, gegliedert nach den drei Hauptzweigen. In der Spalte "Verbreitung" sind Gebiete, in denen die betreffende Sprache Amtssprache ist, fett und Gebiete, in die die betreffende Sprache erst durch Auswanderungen in jüngerer Zeit gelangt ist, kursiv hervorgehoben. Standardsprachen und Mikroliteratursprachen. Es ist in der Slawistik üblich, slawische Sprachen in „Standardsprachen“ und „Mikroliteratursprachen“ einzuteilen. Von vielen Forschern werden manche dieser Kleinsprachen aber nur als Dialekte oder Varietäten von Standardsprachen aufgefasst (vor allem in der angelsächsischen Literatur). Die Standardsprachen sind nach dem Zerfall Jugoslawiens und der Aufteilung der Tschechoslowakei exakt die slawischen Sprachen mit dem Status einer Nationalsprache. Die Klassifizierung der sorbischen Sprachen wird unterschiedlich gehandhabt, allerdings fehlen insbesondere dem Niedersorbischen die meisten Kriterien einer „Standardsprache“. Ausgestorbene slawische Sprachen. Die wichtigste ausgestorbene slawische Sprache ist das zum südslawischen Zweig gehörende Altkirchenslawische, eine Frühform des Bulgarischen, das in etwa 30 Handschriften und einigen Inschriften des 10. und 11. Jahrhunderts bezeugt ist. Vor allem anhand des Altkirchenslawischen lässt sich das Proto-Slawische, die hypothetische gemeinsame Vorgängersprache aller slawischen Sprachen, weitgehend erschließen. Weiterentwicklungen des Altkirchenslawischen – durch lokale Substrateinflüsse und bewusste Normierungsansätze entstandene, sogenannte Redaktionen des Kirchenslawischen – spielten bis zur Neuzeit eine zentrale Rolle als Literatursprache in den orthodox geprägten slawischen Gebieten. Auch heute noch wird das Neukirchenslawische in fast allen slawisch-orthodoxen Kirchen als Liturgiesprache verwendet. Im Zuge der deutschen Ostsiedlung wurde eine größere Zahl von westslawischen Völkern assimiliert oder verdrängt, ihre Sprachen sind ausgestorben. Dies betrifft zunächst die slawischen Stämme zwischen Elbe und Oder und der Insel Rügen, die sich zum Beginn des 15. Jahrhunderts sprachlich assimilierten, dann das Polabische (auch Drawänopolabisch) im Wendland bei Lüchow (Wendland) und Dannenberg (Elbe), das in der ersten Hälfte des 18. Jahrhunderts ausgestorben ist. Schließlich das bis kurz nach 1900 in Pommern gesprochene Slowinzische. Auch die Sprecherzahl der beiden sorbischen Sprachen geht seit Jahrhunderten stetig zurück, das Niedersorbische muss heute als akut bedroht gelten. Grammatik im Vergleich. Slawische Sprachen weisen viele gemeinsame grammatische Merkmale auf, von denen das prominenteste der Aspekt sein dürfte. Außerdem wird die Belebtheitskategorie im Paradigma vor allem maskuliner Substantive markiert. Wortschatz im Vergleich. Der Wortschatz des Urslawischen kann teilweise mit Methoden der vergleichenden Sprachwissenschaft anhand später schriftlich festgehaltener slawischer Sprachen sowie überlieferter slawischer Wörter in anderen Sprachen rekonstruiert werden. In der folgenden Tabelle sind einige slawische Wortgleichungen mit den rekonstruierten urslawischen Formen (zweitletzte Spalte) und der entsprechenden indogermanischen Wortwurzel (letzte Spalte) dargestellt. Diese Tabelle zeigt den engen Verwandtschaftsgrad der slawischen Sprachen untereinander. Das Beispiel "Kopf" zeigt deutlich die bereits beim urslawischen Lautprozess der Tendenz zur steigenden Silbensonorität einsetzende Auseinanderentwicklung der drei slawischen Sprachzweige. Rekonstruierte, nicht belegte Formen werden mit einem vorangestellten Sternchen "*" markiert. Die in kyrillischer Schrift geschriebenen Sprachen (Russisch, Ukrainisch, Bulgarisch, Mazedonisch, Altkirchenslawisch) werden transliteriert. Einige deutsche Wörter slawischer Herkunft. Doline – Droschke – Grenze – Gurke – Karst – Kolchos – Kren – Nerz – Quark – Reizker – Ogonek – Petschaft – Peitsche – Pistole– Pogrom – Ponor – Roboter – Samowar – Sputnik – Stieglitz – Troika – Vampir – Weichsel – Zobel – Zeisig Deutsche und österreichische Ortsnamen slawischer Herkunft. Berlin, Chemnitz, Dresden, Görlitz, Graz, Leibnitz, Leipzig, Lübeck, Priwall, Rostock Skorbut. Der Skorbut ist eine Vitaminmangelkrankheit, die bei anhaltendem Fehlen von Vitamin C in der Nahrung nach zwei bis vier Monaten auftritt. Bei Säuglingen wird die Erkrankung auch als Möller-Barlow-Krankheit oder Möller-Barlow-Syndrom bezeichnet, nach Sir Thomas Barlow (1845–1945) und Julius Otto Ludwig Möller (1819–1887). Symptome und Beschwerden. Die Leistungsfähigkeit und die Arbeitskraft lassen erheblich nach. Skorbut kann zum Tod durch Herzschwäche führen. Die meisten Symptome des Skorbut gehen auf die fehlerhafte Biosynthese des Kollagens zurück. Vitamin C ist ein wichtiger Cofaktor bei der Modifizierung der Aminosäuren Prolin und Lysin zu Hydroxyprolin und Hydroxylysin (Hydroxylierung). Bei fehlender Hydroxylierung werden nur schadhafte Kollagenmoleküle gebildet, die ihrer Funktion als Strukturprotein nicht nachkommen können. Die bei schwerem Skorbut auftretende Depression hingegen könnte mit der gestörten Bildung von Noradrenalin, sekundär Adrenalin sowie Serotonin zusammenhängen, da deren Synthese durch die Dopamin-β-Hydroxylase (im Falle des (Nor-)Adrenalins) Vitamin-C-abhängig erfolgt. In Röntgenaufnahmen zeigen sich deutliche Abhebungen der Knochenhaut durch Blutungen (subperiostale Hämorrhagien), besonders an den Metaphysen. Bei Kindern und Jugendlichen sind die Wachstumsfugen verbreitert und unregelmäßig, oft mit einer zusätzlichen weißen Linie metaphysär (Frankl-Linie) und einer hypodensen „Trümmerfeld“-Zone darunter, die sog. „Skorbut-Linie“. Das Knochenalter ist meist ein oder zwei Jahre hinter dem biologischen Alter zurück. Ursachen und Behandlung. Die Ursache von Skorbut ist der Mangel an Vitamin C. Die Behandlung der Krankheit besteht somit in der Einnahme von Vitamin C, zum Beispiel als Vitamintabletten, Saft aus Zitrusfrüchten, reichlich Obst oder Gemüse. Stoffwechsel-Untersuchungen mit 14C-markiertem Vitamin C zeigen, dass der tägliche Umsatz beim Menschen unabhängig von der Vitamin-C-Zufuhr etwa 20 mg beträgt. Die Fachinformation des Bundesinstitut für Arzneimittel und Medizinprodukte (BfArM) gibt für Vitamin C einen täglichen Gesamt-Turnover von etwa 1 mg/kg Körpergewicht an. Der Tagesbedarf eines gesunden Erwachsenen beträgt laut Empfehlung der Deutschen Gesellschaft für Ernährung 100 mg. Namensherkunft. Die Herkunft des Namens "Skorbut" und des veralteten deutschen Namens "Scharbock" ist nicht sicher geklärt (vgl. Scharbockskraut). Nach einer Erklärung hat das Wort seinen Ursprung im holländischen "Scheurerbek" (wunder Mund). Nach einer anderen stammt es vom germanischen "Skyrbjúgr" ab, von "Skyr" („Sauermilch“, „Quark“) und "Bjúgr", einer Gewebeveränderung, womit also eine Krankheit beschrieben wurde, die hauptsächlich auftritt, wenn man sich in Notzeiten oder auf Schiffsreisen von länger haltbaren, aber vitaminarmen Lebensmitteln wie Zwieback ernähren musste. Kulturgeschichte. Skorbut war schon seit dem 2. Jahrtausend v. Chr. in Ägypten als Krankheit bekannt. Später schrieben auch der griechische Arzt Hippokrates und der römische Autor Plinius darüber. Im Zeitalter der Entdeckungen war Skorbut oft die Haupt-Todesursache bei Seeleuten; so verlor zum Beispiel das Schiff von Vasco da Gama auf einer Reise von 160 Mann Besatzung etwa 100 Mann durch Skorbut. Grund für das häufige Auftreten von Skorbut auf See war die einseitige Ernährung, die, mangels Konservierungsmöglichkeiten, hauptsächlich aus Pökelfleisch und Schiffszwieback bestand. Der Mannschaft des französischen Seefahrers Cartier wurde 1535 von Küstenindianern auf Neufundland mit einem Sud aus Fichtennadeln geholfen. Im Jahr 1601 verfasste Ernst Hettenbach der Ältere, Professor zu Wittenberg, eine frühe und wichtige Abhandlung über Skorbut in lateinischer Sprache, die heute im Besitz der Sächsischen Staatsbibliothek Dresden zu sehen ist. Bereits 1734 forderte der Theologe und Mediziner Johann Friedrich Bachstrom die Verwendung von frischem Obst und Gemüse zur Heilung von Skorbut. Erst als der britische Schiffsarzt James Lind 1754 in einer für damalige Verhältnisse sehr modernen Studie zeigen konnte, dass Zitrusfrüchte gegen Skorbut halfen, verlor die Krankheit ihren Schrecken. Linds Erkenntnisse setzten sich allerdings aus zwei Gründen nur langsam in der Britischen Marine durch: Erstens waren Vitamine noch unbekannt, und selbst Lind vermutete noch lange Zeit, dass die heilende Wirkung der Säure in den Zitrusfrüchten zuzuschreiben sei. Da lag es nahe, nach billigeren Säuren als Skorbut-Heilmittel zu suchen. Zweitens wurden die Zitrusfrüchte lange nur als Heilmittel betrachtet und Zitronensaft konsequenterweise nur vom Schiffsarzt ausgegeben. Dass sie auch eine vorbeugende Wirkung hatten, blieb noch lange unbemerkt (ausführlich dazu der Abschnitt Eine Therapie für Skorbut im Artikel über James Lind). Neben Zitronen- oder Limettensaft, der oft in eingekochter Form mitgeführt wurde, wurden auch Sauerkraut und Kartoffeln an Bord genommen. Von der täglichen Ration Limonensaft stammt übrigens der Spitzname "Limey" der englischen Matrosen im Gegensatz zu den Sauerkraut essenden „Krauts“, den norddeutschen Handelsschiffern. Georg Forster berichtet, dass man mit Malz-Maische den Skorbut sehr wirksam bekämpft habe. Auch an Land trat Skorbut auf, besonders in den Wintermonaten und in belagerten Festungen oder bei den ersten Nordamerika-Siedlern, wo Obst und Gemüse anfangs knapp waren. Maximilian zu Wied-Neuwied erkrankte am 11. März 1834 am Missouri in Fort Clark an Skorbut; nach dem Verzehr der Blätter und Zwiebeln der kleinen weißblühenden wilden Präriezwiebel "Allium textile" (alter Name "Allium reticulatum") genas er. Als Robert Falcon Scott seine erste Expedition (1901–1904) in die Antarktis unternahm, war die vorherrschende Theorie, daß Skorbut durch "Ptomainvergiftung" verursacht wurde, insbesondere durch Fleisch in Konservendosen. Glücklicherweise erkannte Scott schnell, daß eine Diät aus frischem Fleisch von antarktischen Robben den Skorbut heilte, bevor es zu schweren Erkrankungen oder gar Todesfällen in seiner Mannschaft kam. Im Jahr 1907 entdeckten die beiden norwegischen Ärzte Axel Holst und Theodor Frølich zufällig, dass Meerschweinchen skorbutanfällig sind. Skorbut ist selten im Tierreich (da die meisten Spezies ihr Vitamin C selbst synthetisieren), und somit konnten Meerschweinchen erstmals als „Tiermodell“ im Labor zur Erforschung des Skorbuts dienen. Die Forscher hatten die Meerschweinchen verschiedenen Diäten aus Getreide und Mehl ausgesetzt. Daraufhin konnten Holst und Frølich erstmals den Skorbut, der bis dahin nur bei Menschen beobachtet wurde, an Tieren nachweisen. Sie zeigten ferner, dass durch bestimmte Fütterungszusätze die Krankheit bei den Meerschweinchen geheilt werden konnte. Damit leisteten sie eine wesentliche Voraussetzung zur Entdeckung des Vitamins C (Ascorbinsäure) als kausalen Faktor im Jahre 1932 durch den ungarischen Biochemiker Albert von Szent-Györgyi und den amerikanischen Forscher Charles Glen King. Nachdem die Molekülstruktur von Ascorbinsäure per Röntgenkristallographie durch Walter Norman Haworth aufgeklärt worden war (Nobelpreis für Chemie für seine "Untersuchungen an Kohlenhydraten und Vitamin C" 1937) und Tadeus Reichstein die im großen Maßstab durchführbare Reichstein-Synthese entwickelt hatte, begann 1934 Roche mit der industriellen Vitamin-C-Synthese. Im 20. Jahrhundert trat Skorbut massenhaft während des Ersten und Zweiten Weltkrieges sowie in den deutschen Konzentrationslagern und im sowjetischen Gulag auf. Demgegenüber trieben die Nationalsozialisten die Versorgung der Bevölkerung mit den damals gerade erst entdeckten Vitaminen, insbesondere Vitamin C, aktiv voran. In der Nachkriegszeit in Deutschland war Skorbut unter den Kindern von Heimatvertriebenen verbreitet. Auch hier kam oft der bereits erwähnte Fichtennadelsud zum Einsatz. Skorbut ist eine häufige Begleiterscheinung von Unterernährung (andere solche Mangelkrankheiten sind etwa Beriberi oder Pellagra) und ist deshalb noch weltweit verbreitet, besonders in unterentwickelten Ländern. Da heute Obst und Gemüse ganzjährig verfügbar sind, tritt Skorbut in den Industrieländern nur noch selten auf. Das Scharbockskraut hat seinen Namen, weil es im Frühjahr zur Behandlung von Skorbut gegessen wurde, ebenso wie Brennnesseln. Beide sind reich an Vitamin C. Schanghaien. Schanghaien bezeichnet in der Seemannssprache das gewaltsame Rekrutieren von Seeleuten für Kriegs- und Handelsschiffe. Diese Art der Freiheitsberaubung, auch Pressen genannt, wurde zeitweise auch für die Heeresergänzung angewandt. Verbreitung. In europäischen – besonders britischen – und nordamerikanischen Häfen des 18. und 19. Jahrhunderts rekrutierten und vervollständigten Presskommandos (auch Pressgangs genannt) und bewaffnete Schiffsbesatzungen die Mannschaft von Kriegsschiffen, indem sie Hafenviertel, Seemannskneipen und Bordelle durchkämmten und mit Gewalt alle aufgriffen, derer sie habhaft werden konnten. Wer sich damit schnell abfand, konnte sich manchmal „noch nachträglich freiwillig melden“, um doch noch des Werbegeldes habhaft zu werden. Häufig wurden auch Teile der Mannschaft von im Hafen liegenden Handelsschiffen schanghait. Nicht selten wurden durch Schanghaien auch Besatzungen von Handelsschiffen ergänzt. Seeleute wurden durch Alkohol oder Niederschlagen betäubt, an Bord gebracht, unter Deck versteckt und erst an Deck gebracht, wenn das Schiff die offene See erreicht hatte. In den USA waren Portland und in England London berüchtigt dafür, aber auch in Hamburg wurde schanghait, wie Knigge es in seiner "Geschichte Peter Clausens" darstellt. Bis ins 18. Jahrhundert wurden auch an Land Männer zu Heeresdiensten gepresst; die preußischen Werber waren gefürchtet. Dementsprechend hoch waren lange Zeit die Desertionsraten der Söldnerheere. Mit der Einführung von Wehrpflichtgesetzen im 19. Jahrhundert und dem Aufbau eines Meldewesens wurden derartige Gewaltaktionen obsolet, weil Soldaten nun behördlich einberufen werden konnten. Das schweizerische Seeschiffahrtsgesetz (SR 747.30) verlangt noch heute, dass ein Konsul anwesend sein muss, um einen Seemann in die Musterrolle eintragen zu können. Der Seemann muss die Eintragung unterschreiben und damit seinen Willen bestätigen, sich anheuern zu lassen. Auch auf deutschen Schiffen darf der Kapitän die Musterrolle nicht selbst verändern. Wortgeschichte. Der Ausdruck entstand wohl um die Mitte des 19. Jahrhunderts und wurde aus dem Slang US-amerikanischer Matrosen ins Deutsche übernommen. Aus Schanghai, seit den 1840er Jahren der wichtigste Hafen Ostasiens, kamen besonders viele Schiffe (die „Kuli-Klipper“) mit chinesischen Zwangsarbeitern für den Abbau von Guano an der südamerikanischen Küste, für die Farmarbeit in den USA und für den Bau des Panamakanals. Ursprünglich war vielleicht auch die gewaltsame Anwerbung dieser Arbeiter für überseeische Dienste ein Anlass für die Bildung des Wortes. Ein „regelrechtes System von Entführungen“, ein „systematischer Verkehr mit weißen Sklaven“ in New York, London und Liverpool wurde bereits 1864 beschrieben. Liste von Schiffstypen. Siehe auch. Schiffstypen Serbische Sprache. Die Serbische Sprache (serb. српски/srpski) ist eine Standardvarietät aus dem südslawischen Zweig der slawischen Sprachen und basiert wie Kroatisch und Bosnisch auf einem štokavischen Dialekt. Serbisch wird von ca. 6,7 Millionen Menschen in Serbien, wo es die Amtssprache ist, als Muttersprache gesprochen. Daneben wird es auch in Bosnien und Herzegowina, Montenegro, im Kosovo, in Kroatien und Mazedonien von etwa 2 Millionen Menschen gesprochen. In Mittel- und Westeuropa, Australien und den USA, wo sich eine große serbische Diaspora befindet, von etwa 3,5 Millionen Auswanderern, wobei deren Sprachkenntnisse unterschiedlich stark ausgeprägt sind. Sowohl das lateinische Alphabet als auch das kyrillische Alphabet werden verwendet. Nach der im November 2006 in Kraft getretenen Verfassung wird die Sprache in Serbien offiziell in kyrillischer Schrift geschrieben, wobei im Alltag und in den Medien auch die lateinische Form oft zur Anwendung kommt. Sowohl nach grammatikalischen Kriterien als auch im Vokabular und der Aussprache ist die serbische Sprache der kroatischen und bosnischen Sprache so ähnlich, dass sich alle Serbischsprechenden mühelos mit Sprechern des Bosnischen und Kroatischen verständigen können. Varianten der serbischen Sprache. Die serbische Sprache existiert heute zum größten Teil in zwei Aussprachevarianten. Unabhängig von der Aussprachevariante gehören die meisten Sprecher der štokavischen Dialektgruppe an. Im Südosten Serbiens werden torlakische Dialekte gesprochen. Muttersprache. Serbisch wird von über acht Millionen Menschen vorwiegend in Serbien, Montenegro, Bosnien und Herzegowina, im Kosovo und in Kroatien als Muttersprache gesprochen. In Rumänien, Ungarn, Albanien und Mazedonien gibt es kleinere Gemeinden mit Serbisch als Muttersprache. Serbisch ist nationale Amtssprache in Serbien, Montenegro und Bosnien und Herzegowina. Auf regionaler und lokaler Ebene ist es Amtssprache in Kroatien und Mazedonien. Zudem existiert eine große serbische Diaspora. Schrift. Während in der serbischen Verfassung die kyrillische Schrift als Schrift für den offiziellen Gebrauch der Republik Serbien verankert ist, werden im Alltag sowohl die kyrillische als auch die lateinische Schrift benutzt. Auch auf der Internetseite der serbischen Regierung steht: „Die offizielle Sprache in Serbien ist Serbisch und die offiziell gebrauchte Schrift ist Kyrillisch, während auch die lateinische Schrift in Gebrauch ist. In den Gebieten, die von ethnischen Minderheiten bewohnt werden, sind die Sprachen und Schriften dieser Minderheiten offiziell in Gebrauch, wie gesetzlich gesichert.“ Im Alltag macht sich dieser Umstand auch bemerkbar. Während in manchen Zeitungen beide Schriften noch bunt gemischt vorkommen, oder an Schaufenstern mal die lateinische, mal die kyrillische Schrift vorhanden ist, werden offizielle Dokumente größtenteils kyrillisch verfasst. Die Verwendung der verschiedenen Schriften hängt dabei von mehreren Faktoren ab. So werden die jeweiligen Schriftformen in unterschiedlichen Regionen bevorzugt. Vor allem in Zentralserbien und der bosnischen Republika Srpska verwendet man eher die kyrillische Schrift, während die Serben Kroatiens und in der nordserbischen Vojvodina die lateinische Schrift bevorzugen. In Montenegro wurde noch bis etwa 2004 fast ausschließlich die kyrillische Schrift in allen Gesellschaftsformen verwendet. Heutzutage jedoch wird vermehrt auch lateinische Schrift verwendet. Eine weitere Rolle spielt die politische Ausrichtung des Schreibers. Konservativ ausgerichtete Zeitungen verwenden beispielsweise eher die kyrillische Schrift. Der Schriftgebrauch ist auch vom Textgegenstand abhängig. Religiöse und traditionelle Texte werden eher mit kyrillischer Schrift geschrieben, für moderne Inhalte verwendet man eher die lateinische Schrift. Für linguistische Details siehe Štokavisch und Torlakisch. Serbische Schreibschrift. Die Kleinbuchstaben Б, П, Г, Д, Т und Ш in Druckschrift (links), russischer Schreibschrift (Mitte) und serbischer Schreibschrift (rechts) Fünf Buchstaben unterscheiden sich in serbischer Kursiv- und Handschrift von den entsprechenden Buchstaben der übrigen kyrillischen Schriften. Das kleine Г kommt in dieser Form nur in serbischer und makedonischer Schreibschrift vor; die übrigen vier Buchstabenformen können auch in russischer Handschrift vorkommen. Zur Darstellung serbischer Texte, die kursiven Text enthalten, ist also eine besondere Schrift erforderlich. Alphabet und Aussprache. Die Digraphen dž, lj und nj werden in der alphabetischen Ordnung jeweils als ein einzelner Buchstabe aufgeführt. Es gibt nur eine sehr geringe Anzahl von Wörtern, in denen diese Zeichengruppen zwei getrennte Laute bezeichnen und deshalb als zwei Buchstaben behandelt werden müssen. Ausländische Namen werden im Serbischen in der Regel geschrieben, wie man sie spricht z. B.: Grace Kelly – Grejs Keli oder Shakespeare – Šekspir. Im Kroatischen hingegen werden Namen und Eigennamen in ihrer ursprünglichen Form übernommen. Die Mehrzahl der Buchstaben wird im Großen und Ganzen wie im Deutschen ausgesprochen. Wortakzent. Die serbische Standardsprache und die meisten Mundarten gehören zu den tonalen Sprachen und sind damit entfernt mit dem Chinesischen vergleichbar (im Chinesischen betreffen Tonunterschiede allerdings alle Silben, im Serbischen nur die betonten Silben). Die Tonunterschiede können auch Bedeutungsunterscheidungen ausdrücken, in diesen Fällen kann dann die falsche Aussprache, d. h. die Missachtung des Tonverlaufs, zu Missverständnissen führen. In der Schrift wird in den allermeisten Fällen auf die Bezeichnung des Tonverlaufs verzichtet. Ausnahmen ergeben sich bei gewissen Kombinationen wie etwa Zu beachten hierbei ist, dass "sam" die 1. Person Singular vom Verb "biti" (sein) ist, "sâm" hingegen die 1. Person, männliche Form, vom Adjektiv "sâm" (allein, [m.]) ist. Die weibliche und sächliche Form dieses Adjektivs erfahren aber eine Akzentänderung, es heißt daher "sáma" (f.) und "sámo" (n.). Serbisch kennt vier Wortakzente (siehe unten). Die nachfolgenden Silben können entweder lang oder kurz sein, was auch die Bedeutung ändern kann. Entstehung der Tonunterschiede. Fallende Akzente sind älter. Heute treten sie meistens am Wortanfang auf (die Ausnahmen werden in Schriftsprachen von manchen Autoren überhaupt nicht akzeptiert). Physisch entsprechen diese Akzente dem Englischen und Italienischen und werden von Deutschsprachigen selten richtig ausgesprochen. â – langfallend, wie z. B. in "lâž" (die Lüge), "čâst" (die Ehre), "Mârko" (Name) ȁ – kurzfallend, wie z. B. in "pȁsti" (fallen), "žȁba" (der Frosch), "Mȉlica" (Frauenname) Steigende Akzente. Steigende Akzente sind jünger, sie treten nur in den so genannten neuštokavischen Mundarten und überall dort auf, wo die fallende Betonung nicht auf der ersten Silbe war, sowie in den meisten Entlehnungen aus dem Deutschen. á – langsteigend, wie z. B. in "záći" (untergehen, bspw. die Sonne), "táma" (die Dunkelheit), "čokoláda" (Schokolade) à – kurzsteigend, wie z. B. in "pràtilac" (der Verfolger), "kàžiprst" (der Zeigefinger), "baklàva" (Baklave) Unbetonte Vokallängen. a – Kurz und unbetont, wie z. B. die zweite Silbe in "làgati" (lügen), oder die letzte in "sáma" (allein [f.]) ā – Lang und unbetont, wie z. B. "dámā" (der Damen [Gen. Pl.] – im Vergleich dazu "dáma", die Dame [Nom. Sg.]), Jugòslāvīja (Jugoslawien) Ambivalente Laute. Zur Besonderheit des Serbischen zählt das "r", das sowohl einen Vokal als auch einen Konsonanten bezeichnen kann. Dieses vokalische "r" ist ein Relikt aus dem Altkirchenslawischen, und es wird vermutet, dass ursprünglich auch nie ein Vokal im engeren Sinne davor oder dahinter gesetzt wurde. Ein weiteres Beispiel für einen solchen Konsonanten, der ehemals auch als Vokal auftrat, ist das "l". Aus diesem ist im heutigen Serbischen vorwiegend "u" hervorgegangen. So hieß es früher "vlk" anstatt des heutigen "vuk" (Wolf), ebenso "mlčiti" anstatt des heutigen "mučiti" (quälen). Als "Vokal" tritt das "r" in zahlreichen Wörtern auf wie "smrt" (der Tod), "vrteti" (drehen), "rvati se" (ringen; im Serbischen reflexiv, daher "se"), "crtati" (zeichnen), "prst" (der Finger) etc. Als "Konsonant" ist es vor oder nach einem Vokal anzutreffen, wie etwa in "ruka" (der Arm), "praznik" (der Feiertag), "car" (der Kaiser) oder "garav" (rußig). Dementsprechend kann auch das vokalische "r" alle sechs Vokalakzente annehmen, es kann also aufsteigend "(vrteti)," absteigend "(smrt)" und unbetont ("smrtóvnica," die Todesanzeige) auftreten. Grammatik. Das Serbische zählt zu den flektierenden Sprachen, d. h. dass sowohl Nomina, daneben auch Pronomina, Adjektive, sowie auch Verben gebeugt werden. Dabei haben sich mannigfaltige Formen erhalten. Im Gegensatz zum Deutschen besitzt das Serbische keine Artikel. Gelegentlich werden Demonstrativpronomen dort eingesetzt, wo es einer sinngemäßen Betonung bedarf. Die "Nominalflexion" ist ähnlich groß und komplex wie die des Russischen und viel reicher als die des Bulgarischen, das einen Gutteil davon verloren hat. Bezüglich "Verbalflexion" und Zeitformen hingegen ist das Serbische sogar weit komplexer als etwa das moderne Russische. Nominalflexion. Das Serbische unterscheidet sieben Fälle (Kasus), die sich nach Genus (Geschlecht des Wortes, also maskulin, feminin oder neutrum) und Numerus (Zahl des Wortes, also Singular, Paukal und Plural) richten. Zu den auch im Deutschen bekannten Fällen, Nominativ, Genitiv, Dativ und Akkusativ, treten drei weitere hinzu, Vokativ, Lokativ und Instrumentalis. Der Vokativ ist der Ruffall, er steht beim unmittelbaren Ansprechen bzw. Anrufen einer Person (oder auch, seltener, einer Sache, wenn sie personifiziert wird). Beispiele wären "Stevane!" von "Stevan" (serb. für "Stefan"), "oče" – Vater, von "otac" (der Vater), "Bože (moj)!" – (mein) Gott!, von "Bog" (Gott) oder "zemljo draga" – liebes Land, von "zemlja" (das Land, die Erde). Der Lokativ steht auf die Frage "wo?" Während ursprünglich der Lokativ ohne Präposition stand, gibt es ihn im heutigen Serbischen nur noch mit solchen. Er steht hauptsächlich nach "u" (in), aber auch nach etlichen anderen Präpositionen. Zu beachten ist, dass die Endung immer die gleiche wie beim Dativ ist, doch sind die beiden Fälle keineswegs als eine Synthese zu einem einzigen zu betrachten, wonach es insgesamt sechs Kasus gäbe. Dies wird an der Aussprache ersichtlich. So heißt es etwa "(k) sâtu" (zur Uhr hin, Dativ), jedoch "na sátu" (auf der Uhr, Lokativ). Der Instrumentalis steht auf die Frage "womit?" Er kann sowohl mit als auch ohne Präpositionen auftreten und ist damit gut vergleichbar mit dem Lateinischen Ablativ (sowohl mit als auch ohne "cum"). So sagt man etwa "nožem" (mit dem Messer, von "nož"), "silom" (mit Kraft, von "sila") oder "s drûgom" (mit dem Freund, von "drug"). Darüber hinaus hat er temporalen Charakter, wie etwa in "jutrom" (bei Morgen) oder "noću" (nachts), ferner "pod nogama" (unter den Füßen, eigentl. Beinen) von "noga", "poda mnom" (unter mir), "pod tobom" (unter dir) etc. 1) Zu beachten ist, dass die Aussprache hier kasusunterscheidend wird! 2) Belebte Nomen tragen im Akkusativ Singular eine Endung, nämlich -a. Es heißt daher "čovek" [ekav.]/"čovjek" [ijekav.] (der Mensch) im Akk. Sg. "čoveka"/"čovjeka" Verbalflexion. Die Verben werden nach Tempus, Numerus und Modus flektiert. Darüber hinaus existieren im Serbischen, wie im Russischen und anderen slawischen Sprachen, zwei verschiedene Aspekte, der "vollendete" und der "unvollendete." Im Serbischen gibt es acht verschiedene Tempora. Dieser Reichtum ist allerdings in der gesprochenen Sprache bei Weitem nicht so blühend wie in der geschriebenen. Einige Formen sind dabei förmlich untergegangen, sodass deren korrekte Bildung selbst bei Muttersprachlern für Verwirrung sorgen kann, wie z. B. das Imperfekt, das fast ausnahmslos nur noch in der älteren Literatur anzutreffen ist. Andere sind wiederum in den anderen slawischen Sprachen kaum oder gar nicht mehr bekannt, weil es sich dabei um sehr alte Formen handelt, wie z. B. der Aorist, der hier und da zwar noch gebräuchlich ist, allgemein jedoch verschwindet, gerade in der Sprache der Kinder und der Jugend. Aorist, "(ja) pekoh," Imperfekt "(ja) pecijah," Perfekt "ja sam pekao/pekla" (m./f.) bzw. "pekao/pekla sam," Plusquamperfekt "ja sam bio pekao" bzw. "bio sam pekao," Futur "ja ću peći" bzw. "pećiću," Futur II (sehr selten) "ja ću biti pekao" bzw. "biću pekao," Konditionalis Präsens "ja bih pekao" bzw. "pekao bih" und Konditionalis Perfekt "ja bih bio pekao" bzw. "bio bih pekao." "pekao (m.), pekla (f.), peklo (n.)" sind hierbei die PPA. Zu beachten ist, dass "peći" den unvollendeten Aspekt bezeichnet. Für den vollendeten sagt man hingegen "is'"peći." So heißt es dann "(ja) is'"pečem" statt "(ja) pečem," ebenso "ja sam is'"pekao." Die entsprechenden Formen können sowohl im Aktiv, wie oben dargestellt, als auch im Passiv auftreten. Letzteres konstruiert mit dem PPP und den verschiedenen Formen von "biti/bivati" (sein). Die PPP von etwa "peći" lauten "pečen (m.), pečena (f.), pečeno (n.)". Flexion der Numeralia. Beim Zählen ergibt sich eine Besonderheit: Handelt es sich um Mengen, die zwischen zwei und vier liegen, so wird nicht der Plural sondern der Paukal verwendet. Alle übrigen Mengen jenseits von fünf werden mit dem Plural, und zwar mit dem Genitiv (Genitivus partitivus) verwendet. Der Paukal entstammt einer Zeit, als es im Serbischen noch den Dual gab, der sich im heutigen Slowenischen oder dem Sorbischen immer noch erhalten hat. Die Form des Paukals ist nunmehr deckungsgleich mit der 2. Person Singular Genitiv, sowohl in Aussprache als auch in Schrift. Dies gilt bis "dvadeset" (zwanzig). Für 21 (31, 41, …) gilt Regel 1, für 22–24 (32–34, 42–44, …) Regel 2 und für alle weiteren Regel 3. "jedan, jedna, jedno" (einer, eine, eines) "dva, dvije" [ijekav.]"/dve" [ekav.]", dva" (zwei, ähnlich wie im Lateinischen "duo, duae, duo") "četiri" (vier) sind für alle Formen gleich im Nominativ. "jedan" wird stets parallel zum Substantiv dekliniert, "dva" hier und da, "tri" und "četiri" hingegen selten. So heißt es "jednoga muškarca" (eines Mannes, Gen.), "jednoj ženi" (einer Frau, Dat.), "dvaju žena" (der zwei Frauen bzw. „zweier“ Frauen, Gen.), selten "troma muškarcima" (den drei Männern, Dat.) oder "četirma ženama" (den vier Frauen, Gen.). Ab "pet" (fünf) sind die Zahlen indeklinabel. Syntax. Durch den ausgeprägten flektierenden Charakter des Serbischen besteht im Grunde eine freie Wortstellung. Dies ergibt sich dadurch, dass Satzelemente eindeutig durch ihr Suffix bestimmt und sie daher leicht zuzuordnen sind, selbst wenn sie über den Satz verstreut sind. Die allgemein übliche Wortstellung ist Subjekt-Prädikat-Objekt (SPO), wie z. B. Weblinks. Sprache Seemeile. Die Seemeile oder nautische Meile (M, Deutsch: sm, Englisch: NM) ist eine in der Schiff- und Luftfahrt gebräuchliche Maßeinheit der Länge. Sie soll 1/60 Breitengrad entsprechen, wurde aber später mit exakt 1852,0 m definiert. Die davon abgeleitete Geschwindigkeitseinheit "Seemeilen pro Stunde" wird Knoten genannt. Definition. In der internationalen Norm ISO 31-1 aus dem Jahre 1992 ist 1 Seemeile auf exakt 1852,0 m festgelegt, dasselbe findet sich auch in der deutschen DIN 1301, Teil 2, vom Februar 1978. Geschichte. Ursprünglich wurde das Maß der Seemeile auf die Bogenlänge einer Winkelminute auf einem Großkreis – z. B. dem Äquator oder einem Meridian – des kugelähnlichen Erdkörpers festgelegt. Das entspricht dem 60. Teil der Entfernung zwischen zwei benachbarten ganzzahligen Längengraden am Äquator – oder zwischen zwei benachbarten Breitengraden. Aus der Länge eines Meridians vom Äquator bis zum Pol von ca. 10.001,966 km (Ellipsoidparameter des WGS84) ergibt sich "ein mittlerer Wert" von Aufgrund der Erdabplattung misst eine Meridianminute der geographischen Breite jedoch am Äquator 1842,90 m, an den Polen aber 1861,57 m. Hingegen ergibt sich für eine vom Erdmittelpunkt aus gemessene Bogenminute am Äquator eine Bogenlänge von 1855,31 m. Admiralty Mile, U.S. nautical mile, International Nautical Mile. So wurde bis 1929 von Großbritannien für das Maß der Seemeile zur Länge der englischen Meile eine Länge von genau 800 englischen Fuß hinzugezählt (insgesamt 6080 Fuß), woraus sich das Maß von 1853,18 Metern für die englische "Admiralty Mile" ergab. In den USA galt bis 1954 als Maß der Seemeile die "U.S. nautical mile", die mit 6080,20 feet festgelegt war, was umgerechnet einer Länge von 1853,24 Metern entspricht. International übergreifend wurde das Maß der "International Nautical Mile" 1929 auf der "Internationalen Hydrographischen Konferenz" in Monaco auf 1852,01 m festgelegt. Abweichend hiervon geben jedoch die deutsche DIN 1301-1 und die unten erwähnte Broschüre des BIPM an, dass damals der Wert 1852 m für die "international nautical mile" angenommen wurde. Nautische Meile, Seemeile. Das "Admiralty Manual of Navigation (1964)" unterscheidet zwischen "nautical mile" und "sea mile". Die "nautical mile" entspricht der offiziellen, aber nichtgesetzlichen internationalen SI-Einheit Seemeile (französische Namensdefinition: mille marin; wörtlich Deutsch: Seemeile, wörtlich Englisch: sea mile) mit der durch internationale Verträge festgelegten Länge von 1852 m, also ohne Nachkommastellen. Die Einführung des neuen Namens war notwendig, weil der Begriff "sea mile" mit seiner historischen Definition und seiner aktuellen und zukünftigen Relevanz absolute Priorität genoss. Diese englische "sea mile" bleibt die Länge einer Bogenminute auf einem beliebigen Großkreis der Erde, schwankt also wegen der Erdabplattung zwischen 1843 m (Meridian am Äquator) und 1862 m (Meridian an den Polen) und wird nach wie vor nur in der unmittelbaren Umgebung des Schiffsorts empfohlen. Bei dieser Gelegenheit wurde auch die weitere Verwendung der "admirality mile" (1853,18 m) für unerwünscht erklärt. Bei Bedarf ist der Begriff "admirality mile" bedeutungsgleich durch "nautical mile" zu ersetzen. Wegen der tatsächlich erzielbaren Genauigkeit in der Ortsbestimmung und Messtechnik auf See (Astronavigation, Funkpeilung, DECCA, LORAN, Sichtpeilung, Log) spielen die unterschiedlichen Definitionen bis heute (GPS) keine praktische Rolle. Fehler entstehen erst, wenn die Rechengenauigkeit moderner Computer dazu verwendet wird, über große Distanzen gezielt mit ungeeignetem Maßstab zu arbeiten. Nachdem Mitte des 19. Jahrhunderts, insbesondere durch Friedrich Wilhelm Bessel, zuverlässige Daten über die Erdabplattung ermittelt wurden, führte man in Deutschland zusätzlich zur großkreisbasierten Definition der Seemeile die "geographische Landmeile" und die "geographische Seemeile" ein: Die "geographische Landmeile" entspricht der historischen Seemeile auf dem Äquator (1855,46 m), die "geographische Seemeile" entspricht der Seemeile auf einem Meridian (1843 m bis 1862 m). Beides sollte bei der Vermessung zu Land und zur See nützlich sein, konnte sich in der Praxis aber nicht durchsetzen und ist heute kaum noch bekannt. Mit Übernahme der Seemeile als „offizielle aber nichtgesetzliche SI-Einheit“ wurden in Deutschland alle großkreisbasierten Definitionen wegen praktischer Irrelevanz ersatzlos gestrichen. Lediglich in der Astronomischen Navigation wird eine Seemeile immer noch mit einer Bogenminute auf einem Großkreis gleichgesetzt. Dabei ist jedoch die Kenntnis eines Umrechnungfaktors in Meter unnötig, so dass die moderne Definition unerheblich ist. Letztlich wird seit über tausend Jahren in der Astronavigation mit der Kugelgestalt der Erde gerechnet und die Abplattung ignoriert. Die historische Definition der Seemeile findet in der Seefahrt bis heute noch insofern täglich praktische Anwendung bei der Kartenarbeit, als dass dort fast ausschließlich Mercatorkarten zur Navigation verwendet werden. Alle Linien in Nord-Süd-Richtung sind immer Teile von Meridianen, also Großkreisen. Folglich ist die Skalierung des linken und rechten Kartenrandes mit den Breitengraden und -minuten ein annähernd genauer Maßstab für Seemeilen im Bereich des betreffenden Breitengrades. Die Kartenränder sind bewusst so gestaltet, dass Längenmessungen mit dem Kartenzirkel besonders einfach und übersichtlich sind. Bei der Navigation ist uninteressant, wie viele Meter eine Seemeile genau hat, weil sich ohnehin alle Messinstrumente und Karten immer auf die Seemeile (oder Bogenminute) beziehen. In der Astronavigation entsprechen die am Sextanten abgelesenen Winkelminuten ebenfalls Bogenminuten auf der Weltkugel. Diese Äquivalenzen sind niemals exakt, aber für den ständigen Gebrauch mehr als ausreichend genau. Luftfahrt: Nautical und Statute Miles. Seit den Anfangsjahren der Luftfahrt bis zum Ende des Zweiten Weltkriegs waren in Deutschland Meter für Höhen- und Kilometer für Entfernungsangaben selbstverständlich. Die USA waren jedoch führend bei der Schaffung von nationalen Regulierungsbehörden für die Luftfahrt (FAA) und später auch bei der Schaffung von internationalen Luftfahrtorganisationen (ICAO, IATA). Flugreisen und Privatflugzeuge gehörten dort schon viel früher und stärker zum Alltag als beispielsweise in Deutschland. Da die USA sich für Seemeilen entschieden haben und sich durch den Einfluss der USA auch Englisch als internationale Kommunikationssprache im Flugfunk durchgesetzt hat, verwendet man heutzutage weltweit Seemeilen als Entfernungsangabe in der Luftfahrt. Eine Ausnahme bildete die Sowjetunion. Sie hatte konsequent das Internationale Einheitensystem in der Luftfahrt angewendet. Linienpiloten mussten sich bei jedem Überflug auf die „neuen“ SI-Einheiten umstellen, wobei die praktischen Probleme weniger in der Umrechnung von km in Seemeilen lagen, als vielmehr mit der von Höhenangaben in Meter zu Fuß. Umrechnungen zwischen Seemeile und Kilometer sind selten erforderlich, da durchgehend mit Seemeilen gerechnet wird. Größere Verwirrungen treten vor allem in den USA und Großbritannien bei der Unterscheidung zwischen Seemeile und "statute mile" auf. Der Pilot meint immer Seemeile, sagt aber über Sprechfunk immer „miles“ (und nicht „nautical miles“). Die Entfernungsangaben auf Straßenschildern (z. B. "Daytona 6 miles") beziehen sich hingegen immer auf "statute miles" (≈ 1609,347 m). Im Gespräch unter Piloten kann der US-Amerikaner auch mal "statute mile" statt "Seemeile" meinen, wenn er „miles“ sagt. Entfernungsangaben auf Straßenkarten – die man sowieso nicht für die Flugvorbereitung verwenden sollte – sind grundsätzlich auch in "statute miles". Dementsprechend stehen einfach nur „miles“ im Straßenatlas. Bei der Definition der amerikanischen Luftraumstruktur sind auch "statute miles" bei der Definition der Wolkenabstände mit eingeflossen. Das kann sehr verwirrend für Piloten werden, die mit dem metrischen System aufgewachsen sind. Umrechnung. Aus der ursprünglichen Definition von Seemeile (1 Meridianminute) und der ältesten Definition von 1 Meter (der 10-millionste Teil der Entfernung zwischen Nordpol und Äquator) ergibt sich die Tatsache, dass 54 Seemeilen etwa 100 Kilometern entsprechen. Näherungsweise lassen sich "x" Seemeilen nach der Faustformel "„Verdoppeln und vom Ergebnis 10 % abziehen“" in Kilometer umrechnen, was einer Multiplikation mit dem Faktor 1,8 entspricht. Man errechnet durch diese Formel zwar den Seemeilenwert in Kilometer um fast 3 % zu knapp, was aber – "kopfgerechnet, für einen groben Überschlag" – in den allermeisten Fällen eine praxistaugliche und hinreichende Genauigkeit bedeutet. Abkürzungen und abgeleitete Einheiten. Es gibt keine allgemeine Übereinkunft über das Einheitenzeichen der Seemeile. Im Deutschen gebräuchlich ist die Abkürzung sm, international wird sie oft als "nautical mile" mit nm, NM oder n.m. abgekürzt. Der IHO-Standard für Seekarten verlangt die internationale Abkürzung M. Die "Encyclopaedia of Scientific Units, Weights and Measures" von 1999 nennt als international gebräuchliche Abkürzung für "nautical mile" mi. Nach einer Broschüre des BIPM sind hingegen folgende Zeichen gebräuchlich: M, NM, Nm und nmi. Eine Verwechslung mit den SI-Einheiten Nanometer (nm) und Newtonmeter (Nm) kann aus dem Zusammenhang meist ausgeschlossen werden. In Österreich und Deutschland ist die Seemeile auf Grund von internationalen Vereinbarungen als „gesetzliche Einheit im Messwesen“ zulässig, obwohl sie außerhalb des SI steht. Die Geschwindigkeit von Wasserfahrzeugen im Seeverkehr und Luftfahrzeugen wird rechnerisch meist in Seemeilen pro Stunde angegeben, als Einheitenzeichen dient aber der Begriff Knoten (englisch: "knot"). Frühere „Seemeilen“. Die "Niederländischen" sowie der "Französischen" „Meile“ auf See entsprachen Afrikanischer Strauß. Der Afrikanische Strauß ("Struthio camelus"), der zu den Laufvögeln gehört, ist der größte lebende Vogel der Erde. Während er heute nur noch in Afrika südlich der Sahara heimisch ist, war er in früheren Zeiten auch in Westasien beheimatet. Für den Menschen war der Strauß wegen seiner Federn, seines Fleisches und seines Leders seit jeher von Interesse, was in vielen Regionen zur Ausrottung des Vogels führte. Merkmale. Die Männchen des Straußes sind bis zu 250 Zentimeter hoch und haben ein Gewicht bis zu 135 Kilogramm. Weibchen sind kleiner: Sie sind 175 bis 190 Zentimeter hoch und 90 bis 110 Kilogramm schwer. Die Männchen, Hähne genannt, haben ein schwarzes Gefieder. Davon setzen sich die Schwungfedern der Flügel und der Schwanz weiß ab. Die Weibchen, Hennen genannt, tragen dagegen ein eher unscheinbares, erdbraunes Gefieder; Flügel und Schwanz sind bei ihnen heller und haben eine weißlichgraue Farbe. Das Jugendkleid ähnelt dem Aussehen des Weibchens, ohne die charakteristische Absetzung von Flügeln und Schwanz. Frisch geschlüpfte Küken sind dagegen rehbraun, ihr Daunenkleid weist dunkle Tupfen auf. Die Daunen des Rückengefieders sind igelartig borstig aufgestellt. Die nackten Beine sowie der Hals sind je nach Unterart grau, graublau oder rosafarben. Beim Männchen leuchtet die Haut während der Brutzeit besonders intensiv. Der Strauß hat einen langen, überwiegend nackten Hals. Der Kopf ist in Relation zum Körper klein. Die Augen sind mit einem Durchmesser von 5 Zentimetern die größten aller Landwirbeltiere. Das Becken der Strauße ist ventral durch eine Schambeinfuge ("Symphysis pubica") geschlossen. Dies ist nur bei straußenartigen Vögeln so. Es wird von den drei spangenartigen Beckenknochen (Darmbein, Sitzbein, Schambein) gebildet, zwischen denen große Öffnungen bestehen, die durch Bindegewebe und Muskulatur verschlossen sind. Der Strauß hat sehr lange Beine mit einer kräftigen Laufmuskulatur. Seine Höchstgeschwindigkeit beträgt etwa 70 km/h; eine Geschwindigkeit von 50 km/h kann der Strauß etwa eine halbe Stunde halten. Als Anpassung an die hohe Laufgeschwindigkeit besitzt der Fuß, einzigartig bei Vögeln, nur zwei Zehen ("Didactylie"). Zudem können die Beine als wirkungsvolle Waffen eingesetzt werden. Beide Zehen tragen Krallen, von denen die an der größeren, inneren Zehe bis zu zehn Zentimeter lang ist. Das Brustbein ("Sternum") trägt, wie bei allen Straußenartigen, keinen Brustbeinkamm. Dadurch wirkt es platt und flach wie ein Floß (lateinisch "Ratis"), weshalb diese Vogelgruppe auch als Ratiten bezeichnet wird. Wie alle Vögel besitzt der Strauß einen vollständigen Schultergürtel. Eine Besonderheit ist die starke Verschmelzung von Rabenbein ("Os coracoideum") und Schlüsselbein ("Clavicula"), zwischen denen lediglich ein ovales Loch offen bleibt. Die Flügel sind für Laufvögel recht groß, aber wie bei allen Laufvögeln nicht zum Fliegen geeignet. Das Eigengewicht eines Straußes liegt weit über dem Gewicht, das es einem Vogel noch ermöglichen würde, sich in die Luft zu erheben. Die Flügel dienen stattdessen zur Balz, zum Schattenspenden und zum Halten des Gleichgewichts beim schnellen Laufen. Als einziger rezenter Vogel hat der Strauß an allen drei Fingern Krallen. Stimme. Zu den typischsten Lautgebungen des Straußes gehört ein Ruf des Männchens, der dem Brüllen eines Löwen ähnelt. Ein tiefes „bu bu buuuuu huuu“ wird mehrmals wiederholt. Der Laut wird bei der Balz und beim Austragen von Rangstreitigkeiten ausgestoßen. Daneben sind Strauße beiderlei Geschlechts zu pfeifenden, schnaubenden und knurrenden Lauten in der Lage. Nur junge Straußenküken geben auch melodischere Rufe von sich, die dazu dienen, das Muttertier auf sie aufmerksam zu machen. Verbreitung und Lebensraum. Das natürliche Verbreitungsgebiet des Straußes ist Afrika, insbesondere Ost- und Südafrika. Ausgestorben ist er auf der Arabischen Halbinsel, in Westasien sowie in Afrika nördlich der Sahara. Strauße leben in offenen Landschaften wie Savannen und Wüsten. Sie bevorzugen Habitate mit kurzem Gras und nicht zu hohem Baumbestand; wo das Gras höher als einen Meter wächst, fehlen Strauße. Gelegentlich dringen sie in Buschland vor, bleiben dort aber nicht lang, da sie an schneller Fortbewegung gehindert werden und dort nicht weit blicken können. Reine Wüsten ohne Vegetation eignen sich nicht als ständiger Lebensraum, werden aber auf Wanderungen durchquert. Weil Strauße ihren gesamten Flüssigkeitsbedarf aus der Nahrung beziehen können, benötigen sie keinen Zugang zum Wasser, und lange Trockenperioden sind ebenfalls kein Problem für sie. Afrikanische Strauße wurden erstmals 1869 nach Australien eingeführt, weitere Importe folgten in den 1880er Jahren. Mit den importierten Straußen sollten in Australien Farmen für die Belieferung der Modeindustrie mit Federn aufgebaut werden. Bereits vor der Jahrhundertwende gab es verwilderte Strauße, deren Ansiedlung auf einigen Farmen gezielt gefördert wurde. 1890 lebten 626 Strauße in der Nähe von Port Augusta und der Stadt Meningie, 1912 betrug die Zahl 1.345 Individuen. Nachdem die Nachfrage nach Straußenfedern nach Ende des Ersten Weltkrieges zusammenbrach, kam es zu weiteren Freilassungen, die Zahl der ausgewilderten Strauße ist jedoch nicht bekannt. Im australischen Bundesstaat Western Australia konnten sich Strauße freilebend nicht etablieren, in New South Wales vermehrten sich in den Regionen, in denen Strauße ausgewildert wurden, diese Strauße in den ersten Jahren, der Bestand blieb dann über einige Zeit stabil und nahm dann stetig ab. In vielen Regionen, in denen Strauße über mehrere Jahre lebten, waren sie in der Mitte des 20. Jahrhunderts wieder verschwunden. Nördlich von Port Augusta gab es in den 1970er Jahren noch einen Bestand von 150 bis 200 Straußen. Während der langanhaltenden Dürre von 1980 bis 1982 starben die meisten dieser Vögel. Nach 1982 wurden dort nur noch 25 bis 30 Strauße gezählt. Aktivität. Strauße sind tagaktive Vögel, die besonders in den Dämmerungsstunden aktiv sind. In Zeiten mit knappem Nahrungsangebot müssen sie große Wanderungen unternehmen und sind in der Lage, in der Mittagssonne zu wandern. Nachts ruhen sie, wobei sie für gewöhnlich die Hälse aufrecht und die Augen geschlossen halten. Nur für kurze Tiefschlafphasen werden Hals und Kopf auf das Rückengefieder oder auf den Boden gebettet. Sozialverhalten. Gruppe Südafrikanischer Strauße in der Nähe eines Wasserlochs in Namibia Außerhalb der Brutzeit leben Strauße für gewöhnlich in lockeren Verbänden, die zwei bis fünf, in manchen Gegenden aber auch hundert und mehr Tiere umfassen können. In Wüstengegenden sammeln sich bis zu 680 Tiere um Wasserlöcher. Der Zusammenhalt der Straußenverbände ist locker, denn die Mitglieder der Gruppe kommen und gehen nach Belieben. Oft sieht man auch einzelne Strauße. Trotzdem gibt es innerhalb der Gruppen klare Hierarchien. Rangstreitigkeiten werden meistens durch Drohlaute und Drohgebärden geregelt; dabei werden Flügel und Schwanzfedern aufgestellt und der Hals aufrecht gehalten. Der rangniedrigere Vogel zeigt seine Unterwerfung, indem er den Hals U-förmig biegt und den Kopf nach unten hält; auch Flügel und Schwanz zeigen nach unten. Selten kann eine Rangstreitigkeit auch in einen kurzen Kampf münden. Zur Fortpflanzungszeit lösen sich die losen Verbände auf, und geschlechtsreife Männchen beginnen mit dem Sammeln eines Harems. Ernährung. Strauße sind vorwiegend Pflanzenfresser, nehmen gelegentlich aber auch Insekten und andere Kleintiere zu sich. Vorwiegend fressen sie Körner, Gräser, Kräuter, Blätter, Blüten und Früchte. Insekten, wie Raupen und Heuschrecken, sind nur Beikost. Bevorzugt wird Nahrung, die vom Boden aufgepickt werden kann. Nur ausnahmsweise werden Blätter oder Früchte von Sträuchern oder Bäumen aufgelesen. Strauße können ihre Nahrung optimal verwerten, wofür ein 14 Meter langer Darm sorgt. Der Muskelmagen kann bis zu 1300 Gramm Nahrung aufnehmen. Um die Zerkleinerung der Nahrung zu fördern, schlucken Strauße Sand und Steine (Gastrolithen) und haben die Neigung, alle möglichen kleinen Objekte aufzupicken, die ähnliche Zwecke erfüllen könnten. In Straußenmägen wurden daher schon Münzen, Nägel und ähnliche Gegenstände gefunden. Bis zu 45 Prozent des Muskelmagen-Inhalts können solche als Verdauungshilfe geschluckten Materialien betragen. Feinde. Der Fuß mit seinen Krallen ist eine gefährliche Waffe Die wichtigsten Feinde des Straußes sind Löwen und Leoparden. Indem sich Strauße meistens in Gruppen aufhalten, schützen sie sich durch gemeinsame Beobachtung vor der Gefahr. Dadurch verringert sich für den einzelnen Vogel das Risiko, als Beute auserwählt zu werden; zudem hat jedes Gruppenmitglied mehr Zeit zum Fressen. In den Savannen schließen sich Strauße oft den Herden von Zebras und Gazellen an, da diese Tiere wachsam nach denselben Raubtieren Ausschau halten. Das Gerücht vom „Kopf in den Sand stecken“. Ein weit verbreitetes Gerücht besagt, dass der Strauß bei Bedrohung durch Feinde den Kopf in den Sandboden steckt. Tatsächlich rettet sich der Strauß, der sehr schnell laufen kann, meist durch Davonlaufen. Er ist aber auch in der Lage, sich mit einem gezielten Tritt zu verteidigen, der einen Löwen oder einen Menschen zu töten vermag. Vor allem brütende Strauße legen sich jedoch bei nahender Gefahr oft auf den Boden und halten Hals und Kopf dabei gerade ausgestreckt. Da aus der Ferne der flach am Boden liegende Hals nicht mehr zu sehen ist, könnte dieses Verhalten zu der Legende geführt haben. Denkbar wäre auch, dass man bei der Beobachtung von Straußen auf größere Distanz durch flirrende Luft über heißem Steppenboden einer optischen Täuschung erlegen ist. Bei diesem Effekt „verschwindet“ der Kopf grasender Strauße optisch für den entfernten Betrachter. Revier und Gelege. Die Paarungszeit ist in unterschiedlichen Regionen Afrikas sehr verschieden. In den Savannen Afrikas fällt sie in die Trockenzeit zwischen Juni und Oktober. In trockeneren Gegenden, zum Beispiel in der Wüste Namib, dauert die Fortpflanzungszeit hingegen das ganze Jahr an. Brütende Straußenhenne im Tierpark Berlin beim Platzieren der Eier Straußenei (rechts) im Vergleich zu einem Hühnerei Die Hähne werden in der Paarungszeit territorial. Sie verteidigen dann ein Revier mit einer Fläche zwischen 2 und 15 Quadratkilometern. Die Größe des Reviers ist dabei abhängig vom Nahrungsangebot. Je fruchtbarer der Landstrich ist, in dem sich das Revier befindet, desto kleiner ist es. Zur Revierverteidigung zählen revieranzeigende Rufe sowie ein Patrouillieren des Reviers. Andere Männchen werden vom territorialen Hahn durch Drohgebärden aus dem Revier vertrieben, Weibchen jedoch mit einem Balzritual empfangen. Obwohl es auch monogame Paare gibt, hat in der Regel ein Hahn einen ganzen Harem. Eines der Weibchen ist dabei eindeutig als Haupthenne auszumachen. Es bleibt mit dem Hahn oft über mehrere Jahre zusammen und hat, ebenso wie der territoriale Hahn, ein eigenes Territorium mit einer Größe von bis zu 26 Quadratkilometern. Daneben gibt es mehrere meist recht junge rangniedrige Weibchen, die sogenannten Nebenhennen. Der Hahn paart sich zunächst mit der Haupthenne, dann mit den Nebenhennen. Der Paarung geht ein Balzritual voraus, bei dem der Hahn seine Flügel präsentiert und sie abwechselnd auf und ab schwingt. Gleichzeitig bläst er seinen farbigen Hals auf und lässt ihn ebenfalls abwechselnd nach links und rechts pendeln. Mit stampfenden Füßen geht der Hahn in dieser Position auf die Henne zu. Das Weibchen zeigt seine Paarungsbereitschaft mit einer „Demutsgeste“, bei der es den Kopf und die Flügel hängen lässt. Im Anschluss an die Paarung wählt die Haupthenne eine der Nestgruben, die der Hahn zuvor angelegt hat. Dies sind mit den Füßen in die Erde gekratzte Kuhlen mit einem Durchmesser von etwa drei Metern. Die Nebenhennen legen ihre Eier in dasselbe Nest und werden nach dem Legen von der Haupthenne vertrieben. Oft gehen sie danach in das Revier eines anderen Straußenhahns, mit dem sie sich ebenfalls paaren. Die Haupthenne legt durchschnittlich acht, selten bis zu zwölf Eier. Hinzu kommen je Nebenhenne zwei bis fünf Eier. In den großen Gemeinschaftsnestern liegen am Ende bis zu 80 Eier. Die Eier sind glänzend weiß, bis zu 1.900 Gramm schwer und haben einen Durchmesser von 15 Zentimetern, ihr Inhalt entspricht dem von 24 Hühnereiern. Die Eierschale ist 2 bis 3 mm dick. Damit zählen sie absolut gesehen zu den größten Eiern der Welt, in Relation zur Körpergröße des ausgewachsenen Tiers sind sie jedoch die kleinsten. Das unbefruchtete Ei besteht zuerst aus einer einzigen Zelle. Brutpflege und Aufzucht der Jungvögel. Nur das eigentliche Paar verbleibt schließlich am Nest und sorgt gemeinsam für die Brut. Da ein Vogel mit seinem Körper nur maximal 20 Eier bedecken kann, entfernt die Haupthenne zuvor die überschüssigen Eier der inzwischen vertriebenen Nebenhennen. In der Mitte des Nestes werden die eigenen Eier platziert, die von der Haupthenne offenbar an Größe und Gewicht erkannt werden. Obwohl die eigenen Eier also bevorzugt werden, ist immer noch Raum für zehn bis fünfzehn Eier von Nebenhennen, die mit ausgebrütet werden. Doch nicht nur die Nebenhennen profitieren von dieser Verhaltensweise: Wird das Gelege von Eierräubern angegriffen, sind mit höherer Wahrscheinlichkeit die außen liegenden Eier der Nebenhennen betroffen, was die Eier der Haupthenne zusätzlich schützt. Für gewöhnlich werden die Eier bei Tage von der Henne und bei Nacht vom Hahn bebrütet. Zahlreiche Raubtiere, vor allem Schakale, Hyänen und Schmutzgeier, versuchen immer wieder, die brütenden Vögel vom Nest fortzulocken, um an die Eier zu gelangen. Nur zehn Prozent aller Gelege werden erfolgreich ausgebrütet. Nach sechs Wochen schlüpfen die Küken. Sie tragen bereits ein hellbraunes Daunenkleid und sind Nestflüchter. Die Elternvögel fahren mit der Brutpflege fort, indem sie ihre Flügel über den Jungen ausbreiten, um sie so vor Sonne und Regen zu schützen. Im Alter von nur drei Tagen verlassen die Küken erstmals das Nest und folgen den Eltern überallhin. Gelegentlich treffen zwei Straußenpaare aufeinander. Dabei kommt es zu Drohgebärden und oft zu Kämpfen, bei denen ein Paar siegreich ist und anschließend die Jungen des unterlegenen Paares übernimmt. Auf diese Weise kann ein starkes Paar etliche Junge anderer Paare um sich sammeln. In einem Fall wurde ein Straußenpaar mit 380 Küken beobachtet. Dieses Verhalten führt, wie das Ausbrüten der Eier der Nebenhennen, wiederum dazu, dass bei einem Angriff von Raubtieren mit höherer Wahrscheinlichkeit die fremden und nicht die eigenen Küken betroffen sind. Trotzdem vollenden nur etwa 15 Prozent der Küken ihr erstes Lebensjahr. Mit drei Monaten wechseln die Jungen vom Daunen- zum Jugendkleid. Nach einem Jahr sind sie so groß wie die Elternvögel. Geschlechtsreif werden weibliche Strauße mit zwei Jahren. Männliche Jungstrauße tragen das Federkleid adulter Hähne bereits mit zwei Jahren. Fortpflanzungsfähig sind sie jedoch erst mit drei bis vier Jahren. Afrikanische Strauße haben eine Lebenserwartung von etwa 30 bis 40 Jahren; in Zoos werden sie auch bis über 50 Jahre alt. Stammesgeschichte und Systematik. Der Afrikanische Strauß ist die einzige lebende Art der Strauße (Struthionidae), von denen ansonsten nur fossile Arten bekannt sind. Welche andere Familie der Laufvögel als Schwestergruppe des Straußes ausgemacht werden kann, ist umstritten. Diskutiert werden die erst in jüngerer Zeit ausgestorbenen Elefantenvögel Madagaskars und die Nandus; bei Letzteren sind viele Zoologen davon überzeugt, dass sie ihre Ähnlichkeit zum Strauß in konvergenter Evolution erworben haben. Eine neuerdings wieder diskutierte Hypothese sieht als Schwestergruppe des Straußes ein gemeinsames Taxon von Nandus und Steißhühnern. Oft wird der Strauß als basales Taxon an der Wurzel der Laufvögel eingeordnet; hier gibt es jedoch auch zahlreiche andere Ansätze (Näheres siehe Laufvögel). Ein Massai-Strauß ("Struthio camelus massaicus") Populationen der Westsahara wurden bisweilen als sechste Unterart abgetrennt, die Zwergstrauß ("Struthio camelus spatzi") genannt wurde. Sie sind im Schnitt kleiner, und ihre Eierschalen haben eine andere Struktur. Von der Fachwelt wird diese Unterart größtenteils abgelehnt. Ebenfalls angezweifelt wird die aufgrund von DNA-Analysen gelegentlich vorgenommene Abtrennung des Somali-Straußes als eigenständige Art ("Struthio molybdophanes"). Unterschieden sind die einzelnen Unterarten vor allem durch die Farben der Hautpartien von Hals und Beinen der Hähne. Die Hennen der Unterarten sind dagegen kaum voneinander zu unterscheiden. Hals und Beine sind beim Nordafrikanischen Strauß, beim Massaistrauß und beim Südafrikanischen Strauß rosafarben, beim Somali-Strauß blaugrau. Die Intensität des Rosatons ist bei jeder Unterart verschieden. Der Nordafrikanische Strauß hat zudem einen Halsring aus weißen Federn, etwas weniger stark ausgeprägt findet man diesen auch beim Massai-Strauß; er fehlt beim Somali-Strauß und beim Südafrikanischen Strauß. Fossilgeschichte. Der Ursprung der Familie der Straußenvögel ist bisher wenig geklärt. Als ältester Vertreter gilt manchen Fachleuten die Gattung "Palaeotis", deren Fossilien aus dem Mittleren Eozän in der Grube Messel und im Geiseltal gefunden wurden. Diese Vertreter größerer Laufvögel zeigen allerdings anderen Bearbeitern zufolge mehr Ähnlichkeiten mit den Nandus und könnten als deren Schwestergruppe eingestuft werden. Neueren Untersuchungen zufolge steht aber "Palaeotis" an der Basis der Entwicklung der Gruppe der Laufvögel und ist somit ein entfernter Vorfahre des Afrikanischen Straußes. Vögel, die unbestritten zu den Straußen gehören, sind seit dem Miozän belegt. Damit ist "Struthio" eine sehr alte Vogelgattung. "Struthio orlovi" aus dem Miozän Moldawiens ist die älteste bekannte Art. Im Pliozän lebten mehrere Arten in Asien, beispielsweise in der Mongolei und in Ostasien ("Struthio chersonensis", "Struthio mongolicus", "Struthio wimani"). Der Asiatische Strauß ("Struthio asiaticus") lebte im Pleistozän in den Steppen Zentralasiens. Im Pleistozän tauchte der heute lebende Afrikanische Strauß auf, dessen Verbreitungsgebiet während der letzten Eiszeit auch Spanien und Indien umfasste. Strauß und Mensch. a>, über der Szene hängt als Symbol der Jungfräulichkeit Marias ein Straußenei Geschichte, mythologische und magische Aspekte. In der sogenannten Apollo-11-Höhle in Namibia fanden Archäologen künstliche Perlen aus Straußenei, die aus dem neunten Jahrtausend vor Christus stammen. Bei archäologischen Ausgrabungen in Kaspien fanden sich gravierte Straußeneier, die eines der ersten Kunstartefakte dieser Zeit darstellen. Ebenso gibt es Fragmente verzierter Straußeneier aus dem Epipaläolithikum aus der nördlichen Sahara. Diese sind mit geometrischen Mustern geschmückt, wie sie auch naturalistische Darstellungen von der Natur geben. Auf diesen, ebenso wie auf Steinplaketten derselben Zeit, sind unter anderem auch Strauße abgebildet. In Indien sind über 40 Fundstellen mit Bruchstücken von Straußeneierschalen entdeckt worden. Sie liegen in den westlichen und zentralen Bundesstaaten Uttar Pradesh, Maharastra, Madhya Pradesh und Rajasthan. Radiocarbonuntersuchungen belegen, dass einige vor 25.000 bis 40.000 Jahren mit Gravierungen versehen wurden. Zusammen mit den Eischalen wurde eine Steinindustrie des Oberen Paläolithikums (Altsteinzeit) gefunden. Im Alten Ägypten waren Strauße wichtige Zucht- und Jagdtiere, die als Eier-, Fleisch- und Federlieferanten große Bedeutung hatten. Die Jagd auf Strauße war bis ins Neue Reich ein besonderes gesellschaftliches Vergnügen. Die großen, weißen Schmuckfedern galten aufgrund ihrer ebenmäßigen und symmetrischen Bewimperung und eleganten Gestalt als Symbol des Lichts und der Gerechtigkeit und schmückten königliche Standarten und Prunkwedel. Aus dem antiken Griechenland und Syrien sind Strauße als Zug- und sogar Reittiere belegt. Straußeneier dienten als Grabschmuck mit kultischer Funktion: Die ältesten Funde stammen aus der altägyptischen Stadt Abydos und werden etwa 1800 v. Chr. datiert, punische Gräber bei Karthago und Gräber in Fessan waren ebenso mit Straußeneiern geschmückt. 1771 wurde von Straußeneiern an einem muslimischen Grab bei Palmyra berichtet. In Europa fanden sich Straußeneier als Grabbeigabe in Mykene und mehrfach in antiker Zeit in Italien. In vielen Regionen Schwarzafrikas haben Strauße Eingang in Rituale, Märchen und Fabeln gefunden. Einen praktischen Nutzen haben die Eier für die Khoisan, die sie als Trinkgefäße verwenden oder Halsbänder und Armreife aus den Schalen fertigen. Auf der Arabischen Halbinsel fanden Archäologen an zahlreichen Stellen bemalte Straußeneierschalen aus dem 2. und 1. Jahrtausend v. Chr., die als Behälter verwendet wurden. Es bestand vermutlich ein Jagdverbot auf die Vögel in Gegenden, wo man sie als Gottheiten ansah. Im Unterschied zum alten Mesopotamien wurde ihr Fleisch offensichtlich nicht verzehrt. In der islamischen Zeit dienten die Eierschalen besonders in den Moscheen als Öllampen. Richard Francis Burton schilderte sie Mitte des 19. Jahrhunderts als beliebtes Souvenir von Mekka-Pilgern. Dass es ein Verbot gab, Straußeneier während der Pilgerreise zu zerschlagen, lässt sich als Hinweis auf eine gewisse Verehrung des Vogels deuten. Im islamischen Volksglauben Nordafrikas hat sich der magische Aspekt des Straußenvogels mancherorts noch erhalten. So bekrönen fünf (zur Zahl vergleiche "Hamsa") Straußeneierschalen das Minarett von Chinguetti in Mauretanien. Eine ebensolche beschützende Funktion sollen Straußeneier ausüben, die sehr häufig an den Dachspitzen äthiopisch-orthodoxer Kirchengebäude festgemacht sind oder über den Türen zum Altarraum hängen. Analog wie der Strauß stets seine Eier bewacht, beschirmen diese nun das Gotteshaus. Ein anderer Bezug zum Strauß verweist auf seine Vorbildfunktion: So wie der Vogel seine im Sand vergrabenen Eier nicht aus dem Blick verliert, möge der Gläubige beim Gebet seine ungeteilte Aufmerksamkeit Gott zukommen lassen. Im christlichen europäischen Mittelalter konnte dasselbe Bild gegenteilig interpretiert werden, indem der Strauß seine vergrabenen Eier vergisst und so zum Sünder wird, der seine Pflichten gegenüber Gott vernachlässigt. Eine sprichwörtlich negative Vorstellung ist auch der Strauß, der seinen Kopf in den Sand steckt. Im Christentum war der Strauß ebenso wie das Einhorn ein Symbol für die Jungfräulichkeit. Es wurden Vorstellungen des "Physiologus" aus dem 2. Jahrhundert n. Chr. aufgegriffen, wonach der Vogel seine Eier von der Sonne ausbrüten lässt oder die Eier nur anzuschauen braucht, damit sie gebrütet werden. Ab dem 16. Jahrhundert wurde der Strauß zu einem der Attribute der Gerechtigkeit (Iustitia). Aus den Schalen von Straußeneiern wurden prunkvolle, reichverzierte Trinkgefäße und Pokale gefertigt. Im Iran gilt der Strauß, persisch "shotor-morgh" ("shotor" „Kamel“, "morgh" „Vogel“), als Sinnbild eines Drückebergers: Fordert man ihn auf zu fliegen, behauptet er ein Kamel zu sein, will man ihm aber Lasten aufladen, gibt er an, ein Vogel zu sein. Daher lautet das persische Sprichwort: "Entweder sei ein Vogel und fliege, oder sei ein Kamel und trage!", das bedeutet „entscheide dich“ oder „übernimm Verantwortung!“. Nutzung. Der Strauß als Zugtier (Florida 1910) Als im 18. Jahrhundert Straußenfedern als Hutschmuck der reichen Damenwelt Europas in Mode kamen, begann die Jagd auf die Vögel solche Ausmaße anzunehmen, dass sie den Bestand der Art bedrohte. In Westasien, Nordafrika und Südafrika wurde der Strauß restlos ausgerottet. Im 19. Jahrhundert begann man, Strauße in Farmen zu züchten, da frei lebende Strauße extrem selten geworden waren. Die erste dieser Farmen entstand 1838 in Südafrika. In der zweiten Hälfte des 20. Jahrhunderts wurden immer mehr Straußenfarmen auch in Europa und Nordamerika eröffnet. Heute spielen die Federn in der Straußenzucht kaum noch eine Rolle. Man züchtet die Strauße nun vor allem wegen ihres Fleisches und der graublauen Haut, aus der man Leder herstellt. Das Fleisch des Straußes hat einen ganz eigenen Geschmack, der am ehesten mit Rindfleisch oder dem des Bison zu vergleichen ist. Aus den Schalen der Eier fertigt man Lampenschirme und Schmuckgegenstände. In Südafrika (Weltmarktanteil: 75 %) werden je 45 % der Einnahmen aus der Straußenzucht durch Fleisch und Haut erzielt, 10 % durch Federn. In Europa wird durch Fleisch 75 % und die Haut 25 % eingenommen. Als Reit- und Zugtiere werden Strauße erst in jüngerer Zeit als Touristenattraktion genutzt. Dies hat jedoch nirgendwo eine kulturelle Tradition. Der Umgang mit Straußen ist nicht ungefährlich. Vor allem die Hähne sind während der Brutzeit angriffslustig. Eindringlinge werden dabei mit Fußtritten traktiert. Die Wucht und vor allem die scharfen Krallen können dabei zu schweren Verletzungen oder gar zum Tode führen. Der Arabische Strauß wurde am Anfang des 20. Jahrhunderts ausgerottet. Diese Unterart war in Palästina und Syrien noch bis zum Ersten Weltkrieg recht häufig, wurde dann aber durch motorisierte Jagden mit Schusswaffen vernichtet. Das letzte wild lebende Tier starb 1966 in Jordanien. 1973 wurden Strauße in der Wüste Negev in Israel freigesetzt, wodurch sie dort inzwischen wieder heimisch sind. Es handelt sich jedoch um Nordafrikanische Strauße, also eine andere Unterart. Die Art insgesamt ist nicht bedroht, da sie vor allem in Ostafrika noch häufig ist. Regional ist der Strauß jedoch selten, so in Westafrika. Etymologie. Das Wort "Strauß" stammt vom altgriechischen "strouthiōn" (στρουθίων), was soviel wie ‚großer Spatz‘ bedeutet. Die Griechen bezeichneten den Strauß auch als ‚Kamelspatz‘ (στρουθοκάμηλος "strouthokamēlos"), was den wissenschaftlichen Namen der Art, "Struthio camelus," erklärt. Auffallend ist, dass der Strauß in verschiedenen Sprachen den verdeutlichenden Zusatz "Vogel" trägt. Dem deutschen "Vogel Strauß" entspricht so der niederländische "struisvogel" und der schwedische "fågeln struts." Die englische Bezeichnung "ostrich," das französische "autruche" und das portugiesische und spanische "avestruz" gehen alle gleichermaßen auf das lateinische "avis struthio" zurück – "avis" bedeutet ebenfalls nichts anderes als ‚Vogel‘. Sirius. Sirius, Bayer-Bezeichnung α Canis Majoris ("Alpha Canis Majoris", "α CMa"), auch Hundsstern, Aschere oder Canicula genannt, ist als Doppelsternsystem des Sternbildes „Großer Hund“ das südlichste sichtbare Himmelsobjekt des Wintersechsecks. Seine hellere Komponente besitzt eine scheinbare Helligkeit von −1,46 mag. Damit ist Sirius A der hellste Stern am Nachthimmel, beinahe doppelt so hell wie der zweithellste Stern Canopus mit einer scheinbaren Helligkeit von −0,72 mag. Unter den Gestirnen sind nur Sonne, Mond und die Planeten Venus, Jupiter, Mars und Merkur heller. Die Helligkeit seines Begleiters, des Weißen Zwerges Sirius B, beträgt hingegen nur 8,5 mag. Mit 8,6 Lichtjahren Entfernung ist Sirius eines der nächsten Gestirne. Aufgrund des geschätzten Alters von etwa 240 Millionen Jahren gehört Sirius zu den jungen Sternsystemen. Sirius A. Sirius A ist ein Hauptreihenstern vom Spektraltyp A1 mit der Leuchtkraftklasse V und dem Zusatz m für „metallreich“. Seine Masse ist etwa 2,1-mal so groß wie die der Sonne. Interferometrische Messungen zeigen, dass sein Durchmesser das 1,7-fache des Sonnendurchmessers beträgt. Sirius’ Leuchtkraft ist 25-mal so hoch wie die der Sonne. Die Oberflächentemperatur beträgt knapp 10.000 K. Die durch die Rotation des Sterns verursachte Dopplerverbreiterung der Spektrallinien erlaubt es, eine Untergrenze für die Rotationsgeschwindigkeit am Äquator zu bestimmen. Sie liegt bei 16 km/s, woraus eine Rotationsdauer von etwa 5,5 Tagen oder weniger folgt. Diese niedrige Geschwindigkeit lässt keine messbare Abplattung der Pole erwarten. Im Gegensatz dazu rotiert die ähnlich große Wega mit 274 km/s sehr viel schneller, was eine erhebliche Ausbuchtung am Äquator zur Folge hat. Größenvergleich zwischen Sirius A (links) und der Sonne Das Lichtspektrum von Sirius A zeigt ausgeprägte metallische Linien. Dies deutet auf eine Anreicherung von schwereren Elementen als Helium, wie etwa das spektroskopisch besonders leicht beobachtbare Eisen, hin. Das Verhältnis von Eisen zu Wasserstoff ist in der Atmosphäre etwa dreimal so groß wie in der Atmosphäre der Sonne (entsprechend einer Metallizität von [Fe/H] = 0,5). Es wird vermutet, dass der in der Sternatmosphäre beobachtete hohe Anteil von schwereren Elementen nicht repräsentativ für das gesamte Sterninnere ist, sondern durch Anreicherung der schwereren Elemente auf der dünnen äußeren Konvektionszone des Sterns zustande kommt. Die Gas- und Staubwolke, aus der Sirius A gemeinsam mit Sirius B entstand, hatte laut gängigen Sternmodellen nach etwa 4,2 Millionen Jahren das Stadium erreicht, in dem die Energiegewinnung durch die langsam anlaufende Kernfusion die Energiefreisetzung infolge Kontraktion um die Hälfte übertraf. Nach zehn Millionen Jahren schließlich stammte die gesamte erzeugte Energie aus der Kernfusion. Sirius A ist seither ein gewöhnlicher, Wasserstoff verbrennender Hauptreihenstern. Er erzeugt bei einer Kerntemperatur von etwa 22 Millionen Kelvin seine Energie hauptsächlich über den Bethe-Weizsäcker-Zyklus. Wegen der starken Temperaturabhängigkeit dieses Fusionsmechanismus wird die erzeugte Energie im Kern größtenteils durch Konvektion transportiert. Außerhalb des Kerns geschieht der Energietransport durch Strahlung, lediglich knapp unterhalb der Sternoberfläche setzt wieder konvektiver Transport ein (siehe auch Sternaufbau). Sirius A wird seinen Vorrat an Wasserstoff innerhalb der nächsten knappen Jahrmilliarde verbrauchen, danach den Zustand eines Roten Riesen erreichen und schließlich als Weißer Zwerg von etwa 0,6 Sonnenmassen enden. Sirius B. Sirius B, der lichtschwache Begleiter von Sirius A, ist der dem Sonnensystem nächstgelegene Weiße Zwerg. Er ist nur etwa so groß wie die Erde und wegen seiner Nähe einer der bestuntersuchten Weißen Zwerge überhaupt. Er spielte bei der Entdeckung und Beschreibung Weißer Zwerge eine wichtige Rolle. Die Beobachtung wird dadurch erschwert, dass er durch die große Helligkeit von Sirius A überstrahlt wird. Sirius B hat 98 % der Masse der Sonne, aber nur 2,7 % ihrer Leuchtkraft. Entdeckung. Friedrich Bessel bemerkte 1844 bei der Auswertung langjähriger Beobachtungsreihen eine Unregelmäßigkeit in der Eigenbewegung des Sirius, welche er als den Einfluss eines Doppelsternpartners mit einer Umlaufdauer von etwa einem halben Jahrhundert deutete. Zwar war vier Jahrzehnte zuvor von William Herschel die Existenz von physisch zusammengehörigen Doppelsternen gezeigt worden, aber alle bisher bekannten Doppelsterne hatten zwei oder mehr "sichtbare" Komponenten. Dass der vermutete Begleiter von Sirius bisher von niemandem gesehen worden war, schreckte Bessel nicht ab: "„Dass zahllose Sterne sichtbar sind, beweiset offenbar nichts gegen das Dasein zahlloser unsichtbarer“." Christian Peters konnte 1851 in seiner Habilitationsschrift die Umlaufperiode des Begleiters zu 50,093 Jahren und seine Masse zu mehr als sechs Jupitermassen bestimmen, eine starke Exzentrizität der Umlaufbahn feststellen und eine Ephemeride seiner erwarteten Positionen geben. Trotz dieser Hilfestellung gelang niemandem die Beobachtung, bis am 31. Januar 1862 Alvan Graham Clark, ein Sohn des Bostoner Instrumentenbauers Alvan Clark, eine gerade fertiggestellte Objektivlinse an Sirius prüfte und feststellte: "„Vater, Sirius hat einen Begleiter.“" Da Sirius B sich auf seiner Umlaufbahn damals zunehmend von Sirius A entfernte, konnte er nunmehr auch von zahlreichen anderen Beobachtern ausfindig gemacht und vermessen werden. Weißer Zwerg. Nach mehrjährigen Positionsmessungen, aus denen sich auch die Abstände der beiden Sterne vom gemeinsamen Schwerpunkt und damit ihr Massenverhältnis ergaben, stellte Otto von Struve 1866 fest, dass der Begleiter etwa halb so schwer war wie Sirius selbst. Bei gleichem Aufbau wie Sirius hätte der Begleiter damit immerhin 80 % von dessen Durchmesser und deshalb eine nur wenig geringere Helligkeit haben müssen. Weil der Begleiter aber nur die achte Größenklasse erreichte, also 10.000-mal leuchtschwächer als Sirius war, schloss Struve, "„dass die beiden Körper von sehr unterschiedlicher physischer Beschaffenheit sind“". Über Jahrzehnte hinweg blieb Sirius B eine bloße Kuriosität. Nachdem die Anwendung der Spektralanalyse auf das Sternenlicht die Einteilung der Sterne in Spektralklassen erlaubt hatte, konnten Ejnar Hertzsprung und Henry Russell ab etwa 1910 systematische Zusammenhänge zwischen der Spektralklasse eines Sterns und seiner Leuchtkraft aufdecken. Im Hertzsprung-Russell-Diagramm bildeten die (damals untersuchten) Sterne zwei Gruppen: „Zwerge“ und „Riesen“. Nicht in das Schema passte jedoch schon damals der Stern 40 Eridani B, ein schwacher Begleiter von 40 Eridani: Er war gemessen an seiner Spektralklasse viel zu lichtschwach. 1915 konnte ein Spektrum von Sirius B aufgenommen werden, das ihn im HR-Diagramm in die Nähe von 40 Eridani B rückte und zeigte, dass die beiden offenbar Angehörige einer neuen Sternklasse waren. Ihre geringe Leuchtkraft trotz hoher Temperatur zeugte von einer geringen abstrahlenden Oberfläche, also einem kleinen Radius und damit einer immensen Dichte. Arthur Eddington hatte ab den 1920er Jahren detaillierte und erfolgreiche Sternmodelle erarbeitet, indem er Gaskugeln betrachtete, in denen der Gravitationsdruck der Gasmassen im Gleichgewicht mit dem Gasdruck und dem Strahlungsdruck stand. Die so genannten „Weißen Zwerge“ konnte er mit seinen Modellen jedoch nur teilweise beschreiben, bis Ralph Fowler 1926 das erst kurz zuvor entdeckte Pauli-Prinzip mit einbezog. Im Inneren eines Weißen Zwerges ist das Gas vollständig ionisiert, besteht also aus Atomkernen und freien Elektronen. Da die Elektronen dem Pauli-Prinzip unterliegen, können keine zwei Elektronen in allen Quantenzahlen übereinstimmen. Dies bedeutet insbesondere, dass Elektronen in einem bereits stark komprimierten Elektronengas sich bei Erhöhung des äußeren Drucks nur dann weiter einander annähern können, wenn ein Teil der Elektronen auf höhere Energieniveaus ausweicht. Bei der Kompression muss also wegen dieses als Entartungsdruck bezeichneten Widerstands zusätzliche Energie aufgewendet werden. Während die Atomkerne den Hauptanteil der Sternmasse liefern, tragen die Elektronen mit dem quantenmechanisch bedingten Entartungsdruck zur Stabilisierung des Sterns bei. Eine Konsequenz daraus ist, dass der Radius eines Weißen Zwerges mit steigender Masse "abnimmt", während der Radius eines gewöhnlichen Sternes mit wachsender Masse zunimmt. Subrahmanyan Chandrasekhar zeigte 1931, dass ein Weißer Zwerg oberhalb einer Grenzmasse von etwa 1,4 Sonnenmassen („Chandrasekhar-Grenze“) nicht mehr stabil sein kann. Gravitative Rotverschiebung. Albert Einstein hatte im Zuge seiner Vorarbeiten zur allgemeinen Relativitätstheorie bereits 1911 vorhergesagt, dass Photonen, die mit der Wellenlänge λo von einem massereichen Körper ausgesandt werden, bei einem höher im Gravitationsfeld befindlichen Beobachter mit einer größeren, also rotverschobenen Wellenlänge eintreffen. Einige Versuche, diesen Effekt an Spektrallinien der Sonne zu beobachten, scheiterten zunächst wegen seiner Geringfügigkeit. Die Wellenlängenverschiebung, ausgedrückt als eine Geschwindigkeit in km/s (so als ob es sich um einen Dopplereffekt aufgrund einer Relativbewegung handeln würde), beträgt 0,6·"M"/"R", wobei "M" und "R" die Masse und der Radius des Körpers sind, ausgedrückt als Vielfache der Sonnenmasse und des Sonnenradius. Da sich das Verhältnis "M"/"R" auch bei sehr massereichen Sternen wenig gegenüber der Sonne ändert, schien ein Nachweis des Effekts bis in die 1920er Jahre hinein aussichtslos zu sein. Bei Weißen Zwergen jedoch nimmt der Radius mit wachsender Masse ab. Es handelt sich daher um massereiche Objekte mit kleinem Radius, die eine deutliche Rotverschiebung zeigen sollten. Eddington, der bereits 1919 die relativistische Lichtablenkung im Gravitationsfeld der Sonne nachgewiesen hatte, sah darin eine Chance, die von ihm vermutete außerordentliche Dichte Weißer Zwerge zu bestätigen. Die Wahl fiel auf Sirius B, weil er Bestandteil eines Doppelsternsystems war. Daher war seine Masse bekannt, und durch Vergleich mit dem Spektrum von Sirius A war es außerdem möglich, den gravitativen Anteil der Rotverschiebung von der durch die Radialgeschwindigkeit des Systems erzeugten Dopplerverschiebung zu unterscheiden. Ausgehend von den damals angenommenen Werten für Temperatur und Radius erwartete Eddington eine Rotverschiebung von etwa +20 km/s. Walter Adams konnte im Jahre 1925 Spektren von Sirius B aufnehmen, die vermeintlich nur wenig durch Licht von Sirius A überlagert waren, und erhielt eine Verschiebung von +21 km/s. J.H. Moore bestätigte 1928 die Messung mit einem Wert von (21 ± 5) km/s. In den folgenden Jahrzehnten konnten die theoretischen Modelle Weißer Zwerge erheblich verbessert werden. Es stellte sich heraus, dass Eddington die Temperatur von Sirius B stark unterschätzt und den Radius daher überschätzt hatte. Die Theorie verlangte nun das Vierfache der von Eddington berechneten Rotverschiebung. Erneute Messungen ergaben in der Tat im Jahre 1971 eine Rotverschiebung von (+89 ± 16) km/s. Die Autoren erklärten Adams’ Ergebnis damit, dass damals wegen der starken Lichteinstreuung von Sirius A auch Spektrallinien vermessen worden waren, von denen mittlerweile bekannt war, dass sie zu Sirius A gehören. Der aktuelle Wert für die gravitative Rotverschiebung von Sirius B beträgt (80,42 ± 4,83) km/s; das Auflösungsvermögen des Hubble-Weltraumteleskops hatte es im Jahre 2004 ermöglicht, ein hochaufgelöstes Spektrum von Sirius B ohne nennenswerte Einstreuungen von Sirius A aufzunehmen. Entwicklung. Nach den aktuellen Szenarien zur Sternentwicklung entstanden Sirius A und B vor etwa 240 Millionen Jahren gemeinsam als Doppelsternsystem. Sirius B war ursprünglich mit fünf Sonnenmassen und der 630-fachen Leuchtkraft der Sonne viel schwerer und leuchtkräftiger als Sirius A mit nur zwei Sonnenmassen. Wegen seiner großen Masse und der damit einhergehenden hohen Fusionsrate hatte Sirius B nach etwa 100 Millionen Jahren den Großteil des Wasserstoffs in seinem Kern zu Helium verbrannt (Wasserstoffbrennen). Die Fusionszone verlagerte sich in eine Schale um den ausgebrannten Kern und Sirius B blähte sich zu einem Roten Riesen auf. Schließlich versiegte auch diese Energiequelle, so dass Sirius B begann, das erzeugte Helium zu Kohlenstoff und Sauerstoff zu fusionieren (Heliumbrennen). Er verlor seine nur noch schwach gebundenen äußeren Schichten wegen des starken einsetzenden Sternwindes und büßte so etwa vier Fünftel seiner ursprünglichen Masse ein. Übrig blieb der hauptsächlich aus Kohlenstoff und Sauerstoff bestehende ausgebrannte Kern, in dem praktisch keine Energieerzeugung mehr stattfand. Da die Kernmaterie nun vollständig ionisiert war und der innere Druck zur Stabilisation fehlte, brauchten die Atomkerne und freien Elektronen wesentlich weniger Platz. Der Kern konnte daher auf enorme Dichte zusammenschrumpfen, bis der Entartungsdruck der Elektronen ein weiteres Komprimieren verhinderte. Sirius B befindet sich nun seit etwa 124 Millionen Jahren in diesem Stadium und kühlt langsam aus. Eigenschaften. Sirius B ist etwas kleiner als die Erde, aber über 300.000-mal schwerer Gegenüber der wesentlich helleren Komponente Sirius A hat der Begleitstern Sirius B nur eine scheinbare Helligkeit von 8,5 mag. Er besitzt knapp eine Sonnenmasse und ist damit einer der massereichsten bekannten Weißen Zwerge (die meisten Weißen Zwerge konzentrieren sich in einem engen Bereich um 0,58 Sonnenmassen, nur geschätzte 2 % oder weniger überschreiten eine Sonnenmasse). Mit einer Oberflächentemperatur von rund 25.000 K ist Sirius B viel heißer als die Sonne oder Sirius A. Trotz dieser hohen Temperatur beträgt seine Helligkeit nur ein Zehntausendstel derjenigen von Sirius A. Die Kombination der beobachteten Temperatur und Helligkeit mit Modellrechnungen ergibt einen Durchmesser von 0,00864 Sonnendurchmessern (ca. 12.020 km). Sirius B ist also sogar etwas kleiner als die Erde (mittlerer Durchmesser 12.742 km). Die Schwerkraft auf der Oberfläche von Sirius B ist knapp 400.000-mal höher als auf der Erde (log "g" = 8,556), seine mittlere Dichte beträgt 2,38 Tonnen/cm3, die Dichte in seinem Zentrum 32,36 Tonnen/cm3. Sirius B besteht aus einer vollständig ionisierten Mischung aus Kohlenstoff und Sauerstoff, umgeben von einer dünnen Atmosphäre ionisierten Wasserstoffs. Wegen der starken Oberflächenschwerkraft sind fast alle schwereren Verunreinigungen der Atmosphäre in den Kern abgesunken, so dass das Spektrum von Sirius B praktisch ausschließlich Wasserstofflinien aufweist. Da die heiße Wasserstoffatmosphäre für Röntgenstrahlung durchsichtig ist, können Röntgenemissionen beobachtet werden, die aus tieferen, heißeren Schichten stammen. Sirius B besitzt praktisch kein Magnetfeld. Sirius C. In den 1920er Jahren beobachteten mehrere Astronomen wiederholt einen schwachen Stern etwa der zwölften Größenklasse in unmittelbarer Nähe zu Sirius A, verloren diesen möglichen neuen Begleiter dann aber wieder. Französische Astronomen konnten 1999 auf einer Aufnahme mit abgeblendetem Sirius A dessen Umgebung näher auf schwache Sterne untersuchen. Sie fanden einen Hintergrundstern passender Helligkeit, an dem Sirius in der ersten Hälfte des 20. Jahrhunderts vorbeigezogen war und der offenbar von den damaligen Beobachtern gesehen worden war. Beim Vergleich mit einer früheren Aufnahme konnten die Astronomen außerdem bis in eine Nähe von 30 Bogensekunden keinen Begleitstern finden, der sich durch eine mit Sirius A gemeinsame Eigenbewegung verraten hätte. Eine Untersuchung von Unregelmäßigkeiten in der Umlaufbewegung von Sirius A und B deutet darauf hin, dass sich im Sirius-System eine dritte Komponente, deren Masse auf nur etwa 0,06 Sonnenmassen eingeschätzt wird, mit einer Umlaufdauer von etwa sechs Jahren befinden könnte. Da es um Sirius B keine stabile Umlaufbahn mit einer Umlaufzeit von mehr als vier Jahren gibt, kann der potenzielle Sirius C nur um Sirius A kreisen. Sirius A und B als Doppelsternsystem. Scheinbare Umlaufbahn von Sirius B (in Blickrichtung Süden) Das Sternensystem Sirius besteht aus den zwei oben beschriebenen Sternen, die sich mit einer Periode von 50,052 Jahren um ihren gemeinsamen Massenschwerpunkt bewegen. Wie bei allen Doppelsternen bewegt sich jeder der beiden Sterne jeweils auf einer Ellipse um diesen Schwerpunkt; für jede der beiden Ellipsen fällt einer ihrer Brennpunkte mit dem Schwerpunkt zusammen. Da Sirius A mehr als doppelt so schwer ist wie Sirius B, liegt der Schwerpunkt des Systems näher an Sirius A. Aus praktischen Gründen wird üblicherweise nur die relative Bahn von Sirius B bezüglich Sirius A dargestellt, der daher einen festen Punkt im Diagramm einnimmt. Diese relative Bahn ist ebenfalls eine Ellipse, nun aber mit Sirius A in einem ihrer Brennpunkte. Könnte ein irdischer Beobachter senkrecht auf die Bahnebene des Doppelsternsystems blicken, so sähe er diese Ellipse mit einer 7,501″ langen großen Halbachse und einer Exzentrizität von 0,5923. Unter Berücksichtigung der Entfernung von Sirius folgen daraus für die große Halbachse eine Länge von knapp 20 Astronomischen Einheiten (AE) oder knapp drei Milliarden Kilometern, ein kleinster Abstand von 8 AE und ein größter Abstand von 31,5 AE. Der kleinste bzw. größte Abstand würde diesem Beobachter unter einem Winkel von 3,1″ bzw. 11,9″ erscheinen. Da die Bahn jedoch um 136,62° gegen die Sichtlinie geneigt ist, sieht der Beobachter die Bahn in Schrägansicht, die sich wiederum als Ellipse, aber mit etwas größerer Exzentrizität darstellt. Die Abbildung zeigt diese scheinbare Bahn, wie sie von der Erde aus gesehen erscheint. Obwohl Sirius A in einem Brennpunkt der relativen Umlaufbahn von Sirius B liegt, befindet er sich wegen der Schrägansicht nicht in einem Brennpunkt der im Diagramm dargestellten perspektivisch verkürzten Ellipse. Aufgrund der Schrägansicht erscheinen dem Beobachter die größtmöglichen und kleinstmöglichen Winkelabstände, die Sirius B auf dieser scheinbaren Bahn durchläuft, etwas kleiner als die oben angegebenen unverzerrten Werte. Sirius B passierte auf seiner wahren Bahn den geringsten Abstand zu Sirius A (das Periastron) das letzte Mal im Jahre 1994, erreichte auf der scheinbaren Bahn den verkürzungsbedingt geringsten Abstand jedoch bereits 1993. Während sich Sirius B im Zustand des roten Riesen befand, könnte sich durch Massenübertritt die Metallizität seines Begleiters Sirius A erhöht haben. Dies wäre eine Erklärung, warum Sirius A mehr Metalle (Elemente schwerer als Helium) in seiner Hülle enthält, als dies für einen Hauptreihenstern zu erwarten wäre. So liegt der Gehalt an Eisen z. B. 7,4-mal über dem der Sonne. Vom Infrarot-Satelliten IRAS gemessene Werte zeigen für das Sirius-System eine höhere infrarote Strahlung als erwartet. Das könnte auf Staub in diesem System hinweisen und wird als ungewöhnlich in einem Doppelsternsystem betrachtet. Der nächste Nachbarstern Prokyon ist von Sirius A+B 5,24 Lichtjahre entfernt. Die weiteren größeren Nachbarsternsysteme sind mit Entfernungen von 7,8 Lj Epsilon Eridani, 8,6 Lj die Sonne und 9,5 Lj Alpha Centauri. Eigenbewegung. Sirius weist eine relativ große Eigenbewegung von 1,3″ im Jahr auf. Davon entfallen etwa 1,2″ auf die südliche und 0,55″ auf die westliche Richtung. Sirius und Arktur waren die ersten Sterne, an denen eine Eigenbewegung festgestellt wurde, nachdem sie über Jahrtausende hinweg als unbeweglich („Fixsterne“) galten. Im Jahre 1717 bemerkte Edmond Halley beim Vergleich der von ihm selbst gemessenen Sternpositionen mit den im Almagest überlieferten antiken Koordinaten, dass Sirius sich seit der Zeit des Ptolemäus um etwa ein halbes Grad (einen Vollmonddurchmesser) nach Süden verschoben hatte. Sirius-Supercluster. Im Jahre 1909 machte Hertzsprung darauf aufmerksam, dass auch Sirius aufgrund seiner Eigenbewegung wohl als ein Mitglied des Ursa-Major-Stroms anzusehen sei. Dieser Sternstrom besteht aus etwa 100 bis 200 Sonnen, die eine gemeinsame Bewegung durch den Raum zeigen und vermutlich zusammen als Mitglieder eines offenen Sternhaufens entstanden, dann aber weit auseinanderdrifteten. Untersuchungen aus den Jahren 2003 und 2005 ließen jedoch Zweifel aufkommen, ob Sirius ein Mitglied dieser Gruppe sein kann. Das Alter der Ursa-Major-Gruppe musste auf etwa 500 (± 100) Millionen Jahre heraufgesetzt werden, während Sirius nur etwa halb so alt ist. Damit wäre er zu jung, um zu dieser Gruppe zu gehören. In der Umgebung der Sonne lassen sich neben dem Ursa-Major-Strom noch andere Bewegungshaufen unterscheiden, unter anderem der Hyaden-Supercluster sowie der Sirius-Supercluster. Letzterer umfasst neben Sirius und der Ursa-Major-Gruppe auch weit verstreut liegende Sterne wie Beta Aurigae, Alpha Coronae Borealis, Zeta Crateris, Beta Eridani und Beta Serpentis. Die Bezeichnung „Supercluster“ beruht auf der Vorstellung, dass auch diese großen Sterngruppen jeweils gemeinsam entstanden sind und – obwohl inzwischen weit auseinandergedriftet – eine erkennbare gemeinsame Bewegung beibehalten haben. Sirius wäre dann, wo nicht Mitglied der Ursa-Major-Gruppe, so doch des umfassenderen Sirius-Superclusters. Das Szenario eines gemeinsamen Ursprungs der Sterne in einem solchen Supercluster ist jedoch nicht unumstritten; insbesondere kann es nicht erklären, warum es in einem Supercluster Sterne sehr unterschiedlichen Alters gibt. Eine alternative Deutung geht davon aus, dass der Hyaden- und der Siriusstrom nicht aus Sternen jeweils gemeinsamer Herkunft bestehen, sondern aus Sternen ohne Verwandtschaft, denen Unregelmäßigkeiten im Gravitationsfeld der Milchstraße ein gemeinsames Bewegungsmuster aufgeprägt haben. Es wäre dann nicht von „Superclustern“, sondern von „dynamischen Strömen“ zu sprechen. Vorbeiflug am Sonnensystem. Sirius nähert sich unserem Sonnensystem, allerdings mit stetig abnehmender Geschwindigkeit. So betrug sie vor 2000 Jahren noch ungefähr 32.000 km/h, im Jahr 2000 n. Chr. etwa 31.300 km/h und im Jahr 3000 n. Chr. wird sich der Wert nur noch auf rund 31.000 km/h belaufen. In den folgenden Jahrtausenden wird sie sich weiter verlangsamen. In etwa 64.000 Jahren wird Sirius zu unserem Sonnensystem mit ca. 7,86 Lichtjahren die größte Annäherung erreicht haben und die scheinbare Helligkeit wird bei −1,68 mag liegen. In den Folgejahren wird sich die Entfernung zu unserem Sonnensystem wieder stetig erhöhen. Sichtbarkeit. Die scheinbare Position von Sirius am Himmel ist abhängig vom Beobachtungsort auf der Erde und wird von der Erdpräzession sowie der Eigenbewegung des Sirius zusätzlich beeinflusst. So ist beispielsweise in der heutigen Zeit Sirius vom Nordpol bis zum 68. nördlichen Breitengrad nicht zu sehen, während Sirius vom Südpol bis zum 67. südlichen Breitengrad ständig am Himmel steht und nicht untergeht. Damit verbunden nimmt vom 67. nördlichen Breitengrad ausgehend die maximal sichtbare Höhe über dem Horizont bis in die Region des Äquators je Breitengrad um einen Höhengrad auf etwa 83° zu, um sich bis zum Südpol wieder auf etwa 30° zu reduzieren. Zusätzlich ändert sich je Breitengrad der Aufgangsort von Sirius. Am 67. nördlichen Breitengrad taucht Sirius am Horizont in südöstlicher Lage (172°) auf, am Äquator dagegen fast im Osten (106°). Die unterschiedlichen Sichtbarkeitsverhältnisse wirken sich auf die Beobachtungsdauer am Himmel aus, die zwischen knapp sechs Stunden am 67. nördlichen Breitengrad und der ständigen Präsenz am Südpol je nach Ortslage veränderliche Werte aufweist. Die drei Gürtelsterne des Orion (rechts Mitte) zeigen (hier links abwärts) in Richtung Sirius (links Mitte). Ähnliche Bedingungen gelten hinsichtlich des Breitengrads für den Sonnenaufgang, der gegenüber dem Vor- und Folgetag zeitlich variiert. Die Region, in der Sirius nicht gesehen werden kann, wird sich in den folgenden Jahren weiter in südlicher Richtung ausdehnen. Im Jahr 7524 n. Chr. verlagert sich die Grenze der Nicht-Sichtbarkeit bis zum 52. Breitengrad auf die Höhe Berlins. In etwa 64.000 Jahren, wenn Sirius die größte Annäherung erreicht haben wird, kehrt sich dieser Trend um. In Deutschland wird er dann das ganze Jahr über sichtbar sein und nicht mehr untergehen. Zu dieser Zeit ist Sirius auf der Südhalbkugel ab dem 32. südlichen Breitengrad bis zum Südpol unsichtbar. Sirius ist wegen seiner Helligkeit auch für den zufälligen Himmelsbetrachter ein auffälliger Stern. Sein grelles bläulich-weißes Licht neigt schon bei geringer Luftunruhe zu starkem und oft farbenfrohem Flackern. In gemäßigten nördlichen Breiten ist er ein Stern des Winterhimmels, den er wegen seiner Helligkeit dominiert. Während er den Sommer über am Tageshimmel steht und mit bloßem Auge nicht zu sehen ist, wird er gegen Ende August erstmals in der Morgendämmerung sichtbar. Im Herbst ist er ein Stern der zweiten Nachthälfte, im Winter geht er schon am Abend auf. Um den Jahreswechsel kulminiert Sirius gegen Mitternacht und ist daher die ganze Nacht über zu sehen. Sein Aufgang fällt im Frühling bereits vor den Sonnenuntergang und kann nicht mehr beobachtet werden. Ab Mai hat sich auch sein Untergang in die helle Tageszeit verlagert, so dass er bis in den Spätsommer gar nicht mehr sichtbar ist. Ein Beobachter kann in großer Höhe Sirius auch am Tage mit bloßem Auge sehen, wenn die Sonne schon nahe am Horizont steht und sich der Stern an einem Standort mit sehr klarem Himmel hoch über dem Horizont befindet. Helligkeitsvergleich mit anderen Sternen. Die Entwicklung der scheinbaren Helligkeiten wichtiger heller Sterne im Laufe der Zeit Namensherkunft. Die früheste überlieferte Erwähnung von Sirius (, "Seirios") findet sich im 7. Jahrhundert v. Chr. bei Hesiods Lehrgedicht Werke und Tage. Die Herkunft des Namens unterliegt mehreren Deutungen: Leukosia "(Die Weiße)" ist in der griechischen Mythologie eine der Sirenen "(Seirenes)". Eine mögliche Verbindung zu Sirius mit der Benennung als "Das gleißend weiße Licht" ist ebenso Inhalt kontroverser Diskussionen wie auch die Anwendung der Begriffe "gleißend heiß" und "sengend" für "Seirios". Schließlich wird eine weitere Gleichsetzung mit der indogermanischen Wurzel "*tueis-ro" für „erregt sein“ oder „funkeln“ angenommen. Einige Wissenschaftler bestreiten allerdings diese Ableitung. Sirius im Blickwinkel anderer Kulturen. Die scheinbare Helligkeit des Sirius war im Altertum unwesentlich geringer und lag bei −1,41 mag. Die Entfernung betrug 8,8 Lichtjahre. Als besonders auffälliger Stern findet sich Sirius seit prähistorischen Zeiten in den Mythen, Religionen und Gebräuchen zahlreicher Kulturen, welche hier nur knapp angerissen werden können. Ägypten. Ob die Bedeutung „die Spitze“ ausschließlich mit dem Sternbild Sopdet in Verbindung gebracht wurde, bleibt dabei unklar. Während sich die Verehrung auf Sirius konzentrierte, verblassten die beiden anderen Sterne in ihrer Bedeutung immer mehr. Bezüglich der Nilflut nahm Sirius im Verlauf der ägyptischen Geschichte einen wichtigen Rang ein. Herodot gibt die Zeit um den 23. Juni als Beginn der Nilflut an. Einträge in ägyptischen Verwaltungsdokumenten bestätigen Herodots Angaben. Historische und astronomische Rekonstruktionen belegen, dass die erste morgendliche Sichtbarkeit von Sirius im Nildelta um 2850 v. Chr. und im südlichsten Ort Assuan um 2000 v. Chr. mit dem 22./23. Juni zusammenfiel. Sirius galt deshalb im 3. Jahrtausend v. Chr. als "Verkünder der Nilflut" und genoss in der ägyptischen Religion eine noch größere Bedeutung. Im weiteren Verlauf der ägyptischen Geschichte erfolgten die heliakischen Aufgänge von Sirius erst nach dem Eintreffen der Nilflut. In der griechisch-römischen Zeit Ägyptens wurde den veränderten Bedingungen mythologisch Rechnung getragen. Nun war es "Salet, die mit einem Pfeilschuss die Nilflut auslöste; ihre Tochter Anukket sorgte anschließend für die Abschwellung des Nils". Der heliakische Aufgang des Sirius erfolgt in der heutigen Zeit in Assuan am 1. August und im Nildelta am 7. August. Sumer und Mesopotamien. Bei den Sumerern nahm Sirius im 3. Jahrtausend v. Chr. in der sumerischen Religion schon früh mehrere zentrale Rollen ein. Als Kalenderstern erfüllte er mit der Bezeichnung MULKAK.SI.SÁ eine wichtige Funktion im landwirtschaftlichen Zyklus. Als MULKAK.TAG.GA "(Himmelspfeil)" galt Sirius als eine Hauptgottheit "der Sieben" und unterstand dem "herrschenden Gottesstern über die anderen Himmelsobjekte", der Venus, die als Göttin Inanna verehrt wurde. In den Akitu-Neujahrsprozessionen galt Sirius schließlich als "Zieher über die Meere" und erhielt entsprechende Opfergaben. Nahezu in unveränderter Form fungierte er auch später bei den Babyloniern und Assyrern, die Sirius zusätzlich gemäß der MUL.APIN-Tontafeln als Signalgeber für den Zeitpunkt der Schaltjahre bestimmten. Griechenland, Rom und Deutschland. Bei den Griechen und Römern war Sirius mit Hitze, Feuer und Fieber verbunden. Die Römer nannten die heißeste Zeit des Jahres (üblicherweise vom frühen Juli bis Mitte August) die „Hundstage“ (lat. "dies caniculares", Tage des Hundssterns). Im deutschen Volksglauben wurden die Hundstage ab dem 15. Jahrhundert als Unglückszeit angesehen. Sirius galt bei den Griechen als Wegbereiter der Tollwut. Nordamerika und China. Auch bei vielen nordamerikanischen Volksstämmen wird Sirius mit Hunden oder Wölfen assoziiert. Bei den Cherokee beispielsweise sind Sirius und Antares die Hundssterne, welche die Enden des „Pfades der Seelen“ (der Milchstraße) bewachen: Sirius das östliche Ende am Winterhimmel, Antares das westliche Ende am Sommerhimmel. Eine aus der Welt scheidende Seele muss genug Futter mit sich tragen, um beide Hunde zu besänftigen, wenn sie nicht ewig auf dem Pfad der Seelen herumirren will. Die Pawnee bezeichnen Sirius als Wolfstern. Bei den Chinesen bildeten Sterne der heutigen Konstellationen Achterdeck und Großer Hund ein Pfeil und Bogen darstellendes Sternbild. Der Pfeil zielte direkt auf den „Himmelswolf“, nämlich Sirius. Südsee-Inseln. In Polynesien und Mikronesien dienten die helleren Sterne des Südhimmels, insbesondere Sirius, seit prähistorischen Zeiten der Navigation bei den Überfahrten zwischen den verstreuten Inselgruppen. Nahe am Horizont konnten helle Sterne wie Sirius als Richtungsanzeiger verwendet werden (wobei sich mehrere Sterne im Laufe einer Nacht in dieser Rolle gegenseitig ablösten). Sterne konnten auch zur Feststellung der geographischen Breite benutzt werden. So zieht Sirius mit seiner Deklination von 17° Süd senkrecht über Fidschi mit der geographischen Breite 17° Süd hinweg und man musste nur so lange nach Süden oder Norden fahren, bis Sirius durch den Zenit ging. Sirius und die Dogon. Ein von den Dogon gezeichnetes Diagramm, das angeblich das Doppelsternsystem Sirius darstellt Die Ähnlichkeit dieser Beschreibungen mit Sirius B und einem eventuellen Sirius C ist umso erstaunlicher, als nichts davon mit bloßem Auge erkennbar ist. Zahlreiche unterschiedliche Spekulationen versuchen die Herkunft dieser angeblichen Kenntnisse zu erklären. In der Populärliteratur finden sich zwei Hauptströmungen: eine hauptsächlich in afrozentrischer Literatur vertretene Ansicht sieht die Dogon sogar als Überbleibsel einer einstigen hochentwickelten, wissenschaftlich geprägten schwarzafrikanischen Zivilisation. R. Temple andererseits vertrat in seinem Buch "The Sirius Mystery" die Vermutung, außerirdische Besucher aus dem Sirius-System hätten vor etwa 5000 Jahren den Anstoß für den Aufstieg der ägyptischen und der sumerischen Zivilisation gegeben. Die in wissenschaftlichen Kreisen bevorzugte Erklärung geht von der Kontaminierung der Dogon-Mythologie mit modernen astronomischen Erkenntnissen aus. Die anthropologische Variante nimmt an, dass die Kontamination (wenn auch nicht absichtlich) durch Griaule selbst geschehen sei. Der niederländische Anthropologe Walter van Beek arbeitete selbst mit den Dogon und versuchte Teile des Materials von Griaule zu verifizieren. Er konnte jedoch große Teile der von Griaule wiedergegebenen Mythen nicht bestätigen, unter anderem Sirius als Doppelsternsystem. Van Beek vertritt die Ansicht, dass die von Griaule publizierten Mythen nicht einfach Wiedergaben von Erzählungen seiner Gewährsleute seien, sondern in einem komplexen Zusammenspiel zwischen Griaule, seinen Informanten und den Übersetzern zustande gekommen seien. Ein Teil von ihnen sei das Ergebnis von Missverständnissen sowie Überinterpretation durch Griaule. Eine mögliche Erklärung bezieht sich auf angenommene Kontakte der Dogon mit europäischen Besuchern. Sie weist darauf hin, dass die Dogon-Erzählungen den astronomischen Kenntnisstand ab etwa 1926 widerspiegeln (während Griaule erst ab 1931 bei den Dogon zu arbeiten begann): die Umlaufperiode, der elliptische Orbit und die große Masse von Sirius B waren bereits im 19. Jahrhundert bekannt, sein geringer Durchmesser ab etwa 1910, ein möglicher dritter Begleiter wurde in den 1920er Jahren vermutet, die hohe Dichte von Sirius B wurde 1925 nachgewiesen. Die Beobachtung der gravitativen Rotverschiebung an Sirius B ging als Aufsehen erregende Bestätigung der Allgemeinen Relativitätstheorie durch die populäre Presse. Als Quellen kommen beispielsweise Missionare in Betracht, worauf auch biblische und christliche Motive in der Dogon-Mythologie hinweisen. Missionarische Aktivitäten bei den Dogon fanden ab 1931 statt, allerdings sind bisher keine Missionare nachweisbar, die konkret als Quelle in Frage kämen. Sirius als roter Stern. Während nach Beschreibung und Koordinaten eindeutig Sirius gemeint ist, stimmt die genannte rötliche Färbung nicht mit Sirius’ blau-weißer Farbe überein. Seit dem 18. Jahrhundert knüpfen sich daran Spekulationen, ob Sirius tatsächlich während der letzten 2000 Jahre seine Farbe geändert haben könnte. In diesem Fall würde Ptolemäus’ Bemerkung wertvolles Beobachtungsmaterial sowohl allgemein zur Sternentwicklung als auch speziell zu den Vorgängen in der Sonnenumgebung liefern. Es lässt sich auch unter Beiziehung unabhängiger Quellen jedoch nicht eindeutig entscheiden, ob Sirius in der Antike als rot wahrgenommen wurde oder nicht. Ein assyrischer Text aus dem Jahre 1070 v. Chr. beschreibt Sirius als „rot wie geschmolzenes Kupfer.“ Sirius wird von Aratos in seinem Lehrgedicht "Phainomena" sowie von dessen späteren Bearbeitern als rötlich bezeichnet. Bei Plinius ist Sirius „feurig“ und bei Seneca sogar röter als Mars. Auch der frühmittelalterliche Bischof Gregor von Tours bezeichnet Sirius in seinem Werk "De cursu stellarum ratio" (ca. 580 n. Chr.) noch als roten Stern. Andererseits bezeichnet Manilius Sirius als „meerblau“, und vier antike chinesische Texte beschreiben die Farbe einiger Sterne als „so weiß wie [Sirius]“. Darüber hinaus wird Sirius oft als stark funkelnd beschrieben; ein eindrucksvolles Funkeln setzt aber die vollen Spektralfarben eines weißen Sterns voraus, während das mattere Funkeln eines roten Sterns kaum Aufmerksamkeit erregt hätte. Fünf andere von Ptolemäus als rot bezeichnete Sterne (u. a. Beteigeuze, Aldebaran) sind auch für den heutigen Betrachter rötlich. Spezielle Relativitätstheorie. Die spezielle Relativitätstheorie (kurz SRT) ist eine physikalische Theorie über die Bewegung von Körpern und Feldern in Raum und Zeit. Sie erweitert das ursprünglich in der Mechanik entdeckte galileische Relativitätsprinzip zum speziellen Relativitätsprinzip. Dem speziellen Relativitätsprinzip zufolge haben nicht nur die Gesetze der Mechanik, sondern alle Gesetze der Physik in allen Inertialsystemen dieselbe Form. Dies gilt u. a. für die Gesetze des Elektromagnetismus, weshalb die Lichtgeschwindigkeit im Vakuum in jedem Inertialsystem denselben Wert hat. Außerdem folgt aus dem Relativitätsprinzip, dass es keinen absoluten Raum und keine absolute Zeit gibt. Stattdessen hängen Längen und Zeiten entsprechend der Lorentzkontraktion und der Zeitdilatation vom Bewegungszustand des Betrachters ab. Eine weitere wichtige Konsequenz der SRT ist die Äquivalenz von Masse und Energie. Als Geburt der speziellen Relativitätstheorie wird der Artikel "Zur Elektrodynamik bewegter Körper" angesehen, den Albert Einstein 1905 nach Vorarbeiten von Hendrik Antoon Lorentz und Henri Poincaré veröffentlichte. Da die Theorie sich mit der Beschreibung relativ zueinander bewegter Bezugssysteme und mit der Relativität von Zeitdauern und Längen befasst, wurde sie bald als „Relativitätstheorie“ bekannt. 1915 wurde sie von Einstein in "Spezielle Relativitätstheorie" umbenannt, als er seine Allgemeine Relativitätstheorie (ART) veröffentlichte. Diese schließt anders als die SRT auch die Gravitation mit ein. Die SRT ist durch einige klassische Experimente wie das Michelson-Morley-Experiment oder das Kennedy-Thorndike-Experiment sowie durch eine Vielzahl moderner Tests bestätigt. Einführung. Die Gesetze der klassischen Mechanik haben die besondere Eigenschaft, in jedem Inertialsystem, also in jedem unbeschleunigt bewegten System, gleichermaßen zu gelten (Relativitätsprinzip). Diese Tatsache erlaubt es, auch im ICE bei voller Fahrt z. B. einen Kaffee zu trinken, ohne dass die Geschwindigkeit von 300 km/h irgendwelche Auswirkungen hat. Die Transformationen (Umrechnungsformeln), mit denen in der klassischen Mechanik von einem Inertialsystem ins andere umgerechnet wird, heißen Galileitransformationen, und die Eigenschaft, dass die Gesetze nicht vom Inertialsystem abhängen (sich bei einer Galileitransformation also nicht ändern), nennt man entsprechend Galilei-Invarianz. Die Formeln für eine Galileitransformation folgen unmittelbar aus der klassischen Vorstellung eines allen Ereignissen zugrundeliegenden dreidimensionalen euklidischen Raumes und einer davon unabhängigen (eindimensionalen) Zeit. Ende des 19. Jahrhunderts wurde jedoch erkannt, dass die Maxwell-Gleichungen, die sehr erfolgreich die elektrischen, magnetischen und optischen Phänomene beschreiben, nicht Galilei-invariant sind. Das bedeutet, dass sich die Gleichungen in ihrer Form verändern, wenn eine Galilei-Transformation in ein relativ zum Ausgangssystem bewegtes System durchgeführt wird. Insbesondere wäre die Lichtgeschwindigkeit vom Bezugssystem abhängig, wenn man die Galilei-Invarianz als fundamental betrachtete. Die Maxwell-Gleichungen wären demnach nur in einem einzigen Bezugssystem gültig, und es sollte durch Messung der Lichtgeschwindigkeit möglich sein, die eigene Geschwindigkeit gegenüber diesem System zu bestimmen. Das berühmteste Experiment, mit dem versucht wurde, die Geschwindigkeit der Erde gegenüber diesem ausgezeichneten System zu messen, ist der Michelson-Morley-Versuch. Kein Experiment konnte jedoch eine Relativbewegung nachweisen. Die andere Lösung des Problems ist das Postulat, dass die Maxwell-Gleichungen in jedem Bezugssystem unverändert gelten und stattdessen die Galilei-Invarianz nicht universal gültig ist. An die Stelle der Galilei-Invarianz tritt dann die Lorentz-Invarianz. Dieses Postulat hat weitreichende Auswirkungen auf das Verständnis von Raum und Zeit, weil die Lorentztransformationen, welche die Maxwell-Gleichungen unverändert lassen, keine reinen Transformationen des Raumes (wie die Galilei-Transformationen) sind, sondern dabei Raum und Zeit gemeinsam verändern. Gleichzeitig müssen auch die Grundgleichungen der klassischen Mechanik umformuliert werden, weil sie nicht Lorentz-invariant sind. Für niedrige Geschwindigkeiten sind Galileitransformationen und Lorentztransformationen jedoch so ähnlich, dass die Unterschiede nicht messbar sind. Daher widerspricht die Gültigkeit der klassischen Mechanik bei kleinen Geschwindigkeiten der neuen Theorie nicht. Die spezielle Relativitätstheorie liefert damit ein erweitertes Verständnis von Raum und Zeit, nach dem auch die Elektrodynamik nicht mehr vom Bezugssystem abhängt. Ihre Vorhersagen wurden experimentell vielfach erfolgreich überprüft und mit hoher Genauigkeit bestätigt. Lorentztransformationen. Die Unveränderlichkeit der physikalischen Gesetze unter Lorentztransformationen ist die zentrale Behauptung der speziellen Relativitätstheorie. Daher werden in diesem Abschnitt die physikalischen Auswirkungen der Lorentztransformationen anschaulich erklärt. Da die Gesetze der Elektrodynamik in jedem Bezugssystem gleichermaßen unverändert gelten, gilt insbesondere auch ihre Vorhersage einer konstanten Vakuum-Lichtgeschwindigkeit. Das Licht ist also in jedem Bezugssystem gleich schnell. Dies folgt direkt aus der Lorentz-Invarianz, und es wird oft als wichtigste Eigenschaft der Lorentztransformationen betrachtet, dass sie die Lichtgeschwindigkeit unverändert lassen. Einsteins Gedankenexperiment. Um die verschiedenen Aspekte der Lorentztransformationen zu veranschaulichen, bedienen wir uns im Folgenden eines Gedankenexperiments, das auf Albert Einstein zurückgeht: Ein Zug fährt durch einen Bahnhof mit der Geschwindigkeit formula_1. Auf dem Bahnsteig und im Zug befinden sich verschiedene Beobachter, deren Beobachtungen und Messungen verglichen werden sollen. Sie verfügen über Uhren und Maßstäbe, sowie über Blitzlichter, mit denen Lichtsignale ausgetauscht werden können. Wir nennen das in Fahrtrichtung vordere Ende des Zuges „Zuganfang“, das andere nennen wir „Zugende“. Der Zuganfang erreicht zunächst jenes Ende des Bahnsteigs, das wir als das „hintere“ bezeichnen. Später kommt er am „vorderen“ Ende an. Für den Zugpassagier sieht es so aus, als würde er ruhen und sich der Bahnsteig mit der Geschwindigkeit formula_2 entgegen der Fahrtrichtung des Zuges bewegen. Nach dem Relativitätsprinzip ist seine Sichtweise genauso richtig wie die des Beobachters, der am Bahnhof steht. Beide Bezugssysteme sind Inertialsysteme und damit physikalisch gleichwertig. Es ist sehr wichtig zu beachten, dass jeder Beobachter direkte Aussagen nur über Ereignisse machen kann, die unmittelbar an seinem Ort stattfinden. Will er jedoch wissen, wann ein Ereignis an einem anderen Ort stattgefunden hat, so kann er sich nur auf Lichtsignale verlassen, die von diesem Ort ausgesandt wurden. Über die Entfernung und die Lichtlaufzeit kann er dann auf den Zeitpunkt des Ereignisses schließen, denn die Lichtgeschwindigkeit ist in allen Inertialsystemen gleich. Gleichzeitigkeit. Eine der größten Schwierigkeiten beim Verständnis der Auswirkungen der Lorentztransformationen ist der Begriff der Gleichzeitigkeit. Zum Verständnis ist es daher wichtig, sich klarzumachen, dass Gleichzeitigkeit von Ereignissen an verschiedenen Orten nicht von vornherein definiert ist. Zur Definition von Gleichzeitigkeit bedient man sich der Lichtgeschwindigkeit, da diese in allen Bezugssystemen gleich ist. Die Lichtsignale von zwei gleichzeitigen Ereignissen werden einen Beobachter zu verschiedenen Zeiten erreichen, wenn die Ereignisse sich unterschiedlich weit vom Beobachter entfernt ereignen. Wenn ein Beobachter jedoch von zwei Ereignissen "gleich weit entfernt" ist und Lichtsignale von diesen ihn gleichzeitig erreichen, so nennt man die beiden Ereignisse selbst "gleichzeitig". Diese Definition von Gleichzeitigkeit erscheint anschaulich verständlich, führt aber zusammen mit der Lorentz-Invarianz zu einem paradoxen Effekt: Die Gleichzeitigkeit zweier Ereignisse an verschiedenen Orten ist abhängig vom Bewegungszustand des Beobachters. In der Mitte des Bahnsteiges steht eine Lampe. Für einen Beobachter, der auf dem Bahnsteig steht, ist unmittelbar klar: Wenn die Lampe eingeschaltet wird, dann erreicht das Licht beide Enden des Bahnsteigs gleichzeitig: Es hat ja in beide Richtungen denselben Weg zurückzulegen. Betrachten wir nun die Situation aus der Sicht eines Fahrgastes des Zuges: Der Bahnsteig bewegt sich nun mit konstanter Geschwindigkeit v nach hinten. Das Licht besitzt aber auch gegenüber dem Zug in beiden Richtungen die Geschwindigkeit c. Zum Zeitpunkt des Aussendens sind beide Bahnsteigenden gleich weit von der Lampe entfernt. Somit kommt das vordere Bahnsteigende dem Lichtstrahl entgegen, sodass das nach vorne laufende Licht eine kürzere Strecke zurücklegt, bis es dieses Bahnsteigende erreicht. Umgekehrt bewegt sich das hintere Bahnsteigende in Richtung des ihm nacheilenden Lichtes, sodass das Licht hier einen etwas längeren Weg zurücklegen muss, bis es dieses Ende erreicht hat. Daher wird das Licht das vordere Bahnsteigende früher erreichen als das hintere, und somit werden die beiden Enden des Bahnsteigs nicht gleichzeitig erreicht. Der Beobachter am Bahnsteig und der Beobachter im Zug sind sich also nicht einig über die Frage, ob die beiden Ereignisse „das Licht erreicht das vordere Ende des Bahnsteigs“ und „das Licht erreicht das hintere Ende des Bahnsteigs“ gleichzeitig sind. Da beide Beobachter sich jedoch gleichförmig bewegen, ist keines der beiden Systeme ausgezeichnet: Die Sichtweisen der beiden Beobachter sind also gleichwertig. "Gleichzeitigkeit" ist tatsächlich für beide Beobachter verschieden. Die Gleichzeitigkeit von Ereignissen, deren Ort sich nur senkrecht zur Bewegungsrichtung ändert, ist in beiden Bezugssystemen gleich: Wenn die Lampe auf halber Höhe des Zuges hängt, so wird das Licht sowohl für den Beobachter am Bahnsteig als auch für den Beobachter im Zug gleichzeitig die Unter- und Oberseite des Zuges erreichen. Lorentzkontraktion. Aus der Relativität der Gleichzeitigkeit ergibt sich ein anderer, paradox wirkender Effekt: Angenommen, der Anfang des Zuges (vgl. Einsteins Gedankenexperiment) löst beim Passieren des vorderen Bahnsteigendes einen Lichtblitz aus und das Ende des Zuges löst einen ebensolchen Lichtblitz am hinteren Bahnsteigende aus. Der Beobachter in der Mitte des Bahnsteigs sieht bei der Durchfahrt des Zuges beide Lichtblitze gleichzeitig. Er stellt also fest, dass im selben Moment, zu dem der Anfang des Zuges das vordere Ende des Bahnsteigs passiert, auch das hintere Ende des Zuges das hintere Ende des Bahnsteigs passiert. Er schließt, dass Zug und Bahnsteig bei der momentanen Geschwindigkeit gleich lang sind. Für den Beobachter in der Mitte des Zuges stellt sich die Situation aber ganz anders dar: Der Lichtblitz vom Anfang des Zuges erreicht ihn früher als der Lichtblitz vom hinteren Ende des Zuges, da er – aus der Perspektive des Bahnsteigs – dem vorderen Lichtblitz entgegen fährt und sich gleichzeitig vom hinteren Lichtblitz entfernt. Da das „hintere“ Ereignis (das Zugende passiert das hintere Bahnsteigende) für ihn später eintritt als das „vordere“ (der Zuganfang passiert das vordere Bahnsteigende), schließt er, dass der Zug länger ist als der Bahnsteig, denn schließlich war das Zugende noch gar nicht am Bahnsteig angekommen, als der Zuganfang ihn schon wieder verlassen hat. Somit ist für den Beobachter im Zug der Bahnsteig kürzer und der Zug länger als für den Beobachter auf dem Bahnsteig. Das Relativitätsprinzip besagt wieder, dass beide recht haben: Wenn aus Sicht des Zugfahrers der (bewegte) Bahnsteig verkürzt ist, dann muss auch aus Sicht des Bahnsteig-Beobachters der (bewegte) Zug verkürzt sein. Die Lorentzkontraktion gilt nur in Bewegungsrichtung, da ja senkrecht zur Bewegungsrichtung die Gleichzeitigkeit der Ereignisse in beiden Bezugssystemen übereinstimmt. Beide Beobachter sind sich also z. B. über die Höhe des Fahrdrahtes einig. Ein indirekter Nachweis der Längenkontraktion ergibt sich auch aus dem Problem des elektromagnetischen Feldes einer mit hoher Geschwindigkeit bewegten elektrischen Punktladung. Das elektrische Feld dieses Objekts ist bei verschwindender oder im Vergleich zur Lichtgeschwindigkeit schwacher Geschwindigkeit einfach das Coulombfeld der Ladung, d. h. mit gleichmäßiger radialer Richtungsverteilung und mit einer elektrischen Feldstärke E=Q/R2, wobei Q die Ladungsstärke und R den Abstand vom Teilchen bedeutet. Mit zunehmender Annäherung an die Lichtgeschwindigkeit konzentrieren sich dagegen – wegen der Abstandskontraktion in Bewegungsrichtung – die elektrischen Felder zunehmend in den Transversalrichtungen zur Bewegung. Zusätzlich treten jetzt neben den elektrischen Feldern auch (asymptotisch gleich starke) Magnetfelder auf, die die Bewegungsachse umkreisen. Zeitdilatation. Ebenso wie Distanzen von Beobachtern in verschiedenen Inertialsystemen verschieden festgestellt werden, muss auch zum Vergleich von Zeitspannen die Relativgeschwindigkeit der Inertialsysteme berücksichtigt werden: Der Beobachter im Zug (vgl. Einsteins Gedankenexperiment) stehe am hinteren Ende des Zuges und an jedem Ende des Bahnsteigs sei eine Uhr. Die Uhr am vorderen Ende des Bahnsteigs wird in Gang gesetzt, wenn der Anfang des Zuges sie passiert, und die Uhr am hinteren Ende des Bahnsteiges, wenn das Ende des Zuges sie passiert. Da der Zug für den Beobachter am Bahnsteig genauso lang ist wie der Bahnsteig, werden die Uhren also nach seinem Gleichzeitigkeitsbegriff gleichzeitig gestartet. Die Uhr am vorderen Bahnsteigende wird gestoppt, wenn das hintere Zugende sie passiert. Der Beobachter im Zug setzt seine Uhr in Gang, wenn er das hintere Bahnsteigende passiert, also gleichzeitig mit dem Start der dortigen Bahnsteiguhr, und stoppt sie, wenn er das vordere Bahnsteigende passiert, gleichzeitig mit dem Stoppen der dortigen Bahnsteiguhr. Nach seinem Gleichzeitigkeitsbegriff geht die Uhr am vorderen Bahnsteigende gegenüber der am hinteren Bahnsteigende und damit auch gegenüber seiner Uhr vor, da nach seinem Längenbegriff der Zug länger ist als der Bahnsteig. Die Zeitspanne, die er für seine Fahrt vom hinteren bis zum vorderen Ende des Bahnsteigs misst, ist also kleiner als die Dauer, die von der Uhr am vorderen Bahnsteigende angezeigt wird, wenn er diese passiert. Der Beobachter am Bahnsteig sieht also an den Anzeigen der Uhren, dass der Beobachter im Zug eine kürzere Zeitspanne misst als er selbst. Da nach seinem Gleichzeitigkeitsbegriff die Start- und Stoppzeitpunkte der Uhr des Beobachters im Zug und der Uhr am vorderen Bahnsteigende gleich sind, sind nach seinem Gleichzeitigkeitsbegriff auch die Zeitspannen gleich lang. Er kommt also zu dem Schluss, dass die Uhr des Beobachters im Zug zu langsam geht. Nach dem Gleichzeitigkeitsbegriff des Beobachters im Zug fallen jedoch die Startzeitpunkte der Uhren nicht zusammen, sodass er diese Beobachtung nicht macht. Diese Betrachtung lässt sich auch umkehren, indem man je eine Uhr am Anfang und am Ende des Zuges anbringt und nach dem Gleichzeitigkeitsbegriff des Beobachters im Zug gleichzeitig startet, wenn der Anfang des Zuges das vordere Bahnsteigende passiert. Aus Sicht des Beobachters im Zug ergibt sich dann, dass die Zeit am Bahnsteig langsamer vergeht als im Zug. Wieder lässt sich nicht entscheiden, welcher der beiden Beobachter recht hat. Beide Beobachter bewegen sich unbeschleunigt relativ zueinander und sind daher gleichberechtigt. Zeitspannen sind für beide Beobachter verschieden, und für beide Beobachter vergeht die Zeit in ihrem jeweiligen Ruhesystem am schnellsten, während sie in allen relativ bewegten Systemen langsamer vergeht. Dieser Effekt heißt Zeitdilatation. Die Zeit, die jeder Beobachter auf seiner eigenen Uhr abliest, nennt man Eigenzeit. Diese mit einer „mitgeführten Uhr“ gemessene Zeit ergibt immer den kürzestmöglichen, unveränderlichen Wert unter allen Zeitspannen, die für zwei mit kurzem Abstand aufeinander folgende Ereignisse in Inertialsystemen mit unterschiedlichen Relativgeschwindigkeiten gemessen werden. Alle anderen Werte sind demgegenüber „zeitlich dilatiert“. Konkret gesagt: Die mitgeführten Armbanduhren „ticken“ für die Zugpassagiere schneller (zeigen also eine größere Zeit an) als gleichartige Bahnhofsuhren, an denen der Zug mit Geschwindigkeit v vorbeirauscht. Wenn sich dessen Geschwindigkeit erhöht, wird auch die (i. A. sehr geringe) Dilatation der von der Bahnhofsuhr angezeigten Zeit immer größer, während die vom Zug aus gemessene Zeit (die Eigenzeit) immer gleich bleibt. Im Gegensatz zu dieser Zeitdilatation erscheint ein Maßstab, dessen Länge aus Sicht der Zugpassagiere den Wert "L" besitzt, von der Bahnhofsuhr aus gesehen, verkürzt (Längenkontraktion, siehe oben). Die Effekte sind allerdings enorm klein: Und zwar ist ein Intervall "dτ" der Eigenzeit im Vergleich zur Zeitspanne "dt", die von der Bahnhofsuhr angezeigt wird, nur ganz wenig kleiner (genauer gilt: formula_3 wobei formula_4 die Zuggeschwindigkeit ist (beispielsweise 80 km/h), "c" dagegen die extrem viel höhere Lichtgeschwindigkeit (~ 1 Milliarde km/h). Die Eigenzeit ist im Übrigen „die“ grundlegende Invariante für den oben angegebenen Koordinatenwechsel (Lorentztransformation → Lorentzinvariante). Eine unmittelbare Folge der Zeitdilatation ist, dass die verstrichene Zeitspanne vom gewählten Weg abhängt. Angenommen, jemand steigt in den Zug und fährt bis zur nächsten Station. Dort steigt er in einen Zug um, der wieder zum Ausgangspunkt zurückfährt. Ein anderer Beobachter hat in der Zwischenzeit dort am Bahnsteig gewartet. Nach der Rückkehr vergleichen sie ihre Uhren. Aus Sicht des am Bahnhof gebliebenen Beobachters hat nun der Reisende sowohl bei der Hinfahrt als auch bei der Rückfahrt eine Zeitdilatation erfahren. Somit geht die Uhr des Reisenden aus Sicht des Wartenden jetzt nach. Aus Sicht des Reisenden erfährt jedoch der Wartende eine Zeitdilatation, sodass auf den ersten Blick die Uhr des Wartenden aus Sicht des Reisenden nun nachgehen muss. Dieses Paradoxon heißt Zwillingsparadoxon. In diesem Fall ist die Situation jedoch nicht symmetrisch, da der Reisende umgestiegen ist, also sein Bezugssystem gewechselt hat. Im Gegensatz zum Beobachter am Bahnsteig bleibt der Reisende also nicht in einem Inertialsystem. Daher geht die Uhr des Reisenden tatsächlich nach. Eine Version dieses Paradoxons wurde tatsächlich in einem Experiment zur Überprüfung der speziellen Relativitätstheorie nachgewiesen. Dabei wurden die gemessenen Zeitspannen zweier Atomuhren verglichen, von denen eine in einem Flugzeug die Erde umkreiste, während die zweite Uhr auf dem Start- und Zielflugplatz zurückblieb. Die „zurückgebliebene“ Uhr zeigte eine geringfügige, aber präzise messbare Gang-Erhöhung an. (siehe Hafele-Keating-Experiment) Relativistische Geschwindigkeitsaddition. Wenn nun im Zug der Schaffner mit konstanter Geschwindigkeit nach vorne läuft (vgl. Einsteins Gedankenexperiment), ist seine Geschwindigkeit für einen Beobachter am Bahnsteig nach der klassischen Mechanik einfach als die Summe der Laufgeschwindigkeit und der Geschwindigkeit des Zuges gegeben. In der Relativitätstheorie liefert eine solche einfache Addition nicht das richtige Ergebnis. Vom Bahnsteig aus betrachtet ist die Zeit, die der Schaffner z. B. von einem Wagen zum nächsten braucht, wegen der Zeitdilatation länger als für den Zugreisenden. Zudem ist der Wagen selbst vom Bahnsteig aus gesehen Lorentz-verkürzt. Hinzu kommt, dass der Schaffner nach vorne läuft, also das Ereignis „Erreichen des nächsten Wagens“ weiter vorne im Zug stattfindet: Aufgrund der Relativität der Gleichzeitigkeit bedeutet dies, dass das Ereignis für den Beobachter am Bahnsteig später stattfindet als für den Zugreisenden. Insgesamt ergeben also alle diese Effekte, dass die Geschwindigkeitsdifferenz des Schaffners zum Zug für den Beobachter am Bahnsteig geringer ist als für den Beobachter im Zug. Mit anderen Worten: Der Schaffner ist vom Bahnsteig aus gesehen langsamer unterwegs, als es die Addition der Geschwindigkeit des Zuges und der Geschwindigkeit des Schaffners vom Zug aus gesehen ergeben würde. Die Formel, mit der man diese Geschwindigkeit berechnet, heißt relativistisches Additionstheorem für Geschwindigkeiten. Der Extremfall tritt auf, wenn man einen nach vorne laufenden Lichtstrahl betrachtet. In diesem Fall ist der Verlangsamungseffekt so stark, dass der Lichtstrahl auch vom Bahnsteig aus wieder Lichtgeschwindigkeit hat. Die Konstanz der Lichtgeschwindigkeit ist ja die Grundlage der Relativitätstheorie. Dies sorgt auch dafür, dass der Schaffner sich aus Sicht des Beobachters am Bahnsteig immer langsamer als mit Lichtgeschwindigkeit bewegt, sofern seine Laufgeschwindigkeit im Ruhesystem des Zuges kleiner ist als die Lichtgeschwindigkeit: Angenommen der Schaffner hält eine Taschenlampe auf einen Spiegel am Ende des Wagens und läuft langsamer als das Licht. Dann wird vom Zug aus betrachtet der Lichtstrahl reflektiert und trifft den Schaffner, bevor er das Ende des Wagens erreicht. Würde nun seine Geschwindigkeit vom Bahnsteig als Überlichtgeschwindigkeit wahrgenommen, so würde der Schaffner das Ende des Wagens vor dem Lichtstrahl erreichen und damit das Treffen mit dem Lichtstrahl nicht stattfinden. Ein solches Treffen am selben Ort zur selben Zeit ist jedoch beobachterunabhängig und damit ergibt sich ein Widerspruch. Also liefert die relativistische Addition von zwei Geschwindigkeiten unterhalb der Lichtgeschwindigkeit immer ein Ergebnis unterhalb der Lichtgeschwindigkeit. Nun kann der Schaffner aber im Zug nicht nur nach vorne laufen, sondern auch nach hinten. In diesem Fall findet das Ereignis „Erreichen des nächsten Wagens“ weiter "hinten" im Zug statt und somit für den Bahnsteig-Beobachter relativ zum Zugreisenden „verfrüht“, während die anderen Effekte immer noch „verlangsamend“ wirken. Die Effekte heben sich gerade dann auf, wenn der Schaffner mit derselben Geschwindigkeit im Zug nach hinten rennt, wie der Zug fährt: In diesem Fall kommt auch die Relativitätstheorie zu dem Ergebnis, dass der Schaffner relativ zum Bahnsteig ruht. Für höhere Geschwindigkeiten nach hinten sieht der Beobachter am Bahnsteig nun eine "höhere" Geschwindigkeit, als er nach der klassischen Mechanik erwarten würde. Dies geht wieder bis zum Extremfall des nach hinten gerichteten Lichtstrahls, der wiederum auch vom Bahnsteig aus gesehen exakt mit Lichtgeschwindigkeit unterwegs ist. Impuls, Masse und Energie. Stoß zweier Kugeln mit Änderung der Bewegungsrichtung um 90° Im Bahnhof (vgl. Einsteins Gedankenexperiment) gibt es auch einen Spielsalon mit Billardtischen. Auf einem ereignet sich, als der Zug vorbeifährt, gerade Folgendes, aus Sicht des Beobachters am Bahnsteig geschildert: Zwei Billardkugeln, die jeweils dieselbe absolute Geschwindigkeit wie der Zug haben, sich aber senkrecht zum Gleis aufeinander zubewegen, stoßen völlig elastisch zusammen, und zwar so versetzt, dass sie sich nach dem Stoß parallel zum Gleis bewegen, die Rote in Richtung des Zuges (und in dessen Bezugssystem ruhend) die Blaue in Gegenrichtung. In der klassischen Mechanik ist der Impuls eines Objekts definiert als das Produkt aus Masse und Geschwindigkeit des Objekts. Der Gesamtimpuls, der sich durch einfaches Addieren der Einzelimpulse ergibt, ist eine Erhaltungsgröße. In der Tat ist beim obigen Stoß der so definierte Impuls aus Bahnsteig-Sicht erhalten: Da die Kugeln sich sowohl vor als auch nach dem Stoß mit gegengleicher Geschwindigkeit bewegen, ist der so definierte Impuls vor wie nach dem Stoß null. Aus dem Zug betrachtet rollen die Kugeln vor dem Stoß schräg aufeinander zu: Parallel zum Gleis haben beide die Geschwindigkeit des Bahnsteiges (da sie sich ja mit dem Bahnsteig mitbewegen), und senkrecht zum Gleis haben sie einander entgegengesetzte Geschwindigkeiten (diese Komponente beruht auf der Bewegung der Kugeln relativ zum Bahnsteig senkrecht zum Zug). Der Gesamtimpuls der beiden Kugeln senkrecht zum Gleis ist also null, parallel zum Gleis ist der Gesamtimpuls zweimal Kugelmasse mal Bahnsteiggeschwindigkeit. Nach dem Stoß hat nun die rote Kugel die Geschwindigkeit – und damit auch den Impuls – null (aus Bahnsteigsicht ist sie mit Zuggeschwindigkeit in Zugrichtung unterwegs gewesen), somit muss nun die blaue Kugel den gesamten Impuls tragen. Um die Geschwindigkeit der blauen Kugel zu bestimmen, muss jedoch nun die im vorigen Abschnitt betrachtete relativistische Geschwindigkeitsaddition verwendet werden, und – wie oben dargelegt – hat diese Kugel nun eine "geringere" Geschwindigkeit als das Doppelte der Bahnsteiggeschwindigkeit (= Zuggeschwindigkeit). Damit wird klar, dass die klassische Impulserhaltung nicht mehr gültig ist. Um den Erhaltungssatz wiederherzustellen, wird der relativistische Impuls verwendet, der stärker als linear mit der Geschwindigkeit ansteigt. Aus demselben Grund muss auch die kinetische Energie bei hohen Geschwindigkeiten schneller ansteigen, als sie es nach der klassischen Mechanik tut. Weil man an der Masse die Ruheenergie ablesen kann, versteht man, warum bei radioaktivem Zerfall oder Kernspaltung die Tochterteilchen zusammen weniger Masse haben als der Ausgangskern: Ein Teil der anfänglichen Ruheenergie ist in kinetische Energie der Tochterteilchen und gegebenenfalls in andere Strahlung umgewandelt worden. Sog. "relativistische Masse" und "Ruhemasse". der geschwindigkeitsabhängigen Energie formula_9 eines Teilchens oder Körpers auch bei Bewegung rechnerisch eine Masse formula_10 zu, so heißt sie relativistische Masse. Sie ist keine vom Bezugssystem unabhängige feste Eigenschaft des Teilchens, sondern hängt von seiner Geschwindigkeit (bzw. der des Beobachters) ab. Im Ruhesystem stimmt formula_10 mit der Masse formula_5 überein, die deshalb gelegentlich auch als Ruhemasse bezeichnet wird. Bei hinreichend starker Annäherung an die Lichtgeschwindigkeit wird formula_10 beliebig groß. Mit der relativistischen Masse schreibt sich der relativistische Impuls wie in Newtons Mechanik als „Masse mal Geschwindigkeit“. Dass der Impuls eines Teilchens unbegrenzt anwachsen kann, während seine Geschwindigkeit durch die Lichtgeschwindigkeit nach oben begrenzt ist, wird in diesem Bild durch die entsprechend zunehmende relativistische Masse bewirkt. Im Bereich relativistischer Geschwindigkeiten reagiert ein Teilchen auf eine Kraft senkrecht zu seiner Flugrichtung so, dass man ihm nach der Newtonschen Mechanik gerade die relativistische Masse zuschreiben müsste. Für eine Kraft in Richtung der Geschwindigkeit müsste man allerdings wieder eine andere Masse nehmen, und für andere Richtungen ist die Beschleunigung noch nicht einmal parallel zur Kraft. Der Begriff der relativistischen Masse wird daher in der modernen Physik aus diesen und anderen Gründen gemieden. So kann man ihren Wert nicht mit einer Waage im Gravitationsfeld messen. Schließlich hat man für die relativistische Masse bis auf den konstanten Faktor formula_14 schon die Bezeichnung Energie. Der Begriff Masse hingegen bezieht sich, wie in Newtons Physik, auf eine Eigenschaft des Teilchens, Körpers oder physikalischen Systems, die vom Bezugssystem unabhängig ist, anders als die Größen Geschwindigkeit, Impuls und Energie. Von Raum und Zeit zur Raumzeit. Angesichts der oben erläuterten relativistischen Effekte stellt sich natürlich die Frage, wie diese Effekte zu interpretieren sind. Sieht man die Zeit als vierte Dimension an, kann man zusammen mit den drei Dimensionen des Raumes die vierdimensionale Raumzeit betrachten, die aber nicht den vierdimensionalen Euklidischen Raum formula_15 ergibt, sondern den sog. Minkowski-Raum formula_16 Der Unterschied ergibt sich aus einer mathematischen Besonderheit der Metrik (besser: Pseudo-Metrik) des Minkowski-Raumes – sie kann beide Vorzeichen besitzen. Dies ergibt den Unterschied von Drehungen im vierdimensionalen euklidischen Raum formula_15 und den unten angegebenen „rhomboedrischen“ Koordinaten-Transformationen der vierdimensionalen Raumzeit. Zugleich ergibt sich so, dass auch in der Relativitätstheorie noch ein Unterschied zwischen raumartig und zeitartig bzw. – bei Zeitartigkeit – zwischen „Vergangenheit“ und „Zukunft“ verbleiben kann, je nach dem Vorzeichen der Metrik des betrachteten Punktes im Minkowski-Raum bzw. nach dem Vorzeichen seiner Zeitkoordinate (siehe auch: Lichtkegel). Die Bewegung eines Beobachters wird in dieser vierdimensionalen Raumzeit zu einer Kurve (der sog. "Weltlinie" des Beobachters) und lässt sich in Minkowski-Diagrammen darstellen. Dabei erkennt man, dass der vorliegende "Wechsel des Bezugssystems" auf jeden Fall (sowohl klassisch-mechanisch als auch relativistisch) mit einem „Kippen“ der Zeitachse einhergeht. Dieses beschreibt die „Relativität der GleichORTigkeit“: Während aber der Beobachter im Zug feststellt, dass z. B. sein Koffer über ihm im Gepäcknetz die ganze Zeit am selben Ort bleibt, ist für den Beobachter am Bahnsteig klar, dass sich derselbe Koffer mit dem Zug mitbewegt, also gerade nicht am selben Ort bleibt. Was den Minkowski-Raum der Relativitätstheorie von Newtons Raum und Zeit unterscheidet, ist die Tatsache, dass für zueinander bewegte Bezugssysteme auch die GleichZEITigkeit relativ ist, wie oben beschrieben. Dies führt dazu, dass nach der Relativitätstheorie (im Gegensatz zur klassischen Mechanik) "zusammen mit der Zeitachse auch die Ortsachse gekippt wird." Gegenüberstellung von "Drehung" (links) und dem im Text beschriebenen „rhomboedrischen“ "Bezugssystemwechsel" (rechts) Eine wohlbekannte Bewegung, bei der zwei Koordinatenachsen geändert werden, ist die "Drehung" im Raum. Das nebenstehende Bild illustriert den Unterschied zwischen der bekannten Drehung und dem angegebenen "Bezugssystemwechsel": Während bei Drehungen im Raum beide Achsen in "dieselbe" Richtung gedreht werden, werden bei einem Bezugssystemwechsel Ortsachse und Zeitachse in "entgegengesetzte" Richtungen gedreht: Aus dem ursprünglichen Quadrat entsteht ein flächengleicher Rhombus, wobei die Bedingung der Flächengleichheit der Konstanz der Lichtgeschwindigkeit entspricht. Die lange Diagonale (eine Winkelsymmetrale der Achsen, die sog. 1. Mediane) bleibt unverändert. Sie beschreibt aber gerade den Weg des Lichtes, ihr Anstieg ist die Lichtgeschwindigkeit. Die Unveränderlichkeit bei Bezugssystemwechsel bedeutet also gerade, dass die Lichtgeschwindigkeit konstant ist. Aus diesen Betrachtungen folgt, dass es sinnvoll ist, Raum und Zeit als eine Einheit anzusehen, so wie Länge, Breite und Höhe eine Einheit bilden, nämlich den dreidimensionalen Raum. Die vierdimensionale Einheit aus Raum und Zeit nennt man Raumzeit. Es ist damit nicht mehr möglich, eine ganz bestimmte Richtung unabhängig vom Beobachter als "die" Zeitrichtung anzugeben, genauso wie es im Raum kein eindeutiges (beobachterunabhängiges) „Vorne“ gibt. So laufen z. B. sowohl die schwarze Zeitachse als auch die gelbe „gedrehte“ Zeitachse in Zeitrichtung. Allerdings ist es – im Unterschied zum normalen Raum – in der Raumzeit "nicht" möglich, die Zeitrichtung bis zur Raumrichtung zu drehen oder gar die Zeit „umzudrehen“, also Vergangenheit und Zukunft zu vertauschen. Durch die Konstanz der Diagonalen werden die von Diagonalen begrenzten Gebiete stets in sich selbst übergeführt. Dies entspricht der Flächengleichheit der eingezeichneten Netzwerk-Segmente. Bei genauerer Betrachtung der Drehung (linkes Bild) sieht man, dass jedes Koordinatenquadrat wieder in ein gleich großes Quadrat übergeführt wird (das gedrehte Quadrat oben rechts vom Ursprung ist im Bild schraffiert). Zudem ist der Schnittpunkt der gedrehten y-Achse (gelbe Linie) mit dem Schnittpunkt der gedrehten ersten Parallelen der x-Achse (hellbraune Linie) gleich weit entfernt vom Ursprung wie der ungedrehte Schnittpunkt. Der y-Wert dieses Schnittpunktes ist hingegen kleiner als für den ungedrehten Schnittpunkt. Dies führt zum Phänomen der "perspektivischen Verkürzung", wenn die Linie aus x-Richtung angeschaut wird. Betrachtet man nun analog das rechte Bild, so sieht man, dass auch hier das Koordinatenquadrat in eine gleich große Fläche überführt wird, aber die neue Fläche ist kein Quadrat mehr, sondern rhomboedrisch. Das hat die Auswirkung, dass der Schnittpunkt der „gedrehten“ Zeitachse (gelb) mit der nächsten Parallelen der gedrehten Raumachse (hellbraun) "höher", also "später" liegt als im ungedrehten Fall. Nehmen wir nun an, die Raumachsen werden bei jedem Tick einer Uhr „gesetzt“, so sieht man sofort, dass die Uhr im „gedrehten“ Koordinatensystem, also die relativ zum Beobachter bewegte Uhr, anscheinend langsamer geht (zwischen zwei Ticks vergeht mehr Zeit des Beobachters). Aus der Analogie zur Drehung wird ebenfalls klar, dass es sich auch hierbei nur um einen „perspektivischen“ Effekt handelt. Damit erklärt sich ganz zwanglos der scheinbare Widerspruch, dass "beide" Beobachter die Uhr des jeweils anderen langsamer laufen sehen. Auch die perspektivische Verkürzung wird wechselseitig wahrgenommen, ohne dass das zu Widersprüchen führen würde. Ein wesentlicher Unterschied des Bezugssystemwechsels zur Drehung ist jedoch, dass für die Variable „Zeit“ statt einer Verkürzung eine "Verlängerung" (Dehnung: Zeit"dilatation") wahrgenommen wird. Dies kann man an obiger Gegenüberstellung gut erkennen: Bei der Drehung im Raum wandert der Schnittpunkt der gelben und der hellbraunen Linie nach "unten" (perspektivische "Verkürzung"), beim Bezugssystemwechsel hingegen nach "oben". Effekte. Die bereits erklärten Effekte der Lorentztransformationen lassen sich teilweise direkt beobachten. Insbesondere die Zeitdilatation wurde durch viele Experimente bestätigt. So erhöht sich die Lebensdauer von instabilen Elementarteilchen in Teilchenbeschleunigern, was vor allem bei den vergleichsweise langlebigen Myonen nachgewiesen wurde. Außerdem wurde in Analogie zum Zwillingsparadoxon eine Atomuhr in einem Flugzeug platziert und ein sehr kleiner, aber messbarer Gangunterschied gegenüber am Boden verbliebenen Uhren festgestellt. Die spezielle Relativitätstheorie hat jedoch auch Konsequenzen, die nicht so offensichtlich Folgen der Lorentztransformationen sind. Einige dieser Effekte werden hier dargestellt. Aberration. Wenn sich ein Beobachter schneller und schneller bewegt, kommen ihm die seitlichen Lichtstrahlen ähnlich wie Regentropfen mehr und mehr von vorne entgegen. Es ändert sich der Winkel, unter dem ein Lichtstrahl für einen bewegten Beobachter einfällt. Ursprünglich erklärte man dieses Phänomen, die Aberration des Lichts, mit Newtons Korpuskeltheorie des Lichtes genauso wie bei Regentropfen. In der speziellen Relativitätstheorie wird nun die klassische durch die relativistische Geschwindigkeitsaddition ersetzt. Daraus folgt, dass ein bewegter Beobachter nach der Korpuskeltheorie einen anderen Aberrationswinkel als nach der speziellen Relativitätstheorie beobachten und je nach Bewegungsgeschwindigkeit verschiedene Lichtgeschwindigkeiten des einfallenden Lichts messen würde. Nach der Beobachtung, dass sich Licht wie eine Welle ausbreitet (Undulationstheorie), konnte man die Aberration jedoch nicht mehr verstehen. Bei einer Lichtwelle würden sich in der newtonschen Physik die Wellenfronten bei Bewegung des Beobachters nicht ändern. Erst in der Speziellen Relativitätstheorie ändern sich die Wellenfronten aufgrund der Relativität der Gleichzeitigkeit so wie Teilchenbahnen, und Aberration wird verstehbar, ob sie nun bei Wellen oder bei Teilchen auftritt. Dopplereffekt. Bei Wellen, die sich in einem Trägermedium fortpflanzen, wie den Schallwellen, kommt es bei einer Bewegung der Quelle oder des Empfängers gegenüber dem Trägermedium zu einer Veränderung der gemessenen Frequenz. Dabei ist der Effekt verschieden, je nachdem, ob die Quelle oder der Empfänger gegenüber dem Trägermedium bewegt ist. Generell wird die Frequenz größer, wenn sich Quelle und Empfänger aufeinander zubewegen, weil dann vom Empfänger in derselben Zeit mehr Wellenberge wahrgenommen werden. Entsprechend wird die Frequenz kleiner, wenn sich Quelle und Empfänger auseinander bewegen. Diese Frequenzverschiebung heißt "Dopplereffekt". Bei Schallwellen kann der Empfänger schneller sein als die Wellen und ihnen ganz entkommen, und die Quelle kann entsprechend ihrem eigenen Signal voraus sein, was zum Überschallknall führt. Bei Lichtwellen im Vakuum ist keine Relativbewegung zum Trägermedium messbar, da die Vakuumlichtgeschwindigkeit in allen Inertialsystemen gleich ist. Der Dopplereffekt des Lichts kann also nur von der Relativgeschwindigkeit von Quelle und Empfänger abhängen, das heißt, es gibt keinen Unterschied zwischen Bewegung der Quelle und des Empfängers. Da eine Relativbewegung schneller als mit Vakuumlichtgeschwindigkeit nicht möglich ist, gibt es für Licht im Vakuum kein analoges Phänomen zum Überschallknall. In Medien wie Wasser, in denen die Ausbreitungsgeschwindigkeit des Lichts geringer ist als im Vakuum, gibt es mit dem Tscherenkow-Effekt ein dem Überschallknall ähnliches Phänomen. Es ist klar, dass die Zeitdilatation einen Einfluss auf die Frequenzen hat, die zwei relativ zueinander bewegte Beobachter messen. Daher tritt beim Licht auch ein Dopplereffekt auf, wenn sich der Beobachter senkrecht zur Richtung bewegt, in der die Quelle liegt. Dieser Effekt heißt "transversaler Dopplereffekt". Dabei muss beachtet werden, dass die Definition des Einfallwinkels aufgrund der Aberration abhängig vom Beobachter ist. Daher tritt je nachdem, in welchem Bezugssystem das Licht senkrecht einfällt, eine Erhöhung der Frequenz (Blauverschiebung) oder eine Verringerung (Rotverschiebung) auf. Aus Sicht des Ruhesystems des Empfängers vergeht aufgrund der Zeitdilatation die Zeit im System der Quelle langsamer. Das bedeutet, dass er in seinem System eine niedrigere Frequenz misst als ein Beobachter, der relativ zur Quelle ruht, er misst also eine Rotverschiebung. Der zur Quelle ruhende Beobachter erklärt den Effekt damit, dass sich der Empfänger zum Zeitpunkt des Empfangens nicht senkrecht zur Richtung der Quelle, sondern von der Quelle weg bewegt. Der Lichtstrahl trifft den Empfänger aus seiner Sicht von hinten, womit er die Rotverschiebung erklärt. Aus Sicht des Ruhesystems der Quelle vergeht entsprechend die Zeit im Ruhesystem des Empfängers langsamer. Daher misst der Empfänger eine höhere Frequenz, also eine Blauverschiebung, wenn das Licht im Ruhesystem der Quelle senkrecht zur Bewegungsrichtung den Empfänger trifft. Der Empfänger erklärt diese Blauverschiebung wieder anders, denn aus seiner Sicht trifft ihn der Lichtstrahl nicht im rechten Winkel, sondern schräg von vorn. Er wird also die Blauverschiebung durch die Annäherung an die Quelle erklären. Lorentzkraft. Die Relativitätstheorie wird nicht erst bei sehr hohen Geschwindigkeiten relevant. Die "Lorentzkraft" bietet ein Beispiel dafür, wie sich in der Erklärung bekannter Effekte bereits bei sehr geringen Geschwindigkeiten grundlegende Unterschiede gegenüber der klassischen Physik ergeben können. Dazu betrachtet man eine einzelne negative elektrische Probeladung in gewissem Abstand neben einem Draht, der insgesamt elektrisch neutral ist, aber aus einem positiv geladenen, starren Grundmaterial (den Atomrümpfen) und vielen negativ geladenen, beweglichen Elektronen besteht. In der Ausgangssituation ruht die Probeladung und im Draht fließt kein Strom. Daher wirkt auf die Probeladung weder eine elektrische noch eine magnetische Kraft. Nun betrachtet man den Fall, dass die Probeladung außerhalb und die Elektronen innerhalb des Drahtes sich mit gleicher Geschwindigkeit längs des Drahtes bewegen. Im Draht fließt dann ein Strom. Dieser erzeugt ein Magnetfeld, welches auf die Probeladung, weil sie sich bewegt, die Lorentzkraft ausübt, die sie radial zum Draht hinzieht. Soweit die Beschreibung in dem Bezugssystem, in dem das positive Grundmaterial des Drahtes ruht. Im Bezugssystem, das mit den negativen Ladungen mitbewegt wird, wirkt dieselbe Kraft, muss aber ganz anders erklärt werden. Eine Lorentzkraft kann es nicht sein, denn die Geschwindigkeit der Probeladung ist ja Null. Es bewegt sich aber das positiv geladene Grundmaterial des Drahtes und erscheint nun durch die Lorentzkontraktion verkürzt. Es erhält dadurch eine vergrößerte Ladungsdichte, während die im Draht befindlichen Elektronen in diesem Bezugssystem ruhen und daher dieselbe Ladungsdichte haben wie in der Ausgangssituation. Die gesamte Ladungsdichte im Draht zeigt also einen Überschuss an positiver Ladung. Er übt auf die ruhende negative Probeladung eine "elektrostatische" Kraft aus, die sie radial zum Draht hinzieht. Soweit die Beschreibung im bewegten Bezugssystem. Beide Beschreibungen führen zu gleichen Voraussagen über die Kraft, die auf die Probeladung wirkt. Hingegen ließe sich dies ohne Berücksichtigung der Lorentzkontraktion nicht erklären. In beiden Bezugssystemen bliebe dann der Draht elektrisch neutral. Zwar würde vom Standpunkt des bewegten Bezugssystems aus das bewegte positive Grundmaterial des Drahtes einen Stromfluss bedeuten, der ein Magnetfeld erzeugt, dieses hätte aber auf die ruhende Probeladung keine Wirkung. Diese Betrachtung zeigt, dass durch Lorentztransformationen Magnetfelder und elektrische Felder teilweise ineinander umgewandelt werden. Das ermöglicht es, die Lorentzkraft auf elektrostatische Anziehung zurückzuführen. Dieser Effekt hat bereits für kleine Geschwindigkeiten messbare Auswirkungen – die mittlere Elektronengeschwindigkeit in Drahtrichtung ist bei Stromfluss typischerweise unter einem Millimeter pro Sekunde, also sehr viel kleiner als Lichtgeschwindigkeit. Indirekte Effekte. Zu den indirekten Effekten gehört der Nachweis der Zeitdilatation in den sog. „Myonenschauern“: Myonen haben eine mittlere Lebensdauer von Δτ ~ 2·10−6 s, werden in ca. 30 km Höhe von der Höhenstrahlung in großer Menge erzeugt und erreichen in ebensolcher Menge die Erdoberfläche, obwohl sie – selbst wenn sie sich mit Lichtgeschwindigkeit bewegten – schon nach wenigen Kilometern fast alle zerfallen sein müssten. Dieser Widerspruch wird durch die Feststellung aufgelöst, dass für einen Beobachter auf der Erdoberfläche nicht die Eigenzeit Δτ, sondern die Beobachterzeit Δt=Δτ/(1-(v/c)2)1/2 relevant ist, was wegen des sehr kleinen Nenners die gemessenen Werte ergibt. Man kann stattdessen auch den von den Myonen gesehenen kürzeren Weg (Längenkontraktion) als Begründung nehmen. Klassische Mechanik. Die spezielle Relativitätstheorie tritt an die Stelle der dynamischen Gesetze der klassischen Mechanik. Allerdings sind die Gesetze der klassischen Mechanik über Jahrhunderte immer wieder sehr genau bestätigt worden. Dabei wurden jedoch immer Geschwindigkeiten betrachtet, die sehr viel kleiner waren als die Lichtgeschwindigkeit. Für solche kleinen Geschwindigkeiten sollte die spezielle Relativitätstheorie also dieselben Ergebnisse liefern wie die klassische Mechanik. Das bedeutet, dass die Lorentztransformationen für sehr kleine Geschwindigkeiten die Galilei-Transformationen ergeben müssen. Daraus ergibt sich dann sofort, dass auch der Impuls, die kinetische Energie und alle anderen Größen für kleine Geschwindigkeiten die bekannten klassischen Werte annehmen. Wenn der Zug in den obigen Gedankenexperimenten sehr viel langsamer fährt als mit Lichtgeschwindigkeit, ist der Unterschied zwischen den Gleichzeitigkeitsbegriffen der Beobachter sehr klein. Das führt dazu, dass auch die anderen relativistischen Effekte so klein werden, dass man sie kaum beobachten kann. Wenn also die Zeitdilatation so klein ist, dass sie unbemerkt bleibt, werden durch die Lorentztransformation anscheinend nur die Raumkoordinaten transformiert. Wenn auch die Längenkontraktion unbemerkt bleibt, bleiben genau die Galilei-Transformationen übrig. Das veranschaulicht, dass die spezielle Relativitätstheorie für sehr kleine Geschwindigkeiten dieselben Resultate wie die klassische Mechanik liefert. Die Tatsache, dass eine alte, bewährte Theorie in einer neuen Theorie enthalten sein muss, wird als Korrespondenzprinzip bezeichnet. Die spezielle Relativitätstheorie erfüllt also das Korrespondenzprinzip bezüglich der klassischen Mechanik. Bei nicht-mechanischen, elektromagnetischen Prozessen ist das nicht immer so, wie durch die Erklärung der Lorentzkraft illustriert wird. Allgemeine Relativitätstheorie. Bei Berücksichtigung von Gravitationseffekten tritt die allgemeine Relativitätstheorie an die Stelle der speziellen Relativitätstheorie. Insofern muss auch hier ein Korrespondenzprinzip erfüllt sein, da die Vorhersagen der speziellen Relativitätstheorie sehr genau experimentell bestätigt sind. Im Unterschied zur speziellen Relativitätstheorie ist die Raumzeit in der allgemeinen Relativitätstheorie gekrümmt und die Theorie muss daher streng lokal formuliert werden. Für große Entfernungen können sich deshalb Abweichungen von den Aussagen der speziellen Relativitätstheorie ergeben. Durch die Behandlung der Gravitation ist vor allem in der Nähe von großen Massen, oder allgemeiner in der Nähe großer Energien, die spezielle Relativitätstheorie nur für kleine Distanzen gültig. Ein besonders illustrativer Effekt, der die Grenze der Gültigkeit der speziellen Relativitätstheorie zeigt, ist die Shapiro-Verzögerung: Für Licht, das nahe an einem Körper mit großer Masse, wie der Sonne, vorbeigeschickt wird, misst ein Beobachter, der weiter von dem massiven Körper entfernt ist, eine kleinere Geschwindigkeit als die erwartete Vakuumlichtgeschwindigkeit. Ein Beobachter direkt beim Lichtstrahl misst dagegen die „richtige“ Lichtgeschwindigkeit. Offensichtlich gelten also die Gesetze der speziellen Relativitätstheorie, wie die Konstanz der Lichtgeschwindigkeit, nur noch in kleinen Bereichen. In der allgemeinen Relativitätstheorie wird das dadurch klar, dass die Raumzeit eine sogenannte Lorentzmannigfaltigkeit bzw. ein Riemann-Raum ist, die jedoch an jedem Raumzeitpunkt lokal durch einen Minkowski-Raum – das ist die flache Raumzeit der speziellen Relativitätstheorie – beschrieben werden kann. Quantentheorie. Im Gegensatz zur allgemeinen Relativitätstheorie, bei der nach wie vor unklar ist, wie sie mit der Quantenphysik zu einer Theorie der Quantengravitation verschmolzen werden kann, gehören speziell-relativistische Quantentheorien zu den Standardwerkzeugen der modernen Physik. Tatsächlich lassen sich viele Versuchsergebnisse gar nicht verstehen, wenn man nicht sowohl die Prinzipien der Quantentheorie als auch das Raum-Zeit-Verständnis der speziellen Relativitätstheorie berücksichtigt. Bereits im halbklassischen Bohr-Sommerfeldschen Atommodell gelingt es erst bei Einbeziehung der speziellen Relativitätstheorie, die Feinstruktur von atomaren Energieniveaus zu erklären. Paul Dirac entwickelte eine Wellengleichung, die Dirac-Gleichung, die das Verhalten von Elektronen unter Berücksichtigung der speziellen Relativitätstheorie in der Quantenmechanik beschreibt. Diese Gleichung führt zur Beschreibung des Spins, einer Eigenschaft des Elektrons, die durch die nichtrelativistische Quantenmechanik nur festgestellt, aber nicht erklärt werden kann, und zur Vorhersage des Positrons als Antiteilchen des Elektrons. Auch die Feinstruktur kann wie in den halbklassischen Modellen durch die nichtrelativistische Quantenmechanik nicht erklärt werden. Allerdings: Gerade die Existenz von Antiteilchen zeigt, dass bei der Vereinigung von spezieller Relativitätstheorie und Quantentheorie nicht einfach eine relativistische Version der üblichen Quantenmechanik herauskommen kann. Stattdessen ist eine Theorie nötig, in der die Teilchenzahl variabel ist – Teilchen können vernichtet und erzeugt werden (einfachstes Beispiel: die Paarbildung von Teilchen und Antiteilchen). Dies leisten die (relativistischen) Quantenfeldtheorien, etwa die Quantenelektrodynamik als speziell-relativistische Theorie der elektromagnetischen Wechselwirkung und die Quantenchromodynamik als Beschreibung der starken Kraft, welche die Bausteine von Atomkernen zusammenhält. In Gestalt des Standardmodells der Elementarteilchenphysik bilden relativistische Quantenfeldtheorien das Rückgrat der heutigen Physik der kleinsten Teilchen. Die Vorhersagen des Standardmodells lassen sich an Teilchenbeschleunigern mit hoher Präzision testen, und die Vereinigung von spezieller Relativitätstheorie und Quantentheorie gehört damit zu den am strengsten überprüften Theorien der modernen Physik. Äthertheorien. Die spezielle Relativitätstheorie wird in der Literatur vielfach als Gegentheorie zum Äther aufgefasst. Dabei sind die meisten Äthertheorien mit der speziellen Relativitätstheorie unvereinbar und werden durch die experimentellen Bestätigungen der Vorhersagen der speziellen Relativitätstheorie widerlegt. Eine Ausnahme bildet die lorentzsche Äthertheorie, die von Hendrik Antoon Lorentz und Henri Poincaré vor und gleichzeitig mit der speziellen Relativitätstheorie entwickelt worden war. Diese Theorie ist in ihren Vorhersagen identisch mit der speziellen Relativitätstheorie, nimmt jedoch an, dass es ein absolut ruhendes Bezugssystem gibt, welches sich aber durch keine Beobachtung von jedem anderen Bezugssystem unterscheiden lässt. Diese Theorie gilt heute als veraltet, weil das Postulat des unbeobachtbaren Ruhesystems das Sparsamkeitsprinzip verletzt. Außerdem ist noch ungeklärt, ob die lorentzsche Äthertheorie mit der allgemeinen Relativitätstheorie verträglich ist. Stockholm. Stockholm (stock: "Stock, Baumstamm"; holm: "kleine Insel") ist die Hauptstadt Schwedens und mit 868.141 (Gemeinde Stockholm), 1,4 Millionen (tätort Stockholm) beziehungsweise 2,1 Millionen Einwohnern (Groß-Stockholm) die größte Stadt in Skandinavien. Sie hat eine mehr als sieben Jahrhunderte zurückreichende Besiedlungsgeschichte und ist seit 1643 die Residenz des Königs. Die Stadt ist sowohl Sitz des schwedischen Parlamentes als auch der schwedischen Regierung. Sie ist ebenso das kulturelle Zentrum des Landes und Bischofssitz. Geographische Lage. Lage der Stadt in der Provinz Stockholm Das Landschaftsbild Stockholms hat sich in der Geschichte der Stadt aufgrund der skandinavischen Landhebung stark verändert. Teile, die heute zum Festland gehören, waren vor einigen hundert Jahren noch Inseln. Ein Meerbusen der Ostsee umschließt die Stadt im Osten mit zahlreichen Buchten, Landzungen sowie etwa 24.000 größeren und kleineren Inseln (Schären). Dieses Gebiet wird "Stockholmer Schärengarten" ("Skärgården") genannt. Stockholm liegt am Ausfluss des Sees Mälaren in die Ostsee, dem "Riddarfjärden". Der See erstreckt sich 120 Kilometer nach Westen ins Landesinnere. "Slussen", eine Schleuse mitten in Stockholm, trennt das Süßwasser des Mälarsees vom Salzwasser der östlich liegenden Ostsee. Wasser macht etwa 30 Prozent der Stadtfläche aus. Die Stadt bezieht ihr Trinkwasser aus dem Mälaren und die hohe Wasserqualität erlaubt es, mitten in der Innenstadt Lachse zu angeln. Die Stadt erstreckt sich über 14 Inseln, die durch 53 Brücken verbunden sind. Ein großer Teil der Stadt besteht aus Waldregionen. In nordsüdlicher Richtung zieht sich eine eiszeitliche Kiesmoräne, die vom Ausfluss durchbrochen worden war. Die Inseln im Strom sind Reste dieses Rückens. Stadtgliederung. Die Gemeinde Stockholm gliedert sich seit dem 1. Januar 2007 in 14 Stadtbezirke. Tätort Stockholm und Metropolregion Stockholm. Zum „tätort“ (zusammenhängendes, dicht bebautes Gebiet) Stockholm gehören neben dem Territorium der Gemeinde Stockholm auch die umliegenden Gemeinden Solna und Sundbyberg (vollständig) sowie Teile der neun Gemeinden Botkyrka, Danderyd, Haninge, Huddinge, Järfälla, Nacka, Sollentuna, Tyresö und Upplands Väsby. Die Metropolregion „Groß-Stockholm“ (schwedisch "Stor-Stockholm" oder "Storstockholm") umfasst nach Definition der schwedischen Statistikbehörde SCB seit 1. Januar 2005 die gesamte Provinz Stockholm (Stockholms län). Zuvor wurden die südlich gelegenen Gemeinden Nykvarn, Nynäshamn und Södertälje sowie die im Norden der Provinz gelegene Gemeinde Norrtälje nicht dazu gezählt. Klima. Stockholm befindet sich in der gemäßigten Klimazone; die Jahresmitteltemperatur beträgt 6,6 °C und die durchschnittliche Jahresniederschlagsmenge etwa 539 Millimeter. Der wärmste Monat ist der Juli mit 17,5 °C im Mittel, der kälteste der Februar mit durchschnittlich −3 °C. Der meiste Niederschlag fällt im Monat Juli mit 72 Millimeter im Mittel, der geringste im März mit durchschnittlich 26 Millimeter. Geschichte. Stockholm 1642, gilt als älteste handgezeichnete Karte Georg Biurmans "Charta Öfwer Stockholm", 1750 Die Entstehung der Stadt. Die Stelle, an der heute Stockholm steht, wird zum ersten Mal vom isländischen Dichter und Sagenschreiber Snorri Sturluson (1179–1241) erwähnt: Er beschreibt in der Ynglingasaga eine Pfahlbarriere über die heutige Wasserstraße Norrström, die er "Stokksunda" nannte. Bei Ausgrabungen in den späten 1970er-Jahren kamen Überreste von Wasserpfählen zum Vorschein, die aus dem 11. Jahrhundert stammen und diese Aussage stützen. Außerdem wird von Snorri auch ein Befestigungsturm aus dem 12. Jahrhundert erwähnt, der sich dort befunden haben soll, wo seit 1580 das königliche Schloss steht. Ein Schutzbrief für das Fogdö-Kloster, ausgestellt im Juli 1252, ist das älteste überlieferte Dokument, in dem Stockholm erwähnt wird, wörtlich als "Stokholm". In der Erik-Chronik (schwedisch: "Erikskrönikan"), die zwischen 1320 und 1335 kompiliert wurde, steht, dass der Gründer Stockholms, der Regent Birger Jarl, um das Jahr 1250 eine Festung bauen wollte, um den Mälarsee vor Piratenplünderungen zu schützen. Es gibt keine historischen Belege für eine Existenz Stockholms vor der Mitte des 13. Jahrhunderts. Eventuell gab es ältere Verteidigungsanlagen zur Sicherung der Einfahrt in den Mälarsee; eine Besiedlung kann jedoch nicht nachgewiesen werden. Zunächst beschränkte sich das besiedelte Gebiet auf die Insel Stadsholmen, der heutigen Gamla stan. Die Insel selbst war um ein Drittel kleiner als heute und die Ströme wesentlich breiter. In den folgenden Jahrzehnten unter der Regierung Birger Magnussons und des Königs Magnus Ladulås entwickelte sich Stockholm zu einer wichtigen Handelsstadt, was vor allem durch Verträge mit der Hansestadt Lübeck gefördert wurde. Die Hanse kontrollierte den schwedischen Überseehandel vom 13. bis ins 17. Jahrhundert. Um 1270 wurde Stockholm in Dokumenten als Stadt bezeichnet und, obwohl Stockholm nicht wie viele schwedische Städte schon Anfang des 13. Jahrhunderts entstand, wurde es 1289 in einem Dokument als die bevölkerungsreichste Stadt des Königreiches beschrieben. Die ersten gesicherten Annahmen zur Größe der Stadt beziehen sich auf die Mitte des 15. Jahrhunderts, als Stockholm etwa tausend Haushalte, also ungefähr fünf- bis sechstausend Einwohner hatte. Aus demselben Jahrhundert (1436) stammt auch der erste Privilegienbrief. Im Mittelalter bestand ein erheblicher Teil der Stockholmer Bürgerschaft aus Deutschen und von 1296 bis 1478 wurde der 24-köpfige Rat der Stadt paritätisch aus deutschsprachigen und schwedischsprachigen Stadtbürgern besetzt. Trotz seiner Größe und günstigen Lage war Stockholm noch nicht die Hauptstadt, denn der König, wie auch sein Sohn, Magnus Ladulås, hatten noch keinen festen Regierungssitz. Der hauptsächliche Grund für die rasche Entwicklung der Stadt war ihre strategische Lage. Stockholm beherrschte die Zufahrt zum Mälarsee, der seinerseits eine aufgrund der Landwirtschaft und Eisenherstellung wirtschaftlich wichtige Region erschloss. Die Kalmarer Union. Die strategische und wirtschaftliche Bedeutung der Stadt machte Stockholm zu einem wichtigen Machtfaktor in den Auseinandersetzungen zwischen den dänischen Königen der Kalmarer Union und der nationalen Unabhängigkeitsbewegung im 15. Jahrhundert. So erfocht am 14. Oktober 1471 Schweden unter Sten Sture in der Nähe der Stadt am Brunkeberg (heute ein Teil des Stadtbezirkes Norrmalm) mit Unterstützung der Stockholmer Bürgerschaft einen Sieg über den dänischen König Christian I., der versuchte, Schweden an sich zu reißen. Dessen Enkel Christian II. belagerte die Stadt 1518 vergebens, nahm sie aber 1520 nach einer neuen Belagerung durch Verrat ein. Am 8. November 1520 kam es in Stockholm im Rahmen der Krönungsfeierlichkeiten zu einer Massenhinrichtung von Oppositionellen am Stortorget (mehr als 80 Adlige wurden hingerichtet), dem Stockholmer Blutbad. Der junge Adlige Gustav Eriksson konnte entkommen, hatte gegen Ende des Jahres eine Armee zusammengestellt und konnte Christian II. aus Schweden vertreiben. Am 6. Juni 1523, dem heutigen schwedischen Nationalfeiertag, wurde er unter dem Namen Gustav Vasa zum König gewählt. Die Wasa-Zeit. Mit dem Einzug Gustav Wasas 1523 und dem Aufbau einer starken Königsmacht entwickelte sich Stockholm auch zu einer wichtigen Residenzstadt. Neben dem Bürgertum begann nun auch der königliche Hof, das Stadtbild zu prägen. Die Stadtinsel bot nicht mehr genug Platz, und 1529 wurden Södermalm und Norrmalm unter die Herrschaft Stockholms gestellt. Die Stadt wuchs und erreichte um 1600 eine Einwohnerzahl von 10.000 Einwohnern. Das 17. Jahrhundert. Im 17. Jahrhundert stieg Schweden zur Großmacht auf. Dies spiegelte sich auch in der Entwicklung der Stadt Stockholm wider – von 1610 bis 1680 versechsfachte sich die Einwohnerzahl. "Ladugårdslandet", das heutige Östermalm, und die Insel Kungsholmen wurden eingemeindet. 1634 wurde Stockholm offiziell zur Hauptstadt des schwedischen Reiches. Nach dem politischen Aufstieg folgte diesem Ereignis bald auch der wirtschaftliche Aufstieg der Stadt. Stockholm erhielt das Stapelrecht und damit das Monopol für den Handel zwischen dem Ausland und Svealand, Norrland und Österbotten (heutiges Finnland). In dieser Zeit entstanden auch einige der großen Bauten und Paläste, die die Macht des Landes und seines Adels symbolisieren sollten, wie zum Beispiel Riddarhuset, das Oxenstiernasche Palais, das Tessinsche Palais und die alte Reichsbank. Auf den eingemeindeten Inseln und in Östermalm entstanden Stadtviertel in einem rechtwinkligen Straßennetz. Das 18. Jahrhundert. In den Jahren 1713 bis 1714 wurde Stockholm von der Pest heimgesucht. Nach dem Ende des Großen Nordischen Krieges und der damit verbundenen Gebietsverluste im Jahre 1721 stagnierte die Entwicklung der Stadt. Die Bevölkerung wuchs kaum mehr und die wirtschaftliche Erholung ging nur sehr langsam vor sich. Stockholm behielt aber seine Rolle als politisches Zentrum des Landes und entwickelte sich unter Gustav III. auch zum kulturellen Zentrum. Das Stockholmer Schloss und die Königliche Oper sind architektonischer Ausdruck dieser Epoche, in die auch die Gründung der Svenska Akademien zur Förderung der schwedischen Sprache und Literatur fällt. Das 19. Jahrhundert. Mit Beginn des 19. Jahrhunderts nahm die wirtschaftliche Bedeutung Stockholms weiterhin ab. Norrköping wurde zur größten Manufakturstadt und Göteborg entwickelte sich aufgrund seiner günstigen Lage am Kattegat zum wichtigsten Exporthafen Schwedens. Erst in der zweiten Hälfte des Jahrhunderts übernahm Stockholm wieder eine führende Rolle in der Wirtschaft des Landes. Einerseits wurde eine Reihe wichtiger Industriebetriebe gegründet, andererseits entwickelte sich Stockholm zu einem wichtigen Handels- und Dienstleistungszentrum sowie zu einem Verkehrsknotenpunkt. Auch die Bevölkerung wuchs in der zweiten Hälfte des 19. Jahrhunderts durch Zuwanderung stark an. Gegen Ende des Jahrhunderts waren nicht einmal 40 Prozent der Einwohner in Stockholm geboren. Die Besiedlung griff über die Stadtgrenzen hinaus und es entstand eine Reihe von Elendsvierteln, aber auch Villenviertel im Grünen und an der Küste. Stockholm baute auch seine Position als Kulturzentrum weiter aus und man bemühte sich, höhere Bildungseinrichtungen nach Stockholm zu bekommen. Im 19. Jahrhundert bekam Stockholm mehrere wissenschaftliche Institute, wie beispielsweise das Karolinische Institut und das Technologische Institut, das 1877 eine Technische Hochschule wurde. 1878 wurden auch die ersten Lehrveranstaltungen an der neu gegründeten Stockholmer Hochschule abgehalten, aber es sollte beinahe 100 Jahre dauern, bis sie zur Universität erhoben wurde. 20. Jahrhundert. a>, die fünf Cityhochhäuser im Bau 1964 Nach 1910 kam es zur Eingemeindung großer Gebiete, die verkehrstechnisch durch Straßenbahnlinien an die Stadt angeschlossen wurden. Im Anschluss daran entstanden Vororte, Gartenstädte und Gebiete mit Freizeithäuschen. In den 1930er Jahren fassten funktionalistische Ideen Fuß in Schweden. Auslöser war die Stockholmer Ausstellung 1930 ("Stockholmsutställningen 1930"), eine nationale Ausstellung für Architektur, Design und Kunsthandwerk. Wirtschaftlich kam es in den 1940er und 1950er Jahren zu einer Umstrukturierung. Arbeitsintensive Unternehmen in Niedriglohnbranchen verschwanden, während kapitalintensive Unternehmen und Unternehmen im Hochtechnologiebereich wuchsen. Ein Beispiel dafür ist der Stadtbezirk Kista, der sich in den 1990er Jahren zum IT-Zentrum Schwedens entwickelte. Schweden orientierte sich früh am amerikanischen Beispiel, so auch in Sachen Motorisierung. Es verfügte - für ein bevölkerungsarmes Land eher ungewöhnlich - um die Mitte des 20. Jahrhunderts über zwei kapitalkräftige Automobilkonzerne und es kam im Zentrum Stockholms schon 1931–1935 zur Schaffung des damals weithin berühmten "Kleeblatts" von Slussen sowie in den 1950er Jahren zu weiteren Initiativen im Sinne einer „autogerechten Stadt“. Bis in die 1970er Jahre wurde der zentrale Stadtteil Nedre Norrmalm, mit Bausubstanz aus dem 17. bis 19. Jahrhundert, im Rahmen der Sanierung von Norrmalm "(Norrmalmsregleringen)", einem großflächigen Abriss und Umbau unterworfen. Die Folgen dieser technokratischen Modernisierungspolitik, teilweise auf Basis der Enteignungsmöglichkeiten der Lex Norrmalm von 1953, wurden allerdings ab etwa 1960 zunehmend kontrovers diskutiert. Dies betraf schon die 1959 fertiggestellte, längs des Riddarholm Kanales und des Riddarhuset geführte zentrale Nord-Süd-Verbindung mit dem Charakter einer Stadtautobahn, vor allem aber den ab 1952 durchgezogenen großflächigen Umbau von Norrmalm, gegen den zuletzt ein – vergeblicher – öffentlicher Appell von 39 Kulturschaffenden ergangen war. Als Resultat dieser öffentlichen Kritik wurde zunächst die Altstadt (Gamla stan) 1965 als Ganzes unter Denkmalschutz gestellt. 1971 kam es im Zusammenhang mit Bürgerinitiativen zum so genannten Ulmenkrieg, der um die Erhaltung einer Baumgruppe im Kungsträdgården geführt wurde. Der Stockholmer Flächenwidmungsplan von 1974 kann mit seiner geänderten Planungsphilosophie als Erfolg der altstadt- und grünfreundlichen Proteste gesehen werden. Bei der „postmodernen“ Umgestaltung des früher stark industriell geprägten Stadtteils Södermalm in den 1980er Jahren wurde im Vergleich zu Norrmalm eine durchgrüntere und weniger monotone urbane Gestaltung angestrebt. Ab den 1950er Jahren nahm die Beschäftigungsquote der Industrie ab. Sie liegt heute bei ungefähr 10 Prozent; der Dienstleistungsbereich wuchs demgegenüber weiter an. Bereits 1936 gab es eine Art U-Bahnverbindung zwischen "Slussen" und "Medborgarplatsen", die mit gewöhnlichen Straßenbahnwagen betrieben wurde. 1950 wurde dann die erste U-Bahnlinie in Stockholm eröffnet. Längs der U-Bahn-Linien und an deren Endpunkten entstanden in den 1950er Jahren Satellitenstädte, sogenannte ABC-Vororte (A für "Arbete" ‚Arbeit‘, B für "Bostad" ‚Wohnung‘ und C für "Centrum" ‚Zentrum‘), wie Vällingby und Farsta, und seit der Mitte der 1960er bis zur Mitte der 1970er Jahre die im Rahmen des Millionenprogrammes gebauten Großsiedlungen wie Rinkeby, Tensta, Sollentuna und andere. Trotz eines heute relativ hohen Anteils eingewanderter Mitbürger in diesen Stadtteilen (über 40 Prozent der Einwohner in Tensta, Rinkeby oder Sollentuna kommen aus dem außereuropäischen Ausland), kann man nicht von einer Ghettoisierung sprechen, auch wenn die durchaus vorhandenen Segregationstendenzen seit Ende der 1990er Jahre deutlicher spürbar sind. Von 1909 an hatten die Sozialdemokraten zusammen mit den Liberalen die Mehrheit im Stockholmer Gemeinderat. In den ersten Kommunalwahlen nach dem allgemeinen Wahlrecht 1919 erreichte die politische Linke eine Mehrheit im Gemeinderat, die sie bis in die 1950er Jahre behielt. Anfang der 1920er Jahre erhielt Stockholm eine neue politische Organisation, die in ihren Grundzügen auch heute noch gilt. 1923 übersiedelte die Stockholmer „Regierung“ in das neugebaute Rathaus (Stockholms stadshus). 1967 wurde Stockholm in die Verwaltungsprovinz Stockholms län eingegliedert. Im Jahr 1986 wurde Premierminister Olof Palme auf offener Straße am Sveavägen erschossen; der Mord wurde nie geklärt. Im September 2003 wurde Außenministerin Anna Lindh im Kaufhaus "NK" (Nordiska Kompaniet), das unweit vom Ort des Palme-Attentats steht, von einem Messerattentäter tödlich verletzt. Die Europäische Union ernannte Stockholm im Jahr 1998 zur Kulturhauptstadt Europas. 21. Jahrhundert. Im Mai 2013 ereigneten sich in Vororten von Stockholm teils gewalttätige Unruhen. Jugendliche zündeten mehrere Autos und eine Polizeiwache an. Einwohnerentwicklung. Am 31. Dezember 2005 zählte die Stadt Stockholm (tätort) 1.252.020 Einwohner. Davon lebten 770.809 Menschen in der Gemeinde Stockholm und 481.211 in den zehn umliegenden Gemeinden der Provinz Stockholm. Bis 31. März 2011 stieg die Einwohnerzahl der Gemeinde Stockholm auf 851.155. Die Metropolregion hat 2.063.945 Einwohner (Stand 31. März 2011). Per 1. Januar 2004 waren 70.584 Einwohner der Stadt Ausländer (das entspricht etwa 9 Prozent). Ungefähr 80 Prozent der Bevölkerung waren Mitglieder der Schwedischen Kirche. Das Ausbildungsniveau der Bevölkerung liegt deutlich über dem Landesdurchschnitt: Nur 13 Prozent der Bevölkerung zwischen 20 und 64 Jahren haben keinen Gymnasialabschluss (Reichsschnitt 19 Prozent), aber 48 Prozent der Bevölkerung haben eine postgymnasiale Ausbildung (Reichsschnitt: 32 Prozent). Die offene Arbeitslosigkeit in Stockholm betrug Ende 2003 etwa 3,8 Prozent, was deutlich unter dem Reichsschnitt von über 5 Prozent war. Nachfolgend sind die Einwohnerzahlen der Gemeinde Stockholm nach dem jeweiligen Gebietsstand aufgeführt. Stadtparlament. Das höchste beschlussfassende politische Organ ist das alle vier Jahre gewählte Stadtparlament (schwedisch "kommunfullmäktige"), das aus 101 Abgeordneten besteht. Stadtregierung. Straße in der Stockholmer Altstadt Die Stadtregierung (schwedisch "kommunstyrelse"), die aus 13 Mitgliedern besteht (vier Sozialdemokraten, drei Grüne, drei Moderate, zwei Vertreter der Linkspartei, eine Liberale), wird nach dem Verhältniswahlprinzip gewählt; die im Stadtparlament vertretenen Parteien sind also auch in der Stadtregierung repräsentiert. Die Beschlüsse der Stadtregierung werden von der Stadtratskommission (schwedisch "borgarrådsberedningen") vorbereitet und durchgeführt, die aus dreizehn Stadträten (schwedisch "borgarråd") besteht, die alle vier Jahre vom Stadtparlament gewählt werden. Dabei unterscheidet man zwischen regierenden Stadträten (schwedisch "styrande borgarråd") und oppositionellen Stadträten (schwedisch "oppositionsborgarråd"). Die jetzige Stadtratskommission besteht aus neun regierenden Stadträten (vier Sozialdemokraten, drei Grüne und zwei Vertreter der Linkspartei), die gleichzeitig Leiter von Abteilungen (schwedisch "rotel") sind, und vier oppositionellen Stadträten ohne Portefeuille (drei Moderate und eine Liberale). Der Finanzstadtrat ist in der Regel gleichzeitig Vorsitzender der Stadtratskommission und der Stadtregierung – also Bürgermeister. Dies ist seit 2014 Karin Wanngård von den Sozialdemokraten. Bezirksausschüsse. Ein großer Teil der Verantwortung für die Wahrnehmung der kommunalen Aufgaben liegt bei den Bezirksausschüssen (schwedisch "stadsdelsnämnd"). Diese Aufgaben wurden am 1. Januar 1997 im Zuge der "Stadsdelsnämndsreformen" den damals 24 Bezirksausschüssen übertragen und sollten den Einwohnern die Möglichkeit geben, direkter an der kommunalen Politik teilzuhaben. Die Bezirksausschüsse, die je nach Größe des Stadtbezirkes aus elf oder 13 Mitgliedern bestehen, werden vom Stadtparlament ernannt und sind dem Stadtparlament direkt unterstellt. Nach den Wahlen 1998 wurde die Zahl der Bezirksausschüsse mit Wirkung zum 1. Januar 1999 auf 18 reduziert und nach den Wahlen 2006 eine weitere Reduzierung auf 14 Ausschüsse beschlossen und zum 1. Januar 2007 umgesetzt. Fachausschüsse. Gewisse übergreifende Tätigkeitsbereiche werden von zentralen Fachausschüssen (schwed. "facknämnd") abgedeckt, wie z. B. dem Bildungsausschuss, dem Sportausschuss oder dem Wahlausschuss. Städtische Unternehmen. Ein Teil der kommunalen Dienstleistungen wurde in Aktiengesellschaften ausgelagert, in denen die Stadt die Aktienmehrheit besitzt. So werden etwa die Gemeindewohnungen, die Wasserversorgung, das Stockholmer Stadttheater und anderes von Aktiengesellschaften verwaltet, die unter einer Konzernleitung, der "Stockholms Stadshus AB", zusammengefasst sind. Wappen. Blasonierung des Stadtwappens von Stockholm: „In Blau ein goldenes hersehendes gekröntes Manneshaupt.“ Das Haupt stellt den Kopf König Eriks IX., des Heiligen, dar, auch Erik Jedvardsson genannt, König von 1156 bis 1160. Die Darstellung basiert auf dem mittelalterlichen Siegel der Stadt Stockholm. Theater. In Stockholm gibt es eine Reihe von Theatern, darunter die Königliche Oper ("Kungliga Operan"), das Königliche Dramatische Theater ("Dramaten") und das Stockholmer Stadttheater ("Stadsteatern") sowie Privattheater wie die Volksoper ("Folkoperan"), das Moderne Tanztheater ("Moderna dansteatern"), das China-, Göta Lejon-, Mosebacke-, Oscar-Theater und viele andere Bühnen. Das Orion Theater besteht als größte Avantgardebühne der Stadt bereits seit 1983 und präsentiert mehrere Theaterstücke jährlich, die nicht selten mit Livemusik ergänzt werden. Museen. Unter den zahlreichen Museen in Stockholm gibt es nationale Museen wie das Architekturmuseum, das dem Modernen Museum angegliedert ist, für Musikfans das ABBA Museum,das Biologische Museum, das Ethnografische Museum Stockholm, das Historische Museum, das Seehistorische Museum, das Museum für Moderne Kunst (Moderna museet), das Nationalmuseum, das Naturhistorische Reichsmuseum, das Technische Museum, das Vasa-Museum und andere. Die Geschichte und Gegenwart Stockholms wird im Mittelaltermuseum (Medeltidsmuseet), im Stockholmer Stadtmuseum und im Stockholmer Länsmuseum pädagogisch aufbereitet. Im Stockholmer Schloss befinden sich mehrere Museen zur Geschichte der Könige. Sport. Von den sportlichen Einrichtungen ragen das Olympiastadion Stockholm und die Globen Arena heraus. Beide werden auch für Konzertveranstaltungen genutzt. Nationale Meisterschaften im Männerfußball konnten bisher drei der Vereine aus Stockholm gewinnen. Von diesen hat Djurgårdens IF elf Meistertitel, AIK zehn und Hammarby IF einen Titel, wobei AIK allerdings seit 1937 strenggenommen kein Stockholmer Verein mehr ist, da er in der Nachbargemeinde Solna angesiedelt ist. International am erfolgreichsten war der Frauenverein Älvsjö, der 2005 bis ins Finale des UEFA Women's Cup vordringen konnte. Die Eishockeyabteilung von Djurgårdens IF, die ihre Heimspiele zum Teil im Globen austrägt, konnte bisher 16-mal die Schwedische Meisterschaft gewinnen, zuletzt 2001. Die Mannschaften Hammarby IF und AIK Ishockey, die im neben der Globen Arena gelegenen Hovet spielen, wurden bisher acht- bzw. siebenmal Schwedischer Meister. Erfolgreich im American Football sind die nationalen Rekordmeister Stockholm Mean Machines. Im Juni findet der Stockholm-Marathon statt, Skandinaviens größter Marathon. Sehenswürdigkeiten. Das Stockholmer Stadtbild und seine Architektur sind von der besonderen Lage der Stadt an den Ufern des von Westen nach Osten verlaufenden Ausflusses des Mälaren, dem in nordsüdlicher Richtung verlaufenden Höhenrücken der Gletschermoräne und der zentralen Stadtinsel mitten im Strom geprägt. Im Stadtgebiet gibt es zahlreiche kleine Parks. Nachfolgend werden einige Inseln der Stadt genauer beleuchtet. Hierbei bleibt die politische Gliederung der Stadt in Stadtbezirke unberücksichtigt. Stadsholmen, Gamla stan. Die Altstadt auf der Stadtinsel ("Stadsholmen") weist noch immer das mittelalterliche Straßennetz mit den von Nord nach Süd über die Insel verlaufenden Straßen ("Österlånggatan" und "Västerlånggatan") und schmalen, zum Wasser abfallenden Gässchen auf. Mittendrin befindet sich die deutsche Kirche ("Tyska kyrkan"). Einen anderen Eindruck machen im Norden der Insel die Paläste der Großmachtszeit wie das Ritterhaus und das im Norden zum Wasser hin gelegene Bondesche Palais, das Oxenstiernasche Palais und das Tessinsche Palais in der Nähe der "Storkyrkan", dem Stockholmer Dom, und natürlich das Königliche Schloss, dessen mittlere Achse auf die "Norrbro" (Nordbrücke) weist, mit der die Altstadt über die Insel Helgeandsholmen mit Norrmalm, dem nördlichen Ufer, verbunden ist. Ein Großteil der Altstadt ist allerdings autofrei. Helgeandsholmen und Riddarholmen. Die Insel Helgeandsholmen (Heiliggeist-Insel) beherbergt nur zwei Institutionen, das "Medeltidsmuseum" (Mittelaltermuseum) und das Reichstagsgebäude, Sitz des schwedischen Reichstags (der auch das ehemalige Gebäude der schwedischen Reichsbank in Anspruch nimmt). Die Insel Riddarholmen im Westen der Stadtinsel ist eine stille Ecke mitten in der Stadt. Sie ist heute das Justizzentrum des Landes, Sitz insbesondere des Regeringsrätt sowie des Svea hovrätt. Im Wrangelschen Palais und den anderen Gebäuden befinden sich verschiedene Gerichte. Daneben befindet sich auch die Riddarholmskirche, Grabkirche vieler schwedischer Könige. Norrmalm. Vom Königlichen Schloss aus blickt man über Helgeandsholmen hinweg auf Norrmalm und sieht Rosenbad, den Regierungssitz der schwedischen Regierung, das Sagersche Haus, die Dienstwohnung des Premierministers, das Palais des Erbfürsten ("Arvfurstens palats") - heute Außenministerium - und die Königliche Oper mit dem berühmten Restaurant "Operakällaren". Dahinter beginnt die Innenstadt, das moderne Stockholm, das in den 1950er bis 1970er Jahren entstand, nachdem man über 400 Gebäude des Viertels "Klara" abgerissen und durch ein nach damaligem Geschmack modernes Zentrum ersetzt hatte. Achtzehnstöckige Gebäude wurden errichtet und in der Mitte wurde der Sergels torg (Sergelsplatz) als Symbol des modernen Wohlfahrtsstaates auf zwei Ebenen erbaut. Manchen mag er heute als Schandfleck erscheinen, andere sehen in ihm den Versuch, gesellschaftlichen Visionen architektonischen Ausdruck zu verleihen. An seiner Seite befindet sich das Stockholmer Kulturhaus mit dem Stadttheater. Die "Drottninggatan" ist eine moderne Einkaufsstraße mit modernen Kaufhäusern. Nicht selten hört man sogar von Schweden den etwas sarkastischen Spruch: „Schweden hat keine Bombenteppiche benötigt, um seine schöne Hauptstadt zu zerstören. Das hat man auch so geschafft.“ Ähnliche Umbaupläne wie für Norrmalm existierten auch für die Altstadt "Gamla Stan". Allerdings wurden diese nie umgesetzt. Der "Kungsträdgården" ist Treffpunkt für junge Leute. Hier finden im Sommer häufig Konzerte statt, im Winter kann man mitten in der Innenstadt in Schlossnähe Schlittschuhlaufen. Östermalm. Östlich von Norrmalm erstreckt sich Östermalm, geprägt vom rechtwinkeligen Straßennetz der schwedischen Großmachtszeit. Vor allem die Wasserfront, der "Strandvägen", war und ist Stockholms repräsentativste Adresse, was die Gründerzeithäuser in historistischem Stil zeigen. Wo der "Strandvägen" beginnt, liegt das Königliche Dramatische Theater ("Dramaten"). Vor dem Theater liegt der Berzelius-Park, in dem sich das Berns, Theater und Restaurant, befindet, dessen rotes Zimmer durch Strindbergs Roman "Das rote Zimmer" berühmt geworden ist. In der Nähe befindet sich der Königliche Hofstall. In Östermalm liegen der sternförmige "Karlaplan", der "Östermalms torg" (Östermalmsplatz) mit der Markthalle "Östermalms Saluhall" und die Hedwig-Eleonora-Kirche. Djurgården. Vom "Karlaplan" führt der "Narvavägen" über die Djurgårdsbrücke auf die Halbinsel Djurgården, die auch heute noch vorwiegend ein Naturpark und Ausflugs- und Erholungsgebiet für die Stockholmer ist. Über die Brücke kommt man entlang dem "Djurgårdsvägen" zu einer Reihe von Museen, wie z. B. dem Vasamuseum, dem Nordischen Museum, Thielska galleriet und Liljevalchs konsthall, Vergnügungsstätten, wie z. B. "Gröna Lund" und "Circus", sowie Gasthäusern aus dem 19. Jahrhundert, wie das in der Literatur verewigte "Hasselbacken". In der Nähe des Hasselbacken befindet sich auch der Haupteingang zu Schwedens erstem und größtem Freilichtmuseum Skansen. Südlich von "Gröna Lund" befindet sich der historische Stadtteil "Djurgårdsstaden" mit Bebauung aus den 17. und 18. Jahrhundert. Auf der Landzunge "Waldemarsudde" liegt die Villa des Prinzen Eugen, die heute Museum ist und Bilder des Prinzen sowie seiner Zeitgenossen zeigt und damit einen feinen Überblick über die schwedische Malerei der Jahrhundertwende (1900) gibt. Von Djurgården führt eine Fähre zurück auf die Stadtinsel. Djurgården ist Teil des Ökoparks (schwedisch: "Ekoparken"), es handelt sich hierbei um den ersten Nationalstadtpark (schwedisch: "Nationalstadsparken") der Welt, der 1994 ins Leben gerufen wurde. Blasieholmen, Skeppsholmen und Kastellholmen. Zwischen der Stadtinsel und Djurgården liegen Blasieholmen, Skeppsholmen und Kastellholmen. Auf Blasieholmen befinden sich das pompöse Grand Hotel, dessen Hauptfassade zur Stadtinsel weist, und das schwedische Nationalmuseum. Skeppsholmen und dessen Anhängsel Kastellholmen beherbergten früher Einrichtungen der Kriegsmarine, die im 20. Jahrhundert von Museen (beispielsweise Ostasiatisches Museum, Modernes Museum, Architekturmuseum) übernommen worden sind. Kungsholmen. Wendet man sich auf der Stadtinsel nach Nordwesten, sieht man den östlichen Spitz der Insel Kungsholmen mit dem Stockholmer Rathaus ("Stockholms stadshus"), in dessen Blauer Halle alljährlich das Nobelfest stattfindet – das Bankett zu Ehren der Nobelpreisträger im Anschluss an die feierliche Verleihung der Nobelpreise im Konzerthaus. Södermalm. Am südlichen Ende der Stadtinsel befindet sich "Slussen", die Schleuse, über die man mit dem Boot vom Mälaren in die Ostsee kommt. "Slussen" verbindet auch Stadsholmen mit der Insel Södermalm (im Volksmund "Söder"), die sich hier über 50 Meter aus dem Wasser erhebt. Mit dem 38 Meter hohen Katarinahissen kommt man von Slussen zum "Mosebacke torg", an dem sich zwei Theater befinden. In der Nähe liegt die Katarinakirche, ein Meisterwerk aus dem 17. Jahrhundert. Im Osten der Insel auf den Hügeln "Åsöberget" und "Vita bergen" mit der Sofiakirche gibt es noch kleine Holzhäuser, wie sie für die Besiedlung des 17. und 18. Jahrhunderts typisch waren. Das Innere der Insel ist mit Wohnblöcken aus der zweiten Hälfte des 19. Jahrhunderts und der Jahrhundertwende bebaut – in dieser Zeit entstand auch St. Erik, heute katholische Bischofskirche für ganz Schweden –, während der südliche Teil Bebauung aus dem 20. Jahrhundert aufweist. Ein völlig neuer und architektonisch interessanter Stadtteil wurde Ende der 1980er Jahre im Gebiet des Bahnhofs "Stockholm Södra" (westlich des "Medborgarplatzes") errichtet. Im südlichen Teil Södermalms befindet sich das Szeneviertel SoFo (South of Fo'"lkungagatan). Wirtschaft und Infrastruktur. Ringled Stockholm, Planung von 1992 Verkehr. Stockholm ist wichtigster Knotenpunkt des schwedischen Eisenbahnnetzes. Hier befindet sich mit Stockholm C der größte Bahnhof des Landes. Es gibt einen zentral gelegenen Regionalflughafen im Stadtteil Bromma. Der nächstgelegene internationale Flughafen ist der Flughafen Stockholm-Arlanda, der 40 km nördlich von Stockholm liegt. Die beiden Flughäfen bei Stockholm-Skavsta (Nyköping) und Stockholm-Västerås befinden sich etwa 100 km südlich bzw. westlich von Stockholm, benutzen aber trotzdem den Namen Stockholm. Stockholm ist eine wichtige Fährhafenstadt mit Verbindungen nach Helsinki, Mariehamn, Sankt Petersburg, Turku und Tallinn. Dem öffentlichen Verkehr dienen die U-Bahn (Tunnelbana), S-Bahn-ähnliche Vorortzüge (Pendeltåg, Saltsjöbanan, Roslagsbanan), verschiedene Buslinien, die Stadtbahnlinien Tvärbanan, Lidingöbanan und Nockebybanan in den Außenbezirken sowie die historischen und modernen Straßenbahnwagen auf der Djurgårdslinie und auf der Spårväg City zum Djurgården. Die Tunnelbana, die Stadtbahn, die Straßenbahn und die Buslinien werden durch AB Storstockholms Lokaltrafik (SL) betrieben. Wenn man im 16. Jahrhundert von Stockholm aus nach Süden reisen wollte, war der Göta landsväg die älteste und einzige existierende Straße. Diese Wegverbindung hatte bis zurück ins Mittelalter (in Skandinavien ca. 1100 bis 1500 n. Chr.) reichende Vorläufer; vermutlich war hier schon zur Bronzezeit (in Skandinavien ca. 1800 bis 550 v. Chr.), lange bevor Stockholm existierte, ein Weg entstanden. Die Hauptverkehrsader der modernen Zeit ist der Essingeleden, ein Teil der Autobahn E4; er führt westlich am Stadtzentrum vorbei und wurde 1966 eingeweiht. Ein großer Teil des Autoverkehrs soll in den nächsten Jahrzehnten unter die Erde gelegt werden. So wurde im Oktober 2004 ein 4,6 Kilometer langer Tunnel ("Södra Länken") südlich des Stadtkerns eingeweiht. Ein gleichartiges Projekt im Norden ("Norra Länken") ist im Bau und soll im Jahr 2015 fertig sein. Eine östliche Umgehungsautobahn ("Österleden"), die den Autobahnring um Stockholm ("Ringled Stockholm") komplettieren würde, wird seit den 1950er Jahren diskutiert. Seit dem 1. August 2007 muss für das Ein- und Ausfahren mit dem Auto in die Innenstadt eine Straßenbenutzungsgebühr entrichtet werden. Der Gebührenzeitraum ist werktags zwischen 06.30 Uhr und 18.30 Uhr, wobei zu den morgendlichen und abendlichen Hauptverkehrszeiten ein höherer Betrag zu entrichten ist. Die so genannte "Trängselskatt" („Gedrängel-Steuer“) ist Teil eines Verkehrsentwicklungskonzepts, mit dem Ziel der Verkehrsreduzierung und Umweltverbesserung; mit der Maßnahme einher geht daher auch eine Kostenumlegung der Gebühren zu einer Angebotsverstärkung des öffentlichen Nahverkehrs. Neben London und Singapur ist Stockholm eines der bedeutendsten internationalen Projekte einer Innenstadtmaut. Vor der Einführung des Systems wurde im Jahr 2006 ein siebenmonatiger Testbetrieb durchgeführt, im Anschluss stimmten die Einwohner Stockholms in einem Referendum mit 51,3 % für die dauerhafte Einführung. Ansässige Unternehmen. Stockholm ist Schwedens Dienstleistungszentrum. 85 Prozent aller Beschäftigten arbeiten im öffentlichen und privaten Dienstleistungsbereich, aber nur 10 Prozent in der Herstellungsindustrie. Dennoch gehört Stockholm zu den größten Industriegebieten Schwedens. Die fehlende Schwerindustrie ließ die Stadt zu einer der saubersten Metropolen der Welt werden. Die steigende Zahl von Unternehmen im Hochtechnologie-Bereich wog in den letzten Jahrzehnten die Abwanderung traditioneller Industriebetriebe auf. Zu den großen Industrieunternehmen in der Region zählen heute Ericsson, IBM Svenska AB und Electrolux, der Arzneimittelhersteller AstraZeneca, graphische Betriebe des Bonnier-Konzerns und andere. Im Norden der Stadt (Kista) entstand im letzten Jahrzehnt eines der größten IT-Zentren Europas. Stockholm ist auch das Medienzentrum des Landes mit vier überregionalen Tageszeitungen und einer Reihe kleiner Zeitungen, Verlagen (unter anderem dem Bonnier-Konzern), Sitz des staatlichen Rundfunks (SR) und der öffentlich-rechtlichen Fernsehgesellschaft SVT sowie weiterer Medienunternehmen. Auch die schwedischen Banken (so zum Beispiel Swedbank, Handelsbanken und Skandinaviska Enskilda Banken, die zu den zehn größten Unternehmen in Stockholm gehören) haben ihren Hauptsitz in Stockholm, wo sich auch die Börse Stockholm befindet. Zusammen mit den Hauptsitzen der Versicherungsgesellschaften (Skandia und andere) und von Investmentunternehmen machen sie Stockholm zum wichtigsten Finanzzentrum Schwedens. Insgesamt befinden sich die Hauptsitze von über 40 Prozent aller schwedischen Unternehmen mit mehr als 200 Angestellten in Stockholm. Aber nicht nur Unternehmenszentralen, sondern auch die Zentralbehörden der staatlichen Verwaltung sowie die nationalen politischen Institutionen (wie Regierung und Reichstag) in Stockholm machen die Stadt zum Machtzentrum des Landes. In den letzten Jahren ist auch der Tourismus zu einem wichtigen Wirtschaftszweig geworden. Seit 1991 ist die Anzahl der Übernachtungen um 80 Prozent von vier auf über sieben Millionen gestiegen. Festivals wie das Stockholm Waterfestival und große Sportveranstaltungen wie der Stockholm-Marathon sind wichtige Attraktionen. Seit 2005 hat das Europäische Zentrum für Seuchenprävention ECDC seinen Sitz in Stockholm. Damit sich die Wirtschaft präsentieren und weitere Kontakte knüpfen kann, hat Stockholm auch eine Messe ("Stockholmsmässan"). Bildung. Der Fachbereich Mathematik, Universität Stockholm In Stockholm gibt es 16 Hochschulen und Universitäten. Von herausragender Bedeutung sind hierbei die Universität Stockholm ("Stockholms universitet") mit ihren etwa 35.000 Studierenden (Stand 2004) und die Königlich Technische Hochschule Stockholm ("Kungliga Tekniska Högskolan"), die wohl größte technische Hochschule Skandinaviens. Nachfolgend sind daneben alle weiteren Hochschulen genannt. Neben den Forschungseinrichtungen der Hochschulen und Universitäten gibt es eine Reihe weiterer staatlicher und privater Forschungsinstitutionen in Stockholm. Insbesondere ist in diesem Zusammenhang die Kungliga Biblioteket (Königliche Bibliothek) mit ca. fünf Millionen Bänden zu nennen. Die Bibliothek hat aufgrund der immensen schwedischen Kriegsbeute im Dreißigjährigen Krieg nicht nur eine hervorragende Sammlung frühneuzeitlicher Bücher, sondern seit 1661 auch den staatlich verbrieften Auftrag alles in Schweden gedruckte Material zu sammeln. Die Bibliothek verwaltet auch das zum Weltkulturerbe zählende Archiv der schwedischen Kinderbuchautorin Astrid Lindgren. Stockholm ist ebenfalls Sitz der Schwedischen Akademie, der Königlich Schwedischen Akademie der Wissenschaften, der Königlichen Akademie für Literatur, Geschichte und Antiquitäten, der Nobel-Stiftung und weiterer kultureller und wissenschaftlicher Institutionen. Persönlichkeiten. → "Hauptartikel: Liste von Persönlichkeiten der Stadt Stockholm" Zu den in Stockholm geborenen bekannten Persönlichkeiten gehören unter anderem der Komponist, Musiker und ABBA-Mitbegründer Benny Andersson, der DJ, Remixer und Musikproduzent Avicii, der Dichter Carl Michael Bellman, die Sängerin Neneh Cherry, der Feldmarschall Erik Dahlberg, die Autorin und Aktivistin Lizzy Lind-af-Hageby, der Entdeckungsreisende Sven Hedin, die Schauspielerin Greta Garbo, die Politikerin Anna Lindh, die Kinderbuchautorin Barbro Lindgren, der Chemiker und Erfinder Alfred Nobel, die Dichterin H. C. Nordenflycht, der zweimalige schwedische Premierminister Olof Palme, die Autorin Maj Sjöwall, der Komponist, Pianist und Dirigent Wilhelm Stenhammar sowie der Wissenschaftler und Mystiker Emanuel Swedenborg. Schwedische Sprache. Schwedisch (Eigenbezeichnung:) gehört zum ostnordischen Zweig der germanischen Sprachen. Damit ist das Schwedische auch Teil der indoeuropäischen Sprachfamilie. Das Schwedische ist eng verwandt mit dem Dänischen und dem Norwegischen (Bokmål, Nynorsk). Wie die anderen nordischen Sprachen stammt es vom Altnordischen ab, welches die Sprache der Germanen in Skandinavien war. Herkunft und Verwandtschaft. Schwedisch ist eine indoeuropäische Sprache, die zum nordgermanischen Zweig der germanischen Sprachen gehört. Zusammen mit dem Dänischen gehört es zur ostnordischen Sprachgruppe, die sich von den westnordischen Sprachen (Färöisch, Isländisch und Neunorwegisch (Nynorsk)) durch den Gebrauch von Monophthongen statt Diphthongen unterscheidet. Eine modernere Gliederung unterteilt die skandinavischen Sprachen in eine festlandskandinavische Gruppe (Schwedisch, Dänisch, Norwegisch (Bokmål und Nynorsk)) und eine inselskandinavische Variante mit Färöisch und Isländisch. Diese Unterscheidung lässt sich fassen, da Isländisch und Färöisch durch ihre geografische Isoliertheit sich nicht nur phonetisch durch die Diphthongierung unterscheiden, sondern auch im Wortbestand, da sie nicht wie das Schwedische, Dänische und Norwegische durch das Niederdeutsche der Hanse über Jahrhunderte beeinflusst wurden. Gemäß ihren sprachlichen Kriterien können die festlandskandinavischen Sprachen linguistisch als „Dialekte“ einer und derselben Sprache aufgefasst werden. Als Folge der längwährenden politischen Rivalitäten zwischen den Königreichen Dänemark-Norwegen und Schweden, die zu einer Reihe von Kriegen im 16. und 17. Jahrhundert führten, sowie des Nationalismus und seiner romantischen Ideale im 19. und 20. Jahrhundert haben sich die drei Nationalsprachen hinsichtlich ihrer Orthographie, ihres Wortschatzes, ihrer Grammatik und nicht zuletzt durch nationale Sprachinstitutionen (Schwedische Akademie) äußerlich verändert. Dänisch, Norwegisch (mit seinen beiden Varianten Bokmål und Nynorsk) sowie Schwedisch können aus linguistischer Perspektive als Dialektkontinuum beschrieben werden, also als engverwandte Dialekte des „Gemeinskandinavischen“. Viele Dialekte der Nationalsprachen können eine Zwischenform der unterschiedlichen Sprachvarianten aufweisen. So ähneln die Dialekte in Dalarna und Jämtland denen auf der norwegischen Seite der Grenze. Bestimmte grammatische Phänomene eines Dialektes können der Standardsprache einer anderen Nationalsprache angehören. Deutlich sind die Diphthongierungen im Färöischen, Isländischen und auch Neunorwegischen (Nynorsk) zu erkennen, welches sich am Isländischen orientiert. Titelseite der ersten schwedischen Bibelübersetzung von 1541 Während des Mittelalters unterlag das Schwedische, genauso wie auch die norwegische Sprache, prägenden Einflüssen aus dem Mittelniederdeutschen der Hanse. In der Neuzeit kamen Einflüsse des Hochdeutschen hinzu, teils durch den Handel mit den Ländern des deutschen Sprachraums und des Baltikums, teils durch den Dreißigjährigen Krieg und die daraus zurückkehrenden Soldaten, was besonders durch die vielen Lehnwörter im Militärjargon sichtbar wird. Doch auch die Dominanz der deutschen Sprache in manchen Wissenschaften prägte den schwedischen Wortschatz. Umgekehrt hinterließ die schwedische Sprache während der lange anhaltenden schwedischen Herrschaft über Vorpommern gewisse Einflüsse auf den dortigen niederdeutschen Dialekt, beispielsweise "Lingon" für die Preiselbeere und "Brüllup" für die Hochzeitsfeier. Die Geschichte der modernen schwedischen Sprache beginnt mit der Verbreitung der Buchdruckerkunst und der Reformation. Nachdem Schweden unter Gustav I. Wasa seine Unabhängigkeit von Dänemark wiedererlangt hatte, führte dieser die lutherische Reformation im Land ein. 1541 erschien mit der Gustav-Wasa-Bibel die erste vollständige Bibelübersetzung in schwedischer Sprache, verfasst von Laurentius Andreae und Olaus sowie Laurentius Petri. Allgemeines. Schwedisch wird von etwa 8,5 Millionen Menschen als Muttersprache gesprochen, von denen etwa acht Millionen in Schweden und knapp 290.000 als finnlandschwedische Minderheit (5,5 % der Bevölkerung) in Finnland leben. Historisch war Finnland seit dem frühen Mittelalter bis zum Jahr 1809 (Vertrag von Fredrikshamn) ein Teil des schwedischen Reiches, und das Schwedische war bis in das 19. Jahrhundert dort die Sprache der gebildeten Oberschicht, bis sich im Zuge der auch politisch geführten Auseinandersetzung zwischen Fennomanen und Svekomanen das Finnische etablierte und die Bedeutung des Schwedischen zurückdrängte. Seit längerer Zeit ist auch ein Rückgang des Anteils der Finnlandschweden an der Bevölkerung Finnlands zu verzeichnen. In Finnland gibt es heute in den Landschaften Uusimaa (Nyland), Itä-Uusimaa (Öster-Nyland), Kymenlaakso (Kymmenedalen) und Varsinais-Suomi (Egentliga Finland) einige überwiegend schwedischsprachige Gemeinden und in Österbotten sowohl einige überwiegend schwedischsprachige als auch mehrere einsprachig schwedische Gemeinden. Die schwedischsprachigen Schulkinder in den einsprachig schwedischen und den zweisprachigen Gemeinden werden in ihrer Muttersprache unterrichtet. Für die finnischsprachigen Kinder ist Schwedisch ein Pflichtfach als zweite einheimische Sprache und war bis 2004 obligatorisches Fach in der Abiturprüfung. In Turku (Åbo) befindet sich die einzige rein schwedischsprachige Universität Finnlands, die Åbo Akademi. Die autonome Inselgruppe Åland ist die einzige offiziell einsprachige Region im sonst zweisprachigen Finnland: Hier wird nur Schwedisch gesprochen, und Finnisch ist in den Schulen nur ein Wahlfach (Englisch aber ein Pflichtfach). Das hier gesprochene Åländisch liegt den Dialekten Upplands näher als denjenigen Finnlands. Von der ehemaligen schwedischsprachigen Volksgruppe in Estland, den Estlandschweden oder Küstenschweden (Anfang der 1940er Jahre um 8800 Menschen), blieben seit ihrer Massenemigration nach Schweden während des Zweiten Weltkriegs fast nur ältere Menschen. In neuerer Zeit sind aber einige Estlandschweden zurückgekehrt, und heute wird Schwedisch in den Schulen der ehemals schwedischsprachigen Landesteile unterrichtet. Schweden können sich relativ problemlos mit Norwegern unterhalten; so existiert mit Svorsk eine Mischsprache, die sich aus der schwedischen und norwegischen Umgangssprache zusammensetzt. Auch mit Dänen ist, wenn diese sich Mühe geben, deutlich zu sprechen, eine Unterhaltung möglich, wobei es hier allerdings regionale Unterschiede gibt. So verstehen die Schweden im Süden, vor allem in Schonen, wegen der nahen Verwandtschaft ihres Dialekts mit dem Dänischen die Dänen relativ gut. Einwohner in Westschweden (beispielsweise in Värmland oder Dalarna) haben dagegen große Probleme mit dem Dänischen, dafür aber kaum Schwierigkeiten mit dem Norwegischen. Rechtliche Lage. Schwedisch ist die Amtssprache in Schweden und, neben Finnisch, in Finnland. In Schweden ist der offizielle Status der schwedischen Sprache seit dem 1. Juli 2009 durch ein Sprachgesetz festgelegt, das alle staatlichen Stellen verpflichtet, die schwedische Sprache zu verwenden und zu entwickeln. Die Sprache der Behörden soll gepflegt, einfach und verständlich sein. Neben dem Schwedischen sind Finnisch, Jiddisch, Meänkieli, Romani und Samisch als Minderheitssprachen anerkannt. In Finnland legt ein Sprachgesetz fest, dass Schwedisch auf nationaler Ebene eine gleichberechtigte Amtssprache neben Finnisch ist und auf kommunaler Ebene in Gemeinden mit einem gewissen schwedischsprachigen Bevölkerungsanteil allein oder neben Finnisch Amtssprache ist. Um die Erhaltung der schwedischen Sprache bemühen sich der "Sprachenrat" (Språkrådet), eine staatliche Einrichtung im "Institut für Sprache und Volkstum" (Institutet för språk och folkminnen), und private Organisationen wie Språkförsvaret. Sprachgeographie heute. Schwedisch war im Jahr 2013 die Muttersprache von etwa 10,5 Millionen Menschen. Davon leben 9,5 Millionen im Königreich Schweden, rund 300.000 in der Republik Finnland; der Rest verteilt sich auf Länder weltweit. Das Finnlandschwedische, ein ostschwedischer Dialekt, wird vornehmlich in den Küstengebieten und auf den vorgelagerten Schären im Österbotten, Åboland und Nyland (einschließlich der Hauptstadtregion) sowie den Ålandinseln gesprochen. Viele Finnen beherrschen das Schwedische zudem unterschiedlich gut, da es als erste Fremdsprache in finnischen Schulen in den finnischsprachigen Gebieten gelehrt wird. In einigen der oben genannten Gebiete ist das Schwedische die einzige Verwaltungssprache, wie auf den einheitlich schwedischsprachigen Ålandinseln. Einige einsprachig finnische Gemeinden haben ebenfalls eine bedeutende schwedischsprachige Minderheit, diese werden als schwedische Sprachinseln (svenska språköar) bezeichnet. Im Jahr 1610 betrug der schwedischsprachige Anteil der finnischen Bevölkerung 17,5 Prozent. Seitdem hat sich der Anteil der schwedischsprachigen Bevölkerung stetig vermindert. Besonders nach dem Zweiten Weltkrieg wanderten viele nach Schweden und in die USA aus. Zwischen 1945 und 1976 emigrierten 400.000 Menschen von Finnland nach Schweden, etwa 200.000 blieben permanent dort, davon kam ein Drittel aus den schwedischsprachigen Gebieten Finnlands. Heute sprechen ungefähr 5,4 Prozent der finnischen Bevölkerung Schwedisch als Muttersprache. Auch in den anderen nordischen Ländern gibt es schwedischsprachige Minderheiten, schätzungsweise 30.000 in Norwegen und 11.000 in Dänemark (2010). Aufgrund der Ähnlichkeiten von Kultur und Sprache in den nordischen Ländern werden diese Einwanderer oft sehr schnell assimiliert und integriert und fühlen sich nicht als eigene Volksgruppe, mit Ausnahme der Finnen. Des Weiteren ist noch die kleine schwedischsprachige Minderheit in Estland zu erwähnen, die es seit dem 13. Jahrhundert entlang der Nordwestküste und auf den Inseln (Aiboland) gibt. In den USA gibt es nach einer Volkszählung von 2004 ungefähr 67.000 Menschen, die angeben, Schwedisch zu sprechen. Allerdings bleibt unklar, wie gut die Sprachkenntnisse sind. Die meisten dieser Personen leben in Minnesota. In Kanada gaben 2001 17.000 Menschen an, Schwedisch zu sprechen. Gemäß dem schwedischen Statistischen Zentralbüro leben 230.000 Schweden dauerhaft im Ausland. Deutschland und Großbritannien waren 2010 die Länder mit den meisten Schweden (je ca. 30.000); darauf folgten Spanien (17.000), Frankreich (15.000), Australien und die Schweiz (je 6000) sowie Belgien (5000) und Italien (3000). Sprachgeographie historisch. Früher gab es ausgedehnte schwedischsprachige Gebiete in Estland, vornehmlich entlang der Nordwestküste und auf den Inseln Dagö, Ösel und Ormsö. Die schwedischsprachige Minderheit war im Parlament repräsentiert und hatte das Recht, ihre Sprache in öffentlichen Debatten zu benutzen. Mitte des 17. Jahrhunderts machte die Zahl der Estlandschweden mit 10.000 etwa 2 bis 3 Prozent der estnischen Bevölkerung aus. Nach den Territorialverlusten im Baltikum im 18. Jahrhundert an Russland wurden 1000 estnische Schweden von Dagö in die Ukraine umgesiedelt. Diese gründeten die Stadt Gammalsvenskby nördlich der Halbinsel Krim. Dort gibt noch einige wenige Abkömmlinge, die weiterhin Schwedisch als Muttersprache haben und schwedische Traditionen pflegen. Es ist damit zu rechnen, dass dieser sehr altertümliche ostschwedische Dialekt innerhalb der nächsten Generation ausstirbt. Bis in die Zwischenkriegszeit wurde die schwedischsprache Minderheit Estlands durchaus gut behandelt; aber mit dem aufkommenden Nationalismus in Estland während der 1930er Jahre wurden die Menschen gezwungen, ihre Namen zu ändern, neu zu erfinden oder estnisch klingender zu machen. Schwedischsprachige Ortsnamen wurden ersetzt durch estnische. Gemeinden, in denen schwedischsprachige Personen die Mehrheit stellten und die Schwedisch als Verwaltungssprache hatten, stagnierten wirtschaftlich. Nach dem Zweiten Weltkrieg, als Estland Teil der Sowjetunion wurde, flohen etwa 80 Prozent der Estlandschweden nach Schweden. Nur etwa 1500 blieben im sowjetisch besetzten Estland, wo sie ihre Kultur und Sprache nicht mehr leben konnten, da sie verdächtig waren, mit dem westlichen Schweden zu kollaborieren. Viele versteckten daher ihre schwedische Identität und gingen zur estnischen Sprache über, um Verfolgung und Berufsverboten zu entgehen. Deshalb gibt es heute nur noch eine wenige ältere Menschen, die den estnischschwedischen Dialekt sprechen können. In Amerika gab es zeitweise schwedischsprachige Gruppen. Im 17. Jahrhundert in Delaware/Neuschweden (Nya Sverige), im 19. Jahrhundert zum Beispiel auch in Bishop Hill, Chicago, Illinois und Minnesota. Diese Gruppen haben sich allerdings weitgehend assimiliert und sprechen heute Englisch als Muttersprache. In Argentinien, besonders um die Ortschaft Oberá, die von eingewanderten Schweden gegründet wurde, gibt es einige Hundert Schwedischsprachige. Bis in die 1960er Jahre gab es sogar schwedischen Schulunterricht. Heute gibt es diesen Unterricht nur noch in schwedischstämmigen Familien. Bis Ende des 19. Jahrhunderts soll es auch eine schwedischsprachige Kolonie in Namibia gegeben haben; aber auch hier haben sich die Menschen an die umgebenden Sprachgruppen assimiliert. Alphabet. Das schwedische Alphabet besteht aus 29 Buchstaben. Das W kommt in Lehnwörtern vor und galt bis 2006 nicht als eigener Buchstabe, sondern als Schreibvariante des V. Nach dem Z folgen noch Å, Ä, Ö, die als eigenständige Buchstaben gezählt werden und nicht wie im Deutschen als Varianten von A und O. Die schwedischen Wörterbücher sind deswegen entsprechend geordnet und für Deutsche anfänglich etwas verwirrend. So stehen z. B. "garn" und "gärna" nicht hintereinander, sondern mehrere Seiten weit auseinander. Phonologie. Das Schwedische zeichnet sich durch sein ausgeprägtes Vokalsystem aus. Länge und Kürze der Vokale sind bedeutungsunterscheidend. In einer betonten Silbe ist entweder der Vokal oder der auf den Vokal folgende Konsonant lang, die Verbindung von kurzem Vokal mit kurzem Konsonanten ist im Schwedischen nur in unbetonten Silben bekannt. Mit den Vokalen, und besitzt das Schwedische drei Mittelzungenvokale. Vokale. Das Schwedische hat ein dreistufiges Vokalsystem mit neun Vokalphonemen. Hohe Vokalphoneme sind:,, mittlere Vokalphoneme sind:, und tiefe Vokalphoneme sind:. Im Gegensatz zur deutschen Hochsprache hat das Schwedische zwei ü-Phoneme: und. Abgesehen von dem zusätzlichen ü-Phonem ähnelt der schwedische Vokalismus dem der deutschen Hochsprache. Betonung und Satzmelodie. Wie in den meisten europäischen Sprachen kann der Satzakzent verwendet werden, um Wörter hervorzuheben oder eine Frage auszudrücken. Hierbei unterscheiden sich folgende Tonhöhenverläufe: Beim ersten Beispielwort liegt der Hauptdruck auf der ersten Silbe, die zweite Silbe hat eine niedrigere Tonhöhe und einen geringeren Druck (vgl. z. B. im Deutschen die unterschiedliche Aussprache von ‚heute’ als Aussage und als Frage: heute! vs. heute?). Beim zweiten Beispielwort besitzt die erste Silbe den Hauptdruck, die Tonhöhe sinkt dabei, jedoch steigt die Tonhöhe auf der zweiten Silbe wieder an. Der melodische Wortakzent, den es auch im Norwegischen gibt, variiert bisweilen regional: wenn mehr als zwei Silben vorhanden sind, steigt der Ton dann je nach Dialekt an unterschiedlicher Stelle wieder an. Gegenüber den eindeutigen Tonsprachen, in denen die Silbentonhöhe auf der Ebene der Wortbedeutung unterscheidend ist, ist der variable Tonhöhenverlauf in der schwedischen Sprache auch auf der Satzebene pragmatisch distinktiv, sprich, er bestimmt, ob es sich bei einem Satz um eine Frage, eine Aussage oder einen Befehl handelt. "Siehe auch: Akzente in den skandinavischen Sprachen" Wortarten. Im Schwedischen gibt es – abhängig von theoretischen Positionen – bis zu 15 Wortarten. Die Wortarten, die in den meisten schwedischen Grammatiken vorkommen, sind: Verb, Substantiv, Adjektiv, Pronomen, Adverb, Numerale, Präposition, Konjunktion/Subjunktion und Interjektion. Darüber hinaus definieren manche Grammatiken auch Eigennamen, die Infinitivpartikel "att", Partizipien (Svenska Akademiens grammatik) sowie Artikel und Verbpartikel als eigene Wortarten im Schwedischen. Verben. Verben werden in Bezug auf die Kategorien "Tempus" (Präsens, Präteritum), "Modus" (Indikativ, Konjunktiv und Imperativ) und "Diathese" (Aktiv, Passiv) flektiert. Finite Verbformen des Schwedischen sind Präsens Indikativ, Präsens Konjunktiv, Präteritum Indikativ, Präteritum Konjunktiv und Imperativ. Infinite Verbformen des Schwedischen sind Infinitiv, Supinum, Partizip Präsens und Partizip Perfekt. Darüber hinaus gibt es Verben, die Elemente der 3. und der 4. Klasse aufweisen, wie z. B. "dö – dog – dött – Ø;" "se – såg – sett – sedd" u. a., sowie ganz unregelmäßige Verben, die keiner der obigen Klassen zugerechnet werden, wie z. B. "ha – hade – haft – Ø". Tempus. Die finiten Tempusformen des Verbs sind Präsens und Präteritum. Weitere Tempusformen (Perfekt, Plusquamperfekt, Futur I und Futur II) werden mittels Zusammensetzungen von Hilfsverben und infiniten Verbformen gebildet. Zu beachten ist, dass sich die Verwendung des Präteritums und des Perfekts grundsätzlich vom Deutschen unterscheidet. Während in der deutschen Umgangssprache das Perfekt eine absolut dominierende Rolle spielt und das Präteritum fast verdrängt hat, gibt es im Schwedischen noch ziemlich genaue Regeln dafür, wann welches Tempus verwendet wird. So wird bei einer eindeutigen Zeitangabe in der Vergangenheit (z. B. "gestern" oder "am vergangenen Sonntag") immer die Verbform Präteritum verwendet (Bsp.: "Igår köpte jag en banan." = Gestern kaufte ich eine Banane.). Bis in die Mitte des 20. Jahrhunderts verwendete man vor allem in der Schriftsprache besondere Pluralformen in der 1. und 3. Person. Im Präsens glich der Plural, wie im Deutschen, dem Infinitiv, also etwa "vi/de tro, tala, köra, dricka". Eine Ausnahme bildete "vara," dessen Plural "äro" lautete. Im Präteritum wiesen die starken Verben eine besondere Pluralendung "-o" auf: "vi/de skrevo, flögo, åto" usw. Verben mit "-a-" im Präteritum Singular und wenige andere starke Verben kannten überdies einen Numerus­ablaut: "jag/du/han drack, fann, bad, gav, var, svor – vi/de drucko, funno, bådo, gåvo, voro, svuro". Konsonantische Unregelmäßigkeiten zeigten "jag/du/han fick, gick – vi/de fingo, gingo". In der 2. Person Plural mit dem – aus der Umgangssprache stammenden – Personalpronomen "ni" (= ‚ihr‘) wurde auch schon in der ersten Hälfte des 20. Jahrhunderts in der Regel wie heute die Singularform gebraucht. Bis zum Anfang des 20. Jahrhunderts wurde dagegen in der 2. Person Plural in Verbindung mit der älteren Form des Personalpronomens "I" (großes i) die Endung "-en" gebraucht: Präsens: "jag talar, vi tala, I talen; jag sitter, vi sitta, I sitten;" Präteritum: "jag talade, vi talade, I taladen; jag satt, vi sutto, I sutten." Zur Bildung des Futurs sind die historischen Formen des Hilfsverbs "skola" im Singular "skall," in der 1. und 3. Person Plural "skola" und in der 2. Person Plural "(I) skolen". Die Schriftstellerin Selma Lagerlöf (1858–1940) war die erste Autorin, welche die Pluralformen, zuerst in der direkten Rede, nicht mehr anwandte. Modus. Das Schwedische kennt drei Modi: Indikativ, Imperativ und Konjunktiv. Diathese. Das Schwedische kennt zwei Formen der Diathese: Aktiv (siehe oben) und Passiv. Wie im Deutschen sind auch im Schwedischen viele transitive Verben passivfähig. Für die Bildung des Passivs gibt es zwei Möglichkeiten. Die häufiger benutzte Form wird durch Hinzufügung der Endung "-s" beim Hauptverb erzeugt, die weniger frequente Form wird mit Hilfe des passivbildenden Hilfsverbs "bli(va)" konstruiert. Des Weiteren gibt es die Möglichkeit, für das Passiv eine Ersatzform mit „vara“ zu benutzen. Die Ersatzkonstruktion mit "bliva + Partizip Perfekt" betont den Ablauf der Handlung. Da das Partizip Perfekt (PP) in den oben genannten Beispielsätzen adjektivisch gebraucht wird, muss es wie ein Adjektiv an das korrespondierende Nomen angepasst werden. Eine weitere Ersatzmöglichkeit für das Passiv ist die Konstruktion vara + PP, die mehr das Ergebnis einer Handlung betont Das Auto war repariert, als wir zurückkamen. – "Bilen var reparerad, när vi kom tillbaka." > "Författaren tilldelades ett stipendium av akademien." oder > "Ett stipendium tilldelades författaren av akademien." Nichtpassivische Verwendung der s-Form des Verbs Genus. Bei den Substantiven wird zwischen Utrum ("en"-Wörtern) und Neutrum ("ett"-Wörtern) unterschieden. Die Genus-Zuordnung ist meist frei; man kann in diesen Fällen also nicht aus dem Sexus schließen oder an spezifischen Endungen erkennen, welchem Genus ein Substantiv angehört. Als Faustregel gilt: Ein einzelnes, lebendes Individuum ist Utrum (Ausnahme z. B.: "ett lejon" – ein Löwe). Diese Regel gilt nicht umgekehrt. Bestimmte Form – unbestimmte Form. Dabei kann es allerdings zu nötigen Anpassungen kommen, welche den Klang beeinflussen, beispielsweise bei "en lärare", wo das Suffix (-en) durch den Vokal auf -n beschränkt wird, wodurch "läraren" entsteht, wobei gleichgültig ist, welcher Vokal die Endung bildet. So wird auch aus "ett piano" mit dem Suffix -t "pianot". Plural. Endet ein "en"-Wort auf unbetontes "-el, -en, -er," dann wird das "-e-" in den anderen Formen ausgestoßen. "en cykel – cykeln – cyklar – cyklarna" "en faster – fastern – fastrar – fastrarna" Einige wenige Wörter lassen sich in keine der oben genannten fünf Gruppen einordnen.Das häufigste dürfte „Mann“ sein: "en man – mannen – män – männen" Genitiv. Das heutige Schwedische kennt – ähnlich wie das Englische – beim Substantiv mit der Ausnahme des Genitivs keine Kasusflexion mehr. Die syntaktische Stellung der Nomina im Satz wird allein durch die Wortstellung oder durch Präpositionen ausgedrückt. Der Genitiv wird durch einfaches Anfügen der Endung -s gebildet, die allerdings entfällt, wenn das Substantiv bereits auf "-s" endet. Nach dem Genitiv steht das Substantiv, welches in Relation steht, immer in der unbestimmten Form. Possessivpronomen. Das Possessivpronomen ist der Genitiv des Personalpronomen; es bezeichnet den Besitzer einer Sache. Das Schwedische unterscheidet eine reflexive und eine nichtreflexive Form des Possessivpronomens. Nicht-reflexive Formen. Das Possessivpronomen muss an das Genus des Wortes, auf das es sich bezieht, angeglichen werden. Die Formen in Klammern sind umgangssprachlich und gelten (noch) nicht als gepflegtes Schwedisch. Sie werden hauptsächlich von jüngeren Menschen verwendet. Für die Personalpronomen "den" und "det" gibt es ebenfalls ein Possessivpronomen: "dess". Diese Form wird im Alltagsgebrauch aber selten benutzt. Reflexive Formen. Diese Form wird benutzt, wenn das Possessivpronomen beim Objekt eines Satzes steht und der Besitzer Subjekt des Satzes ist. Es lässt sich im Deutschen am besten mit "der/die/das eigene" übersetzen. "Han kommer med sin son." Er kommt mit seinem Sohn. (dem eigenen!) "Han kommer med hans son." Er kommt mit seinem Sohn. (dem des Freundes z. B.) "Hon kommer med sitt barn." Sie kommt mit ihrem Kind. (dem eigenen!) "Hon kommer med hennes barn." Sie kommt mit ihrem Kind. (dem der Freundin z. B.) Beachte! Das reflexive Possessivpronomen "sin/sitt/sina" steht niemals zusammen mit dem Subjekt! "Han kommer med sin fru." Er kommt mit seiner Frau. (der „eigenen“) "Han och hans fru kommer inte idag." Er und seine Frau kommen heute nicht. („Er und seine Frau“ sind doppeltes Subjekt des Satzes) "Jag känner Sven och hans bror." Ich kenne Sven und seinen Bruder "Hans bror arbetar i Lund." Sein Bruder arbeitet in Lund Alleinstehende Possessivpronomen. Wie auch im Deutschen kann ein Possessivpronomen alleine stehen, ohne dass ihm ein Substantiv folgt. "Om du behöver en båt, kan du få låna min". Wenn du ein Boot brauchst kannst du meines leihen. "Har du en cigarett till mig? Jag glömde mina". Hast du eine Zigarette für mich? Ich habe meine vergessen. "Per lånade Olav sin båt. Hans var trasig". Per lieh Olav sein (eigenes) Boot, Seines (Olavs) war kaputt. Deklination. Die Beugung von Adjektiven in der unbestimmten Form verhält sich sehr einfach, ist jedoch mit Ausnahmen gespickt. Gemäß der Regel werden Adjektive, die sich auf ein Utrum-Substantiv im Singular beziehen, nicht flektiert. Im Deutschen werden Adjektive nur dann dekliniert, wenn sie als Attribute benutzt werden. Ein wichtiger kontrastiver Unterschied zum Deutschen besteht darin, dass im Schwedischen Adjektive auch dekliniert werden müssen, wenn sie prädikativ oder adverbial benutzt werden. Das macht sich auch bei der Passivbildung (siehe oben) bemerkbar. Adjektive, die sich auf ein neutrales Substantiv beziehen, erhalten das Suffix -t in der unbestimmten Form. Bezieht sich das Adjektiv auf eine Pluralform, ob bestimmt oder unbestimmt, ist das Suffix -a. In der bestimmten Form wird die Endung -a angehängt. Wenn das Substantiv eine männliche Person oder ein männliches Tier ist, kann im Singular statt -a auch -e angehängt werden. Überdies muss das Substantiv sowohl vom vorangehenden bestimmten Artikel "den, det, de" als auch vom suffigierten Artikel (oder Bestimmheitssuffix) "-en, -et, -na" begleitet sein. Nach allen Possessivpronomen ("min, din, hans" etc.) Einige zusammengesetzte Adjektive zeigen innere Beugung. Hier müssen nur der erste oder beide Teile des Adjektivs gebeugt werden. Das häufigste Beispiel ist "varannan" („jeder/jedes zweite“): "Varannan dag" (Utrum), "vartannat år" (Neutrum). Andere Beispiele sind "ingendera/ingetdera" („keiner/keines von beiden“) und "varenda/vartenda" („jeder/jedes einzelne“). Komparation. Auch für den Superlativ gibt es eine bestimmte Form; sie endet auf -e. "Das ist der wärmste Mantel. – Det är den varmaste kappan." Die unregelmäßigen Adjektive der Gruppen C und D erhalten die Endung -a. Per ist der älteste. – "Per är den äldsta." Stockholm ist Schwedens größte Stadt. – "Stockholm är Sveriges största stad." Ich bin so groß wie mein Bruder. – "Jag är lika stor som min bror." Ich bin größer als mein Bruder. – "Jag är större än min bror." Er ist am größten. – "Han är störst." Er ist der Größte. – "Han är den störste." Adverbien. Das häufigste Adverb der schwedischen Sprache ist "mycket" (sehr, viel). Wird ein Adjektiv adverbiell verwendet, erhält es die Endung "-t" (im Gegensatz zum Deutschen, wo die unflektierte Form des Adjektivs verwendet wird). Adjektiv: "Lena är vänlig." (Lena ist freundlich) Adverb: "Lena svarar vänligt." (Lena antwortet freundlich) Doppeltes Adverb: "Lena svarar mycket vänligt." (Lena antwortet sehr freundlich) Grundzahlen (Kardinalzahlen). 21 = "tjugoett," 32 = "trettiotvå," 57 = "femtiosju". Das "-o" der Zehnerzahlen von 30 bis 90 (sowohl in "trettio" wie auch in den Zusammensetzungen "trettioett" usw.) ist in der Umgangssprache stumm. Ordnungszahlen (Ordinalzahlen). Die Ordinalzahlen von 1 und 2 sind ganz unregelmäßig: "första" „erste(r/s)“, "andra" „zweite(r/s)“. Die weiteren werden, wie in allen germanischen Sprachen, durch das Anhängen eines Dentalsuffixes (im Schwedischen "-t, -d;" gefolgt von der Endung "-e") gebildet, wobei zahlreiche kleinere und größere Irregularitäten auftreten. Bei den Kardinalzahlen, die auf Vokal ausgehen, wird bei 7. bis 10. sowie, ausgehend von letzterem, bei 20. bis 90. vor den Dental ein "n" eingeschoben. Allgemein. Schwedisch hat, wie alle nordgermanischen Sprachen, eine Grundwortstellung Subjekt-Prädikat-Objekt, zu der im Hauptsatz eine Verb-Zweit-Regel hinzukommt. Das Schwedische hat also mit dem Deutschen gemeinsam, dass der Hauptsatz mit einem beliebigen Satzteil beginnen kann und das finite Verb an zweiter Position folgt (d.h. beide Sprachen sind Verbzweit-Sprachen); die Wortstellung im Satzinneren und in Nebensätzen hingegen ist im Schwedischen anders als im Deutschen. Der Schwedische Hauptsatz in einem Feldermodell. Traditionell wird die Wortstellung des Schwedischen mithilfe eines Feldermodells (das in dieser Form auf Paul Diderichsen zurückgeht) wie in folgender Übersicht dargestellt. Die Position, die hier "Fundament" heißt, entspricht dem deutschen "Vorfeld," die Positionen "Verb(1)" und "Verb(2)" entsprechen der Satzklammer des Deutschen, nur dass der zweite Teil des Prädikats schon vor dem Objekt kommt. Einheiten, die im Fundament (Vorfeld) stehen, fehlen dann an ihrer Grundposition im Satzinneren (dies gilt auch für das Subjekt). Die obligatorische Besetzung von "Fundament" und "Verb(1)" im Hauptsatz ist genau das, was als das Verbzweit-Phänomen bezeichnet wird; der danach folgende Bereich ist der, der als "Subjekt-Prädikat-Objekt"-Stellung bezeichnet wird. Fragesätze. Ja/nein-Fragen haben genauso wie im Deutschen die Form eines Verb-Erst-Satzes. Hierbei bleibt einfach das "Fundament" unbesetzt, alle Satzteile folgen also nach dem finiten Verb. Bei Fragen, die nicht mit Ja oder Nein zu beantworten sind, wird ein Fragewort vorangestellt. Das Fragewort muss also im "Fundament" erscheinen, z. B.: "Vad har du läst idag?" Stilformen der schwedischen Sprache. Die schwedische Sprache ist eine Sprache mit kurzen Wörtern, kurzen Sätzen und einfacher Grammatik. Sie wirkt im Aufbau ähnlich wie die englische Sprache. Damit gehen auch andere Stilformen einher. Während im Deutschen Stil durch Komplexität erzeugt wird, bedeutet Stil im Schwedischen hauptsächlich Verdichtung. Das Futur „"kommer att" + Infinitiv“. "kommer att" + Infinitiv hat eine ähnliche Bedeutung wie die Futurbildung durch "skall" + Infinitiv. Allerdings beschreibt "kommer att" ein Zukunftsereignis, das ohne den eigenen Einfluss geschehen wird oder eine schicksalhafte Dimension hat. In der mündlichen Sprache wird das "att" häufig ausgelassen und die Betonung stärker auf das ungebeugte Verb gesetzt: "Jag kommer vara hemma imorgon". In der Schriftsprache gilt dies aber bislang nicht als korrekt. Verkürzungen. In der mündlichen Sprache werden in manchen Fällen Silben oder Phoneme elidiert, was sich teilweise auch in der geschriebenen Sprache niederschlägt. Durchgesetzt haben sich mehrere häufige Wörter • "o" für "och" (dt. und) • "ska" für "skall" (Hilfsverb zur Bildung des Futurs, entspr. dt. werden) • "sen" für "sedan" (dt. seit, dann) • "kung" für "konung" (dt. König) Das Gleiche gilt für zusammengesetzte Wörter, die mit "någon" beginnen, wie beispielsweise "någonsin" (dt. jemals). • "far" für "fader" (dt. Vater), "mor" für "moder" (dt. Mutter), "bror" für "broder" (dt. Bruder), "stan" für "staden" (dt. die Stadt), "er" für "eder" (dt. euer, euch), "arton" für "aderton" (dt. achtzehn) • "dra" für "draga" (dt. ziehen), "ta" für "taga" (dt. nehmen). Entsprechendes gilt bei "be" für "bedja" (dt. bitten, beten) und "ge" für "giva" (dt. geben), wobei hier die Langformen nur noch sehr eingeschränkt verwendet werden. Verdopplung der bestimmten Form. Zur besonderen Betonung oder sehr genauen Bestimmung wird die bestimmte Form verdoppelt, indem ein "den, det" oder "de" vor das bestimmte Substantiv gestellt wird. Nordgermanische Sprachen. Die nordgermanischen Sprachen (auch skandinavische oder nordische Sprachen genannt) umfassen die Sprachen Isländisch, Färöisch, Norwegisch, Dänisch und Schwedisch. Sie sind eine Untergruppe der germanischen Sprachen. Ungefähr 20 Millionen Menschen sprechen eine nordgermanische Sprache als Muttersprache. Das "Nordgermanische" spaltete sich um die Zeitenwende vom Westgermanischen ab. Das durch die Edda überlieferte Altisländisch gilt als Urtypus der nordgermanischen Sprachen und wird deshalb oft mit Altnordisch gleichgesetzt; die älteste überlieferte nordgermanische Sprache ist aber das Urnordische. Gegenseitiges Verhältnis der Einzelsprachen. Die Dialekte der west- oder inselnordischen Sprachen Färöisch und Isländisch liegen eng beieinander. Das moderne Färöisch und Isländisch ähnelt dem Altisländisch am meisten, weil es weniger Einflüssen der anderen europäischen Sprachen ausgesetzt war. Die Isländer bemühen sich um Vermeidung von Anglizismen und anderen außernordischen Lehnwörtern. Zur westnordischen (aber nicht inselnordischen) Gruppe gehören weiter die meisten norwegischen Dialekte und in der Folge auch das hieraus geschaffene Nynorsk sowie Jämtländisch (Jamska) und endlich Norn, das bis in das 15. Jahrhundert auf den Shetland-Inseln und den Orkney gesprochen wurde. Der letzte Sprecher des Norn verstarb im 18. Jahrhundert. Vergleichsweise immer noch recht ähnlich sind die drei stark verbreiteten skandinavischen Sprachen Dänisch, Norwegisch und Schwedisch, wobei die Verständigung zwischen Sprechern zweier dieser Sprachen je nach dem gesprochenen Dialekt oft einfacher sein kann als die zwischen den Sprechern verschiedener Dialekte einer einzigen dieser Sprachen. Einige sehr stark abweichende Varianten werden manchmal als eigene Sprachen klassifiziert. Dagegen sind die in Norwegen benutzten Schriftsprachen des Bokmål und erst recht des Riksmål norwegisierte Tochtersprachen des Dänischen, da sie im 19. Jahrhundert aus dem in Norwegen gesprochenen Dänisch „konstruiert“ worden sind. Auf der schwedischen Insel Gotland wird Gotländisch gesprochen, das außer starken Eigenentwicklungen gewisse dänische, mittelniederdeutsche, baltische und slawische Einflüsse aufweist, aber aufgrund der Dominanz des Schwedischen im Unterricht seit 1645 zunehmend schwedisch geprägt ist. Während das mittelalterliche Altgutnisch als eigene Sprache gilt, wird es heute in der Regel als schwedischer Dialekt klassifiziert. Auf der zu Finnland gehörenden Inselgruppe Åland wird ein schwedischer, „Åländisch“ genannter Dialekt gesprochen. Åländisch liegt sprachlich den uppländischen Dialekten näher als den finnlandschwedischen. Einige Wörter entstammen dem Russischen, da die Inselgruppe von 1809 bis 1917 zum Zarenreich gehörte. An der Süd- und Westküste Finnlands wird Finnlandschwedisch gesprochen. Diese Dialekte weisen einige finnische Einflüsse auf, unter anderem in verschiedenen Wortentlehnungen und in der Prosodie. Historische Einteilungen. O. Bandle, O. E. Haugen und A. Torp teilen die nordgermanischen Einzelsprachen in den unterschiedlichen Sprachperioden wie folgt ein. Diese Einteilungen sind keine genetischen Stammbäume im Sinne des Stammbaummodells. Sie beschreiben strukturelle Ähnlichkeiten zwischen Sprachen einer bestimmten Periode. Wenn sich diese Sprachen stark ändern, vergrößern oder verringern sich auch die Ähnlichkeiten, so dass unter Umständen eine neue Einteilung zustande kommt. Samstag. a>, die Männer die Festtracht der traditionell lebenden Juden in Süd- und Westdeutschland, Deutschland um 1800 Der Samstag (im west- und süddeutschen Raum, Österreich und Schweiz) oder Sonnabend (im norddeutschen und ostmitteldeutschen Sprachbereich) ist der Tag zwischen Freitag und Sonntag. Nach traditionell jüdisch-christlicher Zählung ist er der siebte und letzte Wochentag, nach international standardisierter Zählung (ISO 8601) ist er der sechste. Im römischen Kalender repräsentierte der Samstag als „Tag des Saturn“ den ersten Tag der Woche, da Saturn unter den Planeten den obersten Rang der sieben Wochentagsnamen in der abwärts ausgerichteten siderischen Rangfolge einnimmt. Cassius Dio verwies auf den ersten direkten Beleg als erster Wochentag im Zusammenhang mit der Stadt Pompeji, die am „vierten Wochentag“ (24. August 79 n. Chr.) durch den Ausbruch des Vesuv zerstört wurde. Im weiteren Verlauf verlagerte sich der Samstag nach christlicher Zählung vom ersten auf den letzten Tag. Der Samstag ist ein Werktag, auch wenn er in den meisten Berufen des Gewerbes und Handwerks kein Arbeitstag ist. Bei der Berechnung von Fristen wird der Samstag jedoch wie ein Sonn- oder Feiertag behandelt: Wenn das Fristende auf einen Samstag fällt, so verlängert sich die Frist auf den nächsten Werktag (BGB). Der Tag hat im hochdeutschen Sprachbereich zwei Bezeichnungen, die regional unterschiedlich teilweise fast ausschließlich, teilweise parallel, verwendet werden, in jüngster Zeit ist allerdings eine Tendenz hin zum Samstag feststellbar. Samstag. Der Name "Samstag", althochdeutsch "sambaztac", kommt von einer erschlossenen vulgärgriechischen Form "sambaton" des griechischen Wortes "sabbaton", das letztlich auf eine Gleichsetzung der Bezeichnung vom „Tag des Saturn“ in Anlehnung an den hebräischen Begriff "Šabbatai" („Stern (Saturn) des Šabbats“) zurückgeht. Er verbreitete sich mit der Missionierung des süddeutschen Sprachraums donauaufwärts und wird heute in Österreich, Süd- und Westdeutschland verwendet. Vor allem in der jüdischen Religion und in der Freikirche der Siebenten-Tags-Adventisten gilt er als Feiertag (siehe auch Sabbat). Die romanischen Sprachen gehen einheitlich darauf zurück: franz. "le samedi", ital. "il sabato", span. "el sábado". Sprachwissenschaftlich unhaltbar ist die Deutung, dass die althochdeutsche Form auf "S'Ambeths Tag" zurückzuführen sei, also auf einen Tag zu Ehren einer angeblich norisch-keltischen Erdgöttin Ambeth, einer der drei Bethen. Diese These scheint zwar die geographische Verbreitung in Österreich und Süddeutschland recht gut zu erklären, aber bereits die Theorie von der Existenz der Bethen als heidnische Göttinnentrinität basiert allein auf den zweifelhaften Deutungen der Laienforscher Hans Christoph Schöll (1936: "Die drei Ewigen") und Richard Fester (1962: "Sprache der Eiszeit"), deren Thesen von Sprachwissenschaftlern einhellig abgelehnt werden. Sonnabend. Die Bezeichnung "Sonnabend" (althochdeutsch: "sunnunaband", altenglisch "sunnanæfen") ist aus dem Altenglischen in den deutschen Sprachraum gekommen, wohl mit der angelsächsischen Mission. Der zweite Teil bedeutete ursprünglich „(Vor-)Abend“. Im frühen Mittelalter erweiterte sich die Benennung auf den gesamten Tag, so wie beim ganzen Tag vor dem ersten Weihnachtstag (Heiligabend oder vor Neujahr, vergleiche auch Englisch "New Year's Eve" ("Silvester") oder "fortnight" = 14 Tage aus ags. "feorwertyne niht"). „Sonnabend“ wird vor allem in Norddeutschland und im Ostmitteldeutschen verwendet. „Sonnabend“ war in der DDR (entsprechend der vorherrschenden regionalen Verbreitung) die offizielle Bezeichnung. Auch in heutigen deutschen Gesetzestexten (u. a. in BGB oder in Ladenschlussgesetzen einiger nord- und ostdeutscher Länder) wird der Begriff "Sonnabend" verwendet. In Österreich, der Schweiz und Süddeutschland ist der Begriff weitgehend ungebräuchlich und ist höchstens im passiven Wortschatz als typisch norddeutsch bekannt. Weitere Formen. In Westfalen und im Ostfriesischen Platt hat sich der niederdeutsche "Saterdag" erhalten (vergl. niederländisch "Zaterdag", Afrikaans "Saterdag", und engl. "Saturday"), eine Lehnübersetzung von lateinisch "Dies Saturni" („Tag des Saturnus“). Vom russischen Wort für Samstag, "Subbota" (russisch "Суббота"), ist der Subbotnik abgeleitet, die freiwillige unentgeltliche Arbeit am Samstag. Solche Arbeitseinsätze gab es zeitweise auch in der DDR häufiger. Scirocco. Der Scirocco und seine Entstehung Der Scirocco (auch Sirocco oder Schirokko) ist ein heißer Wind aus südlichen bis süd-östlichen Richtungen, der von der Sahara in Richtung Mittelmeer weht. Er ist ein gleichmäßiger heißer Wüstenwind, der oft im Frühjahr, frühen Sommer und Herbst weht. In Extremfällen können auch Geschwindigkeiten eines tropischen Wirbelsturmes erreicht werden. Grundlagen. Er entsteht durch die Temperaturdifferenz zwischen kühlen Tiefdruckgebieten in Südeuropa und der heißen Luft über der Sahara, auch zentralmediterrane subtropische Zyklone und typische Adriatiefs (V-Wetterlage) können den Aktionskern bilden. Je größer der Temperaturunterschied ist, desto stärker wird der Scirocco. Der Scirocco ist über Afrika trocken, nimmt aber über dem Mittelmeer Feuchtigkeit auf, die unter Umständen in den europäischen Mittelmeerländern abregnet. Wegen seiner Entstehung über der Wüste führt der Scirocco große Mengen Sandstaub mit sich, wodurch die Luft eine gelblich-rötlich-bräunliche Färbung bekommt. Die Sichtweite kann dabei auf unter einen Kilometer sinken und der Sturm den Charakter eines Sandsturms annehmen. Der mitgeführte Sand lagert sich auch auf alpinen Gletschern ab, was zu einer sichtbaren Braunfärbung der Schneeoberfläche und somit zur Verringerung der Albedo (Rückstrahlkraft) und zu einer verstärkten Ablation führt. Allerdings ist der Scirocco nicht allein für den Rückgang der europäischen Gletscher verantwortlich, da diese Schichten auch wieder mit weißem Schnee bedeckt werden können (Akkumulation) und auch andere Faktoren mit einfließen. Die abgelagerten Stäube können durch Eisbohrkerne wiedergewonnen werden und so Aufschluss über die klimatischen Verhältnisse der letzten Jahrhunderte geben. Samhita. Samhita (Sanskrit, f., संहिता, "Sammlung") ist im Hinduismus ein Überbegriff für "Textsammlung" und wird sowohl im Veda, im Ayurveda als auch im Tantra verwendet. Samhitas im Veda. Die Samhitas des Veda bestehen größtenteils aus Hymnen und Mantren und bilden die älteste Textschicht. Jeder der vier Veden (Rigveda, Samaveda, weißer und schwarzer Yajurveda und Atharvaveda) hat seine eigene Samhita. Außer den Samhitas gehören zu jedem Veda die Brahmanas, die Aranyakas und die Upanishaden. Die bekannteste Samhita ist die Rigvedasamhita (1200 v. Chr.-900 v. Chr.). Die Hymnen sind an die vedischen Gottheiten Agni, Indra und Varuna gerichtet. Die Götterwelt ähnelt der der indogermanischen Götterwelt. Man bittet die Götter um Reichtum, Gold und Rinder und hofft von Krankheiten und sonstigem Übel verschont zu werden. Samhitas im Ayurveda. Eine der bekanntesten Samhitas des Ayurveda ist die Charaka-Samhita, benannt nach dem indischen Arzt Charaka, dessen Werke im 8. Jahrhundert ins Arabische übersetzt wurden. Eine andere medizinische Samhita ist die Sushruta-Samhita, die von dem indischen Arzt Sushruta stammen soll und sich hauptsächlich mit chirurgischem Wissen beschäftigt. Samaveda. Der Samaveda (Sanskrit, m., सामवेद, wörtl.: "Wissen von den Gesängen") ist einer der vier Veden, der heiligen Texte des Hinduismus. Bei den Hymnen handelt es sich zu großen Teilen um eine Auswahl aus dem Rigveda, allerdings angepasst an die liturgischen Melodien des Zeremoniells. Die ältesten Teile des Samaveda werden auf ca. 1000 v. Chr. datiert. Jeder der vier Veden, das sind Rigveda, Samaveda, Atharvaveda und Yajur Veda umfasst vier Textschichten. Die älteste Schicht umfasst jeweils die Samhitas (Hymnen), die nächste Schicht die Brahmanas (Ritualtexte), dann kommen die Aranyakas (Waldtexte) und zuletzt die Upanishaden (philosophische Lehren). Unter den Priestern des vedischen Opferrituals ist der Samaveda dem "Udgatri" (Sänger) zugeteilt. Die Samhitas (Hymnen) des Samaveda enthalten jedoch nur die Texte für die Gesänge, nicht die Melodie. (Noten gibt es erst später, in den sogenannten Ganas). Die zum Samaveda gehörenden Brahmanas sind u. a. "Pancavimsha-Brahmana", "Shadvimsha-Brahmana" und "Jaiminiya-Brahmana". Die "Chandogya-Upanishad" ist ebenso Bestandteil des Samaveda. Spieltheorie. In der Spieltheorie werden Entscheidungssituationen modelliert, in denen sich mehrere Beteiligte gegenseitig beeinflussen. Sie versucht dabei unter anderem, das rationale Entscheidungsverhalten in sozialen Konfliktsituationen davon abzuleiten. Die Spieltheorie ist originär ein Teilgebiet der Mathematik. In den USA wird sie zu den Wirtschaftswissenschaften gerechnet. Sie bedient mannigfaltige Anwendungsfelder. In diesem Artikel wird die nicht-kooperative Spieltheorie referiert, von der die kooperative Spieltheorie streng zu unterscheiden ist. Unten finden sich einige Bemerkungen zu den Unterschieden. Abgrenzung. Im Unterschied zur klassischen Entscheidungstheorie beschreibt die Spieltheorie Entscheidungssituationen, in denen der Erfolg des Einzelnen nicht nur vom eigenen Handeln, sondern auch von den Aktionen anderer abhängt (interdependente Entscheidungssituation). Gelegentlich werden auch außermathematische Arten der theoretischen Behandlung des Spiels als Spieltheorie bezeichnet; vergleiche etwa Homo ludens, Spielpädagogik und Ludologie. Begriff. Der Begriff "Spieltheorie" beruht darauf, dass am Anfang der mathematischen Spieltheorie Gesellschaftsspielen wie Schach, Mühle, Dame etc. große Aufmerksamkeit gewidmet wurde. Dabei ist der Gegenstand der Spieltheorie nicht auf Spiele im gängigen Wortgebrauch beschränkt. Ein Spiel im Sinne der Spieltheorie ist eine Entscheidungssituation mit mehreren Beteiligten, die sich mit ihren Entscheidungen "gegenseitig" beeinflussen. Anwendung. Die Spieltheorie ist weniger eine zusammenhängende Theorie als mehr ein Satz von Analyseinstrumenten. Anwendungen findet die Spieltheorie vor allem im Operations Research, in den Wirtschaftswissenschaften (sowohl Volkswirtschaftslehre als auch Betriebswirtschaftslehre), in der Ökonomischen Analyse des Rechts (law and economics) als Teilbereich der Rechtswissenschaften, in der Politikwissenschaft, in der Soziologie, in der Psychologie, in der Informatik, in der linguistischen Textanalyse und seit den 1980ern auch in der Biologie (insb. die evolutionäre Spieltheorie). Ausgangspunkt. Historischer Ausgangspunkt der Spieltheorie ist die Analyse des Homo oeconomicus, insbesondere durch Bernoulli, Bertrand, Cournot (1838), Edgeworth (1881), von Zeuthen und von Stackelberg. Diese spieltheoretischen Analysen waren jedoch immer Antworten auf spezifische Fragestellungen, ohne dass eine allgemeinere Theorie zur Analyse strategischer Interaktion daraus entwickelt worden wäre. Die ersten allgemeinen Überlegungen stellte Émile Borel 1921 an. Grundlagen. Erst die formalisierte Analyse von Gesellschaftsspielen und der Beweis des Min-Max-Theorems durch John von Neumann im Jahr 1928 legte die Grundlage der modernen Spieltheorie. Schnell erkannte John von Neumann die Anwendbarkeit des von ihm entwickelten Ansatzes zur Analyse wirtschaftlicher Fragestellungen, so dass 1944 im Buch „Spieltheorie und wirtschaftliches Verhalten“ ("Theory of Games and Economic Behavior"), das er zusammen mit Oskar Morgenstern verfasste, bereits eine Verquickung zwischen der mathematischen Theorie und der wirtschaftswissenschaftlichen Anwendung erfolgte. Dieses Buch gilt auch heute noch als wegweisender Meilenstein. Zunächst hatte man nur für Konstantsummenspiele eine Lösung. Eine allgemeine Lösungsmöglichkeit bot erst die Nashlösung ab 1950. Danach hat sich die Spieltheorie erst allmählich als anerkannte Methodik in den Wirtschaftswissenschaften sowie mehr und mehr auch in den sozialwissenschaftlichen Nachbardisziplinen durchgesetzt. Weitere Entwicklung. Seit 1970 ist eine sehr stürmische Entwicklung der Spieltheorie und ein Ausufern in andere Disziplinen zu beobachten. In diesem Sinne entstanden seit damals die Kombinatorische und die Algorithmische Spieltheorie als sehr mathematisch orientierte Zweige sowie die Evolutionäre Spieltheorie, die am stärksten von der Annahme "bewusster" Entscheidungen abrückt. Würdigung. Für spieltheoretische Arbeiten wurde bisher acht Mal der Preis für Wirtschaftswissenschaften der schwedischen Reichsbank in Gedenken an Alfred Nobel vergeben, welche die große Bedeutung der Spieltheorie für die moderne Wirtschaftstheorie verdeutlichen: 1994 an John Forbes Nash Jr., John Harsanyi und Reinhard Selten, 1996 an William Vickrey, 2005 an Robert Aumann und Thomas Schelling und 2012 an Alvin Roth und Lloyd S. Shapley. Für ihre Erforschung begrenzter Rationalität erhielten Herbert A. Simon 1978 und Daniel Kahneman 2002 den Nobelpreis. Auch die Preise an Leonid Hurwicz, Eric S. Maskin und Roger B. Myerson im Jahr 2007 für ihre Forschung auf dem Gebiet der Mechanismus-Design-Theorie stehen in engem Zusammenhang zu spieltheoretischen Fragestellungen. Interaktion als Spiel modellieren. Die Spieltheorie modelliert die verschiedensten Situationen als ein Spiel. Dabei ist der Begriff "Spiel" durchaus wörtlich zu nehmen: In der mathematisch-formalen Beschreibung wird festgelegt, welche Spieler es gibt, welchen sequentiellen Ablauf das Spiel hat und welche Handlungsoptionen (Züge) jedem Spieler in den einzelnen Stufen der Sequenz zur Verfügung stehen. Beispiele: Im Spiel Cournot-Duopol sind die Spieler die Firmen und ihre jeweilige Handlungsoption ist ihre Angebotsmenge. Im Bertrand-Duopol sind die Spieler wieder die Duopolisten, ihre Handlungsoptionen sind aber hier die Angebotspreise. Im Spiel Gefangenendilemma sind die Spieler "die beiden Gefangenen" und ihre Aktionsmengen sind "aussagen" und "schweigen". In Anwendungen der Politikwissenschaft sind die Spieler oft Parteien oder Lobbyverbände, während in der Biologie die Spieler meistens Gene oder Spezies sind. Zur Beschreibung eines Spiels gehört zudem eine Auszahlungsfunktion: Diese Funktion ordnet jedem möglichen Spielausgang einen Auszahlungsvektor zu, d. h. durch diesen Vektor wird festgelegt, welchen Gewinn ein Spieler macht, wenn ein bestimmter Spielausgang eintritt. Bei Anwendungen in den Wirtschaftswissenschaften ist die Auszahlung meistens als monetäre Größe zu verstehen, bei politikwissenschaftlichen Anwendungen kann es sich hingegen um Wählerstimmen handeln, während bei biologischen Anwendungen meistens die Auszahlung aus Reproduktionsfähigkeit oder Überlebensfähigkeit besteht. Eine wichtige Technik beim Finden von Gleichgewichten in der Spieltheorie ist das Betrachten von Fixpunkten. In der Informatik versucht man, mit Hilfe von Suchstrategien und Heuristiken (allgemein: Techniken der Kombinatorischen Optimierung und Künstlichen Intelligenz) bestimmte Spiele, wie Schach, SameGame, Mancala, Go zu lösen oder z. B. zu beweisen, dass derjenige, der anfängt, bei richtiger Strategie immer gewinnt (das ist z. B. der Fall für "Vier gewinnt", "Qubic" und "Fünf in eine Reihe") oder z. B. derjenige, der den zweiten Zug hat, immer wenigstens ein Unentschieden erzielen kann (Beispiel "Mühle"). Man spricht in diesem Zusammenhang vom "first movers advantage" bzw. "second movers advantage". Informationsbegriff. Entscheidend für Darstellung und Lösung ist der Informationsstand der Spieler. Unterschieden werden hierbei drei Begriffe: "Vollständige", "perfekte" (bzw. "vollkommene") Information und "perfektes Erinnerungsvermögen", je nachdem, ob der Spieler über die Spielregeln, die Züge der anderen Spieler und die eigenen Informationen aus der Vergangenheit informiert ist. Standard ist das Spiel mit "vollständiger Information" sowie "perfektem Erinnerungsvermögen". "Perfekte Information" gehört nicht zu den Standardannahmen, da sie hinderlich bei der Erklärung zahlreicher einfacher Konflikte wäre. "Vollständige Information", die Kenntnis aller Spieler über die Spielregeln, ist eine Annahme, die man beim Spiel im klassischen Wortsinn (vgl. Spiel) gemeinhin als Voraussetzung für gemeinsames Spielen betrachten wird. Unstimmigkeiten über die Spielregeln, etwa, ob bei Mensch ärgere Dich nicht die Pflicht besteht, einen gegnerischen Kegel zu schlagen, wenn dies im betreffenden Zug möglich ist, oder ob bei Mau Mau eine gezogene Karte sofort gelegt werden darf, wenn sie passt, werden in der Regel als ernsthafte Störung betrachtet, wenn sie nicht "vor" dem Spiel geklärt wurden. Andererseits wird die Spieltheorie auf viele Situationen angewendet, für die dieses Informationserfordernis zu rigide wäre, da mit dem Vorhandensein gewisser Informationen nicht gerechnet werden kann (z.B. bei politischen Entscheidungen). Darum ist es sinnvoll, die klassische Spieltheorie, die mit "vollständiger Information" arbeitet, um die Möglichkeit "unvollständiger Information" zu erweitern. Andererseits ist dieses Feld dadurch begrenzt, weil sich für jedes Spiel mit "unvollständiger Information" ein Spiel mit "vollständiger Information" konstruieren lässt, das strategisch äquivalent ist. "Perfekte Information", also die Kenntnis sämtlicher Spieler über sämtliche Züge sämtlicher Spieler, ist eine rigorose Forderung, die in vielen klassischen Spielen nicht erfüllt ist: Sie ist beispielsweise in den meisten Kartenspielen dadurch verletzt, weil zu Spielbeginn der Zug des Zufallsspielers und die Verteilung der Blätter unbekannt ist, da man jeweils nur die eigenen Karten einsehen kann. Darum wird in spieltheoretischen Modellen meist nicht von "perfekter Information" ausgegangen. Erfüllt ein Spiel das Kriterium perfekter Information, ist es in der Regel vom Prinzip her einfacher zu lösen; auch wenn sich in der Realität wie beim Schach aufgrund der Komplexität große Hürden ergeben. "Perfektes Erinnerungsvermögen" ist das Wissen jedes Spielers über sämtliche Informationen, die ihm bereits in der Vergangenheit zugänglich waren. Obwohl diese Annahme zumindest vom Prinzip her auf den ersten Blick immer erfüllt zu sein scheint, gibt es Gegenbeispiele: Handelt es sich bei einem Spiel um ein Team kooperierender Akteure wie beim Skat, kennt „der“ einzelne Spieler zum Zeitpunkt einer eigenen Entscheidung nicht mehr den Informationskontext vergangener Züge, die ein Partner aufgrund seiner Karten getroffen hat. Darstellungsformen. Spiele werden meist entweder in strategischer (Normal-)Form oder in extensiver Form beschrieben. Weiterhin ist noch die Agentennormalform zu nennen. Da es Spiele gibt, denen keine dieser Formen gerecht wird, muss bisweilen auf allgemeinere mathematische oder sprachliche Beschreibungen zurückgegriffen werden. Die Extensivform bezeichnet in der Spieltheorie eine Darstellungsform von Spielen, die sich auf die Baumdarstellung zur Veranschaulichung der zeitlichen Abfolge von Entscheidungen stützt. Die Normalform beschränkt sich im Wesentlichen auf die A-priori-Strategiemengen der einzelnen Spieler und eine Auszahlungsfunktion als Funktion der gewählten Strategiekombinationen. Gerecht wird diese Darstellungsform am ehesten solchen Spielen, bei denen alle Spieler ihre Strategien zeitgleich und ohne Kenntnis der Wahl der anderen Spieler festlegen. Zur Veranschaulichung verwendet man meist eine Bimatrixform. Wer oder was ist eigentlich ein Spieler in einer gegebenen Situation? Die Agentennormalform beantwortet diese Frage so: Jeder Zug im Verlauf eines Spiels verlangt nach einem Spieler im Sinne eines unabhängigen Entscheiders, da die lokale Interessenlage einer Person oder Institution von Informationsbezirk zu Informationsbezirk divergieren kann. Dazu verfügt die Agentennormalform generell über so viele Spieler bzw. Agenten, wie es Informationsbezirke persönlicher Spieler gibt. Der 'natürliche' Spieler 1 wird hier beispielsweise zu den Agenten 1a und 1b abstrahiert. Lösungskonzepte. Sobald ein Spiel definiert ist, kann man sodann das Analyseinstrumentarium der Spieltheorie anwenden, um beispielsweise zu ermitteln, welche die optimalen Strategien für alle Spieler sind und welches Ergebnis das Spiel haben wird, falls diese Strategien zur Anwendung kommen. Um Fragestellungen spieltheoretisch zu analysieren, werden sogenannte Lösungskonzepte verwendet. Das weitaus prominenteste Lösungskonzept, das Nash-Gleichgewicht, stammt von John Forbes Nash Jr. (1950). Die obige Fragestellung - welche möglichen Ausgänge ein Spiel hat, wenn sich alle Spieler individuell optimal verhalten - kann durch die Ermittlung der Nash-Gleichgewichte eines Spiels beantwortet werden: Die Menge der Nash-Gleichgewichte eines Spiels enthält per Definition diejenigen Strategieprofile, in denen sich ein einzelner Spieler durch Austausch seiner Strategie durch eine andere Strategie bei gegebenen Strategien der anderen Spieler nicht verbessern könnte. Für andere Fragestellungen gibt es andere Lösungskonzepte. Wichtige sind das Minimax-Gleichgewicht, das wiederholte Streichen dominierter Strategien sowie Teilspielperfektheit und in der kooperativen Spieltheorie der Core, der Nucleolus, die Verhandlungsmenge und die Imputationsmenge. Während die reine Strategie eines Spielers eine Funktion ist, die jeder Spielstufe, in der die Aktionsmenge des Spielers nicht leer ist, eine Aktion zuordnet, ist eine gemischte Strategie eine Funktion, die jeder Spielstufe, in der die Aktionsmenge des Spielers nichtleer ist, eine Wahrscheinlichkeitsverteilung über der in dieser Spielstufe verfügbaren Aktionsmenge zuordnet. Damit ist eine reine Strategie der Spezialfall einer gemischten Strategie, in der immer dann, wenn die Aktionsmenge eines Spielers nichtleer ist, die gesamte Wahrscheinlichkeitsmasse auf eine einzige Aktion der Aktionsmenge gelegt wird. Man kann leicht zeigen, dass jedes Spiel, dessen Aktionsmengen endlich sind, ein Nash-Gleichgewicht in gemischten Strategien haben muss. In reinen Strategien ist die Existenz eines Nash-Gleichgewichtes hingegen für viele Spiele nicht gewährleistet. Die Analyse von Gleichgewichten in gemischten Strategien wurde wesentlich durch eine Reihe von Beiträgen John Harsanyis in den 70er und 80er Jahren vorangebracht. Einige besondere Probleme. Im Folgenden sollen auf der Basis der beschriebenen Spielformen und deren Lösungskonzepte einige Probleme genannt werden, die sich in der spieltheoretischen Behandlung als besonders einflussreich erwiesen haben. Ein Spiel, das nach einmaliger Durchführung nicht wiederholt wird, wird als sog. One-Shot-Game bezeichnet. Wird ein One-Shot-Game mehrmals hintereinander durchgeführt, wobei sich im Allgemeinen die Gesamtauszahlung für jeden Spieler durch die (eventuell aufdiskontierten) Auszahlungen jedes einzelnen One-Shot-Games ergibt, so spricht man von einem wiederholten Spiel. Die gesamte Folge aller One-Shot-Games bezeichnet man als Superspiel. In der Spieltheorie unterscheidet man zudem zwischen endlich wiederholten und unendlich wiederholten Superspielen. Die Analyse wiederholter Spiele wurde wesentlich von Robert J. Aumann vorangebracht. Ein Lösungskonzept vieler endlich wiederholter Spiele ist die sogenannte Rückwärtsinduktion, indem zunächst die Lösung des letzten One-Shot-Games ermittelt und darauf basierend die Lösungen der vorangegangenen Spiele bis zum ersten Spiel bestimmt werden. Eine bekannte Anwendung der Backward-Induction ist das sogenannte Chainstore-Paradoxon. Kennt ein Spieler selbst nur seinen eigenen Typ, während andere nur diesbezügliche probabilistische Erwartungen hegen, so spricht man von unvollständiger, speziell asymmetrischer Information. Reputationseffekte treten immer dann auf, wenn ein Spieler für andere als einem bestimmten Typ zugehörig identifiziert werden kann. Die Spieltheorie unterstellt zunächst nicht nur jedem Spieler Rationalität, sondern auch, dass alle Spieler wissen, dass alle Spieler rational sind etc …. Man unterstellt also allgemein bekannte Spielregeln, bzw. allgemein bekannte Rationalität. Im Unterschied zur 'perfekten' Rationalität werden zunehmend auch Spieltheorien mit eingeschränkter Rationalität formuliert, die ggf. auch Zweifel an der Rationalität von Spielern zulassen (u. a. auch in der evolutionären Spieltheorie). Von evolutionärer Spieltheorie spricht man meist dann, wenn das Verhalten der Spieler nicht durch rationale Entscheidungskalküle abgeleitet wird, sondern als Ergebnis von kulturellen oder genetischen Evolutionsprozessen begründet wird. Oft kann man die stabilen Ergebnisse durch statische Stabilitätskonzepte charakterisieren. Ein derartiges Konzept ist die evolutionär stabile Strategie, auch kurz 'ESS' genannt (Maynard Smith und Price, 1973). Evolutionstheoretisch besagt diese Spieltheorie, dass jeweils nur die am besten angepasste Strategie bzw. Mutante überleben kann. Die Spieltheorie untersucht, wie rationale Spieler ein gegebenes Spiel spielen. In der Mechanismus-Designtheorie wird diese Fragestellung jedoch umgekehrt, und es wird versucht, zu einem gewollten Ergebnis ein entsprechendes Spiel zu entwerfen, um den Ausgang bestimmter regelbezogener Prozesse zu bestimmen oder festzulegen. Dies geschieht im Zuge der Lösungen für ein Mechanismus-Design-Problem. Dieses Vorgehen kann nicht nur für "reine" Spiele, sondern auch für das Verhalten von Gruppen in Wirtschaft und Gesellschaft genutzt werden. Rezeption. Die Spieltheorie erlaubt es, soziale Konfliktsituationen, die strategische Spiele genannt werden, facettenreich abzubilden und mathematisch streng zu lösen. Aufgrund der unrealistischen Modellannahmen wird die empirische Erklärungskraft der Spieltheorie in der Regel in Abrede gestellt. Kein Mensch wird jemals so rational sein, wie es den Spielern durch die spieltheoretischen Lösungskonzepte unterstellt wird. Menschen unterliegen stets kognitiven Beschränkungen, die perfekt rationales Verhalten in komplexen Spielen ausschließen. Indes muss nach Auffassung des Bamberger Politikwissenschaftlers Reinhard Zintl zwischen dem Anwendungsfall als Verhaltenstheorie und demjenigen als Verfassungstheorie unterschieden werden; und es sei je nach Erklärungsproblem auch eine inkonsistente Verwendung einzelner Akteursmodelle durchaus gestattet und zweckmäßig. Außerdem ist es der Spieltheorie mit ihrem vielfältigen modelltheoretischen Instrumentarium innerhalb der Informatik gelungen, dem Menschen überlegene Computergegner zu erzeugen. Die Möglichkeiten der Spieltheorie scheinen damit noch lange nicht erschöpft zu sein. Als Beispiel sei hier lediglich das sich noch im experimentellen Stadium befindliche Modell der Quantenspieltheorie erwähnt, welches u. a. ganz neue Lösungsmöglichkeiten auch für klassische Spielsituationen (z. B. für das Gefangenendilemma) aufzeigt. Kooperative vs. nicht kooperative Spieltheorie. Kooperative Spieltheorie ist als axiomatische Theorie von Koalitionsfunktionen (charakteristischen Funktionen) aufzufassen und ist auszahlungsorientiert. Nichtkooperative Spieltheorie ist dagegen aktions- bzw. strategieorientiert. Die nichtkooperative Spieltheorie ist ein Teilgebiet der Mikroökonomik, während die kooperative Spieltheorie einen Theoriezweig eigener Art darstellt. Bekannte Konzepte der kooperativen Spieltheorie sind der Kern, die Shapley-Lösung und die Nash-Verhandlungslösung. Oft wird die nichtkooperative von der kooperativen Spieltheorie so unterschieden: Können die Spieler bindende Verträge abschließen, so spricht man von kooperativer Spieltheorie. Sind hingegen alle Verhaltensweisen (also auch eine mögliche Kooperation zwischen Spielern) "self-enforcing", d. h. sie ergeben sich aus dem egoistischen Verhalten der Spieler, ohne dass bindende Verträge abgeschlossen werden können, so spricht man von nichtkooperativer Spieltheorie. Diese Definitionen sind insofern wenig hilfreich, als die Spieler in der kooperativen Spieltheorie gar keine Handlungen ausführen, insbesondere auch nicht Verträge schließen. Die nichtkooperative Spieltheorie spielt in der universitären Lehre eine größere Rolle als die kooperative Spieltheorie. Es gibt viele Lehrbücher zur Spieltheorie und es gibt an Universitäten viele Veranstaltungen mit dem Titel Spieltheorie, in denen die kooperative Spieltheorie gar nicht oder nur am Rande behandelt wird. Obwohl die Nobelpreisträger Robert J. Aumann und John Forbes Nash Jr. beide entscheidende Beiträge zur kooperativen Spieltheorie geleistet haben, wurde der Preis vom Nobelpreiskomitee ausdrücklich für ihre Beiträge zur nichtkooperativen Spieltheorie vergeben. Dennoch wird in der aktuellen Forschung weiterhin die kooperative Spieltheorie untersucht, und ein Großteil neuer spieltheoretischer wissenschaftlicher Artikel sind der kooperativen Spieltheorie zuzuordnen. Die weiterhin große Bedeutung der kooperativen Spieltheorie in der Forschung ist auch daran abzulesen, dass in der wissenschaftlichen Diskussion sehr präsente Forschungsfelder wie die Verhandlungstheorie und die Matching Theorie zu einem großen Teil mit den Mitteln der kooperativen Spieltheorie analysiert werden. Südamerika. Südamerika ist der südliche Teil des amerikanischen Doppelkontinentes, hat eine Bevölkerung von 418 Millionen Menschen und ist mit einer Fläche von 17.843.000 km² die viertgrößte kontinentale Landfläche der Erde. Der Subkontinent ist im Osten vom Atlantischen Ozean und im Westen vom Pazifischen Ozean umgeben. Die Insel Feuerland an der Südspitze des Subkontinents wird durch die Drakestraße vom Nachbarkontinent Antarktika getrennt. Etwas südlich Feuerlands liegt Kap Hoorn, wo Atlantik und Pazifik aufeinandertreffen. Nach Norden hin besteht eine Verbindung über die Landenge von Panama nach Nordamerika. Geographie. An der Westküste liegt mit den Anden die längste überseeische Gebirgskette der Erde. Das Hochgebirge zieht sich entlang des Pazifiks über 7.500 km von Venezuela bis zur Südspitze Patagoniens entlang. Der höchste Berg der Anden, zugleich höchster Berg Südamerikas und höchster Berg außerhalb Asiens, ist mit 6.962 m Höhe der Aconcagua. Er liegt an der Grenze zwischen Argentinien und Chile. Die Laguna del Carbón, mit 105 Meter unter dem Meeresspiegel der tiefste Punkt Südamerikas, befindet sich im San-Julián-Becken in Patagonien. Als südlichster Punkt Südamerikas wird in der Regel Kap Hoorn bezeichnet. Die größte Stromebene bildet das Amazonasbecken (Amazonien), eine äquatoriale Regenwald-Tiefebene, die vom Amazonas mit seinen etwa 10.000 Zuflüssen entwässert wird. Der aus den Anden quer über den gesamten Kontinent nach Osten fließende Amazonas ist mit etwa 6.448 km der längste Fluss Südamerikas und der wasserreichste Fluss der Erde. Nördlich liegt die Orinoco-Ebene, die zum Amazonasbecken nach Süden hin durch die Bergländer Guayanas und nach Norden durch das venezolanische Küstenbergland begrenzt wird. Eine weitere Stromebene liegt im Süden des Kontinents, wo das Flusssystems aus Río Paraguay und Río Paraná aus dem Pantanal im Norden kommend im Süden in eine subtropische Schwemmlandschaft übergeht. Die Bergländer sind das Bergland von Guayana, das Brasilianische Bergland und das Ostpatagonische Bergland. Das Bergland von Guayana unterteilt sich in das Regenwaldbergland Südvenezuelas, das Zentrale Hochland von Guayana und das Östliche Bergland von Guayana, erstreckt sich zwischen der Stromebene des Orinoco und des Amazonas mit einer maximalen Erhebung von bis zu 2.800 m. Das Zentralbrasilianische Bergland dominiert Zentralsüdamerika und zieht sich bis an die Küste Brasiliens bzw. die Pampa Argentiniens im Süden. Das Ostpatagonische Bergland erhebt sich im Osten der Anden an der Südspitze Südamerikas. Zu Einzelheiten siehe Physische Geographie Südamerikas Geologie und Geomorphologie. Die pazifische Seite Südamerikas ist durch einen aktiven Kontinentalrand in Form einer Subduktionszone geprägt. Die atlantische Kontinentalseite ist sehr passiv. Die östlichen Bergländer Südamerikas weisen einen großen präkambrischen Sockel auf, welcher von Sandsteinen überlagert sein kann. Die Beckenstrukturen der Stromebenen sind durch tertiäre und quartäre Sedimente dominiert. Im Süden bildet die patagonische Plattform den Grundstock für das patagonische Bergland. Das Anden-Orogen besteht zum Großteil aus vulkanisch-sedimentären Deckenschichten, nachpräkambrischen Sedimentbecken und mittel- und jungpräkambrischen Grundgebirgen. (nach ZEIL 1986) Die Andenregionen sind durch ihre Lage am aktiven Kontinentalrand durch Vulkanismus und Erdbeben geprägt. Südamerika war einst ein Teil des Urkontinents Gondwana. Hinweise hierzu sind die exakte Passform an Afrika, erhebliche Basaltvorkommen, welche sich beim Aufreißen an der heutigen Ostküste gebildet haben, die Strichrichtungen von Sandsteinen und Anzeichen der Perm-karbonen Vereisung. Der Süden Südamerikas ist durch glaziale Serien quartärer Vereisungen geprägt. Geomorphologische Erscheinungen sind Gletscherseen, Moränen und glaziale Abflussformen. Südamerika weist weltwirtschaftlich bedeutende Vorkommen an Rohstoffen und Mineralen auf. So werden Erze, Salpeter, Erdöl, Kohle und Gold abgebaut. Klima. Das Klima Südamerikas ist ausgesprochen komplex. Ganzjährige klimatische Einflüsse sind der kalte Humboldtstrom an der Westküste Perus, die innertropische Konvergenzzone (ITCZ), die Entstehung tropischer Wirbelstürme am Rand des subtropischen Hochdruckgebietes und die Passatwinde. Der kalte Humboldtmeeresstrom bewirkt ein Abkühlen der Meeresoberfläche vor der Küste Perus und Nordchiles, was zu der Ausbildung von Küstenwüsten führt. Dieses Phänomen beruht auf der Tatsache, dass die abgekühlte Luft zu einer konstanten Inversion, somit zu einem stabilen Hochdruckgebiet führt, das keine Konvektion und somit keinen Niederschlag zulässt. Die Auswirkung sind ausgedehnte Wüstenregionen an den Küsten. Die äquatoriale Tropenlage bewirkt im Südwinter eine Ausbildung einer Innertropischen Konvektionszone über der Zentralen Amazonasregion und führt zu starken Niederschlägen. Im Sommer verlagert sie sich weiter nach Süden, somit sind die inneren Tropen durch ganzjährigen Niederschlag gekennzeichnet. Ebenfalls im Sommer bildet sich ein kontinentales Hitzetief aus, welches sehr niederschlagsreich ist. Die südlichen Randtropen sind somit durch (Süd-)Sommerniederschlag geprägt. Die nördlichen Randtropen sind durch Passatstau im Osten (ganzjährig hoher Niederschlag) und durch kühle Meereswasser an der Küste im Norden (sehr geringer Niederschlag) gekennzeichnet. Die Südpassatwinde an der Ostküste führen zu erhöhten Niederschlägen in den Küstenregionen, im Südsommer geprägt durch die Ausbildung monsunaler Ostwinde und im Südwinter durch Stauniederschläge an den Küstenregionen. Das stabile Hochdrucksystem am Westrand Südamerikas im Zusammenspiel mit den kalten Luftmassen der südlichen polaren Regionen führt zur Ausbildung von außertropischen Zyklonen vor der Küste Westpatagoniens. Die zyklonalen Fronten variieren in ihrer Lage im Südsommer und Südwinter. Die Verlagerung nach Norden im Südwinter führt zu periodischen Winterniederschlägen im Großen Süden Chiles ("Urwaldchile") sowie zu sporadischen Winterniederschlägen im Kleinen Süden Chiles. Im Gegenzug führt die Verlagerung der zyklonalen Fronten im Südsommer (beeinflusst durch die veränderte Lage der ITCZ) zu einer ausgeprägten Sommertrockenheit in ganz Südchile, ausgenommen Patagonien. Die Zyklonalen Fronten bilden an der Anden-Luvseite des patagonischen Gebirges heftige Stauniederschläge, welche als hypermaritim bezeichnet werden können. Diese Stauniederschläge auf der Westseite führen dazu, dass die Anden-Leeseite Patagoniens durch Trockenheit gekennzeichnet ist. Die Anden selbst haben eine weitere klimatische Unterteilung in der vertikalen Dimension. Allgemeinhin lassen sich fünf Höhenstufen unterscheiden: Die "Tierra Caliente" (Warme Erde, bis 1000 m), die "Tierra Templada" (Gemäßigte Erde, bis 2000 m), die "Tierra Fria" (Kalte Erde, bis 3500 m, Anbaugrenze und Frostgrenze), die "Tierra Helada" (Eisige Erde, bis 4500 m, Schneegrenze) und die "Tierra Glacial" (glaziale Erde, bis 6000 m, Anökumene). Des Weiteren sind in den Anden Vergletscherungen vorhanden. In Peru sind die größten innertropischen Vergletscherungen der Welt zu finden. In Patagonien gibt es eine ausgedehnte Inlandsvereisung und bis auf Meeresniveau hinunterreichende Zungengletscher. Ein für Chile bedeutendes Klimaphänomen ist El Niño, denn obwohl es von seinem Ursprung her ein rein ozeanisches Phänomen ist, werden vor allem seine klimatischen Folgen wahrgenommen. Die Kaltwasserströme vor Südamerika reißen ab und es sammelt sich Warmwasser vor der südamerikanischen Küste. Als klimatische Folge hebt sich somit die normal vorherrschende stabile Hochdrucksituation auf und es kommt zu einer Umkehrung der Walker-Zirkulation mit schwerwiegenden Auswirkungen durch Starkniederschläge. Tierwelt. Zoogeographisch gesehen gehört Südamerika zur Neotropischen Region, die auch Mittelamerika und Westindien umfasst. Der südamerikanische Kontinent war während des größten Teils der Erdneuzeit von den anderen Kontinenten isoliert. Damals bildeten sich einmalige Säugetierformen heraus, die zum Teil noch heute für Südamerika charakteristisch sind. Dazu zählen verschiedene Beuteltiere, die Gürteltiere, Ameisenbären und Faultiere. Die Neuweltaffen und Meerschweinchenverwandten gelangten ebenfalls sehr früh (vermutlich von Afrika aus) als Inselspringer auf den Kontinent und brachten eine große Fülle einheimischer Arten hervor. Die übrige heutige Säugetierfauna der Neotropischen Region besteht allerdings zum größten Teil aus Gruppen, die im Zuge des großen Amerikanischen Faunenaustauschs vor etwa 3 Millionen Jahren aus Nordamerika einwanderten. Damals wanderten Paarhufer (Hirsche, Kamele, Nabelschweine), Unpaarhufer (Tapire), Hasen, Raubtiere (Katzen, Hunde, Marder, Bären, Kleinbären), Spitzmäuse und die Nagerfamilien der Neuweltmäuse und Hörnchen aus Nordamerika nach Südamerika ein. Darüber hinaus gelangten damals auch die Rüsseltiere und Pferde nach Südamerika, die jedoch im Zuge der Quartären Aussterbewelle am Ende des Pleistozän wieder verschwanden. Mit ihnen verschwanden auch zahlreiche andere Großtiere, wie die Riesenfaultiere, Glyptodonten, Toxodonten, "Macrauchenia" und die Säbelzahnkatze Smilodon. War Südamerika bis vor 12.000 Jahren ein Kontinent der Giganten, so ist heute der Mittelamerikanische Tapir das größte Landsäugetier des Kontinents. Jaguar und Brillenbär stellen die größten Landraubtiere dar. Geschichte. Nach herrschender Meinung zur Besiedlung Amerikas wurde der nördliche Kontinent um ca. 15.000 v. Chr. über die Beringstraße von asiatischen Stämmen bevölkert. In Südamerika tauchen die ersten menschlichen Spuren zwischen 20.000 und 10.000 v. Chr. auf. Als älteste amerikanische Kultur gilt die Valdivia-Kultur in Ecuador im 4. Jahrtausend v. Chr. Ab dem 2. Jahrtausend v. Chr. entwickelten sich einzelne lokale Kulturen in ganz Südamerika. Die früheste heute noch erkennbare Hochkultur war die der Chavín de Huántar, die etwa 800 v. Chr. bis 300 v. Chr. existierte. Weiterhin gab es unter anderem die Paracas-, Nazca-, Moche-, Chimú und Chachapoya-Kultur. Ab etwa 1200 bis 1532 herrschten die Inka, die wohl bekannteste Hochkultur Südamerikas, über große Teile des Kontinentes und schufen ein riesiges Reich. Durch die Ankunft der spanischen Eroberer wurde das Inkareich zerschlagen. Konquista. Bereits 1494 wurde Südamerika im Vertrag von Tordesillas von Papst Alexander VI. zwischen Spanien und Portugal aufgeteilt. Der östliche Teil, das heutige Brasilien, wurde Portugal zugesprochen. Panama und der Rest des Kontinents fielen an Spanien. Zahlreiche spanische und portugiesische Missionare kamen im 15. und 16. Jahrhundert nach Südamerika und führten das Christentum ein. Aus diesem Grund gehören heute noch etwa 80 bis 90 % der Südamerikaner dem Katholizismus an. Staatsgebiete in Südamerika von 1700 bis heute Im Jahr 1543 wurden die Vizekönigreiche Neuspanien (Mexiko und Venezuela) und Peru (spanischer Teil von Südamerika und Panama) gegründet. 1717 lösten sich Ecuador und Kolumbien aus dem Vizekönigreich Peru und bildeten mit Venezuela das Vizekönigreich Neugranada. Bolivien, Chile, Argentinien und Paraguay folgten 1776 diesem Beispiel und schufen das neue Vizekönigreich des Río de la Plata. Unabhängigkeit. Der Drang nach Unabhängigkeit nahm seitdem stetig zu. 1813 siegten zum ersten Mal Aufständische in Caracas unter dem Anführer Simón Bolívar. Im Süden erkämpfte sich 1816 Argentinien die Unabhängigkeit. In den Jahren 1817/1818 folgte die Unabhängigkeit Chiles. 1819 besiegte die Armee unter Simón Bolívar die Spanier in der Schlacht von Boyacá und befreite damit Kolumbien. Die Unabhängigkeit Ecuadors wurde 1822 in der Schlacht am Pichincha durchgesetzt. Die Heere von José de San Martín und Simón Bolívar vereinigten sich und gewannen die Entscheidungsschlacht bei Ayacucho in Peru am 9. Dezember 1824. Mit dieser Schlacht zogen sich die Spanier endgültig aus Südamerika zurück. In Brasilien nahm die Unabhängigkeitsbewegung einen etwas anderen Lauf. Da das portugiesische Königshaus mit Hofstaat auf der Flucht vor Napoleon 1808 nach Brasilien flüchtete und damit die eigentliche Hauptstadt des portugiesischen Weltreiches von Lissabon nach Rio de Janeiro verlegt wurde, war Brasilien ab diesem Jahr faktisch und ab 1815 offiziell mit Portugal gleichgestellt. Die Unabhängigkeit wurde endgültig 1822 vom portugiesischen Thronfolger Pedro ausgerufen und Brasilien wurde zu einer Monarchie. Nach der Unabhängigkeit von Spanien entstand Großkolumbien, bestehend aus den Staaten Venezuela, Kolumbien und Ecuador. Kurzzeitig schlossen sich Peru und Bolivien dem Bündnis an. Aber bereits 1832 zerfiel die Konföderation endgültig und es bildeten sich die heutigen Nationalstaaten. Bevölkerung. Entwicklung der Bevölkerung Südamerikas (in Millionen) Indigene Kulturareale Südamerikas nach Münzel Am 1. Januar 2010 lebten in Südamerika etwa 390 Millionen Menschen. Die Bevölkerung Südamerikas ist durch Vermischung der Völker gekennzeichnet, die als indigene Bewohner dort heimisch waren und den Volksgruppen, die sich später hier angesiedelt haben. Letztere waren meist europäische Zuwanderer oder aus Afrika hierher verschleppte Sklaven. Somit überwiegt der Anteil der Mestizo, der Mulatten und Zambos. In Brasilien bilden die Afrolateinamerikaner als Nachfahren der aus Afrika verschleppten Sklaven einen größeren Bevölkerungsanteil. Reste der Urbevölkerung leben fast nur noch im Andenhochland und im Amazonasgebiet. Nur in einigen Ländern stellen die indigenen Völker einen wesentlichen Anteil der Bevölkerung, so in Ecuador, Perú und Bolivien. "(siehe auch: Südamerikanische Kulturareale)" Sprachen. Die meistverwendete Sprache in jedem Land Da Südamerika 1494 zwischen Spanien und Portugal aufgeteilt wurde, wird in Brasilien heute Portugiesisch in seiner brasilianischen Variante gesprochen, während in fast allen anderen südamerikanischen Staaten die Landessprache Spanisch ist. Lediglich in Suriname wird Niederländisch als offizielle Landessprache und Sranantongo als Lingua franca gesprochen, in Guyana und Trinidad und Tobago Englisch und in Französisch-Guayana, das jedoch kein selbständiger Staat, sondern ein französisches Übersee-Département ist, Französisch. Andere europäische Sprachen, die in Südamerika verbreitet sind, sind Englisch (zum Teil in Argentinien), Deutsch (im Süden Brasiliens und Chiles, in Argentinien, Paraguay und in deutschsprachigen Orten Venezuelas) und das niederdeutsche Plautdietsch, Italienisch (in Brasilien, Argentinien, Uruguay und Venezuela) sowie Walisisch (im Süden Argentiniens). In Bolivien werden indigene Sprachen – teilweise neben dem Spanischen – von mehr als der Hälfte der Bevölkerung gesprochen. Quechua und Aymara werden mit Abstand am meisten gesprochen, gefolgt von dem im östlichen Tiefland gesprochenen Guaraní. Seit 2009 sind alle indigenen Sprachen Boliviens durch die Verfassung neben dem Spanischen als Amtssprachen anerkannt. In Peru sind Quechua und Aymara neben Spanisch regional anerkannte Amtssprachen. Das im Hochland Ecuadors verbreitete, mit Quechua verwandte Kichwa (oder "Quichua") ist dort zwar nicht Amtssprache, jedoch verfassungsmäßig anerkannt. Guaraní ist neben Spanisch eine der offiziellen Sprachen Paraguays, wo es von einer zweisprachigen Mehrheit verwendet wird. Kolumbien erkennt alle indigenen Sprachen, die im Land gesprochen werden, als offizielle Sprachen an, doch es handelt sich dabei um weniger als ein Prozent Muttersprachler. Die am meisten gesprochene indigene Sprache in Chile ist Mapudungun („Araukanisch“) der Mapuche in Südchile, daneben sind in Nordchile Aymara und auf der Osterinsel Rapanui verbreitet. Religionen. Die überwiegende Mehrheit der Bevölkerung bekennt sich zum römisch-katholischen Glauben. Seit etwa 1960 entwickelte sich vor allem hier die Befreiungstheologie, die jedoch von Papst Johannes Paul II. und dem damaligen Leiter der Kongregation für die Glaubenslehre und späteren Papst Benedikt XVI. bekämpft wurde. Der Anteil der Katholiken nimmt seitdem beständig ab, und vor allem Freikirchen und religiöse Sondergemeinschaften erfreuen sich des Zulaufs. Der derzeitige Papst Franziskus ist Argentinier. Sklaverei. Bis in das späte 19. Jahrhundert wurden afrikanische Sklaven vor allem auf den exportorientierten Plantagen im Karibischen Becken, an der Pazifikküste und in Brasilien eingesetzt. Die Sklaverei wurde in Brasilien erst 1888 und damit später als in fast allen anderen Ländern abgeschafft. Typische Haciendas im Hochland sicherten sich die Abhängigkeit der "Indígenas", indem die Landarbeiter eine kleine Parzelle zugeteilt erhielten und als Gegenleistung für den "patrón" Arbeitsleistungen erbringen mussten. Die systematische Haltung von Abhängigen im sozial relativ geschlossenen Hacienden-System dauerte bis weit in das 20. Jahrhundert hinein an. Wirtschaft. In Südamerika sind die Unterschiede zwischen Arm und Reich groß. In Venezuela, Paraguay, Brasilien und vielen anderen südamerikanischen Staaten besitzen die reichsten 20 % der Bevölkerung 60 % des Geldvermögens, während die ärmsten 20 % weniger als 5 % des Geldvermögens besitzen. Bodenschätze. Der Bergbau spielte schon in vielen vorkolonialen Kulturen Südamerikas eine bedeutende Rolle. Einer der wesentlichen Gründe für die Konquista war die Unterwerfung indianischer Gold- und Silberreiche, wobei die Sage von El Dorado eine nicht zu unterschätzende Rolle spielte. Die südamerikanischen Anden sind besonders reich an metallischen Bodenschätzen und so sind im zentralen Andengürtel einige der weltweit größten Kupfer-, Zinn-, Gold- und Silberlagerstätten zu finden. Das bedeutendste kupfererzfördernde Land im Jahre 2006 war mit großem Abstand Chile und unter den fünf größten Zinnförderländern liegen drei (Peru, Bolivien und Brasilien) in Südamerika. In den Salzseen vor allem von Chile (z. B. Salar de Atacama) und Bolivien (z. B. Salar de Uyuni) befinden sich die größten Vorkommen an Lithiumsalzen, die zum Teil noch nicht abgebaut werden. Auch die Vorkommen an fossilen Energieträgern sind bedeutend. Die Länder im Orinoco-Delta im Nordwesten des Kontinents haben großen Anteil an den Erdölreserven: Venezuela zählt bereits heute zu den weltweit größten Förderländern und in Brasilien wurde 2007 ein Vorkommen entdeckt, das zu den größten Ölreserven der Welt zu rechnen ist. Entsprechend stellt der Export der Bodenschätze für die Staaten Südamerikas die wichtigste Devisenquelle dar. Die Erschließung und Ausbeutung der Lagerstätten führt stets zu territorialen und kulturellen Konflikten zwischen den Interessen der Unternehmen und der indigenen Bevölkerung. Insbesondere mit der Erdölförderung sind massive Umweltprobleme zu beobachten: Waldrodung, Straßenbau, Boden- und Gewässerkontamination führen vor allem im Amazonastiefland, wo noch viele indigene Bevölkerungsgruppen in einem sensiblen Ökosystem naturverbunden leben, zu einer Zerstörung des ökologischen Gleichgewichts. Landwirtschaft. Die landwirtschaftlichen Strukturen wurden bis ins 20. Jahrhundert von kolonialen Einflüssen geprägt. Bis heute wird der Landbesitz entweder in riesigen Landgütern der Großgrundbesitzer oder von Subsistenzwirtschaft betreibenden Kleinbauern gehalten. Im Zuge der spanischen Eroberung entstand zunächst das System der Encomienda (spanisch für „Auftrag“). Ziel war ein profitables landwirtschaftliches Kolonialwesen ohne die Herausbildung eines autonomen Erbadel. Zu diesem Zweck erhielten die spanischen Conquistadoren umfangreichen Landbesitz treuhänderisch übertragen. Lehnsherr blieb der spanische König, der dem "Encomendero" („Auftragnehmer“) die Aufgabe übertrug, das Land zu bewirtschaften und für den Schutz und die Missionierung der dort lebenden indigenen Bevölkerung zu sorgen. In seiner praktischen Umsetzung wird diese Fremdverwaltung allerdings als eine besonders menschenverachtende Form der Sklaverei betrachtet, denn die indigene Bevölkerung stellte für die Gutsherren keinerlei finanziellen Wert dar und wurde oftmals dementsprechend leichtfertig zu Tode geschunden. Zwar bestand die Institution der Encomienda formal bis 1791, doch wurde es seit 1549 sukzessive durch die "Repartimiento" (zu deutsch „Zuteilung“) abgelöst. Im Repartimiento-System wurden indianische Gemeinschaften verpflichtet, dem Staat aus ihren Reihen Arbeitskräfte zur Verfügung zu stellen. Nach Erlangung der Unabhängigkeit wurden die „treuhänderischen“ Großgrundbesitzungen in private Eigentumsverhältnisse umgewandelt und obwohl die "Hacienda" (spanisch) bzw. "Fazenda" (portugiesisch) genannten Landwirtschaftsbetriebe deutlich kleiner waren, so umfassten sie oftmals mehrere zehntausend Hektar Land. Für diese Großgrundbesitze ist bis heute der Begriff der Latifundien gebräuchlich. In vielen Ländern Südamerikas gibt es heute Bestrebungen, in Landreformen den Besitz gerechter zu verteilen. Einigermaßen wirksam umgesetzt wurden diese aber bisher erst in Venezuela und Peru. Die in Nicaragua von den Sandinisten durchgeführt Reform ist mittlerweile zu bedeutenden Teilen wieder rückgängig gemacht worden. In Brasilien kämpft die Movimento dos Trabalhadores Rurais Sem Terra für eine umfangreiche Landreform. Organisationen der wirtschaftlichen Zusammenarbeit. Die Andenländer gründeten bereits 1969 die Andengemeinschaft als Internationale Organisation zur wirtschaftlichen, politischen und sozialen Integration. Mitgliedstaaten sind Bolivien, Kolumbien, Ecuador und Peru. Der Amazonaspakt wurde 1978 ins Leben gerufen, um die wirtschaftliche Zusammenarbeit der Amazonasländer zu stärken. Hauptgedanke war die nachhaltige Entwicklung des Amazonas-Beckens. Aus diesem Pakt ging am 2. September 2003 die Organização do Tratado de Cooperação Amazônica (OTCA) hervor, in der sich die Anrainerstaaten (Bolivien, Brasilien, Ecuador, Guyana, Kolumbien, Peru, Suriname und Venezuela) ebenfalls der strukturierten wirtschaftlichen Entwicklung Amazoniens verpflichten. Zur Errichtung eines gemeinsamen Binnenmarktes folgte 1991 die Gründung des "Mercado Común del Sur" (kurz: Mercosur;). Alle drei Gemeinschaften könnten mittelfristig von der Union Südamerikanischer Nationen als einer echten Staatengemeinschaft der zwölf südamerikanischen Staaten abgelöst werden. Politische Bündnisse und Organisationen. Die Union Südamerikanischer Nationen ist die 2008 gegründete Gemeinschaft der zwölf südamerikanischen Staaten. In der Gründungsurkunde wird als Ziel der Union der Kampf gegen „Ungleichheit, soziale Ausgrenzung, Hunger, Armut und Unsicherheit“ definiert. Bis zum Jahre 2025 soll mit gemeinsamer Währung, einem Südamerika-FunktionenParlament und einheitlichen Reisepässen eine der Europäischen Union vergleichbare Integration erreicht werden. Mit Französisch-Guayana, einem Übersee-Département Frankreichs, erstreckt sich die Europäische Union selbst bis nach Südamerika und hat mit Suriname und Brasilien eine Außengrenze. Ob mittelfristig mit einer wirklichen zwischenstaatlichen Zusammenarbeit zu rechnen ist, erscheint derzeit fraglich, denn die bisherigen südamerikanischen Staatenbündnisse Mercosur und Andenpakt charakterisieren sich durch einen eher geringen Integrationswillen und eine fehlende Bereitschaft ihrer Mitglieder, umfangreiche Kompetenzen an die supranationalen Bündnisse abzutreten. Sudden Death. Sudden Death (engl.: "plötzlicher Tod"; manchmal auch "Sudden Victory Overtime") ist im Sport die Spielentscheidung durch das erste gefallene Tor bzw. die ersten erzielten Punkte in einer Spielverlängerung. Da die Bezeichnung „Tod“ allgemein eine negative Färbung hat und im Englischen "Sudden Death" auch für den plötzlichen Kindstod steht, wird diese Bezeichnung manchmal durch den Begriff "Sudden Victory Overtime" ersetzt. Sigismund Wilhelm Koelle. Sigismund Wilhelm Kölle (* 14. Juli 1820 in Cleebronn; † 18. Februar 1902 in London) war ein Missionar und Sprachforscher. Leben und Werk. Er tritt 1841 ins Basler Missionshaus ein, doch wechselt er schon 1845 zur "Church Missionary Society" (CMS). 1847 ist er in Sierra Leone und sammelt dort neben einer Unterrichtstätigkeit Sprachmaterial. 1855 wurde er als korrespondierendes Mitglied in die Preußische Akademie der Wissenschaften aufgenommen. Sein Hauptwerk Polyglotta Africana gilt als Pionierarbeit für die vergleichende Sprachforschung afrikanischer Sprachen. Steyr. Steyr () in Österreich ist nach Linz und Wels drittgrößte Stadt des Bundeslandes Oberösterreich. Die Statutarstadt am Zusammenfluss von Enns und Steyr ist Sitz der Bezirkshauptmannschaft des Bezirkes Steyr-Land. Mit  Einwohnern (Stand) belegt Steyr auf der Liste der Städte Österreichs den zwölften Platz. Geografie. Steyr liegt auf 310 m Höhe im Alpenvorland an der Grenze zu Niederösterreich. Die Ausdehnung beträgt von Nord nach Süd 7 km, von West nach Ost 7,3 km. 2,8 % der Fläche sind bewaldet, 11,1 % der Fläche landwirtschaftlich genutzt. Stadtgliederung. "Christkindl, Föhrenschacherl, Gleink, Hinterberg, Jägerberg, Sarning, Stein, Steyr." Die Katastralgemeinde Steyr besteht aus den Teilen: "Altstadt, Steyrdorf, Tabor, Münichholz, Ennsdorf, Resthof, Ennsleite". Neben den Katastralgemeinden gibt es eine Vielzahl von Ortschaften, die ebenfalls zum Stadtgebiet von Steyr gehören. Klima. Steyr und seine nähere Umgebung liegen in einem Ausläufer des pannonischen Klimas, der sich bis in die Welser Heide erstreckt. Aufgrund der schwierigen Topografie mit vielen Wasserflächen und Anhöhen kommt es zu kleinräumigen Abweichungen mit höheren Niederschlägen und tieferen Temperaturen. Das Jahresmittel der Lufttemperatur beträgt 10 °C, das niedrigste Tagesmittel −15 °C, das höchste +33 °C. Die mittlere Sonnenscheindauer beträgt 1500 Stunden, die mittlere Niederschlagsmenge 750 mm. Durch heftige Niederschläge im Quell- und Einzugsgebiet von Enns und Steyr kommt es im Stadtgebiet immer wieder zu Überflutungen. Agglomeration. Im Ballungsraum Steyr lebten im Jänner 2010 69.766 Menschen. Zum Ballungsraum gehören Steyr und die Gemeinden Dietach (2.830), Wolfern (2.983), St. Ulrich bei Steyr (3.049), Sierning (9.106), Garsten (6.618) und in Niederösterreich die Gemeinden Haidershofen (3.576) und Behamberg (3.239). Wappen. Offizielle Beschreibung des Stadtwappens: "In Grün ein silberner, rot gewaffneter und gehörnter, flammenspeiender, aufgerichteter Panther." Die Stadtfarben sind Grün-Weiß. Das zur ursprünglich blau-weißen Gruppe der bajuwarisch-karantanischen „Pantherfamilie“ zählende Fabeltier ist das signifikante Wappenbild der nach ihrem Leitnamen als Otakare bezeichneten Markgrafen, später Herzöge der Steiermark, die ihren Stammsitz in Steyr hatten. 1160 von Markgraf Ottokar (Otakar) III. von Steyr zu seinem offiziellen Schildwappen gewählt, bildet es noch heute das steiermärkische Landeswappen. Siegel. Das ursprüngliche Siegel der Bürgerschaft stammt aus dem Jahr 1304. Es zeigt ein Stadttor mit zwei Türmen, darüber den österreichischen Bindenschild und beiderseits des Tores das Stadtwappen. Die Umschrift lautet: +SIGILLVM CIVIVM IN STIRA. Eisenzeit. Zahlreiche Streufunde zeigen, dass die Gegend um Steyr schon in frühester Zeit besiedelt war, wenn sich auch eine vorgeschichtliche Siedlung im Stadtgebiet nicht nachweisen lässt. Um 600 v. Chr. wanderten Kelten ein, die als Erste das Eisen des Erzberges abbauten. Der Name Steyr entstammt der keltischen Sprache (Stiria) und bezeichnet den gleichnamigen Fluss. Der griechische Geograph Klaudios Ptolemaios hat in seinem „Atlas der Oikumene“ (Geographike Hyphegesis) unter Noricum einen Ort „Gesodunum“ vermerkt, der von Wissenschaftlern der TU Berlin anhand von transformierten antiken Koordinaten im „Raum von Steyr“ lokalisiert wird. Römerzeit. Die Römer brachten das Eisen, das sie das „norische“ nannten, auf der alten Eisenstraße zu ihrer Schildfabrik nach Lauriacum. Nach der Überlieferung stand auf dem Felsen über dem Zusammenfluss von Steyr und Enns bereits ein römischer Wachturm, so heißt der Bergfried der "Styraburg", der in das Barockschloss Lamberg integriert ist, noch heute "Römerturm". Bei seiner tatsächlichen Errichtung im Hochmittelalter dürften aber Quader des ehemaligen römischen Legionslagers Lauriacum verwendet worden sein, wodurch der Turm zu seinem Namen kam. Im Jahr 1297 berichten die Annalen des Stiftes St. Florian über einen großen Schatzfund bei Steyr („Maximus Thesaurus“), wobei dies als erste überlieferte Nachricht über archäologische Funde in Österreich gilt. Im Laufe der Jahrhunderte kamen noch einige eher unspektakuläre Kleinfunde hinzu. Bei der Notgrabung im Zuge der Errichtung der Steyrer Nordspange (KG Hinterberg, Stadtteil Münichholz) wurden durch das Bundesdenkmalamt die Baureste eines Gehöfts ergraben. Mittelalter. Im 6. Jahrhundert wurde das Gebiet von bairischen Stämmen besiedelt und gehörte später zum Rodungsbezirk des 777 vom Bayernherzog Tassilo gegründeten Klosters Kremsmünster. Zum Schutze des Reiches gegen die Einfälle der Ungarn wurden um 900 an der Enns zwei wehrhafte Burgen errichtet, die "Burg zu Enns" und die "Styraburg", die 980 erstmals urkundlich erwähnt wurde. Die Erbauer der Burg waren die Grafen von Wels-Lambach, die Besitzungen im Traungau und in der Karantanischen Mark (Obersteiermark) hatten. 1055 traten die aus dem Chiemgau stammenden Otakare deren Erbe an. Das Wappentier der Otakare war der weiße Panther. Durch Erbschaften und kluge Heiratspolitik – Otakar II. war mit einer Babenbergerin vermählt – vergrößerten sie ihre Besitzungen in der Steiermark beträchtlich. Hier lag auch der Erzberg, dessen Abbau von den Otakaren intensiv gefördert wurde. Die Machtstellung der Otakare zeigte sich in einer prächtigen Hofhaltung. Die Styraburg war nicht nur der Schauplatz ritterlichen Lebens, sondern auch Ort der Pflege edler Künste. In den beiden mittelhochdeutschen Epen "Biterolf und Dietleib" und "König Laurin" wird der Burg zu Steyr ein literarisches Denkmal gesetzt. 1180 wurde Otakar IV., der Letzte seines Geschlechtes, von Kaiser Friedrich Barbarossa in den Herzogsstand erhoben. 1186 vermachte Otakar IV., krank und kinderlos, in feierlichem Erbvertrag auf dem Georgenberg zu Enns Burg und Herrschaft Steyr den Babenbergern – schon 1170 wird Steyr als "Urbs" ‚städtische Siedlung‘ bezeichnet, worauf sich das Stadtrecht zurückführt. Steyr verlor seine Bedeutung als Herzogssitz, seine Rolle als Verarbeitungs- und Handelszentrum für das "Innerberger Eisen" blieb jedoch erhalten. Das in Innerberg, dem heutigen Eisenerz, geförderte „Schwarze Metall“ nahm schon im frühen Mittelalter seinen Weg durch das Tal der Enns zur Donau und ließ so eine der ältesten Industrielandschaften Europas, die "Eisenwurzen", entstehen. Begünstigt durch seine einmalige verkehrspolitische Lage und seine Bedeutung als Residenz unter den Otakaren, entwickelte sich Steyr zum wirtschaftlichen und kulturellen Zentrum dieses frühmittelalterlichen Industriegebietes. Unter den Babenbergern erfolgte der Aufstieg der Stadt zur Eisenmetropole nördlich der Alpen. Handwerker, vor allem Waffen- und Rüstungsschmiede, hatten am Fuße der Burg Schutz und Lebensraum gefunden. Nach dem Aussterben der Babenberger 1246 begannen für die Stadt schwere Zeiten. In der Zeit vor den Habsburgern wurde Steyr 1254, als Folge des Friedens von Ofen, von seiner Mark (der Steiermark, die damals an Ungarn fiel) und damit von seiner wirtschaftlichen Basis, dem Erzberg, getrennt und zum Land ob der Enns unter dem Böhmenkönig Ottokar II. Přemysl geschlagen. Am 23. August 1287 bestätigte Herzog Albrecht I. der Stadt die alten Rechte im Handel und in der Verarbeitung des Innerberger Eisens. In diesem "Großen Privileg" wurde den Steyrer Bürgern unter anderem das Stapelrecht für Holz und Eisen gewährt. Drei Tage lang mussten diese Rohstoffe den Steyrer Bürgern zu einem bevorzugten Preis angeboten werden, ehe sie ihren Weg zur Donau fortsetzen durften. Das machte Stadt und Bürger reich und versetzte sie in die Lage, bedeutende Künstler aus Deutschland, Böhmen und Italien einzuladen, um zu bauen und Kunstwerke zu schaffen. Handelsbeziehungen Steyrer Eisenhändler mit Deutschland und Osteuropa sind seit 1190 belegt. Vermutliche Stadtansicht um oder nach 1450. "Schedelsche Weltchronik", Bl. CCLXXVI Eine besondere Rolle spielte der Handel mit Venedig. Steyr gehörte damals zu jenen neun römisch-deutschen Städten, die in Venedig ein eigenes Handelskontor unterhielten. Steyrer Eisenwaren stellten auf dem Venediger Markt begehrte Artikel dar. Eine große Anzahl von Steyrern bekannte sich im 13. und 14. Jahrhundert zum Waldensertum, einer christlichen Laienbewegung, die von der Inquisition als "ketzerisch" gebrandmarkt wurde. Steyr war in dieser Zeit der bedeutendste Waldenserort Österreichs. Aus diesem Grund wurde die Stadt mehrmals von der Inquisition heimgesucht. Um zirka 1260 wurden hier erstmals Waldenser entdeckt, Inquisitionsgerichte wurden danach neuerlich 1311 und etwa 1370 abgehalten. Zu den schwersten Verfolgungen kam es zwischen 1391 und 1398 unter dem Inquisitor Petrus Zwicker: Allein im Jahr 1397 wurden nach Angaben des Chronisten Preuenhueber. Im selben Jahr wurden auf dem "Ketzerfriedhof" zwischen 80 und 100 Personen verbrannt. Hieran erinnert das 1997 in Steyr errichtete Waldenserdenkmal. Das rasche Aufblühen der Stadt im 14. Jahrhundert förderte den Zuzug von Handwerkern hauptsächlich aus Nürnberg. Neben Harnischmachern und Klingenschmieden waren es vor allem Messerer, deren Zunftbrief von 1406 zu den ältesten Österreichs gehört. Die Steyrer Messerer waren tonangebend im gesamten süddeutschen Raum. Mitte des 15. Jahrhunderts erreichte die Stadt ihren wirtschaftlichen Höhepunkt. Steyr war damals neben Wien die wohlhabendste und vornehmste Stadt Österreichs. Neuzeit. Die weitreichenden und innigen Handelsbeziehungen Steyrs zu den bedeutendsten Handelszentren Europas machten die Bewohner empfänglich für neue Ideen und Strömungen. Preuenhueber schreibt in den "Annales Styrenses", dass zur Advent- und Fastenzeit Franziskanermönche von außerhalb in den Städten predigten und Beichte hörten. Die Lehre Luthers, 1525 so vom Barfußmönch "Calixt" in der Stadt verbreitet, wurde von den Steyrern beifällig aufgenommen. Fast geschlossen traten die Bürger und Handwerker zum neuen Glauben über. Am Beginn der Gegenreformation gab es in der Stadt nur mehr 18 katholische Familien. Steyr erlebte in dieser Zeit eine kulturelle Blüte und gehörte zu jenen wenigen Städten Österreichs, in denen der Meistergesang gepflegt wurde, der erst in den Wirren der Gegenreformation verstummte. Anfang Juli 1572 suchte das bisher verheerendste Hochwasser die Stadt heim. Als Reaktion darauf wurde 1573 das Neutor am Eingang zum Grünmarkt als Wasserschutzbau errichtet. An der Südwand von Haus Nr. 4 in Zwischenbrücken (Café Werndl) sind Hochwassermarken angebracht. Demnach stand das Hochwasser 1572 deutlich höher als 2002. a> (Erste Hälfte des 17. Jahrhunderts) Die ersten Anzeichen für den Niedergang des Eisenwesens machten sich bemerkbar: Handwerker klagten, dass Eisenhändler gewinnbringend ins Ausland verkauften und dem ansässigen Gewerbe so nur zweitklassige Ware bliebe. 1583 kam es daher zur Gründung der "Eisenhandlungskompanie", die dem unlauteren Handel ein Ende bereiten sollte. Die in sie gesetzten Erwartungen erfüllten sich jedoch nicht. Der Ausbruch des Dreißigjährigen Krieges, Gegenreformation und der große oberösterreichische Bauernkrieg – zwei seiner Drahtzieher waren Steyrer Bürger – führten zum wirtschaftlichen Niedergang der Stadt. Die Verpfändung Oberösterreichs an Baiern 1620 und die rigorosen Maßnahmen der Gegenreformation unter Graf Herberstorff, die im Frankenburger Würfelspiel ihren grausigen Höhepunkt fanden, führten zur Erhebung der Bauern 1626. Mit 40.000 Bauern kam der Führer der Aufständischen, Stefan Fadinger, nach Steyr, wo er in Stadtrichter Wolfgang Madlseder und Dr. Lazarus Holzmüller wichtige Verbündete fand. Nach der Niederschlagung des Aufstandes wurden die Rädelsführer enthauptet und gevierteilt. Die Einquartierung von Truppen, die dadurch entstehenden Kosten, die katastrophale Wirtschaftslage und der 1625 ergangene Ausweisungsbefehl für Protestanten hatte die Auswanderung von 228 Steyrer Familien zur Folge. Viele sahen ihre einzige Hoffnung in der Emigration. Es waren Steyrer Messerer, die die berühmte Solinger Stahlwarenerzeugung gründeten. Diese Entwicklung wirkte sich auch fatal auf das Eisenwesen aus. 1620 warteten 300.000 Zentner Stahl in Steyr auf ihre Abnehmer. Um das darniederliegende Eisenwesen zu beleben, kam es 1625 zur Gründung der Innerberger Hauptgewerkschaft, der Vereinigung von Radmeistern, Hammerherren und Eisenhändlern zu einem Konzern, aus dem später die Alpine Montangesellschaft hervorgehen sollte. Von 1625 bis etwa 1630 arbeitete der Historiograph Valentin Preuenhueber an den bereits erwähnten "Annales Styrenses", der ersten Geschichte der Stadt Steyr. Da Preuenhueber jedoch 1629 als Protestant Österreich verlassen musste, dauerte es mehr als hundert Jahre, bis das Werk gedruckt vorlag (Nürnberg 1740). Mit dem Barock erlebte die Stadt nach der Türkengefahr ein neues Aufblühen. Der Großhandel mit dem Eisen war zwar versiegt, die Verarbeitung des steirischen Eisens währte aber fort. In dieser Zeit entstanden in Steyr einige interessante Bauten, wie die Michaelerkirche oder die Wallfahrtskirche von Christkindl am Rande der Stadt. In der Josefinischen Zeit, die nicht nur durch die Klosteraufhebungen geprägt wurde, machte sich in Steyr eine wirtschaftliche Aufwärtsbewegung bemerkbar. Durch die Umwandlung von bestehenden Handwerksbetrieben und die Gründung neuer Werkstätten wurde der Grundstein für die spätere Industrialisierung der Stadt gelegt. Am 29. August 1727 wurde Steyr von einer verheerenden Feuersbrunst heimgesucht, die nicht nur große Teile der Altstadt, sondern auch die Styraburg mit ihren Giebeln, Türmen und Erkern vernichtete. Am selben Platz entstand das barocke Schloss Lamberg. 19. Jahrhundert. Französische Kanonenkugel in der Mauer des Hauses Stadtplatz 26 In der Zeit der Franzosenkriege wurde die günstige Entwicklung der Steyrer Wirtschaft jäh unterbrochen. Innerhalb von zehn Jahren besetzten französische Truppen dreimal die Stadt: 1800, 1805 und 1809. In der heutigen Löwenapotheke wurde am 25. Dezember 1800 der Waffenstillstand zwischen Österreich und Frankreich unterzeichnet, dem 1801 der Friede von Lunéville folgte. Um das Revolutionsjahr 1848 gab es auch in Steyr Krawalle und Unruhen. Als die Stadt am 6. Juni 1849 regierungsfeindlichen Husaren den Durchmarsch gestattete, führte dies zu schweren Verstimmungen mit dem Kaiserhaus. In der Folge bemühte sich die Stadt um Schadensbegrenzung: Der Gemeinderat beschloss der Errichtung eines Votivaltars in der Stadtpfarrkirche, anlässlich der Rettung des Kaisers vor dem Attentat 1853. Am 27. September 1857 besichtigte das Kaiserpaar den in der Wiener Minoritenkirche ausgestellten Altar. Im Spätsommer 1855 brach in und um Steyr die Cholera aus. Prominentestes Todesopfer war der Waffenproduzent Leopold Werndl. Sein Sohn Josef Werndl begründete die Steyrer Großindustrie. Im Rahmen der Feierlichkeiten zum 900-jährigen Bestehen besuchte Kaiser Franz Josef I. am 23. August 1880 die Stadt. Nach dem Empfang durch Honoratoren am Bahnhof um sechs Uhr morgens fuhr die Gesellschaft zum Rathaus, vor dem ein Festzug abrollte. Danach wurden die Gewerbeausstellung, die Versuchswerkstätte und die Werndlsche Waffenfabrik besichtigt. Dem kaiserlichen Besuch gewidmet ist das 1893 enthüllte "Bürgerschaftsfenster" in der Stadtpfarrkirche. Im Hauptbild empfängt der Heilige Dominikus aus der Hand Mariens einen Rosenkranz. Die Inschrift lautet: "Gewidmet von der Bürgerschaft Steÿr zur Erinnerung an die durch die Anwesenheit Sr. k. k. Apostolischen Majestät Franz Josef I. verherrlichte Jubiläumsfeier im August 1880 des 900 jährigen Bestandes der Stadt und des 500 jährigen des uniformirten Bürgercorps in Steÿr." Anton Bruckner suchte Steyr öfters auf und spielte auf der Chrismannorgel in der Stadtpfarrkirche. Ab 1884 verbrachte er mehrere Sommer in der Stadt und komponierte Teile der 8. und 9. Sinfonie, daran erinnert eine Tafel am Alten Pfarrhof. Steyr errichtete 1898 dem Komponisten das erste Denkmal (Brucknerplatz bei der Stadtpfarrkirche). Die Büste führte Victor Tilgner aus, den Sockel und das übrige Beiwerk Fritz Zerritsch. Während des Zweiten Weltkriegs wurde das Denkmal entfernt und im September 1945 wieder aufgestellt. Franz Schubert hielt sich 1819, 1823 und 1825 in Steyr auf. Die ersten beiden Male wohnte er im Stalzerhaus (Nr. 34), das letzte Mal im Haus Nr. 16 (Schuberthaus). Entstehung der Steyrer Großindustrie. Bereits im späten Mittelalter siedelten sich im Wehrgraben Gewerbebetriebe an und nutzten die Wasserkraft der Steyr. Dazu wurde ein System von Kanälen angelegt, das im Wesentlichen bis heute erhalten ist. Im 18. Jahrhundert begannen hier ansässige bürgerliche Meister mit der Erzeugung von Säbeln, Bajonetten und Gewehrbestandteilen. 1830 gründete schließlich Leopold Werndl einen Betrieb, in dem er mit 450 Arbeitern Gewehrbestandteile erzeugte. Dem Sohn, Josef Werndl, gelang der große Schritt vom einfachen Unternehmer zum Großindustriellen. In wenigen Jahren baute er die Fabrik seines Vaters zu einer der größten und modernsten Waffenfabriken der Welt aus. Anlässlich der "Electrischen-Landes-Industrie-Forst und culturhistorischen Ausstellung" 1884 (2. August bis 30. September) ließ Josef Werndls OEWG einen Teil der Stadt vorübergehend elektrisch beleuchten. Die benötigte elektrische Energie stammte von Dynamomaschinen in verschiedenen Objekten der Waffenfabrik. Neu daran war, dass dieser Strom nicht nur aus Dampfkraft, sondern auch aus Wasserkraft gewonnen wurde. In der ehemaligen Heindlmühle in Zwischenbrücken war eine Turbine installiert, die mit zwei Dynamomaschinen gekoppelt bei durchschnittlich 850 Umdrehungen pro Minute Strom mit 450 Volt und 8 Ampere erzeugte. Werndl baute somit die ersten leistungsfähigen Laufkraftwerke. Am 19. August besuchte Kaiser Franz Josef die Ausstellung, Kronprinz Rudolf und Kronprinzessin Stephanie folgten am 19. September. Schleifung der mittelalterlichen Befestigungsanlagen. Aufnahme von 1857. Die Stadtmauer am Ennskai wird abgebrochen Ab 1829 wurden die mittelalterlichen Befestigungsanlagen Schritt für Schritt geschleift. Als Erstes fiel das "Steyrtor" in Zwischenbrücken. Fürst Lamberg ließ 1838 die Zwingmauer und das den Schlossberg versperrende Tor abbrechen. Nachdem Anfang Mai 1842 ein Brand große Schäden in den Vorstädten "Steyrdorf", "Bei der Steyr" und "Wieserfeld" anrichtete, wurde im selben Jahr das Schuhbodentor in der Schuhbodengasse abgetragen. 1843 folgten das ebenfalls abgebrannte Gleinkertor in der Gleinkergasse und das Brittingertor in der Kirchengasse. Im März 1844 verschwand das "innere Gilgentor" bei der Stadtpfarrkirche und das "Frauentor" in der Frauengasse 1848. Ein kastellartiges Festungstor außerhalb der Stadtpfarrkirche wich 1846 einem Villenbau. Ab 1848 wurde der Graben bei der Stadtpfarrkirche aufgefüllt und die dortige Mauer und der Zwinger abgebrochen. So konnte der Brucknerplatz angelegt werden. Ab Ende Mai 1848 wurde das Wieserfeld planiert. Die Reste des "alten Gilgentores" existieren seit 1852 nicht mehr und ein Torturm in der Langen Gasse in Ennsdorf (Haratzmüllerstraße) seit 1855. Ab Anfang 1857 wurde die Stadtmauer im Bereich des heutigen Ennskais beseitigt, das mächtige "Ennstor" in Zwischenbrücken 1864. Josef Werndl ließ 1870/71 den Stadtgraben größtenteils zuschütten und die Promenade erweitern. Die Kosten betrugen etwa 8000 fl. 1891 fiel das "Örtltor" in der Schlüsselhofgasse. Heute sind von der Befestigung noch einige Reste erhalten, wie etwa das Schnallentor, das Neutor und das Kollertor. Ein Teil der ehemaligen Stadtmauer trennt die Promenade von der Berggasse, die Häuser in diesem Bereich sind an die Stadtmauer angebaut. Beim Brucknerplatz, hinter der ehemaligen Musikschule, blieb ein kurzer Abschnitt des Stadtgrabens erhalten, der 2007 öffentlich zugänglich gemacht wurde. Unterhalb der Stadtpfarrkirche und des Stadtpfarrhofes befinden sich ein Wehrturm und ein weiterer teils erhaltener Abschnitt der Stadtmauer bis zum Neutor. Frühes 20. Jahrhundert. Mitte September 1916 wurde Steyr Schauplatz eines Streiks von 6000 Arbeitern, die damit ihrer Unzufriedenheit über die herrschende Lebensmittelknappheit Ausdruck verleihen wollten. Das Ende der Monarchie bewirkte eine Umkehrung der Machtverhältnisse. Bis 1918 waren bürgerlich-deutschnationale Kreise tonangebend – durch das allgemeine freie Wahlrecht wandelte sich Steyr zur sozialistischen Arbeiterstadt. Am 1. Jänner 1919 wurde nach dem Vertrag vom 8. Oktober 1917 die heutige Katastralgemeinde Gleink eingemeindet. "Aichet, Wieserfeld, Bei der Steyr" und "Steyrdorf" bildeten den zweiten Stadtbezirk "Steyrdorf". Nach Gemeinderatsbeschluss von 21. Juni 1919 wurde Steyr in folgende Bezirke unterteilt: "Stadt, Steyrdorf, Stein, Ort, Ennsdorf". Zwischen 1926 und 1927 ließ der Bestattungsverein „Die Flamme“ vom Architekten Franz Koppelhuber das erste oberösterreichische Krematorium errichten. Die Eröffnung war am 26. Juni 1927, Ende 1939 erwarb es die Stadt um 115.000 Reichsmark. Von Koppelhuber stammt auch das Kriegerdenkmal bei der Stadtpfarrkirche. Die wirtschaftlichen Schwierigkeiten der Ersten Republik verschonten auch Steyr nicht und die Arbeitslosigkeit blieb bis 1938 ein gravierendes Problem. Die Weltwirtschaftskrise von 1929 verschärfte die Lage: Zwischen dem 30. Juni 1929 und dem 25. Jänner 1930 entließen die Steyr-Werke, der größte Arbeitgeber, 70 % ihrer Belegschaft. Die finanzielle Lage wurde prekär: Weder die Abtretung der städtischen Polizei an den Bund, noch der Verkauf des Krankenhauses an das Land Oberösterreich konnten daran etwas ändern: Am 24. Oktober 1931 erklärte die Gemeinde den Bankrott. Ende November 1932 waren 4359 Personen als arbeitslos gemeldet. Es kam immer wieder zu Auseinandersetzungen zwischen bürgerlicher Heimwehr und sozialistischem Schutzbund. Die Februarkämpfe 1934 in vielen österreichischen Städten erfassten auch Steyr, der Widerstand des verbotenen Schutzbundes wurde jedoch durch Militär, Bundespolizei und Schutzkorps rasch gebrochen. Am 17. Februar 1934 begannen im Kreisgerichtsgebäude die Prozesse gegen die Aufständischen. In der Folge blieb die Stadtleitung bis zum Anschluss Österreichs 1938 bürgerlich klerikal. Am 1. April 1935 kamen die Ortschaften "Neuschönau, Jägerberg" und "Ramingsteg" aus der Gemeinde St. Ulrich hinzu. Aus den nicht einbezogenen Teilen Jägerbergs wurde die neue Katastralgemeinde St. Ulrich gebildet. Nationalsozialismus und Zweiter Weltkrieg. Die umfangreichsten Erweiterungen erfolgten 1938. Nach Beschluss vom 15. Oktober kamen folgende Gebiete hinzu: "Münichholz, Hinterberg, Gleink, Grünberg, Stein, Christkindl" und "Garsten". Die "Wohnungs AG der Reichswerke Hermann Göring" errichtete in Münichholz (Minichholz) 2500 Wohnungen und zog damit einen komplett neuen Stadtteil hoch. Im Zweiten Weltkrieg erlitt Steyr als Industriestandort und somit als strategisches Bomberziel schwere Zerstörungen und Verluste. Der erste Angriff erfolgte am 23. Februar 1944 durch die amerikanische Fifteenth Air Force als Teil der „Big Week“. Er forderte 15 Tote und 55 Verletzte. Beim zweiten Angriff am 24. Februar starben 212 Menschen, 371 wurden verletzt. Knapp 1000 Bomben wurden auf Steyr abgeworfen. 112 Gebäude wurden dabei zerstört und an die 400 schwer beschädigt. Von 1942 bis 1945 war der Stadtteil Münichholz Standort für das KZ-Nebenlager Steyr-Münichholz. Dort waren bis zu 3090 Häftlinge untergebracht, die in den Steyr-Werken zur Rüstungsproduktion herangezogen wurden und für den Bau von Straßen und Luftschutzbunkern in Steyr herhalten mussten. Am 5. Mai 1945 zogen Amerikaner in Steyr ein, am 9. Mai folgten sowjetische Truppen aus dem Osten. Sie befreiten Steyr nicht nur von der nationalsozialistischen Herrschaft, sondern auch die zahlreichen Zwangsarbeiter in den Lagern rund um die Hermann-Göring-Werke. Durch die zahlreichen Flüchtlinge und Soldaten stieg im Mai 1945 die Bevölkerungszahl auf 103.000 an. Nachkriegszeit 1945 bis 1955. Die Probleme der Stadtverwaltung nach dem Weltkrieg waren vor allem die Beseitigung der Bombenschäden sowie die Wiederherstellung und Verbesserung der Infrastruktur. In der langen Steyrer Stadtgeschichte gibt es keinen Zeitabschnitt, der eine so umfangreiche Neugestaltung aufweisen konnte wie dieser. Errichtet wurden zahlreiche Wohn- und Schulbauten, Bäder und Sportanlagen, Bildungseinrichtungen, Fernheizwerke, die neuen Brücken über Enns und Steyr und mehrere neue Betriebe. Jüngste Geschichte. 1972 bis 1978 kam es zu einer erbitterten Auseinandersetzung einer Bürgerinitiative mit der Steyrer Kommunalverwaltung wegen der Erhaltung des historischen Wehrgrabens. Während die Bürgerinitiative die denkmalgerechte Erhaltung des historischen Stadtteiles forderte, plante die Stadt Steyr, sowohl die Gerinne zuzuschütten als auch zahlreiche bauliche Umgestaltungen vorzunehmen. Der Streit endete nicht zuletzt durch die engagierte Unterstützung des Steyrer Kunstprofessors Heribert Mader und zahlreicher Medien mit einem Sieg für die Erhalter des Stadtteiles. 1979 erfolgte der Baubeginn des BMW-Motorenwerkes, das seither zum größten Betrieb in Steyr avancierte. 2004 beschäftigte BMW in Steyr 2800 Mitarbeiter. Mittlerweile produziert die BMW Motoren GmbH Steyr über 1 Million Motoren (4 und 6 Zylinder Benzin- und Dieselmotoren). Etwa 80% aller Fahrzeuge der Marke BMW werden von einem Motor, produziert in Steyr, angetrieben. Im Werk Steyr werden sämtliche Dieselaggregate von BMW entwickelt. Im Jahr 1980 feierte die Stadt ihr 1000-jähriges Bestehen, zu diesem Anlass wurde Schloss Lamberg seit 1977 restauriert – 1980 beherbergte es die Landesausstellung über die Hallstattkultur. Das mehrtägige Stadtfest am Stadtplatz war ursprünglich als Event zur 1000-Jahr-Feier gedacht, seitdem wird es jedoch jährlich im Juni neu ausgerichtet. Im Herbst eröffnete das in den späten 1950ern geschlossene alte Theater an der Promenade neu (siehe auch Abschnitt Theater). Die österreichische Post veröffentlichte am 4. Juni 1980 die Sonderpostmarke "Tausend Jahre Steyr" mit einem Kupferstich aus dem Jahr 1693. Hochwasser am 2. Juni 2013 Ab 1988 begann die Zerteilung und der Verkauf der Steyr-Daimler-Puch AG. Den Beginn machte der schwedische SKF-Konzern, der das angeschlagene Steyrer Wälzlagerwerk übernahm. Am 12. September 1989 stimmte der Aufsichtsrat von Steyr-Daimler-Puch dem Verkauf des LKW-Werkes an den deutschen Konzern MAN zu. Auch die deutsche Zahnradfabrik (ZF) und der Magna-Konzern von Frank Stronach kauften sich in Steyr ein. Die von 1903 bis 1905 errichtete Trollmann-Kaserne am Tabor (Rooseveltstraße) wurde nach dem Infanterie-General Ignaz Trollmann benannt. Auf dem seit 2001 aufgelassenen Kasernenareal wurden die meisten Gebäude abgebrochen um einem geplanten Einkaufszentrum Platz zu machen (Stand Oktober 2014). Die Stadt ist durch ihre Lage an zwei Flüssen häufig von stärkeren Überflutungen betroffen, wie zuletzt am 2. Juni 2013. Im Sommer 2002 verursachte heftiger Starkregen ein Jahrhunderthochwasser: Die Enns stieg am 12. August 2002 auf 1040 cm und überflutete den Stadtplatz. Geschichte der jüdischen Einwohner. Juden sind seit dem 14. Jahrhundert in der Stadt nachweisbar: 1371 verbot Herzog Albrecht III. ihnen den Handel mit Wein und Getreide. 1420 wurden Garstner Juden der Hostienschändung beschuldigt und in Wien gefangen genommen. Das Toleranzpatent Josephs II. brachte 1782 eine rechtliche Besserstellung. Die Zahl der jüdischen Einwohner blieb im 19. und 20. Jahrhundert relativ gering. 1851 und 1852 ließen sich Familien aus Böhmen in der Stadt nieder, 1855 gab es sieben Familien. Die Volkszählung 1857 wies 50 Israeliten in 16 Familien aus, die fast ausschließlich "Hausier- und Tauschhandel mit rohen Produkten und Waren" betrieben. Ein "Israelitischer Cultusverein" stammt vom 3. November 1870. Ab April 1874 richtete dieser eine eigene jüdische Begräbnisstätte am Taborfriedhof ein. 1894 wandelte sich der "Cultusverein" zur Kultusgemeinde. Diese kaufte am 31. Oktober desselben Jahres eine ehemalige Gastwirtschaft in der Bahnhofsstraße und richtete darin ein Bethaus ein. Ende 1891 wohnten 174 Israeliten in der Stadt. Ein jüdischer Frauenverein datiert von 1930. Zur Zeit des Anschlusses 1938 gab es in Oberösterreich mit Linz und Steyr zwei israelitische Kultusgemeinden. Im Juli 1938 setzten die ersten Verhaftungen von Steyrer Juden ein. Die Kultusgemeinde wurde am 1. Oktober 1938 von der Gestapo aufgelöst, das Bethaus in der Bahnhofstraße war schon zuvor „arisiert“ worden und entging so der Zerstörung. Nach dem Zweiten Weltkrieg waren viele jüdische Flüchtlinge in Steyr untergebracht: Das Lager für Displaced Persons (DP) in der Artilleriekaserne beherbergte damals durchschnittlich 1800 von ihnen. Zu Beginn 1948 wurde es in die Verwaltung der Kommission der International Refugee Organization (IRO) übernommen. Eine neugegründete Kultusgemeinde löste sich durch den allmählichen Wegzug bald wieder auf – 1959 gab es nur noch fünf Personen jüdischen Glaubens in Steyr. Politik. Der Steyrer" Gemeinderat" besteht aus 36 Mitgliedern, welche den Titel Gemeinderat (Gemeinderätin) führen. Die Mitglieder werden von allen Bürgern mit ordentlichem Wohnsitz in Steyr, auf eine Dauer von sechs Jahren gewählt. Die Sitzungen des Gemeinderates sind öffentlich und finden etwa alle sechs bis acht Wochen im Rathaus statt. SPÖ 19, ÖVP 8, FPÖ 6, GRÜNE 3. "Stadtsenat:" Der Steyrer Stadtsenat besteht aus dem Bürgermeister, drei Vizebürgermeistern und vier weiteren Mitgliedern, die den Titel Stadtrat/Stadträtin führen. Sie alle werden aus der Mitte des Gemeinderates gewählt. Die Stärke der politischen Parteien im Stadtsenat richtet sich nach der Zahl der Sitzverteilung im Gemeinderat. Die Sitzungen des Stadtsenates finden in der Regel 14-täglich statt und sind nicht öffentlich. Den Vorsitz hat der Bürgermeister. SPÖ 5, ÖVP 2 und FPÖ 1. Bauten. Steyr zeigt sich durch seinen frühen Aufschwung, und die bis in die heutige Zeit andauernde wirtschaftliche Entwicklung in seinem Stadtbild vielfältig, mit Ensembles von der Gotik bis in die Industrielle Architektur. Der Stadtplatz ist eines der besterhaltenen Altstadtensembles im deutschsprachigen Raum. Steyr ist Mitglied im Verband "Kleine historische Städte." Stiegenanlagen. Weitere Stiegen verbinden die Ennsleite mit dem tiefer gelegenen Stadtteil Ennsdorf und den Tabor mit dem entlang der Enns verlaufenden Steinwändweg. Musik. Bedeutende Musiker wirkten in Steyr, unter anderem Anton Bruckner und Franz Schubert. Anton Bruckner hatte enge Beziehungen zum Steyrer MGV Sängerlust, der 2014 sein 170 Bestandsjubiläum feiert. Originale aus der Feder von Anton Bruckner befinden sich im Archiv des Steyrer MGV Sängerlust. Der Steyrer MGV Sängerlust unterstützte auch immer wieder das Musikfestival Steyr mit seiner Mitwirkung unter anderem bei Beethovens 9° Sinfonie Ode an die Freude und Marc-Antoine Charpentiers Te Deum. Kinos. Der Neubau des damaligen "Cityplexxx" bei der Industriehalle (Ende Mai 2010) Zuerst gab es lediglich Wanderkinos bei Veranstaltungen und großen Märkten. Am Grünmarkt eröffnete 1908 mit dem "Steyrer Biograph" das zweite ortsfeste Kino Österreichs (das erste bestand bereits seit 1900 in Wels). Das "Biograph" schloss 1974. Ab 1924 gab es das "Volkskino" in der Industriehalle (Stadttheater), 1951 wurde es umgebaut. Ende 1948 eröffnete ein "Colosseum Kino" in der "Mitteren Gasse" (verbindet den Wieserfeldplatz mit der Sierningerstraße). Von 1948 bis 1973 bestand das "Kino Münichholz" im gleichnamigen Stadtteil und bis 2003 das "Zentralkino" in der Färbergasse. Das "Cityplexxx" am Hermann-Leithenmayr-Platz (Industriehalle) schloss am 26. Januar 2011, am 15. April 2011 eröffnete am selben Ort das "City Kino". Es ist das einzige Kino direkt in der Stadt. Inzwischen wurde die Umrüstung auf Digitaltechnik vollzogen. Gesundheit. Der 1916 eröffnete Altbau des Krankenhauses Das LKH Steyr ist ein Schwerpunktkrankenhaus an der Sierningerstraße 170. Die dortige "Schule für allgemeine Gesundheits- und Krankenpflege Steyr" bietet unter anderem ein Studium der Pflegewissenschaften sowie eine Ausbildung zu diplomierter Krankenschwester bzw. Krankenpfleger. Der älteste Teil ist der 1916 eröffnete schlossartige Altbau. 1930 ging das Haus von der Stadt Steyr in den Besitz des Landes über. Seit 1935 wurde das Krankenhaus nach und nach erweitert, die letzten Schritte waren ein Psychiatrie-Neubau 2005 und Neubauten für Orthopädie, HNO, Unfallchirurgie, OP und Verwaltung und Versorgung im Jahr 2006. Seit 2008 ist es ein „Lehrkrankenhaus“ der Medizinischen Universität Innsbruck. Polizei. Als Sicherheitsbehörde für die Stadt fungiert die Landespolizeidirektion Oberösterreich über ihre Außenstelle, das Polizeikommissariat Steyr. Ihr unterstellt als Dienststelle des Wachkörpers für das Stadtgebiet ist das Stadtpolizeikommando Steyr, welches über vier Polizeiinspektionen und ein Polizeianhaltezentrum verfügt. Eisenbahnen. Steyr liegt an der Rudolfsbahn. Es gibt regelmäßigen Zugsverkehr nach Linz (über Sankt Valentin, mit Anschluss an die Westbahn) sowie nach Kleinreifling. Der Streckenabschnitt von St. Valentin nach Steyr wurde im Jahr 1868 eröffnet. Die heutige Gestaltung des Hauptbahnhofs mit Überbauung der Gleisanlagen (Parkhaus, regionaler Busbahnhof) und überdachtem Mittelbahnsteig besteht seit November 1998. Die 1889 eröffnete und 1982 eingestellte schmalspurige Steyrtalbahn führte von dem am westlichen Stadtrand gelegenen Bahnhof Steyr-Lokalbahn nach Grünburg, Molln und Klaus, mit einer Zweigstrecke nach Sierning und Bad Hall, sowie in die andere Richtung in das nahe gelegene Garsten mit Anschluss zur Rudolfsbahn. Der Abschnitt von Steyr-Lokalbahn nach Grünburg ist als Museumsbahn erhalten. Züge verkehren während der Sommermonate und in der Adventszeit jeweils an Sam.-, Son.- und Feiertagen. Straßen. Durch die Autostraße B309 (Steyrer Straße) ist die Stadt seit Herbst 2010 an die A1 angebunden. Zuvor besaß Steyr keinen Anschluss an das hochrangige Straßennetz. Zu den durch das Stadtgebiet verlaufenden Bundesstraßen gehören die Voralpen Straße B122 nach Sattledt sowie die Eisenstraße (B115) über Hieflau, Eisenerz und den Präbichl-Pass nach Leoben und Traboch. Buslinien. Postbusse verkehren unter anderem nach Linz, Kirchdorf an der Krems, Amstetten und Wels. Für den öffentlichen Nahverkehr innerhalb der Stadt ist der Stadtbus Steyr zuständig. Von der Vorweihnachtszeit bis Silvester verkehrt jedes Jahr eine Oldtimer-Buslinie zwischen dem Steyrer Stadtplatz und dem Pfarrhof Christkindl. An einzelnen Tagen werden außerdem die Katastralgemeinde Gleink (Martinimarkt) und die Nachbargemeinde Garsten (Garstner Advent) angefahren. Historische Schifffahrt. Schifffahrt, Flößerei und Holztrift auf den Flüssen Enns und Steyr waren für die historische Entwicklung der Stadt Steyr von entscheidender Bedeutung. So gelangten Roheisen vom steirischen Erzberg und Holz bzw. Holzkohle für den Betrieb der Schmiedehämmer nach Steyr. Bis 1890 befuhren Ladenkarl genannte Einmannflöße die Steyr. Danach lieferte die Steyrtalbahn das Holz. Für die Stromaufwärtsschifffahrt wurde an der Enns bis nach Hieflau ein Treppelweg errichtet. Im Gegenzug wurden vor allem Nahrungsmittel transportiert. Nach der Errichtung der Eisenbahn verlor die Ennsschifffahrt an Bedeutung. Dennoch gab es ca. 100 Jahre lang ein Nebeneinander von Eisenbahn und Schifffahrt bis beim Bau der Kraftwerke um 1960 auch die Flößerei auf der Enns ganz eingestellt wurde. An die Flößerei erinnert heute ein 1980 errichtetes Denkmal an der Ennsbrücke nahe der Steyrmündung. Vor dem Bau der Kraftwerke war die Enns auch für die Sportschifffahrt von großer Bedeutung. Parks. Ab 1476 wurde unter "Johannes Beckenschlager", dem geflohenen Erzbischof von Gran und späteren Erzbischof von Salzburg bei der Styraburg (heute Schloss Lamberg) erstmals ein Burggarten angelegt. Im März 1844 erhielt der damalige französische Ziergarten seine heutige Gestaltung als englischer Landschaftspark. Öffentlich zugänglich ist er seit 23. Juli 1919 und mit 1. August nahm ihn die Stadtgemeinde in Pacht. 1938 übernahm die Reichsforstverwaltung den Park zusammen mit dem Allodialbesitz des Grafen Lamberg und 1942 ging dieser Besitz an den Reichsgau Oberdonau über. Von diesem erwarb die Stadt den Park zusammen mit Glashäusern, Wasserturm und Gartenpavillon. Der Gartenpavillon (Blumauergasse 1) blieb lange ungenutzt und wurde erst 1969/72 revitalisiert, die letzte Renovierung war 2002. Die Dreifaltigkeitssäule beim Eingang Blumauergasse stammt von 1714 und stand früher an der Leopold-Werndl-Straße. Ihren heutigen Platz erhielt sie 1974. Von 6. April bis 8. Mai 1875 wurde die 1870/71 erweiterte Promenade bepflanzt. Die Kosten dafür betrugen 2821 fl. 88 kr. Der Beschluss des Gemeinderats für die Benennung des Parks in "Enrica-von-Handel-Mazzetti Promenade" fiel am 29. Dezember 1931. Frei- und Hallenbäder. Die Schwimmschule (Wehrgrabengasse 61) besteht an diesem Ort seit 1874. Sie war ursprünglich für die Arbeiter der Werndl-Werke und deren Kinder bestimmt. Das Bad ersetzt eine ältere 1863 eröffnete Anstalt auf dem Kohlanger bei der Wehrgrabenwehr, die 1873 dem Neubau des Objekts VI (6) der Waffenfabrik weichen musste. Nach Renovierungsarbeiten eröffnete das Bad am 20. Mai 1950 neu, weitreichende Modernisierungen stammen aus den Jahren 1960/61. Sein heutiges Erscheinungsbild erhielt das Bad schrittweise seit 2002, nachdem das damalige Hochwasser schwere Schäden anrichtete. Das Stadtbad (Haratzmüllerstraße 126) wurde auf dem Gelände der ehemaligen Stegmühle errichtet und eröffnete am 20. Juni 1959. Am 18. Dezember 1970 eröffnete ein Hallenbad. 1977 wurde das Stadtbad erneuert und 1978 ein Zubau zum Hallenbad errichtet. Die letzten umfangreicheren Sanierungsarbeiten (Hallenbad, Saunabereich, Wasseraufbereitung) stammen aus den Jahren 2005 bis 2008. Energie. Seit dem Jahre 2012 wird Steyr durch ein Fernwärmenetz mit biogener Wärme aus dem Biomasseheizkraftwerk Steyr versorgt. Alle Großverbraucher der Stadt wie BMW, SKF, die Stadtwerke, die Wohnbauten in Münichholz, Ennsleite, Resthof und Tabor sind an das biogene Fernwärmenetz angeschlossen. Summenformel. Eine Summenformel (auch Bruttoformel genannt) dient in der Chemie dazu, die Art und Anzahl der Atome einer chemischen Verbindung anzugeben. Besteht die Verbindung aus diskreten Molekülen, ist die Summenformel eine "Molekülformel". Für ein Salz wird eine Formeleinheit angegeben, die ihrer stöchiometrischen Zusammensetzung gerecht wird. Eine Summenformel ist oft nicht gleich der Verhältnisformel, die die kleinstmöglichen Zahlenverhältnisse der Atome der beteiligten chemischen Elemente in einer chemischen Verbindung angibt. Aufbau. Die Summenformel einer chemischen Verbindung besteht aus den Elementsymbolen der enthaltenen chemischen Elemente und kleinen, tiefgestellten arabischen Ziffern für deren jeweilige Anzahl in dieser Verbindung. Diese Anzahl der Atome steht als Index immer rechts tiefgestellt neben den Elementsymbolen, wobei die Ziffer „1“ nicht ausgeschrieben wird. Statt „H2O1“ für Wasser wird daher „H2O“ geschrieben. Besteht eine Verbindung aus diskreten Molekülen, gibt eine Summenformel die Zusammensetzung des Moleküls an. Die Summenformel für Dischwefeldichlorid lautet S2Cl2, und für Ethan C2H6. Die Verhältnisformeln lauten SCl bzw. CH3. Für die Reihenfolge der Elemente in Summenformeln gibt es unterschiedliche Strategien. In Tabellenwerken und Datenbanken wird – insbesondere bei organischen Verbindungen – zumeist das Hill-System bevorzugt. Dieses gibt zuerst alle Kohlenstoffatome, dann die Wasserstoffatome an und sortiert alle anderen Atomsymbole streng alphabetisch. Dieses System erleichtert das Auffinden von Verbindungen bei Unkenntnis über den Namen der Verbindung. Für anorganische Verbindungen wird häufig ein anderer Weg gewählt, der den stöchiometrischen Zusammensetzungen der Verbindungen gerecht wird: Das Element höherer Elektronegativität (im Periodensystem in der Regel weiter rechts oder oben) steht in der Summenformel wie auch im Namen des Stoffes üblicherweise rechts von einem Element niedrigerer Elektronegativität. Beispielsweise wird Natriumchlorid als „NaCl“ und nicht als „ClNa“ geschrieben. Bei komplexen Salzen wird erst das Kation mit Zentralatom und seinen Liganden und dann das Anion mit Zentralatom und seinen Liganden angegeben, wie (NH4)2SO4 für Ammoniumsulfat. Anorganische Säuren werden analog zu den verwandten Salzen angegeben. Die Wasserstoffatome stehen anstelle der Kationen vorne, wie beim H3PO4, der Summenformel der Phosphorsäure. Diese Formeln stellen die Formeleinheiten für stöchiometrische Berechnungen dar und nicht die Struktur der Verbindungen. Beispiele und Unterscheidung. Bei einfachen Verbindungen ist die Molekül-/Summenformel oft gleich der "Verhältnisformel", die das kleinstmögliche Zahlenverhältnis angibt. Zur Bedeutung von Summenformeln. Summenformeln werden auch bei der Formulierung von chemischen Reaktionsgleichungen benutzt. Dabei werden die Ausgangs- und Endstoffe der Reaktion (Edukte und Produkte) im Reaktionsschema in der anorganischen Chemie in der Regel in Form von Summenformeln angegeben. Diese bilden damit die Grundlage für stöchiometrischen Berechnungen. In der organischen Chemie werden nur selten Summenformeln verwendet, da sie kaum Informationen enthalten, die für den Ablauf der Reaktionen in der organischen Chemie wichtig sind. Siebenstern. Der Siebenstern ("Trientalis europaea") ist eine Pflanzenart, die zur Unterfamilie der Myrsinengewächse (Myrsinoideae) in der Familie der Primelgewächse (Primulaceae) gehört. Sie wird auch Europäischer Siebenstern genannt. Sein Name leitet sich von den weißen Blüten mit sieben Blütenblättern ab. Es sind kleine Pflanzen, die auf der Nordhalbkugel weit verbreitet sind und auf basenarmen, sauren Böden vorkommen. Beschreibung. Der Siebenstern ist eine ausdauernde, krautige Pflanze. Er überdauert den Winter mit einer kleinen Knolle, aus der der 10 bis 25 Zentimeter hohe Stängel austreibt. Dieser trägt einen Blattquirl und eine oder zwei Blüten. Seine Chromosomenzahl ist 2n = ca. 160. Rhizom, Knolle, Wurzel. Das Rhizom des Siebensterns ist weiß und dünn, es misst 0,6 bis 1,5 Millimeter im Durchmesser und erreicht fünf bis 7,5 Zentimeter Länge. Es wächst meist unverzweigt horizontal etwa 2 bis 5 Zentimeter unter der Erdoberfläche, in Abständen ist es mit schuppenartigen Niederblättern besetzt. An seinem Ende entsteht eine kleine, längliche Knolle, die einen Zentimeter lang und 0,3 bis 0,4 Zentimeter breit wird. Mit dieser Knolle überdauert die Pflanze den Winter, die hakenförmig nach oben gekrümmte Erneuerungsknospe sitzt an der dem Rhizom abgewandten Seite. Die Verbindung zwischen den einzelnen Knollen vergeht sehr bald, so dass voneinander unabhängige Ramets entstehen. Aus jeder Knolle können wieder ein bis fünf Rhizome entspringen. Die Wurzeln entspringen nicht dem Rhizom, sondern nur aus der Knolle. Sie sind oft unverzweigt, können aber einfach oder doppelt verzweigt sein, diese Verzweigungen tragen Wurzelhaare. Das Wurzelsystem befindet sich im Rohhumus und erstreckt sich bis in 15 Zentimeter Tiefe. Gelegentlich wurden arbuskuläre Mykorrhizapilze in den Wurzeln gefunden, allerdings nicht überall und nicht mit großer Intensität. Stängel und Blatt. Aus jeder Knolle entspringt ein einzelner, 10 bis 25 Zentimeter langer Stängel, der einen Blattquirl und die Blüten trägt. Am Spross unterhalb des Blattquirls stehen wechselständig bis zu sechs kleinere Blätter; diese können aber auch ganz fehlen. Die Laubblätter sind einfach, verkehrt-eiförmig bis lanzettlich, an der Basis keilförmig und ohne Blattstiel. Der Blattrand ist glatt, im vorderen Bereich des Blattes manchmal fein gezähnt. Die Farbe der Blätter ist ein glänzendes Grün. Sie stehen zu fünf bis acht (seltener drei bis zehn) in einem Quirl am Ende des Stängels, unterhalb der Blüte, zusammen. Die Maße der Blätter variieren in der Länge von 1 bis 9 Zentimeter, in der Breite von 0,5 bis 1,5 Zentimeter; häufig finden sich an einer Pflanze verschieden große Blätter. Gelegentlich verzweigt sich der Stängel knapp unterhalb der Erdoberfläche und bildet einen weiteren, kleineren Stängel mit Blättern, der meist nicht zur Blüte kommt. Seltener kommen Verzweigungen im oberirdischen Bereich des Stängels vor. Solche Verzweigungen können sich auch rhizomartig verhalten, wieder ins Erdreich wachsen und dort eine Knolle bilden. Blüte und Frucht. Aus ein bis zwei (selten bis vier) Blattachseln entspringt ein fadenförmiger, bis 7 Zentimeter langer Blütenstiel. Die einzelne Blüte an seinem Ende misst 1 bis 2 Zentimeter im Durchmesser, sie ist weiß oder leicht rosafarben. Die Blüten sind meist siebenzählig, seltener treten die Blütenteile zu fünft bis neunt auf. Die Kelchblätter sind linealisch, die Kronblätter oval und zugespitzt. Die Staubblätter sind kürzer als die Kronblätter. Der Fruchtknoten ist oberständig und aus meist fünf Fruchtblättern zusammengesetzt. Die 0,6 Zentimeter große Kapselfrucht öffnet sich fünfteilig und entlässt etwa sechs bis acht Samen. Lebenszyklus. Der Austrieb des Stängels aus der Knolle erfolgt im Frühjahr. Die Blütezeit reicht von Mai bis Juli, gleichzeitig wachsen unterirdisch aus der Knolle die Rhizome. Die Blüten werden von verschiedenen Insekten bestäubt, auch Selbstbestäubung ist möglich. Bis zum Herbst reifen oberirdisch die Samen, unterirdisch bilden sich an den Enden der Rhizome die Knöllchen für die Überwinterung. Etwa im September verwelken Blätter und Stängel, ebenso löst sich unterirdisch die Verbindung zwischen den einzelnen Knollen. Verbreitung. Illustration (links) des Siebenstern ("Trientalis europaea") Die Verbreitung ist eurosibirisch und nordamerikanisch. In den Schweizer Alpen ist der Siebenstern selten zu finden (Vorkommen in den Kantonen Graubünden und Schwyz); er steigt dort bis in Höhenlagen von 2100 Metern. Als Rohhumuspflanze bevorzugt der Siebenstern moosreiche Laub- und Nadelwälder als Standorte. Auch Flachmoore zählen zu seinen Wuchsgebieten. Man findet ihn entlang von Bachläufen, im Sumpf und im Übergangsmoor ebenso wie in humosen Fichten- und Kiefernwäldern. Der Siebenstern ist kalkmeidend. Sankt Goarshausen. Blick auf St. Goarshausen (vorne) und den Rhein; im Hintergrund St. Goar mit Burg Rheinfels Die Loreleystadt Sankt Goarshausen liegt im Rhein-Lahn-Kreis in Rheinland-Pfalz. Die Stadt ist Verwaltungssitz der Verbandsgemeinde Loreley. Bis 1969 war Sankt Goarshausen Kreisstadt des Loreleykreises (bis 1961 Landkreis Sankt Goarshausen). Sankt Goarshausen ist ein staatlich anerkannter Fremdenverkehrsort und gemäß Landesplanung als Mittelzentrum ausgewiesen. Die Stadt gehört seit 2002 zum UNESCO-Welterbe Oberes Mittelrheintal. Geographische Lage. St. Goarshausen liegt am rechten Ufer des Rheins gegenüber von Sankt Goar und ist etwa 30 Kilometer von Koblenz entfernt. Sankt Goarshausen liegt am Fuße der Loreley. Stadtgliederung. Zu Sankt Goarshausen gehören die Stadtteile Ehrenthal, Wellmich und Heide. Geschichte. Urkundlich erwähnt wird St. Goarshausen erstmals im Jahr 1222. St. Goarshausen unterstand ab Ende des 13. Jahrhunderts der Grafschaft Katzenelnbogen und erhielt 1324 durch König Ludwig IV. die Stadtrechte. Die über der Stadt liegende Burg Katz (eigentlich "Burg Neu-Katzenelnbogen") wurde um 1371 durch Graf Wilhelm II. von Katzenelnbogen als Reaktion auf den Bau von Burg Maus (damals unter dem Namen "Burg Peterseck") durch die Trierer Erzbischöfe erbaut. St. Goarshausen fiel mit dem Ende des Grafengeschlechts 1479 an die Landgrafschaft Hessen. Nach Erbteilungen war es von 1583 bis 1806 Teil von Hessen-Kassel und sicherte mit St. Goar als einziges hessisches Gebiet beidseits des Rheins den Landgrafen einträgliche Rheinzölle. Vorübergehend von französischen Truppen besetzt („pays reserve“), kam der Ort nach dem Wiener Kongress (1815) zum Herzogtum Nassau und wurde am 4. April 1816 Sitz des herzoglich nassauischen Amtes St. Goarshausen. Nach der Annexion des Herzogtums Nassau durch Preußen (1866) wurde St. Goarshausen am 1. April 1886 Kreisstadt des durch Teilung des Rheingaukreises neu geschaffenen Landkreises Sankt Goarshausen. Nach dem Ersten Weltkrieg lag die Stadt am Südrand des "Brückenkopfes Koblenz" und war so in den 1920er Jahren der Alliierten Rheinlandbesetzung unterworfen. Die Stadt verblieb bis 1945 im Regierungsbezirk Wiesbaden der Provinz Hessen-Nassau. Nach dem Zweiten Weltkrieg kam die Stadt mit dem ganzen Landkreis in die Französische Besatzungszone und wurde so aus der hessen-nassauischen Verwaltungsstruktur herausgelöst. Sie wurde Teil von Rheinland-Pfalz. Weinbau. Eine der frühesten Nennung von Weinlagen ist der 1315 schriftlich dokumentierte katzenelnbogener "Hetzgenstein" (Heiderstein). Im Jahre 1395 wurde dann die Loreley in den Urkunden Graf Johanns IV. von Katzenelnbogen, des ersten Rieslingwinzers der Welt, als Weinberg dokumentiert. Die besondere Unzugänglichkeit der Weinberge im Mittelrheingraben war schon damals ein Grund, die Weinbergsarbeiter besonders zu entlohnen oder den Zugang zu bestimmten Lagen bei "großer Hitze" einfach zu verbieten. Bergbau. Der Bergbau in den Ortsteilen Ehrenthal und Wellmich als prägendes Element der Kulturlandschaft Oberes Mittelrheintal geht zurück auf das 18. Jahrhundert. In der Grube Gute Hoffnung wurden bis in die Mitte des 20. Jahrhunderts hinein Blei- und Zinkerze abgebaut. Siehe auch: Liste von Bergwerken im Taunus Eingemeindung und Namensänderung. Am 7. Juni 1969 wurde die bis dahin selbständige Gemeinde Wellmich eingemeindet. Am 27. September 1993 wurde der Name von "St. Goarshausen" in "Loreleystadt Sankt Goarshausen" geändert. Stadtrat. Der Stadtrat in Sankt Goarshausen besteht aus 16 Ratsmitgliedern, die bei der Kommunalwahl am 25. Mai 2014 in einer Mehrheitswahl gewählt wurden, und dem ehrenamtlichen Stadtbürgermeister als Vorsitzenden. Bei den vorhergehenden Wahlen wurde der Stadtrat in einer personalisierten Verhältniswahl gewählt. Städtepartnerschaften. Seit Juni 1992 besteht eine Partnerschaft mit der japanischen Stadt Inuyama. Bauwerke. Lage der Burg Katz oberhalb von St. Goarshausen Oberhalb der Stadt liegen die Ruinen der 1806 von den Truppen Napoléon Bonapartes gesprengten Burg Katz (ehemals Burg Neu-Katzenelnbogen), über dem Stadtteil Wellmich die Burg Maus (auch Deuernburg oder Thurnberg genannt). Burg Katz ist nicht zur Besichtigung freigegeben, wohingegen auf Burg Maus regelmäßig eine Vogelflugschau stattfindet. Von dort aus hat man auch einen guten Ausblick auf die gegenüberliegende Ruine der Burg Rheinfels. Erreichbar ist Burg Rheinfels von St. Goarshausen aus mit der Fähre, die nächste Brücke ist 30 km entfernt. Die Evangelische Kirche in St. Goarshausen wurde 1863 von Eduard Zais erbaut. Sie beherbergt eine Orgel aus dem gleichen Jahr von Christian Friedrich Voigt aus Igstadt, die 2006 restauriert wurde. Die kath. Kirche St. Johannes von Hans und Christoph Rummel stammt aus dem Jahr 1923-25. Naturdenkmäler. Bei Sankt Goarshausen liegt der Loreley-Felsen. Ein Besucherzentrum mit Museum informiert vor Ort über Kultur und Wirtschaft der Region. Wirtschaft und Infrastruktur. Hauptwirtschaftszweige sind Tourismus und Weinbau. Von der früheren Bedeutung als Fischer- und Schifferstadt und als Umschlagplatz am Rhein, von dem heute noch der Häuser Kran zeugt, hat St. Goarshausen vieles verloren. Nach dem mit der Verwaltungsreform verbundenen Verlust des Status als Kreisstadt an Bad Ems (siehe Geschichte des Rhein-Lahn-Kreises) übernahm die nahe gelegene und um einiges größere Stadt Nastätten einige Infrastrukturleistungen von St. Goarshausen. Im November 2005 wurde die Kraftfahrzeug-Zulassungsstelle, die sich im ehemaligen Landratsamt befand, nach Nastätten verlegt. Auch die Auflösung der Polizeidienststelle St. Goarshausen (und eine eventuelle Verlegung nach Nastätten) ist in der Diskussion. Im touristischen Bereich emanzipiert sich St. Goarshausen von der Schwesterstadt St. Goar gemeinsam mit der Nachbargemeinde Bornich als Träger des auf der Loreley errichteten Besucherzentrums. Ebenfalls auf dem Loreleyplateau in der Gemarkung Bornich befindet sich die im Jahr 1939 errichtete Freilichtbühne Loreley. Verkehr. Der Ortsteil Wellmich mit Burg Maus Sankt Goarshausen wird über die Bundesstraße 42, die am Rhein entlang verläuft, mit den Großstädten Koblenz und Wiesbaden verbunden. Außerdem beginnt in Sankt Goarshausen die Bundesstraße 274, die über die Hochflächen des Hintertaunus ins Aartal führt. Die Verbindung zwischen Sankt Goar und Sankt Goarshausen wird durch die Fähre Loreley aufrechterhalten. Über das Für und Wider, diese Fähre durch eine Brücke zu ersetzen, wird seit Jahrzehnten gestritten. Das Raumordnungsverfahren für diese Brücke wurde im Januar 2011 eingeleitet und sie wird in den Medien Mittelrheinbrücke genannt. Das Hauptargument für den Bau der Brücke ist ein möglicher wirtschaftlicher Aufschwung. Kritiker weisen darauf hin, dass zur Stärkung der Infrastruktur ein durchgehender 24-Stunden-Fährverkehr ausreicht. Dieser kann aber durch eine private Fährgesellschaft ohne öffentliche Förderung nicht kostendeckend betrieben werden. Eine staatlich betriebene und kostenlose Rhein-Fähre wie in Plittersdorf wird derzeit nicht in Betracht gezogen. Der Bahnhof Sankt Goarshausen liegt an der rechten Rheinstrecke und bindet den Ort mit Zügen über Wiesbaden nach Frankfurt am Main und nach Koblenz an. Bis 1956/57 endete einer der Äste der nassauischen Kleinbahn am Hafenbahnhof und verband den Ort mit Nastätten. Rad- und Wanderwege. Der neue rechtsrheinische Wanderweg über die Höhen des Rheintales, der Rheinsteig, führt über die Loreley. St. Goarshausen ist Startpunkt des Loreley-Aar-Radweges, der am Bahnhof beginnt und über die alte Trasse der Nassauischen Kleinbahn führt. Bildung. St. Goarshausen mit dem Schulgebäude des Wilhelm-Hofmann-Gymnasiums Fest mit der Geschichte St. Goarshausens verwurzelt ist das „Institut Hofmann“, das heute stadtbildprägende „Wilhelm-Hofmann-Gymnasium“. Ende des Zweiten Weltkriegs wurde das alte Institut zerstört und das heutige Gymnasium errichtet. 1984 wurde in St. Goarshausen die "Loreleyhalle" errichtet, die vor allem als Schulsporthalle benutzt wird, aber auch von der Stadt St. Goarshausen und von Vereinen mitbenutzt werden darf. 1991 fand mit dem Aufstocken des rheinseitigen Querbaus die letzte große Erweiterung des Wilhelm-Hofmann-Gymnasiums statt. Slasher-Film. Der Slasher-Film oder Slasherfilm (engl. ' ‚aufschlitzen‘) ist ein Subgenre des Horrorfilms, bei dem eine Gruppe von Teenagern von einem Killer bedroht wird (daher auch teilweise "Teenie-/Teenager-Horrorfilm"). Das Genre erfuhr vor allem in den späten 1970er und frühen 1980er Jahren seine Blütezeit. Ursprünge und Einflüsse. Als wahrscheinlich erster Film der Geschichte nimmt "Thirteen Women" aus dem Jahre 1932 in seiner Schilderung einer Mordserie an jungen Frauen einige Motive des modernen Slasher-Films vorweg. Viele Jahre vergingen, bis 1960 zwei Filme veröffentlicht wurden, die maßgeblich an der Entwicklung des Slashers beteiligt waren. Der erste ist "Augen der Angst", ein zur damaligen Zeit äußerst kontroverser Film, der die Karrieren von Regisseur Michael Powell und Hauptdarsteller Karlheinz Böhm beschädigte. Der Film handelt von Kameramann Mark Lewis, der junge Frauen tötet und ihren entsetzten Gesichtsausdruck im Augenblick ihres Todes auf Kamera festhält. Bei den Morden nimmt der Zuseher das erste Mal konsequent die Perspektive des Täters ein und wird, ähnlich wie Mark im Film, als Voyeur entlarvt, der aus den Morden auf der Leinwand einen gewissen Lustgewinn zieht. Der zweite dieser beiden Filme ist Alfred Hitchcocks "Psycho", in dem Norman Bates, der unter einer multiplen Persönlichkeit leidet, in Gestalt seiner toten Mutter mehrere Morde begeht. Beide Werke präsentieren erstmals den psychisch gestörten Täter als Hauptfigur – ein Trend, dem der „Slasher“ folgen wird. Starken Einfluss auf den Slasher übte der Splatterfilm aus, der 1963 mit "Blood Feast" von Regisseur Herschell Gordon Lewis erfunden wurde. Hauptthema der meist mit niedrigem Budget produzierten Splatterfilme ist die äußerst gewaltsame, meist übertrieben blutige Ermordung junger gutaussehender Frauen. Den Erfolg von "Blood Feast" setzte Lewis mit "Two Thousand Maniacs!" (1964) und "The Wizard of Gore" (1970) fort. Weiteren Einfluss auf den modernen Slasher-Film übte das typisch italienische Thriller-Subgenre Giallo aus, das Mario Bava in den frühen 1960er begründete. Giallos, wie Bavas "Blutige Seide" (1964) und Dario Argentos "Das Geheimnis der schwarzen Handschuhe" (1970), werden als direkte Vorfahren des Slashers gesehen. Ähnlich wie in diesem werden im Giallo hübsche Frauen von einem unbekannten, oft maskierten Mörder, dessen Taten im Kontext einer psychosexuellen Pathologie stehen, getötet. Die Morde stehen dabei im Mittelpunkt des Geschehens und stellen die eigentliche Attraktion des Films dar, während die Ermittlungen zur Aufklärung der Verbrechen lediglich die Rahmenhandlung bilden. Bava ist auch verantwortlich für "Im Blutrausch des Satans" (1971), einen Horrorthriller aus dem Jahre 1971, der als früher Vertreter des Slasher-Genres gilt. Die 1970er Jahre waren die Blütezeit des Exploitationfilms. Zu diesen Filmen zählt man kostengünstig produzierte Filme, die auf der Erfolgswelle bekannterer und erfolgreicherer Werke mitzuschwimmen versuchen. Häufig entsteht so ein wilder Mix aus Horror-, Thriller-, Krimi- und Sex-Elementen. Besonders bedeutsam für die Entwicklung des Slashers waren die sog. Rape-and-Revenge-Filme, in denen vergewaltigte Frauen sich gewaltsam an ihren Peinigern rächen. Beispiele hierfür sind "Ich spuck auf dein Grab" (1978) und "Das letzte Haus links" von Wes Craven (1972). Im Jahre 1974 definierte Tobe Hoopers "Blutgericht in Texas" (1974) das Subgenre des Backwoods-Films. In dieser Filmgattung dreht sich die Handlung um eine Gruppe Stadtbewohner, die in der Provinz in die Fänge unzivilisierter Hinterwäldler geraten, so dass sich Merkmale des Splatters und des Rape-and-Revenge-Films vereinen. Hoopers kontroverser Film bietet zudem ein weiteres Novum, nämlich das erste Final Girl der Filmgeschichte. Frühe Slasher. Als erster „Slasher“ gilt neben Mario Bavas "Im Blutrausch des Satans" gemeinhin Bob Clarks "Jessy – Die Treppe in den Tod" (1974). Der Film ist bekannt dafür, viele filmische Mittel einzuführen, die wenige Jahre später zu den Charakteristika des modernen Slasher-Films werden sollten. Dazu zählen u. a. das serienhafte Töten junger Frauen durch einen unbekannten Täter, das Final Girl als letzte Überlebende, die sich dem Täter stellt, sowie der konsequente Einsatz von subjektiven Point-of-View-Shots aus der Sicht des Killers. Weitere Filme wie "Communion – Messe des Grauens" (1976), "Der Bohrmaschinenkiller" (1978) und "Drive-In Killer" (1976) griffen diese Elemente auf. All diese Einflüsse vereinte Regisseur John Carpenter in seinem Genremeisterwerk "Halloween – Die Nacht des Grauens" (1978) zum ersten richtigen Slasher-Film. "Halloween" kombiniert geschickt die filmischen Mittel und Strukturen seiner Vorgänger und formt daraus die für das Subgenre typischen Konventionen, die fortan von allen Vertretern der Gattung aufgegriffen und zitiert werden. Carpenters Horrorthriller war ein riesiger Erfolg an den Kinokassen und machte dadurch die großen Hollywoodstudios auf das Genre aufmerksam, die hofften, mit ähnlichen Filmen große Profite erwirtschaften zu können. So produzierte und vertrieb etwa das Major-Studio Paramount Pictures Sean S. Cunninghams Überraschungserfolg "Freitag der 13." (1980), der die Genrekonventionen, die "Halloween" vorgegeben hatte, aufgriff und perfektionierte. Nun war der Slasher-Film endgültig publikumsattraktiv und mainstreamtauglich geworden und trat seinen Siegeszug durch die Kinos an. Die Goldenen Jahre. Dem von "Halloween" gestarteten Trend folgten Anfang der 1980er Jahre eine Vielzahl ähnlicher Slasher-Filme, deren Handlungen an Feiertagen oder besonderen Anlässen angesiedelt sind, darunter "Blutiger Valentinstag" (1981), "Ab in die Ewigkeit" (1981), "Rocknacht des Grauens" (1980), "Prom Night – Die Nacht des Schlächters" (1980), "Muttertag" (1980) und "Stille Nacht – Horror Nacht" (1984). Weitere bekannte Slasher aus dieser Zeit sind u. a. "Das Kabinett des Schreckens" (1981), "Hell Night" (1981), "Monster im Nachtexpress" (1980), "Brennende Rache" (1981), "Die Forke des Todes", "Maniac" (1980), "Curtains – Wahn ohne Ende" (1983) und Blutiger Sommer – Das Camp des Grauens (1983). Der Erfolg von "Halloween" und "Freitag der 13." ließ beiden Filmen mehrere Fortsetzungen folgen. Der Fokus verschob sich bei diesen Filmen allerdings weg von der Identifikation mit den Opfern hin zur Identifikation mit den Killern, die dadurch zu den Protagonisten der Filme und Figuren der Populärkultur avancierten. Zudem wurde mehr Wert auf blutigere und bizarrere Morde gelegt, um den steigenden „Blutdurst“ des vorwiegend jugendlichen Publikums zu stillen. Mitte bzw. Ende der 1980er Jahre kamen zwei Franchises auf die Kinoleinwand, die das Slasher-Genre mit übernatürlichen Elementen vermischten: "Nightmare – Mörderische Träume" (1984) und "Chucky – Die Mörderpuppe" (1988). Beide Filme zogen jeweils mehrere Fortsetzungen nach sich. Auf die Erfolgswelle aufspringend wurden auch ältere Filme wie "Blutgericht in Texas" (1974) und "Psycho" (1960) fortgesetzt. Der Niedergang des Genres. Als Ende der 1980er Jahre die Gewinne, die Slasher-Filme an den Kinokassen erzielten, zurückgingen, wurden stetig weniger Filme dieser Art produziert. Auch die großen Franchises "Halloween", "Freitag der 13." und "A Nightmare on Elm Street" mussten Gewinneinbußen verbuchen und brachten deshalb seltener Fortsetzungen auf den Markt. Die zunehmenden Kontroversen und Debatten über Gewalt in den Medien trugen zu dieser Entwicklung bei. Der emporstrebende Videomarkt ermöglichte es unabhängigen Filmemachern, B-Filme als Direct-to-Video-Produktionen auf den Markt zu bringen, darunter auch unzählige billigst produzierte Fortsetzungen früherer Filme. Aufgrund dieser neuen Unabhängigkeit der Filmschaffenden wurden die großen Studios nicht mehr als Produktionspartner gebraucht und waren folglich nicht mehr daran interessiert, derartige Werke zu produzieren. Die Wiedererweckung des Slashers. In der zweiten Hälfte der 1990er Jahre tauchte der Slasher-Film plötzlich wieder aus seiner Versenkung auf und wurde erneut zum erfolgversprechenden Mainstreamgenre. Verantwortlich für diese Wiederauferstehung ist Regisseur Wes Craven und sein Film "Scream – Schrei!" (1996). "Scream" war sowohl bei den Kritikern als auch an den Kinokassen ein enormer Erfolg und leitete eine neue Ära des Slashers ein. Cravens Film ist gleichermaßen Hommage als auch Satire auf die Slasher-Filme der 1980er Jahre und spielt gekonnt mit den Genrekonventionen. Der kommerzielle Erfolg von "Scream" ließ drei Fortsetzungen nachfolgen: "Scream 2" (1997), "Scream 3" (2000) und "Scream 4" (2011). Diese Filme sowie viele ihrer Nachahmer zeichnen sich v. a. durch parodistische Züge, besser entwickelte Charaktere, höhere Budgets und bekanntere Schauspieler aus und unterscheiden sich darin auch von ihren älteren Vorbildern. Überdies wurden die Gewaltszenen im Vergleich zu den Filmen der 1980er entschärft und reduziert. Dem Erfolg von "Scream" folgten einige weitere kommerziell erfolgreiche Slasher, wie z. B. "Ich weiß, was du letzten Sommer getan hast" (1997), "Düstere Legenden" (1998) und "Schrei wenn du kannst" (2001). Aktuelle Trends: Remakes und Reboots. Der Triumph der neuen Slasher-Welle, die auf Wes Cravens "Scream" folgte, hatte auch seinen Einfluss auf die klassischen Genre-Franchises der 1980er Jahre "Halloween", "Freitag der 13." und "A Nightmare on Elm Street". Die "Halloween"-Reihe wurde 1998 mit "Halloween H20" (1998) fortgesetzt, der die Teile 3 bis 6 der Reihe außer Acht lässt und direkt an "Halloween II – Das Grauen kehrt zurück" (1981) anknüpft. Eine weitere Fortsetzung folgte 2002 mit '. Auch die "Freitag-der-13."-Reihe wurde 2002 mit "Jason X" eher erfolglos fortgesetzt, bis Ronny Yu 2003 die zwei Franchises "Freitag der 13." und "A Nightmare on Elm Street" in einem Crossover verband und die Protagonisten beider Reihen in "Freddy vs. Jason" gegeneinander antreten ließ. Der aktuelle Trend im Horrorkino steht ganz im Zeichen der Neuverfilmungen und Neustarts. Von zahlreichen 1980er-Jahre-Slashern wurden in den letzten Jahren Remakes gedreht, darunter "Black Christmas" (2006), "Prom Night" (2008), "My Bloody Valentine 3D" (2009) und "A Nightmare on Elm Street (2010)". Michael Bays Produktionsfirma Platinum Dunes produzierte die Remakes "Michael Bay’s Texas Chainsaw Massacre" (2003) und "Freitag der 13. (2009)". Der Musiker und Regisseur Rob Zombie legte 2007 "Halloween" neu auf, wobei er den Fokus – anders als in Carpenters Original – auf die Entwicklung des Killers legt. Zwei Jahre später folgte die Fortsetzung "Halloween II (2009)". Aktuelle Erscheinungen wie der Folter- und Survival-Horror mit Filmen wie "Saw" (2004) und dessen zahlreichen Fortsetzungen sowie "Hostel" (2005) übernehmen wiederum Merkmale des klassischen Slasherfilms, wie etwa exzessive Gewaltszenen, psychopathische Mörder oder isolierte Schauplätze. Das dem Slasher ähnliche Backwood-Subgenre wurde durch "Wrong Turn" (2003), "Wolf Creek" (2005) bzw. durch die Remakes von "Texas Chainsaw Massacre" (2003) und "The Hills Have Eyes – Hügel der blutigen Augen" (2006) zu neuem Leben erweckt. Handlungsstruktur. In ihrem Buch "Games of Terror" hat Vera Dika die Handlungsstruktur des Slasher-Films untersucht. Danach teilt sich die Handlung eines Slashers in zwei zeitlich voneinander getrennte Teile ein, die wiederum in mehrere Handlungsschritte aufgespaltet werden. Der erste Teil der Handlung spielt in der Vergangenheit. Der zweite Teil der Handlung spielt in der Gegenwart. Diese Handlungsstruktur findet sich im Großteil der Slasher-Filme wieder. Zwar kann die Reihenfolge der einzelnen Handlungsschritte variieren, oder es können einzelne Abschnitte weggelassen werden, die Grundstruktur bleibt jedoch stets dieselbe. Diese Eintönigkeit wird oft kritisiert, aber auch für den Erfolg des Genres verantwortlich gemacht. Oppositionen. Zudem benennt Dika fünf zentrale Oppositionen, die für Filme des Genres mehr oder weniger bindend sind. Final Girl. Als Final Girl bezeichnet man die letzte Überlebende eines Slashers, die sich dem Killer im Finale des Films stellt und ihn besiegt. Das Final Girl zeichnet sich zumeist durch ihre „sittliche“ Lebensweise aus, da sie weder Drogen konsumiert noch Sex hat, oft sogar noch Jungfrau ist und somit (nach Dika) eine „werte“ Person darstellt. Des Weiteren besitzt das Final Girl die für das Überleben entscheidende Fähigkeit zum „Sehen“. Sie ist die einzige, die die Gefahr, oft durch den Fund der bereits ermordeten Opfer, erkennt und den Killer sieht. Anders als die anderen Jugendlichen sieht das Final Girl den Angreifer kommen und kann sich somit gegen ihn wehren und ihn letztendlich besiegen. Dieses aktive Sehen unterscheidet sie von den übrigen Opfern, schafft jedoch zugleich eine Verbindung zwischen ihr und dem Killer, der sich seine Opfer auch durch seinen Blick unterwirft. Interpretation. Vielfach wird der Slasher interpretiert als ein Genre, das reaktionäre Moralvorstellungen propagiert, da der Killer oft ein „Fehlverhalten“ der Teenager, wie Drogenmissbrauch oder vorehelichen Sex, mit dem Tode ahndet. Ebenso lässt sich das Genre als eine dystopische Erzählung vom Ende der Kindheit lesen, in dem auf das Erwachen der Sexualität und damit dem Eintritt ins Erwachsenenalter nur noch der Tod folgt. Eine andere Interpretation geht von einem engeren Zusammenhang zwischen Sex und Gewalt aus und deutet die Morde, bei denen die Opfer meist von phallischen Tatwaffen penetriert werden, als sexuelle Akte, bei denen der Täter seine unterdrückte oder abartige sexuelle Begierde auslebt. Laut dieser Interpretation zieht auch der Zuschauer einen sexuellen Lustgewinn aus dem Gesehenen. Auch die Medienwirkungsforschung beschäftigt sich mit den Auswirkungen von Gewalt in den Medien auf das Publikum. Nach der weit verbreiteten Katharsistheorie können Gewaltdarstellungen im Film Spannungen abbauen und die Gewaltbereitschaft mindern. Im Gegensatz dazu geht die Habitualisierungstheorie davon aus, dass zu viel Gewalt in den Medien abstumpfend wirken kann. Die Stimulationstheorie schließlich geht davon aus, dass Gewalt im Film die Aggressionsbereitschaft fördert. Mehrere feministische Studien, u. a. von Vera Dika und Carol Clover, widmen sich der Rolle der Frau im Slasher-Film und der Figur des Final Girls. Kritik. Kaum ein anderes Filmgenre hat einen schlechteren Ruf als der Slasher-Film. Nur die wenigsten Filme des Genres, wie etwa "Halloween – Die Nacht des Grauens" oder "Scream – Schrei!", erhielten gute Kritiken, während die meisten anderen Vertreter der Gattung einhellig negativ bewertet oder gänzlich ignoriert werden. Der bekannte US-amerikanische Filmkritiker Roger Ebert prägte für das Genre den spöttischen Begriff „dead teenager movies“ und bemängelt v. a. fehlende Logik, flache Handlung und schlechte Schauspielleistungen. Durch zahlreiche Debatten zum Thema Gewalt in den Medien geriet das Genre wegen seiner exzessiven und realistischen Gewaltdarstellung in Verruf und wird deshalb noch immer stark kritisiert. Dies hatte auch zur Folge, dass besonders in den 1980er Jahren viele Slasher-Filme, zumindest vorübergehend, indiziert oder stark zensiert wurden. Auch Jugendschützer und Medienwirkungsforscher beschäftigen sich mit der Gewaltdarstellung in Filmen. Schweres Wasser. Schweres Wasser (Deuteriumoxid) ist chemisch gesehen Wasser mit der Summenformel D2O. Von „normalem“ Wasser mit H2O unterscheidet es sich dadurch, dass die „normalen“ Wasserstoffatome des Protiums (Symbol H) durch schwere Wasserstoffatome des Isotops Deuterium (Symbol D) ersetzt wurden. Wasserstoff H hat nur ein Proton im Atomkern, Deuterium hingegen ein Proton und ein Neutron. Dementsprechend sind Molekülmasse und Dichte schweren Wassers höher als die gewöhnlichen Wassers. Halbschweres Wasser (Hydrodeuteriumoxid) mit der Summenformel HDO enthält hingegen ein normales und ein schweres Wasserstoffatom. Es kommt in der Natur viel häufiger vor als schweres Wasser. Auf der Erde findet sich etwa ein Deuteriumatom auf etwa 7000 Wasserstoffatome (in Schnee bzw. Regenwasser 1:9000, in Seewasser mit hohem Salzgehalt 1:5500). Überschweres Wasser (Tritiumoxid) enthält Tritium (Symbol T) anstelle von normalem Wasserstoff. Gewinnung. Schweres Wasser wird durch Anreicherung aus herkömmlichem Wasser gewonnen, in dem es in geringer Menge vorkommt. Wird Wasser elektrolysiert, bleibt das schwere Wasser eher unzersetzt zurück (kinetischer Isotopeneffekt), während leichtes Wasser in Wasserstoff und Sauerstoff gespalten wird. Eine Anreicherung ist auch der Girdler-Sulfid-Prozess. Ein anderes Verfahren verläuft über die Destillation von Ammoniak oder Schwefelwasserstoff. Ausgangsmaterial sind bevorzugt Abwässer aus Galvanikbetrieben und der Herstellung von Wasserstoff durch Elektrolyse, da diese durch die bevorzugte Elektrolyse von leichtem Wasser schon signifikant mit HDO angereichert sind. Eigenschaften. Schweres Wasser ist weniger reaktionsfähig als normales Wasser und hat eine niedrigere Lösefähigkeit. Die Ursache ist die höhere Kernmasse des Deuteriums. Dadurch haben die Molekülschwingungen eine niedrigere Frequenz, und die Nullpunktenergien dieser Schwingungen liegen niedriger als bei leichtem Wasser. Bei einer Streckschwingung macht der Effekt etwa 125 meV oder 5 "k"B"T" bei Raumtemperatur aus. Als Folge davon erfordert die Dissoziation von Wasser, die für viele biochemische Reaktionen Voraussetzung ist, mehr Energie, und kann stark verlangsamt sein. Neben der Dissoziation wird auch die Ausbildung von Wasserstoffbrückenbindungen, wie sie ebenfalls in biochemischen Systemen von essentieller Bedeutung sind, beeinflusst. Auf Grund des „dynamischen Isotopeneffektes“ ist in der Flüssigkeit die translatorische und rotatorische Beweglichkeit der schweren Wassermoleküle etwas geringer als die der leichten Wassermoleküle. Bei 25 °C ist z. B. der Selbstdiffusionskoeffizient des schweren Wassers um 23 % geringer als der von leichtem Wasser. Durch diese unterschiedlichen Eigenschaften wirkt schweres Wasser auf die meisten Organismen leicht giftig. Experimente mit Mäusen zeigten, dass die Zellteilung (Mitose) unterdrückt wird. Dadurch wird Gewebe, das schnell erneuert werden muss (z. B. Magenwand), bei fortgesetzter Einnahme von schwerem Wasser in Mitleidenschaft gezogen. Diese Effekte wurden sichtbar, als man Mäusen etwa 50 Prozent ihres Körperwassers durch schweres Wasser ersetzt hatte. Aggressive Krebserkrankungen sollten zwar auch gebremst werden; der Nutzen einer Therapie mit schwerem Wasser würde aber die Nebenwirkungen wahrscheinlich nicht aufwiegen. Verwendung. Schweres Wasser wird in Schwerwasserreaktoren (zum Beispiel Reaktoren des Typs Candu) als Moderator und Kühlmittel eingesetzt, da es im Vergleich zu gewöhnlichem Wasser bei ähnlicher Moderationswirkung erheblich weniger Neutronen absorbiert. Dadurch kann im Reaktor Natururan verwendet und auf die notwendige Anreicherung verzichtet werden. Da das Deuteron einen ganzzahligen Spin hat, interferiert es in der NMR-Spektroskopie nicht mit den Protonen. Schweres Wasser wird daher in der NMR-Strukturaufklärung von wasserlöslichen Verbindungen verwendet, z. B. von Proteinen und Nukleinsäuren. Entsprechend kann wegen der abweichenden Schwingungsfrequenzen schweres Wasser vorteilhaft in Schwingungsspektroskopie von wasserstoffhaltigen Substanzen in wässriger Lösung benutzt werden. Weiterhin wird schweres Wasser zur gezielten chemischen Synthese von Verbindungen verwendet, entweder um Deuterium in das Produkt einzubringen, oder um eine Konkurrenzreaktion, in der H bzw. D übertragen wird, abzuschwächen Da niedere Organismen auch in reinem schwerem Wasser überleben können, gelingt es, aus solchen Organismen hochkomplexe Naturstoffe zu isolieren, bei denen alle Wasserstoffatome durch Deuterium ersetzt sind. Kampf um schweres Wasser im Zweiten Weltkrieg. In den Kriegsjahren 1942 bis 1945 wurde das südnorwegische Rjukan in der Provinz Telemark Schauplatz einer brisanten Auseinandersetzung. Dort befand sich seit 1934 im Chemie- und Wasserkraftwerk Vemork die einzige europäische Fabrik ("Norsk Hydro"), die durch ihren immensen Energieüberschuss schweres Wasser in nennenswerten Mengen herstellen konnte. Durch einen geschickten Schachzug kamen die Franzosen den Deutschen zuvor und sicherten sich zunächst die gesamten Lagerbestände von über 160 kg, die nach dem Einmarsch deutscher Truppen in Frankreich von Hans von Halban auf Umwegen über England in die USA gebracht wurden. Ende der 1930er Jahre hatten Otto Hahn, Fritz Straßmann und Lise Meitner das Prinzip der nuklearen Kettenreaktion entdeckt, woraus sich nach dem Ausbruch des Zweiten Weltkriegs ein Wettlauf mit den Alliierten um die Kontrolle über die Fabrik entwickelte. Für das deutsche Uranprojekt war dabei die Verwendung von schwerem Wasser als Moderator eines Versuchsreaktors vorgesehen, mit dem unter anderem waffenfähiges Plutonium hätte hergestellt werden können. Somit richtete sich das Augenmerk der Alliierten auf die Anlage in Rjukan, deren Ausschaltung die deutsche Nuklearforschung auf einen Schlag neutralisieren konnte: Nach mehreren Rückschlägen wurde am 27. Februar 1943 von zwölf norwegischen Widerstandskämpfern (unterstützt durch das Special-Operations-Executive), die sich auf der Hochebene von "Hardangervidda" versteckt gehalten hatten, die Sprengung an der Hochkonzentrieranlage für schweres Wasser der "Norsk Hydro Werke" durchgeführt. Bereits wenige Wochen später war der entstandene Schaden jedoch behoben, und die deutschen Besatzer ließen die Produktion verstärkt wieder anlaufen. Der englische Spielfilm "Kennwort „Schweres Wasser“" ("The Heroes of Telemark", 1965) sowie die norwegisch-französische Koproduktion "Der Kampf um das Schwere Wasser" ("Kampen om tungtvannet", 1948) handeln von diesen Begebenheiten. Es folgten mehrere alliierte Bombenangriffe auf das Kraftwerk und die wiederaufgebaute Anlage, bis sich die deutschen Besatzer entschlossen, die Fabrik aufzugeben und 50 Fässer bereits produzierten schweren Wassers mitzunehmen. Die Konzentration des Deuteriumoxids schwankte zwischen 1 % und 99 %, sie wurde durch eine zweistellige Nummer auf den Fässern gekennzeichnet, die für Außenstehende keinen Rückschluss auf die Konzentration zuließ. Die Eisenbahnfähre der Rjukanbanen namens "Hydro", beladen mit schwerem Wasser, wurde am 20. Februar 1944 durch einen Sprengsatz im Maschinenraum sabotiert. Die Fähre sank binnen weniger Minuten auf dem 460 m tiefen Tinnsjø (deutsch "„See bei Tinn“"). Fässer mit stark konzentriertem Inhalt, die nur teilweise befüllt waren, trieben nach dem Untergang an der Wasseroberfläche. Sie wurden von den Deutschen geborgen und drei Wochen nach der Versenkung nach Deutschland versandt und später im Forschungsreaktor Haigerloch verwendet. Beim Untergang der Fähre kamen vier deutsche Soldaten und 14 Zivilisten ums Leben. Der Unterwasserarchäologe "Brett Phaneuf" erhielt von der norwegischen Regierung mit einem norwegisch-amerikanischen Forscherteam 60 Jahre nach Untergang der "Hydro" die Genehmigung zu einer Tauchfahrt und Bergung eines der über 50 auf den Grund des Tinnsjøs in 430 Meter Tiefe gesunkenen Fässer; jedoch mit der Auflage, exakt nur ein Fass zu heben, da das Wrack offiziell als Kriegsgrab gilt. Das sehr gut erhaltene Fass Nr. 26 ließ sich nach der Bergung mühelos öffnen, da der Dichtungsgummiring des Spundlochs nach über 60 Jahren noch intakt war. Bei Untersuchungen an Bord sowie später in London wurde ein Anreicherungsgrad von 1,1 Prozent ±0,2 ermittelt. Laut geheimer Ladeliste von 1944 enthielt dieses Fass ein Destillat von 1,64 % schwerem Wasser. Vereinigte Staaten. Ab 1945 wurde der Girdler-Sulfid-Prozess im großindustriellen Umfang eingesetzt, die ersten Schwerwasserreaktoren gingen 1953 in Betrieb. Die Anreicherungsanlagen wurden zunächst von DuPont betrieben und 1989 von Westinghouse Electric übernommen. Indien. Einer der weltweit größten Produzenten von schwerem Wasser ist gegenwärtig Indien. Die technische Entwicklung begann bereits in den 1960er Jahren. Das Land betreibt sieben Produktionsanlagen. 22 der insgesamt 27 Kernreaktoren, von denen einige noch im Bau sind, werden mit schwerem Wasser als Moderator betrieben. Iran. Seit 1996 war eine Anlage zur Gewinnung von schwerem Wasser in Khonbad nahe Arak im Bau. Die Kapazität war auf 8 Tonnen pro Jahr ausgelegt. 2003 wurde die Produktionsanlage fertiggestellt, zugleich wurde eine zweite Ausbaustufe angekündigt, so dass sich die Produktion auf 16 Tonnen jährlich verdoppeln würde. Das schwere Wasser wird für den Betrieb des 40-MW-Natururan-Reaktors IR-40 benötigt. Israel. Großbritannien hat 1958 nach Recherchen der BBC 20 Tonnen schweres Wasser für das im Aufbau befindliche Nuklearprogramm Israels geliefert. Die britische Atomenergiebehörde verkaufte überschüssiges schweres Wasser an die extra dafür gegründete norwegische Firma Noratom. Diese verkaufte es umgehend an die israelische Atomenergiebehörde. Damit umging man die eigentlich erforderlichen Kontrollen. Das schwere Wasser wurde (obwohl an Norwegen adressiert) noch in England in israelische Schiffe umgeladen. Dieses wurde den Angaben zufolge für die Produktion von Plutonium im streng abgeschirmten Kraftwerk Dimona in der Negev-Wüste verwendet. Säbel. Französischer Marineoffizierssäbel aus dem 19. Jahrhundert a>, 1862 von "Ames Manufacturing Co." Der Säbel ist eine leichte Hieb- und Stichwaffe. Der klassische Säbel war gekrümmt und nur einseitig geschliffen. Er war die typische Waffe leichter Kavallerie wie etwa der Husaren. Heute werden Säbel auch beim Sportfechten verwendet, die allerdings mit den historischen Kriegswaffen kaum mehr als den Namen gemeinsam haben. Etymologie. Die Herkunft des Wortes Säbel und verwandter Bezeichnungen in anderen europäischen Sprachen (italienisch "sciabola", spanisch "sable", französisch und englisch "sabre") ist bis heute nicht abschließend geklärt. In das Deutsche wurde das Wort aus einer osteuropäischen Sprache entlehnt, wahrscheinlich aus dem Ungarischen ("szablya"). Dialektale Varianten im Deutschen mit postalveolarem Anlaut (so etwa "Schabel") legen jedoch nahe, dass das Wort in anderen Regionen vielmehr aus dem Polnischen ("szabla") übernommen wurde. Russisch "сабля" und Tschechisch "šavle" sind offenbar recht junge Entlehnungen entweder aus dem Polnischen oder Deutschen. Über die weitere Etymologie herrscht Unklarheit. Gegen die Annahme, dass es sich um ein urungarisches Wort (zu "szabni", „schneiden“) handele, wurden verschiedene slawische ("sabl", „Hahn“), türkische ("sap" „Griff, Schaft“) und semitische (aramäisch "sajpa", „Schwert“) Wurzeln angeführt. Eine jüngere Untersuchung von Marek Stachowski sieht den Ursprung des Wortes in einem tungusischen "seleme" (zu "sele", „Eisen“ + Denominativsuffix "-me"; so etwa auch in Mandschurisch "seleme", „Dolch“). Dieses Etymon habe sich als Wanderwort möglicherweise über die Horden der Awaren ins Ungarische und Slawische und so in die weiteren europäischen Sprachen verbreitet. Militärischer Säbel. Der militärische Säbel hat eine Klinge, die nur an einer Seite geschliffen ist. In vielen Fällen ist aber auch der Klingenrücken auf den ersten 10–30 cm von der Spitze an geschärft ("Rückenschneide"), um beim Rückhandschlag Wirkung zu erzielen und die Stoßeigenschaften zu verbessern. In wenigen Fällen wurde in diese Schneide ein Dreieck geschliffen, der Zweck ist unklar. Eine Theorie ist eine zusätzliche Reißwirkung, dabei ist die Gefahr des Verhakens mit Verlust der Waffe allerdings groß. Nach einer anderen, wahrscheinlicheren Theorie dient das Dreieck dazu, am Boden liegende Gegenstände aufheben zu können ohne absitzen zu müssen. Die Klinge ist je nach Vorliebe des Besitzers verschieden stark gekrümmt (siehe unten). Säbel wurden primär von der leichten Kavallerie verwendet; leichtere Modelle kamen gegen Ende des 17. Jahrhunderts (z. B. bayerische Grenadiere unter Maximilian II. Emanuel) auch bei der Infanterie in Mode. Doch schon bald gingen viele Armeen dazu über, wieder nur noch das Bajonett zu verwenden. Die kurzen Infanteriesäbel blieben aber bei den Grenadieren, in manchen Staaten, z. B. in Preußen, auch generell als Statussymbole in Gebrauch. Außerdem wurden von den Offizieren der Tirailleure bald längere, feinere Säbel getragen, während die restlichen Offiziere meist beim Degen blieben. Der Säbel kommt ursprünglich aus dem indo-persischen Raum und wurde im ersten Jahrtausend vor allem in Asien und Nordafrika, aber auch in Osteuropa eingesetzt. Zum Durchschlagen von Rüstungen sind gekrümmte Klingen zwar schlechter geeignet als die geraden Schneiden eines Schwertes, doch wurden bis zum Hochmittelalter generell ohnehin nur relativ leichte Rüstungen verwendet. Durch die Krümmung der Klinge entstanden deutlich größere Wunden als bei geraden Klingen – vorausgesetzt, man hatte genügend Übung, ansonsten richtete man meist kaum Schaden an. Außerdem war es bei einem entsprechend gekrümmten Säbel egal, wenn man den Gegner mit dem Mittelteil der Klinge traf; mit geraden Schwertern oder Degen sollte man ihn hingegen mit dem vorderen Teil treffen, um genügend Schaden anzurichten. Deshalb ist eine lange, gerade Klinge im Handgemenge auf engstem Raum – zumindest für den Durchschnittskämpfer – eher hinderlich. In Westeuropa war die Bedeutung des Säbels zunächst gering; das änderte sich aber, als zu Beginn des Dreißigjährigen Krieges von der kroatischen Reiterei sowie während des 18. Jahrhunderts von Husaren Säbel im größeren Stil eingesetzt wurden. Je nach Krümmung ("Pfeilhöhe") der Klinge ist der Säbel auch als Stichwaffe geeignet; mit zunehmender Krümmung (größere Pfeilhöhe) dann nur noch als Hiebwaffe, wobei der Stich gegenüber dem Hieb einen deutlichen Reichweite- und vor allem Genauigkeitsvorteil hat. Zwar lassen sich nicht so große, dafür aber meist tiefere Wunden erzeugen. Der Säbel wurde vor allem von der leichten Kavallerie (Ulanen, Husaren, Kosaken) verwendet; Hauptaufgabe dieser Truppenteile war Aufklärung und schnelle Überfälle auf den Nachschub. Die schweren Kavalleristen, die Kürassiere und meist auch die Dragoner, waren mit dem schweren Säbel, dem Pallasch, bewaffnet. Der klassische orientalische Säbel (Scimitar) ist stark gekrümmt und sehr breit und daher als Stichwaffe eher ungeeignet. Die typische Säbelform mit Verbreiterung zur Spitze hin ist im muslimischen Raum allerdings allen Klischees zum Trotz erstmals, und zwar in sehr zaghafter Ausführung, im späten 13. Jahrhundert nachzuweisen. Zu nennenswerter Verbreitung scheint sie erst im Laufe des 14. Jahrhunderts gelangt zu sein. In den osmanisch beherrschten Gebieten war die zuvor verbreitete Säbelform im Gegenteil eher zur Spitze hin verjüngend konstruiert, hatte keine Rückenschneide und in der Regel keinen Knauf. Schmaler und zum Stechen besser geeignet waren die Schaschka der Kosaken; diese weisen außerdem ein besonders einfaches Gefäß (= Griff) auf. Im 18. Jahrhundert ging man auch in Europa zu etwas schmaleren Klingen über; im 19. Jahrhundert tauchten leichter gekrümmte Modelle auf, die später auch von vielen schweren Kavallerieeinheiten eingesetzt wurden. Der Handschutz kann stark variieren, vom Korb, der die Hand komplett umschließt, über einfache Bügel bis zur ursprünglichen, rudimentären Parierstange (wie der klassische Scimitar). Die Länge liegt meist zwischen 70 und 100 cm, das Gewicht reicht von 700 bis 1400 g. Bei verschiedenen Armeen werden Säbel heute noch zu repräsentativen Anlässen getragen. Akademischer Säbel. Der akademische Säbel ist neben Korbschläger und Glockenschläger eine der drei studentischen Fechtwaffen. Er unterscheidet sich vom Korbschläger in der Klinge und im Korb. Die Säbelklinge ist schwerer, gebogen und besitzt eine Hohlkehle. Der Korb besitzt am Hiebblatt einen Klingenfänger. Bei Zweikämpfen wurde der Korb teils mit Seidenstoff umwickelt, um zu verhindern, dass die Klinge schartig geschlagen werden konnte und so schwerere Verletzungen hätte hervorrufen können. Der akademische Säbel ist eine Duellwaffe und wird daher heute in Deutschland (offiziell) nicht mehr verwendet. In Österreich wird zuweilen noch auf Säbel eingepaukt. Die Entstehung des studentischen Säbels geht auf die Mitte des 19. Jahrhunderts zurück. In dieser Zeit entwickelte sich das studentische Fechten mit dem Korb- bzw. Glockenschläger weg vom Duell hin zur Mensur im heutigen Sinne. Für die Austragung von Ehrenstreitigkeiten wurde dann ab den 1840er Jahren aus dem militärischen Säbel der studentische Säbel entwickelt, der bis in die Zeit des Dritten Reichs in Gebrauch war. Nach dem Verbot der Studentenverbindungen durch die Nationalsozialisten wurde auch das studentische Duell mit Säbel oder Pistole wiederholt ausdrücklich verboten, zuletzt durch persönlichen Befehl Adolf Hitlers im Jahre 1940. Nach Wiedergründung der studentischen Verbände in den 1950er Jahren kam auch die Diskussion über die Gesetzmäßigkeit des studentischen Fechtens auf die Tagesordnung ("siehe dazu:" Göttinger Mensurenprozess). Daraufhin bestätigten Vertreter der maßgebenden Verbände schlagender studentischer Verbindungen bei einem Treffen mit Bundespräsident Theodor Heuss, dass in deutschen Studentenverbindungen Ehrenstreitigkeiten nicht mehr mit der Waffe ausgetragen werden würden. Auch in der Schweiz und in Österreich wurde das studentische Fechten gepflegt und werden noch heute Mensuren mit Korbschläger ausgetragen. In der Schweiz waren Säbel und Pistole noch bis in die zweite Hälfte des 20. Jahrhunderts Bestandteil des Reglements des Schweizerischen Waffenrings. In der Praxis kamen sie aber nicht mehr zur Anwendung. Säbel im Sportfechten. Der Säbel für das Sportfechten ist höchstens 105 cm lang. Er darf maximal 500 Gramm wiegen, ist aber meistens erheblich leichter. Er hat eine meist persönlich gebogene Klinge mit angedeuteter (stumpfer) Vorschneide. Der Säbel hat eine Glocke, welche die Handfläche schützt. Anders als beim Degen und beim Florett hat er einen Bügel, der die Hand gegen Hiebe schützt. Außerdem unterscheidet sich auch der Griff des Säbels von dem des Floretts und des Degens. Er hat keine Vertiefungen für die Finger und kann beliebig gehalten werden. Trefferfläche ist der gesamte Oberkörper inkl. Kopf und Arm, wobei im Gegensatz zum Florett der Schritt ausgeklammert ist. Ferner zählen auch Hiebe als Treffer. Das Säbelfechten ist in der Regel schneller als das Florettfechten. Wie beim Florett gibt es ein Angriffsrecht. Die Elektronische Trefferanzeige wurde beim Säbelfechten 1988 eingeführt. Eine Berührung der Säbelklinge mit der gegnerischen E-Weste, E-Maske oder dem gegnerischen E-Handschuh schließt einen Stromkreis, der einen gültigen Treffer anzeigt. Ungültige Treffer werden im Säbelfechten nicht angezeigt. Seele. Der Ausdruck Seele hat vielfältige Bedeutungen, je nach den unterschiedlichen mythischen, religiösen, philosophischen oder psychologischen Traditionen und Lehren, in denen er vorkommt. Im heutigen Sprachgebrauch ist oft die Gesamtheit aller Gefühlsregungen und geistigen Vorgänge beim Menschen gemeint. In diesem Sinne ist „Seele“ weitgehend mit dem Begriff "Psyche" synonym. „Seele“ kann aber auch ein Prinzip bezeichnen, von dem angenommen wird, dass es diesen Regungen und Vorgängen zugrunde liegt, sie ordnet und auch körperliche Vorgänge herbeiführt oder beeinflusst. Darüber hinaus gibt es religiöse und philosophische Konzepte, in denen sich „Seele“ auf ein immaterielles Prinzip bezieht, das als Träger des Lebens eines Individuums und seiner durch die Zeit hindurch beständigen Identität aufgefasst wird. Oft ist damit die Annahme verbunden, die Seele sei hinsichtlich ihrer Existenz vom Körper und damit auch dem physischen Tod unabhängig und mithin unsterblich. Der Tod wird dann als Vorgang der Trennung von Seele und Körper gedeutet. In manchen Traditionen wird gelehrt, die Seele existiere bereits vor der Zeugung, sie bewohne und lenke den Körper nur vorübergehend und benutze ihn als Werkzeug oder sei in ihm wie in einem Gefängnis eingesperrt. In vielen derartigen Lehren macht die unsterbliche Seele allein die Person aus; der vergängliche Körper wird als unwesentlich oder als Belastung und Hindernis für die Seele betrachtet. Zahlreiche Mythen und religiöse Dogmen machen Aussagen über das Schicksal, das der Seele nach dem Tod des Körpers bevorstehe. In einer Vielzahl von Lehren wird angenommen, dass eine Seelenwanderung (Reinkarnation) stattfinde, das heißt, dass die Seele nacheinander in verschiedenen Körpern eine Heimstatt habe. In der modernen Philosophie wird ein breites Spektrum von stark divergierenden Ansätzen diskutiert. Es reicht von Positionen, die von der Existenz einer eigenständigen, körperunabhängigen seelischen Substanz ausgehen, bis zum eliminativen Materialismus, dem zufolge alle Aussagen über Mentales unangemessen sind, da ihnen nichts in der Realität entspreche; vielmehr seien alle scheinbar „mentalen“ Zustände und Vorgänge restlos auf Biologisches reduzierbar. Zwischen diesen radikalen Positionen stehen unterschiedliche Modelle, die zwar Mentalem nicht die Realität absprechen, aber den Begriff der Seele nur bedingt in einem mehr oder weniger schwachen Sinn zulassen. Etymologie und Bedeutungsgeschichte im Deutschen. Das deutsche Wort "Seele" stammt von einer urgermanischen Form "*saiwalō" oder "*saiwlō" ab. Diese ist einer Hypothese zufolge von dem ebenfalls urgermanischen "*saiwaz" (See) abgeleitet; der Zusammenhang soll darin bestehen, dass nach einem altgermanischen Glauben die Seelen der Menschen vor der Geburt und nach dem Tod in bestimmten Seen leben. Unklar ist allerdings, wie verbreitet dieser Glaube war; daher wird der Zusammenhang in der Forschung nicht allgemein akzeptiert, zumal eine Verbindung zwischen dem Totenreich und "*saiwaz" (bzw. davon abgeleiteten Formen) in germanischen Quellen nicht bezeugt ist. Es wird ein Zusammenhang mit samisch "saivo" angenommen, einem urnordischen Lehnwort, das ein Totenreich bezeichnet. Schon im Althochdeutschen und Mittelhochdeutschen waren formelhafte Wendungen wie „mit (oder an) Leib und Seele“ häufig, die sich im Sinne von „völlig, ganz und gar“ nachdrücklich auf den gesamten Menschen beziehen. Der seit dem Spätmittelalter beliebte Ausdruck „schöne Seele“ hat antike "(nobilitas cordis)", altfranzösische "(gentil cuer)" und spirituelle "(edeliu sêle)" Wurzeln und tritt in der Variante der "edelen herzen" bei Gottfried von Straßburg († um 1215) programmatisch auf. Im 14. Jahrhundert wird „schöne Seele“ in der spirituellen Literatur üblich. In religiösem Sinne wird der Begriff noch im Pietismus verwendet, so etwa von Susanna Katharina von Klettenberg, einer Freundin von Goethes Mutter. Seit dem 17./18. Jahrhundert bezeichnet „Seele“ häufig den ganzen Menschen („er ist eine gute Seele“; „keine Seele“ für „niemand“). Die Strömung der Empfindsamkeit im Zeitalter der Aufklärung gebrauchte „schöne Seele“ auch in einem weiteren, nicht mehr nur religiösen Sinne zur Kennzeichnung eines empfindsamen und tugendhaften Gemüts oder Menschen. Friedrich Schiller bezeichnet mit der „schönen Seele“ den Einklang von Sinnlichkeit und Sittlichkeit. In diesem Sinne deutet Georg Wilhelm Friedrich Hegel in seinen theologischen Jugendschriften Jesus. Sarkastisch formuliert dagegen Friedrich Nietzsche: „zu fordern, dass Alles 'guter Mensch', Heerdenthier, blauäugig, wohlwollend, 'schöne Seele' – oder, wie Herr Herbert Spencer es wünscht, altruistisch werden solle, hiesse dem Dasein seinen grossen Charakter nehmen, hiesse die Menschheit castriren und auf eine armselige Chineserei herunterbringen. – Und dies hat man versucht! … Dies eben hiess man Moral.“ Nach der Meinung von Theodor W. Adorno und Max Horkheimer gewährte die bürgerliche Gesellschaft der Frau „Aufnahme in die Welt der Herrschaft, aber als gebrochene“, und lobte sie dann als schöne Seele; hinter dieser Fassade habe sich jedoch die Verzweiflung der Frau über ihre Unterjochung verborgen. Im 20. Jahrhundert hat sich durch den Sprachgebrauch der Psychologie das Fremdwort „Psyche“ eingebürgert. Es steht für eine nüchternere, eher wissenschaftlich orientierte Betrachtung des menschlichen Innenlebens ohne den gefühlsbetonten Beiklang von „Seele“. Der Unterschied zwischen Psyche und Seele wird beispielsweise bei Goethe deutlich, der seine Figur der "Iphigenie auf Tauris" ausrufen lässt: „Und an dem Ufer steh ich lange Tage, das Land der Griechen mit der Seele suchend“. Hier wäre auch nach dem Sprachgefühl heutiger Leser „das Land der Griechen mit der "Psyche" suchend“ unpassend. Indigene Religionen. In vielen indigenen Kulturen, deren religiöse Traditionen die allgemeine und vergleichende Religionswissenschaft untersucht, besteht eine Fülle von Vorstellungen und Begriffen, die sich ungefähr auf das beziehen, was Europäer traditionell unter Seele (im metaphysisch-religiösen Sinn) verstehen, oder zumindest auf etwas in bestimmter Hinsicht damit Vergleichbares. Aus religionswissenschaftlicher Sicht umfasst „Seele“ alles das, was sich „dem religiösen Menschen (an ihm selber und an anderen) als Mächtigkeit physischen und hyperphysischen (paraphysischen, parapsychischen, psychisch-geistigen und postmortalen) Lebens offenbart“. In den indigenen Traditionen wird gewöhnlich davon ausgegangen, dass der Vielfalt mentaler und körperlicher Funktionen eine Vielfalt von Verursachern entspricht. Daraus ergibt sich die Annahme einer Vielzahl eigenständiger seelischer Mächte und Kräfte oder sogar eigenständiger „Seelen“, die sich in einem Individuum betätigen und dessen mannigfaltige Lebensäußerungen bewirken. Für jede dieser Instanzen gibt es einen eigenen Begriff, doch die Zuordnung der einzelnen Funktionen zu den seelischen Mächten ist oft unscharf. Zum Teil ist unklar, inwieweit bei den Vorstellungen von diesen Mächten individuelle oder eher überpersönliche Aspekte im Vordergrund stehen. Häufig fehlt überhaupt das Bedürfnis nach einer Unterscheidung zwischen subjektiver und objektiver Realität. Ebenso wird auch kein prinzipieller Unterschied zwischen Materiellem und Geistigem gemacht; nichts ist ausschließlich materiell und nichts rein geistig. Die Seele ist gewöhnlich mehr oder weniger stofflich oder feinstofflich gedacht und kommt nur in Zusammenhang mit ihren physischen Trägern oder ihren wahrnehmbaren Manifestationen ins Blickfeld. Trotz der Unschärfe kann eine Klassifikation vorgenommen werden; Kriterien dafür sind zum einen die Funktion der Seele und ihr räumliches Verhältnis zu ihrem Träger, zum anderen ihre Gestalt. Dabei ist zu beachten, dass je nach religiöser Tradition einem der Seelenbegriffe eine oder auch mehrere der genannten Funktionen zugeordnet sein können. Auf Seelenvorstellungen in der Jungsteinzeit lassen Gräberfelder mit frühneolithischen Brandbestattungen schließen, die auf eine Absicht deuten, der offenbar als feinstofflich aufgefassten Seele den Weg ins Jenseits zu erleichtern. Besitztümer des Verstorbenen und Fleischnahrung als Wegzehrung wurden mit auf den Scheiterhaufen gelegt. Indien. Die religiösen und philosophischen Konzepte indischen Ursprungs fußen teils auf der vedischen Religion, aus der sich die verschiedenen Strömungen des Hinduismus entwickelt haben. Einige Lehren stehen jedoch in scharfem Gegensatz zur Autorität des vedischen Schrifttums: Buddhismus, Sikhismus und Jainismus. Ein gemeinsames Merkmal aller indischen Traditionen ist, dass sie keinen Unterschied zwischen menschlichen Seelen und den Seelen anderer Lebensformen (Tiere, Pflanzen, auch Mikroben) machen. Die alten indischen Lehren mit Ausnahme der materialistischen "(nāstika)" und des Buddhismus gehen davon aus, dass der menschliche Körper von einer Vitalseele ("jīva", wörtlich „Leben“, „Lebewesen“) beseelt wird, die zugleich Träger des individuellen Selbstbewusstseins (Ich-Seele) ist. Jede "jīva" kann aber auch ebenso jeden beliebigen anderen Lebewesen-Körper bewohnen. Im Kreislauf der Wiedergeburt (Samsara, Seelenwanderung) verbindet sie sich nacheinander mit zahlreichen menschlichen, tierischen und pflanzlichen Körpern. Die Seele bzw. das Selbst hat demnach immer Priorität vor dem Körper und überdauert seinen Tod. Im Buddhismus gilt dies statt für die Seele für die Gesamtheit der ein Individuum prägenden mentalen Faktoren. Beim Tod trennt sich die Seele vom Körper. Die Ich-Seele ist daher zugleich Freiseele; als solche wird sie auch "ātman" oder "purusha" genannt. Die traditionellen Systeme, die die Existenz einer Seele, eines Selbst oder den Körper überdauernder geistiger Bestandteile des Lebewesens annehmen, betrachten die Verbindung der Seele mit materiellen Körpern bzw. die Bildung eines Geist-Körper-Komplexes als einen Fehler und ein Unglück, dessen endgültige Beseitigung und künftige Vermeidung angestrebt wird. Der Weg dazu ist die Behebung der Unwissenheit. Dies wird als Befreiung "(moksha)" aus dem Kreislauf bezeichnet und ist das Endziel der philosophischen oder religiösen Bestrebungen. Ein wesentlicher Unterschied zu den im Westen dominierenden Seelenauffassungen platonischen oder christlichen Ursprungs besteht darin, dass in einem großen Teil der indischen religiös-philosophischen Lehren die individuelle Seele nicht als ewig betrachtet wird. Oft wird angenommen, dass sie sich eines Tages in einer übergeordneten, unpersönlichen metaphysischen Realität (Brahman) auflösen wird, mit der sie wesensgleich ist. Dieser Auffassung zufolge hat sie sich einst vom umfassenden Dasein des Brahman getrennt oder in die Illusion begeben, es gebe eine solche Trennung; wenn sie diesen Vorgang rückgängig macht, endet ihre individuelle Existenz bzw. die Selbsttäuschung, es gebe tatsächlich eine solche Existenz. Zwecks Abgrenzung vom gängigen westlichen Seelenbegriff wird bei der Übersetzung und Kommentierung von Texten aus solchen Traditionen oft bewusst auf die Verwendung des Ausdrucks "Seele" verzichtet. Hinduistische Richtungen. Im Hinduismus existieren zwei Hauptrichtungen, deren Seelenlehren trotz Harmonisierungsversuchen im Grunde unvereinbar sind: Vedanta und Samkhya. Ihrerseits teilt sich die Philosophie des Vedanta in Advaita („Nicht-Zweiheit“, Monismus), Dvaita („Zweiheit“, Dualismus) und Vishishtadvaita auf, eine gemäßigt monistische Lehre, die eine reale Vielheit innerhalb der Einheit annimmt. Die Anhänger des Advaita sind radikale Monisten, die nur eine einzige, einheitliche metaphysische Realität akzeptieren. Sie halten alle Pluralität oder Dualität für eine Scheinwirklichkeit, die sich auflöse, wenn sie durchschaut werde. Demnach existieren die individuellen Seelen ebenso wie die von ihnen beseelten Körper ontologisch nicht als eigenständige Entitäten, sondern sind illusionäre Bestandteile einer eigentlich wert- und bedeutungslosen Scheinwelt der vergänglichen Einzeldinge. Gegenpositionen zum indischen radikalen Monismus sind der Dualismus der Samkhya-Philosophie und des Klassischen Yoga von Patañjali, dem zufolge die Urmaterie und das Urseelische zwei ewige Urprinzipien sind, der gemäßigte Monismus (Vishishtadvaita nach Ramanuja), den viele Praktizierende des Bhakti-Yoga vertreten, und die Auffassung des im 13. Jahrhundert lehrenden Brahmanen Madhva, der Gott, die Einzelseelen und die Materie als drei ewige Entitäten betrachtete. In diesen Systemen, die den radikalen Monismus verwerfen, wird eine reale individuelle Unsterblichkeit der Seele (des Selbst) bejaht; Ziel ist das endgültige Ausscheiden aus dem Kreislauf der Seelenwanderung und der Eintritt in eine jenseitige Welt, in der die Seele dauerhaft verbleibt. Buddhismus. Der Buddhismus vertritt die Anatta-Lehre. "Anatta", ein Wort der Sprache Pali, bedeutet „Nicht-Atman“, das heißt „Nicht-Selbst“ oder „Nicht-Seele“. Buddhisten bestreiten die Existenz einer Seele oder eines Selbst im Sinne einer den Tod überdauernden einheitlichen und beständigen Realität. Aus buddhistischer Sicht ist das, was den Tod überdauert und den Kreislauf der Wiedergeburt in Gang hält, nichts als ein vergängliches Bündel von mentalen Faktoren, hinter dem kein Personenkern als eigenständige Substanz steckt. Dieser Komplex löst sich früher oder später in seine Bestandteile auf, indem er sich fortlaufend schrittweise umwandelt, wobei Teile ausscheiden und andere hinzukommen. Der metaphysische Begriff "ātman" (Seele) ist demnach leer, da ihm kein konstanter Inhalt entspricht. Sikhismus. Im Sikhismus werden die Welt und die Lebewesen (Seelen) in ihr als real betrachtet, aber nicht als ewig. Sie seien durch Emanation aus Gott hervorgegangen und würden in ihn zurückkehren. Jainismus. Im Jainismus wird die individuelle Seele "(jīva)" als unvergänglich angesehen. Sie kann sich durch Askese reinigen, von ihrer Verknüpfung mit den materiellen Existenzformen befreien und in eine jenseitige Welt überwechseln, in der sie dauerhaft und ohne jeden Kontakt mit der materiellen Welt und deren Bewohnern verbleibt. Ihre Erlösung muss sie aus eigener Kraft vollbringen, da die Jainas als Atheisten keinen göttlichen Beistand für möglich halten. Ajivikas. Die Ajivikas sind als Weltanschauungsgemeinschaft verschwunden; nachweisbar sind sie bis ins 14. Jahrhundert. Es handelte sich um eine streng deterministische Strömung. Sie nahmen eine unsterbliche, aber materielle, aus einer besonderen Art von Atomen bestehende Seele ohne freien Willen an, deren Schicksal sich unabänderlich nach vorgegebener Notwendigkeit vollzieht. Altindischer Materialismus. Der altindische atheistische Materialismus ist als philosophische Schule untergegangen. Zu seinen Vertretern, die "Nastikas" (Verneiner, Negativisten) genannt wurden, zählten insbesondere die Anhänger der von Charvaka stammenden "Lokayata"-Lehre, die schon im ersten Jahrtausend v. Chr. verbreitet war. Sie akzeptierten nur vier sinnlich wahrnehmbare Elemente als real und betrachteten alle mentalen Erscheinungen als Resultate bestimmter zeitweiliger Kombinationen der Elemente, die mit dem physischen Tod enden. Auf der Basis dieser Überzeugung bestritten sie die Existenz der Götter, einer moralischen Weltordnung und einer vom Leib verschiedenen Seele. China. Wie zahlreiche frühgeschichtliche und indigene Völker hatten auch die Chinesen in frühgeschichtlicher Zeit verschiedene Ausdrücke für die Seelen in einem Individuum. Man nahm eine Körperseele ("p'o" oder "p'êh") und eine Hauchseele "(hun)" als zwei separate Entitäten im Menschen an. Die Körperseele ist für körperliche Funktionen (insbesondere die Bewegung des Körpers) zuständig, die Hauchseele für Bewusstsein und Verstand. Die Hauchseele ist eine Freiseele und Exkursionsseele, die den Körper schon zu Lebzeiten verlassen kann und sich bei seinem Tod endgültig von ihm trennt. Auch die Körperseele besteht nach dem Tode fort, doch bleibt sie mit dem Körper verbunden und begleitet ihn normalerweise ins Grab, wo die Grabbeigaben für ihr Wohlergehen sorgen sollen. Daneben bestand die seit dem 8. Jahrhundert v. Chr. bezeugte Vorstellung, dass die P'o-Seele eines Verstorbenen in die Unterwelt gelangen kann, zu den "Gelben Quellen" "(Huángquán)", wo es ihr übel ergeht. Im traditionellen chinesischen System der universellen Klassifizierung ist die P'o-Seele dem dunklen, weiblichen Yin-Prinzip und der Erde zugeordnet. Sie entsteht zugleich mit dem Embryo. Die Hun-Seele ist dem männlichen, hellen Yang-Prinzip und dem Himmel zugeordnet. Sie entsteht, wenn der Mensch bei seiner Geburt ins Licht kommt. Mit der Nahrung nimmt der Mensch feinstoffliche Materie "(ching)" auf, die von beiden Seelen zur Kräftigung benötigt wird. Somit sind beide Seelen nicht als immateriell gedacht. Die Hun-Seele kann sich nach einem natürlichen Tod des Körpers in den Himmel oder in einen anderen Jenseitsbereich begeben. Bei einem gewaltsamen Tod ist jedoch damit zu rechnen, dass beide Seelen im sozialen Umfeld des Verstorbenen verbleiben und dort als Gier- und Rachegeister ihr Unwesen treiben. Eine dem Menschen innewohnende und seinen Körper überlebende, aber entstandene (nicht individuell präexistente) geistige Entität wurde auch als "shen" bezeichnet. Der schon sehr früh, zur Zeit des Shang-Staates im 2. Jahrtausend v. Chr., stark entwickelte Ahnenkult – eine Konstante in der chinesischen Kulturgeschichte – und die reichen frühgeschichtlichen Grabausstattungen sind nicht nur als Ausdruck der Pietät gegenüber den Vorfahren zu deuten, sondern zeigen die Macht der Vorstellung, dass die Seelen der Toten die gleichen Bedürfnisse haben wie Lebende und dass sie fördernd oder störend ins Leben der Hinterbliebenen eingreifen. Mo Ti, der im 5. Jahrhundert v. Chr. den nach ihm benannten Mohismus begründete, lehrte die Fortexistenz nach dem Tode. Die Anhänger des seit dem 2. Jahrhundert v. Chr. in China als Staatsdoktrin etablierten Konfuzianismus hingegen betrachteten Spekulationen darüber als unnütz und überließen das Thema der traditionellen chinesischen Volksreligion. Eine philosophische Auseinandersetzung um die Seele und um die Frage, ob eine seelische oder mentale Entität den Körper überlebt oder gar ewig weiterbesteht, setzte anscheinend erst spät ein, und zwar als sich zur Zeit der Han-Dynastie (206 v. Chr.–220 n. Chr.) der Buddhismus auszubreiten begann. An der Debatte beteiligten sich Skeptiker und Materialisten, die sich gegen die Vorstellung einer eigenständig existierenden Seele wandten und alle mentalen Funktionen auf körperliche zurückführten. In diesem Sinne argumentierten die Philosophen Wang Ch'ung (1. Jahrhundert n. Chr.) und Fan Chen (5./6. Jahrhundert n. Chr.). Fan Chen schrieb eine "Abhandlung über die Auslöschung der Seele" "(Shen mieh-lun)", die am Hof des Kaisers Liang Wu Di Aufsehen erregte. Die Polemik der Skeptiker richtete sich gegen den Buddhismus, da die Buddhisten als Anhänger der Unsterblichkeitsidee betrachtet wurden. Der Buddhismus lehnt zwar eigentlich das Konzept einer unsterblichen Seele entschieden ab, doch in China wurde er oft durch volkstümliche Vorstellungen abgewandelt, die auf eine durch den Kreislauf der Wiedergeburten schreitende beständige Seele hinausliefen. Japan. a> werden die Seelen gefallener Soldaten verehrt. In Japan hängen die traditionellen Seelenvorstellungen eng mit dem seit vorgeschichtlicher Zeit verbreiteten Ahnenkult zusammen, der ein wichtiger Teil der indigenen Volksreligion, einer Frühform des Shintoismus, war. Außerdem sind sie von den japanischen Ausprägungen des im 6. Jahrhundert eingeführten Mahayana-Buddhismus beeinflusst. Unterschiedliche Varianten des alten shintoistischen Volksglaubens besagten, dass die Seelen Verstorbener entweder in der Unterwelt ("yomo-tsu-kuni" oder "soko-tsu-kuni") oder in einem himmlischen Reich "(takama-no-hara)" leben, oder auch in einem als „beständiges Land“ "(toko-yo)" bezeichneten Totenreich jenseits des Ozeans. Man ging aber auch davon aus, dass sie dort nicht unerreichbar sind, sondern die diesseitige Welt aufsuchen und unter den Menschen weilen. Ab dem 9. Jahrhundert, nachdem der japanische Buddhismus beträchtlichen Einfluss auf die religiösen Sitten gewonnen hatte, wurden zur Beschwichtigung des Zorns der Seelen von gewaltsam ums Leben Gekommenen Feiern abgehalten, die im Volk beliebt waren. Man baute Seelenschreine, in denen prominenter Verstorbener gedacht wurde, denen zu ihren Lebzeiten Unrecht geschehen war und deren Seelen besänftigt werden sollten. Einer anderen, bis in die Moderne verbreiteten Ansicht zufolge wohnen die Totenseelen auf bestimmten hohen Bergen. Zu der berühmten Seelenkultstätte auf dem Berg Iya zogen noch im 20. Jahrhundert jährlich Hunderttausende von Pilgern. Ein Höhepunkt des Seelenkultes ist das seit dem 7. Jahrhundert alljährlich im Sommer gefeierte buddhistische Obon-Fest, zu dem sich die Familien versammeln; damit soll nicht den Lebenden der Segen der Totenseelen verschafft werden, sondern die rituellen Handlungen sollen dem Wohlergehen der Totenseelen dienen, die bei diesem Anlass jeweils zu ihren lebenden Angehörigen zurückkehren. Die Bezeichnung für die Seele ist "tama" oder "mitama" (Grundbedeutung: kostbar, wunderbar, geheimnisvoll). Das "tama" wurde als uneinheitlich betrachtet; ein milder und glücklicher Seelenteil kümmert sich um das Wohlergehen der Person, ein anderer Teil ist wild und leidenschaftlich, setzt den Menschen Risiken aus und kann auch Übeltaten vollbringen. Verbreitet war und ist die Überzeugung, dass die Seelen Lebender als Exkursionsseelen den Körper verlassen. Altes Ägypten. Im Alten Ägypten waren drei Begriffe zur Bezeichnung dreier Aspekte des Seelischen gebräuchlich: "Ka", "Ba" und "Ach". Kennzeichnend für die altägyptische Denkweise ist eine sehr enge Bindung des Seelischen ans Körperliche und daher noch über den Tod hinaus an den Leichnam und dessen Grab. Der bestattete Leichnam galt als weiterhin beseelbar und somit im Prinzip handlungsfähig. Daher war die Konservierung des Körpers durch Mumifizierung für den ägyptischen Totenglauben von zentraler Bedeutung. Daneben gab es aber auch mancherlei Vorstellungen über eine Existenz im Jenseits; anscheinend wurde kaum versucht, die unterschiedlichen Konzepte zu einem stimmigen Ganzen zu verbinden. Der in der Epoche des Alten Reichs dominierende Begriff "Ka" bezeichnete die Quelle der Lebenskraft. Nach dem ägyptischen Seelenverständnis machte das Vorhandensein des "Ka" den Unterschied zwischen einem Lebenden und einer Leiche aus. Ferner konnte der "Ka" als Doppelgänger oder Schutzgeist des betreffenden Menschen fungieren. Er war „beständig“ und Garant der Kontinuität, denn er wurde vom Vater auf den Sohn übertragen und stand damit für die ununterbrochene Fortdauer der Lebenskraft in der Ahnenfolge. Daher trat er bei der Geburt stark hervor. Beim Tod verließ er den Leichnam, blieb aber in dessen Nähe. Seine Wohnstätte war eine eigens für ihn errichtete Statue im Grab, wo er für das Fortleben der Person unentbehrlich war. Im Alten Reich wurden für den "Ka" – das heißt für die Leiche, die er beleben sollte – an einer Opferstelle über dem Grab Speise- und Getränkegaben bereitgestellt. Die Vorstellung war so materiell, dass es folgerichtig in manchen Gräbern sogar einen Abort gab. Diese Totenfürsorge kam allerdings nur für Angehörige der Oberschicht in Betracht. Königen und Göttern wurden mehrere "Kas" zugeschrieben, und auch in Totengebeten von Privatgräbern des Alten Reichs kommt der Begriff "Ka" für eine Person im Plural vor. "Ba" hingegen – ein Begriff, der im Mittleren Reich zunehmende Bedeutung erlangte – war ein sehr beweglicher Aspekt des Seelischen, der beim lebenden Menschen zwar schon vorhanden war, aber kaum eine Rolle spielte; erst beim Tod trat er hervor, denn der leibliche Tod bedeutete für ihn eine Art Geburt. Er wurde meist als Vogel, oft mit Menschenkopf, dargestellt. Damit zeigt sich seine Zugehörigkeit zu dem bei indigenen Völkern verbreiteten Typus des „Seelenvogels“. Die "Ba"-Vögel waren nach der ägyptischen Vorstellung eigentlich Himmelswesen und lebten in einer nördlichen Region "(Qebehu)", doch bewahrte "Ba" ebenso wie "Ka" eine dauerhafte Bindung an den Leichnam (die Mumie). Um den "Ba" zum Aufsuchen des Grabes zu bewegen – was offenbar als eine Art Wiederbelebung des Leichnams betrachtet wurde und sehr erwünscht war –, wurde ihm dort Trinkwasser bereitgestellt, das ihn anlocken sollte. Der "Ach" (Lichtgeist, abgeleitet von einem Wort für „Lichtglanz“) war die Verklärungsseele eines Verstorbenen, die erst nach dessen Tod entstand. Im Unterschied zum "Ka" war er nicht ortsgebunden. "Ach" war eine götterähnliche Existenzform, die nach dem Tod durch entsprechende Bemühungen erlangt wurde, indem der Tote sich die "Ach"-Kraft aneignete und dadurch zum "Ach" wurde. Diesem Zweck dienten magisch-rituelle Maßnahmen. Dazu gehörten Riten, die am Grab vollzogen wurden, Inschriften, die man dort oder auf dem Sarg anbrachte, und Texte, die der Tote zu rezitieren hatte. Von Göttern wie Re und Osiris erhoffte man Hilfe bei der "Ach"-Werdung. Waren die Verklärungsriten am Grab richtig vollzogen, so erlangte der Tote den Status eines „wirksamen“, „versehenen (vollausgestatteten)“ und „verehrungswürdigen“ "Ach"; als solcher konnte er auf die Welt der Lebenden einwirken. Im Unterschied zu "Ka" und "Ba" konnte sich der „wirksame“ "Ach" als Gespenst zeigen und wohltätig oder Schaden anrichtend in das Leben der Menschen eingreifen. Wie "Ka" und "Ba" zeigte auch "Ach" einen starken Bezug zum Grab und Interesse an dessen Zustand. Dort deponierten die Ägypter ihre an den "Ach" des Beerdigten gerichteten Botschaften. Manche Aspekte des "Ach"-Glaubens unterlagen einem Wandel; so wurde im Alten Reich eine zeremonielle Speisung des "Ach" vorgenommen, später bedurfte er aber im Gegensatz zu "Ka" und "Ba" keiner materiellen Versorgung im Vollzug des Totendienstes mehr. In der älteren Form dieses Glaubens war moralisches Verhalten unwesentlich; für den "Ach"-Status gab es keine ethischen Voraussetzungen, ein "Ach" konnte ebenso wie ein Lebender gut- oder böswillig sein. Im Neuen Reich begann man jedoch einen Zusammenhang zwischen moralischen Verdiensten und dem "Ach"-Werden herzustellen. Die Vorstellungen vom Totenreich waren stark von den zahlreichen Gefahren geprägt, die den Verstorbenen dort drohten, teils durch die Unwirtlichkeit des Geländes, teils durch Nachstellungen von Dämonen. So versuchten beispielsweise Dämonen den vogelgestaltigen "Ba" mit Vogelnetzen zu fangen. Gefangenen drohte Folter und Verstümmelung. Dagegen halfen göttlicher Beistand und vor allem Kenntnis der festgelegten, zur Bannung der Gefahren erforderlichen Zaubersprüche, die in Sargtexten überliefert sind. Das jenseitige Dasein war eine Fortsetzung des diesseitigen; so gab es dort auch Landarbeit. Die Toten hatten ihre Wohnsitze „im Westen“ und waren das „Volk des Westens“ "(imentiu)", die Lebenden wohnten im Osten (am Nil). Die Toten wurden vor das Totengericht gestellt, wo ihr Herz mit einer Waage gegen die Wahrheit abgewogen wurde, das heißt ihr Freisein von Verfehlungen geprüft wurde (Psychostasie). Im Falle einer Verurteilung wurden sie von einem Untier gefressen, also vernichtet. Dieses moralische Konzept konkurrierte und vermischte sich mit dem ethisch indifferenten, welches das nachtodliche Schicksal von korrekter Praktizierung der rituellen Magie abhängig machte. Somit waren die Seelen nach den altägyptischen Vorstellungen weder immateriell noch prinzipiell unzerstörbar. Vor der Entstehung des Körpers existierten sie nicht, Reinkarnation wurde nicht in Betracht gezogen. Denjenigen, die den jenseitigen Gefahren entgingen oder vom Totengericht freigesprochen wurden, wurde zwar ein erfreuliches Leben in einer angenehmen Welt in Aussicht gestellt, doch stießen solche Verheißungen seit der Zeit des Mittleren Reichs in manchen Kreisen auf erhebliche Zweifel. Skeptiker stellten die Wirksamkeit der aufwendigen Vorkehrungen für ein glückliches oder zumindest befriedigendes nachtodliches Dasein in Frage. Sie wiesen auf die Ungewissheit des Schicksals nach dem Tod oder auf düstere Aussichten für die Verstorbenen hin. Mit der Herabsetzung des Jenseits wurde oft die Aufforderung verbunden, diesseitigen Lebensgenuss anzustreben. Mesopotamien. Über Seelenvorstellungen der Sumerer und später der Akkader bieten weder die Schriftquellen noch die Archäologie konkrete Informationen, obwohl sich die sumerische Religion, mit der die akkadische eng verwandt ist, aus den Quellen gut erschließen lässt. In der sumerischen und der akkadischen Sprache kommen keine Ausdrücke vor, deren Bedeutungsgehalt sich mit demjenigen von „Seele“ deckt. Man kann den akkadischen Begriff "napischtu(m)/napschartu" („Kehle“, „Leben“, „Lebenskraft“, auch „Person“) als Bezeichnung für eine Seele ansehen, in Analogie zu den verwandten hebräischen Wörtern "nefesch" und "neschama", die von der konkreten Grundbedeutung „Atem“ ausgehend das sich im Atem zeigende Leben bezeichnen. Damit (und mit anderen Begriffen von gleicher oder ähnlicher Bedeutung) ist aber nur eine mit dem Körper entstehende und sterbende Vitalseele (Körperseele) von Mensch und Tier gemeint; darüber hinaus ergeben sich keine Folgerungen. Das entsprechende Wort im Sumerischen ist "zi", das mit dem Verb "zi-pa-ag2" („atmen“, „blasen“) zusammenhängt; es gibt eine Redewendung "zi-pa-gá-né-esch", die sich auf das Überprüfen bezieht, ob in einem Körper noch Leben festzustellen oder der Lebenshauch aus ihm gewichen ist. Daneben existiert im Sumerischen der Ausdruck "libisch/lipisch" für „Innerstes“ (des Menschen) und im Babylonischen "libbu" für „Herz“, vergleichbar unserer Verwendung von „Herz“ in psychischer Bedeutung. Die Babylonier lokalisierten die von einer Gottheit verliehene Quelle der Lebenskraft außer im Atem auch im Blut. Auf eine anthropologische Analyse und eine konkrete Beschreibung der Seele legten sie anscheinend keinen Wert. Ein Totenreich "kur-nu-gi-a" („Land ohne Wiederkehr“) und ein Totengericht ist für die Sumerer bezeugt. Andererseits war bei ihnen aber auch die Vorstellung verbreitet, dass sich die Toten an ihren Grabstätten aufhalten. Daher wurden den Verstorbenen dort Speisen und Getränke dargebracht. Auch in Babylonien war der Ahnenkult für das Wohlergehen der Toten sehr wichtig; täglich mussten die Ahnen mit Nahrung versorgt werden. In einem Anhang zum Gilgamesch-Epos kehrt der ins Totenreich hinabgestiegene Enkidu, d. h. sein Totengeist "(utukku)", in die Welt der Lebenden zurück und schildert die Schicksale der Toten, die von der Todesart, der Anzahl ihrer Kinder und der Fürsorge der überlebenden Angehörigen abhängen. Schlimm erging es den Unbegrabenen und denen, deren Grab geschändet wurde, denn der Totengeist war offenbar eng mit dem Leichnam verbunden. Bei den mesopotamischen Völkern herrschte die Überzeugung, dass böswillige Totengeister (sumerisch "gidim", akkadisch "eṭimmu" oder "eṭemmu") ebenso wie unzählige sonstige Dämonen den Lebenden Unheil bereiten. Die Totengeister galten als sichtbar und hörbar. Daneben gab es aber auch hilfreiche Schutzgeister, die möglicherweise den aus verschiedenen indigenen Kulturen bekannten "Außenseelen" des Menschen vergleichbar sind. Aus dem "Atraḫasis-Epos" (um 2000–1800 v. Chr.) geht hervor, dass "eṭemmu", der gespenstartige Aspekt des Menschen, der dessen Tod überdauert, ursprünglich zusammen mit dem menschlichen Körper aus dem Fleisch eines getöteten Gottes geschaffen wurde. Aus dem Blut des Gottes entstand wohl die sterbliche, bis zum physischen Tod bestehende Vitalseele; sie wurde als Basis des menschlichen Verstandes "(ṭēmu)" betrachtet. Iranisches Hochland. Die ostiranische avestische Sprache, die zu den altiranischen Sprachen gehört, weist eine Reihe von Ausdrücken für die Seele oder für psychische Funktionen auf, die schon in der vorzoroastrischen Zeit gebräuchlich waren und großenteils später auch in den Dokumenten der zoroastrischen Religion verwendet wurden. Zum Teil beziehen sie sich auf Wahrnehmungsfunktionen, beispielsweise "uši" (ursprünglich das Ohr, daher auch das Gehör und in übertragenem Sinn die Auffassungsfähigkeit, der Verstand). Außer der Vitalseele ("ahu" oder "uštāna", als Hauchseele "vyāna") gab es nach den im Iran herrschenden Vorstellungen die auch unabhängig vom Körper agierende Freiseele ("urvan" oder auch als Verstandesseele "manah") sowie die "daēnā", eine seelische Instanz mit nährender Funktion. Eine wichtige Rolle spielten die "fravašis"; das waren schützende Ahnengeister, aber auch Außenseelen lebender frommer Menschen. In letzterem Sinne verstand man unter "fravaši" anscheinend ein den Menschen zu seinen Lebzeiten von außen beeinflussendes „höheres Selbst“. Die im Körper lebende unsterbliche Freiseele vereinigte sich nach dessen Tod mit ihrer "fravaši". Ausdrücke, die ursprünglich den Körper bezeichneten, wie "tanu" und das etymologisch mit „Körper“ verwandte Wort "kəhrp", wurden auch für die Person als Gesamtheit unter Einschluss der seelischen Dimension verwendet, was auf ein nicht dualistisches Denken deutet. Die Zoroastrier scheinen sich nicht um die Ausarbeitung einer detaillierten anthropologischen Seelenlehre und um terminologische Klarheit bemüht zu haben, zumindest haben sich keine entsprechenden Texte erhalten. Bezeugt ist im Zoroastrismus immerhin die Vorstellung, dass die Vitalseele schon vor dem Körper geschaffen wurde und dieser dadurch entstanden ist, dass die Lebenskraft von der Gottheit „körperlich gemacht“ wurde. Diese Vitalseele, die "uštāna", wurde mit dem Tode des Körpers vernichtet. Charakteristisch für den Zoroastrismus ist eine scharfe Trennung zwischen „guten“ und „bösen“ Menschen, nicht zwischen einem an sich schlechten Körper und einer moralisch höherwertigen Seele. Eine Gesamtseele oder Weltseele scheint der Zoroastrismus nicht gekannt zu haben. Nach dem Tod blieb die Freiseele "urvan" drei Nächte lang in der Nähe des Leichnams, bis ihr ihre eigene "daēnā" entgegentrat. Die "daēnā" erschien in Frauengestalt, als Kuh oder als Garten, was auf ihre nährende Funktion hinweist. Als Frau war sie ein schönes Mädchen oder eine scheußliche Hexe, je nach den Taten, die der Mensch zu seinen Lebzeiten vollbrachte. Nach der Begegnung mit ihr begab sich die Seele "urvan" auf den Weg ins Jenseits. Neben den Vorstellungen vom jenseitigen Fortleben der Seele gab es auch einen wohl sehr alten Glauben an eine Auferstehung als Wiederbelebung toter Körper, die als möglich galt, falls die Knochen der Verstorbenen vollzählig und intakt aufbewahrt wurden; offenbar wurde unter dem Gesichtspunkt der Lebenskraft den Gebeinen eine seelische Qualität zugeschrieben. In seiner religiösen Ausformung im Rahmen des Zoroastrismus richtete sich dieser iranische Auferstehungsglaube auf eine eschatologische Zukunft, in der auch ein allgemeines Weltgericht erwartet wurde. Älteste griechische Vorstellungen. Das altgriechische Substantiv "psychē" (ψυχή) hängt mit dem Verb "psychein" („blasen“, „atmen“) zusammen; es bedeutete ursprünglich „Hauch“, „Atem“ und daher auch „Leben“. Erstmals belegt ist es in den zunächst mündlich überlieferten homerischen Epen "Ilias" und "Odyssee". Es bezeichnet hier etwas an Mensch und Tier, das normalerweise während des Lebens eines Individuums nicht aktiv zu sein scheint, dessen Präsenz aber für das Leben notwendig ist. Die "psychē" im Sinne von Homers Sprachgebrauch verlässt einen Menschen bei Ohnmacht. Im Tod trennt sie sich vom Körper und begibt sich als dessen schattenhaftes Abbild in die Unterwelt. Homer benutzt für die körperlose Seele neben dem Ausdruck "psychē" auch den Begriff "eidōlon" (Abbild, Schattenbild). Die Seele eines Verstorbenen ist dem lebenden Menschen so ähnlich, dass Achilleus vergeblich versucht, die Seele des toten Patroklos, die ihm erscheint und ihn anredet, zu umarmen. Der Dichter lässt die nach dem Tod körperlose Seele Gefühle zeigen und Überlegungen anstellen. Sie jammert, beklagt ihr Schicksal und sorgt sich um das Begräbnis des Leichnams. Der "thymós" – mit diesem Wort bezeichnet Homer die Quelle der emotionalen Antriebe – gilt ebenso wie die "psychē" als zum Leben notwendig; auch er verlässt im Tod den Körper. Zwar sagt der Dichter nicht, dass der "thymós" sich in die Unterwelt begibt, doch an einer Stelle der "Ilias" wünscht ein Lebender, dass dies geschehen möge. Homer beschreibt den "thymós" als zerstörbar. Während des menschlichen Lebens wird er durch Ereignisse gemehrt oder gemindert. Im Gegensatz zur "psychē", die wie ein kalter Hauch erscheint, ist der "thymós" heiß. Von der "psychē" ist nur im Zusammenhang mit lebensbedrohlichen Situationen die Rede. So spricht Achilleus davon, im Kampf die eigene "psychē" in Gefahr zu bringen. Gewöhnlich ist dieser Begriff auf die Bedeutung "Träger des Belebtseins" begrenzt, während die Emotionen – aber auch mit ihnen verbundene Gedanken – sich im "thymós" abspielen. Eine weitere für die mentalen Funktionen wichtige Instanz ist der "nóos" (im späteren Griechisch "nous"). Er ist in erster Linie für Tätigkeiten des Intellekts zuständig, erscheint aber auch gelegentlich als Träger von Gefühlen. Eine klare Abgrenzung zwischen den Begriffen gibt es in den homerischen Epen nicht. Der "thymós" befindet sich im Zwerchfell oder allgemeiner in der Brust. Auch der "nóos" ist in der Brust lokalisiert, doch ist er anscheinend immateriell gedacht. Der "psychē" weist Homer keinen bestimmten Sitz im Körper zu. Sie ist Voraussetzung des Lebens für Tiere ebenso wie für Menschen. In der "Odyssee" entweicht bei der Schlachtung eines Schweins dessen "psychē", doch ob sie in die Unterwelt gelangt, erfährt man nicht. Hesiod und Pindar erwähnen die "psychē" der Schlange. Bedeutungswandel in der nachhomerischen Zeit. a>s aus der Mitte des 5. Jahrhunderts v. Chr. In poetischen und philosophischen Texten des 6. und 5. Jahrhunderts bürgerte sich ein neuer, erweiterter Begriff von "psychē" ein, der den Bedeutungsgehalt von "thymós" mit einschloss. Für den Lyriker Anakreon spielten sich die erotischen Empfindungen in der "psychē" ab, bei Pindar war sie Trägerin moralischer Eigenschaften. Auch in der Tragödie trat die Seele in einem moralischen Kontext auf, bei Sophokles konnte sie daher als „schlecht“ bezeichnet werden. Die alte Grundbedeutung – belebendes Prinzip im Körper – war weiterhin geläufig, beseelt "(émpsychos)" zu sein bedeutete lebendig zu sein, doch daneben war die Seele nun auch für das Gefühlsleben zuständig und stellte Überlegungen an. Die philosophisch-religiösen Bewegungen der Orphiker und der Pythagoreer erweiterten das archaische Konzept einer den Leichnam verlassenden "psychē". Sie bauten es zu Lehren aus, in denen die Seele als unsterblich galt und mehr oder weniger detaillierte Aussagen über ihr Schicksal nach dem Tod gemacht wurden. In diesen Strömungen sowie auch bei Empedokles und in der Lyrik bei Pindar machten sich – in markantem Gegensatz zu Homer – optimistische Annahmen über die nachtodliche Zukunft der Seele geltend. Sie kann diesen Konzepten zufolge unter bestimmten Voraussetzungen, insbesondere indem sie sich von Schuld reinigt, Zugang zur Götterwelt gewinnen und göttlich werden oder ihre eigene ursprüngliche göttliche Natur wiedererlangen. Seelenwanderung. In manchen Kreisen (Orphiker, Pythagoreer, Empedokles) wurde die Unsterblichkeitslehre mit der Vorstellung der Seelenwanderung verbunden und damit die Annahme einer natürlichen Bindung der Seele an einen bestimmten Körper aufgegeben. Der Seele wurde ein eigenständiges Dasein schon vor der Entstehung des Körpers und damit eine zuvor unbekannte Autonomie zugesprochen. Die früheste namentlich bekannte Persönlichkeit, die sich zur Seelenwanderung bekannte, war der um 583 geborene Pherekydes von Syros, dessen Schrift über die Götter allerdings nicht erhalten ist. Sein etwas jüngerer Zeitgenosse und angeblicher Schüler Pythagoras verbreitete diese Lehre im griechisch besiedelten Süditalien; seine Prominenz verschaffte ihr in weiten Kreisen Bekanntheit. Die frühen Pythagoreer meinten, dass die Seelen der Menschen auch in Tierleiber eingehen; sie gingen davon aus, dass zwischen menschlichen und tierischen Seelen kein Wesensunterschied bestehe. Naturphilosophisches Verständnis der frühen Vorsokratiker. Die als Vorsokratiker bezeichneten frühen Denker setzten sich unter naturphilosophischen Gesichtspunkten mit der Seele auseinander. Bei ihnen erscheint die "psychē" als Bewegungsprinzip des sich selbst und anderes Bewegenden. In diesem Sinne hielt Thales außer den Lebewesen auch den Magneten und wegen der elektrischen Anziehung den Bernstein für beseelt, nicht jedoch – wie ihm irrtümlich unterstellt wurde – sonstige Gegenstände. Anaxagoras sah im universalen "nous" (Geist) die Bewegungsursache und den Herrscher aller Dinge einschließlich der beseelten; den Angaben des Aristoteles zufolge unterschied er nicht klar zwischen dem "nous" und der "psychē", die er ebenfalls als Beweger bezeichnete. Er beschrieb den "nous" als das „feinste“ und „reinste“ aller Dinge, dachte also auch ihn nicht wirklich unstofflich. Einige Vorsokratiker fassten die Seele zudem als Wahrnehmungs- oder Erkenntnisprinzip auf. Die theoretische Beschreibung der Seele als Lebensprinzip bestand dabei überwiegend in einem reduktiven Physikalismus, der die "psychē" auf etwas Materielles oder Materiellem Ähnliches (Feinstoffliches) zurückführte. So soll Empedokles gelehrt haben, die "psychē", die er im traditionellen Sinn mit dem physischen Leben verband, bestehe aus den vier Elementen. Nicht sie, sondern ein Wesen, das er "daimōn" nannte, war für ihn die unsterbliche Seele, der er die Seelenwanderung zuschrieb. Den "daimōn", dessen Befreiung aus dem Kreislauf von Geburt und Tod er anstrebte, bezeichnete er ausdrücklich als einen Gott. Als Luft wird die Seele in einem traditionell dem Philosophen Anaximenes zugeschriebenen Fragment bezeichnet, das jedoch nach heutigem Forschungsstand von Diogenes von Apollonia stammt. Auch Anaximander und Anaxagoras sollen sie für luftartig gehalten haben. Daneben gab es eine von manchen Pythagoreern vertretene, vermutlich ursprünglich aus ärztlichen Kreisen stammende Vorstellung, wonach die Seele eine Harmonie der Körperfunktionen sei. Diese Auffassung war mit dem Unsterblichkeitsgedanken unvereinbar. Auch in Heraklits Seelenlehre, deren Einzelheiten aus den erhaltenen Fragmenten nicht klar hervorgehen, hat die "psychē" eine stoffliche Qualität. Sie bewegt sich zwischen zwei gegensätzlichen Zuständen hin und her, von denen der eine feucht oder wässrig, der andere trocken ist. Wenn sie trocken und damit dem feurigen Vernunftprinzip nahe ist, befindet sie sich in ihrer bestmöglichen Verfassung und ist weise. Das Ausmaß ihrer Verständigkeit hängt von demjenigen ihrer aktuellen Trockenheit ab. Durch Trunkenheit wird sie feucht und büßt damit die Fähigkeit des Verstehens ein. Setzt sich das wässrige Prinzip gänzlich durch, so stirbt die Seele, doch erscheint ihr dies nicht als Untergang, sondern sie empfindet es als Genuss. Somit unterliegt sie ebenso wie der Kosmos als Ganzes unablässigen Umwandlungsprozessen. Heraklit hielt sie für so tiefgründig, dass man ihre Grenzen nicht finden könne. Demokrits materialistisches Modell. Demokrit, der letzte bedeutende Vorsokratiker, erklärte im Rahmen seiner konsequent materialistischen Weltdeutung die Seele als Zusammenballung von kugelförmigen, glatten Seelenatomen, die sich von den übrigen Atomen durch größere Beweglichkeit unterscheiden, welche sie ihrer Form und ihrer Kleinheit verdanken. Die Seelenatome Demokrits sind aber nicht – wie in der älteren Forschungsliteratur oft angenommen wurde – durch eine feuerartige Qualität gekennzeichnet. Vielmehr sind alle Atome hinsichtlich ihrer materialen Beschaffenheit von gleicher Qualität, sie unterscheiden sich nur durch Größe, Form und Geschwindigkeit. Phänomene wie Wärme, Kälte und Farbe entstehen erst durch die beständige Bewegung und Interaktion der Atome. Die Seelenatome schweben in der Luft; durch die Atmung werden sie ihr entnommen und wieder an sie zurückgegeben. Der Tod ist das Ende dieses Stoffwechsels, mit ihm zerstreuen sich die Seelenatome des Verstorbenen. Eine Unsterblichkeit der Seele ist in diesem System undenkbar. Körper und Seele schützen einander durch ihre Verbindung vor der ihnen ständig drohenden Auflösung. Die Seele ist eine atomare Struktur, deren Bestandteile, die Seelenatome, ständig ausgetauscht werden; sie verflüchtigen sich fortlaufend und werden durch neu eingeatmete Seelenatome ersetzt. Während des Lebens sind die Seelenatome im ganzen Körper verbreitet und setzen die Körperatome in Bewegung. Auch alle mentalen Phänomene sind durch Bewegungen konzentrierter Massen von Seelenatomen mechanisch erklärbar. Wahrnehmung geschieht dadurch, dass sich von den Objekten Atome ablösen und in Form von Bildchen "(eidola)" in alle Richtungen ausströmen; diese Abbilder der Objekte dringen ins Auge ein und vermitteln dem Wahrnehmenden so deren Gestalten. Auch das ethische Verhalten und das Wohlbefinden der Person sind von den Atombewegungen verursacht. Zu heftige Atombewegungen bedeuten schädliche seelische Erschütterungen; Gemütsruhe und eine pragmatische Haltung entsprechen relativer Stabilität der atomaren Strukturen. Sokrates und Platon. Für Platon (428/7–348/7), der in seinen Werken seine Gedanken Sokrates in den Mund zu legen pflegt, ist die Seele immateriell und unsterblich, sie existiert unabhängig vom Körper, also schon vor dessen Entstehung. Daraus ergibt sich ein konsequenter anthropologischer Dualismus: Seele und Körper sind nach ihrer Beschaffenheit und nach ihrem Schicksal völlig verschieden. Ihr vorübergehendes Zusammentreten und Zusammenwirken ist somit nur zeitweilig bedeutsam, ihre Trennung erstrebenswert; der Körper ist „Grab der Seele“. Sokrates und Platon setzen die Seele sowohl ethisch als auch kognitiv mit der Person gleich. Da allein die Seele eine Zukunft über den Tod hinaus hat, kommt es nur auf ihre Förderung und ihr Wohlergehen an. Wegen ihrer Gottähnlichkeit als unsterbliches Wesen steht es ihr zu, über den vergänglichen Körper zu herrschen. In mehreren Mythen beschreibt Platon das Leben der Seele im Jenseits, das Seelengericht und die Seelenwanderung. Dabei verknüpft er das Schicksal der Seele mit ihren ethischen Entscheidungen. Die inneren Konflikte der Menschen erklärt Platon damit, dass die Seele aus wesensverschiedenen Teilen bestehe, einem vernunftbegabten "(logistikón)" mit Sitz im Gehirn, einem triebhaften, begehrenden "(epithymētikón)" mit Sitz im Unterleib und einem muthaften "(thymoeidēs)" mit Sitz in der Brust. Der muthafte Seelenteil ordnet sich leicht der Vernunft unter, der begehrende neigt dazu, sich ihr zu widersetzen. Dafür verwendet Platon das Bild eines Pferdewagens: die Vernunft hat als Wagenlenker ein Zweigespann von zwei verschiedenartigen Rossen (Wille und Begehren) zu lenken und dabei das schlechte Ross (das Begehren) zu bändigen, damit jeder Seelenteil die ihm zukommende Funktion in rechter Weise erfüllt. Die naturgemäße Ordnung ist dann gegeben, wenn die Vernunft die sinnlichen Begierden zügelt, welche sie von ihren wesentlichen Aufgaben ablenken, und wenn sie bei ihrer Wahrheitssuche vom Immateriellen – der absolut zuverlässigen Ideenwelt – ausgeht und den irrtumsanfälligen Sinneswahrnehmungen misstraut. Die Funktionen sind nicht strikt aufgeteilt, vielmehr hat jeder Seelenteil eine ihm eigene Form des Begehrens und verfügt über eine kognitive Fähigkeit. Daher können auch die nichtrationalen Teile eigene Meinungen oder zumindest Vorstellungen bilden. Durch die sehr unterschiedliche Beschaffenheit ihrer Teile ist die Seele uneinheitlich. Dennoch bildet sie nach Platons ursprünglichem Konzept insofern eine Einheit, als alle Seelenteile an der Unsterblichkeit und an der jenseitigen Existenz der Seele teilhaben. Im Spätwerk jedoch fasst Platon die beiden niederen Seelenteile als vergängliche Hinzufügungen zur unsterblichen Vernunftseele auf. Durch diese Verselbständigung der Vernunftseele entsteht ein dreiteiliges (trichotomes) Menschenbild; der Mensch ist aus der Vernunftseele, dem nichtrationalen Seelenbereich und dem Körper zusammengesetzt, die Person ist die Vernunftseele. Da Platon jede selbständige Bewegung als Beweis für Beseeltheit betrachtet, hält er nicht nur Menschen, Tiere und Pflanzen, sondern auch die Gestirne für beseelt. Auch dem Kosmos als Ganzem schreibt er dieses Merkmal zu; er bezeichnet ihn als ein von der Weltseele beseeltes Lebewesen. Die vernunftbegabte Weltseele ist nach seiner Darstellung vom Demiurgen geschaffen. Auch die Einzelseelen nennt er an verschiedenen Stellen etwas Entstandenes. Wenn man diese Aussage wörtlich im zeitlichen Sinne versteht, widerspricht sie dem Prinzip der Anfangslosigkeit des Unvergänglichen. Schon für die antiken Interpreten stellte sich daher die Frage, was genau mit „geworden“ "(gégonen)" gemeint ist. Meist deuteten sie – wohl mit Recht – die „Erschaffung“ des Kosmos bzw. der Weltseele im Sinne einer metaphorischen Redewendung, die auf eine ontologische Hierarchie hinweisen soll und nicht im wörtlichen Sinne einer Entstehung zu einem bestimmten Zeitpunkt aufzufassen ist. Demnach ist die Seele überzeitlich, aber ontologisch ist sie etwas Abgeleitetes. Im Dialog "Phaidros" beschreibt Platon die Seele als geflügelt. Nach dem Verlust ihrer Flügel sinke sie zur Erde hinab und nehme einen irdischen Körper an. Wenn ein Mensch philosophiere, könnten seiner Seele neue Flügel wachsen, über die sie in der Todesstunde verfüge. Aristoteles. Die Seelenlehre des Aristoteles ist in seinem Werk "Über die Seele" ("Peri psychēs", lateinisch "De anima") dargelegt; ferner äußert er sich darüber in seinen kleinen naturphilosophischen Schriften („Parva naturalia“). Die Abhandlung "Über die Seele" bietet auch eine Fülle wertvoller Informationen über die Seelenvorstellungen der Vorsokratiker. In seiner Jugendzeit schrieb Aristoteles den Dialog "Eudemos oder Über die Seele", der bis auf Fragmente verloren ist. Aristoteles erörtert und kritisiert die Auffassungen früherer Philosophen, insbesondere diejenige Platons, und präsentiert seine eigene. Er definiert die Seele als „die erste Entelechie“ (Aktualität, Verwirklichung, Vollendung) „eines natürlichen Körpers, der potentiell Leben hat“; einen solchen Körper bezeichnet er als „organisch“. Die Feststellung, dass der Körper "potentiell" Leben hat, besagt, dass er von sich aus nur zum Belebtsein geeignet ist; dass die Belebung tatsächlich verwirklicht wird, ergibt sich durch die Seele. Die Seele kann nicht unabhängig vom Körper existieren. Sie ist seine Form und daher nicht von ihm trennbar. Mit der "ersten" Wirklichkeit der Seele spricht Aristoteles ihre Grundtätigkeit an, die auch im Schlaf nicht aussetzt. Die Grundtätigkeit hält den Organismus zusammen und bewirkt, dass er nicht zerfällt. Sie unterscheidet sich von den Tätigkeiten einzelner seelischer Aspekte, die den verschiedenen Seelenvermögen entsprechen, nach deren Vorkommen Aristoteles das Leben klassifiziert. Die grundlegenden vegetativen Seelenvermögen Ernährung, Wachstum und Fortpflanzung kommen allem Leben zu, Wahrnehmung, Fortbewegung und Strebevermögen nur den Tieren und dem Menschen. Nur dem Menschen ist das Denken eigen. Die Besonderheit des Menschen, seine für die Denktätigkeit zuständige Instanz, ist der Geist "(nous)". Der "nous" ist zwar als Möglichkeit, als „möglicher Intellekt“ (griechisch "nous pathētikós" oder "nous dynámei", lateinisch "intellectus possibilis") in der Seele angelegt, als bewirkender Intellekt (später lateinisch "intellectus agens" genannt) ist er jedoch eine vom Körper und auch von der Seele unabhängige Substanz, die „von außen“ hinzutritt und erst dadurch aus der Möglichkeit des menschlichen Denkens eine Wirklichkeit macht. So entsteht die menschliche Denkseele ("noētikḗ psychḗ" oder speziell unter dem Aspekt ihrer diskursiven Aktivität "dianoētikḗ psychḗ"). Sie kann alle Formen in sich aufnehmen. Ihre Erkenntnisse gewinnt sie nicht wie bei Platon durch Wiedererinnerung, sondern aus den Objekten der Sinneswahrnehmung, indem sie abstrahiert. Die Sinneswahrnehmungen und die Emotionen, darunter Affekte, die auch körperlich stark hervortreten – Zorn ist etwa begleitet von einem „Sieden des Blutes und des Warmen um das Herz herum“ –, sind Phänomene der „Sinnenseele“ ("to aisthētikón" oder "aisthētikḗ psychḗ", lateinisch "anima sensitiva"). Für Aristoteles ist die Seele ein immaterielles Formprinzip der Lebewesen, Ursache der Bewegung, aber selbst unbewegt. Er lokalisiert sie beim Menschen und den höheren Tierarten hinsichtlich aller ihrer Funktionen im Herz. Sie steuert alle Lebensvorgänge über die Lebenswärme, die im gesamten Körper vorhanden ist. Die Seele wird durch die Zeugung an die Nachkommen weitergegeben; sie ist bereits im Samen anwesend. Die Existenz von Körper und Seele einschließlich des möglichen Intellekts endet für Aristoteles mit dem Tod. Der aktive Intellekt hingegen ist und bleibt vom physischen Organismus getrennt und ist daher von dessen Tod nicht betroffen; er ist leidensunfähig und unvergänglich. Daraus leitet Aristoteles jedoch keine individuelle Unsterblichkeit der einzelnen Person ab. Stoiker. Die Stoa, eine im späten 4. vorchristlichen Jahrhundert gegründete Philosophenschule, entwickelte ihre Seelenvorstellung von einem materialistischen Ansatz aus. Eine Hauptquelle zur altstoischen Seelenlehre sind Auszüge aus einem verlorenen Werk des Chrysippos von Soloi, das den Titel "Über die Seele" trug. Chrysippos war das dritte Schuloberhaupt der Stoa. Seine Lehre ist eine Weiterentwicklung derjenigen des Schulgründers Zenon von Kition. Die Stoiker betrachteten im Gegensatz zu Platonikern und Peripatetikern die Seele als körperlich (feinstofflich). Nach der stoischen Lehre ist die ganze Welt der sinnlich wahrnehmbaren Materie von einer feuerartigen Substanz, dem "pneuma", durchzogen. Schon Zenon von Kition nahm eine vernunftbegabte, feurige Weltseele an, die er "pneuma" nannte. Die Seele eines irdischen Lebewesens "(psyche)" ist in ihrer Gesamtheit eine spezielle Erscheinungsform des "pneuma". Die Einzelseele von Mensch und Tier entsteht zwischen Zeugung und Geburt, indem sich das relativ dichte "pneuma" in die feinere Qualität der "psyche" umwandelt; dieser Prozess wird mit der Geburt abgeschlossen. Pflanzen haben keine "psyche"; ihr Leben basiert auf einer anderen Art von "pneuma". Die Seele durchdringt den ganzen Körper, bewahrt dabei aber stets ihre eigene Identität. Im Tod trennt sie sich vom Körper. Sie überlebt zwar nach der altstoischen Lehre zumindest bei manchen Menschen diese Trennung, ist jedoch nicht unsterblich, sondern löst sich zu einem späteren Zeitpunkt auf. Eine Unterwelt als Totenreich gibt es nicht, denn die Seele kann wegen ihrer relativen Leichtigkeit nur emporsteigen. Die menschliche Seele hat als Besonderheit einen „herrschenden Teil“ "(hēgemonikón)", der die Tätigkeiten des Intellekts ausführt. Sein Sitz ist nach der Mehrheitsmeinung der Stoiker im Herzen. Vom "hēgemonikón" gehen auch alle emotionalen Antriebe und überhaupt jede psychische Aktivität aus. Dort werden alle Eindrücke aufgenommen und gedeutet. Neben dem "hēgemonikón" gibt es sieben untergeordnete Teile bzw. Funktionen: die fünf Sinne, das Sprachvermögen und das Fortpflanzungsvermögen. Im Rahmen dieser materiellen Seelentheorie deuteten die Stoiker die Wechselwirkung zwischen der Seele und dem Körper physikalistisch. Sie führten sie darauf zurück, dass die Seele sich anspanne und entspanne und damit auf den Körper Druck ausübe, worauf sie dessen Widerstand als Gegendruck registriere. Auf diesem Effekt beruhe die Selbstwahrnehmung des Individuums. Die frühen Stoiker verwarfen die platonische Annahme verschiedenartiger Seelenteile mit unterschiedlichen oder gegensätzlichen, teils irrationalen Neigungen. Sie stellten ihr die Überzeugung entgegen, der herrschende intellektuelle Teil der Seele, das "hēgemonikón", sei die einheitliche Instanz, die alle Entscheidungen fälle. Unerwünschte und schädliche Gefühlsregungen erklärten sie als Fehlfunktionen des "hēgemonikón", die von seinen falschen Einschätzungen herrührten und insbesondere in Überschreitung der Grenzen des Angemessenen bestünden. So wurde das gesamte Gefühlsleben auf rationale Vorgänge in der Seele zurückgeführt. Was als emotionaler Konflikt erscheint, ist demnach nur Ausdruck eines Schwankens der Vernunft in der Frage, welcher Vorstellung sie zustimmen soll. Daraus zogen die Stoiker die Konsequenz, den Tieren mentale Funktionen weitgehend abzusprechen. Diese altstoischen Lehren verbreiteten sich in der radikalen, von Chrysippos stammenden Version, wurden aber schon in der mittleren Periode der Stoa erheblich abgewandelt. So lehrte Panaitios von Rhodos im 2. Jahrhundert v. Chr., dass die Seele mit dem Körper sterbe. Sein Schüler Poseidonios vertrat die Existenz der Seele vor der Entstehung des Körpers und ihre Fortdauer nach dem Tod, hielt aber an ihrer Vergänglichkeit fest. Er sprach ihr eine irrationale Komponente zu. In der jüngeren Stoa der römischen Kaiserzeit vermieden Seneca († 65) und Mark Aurel († 180) eine eindeutige Festlegung hinsichtlich der Frage, was beim Tod aus der Seele wird, doch stand auch für diese Stoiker fest, dass ein allfälliges Fortbestehen der körperlosen Seele zeitlich begrenzt und Unvergänglichkeit auszuschließen ist. Epikureer. Epikur (342/341–271/270) fasste im Rahmen seines konsequenten Atomismus auch die Seele als materiellen Bestandteil des physischen Organismus auf, er hielt sie für einen Körper innerhalb des Körpers. Daher gehört in seiner Philosophie die Seelenkunde zur Physik. Er verglich die Seelenmaterie mit Wind und Hitze und meinte, dass sie sich über den gesamten Körper verteile. Von der grobstofflichen Materie unterscheide sich die seelische durch ihre feinere Beschaffenheit. Der römische Epikureer Lukrez beschrieb sie als eine Mischung von wärmeartigen, luftartigen und windartigen Atomen sowie einer vierten Atomart, welche die Übermittlung von Sinneswahrnehmungen an den Verstand ermögliche. Diese Atome seien glatt, rund und besonders klein und daher beweglicher als diejenigen der sonstigen Materie. Dies erkläre die Geschwindigkeit der Gedanken. Als den Ort der psychischen Aktivität bezeichnete Lukrez die Brust. Wenn der Tod eintritt, löst sich nach der epikureischen Lehre die Seele auf, da ihre atomaren Bestandteile sich schnell zerstreuen. Der Zusammenhalt der Seelenmaterie ist nur durch deren Anwesenheit im Körper möglich. Die Wahrnehmung geschieht dadurch, dass sich von den Wahrnehmungsobjekten ständig Atome ablösen, die der Struktur ihrer Herkunftsobjekte entsprechen und daher deren Abbilder sind. Sie strömen in alle Richtungen und erreichen so auch die wahrnehmende Seele, in der sie entsprechende Eindrücke erzeugen. Somit setzt jede mentale Veränderung eine atomare voraus. Den durchgängigen Determinismus, der aus einem solchen Weltbild abgeleitet werden kann, lehnte Epikur jedoch ab; er schrieb den Atomen geringfügige nicht determinierte Abweichungen von den Bahnen zu, denen sie nach physikalischer Gesetzmäßigkeit folgen müssten, und schaffte damit Raum für die Vorstellung, dass es einen Zufall gibt. Mittel- und Neuplatoniker. Der einflussreiche Mittelplatoniker Numenios und die Neuplatoniker forderten eine Rückkehr zur ursprünglichen Lehre Platons, wobei sie die Kosmologie und die Seelenlehre betonten. Im Neuplatonismus wurde der platonische Grundsatz, das philosophische Leben als Vorbereitung auf den Tod – das heißt auf ein nachtodliches Dasein der Seele – aufzufassen, besonders akzentuiert. In der Spätantike stand die religiöse Dimension des Platonismus im Vordergrund. Der Neuplatonismus präsentierte sich als seelenbezogener Erlösungsweg und konkurrierte als solcher mit dem Christentum. Die Präexistenz und Unsterblichkeit der Seele und die Seelenwanderung sowie das Ziel der Befreiung von der Materie waren Kernpunkte der neuplatonischen Philosophie, ebenso wie die Herkunft der Seele aus der immateriellen, göttlichen Welt und die Möglichkeit ihrer Rückkehr in diese Heimat. In manchen Einzelheiten gingen die Meinungen der Neuplatoniker allerdings auseinander. Plotin hielt an der pythagoreischen, auch von Platon vertretenen Auffassung fest, dass tierische und menschliche Seelen von Natur aus wesensgleich seien. Aus seiner Sicht sind die Unterschiede zwischen Menschen, Tieren und Pflanzen nur Äußerlichkeiten, die mit der Verschiedenheit ihrer Körperhüllen zusammenhängen; sie spiegeln den jeweiligen zeitbedingten Zustand der Seelen. Konsequenterweise behauptete er sogar, die menschlichen Seelen seien von Natur aus den Göttern gleich. Im Gegensatz dazu lehrten Iamblichos von Chalkis, Syrianos und die anderen späten Neuplatoniker, die Menschenseele sei ihrer Natur nach von den Seelen der vernunftlosen Lebewesen verschieden und inkarniere sich daher nur in menschlichen Körpern. Iamblichos verwarf auch die Lehre Plotins, nach der die Seele während ihres Aufenthalts im Körper ständig mit der intelligiblen Welt verbunden ist, da ihr oberster Teil immer dort weilt. Diese Annahme hielt er für unvereinbar mit der Erfahrung, dass die Seele im Körper Unglück erlebt. Auch Proklos lehnte diese Auffassung Plotins ab. Auch das platonische Konzept der Weltseele bauten die Mittel- und Neuplatoniker aus. So betrachtete Plotin die Weltseele als dritthöchste Hypostase im hierarchischen Aufbau der Gesamtwirklichkeit. Sie steht in Plotins Modell unterhalb des Einen und des aus dem Einen hervorgegangenen "nous", der Weltvernunft. Die Weltseele ist aus dem "nous" „entstanden“, was aber nicht in zeitlichem Sinn zu verstehen ist, sondern metaphorisch im Sinn einer überzeitlichen ontologischen Ordnung. Sie gehört der intelligiblen Welt als deren unterster Teil an. Unmittelbar darunter beginnt die sinnlich wahrnehmbare Welt, die Welt des „Werdens und Vergehens“, auf welche die Weltseele einwirkt. Nach Plotins Überzeugung umfasst die Weltseele alle Einzelseelen. Das Weltall ist ein einheitliches, von ihr beseeltes Lebewesen, woraus sich die Verbundenheit aller seiner Teile miteinander ergibt. Mythologie und Kunst. alt=Skulptur zwei sich umarmender und küssender Personen In der Mythologie ist Psyche erst im 2. Jahrhundert literarisch belegt, als Hauptfigur in der Erzählung "Amor und Psyche" des römischen Schriftstellers Apuleius. Dort erscheint Psyche als sterbliche Königstochter, die von ihrem Gemahl, dem Gott Amor, verlassen wird. Erst nachdem sie gefährliche Aufgaben bewältigt hat, darunter einen Abstieg in die Unterwelt, kann sie wieder mit ihm vereint werden und wird unter die Unsterblichen aufgenommen. Ob das Hauptanliegen des Autors phantasievolle, humoristische Unterhaltung war oder ein religiöses, an den Himmelsflug der Seele in Platons "Phaidros" anknüpfendes Läuterungsmotiv, wobei Psyche als Allegorie der menschlichen Seele aufzufassen wäre, wird in der Literaturwissenschaft kontrovers diskutiert. Das Motiv der Verbindung von Amor und Psyche ist allerdings weit älter. In der griechischen bildenden Kunst kommen Mädchen mit Vogelflügeln (später auch Schmetterlingsflügeln), die wohl als Psyche-Darstellungen anzusehen sind, an der Seite von ebenfalls geflügelten Amor-Gestalten schon seit dem 5. Jahrhundert v. Chr. vor. Gelegentlich erscheint auf Gemälden in Pompeji Psyche mit Fledermausflügeln in Anknüpfung an eine Stelle in der "Odyssee", wo die Seelen der Toten mit Fledermäusen verglichen werden. Beliebt waren in der Antike Abbildungen der Seele als Seelenvogel oder Schmetterling, vor allem als Nachtfalter. Vasenmaler stellten die Seele oft als "eidōlon" dar, als kleine geflügelte oder ungeflügelte, meist in der Luft flatternde oder durch die Luft eilende Gestalt eines Verstorbenen. Mitunter findet sich in Kunst und Literatur auch das Motiv der Seele in Schlangengestalt; so berichtet Porphyrios in seiner Biographie Plotins über den Tod des Philosophen: „Da kroch eine Schlange unter der Bettstatt hindurch, auf der er lag, und schlüpfte in ein Loch in der Wand, und er gab seinen Geist auf.“ Offensichtlich ist hier die Seelenschlange gemeint. Die Frage nach dem Sitz der Seele. Schon in der Antike wurde versucht, den Sitz der Seele im Körper zu ermitteln und auch einzelne psychische Funktionen zu lokalisieren. Heraklit verglich die Seele mit einer Spinne, die in der Mitte ihres Netzes sitzt und, sobald eine Fliege einen der Fäden zerreißt, schnell herzueilt, als würde ihr der Schaden im Netz Schmerz bereiten. So wie die Spinne begebe sich die Seele, wenn ein Körperteil verletzt sei, schleunig dorthin, als wäre ihr die Verletzung des Körpers unerträglich. Aristoteles hielt das Gehirn für blutlos und meinte daher, es könne für die Verarbeitung der Sinneswahrnehmungen keine Rolle spielen. Im Zeitalter des Hellenismus gingen die Meinungen über den Ort des Steuerungszentrums "(hēgemonikón)" der mentalen Vorgänge auseinander; die Lokalisierung im Herzen wurde von einem großen Teil der Gelehrten vertreten, während andere für das Gehirn plädierten. Schon im 3. Jahrhundert v. Chr. untersuchte der Anatom Herophilos von Chalkedon die vier Hirnventrikel; er vermutete das wichtigste Steuerungszentrum im vierten (hintersten) Ventrikel. Ein Hauptvertreter der Gehirnhypothese war der berühmte Arzt Galenos (2. Jahrhundert), der anatomisch argumentierte. Er meinte zwar, dass die Seele sich im Gehirn befinde, ortete sie aber nicht im Ventrikelsystem und wies die einzelnen Verstandestätigkeiten nicht bestimmten Hirnbereichen zu. Diese Zuweisung ist erst im späten vierten Jahrhundert bezeugt (Poseidonios von Byzanz, Nemesios von Emesa). Nemesios bezeichnete die beiden vorderen Ventrikel als die Organe, die für die Auswertung der Sinneswahrnehmungen und das Vorstellungsvermögen "(phantastikón)" zuständig sind, den mittleren als Organ des Denkvermögens "(dianoētikón)" und den hintersten als Organ des Gedächtnisses "(mnēmoneutikón)". Er argumentierte, man könne dies bei Schädigungen einzelner Ventrikel erkennen, die jeweils zur Störung oder zum Verlust der zugehörigen mentalen Funktionen führen, und erklärte damit auch unterschiedliche psychische Krankheiten. Antike. In der hebräischen Bibel, dem Tanach, stellen „Seele“ und Körper Aspekte des als Einheit aufgefassten Menschen dar. Die den Körper belebende Kraft – in religionswissenschaftlicher Terminologie die Körperseele oder Vitalseele – heißt im biblischen Hebräisch "nefesch" (נפש), "neschama" oder auch "ru'ach" (רוח). Alle drei Begriffe bezeichnen ursprünglich den Atem. "Neschama" ist der Lebensatem, den laut dem Buch "Genesis" Gott seinem aus Erde geformten Geschöpf Adam in die Nase einblies, womit er ihn zu einem lebendigen Wesen "(nefesch)" machte. Die konkrete Grundbedeutung von "nefesch" ist „Atem“ und „Atemweg“, „Kehle“ sowie wegen des Fehlens einer begrifflichen Unterscheidung zwischen Luft- und Speiseröhre auch „Gurgel“, „Schlund“. Daher bezeichnet das Wort auch die Quelle des mit der Nahrungsaufnahme verbundenen Verlangens (Hunger und Durst, Appetit und Gier) und in erweitertem Sinne auch den Sitz von sonstigem Begehren, von Leidenschaften und Gefühlen wie Rachedurst, Sehnen und Zuneigung. "Nefesch" ist als der belebende Atem die Lebenskraft, die den Menschen beim Tode verlässt, und das Leben, das bedroht, riskiert oder ausgelöscht wird. Im weitesten Sinne steht "nefesch" auch für den gesamten Menschen mit Einbeziehung des Körpers und bedeutet dann „Person“ (auch beim Zählen von Personen). Der Mensch "hat" nicht eine "nefesch", sondern er "ist" sie und lebt als "nefesch". Daher wird "nefesch" auch als Ersatz für ein Pronomen verwendet, etwa in der Bedeutung von „jemand“. Der Gott JHWH hat eine "nefesch", bei der er schwört; sie kommt im Tanach einundzwanzigmal vor, allerdings nicht in allen seinen Teilen. Der physische Träger der Lebenskraft ist das Blut. Ob das Wort "nefesch" sogar „Leichnam“ bedeuten konnte, ist strittig. Jedenfalls ist die in älteren deutschen Übersetzungen des Tanach übliche Wiedergabe mit "Seele" unpassend. Der Tanach schreibt "nefesch" weder eine Existenz vor der Entstehung des Körpers noch Unsterblichkeit zu, und "nefesch" tritt nirgends losgelöst vom Körper auf. Außerdem ist weder "nefesch" noch "neschama" noch "ru'ach" etwas spezifisch Menschliches; alle drei Ausdrücke werden auch für Tiere verwendet. Bei "ru'ach" verbinden sich die Bedeutungen „Atem“, „Wind“ und „Geist“. Das Wort "leb" („Herz“) bezeichnet neben dem physischen Organ auch die Lebenskraft, den Sitz der intellektuellen Fähigkeiten und der Gefühle, des Willens und der Entschlüsse und im weitesten Sinne die ganze Person. Teile des späten, insbesondere des hellenistischen Judentums kannten eine Fortexistenz des Menschen nach seinem irdischen Tode, die für einen Teil der Autoren mit einer leiblichen Auferstehung verbunden sein musste, während andere an eine vom Körper losgelöste Seele dachten. Es wurde ein Weltgericht beschrieben, in welchem die Toten nach ihren Werken gerichtet werden. In den Schriften aus der Zeit des Zweiten Tempels und im Judentum der Diaspora (vor und nach der Zerstörung des Tempels im Jahre 70 n. Chr.) bestanden widersprüchliche Vorstellungen nebeneinander. Die rabbinischen Theologen vertraten sehr unterschiedliche Ansichten. Einerseits wurde die „Seele“ weiterhin mit dem Leben oder der Person gleichgesetzt, andererseits übernahmen griechisch beeinflusste gebildete Juden aus dem Platonismus und den philosophischen Strömungen des Hellenismus die Auffassung der Seele als eines eigenständigen, unabhängig vom Körper existierenden Wesens. Unter ihnen war die Ansicht verbreitet, die Seele sei himmlischer Herkunft, der Leib irdischen Ursprungs. Die Essener nahmen nach dem Bericht des jüdischen Geschichtsschreibers Flavius Josephus eine unsterbliche, feinstoffliche Seele an, die im Körper wie in einem Gefängnis lebt und beim Tode befreit wird. Die Pharisäer glaubten an eine Auferstehung, die Sadduzäer hingegen bestritten Unsterblichkeit und Auferstehung. Der im frühen 1. Jahrhundert tätige, stark vom Platonismus beeinflusste Philosoph Philon von Alexandrien meinte, die Vernunftseele sei zwar für ein ewiges Leben bestimmt, doch seien manche Seelen nicht in der Lage, diese Bestimmung zu erfüllen. Die Unsterblichkeit komme nicht von Natur aus allen Seelen zu, sondern sei die Belohnung für richtiges Verhalten während des irdischen Lebens. Nur den Tugendhaften sei die Ewigkeit beschieden, für schlechte Menschen sei der Tod des Körpers mit Auslöschung ihrer Seelen verbunden. Bei amoräischen Gelehrten kam die Annahme der Präexistenz der Seele hinzu. Um 300 n. Chr. lehrte Rabbi Levi, Gott habe sich mit den Seelen beraten, bevor er sein Schöpfungswerk ausführte. Mittelalter und Neuzeit. In der mittelalterlichen jüdischen Philosophie setzte sich seit dem 9. und 10. Jahrhundert (Saadja ben Josef Gaon, Isaak Israeli) unter dem prägenden Einfluss des Platonismus (nunmehr einschließlich des Neuplatonismus), der später auch indirekt über Avicenna rezipiert wurde, die Überzeugung von der Unsterblichkeit der Seele durch, die Saadja mit einem betonten Auferstehungsglauben verband. Für die Unsterblichkeit plädierten insbesondere jüdische Neuplatoniker des 11. und 12. Jahrhunderts wie Solomon ibn Gabirol (Avicebron), Bachja ben Josef ibn Paquda, Abraham bar Chijja und Abraham ben Meir ibn Ezra. Allerdings verstanden manche jüdische Philosophen des Mittelalters unter Unsterblichkeit nicht eine individuelle Fortexistenz, sondern ein Aufgehen der Seelen der Verstorbenen in der geistigen Welt. Dabei gingen sie davon aus, dass die Materie als Individuationsprinzip mit dem Tode wegfalle und die einzelne Seele ihr auf diesem Prinzip basierendes separates Dasein ohne den Körper nicht fortsetzen könne. Die Seele, die Saadja noch für feinstofflich gehalten hatte, wurde seit dem Hochmittelalter allgemein als unkörperliche Substanz aufgefasst; man betonte ihren rationalen Aspekt. Schwierigkeiten bereitete die Unsterblichkeitsidee den Aristotelikern des 12. Jahrhunderts, Abraham ibn Daud (Abraham ben David Halevi) und Maimonides (Mosche ben Maimon), die die Seele in aristotelischem Sinne als Form des Körpers betrachteten. Während Abraham ibn Daud meinte, dass die Seele mit dem Körper entstehe, aber in der Unsterblichkeitsfrage der platonischen Auffassung folgte, unterschied Maimonides zwischen einer angeborenen, sterblichen Seele und einer erworbenen, den Körper überdauernden Vernunftseele. Anscheinend glaubte Maimonides, dass die Vernunftseele im Jenseits nicht ein separates Individuum bleibe, sondern im göttlichen aktiven Intellekt aufgehe, doch vermied er es, dies klar zu formulieren. Noch stärker als bei den mittelalterlichen jüdischen Philosophen machte sich die neuplatonische Denkweise in der Kabbala bemerkbar. Dort wurde die Präexistenz der Seele und die Seelenwanderung (hebräisch "gilgul") gelehrt. Nach einer im Buch "Bahir" dargestellten Tradition gibt es eine feste Zahl von präexistenten Seelen. Anfänglich waren sie alle an einem "guf" genannten Ort versammelt, der Stätte der Seelen, die auf ihren Eintritt in einen Körper warten. Da laufend Menschen geboren werden, entleert sich der "guf" im Lauf der Zeit, bis schließlich die Geschichte durch völlige Entleerung des "guf" ihr Ende erreichen wird. Allerdings verzögert sich dieser Prozess durch die Sünde, denn unreine Seelen müssen zu ihrer Läuterung die Seelenwanderung durchmachen. In kabbalistischem Schrifttum kommt die Seelenwanderung seit dem 12. Jahrhundert vor. Insbesondere in der von Isaak Luria (1534–1572) begründeten lurianischen Kabbala, einer in der Folgezeit einflussreichen Strömung, spielt sie eine wichtige Rolle. Neues Testament. Im Neuen Testament kommt der griechische Begriff ψυχή "(psyche)" vor, der in älteren Bibelübersetzungen mit „Seele“ wiedergegeben wird. Schon in der Septuaginta, der von jüdischen Gelehrten angefertigten griechischen Tanach-Übersetzung, war der hebräische Begriff "nefesch" mit "psyche" übersetzt worden. In den Evangelien ist an den meisten Stellen, wo von "psyche" die Rede ist, „Leben“ im Sinne von "nefesch" gemeint, speziell zur Bezeichnung der Eigenschaft eines bestimmten Individuums – Mensch oder Tier –, lebendig zu sein. Dahinter steht die traditionelle Vorstellung eines mit dem Atem verbundenen, in der Kehle lokalisierten „Lebensorgans“. In diesem Sinne ist davon die Rede, dass die "psyche" als das Leben einer Person bedroht ist (), etwa durch Mangel an Nahrung (;), oder dass sie entzogen wird () und verloren wird (). Die "psyche" ist der Sitz und Ausgangspunkt des Denkens, Fühlens und Wollens. In den neueren Bibelübersetzungen wird "psyche" nicht mit „Seele“, sondern mit „Leben“, „Mensch“ oder einem Personalpronomen übersetzt. Dieser ganzheitlichen Auffassung vom Menschen entspricht die schon im Urchristentum vorhandene Vorstellung einer leiblichen Auferstehung und einer leib-seelischen Einheit bei den Auferstandenen im Jenseits. Die Auferstehung Jesu wird als „Wiederaufnehmen“ der zuvor „hingegebenen“ "psyche" verstanden (). Andere Stellen zeigen jedoch, dass das neutestamentliche Verhältnis von Leib und Seele kompliziert ist. Der Begriff "psyche" ist unscharf, an manchen Stellen wohl mehrdeutig, die Übergänge zwischen seinen Bedeutungen sind fließend. Erkennbar ist ein Bedeutungswandel: Die Sprachentwicklung spiegelt das Aufkommen dualistischer Vorstellungen von Leib und Seele in der Anthropologie des hellenistischen Judentums. Die "psyche" im Sinne des neuen, hellenistisch geprägten Sprachgebrauchs existiert – anders als die alttestamentliche "nefesch" – unabhängig vom Leib und kann nicht getötet werden (; siehe auch und). Sie wird als ein dem Leib gegenüberstehender Teil des Menschen aufgefasst. Diese Bedeutungsverschiebung lässt sich durch den Einfluss philosophischer Konzepte griechischen Ursprungs erklären. Nach begab sich Jesus – anscheinend zwischen seinem Tod und seiner Auferstehung, also ohne seinen Leib – zu „im Kerker“ gefangenen „Geistern“, die zur Zeit der Sintflut ungehorsam gewesen waren, und predigte ihnen. Mit „Geistern“ (griechisch "pneúmasin") sind hier vermutlich Seelen gemeint, die den Tod ihrer Körper überlebt haben und sich in der Unterwelt (Scheol) aufhalten; die Aussage wird traditionell und auch in neuerer Fachliteratur auf die „Höllenfahrt Christi“ bezogen, die Interpretation der schwierigen Stelle ist allerdings strittig. Dass den Toten – also körperlosen Seelen verstorbener Menschen – das Evangelium verkündet worden sei, wird in mitgeteilt. In sieht der Visionär „die Seelen "(psychás)" derer, die geschlachtet worden waren“ und hört sie mit lauter Stimme rufen. Hier wird die Vorstellung einer Wahrnehmungs- und Handlungsfähigkeit der Seelen, die nach der Vernichtung ihrer Körper weiterhin leben, vorausgesetzt. Der Apostel Paulus verwendet den Begriff "psyche" in seinen Briefen nur elfmal und vermeidet ihn bei Aussagen über das Leben nach dem Tode. Seine Seelenvorstellung ist teils von jüdischem Denken, teils von der griechischen Philosophie und ihrer Terminologie geprägt. Epoche der Kirchenväter. Die Apologeten des 2. Jahrhunderts setzten sich im Rahmen ihrer Verteidigung des Christentums auch mit den damals verbreiteten philosophischen Auffassungen über die Seele auseinander. Sie nahmen zwar wie die Platoniker und alle späteren Kirchenväter eine Fortexistenz der Seele bzw. des Geistes nach dem Tode an, bestanden aber wegen der Auferstehungslehre auf einer Verbindung von Leib und Seele auch im Jenseits, einer für Platoniker ausgeschlossenen Vorstellung. Justin der Märtyrer verwarf die platonische Lehre, wonach die Seele von Natur aus unsterblich ist; er meinte, sie sei ihrer eigenen Natur nach vergänglich und nur durch Gottes Willen unsterblich. Tatian bezeichnete die Seele als zusammengesetzt. Er unterschied zwischen einer von Natur aus sterblichen Seele "(psyche)", welche auch Tiere haben (denen er sogar Verstand zusprach), und einem unsterblichen Geist "(pneuma)" des Menschen. In der Schrift "Über die Auferstehung der Toten" aus dem 2. Jahrhundert, die vielleicht von Athenagoras von Athen stammt, wird behauptet, die Auferstehung des Leibes und seine Wiedervereinigung mit der Seele sei notwendig. Der Argumentation des Autors zufolge würde die menschliche Natur als solche aufgehoben, wenn die Seele allein fortbestünde. Die Verbindung der Seele mit dem Körper wäre zwecklos, wenn sie auf die Dauer des irdischen Lebens beschränkt bliebe. Diese Möglichkeit sei auszuschließen, denn unter Gottes Werken und Gaben könne nichts Unnützes sein. Daher müsse auch die Verbindung der beiden Bestandteile des Menschen sinnvoll und somit auf Dauerhaftigkeit angelegt sein. Auch Bischof Irenäus von Lyon, der sich in der zweiten Hälfte des 2. Jahrhunderts als theologischer Schriftsteller betätigte, nahm zum nachtodlichen Schicksal der Seele Stellung. Er lehrte, dass nach dem Tode des Körpers die Seele dessen Merkmale und Form behalte und sich in die Unterwelt (Hades) begeben müsse, die sie erst zur Zeit der künftigen Auferstehung verlassen werde. Bei der Auferstehung erhalte sie wiederum ihren Leib. Irenäus bekämpfte die christlichen Gnostiker, darunter die Karpokratianer, die die Seele für präexistent hielten und eine Seelenwanderung annahmen. Er meinte, der „natürliche“ Mensch sei aus Leib und Seele zusammengesetzt, der „vollkommene Mensch“ hingegen sei dreiteilig, da der „Geist Gottes“ in seine Seele eintrete und sich mit ihr verbinde. Tertullian († nach 220), der sich scharf gegen die griechische Philosophie wandte, verfasste eine Schrift "Über die Seele". Er betrachtete die Seele als materiell (feinstofflich, licht- und luftartig) und schrieb ihr eine Gestalt zu, die derjenigen des Körpers entspreche. Dabei argumentierte er, dass die Seele keine Auswirkungen körperlicher Zustände erleben könnte, wenn sie nicht selbst körperlich wäre. Nach seiner Ansicht ist sie von Natur aus unsterblich und hinsichtlich ihrer Substanz einfach (einheitlich), er lehnte also die Idee von Seelenteilen ab. Tertullian meinte, dass die Seele des Kindes bei der Zeugung aus dem Samen des Vaters hervorgehe wie ein Spross aus einer Pflanze und daher jede Menschenseele ein Zweig aus Adams Seele sei. Durch diese Übertragung elterlicher Seelensubstanz auf das Kind erklärte er die Vererbung geistiger Eigenschaften und die (damals noch nicht so bezeichnete) Erbsünde. Diese Lehre, der Traduzianismus (von lateinisch "tradux", „Spross“), eine Form des Generatianismus, fand als Erklärung für die Erbsünde manche Befürworter, wurde aber später von der katholischen Kirche verworfen. Clemens von Alexandria († 215 oder 221) war stark von der platonischen und der stoischen Denkweise beeinflusst. Er hielt die Seele zwar für feinstofflich, im Unterschied zu Tertullian bezeichnete er sie jedoch als (relativ) unkörperlich. Er unterschied zwei Seelenteile, das "pneuma hegemonikón" („regierender Geist“, Vernunftseele) und einen niederen, vernunftlosen Teil (Wahrnehmung, emotionale und vegetative Funktionen); daneben verwendete er gelegentlich auch ein auf stoischen Ideen fußendes Schema mit zehn Seelenteilen. Für den vernunftlosen Seelenteil nahm er Fortpflanzung im Sinne des Generatianismus an, die Vernunftseele trete dann hinzu. Wie auch andere Kirchenväter meinte Clemens, die Seele warte im Hades auf die Auferstehung des Leibes. Ein Schüler des Clemens war Origenes († um 253/254). Nach seiner Argumentation muss die Seele (das heißt, ihr geistiger Teil oder Aspekt) unkörperlich sein, denn sonst könnte sie Unsichtbares und Unkörperliches nicht erkennen und auch nicht über ein Gedächtnis verfügen; auch müsste ihr, wenn sie körperlich wäre, eine bestimmte sinnlich wahrnehmbare Substanz als Objekt zugeordnet sein so wie den körperlichen Sinnen. Origenes nahm eine Präexistenz der Seele an. Später wurde ihm von gegnerischer Seite unterstellt, er habe auch die Seelenwanderung gelehrt. Er vertrat eine trichotome (dreiteilige) Anthropologie, wonach der Mensch aus einer Dreiheit besteht: Körper, Seele und „Lebensgeist“; außerdem erwog er die Möglichkeit, dass im Menschen zwei Seelen sind, eine präexistente himmlische und daneben eine niedere irdische, die bei der Zeugung entsteht; diese Frage ließ er offen. Laktanz († wohl 325) vertrat als erster klar und nachdrücklich den Kreatianismus, die dem Traduzianismus entgegengesetzte Lehre, die sich später in der katholischen Kirche gänzlich durchgesetzt hat. Der Kreatianismus besagt, dass die Seele weder vor der Zeugung bereits in einer geistigen Welt existiert noch durch die Fortpflanzung von den Eltern empfangen wird, sondern zum Zeitpunkt der Empfängnis unmittelbar von Gott geschaffen und in den sich bildenden Körper eingefügt wird. Auch Hieronymus trat für den Kreatianismus ein. Augustinus († 430) hingegen schwankte, da er für den Kreatianismus einerseits Verständnis aufbrachte, andererseits aber nicht in der Lage war, eine solche Erschaffung der Seelen mit der Erbsünde zu vereinbaren. Er vertrat die Einheit der Seele gegen die platonische Lehre von den Seelenteilen, nahm aber innerhalb der Seele eine Stufung in Anlehnung an die aristotelischen Tradition vor: rationale Seele (Seelenfunktion) mit Geist "(mens)" und Willen, irrationale Seelenfunktion mit Trieb, Sinneswahrnehmung und Gedächtnis und „nur lebende“ (vegetative) Seelenfunktion. Eingehend bemühte sich Augustinus um einen Nachweis der Unkörperlichkeit und Immaterialität der Seele. Eine dreiteilige Anthropologie mit "soma", "psyche" und "nous" (Körper, Seele und Geist) vertrat im späten 4. Jahrhundert der Bischof Apollinaris von Laodicea, wobei er sich auf eine Paulus-Stelle berief. Seine Anwendung dieser Lehre auf die Christologie, wonach Christus eine menschliche "psyche" hat, an die Stelle des menschlichen "nous" bei ihm jedoch der göttliche "logos" tritt, wurde später von der Kirche verurteilt. Mittelalter. Die katholische Seelenlehre des Mittelalters orientierte sich jahrhundertelang an den Kirchenvätern, vor allem an Augustinus, dessen Ansichten in dem populären Traktat "De statu animae" („Über die Beschaffenheit der Seele“) des Kirchenschriftstellers Claudianus Mamertus (5. Jahrhundert) und in der aus dem 6. Jahrhundert stammenden Schrift Cassiodors "De anima" („Über die Seele“) zusammengefasst waren. Der Einfluss der platonischen Denkweise machte sich sowohl durch Augustinus als auch durch die ebenfalls sehr geschätzten theologischen Werke des spätantiken Neuplatonikers Pseudo-Dionysius Areopagita geltend. Hinzu kam der seit dem 11. Jahrhundert in lateinischer Übersetzung vorliegende spätantike Traktat "Über die Natur des Menschen" des Bischofs Nemesios von Emesa, der für die Betrachtung der Seele unter anthropologischem Gesichtspunkt eine wichtige Rolle spielte. Nemesios trat für die Präexistenz der Seele ein. Als Anhänger der platonischen Auffassung, die der Seele ein eigenständiges Dasein zuschreibt, bekämpfte er die aristotelische Lehre von der Seele als Entelechie des Leibes. Besonders stark vom Platonismus beeinflusst war der irische Philosoph Johannes Scottus Eriugena (9. Jahrhundert), der meinte, dass der Mensch nicht einen Intellekt habe, sondern sein „wahres und höchstes Wesen“ nichts anderes als der Intellekt sei. Die menschliche Seele betrachtete Eriugena als einen Aspekt der Weltseele. Auch im 12. Jahrhundert griffen einige Theologen, insbesondere Abaelard, Wilhelm von Conches und Thierry von Chartres, die platonische Idee einer Weltseele auf. Sie identifizierten die Weltseele mit dem Heiligen Geist. Diese Auffassung erregte allerdings Anstoß und wurde auf Betreiben Bernhards von Clairvaux von der Kirche verurteilt; daraufhin gaben Abaelard und Wilhelm von Conches sie auf. Andere Theologen des 12. Jahrhunderts wie Robert von Melun und der einflussreiche Augustiner-Chorherr Hugo von Sankt Viktor meinten, dass das Personsein des Menschen allein der Seele zukomme und diese daher der eigentliche Mensch sei. Die Gegenposition, wonach nicht die Seele, sondern nur der Mensch als Person bezeichnet werden kann, vertraten Gilbert von Poitiers (Gilbertus Porretanus) und seine Schüler; dieser Standpunkt setzte sich schließlich durch. Die meisten Theologen waren damals der Meinung, die Unsterblichkeit der Seele sei philosophisch nicht beweisbar und nur aus der biblischen Offenbarung abzuleiten. Die Vorherrschaft der platonischen Seelenauffassung endete, nachdem die im 12. Jahrhundert von Jakob von Venedig angefertigte lateinische Übersetzung von Aristoteles’ Schrift "De anima" („Über die Seele“) im frühen 13. Jahrhundert in Gelehrtenkreisen allgemein bekannt geworden war. Dieses Werk wurde zusammen mit dem ausführlichen Kommentar des Averroes eifrig studiert und oft kommentiert; ebenso wie andere Schriften des Aristoteles wurde es an den Universitäten ein grundlegendes Lehrbuch. Der aristotelische Grundsatz, dass die Seele die Entelechie des Körpers ist und das Verhältnis der beiden dasjenige von Form und Materie ist, und die Lehre von den drei Seelenteilen (intellektive, sensitive und vegetative Seele im Menschen) war die Basis der Überlegungen und Diskussionen der spätmittelalterlichen Magister; den Rahmen ihrer anthropologischen Erkenntnisbemühungen bildeten generell die Terminologie und die Definitionen des Aristoteles. Ein schwieriges, oft erörtertes Problem bestand in der Aufgabe, das aristotelische Seelenverständnis mit dem Unsterblichkeitskonzept zu vereinbaren, auf das auch die Aristoteliker aus theologischen Gründen nicht verzichten wollten. Dabei ging es um die Frage, ob die Seele eine wesenhaft selbständige Substanz ist, ein "hoc aliquid" („dieses Etwas“), das die vollständige Natur einer Spezies in sich trägt, wie die platonisch denkenden Gelehrten meinten, oder ob sie im Sinne der von Aristoteles gegebenen Definition als Form des Körpers nur Teil eines solchen "hoc aliquid" – nämlich des Menschen – ist. Die erstere Auffassung vertraten zahlreiche Theologen und Philosophen in teils radikaleren, teils gemäßigten Varianten, teils nur hinsichtlich der intellektiven Seele (Roger Bacon), teils auch hinsichtlich der sensitiven Seele der Tiere und der vegetativen der Pflanzen (Galfrid von Aspall). Daraus wurde mitunter ausdrücklich die Konsequenz gezogen, im Sinne der neuplatonischen Tradition die Seele als zusammengesetzt aus Form und geistiger Materie "(materia spiritualis)" aufzufassen und damit ihre Eigenständigkeit gegenüber dem Körper zu untermauern (Roger Bacon, Bonaventura). Die aristotelische Gegenposition vertrat der Dominikaner Thomas von Aquin so konsequent, wie es bei Berücksichtigung der Unsterblichkeitslehre möglich war. Er stellte die Behauptung auf, die Seele sei die einzige Form des Körpers "(anima unica forma corporis)", womit er die Zusammengehörigkeit von Seele und Körper unterstrich. Dieser Satz wurde ein Kernbestandteil des von ihm begründeten Thomismus. Die gegenteilige Position, wonach es im Menschen eine Mehrzahl von Formen gibt und der Körper unabhängig von der Seele eine eigene Form "(forma corporeitatis)" hat, wurde insbesondere von Franziskanern vertreten, darunter Bonaventura und Johannes Duns Scotus. Von einer Lehrmeinung des Augustinus ausgehend meinten manche Philosophen, die Seele sei für sich selbst ein unmittelbar zugängliches Erkenntnisobjekt; daher sei die zuverlässigste Erkenntnis, die sie besitzen könne, die intuitive Selbsterkenntnis. Über diese verfüge sie ohne Hilfe eines von anderswoher empfangenen Erkenntnisbildes. Der gegenteiligen, streng aristotelischen Sichtweise zufolge, die Thomas von Aquin vertrat, gelangt die Seele nur indirekt zur Selbsterkenntnis, nämlich durch einen Akt, der sich auf ein äußeres Erkenntnisobjekt richtet; dadurch erhält sie ein Erkenntnisbild, und die Erkenntnisgewinnung geschieht diskursiv und reflexiv durch Rückwendung der Seele auf sich selbst. Hinsichtlich des Verhältnisses der Seele zur Außenwelt wurde kontrovers diskutiert, inwieweit die Seele gemäß einer berühmten Feststellung des Aristoteles „in gewisser Weise alles“ (Seiende) sei. Diese Aussage wurde im Sinne des Aristoteles damit begründet, dass die Seele fähig sei, die Erkenntnisbilder alles Erkennbaren aufzunehmen und in sich zu tragen. Ferner wurde behauptet, die Seele verfüge über angeborene Erkenntnisbilder der Außenweltobjekte. Überdies wurde angeführt, es bestehe eine Ähnlichkeits- oder Analogiebeziehung zwischen der Seele und den Außenweltobjekten; insofern umfasse die Seele als „Mikrokosmos“ den „Makrokosmos“ (die gesamte Wirklichkeit), da sie ihn abbilde. Eine solche Realentsprechung oder Analogie zwischen der Seele und dem gesamten Kosmos war die starke Variante der Mikrokosmos-Theorie; die schwache Variante ließ die Theorie nur „in gewisser Weise“ gelten. Turbulent verliefen die Auseinandersetzungen um den Averroismus. Der muslimische Philosoph Averroes, der als Aristoteles-Kommentator in der katholischen Welt viel Beachtung fand, hatte an Aristoteles anknüpfend gelehrt, dass es nur einen einzigen universellen Intellekt gebe und daher in allen Menschen ein und derselbe Intellekt tätig sei und die Erkenntnis herbeiführe. Damit wurde das individuelle Fortleben der vernunftbegabten Seele nach dem Tode in Zweifel gezogen, was zu heftigen Reaktionen mancher Theologen und der kirchlichen Obrigkeit führte. Außerdem war in averroistisch beeinflussten Kreisen die Überzeugung verbreitet, die Tätigkeit des Intellekts sei das Merkmal, das den Menschen zum Menschen mache, und daher sei das philosophische Leben die Vollendung des Menschseins; wer den Intellekt vernachlässige, könne nur in einem uneigentlichen Sinne "(aequivoce)" Mensch genannt werden. Auch Albert der Große betonte, der Mensch sei seinem Wesen nach identisch mit dem, was das Vorzüglichste in ihm sei, nämlich dem Intellekt "(homo solus intellectus)". Dagegen wurde jedoch eingewendet, dass nach Aristoteles die Körpermaterie zur Wesens- und Begriffsbestimmung des Menschen gehört. Besonders Thomas von Aquin bekämpfte die Gleichsetzung des Menschen – als Art oder auch als Individuum – mit der Seele; die Formulierung, dass der Mensch Intellekt sei, akzeptierte er nur in einer stark abgeschwächten Auslegung. a> aus dem späten 15. Jahrhundert Intensiv wurden im Spätmittelalter Fragen diskutiert, die sich auf die Rolle des möglichen und des tätigen Intellekts und das Verhältnis des Intellekts zur Seele oder die Funktion des Intellekts in der Seele bezogen. An neuplatonische Ideen anknüpfend fasste Dietrich von Freiberg den tätigen Intellekt als „Seelengrund“ auf, also nicht als Potenz der Seele, sondern als begründenden Ursprung ihres Wesens. Dieses Konzept wurde von Meister Eckhart abgewandelt. Er betonte, dass der Seelengrund oder das „Seelenfünklein“ nicht der tätige Intellekt und nicht „etwas an der Seele“ "(aliquid animae)" sei, sondern „etwas in der Seele“ "(aliquid in anima)". Dieses Fünklein sei in gewisser Hinsicht geschaffen, in anderer – wesentlicherer – Hinsicht ungeschaffen und unerschaffbar und damit zur Gotteserkenntnis befähigt, welche allem Geschaffenen prinzipiell verschlossen bleibe, weil Gott ungeschaffen und damit von allem Geschaffenen absolut verschieden sei. Ein weiterer Themenbereich, dem die spätmittelalterlichen Philosophen im Anschluss an Aristoteles viel Beachtung schenkten, war die Beschaffenheit der Tierseele, also die Frage nach den mentalen Fähigkeiten der Tiere (Gelehrigkeit, Vorstellungskraft, Gedächtnis, zweckmäßiges Handeln, Verständigung über innere Zustände durch Lautäußerungen, deren Bedeutung erfasst wird). Den Tieren wurde anstelle des menschlichen Verstandes eine „Einschätzungskraft“ "(virtus aestimativa)" der sensitiven Seele zugeschrieben, mit der beispielsweise ein Schaf den Wolf auch dann als Feind erkennt, wenn es noch nie zuvor einen Wolf gesehen hat, und mit der die Tiere wissen, welche Nahrung für sie bekömmlich ist. Diskutiert wurde, inwieweit diese Fähigkeit der Tierseele als verstandesähnlich einzustufen ist. Eine weitere Frage war, ob bei Tieren eine freie Wahlentscheidung vorkommt. In diesem Zusammenhang richtete sich das Interesse auch auf die mentalen Eigenschaften angenommener Mittelwesen oder Zwischenstufen zwischen Mensch und Tier, zu denen manche Gelehrte wie Albert der Große die Pygmäen zählten. Die faktische Gleichsetzung der Person mit der Seele fand in Begriffen wie „Seelenheil“ "(salus animae)" und „Seelsorge“ "(cura animarum)" Ausdruck. Das Gebet für das Heil der „armen Seelen“ Verstorbener im Fegefeuer war in der Volksfrömmigkeit verwurzelt. Es wurde eifrig betrieben und bildete insbesondere eine wichtige Aufgabe der Mönche, die diesen Gebetsdienst im Rahmen der Liturgie vollzogen. Zur allgemeinen Fürbitte für die Seelen im Fegefeuer wurde der Gedenktag Allerseelen eingeführt, der in der katholischen Kirche alljährlich am 2. November begangen wird. Neuzeit. a> aus dem frühen 16. Jahrhundert In der Neuzeit ist die Seelenlehre der Kirchenväter in ihren Grundzügen sowohl auf katholischer als auch auf evangelischer Seite bis in die Moderne vorherrschend geblieben, wenngleich es in der evangelischen Theologie schon in der Reformationszeit zur Neuinterpretation einzelner Aspekte kam. Nachdem aristotelisch und averroistisch orientierte Philosophen Argumente gegen die herkömmliche Unsterblichkeitslehre vorgebracht hatten, reagierte die katholische Kirche auf dem Fünften Laterankonzil mit einer dogmatischen Definition, die am 19. Dezember 1513 von den Konzilsvätern beschlossen wurde. In der Konstitution "Apostolici regiminis" schrieb das Konzil die individuelle Unsterblichkeit der menschlichen Seele als verbindliche Glaubenswahrheit fest. Der Konzilstext drückte die Überzeugung aus, es handle sich um eine nicht nur geoffenbarte, sondern auch auf natürlichem Wege mittels der Vernunft einsehbare Tatsache; gegenteilige Meinungen seien nicht nur theologisch, sondern auch philosophisch unhaltbar. Ein namhafter Vertreter der Gegenmeinung war der Philosoph Pietro Pomponazzi (1462–1525), der lehrte, die Unsterblichkeit der Seele sei eine bloße Glaubenswahrheit und philosophisch nicht bewiesen. Die lehramtliche Festlegung des Fünften Laterankonzils ist noch heute ein fester Bestandteil der katholischen Dogmatik. Auch hinsichtlich der Entstehung der Seele und ihrer Verbindung mit dem Körper steht die katholische Kirche in der antiken und mittelalterlichen Tradition. So stellte Papst Pius XII. 1950 in der Enzyklika "Humani generis" fest: "Daß nämlich die Seelen unmittelbar von Gott geschaffen werden, heißt uns der katholische Glaube festzuhalten." Damit wendet sich die Kirche gegen den Traduzianismus, der annimmt, die Seele des Kindes werde diesem bei der Zeugung aus den Seelen der Eltern mitgeteilt, indem ein Teil der elterlichen Seelensubstanz durch den körperlichen Samen auf das Kind übergehe. Die traditionelle Lehre wurde 2005 im "Katechismus der Katholischen Kirche" bekräftigt: "Die Geistseele kommt nicht von den Eltern, sondern ist unmittelbar von Gott geschaffen; sie ist unsterblich. Sie geht nicht zugrunde, wenn sie sich im Tod vom Leibe trennt, (…)." Auf evangelischer Seite wandte sich Martin Luther gegen die aristotelische Bestreitung der Unsterblichkeit der Seele. Er lehnte aber auch das Dogma des Fünften Laterankonzils nachdrücklich ab. Ihm missfiel die Vorstellung des Thomismus und der Konzilsväter, die Seele werde unabhängig vom Leib erschaffen und diesem dann eingegossen. Eine solche Anthropologie kann nach Luthers Meinung die erbsündliche Verdorbenheit des ganzen Menschen nicht erklären. Daher nahm er an, die Seele werde nicht von außen her in den Leib hineingestoßen, sondern Gott wirke sie von innen heraus durch seinen belebenden Atemhauch und sein allmächtiges Wort. Anderer Meinung war der Reformator Johannes Calvin, der eine stark platonisch geprägte Seelenlehre vertrat und den Körper als Gefängnis der Seele bezeichnete. Er betrachtete die Seele als immaterielle und unsterbliche Substanz und deutete den Tod als Befreiung der Seele vom Körper und damit auch als Erlösung von den Sünden. In der Moderne haben manche evangelische Theologen einen radikalen Bruch mit der herkömmlichen Seelenlehre vollzogen, indem sie die Existenz der Seele als eigenständige Substanz und damit auch ihre Trennbarkeit vom Leib und ihre Unsterblichkeit bestritten. Ihrer Auffassung nach stirbt die Seele zusammen mit dem Körper, da sie mit ihm eine unauflösliche Einheit bildet. Die künftige Auferstehung ist somit nicht eine Wiederverbindung der ununterbrochen fortexistierenden Seele mit dem auferstandenen Körper, sondern Auferstehung des ganzen Menschen. Diese Lehre ist als „Ganztodtheorie“ bekannt. Zu ihren Vertretern zählen Paul Althaus, Karl Barth, Emil Brunner, Eberhard Jüngel, Jürgen Moltmann und Oscar Cullmann. Die dem Ganztod-Konzept zugrundeliegende Denkweise hat auch auf katholischer Seite Zustimmung gefunden, insofern sie eine reale Trennung von Leib und Seele verneint. Beispielsweise schrieb Johann Baptist Metz 1964 im katholischen "Lexikon für Theologie und Kirche" über den Menschen: "Die Wirklichkeit seines Leibes ist nichts anderes als seine wirkliche Seele, (…) so wie etwa (…) ein Nadelstich, mit dem man ein Loch in ein Stück Papier sticht, in seiner Wirklichkeit nur gegeben ist als durchstochenes Papier (…) „Seele“ ist darum immer eine Aussage über den ganzen Menschen." Katholische Theologen, die den Gedanken der Ganzheitlichkeit des Menschen betonen, meinen, der Mensch als Leib-Seele-Einheit sterbe als ganzer. Sie unterscheiden sich aber von den evangelischen Ganztod-Befürwortern durch ihre Ansicht, der Tod sei nicht als gänzliche Auslöschung zu verstehen. Kritiker der Ganztodtheorie bringen vor, der Ganztod lasse keine Kontinuität zwischen dem geschichtlichen und dem auferstandenen Menschen zu. Bei einer Auferstehung aus dem Nichts wäre der Auferstandene ein neues Subjekt. Daher werde eine unsterbliche Seele als Träger der Kontinuität des menschlichen Ich benötigt. Gnosis. Bei den antiken Gnostikern wurde eine Vielzahl von teils christlichen, teils nichtchristlichen Heilslehren verkündet. Es gab keine einheitliche Seelenvorstellung aller gnostischen Richtungen und insbesondere keine einheitliche Terminologie. Die griechisch schreibenden Gnostiker übernahmen für ihre Anthropologie gängige Ausdrücke der Platoniker, gaben aber dem Begriff "psyche" eine abgewandelte Bedeutung und schätzten die Seele anders ein. Während sich die Platoniker zum Ideal einer von der Vernunft gelenkten Seele bekannten, welche die gute, göttliche Weltordnung erkenne und sich nach ihr richte, war unter den Gnostikern eine wesentlich ungünstigere Bewertung der "psyche" verbreitet. Die Abwertung der "psyche" hing mit der gnostischen Ablehnung des sinnlich wahrnehmbaren Kosmos zusammen. Die Gnostiker unterschieden zwischen der göttlichen Lichtwelt, die sie "pleroma" nannten, und dem Bereich der Finsternis, dem von der Materie geprägten Diesseits, dem sie zu entkommen trachteten. Nur den menschlichen Geist ("pneúma") ordneten sie der Lichtwelt zu. Unter "psyche" verstanden viele Gnostiker einen vom Geist verschiedenen, zwar immateriellen, aber zum Diesseits gehörenden und damit der Materie zugeordneten Teil des Menschen. Sie meinten, die "psyche" sei an sich wertlos und könne nur durch ihre Verbindung mit dem "pneuma" eine gewisse Bedeutung erlangen. Im Gegensatz zu den Platonikern, die den Hervorgang der Seele aus dem Geist als eine naturgemäße Selbstentfaltung des Geistes deuteten und daher positiv werteten, sahen die Gnostiker in der Entstehung des seelischen Bereichs eine bedauerliche Entfremdung des Geistes von sich selbst, die rückgängig zu machen sei. Sie strebten nach Erlösung der Geistpartikel, die sich im Diesseits verirrt hätten und in den Seelen gebunden seien. Nur der Geist, nicht die Seele könne erlöst werden. Allerdings verwendeten manche gnostische Autoren den Begriff "psyche" synonym zu "pneuma" oder fassten das Verhältnis von Seele und Geist anders auf. Der einflussreiche Gnostiker Basilides verglich die "psyche" mit einem Vogel und das "pneuma" mit dessen Flügeln: der Vogel könne ohne Flügel nicht fliegen, die Flügel seien ohne Vogel nutzlos. Islam. Die frühe arabische Dichtung bezeichnet mit "nafs" das Selbst bzw. die Person. Der Koran verwendet das Wort ebenfalls in diesem Sinn (auch für die Person Gottes), aber auch im Sinn von „menschliche Seele“; dabei geht es auch um die psychischen Funktionen, insbesondere um unerwünschte Begierden, die von der Seele ausgehen und zu zügeln seien. Daneben findet sich bei den frühen Dichtern und im Koran das Wort "rūḥ", das ursprünglich „Atem“ oder „Wind“ bedeutet und dann religiös den Hauch oder Atem, den Gott Adam einbläst, um seinem Körper das Leben zu verleihen (Vitalseele). Außerdem bezeichnet "rūḥ" im Koran auch eine besondere kognitive Qualität, die Gott ausgewählten Geschöpfen verleiht, und in übertragenem Sinne die damit ausgestatteten göttlichen Botschafter. Seit der Epoche der Umayyaden wird "rūḥ" oft gleichbedeutend mit "nafs" als Bezeichnung für die menschliche Seele verwendet, doch legen manche Autoren Wert auf eine Unterscheidung zwischen diesen Begriffen. Im Koran steht, dass Gott die Seelen im Schlaf aus den Körpern austreten lässt und danach zurückschickt. Über "rūḥ" wird im Koran festgestellt: "Ar-rūḥ gehört zu der Fügung meines Herrn. Aber ihr habt nur wenig Wissen erhalten." Daraus ergibt sich aus theologischer Sicht, dass das Wesen der Seele geheimnisvoll und normaler menschlicher Erkenntnis weitgehend entzogen ist. Namhafte muslimische Philosophen wie al-Kindi († 873), al-Farabi († 950) und Avicenna († 1037) gingen von der aristotelischen Seelenlehre aus, waren aber auch von der neuplatonischen Metaphysik beeinflusst. Wie frühere muslimische Denker übernahm Avicenna aus der aristotelischen Tradition den Begriff des aktiven Intellekts und verband ihn mit einer neuplatonischen Emanationslehre, welche die Seele auf den Geist (Nous) zurückführt. Im aktiven Intellekt sah er das universelle Prinzip, das dafür sorgt, dass der menschliche Intellekt aus Potentialität zum Akt übergeht. Der aktive Intellekt gibt dem Intellekt des Menschen die intelligiblen Formen ein, durch welche Wissen konstituiert wird. Die Sinneswahrnehmung kann die Aufnahme der Formen nicht herbeiführen, sie disponiert nur dazu. In Avicennas Modell geht die Seele aus dem aktiven Intellekt hervor; sie ist immateriell, unzerstörbar, unsterblich und nicht notwendig an den Körper gebunden. Nach seiner Überzeugung könnte ein Mensch in gesundem Zustand, wenn er zeitweilig nichts von seinem Körper wahrnehmen könnte, seine eigene Identität als Selbst oder Seele nicht leugnen, auch wenn ihm sonst nichts bekannt wäre. Der persische Philosoph Abū Bakr Muḥammad-e Zakariyā-ye Rāzī († 925 oder 935) führte den Eintritt der Seele in die materielle Welt auf ihre Unwissenheit zurück. Sie habe das Dasein im Körper erleben wollen und Gott habe es ihr nicht verwehrt, sondern den verhängnisvollen Schritt zugelassen, damit sie aus eigener Erfahrung lernen und schließlich die unzuträgliche Umgebung verlassen könne. Der einflussreiche Theologe al-Ghazali († 1111) meinte, der Islam bestätige zwar die Existenz der Seele als einer eigenständigen Substanz, doch handle es sich dabei um eine Glaubenswahrheit und die Philosophen seien nicht in der Lage, einen philosophischen Beweis dafür zu erbringen. Er hielt die Seele für eine unkörperliche, rein spirituelle Substanz, die über Wissen und Wahrnehmung verfügt. Diese Auffassung wurde zwar von manchen Philosophen geteilt, hat sich aber nicht in der islamischen Theologie durchsetzen können. Die traditionell dominierende Ansicht ist die gegenteilige, die der prominente Theologe ibn al-Qayyim († 1350) am ausführlichsten dargelegt hat. In seinem Buch über die Seele "(kitāb ar-rūḥ)" argumentierte er, dass die Seele, wenn sie unkörperlich wäre, keine Beziehung zum Räumlichen und Körperlichen haben könnte. Sie sei materiell, wenn auch von anderer Beschaffenheit als der physische Körper, und stelle einen eigenständigen Körper dar. Nach der Lehre des von al-Ghazali beeinflussten Theologen Fachr ad-Din ar-Razi († 1209) ist "nafs" die unsterbliche individuelle Seele, "rūḥ" eine feinstoffliche Materie im Körper, die zwischen "nafs" und den grobstofflichen Körperorganen vermittelt. Hinsichtlich der Präexistenz der Seelen gingen die Meinungen auseinander. Nach einer verbreiteten Auffassung, die u. a. der spanische Gelehrte Ibn Hazm († 1064) vertrat, sind die Seelen aller Menschen schon vor Adams Sündenfall erschaffen worden; sie warten an einem Himmelsort, bis sie in einen Embryo eingehaucht werden. Andere Theologen nahmen einen späteren Erschaffungszeitpunkt an. Unter den Philosophen gab es Anhänger der auf antiker Tradition fußenden Auffassung, dass es eine Weltseele "(an-nafsu’l-kulliyya)" gebe und die menschlichen Seelen deren Ausfluss seien und an ihr teilhätten. Dieser Meinung war schon al-Kindi und später der berühmte Sufi Ibn Arabi († 1240). Eine Sonderposition nahm der Aristoteliker Averroes († 1198) ein, der – Aristoteles folgend – die individuelle Unsterblichkeit verwarf. Seit dem Mittelalter befassen sich die Theologen – vor allem die Sufis und vom Sufismus beeinflusste Autoren – mit der Seele in erster Linie unter dem Gesichtspunkt ihrer Triebhaftigkeit. Für die Seele als triebhafte Instanz wird stets die Bezeichnung "nafs" verwendet. Die Triebseele gilt als schlimmster Feind des Menschen, da sie ihn mit ihrer Unwissenheit, Sprunghaftigkeit und unersättlichen Gier ins Verderben bringe. Daher wird gefordert, ihr nicht nachzugeben, sondern sie zu verachten und streng zu disziplinieren. Man soll sie sogar „töten“, was aber nur metaphorisch gemeint ist, denn angestrebt wird nicht ihre Vernichtung, sondern ihre radikale Umwandlung in mehreren Entwicklungsstufen. Im Laufe dieses Prozesses soll sie geläutert werden, sich zunehmend von körperlichem Genuss abwenden und sich in den Dienst des Geistes stellen. Neuzeitliche Anknüpfungen an traditionelle Konzepte. Eine Anknüpfung an Seelenvorstellungen antiken Ursprungs ist in der Neuzeit sowohl in religiös-weltanschaulichem Kontext als auch in der Kunst erfolgt. Insbesondere in der Moderne und bis in die Gegenwart sind Einzelpersonen sowie neue religiöse oder weltanschauliche Bewegungen und Gemeinschaften mit eigenen Seelenlehren hervorgetreten, die sie oft empirisch, jedoch subjektiv, d. h. auf der Basis persönlicher Erfahrungen begründen. Häufig berufen sich die Vertreter dieser Lehren auf Aussagen einzelner Personen, die den Anspruch erheben, durch ihre Erfahrungen einen Zugang zu Wissen über die Seele erlangt zu haben. In manchen Fällen wird behauptet, den ursprünglichen Verkündern der Lehren seien Neuoffenbarungen von Gott, von Christus oder von Boten Gottes oder Geistwesen zuteilgeworden. Andere Anhänger neuer Seelenkonzepte führen das beanspruchte Wissen auf eine Fähigkeit zu außersinnlicher Wahrnehmung zurück. Oft wird an traditionelle Seelenvorstellungen angeknüpft. Wie im Platonismus und der platonisch beeinflussten christlichen Tradition wird die Seele oder zumindest ihr Kern als immaterielle, vom Körper trennbare und unvergängliche Substanz beschrieben. In der modernen Esoterik sind zahlreiche Konzepte verbreitet, die auf dieser Grundannahme basieren. Dabei werden auch Begriffe wie „Selbst“ synonym zu „Seele“ verwendet. Zum Teil handelt es sich um Weiterentwicklungen von Gedankengut indischen Ursprungs mit entsprechender Terminologie. Kunst. Eine Seele wird zum Himmel getragen. Ölgemälde von William Adolphe Bouguereau (1878), Musée du Périgord Bildende Künstler haben das Motiv der Seele – ikonographisch als Psyche in der Tradition antiker Darstellungen – aufgegriffen und neu gestaltet. Die Bildhauer Wolf von Hoyer (1806–1873) und Georgios Bonanos (1863–1940) schufen Skulpturen der geflügelten Psyche. Die Himmelfahrt der Seele nach dem Tode ist unter anderem auf Gemälden von Antonio Balestra (1666–1740) und William Adolphe Bouguereau (1825–1905) dargestellt. Vor allem die Psyche-Gestalt aus der antiken Erzählung von Amor und Psyche hat sich bis in die Moderne in der bildenden Kunst großer, anhaltender Beliebtheit erfreut. Neuoffenbarungen. Der schwedische Gelehrte Emanuel Swedenborg (1688–1772) gab an, er habe durch göttliche Gnade die Fähigkeit erhalten, die geistige Welt wahrzunehmen und mit Engeln und Geistern Gespräche zu führen. Er identifizierte den Menschen mit der unsterblichen Seele, die den Körper nur vorübergehend als Organ nutze. Beim Tod trenne sich die Seele vom Körper und gehe in eine andere Welt über. Jakob Lorber (1800–1864) bezeichnete sich als „Schreibknecht Gottes“, der Neuoffenbarungen einer inneren Stimme, der Stimme Christi, aufgezeichnet habe. Er unterschied zwischen dem Leib, der als menschengestaltig beschriebenen Seele und dem reinen Geist, der in der Seele wohne und zu ihrer Leitung berufen sei. Die Aufgabe der Seele sei es, sich dem Geistigen zu öffnen und sich nach dem Geist zu richten. Der Tod befreie die Seele vom Leib. Ähnliche Seelenkonzepte, in denen der Tod als Trennung der unsterblichen Seele vom Körper aufgefasst wird und die Schicksale der Seelen im Jenseits beschrieben werden, finden sich in einer Reihe von Neuoffenbarungen, beispielsweise bei Bertha Dudde (1891–1965). Theosophie und Anthroposophie. Die Seelenkunde bildet einen wichtigen Bestandteil der von Helena Petrovna Blavatsky (1831–1891) begründeten Theosophie sowie der von Rudolf Steiner (1861–1925) begründeten Anthroposophie und des auf Steiners Weltanschauung fußenden Gedankenguts der Christengemeinschaft. Blavatsky ging von einer Dualität des geistigen Menschen aus, der aus einer sterblichen und einer unsterblichen Seele bestehe; die unsterbliche sei göttlicher Natur und mit dem Nous gleichzusetzen. Den Aufenthalt der Seele im Körper betrachtete Blavatsky als Gefangenschaft und Verunreinigung und daher als Übel. Dabei berief sie sich sowohl auf die platonische Tradition als auch auf die buddhistische Deutung des menschlichen Daseins. Rudolf Steiner bekämpfte die Ansicht, der Mensch bestehe aus zwei Teilen, Leib und Seele. Ihr stellte er die anthroposophische Auffassung entgegen, der zufolge eine „dreigliedrige Einteilung der menschlichen Wesenheit“ anzunehmen ist. Die drei Glieder seien Körper, Seele und Geist. Auch die Seele weise eine Dreigliederung auf; sie sei aus der Empfindungsseele, der Verstandes- oder Gemütsseele und der Bewusstseinsseele zusammengesetzt. Die Empfindungsseele sei für die Sinneswahrnehmungen zuständig, sie sei auch der Sitz der Triebe, Begierden und Willensimpulse. Die Verstandes- oder Gemütsseele wandle die Affekte der Empfindungsseele in höhere Regungen wie etwa Wohlwollen um. Die Bewusstseinsseele sei diejenige seelische Instanz, die durch das Denken nach der Erkenntnis einer in ihr selbst gegenwärtigen Wahrheit strebe. Diese Seelenlehre hat Steiner in zahlreichen Publikationen detailliert dargelegt. Spiritismus und Parapsychologie. „Die Seele“, Skulptur von Georgios Bonanos Im Spiritismus wird die Totenbeschwörung praktiziert. Spiritisten behaupten, mit den Geistern Verstorbener kommunizieren zu können. Die Annahme eines Fortlebens nach dem Tode ist daher die Grundvoraussetzung einer spiritistischen Weltanschauung. Zwar ist in der spiritistischen Literatur oft nicht von Seelen, sondern von Geistern die Rede, doch ist dabei mit „Geist“ ein als unsterblich und vom Körper unabhängig geltender Teil des Menschen gemeint, also das, was in vielen traditionellen Seelenlehren als Seele oder Geistseele bezeichnet wird. Allan Kardec, ein führender Theoretiker des Spiritismus, verwendete die Begriffe „Seele“ und „Geist“ synonym. In der Parapsychologie werden die Phänomene, auf die sich die Spiritisten als empirische Grundlage ihrer Theorie berufen, unterschiedlich gedeutet. Die erörterten Erklärungen zerfallen in mehrere Hauptgruppen, wobei zwei Deutungstypen in der Diskussion im Vordergrund stehen: die „animistische Hypothese“ und die „spiritistische Hypothese“ oder „survival hypothesis“. Die spiritistische Hypothese besagt, es handle sich vermutlich zumindest bei einem Teil der Phänomene tatsächlich um reale Kontakte mit fortlebenden Verstorbenen, das heißt – je nach Terminologie – mit deren Seelen, Geistern oder Astralleibern. Unter dem Begriff „animistische Hypothese“ werden Deutungen zusammengefasst, die alles, was nicht mit normaler Informationsübermittlung erklärbar zu sein scheint, auf verschiedene Formen von außersinnlicher Wahrnehmung zurückführen. Diese Modelle kommen ohne die Annahme realer Geistwesen aus. Verschiedentlich werden Nahtoderfahrungen als Hinweise auf ein Weiterleben der Seele nach dem Tod gedeutet. Neuzeitliche Philosophie, Psychologie und Anthropologie. Unter moderner systematischer Perspektive lassen sich die mit der Thematik der Seele zusammenhängenden philosophischen Fragen zu unterschiedlichen Themenfeldern gruppieren. Diese gehören größtenteils zu den Gebieten Erkenntnistheorie (einschließlich Wahrnehmungstheorie), Philosophie des Geistes und Ontologie. Zentral ist das sog. Leib-Seele-Problem oder auch Körper-Geist-Problem, also die Frage, wie körperliche und geistige Phänomene zusammenhängen. Gefragt wird beispielsweise, ob körperlichen und geistigen Phänomenen dieselbe oder eine ontologisch verschiedene Substanz zugrunde liegt und ob es eine wirkliche Interaktion von Überlegungen und Körperzuständen gibt oder das Bewusstsein bloße Folgewirkung somatischer und insbesondere neuronaler Determinanten ist. Das cartesianische Modell und seine Nachwirkung. a> aus der zweiten Hälfte des 17. Jahrhunderts, heute im Louvre. Neue Impulse bekam die Debatte in der Neuzeit insbesondere durch die Naturphilosophie und Metaphysik von René Descartes (1596–1650). Seine Denkweise wird in Anlehnung an die latinisierte Namensform des Philosophen als cartesianisch bezeichnet. Descartes verwarf das traditionelle aristotelische Verständnis der Seele als Lebensprinzip, das Tätigkeiten der Lebewesen wie Ernährung, Bewegung und Sinneswahrnehmung ermöglicht und steuert sowie für die Affekte zuständig ist. Alle Vorgänge, die nicht nur beim Menschen, sondern auch bei Tieren ablaufen, hielt er für seelenlos und rein mechanisch. Demnach haben die Tiere keine Seele, sondern sind maschinenartig. Die Seele identifizierte er ausschließlich mit dem Geist (lateinisch "mens"), dessen Funktion nur das Denken sei. Nach Descartes' Auffassung hat man streng zwischen der durch ihre räumliche Ausdehnung gekennzeichneten Materie "(res extensa)" und der ausdehnungslosen denkenden Seele "(res cogitans)" zu unterscheiden. Das denkende Subjekt kann sich nur von seiner eigenen Denktätigkeit unmittelbar Gewissheit verschaffen. Damit kann es einen Ausgangspunkt der Natur- und Welterkenntnis gewinnen. Der Körper, zu dessen Bereich Descartes die irrationalen Lebensakte zählt, ist ein Teil der Materie und lässt sich vollständig im Rahmen der Mechanik erklären, während sich die denkende Seele als immaterielle Entität einer solchen Erklärung entzieht. Die Seele ist für Descartes eine reine, unveränderliche Substanz und daher von Natur aus unsterblich. Descartes’ zentrales Argument für seine dualistische Position wird mit Abwandlungen bis heute in der Philosophie diskutiert. Es lautet, zunächst könne man sich klar und deutlich vorstellen, dass sich das Denken als seelischer Vorgang unabhängig vom Körper vollziehe. Alles, was man sich klar und deutlich vorstellen könne, sei zumindest theoretisch auch möglich, es könne von Gott entsprechend eingerichtet worden sein. Wenn es zumindest theoretisch möglich sei, dass Seele und Körper unabhängig voneinander existieren, so müsse es sich um verschiedene Entitäten handeln. Ein zweites, naturphilosophisches Argument besagt, dass die Fähigkeit zu sprechen und intelligent zu handeln sich durch die Interaktion physischer Komponenten nach Naturgesetzen nicht erklären lasse, sondern vielmehr etwas Nichtphysisches voraussetze, das man mit Recht Seele nennen könne. Im Kontext der Debatten des 17. Jahrhunderts über den aristotelischen Vitalismus, der die Seele als Form, Individuationsprinzip und Kontrollorgan des Körpers versteht, und die cartesianische mechanistische Interpretation, die alle Körperfunktionen durch Naturgesetze erklären will, vertrat Anne Conway (1631–1679) eine Sonderposition. Sie kritisierte den cartesianischen Dualismus u. a. mit dem Argument, dass er im Widerspruch zu seinen Voraussetzungen lokale und andere Begriffe auf die Seele anwende, die nach dualistischem Verständnis nur für die Materie angemessen seien. Zudem sei im Dualismus die Verbindung von Seele und Körper nicht einsichtig; eine Interaktion von Seele und Körper – wie z. B. geistige Kontrolle oder Schmerzempfinden – setze voraus, dass sie gemeinsame Eigenschaften aufweisen. Daher nahm Conway nur eine einzige Substanz im Universum an. In ihrem System sind Materie und Geist nicht absolut verschieden, sondern zwei Erscheinungsformen der einen Substanz; daher können sie ineinander übergehen. Die Cambridger Platoniker, eine Gruppe von neuplatonisch orientierten englischen Philosophen und Theologen des 17. Jahrhunderts, machten die Verteidigung der individuellen Unsterblichkeit der Seele zu einem ihrer Hauptanliegen. Dabei wandten sie sich sowohl gegen die Vorstellung eines Aufgehens der Einzelseele in einer umfassenden Einheit als auch gegen das materialistische Konzept eines Endes der Persönlichkeit mit dem Tod. Gegen den Materialismus brachten sie insbesondere vor, eine zureichende mechanische Erklärung der Lebensvorgänge und geistigen Prozesse sei nicht möglich. Ihre antimechanistische Grundhaltung führte sie auch zur Kritik an der mechanistischen Naturauffassung der Cartesianer. Gottfried Wilhelm Leibniz (1646–1716) entwickelte sein Seelenkonzept in Auseinandersetzung mit dem cartesianischen Modell. Wie Descartes nahm er immaterielle Seelen an. Im Unterschied zu dem französischen Philosophen hielt er aber nicht den Gegensatz zwischen Denken und Ausdehnung (Materie), sondern den Unterschied zwischen der Fähigkeit, Vorstellungen zu haben, und dem Nichtvorhandensein dieser Fähigkeit für das wesentliche Kriterium. Daher verwarf Leibniz die cartesianische These, dass die Tiere Maschinen seien, und vertrat die Ansicht, dass zumindest manche Tiere eine Seele hätten, da sie ein Gedächtnis besäßen. Er schrieb nicht nur den menschlichen, sondern auch den Tierseelen eine individuelle Fortexistenz nach dem Tode zu. Immanuel Kant (1724–1804) hielt es für unmöglich, auf theoretischer Ebene die Existenz einer unsterblichen Seele zu beweisen oder zu widerlegen. Mit seiner Stellungnahme zur Seelenfrage wandte er sich sowohl gegen die traditionelle, auf dem Platonismus fußende Seelenmetaphysik als auch gegen den Cartesianismus. Seine Argumentation in der "Kritik der reinen Vernunft" richtete sich aber nicht gegen die Annahme einer unsterblichen Seele, wohl aber gegen ihre Beweisbarkeit. Vielmehr widerlegte die Behauptung, man könne im Rahmen einer „rationalen Psychologie“ durch bloße Folgerungen aus etwas unmittelbar Einsichtigem, dem Selbstbewusstsein, unabhängig von aller Erfahrung Erkenntnis über die Seele gewinnen. Kant legte dar, dass es sich bei den angeblichen Unsterblichkeitsbeweisen um Paralogismen (Fehlschlüsse) handle. Aus der Tatsache des Selbstbewusstseins lasse sich nicht, wie Descartes meinte, eine inhaltliche Selbsterkenntnis der Seele gewinnen. Das Subjekt könne sich in seiner Selbstwahrnehmung nicht als Ding an sich erfassen, sondern nur als Erscheinung, und wenn es über sich selbst nachdenke, sei der Gegenstand dieses Denkens ein reines Gedankending, das von den verschiedenen Varianten der traditionellen Seelenmetaphysik mit einem Ding an sich verwechselt werde. Daraus folgerte Kant aber nicht, dass der Begriff Seele überflüssig und die Unsterblichkeitsfrage erledigt sei. Vielmehr machte er die Unsterblichkeit zu einem Postulat der praktischen Vernunft. Die Annahme einer unsterblichen Seele leitete er aus einer moralischen Notwendigkeit ab. Die Suche nach dem Seelenorgan. Die Frage nach dem Sitz der Seele war in der Renaissance weiterhin aktuell. Averroistisch gesinnte Gelehrte des 15. und 16. Jahrhunderts waren der Meinung, der Intellekt sei nicht an einer bestimmten Stelle lokalisiert und habe kein eigenes Organ, sondern agiere im gesamten Körper. Als unpersönliche und unvergängliche Instanz sei er nicht an körperliche Funktionen gebunden. Gegen diese Auffassung wandten sich sowohl Thomisten als auch nichtaverroistische Aristoteliker und von der Denkweise des Kirchenvaters Augustinus beeinflusste Humanisten. Für die Befürworter eines Seelenorgans kam als Ausgangsbasis für eine Klärung der Frage die Untersuchung der Hirnventrikel in Betracht. Diesem Ansatz folgte Leonardo da Vinci, der induktiv argumentierte. Er meinte, die Natur erzeuge nichts Unzweckmäßiges und daher lasse sich aus dem Studium der von ihr hervorgebrachten Strukturen erschließen, welches organische System den seelischen Funktionen zugeordnet sei. Diesem Grundsatz folgend wies Leonardo dem ersten Ventrikel die Aufnahme der Sinnesdaten zu, dem zweiten Ventrikel das Vorstellungs- und Urteilsvermögen und dem dritten die Funktion des Gedächtnisspeichers. Nach Descartes’ dualistischem Konzept kann man die ausdehnungslose Seele nicht im Körper oder an irgendeinem Ort der materiellen Welt lokalisieren, doch gibt es eine Kommunikation zwischen Seele und Körper, die an einem auffindbaren Ort stattfinden muss. Descartes vermutete, die Zirbeldrüse, ein zentral im Gehirn gelegenes Organ, sei dieser Ort. Seine Vermutung wurde zwar bald von der Hirnforschung widerlegt, doch führte die Auseinandersetzung mit Descartes’ Theorie zu zahlreichen neuen Hypothesen über den Ort des Seelenorgans. Albrecht von Haller (1708–1777) nahm an, dass das Seelenorgan über die gesamte weiße Hirnsubstanz verteilt sei. Den letzten groß angelegten Versuch zur Lokalisierung des Seelenorgans unternahm der Anatom Samuel Thomas von Soemmerring in seiner 1796 veröffentlichten Schrift "Über das Organ der Seele". Indem er den Hirnventrikeln eine zentrale Rolle bei der Kommunikation zwischen Seele und Körper zuwies, machte er die traditionelle Ventrikellehre zur Ausgangsbasis seiner Überlegungen. Neu war jedoch seine Argumentation. Er brachte vor, dass sich nur in der Ventrikelflüssigkeit die einzelnen Sinnesreizungen zu einem einheitlichen Phänomen verbinden könnten, und verwies darauf, dass die Enden der Hirnnerven bis zu den Ventrikelwänden reichen. Als Seelenorgan bestimmte er den Liquor cerebrospinalis, der die Hirnnerven umspüle und verbinde. Soemmerring beschränkte sich aber nicht auf empirische Aussagen, sondern behauptete, die Suche nach dem Seelenorgan sei das Thema der „trancendentalsten bis in die Gefilde der Metaphysik führenden Physiologie“. Unterstützung erhoffte er von Immanuel Kant, der das Nachwort zu "Über das Organ der Seele" verfasste. Kant äußerte sich dort jedoch kritisch zu Soemmerrings Ausführungen. Aus grundsätzlichen Erwägungen erklärte er das Vorhaben, einen Seelensitz zu finden, für verfehlt. Dies begründete er mit der Überlegung, die Seele könne sich selbst nur durch den inneren Sinn und den Körper nur durch äußere Sinne wahrnehmen; daraus folge, dass sie sich, wenn sie sich selbst einen Ort bestimmen wollte, mit demselben Sinn wahrnehmen müsste, mit dem sie die Materie wahrnehme; dies aber bedeute, dass sie sich „zum Gegenstand ihrer eigenen äußeren Anschauung machen und sich außer sich selbst versetzen müßte; welches sich widerspricht“. Im 19. Jahrhundert kam die Suche nach einem Sitz und einem Organ der Seele zum Erliegen. Unter dem Einfluss neuer biowissenschaftlicher Entdeckungen etwa auf den Gebieten der Evolutionstheorie, der Elektrophysiologie und der organischen Chemie entstanden materialistische und monistische Modelle, die ohne den Begriff Seele auskommen. Für die Befürworter nichtmaterialistischer Modelle bleibt jedoch die Frage nach dem Ort der Interaktion von Geist und Körper weiterhin aktuell. Hegel. Für Georg Wilhelm Friedrich Hegel ist die Seele kein „fertiges Subjekt“, sondern eine Entwicklungsstufe des Geistes. Zugleich stellt sie die „absolute Grundlage aller Besonderung und Vereinzelung des Geistes“ dar. Hegel identifiziert sie mit dem passiven, rezeptiven Intellekt des Aristoteles, „welcher der Möglichkeit nach Alles ist“. Hegel wendet sich dezidiert gegen den neuzeitlichen Dualismus von Leib und Seele, den cartesianischen Gegensatz zwischen immaterieller Seele und materieller Natur. Die Frage nach der Immaterialität der Seele, die diesen Gegensatz schon voraussetzt, stellt sich für Hegel nicht, da er es ablehnt, in der Materie etwas Wahres und im Geist ein davon getrenntes Ding zu sehen. Vielmehr ist aus seiner Sicht die Seele „die allgemeine Immaterialität der Natur, deren einfaches ideelles Leben“. Daher ist sie stets auf die Natur bezogen. Sie ist nur dort, wo Leiblichkeit ist. Sie stellt das Prinzip der Bewegung dar, mit der die Leiblichkeit in Richtung auf das Bewusstsein transzendiert wird. In ihrer Entwicklung durchläuft die Seele die drei Stadien einer „natürlichen“, einer „fühlenden“ und einer „wirklichen“ Seele. Anfangs ist sie natürliche Seele. Als solche ist sie noch völlig mit der Natur verwoben und empfindet deren Qualitäten zunächst nur unmittelbar. Das Empfinden ist das „gesunde Mitleben des individuellen Geistes in seiner Leiblichkeit“. Es ist durch seine Passivität gekennzeichnet. Der Übergang zum Fühlen, in dem sich die Subjektivität zur Geltung bringt, ist fließend. „Die Seele ist als fühlende nicht mehr bloß natürliche, sondern innerliche Individualität.“ Zunächst befindet sich die fühlende Seele in einem Zustand der Dunkelheit des Geistes, da dieser noch nicht hinreichend zu Bewusstsein und Verstand gelangt ist. Hier besteht die Gefahr, dass das Subjekt in einer Besonderheit seines Selbstgefühls verharrt, statt diese zur Idealität zu verarbeiten und zu überwinden. Da der Geist hier noch nicht frei ist, kann es zur Geisteskrankheit kommen. Nur ein als Seele in einem dinglichen Sinne betrachteter Geist kann verrückt werden. Einen Entwicklungsfortschritt macht die fühlende Seele, wenn sie „das Besondere der Gefühle (auch des Bewußtseins) zu einer nur seienden Bestimmung an ihr reduziert“. Dazu verhilft ihr die Gewohnheit, die als Übung erzeugt wird. Die Gewohnheit wird mit Recht eine „zweite Natur“ genannt, denn sie ist eine von der Seele gesetzte Unmittelbarkeit neben der ursprünglichen Unmittelbarkeit des Empfindens. Hegel wertet die Gewohnheit im Gegensatz zum gängigen herabsetzenden Sprachgebrauch positiv. Das Merkmal der dritten Entwicklungsstufe, der wirklichen Seele, ist „das höhere Erwachen der Seele zum Ich, der abstrakten Allgemeinheit“, wobei das Ich in seinem Urteil „die natürliche Totalität seiner Bestimmungen als ein Objekt, eine ihm äußere Welt, von sich ausschließt und sich darauf bezieht“ und in dieser Totalität „unmittelbar in sich reflektiert ist“. Hegel definiert die wirkliche Seele als „die für sich seiende Idealität ihrer Bestimmtheiten“. Die Kontroverse um das Forschungsprogramm des Psychologismus. Die empirische Psychologie als eigenständige Disziplin neben der Philosophie hat Vorläufer seit der Antike, im modernen Sinn beginnt sie jedoch erst mit im 18. Jahrhundert entwickelten Studien. Methodisch grundlegend für die Ausprägung des Paradigmas einer empirischen Psychologie waren die Arbeiten von Empiristen wie John Locke (1632–1704) oder David Hume (1711–1776). Hume führte Verursachungsbeziehungen nicht auf ontologische Beziehungen zurück, etwa auf starre Naturgesetze, sondern versuchte sie als bloße Denkgewohnheiten zu erklären. Für diese Empiristen hat Wissen selbst seinen Ursprung in psychischen Funktionen. Diese Variante des Empirismus hat mit den Ansichten früher Idealisten und dem transzendentalphilosophischen Ansatz von Kant gemeinsam, dass sie den Blick weniger auf metaphysisch-objektive, extrinsische als vielmehr auf innerpsychische, subjektive oder der Vernunft selbst eigentümliche Strukturen richtet. In diesem Sinne argumentierte Hume in seiner Abhandlung "Of the Immortality of the Soul" gegen die Unsterblichkeit der Seele; er hielt sie allenfalls dann für möglich, wenn man auch ihre Präexistenz annimmt. Da die Seele kein Erfahrungsbegriff sei, müsse die Frage nach ihrer Fortexistenz unbeantwortet bleiben, und eine Antwort sei ohnehin für das menschliche Leben belanglos. Der Mediziner David Hartley publizierte 1749 seine Erkenntnisse über die neurophysiologischen Grundlagen der Sinneswahrnehmung, der Vorstellung und der Gedankenverknüpfung. Hinzu kam später die Entwicklung evolutionstheoretischer Erklärungsmodelle durch Charles Darwin (1809–1882) und andere. Der Moralphilosoph Thomas Brown (1778–1820) verfasste Anfang des 19. Jahrhunderts seine "Lectures on the philosophy of the human mind", in denen er die Grundgesetze des sogenannten Assoziationismus formulierte. Derartige Methodologien verbanden sich mit Modellen der „Logik“, die sich an faktischen Denkoperationen statt idealen Vernunftgesetzen orientierten. Anfang des 19. Jahrhunderts verteidigten Jakob Friedrich Fries und Friedrich Eduard Beneke ein solches Forschungsprogramm, das sie Psychologismus nannten, gegen die Dominanz einer Philosophie des Geistes im Sinne Hegels. Vincenzo Gioberti (1801–1852) bezeichnete als Psychologismus alle moderne Philosophie seit Descartes, sofern diese vom Menschen statt von Gott ausgeht, also nicht, wie er es ausdrückte, dem Programm des „Ontologismus“ folgt. Dem Psychologismus zufolge hat philosophische Untersuchung als Erkenntnisprinzip einzig die Introspektion. Kant habe recht darin gehabt, das Eigenrecht der Erfahrung zu etablieren, aber gehe in die Irre, wenn er apriorische Möglichkeitsbedingungen der Erkenntnis sucht. Der psychologistische Ansatz stieß bei rein logischen und mathematischen Aussagen auf größere Schwierigkeiten als im Bereich der empirischen Erkenntnis. Gerade auf diesem Feld aber wurde Mitte des 19. Jahrhunderts eine psychologistische Logik verteidigt. Der Utilitarist John Stuart Mill publizierte 1843 sein System der deduktiven und induktiven Logik. Ihr zufolge gründen die Axiome der Mathematik wie auch logische Prinzipien einzig auf der psychischen Introspektion. Neben Mill arbeiteten auch deutsche Theoretiker wie Wilhelm Wundt, Christoph von Sigwart, Theodor Lipps und Benno Erdmann ähnlich akzentuierte Logiken aus. Ende des 19. Jahrhunderts war der Psychologismus die Auffassung vieler Psychologen und Philosophen. Unter ihnen waren auch zahlreiche Vertreter der sogenannten Lebensphilosophie. Alle geistigen oder überhaupt philosophischen Probleme sollten mit den neuen Mitteln der Psychologie erklärt werden, also alle Denkoperationen und deren Regularitäten als psychische Funktionen verstanden werden. Dagegen richteten sich früh Theoretiker, welche für die These Kants eintraten, dass mit psychologischen Erklärungen nichts über die Wahrheitsfrage ausgemacht sei. Den kantischen Ansatz verteidigten Rudolf Hermann Lotze für die Logik, Gottlob Frege für die Mathematik, Wilhelm Windelband und Heinrich Rickert für die Wertethik, Hermann Cohen und Paul Natorp für die Wissenschaftstheorie. Auch die Forschungsprogramme der Phänomenologie richteten sich gegen den Psychologismus. Eine grundlegende Kritik des Psychologismus entwickelte Edmund Husserl in seinem Werk "Logische Untersuchungen". Martin Heidegger wendete den Blick nicht auf psychische Vorkommnisse, sondern auf Strukturen des Daseins. Ähnliches gilt für die meisten Existenzphilosophen wie etwa Jean-Paul Sartre. Aus teilweise anderen Gründen widersprachen auch viele logische Empiristen dem Psychologismus. Einer der ersten unter ihnen war Rudolf Carnap. Sein Argument war, dass es nicht nur genau eine Sprache gibt, diejenige, welche durch psychologische Gesetze bestimmt wäre. Neben den Arbeiten von David Hartley und Thomas Brown und der Mitte bis Ende des 19. Jahrhunderts im Kontext des Psychologismus tätigen Philosophen und Naturwissenschaftler waren für die Anfänge der modernen Psychologie auch die Arbeiten von Johann Friedrich Herbart maßgeblich. Herbart war ab 1809 Nachfolger Kants auf dessen Königsberger Lehrstuhl. Ablehnende Positionen. Die eindeutigste Ablehnung eines Seelenbegriffs findet sich im Rahmen des eliminativen Materialismus bei Philosophen wie Patricia und Paul Churchland. Die Alltagspsychologie sei eine falsche und seit der Antike stagnierende Theorie, alltagspsychologischen Begriffen entspreche nichts in der Realität. Alles, was es in Wirklichkeit gebe, seien biologische Prozesse. Der Philosoph Richard Rorty versuchte schon in den 1970er Jahren eine solche Position mit einem Gedankenexperiment zu verdeutlichen: Man könne sich eine extraterrestrische Zivilisation vorstellen, die kein psychologisches Vokabular verwende und stattdessen nur von biologischen Zuständen spreche. Eine solche Zivilisation wäre hinsichtlich ihrer kommunikativen Fähigkeiten der Menschheit in nichts unterlegen. Traditionelle Materialismen bestreiten jedoch nicht die Existenz von mentalen Zuständen. Sie erklären vielmehr, dass es mentale Zustände gebe, diese jedoch nichts anderes als materielle Zustände seien. Solche Positionen sind zumindest mit einem sehr schwachen Seelenbegriff kompatibel: Versteht man unter „Seele“ schlicht die Summe der ontologisch nicht spezifizierten mentalen Zustände, so kann man auch im Rahmen solcher Theorien den Begriff „Seele“ verwenden. So erklärt etwa die Identitätstheorie, dass mentale Zustände real existieren, jedoch identisch mit Gehirnzuständen seien. Diese Position wird gelegentlich als „Kohlenstoffchauvinismus“ kritisiert, da sie Bewusstsein an die Existenz eines organischen Nervensystems binde. Bewusste Lebensformen auf anorganischer Basis (etwa Silicium) würden dadurch genauso konzeptionell ausgeschlossen wie bewusste künstliche Intelligenzen. Im Kontext der Entwicklung der künstlichen Intelligenz entstand eine materialistische Alternativposition, die als „Funktionalismus“ bezeichnet wird. Der klassische Funktionalismus beruht auf einer Computeranalogie: Eine Software kann durch sehr verschiedene Computer realisiert werden (etwa Turingmaschinen und PCs), daher kann man einen Softwarezustand nicht mit einer spezifischen physischen Struktur identifizieren. Vielmehr ist Software durch funktionale Zustände spezifiziert, die durch verschiedene physische Systeme realisiert werden können. Auf gleiche Weise seien mentale Zustände funktional zu begreifen; das Gehirn biete somit nur eine von vielen möglichen Realisierungen. Nach einigen Meinungsänderungen vertritt auch Daniel Dennett den Funktionalismus: "Ein bewußter menschlicher Geist ist mehr oder weniger eine seriale virtuelle Maschine, die − ineffizient − an der parallelen Hardware montiert ist, die die Evolution uns geliefert hat." Einwände gegen Identitätstheorie und Funktionalismus ergeben sich im Wesentlichen aus der erkenntnistheoretischen Debatte um die Struktur reduktiver Erklärungen. Wolle man ein Phänomen X (etwa mentale Zustände) auf ein Phänomen Y (etwa Gehirnzustände oder funktionale Zustände) zurückführen, so müsse man alle Eigenschaften von X durch die Eigenschaften von Y verständlich machen können. Nun haben jedoch mentale Zustände die Eigenschaft, auf bestimmte Weise erlebt zu werden – es fühlt sich auf eine bestimmte Weise an, etwa Schmerzen zu haben (vgl. Qualia). Dieser Erlebnisaspekt könne jedoch weder in einer neurowissenschaftlichen noch in einer funktionalen Analyse erklärt werden. Reduktive Erklärungen des Mentalen müssten daher zwangsläufig scheitern. Derartige Probleme haben in der Philosophie des Geistes zu der Entwicklung zahlreicher nichtreduktiver Materialismen und Monismen geführt, deren Vertreter eine „Einheit der Welt“ annehmen, ohne sich auf reduktive Erklärungen festzulegen. Beispiele hierfür finden sich im Rahmen von Emergenz­theorien, gelegentlich wird auch David Chalmers’ Eigenschaftsdualismus zu diesen Ansätzen gezählt. Es ist allerdings umstritten, inwieweit derartige Positionen noch als Materialismen gelten können, da die Grenzen zu dualistischen, pluralistischen oder generell antiontologischen Ansätzen häufig verschwimmen. Nichtmaterialistische Positionen. In der modernen Philosophie des Geistes werden auch dualistische Positionen vertreten. Ein Typ von Argumenten bezieht sich dabei auf Gedankenexperimente, bei denen man sich entkörpert vorstellt. Eine entsprechende Überlegung von Richard Swinburne lässt sich wie folgt alltagssprachlich wiedergeben: „Wir können uns eine Situation vorstellen, in der unser Körper zerstört wird, aber unser Bewußtsein andauert. Dieser Bewußtseinsstrom benötigt einen Träger oder eine Substanz. Und damit diese Substanz identisch mit der Person vor dem körperlichen Tod ist, muß es etwas geben, was die eine Phase mit der anderen verbindet. Da der Körper zerstört wird, kann dieses Etwas nicht physikalische Materie sein: Es muß also etwas Immaterielles geben, und das nennen wir Seele.“ Auch William D. Hart beispielsweise hat einen cartesianischen Dualismus verteidigt mit dem Argument, dass wir uns vorstellen können, ohne Körper zu sein, gleichwohl aber unsere Akteurskausalität beizubehalten; da Vorstellbares möglich ist, können "wir selbst" also auch ohne Körper existieren, also sind wir selbst nicht notwendigerweise und damit nicht eigentlich an Materielles gebunden. Eine ähnliche dualistische Position verteidigt John A. Foster. Dazu weist er einen eliminativen Materialismus zurück. Wer mentale Zustände leugne, befinde sich selbst in einem mentalen Zustand und mache eine bedeutungsvolle Aussage, was selbst bereits mentale Phänomene impliziere. Behavioristische Reduktionen scheiterten daran, die Verhaltenszustände ebenfalls durch mentale Zustände spezifizieren zu müssen. Außerdem bringt Foster eine Variante des Wissensarguments vor: Wären diese Materialismen wahr, könnte ein von Geburt Blinder den Gehalt von Farbwahrnehmungen erfassen, was aber ausgeschlossen sei. Ähnliche Probleme seien mit Reduktionen auf funktionale Rollen verbunden, wie sie von Sydney Shoemaker, in der komplizierteren Variante funktionaler Profile auch von David M. Armstrong und David K. Lewis vertreten werden, sowie mit Theorien der Typenidentität. Insbesondere könnten mentale Zustände mit gleichen funktionalen Rollen nicht zureichend unterschieden werden. Auch eine Unterscheidung derart, dass der phänomenale Gehalt durch Introspektion, der neurophysiologische Typ durch wissenschaftliche Begriffe erfasst wird (eine von Michael Lockwood entwickelte Idee), könne nicht erklären, warum materiell gleiche Einheiten mit verschiedenen Erfahrungen zusammenhängen. Statt solcher Token- und Typenidentitätstheorien müsse ein cartesianischer Interaktionismus von Seele und Körper angenommen werden. Dazu wird das Argument (von Donald Davidson) zurückgewiesen, dass hier keine strikten Gesetze denkbar seien. Da materielle Objekte keine mentalen Zustände besitzen könnten, weil nur mentale Eigenschaften konstituieren, dass ein mentaler Zustand einem Objekt zukommt, müsse eine nichtphysikalische Seele angenommen werden. Diese könne nur direkt (ostensiv), nicht durch Attribute wie „denkend“ charakterisiert werden (weil sie z. B. zu einem Zeitpunkt auch nur unbewusste okkurente mentale Zustände besitzen kann). Eine Person sei zudem – gegen John Locke – identisch mit dem Subjekt phänomenaler Zustände. Auch die radikale Position, dass die Wirklichkeit überhaupt nur aus Psychischem bestehe, ein sogenannter Immaterialismus, wird in modernen Debatten vertreten, beispielsweise von Timothy Sprigge. Gilbert Ryle. Gilbert Ryle meint, dass es einem Kategorienfehler gleichkomme, über Mentales wie über Materielles zu sprechen. Es sei ebenso unsinnig, "neben" dem Körper noch einen Geist zu suchen, wie neben den einzelnen Spielern einer Fußballmannschaft, die in ein Stadion einzieht, noch ein Etwas „die Mannschaft“ zu suchen. Die Mannschaft besteht nämlich nicht "neben" den Einzelspielern, sondern "aus" ihnen. Je nachdem, ob man „die Mannschaft“ als rein begriffliches (irreales) Konstrukt auffasst oder ihr eine eigene Realität zuspricht (Universalienproblem), gelangt man zu unterschiedlichen Antworten in Bezug auf die „Realität“ der Existenz einer Seele. Im Wesentlichen knüpft Ryle damit an die aristotelische Definition an, wonach die Seele als Formprinzip des Materiellen, speziell des Lebendigen zu begreifen ist, das vom Körper abgesondert nicht existieren kann. Einfachheit. Das traditionelle Konzept einer unsterblichen Seele setzt voraus, dass sie nicht aus Teilen besteht, in die sie zerlegbar ist, da sie sonst vergänglich wäre. Andererseits wird ihr komplexe Interaktion mit der Umwelt zugeschrieben, was nicht mit der Vorstellung vereinbar ist, dass sie absolut einfach und unveränderlich sei. Swinburne nimmt daher im Rahmen seines dualistischen Konzepts an, dass die menschliche Seele eine kontinuierliche, komplexe Struktur aufweist. Dies folgert er aus der möglichen Stabilität eines Systems von miteinander verbundenen Ansichten und Begehren eines Individuums. Ludwig Wittgenstein hat die Auffassung vertreten, „daß die Seele – das Subjekt etc.- wie sie in der heutigen oberflächlichen Psychologie aufgefaßt wird, ein Unding ist. Eine zusammengesetzte Seele wäre nämlich keine Seele mehr.“ Roderick M. Chisholm hat den Gedanken der „Einfachheit“ (im Sinne von Nichtzusammengesetztheit) der „Seele“ wieder aufgegriffen. Dabei versteht er „Seele“ gleichsinnig mit „Person“ und beansprucht, dass dies auch die von Augustinus, Descartes, Bernard Bolzano und vielen anderen gemeinte Wortbedeutung sei. In diesem Sinne verteidigt er, wie auch in anderen Wortmeldungen zur Theorie der Subjektivität, dass unser Wesen fundamental anders beschaffen sei als das Wesen zusammengesetzter Entitäten. Fortexistenz nach dem Tode. Baker diskutiert, inwieweit sich diese Positionen als metaphysische Grundlage für den christlichen Auferstehungsglauben eignen. Dabei verwirft sie die ersten sechs Positionen und verteidigt dann eine Variante der siebten. Die Seele als Ganzheit und ihr Verhältnis zum Geist. Abseits der Diskussion zwischen Dualisten und Materialisten hat sich im deutschen Sprachraum ein Seelenbegriff entwickelt, der seine Bestimmung in erster Linie daraus zieht, dass er die Seele als eine Ganzheit gegen den Geist und dessen Vielheit objektiver Inhalte abgrenzt. Für Georg Simmel ist der Geist „der objektive Inhalt dessen, was innerhalb der Seele in lebendiger Funktion bewußt wird; Seele ist gleichsam die Form, die der Geist, d. h. der logisch-begriffliche Inhalt des Denkens, für unsere Subjektivität, als unsere Subjektivität, annimmt.“ Geist ist also verobjektivierte Seele. Seine Inhalte liegen in Teilen vor, während die Seele immer die Einheit des ganzen Menschen ausmacht. Ähnlich sieht es Helmut Plessner, für den die Seele die Ganzheit des Menschen mit allem Wünschen und Wollen und allem unbewussten Drang ausmacht. Dem Geist kommt häufig die Aufgabe zu, der Seele bei der Befriedigung ihrer Wünsche zu dienen: „Geist wird von einem individuellen, unvertretbaren, sich wenigstens so wissenden Seelenzentrum erfaßt und wirkt auch so allein auf die physische Daseinssphäre.“ Damit meint Plessner jedoch nicht den auf Nietzsche zurückgehenden Zusammenhang von Körper und Intellekt, bei dem der Intellekt die Aufgabe hat, dafür zu sorgen, dass die natürlichen Bedürfnisse des Körper befriedigt werden. Geist meint bei Plessner den vollen kulturellen Gehalt aller menschlichen Selbst- und Weltverhältnisse. Während der Mensch aufgrund seiner exzentrischen Positionalität zwar einzelne Inhalte seines Geistes in objektivierter Form für sich fassbar machen kann, ist ihm das für seine Seele verwehrt, denn er kann sich niemals "als Ganzes" vor sich selbst bringen und über sich reflektieren. Oswald Spengler betont ebenfalls die Einheit der Seele: „Eher ließe sich ein Thema von Beethoven mit Seziermesser oder Säure zerlegen, als die Seele durch Mittel des abstrakten Denkens.“ Alle Versuche, Seelisches darzustellen, seien nur Bilder, die ihrem Gegenstand niemals gerecht werden. An Nietzsches starken Subjektivismus anknüpfend überträgt Spengler den Seelenbegriff zudem auf Kulturen: Jede große Kultur beginnt mit einer Grundauffassung der Welt, sie hat eine Seele, mit der sie der Welt gestaltend gegenübertritt. Kulturen formen sich geistig und materiell ihre je eigene „Wirklichkeit als den Inbegriff aller Symbole in Bezug auf eine Seele“. Ernst Cassirer erörtert die Seele im Rahmen seiner Philosophie der symbolischen Formen. Er meint, dass jede symbolische Form die Grenze zwischen Ich und Wirklichkeit nicht als feststehende im Voraus habe, sondern sie selbst erst setze. Daher sei auch für den Mythos zu vermuten, „daß er sowenig mit einem fertigen Begriff vom Ich oder von der Seele wie von einem fertigen Bild des objektiven Seins und Geschehens seinen Ausgang nimmt, sondern daß er beide erst zu gewinnen, erst aus sich heraus zu bilden hat.“ Eine Vorstellung von der Seele bilde sich erst langsam im Kulturprozess heraus. Damit es dazu kommen könne, müsse der Mensch erst die Trennung von Ich und Welt vollziehen, sich als Ich und Seele begreifen und aus dem Gesamtzusammenhang der Natur herauslösen. Die Vorstellungen von einer Seele als Einheit seien sowohl in der Religion als auch in der Philosophie erst späte Konzepte. Bei Ludwig Klages wird aus dem Verhältnis von Geist und Seele eine Gegnerschaft, die sich zwangsläufig aus dem Wesen der beiden Pole ergibt. In seinem dreibändigen Hauptwerk "Der Geist als Widersacher der Seele" erläutert Klages, der hier stark von Friedrich Nietzsche beeinflusst ist, ausführlich seine These, dass der Geist und das Lebensprinzip, die Seele, „einander feindlich entgegengesetzt“ seien. Der Geist, der philosophische und wissenschaftliche Systeme hervorbringt, sei starr, statisch und wirklichkeitsfremd. Er baue am Kerker des Lebens. Die Seele hingegen wandle sich beständig und sei fähig, sich in tiefem Erleben der Wirklichkeit hinzugeben. Sie sei vergänglich und solle ihre Vergänglichkeit als „Gebot des Sterbens“ und Voraussetzung allen Lebens bejahen. Die Vorstellung einer unsterblichen Seele sei ein Produkt des lebensfeindlichen Geistes. Psychologie. Zur Aufgabe der Psychoanalyse stellte Sigmund Freud 1914 fest, sie habe niemals beansprucht, „eine vollständige Theorie des menschlichen Seelenlebens überhaupt zu geben“. Den Begriff „Seelenleben“ verwendete er synonym zu „Psyche“. Er schrieb, davon sei zweierlei bekannt: das Gehirn und Nervensystem als körperliches Organ und Schauplatz des Seelenlebens und die Bewusstseinsakte. Die Bewusstseinsakte seien unmittelbar gegeben und könnten dem Menschen durch keine Beschreibung näher gebracht werden. Eine direkte Beziehung zwischen diesen „beiden Endpunkten unseres Wissens“ sei nicht gegeben, und selbst wenn sie bestünde, könnte sie nur zur Lokalisation der Bewusstseinsvorgänge, nicht zu deren Verständnis beitragen. Das Seelenleben sei die Funktion des „psychischen Apparates“, der räumlich ausgedehnt und aus mehreren Stücken zusammengesetzt sei, ähnlich wie ein Fernrohr oder Mikroskop. Die Instanzen oder Bezirke des Seelenlebens seien das Es, das Ich und das Über-Ich. Freud vermutete, die Räumlichkeit sei Projektion der Ausdehnung des psychischen Apparates, dessen Bedingungen Kants "a priori" zu ersetzen hätten. Dazu notierte Freud 1938: „Psyche ist ausgedehnt, weiss nichts davon.“ Er meinte, die Philosophie müsse den Ergebnissen der Psychoanalyse „in ausgiebigster Weise“ Rechnung tragen, insofern sie auf Psychologie aufgebaut sei. Sie müsse ihre Hypothesen über das Verhältnis des Seelischen zum Leiblichen entsprechend modifizieren. Mit den „unbewussten Seelentätigkeiten“ hätten sich die Philosophen bislang – Freud schrieb dies 1913 – nicht auf angemessene Weise beschäftigt, denn sie hätten deren Phänomene nicht gekannt. Carl Gustav Jung gab in seiner 1921 veröffentlichten Untersuchung "Psychologische Typen" eine Definition des Begriffs „Seele“ im Rahmen der von ihm verwendeten Terminologie. Er unterschied zwischen Seele und Psyche. Als Psyche bezeichnete er die Gesamtheit aller – bewussten und unbewussten – psychischen Vorgänge. Die Seele beschrieb er als „einen bestimmten, abgegrenzten Funktionskomplex, den man am besten als eine "Persönlichkeit" charakterisieren könnte“. Zu unterscheiden sei zwischen der äußeren und der inneren Persönlichkeit des Menschen; die innere setzte Jung mit der Seele gleich. Die äußere Persönlichkeit sei eine von den Absichten des Individuums und von den Ansprüchen und Meinungen seiner Umgebung geprägte „Maske“. Diese Maske nannte Jung, die antike lateinische Bezeichnung für Masken von Schauspielern aufgreifend, "Persona". Die innere Persönlichkeit, die Seele, sei „die Art und Weise, wie sich einer zu den inneren psychischen Vorgängen verhält“, seine innere Einstellung, „der Charakter, den er dem Unbewussten zukehrt“. Jung formulierte den Grundsatz, die Seele verhalte sich zur Persona komplementär. Sie enthalte diejenigen allgemein menschlichen Eigenschaften, welche der Persona fehlten. So gehöre zu einer intellektuellen Persona eine sentimentale Seele, zu einer harten, tyrannischen, unzugänglichen Persona eine unselbständige, beeinflussbare Seele, zu einer sehr männlichen Persona eine weibliche Seele. Daher könne man den Charakter der nach außen verborgenen, häufig auch dem Bewusstsein des betreffenden Menschen selbst unbekannten Seele aus dem Charakter der Persona ableiten. Freud meinte, sein allgemeines Schema des psychischen Apparates gelte auch für die „höheren, dem Menschen seelisch ähnlichen Tiere“. So sei bei Tieren, die längere Zeit zum Menschen in einem Verhältnis kindlicher Abhängigkeit gestanden hätten, ein Über-Ich anzunehmen. Die Tierpsychologie solle dies erforschen. Tatsächlich erlebte die Erforschung tierischen Verhaltens unter psychologischen Gesichtspunkten in der ersten Hälfte des 20. Jahrhunderts einen Aufschwung. Die Tierpsychologie, die später Ethologie genannt wurde, entwickelte sich zu einem eigenständigen Fachgebiet. Schmetterlinge. Die Schmetterlinge (Lepidoptera) oder Falter bilden mit knapp 160.000 beschriebenen Arten (Stand: 2011) in etwa 130 Familien und 46 Überfamilien nach den Käfern (Coleoptera) die an Arten zweitreichste Insekten-Ordnung. Jährlich werden etwa 700 Arten neu entdeckt. Schmetterlinge sind auf allen Kontinenten außer Antarktika verbreitet. In Mitteleuropa sind sie mit etwa 4000 Arten vertreten; für Gesamteuropa verzeichnet der Katalog von Ole Karsholt über 10.600 Arten. In Deutschland sind es etwa 3700 Arten. Herkunft des Namens. Der deutsche Name „Schmetterling“, 1501 erstmals belegt, kommt vom slawischstämmigen ostmitteldeutschen Wort "Schmetten" (das heißt Schmand, Rahm), von dem einige Arten oft angezogen werden. Im Aberglauben galten Schmetterlinge gar als Verkörperung von Hexen, die es auf den Rahm abgesehen hatten, worauf auch frühere landschaftliche Bezeichnungen für Schmetterlinge wie "Milchdieb," "Molkenstehler" oder ähnliche hindeuten. Die englische Bezeichnung "butterfly" weist in dieselbe Richtung und entspricht dem regional gebräuchlichen "Buttervogel," da die Tiere beim Butterschlagen angelockt wurden. Örtlich existierten aber auch verschiedene weitere Bezeichnungen; neben den oben schon genannten beispielsweise westfälisch "Schmandlecker" (von Schmand), bayerisch "Müllermaler," hessisch "Lattichvogel" (von Lattich), schlesisch, siebenbürgisch und in Teilen der Schweiz "Sommervogel" (gleichbedeutend dem dänischen "sommerfugl"), in anderen Teilen der Schweiz auch "(P)Fifalter". Das Wort "Schmetterling" setzte sich erst in der zweiten Hälfte des 18. Jahrhunderts allgemein durch. Bis dahin wurde diese Insektenordnung nach Rösel von Rosenhof (1749) noch „Tagvögel“ (für Tagfalter) oder „Nachtvögel“ (für Nachtfalter) genannt. Der Begriff "Falter" hat weder mit "falten" (der Flügel) noch mit "flattern" zu tun. Das germanische Wort – mittelhochdeutsch "vīvalter", althochdeutsch "fīfalt(a)ra", altenglisch "fīff(e)alde", altnordisch "fífrildi" – ist wahrscheinlich mit dem lateinischen "pāpilio" verwandt, woraus etwa italienisch "farfalla" oder französisch "papillon" abgeleitet sind. Darüber hinaus ist die indogermanische Herleitung unklar. Die wissenschaftliche Bezeichnung "Lepidoptera" heißt Schuppenflügler und ist eine griech. Zusammensetzung aus λεπίς "lepís" ‚Schuppe‘ und πτερόν "pterón" ‚Flügel‘. Das altgriechische Wort für Schmetterling war ψυχή ("psukhḗ" oder: "psyche")‚ Hauch, Atem, Seele, da sie als Verkörperung der menschlichen Seele angesehen wurden. Dieser Ausdruck wurde vor allem für Nachtfalter verwendet und findet sich für Tagfalter erst in hellenistischer Zeit. Ein seltener gebrauchter Ausdruck war "phallaina" (als "phalaena" ins Lateinische übernommen). Merkmale der Imagines. Der Körperbau der Imagines entspricht bei den Schmetterlingen dem Grundbauplan praktisch aller anderen Insekten: Sie besitzen ein Exoskelett aus Chitin und Proteinen, mehrere Sklerite genannte Platten sind in segmentalen Ringen angeordnet und durch Gelenkhäute beweglich verbunden. Auch die Beine und die Fühler bestehen aus solchen Ringen. Unterteilt wird der Körper in Kopf (Caput), Brust (Thorax) und Hinterleib (Abdomen). Beim Kopf der Schmetterlinge sind die Fühler, die Augen und bei den meisten Arten die Mundwerkzeuge mit dem Saugrüssel sehr auffällig, am Thorax sind die meist großen und sehr zarten Flügel aufgehängt, welche die gesamte Gestalt der Falter dominieren. Schmetterlinge erreichen eine Körperlänge (ohne Flügel gemessen) von 1,5 bis 100 Millimetern. Als größter Schmetterling gilt der Eulenfalter "Thysania agrippina" aus Südamerika. Diese Falter erreichen Flügelspannweiten von 25 bis 30 Zentimetern. Der Königin-Alexandra-Vogelfalter ("Ornithoptera alexandrae") ist mit Spannweiten von 20 bis 28 Zentimetern der größte Tagfalter. Die kleinsten Falter sind Angehörige der Schopfstirnmotten (Tischeriidae), die Arten mit einer Flügelspannweite von nur 1,5 bis 2 Millimetern beinhalten. Als Falter mit der größten Flügelfläche gilt der Atlasspinner ("Attacus atlas") aus Südostasien. Fühler. Der Bau der Fühler kann sehr unterschiedlich sein und ist oft ein Charakteristikum der jeweiligen Schmetterlingsfamilie. Es gibt fadenförmige, gekeulte (die fadenförmig sind und am Ende eine Verdickung aufweisen), gesägte (die auf einer Seite abstehende Fortsätze haben) und gekämmte Fühler (die diese auf beiden Seiten tragen), zusammen mit allen möglichen Übergängen. Die Fühler sind bei den Geschlechtern oft unterschiedlich gebaut, in diesen Fällen sind sie bei den Männchen viel stärker ausgeprägt. Mit ihren Fühlern können die Schmetterlinge riechen, manche auch tasten, schmecken und Temperaturen wahrnehmen. Die Reizaufnahme erfolgt durch kleine Härchen, die auf den Fühlern verteilt sind. Durch gesägte oder gekämmte Fühler wird die Oberfläche stark vergrößert, was den Geruchssinn erheblich verbessert. Männchen können dadurch die von paarungsbereiten Weibchen abgegebenen Pheromone auf große Distanz wahrnehmen. Dies ist vor allem bei Faltern wichtig, die in sehr zerstreuten Populationen leben und deswegen nicht durch Zufall aufeinanderstoßen. Die Weibchen erriechen mit ihren Fühlern die richtigen Raupennahrungspflanzen. Mundwerkzeuge. a>-Aufnahme eines Schmetterlingskopfes mit eingerolltem Rüssel Die Mundwerkzeuge der Schmetterlinge sind im Vergleich zu anderen Insekten sehr spezialisiert und abgewandelt. Ihre Mandibeln (Oberkiefer) sind stark verkümmert, nur bei der Familie der Urmotten (Micropterigidae) werden diese noch als Beißwerkzeuge verwendet. Bei den meisten Schmetterlingen bilden die Unterkiefer (Maxillen) zwei flexible Halbröhrchen, die über Falznähte verbunden sind. Dadurch wird zwischen den beiden Röhrchen das Saugrohr gebildet, mit dem die Falter ihre Nahrung aufsaugen können. Diese kann nur flüssig sein. Nahezu alle Schmetterlinge ernähren sich von Blütennektar, Pflanzensäften und anderen nährstoffreichen Flüssigkeiten. In Ruhestellung wird der Saugrüssel unter dem Kopf eingerollt. Neben den veränderten Maxillen verfügen die Schmetterlinge über Maxillarpalpen, die zurückgebildet sind, sowie Lippentaster (Labialpalpen), die bei manchen Arten verlängert und groß ausgebildet sind (z. B. bei der Unterfamilie Libytheinae der Edelfalter). Auf den Palpen finden sich Tast- und Riechorgane. Die Länge des Rüssels ist je nach Art sehr unterschiedlich. Die Schwärmer (Sphingidae) haben die längsten Rüssel. Bei einer in den Subtropen lebende Schwärmerart "Amphimoea walkeri" beträgt die Rüssellänge 280 Millimeter; bis jetzt ist noch keine andere Schmetterlingsart entdeckt, die diese Länge übertrifft. Damit können sie in die besonders engen Blütenhälse von Orchideen eindringen. Der Rüssel des Totenkopfschwärmers ("Acherontia atropos") ist dagegen sehr kurz, aber sehr kräftig gebaut. Mit ihm können die Tiere bereits verdeckelte Bienenwaben aufstechen und aussaugen, zusätzlich können sie mit ihm Pfeiftöne erzeugen. Bei einigen Schmetterlingsarten wie den Pfauenspinnern (Saturniidae) oder den Glucken (Lasiocampidae) ist der Rüssel gänzlich zurückgebildet. Ihre einzigen Mundwerkzeuge sind die unpaare Unterlippe (Labium) mit den Labialpalpen. Damit können sie aber keine Nahrung aufnehmen. Diese Tiere sterben schon bald nach der Paarung. Ihr eigentliches Leben spielt sich im Stadium der Raupe ab. Die Urmotten (Micropterigidae) haben keinen Rüssel, sie können aber mit Mandibeln kauen und ernähren sich von Pollen. Auf der Unterlippe der Raupe befindet sich auf einem Zapfen die Öffnung der Spinndrüsen, in denen Seide in Form einer Flüssigkeit produziert wird, die nach dem Austreten an der Luft erstarrt. Augen. Die Augen sind wie bei anderen Insekten als Facettenaugen ausgebildet. Diese bestehen aus bis zu 6.000 kleinen Einzelaugen (Ommatidien). Neben diesen haben viele Schmetterlingsarten zusätzlich ein Paar Einzelaugen (Ocellen), mit denen sie ihren Tag-Nacht-Rhythmus steuern. Im Gegensatz zu den Tagfaltern haben Nachtfalter, die großen Helligkeitsunterschieden ausgesetzt werden, Pigmentzellen in ihren Augen, mit denen sie die einfallende Lichtintensität regulieren können. Sie sind kurzsichtig, da sie bedingt durch die Facettenaugen nicht akkommodieren, also die Sehschärfe nicht dem Objektabstand anpassen können. Hinzu kommt, dass sie durch die Facetten auch nur „pixelig“ sehen. Sie besitzen aber ein großes Gesichtsfeld und reagieren gut auf Bewegungen. Die Falter haben auch eine andere Farbempfindlichkeit als der Mensch. Sie erkennen keine roten Farben, dafür sind sie im Ultraviolettbereich empfindlich. Speziell die Nachtfalter werden von UV-Lampen angezogen. Mit ihren Augen können Schmetterlinge etwa 200 m weit sehen und sich auf ein in diesem Abstandsbereich befindliches Flugziel hinbewegen. Brustabschnitt (Thorax). Der Thorax besteht aus drei ringförmigen Teilen (Prothorax, Mesothorax und Metathorax), welche die gesamten Bewegungsorgane der Tiere umfassen. Auf jedem Segment ist ein Beinpaar platziert. Bei vielen Tagfaltern ist das erste Beinpaar zurückgebildet und wird mit seinen Putzspornen nur zur Reinigung verwendet. Die Beine bestehen aus Hüfte (Coxa), Schenkelring (Trochanter), Schenkel (Femur), Schiene (Tibia) und Fuß (Tarsus). Der Fuß besteht wiederum aus fünf Gliedern, am letzten Glied sind Klauen zum Festhalten ausgebildet. Bei manchen Faltern befinden sich auf den Tarsen Sinnesorgane, mit denen sie schmecken können. Die Beine der Olivbraunen Zünslereule ("Zanclognatha tarsipennalis") tragen Dornen und große Haarbüschel, die vermutlich dazu dienen, Duftstoffe zu verteilen. Auf den beiden hinteren Segmenten des Thorax sitzen die beiden Flügelpaare. Schmetterlinge sind in der Lage zu hören. Ihre Ohren (Tympanalorgane) befinden sich entweder im hinteren Bereich des Thorax oder am Abdomen in einer von einer dünnen Membran bedeckten Grube. Diese Membran funktioniert ähnlich wie das menschliche Trommelfell. Evolutionär weit entwickelte Nachtfalter, wie beispielsweise Eulenfalter (Noctuidae) oder Bärenspinner (Arctiidae), sind auch im Ultraschallbereich sensibel, da ihre Hauptfeinde, die Fledermäuse, diese Signale zur Ortung nutzen. Wird ein Ortungston empfangen, lassen sich die Falter im Flug fallen, um der Erbeutung zu entgehen. Bärenspinner können sogar Ultraschallgeräusche abgeben. Da viele von ihnen giftig sind, assoziieren Fledermäuse diese Geräusche mit Ungenießbarkeit und lassen von den Faltern ab. Flügel. Die Flügel sind bis auf wenige Ausnahmen die eigentlichen Bewegungsapparate der Falter. Die Vorder- und Hinterflügel sind einzeln aufgehängt, werden aber im Flug mitunter durch besondere Mechanismen miteinander gekoppelt. Bei den meisten Tagfaltern fehlt aber eine solche Verbindung. Über die Flügel, zwischen einer oberen und einer unteren Membran, verlaufen die Flügeladern. Diese werden nach dem Schlüpfen, wenn die Flügel noch schlaff und unbeweglich sind, mit einer Blutflüssigkeit gefüllt. Danach können die Flügel trocknen, und diese Adern verlieren ihre Funktion. Die Flügel sind auf der Ober- und Unterseite mit Schuppen bedeckt. Zudem ist bei den meisten Schmetterlingen der gesamte Körper beschuppt. Diese Schuppen sind abgeflachte, artspezifische Haare, die dachziegelartig auf den Flügeln liegen und so die Flügeladern verdecken. Da die Flügel für die Bestimmung von Schmetterlingen besonders wichtig sind, und oft nur geringe Unterschiede zwischen verschiedenen Arten bestehen, werden die Flügel in Regionen aufgeteilt und die Adern der Flügel und die daraus gebildeten Zellen nummeriert. Als Beispiel werden die Flügel eines Tagfalters beschrieben: Die Regionen verlaufen vom Flügelansatz zur Spitze, wobei jeder der Vorder- und Hinterflügel in vier Regionen aufgeteilt wird. Die Adern werden auf den Vorderflügeln von eins bis zwölf nummeriert beginnend von hinten mit eins, die parallel zum Innenrand verläuft. Auf den Hinterflügeln befinden sich nur neun durchgängige Adern, teilweise gibt es aber auch eine zehnte. Die Flächen, die dabei von den Flügeladern begrenzt werden, nennen sich Zellen bzw. Mittel- oder Diskoidalzellen. Näheres zu den Flügeln findet sich im Artikel Flügel (Schmetterling). Bei den Weibchen mancher Arten, sehr selten auch bei den Männchen, sind die Flügel völlig zurückgebildet. Sie können sich nur laufend fortbewegen. Dies ist beispielsweise bei den Echten Sackträgern (Psychidae) der Fall. Auch bei den Spannern (Geometridae) gibt es Arten mit verkürzten Flügeln. Neben den „normal“ gefärbten kann es auch Exemplare derselben Art geben, die ganz anders gefärbt sind. Sie werden Aberrationen oder Morphen genannt. Meistens handelt es sich hierbei um dunklere bis ganz schwarze Exemplare. In früheren Zeiten wurden für die verschiedenen Färbungsvarianten einer Art eigene Namen geprägt, nach heutiger Auffassung haben diese Namen aber keinerlei nomenklatorische Relevanz. Hinterleib (Abdomen). Das Abdomen besteht aus zehn gleichförmig gestalteten Segmenten, die mit artspezifisch gefärbten Schuppen bedeckt sind. Im Abdomen finden sich die lebenserhaltenden Organe, ein schlauchförmiges Herz, das Nervensystem, der Verdauungstrakt und die Geschlechtsorgane sowie verschiedene Drüsen, die vor allem Duftstoffe produzieren. Die Geschlechtsorgane sind artspezifisch gebaut und deshalb für die Bestimmung sehr wichtig. Außen trägt das Männchen einen Klammerapparat, um das Weibchen während der Paarung festzuhalten. Das Weibchen ist mit einer Legeröhre (Ovipositor) ausgestattet. Bei manchen Arten besitzen die Weibchen am Ende des Hinterleibs Haarbüschel, die über den Eigelegen zur Tarnung abgestreift werden können. Andere Arten weisen Dornen auf, die beim Berühren Gift absondern. Innerer Aufbau. Das röhrenförmige Herz pumpt in einem einfachen Kreislauf das Blut (Hämolymphe), das um die Organe herumfließt, durch den Körper. Das Blut transportiert Nährstoffe im Körper, aber keinen Sauerstoff bzw. Kohlendioxid. Der Gasaustausch erfolgt über Tracheen, die mit ihrem verzweigten Rohrsystem alle Organe mit Sauerstoff versorgen, der durch seitliche Öffnungen (Stigmen) in den Körper gepumpt wird. Der maximale Transportweg ist bei diesem Atmungssystem begrenzt, was auch der Grund ist, warum Schmetterlinge und Insekten allgemein in ihrem Größenwachstum beschränkt sind. Das Nervensystem befindet sich auf der Unterseite unterhalb des Darms. Es besteht aus zwei parallel laufenden Nervensträngen, die durch Ganglien miteinander strickleiterartig verbunden sind. Am vorderen Ende des Abdomens führen die Stränge um den Darm herum und verbinden sich mit den Kopfganglien des Gehirns, bestehend aus dem Unterschlund- und dem Oberschlundganglion. Diese beiden Nervenabschnitte sind voneinander unabhängig. Das bedeutet, dass der Körper noch arbeiten kann, obwohl das Gehirn bereits tot ist. Das Verdauungssystem beginnt mit einem muskulösen Rachen (Pharynx), der die Nahrung vom Mund in die Speiseröhre (Ösophagus) pumpt. Sie ist als Rohr ausgebildet und führt in den Nahrungsspeicher. An ihn schließt der Mitteldarm an, in dem Nährstoffe in das Blut aufgenommen werden. Darauf folgt der Enddarm. Dort sowie von den zwei röhrenförmigen Nieren (Malpighische Gefäße) werden Stoffwechselprodukte aus den Organen aufgenommen und über den After ausgeschieden. Wie schon erwähnt gibt es nicht nur Schmetterlinge, die keine Nahrung zu sich nehmen und deren Verdauungssystem nutzlos ist, sondern auch solche, die überhaupt kein Verdauungssystem haben, wie es bei manchen Pfauenspinnern der Fall ist. Die inneren Geschlechtsorgane bestehen bei den Männchen aus zwei über dem Darm liegenden Hoden, die bei vielen Arten zusammengewachsen sind. Sie sind durch schmale Röhren (Vasa deferentia) mit dem Ductus ejaculatorius verbunden, der zum Aedeagus führt. Er fungiert als Penis und überträgt die Spermien in das Weibchen. Meistens werden die Spermien aber in einer Blase mit härterer Hülle (Spermatophore) gespeichert und übertragen. Die Weibchen haben zwei Eierstöcke (Ovarien), die mit je vier Schläuchen verbunden sind, in denen die Eier gebildet werden. Merkmale der Raupe. Die Raupe ist das eigentliche Fressstadium des Schmetterlings. Bei manchen (z. B. Pfauenspinner (Saturniidae), Glucken (Lasiocampidae)) ist es sogar das einzige, in dem überhaupt Nahrung aufgenommen wird. Die Falter dieser Arten leben dann nur für die Fortpflanzung und sterben schon bald nach ihrem Schlupf. Da sich das Körpervolumen der Raupen stark vergrößert, müssen sie sich mehrmals häuten, bis sie ihre endgültige Größe erreicht haben. In der Regel häuten sie sich vier bis fünf Mal, wobei sich ihr Volumen jeweils etwa verdoppelt. Zur hormonell gesteuerten Häutung schwillt die Raupe an, bis die alte Haut platzt und durch Muskelbewegungen nach hinten weg geschoben werden kann. Segmente und Gliedmaßen. Der Rumpf der Raupen besteht, ähnlich wie bei anderen Insekten mit vollständiger Metamorphose, aus gleichmäßig aneinander gereihten Segmenten. Schmetterlingsraupen haben 14 Segmente, bestehend aus dem Kopf, drei Brustsegmenten und zehn Hinterleibsegmenten, von denen die letzten drei meistens zu einem Analsegment verwachsen sind. Wie die Falter lassen sich auch die Raupen in die drei Bereiche Kopf, Brust und Hinterleib unterteilen. Der Kopf ist gewöhnlich durch Chitineinlagerungen verhärtet. Außen auf der Unterseite haben sie zwei bis acht (meistens drei) Paar Punktaugen (Stemmata). Das wichtigste und auch das Aussehen des Kopfes dominierende Merkmal sind die Mundwerkzeuge. Sie sind im Gegensatz zu den stummelförmig angelegten Fühlern stark ausgeprägt. Die drei Brustsegmente bilden zusammen die Brust. Auf ihnen ist je ein Beinpaar platziert (Brustbeine), die wie bei den Faltern ausgebildet, aber kürzer sind und mit denen Nahrung festgehalten wird. Am Rücken des ersten Brustsegmentes befindet sich normalerweise ein Nackenschild, das aus einer mit Chitin verhärteten Platte besteht. Seitlich davon gibt es je eine porenartige Öffnung (Stigma), mit der das Tracheensystem mit Sauerstoff versorgt wird. Nur selten sind auf den anderen Brustsegmenten ebenfalls solche Öffnungen vorhanden. Die darauf folgenden 10 Hinterleibsegmente bilden das Abdomen, das aber nicht deutlich vom vorderen Teil des Körpers getrennt ist. Jedes dieser Hinterleibsegmente trägt ein Stigma für die Atmung. Die ersten beiden Segmente sind beinlos, im Unterschied zu den sehr ähnlichen Larven der Blattwespen, die lediglich ein beinfreies Segment besitzen. Die nächsten Segmente, meistens vom dritten bis zum sechsten, tragen Gliedmaßen. Diese sogenannten Bauchbeine sind aber keine eigentlichen Beine, sondern nur ungegliederte Hautausstülpungen, die am Ende Hakenkränze zum besseren Festklammern tragen. Sie sind in ihrer Gestalt deutlich kuppeliger als die echten Beine und am Ende meist saugnapfartig verbreitert. Am zehnten Hinterleibssegment findet sich ein weiteres Paar echter Beine, die deutlich kräftiger gebaut sind. Diese werden Nachschieber genannt. Zwischen den Brustbeinen und den Bauchbeinen befindet sich eine Spinndrüse, mit der die Raupen einen Spinnfaden erzeugen können. Varianten. Mehrere Familien weichen von dieser klassischen Raupenform ab: Die Urmotten (Micropterigidae) haben beide ersten Hinterleibssegmente mit Bauchbeinen versehen, den Spannern (Geometridae) fehlen die ersten drei Bauchbeinpaare, die zurückgebildet sind, und bei einigen Eulenfaltern (Noctuidae) fehlen die ersten beiden. Bei den Schneckenspinnern (Limacodidae) sind die Brustbeine zu winzigen Stummeln zurückgebildet. Alle anderen Beinpaare sind ebenfalls zurückgebildet, so dass sich diese Raupen kriechend wie Nacktschnecken fortbewegen. Die glatten Raupen der Ritterfalter (Papilionidae) haben eine Nackengabel, die sie bei Bedrohung schnell ausstülpen können und die einen für Feinde unangenehmen Geruch verströmt. Ähnliche ausstülpbare Drüsen am Rücken haben beispielsweise auch die Raupen der Gespinst- und Knospenmotten (Yponomeutidae), Noctuoidea und Geometroidea. Zum Schutz vor Vögeln oder parasitoiden Wespen und Fliegen tragen viele Raupen Dornen oder Haare. Dornen sind bei vielen Edelfalterraupen verbreitet, eine starke Behaarung haben viele Raupen der Bärenspinner. Ein außergewöhnliches Aussehen haben viele Trägspinner (Lymantriidae) durch Haarbüschel verschiedener Farbe und Länge. Die Haare verursachen bei Menschen teilweise Hautreizungen durch Gifte, oft lösen sie sich, wenn sie gegen den Strich gebürstet werden. Wenn die Haare keine Gifte enthalten, können sie alleine durch das Eindringen in die Haut, was wie viele kleine Nadelstiche wirkt, Juckreize und Rötungen verursachen. Die Raupe des Eichen-Prozessionsspinners ("Thaumetopoea processionea") hat über 600.000 giftige Haare, die schon Allergien auslösen können, wenn sich Menschen nur unter befallenen Bäumen aufhalten. Innerer Aufbau. Ein kleines Gehirn befindet sich im unteren Bereich des Kopfes. Von der Mundöffnung bis zum Hinterleibsende verläuft ein schlauchförmiger Darm. Im Raupenstadium sind schon die Hoden der späteren Falter angelegt, sie befinden sich unter der Oberseite des Hinterleibs. Die inneren Organe werden durch das grün oder gelb gefärbte Blut, auch die Hämolymphe genannt, mit Sauerstoff und Nährstoffen versorgt. Dieses wird von einem Rückengefäß durch den Körper gepumpt. Falter. Durch die vielen verschiedenartigen Fressfeinde der Schmetterlinge haben sich im Laufe der Evolution zur Tarnung, Täuschung und Warnung auf ihren Flügeln vielfach Zeichnungen entwickelt, die entweder wie Tieraugen aussehen, gefährliche und giftige Tiere imitieren (Mimikry) oder durch auffällige Färbung vor ihrer Giftigkeit warnen. Tieraugen finden sich etwa auf den Flügeln des Tagpfauenauges, bei der Gattung der Nachtpfauenaugen und der neotropischen Gattung Caligo. Die falschen Augen verwirren Räuber und verleiten sie, an falscher Stelle zuzuschnappen. Der Hornissen-Glasflügler ("Sesia apiformis") sieht Hornissen zum Verwechseln ähnlich. Einige Tagfalter weisen auf der Oberseite der Flügel bunte Zeichnungen auf, die Unterseite ist aber meist einfach gezeichnet und erscheint oft wie welkes Laub. Dadurch sind sie mit geschlossenen Flügeln gut getarnt und der Umgebung angepasst. Manche Falter imitieren auf ihren Flügelunterseiten Blattadern. Vor allem Nachtfalter, die am Tag meist auf Baumrinde sitzen, besitzen eine rindenähnliche Flügelfärbung. Vogelkotmimese ist ebenfalls eine weit verbreitete Tarnmethode. Raupen, Falter und Puppen sehen nicht nur aus wie Vogelkot auf der Blattoberseite, sie können diesen Eindruck auch noch durch eine entsprechende Körperhaltung verstärken. Ein Beispiel hierfür ist der Ulmen-Harlekin ("Calospilos sylvata"). Es gibt auch Falter mit Schreckfärbung wie das Rote Ordensband ("Catocala nupta"). Wenn diese Falter unscheinbar auf Baumstämmen ruhen, kann man nur ihre braungrauen Vorderflügel erkennen. Werden sie aber aufgeschreckt und fliegen sie davon, werden ihre leuchtend roten Hinterflügel sichtbar. Falter, deren Körper Gifte enthalten und die damit für die meisten ihrer potentiellen Feinde ungenießbar sind, warnen diese durch eine auffällige Färbung. Viele Falter der Danaidae warnen Fressfeinde durch auffällige Färbungen, ebenso die zu den Nachtfaltern gehörenden tagaktiven Widderchen, die Blausäure oder andere Gifte enthalten. Bei vielen Arten der Weißlinge, Edelfalter und Schwalbenschwänze imitieren die Weibchen giftige Falter anderer Familien. Da die Männchen für die Paarung von den Weibchen ausgewählt werden, müssen diese leicht für die Weibchen erkennbar sein. Daher zeigen diese das ursprüngliche Aussehen der Art und haben keine Mimikry entwickelt. Raupen. Auch die Raupen haben viele Fressfeinde und haben sich ebenso wie die Falter angepasst. Raupen, die etwa auf Nadelbäumen leben, haben meist eine Längszeichnung, die sie zwischen den Nadeln scheinbar verschwinden lässt. So ahmt "Thera firmata" (Geometridae) mit Längsstreifen die Kiefernadeln ihrer Futterpflanze nach, ihr Kopf gleicht in Form und Farbe zusätzlich einer Knospe. Einige Raupen der Familie der Ritterfalter (Papilionidae), die Raupen von "Acronicta alni" (Noctuidae) und einige Raupen der Gattung "Trilocha" (Echte Spinner) haben eine Vogelkotmimese entwickelt. Viele Spannerraupen (Geometridae) ahmen zur Tarnungen die Form von Ästen nach. Wenn sie verkehrt herum auf einem Ast sitzen, verschwimmen sie als ob sie nicht dick wie eine Raupe sondern flach wie ein Blatt wären. Zur Tarnung dient hier auch eine Gegenschattenfärbung, die den walzenförmigen Körper der Raupe verbergen soll. Andere Spanner verharren regungslos mit der Hinterseite an einem Ast klammernd und sehen so mit ihrer perfekt angepassten Farbe einem kleinen Ästchen ähnlich. Sie bilden sogar knospenartige Verdickungen aus. Die Raupen von "Nemoria arizonaria" hat einen Saisondimorphismus entwickelt, das heißt, sie sehen je nach Jahreszeit anders aus. Im Frühjahr ahmen sie die Kätzchen der Futterpflanze, einer Eiche, nach. Im Sommer fressen sie deren Blätter und ahmen die Ästchen, auf denen sie sitzen, nach. Eine effektive Abschreckung von Räubern durch Nachbildungen von Tieraugen haben sich bei einigen Schwalbenschwänzen und Schwärmern parallel entwickelt. Sie tragen meistens zwei Augenflecken und können so auch durch die Körperhaltung kleine Schlangen imitieren. Ein Beispiel hierfür findet sich bei den Schwärmern der Gattung "Hemeroplanes." Raupen, die giftig sind, warnen Fressfeinde durch auffällige Färbung, wie beispielsweise viele Arten der Unterfamilie der Danaidae, wozu auch der Monarchfalter gehört. Diese Raupen verstecken sich nicht und zeigen sich ungestört auf ihren Fraßpflanzen. Andere Raupen, die zwar nicht giftig sind, aber die eine ähnliche Färbung (Mimikry) aufweisen, profitieren von ihnen. Ernährung der Imagines. Große und Kleine Schillerfalter saugen an einem Froschkadaver Die erwachsenen Tiere (Imagines) nehmen mit ihrem Saugrüssel meist nur flüssige Nahrung auf, meist Blütennektar. Sie fliegen dazu eine Vielzahl verschiedener Blüten an und sind deswegen auch für deren Bestäubung wichtig. Einige Pflanzen mit tiefen Blütenkelchen können nur von Schmetterlingen bestäubt werden. Es werden aber auch noch andere süße Flüssigkeiten wie z. B. Pflanzensäfte, Honigtau von Läusen und der Saft von faulendem Obst gesaugt. Der Totenkopfschwärmer ("Acherontia atropos") hat sich auf das Aussaugen von Bienenwaben spezialisiert. An heißen Tagen saugen Schmetterlinge auch gerne Wasser aus kleinen Pfützen. Sie tun dies aber auch, um Mineralsalze aufzunehmen. Wenige Schmetterlingsarten ernähren sich ganz oder teilweise von Tierexkrementen, Urin, Schweiß und Tränenflüssigkeit. Unter den Edelfaltern gibt es einige Arten, die bevorzugt an Tierexkrementen und Schweiß saugen, dazu gehören etwa der Große Schillerfalter und der Eisvogel. Die Nachtfalter "Lobocraspis griseifusa," "Arcyophora sp." und "Filodes fulvidorsalis" der Familien Zünsler (Pyralidae), Eulenfalter (Noctuidae) und Spanner (Geometridae) aus Afrika, Brasilien und Südostasien trinken Tränenflüssigkeit. Durch Irritation des Augapfels wird die Tränenproduktion des Opfers stimuliert. Meistens werden größere Tiere, wie große Säugetiere und auch Krokodile angeflogen. Auf Madagaskar gibt es aber keine solchen Tiere, und da kleinere Säugetiere, wie etwa Lemuren, die Falter vertreiben können, müssen die dort lebenden lachryphagen Schmetterlingsarten wie etwa "Hemiceratoides hieroglyphica" auf Vögel ausweichen. Dies kann nur während der Nacht geschehen. Die Falter besitzen speziell geformte Saugrüssel, die sie unter die Lider der schlafenden Vögel schieben können. Einige tränenflüssigkeitstrinkende Falterarten saugen auch gerne Blut aus offenen Wunden. Bei einigen anderen Arten wie der Wiesenrauten-Kapuzeneule ("Calyptra thalictri") sowie der subtropischen Arten "Calyptra eustrigata," "Calyptra minuticornis," "Calyptra orthograpta" und "Calyptra labilis" aus der Familie der Eulenfalter (Noctuidae) ist der Saugrüssel zu einem Stechrüssel umgebildet und kann bis zu sieben Millimeter tief in die Haut des Wirtstieres eindringen. Diese Schmetterlingsarten ernähren sich zuweilen vom Blut bestimmter Säugetiere und auch des Menschen. Sie können daher auch Krankheitserreger wie Viren übertragen. Der Rüssel ist bei manchen Schmetterlingen (beispielsweise Pfauenspinner (Saturniidae), Glucken (Lasiocampidae)) mehr oder weniger zurückgebildet. Diese Schmetterlinge können dann keine Nahrung mehr aufnehmen. Sie leben wenige Tage von ihren Reserven, um sich zu paaren. Eine weitere Ausnahme bilden die Urmotten (Micropterigidae), die noch Mandibeln besitzen und Blütenpollen fressen. Die "Heliconius"-Arten nutzen Pollen, den sie auf ihrem Rüssel verdauen, um zusätzlich an Stickstoff zu gelangen, was ihnen ein bis zu 8 Monate langes Leben ermöglicht. Ernährung und Lebensweise der Raupen. Die Raupen, welche völlig anders gestaltet sind als die Falter, ernähren sich auch ganz anders. Meist wird nach dem Schlupf zuerst die Eischale gefressen. Danach fressen die Raupen der meisten Schmetterlingsarten Blätter, Nadeln, Blüten, Samen oder Früchte verschiedener Pflanzen, wobei viele Arten auf bestimmte Pflanzen spezialisiert und angewiesen sind (Monophagie). Speziell unter diesen gibt es auch Minierer wie etwa die Miniermotten (Gracillariidae). Diese fressen Blätter oder auch Nadeln zwischen ihren Ober- und Unterhäuten (Cuticula) auf. Dabei entstehen typisch geformte Fraßgänge (Minen). Andere Schmetterlingsraupen ernähren sich von organischen Abfällen, Algen, Flechten oder auch räuberisch. Bei Schmetterlingsraupen kommt es auch zu Kannibalismus, wenn Nahrungsmangel herrscht. Einige Arten ernähren sich sogar zoophag, darunter die Raupe des hawaiischen "Hyposmocoma molluscivora," welche sich vor allem von sehr kleinen Schnecken ernährt, die sie mit ihren seidenen Spinnfäden an ihrer Sitzstelle festklebt. Die Raupen einiger Schmetterlingsfamilien leben in Symbiose oder als Sozialparasiten mit Ameisen. In Mitteleuropa leben einige Raupen der Bläulinge mit Schuppen- und Knotenameisen zusammen. Die Raupe sondert mit Drüsen am Rücken eine zuckerhaltige Flüssigkeit aus. Diese lockt Ameisen an, die die Raupe, nicht wie sonst bei kleinen Insekten, töten, sondern nur die süße Flüssigkeit einsammeln und die Raupe beschützen. Die Ameisen trommeln mit ihren Beinen auf den Rücken der Raupe, um die Produktion der süßen Flüssigkeit anzuregen. Im letzten Raupenstadium schleppen sie die Raupe in ihren Bau. Hier nimmt sie den Geruch der Ameisen an. Sie lebt jetzt nicht mehr symbiotisch mit den Ameisen, sondern sie tritt hier als Sozialparasit auf und ernährt sich von der Brut und lässt sich auch von den Ameisen füttern, da sie genauso bettelt wie die Brut der Ameisen. Obwohl sie nach wie vor eine zuckerhaltige Flüssigkeit absondert, steht das nicht im Verhältnis zu dem Schaden, den die Ameisen erleiden. Im Bau verpuppt sie sich und überwintert je nach Jahreszeit. Damit gehören diese Schmetterlinge zu den wenigen, die in stark von Ameisen besiedelten Gebieten überleben können. In Mexiko lebt der Würfelfalter (Riodinidae) "Anatole rossi" symbiotisch mit Ameisen. Die Ameisen sperren die Raupe jeden Abend in eine Erdhöhle, um sie vor anderen räuberischen Ameisen zu schützen. Tagsüber bewachen sie die Raupe und wehren beispielsweise parasitoide Schlupfwespen ab. Auch bei Trockenheit bringen die Ameisen die Raupe in eine Erdhöhle, wo sie sogar Waldbrände überdauern kann. Als Belohnung erhalten die Ameisen ebenfalls eine süße Flüssigkeit. Flugverhalten. Abhängig von der Schmetterlingsart und ihrer Flügelform können mehrere Flugformen unterschieden werden. Vom schnellen Schwirrflug über das schnelle bis hin zum langsamen Flattern und Gleiten zeigen sie alle von der Geschwindigkeit des Flügelschlags und der Art der Fortbewegung bedingten Abstufungen. Angetrieben werden die Flügel durch mehrere Muskeln des Thorax. Die Flügel der Falter schlagen im Flug nicht einfach auf und ab, sondern drehen sich an der Basis, sodass sie eine „8“ beschreiben. Zu den schnellsten Faltern gehören die Schwärmer (Sphingidae), deren Flügel ähnlich wie bei einem Kolibri schlagen. Sie können sich mit bis zu 50 h fortbewegen und im Flug, während des Nektarsaugens, auch stillstehen und sogar rückwärts fliegen. Nachtfalter haben neben dem normalen Flug auch ein Repertoire an verschiedenen Balzflügen zu bieten. So tänzeln Langhornmotten (Adelidae) auf der Stelle und Wurzelbohrer (Hepialidae) pendeln hin und her. Die ganz kleinen Falter können sich durch den Wind tragen lassen und schweben in der Luft wie Plankton im Wasser. Im Allgemeinen ist der Wind ein wichtiges Transportmittel, nicht nur, um die Ausbreitung der Arten zu beschleunigen. Manche Schmetterlingsarten, vor allem Echte Motten (Tineidae), sind flugträge. Als wechselwarme Tiere müssen sie sich erst aufwärmen, um fliegen zu können. Tagfalter nutzen dafür die Sonne. Durch die große Flügelfläche können sie dies auch bei bedecktem Himmel tun. Nachtfalter müssen sich durch Vibrieren der Flügel und die aus der Bewegung der Muskeln resultierende Wärme aufheizen. Wenn die Körpertemperatur an sonnigen, sehr heißen Tagen zu hoch wird, setzen sich die Falter in den Schatten und kühlen sich durch Flügelschlag. Überwinterung. Schmetterlinge, die in Klimazonen leben, in denen es kalte Jahreszeiten gibt, müssen überwintern. Als Imago tun dies z. B. der Zitronenfalter ("Gonepteryx rhamni") oder das Tagpfauenauge ("Inachis io"). Sie verstecken sich in hohlen Bäumen oder in Tierbauen und verharren dort regungslos. Die meisten Schmetterlinge überwintern aber als Raupe, Puppe oder ungeschlüpft im Ei. Manche Raupen erwachen sogar an sehr warmen Wintertagen und fressen, bevor sie wieder in die Winterstarre fallen. Ebenso unterbrechen manche Falter an warmen Tagen ihre Winterstarre und fliegen umher, wobei nicht unbedingt Nahrung aufgenommen werden muss. Je nach Region benötigen die Raupen oder Puppen mehr als eine Überwinterung um ihre Entwicklung zu vollenden. Dies ist beispielsweise im Hochgebirge der Fall, etwa bei "Parnassius"-Arten. Wanderungen. Einige Schmetterlingsarten legen lange Wanderungen zurück; sie werden als Wanderfalter bezeichnet. Dieses Verhalten ist z.B. von über 200 tropischen Arten bekannt. Besonders gut erforscht ist der Monarchfalter ("Danaus plexippus"), der für seine Massenwanderungen in Nordamerika über Tausende von Kilometern bekannt ist, und der Distelfalter ("Vanessa cardui"), der in vielen Teilen der Erde wandert, so auch von Nordafrika nach Europa. Distelfalter können oft im Abstand von wenigen Sekunden gesichtet werden, wie sie in der gleichen Richtung über die Alpen oder die offene Landschaft fliegen. In Europa sind viele Arten nördlich der Alpen nicht bodenständig, das bedeutet, dass sie nicht dauerhaft überleben können und jedes Jahr erneut einwandern. Beispiele hierfür sind neben dem Distelfalter das Taubenschwänzchen ("Macroglossum stellatarum") und der Admiral. Sie fliegen im Frühjahr aus ihren Lebensräumen in Südeuropa und Nordafrika nach Norden; teilweise überqueren sie dabei die Alpen. Über den Sommer leben sie in Mitteleuropa und Teilen von Nordeuropa. Sie bilden hier sogar neue Generationen. Naht der Winter, fliegen die meisten wieder zurück in den Süden. Manche Exemplare versuchen zu überwintern und überleben in milden Wintern oder in besonders geschützten Verstecken. Der Grund der Wanderungen ist nicht hinreichend geklärt, da die allermeisten Tiere den Winter nicht überleben können. Nahe liegt eine Strategie zur zufälligen Arealerweiterung, ursächlich ist zumindest auch ein Verdorren von Nektarpflanzen im Mittelmeerraum im Sommer. Möglich ist auch, dass die Wanderfalter noch einem Verhaltensatavismus folgen, also noch auf andere klimatische Bedingungen geprägt sind. Fortpflanzung und Entwicklung. Ursprüngliche Insekten verändern ihre Gestalt während ihres Lebens nicht, sie werden nur größer und müssen sich deswegen häuten. Bei Schmetterlingen ändert die Metamorphose das Aussehen grundlegend. Sie wird hier vollständige Metamorphose genannt, denn neben dem Larvenstadium gibt es noch ein weiteres, nämlich das der Puppe. Somit haben die Schmetterlinge vier Entwicklungsstadien: Ei, Raupe, Puppe und Falter. Balzverhalten. Die Balz ist ein sehr streng eingehaltenes Ritual. Sie beginnt normalerweise mit einem besonderen Flug und setzt sich am Boden durch das Umschreiten des Weibchens fort. Während des Fluges berühren sich oft die Flügel des Pärchens oder das Weibchen berührt mit ihren Fühlern die Flügel des Männchens. Die Paarungswilligkeit der Partner wird durch Duftstoffe verstärkt. Die männlichen wirken nur auf kurze Distanz, aber besonders die Nachtfalterweibchen locken die Männchen über große Entfernungen. Mit der Balz einher geht das Territorialverhalten der Männchen. Je nach Art werden bestimmte Bereiche wie beispielsweise Baumkronen und Hügelkuppen („Gipfelbalz“), Wegabschnitte oder kleine unbewachsene Stellen verteidigt. Paarung. Nachdem das Weibchen die Spermatophore des Männchens empfangen hat, gelangt diese in eine Blase (Bursa copulatrix), aus der schließlich die Spermien in die Samenblase gelangen, in der sie oft für längere Zeit gelagert werden. Befruchtet werden die Eier erst während der Eiablage, bei der sie an der Öffnung der Samenblase vorbei gleiten. Bei manchen Schmetterlingsarten kann das Weibchen seine Eier auch ohne das Männchen befruchten (Parthenogenese). Ei und Eiablage. a>s ("Siona lineata") bei der Eiablage Die Eier der Schmetterlinge gehören zu den komplexesten der Insekten. Es gibt eine ungeheure Formenvielfalt die zwischen schmal spindelförmig, oval, kugelig, halbkugelig, linsenförmig und flach zylindrisch variiert. Dazu kommen verschiedene Oberflächenstrukturen, die die harte Eischale (Chorion) oft bizarr aussehen lassen. Nur selten sind die Eier glatt. Es gibt gerippte, eingedellte, sternförmige, mit verschiedensten Ornamenten versehene, behaarte und gezackte Eier. Das Muster ist grundsätzlich regelmäßig. Man unterscheidet zwei Haupttypen von Eiern: flache und aufrechte Eier. Bei ersteren befindet sich die nabelförmige Ausbuchtung (Mikropyle), durch die das Spermium bei der Befruchtung in die Eizelle eindringt, an der Oberseite, bei den aufrechten Eiern ist die Mikropyle auf der Rückseite (dorsal). Die meisten Schmetterlingsarten haben Eier des zweiten Typs. Die Sauerstoffzufuhr erfolgt durch Poren (Aeropylen), im Ei befinden sich aber selbst Kammern, die mit Luft gefüllt sind. Die Größe der Eier variiert zwischen 0,5 und 2 Millimetern. Auch die Färbung der Eier könnte vielseitiger nicht sein. Vor allem variiert die Farbe während der Entwicklung, was meist darauf beruht, dass man die Färbung der heranwachsenden Raupe durch die leicht durchscheinenden Eischalen erkennen kann. Die meisten Eier sind anfangs hell und verdunkeln sich bis zum Schlüpfen der Raupe zu einem schwarz oder dunkelblau. Die Eiablage ist je nach Art sehr verschieden. Sie ist auch an die Form und Farbe der Eier angepasst. Die meisten Schmetterlinge legen ihre Eier einzeln, paarweise oder in kleinen und größeren Gruppen ab. Manche legen ihren gesamten Eivorrat an eine einzige Position. Gelegt werden je nach Art 20 bis über 1.000 Eier Sie werden in der Regel mit einer klebrigen Substanz an der Unterlage befestigt. Angeordnet werden diese entweder ungeordnet in ein oder mehrschichtigen Gelegen oder regelmäßig in Eispiegeln nebeneinander oder ringförmig um Pflanzenteile bzw. Stängel. Sie können auch durch Haare des Afterbusches bedeckt sein, die das Weibchen abstreift und mit einem Sekret an die Eier klebt. Dadurch sind sie besser gegenüber Fressfeinden getarnt. Manche Arten lassen ihre Eier aber auch nur wahllos auf den Boden fallen. Gelegt wird meistens auf der entsprechenden Futterpflanze, damit die Raupen schon nach dem Schlüpfen Nahrung vorfinden. Es gibt aber auch Arten, die ihre Eier wahllos auf nicht geeigneten Pflanzen verteilen. Die Raupen schlüpfen in der Regel nach zwei bis drei Wochen, dies ist aber auch schon nach weniger als einer Woche möglich. Wenn die Eier überwintern, was bei vielen Arten vorkommt, schlüpfen die Raupen mitunter erst nach einem halben Jahr. Ihre erste Entwicklung ist dann meist schon vor dem Winter abgeschlossen, lediglich das Schlüpfen wird hinausgezögert. Nach dem Schlüpfen fressen viele Arten als erstes die Eischale. Vermutlich dient dies dazu, neben Nährstoffen lebenswichtige Mikroorganismen aufzunehmen, die von der Mutter an das Ei übergeben wurden. Raupe. Die Raupen führen meist ein verstecktes Leben und sind auch gut an ihre Umgebung angepasst. Sie haben meist eine grüne oder braune Färbung. Die Raupen der Schwärmer gehören zu den größten in Europa. Sie können eine Länge von 15 Zentimetern erreichen. Manche Raupen spinnen die Blätter der Nahrungspflanzen zusammen, wie etwa beim Admiral, oder sie rollen ein Blatt zusammen und fressen diese Röhre von innen auf, wie es viele Wickler (Tortricidae) machen, wodurch diese Familie ihren Namen erhalten hat. Bei manchen Arten kann man ein Sozialverhalten beobachten. Die Raupen der Prozessionsspinner (Thaumetopoeidae) etwa leben in großen Gespinsten miteinander und bewegen sich gemeinsam in langen „Prozessionen“ zu ihren Nahrungsquellen. Puppe. Ist die Raupe erwachsen, beginnt sie mit der Verpuppung, indem sie sich zum letzten Mal häutet. Danach findet die Metamorphose zum Schmetterling statt. Dabei werden die Raupenorgane abgebaut oder umgeformt und zu Falterorganen umgebildet und auch die gesamte äußere Gestalt der Tiere ändert sich. Die Puppen der Schmetterlinge sind grundsätzlich Mumienpuppen. Das heißt, dass alle Körperanhänge (Fühler, Beinanlagen und Flügelscheiden) mit einem Kitt an den Körper geklebt werden. Lediglich die Urmotten (Micropterigidae) haben freie Puppen, bei denen die Gliedmaßen nicht verklebt sind. Die drei Körperabschnitte sind bei den Mumienpuppen nur schwer, aber die Körperanhänge und der Kopf gut zu erkennen. Die Puppe ist fast unbeweglich. Sie kann nur den Hinterleib seitwärts schwingen und rollende Bewegungen ausführen. Manche (z. B. Glasflügler (Sesiidae) und Holzbohrer (Cossidae)) besitzen an den Hinterleibssegmenten Dornen, mit denen sie sich in ihren Fraßgängen im Holz zur Öffnung nach vorn arbeiten können, um nach dem Schlupf leichter ins Freie zu gelangen. Bei den primitiveren Familien können aber auch die Körperanhänge leicht bewegt werden. Bei den unter den Tagfaltern zusammengefassten Schmetterlingsfamilien werden zwei Typen von Puppen nach der Art der Befestigung an der Unterlage unterschieden. Die einen werden Stürzpuppen, die anderen Gürtelpuppen genannt. Stürzpuppen hängen frei baumelnd mit Häkchen an einer Gespinstverankerung, die mit der Unterlage befestigt ist, nach unten. Gürtelpuppen sind durch einen Gespinstfaden, der wie ein Gürtel um die Körpermitte gesponnen ist, mit einem Zweig oder ähnlichem verbunden. Zusätzlich sind diese Puppen aber wie die ersten mit einem Gespinstpolster an der Unterseite verankert, aber diese hängen meistens nicht nach unten, sondern sind durch den Gespinstfaden nach oben befestigt. Dieser Typ wird aber auch bei anderen Schmetterlingsarten verwendet. Die Puppen der übrigen Schmetterlingsfamilien verpuppen sich entweder frei am Boden oder in einem mehr oder weniger fest gesponnenen Gespinst aus Seide. Dieses wird Kokon genannt. Die Seide wird aus speziellen Spinndrüsen, die sich auf der Unterlippe befinden, hergestellt. Damit der fertige Falter seine zuweilen sehr feste Puppe wieder verlassen kann, sind Vorkehrungen notwendig. Entweder wird ein runder Deckel vorgesehen, der dann von innen aufgestoßen wird, oder eine Reuse erlaubt es dem Falter hinauszukriechen, ohne dass ungebetene Gäste durch diese eindringen können. Dies ist z. B. beim Kleinen Nachtpfauenauge ("Saturnia pavonia") der Fall. Andere Arten sondern aus der Mundöffnung eine Flüssigkeit aus, die den Kokon aufweicht. Weil bei manchen Arten (vor allem bei Tagfaltern) die Puppen ohne ein schützendes Gespinst gebildet werden und deswegen sehr empfindlich sind, müssen sie eine gute Tarnung aufweisen. Sie können nicht, wie die Arten mit Gespinst, darauf vertrauen, dass Feinde wegen der zähen und schwer zu durchdringenden Außenhaut von ihrer Attacke ablassen. Daher sind die schutzlosen Puppen oft perfekt wie frische oder vertrocknete Blätter getarnt. Manche Puppen können sogar zirpende Geräusche von sich geben, um Fressfeinde zu verwirren. Die Puppenphase (sog. Puppenruhe) dauert meist zwei bis vier Wochen. Manche Arten überwintern aber als Puppe. Hier entwickeln sich die Falter schon vor dem Winter, schlüpfen aber erst im Frühling. Manchmal ruhen die Falter in den Puppen länger als einen Winter. So können die Frühlings-Wollafter ("Eriogaster lanestris") bis zu sieben Jahre in ihrer Puppe verharren, bevor sie schlüpfen. Der Seidenspinner ("Bombyx mori") liefert wohl das bekannteste Beispiel eines Kokons, denn aus ihm wird Seide hergestellt. Der Kokon besteht aus einem einzigen, über 500 Meter langen Faden, der maschinell ab- und wieder auf Spulen aufgewickelt wird. Schlupf. schlüpfendes Tagpfauenauge. Die Geschwindigkeit des Films ist originalgetreu. Erreicht die Puppe das Endstadium ihrer Entwicklung, ist sie sichtlich dunkler gefärbt und oft kann man die Flügelzeichnung durch die Puppenhülle erkennen. Die Puppe platzt an vorgegebenen Nähten auf und der Falter schlüpft. Bei Kokons verlässt der Falter entweder durch einen vorgesehenen Deckel das Gespinst oder er zwängt sich nach draußen. Danach beginnt er Luft in den Körper zu pumpen, um die Puppenhülle weiter aufplatzen zu lassen. Danach zieht er den Körper aus der Hülle und klammert sich mit den Beinen außen fest. Die Flügel hängen noch schlaff vom Körper, sie werden aufgepumpt, indem die Falter Blut in die noch leeren Adern pumpen. Sind die Flügel zur vollen Größe ausgefaltet, haben sie sich gleichzeitig geglättet. Nach der Entfaltung verlieren die Flügeladern ihre Funktion, indem sie ebenfalls mit eintrocknen. Während die Flügel trocknen, scheidet der Falter Stoffwechselprodukte der Puppenzeit in Form eines roten Tropfens (Mekonium) aus. Danach startet der Falter schließlich zu seinem ersten Flug. Er kann sich paaren, mit der neuen Eiablage vollendet sich der Lebenszyklus. Die Lebensdauer der Falter variiert stark. Sie beträgt nur einen einzigen Tag bei Echten Sackträgern (Psychidae), kann aber auch inklusive Ruhephasen bis zu zehn Monaten dauern, wie beispielsweise beim Zitronenfalter ("Gonepteryx rhamni"). Falter, die Nahrung aufnehmen, leben verständlicherweise länger als solche, deren Mundwerkzeuge verkümmert sind. Das Durchschnittsalter von Tagfaltern beträgt zwei bis drei Wochen. Natürliche Feinde. Die Falter und insbesondere auch die Raupen sind unzähligen Fressfeinden ausgesetzt. Hauptfeinde von Imagines und Raupen sind wohl weltweit insektenfressende Vögel. Wie stark der Prädationsdruck durch Vögel ist, zeigen die zahllosen Anpassungen der Schmetterlinge an optisch jagende Räuber, wie Mimikry, Tarnfärbungen, Augenflecken usw. (s.o.). In Europa leben zum Beispiel Meisen zur Brutzeit weit überwiegend von Raupen und ziehen mit diesen auch ihre Jungen auf. Einige Vogelarten wie Kuckucke haben sich auf langhaarige Raupen spezialisiert, die von anderen Vögeln gemieden werden. Nur wenige Vogelarten jagen Nachtfalter, z. B. die Ziegenmelker. Hauptfeind nachtaktiver Schmetterlinge sind Fledermäuse. Auch hier sind im Rahmen eines „evolutionären Wettlaufes“ zahlreiche evolutionäre Anpassungen von Nachtfaltern an ihre Hauptfeinde entstanden, z. B. die Fähigkeit, Ultraschalllaute zu hören oder selbst welche auszustoßen. Daneben werden Imagines wie Raupen von zahlreichen insektenfressenden Wirbeltier- und Wirbellosenarten erbeutet. Spezialisierte Räuber und Parasitoide. Es gibt auch zahlreiche, auf Schmetterlinge oder auf bestimmte Schmetterlingsarten spezialisierte Räuber und Parasiten bzw. Parasitoide. Hier sind vor allem einige Wegwespen-, Schlupfwespen-, Erzwespen-, Brackwespen- und Fliegenarten zu nennen. Die Schmetterlingsjagende Silbermundwespe ("Lestica subterranea") beispielsweise lähmt kleine Falter mit ihrem Gift und zerrt sie in ihren Bau, wo in mehreren Kammern je einer Larve mehrere Schmetterlinge zur Verfügung gestellt werden. Die meisten der Parasitoide ernähren sich als Larve in den Eiern, Raupen und Faltern. Es gibt solche, die einzeln leben und bis zur Größe des Wirtes heranwachsen, andere sind sehr klein und fressen zu Dutzenden gemeinsam den Wirt auf. Sie ernähren sich meist zuerst von den nicht lebenswichtigen Bereichen der Raupen und töten sie erst zum Schluss. Unter den Käfern leben vor allem Puppenräuber ("Calosoma spec.") überwiegend von Raupen. Verbreitung und Lebensräume. Eine der wichtigsten Eigenschaften der Schmetterlinge ist, dass sie die Fähigkeit haben, sich einem weiten Spektrum von Umweltbedingungen anzupassen. Sie haben fast alle ökologischen Nischen besetzt und kommen fast überall vor. Als Pflanzenfresser (Phytophage) sind Schmetterlinge eng an die Flora und damit die Vegetationsperioden gebunden. Diese beschreibt den Zeitraum zwischen dem Beginn des Pflanzenwachstums im Frühling und dem Eintritt des nächsten Winters. Je weiter man in Europa nach Norden kommt oder je höher man im Gebirge emporsteigt, desto kürzer werden die Vegetationsperioden. Damit geht ein Wandel der Flora einher, auch der Schmetterlingsfauna. Schmetterlinge kommen bis in große Höhen vor. In den Alpen kommt etwa der Matterhornbär ("Holoarctica cervini") bis 3.200 Meter ü. NN vor und der Gletscherfalter ("Oenis glacialis") lebt auf 2000 bis 3000 Meter ü. NN. In den Rocky Mountains erreicht "Colias Meadii" bis zu 3600 Meter ü. NN. Im Himalaya fliegt eine Unterart des auch in Europa vorkommenden Schwalbenschwanzes, "Papilio machaon ladakensis," häufig auf 3500 bis 4200 Meter ü. NN. Noch höher gehen einige Arten der Gattung "Parnassius," wie etwa "P. acco," "P. delphius" und "P. simo," die auf 4900 Meter, und "P. delphius workmani," der auf 5700 Metern Höhe angetroffen wurde. Schmetterlinge sind vor allem in den Tropen artenreich, da hier ideale Temperaturbedingungen für ihre Lebenstätigkeit vorherrschen. Eine solitäre Artenvielfalt findet sich beispielsweise mit etwa 800 Arten im Nationalpark Iguaçu. In Richtung der gemäßigten und kalten Zonen nimmt die Artenvielfalt ab. Diese klimatische Abhängigkeit ist auch in Gebirgslagen feststellbar; die Zahl der Arten nimmt hier mit zunehmender Höhe ab. Ihre Ausbreitung wird durch die artspezifischen Voraussetzungen an die Temperatur und Luftfeuchtigkeit, aber auch durch das Vorkommen der Raupenfutterpflanzen begrenzt. Lebensraumansprüche. Jede Schmetterlingsart stellt vielfältige, artspezifische Ansprüche an die Eigenschaften ihrer Umwelt. Nur wenn diese erfüllt sind, können die Tiere überleben. Eine der wichtigsten Bedingungen für die Verbreitung und das Vorkommen der überwiegend pflanzenfressenden (phytophagen) Schmetterlinge ist das hinreichende Vorhandensein von Nahrungspflanzen, und zwar für Falter und Raupen gleichermaßen. Während manche Arten viele Nahrungspflanzen annehmen und eine weite Verbreitung finden, sind etliche Arten auf wenige oder nur eine einzige Nährpflanze angewiesen. Sie sind somit auch in ihrer Verbreitung beschränkt. Zwingend erforderlich sind in vielen Fällen spezielle Landschafts- oder Vegetationsstrukturen. Weitere wesentliche Parameter für die Habitateignung sind das Mikroklima, die Intensität der täglichen und jahreszeitlichen Temperaturschwankungen (Periodizität) sowie die Dauer der Vegetationsperiode. Bei den verschiedenen Schmetterlingsarten unterscheidet man zwischen standorttreuen, so genannten Einbiotop-Bewohnern und Biotopkomplex-Bewohnern, die im Larvenstadium den „Raupenplatz“ verlassen, und Verschiedenbiotop-Bewohnern, die mehrere unterschiedliche Biotope bewohnen können und darin wie Einbiotop-Bewohner leben. Schmetterlinge besiedeln nahezu sämtliche Biotoptypen von Wäldern, Trockenrasen, Wiesen, Feuchtgebieten und Ruderalfluren bis hin zu Parks und Gärten. Falterpflanzen. In Mitteleuropa sind einige wenige Pflanzenarten die Nahrungsquelle für eine Vielzahl von Schmetterlingsraupen, so die Brennnessel, deren zahlreiche Fraßgäste auch als "Brennnesselfalter" bezeichnet werden. Dazu zählen etwa Tagpfauenauge, Kleiner Fuchs, C-Falter, Distelfalter, Admiral und der Nesselzünsler. Den Rekord als Nahrungspflanzen von Schmetterlingsraupen halten in Mitteleuropa Eiche und Salweide, an denen jeweils Raupen von über 100 Arten leben. An Weiden leben etwa Großer und Kleiner Schillerfalter, Trauermantel, Großer Fuchs, Abendpfauenauge, Nachtpfauenauge, Rotes Ordensband, Großer und Kleiner Gabelschwanz. Fast hundert Arten siedeln auf Pappeln und Birken, darunter auch viele, die auch an Weiden leben. Von Weißdorn leben die Raupen von 65 Arten, auf Schlehe, Brombeere und Himbeere je 54, auf Hasel 44 und auf Rosen 33. Gefährdung und Schutz. Zahlreiche Schmetterlingsarten sind gefährdet. In Europa ist die wichtigste Ursache dafür der Verlust von Lebensräumen. Feuchtgebiete wurden entwässert, Offenland wurde aufgeforstet oder bebaut und die Landwirtschaft wurde stark intensiviert. Dadurch ging nicht nur der Lebensraum von Schmetterlingen und Raupen verloren. Oft wird wichtigen Futterpflanzen die Wachstumsgrundlage entzogen und die an sie angepassten Schmetterlingsarten können sich ohne sie nicht mehr entwickeln. Auch das Verwildern von gerade durch den Menschen entstandenen Gebieten, wie Heiden und Halbtrockenrasen, die ohne die anhaltende Nutzung, z. B. als Schafweide, verbuschen, verringert die Lebensräume, die gerade sensible Schmetterlingsarten zum Überleben benötigen. Etliche Arten sind auf ganz spezielle Landschaftsformen angewiesen. Die standorttreuen Arten verschwinden, wenn ihr Biotop zerstört wird oder sich verändert. Zahlreiche Widderchen (Zygaenidae) sind z. B. auf Trockenrasen und auf die dort wachsenden Pflanzen angewiesen. Werden diese Flächen nicht gepflegt und verbuschen, verschwinden auch die Widderchen. Andere wichtige Lebensräume sind Moore und andere Feuchtgebiete, auf die einige Bläulingsarten angewiesen sind. Der Lungenenzian-Ameisenbläuling ("Maculinea alcon") und der Dunkle Wiesenknopf-Ameisenbläuling ("Maculinea nausithous") sind extrem standorttreu und halten sich nur in der Nähe ihrer Futterpflanzen auf, die auf Feuchtwiesen und Mooren wachsen. Diese enge Bindung an einen bestimmten Biotoptyp stellt ein hohes Gefährdungspotential für diese Arten dar. Sobald es zu gravierenden Eingriffen in den Lebensraum dieser Arten kommt, findet ein Verdrängungsprozess oder eine Verinselung der Verbreitungsareale statt, was schnell zum vollständigen Erlöschen einer Population führen kann. Die Ursachen für die Verdrängung sind teilweise komplex und noch ungenügend erforscht. Speziell für Nachtfalter ist die zunehmende Lichtverschmutzung eine große Gefahr. Sie werden durch Straßenbeleuchtung und andere Beleuchtungen angezogen und verharren die ganze Nacht in der Nähe der Lichtquellen. Am nächsten Tag werden sie entweder von Vögeln gefressen, oder sie sterben an Unterernährung oder Erschöpfung. In der Anlage 1 zur Bundesartenschutzverordnung sind zahlreiche besonders geschützte Schmetterlingsarten aufgelistet. Sie verbietet das Sammeln und den Fang dieser Arten, kann aber die eigentliche Gefährdung durch Verlust von Lebensräumen nicht bekämpfen. In der Roten Liste der Großschmetterlinge kann man sich auch einen Überblick über die gefährdeten Arten machen. Nur 50 % aller Schmetterlingsarten in Deutschland sind nicht gefährdet, 2 % sind bereits ausgestorben oder verschollen. Eine Form kommerzieller Ausbeutung der Natur, die vor allem in vielen asiatischen Staaten betrieben wird, ist die Verwendung von Schmetterlingsflügeln für Mosaike und andere fragwürdige Dekorationen. Hier ist die Gefahr von Bestandsschädigungen nicht von der Hand zu weisen. Historie. Begonnen hat das Sammeln von Schmetterlingen im 17. und 18. Jahrhundert, wo dem Sammler aber noch mit viel Spott begegnet wurde. Es wurde von einigen wenigen betrieben, da nach der Entstehung der Entomologie als eigene Wissenschaft im 18. Jahrhundert Insektensammlungen im Allgemeinen eine wichtige Grundlage wissenschaftlicher Arbeit als Dokumentations- und Vergleichsinstrument boten. Diese Bedeutung besteht bis heute, besonders wichtig zur Fundierung der Nomenklatur ist die Anlage und Betreuung von Typensammlungen. Mitte des 19. Jahrhunderts begann sich das Sammeln als Hobby zu etablieren. Es war ein populäres Hobby zahlreicher naturbegeisterter Menschen aller Altersstufen und Länder, das in Literatur, Musik und Film Spuren hinterlassen hat. Die meisten Schmetterlingssammlungen beschränkten sich aber auf Tagfalter, da diese die prächtigsten Farben aufwiesen. Bewertung. Die Auswirkung des Sammelns auf den Bestand der Schmetterlinge wird oft kontrovers diskutiert. Es existiert auch das Klischee, die ehemalige Popularität des Schmetterlingssammelns habe zum Rückgang vieler Arten beigetragen. Dabei muss aber nach der Intention des Sammlers differenziert werden. Es gibt keinerlei Hinweise, dass eine Sammeltätigkeit im Rahmen einer wissenschaftlichen Zielsetzung mit den üblichen Fangmethoden den Bestand einer Art jemals nachhaltig geschädigt hat. Im Gegenteil sind es gerade Schmetterlingsexperten, die durch ihre Forschungstätigkeit Bestandsentwicklungen abschätzen können und die Grundlagen zum Schmetterlingsschutz liefern. Das Sammeln dient in diesem Zusammenhang immer dem Sichern von Nachweisen und der Möglichkeit, sichere Bestimmungen durchführen und auch nachträglich kontrollieren zu können. Hobbymäßige Sammler ohne wissenschaftliche Ambitionen werden dagegen im Allgemeinen kritischer gesehen, da sie in erster Linie an einer attraktiven Sammlung interessiert sind. Dennoch fällt nach Expertenmeinung deren Aktivität in den meisten Fällen nicht sehr ins Gewicht, zumal diese Gruppe der Naturfreunde inzwischen meist die Fotografie als Alternative gewählt hat. Aber auch in früheren Zeiten waren andere Gründe für Bestandsrückgänge ausschlaggebend. Andererseits sind Hobbysammler oft auch Kunden von Insektenbörsen und schaffen damit Nachfrage nach exotischen, teils besonders seltenen Arten, die in großem Maßstab geschmuggelt werden. Berühmte Sammler und Sammlungen. Ein berühmter Schmetterlingssammler war Lionel Walter Rothschild, 2. Baron Rothschild aus London, der seine Sammlung nach dem Tode dem Natural History Museum vermachte. Ein weiterer Sammler war der russische Schmetterlingsforscher Vladimir Nabokov. Die Schmetterlingssammlung der Bayerischen Zoologischen Staatssammlung ist mit mehr als 7 Millionen Schmetterlingsexemplaren eine der größten naturkundlichen Sammlungen der Welt und die vermutlich größte Schmetterlingssammlung überhaupt. Bedeutend ist auch die Sammlung des Berliner Naturkundemuseums mit fast vier Millionen Exemplaren. Die Schmetterlingssammlung des Naturhistorischen Museums in Wien beherbergt eine der größten Sammlungen von Tag- und Nachtfaltern der Welt. Ungefähr 3,5 Millionen präparierte und einige hunderttausend unpräparierte Exemplare befinden sich in ca. 11.000 Laden. Es gibt eigene Schmetterlingszoos, die sich auf das Zurschaustellen von Schmetterlingen spezialisiert haben, meistens werden sie dort auch gezüchtet. Beispiele dafür sind das Schmetterlingshaus in Wien oder der Schmetterlingsgarten im Museum of Science in Boston. Bioindikatoren. Schmetterlinge eignen sich aufgrund ihrer vielfältigen und spezifischen Habitatbindungen sowie der vielfach sehr engen Bindung an nur wenige Pflanzenarten in der Natur- und Landschaftsplanung als sogenannte Zeigertiere bzw. Bioindikatoren. Zu wichtigen Bioindikatoren zählen unter anderem verschiedene Vertreter aus der Familie der Widderchen (Zygaenidae). In der Dübener Heide haben Untersuchungen gezeigt, dass einige Arten aus der Familie der Bärenspinner (Arctiidae) als Bioindikatoren Bedeutung erlangen können. Es handelt sich hierbei um das Rosen-Flechtenbärchen ("Miltochrista miniata"), das Rotkragen-Flechtenbärchen ("Atolmis rubricollis") und das Dottergelbe Flechtenbärchen ("Eilema sororcula"). Diese Arten kommen vor allem in Gebieten vor, in denen mehr als 40 % einer Fläche mit Flechten bewachsen sind (Flechtendominanz mehr als 40 %). Das Fehlen dieser Arten in Gebieten mit weniger als 10 % Flechtendominanz wird mit hoher Wahrscheinlichkeit auf Immissionen von Schadstoffen zurückgeführt. Generell gilt, dass unbeeinflusste Gebiete eine hohe Artenzahl, stark immissionsbelastete Gebiete eine niedrige Artenzahl aufweisen. Die oben genannten Arten können bereits fehlen, wenn ein noch ausreichender Bestand an Nahrungspflanzen vorhanden ist. Blütenbestäuber. Zahlreiche Schmetterlingsarten sind auf bestimmte Pflanzen und deren Blüten spezialisiert. Dadurch sind die Pflanzen aber auch auf die Falter angewiesen, denn nur sie können die speziell geformten Blüten bestäuben. So kann "Xanthopan morgani" mit seinem 20 Zentimeter langen Rüssel in besonders enge Blütenhälse von Orchideen eindringen und sie bestäuben. Die Yucca z. B. ist auf die Yuccamotte ("Tegeticula yuccasella") als Blütenbestäuber angewiesen, die mit stark verlängerten Lippentastern zu den Pollen vordringen kann. Entwicklungsgeschichte. Da auch einige Köcherfliegen ähnlich beschuppte Flügel tragen (z. B. die afrikanische Art "Pseudoleptocerus chirindensis") und zudem beide über ihre Labialdrüsen im Larvalstadium Seide sezernieren oder bearbeiten, werden sie auf einen gemeinsamen Vorfahren „Amphiesmenoptera“ zurückgeführt. Auch Genuntersuchungen weisen in diese Richtung: das Serpin-2-Gen ist bei Schmetterlingen und Köcherfliegen gut vergleichbar, was auf eine hohe Konservierung des Gens und eine engere Verwandtschaft der beiden Ordnungen schließen lässt. Die Entwicklungsgeschichte der Schmetterlinge beginnt vor etwa 135 Millionen Jahren mit Beginn der Kreidezeit (Mesozoikum). Die Entstehung und der Aufschwung der Schmetterlinge ist eng verbunden mit dem Erscheinen der Blütenpflanzen und ohne diese nicht denkbar. Schmetterlinge erwiesen sich als äußerst erfolgreiche Tiergruppe. Es gelang ihnen, alle Bereiche des Festlandes zu erobern. Forscher fanden in sibirischen Sedimentgesteinen aus dem Jura die ältesten bekannten Fossilien, die unzweifelhaft zu den Schmetterlingen gehören, sie wurden der Art "Eolepidopterix jurassica" Rasnitsyn, 1983 zugeordnet. Eine paraphyletische Ansammlung älterer Fossilien, als "Necrotauliidae" bezeichnet, wird heute der gemeinsamen Stammgruppe der Schmetterlinge und Köcherfliegen zugerechnet. Auch aus der Kreidezeit Sibiriens stammen fossile Schmetterlinge, beispielsweise "Undopterix sukatshevae." "Parasabatinca aftimacrai" aus kreidezeitlichem libanesischen Bernstein ist der älteste unzweifelhafte fossile Vertreter der Urmotten, der ursprünglichsten noch lebenden Schmetterlinge. Einige Tiere dieser Art verfingen sich im Harz von Nadelbäumen und wurden im Bernstein konserviert. Eine der jüngsten Gruppen der Schmetterlinge, und eine derjenigen mit dem lückenhaftesten fossilen Befund, sind die Familien der Tagfalter. Mit "Doritites bosniaskii" stammt ein europäischer Vertreter aus dem Miozän Italiens. "Prodryas persephone," wurde aus den älteren, etwa 34 Millionen Jahre alten eozänen Sedimenten von Florissant, Colorado, USA, beschrieben. Die mittel-eozänen (Lutetium) "Praepapilio gracilis" und "Praepapilio colorado" (Papilionidae) sind wohl die ältesten beschriebenen Tagfalter. Richard Vane-Wright datiert den Ursprung der Tagfalter auf „nicht älter als 70 Millionen Jahre“. Externe Systematik. Innerhalb der Unterklasse Fluginsekten (Pterygota) gehören die Schmetterlinge zur Überordnung der Neuflügler (Neoptera). Die Köcherfliegen sind innerhalb der Überordnung die nächsten Verwandten der Schmetterlinge. Die Schmetterlinge haben sich vermutlich im Mesozoikum von den Köcherfliegen abgespalten. Interne Systematik. Die klassische Systematik der Schmetterlinge wird sehr uneinheitlich dargestellt. Mit über 180.000 Arten in etwa 130 Familien und 44 Überfamilien stellen die Schmetterlinge die zweitgrößte Insektenordnung neben den Käfern dar. Sie werden in vier Unterordnungen unterteilt: Zeugloptera, Aglossata, Heterobathmiina und Glossata. Die Unterordnung Zeugloptera umfasst die am ursprünglichsten gebliebenen Falter, die aber genauso wie die Vertreter der Aglossata und Heterobathmiina noch beißend-kauende Mundwerkzeuge aufweisen. Die Raupen der Zeugloptera haben als einzige ausgebildete Bauchfüße. Die Unterordnung Glossata umfasst den Großteil der Schmetterlingsfamilien. Sie haben spezialisierte Mundwerkzeuge (Saugrüssel) und ihre Raupen haben keine Bauchfüße, sondern nur Hautausstülpungen. Andere Lehrmeinungen vertreten die Ansicht, dass die Schmetterlinge nur in zwei Unterordnungen zusammengefasst werden. Das ist zum einen die Unterordnung der Zeugloptera, welche kauende Mundwerkzeuge haben (und sich von Pollen ernähren), zum anderen die Ordnung der Glossata, welche kleine bis sehr große Saugrüssel haben (und sich von Pflanzensäften und Nektar ernähren). Die Unterteilung in Kleinschmetterlinge (Microlepidoptera) und Großschmetterlinge (Macrolepidoptera) beziehungsweise in Tagfalter und Nachtfalter hat keine wissenschaftliche Grundlage. Sie dient der Vereinfachung bei der praktischen Arbeit mit Schmetterlingen. Spanner (Geometridae), die klassischerweise zu den Nachtfaltern gezählt werden, gelten beispielsweise als näher mit den Tagfaltern verwandt als mit den übrigen Nachtfaltern. Dennoch werden die Bezeichnungen heute noch aus praktischen Gründen genutzt. Schmetterlinge wurden nach äußerlichen Merkmalen und der vermeintlichen Tag- und Nachtaktivität bzw. nach einer willkürlich gewählten Größe in diese vier Kategorien eingeteilt. Wirtschaftliche Nutzung. Die Spinnfäden der Raupen der in Ostasien beheimateten Familie der Echten Spinner (Bombycidae), insbesondere der Seidenspinner ("Bombyx mori"), sind der Rohstoff der Seide. Um das Garn dieser Textilfaser zu gewinnen, werden die Puppen etwa am zehnten Tag nach Fertigstellung des Kokons mit kochendem Wasser oder heißem Dampf getötet. Der Spinnfaden wird vorsichtig abgewickelt und vor der Weiterverarbeitung in der Seidenweberei sorgfältig gereinigt (siehe dazu Seidenbau). Die Raupen werden zur Gewinnung von Seide in China, Japan, Indien und in Südeuropa gezüchtet. Durch Kreuzungen erhält man bei den Seidenfäden unterschiedliche Farben wie goldgelbe und andere Nuancen. Die Raupen ernähren sich ausschließlich von den Blättern der Maulbeerbäume, die für ihre Zucht kultiviert wurden und auch in Europa importiert wurden. Die Raupen und Puppen einiger Arten werden als eiweißreiches Nahrungsmittel genutzt. In Ostasien werden gekochte Seidenraupenpuppen als Snack gegessen. Im südlichen Afrika werden die Raupen von "Gonimbrasia belina," die sogenannten „mopane worms“, verzehrt. Auch in Westafrika werden getrocknete Raupen angeboten. Zur Bekämpfung von Pflanzen, die als Schädlinge eingestuft werden, können parasitierende Arten eingesetzt werden. Die Kaktusmotte wurde in Australien zur Eindämmung von Neophyten eingesetzt. Schädling. Landwirtschaftliche Monokulturen bieten für bestimmte Schmetterlingsarten, wie auch für andere Insekten, optimale Bedingungen, um große Individuendichten zu entwickeln. Besonders in den Tropen und Subtropen ist dies der Fall, weil höhere Temperaturen eine schnelle Entwicklung der Tiere begünstigen. Die Kulturschäden entstehen durch Raupenfraß an Blättern. Die Raupen des Großen ("Pieris brassicae") und des Kleinen Kohlweißlings ("Pieris rapae") können ganze Kohlfelder vernichten. Andere Arten wie Eichenwickler ("Tortrix viridana") gelten als Forstschädlinge. In Europa kommt es immer wieder zu Massenvermehrungen, die zum Kahlfressen von großen Teilen der Fraßpflanzen führen. Die Bäume werden dadurch stark geschwächt und können durch zusätzliche Faktoren wie Trockenheit schließlich absterben. Nachwachsende Blätter sind oft zusätzlich von Eichenmehltau ("Microsphaera quercina") befallen. Gesunde Eichen können aber sogar einen mehrjährigen Befall überdauern. Manche Gebiete sind Jahr für Jahr unterschiedlich stark betroffen, andere nur gelegentlich. Andere Schmetterlingsraupen entwickeln sich in Obst, Kartoffeln, Blumenzwiebeln, Baumwolle oder Samen. Für den wirtschaftlich denkenden Menschen sind Massenentwicklungen (Kalamitäten) ein Problem. Neben der Verwendung von Insektiziden haben sich im Rahmen der biologischen Schädlingsbekämpfung aufgestellte Nistkästen für Vögel als sehr wirksam erwiesen. Daneben werden auch Lockstofffallen und die Verwirrmethode eingesetzt, um Männchen zu fangen beziehungsweise diese so zu verwirren, dass sie die Weibchen nicht finden. Besonders erwähnenswert ist die Kleidermotte ("Tineola bisselliella"). Ihre Raupen ernähren sich von einer Vielzahl verschiedenster tierischer Substanzen, wie Wolle, Filz, Federn, Seide und Pelz, und werden dadurch im Haushalt zum Problem. Krankheitsüberträger. Wie schon unter "Ernährung" erläutert, können einige subtropische Arten, die sich von Tränenflüssigkeit und/oder Säugetierblut ernähren, auf mechanischem Wege (siehe Infektionswege, blutsaugende Insekten oder Hämatophagie) diverse Infektionskrankheiten übertragen. Mythologische Bedeutung. Durch das Verpuppen und Schlüpfen aus dem anscheinend leblosen Kokon nach monatelanger äußerer Ruhe war der Schmetterling in der Antike das Sinnbild der Wiedergeburt und Unsterblichkeit und ist in der christlichen Kunst noch heute das Symbol der Auferstehung. Falter und/oder Puppe sind daher auf zahlreichen Grabmalen zu finden.(Aus: "Ausgesetzt auf den Bergen des Herzens") Sie war ein Blümlein hübsch und fein, Der selig an der Blume hing. Oft kam ein Bienlein mit Gebrumm Und nascht und säuselt da herum. Am hübschen Blümlein auf und ab. Ach Gott, wie das dem Schmetterling So schmerzlich durch die Seele ging. Doch was am meisten ihn entsetzt, Ein alter Esel fraß die ganze Von ihm so heiß geliebte Pflanze. Auf einer Blume, rot und brennend, saß Ein Schmetterling, der ihren Honig sog, Und sich in seiner Wollust so vergaß, Daß er vor mir nicht einmal weiterflog. Ich wollte sehn, wie süß die Blume war, Und brach sie ab: er blieb an seinem Ort; Er sog, wie aufgelöst in Wonne, fort! Romane. Der Roman "Papillon" (frz. Schmetterling) ist einer der berühmtesten Gefängnis-Romane. Der Autor Henri Charrière beschreibt darin seine Erlebnisse in Französisch-Guayana, wo er über zehn Jahre verbrachte, bis ihm schließlich die Flucht gelang. Er lebte dann ein zufriedenes Leben, bis er einen seiner Meinung nach sehr schlecht geschriebenen angeblichen Tatsachen-Roman liest. Sicher, dass sein Leben spannender war, schrieb er seine Erlebnisse in Schulhefte, deren Publikation wurde ein Weltbestseller. Der Roman wurde später mit Dustin Hoffman und Steve McQueen in der Hauptrolle verfilmt und ging so ebenfalls erfolgreich um die Welt. Der Roman "Der Schmetterlingsfänger" von Sabine M. Gruber beschreibt in „Lolita-Manier“ die obsessive Liebe des jungen Pianisten Herbie zu seiner minderjährigen Klavierschülerin, zur Kindfrau Aurelia. Herbies zweite große Obsession ist das Fangen und Aufspießen von Schmetterlingen. Die Rahmenhandlung ist musikalisch: ein Liederabend in der New Yorker Carnegie Hall mit der "Schönen Müllerin" von Franz Schubert. Die wunderbare Beschreibung eines (bayerischen) Lepidopterologen findet sich in Lord Jim von Joseph Conrad. Schilddrüse. Die Schilddrüse (lat. "Glandula thyreoidea" oder "Glandula thyroidea") ist eine Hormondrüse bei Wirbeltieren, die sich bei Säugetieren am Hals unterhalb des Kehlkopfes vor der Luftröhre befindet. Beim Menschen hat sie die Form eines Schmetterlings. Die Hauptfunktion der Schilddrüse besteht in der Iodspeicherung und Bildung der iodhaltigen Schilddrüsenhormone Triiodthyronin und Thyroxin sowie des Peptidhormons Calcitonin. Die iodhaltigen Schilddrüsenhormone werden von den Follikelepithelzellen der Schilddrüse (Thyreozyten) gebildet und spielen eine wichtige Rolle für den Energiestoffwechsel und das Wachstum einzelner Zellen und des Gesamtorganismus. Calcitonin wird von den "parafollikulären" oder "C-Zellen" der Schilddrüse gebildet. Es hemmt den Knochenabbau durch Einbau von Calcium und Phosphat in den Knochen und durch Hemmung der Osteoklasten, die im aktivierten Zustand zu einer Verminderung der Knochensubstanz führen. Die Schilddrüse ist Ausgangspunkt für zahlreiche Erkrankungen, die unter anderem zu Störungen des Hormonstoffwechsels führen und eine Unter- oder Überfunktion der Schilddrüse ("Hypothyreose" bzw. "Hyperthyreose") hervorrufen können. In Jodmangel-Gebieten kann kompensatorisch ein Kropf "(Struma)" oder Knoten entstehen. In Deutschland befasst sich die Deutsche Gesellschaft für Endokrinologie (DGE) mit ihrer Sektion "Schilddrüse" mit diesem Organ und seinen Erkrankungen. Menschliche Schilddrüse. Die menschliche Schilddrüse besteht aus zwei Lappen ("Lobus dexter" und "Lobus sinister"), die durch einen schmalen Streifen "(Isthmus)" verbunden sind. Dieser Isthmus befindet sich unmittelbar vor der Luftröhre "(Trachea)" unterhalb des Kehlkopfs (in Höhe der 2. bis 3. Knorpelspange). Die beiden Lappen der Schilddrüse lagern sich den Seitenflächen der Luftröhre auf, umgreifen diese und sind durch Bindegewebe an sie angeheftet. Die sehr variable Form der Schilddrüse ist am ehesten mit einem „H“ vergleichbar, wobei die unteren Anteile der Längsbalken – die Unterhörner – kurz und breit sind, die oberen Anteile – die Oberhörner – dagegen lang und schmal sind sowie leicht auseinanderdriften. Die Schilddrüse ist die größte endokrine Drüse des Menschen. Durchschnittlich wiegt die Schilddrüse des Erwachsenen 18–60 g, beim Neugeborenen 2–3 g. Die Normalwerte für die Höhe und Dicke der Schilddrüsenlappen betragen 3–4 beziehungsweise 1–2 cm. Die Breite wird mit 7–11 cm angegeben. Hinsichtlich des Volumens gilt bei Frauen ein Gesamtvolumen der Schilddrüse von bis zu 18 ml und bei Männern von bis zu 25 ml noch als normal. Gewicht und Größe der Schilddrüse schwanken auch intraindividuell; so sind beispielsweise bei Frauen geringe zyklusabhängige Volumenveränderungen möglich. Die Blutversorgung erfolgt durch die "Arteria thyroidea superior" aus der "Arteria carotis externa" und durch die "Arteria thyroidea inferior" aus dem "Truncus thyrocervicalis" der "Arteria subclavia" (bei Tieren als "Arteria thyroidea cranialis" und "caudalis" bezeichnet). Bei etwa fünf Prozent der Menschen existiert eine zusätzliche, unpaare "Arteria thyroidea ima". Diese entspringt direkt dem Aortenbogen und erreicht die Schilddrüse am Isthmus oder an ihrem unteren Pol. Weiterhin versorgen auch kleine Arterienäste aus der Vorder- und Seitenfläche der Luftröhre das Schilddrüsengewebe mit Blut. Alle kleinen Äste der Arterien der Schilddrüse bilden innerhalb des Organs ein Geflecht. Nachdem das arterielle Blut die Schilddrüsenzellen passiert hat, sammelt es sich in kleinen Venen, die unterhalb der Schilddrüsenkapsel ein Geflecht bilden. Der venöse Abfluss erfolgt also hauptsächlich über einen Venenplexus ("Plexus thyroideus impar"), der über die "Vena thyroidea inferior", in die "Vena brachiocephalica" mündet. Die zwischen den Zellen der Schilddrüse befindliche Gewebsflüssigkeit (Lymphe) fließt über Lymphgefäße in Lymphknoten ab. Dieser lymphatische Abfluss der Schilddrüse wird über ein gut ausgebildetes System von Lymphgefäßen sichergestellt. Zwischen den einzelnen Lymphgefäßen und Lymphknoten bestehen viele Verzweigungen. Die Lymphgefäße münden im Wesentlichen in die regionären Lymphknoten, die vor allem entlang der großen Halsvenen (Jugularvenen) anzutreffen sind. Die Lymphe eines Seitenlappens kann über Lymphknoten, die sich vor der Luftröhre befinden, auch die nachgeschalteten Lymphknoten des anderen Schilddrüsenlappens erreichen. Dies ist für die Schilddrüsenchirurgie von Bedeutung, da auch Krebszellen sich über Lymphgefäße ausbreiten können. Die Schilddrüse wird von Nervenfasern des vegetativen Nervensystems versorgt (innerviert). Die sympathischen Fasern stammen aus dem "Ganglion cervicale superius" "(Ganglion cervicale craniale)", die parasympathischen kommen aus den "Nervi laryngei" des "Nervus vagus". Phylogenetische Entwicklung. Die Entstehung und Entwicklung der Schilddrüse im Verlauf der Stammesgeschichte der Lebewesen wird als phylogenetische Entwicklung bezeichnet. In dieser lässt sich die Schilddrüse auf das bei den basalen Chordatieren vorhandene Endostyl zurückführen, bei anderen wirbellosen Tieren sind keine homologen Strukturen vorhanden. Das Endostyl bildet bei den Schädellosen, den Manteltieren sowie den Ammocoetes-Larven der Neunaugen eine am Boden des Kiemendarms gelegene Flimmerrinne, die Hypobranchialrinne, mit einem Drüsenepithel. Die Zellen des Endostyls reichern Iod aus der Umgebung an und bauen dieses in Moleküle des Hormons Thyroxin ein. Das Drüsenepithel produziert ein Schleimnetz, welches sich über die Kiemenspalten legt und mit dem im Kiemendarm gefilterte Nahrungspartikel eingefangen werden. Dieses wird in der Epibranchialrinne gesammelt und gibt die enthaltenen Nährstoffe an das darüberliegende Dorsalgefäß ab. In der weiteren Entwicklung innerhalb der Wirbeltiere verliert der Kiemendarm seine Funktion bei der Nahrungsaufnahme und dient weitgehend zur Atmung, während die Nahrung über die nun kieferbewehrte Mundöffnung aufgenommen und im Darm verdaut wird. Das Schilddrüsengewebe befindet sich entsprechend bei den basalen Wirbeltieren (Knorpel- und Knochenfische) ventral im Bereich der Kiemen während sie bei den Landwirbeltieren vor der Luftröhre im Bereich des Kehlkopfes lokalisiert ist. Embryonal wird sie bei allen Wirbeltieren im ventralen Kiemendarmepithel gebildet. Die Schilddrüsenanlage stellt bei allen Wirbeltieren eine Ansammlung von Drüsenzellen dar, die von Bindegewebe umgeben ist. Bei den Knorpelfischen liegt die Schilddrüse als scheibenförmige Drüse im Bereich des Unterkiefers. Bei vielen Knochenfischen ist die kompakte Drüse aufgelöst und bildet mehrere Zellhaufen im Bereich der Verzweigung der Ventralaorta, wobei häufig mehrere kleine akzessorische Schilddrüsen weitab der Hauptschilddrüse liegen. Bei ihnen treten auch die zwei paarigen Nebenschilddrüsen "(Glandulae parathyreoideae)" erstmals auf, die sich gemeinsam mit dem Thymus und dem Ultimobranchialkörper im Epithel des Kiemendarms im Bereich der vierten und fünften Kiementaschen entwickeln. Letztere werden bei den Säugetieren als Calcitonin-produzierende Zellen (C-Zellen) in die Schilddrüse eingelagert. Bei allen Landwirbeltieren bildet die Schilddrüse wieder kompakte Organe. Sie sind bei den Amphibien als unpaare Schilddrüsen seitlich am Kehlkopf ausgebildet, wobei die Nebenschilddrüsen bei neotänen Amphibien, die während ihres gesamten Lebens Kiemen besitzen, fehlen. Bei den Amphibien sind die Schilddrüsenhormone an der ontogenetischen Entwicklung beteiligt und kontrollieren die Metamorphose von der Larve zum adulten Tier. Bei Reptilien ist die Schilddrüse unpaarig und liegt an der Aufspaltung der großen Halsgefäße. Bei Vögeln liegen beide Schilddrüsen als kleine Knötchen an der Luftröhre vor dem Brusteingang, etwa in Höhe des Schlüsselbeins und damit viel weiter hinten (kaudal) als bei den anderen Wirbeltieren. Wie beim Menschen besteht die Schilddrüse der meisten Säugetiere aus zwei Seitenlappen, die über eine schmale Engstelle (Isthmus) miteinander verbunden sind. Dieser Isthmus kann aus Drüsengewebe ("Isthmus glandularis", z. B. bei Raubtieren) oder nur aus Bindegewebe ("Isthmus fibrosus", z. B. bei Pferden, Schafen und Ziegen) bestehen, bei einigen Arten auch ganz fehlen. Ein Rest des Ductus thyreoglossus tritt beim Menschen oft in Form eines "Lobus pyramidalis" auf. Seltener können mediane Halszysten oder -fisteln als Rest dieses Ganges bei Menschen persistieren. Die Schildform ist nur für den Menschen, Affen und Schweine typisch. Ontogenetische Entwicklung. Öffnung des Ductus thyreoglossus "(thyroid diverticulum)" in Höhe des zweiten Kiemenbogens Als ontogenetische Entwicklung wird in der Biologie die Entstehung und Entwicklung eines einzelnen Individuums bezeichnet. In ihr werden alle Vorgänge beschrieben, die von der befruchteten Eizelle zum erwachsenen Individuum führen. Die Anlage der Schilddrüse lässt sich beim menschlichen Embryo erstmals um den 24. Entwicklungstag herum nachweisen. Sie entwickelt sich im Mundboden als eine Aussprossung des Verdauungsapparats („Kopfdarm“). Wie ein Schlauch, der von einer einschichtigen Zelllage gebildet wird, wächst die Aussprossung, die als "Ductus thyreoglossus" („Schilddrüsen-Zungen-Gang“) bezeichnet wird, nach unten. Im unteren Anteil des Ganges entstehen zwei weitere Aussackungen, aus denen später die beiden Schilddrüsenlappen hervorgehen. Der Gang selbst verschließt sich normalerweise, so dass die definitive Schilddrüse keine Verbindung zum Mundboden mehr hat. In der Regel bleibt lediglich eine dreieckige Vertiefung am Zungengrund zurück, die als "Foramen caecum" bezeichnet wird. Ihre endgültige Position vor der Luftröhre nimmt die Schilddrüse in der 7. Embryonalwoche ein. Bei etwa 30 % der Menschen bleibt ein Rest des Ductus thyreoglossus als dritter, unpaarer Schilddrüsenlappen auch nach der Embryonalentwicklung als "Lobus pyramidalis" bestehen. Seltener können aus kleineren übriggebliebenen Teilen des Ganges Zysten entstehen (beispielsweise die "Bochdalek-Zyste"). Erhalten solche Zysten Anschluss an die äußere Körperoberfläche oder den Mundboden, spricht man von Fisteln. Versprengte und hormonell aktive Inseln von Schilddrüsengewebe können ebenfalls entlang des Entwicklungsweges der Schilddrüse erhalten bleiben. In die Schilddrüsenanlage wandern zudem bei den Säugetieren noch Zellen aus der fünften Schlundtasche ein, aus denen sich die C-Zellen (siehe unten) entwickeln. Vorläuferzellen der C-Zellen stammen aus der Neuralleiste. Die C-Zellen bilden bei den übrigen Wirbeltierklassen noch ein eigenes Organ, den ultimobranchialen Körper. Bei vielen Säugetierarten ist auch das innere Epithelkörperchen ("Glandula parathyroidea interna", eine der sogenannten Nebenschilddrüsen) in die Schilddrüse eingeschlossen, beim Menschen liegt es als "Glandula parathyroidea inferior" am unteren Pol der Schilddrüse. Histologie. Auffälligstes Strukturmerkmal des Schilddrüsengewebes sind mikroskopisch kleine Bläschen, die als "Schilddrüsenfollikel" bezeichnet werden (v. lat. "folliculus" „Bläschen“). Gebildet werden die Follikel von den Zellen, die die Schilddrüsenhormone T3 und T4 herstellen (Follikelepithelzellen oder auch Thyreozyten genannt). Die Zellen sind dabei einschichtig angeordnet (Epithel) und umschließen den Innenraum (das "Lumen") der Follikel. Im Querschnitt bieten die Follikel eine meist rundlich bis ovale Form. Auch innerhalb einer individuellen Drüse kann der Follikeldurchmesser stark variieren (zwischen 50 und 200 µm). Innerhalb des Follikellumens befindet sich eine Vorstufe der Schilddrüsenhormone, das Protein Thyreoglobulin. Es bildet hier eine trüb glasige, gelatinös bis zähe Masse, die als "Kolloid" bezeichnet wird. Schätzungen gehen davon aus, dass die innerhalb des Kolloids enthaltenen Hormone ausreichen, um den Organismus des gesunden Menschen für etwa drei Monate zu versorgen. Die Form der Follikel und die Menge des Kolloids sind von Alter und Funktionszustand des Gewebes abhängig. Eine aktivierte Schilddrüse zeichnet sich durch hohe Epithelzellen und kleinere Follikel aus, während viel Kolloid und flaches Epithel ein inaktives Stadium der Zellen anzeigen. Dieser inaktive Zustand wird auch als Ruhe- oder Stapelform der Drüse bezeichnet. Die Schilddrüse wird von einer Bindegewebskapsel "(Capsula fibrosa)" umgeben, von der Bindegewebsscheiden (Septen) ausgehen und das Organ in einzelne Läppchen unterteilen. Jedes Läppchen besteht aus mehreren Follikeln. Zwischen den Epithelzellen der Follikel und ihrer Basalmembran liegen bei Säugetieren die parafollikulären "C-Zellen". Diese reichen nicht bis an das Lumen der Follikel. Um die Follikel sind retikuläre Fasern und ein dichtes Kapillarnetz (Blut- und Lymphkapillaren) ausgebildet. Die Größe der Follikel im histologischen Präparat hängt nicht nur vom Funktionszustand, sondern auch von der Schnittebene durch den Follikel ab. Die Anfärbung des Kolloids ist stark von dessen Wassergehalt abhängig. Durch Schrumpfung im Zuge der histologischen Aufarbeitung scheint das Kolloid den Follikel nicht vollständig auszufüllen, dies ist aber ein Artefakt. Die C-Zellen sind nur immunhistochemisch exakt auszumachen. Hormone. Der thyreotrope Regelkreis (vereinfachte Darstellung) Die von der Schilddrüse gebildeten Hormone Triiodthyronin (T3) und Thyroxin (Tetraiodthyronin, T4) sind von großer Bedeutung für eine regelgerechte Entwicklung des neugeborenen Organismus. Auch beim Erwachsenen beeinflussen die Schilddrüsenhormone den Stoffwechsel und Funktionszustand fast aller Organe. Das ebenfalls in der Schilddrüse gebildete Calcitonin spielt eine untergeordnete Rolle im Calciumstoffwechsel des Organismus. Außerhalb der Säugetiere erfüllen die Schilddrüsenhormone T3 und T4 eine Reihe weiterer wichtiger Funktionen. So induzieren sie beispielsweise bei Fröschen die Metamorphose von der Kaulquappe zum Frosch und bei Vögeln die Mauser. Die Schilddrüsenhormone sind Bestandteil des sogenannten thyreotropen Regelkreises. Die Funktion der Schilddrüse wird hierbei durch den Hypothalamus und die Hirnanhangsdrüse (Hypophysenvorderlappen) reguliert. In der Hirnanhangsdrüse wird das Hormon TSH (Thyreoidea stimulierendes Hormon) gebildet und in die Blutbahn abgegeben. An den Schilddrüsenzellen angelangt, fördert es deren Wachstum und die Ausschüttung von T3 und T4. T3 und T4 selbst hemmen wiederum die Ausschüttung von TSH. Dieser als "negative Rückkopplung" bezeichnete Mechanismus führt dazu, dass im gesunden Organismus die Stoffwechselparameter konstant gehalten werden. Wirkungen der Schilddrüsenhormone. Schilddrüsenhormone wirken auf das Herz und den Kreislauf. Sie führen zu einer Erhöhung der Herzfrequenz, des Blutdrucks und einer Erweiterung von Gefäßen. Sie wirken auf den Zucker-, Fett- und Bindegewebsstoffwechsel, indem sie deren Umsatz steigern. Sie steigern die Aktivität von Schweiß- und Talgdrüsen der Haut und die Aktivität der Darmmotorik. Im Nervensystem führen sie zu einer verstärkten Erregbarkeit der Zellen. Insgesamt wird durch die Wirkung der Schilddrüsenhormone der Energieverbrauch und der Grundumsatz des Organismus erhöht. Folge hiervon ist ein Anstieg der Körpertemperatur. Schilddrüsenhormone regulieren das Wachstum des Neugeborenen und die Entwicklung von Zellen insbesondere des zentralen Nervensystems (Gehirn und Rückenmark). Auf das Wachstum üben Schilddrüsenhormone ihre Wirkung über andere Hormone wie das Wachstumshormon Somatotropin und IGF-1 aus. Im Nervensystem fördern Schilddrüsenhormone die Umscheidung (Myelinisierung) von Nervenzellen. Besteht ein Mangel an Schilddrüsenhormonen in den ersten Lebensmonaten, lassen sich Veränderungen im Aufbau und in der Funktion der Gliazellen des Nervensystems nachweisen. Weiterhin beeinflussen Schilddrüsenhormone die Entwicklung (Differenzierung) von Nervenzellen und vielen anderen Zellen des Organismus, indem sie auf molekularer Ebene die Expression von Genen steuern. Wird ein Schilddrüsenhormonmangel des Neugeborenen nicht erkannt und behandelt, entwickeln sich schwere neurologische Störungen (Bewegungsstörungen und Störungen der kognitiven Entwicklung). T3 und T4 vermitteln ihre Wirkungen über Rezeptoren in den Zielzellen. T3 ist hierbei um ein Vielfaches wirksamer als T4. Die Schilddrüsenzellen produzieren vorwiegend T4, welches in den Zielzellen zu T3 umgewandelt (deiodiert) wird. Die Rezeptoren für die Schilddrüsenhormone sind hauptsächlich in den Zellkernen und den Mitochondrien der Zellen lokalisiert. Es handelt sich um Proteine, die an die DNA der von ihnen regulierten Gene gebunden sind und damit die Genexpression hemmen. Durch Bindung der Schilddrüsenhormone werden die Rezeptoren aktiviert, so dass die Genexpression einer ganzen Reihe von Proteinen erleichtert oder erst ermöglicht wird. Die parafollikulären C-Zellen bilden das Calcitonin. Es senkt den Calciumspiegel im Blut und dient so als Antagonist des Parathormons (PTH) als Regler der extrazellulären Calciumkonzentration. Bildung der Schilddrüsenhormone. Die von der Schilddrüse gebildeten Hormone Triiodthyronin (T3) und Thyroxin/Tetraiodthyronin (T4) sind Iodverbindungen. Sie werden von den Follikelepithelzellen gebildet, welche dabei auf eine ausreichende Zufuhr von Iod über die Nahrung angewiesen sind. Die Follikelepithelzellen bilden zunächst das Protein Thyreoglobulin und geben es in die Follikelhöhle ab. Mit den Blutgefäßen erreicht Iod in Form seines Ions Iodid die Follikelepithelzellen (Thyreozyten). Mithilfe eines spezialisierten Proteins – dem sogenannten Natrium-Iodid-Cotransporter (NIS) – nehmen die Zellen basolateral das Iodid auf. Das Iodid gelangt durch einen Ionenkanal (Pendrin) apikal in das Follikellumen (Iodination). Für die nächsten Schritte der Hormonsynthese sind die Enzyme Thyrooxidase (eine NADPH/H+-Oxidase zur Synthese des Wasserstoffperoxids; ein integrales Membranprotein) und Thyreoperoxidase notwendig. Dieses befindet sich in der an die Follikelhöhle angrenzenden Membran der Zelle. Dieses Wasserstoffperoxid oxidiert dann Iodid von der Oxidationszahl -1 zu Iod auf der Oxidationszahl ±0 (Iodisation). Im nächsten Schritt werden die Iod-Atome an die Tyrosinanteile des Thyreoglobulins gebunden (Iodierung). Tyrosin ist eine Aminosäure und Bestandteil des Thyreoglobulins. Das iodierte Thyreoglobulin wird erneut von der Follikelepithelzelle aufgenommen und durch Enzyme zersetzt. Dabei werden auch die iodierten Tyrosinverbindungen (jetzt Thyroxin und Triiodthyronin genannt) freigesetzt. Sie können die Membran der Zelle frei passieren und gelangen über das Blutgefäßsystem zu ihren Zielzellen, in denen sie ihre biologischen Wirkungen entfalten. Untersuchungsmethoden. Ultraschalluntersuchung der Schilddrüse – hier ein großer Schilddrüsenknoten Die Schilddrüse kann beim Menschen durch Abtasten "(Palpation)" des Halses untersucht werden. Bei Hunden gilt eine tastbare Schilddrüse bereits als vergrößert. Eine ausgeprägte Struma ist beim Menschen sichtbar. Eine orientierende Untersuchung der Schilddrüse sollte im Prinzip von jedem Arzt vorgenommen werden können, da Schilddrüsenerkrankungen beim Menschen sehr häufig sind und Berührungspunkte mit fast allen Teilgebieten der Medizin bestehen. Besondere Erfahrung auf diesem Gebiet haben in der Regel Endokrinologen und Nuklearmediziner. In der bildgebenden Diagnostik werden hauptsächlich der Ultraschall und zur weiteren Abklärung bei Knoten und Funktionsstörungen die Szintigrafie eingesetzt, für spezielle Fragestellungen auch die Computertomografie und Kernspintomografie. Eine Feinnadelpunktion der Schilddrüse dient zur Gewinnung von Proben für die Zytologie, eine Biopsie für Proben zur histologischen Untersuchung. Im Labor können der freie T3- und T4-Spiegel sowie der TSH- und Thyreoglobulin-Spiegel bestimmt werden. Auch eine Bestimmung von Schilddrüsenautoantikörpern (TRAK, Tg-AK, TPO-AK) kann vorgenommen werden. Krankheiten. Sowohl die Ursachen als auch die Erscheinungsfolgen von Erkrankungen der Schilddrüse, die auch als Thyreopathien bezeichnet werden, sind vielfältig. Es lassen sich nach Häufigkeit tumorartige Krankheiten (Struma (Kropf), Schilddrüsenautonomie), Entzündungen, gut- und bösartige Neubildungen ("benigne" und "maligne Neoplasien") und Störungen der Organentwicklung unterscheiden. Alle Schilddrüsenkrankheiten können zu Störungen des Hormonstoffwechsels führen. Diese "Funktionsstörungen" werden – abhängig von der Wirkung der Schilddrüsenhormone auf den Organismus – als Überfunktion (Hyperthyreose) oder Unterfunktion (Hypothyreose) der Schilddrüse bezeichnet. Struma. Vergrößerte Schilddrüse mit sicht- und tastbarem Knoten vor der Luftröhre a> bei einer Schilddrüsenoperation; der vergrößerte Schilddrüsenlappen wurde angehoben. Als "Struma" (Kropf) wird jede Vergrößerung der Schilddrüse über ihr normales Volumen hinaus bezeichnet. Solche Vergrößerungen können objektiv mithilfe einer sonographischen Untersuchung der Schilddrüse festgestellt werden. Grundsätzlich kann jede der Schilddrüsenkrankheiten mit einer Volumenvergrößerung einhergehen. Die weitaus häufigste Ursache für eine Struma ist mit etwa 90 % der ernährungsbedingte Jodmangel (auch als "blande Struma" bezeichnet). Das Symptom der Struma war bereits in der Antike bekannt. Da bei der Jodmangelstruma meist noch ausreichend Schilddrüsenhormone synthetisiert werden, kommt es nicht zu einer Funktionsstörung der Schilddrüse im Sinne einer Unter- oder Überfunktion. Daher wird die Jodmangelstruma auch als "euthyreote Struma" bezeichnet. Die Jodmangelstruma betrifft vorwiegend Frauen (Verhältnis betroffener Frauen zu Männern: 7:1). In Gebieten, in denen die Inzidenz der Struma 10 % übersteigt, wird sie auch als "endemische Struma" bezeichnet. Bezüglich des Krankheitsmechanismus ist bekannt, dass es aufgrund des Jodmangels zu einer vermehrten Ausschüttung von sogenannten Wachstumsfaktoren durch die Thyreozyten kommt. Diese Proteine führen zu einer erhöhten Teilungsrate der Thyreozyten, wodurch die Schilddrüse insgesamt an Volumen zunimmt. Betrifft diese Hyperplasie zu Beginn des Prozesses noch die gesamte Schilddrüse gleichmäßig "(diffuse Struma)", kann es später teilweise zu einem knotigen Umbau einzelner Bereiche der Schilddrüse kommen "(Knotenstruma)". Die wichtigste Maßnahme zur Prävention einer Jodmangelstruma besteht in der generellen Verwendung von iodiertem Speisesalz. Da in Jodmangelgebieten wie Österreich, Schweiz und Deutschland die Verwendung von iodiertem Speisesalz im Haushalt allein nicht ausreichend ist, müssen auch industriell hergestellte Fertignahrungsmittel iodiertes Speisesalz enthalten, um eine ausreichende Versorgung mit Iod über die Ernährung zu gewährleisten. Während in der Schweiz, in Österreich und in den USA die Iodprophylaxe der Bevölkerung gesetzlich geregelt ist, besteht in Deutschland nur eine Zulässigkeit der freiwilligen Iodprophylaxe. Schilddrüsenautonomie. Eine "Schilddrüsenautonomie" liegt vor, wenn die Thyreozyten in ihrem Wachstum und ihrer Funktion nicht mehr abhängig von der Regulation durch die Hypophyse sind. Durch vermehrtes Wachstum kommt es zur Ausbildung einzelner oder mehrerer Knoten ("unifokale" oder "multifokale" Autonomie), selten auch zu einer "disseminierten" Autonomie, bei der ein diffuses Wachstum vorliegt. Die autonomen Knoten können vermehrt Schilddrüsenhormon produzieren, wodurch es häufig zu einer Überfunktion der Schilddrüse kommt. Die Schilddrüsenautonomie tritt in Jodmangelregionen häufiger auf als in Ländern mit ausreichender Iodversorgung. Ihre Häufigkeit nimmt mit dem Lebensalter zu: Sie ist vor allem bei Personen über dem 40. Lebensjahr anzutreffen. Entzündungen. Entzündungen der Schilddrüse werden als "Thyreoiditis" bezeichnet. Innerhalb kurzer Zeit entstehende (akute), eitrige Entzündungen sind selten. Sie werden durch Bakterien oder Pilze verursacht, die die Schilddrüse über die Blutgefäße "(hämatogen)" erreichen. Begünstigend kann eine Schwächung des Immunsystems durch eine Chemotherapie bei Krebserkrankungen oder bei einer Infektion mit HIV sein. Die chronisch verlaufende Hashimoto-Thyreoiditis ist häufig: Sie betrifft etwa 3 % der Bevölkerung und mehr Frauen als Männer (etwa in einem Verhältnis von 10:1). Hier kommt es zu einer durch das Immunsystem vermittelten Zerstörung des Schilddrüsengewebes. Weltweit ist sie in Nichtjodmangelgebieten die häufigste Ursache für eine Hypothyreose des Erwachsenen. Der "Morbus Basedow" ist eine Autoimmunkrankheit der Schilddrüse, die mit der Bildung von stimulierenden Antikörpern gegen Thyreozyten einhergeht. Die Folge ist neben einer Überfunktion mit den entsprechenden Symptomen häufig auch eine Vergrößerung der Schilddrüse. Die Krankheit betrifft etwa 1–2 % der Bevölkerung, wobei Frauen fünfmal häufiger als Männer betroffen sind. Der Immunprozess, der dem Morbus Basedow zu Grunde liegt, kann auch in anderen Organen zu Symptomen führen ("extrathyreoidale Manifestation" des Morbus Basedow). Bei etwa 60 % der Patienten tritt eine sogenannte "endokrine Orbitopathie" auf, die durch eine Volumenzunahme des hinter dem Auge befindlichen Bindegewebes charakterisiert ist. Hierdurch können die Augäpfel vorgedrängt werden (Exophthalmus). Seltener (bei weniger als 3 % der Patienten) ist eine Manifestation in der Haut vor dem Schienbein "(prätibiales Myxödem)", bei der es zu einer nichteindrückbaren Schwellung der Haut kommt. Bei der seltenen subakuten (innerhalb einiger Tage bis Wochen entstehenden) Thyreoiditis (Thyreoiditis de Quervain) kommt es meist im Anschluss an eine virale Infektion zu einer ebenfalls immunvermittelten Zerstörung von Schilddrüsengewebe. Häufig besteht eine schmerzhafte Schwellung der Schilddrüse. Meist klingt die Entzündung nach einigen Wochen bis Monaten spontan ab. Sehr selten ist die Riedel-Thyreoiditis (auch „eisenharte Struma“ genannt), die mit einem ausgeprägten narbigen Umbau der Schilddrüse einhergeht. Die Entzündung greift dabei vom umliegenden Gewebe auf das Schilddrüsenorgan über. Die Entzündungen der Schilddrüse, die auf autoimmune Prozesse zurückzuführen sind, werden unter dem Begriff der Autoimmunthyreopathie zusammengefasst. Schilddrüsenkrebs. Bei diesem Karzinom ähnelt der Gewebeaufbau weitgehend der Struktur einer ausgereiften oder sich entwickelnden Schilddrüse. Die Krebszellen gehen von den Thyreozyten aus und bilden vorwiegend über die Blutbahn Absiedlungen "(hämatogene Metastasierung)" in Lunge, Skelett und Gehirn. Auf das follikuläre Karzinom entfallen 20–50 % aller Schilddrüsenkarzinome. Es betrifft häufig Frauen im 4. und 5. Lebensjahrzehnt. Diese Karzinome gehen ebenfalls von den Thyreozyten aus und bilden fingerförmig verästelte (papilläre) Strukturen. Sie sind mit 50–80 % aller Schilddrüsenkarzinome die häufigsten bösartigen Neubildungen der Schilddrüse. Sie metastasieren vorwiegend über die Lymphgefäße "(lymphogene Metastasierung)" in die Lymphknoten des Halses. Diese können dadurch an Größe zunehmen und getastet werden. Die papillären Karzinome betreffen häufig Frauen im 3.–4. Lebensjahrzehnt. Als begünstigende Faktoren für ihre Entstehung gelten eine Strahlenbelastung (beispielsweise im Rahmen einer therapeutischen Bestrahlung der Kopf-Hals-Region oder der Reaktorkatastrophe von Tschernobyl), eine Hashimoto-Thyreoiditis sowie verschiedene genetische Syndrome (FAP-Syndrom und Cowden-Syndrom). Dieses Karzinom zeigt in seiner Feinstruktur keine Ähnlichkeiten mehr mit dem ursprünglichen Schilddrüsengewebe und wird deshalb auch als undifferenziertes Karzinom bezeichnet. Es wächst sehr aggressiv in das umliegende Gewebe ein und metastasiert sowohl lymphogen als auch hämatogen. Etwa 5–10 % der Schilddrüsenkarzinome entfallen auf diesen Typ. Selten entsteht es vor dem 60. Lebensjahr; eine Geschlechtspräferenz zeigt es nicht. Das medulläre Karzinom geht von den Calcitonin produzierenden Zellen der Schilddrüse aus. Es handelt sich um ein neuroendokrines Karzinom, das neben dem Calcitonin auch weitere Hormone (wie Somatostatin, Serotonin und vasoaktives intestinales Peptid) produzieren kann. Es ist für etwa 5 % aller Schilddrüsenkarzinome verantwortlich. Die Krankheit kann sporadisch bei einzelnen Individuen oder im Rahmen genetischer Syndrome (MEN-Syndrom) auftreten. Dieses Karzinom metastasiert sowohl lymphogen als auch hämatogen und tritt insgesamt bei Frauen und Männern mit gleicher Häufigkeit auf. Störungen der Organanlage. Das vollständige Fehlen der Schilddrüse ("Aplasie der Schilddrüse" oder "Athyreose") ist bei Neugeborenen sehr selten. Die Ursache ist meist genetisch bedingt, wobei ein autosomal-rezessiver Erbgang vorliegt. Eine embryonale Entwicklungsstörung, bei der die Wanderung der Schilddrüsenanlage vom Mundboden zu ihrer definitiven Position vor der Luftröhre ausbleibt oder nicht vollständig erfolgt, wird als "Dystopie" bezeichnet. Hier kann die Schilddrüse im Zungengrund zu einer Zungengrundstruma heranwachsen. Aplasien und Dystopien sind die häufigsten Ursachen einer Schilddrüsenunterfunktion des Neugeborenen "(angeborene Hypothyreose)". Funktionsstörungen. Als Über- und Unterfunktion der Schilddrüse wird eine gesteigerte oder verminderte Wirkung der Schilddrüsenhormone auf den Stoffwechsel und die Organe des Körpers bezeichnet. Da Rezeptoren für Schilddrüsenhormone überall im Organismus vorhanden sind, kann es infolge von Funktionsstörungen der Schilddrüse zu Symptomen in fast allen Organsystemen kommen. Häufig sind dabei Störungen, die das Herz-Kreislauf-System, das Nervensystem und die Psyche, den Magen-Darm-Trakt sowie den allgemeinen Stoffwechsel, die Haut, das Muskel- und Skelettsystem sowie die Sexualfunktionen betreffen. Beispielsweise kann eine Überfunktion eine Beschleunigung des Herzschlags (Tachykardie), einen unwillkürlichen Gewichtsverlust, Nervosität und Zittern verursachen. Symptome einer Unterfunktion können ein verlangsamter Herzschlag (Bradykardie), eine Gewichtszunahme, Verstopfung und ein Verlust der Libido sein. Eine Unterfunktion kann eine Depression auslösen. Bei Schwangeren kann beim Kind Kretinismus verursacht werden. Die häufigsten Ursachen einer Hyperthyreose (Überfunktion) sind der Morbus Basedow, die Schilddrüsenautonomie sowie eine erhöhte Zufuhr von Schilddrüsenhormonen von außen in Form von Hormonpräparaten. Die häufigsten Ursachen einer Hypothyreose (Unterfunktion) sind die Hashimoto-Thyreoiditis sowie Maßnahmen (Operation, Radiojodtherapie, Medikamente), die im Rahmen der Therapie einer Schilddrüsenerkrankung durchgeführt wurden. Es wird zwischen einer "subklinischen" "(latenten)" und "manifesten" Hyper- und Hypothyreose unterschieden. Bei einer manifesten Funktionsstörung ist die Konzentration der freien Schilddrüsenhormone (fT3 und fT4) erhöht oder erniedrigt. Hingegen ist bei einer subklinischen Funktionsstörung die Konzentration der freien Hormone noch im Normbereich, während die Konzentration des die Schilddrüse stimulierenden Hormons TSH erniedrigt beziehungsweise erhöht ist. Eine Hyperthyreose ist die häufigste hormonelle Störung bei über zehn Jahre alten Hauskatzen (Feline Hyperthyreose). Fast immer ist eine Schilddrüsenautonomie die Ursache. Medizingeschichtliche Aspekte. Das Verständnis für die Funktion der Schilddrüse entwickelte sich erst langsam. Bis in die zweite Hälfte des 19. Jahrhunderts wurde sie als „Nebendrüse der Respirationsorgane“ betrachtet, deren Funktion unklar war. Der Dubliner Arzt Robert Graves beschrieb 1835 in seiner Arbeit "„Palpitation of the heart with enlargement of the thyroid gland“" als erster die Symptomkonstellation der später im englischsprachigen Raum nach ihm benannten Krankheit "(Graves’ disease)": Palpitationen, Struma und Exophthalmus. Als Ursache dieser Symptomatik nahm Graves eine Herzerkrankung an. Unabhängig hiervon beschrieb Carl Adolf von Basedow 1840 in Merseburg in seiner Publikation "„Exophthalmus durch Hypertrophie des Zellgewebes in der Augenhöhle“" ebenso die Symptomtrias von Struma, Exophthalmus, und Tachykardie (auch als "Merseburger Trias" bezeichnet). Zur Therapie empfahl er die Einnahme von iodidhaltigem Mineralwasser. Im deutschsprachigen Raum setzte sich die Bezeichnung "Basedowsche Krankheit" durch. Die Bestimmung der Basedowschen Krankheit als einer Krankheit der Schilddrüse erfolgte allerdings erst 1886 durch den Leipziger Neurologen Paul Julius Möbius. George R. Murray führte 1891 die erste erfolgreiche Therapie des Myxödems mit Schilddrüsenextrakten durch. 1896 isolierte Eugen Baumann eine unlösliche, nicht aus Proteinen bestehende Substanz, in der sich fast das gesamte in der Schilddrüse vorhandene Iod wiederfand – das sogenannte Iodothyrin (oder auch Thyreoiodin) – und charakterisierte es als den wirksamen Bestandteil der Schilddrüse. 1899 fand Adolph Oswald das Thyreoglobulin. Robert Hutchison stellte 1898 in seiner Arbeit über die Physiologie der Schilddrüse das Wissen seiner Zeit dar. Man wusste den Iodgehalt des Kolloids der Follikel abzuschätzen und stellte ausschließlich die iodhaltigen Bestandteile als aktiv dar. Damalige Versuche hatten gezeigt, dass die intravenöse Gabe des Kolloides keinerlei Wirkung auf Blutdruck oder Herztätigkeit ausübte. Man hatte jedoch nach Injektion von Schilddrüsenextrakten Blutdruckabfälle festgestellt. Tierversuche ergaben, dass das Blut nach Injektion des Kolloides in den Gefäßen nicht verklumpte, dass ein Warmhalten nach operativer Schilddrüsenentfernung keine Verzögerung des Auftretens oder Änderung des Verlaufes akuter Symptome erbrachte, obwohl man keine Giftstoffe in Galle oder ZNS ausmachen konnte, jedoch die orale Gabe von Schilddrüsengewebe die Mortalitätsrate senkte. Darüber hinaus stellte man bei den Versuchen fest, dass weder die operative Entfernung von Hoden bzw. Eierstöcken, noch die orale Gabe von Nebenschilddrüse einen kurativen Einfluss auf das Myxödem hatten. Iodothyrin diente Ende des 19. und Anfang des 20. Jahrhunderts zu Versuchszwecken. Aus der gegensätzlichen Wirkung unterschiedlicher Schilddrüsenextrakte auf den Kreislauf entwickelte sich um die Jahrhundertwende ein damals als polemisch bezeichneter Disput. 1909 konnte John H. King feststellen, dass Iodothyrin einen eigenständigen, dem Extrakt der gesamten Schilddrüse überlegenen, verzögernden Effekt auf den Kohlenhydratstoffwechsel hat. 1911 beschrieb Harry E. Alderson die gegensätzlichen Auswirkungen von Hypo- und Hyperthyreose auf die Haut, sowie Möglichkeiten der Behandlung. Als wirksam im Sinne einer Schilddrüsenstimulation beschrieb er Extrakte der ganzen Schilddrüse, Iod und iodhaltige Substanzen, Arsen, Salicylate, Phosphor, Alkohol, Pilocarpin, Tee, Kaffee, Fleisch, sexuelle Betätigung, Gebärmutterleiden, Schwangerschaft und große emotionale Aufregungen. Als wirksam im Sinne einer Minderung der Schilddrüsenfunktion beschrieb er Opioide, Bromide, Hypnotika im Allgemeinen, Glycerophosphate aus der Linde, Calcium, Milch, getreidereiche Ernährung und sexuelle Enthaltung. Lewellys F. Barker bezeichnete Iodothyrin 1913 als das Hormon der Schilddrüse und rechnete es zu den sympathikotrophen Substanzen endokrinen Ursprungs. Als Wirkungen beschrieb er eine Beschleunigung der Herzfrequenz, eine Erweiterung der Lidspalte, den Exophthalmus sowie ein vermehrtes Ansprechen der Pupille auf Adrenalin. Die Entdeckung des Schilddrüsenhormones Thyroxin wird Edward Calvin Kendall zugeschrieben. Er hatte aus Iodothyrin einen aktiven Anteil herauskristallisiert und ihn Thyroxin genannt. Zur Diagnose einer Schilddrüsenerkrankung im Blut wurden in dieser Zeit indirekte Parameter wie Blutgerinnung und Differentialblutbild verwendet. 1922 beschrieb Henry Stanley Plummer einen mittels der Lugolschen Lösung erreichten Rückgang von Hyperthyreosezeichen bei Patienten mit Morbus Basedow, das sogenannte „Plummern“. Emil Abderhalden und Ernst Wertheimer zeigten 1929, dass Muskelgewebe eine Thyroxinlösung in weit größerem Ausmaß aufnahm als Lebergewebe, konnten jedoch nicht feststellen, „was aus dem von den Geweben aufgenommenen Thyroxin wird.“ Noch 1930 wurde über die Entstehung des Thyroxins im Organismus vermutet, dass es sich aus zwei Molekülen Diiodtyrosin zusammensetzen könnte. 1933 beschrieben I. Abelin und A. Florin, dass Schilddrüsenhormone den Grundumsatz stark erhöhen, einen Glykogen- und Fettschwund veranlassen sowie Herz- und Atemfrequenz beschleunigen. Die künstliche Herstellung des Thyroxins wurde erstmals 1927 von Charles Robert Harington in London durchgeführt. 1965 meldete Beverley E. P. Murphy sein Patent zur direkten Messung von Thyroxin in Körperflüssigkeiten an, das am 3. Dezember 1968 von der Patentbehörde angenommen wurde. Bis zu diesem Zeitpunkt waren nur indirekte Schilddrüsenfunktionstestungen, wie etwa die Messung des absoluten Iodgehaltes oder des proteingebundenen Iodes im Blut, durchgeführt worden. Schiffstyp. In Schiffstypen oder auch Schiffsarten werden unterschiedliche Bauarten von Schiffen unterteilt, die sich in ihrer Funktion oder Eigenschaften gleichen. Man unterteilt sie unter anderem nach ihrer Bauausführung, der Anordnung der Aufbauten, dem Verwendungszweck oder dem Fahrtgebiet. Weitere Unterteilungen finden nach den Abmessungen, dem Schiffsantrieb oder der Form statt. Geschichtlich überschneiden sich unter dem Begriff Schiffstyp zwei verschiedene Dinge. So verstand man früher unter einem Schiffstyp normalerweise einen bestimmten Entwurf einer Werft. Die Benennung dieser Werftbaureihen, welche meist in Serien nach einem gleichen Entwurf gefertigt werden, wird von den meisten Werften auch heute noch so gehandhabt. Mehrere Schiffe einer Baureihe bilden bei den Reedereien oder Marinen, in denen sie eingesetzt werden eine Schiffsklasse. Etwa im Laufe der zweiten Hälfte des 20. Jahrhunderts verlagerte sich die Bezeichnung der Begriffe Schiffsart bzw. Schiffsgattung, für Schiffe die aufgrund ihrer gleichen Funktion in eine Gruppe eingeordnet werden, ebenfalls auf die Bezeichnung Schiffstyp, was es heute oft schwieriger macht, auf Anhieb zu erkennen, was im Einzelfall gemeint ist. Unterteilung. Durch die Größe werden zunächst Schiffe von Booten unterschieden, zusätzlich unterscheidet das Einsatzgebiet zwischen Binnen- und Seeschiffen. Verschiedene Schiffstypen zeichnen sich durch unterschiedliche Bauweisen wie Vollrumpf, Spanten beplankt, Formguss, laminiert oder Großplattenbauweise oder Baumaterialien wie Holz, Stahl oder Kunststoff (meist glasfaserverstärkt). Der Verwendungszweck sorgt für eine Unterteilung in Fracht-, Passagier-, Kriegs-, Sport- und Arbeitsschiffe. Weitere Unterscheidungen finden durch die Antriebsart statt: Möglich sind Ruder, verschiedene Takelagen bei Segelschiffen, Dampfmaschine, Dampf- oder Gasturbine, Diesel- oder Kernenergieantrieb. Militärschiffstypen. Mehrere Kriegsschiffstypen, darunter verschiedene Träger, Fregatten und Kreuzer Marinen verfügen über Kriegs- und Hilfsschiffe verschiedener Typen, die für spezielle militärische Aufgaben geeignet sind. Im Laufe der Militärgeschichte entwickelten sich vor dem Hintergrund der zeitgenössischen Technologie und Art der Kriegsführung unterschiedlichste Schiffstypen, die im Laufe der Zeit ihre Bestimmung verloren und nicht mehr zeitgemäß waren, weshalb sie durch neuere Typen ersetzt wurden. Die ersten Kriegsschifftypen waren in der Antike das Langschiff und später die Galeere. Im Laufe der Zeit wurden neue Antriebsmethoden und Waffensysteme entwickelt, die neue Schiffstypen entstehen ließen. Manche Typenbezeichnungen wie Fregatte oder Korvette bezeichneten zu unterschiedlichen Zeiten verschiedene Arten von Schiffen. Moderne Kriegsschiffe lassen sich – in etwa der Wasserverdrängung nach – grob in Boote, U-Boote, Landungsschiffe, Korvetten, Fregatten, Zerstörer, Kreuzer und Flugzeugträger einteilen. Viele dieser Typen besitzen mehrere Untertypen, die jeweiligen Einsatzzwecke spezifizieren. Säbelzahnkatzen. Die Unterfamilie der Säbelzahnkatzen (Machairodontinae) ist eine ausgestorbene Linie der Katzen. Sie zählen damit zu den Raubtieren (Carnivora), einer Ordnung der Säugetiere (Mammalia). Man nimmt an, dass sich die Raubtiere schon im frühen Paläozän in die beiden großen Raubtier-Stammlinien, die Katzenartigen (Feliformia) und die Hundeartigen (Caniformia), aufgespalten haben. Als älteste Gruppe der ersteren galt bisher die ausgestorbene Familie Viverravidae, die bereits im Paläozän nachgewiesen ist. Eine der ältesten Familien aus dem Katzenzweig sind die Nimravidae, die sehr stark an Katzen (Felidae) erinnern, aber als separate Familie angesehen werden. Sie traten erstmals im späten Eozän Nordamerikas und Eurasiens auf. Eine weitere Familie, die Barbourofelidae, wurden ursprünglich als Unterfamilie der Nimravidae angesehen, doch gelten sie heute als eigene Familie. Die Barbourofelidae starben erst im späten Miozän mit der nordamerikanischen Gattung "Barbourofelis" aus. Gelegentlich werden auch einige Arten der Nimravidae und der Barbourofelidae als Säbelzahnkatzen bezeichnet, obwohl diese keine echten Katzen sind und daher als Schein'"säbelzahnkatzen gelten. Der eigentliche Zweig der echten Säbelzahnkatzen wird als die Unterfamilie der Machairodontinae bezeichnet. Aussehen. Säbelzahnkatzen erhielten ihren Namen wegen der extrem langen, gebogenen Eckzähne, die bei der größten Art bis zu 28 cm lang werden konnten. Die Tiere konnten ihren Unterkiefer im 95-Grad-Winkel aufreißen, was auch nötig war, um die langen Zähne voll einsetzen zu können. Heutige Katzen können ihre Kiefer nur um 65 bis 70 Grad öffnen. Im Habitus glichen sie heutigen Katzen, obwohl die meisten Formen gedrungener gebaut und damit wohl weniger elegant als die uns vertrauten Arten waren. Viele besaßen einen relativ kurzen Schwanz, wie wir ihn vom heutigen Luchs ("Lynx lynx") her kennen. Schädelpräparat eines "Smilodon fatalis" mit maximaler Kieferöffnung (128°) a> (Felis silvestris f. catus), mit einer maximalen Kieferöffnung von (80°) Eine weit verbreitete Vorstellung ist, dass Säbelzahnkatzen durchweg sehr groß waren. Tatsächlich waren aber einige relativ klein, teilweise kleiner als Leoparden. Zu den kleinsten Formen zählten Vertreter der Gattung "Paramachairodus", die eine Schulterhöhe von etwa 60 cm erreichten. Die größten Arten der Gattungen "Smilodon", "Machairodus" und "Homotherium" hatten in etwa die Größe eines heutigen Löwen. Eine der größten Arten war der südamerikanische Säbelzahntiger "Smilodon populator"; er erreichte eine Schulterhöhe von etwa 1,2 Meter. Ähnlich groß oder sogar etwas größer, aber dafür weniger massig gebaut waren "Machairodus giganteus" und große Formen der Gattung "Homotherium". Taxonomie. Die Säbelzahnkatzen wurden ursprünglich in drei Tribus aufgeteilt. Eine davon, die Tribus der Metailurini, zu der neben unbekannteren Formen wie "Metailurus" und "Adelphailurus" auch "Dinofelis" gehört, werden heute aber zu den Felinae gerechnet. Daher verbleiben hier heute nur noch zwei Tribus, die Machairodontini mit den ursprünglicheren Gattungen "Machairodus" und "Xenosmilus" sowie der moderneren Gattung "Homotherium" und die Smilodontini mit "Megantereon" und "Smilodon". Lebensweise und Verhalten. Säbelzahnkatzen waren aller Wahrscheinlichkeit nach aktive Räuber, obwohl gelegentlich darauf hingewiesen wird, dass diese Tiere auch reine Aasfresser gewesen sein könnten, was aber aus vielerlei Gründen äußerst unwahrscheinlich ist. Aufgrund des teilweise recht großen Körpers darf man annehmen, dass einige Arten recht stattliche Beutetiere erlegen konnten. Ob sie allerdings auch solch riesige Tiere wie Elefanten und Mammuts oder zumindest deren Jungtiere angegriffen haben, ist nicht klar. Zahlreiche Funde von Mammutskeletten, die neben einigen Skeletten der Scimitar-Katze ("Homotherium serum") in der Friesenhahn-Höhle in Texas gefunden wurden, weisen darauf hin. Die Aufgabe der charakteristischen Säbelzähne (Dentes canini) ist bis heute umstritten. Im Oberkiefer ist der Eckzahn nach dem Zwischenkieferbein (Prämaxillare) der vorderste Zahn im Oberkieferknochen (Maxillare). Möglicherweise gebrauchten die Tiere sie, um sehr großen Beutetieren tiefe Stich- und Reißwunden beizubringen, an denen die Opfer dann verbluteten. Kritiker dieser Annahme weisen darauf hin, dass die Zähne bei solch einer Belastung leicht brechen würden. Sie vermuten daher, dass diese Katzen ihre Zähne gebrauchten, um der bereits am Boden liegenden, kampfunfähigen Beute gleichzeitig Halsschlagader (Arteria carotis communis) und Luftröhre (Trachea) zu durchtrennen. Darauf deuten auch die bei einigen Arten wie Smilodon extrem kräftig ausgebildeten Vordergliedmaßen hin, die wohl dazu dienten, Beutetiere gegen den Boden zu drücken, um dann einen präzisen Tötungsbiss zu setzen. Möglicherweise dienten die langen Eckzähne aber nur zum Imponieren gegenüber Artgenossen. Auch denkbar ist, dass sie auch auf unterschiedliche Weisen genutzt wurden, da diese bei verschiedenen Arten zum Teil recht unterschiedlich ausgebildet waren. Eine weitere Theorie ist, dass Säbelzahnkatzen sich von Blut, Eingeweiden und sonstigen weichen, leicht abzufressenden Körperteilen ernährten, welche die Säbelzähne nicht gefährdeten. Wahrscheinlich hatten sie wie die heutigen Katzen auch verhornte Geschmacksknospen (Papillen) auf der Zunge, welche es ihnen erlaubte, ohne Gefährdung der Zähne Fleisch von den Knochen zu lösen. Fundorte und Verbreitung. Überreste von Säbelzahnkatzen wurden bislang auf allen Kontinenten mit Ausnahme von Australien und der Antarktis gefunden. Die ältesten Funde sind etwa 15 Millionen Jahre alt. In Europa sind diese Tiere mit den Gattungen "Machairodus", "Paramachairodus", "Megantereon" und "Homotherium" nachgewiesen. Der geologisch jüngste Fund von Homotherium ist rund 28.000 Jahre alt und wurde von einem niederländischen Fischkutter vom Grund der Nordsee, die im Eiszeitalter Festland (s. "Doggerland") war, ans Tageslicht geholt. In Nordamerika verschwanden vor etwa 10.000 Radiokohlenstoffjahren die beiden Gattungen "Smilodon" und "Homotherium " fast zeitgleich. Mit ihnen starben im Zuge einer Quartären Aussterbewelle auch zahlreiche weitere Großtierarten aus. Als Ursache für das plötzliche Verschwinden der Eiszeitlichen Großtierfauna (siehe auch Megaherbivorenhypothese) werden klimatische Schwankungen oder menschliche Einflüsse diskutiert. Aus dem Miozän stammen die rund zehn Millionen Jahre alten Funde von Eppelsheim und die etwa 8,5 Millionen Jahre alten Fossilien von Dorn-Dürkheim. Aus dem Eiszeitalter stammen die etwa eine Million Jahre alten Funde von der Fossillagerstätte Ur-Werra zwischen Meiningen und Untermaßfeld sowie die ungefähr 600.000 Jahre alten Fossilien von Wiesbaden-Mosbach, Mauer bei Heidelberg und Neuleiningen bei Grünstadt. In Meiningen kamen die Säbelzahnkatzen "Homotherium" und "Megantereon" zusammen vor. In Wiesbaden-Mosbach und Mauer waren sie Zeitgenossen riesiger Löwen. In der archäologischen Grabungsstätte Schöningen (Niedersachsen) wurden 2012 vier Zähne sowie wenige Beinknochen der Säbelzahnkatze "Homotherium latidens" entdeckt. Ihr Alter wird mit 300.000 Jahren angegeben. Ähnliche Tierformen. Bevor "Smilodon" im Pliozän Südamerika über die mittelamerikanische Landbrücke erreichte, gab es dort Tiere, die den Säbelzahnkatzen mit ihren extrem langen Eckzähnen verblüffend ähnlich sahen. Sie gehörten zur Gattung "Thylacosmilus", waren aber mit den Säbelzahnkatzen nicht verwandt, sondern gehörten zu den Beuteltieren. Sie starben mit der Ankunft der echten Säbelzahnkatzen aus. Das Prinzip der überlangen Eckzähne hat sich also neben den Scheinsäbelzahnkatzen aus der Familie Nimravidae unabhängig ein drittes Mal entwickelt. Auch bei einigen frühen säugetierähnlichen Reptilien, die vor den Dinosauriern lebten, bildeten sich Formen mit langen Säbelzähnen aus, etwa "Inostrancevia". Smilodon. Smilodon (altgr. "smílē" „Meißel“ und "odū́s" „Zahn“) ist eine Gattung der ausgestorbenen Säbelzahnkatzen ("Machairodontinae"), die während des Pleistozäns in Amerika weit verbreitet war. Innerhalb der Gattung werden mit "Smilodon gracilis", "Smilodon populator" und "Smilodon fatalis" drei Arten unterschieden, die sich in ihrer Größe und anderen Merkmalen deutlich unterschieden. Die Gattung "Smilodon" überlebte bis zum Ende des Pleistozäns und starb erst am Beginn des Holozäns vor etwa 12.000 Jahren aus. Häufig werden Vertreter der Gattung als Säbelzahntiger bezeichnet, obwohl keine nähere Verwandtschaft zum Tiger besteht und sich "Smilodon"-Arten entwicklungsgeschichtlich und morphologisch deutlich von heute lebenden Großkatzen unterschieden. Aussehen. Im Gesamterscheinungsbild dürfte "Smilodon" an eine heutige Großkatze erinnert haben, unterschied sich von diesen jedoch in einigen charakteristischen Merkmalen. Mit seinem abschüssig verlaufenden Rücken, den kurzen Beinen und der extrem kraftvollen Schulter- und Nackenpartie war "Smilodon" etwas kleiner, aber dafür viel muskulöser und schwerer gebaut als die großen Raubkatzen von heute. Die größten Vertreter der Gattung erreichten geschätzt über 300 kg und waren damit schwerer als heutige Löwen und Tiger. Charakteristisch waren der kurze Stummelschwanz und die langen Säbelzähne, die bis zu 20 cm aus dem Kiefer ragten. Diese riesigen Eckzähne hatten keinen annähernd kreisförmigen, sondern einen ovalen Querschnitt, was das Eindringen in das Fleisch des Opfers erleichterte. Arten. Obwohl im Laufe der Forschungsgeschichte eine Reihe verschiedener Taxa von "Smilodon" beschrieben wurde, sind heute nur drei Arten allgemein anerkannt. "Smilodon gracilis", die kleinste Art war mit 55 bis 100 kg etwa so groß wie ein Jaguar und lebte ca. 2.500.000 bis 500.000 Jahre vor unserer Zeit. Sie ging wohl direkt aus dem Megantereon hervor und ist uns vor allem durch Funde aus den östlichen USA bekannt. Wahrscheinlich entstanden aus "Smilodon gracilis" (gracilis – schlank) die beiden späteren Arten "Smilodon populator" (populator – Plünderer, Zerstörer) und "Smilodon fatalis" (fatalis – schicksalshaft). Beide starben vor etwa 12.000 Jahren aus. Die südamerikanische Säbelzahnkatze "Smilodon populator" lebte in den östlichen Gebieten Südamerikas und war die größte Art, die die Säbelzahnkatzen hervorbrachten. Sie erreichte ein Gewicht von 220–360 kg und eine Schulterhöhe von etwa 1,2 m. Die bis zu 28 cm langen Eckzähne ragten ungefähr 17 cm aus dem Oberkiefer hervor. In Nordamerika und den pazifischen Teilen Südamerikas lebte der "Smilodon fatalis". Diese Art lag größenmäßig zwischen den anderen beiden Arten und wog etwa 160–280 kg bei einer Schulterhöhe von rund einem Meter. Sie unterscheidet sich in einigen wesentlichen Merkmalen des Schädels und der Proportionen von "Smilodon populator". Die Verbreitungsgebiete von "Smilodon populator" im Osten und "Smilodon fatalis" im Westen wurden durch die Anden getrennt. Gelegentlich werden auch "Smilodon californicus" und "Smilodon floridanus" als eigene Arten aufgeführt. Sie gelten meist aber als Unterarten von "Smilodon fatalis". Funde und Verbreitung. Schädel eines "Smilodon fatalis", San Diego Natural History Museum, Kalifornien, USA Die bekanntesten Fundstellen von "Smilodon fatalis" liegen bei Rancho La Brea im heutigen Kalifornien, wo mehr als 160.000 Knochen der Art gefunden und identifiziert werden konnten. Zahlreiche weitere Überreste dieser Gattung wurden in vielen Teilen Nord- und Südamerikas gefunden, so in Florida und Patagonien. In Nordamerika beschränkte sich ihr Verbreitungsgebiet auf die südlichen Gebiete. Weiter nördlich kam zur gleichen Zeit in Nordamerika die Scimitarkatze ("Homotherium") vor, deren Verbreitungsgebiet im Süden etwas mit dem des "Smilodon" überlappte. Im Gegensatz zum "Homotherium" drang der "Smilodon" niemals bis Eurasien vor. Lebensweise. Schädel eines "Smilodon populator". Museum für Naturkunde. Berlin, Deutschland Aus den zahllosen Überresten, die in den Teergruben von Rancho La Brea in Kalifornien geborgen wurden, lässt sich viel über den "Smilodon" rekonstruieren. Aus diesen Knochenfunden gelingt es Wissenschaftlern sogar, Rückschlüsse auf die Lebensweise und das Sozialverhalten der Tiere zu ziehen. 5000 der 160.000 Knochenreste aus Rancho La Brea zeigten starke Krankheitsmerkmale. Diese reichten von Fehlstellungen der Hüfte über gebrochene Wirbelsäulen bis zu deformierten Beinknochen. Offenbar war ihr Körper oft starken Belastungen ausgesetzt, die wahrscheinlich von Kämpfen mit äußerst wehrhaften Beutetieren stammten. Erstaunlicherweise zeigten viele dieser Knochen Anzeichen von Verheilung, auch wenn die Verletzungen so stark waren, dass die Tiere sicher jagdunfähig waren. Die Tiere hatten offenbar noch Monate oder Jahre weitergelebt. Das deutet darauf hin, dass "Smilodonten" in sozialen Gruppen organisiert waren und sich gegenseitig mit Nahrung versorgten oder zumindest Gruppenmitglieder am Riss duldeten. Umstritten ist das vermutliche Beutespektrum der Katze. Die langen Eckzähne und die massige Gestalt lassen vermuten, dass sie sich von besonders großen, schwerfälligen Tieren wie Mammuts und Mastodons ernährten. So könnten sie den riesigen Tieren auf den Rücken geklettert sein, um die Zähne dort einzugraben oder ihnen vom Boden aus die Flanken aufgerissen haben. Kritiker verweisen allerdings darauf, dass die langen Eckzähne im Kampf auf Knochen treffen und dann leicht hätten brechen können. Für schnellere Tiere wie Pferde und Hirsche waren "Smilodonten" aber sicherlich zu schwerfällig. Am wahrscheinlichsten ist daher, dass sie vorwiegend junge und halbwüchsige Rüsseltiere und Riesenfaultiere angriffen, indem sie diese bei Ausflügen abseits der Herde überraschten oder Verwirrung in den Herden stifteten und dann schnell zuschlugen. Ein ähnliches Jagdverhalten wird auch für die zweite amerikanische Säbelzahnkatze "Homotherium" vermutet, bei der diese Annahme durch besondere Fossilfunde aus der texanischen Friesenhahn-Höhle gestützt wird. Aussterben. Das Aussterben des Smilodons wird meist auf das Verschwinden der eiszeitlichen Megafauna am Ende des Pleistozäns zurückgeführt. Er verschwand vor etwa 10.000 Radiokohlenstoffjahren (entspricht etwa 12.000 Kalenderjahren), zusammen mit einer ganzen Reihe von Großtierformen am Ende des Pleistozäns. Durch das Verschwinden großer Beutetiere war er wohl seiner Existenzgrundlage beraubt und starb ebenfalls aus. Über Jahrmillionen haben moderne Großkatzen ("Panthera") und Säbelzahnkatzen nebeneinander gelebt, ohne sich gegenseitig stark zu beeinträchtigen. Nach einer Theorie, die als Overkill-Hypothese bekannt wurde, ist das Verschwinden der Großsäuger am Ende des Pleistozäns vor allem auf menschliche Einflüsse zurückzuführen. Systematik. Die Gattung "Smilodon" wurde bereits 1842 von dem dänischen Naturforscher und Paläontologen Peter Wilhelm Lund wissenschaftlich beschrieben. Die von ihm beschriebenen Fossilien des "Smilodon populator" stammten aus einer Höhle nahe der brasilianischen Stadt Lagoa Santa, Minas Gerais. Sie wird in die Säbelzahnkatzen (Machairodontinae) innerhalb der Katzen (Felidae) eingeordnet. Mit der Erstbeschreibung der Gattung "Rhizosmilodon" im Jahr 2013 wurde eine aktuelle phylogenetische Zuordnung der bekannten Sägezahnkatzen aus einer Analyse einer Matrix von Merkmalen durchgeführt. "Rhizosmilodon" wurde aufgrund der vorhandenen Merkmale an der Basis der Tribus Smilodontini eingeordnet und einem Taxon bestehend aus den Gattungen "Smilodon" und "Megantereon" gegenübergestellt. Mit einem Alter von etwa 5 Millionen Jahren stellen die "Rhizosmilodon"-Fossilien zudem die ältesten Fossilien der Tribus dar. Diese Entwicklung würde für die Entstehung der Tribus Smilodontini und der Gattungen einen Ursprung in Nordamerika bedeuten, wo sich alle drei Gattungen ausbilden konnten, sowie eine spätere Einwanderung von "Megantereon" nach Eurasien und Afrika. Neben der von den Autoren bevorzugten Hypothese, nach der "Rhizosmilodon" einem gemeinsamen Taxon aus "Smilodon" und "Megantereon" als Schwesterart gegenübersteht, stellen sie eine alternative Annahme dar, in der "Rhizosmilodon" und "Smilodon" ein gemeinsames Taxon bilden und "Megantereon" diesem gegenübersteht. Für eine solche Hypothese könnten vor allem die Ausbildung der Unterkiefereinbuchtung und die ungezähnten Eckzähne stehen. In diesem Fall wäre eine Entstehung der Tribus Smilodontini mit "Megantereon" als ursprünglichster Gattung in Eurasien oder Afrika und eine zweifache Einwanderung nach Nordamerika wahrscheinlich. Schuld (Ethik). Schuld als Verantwortlichkeit. Schuld wird der folgend beschriebene Zustand genannt: wenn jemand für einen Verstoß gegen eine durch sittliche, ethisch-moralische oder gesetzliche Wertvorstellung gesetzte Norm verantwortlich ist. Beispielsweise kann dies der absichtliche Verstoß gegen ein Verbot (zum Beispiel Diebstahl) oder auch der fahrlässige Verstoß gegen ein Verbot (zum Beispiel Fahrlässige Tötung) sein. In der Regel wird davon ausgegangen, dass nur eine einzelne Person für ihre Schuld einzustehen hat und ihr die Schuld anderer nicht zurechenbar ist. So werden die Vererbbarkeit von Schuld und das Einstehenmüssen einer Gruppe für die Schuld anderer (Kollektivschuld, Sippenhaft) häufig abgelehnt. Schuld ist demnach höchstpersönlich. Als Voraussetzung für Schuld wird meist angenommen, dass der Schuldige die Wahlmöglichkeit hatte, die als schlecht definierte Tat zu unterlassen. In der Philosophie wird die Schuldfähigkeit deshalb oft auf die Willensfreiheit zurückgeführt. Nach der Theorie des Determinismus, welche bei rückschauender Betrachtung das Handeln des Menschen in anlage- und umweltbedingten Bestimmungskräften begründet sieht, ist in Ermangelung der Fähigkeit des Menschen, sich frei zwischen Gut und Böse zu entscheiden, dem Schuldprinzip der Boden entzogen. Über die philosophische Fragen, was genau unter einer „freien Entscheidung“ zu verstehen ist, und ob der Mensch – ausgehend von der jeweiligen Freiheitskonzeption – „frei“ ist, sind sich Philosophen und andere Wissenschaftler uneinig. Traditionell sah man den Determinismus als mit der Willensfreiheit unvereinbar an; heute gibt es jedoch in Anlehnung an David Hume deutlich mehr Kompatibilisten als Inkompatibilisten. Relativ bekannte Kompatibilisten sind im deutschsprachigen Raum Peter Bieri und Michael Pauen, in den USA prominente Philosophen wie Harry Frankfurt, Daniel C. Dennett und Richard Rorty. Diese Philosophen halten die Zuschreibung von Verantwortung und Schuld in einer deterministischen Welt (und nur in einer deterministischen) für sinnvoll, ebenso wie die Bestrafung von Menschen, die sich nicht an die gesellschaftlichen moralischen Regeln halten. Die Inkompatibilisten argumentieren, die deterministische Lehre bejahe zwar die Möglichkeit, Täter zur Verantwortung zu ziehen (dies lässt sich zum Beispiel auf einen Gesellschaftsvertrag gründen, der die Vereinbarung enthält, sich gegenseitig als frei und verantwortlich zu behandeln und behandeln zu lassen), sei aber mit der Willensfreiheit unvereinbar. Daher verneinen sie ein Recht der Gesellschaft auf Bestrafung (Übelzufügung) und halten nur eine Behandlung des Täters und eine Sicherung der Gesellschaft vor solchen Personen (zum Beispiel durch Sicherungshaft) für angebracht. Allgemein existiert die Vorstellung, dass ein Ausgleich der Schuld erreicht werden könne, indem der Schuldige Buße bzw. Sühne tut, Wiedergutmachung leistet, die Untat des Schuldigen gerächt wird (Vergeltung) oder dem Schuldigen die Schuld vergeben wird. In vielen Gesellschaften ist das Talion-Prinzip noch lebendig. Nach der Sühne, Wiedergutmachung, Vergeltung oder Vergebung ist die Schuld dann erloschen. Hat ein Mensch keine Schuld an einem Vergehen, so ist er unschuldig bzw. in juristischer Diktion ‚schuldlos‘. Ein Sonderproblem ist der Überzeugungstäter. Es ist fraglich, ob ethische Pflichten, welche nicht auch aus der Neigung des jeweiligen Menschen befolgt werden, also im Gewissen desselben angelegt sind (Gewissenspflichten), überhaupt letztverbindlich sein können. konfligieren die Überzeugungen des Täters und die durch die Gemeinschaft definierten ethischen Pflichten, ist das Problem der Letztverbindlichkeit auch vor dem Hintergrund der Gewissensfreiheit zu betrachten. Schuld als sittliche Pflicht. Einem völlig anderen Konzept von Schuld begegnet man bei sittlichen Pflichten oder Rücksichten, die zu nehmen sind. Die Störung der Gerechtigkeit tritt hier nicht wegen einer fehlerhaften Einstellung eines Missetäters zu ethischen Anforderungen ein, die zu einer Beeinträchtigung von Rechten, Rechtsgütern oder wohlverstandenen Interessen anderer führt, sondern fußt auf einer Leistung oder einem Versprechen einerseits und regelmäßig erwarteter Dankbarkeit andererseits (siehe auch Grober Undank). Dann steht der Begünstigte dieser Tat in einem Schuldverhältnis zum Ausüber – man sagt, man stehe in jemandes Schuld. Diese Schuld wird durch eine angemessene Gegenleistung getilgt. Lebensführungsschuld und moralische Bewertung. Schuld und Unschuld werden manchmal auch als Bezeichnungen für fundamentale moralische Verdorbenheit bzw. Vollkommenheit verwendet. Im Christentum spricht man beispielsweise von der Erbsünde, mit der ein die ganze Menschheit durchziehender Hang zur Abwendung von Gott und Hinwendung zum Bösen bezeichnet wird. Schuld kann unter psychologischen Gesichtspunkten als unbewusstes Inszenierungssymptom zur Erzeugung oder Aufrechterhaltung von Grenzen beschrieben werden. Pathologisch kann es sich unter anderem als Schuld-„Waffe“, in der Tabuisierung, der Verantwortungsablehnung, dem Missbrauch der internalisierten Schuldgefühle (Scham) anderer äußern. Schuldgefühle können verdrängt, also demjenigen selbst nicht bewusst sein, wenn sie beispielsweise an ein Trauma erinnern (Mord aus Affekt). Eine andere Möglichkeit der Verdrängung ist die Rationalisierung, also Argumente dafür zu finden, weshalb man sich nicht schuldig gemacht hat, was aber die damit abgespaltenen Schuldgefühle kaum unterdrückt. Sie agieren sich an anderer Stelle unbewusst aus. Die Lebensführungsschuld als juristischer Begriff war für die Rechtsprechung im Deutschland der Jahre 1933 bis 1945 von Bedeutung. Unter dem sehr willkürlichen Vorwurf einer – unspezifischen – Lebensführungsschuld verhängte die Strafjustiz des Nationalsozialismus schwere Strafen. (Siehe dazu auch rechtsfreier Raum.) Kulturwissenschaft. Schuldidentitäten können kulturell und sozial höchst divergieren, verschieden ausgeprägt und legitimiert sein. Im Kontakt unterschiedlich schuldsozialisierter Menschen kann dies bei Unkenntnis von Soll-, Muss- oder Kannvorschriften zu erheblichen Konflikten führen. Die linke Hand kommt in Europa zum Gruß vom Herzen und ist positiv konnotiert. In anderen Ländern ist es die „schmutzige“ Hand; wer sie gibt, übt eine Beleidigung aus. Im diplomatischen Dienst oder bei geschäftlichen und privaten Auslandskontakten nützt es, die divergierenden Schuld-Fallen zu kennen. Wer als Soldat im Krieg straffrei tötet, wird in Friedenszeiten für die gleiche Handlung schuldig gesprochen – eine temporäre bzw. situative Schuldbewertung. Schuld kann als ein Konstrukt beschrieben werden, also eine Vereinbarung auf Inhalt, Zeit und Raum von Menschen und deren Institutionen. Regelverletzungen sind in diesem Sinne kommunikative Indikatoren, die auf neue Regelabsprachen (Richtlinie, Norm) zielen und damit neue Schuldnormen einfordern. Im Völkerrecht kann man derzeit erleben, dass bei der Terrorismusbekämpfung die bisherigen Staatsvereinbarungen nicht mehr greifen, weil die Terroristen (mehr oder weniger und nachweisbar) staatenlos operieren, um ihre Ziele zu verfolgen. Das wiederum scheint einige vom Terrorismus betroffene Staaten und deren Regierungen in der (symbiotischen?) „Gegenübertragung“ zu legitimieren, der Gerichtsbarkeit mittels Schuld und Sühne und damit auch den Terroristen die Verfassungsgrundlage des Bürgers und des Staates zu entziehen. Damit entsteht ein (scheinbar) rechtsfreier Raum, wenn auf einer anderen Ebene dieser Staat den Institutionen einer Weltgerichtsbarkeit die Legitimation der Rechtsprechung verweigert. Hier stellt sich die Frage nach einer neuen (anderen?, weiteren?) Schuld. Kompliziert wird es, wenn in diesem Sinne die Definition des „Terroristen“ eingefordert wird. In manchen Staaten regieren ehemalige „Freiheitskämpfer“, die von den vorherigen Machthabern als „Terroristen“ beschuldigt wurden. Diese wurden zu „Freiheitskämpfern“, weil die Machthaber in ihren Augen die Macht missbrauchten, sich also schuldig machten. Siehe auch Wurmsers psychodynamische Erklärungen über gegenseitige Schuldzuweisungen von Staaten als Legitimation von (möglichen) Kriegshandlungen, um durch diese Taktik inner- oder außerstaatliche Interessen durchzusetzen (augenblicklich zwischen der Volksrepublik China und Japan zu verfolgen). Schuld als erlernte Angst in Ermangelung von Vernunftgründen. In seiner kulturkritischen Monographie "Jenseits von Schuld und Gerechtigkeit" führt der deutsch-amerikanische Philosoph Walter Arnold Kaufmann das Schuldgefühl ausschließlich auf die Angst vor Strafe zurück. Zur Veranschaulichung bezieht Kaufmann sich auf eine Passage aus Kafkas "Brief an den Vater", in der beschrieben wird, wie der Vater alle Vorbereitungen trifft, um seinen Sohn körperlich zu züchtigen, es dann aber im letzten Moment unterlässt. Kafka vergleicht sein daraus resultierendes Gefühl mit dem eines um ein Haar Gehenkten, der im letzten Moment von seiner Begnadigung erfährt und „sein Leben lang daran zu leiden“ hat; denn aus den „vielen Malen, wo ich Deiner deutlich gezeigten Meinung nach Prügel verdient hätte, ihnen aber aus Deiner Gnade noch knapp entgangen war“ sammele sich, so Kafka, ein „großes Schuldbewußtsein“ an. Kaufmann entwickelt und belegt im Verlauf seiner weiteren Ausführungen die Theorie, dass Schuldgefühle in der Kindheit erlernt werden, wenn Eltern und vergleichbare Autoritäten Verbote ohne nachvollziehbare Rechtfertigungen aussprechen und bei deren Nichtbefolgung mit Strafe drohen. Der Inhalt des Schuldgefühls ist dann für Kaufmann hauptsächlich die Angst vor Strafe angesichts der Verletzung eines zufälligen Gebots. Das erkläre unter anderem, wieso manche Menschen wegen unbedeutender Kleinigkeiten in Schuld vergehen, während andere die größten Verbrechen mit ruhigem Gewissen verüben. Kaufmann nennt Schuldgefühle eine „ansteckende Krankheit, die die Befallenen schädigt und die in ihrer Nähe Lebenden gefährdet. Die Befreiung von der Schuld kündigt den Anbruch der Autonomie an.“ Schuldner. Schuldner ist eine natürliche oder juristische Person, die aus einem vertraglichen oder gesetzlichen Schuldverhältnis eine Leistungspflicht trifft. Der Schuldner ist mithin verpflichtet, dem Gläubiger aus dem bestehenden Schuldverhältnis eine bestimmte Leistung zu erbringen. Komplementärbegriff zu Schuldner ist mithin der Gläubiger. Allgemeines. Im allgemeinen Sprachgebrauch wird der Begriff Schuldner meist auf Geldschuldner reduziert. Gesetz, Rechtsprechung und Literatur verstehen darunter jedoch allgemein die zu einer Leistung Verpflichteten. Leistung ist jede bewusste und zweckgerichtete Mehrung fremden Vermögens. Diese Vermögensmehrung beim Gläubiger kann durch Geldleistung entstehen, aber auch durch Übertragung von Eigentum oder von Rechten (Rechtsgrund: Kaufvertrag, Schenkung), durch die Überlassung des Gebrauchs an einer Sache (Leihe, Miete, Pacht), durch die Erbringung von Dienstleistungen (Dienstvertrag, Arbeitsvertrag) oder durch Darlehensgewährung. Bei gegenseitigen Verträgen (wie Kauf, Miete oder Werkvertrag) sind beide Vertragspartner gleichzeitig sowohl Gläubiger als auch Schuldner. Beim Kauf schuldet der Verkäufer dem Käufer die Übergabe und Übereignung der verkauften Sache (Abs. 1 BGB), der Käufer ist Schuldner der Gegenleistungspflicht, dem Kaufpreis (§ 433 Abs. 2 BGB). Hieraus ist ersichtlich, dass zwar allgemein die Kaufpreisschulden als Leistungspflicht des Schuldners angesehen werden, jedoch auch die Übereignung und Übergabe der Kaufsache eine Pflicht des schuldenden Verkäufers darstellt. Schuldverhältnis. Das BGB widmet dem vertraglichen Schuldverhältnis das gesamte zweite Buch. In der zentralen Vorschrift des BGB wird bestimmt, dass der Gläubiger aus einem Schuldverhältnis berechtigt ist, vom Schuldner eine Leistung zu fordern, wobei die Leistung auch in einem Unterlassen bestehen kann. Zu den vertraglichen Schuldverhältnissen gehören alle Verträge des täglichen Lebens. Das Gesetz regelt diese jedoch nur unvollständig; auch für die nicht im Gesetz erwähnten Schuldverhältnisse (etwa Leasing) gelten die gesetzlichen Bestimmungen entsprechend. Daneben gibt es auch gesetzliche Schuldverhältnisse, die als Rechtsfolge aus dem Verhalten der Beteiligten resultieren. Auch für sie gelten die Bestimmungen über die vertraglichen Schuldverhältnisse, sofern nichts anderes geregelt ist. Ein gesetzliches Schuldverhältnis ist beispielsweise die unerlaubte Handlung. Bei ihr ist der Schuldner unter bestimmten Voraussetzungen für einen Schaden unabhängig vom Bestehen einer vertraglichen Beziehung verantwortlich, wenn ihn ein Verschulden trifft (BGB) oder – verschuldensunabhängig – eine Gefährdungshaftung vorliegt. Pflichten des Schuldners. Für das Erlöschen eines Schuldverhältnisses genügt es nicht, dass der Schuldner alles zur Erbringung der Leistung Erforderliche getan hat. Der Schuldner schuldet nämlich nicht nur eine Leistungshandlung, sondern darüber hinaus auch einen Leistungserfolg. Seine Verbindlichkeit erlischt erst, wenn ein Leistungserfolg eingetreten ist. Dazu muss die richtige Leistung am richtigen Ort zur vereinbarten Zeit vollständig erbracht worden sein. Hat der Schuldner jedoch seine Leistungshandlung erbracht, ohne dass der Leistungserfolg eingetreten ist, so gerät er immerhin nicht in Schuldnerverzug. Der Schuldner hat die Leistung zur rechten Zeit, am rechten Ort und in vertragsgemäßer Weise unter Beachtung von Treu und Glauben zu erbringen. Die Zeit der Leistung (Fälligkeit) richtet sich gemäß Abs. 1 BGB in erster Linie nach den Vereinbarungen des Vertrags, in zweiter Linie nach den (konkludenten) Umständen und in dritter Linie nach dem Gesetz. Im letzten Fall kann der Gläubiger die Leistung sofort verlangen, der Schuldner muss sie dann auch sofort bewirken. Der Ort der Leistung bestimmt sich ebenfalls nach der erwähnten Rangfolge; gesetzlicher Erfüllungsort ist der Wohn- oder Geschäftssitz des Schuldners (BGB). Da der Gläubiger die Leistung beim Schuldner abholen muss, hat sich hierfür der Begriff der Holschuld entwickelt. Im Gegensatz zur Holschuld steht die Bringschuld, dazwischen liegt die so genannte Schickschuld. Geldschulden sind nach Abs. 1 BGB Schickschulden mit der Folge, dass der Schuldner Gefahr und Kosten der Geldzahlung trägt. Für Handelsgeschäfte bestehen insbesondere hinsichtlich Fälligkeit, Leistungsort und Gefahrtragung so genannte Handelsbräuche mit abweichenden Regelungen. Gesamtschuldner, Mitschuldner. Ist nicht nur eine Vertragspartei zur Leistung aus einem Vertrag verpflichtet, sondern mindestens zwei Parteien, wird von Gesamtschuldnern gesprochen. Dazu wird in BGB geklärt, dass zwar jeder der Schuldner die ganze Leistung zu bewirken verpflichtet ist, der Gläubiger sie jedoch nur einmal verlangen darf. Dabei hat der Gläubiger das Recht, die Leistung nach seinem Belieben von jedem der Schuldner ganz oder teilweise zu fordern. Bis zur Erfüllung der vollständigen Leistung bleiben sämtliche Gesamtschuldner verpflichtet. Zwischen den Gesamtschuldnern besteht eine enge, planmäßige rechtliche Zweckgemeinschaft, die gemeinsam für die Tilgung der einheitlichen Schuld einsteht. Die Mithaftenden sind ebenfalls Hauptschuldner und stehen für eine eigene Verbindlichkeit ein. Allerdings sind Mithaftende keine gleichberechtigten Darlehensnehmer und stehen deshalb mit diesen nicht auf einer Stufe. Erlöschen des Schuldverhältnisses. Nach BGB erlischt das Schuldverhältnis, wenn die geschuldete Leistung an den Gläubiger bewirkt ist. Die geschuldete Leistung kann nach der Art des Schuldverhältnisses sehr unterschiedlich sein (Geldzahlung, Tilgung, Eigentumsverschaffung u.a.). Bei dieser Erfüllung kommt es übrigens gesetzlich nicht darauf an, ob der Schuldner oder jemand anders die Leistung erfüllt (Abs. 1 Satz 1 BGB). Auch die Ehefrau, der Bruder, ein Kreditinstitut oder ein Schuldner des Schuldners können etwa den Kaufpreis bezahlen; dafür ist weder die Einwilligung des Schuldners noch die des Gläubigers erforderlich (§ 267 Abs. 1 Satz 2 BGB). In der Regel wird der Schuldner selbst erfüllen, der dann die Leistung schuldbefreiend erbringt. Schuldbefreiend bedeutet, dass er durch die vertragsgemäße Leistung von seinen Vertragspflichten als Schuldner endgültig befreit wird. Hat jedoch der Schuldner „in Person“ zu leisten, so ist eine Erfüllung durch Dritte ausgeschlossen. Ein weiterer Grund für das Erlöschen des Schuldverhältnisses sind der Schuldenerlass (Abs. 1 BGB) oder der Rücktritt, bei dem die bereits erbrachten Leistungen gegenseitig zurückzugewähren sind (Satz 1 BGB). Abgrenzungen. Der Begriff Debitor ist im Rechnungswesen begrenzt auf einen Forderungsschuldner aus Lieferungen und Leistungen, dessen Vertragspartner Kreditor genannt wird. Debitorenversicherungen sichern dem Lieferanten das Risiko des Ausfalls von Forderungen aus Lieferungen und Leistungen ab. Im Kreditwesen wird der Schuldner zumeist als Kreditnehmer bezeichnet. Umgekehrt ist das Verhältnis im Einlagengeschäft der Kreditinstitute, denn hier ist der Kunde Gläubiger und die Bank Schuldner der Geldanlage. Im Speziellen Rechtssinne ist der Schuldner auch Partei bei einer Zwangsvollstreckung, gegen die vollstreckt wird (vgl. ZPO). Schweiz. Im schweizerischen Sprachgebrauch hat der Begriff „Schuldner“ in einer Betreibung lediglich die Bedeutung „Betriebener“. Semiten. Als Semiten werden (historische) Völker bezeichnet, die eine semitische Sprache sprechen. Der deutsche Historiker August Ludwig von Schlözer prägte 1781 den Begriff mit Bezug auf die Völkertafel der Genesis – siehe dazu Semitismus. Die Bibel führt die Abstammung Abrahams auf Sem, den Sohn Noachs, zurück. In Anlehnung daran bezeichnete man in biblischer Zeit alle Völker des Nahen Ostens, die sich als Nachkommen Abrahams betrachteten, als „Söhne des Sem“. Demnach gehören zu den Semiten die Amharen, Tigrinya, Araber, Hyksos, Malteser, Minäer, Sabäer, Amoriter, Ammoniter, Akkader/Babylonier/Assyrer/Aramäer, Hebräer, Kanaaniter, Moabiter, Nabatäer, Phönizier und Samaritaner. Die Semiten im sprachwissenschaftlichen Sinne sind mit den Nachkommen Sems der Bibel nicht völlig identisch. So sprachen die Kanaaniter zwar eine semitische Sprache, der biblische Stammvater Kanaan wird jedoch als Sohn des Noach-Sohnes Ham beschrieben. Heutige semitisch-sprachige Völker sind z. B. Araber, Hebräer, Aramäer und Malteser. Der Sammelbegriff „Semiten“ wird aber eher in Bezug auf die historischen Völker verwendet. Verbreitung. Im Altertum bewohnten Völker, die semitische Sprachen sprachen, die arabische Halbinsel. Völkerwanderungen brachten sie nach Mesopotamien, Syrien und Palästina, Ägypten, Eritrea, Äthiopien und mit der phönizischen Kolonisierung bis an die Küsten des westlichen Mittelmeers. Es wird vermutet, dass sie ursprünglich aus Nordost-Afrika kamen, wo auch die anderen Zweige der afroasiatischen Sprachfamilie zu finden sind. Semiten als rassistischer Begriff. In verschiedenen inzwischen von der Wissenschaft abgelehnten Rassentheorien wurden die Juden als „Semiten“ bezeichnet, weil die Hebräer ein semitisches Volk seien. Um die Judenfeindlichkeit „wissenschaftlich“ (und nicht mehr nur religiös) zu untermauern, wurden die "Semiten" zu einer „minderwertigen Rasse“ erklärt, die zu keiner eigenständigen Kultur imstande sei. Hieraus entstand auch die Bezeichnung Antisemitismus (Judenfeinde bezeichneten sich selbst als "Antisemiten"). Antisemiten wie Eugen Dühring gingen so weit, die Juden als schlimmste Sorte der Semiten zu bezeichnen, die selbst von den anderen Semiten (Arabern) gehasst werden. Gleichzeitig gingen die Antisemiten davon aus, dass die Juden keine reinen Semiten seien, sondern laut Theodor Fritsch eine Mischrasse hauptsächlich aus der „semitischen (orientalischen, arabischen) Rasse“ und der „vorderasiatischen (armenoiden, assyroiden) Rasse“, wobei 90 % der Juden eher letzterer Gruppe zuzuordnen seien. Gegen Ende der Naziherrschaft wurde die Selbstbezeichnung „Antisemiten“ – auch in Hinblick auf arabische Verbündete – abgeschafft und z. B. durch „Judengegner“ ersetzt. Schon Dühring wollte im 19. Jahrhundert den Antisemitismus lieber als „Antihebraismus“ verstanden wissen. Smalltalk (Programmiersprache). Smalltalk ist ein Sammelbegriff einerseits für eine dynamische, im Original untypisierte objektorientierte Programmiersprache und andererseits für eine vollständige Entwicklungsumgebung, die in den 1970er Jahren am Xerox PARC Forschungszentrum durch Alan Kay, Dan Ingalls, Adele Goldberg und andere entwickelt wurde. Sie wurde allgemein unter dem Namen Smalltalk-80 freigegeben und hat die Entwicklung vieler späterer Programmiersprachen, wie etwa Objective-C, Java und Ruby beeinflusst. Smalltalk wurde von Lisp mit seiner automatischen Speicherbereinigung und Simula mit seinem Klassen-Konzept beeinflusst und gilt neben Simula-67 als eine der ersten objektorientierten Programmiersprachen. Smalltalk ist im Gegensatz zu Sprachen wie C++ oder Java eine rein objektorientierte Programmiersprache, das heißt Daten wie "Integer, Character" oder Ähnliche, die in anderen objektorientierten Sprachen zum Teil als primitive Datentypen repräsentiert werden, sind in Smalltalk ebenfalls über Objekte und zugehörige Klassen realisiert. Die Smalltalk-Entwicklungsumgebung enthielt viele Ideen, die später mit der Macintosh- und GEM- und dann später auch Windows-Benutzeroberfläche verbreitet wurden. Verwendet wurde ein Grafikbildschirm mit verschiebbaren Fenstern, Aufklappmenüs und Schriften von verschiedener Größe. Eine Maus mit drei Tasten – rot, blau und gelb – diente erstmals als zusätzliches Eingabegerät. Das Model-View-Controller-Konzept (MVC) spielte in der Smalltalk-80-Entwicklungsumgebung eine wesentliche Rolle. 1970–1980. In diese Zeit fällt die Entwicklung der ersten Versionen von Smalltalk-71, Smalltalk-72, Smalltalk-74 und Smalltalk-76 bis hin zum heute verbreiteten Standard Smalltalk-80 am Forschungszentrum Xerox PARC. 1980–1990. Die Programmierung mit Klassenbrowser und die Verwendung einer virtuellen Maschine zur Ausführung stellte von Anfang an gewisse Mindestanforderungen an die Hardware. Dies geschah zu einer Zeit in der die erschwinglichen Computer nicht über grafische Benutzeroberflächen verfügten und die Rechenleistung nicht für eine solche ausreichte. Smalltalk war seiner Zeit voraus und konnte zu Beginn nur auf Workstations effektiv eingesetzt werden. Im Ergebnis gab es daher nur wenige Smalltalk-Entwickler – dafür umso mehr C-Programmierer. Mit dem Aufkommen der grafischen Benutzeroberflächen im Mikrocomputerbereich entstand das objektorientierte C++ und da die meisten Entwickler C bereits kannten, konnte sich C++ sehr schnell verbreiten und Smalltalk blieb eine Randerscheinung. Zudem geschah dies in einer Zeit, in der Performance sehr wichtig war und Smalltalk auf hohe Ausführungsgeschwindigkeiten keinen besonderen Wert legte (Alan Kay: „It's still fast enough for our neurons“). 1990–2000. Anfang und Mitte der 1990er Jahre wurde Smalltalk in vielen Bereichen populär, in denen es auf die Beherrschung von Komplexität ankam (z. B. bei Expertensystemen). Verschiedene große Anbieter wie IBM begannen, Smalltalk stark zu unterstützen und in Großkundenprojekten einzusetzen. Es gab eine sprunghafte Zunahme verschiedener Implementierungen von Smalltalk. Mit dem Internet-Boom und dem davon profitierenden Java büßte Smalltalk Ende der 1990er Jahre seine gerade aufkommende Popularität jedoch wieder ein. In Java wurden einige Konzepte von Smalltalk (wie z. B. die virtuelle Maschine und der Garbage Collector) übernommen. Die Syntax war jedoch wieder an C angelehnt. Auch kamen erneut nicht-objektorientierte Mittel zum Einsatz, wie die Vermischung der Objektorientierung mit einfachen Datentypen und imperative Strukturen, geringe Selbstbezüglichkeit und der Edit-Compile-Test-Debug-Zyklus mit Quellcode als reiner Textdatei etc. Java bot dafür Normierung, Aufstiegspfade für C-Programmierer und nicht zuletzt Allianzmöglichkeiten gegen die MS-Windows-Dominanz. Zudem wurde es von Sun Microsystems kostenlos zur Verfügung gestellt. Das Ende des kurzen Smalltalk-Booms wurde durch den Niedergang der Firma ParcPlace unterstrichen, die als Ausgründung des Xerox PARC mit VisualWorks (heute bei Cincom) den direkten Nachfolger der Originalimplementierung anbot, der die damals mächtigste Smalltalk-Entwicklungsumgebung darstellte: Mit VisualWorks geschaffene Anwendungen liefen bereits 1991 bitkompatibel (durch VM) auf Windows, Mac OS, Solaris (und anderen Unix-Systemen) und konnte ab 1994 deren verschiedene Benutzeroberflächen mit „Camelon View“ unabhängig vom Laufzeitsystem simulieren. Die aufkommende Dominanz von Microsoft Windows entwertete jedoch diese und andere interessante Eigenschaften, da sich die Frage nach der Plattformunabhängigkeit dadurch für immer weniger Anwender stellte. Die Wettbewerber von Microsoft suchten stattdessen nach Mitteln, die MS-Windows-Dominanz zurückzudrängen. Nachdem sich bedeutende Firmen wie IBM und Sun für Java entschieden hatten und dafür Marketing betrieben, gewannen Java und C++ klar die Oberhand bezüglich kommerzieller Unterstützung, was zur heutigen Situation führte. Obwohl Smalltalk sehr leicht zu erlernen (nur wenige Sprachkonstrukte) und zu debuggen ist (selten ist eine zeitaufwendige explizite Neukompilierung und -erstellung sowie ein Neustart des Programms erforderlich) und das Problem mit der Ausführungsgeschwindigkeit – zum Teil durch effektivere Implementierungen, zum Teil durch leistungsfähigere Hardware – inzwischen gelöst ist, wird Smalltalk heute noch immer in wenigen Bereichen eingesetzt. Einer der Gründe hierfür kann in der mangelnden Einheitlichkeit der Programmbibliotheken verschiedener Implementationen gesehen werden, von denen bisher keine eine „natürliche Dominanz“ (wie die von Sun Microsystems für Java) entwickelt hat. Nachdem ParcPlace als Player ausgeschieden war, IBM sein Smalltalk-Engagement zugunsten von Java eingestellt hatte und verschiedene zunächst erfolgversprechende Smalltalk-Implementierungen eingestellt worden waren (z. B. Dolphin Smalltalk), gab es nur noch wenige überzeugte Anhänger, die an einen großen Durchbruch glaubten. Smalltalk blieb weiter ein Insiderthema. Seit 2000. In den letzten Jahren gibt es mit der Etablierung von freien Implementierungen eine Art Renaissance von Smalltalk. Insbesondere das von ursprünglichen Smalltalk-Erfindern entwickelte plattformübergreifende Squeak und das darauf aufbauende "Croquet" erhalten wachsende Unterstützung aus Wissenschaft, IT-Industrie und einer großen freien Entwickler-Community. Squeak wurde erstmals im September 1996 als erstes freies Smalltalk veröffentlicht. Dan Ingalls, Ted Kaehler, John Maloney, Scott Wallace und Alan Kay schreiben, dass hier geglückt sei, was 1980 fehlschlug. Alan Kays Konzept einer interaktiven, computer- und netzwerkvermittelten Interaktion, das Dynabook, ist Bestandteil in der Softwareentwicklung für das "One Laptop per Child"-Projekt. Standardmäßig werden auf den Schülerlaptops "EToys", auf Squeak basierende Bausteine, installiert. Mit Croquet wird, mit dem Hintergrund des heutigen Wissensstands, erneut eine Antwort auf die generelle Frage nach der optimalen Computer-Mensch-Schnittstelle gesucht. In den 1980er Jahren war dies die – erstmals mit Smalltalk implementierte – zweidimensionale grafische Benutzeroberfläche, die ihre Verbreitung durch Apple und Microsoft fand. Heute sehen Alan Kay und andere darin eine dreidimensionale, plattformunabhängige, vernetzte Multibenutzerumgebung, in der Objekte fließend zwischen den verschiedenen teilnehmenden Rechnern ausgetauscht werden können. Die dazu notwendigen Eigenschaften besitzt nach Auffassung der Mitglieder des 2001 gestarteten und 2007 veröffentlichten Croquet-Projektes speziell Squeak Smalltalk, welches das ursprünglich zur Implementierung vorgesehene Java daher ersetzte. 2008 startete das Pharo-Projekt, das auf der Basis von Squeak eine freie, stabile Smalltalk-Plattform bietet, um weitere Anwendungsbereiche mit freiem Smalltalk zu erreichen. Am 24. Oktober 2013 wurde VisualWorks 7.10 veröffentlicht, die inzwischen 12. Aktualisierung seit der Übernahme durch Cincom. Typisierte Variante von Smalltalk. Smalltalk verfügt nicht über ein statisches Typsystem. Insbesondere findet man dort keine Typdefinitionen und Typannotationen an Variablen oder für die Ein-/Ausgabeparameter von Methoden. Demgemäß finden auch keinerlei Typprüfungen bei Wertzuweisungen statt, wie dies für typisierte Sprachen üblich ist, und zwar weder dynamisch (zur Laufzeit) noch statisch (zur Übersetzungszeit). Die Klassenhierarchie von Smalltalk darf nicht mit einer Subtypenhierarchie verwechselt werden – auch wenn moderne objektorientierte Programmiersprachen oftmals Typ- und Klassendefinitionen als einen einzigen Vorgang betrachten, handelt es sich hier um unterschiedliche Konzepte und auch unterschiedliche Komponenten des Übersetzers und des Laufzeitsystems einer Sprache. Smalltalk verfügt hinsichtlich der Bildung und Prüfung von Typen über keine solche Komponente. Es gibt allerdings Varianten von Smalltalk, die über ein statisches Typsystem verfügen, so etwa Strongtalk. Strongtalk ermöglicht die klassenunabhängige Definition von Typen in einer eigenen Typhierarchie und in der Folge auch die Annotation solcher Typen an Variablen und Methoden. Ausdrücke (Expressions). Das heißt man sendet einem Objekt eine Nachricht. Das Objekt antwortet mit einem Antwortobjekt. Ausdrücke müssen mit einem Punkt getrennt werden. Es gibt drei Arten von Nachrichten, unäre Nachrichten, binäre Nachrichten und Schlüsselwort-Nachrichten. Die meisten arithmetischen Operationen sind in Smalltalk als binäre Nachrichten implementiert. Eine Schlüsselwort-Nachricht hat eine oder mehrere Parameter, wobei vor den Parametern Doppelpunkte stehen. Diese Schlüsselwort-Nachricht heißt codice_4 und hat einen Parameter codice_5. Unäre Nachrichten vor binären Nachrichten vor Schlüsselwort-Nachrichten. Bei „gleichrangigen“ Nachrichten erfolgt die Auswertung von links nach rechts. Zuweisungen. Zugewiesen wird in Smalltalk nur die Referenz auf ein Objekt. Blöcke. Blöcke sind Sequenzen von Zuweisungsanweisungen und Ausdrücken. Sie werden durch eckige Klammern eingeschlossen. Blöcke können parameterlos sein oder auch Parameter aufweisen. blockZwei:= [:einParameter | Transcript show: einParameter] Blöcke sind First Class Objekte. Sie können als Argument übergeben werden, oder als Rückgabewert eines Methodenaufrufs oder einer Blockevaluierung zurückgeliefert werden. Blöcke halten eine Referenz auf ihren Kontext, so dass bei deren Ausführung umgebende Variablen erreichbar sind (entsprechend ihrer statischen Sichtbarkeit). Blöcke entsprechen damit den Closures, wie sie aus vielen funktionalen Sprachen (z. B. Scheme) bekannt sind. Kontrollstrukturen. Die Kontrollstrukturen werden mit booleschen Ausdrücken und Blöcken implementiert. Ein boolescher Ausdruck liefert nach der Auswertung ein boolesches Objekt. Diesem wird dann eine Message zugesandt, die als Parameter einen ausführbaren Block hat. Der Programmtext sieht aber ähnlich aus, wie bei anderen Programmiersprachen auch, so dass man wie dort einfach gewisse Kontrollstrukturen als gegeben anwenden kann. IF-Anweisung. aBoolean ifTrue: ["ein Block mit Anweisungen"] (einAusdruck) ifTrue: ["ein Block mit Anweisungen"] Schleifen. 1 to: 10 do: [:i | Transcript show: i printString]. ["ein Block, der ein boolesches Objekt zurückgibt"] whileTrue. ["ein Block, der ein boolesches Objekt zurückgibt"] whileFalse. ["ein Block, der ein boolesches Objekt zurückgibt"] whileTrue: ["Block mit Schleifenrumpf"]. ["ein Block, der ein boolesches Objekt zurückgibt"] whileFalse: ["Block mit Schleifenrumpf"] Collections. Die Smalltalkumgebungen sind mit einer großen Klassenbibliothek ausgestattet. Ein wichtiger allgemeiner Objekttyp (Klasse) sind die "Collections", d. h. Sammlungen von Objekten. Die Klasse "Collection" steht an der Wurzel einer ganzen Hierarchie von Klassen. Eine wichtige Arbeit, die man mit einem Collection-Objekt durchführen kann, ist für jedes Element der Collection einen Block von Anweisungen auszuführen. Andere Programmiersprachen brauchen hierfür spezielle Konstrukte (Iteratoren). aCollection do: [:einElement | einElement auszuführendeArbeitFürDiesesElement] Programmbeispiel. codice_7 ist eine in jeder Smalltalkumgebung vordefinierte globale Variable, die ein Objekt enthält, auf dem man Dinge protokollieren kann (ein Ausgabefenster). gibt den Text „Hello World“ vertikal aus. 'Hello World' ist ein String (Zeichenkette). Die Klasse dieses Objektes ist eine Unterklasse von Collection. Ein String ist also eine Collection (= Sammlung) von Zeichen. Indem wir dem Objekt String die Nachricht senden, gehen wir alle Buchstaben (Elemente) des Strings einzeln durch. Auch das "Dictionary" ist eine Unterklasse von "Collection". Diese Datenstruktur entspricht dem assoziativen Array in anderen Programmiersprachen. Schreibweise. Smalltalk wird mit kleinem "t" geschrieben. Häufig findet sich die falsche Schreibweise "SmallTalk", selbst auf den offiziellen IBM-Webseiten, wenn auch nicht durchgehend. Silvio Gesell. Johann Silvio Gesell (* 17. März 1862 in Sankt Vith, damals Preußen, heute Belgien; † 11. März 1930 in der Obstbau-Genossenschaft Eden bei Oranienburg) war ein deutscher Kaufmann, Finanztheoretiker, Sozialreformer und Begründer der Freiwirtschaftslehre. Leben. Silvio Gesell war ein Sohn des Ehepaares Ernst und Mathilde Gesell. Seine Mutter war wallonischer Herkunft, sein Vater, ein Sekretär des damals preußischen Kreises Malmedy, stammte aus Aachen. Silvio Gesell war das siebte von neun Kindern. Nach dem Besuch der Bürgerschule in Sankt Vith wechselte Gesell zum Gymnasium in Malmedy. Er musste schon früh für seinen Lebensunterhalt sorgen, verzichtete deshalb auf ein Studium und trat in den Dienst der deutschen Reichspost ein. Die Beamtenlaufbahn lag ihm jedoch nicht. Er beschloss, bei seinen älteren Brüdern in Berlin den Beruf eines Kaufmanns zu erlernen. Danach lebte er zwei Jahre als Korrespondent in Málaga (Spanien). Widerwillig kehrte er nach Berlin zurück, um den Militärdienst abzuleisten. Anschließend arbeitete er als kaufmännischer Angestellter in Braunschweig und Hamburg. Die „Casa Gesell“ in Buenos Aires Im Jahre 1887 ging Gesell nach Buenos Aires (Argentinien), wo er sich selbstständig machte und eine Filiale des Berliner Geschäfts eröffnete. Die heftigen Wirtschaftskrisen des Landes, die seine Geschäftstätigkeit stark beeinflussten, regten ihn zum Nachdenken über die strukturelle Problematik des Geldwesens an. 1891 veröffentlichte Gesell seine erste währungstheoretische Schrift: "Die Reformation des Münzwesens als Brücke zum sozialen Staat". Es folgten "Nervus rerum" und "Die Verstaatlichung des Geldes". Nachdem er 1890 sein argentinisches Geschäft seinem Bruder übereignet hatte, kehrte er 1892 nach Europa zurück. Nach einem kurzen Zwischenaufenthalt in Deutschland ließ sich Gesell in Les Hauts-Geneveys im Kanton Neuenburg in der Schweiz nieder, wo er einen Bauernhof erworben hatte. Neben seiner Arbeit in der Landwirtschaft widmete er sich weiterhin volkswirtschaftlichen Studien und der Schriftstellerei. Der von ihm 1900 gegründeten Zeitschrift "Die Geld- und Bodenreform" war kein großer Erfolg beschieden; sie musste aus finanziellen Gründen bereits 1903 wieder eingestellt werden. Von 1907 bis 1911 lebte Gesell wieder in Argentinien. Danach siedelte er nach Deutschland über und wählte als Wohnsitz die vegetarisch ausgerichtete, von Franz Oppenheimer mitbegründete Obstbaugenossenschaft Eden in Oranienburg nördlich von Berlin. Hier gründete er gemeinsam mit Georg Blumenthal die Zeitschrift "Der Physiokrat". Im März 1916, während des Ersten Weltkriegs, wurde sie von der Kriegszensur jedoch endgültig verboten. Danach verließ Gesell Deutschland und begab sich wieder auf seinen Bauernhof in der Schweiz. 1916 erschien sein Hauptwerk "Die natürliche Wirtschaftsordnung durch Freiland und Freigeld". Durch sein Geschäft hatte Gesell ein gewisses Vermögen erworben, mit dem er so zu disponieren vermochte, dass Krisen ihm nicht in größerem Umfang schadeten. Außerdem wurde er von Freunden unterstützt, besonders von Paul Klemm in Siebenbürgen/Rumänien, einem wohlhabenden Holzfabrikanten, der zuweilen die Druckkosten für Gesells Veröffentlichungen bezahlte, unter anderem für die "Natürliche Wirtschaftsordnung" (1920). Im April 1919 wurde er von Ernst Niekisch in die Revolutionsregierung der Münchner Räterepublik nach München gerufen. Diese bot ihm zunächst einen Sitz in der sogenannten Sozialisierungskommission an und ernannte ihn kurze Zeit später zu ihrem „Volksbeauftragten für Finanzen“ mit Sitz in München. In dieser Zeit arbeitete er mit dem Jura-Professor Karl Polenske von der Universität Greifswald sowie mit dem schweizerischen Arzt und Mathematiker Theophil Christen zusammen. Seine Amtszeit dauerte allerdings nur sieben Tage. Nach dem blutigen Ende der Räterepublik wurde Gesell inhaftiert. Dort teilte er die Zelle mit dem Dichter Gusto Gräser, dessen Revolutionsschrift er finanzierte. Nach mehrmonatiger Haft wurde er im Juli 1919 in einem Hochverratsprozess vor einem Münchner Standgericht aufgrund seiner Selbstverteidigungsrede freigesprochen. Die Prozesskosten gingen zu Lasten der Staatskasse. Allerdings wurde er, zusammen mit Gräser und anderen, aus Bayern ausgewiesen. Wegen seiner Beteiligung an der Münchner Räterepublik verweigerten ihm als „unerwünschtem Ausländer“ die Schweizer Behörden die Rückkehr auf seinen Bauernhof. Daraufhin zog sich Gesell zunächst nach Rehbrücke bei Berlin, später wieder nach Oranienburg-Eden zurück. 1924 folgte nochmals ein Aufenthalt in Argentinien. Ab 1927 wohnte er wieder in Eden, wo er am 11. März 1930 einer Lungenentzündung erlag und einige Tage später im kleinen Kreis beigesetzt wurde. Die Grabrede hielt Bertha Heimberg. In einem Nachruf des Berliner Anarchisten Erich Mühsam hieß es: „Die Zeit revolutionärer Verwirklichung wird dem Toten vieles abzubitten haben, was die Zeit dogmatischer Unbelehrbarkeit an dem Lebenden und damit zugleich an sich selbst gesündigt hat. Der Weg der Menschheit zur anständigen Gemeinschaft wird mit mancher Fuhre Erde aus dem Garten Silvio Gesells gestampft sein.“ Silvio Gesell war verheiratet mit Anna, geb. Böttger und hatte mit ihr vier Kinder. Aus seiner Verbindung mit Jenny Blumenthal, geb. Führer, ging 1915 Hans-Joachim Führer hervor. Weitere Beziehungen hatte Gesell mit Wanda Tomys und Grete Siermann. Nach Silvio Gesell ist das argentinische Seebad Villa Gesell am Atlantischen Ozean benannt, das sein Sohn Carlos nördlich von Mar del Plata gründete und das über 20.000 ständige Einwohner zählt. Persönliche Überzeugungen. Silvio Gesell vertrat eine weltbürgerliche Einstellung. Nach seiner Überzeugung sollte die Erde allen Menschen gleichermaßen gehören, ohne Unterschied von Rasse, Geschlecht, Stand, Vermögen, Religion, Alter oder Leistungsfähigkeit. Landesgrenzen müssten überflüssig werden. Gesell war ethischer Vegetarier, der aus Achtung vor Tieren das Fleischessen ablehnte. Gesell baute seine volkswirtschaftlichen Überlegungen auf den "Eigennutz" des Menschen als gesundem, natürlichem Antrieb, der es ihm erlaube, seine Bedürfnisse zu verfolgen und wirtschaftlich tätig zu sein. Dieser Gegebenheit müsse auch eine Wirtschaftsordnung gerecht werden, sonst sei sie zum Scheitern verurteilt. Deshalb nannte Gesell die von ihm entworfene Wirtschaftsordnung „natürlich“. Mit dieser Haltung stellte er sich bewusst in Gegensatz zu Karl Marx, der eine Änderung der gesellschaftlichen Verhältnisse forderte. In Berücksichtigung des Eigennutzes trat Gesell ein für freien, fairen Wettbewerb mit gleichen Chancen für alle. Dazu gehörte für ihn der Abbau aller ererbten und gesetzlichen Vorrechte. Jeder sollte einzig seine persönlichen Fähigkeiten einsetzen, damit aber auch sein Auskommen finden können. In der von ihm angestrebten „natürlichen Wirtschaftsordnung“ würde der freie Wettbewerb den Begabtesten gerechterweise das höchste Einkommen sichern, ohne Verfälschung durch Zins und Bodenrente. Ebenso würde sie den weniger Befähigten ein ausreichendes Auskommen gewähren, weil ihnen keine Abgaben für Zins und Bodenrente auferlegt sein würden. Ein gerechter Ausgleich von Arm und Reich wäre möglich. Daneben stünden für die Unterstützung von Bedürftigen genügend Mittel zur Verfügung, weil das erhöhte Durchschnittseinkommen jedem erlaube, für sie das Nötige aufzuwenden. Beobachtungen in Argentinien. Nach dem Sturz des Diktators Juan Manuel de Rosas trat 1853 eine liberale Verfassung in Kraft, die das Land auch für Einwanderer öffnete. Die Wirtschaft begann zu blühen, Schafwolle wurde zum wichtigsten Exportartikel. Ein Rückgang der Weltkonjunktur Mitte der 1870er Jahre und die Einführung einer goldgedeckten Währung führte um 1890 zu einer Wirtschaftskrise. Die exportorientierte Wirtschaft wurde durch die Golddeckungsvorschriften gefesselt. Es entwickelten sich die typischen Zeichen einer deflationären Abwärtsspirale: Abnehmende Geldmenge → Sinkende Löhne → Geldhortung (Konsumrückgang) → Warenstau → Unternehmenspleiten → Massenentlassungen → Massenarbeitslosigkeit. Der Versuch, durch Ausweitung der Geldmenge mit einer Inflation dem wegen des allgemein sinkenden Preisniveaus steigenden Geldwert gegenzusteuern, scheiterte, weil die Menschen auch das neue Geld horteten. Das Warenangebot blieb überhöht, die Preise sanken wieder schnell auf das alte Niveau. Langfristige Preiserhöhungen hätten das Sparen unattraktiver gemacht, dadurch die Menschen zu mehr Konsum getrieben, und die heimische Wirtschaft wieder angekurbelt. Geld und Freigeld. Unter dem Einfluss der wirtschaftlichen Krisen Argentiniens auf die eigene Geschäftstätigkeit stellte Gesell die These auf, dass eine gleichmäßige Umlaufgeschwindigkeit des Geldes für eine krisenfreie Wirtschaft von hoher Bedeutung sei. Gesell forderte, dass Geld der Wirtschaft nur als Tauschmittel dienen, sie aber nicht als Hortungsmittel lähmen darf. Alles in der Natur unterliege dem rhythmischen Wechsel von Werden und Vergehen, nur das Geld scheine der Vergänglichkeit alles Irdischen entzogen. Da das Geld im Gegensatz zu Waren und menschlicher Arbeitskraft weder „rostet“ noch „verdirbt“, könne ein Geldbesitzer sein Geld nach Gesells Auffassung ohne Nachteil zurückhalten, also „horten“. Er könne warten, bis die Waren für ihn billig oder die Zinsen hoch genug seien. Mit dem Zuwarten störe er den Wirtschaftskreislauf. Händler würden gezwungen, ihre Preise zu senken. In der Folge müssten sie ihre Kosten durch Kredite decken. Diesen Bedarf lässt sich der Geldbesitzer nach Gesells Vorstellungen durch den Zins belohnen, ein Einkommen, für das er keine Leistung erbringe. Die Zinseinnahme verleihe er erneut, so dass seine Zinseinnahmen ständig wachsen (Zinseszins). So würden nach Gesell „leistungslos“ Reichtümer dort angehäuft, wo sie nicht benötigt werden. Im Gegenzug dazu würde der arbeitenden Bevölkerung der ihr zustehende volle Arbeitsertrag vorenthalten. Durch die Marktüberlegenheit des Geldbesitzers sah Gesell das freie Kräftespiel zwischen Verkäufer und Käufer grundlegend gestört. Daraus zog er den Schluss, Geld solle in seinem Wesen der Natur entsprechen und natürlichen Dingen nachgebildet werden. Das Geld in der Hand eines Geldbesitzers müsse wie menschliche Arbeitskraft und Waren mit der Zeit an Wert einbüßen; dann habe es auf dem Markt keine Vormachtstellung mehr. Geld wäre einem ständigen Weitergabedruck unterstellt. Jeder Geldbesitzer werde sein Geld nicht zu lange zurückhalten, sondern damit Waren oder Dienstleistungen kaufen, laufende Rechnungen begleichen oder es ohne Zinsforderung verleihen, um so der Wertminderung zu entgehen. So wirke Geld als Diener des Menschen und nicht als dessen Herrscher. Dieses Geld nannte Gesell „Freigeld“. Es wird auch als Umlaufgesichertes Geld bezeichnet oder – mit dem von Otto Heyn geprägten Begriff – "Schwundgeld" genannt, was manchmal als abwertender Begriff benutzt wird. Die Ausgabe des Freigeldes soll dem Staat vorbehalten sein, der hierfür ein Währungsamt einzurichten hat. Bei Inflationsgefahr soll das Währungsamt Freigeld einziehen, bei Deflationsgefahr solches ausgeben. Damit wäre die schädliche risikofreie Hortungsfähigkeit des Geldes überwunden. Zur Verwirklichung seiner Idee schlug er den Wechsel vom damals noch vorherrschenden Münzgeld zu Papiergeld vor, an dem sich die erforderlichen Vermerke über Wertminderung oder Gültigkeitsverfall eines Geldscheins vornehmen lassen. Wegen seiner Wertminderung würde Freigeld auch bei sinkenden Preisen (Deflation) und niedrigen Zinssätzen nicht gehortet werden. Gesell glaubte, auf diese Weise käme es zu einem starken und dauerhaften Kapitalangebot für die Wirtschaft. Er wollte so „den Zins in einem Meer von Kapital ersäufen“, wie er sich ausdrückte. Durch den gesicherten Umlauf würde Freigeld der Wirtschaft Krisen ersparen und durch das Absinken des allgemeinen Zinsniveaus zugleich die soziale Frage lösen. Geldwert, Geldmenge und Geldumlauf. Oberstes Ziel Gesells war eine Wirtschaft ohne störende Konjunkturschwankungen und eine gerechte soziale Ordnung. Im Hinblick darauf forderte Silvio Gesell auch einen stabilen Geldwert, verbunden mit freien Wechselkursen und Aufhebung der Golddeckung. Dies bedeutet die Lösung der Geldmenge von den Goldvorräten der Zentralbanken wie auch die Aufhebung ihrer Einlösungspflicht von Geld gegen Gold. Erst durch den durch Freigeld gesicherten stetigen Geldumlauf werde es möglich, die Menge des Geldes so zu steuern, dass seine Kaufkraft und damit auch die Preise stabil bleiben. Der Zentralbank, in Deutschland damals die Reichsbank, solle das Recht zur Ausgabe von Banknoten entzogen und einem unabhängigen "Währungsamt" übertragen werden. Zum Steuern der Geldmenge genügten ihm lediglich eine Druckerpresse zum Druck von Banknoten bei Geldmangel und ein Ofen zum Verbrennen derselben bei Geldüberschuss. Es gäbe keine massiven Schwankungen in der Wirtschaft und keine störenden Deflationen und Inflationen mehr. Auch die sozialen Unruhen durch hohe Arbeitslosigkeit würden, laut Gesell, dauerhaft beseitigt. Sein Steuersystem beruhte auf der Zeitfaktor-Ökonomie. In Ergänzung zu flexiblen Wechselkursen schlug Gesell auch die Bildung einer internationalen Zahlungsvereinigung "(Internationale Valuta-Assoziation, IVA)" und die Einführung einer internationalen Währung mit Umlaufsicherung vor. Damit wollte er den internationalen Zahlungsverkehr erleichtern und ihn von bestehenden Länderwährungen unabhängig machen. Urzins. Gesell behauptete, einen allen Zinsforderungen zugrunde liegenden Zinsanteil gefunden zu haben, den er "Urzins" nannte, einen "Mehrwert des Geldes". Den Urzins begründete Gesell ebenfalls mit der Überlegenheit des Geldes über Arbeitskraft und Waren. Er sei eine unvermeidliche Begleiterscheinung einer Wirtschaft mit Geldgebrauch. Der Urzins sei es, der dem Geldbesitzer als Kreditgeber (Gläubiger) einen leistungslos zufallenden Anteil am Arbeitsertrag seines Kreditnehmers (Schuldners) und seiner Kunden zuführe und dadurch zu großer sozialer Ungerechtigkeit führe. Unter den Urzins sei über Jahrhunderte hinweg kein Zins je gesunken. Seine Höhe gab er mit zwei bis drei Prozent an. Alle Zinsforderungen sah Gesell als Summe aus "Urzins", "Inflationsausgleich" und "Risikoanteil". Dazu komme, solange die Wirtschaft wächst, ein produktionsbedingter Wachstumsanteil, den er "Darlehenszins auf Sachgütern" nannte. Schließlich fordere die Bank für Kreditvermittlung ein "Vermittlerentgelt". Damit setze sich Zins aus fünf Anteilen zusammen, auch wenn sie in der Praxis nicht einzeln ausgehandelt würden. Könne die Überlegenheit des Geldes auf dem Markt durch die Einführung von Freigeld beseitigt werden, so würde sich nach Gesell der Urzins auf null abbauen und aus sämtlichen Zinsarten verschwinden. Weil durch Freigeld zugleich Inflation und Deflation weitgehend überwunden werden könnten, würde automatisch auch der Inflationsausgleich im Zins wegfallen. Weiterhin ergäben sich aus einem stabileren Wirtschaftsverlauf geringere Kreditrisiken, so dass auch der Risikoanteil im Zins zurückginge. Ohne Wirtschaftswachstum würde schließlich noch der Wachstumsanteil wegfallen, so dass praktisch von einem Nullzins gesprochen werden könne. Das Schrumpfen der Zinshöhe führe zu einer bedeutenden allgemeinen Entlastung der Wirtschaft und der Bevölkerung eines Landes von Zinskosten. Auf der anderen Seite wäre das Anhäufen leistungslos erworbenen Reichtums aus Zinseinnahmen nicht mehr möglich. Stattdessen ergäbe sich ein grundsätzlich größerer Wohlstand der arbeitenden Bevölkerung und eine weitgehende Lösung der sozialen Frage. Mit der Erklärung des Zinsproblems aus dem Urzins als Erscheinung einer Geldwirtschaft stellte sich Silvio Gesell in Gegensatz zu Karl Marx, der den Zins aus den Produktionsverhältnissen der Wirtschaft erklärte. Es entging Gesell jedoch, dass auch sein Darlehenszins ein produktionsbedingter Zinsanteil ist, ein Mehrwert des produktiven Kapitals. Er glaubte, der Darlehenszins könne nach Einführung des Freigeldes völlig zum Verschwinden gebracht werden, weil schließlich das Angebot von Krediten die Nachfrage danach übersteigen und dadurch der Darlehenszins zu null werde. Er verkannte, dass stets neuartige Investitionsbedürfnisse auftreten, die zu neuer Kreditnachfrage führen. Bodenreform. Gesell erkannte auch im Bereich des Bodenrechts die Möglichkeit, leistungslose Einkommen zu beziehen. Diese besteht für die Bodeneigentümer darin, von ihren Pächtern und Mietern Bodenrente zu verlangen. Darüber hinaus würden Großgeldbesitzer, denen leistungslose Einkommen aus Zinsen nach der Einführung von Freigeld beschnitten seien, auf den Aufkauf von Grundstücken ausweichen. Dadurch würden die Grundstückspreise in unermessliche Höhen klettern, sehr zum Nachteil aller Übrigen, weil jeder Mensch zum Leben und Arbeiten auf Boden angewiesen sei. Um auch hier Abhilfe zu schaffen, forderte Gesell, den Boden gegen Entschädigung in öffentliches Eigentum zu überführen, ihn zugleich aber seinen bisherigen Eigentümern gegen Entrichtung einer ständig wiederkehrenden Nutzungsabgabe an den Staat weiterhin zur Nutzung zu überlassen. Die darauf errichteten Gebäude und sonstigen Einrichtungen blieben hingegen weiterhin Privateigentum. Damit würde die Bodenrente der Allgemeinheit zufließen. Handel und Spekulation mit Boden wären unmöglich. Die Höhe der Abgabe solle für jedes Grundstück gesondert in einem Meistbietungsverfahren ermittelt und von Zeit zu Zeit veränderten Verhältnissen angepasst werden. Solchen Boden nannte Gesell „Freiland“. Bei diesen Überlegungen ging Gesell davon aus, dass Boden ein Produkt der Natur und nicht des Menschen ist. Die Erde sollte allen Menschen gleichermaßen gehören. Deshalb durfte es für Gesell an Boden kein privates Eigentum geben, im Gegensatz zu den darauf bestehenden Einrichtungen. Eigentum an Boden sollte allein dem Staat zustehen. Die Einkünfte des Staates aus den laufenden Bodennutzungsabgaben wollte Gesell in voller Höhe als "Mutterrente" an die Mütter verteilt haben gemäß der Zahl ihrer Kinder. Gesell glaubte, der Wert des Bodens und damit die Bodenrente stiegen mit zunehmender Zahl der Bewohner eines Landes und damit zunehmender Nachfrage nach Boden. Mit der Mutterrente verfolgte Gesell das Ziel, Frauen von Männern wirtschaftlich unabhängig zu machen, damit sie aus Liebe und nicht um der Versorgung willen einen Mann heirateten. Zusammen mit dem Wegfall des Urzinses sollte der Wegfall der Bodenrente den Arbeitenden das "Recht auf den vollen Arbeitsertrag" sichern. Bedeutung in der Weimarer Zeit und während des Nationalsozialismus. Gesells Freiwirtschaftslehre fand bereits zu seinen Lebzeiten Anhänger von verschiedenen Seiten. Im Jahre 1919 ließ sich der Nationalsozialist Gottfried Feder von Gesells Freiwirtschaftslehre zur Forderung nach „Brechung der Zinsknechtschaft“ inspirieren, einem der zentralen Programmpunkte der NSDAP. Beider Gemeinsamkeit beschränkte sich allerdings auf ihre Kritik am Zins; ihre Vorgehensweisen unterschieden sich diametral. Feder bezeichnete Gesells Lehre bald als Irrlehre und warf ihm vor, er habe mit den „jüdischen Bluthunden gemeinsame Sache gemacht“. Zwei Jahre nach Gesells Tod (1930) kam es zu Aktionen mit dem von ihm vorgeschlagenen Freigeld, wie etwa in Schwanenkirchen im Bayerischen Wald und in Wörgl in Tirol/Österreich. Auch die auf der Insel Norderney durchgeführte WÄRA-Freigeldaktion gehört in diese Reihe. Diese Aktionen konnten die schlimmen Auswirkungen der Weltwirtschaftskrise der 1930er Jahre für die Teilnehmer spürbar mildern. Das Interesse daran war groß. Aus Frankreich reiste der Finanzminister und spätere Ministerpräsident Édouard Daladier nach Wörgl, und in den USA schlug der Volkswirtschaftler Irving Fisher der amerikanischen Regierung – wenn auch vergeblich – vor, ein Wörgl-ähnliches Geld mit Namen "Stamp Scrip" zur Überwindung der Wirtschaftskrise einzuführen. Da die Ausgabe von geldähnlichen Wertzeichen gesetzlich den Zentralbanken vorbehalten war, wurden die Aktionen verboten. Daraufhin verschlimmerte sich die wirtschaftliche Situation der Bevölkerung wieder beträchtlich. Zahlreiche Gemeinden in Österreich, Deutschland und der Schweiz – die Rede ist von über 200 – mussten die geplante Einführung von Freigeld abbrechen. Bedeutung in der Neuzeit. Mit Beginn der Weltwirtschaftskrise 2009 wurde die Idee des umlaufgesicherten Geldes an verschiedenen Stellen erneut aufgegriffen. So verwiesen Gregory Mankiw oder Willem Buiter auf Silvio Gesell. EZB-Direktoriumsmitglied Benoît Cœuré hielt am 9. März 2014 vor der Geldmarkt-Kontaktgruppe der EZB die Rede "Life below zero: Learning about negative interest rates" (Leben unter null: Über negative Zinsen lernen). Darin erklärte er, dass die Idee negativer Zinsen oder der „Besteuerung des Geldes“ auf Silvio Gesell zurückgehe, der von Irving Fisher unterstützt und von John Maynard Keynes „ein seltsamer, zu Unrecht übersehener Prophet“ genannt wurde. Auch die griechische Finanzkrise 2015 veranlasste Fachleute, darunter der britische Wirtschaftshistoriker und Keynes-Biograph Robert Skidelsky, der US-Wirtschaftsprofessor Miles Kimball, der britische Journalist und Universitätsdozent George Monbiot und die Capital International Group, auf Gesells Freigeld als Lösungsmöglichkeit hinzuweisen. Kritik und Rezeption. Unabhängig von seiner Bedeutung für die Lehre der Freiwirtschaft wird Gesell immer wieder mit Rassismus, Antisemitismus, Eugenik und Sozialdarwinismus in Verbindung gebracht. Genährt werden solche Verbindungen durch einzelne Redewendungen und Stereotype in Gesells Schriften. So schrieb er beispielsweise von der „Hochzucht des Menschengeschlechts“, dem „Zuchtwahlrecht der Frauen“ oder hoffte auf eine „Erlösung von all dem Minderwertigen, mit dem die seit Jahrtausenden von Geld und Vorrecht geleitete Fehlzucht die Menschheit belastet hat“. Nach dem Ökonomen Werner Onken orientierte sich Silvio Gesell außer an Charles Darwin auch an Max Stirner und Friedrich Nietzsche. Obwohl er in seinen Schriften sozialdarwinistische Termini verwendete, ging es Gesell laut Onken um die Menschheit als Ganzes und nicht etwa um die Herrschaft eines Volkes oder einer Rasse auf Kosten von anderen. Viele Aussagen Gesells seien nur aus der jeweiligen Zeit heraus und im Vergleich mit zeitgenössischen Texten zu verstehen. Der Sozialphilosoph Johannes Heinrichs sah beim Begründer der Freiwirtschaftlehre „durchaus so etwas wie einen Sozialdarwinismus“. Gesell würde außerdem die Grundgedanken des Manchester-Kapitalismus verteidigen: die „natürliche Auslese der Fähigsten“ und eine daraus resultierende „wirtschaftliche Überlegenheit der Tüchtigsten“. Der Soziologe Arno Klönne sagte in einem Rundfunkvortrag: „Silvio Gesell war kein Antisemit und er war kein Nationalist oder deutscher Imperialist. Sein politisches Weltbild war auf Gleichberechtigung der Völker, Abbau der nationalen Grenzen, Freihandel und Frieden ausgerichtet. In gewissem Sinne war er allerdings Sozialdarwinist.“ Der Ökonom, Politikwissenschaftler und Marxist Elmar Altvater meinte, dass in Gesells Geld- und Bodenreform „ein struktureller Antisemitismus angelegt“ sei. Das „freiwirtschaftliche Konzept“ sei „anschlussfähig an rassistische und antisemitische Positionen. Viele der Vertreter dieser und ähnlicher Positionen hätten mit den Nazis paktiert und ihre Nähe gesucht.“ Diese Kritik wurde von Werner Onken zurückgewiesen. Der Vorwurf Altvaters, dass viele Anhänger Gesells mit den Nationalsozialisten paktiert und ihre Nähe gesucht haben, „lässt sich leider nicht bestreiten: Im historischen Kontext erscheint sie jedoch in einem differenzierteren Licht.“ Gesells Anhänger hätten Politikern der demokratischen Parteien und den Gewerkschaften immer wieder Vorschläge zur Stabilisierung der wirtschaftlichen Konjunktur unterbreitet. Sie seien jedoch nicht beachtet und ignoriert worden. Für Onken sind die erhobenen Vorwürfe des Antisemitismus unberechtigt. Onken räumt zwar ein, dass „Silvio Gesells Kapitalismuskritik nur in ihren Anfängen noch nicht frei von antisemitischen Ressentiments“ gewesen sei. So habe er beispielsweise bedauerlicherweise „den Geldwucher nochmals mit den Juden assoziiert“. Sein Resümee: „Anhand von Originalquellen lässt sich zeigen, dass Silvio Gesells Kritik am kapitalistischen Geldwesen sich nicht gegen die Juden richtete. Abgesehen von zwei fragwürdigen Äußerungen aus seinen Frühschriften (1891/92) und aus seinem Hauptwerk (1916/20) zieht sich eine respektvolle Einstellung zu Juden durch sein Werk.“ Der Berliner Freiwirtschaftler Josef Hüwe stellte außerdem dar, dass Feder nicht von Gesell, sondern hauptsächlich von den antisemitischen Geldreformern Wenzel Schober und Josef Schlesinger beeinflusst wurde. Schriften Gesells. Postkartengruss von Silvio Gesell um 1920 Gesell veröffentlichte eine Fülle von Broschüren, Büchern, Aufsätzen und Vorträgen in deutscher und spanischer Sprache. Er gewann seine Erkenntnisse aus seinen Erfahrungen und Beobachtungen als Geschäftsmann, ergänzt durch das Studium wirtschaftswissenschaftlicher Literatur (Pierre-Joseph Proudhon, Karl Marx, Henry George u. a.). Dementsprechend schrieb er anschaulich und praxisbezogen. Sein Hauptwerk "Die natürliche Wirtschaftsordnung durch Freiland und Freigeld" (1916) erlebte zehn Auflagen und zahlreiche Übersetzungen. Sally Potter. Sally Potter (* 19. September 1949 in London, England) ist eine britische Regisseurin, die zunächst auch als Sängerin der Feminist Improvising Group und in Lindsay Coopers Zyklus "Oh Moscow" aktiv war. Stamm (Biologie). In der biologischen Systematik bezeichnet der Begriff Stamm meistens eine hierarchische Rangstufe der Taxonomie. Ein Stamm in diesem Sinne wird auch Phylum genannt. Bei Eukaryoten (Lebewesen, deren Zellen einen Zellkern haben) ist jeder Stamm einem Reich untergeordnet. Bakterien und Archaeen werden nicht in Reiche aufgeteilt, sondern unmittelbar in Stämme. Bei Prokaryoten (Bakterien und Archaeen) und bei Viren tritt der Begriff "Stamm" auch in einer zweiten, abweichenden Bedeutung auf: Hier werden auch verschiedene Abstammungslinien innerhalb einer Art als Stämme bezeichnet. In diesem Fall handelt es sich nicht um eine taxonomische Rangstufe. Stamm als taxonomische Rangstufe bei Eukaryoten. In der Domäne der Eukaryoten (Eukaryota) liegt der Stamm als hierarchische Stufe zwischen Reich und Klasse. Jeder beschriebene Organismus soll einem Stamm zugeordnet werden, der Stamm gehört also zu den "kategorischen Rangstufen". Er wird manchmal weiter aufgeteilt in Unterstämme ("Subphyla", Einzahl: Subphylum). Beispiel: Die Wirbeltiere sind ein Unterstamm im Stamm der Chordatiere. Mehrere Stämme werden in manchen Fällen zu einem Überstamm oder Superphylum zusammengefasst. Botanik. In der Botanik und der Mykologie wird neben dem Stamm auch das Synonym Abteilung (divisio) zugelassen. Die Namensendung ist in der Botanik und der Mykologie standardisiert, die Namen enden in der Botanik auf -phyta, in der Mykologie auf -mycota. Traditionell werden neun Stämme der Algen, acht der "höheren Pflanzen" (Embryophyta) und vier der Pilze unterschieden, diese Einteilung ist nach neueren Erkenntnissen zu großen Teilen überholt, wird aber vielfach weiter verwendet. Zoologie. Der Begründer der modernen Taxonomie, Carl von Linné, unterteilte das Reich (regnum) der Tiere (Animalia) hierarchisch in Klassen (classis), Ordnungen (ordo), Gattungen (genus) und Arten (species). Der französische Anatom und Naturforscher Georges Cuvier sah im Tierreich vier höchstrangige Abteilungen vor, die er "embranchements" nannte und die etwa Linnés Klassen entsprechen: "Vertébrés" (Wirbeltiere), "Mollusques" (Weichtiere), "Articulés" (Gliedertiere) und "Radiaires" („Strahlentiere“); erst darunter folgen bei Cuvier die "classes". Der Begriff "Stamm" (phylum) als höchste Rangstufe und seine Bezeichnung wurde zuerst von dem deutschen Zoologen Ernst Haeckel eingeführt. Haeckel nennt fünf Stämme: Coelenteraten, Echinodermen, Articulaten, Mollusken, Vertebraten. Die Schwämme (Spongiae) wurden von ihm erkannt, aber nicht dem Tierreich, sondern den Protisten zugerechnet. Für Haeckel waren Stämme grundlegend verschiedene Organisationstypen, die jeweils auf eine gemeinsame Stammart zurückgeführt werden können. Durch die Erkenntnisfortschritte in der Zoologie werden gegenwärtig etwa dreißig Stämme unterschieden (vgl. Systematik der Vielzelligen Tiere), die Anzahl ist je nach wissenschaftlicher Auffassung aber etwas verschieden. Schwierig ist die Einteilung der Protisten. Traditionell als ein einziger Stamm aufgefasst, werden sie gegenwärtig in eine Vielzahl Stämme gegliedert. Beispielsweise unterschied Thomas Cavalier-Smith 18 Stämme von Protisten und fasste sie als Reich unter der Bezeichnung Protozoa zusammen. In der Wissenschaft sind gegenwärtig nebeneinander zwei Klassifikationsschemata in Gebrauch. Neben die klassische, auf Linné zurückgehende Systematik ist die von Willi Hennig begründete phylogenetische Systematik oder Kladistik getreten. Im phylogenetischen System sollen alle Einheiten auf Abstammungsgemeinschaft beruhen und alle Nachfahren einer gemeinsamen Stammart umfassen ("holophyletische" Einheiten). Durch die aufeinander folgenden Aufspaltungen ergibt sich eine Baumstruktur. Gruppierungen, die auch auf eine gemeinsame Stammart zurückgehen (also "monophyletisch" sind), aber nicht alle deren Nachkommen umfassen, werden von ihm "paraphyletisch" genannt. Paraphyletische Einheiten sind in der klassischen Systematik, nicht aber in der phylogenetischen Systematik erlaubt. Durch diese Reform ist der Aspekt der gemeinsamen Gestalt und Organisation, der dem klassischen Begriff des Phylums zugrunde lag, in den Hintergrund getreten. Die meisten der morphologisch begründeten Stämme erwiesen sich zwar als holophyletisch. Aber: Der gemeinsame Bauplan ist nach diesem System für die systematische Einteilung nicht mehr grundlegend, entsprechend definierte Einheiten müssen aufgegeben werden, wenn sie nicht holophyletisch sind, auch wenn die so zusammengefassten Taxa durch ihren gemeinsamen Bauplan gut als zusammengehörig erkennbar wären. Generell werden die klassischen Tierstämme im phylogenetischen System als Organisationseinheiten meist weiterverwendet, sie entsprechen aber nicht mehr wie im klassischen System einem bestimmten, definierten Rang, müssen also auch nicht zwingend gleichrangig sein. Wenn nachgewiesen werden kann, dass eine Artengruppe, die bisher als Stamm aufgefasst wurde, eine Untergruppe eines anderen als Stamm aufgefassten Taxons bildet, wird allerdings gewöhnlich aufgehört, diese als Stamm zu bezeichnen. Ein jüngeres Beispiel sind die Bartwürmer: Früher galten sie als Stamm Pogonophora, nun als die Familie Siboglinidae im Stamm der Ringelwürmer (Annelida). Als Stamm oder Phylum wird gegenwärtig gewöhnlich eine Gruppe von Organismen mit ähnlicher Gestalt bzw. ähnlichem „Bauplan“ zusammengefasst, wenn dieser so unähnlich zu demjenigen der Angehörigen anderer Stämme ist, dass nicht beide auf ein ihnen gemeinsames Grundmuster zusammengeführt werden können. Die heutigen Stämme lassen sich mit wenigen Ausnahmen anhand von Fossilfunden bis ins Kambrium zurückverfolgen. Taxa im Rang eines Stammes (und alle anderen Taxa oberhalb der Überfamilie) unterliegen nicht den Regeln des ICZN. Das bedeutet, dass die im Code festgeschriebenen Regeln auf die Namen von Stämmen nicht angewendet werden müssen. Das betrifft insbesondere die Regeln zur Validität (Verfügbarkeit) von Namen und das Prinzip der Priorität, nach dem der zuerst vorgeschlagene/älteste Name verwendet werden soll, wenn mehrere Namen für dieselbe Gruppe verfügbar sind. Namen von Stämmen werden deshalb mehr oder weniger durch den Konsens der beteiligten Fachleute festgeschrieben, die einen bestimmten Namen verwenden – oder eben nicht. In der Praxis achten die meisten Wissenschaftler auch bei den Stämmen die Priorität und verwenden die traditionellen Namen auch dann, wenn sie die beteiligten Taxa etwas umdefinieren, z. B. Taxa aus ihnen herausgliedern oder andere hinzufügen. Abweichungen kommen vor allem bei Anhängern des PhyloCode vor. Dieses neu vorgeschlagene Regelwerk wird aber von den meisten Wissenschaftlern ignoriert. Stamm als taxonomische Rangstufe bei Prokaryoten. Bei den Domänen Bakterien (Bacteria) und Archaeen (Archaea) liegt die Rangstufe Stamm (Phylum) direkt unter der der Domäne, diese beiden Domänen werden also in Stämme (Phyla) unterteilt. Die Anzahl der Stämme ist im Fluss und innerhalb der Wissenschaft umstritten; in den vergangenen Jahren hat sich ihre Anzahl merklich erhöht. Gegenwärtig wird von mindestens 35 Bakterienstämmen und 18 Stämmen der Archaeen ausgegangen. Stämme innerhalb einer prokaryotischen Art und bei Viren. Keine taxonomische Rangstufe sind die als "Stämme" (engl.: "strains") bezeichneten Ab"stamm"ungslinien von Bakterien, Archaeen und Viren. Diese Kulturstämme (Reinkultur) werden unter anderem als nomenklatorischer Typus zur Definition von Arten und Unterarten sowie in der Biotechnik eingesetzt. Ein Stamm in diesem Sinn besteht aus einem Klon, da es sich um eine durch ungeschlechtliche Vermehrung erzeugte Population handelt. Das heißt, innerhalb der Art "Rhodococcus jostii" gibt es den „Stamm“ "Rhodococcus jostii" RHA1; die Art "Rhodococcus jostii" gehört ihrerseits zum „Stamm“ (zur Abteilung) der Actinobakterien. Das Beispiel verdeutlicht die Zweideutigkeit des Begriffs "Stamm" beziehungsweise "Bakterienstamm". Zur Bezeichnung des Rangs direkt unterhalb der Domäne kann man bei Bakterien auf mehrere Synonyme ausweichen: lateinisch "Phylum" oder auch gleichbedeutend "Abteilung" (lateinisch "Divisio"). Sankt-Lorenz-Strom. Der Sankt-Lorenz-Strom (;; tuscarora "Kahnawáˀkye"; mohawk "Kaniatarowanenneh" ‚großer Wasserweg‘) ist mit einem mittleren Abfluss von 10.080 m³/s der drittgrößte Fluss in Nordamerika und entwässert die Großen Seen zum Atlantik. Der Flusslauf ist unterhalb der großen Seen 580 Kilometer lang und verläuft gestreckt nordostwärts. Der Name bezieht sich aber auch auf das anschließende, etwa 660 Kilometer lange Ästuar, das sich trichterförmig zum Atlantik öffnet. Der Sankt-Lorenz-Strom bildet zunächst die Grenze zwischen der kanadischen Provinz Ontario und dem US-Bundesstaat New York, um dann die Provinz Québec zu durchqueren. Das Einzugsgebiet des Stromes umfasst im Wesentlichen das Gebiet der Großen Seen, womit die Gesamtlänge des Flusssystems 2900 Kilometer erreicht. Verlauf und Geographie. Auf dem Weg von der am weitesten von der Mündung des Sankt-Lorenz-Stroms entfernten Quelle in Minnesota durch die Großen Seen führt der Flusslauf mehrere Namen. Als Quelle des hydrologischen Hauptstrangs gilt der Ursprung des im Mesabi Range-Gebiet bei Hibbing in Minnesota entspringenden North River, einem Quellfluss des Saint Louis River. Namentlich beginnt der Sankt-Lorenz-Strom erst am Ausfluss des Ontariosees beim Archipel Thousand Islands zwischen Kingston am Nordufer und Cape Vincent am Südufer. Anschließend bildet der Strom auf einer Länge von rund 150 Kilometern bis Cornwall die Grenze zwischen den USA und Kanada, danach fließt er nur noch auf kanadischem Boden. Vor Montréal mündet der Ottawa River (frz. "Rivière des Outaouais", engl. "Ottawa River") ein. Im Mündungsbereich des Ottawa liegt der Hochelaga-Archipel mit der 499 km² großen Île de Montréal, auf der Montréal liegt, und die Île Jésus mit der Stadt Laval. Bei Sorel-Tracy folgt die Mündung des Richelieu, der den im Süden gelegenen Lac Champlain entwässert. Vor Trois-Rivières weitet sich der Fluss auf einer Länge von 35 Kilometern zum zehn Kilometer breiten Lac Saint-Pierre auf und nimmt anschließend den Saint-Maurice auf. Nach Passieren der Île d’Orléans nordöstlich von Québec wird das Wasser brackig. Unterhalb der Einmündung des Sankt-Lorenz-Stroms mündet bei Tadoussac der Saguenay von Norden her in den Ästuar. An dessen Übergang in den Sankt-Lorenz-Golf warnt der Leuchtturm "Phare du Haut-Fond Prince" vor einer gefährlichen Untiefe. In diesem Bereich liegen der Mingan-Archipel und die Mündung des Manicouagan. Längenangaben. Je nachdem, welcher Ort als Quelle bzw. Endpunkt des Flusses betrachtet wird, ergeben sich verschiedene Längen seines Flusslaufs. Die kürzeste Längenangabe des Sankt-Lorenz-Stroms bezieht sich auf den teils seeartig aufgeweiteten Flusslauf vom östlichen Ende des Ontariosees bis wenig unterhalb der Stadt Québec, wo das Wasser salzhaltig wird und der Ästuar beginnt. Wegen der gleitenden Übergänge schwanken die Angaben zwischen 560 und 580 Kilometern. Einschließlich des marinen Ästuars bis zur Insel Anticosti am Übergang zum Sankt-Lorenz-Golf ist der Sankt-Lorenz-Wasserweg rund 1200 Kilometer lang. Betrachtet man den Flusslauf als Ganzes, so ergibt sich für die längste Flussstrecke einschließlich der durchquerten Seen und anders benannter Flussabschnitte zwischen der Quelle des North River im Lake County (Minnesota, USA), und dem Beginn des Ästuars unterhalb von Québec eine Distanz von rund 2900 Kilometern. Fauna. Der Sankt-Lorenz-Strom beherbergt zahlreiche Walarten, unter anderen Blau- und Finnwale, sowie Weißwale, welche sich im nahrungsreichen Mündungsgebiet des Saguenay aufhalten. Stark vermehrt hat sich der aus Europa eingeführte Karpfen, welcher im Sankt-Lorenz-Strom einen der weltweit größten Bestände bildet und schwere Individuen bis 25 Kilogramm heranwachsen lässt. Im September 2011 wurden dort die Weltmeisterschaften im Karpfenangeln ausgetragen. Zu der einheimischen Fischfauna gehören verschiedene Arten wie: Meerneunaugen, Gemeiner Knochenhechte, Kahlhechte, Mondaugen, Alosa-Heringe, Seeheringe ("Coregonus artedii"), Heringsmaränen, Regenbogenforellen, Bachforellen, Amerikanischer Seesaibling ("Salvelinus namaycush"), Bachsaiblinge, Stinte, Amerikanischer Hundsfisch, Hechte, Musky-Muskellungen, Copper Redhorse ("Moxostoma hubbsi"), White Sucker ("Catostomus commersoni"), mit der europäischen Rotfeder verwandte Golden Shiner ("Notemigonus crysoleucas"), Bachdöbel ("Semotilus atromaculatus"), Elritzen ("Phoxinus eos"), Blackchin Shiner ("Notropis heterodon"), Channel Catfishes ("Ictalurus punctatus"), Katzen- oder Zwergwelse ("Ictalurus nebulosus"), Amerikanische Aale ("Anguilla rostrata"), Quappen, Gestreifte Killifische ("Fundulus diaphanus"), Stichlinge, Forellenbarsche, Weißbarsche ("Morone americana"), Kleinmaulbarsche ("Micropterus dolomieui"), Großmaulbarsche ("Micropterus salmoides"), Gemeiner Sonnenbarsch, Steinbarsche, Schwarzer Crappie ("Pomoxis nigromaculatus"), Amerikanische Zander „Walleyes“ ("Stizostedion vitreum"), Flussbarsche, Süßwassertrommler, etc. Geschichte. Die Mündung des Sankt-Lorenz-Stroms wurde schon bald nach der Entdeckung Amerikas von zahlreichen Seefahrern besucht, so z. B. von Giovanni Caboto und Miguel Corte-Real, aber auch von baskischen Fischern. Der erste jedoch, der auf dem Fluss ins Landesinnere vorstieß, war 1535 der Franzose Jacques Cartier. Auf seiner ersten Reise ein Jahr zuvor hatte er den Fluss wegen schlechten Wetters übersehen. Am 10. August 1535 befand sich Cartier an der Mündung in den Sankt-Lorenz-Golf. Da dies der Gedächtnistag des Laurentius von Rom war, benannte er den Strom und die Bucht nach ihm. Obwohl der Strom von Kingston bis zum Atlantik nur knapp 75 Meter Höhenunterschied überwindet, war er wegen vieler Stromschnellen auf kanadischer Seite, insbesondere den Lachine-Stromschnellen, nur bis Montréal schiffbar. 1825 wurde der Lachine-Kanal eröffnet, der diese Stromschnellen umgeht. Auf dem Sankt-Lorenz-Strom ereignete sich im Mai 1914 eine der größten Katastrophen der Seefahrt, als der kanadische Passagierdampfer "Empress of Ireland" mitten in der Nacht bei dichtem Nebel mit einem anderen Schiff kollidierte und sank. Dabei kamen mehr als tausend Menschen ums Leben. Von 1951 bis 1959 konzipierten und bauten die Vereinigten Staaten und Kanada gemeinsam den Sankt-Lorenz-Seeweg, ein System von Schleusen und Kanälen sowie Flussvertiefungen und -begradigungen, durch das der Atlantik mit den Großen Seen und den an diese anschließenden Flüssen für die Schifffahrt verbunden wurde. Über den Saint-Louis-Fluss, der in den Oberen See mündet, und den Illinois Waterway ist ein durchgehender Schiffsverkehr bis in die Mitte des Kontinents möglich. Wasserkraftwerke. Entlang dem Sankt-Lorenz-Strom befinden sich mehrere Wasserkraftwerke, Staudämme und Schleusen. Der "Robert Moses-Robert H. Saunders Power Dam" ist Teil eines internationalen Wasserkraftprojekts: das "St. Lawrence-Franklin Delano Roosevelt-Power Project" mit dem "Robert Moses"-Kraftwerk auf US-amerikanischer Seite, von New York Power Authority betrieben, und dem "Robert H. Saunders"-Kraftwerk auf der kanadischen Seite, von OPG betrieben. Boralex betreibt am "Sankt-Lorenz-Seeweg" an der Schleuse "Saint-Lambert" in Montréal seit 1995 ein kleineres Laufwasserkraftwerk () mit einer Leistung von 6 MW. Die Fallhöhe beträgt 5 m, der mittlere Durchfluss 175 m³/s. Schmelzpunkt. Als Schmelztemperatur bezeichnet man die Temperatur, bei der ein Stoff schmilzt, das heißt vom festen in den flüssigen Aggregatzustand übergeht. Die Schmelztemperatur ist abhängig vom Stoff, im Gegensatz zur Siedetemperatur aber nur sehr wenig vom Druck (Schmelzdruck). Schmelztemperatur und Druck werden zusammen als Schmelzpunkt bezeichnet, wobei dieser den Zustand eines Reinstoffes beschreibt und Teil der Schmelzkurve im Phasendiagramm des Stoffes ist. Manche Stoffe können nicht schmelzen, weil sie vorher chemisch zerfallen, und andere können bei Normalbedingungen nur sublimieren. Für reine chemische Elemente ist der Schmelzpunkt identisch mit dem Gefrierpunkt und bleibt während des gesamten Schmelzvorganges konstant. Durch Verunreinigungen bzw. bei Gemischen wird die Schmelztemperatur in der Regel erniedrigt (Schmelzpunkterniedrigung), außerdem kann die Temperatur während des Schmelzvorganges steigen, wodurch man es mit einem Schmelz-"Bereich" zu tun hat. Die Schmelzpunkterniedrigung (Kryoskopie) durch gelöste Substanzen ist ein Grund, warum Eis durch Salz geschmolzen werden kann. Im Unterschied zu chemischen Elementen kann es auch bei reinen chemischen Verbindungen zu Abweichungen zwischen Schmelzpunkt und Gefrierpunkt kommen. Falls die Gefrierpunktstemperatur unterhalb der Schmelzpunkttemperatur liegt, spricht man von einer thermischen Hysterese. Dies ist zum Beispiel bei reinem Wasser der Fall; ohne Nukleationskeime und unter einem Druck von 1 bar gefriert Wasser bei ca. −40 °C und schmilzt bei ca. 0 °C. Bei amorphen Werkstoffen wie z. B. Gläsern und einigen Kunststoffen spricht man von der Übergangstemperatur. Auch die Definition einer Erweichungstemperatur ist möglich. Die Schmelztemperatur zählt mit der Dichte, Risszähigkeit, Festigkeit, Duktilität und der Härte, zu den Werkstoffeigenschaften eines Werkstoffes. Druckabhängigkeit. Der Schmelzpunkt hängt zwar vom Druck ab, allerdings nur geringfügig: Um den Schmelzpunkt um lediglich 1 K zu ändern, muss der Druck durchschnittlich um etwa 100 bar erhöht werden. Daraus folgt, dass sich Änderungen des Atmosphärendrucks – die merkliche Änderungen des Siedepunkts bewirken können – praktisch nicht auf den Schmelzpunkt auswirken. Dabei ist TM der Schmelzpunkt, Δ"V" die Volumenänderung beim Schmelzen, Δ"p" die Differenz der betrachteten Drücke, und "H"M die Schmelzenthalpie. Da aber die Volumenänderungen Δ"V" beim Schmelzen relativ klein sind, ist auch die Druckabhängigkeit des Schmelzpunktes relativ klein. Beispielsweise ändert sich bei einer Erhöhung des Drucks um 100 Bar der Schmelzpunkt von Eis um −0,76 K – Eis schmilzt also unter Druck leichter –, während sich der Schmelzpunkt von Tetrachlorkohlenstoff um +3,7 K erhöht. Die Tatsache, dass sich der Schmelzpunkt von Eis oder beispielsweise auch von Bismut bei Druckerhöhung erniedrigt, folgt daraus, dass ihr Volumen beim Schmelzen verringert wird: Dann ist in der obigen Gleichung Δ"V" und Δ"T" negativ. Analytik. Die Bestimmung des Schmelzpunkts einer Substanz ist auch von großer Bedeutung in der qualitativen Analytik, einschließlich der Identitätsprüfung, da viele Substanzen über ihren Schmelzpunkt identifiziert werden können. Die Reinheit von Stoffen kann qualitativ ebenfalls über den Schmelzpunkt gemessen werden. Verunreinigungen haben niedrigere Schmelzpunkte zur Folge. Flüssige Substanzen oder solche mit niedrigem Schmelzpunkt werden dazu in leicht kristallisierende Derivate umgewandelt: Alkohole können beispielsweise durch die Messung der Schmelzpunkte ihrer Ester der 4-Nitrobenzoesäure oder der 3,5-Dinitrobenzoesäure identifiziert werden. Hierzu wird die zu analysierende Substanz in Gegenwart geringer Mengen Schwefelsäure umgesetzt. Die Schmelzpunkte dieser Derivate sind in der Regel scharf. Die Derivate der 3,5-Dinitrobenzoesäure besitzen in der Regel höhere Schmelzpunkte als die der 4-Nitrobenzoesäure. Sie werden dann bevorzugt gewählt, wenn der Schmelzpunkt mit der 4-Nitrobenzoesäure zu niedrig ist und keine genaue Bestimmung mehr möglich wird. Umfangreiche Tabellenwerke mit Angaben zu Schmelzpunkten organischer Verbindungen, als wichtige Hilfsmittel für Analytiker, liegen vor. Schmelzpunkte von Derivaten einzelner Stoffklassen werden in den einschlägigen Lehrbüchern der organischen Analytik gelistet. Bestimmung. Eine ungefähre Messung ist natürlich einfach mit einem Thermometer durch Aufschmelzen der Probe und Ablesen der Schmelztemperatur möglich. Meist werden die Messwerte damit gekennzeichnet, dass sie "nicht korrigiert" sind. Diese Angabe bezieht sich auf den (geringen) Fehler, der dadurch entsteht, dass nur das Reservoir des Thermometers ins Messmedium taucht, nicht aber der aufsteigende Faden, der damit eine andere Temperatur und Ausdehnung hat. Im praktischen Laborbetrieb finden heute meist automatische Schmelzpunktmessgeräte Verwendung, die das Ergebnis in kurzer Zeit digital liefern. Sed (Unix). sed steht für "Stream EDitor" und ist ein Unix-Werkzeug, mit dem Text-Datenströme bearbeitet werden können. Der Datenstrom kann auch aus einer Datei gelesen werden. Im Gegensatz zu einem Texteditor wird die Ursprungsdatei aber nicht verändert. Im Gegensatz zu einem interaktiven Texteditor, wie etwa dem vi, wird sed mittels eines Skripts gesteuert. Der sed-Befehlssatz orientiert sich an jenem des zeilenorientierten Texteditors ed. Dabei werden für die Text-Durchmusterung laut der POSIX-Spezifikation eine bestimmte Abart der Regular Expressions, sogenannte (POSIX-) "Basic Regular Expressions" (BRE) verwendet. Die weitverbreitete GNU-Implementation verwendet allerdings "GNU-BRE"s, die von "POSIX-BRE"s geringfügig abweichen. Auch wenn der Sprachumfang von sed reichlich limitiert und spezialisiert erscheint, so handelt es sich doch um eine Turing-vollständige Sprache. Beweisen kann man die Turing-Vollständigkeit, indem man eine Turing-Maschine mittels sed programmiert oder indem man mit "sed" einen Interpreter für eine andere, Turing-vollständige Sprache schreibt. Folgerichtig konnten und wurden sogar Spiele wie Sokoban oder Arkanoid und andere anspruchsvolle Programme wie Debugger mit sed geschrieben. Arbeitsweise. sed liest eine Eingabedatei (oder einen input stream auf ) zeilenweise ein. Diese Eingangsdaten landen zunächst im sogenannten Pattern Space'". Auf diesem Pattern Space wird nacheinander jede Anweisung des vorgegebenen Programmes ausgeführt. Jede dieser Anweisungen kann dabei den Pattern Space verändern, folgende Anweisungen werden dann auf dem jeweiligen Ergebnis der letzten Anweisung ausgeführt. Führt eine dieser Veränderungen zu einem Nulltext, so wird die Verarbeitung an dieser Stelle abgebrochen und die Anweisungsliste mit der nächsten Eingabezeile wieder von vorne begonnen. Ansonsten wird das Ergebnis der letzten Anweisung auf ausgegeben und die Anweisungsliste ebenfalls mit der nächsten Eingabezeile wieder begonnen. Programmierung. sed-Anweisungen können grob in drei Gruppen unterteilt werden: Textmanipulationen, Verzweigungen und sonstige. (Die meisten sed-Handbücher wie auch die POSIX-Spezifikation unterteilen abweichend davon Anweisungen in 2-Adress-, 1-Adress- und adresslose – siehe unten –, aber diese Gruppierung ist für Einführungszwecke nicht geeignet.) Verzweigungen. In jeder Zeile wird das erste Tabulator-Zeichen, sofern davor lediglich null oder mehr Leerzeichen stehen, durch 8 Leerzeichen ersetzt, danach sorgt die Sprunganweisung b dafür, dass die Programmausführung wieder zur ersten Zeile zurückkehrt. Ist das letzte führende Tabulatorzeichen ersetzt, so matched der Ausdruck /^*/ nicht mehr und der Block wird nicht ausgeführt, sodass das Programmende erreicht und die nächste Zeile eingelesen wird. Hier wird die Ähnlichkeit mit Assembler-Sprachen deutlich, indem mit einer Bedingung und einem Label eine Kontrollstruktur vergleichbar dem in Hochsprachen üblichen repeat-until aufgebaut wird. Hold Space Manipulation. Eine mächtige (gleichwohl relativ unbekannte) Funktion von sed ist der sogenannte Hold Space. Das ist ein frei verfügbarer Speicherbereich, der in seiner Arbeitsweise dem in manchen Assembler-Sprachen bekannten Akkumulator ähnelt. Direkte Manipulation der Daten im Hold Space ist zwar nicht möglich, aber Daten im Pattern Space können in den Hold Space verlagert, kopiert, oder auch mit dem Inhalt desselben vertauscht werden. Auch das Anhängen des Pattern Spaces an den Hold Space oder vice versa ist möglich. Immer wenn eine Zeile mit „=“ beginnt, so wird der Anweisungsblock ausgeführt, der dieses Zeichen entfernt und dafür die restliche Zeile mit einem führenden Leerzeichen und Klammern versieht. Danach wird dieser Text in den Hold Space kopiert („h“) und aus dem Pattern Space gelöscht („d“), wodurch das Programm für diese Zeile beendet wird und die nächste Zeile gelesen wird. Da für „normale Zeilen“ die Bedingung des Eingangsblocks nicht zutrifft, wird lediglich die letzte Anweisung („G“) durchgeführt, die den Inhalt des Hold Space an den Pattern Space anhängt. Mehrzeilen-Anweisungen. Der erste sed-Aufruf druckt für jede Zeile im Eingangstext die Zeilennummer aus und danach die Zeile selbst. Der zweite sed-Aufruf verbindet diese beiden Zeilen zu einer einzigen, indem erst die jeweils nachfolgende Zeile eingelesen („N“) und dann das automatisch eingefügte Zeilentrennzeichen („\n“) durch ein Tabulatorzeichen ersetzt wird. Kapazitätsgrenzen. sed unterliegt keinen (realen) Beschränkungen hinsichtlich der Dateigrößen. Abgesehen vom verfügbaren Plattenplatz, der eine praktische Grenze darstellt, realisieren die meisten Implementationen den Zeilenzähler als int oder long int. Bei den heute üblichen 64-bit-Prozessoren kann die Gefahr eines Überlaufs deshalb vernachlässigt werden. Wie die meisten textmanipulierenden Tools in UNIX unterliegt sed allerdings einer Begrenzung hinsichtlich der Zeilenlänge (genauer: der Anzahl Bytes bis zum nachfolgenden newline-Zeichen). Die Mindestgröße ist durch den POSIX-Standard festgelegt, die tatsächliche Größe kann von System zu System variieren und kann im jeweiligen Fall in der Kernel-Headerdatei /usr/include/limits.h als Wert der Konstanten LINE_MAX nachgeschlagen werden. Die Länge wird in "Bytes" angegeben, nicht in "Zeichen" (weshalb eine Umrechnung etwa bei der Verarbeitung von UTF-codierten Dateien, die einzelne Zeichen mit mehreren Bytes darstellen, nötig ist). Praktische Grenzen in der Shell-Programmierung. genaugenommen einen Missbrauch darstellt. Da jeder Aufruf eines externen Programmes die aufwendigen Systemaufrufe fork() und exec() erfordert, sind Shell-interne Methoden, etwa die sogenannte "Variablenexpansion", selbst wenn sie deutlich länger zu schreiben sind, meist dem Aufruf von externen Programmen überlegen. Die Faustregel dafür lautet: wenn die Ausgabe des Filterprozesses eine Datei bzw. ein Datenstrom ist, so ist das Filterprogramm zu verwenden, ansonsten ist Variablenexpansion vorzuziehen. In-Place-Editing. Aufgrund der Art wie sed Textmanipulationen durchführt, kann dies nicht direkt auf der Eingabedatei geschehen. Als Ausgabe wird eine von dieser getrennte Datei benötigt, die gegebenenfalls danach über die Eingangsdatei kopiert wird. Dies ist auch so im POSIX-Standard vorgesehen. Die GNU-Version von sed bietet zusätzlich zum POSIX-Standard die Kommandozeilen-Option -i. Diese erlaubt es, eine Datei scheinbar ohne Umweg ("in place") zu verändern, tatsächlich wird aber im Hintergrund ebenfalls eine temporäre Datei angelegt. Diese wird im Fehlerfall nicht gelöscht und die Metadaten (Besitzer, Gruppe, Inode-Nummer, …) der Originaldatei auf jeden Fall verändert. RegExp-Notation. Dies ist praktisch, wenn der Schrägstrich als Teil der RegExp benötigt wird, weil man sich dann das mühsame "Escapen" (Kenntlichmachen der Verwendung als Literal) ersparen kann. Man weicht dann einfach auf ein anderes, nicht verwendetes Zeichen aus. Löschung von Textteilen. Erfolgt durch "Ersetzung durch nichts". Explizite Löschung für Teile einer Zeile ist nur vom Zeilenbeginn bis zum ersten Zeilentrennzeichen (D) vorgesehen. Der Ausdruck löscht hingegen NICHT den Teil "Ausdruck", sondern jede Zeile, die "Ausdruck" enthält! "Ausdruck" fungiert hier als die Adresse (siehe oben, 1-Adreß-Variante des Kommandos d). Ansprechen von mindestens einem Zeichen. Im Umfang der POSIX-BREs ist – im Unterschied zu den GNU-BREs – der Quantor \+ für "ein oder mehrere des vorangegangenen Ausdrucks" nicht vorgesehen. Um portable sed-Scripte zu schreiben, die nicht nur mit GNU-sed laufen, sollte deshalb der Ausdruck verdoppelt und der *-Quantor ("null oder mehrere") verwendet werden. Schwerin. Schwerin (oder, meckl.-schwerinerisch "Swerin") ist die Landeshauptstadt von Mecklenburg-Vorpommern. Die kreisfreie Stadt ist nach Rostock zweitgrößte Stadt und eines der vier Oberzentren des Bundeslandes, neben Rostock, Stralsund-Greifswald und Neubrandenburg. Laut Hauptsatzung der Stadt führt sie die Bezeichnung „Landeshauptstadt“ vor dem Stadtnamen. Schwerin wurde im Jahr 1018 erstmals erwähnt und erhielt 1160 Stadtrechte, damit ist sie die älteste Stadt im heutigen Mecklenburg-Vorpommern. Die Stadt dehnte sich im Laufe der Zeit am West- und Südufer des Schweriner Innensees aus, insgesamt befinden sich zwölf Seen innerhalb des Stadtgebietes. Ausgangspunkt der Stadtentwicklung war die Stelle, an der sich das heutige Wahrzeichen der Stadt, das Schweriner Schloss, befindet. Das Schloss war bis 1918 eine Hauptresidenz der mecklenburgischen Herzöge und Großherzöge und ist seit 1990 Sitz des Landtages. Es war mit seinen umgebenden Gärten der Hauptveranstaltungsort der Bundesgartenschau 2009 und ist als historisch einmaliges Ensemble ein Kandidat für das UNESCO-Welterbe. Wirtschaftlich dominieren Technologieunternehmen, die Deutsche Bahn, Maschinenbau und Materialverarbeitung, Konsumproduktion, der öffentliche Sektor, die Gesundheitswirtschaft und Kliniken, sowie Dienstleistungsbetriebe und der Tourismus. Zudem ist Schwerin Hochschulstadt, als Standort der Hochschule der Bundesagentur für Arbeit, der privaten Fachhochschule des Mittelstands, sowie der Designschule. Geografie. Schwerin liegt im Westen des Landes Mecklenburg-Vorpommern am Südwestufer des Schweriner Sees in einer waldreichen Seenlandschaft. Weitere Seen im Stadtgebiet sind der Burgsee, der Faule See, der Grimkesee, der Heidensee, die Große Karausche, der Lankower See, der Medeweger See, der Neumühler See, der Ostorfer See, der Pfaffenteich und der Ziegelsee. Fließgewässer sind der Aubach, dessen Wasser über die Verbindung mehrerer Seen den Schweriner See speist, und die Stör, der zur Wasserstraße ausgebaute natürliche Abfluss des viertgrößten deutschen Sees. Die Einwohner bezeichnen Schwerin gerne als die „Stadt der sieben Seen und Wälder“. Diese Bezeichnung geht auf eine Zeit zurück, als Schwerin noch nicht seine heutige geographische Ausdehnung hatte und tatsächlich von nur sieben Seen umgeben war. Die weitläufigen Wälder mussten nach und nach der städtebaulichen Entwicklung weichen, zahlreiche Waldreste sind vor allem an den Ufern der Seen erhalten geblieben. Von den 130,46 km² Stadtfläche sind 28,9 Prozent mit Wasser und 18,5 Prozent mit Wald bedeckt. Die Höhe der Stadt über dem Meeresspiegel beträgt 38 Meter an den Ufern des Schweriner Sees und 86,1 Meter auf dem Weinberg im Stadtteil Neumühle. Die nächsten größeren Städte sind Lübeck, zirka 54 Kilometer nordwestlich, Rostock, zirka 69 Kilometer nordöstlich, und Hamburg, etwa 94 Kilometer westlich. Stadtgliederung. a>, ein zentraler Stadtteil von Schwerin Das Stadtgebiet Schwerins ist gemäß § 11 Abs. 2 der Hauptsatzung in derzeit 18 Ortsteile mit je einem Ortsbeirat eingeteilt. Die Ortsteile bestehen aus einem oder mehreren Stadtteilen. Die Ortsbeiräte haben je nach Einwohnerzahl zwischen 5 und 15 Mitglieder. Sie werden nach jeder Kommunalwahl von der Stadtvertretung für die Dauer der Wahlperiode der Stadtvertretung bestimmt. Die Ortsbeiräte sind zu wichtigen, den Ortsteil betreffenden Angelegenheiten zu hören und haben ein Initiativrecht. Die endgültigen Entscheidungen trifft jedoch die Stadtvertretung der Gesamtstadt. Südlich des Stadtteils Neumühle befindet sich eine etwa 12 Hektar große Enklave, die zur Gemeinde Klein Rogahn gehört. Geologie. Schwerin liegt nördlich einer Eisrandlage der Weichseleiszeit. Das Relief wurde durch verschiedene Phasen und Staffeln des Brandenburger Stadiums der Weichselvereisung geprägt. Es existieren kuppige Grund- und Endmoränenzüge im Westteil und ein Sanderbereich im Süden und Osten der Stadt. Die Anhöhen der Endmoräne im Westen erreichen bei Neumühle. Ein Teil der Seen, wie der Lankower und der Neumühler See, entstand nach Rückgang des Eises aus ehemaligen Schmelzwasserrinnen, die sich dauerhaft mit Wasser füllten. Der Schweriner See liegt in einer vorpleistozänen Senke, die sich von Wismar bis zur Lewitz erstreckt. Als Zungenbecken ausgeformt wurde das Gewässer in der Frankfurter Phase der Weichseleiszeit. Das Gletschertor mit Schmelzwasserabfluss in Richtung Elbe-Urstromtal bestand dabei im Bereich Mueß. Spätere glaziale Phasen hinterließen Moränenmaterial im See, wie etwa in Höhe des Paulsdamms, der Innen- und Außensee abtrennt, sowie zu den heute anliegenden Seen, wie etwa dem Ziegelsee. Klima. In Schwerin herrscht ein gemäßigtes Klima. Das Temperatur-Jahresmittel von 1961 bis 1990 betrug 8,4 °C. Die Differenz der Mitteltemperatur des wärmsten und kältesten Monats lag bei 17,2 Grad. Durchschnittlich fielen je Jahr und Quadratmeter 621 Millimeter Niederschlag. Im Vergleich zum Nordwesten Deutschlands ist das Frühjahr kühler, bedingt durch raue Nordostwinde. Die Sommerhitze wird durch die Nähe zur Ostsee abgemildert, dieses Gewässer wirkt im Herbst wärmend. Name. Die Stadt wurde um 1012/18 als "Zuarina" das erste Mal bei Thietmar von Merseburg erwähnt. Helmold von Bosau nannte es 1160 "Zuerin, Zwerin". Die "Pöhlder Annalen" nennen den Ort 1160 "Zuarin (-ensis)" und die Steterburger im Jahr 1174 "Zvarin". Seit dem 15. Jahrhundert wurde der Ort "Swerin" genannt (bis heute üblich im mecklenburg-schwerinerischen Dialekt), und seit dem 16. Jahrhundert offiziell "Schwerin". Indirekte Ersterwähnung könnte früher gelegen haben: In einem Reisebericht des Chronisten Ibn Jacub/Ibrahim Ibn Yaqub, Gesandter des Kalifen von Cordoba (Spanien), wurde Schwerin als Slawenburg bereits um das Jahr 973 erwähnt. Jacub war auf dem Weg nach Dorf Mecklenburg (zu der Zeit die Hauptstadt des Obotritenlandes) und berichtet von seiner Reise durch das Reich der Obotriten und einer Burg in einem See an dessen Ufer eine slawische Siedlung liege. http://www.schwerin-lokal.de/?p=15686 Der Name soll mit polabisch "zvěŕ" für wildes Tier oder "zvěŕin" für Wildgehege, Tiergarten oder Pferdegestüt zusammenhängen. Spekulationen über eine Abstammung des Ortsnamens vom slawischen Gott "Svarog" "(Swarzyn, Ort des Svarog)" sind nicht belegbar. Abweichend davon wurde er von dem altgermanischen "swaran" (verteidigen, stammverwandt mit "schwören") hergeleitet, das erst später von einwandernden Slawen im Sinne von "zvěŕ" umgedeutet worden sein könnte. Auch der lateinische Name "Suerina" bzw. "Suerinum" fand und findet für Schwerin Verwendung. Besiedlung, Stadtgründung und Grafschaft. Das heutige Stadtgebiet war schon früh besiedelt. Bei Ausgrabungen auf dem Schweriner Marienplatz fanden sich Werkzeuge, die auf etwa 1000 bis 600 v. Chr. datiert wurden. Eine anschließende germanische Besiedlung ist durch den Fund eines Brunnens aus dem 1. Jahrhundert n. Chr. belegt. Nach 700 n. Chr. siedelten sich Slawen im Gebiet des heutigen Schwerin an. Der jüdischstämmige spanisch-maurische Handlungsreisende Ibrāhīm ibn Yaʿqūb berichtete 965 von einer Burg in einem Süßwassersee, die von Historikern an der Stelle des heutigen Schwerins vermutet wird. Grabungsfunde auf der Schlossinsel bestätigen zumindest die Existenz eines slawischen Burgwalles in dieser Zeit. Im Jahre 1018 rettete sich der christliche Abodritenfürst Mistislaw vor einem Angriff der Lutizen in die Burg Schwerin, die er anschließend aber aufgeben musste. 1160 brannte der Abodritenfürst Niklot die Burg auf der Schlossinsel nieder, um sie nicht in die Hände eines anrückenden sächsischen Heeres unter der Führung Heinrich des Löwen fallen zu lassen. Der Sachsenherzog ließ die Burg nach dem Sieg über Niklot als sächsischen Außenposten im Abodritenland wieder aufbauen. Das Jahr 1160 wird deshalb traditionell als „deutsches“ Gründungsjahr Schwerins angesehen, obwohl die Verleihung der Stadtrechte wahrscheinlich erst 1164 erfolgte. Nach dem Tod Niklots machte Heinrich der Löwe Gunzelin I. zum Statthalter über das Land der Abodriten, und damit auch über Schwerin. Später teilte Heinrich das Land, gab einen Teil Pribislaw, dem Sohn Niklots, zurück und gründete aus dem anderen Teil die Grafschaft Schwerin mit Gunzelin als erstem Grafen von Schwerin. 1167 wurde Schwerin Sitz der Grafschaft Schwerin. 1167 verlegte der Zisterziensermönch Berno seinen Bischofssitz nach Schwerin. Nach der Weihe des von Heinrich gestifteten ersten Doms um 1171 entwickelte sich Schwerin zum Ausgangspunkt der Christianisierung des späteren Mecklenburgs. Die Stadt hatte zu der Zeit zirka 500 Einwohner, von denen ein Fünftel Geistliche waren. Ein städtischer Rat, bestehend aus sechs Ratsherren und dem Bürgermeister, wurde erstmals 1228 erwähnt. Hemmend für die Entwicklung der Stadt waren die Machtstreitigkeiten zwischen dem Grafen und dem Bischof. Bis 1284 konnten Nachfolger des Bischofs zwar die gesamte Schelfe (heute: Schelfstadt) in Besitz nehmen, diese wurde jedoch nicht in die städtischen Befestigungsanlagen einbezogen, so dass das Domkapitel seinen Besitz nicht vergrößern konnte. 1270 wurde mit dem Bau eines zweiten Domes begonnen. Das Geld dafür stammte aus den Einnahmen von Pilgern, die einen in Jaspis eingeschlossenen heiligen Blutstropfen aufsuchten, den Graf Heinrich von Schwerin 1222 von einer Pilgerfahrt mitgebracht und den Domherren gestiftet hatte. Von einem Drittel der Einnahmen aus dieser Reliquie wurde auf Betreiben der Witwe des Grafen, Gräfin Audacia, der Neubau eines Franziskaner-Konventes finanziert, der schon 1236 urkundlich erwähnt wurde; er ist damit die älteste Niederlassung eines Bettelordens in Mecklenburg (Aufhebung 1552). 1284 wurde der Spieltordamm errichtet, der den Aubach im heutigen Pfaffenteich aufstaute und Voraussetzung für den Betrieb einer gräflichen und einer bischöflichen Wassermühle (Bischofsmühle) war. Die Ersetzung der hölzernen Stadtbefestigung durch eine massive Stadtmauer wurde 1340 vollendet. 1351 wurde das Rathaus erstmals erwähnt, das dreimal abgebrannt und immer wieder an derselben Stelle neu errichtet wurde. Erhalten ist der mittelalterliche Torbogen des Rathausdurchgangs. Die Stadtmauer bestand ihre erste Bewährungsprobe, als Herzog Albrecht der II., ein Nachfahre Niklots, die Stadt 1358 monatelang belagerte. Das Schweriner Schloss, Sitz des Landtages von Mecklenburg-Vorpommern, aus der Altstadt heraus gesehen Im Herzogtum Mecklenburg bis zum 18. Jahrhundert. Nach dem Aussterben der Familie Gunzelin ging die Grafschaft Schwerin 1358 an das Herzogtum Mecklenburg über. Albrecht II. erwarb die Stadt für 20.000 Mark Silber (die er allerdings nicht vollständig bezahlte) und machte sie zu seiner Residenz und damit zum kulturellen und politischen Zentrum Mecklenburgs. In wirtschaftlicher Hinsicht entwickelten sich die verkehrstechnisch günstiger gelegenen Städte Rostock und Wismar besser. Unter Herzog Heinrich IV. waren Grenzstreitigkeiten, Raub und Mord an der Tagesordnung, die Kassen waren leer. Zudem grassierte die Pest. Erst Magnus II. konnte ab 1478 das Blatt durch die Neuordnung der Verwaltung, insbesondere der Finanzverwaltung wenden. Er hatte Pläne, Elbe, Elde, Schweriner See und Wismar durch Kanäle zu verbinden. Unter ihm wurde das älteste noch erhaltene Gebäude der Stadt errichtet, das "Große Neue Haus". Eine Fürstenschule wurde 1553 gegenüber dem Schloss eröffnet, auf die das Fridericianum Schwerin zurückgeführt wird. 1561 entstand unter Tilemann Stella eine Regierungsbibliothek. Brände in den Jahren 1531 und 1558 vernichteten große Teile der Stadt. Durch eine baupolizeiliche Anordnung mussten Häuser aus Stein errichtet werden, um die Brandgefahren zu mindern. Doch ein weiterer Brand legte 1651 erneut weite Teile Schwerins in Schutt und Asche. Der Wiederaufbau des Rathauses wurde 1654 abgeschlossen. Im Dreißigjährigen Krieg hatte die Stadt verhältnismäßig weniger Verluste zu beklagen als das Herzogtum. Nach herzoglicher Anordnung von 1705 erfolgte der Ausbau der heutigen Schelfstadt. 1717 legten die wenigen Juden, die seit 1679 wieder ansässig werden durften, dort einen Friedhof an. 1740 wurde das Rathaus der Schweriner Neustadt zunächst als Wohnhaus erbaut und 1776 zum Verwaltungssitz umfunktioniert. Der Versuch, Gewerbe- und Handelsbetriebe anzusiedeln und die Stadt zu beleben, scheiterte an der durch die Vorherrschaft des Adels und der Ritterschaft rückständigen Ökonomie. 1752 beleuchteten bereits 200 Laternen die Schweriner Straßen. Die Bebauung der Vorstadt schritt fort. Die Herzöge verlegten 1765 die Residenz von Schwerin nach Ludwigslust. 1773 wurde die Synagoge eingeweiht, um die herum Wohnhäuser für den Landesrabbiner und den Kantor entstanden. 19. Jahrhundert bis Weimarer Republik. Im 19. Jahrhundert veränderten umfangreiche Baumaßnahmen das Stadtbild. Schwerin verlor seinen mittelalterlichen Charakter und dehnte sich weiter aus. Nicht mehr benötigte Stadtbefestigungen verschwanden, Stein- und Fachwerkbauten verdrängten nach und nach Holzhütten. Eine Bebauung des Großen Moores erwies sich im sumpfigen Untergrund als schwieriges Unterfangen. Am Marienplatz und in der Rostocker Straße (heute: Goethestraße) entstanden neue Bauten, von 1824 bis 1834 wurden durch Friedrich Franz I. ein neuer Regierungssitz in der Schlossstraße und weitere Bauten errichtet. Bis 1836 wurde das städtische Rathaus durch den Hofbaurat Georg Adolf Demmler in ein repräsentatives Gebäude verwandelt, das Schauspielhaus am Alten Garten und der Marstall auf der Marstallhalbinsel wurden erbaut. Im Norden Schwerins entstand am Sachsenberg Norddeutschlands erste wissenschaftlich geleitete "Irren-Heil- und Pflege-Anstalt". Nachdem unter Großherzog Paul Friedrich 1837 die herzogliche Residenz aus Ludwigslust nach Schwerin zurückverlegt worden war, wurde wegen des schlechten baulichen Zustandes ein grundlegender Neubau des Schweriner Schlosses beschlossen. Demmlers Entwürfe, bei denen er sich an französischen Renaissanceschlössern orientierte, fanden Zustimmung beim Landesherren, der allerdings 1842 starb, worauf der neue Großherzog Friedrich Franz II. den Neubau stoppte. Das alte Schloss wurde von 1845 bis 1857 grundlegend renoviert und teilweise neu erbaut, ab 1851 allerdings unter der Leitung des Berliner Architekten Friedrich August Stüler und unter Beteiligung von Hermann Willebrand, nachdem Demmler in Konflikt mit den Hofbeamten geraten war. 1842 entstand der Paulsdamm durch den Schweriner See. Die jüdische Gemeinde wuchs auf 300 Mitglieder an, die 1825 die Synagoge von Grund auf renovierten und mehrmals erweiterten. 1847 wurde die Stadt durch eine Eisenbahnverbindung nach Hagenow an die weit südlich an der Stadt vorbeiführende Bahnstrecke Hamburg–Berlin angebunden. 1852 fuhr das erste Dampfschiff von Zippendorf zur Insel Kaninchenwerder. Zwischen 1889 und 1890 wurde an Stelle mehrerer Vorgängerbauten das Bahnhofsgebäude im Stil der Gründerzeit erbaut, das bis auf Umbauten der 1920er Jahre weitgehend unverändert erhalten geblieben ist. Mit dem Bau des Elektrizitätswerkes im Jahr 1904 am Nordufer des Pfaffenteiches hielt der elektrische Strom in Schwerin Einzug und ermöglichte den Betrieb einer elektrischen Straßenbahn, die ab 1908 verkehrte. Ein Brand zerstörte 1913 den Goldenen Saal des Schweriner Schlosses. Ebenfalls 1913 verlegte der Flugzeugbauer Anton Herman Gerard Fokker seine Firma "Fokker Aeroplanbau" von Berlin-Johannisthal nach Schwerin und errichtete seine Werkshallen u.a. in der Bornhövedstraße. Dort wurde auch die Fokker Dr.I von Manfred von Richthofen gebaut, erfolgreichster Jagdflieger des Ersten Weltkrieges („Der Rote Baron“). Infolge des Versailler Vertrags musste die Flugzeugherstellung 1919 eingestellt werden. Als Folgen des Ersten Weltkrieges gab es soziale und politische Spannungen. Hunger und Not bewegten Jugendliche und Frauen, in Schlachtereien und Bäckerläden einzubrechen, um an Nahrungsmittel zu kommen. 1918 streikten viele Arbeiter. 1918 dankte Großherzog Friedrich Franz IV. ab und die Sozialdemokratie konnte sich stärker in der Hauptstadt des neuen Freistaates Mecklenburg-Schwerin etablieren. 1920 kamen 15 Arbeiter in der Nähe des Arsenals bei blutigen Auseinandersetzungen mit Kapp-Putschisten um. Zeit des Nationalsozialismus 1933–1945. 1932 erreichte die NSDAP bei den Landtagswahlen in Mecklenburg-Schwerin eine knappe absolute Mehrheit und stellte fortan die Landesregierung. 1933 wurden SPD- und KPD-Funktionäre verfolgt und verhaftet, der Oberbürgermeister sowie die Leiter öffentlicher Einrichtungen entlassen. Friedrich Hildebrandt wurde zum Reichsstatthalter von Mecklenburg ernannt. Im gleichen Jahr gab es Bücherverbrennungen in der Stadt. 1934 wurde Schwerin Hauptstadt des Gaus Mecklenburg, der aus dem Zusammenschluss der Freistaaten Mecklenburg-Schwerin und Mecklenburg-Strelitz hervorgegangen war. Unter anderem fanden im gleichen Jahr eine Weihefeier der Jugend im Arsenal, ein Aufmarsch von 6000 Jugendlichen auf dem Markt und zum ersten Staatsjugendtag eine Demonstration von 1600 Mitgliedern des Jungvolks statt. 1935 entstand eine Gauführerschule in der heutigen Schlossgartenallee, im Norden des Stadtgebiets war 1934 eine neue Festhalle fertig geworden, die mehrere tausend Personen fassen konnte (nach 1945 von verschiedenen Firmen und bis heute von einer Maschinenbaufirma genutzt). 1935 wurde Schwerin Sitz des neu entstandenen Landkreises Schwerin. Zur Heldenverehrung des in Schwerin geborenen und 1936 in der Schweiz erschossenen Nationalsozialisten Wilhelm Gustloff errichtete man einen gewaltigen Ehrenhain. Die Machthaber führten weitere Neu- und Umbaumaßnahmen in der Stadt durch mit dem Ziel, das Stadtbild an die damaligen Ideale einer Gauhauptstadt anzupassen und Schwerin zu einem logistischen und verkehrstechnischen Zentrum werden zu lassen. So sollte die Stadt von Monumentalbauten bestimmt werden, eine Volksfeierstätte am Lambrechtsgrund für etwa 20.000 Menschen entstehen, Kasernen, Wohnungen, Infrastruktur und der Wehrmachtsflugplatz Schwerin-Görries ausgebaut werden. Planungen sahen eine 30 Meter breite Schneise auf dem Gebiet der heutigen Wismarschen Straße bis ins Stadtzentrum für Aufmärsche und Paraden vor. Viele der Pläne wurden jedoch aufgrund fehlender finanzieller Mittel bei Kriegsanfang verworfen. Über dem Durchschnitt der Vorjahre lag jedoch der Neubau von Wohnungen. In Lankow und Neumühle wurde mit dem Bau von für diese Zeit typischen Eigenheimen begonnen. Die jüdische Gemeinde Schwerins (s. u.) hatte im April 1938 noch 49 Mitglieder. In der Reichspogromnacht vom 9. zum 10. November 1938 wurde die Synagoge am Schlachtermarkt durch Nationalsozialisten zerstört. Die Reaktionen der Schweriner auf die nationalsozialistische Ideologie und Diktatur reichten von Begeisterung bis zur stillschweigenden Zurückhaltung. Wie überall gab es kaum offenen Widerstand. Im Juli und November 1942, sowie zuletzt noch im November 1944 wurden jüdische Mitbürger der Stadt deportiert. Die heutige Carl-Friedrich-Flemming-Klinik (ehemalige Heil- und Pflegeanstalt) in Schwerin war ein Ort der Euthanasie. Bereits zu Beginn des Zweiten Weltkrieges, im Oktober 1939, entstand das "Stammlager II E", von dem aus Kriegsgefangene aus mehreren Ländern in der Rüstungsindustrie und der Land- und Forstwirtschaft eingesetzt wurden. Die Gefangenen waren in mehreren Barackenlagern, das größte war in Stern Buchholz, untergebracht. Vor allem die sowjetischen Gefangenen litten an Mangelernährung und wurden für gefährliche Arbeiten auf dem "Flugplatz Görries" und auf dem Wehrmachtsgelände in Stern Buchholz eingesetzt. Sie mussten z. T. unter unmenschlichen Bedingungen arbeiten, was zahlreiche Todesopfer zur Folge hatte. Während des Krieges erlebte Schwerin vier Bombenangriffe; der erste britischer Flugzeuge in der Nacht vom 20. zum 21. Juli 1940 zerstörte Häuser in und um die Severinstraße, wobei sechs Menschen ums Leben kamen. Ziel eines amerikanischen Bomberverbandes war am 4. und 25. August der Flugplatz in Görries, wobei es im benachbarten Dorfkern zu Schäden an 81 Häusern kam. Der letzte und schwerste Angriff mehrerer Staffeln amerikanischer Bomber am 7. April 1945 traf besonders Gründerzeit-Mietshäuser in der Feldstadt. Dabei kamen 217 Einwohner, nach anderer Quelle mehr als 250 Menschen ums Leben; 40 Häuser und der Schlachthof wurden vollständig und 29 teilweise zerstört. Auch eine Schule und der Friedhof wurden getroffen. Unter anderem wurden der Betriebshof des Nahverkehrs in der Wallstraße und dort abgestellte Wagen getroffen, was zur vorläufigen Einstellung der Personenbeförderung führte. Im Gegensatz zu anderen größeren Städten Norddeutschlands ging Schwerin vergleichsweise glimpflich aus dem Krieg hervor, auch weil dort kaum kriegswichtige Industrie angesiedelt war. Insgesamt wurde Schwerin zu 3 % zerstört. Ein Todesmarsch von Häftlingen des Konzentrationslagers Sachsenhausen endete in der Nähe von Schwerin, etwa 18.000 Gefangene überlebten. Amerikanische Truppen besetzten am 2. Mai 1945 die Stadt kampflos und übergaben die Besatzungsmacht am 1. Juni für einen Monat den Engländern. Gemäß den Abkommen der Alliierten Großbritannien, Sowjetunion und USA vom 12. September bzw. 14. November 1944 über die Aufteilung Deutschlands wurde die Stadt anschließend von der Roten Armee besetzt. Sowjetische Besatzungszone und DDR-Zeit. Nach dem Zweiten Weltkrieg wurde die Stadt Regierungssitz des Landes Mecklenburg-Vorpommern, das 1947 auf sowjetischen Befehl in Mecklenburg umbenannt wurde. Von 1945 bis 1949 stand Schwerin unter militärischer Verwaltung der Sowjetmacht. Am 21. September 1945 wurde hier der Schweriner Grenzvertrag geschlossen. Die Einwohnerzahl stieg wegen der Aufnahme von Flüchtlingen von 1939 bis 1946 von etwa 64.000 auf 88.000, was zu Wohnraummangel führte. Die Situation verschärfte sich, als das russische Militär am 12. Juli 1945 das Schlossgartenviertel zwischen Cecilienallee und Faulem See räumen ließ, weiterer Wohnraum wurde durch Landesbehörden belegt. Behelfsunterkünfte in Baracken, Kellerwohnungen und Wohnlauben gehörten zum Stadtbild. Durch Flucht von Einwohnern in die westlichen Besatzungszonen entspannte sich die Situation nach 1948 etwas, die Schaffung neuen Wohnraumes gehörte jedoch weiterhin zu den vordringlichen Aufgaben. 1949 wurde mit der Errichtung dreier Wohnblöcke auf dem Schwälkenberg der Wohnungsneubau begonnen. Am Demmlerplatz befand sich die Dienststelle der sowjetischen Geheimpolizei NKWD. Dort wurden zahlreiche, oft unschuldige Personen aus ganz Mecklenburg inhaftiert und willkürlich von sowjetischen Militärtribunalen zu harten Strafen verurteilt. 1954 übernahm die Bezirksdienststelle der Stasi den Komplex und nutzte ihn weiter als Haftort. Gegen die SED-Herrschaft und -Diktatur zeigte sich früh Opposition. Vier Schüler der Goethe-Oberschule wurden als Mitglieder der Jungen Gemeinde 1953 von der Schule gewiesen, wogegen sich breiter Protest regte. Am 17. Juni 1953 gab es Protestversammlungen der Arbeiter in der Bau-Union, den Abus-Werken und der Zigarettenfabrik, Streiks wurden aber nicht durchgesetzt. Nach Auflösung der Länder in der DDR 1952 wurde Schwerin mit damals 96.625 Einwohnern Bezirkshauptstadt des Bezirks Schwerin und Sitz der Kreisverwaltung des Kreises Schwerin-Land. Die Stadt selbst gehörte diesem Kreis nicht an, sondern bildete einen eigenen Stadtkreis. Der ehemalige Militärflugplatz Görries wurde in der Zeit von 1954 bis 1970 Industriegelände. Zu DDR-Zeiten errichtete der VEB Brauerei Schwerin im Forsthof ein Betriebs-Ferienlager. Drei verschiedene Bauepochen auf dem Großen Moor Im Wohnungsbau gab man zu DDR-Zeiten der Errichtung von Plattenbausiedlungen Vorrang. So wurde 1955 bis 1974 die Weststadt erweitert, von 1962 bis 1972 Plattenbauten in Lankow hochgezogen. Die Ansiedlung von Industrie in Schwerin-Süd ab 1972 führte zu einem Bedarf an Arbeitskräften und damit zu einer Steigerung der Einwohnerzahl. 1971 war Baubeginn auf dem Großen Dreesch im Süden der Stadt, dem später bevölkerungsreichsten Stadtteil Schwerins. Die Bausubstanz der Altstadt verfiel hingegen zusehends. Seit 1978 entstanden neue Wohngebäude auf dem Großen Moor in der Innenstadt, nachdem alte, vernachlässigte Bausubstanz dort abgerissen und am Burgsee aufgeschüttet worden war. Die Gestaltung der innerstädtischen Plattenbauten wurde durch Beibehaltung historischer Straßenführungen, teilweise Klinkerverblendung der Fassaden sowie die Anschrägung der Dächer aufgelockert. Ende der 1960er Jahre war geplant, die gesamte Schweriner Innenstadt bis auf wenige, besonders historisch bedeutsame, Bauten abzureißen und durch Plattenbauten zu ersetzen. Diese Pläne konnten aber mangels der hierfür notwendigen finanziellen Mittel nicht umgesetzt werden. Mit Ausnahme vereinzelter Rekonstruktionen wurden Konzepte und Planungen zur Umgestaltung der historischen Stadtteile aufgrund hoher Erschließungskosten nicht umgesetzt. Ein in den 1980ern gestecktes Ziel war es, bis 1990 jede Wohnung in einen warmen, trockenen und baulich sicheren Zustand zu versetzen, das angesichts dessen, dass 17.000 der 44.000 Wohneinheiten akuten Instandsetzungsbedarf aufwiesen, unerreichbar schien. Eine Bürgerinitiative, Architekten, Denkmalpfleger und Fotografen und die Tatsache, dass Ende der 1980er Jahre selbst das Geld für einen großflächigen Abriss fehlte, retteten die architektonisch wertvolle Schelfstadt. Erst in den 1980er Jahren wurden auch einige Fachwerkbauten saniert. Die Sport- und Kongresshalle im September 1964 An öffentlich zugänglichen Einrichtungen entstanden 1953–1956 das Stadion am Lambrechtsgrund und 1956 der Heimtierpark in Zippendorf (ab 1974 Zoologischer Garten), 1959–1962 die Sport- und Kongresshalle, bis 1964 der Fernsehturm mit Turmcafé und 1970 das Bezirksmuseum sowie das Freilichtmuseum Schwerin-Mueß. Kundgebung am Alten Garten im Oktober 1989 Im November 1979 wurde in Schwerin als eine der ersten Regungen der oppositionellen Umweltbewegung u. a. von Jörn Mothes die Baumpflanzbewegung in der DDR initiiert. Am 12. Dezember 1986 stürzte ein Passagierflugzeug auf dem Weg von Minsk kurz vor der Landung in Berlin-Schönefeld ab. Dabei starben 72 Personen, darunter 20 Schulkinder einer 10. Klasse der Ernst-Schneller-Schule in Schwerin. Am 23. Oktober 1989 fand die erste Montagsdemonstration in Schwerin statt, zu der sich 40.000 Menschen am Dom und auf dem Alten Garten zusammenfanden. Seit der Wiedervereinigung. Im Zuge des Stadtumbaus Ost neu gestaltete Plattenbauwohnungen auf dem Großen Dreesch Nach der Wiedervereinigung wurde Schwerin am 27. Oktober 1990 Landeshauptstadt von Mecklenburg-Vorpommern. Der Entscheidung ging ein Wettbewerb mit der Hansestadt Rostock voraus, bei dem Schwerin das Rennen machte. Kriterien dabei waren die geschichtliche Rolle Schwerins als Sitz der Herzöge und des Landtages von 1948 bis 1952 und vorhandene Gebäude, die sich für Ämter, Ministerien und die Regierung nutzen ließen. Außerdem sah man in Rostock auch ohne den Status einer Landeshauptstadt das Potenzial, Wissenschafts- und Wirtschaftszentrum zu werden. Auch Privatpersonen setzten sich für Schwerin als Hauptstadt ein, die Blumenfrau Bertha Klingberg sammelte 17.000 Unterschriften dafür. 1993 verließen die letzten russischen Besatzungstruppen die Stadt. Bei einer Kreisreform im Jahr 1994 blieb Schwerin kreisfrei, der "Kreis Schwerin-Land" wurde aufgelöst. Auch bei der nächsten Kreisgebietsreform von 2011 behielt Schwerin den Status als kreisfreie Stadt, nachdem Planungen, die zur Einbindung Schwerins in einen "Kreis Westmecklenburg" geführt hätten, infolge eines Urteils des Landesverfassungsgerichts gescheitert waren. Ab 1991 wurden das Schloss sowie die historischen Bereiche der Schelfstadt, des Zentrums, der Feldstadt und seit 2004 der Paulsstadt im Rahmen der Städtebauförderung gründlich saniert. Im Stadtteil Friedrichsthal entstand 1994 das erste neue Wohngebiet, das den Wegzug von Einwohnern ins Umland abbremsen sollte. Schwerin erhielt im bundesweiten Wettbewerb "Erhaltung des historischen Stadtraumes in den neuen Bundesländern 1992–1994" die Goldplakette. Neben dem Handel entwickelte sich vor allem die Kultur. Seit 1991 wird das Filmkunstfest Schwerin ausgerichtet; 1993 wurde die neue Freilichtbühne eingeweiht. Bis heute mangelt es jedoch an der Ansiedlung von Betrieben, die für eine Entlastung auf dem Arbeitsmarkt sorgen könnten. In einer Auflage von etwa 30 Millionen erschien 2007 die 2-€-Gedenkmünze mit dem Motiv "Schweriner Schloss" anlässlich der Bundesratspräsidentschaft Mecklenburg-Vorpommerns. 2009 richtete Schwerin die Bundesgartenschau aus, die 1,86 Mio. Besucher verzeichnete. Die umfangreichen vorbereitenden Arbeiten, beispielsweise im Schlossgarten und am Burgsee, begannen 2006. Eingemeindungen. Schwerin bestand ursprünglich nur aus der sogenannten Altstadt. Doch konnte die Stadt bereits ab 1282 einige umliegende Dörfer hinzugewinnen (etwa Zippendorf, Göhren oder Ostorf), die jedoch später wieder als eigenständige Gemeinden geführt wurden. Ab 1705 entstand durch Dekret des Herzogs von Mecklenburg infolge des Ausbaus der sogenannten "Schelfe" eine Siedlung, die sich zu einer eigenen Stadt "(Neustadt)" mit der St.-Nikolai-Kirche (auch Schelfkirche genannt) und dem Schelfmarkt entwickelte. 1832 wurde sie mit der Altstadt Schwerin vereinigt. Im 19. Jahrhundert dehnte sich die Stadt weiter aus. Es entstanden ab etwa 1840 die "Paulsstadt" in Richtung Westen und in der 2. Hälfte des 19. Jahrhunderts die "Feldstadt" in Richtung Süden. Danach setzte mit steigender Bevölkerungszahl auch ein Wachstum des städtischen Territoriums ein, neben Eingemeindungen auch eine Übertragung ehemals großherzoglicher Flächen in die Verwaltungshoheit der Stadt. Einwohnerentwicklung. → "Hauptartikel: Einwohnerentwicklung von Schwerin" Die Einwohnerzahl der Stadt überschritt 1972 die Grenze von 100.000, wodurch Schwerin zur Großstadt wurde. 1988 erreichte die Bevölkerungszahl mit über 130.000 ihren historischen Höchststand. Inzwischen ist die Einwohnerzahl jedoch auf knapp 92.000 gesunken. Seit der Wende in der DDR hat die Stadt wegen der hohen Arbeitslosigkeit, des Geburtenrückgangs und der Abwanderung in das Umland bis 2005 etwa 34.000 Einwohner verloren. Vom Einwohnerverlust waren die Plattenbaugebiete in besonderem Maße betroffen. Durch den starken Wohnungs- und Eigenheimbau im Schweriner Umland wuchs dort die Einwohnerzahl um etwa 20.000. Im Gegensatz zu anderen vergleichbaren Städten Ostdeutschlands (beispielsweise Cottbus, Gera, Jena und Zwickau) konnte der Einwohnerverlust Schwerins nicht durch Eingemeindungen gemildert werden. Am 31. Dezember 2006 lebten in Schwerin nach Fortschreibung des Statistischen Amtes Mecklenburg-Vorpommern 96.280 Menschen mit Hauptwohnsitz. Zudem waren mit diesem Datum 1049 Nebenwohnsitze gemeldet. Um der Stadtflucht zu begegnen, fördert die Kommune seit Jahren neue Baugebiete innerhalb der Stadtgrenzen. Das Bundesamt für Bildung und Forschung erkennt bereits erste Erfolge und eine Trendumkehr. So gibt es Zuzüge in attraktivere Wohnlagen und neue Baugebiete, während die Bevölkerungszahlen in den Plattenbaugebieten des Großen Dreeschs, Neu Zippendorfs und des Mueßer Holzes überdurchschnittlich stark sinken. Der Einwohnerschwund konnte zwar insgesamt nicht gestoppt, jedoch verlangsamt werden. Neben Wilhelmshaven wurde Schwerin 2007 als Modellkommune für ein bei der Technischen Universität Dortmund in Auftrag gegebenes Forschungsvorhaben des Bundes ausgewählt, bei dem Wanderungsbewegungen zwischen Stadt und Umland näher untersucht werden. Stadtvertretung. An der Spitze der Stadt stand seit dem 13. Jahrhundert der Rat mit zumeist zwölf Ratsherren. Den Vorsitz hatten der beziehungsweise die Bürgermeister, zeitweise gab es zwei oder drei Bürgermeister. Im 19. Jahrhundert, nach Vereinigung von Alt- und Neustadt gab es zwei Bürgermeister. Ab 1919 tragen die Bürgermeister den Titel Oberbürgermeister. Dieser wurde über Jahrhunderte vom Rat der Stadt gewählt. Seit 2002 wird er direkt vom Volk gewählt. Die Vertretung der Bürger ist die Stadtvertretung. Die Mitglieder der Stadtvertretung "(derzeit 45)" werden von den Bürgern der Stadt auf fünf Jahre gewählt. Vorsitzender ist der Stadtpräsident. Dieses zusätzliche repräsentative Amt in der Stadt wurde 1990 neben dem Amt des Oberbürgermeisters durch das „Gesetz über die Selbstverwaltung der Gemeinden und Landkreise in der DDR“ durch die damalige Volkskammer der DDR eingeführt. Es wurde zunächst hauptamtlich wahrgenommen. Seit der Änderung der Kommunalverfassung 1994 wird es nur noch ehrenamtlich ausgeführt. Der Stadtpräsident leitet die Sitzungen, bereitet diese vor und vertritt die Stadtvertretung nach außen. Er repräsentiert zusammen mit dem Oberbürgermeister die Stadt. Die Stadt (Wahlkreisnummer 4) besteht aus 93 Wahlbezirken mit 79.615 Wahlberechtigten. Jeder Wähler hat 3 Stimmen. Zur Wahl gingen 32.513, die 1573 ungültige und 94.279 gültige Stimmen abgaben. Dies entspricht einer Wahlbeteiligung von rund 40,8 %. → "Ergebnisse der Kommunalwahlen in Schwerin" "Näheres zum Wahlverfahren und zu rechtlichen Bestimmungen:" Kreistag (Mecklenburg-Vorpommern) In der Stadtvertretung gibt es folgende Fraktionen: CDU (incl. FDP, 12 Mitglieder), DIE LINKE. (11 Mitglieder), SPD (9 Mitglieder), UB (5 Mitglieder), GRÜNE (4 Mitglieder). Es gibt 4 fraktionslose Mitglieder: AfD (3 Mitglieder), ASK (1 Mitglied). Im November 2010 trat der bisherige Fraktionsvorsitzende aus der Partei Bündnis 90/Die Grünen aus, behielt jedoch sein Mandat in der Stadtvertretung. Die Fraktion löste sich in der Folge auf; Teile von ihr bildeten eine gemeinsame Fraktion mit der SPD. Europawahl 2009. Unter den sonstigen Parteien erreichte jeweils keine mehr als 1,6 %. Bürgermeister und Oberbürgermeister. Bis 1919 gab es zwei Bürgermeister, so dass sich die Amtszeiten in jener Zeit überschneiden. Nach 1919 gab es nur noch ein Stadtoberhaupt, das seitdem den Titel Oberbürgermeister trägt. Seit 1990 gibt es außerdem einen Stadtpräsidenten. Wappen. Das geänderte Wappen wurde am 11. Februar 1991 durch das Innenministerium genehmigt und unter der Nr. 26 der Wappenrolle von Mecklenburg-Vorpommern registriert. Wappen von 1939 bis 1991 Blasonierung: „In Blau das goldene Reiterbildnis Herzog Heinrichs des Löwen: ein Ritter mit Topfhelm auf einem gezäumten, schreitenden Ross, in der Rechten eine dreilatzige Fahne und in der Linken einen Dreiecksschild mit einem leopardierten Löwen haltend.“ Das Wappen wurde 1990 neu gezeichnet und die Gestaltung des Reiterbildnisses verändert. Das Wappen Schwerins ist bereits auf einem Siegel von 1255 nachweisbar. In der aktuellen Form, die am 11. Februar 1991 beschlossen wurde, war es bereits offizielles Wappen vom 10. April 1858 bis 30. September 1939. Von 1939 bis 1991 wurde ein nur leicht verändertes Wappen in den Farben der Welfen, der Familie Heinrichs des Löwen, genutzt, auf dem außerdem ein nicht-leopardierter Löwe zu sehen war. Das Gonfanon des Ritters wurde darüber hinaus um einiges größer dargestellt. Flagge. Die Stadtflagge ist dreifach längsgestreift. Die äußeren Streifen zeigen die Farbe Gelb und nehmen je zwei Siebentel der Höhe ein. Der mittlere Streifen zeigt die Farbe Blau. Er nimmt drei Siebentel der Höhe ein und ist mit der etwas zum Liek hin verschobenen gelben Wappenfigur belegt. Die Höhe des Flaggentuchs verhält sich zur Länge wie 7: 9. Siegel. Das Stadtsiegel Schwerins zeigt das Bild des Stadtgründers, Herzog Heinrich den Löwen von Sachsen in ganzer Figur zu Ross mit dem Löwenschilde am Arm. Das Dienstsiegel enthält die Figur des Stadtwappens und die Umschrift LANDESHAUPTSTADT SCHWERIN. Stadtlogo. Das Stadtlogo besteht seit dem 1. April 2005 aus dem weißen, rechtsbündigen und am unteren Rand befindlichen Schriftzug „Landeshauptstadt Schwerin“ in Großbuchstaben auf blauem Untergrund. Das Wort „Schwerin“ ist in einer größeren Schriftart und fett hervorgehoben. Zusätzlich sind oberhalb des Schriftzugs am rechten Rand zwei versetzt übereinander gelagerte Quadrate in den Farben Gelb über Blau angeordnet. Unterlegt ist alles durch eine Art Wasserzeichen in Form des historischen Siegels. Städtepartnerschaften. Schwerin unterhält innerhalb der Europäischen Union Städtepartnerschaften mit Vaasa in Finnland seit 1965, Reggio nell’Emilia in Italien seit 1966, Wuppertal in Nordrhein-Westfalen seit 1987, Tallinn in Estland seit 1993 (Kontakte bereits seit 1970), Odense in Dänemark seit 1995, Schneidemühl / Piła in Polen seit 1996 und Växjö in Schweden seit 1999 (Kontakt bereits seit 1996). Außerhalb der EU besteht seit 1997 eine städtepartnerschaftliche Beziehung mit Milwaukee, Wisconsin in den USA. Kultur und Sehenswürdigkeiten. → "Siehe auch Liste der Baudenkmale in Schwerin" Theater. Das Mecklenburgische Staatstheater Schwerin gibt Aufführungen in den Sparten Schauspiel, Niederdeutsches Schauspiel, Puppenspiel, Musiktheater, Ballett und Konzerte. Jährlicher Höhepunkt sind die Schlossfestspiele unter freiem Himmel auf dem Alten Garten. Die 2001 aufgeführte Verdi-Oper Nabucco wurde über die Saison von mehr als 60.000 Zuschauern besucht. Neben der Hauptspielstätte, dem Großen Haus und dem Alten Garten sind das ehemalige E-Werk am Pfaffenteich, Schiffe der Weißen Flotte, der Dominnenhof, die Freilichtbühne Schwerin und das Foyer-Café weitere Aufführungsplätze. Seit 2004 wird im Theaterprojekt „Absolute Beginner“ Interessierten aller Generationen ab 15 Jahren die Möglichkeit des Schauspiels und des tieferen Einblicks in den Alltag und die Arbeitsweisen des Mecklenburgischen Staatstheaters geboten. Außerdem gibt es die Theatergruppe des Goethe-Gymnasiums Schwerin „TaGGS“ sowie das Tanztheater "Lysistrate" vom selben Gymnasium, das Deutschland 2007 erfolgreich auf dem Schultheater-Weltkongress in Hongkong vertreten hat. Museen und Ausstellungen. Das Staatliche Museum Schwerin umfasst das Museumsgebäude auf dem Alten Garten, die Schlossmuseen in Güstrow, Ludwigslust und Schwerin sowie ein Kupferstich- und Münzkabinett in der Werderstraße. Im Hauptgebäude finden sich neben Kunstsammlungen flämischer und holländischer Maler des 16. bis 18. Jahrhunderts bis hin zu zeitgenössischer Kunst auch Porzellan- und Tongefäßsammlungen und mittelalterliche Kunstsammlungen aus heimatlichen Kirchen, wie z. B. der Neustädter Altar. Es gibt regelmäßig wechselnde Ausstellungen, Veranstaltungen und Vorträge. Im Marstall hat das Technische Landesmuseum seinen Sitz. Seine Ausstellung zeigt die Technikgeschichte Mecklenburg-Vorpommerns mit dem Schwerpunkt Verkehrsgeschichte. Das Archäologische Landesmuseum Mecklenburg-Vorpommern befindet sich seit Mitte des 18. Jahrhunderts in Schwerin und stellt bedeutende archäologische Funde aus Mecklenburg-Vorpommern, die auf eine lange Geschichte zurückblicken lassen, aus. Das "Stadtgeschichtsmuseum" fiel Sparmaßnahmen der Stadt zum Opfer und wurde 2005 geschlossen. Der Stadtgeschichts- und -museumsverein Schwerin e. V. betreibt seit 1996 die Schleifmühle am Faulen See, eine rekonstruierte Wassermühle, die zu einem Museum für Naturstein-, Edelstein- und Mineralienbearbeitung ausgebaut wurde. Das Haus gehörte von seiner Eröffnung von 1985 an bis Ende 1995 zum Stadtgeschichtsmuseum. Im Stadtteil Mueß befindet sich das Freilichtmuseum Schwerin-Mueß, das über die Lebensweise der mecklenburgischen Landbevölkerung vom 17. Jahrhundert bis zum Beginn des 20. Jahrhunderts informiert. Weitere Museen in freier Trägerschaft sind "Dat oll’ Hus" und das "Petermännchen-Museum", in dem es hauptsächlich um die Geschichte des Schweriner Schlossgeistes, das Petermännchen, geht. In der Halle am Fernsehturm in Neu Zippendorf eröffnete im April 2009 das Internationale Feuerwehrmuseum. Es zeigt die Geschichte der Brandbekämpfung und der Feuerwehren, die technische und politische Entwicklung sowie die Sozialgeschichte der Brandbekämpfer. Das „Schleswig-Holstein-Haus“ in der Puschkinstraße ist das Ausstellungshaus der Stadt. In ihm wurde 2006 eine weltweit beachtete „Arno-Breker“- Ausstellung und 2007 die Ausstellung „Überklebt – Plakate aus der DDR“ gezeigt. Die seit 2009 in Schwerin ansässige Stiftung Mecklenburg zeigt ebenfalls Ausstellungen zur Geschichte Mecklenburgs und der Stadt Schwerin. Dabei nutzt sie auch die Ausstellungsräume des in städtischer Trägerschaft befindlichen Schleswig-Holstein-Hauses. Bibliotheken. Neben der Landesbibliothek für Mecklenburg-Vorpommern mit ihrem Sitz in Schwerin, gibt es auch die Stadtbibliothek. Die Stadtbibliotheken von Schwerin und Wismar bieten seit 2010 mit dem gemeinsamen Angebot einer Digitalen Bibliothek die erste interkommunale Kooperation dieser Art in Deutschland. Kinos. Das "Capitol" in der Wismarschen Straße wurde in den 1990er Jahren zu einem Kino mit heute fünf Sälen und 1688 Sitzen ausgebaut. Es ist außerdem Veranstaltungsort für weitere kulturelle Ereignisse, Höhepunkt hierbei ist das Filmkunstfest Mecklenburg-Vorpommern, zu welchem stets prominente Gäste die Stadt besuchen. Das Capitol wurde 1936 als Lichtspieltheater eingeweiht und war durch eine Bühne damals schon für Theater-, Konzert- und Varieté-Vorstellungen ausgelegt. An seiner Stelle befanden sich zuvor eine Tonhalle, die als Gaststätte, Speisesaal und später als Festsaal diente und 1920 abbrannte. Am Bleicherufer wurde in den 1990er Jahren das Multiplex-Kino "Mega Movies" errichtet, welches sechs Kinosäle mit insgesamt 1072 Plätzen bietet. Andere Kinos, wie beispielsweise das "Forumkino", zeigen ein alternatives Programm und sind weniger bekannt. Bauwerke. Wahrzeichen der Stadt und Touristenmagnet ist das Schweriner Schloss, das in der jetzigen Form von 1843 bis 1857 unter Großherzog Friedrich Franz II. erbaut wurde und sich auf einer Insel zwischen dem Schweriner See und dem Burgsee befindet, die über die Schlossbrücke mit der Stadt verbunden ist. Es war in der Vergangenheit Residenz mecklenburgischer Herzöge und ist heute Sitz des mecklenburg-vorpommerschen Landtages. Dem Schloss ist der "Alte Garten" vorgelagert, ein repräsentativer Platz, der sich in der Geschichte vom sumpfigen Platz über einen Küchengarten, einen Lustgarten mit Springbrunnen, einer Reitbahn, einem Paradeplatz bis hin zum Kundgebungsort entwickelt hat und heute vorwiegend für kulturelle Veranstaltungen genutzt wird. In der Umgebung des Schlosses sind unter anderem der "Schlossgarten" und viele Gebäude wie das "Staatliche Museum", das "Mecklenburgische Staatstheater", die 32 Meter hohe "Siegessäule", die an die Gefallenen des Deutsch-Französischen Krieges 1870/71 erinnert, das Alte Palais, der "Marstall" und die Staatskanzlei im Stil des Klassizismus sehenswert. Das gesamte heutige Stadtbild ist durch das Wirken Georg Adolf Demmlers geprägt worden. Das Altstädtische Rathaus auf dem Markt wurde 1338 erstmals erwähnt und brannte in seiner Geschichte dreimal ab. Vor das ursprüngliche Gebäude setzte Demmler 1835 eine neue Fassade im Tudorstil. Auf der Mittelzinne ist der Stadtgründer Heinrich der Löwe als goldener Reiter dargestellt. Ebenfalls in der Altstadt, Ecke Buschstraße/3. Enge Straße, steht eines der ältesten noch erhaltenen Häuser Schwerins von 1698. In dem Fachwerkgebäude befand sich bis 1857 eine Weinhandlung, seitdem betreibt eine Familie seit mehreren Generationen bis heute hier eine Kunstdrechselei. Noch früheren Ursprungs ist ein Fachwerkbau im Domhof. Eine Balkeninschrift zeigt das Entstehungsjahr 1574 an. Genutzt wurde er bis 1916 als Hotel und danach als Verwaltungsgebäude. Es beherbergt heute das Landesamt für Denkmalpflege Mecklenburg-Vorpommern. Seit der Instandsetzung des Fachwerkhauses Puschkinstraße 36, Ecke Domhof, gibt es Anzeichen, dass hier der älteste Profanbau Schwerins stehen könnte. Es wurden Balken gefunden, die auf das Entstehungsjahr 1573 deuten. An Kirchenbauten finden sich im Stadtgebiet unter anderem der Schweriner Dom, die Paulskirche, Schelfkirche und die Propsteikirche St. Anna, der erste katholische Kirchenbau nach der Reformation in Mecklenburg. Das nach der Wende entsprechend einem restauratorischen Befund in einem Orangeton gestrichene Arsenal am Pfaffenteich ist das älteste Gebäude an diesem Gewässer und heute Sitz des Innenministeriums des Landes. Das Gebäude des Finanzministeriums in der Schlossstraße entstand ursprünglich 1911 als Hotelbau des damaligen "Nordischen Hofes" und ging 1920 in Staatsbesitz. Das denkmalgeschützte Hauptpostamt wurde 1892 bis 1897 im Stil der Neorenaissance nach einem Entwurf von E. Hake erbaut. Eine Gedenktafel erinnert daran, dass am 24. Dezember 1945 in diesem Haus der Oberpostdirektion der „Landessender Schwerin“ sein regionales Rundfunkprogramm eröffnete. In nordwestlicher Stadtrandlage ist das Jagdschloss Friedrichsthal aus dem späten 18. Jahrhundert zu sehen. Es war eine Jagdresidenz des mecklenburgischen Großherzogs Friedrich Franz I. Im Stadtteil Neumühle wurde 1887 ein Wasserturm auf der höchsten Erhebung Schwerins errichtet, der bis heute erhalten ist und Bestandteil des ersten Wasserwerks der Stadt war. 1907 erbaute man im Ortsteil Mueß am Südufer des Schweriner Sees die künstlich angelegte Burgruine Reppiner Burg auf einem vermutlich ehemaligen slawischen Burgwall. Weitere Attraktionen der Stadt sind der Schweriner Fernsehturm, das Neustädtische Palais, das ehemalige Neustädtische Rathaus in der Schelfstadt, das "Schleswig-Holstein-Haus", das Bahnhofsgebäude, die "Artilleriekasernen" und das Offizierskasino südlich des Schlossgartens, der denkmalgeschützte ehemalige Getreidespeicher im Hafengebiet am Ziegelsee (heute zum Hotel umgebaut) und einige Märkte mit Brunnen und Skulpturen. Stadtansicht mit Blick vom Schweriner See Denkmäler, Brunnen und Skulpturen. Aus der Zeit Schwerins als Residenzstadt des Großherzogtums Mecklenburg-Schwerin sind drei künstlerisch wertvolle Denkmäler erhalten: das Bronzestandbild Großherzogs Paul Friedrich (1849 von Rauch) auf dem Alten Garten vor der Museumstreppe, das Reiterdenkmal Friedrich Franz II. (1893 von Brunow) im Schlossgarten und das Marmorstandbild der Großherzogin Alexandrine (1907 von Berwald) im Grünhausgarten. In der Stadt befinden sich überdies einige bemerkenswerte Denkmäler und Gedenksteine, u. a. für Friedrich Wilhelm Kücken (1885), Heinrich Schliemann (1895), Heinrich von Stephan (1898), Großherzogin Auguste (1905). Aus der Zeit der DDR stammt das westlichste noch bestehende Lenin-Standbild in Europa (1985 von Jaak Soans) im Stadtteil Mueßer Holz. Die zahlreichen Schweriner Denkmäler, die in Zusammenhang mit den in der Stadt stationierten Regimentern und ihren Gefallenen standen, sind fast ausnahmslos nach 1945 zerstört worden. Als künstlerisch wertvoll blieben lediglich die "Siegessäule" für die Gefallenen von 1870/71 auf dem Alten Garten (1874 von Willebrand und Willgohs) und der "Trauernde Soldat" auf dem Gräberfeld von 1914/18 auf dem Alten Friedhof (1936/37 von Wilhelm Wandschneider) erhalten. Dagegen gibt es eine Reihe von Gedenkstätten für die Opfer des Zweiten Weltkrieges. Im 18. und insbesondere Mitte des 19. Jahrhunderts sind im näheren Umfeld des Schlosses eine größere Anzahl von Skulpturen aufgestellt worden, von denen einige verschollen sind aber in den vergangenen Jahren rekonstruiert werden konnten. Weitere Skulpturen und Brunnen entstanden während der DDR-Zeit, hauptsächlich in den 1970er Jahren. Auch nach 1990 sind einige neue Kunstwerke öffentlich aufgestellt worden. Kunsthandwerk. Die in der Umgebung von Schwerin hergestellten Mecklenburger Strohbilder sind einfache, volkskundliche Bildkompositionen im realistischen Stil. Sonstige Sehenswürdigkeiten. Anziehungspunkte sind die elf Seen auf dem Stadtgebiet mit ihren ufernahen Parkanlagen sowie den "Naturerfahrungsräumen Seenatour", die Anlegestelle der Weißen Flotte in der Nähe des Schlosses, die Fahrgäste zur Insel Kaninchenwerder im Schweriner See bringt, und der Schweriner Zoo. Regelmäßige Veranstaltungen. Viele regelmäßige Veranstaltungen finden in Schwerin statt. So ist Schwerin einer der Spielorte der Festspiele Mecklenburg-Vorpommern. Der "Schweriner Kultur- und Gartensommer" ist eine Veranstaltungsreihe, die jährlich von Frühjahr bis Herbst stattfindet. Gärten, historische Gebäude und die Altstadt werden als Veranstaltungsorte genutzt, beispielsweise für Konzerte, Märkte, Shows, Kleinkunstfestivals, Ausstellungen und Theateraufführungen. Im Mai findet das Filmkunstfest Mecklenburg-Vorpommern, die "Flottenparade der Weißen Flotte" und der "Schweriner Nachtlauf" statt, im Juni und Juli sind es der "Töpfermarkt", die "Schlossfestspiele" (Freiluft-Oper, organisiert durch das Mecklenburgische Staatstheater), im Juli findet außerdem das größte Volkssportereignis in Mecklenburg-Vorpommern, der "Fünf-Seen-Lauf" statt. Er gehört zu den zehn beliebtesten Läufen Deutschlands und findet immer am 1. Samstag im Juli mit Laufstrecken über 10, 15 und 30 Kilometer statt. Ebenfalls am 1. Samstag im Juli findet der Schweriner Christopher Street Day (CSD) statt. Im August gibt es den jährlich stattfindenden "Schreibwettbewerb" der Stadt Schwerin und des Urgent-Verlags mit Publikation in der Schweriner Literaturzeitschrift „Reflexe“. Im September (1.Samstag) gibt es noch ein weiteres größeres Sportereignis – das "Rosa Paddel". Als größte Paddelveranstaltung am Schweriner See (Länge ca. 17 km, 60–80 Teilnehmer), wird es seit 1979 vom SV Theater ausgerichtet. Es findet noch das "Drachenbootfestival" und das "Altstadtfest" statt. Im September gibt es als Sportveranstaltung den "Zehnkampf für Jedermann" und das "Weinfest". Im Oktober gibt es die "Interkulturellen Wochen" und im November kommt der Lübecker Martensmann zum "Martensmarkt" nach Schwerin. Mit dem traditionellen Weihnachtsmarkt "Der Stern im Norden" endet das Veranstaltungsjahr. Allgemein. An Institutionen und Einrichtungen beziehungsweise Körperschaften des öffentlichen Rechts haben die Handwerkskammer Schwerin, die Evangelisch-Lutherische Landeskirche Mecklenburgs, die Industrie- und Handelskammer zu Schwerin, das Landgericht Schwerin, das Verwaltungsgericht Schwerin, das Sozialgericht Schwerin, welches dem Landessozialgericht Mecklenburg-Vorpommern mit Sitz in Neustrelitz untergeordnet ist, und das Arbeitsgericht Schwerin, das dem Landesarbeitsgericht Mecklenburg-Vorpommern mit Sitz in Rostock unterstellt ist, ihren Sitz in Schwerin. Zudem befinden sich in Schwerin Außenstellen des Bundesamtes für Güterverkehr, des Eisenbahn-Bundesamtes, eine Nebenstelle der Bundesanstalt für Immobilienaufgaben, einige Landesministerien sowie kommunale Ämter und Behörden. Bildung. Schwerin bietet ein breites Angebot an allgemein bildenden Schulen: vier Gymnasien (je ein Abend-, Sport-, Musik- und Sprachgymnasium), eine Gesamtschule, drei Regionale Schulen, Grundschulen, diverse Förderschulen mit unterschiedlichen Förderzielen, Berufliche Schulen der verschiedenen Berufszweige und die Volkshochschule "Ehm Welk". Das 1553 gegründete altsprachliche Gymnasium Fridericianum Schwerin kann auf eine jahrhundertelange humanistische Tradition zurückblicken. Sie ist die einzige Schule des Landes Mecklenburg-Vorpommerns an der das Graecum durch Schulunterricht erworben werden kann. Das Goethe-Gymnasium hat den Status eines Musikgymnasiums, das Sportgymnasium ist eine Eliteschule des Sports. Des Weiteren ergänzen mehrere Schulen in freier Trägerschaft das Bildungsangebot – darunter die 1735 eröffnete und damit zu den ältesten Schulen Schwerins gehörende Niels-Stensen-Schule in Trägerschaft der Bernostiftung. Schwerin ist im 21. Jahrhundert auch Hochschulstadt. Insgesamt waren im Jahr 2014 rund 600 Studenten an den Hochschulen der Stadt eingeschrieben. Das 2001 gegründete "Baltic College" war die erste staatlich anerkannte private Hochschule in Schwerin. Im Februar 2013 wurde es in die Fachhochschule des Mittelstands (FHM) eingegliedert, die auch in Rostock einen Campus hat. Im Jahr 2014 werden am Schweriner Standort die Bachelor-Studiengänge in den Fächern Hotel- und Tourismusmanagement, internationales Unternehmensmanagement, Gesundheitswirtschaft, Wirtschaftsingenieurwesen, sowie die Master-Studiengänge Werbe-Management im Tourismus und internationales Management angeboten. Zudem befindet sich mit dem "Deutsch-Chinesischen Mittelstands-Institut" (DCMI) an der FHM Schwerin eine Ausbildungseinrichtung für hochqualifizierte, deutschsprachige Führungsnachwuchskräfte aus China, die bei Unternehmen in China und Deutschland zum Einsatz kommen. Seit September 2006 hat die Hochschule der Bundesagentur für Arbeit mit Hauptsitz in Mannheim einen Standort in Schwerin-Groß Medewege. Die private höhere Berufsfachschule "DesignSchule Schwerin" bietet Ausbildungen und Bachelor-Studiengänge in den Bereichen Game-, Grafik- und Modedesign an. Es gibt Bestrebungen, weitere private Hochschulen in Schwerin anzusiedeln. Zu diesem Zweck wurde u. a. 2003 der gemeinnützige Förderverein "Förderer von Hochschulen in Schwerin" gegründet. Weitere Hochschulstandorte oder sogar eine Privatuniversität seien in Schwerin denkbar, so die Einschätzung des Ministeriums für Bildung, Wissenschaft und Kultur. 2002 wurde das "Hydrogen Institute of Applied Technologies" (HIAT) als gemeinnützige Forschungseinrichtung gegründet. Ein Hauptaugenmerk des Institutes liegt dabei auf der Forschung und Entwicklung von Brennstoffzellen. Sitz der Einrichtung ist das Wasserstoff-Zentrum Schwerin im Technologie- und Gewerbezentrum (TGZ) der Landeshauptstadt. Seit 1992 der Volkshochschule unterstellt ist das 1962 als Schulsternwarte gegründete "Planetarium Schwerin", in dem populärwissenschaftliche Vorträge sowie Führungen, Konzerte, Jugendprojekte und Astronomieunterricht angeboten werden. Religion. Blick über den Pfaffenteich zur Schelfkirche Die Stadt Schwerin gehörte bis zur Einführung der Reformation zum Bistum Schwerin und war Sitz eines eigenen Archidiakonats. Zum Domstift gehörten neben dem Propst und dem Dekan noch zehn, später zwölf Domherren. Evangelisch-lutherische Kirche. Nach mehreren evangelischen Predigten war die Stadt ab 1538 größtenteils protestantisch. In der Stadt war bis 2012 der Sitz der Kirchenleitung der Evangelisch-Lutherischen Landeskirche Mecklenburgs. Seit Pfingsten 2012 befindet sich in Schwerin einer von zwei (übergangsweisen) Sprengelbischofsitzen der neu gegründeten Evangelisch-Lutherischen Kirche in Norddeutschland. Der Protestantismus in der evangelisch-lutherischen Form ist die historisch vorherrschende Religion in Schwerin. Die Mitgliederzahlen nahmen in der DDR drastisch ab. In den neuen Bundesländern, so auch in Schwerin, sind nur etwa ein Drittel der Bevölkerung Mitglied einer Religionsgemeinschaft, davon in Schwerin die meisten evangelisch-lutherisch. Administrativ gehörten die Kirchengemeinden der Stadt bis Pfingsten 2012 zur Propstei Schwerin-Stadt innerhalb des Kirchenkreises Wismar der Evangelisch-Lutherischen Landeskirche Mecklenburgs. Mit der Fusion der Nordelbischen, Mecklenburgischen und Pommerschen evangelischen Landeskirchen zur so genannten „Nordkirche“ hat sich die Verwaltungsstruktur geändert. Die Gemeinden gehören dem Kirchenkreis Mecklenburg an, der wiederum zum Sprengel Mecklenburg und Pommern gehört. Als freies Werk innerhalb der Evangelischen Landeskirche arbeitet die Landeskirchliche Gemeinschaft in Schwerin. Sie gehört zum Mecklenburgischen Gemeinschaftsverband innerhalb des Evangelischen Gnadauer Gemeinschaftsverbandes e. V. Die Anfänge der Gemeindearbeit liegen um 1905. 1910 wurden die Gemeinderäume am Ziegenmarkt 4 erworben. Der Hauptsitz der LKG Schwerin ist in der Schelfstadt Schwerins. Römisch-katholische Kirche. Um Herzog Christian Ludwig I., der 1663 aus politischen Erwägungen zum Katholizismus übertrat, scharten sich einige Anhänger, und 1709 gründeten die Jesuiten in Schwerin eine Missionspfarrei. Die offizielle Anerkennung des katholischen Gottesdienstes nach der Reformation erfolgte 1732. Es dauerte noch bis 1795, bis die Gemeinde ihre eigene Kirche, die heutige (seit 1967) Propsteikirche St. Anna erhielt. Zu Beginn des 19. Jahrhunderts gab es in ganz Mecklenburg knapp 500 Katholiken. Die Gleichstellung mit der protestantischen Kirche erfolgte 1903. Aus der St.-Annen-Gemeinde entstanden in den 1970er Jahren die St.-Martin- und die St.-Andreas-Gemeinde. Die katholischen Pfarrgemeinden der Stadt Schwerin gehören zum Dekanat Schwerin des Erzbischöflichen Amtes Schwerin innerhalb des Erzbistums Hamburg. Der katholische Friedhof an der Wismarschen Straße wurde 1861 geweiht. Freikirchen. Die Anfänge der Schweriner Baptistengemeinde gehen auf das Jahr 1855 zurück, regelmäßige Versammlungen gibt es seit 1901. 1950 zählte man 1100 Mitglieder. Heute gehören zur Evangelisch-Freikirchlichen Gemeinde Schwerin (Baptisten) rund 180 Mitglieder. 2010 wurde im Stadtteil Neumühle ein neugebautes Gemeindezentrum eingeweiht. Die Gemeinde gehört zum "Evangelisch-Freikirchlichen Landesverband Mecklenburg-Vorpommern/Baptisten". In Schwerin gibt es zwei Pfingstgemeinden, die Gemeinde Gottes KdöR "Christliches Zentrum Schwerin", seit 1993 in der Paulsstadt ansässig, sowie die "Christengemeinde Arche Schwerin" und eine Freie evangelische Gemeinde. Neuapostolische Kirche. Die Gemeinde der Neuapostolischen Kirche wurde am 28. Dezember 1924 durch Bezirksapostel Edmund Blöcker aus Hamburg gegründet. Der Bezirksvorsteher Paul Karkhof wurde der erste Gemeindevorsteher. 1929 wuchs die Mitgliederzahl auf über 50, weshalb Gottesdienste nicht mehr in den Wohnungen der Mitglieder durchgeführt werden konnten. Bis zum Ende des Zweiten Weltkriegs waren es 180 und durch die Flüchtlingsströme 740 Mitglieder. Deshalb wurde die Gemeinde 1953 in Schwerin I und Schwerin II geteilt. 1973 wurden beide Gemeinden wieder vereinigt, nachdem zahlreiche Mitglieder innerhalb der DDR als auch in die Bundesrepublik umgezogen waren. Seit 1956 befinden sich die Gemeinde und die Verwaltung für Mecklenburg-Vorpommern in der Schweriner Paulsstadt. 1994 besuchte der damalige Kirchenpräsident Richard Fehr die Gemeinde zu einem Festgottesdienst, versetzte den Bezirksapostel für Mecklenburg-Vorpommern Willy Adam in den Ruhestand und führte den neuen Bischof von Mecklenburg-Vorpommern Ekkehard Möller ein. Außerdem wurde Mecklenburg-Vorpommern an den Bezirksapostel Wilhelm Leber, den jetzigen Kirchenpräsidenten, nach Hamburg übergeben. Jüdische Gemeinde. Im Mittelalter war das damalig wirtschaftsschwache Schwerin für jüdische Zuwanderer unattraktiv; die Geschichte der jüdischen Gemeinde begann 1671 mit dem herzoglichen Schutzbrief für den Tabakhändler Levin Saalman. Bereits 1694 wurde ein Friedhof am Pfaffenteich eingerichtet, der 1717 auf das Schelffeld verlegt wurde. Der Tabakhändler Michael Hinrichsen besaß lange ein Monopol. Sein Sohn diente als Hoffaktor dem finanzschwachen Herzog Carl Leopold. 1773 wurde der Bau einer Synagoge genehmigt, 1794 lebten 284 Juden in Schwerin. Antisemitische Ausfälle widerfuhren der Gemeinde während der Hep-Hep-Unruhen 1819. Im 20. Jahrhundert nahm die Zahl der Mitglieder von anfangs etwa 300 auf 151 im Jahre 1932 ab. Wurden 1933 in ganz Mecklenburg 1003 Einwohner jüdischen Glaubens gezählt, so hatte sich die Zahl nach dem Ende des Zweiten Weltkrieges 1947 auf 98 reduziert, wovon 18 in Schwerin lebten. 1946 wurde die jüdische Landesgemeinde auf Initiative des Ingenieurs Hugo Mehler wiederbelebt. Im folgenden Jahr erhielt die Gemeinde das Gebäude in der Schlachterstraße zurück. Volksbildungsminister Gottfried Grünberg war gegen eine Anerkennung als Körperschaft des öffentlichen Rechts, da er die Mitglieder der Gemeinde lediglich als Empfänger amerikanischer Unterstützungsleistungen ansah. Er lenkte jedoch 1948 nach Interventionen von Franz Dahlem, Kurt Bürger und Wilhelm Höcker ein. Im gleichen Jahr erhielt die Landesgemeinde auf Befehl der SMAD ihre Vermögenswerte und den zerstörten Schweriner Friedhof zurück. Dort stand seit 1946 ein Gedenkstein, die Grabstätten konnten 1951 wieder hergerichtet werden. Auf einen Wiederaufbau der in der Reichskristallnacht zerstörten Synagoge wurde verzichtet, stattdessen ein Betraum in den sanierten Gebäuden in der Schlachterstraße eingerichtet und 1951 ein Gedenkstein an der Stelle des einstigen Gotteshauses aufgestellt. Die Finanzierung der Gemeinde erfolgte nach dem Krieg vor allem durch Spenden, später gab die DDR-Regierung Geld, das hauptsächlich für den Erhalt jüdischer Einrichtungen aufgewendet wurde. Mit den Jahren beschränkten sich die Gottesdienste der durch den hohen Altersdurchschnitt weiter schrumpfenden Gemeinde auf wichtige Feiertage sowie auf Gedenkveranstaltungen anlässlich der Jahrestage der Pogromnacht oder der Auschwitzbefreiung. Um regelmäßig an Gottesdiensten teilnehmen zu können, reisten Mitglieder auf Gemeindekosten nach Berlin. Vorsitzender der Landesgemeinde war von 1948 bis 1956 Dr. Franz Unikower, der im Zuge eines gegen ihn angestrengten Prozesses nach West-Berlin floh. Danach hatte bis 1962 Hugo Mehler dieses Amt inne und ab 1962 Alfred Scheidemann, der seine Hauptaufgabe in der Unterstützung kranker und vereinsamter Gemeindemitglieder sowie der Organisation von Ferienlagern für jüdische Kinder in der DDR sah und dessen Tod 1972 faktisch zur Auflösung der Landesgemeinde führte. Zwar übernahm kurzzeitig Udo Abrahamson das Amt und danach bis 1975 Heinrich Smiatkiewicz, bis 1980 gab es jedoch keinen neuen Leiter, so dass die Landesgemeinde von Dresden aus mitverwaltet wurde. Jeweils 1980 und 1989 fanden sich mit Friedrich Broido und Thomas Barthel neue Vorsitzende. Die Zahl der Mitglieder der Jüdischen Gemeinde Schwerin wuchs nach der politischen Wende 1989 auf nunmehr etwa 900 (Stand November 2005), die sich fast ausschließlich aus Immigranten aus den Staaten der ehemaligen Sowjetunion zusammensetzen. Sie ist damit eine der größten Gemeinden in Ostdeutschland und wird von dem Rabbiner des Landes Mecklenburg-Vorpommern, William Wolff, betreut. Im Dezember 2007 wurde der Neubau einer Synagoge an historischer Stelle, im Hof Schlachterstraße 3 und 5, wo die alte Synagoge bis 1938 165 Jahre stand, beschlossen. Dafür stellte das Kultusministerium des Landes 600.000 Euro zur Verfügung, weiterhin beteiligen sich die Stadt, die Gemeinde und ein Förderverein an den Kosten. Die Einweihung erfolgte am 3. Dezember 2008. Das neue etwa 15 mal 12 Meter große Gebäude bietet etwa einhundert Menschen Platz. Der neue Landesrabbiner Juri Kadnikow, gebürtiger Ukrainer betreut als Nachfolger des Schweriner Ehrenbürgers William Wolff seit April 2015 die Gemeinde in der Landeshauptstadt und in Rostock. Islamische Gemeinden. Die sunnitische Gemeinschaft ist durch den "Islamischen Bund in Schwerin e. V." vertreten. Zentrum der 1992 gegründeten Gemeinde ist die über 50 Personen Platz bietende Moschee "As-Salām" in angemieteten Räumlichkeiten auf dem Großen Dreesch. Die schiitische Gemeinschaft organisierte sich in dem 2006 gegründeten Verein "Islamisches Zentrum Schwerin e. V." Ihre bis zu 30 Personen aufnehmende Moschee "Ahl al-Bayt" befindet sich in angemieteten Räumlichkeiten am Grunthalplatz beim Hauptbahnhof. Allgemeine Wirtschaftsdaten. Wirtschaftszweige im produzierendem Gewerbe sind unter anderem: Braugewerbe, Nahrungsmittelindustrie, Kabelfertigung, Kunststoffverarbeitung und Maschinenbau. Darüber hinaus bieten das Dienstleistungsgewerbe, wie z. B. Callcenter, die Gesundheitswirtschaft, die Medizintechnik, zahlreiche Einzelhandelsunternehmen und das Handwerk Beschäftigung. Der größte Anteil der Beschäftigten arbeitet in der öffentlichen Verwaltung (einschließlich Sozialversicherung, Bildung/Erziehung und Verteidigung). Am Arbeitsort Schwerin gab es am 30. September 2010 47.527 sozialversicherungspflichtig Beschäftigte, davon 20.413 Männer und 27.114 Frauen. Im Mai 2011 gab es 6323 Arbeitslose in Schwerin. 25.125 Menschen pendelten zur Ausübung ihrer Arbeit in die Stadt, 9728 Schweriner Einwohner arbeiteten außerhalb (Stand 30. Juni 2010). Einpendler leben überwiegend in den angrenzenden Landkreisen Ludwigslust-Parchim und Nordwestmecklenburg. Ein großer Teil der Auspendler arbeitet in diesen Landkreisen. Außerhalb Mecklenburg-Vorpommerns sind die meisten Auspendler in Hamburg (1388 Personen) und Schleswig-Holstein (852 Personen) beschäftigt. Mit durchschnittlich 14.911 Euro hatten die Schweriner Bürger 2005 das höchste Netto-Jahreseinkommen Mecklenburg-Vorpommerns. In der Statistik enthalten sind auch Sozialleistungen und Renten. Das durchschnittliche verfügbare Einkommen in Mecklenburg-Vorpommern betrug 13.953 Euro, im Bundesdurchschnitt standen 17.702 Euro zur Verfügung. Verkehr. Südlich von Schwerin verläuft die Bundesautobahn 24 von Hamburg nach Berlin. Von ihr zweigt am Autobahnkreuz Schwerin das nördliche Teilstück der A 14 nach Norden in Richtung Wismar ab. Der Ausbau bis zum bereits fertiggestellten Teilstück bei Wismar, in dem die A 20 gekreuzt wird, wurde nach jahrelangen Verzögerungen Ende 2009 abgeschlossen und der Abschnitt am 21. Dezember 2009 dem Verkehr übergeben. Neben den bestehenden Anschlüssen Schwerin-Ost und Schwerin-Nord gibt es Planungen über die Einrichtung einer Anschlussstelle Schwerin-Süd. Ferner ist ein Ausbau der A 14 bis Magdeburg, wo das südliche Teilstück der Autobahn in Richtung Dresden beginnt, geplant. Durch das Stadtgebiet führen die Bundesstraße 104 in Ost-West-Richtung, die B 106 in Nord-Süd-Richtung und die B 321 in Südwest-Südost-Richtung. Die beiden letzteren sind im Stadtgebiet größtenteils vierspurig ausgebaut. Mit dem Bau einer Umgehungsstraße im Westen Schwerins, die nach der Wende zur Entlastung der Innenstadt und zur Bewältigung des gestiegenen Verkehrsaufkommens beiträgt, wurde der Verlauf der B 106 geändert. Ein weiterer Bauabschnitt der Umgehungsstraße von Schwerin-Lankow in Richtung Kirch Stück wurde am 26. September 2007 dem Verkehr übergeben. Neben der B 106 verläuft auch die B 104 seitdem über diesen Abschnitt. Geplant ist eine Weiterführung der Umgehung im Norden Schwerins von Kirch Stück bis zum Paulsdamm. Die Stadt liegt an der deutsch-niederländischen Ferienstraße Oranier-Route. Mit der 1847 eröffneten und damit ältesten eigenen Eisenbahnstrecke Mecklenburgs nach Hagenow erhielt Schwerin eine Verbindung zur Berlin-Hamburger Bahn. Heute führen von Schwerin aus Eisenbahnstrecken in alle Richtungen. Zu den wichtigsten Verbindungen gehören Hamburg–Rostock–Stralsund und Wismar–Ludwigslust–Berlin. Fernverkehrszüge, die über Schwerin fahren, sind die IC der Deutschen Bahn auf der Strecke Stralsund–Rostock–Schwerin–Hamburg–Ruhrgebiet. Rückgrat des öffentlichen Personennahverkehrs in der Stadt ist die seit 1908 in Betrieb befindliche elektrische Straßenbahn mit vier Linien, dazu werden 14 Buslinien und die Pfaffenteichfähre betrieben. Etwa 37 Kilometer süd-östlich befindet sich der Flughafen Schwerin-Parchim, von dem aus Charter- und Frachtflüge durchgeführt werden. Der zehn Kilometer östlich gelegene Flugplatz "Schwerin-Pinnow" wird hauptsächlich von der Sportluftfahrt genutzt. Der Schweriner See und der Ziegelsee zählen zu den Binnenwasserstraßen des Bundes. Von diesen bestehen schiffbare Verbindungen über die Stör, den Störkanal und die Elde in die Richtungen Müritz, Elbe und Nordsee. Medien. In Schwerin erscheint täglich von Montag bis Samstag die "Schweriner Volkszeitung", die hier ihren Hauptsitz hat. Außerdem werden wöchentlich Anzeigenzeitungen mit regionaler Berichterstattung, wie der Schweriner Kurier, der Blitz und der Schweriner Express (halbwöchentlich) herausgegeben. Das Landesfunkhaus des "Norddeutschen Rundfunks" (NDR) befindet sich in der Stadt und produziert neben überregionalen Beiträgen das "Nordmagazin", das Regionalprogramm des "NDR Fernsehens" für Mecklenburg-Vorpommern, und das Programm des Radiosenders "NDR 1 Radio MV". Der private Lokalsender TV Schwerin und ein öffentlich-rechtlich finanzierter offener Kanal namens "FiSCH-TV" verbreiten ihr Programm im Schweriner Kabelnetz. Sendeeinrichtungen für Rundfunk und Fernsehen befinden sich im Stadtteil Neu Zippendorf in Form eines 136 Meter hohen Fernsehturms für Richtfunk und eines 273 Meter hohen Sendemastes für UKW, DAB und DVB-T. Aus Plate, wenige Kilometer südöstlich von Schwerin, sendet der private Radiosender Antenne MV. Aus Rostock ist das Privatradio Ostseewelle zu empfangen. Satz des Pythagoras. In einem rechtwinkligen Dreieck mit den Katheten a und b sowie der Hypotenuse c ist die Summe der Flächen a² und b² der Kathetenquadrate gleich der Fläche c² des Hypotenusenquadrates. Der Satz ist nach Pythagoras von Samos benannt, der als Erster dafür einen mathematischen Beweis gefunden haben soll, was allerdings in der Forschung umstritten ist. Die Aussage des Satzes war schon lange vor der Zeit Pythagoras’ in Babylon und Indien bekannt, es gibt jedoch keinen Nachweis dafür, dass man dort auch einen Beweis hatte. Mathematische Aussage. In Worten ausgedrückt ist demnach in einem rechtwinkligen Dreieck die Summe der Flächen der Kathetenquadrate gleich der Fläche des Hypotenusenquadrates. In der geometrischen Anschauung entspricht die Summe der Flächen der beiden Quadrate über den Katheten gerade der Fläche des Quadrats über der Hypotenuse. Eng verwandt mit dem Satz des Pythagoras sind der Höhensatz und der Kathetensatz. Diese beiden Sätze und der Satz des Pythagoras bilden zusammen die Satzgruppe des Pythagoras. Der unten beschriebene Kosinussatz ist eine Verallgemeinerung des pythagoreischen Satzes. Längen im rechtwinkligen Dreieck. Aus dem Satz des Pythagoras folgt direkt, dass die Länge der Hypotenuse gleich der Quadratwurzel aus der Summe der Kathetenquadrate ist, also Weiterhin folgt aus dem Satz des Pythagoras, dass in einem rechtwinkligen Dreieck die Hypotenuse länger als jede der Katheten und kürzer als beide Katheten zusammengenommen sein muss. Pythagoreische Tripel. Unter allen Dreiergruppen formula_27, die die Gleichung formula_4 erfüllen, gibt es unendlich viele, bei denen formula_1, formula_2 und formula_3 jeweils ganze Zahlen sind. Diese Dreiergruppen werden pythagoreische Tripel genannt. Das einfachste solche Tripel bilden die Zahlen formula_19, formula_20 und formula_21. Pythagoreische Tripel werden seit alters her zur Konstruktion rechtwinkliger Dreiecke verwendet. Ein Beispiel ist die Zwölfknotenschnur, mit der ein Dreieck gelegt wird, dessen Seiten die Längen formula_19, formula_20 und formula_21 haben. Die beiden kurzen Seiten bilden dann einen rechten Winkel. Das ist erstaunlich, weil es für formula_44 unendlich viele Lösungen gibt. Für formula_45 sind dies die pythagoreischen Zahlentripel. Euklidischer Abstand. Der Satz von Pythagoras liefert eine Formel für den Abstand zweier Punkte in einem kartesischen Koordinatensystem. Sind zwei Punkte formula_46 und formula_47 in einer Ebene gegeben, dann ist ihr Abstand formula_3 durch gegeben. Hierbei wird ausgenutzt, dass die Koordinatenachsen senkrecht zueinander liegen. Diese Formel kann auch auf mehrere Dimensionen erweitert werden und liefert dann den euklidischen Abstand. Zum Beispiel gilt im dreidimensionalen euklidischen Raum Beweise. Für den Satz sind mehrere hundert verschiedene Beweise bekannt. Der Satz des Pythagoras ist damit der meistbewiesene mathematische Satz. Exemplarisch werden nachfolgend drei geometrische Beweise vorgestellt. Ein vierter Beweis aus dem Jahr 1875 von James A. Garfield findet sich unter Beweis des Satzes des Pythagoras nach Garfield, der dem Beweis durch Ergänzung stark ähnelt. Geometrischer Beweis durch Ergänzung. Positionierung von vier Dreiecken in einem Quadrat mit der Seitenlängeformula_51 In ein Quadrat mit der Seitenlänge formula_52 werden vier gleiche (kongruente) rechtwinklige Dreiecke mit den Seiten formula_1, formula_2 und formula_3 (Hypotenuse) eingelegt. Dies kann auf zwei Arten geschehen, wie im Diagramm dargestellt ist. Die Flächen des linken und des rechten Quadrates sind gleich (Seitenlänge formula_52). Das linke besteht aus den vier rechtwinkligen Dreiecken und einem Quadrat mit Seitenlänge formula_3, das rechte aus den gleichen Dreiecken sowie einem Quadrat mit Seitenlänge formula_1 und einem mit Seitenlänge formula_2. Die Fläche formula_60 entspricht also der Summe der Fläche formula_61 und der Fläche formula_62, also Geometrischer Beweis des Satz des Pythagoras (Animation) Eine algebraische Lösung ergibt sich aus dem linken Bild. Das große Quadrat hat die Seitenlänge formula_51 und somit die Fläche formula_65. Zieht man von dieser Fläche die vier Dreiecke ab, die jeweils eine Fläche von formula_66 (also insgesamt formula_67) haben, so bleibt die Fläche formula_60 übrig. Es ist also Zieht man nun auf beiden Seiten formula_67 ab, bleibt der Satz des Pythagoras übrig. Scherungsbeweis. Zweifache Scherung der Kathetenquadrate und Drehung in das Hypotenusenquadrat Ähnlichkeit der Dreieckeformula_72, formula_73 und formula_74 Eine Möglichkeit ist die Scherung der Kathetenquadrate in das Hypotenusenquadrat. Unter Scherung eines Rechtecks versteht man in der Geometrie die Überführung des Rechtecks in ein Parallelogramm unter Beibehaltung der Höhe. Bei der Scherung ist das sich ergebende Parallelogramm zu dem Ausgangsrechteck flächengleich. Über zwei Scherungen können die beiden kleineren Quadrate dann in zwei Rechtecke umgewandelt werden, die zusammen genau in das große Quadrat passen. Beim exakten Beweis muss dann noch über die Kongruenzsätze im Dreieck nachgewiesen werden, dass die kleinere Seite der sich ergebenden Rechtecke jeweils dem betreffenden Hypotenusenabschnitt entspricht. Wie üblich wurden in der Animation die Höhe mit formula_75, die Hypotenusenabschnitte mit formula_76 und formula_77 bezeichnet. Beweis mit Ähnlichkeiten. Es ist nicht unbedingt notwendig, zum Beweis des Satzes von Pythagoras (explizit) Flächen heranzuziehen. Geometrisch eleganter ist es, Ähnlichkeiten zu verwenden. Sobald man sich durch Berechnung der Winkelsummen im Dreieck überzeugt hat, dass die beiden Winkel formula_78 im unteren Bild gleich groß sein müssen, sieht man, dass die Dreiecke formula_72, formula_73 und formula_74 ähnlich sind. Der Beweis des Satzes von Pythagoras ergibt sich dann wie im Bild gezeigt, dabei beweist man auch den Kathetensatz und die Addition beider Varianten des Kathetensatzes ergibt den Satz des Pythagoras selbst. Diese Herleitung lässt sich anschaulich mit der Ähnlichkeit der Quadrate und der Ähnlichkeit deren angrenzender Dreiecke erklären. Da deren Fläche proportional zur Fläche der jeweils anliegenden Quadrate sind, repräsentiert die Gleichung Kosinussatz. wobei formula_84 der Winkel zwischen den Seiten formula_1 und formula_2 ist. Der Kosinussatz unterscheidet sich also durch den Term formula_87 vom Satz des Pythagoras. Da der Kosinus von formula_88 gleich null ist, fällt dieser Term bei einem rechten Winkel weg, und es ergibt sich als Spezialfall der Satz des Pythagoras. Gilt umgekehrt in einem Dreieck die Beziehung so muss formula_90 sein, woraus formula_91 folgt, und daher ist das Dreieck rechtwinklig. Für spitzwinklige Dreiecke gilt entsprechend und für stumpfwinklige Dreiecke Skalarprodukträume. Abstrahiert man vom gewöhnlichen euklidischen Raum zu allgemeinen Skalarprodukträumen, also Vektorräumen mit einem Skalarprodukt, dann gilt die folgende Aussage: Sind zwei Vektoren formula_94 und formula_95 zueinander orthogonal, ist also ihr Skalarprodukt formula_96, dann gilt aufgrund der Linearität des Skalarprodukts wobei formula_98 die von dem Skalarprodukt induzierte Norm bezeichnet. Hier findet sich der Satz des Pythagoras wieder, allerdings in abstrakten mathematischen Strukturen, etwa unendlichdimensionalen Funktionenräumen. Die Umkehrung gilt ebenfalls. Trifft die Gleichung zu, so sind die beiden Vektoren orthogonal zueinander. Der Satz lässt sich noch weiter verallgemeinern. Ist formula_99 ein Orthogonalsystem bestehend aus paarweise orthogonalen Vektoren formula_100, dann gilt durch wiederholte Anwendung obigen Arguments Die entsprechende Aussage gilt sogar für unendliche Summen, wenn man eine Folge formula_102 von Vektoren betrachtet, die alle zueinander orthogonal sind. Konvergiert nun die Reihe formula_103, so konvergiert auch formula_104 und es gilt Der Beweis der zweiten Behauptung folgt dabei aus der Stetigkeit des Skalarprodukts. Eine weitere Verallgemeinerung führt zur Parsevalschen Gleichung. Weitere Verallgemeinerungen. Ebenfalls als Verallgemeinerungen des Satzes des Pythagoras können der Schenkeltransversalensatz, der Satz von Stewart und der Satz von Ptolemäus gelten. Unterschiede in der Nichteuklidischen Geometrie. Nichteuklidische Geometrien sind Geometrien, in denen das Parallelenaxiom nicht gilt. Ein Beispiel hierfür ist die Geometrie der Kugeloberfläche. Dort gilt der Satz des Pythagoras nicht mehr, da in solchen Geometrien der Innenwinkelsatz nicht gilt, also die Winkelsumme eines Dreiecks von 180° verschieden ist. Ein anderes Beispiel ist der „gekrümmte“ Raum der Allgemeinen Relativitätstheorie Albert Einsteins. Babylon und Indien. Ein Balken, 0;30 (= 30/60 GAR = 1/2 GAR ≈ 3 m lang) Von oben ist er 0;6 (= 6/60 GAR) herabgekommen. Von unten was hat er sich entfernt? 0;30 (= 30/60) quadriere, 0;15 (= 900/3600 = 15/60) siehst du. 0;6 (= 6/60) von 0;30 (= 30/60) abgezogen, 0;24 (= 24/60) siehst du. 0;24 (= 24/60) quadriere, 0;9,36 (= 576/3600) siehst du. 0;9,36 (= 576/3600) von 0;15 (= 900/3600) ziehe ab, 0;5,24 (= 324/3600) siehst du. 0;5,24 (= 324/3600) hat was als Quadratwurzel ? 0;18 (= 18/60). 0;18 (= 18/60 GAR) am Boden hat er sich entfernt. Ein Interesse der Babylonier an einem mathematischen Beweis geht jedoch aus den Quellen nicht hervor. Die Keilschrifttafel Plimpton 322 enthält außerdem formula_109 verschiedene pythagoreische Tripel, unter anderem was auf ein Verfahren zur Berechnung solcher Tripel schließen lässt. In indischen "Sulbasutras" („Schurregeln“ bzw. „Leitfäden zur Meßkunst“), die ungefähr im 8. bis zum 4. Jahrhundert v. Chr. entstanden, finden sich einige pythagoreische Tripel. Außerdem wurde auch der Lehrsatz dort schon allgemein ausgesprochen und benutzt. Wie er begründet wurde, ist nicht sicher. China. Der Satz war im antiken China als "Satz der Gougu" (勾股定理) bekannt. In der Schrift "Zhoubi suanjing" („Arithmetischer Klassiker des Zhou-Gnomons“), die ungefähr vom 1. Jahrhundert v. Chr. bis zum 6. Jahrhundert n. Chr. entstand, wird mit der so genannten „Hypotenusen-Figur“ "(Xian-tu)" ein dort am Beispiel des rechtwinkligen Dreiecks "(gougu)" mit den Seiten 3, 4 und 5 gegebener Beweis des Satzes veranschaulicht. Auch im "Jiu Zhang Suanshu" („Neun Bücher arithmetischer Technik“, 1. Jahrhundert n. Chr.), dem klassischen mathematischen Werk Chinas mit einer Sammlung von 263 Problemstellungen, ihren Lösungen und den Lösungswegen, wird er angewendet. Liu Hui (3. Jahrhundert n. Chr.) gab wohl in seinem Kommentar zu den „Neun Büchern“ im neunten Kapitel einen Zerlegungsbeweis an. Die umstrittene Rolle des Pythagoras. Gegensätzliche Positionen vertreten die Wissenschaftshistoriker Walter Burkert und Leonid Zhmud. Burkert zieht allenfalls eine Vermittlerrolle des Pythagoras in Betracht, Zhmud schreibt ihm mathematische Leistungen wie den Beweis des Satzes zu und betont seine Eigenständigkeit gegenüber der orientalischen Mathematik. Apollodoros gibt nicht an, welche „berühmte“ Zeichnung oder Figur er meint, doch Diogenes Laertios (3. Jahrhundert n. Chr.), der die beiden Verse zitiert, ging davon aus, dass es sich um den „Satz des Pythagoras“ handelt. Diese Überlieferung, wonach Pythagoras einem Gott zum Dank dafür, dass dieser ihm die Erkenntnis eingab, ein Rinderopfer darbrachte, steht in Widerspruch zu dem von zahlreichen antiken Quellen überlieferten Umstand, dass Pythagoras und die Pythagoreer Tieropfer grundsätzlich ablehnten. Bemerkenswert. Hans Christian Andersen verfasste 1831 einen Beweis des Satz des Pythagoras in Gedichtform mit dem Titel "Formens Evige Magie (Et poetisk Spilfægteri)". Einzelnachweise. Pythagoras Sedierung. Der Begriff Sedierung (seltener auch Sedation, von lat. "sedare" „beruhigen“), der in der Medizin – insbesondere in der Intensivmedizin oder bei der Anwendung von Psychopharmaka – verwendet wird, bezeichnet die "Dämpfung" von Funktionen des zentralen Nervensystems durch ein "Beruhigungsmittel" (Sedativum, auch Sedativ'"); zur selben Arzneigruppe gehören die Tranquilizer. Wird gleichzeitig ein Schmerzmittel ("Analgetikum") verabreicht, spricht man von einer Analgosedierung. Der Übergang von einer Sedierung zu einer Allgemeinanästhesie (Narkose) ist fließend, bei letzterer ist der Patient – für die Dauer der Narkose – nicht mehr erweckbar. Der vor allem in den Medien genutzte Begriff „Künstliches Koma“ ist nicht korrekt, denn „Koma“ bezeichnet primär einen ungeregelten Bewusstseinsverlust. In der Palliativmedizin wird die sogenannte terminale Sedierung eingesetzt. Anwendung. Unruhe ist ein häufig anzutreffendes Symptom körperlicher wie psychischer Störungen oder Erkrankungen. Unruhezustände können durch die gezielte Gabe von Sedativa gelindert werden. Sedativa sind im Allgemeinen schlaffördernd und bewirken in höherer Dosierung eine Ausschaltung der bewussten Wahrnehmung, damit im Idealfall eine Distanzierung von verschiedenen Ängsten. Eine gezielte Behandlung der Angst wird demgegenüber als Anxiolyse bezeichnet. Vor größeren diagnostischen oder therapeutischen Eingriffen ist eine Sedierung angezeigt, um die Stressbelastung für den Patienten zu reduzieren und dessen Ansprechbarkeit dennoch zu gewährleisten und so die bestmögliche Zusammenarbeit mit dem Untersucher oder Behandler zu ermöglichen. Um das Risiko möglicher Komplikationen, insbesondere eines unbeabsichtigten Bewusstseinsverlustes, einer Beeinträchtigung oder gar Aufhebung der Schutzreflexe (wie dem Hustenreflex) oder einer Kreislauf- oder Atemdepression, zu minimieren, sind geeignete Vorsichtsmaßnahmen zum Schutz des Patienten zu treffen. Ist eine tiefere Sedierung notwendig oder muss mit einem Übergang in eine Narkose gerechnet werden, bedarf der Patient einer entsprechenden intensiven Überwachung und Unterstützung, sodass ein Anästhesist hinzugezogen werden muss, der neben dem geeigneten Sedativum häufig bei Bedarf noch ein Analgetikum verabreicht. Eine überwachte Sedierung mit Analgesie wird als „Analgosedierung“ bezeichnet. Im Rahmen der Intensivmedizin wird bei beatmeten Patienten die Verabreichung von Sedativa zumeist nötig, da eine Beatmung, insbesondere beim nichttracheotomierten Patienten, ohne solche Medikamente häufig nicht toleriert wird. Die gewünschte Sedierungstiefe wird je nach Situation vom Arzt anhand der Richmond Agitation Sedation Scale (früher der Ramsay-Skala) festgelegt, regelmäßig kontrolliert und bei Bedarf angepasst. Man geht nach den von der DGAI erstellten Leitlinien vor. Probleme. Viele Sedativa führen zur Toleranz (Gewöhnung), so dass es im Verlauf der Anwendung zur Dosissteigerung oder zur Verwendung eines anderen Sedativums kommen muss, um die gewünschte Sedierungstiefe aufrechtzuerhalten. Viele Sedativa haben deshalb ein Missbrauchspotential in der Daueranwendung (gilt nicht für Neuroleptika), das bis zur Sucht führen kann. Der oben beschriebene Vorteil von Sedativa, die Ausschaltung des Bewusstseins, wirkt sich jedoch auch nachteilig auf den Organismus aus. So muss gegebenenfalls der Reduzierung des Atemantriebs mit Beatmung entgegengewirkt sowie mit Katecholaminen der Kreislauf aufrechterhalten werden. Ferner gibt es paradoxe Reaktionen: Das Arzneimittel erreicht nicht die erwünschte Wirkung, der Patient wird unruhig und nicht mehr führbar. Slogan. Ein Slogan (dt., engl.) ist ein einprägsamer Wahlspruch. Die Bezeichnung leitet sich vom schottisch-gälischen "sluagh-ghairm" (ausgesprochen) ab, bestehend aus "sluagh" – Volk, Heer, und "gairm" – Ruf. Ein Slogan ist damit der Sammelruf der Clans (in Friedenszeiten) und der Sammel- und auch Schlachtruf während des Kampfes (in Kriegszeiten). Slogans werden hauptsächlich in der Werbung oder Markenkommunikation ("Werbespruch") und in der Politik verwendet. Der Slogan soll in kompakter Form eine Aussage vermitteln und die Öffentlichkeit schlagartig beeinflussen. In Deutschland wird in Fachkreisen der Begriff Claim oft synonym verwendet. Mitunter versteht man unter Claim eher den allgemeinen strategischen Kerngedanken einer Marke und nicht die Umsetzung als Werbeaussage. Aus der Filmbranche entliehen ist als Variante die Tagline, die Verdichtung der konzeptionellen Idee in einem meist umgangssprachlichen Satz. Sprachliche Mittel. Ein wirksamer Slogan verankert sich im Gedächtnis durch Sakrament. Als Sakrament bezeichnet man im Christentum einen Ritus, der als sichtbares Zeichen beziehungsweise als sichtbare Handlung eine unsichtbare Wirklichkeit Gottes vergegenwärtigt und an ihr teilhaben lässt. Wortherkunft. Das Wort "Sakrament" stammt vom kirchenlateinischen Begriff "sacramentum" „Heilszeichen, Heilsmittel, Heilsweg, sichtbares Zeichen der verborgenen Heilswirklichkeit“ ab. Die lateinische Wurzel "sacer" bedeutet „heilig, unverletzlich“. Das Wort "sacramentum" wird in der Theologie als lateinische Übersetzung des griechischen Wortes μυστήριον "mysterion" (Geheimnis) neben dem latinisierten griechischen Wort "mysterium" verwendet. Legitimation der Sakramentenspendung. In der Praxis reicht die Bedeutung der Sakramentenspendung tiefer, indem sie neben der Verkündigung des Wortes Gottes der wesentliche Auftrag jeder Kirche und die wesentliche Begründung ihrer Existenzberechtigung als Institution überhaupt ist. An die formale Darreichung eines Sakramentes wird eine von Gott zugesagte, Heil bringende oder fördernde geistige Wirkung geknüpft. Je nach Glaubensrichtung wird die Legitimation für die Sakramentspendung von „aus den eigenen Reihen“ dazu Berufenen abhängig gemacht; bis hin zu jedermann, der anerkannt christlich getauft ist und taufen kann. Die gegenseitige Anerkennung der Gültigkeit und Wirksamkeit der jeweils gespendeten Sakramente findet nur teilweise statt. Das Wesen des Sakramentes. Die Zahl der Sakramente und ihr Verständnis ist in der orthodoxen und der römisch-katholischen Kirche einerseits und in den aus der Reformation hervorgegangenen Kirchen andererseits unterschiedlich. Innerhalb des reformatorischen Zweiges wiederum gibt es starke Differenzen, die jahrhundertelang als kirchentrennend empfunden wurden. Orthodoxe Kirchen. In der orthodoxen Kirche werden die Sakramente als heilige "Mysterien" (von griechisch "Mysterion" – Geheimnis) bezeichnet. Es ist nie eine Siebenzahl der Sakramente kanonisch festgehalten worden, da die orthodoxe Kirche daneben auch die gesamte Kirche und alle kirchlichen Handlungen als „sakramental“ und als Mysterium sieht; eine klare Abgrenzung der Sakramente von den Sakramentalien existiert nicht. Die rechtliche Gültigkeit von Sakramenten ist bei den Orthodoxen nur ein untergeordneter Gedanke gegenüber der tatsächlichen Wirksamkeit. Diskussionen über die Gültigkeit oder Ungültigkeit von Sakramenten können von Orthodoxen daher oft nur schwer nachvollzogen werden. Diese Ausgliederung bestimmter Mysterien ist jedoch einer Angleichung an die westliche Tradition geschuldet und gilt im orthodoxen Christentum nicht als verbindliche Glaubenswahrheit. Römisch-katholische Kirche. Der Begriff "Sakrament" hat in der katholischen Theologie mehrere Bedeutungen. Im engeren Sinn bezeichnet er die Einzelsakramente. In einem weiteren, diesem übergeordneten Sinn bedeutet er jede Art von Begegnung von Gott und Mensch, die immer "sakramental vermittelt" ist. In den Sakramenten wirkt Jesus Christus selbst und handelt durch seine Kirche, so dass das Zweite Vatikanische Konzil auch die Kirche als Ganzes in analoger Weise als „das Sakrament, das heißt Zeichen und Werkzeug für die innigste Vereinigung mit Gott wie für die Einheit der ganzen Menschheit“ bezeichnet hat. Das Verständnis der Sakramente setzt den Glauben voraus, die Sakramente fördern und stärken aber zugleich auch den Glauben. Ihren Ort haben die Sakramente in der Liturgie als Feier der Kirche. Nach katholischer Auffassung stellen sie das in Jesus Christus gewirkte Heil dar, bieten einen Ausblick auf die Vollendung der Heilsgeschichte (vgl. auch Eschatologie) und werden so wirksam für die Gegenwart als Orte der Begegnung von Gott und Mensch. Zu jedem Sakrament gehört ein äußeres Zeichen, durch das eine bestimmte innere Gnade angedeutet und zugleich auch mitgeteilt wird. Diese heiligen, gnadenspendenden Zeichen sind nach der Lehre der katholischen Kirche von Christus eingesetzt. Einige Sakramente, so die Taufe, die Firmung und die Weihe, prägen der empfangenden Person ein unauslöschliches Merkmal ein. Daher können diese Sakramente nur einmal empfangen werden. Die Gültigkeit der Sakramente ist an die durch die Tradition der Kirche vorgegebene Form des Vollzugs sowie an die Intention des Spendenden gebunden, das Sakrament der Absicht der Kirche gemäß zu vollziehen. Die Früchte der Sakramente sind auch von der inneren Verfassung ihrer Empfänger abhängig. Wer die Taufe nicht empfangen hat, kann zu den anderen Sakramenten nicht gültig zugelassen werden. Wer ein Sakrament unwürdig empfängt, empfängt die innere Gnade nicht, sondern begeht – sofern er freiwillig und in Kenntnis seiner Unwürdigkeit handelt – eine schwere Sünde. Die Spendung von Firmung, Eucharistie, Beichte, Krankensalbung und Weihe ist geweihten Amtsträgern vorbehalten, die Taufe kann bei Lebensgefahr des Täuflings von jedem gespendet werden, der tun will, was die Kirche bei der Taufe tut. Das Ehesakrament spenden sich die Eheleute gegenseitig. Da Sakramente ex opere operato gespendet werden, tritt die Wirksamkeit eines Sakramentes aufgrund seines richtigen Vollzugs und unabhängig von der sittlichen Disposition der spendenden Person dann ein, wenn der Empfänger dem nicht entgegenwirkt. Taufe, Firmung und Eucharistie sind die drei Sakramente, durch die der Mensch in die Kirche eingegliedert wird. Weil sie innerlich eng zusammenhängen, sollen sie bei Katechumenen jenseits des Kleinkindalters wenn möglich in einer einzigen Feier vollzogen werden. Neben den sieben Sakramenten kennt die katholische Kirche "Sakramentalien", mit denen entweder der Alltag geheiligt werden soll (z. B. Kindersegnung, Weihwasser, Kreuzzeichen, Speisensegnung), besondere Tage gekennzeichnet sind (Aschenkreuz, Fußwaschung, Blasiussegen) oder Personen, Orte oder Gegenstände besonders in den Dienst der Kirche genommen werden (z. B. Abtsbenediktion, Jungfrauenweihe, Kirchweihe). Anglikanische Kirchen. In den anglikanischen Kirchen besteht Konsens darüber, dass die Taufe und die Eucharistie die beiden in der Lambeth-Quadrilateral erwähnten „Herren-Sakramente“ sind. Die anderen fünf Handlungen, die in der römisch-katholischen Kirche als Sakramente gelten (Firmung, Bußsakrament, Krankensalbung, Ehe und Weihesakrament) werden von vielen Anglikanern ebenfalls als Sakramente, von manchen hingegen als Sakramentalien betrachtet. Über diese wird in den Neununddreißig Artikeln ausgesagt, dass sie „häufig Sakramente genannt“ werden, jedoch ist hierbei zu beachten, dass die „Neununddreißig Artikel“ lediglich eine historische Darstellung des Glaubens im Elisabethanischen Zeitalter darstellen und nicht die gegenwärtige vollständige Glaubenslehre der anglikanischen Kirche enthalten. Das Taufverständnis ist das gleiche wie in den orthodoxen, römisch-katholischen und evangelischen Kirchen; zum Eucharistieverständnis siehe den entsprechenden Abschnitt im Artikel Eucharistie. Evangelisch-lutherische Kirchen. Nach lutherischer Auffassung sind die Sakramente „Zeichen und Zeugnis“ des göttlichen Willens, durch die der Glaube einerseits geweckt, andererseits auch gestärkt wird. Gleichzeitig fordern die Sakramente auch den Glauben, da nur der Glaube das Heil im Sakrament ergreifen kann. Die Apologie des Augsburger Bekenntnisses definiert im 13. Artikel, dass als Sakramente im strikten Sinne Taufe, Beichte und Abendmahl zu gelten haben. Die Bekenntnisschriften der evangelisch-lutherischen Kirche weisen darauf hin, dass die Firmung und die Krankensalbung keine Sakramente sind, da sie nicht Gottes Befehl noch Gebot hätten. Jedoch können diese auch in der lutherischen Kirche gebraucht werden, auch wenn sie keine Sakramente sind. Im Glauben wird die heilsnotwendige Wirkung ergriffen. Im unwürdigen Nehmen des Sakramentes wirkt die Wirkung zum Gericht. Evangelisch-reformierte Kirchen. Die evangelisch-reformierten Kirchen kennen die zwei Sakramente der Taufe und des Abendmahls. In der reformierten Tradition haben die Sakramente jedoch nur die Bedeutung von Symbolen. Sie sind Zeichen, die eine geistliche Wirklichkeit anschaulich machen, sie jedoch nicht bewirken. Vergleiche auch aus dem Heidelberger Katechismus, der wesentlichen Bekenntnisschrift der Reformierten Kirche in Deutschland: „Es sind sichtbare heilige Wahrzeichen und Siegel, von Gott dazu eingesetzt, um uns durch ihren Gebrauch die Verheißung des Evangeliums noch besser verständlich zu machen und zu versiegeln; nämlich, dass er uns wegen des einmaligen Opfers Christi, am Kreuz vollbracht, Vergebung der Sünden und ewiges Leben aus Gnade schenkt (;;;;;)“. Dies war das große Streitthema in dem berühmten Marburger Religionsgespräch zwischen Martin Luther und Ulrich Zwingli 1529. In allen anderen Fragen konnten sie sich so verständigen, dass die Unterschiede nicht zur Kirchentrennung führten. Der Abendmahlsstreit blieb jedoch der Grund zur Trennung von lutherischer und reformierter Kirche. Evangelische Freikirchen. Auch viele evangelische Freikirchen lehnen die Auffassung des Sakraments als heilswirksames Zeichen ab. Sakramente werden stattdessen analog zur evangelisch-reformierten Tradition bei Ulrich Zwingli als Zeichen ohne sakramentale Bedeutung verstanden. Dieses Verständnis ist unter anderem bei Baptisten und im Bund Freikirchlicher Pfingstgemeinden anzutreffen. Mennoniten verzichten meist ganz auf den Begriff Sakrament. Neuapostolische Kirche. In der Neuapostolischen Kirche gibt es neben der Heiligen Wassertaufe und dem Heiligen Abendmahl auch das Sakrament der Versiegelung. Taufe und Versiegelung werden nur einmal an den Gläubigen durchgeführt und bewirken – im neuapostolischen Glaubensverständnis – die sogenannte „Wiedergeburt aus Wasser und Geist“ (siehe auch). Das Heilige Abendmahl wird in jedem Gottesdienst durch Spendung der Abendmahlshostien gefeiert. Christian Science. In der christlichen Wissenschaft (Christian Science) ist das Abendmahl „geistige Kommunion mit dem einen Gott“. Äußeres Zeichen bei den zweimal jährlich in dieser Form nur in den Zweigkirchen stattfindenden Gottesdiensten ist eine veränderte Gottesdienstordnung mit dem kniend gebeteten Vater unser am Ende des Gottesdienste und dem Singen der Doxologie. Dabei werden Brot und Wein, Taufe und Abendmahl geistig gedeutet und empfangen. „Unser Brot, „das vom Himmel kommt“, ist Wahrheit. Unser Kelch ist das Kreuz. Unser Wein ist die Inspiration der Liebe, der Trank, den unser Meister trank und seinen Nachfolgern empfahl“ schreibt Mary Baker Eddy im Lehrbuch der Religion. Christengemeinschaft. Die Sakramente werden vom Priester jeweils in festgeschriebener Weise und in liturgischen Gewändern mit jahreszeitlich zum Teil unterschiedlichen Wortlauten und Farben durchgeführt. Säger. Die Säger ("Mergus") sind eine Vogelgattung aus der Familie der Entenvögel (Anatidae). Sie gehören zur Unterfamilie der Enten (Anatinae). Kennzeichnend für die Säger ist der schlanke, an den Kanten gesägte Schnabel, der an der Spitze hakenförmig gebogen ist. Er verleiht den Arten dieser Gattung ein Aussehen, das sie sehr augenfällig von den anderen Entenvögeln unterscheidet. Säger ernähren sich überwiegend von Fischen und sind auf Grund ihrer Schnabelform in der Lage, diese gut zu fassen und festzuhalten. Die Gattung enthält insgesamt fünf Arten. Verbreitung und Bestand. In Mitteleuropa sind zwei Arten anzutreffen. Der Mittelsäger ("Mergus serrator") ist etwa so groß wie eine Stockente, doch länger und schlanker. Er brütet im Norden Eurasiens und Amerikas. In Mitteleuropa ist er mehr ein Küstenvogel und nur selten im Binnenland anzutreffen. Ein für diese Art wichtiges Winterquartier liegt im Westen der Wattenküste an der Nordsee. Hier versammeln sich im Spätwinter über 10.000 Mittelsäger. Der Gänsesäger ist größer als eine Stockente und an seinem kräftigen, an der Spitze hakenförmig umgebogenen Schnabel gut zu identifizieren. Wie der Mittelsäger ist er ein Brutvogel Eurasiens und Nordamerikas. In Mitteleuropa brütet er in den Alpen der Schweiz, Bayerns und Nordtirols. Er kommt außerdem als Brutvogel in Schleswig-Holstein, Mecklenburg-Vorpommern und Brandenburg vor. Während des Winterhalbjahrs ist er in großer Zahl an der Küste zu beobachten. Die übrigen drei Arten sind beziehungsweise waren Brutvögel Asiens, Südamerikas und Neuseelands. Der Aucklandsäger ist in der Neuzeit ausgestorben. Seine Bestände gingen bereits nach der Besiedlung durch Maoris stark zurück und er fehlte zum Zeitpunkt der Besiedlung Neuseelands durch Europäer bereits im größten Teil Neuseelands. Die Veränderung der neuseeländischen Lebensräume und die Einführung großer Säuger wie Schweine und Katzen haben dazu geführt, dass er mittlerweile ausgestorben ist. Er wurde letztmals 1902 gesichtet. Der Dunkelsäger gilt als eine sehr stark bedrohte Art, von der möglicherweise nur noch 250 Individuen in Südamerika vorkommen. Bis jetzt sind keine Nachzuchten dieser Art gelungen, die bei anderen, stark bedrohten Entenvögeln dazu beigetragen haben, diese vor dem Aussterben zu bewahren. Der Gänsesäger ("Mergus merganser") ist auf der gesamten nördlichen Erdhalbkugel vertreten. In den Tundren der Nordhalbkugel findet man auch den Mittelsäger ("Mergus serrator"). Der Schuppensäger ist in seiner Verbreitung auf ein kleines Gebiet in Asien begrenzt und weist ebenfalls nur sehr geringe Bestandszahlen auf. Arten. Zu den Sägern im weiteren Sinn können auch der in Nordamerika vorkommende Kappensäger ("Lophodytes cucullatus") und der Zwergsäger ("Mergellus albellus") gezählt werden. Rahm. Als Rahm, Sahne oder vor allem in Österreich Obers und in der Schweiz Nidel bzw. Nidle wird die fetthaltige Phase der Milch bezeichnet, die beim Stehenlassen ungesäuerter Rohmilch natürlich an der Oberfläche aufschwimmt oder aus Rohmilch abzentrifugiert werden kann. Die Bezeichnungen für Sahne sind regional unterschiedlich und werden zum Teil auch nicht einheitlich verwendet. Sahne ist physikalisch gesehen eine Emulsion von Milchfett in Wasser (die daraus durch Emulsionsumkehr hergestellte Butter ist dagegen eine Emulsion von Wasser in Milchfett). Neben der grundsätzlichen Unterscheidung von ungesäuerter und gesäuerter Sahne gibt es eine Reihe weiterer Sahneerzeugnisse, wie Schmand oder Crème fraîche, die sich vor allem in ihrem Fettgehalt unterscheiden. Herstellung von Rahm und Rahmprodukten. "Sahne", "Obers" bzw. "Rahm" entsteht durch Aufrahmen der Milch. Hierbei entmischt sich die Milch, indem die emulgierten Milchfett-Emulsionstropfen aufgrund der geringeren Dichte an die Oberfläche steigen und dort als Rahm aufschwimmen, der als solcher abgeschöpft werden kann, Magermilch setzt sich als schwerere Phase unten ab. Voraussetzung des natürlichen Aufrahmens ist, dass die Milch nicht homogenisiert wurde, da hierdurch die Fettkügelchen zerkleinert und neu strukturiert werden, was das Aufrahmen verlangsamt. In der Regel wird Rahm heute nicht mehr durch Aufrahmen, sondern durch Zentrifugieren gewonnen. Hierbei wird das Milchfett so weit wie möglich abgetrennt, so dass die verbleibende Magermilch nur noch einen Fettgehalt von 0,03 % bis 0,06 % hat. Der gewünschte Fettgehalt des Enderzeugnisses wird durch Rückmischung beider Erzeugnisse erreicht. Waren, die die Bezeichnung Sahne (Rahm) tragen, müssen einen Mindestfettgehalt von 10 % aufweisen. Datei:Rahm- und Sauerrahmprodukte.svg|gerahmt|zentriert|Ausgewählte Rahmprodukte und Rahmstufen von Sauermilchprodukten rect 205 19 302 53 Saure Sahne rect 315 19 414 53 Schmand rect 425 19 526 53 Crème fraîche rect 535 19 634 53 Sahnejoghurt rect 124 81 207 119 Magermilch rect 3 111 85 142 Rohmilch rect 123 133 208 172 Rahm rect 223 197 325 236 Kaffeesahne rect 334 197 435 236 Schlagsahne rect 445 197 546 236 Crème double Sahne enthält gegenüber Milch weniger Milcheiweiß, dafür mehr Fett und fettlösliche Vitamine. Sie ist Ausgangserzeugnis für die Butter- und Käseherstellung, wird aber auch „süß“ oder gesäuert frisch in der Küche verwendet. Milchprodukte aus ungesäuertem Rahm. Die vor allem in Deutschland gebräuchliche Bezeichnung süße Sahne oder Süßrahm ist volkstümlich und dient nur zur Unterscheidung von saurer Sahne. Süße Sahne bezeichnet den nicht weiter verarbeiteten frischen, nur ultrahocherhitzten oder sterilisierten Rahm in verschiedenen Konzentrationen. Sie dient als Zutat für viele Speisen und Gebäcke, wird zu Schlagsahne aufgeschlagen und als Kaffeesahne zum Verfeinern von Kaffee und Tee verwendet. Kondensmilch kann leicht mit süßer Sahne verwechselt werden und wird umgangssprachlich auch „Kaffeesahne“ genannt. Sie wird aber im Normalfall aus fettärmerer Milch durch Wasserentzug hergestellt und zählt "nicht" zu den Sahneerzeugnissen – selbst bei Fettgehalten von 10 % oder 12 % darf sie nicht als Sahne angeboten werden. Schlagsahne, die mit Zucker und Bourbonvanille versetzt ist, wird als Crème Chantilly bezeichnet. Im Handel befindliche frische Sahne ist immer pasteurisiert. Sie hält gekühlt vier bis sechs Tage. Andere Wärmebehandlungen müssen als solche auf der Verpackung gekennzeichnet sein. Die mit der Konservierung verbundene Erwärmung bewirkt eine Veränderung des Geschmacks sowie eine Denaturierung der in der Sahne enthaltenen Eiweiße, wodurch das Produkt etwas bekömmlicher wird. "Ultrahocherhitzte" Sahne hält ungekühlt bis zu sechs Wochen, "sterilisierte" bis zu einem Jahr. Ebenfalls gekennzeichnet werden müssen Stabilisatoren, die der Sahne zugesetzt werden, um ein weiteres Aufrahmen zu verhindern. Der am häufigsten verwendete Stabilisator ist Carrageen, durch den sich allerdings auch der Geschmack der Sahne verändert. Das Aufrahmen der Sahne, das sich durch eine festere Schicht an der Oberfläche der Sahne zeigt, ist nicht, wie häufig angenommen, ein Indikator für Sahne mangelnder Qualität, sondern vielmehr ein Hinweis darauf, dass die Sahne keine Stabilisatoren enthält. Süße Sahne mit hohem Fettanteil – mindestens 30 % – wird deshalb "Schlagsahne" (bzw. "Schlagrahm" oder "Schlagobers") genannt, weil sie sich zu einer lockeren Creme aufschlagen lässt. Dies macht man von Hand oder maschinell mit einem Rührbesen, oder auch mit professionellen Geräten wie dem Sahnebläser oder dem Sahneautomat. Geschlagene Sahne wird pur, gesüßt oder aromatisiert als Beigabe zum Kuchen genossen und dient in der Konditorei als Ausgangsprodukt für Cremes, Torten und Desserts. Sauermilchprodukte aus Rahm. Aus Crème fraîche wird Mascarpone mit einem Fettgehalt von bis zu 70 % hergestellt, der eine ähnliche Konsistenz wie saure Sahne hat, dieser zählt aber zu den Frischkäsen. Etymologie. Die Etymologie des Wortes "Sahne" ist nicht gesichert. Das im Vulgärlatein vorkommende Wort "sagina" bedeutet ‚Mast, Nahrung, Fett‘ und geht wohl als Lehnwort auf einen keltischen Stamm "*soig-men" zurück (vgl. wal. "hufen", ir. "uachthar"), der wohl seinerseits auf die idg. Verbwurzel "*seuə-g-" ‚saugen, auspressen‘ zurückgeht. Über das altfranzösische Wort "saime", welches Rahm bedeutet, dürfte das Wort Sahne ab dem 14. Jahrhundert aus dem Niederländischen um Brabant (dort belegt als "sane") in die deutsche Sprache gekommen sein und tritt hier als typisch städtischer Ausdruck (ebenfalls in der Schreibung "sane") zunächst für die verarbeitete süße Sahne auf. "Rahm" ist das am weitesten verbreitete Wort für dieses Nahrungsmittel im deutschen Sprachgebiet, wobei es in den Gebieten, die auch das Wort "Sahne" (in Deutschland) oder "Obers" (in Österreich) kennen, eher für den sauren Rahm verwendet wird, wie etwa in Bayern. Rahm ist im Mittelhochdeutschen ab dem 11. Jahrhundert als "roum" belegt und findet sich auch im Altenglischen als "rēam" und im Altnordischen als "rjúmi". Im Awestischen existiert außerdem noch ein Wortstamm "raoɣna-" „Butter“. Die weitere indogermanische Herkunft dieses Wortes liegt im Dunkeln. Lässt man unbehandelte Kuhmilch stehen und schöpft dann „das Obere“ ab, kommt man zum "Obers". Stoffmenge. Die Stoffmenge (veraltet Molmenge oder Molzahl) mit dem Formelzeichen formula_1 ist eine Basisgröße im Internationalen Einheitensystem (SI) und gibt "indirekt" die Teilchenzahl einer Stoffportion an. Teilchen können hier Atome, Ionen, Moleküle, Formeleinheiten oder auch Elektronen sein. Formelzeichen und Teilchenart X werden zusammen als "n"X oder "n"(X) angegeben. Stoffmenge und die daraus abgeleiteten Größen wie Stoffmengenkonzentration, Stoffmengenanteil und Stoffmengenverhältnis sind wichtig in der Stöchiometrie. Die Verwendung der Größe Stoffmenge verschiebt Betrachtungen chemischer Reaktionen vom atomaren bzw. molekularen Bereich auf wägbare Substanzmassen mit sehr hoher Teilchenzahl. … aus der Masse. Die Berechnung aus der Masse ist über die oben angegebene Gleichung möglich. Beispiel: Die molare Masse von Wasser beträgt 18 Gramm pro Mol. 9 Gramm Wasser entsprechen damit einer Stoffmenge von 0,5 Mol. … aus dem Volumen. Ein Mol eines idealen Gases nimmt bei Normbedingungen in Näherung ein Volumen von "V"m = 22,4 l/mol ein. Dieses Volumen wird als molares Normvolumen (Molvolumen) bezeichnet. Die Stoffmenge ergibt sich unmittelbar aus dem Volumen. Beispiel: Wie viel Mol entsprechen 5 l Sauerstoff? … aus der Teilchenzahl. Da die Teilchenanzahl N proportional der Stoffmenge "n" ist (der Proportionalitätsfaktor ist die Avogadro-Konstante "N"A = 6,022 · 1023/mol), kann man aus der Anzahl der Teilchen die Stoffmenge berechnen. Beispiel: Gegeben sind "N" = 1025 Teilchen. … aus der Konzentration. Da die Konzentration "cX" (mol/l) ein Konzentrationsmaß für Lösungen darstellt, das die Stoffmenge eines Stoffes "X" in Beziehung zum Volumen "V" der Lösung stellt, kann man diese auch auf die Stoffmenge zurückrechnen. Beispiel: Wie viel Mol Natriumchlorid befinden sich in 0,22 Liter einer 0,6-molaren NaCl-Lösung? Sonnenzyklus. Der Sonnenzyklus ist die Zahl der Jahre, nach denen sich das Zusammenfallen von Kalenderdatum und Wochentag vollständig wiederholt. Im julianischen Kalender dauert der Sonnenzyklus 28 Jahre, im gregorianischen Kalender 400 Jahre. "Nicht zu verwechseln mit dem:" Sonnenfleckenzyklus. Schwefelwasserstoff. Schwefelwasserstoff (auch "Wasserstoffsulfid", "Dihydrogensulfid", nicht zu verwechseln mit dem Hydrogensulfid-Anion HS−, welches oft auch „Hydrogensulfid“ genannt wird) ist eine chemische Verbindung aus Schwefel und Wasserstoff mit der Formel H2S. Das übel riechende, farblose, stark giftige Gas ist brennbar und in Wasser wenig, in Ethanol etwas besser löslich. H2S ist eine schwache Säure, deren Salze die Sulfide und Hydrogensulfide sind. Schon in sehr geringen Konzentrationen ist Schwefelwasserstoff durch seinen typischen Geruch nach faulen Eiern zu erkennen. Er entsteht bei der Zersetzung von schwefelhaltigen Aminosäuren in den Proteinen von Eiklar und Dotter. Vorkommen. In der Natur kommt Schwefelwasserstoff als sehr variabler Bestandteil (von Spuren bis zu 80 Vol-%) in Erdgas und in Erdöl, als vulkanisches Gas und in Quellwasser gelöst vor. Er entsteht außerdem beim Abbau von Biomasse durch Fäulnis bzw. Verwesung (z. B. Tierkadaver, Leichen, Zersetzung der Laubstreu, Faulschlammbildung am Grund eutropher Seen usw.), Mülldeponien, Abwasserhochdruckleitungen oder bei Verdauungsvorgängen im Darm, den er mit dem Flatus verlässt. Ein Verursacher des unangenehmen Mundgeruchs beim Menschen ist – neben anderen flüchtigen schwefelhaltigen organischen Verbindungen (Methanthiol, Dimethylsulfid) – Schwefelwasserstoff. Gewinnung und Darstellung. Das so entstehende Produkt ist allerdings durch die Ausgangsprodukte mit Gasen wie Wasserstoff, Kohlendioxid, Stickstoff und Sauerstoff verunreinigt. Bei Verwendung von natürlichem Eisensulfid (z. B. Pyrrhotin) kann das Produkt zusätzlich auch noch mit Gasen wie Arsenwasserstoff, Monophosphan, Selenwasserstoff, Tellurwasserstoff und ähnlichem verunreinigt sein. Reiner Schwefelwasserstoff kann durch Erhitzen einer konzentrierten Magnesiumhydrogensulfid-Lösung oder aus den Elementen, oder aus Natriumsulfid und Phosphorsäure erhalten werden. In der Petrochemie (Raffinerien) fällt Schwefelwasserstoff in großen Mengen bei der Hydrodesulfurierung von Erdöl an. Physikalische Eigenschaften. ΔfH0g: "−20,5 kJ/mol" In 1 l Wasser lösen sich bei Raumtemperatur bis zu 2,582 l Schwefelwasserstoffgas. Schwefelwasserstoff ist geringfügig schwerer als Luft, unter Normalbedingungen beträgt der Dichteunterschied etwa 19 %. Unter einem Druck von 90 GPa soll Schwefelwasserstoff in eine metallische Phase übergehen, vermutet wird H3S, die bei 203 K (−70 °C) Typ-1 supraleitend wird. Chemische Eigenschaften. Mit einem pKs-Wert von 6,9 ist Schwefelwasserstoffsäure – ähnlich wie Hydrogensulfit – eine recht schwache Säure. Die wässrige Lösung reagiert mit vielen Schwermetallsalzen zu unlöslichen Sulfiden, was man sich im Kationentrennungsgang zunutze macht. Entsprechend wird das Gas mit Bleiacetatpapier nachgewiesen, da es mit Blei(II)-Ionen zu schwarzem Bleisulfid (PbS) reagiert. Ebenso reagiert es mit Eisen(II)-Ionen zu schwarzem Eisensulfid (FeS). Die obige Reaktion zur Gewinnung ist auch umkehrbar. Bei natürlichen Bedingungen (pH 5–10) kann man Schwefelwasserstoff in wässriger Lösung mit Eisen(II)-chlorid zu Eisen(II)-sulfid binden. Dies ist bei Biogas, Faulgas und im Abwasserkanal gängige Praxis. Man macht sich die große Affinität von Eisen zu Schwefel zunutze, um Biogas und Faulgas zu reinigen. Hier würde bei der weiteren Verwendung in Gasmotoren das nach der Verbrennung entstehende Schwefeldioxid erhebliche Korrosionsprobleme verursachen. Schwefelwasserstoff verbrennt bei Luftzufuhr mit blauer Flamme zu SO2 und Wasser, wobei unter anderem Schweflige Säure (H2SO3) entsteht. Aus der wässrigen Lösung scheidet sich bei Luftzufuhr allmählich Schwefel ab. Mit Schwefeldioxidgas komproportioniert es in Anwesenheit von Wasserdampf zu Schwefel und Wasser (Rauchgasentschwefelung, Redoxreaktion), mit Chlorgas bildet sich Schwefel und Chlorwasserstoffgas (Salzsäure). Schwefelwasserstoffgas ist zudem ein kräftiges Reduktionsmittel. Sicherheitstechnische Kenngrößen. Schwefelwasserstoff bildet leicht entzündliche Gas-Luft-Gemische. Der Explosionsbereich liegt zwischen 4,3 Vol-% (60 g/m3) als untere Explosionsgrenze (UEG) und 45,5 Vol-% (650 g/m3) als obere Explosionsgrenze (OEG). Der maximale Explosionsdruck beträgt 5,9 bar. Die Grenzspaltweite wurde mit 0,83 mm bestimmt. Es resultiert damit eine Zuordnung in die Explosionsgruppe IIB. Die Zündtemperatur beträgt 270 °C. Der Stoff fällt somit in die Temperaturklasse T3. Großchemie. Schwefelwasserstoff ist die Hauptquelle für elementaren Schwefel (Claus-Prozess), welcher wiederum zu über 95 Prozent zu Schwefelsäure umgesetzt wird. Chemische Analytik. Im klassischen Kationentrennungsgang wird es zum Ausfällen einer ganzen Gruppe benutzt (Schwefelwasserstoffgruppe). Durch Einleiten von H2S-Gas in schwach saure Lösungen fallen aus: As2S3, SnS2, Sb2S3, HgS, SnS, PbS, Bi2S3, CuS und bei Verdünnen mit Wasser auch CdS. Diese Kationen sind dann weiter aufzutrennen und mithilfe von Nachweisreaktionen zu identifizieren. Wegen seiner Giftigkeit wird im Kationen-Trennungsgang zunehmend auf Schwefelwasserstoff verzichtet. Stattdessen werden die benötigten Sulfid-Anionen "in situ" erzeugt, zum Beispiel mit Hilfe von Thioacetamid, in kleineren Mengen auch durch Erhitzen von Schwefel mit Kerzenwachs. Dieses Verfahren baut auf dem klassischen Trennungsgang auf. Durch spezifische Reagenzien werden chemisch ähnliche Kationen gruppenweise zur Fällung gebracht. Der Niederschlag wird in weiterer Folge aufgetrennt und analysiert, mit dem Überstand (der Lösung) wird weitergearbeitet und daraus die nächste Gruppe zur Fällung gebracht. Besondere Gefahr für den Menschen. Schwefelwasserstoff ist ein äußerst giftiges Gas, das zur Schwefelwasserstoffvergiftung führen kann. Durch seine hohe Dichte sammelt sich das Gas am Boden. Schwefelwasserstoff hat die Eigenschaft, die Geruchsrezeptoren zu betäuben, wodurch eine Erhöhung der Konzentration nicht mehr über den Geruch wahrgenommen wird. Der Schwellwert für die Betäubung der Geruchsrezeptoren liegt bei einer Konzentration von 200 ppm H2S. Kurzfristige Giftwirkung. Der Schwefelwasserstoff bildet bei Kontakt mit Schleimhäuten und Gewebeflüssigkeit im Auge, der Nase, des Rachens und in der Lunge Alkalisulfide, die eine sehr starke Reizwirkung verursachen. Eine Folge davon sind Wassereinlagerungen in der Lunge. Die Symptome verschwinden gewöhnlich innerhalb weniger Wochen. Die eigentliche Giftwirkung beruht auf einer Zerstörung des roten Blutfarbstoffes Hämoglobin und damit einer Lähmung der intrazellulären Atmung. Der Mechanismus ist bis heute unklar, es wird vermutet, dass allgemein schwermetallhaltige, sauerstoffübertragende Enzyme inaktiviert werden. Der kleinere, nichtoxidierte Teil des Schwefelwasserstoffs kann Schäden im zentralen und evtl. auch peripheren Nervensystem hervorrufen. Langzeit-Einwirkung unter niedrigen Dosen kann zu Müdigkeit, Appetitlosigkeit, Kopfschmerzen, Gereiztheit, Gedächtnisschwäche und Konzentrationsschwäche führen. Das bedeutet, dass bereits H2S-Konzentrationen von 0,1 % nach wenigen Minuten tödlich wirken. Bewusstlosigkeit tritt bei solchen Konzentrationen schon innerhalb eines oder mehrerer Atemzüge ein. Die Konzentration an H2S, die auf menschliche Zellen durch Hemmung der Zellatmung schädlich wirkt, wurde in vitro mit 0,32 µmol/l festgestellt. Langzeitwirkung. Tierstudien zeigen, dass Schweine, die mit schwefelwasserstoffhaltigen Nahrungsmitteln gefüttert wurden, nach einigen Tagen an Diarrhoe leiden und einen Gewichtsverlust nach etwa 105 Tagen zeigen. Metabolismus. Das Gas verbindet sich schnell mit Thiolresten von in der Umgebung befindlichen Proteinen (-Cys wird zu -CySSH) und verändert dadurch deren biologische Aktivität. Insbesondere das Enzym Cytochrom-c-Oxidase wird dadurch deaktiviert. Der Großteil wird jedoch in den Mitochondrien über Thiosulfat und Sulfit zu Sulfat oxidiert, oder über Cysteinsulfinat zu Sulfit/Sulfat oder Taurin prozessiert. Oxidation zu Sulfat. Zunächst wird H2S durch einen Enzymkomplex zu Thiosulfat oxidiert. Im Detail finden drei Einzelreaktionen statt, die durch die Enzyme (), Schwefeldioxygenase () und Rhodanase katalysiert werden. Ein Teil der Oxidation von Thiosulfat zu Sulfit geschieht mithilfe von Glutathion und dem Enzym Thiosulfatreduktase (), ein anderer Teil nutzt die Thiosulfat-Schwefeltransferase. Zuletzt oxidiert die Sulfitoxidase Sulfit zu Sulfat. Eine Bestätigung des Abbauwegs ergab sich durch die Identifikation der mitochondrialen Schwefeldioxygenase mit dem "ETHE1"-Gen, das bei einer seltenen Mutation zu einer Erbkrankheit mit Schädigungen durch erhöhte H2S-Konzentrationen führt. Funktion. Schwefelwasserstoff fungiert im menschlichen Körper ähnlich wie Stickstoffmonoxid als Botenstoff (siehe auch Gasotransmitter) und wirkt gefäßerweiternd (vasodilatativ). Es wird sowohl in Endothelzellen der Blutgefäße als auch in glatten Muskelzellen aus der Aminosäure L-Cystein gebildet. Wird Gefäßendothel über Muskarinische Acetylcholinrezeptoren stimuliert, kommt es zur Freisetzung von H2S. Dies führt in den glatten Muskelzellen der Gefäßmuskulatur zur Aktivierung spannungsaktivierter und kalziumaktivierter Kaliumkanäle. Dadurch kommt es zu einer Hyperpolarisation der glatten Muskelzellen und letztendlich zu einer Erweiterung der Blutgefäße (Vasodilatation). Anwendung. Schwefelwasserstoff könnte möglicherweise als Mittel gegen Erektionsstörungen Anwendung finden. Es wird natürlich in den Schwellkörpern des Penis und der glatten Muskulatur der Penis-Arterie gebildet. Versuche zeigten, dass sowohl L-Cystein als auch Schwefelwasserstoff(-Salz) extern zugeführt eine konzentrationsabhängige Erektion in den Penisschwellkörpern (Corpora cavernosa penis) verursachen. In niedrigen Konzentrationen führt Schwefelwasserstoff bei Mäusen zu einer Verlangsamung von Stoffwechselvorgängen und zu einem Absinken der Körpertemperatur. Dieser winterschlafähnliche Zustand ist voll reversibel und für die Tiere unschädlich. Es laufen Untersuchungen, ob man sich diesen Effekt in der Transplantationsmedizin zu Nutze machen kann, um Qualität und Überlebenszeit von Organen, die zur Transplantation vorgesehen sind, zu verbessern. Darüber hinaus wird in Humanstudien untersucht, ob Schwefelwasserstoff die Überlebenswahrscheinlichkeit von Notfallpatienten verbessern kann. Ziel ist es dabei, durch Inhalation bzw. Injektion von H2S den Stoffwechsel zu verlangsamen und somit den Sauerstoffbedarf zu reduzieren. Im Idealfall wäre diese Maßnahme bereits präklinisch, z. B. durch den Rettungsdienst, durchzuführen. In einer Studie von 2007 an der University of Alabama at Birmingham, die im Fachblatt "Proceedings of the National Academy of Sciences" veröffentlicht wurde, ist Schwefelwasserstoff in sehr geringer Dosis vermutlich auch als wesentlicher Faktor für die gesundheitliche Wirkung von Knoblauch verantwortlich. Die Autoren berichten, dass Knoblauch das Risiko für Herzerkrankungen durch Bluthochdruck, erhöhtes Blutfett (Cholesterin) und andere Faktoren senkt. In Bevölkerungsgruppen, die viel Knoblauch verzehren, gebe es daher auch weniger Probleme mit zu hohem Blutdruck. Analytik. Sowohl die Toxizität als auch seine biologische Relevanz stellen hohe Anforderungen an die Analytik von Schwefelwasserstoff. Im Gegensatz zur oben erwähnten Verwendung von H2S im anorganischen Trennungsgang werden hier instrumentelle, quantitative Nachweisverfahren für H2S vorgestellt. Optische Bestimmung. Die am häufigsten verwendete chromogene Reaktion für den photometrischen Nachweis von H2S und Sulfiden ist die Reaktion mit N',N-Dimethyl-p-phenylendiamin zum Methylenblau. Dabei werden Eisen(III)-Salze als Katalysator verwendet. Das Reaktionsprodukt weist ein Absorptionsmaximum bei 670 Nanometer auf und kann photometrisch bestimmt werden. Elektroanalytik. Weit verbreitet sind amperometrische H2S-Sensoren. Bei der Amperometrie wird an eine Arbeitselektrode ein Potential angelegt und der resultierende Strom gemessen; dieser ist proportional zur Konzentration des H2S. Schwefelwasserstoff wird dabei zum Sulfat oxidiert. Mit Kohlenstoffnanoröhren modifizierte Elektroden erzielten bei einem Oxidationspotential von 100 mV eine Nachweisgrenze von 0,3 µmol/l. Die Bauart der verwendeten Elektroden ist eng verwandt mit der der Clark-Elektrode zur Sauerstoffbestimmung. Für die Sensorik von gasförmigem H2S wurden auch potentiometrische Sonden entwickelt. Als Beispiel können Feststoffelektrolyt-basierte, galvanische Halbzellen genannt werden, die zusammen mit H2S eine elektromotorische Kraft liefern, die gemessen wird. Mit Yttriumoxid-stabilisierten Zirkoniumröhren als Sensor konnten H2S-Konzentrationen in Luft bis 0,2 ppm mit zuverlässiger Reproduzierbarkeit gemessen werden. Unter Verwendung von Hexacyanoferrat als Redoxpartner konnten sogar 30 ppb H2S nachgewiesen werden. Gaschromatographie. Für die Analytik von gasförmigen Substanzen ist häufig die Gaschromatographie die erste Wahl. Nach erfolgter Trennung können Schwefelverbindungen wie H2S flammenphotometrisch bei einer Emissionswellenlänge von 397 Nanometer detektiert werden. Ein Verfahren zum schnellen Spurennachweis von Schwefelwasserstoff in Kohlegas erzielte eine Nachweisgrenze von 10 ppb. Sünde. Sünde ist ein Begriff insbesondere im Judentum, Christentum und Islam. Er bezeichnet vor allem im christlichen Verständnis den unvollkommenen Zustand des von Gott getrennten Menschen und seine falsche Lebensweise (d. h. das Übertreten von oder Herausfallen aus göttlicher Gesetzesordnung). Diese Trennung kam, der biblischen Erzählung zufolge, durch den Sündenfall zustande. Die Sünde besteht nach christlichem Verständnis in einer willentlichen Abkehr von Gottes gutem Willen, im Misstrauen Gott gegenüber, im Zulassen des Bösen oder im Sich-Verführen-Lassen. Bei Paulus erscheint die Sünde als eine unheimliche Macht, die das Leben sowie das Zusammenleben bestimmt und die Menschen zu Sklaven ihrer Leidenschaften macht, denen sie entsprechend ausgeliefert sind. Der Begriff "Sünde" bezeichnet des Weiteren die einzelne verwerfliche und daher sündige Tat (Verfehlung), die mit dem bösen Gedanken beginnt. Gedanken- und Tatsünden folgen aus der durch Unglauben verursachten Trennung (d. h. der Grundsünde). Böse Worte, verletzende oder unwahre Äußerungen also, sind nach biblischem Verständnis zu den Tatsünden zu zählen. Sünde kann auch als das Gegenteil von moralischer Verantwortung aufgefasst werden oder die Ursache für psychologisches Fehlverhalten sein. Letztlich führt das" In-der-Sünde-Bleiben" dem christlichen Glauben zufolge zur Verurteilung im sogenannten Jüngsten Gericht Gottes, zu zweierlei Schicksal für Glaubende und Ungläubige: die Glaubenden kommen in den Himmel, die Ungläubigen in die Hölle (,). Ein Tatbestand gilt als verwerflich bzw. schlecht, weil Gott ihn als Sünde kennzeichnet, z. B. durch die Zehn Gebote. Durch Sünden kommen andere Mitmenschen und der Sünder selbst immer direkt oder indirekt zu Schaden. Somit ist der Sünder nicht nur durch die Übertretung selbst, sondern auch immer durch ihre Folgen mit einer Schuld behaftet. Im Judentum wurde in Jerusalem bis zum Ende des Zweiten Tempels durch die Darbringung von Opfern die Schuld gesühnt, d. h. zugedeckt. Im Islam hingegen hat das Tieropfer seine Sühnebedeutung verloren (siehe unten, vgl. das islamische Opferfest). Im Christentum ist Jesus Christus das Opferlamm Gottes, das die Sünden der Welt hinwegnimmt (,), deshalb sind keine Tieropfer mehr nötig. Eng verbunden mit der Vergebung der Sünde sind das Bekennen und Bereuen derselben sowie die Buße als Abkehr von Fehlhaltungen und Fehlverhalten. Durch diese Reue und aufgrund der Heilstat Jesu Christi am Kreuz erfahren die Menschen Vergebung. In anderen Religionen wird die Vergebung durch das Gnädigstimmen der Gottheit(en) erreicht (Verdienst, Selbsterlösung). Im Hinduismus und anderen vedischen Religionen werden unter Sünde Handlungen verstanden, die Karma verursachen. Umgangssprachlich wird unter Sünde oft eine als falsch angesehene Handlung verstanden, ohne dass damit eine theologische Aussage impliziert wäre. In trivialisierter Form begegnet der Begriff im Verstoß gegen Diätvorschriften („gegen die Linie sündigen“) oder gegen Verkehrsregeln („Parksünder“). Etymologie. Der griechische Ausdruck ἁμαρτία "(hamartia)" des Neuen Testaments und das hebräische Wort "chata’a" oder "chat'at" (חַטָּאָה/חַטָּ֣את) des Tanach bedeuten "Verfehlen eines Ziels" – konkret und im übertragenen Sinn, also "Verfehlung" – und werden in deutschen Bibelübersetzungen mit "Sünde" wiedergegeben. Das deutsche Wort "Sünde" hat eine gemeinsame Wurzel mit Worten anderer germanischer Sprachen (Englisch "sin", Altenglisch "synn", Altnorwegisch "synd"). Der Ursprung ist nicht genau geklärt. Möglicherweise geht das Wort auf die indogermanische Wurzel "*es-" zurück, das Partizip des Verbes "sein", soviel wie "seiend" im Sinne von „derjenige (der es war) seiend“ bedeutend. Im Deutschen wurde "Sünde" erstmals als christlicher Begriff gebraucht. Eine volksetymologische Deutung führt es auf das germanische "sund" zurück, weil "Sund" eine Trennung bezeichne, aber dem wird entgegengehalten, dass Sund im Gegenteil eine Enge, also eine Verbindung, zum Beispiel eine Meerenge, bezeichnet. Das Wort lässt sich nach einer anderen Erklärung jedoch vom altnordischen Verb "sundr" herleiten. Es bedeutet „trennen“ oder „aufteilen“ (vgl. deutsch "(ab)sondern", heutiges skandinavisch "sondre" und schwedisch "sönder" „zerbrochen“). Damit wäre ein "Sund" eine Landtrennung oder ein Bruchspalt. Judentum. Im Judentum ist die Übertretung eines Gesetzes Gottes eine Sünde. Die Gesetze sind dabei die Gebote der Tora, andere Vorschriften im Tanach sowie die im Talmud zusammengestellten Auslegungen. Nach jüdischem Verständnis begeht jeder Mensch im Laufe seines Lebens Sünden. Gott gleicht dabei die angemessene Strafe durch Gnade aus. Das allgemeine hebräische Wort für Sünde ist "aveira". Nach jüdischer Lehre ist kein Mensch perfekt, und alle Menschen haben mehrfach gesündigt. Diese Handlungen bedingen allerdings keine andauernde Verdammung; nur wenige Sünden sind (fast) unvergebbar. Juden sollen diese Prinzipien im Umgang mit den Mitmenschen anwenden. Nach der Bibel war ursprünglich die "Stiftshütte" und später der Jerusalemer Tempel der Ort, an dem die Hebräer bzw. die Israeliten ihre Sünden durch Opfer sühnen ließen (sühnen = zudecken, hebr.: "kippär"). Priester führten die in der Tora festgelegten Rituale (Gesang, Gebet, Gaben, Tieropfer) durch. Der Feiertag Jom Kippur ist ein spezieller Tag, an dem das ganze jüdische Volk zur Vergebung seiner Sünden zusammenkommt. In den späteren Büchern der Propheten werden leere Rituale abgelehnt und die Einstellung der Bittsteller in den Vordergrund gerückt. Gebet, aufrichtige Reue und Umkehr, sowie das Geben von Almosen sind zentrale Elemente der Sühne. Christentum. Der Begriff der Sünde, und insbesondere seine Überwindung, hat im Christentum eine zentrale Bedeutung. Sünde bezeichnet hier den durch den Menschen verschuldeten Zustand des Getrenntseins von Gott und ebenso einzelne schuldhafte Verfehlungen gegen Gottes Gebote, die aus diesem Zustand resultieren. (Zu konfessionellen Unterschieden siehe unten.) Die Lehre von der Sünde nennt man die "Hamartiologie" (auch, nicht ganz korrekt, „Hamartologie“). Im klassischen theologischen Denkgebäude ist die Hamartiologie ein Teil der Anthropologie (die Anthropologie wiederum ist ein Teil der Schöpfungslehre, die Schöpfungslehre ist ein Teil der Dogmatik, die Dogmatik ein Teil der Theologie). Grundsätzlich ist nach der christlichen Theologie jeder Mensch sündig. Jesus von Nazaret wurde allerdings nicht im Zustand der Sünde geboren und sündigte nicht. Die christliche Sichtweise der Sünde bezieht ihre wichtigsten Aussagen aus alt- wie neutestamentlichen Texten und unterscheidet sich insofern teilweise von der jüdischen Theologie. Danach zerstört die Sünde die vertrauensvolle Beziehung des Menschen zu Gott, die von diesem gewollt ist. Die vielen einzelnen Sünden (sündhaften Handlungen) werden als Symptome bzw. Folgen der einen Sünde gesehen, die im Leben ohne Gottesbeziehung besteht. Sünde im christlichen Sinn ist immer zugleich eine Verfehlung gegen Gott – das Sündig-werden an Mitmenschen als Gottes Geschöpfe ist implizit gegen deren Schöpfer gerichtet. Ein Beispiel gibt das Gleichnis vom verlorenen Sohn, in dem der Sohn sich eigentlich nur zwischenmenschlich verfehlt, aber dann zur Erkenntnis kommt: „Vater, ich habe gesündigt, gegen den Himmel und vor dir“. Im neutestamentlichen Verständnis ist kein Mensch von Natur aus frei von Sünde: „Wenn wir sagen, dass wir keine Sünde haben, führen wir uns selbst in die Irre, und die Wahrheit ist nicht in uns.“. Sünden haben die Tendenz, weitere Sünden nach sich zu ziehen. Der Mensch hat keine Chance, im Alleingang frei von Sünde zu werden. Konkrete Sünden, die im Neuen Testament erwähnt werden, sind: Entweihung des Tempels, Heuchelei, Habsucht, Gotteslästerung, Ehebruch, Prahlerei. Sündenlisten gibt es an mehreren Stellen des Neuen Testaments: in der Apostelgeschichte, in den Briefen von Paulus sowie in der Offenbarung des Johannes. Eine besondere Form der Sünde ist die Sünde wider den Heiligen Geist, welche nach Aussage des Neuen Testaments nicht vergeben wird. Biblische Sicht. Sünde ist der von Menschen verursachte Grund für die geistliche Trennung von Gott, welche von Gott nicht gewollt ist (). Diese Trennung von Gott wird auch als „Wandeln in der Finsternis“ bezeichnet (). Sünde bewirkt den Tod. Damit ist nicht nur die jetzige Trennung gemeint, sondern die ewige Trennung von Gott (). Umgekehrt bedeutet die Vergebung der Sünde ewiges Leben. Sünde stört aber nicht nur die Beziehung mit Gott, sondern auch zu unseren Mitmenschen (). Hauptsächlich wendet sich Sünde jedoch gegen Gott (). Die Bibel setzt Sünde auch mit Gesetzlosigkeit bzw. mit Ungerechtigkeit gleich. Daraus ergibt sich der Zusammenhang von Sünde und Gesetzesübertretung. Durch Gottes Gesetz wird die Sünde erkannt. Da jeder Mensch mindestens einmal in seinem Leben gegen Gottes Gesetz verstößt, ist jeder Mensch von sich aus ein Sünder. Die Zurechnung von Übertretungen setzt die Kenntnis (,) und Gültigkeit () des Gesetzes voraus. Nicht aus eigener Kraft wird der Mensch gerettet, sondern durch Gottes Gnade (). Erkenntnis der Sünde. Die Gebote Gottes (das Gesetz) machen die Sünde und die Sünden erkennbar, nämlich als Maßstab. Das wird in Beichtspiegeln angewendet, etwa bei der Vorbereitung auf die Beichte durch ein Betrachten einer Liste der zehn Gebote mit möglichen Verstößen. Das selbstkritische Erkennen des eigenen Betroffenseins von Sünde fällt den meisten Menschen schwer. Leichter ist solches Erkennen in Bezug auf die Menschheit insgesamt, als Kollektiv also. Hier lässt sich Sünde erkennen an der mangelnden Offenheit, auf Gott zu hören, an dramatischen Gräueltaten sowie an ungerechten gesellschaftlichen Strukturen. Ohne nun bestimmte Sünden individuell zuzuordnen (dem oft die komplexe Realität entgegensteht), kann der einzelne Mensch sich doch als mitverantwortlicher Teil des sündenverstrickten Kollektivs sehen. Ostkirche. Die Orthodoxe Kirche hebt insbesondere den Effekt der Sünde auf die Beziehungen zwischen Mensch und Gott sowie die zwischenmenschlichen Folgen hervor. Daher wird bei der Erlösung die Aussöhnung und erneuerte Beziehung betont. Römisch-katholische Kirche. Westliche Kirchen (katholische Kirchen, evangelische Kirchen) sehen eher den rechtlichen Aspekt, der dann auch bei der Erlösung eine Rolle spielt. Die römisch-katholische Kirche versteht unter Sünde nur die Handlung selbst, während die Kirchen der Reformation die menschliche Natur selbst als sündhaft bezeichnen (vgl. Zitat Martin Luther). In der römisch-katholischen Kirche beschäftigt sich die Moraltheologie mit der Sündenlehre. Die römisch-katholische Kirche kennt eine begrifflich ausgearbeitete Lehre bezüglich der Sünde und ihrer kirchlich vermittelten Vergebung. Dazu gehören unter anderem die Unterscheidung von Todsünde und lässlicher Sünde. Todsünden bewirken nach gegenwärtigem Urteil die „ewige Verdammnis“ in der Hölle, lässliche erfordern eine Reinigung (Strafe) im Fegefeuer. Daneben gibt es den Ablass zum Erlass von „zeitlichen Sündenstrafen“ (Sündenfolgen in der Zeit), die im Falle des Ablebens das Purgatorium mildern. Nach römisch-katholischer Lehre hat die Erbsünde zwar die ursprüngliche Perfektion des Menschen angeschlagen, aber nicht vollständig ausgelöscht. Durch die Taufe wird die Erbsünde bis auf einen kleinen Rest, die sogenannte Konkupiszenz, der als eine Art Zunder im Menschen verbleibt, vollständig negiert und kann keine weitere Schuld nach sich ziehen. Daher ist der gefallene Mensch von sich aus bestrebt, Gottes Vergebung und Erlösung zu suchen. Methodistische und wesleyanische Kirchen, die zu den evangelische Kirchen gehören, teilen diese Sichtweise. Die Sündentaten lassen sich in sichtbare Handlungen wie Totschlag und Diebstahl und in Gedanken vollzogene Taten wie Neid und Habgier und Unterlassungssünden () unterscheiden. Sünden, die jemand mit großer Erkenntnis verübt, wiegen schwerer als Sünden, die jemand mit wenig Erkenntnis verübt (). In der Sündenlehre der römisch-katholischen Kirche kommt auch den Mitchristen des Sünders eine Verantwortung zu. Der Katholische Erwachsenenkatechismus kennt die „Pflicht zur brüderlichen Zurechtweisung“, die er in der christlichen Tradition als ein „Werk der Barmherzigkeit“ definiert. Diese Pflicht zur brüderlichen Zurechtweisung setzt eine sogenannte „schwere Sünde“ voraus. Als Sünde kann auch religiöse Unwissenheit gelten (vgl.). Der Katholische Erwachsenenkatechismus unterscheidet im Kapitel "Sünde und Umkehr" zwischen Tod- und lässlichen bzw. schweren und leichten Sünden. Dabei wird ein Mord als zum Himmel schreiende Sünde bezeichnet. Evangelische Kirchen. Die Auswirkung der Erbsünde wird in vielen reformatorischen Kirchen anders gesehen. Am prägnantesten formulierte dies der Calvinismus, aber auch lutherische Kirchen kennen teilweise ähnliche Bestimmungen. Danach ist der Mensch durch die Erbsünde in einem Zustand „totaler Verderbtheit“ gefangen – also der vollständigen Abkehr von Gott, d. h. der Fixierung auf sich selbst und die Welt (vgl. Samsara). Dies kann allein durch Gottes Initiative und Gnade "(sola gratia)" durchbrochen werden. Der damit geschenkte Glaube (Sola fide) erhalte den Menschen im Zustand der Gnade. Befreiung von der Sünde. Die Frage, wer in den Genuss der Befreiung von der Sünde kommt, und wie dies geschieht, wird innerhalb christlicher Kirchen unterschiedlich gesehen. Es lassen sich jedoch einige Gemeinsamkeiten feststellen. Im Vordergrund steht die Gnade, die dem Menschen ohne sein Zutun geschenkt wird: die sogenannte Gerechtmachung des Sünders oder auch Rechtfertigung. Umstritten ist, inwiefern der Mensch sich aus eigenen Kräften schon Gott zuwenden kann. Im Zustand der Gnade jedenfalls erkennt der Mensch an, dass Gott in Jesus Christus als dem Heiland die Sünde(n) vergibt. Von Bedeutung für die Befreiung von der Sünde sind die Sakramente der Taufe und des (nicht einheitlich verstandenen) Abendmahls: die Taufe zur Aufnahme in die Glaubensgemeinschaft („Leib Christi“), das Abendmahl als immer wieder aufs Neue zugesprochene Sündenvergebung durch Gott. Sühne. Sühne ist der Vorgang, durch den der Sünder wieder mit Gott versöhnt wird. Diese ursprünglich jüdische Lehre wurde zu einer zentralen Lehre in der christlichen Theologie. Die Sünde wird durch die Sühne aufgehoben; nach christlicher Lehre geschah diese Erlösung „in, mit und unter“ Kreuzigung und Auferstehung Jesu Christi. Im Laufe der Geschichte gab es unterschiedliche Ansätze, um die Bedeutung dieser im Christentum so zentralen Gegebenheit zu erfassen. Das Neue Testament geht von der Ähnlichkeit mit dem jüdischen Tieropfer (Sühneopfer) im Tanach aus, das die Sünden abträgt. Ein vollständiges Verständnis der christlichen Vorstellung von Sühne erfordert eine Kombination dieser Punkte. "Siehe auch:" Sühnopfer (Christentum) Erbsünde. Das christliche Konzept der Erbsünde beschreibt einen überindividuell – für den Einzelnen von Geburt an – bestehenden "Zustand" der Sünde, der irreversibel ist und nur durch die Gnade Gottes beseitigt werden kann (evangelisch), oder aber der "Neigung" zur Sünde, die vom Individuum handelnd aktualisiert und dadurch bejaht wird, solange die Gnade ihm nicht zu Hilfe kommt (katholisch). Islamische Sichtweise. Im Islam ist der Mensch ständig der Versuchung ausgesetzt, Sünden zu begehen. Diese bestehen darin, Gottes Willen oder seine Schöpfung zu verletzen. Der Islam versteht Sünde als Ungehorsam gegen Gott, seinen Auftrag oder sein Gesetz. Sünde ist die „absichtliche Übertretung der göttlichen Norm“ (S. Balic) in Gedanken, Worten und Taten. Der Koran beschreibt die erste Sünde der ersten Menschen (Adam und Eva) als Folge der Irreleitung des Satans (2:36–38). Der Islam lehnt es aber ab, die Sünde dieser beiden auf ihre Nachkommen vererbt zu haben. Der Koran verweist in diesem Bezug auf die Barmherzigkeit Gottes und dessen Macht zu vergeben. Nach der islamischen Lehre also wird der Mensch von der sogenannten „Erbsünde“ und ihren Folgen entlastet. Ein Mensch wird rein geboren und wird so lange rein bleiben, bis er sich aus seinem eigenen Willen gegen Gott versündigt. Erst dann spricht der Islam über eine Sünde. Sünden kann man nicht an reine Menschen vererben, reine Menschen dürfen, allein aus Gottes Gerechtigkeit, nicht für die Sünden anderer Menschen verantwortlich gemacht werden. Unterscheidung. Unterschieden werden drei Gruppen, nämlich leichte Verfehlungen (wie sündhafte Gedanken), schwere moralische Sünden und die Todsünde „Unglaube“. Unglaube selber kann auch wieder drei Formen haben: Die Nichtanerkennung Gottes (arab. "kufr"), 2. Vielgötterei (arab. "schirk"), 3. Abfall vom Glauben (arab. "irtidad"). Diese Unterscheidung gründet in der Aussage. Zum Unglauben wird gesagt:. Der Unglaube "(kufr)" ist die größte Sünde und verwirkt das Heil des Betroffenen, er gelangt nicht ins Paradies. Bewertungsansatz von Al-Ghazzali. Nach Al-Ghazzali (1059–1111) bewertete die Schwere der Sünden nach dem Schema: a) Betrifft es Gott? b) Betrifft es Menschen? c) Betrifft es lebensnotwendige Mittel? Sünden gegen Gott und die Offenbarung galten ihm als die schwerwiegendsten, da sie den Eintritt ins Paradies verwehrten. Darauf folgten Delikte gegenüber Mitmenschen wie Mord, Totschlag, Verstümmelung, Gewaltanwendung, Homosexualität oder Ehebruch. Die dritte Sparte enthielt Eigentumsdelikte, „Aneignung des Gutes der Waisen durch den bestellten Vormund“, „Beraubung des Mitmenschen mit Hilfe einer falschen Zeugenaussage“ und die „Aneignung fremden Eigentums durch einen Verhehlungseid“ (H. Stieglecker). Erbsünde. Der Islam kennt keine Erbsünde. Zwar erinnert der Koran (7:19–25; 2:35–39; 20:117–124) an Sündenfall und Vertreibung aus dem Paradies, doch übernimmt er nicht die paulinische Lehre von der Erbsünde. Somit kennt der Islam notwendigerweise keine Erlösungstheologie. Alle Sünden werden vom Menschen selbst auf Erden angesammelt. Aus dieser Selbstverschuldung erwächst auch die Selbstverantwortung für das jeweilige Tun und Lassen des einzelnen Menschen. Sündenvergebung. Der Koran preist an vielen Stellen die Barmherzigkeit und Vergebungsbereitschaft Gottes (z. B.: Sure 2:173.182.192.199.218). Gott vergibt dabei, „wem er will“ (z. B.: Sure 2:285; 3:129). Als unverzeihlich gilt jedoch der Unglaube in seinen vielfältigen Formen. Dazu gehören Polytheismus und Götzendienst (4:48.116), die Apostasie (4:137; vgl. 16:106f; 2:217; 3,86–91), den Glauben nur vorzuheucheln (63:3) und ein Leben in Unglauben bis zum Tode (47:34; 4:18). Menschen, welche diese Sünden begangen haben, wird Gott nicht verzeihen (vgl. 9:80; 63:6), selbst wenn Mohammed für sie eine Fürbitte "(shafa’a)" einlegte. Alle anderen Sünden können prinzipiell Vergebung erlangen, soweit wahrhaftiger Glauben (vgl. 20:73; 26:51; 46:31) und die Ausrichtung am Leben Mohammeds gegeben sind: Unter dieser Prämisse ist die Vergebung auch schwerer Sünden mittels Reue und Buße möglich (42:25; 4:17). Deshalb fordert der Koran Reue und Buße (z. B.: 24:31; 66:8; 5:74), um Gott zu versöhnen (z. B.: 5:39; 25:71). Wer Vergebung erfleht, dem wird vergeben (3:135–136). Kleinere Vergehen kann der Muslime derweil schon durch die gewissenhafte Erfüllung der religiösen Pflichten tilgen. Jugendsünde. Als Jugendsünde oder auch Jugendtorheit bezeichnet man im deutschen Sprachraum allgemein eine unüberlegte Handlung oder Torheit, die jemand im jugendlichen Alter begangen hat. Als übertriebener und oft scherzhaft gemeinter Begriff gilt der Terminus für eine Schöpfung in jungen Jahren oder zu Beginn eines Berufes, mit der sich der Betroffene später nicht mehr identifizieren kann und möchte. Im juristischen Sinn ist die Jugendsünde eine Verfehlung, die aufgrund des Alters oder des Entwicklungsstadiums des Ausführenden als minderschwer eingeschätzt wird. Im Unterschied zur Sünde fehlt allerdings im Allgemeinen die religiöse Beurteilung der Tat. Unterscheiden lassen sich hierbei. Mit dem Begriff Modesünde bringt man umgangssprachlich eine negative Beurteilung in Bekleidungsfragen zum Ausdruck; es ist nicht im eigentlichen Sinne eine Sünde. Sonstiges. Der Papst gilt in der katholischen Kirche nicht als sündenfrei. Entsprechend legt auch er die Beichte ab. SQL. SQL ist eine Datenbanksprache zur Definition von Datenstrukturen in relationalen Datenbanken sowie zum Bearbeiten (Einfügen, Verändern, Löschen) und Abfragen von darauf basierenden Datenbeständen. Die Sprache basiert auf der relationalen Algebra, ihre Syntax ist relativ einfach aufgebaut und semantisch an die englische Umgangssprache angelehnt. Ein gemeinsames Gremium von ISO und IEC standardisiert die Sprache unter Mitwirkung nationaler Normungsgremien wie ANSI oder DIN. Fast alle gängigen Datenbanksysteme unterstützen SQL – allerdings in unterschiedlichem Umfang und leicht voneinander abweichenden „Dialekten“. Durch den Einsatz von SQL strebt man die Unabhängigkeit der Anwendungen vom eingesetzten Datenbankmanagementsystem an. Die Bezeichnung "SQL" (offizielle Aussprache, oft aber auch nach dem Vorgänger; auf deutsch auch häufig die deutsche Aussprache der Buchstaben) wird im allgemeinen Sprachgebrauch als Abkürzung für „Structured Query Language“ aufgefasst, obwohl sie laut Standard ein eigenständiger Name ist. Die Bezeichnung leitet sich von dem Vorgänger SEQUEL (, Structured English Query Language) ab, welche mit Beteiligung von Edgar F. Codd (IBM) in den 1970er Jahren von Donald D. Chamberlin und Raymond F. Boyce entworfen wurde. SEQUEL wurde später in SQL umbenannt, weil SEQUEL ein eingetragenes Warenzeichen der Hawker Siddeley Aircraft Company ist. Sprachelemente und Beispiele. Die Bezeichnung SQL bezieht sich auf das englische Wort. Mit Abfragen werden die in einer Datenbank gespeicherten Daten abgerufen, also dem Benutzer oder einer Anwendersoftware zur Verfügung gestellt. Das Ergebnis einer Abfrage sieht wiederum aus wie eine Tabelle und kann oft auch wie eine Tabelle angezeigt, bearbeitet und weiterverwendet werden. Einfache Abfrage. listet alle Spalten und alle Zeilen der Tabelle "Student" auf. Abfrage mit Spaltenauswahl. listet die Spalten "VorlNr" und "Titel" aller Zeilen der Tabelle "Vorlesung" auf. Abfrage mit eindeutigen Werten. listet nur unterschiedliche Einträge der Spalte "MatrNr" aus der Tabelle "hört" auf. Dies zeigt die Matrikelnummern aller Studenten, die mindestens eine Vorlesung hören, wobei mehrfach auftretende Matrikelnummern nur einmal ausgegeben werden. Abfrage mit Umbenennung. listet die Spalten MatrNr und Name aller Zeilen der Tabelle Student auf. MatrNr wird beim Anzeigeergebnis als Matrikelnummer aufgeführt. Abfrage mit Filter. listet "VorlNr" und "Titel" aller derjenigen Zeilen der Tabelle "Vorlesung" auf, deren Titel 'ET' ist. Die solchermaßen strukturierte, häufig verwendete Anweisung wird nach den Anfangsbuchstaben auch als „SFW-Block“ bezeichnet. Abfrage mit Filter nach Inhalt. listet die Namen aller Studenten auf, deren Name mit "F" beginnt. (im Beispiel: Fichte und Fauler). "LIKE" kann mit verschiedenen Platzhaltern belegt werden: "_" steht für ein fehlendes Zeichen und "%" steht für eine beliebige Zeichenfolge. Bei der SQL-Version von Microsoft Access steht * für eine beliebige Zeichenfolge. So können mit der Abfrage auch Felder nach Inhalt durchsucht werden. Abfrage mit Filter und Sortierung. SELECT Vorname, Name, StrasseNr, Plz, Ort listet Vorname, Name, StrasseNr, Plz und Ort aller Studenten aus dem angegebenen Postleitzahlbereich, sortiert nach Name, auf. Abfrage mit verknüpften Tabellen. Die Aufzählung hinter FROM legt die Datenquellen fest: an dieser Stelle können mit Hilfe sogenannter JOINs mehrere Tabellen über Schlüsselfelder miteinander verknüpft werden, so dass Daten aus verschiedenen Tabellen zusammengeführt und angezeigt werden. Innerer natürlicher Verbund: Alle Datensätze aus den Tabellen "Professor" und "Vorlesung", die den gleichen Wert im Feld "PersNr" haben. Professoren ohne Vorlesung und Vorlesungen ohne Professor werden damit nicht angezeigt. "Vorsicht: Nicht alle Implementierungen verstehen die Schlüsselwörter „INNER“, „OUTER“ und „JOIN“." Linker äußerer Verbund. FROM Professor LEFT OUTER JOIN Vorlesung Äußerer linker Verbund: Alle Datensätze der Tabelle "Professor" und alle Datensätze aus beiden Tabellen, die den gleichen Wert im Feld "PersNr" haben. Professoren ohne Vorlesung sind enthalten, Vorlesungen ohne Professor sind nicht enthalten. FROM Professor LEFT OUTER JOIN Vorlesung WHERE NOT EXISTS (SELECT * FROM Vorlesung WHERE PersNr = a.PersNr); Gruppierung mit Aggregat-Funktionen. SELECT COUNT(Vorlesung.PersNr) AS Anzahl, Professor.PersNr, Professor.Name FROM Professor LEFT OUTER JOIN Vorlesung "Äußerer linker Verbund" und "Gruppierung", "Aggregation": Zählt die Anzahl der Vorlesungen pro Professor. "Bemerkung": "COUNT(Professor.PersNr)" oder "COUNT(*)" wären falsch (Nullwerte sollen nicht mitgezählt werden). Redundanz. Ein Grundsatz des Datenbankdesigns ist, dass in einer Datenbank keine Redundanzen auftreten sollen. Dies bedeutet, dass jede Information, also z. B. eine Adresse, nur genau einmal gespeichert wird. In manchen Fällen ist die Performance einer Datenbank besser, wenn sie nicht (vollständig) normalisiert wird. In diesem Falle werden in der Praxis oft Redundanzen bewusst in Kauf genommen, um zeitaufwändige und komplexe Joins zu verkürzen und so die Geschwindigkeit der Abfragen zu erhöhen. Man spricht auch von einer Denormalisierung einer Datenbank. Wann (und ob überhaupt) eine Denormalisierung sinnvoll ist, ist umstritten und hängt von den Umständen ab. Schlüssel. Während die Informationen auf viele Tabellen verteilt werden müssen, um Redundanzen zu vermeiden, sind Schlüssel das Mittel, um diese verstreuten Informationen miteinander zu verknüpfen. So hat in der Regel jeder Datensatz eine eindeutige Nummer oder ein anderes eindeutiges Feld, um ihn zu identifizieren. Diese Identifikationen werden als Schlüssel bezeichnet. Wenn dieser Datensatz in anderen Zusammenhängen benötigt wird, wird lediglich sein Schlüssel angegeben. So werden bei der Erfassung von Vorlesungsteilnehmern nicht deren Namen und Adressen, sondern nur deren jeweilige Matrikelnummer erfasst, aus der sich alle weiteren Personalien ergeben. So kann es sein, dass manche Datensätze nur aus Schlüsseln (meist Zahlen) bestehen, die erst in Verbindung mit Verknüpfungen verständlich werden. Der eigene Schlüssel des Datensatzes wird dabei als Primärschlüssel bezeichnet. Andere Schlüssel im Datensatz, die auf die Primärschlüssel anderer Tabellen verweisen, werden als Fremdschlüssel bezeichnet. Schlüssel können auch aus einer Kombination mehrerer Angaben bestehen. Z. B. können die Teilnehmer einer Vorlesung durch die eindeutige Kombination von Vorlesungsnummer und Studentennummer identifiziert werden, so dass die doppelte Anmeldung eines Studenten zu einer Vorlesung ausgeschlossen ist. Referenzielle Integrität. Referenzielle Integrität bedeutet, dass Datensätze, die von anderen Datensätzen verwendet werden, in der Datenbank auch vollständig vorhanden sind. Diese wichtige Funktionalität kann (und sollte) bereits von der Datenbank überwacht werden, so dass z. B. Widersprüchlichkeit von Daten wird allgemein als Dateninkonsistenz bezeichnet. Diese besteht, wenn Daten bspw. die Integritätsbedingungen (z. B. Constraints oder Fremdschlüsselbeziehungen) nicht erfüllen. Ursachen für Dateninkonsistenzen können Fehler bei der Analyse des Datenmodells, fehlende Normalisierung des ERM oder Fehler in der Programmierung sein. Zum letzteren gehören die "Lost-Update"-Phänomene sowie die Verarbeitung von zwischenzeitlich veralteten Zwischenergebnissen. Dies tritt vor allem bei der Online-Verarbeitung auf, da dem Nutzer angezeigte Werte nicht in einer Transaktion gekapselt werden können. Transaktion "B" verringert Wert "x" um 10 Transaktion "A" erhöht den gespeicherten Wert von "x" um eins und schreibt zurück Die Änderung von "B" ist verloren gegangen SQL-Datentypen. codice_1 und codice_2 wird bei der Definition jeder Spalte angegeben, welchen Datentyp die Werte dieser Spalte annehmen können. Dazu liefert SQL eine ganze Reihe standardisierter Datentypen mit. Die einzelnen DBMS-Hersteller haben diese Liste jedoch um eine Unzahl Wenn es die Tabellendefinition erlaubt, können Attribute auch den Wert codice_36 annehmen, wenn kein Wert bekannt ist oder aus anderen Gründen kein Wert gespeichert werden soll. Der codice_36-Wert ist von allen anderen möglichen Transaktion, Commit und Rollback. Eine Transaktion bezeichnet eine Menge von Datenbankänderungen, die zusammen ausgeführt werden (müssen). So ist beispielsweise die Buchung (als Transaktion) eines Geldbetrags durch zwei atomare Datenbankoperationen „Abbuchen des Geldbetrages von Konto A“ und „Buchung des Geldbetrages auf Konto B“ gekennzeichnet. Kann die vollständige Abarbeitung der elementaren Datenbankoperationen der Transaktion nicht durchgeführt werden (z. B. aufgrund eines Fehlers), müssen alle durchgeführten Änderungen an dem Datenbestand auf den Ausgangszustand zurückgesetzt werden. Der Vorgang, der alle Änderungen einer Transaktion zurücksetzt, wird als Rollback bezeichnet. Der Begriff Commit bezeichnet das Ausführen einer Transaktion. Transaktionen sind eine Möglichkeit, die Konsistenz des Datenbestandes zu sichern. Im Beispiel der doppelten Kontenführung wird durch das Verhindern von ungültigen Teilbuchungen eine ausgeglichene Kontobilanz gewährleistet. Datenbanken erlauben es zum Teil, bestimmte Befehle außerhalb einer Transaktion auszuführen. Darunter fällt insbesondere das Laden von Daten in Tabellen oder das Exportieren von Daten mittels Utilities. Manche DBMS erlauben das temporäre Abschalten der Transaktionslogik sowie einiger Kontrollen zur Erhöhung der Verarbeitungsgeschwindigkeit. Dies muss allerdings meist durch einen expliziten Befehl erzwungen werden, um ein versehentliches Ändern von Daten außerhalb einer Transaktion zu vermeiden. Solche Änderungen können, falls eine Datenbankwiederherstellung erforderlich ist, zu schweren Problemen oder gar Datenverlusten führen. Eine Transaktion wird mit der SQL-Anweisung codice_38 beendet. Alle Änderungen der Transaktion werden persistent gemacht, und das DBMS stellt durch geeignete (interne) Mittel (z. B. Logging) sicher, dass diese Änderungen nicht verloren gehen. Mit dem Befehl codice_39 wird eine Transaktion ebenfalls beendet, es werden jedoch alle Änderungen seit Beginn der Transaktion rückgängig gemacht. Das heißt, der Zustand des Systems (in Bezug auf die Änderungen der Transaktion) ist der gleiche wie vor der Transaktion. Programmierschnittstelle. Das ursprüngliche SQL war keine Turing-vollständige Programmiersprache, es ermöglichte also nicht die Realisierung von beliebigen Computerprogrammen. Mittlerweile lässt es sich mit anderen Programmiersprachen kombinieren, um eine Programmierung im engeren Sinne zu ermöglichen. Hierfür gibt es unterschiedliche Techniken. Statisches und dynamisches SQL. Unabhängig von der verwendeten Programmiertechnik wird zwischen "statischem" und "dynamischem" SQL unterschieden. Bei dynamischem SQL "muss" das Datenbanksystem die SQL-Anweisung zur Laufzeit des Programms interpretieren und den Zugriffspfad optimieren. Da dieser so genannte Parse-Vorgang Zeit in Anspruch nimmt, puffern viele Datenbanksysteme die bereits geparsten SQL-Anweisungen, um so, falls sie sich wiederholen, die Zeit für ein erneutes Parsen zu sparen. Bei statischem SQL "kann" schon bei der Übersetzung der Programme bzw. beim Binden der SQL-Anweisungen an eine Datenbank (so genanntes "Bind" der SQL-Befehle) der optimale Zugriffsweg bestimmt werden. Damit sind kürzestmögliche Laufzeiten der Anwendungsprogramme möglich, allerdings muss der Zugriffsweg aller betroffenen Programme neu bestimmt werden, wenn sich Voraussetzungen (z. B. Statistiken) ändern ("Rebind"). Die "Bind"-Phase ist heute vor allem im Großrechner-Umfeld bekannt, die meisten Datenbanksysteme optimieren hingegen zur Laufzeit. Sprachstandard. Ziel der Standardisierung ist es, Anwendungsprogramme so erstellen zu können, dass sie vom verwendeten Datenbanksystem unabhängig sind. Heutige Datenbanksysteme implementieren mehr oder weniger große Teile des Sprachstandards. Darüber hinaus stellen sie oftmals herstellerspezifische Erweiterungen bereit, die nicht dem Standard-Sprachumfang entsprechen. In der Vor-SQL-Zeit strebte man die Portabilität von Anwendungen über die kompatible Schnittstelle an. Der offizielle Standard ist nicht frei verfügbar, jedoch existiert ein Zip-Archiv mit einer Arbeitsversion von 2008. Erweiterungen. Die beiden ersten Teile des SQL Standards "SQL/Framework" und "SQL/Foundation" legen die Kernfunktionalitäten fest. In den weiteren Teilen werden spezifische Aspekte der Sprache definiert. Als Ergänzung zum SQL-Standard existiert mit "ISO/IEC 13249: SQL multimedia and application packages" eine Norm, die für die Anwendungsfälle "Text", "Geografische Daten", "Bilder", "Data mining" und "Metadaten" spezialisierte Schnittstellen in SQL Syntax festlegt. Schmelzen. Als Schmelzen bezeichnet man das direkte Übergehen eines Stoffes vom festen in den flüssigen Aggregatzustand. Erfolgt dieser Prozess für Reinstoffe bei konstantem Druck, so ist die dabei vorliegende Schmelztemperatur eindeutig bestimmt. Schmelztemperatur und Druck werden zusammen als Schmelzpunkt bezeichnet. Während des Übergangs (der auch als „Auftauen“ bezeichnet wird) bleibt die Temperatur konstant, sämtliche zugeführte Wärme wird als Schmelzenthalpie in die Änderung des Aggregatzustandes investiert. So hat zum Beispiel ein Wasser/Eis-Gemisch bei Normaldruck eine Temperatur von 0 °C. Das Gegenteil des Schmelzens ist das Erstarren. Stoffgemische. Bei Stoffgemischen ist der Schmelzvorgang komplizierter, da als weitere Freiheitsgrade die Zusammensetzung der festen und flüssigen Phase hinzukommen. Der Schmelzvorgang findet nicht mehr bei einer konstanten Temperatur, sondern in einem Temperaturintervall, dem Schmelzbereich statt. Eine Ausnahme bildet dabei das sich wie ein Reinstoff verhaltende eutektische Gemisch. Das Verhalten eines Gemisches während des Schmelzvorganges lässt sich durch ein Schmelzdiagramm darstellen. Die flüssige Phase eines Stoffes bzw. Stoffgemischs wird als Schmelze bezeichnet. Mesophasen. Bei einigen Stoffen erfolgt der Übergang vom festen zum flüssigen Aggregatzustand über Zwischenphasen sogenannten Mesophasen. Flüssigkristalle bilden zwischen dem festen und flüssigen Zustand smektische und nematische Phasen. Dabei wird zuerst die Fernordnung im Kristall aufgegeben, wobei eine Nahordnung bestehen bleibt. Im gegenteiligen Fall wird bei plastischen Kristallen zunächst die Nahordnung aufgelöst, wobei eine Fernordnung erhalten bleibt. Als Beispiel kann hier das Adamantan genannt werden, wo die hochsymmetrischen ("kugelförmigen") Moleküle im plastischen Zustand entsprechende Rotationsfreiheitsgrade besitzen, der Platz im Kristallgitter aber erhalten bleibt. Unterkühlte Schmelze. Unter einer unterkühlten Schmelze versteht man eine Flüssigkeit, die sich unterhalb ihrer Schmelztemperatur und somit in einem Aggregatzustand befindet, der nicht ihrem Gleichgewichtszustand entspricht. Dieser Effekt wird auch einfach Unterkühlung genannt und bei manchen Latentwärmespeichern genutzt. Unterkühlte Schmelzen können bei der Glasübergangstemperatur in den amorphen Zustand übergehen. Dieses Verhalten bestimmt besonders die Eigenschaften organischer Polymere. Umschaltsperre. Caps Lock auf einer englischen Computertastatur Die Umschaltsperre () oder Feststelltaste () befindet sich auf einer Computer- oder Schreibmaschinen-Tastatur direkt über der linken Umschalttaste. Sie kann unterschiedlich beschriftet sein, so findet man beispielsweise die Symbole ⇩, ⇪ oder ein Vorhängeschloss aber auch den Aufdruck „Caps Lock“. Die Umschaltsperre dient der bequemeren Eingabe von Text in Versalschrift (Beispiel: VERSALSCHRIFT). Funktion. Auf deutschen Computertastaturen fungiert die Taste in der Regel als Umschaltsperre, auf schweizerischen oder amerikanischen Tastaturen als Feststelltaste. Windows folgt dieser Konvention und ändert die Funktion der Taste entsprechend dem aktiven Tastaturtreiber. Allerdings kann ein Deutsch-(IBM)-Tastaturtreiber (früher auch "Deutsch (EDV)" genannt) nachträglich von der Installations-CD installiert werden. Bei Aktivierung dieses Treibers bewirkt die Taste, dass die Buchstaben groß geschrieben werden, aber z. B. die Zahlen weiterhin normal erreichbar sind. Unter OS X fungiert die Taste standardmäßig als Feststelltaste. Geschichte. Ursprünglich wurde die Taste auch auf unterschiedlichen Wegen deaktiviert – auf deutschen Tastaturen durch das Drücken der Umschalt-, auf schweizerischen oder amerikanischen Tastaturen durch ein erneutes Betätigen der Caps-Lock-Taste. Der Ursprung der Umschaltsperre liegt in der mechanischen Schreibmaschinentastatur: Der Druck der Taste senkte den Typenwagen ab oder hob die Schreibwalze an, wobei im Gegensatz zur normalen Umschalttaste die Mechanik in dieser Stellung einrastete. In dieser Stellung wurde jeweils die Zweitbelegung der anderen Tasten aufs Papier gebracht. Ein Druck auf die linke Umschalttaste löste die Einrastung wieder. Modifikation der Taste Caps-Lock. Unter den meisten Betriebssystemen kann man die Caps-Lock-Taste abschalten, um so ein versehentliches Betätigen zu vermeiden. Auf einigen Tastaturen ist die Caps-Lock-Taste mit einer besonderen Tastenmechanik ausgestattet, welche ein von den übrigen Tasten deutlich abweichendes taktiles Feedback liefert. Dabei wird die Funktion der Umschaltsperre einer mechanischen Schreibmaschine nachgeahmt: die Taste verbleibt nach Aktivierung in der heruntergedrückten Position und springt erst nach nochmaliger Betätigung wieder in die Ausgangsposition zurück. Ein Beispiel für eine solche Taststatur ist das Apple Extended Keyboard II, eine ADB-kompatible Tastatur mit Tastenmechanik des Herstellers ALPS. Sudan. Die Republik Sudan (,) ist ein Staat in Nordost-Afrika mit Zugang zum Roten Meer. Er grenzt im Norden an Ägypten, im Osten an Eritrea, im Südosten an Äthiopien, im Süden an den Südsudan, im Südwesten an die Zentralafrikanische Republik, im Westen an den Tschad und im Nordwesten an Libyen. Mit einer Fläche von mehr als 1,8 Millionen Quadratkilometern ist das Land etwa fünfmal so groß wie Deutschland und drittgrößter Flächenstaat des afrikanischen Kontinents. Die Republik Sudan ist seit dem 1. Januar 1956 unabhängig vom Vereinigten Königreich (Anglo-Ägyptischer Sudan). Seit dem 9. Juli 2011 ist der Südsudan nach einem Referendum 2011 als eigenständiger Staat vom Sudan unabhängig. Landesname. Der Landesname ist eine Kürzung der mittelalterlichen arabischen Bezeichnung "Bilād as-Sūdān," „Land der Schwarzen“, womit im konkreten Fall die christianisierten Reiche in Nubien gemeint waren. „Sudan“ hat im Deutschen ein männliches Genus (‚der Sudan‘, ‚im Sudan‘). „Der Sudan“ ist ebenso die Benennung der Großlandschaft Sudan, wodurch es zu Verwechslungen kommen kann. Der Ständige Ausschuss für geographische Namen des deutschen Bundesamtes für Kartographie und Geodäsie sieht bei der Verwendung der Kurzform des Landesnamens keinen Artikel vor. In der Schweiz wie auch in Österreich wird jedoch auch offiziell die Kurzform des Landesnamens mit männlichem Geschlecht und Artikel verwendet. Im allgemeinen Sprachgebrauch ist im Nominativ, Dativ und Akkusativ hingegen auch in Deutschland die Benutzung des Maskulinums üblich. Geographie. Ein Teil des Staates Sudan ist Teil der Großlandschaft Sudan und der Sahelzone. Sein Relief wird von der Beckenlandschaft des Nils und seinen Randgebirgen bestimmt. So erhebt sich im Nordosten das Bergland des Dschibal al-Bahr al-ahmar am Roten Meer, das eine Höhe bis 2.259 m erreicht. Den südwestlichen Beckenrand stellen die Nordäquatorialschwelle und die Zentralafrikanische Schwelle dar, die auch die Wasserscheide zwischen Nil- und Kongosystem bilden. Im Westen erhebt sich ein Basaltgebirge auf dem Marra-Plateau, dessen höchste Erhebung mit 3.088 Meter der Berg Marra, gleichzeitig der höchste Berg des Sudans, ist und die geographische Grenze zum Tschadbecken bildet. Im Zentrum erheben sich die Nuba-Berge, die zwischen 500 Meter und 1.325 Meter hoch sind. Im Norden geht das Land beiderseits des Nils in die Sahara über, wobei der Teil westlich des Nils als Libysche Wüste und der Teil östlich des Nils als Nubische Wüste bezeichnet werden. In der Region um Khartum, wo Weißer Nil und Blauer Nil zum eigentlichen Nil zusammenfließen, breiten sich weite, flache Tonebenen aus. Klima. Hohe Temperaturen und Sommerregen besonders im Süden kennzeichnen das tropische Klima des Sudan. In der Regenzeit von April bis November verteilen sich die Niederschlagsmengen von 1.500 Millimeter im Süden auf weniger als 100 Millimeter im Norden. Die mittleren Monatstemperaturen liegen zwischen 24 Grad Celsius und 32 Grad Celsius. Dabei können die Temperaturen aufgrund des Wüstenklimas im Norden 41 Grad Celsius am Tag und 4 Grad Celsius in der Nacht erreichen. Flora und Fauna. Die Vegetation reicht von spärlichstem Pflanzenwuchs in den nördlichen Wüsten und Halbwüsten über Dornstrauchsavannen in der Sahelzone, Trockensavanne mit Hochgras bis zu Feuchtsavannen. Der Waldbestand hat zwischen 1990 und 2000 um 1,4 Prozent abgenommen. Die vielfältige Tierwelt umfasst vor allem im Zentralsudan Elefanten, Büffel, Giraffen, Antilopen, Hyänen, Löwen, Flusspferde und Krokodile sowie zahlreiche Greif- und Wasservögel. Nationalparks. Im Sudan gibt es zehn Nationalparks (Stand 2006). Das Schutzgebietssystem umfasst dabei aber auch Naturschutz- und Vogelschutzgebiete. Der Berg Barkal mit der historischen Stadt Sanam gehören zum Welterbe der UNESCO und beide zusammen bilden die antike Hauptstadt Napata des Königreiches von Kusch. Bevölkerung. Bevölkerungsentwicklung im Sudan von 1961 bis 2013 Alle Angaben zur Bevölkerung bis 2011 beziehen sich auf den Sudan vor der Abspaltung des Südsudan am 9. Juli 2011. Hierzu gibt es unterschiedliche Angaben. Sie reichen von 35.847.407 (Berechnung 2006, World Gazetter), über etwa 38 Millionen (Schätzung 2006, Auswärtiges Amt) bis 45.047.502. Letztgenannte Zahl ist für den Juli 2011 ebenfalls vor der Unabhängigkeit des Südsudan berechnet. Für 2012 berechnet das "CIA World Fact Book" die Einwohnerzahl für den ehemals gesamten Sudan auf 34.204.710 und deren Zahl nur für den Süden auf 8.260.490. Für den Norden verblieben damit nach der Abspaltung knapp 26 Millionen Einwohner. 38,9 Prozent der Sudanesen lebten 2003 in Städten; Ballungsgebiet ist Khartum. 39,5 Prozent der Einwohner waren im gleichen Jahr jünger als 15 Jahre. Die Bevölkerung wächst mit 2,48 Prozent pro Jahr (Stand: 2011). Das Durchschnittsalter der Bevölkerung beträgt 18,3 Jahre (Stand: 2006). Die durchschnittliche Lebenserwartung beträgt 62,57 Jahre, wobei sie bei Männern 60,58 Jahre und bei Frauen 64,67 Jahre beträgt (Stand 2012). Völker. Die Prozentzahlen beziehen sich noch auf den Sudan einschließlich des im Juli 2011 abgespaltenen Südsudan. 36 % der Bevölkerung waren vor dieser Zeit arabischer Abstammung (Sudanaraber). Die zweitgrößte Volksgruppe des Landes waren mit 12 % die Dinka, welche die dominierende Bevölkerungsgruppe im Südsudan darstellen. Daneben leben im Norden am Nil die Nubier mit 9 %, die seit Jahrtausenden auch jenseits der Landesgrenze in Ägypten lebten. Das drittgrößte Volk waren die Nuer mit 6 % Gesamtbevölkerungsanteil. Die Azande mit 5 % waren historisch die politisch einflussreichste Volksgruppe des Südens, bis sie unter der türkischen Herrschaft im 19. Jahrhundert wie die anderen Schwarzafrikaner marginalisiert wurden und teils als Basis für den Sklavenhandel dienten. Eine Minderheit waren die Bari im Südosten mit 3 %. Insgesamt waren 52 % der Bevölkerung des ungeteilten Landes Schwarzafrikaner. 9 % gehörten vor der Teilung zu den kuschitischen Völkern, von denen die Bedscha mit 8 % die überwältigende Mehrheit bilden. 2 % waren zuvor Ausländer – zumeist Flüchtlinge der diversen Kriege in Afrika sowie Europäer – und 1 Prozent anderer Zugehörigkeit. Sprachen. Englisch ist als Amtssprache verbreitet. Rund die Hälfte der Sudanesen spricht Arabisch, welches vor allem im Norden gesprochen wird (davon sprechen es 42 Prozent als Muttersprache, im Süden dient Sudanarabisch als Verkehrssprache). In der südlichen Hälfte spricht man überwiegend nilosaharanische Sprachen, darunter die nilotischen Sprachen Nuer-Dinka (12 Prozent Dinka, 6 Prozent Nuer; werden vor allem im Süden gesprochen) und Bari (3 Prozent; im Südosten) sowie Nubisch (9 Prozent; am mittleren Nil). Die drittgrößte Sprachgruppe sind die kuschitischen Sprachen, von denen mit Abstand am meisten das Bedscha (8 Prozent; im Nordosten) gesprochen wird. Weiterhin werden auch ubangische Sprachen gesprochen – die bedeutendste ist Azande (5 Prozent; im Südwesten), eine kleine Bevölkerungsgruppe spricht auch Ndogo. Religionen. Der Islam ist im Sudan Staatsreligion. Im bis Juli 2011 auch den Südsudan umfassenden Sudan waren etwa 70 % der Bevölkerung sunnitische Muslime, 25 % Animisten und 5 % Christen. Die Nichtmuslime leben hauptsächlich im Süden des Landes und in Khartum. Mit dem Übertritt zum Islam oder Christentum ist gleichermaßen ein sozialer Aufstieg verbunden. Die selbst eingeschätzte Zuschreibung zu einer Religion entspricht daher im Süden auch einer gesellschaftlichen Einordnung. Aus afrikanischen Religionen sind in unterschiedlichem Maße Vorstellungen in die beiden abrahamitischen Religionen eingeflossen und haben zu deren vielfältigen Glaubensäußerungen beigetragen. Die geltenden Scharia-Gesetze sind Teil eines staatlichen Islamisierungsprozesses, dem die Muslimbrüder unter Hasan at-Turabi zustimmen. Die Anhänger des ehemaligen Mahdi gerieten politisch in den Hintergrund. Unter der muslimischen Bevölkerung haben sich verschiedene Sufi-Orden (Tariqa) weit verbreitet. Dazu zählen die Qadiriyya, die im 19. Jahrhundert eingeführten Bruderschaften der Sammaniya und vor allem der Khatmiyya. Gegen den offiziellen Islam behaupten sich in der traditionell liberalen sudanesischen Gesellschaft volksislamische Rituale wie der Zar-Kult. Die Christen sind mehrheitlich Anhänger der römisch-katholischen Kirche im Sudan, die im Süden um 1900 in der Region um Wau gleichzeitig mit den britischen Anglikanern um Bor zu missionieren begannen. Die amerikanische Presbyterian Church fand bei den Nuer am Oberen Nil ihr Betätigungsfeld. Seit Ende des Bürgerkriegs breiten sich im Süden verstärkt amerikanisch-evangelikale Gruppierungen aus. Es gibt einige Kopten im Norden, die zumeist aus Ägypten stammen. Im afrikanischen Vergleich sind im Südsudan traditionelle Religionen wie die der Dinka noch überdurchschnittlich verbreitet. Nichtreligiöse Weltanschauungen sind selten. Soziale Lage. Der Sudan gehört zu den ärmsten Entwicklungsländern in Afrika. Die soziale Absicherung und die medizinische Versorgung sind unzureichend. Bildung. Die Analphabetenrate liegt bei 51 % unter Frauen und 29 % unter Männern. Die älteste der sudanesischen Universitäten wurde im Jahre 1956 in Khartum gegründet. Binnenmigration. Mehr als zwei Jahre nach der Unterzeichnung des Friedensabkommens zwischen der Khartumer Regierung und der Sudanesischen Volksbefreiungsarmee (SPLA) 2005, das den 21 Jahre währenden Bürgerkrieg beendet hat, wird die Anzahl der intern Vertriebenen immer noch auf fünf Millionen Menschen geschätzt, davon nahezu zwei Millionen in der Darfur-Region. Nach dem Abkommen waren es vor allem Vertriebene aus dem Süden des Landes, denen sich neue Möglichkeiten zur Rückkehr eröffnet haben. Dennoch bleibt der Sudan das Land mit den meisten Binnenvertriebenen weltweit, so das Internal Displacement Monitoring Centre (IDMC) in Genf. Sklaverei. Die Sklaverei im Sudan lässt sich bis in alt-ägyptische Zeiten mit Quellen belegen. Auch im 20. Jahrhundert war sie noch anzutreffen, trotz der Abschaffungs-Bemühungen der Briten im Anglo-Ägyptischen Sudan im 19. Jahrhundert. Geschichte. Die Geschichte des Sudan reicht bis in die Pharaonenzeit zurück. Für das alte Ägypten war Nubien als Lieferant von Gold und Sklaven von Bedeutung; mit Beginn der 12. Dynastie (1991–1785 v. Chr.) wurde es dem ägyptischen Kernland einverleibt. Als Folge der Auflösung des Neuen Reiches vom 12. Jahrhundert v. Chr. an entstand in Nubien im 9. Jahrhundert v. Chr. der Staat Kusch, der bis ins 4. Jahrhundert n. Chr. bestand. In den Jahren 712–664 v. Chr. beherrschte Kusch die „kuschitische Dynastie“ von ganz Ägypten. Etwa zeitgleich mit der Christianisierung der Region bildeten sich bis zum sechsten Jahrhundert n. Chr. die drei nubischen Königreiche Nobatia, Makuria und Alodia heraus. 651 schloss das inzwischen von islamischen Arabern beherrschte Ägypten mit Nubien einen Friedensvertrag; er begründete bis zum 14. Jahrhundert relativ stabile Beziehungen. Im Zentralsudan entstanden die Sultanate Darfur und Sannar, die bis ins 18. Jahrhundert Bedeutung hatten. Nach der Christianisierung und der Entstehung christlicher Königreiche wurde der Sudan – mit Ausnahme des Südens – zwischen dem 14. und 16. Jahrhundert islamisiert. Im frühen 19. Jahrhundert begannen die osmanischen Vizekönige von Ägypten, den Sudan zu erobern. Gegen die ägyptische Besetzung fand von 1881 bis 1899 unter dem islamisch-politischen Führer Muhammad Ahmad, dem selbsternannten Mahdi, der Mahdi-Aufstand statt. Dieser gilt als der erste erfolgreiche Aufstand eines afrikanischen Landes gegen den Kolonialismus und führte am Ende des 19. Jahrhunderts zur Bildung eines eigenen Staates. Das sog. "Kalifat von Omdurman" existierte 15 Jahre und wurde 1898 durch eine anglo-ägyptische Streitmacht in der Schlacht von Omdurman zerstört. Nach der Rückeroberung des Sudan wurde 1899 ein britisch-ägyptisches Kondominium errichtet. Faktisch blieb der Sudan bis 1953 britische Kolonie. Nach dem Sturz König Faruqs von Ägypten 1952 und einer Phase der vorbereitenden Machtübergabe war für den Sudan der Weg in die Unabhängigkeit frei. Am 1. Januar 1956 wurde nach einer Volksabstimmung die Republik Sudan ausgerufen. Aus den Parlamentswahlen ging die Nationale Unionspartei (Umma-Partei, kurz UP) als Siegerin hervor und ihr Vorsitzender Ismail al-Azhari wurde erster Ministerpräsident des Landes. Aufgrund innerparteilicher Differenzen wurde noch im selben Jahr sein Rivale Abdullah Chalil neuer Ministerpräsident. Wegen der weiteren Instabilität der Koalitionsregierung und einer angeblich drohenden ägyptischen Invasion wandte sich Chalil 1958 mit der Bitte an den Oberbefehlshaber der Streitkräfte, General Ibrahim Abbud, zu intervenieren. Nach dem Militärputsch wurde Abbud zunehmend mit Revolten, Komplotten und dem Bürgerkrieg im Südsudan konfrontiert. Da er mit diesen Problemen nicht fertig wurde, trat er aufgrund öffentlicher Proteste 1964 zurück und übergab die Amtsgeschäfte an eine Zivilregierung unter Ministerpräsident Sirr al-Chatim al-Chalifa. In den Folgejahren war keine politische Stabilität zu erreichen. 1965 wurde Muhammad Ahmad Mahdschub, 1966 Sadiq al-Mahdi, 1967 erneut Muhammad Ahmad Mahdschub und 1969 Babikar Awadullah Ministerpräsident. Diese Situation nutzte Oberst Dschafar Muhammad an-Numairi 1969 zu einem weiteren Militärputsch. Numairis Politik orientierte sich an seinem ägyptischen Vorbild Gamal Abdel Nasser und so wurden einige sozialistische und panarabische Reformen durchgeführt. Die Sudanesische Sozialistische Union (SSU) wurde als alleinige Partei im Staat installiert. 1971 wurde er kurz durch einen kommunistischen Putsch entmachtet, danach aber wieder eingesetzt. Daraufhin wurde er zum Präsidenten gewählt, und es gelang ihm 1972 einen 17 Jahre andauernden Bürgerkrieg zwischen der sudanesischen Regierung und den Rebellen des Südsudan (SPLA) mit dem Addis-Abeba-Abkommen zu beenden. 1981 vollzog er eine Hinwendung zu einer islamistischen Regierung. 1983 führt er die Scharia im ganzen Land, auch im jetzt autonomen Südsudan, ein. Das Addis-Abeba-Abkommen verletzend löste er die südsudanische Regierung auf. Dadurch trieb er die Erneuerung des Bürgerkriegs voran. Die politische Unruhe im Land nahm die Armee unter General Swar ad-Dahab 1985 zum Anlass für einen weiteren Militärputsch und die Abhaltung von Wahlen. Die Scharia blieb aber weiterhin in Kraft. Sadiq al-Mahdi wurde 1986 erneut zum Ministerpräsidenten gewählt. 1989 kam es aufgrund einer zunehmenden politischen Instabilität zu einem Militärputsch unter Generalleutnant Umar Hasan Ahmad al-Baschir, der zur Politik Numairis zurückkehrte. Obwohl er seitdem unangefochten als Vorsitzender des „Nationalen Kommandorates zur Errettung der Nation“ das Land beherrscht, versuchte er vergeblich, die Regierungsgewalt über den Süden zurückzugewinnen. Von 1983 bis 2005 befand sich der Sudan ununterbrochen im Bürgerkrieg. 2005 wurde ein Friedensabkommen zwischen der Regierung in Khartum und der SPLA, der wichtigsten südsudanesischen Rebellengruppe, unterzeichnet. Es gewährt dem Südsudan Autonomie und sah ein Referendum über die Unabhängigkeit des Südsudan für 2011 vor, welches vom 9. Januar bis 15. Januar durchgeführt wurde und schließlich 2011 zur Unabhängigkeit des Südsudan führte. Politisches System. al-Baschir auf der 12. Konferenz der Afrikanischen Union im Februar 2009 Der Sudan ist gemäß der Verfassung von 1998 eine Islamische Republik und wird seit 1989 von einer Militärregierung regiert. Staatsreligion ist der Islam. Es gilt die Scharia. Der Präsident wird alle fünf Jahre direkt vom Volk gewählt. Bei den Wahlen zwischen dem 13. und 22. Dezember 2000 gewann die Nationale Kongresspartei (NCP) die absolute Mehrheit der Sitze, während die Oppositionsparteien die Wahl boykottierten. Auch die Wahlen 2005, an denen sich auch die Oppositionsparteien beteiligten, gewann die NCP unter al-Baschir. Alle Sudanesen im Alter ab 17 Jahren besitzen das Wahlrecht. Seit 2005 regieren die Nationale Kongresspartei (NCP) und die Sudanesische Volksbefreiungsbewegung (SPLM) gemeinsam in der "Regierung der Nationalen Einheit". Diese Machtaufteilung wurde im Friedensabkommen von 2005 vereinbart und sollte nach den freien Wahlen im April 2010 das Referendum im Januar 2011 vorbereiten. Die Nationale Kongresspartei kam mit dem Militärputsch 1989 unter Umar Hasan Ahmad al-Baschir an die Macht und übte bis 2005 die Alleinherrschaft aus, während die Sudanesische Volksbefreiungsbewegung bis 2005 für die Unabhängigkeit des Südsudan kämpfte. Mit dem Friedensabkommen wurde die autonome Region Südsudan geschaffen, die die Sudanesische Volksbefreiungsbewegung allein verwaltete. Der Regierungschef der Autonomen Region Südsudan war gleichzeitig Vizepräsident des Gesamtstaates. Am 9. Juli 2011 wurde der Südsudan als Republik Südsudan unabhängig. Entwicklungen. Der langjährige Führer der Sudanesischen Volksbefreiungsbewegung (SPLM), John Garang, kam am 30. Juli 2005 bei einem Hubschrauberabsturz ums Leben. Die Nachricht vom Tod des erst am 9. Juli vereidigten Vizepräsidenten der Zentralregierung löste zunächst Befürchtungen über einen erneuten Ausbruch des Bürgerkrieges im Südsudan aus, als nach Bekanntwerden der Nachricht bei gewaltsamen Ausschreitungen in Khartum, Malakal und Dschuba 130 Personen getötet und mehr als 400 verletzt wurden. Am 5. August wurde Garangs langjähriger Stellvertreter Salva Kiir Mayardit zum neuen Chef der SPLM bestimmt und am 11. August auch als neuer Vizepräsident des Sudan vereidigt. In der am 20. September vorgestellten Regierung der nationalen Einheit, die 29 Minister umfasst, behielt die Nationale Kongresspartei (NCP) von Staatschef Umar Hasan Ahmad al-Baschir 4 von 5 Schlüsselministerien: Inneres, Verteidigung, Energie und Finanzen. Lediglich das Außenministerium wurde dem SPLM-Politiker Lam Akol anvertraut. Die SPLM hatte auch das Erdölministerium beansprucht, um die Erdöleinnahmen (und den verfassungsrechtlich zugesicherten Anteil des Südens) kontrollieren zu können. Mayardit gab schließlich nach, um die Einsetzung der Regierung nicht weiter zu verzögern. Dafür erntete er heftige Kritik aus der SPLM, da die Regierung in dieser Form der vertraglich gesicherten Machtteilung kaum mehr entspreche. Auch die gesamte Verwaltung und alle anderen politischen Institutionen blieben vollständig in der Hand der NCP. Die Opposition im Norden des Landes zog ihre Minister aus der Regierung zurück, da sie sich in der Anzahl und Verteilung von Ressorts nicht angemessen berücksichtigt sah. Mayardit stellte am 21. Oktober 2005 die erste Regierung der Autonomen Region Südsudan vor, der er als Regierungschef vorsteht. Frauenpolitik. Frau mit Kopfbedeckung im Sudan Neben der Form des Islam, die vom islamischen Regime im Sudan eingeführt wurde und Frauen eine untergeordnete Rolle zuschreibt, gibt es starke kulturelle Strömungen wie den Zar-Kult, in denen Frauen eine wichtige spirituelle Rolle einnehmen und die auch heute noch praktiziert werden. Ende der 1940er Jahre formierten sich dann die ersten Frauenvereine im Sudan, aus denen 1951 die "Sudanese Women’s Union" hervorging. Seither ist eine Vielzahl von Frauenorganisationen entstanden, unter anderem die "New Sudan Women Federation" (NSWF) und die "Sudan Women’s Voice for Peace" (SWVP) und die "Women Action Group" (WAG), die auch versucht haben, den Friedensprozess im Sudan voranzubringen. Interessanterweise fällt die Positionierung dieser Organisationen gegenüber der auf der Scharia basierenden Gesetzgebung sehr unterschiedlich aus. Einerseits werden Frauen hier, besonders in der Familiengesetzgebung, eine Männern untergeordnete Rolle und beschränkte Rechte zugeschrieben, andererseits garantiert das Gesetz gleiche Rechte bezüglich Wahlrecht, Arbeitsrecht sowie Bildung und Gesundheit. Eine weitere Aktivität ist der Kampf gegen die weiterhin verbreitete Beschneidung weiblicher Genitalien. Eine wichtige Institution im Sudan ist außerdem die private Ahfad Universität für Frauen. Diese ist ausschließlich für Studentinnen geschaffen und hat, als eine der wenigen Universitäten im arabischen Raum, neben natur-, sozial- und agrarwissenschaftlichen und medizinischen Fakultäten auch ein Institut für "women studies". Menschenrechte. Trotz des Friedensabkommens von 2006 zwischen der regierenden Nationalen Kongresspartei (National Congress Party – NCP) und der im Südsudan regierenden Sudanesischen Volksbefreiungsbewegung (Sudan People’s Liberation Movement – SPLM) kommt es weiterhin zu Konflikten und Menschenrechtsverletzungen. Die Zivilbevölkerung in Darfur leidet besonders an den Folgen des Völkermordes. Die Streitkräfte der Regierung und die mit der Regierung verbündeten Milizen und militante Gruppen begehen weiterhin Verbrechen an der Zivilbevölkerung. Sie morden, vergewaltigen und bombardieren ganze Wohngebiete. Angriffe und Kämpfe der Lord’s Resistance Army (LRA) im Süden des Landes forderten schätzungsweise 2.500 Todesopfer und vertrieben 359.000 Menschen im Laufe des Jahres 2009. Insgesamt, so schätzt man, sind seit dem Ausbruch des Konflikts im Jahre 1983 bis heute 3,5 Millionen Menschen im Südsudan auf der Flucht. Nach Angaben der UNO sind heute ca 2,7 Millionen Zivilisten innerhalb des Landes auf der Flucht und mehr als 250.000 Menschen sind bereits in den benachbarten Tschad geflohen. Laut UNO sind im Jahr 2006 schätzungsweise 200.000 Menschen als Folge des Konflikts gestorben, bis zum Jahr 2008 könnten bis zu 100.000 mehr sterben. Am 4. März 2009 stellte der Internationaler Strafgerichtshof (ICC) einen Haftbefehl gegen Präsident al-Bashir wegen Kriegsverbrechen in zwei Fällen und Verbrechen gegen die Menschlichkeit in fünf Fällen aus. Der Haftbefehl gegen Präsident al-Bashir war der dritte, den der ICC im Zusammenhang mit Darfur ausgestellt hatte. Ebenfalls am 4. März 2009, unmittelbar nachdem der ICC Haftbefehl gegen Präsident al-Bashir erlassen hatte, verwies die Regierung 13 internationale humanitäre Organisationen des Landes und ordnete die Schließung von drei nationalen Menschenrechtsorganisationen und Organisationen der humanitären Hilfe an. Journalisten waren nach wie vor Einschüchterungsversuchen und Festnahmen durch den Geheimdienst ausgesetzt. Das Justizsystem wird als unfair eingestuft. Zwischen Juli 2008 und Juni 2009 wurden 103 Personen von Sondergerichten zur Verhandlung terroristischer Straftaten zum Tode verurteilt. Laut Amnesty wurden auch 2009 nach wie vor grausame, unmenschliche und erniedrigende Strafen wie etwa Auspeitschungen verhängt und vollstreckt. Es kam zu willkürlichen Festnahmen, Folter und anderen schweren Misshandlungen. Internationale Aufmerksamkeit erregte im Mai 2014 das Todesurteil gegen die Christin Maryam Yahya Ibrahim Ishaq. Im Zuge von Angriffen auf Dörfer und Gebiete in der Nähe von Lagern für Binnenflüchtlinge waren Vergewaltigungen und andere Gewalttätigkeiten gegen Frauen nach wie vor weit verbreitet. Durch den Bürgerkrieg werden viele Kinder als Kindersoldaten zwangsrekrutiert. Es herrscht ein Klima der Diskriminierung und Gewalt gegen sexuelle Minderheiten. Homosexualität wird vom Staat kriminalisiert. Aus dem Jahre 2010 wurden mehrere Fälle von Auspeitschungen bekannt. Ein Fall beschreibt, wie männliche Transvestiten für das Tragen von Frauenkleidern und Make-up bestraft wurden, ein anderer eine Gruppe junger Frauen in Khartum, die ausgepeitscht wurden, weil sie Hosen trugen. Darfur. Bundesstaaten der Region Darfur. Die Karte zeigt den Sudan vor der Teilung 2011 Darfur wurde 2003 zum Schauplatz einer blutigen Rebellion gegen die arabisch-dominierte sudanesische Regierung mit zwei schwarzafrikanischen Rebellengruppen – der Sudanesischen Befreiungsarmee ("Sudan Liberation Army", SLA) und der Bewegung für Gerechtigkeit und Gleichheit ("Justice and Equality Movement", JEM), die die Regierung beschuldigen, Schwarzafrikaner zugunsten der Araber zu unterdrücken. Im Gegenzug begann die Regierung einen Feldzug mit Luftbombardements und Bodenangriffen, durchgeführt von einer arabischen Miliz, den Dschandschawid. Die sudanesische Regierung wies jedoch eine Mitschuld an den Verbrechen der Milizen in Darfur zurück. Am 8. April 2004 wurde aufgrund des internationalen Drucks ein Waffenstillstandsabkommen geschlossen, für dessen Einhaltung die Friedensmission African Union Mission in Sudan (AMIS) mit logistischer Unterstützung der NATO sorgen sollte. Im September 2005 kam es allerdings zu neuen Kämpfen in der Region. Hintergrund waren die am 15. September wieder aufgenommenen Friedensgespräche in Abuja. Eine Splittergruppe der SLA boykottierte die Verhandlungen und überfiel Hilfslieferungen und Regierungsgebäude. Am 29. September starben 30 Personen nach Attacken der Dschandschawid auf ein Flüchtlingslager in Nord-Darfur, am 9. Oktober entführte eine Fraktion der JEM 38 AMIS-Soldaten, die später wieder freigelassen wurden. SLA-Rebellen töteten am 7. Oktober vier Soldaten der AMIS-Friedenstruppe, die nur über einen Beobachterstatus verfügen und nicht einmal bei Vergewaltigungen einschreiten dürfen. Ein von der Menschenrechtsorganisation Human Rights Watch am 12. Dezember veröffentlichter Bericht erneuerte die bereits seit 2004 erhobenen Vorwürfe gegen die sudanesische Regierung, bis in die höchsten Ebenen in Planung und Durchführung der Kriegsverbrechen in Darfur verwickelt zu sein, was von der Regierung zurückgewiesen wurde. Seit März 2005 ermittelt der Internationale Strafgerichtshof (ICC) gegen Kriegsverbrecher im Darfur-Konflikt. Anfang Februar 2006 intensivierten sich die bewaffneten Auseinandersetzungen erneut. Der Befehlshaber der AMIS-Mission machte die Rebellenbewegungen hierfür verantwortlich. Sie hätten durch Angriffe auf die beiden in Regierungshand befindlichen Städte Shearia und Golo Gegenangriffe der Dschandschawid auf Flüchtlingslager ausgelöst. Als Reaktion auf diese Angriffe hatten bis zu 70.000 Personen die Flüchtlingslager verlassen. Nach unabhängigen Angaben waren es jedoch weiterhin hauptsächlich die mit der sudanesischen Regierung verbündeten Milizionäre, die gegen Flüchtlinge und die ausländischen Hilfsorganisationen vorgingen. Am 5. Mai 2006 unterzeichnete die sudanesische Regierung und die bedeutendere Fraktion der Sudanesischen Befreiungsarmee (SLA) unter Minna Minnawi ein Friedensabkommen in Abuja. Die andere Fraktion der SLA unter Abdelwahid al-Nur und die Bewegung für Gerechtigkeit und Gleichheit (JEM) lehnen eine Zustimmung zum Abkommen ab, da sie ihre Hauptforderungen der sofortigen Schaffung einer Region Darfur anstatt der drei Bundesstaaten und die Einrichtung eines zweiten Vizepräsidenten für Darfur nicht berücksichtigt sehen. Die meisten Rebellen, die das Abkommen ablehnen, haben sich zur Nationalen Erlösungsfront (engl.: National Redemption Front, kurz NRF) zusammengeschlossen und erklärten den Waffenstillstand für beendet. Neue Kämpfe in Darfur zwangen Mitte Juni 2006 das Welternährungsprogramm, seine Arbeit einzustellen, wodurch 400.000 Menschen von einer Hungersnot bedroht waren. Die Dschandschawid hatten bereits in der Woche nach der Unterzeichnung des Abkommens ihre Überfälle wieder aufgenommen. Daraufhin entsandte die sudanesische Regierung zusätzliche Truppen nach Darfur und startete eine seit dem 28. August 2006 andauernde Offensive in Nord-Darfur mit Unterstützung der Minnawi-SLA um die Rebellen der NRF zurückzudrängen. Ostsudan. Der Osten des Sudan, der hauptsächlich von den Ethnien der Bedscha und Rashaida bewohnt wird, ist eine arme und unterentwickelte Region, deren Bewohner kaum von den dortigen Bodenschätzen oder von den Einnahmen aus dem Erdölexport profitieren. Viele Bedscha und Rashaida fühlen sich daher von der Zentralregierung in Khartum marginalisiert und unterdrückt. Die in der "Eastern Front" zusammengeschlossenen Widerstandsorganisationen verübten immer wieder Angriffe auf Regierungseinrichtungen. Seit Anfang 2006 laufen in Eritrea Friedensverhandlungen zwischen der Regierung und den Rebellen des Ostsudan. Dabei wurde am 26. Juni 2006 bereits ein Waffenstillstands-Abkommen unterzeichnet. Beziehungen zu den islamischen Staaten. Als eines der wenigen arabisch-sunnitischen Länder unterhielt der Sudan engste Beziehungen zum Iran. Auch wenn die Bevölkerung im Iran schiitisch ist, sah man trotzdem den Islam als Verbindung zueinander. So ist die staatliche Rüstungsfirma Military Industry Corporation dem Verteidigungsministerium des Sudan unterstellt, aber gehört zu 35 % einem iranischen Investor und versorgt Gruppierungen wie die Hisbollah, oder die Hamas mit Waffen. In der Vergangenheit fungierte der Sudan als Vermittler zwischen Saudi-Arabien, den sunnitisch-arabischen Staaten und dem Iran. Nachdem aber die meisten arabischen Staaten die Muslimbruderschaft als Terrororganisation eingestuft hatten, waren die Beziehungen zu den übrigen arabischen Staaten schlecht. Diese sind Teil der herrschenden Nationalen Kongresspartei, weswegen der Sudan Muslimbrüdern aus Ägypten und anderen Staaten Asyl gewährt. Saudi-Arabien warf dem Sudan vor iranische Waffen schiitischen Rebellen im Jemen zu liefern. Dies alles änderte sich im März 2015, als der Sudan überraschend Teil der Saudischen Koalition im Jemen wurde und mit dem Iran brach. Die sudanesische Zeitung "Sudan Tribune" zeigte zu dieser Neueinrichtung eine Karikatur mit Präsident Umar al-Baschir, der mit einem Sack Geld beladen von Revolutionsführer Ali Chamene’i weg läuft, welcher ihm hinterher schreit: "Auch du Brutus?!?" Der Sudan unterhält gute Beziehungen zu Katar und der Türkei. Zusammen bildet man die Unterstützer der Muslimbruderschaft in den Konflikten während der 2014 und im 15. Beziehungen zum Südsudan. Nach jahrzehntelangem Sezessionskrieg im Südsudan von 1955 bis 1972 und noch einmal von 1983 bis 2005 wurde im Jahre 2005 die autonome Region Südsudan gebildet. Sie hat etwa 8,27 Millionen Einwohner in 10 Bundesstaaten. Vom 9. bis 15. Januar 2011 wurde ein Unabhängigkeitsreferendum durchgeführt, nach dem sich 99 % der Wähler für die Unabhängigkeit aussprachen. Am 9. Juli 2011 wurde Südsudan unabhängig. Die Unabhängigkeitserklärung wurde vom Sudan am 8. Juli anerkannt. Seitdem sind die beiden Staaten erbitterte Feinde. Der Grund des Streits ist das Erdöl, welches sich im Südsudan befindet. Der Südsudan liegt aber nicht am Meer und kann so das Öl nicht ausführen, deshalb muss es erst durch den Sudan transportiert werden, dieser verlangt Geld für den Transport. Dies akzeptiert der Südsudan nicht. Am 4. Februar 2012 meinte der sudanesische Präsident al-Baschir, dass ein Krieg zwischen den beiden Staaten möglich sei. Am 11. Februar unterzeichneten beide Staaten in Addis Abeba einen Nicht-Angriffspakt. Jedoch werden immer wieder neue Angriffe gemeldet. Die Vereinten Nationen und die USA forderten ein Ende der Gewalt. Am 12. April 2012 erklärte die sudanesische Regierung, alle Verhandlungen mit „dem Feind“ abzubrechen, und beschloss die Generalmobilmachung. Im Zuge der Unruhen im Südsudan begannen wieder Verhandlungen mit dem Sudan, bei welchen al-Baschir die Bildung gemeinsamer Armeeeinheiten vorschlug. Beziehungen zum Tschad. Wegen des Konfliktes um Darfur und den damit einhergehenden Rebellenaktivitäten im Grenzgebiet stellte der Tschad am 23. Dezember 2005 den Kriegszustand mit dem Sudan fest. Der Tschad erklärte aber, dass dies keine Kriegserklärung sei. Im April 2006 brach der westliche Nachbarstaat die diplomatischen Beziehungen zum Sudan ab, da er diesen der Unterstützung der oppositionellen FUC bezichtigt. Bei deren Angriff auf N’Djamena kamen zuvor bis zu 500 Menschen ums Leben. Am 9. August 2006 gaben der Präsident Tschads, Idriss Déby, und sein sudanesischer Amtskollege al-Baschir die sofortige Wiederaufnahme der diplomatischen Beziehungen und des Grenzverkehrs bekannt. Die Normalisierung der Beziehungen wurde durch die Vermittlung des libyschen Führers Muammar al-Gaddafi und des senegalesischen Präsidenten Abdoulaye Wade erreicht. Verhältnis zu Saudi-Arabien und den USA. Foto des US-Verteidigungsministeriums nach dem Angriff auf die Asch-Schifa-Arzneimittelfabrik Aufgrund der Kritik Osama bin Ladens am Königshaus von Saudi-Arabien zum Vorgehen im Zweiten Golfkrieg wurde er von Saudi-Arabien zur persona non grata erklärt und man versuchte, seiner Person habhaft zu werden. Wegen dieser Bedrohung floh Osama bin Laden 1991 in den Sudan, der aufgrund eines Militärputsches von 1989 durch General al-Baschir und dessen islamisch-fundamentalistische Bestrebungen international isoliert war. Hier wurde Bin Laden vor allem geschäftlich tätig: Mit seiner Baufirma nahm er den Neubau einer Autobahn von Khartum nach Bur Sudan in Angriff und gründete eine Geschäftsbank. 1994 wurde ihm aufgrund seiner internationalen terroristischen Aktivitäten die saudische Staatsbürgerschaft entzogen. Auf saudischen und US-amerikanischen Druck hin verwies der Sudan 1996 Osama bin Laden des Landes, der daraufhin nach Afghanistan reiste. Trotz des Nachgebens galt der Sudan weiterhin in den USA als Terrorstaat und 1998 kam es nach den Bombenanschlägen auf die US-Botschaften in Nairobi, Kenia und Daressalam, Tansania, zu einer Vergeltungsaktion seitens der USA auf die Asch-Schifa-Arzneimittelfabrik, in der eine Giftgasfabrik vermutet wurde. Eine Verstrickung in die Bombenanschläge oder die Produktion von Giftgas in der bombardierten Fabrik konnten bis heute nicht nachgewiesen werden. Präsident Barack Obama setzt zur Beendigung der Kämpfe in Darfur auf mehr Dialog als die Vorgängerregierung: Im Gegensatz zum US-Sondergesandten der Bush-Administration für den Sudan, Richard Williamson, will Barack Obamas Sondergesandter Scott Gration sowohl mit den unterschiedlichen Rebellen als auch mit der Regierung in Khartum verhandeln; insbesondere setzt er auf eine Annäherung der vielen Rebellengruppen. Er spricht sich für eine Fortsetzung des US-Embargos aus. Verhältnis zu Israel. Die Beziehungen zwischen dem Sudan und Israel gelten als angespannt. Nachdem am 24. Oktober 2012 eine Waffenfabrik explodiert war, beschuldigte die sudanesische Regierung Israel, dafür verantwortlich zu sein. Es gab auch andere Vorfälle wie zum Beispiel im Jahr 2009, als ein LKW-Konvoi aus der Luft bombardiert wurde, woraufhin die Regierung ebenfalls Israel für die Anschläge verantwortlich gemacht hatte. Es wurde spekuliert, ob der LKW Waffen an die Hamas liefern sollte. Grenzstreitigkeiten. Das Hala’ib-Dreieck wird von Ägypten beansprucht und seit dem Jahr 2000 verwaltet, nachdem sich die sudanesischen Truppen aus dem Gebiet freiwillig zurückgezogen haben. Eine Einigung steht aber noch aus. Das Ilemi-Dreieck wurde bereits 1950 vom Sudan aufgegeben, liegt jetzt aber an der Grenze zwischen Südsudan, Kenia und Äthiopien. Streitkräfte. Seit der 1. Januar 1956 ausgerufenen Unabhängigkeit des Sudan spielt das Militär eine entscheidende Rolle in der Politik des Landes. Die heutigen "Sudan People’s Armed Forces" wurden nach dem Militärputsch von 1989 offiziell im Jahre 1990 neu gegründet und unterstehen dem Präsidenten. Diese Funktion hat seit einem Militärputsch 1989 der General Umar Hasan Ahmad al-Baschir inne. Administrative Gliederung. Der Sudan war bis zum 9. Juli 2011 in 25 (bis Ende 2005: 26) Bundesstaaten ("wilayat") unterteilt, die sich wieder in insgesamt 133 Distrikte gliederten. Von den 26 Bundesstaaten bildeten die zehn südlichsten die autonome Region Südsudan'". Am 9. Juli 2011 erlangte der Südsudan als Republik Südsudan die Unabhängigkeit. Durch die Teilung von Bundesstaaten gliedert sich der Sudan nun in 18 Bundesstaaten. Städte. Die Städte mit über einer Million Einwohner (Berechnung 2007) sind Omdurman (3.127.802 Einwohner), die Hauptstadt Khartum (2.207.794 Einwohner) und al-Chartum Bahri (1.725.570 Einwohner), die sich in enger Nachbarschaft am Zusammenfluss des Weißen Nils mit dem Blauen Nil befinden. Alle anderen Städte bleiben unter der Grenze von 500.000 Einwohnern mit Ausnahme von Nyala im Süd-Darfur. Unverzichtbar für den Außenhandel ist die Stadt Bur Sudan, die über den einzigen Meerhafen des Landes verfügt. Entlang des Nils findet man noch folgende größere Städte von Nord nach Süd: Wadi Halfa, Atbara, Kusti und Rabak. Wirtschaft. Das Bruttonationaleinkommen (BSP) pro Kopf beträgt 383 Euro (Stand 2003) und das Bruttoinlandsprodukt (BIP) pro Kopf beträgt 1.826 Euro (Stand 2005). Bodenschätze und Energie. Öl- und Gas-Konzessionen im Sudan (Stand 2004) Der Sudan verfügt über reichhaltige Vorkommen von Bodenschätzen, wie zum Beispiel Erdöl, Eisen, Marmor, Gold und Uran. Nach US-Schätzungen aus den 1990er Jahren betrugen die Ölreserven rund 3 Milliarden Barrel. Bis 2011 hat sich diese Schätzung auf 5 Milliarden Barrel erhöht, der Großteil davon im Südsudan, obwohl seit den 1990er Jahren mind. 2 Milliarden Barrel gefördert worden sind. Dank moderner Technik dürfte sich diese Menge weiterhin erhöhen. Die Ölkonzessionen für die Gebiete Melut (Bassin im Bundesstaat A’ali an-Nil) bzw. Uwail haben sich bereits der französische Konzern Total bzw. der US-Konzern Chevron Corporation gesichert. Bisher sind die meisten Ölfelder noch nicht erschlossen – teilweise sind sogar die Konzessionen noch nicht vergeben. Allerdings arbeitet die Greater Nile Petroleum Operating Company daran, dem abzuhelfen. Ein Drittel des sudanesischen bzw. südsudanesischen Erdöls geht nach China; mittlerweile deckt das afrikanische Land schätzungsweise 6 bis 8 Prozent der gesamten Ölimporte Pekings. Man erwartet eine Steigerung auf 800.000 Barrel täglich. Die Unabhängigkeit des Südsudan veränderte die Lage allerdings. Der Südsudan hat den Ölexport wegen andauernder Streitigkeiten mit dem Sudan über die Höhe der Transitgebühren eingestellt. Der Südsudan verliert damit 98 Prozent seiner Staatseinnahmen, da der Export derzeit nur über die Pipelines des Sudan möglich ist. Dem Sudan wiederum fehlen 2,4 Milliarden US-Dollar im Haushaltsjahr 2012 wegen fehlender Transitgebühren. Die Regierung in Khartum muss nun Sparmaßnahmen erlassen. Landwirtschaft. Früher war allgemein ein System von gemeinschaftlichen Eigentumsrechten an Weiden und Ackerbauland üblich. Einige Familien besaßen auch private Landrechte. Ein 1926 erlassenes Gesetz stellte nichtprivates Land unter Eigentumsvorbehalt des Kolonialstaates, in der Praxis wurde aber das traditionelle Bodenrecht beibehalten. Nach dem Zweiten Weltkrieg wurde von den Briten mit der Einführung einer mechanisierten Landwirtschaft begonnen, mit dem ursprünglichen Ziel, die eigenen Truppen zu ernähren. Gesetzesänderungen um 1970 ermöglichten freie Zugriffsmöglichkeiten auf Landressourcen. Zusammen mit der durch Weltbankkredite finanzierten Mechanisierung der Landwirtschaft in fruchtbaren Gebieten führte das zu Enteignungen und zur Herausbildung einer Großgrundbesitzerschicht ("suitcase farmers"). Etwa sieben Prozent der Fläche sind landwirtschaftlich genutzt. Eine wichtige Devisenquelle des Landes ist die Baumwolle, die vor allem in den Bewässerungsgebieten der Dschazira-Ebene zwischen dem Weißen und dem Blauen Nil angebaut wird. Weitere Erzeugnisse sind Erdnüsse, Sesam, Hirse, Sorghum, Weizen und Zuckerrohr. Der Sudan liefert etwa 80 Prozent der Weltproduktion von Gummiarabikum, das aus dem Harz einer Akazienart gewonnen wird. Die Hälfte des produzierten Gummiarabicum stammt aus der Provinz Kurdufan, je ein Viertel aus Kassala und Darfur. Außenhandel. Die Volksrepublik China ist der wichtigste ausländische Investor im Sudan. China liefert Waffen, ebenso Russland und Weißrussland. Haupt-Export-Länder (Stand 2004) sind China (64,3 Prozent), Japan (13,8 Prozent) und Saudi-Arabien (3,7 Prozent). Haupt-Import-Länder (Stand 2004) sind Saudi-Arabien (11,7 Prozent), China (10,7 Prozent), die VAE (6,2 Prozent), Ägypten (5,2 Prozent), Deutschland (4,9 Prozent), Indien (4,6 Prozent), Australien (4,1 Prozent) und Großbritannien (4 Prozent). Staatshaushalt. Der Staatshaushalt umfasste 2009 Ausgaben von umgerechnet 10,4 Mrd. US-Dollar, dem standen Einnahmen von umgerechnet 9,0 Mrd. US-Dollar gegenüber. Daraus ergibt sich ein Haushaltsdefizit in Höhe von 2,5 % des BIP. Die Staatsverschuldung betrug 2009 56,9 Mrd. US-Dollar oder 103,7 % des BIP. Nach der Sezession des Südsudan übernahm zunächst der Norden die gesamten Staatsschulden des Gesamtstaates, eine Einigung über eine mögliche Aufteilung der Verbindlichkeiten steht noch aus. Straßenverkehr. Der Großteil aller Güter wird auf der neuen Straße von Port Sudan über Atbara in die Hauptstadt transportiert. Die Sattelzüge mit Anhänger sind etwa 30 Meter lang. 1970 bestand nur eine asphaltierte Straße zwischen Khartum und Wad Madani. Bis 1980 war in Etappen und mit Hilfe von mehreren Ländern die weitere Strecke über Kassala bis Port Sudan asphaltiert (annähernd 1200 Kilometer). Insgesamt gab es 1990 von 20.000–25.000 Kilometer gesamtem Straßennetz etwa 3000–3500 Kilometer asphaltierte Straßen. Für 1996 werden 11.900 Kilometer unasphaltierte Fernstraßen und 4320 Kilometer Asphaltstraßen angegeben. Seit 2000 erfolgt parallel zum wirtschaftlichen Aufschwung durch den Erdölexport ein beschleunigter Ausbau aller Fernstraßen im Nordsudan. Ende 2008 waren die Straßenverbindungen zwischen den Städten im Bereich von El Obeid im Westen über Kassala und Port Sudan im Osten neu asphaltiert. Im Norden ist eine Querverbindung von Port Sudan über Atbara und Merowe bis Dongola asphaltiert. Mit der Fertigstellung der verbleibenden Teilstrecken nach Wadi Halfa, über Abu Hamad und entlang des Nil, wird für 2009 gerechnet. Eine Nilbrücke bei Merowe wurde 2008 eingeweiht, zwei weitere Brücken, bei Atbara und Dongola, befinden sich im Bau. Im Südsudan war es erst ab 2000 möglich, die Straße von Lokichoggio (Kenia) nach Dschuba zur Versorgung der vom Bürgerkrieg betroffenen Bevölkerung auszubauen. Seit Beendigung des Krieges 2005 müssen die Erdstraßen in weiten Teilen zuerst von Minen geräumt werden, bevor sie mit einem allwettertauglichen Schotterbelag versehen werden können. Die wichtige Versorgungsstrecke nach Gulu (Uganda) war 2008 noch in schlechtem Zustand, dafür wurde die Fertigstellung einer durchgehenden Schotterstraße von Juba über Wau nach Khartum gemeldet. Schienenverkehr. a> am Nilufer. Für den Südsudan bestimmte Güter werden hier auf Frachtkähne umgeladen Die Eisenbahn im Sudan spielt heute nur noch eine untergeordnete Rolle im Verkehr des Landes. Bis in die 1960er Jahre hatte sie allerdings nahezu ein Transportmonopol für den Fernverkehr zu Land. Neben dem landesweiten Netz in Kapspur bestand auch noch ein Feldbahnnetz in 610-mm-Spur, die Dschazira-Eisenbahn, die im Zuge des Dschazira-Projekts entstand und regional bedeutend war. Wasserverkehr. Der wichtigste Seehafen befindet sich in Port Sudan, über den das Erdöl aus dem Landesinneren mittels einer Pipeline exportiert werden kann. Der Sudan verfügte in seinen Staatsgrenzen vor dem 9. Juli 2011 über etwa 4068 Kilometer Wasserstraßen, wovon 1723 Kilometer (Blauer und Weißer Nil) ganzjährig befahrbar sind. Wichtige Flusshäfen sind Juba, Khartum, Kusti, Malakal, Nimule und Wadi Halfa. Pipelines. Das Pipelinenetz umfasst für Erdöl 2.365 Kilometer, für Erdölprodukte 810 Kilometer und für Gas 156 Kilometer. Seit April 2006 fördert der Sudan durch Ölpipelines 365.000 Barrel Erdöl am Tag, obwohl die Kapazitäten bereits auf 500.000 Barrel am Tag erweitert wurden – aufgrund von technischen Problemen mit der von Malaysia gebauten Ölpipeline kann dieses Potenzial noch nicht ausgeschöpft werden. Super Video Graphics Array. SVGA im Vergleich mit anderen Formaten. Solarkalender. Ein Solarkalender oder Sonnenkalender nimmt den Lauf der Erde um die Sonne als Basis für die Zeiteinteilung, ohne den Mond zu berücksichtigen. Seine Basisgröße ist das Sonnenjahr. Er hat meistens zwölf Monate, was sich auf den Tierkreis bezieht und auf den alten ägyptischen Kalender zurückgeht, der zwölf Zeitabschnitte zu je 30 Tagen hatte. Der Begriff "Monat" ist ein Relikt aus dem älteren Lunarkalender, dessen Jahr aus 12 Mond-Perioden (Lunationen) zusammengesetzt ist. Der Vorteil eines "Solarkalenders" gegenüber einem "Lunarkalender" ist, dass er mit den Jahreszeiten korreliert. Eine Verschiebung der Jahreszeiten wird verhindert, in dem sich der Solarkalender streng nach dem zwischen zwei Frühlingspunkten gemessenem Sonnenjahr richtet. Da ein Sonnenjahr keine ganze Anzahl von Tagen lang ist, sondern ca. 365¼ Tage umfasst, kann ein Solarkalender nicht von Jahr zu Jahr die gleiche Anzahl an Tagen besitzen. Diese notwendigen Korrekturen geschehen durch das Einfügen von Schalttagen, wobei die genauen Regeln der Kalenderrechnung spezifisch für den jeweiligen Kalender sind ("Interkalation"). Ein oft genutzter Solarkalender ist der gregorianische Kalender, der sich als offiziell gebrauchter Kalender in fast allen Ländern der Erde durchgesetzt hat. Von den Alternativen zum gregorianischen Kalender berücksichtigt derjenige Kalender, der den Schalttag alle 128 Jahre ausfallen lässt, die Länge des Sonnenjahres am besten. Johann Heinrich Mädler nahm diese alte Erkenntnis in seinem 1865 vorgestellten Kalender wieder auf. Auch so genannte "Fiskalkalender" sind in der Regel Sonnenkalender. Weil in weiten Teilen des Osmanischen Reichs offiziell der lunare islamische Kalender in Gebrauch war, wurde ein Fiskalkalender entwickelt, mit dessen Hilfe die Jahressteuer immer zur Erntezeit erhoben werden konnte. Historische Sonnenkalender sind der iranische Kalender, der julianische Kalender, der koptische Kalender und der Maya-Kalender. Scientology. Scientology ist eine Neue Religiöse Bewegung, deren Lehre auf Schriften des US-amerikanischen Schriftstellers L. Ron Hubbard zurückgeht. In ideeller Hinsicht sind ihre Lehre und Praxis von szientistischen und psychotherapeutisch anmutenden Komponenten geprägt, die später um transzendente Aspekte erweitert wurden. In der Öffentlichkeit sind sowohl der Religionscharakter als auch die Methoden der Organisation überaus umstritten. Dies gilt in besonderem Maße für Deutschland und Frankreich. In Deutschland wird die Scientology-Kirche seit 1997 in mehreren Bundesländern aufgrund eines Beschlusses der Innenministerkonferenz durch den Verfassungsschutz beobachtet. In einigen anderen Ländern, wie den Vereinigten Staaten, genießt die "Church of Scientology" nach jahrelangem Rechtsstreit den Status einer steuerbefreiten Religionsgemeinschaft. Etymologie. Der Begriff "Scientology" ist aus dem Partizip Präsens Aktiv des lateinischen Verbs "scire" („wissen“) bzw. dessen nominalisierter Form "scientia" („Wissen“, „Wissenschaft“) und dem griechischen "λόγος" ("Logos", u. a. „Wort“, „Rede“ oder „Logik“) zusammengesetzt und wird von der Scientology-Kirche mit "Wissen über das Wissen" übersetzt. Das "Oxford English Dictionary" führt den ersten Gebrauch des Begriffs auf den Schriftsteller Anastasius Nordenholz zurück, dessen Buch "Scientologie – Wissenschaft von der Beschaffenheit und der Tauglichkeit des Wissens" 1934 erschien. Tatsächlich ist der Begriff in der englischen Schreibweise "Scientology" schon früher nachweisbar. Geschichte. 1950 beschrieb L. Ron Hubbard in "Dianetics" (deutsch: „Dianetik“) ein System von Psychotechniken, das er in den folgenden Jahren in ein „Scientology“ genanntes Gedankensystem einbettete. In den Jahren von 1950 bis 1954 existierten eine Reihe unterschiedlicher Gruppen, teils als kurzlebige formale Organisationen, die versuchten, Hubbards Lehren umzusetzen. 1953 ließ Hubbard die "Church of Scientology" als Markenzeichen eintragen und gründete im Februar 1954 mit der "Church of Scientology of California" die erste Zweigstelle. In der folgenden Zeit erweiterte er das scientologische Gedankensystem um kosmologische und metaphysische Elemente, systematisierte die Lehre und gestaltete die Organisation hierarchischer. In den Jahren bis 1967 konnte seine "Church of Scientology" quasi einen Alleinvertretungsanspruch für Scientology erlangen, expandierte in den USA und dehnte sich auch ins Vereinigte Königreich, nach Australien, Neuseeland, Südafrika sowie in das damalige Rhodesien aus. Ende der 1960er-Jahre hatte Scientology den vorläufigen Höhepunkt seines Erfolges erreicht. Im folgenden Jahrzehnt expandierte Scientology weniger stetig; in Kopenhagen wurde eine Filiale für Kontinentaleuropa eingerichtet, und Scientology versuchte, in Skandinavien, Deutschland und den Benelux-Staaten Fuß zu fassen. Während die Zahl der Niederlassungen wuchs – in den USA und in Großbritannien wurden allein zwischen 1971 und 1977 einhundert "Missionen" gegründet, in Kontinentaleuropa weitere dreißig – entfernte sich Hubbards 1967 gegründete "Sea Organization" (kurz: "Sea Org"), die von da an faktische Machtzentrale Scientologys, welche zunächst bis 1975 auf einem Schiff im Pazifik untergebracht war, immer stärker von der Basis der anderen Scientology-Organisationen. Gleichzeitig wurde Hubbards Führungsstil zunehmend autokratischer. Nachdem einige führende Mitglieder der "Church of Scientology" Hubbards Organisation und Führungsstil als zu autoritär betrachteten, gründeten diese in den Jahren ab 1982 eigenständige Gruppen, insbesondere die Freie Zone. So kam es von 1982 bis 1984 zu vermehrten Austritten aus Hubbards Organisation. Nach Hubbards Tod 1986 stabilisierte sich die Organisation unter Führung des von David Miscavige gegründeten und geleiteten "Religious Technology Centers". Unter Miscavige hat sich Scientology vor allem einer Produktdifferenzierung gewidmet und eine Reihe neuer Unterorganisationen gebildet. Auch in geographischer Hinsicht hat Scientology versucht, weiter zu expandieren. Mit dem Fall des Eisernen Vorhangs eröffnete sich religiösen Bewegungen ein neues Missionierungsgebiet. Scientology versuchte, in den postkommunistischen Staaten Fuß zu fassen und hatte dabei gemischten Erfolg. Zum Beispiel gelang es in Russland zwar, eine „größere Anhängerschaft“ zu bilden; jedoch geht der russische Staat sehr repressiv gegen Scientology-Organisationen vor. In Ostdeutschland hatte Scientology unerwartet geringen Erfolg. Anhängerschaft. Anders als die meisten Neuen Religiösen Bewegungen ist Scientology nicht aus der Gegenkultur der 1960er-Jahre entstanden; dementsprechend unterscheidet sich ihre Mitgliederstruktur wesentlich von der anderer Bewegungen. So werden bei Scientology insbesondere verheiratete Angestellte mit überdurchschnittlichem Bildungsniveau rekrutiert; das Verhältnis von Männern zu Frauen beträgt in etwa drei zu zwei. Die Zahl der Anhänger Scientologys ist nicht eindeutig feststellbar, weil unklar ist, wer zu den Mitgliedern der Organisationen oder zu den Anhängern der Idee Scientologys gezählt werden kann. Scientology sprach 2005 von über 10 Millionen Anhängern. Diese Zahl umfasst auch Personen, die lediglich an einem Einführungskurs teilnahmen. Seriöse empirische Annahmen gehen deshalb von kaum mehr als 100.000 Anhängern aus. Die mit Abstand meisten Scientologen leben in den USA. Dort wurden schon Mitte der 1960er Jahre 50.000 bis 100.000 Anhänger vermutet. 1990 ergab eine repräsentative Umfrage unter US-Amerikanern nur noch 45.000 Scientologen. Schätzungen von 2004 stellen eine Konsolidierung auf 55.000 US-amerikanische Anhänger (etwa 0,018 % der Gesamtbevölkerung) fest. Die US-Volkszählungsbehörde nimmt sogar nur noch ca. 25.000 aktive Scientologen in den USA an und beruft sich dabei auf eine 2008 erschienene Studie des Trinity College, Hartford. In Deutschland, wo die Scientology-Kirche die Zahl ihrer Anhänger mit 12.000 beziffert, soll es laut staatlichen Quellen 4.000 Scientologen geben, wobei der engere Kreis noch deutlich kleiner geschätzt wird. In Basel entstand 2015 nach Berlin und Hamburg das dritte „Musterzentrum“ ("Ideal Org") im deutschsprachigen Raum. Die lokale Bevölkerung stellt sich auf „langfristigen Widerstand ein“. Die Zahl der Schweizer Mitglieder wird mit 5.000 angegeben, welche von 300 „hauptamtlichen Mitgliedern“ betreut werden. Im ebenso kleinen Ungarn wurde die Zahl der Scientologen 1993 auf etwa 5.000, also rund ein halbes Promille, angenommen. Die geographische Hochburg Scientologys bleiben die Vereinigten Staaten, insbesondere die Westküste. Daneben vermutet der Soziologe William S. Bainbridge anhand von Websites von Scientologen weitere Schwerpunkte in Italien, dem Vereinigten Königreich, Australien, Deutschland, Russland, Frankreich und Mexiko. Lehre und Praktiken. Herzstück der scientologischen Lehre ist die Vorstellung, dass das unsterbliche Wesen jedes Menschen, der "Thetan", durch traumatische Erlebnisse und insbesondere durch zwei Ereignisse vor Millionen Jahren massiv in seiner Funktionsweise beeinträchtigt worden sei. Scientology-Technologien, insbesondere das "Auditing", könnten die Funktionen des "Thetan" zumindest teilweise wiederherstellen. Erklärtes Ziel Scientologys ist es, auf diese Weise das Leben des Einzelnen zu verbessern, insbesondere sein geistiges und körperliches Wohlbefinden zu steigern, und mehr Geld zu verdienen. Auf gesellschaftlicher Ebene ist die Hinwendung aller Menschen zu den Gedanken Scientologys das Hauptziel, daneben wird insbesondere die Abschaffung der Psychiatrie gefordert. Scientologys Weltbild. Einen wichtigen Ausgangspunkt des scientologischen Wirklichkeitsmodells bildet das physikalische Universum, welches laut Scientology aus "Matter", "Energy", "Space" und "Time" (MEST; dt.: Materie, Energie, Raum und Zeit) besteht. Parallel zu diesem Modell setzt sich der Mensch laut Scientology aus drei Teilen, dem "Thetan", dem "Verstand" und dem sterblichen "Körper" zusammen. Der Thetan. Der in Anlehnung an den griechischen Buchstaben Theta (Θ) benannte "Thetan" ist nach scientologischer Vorstellung das unsterbliche Wesen eines Menschen, also dessen Seele oder Geist. Der "Thetan" habe zunächst eine Reihe von Fähigkeiten besessen, diese jedoch im Laufe der Geschichte durch traumatische Erlebnisse verloren. "Thetane" reinkarnieren, ähnlich wie im Weltbild des Hinduismus, über mehrere Millionen Jahre in verschiedenen physischen Formen. Das Universum ist nach scientologischer Vorstellung eine Schöpfung des "Thetans"; es hat keine unabhängige Existenz, sondern gewinnt seine Realität nur dadurch, dass die meisten "Thetane" ihm diese Existenz zusprechen. Das MEST-Universum sei also nur eine Illusion, in welcher der sich nun als sterblicher Körper wahrnehmende "Thetan", der seine ursprüngliche Natur vergessen hat, gefangen ist. Ein zentrales Problem der irdischen "Thetane" wird hierbei durch den Xenu-Mythos erklärt, der von einem das „Böse“ verkörpernden intergalaktischen Herrscher handelt, der "Thetane" von weit entfernten Planeten auf die Erde verschleppt hatte und dort durch gewaltsame Verfahren so schwer traumatisierte, dass sie nun als körperlose Cluster ("Körper-Thetanen" genannt) anderen Menschen anhängen und sie in ihren Möglichkeiten beeinträchtigen. Für die meisten Scientologen spielt dieser Mythos, der erst spät in der Scientology-Schulung eingeführt wird und eher sinnbildliche Bedeutung haben mag, jedoch kaum eine Rolle; allerdings messen einige Vertreter der Freien Zone ihm mehr Bedeutung zu, und er ist zentral im Diskurs vieler Scientology-Gegner. Der Verstand. Der "Verstand" vermittelt nach scientologischer Lehre zwischen "Thetan" und "Körper", er setze sich aus einem „analytischen“ und einem „reaktiven“ Teil zusammen. Der analytische Verstand löse bewusst Probleme und speichere Erfahrungen für spätere Problemlösungen als mentale Bilder. Demgegenüber speichere der reaktive Teil unabhängig davon körperliche oder emotionale Schmerzen als sogenannte "Engramme" in einem separaten Speicher. Engramme schränken den "Thetan" noch weiter in seinen schöpferischen Fähigkeiten ein; je mehr Engramme sich ansammeln, desto weiter sei der Mensch von seiner wahren Natur entfernt. Dieses Schicksal zu vermeiden ist das Ziel des Scientologen. Die Methoden der Dianetik sollen diese Engramme auflösen, den Scientologen von ihrem hemmenden Einfluss befreien und ihm die Gewissheit zurückgeben, dass er ein "Thetan", ein spirituelles Wesen, sei. Überlebenswille und Ethik. Ein weiteres zentrales Konzept im Rahmen des scientologischen Weltbilds ist der Überlebenswille. Dieser finde seinen Ausdruck auf acht Ebenen, die als „die acht Dynamiken“ bezeichnet werden. Die erste Dynamik ist der Überlebenswille der Einzelperson. Die zweite Dynamik entspricht der Ebene der Familie und der sexuellen Fortpflanzung. Auf der dritten und vierten Ebene geht es um soziale Gruppen bzw. die Menschheit als Ganzes, auf der fünften um alle Formen des Lebens, und auf der sechsten um das physikalische Universum. Die siebte Dynamik ist der Geist oder die Spiritualität, die achte die Unendlichkeit, Alleinheit oder Gott. Der scientologische Ethik-Begriff, der sich an diesen acht Dynamiken orientiert, betont Rationalität gegenüber Moralität: „gut“ ist, was das Überleben auf der größtmöglichen Anzahl dieser Ebenen fördert und auf der geringstmöglichen Anzahl Ebenen beeinträchtigt. Das achtzackige Scientology-Kreuz symbolisiert die acht Dynamiken. „Unterdrückerische Personen“. Das scientologische Weltbild geht davon aus, dass der Mensch grundsätzlich gut ist. Gleichwohl postulierte Hubbard, dass es abgesehen von "sozialen Persönlichkeiten", die sich dem Wohl der Allgemeinheit verpflichten, auch "unterdrückerische Personen" ("suppressive persons") gebe. "Unterdrückerische Personen" hätten einen schädlichen Einfluss auf die gesellschaftliche Entwicklung, und Umgang mit ihnen schade auch der spirituellen Entwicklung des Einzelnen. Gegner von Scientology – insbesondere Ex-Scientologen, die sich öffentlich gegen Scientology wenden – werden zu „unterdrückerischen Personen“ erklärt, und Scientologen brechen in der Regel alle freundschaftlichen Kontakte mit ihnen ab. Personen, die Kontakt mit „unterdrückerischen Personen“ pflegen, werden Scientology-intern als "potentielle Schwierigkeitsquellen" ("potential trouble sources") bezeichnet. Scientology-Praktiken. Scientologen streben das Wiedererlangen der ursprünglichen Fähigkeiten eines "Thetans" an. Zu Beginn ihres Lebens sei jede Person ein "Pre-Clear" und könne mittels körperlicher und geistiger Reinigungs- und Bearbeitungsprozesse letztlich den "Clear"-Status erreichen. In diesem anzustrebenden Zustand, der durch das Durchlaufen eines detailliert beschriebenen Programms zu erzielen sei, sei die Person von ihrem „reaktiven Verstand“ befreit, der sie zuvor dazu gezwungen habe, auf der Grundlage traumatischer Erfahrungen zu handeln. Der befreite Verstand könne nun alle auftretenden Probleme mit inneren Zuständen, anderen Menschen oder Gegenständen in den Griff bekommen. Nachdem ein Mitglied den Zustand "Clear" erreicht habe, führe der Weg zur völligen Befreiung über derzeit acht Operating Thetan-Stufen (kurz: OT-Stufen) hin zum Ziel des frei operierenden "Thetans"; dieser sei nicht mehr an "Materie", "Energie", "Raum" und "Zeit" gebunden. Während sich die "Clear"-Stufen mit der Aufarbeitung traumatischer Ereignisse im Diesseits befassen, betreffen die OT-Stufen darüber hinaus auch transzendente Bereiche. Unter anderem wird dabei versucht, sich mit den vorerwähnten "Körper-Thetanen" auseinanderzusetzen und ihren störenden Einfluss zu entfernen. Das Gesamtprogramm der zu absolvierenden Kurse und Stufen wird innerhalb von Scientology als „Brücke zur völligen Freiheit“ bezeichnet. Auditing. Das "Auditing" ist dabei eine zentrale Technik zur Erreichung von "Clear". Gemeint ist eine besondere Form des Gesprächs zwischen dem "Auditor" und dem "Pre-Clear", der „auditiert“ wird. Ziel des Gespräches ist es, die negativen Auswirkungen des "„reaktiven Verstands“" zu verringern. Als wichtigstes technisches Hilfsmittel beim "Auditing" findet das "E-Meter" Anwendung. Dieses Gerät verfügt über zwei zylindrische Elektroden, die der Auditierte beim Auditing in seinen Händen hält, und über einen Zeiger, der Veränderungen des elektrischen Widerstands zwischen den Elektroden anzeigt. Das Ziel ist, zurückliegende „Geschehnisse“ (z. B. mit emotionalem und körperlichem Schmerz verbundene Erlebnisse) aufzufinden, welche den meisten psychischen Schwierigkeiten zugrunde liegen sollen. Diese Geschehnisse sollen so lange erzählend wiedererlebt werden, bis ihre „Ladung“ (emotionale Spannung) verschwindet. Der Auditor unterstützt diesen Prozess, indem er Anweisungen gibt, Fragen stellt und die Anzeigen des "E-Meters" beobachtet, um solche "Engramme" aufzuspüren. Das utopische Ziel von Scientology ist ein erleuchtetes Zeitalter, in dem jeder Mensch "Clear", also von seinen Engrammen befreit sei („clear the planet“). Weitere Techniken. Neben dem "Auditing" sollen Scientologen Scientologys ethisch-moralische Lehren verinnerlichen, die sich an den Ethikstandards der großen Weltreligionen orientieren. "Pre-Clears", aber auch Teilnehmern des Scientology-Antidrogenprogramms "Narconon" wird außerdem ein "Purification Rundown" empfohlen, bei dem Leibesertüchtigungen, Vitaminpräparate und häufige Sauna-Gänge den Körper entgiften sollen. Eine sogenannte Oxford-Persönlichkeits-Analyse () wird als ein standardisierter vorgeblicher Persönlichkeitstest angewendet. Bei einer Betroffenenbefragung wurden als weitere Psycho- und Sozialtechniken die geführte Imagination sowie die Induktion von Trancezuständen genannt. Die Rolle L. Ron Hubbards. Schon vor seinem Tod ist der Scientology-Gründer quasi zu einer mythischen Figur aufgestiegen. Er sei der jüngste Elite-Pfadfinder der Vereinigten Staaten, Leiter und Organisator vieler Forschungsexpeditionen gewesen, habe als einer der besten Segelflieger des Landes gegolten, sei ein tollkühner Kunstflieger und Erforscher der Luftfahrtgeschichte gewesen. Daneben habe er Universitätszeitschriften herausgegeben, habe Literaturpreise erhalten und sei anerkannter Fotograf und bedeutender Drehbuchautor in Hollywood gewesen. Heute verfügt Scientology über ein Büro für Hubbard in jeder seiner "Kirchen" und "Organisationen", welches dauerhaft leersteht. Parallelen zu anderen Weltanschauungen. Obwohl Scientology nicht direkt aus einer anderen Weltanschauung hervorgegangen ist, sondern eine der wenigen Neukreationen im religiösen Bereich ist, lassen sich doch einige der Quellen, aus denen Hubbard geschöpft hat, nachvollziehen. Was Einflüsse aus der westlichen Philosophie betrifft, so finden sich deutliche Parallelen zu dem Werk von Will Durant, dem Hubbard das Buch "Dianetics" widmete, sowie zur Psychologie Sigmund Freuds, die in den 30er- und 40er-Jahren eine breite populärwissenschaftliche Rezeption erfuhr. Auch das Werk Alfred Korzybskis hat deutliche Spuren in Hubbards Gedankengut hinterlassen; Hubbard war mit A. E. van Vogt befreundet, dessen Science-Fiction-Romane viel zur Popularisierung von Korzybskis „Allgemeiner Semantik“ beitrugen, und Korzybskis „Anthropometer“ mag bei Hubbards Erfindung des E-Meters Pate gestanden haben. Allgemein sind szientistische Gedankenlinien zu erwähnen, die von Beobachtern mit ansonsten sehr unterschiedlichen Meinungen zu Scientology festgestellt worden sind. So erhebt Scientology den Anspruch, eine empirische Wissenschaft zu sein und will mit immanenten „Technologien“ die Funktionsfähigkeit der "Thetane" erneuern. Eine Reihe von Autoren weist auch auf Scientologys Anleihen aus den Werten der „US-amerikanischen“ Kultur, insbesondere dem Glauben an Individualismus, Demokratie und Freiheit, hin. Das scientologische „Glaubensbekenntnis“ ist demnach lediglich eine Neuformulierung der UN-Menschenrechtskonvention, deren Wurzeln in der (westlichen) Aufklärung zu finden sind. Demgemäß wird Scientology im Zuge des Antiamerikanismus in vielen Staaten auch als kulturimperialistische Bewegung aufgefasst. Anleihen aus den Weltreligionen sind dagegen meist nur indirekt festzustellen. Hubbard selbst behauptete zwar, Anleihen aus östlichen Religionen übernommen zu haben. So knüpfe er an vedische Religionen an; es stellte sich jedoch schnell heraus, dass er von diesen nur sehr oberflächliches Wissen besaß. Trotzdem ziehen einige Forscher Parallelen zum Buddhismus, Jainismus, Hinduismus, Taoismus und Gnostizismus. Organisationen. Scientologys organisatorischer Unterbau wird von den halb-offiziellen Scientology-Organisationen, die mit der "Church of Scientology" verbunden sind, dominiert; daneben gibt es einige kleinere Gruppen, insbesondere die Freie Zone, die sich von jenem Organisationskonglomerat abgespalten haben. Scientology-Organisationen. Das Organisationscluster um die "Church of Scientology" verfügt über eine komplexe hierarchische Organisationsstruktur, an deren Spitze das "Religious Technology Center" praktisch die höchste Autorität innerhalb des Organisationengeflechts ausübt, aber formal keinen Führungsanspruch geltend machen kann. Unterhalb des "Religious Technology Centers" existieren drei Hauptorganisationssäulen, die "Church of Scientology International" mit ihren weltweiten Niederlassungen, das "ABLE-Netzwerk", welches eine Reihe themenspezifischer Organisationen umfasst, und das "World Institute of Scientology Enterprises" (WISE), ein Dachverband für Firmen und Einzelpersonen, die Scientologys Verwaltungs- und Managementmethoden anwenden. Daneben existieren eine Reihe kleiner Organisationen. Die "Church of Scientology International" organisiert, verbreitet und vermarktet die scientologyspezifischen Produkte und Techniken; insbesondere das "Auditing". Sie unterhält in vielen Ländern sogenannte "Missionen" und "Kirchen", in denen Scientology-Trainingskurse abgehalten werden, wobei „"Kirchen"“ über ein breiteres Dienstleistungsangebot verfügen; für prominente Scientologen gibt es außerdem acht „"Celebrity Centers"“, die luxuriöser als die normalen Niederlassungen ausgestattet sind. Die höchsten Trainingstufen werden in weltweit fünf „"Advanced Organizations"“ angeboten. Zwei der „"Advanced Organizations"“ befinden sich in Los Angeles, die übrigen in East Grinstead, Kopenhagen und Sydney. In Deutschland, Österreich und der Schweiz wurden Anfang der 1970er Jahre die ersten Dependancen errichtet. Heute verfügt die Organisation in Deutschland über vierundzwanzig (zehn Kirchen, vierzehn Missionen), in der Schweiz über fünf und in Österreich über zwei Standorte. Das neben der "Church of Scientology" aufgebaute ABLE-Netzwerk ist ein Dachverband verschiedener themenspezifischer Gruppen, die sich insbesondere der Öffentlichkeitsarbeit Scientologys widmen. Die älteste der ABLE-Gruppen ist das 1966 gegründete Narconon, ein neunstufiges, aus medizinischer Sicht unhaltbares Drogenrehabilitationsprogramm, das unter anderem auf ein Maßnahmenbündel aus Sauna, Leibesübungen und Lebensmittelzusätzen, insbesondere Vitaminen, zurückgreift, um den Körper von Drogenresten zu reinigen. Aus diesem Programm hervorgegangen ist das Straftäterrehabilitationsprogramm Criminon. Dieses von Scientology-Freiwilligen betriebene Programm verwendet ein ähnliches Regiment wie Narconon. Im deutschsprachigen Raum ist der Verein „Sag NEIN zu Drogen – Sag JA zum Leben“ aktiv. "Applied Scholastics" bietet ein Programm zum „Lernen, wie man lernt“, an. Im Mittelpunkt dieses Programms stehen einfachste Grammatik- und Wortdefinitionsübungen, die darauf abzielen, die „richtige“ Definition von Wörtern zu erkennen, um so „richtige“ Kommunikation zu ermöglichen; es wird insbesondere in den Vereinigten Staaten in einigen Privatschulen eingesetzt und auch Grundschulen in Dritte-Welt-Ländern angeboten. Im deutschsprachigen Raum besteht die Lernhilfe-Organisation ZIEL. Die Stiftung "The Way to Happiness" („Der Weg zum Glücklichsein“) vertreibt eine Broschüre, die einen generischen Moralcode vertritt, der aus Sicht Scientologys „nicht religiös“ ist; dieser wird auch im Narconon-Programm verwendet, um Strafgefangene auf den „moralisch richtigen“ Weg zu bringen. Scientologys dritte organisatorische Stütze ist WISE, ein Dachverband von Privatunternehmen, Einrichtungen und Einzelpersonen, die als Kunden und Lizenznehmer von Scientology die scientologische Verwaltungs- und Managementtechnologie bei ihrer Geschäftstätigkeit anwenden. WISE fördert dabei auch wirtschaftliche Vernetzung und bietet seinen Mitgliedern die Möglichkeit, Streitigkeiten unter Anwendung der scientologischen „Ethik“-Standards zu lösen. Neben den drei organisatorischen Hauptsäulen existiert eine Anzahl anderer Organisationen, von denen hier nur die wichtigsten aufgezählt werden. Die "Rehabilitation Project Force" betreibt drei oder vier „Besserungscamps“ für hochrangige Scientologen (Mitglieder der "Sea Org"), die aus Sicht der "Church of Scientology" ethische Verfehlungen begangen haben. Sie ist vor allem durch die vehemente Außenkritik bekannt. Ebenfalls im Brennpunkt der Kritik ist die Anti-Psychiatriegruppe "Citizens Commission on Human Rights". Diese im deutschsprachigen Raum unter dem Namen "Kommission für Verstöße der Psychiatrie gegen Menschenrechte" firmierende Gruppe betreibt Lobbyarbeit gegen die Psychiatrieberufe in der Form von Petitionen und Demonstrationen; sie versucht außerdem, mit Menschenrechtsgruppen zusammenzuarbeiten. Das "Office of Special Affairs" (OSA) ist offiziell für die Rechtsangelegenheiten Scientologys zuständig. Allerdings wird ihm von journalistischer Seite wie auch von manchen staatlichen Stellen, zum Beispiel der Stadt Hamburg, vorgeworfen, eine Art scientologischer „Geheimdienst“ zu sein. Insbesondere wird dabei kritisiert, dass das OSA unter Zuhilfenahme von Privatdetektiven und in zunehmendem Maße auch Rechtsanwälten Schmähkampagnen gegen Scientology-Kritiker führt. Im Gegensatz zu seiner bis 1983 bestandenen Vorgängerorganisation "Guardian Office" (siehe Operation Snow White) bewegt sich das OSA dabei jedoch generell im gesetzlichen Rahmen. Schließlich gibt es die Verlagshäuser New Era Publications und Bridge Publications, die Hubbards Schriften verlegen. Die internen Strukturen von Scientology-Organisationen sind sehr stark bürokratisch gefärbt, mit detaillierter Koordinierung aller Aktivitäten und der Sammlung von „"Stats"“ (Leistungskennwerten) zur Messung der persönlichen wie auch der organisationellen Leistung. Organisationsbudgets sind leistungsabhängig und unterliegen häufigen Reviews. Scientology-Organisationen verfügen ferner über ein internes Rechtsprechungssystem, das „"Ethics"“-System. Ethics-Offiziere sind in jeder Scientology-Organisation vorhanden; ihre Aufgabe ist es, die regelgerechte Anwendung der Scientology-Technologie sicherzustellen und Verfehlungen wie beispielsweise die Abweichung von Standardverfahren oder sonstige leistungsbeeinträchtigende Verhaltensweisen zu ahnden. Strafbestände werden durch Scientologys interne Dokumente definiert. Freie Zone. Anfang der 1980er Jahre kam es nach Richtungskämpfen im Management zur Gründung der Freien Zone, die aus Splittergruppen außerhalb der Scientology-Organisation besteht. Diese Gruppen verwenden die gleiche Technik wie die Scientology-Kirche, nehmen aber aus Sicht letzterer falsche Abänderungen der Technik vor. Umgekehrt erklären Vertreter der Freien Zone, dass sie die ursprünglichen Materialien von Hubbard verwenden, und werfen den Scientology-Organisationen vor, diese nach seinem Tod geändert zu haben. Rezeption. a> über Scientology zwischen Broschüren über „islamischen Extremismus“ und „organisierte Kriminalität“ in einem Münchner Touristenbüro Das Bild Scientologys in der Öffentlichkeit wird durch seine Gegner geprägt. Dies trifft insbesondere für die deutsch- und französischsprachigen Diskurse zu, in denen auch staatliche Behörden eine aktive Rolle gegen Scientology einnehmen. So stuft eine Studie der französischen Nationalversammlung aus dem Jahre 1995 Scientology als „Kult mit gefährlichen Eigenschaften“ ein. In Deutschland beobachten mehrere Verfassungsschutzbehörden die "Scientology-Kirche". Auch im angelsächsischen Raum ist Scientology zeitweise auf staatlichen Widerstand gestoßen. 1965 befand in Australien ein für die dortige Regierung erstellter Bericht Scientology als „böse“ und „gefährlich für die mentale Gesundheit“ seiner Anhänger. In den Vereinigten Staaten war Scientology neben den Mormonen des 19. Jahrhunderts in den 1970er und 1980er Jahren die weltanschauliche Organisation mit dem schlechtesten Leumund. Auch Mitte der 1990er Jahre zeigte eine Umfrage unter US-amerikanischen Journalisten, dass diese Scientology generell misstrauen. Neben christlichen Kirchen und staatlichen Akteuren treten private Netzwerke von Gegnern von neuen religiösen Bewegungen in den Vordergrund des öffentlichen Diskurses; diese Gruppen haben aus der Sicht des Religionswissenschaftlers Hubert Seiwert in den 1990er Jahren Scientology erfolgreich als Inbegriff der bedrohlichen Gefahr, die von allen Sekten ausgehe, inszeniert. Entsprechend mannigfaltig sind die Kritikpunkte an Scientology, die von Totalitarismusvorwürfen bis zur Dubiosität scientologischer medizinischer Praktiken reichen. Religionscharakter. Die Frage, ob Scientology der Status einer Religion zuzuerkennen sei, ist umstritten und hängt einerseits von dem zugrunde liegenden Religionsbegriff ab, andererseits aber auch davon, ob die Merkmale, durch die Scientology Kriterien eines Religionsbegriffes erfüllt, als für Scientology wesentliche oder aber nur vorgetäuschte Eigenschaften beurteilt werden, durch die Scientology aus Sicht der Kritiker den Anschein einer Religion zu erwecken suche. Die Mehrheit der Religions- und Sozialwissenschaftler, die sich mit dem Thema befasst haben, bejaht die Einstufbarkeit als Religion, was sich in entsprechenden wissenschaftlichen Gutachten zur Verteidigung der Scientology-Kirche in rechtlichen und politischen Prozessen niedergeschlagen hat. Christliche Theologen wie Friedrich Wilhelm Haack und Religionswissenschaftler wie Irving Hexham heben dabei hervor, dass diese Einstufung noch nicht die Frage beantwortet, ob Scientology als eine „gute“ oder „schlechte“ Religion zu beurteilen sei. Der prominente kanadische Religionssoziologe Stephen A. Kent räumt ein, dass viele Sozialwissenschaftler zu dem Schluss gekommen sind, Scientology sei eine Religion, vertritt aber die Meinung, eine zielführendere Einschätzung sei es, Scientology als eine „facettenreiche transnationale Organisation“ anzusehen, in der Religion nur eine Komponente neben „politischen Bestrebungen, wirtschaftlichen Unternehmungen, kulturellen Produktionen, pseudomedizinischen Praktiken und pseudopsychiatrischen Ansprüchen“ ausmacht. Sektenberater sehen Scientology als nicht wirklich religiöse Weltanschauung, als „Geistesmagie“ oder sprechen von einer „Psychogruppe mit weltanschaulichem Hintergrund“. Laut dem evangelischen Theologen und Publizisten Werner Thiede lässt sich hinsichtlich der Frage, ob Scientology eine Religion sei, seit Jahrzehnten eine konstante Diskrepanz beobachten: Während das Urteil „der akademisch mit dem Phänomen der,Religion der Religionen‘, wie ihr geistiger Vater L. Ron Hubbard sie einmal genannt hat, Befassten günstig auszufallen pflegt, sehen die eher praktisch-empirisch sich mit ihr Auseinandersetzenden in ihr eine allenfalls religiös getarnte, ihrem Wesen nach aber mehr oder weniger säkulare Größe.“ Bei staatlichen und juristischen Beurteilungen ist die Frage des Religionscharakters vor allem mit der Frage der Schutz- und Förderwürdigkeit als Religion sowie mit der Frage der rechtlichen Behandlung der Mitglieder Scientologys verbunden. Obwohl es in vielen Staaten keine offiziellen Anerkennungsprozedere für Religionen gibt, kann man doch aus den Handlungen vieler westeuropäischer Staaten schließen, dass sie Scientology nicht als Religion auffassen; eine Enquête für die französische Nationalversammlung kategorisierte Scientology beispielsweise als „Sekte“ bzw. „Kult“ ("secte"). Das Bundesverwaltungsgericht hat 2005 entschieden, dass Einzelpersonen Scientology durchaus als Religion im Sinne des Grundgesetzes betreiben können. Dessen ungeachtet können sich in Deutschland erb- und arbeitsrechtliche Folgen an die Zugehörigkeit zu Scientology anknüpfen. In Deutschland galt die Frage nach der Zugehörigkeit zu Scientology in Vorstellungsgesprächen bislang als zulässig, es bestand die Pflicht zur wahrheitsgemäßen Beantwortung. Nach Inkrafttreten des Allgemeinen Gleichbehandlungsgesetzes im August 2006 besteht hier jedoch eine Rechtsunsicherheit, die durch die Rechtsprechung noch nicht abschließend geklärt wurde. Russland hat der "Church of Scientology" den Status einer religiösen Gemeinschaft versagt; diese Entscheidung wurde im Fall der Niederlassung in Moskau allerdings vom Europäischen Gerichtshof für Menschenrechte für rechtswidrig befunden. Demgegenüber haben die Vereinigten Staaten Scientology nach jahrelangen Rechtsstreiten 1993 den Status einer steuerbefreiten Religionsgemeinschaft zuerkannt. In Australien wurde der Religionscharakter von Scientology 1983 vom High Court of Australia ausdrücklich bestätigt. Weitere Länder, in denen Scientology als Religion anerkannt ist, sind Italien, Spanien, Portugal, Schweden, Slowenien, Kroatien, Ungarn Neuseeland, Taiwan und Großbritannien. Alleingültigkeitsanspruch. Obwohl Scientology sich bisweilen als überkonfessionell bezeichnet und dies besonders bei der Rekrutierung neuer Mitglieder herausstreicht, vertritt sie letztendlich doch einen Alleingültigkeitsanspruch. Da Scientology jedoch im Widerspruch zu zentralen Glaubensinhalten insbesondere der etablierten monotheistischen Religionen steht, ist aus deren Sicht eine Doppelmitgliedschaft nicht möglich. Gewinnstreben. Der Produktcharakter Scientologys ist ökonomisch ausgeformt. Eine Gewinnorientierung Scientologys wird von Scientology-Gegnern häufig als Vorwurf vorgebracht. Diese Profitorientierung stünde dem „abendländischen Religionsverständnis“ entgegen. Die deutsche Bundesregierung schloss sich 1998 der Ansicht des Bundesarbeitsgerichtes von 1995 an, dass Scientology weder Religions- noch Weltanschauungsgemeinschaft sei. Ziel der Organisation sei vielmehr Gewinnerzielung, was mit dem Status einer Religions- oder Weltanschauungsgemeinschaft unvereinbar sei. Hubbard, so Stephen A. Kent, habe Scientology nur den Deckmantel einer „Religion“ umgehängt, um Steuern zu sparen und auf potenzielle Mitglieder attraktiver zu wirken. Kent vermutet aber, dass viele Mitglieder ihr Engagement selbst als religiös betrachten. In der deutschen Rechtsprechung hat der Verwaltungsgerichtshof Mannheim 2003 unter Bezugnahme auf wissenschaftliche Erkenntnisse die Meinung geäußert, dass sich „keine greifbaren Anhaltspunkte dafür ergeben, dass die Lehre des Scientology-Gründers L. Ron Hubbard als bloßer Vorwand für eine Wirtschaftstätigkeit benutzt wird“. Renate-Maria Besier und Johannes Neumann konstatieren hier „immer häufiger Konflikte zwischen der politischen Willensbildung und der Judikativen“. Die Produkte und Dienstleistungen Scientologys werden häufig als überteuert bemängelt, wenn auch die meisten Scientologen ihnen diesen Wert beimessen. Ein "E-Meter" kostete 1998 bei der "Church of Scientology" etwa 4.000 US-Dollar. Einführungs- und Demonstrationsauditing kostete 1990 umgerechnet ca. 200 Euro für 12½ Stunden, auf einer höheren Stufe können es 3.500 Euro oder mehr sein. Der Weg zur „völligen Freiheit”, also bis hin zur höchsten "OT-Stufe", kostet den Scientologen laut dem Religionspsychologen Benjamin Beit-Hallahmi, der eine Pressequelle von 1998 zitiert, $376.000 (etwa 270.000 Euro). Artifizialität. Der Atheist und Biologe Richard Dawkins hält Scientology zwar für eine Religion, ist aber der Meinung, sie sei eine der wenigen, die willentlich als solche konzipiert worden seien. Stellung zu den Gesundheitsberufen. Scientology ist ausgewiesener Gegner der Psychiatrie und unterstützt Gesundheitspraktiken, die nicht dem Stand der medizinischen Forschung entsprechen, so zum Beispiel die oft im Medienblickpunkt stehende „stille Geburt“, bei der der Geburtsvorgang unter größtmöglicher Stille erfolgt. Dies wird insbesondere von Vereinigungen der Gesundheitsberufe kritisch gesehen. Scientology lehnt den Gebrauch von Psychopharmaka strikt ab. Zum Beispiel startete Scientology in den 1980er Jahren eine Kampagne gegen die Verschreibung von Ritalin bei Kindern mit Hyperaktivitätsstörung (ADHS). Der wohl bekannteste Fall mutmaßlichen scientologischen Fehlverhaltens auf dem Gebiet der Medizin ist der Tod der Scientologin Lisa McPherson, die von Organisationsmitgliedern nach einem Verkehrsunfall vermutlich nicht genügend medizinisch versorgt worden ist. Prominente Scientologen. a> (links) werden insbesondere im deutschsprachigen Raum als Repräsentanten Scientologys wahrgenommen Scientology versucht insbesondere Schauspieler und andere Personen des öffentlichen Lebens zu rekrutieren und hat damit in den USA auch Erfolg (z. B. tritt Tom Cruise quasi als Repräsentant von Scientology auf). Eine Reihe weiterer Personen des öffentlichen Lebens, zum Beispiel John Travolta, Juliette Lewis, Lisa Marie Presley, Laura Prepon, Nancy Cartwright und Kirstie Alley, verrichten ähnliche Dienste für Scientology. Im deutschsprachigen Raum ist Franz Rampelmanns Scientology-Mitgliedschaft bekannt. Scientology betreibt "Celebrity Center", die sich speziell um Künstler und Personen kümmern, die in der Öffentlichkeit stehen. Hubbard war der Ansicht, dass Künstler die Art von Menschen seien, die die Welt von morgen maßgeblich beeinflussen würden. Ursula Caberta sieht hierin ein „Rezept, mit berühmten Namen Reklame zu machen“, das totalitären Systemen entlehnt sei. Ebenso erreichen Ex-Scientologen Aufmerksamkeit. Nach 35-jähriger Mitgliedschaft hat Regisseur Paul Haggis 2009 Scientology verlassen und begründete dies vor allem damit, dass Scientology sich im Zusammenhang mit der kalifornischen Proposition 8, die gleichgeschlechtliche Ehen für verfassungswidrig erklärte, ungenügend für Homosexuellenrechte eingesetzt hätte. Manipulationsvorwürfe. Bisweilen werden Scientologys Praktiken als Manipulationstechniken betrachtet. Rekrutierungsbestrebungen von Scientology, so ein Vorwurf, konzentrieren sich zum Teil ganz bewusst auf Menschen, die eine Krisensituation in ihrem Leben erreicht haben und deswegen besonders anfällig für Rekrutierungsbemühungen sind. Zentral im Anti-Scientology-Diskurs sind dabei sogenannte Gehirnwäsche-Theorien. Dabei wird eine psychologische Theorie über die Verhaltensänderung bei Gefangenen totalitärer Regime herangezogen, um den vermeintlichen Verlust der individuellen Autonomie bei Mitgliedern von Scientology (und anderer 'neuen religiösen Bewegungen') zu erklären. Obwohl die Enquete-Kommission des Deutschen Bundestages zu „Sogenannte Sekten und Psychogruppen“ dieses Konzept ausdrücklich ablehnt, zieht sie es dennoch zur Erklärung Scientologys heran. Seltener wird Scientology wegen des Gebrauchs von Hypnosetechniken kritisiert. Während Hubbard in "Dianetik" Hypnose ablehnt, sprach der Report für die australische Regierung im Jahre 1965 davon, dass beim Auditing hypnotisierende Techniken eingesetzt werden. Der OCA-Test sei zwar kostenfrei, jedoch pseudowissenschaftlich und diene lediglich der Mitgliederwerbung. Er biete keine eigentliche „Analyse“, sondern ende stets mit dem Ergebnis, dass der Getestete ein Verbesserungspotenzial besitze. Unter anderem aufgrund einiger vorgenannter Praktiken wurde die Scientology-Kirche in Paris am 27. Oktober 2009 durch ein Strafgericht des bandenmäßigen organisierten Betrugs für schuldig befunden und zu einer Geldstrafe von 600.000 Euro verurteilt; vier Führungsmitglieder der Organisation wurden zu bedingten Freiheitsstrafen von bis zu zwei Jahren verurteilt. Das Gericht blieb unter den Anträgen der Anklage und lehnte auch ein Verbot von Scientology ab. Ehemalige Mitglieder hatten Scientology die Ausnutzung ihrer auf einer Lebenskrise gründenden damaligen seelischen Notlage vorgeworfen. Dadurch leicht beeinflussbar und leichtgläubig seien sie zu hohen Ausgaben für Kurse, Bücher und Medikamente genötigt worden. Die Scientology-Kirche bezeichnete das Urteil als „moderne Inquisition“ und kündigte an, Berufung einzulegen. Vorwürfe antidemokratischer Tendenzen. Der Vorwurf, Scientology sei eine totalitäre Ideologie mit antidemokratischer Stoßrichtung, wird von zahlreichen Gegnern Scientologys im deutschsprachigen Raum geteilt, darunter zum Beispiel das Schweizer Justizdepartement. Dabei rückt unter anderem die "Rehabilitation Project Force" ins Zentrum der Kritik. Günther Beckstein sieht in den Lagern des Projekts „KZ-ähnliche Zustände“; eine von der Stadt Hamburg herausgegebene Broschüre vergleicht sie mit „Gulags“. Es würden, so Stephen A. Kent, dort „fast mit Sicherheit die Artikel 9 und 10 der Erklärung der Menschenrechte“ verletzt. Kent kritisiert dabei insbesondere auch, dass Scientologen, die die "Rehabilitation Project Force" verlassen wollen, oft mit Schulden im fünfstelligen Dollarbereich ("freeloader debt") belastet werden, also einer nachträglichen Bezahlung aller Kurse, die sie als Mitglieder der "Sea Org" umsonst in Anspruch nehmen durften, und – zumindest in früheren Zeiten – vor ihrer Entlassung zur Unterzeichnung selbstinkriminierender Erklärungen genötigt wurden. Etwas vorsichtiger sprechen die Politiker Freimut Duve und Daniel Cohn-Bendit sowie die Soziologin Antonia Grunenberg von „lagerähnlichen Einrichtungen“ und „totalitären Strukturen“. Auch ohne auf die "Rehabilitation Project Force" zurückzugreifen, attestierte der Politologe Hans-Gerd Jaschke 1995 in einer Auftragsarbeit für das nordrhein-westfälische Innenministerium Scientology „totalitäre Grundzüge“, ein Vorwurf, dem sich 1998 auch das deutsche Bundesministerium für Familie, Senioren, Frauen und Jugend anschloss. Eine der wenigen wissenschaftlichen Arbeiten zur Stellung Scientologys zur Demokratie kommt ebenfalls zu dem Schluss, es handele sich um eine extremistische Ideologie. Nach überwiegender Meinung in der deutschen Rechtswissenschaft verfolgt Scientology dann auch vermutlich grundgesetzwidrige Ziele. Folgerichtig wird die Scientology-Kirche in Deutschland seit 1997 vom Bundesamt für Verfassungsschutz und von einigen Landesämtern für Verfassungsschutz wegen Verdachts auf „Bestrebungen gegen die freiheitliche demokratische Grundordnung“ beobachtet. Im Saarland wurde eine Beobachtung mit nachrichtendienstlichen Mitteln aus Gründen der Verhältnismäßigkeit jedoch in letzter Instanz gerichtlich untersagt. Zwar ist der Vorwurf der Demokratiefeindlichkeit im deutschsprachigen Raum besonders verbreitet, doch hat auch Griechenland Scientology 1993 zum „Staatsfeind“ erklärt. Vorwürfe heimlicher Machtbestrebungen. Scientologys Strategie, gesellschaftlichen Einfluss zu gewinnen – so ein weiterer Vorwurf – mache ausgiebigen Gebrauch von oft kurzlebigen Tarnorganisationen und der gezielten Unterwanderung bestehender Organisationen. Der Religionssoziologe Roy Wallis verglich die Arbeitsweise von Scientology in dieser Hinsicht mit der kommunistischer Parteien. Diese heimliche Vorgehensweise, so Benjamin Beit-Hallahmi, sei ein Zeichen dafür, dass die Organisation etwas zu verbergen habe. Ein 1960 von Hubbard erstellter Plan hätte beispielsweise die Infiltrierung der amerikanischen Steuer- und Justizbehörden sowie der Medien zum Ziel gehabt; die Infiltrierung der Steuerbehörden gelang den Scientologen in den 70er-Jahren auch vorübergehend. Andere Organisationen, die ins Visier genommen wurden, seien die Weltbank und der Internationale Währungsfonds. Zu Scientologys zahlreichen Tarnorganisationen zählt Beit-Hallahmi u. a. Narconon, ABLE, Applied Scholastics International, Scientologys „World Literacy Crusade“ und die Foundation for Advancements in Science and Education (FASE), die von Großunternehmen wie IBM und McDonald’s unterstützt werde. Der politische Einfluss dieser Tarnorganisationen beschränke sich bis heute hauptsächlich auf die Vereinigten Staaten, doch einige der betreffenden Organisationen spiegeln nach Ansicht von Stephen A. Kent „eine totalitäre Ideologie mit dem Ziel weltweiter Dominanz“ wider. Scientology hat weltweit gezielte Kampagnen wie etwa „Clear Europe“ und „Clear Germany“ (1994) gestartet, um durch die Besetzung von Schlüsselpositionen mit Scientologen Einfluss auf Wirtschaftsverbände und Politik zu gewinnen. Der damalige Sprecher der deutschen Scientologen sagte 1995: „Derartige Vorwürfe sind billige Propaganda, um Hysterie zu erzeugen.“ Positive Außenansichten. Positive Außenansichten über Scientology sind selten. Eine Ausnahme bildet eine Studie zur Entwicklung Scientologys im ukrainischen Charkiw, wonach der dortige Scientology-Ableger teilnehmenden Personen vermutlich geholfen habe, sich besser im postkommunistischen Alltag zurechtzufinden. Einerseits sei Scientology als „kultartige Organisation“ gerade in der Transformationskrise für Menschen attraktiv, denen das weggefallene totalitäre System der Sowjetunion einen Halt geboten hatte; andererseits finde die Organisation auch nur dort positive Resonanz, wo sie religiöse Aspekte ihrer eigenen Ausrichtung vor den Menschen verberge. Vorwurf der Diskriminierung in Deutschland. Vertreter von Scientology haben wiederholt den Vorwurf erhoben, die Organisation bzw. Mitglieder derselben seien in Deutschland Opfer von Diskriminierung. Ähnliche Vorwürfe wurden teilweise auch von offiziellen Stellen in den USA erhoben. In den jährlichen Menschenrechtsberichten des US-Außenministeriums wurde wiederholt auf die Lage von Scientology bzw. Mitgliedern der Organisation in Deutschland eingegangen. Hervorgehoben werden Praktiken wie ein sog. "Scientology-Filter" bei Bewerbungen, der gezielt die Einstellung von Scientology-Mitgliedern verhindern soll, faktische Berufsverbote gegen Scientologen, die Sammlung und der Austausch von Informationen über Scientologen durch staatliche Stellen und anderes mehr. Im Jahr 1997 wurde ein Asylantrag eines deutschen Scientology-Mitglieds, das nach eigenen Angaben in Deutschland aufgrund seiner Religion diskriminiert wurde, in den USA von einem dortigen Gericht positiv beschieden. Sanskrit. Das Wort „Sanskrit“ im Nominativ Singular in Devanagari-Schrift Sanskrit (Devanagari:, Alt-Indischen. Die älteste Form ist die Sprache der Veden, einer Sammlung religiöser mündlicher Überlieferungen im Hinduismus. Ihre Entstehung wird auf 1200 v. Chr. datiert. Das klassische Sanskrit wurde um 400 v. Chr. durch die Grammatik des Pāṇini kodifiziert. Oft − vor allem im englischen Sprachraum − wird "Sanskrit" ungenau auch für die unbearbeitete, mündlich überlieferte vedische Sprache insgesamt verwendet. Sie spielt vor allem im Hinduismus eine wesentliche Rolle. Sanskrit ist die klassische Sprache der Brahmanen. Das um 1200 v. Chr. übliche Vedische unterscheidet sich jedoch noch vom klassischen Sanskrit. Beim Sprachausbau des Hindi kam es zu Entlehnungen aus dem Sanskrit. Sanskrit wird seit einigen Jahrhunderten hauptsächlich in Devanagarischrift geschrieben, gelegentlich jedoch auch in lokalen Schriften. (Das erste gedruckte Werk in Sanskrit erschien in Bengali-Schrift.) Das moderne Sanskrit, welches laut Zensus von einigen Indern als Muttersprache angegeben wird, ist immer noch die heilige Sprache der Hindus, da alle religiösen Schriften von den Veden und Upanishaden bis zur Bhagavad-Gita auf Sanskrit verfasst wurden und häufig auch so vorgetragen werden. Auch für religiöse Rituale wie Gottesdienste, Hochzeiten und Totenrituale ist sie noch heute unerlässlich. Beispiele für Lehnwörter im Deutschen, die sich auf Sanskrit zurückführen lassen, auch wenn ihre Entlehnung zu einem späteren Zeitpunkt erfolgte, sind: Arier, Ashram, Avatar, Bhagwan, Chakra, Guru, Dschungel, Lack, Ingwer, Orange, Kajal, Karma, Mandala, Mantra, Moschus, Nirwana, Swastika, Tantra, Yoga. Bedeutung und Verbreitung. Für Indien spielt Sanskrit eine ähnliche Rolle wie das Latein für Europa oder das Hebräische für die antiken und heutigen Juden. Zahlreiche überlieferte religiöse, philosophische und wissenschaftliche Texte sind in Sanskrit verfasst. Die Rolle einer Sondersprache hatte Sanskrit schon im indischen Altertum. Sanskrit steht im Gegensatz zu Prakrit, einer Familie mittelindischer gesprochener Dialekte, zu der auch Pali zählt. Obwohl viele buddhistische Texte später in Sanskrit verfasst wurden, soll Siddharta Gautama selbst eine volkstümlichere Sprachvariante wie Pali oder Ardhamagadhi bevorzugt haben. Bei einer Zählung im Jahre 1981 gaben etwa 6.000 Menschen in Indien Sanskrit als ihre Muttersprache an. Immerhin rund 190.000 Menschen hatten Sanskrit 1961 als Zweitsprache angegeben. Aktuelle Bemühungen gehen dahin, Sanskrit selbst als "Lebendiges Sanskrit" wiederzubeleben, auch indem neue Wörter für moderne Gegenstände entwickelt und junge Leute dazu motiviert werden, sich in dieser Sprache zu verständigen. Es gibt Zeitungen und Radiosendungen in Sanskrit. In den meisten Schulen der Sekundarstufe im modernen Indien (besonders dort, wo die Staatssprache Hindi gesprochen wird) wird Sanskrit als dritte Sprache nach Hindi und Englisch gelehrt. Im Rahmen des Hindu-Nationalismus gibt es Tendenzen, in Hindi die Begriffe arabischen und persischen Ursprungs durch Sanskrit-Begriffe zu ersetzen und so die Sprache von Fremdeinflüssen zu „reinigen“. Diese Entwicklung dauert noch an, so dass die lexikalischen Unterschiede zwischen Urdu und Hindi auf der Ebene der gehobenen Schriftsprache größer werden. Geschichte. Sanskrit wurde im Gegensatz zum Prakrit als die reine und heilige Sprache bewertet und war immer eine Hoch- beziehungsweise Literatursprache für religiöse und wissenschaftliche Themen. Viele Sanskrittexte wurden mündlich überliefert, bevor sie in späteren Jahrhunderten (oft erst im Mittelalter) niedergeschrieben wurden. Das gilt auch für die älteste erhaltene Grammatik zum Sanskrit von Panini, der bereits im 5. und 4. Jahrhundert vor Chr. in seinem Werk "Ashtadhyayi" in fast 4000 Regeln die Sprache Sanskrit genau beschrieb. In seiner ausgeklügelten Systematik entwickelte er präzise Konzepte zur Beschreibung von Phonemen, Morphemen und Wurzeln, die in analoger Form in der westlichen Linguistik erst rund 2500 Jahre später erschienen. Verwandtschaft mit anderen Sprachen. Die indoarischen Sprachen der indogermanischen Sprachfamilie haben einen gemeinsamen Ursprung mit fast allen modernen europäischen Sprachen, aber auch mit den klassischen Sprachen wie Latein und Griechisch. Die Verwandtschaft kann beispielsweise illustriert werden mit den Wörtern für Mutter und Vater: "mātṛ" und "pitṛ" im Sanskrit (Nominativ: "mātā" und "pitā"); "mater" und "pater" im Latein sowie "mētēr" (μήτηρ) und "patēr" (πατήρ) im Altgriechischen. Der Begriff "yoga" geht auf dieselbe Wortwurzel wie das lateinische "iugum" zurück (deutsch "Joch"). Auch das lateinische Wort "deus" (Gott) (nicht aber das altgriechische "theos", wohl aber der Göttername "Zeus") entspricht dem Sanskritwort "deva" (Gott). Lateinisch „esse“ (sein) geht auf die gleiche indogermanische Wurzel wie das indische "as" (sein) zurück; das Perfekt "fuisse" wie das englische "be" und das deutsche "bin" auf die gleiche wie Sanskrit "bhu" (ebenfalls „sein“). Mehr hierzu findet sich unter Indogermanische Wortwurzeln. Bemerkenswert ist zudem die ähnliche Grundstruktur der Grammatik, etwa Geschlechter, Funktion der Kasus (Fälle), Tempora (Zeitgefüge), Modi: Zum Beispiel ist die Endung der wir-Form in der einfachen Gegenwart im Sanskrit "-mah", im Latein "-mus", im Altgriechischen "-men", im Althochdeutschen "-mes". Im Sanskrit sind alle acht Fälle, die für die indogermanische Ursprache rekonstruiert wurden, erhalten geblieben (siehe dazu im Abschnitt Grammatik). Die Ähnlichkeiten zwischen Latein, Griechisch und Sanskrit spielten eine wichtige Rolle für die Entwicklung der Indogermanistik; erst als im Rahmen der Kolonialisierung Europäer nach Indien kamen und begannen, indische Literatur zu übersetzen, wurde die auffallende Ähnlichkeit der Sprachen entdeckt. Bereits in das Vedische sind Wörter anderer Sprachen eingeflossen. Im Rigveda sind etwa vier Prozent der Wörter autochthoner Herkunft (nicht-indoarischen Ursprungs). Hierbei handelt es sich um Begriffe aus dravidischen, jedoch auch aus austroasiatischen Sprachen (vor allem Munda). Phonologie und Schrift. Klassisches Sanskrit hat 48 Phoneme, vedisches Sanskrit hat 49. Vedisches und Klassisches Sanskrit verwenden die "scriptura continua". Dem Sanskrit liegt infolge des Sandhi als Orthographie- bzw. Grammatikprinzip das phonemische zugrunde, d.h. die Schreibung richtet sich nach der Lautung. Im Gegensatz dazu basiert die Orthographie der modernen indoarischen Sprachen wie auch z.B. der deutschen Sprache auf dem morphologischen oder Stammprinzip. Vokale, Obstruenten (Plosive und Nasale geordnet nach dem Artikulationsort, von hinten nach vorne) und schließlich Approximanten und Sibilanten. Die Transliteration erfolgt in den beiden Systemen IAST ("International Alphabet of Sanskrit Transliteration") und ITRANS ("Indian Languages Transliteration"). Vokale. Die grammatischen und phonologischen Begriffe des Sanskrit stimmen nicht immer mit den uns vertrauten überein. Dem Begriff der 16 "Matrika" („(göttliche) Mütter“) bzw. "Shakti" („(göttliche) Kräfte“) entspricht nicht ganz unserer Auffassung von einem Vokal, da hier auch die Laute für, und erscheinen und außer den vokalischen Phonemen auch "Anusvara" () und "Visarga" () dazu gehören. Traditionell werden die vokalischen Phoneme nach Artikulationsort und Länge angeordnet, wobei jeder kurze („kurz“) Laut eine lange („lang“) Entsprechung hat. Diese Unterscheidung nach Mundpositionen findet auch bei der Kategorisierung der 25 Obstruenten Verwendung. Im Fall eines Vokals entsteht dabei der Laut durch Annäherung an den Artikulationsort, im Fall des Konsonanten durch Verschlussbildung am Artikulationsort. Die langen Vokale werden etwa doppelt so lang wie ihre kurzen Gegenstücke ausgesprochen, deren Länge eine prosodische Einheit, ein "Matra" („Maß“), entspricht. Darüber hinaus existiert für die meisten Vokale eine dritte Quantitätsstufe ‚sehr lang‘ („langgezogen“), die zum Beispiel im Vokativ Anwendung findet und mit drei Länge ausgesprochen wird. In der Schrift wird die Überlänge durch die nachgestellte Ziffer 3 notiert, zum Beispiel "ka" mit überlangem a-Vokal erscheint in der Umschrift als "ka3" und in Devanagari als. Der Laut des entsteht, wenn die bei Aussprache eines langgezogenen i-Vokals die Zunge nach hinten gehoben wird wie zur Aussprache eines gerollten r's. Wenn ein nachfolgender Vokal ein Senken der Zungenposition erfordert, entsteht ein angedeuteter i-Laut, weshalb in der Transkription meist durch „ri“ wiedergegeben wird, beispielsweise in der Umschrift von () als Krishna. In gleicher Weise entsteht der Laut des durch eine Bewegen der Zungenspitze von der Aussprache eines langgezogenen i-Lauts zur l-Position, wobei die lange Form des praktisch nirgends erscheint und augenscheinlich in Analogie zu den anderen Vokalen hinzugefügt wurde, um eine Symmetrie von langen und kurzen Vokalen zu komplettieren. Die Sanskrit-Grammatiker klassifizieren "e" und "o" auch als zusammengesetzt, also als Diphthonge, aber sie werden als Monophthonge ausgesprochen. Dem (relativ) kurzen ("hrasva") "e" entspricht dann als lange ("dirgha") "ai" und dem "o" das "au". Zu den "Shakti" gezählt werden noch "Anusvara" und "Visarga". Im Sanskrit können alle Vokale nasaliert werden. Das "Anusvara" (IAST, Devanagari) zeigt entweder die Nasalierung des vorhergehenden Vokals oder einen zum folgenden Konsonanten homorganen Nasal an. Das "Visarga" (IAST, Devanagari) modifiziert einen vorangehenden Vokal, indem es bei der Aussprache ein leichtes Echo folgen lässt, so könnte zum Beispiel als realisiert werden. Das Auslassen des impliziten Vokals wird in Devanagari durch das diakritische Zeichen "Virama" () verwendet. Ein Konsonantenzeichen ohne Vokalzeichen oder Virama bedeutet, dass ihm der kurze Vokal schwa () folgt. Konsonanten. Die folgende Tabelle zeigt die traditionelle Anordnung der 25 Konsonanten des Sanskrit, die Obstruenten sind, bei denen also bei der Artikulation der Atemstrom verengt oder blockiert wird. Im Sanskrit werden diese "Sparsha" („berührend“) genannt, da es bei ihrer Artikulation zu einem Kontakt von Artikulator und Artikulationsort kommt. Wie auch bei den Vokalen werden die Obstruenten nach Mundposition in fünf Gruppen (Sanskrit) eingeteilt. Jede hier als Tabellenzeile erscheinende Gruppe wird entsprechend dem Namen des ersten Konsonanten benannte, die Konsonanten der ersten Zeile bilden demnach die. Die Konsonanten der dritten Gruppe () sind in der IAST-Umschrift durch einen unter den betreffenden Buchstaben gesetzten Punkt markiert, wodurch sie sich von den Konsonanten der vierten Gruppe () unterscheiden. Die Gruppierung in den Spalten richtet sich danach, ob der Konsonant stimmhaft (), stimmlos () oder nasal () ist. Weiter wird nach Aspiration unterschieden, also zwischen nicht aspirierter („wenig Atem“) und aspirierter („viel Atem“) Aussprache. Die folgende Tabelle zeigt die acht Laute des Sanskrit, die weder vokalisch ("shakti") noch Obstruenten ("sparsha"), also Sonoranten sind. Sie werden unterteilt in vier Approximanten, die als "antahstha" („in der Mitte zwischen [Vokalen und Konsonanten]“) bezeichnet werden, und vier Sibilanten, die als "ushman" („heißer, zischender Dampf“) bezeichnet werden. Die Approximanten gelten dabei als stimmhaft ("ghosa"), die Sibilanten als stimmlos ("aghosa") und aspiriert ("mahaprana"). Der letzte Konsonant "h", der eigentlich kein Sibilant ist, gilt dabei auch als "ushman" und stimmlos und wird dabei mit den Sibilanten eingeordnet. Die folgende Tabelle zeigt die Konsonanten des Sanskrit sowohl in Vollform, als auch in der Halbform, die in Ligaturen (siehe unten) erscheint, gefolgt von Umschrift, Aussprache und Aussprachebeispiel. Betonung. Sanskrit selbst ist eine Akzentsprache, im älteren Vedisch dagegen werden Silben durch einen sogenannten melodischen oder musikalischen Akzent betont, d.h., die betonte Silbe durch eine hörbar andere Tonhöhe markiert. Vedisch ist also eine gemäßigte Tonsprache. Indische Grammatiken definieren drei Töne ("svara"): 'erhöht', 'nicht erhöht' und "svarita". In der Transliteration wird üblicherweise mit einem Akut (´) und mit einem Gravis (`) angezeigt. Svarita tritt nur als Produkt euphonischer Vokalkombinationen auf und ist dadurch deutlich seltener als die beiden anderen Töne. Der Tonakzent ist im klassischen Sanskrit verloren gegangen (und wurde nur in vedischen Gesängen bewahrt). Sandhi. Sanskrit hat ein komplexes System phonologischer Regeln namens Sandhi und Samaas, die auch in der Schriftsprache (außer in sogenannten "pada"-Texten) wiedergegeben werden. Sandhi beschreibt die beim Kombinieren von Phonemen auftretenden Veränderungen, insbesondere an Wortgrenzen. Diese Vorgänge sind in jeder gesprochenen Sprache anzutreffen, im Sanskrit jedoch sind sie genau reguliert und kodifiziert. Der Anfang der Nala-Episode des Mahabharata lautet Anfängern und ungeübten Lesern können Sandhi erhebliche Schwierigkeiten beim Lesen von Sanskrittexten bereiten. Sie erzeugen außerdem Mehrdeutigkeiten, die von guten Dichtern genutzt werden, um Gedichte zu schreiben, die auf verschiedenartige und durchaus widersprüchliche Weisen gelesen werden können – je nachdem, wie der Leser die Sandhi auflöst. Schrift. a> in Sanskrit auf Palmblättern, Bihar oder Nepal, 11. Jahrhundert Sanskrit hatte in seiner Geschichte keine einzelne mit ihm assoziierte Schrift. Ashoka benutzte die Brahmi-Schrift für seine Säuleninschriften (die nicht in Sanskrit, sondern in Prakrit-Dialekten und anderen Sprachen verfasst wurden). Ungefähr zur selben Zeit wie die Brahmi-Schrift wurde auch die Kharoshthi-Schrift benutzt. Später, etwa im vierten bis achten nachchristlichen Jahrhundert, war die aus der Brahmi-Schrift abgeleitete Gupta-Schrift vorherrschend in Gebrauch. Etwa im 8. Jahrhundert entwickelte sich aus dem Gupta die Sharada-Schrift, die vom 12. Jahrhundert an über Zwischenstufen wie Siddham wiederum durch Devanagari abgelöst wurde. Daneben wurde noch in zahlreichen anderen Schriften geschrieben, z. B. Kannada im Süden oder in bengalischer Schrift im Norden; diese unterscheiden sich aber nur in der Zeichengestalt und in der Hinzunahme einzelner Zeichen zur Darstellung neuer Laute, nicht aber im Grundprinzip von Devanagari. Seit dem Mittelalter und insbesondere heute ist Devanāgarī ('die in der Stadt der Götter benutzte (Schrift)') die am weitesten verbreitete und gebräuchlichste Schrift für Sanskrit. Gelegentlich finden sich in Gegenden Indiens, in denen Devanagari nicht die übliche Gebrauchsschrift ist, noch Texte in lokalen Schriften. Die Schrift kam erst relativ spät nach Indien und war auch dann nur von untergeordneter Bedeutung, da Wissen meist mündlich vermittelt und auswendig gelernt wurde. Nach Thomas William Rhys Davids könnte die Schrift von Händlern aus dem Nahen Osten nach Indien gebracht worden sein. Sanskrit, das ausschließlich zu sakralen Zwecken benutzt wurde, blieb jedoch bis weit in die klassische Periode Indiens eine rein mündliche Sprache. Alle fürs Sanskrit verwendeten indischen Schriften sind Silbenschriften und werden von links nach rechts geschrieben. Sie stammen über semitische Zwischenstufen, wie auch die europäischen Schriften (Griechisch, Latein, Kyrillisch), wahrscheinlich von der phönizischen Schrift ab und sind nicht mit dem ostasiatischen Schriftkreis verwandt. Einigen Gelehrte vermuten jedoch, dass die Herausbildung der japanischen Kana, die der Form nach auf chinesischen Schriftzeichenvorbildern beruhen, durch die Kenntnis der indischen Siddhamschrift bei den japanischen Buddhisten angeregt wurde. Seit dem 19. Jahrhundert gibt es auch eine Transliteration des Sanskrit in lateinischer Umschrift. Die gebräuchlichste Umschrift ist gegenwärtig IAST (International Alphabet of Sanskrit Transliteration), der akademische Standard seit 1912. Andere Transliterationssysteme wurden entwickelt, um die Schwierigkeiten bei Anzeige und Druck der notwendigen Sonderzeichen für Sanskrit zu umgehen, so etwa das früher gängige Harvard-Kyoto und ITRANS, ein verlustloses Transliterationssystem, das vor allem im Internet weite Verbreitung findet. In der Wissenschaft verwendet man für die Transkription und Reproduktion ganzer Texte und längerer Ausschnitte entweder lateinische Umschrift oder. Individuelle Namen und einzelne Wörter werden in Texten, die in europäischen Sprachen verfasst sind, meist in lateinischer Umschrift wiedergegeben. Für religiöse Zwecke bedient man sich aber bevorzugt der Devanagarischrift, manchmal auch zusammen mit Glossen in lateinischer Umschrift. Grammatik. Sanskrit ist wie Deutsch oder Latein eine flektierende Sprache, hat jedoch eine noch viel umfangreichere Flexionsmorphologie als diese: So gibt es zu jedem Verb im Präsens etwa 96 verschiedene Formen im Sanskrit, jedoch nur etwa 29 im Latein und im Neuhochdeutschen nur noch etwa acht. Viele Funktionen im Satz werden lediglich durch Suffixe bezeichnet (so z. B. Ort, Richtung, Herkunft, Passiv, Veranlassung, Möglichkeitsform, Wunsch, Verbot, …). "(Im Folgenden wird das IAST-Transliterationsschema benutzt.)" Substantive. Die Deklination der Substantive im Sanskrit erfolgt nach Artikel verwendet das Sanskrit nicht als verpflichtende Elemente. Das Demonstrativpronomen „tad“ und das Indefinitpronomen „kimcit“ werden aber oft optional als bestimmte oder unbestimmte Artikel eingesetzt. Die Substantive im Sanskrit werden in vokalische und bukkalische (konsonantische) Stämme geteilt. Vokalische Stämme. Einen Überblick über die Deklinationsmuster der vokalischen Stämme gibt folgende Tabelle. Bukkalische Stämme. Man kann die Nomina mit bukkalischen Stämmen unterteilen in Komposita. Die nominale Komposition ist insbesondere für die späteren Formen der Sprache charakteristisch. Hierbei erscheinen in der Regel sämtliche Glieder bis auf das letzte in einer unflektierten Form. Die verschiedenen Kompositaformen sind Dvandva, Tatpurusha, Karmadharaya und Bahuvrihi. Diese Sanskritbezeichnungen sind auch als Fachausdrücke in der allgemeinen Linguistik gebräuchlich. Bei den "Dvandva" (Kopulativkomposita) handelt es sich an eine Aneinanderkettung von Substantiven, die im Deutschen durch „und“ verbunden wären. Das Genus richtet sich dabei nach dem Schlussglied, der Numerus ist die Gesamtzahl der bezeichneten Objekte. "ācāryaśiṣyau" heißt: Lehrer ("ācārya", Nominativ Singular "ācāryaḥ") und Schüler ("śiṣa", Nominativ Singular "śiṣaḥ", Nominativ Dual "śiṣau"). Da es zwei Personen sind, steht der Ausdruck im Dual. "aśvagajabālanarā" "nṛtyanti" Pferde, Elefanten, Jungen und Männer tanzen. ("aśva" Pferd, "gaja" Elefant, "bāla" Junge, "nara" Mann, Nominativ Plural im Sandhi vor n "narā"). Das Dvandva steht in der indischen Tradition in besonderem Ansehen; Krishna sagt in Vers 10.33 der Bhagavadgita „Unter den Schriftzeichen bin ich das A, unter den Komposita das Dvandva“. Die "Tatpurusha" (Determinativkomposita, wörtlich „sein Mann“) entsprechen der häufigsten Form der Komposita im Deutschen: Das Vorderglied steht in einem grammatisch nicht explizit bezeichneten „Kasus“-Bezug zum Schlussglied (das auch ein Adjektiv oder Partizip sein kann): Akkusativ ("grāmagata" ins Dorf gegangen), Instrumental ("devadatta" von Gott gegeben), Dativ ("varṇasukha" dem Ohr angenehm), Ablativ ("svargapatita" vom Himmel gefallen), Genitiv ("rājakanyā" Königstochter), Lokativ ("saṃgarānta" Tod im Kampf). "Karmadharaya" (Appositionskomposita) sind Tatpurusha, bei denen das Vorderglied im selben Kasus wie das Hauptglied steht. ("cauravījanaḥ" Diebsleute). "Bahuvrihi" (exozentrische Komposita, wörtlich „viel Reis (besitzend)“) bezeichnen eine Eigenschaft, die eine Person hat. Sie bilden Adjektive, die in allen drei Geschlechtern auftreten können, unabhängig vom Geschlecht der Kompositionsglieder. Im Deutschen entsprechen diesen Formen Bildungen auf -ig. ("Viṣṇurūpa", vishnugestaltig, in der Gestalt des Vishnu, als Vishnu verkleidet) Pronomina. Ähnlich wie andere indogermanische Sprachen weist auch das Sanskrit bei der Flexion der Pronomina Besonderheiten zur Flexion der Substantiva auf. Die Form des Neutrums endet im Nom./Akk. Sg. meist auf "-d", im absoluten Auslaut gemäß den Gesetzmäßigkeiten des [Sandhi] als "-t" verwirklicht ("tat" „das“, „dieses“; "id-am" „dieses“). Dativ, Ablativ und Lokativ Singular werden bei den Formen der Maskulina und Neutra mit Hilfe eines Einschubes "-sm" gebildet (Dat. Sg. m./n. "tasmai devaaya" „diesem Gott“, Abl. Sg. m./n. "tasmaat devaat" „von diesem Gott“, Lok. Sg. m./n. "tasmin deve" „in diesem Gott“). Feminina bilden Genitiv, Dativ, Ablativ und Lokativ Singular mit Hilfe einer Erweiterung "-sy" (Gen. Sg. f. "tasyaah devyaah" „dieser Göttin“, Dat. Sg. f. "tasyai devyai" „dieser Göttin“,Abl. Sg. f. "tasyaah devyaah" „von dieser Göttin“, Lok. Sg. f."tasyaam devyaam" „in dieser Göttin“). Der Genitiv Plural endet auf -saam bzw. -shaam (z. B. "teshaam devaanaam" „dieser Götter“). Präsenssystem. Mit den so gebildeten Stämmen können im Präsenssystem die Präsens- und Imperfektformen im Aktiv und Medium gebildet werden. Die folgende Tabelle zeigt die Präsens- und Imperfektkonjugation für die 1. Präsensklasse am Beispiel des Verbs √bhṛ (tragen). Man beachte das Augment "a" im Imperfekt, das dem Stamm vorangesetzt wird. Auch der Prohibitiv wird vom Präsensstamm gebildet, er entspricht der Form nach dem Imperfekt ohne Augment und existiert im Sanskrit nur noch in der verneinten Form ("mā") des ehemaligen Injunktivs. Neben den oben genannten primären Stämmen (Präsensstamm, Futurstamm, Perfektstamm, Aoriststamm) für die Tempora gibt es noch weitere sekundäre Stammformen für den Passiv, Kausativ, Desiderativ, Intensiv und Denominativ. Das Passiv besitzt im Präsens einen besonderen Stamm, der mit dem Suffix "ya" gebildet wird, welches direkt an die (schwundstufige) Wurzel tritt. Die Personalendungen sind identisch mit den Medialendungen im Präsens. Obige Tabelle kann also folgendermaßen ergänzt werden. Der Kausativ wird in der Regel mit dem Suffix "aya" gebildet, welches an die Verbalwurzel tritt. Zum Beispiel wird aus "karoti" („er macht“) "kār-aya-ti" („er lässt machen“). Der Desiderativ ist meist gekennzeichnet durch Reduplikation der Wurzel und des Suffix "sa". Zum Beispiel wird aus "karoti" („er macht“) "ci-kīr-ṣa-ti" („er wünscht zu tun“). Dies kann auch mit dem Kausativ kombiniert werden, z. B. wird aus "kār-aya-ti" (er lässt machen) "ci-kār-ay-i-ṣa-ti" („er wünscht machen zu lassen“). Der Intensiv (auch Frequentativ genannt) bezeichnet eine wiederholte oder besonders intensive Tätigkeit. Bei Verben der Bewegung bedeutet er soviel wie „hin und her“. Gebildet wird der Intensiv durch eine besondere Reduplikation und das Suffix "ya" mit medialer Flexion bei thematischen Stämmen, ansonsten ohne Suffix und aktiver Flexion bei athematischen Stämmen. Zum Beispiel wird aus "bhramati" („er schweift umher“) "baṃ-bhram-ya-te" („er schweift kreuz und quer umher“) Futursystem. Der Futurstamm des einfachen Futurs und des Konditionals wird mit dem Suffix "-sya" gebildet, welches bei Verben der 1.-9. Klasse an die vollstufige Wurzel gesetzt wird, gegebenenfalls mit Bindevokal "i". Aus √bhṛ wird also "bhar-i-ṣya." Bei Verben der 10. Klasse wird das Suffix an den Präsensstamm gesetzt, z. B. wird aus √cur mit dem Präsensstamm "cor-aya" der Futurstamm "coray-i-ṣya". Neben dem einfachen Futur gibt es noch das periphrastische Futur. Es wird wie bei den Nomina Agentis mit dem Suffix "tar" gebildet und Formen der Wurzel √as („sein“). Alle Passivformen sind identisch mit dem Medium. Die nachfolgende Tabelle gibt einen Überblick über alle Formen des Futurstamms. Perfektsystem. Das Perfekt im Sanskrit tritt in Form des einfachen Perfekts und des periphrastischen Perfekts auf. Das Tempus des Perfekts gibt es nur im Indikativ. Das einfache Perfekt ist die verbreitetste Form und wird von den meisten Wurzeln gebildet. Hierbei wird der Perfektstamm durch Reduplikation und gegebenenfalls durch Stammabstufung gebildet. Die konjugierte Form erhält besondere Perfektendungen. Das periphrastische Perfekt wird bei Kausativen, Desiderativen, Denominativen und Wurzeln mit prosodisch langem anlautenden Vokal (außer a/ā) verwendet. Nur wenige Wurzeln können sowohl das einfache als auch das periphrastische Perfekt bilden. Diese sind √bhṛ (tragen), √uṣ (brennen), √vid (wissen), √bhi (sich fürchten), √hu (opfern). Partizipien. Es gibt Partizipien in den verschiedenen Tempusstämmen im Aktiv und im Medium: Das Partizip Präsens Aktiv auf -ant und Medium auf -māna erinnern auf die entsprechenden Formen im Lateinischen und Griechischen. Eine besondere Rolle spielt das Partizip Perfekt Passiv oder Partizipium Präteriti (Die Bezeichnung „Passiv“ trifft nur auf transitive Verben zu) bei dem -ta oder -na an die Verbwurzel gehängt werden, (vgl. die entsprechenden Formen im Deutschen auf -t oder -en oder das Verbaladjektiv im Griechischen auf -tos). Infinitiv und Absolutiv. Aus einem alten Verbalsubstantiv auf -tu sind als undeklinierbare Formen der Akkusativ auf -tum als "Infinitiv" und der Instrumental auf -tvā als "Absolutiv" erhalten. (vgl. das Lateinische Supinum). Der Absolutiv bezeichnet die Abfolge von Handlungen; im Deutschen entspricht dem eine Konstruktion mit „nachdem“. gṛham tyaktvā vane paribhramati: Nach Verlassen des Hauses wandert er im Wald umher. Sprachgebrauch. In den nachchristlichen Jahrhunderten entwickelte sich Sanskrit weiter zur kanonischen Gelehrten- und Literatursprache. Die von Panini festgelegten Regeln wurden sorgfältig eingehalten; der Charakter der Sprache selbst änderte sich aber durch den Einfluss der im Alltag gesprochenen Prakrit-Sprachen fundamental. Die verschiedenen Vergangenheitsformen des Verbs (Imperfekt, Aorist, Perfekt) hatten ihre Bedeutungsunterschiede verloren und bezeichneten unterschiedslos die Vergangenheit. Darüber hinaus gingen alle drei Formen zugunsten Partizipial- und Absolutivkonstruktion zurück: Statt „der Zimmermann fragte“ („rathakāra aprcchat“, Substantiv im Nominativ, Verb in der dritten Person Indikativ Imperfekt aktiv) sagt man jetzt lieber „vom Zimmermann (ist) gefragt worden“ („rathakārena pṛṣṭa“, Substantiv im Instrumental, Verb im Partizip Perfekt Passiv). Diese Bildung ist in den späteren indoarischen Sprachen zur Standard-Vergangenheitsform geworden (So dass das Subjekt eines Satzes in der Vergangenheit einen besonderen Suffix erhält, der aus der alten Instrumentalendung entstanden ist). Anstelle der zahlreichen Substantivkasus werden nun lieber ausgedehnte Komposita verwendet (bis zu 30 Komponenten kommen vor). Die grammatischen Relationen der Bestandteile ergeben sich aus der Wortstellung und dem Zusammenhang; Zweideutigkeiten werden dabei als poetisches Ausdrucksmittel bewusst eingesetzt. Dies gibt den Sanskrittexten einen gänzlich anderen Charakter, als es zunächst der Reichtum an Flexionsformen erwarten lässt. Schmetterlingsblütler. Die Schmetterlingsblütler (Faboideae) sind eine artenreiche Unterfamilie der Familie der Hülsenfrüchtler (Fabaceae). In dieser Unterfamilie gibt es viele Arten, die auf unterschiedlichste Art und Weise vom Menschen genutzt werden. Es gibt eine Vielzahl von Berichten über Interaktionen zwischen Tierarten und Arten dieser Unterfamilie. Durch die Knöllchenbakterien sind sie für viele Ökosysteme, aber auch für landwirtschaftlich genutzte Böden als Gründüngung wichtig. Beschreibung. Insgesamt ist diese artenreiche Unterfamilie der Schmetterlingsblütler (Faboideae) sehr verschiedengestaltig und es können nur wenige gemeinsamen Merkmale genannt werden. Vegetative Merkmale. Es sind verholzende Pflanzen: Bäume, Sträucher und auch einige Lianen; oder es sind krautige Pflanzen: einjährige bis ausdauernde. Die Laubblätter sind meist wechselständig angeordnet. Gefiederte Laubblätter gelten als ursprünglich, dies kann paarig oder unpaarig sein: Es treten allerdings zahlreiche Abwandlungen und Metamorphose auf, z. B.: dreiblättrig ("Klee") oder einblättrig ("Tragant"). Nebenblätter (Stipeln) sind vorhanden und oft wichtige Bestimmungsmerkmale auf Gattungs- und Artebene, denn sie sind sehr vielgestaltig: von lange haltbar bis schnell vergänglich, von winzig bis auffällig groß, sie können mit den Blattstielen mehr oder weniger stark verwachsen und es gibt vielfältige Formen. Die Nebenblätter können zu Dornen umgebildet sein ("Robinia") oder übernehmen Blattfunktion, da Laubblätter zu Ranken umgebildet ("Lathyrus aphaca") sind. Blütenstände und Blüten. Die Blüten sind in traubigen Blütenständen angeordnet, die auch so dicht sein können, dass köpfchenförmige Blütenstände entstehen. Das charakteristische Merkmal der Schmetterlingsblüte ist die Ausbildung der zwittrigen, zygomorphen, fünfzähligen Blüten. Es gibt fünf (oft aber auch vier) Kelchblätter. In der Regel gibt es fünf Kronblätter. Das mittlere obere Kronblatt ist oft vergrößert und nach oben gebogen (im Bild rechts etwas dunkler rötlich). Man nennt es „Fahne“. Die beiden unteren Kronblätter sind miteinander verwachsen oder zumindest miteinander verklebt und bilden eine gekielte, kahnähnliche, oft an der Spitze nach oben gebogene Röhre, das „Schiffchen“. In dieser liegen die Staubblätter und das Fruchtblatt bestehend aus Fruchtknoten, Griffel und Narbe. Die beiden seitlichen Kronblätter schließlich bilden neben dem Schiffchen die so genannten „Flügel“. Oft umhüllen sie das Schiffchen vollkommen. Man nennt diese Art von Blüte eine „Schmetterlingsblüte“. Die Anzahl der Staubblätter beträgt zehn (selten neun oder fünf). Die Staubfäden sind bis auf einen, der frei ist, miteinander verwachsen. Die Blütenformel der Faboideae lautet formula_1 oder formula_2, davon gibt es aber zahlreiche Abweichungen bei Gattungen oder Arten. Früchte. Die Hülsenfrüchtler haben ihren Namen von der „Hülsenfrucht“, einem Fruchttyp, der nur in dieser Familie vorkommt. Verbreitung und Systematik. Die Unterfamilie umfasst etwa 420 Gattungen und mehr als 12.000 Arten. Sie kommen von den Tropen bis in die arktischen Regionen vor. Sie ziehen allerdings trockene Gebiete oder zumindest Gebiete mit einer ausgeprägten jährlichen Trockenzeit vor. Die meisten Arten gibt es in den gemäßigten Breiten der Nordhalbkugel. Velva Elaine Rudd (1910–1999) hat den Namen Faboideae eingeführt. Typusgattung ist "Faba", heute ein Synonym von "Vicia" Ein alternativer Name für Faboideae ist Papilionoideae Gattungen alphabetisch. Übersicht über die Gattungen der Schmetterlingsblütler (Faboideae) Nutzung. Viele Arten werden als Zierpflanzen verwendet, hier einige Gattungen (Auswahl): Erbsensträucher ("Caragana"), Blasensträucher ("Colutea"), Geißklee ("Cytisus"), Ginster ("Genista"), Goldregen ("Laburnum"), Platterbsen ("Lathyrus"), Lupinen ("Lupinus"), Blauregen ("Wisteria") Von vielen Arten werden Pflanzenteile, besonders die Hülsenfrüchte und/oder Samen gegessen, hier einige Gattungen (Auswahl): Erdnüsse ("Arachis"), Kichererbsen ("Cicer"), "Glycine" mit der Sojabohne, Linsen ("Lens"), Lupinen ("Lupinus"), "Phaseolus", zu dieser Gattung gehört unter anderem die Gartenbohne, Erbsen ("Pisum"), Rooibos ("Aspalathus"). Das Holz wird beispielsweise von den Gattungen Balsambäume ("Myroxylon"), Robinien ("Robinia") genutzt. Einige Arten dienen als Futter. Als Gründünger werden auch einige Arten angebaut. Asparagoideae. Die Unterfamilie der Asparagoideae gehört in die Familie der Spargelgewächse (Asparagaceae) innerhalb der Ordnung der Spargelartigen (Asparagales). Die Familie umfasst zwei Gattungen. Sie ist weltweit anzutreffen. Am bekanntesten ist der Gemüsespargel oder Garten-Spargel ("Asparagus officinalis"), einige "Asparagus"-Arten und ihre Sorten sind Zierpflanzen besonders für Räume. Beschreibung. Es sind ausdauernde krautige Pflanzen oder verholzende Pflanzen: Sträucher oder Lianen. Bei vielen Arten sind die Laubblätter reduziert und die Stängel übernehmen die Aufgabe der Photosynthese. Die ausdauernden krautigen Arten besitzen Rhizome als Überdauerungsorgane. Wenn Laubblätter vorhanden sind dann sind sie wechselständig, einfach, parallelnervig und ganzrandig. Oft sind die Blätter nur schuppenförmig und häutig. Nebenblätter fehlen. Die Blüten stehen einzeln oder in ganz unterschiedlich aufgebauten Blütenständen zusammen. Die kleinen, dreizähligen Blüten sind zwittrig oder eingeschlechtig. Wenn die Blüten eingeschlechtig sind dann können die Pflanzen einhäusig (monözisch) oder zweihäusig (diözisch) getrenntgeschlechtig sein. Es sind sechs gleichgestaltige Blütenhüllblättern vorhanden, ihre Farbe ist grün, weiß oder gelb. Es sind zwei Kreise mit je drei Staubblättern vorhanden; sie sind untereinander frei aber mit der Basis der Blütenhüllblätter verwachsen. In den zwittrigen und männlichen Blüten sind alle Staubblätter fertil. Die weiblichen Blüten besitzen Staminodien und Septalnektarien. Drei Fruchtblätter sind zu einem oberständigen Fruchtknoten verwachsen. Der Griffel ist höchstens so lang wie der Fruchtknoten. Es werden Beeren gebildet. Systematik. Die molekulargenetischen Untersuchungen in den letzten gut zehn Jahren haben dazu geführt, dass die Familiengrenzen innerhalb der Ordnung der Spargelartigen (Asparagales) sich stark verschoben haben. So entspricht der frühere Umfang der Asparagaceae s.str. heute nur mehr einer Unterfamilie (Asparagoideae) in der Familie der Spargelgewächse (Asparagaceae). Die Asparagoideae wurden 1837 durch Hermann Burmeister im "Handbuch der Naturgeschichte" erstbeschrieben. Typusgattung ist "Asparagus" L. Schraubenbaumgewächse. Die Schraubenbaumgewächse (Pandanaceae), auch selten als Scheinpalmengewächse oder Kolbenpalmengewächse bezeichnet, sind eine Familie in der Ordnung der Schraubenbaumartigen (Pandanales) innerhalb der Monokotyledonen. Diese kleine Familie enthält nur vier Gattungen mit etwa 800 bis 885 Arten. Von einigen Arten werden die Blätter verarbeitet und einige Arten sind Zierpflanzen für Parks und Gärten und von einer Art werden Sorten als Zimmerpflanze verwendet. Habitus und Laubblätter. Die Arten der Familie sind immergrüne, verholzende Pflanzen, die baumförmig, strauchförmig oder als Lianen wachsen; einige Arten sind Epiphyten. Es ist kein sekundäres Dickenwachstum vorhanden und deshalb spricht man auch nicht von Bäumen. Bei vielen Arten werden Luft- oder Stelzwurzeln ausgebildet. Einige Arten sind Helophyten und gedeihen im flachen Salzwasser. Wenn Stämme vorhanden sind dann sind sie meist einfach oder manchmal zweigabelig verzweigt. Die Sprossachsen sind oft durch die ringförmigen Blattnarben geringelt. Die wechselständig und scheinbar schraubig (daher der deutsche Name), tatsächlich aber selten zwei-, meist drei- oder seltener vierzeilig angeordneten Laubblätter sind ungestielt und einfach. Es sind offene Blattscheiden vorhanden. Die unbehaarte, manchmal bemehlte, ledrige Blattspreite ist linealisch bis lanzettlich, oft sehr lang und manchmal unterseits gekielt und läuft am Ende oft in eine Stachelspitze aus. Häufig ist die Blattspreite am Rand und oft auch auf der Mittelrippe stachelig gezähnt; der Blattrand kann aber auch ganz sein. Es liegt Parallelnervatur vor, aber es sind auch viele horizontale sekundäre Blattnerven vorhanden. Es sind tetracytische Stomata vorhanden. Blütenstände und Blüten. Die Taxa sind meist getrenntgeschlechtig entweder zweihäusig (diözisch) oder einhäusig (monözisch). An einem Blütenstand gibt es meist nur Blüten eines Geschlechtes; die männlichen und weiblichen Blütenstände sehen verschieden aus. Sehr wenige "Freycinetia"-Arten besitzen zwittrige Blüten. Die end- oder seitenständigen, meist verzweigten Gesamtblütenstände sind aus traubigen, ährigen, kopf- oder kolbenförmigen Teilblütenständen zusammengesetzt; manchmal ist der Blütenstand einfach, besonders bei weiblichen Blütenständen. Es sind Hochblätter (hier Spatha genannt) vorhanden, die bei einigen Arten groß und intensiv gefärbt sein können. Die Blüten sind meist eingeschlechtig, doch kommen bei einigen Arten auch zwittrige Blüten vor. Bei vielen Taxa sind keine Blütenhüllblätter erkennbar, sind also rudimentär. In männlichen Blüten sind 10 bis 100 Staubblätter vorhanden. Die glatten ("Pandanus") oder papillösen ("Freycinetia") Staubfäden sind untereinander frei oder in Gruppen miteinander verwachsen, oft mit „Stemonophoren“. Die basifixen Staubbeutel bestehen aus zwei Theken mit je zwei Pollensäcken. Die zweizelligen Pollenkörner sind furchig oder beulig mit einer Apertur und die Pollenoberfläche ist oft stachelig. In weiblichen Blüten sind 1 bis 80 freie bis verwachsene Fruchtblätter und manchmal Staminodien vorhanden. Jedes oberständige Fruchtblatt enthält eine bis einige anatrope Samenanlagen in basaler oder parietaler Plazentation. Es ist höchstens ein kurzer Griffel vorhanden. Die Bestäubung erfolgt meist durch Wind (Anemophilie), weniger häufig durch Insekten (Entomophilie), Vögel (Ornithophilie) oder Fledertiere (Chiropterophilie). Früchte und Samen. Als Früchte werden Steinfrüchte ("Pandanus") oder Beeren ("Freycinetia") gebildet. Bei einigen Arten stehen die Früchte zu je nach Art sehr unterschiedlich aufgebauten Sammelfrüchten zusammen. Die Früchte enthalten einen bis viele winzige Samen. Das Endosperm kann stärkehaltig ("Freycinetia") oder ölhaltig ("Pandanus") und fleischig sein. Der basale Embryo ist winzig. Inhaltsstoffe und Chromosomenzahl. Es wird Stärke (nur vom Pteridophytentyp) gebildet. Calciumoxalat-Kristalle werden als Raphiden eingelagert. Die Chromosomenzahl beträgt n = 25, 28 oder 30. Systematik und Verbreitung. Die Familie Pandanaceae wurde 1810 von Robert Brown unter dem Namen „Pandaneae“ in "Prodromus florae Novae Hollandiae et insulae Van-Diemen, exhibens characteres plantarum quas annis 1802–1805.", S. 340 erstveröffentlicht. Typusgattung ist "Pandanus" Parkinson. Die Arten der Familie der Freycinetiaceae Le Maout & Decaisne werden heute den Schraubenbaumgewächsen (Pandanaceae) zugeordnet. Die Cyclanthaceae sind eine Schwestergruppe der Pandanaceae, diese beiden Familien sind am nächsten mit den Stemonaceae und Triuridaceae verwandt und innerhalb der Ordnung der Pandanales sind die Pandanaceae mit den Velloziaceae am entferntesten verwandt. Der Ursprung der Familie liegt in der frühen bis mittleren Kreidezeit vor etwa 96 Millionen Jahren auf dem Gondwana-Kontinent als er auseinanderbrach. Es kam zu einer schnellen adaptiven Radiation und so ist die heutige Verbreitung der Gattungen zu erklären. Manche Arten auf Madagaskar sind allerdings viel später durch Fernausbreitung dort hingelangt. Sie haben eine Verbreitung von den Tropen bis in die warmen gemäßigten Breiten der Alten Welt. Ihre natürlichen Verbreitungsgebiete liegen im tropischen Zentral- und Westafrika, in Madagaskar und nahe gelegenen Inseln, von Indien über Thailand bis China und vom Malaiischen Archipel über Australien bis Neuseeland und zu den in den Pazifischen Inseln. Nutzung. Einige Arten der Schraubenbaumgewächse werden wirtschaftlich genutzt, so zum Beispiel die auf Madagaskar heimische "Pandanus utilis". Aus ihren Früchten wird Mehl hergestellt, und sie wird auf den Westindischen Inseln und in Mittelamerika zur Fasergewinnung angebaut. Aus der in Südasien, Polynesien und Australien vorkommenden "Pandanus odorifer" wird ein Extrakt zur Parfümherstellung gewonnen. Von einigen "Freycinetia"-Arten werden die Hochblätter genutzt und die faserreichen Blätter werden zum Flechten von Matten und Körben, Bindematerial oder zum Dachdecken verwendet. Einige Arten werden auch als Zierpflanzen genutzt, in den Tropen und Subtropen in Parks und Gärten, in den Gebieten mit Frost als robuste Zimmerpflanzen ("Pandanus veitchii" besonders ihre panaschierte Sorte). Commelinagewächse. Die Commelinagewächse (Commelinaceae) sind eine Familie in der Ordnung der Commelinaartigen (Commelinales) innerhalb der Bedecktsamigen Pflanzen (Magnoliopsida). Sie sind hauptsächlich in den Subtropen und Tropen beheimatet. Einige Arten sind in vielen Gebieten der Welt Neophyten. Viele Taxa dieser Familie werden als Zierpflanzen verwendet, in den gemäßigten Breiten besonders als Zimmerpflanzen bekannt. Beschreibung und Ökologie. a>", aus Transaction Linnean Society, 1846 Erscheinungsbild und Blätter. Es sind selten einjährige (beispielsweise alle "Tinantia"-Arten) oder meist immergrüne, ausdauernde krautige bis sukkulente Pflanzen, die manchmal an der Basis etwas verholzen. Arten in ariden Gebieten bilden Rhizome oder Wurzelknollen als Überdauerungsorgane. Sie wachsen selbständig aufrecht, kriechend, hängend oder kletternd (beispielsweise "Palisota thollonii") und wenige Arten als Epiphyten (beispielsweise beide "Cochliostema"-Arten und "Belosynapsis vivipara"). Die jungen Stängel brechen oft leicht an den meist verdickten Knoten (Nodien). Bei fast allen Commelinaceae sind nadelförmige Calciumoxalat-Kristalle (Raphiden) in Reihen („Raphidenkanälen“) vorhanden - sie fehlen nur bei "Cartonema". Drüsige Mikrohaare sind bei allen Commelinoideae vorhanden - sie fehlen aber bei allen Cartonematoideae (ein wichtiges Merkmal um die beiden Unterfamilien zu trennen). Die wechselständig und spiralig oder zweizeilig in einer grundständigen Rosette oder am Stängel verteilt angeordneten Laubblätter sind gestielt oder ungestielt und besitzen eine Blattscheide. Oft umhüllt die Blattscheide den Stängel teilweise bis sich ihre Enden berühren. Die Laubblätter sind oft mehr oder weniger fleischig oder krautig. Die einfachen Blattspreiten ist parallelnervig und ganzrandig. Um die Stoma sind meist vier oder sechs, selten zwei Nebenzellen sehr charakteristisch angeordnet. Blütenstände, Blüten und Bestäubung. Die Blüten stehen selten einzeln, sondern meist zu vielen in unverzweigten oder verzweigten Blütenständen, die aus Zymen zusammengesetzt sind. Manchmal sind große Hochblätter vorhanden. Die meist zwittrigen, selten eingeschlechtigen Blüten sind dreizählig und radiärsymmetrisch bis stark zygomorph. Es gibt einige einhäusig (monözisch) und zweihäusig (diözisch) getrenntgeschlechtige Arten. Die zwei Kreise mit je drei nicht gleichgestaltigen Blütenhüllblätter sind in Kelch- und Kronblätter gegliedert. Die drei Kelchblätter sind meist frei oder selten an ihrer Basis verwachsen. Die meist drei, manchmal genagelten Kronblätter sind oft frei oder manchmal im mittleren Bereich röhrig verwachsen. Manchmal ist ein Kronblatt anders gefärbt oder mehr oder weniger stark reduziert bis nur noch zwei Kronblätter erkennbar sind. Die Kronblätter können weiß, blau bis purpurfarben oder selten gelb (aber bei allen Cartonematoideae) sein. Es sind zwei Kreise mit je drei freien Staubblättern vorhanden. Entweder sind alle Staubblätter fertil oder nur zwei bis drei bis selten nur noch eines, dann sind Staminodien vorhanden. Die Staubfäden sind kahl oder besitzen oft auffällige Haare. Die Staubbeutel öffnen sich meist mit einem Längsschlitz und besitzen manchmal Anhängsel. Die meist sulcaten, zweizelligen Pollenkörner besitzen meist eine Apertur oder seltener zwei bis vier. Die drei Fruchtblätter sind zu einem oberständigen Fruchtknoten verwachsen mit einer bis einigen bis vielen (1 bis 50) aufsteigenden Samenanlagen je Fruchtknotenkammer. Der einfache Griffel endet in einer kleinen oder vergrößerten Narbe. Die Bestäubung erfolgt autogam oder entomophil. Es wird kein Nektar produziert, sondern viele Arten besitzen einen sehr speziellen Anlockungsmechanismus: Es werden zwei verschiedene Staubblatttypen gebildet, neben den fertilen Staubblättern gibt es hellgelbe, sogenannte „Futterstaubblätter“, die die Bestäuber durch die Produktion kleiner Pollen anlocken, die diesen Insekten als Nahrung dienen. Bei einigen Arten werden auch spezielle Haare auf den Staubblättern gebildet, die den Bestäubern als Nahrung dienen. Früchte, Samen und Keimlinge. Es werden meist zwei- bis dreifächerige, meistens trockene, lokulizide Kapselfrüchte gebildet; selten sind sie fleischig und beerenähnlich ("Pollia"). Manchmal werden Beeren ("Palisota") gebildet. Die Früchte enthalten wenige Samen. Die große Samen sind stärkehaltig und besitzen einen chlorophylllosen Embryo. Es ist meist ein Keimblatt (Kotyledonen), manchmal sind aber zwei vorhanden. Ein Hypocotyl-Internodium ist oft vorhanden, manchmal ist es lang, oder es fehlt beispielsweise bei "Cyanotis". Chromosomensätze und Inhaltsstoffe. Die Chromosomengrundzahlen sind unterschiedlich: meist x = 6 bis 16, möglich sind aber x = 4 bis 29. An Inhaltsstoffen können je nach Taxon beispielsweise Cyanidin, Proanthocyanidine, Alkaloide und bei "Cyanotis" Saponine vorhanden sein. Systematik. Die Familie Commelinaceae wurde 1804 durch Charles François Brisseau de Mirbel in "Histoire naturelle, générale et particulière, des plantes", Band 8, S. 177 aufgestellt. Typusgattung ist "Commelina" Der botanische Gattungsname "Commelina" ehrt die holländischen Botaniker Jan Commelin und Caspar Commelin. Die Taxa der früheren Familien Cartonemataceae, Ephemeraceae und Tradescantiaceae gehören heute in die Familie der Commelinagewächse (Commelinaceae). Nutzung. Viele Arten dieser Familie werden als Zierpflanzen in tropischen bis subtropischen Parks und Gärten verwendet. In den gemäßigten Breiten dienen einige Arten und ihre Sorten besonders als Zimmerpflanzen. Silberbaumgewächse. Die Silberbaumgewächse oder Proteusgewächse (Proteaceae) sind eine Pflanzenfamilie in der Ordnung der Silberbaumartigen (Proteales). Die etwa 77 Gattungen mit etwa 1600 Arten kommen auf der Südhalbkugel vor. Erscheinungsbild und Blätter. Proteaceen sind meist immergrüne verholzende Pflanzen: Bäume oder Sträucher oder Halbsträucher, selten krautige Pflanzen. Besonders in der Morphologie der Blätter kann man bei manchen Arten erkennen, dass es sich um eine Familie mit relativ ursprünglichen Merkmalen handelt, die Blätter haben oft Gabelnervatur (dichotom). Die Blätter weisen eine Vielfalt an Formen auf: von ungeteilt bis fein zerschlitzt gibt es alle Möglichkeiten. Manchmal sind sie nadelartig spitz und einige Blattformen erinnern mehr an Farne als an Samenpflanzen. Nebenblätter fehlen. Blütenstände, Blüten und Früchte. Die kleinen Einzelblüten stehen oft in umfangreichen und auffälligen Blütenständen zusammen. Die Blüten sind zwittrig oder funktional männlich oder weiblich. Selten sind sie einhäusig (monözisch) oder zweihäusig (diözisch) getrenntgeschlechtig. Die relativ einfach aufgebauten Blüten sind radiärsymmetrisch bis zygomorph und meist vierzählig. Die Blütenhülle ist sehr unterschiedlich aufgebaut - gegliedert in Kelch- und Kronblätter oder nur ein Kreis von Blütenhüllblättern. Es ist nur ein Kreis mit meist vier (selten drei) Staubblättern vorhanden, die mit den Blütenhüllblättern weit verwachsen sind. Jede Blüte enthält nur ein oberständiges Fruchtblatt; es enthält eine bis zahlreiche Samenanlagen. Zwischen Blütenhüllblättern und Fruchtknoten gibt es eine aus vier Schuppen bestehende oder ringförmige Drüse zur Produktion von Nektar (der sogenannte Diskus). Es werden Balgfrüchte, Steinfrüchte oder Achänen gebildet. Wurzeln. Viele Vertreter der Silberbaumgewächse haben eine Strategie entwickelt, dem Boden mit hoher Effizienz die wenigen Nährstoffe und Mineralien zu entnehmen. Besonders die Arten, die in nährstoffarmen Böden wachsen, bilden nach Regenfällen sehr zahlreich die so genannten „Proteoidwurzeln“. Dies sind kurzlebige, kurze Wurzeln in dichten Büscheln. Sie wachsen hauptsächlich dicht unter der Oberfläche und sind besonders befähigt, die vom Regen in den Boden gespülten Nährstoffe und Mineralien aufzunehmen. Pyrophyten. Sehr häufig bei Proteaceae sind Arten, die ihre Samen erst nach einem Feuer freigeben, diese Arten sind stark an Waldbrände anpasst, das Phänomen nennt man Feuerbäume oder Pyrophyten. Beispiele sind die Silbereichen ("Grevillea") und die Banksien ("Banksia"). Der Vorteil für die Pflanzen ist dabei, dass nach einem Brand der Standort fast frei von Bewuchs ist und die Erde durch die Asche gut gedüngt wurde. Einige Arten aus Gebieten ohne regelmäßiges Buschfeuer entlassen ihre Samen ohne äußere Einwirkung kurze Zeit nach der Reife. Bestäubung. Die Bestäubung erfolgt oft durch Vögel, aber auch durch Insekten, Beuteltiere sowie Nagetiere. Verbreitung. Die Vorfahren der Familie Proteaceae entstanden noch bevor der Urkontinent Gondwana vor ungefähr 150 Millionen Jahren auseinanderbrach. Das heutige Areal der Proteaceae ist disjunkt und entspricht hauptsächlich den Teilen von Gondwana. Das Verbreitungsgebiet dieser Familie erstreckt sich auf Südamerika, mittleres bis südliches Afrika, Südchina bis Australien, Japan, Südindien. Viele der Gattungen und Arten aus der Tribus Proteae zählen zur südafrikanischen Kapflora. Systematik. Die Typusgattung ist "Protea", die nach Proteus, dem griechischen Meeresgott benannt ist. Bekannt ist Proteus für seine Kunst der fortwährenden Gestaltänderung. Die einzelnen Taxa der Proteaceae sind in ihrer Gestalt, Habitus und vor allem Blätter, auch sehr unterschiedlich. Die Familie Proteaceae wird in fünf Unterfamilien gegliedert, die ihrerseits wieder in Tribus und oft auch Subtribus untergliedert werden. Die Familie umfasst etwa 77 Gattungen mit etwa 1600 Arten. Sandelholzgewächse. Die Sandelholzgewächse (Santalaceae) sind eine Familie der Bedecktsamigen Pflanzen (Magnoliopsida). Die 38 bis 44 Gattungen mit etwa 990 Arten sind fast weltweit, außerhalb kalter Gebiete, besonders in den Tropen verbreitet. Einige Arten der Gattung Sandelholzbäume ("Santalum") liefert Sandelholz und Sandelholzöl. Bekannt sind auch die halbparasitischen Misteln ("Viscum"). Erscheinungsbild und Blätter. Es sind meist verholzende Pflanzen: meistens Sträucher, selten Bäume; oder es sind parasitische krautige Pflanzen. Bei manchen Arten übernehmen statt der Laubblätter die Sprossachsen die Photosynthese. Die Laubblätter sind gut entwickelt oder stark reduziert. Die Laubblätter sind meistens wechselständig. Die Stomata sind meist paracytisch. Nebenblätter sind keine vorhanden. Blütenstände, Blüten und Früchte. Sie sind meistens zweihäusig (diözisch), selten einhäusig (monözisch) getrenntgeschlechtig. Die sehr kleinen, radiärsymmetrischen Blüten sind zwittrig oder eingeschlechtig und sind drei- bis sechszählig (selten achtzählig). Es sind meistens drei, selten zwei, vier oder fünf, Fruchtblätter vorhanden. Der Fruchtknoten ist unterständig. Es werden Beeren, einsamige Steinfrüchte oder Nüsse gebildet. Systematik und Verbreitung. Sie kommt weltweit, außerhalb kalter Gebiete vor. Besonders artenreich ist die Familie in den Tropen. Die Familie Santalaceae s.l. enthält im Umfang entsprechend APG III alle Taxa der ehemaligen Familien der Anthobolaceae, Arceuthobiaceae, Canopodaceae, Eremolepidaceae, Lepidocerataceae, Exocarpaceae, Bifariaceae, Ginalloaceae, Osyridaceae, Phoradendraceae, Thesiaceae und Mistelgewächse (Viscaceae). Nach Daniel L. Nickrent et al. in "Taxon", Band 59, 2010, S. 538–558 ergibt sich allerdings eine neue Klassifikation der Santalales; hier werden unter anderem die Thesiaceae und die Viscaceae wieder als eigene Familien angesehen. Nach Nickrent et al. 2010 gehören zur Familie Santalaceae s.str. im engeren Sinne nur noch die Gattungen "Antidaphne", "Colpoon", "Elaphanthera", "Eubrachion", "Exocarpos", "Lepidoceras", "Myoschilos", "Nestronia", "Omphacomeria", "Osyris", "Rhoiacarpos" und "Santalum". Storchschnabelgewächse. Die Storchschnabelgewächse (Geraniaceae) sind eine Familie in der Ordnung der Storchschnabelartigen (Geraniales) innerhalb der Bedecktsamigen Pflanzen. Einige Arten und Hybriden werden als Zierpflanzen verwendet. Einige Arten werden zur Gewinnung von pharmazeutischen und kosmetischen Produkten angebaut. Die artenreichsten Gattungen sind Storchschnäbel ("Geranium"), Pelargonien ("Pelargonium") und Reiherschnäbel ("Erodium"). Die meisten Arten der Familie stammen aus gemäßigten oder warmen Klimazonen, am häufigsten sind sie im südlichen Afrika zu finden und sind wichtiger Bestandteil der Kapflora. Habitus und Blätter. Die meisten Arten wachsen als einjährige oder ausdauernde krautige Pflanzen, selten sind es Halbsträucher oder Sträucher. Einige Arten sind sukkulent. Sie enthalten ätherische Öle. Die oberen Blätter sind meist wechselständig, die unteren sind meist gegenständig angeordnet. Die gestielten, meist behaarten Laubblätter sind einfach oder zusammengesetzt; meistens gelappt bis geteilt. Die Nebenblätter sind laubblattförmig, schuppenförmig oder stachelig. Blütenstand und Blüte. Die Blüten stehen einzeln oder meist zu vielen zusammengefasst in achsel- oder endständigen, einfachen oder zusammengesetzten, zymösen oder doldigen Blütenständen. Die Blütenstände besitzen meist lange Blütenstandsschäfte und enthalten oft Hochblätter. Meist sind die Blüten zwittrig, seltener eingeschlechtig; es gibt zweihäusig getrenntgeschlechtige (diözische) Arten. Die gestielten, fünfzähligen Blüten sind radiärsymmetrisch oder zygomorph mit doppelten Perianth. Die je fünf Kelchblätter sind meist frei oder höchstens an ihre Basis röhrig verwachsen. Die fünf Kronblätter sind meist frei und genagelt. Es sind meist ein oder zwei (selten drei) Kreise mit je fünf Staubblättern vorhanden, meist sind alle fertil oder ein bis fünf sind zu Staminodien reduziert. Die Staubfäden sind oft an ihrer Basis verwachsen. Fünf Fruchtblätter sind zu einem oberständigen Fruchtknoten verwachsen. Nur ein oder zwei Samenanlagen sind pro Fruchtblatt vorhanden, wobei sich später nur eine davon entwickelt. Die oberen sterilen Teile des Fruchtblattes, werden als Griffel bezeichnet, sind bis zur Spitze verwachsen und bilden den „Schnabel“ mit fünf Narben. Ein Diskus ist meist vorhanden, außer bei "Pelargonium". Es sind ein (nur bei "Pelargonium") oder fünf Nektarien vorhanden, die je nach Gattung unterschiedlich angeordnet sind. Frucht. Bei der Reife bleiben nur die inneren Teile der Fruchtblätter als Mittelsäule stehen. Die äußeren Teile, die unten je einen Samen umschließen, heben sich ab. Die Frucht ist eine Spaltfrucht, die fünf Teilfrüchte sind einsamige Kapselfrüchte. Namensgebung. Bei allen Taxa befindet sich am oberen Ende der Frucht ein schmales schnabelähnliches Gebilde, weshalb drei der Gattungen und die Familie nach langschnäbeligen Vögeln (Aves) benannt wurden. Der Name der Gattung "Geranium" leitet sich vom griechischen Wort "geranos" für „Kranich“ ab, "Pelargonium" stammt vom griechischen "pelargos" für „Storch“ und "Erodium" vom griechischen "erodios" für „Reiher“. Im Deutschen wird allerdings die Gattung "Geranium" als Storchschnabel und Pelargonien ("Pelargonium") häufig als Geranien bezeichnet. Letzteres ist darauf zurückzuführen, dass Linné, auf den die Nomenklatur der Blütenpflanzen im Wesentlichen zurückgeht, die Pelargonien der Gattung "Geranium" hinzuzählte. Erst als im 18. Jahrhundert zahlreiche südafrikanische Pelargonien eingeführt wurden, konnte sich der berühmte Amateurbotaniker Charles Louis L’Héritier de Brutelle damit durchsetzen, dass "Pelargonium" als eigenständige Gattung anerkannt wurde. Im Sprachgebrauch hatte sich zu diesem Zeitpunkt jedoch bereits die Bezeichnung „Geranien“ für die Pelargonien-Arten eingebürgert. Einer der Unterschiede zwischen den beiden Gattungen ist: "Geranium" hat radiärsymmetrische Blüten und "Pelargonium" hat zygomorphe Blüten. Systematik. Bei manchen Autoren werden auch die Arten der Biebersteiniaceae, die Dirachmaceae, die Ledocarpaceae und die Vivianiaceae mit zu den Storchschnabelgewächsen (Geraniaceae) gerechnet. Gattungen. Die Familie enthält fünf bis sechs Gattungen mit 750 bis 805 Arten. Sie unterscheiden sich beispielsweise in der Zahl der fertilen Staubblätter je Blüte. Sauerkleegewächse. Die Sauerkleegewächse (Oxalidaceae) sind eine Familie der Sauerkleeartigen (Oxalidales). Oxalsäure wurde erstmals im Sauerklee nachgewiesen und ist in allen Taxa der Familie enthalten. Erscheinungsbild und Blätter. Es sind einjährige überwiegend ausdauernde krautige Pflanzen, es gibt aber auch verholzende Taxa: Sträucher, Bäume ("Averrhoa") und Lianen ("Dapania"). Die grundständig oder wechselständig beziehungsweise wirtelig an den Sprossachsen verteilt angeordneten Laubblätter sind in Blattstiel und Blattspreite gegliedert. Die Blattspreiten sind meist zusammengesetzt (gefingert, dreizählig oder gefiedert). Bei einigen Taxa werden Schlaf- oder Reizbewegungen durchgeführt und zwar können die Fiederblättchen nach unten zusammengeklappt werden. Der Blattrand ist immer glatt. Nebenblätter fehlen oder sind klein. Blütenstände und Blüten. Die Blüten stehen einzeln in den Blattachseln oder in doldigen, zymösen oder traubigen Blütenständen zusammen. Die zwittrigen Blüten sind radiärsymmetrisch und fünfzählig mit doppelter Blütenhülle. Die fünf Kelchblätter sind frei oder höchstens an ihrer Basis verwachsen. Die fünf Kronblätter sind frei oder höchstens an der Basis etwas verwachsen, manchmal sind sie deutlich genagelt. Es sind zwei Kreise mit je fünf Staubblätter vorhanden. Bei den meisten Arten haben die Staubblätter der beiden Kreise unterschiedliche Längen, wobei die Staubfäden des äußeren Kreises meist kürzer sind. Die Staubfäden können an ihrer Basis verwachsen sein. Es liegt oft Heterostylie, meist Tristylie vor. Fünf oberständigen Fruchtblätter sind meist zu einem, fünfkammerigen Fruchtknoten verwachsen, bei "Biophytum" sind sie mehr oder weniger frei. Jedes Fruchtblatt enthält selten eine, meist zwei bis einige hängende, anatrope oder hemianatrope Samenanlagen in meist zentralwinkelständiger, bei "Biophytum" in marginaler Plazentation. Die meist fünf Griffel sind frei und enden jeweils in kopfigen oder kurz zweispaltigen Narben. Früchte und Samen. Es werden loculicidale Kapselfrüchte mit unterschiedlichen Öffnungsmechanismen oder seltener Beeren gebildet. Bei Arten mit Kapselfrüchten besitzen die Samen an ihrer Basis eine fleischige Verdickung der Epidermis, die beim Trocknen schrumpft, umklappt und dadurch den Samen wegschleudert. Es ist fleischiges, oft ölhaltiges Endosperm vorhanden. Vorkommen. Die Sauerkleegewächse kommen auf der ganzen Welt, außer in sehr kalten Gebieten vor. Ihr Verbreitungsschwerpunkt liegt aber in den Tropen und Subtropen. Sie gedeihen in Vielzahl von Habitaten von Regenwäldern bis hin zu Wüsten. Systematik. Als Erstveröffentlichung dieser Familie gilt unter dem Namen „Oxalideae“ Robert Brown: "Narrative of an Expedition to Explore the River Zaire", 1818, S. 433. Typusgattung ist "Oxalis". Taxa der früheren Familie Averrhoaceae Hutch. gehören heute zu den Oxalidaceae. Nutzung. Vom Gurkenbaum ("Averrhoa bilimbi") und der Sternfrucht oder Karambole ("Averrhoa carambola") werden die Früchte genutzt. "Oxalis tuberosa" wird mit vielen Sorten angebaut um ihre Sprossknollen zu ernten. Einige "Oxalis"-Arten und ihre Sorten werden als Zierpflanzen verwendet. Seifenbaumgewächse. Die Seifenbaumgewächse (Sapindaceae) bilden eine Pflanzenfamilie, die zur Ordnung der Seifenbaumartigen (Sapindales) gehört. Die meisten der etwa 142 Gattungen mit etwa 1900 Arten kommen in tropischen Gebieten vor, nur wenige Gattungen sind nur in den Gemäßigten Zonen verbreitet. Beschreibung. Da die Familie im heutigen Umfang aus mehreren Familien nach molekularphylogenetischen Gründen zusammengefügt wurde, sind nur sehr wenige Merkmale gemeinsam. Es sind meist verholzende Pflanzen: Bäume, Sträucher oder Lianen; selten sind es auch krautige Pflanzen. Sie sind immergrün oder laubabwerfend. Die Laubblätter sind wechselständig und spiralig oder gegenständig an den Zweigen angeordnet. Die meist funktional eingeschlechtigen Blüten sind vier- oder fünfzählig. Meist drei (zwei bis sechs) Fruchtblätter sind zu einem Fruchtknoten verwachsen. Es werden sehr unterschiedliche Früchte gebildet. Die Samen besitzen oft einen Arillus, der giftig sein kann so lang sie unreif sind. Verbreitung. Die Seifenbaumgewächse sind vor allem in den Tropen sehr reich entwickelt. Sie besiedeln das gesamte tropische Südamerika, Afrika und Asien, dazu auch noch Australien, Neuseeland und Ozeanien. In den gemäßigten Zonen der Nordhalbkugel, in Nordamerika, Europa und Ostasien, kommen nur wenige Gattungen vor wie beispielsweise die Ahorne ("Acer"). Systematik. Die Familie wurde 1789 unter dem Namen „Sapindi“ durch Antoine Laurent de Jussieu in "Genera Plantarum", S. 246 aufgestellt. Synonyme für Sapindaceae Juss. sind: Aceraceae Juss., Aesculaceae Burnett, Allophylaceae Martinov, Dodonaeaceae Kunth ex Small, Hippocastanaceae A.Rich., Koelreuteriaceae J.Agardh, Paulliniaceae Durande, nom. inval., Paviaceae Horan. Der botanische Name setzt sich aus den lateinischen Wörtern "sapo" für Seife und "India" für Indien zusammen. Die Familie Sapindaceae ist in vier Unterfamilien gegliedert; sie umfasst etwa 142 Gattungen mit 1600 bis 1900 Arten. Erkenntnisse zwischen etwa 2000 und 2009 haben ergeben, dass auch die Gattungen der bisherigen Ahorngewächse (Aceraceae) und die Rosskastaniengewächse (Hippocastanaceae), eingeordnet in die Unterfamilie der Rosskastaniengewächse (Hippocastanoideae), in die Familie der Seifenbaumgewächse eingruppiert werden müssen. Gemeinsam ist allen Sapindaceae ursprünglich die Ausbildung eines Diskus am Grund der Blüte, der sekundär bei windbestäubten Arten fehlt. Die vier Unterfamilien werden nach dem Bau des Fruchtknotens unterschieden; die Sapindoideae besitzen nur eine einzige Samenanlage, die Hippocastanoideae haben zwei Samenanlagen, die Dodonaeoideae weisen zwei bis mehrere Samenanlagen und die Xanthoceroideae sechs bis acht Samenanlagen je Fruchtknotenfach (entspricht einem Fruchtblatt) auf. Dies entspricht der Auffassung der Familie Sapindaceae nach AGP II und AGP III (Angiosperm Phylogeny Group). Nutzung. Viele Ahorn-Arten und -Sorten werden in den gemäßigten Breiten als Zierpflanzen in Parks und Gärten genutzt. Auch Blasenesche, Rosskastanien-Arten und -Sorten ("Aesculus") sind Ziergehölze für gemäßigte Breiten. Das Holz von vielen "Acer"-Arten werden vielseitig genutzt, siehe Ahornholz. Einige "Aesculus"-Arten werden zur Holzgewinnung genutzt. Viele tropische Arten dienen der Holzgewinnung. Von zwei "Pometia"-Arten ist das Holz als „kasai“, „matoa“, „megan“, „taun“ im Handel. "Harpullia pendula" liefert auch gutes Holz. Verschiedene Arten werden medizinisch, als Gemüse oder als Fischgift genutzt. In einigen Gattungen gibt es Zierpflanzen "Cardiospermum", "Dictyoneura", "Filicium", "Koelreuteria", "Lepisanthes" für tropische Gebiete. Mit "Dodonaea angustifolia" eingezäunt. Als Schattenbäume dienen "Dodonaea angustifolia" und "Filicium"-Arten. Viele Arten aus der Familie der Sapindaceae liefern eßbare Früchte: Longan ("Dimocarpus longan"), Litchi ("Litchi chinensis") oder Rambutan ("Nephelium lappaceum") und eßbare Samen. Zur Gewinnung von Nahrungsmitteln wird auch Akee ("Blighia sapida") genutzt. Einige "Diploglottis"-Arten liefern Marmeladen und Säfte. Die Blätter und junge Triebe von "Cardiospermum halicacabum" und "Koelreuteria paniculata" werden gegart wie Spinat gegessen. Die Blüten und Blätter von Gelbhorn ("Xanthoceras sorbifolium") werden gegart gegessen. Ahornsirup ist bekannt. Einige Arten die Fruchtschalen von Westlicher Seifenbaum ("Sapindus saponaria") oder die Rinde von "Jagera pseudorhus" werden zur Herstellung von Seife verwendet. Zum Waschen verwendet werden auch die Früchte des Waschnussbaum ("Sapindus mukorossi") oder Produkte daraus. Digitaler Signalprozessor. a> XSP56001 ist ein DSP aus der 56K-Familie. Ein digitaler Signalprozessor (engl. "digital signal processor", DSP) dient der kontinuierlichen Bearbeitung von digitalen Signalen (z. B. Audio- oder Videosignale) durch die digitale Signalverarbeitung. Zur Verarbeitung von analogen Signalen wird der DSP in Verbindung mit Analog-Digital-Umsetzern und Digital-Analog-Umsetzern eingesetzt. Funktion. Einige DSPs enthalten darüber hinaus am Ein- und Ausgang bereits die erforderlichen D- und A-Wandler. Echtzeitfähigkeit. Ein DSP muss eine bestimmte Datenmenge pro Zeiteinheit sicher verarbeiten können. Dies ergibt sich aus der Forderung einer meist fixen und von außen vorgegebenen Datenrate, mit der die Eingangsdaten in den DSP gelangen bzw. die verarbeiteten Daten wieder geschrieben werden müssen. Eine Art "Handshake" oder zeitliches Anhalten bei der Datenverarbeitung ist bei dieser echtzeitfähigen Verarbeitung meistens nicht möglich. Zahlenformate. Unterteilt werden Signalprozessoren und deren Befehlssatz nach der Fähigkeit, Rechenoperationen Signalprozessoren mit Festkommaarithmetik sind im Aufbau meist einfacher und haben einen geringeren Stromverbrauch. Dafür ist die Implementierung von bestimmten Algorithmen komplizierter, da bei jeder Berechnung vom Programmierer bedacht werden muss, ob es möglicherweise zu Überläufen in der Zahlendarstellung kommen kann und auf welcher Stelle sich das Binärkomma befindet. Ein typisches Anwendungsfeld von Festkomma-DSPs ist beispielsweise die Verarbeitung von Audiosignalen. Typische Vertreter von Signalprozessoren mit Festkommaarithmetik ist die DSP-Serie ADSP218x und Blackfin BF53x von Analog Devices sowie die TMS320VC5x von Texas Instruments. Signalprozessoren mit Gleitkommaarithmetik sind komplexer im Aufbau, da ihre Rechenwerke die kompliziertere Darstellung der Gleitkommazahlen verarbeiten können. Damit ist bei gleicher Rechenleistung meist ein höherer Stromverbrauch verbunden. Der Vorteil liegt in der meist einfachen Implementierung von komplizierten Algorithmen. Ein typisches Anwendungsfeld von Gleitkomma-DSPs ist beispielsweise die Verarbeitung von Videosignalen. Typische Vertreter von Signalprozessoren mit Gleitkommaarithmetik sind die als SHARC bezeichneten Bausteine von Analog Devices und die TMS320VC67x von Texas Instruments. Beispiel. in dem quasi-gleichzeitig eine Gleitpunktmultiplikation, eine Gleitpunktaddition, eine Gleitpunktsubtraktion, ein Schreibzugriff auf den Speicher mit modulo-zyklischem Postincrement/-decrement sowie ein Lesezugriff auf den Speicher mit modulo-zyklischem Postincrement/-decrement stattfindet. Geschichte. In den frühen 1970ern entstand in den Lincoln Laboratories der Lincoln FDP ("Fast Digital Processor") mit von-Neumann-Struktur als der erste dedizierte digitale Signalprozessor. Anschließend wurde mit der besser geeigneten Harvard-Architektur der LSP/2 gefertigt. Allerdings bestand dieser Rechner noch aus mehreren 1000 diskreten ICs. Die ersten Einzelchip-DSPs kamen in den frühen 1980ern auf den Markt. Typische Vertreter waren der Intel 2920, TMS32010 von Texas Instruments oder der NEC µPD7720. Gegenwart. Elemente von DSPs finden sich auch zunehmend in Desktop-CPUs wieder, wie zum Beispiel in den AltiVec-Erweiterungen des PowerPC oder (abgeschwächt) in den SIMD-Erweiterungen von Intel und AMD. Dies liegt an der zunehmenden Verbreitung von Multimedia-Inhalten; Datenformate wie das JPEG-Format, MP3 oder MPEG2 erfordern eine DCT-Kodierung beziehungsweise -Dekodierung, deren Berechnung eigentlich eine klassische DSP-Aufgabe ist. Auch die Berechnung der immer weiter verbreiteten Verschlüsselung profitiert von diesen Befehlssatz-Erweiterungen. Auch im Bereich der Embedded Systeme werden die Microcontroller durch DSP-Funktionalitäten ergänzt, wodurch die Rechenleistung gesteigert und der Stromverbrauch gesenkt werden kann. Typische Beispiele sind der ARM Cortex M4, die Erweiterung NEON bei den großen ARM-Cortex-Cores, der dsPIC von Microchip sowie die XS1-Serie von XMOS. Zukunft. Der generische DSP bekommt zusehends Konkurrenz durch RISC/CISC-CPUs, die mit speziellen Erweiterungen komplexe Rechenaufgaben wie RSA/AES/3DES hoch optimiert abarbeiten können. Darüber hinaus werden Aufgaben zur schnellen Signalverarbeitung vermehrt in flexible parallele digitale Strukturen verlagert, wie sie z.B. in immer leistungsfähigeren Field Programmable Gate Arrays (FPGAs) zunehmend und kostengünstig zur Verfügung stehen. Schiffshebewerk. Eines von vier alten hydraulischen Hebewerken im belgischen Canal du Centre Ein Schiffshebewerk ist eine Vorrichtung (Abstiegsbauwerk), mit der Schiffe große Höhenunterschiede in Schifffahrtswegen überwinden können. Hebewerke haben gegenüber Schleusen die Vorteile, dass mit ihnen größere Höhenunterschiede überwunden werden können und dass beim Hebe- oder Absenkvorgang der oberen Haltung fast kein Wasser verloren geht. Dies wird aber damit erkauft, dass Hebewerke durch einen größeren technischen Aufwand teurer sind und dass aufgrund der gewaltigen Gewichtskräfte größere Schiffe nicht mit ihnen gehoben und gesenkt werden können. Technischer Vorgänger des Schiffshebewerks ist der Rollberg. Klassifikation. Schiffshebewerke werden nach verschiedenen Kriterien klassifiziert, nämlich nach der Methode der Förderung, der Richtung der Förderung sowie der Art des Antriebs und des Gewichtsausgleichs. Bei Schiffshebewerken, die mehrere Schiffe gleichzeitig befördern können, unterscheidet man darüber hinaus noch Zwillings- von Doppelhebewerken. Methode der Förderung. Es gibt die Trocken- und die Nassförderung. Trockenförderung. Schiffseisenbahn am Kanal Elbing-Osterode, Trockenförderung Bei der "Trockenförderung" wird das Schiff aus dem Wasser herausgehoben, über den zu überwindenden Höhenunterschied transportiert und anschließend wieder ins Wasser eingesetzt. Dies hat die Vorzüge, dass ohne zusätzliches Wasser allein die Masse von Schiff und Ladung bewegt werden muss und dass vom Oberwasser kein Volumen ans Unterwasser verloren geht. Nachteilig ist zumindest bei größeren so geförderten Schiffen, dass eine Beschädigung des Schiffsrumpfes droht, sofern dieser nicht speziell für die Trockenförderung ausgerüstet ist. Im einfachsten Fall wird bei der Trockenförderung das Schiff auf einem Gleitweg über Land gezogen. Dies ist die älteste Form des Schiffshebewerkes, man spricht hier von einer "Schleppbahn" oder einer "Bootsschleppe". Um den Reibungswiderstand zu mindern, können Holzbalken oder Rollen in die geneigte Ebene eingelassen sein. Bereits aus dem alten Ägypten ist überliefert, dass Stromschnellen des Nil auf solchen Schleppbahnen umgangen wurden. Stattdessen kann das Schiff auch mittels eines speziell konstruierten, auf Schienen laufenden Transportwagens aus dem Wasser gezogen und transportiert werden. Dieses auch Schiffseisenbahn genannte Verfahren wurde beispielsweise bei den "Geneigten Ebenen" des Oberländischen Kanals Elbing-Osterode () in Ostpreußen und bei der "Big Chute Marine Railway" im Trent-Severn-Wasserweg in Kanada benutzt. Nassförderung. Bei einem Schiffshebewerk mit "Nassförderung" wird das Schiff in einem großen Trog schwimmend gehoben oder gesenkt. Beide Seiten des Troges und die Kanalabschnitte sind mit Toren abgedichtet, die nur zur Ein- und Ausfahrt der Schiffe geöffnet werden. Im Gegensatz zur Trockenförderung bleibt hier das Schiff im Wasser, Beschädigungen des Rumpfes sind also ausgeschlossen. Überdies ist die Nassförderung in der Regel schneller, denn das Schiff muss lediglich festgemacht werden, ähnlich wie in einer Schleuse. Jedoch muss bei dieser Methode die wesentlich höhere Masse von Trog mitsamt Wasserfüllung bewegt werden. Die Masse des Troges ist bei der Nassförderung mit oder ohne Schiff immer gleich groß, da ein Schiff genau sein Eigengewicht an Wasser verdrängt (Archimedisches Prinzip). Deswegen kann das Gegengewicht, oder die Auftriebskraft der Schwimmer so fein eingestellt werden, dass die Antriebsleistung im Verhältnis zum bewegten Masse sehr niedrig bleibt. So benötigt das Schiffshebewerk Scharnebeck bei Lüneburg nur vier Elektromotoren mit jeweils 160 kW Leistung, um den Trog mit etwa 5.800 t Masse zu heben. Richtung der Förderung. Nach der Richtung der Förderung werden vier Varianten unterschieden, nämlich Längsförderung, Querförderung, vertikale Förderung und Rotationsförderung. Längsförderung. a> am Jenissei in Sibirien, Längsförderung Bei der Längsförderung wird das Schiff im Hebewerk in Richtung seiner gewöhnlichen Fahrt über eine schiefe Ebene bewegt. Längsförderung ist die einfachste Art der Beförderung. Sie taugt aber nur für relativ geringe Steigungen. Beispiele dafür sind der Schrägaufzug von Ronquières oder das Schiffshebewerk Krasnojarsk. Eine besondere Variante einer längsgeneigten Ebene mit Nassförderung ist das Wasserkeilhebewerk, bei dem das Schiff nicht in einem Trog transportiert wird, sondern im Wasser schwimmend eine schiefe Ebene zusammen mit diesem „Wasserkeil“ hinauf gedrückt wird. Es gibt zwei solcher Hebewerke in Südfrankreich, eines im Canal du Midi parallel zur Schleusentreppe von Fonserannes, das mittlerweile außer Betrieb ist, und eines im Canal latéral à la Garonne (Garonne-Seitenkanal) bei Montech. Querförderung. Hier wird das Schiff über eine quer zu seiner Einfahrtrichtung geneigte Ebene befördert. Mit Querförderung können wesentlich stärkere Steigungen überwunden werden als mit Längsförderung. Ein Beispiel für diese Bauart ist der Arzviller. Vertikale Förderung. Vertikal-Schiffshebewerke befördern die Schiffe senkrecht nach oben oder unten. Bei einer Variante hängt der Trog dabei an Seilen und wird von Gegengewichten ausbalanciert, also nicht anders als bei einem gewöhnlichen Aufzug, jedoch mit erheblich höheren Seilkräften (siehe auch: Wandernde Seillast). Bei der anderen Variante ruht der Trog auf Schwimmern, die in tief in den Boden eingelassenen Wassertanks schwimmen, sogenannten Tauchschächten oder Brunnen. Eine dritte Variante ist das hydraulische Hebewerk (z. B. in Belgien oder in England), bei dem immer zwei Tröge durch Hydraulikleitungen miteinander verbunden sind. Rotationsförderung. In einem Rotations-Schiffshebewerk werden die Schiffe in zwei Gondeln bewegt, die ähnlich wie bei einem Riesenrad um eine Mittelachse rotieren. Bisher wurde weltweit nur ein einziges solches Schiffshebewerk mit Rotationsförderung gebaut, das Falkirk Wheel in Schottland. Art des Antriebs und des Gewichtsausgleichs. Bis zum Beginn des Industriezeitalters kam ausschließlich die Muskelkraft von Tieren oder Menschen zum Einsatz, um Schiffe über Land zu befördern. Diese wurden entweder direkt oder mit Hilfe von Seilwinden oder Flaschenzügen gezogen. Gegengewichte. Nahezu alle neuzeitlichen Schiffshebewerke nutzen Gegengewichte, um das Gewicht des Troges einschließlich des Schiffes so weit wie möglich auszugleichen. Gegengewichts-Schiffshebewerke arbeiten nach dem Prinzip der Atwoodschen Fallmaschine. Auch wenn das Gegengewicht nicht im eigentlichen Sinne als Antrieb bezeichnet werden kann, so erleichtert seine Verwendung doch ganz erheblich den Hebevorgang, da nun lediglich noch Reibungskräfte überwunden werden müssen. Vermutlich wurde das Prinzip des Gegengewichts beim Karren von Zafosina im späten Mittelalter erstmals genutzt, bei dem das Gewicht des hinabfahrenden Bootes das Hinaufziehen eines gleichzeitig auffahrenden Bootes unterstützte. Zwillings- und Doppelhebewerke. Tritt an die Stelle eines „toten“ Gegengewichts aus Beton o. ä. ein zweiter Trog, so spricht man von einem Zwillingshebewerk. Bei einem solchen fährt immer zugleich ein Trog nach unten und der andere nach oben. Ein Hebewerk mit zwei Trögen dagegen, die unabhängig voneinander fahren können, nennt man ein Doppelhebewerk. Wasserballastantrieb. Einige Schiffshebewerke mit Gegengewicht kommen ganz ohne äußeren Antrieb aus, indem der obere Trog etwas höher befüllt wird als der untere und danach schwerer ist als sein Gegengewicht. Dazu fährt der Trog am oberen Schleusentor etwas tiefer an als der am unteren. Nach Hinunterfahrt und dem Niveauausgleich am unteren Schleusentor ist er dann wiederum leichter als sein Gegengewicht. Wie bei einer Wasserballastbahn bewegt sich hier der schwerere Trog aufgrund der Schwerkraft nach unten und befördert zugleich das Gegengewicht bzw. bei Zwillingshebewerken den gegenlaufenden Trog nach oben. Hydraulischer Antrieb. Beim hydraulischen Antrieb ruhen die Tröge auf Presskolben, die sich in unterirdischen Hydraulikzylindern bewegen. Der zum Heben des Troges notwendige Druck kann von einer Hydraulikpumpe geliefert werden. Meist werden hydraulische Hebewerke jedoch als Zwillingsanlagen konzipiert, bei denen der sich senkende Trog das Arbeitsmedium über eine Druckrohrleitung in den Zylinder des sich hebenden Troges drückt (Gegengewichtsprinzip). Der Wasserstand wird dazu im oberen Trog etwas höher als im unteren Trog eingestellt, so dass dieser schwerer wird. Fast alle hydraulischen Schiffshebewerke sind als Zwillingsanlagen mit Wasserballastantrieb konzipiert. Externe Hydraulikpumpen dienen hier nur zum Ausgleich von Wasserverlusten durch Leckage, zum Betrieb von Nebenaggregaten wie Torantrieben, und evtl. zum Notbetrieb mit nur einem Trog. Elektrischer Antrieb. Mit Ausnahme der beiden dieselmotorgetriebenen französischen Wasserkeilhebewerke werden alle nach 1917 neu eröffneten Schiffshebewerken von Elektromotoren angetrieben, häufig jedoch unterstützt durch Wasserballast. Geschichte. Seit die Menschheit Schifffahrt betrieb, wurden Schiffe gelegentlich auch – zumindest für kurze Distanzen – über Land gezogen. Von einem Schiffshebewerk im Sinne dieses Artikels wird jedoch erst dann gesprochen, wenn mechanische Einrichtungen installiert sind, um den Schiffstransport möglich zu machen oder zu erleichtern. Vorläufer in den Niederlanden. Als direkte Vorläufer der heutigen Schiffshebewerke können die niederländischen "Overtooms" gelten. Diese Overtooms waren einfache Holzrampen, über die Boote mit Hilfe einer Seilwinde gezogen werden konnten. Es hat vermutlich Hunderte dieser Übergänge gegeben, die jedoch mit einer Ausnahme ausschließlich dem Transport kleiner Boote dienten. Die Ausnahme war ein Overtoom bei Zaandam, der von 1609 bis 1718 in Betrieb war. Er konnte auch Seeschiffe damals üblicher Größe heben. Lediglich bei Venhuizen und Rijpwetering gibt es heute noch zwei Overtooms, sie wurden rekonstruiert und sind nicht mehr betriebsfähig. Nach der Stilllegung der letzten Overtooms im frühen 20. Jahrhundert arbeiten in den Niederlanden keine Schiffshebewerke mehr. Der Ducart’s Canal. Die ersten echten Schiffshebewerke der Neuzeit wurden am "Ducart’s Canal" in Nordirland errichtet. Dieser 1777 vollendete Kanal sollte die Kohlengruben bei Drumglass mit dem River Blackwater verbinden. An drei Stellen mussten Höhenunterschiede zwischen 16 m und 21 m überwunden werden. Dafür wurden Rampen mit Holzrollen und für Zwillingsbetrieb ausgelegte Seilwinden angelegt. Doch die Konstruktion bewährte sich nicht und wurde bereits zehn Jahre später wieder stillgelegt. Die schiefe Ebene von Ketley. An einem kurzen Werkskanal, auf dem Kohle zu den Hüttenwerken von Ketley transportiert werden sollte, wurde 1788 ein Zwillingshebewerk mit Längsförderung angelegt. Hier wurden Boote mit einer Nutzlast von etwa 8 t über einen Höhenunterschied von rund 22 m transportiert. Auf Schienen fahrenden Wagen trugen die Wasserfahrzeuge. Ein abfahrendes und deshalb beladenes Boot zog dabei immer ein unbeladenes nach oben. Die Anlage brauchte daher keinen Antrieb, es musste lediglich ein Bremser dafür sorgen, dass die Geschwindigkeit nicht zu hoch wurde. Weitere schiefe Ebenen. Das Werk bei Ketley arbeitete sehr erfolgreich bis zur Schließung des Hüttenwerks etwa im Jahre 1816. Nach seinem Vorbild wurden in Folge zahlreiche weitere schiefe Ebenen erbaut. Diese waren allerdings ausschließlich ausgelegt für den Transport kleiner unbemannter Leichter mit einer Zuladung zwischen etwa fünf und zehn Tonnen, sogenannter "Tub-Boats". Zu den spektakulärsten Konstruktionen dieser Zeit dürfte das unterirdische Schiffshebewerk im Inneren der Kohlengrube von Worsley gehören. Hier konnten Boote mit einer Tragfähigkeit von bis zu zwölf Tonnen vom Bridgewater-Kanal aus direkt in die Grube einfahren und dort beladen werden. Diese Konstruktion wurde von Francis Henry Egerton, 8. Earl of Bridgewater in seinem Buch "Description du Plan Incliné Souterrain", erschienen in Paris im Jahr 1812, ausführlich beschrieben. Diese Hebewerke aus der Frühzeit der Industrialisierung sind heutzutage ausnahmslos stillgelegt. In den meisten Fällen sind lediglich noch Überreste zu erkennen. Der Schrägaufzug von Hay, der von 1792 bis 1894 in Betrieb war und den nur wenige Kilometer langen Shropshire-Union-Kanal mit dem Fluss Severn verband, kann allerdings besichtigt werden, ebenso wie einige "Tub-Boats" auf dem Gelände des Freilichtmuseums Blists Hill Victorian Town, einer Abteilung des zum UNESCO-Weltkulturerbe gehörigen Museumskomplexes Ironbridge. Trockenförderung: Die Kahnhäuser in Sachsen. Das vermutlich erste Vertikal-Schiffshebewerk der Welt wurde 1788/89 nördlich von Freiberg im Tal der Freiberger Mulde bei Halsbrücke im Lauf des "Churprinzer Bergwerkskanal" gebaut. Dieses sogenannte Kahnhebehaus konnte knapp drei Tonnen schwere Kähne mittels Flaschenzügen um knapp sieben Meter heben. Zum Betrieb waren 6 Personen nötig.Ein weiteres Kahnhebehaus folgte im Jahr 1791 im Verlauf des "Christbescherunger Bergwerkskanal" in der Nähe von Großvoigtsberg. In beiden Fällen setzte man auf Trockenförderung. Die restaurierten Mauerwerke beider Kahnhebehäuser können auch heute noch besichtigt werden. Nassförderung: Der Grand Western Canal. Schema der Hebewerke im Grand Western Kanal Reste des Nynehead-Lifts im Grand Western Kanal Der Grand Western Canal sollte ursprünglich eine Verbindung zwischen dem Bristolkanal und dem Ärmelkanal herstellen, der südliche Zweig bis Exeter wurde jedoch nie fertiggestellt. An diesem Kanal wurden neben einer geneigten Ebene mit nasser Längsförderung bei Wellisford insgesamt sieben Vertikal-Hebewerke gebaut. Diese Vertikal-Hebewerke nutzten das Gegengewichtsprinzips, wobei jeweils zwei Tröge über Drahtseile und Rollen miteinander verbunden waren. Die zwischen 1830 und 1836 in Betrieb genommenen Anlagen waren die ersten Vertikal-Hebewerke der Welt mit Nassförderung. Wegen geringen Verkehrsaufkommens und der zunehmenden Konkurrenz durch die Eisenbahn wurde dieser Kanal allerdings bereits 1867 wieder geschlossen. Von den Hebewerken sind heute nur noch Mauerreste erhalten. Der Chard Canal: Erste geneigte Ebenen mit Nassförderung. Nasse Längsförderung mied man lange Zeit. Zu groß war die Befürchtung, dass während des Transports das Wasser im Trog überschwappen könnte, insbesondere beim Beschleunigen und Bremsen. Vermutlich die ersten geneigten Ebenen mit Nassförderung waren vier für Tub-Boats ausgelegte Anlagen am englischen Chard Canal, der das Städtchen Chard in der Grafschaft Somerset mit dem Bridgwater and Taunton Canal verband. Der 1842 eröffnete Kanal rentierte sich jedoch niemals. Bereits 1853 wurde die Betreiberfirma insolvent, und 1866 wurde der Kanal wieder geschlossen. Das hydraulische Schiffshebewerk Anderton. → "Hauptartikel:" Schiffshebewerk Anderton Beim zwischen 1872 und 1875 erbauten Schiffshebewerk Anderton warteten zwei Herausforderungen auf die Konstrukteure: Zum einen sollten hier erstmals nicht nur Tub-Boats, sondern vollwertige Narrowboats in Nassförderung transportiert werden können, womit das Gewicht der gefüllten Tröge auf über 250 t anwuchs, einen bisher nie erreichten Wert. Zum anderen stand zu wenig Platz zur Verfügung, um die rund 15 m Höhenunterschied zwischen dem Trent and Mersey Canal und dem River Weaver mit einer geneigten Ebene zu überwinden. Man entschied sich daher dafür, die beiden Tröge nicht an über Umlenkrollen laufende Drahtseile zu hängen, sondern auf in unterirdischen Zylindern laufenden Presskolben abzustützen. Obwohl der hydraulische Betrieb häufig Probleme bereitete, wurde das Hebewerk Anderton zum Vorbild für eine ganze Reihe weiterer hydraulischer Schiffshebewerke, unter anderem für die vier Hebewerke am belgischen Canal du Centre. Anderton selbst wurde am Anfang des 20. Jahrhunderts auf elektrischen Betrieb mit Seilen und Umlenkrollen umgebaut und erst 2001 im Zuge der Restaurierung wieder auf hydraulischen Betrieb umgestellt. Schwimmer statt Gegengewichte: Henrichenburg. → "Hauptartikel:" Schiffshebewerk Henrichenburg Das 1899 eröffnete "Alte Schiffshebewerk Henrichenburg" verwendete anstelle von Gegengewichten erstmals Schwimmer. Der Trog ruhte über Stützen auf fünf luftgefüllten Hohlkörpern aus Stahl, die sich in 40 m tiefen wassergefüllten Schächten auf- und abbewegten. Aufgrund der Stützen blieben diese Hohlkörper auch dann vollständig mit Wasser bedeckt, wenn der Trog ganz nach oben gefahren war. Der Auftrieb dieser Schwimmkörper war so berechnet, dass er die Gewichtskraft des wassergefüllten Troges genau ausglich. Das Prinzip der Auftriebskörper wurde später auch beim 1938 eröffneten Schiffshebewerk Rothensee sowie beim "Neuen Hebewerk Henrichenburg" (1962) verwendet. Die Wasserkeile von Montech und Fonserannes. → "Hauptartikel:" Wasserkeilhebewerk von Montech Im Zuge von Modernisierungsarbeiten wurde 1973 am Canal latéral à la Garonne bei Montech erstmals ein Hebewerk nach dem Prinzip des Wasserkeils in Betrieb genommen. Es ersetzt fünf Schleusen. Dieses Hebewerk war bis zu einem Motorschaden im Mai 2009 in Betrieb. Zehn Jahre nach Montech sollte am Canal du Midi neben der Schleusentreppe von Fonserannes ein zweites Wasserkeilhebewerk in Betrieb gehen. Auch hier wie in Montech war der Grund, dass die Schleusen aus dem 17. Jahrhundert für die standardisierten Frachtschiffe zu klein geworden waren. Doch war vor der Inbetriebnahme des Wasserkeils die Frachtschifffahrt auf dem Canal du Midi ohnehin völlig zum Erliegen gekommen. Die Sportschifffahrt erlebte währenddessen einen steilen Aufschwung, und die Freizeitschiffer bevorzugen die zwar langwierigere, dafür aber wesentlich spektakulärere Fahrt durch die sechsstufige Schleusentreppe. Vermutlich deshalb ist der Wasserkeil von Fonserannes bis heute nicht in Betrieb genommen worden. Rotationshebewerk: Das Falkirk Wheel. → "Hauptartikel:" Falkirk Wheel Das Falkirk Wheel ist das weltweit einzige bisher gebaute Rotations-Schiffshebewerk und neben dem Hebewerk Anderton eines der nur zwei in Großbritannien noch betriebenen Hebewerken. Alle bisher erwähnten Schiffshebewerke wurden ursprünglich für die Lastschifffahrt gebaut. Das 2002 in Betrieb gegangene Falkirk Wheel hingegen dient ausschließlich der Freizeitschifffahrt. Es stellt die Verbindung zwischen dem Forth and Clyde Canal und dem Union Canal wieder her, nachdem die ursprünglich beide Kanäle verbindende Schleusentreppe in den 1930er Jahren zugeschüttet und überbaut worden war. Rekorde, Besonderheiten. Schiffshebewerk Krasnojarsk am Jenissei: Mit 102 m ist es bis zur Eröffnung des Hebewerks am Drei-Schluchten-Damm das größte Schiffshebewerk der Welt. Es ist eine schiefe Ebene ohne Gegengewichte mit per Zahnrad selbstfahrenden Trog und einer Drehscheibe am Scheitel. Gebaut wurde es von 1970 bis 1976 durch Lenhydroproject (LHP). Das zurzeit noch größte vertikale Schiffshebewerk der Welt (mit Gegengewichten) wurde im Jahr 2002 in Belgien in der Provinz Hennegau (frz. "Hainaut") im Canal du Centre eröffnet und ist unter dem Namen "Strépy-Thieu" bekannt. Es hat eine Hubhöhe von 73,15 m und hat zwei voneinander unabhängige Tröge von je 8.000 t Masse. Es ersetzt die vier hydraulischen Hebewerke im alten Teil des Kanals, die für die kommerzielle Lastenschifffahrt im Laufe der Jahrzehnte zu klein geworden sind, aber aus touristischen Gründen weiterhin erhalten werden sollen. Als ein Bau der Superlative entsteht derzeit (Bau voraussichtlich bis 2015) am Drei-Schluchten-Damm am Jangtsekiang in der Volksrepublik China ein Senkrecht-Schiffshebewerk mit Gegengewichten, das bis zu 113 m überwindet. Dabei müssen schwankende Wasserstände von im Oberwasser bis zu 30 m und im Unterwasser bis zu 21 m bewältigt werden. Der Trog soll 120 m lang und 18 m breit werden und soll Schiffe einer Länge von bis zu 84,5 m, einer Breite von bis zu 17,2 m und einem Tiefgang von bis zu 2,65 m aufnehmen. Sein Gewicht inklusive Wasser wird 11.800 t betragen. Darin sollen Schiffe von bis zu 3.000 t gehoben werden. Die bisherige Transferzeit eines Schiffs mittels der bestehenden Schleusen beträgt drei bis vier Stunden. Das Schiffshebewerk wird die Transferzeit auf vierzig Minuten reduzieren. In Frankreich gibt es bei Arzviller in Lothringen mit dem Arzviller ein Schrägseil-Schiffshebewerk mit einem Trog von 900 t und Gegengewichten, der eine Hubhöhe von 45 m überwindet. Schiffsschleuse. Ein Binnenschiff wird in der Schleuse Neckarzimmern zur flussaufwärtigen Weiterfahrt gehoben. Eine Schiffsschleuse – für kleine Schiffe: Bootsschleuse –, kurz auch Schleuse genannt, ist eines mehrerer möglicher Ingenieurbauwerke, das Wasserfahrzeugen ermöglicht, etwa durch Staustufen zur Schiffbarmachung eines Wasserlaufes oder Kanalstufen bedingte Wasserstandsunterschiede zwischen einzelnen Abschnitten einer Wasserstraße zu überwinden. Ihr Kennzeichen ist eine "Kammer" zwischen zwei Teilen des Wasserlaufs mit verschiedenem Wasserniveau (zwischen "Unter- und Oberwasser"). Gegen beide Teile kann sie mit "Schleusentoren" wasserdicht abgeschlossen werden. Während der "Schleusung" eines Wasserfahrzeugs sind beide Tore geschlossen, und die Kammer wird für dessen Heben beziehungsweise Senken auf das obere Niveau gefüllt beziehungsweise auf das untere Niveau geleert. Nach Bauweise oder Funktionsprinzip werden verschiedene Schleusentypen unterschieden, beispielsweise Doppelschleuse, Sparschleuse, Zwillingsschleuse, Schachtschleuse oder Koppelschleuse. Je nach Standort werden diese Bauwerke dann Binnenschleusen, Seeschleusen oder Hafenschleusen genannt. Auf ein Schleusenbauwerk können auch mehrere der genannten Unterscheidungsmerkmale zutreffen. Zur Bezeichnung einer einzelnen Schleuse erfolgt meist die Beschränkung auf ein oder zwei Merkmale. Zwei oder mehrere konstruktiv voneinander unabhängige Schiffsschleusen einer Fallstufe werden als Schleusengruppe bezeichnet; Beispiel: Schleusengruppe Münster des Dortmund-Ems-Kanals. Schleusen werden den Abstiegsbauwerken zugerechnet. Unter diesen Oberbegriff fallen auch andere technische Lösungen zur Überwindung von Pegelunterschieden, etwa das dem Funktionsprinzip eines Fahrstuhls ähnliche Schiffshebewerk. Bauweisen und Funktionsprinzip. Eine Schleuse besteht aus einer Schleusenkammer, bei einer "Doppelschleuse" aus zwei konstruktiv in einem Bauwerk miteinander verbundenen Schleusenkammern, und für jede Kammer aus zwei oder mehr Schleusenhäuptern mit Schleusentoren, von denen im Allgemeinen nie mehr als eines gleichzeitig geöffnet ist. Schleusen mit mehr als zwei Toren gibt es beispielsweise an Kreuzungen von Kanalsystemen, so die Kesselschleuse in Emden und die Rundschleuse von Agde, oder zur Unterteilung einer langen Schleusenkammer mit einem Mitteltor wie am Main. Bei geschlossenen Schleusentoren lassen sich der Wasserspiegel in der Schleusenkammer und mit ihm die in der Schleusenkammer schwimmenden Schiffe durch Wasserzulauf aus dem Oberwasser auf das Niveau des Oberwassers heben oder durch Ablauf auf das des Unterwassers senken. Ist der jeweilige Wasserspiegel erreicht, wird das abgrenzende Schleusentor geöffnet und die Schiffe können aus der Schleusenkammer in den angrenzenden Gewässerabschnitt ausfahren oder aus diesem in die Schleuse einfahren. Für Zu- und Ablauf sind bei Fließgewässern keine Pumpen nötig; das Wasser fließt aus dem Oberwasser in die Schleusenkammer ein und beim Senken aus der Schleusenkammer in das Unterwasser ab. Bei Schifffahrtskanälen geht bei Schleusungen Wasser aus der oberen Haltung in die untere verloren. Zum Ausgleich wird Wasser zurückgepumpt oder es wird bei "Sparschleusen" ein Teil des Schleusungswassers beim Entleeren der Schleusenkammer in seitliche Sparbecken geleitet und für die nächste Füllung wieder verwendet. Beispiele hierfür sind die Doppelsparschleuse Anderten des Mittellandkanals und die Sparschleuse Henrichenburg des Dortmund-Ems-Kanals. Eine Variante ist die "Zwillingsschleuse", bei der ein Teil des Schleusungswassers der einen Schleusenkammer zum Füllen der anderen Schleusenkammer einer Doppelschleuse verwendet wird; Beispiel: Schleuse Herne-Ost des Rhein-Herne-Kanals. Zum Füllen und Leeren der Kammer dienen Schieber wie Plattenschütze oder Segmentschütze. Diese befinden sich bei älteren Schleusen direkt in den Schleusentoren oder in den Torumläufen. Bei Schiffsschleusen im 21. Jahrhundert sind die Schieber in Längskanälen eingebaut. Um Turbulenzen beim Füllen der Schleusenkammer zu minimieren, wird das Wasser durch Längskanäle in den Kammerwänden oder in der Kammersohle (Grundläufe), die über die ganze Länge der Kammer verteilt sind, zugeführt. Die Schieber wurden früher per Hand mit Winden bewegt, inzwischen werden die Schieber hydraulisch oder mit Elektrohubzylindern bewegt. Schleusen werden im Allgemeinen für Fallhöhen bis etwa 25 Meter eingesetzt; für größere Höhen sind meist Schiffshebewerke erforderlich. Aus wirtschaftlichen Gründen werden möglichst wenige Fallstufen vorgesehen, die dafür eine größere Fallhöhe besitzen. Schiffsschleusen mit großer Fallhöhe, deren Schleusenkammer über der Durchfahrtsöffnung zum Unterwasser hin mit einer Quermauer (Maske) abgeschlossen sind, werden als "Schachtschleusen" bezeichnet; Beispiel: Doppelschachtschleuse Anderten des Mittellandkanals. Schleusen, die große Fallhöhen überwinden müssen, können auch als "Schleusentreppe" mit mehreren unmittelbar aufeinander folgenden Schiffsschleusen samt ihren Schleusenvorhäfen realisiert werden. Beispiele hierfür sind die Schleusentreppe von Fonserannes in Frankreich, die Schleusentreppe Niederfinow der Havel-Oder-Wasserstraße in Deutschland (36 m Fallhöhe, 1934 durch ein Schiffshebewerk ersetzt), die Schleusentreppe am Drei-Schluchten-Damm in China oder die Wytegra-Schleusentreppe im Wolga-Ostsee-Kanal (80 m Fallhöhe) in Russland. Mehrere unmittelbar hintereinander liegende Schleusenkammern, bei denen das Untertor der einen zugleich Obertor der nächsttieferen Schleusenkammer ist, werden "Koppelschleuse" genannt. Schleusen in Fließgewässern stauen bei geschlossenen Schleusentoren das Wasser und brauchen deshalb ein paralleles Wehr, über das das gestaute Wasser abfließen kann, soweit es nicht zur Schleusung gebraucht wird. Bei "Seeschleusen" an der Einfahrt von Hafenbecken oder von Seekanälen mit Anschluss an Tidegewässer ist die See tideabhängig mal Oberwasser und mal Unterwasser, während der Wasserspiegel des Hafenbeckens oder Kanals konstant gehalten wird. Solche "Sperr- oder Schutzschleusen" werden auch im Binnenbereich an Einmündungen von Schifffahrtskanälen in Flüsse mit zu erwartendem Hochwasser verwendet; Beispiel: Sperrschleuse Hanekenfähr des Dortmund-Ems-Kanals. Bei dieser Konstruktion erübrigt sich ein Wehr. Eine "Dockschleuse" besteht nur aus einem Schleusenhaupt (wie bei einem Trockendock, daher der Name). Dieser Schleusentyp wurde vielfach im 19. Jahrhundert gebaut. Da er keine Schleusenkammer benötigt, wird Platz und Geld gespart. Die Schleusung erfolgt nur bei gleichem Wasserstand vor und hinter dem Schleusenhaupt (bei tideabhängigen Seehäfen), das Zeitfenster beträgt hierfür etwa 1 Stunde, ein gravierender Nachteil dieses Schleusentyps. Auch bei Kammerschleusen kann eine Dockschleusung durchgeführt werden, dies ist erforderlich, wenn die Länge des Schiffskörpers die der Schleusenkammer übersteigt. Geschichte. a> aus dem 16. Jahrhundert (außer Betrieb) Das Wort "Schleuse" leitet sich vom mittellateinischen "sclusa" (Wehr) ab, das seinen Ursprung im lateinischen "excludere" (ausschließen) hat. Der griechische Historiker Diodor berichtet, bei der Wiederherstellung des (unter Pharao Necho II. begonnenen, aber wohl erst unter dem Perserkönig Dareios I. im Jahr 498 v. Chr. vollendeten) Bubastis-Kanals zwischen Nil und rotem Meer um 280 v. Chr. habe der griechische König Ptolemaios II. Philadelphos (284 bis 246 v. Chr.) an dessen Ostende eine Doppel(?)-Schleuse einbauen lassen. Dieser Kanal verfiel im 1. Jh. v. Chr., wurde aber unter dem römischen Kaiser Trajan im 2. Jh. n. Chr. wiederhergestellt. Mit Einschränkungen war der Kanal bis ins späte 8. Jh. n. Chr. in Benutzung. In China wurde die Kanalschleuse für Schiffe im Jahre 984 durch Qiao Weiyue, stellvertretenden Kommissar für Transport in Huainan erfunden. Bis dahin wurden in den dortigen Kanälen Höhengefälle durch Rutschbahnen oder Rampen überwunden, was die Schiffe wiederholt beschädigte und zum Diebstahl der Ladung führte. Bei Trockenheit war der Betrieb der Rutschbahnen zudem sehr eingeschränkt. Qiao Weiyue ließ nun zwei „hängende Tore“ im Abstand von 50 Schritten (76 m) errichten, den Zwischenraum überdachen, das Ufer befestigen und baute so eine Schleuse. Fortan waren Höhenunterschiede von 1,2 bis 1,5 m pro Schleuse kein Problem mehr. Im Jahr 1325 wurde in Deutschland die erste Schiffsschleuse als "Kammerschleuse" gebaut. Technische Vorläufer waren "Stauschleusen" und "Wehre mit Bootsrutschen". Stauschleusen waren Wehre, die nach dem Aufstauen geöffnet wurden; die Kähne schwammen dann auf der Flutwelle talwärts. Bei Wehren mit Bootsrutschen wurde der Kahn auf einer Rampe hinauf- bzw. heruntergelassen; solche Bootsrutschen waren auf kleinen kommerziell genutzten Wasserläufen bis ins 19. Jahrhundert im Gebrauch. Am Hochrhein zwischen Eglisau und Rheinfelden sind mehrere Bootsrutschen (amtlich: Slipp-Anlagen) und Transportkarren für Motorboote bis zu 20 m oder 30 m Länge erhalten. An Schleusen anderer Gewässer werden für die Passage von Schiffen oder kleinen Sportbooten Fischtreppen oder Bootsgassen als Schussrinne für Sportboote errichtet. Rekorde. Die größte Schleuse in Deutschland und zweitgrößte Schleuse der Welt ist die zum Vorhafen der Marine gehörende Seeschleuse der IV. Einfahrt in Wilhelmshaven. Sie hat zwei Schleusenkammern mit einer Länge von 390 m, einer Breite von 60 m und einer Drempeltiefe von 14,75 m unter mittlerem Hafenwasserstand (Volumen rund 320.000 m³). Ein Schleusentor (Schiebetor) mit einer Durchfahrtsbreite von 60 m wiegt ungefähr 1700 Tonnen. Zum Vergleich mit einer Binnenschleuse: Die Mainschleuse in Ottendorf hat eine Länge von 301 m bei 12 m Breite (Volumen rund 27.500 m³). Die drei Sparschleusen Hilpoltstein, Eckersmühlen und Leerstetten des Main-Donau-Kanals haben mit 24,67 Metern Fallhöhe die größten Fallhöhen aller in Deutschland errichteten Schleusen. Die größte Schleuse der Welt ist die 1989 am rechten Ufer der Schelde eröffnete Berendrecht-Schleuse zum Hafen von Antwerpen in Belgien. Sie ist 500 m lang, 68 m breit und 17,7 m tief (Volumen rund 600.000 m³). Mit einer Schleusung können darin bis zu vier Seeschiffe mit einem Tiefgang von maximal 11,85 m und mehrere Binnenschiffe geschleust werden. Der mittlere Tidenhub vor der Schleuse beträgt 4,94 m. Am linken Ufer der Schelde entsteht zu einem neuen Bereich des Hafens von Antwerpen die "Deurganckdock-Schleuse" gleicher Breite und Länge doch mit 4 m größerer Tiefe, um ab März 2016 Postpanamax-Schiffe mit bis zu 12.000 TEU-Containern aufnehmen zu können. Der Panamakanal wird seit 2007 ausgebaut; ab 2014 werden neue Schleusen mit 427 m Länge und 55 m Breite gebaut (geplante Fertigstellung: 2015; Näheres hier). Heraldik. Eine außergewöhnliche Gemeine Figur stellt die Schleuse im Wappen von Kleinmachnow dar. Solartechnik. Solartechnik ist die Nutzbarmachung der solaren Einstrahlung der Sonne mittels technischer Hilfsmittel und Einrichtungen. Aus der Sonnenstrahlung kann Wärme (z.B. Prozesswärme) oder auch elektrische Energie gewonnen werden. Dabei kann die Primärenergiequelle "Sonne" kostenlos genutzt werden. Es fallen nur Kosten für die Installation und den Unterhalt der Anlagen an. Mit dem stetigen technischen Fortschritt wird die Solartechnik heutzutage sowohl in ihren Eigenschaften, als auch kostenseitig immer effektiver, so dass sie in immer mehr Bereichen Einsatz findet und mit den zuvor genutzten Technologien konkurrieren kann. Dabei profitiert sie auch von steigenden Kosten bei nicht regenerativen Energieträgern. Da das Energieangebot der Sonne tages- und jahreszeitlichen Schwankungen unterliegt, ist die Speicherung der Energie ein unverzichtbarer Bestandteil der Solartechnik. Dezentrale Solarenergienutzung. Solarthermisches Kraftwerk in der kalifornischen Wüste Sonnenenergie. Weltweit verfügbare Sonnenenergie. Die Farben in der Karte zeigen die örtliche Sonneneinstrahlung auf der Erdoberfläche gemittelt über die Jahre 1991–1993 (24 Stunden am Tag, unter Berücksichtigung der von Wettersatelliten ermittelten Wolkenabdeckung).Zur Deckung des derzeitigen Weltbedarfs an Primärenergie allein durch Solarstrom wären die durch dunkle Scheiben gekennzeichneten Flächen ausreichend (bei einem Wirkungsgrad von 8 %). a>, USA, der sein Warmwasser mit Solarenergie erhitzt Als Sonnenenergie oder Solarenergie bezeichnet man die Energie der Sonnenstrahlung, die in Form von elektrischem Strom, Wärme oder chemischer Energie technisch genutzt werden kann. Sonnenstrahlung ist dabei die elektromagnetische Strahlung, die auf der Sonnenoberfläche wegen ihrer Temperatur von ca. 5500 °C als Schwarzkörperstrahlung entsteht, was letztlich auf Kernfusionsprozessen im Sonneninneren (dem Wasserstoffbrennen) zurückgeht. Die Sonnenenergie lässt sich sowohl direkt (z. B. mit Photovoltaikanlagen oder Sonnenkollektoren) als auch indirekt (z. B. mittels Wasserkraftwerken, Windkraftanlagen und in Form von Biomasse) nutzen. Die Nutzung der Solarenergie ist ein Beispiel für eine moderne Backstop-Technologie. Intensität. Die auf die Erde treffende Sonnenstrahlung ist, seitdem sie gemessen wird, annähernd konstant. Es gibt auch keine Hinweise auf deutliche Schwankungen in historischer Zeit. Die durchschnittliche Intensität der Sonneneinstrahlung beträgt an der Grenze der Erdatmosphäre etwa 1,367 kW/m². Dieser Wert wird auch als Solarkonstante bezeichnet. Ein Teil der eingestrahlten Energie wird von der Atmosphäre von festen (z. B. Eiskristallen, Staub) oder flüssigen Schwebeteilchen sowie von den gasförmigen Bestandteilen gestreut und reflektiert. Ein weiterer Teil wird von der Atmosphäre absorbiert und bereits dort in Wärme umgewandelt. Der Rest geht durch die Atmosphäre hindurch und erreicht die Erdoberfläche. Dort wird er wiederum zum Teil reflektiert und zum Teil absorbiert und in Wärme umgewandelt. Unter anderem in der Photosynthese, der Photothermik und der Photovoltaik wird diese Energie nutzbar gemacht. Die prozentuale Verteilung der Einstrahlung auf Reflexion, Absorption und Transmission hängt vom jeweiligen Zustand der Atmosphäre ab. Dabei spielen die Luftfeuchtigkeit, die Bewölkung und die Länge des Weges, den die Strahlen durch die Atmosphäre zurücklegen, eine Rolle. Die auf die Erdoberfläche auftreffende Strahlung beträgt weltweit im Tagesdurchschnitt (bezogen auf 24 Stunden) noch ungefähr 165 W/m² (mit erheblichen Schwankungen je nach Breitengrad, Höhenlage und Witterung). Die gesamte auf die Erdoberfläche auftreffende Energiemenge ist mehr als fünftausend Mal größer als der Energiebedarf der Menschheit. Letztlich wird die gesamte Energie der Sonne in Form von Wärmestrahlung wieder an den Weltraum abgegeben. Nutzung der Sonnenenergie. Der Menge nach größter Nutzungsbereich der Sonnenenergie ist die Erwärmung der Erde, so dass im oberflächennahen Bereich biologische Existenz in den bekannten Formen möglich ist, gefolgt von der Photosynthese der Algen und Höheren Pflanzen. Die meisten Organismen, die Menschen eingeschlossen, sind entweder direkt (als Pflanzenfresser) oder indirekt (als Fleischfresser) von der Sonnenenergie abhängig. Brennstoff und Baumaterial stammen ebenfalls daraus. Die Sonnenenergie ist weiterhin dafür verantwortlich, dass es in der Atmosphäre zu Luftdruckunterschieden kommt, die zu Wind führen. Auch der Wasserkreislauf der Erde wird von der Sonnenenergie angetrieben. Neben diesen „natürlichen“ Effekten gibt es zunehmend eine technische Nutzung vor allem im Bereich Energieversorgung. Da die Sonnenenergie eine regenerative Energiequelle ist, wird ihre Nutzung in vielen Ländern gefördert, in Deutschland beispielsweise durch das Erneuerbare-Energien-Gesetz (EEG). a> (links) und Sonnenkollektor (rechts oben) Speicherung der Sonnenenergie. Die solare Einstrahlung unterliegt tages- und jahreszeitlichen Schwankungen von Null bis zum Maximalwert der Bestrahlungsstärke von rund 1000 W/m². Um die notwendige Energieversorgungssicherheit zu gewährleisten, sind deshalb immer zusätzlich Maßnahmen wie Energiespeicher, Regelungstechnik oder auch Zusatzsysteme wie zum Beispiel ein mit Brennstoff betriebener Heizkessel notwendig. Im März 2011 ging in der Morbacher Energielandschaft die erste Solargas-Anlage in Deutschland in Betrieb. Dabei wird Sonnenenergie in synthetisches Erdgas umgewandelt und in Gasform gespeichert. Thermische Solaranlagen verwenden unterschiedliche Arten von Wärmespeichern. Diese reichen bei Geräten für Warmwasser meist für einige Tage aus, damit – zumindest im Sommerhalbjahr – auch in der Nacht und während einer Schlechtwetterperiode ausreichend Wärme zur Verfügung gestellt werden kann. Langzeitspeicher, die sommerliche Wärme in den Winter übertragen, sind technisch möglich, aber noch relativ teuer. In solarthermischen, elektrischen Kraftwerken wird durch Spiegel konzentrierte Sonnenstrahlung genutzt, um Flüssigkeiten zu verdampfen und mittels Dampfturbinen Strom zu gewinnen. Wärmespeicher (beispielsweise Flüssigsalztanks) können darüber hinaus einen Teil der Wärme (mit geringen Verlusten) tagsüber speichern, um kurzfristige Bedarfsschwankungen auszugleichen oder die Dampfturbine nachts anzutreiben. In photovoltaischen Kraftwerken wird elektrischer Strom mittels Halbleitereffekten erzeugt. Der dadurch produzierte Gleichstrom wird entweder im Rahmen einer dezentralen Stromerzeugung in einem Inselstromnetz als solcher verwendet (Pufferung zum Beispiel durch Akkumulatoren) oder über Wechselrichter in ein vorhandenes Wechselstromnetz eingespeist. Dort ist die Speicherung über dezentrale Batterien und die Umwandlung in Wasserstoff und Methan und der anschließenden Speicherung im Erdgasnetz möglich. Die bereits bestehenden Erdgasspeicher in Deutschland würden ausreichen, um hier den Speicherbedarf einer Stromversorgung zu decken, die überwiegend auf der Erzeugung durch Photovoltaik- und Windkraftanlagen basiert. Potenzial der Sonnenenergie. Als die größte Energiequelle liefert die Sonne pro Jahr eine Energiemenge von etwa 1,5 · 1018 kWh auf die Erdoberfläche. Diese Energiemenge entspricht mehr als dem 10.000-fachen des Weltenergiebedarfs der Menschheit im Jahre 2010 (1,4 × 1014 kWh/Jahr). Die Zusammensetzung des Sonnenspektrums, die Sonnenscheindauer und der Winkel, unter dem die Sonnenstrahlen auf die Erdoberfläche fallen, sind abhängig von Uhrzeit, Jahreszeit und Breitengrad. Damit unterscheidet sich auch die eingestrahlte Energie. Diese beträgt beispielsweise etwa 1.000 kWh pro Quadratmeter und Jahr in Mitteleuropa und etwa 2.350 kWh pro Quadratmeter und Jahr in der Sahara. Es gibt verschiedene Szenarien, wie eine regenerative Energieversorgung der EU realisiert werden kann, unter anderem auch mittels Energiewandlung in Nordafrika und Hochspannungs-Gleichstrom-Übertragung. So ergaben zum Beispiel satellitengestützte Studien des Deutschen Zentrums für Luft- und Raumfahrt (DLR), dass mit weniger als 0,3 Prozent der verfügbaren Wüstengebiete in Nordafrika und im Nahen Osten durch Thermische Solarkraftwerke genügend Energie und Wasser für den steigenden Bedarf dieser Länder sowie für Europa erzeugt werden kann. Die Trans-Mediterranean Renewable Energy Cooperation, ein internationales Netzwerk von Wissenschaftlern, Politikern und Experten auf den Gebieten der erneuerbaren Energien und deren Erschließung, setzt sich für eine solche kooperative Nutzung der Solarenergie ein. Eine Veröffentlichung aus den USA namens Solar Grand Plan schlägt eine vergleichbare Nutzung der Sonnenenergie in den USA vor. Es wurde auch darüber nachgedacht, Solarenergie per Satellit einzufangen und auf die Erde zu übermitteln. Der Vorteil läge in einer höheren Energiedichte am Boden und in der Vermeidung von Tag-Nacht-Schwankungen. Auf Grund des großen dafür nötigen Aufwands, weit oberhalb von aller bisherigen Raumfahrttechnik, ist jedoch keines dieser Projekte konkret in Angriff genommen worden. Abhängigkeit der Strahlungsleistung vom Einfallswinkel. Hierbei bezeichnet formula_2 die Strahlungsleistung, formula_3 die Strahlungsleistung bei senkrechtem Einfallswinkel und formula_4 den Einfallswinkel gegenüber dem Horizont. Verstärkt wird der Effekt durch den verlängerten Weg, den das Licht bei flachen Winkeln durch die Atmosphäre zurücklegen muss. Schwarzpulver. Schwarzpulver war der erste Explosivstoff, der als "Schießpulver" für Treibladungen von Schusswaffen verwendet wurde. Als Sprengpulver ist es ein Sprengmittel. Heute wird es als Korn- und Mehlpulver hauptsächlich in der Pyrotechnik, insbesondere der Feuerwerkerei, verwendet. Zusammensetzung. Schwarzpulver ist eine "pyrotechnische Mischung", die aus Kaliumnitrat (Kalisalpeter), Holzkohle, früher vornehmlich aus dem Holz des Faulbaums gewonnen, und Schwefel besteht. Schwarzpulver besteht im Mittel aus 75 % Salpeter (Kaliumnitrat), 10 % Schwefel und 15 % Holzkohle, kann je nach Verwendungszweck hiervon aber leicht abweichen. Pulver auf der Basis von Natriumnitrat, das billiger, aber sehr hygroskopisch ist, wurde in Form von Presslingen hergestellt und mit Bitumen gegen Feuchtigkeit imprägniert. Diese Presslinge waren als Geschützpulver wenig geeignet, sie wurden vornehmlich im Bergbau verwendet, die Bezeichnung lautet "Sprengsalpeter". In der frühen Geschichte des Schwarzpulvers wurde statt Kalisalpeter auch Calciumnitrat (zunächst als Mauersalpeter) und Magnesiumnitrat genommen, die aber wegen hygroskopischer Eigenschaften das Pulver schnell verdarben. Aus diesem Grund wurden Umlösungsprozesse entwickelt, die mit Hilfe von Pottasche aus gelöstem Calcium- und Magnesiumnitrat eine Lösung mit Kaliumnitrat lieferten (Calcium und Magnesium wurden als Karbonate ausgefällt). Die Gewinnung der Nitrate für Schwarzpulver geschah später durch bakterielle Nitrifikation (siehe Kalisalpeter). Salpeter dient als Sauerstofflieferant, wobei auch andere Salze (z. B. Chlorate, jedoch wegen hoher Brisanz nicht für Treibladungspulver) verwendet werden können. Kohlepulver dient als Brennstoff und Schwefel als Brennstoff und Sensibilisierer, damit die Schwarzpulvermischung bei kleinster Berührung mit Funken zu brennen beginnt. Zur Erzielung von Flammenfärbungen für pyrotechnische Erzeugnisse kann das Kaliumnitrat durch andere Nitrate ersetzt werden, deren Kation eine entsprechende Flammenfärbung liefert. Herstellung. Die Bestandteile müssen fein zermahlen und gleichmäßig vermischt werden, wobei jeder Vorgang mehrere Stunden dauert. Das geschieht meistens in einer Pulvermühle. Danach wird das Gemisch in "Kuchen" feucht verpresst und getrocknet, die wiederum zermahlen und entweder "gekörnt" oder als "Mehlpulver" belassen werden. Beim Körnen, das schon im 15. Jahrhundert bekannt war, wird das Pulver angefeuchtet und wieder in Bewegung zu Kügelchen geformt. Damit wird ein Entmischen der Bestandteile verhindert und über die Größe der Kügelchen kann die Abbrandgeschwindigkeit in gewissen Grenzen reguliert werden. Außerdem dringt beim Anfeuchten Salpeter und Schwefel in die Mikroporen der Kohlepartikel. Das fertige Pulver wird noch getrocknet und kann dann abgefüllt und verpackt werden. Es hält sich luftdicht verpackt über Jahrhunderte völlig unverändert. Deutsche Schwarzpulvermühlen gibt es in Harzgerode (Sachsen-Anhalt) und im Dörntener Ortsteil Kunigunde der Gemeinde Liebenburg (Niedersachsen). Chemische Reaktion. Beim Verbrennen des Schwarzpulvers entstehen also Kohlenmonoxid, Kaliumcarbonat, Kaliumsulfit und Stickstoff. Diese Reaktionsgleichung ist sehr vereinfacht und von der prozentualen Zusammensetzung des Schwarzpulvers abhängig. Nicht berücksichtigt wurde dabei die Restfeuchtigkeit sowie der Sauerstoff-, Wasserstoff- und Ascheanteil in der Holzkohle. a>pulver beschossen wurde und den erhöhten Belastungen nicht standhielt Die Mischung verbrennt rasch, die innerstoffliche Schallgeschwindigkeit wird dabei jedoch nicht überschritten, weswegen statt von einer Detonation von einer Deflagration gesprochen wird. Bei der Verbrennung entsteht eine Temperatur von ungefähr 2000 °C. Während bei Handwaffen feinkörniges Pulver verwendet wurde, um überhaupt eine akzeptable Schussleistung zu erreichen, musste bei großkalibrigen Geschützen entsprechend grobkörniges Pulver verwendet werden, um den Enddruck zu begrenzen und damit Rohrsprengungen zu vermeiden. Bei Feuerwerkskörpern wird eine "Verdämmung" aus Karton, Kunststoff und ähnlichem verwendet. Das "Schwadenvolumen" (bei Normalbedingungen) liegt um 337 l/kg, außerdem entstehen etwa 0,58 kg feste Kaliumsalze. Die Nachteile von Schwarzpulver sind die recht niedrige Leistung, durch die brennbaren Gase bedingtes starkes Mündungsfeuer und starke Rauchentwicklung durch die großen Mengen fester Kaliumsalze. Aus diesem Grund wurde es weitgehend durch rauchschwaches Schießpulver auf der Basis von Nitrozellulose verdrängt. Schwarzpulver ist wenig schlag- und reibungsempfindlich. Statische Elektrizität (Funkenschlag) kann es nur äußerst schwer entzünden, da die enthaltene Holzkohle ein guter Leiter ist und der Strom abfließen kann. Zudem sind moderne Schwarzpulver aus Sicherheitsgründen mit einer dünnen Graphitschicht versehen. Die Zündtemperatur liegt sehr niedrig (ca. 170 °C). Schwarzpulver ist massenexplosiv. Ab einer Menge von ca. einem Kilogramm ist keine Verdämmung mehr erforderlich, damit das Pulver nicht mehr nur abbrennt, sondern in jedem Fall explodiert. Verwendung. Schwarzpulver wird in der Pyrotechnik, bei frei erhältlichen Knallkörpern, bei Modellraketenantrieben u. a. verwendet. Allgemeines. Der Chemiker und Spezialist für Explosivstoffgeschichte Jochen Gartz vertritt die Ansicht, dass die Rezeptur des Schießpulvers, entgegen früheren Vorstellungen, nicht durch Zufall in China oder Arabien entdeckt wurde, sondern sich im Laufe wiederholter Experimente aus salpeterhaltigen Brandmischungen entwickelt hat, wie sie den Byzantinern bereits seit dem 7. Jahrhundert bekannt waren. Hierbei wurden nach und nach die flüssigen Bestandteile des sogenannten griechischen Feuers (wie z. B. Erdöl) durch festere Brandstoffe ersetzt (wie pulverisierte Kohle). Der Liber Ignium (das "Buch der Feuer") des fiktiven Marcus Graecus, entstanden um 1225 mit noch erhaltenen Abschriften bis ins 13. Jahrhundert aber auf ältere antike und arabische Quellen zurückgehend, enthält ein Rezept in der Zusammensetzung 6 Teile Salpeter, 2 Teile Holzkohle und 1 Teil Schwefel, das sich auch in einem Albertus Magnus zugeschriebenen Werk findet, dessen Zuschreibung aber sehr zweifelhaft ist. Auch Roger Bacon erwähnt in mehreren Schriften von 1242 bis 1267 mehrmals das Pulver, unter anderem als Kinder-Feuerwerkspielzeug. Ob er darüber hinaus genaue Angaben zur Herstellung und Zusammensetzung von Schwarzpulver machte, ist umstritten. J. R. Partington folgt in seiner Geschichte der Pyrotechnik einer Rekonstruktion eines Anagramms durch den Artillerieoberst Henry Hime (1904), dass dieser in einer unklaren Stelle bei Bacon gelesen haben will (in einem Buch von Bacon, dessen Zuschreibung umstritten ist). Die zweifelhafte Rekonstruktion liefert eine vom Liber Ignium und späteren Rezepten abweichende Zusammensetzung von fast gleichen Anteilen (7 Teile Salpeter, 5 Teile Haselholz-Kohle und 5 Teile Schwefel). Erste militärische Anwendung soll das Schießpulver in Europa möglicherweise bei einer Schlacht im Hundertjährigen Krieg im Jahr 1346 in der Nähe von Abbéville erhalten haben. Um 1354 nutzten die Dänen das Schießpulver bei einer Seeschlacht. China. Im Kaiserreich China wurden salpeterhaltige Brandsätze im Song-zeitlichen "Wu Ching Tsung Yao" um 1044 erwähnt. In dieser Zeit wurden auch Feuerpfeile (Raketen) entwickelt. Ein chinesischer Kriegsmandarin, Yu-yen-wen, wollte im Jahr 1161 derartige Feuerpfeile auch zur Abschreckung von Feinden militärisch nutzen. Im Jahr 1232 kam bei der Belagerung der Stadt Kai-Feng Schießpulver zum Einsatz. In China und Japan diente jedoch das Schießpulver vornehmlich zu rituellen Zwecken, und zwar zu Ehren Verstorbener. Das Buch ist aber nur in seiner jüngsten Kopie von 1550 aus der Ming-Zeit überliefert, daher ist nicht mehr erkennbar, ob die Vermerke zu den Brandsätzen nicht später hinzugefügt wurden. Es ist jedoch nachgewiesen, dass mit Schwarzpulver gefüllte Bomben durch die Chinesen spätestens im 13. Jahrhundert als Waffe eingesetzt wurden. Arabien. In seinem Buch über berittenen Kampf und den Einsatz von Kriegsmaschinen ("Al-Furusiyya wa al-Manasib al-Harbiyya") von etwa 1285 beschreibt der syrische Autor Hasan al-Rammah die Herstellung von Schwarzpulver, insbesondere die erforderliche Reinigung des Kaliumnitrats. Mittelalter. Im Mittelalter wurde Schwarzpulver im niederdeutschen Sprachraum als "krud" oder "krut" (Kraut) auch „Donnerkraut“ und im hochdeutschen Sprachraum als "pulver/puluer" (frühneuhochdeutsch) bezeichnet. Die heutige Bezeichnung "Schwarzpulver" geht wohl nicht auf den Franziskanermönch Berthold Schwarz aus Freiburg im Breisgau zurück, der im 14. Jahrhundert einer Legende zufolge die treibende Wirkung der Pulvergase auf Geschosse fand, sondern auf dessen schwarzes Aussehen; gegen Ende des 19. Jahrhunderts unterschied man Schwarzpulver von den neuen weißen Cellulosenitratpulvern. Schwarzpulver blieb bis zur Erfindung der modernen Sprengstoffe der einzige militärische und zivile Explosivstoff und einziges Treibmittel für Artillerie- und Handfeuerwaffen. Im 17. Jahrhundert wurde seine Handhabung als Treibmittel für Musketen durch die Papierpatrone mit abgemessener Füllmenge einschließlich Kugel erleichtert. In der ersten Hälfte des 19. Jahrhunderts machte die Entwicklung des Hinterladers die noch einfachere Einheitspatrone möglich. Seit Mitte des 19. Jahrhunderts verdrängten brisantere Sprengstoffe – wie das Nitroglyzerin, das darauf basierende Dynamit, die Nitrozellulose (Schießbaumwolle), Nitroaromaten, Nitramine usw. – das Schwarzpulver weitgehend als Explosivstoff und Treibmittel. Korn. Heute wird Schwarzpulver vor allem für Feuerwerke verwendet. Es dient dabei als Antriebsmittel für einfache Raketen, als Ladung von Böllern (Böllerpulver) und als Ausstoß- und Zerlegerladung für größere Effektträger wie beispielsweise Bomben und Bombetten. Im Schießsport wird Schwarzpulver nur noch als Reminiszenz an die Geschichte des Schützenwesens verwendet, wo es in verschiedenen Disziplinen des Vorderlader- und Westernschießens oder zum Böller- und Salutschießen zum Einsatz kommt. Mehlpulver. "Mehlpulver" (engl. "meal") ist die Bezeichnung für nicht gekörntes Schwarzpulver. Mehlpulver ist Schwarzpulver, welches nicht gekörnt wurde und sich so wenig für die Verwendung in Schusswaffen eignet. Wird es zusammengedrückt, verbrennt es nur langsam an der Oberfläche (wie z. B. in einer Rakete), ist es zu lose, kann es sich so schnell umsetzen, dass durch den rapiden Druckanstieg der Lauf gesprengt wird. Zudem gelangt das feine Mehlpulver oft nicht durch Einschütten bis zum Pulversack herunter, sondern bildet vorher einen Pfropfen, so dass die Waffe nicht funktionieren kann. Hinzu kommt, dass Mehlpulver die Eigenschaft hatte, sich beim Transport in den Fässern zu entmischen. Gerade auf den ruckeligen Pferdekarren kam es oft dazu, dass nach dem Transport die drei Grundbestandteile in Schichten vorlagen. Mehlpulver wurde früher oft als Sprengpulver in Mörsern, in Brandkugeln oder als sogenanntes Zündkraut in Steinschloss-, Radschloss- oder Luntenschlosswaffen benutzt. Heute wird es in der Feuerwerkerei verwendet, um den Abbrand einzustellen und damit den Effekt passend zur Geltung zu bringen. Sprengpulver. Schwarzpulver wird als Sprengpulver, je nach Verwendung, den Sprengstoffen oder auch den Schießstoffen bzw. den pyrotechnischen Chemikalien zugeordnet. Die sprengtechnischen Eigenschaften sind jedoch abhängig von der Restfeuchte, der Körnigkeit, der Durchmischung und der Zusammensetzung des Pulvers, sowie von der Ladungsmenge, der Verdämmung und der Einbringung der Ladung (Bohrloch oder aufgelegte Ladung). Ein wichtiger Einsatzort ist im Steinbruch zur Gewinnung wertvoller Werksteine wie Marmor oder Granit. Aufgrund der stark zerstörenden Wirkung von Detonationssprengstoffen kommen diese dort nicht zum Einsatz. Da Sprengpulver nicht brisant ist, sondern schiebende Wirkung hat, wird das Gestein relativ schonend losgebrochen, man erhält Bruchstücke in verwendbarer Größe und es entstehen keine Haarrisse. Nach dem Aufkommen moderner Sägemethoden verliert dieses Verfahren jedoch zunehmend an Bedeutung. Verstärkerladung. In der Artillerietechnik als Verstärkerladung (Booster) in der Zündkette. Der Anzünder zündet primär eine Schwarzpulverladung, die die weiteren Ladungsbeutel mit NC-Pulver entzündet. Volks- und Aberglaube. Dem Schwarz- und Schießpulver wurden diverse wundersame Eigenschaften nachgesagt. So gab es im Jägeraberglauben die Vorstellung, die Zumischung pulverisierter Tierbestandteile, z. B. von Schlangen, Würmern oder Vögeln, erhöhe die Kraft des Pulvers. In Wein gemischt, so ein Aberglaube unter Soldaten, der für Teile der Schweiz aus dem Jahr 1914 nachgewiesen ist, mache das Pulver mutig. In der Volksmedizin soll es, in Flüssigkeiten gelöst und eingenommen oder aufgelegt, gegen Halsschmerz, Wechselfieber, Verstopfung, Krämpfe, oder Schnittwunden in der Human- und Tiermedizin helfen. Rechtliche Hinweise. In der Schweiz ist Schießpulver in Jagdgeschäften frei erhältlich. Erwerb, Besitz und Umgang ist dem geprüften Pyrotechniker oder Sprengberechtigten prinzipiell gestattet. Sinusknoten. Der Sinusknoten ("Nodus sinuatrialis"), auch Sinuatrial-Knoten ("SA-Knoten") oder Keith-Flack-Knoten'", ist der primäre elektrische Taktgeber der Herzaktion. Er liegt im rechten Vorhof ("Atrium dextrum") des Herzens im Bereich der Mündung der oberen Hohlvene, dem sogenannten "Sinus venarum cavarum". „Sinus“ bzw. „Sinuatrial“ leiten sich also von der Lage dieses Taktgebers ab. Er ist Teil des Erregungsbildungssystems des Herzens. Durch den Sinusknoten entsteht der Sinusrhythmus. Anatomie. Der Begriff "Knoten" ist eigentlich etwas irreführend, da es sich um keinen wirklich tastbaren oder sichtbaren Knoten (im Sinne Lymphknoten oder Tumor) handelt. Man kann den Sinusknoten elektrisch als den Bereich des Herzens orten, an dem die elektrische Erregung zuerst nachweisbar ist. Auch eine feingewebliche Abgrenzung von den Nachbarzellen ist möglich. Im menschlichen Herzen liegt der Sinusknoten spindelförmig eng am Epikard an der Einmündung der oberen Hohlvene in den rechten Vorhof. Es kommt eine erhebliche Lage- und Größenabweichung vor (Länge 10-20, Breite 2–3 mm). Die Blutversorgung geschieht durch einen einzelnen kräftigen atrialen Koronararterienast, der bei der Mehrzahl normaler Herzen proximal aus der rechten Koronararterie entspringt. Darüber hinaus existiert eine Kollateralenversorgung mit anderen Gefäßzweigen der atrialen Gefäßversorgung. Die transatriale anastomotische Zirkulation kann als Brücke zwischen den beiden koronaren Hauptstämmen (rechte Koronararterie, linker Zirkumflexzweig) fungieren. Die venöse Drainage geschieht direkt in das rechte Atrium durch thebesische Kanäle. Histologie. Histologisch besteht der Sinusknoten aus einer Gruppe von spezialisierten Herzmuskelzellen, die die Fähigkeit zur spontanen Depolarisation besitzen und sich so selbst elektrisch erregen können. Dies geschieht im Ruhezustand beim erwachsenen Menschen mit einer Frequenz von 60–80/min. Bei körperlich extrem gut trainierten Ausdauersportlern findet man aufgrund der Herzvergrößerung jedoch auch Ruhepulsfrequenzen von unter 40/min. Verglichen mit Zellen des Arbeitsmyokards besitzen sie weniger Myofibrillen und Mitochondrien, daher sind sie weniger hypoxieanfällig. Funktion. Die im Sinusknoten entstandene Erregung gelangt über die Arbeitsmuskulatur der Vorhöfe – nach einigen Autoren über sogenannte Internodalbündel – zu den nachfolgenden Bestandteilen des Erregungsleitungssystems des Herzens (AV-Knoten, His-Bündel, Tawara-Schenkel, Purkinje-Fasern). Auch diese übrigen Teile des Erregungsleitungssystems besitzen die Fähigkeit zur spontanen Depolarisation, die jedoch aufgrund einer immer niedrigeren Frequenz im Normalzustand nicht zum Tragen kommt, so dass der Sinusknoten der alleinige Taktgeber ist. HCN-Kanal im Sinusknoten mit typischem Aktionspotential Auffallend beim Aktionspotential des Sinusknotens ist die sofortige Depolarisation nach der Repolarisation. Dies ist bedingt durch HCN-Kanäle ("H"yperpolarisation activated "c"yclic "n"ucleotide gates), die sich durch Hyperpolarisation öffnen. Der entstehende Natrium-Einwärts-Strom wird auch I-funny genannt. Der Sinusknoten wird durch Nerven und Hormone beeinflusst. Er steht unter dem Einfluss von Sympathikus und Parasympathikus. Der Parasympathikus übt mit seinem Transmitter Acetylcholin in Ruhe ständig einen frequenzsenkenden ("negativ chronotropen") Effekt auf den Sinusknoten aus. Durchtrennt man die Äste des Nervus vagus des Parasympathikus, so schlägt das Herz dauerhaft schneller. Unter Belastung steigert der Sympathikus mit seinem Transmitter Noradrenalin die Entladungsfrequenz des Sinusknotens ("positive Chronotropie"). Denselben Effekt haben Adrenalin und Noradrenalin, die als Hormone den Sinusknoten über die Blutbahn erreichen. Funktionsstörungen. Verschiedene Funktionsstörungen des Sinusknotens äußern sich als komplizierte bradykarde und tachykarde Herzrhythmusstörungen in der Krankheitsgruppe des Sick-Sinus-Syndroms. Einen kompletten Ausfall des Sinusknotens bezeichnet man als Sinusarrest. Springt kein untergeordnetes Erregungsbildungsgebiet ein, kommt es zu einem akuten Herzstillstand. Dies ist selten, weil untergeordnete Zentren am gesunden Herzen eine zwar zu langsame, aber in Ruhe ausreichende Herzfrequenz gewährleisten. Sofern der Sinusarrest nicht zum plötzlichen Tod führt, ist er heute relativ einfach und dauerhaft mit einem Herzschrittmacher zu beheben. Nomenklatur. Die Untersuchungen von Arthur Keith und Martin Flack folgten nur kurze Zeit später auf die ausführliche Veröffentlichung Sunao Tawaras über den AV-Knoten (1906). Tawara hatte sich verzweigende Muskelstränge beschrieben, die von den Aurikeln ausgehend beidseits des Interventrikularseptums verliefen, und vermutet, dass es sich hierbei um ein Impulsleitungs- und -verteilungssystem handeln müsse. Tawara beschrieb eine Knotenstruktur, die Keith und Flack ursprünglich ebenfalls untersuchen wollten. Sie fanden jedoch eine ähnliche Knotenstruktur an einem anderen anatomischen Ort und vermuteten darin das übergeordnete Schrittmacherzentrum der kardialen Bewegung. Keith selbst nannte die von ihm gefundene Struktur nach morphologischen Gesichtspunkten "Sino-aurikular Knoten" (1907). Das Synonym "Sinusknoten" prägte W. Koch (1907, 1909). Die experimentell-physiologische Bestätigung der Sinusknoten-Funktion erbrachten Thomas Lewis und Wybau 1910 mit der EKG-Technik unabhängig voneinander. Sizilien. Sizilien (und sizilianisch, früher griechisch "Trinakria", wörtlich “Dreikap”, arabisch Siqiliyya (صقلية)) ist mit 25.426 km² die größte Insel im Mittelmeer. Die Küstenlänge beträgt 1152 Kilometer. Gemeinsam mit einigen ihr vorgelagerten kleineren Inseln bildet sie die Autonome Region Sizilien der Italienischen Republik. Die Insel Sizilien liegt südwestlich vor der „Stiefelspitze“ Italiens und ist der Überrest einer Landbrücke, die einst Europa und Afrika verband. Das geographisch markanteste Merkmal der Insel ist der Vulkan Ätna. Die größten Städte sind Palermo, das auch Hauptstadt der Autonomen Region Sizilien ist, Catania, Messina und Syrakus. Landschaftsbild. Die Insel Sizilien hat in etwa die Form eines Dreiecks, der sie ihren griechischen Namen "Trinakria", zu deutsch „Drei-Kap“, verdankt. Vor der in Ost-West-Richtung verlaufenden Nordküste liegt das Tyrrhenische Meer, vor der Ostküste das Ionische Meer und zwischen der Südwestküste und dem afrikanischen Kontinent die Straße von Sizilien (italienisch "Canale di Sicilia"). Vom italienischen Festland ist Sizilien durch die Straße von Messina (italienisch "Stretto di Messina") getrennt, einer Meerenge, die an der schmalsten Stelle etwa 3 km breit ist. Die Entfernung nach Malta beträgt 95 km, nach Tunesien 145 km. Über 80 % der Fläche Siziliens sind Berg- oder Hügelland. Ebene Gebiete gibt es im Süden und im Hinterland von Catania. Im Norden setzen die Monti Peloritani, die Monti Nebrodi und die Monti Madonie die Gebirgskette des Apennin fort. Im Südosten erheben sich die Monti Iblei, im Landesinneren die Monti Erei und die Monti Sicani. Der höchste Berg Siziliens ist der Ätna (3345 m), der zugleich der größte und aktivste Vulkan Europas ist. Weitere aktive Vulkane sind Stromboli und Vulcano auf den im Nordosten vorgelagerten Liparischen Inseln. Der höchste nichtvulkanische Berg ist der Pizzo Carbonara (1979 m) in den Monti Madonie. Der Salso als längster Fluss Siziliens entspringt mit seinem Quellfluss Imera Meridionale in den Monti Madonie. Er mündet nach 144 km bei Licata ins Meer. Die Quelle des 113 km langen Simeto liegt in den Monti Nebrodi, seine Mündung südlich von Catania. Weitere größere Flüsse sind der Platani (84 km) und der Belice (77 km) im Westen der Insel. Besonders bekannt ist der Alcantara (52 km) wegen seiner Schluchten, den Gole dell’Alcantara, die er durch die Lava des Ätna gegraben hat. Der einzig natürliche See ist der Lago di Pergusa im Zentrum der Insel. Er ist vulkanischen Ursprungs und hat eine fast kreisrunde Fläche. Der größte der zahlreichen Stauseen ist der Lago Pozzillo. Die Küste Siziliens erstreckt sich über eine Gesamtlänge von etwa 1000 km. Im Norden und Osten steigt das Land steil aus dem Meer auf. Unterbrochen werden diese Felsküsten von zahlreichen Buchten mit Sandstränden. Gegen Süden hin fällt das Land flach ab und es gibt längere Abschnitte mit Sandstrand. Vor der Nordküste liegen die Äolischen oder Liparischen Inseln ("Isole Eolie"), im Nordwesten die Insel Ustica. Die Westspitze wird von den Ägadischen Inseln ("Isole Egadi") gesäumt. Zwischen der Südküste Siziliens und der tunesischen Küste befinden sich die Insel Pantelleria und die Pelagischen Inseln ("Isole Pelagie"). Geologie. Die Monti Peloritani als Fortsetzung des Aspromonte bestehen aus Gneis und Glimmerschiefer. Die Monti Nebrodi setzen sich aus Tonschiefer und Sandstein zusammen, die Monti Madonie aus Sand- und Kalkstein. Das Inselinnere und der Süden bestehen vorwiegend aus Tonen und Mergeln. Sizilien gehört zur afrikanischen und zur apulischen Platte bzw. eurasischen Kontinentalplatte. Die Kontaktzone beider Platten verläuft quer durch die Insel. An den Nahtstellen kommt es immer wieder zu Reibungen, die heftige Erdbeben auslösen, unter denen vor allem der südliche Teil der Insel zu leiden hat. Der östliche Teil gehört zu einer vulkanischen Zone, die von den Liparischen Inseln über den Ätna und die Monti Iblei weiter Richtung Malta verläuft. Auch die Inseln Pantelleria und Ustica sind vulkanischen Ursprungs. Klima. Auf Sizilien herrscht mediterranes Klima mit heißem, trockenem Sommer und mildem, feuchtem Winter. An den Küsten betragen die Temperaturen im Sommer durchschnittlich 26 °C, im Winter 10 °C. Im Süden werden durch den aus der Sahara wehenden Scirocco Werte über 40 °C erreicht. Im Inselinneren ist es im Vergleich zu den Küstengebieten etwas kühler. Hier liegen die Durchschnittstemperaturen bei 19 °C im Sommer und 5 °C im Winter. Oberhalb von 2000 m kann es in den Wintermonaten scharfen Frost und Schnee geben. In Catenanuova wurde laut Agenzia Regionale per i Rifiuti e le Acque – Osservatorio delle Acque am 10. August 1999 mit 48,5 °C die höchste jemals in Europa gemessene Temperatur registriert. Von Mai bis September fällt bis auf kurze Regenschauer kaum Niederschlag. Oktober bis Februar sind die regenreichsten Monate, wobei in den Gebirgen im Norden mehr Niederschlag fällt als in den südlicheren Gebieten. Unter den großen Städten an der Küste ist Messina die niederschlagreichste Stadt. Catania, das im Regenschatten des Ätna liegt, ist die Stadt mit der geringsten Niederschlagsmenge. Flora. Sizilien war ursprünglich von Wald bedeckt, der im Lauf der Jahrhunderte gerodet wurde, um Holz für den Schiffbau beziehungsweise neues Nutzland zu gewinnen. Dabei wurde die Macchia zurückgedrängt, die heute vor allem an der West- und Südküste zu finden ist. Größere, zusammenhängende Waldgebiete gibt es noch in den Monti Madonie und den Monti Nebrodi. Hier wachsen unter anderem Korkeichen, Buchen, Kiefern und eine für Sizilien typische Tannenart, die Nebrodi-Tanne. In den Monti Iblei gedeihen Johannisbrotbäume. Trotz schonungsloser Rodungen ist Sizilien mit 3000 unterschiedlichen Pflanzenarten die vegetationsreichste Insel des Mittelmeers. Neben einer Vielzahl an Wildblumen wie Bougainvillea, Jasmin, Mimosen oder Orchideen, an Wildkräutern und Kapern gedeihen in einigen Regionen subtropische und tropische Pflanzen wie Gummibäume, Bananenstauden oder Papyruspflanzen. Zu den wichtigsten Kulturpflanzen zählen seit griechischer Zeit Weinreben und Olivenbäume, seit römischer Zeit Hartweizen. Durch den Einfluss der Araber kamen Zitrusfrüchte und Mandelbäume nach Sizilien, mit den Spaniern Tomaten, Paprika und Auberginen. Besonders ertragreiche Anbaugebiete für Gemüse und Obst sind die fruchtbaren Hänge des Ätna und das ebene Tiefland südlich von Catania. Fauna. Durch die Rodung der Wälder und intensiv betriebene Jagd wurde der ursprüngliche Bestand an Wildtieren wie Rotwild, Wölfe, Füchse und Wildkatzen nahezu ausgerottet. Vielfältig ist die Meeresfauna mit einem reichen Bestand an Fischen, vor allem Thun- und Schwertfisch, und an Krustentieren. An den Küsten der Pelagischen Inseln leben Meeresschildkröten. Außerdem ist Sizilien wichtiger Rastplatz, beziehungsweise Winterquartier für Zugvögel aus Nordeuropa. Mehrere Reptilienarten sind auf der Insel heimisch: Drei Landschildkrötenarten leben auf Sizilien, die Sizilianische Sumpfschildkröte sowie die Maurische und die Griechische Landschildkröte. Darüber hinaus leben zwei Geckoarten auf der Insel, der Mauergecko und der Europäische Halbfinger. Die Westliche Smaragdeidechse ist die größte Eidechse Siziliens. Daneben lebt der Algerische Sandläufer, die Ruineneidechse und die Sizilianische Mauereidechse auf der Insel. Von den vier auf der Insel lebenden Schlangenarten ist nur die Aspisviper giftig, während die Italienische Äskulapnatter, die Gelbgrüne Zornnatter und die Leopardnatter ungiftig sind, jedoch ausgewachsen größer werden. Folgende Amphibien leben auf Sizilien: die beiden Wasserfrösche Italienischer Hybridfrosch und Italienischer Wasserfrosch, der Italienische Laubfrosch, der Gemalter Scheibenzüngler und die Wechselkröte. Geschichte. Die zentrale Lage Siziliens im Mittelmeer hat die wechselhafte Geschichte dieser Insel geprägt. Als Stützpunkte für Seefahrt und Handel hatten die Städte Siziliens stets eine große Bedeutung. Immer wieder haben sich deshalb neue Eroberer der Insel bemächtigt, sind geblieben und haben sich mit der bereits ansässigen Bevölkerung vermischt und ihre Spuren in der Kultur Siziliens hinterlassen. Nur selten war die Insel politisch selbständig, zumeist wurde sie von Reichen oder Staaten beherrscht, die ihr politisches Zentrum anderswo hatten. Antike. Griechische Autoren aus der Zeit nach der erfolgten griechischen Kolonisation Siziliens beschrieben drei verschiedene einheimische Bevölkerungsgruppen: Sikeler im Osten, Sikaner im Zentrum und Westen, und Elymer im äußersten Nordwesten der Insel. Ab etwa 800 v. Chr. begann die Periode der Kolonialisierung durch Phönizier, Griechen und Karthager beziehungsweise Punier, die ihre Siedlungen zunächst vornehmlich an der Küste errichteten. In dieser Zeit war Sizilien als Teil Großgriechenlands vor allem von der Kultur griechischer Siedler geprägt. Die bedeutendste griechische Stadt Siziliens war Syrakus. Die Blütezeit der griechischen Kultur war das 5. Jahrhundert v. Chr., nachdem die Griechen im Jahr 480 v. Chr. in der Schlacht bei Himera die Karthager besiegt hatten. In diese Zeit fiel die Errichtung der meisten griechischen Tempel Siziliens. Nachdem die damalige Großstadt Karthago den wachsenden Bedarf an Korn für sich und das Söldnerheer nicht mehr hatte decken können und das Korn ohne Zwischenhandel beschaffen wollte, landeten die Punier auf der Nordseite der Insel. Die griechischen Städte schlossen sich zusammen und wurden zur besseren Verteidigung von Tyrannen regiert. Diese Blütezeit endete, als die Karthager am Ende des 5. Jahrhunderts v. Chr. fast alle bedeutenden griechischen Städte zerstörten. Der karthagische General Himilkon zerstörte 409 v. Chr. Selinunt, 408 v. Chr. Himera und 405 v. Chr. Gela und plünderte im selben Jahr Akragas, Kamarina und Kasmenai. Einzig Syrakus konnte seine Unabhängigkeit bewahren. Unter Dionysios, der ab 405 v. Chr. regierte, erlebte die Stadt eine Blütezeit und beherrschte das westliche Mittelmeer. Die meisten zerstörten Städte wurden zwar später wieder aufgebaut, erreichten aber nicht mehr ihre ursprüngliche Größe. Während des Ersten Punischen Krieges wurde Sizilien im Jahr 241 v. Chr. durch den römischen Sieg in der Schlacht bei den Ägatischen Inseln zur ersten Provinz des Römischen Reichs. Die Karthager mussten Sizilien aufgeben. Im Jahr 212 v. Chr. fiel Syrakus trotz der Verteidigungsmaßnahmen des Archimedes. Sizilien wurde der wichtigste Getreidelieferant Roms. Als im 2. Jahrhundert v. Chr. immer mehr Sklaven nach Sizilien kamen, führte das Elend dieser Sklaven zu den beiden sizilianischen Sklavenkriegen. Bis zum Ende der Kaiserzeit wurde Sizilien immer mehr latinisiert, auch wenn der Großteil der Bevölkerung weiter griechisch sprach. Mittelalter. Nach dem Untergang des Westreichs im 5. Jahrhundert wurde Sizilien zunächst von den Vandalen und Ostgoten beherrscht und kam im 6. Jahrhundert zum Byzantinischen Reich. Unter der byzantinischen Herrschaft wurde es zu einem zentralen Handelsplatz, auf dem besonders die Küstenstädte florierten. Von 661 bis 668 residierte Kaiser Konstans II. in Syrakus. Im 9. Jahrhundert wurde die Insel von den Arabern erobert – gut 250 Jahre stand Sizilien unter muslimischer Herrschaft. Sie brachten neue Bewässerungstechniken mit, wodurch die Landwirtschaft einen Aufschwung erlebte. Unter den Arabern wurde Palermo zur bedeutendsten Stadt Siziliens. In die Zeit von 835 bis 884 fielen diverse Beutezüge der Araber gegen sizilianische Städte. Der muslimische Bevölkerungsanteil auf der Insel machte in der Mitte des 11. Jahrhunderts mehr als zwei Drittel aus, wobei Araber zumeist den Norden um Palermo und Berber überwiegend den Süden um Agrigent dominierten. Eine weitere Blütezeit erlebte Sizilien, nachdem es im 11. Jahrhundert von den Normannen erobert worden war und zu einem eigenständigen Königreich wurde. Die Symbiose aus byzantinischen, arabischen und normannischen Traditionen brachte viele bedeutende Kunstwerke hervor. Auch unter den Staufern, die auf die Normannenkönige folgten, dauerte diese Blüte noch an. Neuzeit. Danach geriet Sizilien wieder unter die Kontrolle ausländischer Mächte. Aragon, Spanien, Savoyen und Österreich folgten aufeinander. Unter den spanischen Bourbonen kam Sizilien zum Königreich Neapel, das nach dem Wiener Kongress zum Königreich beider Sizilien wurde und Sizilien und Unteritalien umfasste, wobei die Hauptstadt jedoch Neapel blieb. Sizilien wurde von den jeweiligen Herrschern oft nachrangig behandelt und genoss keine besondere Aufmerksamkeit. Der Gegensatz zwischen der um ihren Status kämpfenden Aristokratie und dem Heer der armen, zu Aufständen neigenden Landarbeiter bei Abwesenheit einer bürgerlichen Mittelschicht führte Mitte des 19. Jahrhunderts zur Entstehung der Mafia. Mit der Vereinigung Italiens, die mit Garibaldis Invasion in Sizilien begann, kam Sizilien 1861 zum neuen Königreich Italien. Obwohl Garibaldis Freischärler zunächst als Befreier herbeigesehnt worden waren, machte sich bald Unmut breit über die neuen Gesetze, die der von piemontesischen Traditionen geprägte Zentralstaat von Turin bzw. Rom aus dem Süden überstülpte. Der neue Staat Italien hatte daher in seinen Anfangsjahren oft mit größeren Aufständen auf Sizilien zu kämpfen; die Regierungen beantworteten diese Rebellionen meist mit der Ausrufung des Kriegsrechts und dem Einsatz des Militärs. Nachdem Benito Mussolini 1922 die alleinige Macht ergriffen hatte, begann er bald damit, die Mafia hart zu bekämpfen. Dabei wurden auch viele Unbeteiligte Opfer seiner rigiden Methoden und ebenso wie die Mafiosi in die Verbannung geschickt. Am 10. Juli 1943 landeten die Alliierten auf Sizilien (Operation Husky). In den nachfolgenden Jahren kam es zur Bildung der MIS, einer politischen Partei, die die Unabhängigkeit Siziliens von Italiens anstrebte. Diese genoss anfangs zwar einige Zustimmung, konnte sich letztendlich jedoch nicht durchsetzen. Die Auseinandersetzung endete schließlich mit einem Kompromiss: Seit 1946 hat Sizilien den Status einer autonomen Region mit umfassenden Selbstverwaltungsrechten. Palermo wurde die Hauptstadt der Region. In den Nachkriegsjahren wurden im Zuge einer Bodenreform die Latifundien der Großgrundbesitzer aufgelöst. Die christdemokratische Regierung hatte sich durch Landbesetzungen und politische Unruhen zu diesem Schritt gedrängt gesehen, im tief katholisch geprägten Sizilien etablierte sich in der Folge eine der verlässlichsten Hochburgen dieser Partei, die bis 1993 das politische Leben Italiens dominierte. Das im Vergleich zum hochindustrialisierten Norden rückständige Sizilien bekommt seit dieser Zeit hohe Subventionen, um es an die höher entwickelten Regionen anzugleichen. Bis in die 1960er Jahre wurde die Armut in ländlichen Regionen und einigen Vierteln der Großstädte gemildert, gleichzeitig begann eine Massenemigration junger Sizilianer, die als Gastarbeiter nach Mitteleuropa (Deutschland, Schweiz, Frankreich, Belgien) oder in die Industriestädte des Nordens gingen. Das Ziel, die Lebensbedingungen Siziliens denen der nördlichen Regionen anzugleichen, war bislang jedoch – ebenso wie im übrigen südlichen Italien – nur teilweise erfolgreich. Die Bemühungen um Ansiedlung von Industriebetrieben, der Kampf gegen die Mafia sowie zunehmend die illegale Einwanderung über das Mittelmeer und Umweltprobleme wie Erosion und Wassermangel prägen die sizilianische Politik der letzten Jahre. Bevölkerung. Zur Zeit der Vereinigung Italiens lebte die Mehrheit der sizilianischen Bevölkerung in wirtschaftlicher Not. Einer kleinen Schicht reicher Großgrundbesitzer stand eine große Schar recht- und besitzloser Landarbeiter gegenüber. Unruhen und Aufstände wurden niedergeschlagen und so wanderten zwischen 1880 und dem Beginn des ersten Weltkriegs viele Sizilianer vorwiegend nach Amerika aus. Als auch nach 1946 die notwendigen Reformen nur schleppend vorangingen, suchten zwischen 1950 und 1970 erneut zahlreiche Sizilianer Arbeit im Ausland. Trotzdem liegt Sizilien mit einer Bevölkerungsdichte von 195 Einwohnern je km² etwas über dem italienischen Durchschnitt. Seit der Landflucht nach dem Zweiten Weltkrieg sind vor allem die Küstengebiete dicht besiedelt. Mehr als ein Drittel der Einwohner leben in den Städten Palermo, Catania, Messina, Syrakus und Trapani. Das Inselinnere ist dagegen recht dünn besiedelt. Die durchschnittliche Lebenserwartung liegt bei 73,2 Jahren für Männer und 78 Jahren für Frauen. Mehr als 97 % der Bevölkerung gehören der römisch-katholischen Kirche an. Von den übrigen christlichen Konfessionen sind vor allem die Lutheraner, die Waldenser und die Anglikaner vertreten. In der Nähe Palermos gibt es einige Orte wie z. B. Piana degli Albanesi und Santa Cristina Gela mit albanischstämmiger Bevölkerung, die sich Arbëresh nennt und eigene Traditionen wahrt. Eine weitere Gruppe bilden Muslime aus Nordafrika, vor allem aus Tunesien. Die Mehrheit der Bevölkerung spricht die sizilianische Variante des Italienischen, welche oft auch als eigene Sprache angesehen wird. Berühmte Sizilianer sind unter anderem der Gelehrte Archimedes, der Geschichtsschreiber Diodor aus Agyrion, der Komponist Vincenzo Bellini, die Schriftsteller Luigi Pirandello, Leonardo Sciascia und Andrea Camilleri, die Mafiagegner Giovanni Falcone, Paolo Borsellino und Leoluca Orlando, der Regisseur Giuseppe Tornatore und der Fußballspieler Salvatore Schillaci. Weitere bekannte Personen Siziliens sind in der Liste bekannter Sizilianer aufgeführt. Politik und Gesellschaft. Politisch hat Sizilien in der Republik Italien den Status einer autonomen Region mit Sonderstatus, was eine größere Autonomie bei der Gesetzgebung und im Bereich der Finanzen garantiert. Das Territorium der Region umfasst neben der Hauptinsel Sizilien die Inselgruppen der Ägadischen, Liparischen und Pelagischen Inseln sowie die Einzelinseln Ustica und Pantelleria. Die Autonome Region Sizilien hat ein eigenes Parlament, die Sizilianische Regionalversammlung (Assemblea Regionale Siciliana, A. R. S.), und eine eigene Regierung, die aus dem Präsidenten der Region (Presidente della Regione) und einem Kabinett (Giunta Regionale) aus zwölf Ministern (Assessori Regionali) gebildet ist. Sitz des sizilianischen Parlaments und der Regierung ist die Hauptstadt Palermo. Präsident der Region ist seit Oktober 2012 Rosario Crocetta. Die Flagge Siziliens zeigt eine Triskele auf gelbrotem Grund. Sie geht auf die Sizilianische Vesper 1282 zurück und wurde im Februar 2000 zur offiziellen Flagge erklärt. Sizilien ist in sechs Provinzen und drei Metropolitanstädte gegliedert, die wiederum in insgesamt 390 Gemeinden unterteilt sind. Die meisten Einwohner und die größte Fläche hat die Metropolitanstadt Palermo, am dichtesten besiedelt ist die Metropolitanstadt Catania, die mit etwa 300 Einwohnern je km² deutlich über dem Inseldurchschnitt von 195 Einwohnern je km² liegt. Weitere Provinzen sind Agrigent, Caltanissetta, Enna, Ragusa, Syrakus und Trapani sowie die Metropolitanstadt Messina. Wie andere Teile Süditaliens leidet Sizilien unter der organisierten Kriminalität durch die Mafia. Besonders in den 1960er und 1980er Jahren des vorigen Jahrhunderts eskalierte die Gewalt. In Großstädten wie Palermo und Catania lähmte eine Welle von Ermordungen im Auftrag der Mafia das öffentliche Leben. Große Erfolge im Kampf gegen die Organisation wurden ab 1984 mit der Festnahme Tommaso Buscettas erreicht. In den folgenden Jahren kam es durch die Aussagen Buscettas zu zahlreichen weiteren Festnahmen und den sogenannten Mammutprozessen, die vor allem den Ermittlungen des Juristen Giovanni Falcone und des Richters Paolo Borsellino zu verdanken waren. Als Falcone und Borsellino 1992 von der Mafia ermordet wurden, schlug die lähmende Angst der Bevölkerung in offenen Widerstand um. Es entwickelte sich eine politische Aufbruchstimmung, deren treibende Kraft Leoluca Orlando, damaliger Bürgermeister von Palermo, war. Der Polizei gelang es, 1993 Salvatore Riina und 2006 Bernardo Provenzano, beide führende Männer innerhalb der sizilianischen Mafia, der Cosa Nostra, festzunehmen. Ein weiteres gesellschaftliches Problem auf Sizilien sind die Anlandungen von Flüchtlingen und Migranten aus Afrika. Ein Großteil von ihnen sucht über die näher dem afrikanischen Kontinent vorgelagerte pelagische Insel Lampedusa den Weg nach Europa. 2006 landeten über 16.000 Flüchtlinge auf der Insel zwischen Tunesien und Sizilien. Aber auch auf dem weiter entfernt gelegenen Sizilien treffen Migranten ein. Ihre Zahl hat sich in den ersten fünf Monaten des Jahres 2008 mehr als verdreifacht. Kamen 2007 noch 2087 Migranten auf diesem Wege nach Sizilien, waren es ein Jahr später 7077. Bei der gefährlichen Passage über das Meer mit seeuntüchtigen und völlig überfüllten Booten kommt es häufig zu Unglücken, die viele Todesopfer fordern. Vor allem die zunehmende militärische Abschottung der EU-Mittelmeer-Anrainer hat in den letzten Jahren dazu beigetragen, dass die Routen der Migranten immer länger und damit die Gefahren immer größer werden. Von offizieller Seite wird von ca. 10.000 ertrunkenen Immigranten in den letzten acht Jahren ausgegangen. Die Dunkelziffer nicht gefundener Ertrunkener wird als weitaus höher eingestuft. Mit finanzieller Hilfe der EU sollen neue Auffanglager gebaut und die italienische Küstenwache besser ausgerüstet werden. Wirtschaft. Haupterwerbsquelle der Sizilianer ist der Dienstleistungssektor, knapp 70 % der Arbeitsplätze fallen in diesen Bereich. Hierzu trägt der wachsende Tourismus bei. Daneben bietet das milde Klima günstige Bedingungen für die Landwirtschaft, die eine stärkere Rolle als in Norditalien spielt. Der industrielle Sektor ist hingegen von vergleichsweise geringer Bedeutung. Im hügeligen, wasserarmen Landesinneren wird extensive Landwirtschaft in Form von Weidewirtschaft, Weizen- und Bohnenanbau betrieben. In den ebeneren Gebieten und an der Küste werden vor allem Zitrusfrüchte, Weinreben, Mandeln, Oliven, Gemüse und Baumwolle angebaut. Sizilien erwirtschaftet 70 % der gesamtitalienischen Erträge an Zitrusfrüchten, 60 % der Mandelernte und 25 % der Weintraubenernte. Die Produktion von Wein und Olivenöl ist ein weiterer wichtiger Wirtschaftszweig. Sizilien besitzt die größte Fischereiflotte Italiens. Die von hier aus betriebene Küsten- und Hochseefischerei, die sich auf den Fang von Thunfischen, Schwertfisch, Sardinen und Sardellen spezialisiert hat, erwirtschaftet durchschnittlich 30 % des gesamtitalienischen Fischfangs und 70 % des Fangs von Krustentieren. (Angaben 2005) Industriegebiete haben sich um Palermo, Catania, Syrakus, Ragusa und Gela entwickelt. Schwerpunkt sind petrochemische Industriebetriebe, der Maschinen- und der Schiffbau. In Catania sind einige Hochtechnologieunternehmen vertreten, so zum Beispiel der Elektronikkonzern STMicroelectronics, der 4600 Mitarbeiter im Bereich Forschung und Produktion beschäftigt. Der deutsche Internetknotenbetreiber DE-CIX errichtet zusammen mit TI Sparkle auf Sizilien zurzeit einen Internetknoten. Auch die Förderung von Stein- und Kalisalzen sowie von Marmor spielen eine wirtschaftliche Rolle. Der einst wichtige Schwefelbergbau in Sizilien, in dem die Insel zu Beginn des 20. Jahrhunderts weltweit führend war, ist um 1980 vollständig zum Stillstand gekommen. Sizilien leidet immer noch unter Strukturproblemen wie z. B. der hohen Arbeitslosigkeit, die bei 13,31 % pendelt (Italien 6,5 %). Die aktuelle Arbeitskraftstärke zählt derzeit 1.743.000 Arbeitskräfte, davon sind rund 232.000 Menschen arbeitslos. Weitere Probleme ergeben sich aus der mangelnden Verkehrsinfrastruktur im Inselinneren und den Geschäften der Mafia. Wie der gesamte Mezzogiorno gehört Sizilien zu den so genannten Ziel-1-Regionen, die weniger als 75 % des durchschnittlichen BIPs der EU aufweisen (2003: 73,1 %) und daher besonders gefördert werden, um wirtschaftliche und soziale Nachteile zu mindern. Energie und Wasser. Seit 1957 wird Sizilien vom italienischen Festland aus mit Strom versorgt. Die Hochspannungsleitung nach Messina wurde Ende der 1990er Jahre durch ein Seekabel ersetzt. Die zahlreichen Stauseen auf Sizilien dienen einerseits zur Bewässerung, andererseits zum Betrieb von Wasserkraftwerken. 1981 wurde in Adrano das erste Solarturmkraftwerk "Eurelios" in Betrieb genommen. 2006 begann der Bau zweier Windkraftanlagen bei Ramacca und Marineo. Sie sollen ab 2008 Strom erzeugen. Obwohl es von Natur aus ausreichend Wasser gibt, kommt es immer wieder zu Wassermangel, da das Wasser nicht richtig gespeichert und verteilt wird. Die Staubecken werden auf Grund baulicher Mängel meist nur bis zu einem Drittel gefüllt und 35 % des Wassers versickern auf Grund defekter Rohrleitungen, bevor es die Verbraucher erreicht. Aus diesem Grund übernehmen oft private Unternehmen die Wasserlieferung per Tanklastwagen, nicht selten zu überhöhten Preisen. Straßenverkehr. Auf Sizilien gibt es vier Autobahnen, die die größten Städte der Insel verbinden. Diese sind die A18 (Messina-Catania-Syrakus-Gela (fertiggestellt und befahrbar bis Rosolini seit 2010)), die A19 (Palermo-Caltanissetta-Enna-Catania), die A20 (Messina-Cefalù-Palermo) sowie die A29 (Palermo-Mazara del Vallo) mit einer Abzweigung nach Trapani. Daneben haben die Staatsstraßen SS 113, SS 114 und SS 115 große Bedeutung, da sie die Insel entlang der Küste komplett umrunden und vorerst wichtige, noch fehlende Autobahn-Verbindungen im Süden ersetzen. Schienenverkehr. Von Palermo aus gibt es Bahnverbindungen der Trenitalia nach Messina, Agrigent und Trapani, von Messina aus nach Catania, Syrakus und Agrigent. Die Ferrovia Circumetnea, eine regionale Nahverkehrsgesellschaft, betreibt die letzte Schmalspurbahn Siziliens (950 mm Spurweite), die von Catania aus fast den Ätna umrundet. Verbindungen zum Festland. Mit dem italienischen Festland ist Sizilien über Fähren verbunden, die die Häfen von Palermo und Messina anlaufen. Nach jahrelanger Diskussion wurde der geplante Bau einer Brücke über die Straße von Messina von Silvio Berlusconi ab April 2008 erneut vorangetrieben. Die Fertigstellung des Brückenbaus war für 2016 geplant. Seit dem Rücktritt Berlusconis im Jahr 2011 ist es ungewiss, ob die Brücke gebaut werden wird. Flugverkehr. Es gibt drei internationale Flughäfen auf Sizilien, den Flughafen Palermo-Punta Raisi in Palermo, den Flughafen Catania-Fontanarossa in Catania und den ehemaligen Militärflugplatz Vincenzo Florio Airport, der 15 Kilometer südlich der Stadt Trapani erst seit 2009 für den zivilen Luftverkehr geöffnet wurde. Von Palermo sowie Catania besteht die Möglichkeit, die Inseln Lampedusa und Pantelleria anzufliegen. Der Comiso Airport bei Comiso, ebenfalls ein ehemaliger Militärflugplatz im südöstlichen Sizilien, wurde in einen Zivilflughafen umgebaut und wurde im Mai 2013 eröffnet. Bildung. Das Schulsystem in Italien ist den Pflichtschulbereich betreffend für alle Regionen einheitlich. Nach drei Jahren Vorschule, fünf Jahren Grundschule und drei Jahren Mittelschule besteht die Möglichkeit, ein Gymnasium oder eine Berufsfachschule zu besuchen. Die berufliche Ausbildung fällt in den Kompetenzbereich der einzelnen Regionen. Ähnlich wie in der ersten Pisa-Studie von 2003 liegt Sizilien auch in der Pisa-Studie von 2006 mit 432 Punkten weit unter dem OECD-Durchschnitt von 500 Punkten und auch unter dem italienischen Durchschnitt von 462 Punkten. Das Medien-Echo auf beide Studien war jedoch gering. Sizilien verfügt über vier Universitäten. Die Universität Catania ist die älteste und größte. Sie wurde im Jahr 1434 gegründet und aktuell (2006) sind über 66.000 Studenten eingeschrieben. Weitere Universitäten sind die Universität Messina, die Universität Palermo und die Universität Enna, die erst 2004 offiziell errichtet wurde und eine der wenigen „freien“, das heißt nicht staatlichen Universitäten Italiens ist. Architektur. Siziliens bedeutendste Bauwerke stammen aus der Antike, der Zeit der Normannen und Staufer und des Barocks. Da Sizilien in der Antike Bestandteil der Magna Graecia war, finden sich hier zahlreiche griechische Tempel. Beeindruckende Beispiele hierfür sind die Tempel in Selinunt, Syrakus und Segesta und vor allem die Archäologischen Stätten von Agrigent. Der Concordiatempel dort gehört zu den am besten erhaltenen griechischen Tempeln überhaupt. Größere Theater aus griechischer und römischer Zeit befinden sich in Syrakus, Taormina und Tindari, Amphitheater in Syrakus und Catania. Glanzstück der Spätantike ist die Villa Romana del Casale mit ihren römischen Mosaiken nahe der Stadt Piazza Armerina. Die unter arabischer Herrschaft errichteten Bauten wurden größtenteils von den Normannen umgebaut und es entwickelte sich der für Sizilien typische arabisch-byzantinisch-normannische Baustil mit Kuppelbauten wie den Kirchen San Giovanni dei Lebbrosi, San Giovanni degli Eremiti und San Cataldo in Palermo und mit dekorativen Mosaiken wie zum Beispiel bei den Kathedralen von Monreale und Cefalù. Friedrich II. hinterließ zahlreiche Festungsbauten wie das Castello Ursino in Catania oder die Kastelle von Syrakus und Enna. Durch ein verheerendes Erdbeben 1693 wurden die südöstlichen Teile Siziliens weitgehend zerstört und ganze Städte wie Noto, Modica, Ragusa oder Catania im Stil des typisch sizilianischen Barocks wiederaufgebaut. Acht dieser Städte zählen zu den spätbarocken Städten des Val di Noto, die in die Liste des UNESCO-Welterbes aufgenommen wurden. Architekten, die wesentlich zum Wiederaufbau beitrugen, waren Rosario Gagliardi und Giovanni Battista Vaccarini. Bildende Kunst. Einer der wichtigsten sizilianischen Bildhauer war Antonello Gagini. Er schuf religiöse Figuren im Stil der Renaissance, unter anderem für die Kathedrale von Palermo und die Kathedrale von Messina. Hier sind Skulpturen des Renaissancebildhauers Rinaldo Bonanno zu sehen. Weit über die Grenzen Siziliens hinaus bekannt wurde im 15. Jahrhundert der Maler Antonello da Messina. Er trug entscheidend zur Verbreitung der Ölmalerei in Italien bei und seine Werke werden heute in Museen in ganz Europa ausgestellt. Zu seinen Nachfolgern zählen die Renaissancemaler Antonello de Saliba, Pietro de Saliba und Antonio Giuffrè, deren Gemälde heute vorwiegend in Kirchen und im Museo Regionale di Messina ausgestellt werden. Hier befinden sich die Hauptwerke von Colijn de Coter und Girolamo Alibrandi, dem "Raffaello da Messina". Ein bedeutender Maler des 17. Jahrhunderts war Pietro Novelli, der sich vorwiegend religiösen Motiven widmete. Ihm folgten Nicola van Houbraken und Giovanni Tuccari, der wichtigste Vertreter der sizilianischen Barockmalerei. Im 20. Jahrhundert erlangten der Bildhauer Pietro Consagra und Renato Guttuso, ein Maler des Realismus, internationalen Ruhm. Literatur. Im Bereich der Literatur hat Sizilien angefangen bei Stesichoros, einem Dichter um 600 v. Chr. über die Sizilianische Dichterschule und Giacomo da Lentini im 13. Jahrhundert n. Chr. auch in neuerer Zeit namhafte Schriftsteller hervorgebracht. Ende des 19. Jahrhunderts schuf Giovanni Verga mit seiner "Cavalleria rusticana" die Vorlage für die gleichnamige Oper. Weitere Werke wurden verfilmt. Luigi Pirandello, der bekannteste sizilianische Dramatiker, erhielt für sein Werk im Jahr 1934 den Nobelpreis für Literatur. Auch der Roman Der Gattopardo von Giuseppe Tomasi di Lampedusa, der den Untergang des sizilianischen Adels schildert, wurde unter dem gleichen Titel erfolgreich verfilmt. Einen weiteren Nobelpreis erhielt der Lyriker Salvatore Quasimodo im Jahr 1959. Leonardo Sciascias Romane beschreiben auf unterhaltsame, aber auch kritische Weise das Leben auf Sizilien und Andrea Camilleri gibt gegenwärtig durch seine Kriminalromane auch im Ausland Einblick in die Sprache und in die Küche Siziliens. Provozierend wirkte Lara Cardellas Roman von 1989 "Volevo i pantaloni" (deutscher Titel: Ich wollte Hosen), da er den Chauvinismus und die Engstirnigkeit Siziliens kritisiert. Film. Sowohl die Literatur als auch die Landschaften und die Menschen Siziliens inspirierten zu einer Reihe international erfolgreicher und mehrfach prämierter Filme. Zwei berühmte Literaturverfilmungen stammen von Luchino Visconti. 1948 drehte er nach der Romanvorlage "I Malavoglia" von Giovanni Verga den neorealistischen Film Die Erde bebt. Er schildert das Leben in einem verarmten Fischerdorf nahe Catania in den Nachkriegsjahren. 1963 drehte Visconti den Film Der Leopard nach dem gleichnamigen Roman von Giuseppe Tomasi di Lampedusa. Er thematisiert den Untergang des sizilianischen Adels um Palermo. Unter der Regie von Michael Cimino entstand 1987 der Spielfilm Der Sizilianer, der sich an einer gleichnamigen Romanvorlage von Mario Puzo orientiert und die Lebensgeschichte des Banditen und Mafioso Salvatore Giuliano schildert. Giulianos Leben wurde bereits 1961 von Francesco Rosi unter dem Titel Wer erschoss Salvatore G.? verfilmt. Rosis dokumentarischer Spielfilm setzt sich sehr kritisch mit dem Thema Mafia auseinander wie auch der „Anti-Mafia-Film“ 100 Schritte aus dem Jahr 2000 über den Politiker Giuseppe Impastato. Auf den Liparischen Inseln entstand 1949 Roberto Rossellinis Film Stromboli, der das karge Leben der Inselbewohner und die ständig drohende Gefahr eines Vulkanausbruchs zum Inhalt hat. Auch der Film Der Postmann von Michael Radford aus dem Jahr 1994 spielt auf den Liparischen Inseln. An verschiedenen Drehorten in Sizilien, unter anderem in Palermo, Cefalù und Palazzo Adriano, entstand unter der Regie von Giuseppe Tornatore 1988 der Film Cinema Paradiso über die Menschen eines kleinen sizilianischen Dorfes, ihres Kinos und die ersten Tage des Tonfilms. Auf den Pelagischen Inseln drehte Emanuele Crialese 2002 den Film Lampedusa. Er zeigt das Leben und die Traditionen der Inselbewohner. Sein jüngster Film Golden Door aus dem Jahr 2006 beinhaltet das Schicksal sizilianischer Auswanderer nach New York zu Beginn des 20. Jahrhunderts. Musik. In der klassischen Musik sind zwei für die Musikgeschichte bedeutsame Komponisten aus Sizilien zu nennen. Der Palermitaner Alessandro Scarlatti schuf für seine zahlreichen Opern eine neue Form der Einleitung, die "Sinfonia". Diese Form wurde bald von anderen Opernkomponisten übernommen und führte schließlich zur Entwicklung der klassischen Sinfonie. Der Catanese Vincenzo Bellini erreichte mit seinen Opern Weltruhm. Zu seinen herausragenden Werken gehören "La Sonnambula", "Norma" und "I puritani". Ihm zu Ehren heißt Catanias größtes Opernhaus Teatro Massimo Bellini. Nicht nur Siziliens, sondern ganz Italiens größtes Opernhaus ist das Teatro Massimo in Palermo. Auch die Volksmusik spielt bis heute eine wichtige Rolle. Es sind über 5000 Volkslieder in sizilianischer Sprache bekannt. Begleitet werden sie von einfachen Instrumenten wie der "marranzanu", einer Maultrommel, dem "tambureddu", einer einfelligen Rahmentrommel mit Schellenkranz, der "friscalettu", einer kleinen aus Bambus oder Schilf gefertigten Flöte und der "ciaramedda", einer Art Dudelsack. Weitere Begleitinstrumente sind Gitarre ("chitarra"), Mandoline ("mandolino") oder Akkordeon ("organetto"). Traditioneller Volkstanz auf Sizilien ist die Tarantella. Vor allem in Sizilien erhielt sich die besondere Liedform "canzone", ein Wechselgesang zwischen Instrument und Stimme. Der sizilianische Gesang, aber auch die volkstümlichen Instrumente sind dabei stark orientalisch beeinflusst. Theater und Museen. "→ Liste der Museen in Sizilien" In Palermo befindet sich Italiens größtes und Europas drittgrößtes Opernhaus, das Teatro Massimo. Es wurde Ende des 19. Jahrhunderts erbaut und bietet Platz für 3200 Zuschauer. Weitere bedeutende Theater sind in Palermo das Teatro Politeama, Sitz des sizilianischen Sinfonieorchesters, in Catania das Teatro Massimo Bellini und in Messina das Teatro Vittorio Emanuele II. Auch die antiken Theater werden für Schauspiel-, Musik- und Tanzaufführungen oder Filmfestivals genutzt. Zu den größten archäologischen Museen zählen das Museo Archeologico Regionale Antonino Salinas in Palermo mit Fundstücken aus dem Westteil Siziliens und das Museo Archeologico Regionale Paolo Orsi in Syrakus, das die Geschichte des Ostteils dokumentiert. Das umfangreichste Kunstmuseum ist die Galleria Regionale della Sicilia in Palermo. Weitere Werke sizilianischer Maler und Bildhauer befinden sich im Museo Regionale di Palazzo Bellomo in Syrakus und im Museo Regionale di Messina. Umfangreiche kulturhistorische und ethnografische Sammlungen befinden sich in Palermo im Museo Etnografico Siciliano Giuseppe Pitrè und im Museo Internazionale delle marionette Antonio Pasqualino. Kunsthandwerk. Im sizilianischen Kunsthandwerk spielt die Herstellung farbenfroh glasierter Keramik eine wichtige Rolle. Das bedeutendste Zentrum der Keramikherstellung ist Caltagirone, weitere Herstellungsschwerpunkte liegen in Palermo, Sciacca, Burgio und Santo Stefano di Camastra. Brauchtum. In der ersten Hälfte des 19. Jahrhunderts entwickelte sich aus der Tradition der Straßensänger das Sizilianische Marionettentheater. Das Puppenspiel mit aufwendig gestalteten Marionetten wird vor allem in den größeren Städten bis heute aufgeführt. 2001 wurde es von der UNESCO in die Liste der Meisterwerke des mündlichen und immateriellen Erbes der Menschheit aufgenommen. Bis Mitte des 20. Jahrhunderts waren die Sizilianischen Karren, kunstvoll bemalte und mit Schnitzereien verzierte Holzkarren, übliches Transportmittel auf der Insel. Heute werden mit diesen Karren jährlich im April große Umzüge veranstaltet. Eine wichtige Rolle spielen auf Sizilien religiöse Ereignisse. Zu den Höhepunkten im Kirchenjahr zählen bei der überwiegend römisch-katholischen Bevölkerung die Karfreitagsprozessionen. Vor allem Marsala, Enna und Trapani sind bekannt für ihre beeindruckenden Prozessionen. Ähnliche Umzüge finden zu Ehren der zahlreichen Schutzheiligen statt, die auf Sizilien verehrt werden. Die wichtigsten Feierlichkeiten dieser Art sind das Fest der Heiligen Rosalia in Palermo, der Heiligen Agata in Catania und der Heiligen Lucia in Syrakus. Küche. Die sizilianische Küche zählt zu den ältesten und vielseitigsten Regionalküchen Italiens. Typische Vorspeise, beziehungsweise Zwischenmahlzeit sind Arancini, kleine gefüllte Reisbällchen, oder Sfincione, eine Art Pizza aus Brotteig. Typisches Nudelgericht aus Palermo ist Pasta con le sarde mit Sardinen, aus Catania Pasta alla Norma mit Auberginen, benannt nach der Oper Vincenzo Bellinis. Eine Spezialität aus den ländlichen Gegenden ist der Farsu magru, ein reichhaltig gefüllter Rollbraten. In den Küstenregionen werden auch Fische oft gefüllt serviert wie zum Beispiel die Sarde a beccafico. Zu gebratenem Fisch oder Fleisch wird traditionell Insalata di arance, ein Orangensalat serviert. Sizilianische Käsesorten sind der Ragusano (meist nur als Caciocavallo bezeichnet) und der Pecorino Siciliano. Eine besondere Rolle spielen auf Sizilien Süßwaren, deren Rezepte oft aus arabischer Zeit stammen. Berühmt sind die Cassata, eine farbenfroh dekorierte Torte, die Frutta martorana, Früchte aus Marzipan, und Cannoli, mit Ricottacreme gefüllte Teigrollen. Schon im Mittelalter finden wir Einwirkung auf die englische Kultur. So finden sich zum Beispiel in anglonormannischen Handschriften zur Kochkunst Gerichte wie "Poume d’oranges" oder "Teste de Turke", die arabischen Ursprungs sind und durch den kulturellen Austausch nach der Eroberung Siziliens auch in englischen Küchen auftauchten. Sport. Wie überall in Italien ist auf Sizilien der Fußball die beliebteste Sportart. Lange Zeit waren die sizilianischen Mannschaften jedoch nicht in der Serie A vertreten. Nach den Aufstiegen von US Palermo und FC Messina schaffte es auch Catania Calcio als dritte sizilianische Mannschaft in die höchste Liga. Der FC Messina spielt seit 2007 wieder in der Serie B. Neben Fußball werden viele andere Sportarten betrieben, teilweise im professionellen Bereich. Beispiele für hochklassige Vereine sind der in mehreren Sportarten vertretene CUS Catania, der Basketballclub Upea Capo d'Orlando, die Wasserballvereine Canottieri Ortiga (Syrakus) und Nuoto Catania sowie der Verein Orizzonte Geymonat Catania, der einer der erfolgreichsten italienischen Vereine im Damenwasserball mit 15 gewonnenen Meisterschaften und sieben europäischen Pokalen ist. Auf den Bergstraßen im Inselinneren wird jährlich die Rallye Targa Florio veranstaltet, die im Jubiläumsjahr 2006 zum 90. Mal stattfand. Weitere internationale Sportereignisse sind Pferderennen in Palermo und eine Unterwassersportschau auf der Insel Ustica. Eine Besonderheit stellen die Skipisten auf dem Ätna dar, die es ermöglichen, in einer der sonnigsten Regionen Europas alpinen Skisport zu betreiben. Umwelt. Umweltschäden sind auf Sizilien nicht zu übersehen. Durch die jahrhundertelange Rodung der Wälder verloren die ursprüngliche Fauna und Flora Siziliens an Lebensraum. Veraltete Industrieanlagen vor allem um Gela und Syrakus führen zu Luft-, Wasser- und Bodenverschmutzung. Illegal errichtete, oft unfertige Betonbauten und wilde Müllhalden stören das Landschaftsbild. Seit den 1980er Jahren wächst langsam das Bewusstsein für die Umwelt. Mit der Anpflanzung rasch wachsender Arten wie Eukalyptus wird versucht, der Abholzung und den Folgen für Boden und Wasserhaushalt entgegenzuwirken. Es gibt inzwischen fünf Regionalparks, sechs Meeresschutzgebiete und knapp 70 kleinere Naturreservate. Das erste Naturschutzreservat Riserva naturale orientata dello Zingaro wurde 1981 eingerichtet. Als erster großer Regionalpark wurde 1987 auf dem Ätna der Parco dell’Etna mit einer Größe von knapp 60.000 ha geschaffen. Hier leben jetzt unter anderem wieder Wölfe, Füchse, Rotwild, Stachelschweine und an die 70 Vogelarten. Dem Regionalpark Parco dell'Etna folgten 1989 der Parco delle Madonie, 1993 der Parco dei Nebrodi und 2001 der Parco Fluviale dell'Alcantara. Der Parco dei Nebrodi ist mit 86.000 ha einer der größten Naturschutzparks Europas. Seit Beginn des 21. Jahrhunderts stehen 227.000 ha, das sind knapp neun Prozent der Fläche Siziliens, unter Naturschutz. Um die Meeresfauna zu erhalten, wurde eine Reihe von Unterwassernaturschutzgebieten eingerichtet, als erstes die Riserva naturale marina Isola di Ustica. Einige Strände sind mit der Blauen Flagge, dem Gütesiegel für hohe Wasserqualität, ausgezeichnet. Sieben Freie Künste. Die Sieben Freien Künste (lateinisch "septem artes liberales," seltener auch "studia liberalia") sind ein in der Antike entstandener Kanon von sieben Studienfächern. Aus den Freien Künsten bestand traditionell die einem freien Mann ziemende Bildung, ihre Siebenzahl ist aber erst in der Spätantike bezeugt. Im mittelalterlichen Lehrwesen galten sie als Vorbereitung auf die Fakultäten Theologie, Jurisprudenz und Medizin. Umfang und Gliederung. Die "Freien Künste" waren so bezeichnet, um sie gegenüber den praktischen Künsten (Artes mechanicae) als höherrangig zu bewerten. Seneca schreibt in seinem 88. Brief: "Quare liberalia studia dicta sunt vides: quia homine libero digna sunt" („Du siehst, warum die freien Künste so genannt werden: weil sie eines freien Menschen würdig sind“). Als freier Mann galt, wer nicht zum Broterwerb arbeiten musste. Somit konnten nur solche Beschäftigungen würdig sein, die keine Verbindung mit Erwerbstätigkeit hatten. Man unterschied bei den Freien Künsten das Trivium "(Dreiweg)" der sprachlich und logisch-argumentativ ausgerichteten Fächer, die die Voraussetzung für jede Beschäftigung mit der (lateinischen) Wissenschaft bilden, und das weiterführende Quadrivium "(Vierweg)" der mathematischen Fächer. Die Sieben freien Künste mit ihren Attributen Antike. Die griechische Tradition bildete noch keinen Kanon der Freien Künste heraus. Die vier mathematischen Fächer wurden jedoch bereits von Platon in der Politeia im Zusammenhang mit der Ausbildung des idealen Staatsmannes nächst der Philosophie als diejenigen Lehrgegenstände angeführt, die zur Vernunfterkenntnis führen, wobei sich Platon seinerseits bereits auf die Pythagoreer bezieht. Aristoteles unterscheidet drei eines freien Mannes würdige Lebensweisen ("bíoi"), die sich alle im Bereich des Schönen abspielen: (a) im Genuss und Verzehr des körperlich Schönen; (b) im Ausüben schöner Taten innerhalb der Polis ("bíos politikós"); (c) im Erforschen und Schauen schöngeistiger Dinge ("bíos theoretikós"). Die Freien Künste erfuhren eine enzyklopädische Behandlung erstmals in den "Disciplinae" des römischen Gelehrten Varro im 1. Jahrhundert v. Chr. Bei Varro kommt aber ebenso wie bei Cicero und Vitruv die Siebenzahl noch nicht vor, vielmehr behandelt er im 8. und 9. Buch auch Medizin und Architektur. In den hellenistischen Gymnasien wurden die mathematisch-naturwissenschaftlichen Fächer nicht unterrichtet, und auch im städtischen Unterrichtswesen der römischen Kaiserzeit gehörten sie nicht zum Lehrstoff. Außerberuflicher Unterricht in diesen Fächern wurde nur in Philosophenschulen angeboten und war daher nur einem kleinen Prozentsatz der Bevölkerung zugänglich. Als fester Kanon von sieben Fächern sind die Freien Künste erst in der Spätantike (bei Augustinus und Martianus Capella) bezeugt. Für diese Autoren bestand der Zweck des Wissenserwerbs in den sieben Fächern nicht in schulischer Allgemeinbildung; vielmehr war die Zielrichtung eine philosophische bzw. religiöse (Vorbereitung der Seele auf den Aufstieg in die intelligible Welt nach der Lehre des Neuplatonismus bzw. in den Bereich der göttlichen Dinge im christlichen Sinne). Martianus Capella hebt ausdrücklich hervor, dass Medizin und Architektur nicht zum Kanon gehören. Mittelalter. Dem Mittelalter wurden die Sieben Freien Künste in enzyklopädischer Form vor allem durch Martianus Capella vermittelt, in dessen Lehrgedicht "Von der Hochzeit Merkurs und der Philologie" diese Künste als Brautjungfern auftreten und ihr Lehrwissen als Hochzeitsgaben ausbreiten, sowie durch Cassiodor und durch Isidors Einarbeitung des Lehrstoffs in seine Etymologiae. Hinzu kamen in einzelnen Fächern als grundlegende Lehrwerke der Antike etwa für die Grammatik die "Ars minor" und "Ars maior" von Donatus, für die Rhetorik die (fälschlicherweise) Cicero zugeschriebene "Rhetorica ad Herennium," für die Arithmetik und Musik die beiden "Institutiones" von Boëthius und für die Dialektik dessen Übersetzungen und Kommentare zu Schriften aus dem aristotelischen Organon. Der Unterricht in den "Artes liberales" stand als ein Propädeutikum zwischen dem Elementarunterricht (Lesen und Schreiben mit elementaren Lateinkenntnissen, Rechnen, Singen) und den eigentlichen wissenschaftlichen Studien, bei denen im Frühmittelalter die Theologie im Vordergrund stand. Den Stoff der "Artes" oder Teile davon vermittelten zunächst die Kloster-, Dom- und Kathedralschulen sowie städtische Bildungseinrichtungen und freie Magister. Mit der Entstehung der Universitäten wurde die Artistenfakultät "(Facultas Artium)" als eine der vier Fakultäten (zusammen mit Theologie, Recht, Medizin) in das Studium Generale integriert und wurde damit zur Vorläuferin der Philosophischen Fakultät, unter deren Namen sie zum Teil schon seit dem 15. Jahrhundert weitergeführt wurde. Bereits im Lehrbetrieb der scholastischen Artistenfakultäten veränderte sich der Lehrstoff der "Artes liberales" erheblich und nahm vor dem Hintergrund neuer Übersetzungen der Schriften von Aristoteles und seiner arabischen Kommentatoren vor allem philosophische Inhalte auf. Rhetorik und Musik traten in den Hintergrund, desgleichen Grammatik, sofern sie nicht im Rahmen der Beschäftigung mit den "modi significandi" als eine Art Sprachlogik weitergeführt wurde, während die Dialektik an Bedeutung gewann und die im weitesten Sinn naturwissenschaftlichen "Artes" zu einem Studium in theoretischer (Physik, Metaphysik) und praktischer (Ethik, Ökonomie, Politik) Philosophie ausgebaut wurden. Das Studium an der Artistenfakultät blieb Vorbedingung für das Studium an den anderen drei Fakultäten. Als akademische Grade vergab die Artistenfakultät nach einem Zwischenexamen den Titel des "Baccalaureus Artium" und – sofern der Baccalaureus nicht an einer der anderen Fakultäten sein eigentliches Studium aufnahm – nach erneutem Examen den Abschluss des "Magister artium." Die Lehrerlaubnis "(licentia docendi)" in den Artes liberales war mit Einschränkung zum Teil schon im Rahmen des Bakkalaureats zu erwerben, die volle Lehrbefähigung aber erst mit dem Magister artium, an dessen Stelle dann seit dem 15. Jahrhundert, im Zuge der allgemeinen Ablösung des Magisters durch den Doktor, der Titel des "Doctor philosophiae" trat. Renaissance. Unter dem Leitbegriff der Studia humanitatis, der nicht an einen bestimmten antiken Fächerkanon, sondern an die Formulierung allgemeiner klassischer Bildungsziele bei Cicero anknüpfte, erfuhren die Artes im Humanismus des 15. und 16. Jahrhunderts nochmals eine Neubewertung, die nicht nur das Artes-Studium an der Universität, sondern auch die vor- und außeruniversitären Bildungsbestrebungen in Schule und Privatunterricht betraf. Hierbei wurden einerseits die Fächer des Triviums durch das Studium eines teilweise neuen Kanons klassischer, nun nach Möglichkeit auch griechischer Musterautoren mit Schwerpunkt auf dem Bereich der Dichtung, andererseits in der Philosophie die praktische gegenüber der theoretischen Philosophie, und außerdem das Studium der Geschichte in den Vordergrund gestellt. "Liberal Arts" in den USA. Als "liberal arts" bezeichnet man im amerikanischen Hochschulwesen Studiengänge, die der Allgemeinbildung und der Ausbildung grundlegender intellektueller Fähigkeiten und der Ausdrucksfähigkeit dienen sollen. Sie grenzen sich damit gegen die berufsvorbereitende oder wissenschaftlich spezialisierte Ausbildung programmatisch ab bzw. sind ihr vorgelagert. Die "liberal arts studies" gehören zu den undergraduate studies und werden an eigenen, meist privaten "liberal arts colleges" studiert. Colleges dieses Typs legen oft besonderen Wert auf individuelle Betreuung der Studierenden, kleine Klassengrößen und teamorientiertes Lernen. Die Lehrpläne variieren, umfassen aber typischerweise ein breites Spektrum von Themen aus den Gebieten der Mathematik und Naturwissenschaften, Gesellschaftswissenschaften, Literatur und Sprache sowie Kreatives Schreiben, Kunst und Musik. Das Studium dauert in der Regel vier Jahre und kann mit dem Bachelor abgeschlossen werden, um anschließend gegebenenfalls an einer "professional school" oder "graduate school" durch ein Zweitstudium in einem spezialisierteren Fach wie Jura, Medizin, oder Betriebswirtschaft fortgesetzt zu werden. Einige wenige "liberal arts colleges" bieten auch eigene "graduate studies" an. Die spezifisch auf Allgemeinbildung ausgerichtete Mission der "liberal arts colleges" war seit dem Ende des Zweiten Weltkrieges – bedingt durch den Ausbildungsbedarf heimkehrender Kriegsteilnehmer und die zunehmende technische und informationstechnologische Spezialisierung der Arbeitswelt – immer wieder dem Anpassungsdruck besonderer Nachfrage nach einer mehr berufspraktisch und an den Bedürfnissen des je aktuellen Arbeitsmarktes ausgerichteten Ausbildung ausgesetzt. Nach einer Studie von 1998 hatten nur 3 % aller College-Absolventen in den USA einen Abschluss an einem "liberal arts college" erworben, im weiteren Ausbildungs- und Berufsleben dann jedoch einen überproportionalen Anteil an den wirtschaftlichen und politischen Führungskräften (8 % der Forbes-Liste, 19 % der US-Präsidenten), Pulitzer-Preisträgern (zwischen 6 % und 23 %), Fulbright-Stipendiaten (9 %) und den Promovierten wissenschaftlicher Studiengänge erreicht. Das "liberal arts college" ist eine spezifisch US-amerikanische Institution, die im britischen Bildungswesen und anderen Ländern nicht oder nur als Nachahmung oder Ableger des US-amerikanischen Modells vorkommt. In Deutschland orientiert sich an diesem Programm das private European College of Liberal Arts in Berlin. Am Leibniz Kolleg gibt es ein einjähriges Studium generale. Seit dem Wintersemester 2012 bietet die Universität Freiburg am University College Freiburg den vierjährigen Bachelorstudiengang "Liberal Arts and Sciences" an. In den Niederlanden finden sich z. B. das University College Maastricht, das Amsterdam University College (AUC) und das University College Utrecht. In China existiert mit dem Boya College (chin. "Bóyā xuéyuàn" 博雅学院) an der Sun-Yat-sen-Universität (Guangdong) ein Versuch, eine Variante der Liberal Arts zu etablieren, die auf einer Synthese von "West" und "Ost" basiert. Schafgarben. Die Schafgarben ("Achillea") sind eine Pflanzengattung in der Familie der Korbblütler (Asteraceae). Ihr botanischer Name "Achillea" leitet sich von dem griechischen Helden Achilles ab, welcher der Legende nach mit Hilfe dieser Pflanze einst seine Wunden behandelt haben soll. Vertreter dieser Gattung finden als Heilpflanzen Verwendung. Beschreibung. Bei den "Achillea"-Arten handelt es sich um ausdauernde krautige Pflanzen, selten Halbsträucher, die Wuchshöhen von 6 bis zu 80 Zentimetern erreichen. Meist duftet die ganze Pflanze aromatisch. Im Frühling treibt das Rhizom eine Blattrosette aus. Später wächst ein Stängel, auf dem sich die Blüten bilden. Der glatte bis behaarte Stängel ist zäh und innen markhaltig. Die schmalen, wechselständigen und gefiederten Laubblätter sind gestielt bis sitzend. Der einfache oder zusammengesetzte scheindoldige Blütenstand besteht aus vielen kleinen körbchenförmigen Teilblütenständen. 10 bis 30 Hüllblätter stehen in (ein bis) zwei bis drei (bis vier) Reihen. Die Blütenkörbchen weisen meist einen Durchmesser von 2 bis 3 (selten 5) Millimeter auf und enthalten (5 bis) 15 bis mehr als 75 Röhren- und selten keine, meist aber drei bis fünf (bis zwölf oder selten mehr) Zungenblüten. Die Blütenfarbe der meisten Arten ist weiß bis schwach gelblich, auch rosa Färbungen kommen vor. Die Achänen besitzen meist zwei Rippen. Verbreitung. Die "Achillea"-Arten sind in der subtropischen bis gemäßigten Zone Eurasiens beheimatet, einige Arten aber auch in Nordafrika und in Amerika. In ganz Europa sind sie bis zum Polarkreis und auch in den Alpen heimisch. Verwendung. Verwendung finden die blühenden Schafgarben als Bitter-Tonika bei Verdauungsstörungen und Koliken. Zudem werden die Blüten zur Pflege der Gesichtshaut in Dampfbädern eingesetzt. Die frischen Triebe und Blätter können außerdem als Beigabe zu Salaten verwendet werden und die ätherischen Öle wirken schleimlösend. Aus den Stängeln wurden Stäbchen für das traditionelle chinesische Schafgarbenorakel gefertigt, siehe auch I Ging. Inhaltsstoffe. Inhaltsstoffe der Schafgarben sind Proazulen, Ätherische Öle, Gerbstoffe, Flavonoide, Chamazulen (in seiner Vorstufe Matricin), Kampfer, Achillein und andere Bitterstoffe sowie verschiedene Mineralien (vor allem Kalium). Systematik. Synonyme für "Achillea" sind: "Leucocyclus" Boiss., "Ptarmica" Hill Silvia. Silvia oder Sylvia ist ein weiblicher Vorname. Herkunft und Bedeutung des Namens. Der Name kommt aus dem Lateinischen, wo "silva" "Wald" bedeutet. Daher wird die Bedeutung von Silvia/Sylvia oft als Königin des Waldes oder Herrin des Waldes angegeben. Ein weiterer Zusammenhang könnte auch zu einer Form der Luftgeister – der "Sylphen" – bestehen, die zugleich auch die Luftelementaren der griechischen Überlieferung sind. Unumstritten ist die Beziehung zu Rhea Silvia, der Mutter von Romulus und Remus. Eine Heilige Silvia, die Mutter des Papstes Gregor des Großen, starb um das Jahr 592. Ihr Gedenktag und Namenstag ist der 3. November. Varianten. Silvana, Silvie, Sylva, Silvija (Serbo-kroatisch), Silvy, Sylviane, Sylvie, Sylwia (Polen), Szilvia (Ungarn) Stühlingen. Stühlingen ist eine historische Kleinstadt im Landkreis Waldshut im Süden Baden-Württembergs an der Grenze zwischen Deutschland und der Schweiz. Lage. Der Luftkurort Stühlingen liegt an der Wutach am Südrand des Schwarzwaldes in 449 bis 850 Meter Höhe, direkt an der Grenze zur Schweiz nahe der (Gemeinde Schleitheim). Stühlingen ist Teil des Naturparks Südschwarzwald. Die Altstadt von Westen (Landstrasse) Stadtgliederung. Die B 314 durchquert das Wirtschaftsgebiet von Stühlingen entlang der ehemaligen Bahnlinie „Sauschwänzlebahn“ von Waldshut in Richtung der Autobahn A8. An der anderen Talseite auf einem Plateau befindet sich die Altstadt mit den Straßen zum Schloss und zu Klinik und Kloster. Im Tal liegt auch die neuzeitliche Stadt mit den Kirchen. Zur Stadt Stühlingen mit den früher selbstständigen Gemeinden Bettmaringen, Blumegg, Eberfingen, Grimmelshofen, Lausheim, Mauchen, Oberwangen, Schwaningen, Unterwangen und Weizen gehören neben der Stadt Stühlingen noch 32 weitere Weiler, Zinken, Höfe und Häuser. "→ Siehe auch: Liste der Orte im Landkreis Waldshut" Im Gebiet der ehemaligen Gemeinde Bettmaringen liegen die Wüstungen Ottwangen und Tandlekofen. Im Gebiet der ehemaligen Gemeinde Blumegg liegen die Burgruinen Blumegg und Vorburg sowie die Wüstung Hausen. Im Gebiet der ehemaligen Gemeinde Lausheim liegen die Reste einer urkundlich nicht genannten "Burg". Im Gebiet der ehemaligen Gemeinde Unterwangen liegt die Wüstung Burgstell. Nachbargemeinden. Nachbarorte von Stühlingen sind (im Uhrzeigersinn) Wutach, Blumberg, Schleitheim (CH), Oberhallau (CH), Hallau (CH), Eggingen, Ühlingen-Birkendorf und Bonndorf im Schwarzwald. Städte in der Umgebung von Stühlingen sind Schaffhausen (Schweiz), Bonndorf, Blumberg, Stein am Rhein (Schweiz), Waldshut-Tiengen, Singen (Hohentwiel) und Donaueschingen. Geschichte. Stühlingen war Sitz der Landgrafschaft Stühlingen und der Herrschaft Fürstenberg. Römerzeit. Wie Funde aus römischer Zeit in unmittelbarer Nachbarschaft zu Stühlingen zeigen, war der Talboden bei Stühlingen schon sehr lange besiedelt. Die Grundfeste des Schlosses Hohenlupfen soll zu dieser Zeit als Fundament für einen römischen Signalturm gedient haben. Bei der Ziegelhütte wurden Münzen aus römischer Zeit gefunden, die mit den Insignien der XI. und XXI. Legion der römischen Heeres versehen sind. Im Oberdorf, am Fuße des Galgenbucks, wurde 1848 ein Mosaikfussboden römischer Herkunft entdeckt. Zusammen mit den Ausgrabungen bei Juliomagus im benachbarten Schleitheim ergibt sich das Bild eines römischen Siedlungszentrums, das sich zu jener Zeit um die Wutachüberquerung bei Stühlingen und Schleitheim befand. Merowingerzeit. Zum Ende des 5. Jhdts hatten die Merowinger durch Siege über die „fränkischen Kleinkönige“ und die Einführung des Christentums auch die Alamannen dem zentralisierten Frankenreich angegliedert. Durch ihre überlegene staatliche Organisationsform bewahrten die Merowinger auch die gallo-römische Kultur, sie bedienten sich der Kenntnisse der alten gallo-römischen Aristokratie und lehnten sich an die spätantike Verwaltungspraxis an. An wichtigen Verkehrsknotenpunkten, zu denen auch der Übergang vom Wutachtal in den Klettgau zählte, erweiterten sie alte Siedlungen. Im 6. Jhdt. kam es zu Teilungen des Reiches, das Chlothar I. von 558 bis 561 wieder vereinigte. Bislang gab es nur wenig Hinweise auf die Merowinger am Hochrhein, so dass den Funden bei Stühlingen eine gewisse Bedeutung zukommt. Geschlossen wird dadurch auch eine Lücke in der Besiedlungsgeschichte des Raumes. Bereits 1951 waren acht Gräber auf einer Niederterrasse der Wutach entdeckt worden. Beim Bau einer Gashochdruckleitung begann man 2007 mit der Freilegung des Gräberfeldes, das sich als merowingisch herausstellte. Mit ehrenamtlichen Helfern wurden bis 2010 mehrere Kampagnen durchgeführt. Die Funde stammen aus der Zeit um 600 und umfassen 123 Bestattungen. Darunter waren Gräber mit Steinkisten und Steinsärgen. Die Gräber enthielten meist keine Schmuckgegenstände mehr, die Abdeckplatten waren zerschlagen. Offenbar waren sie bereits vorzeitlich von Grabräubern geplündert worden. Gefunden wurden Glasperlen und zahlreiche Waffenbeigaben. Ab 2008 waren auch weitere Flächen untersucht worden, dabei stieß man auf einen Frühmittelalterlichen Friedhof und frühurnenfelderzeitliche Gräber. Verleihung des Stadt- und Marktrechts. Ein markanter Zeitpunkt war das Jahr 1262, in dem der ovale, befestigte Ort auf einem Bergsporn hoch über dem Wutachtal vom Grafen Eberhard I. von Lupfen Grafen zu Lupfen die Stadtrechte verliehen bekam, und sich fortan (mit einer Unterbrechung) bis heute Stadt Stühlingen nennen darf. Die Stadt erhielt um 1262 auch das Marktrecht und war Gerichtsstätte für das Landgericht. Märkte fanden innerhalb der oval geformten Stadtmauern statt, vor allem aber auf dem Platz beim Oberen Tor, der heute noch „Marktplatz“ heißt. Dreißigjähriger Krieg. Am 30. September 1633 zogen der General Johann von Aldringen und der Feldherr Gómez Suárez de Figueroa, duque de Feria nach der Belagerung von Konstanz in den Klettgau, von Stühlingen aus bedrohten sie die Stadt Schaffhausen, sie befehligten zusammen ein Heer von etwa 30000 Mann. Nach Verhandlungen zogen sie am 8. Oktober nach Tiengen, welches sie den Schweden abnahmen und belagerten danach Rheinfelden. Schweizerkrieg. Der Schweizerkrieg machte auch die Statthalterschaft der Lupfener Grafen zur Zielscheibe der aufständischen eidgenössischen Bauern, von denen die Stadt 1499 erobert und gebrandschatzt wurde. Obwohl die Burg und das "Städtle" (die Altstadt, siehe Abschnitt Sehenswürdigkeiten) kampflos übergeben wurden, plünderte die eidgenössische Soldateska entgegen einem Abkommen letzteres, vermutlich um sich für einen Angriff auf das benachbarte Hallau zu rächen. Bei diesem Angriff war das Hallauer Oberdorf in Flammen aufgegangen, im Gegenzug wurde nun das Stühlinger Städtle und die Burg niedergebrannt. Dies geschah, obwohl der Kommandant und Obervogt Martin von Starkenberg kapituliert hatte, um die Festung vor der Vernichtung zu retten. Die Kapitulation kostete dem Obervogt im Nachhinein den Kopf. Die Stühlinger Burg wurde dabei fast vollständig zerstört und im Anschluss nur notdürftig wieder aufgebaut. Das Städtle erholte sich nur langsam von den Kriegsfolgen. Die Bewohner der ganzen Landgrafschaft Stühlingen mussten für den Wiederaufbau zahlen, was die Situation für die Einheimischen noch verschlimmerte. Bauernkrieg. In der Stühlinger Bauernschaft rumorte es dann 1524, als es zum Aufstand gegen die Obrigkeit kam. Laut einer Sage gab der sog. „Schneckenstreit“ Anlass zu diesem Aufstand. Sicher ist jedoch, dass der Funke, der den Bauernkrieg auslöste, von der Landgrafschaft Stühlingen ausging. Die Gründe hierfür sind sozialer Natur, lokale Ursache war ebenso der Schweizerkrieg, der erst 25 Jahre zurücklag, und unter dessen Lasten des Wiederaufbaus die Stühlinger Bevölkerung immer noch litt. Zudem waren die Landgrafen von Stühlingen bekannt dafür, ein verschwenderisches Hofleben zu führen, welches im Endeffekt immer in Form von Abgaben und Frondiensten zu Lasten der Bevölkerung ging. Bekannt ist, dass einer der bedeutendsten Rädelsführer, Hans Müller von Bulgenbach, aus dem gleichnamigen Weiler im Westen der Landgrafschaft Stühlingen stammte. Die Landgrafschaft Stühlingen reichte um 1524 westlich bis nach Seebrugg im Südschwarzwald, der Aufstand des "gemeinen Mannes" bezog sich auf die Bewohner der ganzen Landgrafschaft. 19. Jahrhundert. Dem Stühlinger Städtle wurden 1828 das Untere bzw. Niedere Tor und 1846 das Obere Tor genommen. Das Untere Tor stürzte infolge des Brandes des Gasthauses „Schwarzer Adler“ ein, und wurde nicht mehr aufgebaut. Das Obere Tor war weitaus repräsentativer, mit einer Glocke, einer Uhr und dem Stadt- und Herrschaftwappen versehen. Nachdem allerdings das benachbarte Gebäude des Gasthauses „Krone“ um 1800 abgebrannt war, und man ob des freigewordenen Platzes für den zunehmenden Fuhrverkehr froh war, schlug auch für das Obere Tor in besagtem Jahr das letzte Stündlein. Ausnahmsweise brannte dieses Tor nicht ab, sondern wurde staatlich subventioniert von der Gemeinde abgerissen. 1864 wurde der Gerichtsbezirk Stühlingen aufgelöst und das Amtsgericht nach Bonndorf verlegt. Das Abhalten von Landgerichten war seit Jahrhunderten ein Recht der Stühlinger, da der Landgraf hier seinen Grafenstuhl verortet hatte. Dementsprechend hart traf es die Stühlinger, dieses Rechtes beraubt zu werden. 20. Jahrhundert. In der Zeit des Nationalsozialismus wurde Stühlingen durch die Deutsche Gemeindeordnung von 1935 das Stadtrecht aberkannt. Nach dem Ende des Zweiten Weltkriegs wurde es 1950 wieder hergestellt. Die Verleihung des Stadtrechts begründete die Pflanzung einer Linde im „Judenwinkel“, der sog. „Stadtlinde“. Im Jahr 1960 wurde in Stühlingen ein beheiztes Freibad im Weilertal eröffnet, das seit der Saison 2006 vom Verein „Schwimmfreunde Stühlingen“ betrieben wird. Vor 1960 nutzten die Einwohner eine Badestätte am Kanal oberhalb der Schraubenfabrik links der Kanalbrücke. 1962 feierten die Stühlinger Bürger die 700-Jahr Feier anlässlich der Verleihung der Stadtrechte 1262. Zwischen 1973 und 1975 vergrößerte sich die Stadt Stühlingen von 1746 auf über 5176 Einwohner (Stand 1970) durch die Gemeindereform in Baden-Württemberg. Dadurch wuchs Stühlingen zu einer Flächengemeinde mit einer Fläche von ursprünglich 1670 ha auf 9340 ha. 1964–1966 wurde auf einem ausgedehnten Wiesengelände, den sog. Eichwiesen, die Realschule errichtet, zwischen der Unterdorf-Bebauung und der Bahnlinie der Wutachtalbahn gelegen. Am 26. März 2007 begann der Bau eines Altenpflegeheimes mit betreutem Wohnen, welches im Folgejahr in Betrieb ging. Das Pflegeheim befindet sich ebenfalls in den Eichwiesen. Direkt neben dem Pflegeheim wurde nach jahrzehntelangem Stillstand ein Neubaugebiet ausgewiesen und rege bebaut. Die Anliegerstraße wurde zu Ehren der französischen Partnerstadt im Jahr 2006 als „Bellêmer Straße“ benannt. Von kleineren Wiesenflecken abgesehen, sind die Eichwiesen damit komplett überbaut worden. Mit der Einweihungsfeier am 3. Juli 2010 wurde die Sanierung des Stühlinger Ortszentrums abgeschlossen. Die Neugestaltung der Hauptstraße und des Kirchenvorplatzes stellt eine klare Aufwertung des Stühlinger Ortsbildes dar. Selbst der Umzug des Johannisbrunnens auf die andere Straßenseite wirkt vorteilhaft. Der Kronenparkplatz wird nach der Sanierung seiner Namensbestimmung nunmehr gerecht. Gemeinderat. Aufgrund der Gemeindeordnung des Landes Baden-Württemberg gibt es in der Gemeinde Stühlingen für alle Ortsteile einen gewählten Ortschaftsrat, dem jeweils ein Ortsvorsteher vorsteht. Einzige Ausnahme ist der Kernort Stühlingen. Aus Reihen der Bürgerschaft hat sich deshalb eine Art „APO“ gebildet, das sogenannte „Offene Bürgerforum Stühlingen“ (OBS). Bürgermeister. Seit 1993 ist Isolde Schäfer Bürgermeisterin von Stühlingen. Sie ist die erste Frau in der Geschichte Stühlingens, die der Gemeinde vorsteht. Seit dem Jahr 2009 befindet sie sich in der dritten Amtsperiode. Wappen. Die Blasonierung des Wappens lautet: "In von Silber und Blau geteiltem Schild das arm- und beinlose „Stühlinger Männle“ mit silbernem, durch drei blaue Knöpfe geschlossenem Wams, braunem Bart und blauer Kopfbedeckung." Die Farbgebung basiert vermutlich auf den Farben des Wappens der Herren von Lupfen. Dieses Wappen war in Blau und Silber gehalten, mit einem Schwan als Symbol. Der Adler als Stadtwappen Stühlingens wurde in einer Urkunde von 1365 gebraucht. Auf Urkunden des Stühlinger Landgerichts fand 1495 erstmals das „Stühlinger Männle“ im Siegel Verwendung. Das „Stühlinger Männle“ beruht auf einer alten Sage, die das Männle als alleinigen Stammesgründer der Eingeborenen ausweist. Angesichts der jetzigen Bevölkerungsstärke darf angenommen werden, dass der Stühlinger Urahn nicht aller Extremitäten beraubt war. Städtepartnerschaften. Stühlingen ist seit 1980 mit der französischen Gemeinde Bellême im Département Orne in der Normandie liiert. In Stühlingen hat man die Anliegen der Partnerschaft einem Förderverein übertragen, der von einem zwölfköpfigen Komitee geleitet wird. Das Stadtoberhaupt ist kraft seines Amtes Mitglied in diesem Komitee. Die Partnerschaft mit Bellême ist sehr rege, so findet der Austausch sowohl auf Vereins- wie auch auf Schülerebene statt. Der Schüler- oder Jugendaustausch findet jährlich in beiden Orten statt. Vorläufiger Höhepunkt war 2006 die bereits erwähnte Ausweisung der „Bellêmer Straße“, zumal in Bellême bereits seit einiger Zeit zuvor eine „Avenue de Stühlingen“ existierte. Am südlichen Ende der Straße wurde ein kleiner Park eingerichtet, auf dem ein Percheron-Pferdchen auf den Sockel gestellt wurde. Das Pferdchen ist ein Geschenk des Bellêmer Partnerschaftskomitees an die Stühlinger Freunde. Bauwerke. "Städtle" wird die Altstadt von Stühlingen genannt, erbaut nach habsburgischem Vorbild mit ovalem Grundriss und zwei Stadttoren. Ähnliche Grundrisse können in Waldshut und Neunkirch (CH) beobachtet werden. Beide Tore wurden allerdings ca. Mitte des 19. Jahrhunderts abgerissen, um die Durchfahrt für Fuhrwerke zu erleichtern. An diese Bauwerke erinnert heute nur noch eine Inschrift in Höhe des Unteren Tores. Fasnacht. Die Narrenzunft „Hungrige Stühlinger“ ist treibende Kraft der schwäbisch-alemannischen Fasnet in Stühlingen. Auch in den Ortsteilen gibt es zahlreiche Narrenzünfte. Der Termin für die Fasnacht, in Stühlingen auch "Fasnet" genannt, wird nach dem römisch-katholischen Kirchenkalender festgelegt, somit endet die Fasnet 40 Tage (Länge der Fastenzeit + 6 Fastenkarenztage) vor dem Ostersonntag. Dies ist insofern von Bedeutung, weil der Fasnachtstermin in den östlich und südlich benachbarten Gebieten der Ost- und Nordschweiz aufgrund des protestantischen Kirchenkalenders weitestgehend anders gelegt wird. Städtlefest. Das Städtlefest wurde 1975 ins Leben gerufen, um die Ortsteile der Gesamtgemeinde Stühlingen, die aus der baden-württembergischen Gemeindereform vom 1. Januar 1975 hervorgegangen ist, einander näher zu bringen. Dieser Grundsatz, der in den Anfangsjahren von etlichen Vereinen aus den Ortsteilen mitgetragen wurde, ist bisher mehr und mehr in Vergessenheit geraten, dennoch nahmen am 41. Städtlefest im Juli 2015 immerhin Vereine aus fünf Ortsteilen an dieser Veranstaltung teil. Das Städtlefest findet fast vollständig im Städtle, d.h. auf dem Marktplatz, der Herrengasse und der Gerberstraße statt. Der Termin für das Städtlefest war bis vor wenigen Jahren auf den ersten Samstag im August festgelegt, aktuell (Stand: 2015) findet es am zweiten Samstag im Monat Juli statt. Stühlinger Frühling und Herbst. Der Handels- und Gewerbeverein Stühlingen organisiert seit längerem eine Verkaufsveranstaltung in der Stühlinger Hauptstraße, die "Stühlinger Frühling" genannt wird, und auf den letzten Samstag im April festgelegt ist. Teilnehmer sind die örtlichen Gewerbebetriebe des HGV und auswärtige Anbieter. Aufgrund der hohen Akzeptanz dieser Veranstaltung hat der HGV den "Stühlinger Herbst" ins Leben gerufen, eine Verkaufsveranstaltung mehrheitlich für landwirtschaftliche Produkte. Aufgrund dieses Engagements wurde dasjenige, welches zuvor vom HGV zur Belebung des Martinimarkts an den Tag gelegt wurde, völlig eingestellt. Martinimarkt. Der Martinimarkt fand früher traditionell am Montag nach dem St. Martins- oder Martini-Tag, dem 11. November, und wie das Städtlefest im Stühlinger Städtle statt. Ebenfalls seit einigen Jahren hat das nachlassende Interesse der Besucher und die entzogene Unterstützung des HGV Stühlingen dazu geführt, dass der Markttag auf den Samstag nach dem Martinitag gelegt wurde. Der Montag war insofern ein traditioneller Markttag, weil man früher z.B. sonntags keinen Geschäften nachgehen durfte. Im übrigen verfügt Stühlingen seti Jahrhunderten über das Marktrecht, was im 19. Jahrhundert mit 4-5 Markttagen pro Jahr auch öfters angewendet wurde, so gab u.a. auch einen Viehmarkt.¨¨ Unternehmen. Die Sto AG ist die derzeit größte Firma, daneben gibt es eine Reihe weiterer mittelständischer Unternehmen und Einzelhändler. Krankenhaus. Das Krankenhaus Loreto wurde 1929 eingeweiht. Es wurde von der Gemeinde Stühlingen in den "Balbach’schen Gärten" erbaut, einer sanft ansteigenden Erhebung nordöstlich des Städtles, die vom ehemaligen Obervogt Balbach hinter seinem Haus in der Herrengasse als Garten genutzt wurde. Bevor das Loreto-Krankenhaus zur Verfügung stand, wurden die Stühlinger Bürger in einem Spital medizinisch versorgt, das sich auf dem benachbarten Areal des Klosters befand. Aufgrund seines Standorts und seiner Größe ist das Krankenhaus ein ortsbildprägendes Gebäude, eingebettet zwischen Städtle und Kloster. Das Krankenhaus bildet das Herzstück der örtlichen Gesundheitsinfrastruktur, zu der auch einige Ärzte sowie die Apotheke gehören. Die Einsatzzentrale des Rettungsdienstes befindet sich direkt neben dem Krankenhaus, ebenso wie das Schwesternheim oberhalb des Krankenhauses platziert wurde. Eine Besonderheit stellt der Hubschrauber-Landeplatz dar, für den eine Wiese neben dem Parkplatz genutzt wird. Das Krankenhaus befindet sich seit etwa 2004 in der Trägerschaft der HBH-Kliniken. Die medizinische Grundversorgung bleibt vorerst gewährleistet, obwohl u. a. die Säuglingsstation vom Träger eingespart wurde. Hans-Carossa-Klinik. Seit 1963 besteht in Stühlingen die nach dem Arzt und Schriftsteller Hans Carossa benannte Klinik. Zuvor wurde im gleichen Hause das "Hotel Post" betrieben. An der Stelle, an welcher sich heute (Stand: 2015) die Gymnastikhalle der Hans-Carossa-Klinik befindet, stand zuvor eine stattliche Scheune, die auch mit Heu aus den talabwärts dahinter liegenden Eich- und Richtwiesen beschickt wurde. Dieser Wiesengrund wird allerdings seit 1875 durch den Bau der Wutachtalbahn durchschnitten. Eisenbahn. ein Zug der DB im Bahnhof Stühlingen Stühlingen erhielt im Jahre 1875 einen Eisenbahnanschluss von Lauchringen her. In Stühlingen hatte die sogenannte Wutachtalbahn auch vorläufig ihren Endpunkt, bis die Strecke ein Jahr später bis Weizen verlängert wurde. Im Jahre 1890 wurde die Wutachtalbahn bei Immendingen an die Schwarzwaldbahn angeschlossen und somit fertiggestellt. Der Personenverkehr wurde schließlich aus Rentabilitätsgründen zum 1. Januar 1976 eingestellt. Der Güterverkehr zur Sto AG wurde noch bis ins Jahr 2001 betrieben. Trotz zahlreicher Bemühungen für eine Reaktivierung des Personenverkehrs konnte dieses Ziel bis heute nicht umgesetzt werden. Das Empfangsgebäude und die Güterhalle existieren heute leider nicht mehr. Im Sommerhalbjahr gibt es sonntags je zwei Regionalbahn-Verbindungen nach Waldshut-Tiengen mit Anschluss an die Hochrheinbahn. "Sauschwänzlebahn" ist die volkstümliche Bezeichnung der Museumsbahn Wutachtalbahn. Straßenverkehr. Stühlingen ist durch die B 314 (Lauchringen - Hohentwiel) und die B 315 (Stühlingen - Titisee-Neustadt) an das überregionale Straßennetz angeschlossen. Die nächstgelegenen Autobahnen sind die A 98 (Lauchringen - Weil am Rhein) und die A 81 (Gottmadingen - Würzburg). Zahlreiche Landesstraßen und Kreisstraßen verbinden Stühlingen mit seinen Ortsteilen und Nachbargemeinden. Zudem besteht über die Hauptstrasse 14 Anschluss an das Schweizer Straßennetz nach Schaffhausen. Zudem verläuft durch Stühlingen der Radweg an der Wutach entlang. Das Stühlinger Männle. Das Stühlinger Männle war lange Zeit vor 1495 in einer Zeit großer Not der einzige Überlebende des großen Sterbens in Stühlingen. Das Männle wurde bereits ohne Arme und Beine zur Welt gebracht. Im Grüninger Haus in der Herrengasse schleppte es sich in den Felsenkeller, um sich von einem Laib Schweizerkäse und „firnem“ Wein zu ernähren. Den Hahnen des Weinfasses musste es natürlich mit dem Mund öffnen und schließen. So fristete das Männle sein Leben, bis eine Frau dazu kam, mit der es eine Ehe einging. Der Sage nach entstammen alle Stühlinger dieser Ehe. Der Anlass für diese Erzählung lässt sich leider nicht mehr bestimmen. 's Ruckwiibli. Nach dem Schweizerkrieg wurde eine Frau, die im Judenwinkel wohnte, des Verrats beschuldigt. Die Städter warfen ihr vor, den Belagerern einen geheimen Zugang in die befestigte Stadt gezeigt zu haben und die Katastrophe dadurch mit verschuldet zu haben. Die des Hochverrats Beschuldigte wurde verwunschen und dem Hungertode ausgesetzt. Die Felsformationen an den ‚Judenlöchern‘ Seither trieb sie im Ruckwald ihr Unwesen und verübte zahllose Untaten, bis sie eines Tages zwei Mädchen zum Lachen brachte und dadurch erlöst wurde. Die ‚Judenlöcher‘ im Ruckwald wurden 1743 von vertriebenen Stühlinger Juden als Rückzugsort genutzt. Wie aus den Chroniken ersichtlich, so wurden die Juden damals gern und oft als Sündenböcke missbraucht. Sagen zum Schloss sind im Artikel Schloss Hohenlupfen einzusehen. Seerosengewächse. Die Seerosengewächse (Nymphaeaceae) sind eine Familie in der Ordnung der Seerosenartigen (Nymphaeales). Mit 58 (bis 75) Arten in sechs Gattungen sind die Nymphaeaceae eine der kleinen Familien der Blütenpflanzen. Sie ist außerhalb der polaren Klimazonen weltweit nur in Süßwasser vertreten. Beschreibung und Ökologie. Luftkammern im Blattstiel von "Nymphaea", Querschnitt. Erscheinungsbild und Blätter. Die meisten Arten der Familie der Nymphaeaceae sind ausdauernde, selten einjährige, krautige Pflanzen. Es sind alles im Gewässergrund mit adventiven Wurzeln verankerte Wasserpflanzen mit kriechenden oder aufrechten, verzweigten oder unverzweigten Rhizomen, die knollig verdickt sein können, als Überdauerungsorganen, die bei manchen Arten Ausläufer (Stolone) bilden. Die Rhizodermis ist in Lang- und Kurzzellen gegliedert. Ein sekundäres Dickenwachstum findet nicht statt. Sie besitzen zerstreute Leitbündel ohne Kambien und ohne Tracheen. Die Siebröhrenplastiden besitzen keine Proteinkristalloide. In den Pflanzen ist ein Milchsaft vorhanden. Es sind sehr deutliche Luftkammern in den vegetativen Pflanzenteilen vorhanden. Als Laubblätter können Unterwasser- und Schwimmblätter vorhanden sein. Die wechselständig und spiralig angeordneten Blätter sind einfach und gestielt. Die einfache Blattspreite ist oft herzförmig bis kreisrund, schildförmig (peltat) und netzadrig. Der Blattrand ist glatt oder stachelig-gezähnt. Es können Nebenblätter vorhanden sein. Blüten. Die Blüten stehen einzeln, seitenständig auf oft langen Blütenstielen auf oder über dem Wasserspiegel, selten blühen sie unter dem Wasserspiegel. Die großen, zwittrigen, mehr oder weniger radiärsymmetrischen Blüten duften oft. Die Blütenblätter sind teilweise schraubig (azyklisch) angeordnet. Die Blütenhüllblätter können kontinuierlich in Nektarblätter und diese in Staubblätter übergehen. Die Blütenhülle besteht meist aus zwei Kreisen. Die fünf oder 20 bis 50 freien, meist grünen Kelchblätter können kronblattähnlich ("Nuphar") sein. Die fünf ("Nuphar") oder 15 bis 50 Kronblätter sind gelb oder weiß über rosa- bis purpurfarben und blau; selten fehlen sie. Es sind 40 bis 80 sich zentripetal entwickelnde, spiralig angeordnete, freie Staubblätter vorhanden, davon können 11 bis 20 Staminodien sein (bei "Nuphar" sind nektarbildende Schuppen). Die Staubfäden sind breit bis schlank. Die Staubbeutel sind tetrasporangiat und ein Konnektiv-Anhängsel kann vorhanden sein. Die fünf bis 35 oberständigen bis halbunterständigen Fruchtblätter (Karpelle) sind teilweise oder vollkommen verwachsen. Es sind zehn bis hundert Samenanlagen je Fruchtblatt vorhanden. Die Narben sitzen direkt, also meist ohne Stempel, kreisförmig auf einem Diskus. Die Blüten sind je nach Art während des Tages oder der Nacht geöffnet. Die Bestäubung erfolgt durch Insekten (meist Käfer, Entomophilie). Früchte und Samen. Die oft von den Blütenhüllblättern umgebenen, fleischigen Früchte sind beerenähnlich und enthalten einige bis viele Samen. Die oft in den fleischigen Blütenboden eingebetteten Früchte öffnen sich meist durch Anschwellen des inneren Schleimes. Die Samen besitzen ein kleines Endosperm und meist einen Arillus. Der Embryo ist relativ klein. Die Samen vieler Arten können durch Lufteinschlüsse im Arillus und der Samenwand schwimmen. Es werden zwei fleischige Keimblätter (Kotyledonen) gebildet. Als Inhaltsstoffe sind Ellagsäure und Gallussäure vorhanden. Systematik. Die Familie der Nymphaeaceae wurde 1805 von Salisb. in "Ann. Bot." (König & Sims), 2, Juni 1805, S. 70 veröffentlicht. Die Barclayaceae, Euryalaceae und Nupharaceae waren früher eigenständige Familien, deren Gattungen heute den Nymphaeaceae zugeordnet werden. Nutzung. Einige Arten, aber besonders Hybriden, dienen als Zierpflanzen in Parks und Gärten. Wenige Arten werden als Aquarienpflanzen verwendet. Die Blüten von "Nymphaea odorata" sind wegen der besonders morgens stark duftenden Blüten beliebt. Bei einigen Arten werden die unterirdischen Pflanzenteile roh oder gegart gegessen oder es wird Stärke daraus gewonnen ("Nuphar advena", "Nuphar japonicum", "Nuphar lutea", "Nuphar polysepala", "Nuphar pumila", "Nymphaea alba", "Nymphaea odorata", "Nymphaea tetragona", "Nymphaea tuberosa"). Bei einigen Arten dienen die Samen roh, gegart oder geröstet zu Mehl verarbeitet als Nahrung ("Nuphar advena", "Nuphar lutea", "Nuphar polysepala", "Nuphar pumila", "Nymphaea alba", "Nymphaea odorata", "Nymphaea tetragona", "Nymphaea tuberosa"). Die Blätter von "Nuphar lutea", "Nuphar pumila" und "Nymphaea odorata" werden gegart oder bei manchen Arten auch roh gegessen. Aus den Blüten von "Nuphar lutea" und "Nuphar pumila" wird ein Erfrischungsgetränk hergestellt. Geröstete Samen von "Nymphaea alba" dienen als Kaffeeersatz. Die Blütenknospen von "Nymphaea odorata" werden gegart als Gemüse oder eingelegt gegessen. Die Heilwirkung einiger Arten wurde untersucht. Sumachgewächse. Die Sumachgewächse (Anacardiaceae) bilden eine Pflanzenfamilie in der Ordnung der Seifenbaumartigen (Sapindales). Sie kommen mit etwa 70 bis 82 Gattungen und 600 bis 800 Arten weltweit vorwiegend in den Tropen und Subtropen, teilweise aber auch in gemäßigten Klimazonen vor. Einige Arten liefern essbare Früchte und Samen – medizinische Wirkungen wurden untersucht – und einige Arten sind Zierpflanzen. Vegetative Merkmale. Es sind meist immergrüne, verholzende Pflanzen: meist handelt es sich um selbständig aufrecht wachsende Bäume oder Sträucher, seltener Halbsträucher oder es sind Lianen. Einige Arten sind ausdauernde krautige Pflanzen. Viele Arten weisen Harzgänge auf mit klaren oder milchigen Harzen, die sich schnell schwarz verfärben und einen typischen (Terpentin-) Harzgeruch besitzen. Holz, Blätter und Früchte können aromatisch bis giftig sein. Die meist wechselständig, selten gegenständig oder in Wirteln, oft an den Zweigenden konzentriert, angeordneten Laubblätter riechen oft aromatisch. Die Blattspreite ist ungeteilt oder häufig unpaarig gefiedert (Ausnahme ist die paarig gefiederte "Spondias bipinnata"). Der Rand der Blätter oder Fiederblätter ist glatt. Oft ist eine schwarze Blattzeichnung vorhanden. Nebenblätter fehlen. Blütenstände und Blüten. Es werden end- oder seitenständige, scheindoldige oder rispige Blütenstände gebildet. Die Deckblätter sind meist klein, nur selten groß; bei "Dobinea" sind sie häutig und mit den Blütenstielen verwachsen. Die Blüten sind zwittrig oder eingeschlechtig. Die Arten können einhäusig (monözisch), zweihäusig (diözisch) getrenntgeschlechtig, gynodiözisch oder polygamomonözisch sein. Die relativ kleinen Blüten sind radiärsymmetrisch und drei- bis oft fünfzählig. Sie besitzen eine doppelte oder einfache (sepalin und hochblattartig bei "Pistacia") Perianth. Selten fehlen die Blütenhüllblätter ("Dobinea"). Die drei bis fünf Kelchblätter sind an der Basis verwachsen. Die drei bis fünf Kronblätter sind frei oder selten an der Basis verwachsen. Es sind ein ("Anacardium", "Mangifera") oder zwei Kreise mit je fünf Staubblättern (selten insgesamt zwölf Staubblätter) vorhanden. Entweder sind alle Staubblätter fertil oder es sind ein bis neun Staminodien vorhanden. Die immer schlanken Staubfäden sind manchmal an ihrer Basis verwachsen ("Anacardium"). Die Staubbeutel besitzen vier Pollensäcke. Es ist ein Fruchtblatt vorhanden oder zwei bis fünf (selten bis sechs) Fruchtblätter sind zu einem synkarpen, meist oberständigen, selten halbunterständigen bis unterständigen ("Pegia", "Semecarpus") Fruchtknoten verwachsen, bei "Dracontomelon" sind sie nicht vollständig verwachsen. Jedes Fruchtknotenfach enthält eine apotrope Samenanlage. Oft wird nur ein Fruchtblatt voll entwickelt. Der meist einzige Griffel endet mit ein bis fünf Narben; manchmal sind auch drei bis sechs Griffel vorhanden ("Buchanania"). Ein meist intrastaminaler, nektarproduzierender Diskus ist meist deutlich ausgebildet. Bei vielen heute in diese Familie eingegliederten Gattungen sind die Blüten und Blütenstände stark reduziert. Dies führte dazu, dass sie als eigene Familien geführt wurden. So besitzen die früheren Blepharocaryaceae kompakte, involucrate Blütenstände, den zweihäusig getrenntgeschlechtigen früheren Julianaceae und Podoaceae fehlen bei den weiblichen Blüten Blütenhüllblätter. Den windbestäubten Arten fehlen meist ein Diskus und die Blütenhüllblätter. Fruchtstände, Früchte, Samen und Ausbreitung. Es werden meist Steinfrüchte gebildet, jedoch gibt es in dieser Familie eine große Fülle an Fruchttypen. Die Ausbreitungsmechanismen sind vielfältig. Bei zwei Gattungen, "Anacardium" und "Semecarpus", wird ein fleischiger, essbarer Arillus (hier Hypokarp genannt) unter der Steinfrucht gebildet, der aus dem Fruchtstiel und dem Blütenboden gebildet wird. Innerhalb der Gattung "Anacardium" fehlt einzig bei "Anacardium microsepalum" ein Arillus; diese Art gedeiht in wassergefluteten Wäldern des Amazonas und wird vermutlich von großen Fischen verbreitet. Bei drei weiteren Gattungen, "Mangifera", "Poupartiopsis" und "Spondias", wird ebenfalls von Wasserverbreitung berichtet. Um durch den Wind verbreitet zu werden, gibt es unterschiedliche Anpassungen, beispielsweise vergrößerte Kelchblätter ("Astronium", "Loxostylis", "Myracrodruon", "Parishia"), vergrößerte bleibende Kronblätter ("Gluta", "Swintonia"), breite Hochblätter ("Dobinea"), ein Flügel, der aus der abgeflachten Fruchtstandsachse gebildet wird ("Amphipterygium"), und bei manchen Gattungen besitzen die Ränder der Früchte Haare ("Actinocheita", "Blepharocarya", "Ochoterenaea"). Statt Steinfrüchten werden bei einigen Gattungen Samaras (Flügelnüsse) ausgebildet: bei "Campylopetalum", "Cardenasiodendron", "Dobinea", "Laurophyllus", "Pseudosmodingium", "Smodingium" ist um den ganzen Rand der Früchte ein häutiger Flügel ausgebildet oder bei "Faguetia", "Loxopterygium", "Schinopsis" ein Flügel auf nur einer Seite. "Amphipterygium", "Orthopterygium" bilden flugfähige Sammelfrüchte (Synkarpien). Trockene, achänenartige Früchte werden bei "Apterokarpos" gebildet. Bei "Cotinus" ist der Fruchtstand mit lang behaarten Blütenstandsachsen die Verbreitungseinheit. Diese Anpassungen mit verwehbaren Früchten scheint einherzugehen mit Besiedlung trockener Habitate. Eine trockene Frucht wird bei "Dobinea" gebildet. Das Epikarp ist dünn, das Mesokarp ist meist fleischig, faserig und das Endokarp ist hart. Der Embryo ist oft gekrümmt. Chromosomen und Inhaltsstoffe. An Chromosomenzahlen wurden n = 7-12, 14-16, 21 gefunden. Bei etwa ein Viertel aller Arten, aber allen der Unterfamilie Anacardioideae kommen toxische Dihydroxybenzole mit langen unverzweigten Seitenketten vor, die bei Berührung der Pflanzenteile zu Hautreizungen führen. Das Endosperm ist ölhaltig und manchmal stärkehaltig. a>es Blatt von "Rhus malloryi", etwa 49,5 Millionen Jahre alt aus dem Frühen Ypresian, in der „Klondike Mountain Formation“, in Ferry County, Washington, USA Verbreitung. Arten aus der Familie der Anacardiaceae kommen weltweit in trockenen bis feuchten Gebieten vor. Meist gedeihen sie in feuchten Tieflands-Habitaten. Hauptsächlich kommen sie in den Tropen und Subtropen vor, aber einige Arten reichen auch bis in die gemäßigten Breiten. In der Neuen Welt reicht die Verbreitung von Kanada bis Patagonien, es gibt Vorkommen in Afrika, Südeuropa, gemäßigten bis tropischen Asien, tropischen bis subtropischen Australien und auf den meisten der Pazifischen Inseln. Keine Arten dieser Familie gibt es in Nordeuropa, gemäßigten und trockenen Australien, Neuseeland, auf den Galapagos-Inseln, in extremen Wüstengebieten und großen Höhenlagen; aber sie erreichen Höhenlagen bis zu 3500 Meter. Das Zentrum der Artenvielfalt ist Malesien. Taxonomie. Bernard de Jussieu stellte 1759 die heute hier eingeordneten Gattungen in eine Unterordnung einer Ordnung „Terebintaceae“; sein Neffe Antoine Laurent de Jussieu veröffentlichte 1789 diese Klassifikation in "Genera plantarum: secundum ordines naturales disposita, juxta methodum in Horto regio parisiensi exaratam, anno M.DCC.LXXIV" (Apud Viduam Herissant et Theophilum Barrois, Paris) . Robert Brown bearbeitete die gleichen Gattungen 1818 in der Veröffentlichung bei John Murray über die von James Kingston Tuckey geleiteten Expedition zum Kongo und das dabei erstellte Herbarium von Christen Smith. Augustin Pyramus de Candolle veröffentlichte 1824, mit Robert Browns Cassuvlae oder Anacardeae, eine andere Beschreibung dieser Verwandtschaftsgruppe mit den Gattungen "Anacardium", "Semecarpus", "Holigarna", "Mangifera", "Buchanania", "Pistacia", "Astronium", "Comocladia" und "Picramnia". John Lindley stellte 1831 eine neue Beschreibung dieser Verwandtschaftsgruppe mit den Anacardieae und Sumachineae, dabei gibt er den Namen „Terebintaceae“ zugunsten Anacardiaceae auf und ergänzte die Gattungen "Anacardium", "Holigarna", "Mangifera", "Rhus", "Mauria". Typusgattung ist "Anacardium" L. Die Familie Sumachgewächse (Anacardiaceae) umfasst vier Unterfamilien mit 70 bis 82 Gattungen und etwa 600 bis 800 Arten. Nutzung. Einige Arten und ihre Sorten werden weltweit (in den Tropen) angebaut. Sie dienen der Gewinnung eßbarer Früchte und Samen, der Gewürzgewinnung (so beim Gerber-Sumach), als Ausgangsstoff für pharmazeutische Produkte und Holz. Einige Arten werden als Zierpflanzen verwendet. Weltweit bekannt sind: Mango ("Mangifera indica"), Pistazie ("Pistacia vera"), Cashew ("Anacardium occidentale") und Brasilianischer Pfefferbaum ("Schinus terebinthifolia"). Andere Nutzpflanzen sind nur in ihren pantropischen Anbaugebieten verbreitet, wie die "Spondias"-Früchte, die Murula ("Sclerocarya birrea") in Afrika oder in der Neotropis die "Antrocaryon"-Früchte, ihre Vermarktung ist eingeschränkt auf Grund der schlechten Transportfähigkeit. Süßgräser. a> ("Ammophila arenaria") in einer Weißdüne Die Süßgräser (Poaceae = Gramineae) sind eine Pflanzenfamilie in der Ordnung der Grasartigen (Poales). Mit etwa 10.000 Arten in mehr als 650 Gattungen sind sie eine der größten Familien innerhalb der Blütenpflanzen. Sie sind weltweit in allen Klimazonen verbreitet und durch die typische grasartige Gestalt der zugehörigen Arten gut gekennzeichnet. Viele Arten der Süßgräser gehören zu den ältesten Nutzpflanzen und sind seit alters her für den Menschen von lebenswichtiger Bedeutung. Alle Getreide wie Weizen, Roggen, Gerste, Hafer, Hirse, Mais und Reis zählen zu dieser Pflanzengruppe. Sie stellen in Form von Marktfrüchten oder als Viehfutter in der Veredelung heute die Basis für die Ernährung der Weltbevölkerung dar. Als Gras- oder Grünland wie Wiesen und Weiden, aber auch Steppen und Savannen prägen sie in weiten Teilen der Welt das Landschaftsbild. Lebenszyklus und Morphologie. Süßgräser umfassen sowohl kurzlebige als auch sehr langlebige Arten. Sie weisen eine charakteristische Morphologie sowohl der vegetativen als auch der generativen Organe auf, mit einem gemeinsamen „grasförmigen“ Grundbauplan der verschiedenen Arten. Gräser sind meist schlankwüchsig und verfügen über lange, dünne, durch Knoten gegliederte Halme, parallelnervige, lange Blätter und oft unauffällige, einfache Blütenstände. Innerhalb der Unterfamilien, Tribus und Gattungen sind dagegen deutliche taxonspezifische Abwandlungen der Merkmale vorhanden. Lebensformen und Ausdauer. Viele Arten sind einjährig und schließen ihren gesamten Lebenszyklus in einer Vegetationsperiode ab. Sie leben meist nur wenige Monate und überdauern die ungünstige Jahreszeit als Samen im Boden. Dies sind sogenannte Therophyten. Hemikryptophyten dagegen verfügen über bodennahe Erneuerungsknospen und überdauern ungünstige Zeiten geschützt durch den Boden, Laubstreu oder Schnee. Dazu gehören zweijährige Arten, die im Laufe des Sommers oder Herbstes keimen und erst im folgenden Jahr Früchte und Samen bilden, ebenso wie ausdauernde und mehrjährige Arten, die wenige oder viele Jahre leben. Diese besitzen überwinterungsfähige Horste oder Rosetten. Die Individuen einer Generation ausdauernder Arten können bis zu 400 Jahre alt werden, so zum Beispiel der Rot-Schwingel ("Festuca rubra"). Die Gemeine Quecke ("Elymus repens") ist ein Beispiel dafür, dass sich Gräser aus Ausläuferfragmenten erneuern können (Rhizom-Geophyten). Die meisten Arten sind krautig; deren Halme nach etwa einem Jahr Lebensdauer oberirdisch absterben. Ausnahmen bilden holzige Bambus-Arten (Bambuseae), deren Triebe dickwandig und fest sind und mehrere Jahrzehnte ausdauern können. Wuchsformen und Wurzeln. Etliche Süßgräser sind zart gebaut und werden nur wenige Zentimeter groß (z. B. Einjähriges Rispengras). Andere Arten haben verholzte Halme und erreichen Wuchshöhen bis zu 40 Metern und mehr, wie beispielsweise die Bambus-Art "Dendrocalamus giganteus". Ein- und zweijährige Arten haben gewöhnlich einzelne oder wenige Triebe in lockeren Büscheln mit weicheren Blättern. Bei diesen Süßgräsern tragen alle oder die meisten der Sprossachsen Blütenstände. Die ausdauernden Arten bilden in den meisten Fällen festere Halme und Blattspreiten und bilden neben blühenden Trieben eine größere oder kleinere Anzahl an nicht blühenden Trieben. Sie wachsen in lockeren oder dichten Horsten oder rasenförmig. Letztere Wuchsform ergibt sich, indem sich die Pflanzen entweder über mehr oder weniger lange, oberirdisch kriechende, grünliche oder rötliche Sprossachsen, namentlich Stolonen (z. B. das Weiße Straußgras) oder über unterirdische, weiße oder braune Rhizome ausbreiten (z. B. die Gemeine Quecke). Außer an der Farbe lassen sich die beiden Typen von sich an den Knoten bewurzelnden Ausläufern auch daran unterscheiden, dass Stolonen an jedem Knoten (Nodus) über vollständige Blätter mit Blattscheide und Blattspreite verfügen, Rhizome dagegen an diesen Punkten lediglich kleine, dünne schuppenförmige Niederblätter entwickeln. Bei horstbildenden Arten bilden sich nur sehr kurze Ausläufer, oder die jungen Seitentriebe entwickeln sich innerhalb der Blattscheiden des Muttertriebes (intravaginal), so beim Schaf-Schwingel ("Festuca ovina"). Auf diese Weise entsteht durch die gedrängt stehenden Triebe die typische büschelige, dicht horstige Wuchsform vieler Gräser. Wachsen die Triebe die untere Blattscheide durchstoßend (extravaginal), ist der Aufwuchs meist locker-horstig oder rasenförmig (z. B. Rot-Schwingel). Die meisten Süßgräser sind Flachwurzler; sie bilden keine Haupt- und Pfahlwurzeln. Am Stängelgrund und an den Knoten der Ausläufer werden zahlreiche sprossbürtige Wurzeln gebildet, welche ihrerseits Seitenwurzeln 1. und 2. Ordnung entwickeln können. Auf diese Weise können Wurzelsysteme von beachtlicher Länge entstehen. So kann sich eine einzige Pflanze des Rot-Schwingels etwa 250 Meter im Durchmesser ausbreiten. Halme und Blätter. Die Stängel der Süßgräser werden als Halme bezeichnet. Diese sind meist hohl und rund. Nur wenige Grasarten besitzen markige Stängel. Sie sind durch feste, mit Gewebe gefüllte Knoten (Nodien) gegliedert. Die Abschnitte zwischen den Knoten werden als Internodien bezeichnet. Unmittelbar oberhalb der Knoten liegen die Wachstumszonen, die Halme wachsen also mit eingelagerten Meristemen. An diesen Stellen setzen die faserigen Verstärkungselemente, welche den Halmen zusätzliche Stabilität und Zugfestigkeit verleihen, aus. Die Halme bleiben auf diese Weise beweglich und biegsam. Sie sind so in der Lage sich nach Wind und Regeneinwirkung wieder aufzurichten. Sie können entweder senkrecht hochwachsen, von einem gebogenen Grund aufsteigen oder gänzlich am Boden niederliegend wachsen. Grashalme variieren in Größe, Festigkeit und Zahl der Knoten. Sie sind meist im Querschnitt zylindrisch, selten etwas zusammengedrückt wie beim Zusammengedrückten Rispengras ("Poa compressa"). Bei einigen Süßgrasarten sind die untersten Internodien mehr oder weniger angeschwollen und verdickt. Die Halme etlicher Gräser sind unverzweigt, bei einigen Arten bilden sich von den Knospen in den Blattachseln ausgehende Seitenzweige. Die Beblätterung der Halme ist bei Süßgräsern immer wechselständig und fast ausnahmslos zweizeilig (distich) – im Gegensatz zur dreizeiligen Beblätterung der Sauergräser (Cyperaceae). Die Blätter der Süßgräser bestehen immer aus zwei verschiedenen Abschnitten: der Blattscheide und der Blattspreite. Die Blattscheide entspricht dem Blattgrund, setzt am Knoten an und umschließt das Internodium bis fast zum nächsten Halmknoten. Die Scheiden sind bei der Mehrzahl der Gräser an einer Seite offen. Bei wenigen Grasarten sind die Ränder verwachsen und damit die Blattscheiden röhrig geschlossen, wenngleich sie früh im oberen Bereich aufreißen. Während die basalen Blattscheiden die Wachstumspunkte der jungen Triebe schützen, erfüllen diejenigen an den Halmen diese Schutzfunktion für die dortigen Wachstumszonen oberhalb der Knoten und sorgen außerdem für zusätzliche Stabilität. Der obere Teil der Blattscheiden kann bauchig aufgeblasen sein. Die Vorderseite des Blattscheidenendes kann in mehr oder weniger spitze, meist stängelumfassende „Öhrchen“ ausgezogen sein oder Büschel von Haaren tragen. Die Blattscheide geht am oberen Ende in die vom Halm abstehende Blattspreite über. Diese ist flach, gerollt oder gefaltet; stets länglich und mehr oder weniger spitz zulaufend. Sie zeigt die kennzeichnende Parallelnervatur einkeimblättriger Pflanzen. Jeder Blattnerv entspricht einem Leitbündel, der dem Stofftransport und der Aussteifung der Blattfläche dient. Am plötzlichen Übergang von der Blattscheide zur Blattspreite sitzt bei den meisten Arten ein häutiges Anhängsel, das Blatthäutchen (Ligula). Es erscheint meistens als farbloser, durchscheinender Fortsatz der Oberhaut auf der Innenseite der Blattscheide und stellt eine Verlängerung der inneren Epidermis der Blattscheide dar. Es schützt vor Verletzungen durch Reibung des sich beim Wind hin und her bewegenden Halmgliedes sowie vor dem Eindringen von Schmutz und Parasiten in den Raum zwischen Halm und Scheide. Wegen seiner Gestaltungsvielfalt ist das Blatthäutchen für die Artbestimmung hilfreich. Es ist behaart oder unbehaart, kragenförmig, zugespitzt, langgezogen, sehr kurz oder sehr lang. Teilweise ist das Blatthäutchen durch eine Reihe von Haaren ersetzt, selten fehlt es ganz. Blütenstände und Blüten. Schematische Darstellung eines zweiblütigen Ährchen eines Süßgrases und Blütendiagramm Schematischer Längsschnitt durch ein Weizenkorn Die Blütenstände (Infloreszenzen) der Süßgräser bestehen aus einer Vielzahl von Teilblütenständen, seltener Einzelblüten, welche in Ähren, Rispen und Trauben an einer Blütenstandsachse (Rhachis spicae) angeordnet sind. Die Teilblütenstände werden als Ährchen bezeichnet. Sie bestehen ihrerseits aus ein- bis mehreren, überwiegend zweigeschlechtigen Blüten. Sitzen die Ährchen ungestielt direkt an der Blütenstandsachse, handelt es sich um eine Ähre. Bei Fingergräsern befinden sich mehrere Ähren am Halmende in fingerartiger Anordnung. Sogenannte Kolben entstehen durch Abwandlungen von Ähren durch Vergrößerung des Achsengewebes. In Trauben befinden sich die Ährchen an unverzweigten Stielen. Die Ährchen können alle in die gleiche Richtung weisen (einseitswendig) oder sich in zwei Reihen an gegenüberliegenden Seiten der Achse befinden. Sind die Seitenäste einseits- oder allseitswendig verzweigt, handelt es sich um Rispen. In Ährenrispen oder Scheinähren sind die Seitenäste so kurz, dass die Blütenstände äußerlich wie Ähren erscheinen. Erst beim Umbiegen einer solchen Ährenrispe werden die tatsächlichen Verzweigungsmuster erkennbar. Süßgräser zeichnen sich durch eine charakteristische Reduzierung der Blüten aus. Die Ährchen werden am Grunde von einer inneren und einer äußeren Hüllspelze (Gluma), die miteinander verwachsen sein können, eingefasst. Oberhalb davon stehen ein oder mehrere Blüten, jede mit einer Deck- sowie Vorspelze. Die Deckspelzen können als Tragblätter der Einzelblüten aufgefasst werden. Die Spelzen variieren in ihrer Form und Größe sehr stark. Die beiden Hüllspelzen können gleich oder verschieden gestaltet sein. Die Deckspelzen sind vielförmiger gestaltet. Sie können an den Enden spitz, stumpf oder verschiedenartig gezähnt sein. Auf dem Rücken sind sie gerundet, zusammengedrückt oder gekielt. Die Mittelrippe kann in einen Stachel oder eine Granne verlängert sein. Die Blüten bestehen aus einer Vorspelze und zwei, selten drei, zuweilen an den Rändern verwachsenen Schwellkörperchen (Lodiculae), durch deren Anschwellen die Spelzen geöffnet werden. Es sind ferner meist drei Staubblätter (Stamina) vorhanden (selten sechs, zwei oder nur eines), von denen jedes einen Stiel (Filament) und einen den Pollen tragenden, zweiteiligen Staubbeutel (Anthere) aufweist. In jeder Blüte gibt es schließlich einen runden, aus zwei oder drei Fruchtblättern verwachsenen, oberständigen Fruchtknoten (Ovarium). Dieser verfügt an seiner Spitze über einen Stempel (Pistillum), welcher seinerseits auf kurzen Stielen ein, zwei oder selten drei fedrige Narbenäste (Stigmae) trägt. Der Fruchtknoten enthält die Samenanlage, welche mit Fruchtknotenwänden zu einer Einheit, der Karyopse, verwächst. Bei manchen Arten enthalten einige Blüten nur männliche Organe oder sind steril. Ferner sind etliche Arten verschiedenährig, das heißt, die Blüten mit nur weiblichen und nur männlichen Organen befinden sich getrennt in verschiedenen Blütenständen desselben Individuums (einhäusig), so beim Mais. Bei anderen Arten wie dem Pampasgras befinden sich die Geschlechter getrennt in den Blütenständen verschiedener Individuen einer Grasart. Sie sind zweihäusig. Früchte und Samen. Die Frucht ist bei den meisten Grasarten eine trockene Karyopse, eine Sonderform der Nussfrucht. Seltener sind die Früchte Beeren oder Steinfrüchte mit saftigen oder fleischigen Fruchtwänden, so wie bei einigen Bambus-Arten. Während der Reifezeit verwächst die Fruchtwand (Perikarp) mit der Samenschale (Testa) zu einer einsamigen, trockenen Schließfrucht. Die „Samenkörner“ stellen also keine Samen, sondern vielmehr Früchte dar. Unterhalb der Fruchtwand und der Samenschale liegt die eiweißreiche Aleuronschicht. Darunter folgt das den restlichen Samen ausfüllende stärkereiche Nährgewebe, das Endosperm. Gräser sind einkeimblättrig (monokotyl); bei ihnen ist das eine Keimblatt (Kotyledon) zu einem Scutellum (Schildchen) und zu einer Keimscheide (Koleoptile) umgestaltet. Das Scutellum liegt zwischen dem Endosperm und dem Embryo, und spielt eine wichtige Rolle für den Stofftransport und die Hormonsynthese. Der Embryo verfügt bereits über deutlich erkennbare Wurzel- und Sprossanlagen. Die Koleoptile ist ein zylinderförmiges Schutzorgan, welches das Primärblatt des auskeimenden Embryos umgibt. Da die Koleoptile ein umgewandeltes Keimblatt darstellt, ist es als Organ ein Blatt. Wie alle Blätter besitzt es zwei Epidermen (außen und innen), Stomata und Leitbündel. Die Stärke und die Proteine dienen dem Embryo als Starthilfe für die Keimung, bevor es sich durch Photosynthese selbst versorgen kann. Die ausgereiften Früchte der Gräser sind in ihrer Gestalt und ihrem Aufbau charakteristisch. Die ehemalige Bauchnaht des Fruchtknotens erscheint auf einer Flanke des Korns als tiefe Furche. An verschiedenen Stellen des Fruchtstandes bilden sich Zonen eines speziellen Gewebes, entlang dessen ein glatter Bruch entsteht, sobald der Samen reif ist. Bei den meisten Gräsern erfolgt dieser Bruch in der Ährchenachse unterhalb der Deckspelze. Die Karyopse ist in diesen Fällen meistens in Deckspelzen und Vorspelzen fest eingeschlossen und stellt als Gesamtheit die Ausbreitungseinheit (Diaspore) dar. Bei einigen Arten erfolgt der Bruch unterhalb der untersten Deckspelze des Ährchens (z. B. Perlgräser), unter dem einzelnen Ährchen oder in einem Büschel von Ährchen (Gerste), selten in der Hauptachse des Fruchtstandes (Dünnschwanz). Gräser mit nackten Früchten sind in den tropischen Gattungen "Sporobolus" und "Eragrostis" häufig. Bei diesen steht das Korn frei und wird ausgestreut, nachdem sich ein Bruch am Grunde der sie haltenden Deckspelze entwickelt hat. Chemische Merkmale. Die Samen sind reich an Stärke. Diese kann aus einzelnen Stärkekörnern (Roggen, Weizen, Gerste) bestehen oder aus zu mehreren zusammengesetzten Stärkekörnern (Hafer). Auch in den Rhizomen und anderen vegetativen Organen speichern die Gräser Stärke, Saccharose und/oder Fruktane. Bei den Fruktanen kommen neben dem unverzweigten Inulin-Typ der verzweigte Phlein-Typ vor. Das Fruktanmuster ist wie der Polymerisationsgrad oft kennzeichnend für die Art. Die äußere Endospermschicht (Aleuronschicht) der Karyopsen ist reich an Reserveproteinen. Sie enthält vor allem Albumine, Globuline, Gluteline (nur in verdünnten Säuren und Laugen löslich) und Prolamine (in 70–80%igem Ethanol löslich). Letztere sind beim Roggen- oder Weizenmehl Voraussetzung für die Backfähigkeit. Einige Triben der Panicoideae bilden ätherische Öle in schlauchförmigen, verkorkten Zellen. "Cymbopogon nardus" liefert das Aetheroleum Citronella, das hauptsächlich aus Citronellal und Geraniol besteht, und bei der Herstellung von Melissengeist oft das echte Melissenöl ersetzt. Weitere "Cymbopogon"-Arten werden angebaut, da sie Parfümöle wie Palmarosaöl und Lemongrasöl liefern. Diese Öle bestehen überwiegend aus Mono- und Sesqui-Terpenen, während Phenylpropanoide selten sind. Alkaloide sind selten. Es gibt Protoalkaloide und vereinzelt Pyrrolizidin- und β-Carbolintyp-Alkaloide. Cyanogene Glykoside (blausäure-produzierende Verbindungen) sind weit verbreitet, kommen aber immer nur in geringen Mengen vor. Cumarine kommen wahrscheinlich bei allen Vertretern vor, aber nur beim Gewöhnlichen Ruchgras ("Anthoxanthum odoratum") und beim Duftenden Mariengras ("Hierochloe odorata") in größeren Mengen. Polyphenole sind in geringeren Mengen enthalten. In den Blattepidermen wird wie bei den Sauergräsern (Cyperaceae) häufig Kieselsäure in Form von Kieselsäurekörpern eingelagert. Oxalatkristalle scheinen vollkommen zu fehlen. Etliche dieser Inhaltsstoffe zeigen als Bitterstoffe eine fraßhemmende Wirkung oder wirken toxisch auf Bakterien oder Pilze. Ökologie. Schematische Darstellung eines vegetativen Grastriebes einer ausdauernden Graspflanze a> ("Dactylis glomerata") mit geöffneten Blüten Vegetatives Wachstum, Ausbreitung und Regeneration. Bei ausdauernden Arten erfolgt die vegetative Ausbreitung überwiegend über Stolonen und Rhizome, die sich an den Knoten bewurzeln. Etliche Arten bedienen sich zusätzlich der unechten Viviparie, bei der keine Samen gebildet, sondern Brutknospen (Bulbillen), die erbgleiche Tochterpflanzen hervorbringen. Ein bekanntes Beispiel ist das Alpen-Rispengras ("Poa alpina"). Bei diesem Gras entwickeln sich im Blütenstand anstelle von Blüten grüne Pflänzchen, die an der Mutterpflanze verbleiben oder zu Boden fallen und als Diasporen dienen. Beim Zwiebel-Rispengras ("Poa bulbosa") bilden sich basale, zwiebelartige Brutknospen, in denen Reservestoffe eingelagert sind. Jede Brutknospe bildet die Grundlage für eine neue Pflanze. Gräser sind zur raschen Regeneration nach Verbiss oder Mahd befähigt. Dies liegt in der geschützten Lage ihrer Blattwachstumszonen (Meristeme) und Nebentriebknospen begründet. Die Wachstumszonen befinden sich an der Basis der Graspflanzen nahe der Erdoberfläche. Die Triebe bestehen aus unterschiedlich alten und gegenständig angeordneten Blättern. Junge Blätter wachsen an der Basis der Blattscheide (Interkalarmeristem). Ein erneutes Wachstum der Blätter nach Verlust durch Mahd oder Beweidung wird dadurch ermöglicht. Auch die einzelnen Blätter verfügen wie die Halme am oberen Ende der Blattscheiden im Übergang zu den Blattspreiten über teilungsfähiges Gewebe, welches Nebentriebe bilden kann. Ferner sind die Halme durch das unterschiedliche Wachstum der teilungsfähigen Zonen oberhalb der Knoten zu einem Wiederaufrichten des Stängels nach Regen oder Tritt befähigt. Die beschriebenen Wachstumsbereiche sind in verschiedene Zonen unterteilt: An der Basis findet die Zellteilung und damit eine Zellproduktion statt. Darauf folgt ein Bereich der Zellstreckung. In der folgenden Zone der Zelldifferenzierung erfolgt die Ausbildung der Blattzellen. Die Zellproduktion und Zellstreckung verschieben das ausdifferenzierte Blatt nach oben. Sobald das Blatt aus der Blattscheide ans Licht tritt, ist es photosynthetisch aktiv. Generative Vermehrung und Ausbreitung. Alle Süßgräser sind windblütig (anemogam). Die Blüten öffnen sich nur wenige Stunden am Tag, um Staubblätter und Narben dem Wind auszusetzen. Eine Selbstbestäubung wird durch die meist frühere Reife der Staubblätter verhindert (Proterandrie). Die starke Reduzierung der Blüten ist eine Anpassung an diese Form der Bestäubung. Gräser können auf auffällige Formen und Farben der Blüten und auf ein Nektarangebot zur Anlockung von Tieren verzichten. Die passive Pollenübertragung über den Wind und Luftströmungen erfolgt dabei weit weniger gezielt als bei der Tierbestäubung. Diesen Mangel gleichen die Windblüher mit der Massenproduktion von Blütenstaub aus. Dies führt während der Blütezeit zu regelrechten Staubwolken, die garantieren, dass zumindest ein kleiner Teil des weniger als einen Tag lebensfähigen Pollens seinen Bestimmungsort, die weiblichen Narben, erreicht. Beispielsweise bildet der Roggen ("Secale cereale") pro Ähre etwa vier Millionen Pollenkörner; eine einzelne Blüte bis zu 57.000. Eine große Blütenhülle wäre bei der Pollenverbreitung nur hinderlich. Die Lodiculae schwellen durch Wasseraufnahme an und drängen die Spelzen auseinander – die Grasblüte öffnet sich. Die Filamente sind lang und dünn und lassen die Staubbeutel frei aus der Blüte heraushängen. Der Wind kann auf diese Weise ungehindert den trockenen, nicht verklebten und sehr leichten Pollen heraustragen. Die Fruchtknoten haben gefiederte und dadurch mit großer Oberfläche versehene Narben, die den Pollen gewissermaßen wieder aus Luft herauskämmen können. Die Effizienz dieser Form der Pollenverbreitung wird durch das Herausheben der Blütenstände über die Ebene des Blattwerkes sowie durch eine hohe Individuendichte der Graspflanzen verstärkt. Eine Sonderform der geschlechtlichen Ausbreitung ist die echte Viviparie, bei der die Samen schon auf der Mutterpflanze auskeimen. Die Samenausbreitung erfolgt auf vielfältige Weise; überwiegend durch den Wind (Anemochorie), über das Wasser (Hydrochorie) oder durch Tiere Zoochorie. Mykorrhiza. Das Wurzelsystem der Wiesengräser bildet arbuskuläre Mykorrhiza (AM), eine Symbiose mit einem Pilz. Diese erleichtert der Graspflanze die Erschließung und Aufnahme von Nährstoffen aus dem Boden. Ein Pilzmycel verbindet mehrere Pflanzen der gleichen Art und andere Pflanzenarten, wodurch nicht nur das Gras selbst und der Pilz, sondern schließlich Wiese und Pilz eine Lebensgemeinschaft bilden. Photosynthese. Unter den Gräsern gibt es sowohl C3- (die meisten heimischen Gräser wie Deutsches Weidelgras) als auch C4-Pflanzen (z. B. Mais, Hirse und Zuckerrohr), letztere mit effizienterer Photosynthese bei hohem Wärme- und Lichtangebot. C3-Pflanzen weisen dagegen bei kühleren Temperaturen und weniger Licht eine effizientere Photosynthese auf. Die Forschung hat gezeigt, dass der C4-Mechanismus zuerst bei den Gramineen, wahrscheinlich im Oligozän vor etwa 23 bis 34 Millionen Jahren entwickelt wurde, wobei es Hinweise auf über zehn unabhängige Entwicklungen gibt. Bei der geographischen Verbreitung ergibt sich eine auffällige klimatische Abhängigkeit der Photosynthesetypen. So ist der Anteil der C4-Pflanzen unter den Gräsern in kühlen und humiden Klimaten deutlich niedriger als in trockenen bis extrem ariden Regionen der Erde. Afrikanische Savanne mit "Andropogon gayanus" a> ("Spartina anglica") an der Küste Englands Natürliche und anthropogene Grasländer. Etwa ein Fünftel der Pflanzendecke der Erde wird von Gräsern eingenommen. Savannen und Steppen bilden die großen, natürlichen Grasländer der Erde in Klimazonen, die für Wald nicht geeignet sind. Demgegenüber stehen die durch die menschliche Tätigkeit entstandenen Kulturgrasländer vor allem Mitteleuropas, die in einem langen nacheiszeitlichen Prozess vom Wald zur offenen, durch Wiesen und Weiden geprägten Landschaft entstanden. Die dauerhaften, mehr oder weniger geschlossenen Grasbestände erfüllen vielfältige ökologische und biologische Aufgaben. Sie verhindern vor allem durch ihr dichtes und eng vernetztes Wurzelsystem die Abtragung der Bodenschicht durch Wind und Wasser (Erosion). Ferner erzeugen sie durch ihr Wurzelwerk einen hohen Gehalt an organischer Substanz im Boden. Etwa zwei Drittel der pflanzlichen Primärproduktion bleiben in Grasländern unterirdisch zurück und führen so zur Humusbildung. Dazu trägt das jährlich absterbende oberirdische Pflanzenmaterial zusätzlich bei, welches als Mulch zurückbleibt und nur langsam zersetzt wird. In vielen Grasländern spielen natürliche Feuer eine entscheidende Rolle. Blitze entzünden am Ende der Vegetationszeit die abgestorbene Pflanzenmasse. Die in der Asche enthaltenen anorganischen Nährstoffe fördern als Dünger den Neuaustrieb der Pflanzen. Darüber hinaus wird der Gehölzaufwuchs zerstört, die Brände tragen so zur Offenhaltung der Graslandschaft bei. Grasländer beherbergen und ernähren eine artenreiche und vielfältige Tierwelt: eine Vielzahl von Insekten (Termiten und Ameisen), Spinnen, Vögel, Kleinsäuger und zahlreiche im Boden lebende Tiere, nicht zuletzt Großsäuger wie jene der großen Tierherden in den afrikanischen Savannen. Letztere tragen wie die regelmäßigen Feuer dazu bei, die Verjüngung der Gehölze zu hemmen. Ihre Exkremente düngen den Boden. Durch den Fraß wird die Regeneration der Gräser so angeregt, dass die Primärproduktion um mehr als zwei Drittel zunimmt. Ferner sind sie für die Verbreitung der Früchte und Samen durch Epi-, Endo- oder Dysochorie von Bedeutung. Naturnahe Grasländer sind heute weltweit vom Rückgang betroffen. Die Ursachen liegen in der Umwandlung in Acker- und Siedlungsland, der Aufgabe traditioneller Wiesen- oder Weidenutzungen sowie in der Intensivierung (Düngung) und Degradierung (Überweidung). Steppen und Prärien. Die baumfreien Steppen finden sich in den semiariden, gemäßigten Zonen vorwiegend auf der Nordhalbkugel. Auf der Südhalbkugel ist die argentinische Pampa eine zu den eurasischen Steppen und den nordamerikanischen Prärien analoge Vegetationsform. Es wird noch kontrovers diskutiert, ob sie auf natürliche Weise entstanden ist. Steppen unterliegen durch strenge Kälte im Winter und anhaltende Trockenheit im Sommer im Jahresverlauf zwei Perioden der Vegetationsruhe. Die im Frühjahr, Frühsommer und Spätherbst anfallenden Niederschläge reichen für das Wachstum der Steppenvegetation aus. Kennzeichnend für Steppen ist ihre hohe bodenbiologische Aktivität bei einem hohen Humusanteil (bis zu 10 %). Es können sich fruchtbare Schwarzerdeböden mit Humushorizonten bis zu einem Meter Mächtigkeit bilden. Die osteuropäischen Steppen lassen sich grob in etwa vier Vegetationstypen gliedern, welche der zunehmenden Kontinentalität in Richtung Südost folgen. In Russland und der Ukraine finden sich Wiesensteppen mit Aufrechter Trespe ("Bromus erectus"), Flaum-Hafer ("Avena pubescens"), Schillergräsern ("Koeleria") und vielen anderen Gräsern. Sie sind reich an einjährigen, und nicht grasartigen ausdauernde krautige Pflanzen. Darauf folgt die durch Pfriemengräser der Gattung "Stipa" dominierte Federgras-Steppe mit schmalblättrigen Horstgräsern und weniger Stauden und schließlich die Kurzgras-Steppe mit xerophytischen "Festuca"-Arten. Westliche Vorposten der osteuropäischen Steppen finden sich beispielsweise in der Pannonischen Tiefebene Ungarns. Im gemäßigten Nordamerika entspricht den Steppen die flächenmäßig deutlich kleinere Prärie zwischen Mississippi und den Rocky Mountains. Sie ist im Gegensatz zu den osteuropäischen Steppen etwas weniger kontinental geprägt. Sie erreicht in der West-Ost-Ausdehnung 1000 Kilometer und in der Nord-Süd-Ausdehnung 2750 Kilometer. Im Osten findet sich die Hochgras-Prärie mit Wiesen-Rispengras ("Poa pratensis"), dem Großen Schillergras ("Koeleria pyramidata"), Prärie-Bartgras ("Andropogon scoparius"), Rutenhirse ("Panicum virgatum") und vielen krautigen Pflanzen. Im Südteil folgt Richtung Westen die Mischgras-Prärie im Übergang zur am Fuße der Rocky-Mountains befindlichen Kurzgras-Prärie mit dem Moskitogras ("Bouteloua gracilis") und "Buchchloe dactyloides". Die große Bedeutung geschlossener Grasdecken als Schutz vor Erosion zeigen die verheerenden Sandstürme der 1930er-Jahre in der danach benannten „Dust Bowl“ Nordamerikas durch großflächige Bodenzerstörungen im Zuge der Umwandlung in Ackerland. Noch im 17. und 18. Jahrhundert zogen riesige Büffelherden mit einer geschätzten Bestandsgröße von 50 bis 70 Millionen Tieren über die Prärien. Heute sind es über 100 Millionen Hausrinder. Savannen. Die Savannen umfassen etwa 15 Millionen Quadratkilometer. In den wechselfeuchten Sommerregengebieten der Tropen der Südhalbkugel erreichen sie ihre größte Ausdehnung in Afrika. Analoge Formationen der Savannen sind die Llanos Venezuelas und Kolumbiens, die Cerrados Brasiliens sowie die Eukalyptus-Steppen Nordaustraliens. Savannen sind im Gegensatz zu den Steppen und Prärien mit Bäumen und Sträuchern durchsetzt. Die Savannen Afrikas würden ohne Feuer und den Einfluss der großen Elefanten- und Huftierherden in kurzer Zeit mit Gehölzen zuwachsen. In den Savannen findet man häufig ein kleinräumiges Oberflächenrelief aus flachen Hügeln und Senken vor, mit Höhenunterschieden unter einem Meter. Dadurch unterscheiden sich die Standorte vor allem hinsichtlich der Wasserverfügbarkeit. Die unterschiedliche Wasserverfügbarkeit bestimmt schließlich die Nährstoffverfügbarkeit und die Vegetation. In Savannen spielen neben den Großtieren Termiten, Ameisen und Heuschrecken eine maßgebliche Rolle als Regulative im Ökosystem. Der Artenreichtum der Pflanzen der Savannen ist vergleichsweise gering. Die Hauptkomponenten sind C4-Gräser wie die Lampenputzergräser ("Pennisetum") und "Andropogon"-Arten in Afrika. In Australien sind die Savannen, das sogenannte Spinifex- oder Hummock-Grasland, durch Igelkopfgräser der Gattungen "Triodia" und "Plectrachne" gekennzeichnet. Dagegen ist der Artenreichtum der Tiere ausgesprochen groß. So leben etwa 1,5 Millionen Großtiere in den Savannen der Erde, allein in der Serengeti Ostafrikas sind es 98 große Weidetiere pro Quadratkilometer. Die Zoomasse wird auf 150 bis 250 Kilogramm Trockenmasse pro Hektar geschätzt – jene der Wälder der gemäßigten Zone wird mit nur 10 Kilogramm Trockenmasse pro Hektar angegeben. Kulturgrasland. In der Naturlandschaft Europas ist natürliches Grasland auf wenige Bereiche beschränkt. Nur in hohen Berglagen oberhalb der Waldgrenze, in Seemarschen, in oft überschwemmten Auenbereichen und im Randbereich von Hochmooren konnten sich kleinräumig natürliche, weitgehend baumfreie Grasländer, sogenannte Urwiesen, entwickeln. Sie sind heute stark vom Menschen überprägt. Kulturgrasland dient dem Menschen wirtschaftlich als Grundlage der Viehzucht. Die durch Gräser dominierten Wiesen- und Weidelandschaften des gemäßigten Europa sind im Wesentlichen das Ergebnis jahrhundertelangen menschlichen Wirkens. Noch vor etwa 10.000 Jahren war Mitteleuropa nahezu reines Waldland. Die Entwicklung bäuerlicher Kulturen, die sich vom Nahen Osten ausgehend vor etwa 6700 bis 6400 Jahren (Neolithikum) nach Mitteleuropa ausbreiteten, ermöglichte das Sesshaftwerden der Menschen und führte zu immer stärkeren Eingriffen in die natürliche Pflanzendecke. Es gab Siedlungen, erste Äcker und Nutztiere, die ihre erste Nahrung im Wald suchten. Der Fraß der Tiere, Brand und Holzeinschlag führten im Laufe längerer Zeit zu Auflichtungen in den Wäldern. Mit Beginn der Eisenzeit wurde die Landnutzung verstärkt, und mit Erfindung der Sense wurde die Gewinnung von Heu und Streu möglich. Auf diese Weise entstanden erste größere Wiesenareale. Im Mittelalter vollendete sich die Landschaftsentwicklung in einer offenen und sehr differenzierten Kulturlandschaft aus Siedlungen, Waldresten, Feldgehölzen, Gebüschen, Äckern sowie artenreichen Wiesen und Weiden. Die typische Landschaft wird in der Literatur vielfach als „Parklandschaft“ oder „europäische Savanne“ beschrieben. Im Zuge der Agrarentwicklung in der Neuzeit wird die Landwirtschaft durch die Technisierung, Flurbereinigungen, Melioration sowie gezielte Ansaat ausgewählter Grasarten immer unabhängiger von natürlichen Gegebenheiten. Die artenreichen, extensiven Wiesen und Weiden wurden weitgehend von artenarmen, monotonen Wirtschaftswiesen und -weiden abgelöst. Zu den wichtigsten, angebauten Futtergräsern des Dauergrünlandes gehören heute das Deutsche Weidelgras ("Lolium perenne"), das Wiesen-Lieschgras ("Phleum pratense"), das Gewöhnliche Knäuelgras ("Dactylis glomerata") sowie Wiesen- und Rohr-Schwingel ("Festuca pratensis", "Festuca arundinacea"). Küsten- und Hochwasserschutz. Etliche Gräser verhindern durch ihr dünnes Netzwerk aus Wurzeln und die Bedeckung des Bodens mit ihren oberirdischen Pflanzenteilen nicht nur dessen Abtragung durch Wind und Wasser, sondern sorgen zusätzlich für eine Aufhöhung desselben. Dafür sind besonders solche Arten geeignet, welche unter vergleichsweise ungünstigen Standortbedingungen weitreichende Rhizome und Stolonen bilden können. So ist beispielsweise der Gewöhnliche Strandhafer ("Ammophila arenaria") maßgeblich an der Festlegung der Treibsande sowie am Aufbau der Weißdünen auf den Inseln und an den Festlandsküsten beteiligt und erfüllt so eine wichtige Funktion im Küstenschutz. Auf regelmäßig überfluteten Schlickflächen der Küsten ist es der Strand-Salzschwaden ("Puccinellia maritima"), welcher mit seinen sich bewurzelnden Stolonen allmählich die kurzen dichten Rasen der Salzwiesen bildet und mit seinen kurzen steifen Halmen und Blättern den Schlamm gewissermaßen einfängt und die Oberfläche der Marsch langsam aufhöht. Dort, wo andere Süßgräser nicht mehr gedeihen können, übernimmt das Salz-Schlickgras ("Spartina anglica") an ähnlichen Standorten die Funktion der Festlegung und Aufhöhung von Schlick der seewärtigen Seiten im Wattenmeer und entlang der Priele. Die Deiche der Küsten und Ströme werden schließlich mit einer Pflanzendecke ausgestattet, die von bodenhaltenden Süßgräsern dominiert wird. In den Ebenen entlang der Flussufer des Binnenlands schützen Gräser den Boden vor Erosion und erfüllen eine ebenso wichtige Aufgabe im Hochwasserschutz. Beispielsweise bilden das Rohr-Glanzgras ("Phalaris arundinacea") und der Wasser-Schwaden ("Glyceria maxima") auf Schlammflächen und an Ufern dichte und hohe Aufwüchse mit kräftigen Rhizomen. Flussauen stellen nicht nur Retentionsflächen für Hochwässer dar, sondern sind aufgrund der Großgräser eine Senke („Falle“) für Sedimente, Nähr- und Schadstoffe. Nutzung und Bedeutung für den Menschen. Die Familie der Süßgräser bietet ein außerordentlich breites Spektrum an Nutzungsmöglichkeiten. Demgegenüber stehen jedoch nur relativ wenige Gattungen, die schließlich als Nutzpflanzen für den Menschen von Bedeutung sind. So werden lediglich 6 bis 7 Prozent der 600 bis 700 Gattungen als Nahrung oder als Werk- und Baustoffe verwendet. Nur etwa 15 Gattungen, das sind knapp 2 Prozent (ohne Berücksichtigung der Bambus-Gattungen), spielen dabei eine größere Rolle. Getreide. Von großer weltwirtschaftlicher Bedeutung sind die Getreide. Grasfrüchte, beziehungsweise Getreidekörner, dienen dem Menschen als Grundnahrungsmittel. Sie liefern über 50 % der Welternährungsenergie. Weizen ("Triticum"-Arten), Mais ("Zea mays") und Reis ("Oryza sativa") nehmen dabei eine führende Rolle ein. Gerste, Roggen, Hirsen und Hafer decken etwa ein Zehntel ab. Weizen, Gerste und Roggen haben ihren Ursprung im sogenannten Fruchtbaren Halbmond, einem Gebiet, das sich von Ägypten über Palästina bis zum Persischen Golf erstreckt. Hier wurden die Wildformen in Kultur genommen, die über verschiedene Auslese- und Kreuzungsprozesse zu den heutigen Kulturformen entwickelt wurden. Reis hat seinen Ursprung in China oder Indien; Mais stammt aus Mexiko. Unter Hirsen werden Gräser verschiedener Gattungen mit kleinfrüchtigen Körnern zusammengefasst, wie "Digitaria, Echinochloa, Eragrostis, Panicum, Setaria, Sorghum". Baugerüst aus Bambus in Indien Sonstige Nutzungen. Neben den Grasfrüchten werden die Stängel, die Blätter und Wurzeln genutzt. Süßgräser sind eine wichtige Rohstoffquelle zur Gewinnung von Stärke, Zellulose, Zucker sowie Fetten und ätherischen Ölen. Sie können als Werk-, Bau- und Füllstoffe verwendet werden. Vor allem werden die verholzten Halme verschiedener Bambus-Arten in tropischen und subtropischen Gebieten Asiens zur Herstellung von Möbeln, Ess- und Trinkgefäßen oder Zäunen verwendet und nicht zuletzt im Haus- und Gerüstbau eingesetzt. In Nordwesteuropa wird das hier im Überfluss wachsende Schilf zu Eindeckung von Häusern verwendet. Die Eismumie Ötzi soll einen Mantel aus Süßgräsern getragen haben. Bambussprosse Bambussprosse werden als Gemüse gegessen. ZitronengrasZitronengräser ("Cympopogon") werden als Gewürz- und Heilpflanzen verwendet. Ferner dienen Gräser zur Herstellung von alkoholischen Getränken wie Bier, Rum oder Korn. Als nachwachsende Rohstoffe gewinnen Süßgräser, vor allem Bambus und Zuckerrohr, zunehmende Bedeutung zur Herstellung von Bioalkohol als Treibstoff. Schließlich sei noch die Verwendung zahlreicher Süßgrasarten mit auffälligen Blütenständen, wie beispielsweise das Pampasgras, als Ziergräser im Garten- und Landschaftsbau genannt. Die landwirtschaftliche Nutzung umfasst neben dem Getreideanbau die Nutzung zahlreicher Grasarten als Futterpflanzen für Rinder, Schafe oder Pferde in Form von Kulturgrasland wie Wiesen (Mahd zur Heugewinnung, Streunutzung, Silage) oder Weiden. Darüber hinaus werden geeignete Gräser für Rasen in privaten Gärten, in Parks, auf Golf- oder Sportplätzen eingesetzt, mit der Nutzungsart und -intensität angepassten Sortenmischungen. Gesundheit. Bei empfindlichen Menschen können Pollen von Süßgräsern die Bildung von Antikörpern Immunglobulin E (IgE) auslösen, was als Heuschnupfen bekannt ist. Sogenannte wasserlösliche I-Glykoproteine haften an der Pollenoberfläche, werden leicht an die Schleimhäute abgegeben und können allergische Reaktionen erzeugen. Ferner können in der Aleuronschicht der Getreidekörner enthaltene Prolamine durch eine immunologische Überempfindlichkeitsraktion die als Zöliakie bezeichnete Krankheit auslösen. Vorkommen. Süßgräser sind weltweit verbreitet. Sie kommen von den Meeresküsten bis ins Hochgebirge, vom Äquator bis jenseits der Polarkreise in nahezu allen terrestrischen Ökosystemen vor und besiedeln dabei Standorte von sehr großer ökologischer Bandbreite. Sie wachsen sowohl auf dauernassen bis extrem trockenen Böden als auch in sehr heißen bis arktisch kalten Klimaten. Man findet Süßgräser flutend in Gewässern, bestandsbildend als Röhrichte, als Unterwuchs in Wäldern, auf wechselfeuchten wie auch trockenen Böden, an Straßenrändern, an Böschungen, auf Felsen – selbst Schotterflächen und Mauerkronen werden besiedelt. Die Familie der Süßgräser deckt nahezu alle denkbaren Standorttypen ab, wobei die einzelnen Arten und Populationen im Rahmen des Wettbewerbs um die Ressourcen (Konkurrenz) ihre jeweils eigenen Vorzugs- oder Existenzbereiche besiedeln. Etliche Pflanzenformationen außerhalb der Wälder werden im Wesentlichen durch Gräser aufgebaut. Die nordamerikanische Prärie, die Steppen Osteuropas, die Savannen Afrikas und die Pampa Südamerikas, aber auch die Wirtschaftswiesen und -weiden Europas sind die landschaftsprägenden natürlichen sowie unter menschlichen Einfluss entstandenen Grasländer der Erde, in denen Bäume und Sträucher zurücktreten oder ganz fehlen. Stammesgeschichte. In der Erdneuzeit (Känozoikum) entstanden die modernen Familien der Blütenpflanzen, so auch die Gräser. Sie waren zunächst auf bewaldete und sumpfige Gebiete beschränkt. Mit der Entwicklung des kontinuierlichen Wachstumsprozesses und der Windbestäubung wurden ab dem Oligozän die offenen Länder erobert. Steppen und Grasländer breiteten sich vor allem im Miozän aus. Man nimmt an, dass die Evolution der Süßgräser mit jener der großen Weidetiere (Wiederkäuer, Pferde, Kamele etc.) parallel ging. Neueste Erkenntnisse indischer Wissenschaftler gehen einem Bericht der Zeitschrift Science zufolge davon aus, dass sich Gräser bereits in der Kreidezeit, dem letzten Abschnitt des Erdmittelalters (Mesozoikum), entwickelt haben. Diese Annahme geht auf Funde von Pflanzenbestandteilen zurück, welche im fossilen Dung (Koprolith) von Dinosauriern gefunden wurden und auf reis- und bambusähnliche Gräser deuten. Süßgräser gehören zu den im Verlauf der Evolution sekundär entstandenen windblütigen Angiospermen. Spuren von Pollenkitt in Gräsern weisen darauf hin, dass die Vorgänger biotisch durch Vögel und Insekten bestäubt wurden. Pollenkitt verklebt die Pollenkörner zu größeren Übertragungseinheiten, was bei der Windbestäubung, die schwebfähige und leichte Pollen verlangt, störend wäre. Im Zuge des Übergangs zur Windblütigkeit wurden die Blüten reduziert. Entwicklungsgenetische Befunde deuten darauf hin, dass die Vorspelzen ein Verwachsungsprodukt zweier Blütenhüllblätter von ursprünglich drei und die Schwellkörperchen aus inneren Tepalen hervorgegangen sind. Die Gräserblüte lässt sich somit vom Grundtypus der dreizähligen Blüten einkeimblättriger Pflanzen ableiten mit zwei Kreisen à drei Blütenhüllblättern, zwei Kreisen à drei Staubblättern sowie drei Fruchtblättern. Der dreifächrige Fruchtknoten der Süßgräser wurde einfächrig und enthält nur noch eine Samenanlage. Vom äußeren und inneren Staubblattkreis blieb nur der äußere Ring erhalten. Vom inneren Hüllblattkreis blieben nur die zwei als Schwellkörperchen dienenden Schuppen, die dritte Tepale fiel aus. Nur bei einigen tropischen Arten sind noch drei Lodiculae vorhanden. Der äußere Hüllblattkreis besteht nur noch aus der Vorspelze, die aus zwei getrennten Blütenhüllblättern entstanden ist. Bei wenigen tropischen Gräsern sind zwei getrennte Vorspelzen erhalten. Die dritte Tepale fiel wiederum aus. Etwa 80 % der Grasarten haben mehr als einen Chromosomensatz im Zellkern. Hybride, zum Teil auch fruchtbare, sind bei Süßgräsern selbst zwischen Gattungen nicht selten. Viele der heutigen Gräser waren in der Naturlandschaft vermutlich nicht in der jetzigen Form vorhanden. Es wird angenommen, dass viele Graslandarten ihren Ursprung in diploiden Sippen haben, die während der Eiszeiten in südlichen Rückzugsgebieten überdauerten. In einem langen Prozess der Rückwanderung, der Anpassung an veränderte Standortbedingungen und verschärfter Konkurrenz sowie durch die vom Menschen seit dem Neolithikum neu geschaffenen Lebensräume konnten durch Kreuzungen diploider Elternarten tetra-, bis polyploide Sippen (Allopolyploidie) entstehen. So sind zum Beispiel "Anthoxanthum odoratum", "Agrostis stolonifera", "Dactylis glomerata" und "Poa pratensis" Hybride alter diploider Sippen. Systematik. Die Typusgattung der Familie der Poaceae ist "Poa". Der Gattungsname "Poa" ist vom griechischen Wort "póa" abgeleitet und bedeutet Kraut, Gras, Pflanze. Die veraltete Bezeichnung für die Familie lautet Gramineae. Nach dem Internationalen Code der Botanischen Nomenklatur Artikel 14 ist die weitere Verwendung des alten Begriffes als Ausnahme von den strengen Regeln erlaubt und damit legitim: Poaceae = Gramineae Jussieu nom. cons. ("nomina conservanda") et nom. alt. ("nomen alternativum"). Süßgräser sind Bedecktsamer (Magnoliopsida). Im Gegensatz zu den Nacktsamern (Gymnospermae) ist bei ihnen die Samenanlage im Fruchtknoten eingeschlossen. Die Familie der Süßgräser gehört innerhalb der Einkeimblättrigen Pflanzen (Monokotyledonen) zur Ordnung der Süßgrasartigen (Poales). Die Familie umfasst etwa 10.000 Arten mit je nach verwendeter Systematik 600 bis 700 Gattungen. Die Poaceae sind in 13 Unterfamilien von sehr ungleicher Größe unterteilt, die noch weiter in insgesamt 46 Tribus gegliedert sind. Die Unterfamilien können vom phylogenetischen Standpunkt aus zu zwei Hauptgruppen, „BEP-clade“ und „PACC-clade“ zusammengefasst werden. Übersicht über die Systematik der Poaceae mit einer Auswahl an Gattungen und Arten Quellen. Die allgemeinen Informationen dieses Artikels entstammen den unter Literatur und Weblinks aufgeführten Referenzen (Morphologie, Standorte, Verbreitung etc.). Darüber hinaus sind einzelne Aspekte, Spezialthemen, Zahlen usw. den aufgeführten Einzelpublikationen entnommen. Samenpflanzen. Die Samenpflanzen (Spermatophytina) sind eine der Gruppen im Reich der Pflanzen. Sie bilden Samen als Ausbreitungsorgane. Merkmale. Die Samenpflanzen sind primär verholzte Pflanzen mit sekundärem Dickenwachstum, krautige Wuchsformen gelten als abgeleitet. Sie bilden Samen, die den Embryo geschützt in mütterlichem Gewebe (Samenschale) enthalten und ein Ruhestadium wie auch die Ausbreitungsorgane darstellen. Die Befruchtung ist bei ihnen, im Gegensatz zu Moosen und Farnen, völlig vom Wasser unabhängig. Die Sporophylle sind meist zu Blüten bzw. Zapfen zusammengefasst. Fortpflanzung. Die Samenpflanzen durchlaufen einen Generationswechsel: Es wechseln sich – wie bei Farnen und Moosen – Sporophyt und Gametophyt ab. Der Sporophyt ist die Pflanze, die gemeinhin als Baum, Strauch oder Kraut bekannt ist. Die Fortpflanzungsorgane befinden sich in der Blüte. Dort werden in den Pollensäcken der Staubblätter die Pollenkörner erzeugt. In den Fruchtblättern bildet sich der Embryosack. Der männliche Gametophyt wächst aus dem Pollenkorn (das den Sporen eines Farnes entspricht) als Pollenschlauch heraus, der durch den Griffel zum Embryosack wächst und dort die Eizelle befruchtet. Der Embryosack stellt den weiblichen Gametophyten dar. Er bildet die Eizelle. Beide Gametophyten haben nur den halben Chromosomensatz des Sporophyten, sie sind haploid. Äußere Systematik. Die beiden Hypothesen lassen sich durch molekulargenetische Untersuchungen nicht überprüfen, da die fraglichen Vorläufergruppen sämtlich ausgestorben sind. Molekulargenetische Untersuchungen ergeben als nächstverwandte Gruppe die Farne. Innere Systematik. Daneben gibt es die nur fossil überlieferte Gruppe der Samenfarne, die jedoch keine natürliche Verwandtschaftsgruppe bilden. Ihre paläozoischen Vertreter vermitteln eher zwischen den Farnen und den übrigen Samenpflanzen, die mesozoischen Vertreter werden als Vorläufer der Bedecktsamer diskutiert. Über die Verwandtschaftsverhältnisse innerhalb der Samenpflanzen herrscht noch keine Einigkeit. Es werden im Wesentlichen vier Möglichkeiten diskutiert, wobei die Anthophyten-Hypothese die geringste Stützung durch molekularbiologische Untersuchungen erhält. Die Hypothesen unterscheiden sich vor allem durch die unterschiedliche Stellung der Gnetophyta im Stammbaum. Sie kommen teilweise sogar innerhalb der Koniferen zu liegen, sodass diese dann paraphyletisch wären. Die Gnetales als Schwestergruppe der Bedecktsamer sind häufig das Ergebnis von auf morphologischen Merkmalen basierenden phylogenetischen Untersuchungen, die oft auch fossile Vertreter einschließen. Molekulargenetische Untersuchungen widersprechen dem in der Regel. Die Gnetales als Schwestergruppe der Pinaceae ist ein recht häufiges Ergebnis molekulargenetischer Studien. Diesem Ergebnis wird von anderer Seite entgegengehalten, dass die Gnetales kaum von modernen Koniferen abstammen können und die molekulargenetischen Ergebnisse durch das Nichteinbeziehen der vielen ausgestorbenen Gruppen verzerrt sind. Neuere Arbeiten zeigen als weitere Möglichkeit die Gnetales als Schwestergruppe der Koniferen (ohne Pinaceae). Schmeil-Fitschen. Der Schmeil-Fitschen ist eine von mehreren Exkursionsfloren zur Bestimmung der höheren Pflanzen (Gefäßsporenpflanzen und Samenpflanzen) im deutschsprachigen Raum. Das von der Flora abgedeckte Gebiet umfasst neben Deutschland Dänemark, die Niederlande, Belgien, Luxemburg, Teile Frankreichs (Elsass, Vogesen), die Schweiz, Liechtenstein, Österreich, Teile Italiens (Südtirol), die Tschechische Republik sowie die ehemals zu Deutschland gehörenden Teile Polens und Russlands. Das Buch erschien erstmals 1903 im Verlag Erwin Nägele, Stuttgart und Leipzig; seinen Namen trägt es von seinen Begründern Otto Schmeil und Jost Fitschen. Seit 1906 erscheint er im Verlag Quelle & Meyer. Nach dem Tod von Schmeil 1943 und Fitschen 1947 übernahm 1954 Werner Rauh mit der 64. Auflage die Herausgabe, ab den 1960er Jahren unterstützt von Karlheinz Senghas. Als derzeitiger Herausgeber fungiert Siegmund Seybold. Laut Angaben des Verlags beträgt die Gesamtauflage mittlerweile „über 2,5 Millionen verkaufte Exemplare“. Der vollständige Titel lautete ursprünglich Flora von Deutschland und seinen angrenzenden Gebieten, seit der 89. Auflage (1993) umbenannt in Flora Deutschlands und angrenzender Länder. Mit der 93. Auflage wurde er so weit erweitert, dass er auch für ganz Österreich anwendbar wurde. In der 2011 erschienenen 95. Auflage wurde das Bearbeitungsgebiet auf die Schweiz, Liechtenstein, Südtirol und die Tschechische Republik ausgedehnt und der Titel in Die Flora Deutschlands und der angrenzenden Länder geändert. Mittlerweile in zweiter Version existiert auch eine Ausgabe auf CD-ROM. Sigma. Der griechische Buchstabe Sigma (griechisches Neutrum, Majuskel, Minuskel im Wort, Minuskel am Wortende) ist der 18. Buchstabe des griechischen Alphabets und hat nach dem milesischen System den Zahlwert 200. In der griechischen Sprache wird es als stimmloses „S“ gesprochen. Herkunft und Ableitungen. Das phönizische Alphabet hatte vier Buchstaben für Zischlaute. Die Griechen übernahmen zwei davon für ihren S-Laut, die aber nie gleichzeitig in einem der unterschiedlichen altgriechischen Alphabete vorkamen. Der Buchstabe Samech wurde im ionischen Alphabet als X mit dem Lautwert "ksi" verwendet. Sein Name aber wurde in leicht abgewandelter Form auf den phönizischen Buchstaben „Sin“ übertragen, der nun im Griechischen Sigma hieß. In hellenistischer Zeit wurde der Buchstabe in Handschriften zu einer heute als lunares Sigma (lunar: „mondsichelförmig“) bezeichneten Form vereinfacht (ursprünglich nur als Majuskel für die Unziale, daraus die Minuskel), die sich in der Spätantike und im Byzantinischen Reich zur meistverwendeten Form entwickelte und im kirchlichen Kontext noch heute üblich ist (orthodoxe Kirchen). Von dieser Buchstabenform leiten sich sowohl das koptische Semma () als auch das kyrillische Es () ab, während sich das lateinische S von der gewöhnlichen Majuskel über die Etruskische Form ableitet. Swinger. Swinger (von "to swing", „schwingen, hin- und herbewegen“) ist eine im 20. Jahrhundert populär gewordene Bezeichnung für Menschen, die – im weitesten Sinne – ihre Sexualität frei und ohne Einschränkungen "mit verschiedenen (beliebigen) Partnern" ausleben; jenseits konventioneller Moralvorstellungen und gesellschaftlicher Tabus, die das Sexualverhalten regulieren. Swinger leben somit nicht in einer monogamen Partnerschaft, sondern haben (im gegenseitigen Einverständnis) sexuelle Kontakte mit anderen, unter Umständen fremden Personen. Als Treffpunkte haben sich Swingerclubs und Swingerpartys bzw. private Treffen etabliert – Orte, an denen die öffentliche Sexualmoral nicht beachtet wird und an denen sich Gleichgesinnte begegnen, um Partnertausch und Gruppensex zu praktizieren. Historisches. Zu nahezu allen Zeiten und in allen Kulturen existierte promiskuitives Sexualverhalten, d. h. Geschlechtsverkehr mit (häufig) wechselnden Partnern. Das "Swingen" ist jedoch abzugrenzen von anderen ähnlichen Formen wie z. B. der Polygamie als institutionelle bzw. gesellschaftlich anerkannte Form der Ehe (Vielehe) oder der Polyamory als tatsächliche "Liebes"beziehung zwischen mehreren Personen. "Swingen" wird insbesondere durch die ausschließliche Fokussierung auf das sexuelle Erleben bzw. Erlebnis charakterisiert, ohne sich dabei persönlichen Beziehungen oder gesellschaftlichen Strukturen oder Normen zu unterwerfen. Insofern ist es als Form der zwischenmenschlichen Begegnung z. B. mit dem One-Night-Stand vergleichbar. Zweifelsohne ist das "Swingen" als Sexualverhalten schon immer präsent gewesen (sprichwörtlich sind z. B. die Orgien im alten Rom oder die Konkubinen und Mätressen des Barock). Als etablierte und verbreitete gesamtgesellschaftliche Strömung (wenn auch unter speziellen Rahmenbedingungen siehe oben) entstand es jedoch erst in der Mitte des 20. Jahrhunderts in Amerika, wie schon der gängige englische Begriff "Swingen" nahelegt. Terry Goulds „"The Lifestyle: A Look at the Erotic Rites of Swingers"“ zufolge begann diese Bewegung in der U. S.-Airforce, deren Piloten während des Zweiten Weltkrieges für den Todesfall einander versicherten, für die Ehefrauen der Kameraden zu sorgen, in jeglicher Hinsicht, was das Sexuelle offenbar einschloss. Amerikanische Medien betitelten diese Praxis bald mit "wife-swapping" (Frauen-Tausch) und übergaben diese Idee damit der Öffentlichkeit. In den 1960er-Jahren gründete sich in Berkeley, Kalifornien die erste Organisation, die „"Sexual Freedom League"“. Bald darauf gründete sich die „"North American Swing Club Association"“ (NASCA), ein Dachverband, der Informationen über das "Swingen" in ganz Amerika zusammenführte. Bald darauf verbreitete sich das "Swingen" auch in anderen Ländern und hat heute insbesondere in der westlichen Welt eine Anhängerschaft gefunden. In (West-)Deutschland begann sich das Swingen Ende der 1960er-Jahre zu verbreiten. Die älteste noch erscheinende Zeitschrift für Swinger ist Happy Weekend. Sie erschien erstmals im Jahr 1972. Auch in der DDR gab es Swinger. Die Swinger in der DDR stellten Kontakte über Annoncen in den Zeitschriften "Das Magazin" und Wochenpost her. Dort fanden sich Texte von „toleranten Paaren“, welche „gleichgesinnte Paare mit Interesse für FKK und Fotografie“ suchten. Insbesondere in den 1980er-Jahren kam es vermehrt zu solchen Anzeigen. Sexualverhalten. Die individuellen Vorlieben sind sehr weit gestreut und beinhalten jegliche sexuellen Praktiken, bei denen Dritte in beliebiger Form eingebunden werden können. Dabei kann es sich auch um exhibitionistische und voyeuristische Handlungen ohne Körperkontakt handeln („Sehen-Zeigen“, gegenseitiges Beobachten oder Fotografieren sexueller Handlungen). Da Swingen nicht zu den derzeit allgemein gesellschaftlich akzeptierten Verhaltensweisen zählt, bewegt sich die Swingerszene hauptsächlich in dafür bestimmten Räumlichkeiten wie Clubs u. ä. Hier macht sich die Diskrepanz zwischen gesellschaftlichen Normen und den Swingern, die gemeinhin freie Liebe praktizieren und vertreten, besonders bemerkbar; wiewohl auch in dieser Beziehung die gesellschaftliche Akzeptanz (einschließlich homo- und bisexueller Praktiken) wächst und sich allmählich Moralvorstellungen verändern. Grundmotto. Das Grundmotto der Swingerszene lautet „Alles kann, nichts muss“. Damit ist gemeint, dass alle sexuellen Spielarten grundsätzlich möglich sind und toleriert werden, aber niemand zu etwas gedrängt oder gar gezwungen wird. Die meisten Swingerclubs berufen sich in ihren Websites und Hausregeln ausdrücklich auf dieses Motto, um den Gästen zu verdeutlichen, dass zwar ein vielschichtiger sexueller Kontakt mit anderen Personen möglich und erwünscht ist, ein Gast aber – anders als in einem Bordell – keinen Anspruch auf sexuelle Kontakte hat. So muss ein „Nein“ eines anderen Gastes, das dieser auch non-verbal durch entsprechende körperliche Abweisung ausdrücken kann, stets akzeptiert werden. Swingerszene. Seit dem Beginn der 1990er-Jahre hat sich in Europa und den Vereinigten Staaten und insbesondere in Deutschland die Swingerszene als eigene Subkultur herausgebildet. Diese Entwicklung verstärkte sich mit dem Aufkommen des Internets, da viele Internetforen und zahlreiche virtuelle Gemeinschaften einen sehr wichtigen Treffpunkt darstellen. Letztere dienen einerseits häufig dazu, Treffen für sexuelle Kontakte zu vereinbaren. Andererseits sind diese virtuellen Gemeinschaften aber auch manchmal Ausgangspunkt für Stammtische und Szenetreffen, bei denen Geselligkeit und Gemeinschaft mehr im Vordergrund stehen als sexuelle Kontakte. Über das soziale Umfeld der Swinger kann man keine allgemeine Aussage treffen – in der Swingerszene findet man sowohl Arbeiter als auch Akademiker. Beim Swingen steht der sexuelle Kontakt mit neuen Partnern im Mittelpunkt, was die Szene deutlich von der sehr kleinen Polyamorie-Bewegung unterscheidet, in der die Entwicklung eines Lebensmodells mit mehreren sexuellen Beziehungen versucht wird. In der Swingerszene sind hingegen über den sexuellen Kontakt hinausgehende Verbindungen oft nicht erwünscht. Die früher sehr starke Ablehnung von freundschaftlichen und engeren emotionalen Beziehungen weicht in jüngerer Zeit jedoch zunehmend auf, und es entstehen allmählich zunehmende Überschneidungen mit der polyamoren Subkultur. Als Sammelbegriff für beide Subkulturen ohne strikte Unterscheidung wird im englischen Sprachraum der Begriff "responsible nonmonogamy" verwendet. Internationale Swinger-Gemeinschaft-Flagge, erstellt von Ted Williams und Emilio Designs Graphic Design Enaver. Red Ringe stehen für die Leidenschaft und die untrennbare Verbindung zwischen dem Paar stellt die gelben Hintergrund das Licht und Feuer der Begierde, die blaue Farbe der Weite des Himmels Motivation und Deutung. Aus sexualwissenschaftlicher Sicht entsteht in längeren Paarbeziehungen „das ‚Problem‘ abnehmender sexueller Aktivität und Zufriedenheit.“ Es „könnte eine polygame Lebensform eine Alternative sein. Aus ethologischer, soziobiologischer Sicht und Bindungsforschung steht dem jedoch das Bedürfnis nach Bindung gegenüber.“ Swinger-Paare begegnen der Gefahr „abnehmender sexueller Aktivität und Zufriedenheit“ durch gemeinsame sexuelle Aktivitäten mit Dritten unter Aufrechterhaltung ihrer Paarbindung. Während die Thematik „Swingen“ in der erotischen Trivialliteratur massenhaft verarbeitet wird, befasst sich die deutschsprachige wissenschaftliche Literatur offenbar nicht oder nur beiläufig mit ihr. Das passt ins Bild der Sexualwissenschaft, die derzeit als „Forschungswüste“ gilt. Soweit das Thema Swinger in Schriften über praktische Ratschläge hinaus vertieft wird, wird apologetisch betont und zugleich behauptet, biologischen Erkenntnissen zufolge sei die Monogamie nicht im Menschen angelegt und gefährlich für eine Paarbeziehung. Es gibt aber auch rein literarisch-psychologische Begründungsstränge, wobei die Dreiecksbeziehung seit Mitte des 20. Jahrhunderts literarisch unter „Liebe zu dritt“ behandelt wurde, ohne dass vor dem Hintergrund damaliger strafrechtlicher Einschränkungen die sexuelle Komponente offen geschildert wurde. Sportart. Eine Sportart ist ein durch bestimmte Regeln strukturiertes Teilgebiet des Sports, siehe auch Liste von Sportarten. Innerhalb einer Sportart werden häufig verschiedene Disziplinen unterschieden. Kategorien von Sportarten. Sportarten lassen sich nach bestimmten Gesichtspunkten in verschiedene Kategorien einteilen. Es gibt aber keine offiziellen Klassifikationen. Keine Einteilungsmöglichkeit kann ausschließen, dass eine Sportart in mehreren Kategorien auftaucht: Radpolo etwa ist sowohl eine Ball- auch eine Radsportart. Systematisierung der Sportarten. Fußball ist damit heute eine PA-Sportart (ohne I, da die Fußballplätze standardisiert sind). Generell gibt es eine Tendenz, die Sportarten immer stärker zu standardisieren, wodurch in einer Gegenrichtung immer mehr neue Trendsportarten entstehen, die durch Auseinandersetzung mit der Natur der Standardisierung entgegenwirken. So waren im 19. Jahrhundert Crosslauf und Bahn-Leichtathletik annähernd gleichberechtigt. Die Aschenbahnen wurden immer besser, bis durch die Kunststoffbahnen kaum noch saisonklimatische Unterschiede feststellbar sind. Populäre Sportarten. Die Popularität von Sportarten ist teilweise sehr stark national geprägt. Nur wenige Sportarten können eine weltweite Bedeutung vorweisen. Grundsätzlich muss dabei zwischen der Ausübung und dem Zuschauen einer Sportart unterschieden werden, wobei zweifelsohne ein Zusammenhang besteht zwischen der eigenen Ausübung eines Sports und deren Anhängerschaft. Der weltweit populärste Zuschauersport ist eindeutig Fußball. Wie nur wenige andere Disziplinen gehört der Fußball in fast allen Teilen der Welt zu den beliebtesten Sportarten. Nur in Nordamerika, Australien und Südasien ist der Fußball auf eine untergeordnete Rolle reduziert. Andere annähernd weltweit verbreitete Sportarten sind weitere olympische Sportarten, darunter neben den Kerndisziplinen Leichtathletik und Schwimmen das Boxen und Tennis sowie als Mannschaftssportarten Basketball und Volleyball. Europas Sportmarkt wird weitgehend vom Fußball dominiert, der wohl in allen europäischen Staaten zumindest die zweitbeliebteste Sportart darstellt. Handball ist gegenüber den meisten anderen Sportarten nicht nur einem Kontinent zuzuordnen, hat aber außerhalb Europas nur geringe Bedeutung. Andere Sportarten finden in einzelnen Regionen Europas besonderes Interesse: der Radsport in West- und Südwesteuropa, American Football in Mitteleuropa, Baseball fast nur in den Niederlanden und in Italien, Basketball im gesamten südeuropäischen Raum, Rugby Union in Westeuropa, Rugby League nur in Großbritannien und Frankreich, Eishockey in Ost- und Nordeuropa, Skisport in der Alpenregion und in Nordeuropa. In Nordamerika hat sich ein eigenes System von Sportarten entwickelt. Im Mittelpunkt stehen hier vier Mannschaftssportarten, die unter US-Sportarten zusammengefasst werden können. Baseball ist die älteste amerikanische Nationalsportart, musste aber in den 1970ern den Titel der beliebtesten Sportart an American Football abgeben, Basketball und Eishockey stehen hinter diesen, wobei Basketball die beliebtere der beiden ist. Hinter diesen erfreuen sich weitere Mannschaftssportarten wie zum Beispiel Lacrosse, Fußball und Rugby regem Zuspruch. Mit Rugby und Cricket haben sich zwei weitere Sportarten neben dem Fußball mit dem Commonwealth verbreitet, die weltweit recht populär sind. Rugby Union zum Beispiel im gesamten Ozeanien, Argentinien, Japan, Südafrika aber auch außerhalb des Commonwealth wie in Frankreich und Italien. Cricket zum Beispiel in Indien, Pakistan, Australien und dem südafrikanischen Raum. Trotz dieser Beliebtheit haben die nationalen olympischen Verbände international noch nicht durchsetzen können, dass diese Sportarten olympisch werden. Rugby League hat es durch das Commonwealth außerhalb des Mutterlandes nur in Australien und Neuseeland zu einer größeren Sportart geschafft. Die Ausbreitung des Sports wird mit dem anglo-amerikanischen Kulturimperialismus in Zusammenhang gebacht. In asiatischen Ländern zählen Badminton und Tischtennis zu den beliebtesten Sportarten. Beide Sportarten werden in der Spitze der Weltranglisten von Asiaten dominiert. Sowohl Badminton als auch Tischtennis zählen in Deutschland und in den meisten europäischen Ländern allerdings nur zu den Randsportarten. Lediglich Dänemark stellt eine europäische Ausnahme in der Sportart Badminton dar. Über viele Jahre gehören die Dänen zu den einzigen Europäern die sich dauerhaft in der Weltspitze festsetzen konnten. Schließmuskel. Als Schließmuskel oder sphincter/Sphinkter (m.) (lateinisch/eingedeutscht zu griech. σφίγγω, "sfingo" ‘drücke zusammen’) bezeichnet man in der Anatomie der Wirbeltiere einen ringförmigen Muskel, der ein muskuläres Hohlorgan völlig abdichten kann. Dadurch wird ein Vorwärts- oder auch ein Rückwärtsfluss verhindert. Die meisten Schließmuskeln bestehen aus glatter Muskulatur und sind deswegen einer willkürlichen Betätigung nicht oder nur teilweise zugänglich. Bei Wirbellosen ist ein Schließmuskel ein Muskel, der ein Gehäuse oder Ähnliches verschließt. So zieht der Schließmuskel der Muscheln die beiden Schalenhälften zusammen. Funktionsstörungen. Funktionsstörungen des „unteren Ösophagussphinkters“ können sich als unzureichender Verschluss oder unzureichende Öffnung darstellen. Ist der Verschluss des Mageneingangs gestört, fließt Magensäure in die Speiseröhre zurück (Reflux) und verursacht eine Refluxösophagitis. Öffnet sich dieser funktionelle Sphincter nicht, kommt es zu einer Achalasie. Funktionsstörungen der Afterschließmuskeln führen zu einer Stuhlinkontinenz. Die Afterschließmuskeln können auch durch einen Dammriss während der Geburt verletzt werden. Die Harninkontinenz ist ein Oberbegriff für verschiedene Störungen der Reservoirfunktion der Harnblase und für unwillkürlichen Abgang von Urin. Umgekehrt soll mittels Beckenbodentraining eine Harninkontinenz verhindert oder gebessert werden. Salzburg (Begriffsklärung). SalzburgerLand (in dieser Schreibweise) steht für Subkutan. Der Begriff subkutan (von lat. "sub" ‚unter‘, "cutis" ‚Haut‘, Abk. "s.c."), auch "subcutan" geschrieben, steht für eine anatomische Ortsangabe, die sich auf das Gewebe "unter" der Haut bezieht. Diese Unterhaut ("Tela subcutanea" oder "Subcutis") besteht im Wesentlichen aus dem unmittelbar unter der Haut liegenden Binde- und Fettgewebe. Subkutannaht. Eine Subkutannaht dient zum Verschluss des Unterhautgewebes bei tiefen Wunden durch den Chirurgen. Subkutane Arzneimittelgabe. Die subkutane Verabreichung von Medikamenten ist eine parenterale Verabreichungsform. Sie ist einfacher und schneller als eine intravenöse oder intramuskuläre; deshalb wird diese Applikationsform meist durch Pflegepersonal durchgeführt, ist aber auch dem Patienten selbst zuzutrauen. Zum Spritzen ist nur eine kurze und in der Regel dünne Kanüle erforderlich. Gängige Praxis in der Krankenhausumgebung ist eine kurze alkoholische Wischdesinfektion, ambulant – wie bei der Insulin-Selbstgabe – kann hierauf verzichtet werden. Einige häufig subkutan verabreichte Medikamente sind: Insuline, Heparine, Zytokine, Interferone und Immunmodulatoren, EPO und Allergenextrakte zur Hyposensibilisierung. Vor allem in der Geriatrie und Palliativmedizin wird heute die Verabreichung einer subkutanen Flüssigkeitszufuhr bevorzugt, da sie als einfach, komplikationsarm, sicher und für den Patienten schonend gelten darf. Eine subkutane Schmerzmittelgabe ist die bestgeeignete Alternative, wenn eine orale Analgesie nicht möglich ist. Hier kommen vor allem Opioide wie Morphin und Hydromorphon (bei den Nichtopioidanalgetika in der Humanmedizin nur Metamizol) in Frage. In der Tiermedizin ist die subkutane Arzneimittelgabe die vorherrschende Applikationsform. Auch die meisten Impfstoffe werden subkutan injiziert. Abzugrenzen ist die Intrakutane Injektion, bei der die Substanz in die Haut injiziert wird, so beispielsweise bei Allergietests oder dem Tuberkulintest. Salmānu-ašarēd III.. Statue Salmānu-ašared III. aus Aššur (heute in Istanbul) Salmānu-ašarēd III. (Šulmānu-ašarēd III. oder auch Salmanassar III. in Analogie zum biblischen Salmanassar V.) war von 858 v. Chr. bis 824 v. Chr. König des Assyrischen Reiches. Sein Name bedeutet: "Salmānu ist der oberste Gott". Er folgte als zweiter König in des Neuassyrisches Reiches auf seinen Vater Aššur-nâṣir-apli II. und führte dessen Eroberungspolitik fort. Leben. Als Sohn von Aššur-nâṣir-apli II. und dessen Gemahlin Mullissu-mukannišat-Ninua war er von Geburt an im Mittelpunkt großer Pläne seines Vaters. Als Erbsohn erhielt er den Namen des früheren Königs Salmānu-ašarēd I., den sein Vater wohl als großes Vorbild angesehen hat. So verlegte er die Residenz in das heutige Nimrud, eine zu assyrischer Zeit Kalḫu oder Kalach genannte, etwa 500 Jahre zuvor von Salmānu-ašarēd I. erbaute Stadt. Oberhalb davon ließ er einen riesigen Palast errichten, den er als Zentrum einer neuen Großmacht schließlich seinem Sohn hinterließ. Nach der Thronbesteigung bereitete Salmānu-ašarēd III. seinem Vater die letzte Ruhestätte in der dafür schon lange vorbereiteten Gruft des ausgedienten "Alten Palasts" in Aššur. Deutsche Ausgräber haben sie nach dem 2. Weltkrieg wiederentdeckt und sie enthielt noch die zertrümmerten Reste des Basaltsarges. Dann machte er sich zäh an die Aufgabe, das Werk fortzusetzen. Dabei erwies sich Salmānu-ašarēd III. als ebenso kriegsgewaltiger König wie sein Vater und er dehnte, mit seinem Feldmarschall Dajan-Aššur als Oberbefehlshaber, die Grenzen des Reiches nach allen Seiten aus. Bereits im ersten Jahr seiner Regentschaft, so berichtet die Inschrift auf einer Thronbasis aus Nimrud, konnte er sein Schwert symbolisch in das „Meer von Nairi“ (Vansee oder Urmiasee) tauchen. Mit Babylonien verbündet, festigte er dann nach und nach die assyrische Oberhoheit über Syrien und Palästina. Zahlreiche Fürsten wurden tributpflichtig. Darunter auch Jehu und im Jahre 853 v. Chr. Ahab, die in der Bibel als Könige von Israel erwähnt sind. Nur die Eroberung des aramäischen Damaskus blieb ihm trotz größter Anstrengungen versagt. Die Stadt hatte maßgeblich an der Bildung einer anti-assyrischen Allianz von Stadtstaaten mitgewirkt, die sich Salmānu-ašarēd III. in der Schacht von Qarqar entgegen gestellt hatte. Im bergigen Norden kam es zu einem erfolgreichen Kräftemessen mit dem Reich Urartu. Der Feldzug erforderte jedoch eine Anspannung so großer Kräfte, dass an dessen dauerhafte Besetzung nicht zu denken war. Neben Siegesstelen, die jeweils die Endpunkte seiner Expeditionen bezeichnen, sind seine Kriegsberichte auch auf seinem berühmten schwarzen Obelisk und am etwa sieben Meter hohen Bronzetor in Balawat bis heute erhalten. An Kunstwerken sind aus seiner Regierungszeit vor allem die Palasttüren von Imgur-Enlil (Balawat C) bedeutsam. Die "Kurchstele" überliefert eine Auflistung seiner Gegner. Gegen Ende seiner Amtszeit kam es zum Aufstand von 27 Stadtstaaten unter Führung seines ältesten Sohnes Aššur-danin-apla. Dem wurde er vor seinem Tod nicht mehr Herr. Sein Sohn und Erbe Šamši-Adad V. war auf Unterstützung von Marduk-zākir-šumi I. aus Babylon angewiesen und konnte den Machtkampf erst nach sechs Jahren Bürgerkrieg zu seinen Gunsten entscheiden. Feldzüge. Teil der Bronzebeschläge der Tore des Palasts Salmānu-ašared III. in Imgur-Enlil (Balawat) mit Darstellungen des Empfangs von Gesandten durch Salmānu-ašared III. (heute im British Museum) Salmānu-ašarēd I.. Salmānu-ašarēd I. (Šulmānu-ašarēd I. oder auch Salmanassar I., in Analogie zum biblischen Salmanassar V.). Sein Name bedeutet: „Salmānu ist der oberste Gott“. Als Sohn von Adad-nārārī I. regierte er nach der assyrischen Königsliste 30 Jahre als König das Assyrische Reich. Er war der Sohn und Nachfolger des assyrischen Königs Adad-nārārī I. und führte wie seine Vorgänger die Titel „Statthalter des Bel und Priester des Aššur“. Außerdem nannte er sich "Großkönig" und "König der Gesamtheit" (nach dem babylonischen "rab kiššati"). Bei seiner Thronbesteigung rebellierte das Land Uruadri, das meist mit dem späteren Königreich von Urartu gleichgesetzt wird. Der König hob seine Hand im Gebet, rief seine Armeen zusammen und begann einen Feldzug in die Berge. Er will dabei acht Länder und 51 Städte eingenommen haben. "„In drei Tagen warf ich das gesamte Land Uruadri zu den Füßen von Aššur, ihre Männer wurden so niedrig wie Leichen und Furcht erfüllte sie.“" Salmānu-ašarēd belegte das Land mit einem schweren Tribut, was anzeigt, dass er keine dauerhafte Herrschaft einrichten konnte. Auch die rebellische Bergfestung von Arina, "„das Heiligtum, auf festem Fels gegründet“" unterwarf er und nahm das Land Musri ein, gegen das schon Aššur-uballiṭ I. zu Felde gezogen war. Kutmuhu wurde ebenfalls unterworfen. Šalmānu-ašarēd führte zudem einen Feldzug gegen Hanilgabat (eponymer Beamter Aššur-nadin-šumate). Im selben Jahr rebellierte das Land KIRIURI gegen die assyrische Herrschaft. Šalmānu-ašarēd korrespondierte mit dem Hof der Hethiter. Ein Brief aus Dur Kurigalzu an den König von Babylon erwähnt, dass der Bote des Königs von Assyrien freigelassen wurde, nachdem man ihn drei Jahre in Hatti festgehalten hatte. Er kehrte zusammen mit einem hethitischen Boten nach Aššur zurück. Wenn Faists Vermutung, er sei in die Zeit Salmanassers zu datieren, richtig ist, belegt er ernsthafte Verstimmungen zwischen Assur und Hatti, die vermutlich mit dem assyrischen Angriff auf Šatuara II. von Hanilgabat in Zusammenhang stehen. Nach einem Keilschrifttext aus Boğazkale wurde er von einem kleinen König zu einem Großkönig (KUB XXIII 103:27 und 92:5). Auch dies wird meist mit der Eroberung von Mitanni in Zusammenhang gebracht, passt aber nicht zur vorhergehenden negativen Reaktion der Hethiter. Salmānu-ašarēd baute einen Palast in Niniveh, restaurierte den dortigen Ištar-Tempel und erneuerte Kalḫu an der Mündung des Oberen Zab in den Tigris. Seerosen. Die Seerosen ("Nymphaea") sind eine Pflanzengattung in der Familie der Seerosengewächse (Nymphaeaceae). Die weltweit verbreitete Gattung umfasst etwa fünfzig Arten. Beschreibung und Ökologie. Seerosen-Arten sind selten einjährig, meist ausdauernde krautige Pflanzen. Diese Wasserpflanzen bilden langgestreckte oder knollenförmige Rhizome aus, mit denen sie im Schlamm von Flüssen, Teichen, Seen und anderen Gewässern verankert sind. Bei den meisten Seerosen-Arten liegt Heterophyllie vor. Es werden zwei Typen von wechselständig und spiralig angeordneten Laubblättern ausgebildet: Schwimmblätter und Unterwasserblätter. Die einfachen Laubblätter sind lang gestielt. Die Blattspreite ist oft schildförmig (peltat), herzförmig oder pfeilförmig. Der Blattrand ist glatt oder gezähnt. Nebenblätter sind vorhanden oder fehlen. Die einzeln stehenden, zwittrigen Blüten sind schraubig aufgebaut und duften oft. Das Spektrum der Blütenfarben reicht von Weiß über Gelb und Rot bis Blau; Sorten können auch orange, grün, violett oder lila blühen. Die meist vier (selten drei oder fünf) freien Kelchblätter sind meist grünlich. Es sind sechs bis 50 freie Kronblätter vorhanden. Die 20 bis 750 freien Staubblätter sind alle fertil oder zeigen als Staminodien morphologische Übergänge zu den Kronblättern. Die fünf bis 35 Fruchtblätter sind zu einem oberständigen oder teilweise unterständigen Fruchtknoten teilweise oder ganz verwachsen. Die Griffel enden in der Zahl der Fruchtblätter entsprechenden, breiten und konkaven Narben. Die Bestäubung erfolgt durch Insekten (Entomophilie). Es gibt nacht- und tagblühende Arten. Die fleischigen, schwammigen, beerenartigen Früchte sind von den haltbaren Narben gekrönt. Nach der Befruchtung werden die heranreifenden Früchte meist unter Wasser gezogen und reifen unter Wasser. Die reifen Samen sind bis zu 5 mm groß. Sie bilden Schwimmsäcke, mit denen die Samen zunächst an die Wasseroberfläche treiben, wo Wind und Strömung sie zwei bis drei Tage ausbreiten. Danach löst sich der Schwimmsack auf, die Samen sinken nach unten und beginnen mit der Keimung. Zeitrafferfilm einer sich öffnenden Seerosen-Blüte Systematik und Verbreitung. Die Gattung "Nymphaea" wurde 1753 durch Carl von Linné in "Species Plantarum", 1, S. 510–511 aufgestellt. Typusart ist "Nymphaea alba" Synonyme für "Nymphaea" sind: "Castalia", "Leuconymphaea". Zu der weltweit verbreiteten Gattung "Nymphaea" gehören über 50 Arten, sie wird in zwei Gruppen mit insgesamt fünf Untergattungen eingeteilt. Nutzung. Von einigen Arten wurde eine große Anzahl an Sorten gezüchtet. Sie werden als Zierpflanzen verwendet. Sakkara. Übersicht über die Nekropole von Sakkara Sakkara ("Saqqāra", ägypt.-arab. "Saʾʾāra") ist eine bedeutende altägyptische Nekropole am westlichen Nilufer. Der Ort liegt ca. 20 km südlich von Kairo im Gouvernement al-Dschiza. Geschichte. Bereits zur Zeit des Alten Reiches, von der 1. Dynastie bis in die Spätzeit, ist Sakkara als Begräbnisstätte belegt. Vermutlich wurde die Stadt nach dem Totengott Sokar benannt. Die ältesten bisher gefundenen Grabanlagen finden sich in Sakkara-Nord, dicht am Wüstenrand, wo sie erhöht über dem Fruchtland stehen. Es handelt sich um eine Reihe von Mastabas, die an der Außenseite mit einer Palastfassade dekoriert sind. Der erste dieser Bauten datiert unter Hor Aha. Schon am Ende der 2. Dynastie war das riesige Wüstenplateau mit Mastabas verbaut. In der 2. Dynastie wurden die ersten Könige in Sakkara bestattet, weiter südlich. Von deren Grabanlagen sind jedoch nur die unterirdischen Grabkammern erhalten. Mit der Stufenpyramide des Pharao Djoser aus der 3. Dynastie des Alten Reiches um 2650 v. Chr. setzten die Pyramidenbauten ein. Luftbild der Pyramidenbezirke von Unas, Djoser und Userkaf Auch Könige der 5. und 6. Dynastie errichteten hier ihre Pyramiden. Neben diesen Pyramiden sind im Alten Reich hier auch viele hohe Würdenträger bestattet worden, da Sakkara die Nekropole der Residenzstadt Memphis war. Die Grabanlagen der folgenden 1. Zwischenzeit sind eher klein, belegen aber eine ununterbrochene Tradition vom Alten Reich. Im Mittleren Reich konzentrierten sich kleine Mastabagräber um die Pyramide von Teti II. und ganz im Süden von Sakkara, wo in der 13. Dynastie auch einige Pyramiden (Chendjer) errichtet worden sind. Im Neuen Reich erlebte Sakkara als bedeutende Nekropole wieder einen besonderen Aufschwung. Vor allem zur Zeit von Amenophis III., als Memphis wieder stark an Bedeutung gewann, sind hier sehr viele hohe Beamte beigesetzt worden. Die Grabanlagen dieser Zeit ähneln meist kleinen Tempeln mit Pylonen und Höfen, darunter auch das erste Grab Haremhabs. Diese Gräber sind oftmals nicht gut erhalten. Nur wenige Gräber lassen sich in die 3. Zwischenzeit datieren, doch gibt es bedeutende Grabbauten aus der Spätzeit. Viele Beamte sind am Boden von gigantischen Grabschächten beigesetzt worden. Die Nekropole behielt ihre Bedeutung bis in ptolemäische Zeit, als einige große Tempelanlagen errichtet worden sind. Aus dieser Zeit stammen auch umfangreiche Galeriegräber mit Tierbestattungen. Grabformen. Nahezu alle ägyptischen Grabformen sind in Sakkara anzutreffen: Neben der Stufenpyramide auch klassische Pyramiden der 5. und 6. Dynastie, Schachtgräber, Galeriegräber bis hin zu Mastabas aus allen altägyptischen Epochen. Des Weiteren gibt es Tierfriedhöfe (Ibisse, Hunde, Katzen, Stiere), zu denen das Serapeum mit den Sarkophagen der Apis-Stiere zu den herausragendsten zählt. Außerdem befinden sich dort mindestens zwei große, rechteckige Einfriedungen, von denen Gisr el-Mudir ("Great Enclosure") als ältestes Steinbauwerk Ägyptens gilt. Neuere Funde. Im März 2005 fanden Archäologen unter Zahi Hawass, dem ehemaligen Leiter der ägyptischen Altertümerverwaltung "Supreme Council of Antiquities" (SCA), bei der Pyramide von König Teti in Sakkara eine Mumie, deren Alter auf 2300 Jahre geschätzt wird. Ihr reich verzierter Sarkophag gilt als einer der schönsten, die je in Ägypten gefunden wurden. Anfang 2009 entdeckte eine Gruppe unter Zahi Hawass eine Grabkammer der 6. Dynastie (ca. 2318–2168 v. Chr.) mit 30 Mumien vermutlich aus der 26. Dynastie (664-525 v. Chr.). Ende 2009 wurden zwei weitere 2500 Jahre alte Gräber aus der 26. Dynastie gefunden. Eines davon ist das bislang größte in der Nekropole gefundene Grab. San Marino. San Marino (, Beiname "La Serenissima") ist die älteste bestehende Republik der Welt mit einer Geschichte, die angeblich bis auf das Jahr 301 zurückgeht. Sie ist als Enklave vollständig von Italien umgeben und liegt zwischen den Regionen Emilia-Romagna (Provinz Rimini) und Marken (Provinz Pesaro und Urbino), nahe der adriatischen Küste bei Rimini. Den Felskamm Monte Titano krönt die Festung La Guaita. San Marino besteht aus neun Gemeinden. Geografie. Das Land wird fälschlicherweise oft als Stadtstaat angesehen, entspricht jedoch nicht den Merkmalen eines solchen Staates. Die Republik San Marino befindet sich auf der Ostabdachung der etruskischen Apenninen. Die Nord-Süd-Ausdehnung von zwölf Kilometern wird fast komplett vom Rücken des steil nach Osten abfallenden kalkartigen Monte Titano durchzogen. Mit einer Höhe von 756 Metern ist er gleichzeitig der höchste Punkt der Republik. Der tiefste Punkt ist der Torrente Ausa mit 55 Metern. San Marino liegt bei 43°56’ Nord und 12°26’ Ost. Das Staatsgebiet hat annähernd die Form eines unregelmäßigen Vierecks und ist überwiegend hügelig. Es ist 60,57 Quadratkilometer groß. Die Grenze zu Italien ist 39 Kilometer lang. Zwei größere Flüsse entspringen im Staatsgebiet: die Ausa und der Fiumicello. Des Weiteren durchfließen die Flüsse San Marino und Marano das Land, welches an die beiden italienischen Regionen Emilia-Romagna im Nordosten und Marken im Südwesten grenzt. Am südwestlichen Hang des Titano befindet sich die Hauptstadt San Marino. Klima. Blick von San Marino auf die Apenninen In San Marino herrscht mediterranes Klima, das durch die Höhenlage etwas kühler ausgeprägt ist als an der nahe gelegenen Küste. Im Sommer liegen die Temperaturen zwischen 20 °C und 32 °C, im Winter zwischen −2 °C und 10 °C. In warmen Sommern klettert das Thermometer auch mal auf 35 °C. Im Winter sinkt die Temperatur gelegentlich unter −5 °C. Dann kann es auf dem Monte Titano schneien. Der Regen fällt gleichmäßig über das Jahr verteilt, insgesamt etwa 550 Millimeter pro Jahr. Flora und Fauna. Die steilen Abhänge des Monte Titano sowie die hügelige Landschaft um das Bergmassiv sind relativ dicht bewaldet und tragen die typische Mittelmeervegetation. Sie umfasst sommergrünen Laubwald mit Ahorn und Ulmen sowie immergrüne Gehölze mit Steineichen und Kiefern; im immergrünen Buschwald, der Macchie, wachsen Lorbeer-, Myrten-, Lavendelsträucher sowie Erdbeer- und Olivenbäume. Zur Tierwelt des Landes gehören in erster Linie Arten, die als Kulturfolger des Menschen gelten und als solche auch in der näheren Umgebung von menschlichen Siedlungen anzutreffen sind. Dazu zählen Füchse, Hasen, Igel und Marder. Andere Arten wie zum Beispiel Reh und Wiesel bevorzugen als Lebensraum die deckungsreicheren Waldgebiete. Die Vogelfauna ist artenreich ausgeprägt. Falken brüten in Felsnischen oder auf hohen Bäumen, an Singvögeln sind unter anderem Nachtigall, Pirol, Stieglitz, Girlitz und Hänfling vertreten. Bevölkerung. Die Einwohner San Marinos sind italienischen Ursprungs. Heute leben in San Marino 83,1 % San-Marinesen und 12 % Italiener. San Marino hat Einwohner (Stand). Davon leben in der Hauptstadt San Marino. Die größte Siedlung ist Serravalle mit Einwohnern. In Borgo Maggiore leben, in Domagnano, in Fiorentino, in Acquaviva, in Faetano, in Chiesanuova und in Montegiardino Personen. In San Marino leben 16.253 Frauen (50,9 %). Weiters leben 12.800 Staatsbürger im Ausland, vor allem in Italien, den USA, Frankreich und Argentinien. Die Bevölkerungsdichte beträgt 528 Einwohner je Quadratkilometer. Die Geburtenrate lag für den Zeitraum 2000 bis 2004 bei 10,6 pro 1000 Einwohner, die Sterberate bei 6,8 pro 1000 Einwohner, sodass die Bevölkerung San Marinos auch heute noch wächst. Die Lebenserwartung bei der Geburt betrug 2004 78,6 Jahre für Männer und 85,0 Jahre für Frauen. Die durchschnittliche Lebenserwartung beträgt 81,5 Jahre. Laut der Weltgesundheitsorganisation WHO ist San Marino der Staat mit der höchsten Lebenserwartung für Männer. Die Landessprache ist Italienisch. Aufgrund der starken touristischen Ausrichtung des Staates spricht fast jeder Einwohner eine Fremdsprache fließend, zumeist Englisch, Deutsch oder Französisch. Vornehmlich unter älteren Generationen ist der Dialekt "Romagnol" verbreitet, der teilweise von dem der angrenzenden Marken beeinflusst ist. Religion. Das römisch-katholische Christentum ist Staatsreligion in San Marino. Das Staatsgebiet ist Territorium des katholischen Bistums San Marino-Montefeltro, das ein Suffraganbistum des Erzbistums Ravenna-Cervia bildet. 92,3 % Prozent der Bevölkerung sind Katholiken, 4,7 % gehören anderen Religionsgemeinschaften und 3,0 % keiner Religion an. Geschichte. Die Geschichte San Marinos geht bis auf das 4. Jahrhundert zurück; aus den Anfängen sind hauptsächlich Mythen und Sagen übermittelt, die aber bis heute in San Marino als authentisch gelten. Anfänge. Marinus bei seiner Arbeit als Steinhauer Um das Jahr 300 soll Marinus, ein dalmatischer Steinhauer von der Insel Rab, als Bauarbeiter in das damals aufstrebende Rimini gekommen sein. Noch bevor im Jahr 303 unter Kaiser Diokletian die letzte Christenverfolgung im Römischen Reich begann, flüchtete Marinus als Christ auf den nahe gelegenen Berg Titano. Nach und nach gesellten sich weitere Verfolgte zu ihm, und so bildete sich eine erste christliche Gemeinschaft auf dem Berg. Als offizielles Gründungsdatum wird heute der 3. September 301 angegeben. Als sich die Lage 311 mit dem Toleranzedikt von Nikomedia beruhigte, wurde Marinus vom Bischof von Rimini, Gaudenzio, zum Diakon ernannt und bekam von einer zum Christentum konvertierten römischen Patrizierin namens Donna Felicissima den Titano geschenkt. Nach dem Tod ihres Namenspatrons im Herbst 366 begründete sich San Marino als Republik auf dessen legendäre letzte Worte: „Relinquo vos liberos ab utroque homine“ („Ich lasse euch frei von beiden Menschen zurück“). Einer der drei Türme des Monte Titano Monte Titano von der anderen Seite Der erste echte Beweis für das Vorhandensein einer Gemeinschaft auf dem Berg Titano stammt von Eugippius, der in seiner um das Jahr 511 vollendeten "Vita Sancti Severini" auch von einem Mönch auf eben jenem Berg berichtete und das Gebiet schon damals als "San Marino" bezeichnete. Spätere Dokumente wie das "Feretranische Urteil" aus dem Jahr 885 zeugen von einem organisierten und stolzen öffentlichen Leben. Laut Urteil konnten Nachbarbischöfe keine Ansprüche auf san-marinesisches Land durchsetzen. In den ersten Jahrhunderten war der beste Schutz gegen Feinde die Unbekanntheit der kleinen Gemeinschaft. Trotzdem wurde im 10. Jahrhundert mit dem Bau von Befestigungsanlagen begonnen. Bestätigungen dafür finden sich in einer Urkunde König Berengars II. aus dem Jahr 951 und in einer Bulle Papst Honorius’ II. von 1126. 1371 schrieb Kardinal Anglico, dass die Stadt „auf einem sehr hohen Felsblock liegt, auf dessen Gipfel drei riesige Burgen emporragen“. Im Laufe der Zeit wurden diese drei Burgen weiter ausgebaut und die Wasserversorgung "autarkisiert," indem riesige Zisternen zum Speichern von Regenwasser in den Stein geschlagen wurden. Unterhalb des Regierungspalastes findet man noch heute Zisternen, die zwischen 1472 und 1478 entstanden sind. Aufstieg der Republik. Um das Jahr 1200 war aufgrund der stetig wachsenden Bevölkerung eine Gebietsvergrößerung nötig. Zwei nahe dem Berg gelegene Schlösser mitsamt Ländereien wurden daher gekauft. San Marino war zu jener Zeit bereits eine Stadtrepublik mit eigenen Gesetzbüchern. Das älteste handgeschriebene Gesetzbuch stammt aus dem Jahr 1295. In den folgenden 300 Jahren wurden die juristischen Regelwerke immer weiter präzisiert; das sechste und letzte Gesetzbuch, das am 21. September 1600 veröffentlicht wurde, zeugt mit seinen sechs Büchern und 314 Rubriken von detaillierter legislativer Tätigkeit. Die Gesetze wurden durch einen Rat der Familienoberhäupter, den "Arengo", in Auftragnahme des Volkes erlassen. So stand auf Mord und Verrat die Todesstrafe. Selbst das im übrigen Europa während des ausgehenden Mittelalters noch übliche Entsorgen von Schmutzwasser und Müll auf öffentlichen Wegen stand unter Strafe. Zum Schutz der Republik gab es schon zu jener Zeit ein gut ausgebildetes Heer – jeder Mann zwischen 14 und 60 Jahren konnte zum Kriegsdienst herangezogen werden. 1243 wurden erstmals – in Anlehnung an das altrömische Konsularprinzip – zwei „Capitani Reggenti“ für jeweils sechs Monate als gemeinsames Staatsoberhaupt gewählt. Dies ist so bis heute beibehalten worden. Kampf um Unabhängigkeit. Die in San Marino eigentlich friedlich zusammenlebenden Ghibellinen und Guelfen wurden durch die in Italien Mitte des 13. Jahrhunderts herrschende Zwietracht zwischen Kirche und Kaiser erstmals gegeneinander aufgehetzt, was dazu führte, dass die kaisertreuen Ghibellinen die Guelfen verbannten. Dass der größere Teil der Bevölkerung Ghibellinen war, lag wohl auch daran, dass sich San Marino in den vorangegangenen Jahrhunderten immer wieder gegen die Nachbarbischöfe verteidigen musste, die Steuern einzufordern oder das Gebiet zu erobern versuchten. Der Konflikt gipfelte in der Exkommunikation der San-Marinesen im Jahr 1247 durch Papst Innozenz IV. Zwei Jahre später wurden sie in Perugia davon wieder losgesprochen, aber der Frieden zwischen den Bürgern San Marinos kehrte nicht wieder ein, und in den nächsten 100 Jahren sollten drei weitere Exkommunikationen folgen. Die zweite Hälfte des 13. Jahrhunderts war für San Marino eine schwere Zeit. Die unter Gewaltherrschaft der Familie Malatesta stehende guelfische Republik Rimini versuchte San Marino einzunehmen, und nur ein Bündnis San Marinos mit dem Ghibellinen Guido von Montefeltro und später seinem Sohn Federico konnte San Marino retten. Die Kämpfe dauerten trotzdem bis 1299 an. In der Folgezeit gab es weitere Anstrengungen, San Marino zu unterwerfen. 1291 wollte der Kanoniker Teodorico die San-Marinesen für den Papst unterwerfen und diesem steuerpflichtig machen. Dies konnte nur mit einem Urteil des damals berühmten Rechtsgelehrten Palamede aus Rimini, der beauftragt war, den Streit zu schlichten, verhindert werden. Fünf Jahre später, 1296, versuchten die Stadtvögte Feretrani, das Gebiet für sich zu vereinnahmen. Hier half wiederum jenes Urteil des Palamedes, das auf Anfrage der San-Marinesen bei Papst Bonifatius VIII. aufs Neue für rechtskräftig erklärt wurde. Der Papst erkannte schließlich die volle Souveränität und Freiheit San Marinos an. In der Folgezeit unternahmen die angrenzenden Regionen es immer wieder, San Marino zu erobern – jedes Mal ohne Erfolg. Als im Jahr 1303 einige Botschafter der feretranischen Kirche gefangen genommen wurden, nachdem sie auf san-marinesisches Territorium eingedrungen waren, flammte der Konflikt wieder auf. Die Kämpfe dauerten bis 1320, als San Marino dank seines exzellent ausgebildeten Heeres den Bischof Uberto zum Frieden zwingen konnte. Die Feinde San Marinos erkannten schließlich, dass das Territorium militärisch nicht einzunehmen war, und versuchten es mit Diplomatie. Der Republik wurden kirchliche Vergebung und Steuerfreiheit für Eigentum außerhalb ihres Territoriums und weitere Rechte wie das Handelsrecht angeboten. Als Gegenleistung wurde verlangt, einige in San Marino untergekommene Flüchtlinge aus Urbino auszuliefern. Dies wurde abgelehnt, und so gab es weitere Feindseligkeiten vor allem mit der Familie Malatesta bis zum Ende des 14. Jahrhunderts. Als aber eben jene Familie unter Sigismondo Pandolfo Malatesta 100 Jahre später sowohl beim Papst als auch beim König in Ungnade fiel, nutzten die San-Marinesen die Gunst der Stunde, unterzeichneten am 21. September 1461 ein Bündnis mit der Kirche und nahmen den Krieg wieder auf. 1463 endete der Krieg zugunsten der San-Marinesen und Papst Pius II. sprach der Republik die drei Schlösser Fiorentino, Montegiardino und Serravalle zu. Im gleichen Jahr schloss sich auch das Schloss Faetano freiwillig der kleinen Republik an. Dies war der letzte Krieg und die letzte territoriale Erweiterung San Marinos. Zwar fiel 1503 Cesare Borgia, der Sohn von Papst Alexander VI., in die Republik ein und errichtete eine Gewaltherrschaft. Sie dauerte jedoch nicht lange, da Borgias Heer während eines gleichzeitigen Aufstandes im Herzogtum Urbino – an dem sich auch San-Marinesen beteiligten – vernichtend geschlagen wurde. Abstieg und neuer Stolz. Am 8. Oktober 1600 trat eine neu ausgearbeitete Verfassung in Kraft, deren Grundzüge sich noch in der heutigen Verfassung wiederfinden. Auch zu jener Zeit mussten sich die San-Marinesen immer wieder gegen Eroberer zur Wehr setzen. Im Jahre 1602 wurde ein Schutzvertrag mit der Kirche unterzeichnet, der schließlich 1631 in Kraft trat. Trotz dieses Erfolges ging es San Marino in dieser Zeit nicht gut. Berühmte Persönlichkeiten wanderten aus, adlige Familien starben aus, und das kulturelle Niveau sank in den folgenden Jahrzehnten. Erst eine erneute Eroberung des Landes ließ den Nationalstolz der San-Marinesen wieder aufleben. Am 17. Oktober 1739 fiel Kardinal Giulio Alberoni, der damalige päpstliche Legat von Romagna, in die Republik ein. Die San-Marinesen wandten sich auch diesmal an den Papst, der den Kardinal Enrico Enriquez nach San Marino schickte, um über die dortige Lage zu berichten. Aufgrund seiner Aussagen befahl der Papst Kardinal Alberoni den Rückzug aus San Marino, und so war die Republik schon ein halbes Jahr später am 5. Februar 1740 wieder frei. Als Napoleon ab 1796 nach und nach die Vorherrschaft über die gesamte italienische Halbinsel erlangte und sich verschiedene Republiken gründeten, schlossen die San-Marinesen sogleich Handelsabkommen mit diesen, um ihre Verbundenheit mit Napoleon zum Ausdruck zu bringen. Es wird berichtet, dass Napoleon während der italienischen Kampagne seinen Truppen befahl, an den Grenzen zur Republik San Marino halt zu machen und sie nicht zu überschreiten – der Korse war nach eigenem Bekunden ein Bewunderer des Kleinstaates, der niemals jemand anderem untertan gewesen war. In Siegerlaune bot er den San-Marinesen an, sie für ihre historische Unbeugsamkeit mit zwei Kanonen, mehreren Fuhren Getreide und einer territorialen Erweiterung bis zum Meer zu belohnen. Die selbstbewusst-zurückhaltenden San-Marinesen ließen die historische Chance, ihr Land zu vergrößern, unbeachtet; wohl wissend, dass sie mit ihren Nachbarn nie wieder in Frieden leben würden. Auch die Kanonen schickten sie wieder zurück. Nur die Getreideladung fand als friedfertiges Geschenk Napoleons ihre Gnade. Nach der Niederlage des napoleonischen Frankreich wurde auf dem Wiener Kongress 1815 festgelegt, dass in Italien die vornapoleonische Ordnung wieder hergestellt werden solle – damit erlangten nicht nur die spanischen Bourbonen den Süden der Halbinsel und die Habsburger den Norden zurück, sondern auch San Marino blieb frei. Italienische Einigung. Während es in der Phase des Risorgimento in allen italienischen Landesteilen zu Freiheitsbewegungen kam, bot die freie Republik San Marino Flüchtlingen Asyl an. Nach der Niederwerfung der Revolutionen von 1848/49 flüchtete Giuseppe Garibaldi nach San Marino und erhielt 1861 auch die san-marinesische Staatsbürgerschaft. Nach Volksabstimmungen in Sizilien und in Norditalien, in denen sich beide Teilgebiete mit überwältigender Mehrheit für einen Anschluss ans Königreich Sardinien-Piemont aussprachen und nachdem der Kirchenstaat von piemontesischen Truppen schon bis auf die heutige Region Latium eingenommen worden war, wurde am 17. März 1861 schließlich das neue Königreich Italien ausgerufen. San Marino als von jeher freie Republik wollte nie an der Einigung Italiens teilnehmen und blieb daher souverän. Der spätere Ehrenbürger Abraham Lincoln schrieb dazu an die Capitani Reggenti: „Obgleich Ihr Staatsgebiet klein ist: Ihr Staat ist einer der meistgeehrten der Geschichte“. Schon am 22. März 1862 schloss die Republik weitreichende Verträge mit dem Königreich ab, die San Marino und das Königreich Italien als gleichberechtigte Partner festschrieben. Diese Konvention wurde am 27. März 1872 erneuert. 1865 schaffte San Marino als erster europäischer Staat die Todesstrafe ab. Die letzte bekannte Anwendung der Todesstrafe in San Marino fand im Jahr 1468 statt. Faschismus und Weltkriege. Im Ersten Weltkrieg blieb San Marino zunächst neutral, unterzeichnete jedoch einen am 24. Mai 1915 von Italien vorgeschlagenen Vertrag, nach dem es sich verpflichtete, keine Haltungen zu unterstützen, die Italien im Krieg schaden könnten. So durfte San Marino keine italienischen Deserteure aufnehmen. Im Gegenzug wurde zugesagt, dass italienische Behörden keine materiellen Güter von San-Marinesen für Kriegszwecke beschlagnahmten; italienische Staatsbürger genossen diesen Schutz nicht. Mitte 1915 zog auf Anregung des damaligen Studenten Giuliano Gozi eine Gruppe Jugendlicher (die Angaben schwanken zwischen 10 und 15) in den Krieg. Des Weiteren wurde das "Comitato pro fratelli combattenti" (Komitee für die kämpfenden Brüder) eingerichtet, eine Organisation zur Leistung humanitärer Hilfe für Kriegsflüchtlinge. Als dieses ein Feldlazarett aufbaute, erklärte Österreich-Ungarn San Marino den Krieg. Im Ersten Weltkrieg fielen zwei San-Marinesen (Carlo Simoncini und Sady Serafini). Auf die Kriegserklärung von 1915 geht auch ein europäisches Kuriosum zurück: San Marino befand sich somit ab 1915 offiziell im Kriegszustand mit Deutschland, schloss aber nie Frieden, sodass sich San Marino 1939 mit Ausbruch des Zweiten Weltkrieges offiziell noch immer im Krieg mit Deutschland befand. Bis 1906 wurden die 60 Mitglieder des Parlaments auf Lebenszeit ernannt und in Eigenregie nachbesetzt. Ab diesem Jahr wurden politische Wahlen eingeführt, die die Demokratie eigentlich stärken sollten. Mit dem Wahlrecht verbanden sich aber schon 1923 negative Folgen für die Demokratie. Nachdem bereits am 1. April 1923 die beiden ersten faschistischen Capitani Reggenti ihr Amt angetreten hatten, erreichte die faschistische Partei ("Partito Fascista Sammarinese") bei den Wahlen am 4. April 1923 die absolute Mehrheit. Die Republik stellte später trotz der Nähe zum italienischen Diktator Benito Mussolini keine Soldaten für das italienische Heer, und da sich die faschistische Regierung San Marinos trotz allem der Neutralität verpflichtet sah, blieb die Republik im Zweiten Weltkrieg offiziell neutral. 1941/42 schafften es oppositionelle Kräfte erstmals wieder, ins Parlament einzuziehen, was dem antifaschistischen Widerstand Auftrieb verlieh. Am 28. Juli 1943 löste sich die san-marinesische faschistische Partei schließlich auf – drei Tage nach Mussolinis Sturz. San Marino nahm in der Folgezeit bis zu 100.000 Flüchtlinge auf. Trotz der Neutralität und der Markierung des Staatsgebietes durch riesige weiße Kreuze warfen britische Bomber am 26. Juni 1944 mehrere hundert Bomben über San Marino ab, wodurch 60 Menschen starben und Hunderte verletzt wurden. Später gab die britische Regierung zu, dass dieser Angriff vollkommen ungerechtfertigt war. Im September 1944 kam es nochmals zu Gefechten um San Marino, als deutsche und alliierte Truppen um das Gebiet kämpften. Am 19. September schließlich konnte die britische 8. Armee das Gebiet einnehmen. Die Alliierten blieben bis November 1944 in San Marino, unter anderem, um bei der Rückführung der vielen Flüchtlinge zu helfen. Nachkriegszeit. Da durch den Sturz der faschistischen Regierung sowohl Verfassung als auch Gesetzgebung unangetastet blieben, gab es nach dem Ende des Zweiten Weltkriegs nur wenige grundlegende politische Veränderungen in der Republik: So wurde 1960 das aktive und 1973 das passive Wahlrecht für Frauen eingeführt. Eine oft vergessene Tatsache ist, dass die Republik von 1947 bis 1957 ("Auseinandersetzungen von Rovereta") und nochmals von 1978 bis 1986 von einer linken Volksfront unter Einschluss der Kommunisten regiert wurde. Dies hatte wiederum zur Folge, dass die extrem antikommunistisch eingestellte spanische Franco-Regierung in den 1950er Jahren allen Touristen und Geschäftsreisenden, die einen San-Marino-Stempel im Reisepass hatten, die Einreise nach Spanien verweigerte. Ende der 1980er Jahre benannte sich die KP San Marinos um in "Progressiv-demokratische Partei". Seit Ende der 1950er Jahre nimmt der Tourismus eine immer größere Rolle in San Marino ein. Im Jahr 2005 besuchten über 2 Millionen Touristen den Staat mit seinen gut 30.000 Einwohnern. Die Steuereinnahmen stiegen, so dass seit 1975 die gesamte medizinische Versorgung kostenlos angeboten werden kann. Heute fließen 60 Prozent der Einnahmen der Republik direkt oder indirekt durch den Tourismus ins Land. Die meisten Touristen kommen für Tagesausflüge von den Touristenzentren der nahen Adria, beispielsweise von Rimini und Pesaro. Die Republik – seit 1992 auch Mitglied der Vereinten Nationen – ist schuldenfrei. Politik. Thron der "Capitani Reggenti" in der Basilika von San Marino Das politische System von San Marino ist das einer parlamentarischen repräsentativen Demokratie. Es wurde in der Verfassung von San Marino, der ältesten republikanischen Verfassung der Welt (noch vor der Verfassung der Vereinigten Staaten), festgeschrieben. San Marino hat immer zwei Staatsoberhäupter, dies sind die für jeweils sechs Monate kollegial amtierenden "Capitani Reggenti" („regierende Hauptleute“, manchmal auch „regierende Kapitäne“ genannt). Sie werden vom Parlament gewählt und ihre Amtseinführung ist am 1. April und 1. Oktober eines jeden Jahres. Diese Regelung geht auf ein Gesetz aus dem Jahr 1200 zurück, welches zu dem Zweck eingeführt wurde, dass die Personen an der Spitze des Staates nicht zu lange mit zu viel Macht ausgestattet sind und damit zudem eine gegenseitige Kontrolle ermöglicht wird. Die Teilung der Macht funktioniert damit ähnlich wie bei den Konsuln der römischen Republik vor über 2000 Jahren oder dem Bundesrat, der schweizerischen Regierung mit ihrem Kollegialitätsprinzip. Vom 1. April 2015 bis 1. Oktober 2015 amtierten Andrea Belluzzi und Roberto Venturini. Der Außenminister von San Marino ist gleichzeitig Regierungschef. Derzeit ist dies Pasquale Valentini, Staatssekretär für Auswärtige und Politische Angelegenheiten und für Wirtschaftsplanung. Die alte Institution des "Arengo", ursprünglich die Versammlung sämtlicher Familienoberhäupter, übertrug ihre Machtbefugnisse später dem "Consiglio Grande e Generale" („Großer und Allgemeiner Rat“). Heute wird die Gesamtheit der Wahlberechtigten als Arengo bezeichnet und wird zweimal pro Jahr am Sonntag nach der Amtseinführung der "Capitani Reggenti" einberufen. Die Bürger von San Marino haben dabei die Gelegenheit, dem Consiglio Grande Vorschläge und Gesuche von allgemeinem Interesse zu unterbreiten. Die gesetzgebende Gewalt wird vom Consiglio Grande e Generale ausgeübt, dessen 60 Mitglieder von der wahlberechtigten Bevölkerung (ab 18 Jahren) auf fünf Jahre gewählt werden. Er genehmigt außerdem den Staatshaushalt und ernennt die Capitani Reggenti. Nach der Wahl im Juni 2001 regierte eine Koalition aus Christdemokraten (PDCS) und Sozialisten (PSS) das Land. 2005 fusionierten die Sozialisten und die ex-kommunistischen "Demokraten" (PD) zur "Partei der Sozialisten und Demokraten" (PSD). Die Neukommunisten (RCS) und die der Friedensbewegung zuzurechnende Linkspartei "Zona Franca" vereinbarten ein Wahlbündnis; bei der Parlamentswahl am 4. Juni 2006 traten sie als "Vereinigte Linke" (Sinistra Unita) an. Seit August 2006 regierte eine Mitte-links-Koalition aus PSD, "Volksallianz" (AP) und Vereinigter Linke. Im November 2007 traten die von der PDCS abgespalteten "Zentrumsdemokraten" (DdC) der Koalition bei. Diese verlor durch den Austritt der AP die parlamentarische Mehrheit, so dass in der Folge vorgezogene Neuwahlen am 9. November 2008 stattfanden. Für diese galt ein neugestaltetes Wahlrecht mit einer auf bis zu 3,5 % erhöhten Sperrklausel und einer Zuteilung von mindestens 35 von 60 Sitzen an die stimmstärkste Partei oder Parteienkoalition. Durch diese Änderungen bedingt traten die Parteien in zwei Koalitionen zur Wahl an, dem rechtsgerichteten "Pakt für San Marino" (Patto per San Marino) und der linksgerichteten Allianz "Reformen und Freiheit" (Riforme e Libertà). Seit dieser Wahl stellen Vertreter des "Patto per San Marino" die Regierung, da die Ministerposten an die Parteien-Koalition vergeben werden müssen, die die Wahl gewonnen hat. Die Zusammenfassung von Kultur und Justiz mag ungewöhnlich wirken; die Justiz in San Marino ist aber praktisch vernachlässigbar. Selten ist überhaupt mehr als eine Person inhaftiert. Die judikative Gewalt geht vom "Consiglio dei XII" (Rat der 12) aus. Er wird vom Consiglio Grande e Generale für die Dauer einer Legislaturperiode gewählt und ist ein verwaltungsrechtliches Organ sowie die höchste gerichtliche Instanz der Republik. Zwei Beauftragte der Regierung ("Sindaci di Governo") vertreten den Staat vor Gericht sowie in Streitigkeiten über Finanz- und Vermögensangelegenheiten. Die verschiedenen Ebenen der Strafjustiz werden durch den „Justizkommissar“ und den „Berufungsrichter“ geleitet; Die Ziviljustiz wird vom Justizkommissar, dem Berufungsrichter und in dritter Instanz durch den „Rat der 12“ geführt. Der „Richter ersten Grades“ hat die Gerichtsbarkeit über administrative Fragen, gefolgt von dem Berufungsrichter und dem „Rat der 12“. Das Staatsgebiet von San Marino ist in neun "Castelli" (Gemeinden) unterteilt, die den alten Kirchspielen entsprechen. Jedes Castello hat einen von den Einwohnern gewählten Gemeinderat ("Giunta") unter dem Vorsitz eines auf fünf Jahre gewählten "Capitano". Die Gewerkschaften sind im Dachverband "Centrale Sindacale Unitaria" organisiert. Die Republik San Marino unterhält derzeit diplomatische und konsularische Beziehungen zu über neunzig Staaten. Die diplomatischen Vertretungen der Republik im Ausland haben meist den Rang von Konsulaten oder Generalkonsulaten (z. B. das Honorarkonsulat in München). San Marino ist Mitglied zahlreicher internationaler Organisationen, darunter der UNO, der UNESCO, des Europarats, des Internationalen Währungsfonds (IWF), des Internationalen Gerichtshofes, der Weltgesundheitsorganisation (WHO), der Welttourismusorganisation und selbst der Internationalen Walfangkommission. Die Republik unterhält auch offizielle Beziehungen zur Europäischen Union – wenngleich sie kein Mitgliedstaat der EU ist – und nimmt an der Konferenz über Sicherheit und Zusammenarbeit in Europa teil. San Marino ist seit dem 1. Juli 2009 Mitgliedstaat im Europäischen Patentübereinkommen, so dass europäische Patente auch in San Marino Geltung erlangen können. Die Beziehungen zwischen San Marino und Deutschland sind frei von Problemen. Der deutsche Botschafter in Italien ist auch in San Marino akkreditiert. Die konsularischen Beziehungen werden vom deutschen Generalkonsulat in Mailand wahrgenommen. Der san-marinesische Botschafter für Deutschland ist Gian Nicola Balestra, der allerdings seinen Amtssitz in Brüssel hat. Eine besondere politische Bedeutung für Deutschland erlangt San Marino durch die wohlwollende Unterstützung, die es deutschen Kandidaten im Zusammenhang mit Wahlen zu den verschiedensten Gremien im Bereich der Vereinten Nationen gewährt. Verwaltungsgliederung. San Marino ist in neun "Castelli" geteilt, die gleichzeitig auch eigenständige Gemeinden sind. "San Marino" ist die Hauptstadt der kleinen Republik. Weltberühmte Denkmäler, wie der Regierungspalast (Palazzo Publico) und die drei Burgen, vielfältige Museen und ein einzigartiges Panorama, machen aus dieser Stadt ein Touristenzentrum mit zwei Millionen Besuchern im Jahr. In den über 1000 Geschäften der kleinen Stadt kann man fast alles kaufen. Am lebten hier Menschen. Der Name des "Castello Acquaviva" stammt von einer wichtigen Quelle, die sich am Fuße des Montecerreto befindet, einem Berg, der mit Pinienwald bedeckt ist. Der Sage nach befindet sich hier die Grotte, die dem heiligen Marino als erster Zufluchtsort diente. In diesem Bezirk befindet sich eine der weltweit besten Motocross-Bahnen und talabwärts am Ufer des Baches San Marino befindet sich das wichtige Industriezentrum "Gualdicciolo". Am lebten Menschen in Acquaviva. Das Dorf "Borgo Maggiore", nördlich zu Füßen des Monte Titano liegend, hieß früher "Mercatale" (Marktort) und ist auch heute noch einer der wichtigsten Märkte San Marinos. Mit einer Seilbahn kommt man von hier aus direkt auf den Monte Titano in die Stadt San Marino. Am lebten Menschen hier. Borgo Maggiore ist somit der zweitgrößte Ort San Marinos. Das "Castello Chiesanuova" ("Neukirche") im Südwesten der Republik trat samt Gebiet 1320 freiwillig San Marino bei. Bis in das 16. Jahrhundert hieß das Gebiet "Busignano". Die Wirtschaft dieser kleinen Gemeinde mit Einwohnern () ist stark landwirtschaftlich geprägt. Chiesa Nuova trägt als Castello auch den Namen "Penna Rossa" (rote Feder) und führt eine rote Feder im Wappen. "Domagnano" ist ein kleines Dorf, das schon zu Zeiten der Römer besiedelt war. Von hier aus kann man den Monte Titano und das Meer fotografieren. Menschen lebten am in Domagnano. Es trägt als "Castello" auch den Namen "Montelupo" (Wolfsberg) und führt im Wappen einen weißen Wolf vor einem grünen Berg. Die Gemeinde "Faetano" trat samt Gebiet 1463 der Republik bei. Mit Einwohnern () zählt Faetano zu den kleineren Castelli, bietet dafür aber viel Grün und einen großen See. Die drei Gemeinden "Fiorentino", mit Einwohnern () im Süden der Republik liegend, "Montegiardino", die kleinste Gemeinde mit Einwohnern, und "Serravalle", mit Einwohnern das größte "Castello", wurden allesamt 1463 erobert. In "Serravalle" liegt die größte Stadt des Landes, "Dogana", das Einfallstor nach Italien. Sektoren. San Marino besitzt keine Bodenschätze. Die Nutzung der Staatsfläche erfolgt vor allem land- und forstwirtschaftlich. Bis in die 1960er Jahre lebten die San-Marinesen vor allem von Landwirtschaft, Viehzucht und dem Abbau von Steinen aus den einheimischen Steinbrüchen. Seitdem gibt es in San Marino einen steten Aufschwung von Handwerk und Handel, aber auch der Industrie – nicht zuletzt bedingt durch den starken Zustrom von Touristen: jedes Jahr besuchen rund 2 Millionen Touristen die kleine Republik (2010: 1.976.481). Angebaut werden in San Marino Getreide, Wein, Oliven und Obst; verbreitet ist außerdem die Rinder- und Schweinezucht. Die wichtigsten Erzeugnisse der Handwerksbetriebe und mittelständischen Industrie sind Keramikprodukte, Fliesen, Möbel, Süßwaren, Liköre, Farben und Lacke, Textilien (Seide) und Bekleidungswaren. Exportiert wird vor allem Wein und Wolle, kunsthandwerkliche Produkte und Briefmarken. Durch den Verkauf san-marinesischer Briefmarken, die zehn Prozent zum Bruttonationaleinkommen beitragen und durch weitere touristische Einnahmen finanziert sich der Staat: Direkt und indirekt kommen 60 Prozent der Devisen durch den Tourismus ins Land, Steuern werden fast nicht erhoben. Importiert werden hauptsächlich Fertigprodukte und Konsumgüter, aber auch Gold für die vielen Goldschmiede und Juweliere. Das jährliche Durchschnittseinkommen pro Kopf lag im Jahr 2008 bei 50.670 US-Dollar. 52 Prozent der Bevölkerung arbeiten im Dienstleistungssektor, 41 Prozent in der Industrie und 7 Prozent im primären Sektor. Finanzpolitik. Die Währung war bis zur Europäischen Währungsunion die "san-marinesische Lira", die ebenso wie die "vatikanische Lira" eine nominell eigenständige Währung, faktisch jedoch mit festem Wechselkurs an die italienische Lira gekoppelt war; es liefen alle drei Währungen in allen drei Staaten gleichberechtigt um. San Marino prägte ab 1972 nach einer 34-jährigen Unterbrechung auch wieder eigene Münzen. Später wurden zusätzlich Goldmünzen geprägt, die aber nur auf san-marinesischem Staatsgebiet gültig waren. Seit dem 1. Januar 2002 gilt in San Marino der Euro. San Marino gibt dabei eigene Euromünzen mit landesspezifischer Rückseite heraus. San Marino galt bis Januar 2010 offiziell als Steueroase. Die OECD stufte das Land im Jahr 2000 als Steueroase nach Definition des OECD-Berichts von 1998 ein. Im Zuge der verschärften internationalen Bekämpfung der Steuerhinterziehung wurde San Marino im Rahmen des G-20-Gipfeltreffens vom 2. April 2009 in London durch die OECD als Steueroase eingestuft, die sich dem internationalen Steuerstandard in Bezug auf Einkommen- und Vermögensteuern verpflichtet hat, diese aber noch nicht umgesetzt hat. Nachdem das Land im Januar 2010 die von der OECD geforderte Mindestanzahl von zwölf bilateralen Steuerabkommen erreicht hatte, wurde es von der OECD als Staat eingestuft, die die internationalen Steuerstandards weitgehend umgesetzt haben. Seit 23. Dezember 2011 ist das deutsch-san-marinesische Abkommen über die Unterstützung in Steuer- und Steuerstrafsachen durch Informationsaustausch (TIEA) in Kraft. Weiterhin kein bilaterales Steuerabkommen besteht unter anderem mit den Vereinigten Staaten und Italien. So dient San Marino weiterhin als bedeutende Drehscheibe für die Hinterziehung von Einkommens-, aber auch Mehrwertsteuern italienischer Personen und Unternehmen. Von Januar bis Mitte August 2010 deckte die italienische Finanzpolizei rund 800 Fälle auf. Bei den davon 330 abschließend geprüften Fällen wurden Einkommen in der Höhe von insgesamt 850 Millionen Euro, die vor dem italienischen Fiskus versteckt wurden, sowie 240 Millionen Euro nicht bezahlte Mehrwertsteuern aufgedeckt. Die italienische Steuerbehörde Agenzia delle Entrate gab im Oktober 2009 die Zahl der italienischen Staatsbürger, die ihren Steuersitz in einem von Italien als Steueroase eingestuften Land haben, mit 29.158 Personen an. Mit 8490 Personen weist San Marino den höchsten Anteil aus. Inzwischen haben Italiener 5,7 Milliarden Euro von san-marinesischen Banken abgezogen, was der Hälfte der Einlagen dieser Banken entspricht. Italien leistet Ausgleichszahlungen dafür, dass die Republik ihre Unabhängigkeit wirtschafts- und finanzpolitisch nicht zu sehr ausnutzt und ihre Souveränität nicht zum Schaden Italiens gebraucht. Die neun im Lande tätigen Banken sind hauptsächlich auf das Binnengeschäft fokussiert. Internationale Transaktionen werden durch italienische Banken abgewickelt. Staatshaushalt. Der Staatshaushalt umfasste 2009 Ausgaben von umgerechnet 652,9 Mio. US-Dollar, dem standen Einnahmen von umgerechnet 690,6 Mio. US-Dollar gegenüber. Daraus ergibt sich ein Haushaltsüberschuss in Höhe von 3,6 % des BIP. San Marino hat keine Staatsverschuldung. Im Jahr 2011 wurde (bedingt durch die Finanzkrise und die Halbierung der Einlagen san-marinesischer Banken) ein Rekorddefizit von 20 Millionen Euro erwirtschaftet. Verkehr. Seilbahn auf den Monte Titano San Marino verfügte bis 1944 über eine eingleisige, schmalspurige (950 mm) und elektrifizierte Bahnstrecke, die von der Hauptstadt nach Rimini führte, wo Anschluss an das italienische Eisenbahnnetz bestand. Auf dem Gebiet der Republik gab es sechs Bahnhöfe: "Dogana, Serravalle, Domagnano, Valdragone, Borgo Maggiore" und "San Marino". Durch Bombardierungen im Zweiten Weltkrieg wurde die Bahnstrecke abschnittsweise zerstört und anschließend stillgelegt. Eine 1,5 km lange Seilbahn verbindet San Marino mit Borgo Maggiore. Jede Gemeinde ("Castello") verfügt über einen Busdienst für den Nahverkehr. Es bestehen auch regelmäßige internationale Busverbindungen zwischen der Hauptstadt San Marino und dem Bahnhof Rimini, die – auf san-marinesischem Gebiet – in San Marino Stadt, Borgo Maggiore, Domagnano, Serravalle und bei Dogana Halt machen. Die Busse verkehren nach einem festen Fahrplan, jedoch nicht getaktet. Werktags inkl. samstags gibt es neun Busse von San Marino nach Rimini (erste Abfahrt um 6:45 Uhr), in der Gegenrichtung acht Busse (erster um 8:00 Uhr). Die jeweils letzte Verbindung in beide Richtungen startet jeweils um 18:30 Uhr. Sonn- und feiertags gibt es in beide Fahrtrichtungen je sechs Verbindungen – die erste Fahrt startet jeweils um 8:30 Uhr und die letzte jeweils um 18:00 Uhr. Nachts gibt es in San Marino keinerlei öffentlichen Verkehr. (Stand Oktober 2009) Das Straßennetz dehnt sich auf 220 km aus. Eine gebührenfreie Schnellstraße verbindet die Staatsgrenze bei "Dogana" mit Borgo Maggiore. Es ist auch eine zweispurige Umgehungsstraße um die Stadt San Marino vorhanden, am Fuße des Titano. Durch das Straßennetz von San Marino sind Häfen, Flughäfen und Bahnhöfe der Region Emilia-Romagna leicht erreichbar. Eine Schnellstraße verbindet San Marino mit dem 24 km entfernten Rimini. Die Vorschriften für den Straßenverkehr ähneln denen Italiens. Luftverkehr. Der Flughafen Rimini liegt zwar auf italienischem Hoheitsgebiet, ist jedoch auch der Verkehrsflughafen der Republik San Marino. Der einzige Sport-Flugplatz Aviosuperficie Torraccia der Republik befindet sich sechs Kilometer nordöstlich der Hauptstadt San Marino in der Gemeinde Domagnano im Ortsteil Torraccia. Kultur. Guardia del Consiglio Grande e Generale Basilica del Santo, 19. Jahrhundert La Rocca o Guaita (1. Turm) von La Cesta o Fratta (2. Turm) aus Die Kultur San Marinos ist durch seine Geschichte und den Freiheitswillen der San-Marinesen geprägt. So finden jedes Jahr Mittelaltertage statt und die Einführung der "Capitani Reggenti" ist jedes halbe Jahr eine große Zeremonie. Eine wichtige Rolle dabei spielt die "Guardia del Consiglio Grande e Generale" ("Wache des Großen und Allgemeinen Rates"). Gegründet nach der Befreiung von der Herrschaft Kardinal Giulio Alberonis 1740 sind auch heute noch diese freiwillig dienenden San-Marinesen in historischen Uniformen für den Schutz der Staatsoberhäupter und des Parlaments zuständig und gestalten zusammen mit allen wichtigen weltlichen und geistlichen Bürgern San Marinos die Feierlichkeiten zur Einführung der neuen Regierungskapitäne. Dabei wird natürlich auch die Nationalhymne gespielt, die 1894 von Federico Consolo, einem san-marinesischen Violinisten und Komponisten geschrieben wurde, keinen Text hat und daher auch einfach nur "Inno Nazionale della Repubblica" (italienisch für "Nationalhymne") genannt wird. Die Blütezeit san-marinesischer Musik war das 17. Jahrhundert, als beispielsweise Francesco Maria Marini da Pesaro seine "Concerti Spirituali" hier verfasste, eine Sammlung von 27 Konzerten. Auch zum Nationalfeiertag am 3. September herrscht Volksfeststimmung und Traditionen stehen im Vordergrund. So veranstaltet das seit 1295 bestehende san-marinesische Armbrustschützen-Korps „I balestrieri“ Vorführungen. In der Stadt San Marino gibt es zahlreiche Museen. So befindet sich im Palast "Pergami Belluzzi" ein Staatsmuseum ("Museo di Stato") mit tausenden Ausstellungsstücken zur Geschichte San Marinos: Fundstücke historischer Ausgrabungen, historische Dokumente, Münzen und Gemälde. Der sogenannte „Zweite Turm“ beherbergt ein "Museum für antike Waffen" ("Museo delle Armi Antiche"), das mit mehr als 1500 Ausstellungsstücken die Waffengeschichte vorrangig des 15. bis 17. Jahrhunderts zeigt. Weiters findet man viele private Museen wie eines der größten Ferrari-Museen mit 25 Original-Fahrzeugen, Motoren, Jahrbüchern und Studien. Auch die größte öffentliche Sammlung von Abarth-Fahrzeugen mit über 30 Exemplaren befindet sich dort. Zu beachten sind in San Marino ferner ein Museum mit modernen Waffen des Ersten und Zweiten Weltkriegs, ein Wachsfigurenkabinett mit nachgestellten Szenen der Geschichte der Republik und ein Foltermuseum. Weitere Sehenswürdigkeiten sind vor allem die Kirche San Francesco und die im Jahre 1836 im neoklassischen Stil erbaute Basilika San Marino mit den Reliquien des Schutzheiligen Marinus sowie der Palazzo del Governo, der toskanisch-gotische Regierungspalast an der Piazza della Libertà. Von den Festungen, die im 11. und 13. Jahrhundert auf den drei Gipfeln des Monte Titano angelegt wurden, hat man einen weiten Blick zum Meer und ins italienische Landesinnere. Bildung. In San Marino gibt es eine zehnjährige Schulpflicht, die sich in fünf Jahre Primarschule, drei Jahre untere Sekundarschule und zwei Jahre obere Sekundarschule unterteilt. Zur Erlangung der Hochschulreife muss die Schule drei weitere Jahre besucht werden. Alternativ existiert die Möglichkeit, eine zweijährige Berufsausbildung zu absolvieren. San Marino besitzt seit 1985 eine kleine Universität, die "Università degli Studi della Repubblica di San Marino". Das dazugehörige "Internationale Zentrum für semiotische und kognitive Studien" wurde 1988 vom berühmten italienischen Autor Umberto Eco gegründet. Er lehrte an der Universität bis 1995. Bereits vor Gründung der Universität gab es die privat initiierte, von der Regierung unterstützte "Accademia Internazionale delle Scienze" (Internationale Akademie der Wissenschaften San Marino), die aber ihre Aktivitäten später mehr ins Ausland verlegte. Post. Was den Briefwechsel mit dem Ausland anbelangt, wendet die Republik italienische Postleitzahlen an, die so verwendet werden, als wären die Postämter San Marinos Ämter der benachbarten italienischen Provinz Rimini. Seit 1. Januar 2013 ist die Poste San Marino völlig unabhängig von der italienischen Post. Fernsprechamt und Internet. Das Fernsprechamt von San Marino ist vollautomatisiert und in das italienische Netz integriert, sowohl was die innere als auch die internationale Verbindung anbelangt. Das innere Netz wird durch Telecom Italia gemäß einer Konvention mit San Marino geführt und wird durch "Telecom Italia San Marino S.p.A." garantiert, eine staatsrechtliche Gesellschaft von San Marino, die dem Konzern Telecom Italia angehört. 2005 waren 13.014 Hauptverbindungen aktiv, 32.535 Internetanschlüsse im Betrieb, 8 elektronische Zentralen, 223 öffentliche Telefone, 47 davon in Telefonzellen; 2002 gab es 16.800 Mobiltelefone. Alle Staatsämter, -verwaltungen, -betriebe und halbstaatlichen Dienste sind durch Glasfasernetz miteinander verbunden. Ein Internet-Provider, "Intelcom", ist auch vorhanden. 2004 existierten 1763 Internet-Hosts. Am 2. August 2005 gab es 6393 Benutzer mit Internetanschluss, davon 1326 mit ADSL-Anschluss und 5067 mit Dial-up-Anschluss. Von den ADSL-Benutzern waren 80 % Unternehmen. Im August 2004 gab es 683 ADSL-Abonnenten und 3566 Dial-up-Abonnenten. "Intelcom" ist ein Zentrum zur Aufsicht und zur Abgabe von Internetadressen und -Domains. Es führt die Top-Level-Domain „.sm“ und ist Mitglied von ISOC und ICANN. Rundfunk und Fernsehen. San Marino RTV, die öffentliche Rundfunkanstalt, führt einen Fernseh- und Radiosender. San Marino RTV wurde im August 1991 von "Eras" (Ente per la Radiodiffusione Sammarinese), dem san-marinesischen Funkmeldewesen, in paritätischer Mitarbeit von RAI-Radiotelevisione Italiana gegründet. Die ersten Rundfunksendungen wurden ab 27. Dezember 1992 ausgestrahlt und am 25. Oktober 1993 wurde das 24-Stunden-Programm eingeführt. Am 24. April 1993 begannen die ersten Fernsehprobesendungen, ein knappes Jahr später, am 28. Februar 1994, die regelmäßigen Fernsehsendungen. Im Juli 1995 trat der Fernsehsender der Eurovision bei. 2008 nahm das Land zum ersten Mal am Eurovision Song Contest in Belgrad teil. Im Internet steht das San Marino RTV-Programm als Livestream zur Verfügung. Der Fernsehsender kann auch in Italien empfangen werden, im Gebiet zwischen Venedig, Bologna und der Adriaküste. Es gibt weiterhin noch zwei Privatfunksender auf UKW. 1997 gab es etwa 16.000 Rundfunk- und etwa 9000 Fernsehapparate. Im Gebiet der Republik können auch die italienischen Rundfunksender empfangen werden. Presse. Die zwei wichtigsten san-marinesischen Tageszeitungen sind "La Tribuna Sammarinese" und "San Marino Oggi". Der "Corriere di Informazione Sammarinese" und der "Resto del Carlino" werden zwar in Italien verfasst, enthalten aber Informationsseiten über San Marino. Sport. Der beliebteste Sport in San Marino ist Fußball. Die international bekannteste Sportveranstaltung des Landes war der in Imola (Italien) stattfindende Große Preis von San Marino in der Formel 1, der jedoch 2006 zum letzten Mal ausgetragen wurde. San Marino verfügt zusätzlich über eine Baseballmannschaft. Fußball. Obwohl San Marino gerade einmal 30.000 Einwohner hat, gibt es eine nationale Meisterschaft, organisiert vom Verband FSGC ("Federazione Sammarinese Giuoco Calcio", gegründet 1931) mit 15 Teams. Dabei treten die Teams in der ersten Phase der Meisterschaft in zwei Gruppen mit sieben beziehungsweise acht Teams gegeneinander an. Jeweils die drei besten Teams nehmen dann an einer Endrunde teil. Der san-marinesische Meister nimmt sogar an der 1. Runde der Qualifikation zur UEFA Champions League teil, bisher konnte jedoch noch nie eine san-marinesische Mannschaft ein Spiel in der Qualifikation gewinnen. Ein san-marinesisches Nationalteam gibt es seit 1986. Das erste Spiel gegen das kanadische Olympia-Team verlor man 0:1. Das erste offizielle Spiel als Nationalmannschaft in der FIFA bestritt die san-marinesische Elf am 14. November 1990 gegen die Schweiz in der Qualifikation für die Europameisterschaft 1992 – San Marino verlor 0:4. Ein Höhepunkt der san-marinesischen Fußballgeschichte war die 1:0-Führung gegen England am 17. November 1993. Nach nur acht Sekunden erzielte Davide Gualtieri das schnellste Tor in der Länderspielgeschichte. Allerdings verlor San Marino auch dieses Spiel (1:7). Die höchste Niederlage kassierte die Mannschaft in einem EM-Qualifikationsspiel im "Stadio Olimpico" in Serravalle gegen Deutschland am 6. September 2006 mit einem 0:13. Die Mannschaft besteht fast ausschließlich aus Amateuren, derzeit (2011) gibt es mit Andy Selva nur einen Vollprofi, der in der dritten italienischen Liga spielt. Das Nationalteam hat bisher nur einmal überhaupt gewonnen: Am 29. April 2004 konnte unter dem Trainer Giampaolo Mazza die Liechtensteinische Nationalmannschaft in einem Freundschaftsspiel 1:0 geschlagen werden. Außerdem verzeichnet die Statistik Remis gegen Liechtenstein, Lettland, Estland und die Türkei. Dagegen stehen 83 Niederlagen. In der FIFA-Weltrangliste steht die Mannschaft San Marinos im Mai 2014 mit 0 Punkten auf dem geteilten letzten Platz (Platz 205 gemeinsam mit Bhutan und den Turks- und Caicosinseln). Motorsport. Grand-Prix-Strecke "Autodromo Enzo e Dino Ferrari" in Imola Zwischen 1981 und 2006 fand 100 Kilometer nordwestlich von San Marino in Imola der Große Preis von San Marino der Formel 1 statt. 1980 wurde der Große Preis von Italien von Monza nach Imola verlegt. Aufgrund vieler Beschwerden wurde diese Entscheidung aber schon ein Jahr später wieder rückgängig gemacht. Um trotzdem nicht auf Imola und somit das Heimspiel Ferraris verzichten zu müssen, wurde der Große Preis von San Marino ins Leben gerufen, der entsprechend seit 1981 regelmäßig in Imola durchgeführt wurde. Im Rennkalender für das Jahr 2007 wurde das Rennen zusammen mit dem Großen Preis von Europa, dem zweiten Deutschlandrennen, gestrichen. Im Jahr 1994 verunglückten während des GP-Wochenendes die beiden F1-Piloten Roland Ratzenberger (Österreich) und der dreimalige Weltmeister Ayrton Senna (Brasilien) tödlich. Es war eines der schwärzesten Wochenenden in der Geschichte der Formel 1. Seit 2007 wird in Misano nahe Rimini wieder der Grand Prix von San Marino für Motorräder im Rahmen der Motorrad-Weltmeisterschaft ausgetragen, auch die Superbike-Weltmeisterschaft trägt in Misano jährlich ihren San-Marino-Lauf aus. Der San-Marinese Manuel Poggiali, mit Wohnsitz in Chiesanuova, wurde 2001 und 2003 Motorrad-Weltmeister. Aktuell gilt Alex De Angelis als größtes san-marinesisches Talent in der Motorrad-Szene. Der Baldasserona Motocross Circuit mit internationaler Zulassung durch die Fédération Internationale de Motocyclisme (FIM) ist die einzige offizielle Motorsport-Rennstrecke in San Marino. Radsport. Der "AS Juvenes San Marino" betrieb zuletzt unter dem Namen des Sponsors Saeco Macchine per Caffè in den Jahren 1989 bis 2004 ein internationales Profiradsportteam, welches bis 1997 mit san-marinesischer und später mit italienischer Lizenz fuhr. Senegal (Fluss). Der Senegal ist ein 1086 km langer Strom in Westafrika. Er wird bereits bei Plinius dem Älteren als Bambotus (aus dem Phönizisch-Hebräischen "behemoth" als Flusspferd-Fluss zu übersetzen) und bei Claudius Ptolemäus als Nias genannt. Geografie. Der Fluss entsteht durch den Zusammenfluss von Bafing und Bakoyé bei der Stadt Bafoulabé im Südwesten Malis. Er bildet die Grenze zwischen Senegal und Mauretanien und mündet bei Saint-Louis in den Atlantik. Zusammen mit dem Bafing ist der Senegal 1430 km lang. Im Mündungsgebiet, einem wichtigen Ort zur Überwinterung für europäische Weißstörche, befindet sich der Nationalpark Parc National de Langue de Barbarie. Das dort anzutreffende fruchtbare Schwemmland wird zum Anbau von Zuckerrohr, Mais, Hirse und Reis genutzt. Der Diama-Damm verbindet den gleichnamigen senegalesischen Ort mit dem Dorf Keur Massène in Mauretanien. Er liegt in der fruchtbaren "Chemama-"Überschwemmungsebene halbwegs zwischen Saint-Louis und dem mauretanischen Flusshafen Rosso. Vor seinem Bau drang Meerwasser 150 km weit flussaufwärts. Nach der Fertigstellung des Dammes wurde dies verhindert, und somit eine Veränderung des Flussbiotops vorgenommen. Der aufgestaute See wird als Trinkwasserreservoir genutzt, aus dem auch Dakar, die Hauptstadt des Staates Senegal, versorgt wird. Die nun ausbleibenden Überflutungen mit salzigem Meerwasser führen zu einer stetigen Verbesserung der landwirtschaftlich nutzbaren Fläche am Senegal Ufer. Jahrzehntelang war die versalzte, ausgelaugte Erde zur Nutzung als Ackerland unbrauchbar. Hydrometrie. Die Durchflussmenge des Senegal wurde über 71 Jahren (1903-74) in Dagana etwa 207 Kilometer flussaufwärts von der Mündung gemessen (in m³/s). Westsahara. Westsahara ist heute geteilt, der Westen steht unter der Kontrolle Marokkos (grün), der äußerste Osten und Süden unter der Kontrolle der Polisario (gelb) a>“ befindet sich nicht unter marokkanischer Herrschaft Die Westsahara () ist ein Territorium an der Atlantikküste Nordwestafrikas, das nach dem Abzug der ehemaligen Kolonialmacht Spanien von Marokko beansprucht und größtenteils annektiert wurde. Marokko betrachtet das in vorkolonialer Zeit in einem losen Abhängigkeitsverhältnis zu ihm stehende Gebiet als Teil seines Territoriums. Die zu spanischen Kolonialzeiten entstandene, linksgerichtete „Befreiungsfront“ der Sahrauis (der Bevölkerung der Westsahara), die Frente Polisario, kämpft für einen unabhängigen Staat, die "Demokratische Arabische Republik Sahara", auf dem gesamten Territorium von Westsahara. Seit dem Waffenstillstand von 1991 kontrolliert die Frente Polisario einen Streifen im Osten und Süden der Westsahara von der Grenze zu Algerien bis zur Atlantikküste. Die Vereinten Nationen verlangen die Durchführung eines Referendums über den endgültigen völkerrechtlichen Status des Gebietes. Über die Modalitäten der Durchführung eines solchen Referendums konnte bisher keine Einigkeit zwischen Marokko und den Vertretern des sahrauischen Volkes erzielt werden. Haupt-Streitpunkt ist hierbei die Frage, ob zu diesem Referendum auch die Mitglieder saharauischer Stämme, die zu Kolonialzeiten in Südmarokko gelebt haben (bzw. deren Nachkommen), als wahlberechtigte Einheimische gelten sollen (dies entspräche Marokkos Position). Geographie. Satellitenaufnahme der Topographie der Westsahara Das Gebiet der Westsahara liegt im Nordwesten Afrikas an der Küste zum Atlantischen Ozean und umfasst eine Fläche von 266.000 km². Es teilt sich geografisch in einen nördlichen Teil, der zur spanischen Kolonialzeit etwa die Provinz Saguia el Hamra bildete und in dem flach gewellte Kies- und Geröllwüsten "(Hammada)" überwiegen. Das Gelände steigt von der Küste ins Landesinnere allmählich bis in eine Höhe von etwa 400 Meter, mit den höchsten Erhebungen über 700 Meter im Norden nahe der algerischen Grenze. Das südliche Gebiet entspricht etwa der ehemaligen Provinz Río de Oro und ist beinahe völlig flach mit vereinzelten Sanddünen "(Erg)", die in der gleichförmigen, fast vegetationslosen Geröllebene nur für wenig Abwechslung sorgen. Den dritten Landschaftstyp stellen die nach der Regenzeit stellenweise wasserführenden Trockenflusstäler "(Wadis)" dar, von denen der Saguia el Hamra für die Oasenwirtschaft die größte Bedeutung hat. Er ist bis zu seinem Ende bei Aaiún kurz vor dem Atlantischen Ozean mit 350 Kilometern der längste Fluss des Landes. Klima, Flora und Fauna. Wüstenklima herrscht vor, Regen ist selten, und in Küstennähe kommt es häufig zu Nebelbildung. Eine üppigere Vegetation ist nur um die Flussoasen und einige Gueltas zu finden. Man findet an den trockenen Lebensraum angepasste Tierarten, zum Beispiel Wüstenspringmäuse und Dornschwanz-Agamen. In den Höhlen an der Atlantikküste, vor allem auf der Cabo Blanco-Halbinsel, leben die größten Populationen der vom Aussterben bedrohten Mittelmeer-Mönchsrobbe. Verwaltungsgliederung. Marokko gliedert die Westsahara in die fünf Provinzen Aousserd, Boujdour, Es Semara, Laâyoune und Oued ed Dahab. Ob die Polisario, die den Osten des Landes kontrolliert, eine abweichende Gliederung in Provinzen vorgenommen hat, ist nicht bekannt. Bevölkerung. Die Bevölkerung des Gebiets Westsahara von 539.000 Einwohnern (Schätzung Juli 2013) besteht vor allem aus Arabern und arabisierten Berbern. Bei den ursprünglich das Gebiet besiedelnden Sahrauis handelt es sich um arabische Nomaden, von denen jedoch ein Teil seit Jahren in Flüchtlingslagern bei Tindouf in Algerien lebt. Gesprochen wird überwiegend das marokkanische Arabisch von Zuwanderern aus dem Norden, daneben auch der Hassania-Dialekt der ursprünglichen Bevölkerung vor der marokkanischen Besiedlung, eine auch im benachbarten Mauretanien verbreitete regionale Form des Arabischen. Nahezu 100 % der Einwohner sind Muslime. Geschichte. Phönizische Niederlassungen haben kaum Spuren hinterlassen, und erst mit der Einführung des Kamels wurde das Gebiet als Karawanendurchgangsort bedeutend. Nach dem Vordringen des Islam entstanden auf dem Gebiet der heutigen Westsahara islamische Gruppen, die später auch als Almoraviden einen Großteil Nordafrikas und Südspaniens beherrschten. 1884 errichteten die Spanier auf der Halbinsel des Rio de Oro den Stützpunkt Villa Cisneros, die spätere Stadt Ad-Dakhla. Auf der Kongokonferenz 1884–1885 in Berlin teilten die Kolonialmächte Afrika unter sich auf. Spanien wurde die Westsahara zugesprochen. Der einflussreiche Sheikh Ma El-Ainin organisierte den Widerstand gegen die französischen und spanischen Kolonialarmeen in Nordwestafrika. Er gründete um 1900 die Stadt Smara, die sich zum religiösen, politischen und ökonomischen Zentrum der Region entwickelte. Die Stadt, kulturelles Zentrum der Sahara, wurde 1913 mitsamt ihrer bedeutenden Islamischen Universität und Bibliothek von den Franzosen zerstört. Nach jahrzehntelangem Widerstand der Sahrauis wurde das Gebiet der Westsahara durch spanische Truppen okkupiert. Ab 1965 verlangte die UNO-Generalversammlung von Spanien wiederholt in – völkerrechtlich nicht bindenden – Resolutionen die Dekolonialisierung der Westsahara. Im Mai 1973 gründete sich die sahrauische Befreiungsfront Frente Polisario, die den bewaffneten Kampf gegen die spanische Kolonialmacht aufnahm. 1974 forderte Marokkos König Hassan II. den Anschluss der Westsahara an Marokko. Im Mai 1975 stellte eine UNO-Delegation in der Westsahara fest, dass die Bevölkerung die Unabhängigkeit wünsche und der Frente Polisario breite Unterstützung zukommen lasse. Der Internationale Gerichtshof, dessen Zuständigkeit in dieser Sache durch Marokko bestritten wurde, wies im gleichen Jahr Souveränitätsansprüche Marokkos und Mauretaniens zurück. Trotzdem kam es im Oktober 1975 zu ersten Übergriffen der marokkanischen Armee auf das Territorium der Westsahara. Nach dem Tod Francisco Francos verließ Spanien das Gebiet. 1975 zogen im so genannten "Grünen Marsch" etwa 350.000 Marokkaner in die ehemalige Kolonie ein, um marokkanische Ansprüche auf das Gebiet geltend zu machen. Am 26. Februar 1976 stimmte eine Versammlung saharauischer Stammesfürsten der Aufteilung der Westsahara zwischen Marokko und Mauretanien zu, woraufhin am 27. Februar 1976 von der Polisario die "Demokratische Arabische Republik Sahara" ausgerufen wurde. Marokko erkannte diesen Staat nicht an. Die Demokratische Arabische Republik Sahara wurde 1984 in die "Organisation für Afrikanische Einheit" aufgenommen. Als Reaktion darauf trat Marokko aus der Organisation für Afrikanische Einheit aus und ist seitdem das einzige afrikanische Land, welches nicht Mitglied dieser Organisation und der aus ihr hervorgegangenen "Afrikanischen Union" ist. Marokko erklärte 1976 die Annexion der nördlichen zwei Drittel des Westsahara-Gebietes und 1979 des restlichen Territoriums, nachdem sich Mauretanien aus dem Gebiet zurückgezogen hatte. Diese Annexionen wurden von den Vereinten Nationen nicht anerkannt. Ebenso wenig wurden ohne die Abhaltung des von den Vereinten Nationen geforderten Referendums die Ansprüche der "Demokratischen Arabischen Republik Sahara" auf das Gebiet der Westsahara anerkannt. Die Vereinten Nationen sind mit einer ständigen Beobachtermission MINURSO im gesamten Gebiet der Westsahara präsent. Der endgültige Status des Gebietes ist bis heute ungeklärt, da kein Referendum über die Zukunft des Gebietes abgehalten wurde. 1991 wurde eine Waffenstillstandsvereinbarung zwischen Marokko und der Polisario geschlossen. Bis heute leben etwa 100.000 Sahrauis in vier Flüchtlingslagern nahe der Stadt Tindouf in der algerischen Sahara. Das Gebiet von Westsahara ist zurzeit durch eine befestigte und verminte Grenzanlage geteilt. Sie wurde von Marokko entlang der Waffenstillstandslinie errichtet. Wirtschaft. Polizeicheckpoint am Stadtrand von El Aaiún Weite Teile des Landes sind wirtschaftlich noch unerschlossen, das Straßennetz ist dünn. Die wesentlichen Wirtschaftszweige sind die Fischerei, der Abbau von Bodenschätzen (besonders Phosphat, das Vorkommen gilt als eines der größten der Welt) und der Anbau von Dattelpalmen (Oasenwirtschaft). Der Westküste wird ein großes Potenzial für die Gewinnung von Windenergie zugeschrieben. Die gesamte Wirtschaft der westlichen Teile der früheren spanischen Kolonie wird mit Steuermitteln aus Marokko stark subventioniert und im Rahmen der Besiedelung durch Marokkaner kräftig ausgebaut, während der nicht besetzte Ostteil sowie die Flüchtlingslager in Algerien weitgehend von internationaler Unterstützung abhängig sind. Von besonderer Bedeutung ist der Phosphat-Tagebau bei Bou Craa, welcher mit dem Hafen von El Aaiún mit dem längsten Förderband der Welt verbunden ist. Vor dem Waffenstillstandsabkommen zwischen Marokko und der Frente Polisario wurde das Förderband oft von Kämpfern der Frente Polisario zerstört. Es gibt Staaten wie z. B. Indien, die einerseits die Demokratische Arabische Republik Sahara anerkennen und andererseits genau dieses Phosphat importieren. Die Westsahara wird von Marokko zunehmend auch für den Fremdenverkehr erschlossen. Insbesondere die Strände bei Dakhla werden bereits in Ansätzen touristisch genutzt. Die touristische Infrastruktur ist aber noch schwach entwickelt, obwohl es inzwischen auch spanische Direktflüge von den benachbarten Kanarischen Inseln gibt. Pauschaltourismus findet kaum statt. Staude. Staude (von mittelhochdeutsch „stude“) ist im Wesentlichen ein gärtnerischer Begriff, wird aber auch von Botanikern in Bestimmungsbüchern verwendet (mit dem Symbol ♃ „Jupiter“). Definition. Stauden sind mehrjährige ausdauernde (perennierende, pollakanthe) krautige Pflanzen, deren oberirdische Pflanzenteile im Gegensatz zu Bäumen und Sträuchern nicht verholzen, sondern krautig weich sind und in der Regel nach jeder Vegetationsperiode absterben. Im Gegensatz zu den anderen krautigen Pflanzen, den Einjährigen und den Zweijährigen, überdauern Stauden mehrere Jahre und blühen und fruchten (im Gegensatz zu den hapaxanthen oder pluriennen Kräutern) in jedem Jahr erneut. Stauden überwintern je nach Art in Form von Rhizomen (im Volksmund Wurzelstöcke genannt, tatsächlich jedoch Teile des Sprosses), Knollen, Zwiebeln, Stolonen (Ausläufern, Teile des Sprosses) und ähnlichen Wurzelspeicherorganen, die sich sowohl unter der Erdoberfläche (Geo- oder Kryptophyten) als auch knapp darüber befinden können (Hemikryptophyten). Aus den Überwinterungsknospen treiben die Stauden in den folgenden Vegetationsperioden immer wieder aus. Abweichend von dieser Regel gibt es unter den Stauden auch eine Reihe wintergrüner Arten, die nicht „einziehen“. In den kalten und gemäßigten Zonen sind diese so niedrig, dass sie vom Schnee bedeckt werden, und werden mit den verholzten Zwergsträuchern unter dem Begriff Chamaephyten zusammengefasst; tropische immergrüne Stauden wie die Bananen können dagegen beachtliche Größen erreichen. So ist der Begriff Staude nicht eindeutig umgrenzt, aber der Begriff „Kräuter“, der gelegentlich auch für Stauden verwendet wird, hat sehr viele Bedeutungen und Verwendungen und ist damit noch weniger abgegrenzt. Gärtnerische Systematik der Stauden. Das Spektrum der Stauden reicht von kleinen Sukkulenten (fleischig-saftige Stauden, die sich besonders der Trockenheit angepasst haben, allerdings üblicherweise nicht als Stauden bezeichnet werden) bis hin zu großen Prachtstauden. Neben den eigentlichen „Blütenstauden“ zählen auch die meisten winterharten Farne sowie viele Gräser, Zwiebel- oder Knollenpflanzen und Wasserpflanzen zu den Stauden. Mit dieser Einteilung die von Sieber/Hansen bzw. Ellenberg/Oberdorfer entwickelt wurde, wird vom Profi in der Gartenplanung den unterschiedlichen Bedingungen des jeweiligen Standortes Rechnung getragen. Staudenverwendung im Garten. Die Stauden privater und öffentlicher Gärten stammen aus den gemäßigten Klimazonen aller Kontinente. Das Sortiment der heimischen Stauden und der Stauden aus dem Mittelmeerraum, welche schon seit Jahrhunderten in mitteleuropäischen Gärten kultiviert werden, wurde in den letzten drei Jahrhunderten zunehmend durch eine Vielzahl an Stauden vor allem aus Asien und Nordamerika erweitert. Bis über die Mitte des 19. Jahrhunderts hinaus bestimmten hauptsächlich heimische Gewürz- und Heilpflanzen die Palette der Stauden in den Gärten. Schmuckstauden fanden sich dort zunächst nur in geringer Zahl. Da das Angebot an Stauden ab der Mitte des 18. Jahrhunderts durch Einführungen aus fremden Ländern und intensivierte Zuchtarbeit, deutlich zugenommen hatte, initiierten seit 1870 englische Staudenexperten wie William Robinson (1838 – 1935) und Gertrude Jekyll (1843–1932) die Zusammenstellung von Stauden zu kunstvollen Pflanzungen nach nicht nur rein ästhetischen Gesichtspunkten. In Deutschland weckte der Staudenzüchter und Gartenpoet Karl Foerster in der ersten Hälfte des 20. Jahrhunderts die Begeisterung für die Staudenverwendung im Garten mit Büchern wie dem „Blütengarten der Zukunft“ (1917). Während in Großbritannien aufgrund der Gunst des Klimas Stauden vorwiegend nach ihren ästhetischen Qualitäten verwendet werden, richtet sich das Interesse in deutschsprachigen Ländern zunehmend auf eine an den natürlichen Standortbedingungen orientierte Staudenverwendung. Die Zuordnung der Stauden zu Lebensbereichen wie Gehölz, Gehölzrand, Freifläche, Steinanlage, Beet oder Wasserrand ermöglicht auf einfache Weise die Zusammenstellung langlebiger Pflanzengemeinschaften für Pflanzplätze unterschiedlichster Art. Die wachsende Zahl gärtnerisch kultivierter Stauden wird vom Arbeitskreis Staudensichtung systematisch geprüft, bewertet und den entsprechenden Lebensbereichen zugeordnet. Stauden im öffentlichen Grün. Seit einigen Jahren beschäftigen sich zahlreiche Institutionen mit dem Thema „Stauden für das öffentliche Grün“. Aus dem Arbeitskreis Pflanzenverwendung des Bundes deutscher Staudengärtner (BdS) entstand die Staudenmischung „Silbersommer“, die an verschiedenen Standorten in Deutschland und in der Schweiz bereits erfolgreich getestet und verwendet wird. An der Hochschule Anhalt (FH) in Bernburg (Sachsen-Anhalt) wurden in dem Forschungsprojekt „Perennemix“, gefördert u. a. durch die Deutsche Forschungsgemeinschaft (DFG) und durch den BdS, Staudenmischpflanzungen für das öffentliche Grün getestet. Siehe auch. Seit dem Jahr 2000 wird durch den "Bund deutscher Staudengärtner" alljährlich eine gärtnerisch bedeutsame Pflanzengattung zur Staude des Jahres ernannt. Steven Pinker. Steven Arthur Pinker (* 18. September 1954) ist ein US-amerikanisch-kanadischer Experimentalpsychologe, Kognitionswissenschaftler, Linguist und populärwissenschaftlicher Autor. Er ist Professor am Harvard-College und hat die Johnstone-Family-Professur des Fachbereiches Psychologie der Harvard-Universität inne. Er ist ein Vertreter der Konzepte der evolutionären Psychologie und des psychologischen Nativismus. Steven Pinker hat sich auf visuelle Kognition und Psycholinguistik spezialisiert; seine experimentellen Fächer sind mentale Vorstellung, Formerkennung, visuelle Aufmerksamkeit, Sprachentwicklung von Kindern, reguläre und irreguläre Phänomene der Sprache, die neurale Grundlage von Wörtern und Grammatik, außerdem die Psychologie von Euphemismen und Anspielungen. Er veröffentlichte zwei technische Bücher, in denen er eine allgemeine Theorie des Spracherwerbs vorschlägt und sie auf das Lernen von Verben durch Kinder anwendet. In seinen populärwissenschaftlichen Schriften vertritt er die Ansicht, dass Sprache ein Instinkt oder eine biologische Adaption sei, die durch die Kräfte der natürlichen Selektion geformt wurde. Er ist der Autor von sechs Büchern für ein allgemeines Publikum: "Der Sprachinstinkt" (1994), "Wie das Denken im Kopf entsteht" (1997), "Wörter und Regeln" (2000), "Das unbeschriebene Blatt" (2002), "Der Stoff, aus dem das Denken ist" (2007) und "Gewalt" (2011). Herkunft und Laufbahn. Pinker stammt aus einer jüdischen Mittelschicht-Familie im englischsprachigen Teil von Montreal, Kanada. Seine Eltern waren Roslyn und Harry Pinker. Er absolvierte das Dawson-College 1971. Anschließend studierte er experimentelle Psychologie an der McGill-Universität, schloss mit einem Bachelor of Arts ab und zog 1976 nach Cambridge (Massachusetts), wo er 1979 seinen PhD (Doctor of philosophy) im Fach Experimentalpsychologie von der Harvard-Universität erhielt. Nach einem einjährigen Forschungsaufenthalt am MIT wurde er Assistant Professor in Stanford, Kalifornien (1981/82). Von 1982 bis 2003 war er Professor im Fachbereich Hirn- und Kognitionswissenschaften des MIT und kehrte danach nach Harvard zurück. Dort erhielt er die Johnstone-Family-Professur im Fachbereich Psychologie; von 2008–2013 trug er ebenfalls den Titel Harvard-College-Professor zur Anerkennung seines Einsatzes in der Lehre. 1995/96 verbrachte er ein Sabbat-Jahr („sabbatical“) an der Universität von Kalifornien in Santa Barbara. Pinker wurde 2004 vom Time-Magazin als einer der 100 weltweit einflussreichsten Wissenschaftler und Denker bezeichnet; außerdem von Prospect und Foreign Policy 2005 bzw. 2006 in deren Listen nach Umfragen der 100 wichtigsten öffentlichen Intellektuellen aufgenommen. Für seine Forschungsarbeit auf dem Gebiet der kognitiven Psychologie wurde er mit dem "Early Career Award" (1984) und dem "Boyd McCandless Award" (1986) der American Psychological Association ausgezeichnet. 1993 erhielt er den "Troland Research Award" der United States National Academy of Sciences, 2004 den "Henry-Dale-Preis" von der Royal Institution of Great Britain, 2006 den "Humanist of the Year Award" der American Humanist Association für seinen Beitrag zum Verständnis der menschlichen Evolution, und 2010 den George Miller-Preis der "Cognitive Neuroscience Society". Außerdem wurde Steven Pinker von den Universitäten Newcastle und Surrey in England, Tel Aviv in Israel, McGill in Montreal, Kanada, und Tromsø in Norwegen mit der Ehrendoktorwürde ausgezeichnet. Er war zweimal Finalist für den Pulitzer-Preis (1998 und 2003). Im Januar 2005 verteidigte Pinker Lawrence Summers, den Präsidenten der Harvard-Universität, dessen Kommentare zur Geschlechterkluft in Mathematik und Naturwissenschaften mehrere Mitglieder der Fakultät verärgerte. Pinker stellte fest, dass Summers Anmerkungen, richtig verstanden, Hypothesen zu überlappenden statistischen Verteilungen männlicher und weiblicher Talente und Geschmäcker waren; und dass in einer Universität solche Hypothesen Gegenstand von empirischen Tests und nicht von Glaubenssätzen und Empörung sein sollten. Pinker war für die Redaktionen von Fachzeitschriften wie "Cognition", "Daedalus" und PLoS ONE im Beirat von Einrichtungen für die naturwissenschaftliche Forschung (z. B. das "Allen Institute for Brain Science"), für die Freie Rede (z. B. die "Foundation for Individual Rights in Education"), für die Popularisierung der Naturwissenschaften (z. B. das "World Science Festival" und das Committee for Skeptical Inquiry), für den Frieden (z. B. für die Stiftung Friedensforschung) und den säkularen Humanismus tätig (z. B. Freedom from Religion Foundation and the "Secular Coalition for America"). Seit 2008 hat er den Vorsitz für den Nutzungsausschuß des "American Heritage Dictionary" inne und schrieb den Text für die Nutzung der fünften Ausgabe des Wörterbuches, das 2011 veröffentlicht wurde. Pinker hat außerdem in der American Association for the Advancement of Science, der National Science Foundation, der American Academy of Arts and Sciences, der American Psychological Association und der Linguistic Society of America mitgewirkt. Privatleben und Familie. Pinker lebt mit seiner Frau, der Autorin und Philosophin Rebecca Goldstein, in Boston und Truro, Massachusetts. Sein Vater, ein Rechtsanwalt, war als Vertreter einer Herstellerfirma tätig, während seine Mutter zunächst Hausfrau war und dann als Beratungslehrerin und Konrektorin einer Schule arbeitete. Er hat zwei jüngere Geschwister. Sein Bruder ist ein politischer Analyst für die kanadische Bundesregierung. Seine Schwester, Susan Pinker hat denselben Beruf wie er, d. h., ist Psychologin und populärwissenschaftliche Schriftstellerin (Das Geschlechterparadox). Pinker heiratete Nancy Etcoff im Jahr 1980 (Scheidung 1992); 1995 heiratete er Ilavenil Subbiah, von der er mittlerweile auch geschieden wurde. 2007 ging er mit der Schriftstellerin und Philosophin Rebecca Goldstein eine Ehe ein. Er hat zwei Stieftöchter: die Schriftstellerin Yael Goldstein Love und die Dichterin Danielle Blau. Zu seinem religiösen Bekenntnis meine Pinker: „Ich war nie religiös im theologischen Sinn […]. Ich bin nie meiner Bekehrung zum Atheismus im Alter von 13 entwachsen, aber zu verschiedenen Zeiten war ich ein ernsthafter säkularer Jude.“ Als Teenager hielt er sich für einen Anarchisten, bis er Zeuge der Unruhen des Murray-Hill-Aufruhrs (Polizeistreik 1969 in Montreal) wurde. Pinker nennt sich selbst einen Anhänger des Gleichheitsfeminismus, den er in "Das unbeschriebene Blatt" als „eine moralische Lehre über die Gleichbehandlung definiert, die keine Festlegungen macht in bezug auf offene empirische Fragen in der Psychologie oder Biologie“. Er hat das Ergebnis eines Tests zu seiner politischen Orientierung veröffentlicht, das ihn als weder links noch rechts, mehr liberal als autoritär charakterisierte. Arbeit. Pinker hat über 150 Reviewed Papers und Buchkapitel veröffentlicht. Zwischen 1994 und 2011 veröffentlichte Pinker sechs populärwissenschaftliche Bücher zu Sprache, Geist, und menschlicher Natur, zuletzt (2011). Seine Bücher wurden in insgesamt über 20 Sprachen übersetzt. Auch schreibt er regelmäßig für Magazine und Zeitungen, beispielsweise New York Times, Time, Newsweek, Forbes Magazine und The New Republic. Pinker prägte den Begriff der „Euphemismus-Tretmühle“. Pinkers Forschungsinteressen sind alle Aspekte von Sprache und Geist. Er erforschte die mentale Vorstellung und die Sprache. Pinkers Arbeit zur mentalen Vorstellung, begonnen in Zusammenarbeit mit seinem Doktorvater Stephen Kosslyn, zeigte, dass geistige Bilder Szenen und Objekte repräsentieren, wie sie aus einem bestimmten Blickwinkel (eher als die Erfassung ihrer intrinsischen dreidimensionalen Struktur) erscheinen. Damit entsprechen sie der Theorie der „zwei-und-ein-halb-dimensionale Skizzen“ des Neurowissenschaftlers David Marr. Er zeigte auch, im Gegensatz zu Marrs Theorie, dass die bildliche Erkennung gesichtspunktunabhängige Repräsentationen einsetzt, dass diese Ebene der Darstellung im Rahmen der visuellen Aufmerksamkeit genutzt wird, außerdem zur Objekterkennung (zumindest für asymmetrische Formen). Er schrieb ein Buch über den Spracherwerb von Kindern und ein weiteres über den Gebrauch von Verben. Er beschäftigte sich zwei Jahrzehnte lang mit dem Unterschied zwischen intransitiven und transitiven Verben. Zudem untersuchte er die Sprachentwicklung bei Zwillingen und Sprachprozesse mittels sogenannten "Neuroimagings". Bekannt wurde er durch seine umstrittene Theorie vom angeborenen Sprachinstinkt. Später beschäftigte Pinker sich mit Erinnerung und Anspielungen. In der Psycholinguistik, wurde Pinker früh in seiner Karriere bekannt für die Förderung der Computational-Lerntheorie als eine Möglichkeit, den Spracherwerb bei Kindern zu verstehen. Er schrieb ein Übersichts-Tutorial zu diesem Forschungsfeld, gefolgt von zwei Büchern, die seine eigene Theorie des Spracherwerbs fortführten, und verfasste eine Reihe von Experimentalanweisungen zum Erwerb von Passiv-, Dativ- und Lokativkonstruktionen bei Kindern. Im Jahr 1989 veröffentlichten Pinker und Alan Prince eine einflussreiche Kritik zum konnektionistischen Modell des Erwerbs der Vergangenheitsform (ein Lehrbuchproblem beim Spracherwerb), gefolgt von einer Reihe von Studien, wie Menschen die Vergangenheitsform erwerben und nutzen. Dies beinhaltete eine Monographie über Regularisierung von unregelmäßigen Verben bei Kindern, und das populärwissenschaftliche Buch "Wörter und Regeln" (1999), in dem er argumentiert, dass regelmäßige und unregelmäßige Verbphänomene Produkte von Rechentätigkeit bzw. Speicheraufruf sind, und daß die Sprache als eine Wechselwirkung zwischen den beiden zu verstehen sei. Wissenschaft. Pinker ist ein Vertreter des Nativismus, des Computationalismus und des Prinzips der geistigen Modularität. Seine grundlegenden Thesen sind in mehreren Büchern wie etwa "Wie das Denken im Kopf entsteht", "Das unbeschriebene Blatt", "Der Sprachinstinkt" und "Wörter und Regeln" dargestellt. Der Linguist Geoffrey Sampson kritisiert Pinkers Nativismus, den dieser als einzige Alternative zum sozialkonstruktivistischen Paradigma sehe, das nach seiner Auffassung das intellektuelle Leben der westlichen Welt seit den 1920er Jahren dominiert habe und insbesondere von Forschern wie B. F. Skinner, John B. Watson und Margaret Mead vertreten werde. Sampson bezeichnet Pinkers Behauptungen über die Dominanz dieses Paradigmas als komplett unhaltbar und sieht Pinkers Nativismus als extremen Gegenentwurf zu einem Modell, das es so nie gegeben habe. So gingen Bildungsreformen der 60er und 70er Jahre von angeborenen Begabungen von Kindern anstatt einer Tabula rasa aus, was der behaupteten Dominanz des sozialkonstruktivistischen Modells seit den 1920ern widerspreche. Außerdem könne man laut Sampson nicht Skinner, Watson und Mead für den Ton des intellektuellen Lebens seit den Zwanziger Jahren verantwortlich machen. John Dupré bemängelt, dass Pinker ein überzeichnetes Bild eines extremen Environmentalismus entwerfe und diesem Strohmann sein eigenes Forschungsprogramm entgegenstelle. Laut Dupré, der einen interaktionistischen Ansatz und die Berücksichtigung biologischer, kultureller und Umweltfaktoren befürwortet, entwirft Pinker eine grob vereinfachte Zweiteilung zwischen Befürwortern der Tabula rasa und Befürwortern des biologischen Determinismus. Der britische Kulturhistoriker Richard Webster hielt hingegen die Argumentation von "Der Sprachinstinkt" für schlüssig dahingehend, dass das menschliche Sprachvermögen Teil der evolutionär entstandenen genetischen Ausstattung des Menschen sei. Pinkers Angriff gegen das Standardmodell des kulturellen Determinismus sei geglückt. Webster akzeptiert auch Pinkers Kritik an den Sozialwissenschaften des 20. Jahrhunderts, die die genetische Beeinflussung der menschlichen Natur aus weltanschaulichen Gründen geleugnet hätten. Der Psycholinguist Jeffrey Elman präsentiert verschiedene Forschungsergebnisse zur neuronalen Plastizität als Gegenargument zu der von Pinker vertretenen nativistischen Ansicht, dass das Gehirn überwiegend aus angeborenen, spezialisierten kognitiven Modulen bestünde. Der Anthropologe Melvin Konner hingegen meint, Pinker schließe korrekterweise, dass das menschliche Gehirn kein allgemeiner informationsverarbeitender Prozessor, kein symmetrisch wiederholender Iterator oder eine umfassende Lernmaschine sein könne. Die Mechanismen der Evolutionsbiologie lassen vielmehr anwendungsspezifische, funktional beschränkende neurale Organe und Schaltungen erwarten. Es sei zu erwarten, dass die Natur spezielle Module gestaltet habe, die es zum Beispiel ermöglichen, Betrug in Beziehungen zu erfassen, Wut gegen sexuelle Rivalen hervorzurufen, einen tödlichen Biss präzise in den Hals der Beute auszuführen, einen Satz grammatisch zu verstehen und es einem Säugling erleichtern, die milchgefüllte Brust zu finden. Jaak Panksepp kritisiert die von Evolutionspsychologen und von Pinker vertretene Sicht, dass die Informationsverarbeitung des menschlichen Gehirns wie die Datenverarbeitung von Computern funktioniere. In seinem Buch "How the mind works" stellt Pinker seine komputationale Theorie des Verstandes anhand eines Beispiels vor. Er beschreibt ein Telefongespräch, bei dem Informationen vom Sprecher zum Empfänger übertragen werden und gleich bleiben, obwohl sie zwischenzeitlich verschiedene physische Formen annehmen – z. B. Druckschwankungen, elektrische Signale in den Telefonleitungen und neuronale Aktivität im Gehirn des Empfängers. Laut Pinker könne man ebenso gut ein Programm auf einem Computer ablaufen lassen, der aus Elektronenröhren und elektromagnetischen Schaltern aufgebaut ist. Panksepp kritisiert diese Sichtweise als unzulänglich. Pinker ignoriere die Tatsache, dass das menschliche Gehirn in dem Beispiel aus Sinneseindrücken "Bedeutung" hergestellt hat und dass es aus ankommenden Abbildungen der Umwelt Wissen selbst synthetisiert. In dem Buch "The mind doesn't work that way" – eine direkte Replik auf Pinkers "How the mind works" – weist Jerry Fodor darauf hin, dass Forschungsergebnisse deutlich gezeigt hätten, dass der Mensch höhere kognitive Fähigkeiten besitze, die sich durch komputationale Modelle nicht erklären lassen. Fodor, der als Mitbegründer des Feldes des Komputationalismus gilt, äußert Verwunderung über Pinkers Glauben in die Erklärungskraft komputationaler Theorien. Die polnische Linguistin Anna Wierzbicka kritisiert Pinkers Buch ' mit dem Einwand, er setze unreflektiert voraus, dass der Bedeutungsgehalt des englischen Wortes „violence“ derselbe sei wie der Bedeutungsgehalt der in anderen Sprachen für „Gewalt“ gebrauchten Wörter. Sie führt Beispiele dafür an, dass die US-amerikanische Vorstellung von Gewalt keineswegs universell sei. Medien. Pinkers populärwissenschaftliche Arbeiten erfahren in den internationalen und deutschsprachigen Medien erhebliche Aufmerksamkeit. So bezeichnet ihn etwa die britische BBC als „wissenschaftlichen Superstar“ und Der Spiegel stellt Pinker als „weltbekannte[n] Evolutionspsychologe[n]“ vor, der „durch seine Forschungen über Sprache, Bewusstsein und Geist hohes Ansehen erworben“ habe. Pinkers Bücher sind häufig Bestseller im Sachbuchsegment und werden auch weit jenseits wissenschaftlicher Debatten rezipiert, wie etwa seine regelmäßigen Auftritte in der populären Fernsehsendung Colbert Report illustrieren. Zugleich finden sich in der öffentlichen Wahrnehmung kritische Stimmen, die akademische Vorwürfe von vereinfachendem Reduktionismus und Szientismus rezipieren. So beschreibt etwa der New-York-Times-Kolumnist Ross Douthat Pinkers Positionen als „vermessen selbstsicher, intellektuell vereinfachend und desinteressiert an den Möglichkeiten rationalen Widerspruchs zwischen Menschen.“ Spektralfarbe. Eine Spektralfarbe ist jener Farbeindruck, den ein aus dem sichtbaren Teil des Lichtspektrums" ausgewähltes monochromatisches Licht" erzeugt. Sie ist in jedem Farbton die intensivste, mithin "reine Farbe". Obwohl es theoretisch unendlich viele Spektralfarben gibt, ist im täglichen Umgang mit ihnen oft nur von einer bestimmten, relativ kleinen Anzahl von Spektralfarben die Rede, zum Beispiel von den "sieben Regenbogenfarben Rot, Orange, Gelb, Grün, Blau, Indigo und Violett". Sie sind nicht eng aus dem Lichtspektrum ausgewählt, im besten Fall sind alle leicht unterschiedlichen Farben je eines Wellenlängenbereiches gemeint, und die Wellenlängenbereiche stoßen lückenlos aneinander. Spektrum . Das Spektrum (als Begriff der Farblehre) ist die Gesamtheit aller Linien und Banden bestimmter Frequenz in einem Strahlungsereignis. Weißes Licht ist im physikalischen Sinne ein aus Anteilen aller Wellenlängen des sichtbaren Spektralbereichs energiegleich gemischtes Licht und praktisch kaum realisierbar. Meist versteht man deshalb darunter Tageslicht (Sonnenlicht) sowie die Normlichtarten mit ihren unterschiedlichen Farbtemperaturen. Die von einer energiegleichen Lichtquelle erzeugte Farbempfindung heißt exakterweise „unbunt“. Durch Brechung am optischen Prisma, durch Beugung an Gittern oder in Interferenz gelingt es, "weißes Licht" in Spektralfarben zu zerlegen. Spektralfarben als monochromatisches Licht können bei geeigneten Emissionsvorgängen auch direkt entstehen (Natriumdampflampe, Laser). Newton stellte diesen Sachverhalt in seinen "Opticks" dar. Er nannte sieben Spektralfarben, nämlich Rot, Orange, Gelb, Grün, Blau, Indigo, Violett, ohne ihnen eine Wellenlänge oder einen Wellenlängenbereich definitiv zuzuordnen. Eine besondere Bedeutung kommt der „weißen Strahlung“, also der energiegleichen Strahlung in der Fotometrie und verwandten Gebieten zu. Hier ist es wichtig in den notwendigen (betrachteten) Wellenlängenintervallen diese Eigenschaft zu erreichen. Für die Messung der Augenempfindlichkeitskurve ist neben der energiegleichen Strahlung sogar eine quantenintensitätsgleiche Strahlung erforderlich. Solche Messungen dienen der Ableitung von Normspektralfarbwerten. Farbmetrik. 2°- und 10°-Spektralfarbenzug im Vergleich Um einen dreidimensionalen Farbraum darstellen zu können, ist der Farbreiz des Wellenlängenspektrums auf die drei (farbsensitiven) Zapfentypen-Sensorentypen abzubilden. Dafür ist ein geeignetes System von Farbvalenzen, den Grundfarben für die Rot-, Grün-, Blauempfindlichkeiten aufzustellen. Die Rechenvorschrift dafür ist mit dem Tristimulusalgorithmus seit 1931 genormt. Notwendige Parameter wurden in späteren Untersuchungen präzisiert und im Prinzip bestätigt. Das Ergebnis in der grafischen Darstellung ist die „Schuhsohlenkurve“ der "Normfarbtafel", das sogenannte Chromatizitätsdiagramm. Die Spektralfarben liegen auf dem Umfang dieser Fläche. Die Spektralfarben sind also die gesättigsten Farben der jeweiligen dominanten Wellenlänge. Eine Abhängigkeit der Farbkoordinaten von der Wahrnehmung ergibt sich durch die unterschiedliche Lage des Spektralkurvenzuges, je nachdem ob das 2°-Sichtfeld oder ein 10°-Sichtfeld benutzt wird. Innerhalb des 2°-Feldes wird auf die Netzhautfläche des „besten Farbsehens“ abgebildet, in der Netzhaut stehen die Zapfen hier am dichtesten beieinander. Im 10°-Sichtfeld nimmt die Dichte der Zapfen schon ab und es tritt die Empfindung der Stäbchen hinzu. Dieses Sichtfeld entspricht einer A4-Fläche im normalen Sehabstand. Farbwahrnehmung. Die Zapfenzellen in der menschlichen Netzhaut (sowie auch anderer Lebewesen) besitzen je nach Typ unterschiedliche Empfindlichkeitsspektren, die bestimmte Bereiche des empfangenen Lichtspektrums abdecken. Die Verarbeitung der von den Zapfen stammenden Signale wandelt das empfangene Licht der verschiedenen Spektralbereiche und Intensitäten in wahrgenommene Farben um. Da die Gewichtung der Spektralanteile von den Wahrnehmungsbereichen der Zapfentypen abhängt, ist auch die Farbwahrnehmung direkt davon abhängig. Wird etwa von LEDs ein nahezu monochromatisches Licht dargeboten, so wird diese Lichtfarbe als sehr rein (gesättigt) und hell wahrgenommen, also als Spektralfarbe. Im Falle des menschlichen Sehens gibt es kein Lichtspektrum, das nur einen einzigen Zapfentyp reizt. Da sich die Bereiche der Zapfentypen überschneiden, werden immer mehrere Typen gleichzeitig angesprochen. Der Spektralfarbenzug nach CIE wird in der Normfarbtafel mit der Purpurgeraden ergänzt, die allerdings Mischfarben enthält. Physikalisch gibt es für Purpurtöne keine zugehörigen Spektralfarben. Diese werden nur bei gemischter Wahrnehmung von kurz- und langwelligen Licht gesehen. Im CIE-Diagramm entspricht den Purpurtönen mit höchster Sättigung diese Purpurgerade. Prinzipiell sind alle nicht spektralen Farben Mischfarben. Die menschliche Farbwahrnehmung bei Tagessehen (Photopisches Sehen) ist auf drei Rezeptortypen für kurze, mittlere und lange Wellenlängen begrenzt. Manche Tiere, vor allem Vögel, wie die Tauben, besitzen vier Farbrezeptoren. Dadurch können sie mehr Farbvarianten und Farbarten als ein Mensch unterscheiden. Andere Tierarten, wie Hunde, besitzen nur zwei Typen von Farbrezeptoren. Das führt zu einem kleineren Umfang an unterscheidbaren Farbtönen. Am langwelligen roten Ende des sichtbaren Spektrums grenzt der Bereich des unsichtbaren infraroten Lichtes an. Durch den stetigen Übergang in der Empfindlichkeit auf reizende Wellenlängen ist diese Grenze fließend (zwischen 720 nm und 830 nm) und unterliegt individuellen Schwankungen. Dies wird im Wesentlichen durch den chemischen Aufbau des Rhodopsins (Sehpurpurs) bestimmt. Der wahrgenommene Farbton ändert sich ab 650 nm nur geringfügig. Der infrarote Bereich des Spektrums wird als Wärmestrahlung bezeichnet, obwohl jede absorbierte elektromagnetische Strahlung ihr Energieäquivalent als Wärme erzeugt, egal ob es sich um längstwellige Radiostrahlung oder um harte (sehr kurzwellige) Gammastrahlung handelt. Die Wärmewirkung von Infrarot- und Radiostrahlung wird von Menschen direkt durch andere Rezeptoren wahrgenommen. Die Eindringtiefe der Strahlung wiederum ist wellenlängenabhängig. Nahe Infrarotstrahlung dringt nur wenige Millimeter in den Körper ein, Radiostrahlung wird im gesamten Körper umgesetzt. Dieser Effekt wird bei der Kurzwellenbestrahlung genutzt, um innere Organe zu erwärmen. Am kurzwelligen violetten Ende des sichtbaren Spektrums, bei Wellenlängen ab etwa 380 nm und kleiner, grenzt der Bereich des ultravioletten Lichtes an. Diese Wellenlängen rufen keine Reizung der menschlichen Rezeptoren hervor, deshalb ist ultraviolettes Licht unsichtbar. Aus dem gleichen Grund wie am infraroten Ende des Lichtspektrums ist die Sichtbarkeit der Strahlung zwischen 360 nm und 410 nm individuell und altersbedingt Schwankungen unterlegen, noch stärker als im infrarot-nahen Bereich. Die Pigmentierung der Hornhaut spielt hier eine große Rolle. Außerdem verfärbt sich mit zunehmendem Alter die Linse gelblich, wodurch kurzwelliges Licht stärker gefiltert wird. Bei Operationen am grauen Star ist nach Entfernung der getrübten Linse die Filterwirkung beseitigt (aphakisches Sehen), was zu einer ausgeprägten Verbesserung der Wahrnehmung kurzer Wellenlängen führt. Nach Einsetzen der Kunststofflinse ist dieser besondere Effekt wieder aufgehoben. Starrer Körper. Als starrer Körper wird ein physikalisches Modell eines nicht verformbaren Körpers bezeichnet. Der Körper kann eine kontinuierliche Massenverteilung aufweisen oder ein System von diskreten Massenpunkten sein (z. B. Atome, Moleküle in der Quantenmechanik). Die Nichtverformbarkeit ist eine Idealisierung, bei der drei beliebige Punkte des Körpers unabhängig von äußeren Kräften immer den gleichen Abstand zueinander besitzen, also keinerlei Durchbiegung oder innere Schwingung auftritt. Bestimmte Massenverteilungen mit einem besonders gearteten Trägheitsmoment eignen sich als Kreisel. Die Mechanik starrer Körper befasst sich mit der Bewegung starrer Körper unter dem Einfluss äußerer Kräfte. Durch die Modellvoraussetzungen treten dabei ausschließlich Bewegungen des gesamten Körpers in eine Richtung (Translationsbewegungen) und Rotationsbewegungen auf. Zusätzliche Bewegungsformen, wie Schwingungen einzelner Massenpunkte oder Verformungen des Körpers, werden durch die allgemeinere "Mechanik fester Körper" behandelt. Das Konzept des starren Körpers ist inkonsistent mit den Vorhersagen der Relativitätstheorie, da nach ihm stets der gesamte Körper auf Kräfte und Drehmomente gleichzeitig reagiert, was impliziert, dass ihre Wirkungen sich innerhalb des Körpers mit unendlicher Geschwindigkeit ausbreiten, insbesondere also schneller als mit der Vakuumlichtgeschwindigkeit c. Bei realen Körpern breiten sie sich hingegen üblicherweise mit der für den Körper spezifischen Schallgeschwindigkeit aus, die noch weit unterhalb von c liegt. Drehung eines starren Körpers um eine raumfeste Achse. Rotation eines Zylinders um zwei Achsen und Addition der Winkelgeschwindigkeit. Diese Gleichung gilt genau dann, wenn als Richtung des Vektors formula_1 die Rotationsachse gewählt wird. In Richtung des Vektors gesehen findet dabei die Rotation im Uhrzeigersinn statt. Wenn ein Körper um zwei Achsen rotiert, lassen sich für beide Achsen Vektoren zur Winkelgeschwindigkeit definieren. Ihre Summe ergibt dann die Gesamtrotation des Körpers. Es findet also insgesamt nur eine Rotation um eine Achse statt. Damit ist gewährleistet, dass die Winkelgeschwindigkeit als Vektor additiv ist und es daher sinnvoll ist, diese Größe als Vektor darzustellen. Allgemeine Bewegungen starrer Körper. Die Bewegung des Körpers bezüglich eines Inertialsystems lässt sich mit einer gleichmäßigen Translation aller Körperpunkte (und damit auch des Körperschwerpunkts) und der Rotation aller Körperpunkte um eine Körperachse darstellen. Die Lage eines beliebigen Punkts P erhält man durch Addition des Vektors vom Ursprung O des Inertialsystems zum Ursprung S des körperfesten Koordinatensystems und des Vektors vom Ursprung des körperfesten Systems zum Punkt P. Dabei ist formula_9 die Winkelgeschwindigkeit und formula_10 die Winkelbeschleunigung des starren Körpers. Der Vektor formula_11 ist im körperfesten Koordinatensystem K konstant. Die Umrechnung ins Inertialsystem 0 erfolgt über die Drehmatrix A. Freiheitsgrade und Konfigurationsraum. a> zur Beschreibung der Orientierung eines flugzeugfesten Koordinatensystems Die Freiheitsgrade eines "n"-Teilchen-Systems bilden einen sogenannten Konfigurationsraum. Dieser setzt sich bei starren Körpern aus drei Freiheitsgraden bezüglich der Position und drei weiteren bezüglich der Orientierung zusammen. Neben verschiedenen ortsfesten Koordinatensystemen, die eine Beschreibung der Position erlauben, bieten die Eulerschen Winkel eine Möglichkeit zur Beschreibung der Orientierung, die besonders in der Luft- und Raumfahrt eine wichtige Rolle einnimmt. Zur Anschauung kann ein freier Körper wie ein (kunstflugtaugliches) Flugzeug herangezogen werden, welches drei Freiheitsgrade einer geradlinigen Bewegung besitzt, da es sich frei in drei Raumdimensionen bewegen kann. Hinzu kommen drei weitere Freiheitsgrade der Drehungen um räumliche (unabhängige) Drehachsen. Offensichtlich vermindert nun jede Einschränkung der Bewegungmöglichkeit die Anzahl der Freiheitsgrade. Wird beispielsweise ein Massenpunkt des starren Körpers räumlich fixiert, so kann man in diesen den Ursprung des Bezugssystems legen. Damit fallen die drei Freiheitsgrade der Translation weg. Dadurch reduziert sich die Bewegung auf eine reine Änderung der Orientierung und es bleiben nur mehr drei Freiheitsgrade. Wird ein weiterer Punkt festgehalten, so kann der Körper nur noch um eine raumfeste Drehachse rotieren und hat damit nur noch einen Freiheitsgrad, nämlich die Rotation um diese Achse. Legt man schließlich noch einen dritten Punkt des Körpers fest, der sich nicht auf der Achse der ersten zwei Punkte befindet, so verliert er auch den letzten Freiheitsgrad und ist damit bewegungslos. Jede weitere räumliche Fixierung von Punkten führt nunmehr zu einer sogenannten statischen Überbestimmtheit, die in der Statik eine wichtige Rolle spielt. Ansätze zur Bestimmung der Bewegungsgleichung. Nach der Modellvoraussetzung gelten konstante Distanzen zwischen den Teilchen. Sinus und Kosinus. Sinus- und Kosinusfunktion (auch Cosinusfunktion) sind elementare mathematische Funktionen. Vor Tangens und Kotangens, Sekans und Kosekans bilden sie die wichtigsten trigonometrischen Funktionen. Sinus und Kosinus werden unter anderem in der Geometrie für Dreiecksberechnungen in der ebenen und sphärischen Trigonometrie benötigt. Auch in der Analysis sind sie wichtig. Wellen wie Schallwellen, Wasserwellen und elektromagnetische Wellen lassen sich als aus Sinus- und Kosinuswellen zusammengesetzt beschreiben, sodass die Funktionen auch in der Physik als harmonische Schwingungen allgegenwärtig sind. Graphen der Sinusfunktion (rot) und der Kosinusfunktion (blau). Beide Funktionen sind 2π-periodisch und nehmen Werte von −1 bis 1 an. Herkunft des Namens. Die lateinische Bezeichnung „Sinus“ „Bogen, Krümmung, Busen“ für diesen mathematischen Begriff wählte Gerhard von Cremona 1175 als Übersetzung der arabischen Bezeichnung „gaib oder jiba“ (جيب) „Tasche, Kleiderfalte“, selbst entlehnt von Sanskrit „jiva“ „Bogensehne“ indischer Mathematiker. Die Bezeichnung „Cosinus“ ergibt sich aus "complementi sinus", also Sinus des Komplementärwinkels. Diese Bezeichnung wurde zuerst in den umfangreichen trigonometrischen Tabellen verwendet, die von Georg von Peuerbach und seinem Schüler Regiomontanus erstellt wurden. Definition am rechtwinkligen Dreieck. Dreieck mit einem rechten Winkel in C. (Benennung von An- und Gegenkathete unter der Annahme, dass α der betrachtete Winkel ist.) Alle ebenen, zueinander ähnlichen Dreiecke haben gleiche Winkel und gleiche Längenverhältnisse der Seiten. Diese Eigenschaft wird benutzt, um Berechnungen am rechtwinkligen Dreieck durchzuführen. Sind nämlich die Längenverhältnisse im rechtwinkligen Dreieck bekannt, lassen sich die Maße von Winkeln und die Längen von Seiten berechnen. Deshalb haben die Längenverhältnisse im rechtwinkligen Dreieck auch besondere Namen. Die Längenverhältnisse der drei Seiten im rechtwinkligen Dreieck sind nur abhängig vom Maß der beiden spitzen Winkel. Da aber das Maß eines dieser Winkel das Maß des anderen Winkels bereits festlegt (die Winkelsumme der beiden spitzen Winkel im rechtwinkligen Dreieck beträgt stets 90°), hängen die Längenverhältnisse im rechtwinkligen Dreieck nur vom Maß eines der beiden spitzen Winkel ab. Der Sinus eines Winkels ist das Verhältnis der Länge der Gegenkathete (Kathete, die dem Winkel gegenüberliegt) zur Länge der Hypotenuse (Seite gegenüber dem rechten Winkel). Der Kosinus ist das Verhältnis der Länge der Ankathete (das ist jene Kathete, die einen Schenkel des Winkels bildet) zur Länge der Hypotenuse. Da die Hypotenuse die längste Seite eines Dreiecks bezeichnet (denn sie liegt dem größten Winkel, also dem rechten Winkel, gegenüber), bestehen die Ungleichungen formula_4 und formula_5. Wird statt von α von dem gegenüberliegenden Winkel β ausgegangen, so wechseln beide Katheten ihre Rolle, die Ankathete von α wird zur Gegenkathete von β und die Gegenkathete von α bildet nun die Ankathete von β und es gilt Da im rechtwinkligen Dreieck formula_8 gilt, folgt Auf dieser Beziehung beruht auch die Bezeichnung "Kosinus" als Sinus des Komplementärwinkels. Im rechtwinkligen Dreieck sind Sinus und Kosinus nur für Winkel zwischen 0 und 90 Grad definiert. Für beliebige Winkel wird der Wert der Sinus-Funktion als "y"-Koordinate und der der Kosinus-Funktion als "x"-Koordinate eines Punktes am Einheitskreis (siehe unten) benutzt. Hier ist es üblich, den Wert, auf den die Funktion angewendet wird (hier: den Winkel), als "Argument" zu bezeichnen. Dies betrifft insbesondere die Winkelfunktionen und die komplexe Exponentialfunktion (siehe unten). Definition am Einheitskreis. Trigonometrische Funktionen am Einheitskreis im ersten Quadranten Entstehung der Sinus- und Kosinusfunktion aus dem Einheitskreis Im rechtwinkligen Dreieck ist der Winkel zwischen Hypotenuse und Kathete nur für Werte von 0 bis 90 Grad definiert. Für eine allgemeine Definition wird ein Punkt formula_14 mit den Koordinaten formula_15 auf dem Einheitskreis betrachtet, hier gilt formula_16. Der Ortsvektor von formula_14 schließt mit der formula_18-Achse einen Winkel formula_19 ein. Der Koordinatenursprung formula_20, der Punkt formula_21 auf der formula_18-Achse und der Punkt formula_23 bilden ein rechtwinkliges Dreieck. Die Länge der Hypotenuse beträgt formula_24. Die Ankathete des Winkels formula_19 bezeichnet die Strecke zwischen formula_20 und formula_21 und hat die Länge formula_18, es gilt also Die Gegenkathete des Winkels formula_19 ist die Strecke zwischen formula_21 und formula_15 und hat die Länge formula_33, es gilt also Dieser entspricht der Strecke von formula_36 bis formula_37 in der Zeichnung rechts. Die formula_33-Koordinate eines Punktes im ersten Quadranten des Einheitskreises entspricht also dem Sinus des Winkels zwischen seinem Ortsvektor und der formula_18-Achse, während die formula_18-Koordinate dem Kosinus des Winkels entspricht. Eine Fortsetzung ergibt eine Definition von Sinus und Kosinus für beliebige Winkel. Für negative Winkel gilt die Beziehung aus der sich Sinus und Kosinus für den vierten Quadranten, also Winkel zwischen −90 und 0 Grad berechnen lassen. Der Sinus ist also eine ungerade Funktion, der Kosinus eine gerade. Für Winkel größer 90 Grad gilt womit sich Sinus und Kosinus für den zweiten und dritten Quadranten, also Winkel zwischen 90 und 270 Grad, berechnen lassen. Für Winkel kleiner als 90 Grad und größer als 270 Grad ergeben sich Sinus und Kosinus aus den Beziehungen Sinus und Kosinus sind also periodische Funktionen mit der Periode 360 Grad. Die Entstehung der Sinus- und Kosinusfunktion aus der Winkelbewegung veranschaulicht das Bild rechts. Im Einheitskreis entspricht die Bogenlänge (grün) dem Winkel im Bogenmaß. Die Strecke auf der x-Achse (ebenfalls grün) ist somit bei beiden Funktionen gleich der Bogenlänge. Analytische Definition. Die geometrischen Überlegungen zum Sinus und Kosinus sind eher heuristischer Natur. Sinus und Kosinus können auch auf einer axiomatischen Basis behandelt werden; dieser formalere Zugang spielt auch in der Analysis eine Rolle. Die analytische Definition erlaubt zusätzlich die Erweiterung auf komplexe Argumente. Sinus und Kosinus als komplexwertige Funktion aufgefasst sind holomorph und surjektiv. Reihenentwicklung in der Analysis. In der Analysis geht man von einer Reihenentwicklung aus und leitet umgekehrt daraus alles her, indem die Funktionen sin und cos durch die oben angegebenen Potenzreihen erklärt werden. Mit dem Quotientenkriterium lässt sich zeigen, dass diese Potenzreihen für jede komplexe Zahl formula_18 absolut und in jeder beschränkten Teilmenge der komplexen Zahlen gleichmäßig konvergieren. Diese unendlichen Reihen verallgemeinern die Definition des Sinus und des Kosinus von reellen auf komplexe Argumente. Auch formula_57 wird dort üblicherweise nicht geometrisch, sondern beispielsweise über diese cos-Reihe und die Beziehung formula_58 als das Doppelte der kleinsten positiven Nullstelle der Kosinusfunktion definiert. Damit ist eine präzise analytische Definition von formula_57 gegeben. Für kleine Werte zeigen diese Reihen ein sehr gutes Konvergenzverhalten. Zur numerischen Berechnung lassen sich daher die Periodizität und Symmetrie der Funktionen ausnutzen und den formula_18-Wert bis auf den Bereich formula_61 bis formula_62 reduzieren. Danach sind für eine geforderte Genauigkeit nur noch wenige Glieder der Reihe zu berechnen. Das Taylorpolynom der Kosinusfunktion bis zur vierten Potenz z. B. hat im Intervall formula_63 einen relativen Fehler von unter 0,05 %. Im Artikel Taylor-Formel sind einige dieser so genannten Taylorpolynome grafisch dargestellt und eine Näherungsformel mit Genauigkeitsangabe angegeben. Zu beachten ist allerdings, dass die Teilsummen der Taylorpolynome nicht die bestmögliche numerische Approximation darstellen; beispielsweise in Abramowitz-Stegun finden sich Näherungspolynome mit noch kleinerem Approximationsfehler. Beziehung zur Exponentialfunktion. formula_65 formula_66 Somit ergibt sich die sogenannte Eulerformel Für eine reelle Zahl formula_18 ist also formula_69 der Realteil und formula_70 der Imaginärteil der komplexen Zahl formula_71. Diese Gleichung gilt nicht nur für reelle Argumente, sondern für beliebige komplexe Zahlen. Tatsächlich wurde an keiner Stelle der Herleitung verwendet, dass formula_18 eine reelle Zahl ist. Somit ergibt sich eine alternative Definition für die Sinus- und Kosinusfunktion. Durch Einsetzen der Exponentialreihe, leiten sich die folgenden oben vorgestellten Potenzreihen ab. Ausgehend von dieser Definition lassen sich viele Eigenschaften, wie zum Beispiel die Additionstheoreme des Sinus und Kosinus, nachweisen. Definition über analytische Berechnung der Bogenlänge. Die Definition des Sinus und Kosinus als Potenzreihe liefert einen sehr bequemen Zugang, da die Differenzierbarkeit durch die Definition als konvergente Potenzreihe automatisch gegeben ist. Die Eulerformel ist ebenfalls eine einfache Konsequenz aus den Reihendefinitionen, da sich die Reihen für formula_78 und formula_79 ganz offenbar zur Exponentialfunktion zusammenfügen, wie oben gezeigt wurde. Durch Betrachtung der Funktion formula_80, die das Intervall formula_81 auf die Kreislinie abbildet, ergibt sich die Beziehung zur Geometrie, denn formula_53 und formula_52 sind nichts weiter als der Real- bzw. Imaginärteil von formula_84, das heißt die Projektion dieses Punktes auf die Koordinatenachsen. Neben formula_85 gibt es auch andere sinnvolle Parametrisierungen des Einheitskreises, etwa Geht man von dieser Formel aus, erhält man einen alternativen Zugang. Die Länge dieser Kurve wird auch als Bogenlänge bezeichnet und berechnet sich als Wie leicht zu zeigen ist, ist formula_88 ungerade, stetig, streng monoton wachsend und beschränkt. Da die gesamte Bogenlänge dem Kreisumfang entspricht, folgt, dass das Supremum von formula_89 gleich formula_90 ist; formula_90 wird bei dieser Vorgangsweise analytisch als Supremum von formula_89 definiert. Weil sie stetig und streng monoton wachsend ist, ist sie auch invertierbar, und für die Umkehrfunktion Bei dieser Definition des Sinus und Kosinus über die analytische Berechnung der Bogenlänge werden die geometrischen Begriffe sauber formalisiert. Sie hat allerdings den Nachteil, dass im didaktischen Aufbau der Analysis der Begriff der Bogenlänge erst sehr spät formal eingeführt wird und daher Sinus und Kosinus erst relativ spät verwendet werden können. Definition als Lösung einer Funktionalgleichung. Ein anderer analytischer Zugang ist, Sinus und Kosinus als Lösung einer Funktionalgleichung zu definieren, die im Wesentlichen aus den Additionstheoremen besteht: Gesucht ist ein Paar stetiger Funktionen formula_103, das für alle formula_104 die Gleichungen erfüllt. Die Lösung formula_107 definiert dann den Sinus, die Lösung formula_108 den Kosinus. Um Eindeutigkeit zu erreichen, sind einige Zusatzbedingungen zu erfüllen. In Heuser, Lehrbuch der Analysis, Teil 1 wird zusätzlich gefordert, dass ist. Bei diesem Zugang wird offensichtlich die Differenzierbarkeit des Sinus in 0 vorausgesetzt; formula_90 wird in weiterer Folge analytisch als das doppelte der kleinsten positiven Nullstelle des Kosinus definiert. Verwendet man den Zugang von Leopold Vietoris und berechnet die Ableitung des Sinus aus den Additionstheoremen, so ist es zweckmäßiger, formula_90 auf geeignete Weise analytisch (beispielsweise als Hälfte des Grenzwerts des Umfangs des dem Einheitskreis eingeschriebenen formula_115-Ecks) zu definieren und dann die Differenzierbarkeit der Lösung dieser Funktionalgleichung zu beweisen. Als Zusatzbedingung zu den Additionstheoremen fordert man dann beispielsweise Unter den gewählten Voraussetzungen ist die Eindeutigkeit der Lösung der Funktionalgleichung relativ einfach zu zeigen; die geometrisch definierten Funktionen Sinus und Kosinus lösen auch die Funktionalgleichung. Die Existenz einer Lösung lässt sich analytisch beispielsweise durch die Taylorreihen von Sinus und Kosinus oder eine andere der oben verwendeten analytischen Darstellungen von Sinus und Kosinus die Funktionalgleichung nachweisen und tatsächlich lösen. Produktentwicklung. formula_122 ist dabei im Bogenmaß anzugeben. Zusammenhang zwischen Sinus und Kosinus. Insbesondere folgt daraus formula_126 und formula_127. Diese Ungleichungen gelten aber nur für reelle Argumente formula_19; für komplexe Argumente können Sinus und Kosinus beliebige Werte annehmen. Verlauf des Sinus in den vier Quadranten. Für Argumente außerhalb dieses Bereiches ergibt sich der Wert des Sinus daraus, dass der Sinus periodisch mit der Periode 360° (bzw. 2π rad) ist, d. h. formula_149. Außerdem gilt formula_150. Verlauf des Kosinus in den vier Quadranten. Der Kosinus stellt einen um 90° (bzw. π/2 rad) phasenverschobenen Sinus dar und es gilt formula_151. Für Argumente außerhalb dieses Bereiches lässt sich der Wert des Kosinus – so wie der des Sinus – periodisch mit der Periode 360° (bzw. 2π rad) bestimmen, d. h. formula_173. Außerdem gilt formula_174. Komplexes Argument. Farbfunktion, die für die beiden obigen Bilder verwendet wurde. Für komplexe Argumente formula_175 gilt wie aus den Additionstheoremen und den Zusammenhängen formula_178 sowie formula_179 mit den Hyperbelfunktionen ersichtlich ist. Während der reelle Sinus (Kosinus) stets auf Werte aus dem Intervall formula_180 beschränkt ist, sind Sinus und Kosinus auf formula_181 unbeschränkt; dies folgt aus dem Satz von Liouville. Sinus und Kosinus können für komplexe Argumente sogar beliebige reelle oder komplexe Werte annehmen. Für reelle formula_18 nimmt formula_53 diesen Wert aber nie an. In den Bildern auf der rechten Seite gibt die Farbe den Winkel des Arguments an, die Farbintensität den Betrag, wobei volle Intensität für kleine Werte steht und bei großen Beträgen ein Übergang zu weiß stattfindet. Die genaue Zuordnung ergibt sich aus nebenstehendem Bild, das jeder komplexen Zahl eine Farbe und eine Intensität zuordnet. An den Bildern zu Sinus und Kosinus ist erkennbar, dass auch im Komplexen Periodizität in formula_18-Richtung vorliegt (nicht aber in formula_33-Richtung) und dass Sinus und Kosinus durch eine Verschiebung um formula_134 auseinander hervorgehen. Wichtige Funktionswerte. Da Sinus und Kosinus periodische Funktionen mit der Periode formula_188 (entspricht im Gradmaß formula_189) sind, reicht es, die Funktionswerte der beiden trigonometrischen Funktionen für den Bereich formula_81 (entspricht dem Bereich formula_129 bis formula_189) zu kennen. Funktionswerte außerhalb dieses Bereichs können also aufgrund der Periodizität durch den Zusammenhang bestimmt werden. In Gradmaß lautet der Zusammenhang analog Hierbei bezeichnet formula_195 eine ganze Zahl. Die folgende Tabelle listet die wichtigsten Funktionswerte der beiden trigonometrischen Funktionen auf. Weitere Funktionswerte können auf einer im Abschnitt Weblinks aufgeführten Seite gefunden werden. Weitere mit Quadratwurzeln angebbare Funktionswerte. Über die Berechnung der fünften Einheitswurzeln mittels einer quadratischen Gleichung ergibt sich Mit Hilfe der Additionstheoreme lassen sich viele weitere solche Ausdrücke berechnen wie beispielsweise die Seitenlänge eines regulären Fünfecks über und formula_237, woraus folgt Aus formula_239 und formula_237 lassen sich dann z. B. formula_241 und dann rekursiv auch alle formula_242, formula_243 ermitteln. Generell gilt, dass formula_244 und formula_245 genau dann explizit mit den vier Grundrechenarten und Quadratwurzeln darstellbar sind, wenn der Winkel formula_246 mit Zirkel und Lineal konstruierbar ist, insbesondere also wenn formula_246 von der Gestalt ist, wobei formula_243, formula_250 und die formula_251 für formula_252 Fermatsche Primzahlen sind. In obigem Beispiel von formula_253 ist formula_254 und der Nenner gleich formula_255 Fixpunkte. Die Fixpunktgleichung formula_256 besitzt Die Gleichung formula_258 hat als einzige reelle Lösung Die Lösung dieser Fixpunktgleichung wurde bereits 1748 von Leonhard Euler untersucht. Sie ist ein einfaches Beispiel für einen nichttrivialen global attraktiven Fixpunkt, das heißt die Fixpunktiteration formula_260 konvergiert für jeden Startwert formula_261 gegen die Lösung. Mit dem Satz von Lindemann-Weierstraß kann nachgewiesen werden, dass es sich dabei um eine transzendente Zahl handelt. Diese mathematische Konstante wird im englischen Sprachraum auch als "Dottie number" bezeichnet und mit dem armenischen Buchstaben ա (Ayb) abgekürzt. Berechnung. Die Tabellierung aller Werte ist angezeigt bei geschwindigkeitskritischen Echtzeitsystemen, wenn diese nur eine recht kleine Winkelauflösung benötigen. CORDIC ist i.d.R. effizienter umsetzbar als die Taylor-Reihe und zudem besser konditioniert. Umkehrfunktion. Da sich zu einem gegebenen Wert formula_262 ein passender Winkel im ersten oder vierten Quadranten und zu einem gegebenen Wert formula_263 ein passender Winkel im ersten oder zweiten Quadranten konstruieren lässt, folgt aus diesen geometrischen Überlegungen, dass die Funktionen werden Arkussinus bzw. Arkuskosinus genannt. Der Name rührt daher, dass sich deren Wert nicht nur als Winkel, sondern auch als Länge eines Kreisbogens (Arcus bedeutet Bogen) interpretieren lässt. In der Analysis ist die Verwendung des Bogenmaßes erforderlich, da die Winkelfunktionen dort für das Bogenmaß definiert sind. sind auf den angegebenen Definitionsbereichen streng monoton, surjektiv und daher invertierbar. Eine andere Interpretation des Wertes als doppelter Flächeninhalt des dazugehörigen Kreissektors am Einheitskreis ist ebenfalls möglich; diese Interpretation ist insbesondere für die Analogie zwischen Kreis- und Hyperbelfunktionen nützlich. Zusammenhang mit dem Skalarprodukt. das Skalarprodukt ist also die Länge der Vektoren multipliziert mit dem Kosinus des eingeschlossenen Winkels. In endlichdimensionalen Räumen lässt sich diese Beziehung aus dem Kosinussatz ableiten. In abstrakten Skalarprodukträumen wird über diese Beziehung der Winkel zwischen Vektoren definiert. Zusammenhang mit dem Kreuzprodukt. Der Sinus steht in enger Beziehung mit dem Kreuzprodukt Additionstheoreme. Die Additionstheoreme der trigonometrischen Funktionen lauten Ableitung. Wird formula_122 im Bogenmaß angegeben, so gilt für die Ableitung der Sinusfunktion und daraus schließlich auch alle höheren Ableitungen von Sinus und Kosinus Wird der Winkel formula_19 in Grad gemessen, so kommt nach der Kettenregel bei jeder Ableitung ein Faktor formula_283 dazu, also beispielsweise formula_284. Um diese störenden Faktoren zu vermeiden, wird in der Analysis der Winkel ausschließlich im Bogenmaß angegeben. Geometrische Anwendungen. Andere wichtige Anwendungen sind der Sinussatz und der Kosinussatz. Fourierreihen. Im Hilbertraum formula_291 der auf dem Intervall formula_292 bezüglich des Lebesgue-Maßes quadratisch integrierbaren Funktionen bilden die Funktionen ein vollständiges Orthogonalsystem, das sogenannte "trigonometrische System". Daher lassen sich alle Funktionen formula_294 als Fourierreihe darstellen, wobei die Funktionenfolge formula_296 in der "L"2-Norm gegen formula_297 konvergiert. Physikalische Anwendungen. In der Physik werden Sinus- und Kosinusfunktion zur Beschreibung von Schwingungen verwendet. Insbesondere lassen sich durch die oben erwähnten Fourierreihen beliebige periodische Signale als Summe von Sinus- und Kosinusfunktionen darstellen, siehe Fourieranalyse. Elektrotechnische Anwendungen. In der Elektrotechnik sind häufig elektrische Stromstärke "I" und Spannung "U" sinusförmig. Wenn sie sich um einen Phasenverschiebungswinkel "φ" unterscheiden, dann unterscheidet sich die aus Stromstärke und Spannung gebildete Scheinleistung "S" von der Wirkleistung "P". Bei nicht sinusförmigen Größen (z. B. bei einem Netzteil mit herkömmlichem Brückengleichrichter am Eingang) entstehen Oberschwingungen, bei denen sich kein einheitlicher Phasenverschiebungswinkel angeben lässt. Dann lässt sich zwar noch ein Leistungsfaktor angeben dieser Leistungsfaktor "λ" darf aber mit cos "φ" nicht verwechselt werden. Sambia. Sambia ("Republic of Zambia") – vormals Nordrhodesien – ist ein Binnenstaat im südlichen Afrika. Er grenzt an Angola, die Demokratische Republik Kongo, Tansania, Malawi, Mosambik, Simbabwe, Botswana und Namibia. Der Name leitet sich vom Fluss Sambesi ab. Sambia wurde am 24. Oktober 1964 vom Vereinigten Königreich unabhängig. Im Human Development Index 2014 liegt Sambia auf Platz 141 von 187. Geographie. Der größte Teil Sambias besteht aus relativ wenig reliefierten Hochebenen zwischen 1000 und 1400 Meter Höhe. Diese Hochebenen sind allerdings sehr unterschiedlich. Im Norden stellt das Bangweulubassin den Boden eines riesigen Kraters dar, das im Süden von der Hochebene des Copperbelt, im Westen vom langen Luapulatal, im Norden von den Mporokosobergen und im Osten vom Muchinga-Gebirge begrenzt wird. Entlang dieses Gebirges zieht sich von Nord nach Süd das Luangwatal, das im Norden von Ausläufern des südlichen tansanischen Hochlandes und im Osten durch die Mafinga Hills begrenzt wird, die in das zentrale Hochland von Malawi übergehen und in denen sich die höchste Landesstelle befindet, der Mafinga mit 2339 Metern über dem Meeresspiegel. Der Westen Sambias mit dem Quellgebiet des Sambesi ist ein flaches Sandgebiet der Kalahari-Wüste, das nach Süden hin sanft abfällt. Erst entlang des Sambesi-Steilhanges finden sich dramatische Reliefs. Die vorherrschende Vegetation in weiten Teilen des Landes sind Savannen ("siehe auch" Miombo). Der Sambesi entspringt in Nordsambia und bildet Sambias Südgrenze zu Namibia, Botswana und Simbabwe (Viktoriafälle), wobei er auch den aufgestauten Karibasee durchfließt. Wasserfälle. Sambia liegt auf einem über 1000 Meter hohen Plateau, das von tiefen Tälern und Senken umgeben ist. Deshalb gibt es zahllose Wasserfälle im Land, von denen die Victoriafälle des Sambesi die bekanntesten sind. Von den weiteren Fällen sind die des Flusses Kalungwishi im Norden hervorzuheben. Er bietet mit den Lumangwefälle, Chimpepefälle, Kabwelumafälle, Kundabwikufälle und Mumbulumafälle eine Serie, die durch die Kapumafälle, die Lupupafälle und die Pulefälle an seinen Nebenflüssen ergänzt wird. Auch der Luapula hat mit den Mambilimafällen und den fast unzugänglichen Mambatutafällen einzigartige Wildwasserschnellen mit großem Gefälle. Am Tanganyikasee stürzen die Kalambofälle und die Lunzuafälle über 200 Meter in die Tiefe. Nahe dabei liegen die Sanzyefälle. Neben diesen Naturschauspielen gibt es weitere Wasserfälle wie die Senkelefälle, Chusafälle und Namundelafälle des Flusses Mansha zwischen Mpika und Kasama. In dieser Gegend liegen auch die Chishimbafälle, Mutinondo-Wildnisfälle und Lwitikilafälle. Weiter südlich finden sich die Kundalilafälle. Seen und Sümpfe. Sambia hat vier verschiedene Seen- und Sumpfgebiete. Der Karibastausee des Sambesi liegt im Süden. Das System des Kafue mit den Lukangasümpfe, dem Itezhitezhi-Stausee und der Kafuestausee prägt Zentralsambia südlich des Copperbelts. Das Bangweulubassin mit dem Bangweulusee und den ihn umgebenden Bangweulusümpfen breitet sich nördlich des Copperbelt aus. Ganz im Norden in den geologischen Brüchen liegen im Rifttal der Tanganyikasee und in der Senke hinter dem Bangweulublock mit den Mporokosobergen der Mwerusee sowie der Mweru-Wantipa-See. Flüsse. Sambia wird durch zwei Flusssysteme geprägt: das Einzugsgebiet des Sambesi nach Süden und das des Kongo nach Norden. Beide Einzugsgebiete sind grenzüberschreitend und von kontinentaler Bedeutung. Das System des Sambesi teilt sich in den Oberlauf mit den Nebenflüssen Cuando, Lungwebungu, Luanginga von Angola her, Kabompo mit Westlicher Lunga, Luena, Lufupa von Osten, und Mittellauf mit den Nebenflüssen Kafue mit Lunga und Lusiwishi sowie Chongwe und schließlich dem Luangwa mit seinen Nebenflüssen Mansha, Lunsemfwa, Lukusashi und Mulingushi. Das Teilsystem des Kongo in Sambia ist der Chambeshi, der wie zahlreiche kleinere Flüsse ins Bangweulu-Bassin fließt und dieses als Luapula verlässt, um in den Mwerusee zu münden, zu dem von den Mporokosobergen auch der Kalungwishi kommt. Nationalparks. Südluangwa-Nationalpark — Nordluangwa-Nationalpark — Luambe-Nationalpark — Lukusuzi-Nationalpark — Nyika — Nsumbu-Nationalpark — Mweru-Wantipa-See mit Mweru Wantipa-Nationalpark — Lusenga-Plain-Nationalpark — Bangweulusümpfe — Kasanka-Nationalpark — Lavushi-Manda-Nationalpark — Isangano-Nationalpark — Kafue-Nationalpark — Lochinvar-Nationalpark — Blaue-Lagune-Nationalpark — Liuwa-Plain-Nationalpark — West-Lunga-Nationalpark — Sioma-Ngweizi-Nationalpark — Mosi-oa-Tunya — Unterer-Zambesi-Nationalpark Bevölkerung. Die zusammengefasste Fruchtbarkeitsziffer lag im Jahr 2008 bei 5,5 Kindern pro Frau. Diese hohe Fruchtbarkeitsrate war unter anderem dadurch bedingt, dass nur 23 % der Frauen moderne Verhütungsmethoden zur Verfügung standen. 46 % der Bevölkerung sind unter 15 Jahre alt, 2 % über 65 Jahre alt. Volksgruppen. Sambias schwarzafrikanische Bevölkerung (98,1 %) besteht zu 99 % aus etwa 72 bantusprachigen ethnischen Gruppen. 90 % der Bevölkerung gehören zu acht ethnolinguistischen Gruppen. Die größte der acht Gruppen sind die Bemba, die 21 % der Bevölkerung ausmachen. Das Volk der Rotse – 5,7 % der Einwohner – lebt vor allem im Süden. Aus den Reihen der Rotse kommen viele Persönlichkeiten der Politik und Wirtschaft. Die Tradition der Bemba wie auch der Rotse, die beide ursprünglich aus dem südöstlichen Kongobecken stammen, ist durch die Institution des Häuptlingstums geprägt. Im Süden des Landes sind schon seit Jahrtausenden die Tonga mit 13,6 % der Gesamtbevölkerung ansässig. Die Vertreibung dieser im Sambesital lebenden Gruppe durch die Briten im Zuge des Karibadammbaus hat starke Veränderung ihrer traditionellen Kultur mit sich gebracht. Weitere der acht größten Ethnien sind die Nyanja-Chewa (7,4 %), die Nsenga (5,3 %), die Tumbuka (4,4 %), die Ngoni (4 %) und die Lala (3,1 %). Kleinere Minderheiten bilden gemäß der Volkszählung von 2010 die Kaonde (2,9 %), die Namwanga (2,8 %), die Lunda (2,6 %), die Mambwe (2,5 %), die Luvale (2,2 %), die Lamba (2,1 %), die Ushi (1,9 %), die Lenje (1,6 %), die Bisa (1,6 %), die Mbunda (1,2 %) und die Luba. Andere Volksgruppen machen 13,8 % aus. Von der Bevölkerung der Khoisan mit inzwischen lediglich 0,7 % Anteil leben nur noch die Twa in kleinen Gruppen im Bereich des Bangweulusees. Daneben gibt es (zu 1,2 %) Europäer und Inder. Sprachen. Es werden hauptsächlich Bantusprachen gesprochen; einzige Amtssprache ist allerdings Englisch, obwohl sie nur von 1,7 % der Bevölkerung als Muttersprache gesprochen wird. Als Verkehrssprachen sind Bemba (3,3 Millionen Sprecher in Sambia, wird also von 33,4 % der Bevölkerung gesprochen) und Nyanja (803.000 Sprecher; 14,7 %) verbreitet. Nyanja wird auch in der Hauptstadt gesprochen, zusätzlich kommen 4,5 % Chewa-Sprecher. Auch ChiTonga (990.000 Sprecher; 11,4 %) ist eine verbreitete Sprache. Lozi (610.000 Sprecher; 5,5 %), die Sprache der Rotse, wird in weiten Teilen des Südens als Verkehrssprache genutzt. Zu den 43 gesprochenen Sprachen im Land zählen gemäß Volkszählung 2010 ferner Nsenga mit 2,9 %, Tumbuka mit 2,5 %, Lunda (Nordwest) 1,9 %, Kaonde 1,8 %, Lala mit 1,8 %, Lamba mit 1,8 %, Luvale mit 1,5 %, Mambwe mit 1,3 %, Namwanga mit 1,2 %, Lenje mit 1,1 % und Bisa mit 1 % Anteil. Andere Sprachen machen 9,4 % aus. Religionen. Die Verfassung des Landes definiert Sambia per Verfassungsänderung 1996 als christliche Nation. Die Religion mit den meisten Anhängern ist das Christentum in vielen Konfessionen, die teilweise auf unterschiedliche Missionarstätigkeit zurückgehen. Gemäß Volkszählung 2010 sind 75,3 % der Einwohner Protestanten (darunter Anglikaner, Anhänger der Pfingstbewegung und der Neuapostolischen Kirche) und 20,2 % römisch-katholisch. Daneben bestehen Naturreligionen in Sambia, die sich oft mit dem Christentum überlappen. Bekannt ist die Religion der Tumbuka mit dem Vimbuza-Kult. Diese Besessenheitskulte werden in Sambia als Mashawe zusammengefasst. Muslime (überwiegend sunnitisch) machen 0,5 % aus. Es gibt auch Bahai (rund 220.000, Stand 2005) sowie Hindus und Buddhisten. Epidemologie. Sambia gehört zu den Ländern mit der höchsten HIV-Infektionsrate. Dies erklärt den starken Rückgang der Lebenserwartung zwischen 1990 und 2005 von 60 (im Jahr 1990) auf etwa 40 Jahre. Im Jahr 2006 gab es 750.000 AIDS-Waisen in Sambia. Für das Jahr 2015 wurde damals mit einer Million Waisen gerechnet, was 20 Prozent der Kinder im Land entspräche. Die meisten der Waisen erhalten keine formale Schulausbildung. Sechs Prozent leben auf der Straße, UNICEF spricht von zehn Prozent. Nur ein Prozent findet Platz in einem Waisenhaus. In den letzten Jahren ist die HIV-Infektionsrate etwas gesunken. Die WHO gibt als durchschnittliche Lebenserwartung nun wieder 57 Jahre an (Stand 2012). Die Säuglingssterblichkeit lag im Jahr 2008 bei 100 je 1.000 Geburten, die Müttersterblichkeit bei 830 je 100.000 Geburten. Nur 43 % der Geburten konnten medizinisch betreut werden. Die Lebenserwartung war bei den Frauen mit 37 Jahren etwas geringer als bei den Männern mit 38 Jahren. Geschichte. Das heutige Sambia war bereits in frühmenschlicher Zeit besiedelt, wie der ein Schädelfund in Kabwe („Kabwe 1“) bezeugt. Frühe Bewohner waren die San, die später durch Bantu verdrängt wurden. Etwa im Jahr 1000 begann der Kupferbergbau. 1835 gelangten im Zuge der Mfecane Nguni aus dem südafrikanischen Raum in das Gebiet. Der erste Europäer im heutigen Sambia war der britische Forschungsreisende David Livingstone im Jahr 1851. Nachdem der Brite Cecil Rhodes 1888 mehrere Verträge mit lokalen Herrschern geschlossen hatte, kam das Gebiet 1890 zur britischen Kolonie Rhodesien. 1918 gab es eine Pandemie der Spanischen Grippe, die zahlreiche Todesopfer forderte. 1923 wurde das Gebiet als Nordrhodesien Teil des britischen Protektorats Rhodesien. Ab 1930 wurde der Kupferbergbau intensiviert; im selben Jahr gab es erstmals größere Streiks der schwarzen Bergleute, der sich gegen die Ungleichbehandlung von schwarzen und weißen Bergleuten richtete. Von 1954 bis zur Unabhängigkeit 1964 war Nordrhodesien Teil der "Zentralafrikanischen Föderation", zusammen mit Südrhodesien (heute Simbabwe) und Njassaland (heute Malawi). 1964 wurde Kenneth Kaunda von der United National Independence Party (UNIP) zum ersten Präsidenten Sambias gewählt. Doch Sambias Reichtum, das Kupfer, konnte weder durch Südrhodesien per Bahn exportiert werden (UNO-Sanktionen gegen die dortige Revolte der weißen Farmer gegen Großbritannien), noch erbrachte es bei stark sinkenden Weltmarktpreisen für Kupfer hohe Einnahmen. Kenneth Kaunda vermochte die steigende Korruptheit von Verwaltung und Regierungspartei nicht einzudämmen. 1973 wurde Sambia von Kaunda zum Einparteienstaat erklärt, nachdem es Unruhen wegen der neuen Verfassung gegeben hatte. Kaunda ließ nach massivem Druck von Zivilgesellschaft und internationalen Gebern im Jahr 1990 die erste demokratische Mehrparteienwahl seit der ersten Republik zu. Nach einer Verfassungsänderung und damit verbundenen Parteigründungen wurde 1991 Frederick Chiluba zum neuen Präsidenten gewählt, die neue Regierungspartei war nun das Movement for Multi-Party Democracy (MMD). Damit fand einer der ersten friedlichen Machtwechsel durch Abwahl eines Regierungschefs in Afrika statt. Nach der umstrittenen Wahl am 2. Januar 2002 wurde Levy Mwanawasa Präsident und Staatschef. Die Wahl wurde von EU-Beobachtern als chaotisch und nicht fair bezeichnet. Präsident Levy Mwanawasa wurde am 1. Oktober 2006 für eine zweite Amtszeit wiedergewählt. Nach Mwanawasas Tod im August 2008 übernahm Vizepräsident Rupiah Banda zunächst kommissarisch das Amt des Staatspräsidenten. Bei der Neuwahl des Staatspräsidenten konnte sich Banda am 30. Oktober 2008 nach staatlichen Angaben knapp vor dem Oppositionsführer Michael Sata (Patriotic Front, PF) durchsetzen. Am 23. September 2011 setzte sich Michael Sata gegen seinen politischen Gegner Rupiah Banda bei den Präsidentschaftswahlen durch. Nach der Machtübernahme Satas fanden zahlreiche Korruptionsprozesse statt. Dabei wurden vor allem Angehörige der bisherigen Regierung verurteilt. In diesem Zusammenhang wurden auch ehemals privatisierte Betriebe wieder verstaatlicht, Oppositionelle wurden verfolgt und mundtot gemacht. 70 Prozent der Staatsangestellten gehörten der Ethnie von Michael Sata, den Bemba, an. Nachdem Michael Sata im Oktober 2014 verstorben war, wurde der schottischstämmige Guy Scott zum Interimspräsidenten ernannt. Anfang Februar 2015 wurde er durch Edgar Lungu (PF) abgelöst, seine Vizepräsidentin ist Inonge Wina. Politik. Die MMD ist die Partei des Präsidenten. Die Länge der Legislaturperiode beträgt fünf Jahre. 27 Vertreter ethnischer Gruppen bilden das "House of Chiefs". Das Rechtswesen orientiert sich am britischen Recht sowie (meist familienrechtlich) an Stammesrecht. Menschenrechte. Verglichen mit vielen Nachbarländern in der Region wird die Lage der Menschenrechtssituation eher positiv bewertet. Allerdings sind in Sambia unter anderem das Recht auf freie Meinungsäußerung sowie die Versammlungs- und die Bewegungsfreiheit laut einem Bericht von Amnesty International eingeschränkt. Es gab auch weitere Berichte über Drohungen von Regierungsbeamten gegen regierungskritische Journalisten und zivilgesellschaftliche Organisationen. Sambia hält auch im Jahr 2010 weiterhin an der Todesstrafe fest. Aufgrund der sehr hohen Zahl von AIDS-Fällen müssen viele ältere Kinder nach dem Tod der Eltern die Familie versorgen. Insgesamt müssen 1,2 Millionen der 7–14-jährigen Kinder arbeiten. Das entspricht fast der Hälfte dieser Altersklasse. Homosexuelle, Bisexuelle und Transgender werden von offizieller Seite diskriminiert und stigmatisiert, so die Menschenrechtsorganisation Human Rights Watch. Auch einvernehmliche homosexuelle Handlungen unter Männern gelten in Sambia als strafbar und können mit Haftstrafen von bis zu 14 Jahren geahndet werden. Allgemeines. Landwirtschaft und Kupfer- und Kobaltbergbau und -verhüttung im "Copperbelt", einem Bergwerksdistrikt im Norden mit großen Städten wie Kitwe, Ndola und Mufulira, sind die tragenden Sektoren der Wirtschaft in Sambia. In Kabwe (im zentralen Sambia) werden auch Zinn- und Bleibergbau betrieben. Dienstleistungen und Industrie sind unterentwickelt. Trotz aller wirtschaftlicher Anstrengungen zählt Sambia nach wie vor zu den ärmsten Ländern der Welt: noch 2003 belief sich der Anteil der Bevölkerung mit weniger als 1 US-Dollar pro Tag auf 64 %. 80 % der Bevölkerung sind in der Landwirtschaft beschäftigt, weitere 14 % im Bergbau. Die Kupferindustrie ist eine der Hauptquellen des Bruttoinlandsproduktes und der Staatseinnahmen. Kupfer und Kobalt steuern mehr als 75 % (1997) der sambischen Exporteinnahmen bei, während weitere 3 % durch andere Bergbauprodukte wie Blei, Zink oder Edelsteine erwirtschaftet werden. Durch die starke Bedeutung des Kupferbergbaus wurde Sambia in den letzten Jahren stark durch die Probleme dieses Sektors getroffen. So ging die Kupferproduktion von 755.000 Tonnen im Jahr 1969 bis auf 260.000 Tonnen (1999) zurück, was einem Weltmarktanteil von 2,1 % entsprach und Sambia 1999 auf Platz zwölf der kupferproduzierenden Länder stellte. Bedingt durch die steigenden Kupferpreise konnte die Produktion im Jahre 2005 wieder auf 550.000 Tonnen gesteigert werden. In der Bergbauindustrie Sambias sind zurzeit etwa 37.000 Menschen beschäftigt. Damit ist die Kupferindustrie der wichtigste private Arbeitgeber. Seit 1976 ist Sambia mit dem Hafen Daressalam in Tansania durch die "Tanzania-Zambia Railway (TAZARA)", den Tanzam Highway und eine Ölpipeline verbunden. Mit dem Fall des Kupferpreises ab den 1970er Jahren geriet das Land in eine wirtschaftliche Krise. Es gab keinen weiteren wirtschaftstragenden Sektor mehr. Es folgten Importkontrollen. Der Staat achtete darauf, dass die sambische Agrarproduktion nur im Inland vermarktet wurde, und blockierte so eine Agrarerzeugung für den Weltmarkt. Ab 1991 erzwangen IMF und Weltbank etliche Reformen, darunter die Privatisierung der Kupferproduktion und der Zulieferbetriebe für die Agrarwirtschaft. Trotzdem ist bis heute der staatliche Einfluss bei der Verteilung von Saaten und Kunstdünger überall präsent. Die Privatisierung hatte nicht nur positive Folgen, denn die staatlichen Agenturen wurden nur für lukrative Gegenden verkauft und brachen zu anderen Teilen einfach weg. Schwache Regionen, vor allem schwer erreichbare, standen plötzlich ohne jede Versorgung da. Im Bangweulubassin und in den oberen Sambesiprovinzen hat das zur Verarmung geführt. Zudem wurden Preisschwankungen prinzipiell zu Lasten der Bauern genutzt. Dazu kamen eine hohe Inflation der Landeswährung Kwacha und demgemäß hohe Kreditzinsen. Zu den größten Agrarkonzernen Sambias zählt Zambeef, der neben der Produktion von Rind-, Schweine- und Hühnerfleisch, Milchprodukten, Getreide (etwa Weizen und Soja), Speiseöl, Leder und Futtermitteln auch Schlachtereien, Lebensmittelläden und eine Fast-Food-Kette betreibt. Staatshaushalt. Der Staatshaushalt umfasste 2009 Ausgaben von umgerechnet 2,8 Milliarden US-Dollar, dem standen Einnahmen von umgerechnet 2,3 Milliarden US-Dollar gegenüber. Daraus ergibt sich ein Haushaltsdefizit in Höhe von 4,0 % des BIP. Die Staatsverschuldung betrug 2009 3,2 Milliarden US-Dollar oder 25,5 % des BIP. Bildung. Für die Sieben- bis 14-Jährigen besteht eine Schulpflicht. Eine nennenswerte Minderheit der Bevölkerung, mehrheitlich Frauen, sind Analphabeten. Sternhaufen. a>. Bildausschnitt ca. 9 × 12′ Ein Sternhaufen ist ein Gebiet stark erhöhter Dichte von Sternen im Vergleich zum umgebenden Bereich einer Galaxie. Wie deutlich seine Konzentration den Sternhintergrund übertrifft, kann jedoch sehr verschieden sein. Die Sterne eines Haufens gehören meistens in dem Sinne zusammen, dass sie auch gemeinsam entstanden sind. Man unterscheidet Offene Sternhaufen – die relativ jung sind und in den Spiralarmen liegen – von den Kugelsternhaufen, die als alte Gebilde die Galaxis in einem Halo umgeben. Sternhaufen sind wichtig zur Erforschung der Sternentwicklung, da alle Sterne ein ähnliches Alter besitzen. Außerdem sind sie in fast derselben Entfernung, wodurch die Interpretation von Messungen sicherer wird. Offene Sternhaufen. Offene Sternhaufen stellen eher lockere Ansammlungen von Sternen dar, die aus großen Molekülwolken (Gas und Staub) gemeinsam entstanden sind. Dennoch lösen sie sich meistens mit der Zeit auf, weil ihre Eigenbewegungen etwas verschieden sind. Daher sind viele offene Sternhaufen "astronomisch junge" Objekte von einem Alter bis zu einigen hundert Millionen Jahren. Sie besitzen noch viele junge, massereiche Sterne, die durch ihre hohe Temperatur vor allem im weiß-blauen Licht strahlen. Einer der bekanntesten Offenen Sternhaufen sind die Plejaden. Kugelsternhaufen. Bei den wesentlich sternreicheren Kugelhaufen geht man oft auch von einer gemeinsamen Sternentstehung aus; aufgrund der Gravitation bleiben die Sterne aneinander gebunden. Kugelsternhaufen umgeben die Galaxis in größerer Entfernung und sind wesentlich älter als die offenen Sternhaufen, sie sind Teil des Halo. Das Alter vieler Kugelsternhaufen liegt in der Größenordnung von 10 Milliarden Jahren (das Alter des Universums wird auf 13,7 Mrd. Jahre geschätzt). Der hellste mit freiem Auge beobachtbare Kugelsternhaufen ist Omega Centauri und liegt auf der Südhalbkugel des Sternenhimmels. Sternassoziationen. Eine dritte Gruppe sind die Sternassoziationen, auch Bewegungshaufen oder Sternströme genannt. Sie sind mit den Offenen Sternhaufen verwandt und haben vorwiegend junge heiße Sterne, die sich gemeinsam auf einen Fluchtpunkt (Vertex) hinzubewegen scheinen. Zu ihnen gehören die Hyaden, deren Sternverteilung zur Entwicklung des Hertzsprung-Russell-Diagramms entscheidend beigetragen hat. Supersternhaufen. Die erst in letzter Zeit entdeckte Klasse der Supersternhaufen steht zwischen den Offenen und den Kugelhaufen. Es sind Gebiete mit extrem hohen Sternentstehungsraten, was zu sehr kompakten, massereichen und relativ langlebigen Sternhaufen führt. Sie zeigen eine große Zahl heller Hauptreihensterne und sind von ionisierten H-II-Regionen umgeben. Typisch ist ihre Entstehung in aktiven Starburstgalaxien. Sint Eustatius. Sint Eustatius (niederländisch, in) ist eine der drei niederländischen BES-Inseln in der Karibik und hatte 2013 etwa 4000 Einwohner. Die Insel bildet eine „Besondere Gemeinde“ der Niederlande. Geographie. ! Koordinaten !align=left | Sint Eustatius || 21 || 2292 || Auf Sint Eustatius selbst befindet sich im Südosten mit dem ca. 600 m hohen The Quill ein schlafender Schichtvulkan, dessen Krater eine touristische Attraktion ist. Im Nordwesten liegt eine weniger hohe Hügelgruppe um den Boven Mountain. Der Großteil der Bevölkerung der Insel lebt in dem Tal zwischen den beiden Erhebungen (siehe Karte bei „Weblinks“). Die südlich des Flughafens gelegene Hauptstadt Oranjestad zählte 2004 etwa 1100 Einwohner. Die zweite Ortschaft der Insel, "Concordia", liegt nördlich von Oranjestad beim Flughafen. Auf einer touristischen Karte sind noch weitere Orte verzeichnet: Fort de Windt an der Südspitze der Insel und Golden Rock zwischen Oranjestad und Concordia. Bevölkerung. Im 18. Jahrhundert, als die Insel ihren wirtschaftlichen Höhepunkt erreichte, lebten auf Sint Eustatius ungefähr 20.000 Einwohner. Bei einer im Jahr 2001 durchgeführten Volkszählung bewohnten 2292 Personen Sint Eustatius, das entsprach einer Bevölkerungsdichte von 109 Einwohner/km². Ende 2007 zählte die Insel ungefähr 3300 Einwohner, am Jahresende 2013 waren es mehr als 4000. Geschichte. Der Hafen von Sint Eustatius Benannt wurde die Insel nach Eustachius, einem katholischen Heiligen. Vor allem von Einheimischen wird sie oft als „Statia“ bezeichnet. Sint Eustatius wurde 1493 von Christoph Kolumbus entdeckt und innerhalb der nächsten 150 Jahre von verschiedenen Nationen in Anspruch genommen. 1638 kolonisierte die Abteilung der niederländischen Provinz Zeeland der Niederländischen Westindien-Kompanie die Insel. Von der inzwischen durch den Zuckeranbau profitierenden Kolonie wurden auch die angrenzenden Gebiete Saba und Sint Maarten verwaltet. 1739 wurde hier mit der Honin-Dalim-Synagoge eine der ersten jüdischen Gemeinden in Amerika begründet. Im 18. Jahrhundert gelangte die Insel zu Reichtum, indem sie über Handelsembargos hinweg an jeden Staat, der bereit war dafür zu zahlen, vor allem Waffen und Munition lieferte. Nutzen daraus konnten vor allem auch die Dreizehn Kolonien ziehen, die auf diese Weise Waffen für ihre Rebellion gegen Großbritannien bekommen konnten. Diese guten Beziehungen zu den nach Selbstständigkeit strebenden Kolonien führten zu einem historisch nicht unbedeutenden Ereignis: Am 16. November 1776 beantworteten – auf Befehl des Gouverneurs Johannes de Graeff – die Kanonen von Fort Orange den Salut der 'Andrew Doria', die unter der rot und weiß gestreiften Flagge des Amerikanischen Nationalkongresses segelte. Damit wurde die Souveränität der Vereinigten Staaten zum ersten Mal von einer fremden Macht anerkannt (nachzulesen bei Barbara Tuchman: „Der erste Salut“ – "The First Salute"). Soviel diese Handelsbeziehung auch wirtschaftlichen Fortschritt brachte, sie war auch einer der Hauptgründe für den Vierten Englisch-Niederländischen Seekrieg, der von 1780 bis 1784 dauerte und eine Katastrophe für den niederländischen Handel war. Im Verlauf dieses Seekrieges übernahmen die Briten am 3. Februar 1781 Sint Eustatius vom niederländischen Kommandeur Johannes de Graeff, der sich angesichts der großen Übermacht britischer Truppen unter General John Vaughan und Admiral George Brydges Rodney kampflos ergab. Zehn Monate später eroberte Frankreich, Verbündeter der Niederlande, die Insel, die am Ende des Krieges (1784) wieder in niederländische Hand kam und seitdem in deren Besitz ist. 1954 wurde Sint Eustatius als "eilandgebied" („Inselgebiet“, eine Art Gemeinde) Teil des neu gegründeten autonomen Bundeslandes „Niederländische Antillen“. Sint Eustatius hat sich in einem Referendum dafür entschieden, im Landesverband der Niederländischen Antillen zu bleiben, stand mit seiner Meinung jedoch alleine, da alle anderen Inseln sich für Auflösung aussprachen. Seitdem befürworteten die Politiker direkte Beziehungen mit den Niederlanden. Am 11. Oktober 2006 einigten sich Sint Eustatius, Saba und Bonaire mit der niederländischen Regierung auf die Eingliederung der Inseln in die Niederlande als "bijzondere gemeenten" („besondere Gemeinden“). Am 10. Oktober 2010 wurde der Landesverband Niederländische Antillen aufgelöst. Sint Eustatius gehört seit diesem Tag als besondere Gemeinde zu den Niederlanden. Währung ist seit 2011 der US-Dollar, welcher den Niederländische-Antillen-Gulden als gesetzliches Zahlungsmittel auf der Insel ablöste. Die alte Währung wurde in den drei Besonderen Gemeinden innerhalb eines Monats ungültig. Wirtschaft. Im 18. Jahrhundert war die Insel das wohl bedeutendste Handelszentrum der Niederlande in der Karibik. Zu dieser Zeit wurde sie aufgrund des immensen Wohlstandes auch als "Golden Rock" (goldener Felsen) bezeichnet. Es befanden sich zahlreiche Lagerhäuser an den Straßen, die mittlerweile größtenteils verfallen sind. Eine französische Besetzung der Insel 1795 war das Ende der Blütezeit von Sint Eustatius als wirtschaftliches Zentrum. Nach Angaben der Regierung steht die Wirtschaft der Insel gut da und hat in naher Zukunft ein starkes Wachstumspotenzial. Die Regierung ist der Hauptarbeitgeber in Sint Eustatius. Sie richtet ihre Wachstumsstrategie auf den Tourismus, speziell Ökotourismus aus. Der wichtigste private Akteur der Wirtschaft ist die Firma „NuStar“, die auf der Insel ein großes Tanklager für den internationalen Ölhandel betreibt. Transport. Der Flughafen befindet sich am Fuß des Vulkans Flugverkehr. Der "Franklin Delano Roosevelt Airport" ist der nationale Flughafen der Insel. Er verfügt über eine Startbahn von 1300 Metern Länge. Er kann von kleinen Passagierflugzeugen der Typen Fokker 50, ATR 42, Dash 8 und Frachtflugzeugen der Typen Lockheed C-130, Boeing 727 und DC 3 angeflogen werden. Seit 1996 verfügt der Flughafen über eine solarbetriebene Anflugbefeuerung. Seeverkehr. Der Hafen wurde 1993 eröffnet und besteht aus einem 80 Meter langen Wellenbrecher und einem 60 Meter langen Pier mit einer Verlademöglichkeit für Fähren. Er ist für Schiffe mit bis zu 600 Bruttoregistertonnen ausgelegt. Zurzeit ankern alle Kreuzfahrtschiffe vor der Küste und bringen ihre Passagiere mit Tenderbooten an Land. Für Schiffe besteht jedoch die Möglichkeit, im Hafen Öl nachzutanken. "Statia Terminals NV" ist ein eigenständiger Ölhafen, der sich im Nordwesten der Insel befindet. Elektrische Stromstärke. Die elektrische Stromstärke oder kurz Stromstärke (selten auch Strommenge oder Stromintensität) gibt an, wie viel elektrische Ladung einen definierten Querschnitt passiert, bezogen auf die dazu benötigte Zeitspanne. Den Ladungstransport kann man als gerichtete Bewegung einer Anzahl von Elementarladungen beschreiben, die in der Regel von Elektronen oder Ionen getragen werden; siehe auch Elektrischer Strom. Die Stromstärke wird im internationalen Einheitensystem (SI) in der Maßeinheit Ampere mit dem Einheitenzeichen A angegeben, benannt nach dem französischen Physiker und Mathematiker André-Marie Ampère. Das Formelzeichen ist das formula_1 , es kommt von „Intensität“ (gemeint ist die Stärke des Stroms). Zur Kennzeichnung einer Zeitabhängigkeit verwendet man den Kleinbuchstaben formula_3 für den Augenblickswert. Definition. Für einen "zeitlich konstanten" Ladungsfluss gilt mit der Ladungsmenge formula_5, die in der Zeitspanne formula_6 verschoben wird, bzw. der Stromdichte formula_7, die durch ein Flächenelement formula_8 hindurchtritt. Der elektrische Strom wird als Transport von Elementarladungen und damit als quantisierte Größe angesehen oder außerhalb der Abzählbarkeit als stetige und differenzierbare Größe; siehe Elektrische Ladung. Für eine "zeitlich veränderliche" Stromstärke gilt somit Eine "zeitlich periodisch" veränderliche Stromstärke (z. B. bei Wechselstrom) hat einen "zeitlich konstanten" Effektivwert, der entsprechend ebenfalls durch das Formelzeichen formula_1 gekennzeichnet wird. Richtung. Da die Stromstärke eine skalare Größe darstellt, legen die in vielen Darstellungen verwendeten Strompfeile lediglich das Vorzeichen fest. Eine Umkehr einer Pfeilrichtung bedeutet für dieselbe Stromstärke eine Umkehr im Vorzeichen ihres Größenwertes. Die Technische Stromrichtung legt bei Gleichstrom, der außerhalb einer Quelle vom Plus- zum Minuspol fließt, die Richtung als positiv fest. Auch bei Wechselstrom ist eine bestimmte Richtung sinnvoll, wenn Strompfeile die Richtung des Energieflusses anzeigen sollen. Messung. Eine Messung liefert eine quantitative Aussage als Vielfaches der Maßeinheit. Neben den Messgeräten mit nur einem Messbereich gibt es für Labor-, Service- und Feldeinsatz umschaltbare Multimeter mit mehreren Messbereichen. Für industrielle Anwendungen und für die Funktionsüberwachung gibt es Messeinrichtungen, bei denen das Ergebnis nicht angezeigt, sondern fernübertragen oder elektronisch weiter verarbeitet wird. Schwefeldioxid. Schwefeldioxid, SO2, ist das Anhydrid der Schwefligen Säure H2SO3. Schwefeldioxid ist ein farbloses, schleimhautreizendes, stechend riechendes und sauer schmeckendes, giftiges Gas. Es ist sehr gut (physikalisch) wasserlöslich und bildet mit Wasser in sehr geringem Maße Schweflige Säure. Es entsteht vor allem bei der Verbrennung von schwefelhaltigen fossilen Brennstoffen wie Kohle oder Erdölprodukten, die bis zu 4 Prozent Schwefel enthalten. Dadurch trägt es in erheblichem Maß zur Luftverschmutzung bei. Es ist der Grund für sauren Regen, wobei das Schwefeldioxid zunächst von Sauerstoff zu Schwefeltrioxid oxidiert wird und dann mit Wasser zu Schwefelsäure (H2SO4) umgesetzt wird. Um dies zu verhindern, gibt es verschiedene Verfahren zur Rauchgasentschwefelung. Zudem findet sich Schwefeldioxid im Umfeld von Hochtemperaturgebieten und aktiven Vulkanen. Eigenschaften. Strukturformel von Schwefeldioxid mit Bindungslängen und Winkeln Verwendung. Flüssiges Schwefeldioxid löst zahlreiche Stoffe und hat sich daher als wertvolles aprotisch-polares Lösungsmittel etabliert. In der Lebensmittelindustrie findet Schwefeldioxid als Konservierungs-, Antioxidations- und Desinfektionsmittel Verwendung, vor allem für Trockenfrüchte, Kartoffelgerichte, Fruchtsäfte, Marmelade und Wein. Wein- und Bierfässer werden zur Desinfizierung vor der Verwendung durch Behandlung mit SO2-Gas "ausgeschwefelt". Schwefeldioxid zerstört das Vitamin B1; ebenso finden sich in Laborversuchen Hinweise auf eine Zerstörung von B12-Vitaminen. In der EU ist es als Lebensmittelzusatzstoff der Nummer "E 220" auch für „Bio“-Produkte zugelassen. Es dient auch zur Herstellung von Sulfurylchlorid SO2Cl2 und Thionylchlorid SOCl2. Ferner ist Schwefeldioxid ein wichtiges Edukt zur Herstellung von Schwefeltrioxid, um anschließend konzentrierte Schwefelsäure z. B. mit dem Kontaktverfahren herzustellen. Schwefeldioxid dient auch zur Herstellung von vielen Chemikalien, Medikamenten und Farbstoffen und zum Bleichen von Papier und Textilien. Einsatz in Konzentrationslagern. Bei Experimenten mit Giftgasen, die im kroatischen KZ Stara Gradiška durchgeführt wurden, wurde neben Zyklon B, auch Schwefeldioxid an serbischen, jüdischen und Roma Frauen, sowie Kindern eingesetzt. Umweltverschmutzung. Schwefeldioxid schädigt in hohen Konzentrationen Mensch, Tiere und Pflanzen. Die Oxidationsprodukte führen zu „saurem Regen“, der empfindliche Ökosysteme wie Wald und Seen gefährdet sowie Gebäude und Materialien angreift. Die SO2-Emissionen der entwickelten Industriestaaten konnten jedoch in den letzten zwei Jahrzehnten durch die Nutzung schwefelarmer bzw. schwefelfreier Brenn- und Kraftstoffe und mittels Rauchgasentschwefelung stark reduziert werden. Von allen Verkehrsträgern leistet der internationale Schifffahrtsverkehr den höchsten Emissionsbeitrag. Dort liegt der maximal zulässige Schwefelgehalt im Brennstoff für Schiffe derzeit bei 4,5 Prozent. Die IMO hat den Grenzwert jedoch reduziert: Bis 2012 soll er auf 3,5 und bis 2020 auf 0,5 Prozent gesenkt werden. Diese Grenze gilt bereits heute für kalifornische Küstengewässer. In der Ost- und Nordsee gibt es Schwefelemissions-Überwachungsgebiete (engl. SECA), in denen der Grenzwert heute 1,5 Prozent beträgt. Ab dem 1. Juli 2010 liegt er auf 1 Prozent und am 1. Januar 2015 soll er auf 0,1 Prozent abgesenkt werden. Das Max-Planck-Institut für Meteorologie konnte im Rahmen einer Studie zeigen, dass in der Umgebung der stark frequentierten Seehäfen Rotterdam, Antwerpen und Milford Haven eine erheblich dichtere Wolkendecke herrscht als im Umland. Schwefeldioxid und Stickoxide wirken als Kondensationskeime und regen die Wolkenbildung an. Die durch diese Wolkendecke verstärkte Albedo führte zu einer Verringerung der Sonneneinstrahlung in den darunterliegenden Gebieten. Sicherheitshinweise. Eine Schwefeldioxidkonzentration, die über dem MAK-Wert liegt, kann beim Menschen zu Kopfschmerzen, Übelkeit und Benommenheit führen. In höheren Konzentrationen schädigt das Gas stark die Bronchien und Lungen. Eine Exposition gegenüber hohen Schwefeldioxidkonzentrationen über einen längeren Zeitraum kann durch die Zerstörung des für die Blutbildung wichtigen B12-Vitamins zu Anämie führen. Sklaverei. Sklaverei bezeichnet den Zustand, in dem Menschen als Eigentum anderer behandelt werden. In einem weiteren Sinne wird unter Sklaverei auch eine Freiheitsberaubung und Nötigung von Menschen verstanden, die in der Gesellschaft, in der sie sich ereignet, keine gesetzliche Grundlage besitzt. Bei der Sklaverei im engen Sinne der Geschichtsschreibung war das Recht, Sklaven zu erwerben, zu verkaufen, zu mieten, zu vermieten, zu verschenken und zu vererben, gesetzlich verankert. Die Sklavengesetze regelten die privat- und strafrechtlichen Gesichtspunkte der Sklavenhaltung und des Sklavenhandels; darüber hinaus bestimmten sie auch, welche Rechte den Sklaven zugestanden wurden. In vielen Sklaven haltenden Staatswesen behielten Sklaven eine gewisse Rechtsfähigkeit und konnten z. B. die Gerichte anrufen oder Eigentum erwirtschaften, das es ihnen eventuell erlaubte, durch Selbstkauf die Freiheit zu erlangen. Sklaverei konnte erblich sein, d. h. die Nachkommen von Sklaven waren ebenfalls unfrei, dies war jedoch nicht in allen Sklaven haltenden Staatswesen der Fall. Unterschieden werden muss auch zwischen lebenslangen und temporären Formen der Sklaverei. Nach der Legaldefinition des 1956 von den Vereinten Nationen abgeschlossenen Zusatzübereinkommens über die Abschaffung der Sklaverei bedeutet "Sklaverei" „die Rechtsstellung oder Lage einer Person, an der einzelne oder alle der mit dem Eigentumsrecht verbundenen Befugnisse ausgeübt werden“, und "Sklave" „eine Person in einer solchen Rechtsstellung oder Lage.“ Etymologie. Das Wort „Sklave“ wird häufig einer veralteten etymologischen Erklärung folgend vom griechischen Verb "skyleúo", Nebenform "skyláo" ‚Kriegsbeute machen‘ hergeleitet. Die heute gängige Herleitung geht jedoch von der Entlehnung aus dem lateinischen "sclavus" für die ethnische Gruppe der seit dem Mittelalter so genannten Slawen aus (rumänisch "şchiau", Plural "şchei", und albanisch "shqa" – beides veraltete Bezeichnungen für die (süd-)slawischen Nachbarn, insbesondere Bulgaren und Serben – stammen aus derselben Quelle; beide Wörter konnten einst auch ‚Diener‘, ‚Sklave‘ bedeuten). Einige Autoren neigen dazu, es in den Kämpfen der Ottonen gegen die Slawen im 10. Jahrhundert entstanden zu sehen, zumal bereits bei Widukind von Corvey und in den Quedlinburger Annalen für Slawe anstatt "slavus"‚ "sclavus"‘ geschrieben wird. So wurde am 11. Oktober 973 einem Sklavenhändler eine in den Monumenta Germaniae Historica enthaltene Urkunde ausgestellt, in der anstatt des lateinischen "servus" zum ersten Mal "sclavus" für ‚Sklave‘ erscheint.Der in mittelalterlichen arabischen Quellen verwendete Begriff "Saqaliba" bezieht sich ebenfalls auf Slawen und andere hellhäutige bzw. rötliche Völker Nord- und Mitteleuropas. Die Bezeichnung "al-Ṣaḳāliba" (sing. "Ṣaḳlabī", "Ṣiḳlabī") ist dem mittelgriechischen Σκλάβος entlehnt (der unmittelbaren Quelle von lateinisch "sclavus"). Hierbei handelt es sich um eine Variante von Σκλαβῆνος (Singular) bzw. Σκλαβῆνοι (Plural), das aus der slawischen Selbstbezeichnung "Slovĕne" (Plural) übernommen ist. Wegen der großen Zahl slawischer Sklaven hat das Wort in mehreren europäischen Sprachen die Bedeutung ‚Sklave‘ angenommen (engl. "slave", it. "schiavo", franz. "esclave"), so auch im Spanien der Umayyaden, wo Ṣaḳāliba alle fremden Sklaven bezeichnete.Dass sich in bestimmten europäischen Gegenden zunächst auch andere Wörter für „Sklave“ einbürgern konnten, zeigte sich ab dem 10. Jahrhundert während des Verlaufs der Reconquista bis 1492 vor allem im christlichen westlichen Mittelmeerraum, wo die im Kampf erbeuteten und „Sarazene“ / „Sarazenin“ oder „Maure“ / „Maurin“ genannten Gefangenen zur Handelsware wurden und Sklavenarbeit zu verrichten hatten. Auch wenn Sklaverei theoretisch und traditionell von Leibeigenschaft unterschieden wird, sind die Umstände oft nicht im heutigen Sinne des Wortes zu unterscheiden. Moderne Terminologie. In der englischsprachigen Geschichtswissenschaft besteht ein Diskurs darüber, ob für die Opfer der Sklaverei der Begriff „versklavte Person“ anstelle von „Sklave“ verwendet werden sollte. Für diese Begriffsänderung wird ins Feld geführt, dass das Wort „Sklave“ das Verbrechen der Sklaverei auf sprachlichem Wege fortsetze, indem es die Opfer zu einem nichtmenschlichen Sachwort reduziere statt sie als Menschen in Erinnerung zu behalten. Andere Geschichtsforschende halten dagegen, dass „Sklave“ der kürzere und vertrautere Begriff sei oder dass gerade dieses Wort die Unmenschlichkeit der Sklaverei treffend wiedergebe: „Person“ würde eine persönliche Autonomie vortäuschen, die es in der Sklaverei nicht geben könne. Definitionsansätze. a> in die Sklaverei entführt, 1530 Sklaven stammen in der Regel aus anderen Ländern, werden ihrer Ethnie und ihrer Familie entrissen und in andere ihnen völlig fremde ethnische, sprachliche und soziale Umfelder verpflanzt. Sie stehen außerhalb des Rechts, sind zur Ware verdinglicht beziehungsweise entmenschlicht und werden willkürliche Verkaufs- und Wiederverkaufsgegenstände. Die Freiheitsberaubung versklavter Menschen geht also in der Regel mit physischer und/oder institutioneller Gewalt einher. Sie kennzeichnet den Sklavenhandel und bedeutet den Verlust aller mit Geburt und Genealogie verbundenen Ansprüche und Identifikationsmöglichkeiten "(natal alienation)" sowie der Menschenwürde. Sklaverei dient dort, wo sie eine Gesellschaftsstruktur bestimmt, meist der wirtschaftlichen Ausbeutung und Aufrechterhaltung einer Klassengesellschaft. Laut John Locke können Menschen andere Menschen in dem Moment legitim versklaven, in dem letztere einen ungerechten Krieg beginnen und verlieren. Der Sieger hat, um den Krieg zu beenden, in diesem Moment nur die Wahl, seinen Gegner entweder zu töten oder zu versklaven. Bietet aber der Verlierer als Akt der Reue eine angemessene Wiedergutmachung für das von ihm verschuldete Unrecht an, so muss der Sieger der Vernunft des Naturgesetzes folgen und den Kriegszustand beenden. Beide Parteien verfügen nun wieder über die absolute Freiheit, die dem Naturzustand inhärent ist. Marxistisch-leninistische Begriffsauslegung. In der Gesellschaftstheorie des Marxismus und Leninismus wird unter „Sklaverei“ eine ökonomische Gesellschaftsform verstanden, die auf dem Eigentum des Sklavenhalters an den Produktionsmitteln (Nutzflächen, Maschinen usw.) und an den unmittelbaren Produzenten (Sklaven) beruht. Karl Marx, der die Sklaverei für die roheste und primitivste Form der Ausbeutung und den Gegensatz zwischen Sklaven und Sklavenhalter für einen archaischen Klassengegensatz hielt, bezog den Begriff Sklavenhaltergesellschaft ausschließlich auf die antiken Gesellschaften. Marx beschrieb jedoch auch, wie als Überbauphänomen der Sklaverei politische, juristische und philosophische Anschauungen entstanden, die den Sklavenhaltern als Machtinstrument dienten. Geschichte der Sklaverei. "→ Hauptartikel: Geschichte der Sklaverei" Die durch Gesetzestexte dokumentierte Geschichte der Sklaverei beginnt in den ersten Hochkulturen des Altertums. Üblich war dort die Versklavung von Kriegsgefangenen; deren Nachfahren blieben aber ebenfalls unfrei. Weite Verbreitung fand die Sklaverei in Mesopotamien, Ägypten, Palästina, Griechenland und Rom. In den griechischen Stadtstaaten, wo Sklaven in großer Zahl in der Haus- und Landarbeit eingesetzt wurden, entstand mit dem Aufstieg des Handels die Schuldknechtschaft, bei der nicht zahlungsfähige Schuldner bei ihrem Gläubiger in sklavereiähnliche Abhängigkeit fielen. Die Schuldknechtschaft war auch in Rom verbreitet, mit der Ausdehnung der römischen Eroberungskriege wurden dort jedoch in zunehmendem Umfang Kriegsgefangene versklavt. Sowohl in Griechenland als auch in Rom konnten freigelassene Sklaven das Bürgerrecht erlangen. Im frühen Mittelalter trieben Turkvölker wie die Chasaren und germanische Völker wie die Waräger und die Wikinger im europäischen und orientalischen Raum Handel mit Kriegsgefangenen und Sklaven. In Sachsen und in Ostfrankenreich entstand nach kriegerischen Auseinandersetzungen mit den Slawen ein gut organisierter und sehr umfangreicher Handel mit slawischen Sklaven. Mit der Christianisierung ging die Sklaverei im hochmittelalterlichen Mitteleuropa, wo es Christen verboten war, andere Christen als Sklaven zu verkaufen oder zu erwerben, zurück. Südlich der Alpen – etwa in den italienischen Seerepubliken, im Schwarzmeerraum, auf dem Balkan und in Ägypten – wurden Sklaven jedoch weiterhin in großem Umfang gehandelt. Auch Päpste und Klöster besaßen Sklaven. Mittelalterliche Theologen wie Thomas von Aquin begründeten unter Berufung auf Aristoteles die Rechtmäßigkeit und Notwendigkeit der Sklaverei aus dem Naturrecht. In der Neuzeit nahm die Sklaverei einen erneuten Aufschwung mit der Ausdehnung des europäischen Seehandels und der Errichtung überseeischer Kolonien. Diese waren in vielen Fällen nur dünn besiedelt, sodass für den Aufbau der Wirtschaft afrikanische Sklaven eingeführt wurden, auf deren Arbeitskraft die Ökonomie dieser Kolonien jahrhundertelang weitgehend basierte. Die weltweit führende Sklaven handelnde Nation war bis ins 19. Jahrhundert Portugal. Allein nach Brasilien wurden von portugiesischen Kaufleuten in der Neuzeit mehr als 3 Millionen afrikanischer Sklaven verkauft. Es gab freilich kaum eine europäische Seehandelsmacht, die am internationalen Sklavenhandel nicht beteiligt war; dies schließt nicht nur spanische, britische, französische und holländische, sondern auch schwedische, dänische und brandenburgische Kaufleute ein. In vielen außereuropäischen Kulturen war Sklaverei traditionell verbreitet, beispielsweise bei den Azteken, den nordamerikanischen Indianern und in vielen Teilen Afrikas und Asiens. Hierbei ist auch die Sklaverei im Islam zu nennen, die im 7. Jahrhundert frühere Formen aufgriff und fortsetzte und deren Geschichte auch in der Gegenwart noch nicht abgeschlossen ist. Deshalb richtete Malek Chebel, französischer Anthropologe und Vertreter eines liberalen Islam, an das Gewissen der muslimischen Herrscher, deren Länder er besucht hatte, 2007 einen öffentlichen Appell, die bei ihnen vorzufindende Sklavereiformen nicht als ein Tabu, sondern als ein zu verfolgendes Verbrechen anzusehen. Auf Deck eines Sklavendampfers im Kongogebiet Das erste Rechtsbuch der Weltgeschichte, das die Sklaverei und Leibeigenschaft verwirft, ist der deutsche Sachsenspiegel von 1235 des Eike von Repgow: "„Unfreiheit sei demnach ein Unrecht, welches durch Gewohnheit für Recht gehalten werde. Da der Mensch Gottes Ebenbild sei, gehöre er nur ihm und sonst niemanden.“" Vom späten 18. Jahrhundert an wurde die Sklaverei weltweit allmählich abgeschafft. Wesentliche Initiativen dazu gingen für den britischen Einflussbereich u. a. von William Wilberforce aus (dargestellt in dem Film Amazing Grace). Mit dem Verbot in Mauretanien bestehen seit 1981 in keinem Land der Erde mehr gesetzliche Grundlagen für Sklavenhandel und Sklaverei. Die formale Abschaffung der Sklaverei führte jedoch nur in den seltensten Fällen zu einer effektiven gesellschaftlichen Gleichstellung der früheren Sklaven. Besonders gut dokumentiert ist diese Kontinuität der Abhängigkeit im Falle der Sklaverei in den Vereinigten Staaten. Sklavereiähnliche Formen der Unterwerfung von Menschen können jedoch immer wieder selbst in solchen Kulturen beobachtet werden, in denen Sklaverei im engen Sinne keine Tradition besitzt; so etwa die NS-Zwangsarbeit. Geschichtsaufarbeitung. Obwohl die Sklaverei heute in allen Staaten der Welt offiziell als abgeschafft gilt, zeigen sich Schwierigkeiten, sich dem Thema zu stellen. Das betrifft sowohl die islamische Welt als auch den europäischen Umgang mit der eigenen Vergangenheit. So stellte der französische Mediävist Jacques Heers noch 1996 fest, dass Sklaverei als offenkundige Tatsache neben der bäuerlichen Leibeigenschaft trotz einiger ihr gewidmeter Studien bezüglich des Mittelmeerraums dennoch in den gegenwärtigen Mittelalterdarstellungen kaum vorkomme, und dies mehr oder weniger absichtlich. Das war auch schon in der Epoche der Aufklärung der Fall. So machte der bis 2001 an der Sorbonne lehrende französische Philosoph Louis Sala-Molins anlässlich des zweihundertsten Jahrestages der Französischen Revolution darauf aufmerksam, dass keinem der Aufklärer – weder Condorcet, Diderot, Montesquieu noch Rousseau – an der Abschaffung der Sklaverei in den französischen Kolonien gelegen war. Eine bekannte Ausnahme stellt Marquis de La Fayette dar. Sala-Molins hält die Einstellung zur Sklavenfrage und zu den Schwarzen für den entscheidenden Schwachpunkt im aufklärerischen Anspruch auf die als universell propagierten Menschenrechte. Der vor diesem Hintergrund 1685 unter Ludwig XIV. für die Kolonien erlassene und dort bis 1848 ohne Unterbrechung für 163 Jahre geltende Code Noir fiel der Vergessenheit anheim, bis er von Sala-Molins 1987 als „monströsester juristischer Text der Moderne“ wiederveröffentlicht wurde. Sklavengesellschaften – Gesellschaften mit Sklaven. Der amerikanische Historiker Ira Berlin, zu dessen Hauptwerk zwei Monografien über die Geschichte der Sklaverei in den Vereinigten Staaten zählen, hat darauf hingewiesen, dass die Geschichtsschreibung zwischen zwei grundlegend unterschiedlichen Formen von Sklaverei unterscheiden müsse, nämlich zwischen „Sklavengesellschaften“ (engl.: "slave societies") und „Gesellschaften mit Sklaven“ (engl.: "societies with slaves"). Die Gesellschaft der Plantagenbesitzer der amerikanischen Südstaaten vor dem Sezessionskrieg sei eine typische Sklavengesellschaft gewesen, die sich von Gesellschaften mit Sklaven, wie sie z. B. in der griechischen und römischen Antike bestanden, charakteristisch unterscheide. Erstens beruhen in Sklavengesellschaften die zentralen Produktionsprozesse – im Fall der Südstaaten der Anbau von Zuckerrohr, Tabak, Reis und Baumwolle – auf der Arbeitskraft von Sklaven, während in der Ökonomie von Gesellschaften mit Sklaven die Sklaven nur eine marginale Rolle spielen. Ein zweiter wichtiger Unterschied besteht darin, dass das Verhältnis „Herr – Sklave“ in Sklavengesellschaften Modellcharakter annimmt und auch auf alle sonstigen sozialen Beziehungen (Mann – Frau, Eltern – Kind, Arbeitgeber – Arbeitnehmer) übertragen wird; in Gesellschaften mit Sklaven ist dies nicht der Fall. Infolgedessen bilden die Sklavenhalter in Sklavengesellschaften die herrschende Klasse, während sie in Gesellschaften mit Sklaven nur einen Teil der – umfassenderen – begüterten Elite ausmachten. Verbreitung. Auf Sklaverei beruhende Gesellschaftsformen waren bis zum 19. Jahrhundert weltweit verbreitet. Indessen dauert Sklaverei trotz ihres Verbotes auch im 21. Jahrhundert stellenweise fort. Das kann daran liegen, dass den Sklaven unter unterschiedlichsten Bezeichnungen in verschiedenen Kulturen jeweils ein besonderer Status in den sozialen Umfeldern zukam und zukommt, weil Gesellschaften in sich hochkomplexe Gebilde sind. Der französische Anthropologe und Islamkenner Malek Chebel kommt zum Beispiel in einer neuen Untersuchung zur Sklaverei in der islamischen Welt auf eine Schätzung von 21 bis 22 Millionen Sklaven, die im Laufe von 14 Jahrhunderten als kriegsgefangene Slawen, Konkubinen, Diener, Sklaven aus Afrika oder im mediterranen Sklavenhandel erbeutete Christen ihre Freiheit verloren. Chebel zählt zu den Millionen auch die in den Golfstaaten gegenwärtig tätigen Philippinos, Inder und Pakistaner, die dort ihre Menschenrechte verlieren, berücksichtigt aber zum Beispiel ausdrücklich nicht afrikanische Minderheiten im Maghreb, in der Türkei, im Iran oder in Afghanistan. Rechtfertigung. Andererseits empfanden die freien Griechen die Existenz versklavter Griechen als Schande, und die Versklavung ganzer Städte blieb sehr umstritten. Einige Heerführer verweigerten sich dieser Praxis, so etwa die Spartiaten Agesilaos II. und Kallikratidas. Sie wurde auch gelegentlich durch Verträge zwischen den Städten verboten. So verpflichteten sich beispielsweise Milet und Knossos im 3. Jahrhundert v. Chr. gegenseitig dazu, die Bürger der jeweils anderen Stadt nicht zu versklaven. Aristoteles definiert in der griechischen Antike den Sklaven von Natur aus als Besitzstück. Lässt man die problematische substanzphilosophische und naturrechtliche Begründung dieses Besitzverhältnisses beiseite, dann charakterisiert Aristoteles die Sklaven weiterhin durch zwei Eigenschaften. Zum einen haben solche Besitzstücke die Eigenart, ein besonderes Werkzeug zu sein, das viele andere Werkzeuge ersetzen kann. Entsprechend der aristotelischen Teleologie haben Werkzeuge keinen eigenen Zweck, sondern müssen sich einem Zweck unterordnen, welcher von einem vollkommenen Ganzen her bestimmt wird, von dem sie nur ein unvollkommener Teil sind. Diese menschlichen Werkzeuge besitzen aber im Gegensatz zu anderen unbelebten Werkzeugen eine gewisse antizipatorische Fähigkeit. Aristoteles schreibt dazu, dass Sklaven in der Lage sind, von selbst Befehle zu antizipieren und nicht nur auf Befehle anderer hin zu handeln. Als solche vorauseilend gehorchende Werkzeuge haben sie eine Seele, zu deren voller, vernünftiger Ausbildung sie jedoch nicht fähig sind. Deswegen sei es besser für den Sklaven, überlegenen Menschen als Sklaven zu dienen. "→ Hauptartikel: Sklaverei im antiken Griechenland" Cicero spricht später von Juden und Syrern als „Menschen, die zu Sklaven geboren wurden“, und er meint, dass es einigen Nationen gut tue, wenn sie sich in einem Zustand totaler politischer Unterwerfung befinden. Vor allem die Ansichten von Aristoteles wurden auch später benutzt, um der Sklaverei eine ideologische Begründung zu geben. In der Bibel wird Sklaverei als Faktum der antiken jüdischen Gesellschaft beschrieben. Zu Beginn des Alten Testaments findet sich im Fluch Noahs über seinen Sohn Ham – Stammvater der Kanaaniter – die Rechtfertigung für dauernde Knechtschaft (Genesis 9,18–27). Das mosaische Gesetz unterschied nach der Herkunft in einheimische und fremdvölkische Sklaven (Lev 25,44–46). Nur letztere waren im engeren Sinne als Sklaven – d.h. lebenslang veräußerbares Eigentum – erlaubt. Durch Verschuldung konnten zwar auch frei geborene Hebräer in Hörigkeit geraten. Sie waren jedoch von bestimmten Arbeiten befreit und mussten im siebten Jahr (Sabbatjahr) freigelassen werden (Ex 21,2 EU und Dtn 15,12 EU). Für die Behandlung von Sklaven gab es keine besonderen Regelungen. Ausdrücklich verboten war es, Sklaven zu erschlagen (Ex 21,20–21 EU). Zudem waren Sklaven freizulassen, wenn sie durch ihren Besitzer körperlich schwer misshandelt wurden (Ex 21,26–27). In den Evangelien des Neuen Testaments findet sich hingegen keine ausdrückliche Erwähung der Sklaverei als Herrschaftspraxis. Erst in den Briefen des Apostels Paulus kommt diese mehrfach zur Sprache. Darin betont Paulus mit Blick auf die heterogen zusammengesetzten Gemeinden der Urkirche, dass es unter Christen keinen Unterschied gebe zwischen Sklaven und Freien (Gal 3,28 EU; Kol 3,11 EU; 1 Kor 12,13 EU). Besonders deutlich wird dies im Brief des Paulus an Philemon, wenn er diesen auffordert, seinen davongelaufenen und nunmehr getauften Sklaven Onesimus als geliebten Bruder anzunehmen (Phm 15–17). Damit formuliert das frühe Christentum erstmals in der Antike Wert und Würde auch von Sklaven. Dass das Christentum nach Paulus Verständnis keine sozialrevolutionäre Botschaft beinhaltet, zeigt sich im ersten Brief an Timotheus (1 Tim 6,1–2). Paulus argumentiert, die Freiheit, welche Jesus Christus schenke, sei nicht abhängig vom äußeren zivilen Stand (1 Kor 7,22 EU). Er lässt Sklaverei als gesellschaftflich etablierte Besitzform unangetastet, gemahnt aber Sklaven wie Herren an ihre gegenseitigen Pflichten (Kol 3,22 – 4,1 EU; Eph 6,1–9 EU). Sklaverei ist Teil der gottgewollten Ordnung, in der Menschen unterschiedliche Status innehaben und sich damit arrangieren müssen. Im Mittelalter kam für Sklaverei und Sklavenhandel das Argument hinzu, dass damit die Christianisierung von Heiden gefördert werde. Mit den päpstlichen Bullen Dum Diversas (1452) und Romanus Pontifex (1455) wurde es Christen erlaubt, Sarazenen, Heiden und andere Feinde des Christentums zu versklaven und ihren Besitz zu nehmen. Im Fall der dalmatischen "fante", deren Unfreiheit zeitlich begrenzt war, wurde betont, dass einige Jahre in sklavenähnlichem Arbeitsverhältnis notwendig seien, damit sie ausreichend Zeit zum Lernen hätten. 1510 wurden die Theorien von Aristoteles zum ersten Mal von dem schottischen Gelehrten John Major auf die amerikanischen Indianer angewendet. Erst 1537 wurde mit der Bulle Sublimus Dei festgestellt, dass andere, nichteuropäische Ethnien, z. B. Indianer, echte Menschen seien mit der Befähigung, den katholischen Glauben zu verstehen. Nun wurde es verboten, ihnen die Freiheit und ihren Besitz zu nehmen. Doch noch im 19. Jahrhundert wurden entgegengesetzte Ansichten vertreten. George Fitzhugh etwa publizierte 1854 ein Buch, in dem er schrieb: „Einige Menschen sind mit einem Sattel auf dem Rücken geboren, und andere sind gestiefelt und gespornt, um diese zu reiten. Und es tut ihnen gut!“ Begriffsabgrenzung. Im Englischen sind zur deutlicheren Unterscheidung der Sklaverei von ähnlichen Formen der Unfreiheit die Ausdrücke "chattel bondage" (‚Besitz-Knechtschaft‘) und "chattel slavery" (‚Besitz-Sklaverei‘) verbreitet, die ausschließlich solche Formen der Unfreiheit bezeichnen, bei denen eine Person auch im juristischen Sinne – also mit expliziter Bestätigung durch den Gesetzgeber – als das Eigentum einer anderen Person betrachtet wird. Anerkennung moderner Formen der Unfreiheit als Sklaverei. Artikel 4 der Europäischen Menschenrechtskonvention verbietet Sklaverei. Viele Politiker und Menschenrechtsorganisationen, deren Engagement der Bekämpfung modernen Formen der Unfreiheit – besonders der Zwangsprostitution, der Zwangsarbeit, der Kinderarbeit und der Rekrutierung von Kindern als Soldaten – gilt, bemühen sich um eine Anerkennung dieser Phänomene als Sklaverei. Heutzutage soll es mehr Sklaven auf der Welt geben als jemals zuvor in der Geschichte der Menschheit. In Paragraph 104 des österreichischen Strafgesetzbuches wird Sklavenhandel und die Versklavung anderer mit Freiheitsstrafe von zehn bis zwanzig Jahren bedroht; in Deutschland drohen dem Täter 6 Monate bis 10 Jahre (Arbeitssklave: § 233, sexuelle Ausbeutung: § 232, Menschenraub, § 234 dStGB) Freiheitsentzug. Zwangsprostitution. Menschenrechtsorganisationen setzen sich dafür ein, dass die Zwangsprostitution rechtlich als Sklaverei und somit als Menschenrechtsverletzung behandelt wird. Hiervon sind auch die demokratischen Staaten Mitteleuropas betroffen, wo z. T. die bestehenden Rechtsvorschriften unzulänglich umgesetzt werden. Der Europarat verurteilt und kriminalisiert jegliche Art der Sklaverei nach Artikel 4 der Europäischen Menschenrechtskonvention. Doch auch heute noch können Menschen in Situationen gelangen, die mit dem Zustand der Versklavung zu vergleichen sind. Ein Beispiel dafür ist der kriminelle Menschenhandel und das Festhalten von Frauen zur sexuellen Ausbeutung. Insbesondere seit dem Zusammenbrechen des Kommunismus in Osteuropa und der andauernden Instabilität im Gebiet des ehemaligen Jugoslawien nimmt die erzwungene Prostitution von Frauen und Mädchen zu. Moderne Formen der Sklaverei und sklavereiähnliche Abhängigkeiten. Im April 2006 veröffentlichte Terre des hommes Zahlen, nach denen mehr als 12 Millionen Menschen als Sklaven betrachtet werden müssen. Diese Zahlen wurden später von Seiten der Vereinten Nationen bestätigt. Davon seien etwa die Hälfte Kinder und Jugendliche. Es handelt sich um Opfer von Menschenhandel und Zwangsarbeit. In Indien, Bangladesch und Pakistan leben demnach die meisten Zwangsarbeiter. Auch in den Industrieländern leben insbesondere Frauen als Zwangsprostituierte unter sklavereiähnlichen Umständen. Darüber hinaus werden im Baugewerbe, in Haushalten und in der Landwirtschaft Arbeitskräfte illegal ohne Rechte beschäftigt. In Mitteleuropa sind Einzelfälle von sklavereiähnlichen Arbeitsverhältnissen bekannt. So hielt sich ein jemenitischer Kulturattaché in Berlin, der Diplomatische Immunität genoss, jahrelang eine unbezahlte Hausangestellte unter sklavereiähnlichen Bedingungen. Brasilien. Im nördlichen brasilianischen Bundesstaat Pará werden regelmäßig Großgrundbesitzer bei der Beschäftigung von Sklavenarbeitern gefasst. Kirchliche und Menschenrechts-Vertreter, die diese Missstände bekämpfen, werden mit dem Tode bedroht. In einer jährlich in allen Tageszeitungen veröffentlichten schwarzen Liste ("Lista Negra") stehen 50 brasilianische, teilweise prominente (Groß-) Unternehmen, die Menschen durch unbezahlte Sklavenarbeit ausbeuten. Die Rekrutierung erfolgt überregional. Die weite Verbreitung von Feuerwaffen ermöglicht die gewaltsame Hinderung der Flucht von den bis zu einigen tausend Quadratkilometer großen "Fazendas", auf denen in letzter Zeit heimliche Friedhöfe entdeckt wurden. Durch Korruption werden Gerichtsprozesse be- und teilweise bis zur Verjährungsgrenze verhindert. Eine Verfassungsänderung, die betroffenen "Fazendas" mit der Enteignung gedroht hätte, wurde durch eine starke Lobby im Senat verhindert. Oft werden Sklaven zur Arbeit auf Plantagen benutzt und müssen so hart arbeiten, dass viele Sklaven Selbstmord begehen. Sklavinnen werden häufig misshandelt oder an Bordelle verkauft. Die Sklaven sind der Willkür ihres Besitzers völlig ausgesetzt. Wenn einem Sklaven die Flucht gelingt, kann er auch nicht zur Polizei gehen, denn diese ist so schlecht bezahlt, dass sie sich von den Großgrundbesitzern bestechen lässt und den Geflüchteten an den Großgrundbesitzer verrät. In vielen Fällen lassen Großgrundbesitzer ihre Sklaven töten, wenn sie eine Bezahlung oder die Freiheit verlangen. Haiti. In Haiti leben laut einem Bericht der Kindernothilfe im Jahr 2009 etwa 300.000 Kinder beiderlei Geschlechts als Haussklaven, sogenannte „Restavecs“ (von franz.: "rester avec" ‚bei jemandem bleiben‘) in Familien der Ober- und Mittelschicht vornehmlich der Hauptstadt Port-au-Prince. Sie stammen zumeist aus auf dem Land lebenden Familien, die ihre Kinder kaum noch ernähren können und sie daher in der Regel kostenlos besser gestellten Familien überlassen. Dort haben sie täglich bei freier Kost und Logis, aber ohne Möglichkeit der Schulausbildung und ohne Bezahlung alle anstehenden Arbeiten im Haushalt zu erledigen. Körperliche Züchtigung und sexueller Missbrauch ohne Straffolgen für die Täter sind an der Tagesordnung. Obwohl in die Verfassung von Haiti nach dem Ende der Sklaverei und der Erklärung der Unabhängigkeit im Jahre 1804 auch einmal ein Passus aufgenommen wurde, der Kindern grundsätzlich ein „Recht auf Liebe, Zuwendung und Verständnis“ zusichert und auch die „Freiheit der Arbeit“ regelt, werden in der täglichen Realität diese Vorsätze nicht umgesetzt. Dominikanische Republik. Nach Schätzung der Internationalen Organisation für Migration (OIM) werden jährlich etwa 2000 haitianische Kinder von Schleuserbanden illegal über die Grenze in die Dominikanische Republik geschafft und dort als Haussklaven und Arbeitskräfte in der Landwirtschaft verkauft. Mauretanien. Die Sklaverei in Mauretanien besteht trotz ihrer mehrmaligen offiziellen Abschaffung – zuletzt 2007 – weiter fort und betrifft die Nachfahren von vor Generationen versklavten und bis heute nicht freigelassenen Menschen, die "ʿAbīd" (sing. "Abd"), die den „weißen Mauren“ "(Bidhan)" als Sklaven dienen. Ihre Zahl ist unbekannt, wird aber von Menschenrechtsgruppen auf die Größenordnung von Hunderttausenden geschätzt. Sudan. Das Fortbestehen der Sklaverei im Sudan und Südsudan betraf vor allem die Ethnien der Dinka und Nuba und wurde durch Berichte ehemaliger Sklaven wie Mende Nazer und Francis Bok international bekannt. Wie viele Menschen dort versklavt wurden bzw. weiterhin in Sklaverei leben, ist nicht genau bekannt, Schätzungen reichen von einigen Zehntausend bis Hunderttausend. Elfenbeinküste. Laut Anti-Slavery International sollen laut Greenpeace in Elfenbeinküste, von wo 40 % der weltweiten Kakaoernte stammen, rund 200.000 teils aus Nachbarländern stammende Kindersklaven als Erntehelfer eingesetzt werden. Es sind Jungen und Mädchen im Alter von 10 bis 14 Jahren, die zumeist aus Mali, Burkina Faso, Niger, Nigeria, Togo und Benin stammen und ohne Lohn nur gegen Kost und Logis arbeiten. Sie müssten dabei zu 90 % schwere Lasten tragen und zu zwei Dritteln ungeschützt Pestizide versprühen. Um das Jahr 2000 haben sich Schokoladenhersteller verpflichtet, an diesen Zuständen etwas zu ändern. Laut einer Studie des kirchennahen Südwind-Instituts ist danach aber kaum etwas passiert. Wie oft im internationalen Handel wird ein niedriger Einkaufspreis mit so gut wie allen Mitteln vorangetrieben. In den USA ist daher ein Gerichtsverfahren wegen Sklaverei und Verschleppung von Kindern aus Mali gegen Nestlé anhängig. Afghanistan. Besonders im Norden Afghanistans wird noch heute die jahrhundertealte und nach wie vor in weiten Kreisen gesellschaftlich akzeptierte Tradition der sogenannten „"Baccha Baazi"“ (wörtlich ‚Knabenspiel‘) praktiziert. Bei dieser afghanischen Form der Kinderprostitution, die von einem UN-Mitarbeiter als "Kindersklaverei" bezeichnet wird, tanzt ein als Frau verkleideter Junge "(Bacchá)" erst vor Männern und muss diese zumeist auch anschließend sexuell befriedigen. Die "Tanzjungen" sind zwischen 8 und etwa 14 Jahren alt, werden oft armen Familien abgekauft, teilweise entführt oder sind Waisen von der Straße. Sie werden zunächst zu Tänzern für Sexpartys gleichkommenden Unterhaltungsveranstaltungen ausgebildet, jedoch spätestens nach Einsetzen des Bartwuchses von ihren „Besitzern“ gegen jüngere Knaben ausgetauscht, günstigstenfalls mit einer älteren, nicht mehr jungfräulichen Frau verheiratet, gelegentlich auch zusätzlich mit kleinem Haus und Hof abgefunden, meist aber einfach nur entschädigungslos verstoßen. Nicht wenige „"Baccha Baazis"“ sind ermordet worden, nachdem sie zu ihrer "attraktiven" Zeit versucht hatten, ihren „Herren“ zu entfliehen. "Und diejenigen, die es von euch [Männern] begehen, strafet beide. Und so sie bereuen und sich bessern, so lasset ab von ihnen. Siehe, Allah ist vergebend und barmherzig" (Sure 4, Vers 16). und obwohl nach aktuellem Gesetz in Afghanistan Geschlechtsverkehr mit Jungen beziehungsweise Jugendlichen unter 18 Jahren und mit Mädchen unter 16 Jahren verboten ist und auch ein Großteil der afghanischen Männer Homosexualität in alltäglich öffentlichen Gesprächen als widerwärtig und abstoßend ablehnen. Nepal. In Nepal ist die Leibeigenschaft seit 2000 gesetzlich verboten. Dennoch werden jedes Jahr tausende minderjährige Mädchen meist ab ihrem fünften, manche sogar ab dem vierten bis zum 15. Lebensjahr verkauft, um in Häusern reicher Grundbesitzer als sogenannte Kamalaris völlig rechtlos und ohne jeden Schutz bis zu 16 Stunden täglich alle möglichen Arbeiten zu verrichten. 10 Prozent von ihnen würden von ihren "Besitzern" auch sexuell missbraucht. Abschaffung der Sklaverei in der Gegenwart. Die internationale Menschenrechtsorganisation International Justice Mission kämpft weltweit gegen Sklaverei. Die Organisation befreit Sklaven in Ländern wie Indien oder Ghana und führt die Menschen durch eine umfassende Nachsorge in ein neues Leben. Die Anwälte der Organisation sorgen dafür, dass Sklavenhalter vor Gericht für ihre Taten verurteilt werden und so andere Sklavenhalter abgeschreckt werden. Auch versucht International Justice Mission durch Schulungen von Polizei und Justiz ganze Rechtssysteme zu verändern, sodass arme Menschen vor Versklavung besser geschützt werden. Städtebund. Ein Städtebund ist ein Verband von zwei oder mehreren Städten zur gegenseitigen politischen und/oder ökonomischen Stärkung. Städtebünde wurden vorwiegend im 13. Jahrhundert geschaffen. Sie hatten neben militärischen weitgehende juristische Vollmachten und leisteten einen entscheidenden Beitrag zur Emanzipation des Bürgertums von der Vorherrschaft des Adels. Einzelne Städtebünde erlangten zudem ein hohes Maß an Macht und wurden somit zu einem wichtigen wirtschaftlichen und politischen Faktor, der vom jeweiligen Herrscher berücksichtigt werden musste. Heutige Pendants. Die im 20. Jahrhundert gegründeten Städtetage und Städtebünde (z. B. der 1915 gegründete Österreichische Städtebund) vertreten die Interessen der teilnehmenden Städte gegenüber den Bundes- und Landesregierungen ("siehe Hauptartikel" Kommunaler Spitzenverband). Eine weitere neuartige Form von „Städtebünden“ sind internationale Städtepartnerschaftsringe (z. B. Ravensburg – Montélimar – Rivoli, die jeweils untereinander Städtepartnerschaften eingegangen sind) oder Arbeitsgemeinschaften zur Wirtschafts-, Tourismus- und Kulturförderung wie der europäische Verbund „Neustadt in Europa“ mit 36 Mitgliedern. Auch historische Städtebünde wurden für ähnliche Ziele wiederbelebt, etwa die Neue Hanse oder 1991 der Oberlausitzer Sechsstädtebund. Schutzstaffel. Die Schutzstaffel der NSDAP (Abkürzung SS) hatte zwei Phasen mit unterschiedlichen Schwerpunkten. Bis 1934 war sie der SA unterstellt und nahm an deren bewusst herbeigeführten Prügeleien Teil. Ab 1934 errang sie Selbstständigkeit und war vor allem für die Konzentrationslager verantwortlich. Die Schutzstaffel wurde am 4. April 1925 von Adolf Hitler, dem Vorsitzenden der NSDAP, als seine persönliche "Leib- und Prügelgarde" gegründet. Ihr Sitz war zuletzt im SS-Hauptamt, Prinz-Albrecht-Straße (heute: Niederkirchnerstraße), in Berlin-Kreuzberg. Sie unterstand ab dem Reichsparteitag 1926 der Sturmabteilung (SA), übte ab 1930 zugleich aber den parteiinternen „Polizeidienst“ aus. Nach den Röhm-Morden am 30. Juni 1934, bei denen die Führung der SA liquidiert wurde, wurde sie zu einer eigenständigen Organisation der NSDAP erhoben, erlangte im Dritten Reich die Kontrolle über das Polizeiwesen und übernahm über den Aufbau paramilitärischer Verbände eine militärische Funktion neben der Wehrmacht. Sie war ab 1934 für den Betrieb der Konzentrationslager verantwortlich. Kennzeichnend für die SS war die Verzahnung staatlicher Funktionen und Institutionen mit Parteistrukturen. In der Zeit des Nationalsozialismus war die SS das wichtigste Terror- und Unterdrückungsorgan im Deutschen Reich. Die SS war maßgeblich an der Planung und Durchführung von Kriegsverbrechen und von Verbrechen gegen die Menschlichkeit wie dem Holocaust beteiligt und wurde nach 1945 als verbrecherische Organisation verboten. Stabswache und Stoßtrupp Adolf Hitler. Im Mai 1923 ließ Adolf Hitler einen Saal-Schutz namens " Stabswache" für die NSDAP einrichten. Wenige Wochen später wurde, nachdem sich Hermann Ehrhardt mit Ernst Röhm und Hitler überworfen hatte, dieser Saal-Schutz aufgelöst und der "Stoßtrupp Adolf Hitler" gebildet. Nach dem missglückten Hitler-Ludendorff-Putsch vom November 1923 wurde diese Truppe und die NSDAP verboten. Aufstellung der SS. Am 1. April 1925 erhielt Julius Schreck den Auftrag Hitlers, eine neue Einheit zu bilden, die den Saal-Schutz (Schutz der Veranstaltungsräume) der NSDAP-Veranstaltungen übernehmen sollte. Bereits am 4. April wurde aus acht Angehörigen des ehemaligen "Stoßtrupps Adolf Hitler" diese neue Einheit gebildet, die rasch ausgebaut und auf weitere Orte des Deutschen Reiches ausgedehnt wurde. Über verschiedene Namensstufen wie "Saal-Schutz", "Schutzkommando" und "Sturmstaffel" wurde schließlich am 9. November des gleichen Jahres auf dem NSDAP-Reichsparteitag der Name "Schutzstaffel" offiziell eingeführt. Diesen Namen schlug der damalige SA-Führer Hermann Göring in Anlehnung an eine Fliegerbegleitstaffel Manfred von Richthofens im November vor. Schreck wurde nun als "„Oberleiter“" Kommandant der SS. Ihm gelang es jedoch nicht, die SS zu etablieren. Konkurrenzkämpfe mit selbsternannten anderen SS-Einheiten und mangelnde Unterstützung durch die SA führten zu seiner Entlassung 1926 durch Hitler und zur Ernennung Joseph Berchtolds. Diesem gelang es, die SS spürbar zu vergrößern und aufzuwerten: Bis zum Reichsparteitag 1926 gelang es ihm, 75 Staffeln mit insgesamt etwa 1.000 Angehörigen aufzustellen, aus Anerkennung dafür betraute Hitler die SS am 9. November 1926 mit der Betreuung der sogenannten „Blutfahne“. Heinrich Himmler, Reichsführer SS und Chef der deutschen Polizei, 1942 Die SA, die bis dato den jeweiligen Gauleitern unterstanden hatte, wurde im September 1926 Franz von Pfeffer als Oberstem SA-Führer unterstellt, der im Gegenzug für die Aufgabe seiner vorherigen Stellung als Gauleiter die Unterstellung sämtlicher NS-Kampfverbände, also auch die Hitlerjugend und die SS, verlangte und bekam. Unzufrieden mit seinem so verringerten Handlungsspielraum trat Joseph Berchtold 1927 als "Reichsführer SS" zurück. Berchtolds Nachfolger wurde Erhard Heiden, der ein 27-jähriges Mitglied der Röhmschen "Reichskriegsflagge" zu seinem Stellvertreter ernannte: Heinrich Himmler. Heiden, unter dem die SS stagnierte – sogar über ihre Abschaffung war nachgedacht worden – trat am 5. Januar 1929 aus bislang ungeklärten Gründen als "Reichsführer SS" zurück. Heiden wünschte nun am 22. Januar 1929 seine komplette Streichung aus allen SS-Mitglieder- und Organisationslisten und wandte sich wieder der SA zu. Sein Nachfolger wurde der bisherige Stellvertreter Heinrich Himmler, der dieses damals noch nachrangige Amt jedoch noch neben seiner Aufgabe als stellvertretender Reichspropagandaleiter ausübte. Die Aufgaben der Organisation beschrieb Hitler in einem Führerbefehl vom 7. November 1930 wie folgt: "„Die Aufgabe der SS ist zunächst die Ausübung des Polizeidienstes innerhalb der Partei.“" Das Symbol der Schutzstaffel bildete sich 1930 aus zwei nebeneinander liegenden, blitzähnlichen weißen Sig-Runen im schwarzen Feld. Nähe und beginnende Konkurrenz zur SA. Die SS wies bis zum Röhm-Putsch 1934 eine große organisatorische und personelle Nähe zur SA auf. Anders als ihr späterer elitärer Habitus vermuten ließ, unterschied sie sich in Auftreten und brutaler Straßengewalt lange nur insofern von der SA, als ihre Mitglieder noch gewalttätiger auftraten und proportional häufiger mit dem Gesetz in Konflikt gerieten. Die SA selbst diente als wichtigstes Rekrutierungsreservoir der SS und förderte nach der Ernennung Heinrich Himmlers zum Reichsführer der SS 1929 anfangs noch deren Aufstieg. Der Oberste SA-Führer Franz von Pfeffer ordnete an, dass die neugegründeten Staffeln der SS mit jeweils fünf bis zehn überstellten SA-Männern aufzufüllen seien, nach kurzer Zeit bestand die SS deutschlandweit. Ernst Röhm beschränkte 1931 die Sollstärke der SS auf zehn Prozent der "Sturmabteilung". Da die Stärke der SS zu diesem Zeitpunkt etwa 4.000 Mann betrug, (die SA verfügte dagegen über 88.000 Angehörige) war diese Beschränkung in der Realität ein ehrgeiziger „Wachstumsplan“, um ihn zu erfüllen ordnete Röhm an, jede neugegründete SS-Staffel mit 50 % ihres Sollbestandes aus der SA aufzufüllen. Weitere freiwillige Übertritte von der SA zur SS über dieses Soll hinaus blieben möglich. Der Druck der obersten SA-Führung und Heinrich Himmlers auf Einheiten der SA, die SS massiv auszubauen, führte zu ersten Streitereien und Konflikten zwischen SS und SA, die um die besten Männer konkurrierten. Obwohl die NSDAP öffentlich vor allem durch die SA geprägt wurde, der die SS weiterhin unterstellt war, blieb das gegenseitige Verhältnis von SA und SS nicht ungetrübt. Insbesondere in Berlin und in Ostdeutschland zeigten Teile der SA um Walter Stennes gegenüber der Parteiführung um Adolf Hitler und dem Gauleiter von Berlin, Joseph Goebbels, eine Eigenständigkeit, die an Aufsässigkeit grenzte und wiederholt zu teils gewalttätigen, teils nur mit Mühe friedlich zu bewältigenden Auseinandersetzungen führte. Im sogenannten Stennes-Putsch von Teilen der Berliner SA wurde sogar die Parteizentrale der NSDAP gewaltsam von SA-Männern besetzt und die – auf Anforderung von Goebbels dort aufgezogenen – SS-Wachen verprügelt. Dagegen stand die SS loyal zu Adolf Hitler, der das positiv vermerkte. Durch die so begründete „besondere Beziehung“ Hitlers zur Schutzstaffel wurde diese zu einem „ernstzunehmendem Machtfaktor“ innerhalb der NS-Bewegung. In einem Dankesbrief an den am Konflikt auf Seiten der Berliner SS maßgeblich beteiligten Kurt Daluege gebrauchte Hitler die Worte: „SS-Mann, Deine Ehre heißt Treue !“; Worte, die, nachdem Himmler von ihnen erfahren hatte, abgewandelt zum Motto der SS wurden und bereits 1931 ("Meine Ehre heißt Treue") auf den Gürtelschnallen der SS-Uniformen festgehalten wurden. Gründung des SD. SS-Fliegersturm Hamburg bei einer „Ehrenwache“, 1933 1931 begann Heinrich Himmler mit dem Aufbau eines SS-eigenen Nachrichtendienstes, dem Sicherheitsdienst des Reichsführers SS (Abkürzung SD), der die Aufgabe der SS als eine Art Polizei innerhalb der NSDAP unterstützen sollte. Federführend dabei war sein engster Mitarbeiter Reinhard Heydrich, der den SD ab 1932 auch leitete. Nach der Machtübernahme Hitlers im Jahre 1933 wurde dem SD ein Zentralamt und eine besondere Organisationsstruktur zuerkannt. Dabei wurde das deutsche Reichsgebiet in zu überwachende Abschnitte und Oberabschnitte aufgeteilt. Zu diesem Zeitpunkt stellte der SD, wie auch die Allgemeine SS, eine unabhängig organisierte Teilstruktur innerhalb der "Gesamt-SS" dar. Das Budget des SD wurde hierbei aus dem Etat des Reichsschatzmeisters der NSDAP gespeist. Verschmelzung mit der Polizei in Bayern. Nach der Machtergreifung griff die SS unter Heinrich Himmler und dessen engstem Mitarbeiter Reinhard Heydrich nach polizeilichen Vollmachten. In Bayern verband die von beiden aufgebaute Bayerische Politische Polizei institutionell staatliche Polizeikräfte mit dem Nachrichtendienst der SS, dem SD, dieses Modell wurde später auf das Gesamtreich ausgedehnt und Grundlage der Machtstellung der SS. Mit der SA, die nach der Machtergreifung verschiedene Polizeipräsidenten stellte, konkurrierte die SS reichsweit nun auch um die polizeiliche Macht. Gleichfalls waren viele Konzentrationslager in den Händen der SA, die diese nach eigenem Belieben und teilweise chaotisch verwaltete, während die SS das von ihr gegründete KZ Dachau sicher nicht humaner, aber regelhafter betrieb und ein Interesse hatte, weitere Konzentrationslager in ihre Gewalt zu bekommen. Entmachtung der SA als Basis des Aufstiegs der SS. Entscheidend für den weiteren Aufstieg der SS unter Himmler und Reinhard Heydrich war die Entmachtung der SA, welche die SS unter dem Vorwand eines angeblichen "Röhm-Putsches" durchführte. Bereits am 20. April 1934 war Himmler mit Blick auf einen kommenden Konflikt mit der SA auch zum Inspekteur der preußischen Gestapo (und damit zu ihrem faktischen Leiter) ernannt worden. Vom 30. Juni bis zum 2. Juli 1934 ermordeten Teile der bewaffneten SS-Verbände, namentlich die erste und zweite Schützenkompanie der "Leibstandarte SS Adolf Hitler" und der Dachauer "SS-Wachsturmbann „Oberbayern“", unter der Leitung von SD-Offizieren die Führung der konkurrierenden SA. Vorwand war ein vermeintlich geplanter Putsch der SA. Auch Konservative, andere politische Gegner und Unbeteiligte waren unter den Todesopfern. Für die SS zahlte sich ihr Handeln institutionell aus. Am 20. Juli 1934 koppelte Hitler die SS von der SA ab: "„Im Hinblick auf die großen Verdienste der SS, besonders im Zusammenhang mit den Ereignissen vom 30. Juni 1934, erhebe ich dieselbe zu einer selbständigen Organisation im Rahmen der NSDAP.“" Am 23. August 1934 wurde Himmler mit der Verleihung der Dienststellung eines „Reichsleiters SS“ Hitler persönlich unterstellt. Damit war die SS nur noch weisungsgebunden an Hitler. Ausbau der gewonnenen Machtstellung. Mit der Ernennung von Theodor Eicke, der nach der Entmachtung der SA der erste reichsweite Inspekteur der Konzentrationslager wurde, rundete die SS ihre Kontrolle über die Konzentrationslager ab. Ab 1934 stellte die SS mit der SS-Verfügungstruppe und den SS-Totenkopfverbänden eigene militärisch ausgebildete Verbände auf, mit denen die SS das militärische Monopol der Reichswehr aushöhlte. 1936 wurde Himmler durch den Erlass über die Einsetzung eines Chefs der Deutschen Polizei im Reichsministerium des Innern in den Rang eines Staatssekretärs erhoben und damit den Befehlshabern der Teilstreitkräfte der Wehrmacht gleichgestellt. Nominell war er dem Reichsinnenminister Wilhelm Frick nachgeordnet, faktisch führte die SS die deutsche Polizei eigenständig. Mit dem Aufbau der Sicherheitspolizei und des späteren Reichssicherheitshauptamtes und der Unterstellung der Ordnungspolizei sowie dem Ausbau der SS-eigenen militärischen Verbände wurde die besondere Stellung der SS im Nationalsozialismus konsolidiert. Ihre Verschmelzung von Parteistrukturen mit Strukturen des Staates, die ein zentrales Element des NS-Systems darstellt, prägte das Dritte Reich von nun an entscheidend. Die SS war innerhalb der auseinanderdriftenden NS-Polykratie, die von der Zerfaserung staatlicher Macht zugunsten von Parteistrukturen und Hitler persönlich verantwortlichen Einzelpersonen wie Reichskommissaren oder Gauleitern geprägt war, ein Element der Zentralisierung, das in direkte Konkurrenz zu Partei und Staat treten konnte. Obgleich eine Untergliederung der NSDAP, stand sie in Wirklichkeit in einer gewissen Konkurrenz zur Partei, da sie sich unter Himmlers Führung bewusst als anführende Elite des NS sah. Als Heinrich Himmler 1943 auch Nachfolger des Reichsinnenministers Wilhelm Frick wurde, wurde offiziell deutlich, dass das staatliche Reichsinnenministerium eher in die SS integriert wurde als die SS in die normale Exekutive des Staates. Anschluss Österreichs und Besetzung der Tschechoslowakei. Am 12. März 1938 nahmen auch Truppenteile der SS-Verfügungstruppe am Einmarsch der Wehrmacht in Österreich teil. In Wien wurde die SS-Standarte "Der Führer" gebildet. Im Oktober 1938 nahm die SS-Verfügungstruppe auch an der Besetzung des Sudetenlands teil, das die Tschechoslowakei nach dem ihr Ende September aufgezwungenen Münchner Abkommen an das Deutsche Reich abzutreten hatte. Im März 1939 wurde die so genannte „Rest-Tschechei“ besetzt und als Protektorat Böhmen und Mähren organisiert. Die SS wurde mit der Zerschlagung des Widerstandes beauftragt. Der Chef des Reichssicherheitshauptamtes, Reinhard Heydrich, wurde später stellvertretender "Reichsprotektor" des besetzten Gebietes. 1942 fiel er einem Attentat zum Opfer, woraufhin die NS-Führung als „Vergeltung“ die Bewohner des Ortes Lidice töten ließ. Zusammenfassung zur Waffen-SS. Angehörige einer SS-Totenkopf-Division, Aufnahme einer Propagandakompanie der Wehrmacht, Russland 1941 Im Herbst 1939 wurden die Leibstandarte, die Verfügungstruppe und die Totenkopfverbände langsam zur Waffen-SS verschmolzen. Heinrich Himmler wollte als Reichsführer SS seine Schutzstaffel zu einem umfassenden Staatsschutzkorps ausbauen, das an allen Fronten die inneren und äußeren Feinde des NS-Staates bekämpfen sollte. Trotz allen Differenzen innerhalb der verzweigten SS-Organisationsstruktur blieb die SS auf ein einheitliches ideologisches Ziel ausgerichtet. Dementsprechend gab es eine einheitliche Ausbildung der Führungskräfte in den beiden SS-Junkerschulen in Bad Tölz und Braunschweig. Die militärische und ideologische Schulung unterschied nicht, ob die Führungskräfte in der SS-Verwaltung, an der militärischen Front, im SD oder in den Konzentrationslagern eingesetzt werden sollten. Der erste Kampfeinsatz der SS erfolgte beim Überfall auf Polen 1939. Die Wehrmacht befürchtete eine zunehmende Konkurrenz durch die SS-Verfügungstruppe, konnte aber die Zusammenlegung der bisherigen Regimenter "Germania", "Der Führer", "Totenkopf" und der "Leibstandarte SS Adolf Hitler" zur "SS-Verfügungsdivision" nicht verhindern. Die kämpfenden SS-Verbände dieser "SS-VT-Division" unterstanden weiterhin dem Oberkommando der Wehrmacht und wurden nun auf verschiedene Heeresteile verteilt, d. h. die SS-VT-Division kämpfte nicht als einheitlicher Verband. Beim Angriff auf Frankreich verfügte die inzwischen gegründete Waffen-SS bereits über drei Divisionen ("Das Reich", "Totenkopf" und die "SS-Polizei-Division") und das "motorisierte Regiment LAH". Die SS-Divisionen erlitten an der Front teilweise schwere Verluste. Als Freiwilligentruppe hochmotiviert, mit einer den Wehrmachtverbänden in der Regel überlegenen Ausrüstung, wurden diese Eliteeinheiten oft an den gefährlichsten Einsatzorten verwendet. Auch im "Frankreichfeldzug" wurden von SS-Verbänden zahlreiche Kriegsverbrechen verübt. Massaker an Hunderten sich ergebender Soldaten und an einer Vielzahl von Kriegsgefangenen sind dokumentiert, ebenso „Vergeltungsmaßnahmen“ für Aktionen der „Résistance“. Am 10. Juni 1944, kurz nach der Landung der Alliierten in der Normandie (siehe Operation Overlord), haben Angehörige der SS-Division „Das Reich“ beispielsweise bei Limoges das Massaker von Oradour begangen, bevor sie selbst in Nordfrankreich umkamen. Ab 1943 beteiligten sich insbesondere die Panzerverbände der SS am Kampf im Osten, so z. B. in der Orel-Kursk-Schlacht im Rahmen des Unternehmens Zitadelle. Ab 1943 wurden auch wehrpflichtige Deutsche und Männer aus Nordwesteuropa in die SS-VT-Division eingezogen, um an der Front neben den Wehrmachtsoldaten zu kämpfen, später wurden auch SS-Einheiten aus anderen Ländern wie z. B. Albanien aufgestellt. Nichtdeutsche SS-Einheiten hatten allerdings einen gemischten Wert, so zerfiel die albanische SS-Division „Skanderbeg“ bereits vor ihrem ersten Kampfeinsatz, während Angehörige der SS-Division Charlemagne 1945 zu den letzten Verteidigern Berlins gehörten. Einsatzgruppen. Einsatzgruppe A, Gefangene schaufeln eigene Gräber, Litauen 1941 Weitere SS-Verbände kamen im Polenfeldzug und im Krieg gegen die Sowjetunion als sogenannte Einsatzgruppen hinter der Front bei „Säuberungsaktionen“ zum Einsatz und begannen mit der systematischen Verfolgung und Ermordung von Juden und Angehörigen der polnischen und russischen Intelligenz. Gemäß den "Richtlinien zu Zusammenarbeit des Heeres mit den Einsatzgruppen" rückten die SS-Verbände unmittelbar nach der Wehrmacht in die eroberten Ortschaften ein. Aus rassenideologischen Gründen verfolgte Menschen mussten sich auf Befehl an einem bestimmten Platz versammeln und wurden von dort oft sofort durch die SS zu einem abgelegenen Ort gebracht und ermordet. Wehrmachtsoldaten waren oftmals Zeugen dieser Hinrichtungen und auch die Wehrmacht und deutsche Polizeibataillone (die der SS unterstanden) führten Massenexekutionen durch. Die mobilen Einsatzgruppen spielten bei der Vernichtung der Juden Osteuropas eine sehr große Rolle. Kriegsverbrechen, Holocaust und Völkermord. a> in einem Massengrab im KZ Bergen-Belsen nach dessen Befreiung im April 1945 Im weiteren Verlauf des Zweiten Weltkriegs verübten die vom Reichssicherheitshauptamt aufgebauten und geführten Einsatzgruppen unter Einbezug von Einheiten der Waffen-SS und der Ordnungspolizei und auch in Zusammenarbeit mit der Wehrmacht und einheimischen Hilfstruppen zahllose Kriegsverbrechen wie Massenexekutionen von Zivilisten in Vernichtungskrieg und Holocaust, Folterung und Ermordung von Kriegsgefangenen und die Vertreibung zahlreicher Menschen aus besetzten Gebieten im Gefolge ethnischer Säuberungen. Das Vorgehen der SS war derart barbarisch, dass es selbst der Wehrmacht als inakzeptabel erschien. Die Verfolgung derartiger Verbrechen von SS-Angehörigen wurde jedoch schon 1939 auf Befehl Adolf Hitlers eingestellt. Die SS war sowohl treibender Faktor als auch Werkzeug im Holocaust und anderen Verbrechen wie z. B. dem Porajmos, die ein ethnisch gesäubertes Osteuropa für die Zeit nach dem Endsieg des NS vorbereiten sollten. Durch Ernennung von SS- und Polizeiführern (SSPF) mit eigenem Stab, Einsatzkräften und im Bedarfsfall weiterem Zugriff auf SS-Machtmittel festigte die SS ihre Position hinter der Front und in den zivil verwalteten besetzten Gebieten. Als „Gesandte“ Himmlers beaufsichtigten, exekutierten und intensivierten die SSPF die von der SS betriebene Besatzungs- und Ausrottungspolitik. Neben dem mobilen Massenmord durch Massenerschießungen betrieb die SS auch Vernichtungslager wie das KZ Auschwitz, in denen die Mehrzahl der Opfer des Holocausts ums Leben kam. Die Verwaltung dieser Vernichtungslager erfolgte über das SS-Wirtschafts-Verwaltungshauptamt mit der Inspektion der Konzentrationslager (IKL). Die Bewachung und die Ausübung der lagerinternen Polizeigewalt und Vernichtungspraxis wurden von den SS-Totenkopf-Wach-Einheiten direkt und in der Regel alleinverantwortlich durchgeführt. Die SS war damit verantwortlich für die industrielle Ermordung von Millionen Menschen. Organisationsentwicklung. Zunächst der SA unterstellt, entwickelte sie sich zu einer Organisation mit „Polizeifunktionen“ innerhalb der NSDAP. Mit der Berufung Heinrich Himmlers zum "Reichsführer SS" 1929 begann ein grundlegender Wandel der Organisation. Vordem eine kleine Gruppierung von wenigen hundert Mann innerhalb der SA, sollte sie nach Himmler zur "Kampftruppe" der NSDAP ausgebaut werden, „ein nationalsozialistischer, soldatischer Orden nordisch bestimmter Männer, von denen jeder bedingungslos jeden Befehl befolgt, der vom Führer kommt.“ Die SS wurde von ihm gleichzeitig zu einer „Elite“- und einer Massenorganisation ausgebaut. Der elitäre Charakter zeigte sich in den rassebiologischen und weltanschaulichen Kriterien, die erfüllt werden mussten, um der SS angehören zu können. Die SS sollte als „Sippengemeinschaft“ eine Verkörperung der nationalsozialistischen Herrenmenschenideologie darstellen und als „Bewahrer der Blutsreinheit“ zur Keimzelle der nordischen Rassendominanz werden. Die Auswahlkriterien beschränkten sich daher nicht auf die Bewerber selbst; auch Ehefrauen der SS-Mitglieder wurden hinsichtlich ihrer „Rassenreinheit“ überprüft. Die Ideologie der SS als Führungsorden manifestierte sich auch in der Anlehnung an Vorstellungen mittelalterlicher Rittergemeinschaften, mit deren Hilfe sie sich – etwa durch Rituale in "Weihestätten" oder Symbole wie den SS-Totenkopfring und die Verwendung verschiedener Runensymbole (heute umgangssprachlich als „SS-Runen“ bezeichnet) oder den Ehrendolch – eine quasireligiöse Dimension zu geben versuchte. Nach der Machtübernahme der Nationalsozialisten erhielt die SS, wie auch SA und Stahlhelm, polizeiliche Privilegien zur Verfolgung politischer Gegner. Im April 1933 befanden sich bereits über 25.000 Regimegegner in „Schutzhaft“. SA und SS begannen mit der Errichtung erster Konzentrationslager (KZ) in Dachau und Oranienburg. Nach dem Röhm-Putsch erfolgte eine dauerhafte Machtverschiebung zur SS. Die SS übernahm nun in alleiniger Verantwortung die Zuständigkeit für alle frühen Konzentrationslager (KZ) im Reich, die bis dahin teilweise noch von der SA kontrolliert worden waren. Die SS-Totenkopfverbände wurden nun ausschließlich mit der Bewachung der Lager beauftragt. Die frühen, improvisierten Haftorte und Konzentrationslager wurden – mit Ausnahme des KZ Dachau – nach und nach geschlossen. Es begann die systematische Entwicklung des NS-Lagersystems, Hitler ließ Lager nach dem Prototyp Dachau erbauen. Im November 1934 wurde das Prinz-Albrecht-Palais in der Wilhelmstraße 102 in Berlin in den Komplex der Gebäude an der Prinz-Albrecht-Straße 8 miteinbezogen und zum Sitz des Sicherheitsdienstes des Reichsführers SS. Ab 1935 benannten sich die Verwaltungseinheiten der SS in "Allgemeine SS" um. Sie wollten sich dadurch von ihren inzwischen bewaffneten Verbänden, der "SS-Verfügungstruppe" und den "SS-Totenkopfverbänden" unterscheiden, die später die "Waffen-SS" bildeten. Diese "Allgemeine SS", nun auch "Heimat-" oder "Schwarze-SS" genannt, unterstand nun dem neuen Kommandoamt der Allgemeinen SS in Berlin. Ausbildung des Führernachwuchses. Die SS bildete ihren Führernachwuchs selbständig an diversen eigenen Schulen aus. In den Schulen der SS, des SD und der Sicherheitspolizei wurde auf ein elitäres und ideologisch gefestigtes Selbstverständnis im Sinne nationalsozialistischer Weltanschauung geachtet. Bekannte Ausbildungseinrichtungen waren die SS-Junkerschulen in Bad Tölz und Braunschweig. SS-Wirtschaftsbetriebe. Die SS gründete zahlreiche Firmen, u. a. 1938 die Deutsche Erd- und Steinwerke GmbH (DEST), die sie 1940 in den "Deutschen Wirtschaftsbetrieben" (DWB) zusammenfasste. Die DWB wurden von leitenden Mitarbeitern der SS-Verwaltung geführt. 1942 wurden sämtliche wirtschaftlichen Angelegenheiten im "SS-Wirtschafts- und Verwaltungshauptamt" konzentriert. Dieses betrieb über das "Hauptamt Verwaltung und Wirtschaft" die Verwaltung der Konzentrations- und Vernichtungslager mit der wirtschaftlichen Ausbeutung der Kriegsgefangenen und KZ-Häftlinge. 1943/44 gehörten etwa 30 Unternehmen mit über 100 Betrieben, in denen mehr als 40.000 Konzentrationslagerhäftlinge arbeiten mussten, zum Wirtschaftsimperium der SS. Der Hauptsitz der DWB befand sich in Oranienburg bei Berlin. Die SS erwarb auch mehrere Mineralwasserkonzerne, so etwa die Heinrich Mattoni AG und die Apollinaris Brunnen AG. Personalentwicklung. Als Heinrich Himmler am 6. Januar 1929 die Führung der SS von Erhard Heiden übernahm, umfasste diese Organisation 280 Mann als „aktive Mitglieder“. Nach der nationalsozialistischen Machtübernahme stieg die Zahl der SS-Mitglieder innerhalb eines Jahres von 52.174 (Januar 1933) auf 209.014 (Dezember 1933). Seit Ende 1934 bestand die SS zum einen aus den kasernierten Einheiten der bewaffneten SS (seit 1939: Waffen-SS), zum anderen aus der Allgemeinen SS, deren Angehörige nicht kaserniert waren. Die Mitgliederzahl der Allgemeinen SS nahm in den folgenden Jahren nur noch langsam zu. Ihr Höchststand lag Ende 1941 bei 271.060 Mitgliedern. Die bewaffnete SS entwickelte sich erst während des Krieges zu einem quantitativ bedeutsamen Faktor. Ihre Mitgliederzahl stieg von 23.406 (Ende 1938) auf 594.443 (Juni 1944). Zu Kriegsbeginn am 1. September 1939 wurden rund 60 % der Mitglieder der Allgemeinen SS zur Wehrmacht eingezogen. Das hieß, dass von den damaligen 260.000 SS-Mitgliedern 170.000 ihren Kriegsdienst in den drei Wehrmachtteilen Heer, Luftwaffe und Marine taten. Nur ca. 36.000 wurden von der Waffen-SS übernommen. Die übrigen Mitglieder waren entweder für den Kriegsdienst zu alt oder waren auf „unabkömmlichen Posten“ im Öffentlichen Dienst oder bei den Polizeikräften eingesetzt. Im Verlauf des Krieges war eine zunehmende Verwendung ausländischer Staatsangehöriger in Verbänden der Waffen-SS zu beobachten, „bei Kriegsende bestanden 19 ihrer 38 Divisionen weitgehend aus Ausländern", meist aus Osteuropa. Blutgruppentätowierung. Angehörige der Allgemeinen SS, die sich zur Waffen-SS gemeldet hatten und auch von dieser übernommen wurden, trugen eine Tätowierung der Blutgruppe auf der Innenseite des linken Oberarms. Dieser Umstand erleichterte den Alliierten während und nach dem Krieg die Zuordnung angeblicher Wehrmachtangehöriger und Zivilisten zur Waffen-SS. Oft versuchten deren Angehörige, sich vor der Gefangennahme durch andere Uniformen und Kleidung zu tarnen. SS-Angehörige, die in den drei Wehrmachtteilen eingesetzt waren, betraf diese Tätowierung nicht, da die Blutgruppe auf deren Wehrmacht-Kennmarken vermerkt war. Auflösung und Verbot der SS. Bis Kriegsende kämpften SS-Verbände oft erbittert gegen die vorrückenden Alliierten und setzten insbesondere die Ermordung von Juden fort, solange sie dazu noch im Stande waren (vgl. Todesmärsche von KZ-Häftlingen). In zahlreichen Fällen besorgten SS-Angehörige sich Uniformen der Wehrmacht, um von den Alliierten nicht als der SS zugehörig erkannt zu werden. Heinrich Himmler selbst wurde in der Uniform eines Unteroffiziers der Geheimen Feldpolizei von den Briten verhaftet und beging, nachdem er erkannt worden war, Selbstmord. Nach der bedingungslosen Kapitulation der Wehrmacht, die alle unter deutschem Oberbefehl stehenden Verbände einbezog, ordneten die Alliierten mit der Direktive 2 des Kontrollrates vom 10. September 1945 die Auflösung an. Mit dem Kontrollratsgesetz Nr. 2 vom 10. Oktober 1945 wurden die SS und ihre Neben- und Ersatzorganisationen auch förmlich aufgelöst sowie die Neugründung verboten. Nürnberger Prozess und Folgeprozesse. Im Nürnberger Prozess gegen die Hauptkriegsverbrecher 1946 wurde sie als „verbrecherische Organisation“ eingestuft. Diese Bewertung betraf die gesamte SS, einschließlich der Waffen-SS, der SS-Totenkopfverbände und des SD mit Ausnahme der sogenannten Reiter-SS und des SS-eigenen Vereins Lebensborn. Verteidiger der SS war Horst Pelckmann. Im Anschluss kam es zu einer Reihe von Prozessen, die sich mit Einzelaspekten der Taten der SS beschäftigten: Von Januar bis November 1947 mussten sich eine Reihe von Funktionären des Wirtschafts- und Verwaltungshauptamtes der SS wegen ihrer Rolle beim Massenmord in den Konzentrationslagern verantworten; Im Prozess gegen Funktionäre des Rasse- und Siedlungshauptamtes vom Juli 1947 bis März 1948 stand die „Rassenpolitik“ der SS im Vordergrund. Im Einsatzgruppen-Prozess zwischen September 1947 und April 1948 standen Einsatzgruppenleiter der SS wegen Verbrechen gegen die Menschlichkeit und Kriegsverbrechen vor Gericht. Flucht von SS-Tätern. Unterstützung bei der Flucht über die sogenannten "Rattenlinien" fanden ehemalige SS-Angehörige unter anderem durch hochrangige Vertreter der römisch-katholischen Kirche besonders in Italien. Lange existierte ein Gerücht über eine "Organisation der ehemaligen SS-Angehörigen" (ODESSA), die kurz vor Kriegsende gegründet worden sein soll, um ehemalige SS-Angehörige auch nach dem Ende des Krieges zu unterstützen und ihnen die Flucht zu ermöglichen. Zu den Tätern, denen eine Flucht gelang, gehörten unter anderem Josef Mengele und Adolf Eichmann. Gesetzliche Ächtung von Symbolen der SS. Die Bundesrepublik Deutschland ging über das Organisationsverbot der Alliierten hinaus und stellte im Strafgesetzbuch sowohl die Verbreitung von Propagandamaterial () als auch die Verwendung der Symbole der SS () unter Strafe. Kennzeichen im Sinne der Paragrafen sind namentlich Fahnen, Abzeichen, Uniformstücke, Parolen und Grußformen. Den Kennzeichen stehen auch solche gleich, die ihnen zum Verwechseln ähnlich sind. Diese Verbote der Verwendung von Kennzeichen verfassungswidriger Organisationen gelten nur dann nicht, wenn ihre Verwendung „der staatsbürgerlichen Aufklärung, der Abwehr verfassungswidriger Bestrebungen, der Kunst oder der Wissenschaft, der Forschung oder der Lehre, der Berichterstattung über Vorgänge des Zeitgeschehens oder der Geschichte oder ähnlichen Zwecken dient“ (§ 86, Absatz 3). Für Österreich gilt der § 3 des Verbotsgesetzes. Für die Schweiz und andere Länder gelten entsprechende Regelungen. Strafprozesse. In zahlreichen Ländern gab es Prozesse gegen SS-Täter. In der Bundesrepublik Deutschland zählen zu den bekanntesten Prozessen der Ulmer Einsatzgruppenprozess und die Auschwitz-Prozesse. Die bundesdeutsche Bereitschaft zu einer strafrechtlichen Ahndung entstand nur allmählich. Zahlreiche SS-Täter konnten sich ihrer Verantwortung entziehen, darunter auch hochrangige Offiziere. Die Ermittlungsarbeit der Staatsanwälte führte jedoch zu einem Erkenntnisgewinn über die Arbeitsweise der SS-Institutionen und das Ausmaß ihrer Verbrechen. Traditionsverbände der SS. Trotz weitgreifenden Verboten der SS, von Propagandamaterialien und Symbolen gab es nach 1945 eine Reihe von „Traditionsverbänden“ der SS und der Waffen-SS-Angehörigen, wie etwa die "Hilfsgemeinschaft auf Gegenseitigkeit der Soldaten der ehemaligen Waffen-SS" (HIAG) in Deutschland oder die "Kameradschaft IV" in Österreich. Stanley Milgram. Stanley Milgram (* 15. August 1933 in New York City; † 20. Dezember 1984 ebenda) war ein US-amerikanischer Psychologe. Sein bekanntestes Experiment zur Bereitschaft, gegenüber Autoritäten gehorsam zu sein, ist heute als Milgram-Experiment bekannt. Leben. Stanley Milgram wurde am 15. August 1933 in New York City geboren. Im Jahre 1950 machte er zusammen mit seinem Schulfreund Philip Zimbardo an der James Moroe High School seinen Highschool-Abschluss. Vier Jahre später erhielt er am Queens College den Bachelor–Abschluss. Seinen Doktortitel erwarb Milgram unter Gordon Allport an der Harvard Universität. Anschließend wurde er ordentlicher Professor am Graduate Center der City University of New York. 1983 wurde er zum Mitglied der American Academy of Arts and Sciences ernannt. 1984 starb Milgram im Alter von 51 Jahren an einem Herzinfarkt. Er hinterließ seine Frau und zwei Kinder. Gehorsam gegenüber Autoritäten. Stanley Milgram wurde bekannt durch seine Arbeit zum Gehorsam gegenüber Autoritäten. In seinen heute als "Milgram-Experiment" bezeichneten Versuchen zeigte er, dass die Mehrzahl der Durchschnittsmenschen sich von angeblichen Autoritäten dazu bewegen lässt, andere Menschen systematisch (in diesem Fall durch Stromstöße) zu misshandeln. Seine Arbeit wird als besonders wichtig angesehen, um zu verstehen, wie bislang unauffällige Menschen Grausamkeiten begehen können. Sie löste aber auch Widerspruch aus, weil sie implizierte, dass ein Großteil der Menschen potentiell grausam sei. Vertreter von Ideologien, die das „Gute im Menschen“ postulieren, zeigten sich besonders angegriffen. Milgram nennt zum besseren Verständnis seiner Arbeit einige wichtige Voraussetzungen des Verhaltens von Menschen unter autoritärem Einfluss, denn Gehorsam ist demnach ein normaler Vorgang, der Gesellschaften prägt. Einschränkend muss man jedoch fragen, inwieweit Gehorsam in bestimmten Situationen noch angemessen ist. Hier setzt Milgrams Untersuchung an. Die Ergebnisse des Milgram-Experimentes gelten als gut abgesichert und konnten in zahlreichen Nachfolgeexperimenten reproduziert werden. Das Kleine-Welt-Phänomen. Milgram prägte nach einem anderen Versuch, in dem er u. a. die Post zu Zwecken der Sozialforschung nutzbar machte, den Begriff des Kleine-Welt-Phänomens ("small world phenomenon"). Bevor er das Kleine-Welt-Phänomen untersuchen konnte, entwickelte Milgram 1960 die sog. „lost letter technique“. Diese nicht-reaktive Methode dient dazu, die Einstellung einer Bevölkerung in einem bestimmten Testgebiet zu erforschen, ohne dass sich wie bei herkömmlichen Methoden soziale Einflüsse wie etwa die erwartete soziale Erwünschtheit in den Antworten auf die Befragung niederschlagen. Dazu dienten Briefe, die vollständig adressiert und frankiert im Testgebiet zurückgelassen wurden und den Eindruck erweckten, verloren worden zu sein. Sie waren (neben Privatpersonen) an Menschen adressiert, die erkennbar einer Gruppierung oder Institution angehörten, etwa einer medizinischen Forschungseinrichtung, der kommunistischen Partei oder den Nationalsozialisten. Aus der Anzahl der Briefe, die die Bewohner hilfsbereit an die Adresse weiterleiteten, also etwa in den Briefkasten warfen, schloss der Experimentator auf die Einstellung der Bevölkerung zu den Gruppierungen. Urban-Overload-Hypothese. Nach Milgrams Beobachtung leiden Menschen in Großstädten an Reizüberflutung, gegen die sie sich durch sozialen Rückzug abschotten. Dadurch werden zwischenmenschliche Beziehungen oberflächlicher, die Häufigkeit prosozialen Verhaltens nimmt ab usw., siehe Urban-Overload-Hypothese. Silicate. Silicate (auch Silikate) sind die Salze und Ester der Ortho-Kieselsäure (Si(OH)4) und deren Kondensate. Die Ester werden unter Kieselsäureester beschrieben, für die Kondensate siehe Kieselsäuren. Alle Salze sind durch SiO4−Tetraeder aufgebaute Verbindungen, deren Tetraeder jedoch auf verschiedene Weise miteinander verknüpft sein können. Unverknüpfte Stellen der Tetraeder tragen zum Ladungsausgleich Metallkationen bei oder liegen eventuell als Hydroxidionen (OH−) vor. Mit Ausnahme der Alkalisilicate sind Silicate unlöslich in Wasser oder anderen Lösungsmitteln. Natürliche Silicate (Silicatminerale) spielen eine große Rolle in der Mineralogie, da sich sehr viele Minerale dieser Stoffgruppe zuordnen lassen. Die Erdkruste besteht zu über 90 Prozent, der Erdmantel fast vollständig aus Silicaten. Die häufigsten Silicate in der Erdkruste sind mit 50–60 Volumenprozent die Feldspäte. Andere wichtige gesteinsbildende Minerale sind Glimmer, Tonminerale, Amphibole, Pyroxene, Granat und Olivin. Das häufige Mineral Quarz (SiO2) wird in deutschsprachiger Literatur zu den Oxiden gezählt, im anglo-amerikanischen Schrifttum jedoch zu den Silicaten. Struktur. Allen Silicatmineralen ist ein gemeinsames Bauprinzip eigen, deshalb lassen sie sich relativ einfach in eine systematische Ordnung bringen. Die Grundbausteine aller Silicate sind SiO4-Tetraeder. Ein Siliciumatom ist dabei von vier Sauerstoffatomen umgeben. Die Sauerstoffatome berühren sich wegen ihrer Größe, in der Mitte bleibt Platz für das relativ kleine Siliciumatom (der freie Raum heißt Tetraederlücke). Aluminium kann das sich chemisch ähnlich verhaltende Silicium ersetzen und substituieren (man spricht hier von „isomorphem Ersatz“), Silicate, in denen dies passiert, nennt man Alumosilicate. Bei Einbau von Aluminium (Al3+ statt Si4+) in das Mineralgitter muss Ladungsausgleich durch Einbau weiterer positiv geladener Ionen (Kationen) erfolgen. Das Al:Si-Verhältnis kann den Wert 1 nicht überschreiten, reine Aluminate kommen in der Natur nicht vor. Systematik der Silicatminerale. Die Silicate bilden wie bereits erwähnt eine äußerst ausgedehnte Mineralfamilie. Es treten große Unterschiede hinsichtlich chemischer Zusammensetzung, Kristallsymmetrie, Bindungsarten und Struktur der Grundbausteine auf, weshalb verschiedene Klassifikationsschemata für Silicatminerale bestehen. Die in Deutschland übliche Systematik teilt sie nach dem Grad der Polymerisation der SiO4-Tetraeder ein. Bemerkungen zur Schreibweise der chemischen Summenformeln. An die Stelle der Sauerstoff-Siliciumkomplexe können Hydroxid- oder Fluoridionen treten. Die Position von „M“ wird von einem oder mehreren Metallionen bis zum Ladungsausgleich besetzt. In das Gitter von besonders weitmaschigen Silicaten kann auch Wasser eingelagert werden. Wenn in einem bestimmten Mineral tatsächlich einige der SixOy-Komplexe durch Ionen wie Fluorid (F−) oder Hydroxid (OH−) ersetzt werden, so deutet man das durch senkrechte Trennstriche im letzten Term der Formel an, zum Beispiel Gruppensilicate (Sorosilicate). Je zwei SiO4-Komplexe sind über ein Sauerstoffatom zu Doppeltetraedern verbunden, wobei dieser so genannte Brückensauerstoff jedem SiO4-Tetraeder zur Hälfte angehört. Das Si:O-Verhältnis in Gruppensilikaten ist damit 2:7. Diese Struktur kommt weniger häufig vor, ein Beispiel ist das Mineral Gehlenit (Ca2Al[(Si,Al)2O7]). Ringsilicate (Cyclosilicate). Beryll (Al2Be3[Si6O18]) und die Minerale der Turmalingruppe gehören zu den Ringsilicaten. Ketten- und Bandsilicate (Inosilicate). Zu den Kettensilicaten gehören zwei wichtige Gruppen von gesteinsbildenden Mineralen: Pyroxene und Amphibole. Die Pyroxene bilden eindimensionale Einfachketten, dabei gehören je zwei der Sauerstoffionen gleichzeitig zwei Tetraederkomplexen an, woraus sich ein Si:O-Verhältnis von 1:3 ergibt, wie bei Diopsid (CaMg[Si2O6]). Amphibole bilden eindimensionale Bänder. Dabei sind zwei Ketten seitlich über Brückensauerstoffe verbunden. Gegenüber den Ketten hat zusätzlich jeder zweite Tetraeder jeder Kette mit seinem jeweiligen Nachbarn ein Sauerstoffion gemeinsam. Das Si:O-Verhältnis bei Bandsilicaten beträgt 4:11. In solchen silicatischen Bändern sind Hohlräume vorhanden, in die (OH)−- und F−-Ionen eintreten können. In der chemischen Summenformel wird das durch einen vertikalen Strich zum Ausdruck gebracht. Ein Mineral aus der Gruppe der Amphibole ist Aktinolith (Ca2(Mg,Fe)5[(OH)2|Si8O22]). Schichtsilicate (Phyllosilicate). Bei höherem Polymerisationsgrad bilden sich statt Kettenstrukturen "Schichtstrukturen" aus SiO4-Tetraedern. Innerhalb einer Schicht teilt sich dabei jedes Siliciumatom drei seiner Sauerstoffionen mit seinen Nachbarn. Das Si:O-Verhältnis der Schichtsilicate beträgt 2:5. Die Schichtsilicate werden unterteilt in Zwei- und Dreischichtsilicate. Eine weitere Unterteilung berücksichtigt die Struktur und die Ionen, die sich zwischen zwei Tetraederschichten befinden. Der Hohlraum zwischen zwei Schichten kann mit (-OH), (-O−Me+) besetzt sein und die Schichten mit Dipol-Dipol-Kräfte oder Ionenbindungen verknüpfen. Zu den Schichtsilicaten gehören Mineralgruppen wie Glimmer, Talk, Serpentin und Tonminerale wie Vermiculit, Beispiele sind Muskovit (ein Dreischichtsilicat) (KAl2[(OH)2|AlSi3O10]) und Kaolinit (ein Zweischichtsilicat) (Al4[(OH)8|Si4O10]). Synthetische Schichtsilicate, wie SAS-6 ® (formula_6) werden in Waschmitteln verwendet. SAS-Schichtsilicate zeigen Eigenschaften wie Natrium-Zeolithe. Die schichtverknüpfenden, hydratisierten Natriumionen sind in Suspensionen selektiv austauschbar, beispielsweise gegen Calciumionen, und eignen sich somit zur Wasserenthärtung als Ionentauscher und zeigen gute Eigenschaften als Waschalkalie. Gerüstsilicate (Tectosilicate). Bei Gerüstsilicaten gehört jedes Sauerstoffion gleichzeitig zwei benachbarten Tetraedern an (jeder Tetraeder ist über seine Ecken mit Nachbartetraedern verknüpft). Dadurch entstehen dreidimensionale Netzwerkstrukturen. Es ergibt sich die chemische Summenformel SiO2. Stellvertretend für Siliciumdioxid-Verbindungen sei der hier dargestellte Quarz in der Modifikation β-Quarz genannt. Für weitere Gerüstsilicate muss Silicium durch Aluminium ersetzt werden. Der Ladungsausgleich erfolgt durch Einlagerung von Kationen. Zu den Gerüstsilicaten gehören die Feldspäte und Feldspatvertreter, eine wegen ihrer Häufigkeit außerordentlich wichtige Gruppe von Mineralen. Beispiele sind Minerale aus der Mischreihe der Plagioklase (Albit – Anorthit): (NaAlSi3O8 – CaAl2Si2O8). In das weitmaschige Gitternetz einiger Feldspatvertreter können sogar große Moleküle wie H2O eingebaut werden. Bei hoher Temperatur entweicht das Wasser, wird jedoch bei niedriger Temperatur in mit Wasserdampf gesättigter Umgebung wieder ins Kristallgitter eingebaut. Diese wasserhaltigen Minerale gehören zur Gruppe der Zeolithe (Natrolith (Na2[Al2Si3O10]*nH2O)). Amorphe Silicate. Opal ist amorphes Siliciumdioxid mit eingelagertem Wasser (SiO2 · n H2O). Er wird wie Quarz von einigen Autoren zu den Oxidmineralen gestellt. Die hochstrukturierten Schalen von Kieselalgen (Diatomee) und von Strahlentierchen (Radiolaria) sind aus amorphem Siliciumdioxid (SiO2) aufgebaut. Klassifikation nach Kostov. Diese Einteilung beruht hauptsächlich auf der chemischen Zusammensetzung des Silicats und seiner Kristallmorphologie. Nachweis. Man kann Silicat mit der Wassertropfenprobe nachweisen. Die Substanz wird in einem Bleitiegel mit Calciumfluorid und Schwefelsäure versetzt. In Anwesenheit von Siliciumdioxid entsteht gasförmiges Siliciumtetrafluorid, das an einem befeuchteten schwarzen Filterpapier über der Tiegelöffnung wieder zu weißem Siliciumdioxid kondensiert Einzelnachweise. ! Skriptsprache. Skriptsprachen (auch Scriptsprachen) sind Programmiersprachen, die vor allem für kleine Programme gedacht sind und meist über einen Interpreter ausgeführt werden. Sie verzichten oft auf Sprachelemente, deren Nutzen erst bei der Bearbeitung komplexerer Aufgaben zum Tragen kommt. So wird etwa in Skriptsprachen auf den Deklarationszwang von Variablen meist verzichtet – vorteilhaft zur schnellen Erstellung von kleinen Programmen (siehe auch Prototyping), bei großen hingegen von Nachteil, etwa wegen der fehlenden Überprüfungsmöglichkeit von Tippfehlern in Variablennamen. Programme, die in Skriptsprachen geschrieben sind, werden auch "Skripte" oder "Scripts" genannt, während in der Betriebssystemumgebung von Microsoft meistens die Bezeichnung Makro verwendet wird. Skripte werden fast ausschließlich in Form von Quelltextdateien ausgeliefert, um so ein einfaches Bearbeiten und Anpassen des Programms zu ermöglichen. Merkmale. Bei einigen Skriptsprachen kann der Programmcode (ebenso wie andere Daten) durch das Programm selbst manipuliert werden; das macht jene Sprachen besonders flexibel. Die Anwendungsgebiete und Eigenschaften konventioneller Programmiersprachen und Skriptsprachen überschneiden sich mittlerweile stark (siehe hierzu den Abschnitt Abgrenzung), weshalb eine strikte Trennung zwischen konventionellen Programmiersprachen und Skriptsprachen nur selten möglich ist. Abgrenzung. Aus architektonischer Sicht werden Skriptsprachen häufig verwendet, um aus bestehenden Komponenten ein Anwendungsprogramm zu bauen. Diese "externen" Komponenten selbst werden in einer komplexeren Programmiersprache entwickelt. Beispiel dafür ist ein Shellskript, das externe Programme aufruft. Diese Programme sind im Allgemeinen in verschiedenen Programmiersprachen entwickelt. Ein anderes Beispiel ist die Sprache BPEL, die verwendet wird, um Geschäftsprozesse zu beschreiben. Diese ruft Webservices auf, die in verschiedenen Programmiersprachen (Java, C#, …) entwickelt werden. Wurden Skriptsprachen anfangs nur für kleinere Automatisierungen verwendet, so werden sie heute auch in Bereichen eingesetzt, die früher den klassischen Programmiersprachen vorbehalten waren. Durch Verbesserungen in den Interpretern wurde der Geschwindigkeitsunterschied zu statischen Sprachen verringert; zusammen mit dem Fortschritt der Rechenleistung ergibt sich vielfach eine akzeptable Ausführungsgeschwindigkeit, die früher nur mit compilierten Programmen zu erreichen war. Darüber hinaus können in einigen der selbständigen Programmiersprachen Variablen zur besseren Fehlerüberprüfung optional deklariert werden. Mit modernen Skriptsprachen können daher manche Anwendungen, etwa zur Auswertung von Daten, vollständig unter Verzicht auf externe Programme implementiert werden. Kommandozeileninterpreter. Manche Skriptsprachen sind von den Kommandozeileninterpretern der Betriebssysteme abgeleitet. Die Interpreter sind vorrangig für interaktive Benutzung, d. h. für die Eingabe von Kommandos, ausgelegt. Die Eingabesprache wird um Variablen, arithmetische Ausdrücke, Kontrollstrukturen ("if", "while") und anderes erweitert und ermöglicht so die Automatisierung von Aufgaben (z. B. bei der unbeaufsichtigten Installation), indem „kleine Programme“ in Dateien geschrieben werden. Diese Dateien können dann vom Interpreter ausgeführt werden. Die Dateien nennt man unter dem Betriebssystem Unix "Shell-Skripte" (ausgeführt von einer der Unix-Shells "sh", "csh" …) oder unter DOS und Windows auch "Batch-Skripte" (ausgeführt von "command.com" und "cmd.exe"). Abzugrenzen sind Kommandozeileninterpreter von interaktiven Sprachen (wie z. B. Lisp, Python, Tcl oder Perl im Debugger), die zum Testen und Debuggen interaktive Programmabschnitte ausführen können, aber nicht so eng im Betriebssystem integriert sind. Skriptsprachen verschiedener Programme. Skriptsprachen können auch in Anwendungsprogrammen zur Automatisierung von Aufgaben oder durch Erweiterung der Fähigkeiten des Programms dienen. Teilweise wird auch ein Teil der Funktionalität des Programms selbst in dieser Skriptsprache realisiert. Somit können Anwender die Funktionalität eines solchen Programms schnell mit neuen Funktionen erweitern oder bestehende abändern, ohne das Programm selbst umzuschreiben. Diese Erweiterungen können selbst so weitreichend sein, dass das Programm völlig neue Aufgaben erledigt, die mit dem vorherigen Programm – aus Anwendersicht – nichts mehr gemeinsam haben. So wurden aus dem Texteditor Emacs auch ein E-Mail-Programm (Wanderlust) oder ein Webbrowser (Emacs-WS). Im Gegensatz zu Plug-ins sind Skripte bzw. Makros wesentlich flexibler und werden vor allem für kleine Automatisierungen angewendet. Skriptsprachen im WWW. Für das WWW werden Skriptsprachen häufig auf den Servern verwendet, um dynamische Seiten oder ganze Webanwendungen zu erstellen. Dies geschieht zum Beispiel bei den Wikis, bei Foren, Gästebüchern und bei Onlinegeschäften. Des Weiteren werden clientseitige Skriptsprachen auch in den Webseiten selbst eingebunden und in den Browsern ausgeführt. Selbständige Skriptsprachen. Skriptsprachen können auch von anderen Programmen getrennt von ihrem Interpreter ausgeführt werden. Einige dieser sind für Spezialaufgaben konzipiert, andere sind allgemein verwendbare Sprachen. Diese Sprachen haben die für umfangreiche Programmprojekte notwendigen Konzepte wie Namensräume und Kapselung, und werden deshalb nicht selten für größere Anwendungen verwendet. Statistik. Statistik „ist die Lehre von Methoden zum Umgang mit quantitativen Informationen“ (Daten). Sie ist eine Möglichkeit, „eine systematische Verbindung zwischen Erfahrung (Empirie) und Theorie herzustellen“. Unter Statistik versteht man die Zusammenfassung bestimmter Methoden zur Analyse empirischer Daten. Ein alter Ausdruck für Statistik war "Sammelforschung". Etymologie. Das Wort Statistik stammt von „den Staat betreffend“ und Staatsmann oder Politiker, was wiederum aus dem griechischen στατίζω (einordnen) kommt. Die deutsche Statistik, eingeführt von Gottfried Achenwall 1749, bezeichnete ursprünglich die „Lehre von den Daten über den Staat“. Im 19. Jahrhundert hatte der Schotte John Sinclair das Wort erstmals in seiner heutigen Bedeutung des "allgemeinen Sammelns und Auswertens von Daten" benutzt. Einführung. Statistik wird einerseits als eigenständige mathematische Disziplin über das Sammeln, die Analyse, die Interpretation oder Präsentation von Daten betrachtet, andererseits als Teilgebiet der Mathematik, insbesondere der Stochastik, angesehen. Geschichte. Die moderne Statistik entstand aus verschiedenen historischen (datenanalytischen) Entwicklungen, die im Laufe des 19. und 20. Jahrhunderts zu der heutigen Statistik zusammengewachsen sind. Insbesondere die Teilung der Statistik in eine "deskriptive" und eine "schließende" Statistik spiegelt diese historische Entwicklung wider. Amtliche Statistik. Die Anfänge der amtlichen Statistik reichen bis weit vor Christi Geburt zurück. Die ersten amtlichen Statistiken waren Volkszählungen (vermutlich erstmals in Ägypten zirka 2700 v. Chr., während der Xia-Dynastie zirka 2000 v. Chr., in der Stadt Mari in Mesopotamien zirka 1700 v. Chr.). Im alten Griechenland gab es zumindest in Athen Bürgerregister, Register zur Bevölkerungsbewegung, Einfuhrlisten zollpflichtiger Waren (wie Importe von Getreide) und Vermögenskataster. Bei römischen Volkszählungen wurden die Bürger und ihr Vermögen erfasst. In Deutschland fand die erste Volkszählung 1449 in Nürnberg statt. Die Stadtverwaltung wollte die Bevölkerung und Vorräte erfassen, um zu entscheiden, ob man Flüchtlinge aus dem Markgrafenkrieg noch in die Stadt lassen konnte oder nicht. Den Anfang mit umfangreichen (amtlichen) statistischen Erhebungen machte der französische Staatsmann Colbert 1665 mit der Einrichtung einer Handelsstatistik. In Preußen wurden seit 1683 auf Anordnung des Kurfürsten Friedrich Wilhelm Bevölkerungsstatistiken (Geburten, Eheschließungen und Todesfälle) erstellt und im Lauf der Zeit erweitert: 1719 der Hausbestand und Kommunalfinanzen, 1778 der Viehbestand, Aussaat, Getreidepreise, Flachs- und Tabakanbau, Fabriken, Hütten- und Bergwerke, Schifffahrt und Handel. Andere deutsche Staaten und Städte zogen nach, so Bayern im Jahre 1771 mit der Dachsbergschen Volksbeschreibung. Seit der Errichtung des Statistischen Amtes des Deutschen Reiches 1872 wird in Deutschland eine gesamte amtliche Statistik geführt. Auch in Österreich wurde 1753 durch Maria Theresia eine erste Volkszählung durchgeführt. Im Gegensatz zu heutigen Ergebnissen der amtlichen Statistik wurden die erstellten Statistiken nicht veröffentlicht und galten als Staatsgeheimnisse. Universitätsstatistik. Unabhängig von der amtlichen Statistik hat sich die sogenannte Universitätsstatistik, ein inzwischen kaum mehr geläufiger Begriff für die beschreibende Staats- und Länderkunde, entwickelt. Das Sammelwerk des Italieners Sansovino (1562) ist eine erste Auflistung der Regierungsformen von zwanzig Staaten. Ähnliche Werke entstanden unter anderem von dem Italiener Botero (1589), dem Franzosen d'Avitys (1616) und dem Niederländer de Laet (1624–1640). Der Hauptvertreter der Universitätsstatistik in Deutschland war der Statistiker Achenwall. Die amtliche Statistik diente der Verwaltung und der Unterstützung von Regierungs- oder Verwaltungsentscheidungen. Die Universitätsstatistik sollte mehr eine allgemeine Informationsquelle für Staatsmänner sein und enthielt anfangs nur textuelle Beschreibungen. Dazu gehörten Regierungsform, Gesetzesbestimmungen und Einzeltatsachen, eben „Staatsmerkwürdigkeiten“ im Sinne von "des Merkens würdig". Erst später kamen tabellarische Aufstellungen hinzu, wie bei Büsching. Die Universitätsstatistiker haben jedoch selbst keine Erhebungen durchgeführt, sondern durch den Zugang zu den amtlichen Statistiken diese bearbeitet und veröffentlicht. Politische Arithmetik. Erst die politischen Arithmetiker begannen, nach Gesetzmäßigkeiten in den Daten zu forschen. Dies hatte ihren Ursprung in den populärer werdenden Tontinen, einer Art Rentenversicherung. Der Engländer Graunt analysierte 1660 Geburts- und Sterbelisten und wollte allgemeine Gesetzmäßigkeiten über das Geschlechterverhältnis, das Verhältnis von Sterbe- und Geburtsfällen, Sterbehäufigkeiten finden. Der englische Statistiker und Ökonom Petty übertrug diese Art von Analyse auf Wirtschaftsdaten. Der Hauptvertreter der politischen Arithmetiker in Deutschland ist der Statistiker Süßmilch mit seinem Werk "Die Göttliche Ordnung in den Verhältnissen des menschlichen Geschlechts, aus der Geburt, dem Tode und der Fortpflanzung desselben erwiesen" von 1741. Diese Art von Statistiken hatte auch Einfluss auf philosophische Fragen, beispielsweise zur Existenz des freien Willens des Individuums. Quetelet stellte fest, dass die Zahl der Eheschließungen in belgischen Städten geringere Abweichungen vom Durchschnitt zeigt als die Zahl der Todesfälle. Und das, obwohl der Zeitpunkt der Eheschließung dem freien Willen unterliegt und der Todeszeitpunkt (in der Regel) nicht. Wahrscheinlichkeitsrechnung. Aus Betrachtungen von Glücksspielen entstand die moderne Wahrscheinlichkeitsrechnung. Als Geburtsstunde der Wahrscheinlichkeitsrechnung gilt der Briefwechsel zwischen Pascal und Fermat im Jahr 1654. Das Fundament der modernen Wahrscheinlichkeitsrechnung wurde mit dem Erscheinen von Kolmogorovs Lehrbuch "Grundbegriffe der Wahrscheinlichkeitsrechnung" im Jahr 1933 abgeschlossen. Planung. Eine statistische Untersuchung ist selten eine unmittelbare Abfolge der fünf Schritte, sondern meist ein ständiger Wechsel zwischen den verschiedenen Phasen in Abhängigkeit von den Daten, Analyseergebnissen und theoretischen Überlegungen. Erhebung. Nach der Festlegung der Erhebungsart ergeben sich entsprechende Schritte. Der Forscher erhebt seine Daten selbst, etwa durch Umfrage. Damit muss das Prozedere der Datenerhebung, etwa durch das ADM-Design, festgelegt werden und die Erhebung nach diesen Vorschriften durchgeführt werden. Der Forscher nutzt Einzeldaten, die von anderen erhoben wurden, etwa durch ein Statistisches Amt. So spart er Arbeit, da er nicht selbst erhebt. Oft jedoch passen die erhobenen Variablen nicht exakt zur Forschungsfrage oder der gewünschten Operationalisierung. Der Forscher nutzt nur für eine statistische Raumbezugseinheit aggregierte Daten, die von anderen erhoben und veröffentlicht wurden. Aufbereitung. Die Aufbereitungsphase umfasst die Kodierung der Daten, die Datenbereinigung (Plausibilitätsprüfung und Korrektur, Ausreißer, fehlende Werte) und evtl. (statistisch oder sachlogisch) notwendige Transformationen der erhobenen Variablen. Analyse. In der Analysephase werden die Methoden der explorativen, deskriptiven und induktiven Statistik auf die Daten angewandt (Kennziffern, Grafiken und Tests). Aufgrund der teilweise automatisch erhobenen Datenmengen und der immer komplexeren Auswertungsverfahren (etwa Bootstrap-Verfahren) ist eine Analyse ohne eine geeignete Statistik-Software kaum möglich. Interpretation. Die Interpretation der Ergebnisse der statistischen Analyse erfolgt natürlich unter Berücksichtigung des jeweiligen Fachgebietes. Von großer und fachübergreifender Wichtigkeit jedoch ist die Umsetzung von Zahlen in Sprache, die treffsichere sprachliche Umsetzung der gewonnenen Ergebnisse, die wissenschaftliche Kriterien erfüllt. Ohne den Rückbezug auf die im Verlauf des im wissenschaftlichen Erkenntnisprozess aufgestellten Hypothesen und Fragestellungen bleibt die statistische Analyse ohne Belang. In der statistischen Auswertung werden auch die meisten Schwächen einer statistischen Analyse sichtbar. Zu oft bleibt nur die reine Zahlendarstellung und zu wenig wird das Augenmerk auf eine klare sprachliche Ergebnissicherung gelegt. Eine überzeugende statistische Auswertung wird die gewonnenen Ergebnisse in einen flüssigen Text einbauen, versehen mit der Relevanz, den ersten Schritten von der Frage zur statistischen Methode, dem Höhepunkt einer strukturierten Ergebnisdarstellung und zu guter Letzt dem Verweis auf den größeren wissenschaftlichen Kontext, durchaus auch im Bewusstsein möglicher Schwachstellen der Analyse. Erst der Verweis und Querbezug auf andere wissenschaftlich gewonnene und valide Studienergebnisse trägt dann zu einem Erkenntnisfortschritt bei. Informationsgehalt und -bewertung. Statistiken stellen eine Repräsentation gesammelter Daten dar. Je nach Art und Weise der Datengewinnung entspricht der Gehalt der Informationen einem brauchbaren Ergebnis. Bei Verlassen der reellen und objektiven Prozesse können aber auch falsche Schlüsse aus Statistiken gezogen werden. So lässt sich ermitteln, wie groß der Anteil von Schwarzfahrern in Zügen oder die Durchschnittseinkommen der Bevölkerung an einem bestimmten Ort sein könnten. Allein aus statistisch verknüpfbaren Daten sollten aber keine Zusammenhänge gebildet werden. Im Umgang mit Statistiken gilt es stets, den gesamten Datengehalt auf Relevanz, auf Beziehung der Teilinformationen zueinander und zum Umfeld zu prüfen. Auch bei geeigneter Interpretation der Daten können falsche Belege gefunden werden, wenn die eine oder andere Beziehung weggelassen oder ins falsche Umfeld gesetzt wird. Es wird daher von Statistiken gefordert, dass sie „objektiv“ (unabhängig vom Standpunkt des Statistikerstellers), „reliabel“ (verlässlich), „valide“ (überkontextuell gültig), „signifikant“ (bedeutend) und „relevant“ (wichtig) sind. Schulen und Denkrichtungen. In Lehrbüchern wird mitunter der Eindruck vermittelt, es gebe nur das eine, sich ständig weiterentwickelnde Statistikmodell. In der "Deskriptiven Statistik" gibt es wenig Kontroversen, in der "Induktiven Statistik" gibt es jedoch verschiedene Denkschulen, die ein Problem unterschiedlich analysieren, bewerten und numerisch berechnen. Wenig bekannte Ansätze sind Dominiert wird die induktive Statistik durch Anwendung. Ursprünglich wurde die Statistik entwickelt für die amtliche Statistik und auch für die Analyse von Glücksspielen. Bei vielen Fachwissenschaften bestand der Bedarf nach „objektiver“ Überprüfung und Entscheidung von Theorien, wozu die Mathematik und Regeln der Statistik geeignet sind. So haben sich aus der Anwendung von statistischen Methoden in den Fachwissenschaften eigene Teilgebiete entwickelt. Software. Die Entwicklung der Computer seit der zweiten Hälfte des 20. Jahrhunderts hat einen großen Einfluss auf die Statistik. Frühe statistische Modelle waren fast immer lineare Modelle. Die immer größere Rechenkapazität und die Entwicklung geeigneter numerischer Algorithmen verursachte ein gesteigertes Interesse an nicht-linearen Modellen, wie neuronalen Netzwerken und führte zur Entwicklung komplexer statistischer Modelle, beispielsweise Generalisierte Lineare Modelle oder Mehrebenenmodelle. Durch die individuelle Verfügbarkeit von Statistik-Software kann man auch Daten selbst darstellen und eine Vielzahl von Berechnungen durchführen. Dies reicht von der Berechnung von Lageparametern (wie Mittelwerte, Median, Modus) und Streuungsmaßen (wie Standardabweichung, Varianz, Spannweite) bis zu komplexen statistischen Modellen. Auch ist in der Regel die Darstellung von Daten in einer Vielzahl von Diagrammen, wie Box-Plot-Diagrammen, Stamm-Blatt-Diagrammen möglich. Für spezialisierte Grafiken kann man auf Visualisierungsprogramme zurückgreifen. Der Zuwachs an Rechenleistung hat ebenfalls zu einer zunehmenden Popularität computerintensiver Methoden auf der Basis von Resampling-Techniken (Permutationstests, Bootstrapping) geführt. Auch die bayessche Statistik ist, durch Gibbs-Sampling, möglich geworden. Stochastik. Die Stochastik (von "stochastikē technē", also ‚Kunst des Vermutens‘, ‚Ratekunst‘) ist ein Teilgebiet der Mathematik und fasst als Oberbegriff die Gebiete Wahrscheinlichkeitstheorie und Statistik zusammen. Die historischen Aspekte werden im Artikel Geschichte der Wahrscheinlichkeitsrechnung dargestellt. Überblick. Mathematische Stochastik beschäftigt sich mit der Beschreibung und Untersuchung von Zufallsexperimenten wie zum Beispiel dem Werfen von Reißzwecken, Würfeln oder Münzen sowie vom Zufall beeinflussten zeitlichen Entwicklungen und räumlichen Strukturen. Solche Ereignisse, Entwicklungen und Strukturen werden oft durch Daten dokumentiert, für deren Analyse die Statistik geeignete Methoden bereitstellt. In diesem Fall entstehen die zufälligen Einflüsse in der Regel im Rahmen der zufälligen Auswahl einer Stichprobe aus einer eigentlich interessierenden Grundgesamtheit. Insgesamt beinhaltet damit die Stochastik ein Spektrum an Methoden, mit denen man sowohl die Wahrscheinlichkeit für Lottogewinne oder die Größe der Unsicherheit bei Meinungsumfragen bestimmen kann. Die Stochastik ist auch für die Finanzmathematik von Bedeutung und hilft mit ihrer Methodik beispielsweise bei der Preisfindung für Optionen. Angabe von Wahrscheinlichkeiten. Wahrscheinlichkeiten werden mit dem Buchstaben formula_1 (von frz. "probabilité", eingeführt von Laplace) oder formula_2 dargestellt. Sie tragen keine Einheit, sondern sind Zahlen zwischen Null und Eins, wobei auch Null und Eins zulässige Wahrscheinlichkeiten sind. Deshalb können sie als Prozentangaben (20 %), Dezimalzahlen (formula_3), Brüche (formula_4), Quoten (2 von 10 beziehungsweise 1 von 5) oder Verhältniszahlen (1 zu 4) angegeben werden (alle Angaben beschreiben dieselbe Wahrscheinlichkeit). Häufig treten Missverständnisse auf, wenn nicht richtig zwischen „zu“ und „von“ unterschieden wird: „1 "zu" 4“ bedeutet, dass dem einen gewünschten Ereignis 4 ungewünschte Ereignisse gegenüberstehen. Damit gibt es 5 Ereignisse, "von" denen eins das Gewünschte ist, also „1 "von" 5“. Führt man ein Zufallsexperiment mehrmals hintereinander durch, so kann die relative Häufigkeit eines Ereignisses errechnet werden, indem man die absolute Häufigkeit, also die Anzahl geglückter Versuche, durch die Anzahl der unternommenen Versuche dividiert. Für eine unendliche Anzahl von Versuchen geht diese relative Häufigkeit in die Wahrscheinlichkeit über. In der Praxis wird die Anzahl der für eine annehmbare Übereinstimmung von relativer Häufigkeit und Wahrscheinlichkeit nötigen Versuche oft unterschätzt. Wahrscheinlichkeiten Null und Eins ↔ unmögliche und sichere Ereignisse. Dass einem Ereignis die Wahrscheinlichkeit Null zugeordnet wird, heißt nur dann, dass dessen Eintritt prinzipiell unmöglich ist, wenn es nur endlich viele verschiedene Versuchsausgänge gibt. Dies wird durch folgendes Beispiel veranschaulicht: In einem Zufallsexperiment wird eine beliebige reelle Zahl zwischen 0 und 1 gezogen. Es wird davon ausgegangen, dass jede Zahl gleich wahrscheinlich sei – es wird also die Gleichverteilung auf dem Intervall formula_5 vorausgesetzt. Dann ist, da es in dem Intervall unendlich viele Zahlen gibt, für jede einzelne Zahl aus dem Intervall die Eintrittswahrscheinlichkeit gleich Null, dennoch ist jede Zahl aus formula_5 als Ziehungsergebnis möglich. Ein unmögliches Ereignis ist im Rahmen dieses Beispiels etwa die Ziehung der 2, also das Elementarereignis formula_7. Ein Ereignis wird "sicher" genannt, wenn es die Wahrscheinlichkeit 1 hat. Die Wahrscheinlichkeit, dass ein unmögliches Ereignis nicht eintritt, ist 1 und es handelt sich um ein sicheres Ereignis. Ein Beispiel für ein sicheres Ereignis beim Würfeln mit einem sechsseitigen Würfel ist das Ereignis „es wird keine Sieben gewürfelt“. Laplace-Experimente. Einfache Beispiele für Laplace-Experimente sind das Würfeln, das Werfen einer Münze (wenn man davon absieht, dass sie auf dem Rand stehen bleiben kann) und die Ziehung der Lottozahlen. Die Wahrscheinlichkeit formula_19 eines Laplace-Experimentes berechnet sich nach Kombinatorik. Kombinatorik ist ein Teilgebiet der Mathematik, das sich mit der Bestimmung der Zahl möglicher Anordnungen oder Auswahlen von beschäftigt. In der modernen Kombinatorik werden diese Probleme umformuliert als Abbildungen, sodass sich die Aufgabe der Kombinatorik im Wesentlichen darauf beschränken kann, diese Abbildungen zu zählen. Spieltheorie. Die Spieltheorie ist ein Teilgebiet der Mathematik, das sich damit befasst, Systeme mit mehreren Akteuren (Spieler, Agenten) zu analysieren. Die Spieltheorie versucht dabei unter anderem, das rationale Entscheidungsverhalten in sozialen Konfliktsituationen abzuleiten. Statistik. Statistik ist eine auf Mathematik basierende Methodik zur Analyse quantitativer Daten. Dabei verbindet sie empirische Daten mit theoretischen Modellen. Semitische Sprachen. Semitisch (Orange) innerhalb der afroasiatischen Sprachen Die semitischen Sprachen sind ein Zweig der afroasiatischen Sprachfamilie. Sie werden heute von ca. 260 Millionen Menschen im Nahen Osten, in Nordafrika und am Horn von Afrika gesprochen. Wichtige semitische Sprachen sind Hebräisch, Arabisch, die neuaramäischen Sprachen, eine Reihe von in Äthiopien und Eritrea gesprochenen Sprachen wie Amharisch und Tigrinya sowie zahlreiche ausgestorbene Sprachen des Alten Orients wie Akkadisch. Die Bezeichnung „semitisch“ wurde 1781 von dem Göttinger Philologen August Ludwig von Schlözer geschaffen. Sie lehnt sich an die biblische Person Sem an, die als Stammvater der Aramäer, Assyrer, Elamiter, Chaldäer und Lyder gilt. Forschungsgeschichte. Ähnlichkeiten zwischen Hebräisch, Aramäisch und Arabisch fielen jüdischen Grammatikern bereits im Mittelalter auf. Als in der Renaissance auch in Europa die Beschäftigung mit orientalischen Sprachen einsetzte, verfassten christliche Hebraisten erste Ansätze zu einer vergleichenden Grammatik des Semitischen, wobei sie jedoch die unzutreffende Schlussfolgerung zogen, dass Aramäisch und Arabisch entartete Mischsprachen seien, die aus dem Hebräischen, der vermeintlichen Sprache des Paradieses, entstanden sind. Erst im 18. Jahrhundert begann sich eine neuere Betrachtungsweise durchzusetzen, als man erkennen musste, dass das Arabische, obwohl wesentlich jünger als das Hebräische und Aramäische, besonders archaische Züge aufweist. Während das Altäthiopische bereits seit dem 16. Jahrhundert in Europa bekannt war, wurden seit dem 18. Jahrhundert weitere Sprachen entdeckt, die als semitisch identifiziert werden konnten: die modernen äthiosemitischen Sprachen, das Akkadische, das Altsüdarabische, epigraphische Zeugnisse antiker Sprachen in Syrien und Palästina und schließlich auch die modernen arabischen, aramäischen und neusüdarabischen Dialekte sowie erst 1928 das Ugaritische. Besonders die Entdeckung und Erschließung des Akkadischen hatte für die Semitistik nachhaltige Folgen, da es trotz seines hohen Alters von den damaligen Ansichten über das Protosemitische stark abweicht. Als letzte semitische Sprache wurde 1975 das Eblaitische entdeckt. Im 19. Jahrhundert wurden auch die Beziehungen zu anderen Sprachfamilien in Afrika und damit die afroasiatische Sprachfamilie entdeckt, wodurch sich für das Verständnis des Semitischen neue Perspektiven ergaben. Geschichte und geographische Verbreitung. Im Altertum waren die semitischen Sprachen noch im Wesentlichen auf das Gebiet des Vorderen Orients beschränkt. Seit dem 1. Jahrtausend v. Chr. erlebten sie dann eine räumliche Verbreitung auf den afrikanischen Kontinent, als in Äthiopien semitische Sprachen auftauchten − falls dies nicht schon viel früher geschehen war − und sich das Arabische durch die Islamische Expansion im 7. Jahrhundert über ganz Nordafrika verbreitete. Heute umfasst das semitische Sprachgebiet den Nahen Osten, das Horn von Afrika, Nordafrika und mit der Insel Malta sogar einen kleinen Teil Europas. Altertum. Im Mesopotamien ist ab dem 3. Jahrtausend v. Chr. das Akkadische überliefert. Als Sprache der internationalen Korrespondenz wurde es bis nach Ägypten benutzt. Ein Dialekt des Akkadischen war das in Syrien gesprochene Eblaitische. Im Laufe des 1. Jahrtausends v. Chr. wurde das Akkadische als gesprochene Sprache vom Aramäischen verdrängt, konnte sich aber noch bis in die ersten Jahrhunderte n. Chr. als Schriftsprache halten. Nur sehr fragmentarisch ist das Amurritische überliefert, das nur durch die Personennamen der Amurriter aus der Zeit zwischen 2000 und 1500 v. Chr. bekannt ist. Aus dem Norden der Levante ist das Ugaritische durch umfangreiche Inschriftenfunde aus der Zeit zwischen 1400 und 1190 v. Chr., die man in der Stadt Ugarit fand, überliefert. In Kanaan sprach man im Altertum die kanaanäischen Sprachen. Hierzu gehörte das Hebräische, die Sprache der israelitischen Stämme, in der das Alte Testament verfasst ist. Als gesprochene Sprache starb es wohl in der zweiten Hälfte des 1. Jahrtausends v. Chr. (vielleicht aber auch erst im 2. Jahrhundert n. Chr.) aus. Es diente jedoch weiterhin als Sakralsprache des Judentums sowie zur Verständigung zwischen jüdischen Gemeinden in aller Welt. Im Mittelalter diente es teilweise als Zwischenstufe für Übersetzungen aus dem Arabischen in das Lateinische. Das Phönizische wurde ursprünglich im heutigen Libanon (Tyros, Byblos, Sidon) von den Phöniziern gesprochen. Durch die phönizische Kolonisation verbreitete sich ihre Sprache in Form des Punischen nach Nordafrika, vor allem Karthago und weiter bis in das heutige Spanien. Dort blieb es bis in das 6. Jahrhundert n. Chr. in Gebrauch. Kleinere, nur durch wenige Inschriften belegte kanaanäische Sprachen waren das Moabitische, Ammonitische und Edomitische. Das seit dem 10./9. Jahrhundert v. Chr. belegte Aramäisch war ursprünglich nur in einigen Stadtkönigreichen in Syrien verbreitet. Die Sprachform jener Zeit bezeichnet man als Altaramäisch. Nachdem die aramäischen Königreiche im 8. Jahrhundert v. Chr. von den Assyrern erobert worden waren, wurde das Aramäische in Form des Reichsaramäischen zur Verwaltungssprache zunächst im Neuassyrischen Reich sowie später im Neubabylonischen Reich (610–539 v. Chr.) und im Achämenidenreich (539–333 v. Chr.). Dadurch verbreitete es sich im gesamten Vorderen Orient als Lingua franca. Durch die islamische Expansion wurde das Aramäische zurückgedrängt, doch blieb es sowohl für das Judentum (durch die Targum-Tradition und vor allem den Palästinischen und den Babylonischen Talmud) als auch für das Christentum (durch die Peschitta der Orientalischen Kirchen) bedeutsam. Die Stämme der Arabischen Halbinsel gehörten im Altertum unterschiedlichen Sprachgruppen an. Im Norden war das Frühnordarabische mit mehreren Dialektgruppen verbreitet. Es ist seit etwa dem 8. Jahrhundert v. Chr. schriftlich überliefert und starb während der Ausbreitung des Islam aus. Die antike Sprache Zentralarabiens war eine frühe Form des heutigen Arabischen. Als Sprache des Korans gewann sie mit der Ausbreitung des Islam schnell an Bedeutung und verdrängte auch die antiken Sprachen im heutigen Jemen, darunter das Altsüdarabische und möglicherweise andere, kaum bekannte Sprachen wie das Himjarische. Spätestens seit dem 1. Jahrtausend v. Chr. wurden auch im Bereich der heutigen Staaten Äthiopien und Eritrea semitische Sprachen gesprochen. Bereits in der Antike spalteten sie sich in einen nördlichen und einen südlichen Zweig. Der nördliche Zweig weist in Form des Altäthiopischen unter den äthiopischen Sprachen die längste Schrifttradition auf. Altäthiopisch war die Sprache des aksumitischen Reiches (etwa 1. bis 7. Jahrhundert n. Chr.) und später die Sakralsprache der äthiopischen Christen. Gegenwart. Heute ist das Arabische mit ca. 230 Millionen Sprechern mit Abstand die größte aller semitischen Sprachen und eine der größten Sprachen der Welt. Ihr Verbreitungsgebiet erstreckt sich von Mauretanien bis nach Oman. In insgesamt 25 Staaten der Arabischen Welt dient es als Amtssprache. Die arabischsprachigen Länder befinden sich in einer ausgeprägten Diglossie-Situation: Während die arabische Schriftsprache auf dem klassischen Arabisch des 8. Jahrhunderts beruht, dienen als Umgangssprache die regional unterschiedlichen arabischen Dialekte (auch: Neuarabisch). Auch das Maltesische, die einzige in Europa beheimatete semitische Sprache, geht auf einen arabischen Dialekt zurück; aufgrund der katholisch-europäischen Tradition Maltas wird es in lateinischen Buchstaben geschrieben und unterliegt keinen hocharabischen Einflüssen mehr. Als Sprache des Korans hat das Arabische auch in nicht arabischsprachigen Ländern der islamischen Welt Verbreitung erfahren. Heute gibt es migrationsbedingt in zahlreichen Staaten Europas arabischsprachige Minderheiten, vor allem in Frankreich. Trotz seiner weitaus kleineren Sprecherzahl nimmt das Hebräische durch die Bedeutung, die ihm als Jahrtausende verwendete jüdische Kultur- und Literatursprache zukommt, eine bemerkenswerte Position ein. Auch in christlichen Kreisen wurde es als Sprache des Alten Testaments seit dem Mittelalter erforscht und studiert. Seit dem 19. Jahrhundert, insbesondere im Zuge des Zionismus, belebten jüdische Intellektuelle das Hebräische zu einer alltagstauglichen Umgangssprache (Ivrit), die 1948 Amtssprache des Staates Israel wurde und schon zuvor eine der offiziellen Sprachen des britischen Mandatsgebiets Palästina war. Heute wird Hebräisch in Israel von etwa sieben Millionen Menschen als Erstsprache oder weitere Sprache (nach Arabisch, Russisch, Äthiopisch o. a.) verwendet; nur schätzungsweise die Hälfte der Hebräischsprecher in Israel sind Muttersprachler. Auch nach der Räumung palästinensischer Gebiete durch Israel ist das Hebräische dort als Verkehrssprache gebräuchlich, wenigstens im Kontakt mit Israel. In der jüdischen Diaspora (besonders in Westeuropa, Nord- und Südamerika) wird es als Religionssprache und Sprache des jüdischen Volkes gepflegt, sodass außerhalb Israels von mehreren zehn- oder sogar hunderttausend Personen ausgegangen werden kann, die über kommunikative Kompetenz in dieser Sprache verfügen. Obwohl das Aramäische viel von seiner einstigen Bedeutung verloren hat, hat es als gesprochene Sprache bis heute überlebt, etwa in der Osttürkei, dem Irak und dem Iran (Aserbaidschan). Insgesamt gibt es über den Nahen Osten verstreut ca. 500.000 Aramäisch-Sprecher. Ihre Zahl dürfte durch den von Repression, Krieg und Emigration geprägten demografischen Wandel im 20. und zu Beginn des 21. Jahrhunderts (nach dem Ersten Weltkrieg Christenverfolgungen unter türkischer Herrschaft, der Irakkrieg und seine Folgen etc.) stark rückläufig sein. Hingegen sind Exilgemeinden in Westeuropa und Nordamerika gewachsen, in denen die aramäischen Mundarten als Haus- und Familiensprache bisher überleben. Das Neuwestaramäische wird noch von ca. 10.000 Menschen in drei Dörfern in Syrien gesprochen. Zu den neuostaramäischen Sprachen gehören unter anderem Turoyo (schätzungsweise 50.000 Sprecher im Nahen Osten) und Neumandäisch. In der Regel gehören die Aramäisch-Sprecher christlichen Kirchen an, in denen ältere Sprachformen des Aramäischen als Sakralsprache verwendet werden oder wurden. Da kein eigenes Bildungssystem besteht, das Aramäisch als moderne Hochsprache etablieren und ausbauen könnte, sind die meisten modernen Varietäten des Aramäischen schriftlos; in Syrien gab es um 2010 eine staatliche Initiative, die Mundart des Aramäerdorfes Maalula mit hebräischen Buchstaben zu verschriftlichen. Die Quadratschrift, die heutige hebräische Schrift, basiert auf einem reichsaramäischen Alphabet, das die althebräische Schrift ersetzte. Auch jüdische Minderheiten, etwa die kurdischen Juden, haben lokale Formen des Aramäischen als Muttersprache. Infolge der Emigration nach Israel in den 1950er und 1960er Jahren und durch die Umstellung auf das Hebräische muss angenommen werden, dass es nur noch wenige jüngere Sprecher jüdisch-aramäischer Dialekte gibt. Im Süden der Arabischen Halbinsel, im Jemen und in Oman spricht man die neusüdarabischen Sprachen. Diese sind trotz ihres Namens weder mit dem Altsüdarabischen noch dem (Nord-)Arabischen näher verwandt, sondern bilden einen eigenständigen Zweig der semitischen Sprachen. Die sechs neusüdarabischen Sprachen Mehri, Dschibbali, Harsusi, Bathari, Hobyot und Soqotri haben insgesamt ca. 200.000 Sprecher, die größte Sprache ist Mehri mit 100.000 Sprechern. In Äthiopien und in Eritrea ist eine größere Zahl semitischer Sprachen vom Zweig der äthiosemitischen Sprachen verbreitet, die insgesamt von ca. 29 Millionen Menschen gesprochen werden. Die größte äthiosemitische Sprache und die zweitgrößte semitische Sprache überhaupt ist Amharisch, die Nationalsprache Äthiopiens, die ca. 20 Millionen Menschen sprechen. Das Tigrinya ist neben Arabisch Amtssprache in Eritrea und hat etwa sieben Millionen Sprecher. Neben diesen werden die verschiedenen Gurage-Sprachen im südlichen Zentraläthiopien von ungefähr 1,9 Millionen Menschen gesprochen. Ebenfalls in Eritrea verbreitet ist Tigre (0,8 Millionen Sprecher). Auch in Israel lebt seit der Massenemigration äthiopischer Juden in den 1980er Jahren eine äthiopischsprachige Minderheit. Als aus der jüdischen Diaspora importierte Sprache ist sie dort durch die Verwaltungs- und Bildungssprache Hebräisch ähnlich bedroht wie Jiddisch, Juden-Spanisch, Jüdisch-Aramäisch, Russisch, Französisch u. a. Historische Ansätze. Diese Klassifikation stellte Robert Hetzron ab 1969 durch die Einbeziehung des Konzepts der „gemeinsamen Innovation“ ("shared innovation") erheblich in Frage. Eine zentrale Rolle kommt dabei der Stellung des Arabischen zu. Tatsächlich hat das Arabische mit den übrigen traditionell als südsemitisch zusammengefassten Sprachen drei auffällige Merkmale gemeinsam: Das Vorhandensein der inneren Pluralbildung, den Lautwandel von ursemitischem "*p" zu "f" und einen durch Vokaldehnung gebildeten Verbalstamm (Arabisch "qātala" sowie mit t-Präfix "taqātala"). Laut Hetzron erfüllen diese Gemeinsamkeiten nicht das Kriterium der genetischen Verwandtschaft, da der Lautwandel "*p" > "f" ein "areal feature" und die innere Pluralbildung ein ursemitisches Phänomen sei, das in den übrigen Sprachen ersetzt wurde. Hingegen teile das Arabische mit den nordwestsemitischen einige Innovationen im Verbalsystem. Hierzu gehört die Imperfektform "yaqtulu", während das Äthiopische und Neusüdarabische eine Form aufweisen, die auf das ursemitische "*yaqattVl" zurückgeht. Daher fasst Hetzron das Arabische und Nordwestsemitische zu einem zentralsemitischen Unterzweig zusammen. Die Frage der Klassifikation des Arabischen ist bislang nicht eindeutig geklärt, in der Forschung gewinnt jedoch Hetzrons Gliederung an Zustimmung. Die Einordnung des Himjarischen ist ungewiss, da zu wenige Daten zu seiner Einordnung vorliegen; es handelt sich zwar allem Anschein nach um eine semitische Sprache, aber sie muss unklassifiziert bleiben, und nur zusätzliche Texte könnten diese Situation verbessern. Verschriftlichung. a>“ in phönizischer Schrift (9. Jh. v. Chr.) Das Wort „Arabisch“ in arabischer Schrift Semitische Sprachen sind seit dem 3. vorchristlichen Jahrtausend in schriftlicher Form überliefert. Für das Akkadische wurde seit dem 3. Jahrtausend v. Chr. die von den Sumerern übernommene mesopotamische Keilschrift, hauptsächlich eine Silbenschrift, angewendet. Zum Schreiben westsemitischer Sprachen dienten dagegen seit den frühesten Zeugnissen aus der ersten Hälfte des 2. Jahrtausends v. Chr. alphabetische Schriften. Deren Wurzel war vermutlich die protosemitische Schrift, die über die phönizische Schrift zum Ursprung nicht nur aller semitischen Alphabete, sondern auch zahlreicher anderer Alphabetschriften wurde. Eine Sonderstellung nahm dabei die ugaritische Schrift ein, die formal eine Keilschrift, tatsächlich aber ein Konsonantenalphabet war. Die alphabetischen Schriften waren ursprünglich reine Konsonantenschriften, so dass die meisten Vokale in ausgestorbenen semitischen Sprachen unbekannt bleiben. Seit dem 1. Jahrtausend n. Chr. wurden einige Systeme jedoch zur Vokalbezeichnung erweitert. Die äthiopische Schrift entwickelte eine sekundäre Vokalbezeichnung durch angefügte Kreise und Striche. In anderen jüngeren Alphabeten wurde eine Vokalbezeichnung durch über- oder untergesetzte Elemente eingeführt, die im Hebräischen als Nikud („Punktierung“) bezeichnet werden. Vokale. Für das Proto-Semitische werden unumstritten die Vokale "a", "i" und "u" sowie ihre langen Gegenstücke "ā", "ī", "ū" rekonstruiert. Dieses System hat sich jedoch nur in sehr wenigen Sprachen, wie dem klassischen Arabisch, vollständig erhalten, während in den meisten semitischen Sprachen teilweise erhebliche Veränderungen eingetreten sind. Diphthonge waren im Proto-Semitischen zwar durch die starken Beschränkungen des Silbenbaus unmöglich, doch wurden vermutlich wie im klassischen Arabisch Kombinationen aus "a" und den Halbvokalen "w" und "y" als Diphthonge realisiert. Vor allem in den modernen semitischen Sprachen werden diese Kombinationen monophthongisiert, vergleiche arabisch "ʿayn-" − akkadisch "īnu-" „Auge“, arabisch "yawm-" − hebräisch "yōm" „Tag“. Silbenbau. In den semitischen Sprachen sind ursprünglich nur Silben der Form Konsonant-Vokal (CV; offene Silbe) und Konsonant-Vokal-Konsonant (CVC; geschlossene Silbe) erlaubt. Falls durch Schwund eines Vokales ein Wort gegen diese Gesetze verstößt, kann in Tochtersprachen ein Sprossvokal eingefügt werden: arabisch "ʾuḏn-u-" „Ohr“ − hebräisch "ʾōzæn". Es ist umstritten, ob im Proto-Semitischen einige Konsonanten auch wie Vokale silbenbildend auftreten konnten, etwa in *"bn̩-" „Sohn“ > arabisch "ʾibn-", akkaddisch "bin-". Wurzelflexion. Wurzeln, die "y" oder "w" als Stammkonsonant haben und solche, deren letzte beiden Konsonanten identisch sind, werden – in Einzelsprachen mit gewissen anderen Gruppen – als "schwache Wurzeln" bezeichnet; sie weisen bei der Formenbildung diverse Unregelmäßigkeiten auf. Eine weitere Ausnahme stellen neben Pronomina und diversen Partikeln auch einige zweikonsonantige Substantive dar, beispielsweise *"dam-" „Blut“, *"yam-" „Meer“. Ihre abweichende Struktur ist auf ihr hohes sprachgeschichtliches Alter zurückzuführen. Nach einer auf das 19. Jahrhundert zurückgehenden Theorie sind viele oder alle dreikonsonantigen Wurzeln des Semitischen auf ursprünglich zweikonsonantige Formen aufgebaut. Als Indizien werden insbesondere die schwachen Wurzeln angeführt, die ihren Halbvokal in bestimmten Formen verlieren, Wurzeln der Form C1C2C2; sowie Wurzeln ähnlicher Bedeutung, die zwei Konsonanten gemeinsam haben. So finden sich im Hebräischen die Verben "qṣṣ" „abschlagen, abschneiden“, "qṣh" „abschlagen, abschneiden“, "qṣb" „abschneiden“, "qṣp" „reißen, brechen“, "qṣʿ" „einschneiden“, "qṣr" „abschneiden“, die alle mit "qṣ-" beginnen und in ihrer Bedeutung mit „schlagen, schneiden“ verwandt sind. Zusätzlich hat das Arabische die Verben "qṣm" "(zusammen)brechen" und "qṣl" "abschneiden, maqṣala = Guillotine" Im Bau der Wurzeln finden sich wie im Ägyptischen und Berberischen Beschränkungen, die das Auftreten ähnlicher und identischer Konsonanten betreffen. So sind Wurzeln mit identischem ersten und zweiten Radikal unmöglich, darüber hinaus kommen verschiedene Konsonanten, die den gleichen Artikulationsort haben, nicht gleichzeitig in einer Wurzel vor. Genus und Numerus. Jedes Substantiv gehört einem der beiden Genera Maskulinum oder Femininum an. Während das Maskulinum generell unmarkiert ist, findet sich als Femininmarker die Endung -"(a)t". Eine Ausnahme stellen einige unmarkierte Nomina dar, die sich dennoch wie feminine Substantive verhalten. Dieses Phänomen findet sich insbesondere bei Substantiven mit weiblichem natürlichen Geschlecht (*"ʾimm-" „Mutter“) und Namen für Körperteile, die doppelt vorkommen (*"ʾuḏn-" „Ohr“). Für das Proto-Semitische lassen sich die drei Numeri Singular, Dual und Plural rekonstruieren. Singular und Dual werden durch ihre Kasusendungen gekennzeichnet, die Bildung des Plurals ist dagegen wesentlich komplexer. Hier lassen sich prinzipiell zwei Bildungsarten unterscheiden: der im Südsemitischen einschließlich des Altsüdarabischen und Arabischen vorherrschende "Innere Plural" ("gebrochener Plural") und der vor allem in den übrigen Sprachen auftretende "Äußere Plural". Der äußere Plural wird vorrangig durch seine von Singular und Dual abweichenden Kasusendungen markiert (siehe das Kapitel zu den Kasus), wogegen zur Bildung des stets als Singular deklinierten inneren Plurals das Vokalschema des Singulars durch ein anderes Schema ersetzt wird: arabisch "bayt" „Haus“ – "buyūt" „Häuser“, "raǧul" „Mann“ – "riǧāl" „Männer“. Eine zweite Bildungsart des maskulinen äußeren Plurals stellt eine Endung "-ān" dar, vergleiche akkadisch "šarr-ān-u" „Könige“ neben dem gleichbedeutenden "šarr-ū". In vielen Fällen tritt bei der Pluralbildung eine Genuspolarität auf. Dabei wird zu einem maskulinen Singular ein femininer äußerer Plural gebildet: akkadisch "lišān-u-m" „Zunge“ – "lišān-āt-u-m" „Zungen“. Im Akkadischen, Arabischen und Ugaritischen findet sich der Dual zur allgemeinen Bezeichnung der Zweizahl. In den meisten Sprachen ist er dagegen auf paarweise vorkommende Dinge beschränkt, beispielsweise Körperteile wie im hebräischen Dual "yāḏ-ayim" „die (beiden) Hände“. Kasusflexion. Der Nominativ dient als Subjektskasus, als Prädikat eines Satzes mit nominalem Prädikat, sowie als Zitierform. Der Genitiv markiert Possessoren und das Objekt von Präpositionen, während der Akkusativ Objekte von Verben und adverbiale Nominalphrasen markiert: akkadisch "bēl bīt-i'"-m" „der Herr des Hauses“ (Genitiv), arabisch "qatala Zayd-u-n ʿAmr-a'"-n" „Zayd (Nominativ) hat Amr (Akkusativ) getötet“, arabisch "yawm-a'"-n" „eines Tages“ (Akkusativ). Weitere, vor allem im Akkadischen zu findende, Kasus sind der Lokativ auf -"u" und ein hauptsächlich adverbialer Kasus auf -"iš", die jedoch beide nur beschränkt produktiv sind. Status, Determination und Indetermination. Allen semitischen Sprachen ist gemeinsam, dass das Substantiv je nach seiner syntaktischen Umgebung in mehrere "Status" treten kann, die gewisse formale Unterschiede aufweisen. Für das Proto-Semitische lassen sich vermutlich zwei Status rekonstruieren: frei und an einen folgenden Genitiv (substantivisch oder pronominal) gebunden ("Status constructus"). Freie Substantive unterschieden sich von Substantiven im Status Constructus durch eine der beiden Endungen *-"n" und *-"m", die nach den arabischen Buchstabennamen für "m" und "n" als Mimation (-"m") und Nunation (-"n") bezeichnet werden. Nach Josef Tropper lassen sich die Formen des Artikels im Zentralsemitischen sämtlich auf die Grundform *"han-" zurückführen, die auf einer deiktischen Partikel beruhe. Pronominalmorphologie. Die unabhängigen Pronomina stehen als Subjekt von Sätzen, etwa in arabisch "huwa raǧulun" „er (ist) ein Mann“. Enklitische Formen werden an ein Bezugswort suffigiert; dieses kann eine Verbform, ein Substantiv im Status constructus oder eine Präposition sein. Hinter Verbformen und Präpositionen drücken sie deren Objekt aus: arabisch "daʿā-hu" „er rief ihn“, während sie mit Substantiven ein Besitzverhältnis angeben: akkadisch "šum-šu" „sein Name“. Einige semitische Sprachen verfügen zusätzlich über eine auch außerhalb des Semitischen zu findende Reihe absoluter Pronomina wie akkadisch "kâti" „dich“, die mit einem Suffix -"t" gebildet sind. Im Akkadischen, im Altsüdarabischen, wo sie als adjektivische Demonstrativpronomina auftreten, und im Ugaritischen stehen sie als oblique Formen, während das Phönizische sie im Nominativ verwendet. Isoliert stehen einige weitere nur im Akkadischen zu findende Bildungen. Zahlwörter. Die Kardinalzahlen weisen besonders bei den niedrigeren Zahlen eine große Konsistenz auf, es fallen jedoch in einzelnen Sprachen Neubildungen für „eins“ und „zwei“ auf. Kardinalzahlen treten sowohl im Maskulinum als auch – durch die Endung protosemitisch -"at" markiert – im Femininum auf. Für Kardinalzahlen von drei bis zehn gilt die Regel der "umgekehrten Polarität", das heißt weibliche Formen der Zahlwörter werden mit männlichen Formen des Nomens verbunden und umgekehrt. Insofern sind sie mit ihrem Bezugswort morphologisch genusinkongruent (zum Beispiel arabisch "ṯalāṯ-at-u ban-īna" „drei Söhne“,"ṯalāṯ-u banāt-i-n" „drei Töchter“). Diese (mit einigen Ausnahmen, zum Beispiel Äthiosemitisch oder Ugaritisch) in allen semitischen Sprachen geltende Regel der morphologischen Genusopposition geht auf das Protosemitische zurück. Ihr Ursprung ist nicht endgültig geklärt, obwohl verschiedene Erklärungsversuche vorliegen. So wurde beispielsweise vorgeschlagen, die Endung -"at" habe ursprünglich nicht das Femininum, sondern das nomen unitatis (Individualbezeichnung, abgeleitet von einem Grundwort, das Kollektivum oder Gattungsbezeichnung ist) und damit die Zählbarkeit markiert. Die Ordinalia werden als Adjektive gebildet und sind mit ihrem Bezugswort regelmäßig genuskongruent. Präfixkonjugation. Vermutlich ist für das Protosemitische (und möglicherweise auch das Proto-Afroasiatische) ein Präsens *"ya-C1aC2C2VC3" und ein Präteritum *"ya-C1C2VC3" zu rekonstruieren. Hierfür spricht auch die vereinzelte Vergangenheitsbedeutung des „zentralsemitischen“ Imperfekts. In mehreren zentralsemitischen Sprachen und im Neusüdarabischen gibt es ein Passiv, das durch ein abweichendes Ablautmuster gebildet wird (klassisches Arabisch "ya-qtul-" „er tötet“, "yu-qtal-" „er wird getötet“) und im Zentralsemitischen auch mehrere (ursprünglich) durch Suffixe gebildete Modi. Mit dem Stamm der Präfixkonjugation *"ya-C1C2VC3" verwandt ist der Imperativ, der im Singular Maskulinum endungslos ist und im Singular Femininum und im Plural durch vokalische Endungen markiert wird, so bildet das Arabische zu "ya-qtul-u" „er tötet“ Imperative wie "ʾuqtul" „töte!“ (maskulin), "ʾuqtul-na" „tötet!“ (feminin). Suffixkonjugation. Es fällt auf, dass die Endungen der 1. und 2. Person Singular und der 2. Person Plural, die im Protosemitischen wie im Akkadischen teils "t", teils "k" enthielten, in südlichen Sprachen (Äthiosemitisch, Altsüdarabisch, Neusüdarabisch) nach "k" und in den anderen zentralsemitischen Sprachen (außerhalb des Altsüdarabischen) dagegen nach "t" hin vereinheitlicht wurden. Abgeleitete Stämme. Vom meist dreikonsonantigen "Grundstamm" des Verbs lassen sich mehrere Verbalstämme ableiten, die mit diesem in ihrer Bedeutung in Bezug stehen. Als Bildungsmittel dienen Affixe, Vokaldehnung und Gemination. Die folgenden Beispiele stammen aus dem Akkadischen; sie finden sich in anderen semitischen Sprachen in sehr ähnlicher Form wieder. Nominale Formen. Das aktive Partizip des Grundstamms weist in allen semitischen Sprachen Formen auf, die auf protosemitisches *"C1āC2iC3" zurückgehen. Im akkadischen Verbaladjektiv und dem westsemitischen Perfekt hat sich außerdem wohl ein Verbaladjektiv der Form *"C1aC2VC3" erhalten, das ursprünglich bei transitiven Verben passive, bei intransitiven Verben dagegen aktive Bedeutung hatte. In den abgeleiteten Stämmen weisen die Partizipien ein Präfix "ma-" oder "mu-" auf. Für den Infinitiv sind in den Einzelsprachen verschiedenartige Schemata in Gebrauch, was sich wohl auch auf das Proto-Semitische übertragen lässt. Verbalsätze. Sätze, deren Prädikat eine finite Verbform ist, haben im Westsemitischen vorwiegend die Stellung Verb – Subjekt – Objekt (VSO): arabisch "ḍaraba Zayd-u-n ʿAmr-a-n" „Zayd hat Amr geschlagen“. Während die gleiche Reihenfolge auch für frühe akkadische Personennamen gilt, findet sich im Akkadischen sonst das Verb am Satzende: "Iddin-sîn" „Sin hat gegeben“ (Personenname), aber "bēl-ī1 šum-ī2 izzakar3" „mein Herr1 hat meinen Namen2 genannt3“. Gewöhnlich wird diese Abweichung auf den Einfluss des Sumerischen, der ältesten Schriftsprache in Mesopotamien, zurückgeführt. Stammbaum. Stammbaum aus dem "Arboretvm genea­logicvm" von 1635 mit dem Versuch, fast alle euro­päischen Herrscher­dynastien auf die Nach­kommen­schaft Rudolfs von Habsburg zurück­zuführen Ein Stammbaum (neuzeitliche Lehnübertragung von mittellateinisch "arbor consanguinitatis" = Baum der Blutsverwandtschaft) ist im allgemeinen Sinne die baumförmige Darstellung der Abstammung von Lebewesen, Sachen oder Ideen voneinander, ausgehend von einem oder zwei zugrundeliegenden Exemplaren an der Baumwurzel. In der Genealogie (Familiengeschichtsforschung) ist ein Stammbaum die Darstellung der namentlich bekannten Nachkommen einer (früheren) Person oder eines Paares; dabei wird die Person oder das Paar zuunterst angezeigt mit nach oben verzweigenden Verbindungslinien zu ihren „Abkömmlingen“ und deren Nachfahren. Umgangssprachlich wird unter einem Stammbaum auch fälschlich die Darstellung einer Stammlinie oder Stammliste in der Form eines Baumstammes verstanden („Familienstammbaum“), bei der nur die Erbfolge in der Väterlinie an den jeweils ältesten ehelichen Sohn über mehrere Generationen abgebildet wird. Dadurch enthält diese Darstellung allerdings nur einen sehr kleinen Ausschnitt der Nachkommenschaft der ursprünglichen "Stammeltern", denn alle Vorfahren der jeweiligen Mutter sowie die Geschwister der Erbsöhne und deren Nachkommen bleiben unberücksichtigt, der Darstellung fehlen die Verästelungen in "Seitenlinien". Selbst das in genealogischen Kreisen bekannte "GenWiki" definiert "Stammbaum" als eine solche „männliche Line“. Ein geschichtliches Vorbild für diese Form der Darstellung ist der "Jessebaum (Wurzel Jesse)", ein verbreitetes Bildmotiv der christlichen Kunst vor allem im Mittelalter, das einen Stammbaum von Jesus Christus abbilden soll (siehe auch Baum des Lebens in der Religionsgeschichte). Der Duden verallgemeinert die Bedeutung von "Stammbaum" zu einem „Nachweis möglichst vieler Vorfahren“ und setzt sie gleich mit einer „Abstammungstafel“ (Ahnentafel). Unklar bleibt bei diesem Verständnis der Wechsel von der "Nachkommen-" zur "Vorfahrenschaft" und wie „möglichst viele Vorfahren“ in der Form eines sich nach unten verjüngenden Baumes dargestellt werden sollten. Andere Darstellungsformen der Verwandtschaft sind die "Nachkommentafel" oder die "Nachkommenliste", dabei steht die Ausgangsperson zuoberst oder links. Genealogisch wird nur dann von einem "Stammbaum" gesprochen, wenn die grafische Darstellung in Baumform erfolgt (siehe auch das Baum-Konzept in der Graphentheorie). Stammbäume werden auch für Tier- oder Pflanzen-Individuen erstellt, im übertragenen Sinne auch für Objekte und Ideen (siehe unten). Geschichte. Man schmückte in der Antike solche Darstellungen, zurückgehend auf die biblische Stelle der "Wurzel Jesse" (Jes. 11,1), ornamental und figürlich reich. Im Frühmittelalter stellten Hochgeborene ihre Einmaligkeit und Heiligkeit ihrer Verwandtschaftsbeziehungen (Blutslinie) dar. Vom Hochmittelalter an wurde der Nachweis, von "edlem Geblüt" zu sein (eine bestimmte Anzahl von freigeborenen Ahnen haben), wichtig, um die Berechtigung zu Ritterschlag und Turnierteilnahme zu erlangen, im weiteren Sinn auch die Berechtigung zum Eintritt in einen Ritterorden oder in einen adligen Dom- oder Stiftskapitel. Die Verwandtschaftsbeziehungen waren damals im Ehe- und Erbrecht wichtig. Das Streben nach möglichst weit zurückliegenden prominenten, sagenhaften Vorfahren führte somit zu abstrusen Behauptungen der Abstammung. Darstellung in Baumform. Beim Stammbaum wird die Stammmutter und/oder der Stammvater als Bezugsperson ganz unten dargestellt, gleichsam als Wurzel eines Baumes. In den Ästen darüber finden sich die Kinder und deren Nachfahren, dabei steht in jeder Generation bei Geschwistern das ältere Geschwisterteil links vom jüngeren, unabhängig von seinem Geschlecht. Die Darstellung kann schematisch erfolgen oder dekorativ ausgeschmückt werden. Stammbäume existieren in verschiedenen Ausprägungen. Traditionelle Stammbäume konzentrierten sich auf eine „Stammlinie“ mit vorwiegend männlichen Nachfahren (und Erbnachfolgern) der Vorfahren, zusammen mit ihren Ehefrauen. So wurden beispielsweise nur Personen gleichen Familiennamens einbezogen; da verheiratete Töchter den Namen ihres Ehemannes annahmen, fielen sie aus derartigen Stammbäumen ihrer eigenen Familienangehörigen heraus. In Hinblick auf die medizinische Diagnose von Erbkrankheiten sind aber die weibliche "und" die männliche biologische Abstammungslinie von gleicher Bedeutung, beispielsweise bei der humangenetischen Beratung. Die moderne Familienforschung strebt deshalb nach umfangreichen, sämtliche Abstammungslinien umfassenden Ahnenlisten – anstelle von Stammlinien, die sich nur auf die männliche Seite der Abstammung beschränken. Genealogische Datensammlung. Für die Erstellung des Stammbaums einer Person bedarf es einer zeitaufwändigen Recherche zu den genauen Daten aller Vorfahren und gegebenenfalls Nachfahren; diese Informationsbeschaffung kann sich über viele Jahre hinziehen. Erst mit dem Erreichen des ursprünglichen „Spitzenahns“ (Stammmutter, Stammvater) kann mit der graphischen Darstellung der gesammelten Verwandtschaftsinformationen begonnen werden. Die ersten Anlaufstellen sind die Familienstammbücher der Eltern oder der Großeltern. Standesämter und Pfarreien mit ihren Kirchenbüchern sind die nächste Stufe der Datenbeschaffung. Kann auf ein vorhandenes Ortsfamilienbuch zugegriffen werden, findet sich dort bereits eine umfangreiche Zusammenstellung. Die Daten können durch Suchanfragen bei der "Ahnenstammkartei des deutschen Volkes" und der "Ahnenlistensammlung" ergänzt werden, ohne die zugrunde liegenden Quellen einsehen zu müssen. Früher oder später kommt die Suche an einen „toten Punkt“. Spätestens mit dem Ende oder dem geschichtlichen Beginn der Kirchenbuch-Aufzeichnung werden andere Quellen benötigt. Alte Steuerlisten können weiteren Aufschluss bieten. Die Online-Recherche im Internet ist zwar ein zeitlicher Gewinn, kann aber nur mit größter Vorsicht und nur zur Quellenunterstützung genutzt werden. Viele Genealogieforen bieten dazu GEDCOM-Dateien aus privaten Recherchen zum Herunterladen.